Μετάβαση στο περιεχόμενο

Περιγραφή

LAMMPS is a classical molecular dynamics code with a focus on materials modeling. It's an acronym for Large-scale Atomic/Molecular Massively Parallel Simulator.

LAMMPS 21Jul20

Συνδεόμαστε στον aristotle.it.auth.gr μέσω ssh και δημιουργούμε ένα νέο φάκελο:

# mkdir LAMMPS-21Jul20-case
# cd LAMMPS-21Jul20-case

Για το παράδειγμα αυτό, τοποθετούμε μέσα στον φάκελο τα εξής αρχεία εισόδου:

Το script που θα χρησιμοποιήσουμε είναι το εξής:

SLURM submission script
#!/bin/bash
#SBATCH -J LAMMPS-21Jul20-case
#SBATCH --ntasks-per-node=15
#SBATCH --nodes=2
#SBATCH --time=10:00

module load gcc/9.2.0 mvapich2/2.3.4 lammps/20200721

echo "Running lammps with" $SLURM_NPROCS "MPI tasks"

srun lmp < calc_fcc.in

Με τον τρόπο αυτό η εργασία θα τρέξει σε 2 compute nodes με 15 CPUs/node. Δηλαδή το lammps θα τρέξει με συνολικά 30 παράλληλες διεργασίες (MPI tasks). Για να αυξήσουμε τον συνολικό αριθμό των MPI tasks, μπορούμε να τρέξουμε την εργασία σε περισσότερα nodes. Για παράδειγμα, εάν ορίσουμε nodes=4, το lammps θα τρέξει με συνολικά 60 MPI tasks.

Αποθηκεύουμε τα περιεχόμενα σε ένα νέο αρχείο (έστω LAMMPS-21Jul20-case.sh) και το υποβάλλουμε προς εκτέλεση με την εντολή:

# sbatch LAMMPS-21Jul20-case.sh

Παρακολουθούμε την εξέλιξη της εργασίας με την εντολή:

# squeue

Πληροφορίες εγκατάστασης (21Jul20)

Για την εγκατάσταση έχουν χρησιμοποιηθεί οι εξής μεταγλωττιστές:

  • gcc/9.2.0
  • mvapich2/2.3.4

Οι ρυθμίσεις που χρησιμοποιήθηκαν στο configuration βήμα κατά την εγκατάσταση του LAMMPS είναι οι εξής:

Lammps packages

-DBUILD_SHARED_LIBS=ON -DLAMMPS_EXCEPTIONS=OFF -DBUILD_MPI=ON -DBUILD_OMP=ON \ -DPKG_GPU=OFF -DBUILD_LIB=ON -DWITH_JPEG=ON -DWITH_PNG=ON -DWITH_FFMPEG=ON \ -DPKG_ASPHERE=ON -DPKG_BODY=ON -DPKG_CLASS2=ON -DPKG_COLLOID=ON -DPKG_COMPRESS=ON \ -DPKG_CORESHELL=ON -DPKG_DIPOLE=ON -DPKG_GRANULAR=ON -DPKG_KSPACE=ON -DPKG_KOKKOS=OFF \ -DPKG_LATTE=ON -DPKG_MANYBODY=ON -DPKG_MC=ON -DPKG_MEAM=OFF -DPKG_MISC=ON \ -DPKG_MOLECULE=ON -DPKG_MPIIO=OFF -DPKG_PERI=ON -DPKG_POEMS=ON -DPKG_PYTHON=ON \ -DPKG_QEQ=ON -DPKG_REPLICA=ON -DPKG_RIGID=ON -DPKG_SHOCK=ON -DPKG_SNAP=ON \ -DPKG_SPIN=ON -DPKG_SRD=ON -DPKG_USER-ATC=ON -DPKG_USER-H5MD=ON -DPKG_USER-LB=ON \ -DPKG_USER-MEAMC=ON -DPKG_USER-MISC=ON -DPKG_USER-NETCDF=ON -DPKG_USER-OMP=ON \ -DPKG_USER-REAXC=ON -DPKG_VORONOI=ON -DFFT=FFTW3

LAMMPS 5May20

Συνδεόμαστε στον aristotle.it.auth.gr μέσω ssh και δημιουργούμε ένα νέο φάκελο:

# mkdir LAMMPS-5May20-case
# cd LAMMPS-5May20-case

Για το παράδειγμα αυτό, τοποθετούμε μέσα στον φάκελο τα εξής αρχεία εισόδου:

Το script που θα χρησιμοποιήσουμε είναι το εξής:

SLURM submission script
#!/bin/bash
#SBATCH -J LAMMPS-5May20-case
#SBATCH --ntasks-per-node=8
#SBATCH --nodes=1
#SBATCH --time=10:00

module load lammps/20200505-intel

echo "Running lammps with" $SLURM_NPROCS "MPI tasks"

srun lmp < calc_fcc.in

Με τον τρόπο αυτό η εργασία θα τρέξει σε 2 compute nodes με 20 CPUs/node. Δηλαδή το lammps θα τρέξει με συνολικά 40 παράλληλες διεργασίες (MPI tasks). Για να αυξήσουμε τον συνολικό αριθμό των MPI tasks, μπορούμε να τρέξουμε την εργασία σε περισσότερα nodes. Για παράδειγμα, εάν ορίσουμε nodes=4, το lammps θα τρέξει με συνολικά 80 MPI tasks.

Αποθηκεύουμε τα περιεχόμενα σε ένα νέο αρχείο (έστω LAMMPS-5May20-case.sh) και το υποβάλλουμε προς εκτέλεση με την εντολή:

# sbatch LAMMPS-5May20-case.sh

Παρακολουθούμε την εξέλιξη της εργασίας με την εντολή:

# squeue

Εφόσον η εργασία έχει εκκινήσει μπορούμε να παρακολουθούμε την πρόοδο μέσω των αρχείων εξόδου. Π.χ.:

# tail -f log.lammps

Πληροφορίες εγκατάστασης (5May20-intel)

Για την εγκατάσταση έχουν χρησιμοποιηθεί οι εξής μεταγλωττιστές:

  • intel/19.0.5
  • openmpi/3.1.6

Tα πακέτα που έχουν ενεργοποιηθεί για την εγκατάσταση του LAMMPS είναι τα εξής:

Lammps packages

ASPHERE BODY CLASS2 COLLOID COMPRESS CORESHELL DIPOLE GRANULAR KSPACE MANYBODY MC MESSAGE MISC MOLECULE MPIIO MSCG OPT PERI POEMS PYTHON QEQ REPLICA RIGID SHOCK SNAP SPIN SRD USER-ATC USER-AWPMD USER-BOCS USER-CGDNA USER-CGSDK USER-COLVARS USER-DIFFRACTION USER-DPD USER-DRUDE USER-EFF USER-FEP USER-H5MD USER-INTEL USER-LB USER-MANIFOLD USER-MEAMC USER-MESODPD USER-MGPT USER-MISC USER-MOFFF USER-MOLFILE USER-NETCDF USER-OMP USER-PHONON USER-PTM USER-QTB USER-REACTION USER-REAXC USER-SDPD USER-SMD USER-SMTBQ USER-SPH USER-TALLY USER-UEF USER-YAFF VORONOI