用户工具

站点工具


mcloud:cp2k

差别

这里会显示出您选择的修订版和当前版本之间的差别。

到此差别页面的链接

后一修订版
前一修订版
mcloud:cp2k [2024/01/23 18:03] – 创建 penggemcloud:cp2k [2024/01/25 15:13] (当前版本) pengge
行 1: 行 1:
 +{{htmlmetatags>metatag-robots=(index, follow)}}
 ====== mcloud 中 cp2k 使用 ====== ====== mcloud 中 cp2k 使用 ======
  
行 8: 行 9:
  
 singularity run --bind $PWD/H2O-32.inp:/opt/cp2k/data/H2O-32.inp /share/app/sif/cp2k_latest.sif mpiexec -genv OMP_NUM_THREADS=2 -np 3 cp2k H2O-32.inp singularity run --bind $PWD/H2O-32.inp:/opt/cp2k/data/H2O-32.inp /share/app/sif/cp2k_latest.sif mpiexec -genv OMP_NUM_THREADS=2 -np 3 cp2k H2O-32.inp
-<code>+</code> 
 + 
 +提交脚本  
 + 
 +<code bash> 
 +#!/bin/bash 
 +  
 +#SBATCH --partition=cpu 
 +#SBATCH --job-name=RPA 
 +#SBATCH --nodes=1 
 +#SBATCH --ntasks-per-node=2 
 +#SBATCH --cpus-per-task=32 
 +#SBATCH --output=%j.out 
 +#SBATCH --error=%j.err 
 + 
 +export OMP_NUM_THREADS=$SLURM_CPUS_PER_TASK 
 + 
 +module load mpi 
 + 
 +mpirun -n $SLURM_NTASKS singularity exec --bind /data/home/pengge/playground/H2O-32.inp:/opt/cp2k/data/H2O-32.inp /share/app/sif/cp2k_latest.sif cp2k H2O-32.inp 
 +</code> 
 + 
 +singularity run mpiexec -np 与 mpirun -np singularity exec的区别 
 +   singularity run mpiexec -np不结合调度器,在单机中使用 singularity 运行作业,完全使用容器内部的 mpi 和软件。该方式可以不 
 +   需要在主机上安装 mpi,但无法多节点运行 
 +   mpirun -np singularity exec结合外部调度器和 mpi 在 singularity 中运行作业,结合主机上和容器内部的 mpi,可以实现跨节点的 
 +   容器作业调度。此种方式可以适用调度器进行调度,也可跨节点运行。用slurm进行作业提交时,将该命令放到提交脚本中 
 +   ref: 
 +   [1] https://docsv4.qingcloud.com/user_guide/compute/hpc/best-practices/sample3/ 
 +   [2] https://docs.sylabs.io/guides/3.6/user-guide/mpi.html
mcloud/cp2k.1706004225.txt.gz · 最后更改: 2024/01/23 18:03 由 pengge