Mcloud 使用指南
使用步骤
点击 SHELL 图标, 打开终端
- 编写 作业脚本, 如下示例
[pengge@login ~]$ cd work01/
[pengge@login work01]$ cat pwmat.slurm
#!/bin/sh
#SBATCH --partition=3080ti
#SBATCH --job-name=H2relax
#SBATCH --nodes=1
#SBATCH --ntasks-per-node=4
#SBATCH --gres=gpu:4
#SBATCH --gpus-per-task=1
module load compiler mkl mpi
module load cuda/11.6
module load pwmat
mpirun -np $SLURM_NPROCS PWmat | tee output
[pengge@login ~]$ cd work01/
[pengge@login work01]$ cat pwmat.slurm
#!/bin/sh
#SBATCH --partition=3080ti
#SBATCH --job-name=H2relax
#SBATCH --nodes=2
#SBATCH --ntasks-per-node=4
#SBATCH --gres=gpu:4
#SBATCH --gpus-per-task=1
module load compiler mkl mpi
module load cuda/11.6
module load pwmat
mpirun -np $SLURM_NPROCS PWmat | tee output
#!/bin/bash
#SBATCH --partition=4090
#SBATCH --job-name=pwmat_test
#SBATCH --nodes=1
#SBATCH --ntasks-per-node=4
#SBATCH --gres=gpu:4
#SBATCH --gpus-per-task=1
#SBATCH --output=%j.out
#SBATCH --error=%j.err
module load mpi mkl
module load cuda/12.1
module load pwmat-4090/2023.11.12-cuda-12.1 # 使用 module ava 查找 pwmat-4090 最新版本
mpirun -np $SLURM_NPROCS PWmat | tee output
#!/bin/bash
#SBATCH --partition=cpu
#SBATCH --job-name=pwmat_test
#SBATCH --nodes=1
#SBATCH --ntasks-per-node=16
#SBATCH --output=%j.out
#SBATCH --error=%j.err
module load mpi mkl
module load pwmat-cpu/20231108-oneapi-2021 # 使用 module ava 查找 pwmat-cpu 最新版本
mpirun -np $SLURM_NPROCS PWmat -host 10.0.0.2 20150 | tee output
提示 tip
module ava
查看集群里 module 的版本, 对上面脚本做相应修改sinfo
查看集群里 partition 信息, 对所使用分区做相应修改
准备作业输入文件, sbatch 提交作业
sbatch pwmat.slurm
注意 Caution
禁止操作:禁止用户直接在登陆节点上运行计算程序