Differences
This shows you the differences between two versions of the page.
Both sides previous revision Previous revision Next revision | Previous revision Next revision Both sides next revision | ||
slurm [2020/05/19 02:07] mickey |
slurm [2020/09/17 13:06] admin |
||
---|---|---|---|
Line 1: | Line 1: | ||
- | ====== SLURM ====== | + | ===== 4. Ejemplo básico 3 ===== |
- | Conceptos básicos | + | Este es un ejemplo de un script (ejemplo3.sh) con los elementos minimos para ejecutar el programa R-3.6.1 a través de slurm: |
- | Jobs | + | <code> |
+ | #!/bin/bash | ||
- | Particiones | + | #SBATCH -J R-NOMBRE-SIMULACION # reemplazar por el nombre de tu simulacion |
+ | #SBATCH -a 1-11%3 | ||
+ | #SBATCH --nodes=1 #numero de nodos a utilizar | ||
+ | #SBATCH --tasks-per-node=1 " numero de tareas por nodo | ||
+ | #SBATCH --mem=100G #cantidad de memoria requerida para la simulacion | ||
+ | #SBATCH --partition=intel #particion o cola donde enviaras el trabajo/simulacion | ||
- | Task | + | module load R/3.6.1 #modulo o programa que necesitas para tu simulación |
- | Comandos básicos | + | cmds=( |
+ | 'sleep 10;echo 10' | ||
+ | 'sleep 20;echo 20' | ||
+ | 'sleep 30;echo 30' | ||
+ | 'sleep 40;echo 40' | ||
+ | 'sleep 50;echo 50' | ||
+ | ) | ||
+ | eval ${cmds[$SLURM_ARRAY_TASK_ID - 1]} | ||
+ | </code> | ||
- | Consultar cola | + | Para enviar este script a slurm, crear un job, y comenzar el procesamiento se requiere lo siguiente: |
- | Enviar un programa | ||
- | |||
- | Cancelar un trabajo | ||
- | |||
- | ===== Trabajando con SLURM ===== | ||
- | |||
- | **Simple usage for soroban** | ||
- | |||
- | 0. Note. | ||
- | |||
- | '-p intel' (equivalent long option: '--partition=intel') is required for soroban. | ||
- | |||
- | 1. Save below as text file (e.g. my_first_slurm.sh). | ||
<code> | <code> | ||
- | #!/bin/bash | + | chmod x ejemplo3.sh |
- | #SBATCH --job-name=example # Nombre para el trabajo a ejecutar en el cluster | + | |
- | #SBATCH --partition=intel | + | |
- | #SBATCH --output=example_%j.out | + | |
- | #SBATCH --error=example_%j.err | + | |
- | + | ||
- | ls -lh | + | |
- | pwd | + | |
</code> | </code> | ||
- | 2. Submit it as SLURM job. | ||
- | |||
- | sbatch <filename> (e.g. sbatch my_first_slurm.sh) | ||
- | |||
- | 3. Check progress. | ||
- | |||
- | squeue | ||
- | |||
- | **Ejecutando un programa con openMPI , usando un script base para SLURM:** | ||
<code> | <code> | ||
- | #!/bin/bash | + | sbatch ejemplo3.sh |
- | #SBATCH --job-name=example # Nombre para el trabajo a ejecutar en el cluster | + | |
- | #SBATCH --partition=troquil | + | |
- | #SBATCH -n 32 # Debe de ser un número múltiplo de 16 | + | |
- | #SBATCH --ntasks-per-node=16 # máximo por blade | + | |
- | #SBATCH --output=example_%j.out | + | |
- | #SBATCH --error=example_%j.err | + | |
- | #SBATCH --mail-user=username@ufrontera.cl | + | |
- | #SBATCH --mail-type=ALL | + | |
- | + | ||
- | srun ./mpi_programa | + | |
</code> | </code> | ||
- | |||
===== List of available clusters and partitions ===== | ===== List of available clusters and partitions ===== | ||
Line 86: | Line 60: | ||
* scancel | * scancel | ||
* scontrol | * scontrol | ||
+ | * sinfo | ||
* squeue | * squeue | ||
* sreport | * sreport | ||
Line 91: | Line 66: | ||
==== Useful reference pages ==== | ==== Useful reference pages ==== | ||
- | [[https://doku.lrz.de/display/PUBLIC/Running+parallel+jobs+on+the+Linux-Cluster#RunningparalleljobsontheLinux-Cluster-Step1:Editajobscript|https://doku.lrz.de/display/PUBLIC/Running+parallel+jobs+on+the+Linux-Cluster#RunningparalleljobsontheLinux-Cluster-Step1:Editajobscript]] | + | [[https://doku.lrz.de/display/PUBLIC/Running parallel jobs on the Linux-Cluster#RunningparalleljobsontheLinux-Cluster-Step1:Editajobscript|https://doku.lrz.de/display/PUBLIC/Running parallel jobs on the Linux-Cluster#RunningparalleljobsontheLinux-Cluster-Step1:Editajobscript]] |
=== About job array === | === About job array === |