slurm

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revision Previous revision
Next revision
Previous revision
Next revision Both sides next revision
slurm [2020/05/19 02:08]
mickey [Use 'man' command after login to servers]
slurm [2020/09/17 13:06]
admin
Line 1: Line 1:
-====== SLURM ======+===== 4. Ejemplo básico 3 =====
  
-Conceptos básicos+Este es un ejemplo de un script (ejemplo3.sh) con los elementos minimos para ejecutar el programa R-3.6.1 a través de slurm:
  
-Jobs+<​code>​ 
 +#!/bin/bash
  
-Particiones+#SBATCH -J R-NOMBRE-SIMULACION # reemplazar por el nombre de tu simulacion 
 +#SBATCH -a 1-11%3 
 +#SBATCH --nodes=1 ​  #​numero de nodos a utilizar 
 +#SBATCH --tasks-per-node=1 ​  "​ numero de tareas por nodo 
 +#SBATCH --mem=100G ​  #​cantidad de memoria requerida para la simulacion 
 +#SBATCH --partition=intel ​    #​particion o cola donde enviaras el trabajo/​simulacion
  
-Task+module load R/​3.6.1 ​    #​modulo o programa que necesitas para tu simulación
  
-Comandos básicos+cmds=( 
 +'sleep 10;echo 10' 
 +'sleep 20;echo 20' 
 +'sleep 30;echo 30' 
 +'sleep 40;echo 40' 
 +'sleep 50;echo 50' 
 +
 +eval ${cmds[$SLURM_ARRAY_TASK_ID - 1]} 
 +</​code>​
  
-Consultar cola+Para enviar este script a slurm, crear un job, y comenzar el procesamiento se requiere lo siguiente:
  
-Enviar un programa 
- 
-Cancelar un trabajo 
- 
-===== Trabajando con SLURM ===== 
- 
-**Simple usage for soroban** 
- 
-0. Note.  
- 
-'-p intel' (equivalent long option: '​--partition=intel'​) is required for soroban. ​ 
- 
-1. Save below as text file (e.g. my_first_slurm.sh). ​ 
 <​code>​ <​code>​
-#​!/​bin/​bash +chmod  x ejemplo3.sh
-#SBATCH --job-name=example ​ # Nombre para el trabajo a ejecutar en el cluster +
-#SBATCH --partition=intel +
-#SBATCH --output=example_%j.out +
-#SBATCH --error=example_%j.err +
- +
-ls -lh +
-pwd+
 </​code>​ </​code>​
  
-2. Submit it as SLURM job.  
- 
-sbatch <​filename>​ (e.g. sbatch my_first_slurm.sh) 
- 
-3. Check progress. ​ 
- 
-squeue 
- 
-**Ejecutando un programa con openMPI , usando un script base para SLURM:** 
 <​code>​ <​code>​
-#​!/​bin/​bash +sbatch ejemplo3.sh
-#SBATCH --job-name=example ​ # Nombre para el trabajo a ejecutar en el cluster +
-#SBATCH --partition=troquil +
-#SBATCH -n 32  # Debe de ser un número múltiplo de 16 +
-#SBATCH --ntasks-per-node=16 # máximo por blade +
-#SBATCH --output=example_%j.out +
-#SBATCH --error=example_%j.err +
-#SBATCH --mail-user=username@ufrontera.cl +
-#SBATCH --mail-type=ALL +
- +
-srun ./​mpi_programa+
 </​code>​ </​code>​
- 
  
 ===== List of available clusters and partitions ===== ===== List of available clusters and partitions =====
Line 92: Line 66:
 ==== Useful reference pages ==== ==== Useful reference pages ====
  
-[[https://​doku.lrz.de/​display/​PUBLIC/​Running+parallel+jobs+on+the+Linux-Cluster#​RunningparalleljobsontheLinux-Cluster-Step1:​Editajobscript|https://​doku.lrz.de/​display/​PUBLIC/​Running+parallel+jobs+on+the+Linux-Cluster#​RunningparalleljobsontheLinux-Cluster-Step1:​Editajobscript]]+[[https://​doku.lrz.de/​display/​PUBLIC/​Running parallel jobs on the Linux-Cluster#​RunningparalleljobsontheLinux-Cluster-Step1:​Editajobscript|https://​doku.lrz.de/​display/​PUBLIC/​Running parallel jobs on the Linux-Cluster#​RunningparalleljobsontheLinux-Cluster-Step1:​Editajobscript]]
  
 === About job array === === About job array ===
  • slurm.txt
  • Last modified: 2020/09/17 13:19
  • by admin