====== Cluster Lautaro ======
Para este Cluster, el principal recurso de cómputo es una GPU NVIDIA K40C con 2880 núcleos CUDA.
Tambien tiene 40 cores disponibles para procesamiento en CPU o Hibrido junto a la GPU.
Hay disponible 3 compiladores : GCC 7.3, LLVM 4.0 y NVV , este último es el que deben usar para trabajar o compilar código para CUDA tool kit.
===== Conexión al Cluster Lautaro =====
Para conectar al Cluster Lautaro, necesitas un cliente SSH para MS Windows, Linux y OSX
**DATOS DE CONEXIÓN **
SERVIDOR : paliaike.ingmat.ufro.cl
PUERTO : 20161
==== a) Usuarios de GNU/Linux: ====
ssh -p 20161 user@paliaike.ingmat.ufro.cl # para conectarse a un terminal remoto del cluster
scp -P 20161 -r archivo-local.zip user@paliaike.ingmat.ufro.cl:~user/ # upload desde computador local hacia el cluster
\\
\\
Para transferir archivos a través de una aplicación gráfica pueden usar FileZilla ([[https://filezilla-project.org/|https://filezilla-project.org/]]) o las alternativas que proporciona cada escritorio en Linux (gnome, kde, xfce, etc).
{{:namespace:doc-cmcc:screenshot_from_2019-04-04_22-51-28.png?1346x977}}
==== b) Usuarios de Microsoft Windows ====
Pueden descargar algun cliente SSH/SCP opensource como : putty, kitty, winscp. o un paquete portable de WinSCP integrado con kitty, listo para usar con el CEMCC.
**DESCARGAR CLIENTE SSH PARA MS WINDOWS**
- WinSCP-CEMCC [[http://cemcc.ufro.cl/files/WinSCP-CEMCC.exe|http://cemcc.ufro.cl/files/WinSCP-CEMCC.exe]]
- Kitty Portable [[http://cemcc.ufro.cl/files/kitty_portable.exe|http://cemcc.ufro.cl/files/kitty_portable.exe]]
- Putty [[https://www.chiark.greenend.org.uk/~sgtatham/putty/latest.html|https://www.chiark.greenend.org.uk/~sgtatham/putty/latest.html]]
- WinSCP [[https://winscp.net/eng/download.php|https://winscp.net/eng/download.php]]
En Windows 10 actualizado, disponen de un cliente por consola, para SSH y SCP.
- Inicio/Ejecutar/
- Ejecutar el comando cmd o powershell
- Se abrira una ventana con un prompt
Ejecutar:
ssh -p 20161 user@paliaike.ingmat.ufro.cl
===== Enviar trabajos al Cluster =====
Los 2 primeros métodos estan disponibles para enviar trabajos a procesar cualquier cómputo.
=== 1.) Comando nohup ===
nohup programa & # salida por pantalla y errores durante la ejecución al archivo de salida por default
nohup programa 2> error.out& # Envia solamente los errores durante la ejecución al archivo de salida error.out
Este comando envia "programa" en modo background, y la salida la envia a nohup.out por default (error y salida en pantalla)
=== 2.) Multiplexor screen ===
screen -S nombre-sesion #Crear una sesion de nombre "nombre-sesion"
screen control+A+D #Desvincular el terminal de la sesion actual, para volver en otro momento...
screen -list #Mostar las sesion abiertas activas
screen -r nombre-trabajo #Restaurar una sesion previa
Más detalles : [[http://www.secnot.com/tutorial-screen.html|http://www.secnot.com/tutorial-screen.html]]
=== 3.) Encolamiento (temporalmente fuera de servicio) ===
===== Uso de GPU =====
Para usar la GPU NVIDIA TESLA K40C en los cómputos tu programa debe estar escrito y soportar CUDA.
Esta disponible CUDA 8 y el compilador de NVIDIA para construir el soporte GPU adecuado.
Cada programa tiene su propio metodo y no de explicara cada uno en este documento.
Solamente está disponible el monitoreo a través del comando nvidia-smi, para estar seguro que la GPU esta procesadando tus datos.
(EN EDICIÓN…)