namespace:doc-cmcc:cluster_gpu

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revision Previous revision
Next revision
Previous revision
namespace:doc-cmcc:cluster_gpu [2019/04/04 22:00]
admin [a) Usuarios de GNU/Linux:]
namespace:doc-cmcc:cluster_gpu [2019/04/05 00:05] (current)
deleteme [a) Usuarios de GNU/Linux:]
Line 1: Line 1:
-======Cluster Lautaro=====+====== Cluster Lautaro ​======
  
 Para este Cluster, el principal recurso de cómputo es una GPU NVIDIA K40C con 2880 núcleos CUDA. Para este Cluster, el principal recurso de cómputo es una GPU NVIDIA K40C con 2880 núcleos CUDA.
Line 6: Line 6:
  
 Hay disponible 3 compiladores : GCC 7.3, LLVM 4.0 y NVV , este último es el que deben usar para trabajar o compilar código para CUDA tool kit. Hay disponible 3 compiladores : GCC 7.3, LLVM 4.0 y NVV , este último es el que deben usar para trabajar o compilar código para CUDA tool kit.
- 
- 
- 
- 
  
 ===== Conexión al Cluster Lautaro ===== ===== Conexión al Cluster Lautaro =====
Line 15: Line 11:
 Para conectar al Cluster Lautaro, necesitas un cliente SSH para MS Windows, Linux y OSX Para conectar al Cluster Lautaro, necesitas un cliente SSH para MS Windows, Linux y OSX
  
 +**DATOS DE CONEXIÓN **
 +<​code>​
 +SERVIDOR : paliaike.ingmat.ufro.cl
 +PUERTO ​  : 20161
 +</​code>​
  
- 
- 
- 
- ​**DATOS DE CONEXIÓN 
-** 
-  SERVIDOR : paliaike.ingmat.ufro.cl 
-  PUERTO ​  : 20161 
- 
-  
 ==== a) Usuarios de GNU/Linux: ==== ==== a) Usuarios de GNU/Linux: ====
  
 <​code>​ <​code>​
  ssh -p 20161 user@paliaike.ingmat.ufro.cl ​                               # para conectarse a un terminal remoto del cluster  ssh -p 20161 user@paliaike.ingmat.ufro.cl ​                               # para conectarse a un terminal remoto del cluster
- ssh -P 20161 -r archivo-local.zip user@paliaike.ingmat.ufro.cl:​~user/ ​   # upload desde computador local hacia el cluster + scp -P 20161 -r archivo-local.zip user@paliaike.ingmat.ufro.cl:​~user/ ​   # upload desde computador local hacia el cluster 
-</​code>​+</​code>​\\ 
 +\\ 
 +Para transferir archivos a través de una aplicación gráfica pueden usar FileZilla ([[https://​filezilla-project.org/​|https://​filezilla-project.org/​]]) o las alternativas que proporciona cada escritorio en Linux (gnome, kde, xfce, etc). 
 + 
 +{{:​namespace:​doc-cmcc:​screenshot_from_2019-04-04_22-51-28.png?​1346x977}}
  
  
Line 39: Line 35:
 **DESCARGAR CLIENTE SSH PARA MS WINDOWS** **DESCARGAR CLIENTE SSH PARA MS WINDOWS**
  
-  ​- WinSCP-CEMCC [[http://​cemcc.ufro.cl/​files/​WinSCP-CEMCC.exe|http://​cemcc.ufro.cl/​files/​WinSCP-CEMCC.exe]]+   - WinSCP-CEMCC [[http://​cemcc.ufro.cl/​files/​WinSCP-CEMCC.exe|http://​cemcc.ufro.cl/​files/​WinSCP-CEMCC.exe]]
   - Kitty Portable [[http://​cemcc.ufro.cl/​files/​kitty_portable.exe|http://​cemcc.ufro.cl/​files/​kitty_portable.exe]]   - Kitty Portable [[http://​cemcc.ufro.cl/​files/​kitty_portable.exe|http://​cemcc.ufro.cl/​files/​kitty_portable.exe]]
   - Putty [[https://​www.chiark.greenend.org.uk/​~sgtatham/​putty/​latest.html|https://​www.chiark.greenend.org.uk/​~sgtatham/​putty/​latest.html]]   - Putty [[https://​www.chiark.greenend.org.uk/​~sgtatham/​putty/​latest.html|https://​www.chiark.greenend.org.uk/​~sgtatham/​putty/​latest.html]]
Line 55: Line 51:
  ssh -p 20161 user@paliaike.ingmat.ufro.cl  ssh -p 20161 user@paliaike.ingmat.ufro.cl
 </​code>​ </​code>​
- 
  
 ===== Enviar trabajos al Cluster ===== ===== Enviar trabajos al Cluster =====
- 
  
 Los 2 primeros métodos estan disponibles para enviar trabajos a procesar cualquier cómputo. Los 2 primeros métodos estan disponibles para enviar trabajos a procesar cualquier cómputo.
  
 +=== 1.) Comando nohup ===
 +
 +<​code>​
 +    nohup programa &                 # salida por pantalla y errores durante la ejecución al archivo de salida por default
 +    nohup programa 2> error.out& ​    # Envia solamente los errores durante la ejecución al archivo de salida error.out
 +</​code>​
  
-=== 1.) Comando nohup === 
-      nohup programa &                 # salida por pantalla y errores durante la ejecución al archivo de salida por default 
-      nohup programa 2> error.out& ​    # Envia solamente los errores durante la ejecución al archivo de salida error.out ​ 
-        ​ 
-  
 Este comando envia "​programa"​ en modo background, y la salida la envia a nohup.out por default (error y salida en pantalla) Este comando envia "​programa"​ en modo background, y la salida la envia a nohup.out por default (error y salida en pantalla)
  
-     +=== 2.) Multiplexor screen === 
-=== 2.)  Multiplexor screen === + 
-       ​screen -S nombre-sesion ​                 #Crear una sesion de nombre "​nombre-sesion"​ +<​code>​ 
-       ​screen control+A+D ​                      #​Desvincular el terminal de la sesion actual, para volver en otro momento... +     screen -S nombre-sesion ​                 #Crear una sesion de nombre "​nombre-sesion"​ 
-       ​screen -list                             #​Mostar las sesion abiertas activas +     ​screen control+A+D ​                      #​Desvincular el terminal de la sesion actual, para volver en otro momento... 
-       ​screen -r nombre-trabajo ​                #​Restaurar una sesion previa +     ​screen -list                             #​Mostar las sesion abiertas activas 
-        +     ​screen -r nombre-trabajo ​                #​Restaurar una sesion previa 
- Más detalles : [[ http://​www.secnot.com/​tutorial-screen.html]] +</code>
-        +
-=== 3.)  Encolamiento (temporalmente fuera de servicio) ===+
  
 +Más detalles : [[http://​www.secnot.com/​tutorial-screen.html|http://​www.secnot.com/​tutorial-screen.html]]
  
 +=== 3.) Encolamiento (temporalmente fuera de servicio) ===
  
 ===== Uso de GPU ===== ===== Uso de GPU =====
Line 93: Line 88:
 Solamente está disponible el monitoreo a través del comando nvidia-smi, para estar seguro que la GPU esta procesadando tus datos. Solamente está disponible el monitoreo a través del comando nvidia-smi, para estar seguro que la GPU esta procesadando tus datos.
  
-(EN EDICIÓN...)+(EN EDICIÓN)
  
  
  • namespace/doc-cmcc/cluster_gpu.1554426005.txt.bz2
  • Last modified: 2019/04/04 22:00
  • by admin