cluster-doc issueshttps://gitlab.math.unistra.fr/atlas/cluster-doc/-/issues2017-03-25T17:36:17Zhttps://gitlab.math.unistra.fr/atlas/cluster-doc/-/issues/3ajouter un module pour cling2017-03-25T17:36:17ZMatthieu Boileaumatthieu.boileau@math.unistra.frajouter un module pour clingDemande de @dolle
Pour le compiler, il suffit de lancer le script buildscript de la page officielle : https://root.cern.ch/cling-build-instructionsDemande de @dolle
Pour le compiler, il suffit de lancer le script buildscript de la page officielle : https://root.cern.ch/cling-build-instructionshttps://gitlab.math.unistra.fr/atlas/cluster-doc/-/issues/2paquet "ninja-build"2017-03-25T17:36:17ZMatthieu Boileaumatthieu.boileau@math.unistra.frpaquet "ninja-build"Demande de @dolleDemande de @dollehttps://gitlab.math.unistra.fr/atlas/cluster-doc/-/issues/5Compilation avec OpenCL2017-04-12T18:18:39ZMatthieu Boileaumatthieu.boileau@math.unistra.frCompilation avec OpenCLRelevé par Pierre Gerhard <gerhard@math.unistra.fr>
`module load schnaps-fxt.profile`
Résultat du cmake ..
```
- ##############################################
-- #### ...Relevé par Pierre Gerhard <gerhard@math.unistra.fr>
`module load schnaps-fxt.profile`
Résultat du cmake ..
```
- ##############################################
-- ####
-- #### CMAKE_BUILD_TYPE : Release
-- #### -std=gnu99 -D_SCHNAPS_DIR=/home/u2/gerhard/schnaps2/schnaps/old_schnaps -O3 -Werror -Wno-deprecated-declarations -D_WITH_OPENCL -D_WITH_STARPU -D_WITH_UMFPACK -D_WITH_FLANN
-- #### SuiteSparse Found : ON
-- #### OpenCl Found : TRUE
-- #### StarPU Found : TRUE
-- #### igraph Found : TRUE
-- #### GC USE : OFF
-- ####
-- ############################################################
-- Configuring done
```
make -> Echec compilation lors du linkage :
```
[ 34%] Linking C executable test/testumfpac
/usr/bin/ld : ne peut trouver -lOpenCL
/usr/bin/ld : ne peut trouver -lOpenCL
collect2: error: ld returned 1 exit status
[ 35%] Linking C executable example/testmhd
make[2]: *** [test/testumfpack] Erreur 1
make[1]: *** [CMakeFiles/testumfpack.dir/all] Erreur 2
make[1]: *** Attente des tâches non terminées..
mêmes erreurs répétées pour toute la suite
```Matthieu Boileaumatthieu.boileau@math.unistra.frMatthieu Boileaumatthieu.boileau@math.unistra.frhttps://gitlab.math.unistra.fr/atlas/cluster-doc/-/issues/4MPICH2017-07-17T14:55:06ZMatthieu Boileaumatthieu.boileau@math.unistra.frMPICHDemande de @massaro :
> Y a t-il un module dans atlas dans lequel je pourrais trouver MPICH ou serait-il possible de l'installer ?Demande de @massaro :
> Y a t-il un module dans atlas dans lequel je pourrais trouver MPICH ou serait-il possible de l'installer ?Matthieu Boileaumatthieu.boileau@math.unistra.frMatthieu Boileaumatthieu.boileau@math.unistra.frhttps://gitlab.math.unistra.fr/atlas/cluster-doc/-/issues/6Problème avec le module ParaView/5.1.0_gcc610_ompi11022017-08-16T08:32:59ZFrançois Der HovsepianProblème avec le module ParaView/5.1.0_gcc610_ompi1102Bonjour,
je crois qu'il y a un problème avec le module `ParaView/5.1.0_gcc610_ompi1102`, qui fait partie du profile `gcc610.profile` (lui même inclus dans le profile `feelpp-clang_gcc610.profile`). En effet,
```
> module show ParaView/...Bonjour,
je crois qu'il y a un problème avec le module `ParaView/5.1.0_gcc610_ompi1102`, qui fait partie du profile `gcc610.profile` (lui même inclus dans le profile `feelpp-clang_gcc610.profile`). En effet,
```
> module show ParaView/5.1.0_gcc610_ompi1102
-------------------------------------------------------------------
/data/software/config/modules/files/tools/ParaView/5.1.0_gcc610_ompi1102:
module-whatis Loads ParaView 5.1.0 and its environment
prepend-path CMAKE_PREFIX_PATH /data/software/install/ParaView/5.1.0/gcc-6.1.0/openmpi-1.10.2
[...]
```
Or le chemin `/data/software/install/ParaView/5.1.0/gcc-6.1.0` n'existe pas:
```
> ls /data/software/install/ParaView/5.1.0/gcc-6.1.0
ls: cannot access /data/software/install/ParaView/5.1.0/gcc-6.1.0: No such file or directory
```
et en remontant d'un niveau:
```
> ls /data/software/install/ParaView/5.1.0/
gcc-4.9.0 gcc-5.3.0
```
Cordialement,
François.https://gitlab.math.unistra.fr/atlas/cluster-doc/-/issues/8Add scipy and matplotlib for python 2.7.x2017-09-12T13:06:26ZPierre GerhardAdd scipy and matplotlib for python 2.7.xHello All,
Can you please add scipy and matplotlib modules for pythons 2.7.x. They only appear for python3.
Thanks in advance
Pierre GerhardHello All,
Can you please add scipy and matplotlib modules for pythons 2.7.x. They only appear for python3.
Thanks in advance
Pierre Gerhardhttps://gitlab.math.unistra.fr/atlas/cluster-doc/-/issues/7Erreur de compilation avec boost2017-09-13T08:15:13ZRomain HildErreur de compilation avec boostEn utilisant boost/1.61/gcc-6.1.0, j'ai l'erreur de compilation suivante:
```
In file included from /usr/include/boost/serialization/extended_type_info_typeid.hpp:32:
/data/software/install/boost/1.61/gcc-6.1.0/openmpi-1.10.2/include/boo...En utilisant boost/1.61/gcc-6.1.0, j'ai l'erreur de compilation suivante:
```
In file included from /usr/include/boost/serialization/extended_type_info_typeid.hpp:32:
/data/software/install/boost/1.61/gcc-6.1.0/openmpi-1.10.2/include/boost/serialization/singleton.hpp:90:5: error: unknown type name 'BOOST_SERIALIZATION_DECL'
BOOST_SERIALIZATION_DECL static void lock();
^
```
En faisant un grep sur `BOOST_SERIALIZATION_DECL` dans /data/softwares/install/boost/1.61/gcc-5.3.0 je trouve des déclarations qui ne sont pas présente dans le répertoire gcc-6.1.0. Ces déclarations se trouve dans le fichier `/data/software/install/boost/1.61/gcc-5.3.0/openmpi-1.10.2/include/boost/serialization/config.hpp`
Est-ce que c'est possible que la remise en place de /data ne soit pas encore complète et qu'il faut que j'attende encore ?
Ou est-ce que c'est autre chose ?https://gitlab.math.unistra.fr/atlas/cluster-doc/-/issues/9Allow to attach process with gdb2017-10-26T14:17:43ZRomain HildAllow to attach process with gdbSince DDT is not anymore available, it would be useful to be able to use gdb to attach to a process with `gdb --pid 1234`.
But I have the following error when trying to do it:
```
Could not attach to process. If your uid matches the uid...Since DDT is not anymore available, it would be useful to be able to use gdb to attach to a process with `gdb --pid 1234`.
But I have the following error when trying to do it:
```
Could not attach to process. If your uid matches the uid of the target
process, check the setting of /proc/sys/kernel/yama/ptrace_scope, or try
again as the root user. For more details, see /etc/sysctl.d/10-ptrace.conf
```
Apparently, it can be changed:
https://askubuntu.com/questions/41629/after-upgrade-gdb-wont-attach-to-process
Is it possible?Matthieu Boileaumatthieu.boileau@math.unistra.frMatthieu Boileaumatthieu.boileau@math.unistra.frhttps://gitlab.math.unistra.fr/atlas/cluster-doc/-/issues/11Module for Paraview with Python 32017-11-02T14:20:16ZRomain HildModule for Paraview with Python 3Hi, in feelpp we now need to use python 3.
But the module for Paraview is linked to python 2.7.
Is it possible to have a module for paraview with python 3 ?
Thanks,
RomainHi, in feelpp we now need to use python 3.
But the module for Paraview is linked to python 2.7.
Is it possible to have a module for paraview with python 3 ?
Thanks,
RomainMatthieu Boileaumatthieu.boileau@math.unistra.frMatthieu Boileaumatthieu.boileau@math.unistra.frhttps://gitlab.math.unistra.fr/atlas/cluster-doc/-/issues/14Exécution anormalement lente sur les noeuds atlas2018-03-20T14:46:20ZMatthieu Boileaumatthieu.boileau@math.unistra.frExécution anormalement lente sur les noeuds atlas@franck relève un problème de temps d'exécution sur (au moins) `atlas3` et `atlas4` avec Jorek (code MPI) depuis quelques jours.@franck relève un problème de temps d'exécution sur (au moins) `atlas3` et `atlas4` avec Jorek (code MPI) depuis quelques jours.Matthieu Boileaumatthieu.boileau@math.unistra.frMatthieu Boileaumatthieu.boileau@math.unistra.frhttps://gitlab.math.unistra.fr/atlas/cluster-doc/-/issues/10Loading OpenCL on atlas4 is abnormally slow2018-03-21T20:51:42ZMatthieu Boileaumatthieu.boileau@math.unistra.frLoading OpenCL on atlas4 is abnormally slow```
[atlas4] time clinfo
[...]
real 0m12.992s
user 0m0.164s
sys 0m5.112s
``````
[atlas4] time clinfo
[...]
real 0m12.992s
user 0m0.164s
sys 0m5.112s
```Matthieu Boileaumatthieu.boileau@math.unistra.frMatthieu Boileaumatthieu.boileau@math.unistra.frhttps://gitlab.math.unistra.fr/atlas/cluster-doc/-/issues/12Libriarie armadillo2018-07-20T13:34:33ZAlix Deleportealix.deleporte@math.unistra.frLibriarie armadilloBonjour,
J'utilise souvent la librairie armadillo sur ma propre machine : elle implémente en C++ les routines *PACK liées aux matrices sparse.
Serait-il envisageable d'installer cette librairie sur le cluster atlas ? J'ai des matrices ...Bonjour,
J'utilise souvent la librairie armadillo sur ma propre machine : elle implémente en C++ les routines *PACK liées aux matrices sparse.
Serait-il envisageable d'installer cette librairie sur le cluster atlas ? J'ai des matrices qui sont trop grosses pour la mémoire vive de ma machine...
http://arma.sourceforge.net/
A plus,
AlixMatthieu Boileaumatthieu.boileau@math.unistra.frMatthieu Boileaumatthieu.boileau@math.unistra.frhttps://gitlab.math.unistra.fr/atlas/cluster-doc/-/issues/13performances numpy and FFTW2018-09-21T14:21:57ZAlix Deleportealix.deleporte@math.unistra.frperformances numpy and FFTWBonjour,
J'essaie de scaler du code python (python2.7 ou python3 de manière indifférenciée), qui utilise deux sortes de routines numpy
- la multiplication d'arrays "point par point" (ie l'array C[i,j]=A[i,j]B[i,j])
- la transformée de ...Bonjour,
J'essaie de scaler du code python (python2.7 ou python3 de manière indifférenciée), qui utilise deux sortes de routines numpy
- la multiplication d'arrays "point par point" (ie l'array C[i,j]=A[i,j]B[i,j])
- la transformée de Fourier discrète.
Sur ma machine, numpy est compilée contre OpenBlas, et ces taches se font en multiprocessing de manière transparente.
Sur le cluster, par contre, meme la fft n'utilise qu'un coeur.
Un autre paquet python qui fait de la fft en multiprocessing est FFTW. J'ai donc décidé de comparer les performances.
Voilà les temps de calcul pour la meme entrée, une array 2D d'environ 6.5M d'entrées complex64
```
numpy.fft.fft2: 1.631 secs.
scipy.fftpack.fft2: 1.161 secs.
pyfftw.interfaces.scipy_fftpack.fft2: 28.119 secs.
pyfftw.interfaces.numpy_fft.fft2: 28.808 secs.
pyfftw.FFTW: 28.128 secs.
pyfftw.builders: 27.078 secs.
```
J'observe les memes différences de performance en complex128.
Je peux monitorer l'exécution: numpy et scipy n'utilisent qu'un coeur. Les routines pyfftw utilisent plusieurs coeurs (j'ai laissé jusque 10 coeurs)... mais sont beaucoup plus lentes.
Pourquoi les routines numpy n'utilisent-elles qu'un coeur ?
Pourquoi pyfftw est-il si lent ?
Alixhttps://gitlab.math.unistra.fr/atlas/cluster-doc/-/issues/15Install h5py2018-11-13T08:13:28ZMatthieu Boileaumatthieu.boileau@math.unistra.frInstall h5pyAsked by @druiAsked by @druiMatthieu Boileaumatthieu.boileau@math.unistra.frMatthieu Boileaumatthieu.boileau@math.unistra.frhttps://gitlab.math.unistra.fr/atlas/cluster-doc/-/issues/16Allow widgets for Jupyter notebooks2018-11-13T08:37:16ZFlorence DruiAllow widgets for Jupyter notebooksUsing the JupyterLab, it seems that widgets are not activated for jupyter notebooks...Using the JupyterLab, it seems that widgets are not activated for jupyter notebooks...https://gitlab.math.unistra.fr/atlas/cluster-doc/-/issues/18R : contrôle du nombre coeurs utilisés2019-03-04T16:18:34ZMatthieu Boileaumatthieu.boileau@math.unistra.frR : contrôle du nombre coeurs utilisésPar défaut une opération d'algèbre linéaire utilise tous les coeurs disponibles sur le noeud (frontal ou calcul) avec une mauvaise efficacité.
Comment contrôler le nombre max de processus ?Par défaut une opération d'algèbre linéaire utilise tous les coeurs disponibles sur le noeud (frontal ou calcul) avec une mauvaise efficacité.
Comment contrôler le nombre max de processus ?Matthieu Boileaumatthieu.boileau@math.unistra.frMatthieu Boileaumatthieu.boileau@math.unistra.frhttps://gitlab.math.unistra.fr/atlas/cluster-doc/-/issues/21clang et fortran (flang ?)2019-09-09T07:25:53ZFrédéric Chapotonclang et fortran (flang ?)(3) je voudrais essayer de compiler sage avec clang, mais j'ai peut-etre besoin de flang. Est-ce que clang fournit aussi automatiquement une version compatible de fortran ?(3) je voudrais essayer de compiler sage avec clang, mais j'ai peut-etre besoin de flang. Est-ce que clang fournit aussi automatiquement une version compatible de fortran ?https://gitlab.math.unistra.fr/atlas/cluster-doc/-/issues/20charger des modules au demarrage avec modules.txt ?2019-09-09T07:43:52ZFrédéric Chapotoncharger des modules au demarrage avec modules.txt ?(1) est-ce que le fichier "modules.txt" est la bonne manière de charger des modules au démarrage ? J'ai l'impression que ca n'a aucun effet.(1) est-ce que le fichier "modules.txt" est la bonne manière de charger des modules au démarrage ? J'ai l'impression que ca n'a aucun effet.https://gitlab.math.unistra.fr/atlas/cluster-doc/-/issues/19avec module load gcc/8.3.0, pas de socket gfortran ?2019-09-09T15:06:57ZFrédéric Chapotonavec module load gcc/8.3.0, pas de socket gfortran ?(2) j'ai chargé le module gcc/8.3.0 : ca me donne gcc et gfortran en version 8.3.0, MAIS sage me dit : libgfortran.so.5: cannot open shared object file: No such file or directory(2) j'ai chargé le module gcc/8.3.0 : ca me donne gcc et gfortran en version 8.3.0, MAIS sage me dit : libgfortran.so.5: cannot open shared object file: No such file or directoryhttps://gitlab.math.unistra.fr/atlas/cluster-doc/-/issues/22Configuration miniconda2019-09-09T16:23:20ZLaura MendozaConfiguration minicondaIf someone is using ``conda`` to manage ``python`` packages, then:
``module load miniconda/3``
won't work out of the box. You will have permission errors, as the default PATH for installation is ``environment location: /data/software/i...If someone is using ``conda`` to manage ``python`` packages, then:
``module load miniconda/3``
won't work out of the box. You will have permission errors, as the default PATH for installation is ``environment location: /data/software/install/miniconda3/envs/yourenv``
My solution is to create a ``.condarc`` in my home directory :
```
envs_dirs:
- /home/u2/mendoza/.conda/envs
pkgs_dirs:
- /home/u2/mendoza/.conda/pkgs
```
But this is can probably be solved from the root level