You need to install the package manager conda and the ASE interface. To do that proceed as in the following link:
How to download and install the Atomic Simulation Environment ASE
To install GPAW code using Conda proceed as follows:
(ase) algerien1970@linux-kq57:~/abinitio/vasp-ase-tutorials/Ag_gs> conda install gpaw
Collecting package metadata (current_repodata.json): done
Solving environment: done
## Package Plan ##
environment location: /home/algerien1970/anaconda3/envs/ase
added / updated specs:
- gpaw
The following packages will be downloaded:
package | build
---------------------------|-----------------
elpa-2021.11.001 |mpi_openmpi_haf9840c_3 5.4 MB conda-forge
fftw-3.3.10 |mpi_openmpi_h36312d9_2 6.6 MB conda-forge
gpaw-22.1.0 |py310_mpi_openmpi_omp_2 3.0 MB conda-forge
gpaw-data-0.9.20000 | 0 50.3 MB conda-forge
libvdwxc-0.4.0 |mpi_openmpi_h36312d9_0 2.3 MB conda-forge
libxc-5.2.3 | py310h312a749_1 31.3 MB conda-forge
mpi-1.0 | openmpi 4 KB conda-forge
openmpi-4.1.4 | ha1ae619_100 4.2 MB conda-forge
scalapack-2.2.0 | h67de57e_1 2.2 MB conda-forge
------------------------------------------------------------
Total: 105.3 MB
The following NEW packages will be INSTALLED:
elpa conda-forge/linux-64::elpa-2021.11.001-mpi_openmpi_haf9840c_3
fftw conda-forge/linux-64::fftw-3.3.10-mpi_openmpi_h36312d9_2
gpaw conda-forge/linux-64::gpaw-22.1.0-py310_mpi_openmpi_omp_2
gpaw-data conda-forge/linux-64::gpaw-data-0.9.20000-0
libvdwxc conda-forge/linux-64::libvdwxc-0.4.0-mpi_openmpi_h36312d9_0
libxc conda-forge/linux-64::libxc-5.2.3-py310h312a749_1
mpi conda-forge/linux-64::mpi-1.0-openmpi
openmpi conda-forge/linux-64::openmpi-4.1.4-ha1ae619_100
scalapack conda-forge/linux-64::scalapack-2.2.0-h67de57e_1
Proceed ([y]/n)? y
Downloading and Extracting Packages
openmpi-4.1.4 | 4.2 MB | #################################################################################################################################################### | 100%
gpaw-data-0.9.20000 | 50.3 MB | #################################################################################################################################################### | 100%
libxc-5.2.3 | 31.3 MB | #################################################################################################################################################### | 100%
elpa-2021.11.001 | 5.4 MB | #################################################################################################################################################### | 100%
fftw-3.3.10 | 6.6 MB | #################################################################################################################################################### | 100%
gpaw-22.1.0 | 3.0 MB | #################################################################################################################################################### | 100%
libvdwxc-0.4.0 | 2.3 MB | #################################################################################################################################################### | 100%
mpi-1.0 | 4 KB | #################################################################################################################################################### | 100%
scalapack-2.2.0 | 2.2 MB | #################################################################################################################################################### | 100%
Preparing transaction: done
Verifying transaction: done
Executing transaction: /
For Linux 64, Open MPI is built with CUDA awareness but this support is disabled by default.
To enable it, please set the environment variable OMPI_MCA_opal_cuda_support=true before
launching your MPI processes. Equivalently, you can set the MCA parameter in the command line:
mpiexec --mca opal_cuda_support 1 ...
In addition, the UCX support is also built but disabled by default.
To enable it, first install UCX (conda install -c conda-forge ucx). Then, set the environment
variables OMPI_MCA_pml="ucx" OMPI_MCA_osc="ucx" before launching your MPI processes.
Equivalently, you can set the MCA parameters in the command line:
mpiexec --mca pml ucx --mca osc ucx ...
Note that you might also need to set UCX_MEMTYPE_CACHE=n for CUDA awareness via UCX.
Please consult UCX's documentation for detail.
done
0 Comments