1 | 1 |
new file mode 100644 |
... | ... |
@@ -0,0 +1,90 @@ |
1 |
+--- |
|
2 |
+title: 'Use of visualization servers' |
|
3 |
+published: true |
|
4 |
+taxonomy: |
|
5 |
+ category: |
|
6 |
+ - docs |
|
7 |
+external_links: |
|
8 |
+ process: true |
|
9 |
+ no_follow: true |
|
10 |
+ target: _blank |
|
11 |
+ mode: active |
|
12 |
+--- |
|
13 |
+ |
|
14 |
+[toc] |
|
15 |
+ |
|
16 |
+## Visualization Server |
|
17 |
+ |
|
18 |
+In order to improve the visualization environment of the supercomputer, we have started offering a server equipped with GPU experimentally from December 2018.<br> |
|
19 |
+ |
|
20 |
+### System configuration |
|
21 |
+Visualization servers provided by the ACCMS are as follows. |
|
22 |
+<!-- |
|
23 |
+#### Visualization node 1 (gp - 0001) |
|
24 |
+Performance specifications | |
|
25 |
+:-------------------:|:----------------------------------------------------------------: |
|
26 |
+ CPU | Intel (R) Xeon (R) Gold 6140 2.30 GHz (18 cores) x 2 |
|
27 |
+Memory | 512 GB |
|
28 |
+Equipped GPU | NVIDIA Quadro P4000 (8 GB GDDR5) x 2 |
|
29 |
+--> |
|
30 |
+#### Visualization node 1 (gp - 0002) |
|
31 |
+Performance specifications | |
|
32 |
+:-------------------:|:----------------------------------------------------------------: |
|
33 |
+ CPU | Intel(R) Xeon(R) Silver 4110 2.10GHz (8 cores) x 2 |
|
34 |
+Memory | 768 GB |
|
35 |
+Equipped GPU | NVIDIA Quadro V100 (32 GB HBM2) x 2 |
|
36 |
+ |
|
37 |
+## Flow of the usage |
|
38 |
+The Visualization server can be used from the login nodes of the systems A , B , C and G. |
|
39 |
+Please log in to the login node referring to [Access](/login#flow). <br> |
|
40 |
+There is no particular application for using the Visualization server, and any supercomputer user can use it. |
|
41 |
+ |
|
42 |
+## Commands for running applications on the Visualization server |
|
43 |
+ |
|
44 |
+When you run an application using the Visualization server, you need to log in to the login node and execute it using the tssrun command. <br> |
|
45 |
+By specifying the -gpu option and the command you want to execute on the tssrun command, the program can be executed on the Visualization server. <br> |
|
46 |
+ |
|
47 |
+### How to use |
|
48 |
+ |
|
49 |
+Command | Description | Remarks |
|
50 |
+:-----------:|:----------------------------------------------:|:-----------------------------------------------------------------------:| |
|
51 |
+ tssrun -gpu | Execute GUI program on Visualization server|Available only with X server software such as [FastX](/login/eod). |
|
52 |
+ |
|
53 |
+* Notes on the entire systems |
|
54 |
+ * After entering the command, execution of the program is started after several messages are displayed. |
|
55 |
+ * Unlike normal tssrun (without -gpu), the same processing as new login will be performed before starting the program on the Visualization server. Please note that $HOME/.bash_profile, .bashrc, .tcshrc etc will be evaluated again. Also please note that since the module environment is also reset, environment variables at command execution can not be reproduced accurately. There may be differences in the order and definition status of PATH and LD_LIBRARY_PATH. |
|
56 |
+ * If it exceeds the acceptance limit of Visualization server, it shows that it is busy and the program ends. Please leave a while and try again. |
|
57 |
+ |
|
58 |
+#### Example of execution |
|
59 |
+```nohighlight |
|
60 |
+$ module load mathematica |
|
61 |
+$ tssrun -gpu mathematica |
|
62 |
+[VGL] NOTICE: Automatically setting VGL_CLIENT environment variable to |
|
63 |
+[VGL] 10.11.0.9, the IP address of your SSH client. |
|
64 |
+(X application launches.) |
|
65 |
+``` |
|
66 |
+ |
|
67 |
+### Command options |
|
68 |
+When executing a program using the Visualization server, the options available with the tssrun command are as follows. |
|
69 |
+ |
|
70 |
+Option | Required / Not required | Description |
|
71 |
+:-----------------------------:|:---------------------------:|:-------------------------------------------------: |
|
72 |
+ -gpu | Required | Declaration for executing programs using Visualization server |
|
73 |
+ -t HOUR:MINUTES | Option |Specification of the upper limit of the elapsed time (hour: minute)<br>The elapsed time standard is 1 hour (1: 00), and it can be specified up to 24 hours (24: 00). |
|
74 |
+ |
|
75 |
+## Restriction on running programs using Visualization server |
|
76 |
+When executing a program using the Visualization server, the following restrictions apply.<br> |
|
77 |
+ |
|
78 |
+* Node sharing<br> |
|
79 |
+The Visualization server is currently composed of one node.<br> |
|
80 |
+Regardless of the course under contract, all users share the node and use it. When it exceeds the acceptance upper limit of the Visualization server, it shows that it is busy and the program ends.<br> |
|
81 |
+ |
|
82 |
+* Number of available CPU cores<br> |
|
83 |
+The number of CPU cores that each user can simultaneously use is **4 core** and it can not be changed.<br> |
|
84 |
+ |
|
85 |
+* Amount of memory available<br> |
|
86 |
+The amount of memory that each user can simultaneously use is **64 GB**. Using the reservation system, the limit can be extended up to **720 GB**. |
|
87 |
+ |
|
88 |
+* Program elapsed time limit<br> |
|
89 |
+When executing a program using the Visualization server, the program is forcibly terminated if the elapsed time exceeds the standard limit (1 hour).<br> |
|
90 |
+You can increase the time to the upper limit (24 hours) by specifying the -t option. The maximum time limit can be extended to **72 hours** by using the reservation system. |
0 | 91 |
new file mode 100644 |
... | ... |
@@ -0,0 +1,123 @@ |
1 |
+--- |
|
2 |
+title: 可視化サーバの利用 |
|
3 |
+media_order: 'reserve_index.png,reserve_index_complete.png,reserve_index2.png,reserve_list.png,reserve_list_complete.png,login.png' |
|
4 |
+published: true |
|
5 |
+taxonomy: |
|
6 |
+ category: |
|
7 |
+ - docs |
|
8 |
+external_links: |
|
9 |
+ process: true |
|
10 |
+ no_follow: true |
|
11 |
+ target: _blank |
|
12 |
+ mode: active |
|
13 |
+--- |
|
14 |
+ |
|
15 |
+[toc] |
|
16 |
+ |
|
17 |
+## 可視化サーバについて |
|
18 |
+ |
|
19 |
+スーパーコンピュータの可視化環境の改善を目的として,2018年12月より試験的に提供を始めたものです.<br> |
|
20 |
+ |
|
21 |
+### システム構成 |
|
22 |
+京都大学 学術情報メディアセンターが提供する可視化サーバは下記のとおりです. |
|
23 |
+<!-- |
|
24 |
+#### GPUノード 1 (gp-0001) |
|
25 |
+性能諸元 | |
|
26 |
+:-------------------:|:----------------------------------------------------------------: |
|
27 |
+ CPU | Intel(R) Xeon(R) Gold 6140 2.30GHz (18コア) x 2 |
|
28 |
+メモリ | 768GB |
|
29 |
+搭載GPU | NVIDIA Quadro P4000 (8 GB GDDR5) x 2 |
|
30 |
+--> |
|
31 |
+#### 可視化ノード 1 (gp-0002) |
|
32 |
+性能諸元 | |
|
33 |
+:-------------------:|:----------------------------------------------------------------: |
|
34 |
+ CPU | Intel(R) Xeon(R) Silver 4110 2.10GHz (8コア) x 2 |
|
35 |
+メモリ | 768GB |
|
36 |
+搭載GPU | NVIDIA Quadro GV100 (32 GB HBM2) x 2 |
|
37 |
+ |
|
38 |
+## 利用の流れ{#howtouse} |
|
39 |
+可視化サーバは,システムA,B,C,Gのログインノードから利用することが可能です. |
|
40 |
+ [システムへの接続方法](https://web.kudpc.kyoto-u.ac.jp/manual/ja/login#flow) を参考にログインノードへログインしてください.<br> |
|
41 |
+ 可視化サーバを利用するにあたっての申請は特になく,スパコンユーザであればどなたでもご利用頂けます. |
|
42 |
+ |
|
43 |
+## 可視化サーバでアプリケーションを実行するためのコマンド |
|
44 |
+ |
|
45 |
+可視化サーバを用いてアプリケーションを実行する際には,ログインノードにログインし,tssrunコマンドを用いて実行する必要があります.<br> |
|
46 |
+tssrun コマンドに -gpu オプションおよび実行したいコマンドを指定することで,可視化サーバでプログラムが実行することができます.<br> |
|
47 |
+ |
|
48 |
+### 実行方法 |
|
49 |
+ |
|
50 |
+コマンド | 説明 | 備考 |
|
51 |
+:-----------:|:----------------------------------------------:|:-----------------------------------------------------------------------:| |
|
52 |
+ tssrun -gpu | 可視化サーバでGUIプログラムを実行する| [FastX](/login/fastx) 等のXサーバソフトウェアでのみ利用可能. |
|
53 |
+ |
|
54 |
+* システム全体に関する注意事項 |
|
55 |
+ * コマンドを入力すると,いくつかのメッセージが表示された後,プログラムの実行が開始されます. |
|
56 |
+ * 通常の tssrun (-gpu無し)の場合と異なり,可視化サーバでのプログラム起動前に新規ログインと同様の処理が実施されます.このため,$HOME/.bash_profile, .bashrc, .tcshrc等が改めて評価される点にご注意ください. また,モジュール環境についても再設定されるため,コマンド実行時の環境変数が正確に再現されない点にご注意ください.PATHやLD_LIBRARY_PATHの順序や定義状況に差が出る場合があります. |
|
57 |
+ * 可視化サーバの受け入れ上限値を超えると,混雑している旨を表示しプログラムが終了します.時間を空けて再度お試しください. |
|
58 |
+ |
|
59 |
+#### 実行例 |
|
60 |
+```nohighlight |
|
61 |
+$ module load mathematica |
|
62 |
+$ tssrun -gpu mathematica |
|
63 |
+[VGL] NOTICE: Automatically setting VGL_CLIENT environment variable to |
|
64 |
+[VGL] 10.11.0.9, the IP address of your SSH client. |
|
65 |
+(Xアプリケーションが起動する) |
|
66 |
+``` |
|
67 |
+ |
|
68 |
+### コマンドオプション |
|
69 |
+可視化サーバを用いてプログラムを実行する際に,tssrunコマンドで利用可能なオプションは以下のとおりです. |
|
70 |
+ |
|
71 |
+ オプション | 要否 | 説明 |
|
72 |
+:-----------------------------:|:---------------------------:|:-------------------------------------------------: |
|
73 |
+ -gpu | 必須 |可視化サーバを利用してプログラムを実行するための宣言 |
|
74 |
+ -t HOUR:MINUTES | 任意 |経過時間上限値の指定(単位は時:分)<br>経過時間の標準は1時間(1:00)となっており,最長24時間(24:00)まで指定可能. |
|
75 |
+ |
|
76 |
+## 可視化サーバを用いてプログラムを実行する際の制限 |
|
77 |
+可視化サーバを用いてプログラムを実行する際には,以下のような制限が適用されます.<br> |
|
78 |
+ |
|
79 |
+* ノードの共有<br> |
|
80 |
+可視化サーバは,現在1台のノードにて構成されています.<br> |
|
81 |
+契約しているコースに関係なく,すべてのユーザがノードを共有して利用する形態となっており, |
|
82 |
+可視化サーバの受け入れ上限値を超えると,混雑している旨を表示しプログラムが終了します.<br> |
|
83 |
+ |
|
84 |
+* 利用できるCPUコア数<br> |
|
85 |
+1ユーザが同時に利用できるCPUコア数は,**4コア** となっており変更することはできません.<br> |
|
86 |
+ |
|
87 |
+* 利用できるメモリ量<br> |
|
88 |
+1ユーザが同時に利用できるメモリ量は,**64GB** です.予約システムを用いることで,**720GB** まで上限を拡張することが出来ます.<br> |
|
89 |
+ |
|
90 |
+* プログラムの経過時間制限<br> |
|
91 |
+可視化サーバを用いてプログラムを実行する場合,経過時間が標準の制限(1時間)を超えるとプログラムは強制終了されます.<br> |
|
92 |
+-t オプションを指定することで時間を上限(24時間)まで増やすことができます.また,予約システムを用いることで, **72時間** まで上限を拡張することが可能です. |
|
93 |
+ |
|
94 |
+## 可視化サーバの利用予約について{#reservation} |
|
95 |
+2019年12月より,可視化サーバの「予約」サービスを開始しています. |
|
96 |
+「予約」を行うことで,以下の通り可視化サーバの利用条件を拡大することが可能です. |
|
97 |
+ |
|
98 |
+ | 予約なし | 予約あり |
|
99 |
+:-----------------:|:-----------------------:|:-------------: |
|
100 |
+利用できるメモリ量 | 64GB(固定) | 最大720GB ※予約時に30GB単位で指定が可能 |
|
101 |
+最大実行時間 | 24時間 | 72時間(3日間) |
|
102 |
+GPUボードの専有利用 | なし | あり(24時間経過後から予約可能) |
|
103 |
+ |
|
104 |
+※ 予約を行うことによって拡張される利用条件は **2023年8月8日** 現在のものです.今後の利用状況によって変更することがありますので予めご承知おきください. |
|
105 |
+### 予約手順 |
|
106 |
+ |
|
107 |
+1. [利用者ポータル](https://web.kudpc.kyoto-u.ac.jp/portal) にログインします. |
|
108 |
+![](login.png?lightbox=100%&resize=600) |
|
109 |
+ |
|
110 |
+2. 「サービス申請」を押下し,「可視化サーバ予約」を選択します. |
|
111 |
+![](reserve_index.png?lightbox=100%&resize=600) |
|
112 |
+ |
|
113 |
+3. 「利用する可視化サーバ」ならびに,予約するメモリ量,GPUの利用種別を選択し,「次へ」を押下します. |
|
114 |
+![](reserve_index2.png?lightbox=100%&resize=600) |
|
115 |
+ |
|
116 |
+4. 利用可能な日程一覧が表示されますので,開始時刻と終了時刻を選択してください. |
|
117 |
+![](reserve_list.png?lightbox=100%&resize=600) |
|
118 |
+ |
|
119 |
+5. 青く塗りつぶされた予約期間が正しいことを確認して,下部の「予約確定」を押下します. |
|
120 |
+![](reserve_list_complete.png?lightbox=100%&resize=600) |
|
121 |
+ |
|
122 |
+6. 下記の画面に遷移すると予約完了となります.予約開始時間になりましたら[利用の流れ](#howtouse)を参考にプログラムを実行して下さい. |
|
123 |
+![](reserve_index_complete.png?lightbox=100%&resize=600) |
... | ... |
@@ -10,6 +10,8 @@ title: 'Intel Compiler Classic' |
10 | 10 |
|
11 | 11 |
Version | Module file Name | System B/C | System G | Cloud Systems | Notes |
12 | 12 |
--- | --- | --- | --- | --- | --- |
13 |
+2023.1 | intel/2023.1 | + | - | + | Introduced in August 2023. Intel compiler + MKL + TBB |
|
14 |
+2023.1-rt | intel/2023.1-rt | + | - | + | Introduced in August 2023. runtime libraries |
|
13 | 15 |
2022.3 (default) | intel/2022.3 | + | - | + | Introduced in November 2022. Intel compiler + MKL + TBB |
14 | 16 |
2022.3 | intel/2022.3-rt | + | - | + | Introduced in November 2022. runtime libraries |
15 | 17 |
|
... | ... |
@@ -10,6 +10,8 @@ title: 'Intelコンパイラ クラシック' |
10 | 10 |
|
11 | 11 |
バージョン | モジュールファイル名 | システムB/C | システムG | クラウドシステム | 備考 |
12 | 12 |
--- | --- | --- | --- | --- | --- |
13 |
+2023.1 | intel/2023.1 | + | - | + | 2023年8月導入. Intelコンパイラ + MKL + TBB |
|
14 |
+2023.1-rt | intel/2023.1-rt | + | - | + | 2023年8月導入. ランタイムライブラリ |
|
13 | 15 |
2022.3 (default) | intel/2022.3 | + | - | + | 2022年11月導入. Intelコンパイラ + MKL + TBB |
14 | 16 |
2022.3-rt | intel/2022.3-rt | + | - | + | 2022年11月導入. ランタイムライブラリ |
15 | 17 |
|
... | ... |
@@ -22,7 +22,8 @@ published: true |
22 | 22 |
|
23 | 23 |
Version | Module file Name | System B/C | System G | Cloud System | Notes |
24 | 24 |
--- | --- | --- | --- | --- | --- |
25 |
-2022.3 | nvhpc/22.9 | - | + | - | Introduced in January 2023 |
|
25 |
+23.5 | nvhpc/23.5 | - | + | - | Introduced in August 2023 |
|
26 |
+22.9(default) | nvhpc/22.9 | - | + | - | Introduced in January 2023 |
|
26 | 27 |
|
27 | 28 |
\+ : Available for all users |
28 | 29 |
\- : Not available |
... | ... |
@@ -36,7 +37,8 @@ Please refer to [Modules](/config/modules) for details on the module command. |
36 | 37 |
|
37 | 38 |
Version | Module file Name | System B/C | System G | Cloud System | Notes |
38 | 39 |
--- | --- | --- | --- | --- | --- |
39 |
-11.7.1 | cuda/11.7.1 | - | + | - | Introduced in January 2023 |
|
40 |
+12.1.1 | cuda/12.1.1 | - | + | - | Introduced in August 2023 |
|
41 |
+11.7.1(default) | cuda/11.7.1 | - | + | - | Introduced in January 2023 |
|
40 | 42 |
9.2 | cuda/9.2 | - | + | - | Introduced in January 2023 |
41 | 43 |
|
42 | 44 |
\+ : Available for all users |
... | ... |
@@ -21,7 +21,8 @@ published: true |
21 | 21 |
|
22 | 22 |
バージョン | モジュールファイル名 | システムB/C | システムG | クラウドシステム | 備考 |
23 | 23 |
--- | --- | --- | --- | --- | --- |
24 |
-2022.3 | nvhpc/22.9 | - | + | - | 2023年1月導入 |
|
24 |
+23.5 | nvhpc/23.5 | - | + | - | 2023年8月導入 |
|
25 |
+22.9(default) | nvhpc/22.9 | - | + | - | 2023年1月導入 |
|
25 | 26 |
|
26 | 27 |
\+ : すべてのユーザが利用可能 |
27 | 28 |
\- : 利用不可 |
... | ... |
@@ -35,7 +36,8 @@ moduleコマンドの詳細は [Modules](/config/modules) をご覧ください |
35 | 36 |
|
36 | 37 |
バージョン | モジュールファイル名 | システムB/C | システムG | クラウドシステム | 備考 |
37 | 38 |
--- | --- | --- | --- | --- | --- |
38 |
-11.7.1 | cuda/11.7.1 | - | + | - | 2023年1月導入 |
|
39 |
+12.1.1 | cuda/12.1.1 | - | + | - | 2023年8月導入 |
|
40 |
+11.7.1(dafault) | cuda/11.7.1 | - | + | - | 2023年1月導入 |
|
39 | 41 |
9.2 | cuda/9.2 | - | + | - | 2023年1月導入 |
40 | 42 |
|
41 | 43 |
\+ : すべてのユーザが利用可能 |
... | ... |
@@ -16,6 +16,8 @@ external_links: |
16 | 16 |
### Software Version and System Requirements{#version} |
17 | 17 |
Version | Module file Name | System B/C | System G | Cloud System| Notes |
18 | 18 |
--- | --- | --- | --- | --- | --- |
19 |
+2023.1 | intel/2023.1 | + | - | + | Introduced in August 2023. |
|
20 |
+2023.1-rt | intel/2023.1-rt | + | - | + | Introduced in August 2023. runtime libraries |
|
19 | 21 |
2022.3 | intelmpi/2022.3 | + | - | + | Introduced in November 2022 |
20 | 22 |
2022.3-rt | intelmpi/2022.3-rt | + | - | + | Introduced in November 2022. runtime library |
21 | 23 |
|
... | ... |
@@ -16,6 +16,8 @@ external_links: |
16 | 16 |
### 利用できるバージョン・システム{#version} |
17 | 17 |
バージョン | モジュールファイル名 | システムB/C | システムG | クラウドシステム | 備考 |
18 | 18 |
--- | --- | --- | --- | --- | --- |
19 |
+2023.1 | intel/2023.1 | + | - | + | 2023年6月導入. |
|
20 |
+2023.1-rt | intel/2023.1-rt | + | - | + | 2023年6月導入. ランタイムライブラリ |
|
19 | 21 |
2022.3 (default) | intelmpi/2022.3 | + | - | + | 2022年11月導入 |
20 | 22 |
2022.3-rt | intelmpi/2022.3-rt | + | - | + | 2022年11月導入. ランタイムライブラリ |
21 | 23 |
|
... | ... |
@@ -20,8 +20,11 @@ external_links: |
20 | 20 |
|
21 | 21 |
Version| Module file Name | System B/C | System G | Cloud System| Notes |
22 | 22 |
--- | --- | --- | --- | --- | --- |
23 |
+4.1.5 | openmpi/4.1.5_nvhpc-23.5 | - | + | - | Introduced in August 2023 |
|
23 | 24 |
4.0.5 | openmpi/4.0.5_intel-2022.3 | + | - | + | Introduced in June 2023 |
24 | 25 |
4.0.5 | openmpi/4.0.5_gnu-8.5.0 | + | + | + | Introduced in November 2022 |
26 |
+4.0.5 | openmpi/4.0.5_nvhpc-22.9 | - | + | - | Introduced in November 2022 |
|
27 |
+4.0.5 | openmpi/4.0.5_nvhpc-22.5 | - | + | - | Introduced in November 2022 |
|
25 | 28 |
|
26 | 29 |
\+ : Available for all users |
27 | 30 |
\- : Not available |
... | ... |
@@ -52,7 +55,7 @@ moduleコマンドの詳細は [Modules](/config/modules) をご覧ください |
52 | 55 |
|
53 | 56 |
The thread parallel support level available in Open MPI is MPI_THREAD_MULTIPLE. MPI functions can be called from each thread with no restriction. |
54 | 57 |
|
55 |
-## How to Compile and Execute{{#usage} |
|
58 |
+## How to Compile and Execute{#usage} |
|
56 | 59 |
|
57 | 60 |
### How to Compile{#compile} |
58 | 61 |
|
... | ... |
@@ -20,8 +20,11 @@ external_links: |
20 | 20 |
|
21 | 21 |
バージョン | モジュールファイル名 | システムB/C | システムG | クラウドシステム | 備考 |
22 | 22 |
--- | --- | --- | --- | --- | --- |
23 |
+4.1.5 | openmpi/4.1.5_nvhpc-23.5 | - | + | - | 2023年8月導入 |
|
23 | 24 |
4.0.5 | openmpi/4.0.5_intel-2022.3 | + | - | + | 2023年6月導入 |
24 | 25 |
4.0.5 | openmpi/4.0.5_gnu-8.5.0 | + | + | + | 2022年11月導入 |
26 |
+4.0.5 | openmpi/4.0.5_nvhpc-22.9 | - | + | - | 2022年11月導入 |
|
27 |
+4.0.5 | openmpi/4.0.5_nvhpc-22.5 | - | + | - | 2022年11月導入 |
|
25 | 28 |
|
26 | 29 |
\+ : すべてのユーザが利用可能 |
27 | 30 |
\- : 利用不可 |
... | ... |
@@ -22,6 +22,7 @@ All these routines and functions are optimised for Intel processors. Other x86 p |
22 | 22 |
|
23 | 23 |
Version | Module file name | System B/C | System G | Cloud System | Notes |
24 | 24 |
--- | --- | --- | --- | --- | --- |
25 |
+2023.1 | intel/2023.1 | + | - | + | Introduced in August 2023. |
|
25 | 26 |
2022.3 | intel/2022.3 | + | - | + | Introduced in November 2022. |
26 | 27 |
|
27 | 28 |
\+ : Available |
... | ... |
@@ -26,6 +26,7 @@ You can check a list of available module files with the module avail command. |
26 | 26 |
|
27 | 27 |
Version | Module File Name | System B/C/G | Cloud System |
28 | 28 |
------------------ | -------------------- | ----- | ----- |
29 |
+2022 R2 | tecplot360/2022R2 | KU | - |
|
29 | 30 |
2022 R1 (default) | tecplot360/2022R1 | KU | - |
30 | 31 |
|
31 | 32 |
KU : Available for Kyoto University members only |
... | ... |
@@ -26,6 +26,7 @@ module avail コマンドにて,利用できるモジュールファイル一 |
26 | 26 |
|
27 | 27 |
バージョン | モジュールファイル名 | システムB/C/G | クラウドシステム |
28 | 28 |
------------------ | -------------------- | ----- | ----- |
29 |
+2022 R2 | tecplot360/2022R2 | KU | - |
|
29 | 30 |
2022 R1 (default) | tecplot360/2022R1 | KU | - |
30 | 31 |
|
31 | 32 |
KU : 京都大学構成員限定で利用可能 |
... | ... |
@@ -13,7 +13,7 @@ As it is provided as a package that comes with the operating system, there is no |
13 | 13 |
|
14 | 14 |
|Version | Module File Name | System B/C | System G | Cloud System | Note |
15 | 15 |
|--- | --- | --- | --- | --- | --- |
16 |
-|1.1.2 | none | + | + | + | Former name:singularity |
|
16 |
+|1.1.9 | none | + | + | + | Former name:singularity |
|
17 | 17 |
|
18 | 18 |
\+ : Available for all users |
19 | 19 |
\- : Not available |
... | ... |
@@ -13,7 +13,7 @@ OSに付属するパッケージとして提供されているため、モジュ |
13 | 13 |
|
14 | 14 |
|バージョン | モジュールファイル名 | システムB/C | システムG | クラウドシステム | 備考 |
15 | 15 |
|--- | --- | --- | --- | --- | --- |
16 |
-|1.1.2 | none | + | + | + | 旧名称:singularity |
|
16 |
+|1.1.9 | none | + | + | + | 旧名称:singularity |
|
17 | 17 |
|
18 | 18 |
\+ : すべてのユーザが利用可能 |
19 | 19 |
\- : 利用不可 |
... | ... |
@@ -21,17 +21,23 @@ GaussView6, 6.1, gaussian16/c02, +, +, +, -, |
21 | 21 |
ENVI, 5.6.3, envi/5.6.3, -, AU, AU, -, |
22 | 22 |
IDL, 8.8.3, idl/8.8.3, -, AU, AU, -, |
23 | 23 |
Tecplot360, 2022R1, tecplot360/2022R1, -, KU, KU, -, |
24 |
+Tecplot360, 2022R2, tecplot360/2022R2, -, KU, KU, -, |
|
24 | 25 |
Maple, 2022.0, maple/2022.0, -, KU, KU, -, |
25 |
-MATLAB, R2022b, matlab/R2022b, -, KU, KU, -, |
|
26 | 26 |
MATLAB, R2023a, matlab/R2023a, -, KU, KU, -, |
27 | 27 |
MSC Nastran, 2022.3, nastran/2022.3, -, AU, AU, -, |
28 | 28 |
MSC Patran, 2022.3, patran/2022.3, -, AU, AU, -, |
29 | 29 |
MSC Marc, 2022.3, marc/2022.3, -, AU, AU, -, |
30 | 30 |
MSC Marc Mentat, 2022.3, marc/2022.3, -, AU, AU, -, |
31 |
-MSC Adams, 2022.3, adams/2022.3, -, AU, AU, -, |
|
31 |
+MSC Adams, 2022.3.1, adams/2022.3.1, -, AU, AU, -, |
|
32 | 32 |
LS-DYNA, R13.1.1, ls-dyna/R13.1.1, -, AU, AU, -, |
33 | 33 |
Mathematica, 13.1.0, mathematica/13.1.0, -, KU, KU, -, |
34 | 34 |
ANSYS, 2022R2, ansysmcfd/2022R2, -, KU, KU, -, |
35 |
+ANSYS, 2022R2.2, ansysmcfd/2022R2.2, -, KU, KU, -, |
|
36 |
+ANSYS, 2023R1.4, ansysmcfd/2022R1.4, -, KU, KU, -, |
|
37 |
+AVS, 8.5.1, avs/8.5.1, -, AU, AU, -, |
|
38 |
+Gaussian16, c01, gaussian16/c01, +, +, +, -, |
|
39 |
+Gaussian9, e01, gaussian9/e01, +, +, +, -, |
|
40 |
+LS-PREPOST, 4.9.10, ls-prepost/4.9.10, -, AU, AU, -, |
|
35 | 41 |
|
36 | 42 |
## Num Lib |
37 | 43 |
NAG Fortran Library, Mark 26, nag_fortran/26, -, +, -, -, |
... | ... |
@@ -41,17 +47,20 @@ IMSL FORTRAN NUMERICAL LIBRARY, 2022.1.0, imsl/fnl-2022.1.0, -, +, -, -, |
41 | 47 |
## compiler |
42 | 48 |
Intel oneAPI, 2018.4, intel/2018.4, +, +, -, +, |
43 | 49 |
Intel oneAPI, 2022.3, intel/2022.3, +, +, -, +, |
50 |
+Intel oneAPI, 2023.1, intel/2023.1, +, +, -, +, |
|
44 | 51 |
Intel MPI, 2018.4, intelmpi/2018.4, +, +, -, +, |
45 | 52 |
Intel MPI, 2022.3, intelmpi/2022.3, +, +, -, +, |
46 |
-#Intel VTune Profiler, 2018.4, vtune/2018.4, +, +, -, -, |
|
53 |
+Intel MPI, 2023.1, intelmpi/2023.1, +, +, -, +, |
|
54 |
+Intel VTune Profiler, 2018.4, vtune/2018.4, +, +, -, -, |
|
47 | 55 |
Intel VTune Profiler, 2022.3, vtune/2022.3, +, +, -, -, |
48 |
- |
|
49 |
- |
|
56 |
+Indel Debugger, 2022.3, intel-debugger/2022.3, +, +, -, -, |
|
57 |
+Open MPI, 4.0.5, openmpi/4.0.5_intel-2022.3, +, +, -, +, |
|
50 | 58 |
|
51 | 59 |
## ML/DL |
52 | 60 |
MXNet, 1.6.0, mxnet/1.6.0.py38_intel-2022.3, +, +, -, -, <a href="software/python">Manual</a> |
53 | 61 |
PyTorch, 1.13.1, pytorch/1.13.1.py38_intel-2022.3, +, +, -, -, <a href="software/python">Manual</a> |
54 | 62 |
TensorFlow, 2.11.0, tensorflow/2.11.0.py38_intel-2022.3, +, +, -, -, <a href="software/python">Manual</a> |
63 |
+PyTorch, 2.0.1, pytorch/2.0.1.py38_intel-2022.3, +, +, -, -, <a href="software/python">Manual</a> |
|
55 | 64 |
|
56 | 65 |
|
57 | 66 |
## python |
... | ... |
@@ -80,15 +89,26 @@ Paraview, 5.11.0, paraview/5.11.0, +, +, +, +, binary distribution |
80 | 89 |
VisIt, 3.3.1, visit/3.3.1_gnu-12.2.0, +, +, +, +, |
81 | 90 |
grads, 2.0.2, grads/2.0.2_intel-2022.3, +, +, +, +, |
82 | 91 |
grads, 2.2.1, grads/2.2.1_intel-2022.3, +, +, +, +, |
83 |
-NAMD, 2.14, namd/2.14_intel-2022.3-impi, +, -, +, |
|
92 |
+NAMD, 2.14, namd/2.14_intel-2022.3-impi, +, +, -, +, |
|
93 |
+Anaconda3, 2022.10, anaconda3/2022.10, +, +, +, +, |
|
94 |
+AWSCLI, 2.12.3, awscli/2.12.3, +, +, +, +, |
|
95 |
+CP2K, 2023.1, cp2k/2023.1_gnu_12.2.0-impi, -, +, -, + |
|
96 |
+LAMMPS, 22Dec2022, lammps/22Dec2022_intel-2022.3-impi, +, +, -, +, |
|
97 |
+OpenFOAM, 2206, openfoam.com/2206_intel-2022.3-impi, +, +, -, +, |
|
98 |
+OpenFOAM, 10, openfoam/10_intel-2022.3-impi, +, +, -, +, |
|
99 |
+Quantum Espresso, 6.1, qe/6.1_intel-2018.0-impi, +, +, +, +, |
|
100 |
+Quantum Espresso, 7.2, qe/7.2_intel-2022.3-impi, +, +, +, +, |
|
101 |
+R, 4.2.2, r/4.2.2_gnu-12.2.0, -, +, -, +, |
|
84 | 102 |
|
85 | 103 |
#### System G |
86 | 104 |
|
87 | 105 |
## compiler |
88 | 106 |
NVIDIA HPC SDK, 22.5, nvhpc/22.5, -, -, +, -, |
89 | 107 |
NVIDIA HPC SDK, 22.9, nvhpc/22.9, -, -, +, -, |
108 |
+NVIDIA HPC SDK, 23.5, nvhpc/23.5, -, -, +, -, |
|
90 | 109 |
Open MPI, 4.0.5, openmpi/4.0.5_nvhpc-22.5, -, -, +, -, |
91 | 110 |
Open MPI, 4.0.5, openmpi/4.0.5_nvhpc-22.9, -, -, +, -, |
111 |
+Open MPI, 4.1.5, openmpi/4.1.5_nvhpc-23.5, -, -, +, -, |
|
92 | 112 |
|
93 | 113 |
## OSS |
94 | 114 |
FFTW, 3.3.10, fftw/3.3.10_nvhpc-22.9-ompi, -, -, +, -, |
... | ... |
@@ -97,12 +117,13 @@ HDF5+MPI, 1.12.2, hdf5/1.12.2_nvhpc-22.9-ompi, -, -, +, -, |
97 | 117 |
NETCDF, 4.9.0, netcdf/4.9.0_nvhpc-22.9, -, -, +, -, |
98 | 118 |
NETCDF+MPI, 4.9.0, netcdf/4.9.0_nvhpc-22.9-ompi, -, -, +, -, |
99 | 119 |
Gromacs (single-precision), 2022.4, gromacs/2022.4_gnu-8.5.0_cuda-11.7_ompi_sp_smp, -, -, +, -, GCC+SMP+CUDA |
100 |
-Gromacs (double-precision), 2022.4, gromacs/2022.4_gnu-8.5.0_cuda-11.7_ompi_dp_smp, -, -, +, -, GCC+SMP+CUDA |
|
120 |
+NAMD, 2.14, namd/2.14_multicore-cuda, -, -, +, -, |
|
101 | 121 |
|
102 | 122 |
## cuda |
103 | 123 |
CUDA, 9.2, cuda/9.2, -, -, +, -, |
104 | 124 |
CUDA, 11.2.1, cuda/11.2.1, -, -, +, -, |
105 | 125 |
CUDA, 11.7.1, cuda/11.7.1, -, -, +, -, |
126 |
+CUDA, 12.1.1, cuda/12.1.1, -, -, +, -, |
|
106 | 127 |
|
107 | 128 |
## ML/DL |
108 | 129 |
MXNet, 1.9.1, mxnet/1.9.1.py38_cuda-11.7, -, -, +, -, <a href="software/python">Manual</a> |