Browse code

20230809: Various pages changed

root authored on2023-08-09 10:12:03
Showing23 changed files
1 1
new file mode 100644
... ...
@@ -0,0 +1,90 @@
1
+---
2
+title: 'Use of visualization servers'
3
+published: true
4
+taxonomy:
5
+    category:
6
+        - docs
7
+external_links:
8
+    process: true
9
+    no_follow: true
10
+    target: _blank
11
+    mode: active
12
+---
13
+
14
+[toc]
15
+
16
+## Visualization Server
17
+
18
+In order to improve the visualization environment of the supercomputer, we have started offering a server equipped with GPU experimentally from December 2018.<br>
19
+
20
+### System configuration
21
+Visualization servers provided by the ACCMS are as follows.
22
+<!--
23
+#### Visualization node 1 (gp - 0001)
24
+Performance specifications |  
25
+:-------------------:|:----------------------------------------------------------------:
26
+ CPU | Intel (R) Xeon (R) Gold 6140 2.30 GHz (18 cores) x 2
27
+Memory | 512 GB
28
+Equipped GPU | NVIDIA Quadro P4000 (8 GB GDDR5) x 2
29
+-->
30
+#### Visualization node 1 (gp - 0002)
31
+Performance specifications |  
32
+:-------------------:|:----------------------------------------------------------------:
33
+ CPU | Intel(R) Xeon(R) Silver 4110 2.10GHz (8 cores) x 2
34
+Memory | 768 GB
35
+Equipped GPU | NVIDIA Quadro V100 (32 GB HBM2) x 2
36
+
37
+## Flow of the usage
38
+The Visualization server can be used from the login nodes of the systems A , B , C and G.
39
+Please log in to the login node referring to [Access](/login#flow).  <br>
40
+There is no particular application for using the Visualization server, and any supercomputer user can use it.
41
+
42
+## Commands for running applications on the Visualization server
43
+
44
+When you run an application using the Visualization server, you need to log in to the login node and execute it using the tssrun command. <br>
45
+By specifying the -gpu option and the command you want to execute on the tssrun command, the program can be executed on the Visualization server. <br>
46
+
47
+### How to use
48
+
49
+Command | Description |  Remarks
50
+:-----------:|:----------------------------------------------:|:-----------------------------------------------------------------------:|
51
+ tssrun -gpu | Execute GUI program on Visualization server|Available only with X server software such as [FastX](/login/eod).
52
+
53
+* Notes on the entire systems
54
+ * After entering the command, execution of the program is started after several messages are displayed.
55
+ * Unlike normal tssrun (without -gpu), the same processing as new login will be performed before starting the program on the Visualization server. Please note that $HOME/.bash_profile, .bashrc, .tcshrc etc will be evaluated again. Also please note that since the module environment is also reset, environment variables at command execution can not be reproduced accurately. There may be differences in the order and definition status of PATH and LD_LIBRARY_PATH.
56
+ * If it exceeds the acceptance limit of Visualization server, it shows that it is busy and the program ends. Please leave a while and try again.
57
+
58
+#### Example of execution
59
+```nohighlight
60
+$ module load mathematica
61
+$ tssrun -gpu mathematica
62
+[VGL] NOTICE: Automatically setting VGL_CLIENT environment variable to
63
+[VGL]    10.11.0.9, the IP address of your SSH client.
64
+(X application launches.)
65
+```
66
+
67
+### Command options
68
+When executing a program using the Visualization server, the options available with the tssrun command are as follows.
69
+
70
+Option | Required / Not required  | Description
71
+:-----------------------------:|:---------------------------:|:-------------------------------------------------:
72
+ -gpu | Required | Declaration for executing programs using Visualization server
73
+ -t HOUR:MINUTES | Option |Specification of the upper limit of the elapsed time (hour: minute)<br>The elapsed time standard is 1 hour (1: 00), and it can be specified up to 24 hours (24: 00).
74
+
75
+## Restriction on running programs using Visualization server
76
+When executing a program using the Visualization server, the following restrictions apply.<br>
77
+
78
+* Node sharing<br>
79
+The Visualization server is currently composed of one node.<br>
80
+Regardless of the course under contract, all users share the node and use it. When it exceeds the acceptance upper limit of the Visualization server, it shows that it is busy and the program ends.<br>
81
+
82
+* Number of available CPU cores<br>
83
+The number of CPU cores that each user can simultaneously use is **4 core** and it can not be changed.<br>
84
+
85
+* Amount of memory available<br>
86
+The amount of memory that each user can simultaneously use is **64 GB**. Using the reservation system, the limit can be extended up to **720 GB**.
87
+
88
+* Program elapsed time limit<br>
89
+When executing a program using the Visualization server, the program is forcibly terminated if the elapsed time exceeds the standard limit (1 hour).<br>
90
+You can increase the time to the upper limit (24 hours) by specifying the -t option. The maximum time limit can be extended to **72 hours** by using the reservation system.
0 91
new file mode 100644
... ...
@@ -0,0 +1,123 @@
1
+---
2
+title: 可視化サーバの利用
3
+media_order: 'reserve_index.png,reserve_index_complete.png,reserve_index2.png,reserve_list.png,reserve_list_complete.png,login.png'
4
+published: true
5
+taxonomy:
6
+    category:
7
+        - docs
8
+external_links:
9
+    process: true
10
+    no_follow: true
11
+    target: _blank
12
+    mode: active
13
+---
14
+
15
+[toc]
16
+
17
+## 可視化サーバについて
18
+
19
+スーパーコンピュータの可視化環境の改善を目的として,2018年12月より試験的に提供を始めたものです.<br>
20
+
21
+### システム構成
22
+京都大学 学術情報メディアセンターが提供する可視化サーバは下記のとおりです.
23
+<!--
24
+#### GPUノード 1 (gp-0001)
25
+性能諸元 |  
26
+:-------------------:|:----------------------------------------------------------------:
27
+ CPU | Intel(R) Xeon(R) Gold 6140 2.30GHz (18コア)  x 2
28
+メモリ | 768GB
29
+搭載GPU | NVIDIA Quadro P4000 (8 GB GDDR5) x 2
30
+-->
31
+#### 可視化ノード 1 (gp-0002)
32
+性能諸元 |  
33
+:-------------------:|:----------------------------------------------------------------:
34
+ CPU | Intel(R) Xeon(R) Silver 4110 2.10GHz (8コア)  x 2
35
+メモリ | 768GB
36
+搭載GPU | NVIDIA Quadro GV100 (32 GB HBM2) x 2
37
+
38
+## 利用の流れ{#howtouse}
39
+可視化サーバは,システムA,B,C,Gのログインノードから利用することが可能です.
40
+ [システムへの接続方法](https://web.kudpc.kyoto-u.ac.jp/manual/ja/login#flow)  を参考にログインノードへログインしてください.<br>
41
+ 可視化サーバを利用するにあたっての申請は特になく,スパコンユーザであればどなたでもご利用頂けます.
42
+
43
+## 可視化サーバでアプリケーションを実行するためのコマンド
44
+
45
+可視化サーバを用いてアプリケーションを実行する際には,ログインノードにログインし,tssrunコマンドを用いて実行する必要があります.<br>
46
+tssrun コマンドに -gpu オプションおよび実行したいコマンドを指定することで,可視化サーバでプログラムが実行することができます.<br>
47
+
48
+### 実行方法
49
+
50
+コマンド | 説明 |  備考
51
+:-----------:|:----------------------------------------------:|:-----------------------------------------------------------------------:|
52
+ tssrun -gpu | 可視化サーバでGUIプログラムを実行する| [FastX](/login/fastx) 等のXサーバソフトウェアでのみ利用可能.
53
+
54
+* システム全体に関する注意事項 
55
+ * コマンドを入力すると,いくつかのメッセージが表示された後,プログラムの実行が開始されます.
56
+ * 通常の tssrun (-gpu無し)の場合と異なり,可視化サーバでのプログラム起動前に新規ログインと同様の処理が実施されます.このため,$HOME/.bash_profile, .bashrc, .tcshrc等が改めて評価される点にご注意ください. また,モジュール環境についても再設定されるため,コマンド実行時の環境変数が正確に再現されない点にご注意ください.PATHやLD_LIBRARY_PATHの順序や定義状況に差が出る場合があります.
57
+ * 可視化サーバの受け入れ上限値を超えると,混雑している旨を表示しプログラムが終了します.時間を空けて再度お試しください.
58
+
59
+#### 実行例
60
+```nohighlight
61
+$ module load mathematica
62
+$ tssrun -gpu mathematica
63
+[VGL] NOTICE: Automatically setting VGL_CLIENT environment variable to
64
+[VGL]    10.11.0.9, the IP address of your SSH client.
65
+(Xアプリケーションが起動する)
66
+```
67
+
68
+### コマンドオプション
69
+可視化サーバを用いてプログラムを実行する際に,tssrunコマンドで利用可能なオプションは以下のとおりです.
70
+
71
+ オプション |  要否  | 説明
72
+:-----------------------------:|:---------------------------:|:-------------------------------------------------:
73
+ -gpu | 必須 |可視化サーバを利用してプログラムを実行するための宣言
74
+ -t HOUR:MINUTES | 任意 |経過時間上限値の指定(単位は時:分)<br>経過時間の標準は1時間(1:00)となっており,最長24時間(24:00)まで指定可能.
75
+
76
+## 可視化サーバを用いてプログラムを実行する際の制限
77
+可視化サーバを用いてプログラムを実行する際には,以下のような制限が適用されます.<br>
78
+
79
+* ノードの共有<br>
80
+可視化サーバは,現在1台のノードにて構成されています.<br>
81
+契約しているコースに関係なく,すべてのユーザがノードを共有して利用する形態となっており,
82
+可視化サーバの受け入れ上限値を超えると,混雑している旨を表示しプログラムが終了します.<br>
83
+
84
+* 利用できるCPUコア数<br>
85
+1ユーザが同時に利用できるCPUコア数は,**4コア** となっており変更することはできません.<br>
86
+
87
+* 利用できるメモリ量<br>
88
+1ユーザが同時に利用できるメモリ量は,**64GB** です.予約システムを用いることで,**720GB** まで上限を拡張することが出来ます.<br>
89
+
90
+* プログラムの経過時間制限<br>
91
+可視化サーバを用いてプログラムを実行する場合,経過時間が標準の制限(1時間)を超えるとプログラムは強制終了されます.<br>
92
+-t オプションを指定することで時間を上限(24時間)まで増やすことができます.また,予約システムを用いることで, **72時間** まで上限を拡張することが可能です.
93
+
94
+## 可視化サーバの利用予約について{#reservation}
95
+2019年12月より,可視化サーバの「予約」サービスを開始しています.
96
+「予約」を行うことで,以下の通り可視化サーバの利用条件を拡大することが可能です.
97
+
98
+ | 予約なし | 予約あり 
99
+:-----------------:|:-----------------------:|:-------------:
100
+利用できるメモリ量 | 64GB(固定) | 最大720GB ※予約時に30GB単位で指定が可能
101
+最大実行時間 | 24時間 | 72時間(3日間)
102
+GPUボードの専有利用 | なし | あり(24時間経過後から予約可能)
103
+
104
+※ 予約を行うことによって拡張される利用条件は **2023年8月8日** 現在のものです.今後の利用状況によって変更することがありますので予めご承知おきください.
105
+### 予約手順
106
+
107
+1.    [利用者ポータル](https://web.kudpc.kyoto-u.ac.jp/portal) にログインします.
108
+![](login.png?lightbox=100%&resize=600)
109
+
110
+2.    「サービス申請」を押下し,「可視化サーバ予約」を選択します.
111
+![](reserve_index.png?lightbox=100%&resize=600)
112
+
113
+3.    「利用する可視化サーバ」ならびに,予約するメモリ量,GPUの利用種別を選択し,「次へ」を押下します.
114
+![](reserve_index2.png?lightbox=100%&resize=600)
115
+
116
+4.     利用可能な日程一覧が表示されますので,開始時刻と終了時刻を選択してください. 
117
+![](reserve_list.png?lightbox=100%&resize=600)
118
+
119
+5.     青く塗りつぶされた予約期間が正しいことを確認して,下部の「予約確定」を押下します.
120
+![](reserve_list_complete.png?lightbox=100%&resize=600)
121
+
122
+6.     下記の画面に遷移すると予約完了となります.予約開始時間になりましたら[利用の流れ](#howtouse)を参考にプログラムを実行して下さい.
123
+![](reserve_index_complete.png?lightbox=100%&resize=600)
0 124
new file mode 100644
1 125
Binary files /dev/null and b/user/pages/07.run/06.visualization/login.png differ
2 126
new file mode 100644
3 127
Binary files /dev/null and b/user/pages/07.run/06.visualization/reserve_index.png differ
4 128
new file mode 100644
5 129
Binary files /dev/null and b/user/pages/07.run/06.visualization/reserve_index2.png differ
6 130
new file mode 100644
7 131
Binary files /dev/null and b/user/pages/07.run/06.visualization/reserve_index_complete.png differ
8 132
new file mode 100644
9 133
Binary files /dev/null and b/user/pages/07.run/06.visualization/reserve_list.png differ
10 134
new file mode 100644
11 135
Binary files /dev/null and b/user/pages/07.run/06.visualization/reserve_list_complete.png differ
... ...
@@ -10,6 +10,8 @@ title: 'Intel Compiler Classic'
10 10
 
11 11
 Version |  Module file Name | System B/C | System G | Cloud Systems | Notes
12 12
 --- | --- | --- | --- | --- | ---
13
+2023.1 | intel/2023.1 | + | - | + | Introduced in August 2023. Intel compiler + MKL + TBB
14
+2023.1-rt | intel/2023.1-rt | + | - | + | Introduced in August 2023. runtime libraries
13 15
 2022.3 (default) | intel/2022.3 | + | - | + | Introduced in November 2022. Intel compiler + MKL + TBB   
14 16
 2022.3 | intel/2022.3-rt | + | - | + | Introduced in November 2022. runtime libraries
15 17
 
... ...
@@ -10,6 +10,8 @@ title: 'Intelコンパイラ クラシック'
10 10
 
11 11
 バージョン       | モジュールファイル名 | システムB/C | システムG | クラウドシステム | 備考
12 12
 ---              | ---                  | ---         | ---       | ---              | ---
13
+2023.1 | intel/2023.1 | + | - | + | 2023年8月導入.  Intelコンパイラ + MKL + TBB
14
+2023.1-rt | intel/2023.1-rt | + | - | + | 2023年8月導入.  ランタイムライブラリ
13 15
 2022.3 (default) | intel/2022.3         | +           | -         | +                | 2022年11月導入. Intelコンパイラ + MKL + TBB
14 16
 2022.3-rt        | intel/2022.3-rt      | +           | -         | +                | 2022年11月導入. ランタイムライブラリ
15 17
 
... ...
@@ -22,7 +22,8 @@ published: true
22 22
 
23 23
 Version  | Module file Name | System B/C | System G | Cloud System | Notes
24 24
 --- | --- | --- | --- | --- | ---
25
-2022.3 | nvhpc/22.9 | - | + | - | Introduced in January 2023
25
+23.5 | nvhpc/23.5 | - | + | - | Introduced in August 2023
26
+22.9(default) | nvhpc/22.9 | - | + | - | Introduced in January 2023
26 27
 
27 28
 \+ : Available for all users   
28 29
 \- : Not available
... ...
@@ -36,7 +37,8 @@ Please refer to [Modules](/config/modules) for details on the module command.
36 37
 
37 38
 Version  | Module file Name | System B/C | System G | Cloud System | Notes
38 39
 --- | --- | --- | --- | --- | ---
39
-11.7.1 | cuda/11.7.1 | - | + | - | Introduced in January 2023
40
+12.1.1 | cuda/12.1.1 | - | + | - | Introduced in August 2023
41
+11.7.1(default) | cuda/11.7.1 | - | + | - | Introduced in January 2023
40 42
 9.2 | cuda/9.2 | - | + | - | Introduced in January 2023
41 43
 
42 44
 \+ : Available for all users    
... ...
@@ -21,7 +21,8 @@ published: true
21 21
 
22 22
 バージョン | モジュールファイル名 | システムB/C | システムG | クラウドシステム | 備考
23 23
 --- | --- | --- | --- | --- | ---
24
-2022.3 | nvhpc/22.9 | - | + | - | 2023年1月導入
24
+23.5 | nvhpc/23.5 | - | + | - | 2023年8月導入
25
+22.9(default) | nvhpc/22.9 | - | + | - | 2023年1月導入
25 26
 
26 27
 \+ : すべてのユーザが利用可能  
27 28
 \- : 利用不可
... ...
@@ -35,7 +36,8 @@ moduleコマンドの詳細は [Modules](/config/modules) をご覧ください
35 36
 
36 37
 バージョン | モジュールファイル名 | システムB/C | システムG | クラウドシステム | 備考
37 38
 --- | --- | --- | --- | --- | ---
38
-11.7.1 | cuda/11.7.1 | - | + | - | 2023年1月導入
39
+12.1.1 | cuda/12.1.1 | - | + | - | 2023年8月導入
40
+11.7.1(dafault) | cuda/11.7.1 | - | + | - | 2023年1月導入
39 41
 9.2 | cuda/9.2 | - | + | - | 2023年1月導入
40 42
 
41 43
 \+ : すべてのユーザが利用可能  
... ...
@@ -16,6 +16,8 @@ external_links:
16 16
 ### Software Version and System Requirements{#version}
17 17
 Version    | Module file Name | System B/C  | System G  | Cloud System| Notes
18 18
 --- | --- | --- | --- | --- | ---
19
+2023.1 | intel/2023.1 | + | - | + | Introduced in August 2023.
20
+2023.1-rt | intel/2023.1-rt | + | - | + | Introduced in August 2023. runtime libraries
19 21
 2022.3 | intelmpi/2022.3 | + | - | + | Introduced in November 2022
20 22
 2022.3-rt | intelmpi/2022.3-rt | + | - | + | Introduced in November 2022. runtime library
21 23
 
... ...
@@ -16,6 +16,8 @@ external_links:
16 16
 ### 利用できるバージョン・システム{#version}
17 17
 バージョン          | モジュールファイル名 | システムB/C | システムG | クラウドシステム | 備考
18 18
 ---                 | ---                  | ---         | ---       | ---              | ---
19
+2023.1 | intel/2023.1 | + | - | + | 2023年6月導入.
20
+2023.1-rt | intel/2023.1-rt | + | - | + | 2023年6月導入.  ランタイムライブラリ
19 21
 2022.3 (default)    | intelmpi/2022.3      | +           | -         | +                | 2022年11月導入
20 22
 2022.3-rt           | intelmpi/2022.3-rt   | +           | -         | +                | 2022年11月導入. ランタイムライブラリ
21 23
 
... ...
@@ -20,8 +20,11 @@ external_links:
20 20
 
21 21
 Version|  Module file Name | System B/C  | System G  | Cloud System| Notes
22 22
 --- | --- | --- | --- | --- | ---
23
+4.1.5 | openmpi/4.1.5_nvhpc-23.5 | - | + | - | Introduced in August 2023
23 24
 4.0.5 | openmpi/4.0.5_intel-2022.3 | + | - | + | Introduced in June 2023
24 25
 4.0.5 | openmpi/4.0.5_gnu-8.5.0 | + | + | + | Introduced in November 2022
26
+4.0.5 | openmpi/4.0.5_nvhpc-22.9 | - | + | - | Introduced in November 2022
27
+4.0.5 | openmpi/4.0.5_nvhpc-22.5 | - | + | - | Introduced in November 2022
25 28
 
26 29
 \+ : Available for all users  
27 30
 \- : Not available
... ...
@@ -52,7 +55,7 @@ moduleコマンドの詳細は [Modules](/config/modules) をご覧ください
52 55
 
53 56
 The thread parallel support level available in Open MPI is MPI_THREAD_MULTIPLE. MPI functions can be called from each thread with no restriction.
54 57
 
55
-## How to Compile and Execute{{#usage}
58
+## How to Compile and Execute{#usage}
56 59
 
57 60
 ### How to Compile{#compile}
58 61
 
... ...
@@ -20,8 +20,11 @@ external_links:
20 20
 
21 21
 バージョン | モジュールファイル名 | システムB/C | システムG | クラウドシステム | 備考
22 22
 --- | --- | --- | --- | --- | ---
23
+4.1.5 | openmpi/4.1.5_nvhpc-23.5 | - | + | - | 2023年8月導入
23 24
 4.0.5 | openmpi/4.0.5_intel-2022.3 | + | - | + | 2023年6月導入
24 25
 4.0.5 | openmpi/4.0.5_gnu-8.5.0 | + | + | + | 2022年11月導入
26
+4.0.5 | openmpi/4.0.5_nvhpc-22.9 | - | + | - | 2022年11月導入
27
+4.0.5 | openmpi/4.0.5_nvhpc-22.5 | - | + | - | 2022年11月導入
25 28
 
26 29
 \+ : すべてのユーザが利用可能  
27 30
 \- : 利用不可
... ...
@@ -22,6 +22,7 @@ All these routines and functions are optimised for Intel processors. Other x86 p
22 22
 
23 23
 Version  | Module file name | System B/C | System G | Cloud System | Notes
24 24
 --- | --- | --- | --- | --- | ---
25
+2023.1 | intel/2023.1 | + | - | + | Introduced in August 2023.
25 26
 2022.3 | intel/2022.3 | + | - | + | Introduced in November 2022.
26 27
 
27 28
 \+ : Available  
... ...
@@ -21,6 +21,7 @@ MKLライブラリは、工学、科学、金融系ソフトウェアの開発
21 21
 
22 22
 バージョン | モジュールファイル名 | システムB/C | システムG | クラウドシステム | 備考
23 23
 --- | --- | --- | --- | --- | ---
24
+2023.1 | intel/2023.1 | + | - | + | 2023年8月導入
24 25
 2022.3 | intel/2022.3 | + | - | + | 2022年11月導入
25 26
 
26 27
 \+ : 利用可能  
... ...
@@ -26,6 +26,7 @@ You can check a list of available module files with the module avail command.
26 26
 
27 27
 Version             | Module File Name  | System B/C/G  | Cloud System
28 28
 ------------------  | -------------------- | -----          | ----- 
29
+2022 R2 | tecplot360/2022R2 | KU | -
29 30
  2022 R1 (default)  |  tecplot360/2022R1   | KU             | -
30 31
  
31 32
 KU : Available for Kyoto University members only  
... ...
@@ -26,6 +26,7 @@ module avail コマンドにて,利用できるモジュールファイル一
26 26
 
27 27
 バージョン          | モジュールファイル名 | システムB/C/G  | クラウドシステム
28 28
 ------------------  | -------------------- | -----          | ----- 
29
+2022 R2 | tecplot360/2022R2 | KU | -
29 30
  2022 R1 (default)  |  tecplot360/2022R1   | KU             | -
30 31
  
31 32
 KU : 京都大学構成員限定で利用可能  
... ...
@@ -13,7 +13,7 @@ As it is provided as a package that comes with the operating system, there is no
13 13
 
14 14
 |Version   | Module File Name |  System B/C | System G | Cloud System | Note
15 15
 |---        | ---                  | ---         | ---       | ---              | ---
16
-|1.1.2      | none                 | +           | +         | +                | Former name:singularity
16
+|1.1.9      | none                 | +           | +         | +                | Former name:singularity
17 17
 
18 18
 \+ : Available for all users
19 19
 \- : Not available
... ...
@@ -13,7 +13,7 @@ OSに付属するパッケージとして提供されているため、モジュ
13 13
 
14 14
 |バージョン | モジュールファイル名 | システムB/C | システムG | クラウドシステム | 備考
15 15
 |---        | ---                  | ---         | ---       | ---              | ---
16
-|1.1.2      | none                 | +           | +         | +                | 旧名称:singularity
16
+|1.1.9      | none                 | +           | +         | +                | 旧名称:singularity
17 17
 
18 18
 \+ : すべてのユーザが利用可能  
19 19
 \- : 利用不可
... ...
@@ -21,17 +21,23 @@ GaussView6, 6.1, gaussian16/c02, +, +, +, -,
21 21
 ENVI, 5.6.3, envi/5.6.3, -, AU, AU, -,
22 22
 IDL, 8.8.3, idl/8.8.3, -, AU, AU, -,
23 23
 Tecplot360, 2022R1, tecplot360/2022R1, -, KU, KU, -,
24
+Tecplot360, 2022R2, tecplot360/2022R2, -, KU, KU, -,
24 25
 Maple, 2022.0, maple/2022.0, -, KU, KU, -,
25
-MATLAB, R2022b, matlab/R2022b, -, KU, KU, -,
26 26
 MATLAB, R2023a, matlab/R2023a, -, KU, KU, -,
27 27
 MSC Nastran, 2022.3, nastran/2022.3, -, AU, AU, -,
28 28
 MSC Patran, 2022.3, patran/2022.3, -, AU, AU, -,
29 29
 MSC Marc, 2022.3, marc/2022.3, -, AU, AU, -,
30 30
 MSC Marc Mentat, 2022.3, marc/2022.3, -, AU, AU, -,
31
-MSC Adams, 2022.3, adams/2022.3, -, AU, AU, -,
31
+MSC Adams, 2022.3.1, adams/2022.3.1, -, AU, AU, -,
32 32
 LS-DYNA, R13.1.1, ls-dyna/R13.1.1, -, AU, AU, -,
33 33
 Mathematica, 13.1.0, mathematica/13.1.0, -, KU, KU, -,
34 34
 ANSYS, 2022R2, ansysmcfd/2022R2, -, KU, KU, -,
35
+ANSYS, 2022R2.2, ansysmcfd/2022R2.2, -, KU, KU, -,
36
+ANSYS, 2023R1.4, ansysmcfd/2022R1.4, -, KU, KU, -,
37
+AVS, 8.5.1, avs/8.5.1, -, AU, AU, -,
38
+Gaussian16, c01, gaussian16/c01, +, +, +, -,
39
+Gaussian9, e01, gaussian9/e01, +, +, +, -,
40
+LS-PREPOST, 4.9.10, ls-prepost/4.9.10, -, AU, AU, -,
35 41
 
36 42
 ## Num Lib
37 43
 NAG Fortran Library, Mark 26, nag_fortran/26, -, +, -, -,
... ...
@@ -41,17 +47,20 @@ IMSL FORTRAN NUMERICAL LIBRARY, 2022.1.0, imsl/fnl-2022.1.0, -, +, -, -,
41 47
 ## compiler
42 48
 Intel oneAPI, 2018.4, intel/2018.4, +, +, -, +,
43 49
 Intel oneAPI, 2022.3, intel/2022.3, +, +, -, +,
50
+Intel oneAPI, 2023.1, intel/2023.1, +, +, -, +,
44 51
 Intel MPI, 2018.4, intelmpi/2018.4, +, +, -, +,
45 52
 Intel MPI, 2022.3, intelmpi/2022.3, +, +, -, +,
46
-#Intel VTune Profiler, 2018.4, vtune/2018.4, +, +, -, -,
53
+Intel MPI, 2023.1, intelmpi/2023.1, +, +, -, +,
54
+Intel VTune Profiler, 2018.4, vtune/2018.4, +, +, -, -,
47 55
 Intel VTune Profiler, 2022.3, vtune/2022.3, +, +, -, -,
48
-
49
-
56
+Indel Debugger, 2022.3, intel-debugger/2022.3, +, +, -, -,
57
+Open MPI, 4.0.5, openmpi/4.0.5_intel-2022.3, +, +, -, +,
50 58
 
51 59
 ## ML/DL
52 60
 MXNet, 1.6.0, mxnet/1.6.0.py38_intel-2022.3, +, +, -, -, <a href="software/python">Manual</a>
53 61
 PyTorch, 1.13.1, pytorch/1.13.1.py38_intel-2022.3, +, +, -, -, <a href="software/python">Manual</a>
54 62
 TensorFlow, 2.11.0, tensorflow/2.11.0.py38_intel-2022.3, +, +, -, -, <a href="software/python">Manual</a>
63
+PyTorch, 2.0.1, pytorch/2.0.1.py38_intel-2022.3, +, +, -, -, <a href="software/python">Manual</a>
55 64
 
56 65
 
57 66
 ## python
... ...
@@ -80,15 +89,26 @@ Paraview, 5.11.0, paraview/5.11.0, +, +, +, +, binary distribution
80 89
 VisIt, 3.3.1, visit/3.3.1_gnu-12.2.0, +, +, +, +,
81 90
 grads, 2.0.2, grads/2.0.2_intel-2022.3, +, +, +, +, 
82 91
 grads, 2.2.1, grads/2.2.1_intel-2022.3, +, +, +, +, 
83
-NAMD, 2.14, namd/2.14_intel-2022.3-impi, +, -, +,
92
+NAMD, 2.14, namd/2.14_intel-2022.3-impi, +, +, -, +,
93
+Anaconda3, 2022.10, anaconda3/2022.10, +, +, +, +,
94
+AWSCLI, 2.12.3, awscli/2.12.3, +, +, +, +,
95
+CP2K, 2023.1, cp2k/2023.1_gnu_12.2.0-impi, -, +, -, +
96
+LAMMPS, 22Dec2022, lammps/22Dec2022_intel-2022.3-impi, +, +, -, +,
97
+OpenFOAM, 2206, openfoam.com/2206_intel-2022.3-impi, +, +, -, +,
98
+OpenFOAM, 10, openfoam/10_intel-2022.3-impi, +, +, -, +,
99
+Quantum Espresso, 6.1, qe/6.1_intel-2018.0-impi, +, +, +, +,
100
+Quantum Espresso, 7.2, qe/7.2_intel-2022.3-impi, +, +, +, +,
101
+R, 4.2.2, r/4.2.2_gnu-12.2.0, -, +, -, +,
84 102
 
85 103
 #### System G
86 104
 
87 105
 ## compiler
88 106
 NVIDIA HPC SDK, 22.5, nvhpc/22.5, -, -, +, -,
89 107
 NVIDIA HPC SDK, 22.9, nvhpc/22.9, -, -, +, -,
108
+NVIDIA HPC SDK, 23.5, nvhpc/23.5, -, -, +, -,
90 109
 Open MPI, 4.0.5, openmpi/4.0.5_nvhpc-22.5, -, -, +, -,
91 110
 Open MPI, 4.0.5, openmpi/4.0.5_nvhpc-22.9, -, -, +, -,
111
+Open MPI, 4.1.5, openmpi/4.1.5_nvhpc-23.5, -, -, +, -,
92 112
 
93 113
 ## OSS
94 114
 FFTW, 3.3.10, fftw/3.3.10_nvhpc-22.9-ompi, -, -, +, -,
... ...
@@ -97,12 +117,13 @@ HDF5+MPI, 1.12.2, hdf5/1.12.2_nvhpc-22.9-ompi, -, -, +, -,
97 117
 NETCDF, 4.9.0, netcdf/4.9.0_nvhpc-22.9, -, -, +, -,
98 118
 NETCDF+MPI, 4.9.0, netcdf/4.9.0_nvhpc-22.9-ompi, -, -, +, -,
99 119
 Gromacs (single-precision), 2022.4, gromacs/2022.4_gnu-8.5.0_cuda-11.7_ompi_sp_smp, -, -, +, -, GCC+SMP+CUDA
100
-Gromacs (double-precision), 2022.4, gromacs/2022.4_gnu-8.5.0_cuda-11.7_ompi_dp_smp, -, -, +, -, GCC+SMP+CUDA
120
+NAMD, 2.14, namd/2.14_multicore-cuda, -, -, +, -,
101 121
 
102 122
 ## cuda
103 123
 CUDA, 9.2, cuda/9.2, -, -, +, -,
104 124
 CUDA, 11.2.1, cuda/11.2.1, -, -, +, -,
105 125
 CUDA, 11.7.1, cuda/11.7.1, -, -, +, -,
126
+CUDA, 12.1.1, cuda/12.1.1, -, -, +, -,
106 127
 
107 128
 ## ML/DL
108 129
 MXNet, 1.9.1, mxnet/1.9.1.py38_cuda-11.7, -, -, +, -, <a href="software/python">Manual</a>