Browse code

Delete information from previous systems

root authored on2023-06-14 10:09:49
Showing7 changed files
... ...
@@ -8,7 +8,7 @@ external_links:
8 8
     no_follow: true
9 9
     target: _blank
10 10
     mode: active
11
-published: false
11
+published: true
12 12
 ---
13 13
 
14 14
 [toc]
15 15
deleted file mode 100644
... ...
@@ -1,124 +0,0 @@
1
-title: GNUコンパイラ
2
-taxonomy:
3
-    category:
4
-        - docs
5
-external_links:
6
-    process: true
7
-    no_follow: true
8
-    target: _blank
9
-    mode: active
10
-published: false
11
-
12
-[toc]
13
-
14
-## 利用環境{#enviroment}
15
-
16
-### 利用できるバージョン・システム{#version}
17
-
18
-バージョン | モジュールファイル名 | システムB/C | システムG | クラウドシステム | 備考
19
-12.2.0 | gcc/12.2.0 | + | + | + | 2022年11月導入
20
-
21
-\+ : すべてのユーザが利用可能  
22
-\- : 利用不可
23
-
24
-システムにログインした時点では、IntelコンパイラもしくはNVIDIA HPC SDKコンパイラがデフォルトで利用できるようになっています。以下のようにmoduleコマンドを実行し、コンパイラを切り替えてください。コンパイラのバージョンは、上表に記載のデフォルトのバージョンが設定されます。
25
-
26
-```nohighlight
27
-(システムB、C、クラウド)
28
-$ module switch PrgEnvIntel PrgEnvGCC
29
-(システムG)
30
-$ module switch PrgEnvNvidia PrgEnvGCC
31
-```
32
-
33
-<!--
34
-GNUコンパイラのバージョンを切り替えたい場合は、PrgEnvGCC がロードされている状態で、以下のようにmoduleコマンドを実行してください。
35
-
36
-```nohighlight
37
-$ module switch gcc/4.8.2 gcc/4.6.2
38
-```
39
-
40
-ログイン時に自動で環境設定を行いたい場合は、ログインシェルの起動ファイルに必要なmoduleコマンドを記述してください。詳細は [環境設定](/config) をご覧ください。  
41
-moduleコマンドの詳細は [Modules](/config/modules) をご覧ください。
42
-
43
-## コンパイル方法{#usage}
44
-
45
-### コマンド{#command}
46
-
47
-言語       |  コマンド      | 実行形式                        
48
-Fortran |  gfortran |  gfortran オプション ファイル名
49
-C |        gcc    |    gcc オプション ファイル名     
50
-C++ |      g++     |   g++ オプション ファイル名     
51
-
52
-### オプション{#option}
53
-
54
-* **主要オプション(並列化、最適化など)**
55
-
56
-オプション名                                 |  説明                              
57
--o _FILENAME_ | オブジェクトファイルの名前を指定します。            
58
--mcmodel=medium                         | 2Gbyteを超えるメモリをサポートします。  
59
--fopenmp                                |  OpenMP指示子を有効にしてコンパイルします。       
60
--O0/-O1/-O2/-O3                        |  最適化のレベルを指定します(デフォルトは-O0)。         
61
-
62
-* **メッセージ出力とデバッグのオプション**
63
-
64
-オプション名 |  説明                
65
--Wall   | すべての警告メッセージを表示します。
66
-
67
-* **Fortran言語固有オプション**
68
-
69
-オプション名         |  説明                          
70
--ffixed-form | プログラムが固定形式で記述されていることを指示します。
71
--ffree-form    |  プログラムが自由形式で記述されていることを指示します。 
72
--pedantic       | Fortran拡張の利用を警告します。      
73
--fimplicit-none | 暗黙の型宣言を警告します。               
74
-
75
-## コンパイル例{#sample}
76
-
77
-### 逐次プログラム{#serial}
78
-
79
-```nohighlight
80
-$ gfortran test.f90    # Fortranの例
81
-$ gcc test.c           # C言語の例
82
-$ g++ test.cpp         # C++の例
83
-$ tssrun ./a.out       # 実行
84
-```
85
-
86
-### OpenMPの利用{#openmp}
87
-
88
-OpenMPは、プログラムの並列化のためのオープン規格です。
89
-ソースコードに#pragma ompで始まる指示を書き込み、所定のオプションをつけてコンパイルするだけで、コンパイラに自動で並列化を行わせることができます。
90
-
91
-OpenMPへの指示を書き込んだソースコードをコンパイルするには、-fopenmpオプションをつけます。
92
-
93
-```nohighlight
94
-$ gcc -fopenmp test.c
95
-```
96
-
97
-コンパイルしたプログラムを実行する時、-Aオプションでtとcに並列数を指定すると、その並列数でプログラムが実行されます。
98
-
99
-```nohighlight
100
-$ tssrun --rsc p=1:t=8:c=8 ./a.out # 並列数8を指定して実行
101
-```
102
-
103
-## 利用可能なライブラリ{#library}
104
-
105
-### MPIライブラリ{#mpi_library}
106
-
107
-OpenMPIライブラリが利用できます。MPIプログラムのコンパイル、リンク、実行方法については、 [OpenMPIライブラリ](/compilers/openmpi) をご覧ください。
108
-
109
-## マニュアル{#manual}
110
-
111
-* [GCC online documentation](http://gcc.gnu.org/onlinedocs/)
112
-
113
-
114
-## リンク{#link}
115
-
116
-* [GCC, the GNU Compiler Collection](http://gcc.gnu.org/)
117 0
deleted file mode 100644
... ...
@@ -1,182 +0,0 @@
1
-title: 'Intel Debugger'
2
-published: false
3
-taxonomy:
4
-    category:
5
-        - docs
6
-external_links:
7
-    process: true
8
-    title: false
9
-    no_follow: true
10
-    target: _blank
11
-    mode: active
12
-
13
-[toc]
14
-
15
-
16
-## 利用環境{#enviroment}
17
-
18
-
19
-### 利用できるバージョン・システム{#version}
20
-
21
-バージョン                                   |   システムA  |  システムB  |  システムC 
22
-Intel Debugger Version 14.0             |   ―      |  +      |  +     
23
-
24
-
25
-
26
-\+ : 利用可能  
27
-― : 利用不可
28
-
29
-
30
-### 環境設定{#modules}
31
-
32
-バージョン                |  moduleファイル名   
33
- Version 14.0 (default) |   intel/14.0.0
34
- 
35
-[Intelコンパイラ](/compilers/intel) の環境設定を行うと Intel Debuggerが利用できます。
36
-
37
-
38
-#### システムB、C
39
-
40
-システムB、Cにログインした時点で、 [Intelコンパイラ](/compilers/intel) が利用できるようになっています。モジュールファイルをアンロードした場合などは、以下のようにmoduleコマンドを実行します。
41
-
42
-
43
-```nohighlight
44
-$ module load intel
45
-```
46
-
47
-
48
-moduleコマンドの詳細は [Modules](/config/modules) をご覧ください。
49
-
50
-
51
-## 利用方法{#usage}
52
-
53
-
54
-### コマンド{#command}
55
-
56
-コマンド  |  説明                              
57
- idb  |   GUI版のIntel Debuggerを起動します。     
58
- idbc |   コマンドライン版のIntel Debuggerを起動します。 
59
-
60
-
61
-### デバッグ情報のレベル指定{#debug_level}
62
-
63
-Intel Debugger でデバッグを行う場合、 [Intelコンパイラ](/compilers/intel) でのコンパイル時に **-debug** オプションでデバッグ情報のレベルを指定する必要があります。
64
-
65
-オプション            |  説明                                
66
- -debug          |   最適化されていないコードのシンボル情報を生成します。       
67
- -debug extend   |  最適化されたコートの拡張シンボル情報を生成します。         
68
- -debug parallel |  スレッド並列のプログラムをデバッグするための追加情報を生成します。 
69
- -debug none     |   デバッグ情報を生成しません(デフォルト).            
70
-
71
-
72
-### MPIプログラムのデバッグ{#debug_mpi}
73
-
74
-MPIプログラムのデバッグを行う場合は、 **MPIEXEC_DEBUG** の環境変数を設定する必要があります。なお、MPIプログラムのデバッグはコマンドライン版の **idbc** コマンドでのみ可能です。
75
-
76
-
77
-#### tcshの場合
78
-
79
-
80
-```nohighlight
81
-$ setenv MPIEXEC_DEBUG
82
-```
83
-
84
-
85
-
86
-#### bashの場合
87
-
88
-
89
-```nohighlight
90
-$ export MPIEXEC_DEBUG
91
-```
92
-
93
-
94
-
95
-## 利用例{#sample}
96
-
97
-
98
-### GUIでの利用例{#sample_gui}
99
-
100
-
101
-#### 1。コンパイル
102
-
103
-Intel Debuggerを使用する場合、 **-debug** を指定してコンパイルを行ってください。
104
-
105
-
106
-```nohighlight
107
-#システムB、CでC言語のソースファイルtest.cをコンパイル
108
-$ icc -debug test.c
109
-```
110
-
111
-
112
-
113
-#### 2. Intel Debugger の起動
114
-
115
-[Exceed onDemand](/login/eod) で、 **xrun idb** コマンドを実行するとIntel Debuggerが起動します。
116
-
117
-
118
-```nohighlight
119
-$ xrun idb  ./a.out
120
-```
121
-
122
-
123
-**xrun** コマンドは計算ノードでGUIプログラムを実行するコマンドです。詳細は [会話型処理](/run/interactive) をご覧ください。
124
-
125
-下図では、 **sum.cc** の17行目にブレークポイントを設定し、デバッグを開始しています。
126
-
127
-![](idb01.png)
128
-
129
-
130
-### CUIでの利用例{#sample_cui}
131
-
132
-
133
-#### 1。コンパイル
134
-
135
-Intel Debuggerを使用する場合、 **-debug** を指定してコンパイルを行ってください。
136
-
137
-
138
-```nohighlight
139
-#システムB、CでC言語のソースファイルtest.cをコンパイル
140
-$ icc -debug test.c
141
-```
142
-
143
-
144
-
145
-#### 2. Intel Debugger の起動
146
-
147
-CUI版のIntel Debuggerは **idbc** コマンドで利用できます。
148
-
149
-
150
-```nohighlight
151
-$ tssrun idbc ./a.out
152
-Intel(R) Debugger for applications running on Intel(R) 64, Version 12.1, Build [77.329.14]
153
-object file name: ./a.out 
154
-Reading symbols from /home/b/b59999/a.out...done.
155
-(idb) list 15
156
-10		gethostname(host,sizeof(host));
157
-11		printf("ホスト名: %s\n", host);
158
-12		//std::cin >> max;
159
-13		max=100;
160
-14		sum=0;
161
-15		for (i=0; i<=max;i++)
162
-16		{
163
-17			sum+=i;
164
-18		}	
165
-19		std::cout<<sum<<std::endl;
166
-(idb) break sum.cc:17
167
-Breakpoint 1 at 0x4003c6: file /home/b/b59999/sum.cc, line 17.
168
-(idb) 
169
-```
170
-
171
-
172
-
173
-## マニュアル{#manual}
174
-
175
-* [IDB Command Reference](https://web.kudpc.kyoto-u.ac.jp/Cray_Manual/idb_command_reference.pdf)
176 0
deleted file mode 100644
... ...
@@ -1,113 +0,0 @@
1
-title: 'Intel distribution python '
2
-published: false
3
-taxonomy:
4
-    category:
5
-        - docs
6
-external_links:
7
-    process: true
8
-    title: false
9
-    no_follow: true
10
-    target: _blank
11
-    mode: active
12
-
13
-[toc]
14
-
15
-## Intel distribution pythonとは{#summary}
16
-
17
-Intel distribution pythonは、Intelが配布するPythonインタプリタです。
18
-高速化のチューニングを施された実行エンジンと、Intel MPIやIntel MKLの利用により、pythonプログラムの高速な実行を実現します。
19
-
20
-Intel distribution pythonは、現在Python 2.7.3, 3.5.3 に対応しています。
21
-また、Intel distribution pythonには、以下のモジュールが含まれています。
22
-
23
-** ※mpi4pyの動作は現在検証中です **
24
-
25
-```nohighlight
26
-NumPy, SciPY, scikit-learn, pandas, Matplotlib, Numba, Intel® Threading Building Blocks, pyDAAL, Jupyter, mpi4py, and others.
27
-```
28
-
29
-
30
-## 利用環境{#enviroment}
31
-
32
-### 利用できるバージョン・システム{#version}
33
-
34
-バージョン     |    システムA  |  システムB  |  システムC 
35
-3.5.3        |    ―    |    +    |  +     
36
-2.7.3        |    ―    |  +      |   +    
37
-
38
-
39
-\+ : 利用可能  
40
-― : 利用不可
41
-
42
-
43
-### 環境設定{#modules}
44
-
45
-バージョン           |  moduleファイル名        
46
-3.5.3 |   intel-python/3.5.3_2017.3
47
-2.7.3 |  intel-python/2.7.3_2017.3
48
-
49
- 
50
-以下のようにmoduleコマンドを実行し、利用したいバージョンのmoduleファイルをロードします。moduleファイル中のスラッシュとバージョンを省略した場合は、上表に記載のデフォルトのバージョンが設定されます。
51
-
52
-
53
-```nohighlight
54
-$ module load intel-python
55
-```
56
-
57
-
58
-moduleコマンドの詳細は [Modules](/config/modules) をご覧ください。
59
-
60
-
61
-## 利用方法{#usage}
62
-
63
-- moduleファイルの項目にあるいずれかのモジュールファイルをロードしてください。<br>
64
-  ここで、 2.7.13, 3.5.3 といった番号は python 自体のバージョン番号で、2017.3 といった番号は intel distributed python のバージョン番号 ('2017 update 3) になります。
65
-- 利用方法 (3.5.3 の場合)
66
-  ```nohighlight
67
-  $ module load intel-python/3.5.3_2017.3
68
-  $ python  # python の起動など
69
-  ```
70
-
71
-  <!--
72
-  ```nohighlight
73
-  $ module load intel-python/3.5.3_2017.3
74
-  $ source activate <環境名>  (環境名が与えられない場合は、 root となり、intel python の用意した default の環境になります。)
75
-  $ python  # python の起動など
76
-  ```
77
-  -->
78
-
79
-  バッチジョブ内では、
80
-
81
-  ```nohighlight
82
-  python <スクリプト名>
83
-  ```
84
-
85
-  としてください。 mpi4py をご利用の場合は、
86
-
87
-  ```nohighlight
88
-  mpiexec.hydra python <スクリプト名>
89
-  ```
90
-
91
-  などとしてご利用いただけます。 
92
-  
93
-<!--
94
-  python 環境から抜ける場合は、
95
-
96
-  ```nohighlight
97
-  > source deactivate
98
-    ```
99
-
100
-  を実行してください。
101
-
102
-## マニュアル{#manual}
103
-
104
-intel-pythonモジュールのロード後、manコマンドで説明を参照できます。  
105
-
106
-```nohighlight
107
-man python
108
-```
109 0
deleted file mode 100644
... ...
@@ -1,241 +0,0 @@
1
-title: 'Systems available in FY2022'
2
-published: false
3
-taxonomy:
4
-    category:
5
-        - docs
6
-external_links:
7
-    process: true
8
-    title: false
9
-    no_follow: true
10
-    target: _blank
11
-    mode: active
12
-
13
-[toc]
14
-
15
-## Overview {#overview}
16
-We will start the service of system D, system E and system G from 10:00 a.m. , January 13, 2023.
17
-System D and system E will be equipped with Intel Xeon processors, and system G will be equipped with AMD EPYC processors and GPUs.
18
-
19
-System D/E is the same Xeon processor as the previous system B and C, and is available with Intel compilers.
20
-You can use system D in place of system B, and system E  in place of system C, in a similar way as before.
21
-
22
-System G is equipped with four GPUs (NVIDIA A100 80GB SXM ) per node as accelerators, and it is suitable for running applications that utilize GPGPU, such as machine learning.
23
-
24
-<!--
25
-システムD 及び システムEは、ハードウェアは若干古い世代になりますが、搭載しているIntel Xeonプロセッサは、最新のCPUの命令セットとも
26
-概ね互換性があるため、同じ使用感でお使いいただけます。
27
-
28
-システムGは、AMD EPYCプロセッサを搭載し、演算加速器(NVIDIA A100 80GB SXM)を用いて計算いただくことが可能なシステムです。
29
-
30
-User ID of a large-scale computer systems is required to use the system.
31
-You can use the system without usage fees in FY2022 due to the trial operation period.
32
-
33
-##  System Configurations {#system}
34
-The specifications of the system D/E/G are as follows.
35
-
36
-You can access the HOME and LARGE areas of storage from any system with the same PATH.
37
-Please refer to [Using File System](/filesystem) for details on storage.
38
-
39
-<!--
40
-システムDとEの違いはメモリサイズのみで、演算性能は同一となります。
41
-また、ソフトウェア環境は、システムD/Eとクラウドシステムで共通となっています。
42
-
43
-一方、システムGは、CPUやコンパイラ、ソフトウェア環境が、他のシステムと異なる構成となっています。
44
-
45
-![system_deg](system_deg.png?width=900)
46
-
47
-
48
-## How to access the system {#login}
49
-Login to the system is limited to SSH (Secure SHell) key authentication.
50
-
51
-[Generate a key pair](/login/pubkey#keygen)and [Register your public key](/login/pubkey#regist) from [User Portal](https://web.kudpc.kyoto-u.ac.jp/portal) and then you can login.
52
-
53
-Please refer to [Access](/login) for details on 
54
-
55
-1. To log in to the system, access to the following hosts via SSH public key authentication. 
56
-```nohighlight
57
-## When logging in to system D/E
58
-$ ssh laurel.kudpc.kyoto-u.ac.jp
59
-## When logging in to system G
60
-$ ssh gardenia.kudpc.kyoto-u.ac.jp
61
-```
62
-
63
-2. Switch to the module file for each system.
64
-```nohighlight
65
-## When switching to the system D environment
66
-$ module switch SysD
67
-## When switching to the system E environment
68
-$ module switch SysE
69
-## When switching to the system G environment
70
-## (When you log in to gardenia, the system G environment is automatically set by default. Normally, there is no need to switch.)
71
-$ module switch SysG
72
-```
73
-
74
-3. Check your current environment if necessary. If system D and slurm are loaded, you can submit jobs to the system D environment.
75
-```nohighlight
76
-## For system D
77
-$ module list
78
-Currently Loaded Modulefiles:
79
- 1) slurm/2022   2) SysD/2022   3) intel/2022.3   4) intelmpi/2022.3   5) PrgEnvIntel/2022
80
-```
81
-
82
-
83
-## Login Environment{#env}
84
-
85
-The environmental settings such as programming environment and libraries are configured with the module command same as the previous system. However, the name of the module has been changed, you will need to review it if you are automatically loading it with .bashrc, etc when logging in. 
86
-
87
-Please refer to the following pages for the login environment and changes from the previous system.
88
-
89
-* [For Users of the Previous System](/migration)
90
-* [Setting up your Environment](/config)
91
-* [Modules - a tool for setting up the environment](/config/modules)
92
-
93
-## How to Compile {#compile}
94
-### System D/E 
95
-Intel compilers are available. It is set to automatically load the Intel compiler settings immediately after login.
96
-
97
-Please refer to [Compilers and Libraries](/compilers) for details.
98
-
99
-### System G
100
-NVIDIA HPC SDK compilers are available. It is set to automatically load the NVIDIA HPC SDK compiler settings immediately after login.
101
-
102
-Please refer to [Compilers and Libraries](/compilers) for details.
103
-
104
-## Job Execution {#job}
105
-Slurm is used as the job scheduler.
106
-
107
-Use the `spartition` command to check queues, the `squeue` command to check jobs, and the `sbatch` command to submit jobs.
108
-
109
-In addition to the standard slurm options, the --rsc option is added as a customized option specific to our center. You can specify the required computing resources with the same syntax used in the previous system's job scheduler (PBS) as the -A option. 
110
-
111
-In principle, please add the srun command before the program to be executed when executing a job by slurm. It is used instead of the mpiexec command. Parameters such as the number of parallels are obtained automatically from the --rsc option and can be omitted. Although it can be omitted in the sequential program, it is recommended to add.
112
-
113
-Please refer to [Program Execution](/run) for details.
114
-
115
-#### Example of job script for a sequential program
116
-```nohighlight
117
-#!/bin/bash
118
-#============ Slurm Options ===========
119
-#SBATCH -p gr19999d        # Specify job queue name (partition name). Check the available queue names with the spartition command.
120
-#SBATCH -t 1:00:00         # Specify a maximum elapsed time limit of 1 hour. It is easier to be scheduled if a lean limit is specified.
121
-#SBATCH --rsc p=1:t=1:c=1  # Specify the requested resource.
122
-#SBATCH -o %x.%j.out       # Specify the standard output/error output file for the job. %x is replaced by the job name (job script name) and %j is replaced by the job ID.
123
-#============ Shell Script ============
124
-set -x
125
-
126
-srun ./a.out
127
-```
128
-
129
-#### Example of a job script for an MPI program (8 Process)
130
-```nohighlight
131
-#!/bin/bash
132
-#============ Slurm Options ===========
133
-#SBATCH -p gr19999d        # Specify job queue name (partition name).
134
-#SBATCH -t 1:00:00         # Specify an elapsed time.
135
-#SBATCH --rsc p=8:t=1:c=1  # Specify the requested resource.
136
-#SBATCH -o %x.%j.out       # Specify the standard output/error output file for the job.
137
-#============ Shell Script ============
138
-set -x
139
-
140
-srun ./a.out
141
-```
142
-
143
-#### Example of a job script for a sequential program using a GPU
144
-```nohighlight
145
-#!/bin/bash
146
-#============ Slurm Options ===========
147
-#SBATCH -p gr19999g        # Specify job queue (partition).
148
-#SBATCH -t 1:00:00         # Specify an elapsed time.
149
-#SBATCH --rsc g=1          # Specify the requested resource.
150
-#SBATCH -o %x.%j.out       # Specify the standard output/error output file for the job.
151
-#============ Shell Script ============
152
-set -x
153
-
154
-srun ./a.out
155
-```
156
-
157
-### Queue Configuration{#queue}
158
-
159
-The following table shows the queue configuration during the 2022 trial operation period.
160
-The available job queue is allocated according to the status of applications in the first half of FY2022.
161
-
162
-Since the amount of computing resources is not yet sufficient compared to the previous system, the number of nodes per job available is approximately 25% to 40% of the previous system.
163
-
164
-We apologize for any inconvenience until the system will be the final configuration.
165
-
166
-Although many job queues are listed in the table, you can check queues authorized to submit with `spartition` command. 
167
-
168
-```bash
169
-## Example of command display
170
-$ spartition
171
-Partition  State   Rmin  Rstd  Rmax    DefTime     MaxTime
172
-ed         UP         0    40  5000   01:00:00    01:00:00
173
-pd         UP         0    40  5000   01:00:00  7-00:00:00
174
-s2d        UP         0    80  5000   01:00:00  7-00:00:00
175
-```
176
-
177
-
178
-#### Available queues in system D{#queue-sysd}
179
-
180
-Authorization is granted primarily to those who used system A/B from April to July 2022.
181
-Depending on the system congestion, elapsed time limits, etc. may be adjusted.
182
-
183
-| Queue name    | Maximum number of nodes per job | Elapsed time limit  | Available Users|
184
-|-----        | ---                    | --------------   | -------------    | 
185
-| ed          | 1 node                | 1:00:00 (1 hour)  |  All users (entry course)  |
186
-| pd          | 1node                | 7-00:00:00 (7 days) |Personal course of previous system B |
187
-| s2d         | 2 nodes                | 7-00:00:00 (7 days) | Group of previous system B/Group applied for 1 to 4 nodes for the private cluster|
188
-| s4d         | 4 nodes                | 7-00:00:00 (7 days) |  Group of previous system B/Group applied for 5 to 8 nodes for the private cluster|
189
-| s8d         | 8 nodes                | 7-00:00:00 (7 days) |  Group of previous system B/Group applied for 9 to 16 nodes for the private cluster |
190
-| s16d        | 16 nodes               | 7-00:00:00 (7 days) |  Group of previous system B/Group applied for 17 to 32 nodes for the private cluster|
191
-| s32d        | 32 nodes               | 7-00:00:00 (7 days) |  Group of previous system B/Group applied for 32 and more nodes for the private cluster |
192
-| Individual queue  | Individual                | 7-00:00:00 (7 days) |  Large-scale group, users such as Organization Fixed Rate, etc. (set usage authorization according to the usage of  the first half of FY2022)
193
-| l64d        | 64 nodes              | 2-00:00:00 (2 days) |  Large-scale group of 32 or more nodes of the previous system B application |
194
-
195
-
196
-#### Available queues in system E{#queue-syse}
197
-
198
-Authorization is granted primarily to those who used system C from April to July 2022.
199
-Depending on the system congestion, elapsed time limits, etc. may be adjusted.
200
-
201
-| Queue name | Maximum number of nodes per job | Elapsed time limit  | Available Users|
202
-|-----        | ---                    | --------------   | -------------    | 
203
-| pe          | 1 node     | 7-00:00:00 (7 days) |  Personal course of previous system C |
204
-| s1e         | 1 node                | 7-00:00:00 (7 days) |  Group course of previous system C,Private Cluster Course |
205
-| Individual queue  | Individual    | 7-00:00:00 (7 days) |  Large-scale group course, users such as Organization Fixed Rate, etc. (set usage authorization according to the usage of  the first half of FY2022) | 
206
-
207
-#### Available queues in system G{#queue-sysg}
208
-
209
-Authorization is granted primarily to those who used system C from April to July 2022.
210
-Depending on the system congestion, elapsed time limits, etc. may be adjusted.
211
-
212
-| Queue name | Maximum number of nodes per job | Elapsed time limit  | Available Users|
213
-|-----        | ---                    | --------------   | -------------    |
214
-| eg          | 1 node(4GPU)          | 1:00:00 (1 hour)  |  All users (entry course)  |
215
-| Individual queue  | Individual                 | 7-00:00:00 (7 days) |  Group course, some users of Private Cluster Course |
216
-
217
-#### Supplemental available computing resources per queue{#rscnote}
218
-Due to the hardware configuration restriction of the physical node, the --rsc option of the job script has the following restrictions. The maximum number of nodes per job available in each queue cannot be exceeded.
219
-
220
-|  Description                                                  | System D<br>Initial value |<br>Maximum value          | System E<br>Initial value |<br>Maximum value          | System G<br>Initial value |<br>Maximum value           |
221
-| ---                                                      | ---                 | ---                | ---                 | ---                | ---                 | ---                 |
222
-| Number of Process ( --rsc p=_X_ )                               | 1                   | 40 cores x Number of nodes | 1                   | 40 cores x Number of nodes  | 1              | 64 cores x Number of nodes  |
223
-| Number of threads per process ( --rsc t=_X_ )               | 1                   | 40 or 80(Logical core)  | 1                   | 40 or 80(Logical core)  | 1              | 64 or 128(Logical core)  |
224
-| Number of cores per process( --rsc c=_X_ )                   | 1                   | 40 cores            | 1                   | 40 cores          | 1              | 64 cores           |
225
-| Amount of memory per process( --rsc m=_X_ ) <br>(Unit:M, G) | 4750M               | 185G               | 19250G              | 751G               | 8000M           | 500G  | 
226
-| Number of GPUs                                      | -              | -             | -             | -            | 1                   | 4 x Number of nodes        |
227
-
228
-
229
-### Job Submission{#submit}
230
-
231
-You can submit Jobs by specifying a job script as the argument to the `sbatch` command.
232
-
233
-Please refer to [Batch Processing](/run/batch) for details.
234
-
235 0
deleted file mode 100644
... ...
@@ -1,247 +0,0 @@
1
-title: 2022年度に利用可能なシステムについて
2
-published: false
3
-taxonomy:
4
-    category:
5
-        - docs
6
-external_links:
7
-    process: true
8
-    title: false
9
-    no_follow: true
10
-    target: _blank
11
-    mode: active
12
-
13
-[toc]
14
-
15
-## 概要 {#overview}
16
-2023年1月13日10時より、システムD、システムE 及びシステムGの提供を開始します。
17
-システムD 及び システムEは、Intel Xeonプロセッサを、システムGは AMD EPYCプロセッサおよびGPUを搭載したシステムとなります。
18
-
19
-システムD/Eは、前システムのシステムB、システムCとの同じXeonプロセッサであり、Intelコンパイラが利用可能です。
20
-システムDはシステムBの代わりに、システムEはシステムCの代わりとして、これまでと似た使用感でお使いいただくことが可能です。
21
-
22
-システムGには、演算加速器としてGPU(NVIDIA A100 80GB SXM )を1ノードあたり4基搭載しており、機械学習などGPGPUを活用するアプリケーションの実行に適しています。
23
-
24
-<!--
25
-システムD 及び システムEは、ハードウェアは若干古い世代になりますが、搭載しているIntel Xeonプロセッサは、最新のCPUの命令セットとも
26
-概ね互換性があるため、同じ使用感でお使いいただけます。
27
-
28
-システムGは、AMD EPYCプロセッサを搭載し、演算加速器(NVIDIA A100 80GB SXM)を用いて計算いただくことが可能なシステムです。
29
-
30
-利用するためには、大型計算機システム利用者番号が必要です。
31
-2022年度は試験運転期間のため利用にかかる費用負担はありません。
32
-
33
-## システム構成 {#system}
34
-システムD/E/G の計算機の仕様は以下のとおりです。
35
-
36
-ストレージは、どのシステムからもHOME領域、LARGE領域に対して同一のPATHでアクセス可能です。
37
-ストレージに関する詳細は、[ストレージの利用](/filesystem)をご参照ください。
38
-
39
-<!--
40
-システムDとEの違いはメモリサイズのみで、演算性能は同一となります。
41
-また、ソフトウェア環境は、システムD/Eとクラウドシステムで共通となっています。
42
-
43
-一方、システムGは、CPUやコンパイラ、ソフトウェア環境が、他のシステムと異なる構成となっています。
44
-
45
-![system_deg](system_deg.png?width=900)
46
-
47
-
48
-## システムへの接続方法 {#login}
49
-システムへのログインは、SSH (Secure SHell) の鍵認証に限定しています。
50
-
51
-[鍵ペアを作成](/login/pubkey#keygen)し、[利用者ポータル](https://web.kudpc.kyoto-u.ac.jp/portal)から
52
-[公開鍵の登録](/login/pubkey#regist)が完了するとログインできます。
53
-
54
-詳細は、[システムへの接続方法](/login)をご参照ください。
55
-
56
-1. システムにログインするには、SSH公開鍵認証により次のホストに接続してください。
57
-```nohighlight
58
-## システムD/E にログインする場合
59
-$ ssh laurel.kudpc.kyoto-u.ac.jp
60
-## システムG にログインする場合
61
-$ ssh gardenia.kudpc.kyoto-u.ac.jp
62
-```
63
-2. それぞれのシステム用のモジュールファイルにスイッチします。
64
-```nohighlight
65
-## システムDの環境に切り替える場合
66
-$ module switch SysD
67
-## システムEの環境に切り替える場合 
68
-$ module switch SysE
69
-## システムGの環境に切り替える場合
70
-## (gardeniaにログインすると、初期状態でSysGの環境が自動設定されていいます。通常切り替える必要はありません)
71
-$ module switch SysG
72
-```
73
-3. 必要に応じて現在の環境を確認してください。SysDおよびslurmがロードされていれば、システムDの環境にジョブ投入することが可能です。
74
-```nohighlight
75
-## システムDの場合
76
-$ module list
77
-Currently Loaded Modulefiles:
78
- 1) slurm/2022   2) SysD/2022   3) intel/2022.3   4) intelmpi/2022.3   5) PrgEnvIntel/2022
79
-```
80
-
81
-
82
-## ログイン環境について{#env}
83
-
84
-プログラミング環境やライブラリ等の環境設定は、前システムと同様に module コマンドで行います。
85
-ただし、module の名前が変更されていますので、.bashrc等でログイン時に自動で load している場合は、見直していただく必要があります。
86
-
87
-ログイン環境や、前システムからの変化に関しては次のページも併せてご参照ください。
88
-
89
-* [前システムからの移行](/migration)
90
-* [ログイン環境](/config)
91
-* [環境設定ツール](/config/modules)
92
-
93
-## コンパイル方法 {#compile}
94
-### システムD/E 
95
-Intelコンパイラが利用可能です。ログイン直後の状態で自動的にIntelコンパイラの設定をロードするように設定しています。
96
-
97
-詳細は、[コンパイラ・ライブラリ](/compilers)をご参照ください。
98
-
99
-### システムG
100
-NVIDIA HPC SDKコンパイラが利用可能です。ログイン直後の状態で自動的にNVIDIA HPC SDKコンパイラの設定をロードするように設定しています。
101
-
102
-詳細は、[コンパイラ・ライブラリ](/compilers)をご参照ください。
103
-
104
-## ジョブ実行 {#job}
105
-ジョブスケジューラとしてSlurmを採用しています。
106
-
107
-キューの確認は `spartition` コマンド、ジョブの確認は `squeue`コマンド、ジョブ投入は、`sbatch`コマンド
108
-をご利用ください。
109
-
110
-slurmの標準オプションに加えて、--rsc オプションを本センター固有のカスタマイズオプションとして追加しています。
111
-前システムのジョブスケジューラ(PBS)では、-A オプションとしてご利用いただいていたものと同じ構文で、
112
-必要な計算リソースを指定することが可能です。
113
-
114
-また、slurmによるジョブ実行の際には、原則、実行したいプログラムの前には srun コマンドを付与してください。
115
-mpiexec コマンドの代わりに使用します。並列数等のパラメータは--rscオプションから自動で取得しますので省略可能です。
116
-なお、逐次プログラムでは省略することもできますが、付与することを推奨しています。
117
-
118
-より詳細な情報は、[プログラムの実行](/run)をご参照ください。
119
-
120
-#### 逐次プログラムのジョブスクリプトの例
121
-```nohighlight
122
-#!/bin/bash
123
-#============ Slurm Options ===========
124
-#SBATCH -p gr19999d        # ジョブキュー名(パーティション名)の指定。利用可能なキュー名は spartition コマンドで確認してください。
125
-#SBATCH -t 1:00:00         # 経過時間の上限を1時間に指定。無駄のない上限を指定したほうがスケジューリングされやすくなります。
126
-#SBATCH --rsc p=1:t=1:c=1  # 要求リソースの指定。
127
-#SBATCH -o %x.%j.out       # ジョブの標準出力/エラー出力ファイルの指定。%xはジョブ名(ジョブスクリプト名)、%j はジョブIDに置換されます。
128
-#============ Shell Script ============
129
-set -x
130
-
131
-srun ./a.out
132
-```
133
-
134
-#### MPIプログラムのジョブスクリプトの例 (8プロセス)
135
-```nohighlight
136
-#!/bin/bash
137
-#============ Slurm Options ===========
138
-#SBATCH -p gr19999d        # ジョブキュー(パーティション)の指定。
139
-#SBATCH -t 1:00:00         # 経過時間の指定
140
-#SBATCH --rsc p=8:t=1:c=1  # 要求リソースの指定
141
-#SBATCH -o %x.%j.out       # ジョブの標準出力/エラー出力ファイルの指定
142
-#============ Shell Script ============
143
-set -x
144
-
145
-srun ./a.out
146
-```
147
-
148
-#### GPUを使用する逐次プログラムのジョブスクリプトの例
149
-```nohighlight
150
-#!/bin/bash
151
-#============ Slurm Options ===========
152
-#SBATCH -p gr19999g        # ジョブキュー(パーティション)の指定。
153
-#SBATCH -t 1:00:00         # 経過時間の指定
154
-#SBATCH --rsc g=1          # 要求リソースの指定
155
-#SBATCH -o %x.%j.out       # ジョブの標準出力/エラー出力ファイルの指定
156
-#============ Shell Script ============
157
-set -x
158
-
159
-srun ./a.out
160
-```
161
-
162
-### キュー構成{#queue}
163
-
164
-2022年度の試験運転期間中のキュー構成は以下の表の通りです。
165
-2022年度の前期の申請状況に応じて利用できるジョブキューを振り分けています。
166
-
167
-前システムと比較し、計算資源の物量がまだ十分ではないため、
168
-ご利用いただけるジョブあたりのノード数については、前システムの概ね25%から40%程度となっています。
169
-
170
-システムが最終構成になるまではご不便をおかけしますが、ご理解の程よろしくお願いいたします。
171
-
172
-ジョブキューを表に多数記載していますが、実際に投入権限のあるキューの確認は
173
-`spartition` コマンドでご確認の上ご利用ください。
174
-
175
-```bash
176
-## コマンド表示例
177
-$ spartition
178
-Partition  State   Rmin  Rstd  Rmax    DefTime     MaxTime
179
-ed         UP         0    40  5000   01:00:00    01:00:00
180
-pd         UP         0    40  5000   01:00:00  7-00:00:00
181
-s2d        UP         0    80  5000   01:00:00  7-00:00:00
182
-```
183
-
184
-
185
-#### システムDで利用可能なキュー{#queue-sysd}
186
-
187
-主に、2022年4月~7月にシステムA/Bをご利用された方に利用権限を付与しています。
188
-システムの混雑具合によっては経過時間の上限などを調整する可能性があります。
189
-
190
-| キュー名    | ジョブ毎の上限ノード数 | 経過時間上限     |  利用可能なユーザ|
191
-|-----        | ---                    | --------------   | -------------    | 
192
-| ed          | 1ノード                | 1:00:00 (1時間)  |  全ユーザ(エントリコース) |
193
-| pd          | 1ノード                | 7-00:00:00 (7日) |  前システムBのパーソナルコース |
194
-| s2d         | 2ノード                | 7-00:00:00 (7日) |  前システムBのグループ/専用クラスタの申請が 1~4ノードのグループ |
195
-| s4d         | 4ノード                | 7-00:00:00 (7日) |  前システムBのグループ/専用クラスタの申請が 5~8ノードのグループ |
196
-| s8d         | 8ノード                | 7-00:00:00 (7日) |  前システムBのグループ/専用クラスタの申請が 9~16ノードのグループ |
197
-| s16d        | 16ノード               | 7-00:00:00 (7日) |  前システムBのグループ/専用クラスタの申請が 17~32ノードのグループ |
198
-| s32d        | 32ノード               | 7-00:00:00 (7日) |  前システムBのグループ/専用クラスタの申請が 32以上ノードのグループ |
199
-| 個別キュー  | 個別                   | 7-00:00:00 (7日) |  大規模なグループコース、機関・部局定額等のユーザ(前期の利用規模に応じた利用権限を設定) | 
200
-| l64d        | 64ノード               | 2-00:00:00 (2日) |  前システムBの申請が32ノード以上の大規模グループ |
201
-
202
-
203
-#### システムEで利用可能なキュー{#queue-syse}
204
-
205
-主に、2022年4月~7月にシステムCをご利用された方に利用権限を付与しています。
206
-システムの混雑具合によっては経過時間の上限などを調整する可能性があります。
207
-
208
-| キュー名    | ジョブ毎の上限ノード数 | 経過時間上限     |  利用可能なユーザ|
209
-|-----        | ---                    | --------------   | -------------    | 
210
-| pe          | 1ノード                | 7-00:00:00 (7日) |  前システムCのパーソナルコース |
211
-| s1e         | 1ノード                | 7-00:00:00 (7日) |  前システムCのグループコース,専用クラスタコース |
212
-| 個別キュー  | 個別                   | 7-00:00:00 (7日) |  大規模なグループコース、機関・部局定額等のユーザ(前期の利用規模に応じた利用権限を設定) | 
213
-
214
-#### システムGで利用可能なキュー{#queue-sysg}
215
-
216
-主に、2022年4月~7月に本センターのシステムをご利用された方に利用権限を付与しています。
217
-システムの混雑具合によっては経過時間の上限などを調整する可能性があります。
218
-
219
-| キュー名    | ジョブ毎の上限ノード数 | 経過時間上限     |  利用可能なユーザ|
220
-|-----        | ---                    | --------------   | -------------    |
221
-| eg          | 1ノード(4GPU)          | 1:00:00 (1時間)  |  全ユーザ(エントリコース) |
222
-| 個別キュー  | 個別                   | 7-00:00:00 (7日) |  グループコース、機関・部局定額等の一部ユーザ |
223
-
224
-#### キュー毎の利用可能な計算資源の補足{#rscnote}
225
-物理ノードのハードウェア構成制約から、ジョブスクリプトの --rsc オプションには以下の制約があります。また、各キューで利用可能なジョブ当たりの上限ノード数を超えることはできません。
226
-
227
-
228
-| 説明                                                     | システムD<br>初期値 |<br>最大値          | システムE<br>初期値 |<br>最大値          | システムG<br>初期値 |<br>最大値           |
229
-| ---                                                      | ---                 | ---                | ---                 | ---                | ---                 | ---                 |
230
-| プロセス数 ( --rsc p=_X_ )                               | 1                   | 40コア x ノード数  | 1                   | 40コア x ノード数  | 1              | 64コア x ノード数   |
231
-| プロセスあたりのスレッド数 ( --rsc t=_X_ )               | 1                   | 40 or 80(論理コア) | 1                   | 40 or 80(論理コア) | 1              | 64 or 128(論理コア) |
232
-| プロセスあたりのコア数 ( --rsc c=_X_ )                   | 1                   | 40コア             | 1                   | 40コア             | 1              | 64コア              |
233
-| プロセスあたりのメモリ量( --rsc m=_X_ ) <br>(単位:M, G) | 4750M               | 185G               | 19250G              | 751G               | 8000M           | 500G                |
234
-| GPU数                                    | -              | -             | -             | -            | 1                   | 4 x ノード数        |
235
-
236
-### ジョブ投入{#submit}
237
-
238
-`sbatch` コマンドの引数にジョブスクリプトを指定することでジョブ投入が可能です。
239
-
240
-詳細は、[バッチ処理](/run/batch) をご参照ください。
241 0
deleted file mode 100644
242 1
Binary files a/user/pages/90.misc/07.systemdeg/system_deg.png and /dev/null differ