incmplt - Info Circus
2024/07/21 18:45
@@ -1,23 +1,41 @@
|
|
1
|
-
|
1
|
+
Ubuntu 22.04 LTS環境において、Ollamaのモデルを一括して更新する方法について解説する。
|
2
2
|
|
3
|
-
* Ubuntu 22.04 LTS
|
4
|
-
|
3
|
+
### 動作環境
|
5
|
-
* Memory: 32GB
|
6
|
-
* Storage: 2TB/SSD
|
7
4
|
|
8
|
-
|
5
|
+
この手順を実行するための動作環境は以下の通りである。
|
9
6
|
|
10
|
-
|
7
|
+
- **OS**: Ubuntu 22.04 LTS
|
8
|
+
- **GPU**: RTX3060
|
9
|
+
- **メモリ**: 32GB
|
11
|
-
|
10
|
+
- **ストレージ**: 2TB SSD
|
12
11
|
|
13
|
-
|
12
|
+
### Ollamaモデルの一括更新
|
14
13
|
|
14
|
+
Ollamaのモデルは、時折アップデートされる。新しいモデルを取得するためには、`ollama pull`コマンドを使用する。ただし、どのモデルがアップデートされたかを個別に調べるのは手間がかかるため、以下のコマンドを使用してOllamaの全モデルを一括で更新することができる。
|
15
|
+
|
15
16
|
```bash
|
16
17
|
ollama list | tail -n +2 | cut -f1 | xargs -n1 ollama pull
|
17
18
|
```
|
18
19
|
|
19
|
-
Docker の場合には、ollama の docker で bash を起動してコマンドを実行する。
|
20
|
-
|
20
|
+
このコマンドは、`ollama list`でリストされたモデルの名前を取得し、`xargs`を使って一つずつ`ollama pull`コマンドを実行するものである。
|
21
21
|
|
22
|
+
### Docker環境でのモデル更新
|
23
|
+
|
24
|
+
Docker環境でOllamaを使用している場合、以下のコマンドでコンテナ内でbashを起動し、上記の一括更新コマンドを実行する。
|
25
|
+
|
22
|
-
|
26
|
+
```bash
|
23
|
-
|
27
|
+
docker container exec -it ollama bash
|
28
|
+
```
|
29
|
+
|
30
|
+
ただし、自分で作成したモデルはこの方法ではアップデートされないため、`ollama pull`コマンドで既存のモデルを更新した後に、自作のLLMを手動でアップデートする必要がある。
|
31
|
+
|
32
|
+
### Ollamaで使用できるモデルの確認
|
33
|
+
|
34
|
+
Ollamaで使用できるモデルは、以下のURLで確認することができる。
|
35
|
+
|
36
|
+
[Ollama Model Library](https://ollama.com/library)
|
37
|
+
|
38
|
+
### まとめ
|
39
|
+
|
40
|
+
Ubuntu 22.04 LTS環境でOllamaのモデルを一括して更新する方法について解説した。
|
41
|
+
効率的にモデルを最新の状態に保つためにの手順となる。
|