更新履歴

icon
 incmplt - Info Circus   2024/07/21 18:45

現在との差分
History → Now CHANGED
@@ -1,23 +1,41 @@
1
- ## 動作環境
1
+ Ubuntu 22.04 LTS環境において、Ollamaのモデルを一括して更新する方法について解説する。
2
2
3
- * Ubuntu 22.04 LTS
4
- * RTX3060
3
+ ### 動作環境
5
- * Memory: 32GB
6
- * Storage: 2TB/SSD
7
4
8
- ## Ollama に pull しているモデルを一括して更新
5
+ この手順を実行するための動作環境は以下の通りである。
9
6
10
- ollamaのモデルはアップデートされる場合がある。
7
+ - **OS**: Ubuntu 22.04 LTS
8
+ - **GPU**: RTX3060
9
+ - **メモリ**: 32GB
11
- 新しいモデルをアップデートするには ollama pull でモデルのアップデート(取得)ができる。
10
+ - **ストレージ**: 2TB SSD
12
11
13
- ただ、どのモデルがアップデートされたかを調べるのも手間がかかるので、以下のコマンドで ollama のモデルを全てアップデートできる。
12
+ ### Ollamaモデルの一括更新
14
13
14
+ Ollamaのモデルは、時折アップデートされる。新しいモデルを取得するためには、`ollama pull`コマンドを使用する。ただし、どのモデルがアップデートされたかを個別に調べるのは手間がかかるため、以下のコマンドを使用してOllamaの全モデルを一括で更新することができる。
15
+
15
16
```bash
16
17
ollama list | tail -n +2 | cut -f1 | xargs -n1 ollama pull
17
18
```
18
19
19
- Docker の場合には、ollama の docker で bash を起動してコマンドを実行する。
20
- ただし、自分で作成したモデルは、アップデートされないので ollama pull した後に、自作のLLMをアップデートする必要がある。
20
+ このコマンドは、`ollama list`でリストされたモデルの名前を取得し、`xargs`を使って一つずつ`ollama pull`コマンドを実行するものである。
21
21
22
+ ### Docker環境でのモデル更新
23
+
24
+ Docker環境でOllamaを使用している場合、以下のコマンドでコンテナ内でbashを起動し、上記の一括更新コマンドを実行する。
25
+
22
- 参考サイト
26
+ ```bash
23
- https://github.com/ollama/ollama/issues/803
27
+ docker container exec -it ollama bash
28
+ ```
29
+
30
+ ただし、自分で作成したモデルはこの方法ではアップデートされないため、`ollama pull`コマンドで既存のモデルを更新した後に、自作のLLMを手動でアップデートする必要がある。
31
+
32
+ ### Ollamaで使用できるモデルの確認
33
+
34
+ Ollamaで使用できるモデルは、以下のURLで確認することができる。
35
+
36
+ [Ollama Model Library](https://ollama.com/library)
37
+
38
+ ### まとめ
39
+
40
+ Ubuntu 22.04 LTS環境でOllamaのモデルを一括して更新する方法について解説した。
41
+ 効率的にモデルを最新の状態に保つためにの手順となる。

過去のナレッジの内容

現在のナレッジの内容
 戻る