Toggle navigation
Info Circus - knowledge
作成
作成
下書き一覧
ストック
一覧
複合検索
サインイン
更新履歴
incmplt - Info Circus
2024/07/21 19:17
現在との差分
過去のナレッジの内容
コンテンツ
Ubuntu 22.04 LTS環境で、オープンソースの大規模言語モデル(LLM)であるOllamaをDocker Composeを使って起動する方法について解説する。 ### 動作環境 この手順を実行するための動作環境は以下の通りである。 - **OS**: Ubuntu 22.04 LTS - **GPU**: RTX3060 - **メモリ**: 32GB - **ストレージ**: 2TB SSD Ubuntuに NVIDIAドライバのインストールならびに環境の構築方法、GPU対応の Docker環境の設定方法は、ここでは割愛する。 それぞれの環境構築は、別の記事で記述する。 ### Docker Composeファイルの準備 まず、OllamaをDocker Composeで起動するための`docker-compose.yaml`ファイルを準備する。以下がその内容となる。 ```yaml version: '3.8' services: ollama: image: ollama/ollama container_name: ollama ports: - "11434:11434" volumes: - ./ollama:/root/.ollama deploy: resources: reservations: devices: - capabilities: [gpu] restart: always environment: UPLOAD_FILE_SIZE_LIMIT: 150 volumes: ollama: ``` この設定ファイルにより、Ollamaのコンテナが構築され、GPUを使用する設定が有効になる。また、再起動オプションも設定されているため、コンテナが停止しても自動的に再起動する。 ### ディレクトリの設定 `docker-compose.yaml`のあるディレクトリに`ollama/`ディレクトリを作成する。このディレクトリは、コンテナ内の`/root/.ollama/`にマウントされる。このディレクトリ内で、オリジナルのLLM(例えば、Fugaku-LLM)のモデルをビルドして登録することができる。 ### コンテナの起動 `docker-compose.yaml`ファイルがあるディレクトリで以下のコマンドを実行して、コンテナを起動する。 ```bash docker-compose up -d ``` ### bashの使用 コンテナが正常に起動したら、以下のコマンドを実行してコンテナ内でbashを使用することができる。 ```bash docker container exec -it ollama bash ``` bashを起動した後、以下のコマンドを使用して必要なモデルをダウンロードすることが可能である。 ```bash ollama pull llama3 ollama pull gemma2:9b ollama pull phi3:14b ``` これらのコマンドを実行することで、Ollamaのコンテナ内に必要なLLMモデルを簡単にインストールできる。 ### まとめ Ubuntu 22.04 LTS環境でOllamaをDocker Composeで起動する手順となる。
現在のナレッジの内容
コンテンツ
Ubuntu 22.04 LTS環境で、オープンソースの大規模言語モデル(LLM)であるOllamaをDocker Composeを使って起動する方法について解説する。 ### 動作環境 この手順を実行するための動作環境は以下の通りである。 - **OS**: Ubuntu 22.04 LTS - **GPU**: RTX3060 - **メモリ**: 32GB - **ストレージ**: 2TB SSD Ubuntuに NVIDIAドライバのインストールならびに環境の構築方法、GPU対応の Docker環境の設定方法は、ここでは割愛する。 それぞれの環境構築は、別の記事で記述する。 ### Docker Composeファイルの準備 まず、OllamaをDocker Composeで起動するための`docker-compose.yaml`ファイルを準備する。以下がその内容となる。 ```yaml version: '3.8' services: ollama: image: ollama/ollama container_name: ollama ports: - "11434:11434" volumes: - ./ollama:/root/.ollama deploy: resources: reservations: devices: - capabilities: [gpu] restart: always environment: UPLOAD_FILE_SIZE_LIMIT: 150 volumes: ollama: ``` この設定ファイルにより、Ollamaのコンテナが構築され、GPUを使用する設定が有効になる。また、再起動オプションも設定されているため、コンテナが停止しても自動的に再起動する。 ### ディレクトリの設定 `docker-compose.yaml`のあるディレクトリに`ollama/`ディレクトリを作成する。このディレクトリは、コンテナ内の`/root/.ollama/`にマウントされる。このディレクトリ内で、オリジナルのLLM(例えば、Fugaku-LLM)のモデルをビルドして登録することができる。 ### コンテナの起動 `docker-compose.yaml`ファイルがあるディレクトリで以下のコマンドを実行して、コンテナを起動する。 ```bash docker compose up -d ``` ### bashの使用とモデルのインストール コンテナが正常に起動したら、以下のコマンドを実行してコンテナ内でbashを使用することができる。 ```bash docker container exec -it ollama bash ``` bashを起動した後、以下のコマンドを使用して必要なモデルをダウンロードすることが可能である。 ```bash ollama pull llama3 ollama pull gemma2:9b ollama pull phi3:14b ollama pull openchat ``` これらのコマンドを実行することで、Ollamaのコンテナ内に必要なLLMモデルを簡単にインストールできる。 Dify で連携する場合には、ここで pull したモデルを指定することで、APIを通して適時 runしてくれる。 個別でコンソールで以下のコマンドを実行する。 ```bash ollama run openchat ``` ### まとめ Ubuntu 22.04 LTS環境でOllamaをDocker Composeで起動する手順となる。
戻る