llama3 を試してみた

メタ社から 4/13 に発表された llama3 を使ってみた。

ダウンロードした PC のスペックは以下の通り。

CPU12世代 Core-i7
RAM128GB
GPUnVidia GeForce RTX 4090
SSD2TB
OSUbuntu 22.04.04

llama3 には 8B と 70B の2つのモデルがあるが、まずは 8B モデルで試してみる。

サクっと確認するため、ollama コマンドをインストールしてチェックした。

https://ollama.com から各 OS 向けの sh パッケージをダウンロードできる。Ollama コマンドをインストールしたら、

ollama run llama3

で、llama3 8B をダウンロードし、実行してくれる。

GPU Memory Usage を nvidia-smi で確認したところ、8GB 消費していた。応答速度も申し分ない。

次に、

ollama run llama3:70b

で llama3 70b モデルをダウンロードして実行してみた。

RTX 4090 は VRAM が 24GB 乗っているが、ollama-server が VRAM を使い尽くしていた。耐えられないほどではないが、応答もだいぶもたつく。不思議なことにメイン RAM は 3GB しか消費していない。

マウスコンピュータの400万円の PC だとどのような結果になるか興味深いが、AI にはお金がかかりますなあ。

投稿者について
みのしす

小さいときは科学者になろうとしたのに、その時にたまたま身に着けたプログラミングで未だに飯を食っているしがないおじさんです。(年齢的にはもうすぐおじいさん)

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です