UE5でVFXを作る私が
Ollamaを試してみた
正直レビュー
「ローカルLLMって難しそう」と思っていたVFXデザイナーが、子供が寝てから導入してみた。 結論から言うと、思ったより全然簡単だった。でも「これで何をするか」はまだ模索中。そのへんを正直に書く。
- 01そもそもなぜローカルLLMを試したのか
- 02Ollamaとは何か(ざっくり説明)
- 03導入の手順と実際にかかった時間
- 04使ってみてわかったこと・正直な感想
- 05VFXデザイナー的に「使えそうか」の現時点の評価
- 06次にやること
01 | そもそもなぜローカルLLMを試したのか
きっかけは単純で、生成AIへの興味だった。ChatGPTやClaudeは使ったことがあったけど、 「自分のPCの中で動くAI」という響きがなんとなく気になっていた。 ゲームのVFXを作る仕事柄、リアルタイム処理やシェーダーの動作には慣れているつもりだけど、LLMとなると話は別。
子育て中でまとまった時間が取りにくい今、新しいことへのハードルは正直高い。 それでも「子供が寝てからの1〜2時間でできるなら試してみよう」と思い立った。 解説サイトを頼りに、半信半疑でやってみたのがことの始まり。
02 | Ollamaとは何か(ざっくり説明)
Ollamaは、ローカル環境(自分のPC)でLLM(大規模言語モデル)を動かすためのツール。 クラウドのAPIを使わず、インターネット接続なしでAIと会話できるのが特徴。
- 無料完全無料・オープンソース。月額料金なし、API費用なし。
- オフオフライン動作。一度モデルをダウンロードすれば、以降はネット不要。
- 安全データが外部に送られない。仕事のアイデアや社内情報も安心して使える(将来的に)。
- CLIコマンドラインで操作する。GUIは別途ツールが必要だが、基本はターミナルから。
03 | 導入の手順と実際にかかった時間
結論から言うと、導入そのものは30分かからなかった。 モデルのダウンロードを除けば、セットアップは本当に数分で終わった。 「もっと詰まると思ってた」というのが正直な感想。
つまずいたポイント
セットアップ自体は問題なかったけど、最初は日本語の精度がやや低いと感じた。 英語で質問すると返答が明らかに自然になる。モデルの選択で変わるらしいので、 次は日本語対応モデルを試してみるつもり。
04 | 使ってみてわかったこと・正直な感想
- 導入が驚くほど簡単
- 無料でずっと使える
- レスポンスは思ったより速い
- ネット不要で動く安心感
- 複数モデルを気軽に試せる
- 日本語精度はモデルによる
- GUIがなくCLI操作が必要
- 「何に使うか」は自分で考える必要がある
- 高性能モデルはPCスペックを要求する
正直、今の段階では「動いた!すごい!」以上の使いこなしができていない。 ChatGPTと比べると賢さは一段落ちる印象もある。 でもそれは当然で、無料でオフラインで動いていることを考えれば十分すぎるくらい。
問題は「で、これで何をするか」が自分の中でまだ固まっていないこと。 VFX制作のアイデア出しに使えるかもしれないし、Unreal Engineのブループリントの 書き方を質問するのにも使えそう。ここはこれから試していく。
05 | VFXデザイナー的に「使えそうか」の現時点の評価
「使いこなせている」とは言えないが、導入コストに対するポテンシャルは高い。 無料・オフライン・プライベートという3点だけで、長期的に手元に置く価値がある。 「何に使うか」を見つけることが次のステップ。
06 | 次にやること
導入はできた。あとは実際に使い倒して「ゲームVFX制作との接点」を探っていく。 次に試してみたいことをリストアップした。
- 試す日本語対応モデル(elyza、Gemmaなど)を導入してみる
- 試すUE5のNiagaraエフェクト設計のアイデア出しに使ってみる
- 試すGUIフロントエンド(Open WebUI)を入れて使いやすくする
- 記事上記の結果をこのブログに書く(うまくいっても失敗しても)
このブログはうまくいったことだけを書く場所じゃない。 試行錯誤の過程そのものを記録していくつもりなので、 続報もちゃんと書く。
Ollamaの動作速度はGPUのVRAM量に大きく左右される。 自分はゲーム用途と兼用しているが、VRAMが多いほどローカルLLMの応答が速くなる。 ゲーミングPC選びの参考に。
→ マウスコンピューター公式サイトを見る
コメントを残す