article-02-local-llm

UE5でVFXを作る私がOllamaを試してみた正直レビュー | Particle & Prompt
生成AI レビュー // 2026

UE5でVFXを作る私が
Ollamaを試してみた
正直レビュー

「ローカルLLMって難しそう」と思っていたVFXデザイナーが、子供が寝てから導入してみた。 結論から言うと、思ったより全然簡単だった。でも「これで何をするか」はまだ模索中。そのへんを正直に書く。

// TABLE OF CONTENTS
  • 01
    そもそもなぜローカルLLMを試したのか
  • 02
    Ollamaとは何か(ざっくり説明)
  • 03
    導入の手順と実際にかかった時間
  • 04
    使ってみてわかったこと・正直な感想
  • 05
    VFXデザイナー的に「使えそうか」の現時点の評価
  • 06
    次にやること

01 | そもそもなぜローカルLLMを試したのか

きっかけは単純で、生成AIへの興味だった。ChatGPTやClaudeは使ったことがあったけど、 「自分のPCの中で動くAI」という響きがなんとなく気になっていた。 ゲームのVFXを作る仕事柄、リアルタイム処理やシェーダーの動作には慣れているつもりだけど、LLMとなると話は別。

子育て中でまとまった時間が取りにくい今、新しいことへのハードルは正直高い。 それでも「子供が寝てからの1〜2時間でできるなら試してみよう」と思い立った。 解説サイトを頼りに、半信半疑でやってみたのがことの始まり。

02 | Ollamaとは何か(ざっくり説明)

Ollamaは、ローカル環境(自分のPC)でLLM(大規模言語モデル)を動かすためのツール。 クラウドのAPIを使わず、インターネット接続なしでAIと会話できるのが特徴。

// OLLAMA の特徴
  • 無料
    完全無料・オープンソース。月額料金なし、API費用なし。
  • オフ
    オフライン動作。一度モデルをダウンロードすれば、以降はネット不要。
  • 安全
    データが外部に送られない。仕事のアイデアや社内情報も安心して使える(将来的に)。
  • CLI
    コマンドラインで操作する。GUIは別途ツールが必要だが、基本はターミナルから。

03 | 導入の手順と実際にかかった時間

結論から言うと、導入そのものは30分かからなかった。 モデルのダウンロードを除けば、セットアップは本当に数分で終わった。 「もっと詰まると思ってた」というのが正直な感想。

実際にやったこと(Mac / Windows 共通)
# STEP 1: 公式サイト(ollama.com)からインストーラーをDL → 実行
# → 所要時間: 約3分

$ ollama pull llama3
pulling manifest…
pulling model (4.7 GB) ████████████ 100%
# → モデルDLが一番時間かかった(回線次第で10〜30分)

$ ollama run llama3
>> こんにちは!何か手伝えることはありますか?
# → これだけで動く。拍子抜けするほど簡単だった。

つまずいたポイント

セットアップ自体は問題なかったけど、最初は日本語の精度がやや低いと感じた。 英語で質問すると返答が明らかに自然になる。モデルの選択で変わるらしいので、 次は日本語対応モデルを試してみるつもり。

04 | 使ってみてわかったこと・正直な感想

// GOOD
  • 導入が驚くほど簡単
  • 無料でずっと使える
  • レスポンスは思ったより速い
  • ネット不要で動く安心感
  • 複数モデルを気軽に試せる
// NOT SO GOOD
  • 日本語精度はモデルによる
  • GUIがなくCLI操作が必要
  • 「何に使うか」は自分で考える必要がある
  • 高性能モデルはPCスペックを要求する

正直、今の段階では「動いた!すごい!」以上の使いこなしができていない。 ChatGPTと比べると賢さは一段落ちる印象もある。 でもそれは当然で、無料でオフラインで動いていることを考えれば十分すぎるくらい。

問題は「で、これで何をするか」が自分の中でまだ固まっていないこと。 VFX制作のアイデア出しに使えるかもしれないし、Unreal Engineのブループリントの 書き方を質問するのにも使えそう。ここはこれから試していく。

05 | VFXデザイナー的に「使えそうか」の現時点の評価

// 導入のしやすさ
9 / 10
// 日本語対応
5.5 / 10
// 回答の精度
6.5 / 10
// VFX制作への応用可能性
7 / 10(予感)
B+
// CURRENT VERDICT

「使いこなせている」とは言えないが、導入コストに対するポテンシャルは高い。 無料・オフライン・プライベートという3点だけで、長期的に手元に置く価値がある。 「何に使うか」を見つけることが次のステップ。

06 | 次にやること

導入はできた。あとは実際に使い倒して「ゲームVFX制作との接点」を探っていく。 次に試してみたいことをリストアップした。

// NEXT ACTIONS
  • 試す
    日本語対応モデル(elyza、Gemmaなど)を導入してみる
  • 試す
    UE5のNiagaraエフェクト設計のアイデア出しに使ってみる
  • 試す
    GUIフロントエンド(Open WebUI)を入れて使いやすくする
  • 記事
    上記の結果をこのブログに書く(うまくいっても失敗しても)

このブログはうまくいったことだけを書く場所じゃない。 試行錯誤の過程そのものを記録していくつもりなので、 続報もちゃんと書く。

次回は 「ComfyUIでゲームのテクスチャ素材を生成してUnityに取り込む」 を試す予定。 生成AI × 実際のゲーム制作パイプラインに踏み込んでいく。

この記事に関連するもの
ローカルLLMを快適に動かすならGPU搭載PCが重要

Ollamaの動作速度はGPUのVRAM量に大きく左右される。 自分はゲーム用途と兼用しているが、VRAMが多いほどローカルLLMの応答が速くなる。 ゲーミングPC選びの参考に。

→ マウスコンピューター公式サイトを見る
🎮
あさゐ削
VFXデザイナー。Unreal Engine / Unity でエフェクトを作りながら、AIの活用を模索中。子育て中につき活動時間は子供が寝てから。

コメントを残す

Particle & Promptをもっと見る

今すぐ購読し、続きを読んで、すべてのアーカイブにアクセスしましょう。

続きを読む