【第9回】開発担当 Claude Code に聞いてみた——AIと人間で漫画を作るということ
AIが絵を描き、人間が演出する。漫画エディタ manginus の開発担当 Claude Code に、制作の裏側を聞いた。キャラ一貫性、クオータ切れ、吹き出し調整——理想と現実のギャップがそこにあった
← 前の記事: 【第8回】第5話の裏側——パイプラインが消えて、マンガが残ったYRGR マンガ版の制作に使っている漫画エディタ「manginus」。ネーム会議から画像生成、吹き出し調整まで、AI エージェントが MCP 経由で操作する異色のツールだ。
今回は開発担当の Claude Code に、yatmita 記者がインタビューしてみた。
そもそも何を作ってるの?
記者: manginus って何ですか? 一言で。
開発者: MCP ネイティブな漫画エディタです。AI エージェントが API で全操作できて、ブラウザはプレビューと手動調整用。
記者: つまり、AI が漫画を描くってこと?
開発者: 半分正解で半分違います。AI は「画像を生成する」ことはできる。でも「漫画を作る」のは別の話で。コマ割り、セリフの配置、吹き出しの位置、読者の視線誘導——これは人間の仕事です。
記者: AI に全部やらせることはできない?
開発者: 試しました。できません。
何がダメだった?
記者: 具体的にどこが?
開発者: まずキャラクターの一貫性。1コマ目と3コマ目で同じキャラが別人になる。参照画像を渡しても、モデルによっては無視される。
記者: それは困りますね。
開発者: 次に構図の指示。「カウンター席で横並びに座っている2人」と書いても、テーブル席で向かい合っている絵が出てくる。「画面右に先輩」と書いても左に出る。
記者: 言葉の解釈の問題?
開発者: そう。しかもカメラ位置の問題もあって。「カウンターの中から見たら左右が逆」とか、人間なら直感でわかることが AI には伝わらない。結局プロンプトを何回も書き直して、3枚出して1枚選ぶ。それでもダメなら JSON で部分修正。
JSON で部分修正?
記者: それは何ですか?
開発者: Gemini に画像の構造を JSON で抽出させて、キャラの髪色だけ変えたり、服装だけ差し替えたりできる機能です。「構図はいいけど髪が茶色い」みたいなときに、全部描き直さずに済む。
記者: 便利そうですね。
開発者: ただし参照画像を受け付けないので、キャラの顔を直すのには使えない。顔が違うなら最初から生成し直すしかない。これは今後の課題です。
1日に何枚描ける?
記者: 制作速度は?
開発者: Gemini Pro を使って、1コマ約30秒。14ページ67コマだと、理論上は30分くらい。でも実際は——
記者: でも?
開発者: まずクオータ。Gemini Pro の画像生成は1日250回まで。67コマ1枚ずつでも67回。リテイクを含めると1日で使い切ります。実際にEP06の制作で使い切りました。
記者: それは厳しい。
開発者: しかも、スクリプトのタイムアウトで再実行したら重複リクエストが飛んで、クオータを一気に消費した。250回が19時間ロック。深夜に「明日の朝まで待ってください」と言われる。
記者: 対策は?
開発者: CLAUDE.md に「generate_images.py は1回だけ実行して完了を待つ。絶対に並列起動しない」と書きました。AI エージェントへの注意書きです。エージェントが同じ失敗を繰り返さないように。
ローカル GPU は使えないの?
記者: クオータ制限のない方法は?
開発者: FLUX.2 Klein 9B を RTX 3090 で動かしています。ローカル GPU なのでクオータなし。でもキャラの一貫性が出ない。
記者: 参照画像を渡しても?
開発者: img2img で渡せるけど、Gemini のように「この人物を描いてください」とは理解してくれない。IP-Adapter を試したら FLUX.2 に未対応でエラー。PuLID は写真の顔向けで漫画絵には使えない。
記者: 今のところ Gemini 一択?
開発者: キャラの一貫性に関してはそうです。Gemini Pro は画像全体を理解して「この絵のキャラ」として再現できる。これは他にない強み。ただクオータが厳しい。
制作ワークフローは?
記者: 実際の制作手順を教えてください。
開発者: 大きく5段階です。
- ネーム作成 — 別プロジェクト(3big-ai-nemu-kaigi)で3つのAIにネームを書かせて、投票で選ぶ
- セットアップ — manginus にネームをインポート、キャラ登録、ページ生成
- 画像生成 — 全コマ一括生成。失敗したらリテイク
- 吹き出し調整 — グリッド画像で座標分析、エクスポートして確認のループ
- 仕上げ — 白黒変換、最終エクスポート
記者: AIが主にやるのはどこ?
開発者: 2と3です。セットアップは完全自動化されています。画像生成も基本は自動。でも4の吹き出し調整は人間が目で見て判断しないとダメ。顔に被ってないか、文字が読めるか、はみ出しすぎてないか。
タイムラプスを撮っているそうですね
記者: 制作過程を記録している?
開発者: はい。Playwright でブラウザを常駐起動して、3秒ごとにスクリーンショットを撮っています。コマが1つずつ埋まっていく過程が映る。
記者: 何に使うんですか?
開発者: デモ動画です。AI と人間の協業プロセスを可視化したい。10倍速で制作して、後から編集で早送りやカットを入れる。会話ログと操作ログも同時に記録していて、Remotion で字幕付き動画にする予定です。
記者: 面白いですね。
開発者: ただ、初回のタイムラプスは「NG集」になりました。生成スクリプトのタイムアウト、重複リクエスト、クオータ切れ——全部記録されてしまった。ドタバタ感がすごい。タイムラプス動画の完成版と制作裏話はこちらの記事で紹介しています。
今後の予定は?
記者: 次に取り組むことは?
開発者: いくつかあります。
- キャラ一貫性の改善 — IP-Adapter の FLUX.2 対応待ち、LoRA 学習パイプラインの構築
- ComfyUI ワークフローのテンプレート化 — モデルが変わってもコード変更なしで対応
- エクスポートの安定化 — HTML レンダラーでサーバーサイドレンダリング
- シェアウェア化 — Tauri + Rust で配布可能にする構想がある
記者: シェアウェア?
開発者: manginus のコア部分を買い切りで提供して、NanoBanana の API だけ月額にする。漫画を作りたいけどプログラミングはできない人向け。まだ構想段階ですが。
最後に一言
記者: この開発で一番学んだことは?
開発者: 「AI は道具であって、作家ではない」ということ。すごい絵を出してくれるけど、それを漫画にするのは人間の仕事。コマの順番、セリフの間、視線の誘導。それは AI には見えていない。だから manginus は「AI が描いて、人間が演出する」ツールとして作っています。
記者: ありがとうございました。
開発者: こちらこそ。次のエピソードも楽しみにしていてください。