くらし取説
ai-gazou📖 約9分で読めます

AIキャラクターの一貫性を保つ工夫【リファレンス・固定句・ツール使い分け】

AI画像で同じキャラを何枚も描こうとすると、毎回違う顔になりがちです。リファレンス画像・プロンプトの固定句・ツールの使い分けで一貫性を出すコツを解説します。

AI画像生成で「同じキャラクターを何枚も出す」のは、思っているより難しい作業です。プロンプトを完全に同じにしても、シード値を変えると別人のような顔になることはよくあります。

スタンプ・絵本・SNSキャラ・グッズ展開など、複数枚で同じキャラを使うコンテンツでは、この一貫性が成果物のクオリティを左右します。コツは「ツールの仕組みに合わせた手段」を選ぶことです。

⏩ 急いでいる方はこちら

  • リファレンス画像(image-to-image / IP-Adapter / Cref)が最強の安定化手段
  • プロンプトには「固定句」と「可変句」を分けて書く
  • 画風固定はLoRAやMidjourneyのStyle Reference機能を活用
  • なぜキャラがブレるのか

    AI画像生成モデルは「言葉から絵を作る」だけで、特定のキャラクターを記憶しているわけではありません。「青いリボンの女の子」というプロンプトでも、シードや内部のランダム性で顔・髪型・体型・服装の細部がばらつきます。

    特に変わりやすいのは、目の形・鼻のアタリ・耳の位置・髪の流れの4箇所。この4つが少し変わるだけで「別人」に見えてしまいます。逆にいうと、ここを固定する仕組みを入れれば、一貫性はかなり保てます。

    絵本制作で「同じ主人公が10シーン登場する」案件を受けた人が、毎回プロンプトだけで描こうとしてキャラが別人になり、納品直前に全部描き直しになった、というのは典型的な失敗例。これを避けるための仕組みがリファレンス画像です。

    主軸はリファレンス画像、補助で固定句とLoRA

    代表的な手法は次のとおりですが、重要度は同じではありません。リファレンス画像が主軸、プロンプトの固定句とLoRAは補助、という位置づけで考えるのが現実的です。

    手法仕組み役割
    リファレンス画像1枚の絵を参照させて同じ特徴を引き継がせる主軸
    プロンプトの固定句詳細な特徴を文章で固定補助・低コスト
    LoRA・モデル学習数十枚の画像で専用モデルを作る大規模運用専用

    このどれか1つではなく、組み合わせて使うのが現実的。趣味用途ならリファレンス+固定句で十分、本格的な商用展開ならLoRAまで踏み込む、というのが無理のない順番です。

    リファレンス画像の使い方(最強の手段)

    1枚の参考画像を渡して「この子の別ポーズを描いて」と指示できる機能が、ここ1〜2年で大きく進化しました。

    Midjourney の Character Reference(--cref)

    参考画像のURLを --cref [画像URL] の形でプロンプトに付けます。--cw 100 で「キャラ特徴を最大限引き継ぐ」、--cw 0 で「服装などは無視して顔だけ」など強度を調整できます。Midjourney v6以降で利用可能です。最新の仕様は公式ドキュメントを参照してください(Midjourney Documentation、2024-2025年、https://docs.midjourney.com/)。

    Stable Diffusion の IP-Adapter / ControlNet Reference

    A1111やComfyUIの拡張機能として導入できます。IP-Adapter Face Plusなら「顔の特徴だけを抽出して別の絵に流す」ことができ、表情変化・ポーズ変化に強い(IP-Adapter 公式リポジトリ、2024年、https://github.com/tencent-ailab/IP-Adapter)。

    DALL·E 3 の参照機能

    ChatGPT経由で画像をアップロードして「この子のスタイルで〇〇している絵を描いて」と指示できます。MidjourneyやSDほど精度は高くありませんが、手軽さは群を抜きます。

    リファレンス画像を使うときのコツは、参照元として「正面に近い顔がはっきり写った1枚」を用意すること。横顔や暗い絵を参照元にすると、特徴を読み取れずブレやすくなります。子ども向けキャラの絵本制作では、最初に「立ち絵・正面・標準衣装・無背景」の決定版1枚を作ってから、それを全シーンの参照元に固定するのが定石です。

    プロンプトを固定句と可変句に分ける

    リファレンス機能を使わない場合、プロンプトの書き方で精度を上げます。コツは「キャラ定義部分」と「シーン部分」を分けて書くことです。

    固定句の例(このセットを毎回コピペで先頭に貼る):

    a young girl, age 8, short bob hair with light brown color,
    big round eyes with hazel iris, small nose, slightly pointed chin,
    wearing a yellow raincoat with red buttons, white sneakers

    可変句の例(毎回ここだけ書き換える):

    sitting on a park bench, autumn leaves around, soft afternoon light

    固定句が長くなりすぎると逆に効かなくなる(モデルが指示を全部消化できない)ので、最重要の特徴3〜5個に絞るのがコツです。「色は3色まで」「服のディテールは1点だけ」のように制約を決めておくと、毎回同じテイストの絵が出やすくなります。

    LoRA・モデル学習で本格運用する

    商用展開・複数アーティストでの共同作業など、本格的な一貫性が必要なら専用モデルを作るのが確実です。

    Stable Diffusionなら「LoRA(Low-Rank Adaptation)」という技術で、20〜50枚の参考画像から数時間で専用モデルが作れます。Kohya_ssやCivitai上の学習ツールが代表的。1度作っておけば、以後はそのLoRAを呼び出すだけで安定して同じキャラが出せます。

    弱点は学習画像を揃える手間と、出来上がったモデルの再現性が学習画像のクオリティに依存すること。バラバラの画風で集めた画像で学習させると、出力もバラバラになります。

    LoRAを作る前に、自分の用途で本当に必要かを一度立ち止まるのが大事。月に数枚しか使わないキャラに数時間かけて学習させるのは、明らかに過剰投資です。

    画風(タッチ)を揃える方法

    キャラクターの形だけでなく、画風(線の太さ・色のトーン・シェーディング)も揃えたいときは、画風専用のリファレンスがあります。

    Midjourneyなら --sref [画像URL] でスタイル参照ができます。Stable DiffusionならStyle LoRAやIP-Adapter Plusの「style only」モードが使えます。

    スタンプセット40枚を作るときは、最初に画風サンプル3枚を決めて、毎回それを参照させながら描くと、最後まで画風が崩れにくくなります。1日で全部描く時間が取れない人ほど、この画風固定が効きます。「2週間に分けて描いたら絵柄が変わった」を防げます。

    つまずきやすいポイント

    リファレンス画像が強すぎて、「どのポーズを指示しても同じ姿勢になる」ことがあります。--cw を下げる、もしくはリファレンス画像をより中性的なものに差し替えます。

    LoRAを使うと「LoRA特有の癖(顔がアップになりがち)」が出ることがあります。複数のLoRAを弱めに混ぜる(<lora:A:0.5> <lora:B:0.3>)ことで癖を中和できます。

    画風参照と顔参照を同時に使うと干渉することがあります。画風参照は弱め(--sw 50)、顔参照は強め(--cw 100)と強度を調整するか、まず顔だけ生成してから画風変換を別工程で行うと安定します。

    ここで挙げた数値はあくまで初期値。自分のキャラ・自分の画風で最適値は変わるため、3パターンほど試して比較するのが最短ルートです。

    商用利用時の注意

    リファレンス画像に他人の作品・実在人物の写真を使うと、肖像権・著作権の問題が発生します。商用展開する場合は、自分で描いた・自分で撮影した・自分で生成したものを参照元にしてください。

    Adobe Fireflyのように「学習データの透明性」を売りにしているツールでも、参照元として持ち込む素材の権利はユーザーが管理する責任があります(文化庁 AIと著作権に関する考え方について、2024年、https://www.bunka.go.jp/seisaku/chosakuken/aiandcopyright.html)。

    LoRAの学習データに他人のイラストを混ぜると、生成物がそのイラストに似てしまうリスクがあります。趣味用途で個人利用に留めるならグレーですが、商用利用ならNG。「自分で生成した絵だけで再学習する」のが安全です。

    ✅ 今すぐできること(1分)

    今描いているキャラのベスト1枚を選んで、それをリファレンス画像として登録してください。Midjourneyなら画像URLをコピー、Stable Diffusionなら所定のフォルダに保存。次の生成からそれを参照させるだけで、見違える安定感が出ます。

    「ベスト1枚」が決まらない、というときは、正面に近い顔・明るい光・大きな目が写っている1枚を選ぶ、と覚えておけば失敗しません。


    キャラクター素材のリファレンス管理ツール、LoRA学習データの整理、複数案件のキャラ運用フローなどのご相談もお気軽に。お問い合わせは /contact から。

    執筆:S

    よくある質問

    Q. AIで同じキャラクターを繰り返し生成するとき、毎回プロンプトを書き直す必要がありますか?

    A. リファレンス画像とキャラクター設定(髪色・服装・表情の特徴など)をまとめた「キャラクターシート」を用意しておくと、コピペするだけで一貫性が保てます。

    Q. Midjourneyとの間で同じキャラクターを使い回すことはできますか?

    A. ツールをまたいだ完全な一致は難しいです。LoRAやキャラクターIPアダプターなど、同一ツール内での一貫性を高める機能を活用するほうが現実的です。

    Q. キャラクターの一貫性を保ちながら、表情や服装だけ変えることはできますか?

    A. Stable DiffusionのControlNetやMidjourneyの--srefオプションを使うと、ポーズや表情を変えながら顔の特徴を保ちやすくなります。

    【免責事項・情報確認日について】

    本記事の情報は2026年5月12日時点のものです。転職・副業・投資(NISA等)に関する制度・サービス内容は変更される場合があります。掲載情報の正確性には努めていますが、最終的なご判断はご自身でご確認のうえ行ってください。本記事は特定のサービスへの加入や投資行動を推奨するものではありません。

    #AI画像#キャラクター#リファレンス#LoRA#Midjourney

    この記事をシェアする

    関連記事