“同じキャラクターなのに毎回顔が変わる”問題に終止符!Midjourneyの新機能「Omni-Reference」が画像生成の常識を覆す
公開日:2025年05月08日
代表取締役
貝出康

🔍 こんにちは、AIイラスト愛好家のみなさん!
あなたも、こんな経験ありませんか?
- 「せっかく理想的なキャラクターが生成できたのに、別のポーズで作ると顔がまったく別人に…」
- 「商品写真のバリエーションを増やしたいけど、毎回微妙に製品デザインが変わってしまう…」
- 「お気に入りの写真をアニメ風にしたいけど、特徴が失われて別人になってしまう…」
![Before/After例:同じキャラクターが一貫して表現されるようになります]
AIが毎回違う顔を生成する悩みも、製品写真のバリエーション不足も、今日からサヨナラできます。それを可能にするのが、Midjourneyが2025年5月1日に公開テストを開始した新機能「Omni-Reference(オムニリファレンス)」です。
私自身、この機能を使い始めてから、キャラクターデザインのやり直し作業が劇的に減りました。以前は「いい感じの顔ができた!でも構図を変えるとまた一から…」という無限ループに陥っていましたが、今ではキャラクターの特徴を保ったまま、様々なポーズや環境で画像生成できるようになりました。
この記事では、そんな画期的な機能の基本から応用まで、実際の作例と共に徹底解説します。さあ、一緒にMidjourneyの新たな可能性を探検してみましょう!
📚 Omni-Referenceって何?超簡単に言うと…
「これ」を画像に入れる魔法のツール!
Omni-Referenceは、簡単に言えば「THIS(これ)を画像に入れる」ための魔法のようなシステムです。
以前のV6モデルにも「キャラクターリファレンス」機能はありましたが、使えるのは人物キャラクターだけでした。新しいOmni-Referenceは、その名の通り「あらゆるもの(Omni)」をリファレンスにできるようになりました。人物はもちろん、動物、乗り物、建物、小物まで、あらゆるビジュアル要素を参照として取り込めるんです。
これって言わば、AIに「この顔の特徴を覚えておいて、別の状況でも同じ顔を描いてね」と指示できるようなものです。パティシエに「このケーキのデザインで、でもチョコレート味で作って」と注文するような感覚ですね。
主な特徴
- 何でも参照できる: 人だけじゃない!物、乗り物、生き物など何でもOK
- 細かく調整できる: 「どれくらい忠実に再現する?」を0〜1000のスケールで自在に調整
- スタイル変換との併用: 写真をアニメ風にしつつ特徴は保持するなど、自由度が大幅UP
- 他の便利機能と連携: パーソナライゼーション、ムードボードなど他の機能と組み合わせて使える
つまり、「AIに記憶力を持たせる」ような機能と考えるとわかりやすいかもしれません。
💡 従来のキャラクターリファレンスと何が違うの?
「V6のキャラクターリファレンスでも似たようなことできたじゃん…」と思った方、その通りです。でも、Omni-Referenceはその進化版で、できることが格段に増えています。
友人に例えるなら、V6のキャラクターリファレンスは「顔だけ覚えられる友達」、Omni-Referenceは「あらゆるものを細部まで記憶できる友達」というところでしょうか。
特徴 | V6キャラクターリファレンス<br>(古い友達) | V7 Omni-Reference<br>(新しい友達) |
---|---|---|
何を覚えられる? | 主に人物キャラクター | 人物、物体、乗り物、生物など何でも |
記憶力の調整 | あまりできない | 0-1000のスケールで超細かく調整可能 |
他の機能との相性 | イマイチ | パーソナライゼーション、ムードボードなど他機能と仲良し |
複数のものを覚えられる? | 複数画像を使用可能 | 単一画像だが複数要素を別々に扱える |
料金(GPUコスト) | 通常 | 通常の2倍(でも価値はそれ以上!) |
注意点: Omni-Referenceは最新のV7モデルでしか使えません。V6で使っていたキャラクターリファレンス(–cref)はV7では使えなくなったので気をつけてくださいね。
基本的な理解ができたところで、実際の使い方に移りましょう!
🛠️ 使い方ステップバイステップ
Webインターフェースでの使用方法(初心者向け)
Midjourney公式サイトのWebインターフェースを使うなら、こんな感じで使います:
- モデルバージョンの更新:
- まずはMidjourneyの設定メニューから、モデルバージョンをV7に設定しましょう
- V6を使っていた方は必ずこのステップを忘れずに!
- 画像のアップロード:
- プロンプトバーの画像アイコン(📎のようなマーク)をクリックして画像パネルを開く
- 参照として使いたい画像をアップロード(または既にアップロード済みの画像を選択)
- Omni-Referenceへの指定:
- 選択した画像を「Omni-reference」と表示されたエリアにドラッグ&ドロップ
- 便利ワザ:複数プロンプトで同じ画像を使いたい場合は、ロックアイコンをクリックして画像をピン留めしておくと楽ちん!
- 強度の調整:
- スライダーを使って「どれくらい忠実に特徴を反映するか」(omni-weight)を調整
- 初めは100(デフォルト)から始めて、結果を見ながら調整するのがおすすめ
- プロンプトの入力:
- 通常通りプロンプトを入力して生成開始!
- 例:「同じキャラクターで、今度は海辺で日傘を持っている様子を描いて」
Discord上での使用方法(上級者向け)
Discord上でコマンドを直接入力する方が好きな方は、こちらの方法で:
- プロンプトの作成:
- 通常通りプロンプトを作成します。
- 例:
a woman in a red dress on a beach
- Omni-Reference パラメータの追加:
- プロンプトの最後に
--oref URL
パラメータを追加します。 - URLは画像へのリンクです(Discord上で画像を共有してリンクを取得可能)。
- プロンプトの最後に
- Omni-Weight の設定(お好みで):
- 必要に応じて
--ow 値
パラメータで強度を調整します。 - 例:
--ow 200
- 必要に応じて
- 完全なプロンプト例:
a woman in a red dress on a beach --oref https://example.com/image.jpg --ow 200
つまり、通常のプロンプトに --oref
と --ow
を追加するだけでOK。とても簡単ですね!
では、最適な結果を得るためのポイントについて見ていきましょう。
⚙️ 最適な結果を得るためのポイント
Omni-weight(–ow)パラメータの使いこなし
このパラメータは、AIの「記憶力」の強さのようなもの。高い値ほど元画像の特徴を忠実に再現し、低い値だと「雰囲気だけ覚えている」感じになります。
- 値の範囲: 0〜1000(0=完全に無視、1000=ほぼ完全コピー)
- デフォルト値: 100(程よくバランスの取れた値)
私の経験から、こんな感じで使い分けるとうまくいきます:
- スタイル変換したいとき(写真→アニメ風など): 低め(–ow 25〜50)
- 例:自分の写真をアニメキャラクターにしたいけど、あまり似すぎないようにしたい場合
- 顔や服装などの特徴を保持したいとき: 中〜高め(–ow 200〜400)
- 例:オリジナルキャラクターの特徴を忠実に維持したい場合
- 日常使いにおすすめ: 100〜400の範囲内
- まずは100で試して、必要に応じて上げていくのがおすすめです
- 注意!: 400以上の高い値は特別な場合を除き非推奨
- 高すぎると画質が低下したり、不自然な結果になることがあります
- 私も500以上に設定して「なんか変…」となった経験が何度もあります
他パラメータとのバランス調整
--stylize
や--exp
などの他のパラメータは、Omni-Referenceと影響力を競合します。パラメータ同士のバランスを考えると、こんな感じで調整するとよいでしょう:
- 高いstylize値を使用する場合: 対応して高いomni-weight値が必要
- 例:
--stylize 1000
を使うなら--ow 300〜400
くらいに
- 例:
- 高いexp値を使用する場合: 対応して高いomni-weight値が必要
- 例:
--exp 100
を使うなら--ow 200〜300
くらいに
- 例:
- 具体例:
a person --stylize 1000 --ow 400 --exp 100 --oref person.png
これらのパラメータは「主導権争い」をしていると考えると分かりやすいです。どのパラメータを優先したいかで、値のバランスを調整しましょう。
では次に、実際にこの機能をどう活用できるのか、具体例を見ていきましょう!
📊 実践的な活用例とテクニック
キャラクターの一貫性維持(イラストレーター、漫画家におすすめ)
私がこの機能を一番活用しているのは、オリジナルキャラクターを異なるシーンや状況で一貫して表現する時です。
プロンプト例:
a young woman with blonde hair in a futuristic city, detailed digital art --oref character.jpg --ow 300
応用シーン:
- ストーリーボード制作でキャラクターの外見を統一
- コミック/漫画のキャラクターデザインの維持
- ゲームやアニメキャラクターの異なるポーズや環境での表現
私の体験談:先日、5人のキャラクターがいるショートコミックを作成していたのですが、以前なら毎回「この子の特徴はこうで…」と長いプロンプトを書き直す必要がありました。Omni-Referenceのおかげで、一度基本デザインを作れば、それを参照しながら様々なシーンを作れるようになり、制作時間が半分以下になりました!
製品ビジュアライゼーション(ショップオーナー、デザイナーにおすすめ)
ECサイトやカタログ制作者にとって、この機能は宝物です。特定の製品を様々な環境や使用シーンで表示できます。
プロンプト例:
a modern chair in a minimalist living room, sunlight streaming through windows, interior photography --oref chair.jpg --ow 250
応用シーン:
- 製品カタログや広告での使用(同じ製品を様々な環境で撮影したように)
- 季節やトレンドに合わせた製品展示のバリエーション
- 実際には撮影が難しい状況での製品表示(例:海の上のソファとか、宇宙にあるテーブルとか)
友人の家具ショップオーナーは、この機能で1つの製品を12種類の異なるインテリアスタイルと組み合わせた画像を生成し、「この家具はこんな風に使えますよ」というインスピレーション集を作成していました。以前なら高額な撮影費用がかかっていた作業が、AIでわずかな費用で実現できるようになったんです!
スタイル変換(写真家、アーティストにおすすめ)
リアルな写真をアニメ風やイラスト調に変換したいけど、特徴はしっかり残したい…そんな時に大活躍します。
プロンプト例:
anime style portrait, vibrant colors, detailed line art, anime aesthetic --oref photo.jpg --ow 25
応用シーン:
- 写真のアーティスティックな解釈
- 実在の人物や物のスタイル化された表現
- クリエイティブなプロフィール画像の作成
注目ポイント:ここでは非常に低いomni-weight値(–ow 25)を使っていることに注目してください。スタイル変換では、元の特徴を「ヒント程度」に残すのがコツです。高すぎると不気味の谷効果で不自然になりがちです。
複雑なオブジェクト統合(コンセプトアーティスト、広告クリエイターにおすすめ)
乗り物や建築物などの詳細なオブジェクトを架空の環境に自然に組み込みたい場合に便利です。
プロンプト例:
a classic car in a post-apocalyptic wasteland, overgrown with vegetation, cinematic lighting, detailed --oref car.jpg --ow 350
応用シーン:
- コンセプトアートでの未来的または架空の状況表現
- 建築ビジュアライゼーションでの既存建物の再配置
- ファンタジー世界での現実的な要素の統合
このテクニックはゲーム開発やコンセプトアートの世界で特に重宝されています。例えば、現実の建物をファンタジー世界に置いたり、現代の乗り物を未来や過去の風景に統合したりすることが容易になります。
実践的な活用例を見てきましたが、もちろん全ての機能には限界もあります。次に、最適な結果を得るための注意点を見ていきましょう。
⚠️ 知っておくべき制約とコツ
新機能を使いこなすためには、その限界と対処法を知ることも大切です。ここでは、私自身が実際に使ってみて気づいた点をシェアします。
技術的な制約
- バージョン制約:
- V7モデルでしか使えません(V6との互換性なし)
- インペインティング、アウトペインティングなどのV6互換機能と一緒には使えません
- リソース消費:
- 通常のV7画像生成と比べて2倍のGPU時間を消費します
- つまり、クレジット消費も2倍になるので予算管理に注意!
- でも、手作業で何度も生成し直す手間を考えると、十分元が取れます😉
- 機能互換性:
- vary region、pan、zoom outなどの編集機能と一緒には使えません
- Fast Mode、Draft Mode、Conversational Modeとも相性がよくありません
結果の質を高めるコツ
- 画像選びのポイント:
- 明るく、コントラストがはっきりした画像を選ぶ
- 背景がシンプルで、主要オブジェクトがはっきり見える画像が最適
- 顔のアップよりも、全身や環境を含めた画像の方が特徴を捉えやすい
- 結果が思い通りにならない時は:
- omni-weight値を上げてみる(忠実さを高める)
- プロンプトで参照したい特徴を具体的に指定する
- 複数回生成して最適な結果を選ぶ
- 細かい特徴を保持するには:
- そばかすやロゴなどの細かい詳細はプロンプトでも明示的に指定する
- 例:「freckles, same logo on t-shirt」などと追加する
- 特に低いomni-weight値では特徴が失われやすいので注意
経験から言うと、最初は思い通りの結果にならないことも多いですが、数回試しているうちにコツを掴めるようになります。焦らず、試行錯誤を楽しむ気持ちで挑戦してみてください!
🔥 上級者向けテクニック
Omni-Referenceを使いこなせるようになってきたら、さらに一歩進んだテクニックに挑戦してみましょう!
高度なプロンプト設計
- 明確なテキストプロンプトとの組み合わせ:
- リファレンス画像だけに頼らず、テキストでも特徴を指定すると精度アップ
- 例:
a woman with long red hair and green eyes wearing a Victorian dress, same facial features --oref character.jpg
- アクションの明確化:
- ポーズや動きを明確に指示すると、キャラクターの一貫性を保ったまま動きをつけられる
- 例:
a character holding a sword in battle stance, dynamic pose, action scene --oref sword.png
- スタイルの強化:
- リファレンスとは異なるスタイルにしたい場合、プロンプトの最初と最後に希望のスタイルを明記
- 例:
Illustration in anime style of a young woman with short gray hair, detailed line art, anime aesthetic --oref photo.jpg --ow 25
私のお気に入りのテクニックは、プロンプトの最初に希望のスタイルを、最後に「same facial features」などの保持したい特徴を入れることです。AIはプロンプトの前半と後半を特に重視する傾向があるので、この方法で効果的に指示できます。
複数要素の効果的な活用
現在、Omni-Referenceでは単一の画像しか使用できませんが、工夫次第で複数要素を扱うことが可能です:
- 複数要素を含む単一画像の使用:
- 一枚の画像に複数の要素や人物が写っている場合、プロンプトで各要素を明記
- 例:
a man in blue shirt and woman in red dress sitting at cafe table, same couple --oref people.jpg
- フォトモンタージュの活用:
- 事前に複数の画像を合成した画像を参照として使用
- 各要素をプロンプトで明確に指定
私は先日、3人のキャラクターが一緒にいる画像を作りたかったのですが、それぞれのキャラクターデザインは別々に作っていました。そこで3つのキャラクター画像を横に並べて合成し、その画像をOmni-Referenceに使いました。プロンプトで「左から1番目のキャラクター、2番目のキャラクター…」と指定することで、複数キャラクターの特徴を保ったまま新しいシーンを作れました!
実験的アプローチ
- 異なるomni-weight値での実験:
- 同じリファレンスとプロンプトで複数のomni-weight値を試す
- 25, 100, 250, 400などの異なる値で結果を比較
- これをバリエーション集としてまとめておくと、次回からの参考になります
- スタイルリファレンスとの組み合わせ:
- Omni-Referenceとスタイルリファレンス(–sref)の組み合わせは強力
- 例:キャラクターの特徴はOmni-Referenceで、画風はスタイルリファレンスで指定
- パーソナライゼーションとの連携:
- V7のパーソナライゼーション機能と組み合わせれば、ブランドの世界観の中に特定の製品を配置するなど、応用範囲が広がります
実験は楽しく、思わぬ発見があるものです。私の場合、偶然見つけた「omni-weight=27」という特定の値が、写真をジブリ風アニメに変換するのに絶妙だということを発見しました。皆さんも自分だけの「魔法の数値」を見つけてみてください!
📌 まとめと明日からのアクション
Midjourney Omni-Referenceは、AI画像生成の「再現性」という大きな課題に対する革新的な解決策です。この機能を使いこなすことで、あなたのクリエイティブワークフローは劇的に変化するでしょう。
この機能によって得られるメリットをおさらいしましょう:
- 一貫性のある表現: キャラクターや製品を様々な状況で一貫して表現できる
- 時間と労力の節約: 何度も微調整する手間が大幅に削減される
- 創造性の幅が広がる: 以前は難しかった複雑な組み合わせや変換が可能に
Omni-Referenceはまだ公開テスト段階なので、今後のアップデートでさらに便利になるでしょう。複数参照画像のサポート強化や、現在非互換の機能との統合なども期待できます。
明日から試してほしいこと
- まずは自分の顔写真やペットの写真で試してみる
- 低いomni-weight値(25〜50)からスタートして、アニメ風やイラスト風に変換してみましょう
- 徐々に値を上げて、どう変化するか観察してみてください
- オリジナルキャラクターの作成に活用する
- 一度基本デザインを作成したら、それをリファレンスにして様々なポーズや環境での画像を生成
- 同じキャラクターでストーリーボードやコミックを作成してみる
- あなたの作品を共有する
- ハッシュタグ #OmniRefChallenge をつけてSNSで共有すれば、他のクリエイターとアイデアや技を交換できます
- コメント欄でも皆さんの作例や発見をシェアしてください!
Omni-Referenceは単なる新機能ではなく、あなたの創作ワークフローを一変させる可能性を秘めています。今日から始めれば、他のクリエイターに一歩先んじることができるでしょう。
執筆者より この記事はMidjourney V7とOmni-Reference機能のリリース直後(2025年5月)に執筆しています。機能は継続的に更新される可能性があるため、最新情報はMidjourney公式ドキュメントをご確認ください。皆さんの素晴らしい創作を楽しみにしています!何か質問や発見があれば、ぜひコメント欄でシェアしてくださいね。
📖 参考文献
- Midjourney公式アップデート「Omni-Reference –oref」(2025年5月1日)
- Midjourney公式ドキュメント「Omni Reference」
- The Decoder「Midjourney expands image control with Omni-Reference tool」(2025年5月2日)
- Midjourney Sref「Midjourney Omni-Reference Complete Guide」
- Roberto Dias Duarte「Midjourney Updates: Omni-Reference and V7」(2025年5月2日)
- DeepNewz「Midjourney v7 Launches Omni-Reference With –oref and –ow」(2025年5月2日)
当社サイトでは他にもビジネスに役立つ情報を発信しています。ぜひ、他記事もチェックしてくださいね。
無料相談受付中
AI技術の導入や活用方法について相談したい方は、株式会社カンマンにお問い合わせください。
最新のAI技術を活用した経営戦略や業務効率化について、無料でご相談を承っております。
AIの無料セミナー優先参加特典や最新情報が受け取れます
【無料】AIメルマガを受け取る
代表取締役
貝出康
1963年徳島市生まれ。 1999年に楽天の三木谷社長の講演を聴き、イン ターネット時代の到来を悟る。翌年、ホームペ ージ制作会社カンマン設立に参画し、これまで のキャリアで培った営業や人事のスキルを活か しての顧客開拓や社内・労務管理を実践。2019 年〜代表取締役。