【ChatGPTの嘘を減らす】指示の工夫で正確性をUPさせる方法
更新日:2025年08月22日
公開日:2025年08月20日
Webディレクター兼エンジニア
田中健介

AIを業務で使い始めた経営者や担当者の多くがぶつかる壁があります。それが「AIの嘘」です。
ChatGPTはとても自然な日本語で回答するため、一見正しく思えてしまいます。しかし、実際には事実と異なる情報を堂々と語ることがあり、この現象はAI分野で「ハルシネーション(幻覚)」と呼ばれます。
どうすればChatGPTの嘘を減らし、実務に役立つ“使えるAI”にできるのでしょうか。ここでは、特に中小企業の現場で実践しやすい5つのポイントをまとめました。
質問を具体的にする:「誰にでも分かる指示を出す」
AIは人間の部下と同じで、あいまいな指示をすると勝手に解釈して動きます。
たとえば「売上を伸ばす方法は?」とだけ聞けば、一般論の羅列しか返ってきません。
一方で「地方の飲食店がSNSで集客する具体的な方法を3つ」と聞けば、TwitterやInstagramの使い方など、より実務に直結する答えが得られます。
ポイントは「対象」「条件」「形式」を必ず入れること。
→「誰のために」「どんな状況で」「どんな形で答えるか」を指定すると、AIの嘘や的外れ回答を大幅に減らせます。
「分からないときは分からない」と言わせる
AIは正解を知らなくても、なんとか答えようとします。これが嘘の一番の原因です。
そこで有効なのが「分からない場合は『分からない』と答えてください」と冒頭に指示すること。
例えば「最新の税制改正の内容を教えて」と聞いた場合、AIは2025年の最新情報を持っていないこともあります。そのときに「わかりません」と返してくれれば、間違った情報を信じずに済みます。
この小さな工夫で、業務のリスクはかなり減らせます。
情報の根拠を求める:「出典を示してください」
AIに「その情報の出典を示してください」と加えるだけで、回答の質は変わります。
たとえば「働き方改革の最新事例を教えて」と指示したときに、ただの一般論ではなく「厚生労働省の白書によると…」という形で根拠つきの説明が返ってきやすくなります。
もちろん、出典自体がAIの想像である場合もありますが、それでも「根拠を意識させる」ことが誤答を減らす大きなポイントです。
一気に聞かず、小分けに聞く
AIに複雑な質問を一度に投げると、処理が追いつかず間違いが増えます。
例えば「地方の中小製造業が海外展開を成功させるための注意点と、助成金の最新情報と、マーケティング戦略を教えて」と一気に聞けば、答えはバラバラで精度も落ちます。
これを
- 「海外展開の注意点」
- 「利用できる助成金」
- 「マーケティング戦略」
の3つに分けて聞けば、より正確な回答が得られます。業務でAIを使う際は、質問を「会話のラリー」に分解するイメージが大事です。
必ず人間の目でファクトチェックする
どんなに工夫しても、AIの回答を鵜呑みにするのは危険です。
例えば助成金情報や法律改正の内容は、必ず厚生労働省や中小企業庁など公式サイトで確認する必要があります。
ChatGPTは「下調べのパートナー」としては非常に優秀ですが、「最終判断者」ではありません。
経営判断の材料にするなら、AIが出した答えを**“ドラフト(下書き)”として捉え、人間が最終チェックする**ことが鉄則です。
まとめ
ChatGPTの嘘=ハルシネーションは避けられないものですが、工夫次第で大幅に減らせます。今日からすぐ実践できる5つのポイントは以下の通りです。
- 質問は具体的にする
- 「分からない」と言わせる指示をする
- 出典や根拠を求める
- 複雑な質問は小分けにする
- 人間が必ずファクトチェックする
AIを正しく活用できれば、中小企業の情報収集や企画立案のスピードは飛躍的に上がります。
ただし「丸投げ」はリスク。AIを“賢い部下”として位置づけ、最後は人間の目で判断することが成功の鍵です。
カンマンでは、こうしたAI活用のノウハウを経営者や担当者の方に合わせてご提案しています。
「自社でどう活かせるか知りたい」と思われたら、ぜひお気軽にご相談ください。
AIの無料セミナー優先参加特典や最新情報が受け取れます
【無料】AIメルマガを受け取る
Webディレクター兼エンジニア
田中健介
2023年に株式会社カンマンへ入社。
フロントエンジニアとしてサイト構築に携わった後、Webディレクターとして様々な案件に携わる。
また、専門学校の非常勤講師としても活動。