生成AI時代に問われる「指示力」とは。プロンプト・エンジニアリングの極意を専門家に学ぶ
突如として、私たちの働き方を大きく変えようとしている生成AI。
上司から「これからは生成AIの業務活用が必須!」と発破をかけられ、対応に追われている人も多いのではないでしょうか。
今回はそんな生成AIに与える指示「プロンプト」にフォーカスし、その作り方のコツやノウハウをご紹介します。
ご登場いただくのは、ベストセラー『頭がいい人のChatGPT&Copilotの使い方』の著者で、デジタルハリウッド大学の教授・橋本大也さん。
「ビジネスパーソンにとってAIを使わないという選択肢はない」と語る橋本さんに、プロンプトのバリエーションやプロンプト設計の考え方、そして生成AIとうまく付き合っていくためのコツを学びます。
橋本大也(はしもと・だいや)さん。デジタルハリウッド大学教授兼メディアライブラリー館長。多摩大学大学院客員教授。早稲田情報技術研究所取締役。ブンシン合同会社CEO。翻訳者。IT戦略コンサルタント。2024年1月、デジタルハリウッド大学で生成AIにまつわる教育プログラムを開発、生成AIの活用を教える「プロンプト・エンジニアリング・マスターコース」を創設し、自ら主任講師として教鞭をとっている。著書に『頭がいい人のChatGPT&Copilotの使い方』(かんき出版)、『データサイエンティスト データ分析で会社を動かす知的仕事人』(SBクリエイティブ)など。
プロンプトで大事なのは、言い回しではなく「要素」
──まずはじめに、生成AIを使い始めたばかりの人に向けて “プロンプト” の大切さを教えていただけますか?
橋本大也さん(以下、橋本):生成AIを使うなら「プロンプトがすべて」だと言っても過言ではありません。
生成AIを「計算機」と捉えると、その理由が分かります。生成AIが計算機なら、プロンプトは「計算式」。つまり、プロンプトが間違っていると計算結果も間違ってしまうということなんです。
──とても重要な示唆ですね。では、その“計算式”の基本的な考え方とは何でしょうか?
橋本:大前提として、私たちが使う機会の多いテキスト生成型のAI「LLM(大規模言語モデル)」が情報をどのように調べているのか、その仕組みを理解すべきでしょう。
LLMはWeb上のあらゆるコンテンツを学習し、そこから得られた情報を空間上に埋め込みます(下図)。
《画像:空間に情報がマッピングされている様子を分かりやすく表現した図。埋め込まれた作図の便宜上、2次元で表現しているが、実際に「何万次元」もの空間が存在している》
何かを回答するうえでは、打ち込まれたプロンプトをベクトル(座標、数値行列)に変換して相互の位置関係を特定し、ベクトルの近い情報同士を文章として構成します。例えば「日本の首都は?」と打ち込めば、「日本の首都は東京」という文章をたくさん学習しているから、「日本」や「首都」と位置の近い「東京」が答えとして返ってくる。
《画像:LLMは文章をベクトルに、ベクトルを文章に「変換」することで回答を導き出し、答える》
つまり、回答の精度を上げるには、プロンプトに要素(例では「日本」「首都」)をきちんと含めることが重要なんです。逆に細かな言い回しや文体を変えても回答の内容に大きな差は生まれません。「日本の首都は?」と聞いても、「首都について、日本ではどこですか?」と聞いても、答えはほとんど同じでしょう。
──なるほど、その仕組みが理解できていると、プロンプトに入れるべき要素≒何が聞きたいかも自ずと分かりますね。
プロンプト作りの基本的な考え方は、「まず大きな方向性を示し、それから微調整する」
──では、実際にプロンプトをどのように作っていけばいいのか、具体的なプロセスを説明していただけますか?
橋本:方針として、“まず大きな方向性を指し示して微調整していく” ことを意識するといいでしょう。最初から完璧なプロンプトを作ろうと思わず、聞きたいことに合わせて少しずつ掘り下げていくイメージです。
──なるほど。最初に聞くことは最低限に留めておくほうがいいのでしょうか?
橋本:そうですね。本来、LLMはシンプルなプロンプトに最適化しているので、まずは「日本の首都は?」のように必要最低限の要素だけを聞くことが大切。このように最初に投げかけるシンプルなプロンプトを「ゼロショット(zero shot)」と呼びます。
《画像:「まず大きな方向性を指し示し、それから微調整する」という方針を示した数式。「y=ax」は方向性を示すこと、「b」は条件を追加して深掘りすること》
とはいえ、一発で望む答えが出力されるとは限らないので、条件を追加しながら修正していくことが現実的には必要でしょう。
こうして条件を付け足していくプロンプトを「フューショット(few shot)」と呼びます。
──最近だと、プロンプトに活用できる文章のフォーマットや文体が紹介される機会も増えている印象ですが、細かな言い回しよりも「大きな方向性を示せているか」が大切なんですね。でも、調整を加えつづけても、欲しい答えにたどり着けない場合はどうすればいいんでしょう?
橋本:その場合は、芋づる式に知識を引き出す「Chain of thought」というプロンプトが有効です。
すでにお話したように、LLMは情報を空間上にマッピングするので、ある情報の周辺には関連する情報がマッピングされています。「日本の首都は東京」という情報の周辺には「日本の首都とされている場所はかつて京都だった」「鎌倉だった」「奈良だった」という情報があるはず。なので、「歴史」の要素を加えて「日本の首都の歴史を教えて」と聞くと、芋づる式に回答を得られます。
《画像:Chain of thoughtの実践。ChatGPTで、あるソファの強みとターゲット、値付けと販売戦略を掘り下げてみた》
──なるほど。Chain of thoughtを使えば、一つの情報を深掘りできて便利ですね。生成AIに指示するコツが分かってきた気がします。その他、橋本さんが便利だと思うプロンプトはありますか?
橋本:望む答えを引き出したい場合は「穴埋め問題」を解かせるのも有効です。例えば「日本の首都は◯◯だ。◯◯に当てはまるものは?」など。LLMは学習過程で、穴埋め問題に近いことをさせられているので、そのタイプの質問と相性がいいんです。
その他、自分は「(ある対象について)圧倒的な魅力と致命的な欠点を教えて」と聞いたりしていますね。あとは「◯◯のランキングを作って解説して」など。次の会議で話すテーマについて、事前にそういう質問をしておくと、詳しい知識を押さえたうえでより建設的な議論ができるかもしれません。
部下ではなく、生成AIに頼むべき仕事はこれだ
──業務への活用例にも言及いただきましたが、プロンプトをうまく作れるようになると、日々の仕事で何ができるようになるのでしょうか?
橋本:何ができるか、とは「LLMはどんな情報を持っているか」ということとニアリーイコールであるように思います。
──たしかに。「どんな情報を持っているか」を知れば「どんな仕事を任せられるか」も分かるということですね。
橋本:そうですね。LLMが持つ知識のバリエーションは、大きく分けて「宣言型知識」と「手続き型知識」の2つです。
「宣言型知識」とは辞書に載っているような、あらかじめ答えが決まっている知識のことで、「日本の首都は?」などのプロンプトで引き出せます。
もう一つの「手続き型知識」とは何かのやり方や手順に関する知識で、こちらを自由自在に引き出せるようになると、ホワイトワーカーがパソコンを使ってやるような知的な作業の大部分をAIに任せられるはずです。
《画像:さまざまな領域の「手続き型知識」》
例えば、「買うべきカメラを見つけて」という指示で、手順から考えて実行する。主要なメーカーのサイトを検索し、各メーカーの最新機種を3機種ずつリストアップ、複数の視点で比較しながら「買うべきカメラ」を見つけてくれる。
「◯◯を調べて、その内容を説明するプレゼンを作って」と依頼すれば、手順をブレイクダウンして、◯◯を検索して、目次を作って…というふうに、作業を進めてくれます。Pythonや外部ツールを使えば、より精緻なアウトプットを引き出すことも可能です。
あとは共創、「一緒に考える」ことにも使えますね。「壁打ち」と言い換えてもいいかもしれません。ユーザーの知識と、AIの知識を組み合わせて対話しながら、新しいもの、より良いアイデアを考えられます。
──日々の仕事が捗りそうなイメージが湧いてきました! 先ほど、会議の前に生成AIでインプットをしておくとおっしゃっていましたが、実際に橋本さんはどのようなシーンで生成AIを活用されていますか?
橋本:講義の後など、学生から何十個も質問をもらうような時には、質問リストを生成AIにインプットさせ、一次回答を作らせることもあります。もちろんその後、自分が確認して修正するのですが、質問の中には当たり前のことに答えるだけのものもあるので、生成AIの力を借りると作業効率化につながりますし、より多くの質問に答えることができます。
それから、自分が書いた文章のトーンを読者や媒体によって変えたりもします。例えば、学会用に作ったレポートを、学生が読みやすいトーンの資料に作り替えるなど。「若者向けの資料にして」「動画で説明して」などと指示するだけで、読者に合わせた表現やデザインに調整してくれますよ。
こうして指示の仕方を工夫しながら回答のバリエーションを広げると、やることの幅も広がり、結果として仕事に向き合うスタンスも変わってくるはずです。
「自分ができないこと」はAIにやらせてはいけない
──回答の内容が複雑になればなるほど、不正確な情報を返してくる(ハルシネーション)リスクも高まりますよね。生成AIを使用するにあたり避けられない問題だと思いますが、そのリスクとどう向き合うべきでしょう?
橋本:そもそも私は「生成AIには自分ができること以上のことをさせてはいけない(概要を理解している領域のことしか聞いてはいけない)」と考えているんです。
──なぜでしょう? スキルや経験が足りなくてできないことを、生成AIに代行させている人も多い印象なのですが……。
橋本:生成AIの回答が正確かどうかをチェックできないからです。AIは思い込みを正してくれません。意味の近い情報や関連性の高い情報を組み合わせて文章を作ることはできるのですが、その情報や文章の正確性までは担保できないんです。
だから、自分が詳しくない領域で使うと、思い込みに基づいて誘導尋問をしてしまいかねません。以前、全く門外漢の3D映像制作のプロセスについて「最初にどんな3Dモデルをつくって、それをどう物理的にシミュレーションさせているか?」と聞いたことがあります。実は3D映像をつくるにあたってモデルはあまり必要ではないのですが、「3Dモデルを活用した映像制作フロー」のような、それらしい答えが返ってきました。幸い私は誤りに気付けたのですが、それらしい答えで満足して、誤った認識を強化してしまう場合もあるでしょうね。
その意味では、現状多くの人が生成AIを「使い過ぎている」と言えるのかもしれません。
──なるほど……。でも、自分もちょうど生成AIのハルシネーションに悩まされていたので、納得感があります。
橋本:教育心理学者のヴィゴツキーが提唱した「発達の最近接領域」という概念があります。子どもの発達を「自力でできること」「支援があればできること」「できないこと」の三領域に分けて、そのうち「支援があればできること」を重視し、着実に成功体験を積ませていこうという考え方です。
生成AIが担えるのも、この領域(発達の最近接領域)だと思います。大人に置き換えるなら「自力で何とかできるけれど、面倒だったり時間がなかったりしてやらないこと」でしょうか。ここをAIに任せることで、効果的に業務改善やスキルアップにつなげられます。その意味では、プロンプトと並んで「何を生成AIに任せるか」も大事なのかもしれませんね。
プロンプトさえ要らなくなっても「人間の仕事」はなくならない
──「何を任せるか」を決めることはプロンプトを書くうえでも必要不可欠でしょうし、両者は相互に深く関わりあっていそうですね。
橋本:そうですね。ただ、ちゃぶ台を返すようですが、プロンプトを書くこと自体が今後必要ではなくなる可能性もあるんです。
──えっ、どういうことですか?
橋本:人間が指示しなくても、自動で作業をこなすようになるということです。
例えば、スマートフォンや各種ビジネスアカウントが持つ位置情報やメールの内容、スケジュールなどの内容を統合し生成AIと共有すれば、「今日は、このメディアの編集部から、◯◯のテーマについての取材を受ける」ということを生成AIが理解するようになる。すると、私のパソコンに保存されている書類からインタビューの内容に沿ったものを調べて「こういうことを喋ったらどうですか?」と提案してくれるかもしれない。
そうやって、環境やコンテクストの情報を生成AIに自動で渡せるようになると、必然的にプロンプトを書く機会は減っていくわけです。データの相互連携が進めば、こうした状況もより現実味を帯びてくるでしょう。
実際、OpenAIの代表、サム・アルトマンはスマートフォンに代わる生成AIの専用端末を開発すると表明しています。
数年後には、朝パソコンを開くだけで「あなたがこれからやるべきことはこれです」と生成AIが教えてくれるようになるかもしれませんね。
──そうなってしまったらもはや、人間の仕事がなくなるんじゃないでしょうか。
橋本:安心してください。なくなることはないと思いますし、むしろ増える可能性すらあります(笑)。例えば、特定の企業のドキュメントを学習させて、一般的なAIをその企業のニーズにカスタマイズさせる仕事。あとは、生成AIのアウトプットを「最終確認」する仕事。これらは今まで存在しなかった仕事です。ビジネスシーンにおいて「確認」と「責任」の概念がなくならない以上、監督や確認の仕事に対するニーズは今後より強まるでしょうね。
いずれにせよ、生成AIはパソコンやインターネットと同じような位置付けになりつつあり、もはや使うべきかどうかを考えるフェーズではありません。
生成AIは、自分ができることを「拡張」してくれる存在です。だからこそ、使う人と使わない人で、今後大きな差が生まれてくるんじゃないかなと思います。
生成AIをフル活用できれば、仕事の質も飛躍的に上がり、キャリアアップも見えてきます。マイナビ転職には「給与アップ」を実現する求人が数多く掲載されています。ぜひチェックしてみてください。
( https://tenshoku.mynavi.jp/content/declaration/?src=mtc )
《画像:橋本さんの著書『頭がいい人のChatGPT&Copilotの使い方( https://amzn.asia/d/a1Nmvec )』(かんき出版)》
取材・文:りょかち
編集:はてな編集部
制作:マイナビ転職