生成AI時代に起業家にどんなチャンスがあるのか
AIがインターネットを塗り替えると話題ですが、いちシード起業家目線ではいったいどんなチャンスがあるのだろうー?という話を書いてみたいと思います。
(当方初心者につき、AIツイッタラー界隈の方から見たら、当たり前の話が多いかもしれませんがご容赦ください。)
正直、あんまりチャンスないんじゃないかなぁと思っていました。
独自にAIを活用したアプリを作んなくても、ChatGPTが全部やってくれるんじゃないのぉ?、という誰しもが思いそうなことを、私も漏れなく思いました。
この記事では、それは大きな勘違いだったかも?という話をしたいと思います。
汎用AIか特化型AIか
例えば食べログみたいなアプリにChatGPTも掛け合わせてグルメのレコメンドアプリを作ることを考えると、そんなの無くても、ChatGPTに全部聞いちゃえば済むようになるなら、意味ないのかな?と思っていました。アイアンマンの映画に出てくるジャービスみたいに、なにからなにまでこなしてくれる汎用AIですね。もうChatGPTの1人勝ちの世界です。
ChatGPTのような事前学習済の大規模言語モデル(以下LLM)は汎用型ゆえに、そのままでは、各ユースケースに特化した実用的な体験を提供するには向いておらず、各種調整を施さないといけないと、これまで考えられてきたそうです。
どうゆうことかと言うと、LLM等はインターネット上のあらゆる情報をすべて事前に学習したモデルであるため、良くも悪くもノイズも含めて学習してしまっています。
例えば経済学に関する上級者向けのコアな情報が知りたい時、LLMはどこの馬の骨とも分からない情報(ノイズ)も学習してしまっているので、適切な内容にたどり着けないかもしれません。
なので、より実用的なAIを作るには、ノイズを排除し、経済学の上級レベルの情報だけを持ってきてそれをモデルに追加的に学習させるなどの、カスタマイズ(専門用語的には、「教師アリ学習」「ファイン・チューニング」などと言うっぽいです)が必要であると考えられていて、実際にそのようなモデルが主流だったようです。
ただ、ChatGPTの出現により、これが違ったかもしれない、もしかしたらChatGPTのようなものさえあれば、それで十分だったかもしれない、みたいな話になっているようです。
あらかじめノイズを排除した特化型を作るのではなく、ノイズも含まれているLLMに対して、質問をする側が、ノイズを排除させるような質問の仕方をするのです。
「あなたは経済学者です。xxについて教えてください」という指示を出すことで、ChatGPTは経済学者が書きそうな内容だけに絞って回答をくれるということです。
もっと極端な例をあげると、
「この件について、イーサリアムを作ったVitalikならどう思うかな?」とChatGPTに以前聞いてみました。
ChatGPTからは「私はVitalikの考えを直接代弁することはできないけど、彼の今までのパブリックな投稿から類推することはできます」という前置きとともに、詳細な分析回答が来ました。
VitalikはTwitterから個人Blog、そしてRedditまで、ネット上の様々な場所で意見を投稿しているので、これが可能になります。
「Vitalikの意見」に限定することで、あらゆるノイズを排除できました。
※ChatGPTの出現により、それまでは必要だと思われていた、ユースケースごとのファイン・チューニングが不要になったかも説を書きましたが、厳密にはChatGPTも、GPTをチャット用にファイン・チューニングしたものみたいです。上記ではその先のさらなる分野別のファイン・チューニングの話をしています。
Promptで付加価値をつくる
LLMへのテキストの指示内容のことをPromptといい、ChatGPTを使いこなすにはPromptが大事という話はよく聞きますよね。
一つ分かりやすいチャンスがありそうなのは、このPrompt周りかもしれません。
適切なPromptを考えることが難しいので、サービス側が良いPromptをあらかじめ設定してあげます。Promptで付加価値を出すということです。
例えば経済学をお勉強するAI家庭教師チャットサービスで、上級者向けのコースでは、運営側があらかじめ「あなたは経済学者です」というPromptを設定しておくイメージです。
ただここで思うのが、今後AIが普及したとき、一般人がPromptを使いこなすのは本当にハードルが高いのでしょうか。
考えてみると、Google検索するときの検索内容だって、Promptみたいなものな気がしてきました。
NFT初見の人が「NFTとはなにか」程度の情報を学ぶなら、「NFTとは」と検索するだけでいいと思いますが、もう少しディープな上級者向けの読み応えのありそうな記事にたどりつくことはそう簡単ではないと思います。
それでも現代人はある程度Google検索を使いこなしているような気がします。個人差はありそうなのでリサーチ能力の差は多少生まれるかもしれませんが。
そう考えると、LLMに対するPromptも、意外にみんな慣れてマスターしていってしまうのではないか。もしそうなら、Promptで付加価値を出そうとするスタートアップに、どれほど勝機があるのだろう?とも思いました。(※PromptはGoogle検索以上に個人の能力差が生まれるなどの意見もあるようです。)
いやいや、やろうと思ったらできるけど、面倒だから嫌だ、という話なのかもしれません。
Google検索でのリサーチを例に出しましたが、良いコンテンツにたどりつくために、能動的に検索をしてインターネットの海のノイズをかき分けるコストが高いため、人はソーシャル・メディアで情報収集をするようになったと思います。
業界で信頼されている第一人者であるこの人がシェアしてる記事だから間違いないだろう、といった感じです。人をベースにした情報収集も、TikTokの誕生を契機に、レコメンドエンジン頼りの情報収集に一部移行しました。
そう考えると、Promptを考える力はあるけど、面倒だからやらない、だから代わりにやってくれるサービスがあれば付加価値があるのかもしれません?
「できるけど面倒」以外にも、例えば気分が憂鬱気味になった人が、ChatGPTをメンタルヘルス目的で使おうと思ったとき「あたなはこのようなメンタルカウンセラー。私はいまこうゆう理由で、このように落ち込んでいる。このように励ましてほしい」などと適切なプロンプトを考える余裕などないと思います。
Khan Academyという学習サービスでは、問題の解答を聞くと、すぐには答えが返ってこないようになっています。
Khan Academy announces GPT-4 powered learning guide
これもサービスを提供するKhan Academyが「すぐに解答を教えないように」みたいなPromptを使ってLLMのアウトプットを制御しているものと思われますが、
学生さんがChatGPTに対してそんなPromptを打ち込むのはイメージできないので、これはサービス側が付加価値を出せる良い例のように見えます。
UI/UXで付加価値をつくる
Prompt以外にも、UI/UXで勝負することも考えられそうです。
上のKhan Academyの例もそうですが、必ずしもChatGPTの既存のUI/UXが全てのユースケースに最適であるとは限らなそうですよね。上で紹介した画像では、参考集・問題集みたいな画面の横に、家庭教師みたいなノリでChatGPTを活用したチャットが付き添ってくれるUIになっています。
あるいは、ChatGPT自体が参考書になるようなUIも見られます。
しょせっちとしぶやっちが開発したAIチャットくんみたいに、LINEという誰もが慣れ親しんだインターフェースでChatGPTが使えるようになる、みたいな話もあります。既に80万人ユーザーを突破したと見ました。私もめっっちゃ使ってます。最高です🙏
(AIチャットくんは本日Whisperを実装し音声入力にも対応したようです!!👏)
ChatGPTを使っていて最も衝撃を受けたのは、iPhoneアプリを作るコードを書かせたときですが、もらった回答をコピペしてXCodeに貼り付けてビルドして、修正依頼して、またコピペする、みたいな作業が発生しましたが、XCodeに最初から統合されていたら当然もっと使いやすくなりそうです。
Github Co-pilot Xなんかも話題みたいです。

MicrosoftがChatGPTをOffice製品に組み込むことを発表しました。これもUI/UX面での分かりやすい付加価値だと思います。
The Future of Work With AI - Microsoft March 2023 Event
(厳密には、Microsoft 365 CopilotはLLMにユーザーからのPromptを投げる前に、Microsoft Graphというメールやカレンダー等の個人情報群を使って改良したPromptをLLMに投げるようなので、UI/UXの付加価値のみならず、特化型AIっぽさもあります。
ただしLLMを直接ファイン・チューニング、教師アリ学習して特化型のモデルを作っているのではなく、Promptをカスタマイズしているだけで、LLM自体に変化はありません。ここでも、Promptのハック的凄さが垣間見ることができますね。)
ChatGPTはAWS/Azureのクラウドサービスのように、裏側の黒子的インフラになると言っている人が多いです。Web2の時みたいに、ChatGPTというインフラをベースに、フロント/アプリレイヤーでいろいろと発明が起こるのでしょうか。
(一方で、数日前にChatGPTプラグインが発表され、ChatGPTが全てを飲み込んでしまうみたいな話も見て、どうなるのかもうよく分かりません😇)
特化型AIで付加価値を出す
コロナ禍中に私はAPEXデビューしましたが、前職の先輩につきっきりで1時間指導してもらいました。初心者にとって、分からないことを一つ一つ検索しながら進めるのは学習コストが高すぎますが、先輩が横で私の動きをリアルタイムで見てくれながら、分からないこともリアルタイムで回答してくれて、非常に素晴らしいオンボーディングになりました。そういえば昔、Zepeto WorldやVR Chatデビューした時も、たまたま居合わせた人が「私についてきて」と親切に案内してくれて1から教えてくれました。
そう考えるとゲームのオンボーディングの大部分がAIキャラのNPCになるのでしょうか。
これは「あなたはAPEXのプロプレイヤーです」というPromptをChatGPTに投げるだけでは無理そうなので、各ゲーム会社が個別にデータを用意し、LLMをファイン・チューニングする必要があるのでしょうか。
いや、映画HERのワンシーンのように、汎用AIが各ゲーム内容も詳細に把握していて、カバーできてしまうのでしょうか。
OpenAIがマインクラフトを7万時間遊ばせてマイクラプレイモデルを作ったみたいなニュースもありました。OpenAIがゲームプレイを学習させたモデルも公開したら、どうなるのでしょう。
Learning to play Minecraft with Video PreTraining
おわりに
ChatGPTという汎用AI一人勝ちのシナリオになるとも限らないかも?という話をしてきましたが、とはいえ、GithubやMicrosoftのCo-pilotの例のように、既存の無双しているWeb2プレイヤーがAIを導入してさらに無双するだけかも?とも思ってしまうので、いちシード起業家にどれほどのチャンスがあるのか、まだよく見えていないのが本音です。(たぶん事例を追えてないだけ😇)見えている人はぜひ教えてください。
最後に宣伝です。ツイッターでもAIとLLMの情報をバリバリ発信しています!AI時代に、置いていかれないためのノウハウを無料で公開しています。
嘘です、NFTのことしかつぶやきません。LFG。digi digi。