ハウテレビジョンブログ

『外資就活ドットコム』『Liiga』『Mond』を開発している株式会社ハウテレビジョンのブログです。

習うより慣れろ、ChatGPT の Slack への導入

こんにちは、id:hc0001 です。今日は ChatGPT を全社に導入した話をします。

ハウテレビジョンにおけるこれまでの LLM 活用

これまでは GPT-4 を mond の投稿監視に活用していたり、ChatGPT を個人の範囲内で活用している人がいたり、GitHub Copilot でソフトウェア開発時にヒントを得るなどの形で利用してきました。それぞれブログでまとまっていますので、興味のある方はご覧ください。

blog.howtelevision.co.jp

blog.howtelevision.co.jp

このように部分的に活用しつつも、全社としてあらゆる業務に活用しきれているとは言い難い状況です。

そんな中、とある場面で冗談交じりに 「ChatGPT に課金していない人は◯◯の始まり」 という煽り合いが始まり、我に返って改めて 「LLM を活用できていないのはまずいのでは」 という会話に発展し、全社的に ChatGPT を導入することを急遽決議しました。

生成 AI/LLM の理解について、全社で足並みを揃える

ChatGPT を導入するにあたり、予備知識として LLM がどういった技術であるかを、全社向けに簡単に説明しました。

生成 AI は我々の手元にある破壊的なテクノロジーの1つ

  • マーケットフィットをしている最中なのがブロックチェーン
  • 少し前だと、3/4/5G 回線によるモバイル通信や音声・動画配信
  • 更に前だと、インターネット、PC、デジカメ、自動車、etc…

破壊的技術がもたらす不可逆な変化

  • イノベーションにより代替されたマーケットは、縮小して戻らない
  • 生成 AI による市場転換は、既に始まりつつある

生成 AI とは何か

  • コンピュータの学習データを使って新しいデータを出力する技術
  • 大規模言語モデル (LLM) を用いて実現しているのが ChatGPTGemini など

では大規模言語モデル (LLM) とは何か

  • 大量のテキストデータを使ってトレーニングされた自然言語処理モデル
  • GPT-3.5 や GPT-4 はモデルの1つ、学習に使ったデータ量や処理できるトークン数が異なる

GPT-4 の解説の通り、GPT はインターネット上に存在する超大量のテキストデータを使ってトレーニングされており、人類の集合知そのものです。GPT-4 は、以前のモデルに比べて複雑な要求に対する応答の正確性が増し、画像や音声データを扱えるようになるなど、その応用範囲も拡大し続けています。

Like previous GPT models, the GPT-4 base model was trained to predict the next word in a document, and was trained using publicly available data (such as internet data) as well as data we’ve licensed. The data is a web-scale corpus of data including correct and incorrect solutions to math problems, weak and strong reasoning, self-contradictory and consistent statements, and representing a great variety of ideologies and ideas.

LLM に関するもう少し詳しいインプットには、Preferred Networks 共同創業者の岡野原さんが書かれた大規模言語モデルは新たな知能かという書籍がコンパクトで読みやすく、おすすめです。

そしてつい先日、OpenAI から新たに Sora というモデルが発表されました。Sora はテキストから動画を生成するモデルで、その精巧さは実世界を切り取ったと言われても信じてしまうほどで、その衝撃が世界を包んでいます。

www.youtube.com

こうした破壊的技術が今後の産業の前提になっていく中で、我々には技術的革新に順応することが求められます。これから誕生していく世代は、これらの技術が当たり前の世界観の中で育ち、生活していきます。インターネットやスマートフォンが誕生したときのように、その革新性をいち早く察知できたプロダクトは現代社会に溶け込む存在になっていることは、改めて言うまでもありません。

習うより、まずは ChatGPT に慣れる

社内のあらゆる業務に適用し最適化を図っていくことを目指すにも、まずは LLM という存在に慣れて扱えるようになることが先決です。導入にはいくつか方法が考えられましたが、社員の人数分の予算を確保して各自の Subscription をサポートするのではなく、Slack に ChatGPT API を呼び出す bot を用意して、部門ごとの予算と専用チャネルを用意しました1。これにはいくつか狙いがあります。

ひとつは、既に個人で ChatGPT の有料プランを契約している人もいる中で、個人アカウントと会社でサポートするアカウントを区別していくことが現実的ではないと予想したためです。会社のアカウントを別途用意し、その有償契約を補助するとなると、業務と個人のコンテキストを区別するために都度ログインし直すことになり、かなり煩雑です。利用実態を把握することも困難であり、ChatGPT に限らない話として情報統制を行うにしても、人間はミスをするので、意図せず機微情報を学習データに使ってしまうリスクが残ります。

これに対し、ChatGPT の API を呼び出す Slack bot を、部門毎に用意した Slack のオープンチャネルに導入することで、部門毎に予算を管理できるようになるだけでなく、LLM と対話する様子がオープンになるので、業務コンテキストに基づいたプロンプトが集約され、優れたプロンプトエンジニアリングを学ぶことに自然と繋がります。

AWS で利用可能な商用 LLM について質問したり

ChatGPT のトレーニング結果を保持できるかを確認したり

コンディションと状態にニュアンスの違いがあるのかを聞いたり

「組織として慣れている状態」に向けては Slack のオープンチャネルで使えるようにするだけでなく、まずはマネジメントが LLM を使うことにコミットすること、そしてメンバーに使ってもらうようにマネジメントとして求めていくことも必要です。

ChatGPT に慣れた先に

イメージしていたよりずっと早いスピード感で利用されており、まずは初期導入としては成功と言えそうです。この「全社員が毎日当たり前に使う状態」にした上で、業務オペレーションやプロダクトの中に組み込む仕掛けを行うことで、生産性の高い組織および LLM が融合した業務とプロダクトを目指していくことになるでしょう。

プロダクトや業務オペレーションが改善される、もとい 組織で日々発生する階層を問わない様々な意思決定の質を向上する ことは想像に易いものの、どの程度 LLM によって改善・最適化されたか、平たく言えば投資対効果がどうなったかは、このように汎化した導入方法だと変数が無数に存在するため評価が難しいところです(特定の課題にフォーカスした PDCA であれば、話が別ですが)。

これについてはオンボーディング・教育・開発・ドキュメンテーション・オペレーション等等に対して発生してきた内部や外部の業務、そこに対して発生してきた時間と費用を、フィードバックを通じて定量的・定性的に整理していくことになりそうです。

その後についてはまたの機会に共有していきますので、お待ち下さい。


  1. 素早く導入できたのは id:masa5555how の多大なる協力のお陰です!