はじめに
こんにちは、DeNAでAIエンジニアをしている鈴木( @x_ttyszk )です。2025年12月18日に渋谷オフィスでのオフライン開催とオンラインのハイブリッド形式で開催した「DeNA × AI Talks #4 - LLMを組み込んだプロダクト開発の実践的知見を公開! -」( connpass )の開催レポートをお届けします。本記事では、当日の発表資料と内容の一部要約をご紹介します。
DeNA × AI Talksについて
「DeNA × AI Talks」は、AI技術の最前線に触れ、実践的な知見を共有することを目的としたDeNA主催のトークイベントです。これまでのイベントの様子については 過去のレポート記事 からご覧ください。
第4回目となる今回は、「LLMを組み込んだプロダクト開発の実践的知見を公開!」と題し、具体的なプロダクト事例や、開発・実装の工夫が紹介されました。
動画
オンライン配信のアーカイブをYouTubeにて公開しています。
セッション
ここからは、当日の各セッションの内容をダイジェストでお届けします。
Introduction
登壇者:鈴木達哉( @x_ttyszk )
イベントの冒頭では、DeNAが掲げる「AIオールイン」戦略について紹介しました。
BASE☆BLUE:4つの問題で学ぶ、プロンプト設計
登壇者:あるぱか( @arupaka03254 )
10月に公開したブログ「BASE☆BLUE:4つの問題で学ぶ、リアルタイムAI解説のプロンプト設計」を元にプロダクトでの具体的なプロンプト設計の工夫が紹介されました。詳細はブログやスライドをご覧ください。
新卒AIフルスタックエンジニアが語るAI×プロダクト開発
登壇者:柿木幹太( @Kakinoki47 )
2025年新卒入社のAIエンジニアである柿木から、LLMワークフローの構築と、LLMを組み込んだプロダクト開発の知見が紹介されました。LLMのAPIを叩くだけではプロダクトにならない と語り、周辺エコシステムやLLMの特徴を理解するための知見が学べる内容となっていました。
なお、AIフルスタックエンジニア として活躍する柿木の仕事や働き方については以下のインタビュー記事でも深掘りしています。こちらもぜひご覧ください。
LLMワークフローの構築にオススメなライブラリ
LLMワークフローを構築するためにオススメなライブラリとして、 LangChain と LangGraph があります。
LangChainは、線形なチェーン型ワークフローを構築するためのライブラリで、以下のようなものを提供します。
- プロンプト管理
- LLMへの統一インターフェース
- 出力パーサー
一方LangGraphは、グラフ型のステートフルで複雑なワークフローを構築するためのライブラリで、以下のようなものを提供します。
- 動的制御フロー
- 高度な状態管理
- Human-in-the-Loopの仕組み
これらライブラリを活用したワークフロー構築例を紹介していきます。
LLMワークフロー構築の具体例
「信頼性の高いLLMの最新情報サマリーを作るためのワークフロー」を題材として具体的な作り方を見ていきます。ワークフロー化しない単純な事例から、徐々に複雑な構成にしていきます。
Step1:単純なAPI呼び出し
LLMのAPIを単純に呼び出す場合はシンプルな実装が可能ですが、LLMの知識は学習時点で止まっています。そのため、情報が古かったり、ハルシネーションが起きるという問題があります。
Step2:Web検索によるグラウンディング
Step1の問題を解決するために、Web検索を活用します。Web検索APIの結果をプロンプトに入れたり、LLM APIでWeb検索ツールを指定します。これにより最新の情報を出力できるようになります。ただし、プロンプトが長大になることで管理が難しくなったり、性能やコスト面で課題があったり、広く検索するゆえに直近のコアな情報が拾いにくいという問題が生まれます。
Step3:段階的なワークフロー
ここからが本題です。ワークフローを構築することで、信頼性の高い最新情報を収集できるようにします。検索した後に、ファクトチェックや、英語→日本語の翻訳を行うタスクを入れることで信頼性を高めます。段階的に処理することで、タスクごとに性能面やコスト面から最適なLLMを選択することもできるようになります。
Step4:外部連携でソースを指定
ただ検索するだけでなく、特定のWebサイトを指定することでより信頼性の高い情報収集も可能になります。また、過去に収集済みの最新情報を記録しておき除外するといった使い方も考えられます。
ここからさらに、収集した情報の品質をチェックし指定回数まではリトライする処理を入れたり、情報のカテゴリごとに詳細補間プロンプトを使用したり、Human-in-the-Loopの仕組みを追加したりといったことも考えられます。
LLMを組み込んだプロダクト開発の知見
LLMをプロダクトに組み込む際の困難さには次のようなものがあります。
- レイテンシ
- 技術選定
- コスト
- セキュリティ
LLMのレイテンシ問題
LLMはレスポンスは不安定なため、呼び出しの並列化やレイテンシの可視化が重要です。固定閾値アラートには限界があるため、動的・セグメント化されたアラート戦略が必要になります。
技術選定とモデル依存性
LLM領域は技術の進化が早いため、特定のモデルやプロバイダにロックインされない設計も求められます。LangChainのような抽象化レイヤーが有用です。また、プロンプトをコードと同様にバージョン管理することも大切です。
APIのコスト削減
LLMのAPIは高コストであるため、タスクに応じてモデルを使い分けることでコストを最適化することも必要になります。コストログを後から追加するのは難しいこともあるため、初期から追跡する基盤を用意します。
多層的なセキュリティ防御
プロンプトインジェクション対策は必須です。ユーザー入力を「データとして」扱い、明確にセパレートした構造化プロンプトとします。コンテンツポリシー違反ものが出力されることもあるため、ローカルフィルタで明らかなケースを高速ブロックしたり、LLMを用いたガードレールも重要です。
LLMをコアに持つプロダクトのデータ活用とエージェント設計
登壇者:吉田知貴( @birdwatcherYT )
AIエンジニアの吉田より、DeNA社内でPdM&エンジニア向けに実施し好評だったLLM勉強会のAI Talks特別版が紹介されました。このLLM勉強会の資料・コードは社外にも既に公開していましたが、本イベントではAIエンジニアに向けてより技術を深掘りした内容となりました。
社内でLLM勉強会を実施した際の様子や資料はこちらのブログに掲載しております。ぜひ併せてご覧ください。
DeNAのLLMエンジニア・AIフルスタックエンジニアの新卒採用ポジション紹介
登壇者:井本裕
DeNAでは新卒採用として「エンジニア(AIスペシャリスト)」の募集を行っていますが、その中に今期からはLLMエンジニア、AIフルスタックエンジニアという枠組みを設けましたので、マネージャーの井本からどのようなポジションなのか紹介されました。
詳細は AIスペシャリストの採用ページ をご覧ください。
さいごに
渋谷オフィスの会場での懇親会は、前回まで同様に登壇者と参加者による議論や交流が活発に行われ大盛況となりました。ご参加いただいた皆様ありがとうございました。
はじめて設けた学生枠には、最先端の研究を行う方から個人開発に取り組む方まで多様な方々に参加いただきました。社会人とは異なる視点を持つ学生が加わったことで、懇親会は今まで以上に活気あふれる交流の場となりました。
DeNA AI Talksは今後も1ヶ月に1回程度を目安に開催し続けていく予定ですので、引き続きよろしくお願いします。イベント情報は DeNA × AIのXアカウント @DeNAxAI_NEWS で発信しています。ぜひフォローお願いします。
次回開催予告
次回は2026年1月23日(金)にDeNA × AI Talks #5 - ゲーム開発現場の強化学習・Gemini CLI活用事例 - を開催します。
「ゲーム × AI」をテーマに、ユーザー体験を支える最新技術の実装から開発現場のプロセス改善まで、開発現場で得られた知見をお届けします。具体的には、運営型ゲームにおいて強化学習モデルをエッジ上に組み込み、対戦AIとして社会実装するまでの工夫点や開発の舞台裏、そして若手ゲームエンジニアによるGemini CLIを活用した開発プロセスの改善事例を紹介します。ゲーム開発の最前線でどのようにAIを使いこなし、どのような課題を乗り越えてきたのか。プロダクトの価値を直接高めるエッジAI開発からツール活用による生産性向上まで、現場エンジニアの視点から得られたリアルな実践知を余すところなくお届けします。
2026年3月6日には「DeNA × AI Day 2026」を開催!
多岐にわたる領域でのDeNAのAI活用事例を紹介するカンファレンス「DeNA x AI Day 2026」を2026年3月6日(金)に渋谷ヒカリエホールで開催します。ぜひご参加ください!
採用情報
DeNAでは現在、AIオールイン加速に向けて採用強化中です。興味のある方はこちらをご覧ください。
最後まで読んでいただき、ありがとうございます!
この記事をシェアしていただける方はこちらからお願いします。