はじめに
こんにちは、2020年に新卒入社してからDeNAでAIエンジニアをしている吉田( @birdwatcherYT )です。 いつもは Qiita に技術記事を発信しているのですが、今回は社内の取り組みとしてエンジニアリングブログを書くことにしました(入社6年目でなにげに初執筆です)。 それでは、2025年12月1日に渋谷オフィスでのオフライン開催とオンラインのハイブリッド形式で開催した社内勉強会の開催レポートをお届けします。
3時間の講義&ハンズオン形式のLLM勉強会を実施
新規AIプロダクトを開発しているPdM&エンジニア向けに、AIをコアとしたプロダクト作りのために必要な知識を詰め込んだ勉強会を開催。 一方的な講義形式ではなく、実際に手を動かして体験するハンズオン形式の勉強会で大変好評でした。
勉強会は約3時間の構成で、LLMの基礎知識(Next Token Prediction、Instruction Tuning、Reasoning、プロンプトエンジニアリング)から始まり、実践的なハンズオン(API呼び出し、構造化出力、複数LLMの組み合わせ)を経て、プロダクト開発に必要な応用知識(強化学習、ファインチューニング、コンテキストエンジニアリング、RAG、ReAct/Reflexionなどのエージェント)から発展的なハンズオン(マルチモーダル入力、グラウンディング、コード実行、Tool Calling、Embedding、Deep Research設計、ReAct Agent、n8n、LangSmith)まで体験できる内容になっています。
勉強会資料を全公開
詳しくはスライドとGitHubを見ていただきたいと思いますが、本ブログでも要点を紹介していきます。
イントロダクション
本勉強会の目的と狙いを伝えた上で、エンジニアと非エンジニアで異なるゴールを設定しました。
知識 〜前半〜
Next Token Predictionの話からInstruction Tuning、Reasoning、プロンプトエンジニアリングの話までLLMに関する基本的な知識を紹介しました。
また、保守運用・チューニング観点では、プロンプトに指示を足し続けるのではなく、全体を見直す重要性を強調しました。
実践演習(ハンズオン)〜前半〜
Pythonを使いAPIを呼ぶという非エンジニアにはやや難易度が高いものですが、穴埋め形式のソースコードを用意して、短時間でハンズオンが成り立つように準備しました。
基本的なAPI呼び出しから構造化出力、さらに実践的なLLMを組み合わせて問題を解く思考をつける演習を誘導問題の形で実施しました。
知識 〜後半〜
LLMを使用したプロダクト作りにおけるデータ活用の基本的な考えを示し、ファインチューニングと強化学習の違いについて解説しました。
また、データを活用してパーソナライズを実現するには、コンテキストエンジニアリングが重要と主張し、その一種と言えるRAGの基本構造について詳しく解説しました。
さらに、エージェントの基本であるReActやReflexionについて解説しました。
実践演習(ハンズオン)〜後半〜
さらなるAPIのオプションとして、マルチモーダル入力やコード実行、グラウンディング、Tool Callingなどを体験した後、Embeddingを呼んでコサイン類似度を計算してみる演習や、Deep Researchの内部構造を考えてみるといった演習を実施しました。
最後にはn8nやLangSmithなどの便利なツールを使ってみるという内容で演習を締めました。
おわりに
勉強会の最後には、実際の各案件がどんな構成で実現されているのかを解説する時間を設けて、参加メンバー全員の理解を深めることに成功しました。 参加メンバーからは、感謝の言葉と共に「新規AIプロダクト開発に配属されるメンバーの研修内容にいれたほうが良さそう」や「AIエンジニアの仕事を理解できた」といった声をいただきました。 社内の案件に関わる内容については非公開としましたが、それ以外は全てを公開しています。 資料を読み、手を動かして演習をした全員のLLM知識レベルを向上できる資料になっているはずです。 良いと思った方はSNSでの拡散をお願いします。
現在、新規AIサービスの開発メンバーを新卒・中途ともに募集中です!
最後まで読んでいただき、ありがとうございます!
この記事をシェアしていただける方はこちらからお願いします。