コンテキスト・エンジニアリングの構造化手法
AIを使っていて、「期待した結果が返ってこない」、「何度もやり取りを繰り返してしまう」と感じたことはないでしょうか。多くの場合、その原因は「プロンプトの書き方」ではなく、AIに与える「コンテキスト(背景情報)の不完全さ」 […]
Meta-Harness: AIエージェントの性能を引き出す最適化手法
大規模言語モデル(LLM)を活用したシステムを開発していると、「モデル単体は高性能なのに、システムに組み込むと思うように精度が出ない」という壁にぶつかることがよくあります。これは、システムの最終的な性能が、モデルの重みそ […]
Agentic Code Reasoning: 構造化された準形式的推論の威力
大規模言語モデル(LLM)を活用したコーディングエージェントが普及する中、コードを実際に実行することなく、その意味や振る舞いを正確に読み解く「Agentic Code Reasoning(エージェントによるコード推論)」 […]
Prompt Repetition: プロンプト反復によるLLMの改善
LLMの精度向上のために、日々プロンプトの試行錯誤を繰り返しているエンジニアは多いはずです。Google Researchの研究チームは、そのような課題に対し、非常にシンプルかつ強力な解決策である「Prompt Repe […]
2025年まとめ: AI関連の必読論文 総チェック
2025年は、AI技術が「生成」から「推論(Reasoning)」、そして「自律的なエージェント(Agentic AI)」へと劇的な進化を遂げた1年でした。LLMの効率化から、マルチモーダル化、さらにはAI自身が科学的発 […]
promptolution: Pythonによるプロンプト最適化の実践
大規模言語モデル(LLM)を活用する際、その出力性能は入力プロンプト(指示文)の品質に大きく左右されます。この「プロンプトの感度(sensitivity)」は非常に高く、意味的に類似しているように見えるわずかな表現の違い […]
Socratic Self-Refine: 問答的自己改善によるLLMの推論能力向上
大規模言語モデル(LLM)は、Chain-of-Thought(CoT)プロンプティングを用いることで、数学的な問題解決から複雑な論理推論に至るまで、目覚ましい推論能力を発揮しています。しかし、推論過程を明示するCoTは […]
コンテキスト・エンジニアリング 2.0: 究極の知性へのロードマップと設計原則
近年、大規模言語モデル(LLM)とAIエージェントの急速な台頭により、システムにおける「コンテキスト」(文脈情報)の役割に大きな注目が集まっています。コンテキストウィンドウに配置された情報が、モデルの性能に著しく影響する […]
LLMLingua: LLMのためのプロンプト圧縮技術
昨今、大規模言語モデル(LLM)は、様々なアプリケーションで活用されています。LLMの能力を最大限に引き出すため、Chain-of-Thought (CoT) や In-Context Learning (ICL)、Re […]
Conversational Search入門: LLM時代の検索技術最前線
現代のデジタル社会において、検索エンジンは情報アクセスに不可欠な存在となっています。しかし、単一のキーワードや短いフレーズに依存する従来の検索では、ユーザーの複雑で曖昧な情報ニーズに十分に応えきれません。 近年、人工知能 […]