Reranking モデルの進化: 古典的手法から大規模言語モデルまで
現代のデジタル社会において、情報を的確に見つけ出す 情報検索(IR: Information Retrieval)システムは、検索エンジンから知識管理プラットフォームに至るまで、欠かせない存在です。特に、大規模言語モデル […]
PyTorchで始める Deep Unfolding 入門: 数理最適化とニューラルネットワークの融合
近年、深層学習は画像認識などで圧倒的な性能を示していますが、信号処理や画像再構成などの逆問題において、その推論過程が不透明(ブラックボックス)である点が実務的な課題となっています,。特に信頼性が重視されるミッションクリテ […]
Deep Research 完全ガイド: 自律型LLMエージェントとアーキテクチャ
近年、大規模言語モデル(LLM)は、単にテキストを生成するだけでなく、複雑な問題解決を可能にする強力なエージェントへと急速に進化しています。しかし、現実世界の多くのオープンエンドなタスクは、単一のプロンプトや標準的なRA […]
promptolution: Pythonによるプロンプト最適化の実践
大規模言語モデル(LLM)を活用する際、その出力性能は入力プロンプト(指示文)の品質に大きく左右されます。この「プロンプトの感度(sensitivity)」は非常に高く、意味的に類似しているように見えるわずかな表現の違い […]
LLMの浅い理解と深い理解: AIは本当に言葉を理解しているのか?
生成AIは驚くほど流暢な文章を作成します。しかし一方で、事実とは異なる内容をもっともらしく語る「ハルシネーション」や、論理的に破綻した回答を生成することも少なくありません。なぜAIは、「言葉」の操り方は完璧なのに「意味」 […]
iLTM: 表形式データ向けの大規模基盤モデル
表形式データのモデリングにおいて、長らく実務のデファクトスタンダードとして君臨してきたのは勾配ブースティング決定木(GBDT)でした。画像や自然言語の分野で深層学習が席巻する中、表形式データだけは「GBDTが最適解」とい […]
QueryGym: LLMベースの Query Reformulation フレームワーク
検索システムの改善において、ユーザーの曖昧な入力意図を補完する「クエリ拡張(Query Reformulation)」は、LLMの登場により劇的な進化を遂げています。しかし、論文で提案される有望な手法も、実装コードが散逸 […]
大規模言語モデルは知性か?現代AIの能力と限界
近年、大規模言語モデル(LLM)が示す驚異的なテキスト生成能力は、我々に「これは真の知性なのか?」という根源的な問いを投げかけています。その流暢さの裏で、LLMが膨大なテキストの統計的パターンを模倣しているだけの「確率的 […]
Socratic Self-Refine: 問答的自己改善によるLLMの推論能力向上
大規模言語モデル(LLM)は、Chain-of-Thought(CoT)プロンプティングを用いることで、数学的な問題解決から複雑な論理推論に至るまで、目覚ましい推論能力を発揮しています。しかし、推論過程を明示するCoTは […]
最先端技術の貢献度を体系化するデザインサイエンス妥当性フレームワーク
機械学習モデルを開発する際、私たちは精度(precision)や再現率(recall)、F1スコアといった定量的な指標を用いて性能を評価することが一般的です。これらの指標は、知識クレームの妥当性を確立するための尺度ですが […]