LLMの浅い理解と深い理解: AIは本当に言葉を理解しているのか?

生成AIは驚くほど流暢な文章を作成します。しかし一方で、事実とは異なる内容をもっともらしく語る「ハルシネーション」や、論理的に破綻した回答を生成することも少なくありません。なぜAIは、「言葉」の操り方は完璧なのに「意味」 […]

iLTM: 表形式データ向けの大規模基盤モデル

表形式データのモデリングにおいて、長らく実務のデファクトスタンダードとして君臨してきたのは勾配ブースティング決定木(GBDT)でした。画像や自然言語の分野で深層学習が席巻する中、表形式データだけは「GBDTが最適解」とい […]

QueryGym: LLMベースの Query Reformulation フレームワーク

検索システムの改善において、ユーザーの曖昧な入力意図を補完する「クエリ拡張(Query Reformulation)」は、LLMの登場により劇的な進化を遂げています。しかし、論文で提案される有望な手法も、実装コードが散逸 […]

大規模言語モデルは知性か?現代AIの能力と限界

近年、大規模言語モデル(LLM)が示す驚異的なテキスト生成能力は、我々に「これは真の知性なのか?」という根源的な問いを投げかけています。その流暢さの裏で、LLMが膨大なテキストの統計的パターンを模倣しているだけの「確率的 […]

Socratic Self-Refine: 問答的自己改善によるLLMの推論能力向上

大規模言語モデル(LLM)は、Chain-of-Thought(CoT)プロンプティングを用いることで、数学的な問題解決から複雑な論理推論に至るまで、目覚ましい推論能力を発揮しています。しかし、推論過程を明示するCoTは […]

最先端技術の貢献度を体系化するデザインサイエンス妥当性フレームワーク

機械学習モデルを開発する際、私たちは精度(precision)や再現率(recall)、F1スコアといった定量的な指標を用いて性能を評価することが一般的です。これらの指標は、知識クレームの妥当性を確立するための尺度ですが […]

Omnilingual ASR: 1600言語以上対応!オープンソース音声認識モデル

音声認識技術(ASR: Automatic Speech Recognition)の進化は目覚ましいものがありますが、その恩恵はインターネット上でリソースが豊富な一部の言語に偏重しており、世界の7,000以上の言語の大部 […]

Nested Learning: Deep Learning の新たなパラダイム

ChatGPTやGeminiをはじめとする大規模言語モデル(LLM)は、人間が書いたかのような自然な文章を生成し、複雑な質問にも答えるなど、驚異的な能力を見せています。しかし、その万能に見える能力の裏で、根本的な問題を抱 […]

コルモゴロフ・アーノルド・ネットワークのアーキテクチャ: 基礎と応用

長年にわたり、多層パーセプトロン(Multi-Layer Perceptron, MLP)は、回帰分析、関数近似、パターン認識といった様々なタスクで中心的な役割を果たしてきました。しかし、その一方で、MLPにはいくつかの […]

コンテキスト・エンジニアリング 2.0: 究極の知性へのロードマップと設計原則

近年、大規模言語モデル(LLM)とAIエージェントの急速な台頭により、システムにおける「コンテキスト」(文脈情報)の役割に大きな注目が集まっています。コンテキストウィンドウに配置された情報が、モデルの性能に著しく影響する […]