PyTorchで始める Deep Unfolding 入門: 数理最適化とニューラルネットワークの融合
近年、深層学習は画像認識などで圧倒的な性能を示していますが、信号処理や画像再構成などの逆問題において、その推論過程が不透明(ブラックボックス)である点が実務的な課題となっています,。特に信頼性が重視されるミッションクリテ […]
LLMの浅い理解と深い理解: AIは本当に言葉を理解しているのか?
生成AIは驚くほど流暢な文章を作成します。しかし一方で、事実とは異なる内容をもっともらしく語る「ハルシネーション」や、論理的に破綻した回答を生成することも少なくありません。なぜAIは、「言葉」の操り方は完璧なのに「意味」 […]
iLTM: 表形式データ向けの大規模基盤モデル
表形式データのモデリングにおいて、長らく実務のデファクトスタンダードとして君臨してきたのは勾配ブースティング決定木(GBDT)でした。画像や自然言語の分野で深層学習が席巻する中、表形式データだけは「GBDTが最適解」とい […]
Omnilingual ASR: 1600言語以上対応!オープンソース音声認識モデル
音声認識技術(ASR: Automatic Speech Recognition)の進化は目覚ましいものがありますが、その恩恵はインターネット上でリソースが豊富な一部の言語に偏重しており、世界の7,000以上の言語の大部 […]
Nested Learning: Deep Learning の新たなパラダイム
ChatGPTやGeminiをはじめとする大規模言語モデル(LLM)は、人間が書いたかのような自然な文章を生成し、複雑な質問にも答えるなど、驚異的な能力を見せています。しかし、その万能に見える能力の裏で、根本的な問題を抱 […]
コルモゴロフ・アーノルド・ネットワークのアーキテクチャ: 基礎と応用
長年にわたり、多層パーセプトロン(Multi-Layer Perceptron, MLP)は、回帰分析、関数近似、パターン認識といった様々なタスクで中心的な役割を果たしてきました。しかし、その一方で、MLPにはいくつかの […]
宇宙物理学における深層学習
現代の宇宙物理学は、GaiaやDESI、LSSTといった大規模な天文サーベイによって、ビッグデータの時代へと突入しました。数十年前の観測が数千のソースを扱っていたのに対し、現在では数十億もの天体の観測データが日常的に生成 […]
LLMの腐敗: 訓練データと推論能力の関係
大規模言語モデル(LLM)は、人間と同様の認知機能を獲得するため、インターネット上の膨大なデータから学習します。しかし、その訓練プロセスにおいて、人間社会で問題視されている「Brain Rot(脳の腐敗)」と類似の現象が […]
機械学習モデルにおける不確実性
今日、機械学習モデルは、私たちの生活やビジネスのあらゆる側面に浸透しています。しかしながら、その高い予測精度とは裏腹に、モデルの信頼性や頑健性には依然として重大な課題が残されています。 実際、レベル5の自動運転車がカメラ […]
GPyTorch ではじめる深層ガウス過程入門
ガウス過程(GP: Gaussian Process)は、関数そのものに確率分布を定義するノンパラメトリックなモデルです。このモデルの最大の強みは、単なる予測値だけでなく、その不確実性(信頼区間)を定量的に示せる点にあり […]