コンテキスト・エンジニアリング 2.0: 究極の知性へのロードマップと設計原則
近年、大規模言語モデル(LLM)とAIエージェントの急速な台頭により、システムにおける「コンテキスト」(文脈情報)の役割に大きな注目が集まっています。コンテキストウィンドウに配置された情報が、モデルの性能に著しく影響する […]
宇宙物理学における深層学習
現代の宇宙物理学は、GaiaやDESI、LSSTといった大規模な天文サーベイによって、ビッグデータの時代へと突入しました。数十年前の観測が数千のソースを扱っていたのに対し、現在では数十億もの天体の観測データが日常的に生成 […]
LLMの腐敗: 訓練データと推論能力の関係
大規模言語モデル(LLM)は、人間と同様の認知機能を獲得するため、インターネット上の膨大なデータから学習します。しかし、その訓練プロセスにおいて、人間社会で問題視されている「Brain Rot(脳の腐敗)」と類似の現象が […]
LLMLingua: LLMのためのプロンプト圧縮技術
昨今、大規模言語モデル(LLM)は、様々なアプリケーションで活用されています。LLMの能力を最大限に引き出すため、Chain-of-Thought (CoT) や In-Context Learning (ICL)、Re […]
LLM時代の自律型コーディング・エージェントはソフトウェア開発の在り方をどのように変えるか?
大規模言語モデル(LLM)の目覚ましい進化は、ソフトウェア開発(Software Development)の領域に根本的な変化をもたらしています。これまで、AIによるコーディング支援の多くは、自然言語の記述を静的なコード […]
大規模言語モデルのベンチマーク
Transformerアーキテクチャの導入以降、大規模言語モデル (Large Language Models, LLM) はAI分野に大きな進展をもたらしました。自然言語理解(Natural Language Unde […]
自然言語処理のためのデータ拡張手法
近年、大規模言語モデル(LLM)は自然言語理解と生成において目覚ましい能力を示していますが、その性能は、膨大かつ高品質な学習データの存在に大きく依存します。現実には、十分な訓練データが不足したり、既存データの品質が低いと […]
TruthTorchLMによるLLMのハルシネーション検出
大規模言語モデル(LLM)の目覚ましい進化は生活やビジネスに革新をもたらす一方で、事実に基づかない情報を生成するハルシネーションが問題となっています。特に医療や金融といった高リスクな分野では、LLM出力の信頼性と正確性が […]
コンテキスト・エンジニアリングの現状と未来
近年、大規模言語モデル(LLM)の進化は目覚ましく、その性能は提供される「コンテキスト(文脈情報)」によって根本的に左右されます。これまで、LLMの能力向上においては「プロンプト・エンジニアリング」と呼ばれる、より良い指 […]
UnslothではじめるLLMのFine-tuning
大規模言語モデル(LLM)を特定のタスクやドメインに特化させる「ファインチューニング」。その可能性に多くの開発者が惹きつけられる一方で、「膨大な計算コストがかかる」「高性能なGPUがなければ手も足も出ない」といった高いハ […]