Service

ソフトウェア開発

高品質なソフトウェア開発を、効率的に。豊富な経験と専門知識で、お客様のニーズに合わせた最適な開発支援サービスを提供します

機械学習

AI技術を活用した、革新的なソリューションを。機械学習モデルの開発から運用まで、お客様のビジネスを成功に導く支援サービスを提供します。

データサイエンス

データを可視化し、ビジネスに役立つ情報を。データ分析を通して、お客様の事業課題解決を支援します。

Gallery

マルチモーダル・セグメンテーション・モデル

このモデルは、画像とテキスト情報を組み合わせて、画像内のオブジェクトを識別し、セグメンテーションすることができます。

例えば、モデルに「cat」というテキスト・プロンプトを与えると、モデルは画像内の猫のみをセグメンテーションすることができます。

セグメンテーション・モデルは、自動運転、医療画像処理、スマート農業、製造業、建築、ロボット、セキュリティなど、さまざまな分野で応用されています。

マルチモーダル個数計量AI

画像中の任意のオブジェクトの個数を計量する視覚言語モデルで、計量対象のオブジェクトをテキスト・プロンプトで指定できることが特徴です。

マルチモーダル・モデルの1つであるCLIP(Contrastive Language-Image Pre-Training)の事前学習済みモデルを使用することで、Zero-shot推論を可能にしました。

CLIPが学習したオブジェクトであれば、追加学習なしに個数計量を実行することが可能です。

自社環境向け生成AIボット

近年、LangChainLlamaIndexのようなPythonライブラリの登場により、自社環境向けのチャットボットアプリのようなものを簡単に作成できるようになりました。

また、RAG(Retrieval Augmented Generation)LLM(Large Language Model)のファインチューニングも、比較的に簡単に実現できます。

その他にも、簡単に複数のLLMを同時に扱えるLiteLLMや、ローカル環境で大規模言語モデルを稼働できるOllmaなど、多くのオープンソースがあります。

生成AIソリューションを解決するためには、様々なオープンソースに精通している必要があります。

確率過程による将来予測の不確実性可視化

ビジネスにおける意思決定において、AIの回答を鵜呑みにするのは非常に危険です。AIは高度な技術ではありますが、完璧な存在ではありません。データに基づいて予測を行うものの、そのデータに偏りがあったり、未知の要素が存在したりする可能性があります。

そこで重要となるのが、確率過程による将来予測です。右図では、確率微分方程式を使用したモンテカルロ・シミュレーションで将来予測を行ったものです。様々なシナリオをシミュレーションし、それぞれのシナリオにおける不確実性を把握することが重要になります。

この他に、不確実性を推論できるものに、ベイズ推論や、深層ガウス過程などがあります。

説明可能なAI(XAI: eXplainable AI)

説明可能なAI(XAI)とは、AIシステムの意思決定プロセスと出力結果を人間が理解できるように設計されたAIのことです。XAIは、AIのブラックボックス化を防ぎ、透明性と説明責任を確保することを目指しています。

左図は、ディープラーニングで構築した物体検出モデルの出力結果をXAIで説明したものです。物体検出は非常に複雑なモデルですが、AIが「dog」と認識するに至った理由をヒートマップ形式で説明しています。

また、XAIは責任あるAI(Responsible AI)を実現する上で重要な要素となります。

責任あるAIは、AIシステムが倫理的に適切かつ公平で、人間の福祉に資するよう設計・運用されることを意味します。AIの意思決定理由が説明できれば、バイアスやリスクを特定し、是正措置を講じることができます。

企業がAIを責任あるビジネスに活用していくためには、XAIの導入が不可欠となります。顧客や規制当局に対して、AIシステムの透明性と説明責任を果たすことが求められます。XAIにより、AIの信頼性が高まり、イノベーションとガバナンスのバランスが取れた持続可能な事業展開が可能になります。