CARVIEW |
- TOP
- AIを使った業務改革 AI ソリューション

AIを使った業務改革
AI ソリューション
生成AI
AIエージェント
チャットボット
マルチLLM
RAG/ MCP
プロンプト
当社AIソリューションの特徴

LLM オーケストレーションツール
(LLM Orch)による DX・AI導入支援
各種社内業務の効率化を目指すお客様に対し、AI導入支援を実践的に提供します。 以下に示すLLM オーケストレーションツール(LLM Orch)を導入します。次に、このツールによってAIアプリケーションを当社が最初に構築し、これを元に導入教育を実施します。これにより、ローコード・ノーコードツールであるLLM Orchの使い方を習得し、お客様自身でAIアプリ開発が可能となるよう支援します。システム連携など難しい部分は当社にご相談いただければと思います。
①Microsoft Copilot Studio
Microsoft 365 Copilot 用のLLM Orch。MS365上の各種アプリケーションと連携し、AIアプリケーションを比較的簡単にMS365内に構築出来ます。ただし、 MS365 Copilot/Copilot StudioはMS365の基本ライセンスとは別に追加ライセンスが必要です。クラウドサービスで提供されます。
②Dify
注目されているLLM Orchの1つです。クラウドサービスとして提供される形態と、無料で公開されるオープンソースを自社サーバにインストールして利用する形態の二種類があります。自社の閉じたネットワーク環境内で完結するAIアプリの開発も可能です。

既存システムへの組み込みなど
AIアプリケーションの提供
(2025年度秋サービス開始予定)
当社が独自に開発したAIアプリ開発基盤で、お客様のニーズにあわせたAIアプリケーションを構築します。

BIツールとの連携による
データの視認性の向上
(2025年度末リリース予定)
AIアプリケーションとBIツールが連携し、AIアプリケーションが結果として帰すデータを視覚化します。
AIアプリ開発プラットフォーム

代表的なLLM オーケストレーションツールの比較
(Copilot Studio vs Dify)
●Copilot Studioは、MS365環境の中でのみ稼働するAIアプリをノーコードで作れるものです。Officeなどの各アプリケーションと密接に連携できる利便性がありますが、価格はやや高めに設定されています。
一方、Difyは、無料で使うことも出来て、AIの入門プラットフォームとしては適しています。
項目 | Copilot Studio | Dify |
稼働環境 | Microsoft Power Platform上で稼働。Microsoft 365テナントに統合。Azureベース。 | OSS版:Dockerでセルフホスト可能。Cloud版:AWS(米国)で提供。 |
開発されるアプリのUI | Teams、Outlook、SharePointなどに統合されたUI。GUIで会話フロー設計。 | WebベースのチャットUI。ノードベースのビジュアルIDEで設計。SlackやLINEにも対応。 |
AIエージェントの開発 | ノーコードで業務エージェントを構築。Microsoft 365アプリと連携可能。 | ノーコード/ローコードで自律型AIエージェントを構築。外部ツール連携が柔軟。 |
RAG機能 | SharePoint、OneDrive、Azure AI Searchなどと連携。ナレッジソース管理可能。 | PDF、CSV、Markdown、Notionなど多様なソースに対応。ベクトル検索やRerankモデルも可能。 |
MCP機能 | 対応済み(2025年5月GA)。OpenAPI仕様でMCPツールを統合可能。 | 完全対応。Zapier、ReAct、外部ツールと連携可能。MCPサーバーとしても利用可能。 |
AIアプリ内のタスクフロー設定機能 | GUIでトリガー・条件分岐・アクション・ループなどを設定可能。Power Automateと統合。 | Workflowノードでタスク分解・条件分岐・外部ツール呼び出しが可能。MCP連携で自律処理可能。 |
情報漏洩防止(AIアプリ内) | Microsoft PurviewによるDLP、監査ログ、機密ラベル、AI DSPMに対応。Copilot応答も監視可能。 | OSS版は自社でセキュリティ設計可能。Cloud版は暗号化・アクセス制御・ログ取得・MCP認証あり。 |
コード編集の可否 | ×コード編集不可(ノーコード設計) | OSS版ではコード編集可能。プラグインやAPI連携も自由。 |
コスト | Microsoft 365 Copilotライセンスに含まれる。外部公開はメッセージ課金あり(約¥31,000/月) | OSS版:無料。Cloud版:月額$200〜(約¥31,000〜) |
代表的な外部連携型AI手法 LLM(大規模言語モデル)と
外部のデータソースを結び付けて動作するAI手法
●LLM(大規模言語モデル)と外部データソースを連携させて動作させる代表的な手法には、RAGやMCPがあります。
- RAGは、あらかじめ構築されたベクトルデータベースを活用し、検索と生成を組み合わせた手法です。処理が高速で、精度はベクトルDBの設計に依存します。同義語辞書などの工夫により精度は大きく変化します。構成がシンプルで導入しやすく、チューニングはベクトルDB構築と前処理によって行います。
- MCPは、LLM出力に対してMCP HOSTが命令を制御し、複数のサーバやリソースを経由して整形された応答を返す構造です。処理はリアルタイムで柔軟性が高く、HOST設計とサーバ構成により精度・表現・整合性を細かく制御できます。MCPサーバを自前で用意するなど開発側に裁量が多く、安全性と応答品質の統制にも優れます。
