![]() |
印度孟買和紐約 2025年5月13日 /美通社/ — Arya.ai 今天宣佈推出 APEX MCP(模型上下文協定)客戶端和伺服器應用程式。它是個突破性編排層,並專為轉化通用大型語言模型為可驗證領域專家而設計。
隨著 LLM 成為客戶支援、營運和合規工作過程的不可或缺一部分,便出現一個常見問題:在領域特定任務中,出現人工幻覺、不一致和低可信度。Arya.ai 有何回應?這是預先訓練應用程式的模型層,並於任何 LLM 上包裹領域知識,從而令其值得信賴。
Arya.ai 的創辦人 Deekshith Marla 表示:「在它的核心, MCP 被改編為一個編排引擎,為 GenAI 驅動應用程式帶來領域上下文,減少幻覺,並提升精確度。它不僅是推動更智能,而是從經驗證兼證實專業知識基礎中而得到的。」
大規模領域包裹
Arya 的 MCP 支援 APEX 平台具備超過 100 個預設人工智能模型作驅動的基礎 LLM ,並協助團隊編寫財務、合規、私隱和客戶體驗等領域的工作流程。每個模型均經過精心設計,處理細微的領域特定任務。該等任務例如分析財務報表、信用評估、文件欺詐偵測、身分驗證、音訊分析和保險索賠處理等。
多個模型可透過可搜尋目錄而得到發現,透過 JSON-RPC 而獲得調用,並透過 APEX 的無程式碼用戶介面而連結一起。無論提取資料、執行規則,還是預處理上下文,每個模型都會包裹 LLM 至領域為本的輸入中,並後期驗證它的輸出,而令人工智能在設計上值得信賴。
隨插即用與控制
MCP 伺服器負責處理模型發現、執行和日誌記錄,同時 MCP 客戶端負責編排預處理和 LLM 整合。
它與 LLM 無關,並為企業提供充分靈活度。
它如何與眾不同?
- 即可稽核的人工智能:每個模型呼叫、提示與 LLM 回應均會被記錄下來,確保可追溯和合規。
- 零重寫整合:毋需使用應用程式邏輯,即可新增或交換模型。
- 可擴展的組成:透過連結模型(如「PII 編輯 → 情緒分析 → 執行摘要」)的流程,建立強大人工智能工作流程。
企業用例實踐
現在,銀行毋需跨多個應用程式,便可分析交易文件、評估風險和產生報告。
RegTech 公司可以透過完整審計追蹤,實現合規工作流程自動化。客戶體驗團隊可立即從回應中提取見解、分類支援問題,並推薦下一步。
接下來舉措
Arya.ai 是 Aurionpro 旗下的公司,正在提供 APEX + MCP Sandbox 搶先體驗。該公司透過視覺化用戶介面工程,允許企業直接試驗模組連結、LLM 配置和編排。
無論該平台用於自動化、風險分析、合規或客戶支援,它都有助團隊利用自己數據,迅速建立和測試領域包裹的人工智能工作流程,並具備完全控制和可追溯性。
Arya.ai 以 MCP 為中心,正在逐個模組地建立可驗證、相容兼可擴展的智能。
如欲了解更多或要求示範,請瀏覽 https://arya.ai 或電郵至 [email protected] ,與我們聯絡