Spark - AI モデルカード
この技術プレビューは、お客様の評価とフィードバックのために無料で提供されていますが、一般提供時にプレビューの機能は追加費用やライセンスの対象となる場合があります。 そのため、技術プレビュー、ドキュメント、および更新は、限定された評価のためだけに、そして「現状のまま」および「利用可能な状態のまま」で無保証で提供されます。
このページでは、Nexthink Spark のAI設計、データ使用法、制限、およびコンプライアンスの安全策について詳しく説明します。
モデルの詳細
説明
Nexthink Sparkは、ITサポートを変革するように設計された知的な、エージェント型AIです。 MS Teamsなどのサードパーティエンタープライズチャットや他のチャットボットソリューションに組み込まれたSparkは、会話型インターフェースであり、NexthinkがAWS環境内で運用するGenAIモデルを活用して、社員がITの問題や質問を支援します。
Sparkは、知識ベース記事、過去のチケットのインサイト、Nexthinkオートメーションカタログといったさまざまな知識ソースや、対象デバイスに関するコンテキストデータ(Nexthink InfinityプラットフォームのNexthinkユーザーおよびデバイスデータ)を活用して、ユーザーの質問を理解し、問題解決を支援し、手動で提供する修正案や社員が実行を承認できるオートメーションを提供します。 Sparkは、対応できない問題をサービスデスクチームにエスカレーションし、社員の代わりにインシデントのコンテキストを含むチケットを発行することも可能です。 Nexthink Sparkは単なる利便性機能であり、その使用はオプションです。
Sparkは、ユーザーが自然言語で提出したクエリーに応答するために、組織がNexthinkに指示したデバイスの健康監視のためのデータを使用します。 Sparkは、サードパーティデータを取得しリンクするアクションも実行でき、これはNexthink Infinityに保存されない一時データです。
Nexthinkに関する詳細情報はFAQドキュメントを、Nexthink Sparkの詳細はSpark の始め方ドキュメントを参照してください。
入力と出力
入力
ユーザーがNexthink Sparkに送信する自然言語クエリー(Microsoft TeamsやAPI経由のサードパーティ統合のチャンネルを通じて)
リクエストを処理している間に取得するシステムデータ。 これには、NQLクエリー経由でのユーザーとそのデバイスに関するNexthinkデータ、関連するナレッジ記事、過去のチケット解決、以前の会話のフィードバック、Nexthinkの設定オブジェクト(例:リモートアクション、ワークフロー、エージェントアクションなど)が含まれることがあります。
診断と修復オートメーション(リモートアクション、エージェントアクション、ワークフローなど)の実行結果 会話の進行中に実行されます
出力
AIモデルによって生成される回答には、エンドユーザー向けのメッセージ、自動修復実行の提案、手動アクションの手順が含まれます。 回答は内部のナレッジベース記事を参照するか、またAIモデルの基礎的知識を使用して生成されます。
ITサービスデスクエージェントへの豊富な文脈でエスカレートされたチケット。
監督者によるレビューと強化学習を実現するための推論の詳細。
意図された使い方
主要な意図されたユーザー
企業の既存のチャネルを通じてSparkと対話する社員。
サービスデスクのエージェントは、Sparkエージェントによってエスカレーションされる際、コンテキスト豊富なチケットから利益を得ます。
サービスデスクの上司は、Sparkと社員の会話の可視性を高め、解決のパフォーマンス指標を得て、Sparkから提供される価値を測定し改善することができます。
範囲外の使用事例
ユーザーがITや職場サポートの範囲外の質問を入力した場合、Nexthink Sparkは会話を停止し、それがサポートされていないトピックであることをユーザーに通知します。 これにより、不適切なトピックを特定し、AIの回答を関連するITまたは職場関連の問い合わせに限定します。
さらに、Sparkは従業員自身のユーザーとデバイスについての情報のみを提供し、他者のデバイスまたはデータに関する問い合わせを拒否します。
モデルデータ
データフロー
スパークは、サードパーティとの統合、Nexthink Infinity、およびAWS Bedrockを組み合わせた定義されたシーケンスを通じて、従業員のサポートリクエストを処理します。 Sparkは接続されたITSMツールやナレッジリポジトリを駆使して、ユーザーの問い合わせに関連する知識でモデルを補完します。 Sparkはまた、目標デバイスに関するNexthinkのデータにアクセスします。
従業員が会話を開始し、フロントエンドのチャネルを通して _「助けて、ラップトップが遅い」_のようなメッセージを送信します。 使用しているデバイスとユーザーは、会話開始時にセキュアなアクセス トークンを使用して安全に特定されます。
Spark AIエージェント は、従業員のメッセージおよび現在の会話履歴に基づき、以下のいずれかまたは複数のアクションを実行する場合があります:
SparkのLLMは、手元にある関連ツールを選択し、さらに情報を集めることがあります:
Nexthink Infinityプラットフォーム内のデバイスとユーザーデータをNQLクエリを通じて取得し、コンテキスト情報を集めます(対象は現在のユーザーとそのデバイスに限られます)。
Sparkエージェントに提供された記事の中から関連するKnowledgeの記事を検索する。
(エージェントアクション、リモートアクション、ワークフローなど)関連アクションを検索する Sparkエージェントに提供された
収集した情報に基づき、Spark LLMモデルは以下を実行できます:
メッセージを従業員に生成する(質問、手順を追う、進捗報告メッセージなど)
管理者が従業員の同意を要すると指示したアクション(影響のある対応など)の実行をユーザーに提供します。 この場合、アクションの影響は、そのアクションの設定に基づいてユーザーに示されます。 ユーザーが明示的な**「はい」**の回答で同意した後、そのアクションは実行されます。
従業員の同意を要しないと指示されたアクション(見た目上影響のない診断アクションなど)を自動的に実行する
従業員の同意確認後にチケットをサポートチームにエスカレートすることを決定します。 システムは、問題と試行された解決策の要約を含むコンテキストで、チケットの説明を生成します。
従業員の最初の問題が解決されたと判断した場合は、会話を終了することを決定します
上記のプロセスは、従業員からの入力が必要になるまで繰り返されます。
Sparkエージェントは、内部の推論とプロセスを監督者のレビューのために記録する場合がありますが、この情報は従業員と共有されません。
監督者は会話を品質のためにレビューし、フィードバックを提供します。 このフィードバックループは、従業員との会話処理時にのみSparkエージェントに利用可能とされ、Sparkの理解と性能を継続的に向上させる強化学習を促進することがあります。

評価データ
Nexthinkは、制度の特定のコンポーネントに合わせて、精度、再現率、および自社独自の指標を含むパフォーマンス指標セットを使用しています。 テストデータセットは、AIシステムの精度と信頼性が会社の基準に合致することを保証するために、モデルの更新の検証に使用されます。 さらに、モデルパフォーマンスの継続的な監視によって、Nexthinkは潜在的な問題を事前に解決し、エラーを減らし、応答の質を時間とともに向上させます。 このフィードバックメカニズムにより、NexthinkはAIモデルのアウトプットの精度と効果を継続的に洗練することができます。 システムは解決成功率やエスカレーション頻度などのメトリクスを追跡して、Sparkの有効性を測定します。
トレーニングデータ
Sparkは主にAWS Bedrockを通じて提供される既製の大規模言語モデルを使用します。 これらのモデルは、Nexthinkが顧客を対象にトレーニングしたものではありません。 顧客固有のコンテキスト(ナレッジベース記事、過去のチケット解決データ、監督者のフィードバックなど) は、Sparkを通じて利用可能になり、顧客固有のデータで会話コンテキストを豊かにします。
データは顧客間で共有されず、スパークは顧客とのインタラクションからグローバルトレーニングセットを構築しません。
データの前処理
NQLクエリ生成中、システムはクエリ内の個人データフィールドを自動的に削除します。 これらのクリーンなクエリは注釈を付けられ、継続的にモデルを改善するために使用される可能性があります。
ServiceNow KBとチケットは、効率的な検索を可能にするためにインデックス化されています。
実装情報
ハードウェア
モデルはAWSのインフラストラクチャ内で、顧客の地理的地域を対象に展開され、AWS Bedrockを使用して動作します。
ソフトウェア
SparkサービスはNexthink Infinity内で動作します。 エージェンティックな推論ワークフローのためにAWS Bedrock LLM APIを使用します。
SparkはサードパーティのITSMソリューションとのAPIベースの統合を活用するか、AIエージェントによる効率的な検索を目的として手動でアップロードされたファイルがインデックス化されます。
Nexthink Sparkは、Meta CodeLlamaやAnthropic Claudeを含む既製のLLMと微調整されたLLMを使用します。
[セキュリティ]
Nexthinkは、データを送信中と保存中の両方でHTTPSとAES-256暗号化を使用してデータを保護します。 Nexthinkが標準的な暗号化方法を使用することで、不正アクセスの防止し、AI機能によるデータの保護を行っています。 Nexthinkの情報セキュリティへの取り組みをよりよく理解するために、Nexthink セキュリティポータルを訪問してください。
Nexthinkによるデータ処理と保持は顧客の地域内に留まり、地域間の転送はありません。
警告と推奨事項
リスク管理
幻覚とバイアス伝播
モデルの幻覚とバイアスは、Nexthinkによって継続的なパフォーマンスモニタリングと定期的なモデルアップデートを通じて軽減されます。 レスポンスを作成する際に使用された情報源は、その正確性を確認したいユーザーに提供されます。
個人データの取り扱い
DPAの下で管理され、処理は顧客の地域に限定され、ユーザーに特化して行われます。 Sparkは他の組織からのデータを提供することはありません。 Nexthinkはデータを最長6か月間保持します。
出力の不正確さ
Nexthinkは、システムの特定のコンポーネントに合わせてカスタマイズされた精度、再現率、独自の内部メトリックを含むパフォーマンスメトリックのセットを採用しています。 テストデータセットは、モデルの更新を検証し、AIシステムの精度と信頼性が会社の基準に合致していることを確認するために使用されます。 さらに、モデルのパフォーマンスを継続的に監視することで、Nexthinkは潜在的な問題にプロアクティブに対処し、時間と共に誤差を減らし、応答の質を向上させることができます。 また、Nexthink Sparkでは、スーパーバイザーがSparkの会話ログを評価し、誤りを特定しモデルのパフォーマンスを向上させるためにフィードバックを提供し、そのフィードバックは強化学習サイクルで適用されます。 このフィードバックメカニズムにより、NexthinkはAIモデルの出力の精度と有効性を継続的に向上させることができます。 それでも、AIは日々進化していますが、まだ誤りを犯すことがあります。 これは、AIの機能はエンドユーザーのExperienceを向上させるために存在するが、それでも提供された出力を注意深く見直し、正確さを確認する必要があることを意味しています。 顧客は、従業員にSparkを利用可能にする場合、Sparkエージェントの会話をホストするフロントエンドに適した方法で、不正確さのリスクを伝えることが求められます。
許可されていないアクセスまたは誤用
管理者は役割ベースのアクセス制御(RBAC)を通じて、ITユーザー向けのNexthink Spark機能へのアクセスを制御します。 このRBACメカニズムは、特定のユーザーまたはグループがAI機能にアクセスまたは利用することを可能にし、他を制限することで、組織内での機能の可用性を維持します。 従業員がSparkにアクセスするのは、Teams Admin Consoleや他のソリューションで利用可能な類似機能など、従業員向けインターフェースに統合したアクセス制御メカニズムを通じて管理者が制御します。
ITSMデータの品質と知識記事への依存
Sparkの知識を正確に保つためには、知識ベースの記事とインシデント履歴の定期的な同期を推奨します。 使用されている知識の改善を特定するために、会話の定期的なレビューが不可欠です。
自動化への過剰依存
Sparkは、管理者がユーザーの同意なしにアクションを実行することを明示的に許可した場合を除き、解決行動の前に常にユーザーの承認を必要とします。 チケットがエスカレートするのは、Sparkが他のオプションをすべて使い果たし、従業員から明確な意図を識別した場合のみです。
倫理的考慮
Nexthinkは、国内および国際的なAIガイドラインとベストプラクティスに従い、責任ある倫理的なAI開発を強調しています。 EUのAI法に準拠して、Nexthinkは包括的なAIコンプライアンスフレームワークを開発しました。 各AIコンポーネントは、法務、プライバシー、セキュリティの専門家などで構成される専任のAIコンプライアンスチームによってレビューされています。
透明性は基本です:従業員はAIと対話していることを知らされるべきです。 監督者によるスパークの出力のレビューが求められ、品質、アカウンタビリティ、公平性が保証されます。 Nexthinkは、過剰な自動化への依存を防ぐため、厳格な管理と継続的な監視を実施し、倫理的なスパークの使用を保証しています。
AIの限界
Nexthink Sparkはサポートと問題解決を迅速化する上でとても役立ちますが、その限界を認識することが重要です。 AIシステムは進化を続けており、時にはエラー、不整合、または期待された結果とは異なる出力を生成することがあります。
これらのリスクを軽減するために、顧客は以下をすべきです:
AI出力をクロスチェックする: AI生成の結果を信頼できる情報源または内部ベンチマークと照合する。
人間の監督を導入する: AIを支援ツールとして使用し、意思決定の権限を持たないようにし、重要な出力は資格のある個人によるレビューを行う。
会話に対してフィードバックを提供し、正しい結果を強化し、精度を向上させる。 不正確さが特定された場合、それらをAIプロバイダー(該当する場合)と共有し、モデルの改善に貢献する。
FAQ
Last updated
Was this helpful?