スパーク - AI モデルカード

このページは、Nexthink Spark AIの設計、データの使用、制限、およびコンプライアンスの安全策を探ります。

モデルの詳細

説明

Nexthink Sparkは、ITサポートを変革するように設計された知的な、エージェント型AIです。 MS Teamsやその他のチャットボットソリューションなど、サードパーティのエンタープライズチャットに組み込まれているSparkは、GenAIモデルを使用してITの問題や質問に対処するための会話型インターフェイスです。これらは、顧客の地域内のNexthink AWS環境で運用されています。

Sparkは、さまざまな知識ベース (知識記事、過去のチケットの洞察、Nexthinkの自動化カタログ) と、対象デバイスに関するコンテキストデータ (Nexthink Infinity プラットフォームのユーザーおよびデバイスデータ) を活用して、ユーザーの質問を理解し、トラブルシューティングで支援し、従業員への手動ステップや自動化としての修正提案を行います。 Sparkは、対応できない問題をサービスデスクチームにエスカレーションし、社員の代わりにインシデントのコンテキストを含むチケットを発行することも可能です。 Nexthink Sparkは単なる利便性機能であり、その使用はオプションです。

Sparkは、ユーザーが自然言語で提出したクエリーに応答するために、組織がNexthinkに指示したデバイスの健康監視のためのデータを使用します。 Sparkは、サードパーティデータを取得しリンクするアクションも実行でき、これはNexthink Infinityに保存されない一時データです。

Nexthinkに関する詳細情報はFAQドキュメントを、Nexthink Sparkの詳細はスパークの開始方法ドキュメントを参照してください。

入力と出力

入力

  • ユーザーがNexthink Sparkに提出する自然言語クエリは、Sparkが統合されているチャネル (Microsoft Teams、APIを介したサードパーティ統合など) を通じて行われます。

  • リクエストを処理している間に取得するシステムデータ。 これには、NQLクエリを介してユーザーやそのデバイスに関するNexthinkデータ、関連する知識記事、過去のチケット決議、過去の会話のフィードバック、Nexthink構成オブジェクト (例: リモートアクション、ワークフロー、エージェントアクション) などが含まれます。

  • 会話の中で実行される診断や修復の自動化--リモートアクション、エージェントアクション、ワークフローなど--の実行結果。

出力

  • AIモデルによって生成される応答には、エンドユーザーへのメッセージ、自動修復の実行提案、手動アクションの指示が含まれます。 回答は内部のナレッジベース記事を参照するか、またAIモデルの基礎的知識を使用して生成されます。

  • ITサービスデスクエージェントへの豊富な文脈でエスカレートされたチケット。

  • 監督者によるレビューと強化学習を実現するための推論の詳細。

意図された使い方

主要な意図されたユーザー

  • 企業の既存のチャネルを通じてSparkと対話する社員。

  • サービスデスクのエージェントは、Sparkエージェントによってエスカレーションされるとき、強化されコンテキスト豊富なチケットから恩恵を受けることができます。

  • サービスデスクのスーパーバイザーは、Sparkと従業員の会話に対する見通しを向上させることができ、Sparkによって提供される価値を測定し改善するための解決パフォーマンス指標を得ることができます。

範囲外の使用事例

ユーザーがITや職場サポートの範囲外の質問を入力した場合、Nexthink Sparkは会話を停止し、それがサポートされていないトピックであることをユーザーに通知します。 これにより、不適切なトピックを特定し、AIの回答を関連するITまたは職場関連の問い合わせに限定します。

さらに、Sparkは、従業員自身のユーザーとデバイスに関する情報のみを提供し、他のデバイスやデータに関する照会を拒否します。


モデルデータ

データフロー

スパークは、サードパーティとの統合、Nexthink Infinity、およびAWS Bedrockを組み合わせた定義されたシーケンスを通じて、従業員のサポートリクエストを処理します。 Sparkは接続されたITSMツールやナレッジリポジトリを駆使して、ユーザーの問い合わせに関連する知識でモデルを補完します。 Sparkはまた、目標デバイスに関するNexthinkのデータにアクセスします。

  1. 従業員は会話を開始し、_助けて、私のラップトップが遅いです_といったメッセージを、Sparkが統合されたフロントエンドチャネルを通じて送信します。 使用しているデバイスとユーザーは、会話開始時にセキュアなアクセス トークンを使用して安全に特定されます。

  2. Spark AIエージェントは、従業員のメッセージと現在の会話履歴に基づいて、以下のうちの1つ以上のアクションを実行することがあります。

    • SparkのLLMは、利用可能なツールを選択し、以下の方法でさらに情報を収集することがあります。

      • NQLクエリを通じて、Nexthink Infinity プラットフォーム内で、現在のユーザーとそのデバイスに限定してデバイスとユーザーデータを取得し、コンテキスト情報を収集します。

      • Sparkエージェントに提供される記事群の中から、関連する知識記事を検索します。

      • Sparkエージェントに利用可能な関連アクション (エージェントアクション、リモートアクション、ワークフローなど) を検索します。

    • 収集した情報に基づき、Spark LLMモデルは以下を実行できます:

      • 従業員へのメッセージ生成—質問、フォローすべき手順、進捗状況の更新メッセージなど。

      • 管理者が従業員の同意を要するものとしてフラグを立てたアクション(例:影響のある修復)を実行するようユーザーに提供します。 この場合、アクションの影響は、そのアクションの設定に基づいてユーザーに示されます。 はいと明確に応じたユーザーによって確認された後、アクションが実行されます。

      • ユーザーの同意を必要としないとフラグを立てられたアクション (例:可視的影響のない診断アクション) を自動実行します。

      • 従業員の同意確認後にチケットをサポートチームにエスカレートすることを決定します。 システムは、問題と試行された解決策の要約を含むコンテキストで、チケットの説明を生成します。

      • 従業員の初期の問題が解決されたと判断された場合に、会話を終了することを決定します。

    • 上記のプロセスは、従業員の入力が必要になるまで繰り返されます。

    • Sparkエージェントは、スーパーバイザーによるレビューのために内部の推論とプロセスをログに記録することがありますが、これらの情報は従業員と共有されません。

  3. スーパーバイザーが相互作用をレビューし、品質をチェックしてフィードバックを提供します。 このフィードバックループは、従業員からの会話を処理する際にのみSparkエージェントに提供され、Sparkの理解とパフォーマンスを継続的に向上させます。

推論相互作用—SparkのLLM入力と出力の両方を含む—は、セーフティとプライバシーチェックを適用するためにAWS Bedrock Guardrailsのレイヤーを通過します。

  • 6つのカテゴリーにわたる有害なコンテンツ (ヘイト、侮辱、性的、暴力、不正行為、プロンプト攻撃) をフィルター処理します。

  • プロンプト攻撃を検出しブロックします。

評価データ

Nexthinkは、システムの特定のコンポーネントに合わせた独自の社内メトリクスを含む一連のパフォーマンス指標を使用しています。 テストデータセットは、モデルの更新を検証し、AIシステムの精度と信頼性が企業標準に合致していることを保証します。 さらに、モデルパフォーマンスの継続的な監視によって、Nexthinkは潜在的な問題を事前に解決し、エラーを減らし、応答の質を時間とともに向上させます。 このフィードバックメカニズムにより、NexthinkはAIモデルのアウトプットの精度と効果を継続的に洗練することができます。 システムは、解決成功率やエスカレーション頻度などのメトリクスをトラッキングし、Sparkの有効性を測定します。

人間による監視は依然として不可欠であるため、顧客はAIが生成した結果をレビューし、提供された情報に基づいて行動する前に自身の専門知識と判断を適用する必要があります。

顧客はローカルに統合されたツールでSparkを使用する際に、AI生成コンテンツに関する警告を表示することを確保するべきです。

トレーニングデータ

Sparkは主にAWS Bedrockを通じて提供される既製の大規模言語モデルを使用します。 これらのモデルは、Nexthinkが顧客を対象にトレーニングしたものではありません。 顧客固有のコンテキスト(ナレッジベース記事、過去のチケット解決データ、監督者のフィードバックなど) は、Sparkを通じて利用可能になり、顧客固有のデータで会話コンテキストを豊かにします。

データは顧客間で共有されず、スパークは顧客とのインタラクションからグローバルトレーニングセットを構築しません。

データの前処理

NQLクエリ生成中、システムはクエリ内の個人データフィールドを自動的に削除します。 これらのクリーンなクエリは注釈を付けられ、継続的にモデルを改善するために使用される可能性があります。

ServiceNow KBとチケットは、効率的な検索を可能にするためにインデックス化されています。

実装情報

ハードウェア

モデルはAWSのインフラストラクチャ内で、顧客の地理的地域を対象に展開され、AWS Bedrockを使用して動作します。

ソフトウェア

SparkサービスはNexthink Infinity内で動作します。 エージェンティックな推論ワークフローのためにAWS Bedrock LLM APIを使用します。

Sparkは、サードパーティのITSMソリューションとのAPIベースの統合や、AIエージェントによる効率的な情報取得のためにインデックス化されるファイルの手動アップロードを活用します。

Nexthink Sparkは、市販のLLM (Meta Code LlamaおよびAnthropicによるClaudeなど) を使用します。

[セキュリティ]

Nexthinkは、データを送信中と保存中の両方でHTTPSとAES-256暗号化を使用してデータを保護します。 Nexthinkは、AI機能によるデータ処理を保護し、不正アクセスを防ぐため、業界のベストプラクティスに準拠した標準暗号化方法を使用しています。 Nexthinkが情報セキュリティにどのように取り組んでいるかについては、Nexthink セキュリティポータルをご覧ください。

データ処理と保持は—Nexthinkによって—顧客の地域内に留まり、クロス地域転送はありません。

警告と推奨事項

リスク管理

リスク
軽減策

幻覚とバイアス伝播

モデルの幻覚とバイアスは、Nexthinkによって継続的なパフォーマンスモニタリングと定期的なモデルアップデートを通じて軽減されます。 応答の正確性を確認したいユーザーには、応答作成に使用されたソースが提供されます。

個人データの取り扱い

DPAの下で管理され、処理は顧客の地域に限定され、ユーザーに特化して行われます。 Sparkは他の組織からのデータを提供することはありません。 Nexthinkはデータを最長6か月間保持します。

出力の不正確さ

Nexthinkは、システムの特定のコンポーネントに合わせた独自の社内メトリクスを含む一連のパフォーマンス指標を使用しています。 テストデータセットは、モデルの更新を検証し、AIシステムの精度と信頼性が企業標準に合致していることを保証します。 さらに、モデルのパフォーマンスを継続的に監視することで、Nexthinkは潜在的な問題にプロアクティブに対処し、時間と共に誤差を減らし、応答の質を向上させることができます。 また、Nexthink Sparkでは、スーパーバイザーがSparkの会話ログを評価し、誤りを特定しモデルのパフォーマンスを向上させるためにフィードバックを提供し、そのフィードバックは強化学習サイクルで適用されます。 このフィードバックメカニズムにより、NexthinkはAIモデルの出力の精度と有効性を継続的に向上させることができます。 それでも、AIが日々進化しているとはいえ、まだミスを犯します。 これは、AIの機能はエンドユーザーのExperienceを向上させるために存在するが、それでも提供された出力を注意深く見直し、正確さを確認する必要があることを意味しています。 顧客は、Sparkを利用可能にする従業員に、適切にフロントエンドでSparkエージェントの会話をホストする方法で不正確性のリスクを伝える必要があります。

許可されていないアクセスまたは誤用

管理者は役割ベースのアクセス制御(RBAC)を通じて、ITユーザー向けのNexthink Spark機能へのアクセスを制御します。 このRBACメカニズムは、特定のユーザーまたはグループがAI機能にアクセスまたは利用することを可能にし、他を制限することで、組織内での機能の可用性を維持します。 従業員によるSparkへのアクセスは、統合された従業員向けインターフェイスを介して利用可能なアクセス制御メカニズムで管理者によって制御されます—たとえば、Teams管理コンソールや他のソリューションで利用可能な類似の機能などです。

ITSMデータの品質と知識記事への依存

Sparkの知識を正確に保つためには、知識ベースの記事とインシデント履歴の定期的な同期を推奨します。 知識の改善が必要な領域を特定するため、会話の定期的なレビューを行うことが不可欠です。

自動化への過剰依存

Sparkは、顧客が明示的にユーザーの同意なしにアクションを実行できるように設定しない限り、問題解決の行動を取る前に常にユーザーの承認を要求します。 Sparkが他の選択肢を使い果たし、従業員からの明確な意図が特定された場合にのみ、チケットがエスカレートされます。

倫理的考慮

Nexthinkは、国内および国際的なAIガイドラインとベストプラクティスに従い、責任ある倫理的なAI開発を強調しています。 EUのAI法に準拠して、Nexthinkは包括的なAIコンプライアンスフレームワークを開発しました。 各AIコンポーネントは、法務、プライバシー、セキュリティの専門家などで構成される専任のAIコンプライアンスチームによってレビューされています。

透明性は基本です:従業員はAIと対話していることを知らされるべきです。 品質、説明責任、公平性を確保するためにSupervisorの監視が必要です。 Nexthinkは、過剰な自動化への依存を防ぐため、厳格な管理と継続的な監視を実施し、倫理的なスパークの使用を保証しています。

AIの限界

Nexthink Sparkはサポートと問題解決を迅速化する上でとても役立ちますが、その限界を認識することが重要です。 AIシステムは進化を続けており、時にはエラー、不整合、または期待された結果とは異なる出力を生成することがあります。

これらのリスクを軽減するために、顧客は以下をすべきです:

  • AI生成の結果を信頼できる情報源または社内ベンチマークと照合して再確認します。

  • AIを支持ツールとして使用し、意思決定権限ではなく、重要な出力が資格のある個人によってレビューされることを保証します。

  • 正確な結果を強化し、精度を向上させるために会話にフィードバックを与えます。 不正確さが特定された場合、それらをAIプロバイダー(該当する場合)と共有し、モデルの改善に貢献する。

顧客は、Sparkの制約と、上記のリスク管理と軽減策を最適に遵守する方法を従業員に明確に伝えるべきです。

さらに、Sparkを使用するローカル統合ツールでA生成コンテンツの警告を表示することを顧客は確保すべきです。

FAQ

Nexthink Sparkはどのように人工知能を活用していますか?

Nexthink Sparkの導入前は、従業員は従来のITサービスデスクチャネルに頼るしかありませんでした。 リクエストは主にチャット、通話、メールやチケットを通じて手動でルーティングされており、エージェントは問題解決のために知識ベースまたは修復スクリプトを自ら検索する必要がありました。

Nexthink Sparkは従業員により多くの便益とより良いエクスペリエンスを提供します。 たとえば、従業員がITサポートを必要とする場合、MS Teams、ServiceNow Virtual Agent、Moveworks、Amazon Connect、またはその他のサポートされているチャネルを通じて、自然に質問をすることができます。

従業員がリクエストを上げると、そのメッセージはAWSホステッドAIモデルに送信され、顧客のNexthinkインスタンスと同じ地理的地域内で安全に運用されます。 AWSホステッドAIモデルはリクエストを解釈し、知識記事、チケット歴史、およびNexthinkの修復オプションを取得し、解決策を提案するか、完全なコンテキストでサービスデスクエージェントにケースをエスカレートします。

SparkはITや職場サポートに関連しないリクエストにどのように応答しますか?

Sparkは、ITや職場のサポートの範囲内でのリクエストを処理します。 これには、インシデントの解決、修復の適用、ITSMツールからの情報の取得、接続された知識リポジトリからの質問への回答が含まれます。 Sparkはこれらの領域外のアクションを実行せず、ITサービス管理や職場知識に関連しないリクエストに応答することはできません。

Sparkは自動で決定を行いますか?

Nexthink Sparkが従業員の入力に基づいて解決策と行動を提案する一方で、従業員は最終決定をする力を持っており、監視を可能にし意図しない自動化された行動を防ぎます。 この設計により、ユーザーは意思決定を自分で管理し、AIが自律システムではなく支援ツールとして機能することが保証されています。

同様に、Nexthinkから、顧客はSparkが問題解決に使用できるリモートまたはエージェントアクションを精査し、選択します。

Sparkと対話していることをどのように識別できますか?

Nexthink提供のMicrosoft Teamsアプリケーションを通じてSparkを利用する際、いかなるやりとりも、Sparkの名前とアイコンがサポートされたチャネルで明示されています。 Sparkは専用のチャットエージェントとして表示され、AI駆動のサポートとやりとりしていることをユーザーに透明にします。

API統合を通じてSparkがサードパーティソリューションと統合されている場合、顧客は従業員に対し、彼らがSparkとやりとりしていることを明確にし、関連するAI情報を伝達する方法を実施する責任があります。

AWS Bedrockは個人データおよび個人特定情報(PII)を処理しますか?

Nexthinkは顧客データを保護することに完全にコミットしています。 AWS上でホスティングされているAI機能を使用する際、すべての処理は、顧客のNexthink展開と調整されたAWS地域内で行われます。

顧客データや個人データは、プロバイダーのAIツール(例:AnthropicやMeta)と共有されることも、そのホスティング対象となることもありません。 NexthinkもAWSも顧客データや個人データをモデルのトレーニング目的で使用することはありません。

AWS Bedrockはそのモデルをトレーニングするためにユーザーデータを活用できますか?

いいえ、AWS BedrockはAPIおよび/または統合を介して顧客が提出したデータを使用してモデルをトレーニングまたは改善することはできませんし、しません。

AWS Bedrockはどこでデータを処理しますか?

すべてのデータ処理はNexthink AWS環境内で完全に行われます。

Nexthinkはユーザーのトレーニングをどのように保証しますか?

Nexthink Sparkを使用するには特定のトレーニングは必要なく、自己説明的です。 Nexthinkはドキュメンテーションポータルを通じてNexthink Sparkに関するドキュメントを提供します。 顧客は、従業員がSparkの目的および関連AIリスクについて訓練されていることを確保する責任を負います。

NexthinkはSparkユーザーにこのAI機能の変更についてどのように通知しますか?

大きな変更やユーザーエクスペリエンスに影響を与える可能性のある変更については、新着情報 通知、メール通信、ドキュメントの更新を通じてNexthinkユーザーに通知されます。

最後に、AI機能で使用される新しいサブプロセッサの計画的導入に関して、顧客への通知はメールで迅速に行われます。

Last updated

Was this helpful?