Spark - AI モデルカード

このページでは、Nexthink Spark のAI設計、データ使用法、制限、およびコンプライアンスの安全策について詳しく説明します。

モデルの詳細

説明

Nexthink Sparkは、ITサポートを変革するように設計された知的な、エージェント型AIです。 MS Teamsなどのサードパーティエンタープライズチャットや他のチャットボットソリューションに組み込まれたSparkは、会話型インターフェースであり、NexthinkがAWS環境内で運用するGenAIモデルを活用して、社員がITの問題や質問を支援します。

Sparkは、知識ベース記事、過去のチケットのインサイト、Nexthinkオートメーションカタログといったさまざまな知識ソースや、対象デバイスに関するコンテキストデータ(Nexthink InfinityプラットフォームのNexthinkユーザーおよびデバイスデータ)を活用して、ユーザーの質問を理解し、問題解決を支援し、手動で提供する修正案や社員が実行を承認できるオートメーションを提供します。 Sparkは、対応できない問題をサービスデスクチームにエスカレーションし、社員の代わりにインシデントのコンテキストを含むチケットを発行することも可能です。 Nexthink Sparkは単なる利便性機能であり、その使用はオプションです。

Sparkは、ユーザーが自然言語で提出したクエリーに応答するために、組織がNexthinkに指示したデバイスの健康監視のためのデータを使用します。 Sparkは、サードパーティデータを取得しリンクするアクションも実行でき、これはNexthink Infinityに保存されない一時データです。

Nexthinkに関する詳細情報はFAQドキュメントを、Nexthink Sparkの詳細はSpark の始め方ドキュメントを参照してください。

入力と出力

入力

  • ユーザーがNexthink Sparkに送信する自然言語クエリー(Microsoft TeamsやAPI経由のサードパーティ統合のチャンネルを通じて)

  • リクエストを処理している間に取得するシステムデータ。 これには、NQLクエリー経由でのユーザーとそのデバイスに関するNexthinkデータ、関連するナレッジ記事、過去のチケット解決、以前の会話のフィードバック、Nexthinkの設定オブジェクト(例:リモートアクション、ワークフロー、エージェントアクションなど)が含まれることがあります。

  • 診断と修復オートメーション(リモートアクション、エージェントアクション、ワークフローなど)の実行結果 会話の進行中に実行されます

出力

  • AIモデルによって生成される回答には、エンドユーザー向けのメッセージ、自動修復実行の提案、手動アクションの手順が含まれます。 回答は内部のナレッジベース記事を参照するか、またAIモデルの基礎的知識を使用して生成されます。

  • ITサービスデスクエージェントへの豊富な文脈でエスカレートされたチケット。

  • 監督者によるレビューと強化学習を実現するための推論の詳細。

意図された使い方

主要な意図されたユーザー

企業の既存のチャネルを通じてSparkと対話する社員。

サービスデスクのエージェントは、Sparkエージェントによってエスカレーションされる際、コンテキスト豊富なチケットから利益を得ます。

サービスデスクの上司は、Sparkと社員の会話の可視性を高め、解決のパフォーマンス指標を得て、Sparkから提供される価値を測定し改善することができます。

範囲外の使用事例

ユーザーがITや職場サポートの範囲外の質問を入力した場合、Nexthink Sparkは会話を停止し、それがサポートされていないトピックであることをユーザーに通知します。 これにより、不適切なトピックを特定し、AIの回答を関連するITまたは職場関連の問い合わせに限定します。

さらに、Sparkは従業員自身のユーザーとデバイスについての情報のみを提供し、他者のデバイスまたはデータに関する問い合わせを拒否します。


モデルデータ

データフロー

スパークは、サードパーティとの統合、Nexthink Infinity、およびAWS Bedrockを組み合わせた定義されたシーケンスを通じて、従業員のサポートリクエストを処理します。 Sparkは接続されたITSMツールやナレッジリポジトリを駆使して、ユーザーの問い合わせに関連する知識でモデルを補完します。 Sparkはまた、目標デバイスに関するNexthinkのデータにアクセスします。

  1. 従業員が会話を開始し、フロントエンドのチャネルを通して _「助けて、ラップトップが遅い」_のようなメッセージを送信します。 使用しているデバイスとユーザーは、会話開始時にセキュアなアクセス トークンを使用して安全に特定されます。

  2. Spark AIエージェント は、従業員のメッセージおよび現在の会話履歴に基づき、以下のいずれかまたは複数のアクションを実行する場合があります:

    • SparkのLLMは、手元にある関連ツールを選択し、さらに情報を集めることがあります:

      • Nexthink Infinityプラットフォーム内のデバイスとユーザーデータをNQLクエリを通じて取得し、コンテキスト情報を集めます(対象は現在のユーザーとそのデバイスに限られます)。

      • Sparkエージェントに提供された記事の中から関連するKnowledgeの記事を検索する。

      • (エージェントアクション、リモートアクション、ワークフローなど)関連アクションを検索する Sparkエージェントに提供された

    • 収集した情報に基づき、Spark LLMモデルは以下を実行できます:

      • メッセージを従業員に生成する(質問、手順を追う、進捗報告メッセージなど)

      • 管理者が従業員の同意を要すると指示したアクション(影響のある対応など)の実行をユーザーに提供します。 この場合、アクションの影響は、そのアクションの設定に基づいてユーザーに示されます。 ユーザーが明示的な**「はい」**の回答で同意した後、そのアクションは実行されます。

      • 従業員の同意を要しないと指示されたアクション(見た目上影響のない診断アクションなど)を自動的に実行する

      • 従業員の同意確認後にチケットをサポートチームにエスカレートすることを決定します。 システムは、問題と試行された解決策の要約を含むコンテキストで、チケットの説明を生成します。

      • 従業員の最初の問題が解決されたと判断した場合は、会話を終了することを決定します

    • 上記のプロセスは、従業員からの入力が必要になるまで繰り返されます。

    • Sparkエージェントは、内部の推論とプロセスを監督者のレビューのために記録する場合がありますが、この情報は従業員と共有されません。

  3. 監督者は会話を品質のためにレビューし、フィードバックを提供します。 このフィードバックループは、従業員との会話処理時にのみSparkエージェントに利用可能とされ、Sparkの理解と性能を継続的に向上させる強化学習を促進することがあります。

推論のやりとり—SparkのLLM入力と出力を含む—は、AWS Bedrock Guardrailsを通過して、安全性とプライバシーチェックが適用されます:

  • 6つのカテゴリー(憎しみ、侮辱、性的、暴力、不正行為、プロンプト攻撃)で有害コンテンツをフィルタリングします。

  • プロンプト攻撃を検出しブロックします。

評価データ

Nexthinkは、制度の特定のコンポーネントに合わせて、精度、再現率、および自社独自の指標を含むパフォーマンス指標セットを使用しています。 テストデータセットは、AIシステムの精度と信頼性が会社の基準に合致することを保証するために、モデルの更新の検証に使用されます。 さらに、モデルパフォーマンスの継続的な監視によって、Nexthinkは潜在的な問題を事前に解決し、エラーを減らし、応答の質を時間とともに向上させます。 このフィードバックメカニズムにより、NexthinkはAIモデルのアウトプットの精度と効果を継続的に洗練することができます。 システムは解決成功率やエスカレーション頻度などのメトリクスを追跡して、Sparkの有効性を測定します。

人間による監視は依然として不可欠であるため、顧客はAIが生成した結果をレビューし、提供された情報に基づいて行動する前に自身の専門知識と判断を適用する必要があります。

顧客はSparkを使用したローカリー統合されたツールに免責事項を表示し、AI生成コンテンツに関する警告を行う必要があります。

トレーニングデータ

Sparkは主にAWS Bedrockを通じて提供される既製の大規模言語モデルを使用します。 これらのモデルは、Nexthinkが顧客を対象にトレーニングしたものではありません。 顧客固有のコンテキスト(ナレッジベース記事、過去のチケット解決データ、監督者のフィードバックなど) は、Sparkを通じて利用可能になり、顧客固有のデータで会話コンテキストを豊かにします。

データは顧客間で共有されず、スパークは顧客とのインタラクションからグローバルトレーニングセットを構築しません。

データの前処理

NQLクエリ生成中、システムはクエリ内の個人データフィールドを自動的に削除します。 これらのクリーンなクエリは注釈を付けられ、継続的にモデルを改善するために使用される可能性があります。

ServiceNow KBとチケットは、効率的な検索を可能にするためにインデックス化されています。

実装情報

ハードウェア

モデルはAWSのインフラストラクチャ内で、顧客の地理的地域を対象に展開され、AWS Bedrockを使用して動作します。

ソフトウェア

SparkサービスはNexthink Infinity内で動作します。 エージェンティックな推論ワークフローのためにAWS Bedrock LLM APIを使用します。

SparkはサードパーティのITSMソリューションとのAPIベースの統合を活用するか、AIエージェントによる効率的な検索を目的として手動でアップロードされたファイルがインデックス化されます。

Nexthink Sparkは、Meta CodeLlamaやAnthropic Claudeを含む既製のLLMと微調整されたLLMを使用します。

[セキュリティ]

Nexthinkは、データを送信中と保存中の両方でHTTPSとAES-256暗号化を使用してデータを保護します。 Nexthinkが標準的な暗号化方法を使用することで、不正アクセスの防止し、AI機能によるデータの保護を行っています。 Nexthinkの情報セキュリティへの取り組みをよりよく理解するために、Nexthink セキュリティポータルを訪問してください。

Nexthinkによるデータ処理と保持は顧客の地域内に留まり、地域間の転送はありません。

警告と推奨事項

リスク管理

リスク
軽減策

幻覚とバイアス伝播

モデルの幻覚とバイアスは、Nexthinkによって継続的なパフォーマンスモニタリングと定期的なモデルアップデートを通じて軽減されます。 レスポンスを作成する際に使用された情報源は、その正確性を確認したいユーザーに提供されます。

個人データの取り扱い

DPAの下で管理され、処理は顧客の地域に限定され、ユーザーに特化して行われます。 Sparkは他の組織からのデータを提供することはありません。 Nexthinkはデータを最長6か月間保持します。

出力の不正確さ

Nexthinkは、システムの特定のコンポーネントに合わせてカスタマイズされた精度、再現率、独自の内部メトリックを含むパフォーマンスメトリックのセットを採用しています。 テストデータセットは、モデルの更新を検証し、AIシステムの精度と信頼性が会社の基準に合致していることを確認するために使用されます。 さらに、モデルのパフォーマンスを継続的に監視することで、Nexthinkは潜在的な問題にプロアクティブに対処し、時間と共に誤差を減らし、応答の質を向上させることができます。 また、Nexthink Sparkでは、スーパーバイザーがSparkの会話ログを評価し、誤りを特定しモデルのパフォーマンスを向上させるためにフィードバックを提供し、そのフィードバックは強化学習サイクルで適用されます。 このフィードバックメカニズムにより、NexthinkはAIモデルの出力の精度と有効性を継続的に向上させることができます。 それでも、AIは日々進化していますが、まだ誤りを犯すことがあります。 これは、AIの機能はエンドユーザーのExperienceを向上させるために存在するが、それでも提供された出力を注意深く見直し、正確さを確認する必要があることを意味しています。 顧客は、従業員にSparkを利用可能にする場合、Sparkエージェントの会話をホストするフロントエンドに適した方法で、不正確さのリスクを伝えることが求められます。

許可されていないアクセスまたは誤用

管理者は役割ベースのアクセス制御(RBAC)を通じて、ITユーザー向けのNexthink Spark機能へのアクセスを制御します。 このRBACメカニズムは、特定のユーザーまたはグループがAI機能にアクセスまたは利用することを可能にし、他を制限することで、組織内での機能の可用性を維持します。 従業員がSparkにアクセスするのは、Teams Admin Consoleや他のソリューションで利用可能な類似機能など、従業員向けインターフェースに統合したアクセス制御メカニズムを通じて管理者が制御します。

ITSMデータの品質と知識記事への依存

Sparkの知識を正確に保つためには、知識ベースの記事とインシデント履歴の定期的な同期を推奨します。 使用されている知識の改善を特定するために、会話の定期的なレビューが不可欠です。

自動化への過剰依存

Sparkは、管理者がユーザーの同意なしにアクションを実行することを明示的に許可した場合を除き、解決行動の前に常にユーザーの承認を必要とします。 チケットがエスカレートするのは、Sparkが他のオプションをすべて使い果たし、従業員から明確な意図を識別した場合のみです。

倫理的考慮

Nexthinkは、国内および国際的なAIガイドラインとベストプラクティスに従い、責任ある倫理的なAI開発を強調しています。 EUのAI法に準拠して、Nexthinkは包括的なAIコンプライアンスフレームワークを開発しました。 各AIコンポーネントは、法務、プライバシー、セキュリティの専門家などで構成される専任のAIコンプライアンスチームによってレビューされています。

透明性は基本です:従業員はAIと対話していることを知らされるべきです。 監督者によるスパークの出力のレビューが求められ、品質、アカウンタビリティ、公平性が保証されます。 Nexthinkは、過剰な自動化への依存を防ぐため、厳格な管理と継続的な監視を実施し、倫理的なスパークの使用を保証しています。

AIの限界

Nexthink Sparkはサポートと問題解決を迅速化する上でとても役立ちますが、その限界を認識することが重要です。 AIシステムは進化を続けており、時にはエラー、不整合、または期待された結果とは異なる出力を生成することがあります。

これらのリスクを軽減するために、顧客は以下をすべきです:

  • AI出力をクロスチェックする: AI生成の結果を信頼できる情報源または内部ベンチマークと照合する。

  • 人間の監督を導入する: AIを支援ツールとして使用し、意思決定の権限を持たないようにし、重要な出力は資格のある個人によるレビューを行う。

  • 会話に対してフィードバックを提供し、正しい結果を強化し、精度を向上させる。 不正確さが特定された場合、それらをAIプロバイダー(該当する場合)と共有し、モデルの改善に貢献する。

顧客は、Sparkの制限について従業員に明確に伝え、上記のリスク管理および緩和策に従う方法を説明する必要があります。

顧客はまた、AI生成コンテンツに関する警告を表示するために、Sparkを使用したローカルに統合されたツールに免責条項を表示することを保証すべきです。

FAQ

Nexthink Sparkはどのように人工知能を活用していますか?

Nexthink Sparkの導入前は、従業員は従来のITサービスデスクチャネルに頼るしかありませんでした。 リクエストはしばしばチャット、通話、メール、またはチケットを通じて手動でルーティングされ、エージェントは知識ベースや修復スクリプトを自分で検索して問題を解決する必要がありました。

Nexthink Sparkは従業員により多くの便益とより良いエクスペリエンスを提供します。 たとえば、従業員がITサポートを必要とする場合、MS Teams、ServiceNow Virtual Agent、Moveworks、Amazon Connect、またはその他のサポートされているチャネルを通じて、自然に質問をすることができます。

従業員がリクエストを上げると、そのメッセージは、安全な状態で顧客のNexthinkインスタンスと同じ地理的領域内のAWS環境内でホストされているAIモデルに送信されます。 AWSホスティングされたAIモデルは、リクエストを解釈し、知識記事、チケット履歴、およびNexthink修復オプションを取得して、解決策を提案するか、すべてのコンテキストを持った上でケースをサービスデスクエージェントにエスカレートします。

SparkはITや職場サポートに関連しないリクエストにどのように応答しますか?

SparkはITおよび職場サポートの範囲内にあるリクエストを処理できます。 これには、インシデントの解決、修復の適用、ITSMツールからの情報の取得、接続された知識リポジトリからの質問への回答が含まれます。 Sparkはこれらの領域外のアクションを実行せず、ITサービス管理や職場知識に関連しないリクエストに応答することはできません。

Sparkは自動で決定を行いますか?

Nexthink Sparkは従業員の入力に基づいて解決策とアクションを提案しますが、従業員は最終的な決定の権限を保持しており、監督が可能で、意図しない自動アクションを防ぎます。 この設計により、ユーザーは意思決定を自分で管理し、AIが自律システムではなく支援ツールとして機能することが保証されています。

同様に、Nexthinkから、顧客はSparkが問題解決に使用できるリモートまたはエージェントアクションを精査し、選択します。

Sparkと対話していることをどのように識別できますか?

Nexthink提供のMicrosoft Teamsアプリケーションを通じてSparkを利用する際には、サポートされているチャネルにSparkの名前とアイコンで明確に示され、対話が表示されます。 Sparkは専用のチャットエージェントとして表示され、AI駆動のサポートとやりとりしていることをユーザーに透明にします。

SparkがAPI統合を介してサードパーティソリューションと統合されている場合、顧客は、従業員がSparkと対話していることを明確にする方法を実装し、関連するAI情報を伝える責任を負います。

AWS Bedrockは個人データおよび個人特定情報(PII)を処理しますか?

Nexthinkは顧客のデータを保護することに完全にコミットしています。 AWSでホストされているAI機能を利用する場合、すべての処理は顧客のNexthinkデプロイメントと一致するAWSリージョン内で行われます。

いかなる時点でも顧客データも個人データも、AIツールプロバイダー(例:AnthropicまたはMeta)自体と共有されたりホストされたりすることはありません。 NexthinkもAWSも顧客データや個人データをモデルのトレーニング目的で使用することはありません。

AWS Bedrockはそのモデルをトレーニングするためにユーザーデータを活用できますか?

いいえ、AWS BedrockはAPIおよび/または統合を介して顧客が提出したデータを使用してモデルをトレーニングまたは改善することはできませんし、しません。

AWS Bedrockはどこでデータを処理しますか?

すべてのデータ処理はNexthink AWS環境内で完全に行われます。

Nexthinkはユーザーのトレーニングをどのように保証しますか?

Nexthink Sparkを使用するには特定のトレーニングは必要なく、自己説明的です。 Nexthinkはドキュメンテーションポータルを通じてNexthink Sparkに関するドキュメントを提供します。 顧客は、従業員がSparkの目的と関連するAIリスクについて学ぶことを保証する責任を負います。

NexthinkはSparkユーザーにこのAI機能の変更についてどのように通知しますか?

Nexthinkユーザーには、Nexthink Sparkの主要な変更やユーザー体験に影響を与える可能性のある変更について、「What's New」通知やメール連絡、ドキュメントの更新を通じて通知されます。

最後に、新しいサブプロセッサがAI機能によって使用される計画がある場合、顧客は電子メール通信を通じて即座に通知されます。

Last updated

Was this helpful?