スパーク - AI モデルカード
この技術プレビューは、お客様の評価とフィードバックのために無料で提供されていますが、一般提供時にプレビューの機能は追加費用やライセンスの対象となる場合があります。 そのため、技術プレビュー、ドキュメント、および更新は、限定された評価のためだけに、そして「現状のまま」および「利用可能な状態のまま」で無保証で提供されます。
このページは、Nexthink Spark AIの設計、データの使用、制限、およびコンプライアンスの安全策を探ります。
モデルの詳細
説明
Nexthink Sparkは、ITサポートを変革するように設計された知的な、エージェント型AIです。 MS Teamsやその他のチャットボットソリューションなど、サードパーティのエンタープライズチャットに組み込まれているSparkは、GenAIモデルを使用してITの問題や質問に対処するための会話型インターフェイスです。これらは、顧客の地域内のNexthink AWS環境で運用されています。
Sparkは、さまざまな知識ベース (知識記事、過去のチケットの洞察、Nexthinkの自動化カタログ) と、対象デバイスに関するコンテキストデータ (Nexthink Infinity プラットフォームのユーザーおよびデバイスデータ) を活用して、ユーザーの質問を理解し、トラブルシューティングで支援し、従業員への手動ステップや自動化としての修正提案を行います。 Sparkは、対応できない問題をサービスデスクチームにエスカレーションし、社員の代わりにインシデントのコンテキストを含むチケットを発行することも可能です。 Nexthink Sparkは単なる利便性機能であり、その使用はオプションです。
Sparkは、ユーザーが自然言語で提出したクエリーに応答するために、組織がNexthinkに指示したデバイスの健康監視のためのデータを使用します。 Sparkは、サードパーティデータを取得しリンクするアクションも実行でき、これはNexthink Infinityに保存されない一時データです。
Nexthinkに関する詳細情報はFAQドキュメントを、Nexthink Sparkの詳細はスパークの開始方法ドキュメントを参照してください。
入力と出力
入力
ユーザーがNexthink Sparkに提出する自然言語クエリは、Sparkが統合されているチャネル (Microsoft Teams、APIを介したサードパーティ統合など) を通じて行われます。
リクエストを処理している間に取得するシステムデータ。 これには、NQLクエリを介してユーザーやそのデバイスに関するNexthinkデータ、関連する知識記事、過去のチケット決議、過去の会話のフィードバック、Nexthink構成オブジェクト (例: リモートアクション、ワークフロー、エージェントアクション) などが含まれます。
会話の中で実行される診断や修復の自動化--リモートアクション、エージェントアクション、ワークフローなど--の実行結果。
出力
AIモデルによって生成される応答には、エンドユーザーへのメッセージ、自動修復の実行提案、手動アクションの指示が含まれます。 回答は内部のナレッジベース記事を参照するか、またAIモデルの基礎的知識を使用して生成されます。
ITサービスデスクエージェントへの豊富な文脈でエスカレートされたチケット。
監督者によるレビューと強化学習を実現するための推論の詳細。
意図された使い方
主要な意図されたユーザー
企業の既存のチャネルを通じてSparkと対話する社員。
サービスデスクのエージェントは、Sparkエージェントによってエスカレーションされるとき、強化されコンテキスト豊富なチケットから恩恵を受けることができます。
サービスデスクのスーパーバイザーは、Sparkと従業員の会話に対する見通しを向上させることができ、Sparkによって提供される価値を測定し改善するための解決パフォーマンス指標を得ることができます。
範囲外の使用事例
ユーザーがITや職場サポートの範囲外の質問を入力した場合、Nexthink Sparkは会話を停止し、それがサポートされていないトピックであることをユーザーに通知します。 これにより、不適切なトピックを特定し、AIの回答を関連するITまたは職場関連の問い合わせに限定します。
さらに、Sparkは、従業員自身のユーザーとデバイスに関する情報のみを提供し、他のデバイスやデータに関する照会を拒否します。
モデルデータ
データフロー
スパークは、サードパーティとの統合、Nexthink Infinity、およびAWS Bedrockを組み合わせた定義されたシーケンスを通じて、従業員のサポートリクエストを処理します。 Sparkは接続されたITSMツールやナレッジリポジトリを駆使して、ユーザーの問い合わせに関連する知識でモデルを補完します。 Sparkはまた、目標デバイスに関するNexthinkのデータにアクセスします。
従業員は会話を開始し、_助けて、私のラップトップが遅いです_といったメッセージを、Sparkが統合されたフロントエンドチャネルを通じて送信します。 使用しているデバイスとユーザーは、会話開始時にセキュアなアクセス トークンを使用して安全に特定されます。
Spark AIエージェントは、従業員のメッセージと現在の会話履歴に基づいて、以下のうちの1つ以上のアクションを実行することがあります。
SparkのLLMは、利用可能なツールを選択し、以下の方法でさらに情報を収集することがあります。
NQLクエリを通じて、Nexthink Infinity プラットフォーム内で、現在のユーザーとそのデバイスに限定してデバイスとユーザーデータを取得し、コンテキスト情報を収集します。
Sparkエージェントに提供される記事群の中から、関連する知識記事を検索します。
Sparkエージェントに利用可能な関連アクション (エージェントアクション、リモートアクション、ワークフローなど) を検索します。
収集した情報に基づき、Spark LLMモデルは以下を実行できます:
従業員へのメッセージ生成—質問、フォローすべき手順、進捗状況の更新メッセージなど。
管理者が従業員の同意を要するものとしてフラグを立てたアクション(例:影響のある修復)を実行するようユーザーに提供します。 この場合、アクションの影響は、そのアクションの設定に基づいてユーザーに示されます。 はいと明確に応じたユーザーによって確認された後、アクションが実行されます。
ユーザーの同意を必要としないとフラグを立てられたアクション (例:可視的影響のない診断アクション) を自動実行します。
従業員の同意確認後にチケットをサポートチームにエスカレートすることを決定します。 システムは、問題と試行された解決策の要約を含むコンテキストで、チケットの説明を生成します。
従業員の初期の問題が解決されたと判断された場合に、会話を終了することを決定します。
上記のプロセスは、従業員の入力が必要になるまで繰り返されます。
Sparkエージェントは、スーパーバイザーによるレビューのために内部の推論とプロセスをログに記録することがありますが、これらの情報は従業員と共有されません。
スーパーバイザーが相互作用をレビューし、品質をチェックしてフィードバックを提供します。 このフィードバックループは、従業員からの会話を処理する際にのみSparkエージェントに提供され、Sparkの理解とパフォーマンスを継続的に向上させます。
評価データ
Nexthinkは、システムの特定のコンポーネントに合わせた独自の社内メトリクスを含む一連のパフォーマンス指標を使用しています。 テストデータセットは、モデルの更新を検証し、AIシステムの精度と信頼性が企業標準に合致していることを保証します。 さらに、モデルパフォーマンスの継続的な監視によって、Nexthinkは潜在的な問題を事前に解決し、エラーを減らし、応答の質を時間とともに向上させます。 このフィードバックメカニズムにより、NexthinkはAIモデルのアウトプットの精度と効果を継続的に洗練することができます。 システムは、解決成功率やエスカレーション頻度などのメトリクスをトラッキングし、Sparkの有効性を測定します。
トレーニングデータ
Sparkは主にAWS Bedrockを通じて提供される既製の大規模言語モデルを使用します。 これらのモデルは、Nexthinkが顧客を対象にトレーニングしたものではありません。 顧客固有のコンテキスト(ナレッジベース記事、過去のチケット解決データ、監督者のフィードバックなど) は、Sparkを通じて利用可能になり、顧客固有のデータで会話コンテキストを豊かにします。
データは顧客間で共有されず、スパークは顧客とのインタラクションからグローバルトレーニングセットを構築しません。
データの前処理
NQLクエリ生成中、システムはクエリ内の個人データフィールドを自動的に削除します。 これらのクリーンなクエリは注釈を付けられ、継続的にモデルを改善するために使用される可能性があります。
ServiceNow KBとチケットは、効率的な検索を可能にするためにインデックス化されています。
実装情報
ハードウェア
モデルはAWSのインフラストラクチャ内で、顧客の地理的地域を対象に展開され、AWS Bedrockを使用して動作します。
ソフトウェア
SparkサービスはNexthink Infinity内で動作します。 エージェンティックな推論ワークフローのためにAWS Bedrock LLM APIを使用します。
Sparkは、サードパーティのITSMソリューションとのAPIベースの統合や、AIエージェントによる効率的な情報取得のためにインデックス化されるファイルの手動アップロードを活用します。
Nexthink Sparkは、市販のLLM (Meta Code LlamaおよびAnthropicによるClaudeなど) を使用します。
[セキュリティ]
Nexthinkは、データを送信中と保存中の両方でHTTPSとAES-256暗号化を使用してデータを保護します。 Nexthinkは、AI機能によるデータ処理を保護し、不正アクセスを防ぐため、業界のベストプラクティスに準拠した標準暗号化方法を使用しています。 Nexthinkが情報セキュリティにどのように取り組んでいるかについては、Nexthink セキュリティポータルをご覧ください。
データ処理と保持は—Nexthinkによって—顧客の地域内に留まり、クロス地域転送はありません。
警告と推奨事項
リスク管理
幻覚とバイアス伝播
モデルの幻覚とバイアスは、Nexthinkによって継続的なパフォーマンスモニタリングと定期的なモデルアップデートを通じて軽減されます。 応答の正確性を確認したいユーザーには、応答作成に使用されたソースが提供されます。
個人データの取り扱い
DPAの下で管理され、処理は顧客の地域に限定され、ユーザーに特化して行われます。 Sparkは他の組織からのデータを提供することはありません。 Nexthinkはデータを最長6か月間保持します。
出力の不正確さ
Nexthinkは、システムの特定のコンポーネントに合わせた独自の社内メトリクスを含む一連のパフォーマンス指標を使用しています。 テストデータセットは、モデルの更新を検証し、AIシステムの精度と信頼性が企業標準に合致していることを保証します。 さらに、モデルのパフォーマンスを継続的に監視することで、Nexthinkは潜在的な問題にプロアクティブに対処し、時間と共に誤差を減らし、応答の質を向上させることができます。 また、Nexthink Sparkでは、スーパーバイザーがSparkの会話ログを評価し、誤りを特定しモデルのパフォーマンスを向上させるためにフィードバックを提供し、そのフィードバックは強化学習サイクルで適用されます。 このフィードバックメカニズムにより、NexthinkはAIモデルの出力の精度と有効性を継続的に向上させることができます。 それでも、AIが日々進化しているとはいえ、まだミスを犯します。 これは、AIの機能はエンドユーザーのExperienceを向上させるために存在するが、それでも提供された出力を注意深く見直し、正確さを確認する必要があることを意味しています。 顧客は、Sparkを利用可能にする従業員に、適切にフロントエンドでSparkエージェントの会話をホストする方法で不正確性のリスクを伝える必要があります。
許可されていないアクセスまたは誤用
管理者は役割ベースのアクセス制御(RBAC)を通じて、ITユーザー向けのNexthink Spark機能へのアクセスを制御します。 このRBACメカニズムは、特定のユーザーまたはグループがAI機能にアクセスまたは利用することを可能にし、他を制限することで、組織内での機能の可用性を維持します。 従業員によるSparkへのアクセスは、統合された従業員向けインターフェイスを介して利用可能なアクセス制御メカニズムで管理者によって制御されます—たとえば、Teams管理コンソールや他のソリューションで利用可能な類似の機能などです。
ITSMデータの品質と知識記事への依存
Sparkの知識を正確に保つためには、知識ベースの記事とインシデント履歴の定期的な同期を推奨します。 知識の改善が必要な領域を特定するため、会話の定期的なレビューを行うことが不可欠です。
自動化への過剰依存
Sparkは、顧客が明示的にユーザーの同意なしにアクションを実行できるように設定しない限り、問題解決の行動を取る前に常にユーザーの承認を要求します。 Sparkが他の選択肢を使い果たし、従業員からの明確な意図が特定された場合にのみ、チケットがエスカレートされます。
倫理的考慮
Nexthinkは、国内および国際的なAIガイドラインとベストプラクティスに従い、責任ある倫理的なAI開発を強調しています。 EUのAI法に準拠して、Nexthinkは包括的なAIコンプライアンスフレームワークを開発しました。 各AIコンポーネントは、法務、プライバシー、セキュリティの専門家などで構成される専任のAIコンプライアンスチームによってレビューされています。
透明性は基本です:従業員はAIと対話していることを知らされるべきです。 品質、説明責任、公平性を確保するためにSupervisorの監視が必要です。 Nexthinkは、過剰な自動化への依存を防ぐため、厳格な管理と継続的な監視を実施し、倫理的なスパークの使用を保証しています。
AIの限界
Nexthink Sparkはサポートと問題解決を迅速化する上でとても役立ちますが、その限界を認識することが重要です。 AIシステムは進化を続けており、時にはエラー、不整合、または期待された結果とは異なる出力を生成することがあります。
これらのリスクを軽減するために、顧客は以下をすべきです:
AI生成の結果を信頼できる情報源または社内ベンチマークと照合して再確認します。
AIを支持ツールとして使用し、意思決定権限ではなく、重要な出力が資格のある個人によってレビューされることを保証します。
正確な結果を強化し、精度を向上させるために会話にフィードバックを与えます。 不正確さが特定された場合、それらをAIプロバイダー(該当する場合)と共有し、モデルの改善に貢献する。
FAQ
Last updated
Was this helpful?