本方針の目的は、FxScoutsにおける人工知能(AI)ツールの適切な使用に関するガイドラインを定めることです。これにより、生成型AIプログラムやChatGPTを含むAIを効率的かつ安全に利用し、リスクを軽減することを目指します。
本方針は、FxScoutsの全従業員に適用され、会社が提供するすべてのAIツール(生成型AIプログラムやChatGPTなど)を対象としています。
FxScoutsにより認可された者は、AIツールを使用する前に必須のトレーニングを完了する必要があります。このプロセスにより、ツールの機能や限界を十分に理解し、効果的かつ責任を持って使用できるようにします。
許可されていない使用には、未承認の人員による使用、業務範囲を超えた利用、または本方針やその他の会社のガイドラインに反する方法での利用が含まれます。許可されていない使用が疑われる場合、速やかに監督者やITセキュリティチームに報告する必要があります。違反行為は懲戒処分の対象となる場合があります。
AIツールの利用において、会社のデータセキュリティ、知的財産、機密保持は最も重要です。AIツールは入力データに基づいて学習し、コンテンツを生成するため、顧客データ、機密契約、パートナーシップ、プロジェクトの詳細、業務文書、その他の機密情報を入力したり共有したりしないよう注意が必要です。
さらに、データプライバシーに関する法的および倫理的な制限を尊重する必要があります。AIツールに適切かどうか判断がつかない情報がある場合は、法務部門に相談してください。データセキュリティおよび機密保持ガイドラインに違反した場合、懲戒処分の対象となる可能性があります。
AIツールは単独の解決策ではなく、業務を支援するための広範なリソースの一部として使用されるべきです。AIツールは、問題解決や意思決定の伝統的な方法を補完するために使用し、代替するものではありません。
AIツールが提案や計画を生成した場合、それを批判的に評価し、会社のビジネスモデル、戦略、市場環境に基づいて判断する必要があります。
また、同僚との協力を通じて、AIツールの出力を二重に確認し、エラーのリスクを減らすことが奨励されています。
AIツールの出力は適切に検証されるべきです。必要に応じて、他の信頼できる情報源と照らし合わせ、徹底的なテストを行うか、専門家に相談することが必要です。
AIツールを補助的に使用することで、人間の判断力と監督がプロセスに残り、これらのツールの価値を最大化し、リスクを最小限に抑えることができます。
AIツールを使用する際は、これらの技術が持つ固有のリスクを常に認識しておく必要があります。これには、AI生成コンテンツにおける文脈の不足による不正確さや誤解、コンテンツ所有権に関する法的曖昧さ、データプライバシーの侵害が含まれます。そのため、常にAIの出力に対して批判的な視点を持つ必要があります。
リスクを効果的に管理するために、管理者はAI特有のリスク評価をリスク管理手続きに統合する責任があります。これは、AI技術やその応用、外部リスク環境の変化を考慮し、プロトコルを継続的に評価・更新することを意味します。また、定期的なトレーニングやリスクに関する認識を高めるためのセッションが必要です。
第三者のAIプラットフォームを使用する際には、セキュリティ上の脆弱性やデータ侵害の可能性に十分な注意を払う必要があります。第三者のAIツールを使用する前に、適切なセキュリティ認証があるか、ベンダーのデータ処理やプライバシーポリシーを確認し、必要に応じてITやサイバーセキュリティチームに相談してください。
また、第三者プラットフォームと共有するデータは、「データセキュリティと機密保持」セクションのガイドラインに準拠している必要があります。第三者プラットフォームの使用に不安がある場合は、監督者やITセキュリティチームに相談してください。
AIを使用する場合、コンテンツ制作者やプロダクトチームは、AIの導入がそのタスクに適しているかどうかをまず検討する必要があります。
また、AIが外部のサプライヤーから提供されるツールやインターネット上で公開されているツールに組み込まれる場合もあることに注意が必要です。
FxScoutsによるAIのコンテンツ作成、プレゼンテーション、配信の使用は、公正性、正確性、公平性、プライバシーの原則に基づいた編集ガイドラインに従う必要があります。
AIを使用する際には、常に人間の編集による監督と承認が必要であり、その使用方法に応じて編集ガイドラインに従った監督が行われる必要があります。
例えば、レコメンデーションエンジンの監督は、高いレベルで行われ、その出力が編集ガイドラインに一致していることを確認します。しかし、ジャーナリズムプロジェクトのデータ分析にAIが使用される場合、人間の監督は詳細な出力に深く関与する必要があります。
すべてのケースで、AIの使用を監督し、継続的に責任を持つ編集責任者が存在しなければなりません。編集マネージャーもまた、チームによるAIの使用を効果的に管理する責任があります。
FxScoutsによるAIの使用は透明性が必要であり、観客には適切な文脈でAIが使用されたこと、またその使用目的を説明する必要があります。
AIの出力は、アルゴリズムとその学習データの両方によって決まります。これらはAIの結果に偏りや不正確さをもたらす可能性があります。
AIの使用を検討する際には、FxScoutsの運用において偏りが影響を及ぼすかどうかを確認し、それが適切なツールであるかどうかを判断する必要があります。
生成型AIは、アルゴリズムや学習データに基づいて予測される応答を生成しますが、それが必ずしも事実に基づいた正確な内容とは限りません。
生成型AIを使用する場合、事実として提示されるコンテンツが、実際にはアルゴリズムによる「幻覚」や事実に基づかない創作である可能性があることを考慮する必要があります。
同様に、生成型AIはウェブ検索や信頼されたデータベースの内容を適応させ、オリジナルであるかのように提示する場合があります。
AIの使用を検討する際には、オリジナルとされるコンテンツが実際には盗作や模倣である可能性があることを考慮する必要があります。
また、FxScoutsはAIを使用する際、クリエイターやアーティストの権利を尊重し、彼らが創造的コミュニティにおいて果たす役割を危険にさらさないよう配慮する責任があります。AIの使用にあたっては、新しい表現方法の創造的使用を許しつつ、タレントや貢献者の権利を尊重する必要があります。
FxScoutsは、この方針の遵守状況を定期的に監視します。違反が確認された場合、速やかに対応し、是正措置が取られます。
本方針は、技術の進展、ビジネスのニーズ、法的要件に応じて定期的に見直され、更新されます。