主な推奨事項には、内部ポリシーの設定、データ保護担当者の関与、認証の確保、個人データの入力および出力の回避、オプトアウトオプションの提供、法的決定における人間の関与の確保、進化する規制(特に今後施行されるEUのAI規制)の監視が含まれます。
ChatGPT、Luminous、Bardなどの生成AI、特にチャットボットの登場は、コンテンツ作成の効率的な手段を提供します。これらのツールは多くの組織で欠かせない存在となっていますが、その利用に関する明確なガイドラインが欠けていることが多いです。クラウド環境での大規模言語モデル(LLM)の運用は、重大なデータ保護リスクを伴います。共有クラウドベースのLLMでは、入力データがモデルのさらなるトレーニングに使用される可能性があり、企業秘密や個人データが漏洩するリスクがあります。以下のチェックリストは、企業がチャットボットのデータ保護に適合した利用を確保するためのガイドとして役立ちます。
さらに、技術の進歩や言語モデルの更新に対応するため、継続的なレビューが不可欠です。また、データ保護当局が既存の言語モデルの合法性をテストケースで検証していることを考慮してください。