セキュリティ・情報管理
Security & Information Management
「セキュリティ・情報管理」は、AI活用を進めるほど重要になるテーマ。社外AIサービスへの機密情報入力リスクを知り、社内専用LLMや入力ルールを整備することが「安全にAIを使う」第一歩です。 #ジェネサプ #AI活用
「セキュリティ・情報管理」とは何か
AIを活用する際のセキュリティ・情報管理とは、AI利用に伴う情報漏洩・不正アクセス・データ悪用などのリスクを把握し、適切な対策を取ることです。
AIツールの普及が急速に進む一方で、「とりあえず使ってみよう」と走り出し、後からセキュリティの問題が発覚するケースが増えています。特に中小企業では、専任のセキュリティ担当がいないことが多く、気づかないうちにリスクを抱えていることがあります。
中小企業が知っておくべきAIセキュリティリスク3つ
① 機密情報の外部送信リスク:ChatGPTなどのクラウドAIに顧客情報・財務データ・未公開情報を入力すると、その内容が学習データに使われたり、サービス事業者のサーバーに保存されるリスクがあります。「入力してよい情報」の社内ルールを先に決めることが重要です。
② シャドーAI(野良AI)のリスク:社員が会社の許可なく個人的にAIツールを使い始める「シャドーAI」は、特にセキュリティリスクが高い状態です。禁止するより「許可するツールを明示して安全に使わせる」アプローチが現実的です。
③ AIが生成した偽情報・なりすましへの対応:フィッシングメールや偽の声明文がAIで高精度に作れるようになっています。社内での本人確認ルールの見直しや、重要な連絡の確認フローの整備が必要です。
中小企業での始め方
最初にやるべきは「AI利用ポリシーをA4一枚で作ること」です。①使ってよいAIサービスのリスト、②入力禁止情報の定義(個人情報・顧客情報・未公開財務情報など)、③トラブル時の報告先、この3点だけでもまとめれば、多くのリスクを未然に防げます。
より高いセキュリティが必要な場合は、Azure OpenAI ServiceのようなエンタープライズAPIを使い、データが学習に使われない環境を整えることを検討します。