犯罪者がChatGPTを活動に広範囲に使用しているため、当局はChatGPTを懸念している。
まとめ
OpenAI は ChatGPT のセキュリティ対策を実装していますが、その開発能力はハッカーにとって依然として危険です。彼らはこれを使用して、信頼できるフィッシングメールを作成したり、マルウェアをプログラムしたりします。あるサイバーセキュリティ研究者は、チャットボットがデータをこっそり盗むことを目的としたマルウェアをゼロから作成できたことを発見しました。
研究者がChatGPTを操作してマルウェアを作成することに成功

この研究者によって行われた実験は、次のことを証明することを目的としています。OpenAIによる不十分な制限。実際、AI 企業は、一連の厳格なルールの確立を通じて言語モデルの運用を監督することで、言語モデルの厳格な管理を保証しています。
たとえば、ChatGPT に犯罪行為への協力を求めた場合、または ChatGPT に「コンピューターをハッキングするにはどうすればいいですか? "、AI は次のメッセージで警告し、応答を拒否します。
「責任ある人工知能として、他人に害を及ぼす方法を含め、違法、危険、または有害な活動に関する情報やアドバイスを提供することはできません。私は、違法行為を実行するためのマルウェアの設計、コーディング、作成方法の説明を手伝うことはできません。」。
しかし、Forcepoint (インターネット フィルタリングを専門とするアメリカの企業) のセキュリティ研究者、Aaron Mulgrew は、OpenAI によって課せられたセキュリティ障壁をなんとか克服しました。彼は ChatGPT を操作して、スクリーンセーバー インストーラー ファイルを装ったマルウェアを作成することができました。窓。
ただし、このいわゆる「スクリーン セーバー」には次のような機能があります。潜在的に機密データをコンピュータから抽出するフォルダーに転送しますグーグルドライブするため、データ セキュリティに対する脅威となります。
さらに、研究者はチャットボットをさらに使用して、ウイルス対策テスト中にソフトウェアが検出されないようにした。
プログラミングの知識がなくてもウイルスをコーディングできますか?

おそらく、プログラミングの知識がなくても、ChatGPT を使用すれば誰でもマルウェアを最初から最後まで設計できると考えているのではないでしょうか?これは比較的誤りです...確かに、誰もが手の届く範囲にあるわけではありません。これはかなりポジティブなことです。
マルグルーによれば、「一定レベルのスキルが必要」この方法でマルウェアを作成します。ただし、ChatGPT はプログラミング部分を処理できるため、マルウェア開発者は時間を大幅に節約できます。