Root NationニュースITニュース思いがけず! (いいえ)。 ChatGPT はマルウェアの作成に使用されます

思いがけず! (いいえ)。 ChatGPT はマルウェアの作成に使用されます

-

世界で最も人気のあるチャットボットである ChatGPT は、攻撃者によって新種のマルウェアを作成するために使用されています。

サイバーセキュリティ企業のWithSecureは、悪名高いAI作者によって作成されたマルウェアの例が実際に見つかったことを認めた。 ChatGPT が特に危険なのは、無数のマルウェアのバリエーションを生成し、検出が困難になる可能性があることです。

攻撃者は、ChatGPT に既存の悪意のあるコードの例を提供し、それに基づいて新しい系統を作成するよう指示するだけで、以前とほぼ同じくらいの時間、労力、知識を費やすことなくマルウェアを永続させることができます。

AI言語モデルを活用してコードのデバッグからデータの異常検出まで、

このニュースは、AIが悪意のある目的で使用されるのを防ぐための規制が話題になっている最中に発表された。 昨年 月に ChatGPT が急速に普及したとき、その使用を管理するルールはなく、 か月以内に ChatGPT がハイジャックされ、悪意のある電子メールやファイルが書き込まれるようになりました。

モデル内には、悪意のあるプロンプトの実行を防ぐことを目的とした特定の保護手段がありますが、攻撃者によって回避される可能性があります。

WithSecure の CEO、Juhani Hintikka 氏は、Infosecurity に対し、サイバーセキュリティ防御者は通常、人工知能を使用して、脅威アクターが手動で作成したマルウェアを見つけてフィルタリングしていると語った。

しかし、ChatGPT のような強力な AI ツールが無料で利用できるようになり、現在では状況が変わりつつあるようです。 リモート アクセス ツールは違法な目的で使用されてきましたが、同じことが人工知能にも当てはまります。

WithSecureの脅威インテリジェンス責任者であるTim West氏は、「ChatGPTは良い意味でも悪い意味でもソフトウェアエンジニアリングをサポートする。これは悪意のあるソフトウェア開発者にとって役立ち、参入障壁を下げることになる」と付け加えた。

Hintikka 氏によると、ChatGPT が作成できるフィッシングメールは通常、人々の目に留まり、LLM がより高度になるにつれて、近い将来、そのような詐欺に引っかかることを防ぐことがより困難になる可能性があります。

AI言語モデルを活用してコードのデバッグからデータの異常検出まで、

さらに、攻撃者の攻撃の成功率が驚くべき速度で増加するにつれて、攻撃者は再投資を行ってより組織化され、アウトソーシングを通じて業務を拡大し、より成功する攻撃を開始するために人工知能についての理解を深めています。

ヒンティッカ氏は、サイバーセキュリティの将来の展望について、「良いAIと悪いAIの勝負になるだろう」と結論付けた。

また読む:

サインアップ
について通知する
ゲスト

0 コメント
埋め込まれたレビュー
すべてのコメントを表示