21 世紀の世界では、人工知能 (AI) と機械学習 (ML) テクノロジが魔法のグラスのように普及しています。 しかし、それが 100% 信頼できるかどうかはまだわかりません。
北陸先端科学技術大学院大学 (JAIST) と共同で、マヒドン大学工学部によるタイと日本の研究エンジニアのチームは、International Journal of Attacking Machine Learning With Adversari Examples に掲載された研究を発表しました。 ) は、機械学習にはまだ脆弱性があり、攻撃を受けるリスクがあることを示します。 損害を与える 技術の品質にもかかわらず、信頼できる結果を確認するには人間による検査が依然として必要であることを強調します。
「Jakrit Sutthakorn」マヒドン大学工学部学部長 AI と機械学習技術は現在、生活、仕事、および医療、ヘルスケア、商業、電子商取引、資本市場、金融、自動車、物流、電気通信、工業生産などの多くの業界で役割を果たしていると述べています。 したがって、安全性は重要です。
この研究の結果、彼は国際的な注目と世界のコミュニティを獲得しました。 ML モデル攻撃が QR コードの形で設計されたのはこれが初めてだからです。 これは、さまざまな業界の人々や組織に届くサービスのセキュリティに役立ちます。
“Karin Sumangkayothin” マヒドン大学工学部コンピューター工学科講師 AIがコンピュータや機械をより賢くするという研究の原点に言及。 これは、AI の学習プロセスの 1 つです。 アルゴリズムにデータをインポートすることにより、意思決定ネットワークを作成します 傾向を予測し、人間の意思決定と同様に結果を予測します。 仕事量を減らす エラーを減らす
今日の機械学習 また、悪意のあるアクターによるあいまいさの攻撃を受けて、研究者チームは機械学習攻撃を研究しています。 攻撃パターンの研究 人間の観察を回避する攻撃に焦点を当てます。 甚大な被害や悪影響を与える可能性があります。 金融医療、通信、運輸、情報セキュリティシステム、生産システムから国防システムまで。
マヒドン – JAIST エンジニアリング研究チームは、機械学習への攻撃を研究するために 3 年以上協力してきました。 サンプル形式経由 人間の観察を逃れる ML モデルを対象としています。 マシンの誤った決定に影響を与えます。
この攻撃は、あらゆる結果を対象にすることができます。 AIを混乱させるための矛盾した例の攻撃の機能のために、「QRコード」隠しデータ攻撃スキームを構成します。 画像データ、音声データ、信号データ、またはその他の種類のデータなどのターゲット データに汚染されたデータを挿入することにより、攻撃の結果は、攻撃の結果を事前に決定するか、本来あるべき結果から逸脱させることができます。
スキャン可能な QR コードに隠されている情報を介して、結果を圧縮して攻撃データにすることができます。 この研究は、汎用 ML モデルの分析に基づく防御および検出システムの開発にも使用されます。
これは、機械学習の決定は、人間の作業負荷を軽減するツールおよびイノベーションにすぎないことを証明しています。 最終的には、最終結果を確認するために人間の専門家にチェックしてもらう必要があるからです。
敵対的攻撃の例からの将来の攻撃を防ぐには、次の 2 つの方法があります。 1. 敵対的攻撃の例を使用して、不正なレビューからデータを保護します。 攻撃に対してより耐性のある機械学習モデルを設計する
機械学習を安全に使用するためのヒント エントリは、Adversarial Example などの標的型攻撃で汚染されているか、マルウェアにバンドルされている可能性があることに常に注意してください。
したがって、機械学習を使用して安定した安全な操作を行うには、専門家による最終結果の管理システムを確立する必要があります。 信頼できる正確さのために マシンを 100% で稼働させないでください。 現在、AI と機械学習は限定的です。 そして、人間全体と機械が考え、どちらか一方に頼りすぎることなく、バランスの取れた方法で協力する場合にのみ、良い助けになることができます。
「フリーランスのベーコン愛好家。音楽愛好家。起業家。ワナビーアルコールオタク。学生。」