Facebookはボットを使用して悪い行動を予測および防止しています

Facebookの多くの努力にもかかわらず、悪意のある人物はどういうわけか常にその保護手段とポリシーを通じて浸透することができています。ソーシャルネットワークは現在、スパム対策の壁を強化し、セーフガードに違反する可能性のある不正な動作を回避する新しい方法を試しています。ボットの軍隊。

Facebookは、悪意のある動作をシミュレートし、プラットフォームのストレステストを行って欠陥や抜け穴を発見できる新しいボットシステムを開発していると述べています。これらの自動化されたボットは訓練され、Facebookが20億人を超えるユーザーから取得した行動モデルの宝庫を利用して、実際の人間のように振る舞う方法を教えました。

この実験が実際のユーザーの邪魔にならないようにするために、Facebookはソーシャルネットワークの一種の並行バージョンも構築しました。ここでは、ボットを解き放ち、蔓延させることができます。相互にメッセージを送信したり、ダミーの投稿にコメントしたり、友達リクエストを送信したり、ページにアクセスしたりできます。さらに重要なことに、これらのAIボットは、薬物や銃を販売するなどの極端なシナリオをシミュレートして、Facebookのアルゴリズムがそれらをどのように防止しようとするかをテストするようにプログラムされています。

Facebookは、この新しいシステムは「数千または数百万ものボット」をホストできると主張しています。ユーザーが実際に体験するのと同じコードで実行されるため、「ボットのアクションは、プラットフォームを使用する実際の人々が目撃するであろう効果に忠実です」と付け加えます。

「このプロジェクトは現時点では調査のみの段階ですが、いつか私たちがサービスを改善し、プラットフォームを使用している実際の人々に影響を与える前に、潜在的な信頼性または整合性の問題を見つけるのに役立つことが期待されます。プロジェクトのリーダーであるマークハーマンをブログに投稿しました。

現在のところ、Facebookの新しいシミュレーション環境がどれほど効果的であるかは不明です。ハーマンが述べたように、それはまだかなり初期の段階にあり、同社はまだその結果のいずれも、一般向けのアップデートに使用するために利用していません。ここ数年、ソーシャルネットワークは、嫌がらせやスパムと戦うための新しいツールを開発するために、人工知能に基づく研究に積極的に投資し、支援してきました。 Mark Zuckerbergは、2年前の年次開発者会議で、テロコンテンツ、悪意のある表現、スパムなどを取り上げた投稿に取り組むための人工知能ツールを構築していることを発表しました。