Instagram、自傷行為と自殺に関連するコンテンツの禁止を拡大

Instagramは10月27日日曜日に、プラットフォームからの自傷行為や自殺の架空の描写を禁止していると語った。また、自傷行為や自殺の画像が直接表示されているかどうかに関係なく、関連資料を含む投稿はすべて削除されます。

この動きは、自傷行為のグラフィック写真をプラットフォームにアップロードすることを禁止するという同社の2019年2月の決定に従っています。

Instagramは、サイトでグラフィック素材を閲覧した後に2017年に自殺した14歳のモリーラッセルが関係する英国での注目度の高い事件に続いて、そのような画像に対処するための圧力を強めています。彼女の父親、イアンラッセルは、プラットフォームが彼女の死に少なくとも部分的に責任があると信じています。

日曜日に投稿されたメッセージで、InstagramのボスAdam Mosseriは自殺と自傷行為を「困難で複雑なトピック」と説明しましたが、「彼らに最善のアプローチをとる方法については多くの意見があります」

Mosseri氏は続けます。これは本当のリスクです。しかし、同時に、治癒中の傷跡を共有したり、摂食障害からの回復について話したりしているような、苦しんでいる問題をサポートするためにインターネットにアクセスしている若者もたくさんいます。多くの場合、これらのオンラインサポートネットワークは、経験を共有した他の人々を見つける唯一の方法です。」

学者やメンタルヘルス機関からのアドバイスを求めた後、Instagramは「メンタルヘルスの体験を共有できるようにする一方で、他者を潜在的に有害なコンテンツにさらされないように保護することの間の困難なバランスをとろうとしている」と述べた。

Mosseriはこの地域でまだやらなければならないことがたくさんあることを認めましたが、2019年2月の最初のポリシー変更後3か月で、Instagramは画像をぼかす「削除」、可視性の低下、または「感度画面」を追加したことを指摘しました834,000を超えるコンテンツがあり、ユーザーから報告される前に、そのコンテンツの77%以上を見つけることができました。

BBCに語った、Ian Russellは、Instagramが機密コンテンツの処理方法をより堅牢にするためにキャンペーンを行っており、自傷行為や自殺の架空の描写を禁止するためのプラットフォームの最新の動きを「誠実な」取り組みとして説明しましたが、同社が問題に取り組み続けている間、同社が約束を果たしてくれることを確認するため。

Instagramを所有し、自傷行為や自殺に関連する画像に対処するために同様の措置を講じたFacebookは、最近、World Mental Health Dayを使用して、助けを必要とする人々の会話とサポートを促進することを目的とした新しいメッセンジャーフィルターとステッカーを発表しました。