ロボットを間違ったところからどのように教えるか?

アルゴリズムがソーシャルメディアロボットに偽物を発見する編集者注:Digital Trendsは、国際的に認められたデザイン、テクノロジー、ユーザー体験カンファレンスであるWebVisionsと提携して、オレゴン州ポートランドで開催される今年のイベントに著名なDouglas Rushkoff氏を招待しました。パートナーシップの一環として、WebVisionsの洞察に満ちたブログ、Wordから厳選されたコンテンツを特集することも嬉しく思います。今週、寄稿者のMark Wynerが、私たちが人工知能を間違って教える方法に疑問を抱きました。楽しい!

Twitterは、ユーザーアカウントの2,300万(8.5%)が自律型Twitterbotであることを認めています。生産性を高めたり、研究を行ったり、さらには楽しんだりするために多くの人がいます。しかし、多くは有害な意図で作成されています。どちらの場合も、ボットは疑わしい倫理で振る舞うことが知られています-おそらくそれらは人工知能(AI)の単なるマイナーな標本だからです。

人間は現在、はるかに洗練された機械を構築しており、これは記念碑的なスケールでの倫理の問題に直面します。人間の死亡率においてさえ。では、時が来たら彼らが正しい選択をするようにするにはどうすればよいのでしょうか?

組み込むか教える

人間と共生的に一致する自律機械をうまく構築する上で重要な要素は、倫理です。そして、倫理をマシンにプログラムするには、基本的に2つの方法があります。

まず、それらをオペレーティングシステムにハードコーディングできます。ここでの懸念は、倫理は主観的であるということです。機械の倫理は、その作成者の倫理に依存します。しかし、私たち人間は常に私たちの道徳に沿っているわけではありません。私たちは倫理の違いをめぐって戦争をします。したがって、私たちは倫理的なものになるように自律型マシンを構築するので、既存の格差の範囲内で構築しています。

robots-right-wrong-ethics-2

第2に、いくつかのガイドラインを提供し、マシンが独自の経験に基づいて独自の倫理を学習できるようにします。この受動的なアプローチは、行動が観察されることを条件として、道徳の誤解の余地をたくさん残します。容認された倫理的正常性の誤った推論に基づいて、人種差別的なスラーをツイートしたり、ジェノサイドを宣伝したりしたMicrosoftのTwitter AIの最近のメルトダウンを考えてみましょう。

ジョージア工科大学のチームは後者に取り組んでおり、物語を読むことで社会的に受け入れられる方法で行動する方法を学ぶために認知システムを教えています。Quixoteと呼ばれる報酬システムは、コグニティブシステムがストーリーの主人公を識別するのに役立つと考えられています。機械は、自分の価値観を人間の価値観に合わせるために使用します。Microsoftがテイとどの方法を使用したかは不明です。しかし、ジョージア工科大学の学習システムのように、彼らの技術が先制的であった場合、私たちは人工知能における倫理の固化から遠く離れています。

倫理的麻痺

今、これらすべては、コンピュータは倫理を理解することさえできるという考えに基づいています。アランウィンフィールドが彼の研究「倫理的ロボット向けて」で示しているように、コンピューターが倫理的パラドックスに遭遇すると、結果は予測不能で、しばしば麻痺します。彼の研究では、認知ロボット(Aロボット)が「人間」のロボット(Hロボット)を危険から救うように求められました。 Aロボットが2つのHロボットの1つだけを保存できた場合、それ自体が混乱してディザリングして譲歩し、どちらも保存しませんでした。

倫理が理由であるのか感情であるのかについての古代の哲学的論争があります。現代の心理学者の間では、倫理的な意思決定には合理的および感情的な判断の両方が必要であるというコンセンサスがあります。ポールタガード教授がこのトピックについての一部で述べているように、「人々がさまざまな行為の強い承認または不承認を表明するとき、倫理的な判断はしばしば非常に感情的です。それらが合理的であるかどうかは、感情の一部である認知的評価が上手く行われているか、上手に行われているかによって異なります。」

結果を伴う決定

では、コグニティブマシンに倫理の能力がない場合、法律を破ったときに誰が責任を負うのでしょうか。現在、誰も知らないようです。ワシントン大学ロースクールのライアン・カロは次のように述べています。「ロボティクスは初めて、データの乱雑さと身体的危害を加える能力を組み合わせたものです。ロボットシステムは、事前に予期できない方法でタスクを実行します。ロボットは人と道具の境界をますますぼやけさせています。

法制化のプロセスは非常に遅く、一方、テクノロジーは指数関数的に急いでいます。

犯罪もかなり深刻になる可能性があります。オランダの開発者Jeffry van der Gootは、警察が彼のドアをノックして、彼のTwitterアカウントから送信された死の脅威について問い合わせたとき、自分自身と彼のTwitterbotを守る必要がありました。次に、ランダムダークネットショッパーがあります。アート展示会のためにDarknetで購入するためにビットコインで毎週100ドルの手当てができるショッピングボット。アーティストが展示したエクスタシーを購入したとき、スウェーデン当局は面白がっていませんでした。 (ただし、芸術的表現をサポートするため、展示会が終了するまでは薬物を没収しませんでした

これらのどちらの場合でも、当局は法律の範囲内でできることを行いましたが、犯罪を明示的または直接的に犯していないため、最終的に人間の所有者を許しました。しかし、人間が悪意を持ってAIを解き放つと、それはどのように解釈されますか?

皮肉な現実は、自律型マシンを管理する方法を模索していることです。そして、彼らに倫理を浸透させる疑わしい能力を超えて、私たちはしばしば彼らの一般的な行動だけで困惑します。ニューラルネットワークの背後にある方法について話し合ったところ、Googleソフトウェアエンジニアのアレクサンダーモルドビンツェフ氏は、次のように述べています。

ついていける?

すべてを考慮すると、立法のプロセスは非常に遅く、一方、テクノロジーは指数関数的な速さをもたらします。Singularity UniversityのVivek Wadhwa氏は次のように説明しています。「法律は守れない。法律は本質的に成文化された倫理だからです。何が良いか、何が悪いかについて社会としてコンセンサスを築き、それが正しいことと悪いこと、そして合法と違法となること。それが進行の仕方です。これらのテクノロジーのほとんどでは、何が良いか悪いかはまだ決めていません。」

法律が追いついた場合は、私たち自身の運命を書いている可能性があります。ロボットが世界を引き継ぐことについてのすべての話?たぶん、私たちが自分たちの種族の多くを投獄して自立した存在の中で少数派になるまで、彼らは単にジェイウォークを一斉に行うでしょう。チェックメイト。