アカウント名:
パスワード:
AIは、運営元の経営陣やオーナーの政治的立場を反映してるとおもいます
たとえば、地球温暖化/気候変動、ワクチン、LGBTQ、等の各種問題をAIに質問すると、政治的立場が見えてきます
政治的に偏向しないようにするのか、利用者の政治的主張に応じたAIを用意するのか、どうすればいいのかな?
この場合の「偏向」の反対って「中立」なんだろうかね?
全世界の人間の考え方の平均、みたいなのなら許されるのだろうか。
たとえば男女平等については、宗教的に男性優先(男女平等は否定)する人々は、少なくとも世界に3〜4割は居る。じゃあ平均値をとったら「やや男性優先」が中立の正しいAI、ということになるのかな?
AIが政治的に偏向していると批判するなら、偏向していない状態を定義しないと説得力がない。政治的思想に影響されていることは事実だろうが、それを偏向と呼び、批判するかは別問題だからね。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
コンピュータは旧約聖書の神に似ている、規則は多く、慈悲は無い -- Joseph Campbell
AIの政治的偏向問題は? (スコア:0)
AIは、運営元の経営陣やオーナーの政治的立場を反映してるとおもいます
たとえば、地球温暖化/気候変動、ワクチン、LGBTQ、等の各種問題をAIに質問すると、
政治的立場が見えてきます
政治的に偏向しないようにするのか、利用者の政治的主張に応じたAIを用意するのか、どうすればいいのかな?
Re:AIの政治的偏向問題は? (スコア:1)
この場合の「偏向」の反対って「中立」なんだろうかね?
全世界の人間の考え方の平均、みたいなのなら許されるのだろうか。
たとえば男女平等については、宗教的に男性優先(男女平等は否定)する人々は、少なくとも世界に3〜4割は居る。
じゃあ平均値をとったら「やや男性優先」が中立の正しいAI、ということになるのかな?
AIが政治的に偏向していると批判するなら、偏向していない状態を定義しないと説得力がない。
政治的思想に影響されていることは事実だろうが、それを偏向と呼び、批判するかは別問題だからね。