アカウント名:
パスワード:
逃亡犯罪者リストに一致する個人を群衆から探した、中国のケースと全く異なり、
Amazon の機械学習ライブラリを使って、逮捕歴を持つ人たちに共通の「何か」を検出させたら国会議員の 28 / 529 が該当した。ってこと。
問題点は双方にあって、* 逮捕歴を持つ人たちに共通の「何か」は、本当に存在するのか。それも顔写真からだけで。* ACLU が独自に機械学習させた手順に問題はなかったのか?元記事でも、こういった問題を扱う場合にしては判定閾値が小さい(ご判断が多い設定)ことに疑問を呈している。* そもそもの学習元データに、何らかの偏りがあるのではないか。という点の検証が終わっていない。
Amazon が警察に売り込みしているため単純に Amazon 無実。とはとても言えないが Rekognition 自体は汎用の機械学習ライブラリなので、そこをごちゃまぜにされるとこまる。
* ACLU が独自に機械学習させた手順に問題はなかったのか?元記事でも、こういった問題を扱う場合にしては判定閾値が小さい(ご判断が多い設定)ことに疑問を呈している。* そもそもの学習元データに、何らかの偏りがあるのではないか。という点の検証が終わっていない。
そもそも機械学習やそのライブラリって、ある種のソリューションではあるけど、どういったモデル(判定基準)を構築するかでいくらでも変わるからねぇ。
たとえばプログラミング言語や開発環境は複数開発されているし、それぞれ使いやすさや用途等の設計思想の違いはあって、評価も様々だけど。優れているとされるプログラミング言語や開発環境を用いたとしても、それがバグを無くすことや、意図しない動作を引き起こさないことには直結しないよね。
それと同じで、機械学習の環境やソリューションだって、プログラミングで言うところの「バグが出にくい」「リファクタリングしやすい」「デバッグしやすい」ことで差別化は図れても、結局は使い方が悪ければ正しく動作しないし、それは環境・ソリューション側の問題ではなく、使う側の技術力不足でしかないんだよなぁ。
少なくとも今回の件に関して言うなら、Amazonが警察に売り込んでいたとしても、それは上記のように「正しく使えば省力化できる」という売り込みでしかなく、警察が正しい学習モデルを構築したり、AIによる判別ミスを運用でどうカバーするかについて担保してるわけではないのだから。この件に関しては、Amazonは完全に無罪だと思うよ。少なくとも警察に「簡単かつ確実に顔認識ができます、そこまでAmazon側で責任をとります」みたいな適当な売り込み方をしてるのでない限りは。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
アレゲはアレゲ以上のなにものでもなさげ -- アレゲ研究家
逃亡犯罪者リストに一致したのではなく、逮捕歴持つ人たちと顔が「似てる」 (スコア:0)
逃亡犯罪者リストに一致する個人を群衆から探した、中国のケースと全く異なり、
Amazon の機械学習ライブラリを使って、逮捕歴を持つ人たちに共通の「何か」を検出させたら国会議員の 28 / 529 が該当した。
ってこと。
問題点は双方にあって、
* 逮捕歴を持つ人たちに共通の「何か」は、本当に存在するのか。それも顔写真からだけで。
* ACLU が独自に機械学習させた手順に問題はなかったのか?元記事でも、こういった問題を扱う場合にしては判定閾値が小さい(ご判断が多い設定)ことに疑問を呈している。
* そもそもの学習元データに、何らかの偏りがあるのではないか。という点の検証が終わっていない。
Amazon が警察に売り込みしているため単純に Amazon 無実。とはとても言えないが Rekognition 自体は汎用の機械学習ライブラリなので、そこをごちゃまぜにされるとこまる。
Re:逃亡犯罪者リストに一致したのではなく、逮捕歴持つ人たちと顔が「似てる」 (スコア:1)
* ACLU が独自に機械学習させた手順に問題はなかったのか?元記事でも、こういった問題を扱う場合にしては判定閾値が小さい(ご判断が多い設定)ことに疑問を呈している。
* そもそもの学習元データに、何らかの偏りがあるのではないか。という点の検証が終わっていない。
そもそも機械学習やそのライブラリって、ある種のソリューションではあるけど、どういったモデル(判定基準)を構築するかでいくらでも変わるからねぇ。
たとえばプログラミング言語や開発環境は複数開発されているし、それぞれ使いやすさや用途等の設計思想の違いはあって、評価も様々だけど。
優れているとされるプログラミング言語や開発環境を用いたとしても、それがバグを無くすことや、意図しない動作を引き起こさないことには直結しないよね。
それと同じで、機械学習の環境やソリューションだって、プログラミングで言うところの「バグが出にくい」「リファクタリングしやすい」「デバッグしやすい」ことで差別化は図れても、結局は使い方が悪ければ正しく動作しないし、それは環境・ソリューション側の問題ではなく、使う側の技術力不足でしかないんだよなぁ。
少なくとも今回の件に関して言うなら、Amazonが警察に売り込んでいたとしても、それは上記のように「正しく使えば省力化できる」という売り込みでしかなく、警察が正しい学習モデルを構築したり、AIによる判別ミスを運用でどうカバーするかについて担保してるわけではないのだから。
この件に関しては、Amazonは完全に無罪だと思うよ。少なくとも警察に「簡単かつ確実に顔認識ができます、そこまでAmazon側で責任をとります」みたいな適当な売り込み方をしてるのでない限りは。