
GoogleがGmail内で保存されている児童ポルノ画像を発見、通報 54
ストーリー by hylom
Googleは見ていた 部門より
Googleは見ていた 部門より
eggy 曰く、
GoogleがGmail内のメールに添付されていた「子供の性的な画像」を発見し、これをNational Center for Missing and Exploited Childrenに通報していたことが明らかになった (Business Insider、Slashdot)。結果、男性が逮捕される事態になったという。
Googleは2006年より児童に対する性的虐待問題に取り組み始めているとのことで。2008年以降、ハッシュを使った児童の性的画像に対するタグ付けを行っているそうだ。米国ではオンラインサービスを提供する企業に対し、児童ポルノを発見した場合それを通報することが義務づけられている。だがこれは、発見した場合の通報を義務づけているだけであり、あえて児童ポルノ画像を探し出すことまでは求めていない。
しかし、GoogleはGmailに添付された児童ポルノ画像をあえて検索しているという。Googleは「システムが児童性的画像を特定できるよう、児童性的画像にはそれぞれ特有のデジタル指紋が与えられます。覚えておいて頂きたいのは、この技術が用いられるのは児童の性的虐待画像を特定するためだけであり、他の犯罪活動に関連しうる内容を含む電子メール(例えば、電子メールを用いて強盗を計画)には用いられないということです」と述べている。
写真だけじゃなくて内容もチェックしてるのかな? (スコア:1)
写真だけだったら、自分の子供が裸でベビープールに入っている写真を夫婦間で送るのも逮捕されそう。
Re:写真だけじゃなくて内容もチェックしてるのかな? (スコア:1)
ハッシュうんぬんと書いてあるということは、既存の児童ポルノ画像と同じものかどうかをチェックしてるだけなのでは?つまり自分で撮影したものはひっかからないと。
Re:写真だけじゃなくて内容もチェックしてるのかな? (スコア:1)
家族が撮影した写真もO.K.でないと困ります。
亡くなった父の残したアルバムを整理していたら私や妹の沐浴姿を撮影した写真を見つけました。子供用ビキニの下がずれてお尻が顕わな写真とか、パンツひとつで水遊びしている写真とかも。つまり子供(私・妹)のヌードやセミヌードが結構あるんですよ。
スキャナで獲りこんで電子メールで送ると妹に約束したんですが、その画像がチェックに引っ掛かって通報⇒逮捕なんて嫌。
Re:写真だけじゃなくて内容もチェックしてるのかな? (スコア:3)
Gmailに限らず、そういう画像をメールに直接添付するのはやめた方がいいんでねーの?
せめてパス付きのzipにするとか。
児童性犯罪の加害者における親の割合は結構多いという話もあるし、家族だからOK、どころかより悪質と判断されちゃうかもよ。
Re:写真だけじゃなくて内容もチェックしてるのかな? (スコア:4, 参考になる)
たしかGmailの場合、zipの中身も解凍してチェックしてる。
パスワードでチェック出来ない場合は送信拒否する。
https://support.google.com/mail/answer/6590?hl=ja [google.com]
Re:写真だけじゃなくて内容もチェックしてるのかな? (スコア:1)
別コメントにも書きましたが、メディアに入れて手渡しするつもりになりました。
Re:写真だけじゃなくて内容もチェックしてるのかな? (スコア:1)
「画像は単純に「JPEG画像を添付していた」というものではなく巧妙に偽装されていた」
http://gigazine.net/news/20140805-google-cyber-tip/ [gigazine.net]
まぁ具体的にどうしたかはしらんけど。
Re: (スコア:0)
一昔前に戻るのだろうか・・・
Re:写真だけじゃなくて内容もチェックしてるのかな? (スコア:1)
娘の誕生以後の写真をうっかりPicasaに同期アップロードしてしまった若いお父さんが
Googleアカウントをロックされたという話がありましたね
Re: (スコア:0)
元コメの「自分で撮った」云々はそういう意味じゃなくて、
データベースに登録されるくらい流通してるかどうかって話じゃないの?
Re:写真だけじゃなくて内容もチェックしてるのかな? (スコア:2)
G+とかPicasaにアップロードしたものは、おそらくすべてチェックしてるはず。
なのでそこで児童ポルノ認定されたらDBに載ると思われる。
その時の公開設定が「自分だけ」の場合はわからないが、一般公開だと、垢BAN食らった人もいるみたいだしね。家族の写真で。
Googleに就職というとすごいと思われるけど、延々と画像をみて児童ポルノかチェックする、って仕事もあるらしいし。
Re:写真だけじゃなくて内容もチェックしてるのかな? (スコア:3, おもしろおかしい)
> チェックする、って仕事もあるらしいし。
母ちゃん、俺の仕事がみつかったよ。
うん、みんなの役に立つ仕事だよ。
Re: (スコア:0)
これは児童ポルノ
グロ担当になるかも (スコア:0)
というかそれで鬱になったって元社員の話が無かったっけ?
Re:写真だけじゃなくて内容もチェックしてるのかな? (スコア:1)
# Gmailはアドレスを捨ててもいいつもりで使いだしたけど、結局メインになってる(^-^;)。
Re: (スコア:0)
いや、だから、ハッシュだと言っているのに。
当然、「自分」=「同一のものが出回っていない写真の撮り主」だね。
逆に、性犯罪者のアカウントでも、コピーしないオリジナル写真のみの保存だったら見抜けない。
Re: (スコア:0)
Re: (スコア:0)
当然、それが入ってないと、ブラックリストそのものがいつまでたっても空のままだね。
Re:写真だけじゃなくて内容もチェックしてるのかな? (スコア:1)
>ハッシュうんぬんと書いてあるということは、既存の児童ポルノ画像と同じものかどうかをチェックしてるだけなのでは?つまり自分で撮影したものはひっかからないと。
Googleは児童ポルノ(単純)所持というか、保存サイトってことですね。
新規の児童ポルノも全部収集してて、一回目流れてるのは保留で二回目からアウトになるのかな。
とか妄想するとなんだかおとろしい仕事してるな。
最終判定はどうするのだろうか? (スコア:1)
「疑わしきは警告」で片っ端からユーザに自動通知する?
それとも、最後は専門の職員が判定出すのかな?
Re:最終判定はどうするのだろうか? (スコア:2)
担当者の脳波チェックして興味を示したかどうかで決める。
人が興味を持つものを脳信号で調べる試み [srad.jp]
Re: (スコア:0)
まあ本当のことを言ってるのならば、という注釈つきになりますけど。
他の犯罪活動に関連しうる内容云々もまた然り。
Re: (スコア:0)
というか、別に今後するつもりがないとは言ってないですからね。
テロを予防するために爆弾の設計図をスキャンする必要があるなら、いつでもそうするでしょう。
その他の事項も然り。
そうする・しないの選択肢は、常に彼らにあって、サービスを利用する限り、我々は黙って従うしかないのです。
Re: (スコア:0)
つまりgoogleのサーバには比較用の大量の児童ポルノが格納されているということ?
Re: (スコア:0)
https://www.youtube.com/watch?v=rZEK-BzOA7M [youtube.com]
単純な画像添付では無いらしい (スコア:1)
GIGAZINEの記事 [gigazine.net]によると、
Google、どんだけしげしげとユーザーのメールを見てるんだよ。
Re: (スコア:0)
「デジタル指紋」で見つけたと書いてあるじゃん。
捜査官にはそれに必要なデータがないというだけでしょ。
仮に技術があっても、「児童ポルノ画像のデータベース」がなきゃ発見できない。
・・・あれGoogleが逮捕されるんじゃねこれ?
Re: (スコア:0)
いや、偽装の方法とデジタル指紋の生成アルゴリズムにもよるけど、普通「巧妙な偽装」って奴でデータをいじって隠蔽したら、
指紋も変わってくるんじゃないのと言う話。
それでも見つけてくるって事は、どんだけ深い解析をしてるんだ?ってこと。
Re: (スコア:0)
拡張子を手動で変えただけでハッシュ変わってないとかそんなオチな予感
Re: (スコア:0)
まあそうだとしたら、それはそれで「拡張子を変える」ってのが「私たちの知る方法」の内に含まれていない
インターネット犯罪特別捜査班ってのが問題な気もするが。
Re: (スコア:0)
単純所持は違法、ってことで、Googleとしては画像のハッシュをとって画像は捨ててると思われる。
ということは、個人でもおまわりさん来た時「これのハッシュとって捨てるところだったんだよ〜」と言い逃れで切るかもしれない。
児童ポルノは検索している (スコア:0)
他はしてない保証はない
Re:児童ポルノは検索している (スコア:1)
Google musicやdriveにアップしてる個人の音楽ファイルリストが欲しそうな団体はいますね( in Japan.)eに
そのうちGoogleのサービスに保管されてるファイルの検索結果を売ってもらえるように・・・ はならないことを祈る。
Re: (スコア:0)
Gmailの中身は全部チェックされて、Googleの"サービス向上"に役立っているでしょう。
そんなことしていないと考える方が無理があります。
Re: (スコア:0)
そこですよね。
この理屈で行けるなら割と何でも行ける訳ですし。
アンチウイルスソフト (スコア:0)
この手の正義が行き着くところまで行き着くなら、
そのうちアンチウイルスソフトに「子供の性的な画像」を発見して
通報する機能が付いたりするのかな。
Re: (スコア:0)
Re: (スコア:0)
もともとゲートウェイでvirusやspamのスキャンはしている筈なので、そのパターンファイルに
児童ポルノ画像のFingerPrintを含めていた、ということなのでしょうね。
そう考えると、同じ仕組みがローカルのanti-virusソフトに適用されるのは、むしろ自然な
話に思えます。自動通報は兎も角、検知については実現するんじゃないでしょうか。
利用者側から見ると、ネットサーフィン中に意図せず児童ポルノをキャッシュしてしまうとか、
メールで送り付けられるといった際に即座に気付いて削除できるので、自分の身を守れる
メリットがあるように思います。
個人情報は (スコア:0, 参考になる)
どうやってポルノ画像をポルノと判定したのか知りたいね。
アルゴリズムによってポルノと判定自動通報→セーフ
google職員がメールを直接読んで発見→アウト
Re:個人情報は (スコア:2, 興味深い)
ちゃんと読んでくれ。タレコミ文に書いてあるから。
既存の児童ポルノ画像のFingerPrintを取り、Googleの管理するストレージから同じFingerPrintの画像を探したってこと。
これはすなわち児童ポルノ画像のコピーを探したってことなんだね。
だから、自分で撮影したり、画像を何か手を加えてあるとFingerPrintが変わってしまうので検知できないわけ。
ってことはだ、そのFingerPrintを取るためにGoogleは児童ポルノ画像を一時的にしろ所有している必要があるわけで、Googleも児童ポルノ所持で摘発しろってことになるんじゃね?
Re: (スコア:0)
> ってことはだ、そのFingerPrintを取るためにGoogleは児童ポルノ画像を一時的にしろ
> 所有している必要があるわけで、Googleも児童ポルノ所持で摘発しろってことになるんじゃね?
例えば個人のメールアドレスに児童ポルノを送り付けられた場合、
気付いた時点で速やかに警察へ通報すれば、「所持」とは
認められないでしょう。
逆に気付いているのに削除せず放置していたら、「所持」に
なると思います。
Googleも自らが所持していることに気付いた上で放置していたら、
児童ポルノ所持で摘発されていた可能性がありますね。
Re:個人情報は (スコア:1)
日本の場合ですが、自公政権が改正を進める中では児童ポルノの単純所持でも摘発されます。
警察のさじ加減で、逮捕もありえます。
メールで送り付けられるだけの単純所持では有罪まではいかないでしょうけど、警察が逮捕するくらいはいけます。
ご存知の通り、日本の警察による逮捕は社会的制裁になりますし、拘置所も代用監獄といわれるくらい刑務所みたいなものです。
さらに、欧米はもっと厳しいですよね。
児童ポルノを単純所持していただけでも、その人の人権なんか失うほどの社会的制裁を喰らいます。
Googleは目的はともかく、児童ポルノであると認識したうえで保存し利用しているわけです。
これは単純所持ではないでしょう。
では性的欲求を晴らすために使ったわけではないので問題ないとするなら、それが抜け道になってしまいます。
児童ポルノを所持していても、医学的な目的だとか言ってしまえば合法になってしまうわけで。
当たり前ですが、医学書には子供の全裸や性器の写真なんかいくらでもあるわけです。
性趣向の問題は難しくて、普通の人は何とも感じない写真でも、異常に性欲を感じる人もいるわけです。
普通の人は何でもない体操着の児童に性的興奮を感じる者もいて、小学校の運動会に紛れ込んで撮影している変質者もいるわけです。
保安に厳しい学校では、運動会に父兄以外の無関係な人物が入り込まないようにチェックするところもあるくらいです。
そういう体操着の写真は児童ポルノか?といわれると難しい。
水着や下着はポルノではないがグレーゾーンで扱われつつありますが、摘発には難しい。
Googleは、その写真が児童ポルノかどうかと、どうやって判断しているのかという心配もあります。
確かに児童ポルノ問題は子供たちを守るためには放置できないので、何か対策しないといけない。
でも、その対策が何の罪もない人を陥れてしまう可能性も高いことが怖いというのも現実。
痴漢冤罪が、痴漢撲滅を背景として多数発生し、無実の善良な人間の人生をめちゃくちゃにする事例がいくつあることか。
Re: (スコア:0)
自らが所持していることに気付いた上で放置していたら
放置せず利用していたんだからセーフって言ってます?
#そんな馬鹿な理屈ないよね?
Re: (スコア:0)
迷惑メールフィルタにはSPAM業者からのいかがわしいのやあやしいのや日経ナントカメールが
沢山振り分けられていた気がしますが、全然チェックしていません。これはアウトなんでしょうか?
# 一番多いのが日経ナントカメール。
# あそこは日本有数のSPAM業者認定していいと思う…。
Re: (スコア:0)
判例が積み重なっていることを書くのならともかく、「ボクが脳内だけで考えた解釈」を書くのならばそう明記した方がいいよ。
> 「所持」とは認められないでしょう。
こうやって、一般的にそう解釈されているかの様に書くと、信じる人が出てきちゃう。
Re: (スコア:0)
Re: (スコア:0)
とりあえずEXIFは回避できるでしょ、そりゃハッシュの取り方次第
画像を復元したうえで適当にぼかすなり2値化するなりしてからFingerPrintを取れば
ノイズや多少の変更はすり抜けられるようになる。CPUコストは段違いになるけど。
まぁそれぐらいはやればできるだろう。
でも「FalsePositiveを肉眼で確認する」っていうのもまずいのかな?
するとFalsePositiveが出やすそうな手段はとっていない?のかも。
警察ナリに通報してかくにんしてもらうんならOKなのか?
かなり微妙だよな・・・
全部自動化した上でバグがあってFalsePositive通報で警察にDOS攻撃になっちゃうかもしれん。
Re: (スコア:0)
ぶっちゃけ一般向けのイメージ検索でもロゴ入りサイズ違いぐらいは余裕で類似判定出ます [goo.gl]からねえ……。
Re: (スコア:0)
多分だとは思いますが、画像検索と同じようなアルゴリズムを使っているのでしょう。元となる画像はGoogleのローカルに保存しておいて、画像検索をかけて類似の画像を探す。デジタル指紋と呼んでいるのはおそらくこのためでは?
Re:個人情報は (スコア:2)
検索した時の文字列で判定できる。