iCloudへの画像アップ時の内容チェック
どーも、hino88です。 みなさん、今日も全力で生きてますか?
今日は、気になるyahoo記事から。
iCloudへの画像をアップする際に、チェックする仕様が始まるin USA
アメリカ話だが、iphoneで撮った写真をicloudにアップロードする際に、
児童ポルノ画像かどうかチェックが入るようだ。
今はやりのAIで自動検知する仕組みと書いてあった。
AIが画像判定する際には、事前に学習が必要になるはずなのだが、
その学習用のデータはどうやって入手したのだろうか?
そもそも、怪しい画像を入手できること自体がダメだろうと思う。。
どうやって学習したかと聞かれたら、アップル社はなんと回答するのだろう。。
さらに言えば、学習したAIが、学習したデータ以外でも、正しく判定できるかを
チェックする必要があるが、その際は、どうやって新しい画像を得たのだろうか??
考えるだけで、チェックAIを作る過程がそもそもNGな気がする。。
色々問題が出そうな気がするが、日本での導入もされるのか、引き続き
ウォッチしていこうと思う。
では、またっ!