1: 香味焙煎 ★ 2021/08/10(火) 11:18:32.48 ID:Yd8VKIS69.net



米Appleは8月8日(現地時間)、5日に発表した児童の性的虐待対策に関するFAQを公開した。この対策は米国でiOSおよびiPadOSのバージョン15の更新で実施される見込みだが、多方面からプライバシーを懸念する声が上がっている。

(続きはソースでお読みください)

ITmedia
https://www.itmedia.co.jp/news/articles/2108/10/news060.html



23: ニューノーマルの名無しさん 2021/08/10(火) 11:24:22.21 ID:CO5peSNz0.net
明確なプライバシーの侵害だわな

24: ニューノーマルの名無しさん 2021/08/10(火) 11:24:38.54 ID:YPNJarke0.net
嘘だろw
絶対無理だし誤検知出るよ

971: ニューノーマルの名無しさん 2021/08/10(火) 13:05:18.51 ID:DgRW8u4b0.net
>>29
AIがタマネギをポルノ画像と判別したこともあったんだっけか

【おすすめ記事】

【画像】iPhone 13、メチャクチャカッコよくなってしまうと判明!!!

iPhone歴11年の俺がAndroidを昨日1日触ったらwwwwww

【朗報】iPhoneさん、スマホ内の児ポ画像を検出

【悲報】女子小学生さん、 iPhoneデビューするために親に契約書を書かされる

JK「iPhone11買ったらBluetooth入ってると思ってたら騙された笑」






30: ニューノーマルの名無しさん 2021/08/10(火) 11:25:47.91 ID:jCdgNAid0.net
全部見てるぞ

33: ニューノーマルの名無しさん 2021/08/10(火) 11:25:57.67 ID:jx0eKxyf0.net
カメラで撮影した指紋を認証に使える世の中だし
プライバシーというよりセキュリティ問題じゃないの

40: ニューノーマルの名無しさん 2021/08/10(火) 11:26:35.75 ID:C3sh5Cc70.net
完全に検閲じゃん

45: ニューノーマルの名無しさん 2021/08/10(火) 11:27:35.65 ID:CO5peSNz0.net
検知しないってそもそも調べないとわからんのに何言ってんのって話だな

48: ニューノーマルの名無しさん 2021/08/10(火) 11:28:14.58 ID:1bF7HQ9v0.net
スマホ内の情報全部チェックするわけだからアップル社にスマホ内のデータは全部見られているってことだろ

AIが判断してると言っても児童ポルノと判別されれば最後は人間がチェックする
児童ポルノだと思ったと言えばどんなデータも抜けるじゃん

74: ニューノーマルの名無しさん 2021/08/10(火) 11:30:46.19 ID:JgLJCbRu0.net
2次絵とか3Dとか成人の合法ロリとかちゃんと見分けつくんだろうか

76: ニューノーマルの名無しさん 2021/08/10(火) 11:31:18.03 ID:HtTDO6fO0.net
自分の子供の写真もアウトなの?
本人の子供の頃の写真とかも引っ掛かるなかな

91: ニューノーマルの名無しさん 2021/08/10(火) 11:32:27.74 ID:5+eJWkC50.net
その検知の仕事おれが無償で引き受けよう

99: ニューノーマルの名無しさん 2021/08/10(火) 11:33:02.33 ID:w8uDCREC0.net
>>91
おまわりさんこの人です

104: ニューノーマルの名無しさん 2021/08/10(火) 11:33:27.21 ID:CY4dYOxU0.net
クラウドにあげなければ大丈夫でしよ?

126: ニューノーマルの名無しさん 2021/08/10(火) 11:35:23.99 ID:O+hr2g870.net
>>104
データを送信してるかどうかは分からないが
もう既にバックグラウンドでデータを閲覧してる
ユーザビリティのためにデータベースを作ってると言ってるけど…

113: ニューノーマルの名無しさん 2021/08/10(火) 11:34:09.98 ID:Iwxn3/4e0.net
物議醸してるんだw

121: ニューノーマルの名無しさん 2021/08/10(火) 11:35:02.83 ID:in5IQYNA0.net
スマホの中身なんて全部見られていると思って使うしかないよ

138: ニューノーマルの名無しさん 2021/08/10(火) 11:36:08.69 ID:DlPZNafo0.net
これまでもやってたとおもうよ
AppleもGoogleも

176: ニューノーマルの名無しさん 2021/08/10(火) 11:38:58.04 ID:QTU0/ly30.net
>>138
Googleはフォトにエロ画像アップすると削除
下手するとアカバンってアナウンスしてただろ

153: ニューノーマルの名無しさん 2021/08/10(火) 11:36:56.63 ID:aVaXd9Nr0.net
欧米は、ここまで監視しないといけないってことなんだろうけど
やっぱり病んでいるよな

199: ニューノーマルの名無しさん 2021/08/10(火) 11:41:10.52 ID:sM2CHwX60.net
icloudの写真はAppleでもわからない様に暗号化しますとか謳ってなかったか

だから暗号化前に全部見ますってお前それ暗号化の意味無いだろと

なんかこの施策やってからなぜかそういう写真が大量に出回りそう

221: ニューノーマルの名無しさん 2021/08/10(火) 11:43:32.46 ID:bwVY43wh0.net
そりゃ全部見なけりゃ検知も出来ませんし
どう言い繕ってもプライバシー侵害しなきゃ無理な芸当なんだから素直に認めりゃいいのに

236: ニューノーマルの名無しさん 2021/08/10(火) 11:44:38.74 ID:5a5I+xMJ0.net
>>221
Androidに比べてプライバシー保護を売りにして広告打ってるから
それを否定すると売れなくなるのよな。

正直今回のはやりすぎなので止めてもらいたいが。

240: ニューノーマルの名無しさん 2021/08/10(火) 11:45:40.90 ID:nBSpyZZW0.net
>>1
うちの子が川で遊んでる画像と動画も消されちゃうんだろうなぁ

259: ニューノーマルの名無しさん 2021/08/10(火) 11:47:30.61 ID:LjnL5O2C0.net
>>240
消されはしない
犯罪者として通報されるだけ

278: ニューノーマルの名無しさん 2021/08/10(火) 11:49:04.49 ID:8/zVdysN0.net
子供が自分の裸撮ってどっかの変質者に送ろうとしてるものとかが検知出来るなら良いことじゃん

289: ニューノーマルの名無しさん 2021/08/10(火) 11:49:59.87 ID:AtRvh7mN0.net
>>278
それをなんでAppleがやるんだよ
親がやれよ

301: ニューノーマルの名無しさん 2021/08/10(火) 11:51:03.57 ID:oxXSl19c0.net
>>278
Appleの変質者に届くようになる

279: ニューノーマルの名無しさん 2021/08/10(火) 11:49:05.57 ID:+eFyGQ5C0.net
きさま!見ているなッ!

351: ニューノーマルの名無しさん 2021/08/10(火) 11:55:48.47 ID:VBK3RTD30.net
どっかの記事で見たけど自国の基準にあわせるらしい

359: ニューノーマルの名無しさん 2021/08/10(火) 11:56:40.21 ID:Iwxn3/4e0.net
Appleの言い分

> Appleによると、写真をスキャンするこのCSAM(児童性的虐待素材)対策機能は、「既知のCSAM画像と一致したもの以外の写真に関する情報を
> Appleに一切提供せずに、iCloud写真からCSAMを排除することを目的に設計されている」という。同社は、そうした画像を所有する行為も、
> 米国を含むほとんどの国で「違法」だとしている。
>
> Appleは、この機能について、iCloud写真を使って写真を保存するユーザーのみに適用される予定で、
> 「iCloud写真の利用を選ばないユーザーには影響しない」としている。
https://article.auone.jp/detail/1/3/7/213_7_r_20210810_1628549742068656


これを読む限り
AIによる自動検出ではなく、データベースに存在する既知の児童ポルノと一致するかどうかチェックするもので
現時点で自前の写真や2次元のものまで心配することはなさそう
しかも対象は米国内のユーザーだし

390: ニューノーマルの名無しさん 2021/08/10(火) 11:58:59.91 ID:0FHT3Vo30.net
>>359
米国とかだと絵も児童ポルノ扱いしてるんじゃないの
そのデータベースに絵が登録されてればアウトだろ

387: ニューノーマルの名無しさん 2021/08/10(火) 11:58:49.28 ID:DgbcUV+h0.net
欧米はやることが極端すぎる

439: ニューノーマルの名無しさん 2021/08/10(火) 12:02:03.21 ID:Uq5MzXPO0.net
これ、自分の部屋に監視カメラセットされるのと変わらんな

496: ニューノーマルの名無しさん 2021/08/10(火) 12:08:00.21 ID:ODy2ekbr0.net
これ一応、アップルの説明では
「CSAMとして既知の画像のみ」を検出する事になってる。

要は登録されていない画像、
自分の子供や孫は検知対象外って事なんだけど、
ただいくらでも誤作動はあり得るわな...

503: ニューノーマルの名無しさん 2021/08/10(火) 12:09:03.78 ID:5a5I+xMJ0.net
>>496
それもあるしいつの間にか対象拡大してそうでそれが恐ろしいよな。

504: ニューノーマルの名無しさん 2021/08/10(火) 12:09:13.27 ID:5+hU+sz30.net
別に児ポ持ってないから良いけど
何が問題なん?

511: ニューノーマルの名無しさん 2021/08/10(火) 12:10:11.64 ID:5a5I+xMJ0.net
>>504
端末の中身を見られるというのが問題。

513: ニューノーマルの名無しさん 2021/08/10(火) 12:10:17.04 ID:sDGu4Jft0.net
>>504
その言い分はそれとして、本当にそうかどうか一旦全部見させて貰うよ、って事だぞ

641: ニューノーマルの名無しさん 2021/08/10(火) 12:22:09.38 ID:fR05nGO30.net
単純所持は違法なんだから、画像をケータイに入れたらだめ
これは分かる
一企業が個人情報を監視したらだめだろうとは思う
情報はすでに抜かれてるから、気にしすぎと言われればそうだが

694: ニューノーマルの名無しさん 2021/08/10(火) 12:28:41.59 ID:cS9aj27T0.net
他の写真は検知しないってどういうこと?
iPhoneは超能力を持ってるのか?

726: ニューノーマルの名無しさん 2021/08/10(火) 12:32:12.93 ID:hQbgoBsE0.net
>>694
児ポを保存してると明らかになってるサイトに関連してるタグを検知するんじゃね?
そこから保存したらわかるみたいな

739: ニューノーマルの名無しさん 2021/08/10(火) 12:33:55.70 ID:Iwxn3/4e0.net
>>726
データベースに登録してある既知の児童ポルノ画像のハッシュ値と同じものかどうかをチェックする
画像を拡大縮小した程度なら同じハッシュ値が得られるから、それで検出できる

753: ニューノーマルの名無しさん 2021/08/10(火) 12:36:24.87 ID:A6vfdCyl0.net
>>739
それだとハッシュ値が同一になるように調整された画像で誤認逮捕させることもできるだろうな

705: ニューノーマルの名無しさん 2021/08/10(火) 12:29:55.36 ID:9gcKIipF0.net
しかし、検知する仕組みは羨ましいな
性癖を打ち込んで1発で世界中からオナネタが飛び込んで来るんだろ?

721: ニューノーマルの名無しさん 2021/08/10(火) 12:31:42.86 ID:O1FIBsaq0.net
>>705
サンプルと似たような画像が世界中から集められるのは大方当たってるらしい

747: ニューノーマルの名無しさん 2021/08/10(火) 12:35:03.73 ID:7zhN9/dy0.net
iPhone内のロリ画像検索して自動的に警察に電話してSiriが通報したら感動する。(´・ω・`)

762: ニューノーマルの名無しさん 2021/08/10(火) 12:37:30.30 ID:xAY7hHc90.net
>>747
言葉の検索してる人にpもリストアップされて警告来るようになるんだよ

798: ニューノーマルの名無しさん 2021/08/10(火) 12:41:53.97 ID:2DCpQjUX0.net
アップル「俺達発砲事件の犯人のデータを政府に要請されて拒否した実績あるから安心して!」
いや、そこは協力しろよ…

918: ニューノーマルの名無しさん 2021/08/10(火) 12:57:16.84 ID:xlGe4W/00.net
なんかこの機能にあまりにも強い反応してるヤツは

特別な監視対象にしたほうがいいんじゃねえかな?w

981: ニューノーマルの名無しさん 2021/08/10(火) 13:06:59.11 ID:FULHNgv00.net
>>918
こんなことで反応する奴は性犯罪予備軍だよな
監視対象だよ

ってどんどん疑心暗鬼になって密告通報社会になるんだよな

暗黒だなwwwww

941: ニューノーマルの名無しさん 2021/08/10(火) 13:01:09.64 ID:1XuaoPz20.net
検閲になるから日本だと憲法違反で無理だろうけど、本来勝手にデータを送る機能なんてあってはいけない機能
写真どころかそれ以外のデータを送っていてもおかしくないわ

996: ニューノーマルの名無しさん 2021/08/10(火) 13:09:12.49 ID:vD5ce8SA0.net
SF映画みたいな世界になりそう



【悲報】1年間ヌキまくりパック、まだ届かない

【速報】ベラルーシ五輪選手の亡命、間一髪だった

【動画】オ〇ホによくある「喉輪締め」とかいう技、実在したwwwwwwww

【悲報】海外のゲーム会社、日本で流行らせたいあまり最悪の手段に出ようとするwwwwwwwwww

自衛隊の体力検定トップクラスの基準wwwwwwwwwww


おすすめ

引用元: http://ai.2ch.sc/test/read.cgi/newsplus/1628561912/