1: 香味焙煎 ★ 2021/08/10(火) 11:18:32.48 ID:Yd8VKIS69.net
米Appleは8月8日(現地時間)、5日に発表した児童の性的虐待対策に関するFAQを公開した。この対策は米国でiOSおよびiPadOSのバージョン15の更新で実施される見込みだが、多方面からプライバシーを懸念する声が上がっている。
(続きはソースでお読みください)
ITmedia
https://www.itmedia.co.jp/news/articles/2108/10/news060.html
23: ニューノーマルの名無しさん 2021/08/10(火) 11:24:22.21 ID:CO5peSNz0.net
明確なプライバシーの侵害だわな
24: ニューノーマルの名無しさん 2021/08/10(火) 11:24:38.54 ID:YPNJarke0.net
嘘だろw
絶対無理だし誤検知出るよ
絶対無理だし誤検知出るよ
971: ニューノーマルの名無しさん 2021/08/10(火) 13:05:18.51 ID:DgRW8u4b0.net
>>29
AIがタマネギをポルノ画像と判別したこともあったんだっけか
AIがタマネギをポルノ画像と判別したこともあったんだっけか
-
【おすすめ記事】
◆【画像】iPhone 13、メチャクチャカッコよくなってしまうと判明!!!
◆iPhone歴11年の俺がAndroidを昨日1日触ったらwwwwww
◆【朗報】iPhoneさん、スマホ内の児ポ画像を検出
◆【悲報】女子小学生さん、 iPhoneデビューするために親に契約書を書かされる
◆JK「iPhone11買ったらBluetooth入ってると思ってたら騙された笑」
30: ニューノーマルの名無しさん 2021/08/10(火) 11:25:47.91 ID:jCdgNAid0.net
全部見てるぞ
33: ニューノーマルの名無しさん 2021/08/10(火) 11:25:57.67 ID:jx0eKxyf0.net
カメラで撮影した指紋を認証に使える世の中だし
プライバシーというよりセキュリティ問題じゃないの
プライバシーというよりセキュリティ問題じゃないの
40: ニューノーマルの名無しさん 2021/08/10(火) 11:26:35.75 ID:C3sh5Cc70.net
完全に検閲じゃん
45: ニューノーマルの名無しさん 2021/08/10(火) 11:27:35.65 ID:CO5peSNz0.net
検知しないってそもそも調べないとわからんのに何言ってんのって話だな
48: ニューノーマルの名無しさん 2021/08/10(火) 11:28:14.58 ID:1bF7HQ9v0.net
スマホ内の情報全部チェックするわけだからアップル社にスマホ内のデータは全部見られているってことだろ
AIが判断してると言っても児童ポルノと判別されれば最後は人間がチェックする
児童ポルノだと思ったと言えばどんなデータも抜けるじゃん
AIが判断してると言っても児童ポルノと判別されれば最後は人間がチェックする
児童ポルノだと思ったと言えばどんなデータも抜けるじゃん
74: ニューノーマルの名無しさん 2021/08/10(火) 11:30:46.19 ID:JgLJCbRu0.net
2次絵とか3Dとか成人の合法ロリとかちゃんと見分けつくんだろうか
76: ニューノーマルの名無しさん 2021/08/10(火) 11:31:18.03 ID:HtTDO6fO0.net
自分の子供の写真もアウトなの?
本人の子供の頃の写真とかも引っ掛かるなかな
本人の子供の頃の写真とかも引っ掛かるなかな
91: ニューノーマルの名無しさん 2021/08/10(火) 11:32:27.74 ID:5+eJWkC50.net
その検知の仕事おれが無償で引き受けよう
99: ニューノーマルの名無しさん 2021/08/10(火) 11:33:02.33 ID:w8uDCREC0.net
>>91
おまわりさんこの人です
おまわりさんこの人です
104: ニューノーマルの名無しさん 2021/08/10(火) 11:33:27.21 ID:CY4dYOxU0.net
クラウドにあげなければ大丈夫でしよ?
126: ニューノーマルの名無しさん 2021/08/10(火) 11:35:23.99 ID:O+hr2g870.net
>>104
データを送信してるかどうかは分からないが
もう既にバックグラウンドでデータを閲覧してる
ユーザビリティのためにデータベースを作ってると言ってるけど…
データを送信してるかどうかは分からないが
もう既にバックグラウンドでデータを閲覧してる
ユーザビリティのためにデータベースを作ってると言ってるけど…
113: ニューノーマルの名無しさん 2021/08/10(火) 11:34:09.98 ID:Iwxn3/4e0.net
物議醸してるんだw
121: ニューノーマルの名無しさん 2021/08/10(火) 11:35:02.83 ID:in5IQYNA0.net
スマホの中身なんて全部見られていると思って使うしかないよ
138: ニューノーマルの名無しさん 2021/08/10(火) 11:36:08.69 ID:DlPZNafo0.net
これまでもやってたとおもうよ
AppleもGoogleも
AppleもGoogleも
176: ニューノーマルの名無しさん 2021/08/10(火) 11:38:58.04 ID:QTU0/ly30.net
>>138
Googleはフォトにエロ画像アップすると削除
下手するとアカバンってアナウンスしてただろ
Googleはフォトにエロ画像アップすると削除
下手するとアカバンってアナウンスしてただろ
153: ニューノーマルの名無しさん 2021/08/10(火) 11:36:56.63 ID:aVaXd9Nr0.net
欧米は、ここまで監視しないといけないってことなんだろうけど
やっぱり病んでいるよな
やっぱり病んでいるよな
199: ニューノーマルの名無しさん 2021/08/10(火) 11:41:10.52 ID:sM2CHwX60.net
icloudの写真はAppleでもわからない様に暗号化しますとか謳ってなかったか
だから暗号化前に全部見ますってお前それ暗号化の意味無いだろと
なんかこの施策やってからなぜかそういう写真が大量に出回りそう
だから暗号化前に全部見ますってお前それ暗号化の意味無いだろと
なんかこの施策やってからなぜかそういう写真が大量に出回りそう
221: ニューノーマルの名無しさん 2021/08/10(火) 11:43:32.46 ID:bwVY43wh0.net
そりゃ全部見なけりゃ検知も出来ませんし
どう言い繕ってもプライバシー侵害しなきゃ無理な芸当なんだから素直に認めりゃいいのに
どう言い繕ってもプライバシー侵害しなきゃ無理な芸当なんだから素直に認めりゃいいのに
236: ニューノーマルの名無しさん 2021/08/10(火) 11:44:38.74 ID:5a5I+xMJ0.net
>>221
Androidに比べてプライバシー保護を売りにして広告打ってるから
それを否定すると売れなくなるのよな。
正直今回のはやりすぎなので止めてもらいたいが。
Androidに比べてプライバシー保護を売りにして広告打ってるから
それを否定すると売れなくなるのよな。
正直今回のはやりすぎなので止めてもらいたいが。
240: ニューノーマルの名無しさん 2021/08/10(火) 11:45:40.90 ID:nBSpyZZW0.net
>>1
うちの子が川で遊んでる画像と動画も消されちゃうんだろうなぁ
うちの子が川で遊んでる画像と動画も消されちゃうんだろうなぁ
259: ニューノーマルの名無しさん 2021/08/10(火) 11:47:30.61 ID:LjnL5O2C0.net
>>240
消されはしない
犯罪者として通報されるだけ
消されはしない
犯罪者として通報されるだけ
278: ニューノーマルの名無しさん 2021/08/10(火) 11:49:04.49 ID:8/zVdysN0.net
子供が自分の裸撮ってどっかの変質者に送ろうとしてるものとかが検知出来るなら良いことじゃん
289: ニューノーマルの名無しさん 2021/08/10(火) 11:49:59.87 ID:AtRvh7mN0.net
>>278
それをなんでAppleがやるんだよ
親がやれよ
それをなんでAppleがやるんだよ
親がやれよ
301: ニューノーマルの名無しさん 2021/08/10(火) 11:51:03.57 ID:oxXSl19c0.net
>>278
Appleの変質者に届くようになる
Appleの変質者に届くようになる
279: ニューノーマルの名無しさん 2021/08/10(火) 11:49:05.57 ID:+eFyGQ5C0.net
きさま!見ているなッ!
351: ニューノーマルの名無しさん 2021/08/10(火) 11:55:48.47 ID:VBK3RTD30.net
どっかの記事で見たけど自国の基準にあわせるらしい
359: ニューノーマルの名無しさん 2021/08/10(火) 11:56:40.21 ID:Iwxn3/4e0.net
Appleの言い分
> Appleによると、写真をスキャンするこのCSAM(児童性的虐待素材)対策機能は、「既知のCSAM画像と一致したもの以外の写真に関する情報を
> Appleに一切提供せずに、iCloud写真からCSAMを排除することを目的に設計されている」という。同社は、そうした画像を所有する行為も、
> 米国を含むほとんどの国で「違法」だとしている。
>
> Appleは、この機能について、iCloud写真を使って写真を保存するユーザーのみに適用される予定で、
> 「iCloud写真の利用を選ばないユーザーには影響しない」としている。
https://article.auone.jp/detail/1/3/7/213_7_r_20210810_1628549742068656
これを読む限り
AIによる自動検出ではなく、データベースに存在する既知の児童ポルノと一致するかどうかチェックするもので
現時点で自前の写真や2次元のものまで心配することはなさそう
しかも対象は米国内のユーザーだし
> Appleによると、写真をスキャンするこのCSAM(児童性的虐待素材)対策機能は、「既知のCSAM画像と一致したもの以外の写真に関する情報を
> Appleに一切提供せずに、iCloud写真からCSAMを排除することを目的に設計されている」という。同社は、そうした画像を所有する行為も、
> 米国を含むほとんどの国で「違法」だとしている。
>
> Appleは、この機能について、iCloud写真を使って写真を保存するユーザーのみに適用される予定で、
> 「iCloud写真の利用を選ばないユーザーには影響しない」としている。
https://article.auone.jp/detail/1/3/7/213_7_r_20210810_1628549742068656
これを読む限り
AIによる自動検出ではなく、データベースに存在する既知の児童ポルノと一致するかどうかチェックするもので
現時点で自前の写真や2次元のものまで心配することはなさそう
しかも対象は米国内のユーザーだし
390: ニューノーマルの名無しさん 2021/08/10(火) 11:58:59.91 ID:0FHT3Vo30.net
>>359
米国とかだと絵も児童ポルノ扱いしてるんじゃないの
そのデータベースに絵が登録されてればアウトだろ
米国とかだと絵も児童ポルノ扱いしてるんじゃないの
そのデータベースに絵が登録されてればアウトだろ
387: ニューノーマルの名無しさん 2021/08/10(火) 11:58:49.28 ID:DgbcUV+h0.net
欧米はやることが極端すぎる
439: ニューノーマルの名無しさん 2021/08/10(火) 12:02:03.21 ID:Uq5MzXPO0.net
これ、自分の部屋に監視カメラセットされるのと変わらんな
496: ニューノーマルの名無しさん 2021/08/10(火) 12:08:00.21 ID:ODy2ekbr0.net
これ一応、アップルの説明では
「CSAMとして既知の画像のみ」を検出する事になってる。
要は登録されていない画像、
自分の子供や孫は検知対象外って事なんだけど、
ただいくらでも誤作動はあり得るわな...
「CSAMとして既知の画像のみ」を検出する事になってる。
要は登録されていない画像、
自分の子供や孫は検知対象外って事なんだけど、
ただいくらでも誤作動はあり得るわな...
503: ニューノーマルの名無しさん 2021/08/10(火) 12:09:03.78 ID:5a5I+xMJ0.net
>>496
それもあるしいつの間にか対象拡大してそうでそれが恐ろしいよな。
それもあるしいつの間にか対象拡大してそうでそれが恐ろしいよな。
504: ニューノーマルの名無しさん 2021/08/10(火) 12:09:13.27 ID:5+hU+sz30.net
別に児ポ持ってないから良いけど
何が問題なん?
何が問題なん?
511: ニューノーマルの名無しさん 2021/08/10(火) 12:10:11.64 ID:5a5I+xMJ0.net
>>504
端末の中身を見られるというのが問題。
端末の中身を見られるというのが問題。
513: ニューノーマルの名無しさん 2021/08/10(火) 12:10:17.04 ID:sDGu4Jft0.net
>>504
その言い分はそれとして、本当にそうかどうか一旦全部見させて貰うよ、って事だぞ
その言い分はそれとして、本当にそうかどうか一旦全部見させて貰うよ、って事だぞ
641: ニューノーマルの名無しさん 2021/08/10(火) 12:22:09.38 ID:fR05nGO30.net
単純所持は違法なんだから、画像をケータイに入れたらだめ
これは分かる
一企業が個人情報を監視したらだめだろうとは思う
情報はすでに抜かれてるから、気にしすぎと言われればそうだが
これは分かる
一企業が個人情報を監視したらだめだろうとは思う
情報はすでに抜かれてるから、気にしすぎと言われればそうだが
694: ニューノーマルの名無しさん 2021/08/10(火) 12:28:41.59 ID:cS9aj27T0.net
他の写真は検知しないってどういうこと?
iPhoneは超能力を持ってるのか?
iPhoneは超能力を持ってるのか?
726: ニューノーマルの名無しさん 2021/08/10(火) 12:32:12.93 ID:hQbgoBsE0.net
>>694
児ポを保存してると明らかになってるサイトに関連してるタグを検知するんじゃね?
そこから保存したらわかるみたいな
児ポを保存してると明らかになってるサイトに関連してるタグを検知するんじゃね?
そこから保存したらわかるみたいな
739: ニューノーマルの名無しさん 2021/08/10(火) 12:33:55.70 ID:Iwxn3/4e0.net
>>726
データベースに登録してある既知の児童ポルノ画像のハッシュ値と同じものかどうかをチェックする
画像を拡大縮小した程度なら同じハッシュ値が得られるから、それで検出できる
データベースに登録してある既知の児童ポルノ画像のハッシュ値と同じものかどうかをチェックする
画像を拡大縮小した程度なら同じハッシュ値が得られるから、それで検出できる
753: ニューノーマルの名無しさん 2021/08/10(火) 12:36:24.87 ID:A6vfdCyl0.net
>>739
それだとハッシュ値が同一になるように調整された画像で誤認逮捕させることもできるだろうな
それだとハッシュ値が同一になるように調整された画像で誤認逮捕させることもできるだろうな
705: ニューノーマルの名無しさん 2021/08/10(火) 12:29:55.36 ID:9gcKIipF0.net
しかし、検知する仕組みは羨ましいな
性癖を打ち込んで1発で世界中からオナネタが飛び込んで来るんだろ?
性癖を打ち込んで1発で世界中からオナネタが飛び込んで来るんだろ?
721: ニューノーマルの名無しさん 2021/08/10(火) 12:31:42.86 ID:O1FIBsaq0.net
>>705
サンプルと似たような画像が世界中から集められるのは大方当たってるらしい
サンプルと似たような画像が世界中から集められるのは大方当たってるらしい
747: ニューノーマルの名無しさん 2021/08/10(火) 12:35:03.73 ID:7zhN9/dy0.net
iPhone内のロリ画像検索して自動的に警察に電話してSiriが通報したら感動する。(´・ω・`)
762: ニューノーマルの名無しさん 2021/08/10(火) 12:37:30.30 ID:xAY7hHc90.net
>>747
言葉の検索してる人にpもリストアップされて警告来るようになるんだよ
言葉の検索してる人にpもリストアップされて警告来るようになるんだよ
798: ニューノーマルの名無しさん 2021/08/10(火) 12:41:53.97 ID:2DCpQjUX0.net
アップル「俺達発砲事件の犯人のデータを政府に要請されて拒否した実績あるから安心して!」
いや、そこは協力しろよ…
いや、そこは協力しろよ…
918: ニューノーマルの名無しさん 2021/08/10(火) 12:57:16.84 ID:xlGe4W/00.net
なんかこの機能にあまりにも強い反応してるヤツは
特別な監視対象にしたほうがいいんじゃねえかな?w
特別な監視対象にしたほうがいいんじゃねえかな?w
981: ニューノーマルの名無しさん 2021/08/10(火) 13:06:59.11 ID:FULHNgv00.net
>>918
こんなことで反応する奴は性犯罪予備軍だよな
監視対象だよ
ってどんどん疑心暗鬼になって密告通報社会になるんだよな
暗黒だなwwwww
こんなことで反応する奴は性犯罪予備軍だよな
監視対象だよ
ってどんどん疑心暗鬼になって密告通報社会になるんだよな
暗黒だなwwwww
941: ニューノーマルの名無しさん 2021/08/10(火) 13:01:09.64 ID:1XuaoPz20.net
検閲になるから日本だと憲法違反で無理だろうけど、本来勝手にデータを送る機能なんてあってはいけない機能
写真どころかそれ以外のデータを送っていてもおかしくないわ
写真どころかそれ以外のデータを送っていてもおかしくないわ
996: ニューノーマルの名無しさん 2021/08/10(火) 13:09:12.49 ID:vD5ce8SA0.net
SF映画みたいな世界になりそう
◆【悲報】1年間ヌキまくりパック、まだ届かない
◆【速報】ベラルーシ五輪選手の亡命、間一髪だった
◆【動画】オ〇ホによくある「喉輪締め」とかいう技、実在したwwwwwwww
◆【悲報】海外のゲーム会社、日本で流行らせたいあまり最悪の手段に出ようとするwwwwwwwwww
◆自衛隊の体力検定トップクラスの基準wwwwwwwwwww
|
|
|
|
コメント一覧 ⇒ブログ・はてなブックマークにコメントする
1 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 00:45 ▼このコメントに返信 よくわからんけど
自動ポルノってユーザーのプライバシーを侵害してまで探しだないといけないもんなん?
2 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 00:47 ▼このコメントに返信 スマホにエロなんか入れないからそれ自体は別にどうでもいいんだけど、
単純にユーザーの情報盗み見出来るのは不快感があるわ
嫌らしい会社だな
3 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 00:50 ▼このコメントに返信 犯罪者が捕まりやすくなって良いとは思うし別に見られて困る写真も無いし、グーグルとかアメリカとか既にやってるんじゃねと思う
でもなんとなく嫌
4 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 00:50 ▼このコメントに返信 なお、最終的に人の目で確認して児童ポルノかどうか判断します。
5 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 00:50 ▼このコメントに返信 何だかんだ文句言いつつ大部分のユーザーはiPhone使い続けるでしょ
これでAndroidに移ろうって人は多分あんまりいない
6 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 00:54 ▼このコメントに返信 児童ポルノを絶対に許さないアメリカですら物議醸してるって相当やで
ワイとしては3次ポルノはここまでやって規制するのも有りやと思うが、こいつらいずれ2次まで手を広げるからダメ
7 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 00:55 ▼このコメントに返信 信者ならプライバシーぐらいAppleに売り渡せるよな?
8 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 00:55 ▼このコメントに返信 縮小してもハッシュは同じとか狂ったこと言ってる奴がいるが大丈夫か?
1bitでも違えばハッシュは違うわ。
9 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 00:56 ▼このコメントに返信 バカだな匿名なりリップサービスならいくらでも言うだろうが実際に無差別にデータ覗き見られるってなったとき全く問題無い奴なんてそうそう居ないんだから一気に客離れするぞ
10 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 00:57 ▼このコメントに返信 >>1
反対しにくいネタ、見映えの良いネタで一度通せばその後は……
というのはよくあるやり口だね。
11 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 00:58 ▼このコメントに返信 欧米の場合はポリコレ的な要因もありそうだけど、やってる事自体は中国とあんまり変わらなくなってきてる感
12 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 00:58 ▼このコメントに返信 二次エロも引っ掛かりそうで怖い
AI頼みだとソシャゲのSSですら反応しそう
13 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 00:59 ▼このコメントに返信 既知画像との比較検出だと、背景を別物に変えるくらいの対策はすぐにされてしまうわけで、
対策強化とかですぐに範囲拡大される気はするな
14 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 01:00 ▼このコメントに返信 >>3
わかりやすく言うとマイノリティリポートの世界なんだよ
それを是とするかは人によるけど、プライベートの塊であるスマホやパソコンを他者が勝手に覗き見して通報するとかキモいし怖いしだろうな
15 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 01:01 ▼このコメントに返信 ロリ画像自動収集機能を活用するアップルは逮捕されないの?
16 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 01:02 ▼このコメントに返信 Apple へのデータ提供に同意してなくてもされるんなら訴訟ものですね
17 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 01:03 ▼このコメントに返信 >>8
ワイは技術的なこと詳しくないが、ハッシュ値に関してのAppleへのインタビューで
「保存する画像をほんの少し編集されると、ハッシュ値照合できないのでは?」という質問に対して、「類似してる画像は高い精度で照合できる」と答えてたで
18 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 01:03 ▼このコメントに返信 免許証とかマイナンバーカードみたいに児ポとは無関係な画像も一応チェックするんだろうな
19 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 01:05 ▼このコメントに返信 でもLINE使ってるやつがプライバシー語ってたらちょっと笑っちゃうよね
20 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 01:10 ▼このコメントに返信 >>17
だとすれば、それは一般的な意味での「ハッシュ」とは全く異なるアルゴリズムだよ。
21 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 01:12 ▼このコメントに返信 >>5
この点についてはAndroidが先行してるのでね。。。
22 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 01:12 ▼このコメントに返信 タイのメーサイ岡崎氏のスマホは大丈夫でしか
そうですか
23 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 01:15 ▼このコメントに返信 >>6
個人情報収集、検閲Apple基準での統制をするための建前としての子供の性的搾取から守るためなんて詭弁で通していいシステムじゃないからな
24 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 01:17 ▼このコメントに返信 米1
プライバシーの侵害もできる
そう、iPhoneならね
25 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 01:17 ▼このコメントに返信 >>20
細かいセグメントに分けてハッシュを取ってるんだろう
どちらも正しいよ
26 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 01:18 ▼このコメントに返信 FBIには絶対協力しないマンだったのに
自分は信じてくれという皮肉
27 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 01:21 ▼このコメントに返信 iPhoneなんか使うのがそもそも間違い
28 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 01:23 ▼このコメントに返信 >>8
ハッシュといってもいろいろあるよ
phashやらahashのアルゴリズム使えば拡大縮小も類似もわかる
君が言ってるのはビットから計算するチェックサムなんかの話でしょ
29 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 01:24 ▼このコメントに返信 学校の持ち物検査じゃあるまいし
なんの権利があって人のもの覗き見すんのやら
30 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 01:26 ▼このコメントに返信 犯罪者見つける有効な手段なのにわざわざ児ポだけにとどめる理由はないわな
31 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 01:28 ▼このコメントに返信 アメリカを含む多くの国で単純所持が違法で既存の児童ポルノと照合して合致してれば削除
つまりアップルは児童ポルノのアーカイブ作ってて単純所持してる犯罪企業って事か
32 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 01:33 ▼このコメントに返信 煮卵アップしたら黒ギャル認定されて通報されるんか
33 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 01:35 ▼このコメントに返信 今までも情報は抜かれてただろうっていうのは暗黙で承知の上だろうけど
それを明確に集めるだけじゃなくて使いますって名言すりゃそら問題にもなるわ
34 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 01:44 ▼このコメントに返信 アホーンなんて使わないから問題ない
35 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 01:58 ▼このコメントに返信 Appleのクラウドって
36 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 01:59 ▼このコメントに返信 iCloudに金払ってプライバシー無くなるって事か
児ポ無いにしても不快
違うクラウドに乗り換えたいが、プライバシー守れるクラウドなんてあるのか?
37 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 02:02 ▼このコメントに返信 実は習近平中国とズブズブの関係にあるのがApple
>Appleの取引先、中国最多51社 台湾抜き首位|日本経済新聞
>米中貿易摩擦でも増加
> 米アップルの機器生産で中国企業の存在感が高まっている。
>アップルが2日までに開示した2020年のサプライヤーリストで、
>中国(香港を含む)勢は200社中51社と、台湾を初めて上回り首位となった。
中国政府の意向に従って世界規模の検閲ツールを走らせる未来は遠くないね
38 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 02:08 ▼このコメントに返信 そういう写真は撮らないし持ち合わせてないから問題ないけれど、覗き見されるのは嫌だね。
それにそれ以外は見ないという保証もない。
39 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 02:10 ▼このコメントに返信 >>1
こういうのって共産主義国家しかやらんと思ってたけどまさかAppleがやり始めるとはな
これ有りならグロ検問とか陰謀論検問とかどんどん追加されそう
40 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 02:14 ▼このコメントに返信 そもそも携帯端末にいかがわしい画像なんて残すな
落としたらその週にはPCに移しとけ
41 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 02:15 ▼このコメントに返信 iCloudにアップする時だけとか言い訳してるけど、その判定処理は端末でやるってのがクリティカル過ぎるんだよな
どう考えても拡大解釈していく路線じゃんとしか思えない
42 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 02:21 ▼このコメントに返信 >>5
アメリカに個人情報売るか中国に個人情報売るかの違いしかないからね
43 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 02:23 ▼このコメントに返信 >>36
自宅にNAS環境作ればいい
44 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 02:24 ▼このコメントに返信 >>9
実際海外では家族写真で逮捕された例もあるからな。
45 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 02:25 ▼このコメントに返信 >>24
LINEの関連会社に警察権があるんだ。へー。
46 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 02:25 ▼このコメントに返信 そのデータベースは絶対に正しいのか?
俺がチェックしてやるよ
47 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 02:27 ▼このコメントに返信 3年前にファーウェイに変えて今年アイホンに変えたワイのデバイスセキュリティはボロボロやで
48 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 02:29 ▼このコメントに返信 >>38
今回のアルゴリズムならまだいいが、酷くなると、例えば自分の娘が風呂場で遊んでいて、それを写真に収めたら警察に捜査されたり逮捕される可能性だってあるわけだ。
児ポ名目に政府が個人に強く干渉しすぎてる印象はあるね。
49 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 02:34 ▼このコメントに返信 むしろそのAIどうやって合法的に作ったんだよ
大量のサンプル画像ないと無理だろ
50 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 02:35 ▼このコメントに返信 Appleって客が修理に出したiPhone内の自撮り写真を何を考えたのかFacebookに載せちゃって裁判起こされて数百万ドル支払ったんだよな
これも絶対悪用されるわ
51 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 02:37 ▼このコメントに返信 米8
dHashとかpHashとかで検索しろよ
計算方法からして似た画像であれば距離の近いハッシュが得られる
52 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 03:04 ▼このコメントに返信 騒ぐのが10年遅い
スマホ持って風呂入るなんて自殺行為だし
トイレの中でスマホ使うのも自殺行為だし
なんでそんなこともわからんのか
53 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 03:22 ▼このコメントに返信 不倫相手に送らせた陰部の写真が、勝手にカテゴリー赤ちゃんに分類されてたガバガバ精度なのに無理だろ
54 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 03:29 ▼このコメントに返信 恋人と恥ずかしい写真をやり取りしている女はApple社員の大切なオカズです
55 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 03:29 ▼このコメントに返信 全てが嘘くせえ
それに実質的な検閲だろ
腐った糞林檎如きが増長してんじゃねえぞ
56 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 03:29 ▼このコメントに返信 誤検知によるゴタゴタにちゃんと対応できるんならやれば良いんでね。ごめんちゃいで済むと思ってるなら実装するな。
57 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 03:30 ▼このコメントに返信 Appleに努めてる人間がみんな聖人だっていうならアリやろな
58 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 03:34 ▼このコメントに返信 児ポの判断基準が怪しすぎて誤検知の嵐になりそうだな
そもそも警察でもねえ一企業が勝手に個人の端末の画像閲覧とかプライバシーもクソもねえし一体何の権限でやるってんだ?
59 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 03:37 ▼このコメントに返信 米1
欧米ではそうなんだろうね
日本はなんだかんだ地域社会の監視の目で児童が守られてる部分が大きい
あっちは親に捨てられた子供とか、そういう子供をさらう個人や組織が現実問題として存在するんだろう
だからロリコンはテロリストと同レベルの社会の敵認定される
iPhoneというアメリカ製品を使う以上、アメリカの事情に付き合わされるのはしょうがない
嫌ならみんな国産を使え
60 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 03:41 ▼このコメントに返信 データベースをもとにして一致で調べるから大量のデータがあるんだろうが
そのデータを扱うのは人だし、そのデータベースから新たに児童ポルノが流出したりする危険性があるよな
それにAIが写真を検知したとき誤検知でないか人間が確認するだろうから
確率はごくごく僅かだろうが、iPhone内の写真が誤検知によって赤の他人に閲覧される可能性があるということ
61 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 03:42 ▼このコメントに返信 画像盗み見るより現実世界でペドってる上級とかプロダクションの逮捕はしないんだ?
62 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 03:44 ▼このコメントに返信 端末どうこうよりうちNUROだから光端末がファーウェイと同時にスパイ端末で話題になったZTEだからなあ
NUROに別のメーカー変えられんか聞いたら他はファーウェイですと言われて八方塞がり草
63 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 03:45 ▼このコメントに返信 米60
全ユーザーの端末から収集した画像データを全部人間が確認するわけねえだろ
何億件になるんだよそれ無理だろw
64 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 03:50 ▼このコメントに返信 米63
AIがデーターベースの画像との一致を検知したらの話だろうが
ユーザーは米国内に沢山居てもデータベースと一致するような画像をiPhoneに入れてるやつなんか多くても100件くらいだろう
その中から誤検出でないかの確認は人力だろうと言ってるのよ
65 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 03:56 ▼このコメントに返信 自分の子供と楽しくお風呂に入ってる写真まで引っかかるだろう
児童ポルノ好きの変態野郎どものせいで世の中生きづらい
性犯罪者とその予備軍は絶海の孤島にでも送り込め
66 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 04:05 ▼このコメントに返信 アメリカって通信の秘密が保障れてないってこと?
すげーな。そんなん検閲し放題だし、むしろ法整備遅れすぎだろ。
67 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 04:15 ▼このコメントに返信 海外じゃ日本の合法二次元ですら逮捕される事もあるから今のうちにiphonやめたほうがいいぞ
68 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 04:20 ▼このコメントに返信 >>39
アメリカは共産主義の思考、概念すら違法なんだがな
訴訟は間違いなく起こるねこれ
69 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 04:25 ▼このコメントに返信 現像を写真屋に頼んでた世代からすると
騒ぐようなことか?レベル
70 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 04:27 ▼このコメントに返信 あーロリ画像ないか調べてたら何故か他国の軍事機密ゲットしちゃったわー
子供守るためだもんね、不可抗力不可抗力っと☆
71 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 04:41 ▼このコメントに返信 米69
現像を写真屋に頼むかどうか、どの写真屋に頼むかは自分で選べるけど
これは全員から盗ってるからな
72 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 04:59 ▼このコメントに返信 >>69
あの時代ハメ撮りとかも現像してもらってたな
73 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 04:59 ▼このコメントに返信 米70
真の目的はこれな
建前上多少とっつかまえるが
本音はソレが目的児童ポルノなんざおまけでどうでもいい
政府関係者が情報手に入れたがってる人のほぼ100%がiPhone使ってる今こそ効いてくる
中国みたいにバックドアとか変なチップ組み込んだら流石にバレバレで言い訳もできないので
児童ポルノを建前にしてる
74 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 05:06 ▼このコメントに返信 2019年04月02日 13時17分
AppleにとってFBIとの法廷闘争は「会社を賭けた」決断だった
>サンバーナーディー銃乱射事件の捜査において、
>FBIは犯人が所有していたiPhoneを調べるためにAppleに端末のロック解除を要求しました。
>しかし、Appleはアメリカ政府のためにiPhoneのロック解除が可能となるツールを開発すれば、
>政府が「何百万台という端末に簡単にアクセスできるマスターキーを得るようなもの」であり、
>これはAppleが構築したセキュリティ面での信頼性を壊す行為に他ならないと政府の要求を批判しました。
75 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 05:08 ▼このコメントに返信 ※73
元々ファイル走査するシステムがあれば誤魔化しやすいよね
76 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 05:35 ▼このコメントに返信 他の画像は検知しないwww 検知せずにどうやって判断するんだよアホか
77 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 05:55 ▼このコメントに返信 見られて困る通信しなきゃ済む話だろ
78 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 05:57 ▼このコメントに返信 >>7
こないだサポセンに電話したら、リモートデスクトップみたいに外部からiphone操作されたぞ
技術的にどうとでも出来るとこまで来てるから、もはやプライバシーなんかないに等しいわ
79 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 06:11 ▼このコメントに返信 有名な児ポ画像や動画と照会する形でしょ
Twitterの判別とは全く別物
80 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 06:13 ▼このコメントに返信 しっかりググってから騒げよ
想像で偉そうに批判してるオヤジ何なの?
児童性的虐待資料(CSAM)をオンラインで照合し、問題があれば 米行方不明・搾取児童センター(NCMEC)に報告
81 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 06:33 ▼このコメントに返信 米80
そうやって単純に考えればいいことなんだが
一度認めたら権限の及ぶ範囲が次第に拡大されるなんて、いつの時代でも問題化してるだろ
しかもそれが民間企業で世界中の情報を握ってるんだから
下世話な話、先っぽだけ、先っぽ入れるだけだから、で男が寸止めしないのと一緒
82 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 06:39 ▼このコメントに返信 アメリカもだけど世界には犯罪組織が子供さらって人身売買する市場あるらしいからこういうのはガチで厳しい
日本の感覚で考えちゃいかんよ
83 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 06:40 ▼このコメントに返信 前科者でも容疑者でもないのに、
iPhoneの内部の写真を検査の対象とされるのに、
不快感がない奴はアップル信者続けてればいいよ
プライバシーの権利を放棄してるようなもんだから
84 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 06:43 ▼このコメントに返信 これ画像送りつけて逮捕ってのが可能になるからなぁ
送りつけられたら証拠も残るし言い訳しようがない
送る側は捨て垢でいけば余裕で逃げられる
85 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 06:46 ▼このコメントに返信 スゲーよなぁ
警官がやる所持品検査だって、本人の同意を得てからしかやれないのに、
Appleは無断でやれるんだぜ
もはやGAFAは国家権力を超えたねw
86 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 06:49 ▼このコメントに返信 一企業がデカくなってインフラの一端握ったからって一般人への検閲を許されて良いはず無いのでは
「児ポ対策のため」と言っておけば反論がしづらくなる事わかってて掲げてるし、
本当に犯罪対策のためならiCloud利用者だけに対象を絞って抜け道を用意する意味もない
「一度通してから後からズルズル検閲対象拡大しますよ」と宣言してるようなもの
87 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 06:49 ▼このコメントに返信 児ポを錦の御旗にして検閲したいんだろうな
これが上手くいったら徐々に色んな検閲やりだすんだろ?
88 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 07:08 ▼このコメントに返信 海外じゃ二次もアウトというか、二十歳こえてても若く見えたらアウトやろ
頭おかしいわ。日本人とか外人より若く見える分勝手に写真削除とかされるんちゃうか
89 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 07:10 ▼このコメントに返信 いうほどスマホにエロ画像入れとくか?
90 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 07:15 ▼このコメントに返信 米89
これなんだよなぁ
91 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 07:37 ▼このコメントに返信 こんな予告出したらガチの奴はネットに繋がらん普通のカメラ使い出すから何の対策にもならんやろ。高価なApple製品手に入れられてカメラ手に入れられない環境なんてまず無い。検閲以外この実装が掲げた成果を上げることはない
米88 例えばオーストラリアではたとえ成人していてもAカップ未満は児童扱いでアウトだな
92 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 07:37 ▼このコメントに返信 「他の写真は検知しない」ってそもそも全データ確認するから、こういう検出は意味あるものだろうに・・・色々おかしい
93 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 07:39 ▼このコメントに返信 「この事に拒否感持つ奴は性犯罪者予備軍」みたいなクソレッテル貼りするクソボケ何なんだ?
目の前にいたら殴り殺してやりたいと思うレベルでクソうぜえ
94 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 07:43 ▼このコメントに返信 Apple側で比較元の画像を持ってないと検知できないな
ちょっとAppleの画像管理課に就職してくる
95 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 08:05 ▼このコメントに返信 生まればかりの赤子の写真、上半身ヌードもアウトか
96 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 08:09 ▼このコメントに返信 ちょっとこれやめてくれよ
俺がいくつこういうのもっているんだとおもってんだよ
97 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 08:13 ▼このコメントに返信 日本人向けのiOSはオンオフできるようにしてくれるならいいよ
98 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 08:13 ▼このコメントに返信 ヌーディストビーチの画像も一斉に削除されたけど
コロナのために削除したような気がしてならない
検索する画像には標識と犯罪者のような画像に変わったしね
99 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 08:39 ▼このコメントに返信 共和党支持者がどんどん捕まるんですね。
100 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 09:19 ▼このコメントに返信 iCloud写真オフなら検閲されないって知ってる人少ないな
Appleが言ってるけどほんとか知らんけど
101 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 09:45 ▼このコメントに返信 >>100
Appleが発表したCSAM拡散防止に向けた取り組みは、主に「メッセージアプリ」「iCloud写真」「Siriと検索機能」上で、ユーザーのプライバシーを損なわない形でコンテンツを検閲したり、ユーザーがCSAMについて検索した場合に警告したり、子どもがCSAMを送信してしまった場合には親に通知したりするというものです。
これって常にスキャンしてないと機能しないと思うんだよな
102 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 09:46 ▼このコメントに返信 >>6
Googleドライブで非公開設定で二次エロ画像保管してたら勝手に消されたってのがあったな
103 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 09:49 ▼このコメントに返信 わいが検閲の仕事立候補したい!!!
104 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 10:36 ▼このコメントに返信 iosの自動画像認識機能で成人もすぐ赤ちゃん扱いされるじゃん
成人の裸なんか撮ったら全部見られてそう
105 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 10:53 ▼このコメントに返信 どの精度で検知するんだろうな
同じ構図を一致と判断するなら誤検知の確率は低くないだろ
106 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 10:56 ▼このコメントに返信 いつも思うけどこういうのって誤検知に対する対処法をろくに整備しないのは何でなの
自動判別なんてAIだろうがなんだろうが誤検知は必ずあるのに自信満々に信頼度100%で進めるよね
107 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 11:14 ▼このコメントに返信 林檎に敵対するiPhone使いの政治家、実業家が出てくると
児ポに無関係でも不利な情報が何故か拡散されるんやな
108 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 11:31 ▼このコメントに返信 どっちがエッチかなアルゴリズムで反応する画像を作成
全iphoneに画像保存→システム壊滅。
109 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 12:47 ▼このコメントに返信 アップル社員「うひょひょ、このハメ撮りエッチだねぇシコシコ」
110 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 15:27 ▼このコメントに返信 >>39
こういう聞こえがいいものを検閲するって名目で個人情報全部抜くつもりなんやろなぁ…
今後政治犯とか中国の批判をした人間を捕まえるとかに使われそう
111 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 16:24 ▼このコメントに返信 何でスマートフォンに保存するんだろ
いつ誰に抜かれてもおかしくない環境なのに
アプリにOSにどこで情報収集してるかわからない
紛失しても危険だし
112 名前 : 暇つぶしの名無しさん投稿日:2021年08月12日 16:25 ▼このコメントに返信 そのAppleのデータベースに登録される画像はどういう基準で選ばれるのか?っていうのが一番恣意的になりそうな部分だな
結局は人間の判断でデータベースに登録するだろうし、そこで幼く見える成人とかCG、二次元とか紛れ込んだらめんどそう