一緒にスマホを見る子供たちのイラスト

スマートフォンで「性的な写真」を撮影できないようにしてほしい——。児童ポルノやリベンジポルノなど、デジタル性暴力に関する相談を受けている団体が、米アップルと米グーグルに対して、こんな内容の要望を出そうと準備している。(ライター・玖保樹鈴)

【画像】キャンペーンに協力する大塚咲さん

●性的な画像を撮影させない「AI」を搭載することを望んでいる

自撮りにしろ、盗撮にしろ、スマホで撮った性的な画像は、いったんインターネット上に掲載されてしまうと、完全に消すことはむずかしい。プロバイダに削除してもらっても、ふたたび流出することが少なくないからだ。

こうした状況を受けて、NPO法人「ポルノ被害と性暴力を考える会」(ぱっぷす)は、圧倒的なシェアを占めるアップルとグーグルに対して、スマホの標準機能として、性的な画像を撮影させない人工知能(AI)を搭載することを要望しようとしている。

●クラウドファンディングをスタートさせている

この要望に先立って、ぱっぷすは昨年12月25日、キャンペーンの広告費をあつめるクラウドファンディングを立ち上げた。

クラウドファンディングには、写真家・アーティストの大塚咲さんのアート作品が返礼品となっている(3万円以上)。

大塚さん自身も9年前にAV女優を引退したにもかかわらず、現在も性的な画像がインターネット上で検索できることから、そのことについて異議を唱えている。

ぱっぷす理事の金尻カズナさんは「大塚さんがデジタル性暴力の本質を表現されている、数少ないアーティストの一人であることから、キャンペーンの協力を依頼することになった」と話す。

「表現の自由」などの観点から議論が出てくることも予想されるが、今回のキャンペーンについて、金尻さんと大塚さんに聞いた。

●GAFAに扉を開けてもらうために

——アップルやグーグルにこのような要望を出そうとするのはなぜでしょうか?

金尻:ぱっぷすに寄せられる児童の被害相談のほとんどが、性的な写真の送付要求や盗撮、拡散など、スマホにまつわるものです。自分で撮影した性的な写真を「自画撮り」といいますが、児童に自画撮りをさせて、巧妙に送らせる大人たちがいます。

被害児童は、「そんなことをする子どもだったのか」と失望させてしまうことをおそれて、親に相談できません。性的な写真を送ってしまった自分が悪いのではないかと諦めてしまったケースもあります。

この問題にどう向き合えばよいか、本当に悩み苦しみました。ぱっぷすがロビー活動をして、法律制定につなげられないかも検討しましたが、2014年改正の児童ポルノ禁止法の単純所持ですら、2004年から足掛け10年もかかっています。

法律の制定はとてもハードルが高く、GAFAなど、大手IT企業がイノベーションを生み出す裏で引き起こされている人権侵害について、何ができるのかと悩んでいた矢先にこのアイデアが持ち込まれたのでした。

ちなみに、人工知能(AI)を使って、スマホに性的画像を撮影させないというアイデアは、ぱっぷすの相談員の知人で、イノベーションコンサルタントの谷とも子さんによるものです。

https://headlines.yahoo.co.jp/hl?a=20210122-00012346-bengocom-soci
  1. クソだな
  2. タイムマシン速報かと思ったらちがった
    Toneモバイル使えToneモバイル

  3. ——どうしてクラウドファンディングを立ち上げたのですか?

    金尻:アップルやグーグルと話し合いたいと思っても、相手が応じてくれないからです。それがシリコンバレーのIT企業(GAFA)の特徴です。彼らにとっての日本は、あくまで一消費地にしか過ぎないのだと思い知らされました。

    私たちの声をアップルとグーグルに届けて、扉を開けてもらうためには、署名を集めるしか手立てがありませんでした。そして、多くの人に知ってもらい、声を届けるためには、広告費や人件費がかかります。どうしても予算が必要です。

    そのためにクラウドファンディング立ち上げました。

    ——いわゆる「デジタルタトゥー」の削除要請は、プロバイダー側に申し立てることが一般的だと思います。

    金尻:ネット上に拡散した性的画像記録の削除要請の際に、相談者の身分証明書の提示がなければ、削除に応じないプロバイダもあります。

    とくにデジタル性暴力被害者は、ネット上に拡散している性的な映像や画像と本名および住所が関連づけられて、再拡散することを極度におそれます。

    一方、性的画像記録を投稿する側は、ほぼ匿名に近い状態で投稿することができます。

    そのため、ぱっぷすは、匿名に近いサービスを提供しているプロバイダに対しては、被害者の身分証明書の提示をせずとも削除要請できる制度をもとめています。

    また、プロバイダが自ら児童ポルノ・リベンジポルノを発見しても通報義務もありません。

    ぱっぷすは、日本政府との意見交換の場で、プロバイダの責務として、意に反して拡散した性的画像記録を発見や通報があれば、関係府省に通告することなどをもとめています。しかし、まだ実現に至っていません。

    ●人権侵害に加担しないことを目指して

    ——性的な画像とそうではない画像をAIが見分けることは、技術的にはむずかしくないのでしょうか。もし、むずかしくないのなら、どうして今まで野放しにされてきたんでしょうか?

    金尻:現在のスマホは、一世代前のノートパソコンと同程度の機能を有しています。機械学習機能を用いれば、技術的には可能です。アップルとグーグルのエンジニアの頭脳と技術、開拓者精神によって十分実現できるものだと認識しています。

    今まで放置されていたのは、この問題に対して、これまで誰も声を挙げてこなかったことがあると思います。しかし近年、撮影技術が確立して、スマホの高機能化によって、野放しにできない問題になったということだと思います。

    ——「撮影機能を抑制するなんて!自由の侵害だ!」という反発も寄せられそうです。

    金尻:このキャンペーンは、スマホの撮影機能を抑制するように見えるかもしれません。しかし、撮影者に対して、児童ポルノ・リベンジポルノなどの人権侵害に加担しないようにスマホが教えてくれる機能ともいえます。

    自動車でたとえるならば、交通事故を防ぐために、カメラやセンサーとAI技術を活用してブレーキやハンドルの操作をしてくれる運転支援機能と同じ考えです。

    スマホが性的な被害者を生むための道具ではあってはならないと、私たちは考えます。

    残念ながら現在のスマホの撮影機能によって、多くの女性、子どもたち、時には男性すらも、被害を訴える「表現・言論の自由」が奪われていることから、このキャンペーンは、これまで被害を受けてきた方の「表現・言論の自由」が守られることにつながり、意識改革を促す抑止力になります。

    アートなど、同意のもとで性的画像記録を撮影する必要な場合は、一眼レフカメラなどで撮影すればよいのではないかと思います。

    ●大塚咲さん「性行為中に写真を撮りたがる男性が多い」

    ——大塚さんが協力した理由を教えてください。

    大塚:ぱっぷすさんは、ネット上にある私の出演作品について、削除依頼を代行してくださっています。その相談をしている際、今回のクラウドファンディングについて知りました。

    スマホの普及による性犯罪が増えているのではないかと思います。スマホで女性のスカートの中を盗撮している男性を目撃したことが何度もありますし、性行為中に写真を撮りたがる男性が多いのも知っています。

    盗撮だけでなく、同意のない性行為の撮影、児童ポルノの写真や映像による性暴力の記録は、個人が所有するだけでなく、ネット上に故意に流されることがあります。しかも、それによって、利益を得る人間がいるということは、エンターテイメントとして消費する需要があるのです。
  4. お前がイスラムみたいな性的じゃない格好すれば解決するよ
  5. 肌面積が多いと撮れないみたいな感じ?

    意外とできそう?
  6. 死ねや
  7. 悪いのはスマホやインターネットじゃなくてエロ画像を撮る自分だよね
  8. 全身タイツフェチが増えるな
  9. そんなことが可能なのか
  10. そのうち全てのカメラに搭載されて着衣avしか撮れなさそう
  11. 自画撮りってなんだよハダカ自撮りだろ
  12. > 大塚さん自身も9年前にAV女優を引退したにもかかわらず、現在も性的な画像がインターネット上で検索できることから、そのことについて異議を唱えている。



    さすがに無理あるやろ…
  13. 技術的にはできるが売れないから作らない
  14. AIに学習させるための参考画像を集めるところから始めるんだぞ
  15. 意識改革から始めたら?
  16. >>13
    キチガイかよ
  17. まあ普通にできそうではある
  18. 大根とか巻込みNGになったりするの
  19. 普通のカメラどうすんの
  20. 強制オンライン転送して人力で判断するというのはどうか
  21. やって欲しいことがあるならまず仕様を切れ
  22. AVに出るってそういうことだろ
    その代償に普通に働いても得られないような大金を得て
    好きなことできるようになったんだから文句言うな
  23. あんたは大丈夫
  24. 顔のトラッキングあるから
    乳首をトラッキングすればいけるな
  25. 無理だろ
    AVだってスマホ撮影で臨場感だすオマケがあったりすんだ
    AVで金儲けするやつがいる限りはね
  26. 我が子の水着姿とかも撮れなくなるんだな。
  27. AIにおっぱいとかまんことかの写真をいっぱい渡して学習させるってこと?
  28. 仮に出来るとしてそのAIの計算どこでするんだよ
    そんなくだらねえことのためにスマホの計算リソースだか電力だかわずかでも使いたくねえだろ
  29. スマホからカメラなくせよ…
  30. >>6
    ハゲが自撮りできなくなるだろ
  31. 勃起チンポは駄目
  32. ゴリラが撮れなくなるだろ
  33. 技術的に凄い難しそうなことを要求してんな……
  34. 学習用のデータセットを提供してもらわないとなぁ
  35. 学習データはハメ撮り百万枚くらい必要だな
  36. >>37
    エッチ
  37. 最近、性的なものってだけで悪のレッテル貼るの流行ってるの?統一教会?

    性がなきゃ俺ら繁殖できないんだが
  38. ハゲを撮らせないスマホも必要だろ…

  39. 彡⌒ ミ
      (´・ω・`) 自撮りすると
           性的な写真って弾かれる…
  40. これもまんこ二毛作の一環か
  41. AI使えば可能
  42. ジャップカメラメーカー歓喜のズンドコ
  43. ジャップNPOがアメリカのGoogleとAppleに要望して相手にされるわけがないだろ
    他のことに時間使えよ女ってほんとバカだな
  44. クラファンってただの乞食行為に成り下がったな
  45. これ良いんじゃね?
    未成年の女の子を守れるやん
  46. 脅されてならまだしも、自己顕示欲から自撮りしちゃうアホなまんこの教育を推進した方が早いのでは?
  47. これでニコンも復活や!
  48. じゃあ性的な格好するのやめたらいいんじゃないっすか?
  49. 画像処理がAIの一番の得意分野

    キチガイペドが死滅するなら喜んで!w
  50. 一定の面積以上の肌色が撮影禁止になって
    ゴリラの写真が撮れなくなるカメラが産まれるんだろ、知ってる
  51. >>13
    ……
  52. 俺が作るから性的写真を判別するための資料をくれ
  53. AV女優がやってんのかなんの冗談だよ
    まんこ二毛作はいい加減取締対象になれ
  54. これ要求するの日本人だろうと思ったらやっぱり日本人だわ
    何事も満点取らないとキレるよな
  55. 大塚さん自身も9年前にAV女優を引退したにもかかわらず、現在も性的な画像がインターネット上で検索できることから、そのことについて異議を唱えている。

    ぱっぷす理事の金尻カズナさんは「大塚さんがデジタル性暴力の本質を表現されている、数少ないアーティストの一人であることから、キャンペーンの協力を依頼することになった」と話す。


    アーティスト……
  56. これはいい提案だが、パートナーとの羽目撮りはどうすりゃいいんだ
  57. 盗撮できなくするのは確かにいいね
  58. デジカメ復調来るで
  59. 美人は顔から体まで全部映らなくなるな
    映るのはそうではない人だけ
  60. ボディペインティングすれば余裕だろ
  61. >>13
    まじで頭おかしい
  62. >>60
    何を言ってるんだ?紙袋被って子づくりするんだぞ
  63. ネット上にあげても最近は消えるよな
    昔の画像や動画まったく出てこない
  64. 子供をあやすママ
    https://i.imgur.com/0tM2XaY.jpg
  65. 元AV女優が検索されたら困るってあほやろ・・・
  66. 人間でも性的か単なる裸体か判別出来ないのにAIに出来るなら凄いな
  67. どんな画像が性的かを学習させる必要があるな(ぐへへ)
  68. >>67
    ケツ毛バーガーでググっても全然出てこなくなったわ。
  69. 技術的には可能だと思うから、アップルとグーグルはその技術を開発して!って発想がおかしい。
    自分で開発しろよ。その開発に必要な費用をクラファンで募れよ。

    あ、最終的にクラファンで集めたお金をネコババするつもりなのね。

  70. 何故そんなことを…😨😨😨
  71. > NPO法人「ポルノ被害と性暴力を考える会」(ぱっぷす)

    げ、トランス差別で有名なあそこじゃん
  72. 目標金額300万集めて要望書出すだけってあんた
  73. >>38
    スケッチ
  74. こういうの昔は日本の得意とする技術だったんだがなあ
  75. 巨乳写真は自動的に貧乳に変換されるのか
  76. 300万っていうはした金で開発出来るわけがねえだろ
  77. スマホからカメラ機能を外す運動をした方が現実的だろ
    実際誰もがみんなスマホ持つようになって一般人まで
    盗撮しまくるようになったんだからちゃんと害はあるしな
  78. 痔になった時に自分で確認するために肛門撮った事あるけどできなくされんのか
  79. スポーツとかどうやって判定するんだ
    女性選手とか水泳やボディビルみたいな競技は判定しようがないだろ
  80. とらすな
  81. 名前でググったら元AV女優じゃんこいつ
    自分からAV出てたゴミがよく言えるな
  82. AIって万能のなんかかと思ってるのかw
  83. それでこのカネは誰のボッケに入る予定なの?
  84. 某バーガーさんもやっと忘れられかけてきたな
    10年ぐらいかかったか?
  85. 乞食
  86. >>73
    マジだ。
    村岡万◯子でググっても出てこないな。
  87. >>6
    ゴリラ撮影できなくなる問題が発生するな
  88. 大塚咲ってスレンダー高身長AV女優いたよなって思ったらコレ本人だよな?
  89. キッズ携帯に搭載だな
  90. >大塚さん自身も9年前にAV女優を引退したにもかかわらず、現在も性的な画像がインターネット上で検索できることから、そのことについて異議を唱えている。

    馬鹿じゃねぇのかこいつ
  91. 撮る奴はそのスマホ買わないから意味ねぇ…
  92. >>15
    データ収集犯「らめぇ、これ以上見たら死んじゃいます」
  93. 可能っちゃ可能だな
  94. 撮る奴がそんな機能搭載したスマホわざわざ買わないだろ
  95. コイツラは行動の結果に責任を取るって考えは無いのか?
    政治家はそれが無いから批判されテンだぞ
  96. >>68
    お前らにこの画像の本当のポイントを教えてやる

    左手の薬指に指輪無いんだぜ
  97. 所謂まんこ二毛作
  98. 無茶を言うな無茶を
  99. 可能だけどコストが巨額だからそれをやる意味とリターンはなにってなる
    子供への教育をすすめて女が気をつければいいんじゃないの
  100. 新鮮な桃の写真を撮れなくなる
  101. アホか
  102. 性的な写真とは
  103. 大坂なおみ号泣やん
  104. 写真撮影を無効化する妨害電波を出すブラとパンティ作ればええんか?
  105. これもうローランドの写真撮れないじゃん
  106. 教育で対応できる
    何でもかんでも道具にやらせんな
    つーかカメラは写ったものを撮影するのが仕事なんだから
    あれは撮れないこれは撮れるなんて事をソフトウェアで制御させるのは間違い
    ディストピアに住みたいんなら北朝鮮へ行け
  107. バカなの?バカなの?バカなの?
  108. スマホ以外で撮るのは良いの?
  109. こうやって結局後悔して無かったことにしようとするカスばっか
    親や友達は散々反対にしたのにも関わらず聞く耳持たずやりまくって稼ぐだけ稼いだくせによ
    引退後は男に過去を隠して純粋ぶって普通の女でいようとする
    なんならガキ産んで母親にまでなろうする
    マンカスビッチのくせに普通の女でいたいとか虫が良すぎるんだよ
    一生背負って苦しみながら生きろ
    身体を売るっていうのはそれくらい重いんじゃボケがる

  110. これだって人によっては性的だぞ
  111. こういうオバさんって昔だったらPTAに入って不健全図書追放!とかやってたんだろうなあ
  112. AIを使った「人を轢けない車」や「人を刺せない包丁」の開発も急げ!
  113. 交通事故防ぐために車禁止するようなもんだな
  114. キチガイだろwww
  115. 巨大企業が市場を独占してしまうと
    こう言うくだらない社会運動の標的になり
    場合によっては通ってしまう危険性も出てくるんだな
    やっぱ市場独占はさせちゃだめだわ
  116. マツタケとかアワビとか変な形の大根とか撮れなくなったらどうする
  117. 病気の遠隔診断に支障が出るとかないんか?
  118. 性的なものが許せない!ってこれもう完全にカルトだからねwww
  119. こういうのGoogleにすべて監視されると言ってるのと等しいけど
    主張大丈夫?
  120. 盗撮とかならわかるけどAVの女かよ
  121. 自分で作れや
  122. ツイフェミがどんどん先鋭化してきててガチで怖い
  123. >>118
    そういうことだな
    一部の問題をゼロにするために利便性もゼロにするという話
  124. >>13
    私は買われた!
  125. 文が鮮明に統一されそう
  126. 自分のこどもの写真撮れなくなるけどいいのか?
  127. 赤ちゃんの写真が撮れなくなりそう
  128. 写真機能いらないよ
  129. >>1
    返礼品の元AV女優のアート作品ってなんやろ?
    乳拓?
  130. >>13
    頭おかしいw
    自分の行動の結果だろうに
    なんで被害者面なんだw
  131. カメラは許された
  132. カメラ無しでいいんじゃない?
  133. >>13
    イスラムを参考にして肌を出したら罰則にしたらどうかな?
  134. >>6
    中国がやって格闘技の写真がブロックされてたな
  135. それが可能ならハゲが写らないのもつくれよ
  136. なんでフェミニストって常に他人任せなの
    自分たちで作ればいいのに
  137. 働きかけ自体には理解を示すが
    それならそのAIを自らが出資して開発しなよ
  138. 安定の二毛作
  139. >>134
    >>37の売れ残りディスクじゃね?
  140. カメラ壊せよ
  141. 今日またJC2と通話する予定なんねんから余計なことすんなや
  142. マラ祭りの写真とれねえな
  143. 未成年にカメラ付きのデバイス持たせない法改正するよう働きかけた方が早いだろ
    大塚さんは成年後に自分の意思でAV出たみたいだけど
  144. >>6
    力士の写真がこの世からなくなりそうw
  145. 大塚咲の主観モノはなかなか抜けた
  146. 顔を写せなくなる人が出てキレるんだろ
    AIによってゴリラに分類されてキレてた黒人みたいに
  147. >>13
    まーたまんこ二毛作か
    https://i.imgur.com/UnAuNzo.jpg
  148. >>139
    ラミレスいないのかよ
  149. ガバ判定の糞端末になる未来しか見えない
  150. カメラなくせよ
  151. 性的写真を撮る自由を規制することになるが、その問題点について考慮しないのがまんこ脳。
  152. >>68
    半ズボンのやつ、半勃ち
  153. こういうお洒落な写真も撮れなくなるのかな。

    https://blog-imgs-42-origin.fc2.com/a/r/u/arukugamu/0_20101104170543.jpg
  154. ネットにアップしたり送受信したりできない機能の方がいいんじゃない?
  155. 他力本願だな
    自分らで作る気概見せろよ
  156. AIって、裸体と砂漠の区別ができないらしいゾ。
  157. そんなの誰が買うんねん
  158. 包丁で殺人事件が起こったー

    法律で罰則作って殺人はダメーって教育しよう せいかい
    包丁の刃の山をつぶしてナマクラにして人に刺さらないようにしよう まちがい
  159. 相撲の写真撮れなくなるやん
  160. ガムテープが送られてきて激怒しそう
  161. 砂漠の写真を肌の色と判定して削除
  162. 女いる男は買わなくなるだろ
  163. 性的写真って難しいよな
    普通の入学式の写真で抜く人間もいるのに
  164. デジタルカメラが出たとき、購入理由の何割かはハメ撮りだったからな
  165. >>161
    そうそう
    クラファンしてるくせに使途が広告費だもん
    ならそれを資金に充てろよという話
    AIのベンチャー本気で探せば理念に賛同してくれる企業はあるはず
  166. まずは人がどんな写真を性的に感じるかデータを集めろよ
  167. >>6
    黒人はおーけー?
  168. 裸をエロくしてるのは隠そうとしてる女
  169. それ買うの誰なんだよw
  170. 膣野郎は馬鹿じゃねえのか
  171. 7〜8億くらいアップルに払えばいいんじゃないかな
  172. >>122
    一律で禁止だとそうだろうな
    性的な写真ではあるが
    自分正規はおかしいんじゃないかみたいな
    まともな動機のもとれなくなると困るよな
  173. AI「エッッッッッ」
  174. 授乳の様子を撮影して困らせてみたい
    温故知新
  175. >>13
    尊厳を売って大金稼いだんやから自業自得だろBBA
  176. >谷とも子さん
    いくらもてないからってこじらせ過ぎだろw
  177. せめて盗撮出来ないスマホつくれ
  178. https://motion-gallery.net/projects/yuu_saki_photobook

    気になるから調べたら別のクラファンヒットしちゃった😢
  179. カメラ無しで値段下げろ
  180. たとえ作ったとしても、お前の裸は性的ではないと判断されるだろ
  181. 写真撮った瞬間クラウドに共有されて親のスマホに通知でいいだろ
  182. 確実に裸体だけを排除しなきゃならない
    もし裸体以外の物を撮影できなくなってしまった場合はカメラとして機能しないとみなされ
    とんでもない不良品という事になる

    逆に裸体が間違って撮れてしまった場合
    これも完全に意味をなさない機能という事になる

    こんな危ない橋を渡ることは出来ないだろ
  183. 無論全てが全てではないんだろうが、クラファン=胡散臭いみたいなイメージが付いてしまったよな
  184. >>13
    これこそ自己責任
  185. 一般女性が声上げたなら納得出来るが元AV女優が何言ってんだと
    そんなん言うなら出演料返上してから言えよと。もしくは作品の権利買い取れ
  186. また黒人ゴリラ問題が起きるだろ
  187. 言論統制であり性差別じゃん。
    主張してる女を逮捕しろ
  188. >>13
    無理はないだろ
    引退したから全てのパッケージやデータを
    消す契約なら
  189. 好きにしろ
    俺tiktokで抜けるから
  190. こいつらイスラム教徒なればいいのに
  191. MAN「自分で作って売り込もう」
    まんこ「まんこ力で他人に作らせたろ」
  192. ハックされてGoogleが用意した性的写真のサンプル見放題になるんだろ
  193. AIに判断させたら女子スポーツ映らなくなったりして
  194. >>6
    ハゲの人は?
  195. そのAIは何を見て学習するのかな?
  196. 画像検索と同じ仕組みで作れるだろうけど
    写真を取るたびにGoogle画像検索するようなもので
    電池使いまくるゴミプログラムになるからそんなの技術者がやりたいとは思わないだろうな
  197. 性病の記録つけようと思っても撮れないのか
  198. 玉ねぎとマンコを識別できるようになったのは
  199. 安倍晋三が昭恵のハメ撮りできなくなっちゃうじゃん
  200. カメラにシール貼ればいいだけなのでは?
  201. さすがまんさん
    まんさんはNHKが見れないテレビ作ってのクラウドファンディングやらないの〜?
  202. Googleフォトにポルノをアップロードするとアカウント停止されるらしいけどこれってGoogleサービス使ってる人にとっては実質撮影不可だよな
  203. >>208
    iPhone使えばよくね
  204. しかしほんと、SNSが普及したせいでネットのノリをリアルに持ち出すキチガイが増えてきたよなぁ・・・
  205. 性慾で張り付く男がアチコチで加害してるんだな
  206. >>8
    なんで自分なの?
    こういうのは男が撮ることの方が圧倒的に多い
    自撮りできなくするのも当然必要だが
  207. デジカメが売れちゃう
  208. 余計なことするな😡💢💢💢
  209. >>27
    言うほど撮りたいか?
    別に服着てる写真いくらでも撮ればいいでしょ
  210. >>210
    ネットのノリを体現してるのはお前じゃ?
  211. >>13
    じゃあギャラも返せよ
  212. Googleの画像検索セーフサーチが出きるんだから出きるだろ
  213. 中出しさせてくれない女に使えなくなるって言う機能付けてくれ
  214. Tik Tok終わるな
  215. cfてのがいかにも胡散臭そうで
  216. はい
    まずは学習用に性的写真を100万枚用意します
  217. Google画像検索で昔から使われてる技術ちゃうんか?
  218. 砂漠の写真撮ったら警察来そう
  219. 撮っても送信できないようにしたらw
  220. ポルノはなくなった
    ドラマも下着も化粧品も
    女性も男性も街の広告から消え去り、そして動物が置き換わった
    外的要因により欲情する機会を失い、人は初めて他人の内面を決して知ることができないことに気がついた
  221. 学生服のスカート廃止
    これだけで盗撮被害は減ります
    簡単でしょ
  222. わかりました
    撮った写真はまず我々のサーバーへ送信され判定の後に送り返す仕様と致します