【#アップルノート】 Appleの児童虐待画像検出は、何が問題視されているのか?
見出し画像

【#アップルノート】 Appleの児童虐待画像検出は、何が問題視されているのか?

Appleは、iOS 15 / iPadOS 15 / macOS Montery / watchOS 8に対して、児童の性的虐待コンテンツ「CSAM」の検出に関する3つの新機能の導入を発表しました。これに対して、賛否が渦巻いており、Appleは対応に苦慮しています。

ソフトウェア開発のトップ、クレイグ・フェデリギ氏は、今回の発表について、説明不足、いくつかの機能をまとめて発表したことによる混乱によって、誤解が生じている点を指摘しています。

確かに、iOS 15に追加されるCSAM検出機能群としてまとめることができるのですが、デバイス側の検出機能、クラウド側の検出機能、検索行動に対する介入機能という3つの異なる機能が一緒に紹介されてしまい、かつクラウドでの検出機能はアカウントの停止や通報を伴うことが問題だったようです。

この続きをみるには

この続き: 2,185文字
記事を購入する

【#アップルノート】 Appleの児童虐待画像検出は、何が問題視されているのか?

@taromatsumura

500円

この記事が参加している募集

note新エディタ

この記事が気に入ったら、サポートをしてみませんか?
気軽にクリエイターの支援と、記事のオススメができます!
ご愛読感謝!
松村太郎のノート。有料マガジン #アップルノート では、Appleを核としたモバイル時代とテクノロジーを読み解く記事をお届けしています。その他にも、個別のまとまった記事などを掲載します。ブログは tarosite.net / Twitter @taromatsumura