|
12月9日、Appleが2022年に計画していた児童性的虐待資料(CSAM)検査プログラムを中止したとして訴えられていると報じられた。幼少期に性的虐待を受けた27歳の女性が仮名でAppleを相手取り訴訟を起こし、同社が被害者保護の約束に違反したと非難した。 2021年後半、AppleはiCloud内の画像をデバイス上のハッシュシステムを用いてスキャンし、CSAM(成人向けコンテンツ安全)の拡散を検知・ブロックし、ヌードを含む写真を送受信したユーザーに警告を表示する計画を発表しました。コミュニケーションセーフティ機能は依然として存在しますが、CSAM検出機能はプライバシー専門家、児童安全団体、そして政府からの広範な反対により廃止されました。 原告は、CSAM検出機能がまだ有効だったにもかかわらず、バーモント州で押収されたMacBookから性的虐待を受けている画像がiCloudにアップロードされているという通知を法執行機関から受け取ったと主張している。訴状の中で彼女は、Appleがこの機能の廃止を決定したことで、これらの画像が広く拡散し、結果としてAppleが消費者に「欠陥製品」を販売し、彼女のようなユーザーグループに損害を与えたと主張している。 女性の弁護士の一人によると、原告はAppleに対し、慣行を改め、最大2,680人の他の適格被害者にも補償を行うよう求めている。これらの被害者は、法律に基づき少なくとも1人あたり15万ドルの補償を受ける権利がある。もし全ての被害者への補償が認められれば、Appleの賠償総額は12億ドル(現在約87億2,800万人民元)を超える可能性がある。 ノースカロライナ州でも同様の事例が発生しました。CSAMの被害者である9歳の少女は、AppleがiCloudリンクを通じて見知らぬ人から違法動画を受け取り、同様のコンテンツを撮影してアップロードするよう促されたと訴えました。Appleは、連邦法典第230条により、ユーザーがiCloudにアップロードしたコンテンツに対する責任からAppleを保護する規定があると主張し、訴訟の却下を申し立てました。しかし、最近の裁判所の判決では、この法的保護は能動的なコンテンツモデレーションのケースにのみ適用されるとされており、Appleの抗弁が弱まる可能性があります。 Appleの広報担当者フレッド・サインツ氏は、新たな訴訟に対し、「Appleは児童性的虐待コンテンツは忌まわしいものであり、ユーザーのプライバシーと安全を損なうことなく、関連犯罪に積極的に取り組むことをお約束します」と述べました。サインツ氏は、Appleがメッセージアプリのヌード検出機能を拡張し、ユーザーが有害コンテンツを報告できるようにしたと述べました。しかし、原告と弁護士のマーガレット・マビ氏は、Appleの対策は到底不十分だと考えています。 マビ氏は、法執行機関の報告書や関連文書を通じて、被害者の画像とApple製品に関連する事例を80件以上発見したと述べた。これらの画像を共有した人物の1人は、ベイエリア在住の男性で、iCloudアカウントに2,000枚以上の違法な写真と動画が保存されていた。(オーシャン) |
Appleは2022年にCSAM検出機能を削除したとして訴えられており、原告は被害者を保護するという約束に違反したと主張している。
関連するおすすめ記事
-
報道によると、AppleのAIチームは重大な課題に直面しており、従業員はティム・クック氏が介入して行動を起こすべきだと考えているという。
-
NVIDIA の新しい RTX 50 シリーズ グラフィックス カードには、Micron GDDR7 メモリが搭載されています。
-
米国のいくつかの州では、キャンパス内での携帯電話の使用を禁止または制限する法案を検討している。
-
配車サービス大手ウーバーは米連邦準備制度理事会の調査を受けている。訴状によると、同社はユーザーの同意なしにサービスに加入しており、解約は困難だという。
-
Douyinのフォロワー数が1,000万人を超えた周紅一さんは、車をプレゼントする準備をしており、楊旺U8や文傑M9などのモデルを検討している。
-
雷軍:Xiaomi SU7 Ultraの当初の設計コンセプトは、新しい高級車を作ることでした。