Apple ဟာ အမေရိကန်က iPhone တွေမှာ ကလေးသူငယ် လိင်ပိုင်းဆိုင်ရာ ဓါတ်ပုံတွေကို ရှာမယ့် စနစ်အကြောင်း အသေးစိတ် ကြေညာလိုက်ပါတယ်။ iCloud Photos မှာ ဓါတ်ပုံ ၁ ပုံ မသိမ်းခင် ဒီနည်းပညာက အဲဒီ ဓါတ်ပုံ ဖြစ်မလားဆိုတာ စစ်ဆေးမှာပါ။ Apple က အဲဒီ ဓါတ်ပုံကို နည်းပညာက ရှာတွေ့ခဲ့ရင် လူသား ဝန်ထမ်း ၁ ယောက်က ထပ်မံ စစ်ဆေးမှာ ဖြစ်ပြီး ပြစ်မှုမြောက်ရင် ရဲဌာနကို အကြောင်းကြားမှာပါလို့ ပြောပါတယ်။

Open letter criticizing Apple's plan to scan iPhones for child sexual abuse material attracts 5,000 signatures | Markets Insider

Apple ရဲ့ ဒီစနစ်က ကောင်းမွန်ပေမယ့် ပုဂ္ဂလိက လုံခြုံရေး အပိုင်းမှာတော့ စိုးရိမ်စရာ ဖြစ်လာပါတယ်။ နည်းပညာ ကျွမ်းကျင်သူတွေက Apple ရဲ့ ဒီစနစ်ကို အစိုးရ အာဏာပိုင်တွေက ပြည်သူတွေကို ထောက်လှမ်းဖို့ အသုံးချမှာကို စိုးရိမ်နေကြပါတယ်။

Apple to scan iPhones for child sex abuse images | Evening Standard

Apple က ဒီနှစ် နှောင်းပိုင်းမှာ ဖြန့်ချိမယ့် iOS နဲ့ iPadOS မှာ ကလေးငယ်တွေရဲ့ လိင်ပိုင်းဆိုင်ရာ ဓါတ်ပုံတွေ အွန်လိုင်းမှာ မပြန့်ပွားစေမယ့်  ဒီနည်းပညာကို ထည့်သွင်းပေးမှာ ဖြစ်ပြီး User တွေရဲ့ Privacy ကို ကာကွယ်ပေးမယ်လို့ ကြေညာထားပါတယ်။

အဲဒီ နည်းပညာဟာ User တွေရဲ့ ဓါတ်ပုံတွေကို US National Center for Missing and Exploited Children (NCMEC) နဲ့ ကလေး သူငယ် ကာကွယ်ရေး အဖွဲ့အစည်းတွေရဲ့ ကလေးသူငယ် လိင်ပိုင်းဆိုင်ရာ ဓါတ်ပုံတွေနဲ့ တိုက်ဆိုက်စစ်ဆေးမှာ ဖြစ်ပါတယ်။ Apple က ဒီနည်းပညာဟာ Edit လုပ်ထားတဲ့ ကလေးသူငယ်လိင်ပိုင်းဆိုင်ရာ  ဓါတ်ပုံတွေကိုလည်း စစ်ဆေးပေးနိုင်တယ်လို့ ပြောပါတယ်။

Ref : bbc