Computer >> คอมพิวเตอร์ >  >> ระบบเครือข่าย >> ความปลอดภัยของเครือข่าย

Apple กำลังสแกนรูปภาพ iPhone ของคุณหรือไม่ นี่คือสิ่งที่คุณต้องรู้

Apple มีชื่อเสียงในด้านนโยบายความปลอดภัยและความเป็นส่วนตัว . แต่แผนล่าสุดในการสแกนภาพถ่าย iPhone ได้สร้างความตื่นตระหนกในโลกเทคโนโลยี Apple กำลังวางแผนที่จะใช้แผนนี้เพื่อสกัดกั้นกรณีการล่วงละเมิดทางเพศเด็ก (CASM) ที่เพิ่มขึ้น

เนื้อหาเกี่ยวกับเรื่องเพศอย่างโจ่งแจ้งไม่เป็นที่ยอมรับในสังคมทั้งทางศีลธรรมและทางกฎหมาย แต่การค้ามนุษย์ทางเพศทำให้จำเป็นต้องดำเนินการขั้นรุนแรงสำหรับบริษัทอย่าง Apple Apple จะสแกนรูปภาพบน iPhone และจะค้นหาว่าผู้ใช้เกี่ยวข้องกับการค้าประเวณี/การค้ามนุษย์หรือไม่ และมาตรการนี้จะเป็นการก้าวไปข้างหน้าเพื่อยุติความชั่วร้ายนี้ในสังคม

อย่างไรก็ตาม แผนใหม่นี้ของ Apple ถูกผู้ใช้ดูหมิ่นเนื่องจากผู้ใช้มีความกังวลเกี่ยวกับความเป็นส่วนตัว นี่เป็นการละเมิดความเป็นส่วนตัวอย่างไม่ต้องสงสัยซึ่งข้อมูลในโทรศัพท์ของคุณจะไม่ปลอดภัยเพราะระบบสแกนรูปภาพใหม่ของ Apple บน iPhone จะมีข้อมูลของคุณ

Apple กำลังสแกนรูปภาพ iPhone ของคุณหรือไม่ นี่คือวิธีการสแกน?

เทคโนโลยีการตรวจจับ CSAM จะพร้อมใช้งานในการอัปเดต iOS 15 ใหม่ ซึ่งจะรวมคุณสมบัติสามอย่างเพื่อควบคุม CASM

  • ฟีเจอร์แรกในการอัปเดตจะเป็น การควบคุมโดยผู้ปกครอง . เมื่อเปิดใช้งานคุณสมบัตินี้จะสแกนรูปภาพในแอป Messages บนโทรศัพท์ของเด็ก และหากตรวจพบเนื้อหาที่ชัดเจน การแจ้งเตือนจะถูกส่งไป
  • ฟีเจอร์ที่ 2 ในการอัปเดตจะสแกนรูปภาพใน iCloud เพื่อหาเนื้อหาเกี่ยวกับการล่วงละเมิดทางเพศเด็ก
  • ฟีเจอร์ที่สามในการอัปเดตจะเตือนผู้ใช้เมื่อพวกเขาใช้ Siri หรือแถบค้นหาใน Safari สำหรับเนื้อหาที่ไม่เหมาะสม

คุณลักษณะทั้งสามจะช่วยในการขจัดความชั่วร้ายของ CSAM ออกจากสังคมโดยการตรวจจับและตั้งค่าสถานะเนื้อหาทางเพศอย่างโจ่งแจ้งที่เกี่ยวข้องกับเด็กบนอุปกรณ์ CSAM กำลังแพร่กระจายราวกับไวรัสที่มีวิดีโอและรูปภาพนับล้าน เมื่อเวลาผ่านไปประมาณ 19000 เหยื่อถูกระบุโดยหน่วยงานบังคับใช้กฎหมาย

Apple กล่าวว่าคุณลักษณะใหม่นี้มีจุดมุ่งหมาย "เพื่อช่วยปกป้องเด็กจากผู้ล่าที่ใช้เครื่องมือสื่อสารในการสรรหาและใช้ประโยชน์จากพวกเขา และจำกัดการแพร่กระจายของสื่อการล่วงละเมิดทางเพศเด็ก"

P>

ฟีเจอร์นี้จะทำงานอย่างไร

เทคโนโลยีการตรวจจับ CSAM ของ Apple นั้นใช้อัลกอริธึมที่ใช้คอมพิวเตอร์ซึ่งจะสแกน iCloudimages จากนั้นจะเปรียบเทียบกับรหัสของรูปภาพการล่วงละเมิดทางเพศเด็กที่รู้จัก รหัสเหล่านี้จัดเก็บไว้ในฐานข้อมูลขององค์กรด้านความปลอดภัยเด็ก รวมถึง National Center for Missing and Exploited Children (NCMEC)

หากรูปภาพตรงกับฐานข้อมูล บุคคลจะตรวจสอบรูปภาพเพื่อดูว่าเป็น CSAM หรือไม่ หากรูปภาพถูกระบุว่าเป็น CSAM บัญชีของคุณจะถูกปิดโดย Apple และจะมีการรายงานไปยังหน่วยงานบังคับใช้กฎหมายและ NCMEC

เทคโนโลยีใหม่จะกลายเป็นภัยคุกคามด้านความปลอดภัยหรือไม่

ด้วยการเปิดตัวคุณสมบัติใหม่ในการอัปเดต Apple จะประกอบด้วยความปลอดภัยของผู้ใช้อย่างแน่นอน เพราะจะส่งผลต่อการเข้ารหัสตั้งแต่ต้นทางถึงปลายทาง ฟีเจอร์การสแกนนี้อาจกลายเป็นช่องโหว่สำหรับรัฐบาล แฮกเกอร์ พนักงานของ Apple เองที่สามารถเข้าถึงข้อมูลของคุณโดยไม่ได้รับอนุญาต สามารถใช้คุณสมบัตินี้เพื่อจุดประสงค์ส่วนตัวได้ อาจเป็นภัยคุกคามร้ายแรงต่อความเป็นส่วนตัวของผู้ใช้ เนื่องจากข้อมูลที่ละเอียดอ่อนดังกล่าวอาจถูกบุกรุกโดยหน่วยงานใดๆ และอาจนำไปสู่การล่มสลายของความเป็นส่วนตัวในวงกว้าง

อ้างอิงจาก Hijazi “ฉันเชื่อว่าหัวใจของ Apple อยู่ในที่ที่ถูกต้อง และกำลังพยายามทำสิ่งที่ถูกต้องที่นี่ แต่มาตรการนี้กว้างเกินไปเพราะเป็นการเสียสละความเป็นส่วนตัวของทุกคนในกระบวนการ”

มีวิธีหยุด Apple ไม่ให้สแกนรูปภาพหรือไม่

อ้างอิงจาก Hijazi “หากคุณสนใจเกี่ยวกับความเป็นส่วนตัวของคุณ คุณควรถือว่าอุปกรณ์ iOS ใด ๆ มีความเสี่ยงที่จะถูกเลี่ยงผ่านการเข้ารหัสแบบ end-to-end และการเข้าถึงรูปภาพแบบเต็ม” เขากล่าว “ไม่มีสิ่งที่เรียกว่าความเป็นส่วนตัวทางออนไลน์หรือบนอุปกรณ์ที่เชื่อมต่อใดๆ และคุณควรถือว่าเป็นเช่นนั้นและประพฤติตามนั้นเสมอ”

มีทางหนึ่งที่คุณสามารถหยุด Apple ไม่ให้สแกนรูปภาพ iCloud ของคุณและปกป้องความเป็นส่วนตัวของคุณได้ คุณปิดใช้พื้นที่จัดเก็บข้อมูล iCloud สำหรับรูปภาพและรับรองความเป็นส่วนตัวได้

ทำตามขั้นตอนเพื่อปิดใช้งานรูปภาพ iCloud:-

  • เลือกการตั้งค่า> รูปภาพ
  • ปิด  แถบเลื่อนรูปภาพ iCloud
  • เลือกดาวน์โหลดรูปภาพและวิดีโอในหน้าต่างป๊อปอัปเพื่อดาวน์โหลดรูปภาพจาก iCloud ไปยังอุปกรณ์แทน

Apple กำลังสแกนรูปภาพ iPhone ของคุณหรือไม่ นี่คือสิ่งที่คุณต้องรู้

บทสรุป:-

CSAM เป็นขั้นตอนที่ดีในการป้องกันการล่วงละเมิดทางเพศเด็ก แต่ใช่ ความจริงที่ไม่ควรละเลยคือความเป็นส่วนตัวรั่วไหลในลักษณะนี้ Apple อาจใช้ขั้นตอนอื่นๆ ที่ไม่ละเมิดความเป็นส่วนตัวของผู้ใช้ ขณะเดียวกันก็สามารถป้องกันการล่วงละเมิดทางเพศเด็กได้

อย่างไรก็ตาม หากบุคคลสะอาดและรู้ว่าไม่มีข้อมูลที่น่าสงสัยในข้อมูลของเขา เขาก็ไม่ควรรับฟังข่าวลือและการสนับสนุนในอุดมการณ์อันสูงส่งและขั้นตอนที่ดำเนินการ โดยแอปเปิ้ล ติดตามเราบนโซเชียลมีเดีย – Facebook, Instagram และ YouTube