Computer >> คอมพิวเตอร์ >  >> ระบบเครือข่าย >> ความปลอดภัยของเครือข่าย

เหตุใด Apple จึงถอยกลับในคุณสมบัติการสแกนภาพถ่าย

ในเดือนสิงหาคม 2564 Apple เปิดเผยแผนการที่จะสแกน iPhone เพื่อหาภาพการล่วงละเมิดทางเพศเด็ก การเคลื่อนไหวดังกล่าวได้รับเสียงปรบมือจากกลุ่มคุ้มครองเด็ก แต่ทำให้เกิดความกังวลในหมู่ผู้เชี่ยวชาญด้านความเป็นส่วนตัวและความปลอดภัยว่าฟีเจอร์นี้อาจถูกนำไปใช้ในทางที่ผิด

ในขั้นต้น Apple วางแผนที่จะรวมเทคโนโลยีการสแกนเนื้อหาเกี่ยวกับการล่วงละเมิดทางเพศเด็ก (CSAM) ใน iOS 15; แต่ได้เลื่อนการเปิดตัวคุณลักษณะออกไปอย่างไม่มีกำหนดเพื่อขอความคิดเห็นก่อนที่จะมีการเปิดตัวเต็มรูปแบบ

เหตุใดคุณลักษณะการตรวจจับ CSAM จึงกลายเป็นประเด็นถกเถียงอย่างเผ็ดร้อน และอะไรที่ทำให้ Apple เลื่อนการเปิดตัวออกไป

ฟีเจอร์การสแกนภาพถ่ายของ Apple ทำอะไรได้บ้าง

เหตุใด Apple จึงถอยกลับในคุณสมบัติการสแกนภาพถ่าย

Apple ประกาศใช้ฟีเจอร์สแกนภาพถ่ายเพื่อต่อสู้กับการล่วงละเมิดทางเพศเด็ก รูปภาพทั้งหมดในอุปกรณ์ของผู้ใช้ Apple จะถูกสแกนหาเนื้อหาเกี่ยวกับเด็กโดยใช้อัลกอริธึม "NeralHash" ที่สร้างโดย Apple

นอกจากนี้ อุปกรณ์ Apple ที่เด็กๆ ใช้จะมีคุณลักษณะด้านความปลอดภัยที่จะเบลอรูปภาพสำหรับผู้ใหญ่โดยอัตโนมัติหากเด็กได้รับ และผู้ใช้จะได้รับคำเตือนสองครั้งหากพยายามเปิด

นอกจากการลดการเปิดเผยเนื้อหาสำหรับผู้ใหญ่แล้ว หากผู้ปกครองลงทะเบียนอุปกรณ์ที่เป็นของบุตรหลานเพื่อความปลอดภัยเพิ่มเติม ผู้ปกครองจะได้รับแจ้งในกรณีที่เด็กได้รับเนื้อหาที่ชัดเจนจากใครก็ตามทางออนไลน์

อ่านเพิ่มเติม:สิ่งที่คุณต้องรู้เกี่ยวกับการคุ้มครองความปลอดภัยของเด็กของ Apple

สำหรับผู้ใหญ่ที่ใช้ Siri เพื่อค้นหาสิ่งที่เกี่ยวกับเรื่องเพศกับเด็ก Siri จะไม่ทำการค้นหานั้นและแนะนำทางเลือกอื่นแทน

ข้อมูลจากอุปกรณ์ใดๆ ที่มีรูปภาพ 10 รูปขึ้นไปที่อัลกอริทึมถือว่าน่าสงสัยจะถูกถอดรหัสและอยู่ภายใต้การตรวจสอบโดยเจ้าหน้าที่

หากภาพถ่ายเหล่านั้นหรือสิ่งอื่นใดในอุปกรณ์พบว่าตรงกับสิ่งใดจากฐานข้อมูลที่ National Center for Missing and Exploited Children ให้มา ระบบจะรายงานไปยังเจ้าหน้าที่และบัญชีของผู้ใช้จะถูกระงับ

ข้อกังวลหลักเกี่ยวกับคุณสมบัติการสแกนภาพถ่าย

ฟีเจอร์การตรวจจับ CSAM จะเริ่มใช้งานได้เมื่อเปิดตัว iOS 15 ในเดือนกันยายน 2021 แต่ท่ามกลางเสียงโวยวายอย่างกว้างขวาง Apple ตัดสินใจใช้เวลามากขึ้นในการรวบรวมคำติชมและปรับปรุงคุณสมบัตินี้ นี่คือแถลงการณ์ฉบับเต็มของ Apple เกี่ยวกับความล่าช้า:

"เมื่อเดือนที่แล้ว เราได้ประกาศแผนสำหรับคุณลักษณะต่างๆ ที่มุ่งช่วยปกป้องเด็กจากนักล่าที่ใช้เครื่องมือสื่อสารเพื่อคัดเลือกและใช้ประโยชน์จากพวกเขา และจำกัดการแพร่กระจายของเนื้อหาเกี่ยวกับการล่วงละเมิดทางเพศเด็ก

จากความคิดเห็นของลูกค้า กลุ่มผู้สนับสนุน นักวิจัย และคนอื่นๆ เราได้ตัดสินใจที่จะใช้เวลาเพิ่มเติมในช่วงหลายเดือนข้างหน้าเพื่อรวบรวมข้อมูลและปรับปรุงก่อนที่จะเปิดตัวคุณลักษณะด้านความปลอดภัยสำหรับเด็กที่สำคัญอย่างยิ่งเหล่านี้"

เกือบครึ่งหนึ่งของความกังวลเกี่ยวกับคุณสมบัติการสแกนภาพถ่ายของ Apple นั้นเกี่ยวกับความเป็นส่วนตัว ข้อโต้แย้งที่เหลือรวมถึงความไม่ถูกต้องที่น่าจะเป็นไปได้ของอัลกอริทึมและการใช้ระบบในทางที่ผิดหรือช่องโหว่ของระบบ

ขอแบ่งออกเป็นสี่ส่วน

อาจนำไปใช้ในทางที่ผิด

เหตุใด Apple จึงถอยกลับในคุณสมบัติการสแกนภาพถ่าย

การรู้ว่าเนื้อหาใดๆ ที่ตรงกับภาพอนาจารเด็กหรือภาพที่เป็นที่รู้จักของการล่วงละเมิดทางเพศเด็ก จะทำให้อุปกรณ์อยู่ในรายชื่อ "น่าสงสัย" สามารถกระตุ้นให้อาชญากรไซเบอร์เคลื่อนไหวได้

พวกเขาสามารถจงใจโจมตีบุคคลที่มีเนื้อหาที่ไม่เหมาะสมผ่าน iMessage, WhatsApp หรือวิธีการอื่นใด และระงับบัญชีของบุคคลนั้น

Apple รับรองว่าผู้ใช้สามารถยื่นอุทธรณ์ได้ในกรณีที่บัญชีของพวกเขาถูกระงับเนื่องจากความเข้าใจผิด

การล่วงละเมิดภายใน

แม้ว่าจะได้รับการออกแบบมาเพื่อการกุศล แต่ฟีเจอร์นี้อาจกลายเป็นหายนะโดยสิ้นเชิงสำหรับบางคน หากอุปกรณ์ของพวกเขาลงทะเบียนเข้าสู่ระบบโดยญาติที่สนใจติดตามการสื่อสารของพวกเขาโดยที่ญาติหรือไม่ทราบข้อมูลก็ตาม

แม้ว่าจะไม่เกิดขึ้น Apple ได้สร้างแบ็คดอร์เพื่อให้ข้อมูลของผู้ใช้สามารถเข้าถึงได้เมื่อสิ้นสุดวัน ตอนนี้เป็นเรื่องของแรงจูงใจและความมุ่งมั่นเพื่อให้ผู้คนเข้าถึงข้อมูลส่วนบุคคลของผู้อื่น

ไม่เพียงแต่อำนวยความสะดวกในการละเมิดความเป็นส่วนตัวครั้งใหญ่เท่านั้น แต่ยังปูทางให้ญาติพี่น้อง ผู้ปกครอง เพื่อน คนรัก ผู้ดูแล และแฟนเก่า ที่ล่วงละเมิด เป็นพิษ หรือถูกควบคุม ให้บุกรุกพื้นที่ส่วนตัวหรือจำกัดเสรีภาพของพวกเขาต่อไป

ด้านหนึ่ง มีจุดมุ่งหมายเพื่อต่อต้านการล่วงละเมิดทางเพศเด็ก ในทางกลับกัน สามารถใช้เพื่อขยายเวลาการล่วงละเมิดประเภทอื่นๆ ต่อไปได้

การเฝ้าระวังของรัฐบาล

เหตุใด Apple จึงถอยกลับในคุณสมบัติการสแกนภาพถ่าย

Apple มักจะโน้มน้าวตัวเองว่าเป็นแบรนด์ที่คำนึงถึงความเป็นส่วนตัวมากกว่าคู่แข่ง แต่ตอนนี้ รัฐบาลอาจกำลังเข้าสู่ทางลาดลื่นไถลที่ต้องปฏิบัติตามข้อกำหนดด้านความโปร่งใสในข้อมูลผู้ใช้อย่างไม่สิ้นสุด

ระบบที่สร้างขึ้นเพื่อตรวจจับเนื้อหาเกี่ยวกับเด็ก สามารถใช้เพื่อตรวจหาเนื้อหาประเภทใดก็ได้บนโทรศัพท์ ซึ่งหมายความว่ารัฐบาลที่มีแนวคิดเกี่ยวกับลัทธิสามารถติดตามผู้ใช้ในระดับที่เป็นส่วนตัวมากขึ้นได้หากพวกเขาลงมือทำ

ไม่ว่าจะกดดันหรือไม่ก็ตาม การมีส่วนร่วมของรัฐบาลในชีวิตประจำวันและชีวิตส่วนตัวของคุณอาจทำให้ตกใจ และเป็นการบุกรุกความเป็นส่วนตัวของคุณ แนวคิดที่ว่าคุณจะต้องกังวลเกี่ยวกับการบุกรุกดังกล่าวหากคุณได้ทำสิ่งผิดปกติคือความคิดที่ผิดพลาด และมองไม่เห็นทางลาดที่กล่าวไว้ข้างต้น

สัญญาณเตือนที่ผิดพลาด

ปัญหาที่ใหญ่ที่สุดอย่างหนึ่งของการใช้อัลกอริธึมในการจับคู่รูปภาพกับฐานข้อมูลคือการเตือนที่ผิดพลาด อัลกอริธึมการแฮชสามารถระบุรูปภาพสองรูปที่ตรงกันโดยไม่ได้ตั้งใจ แม้ว่าจะไม่เหมือนกันก็ตาม ข้อผิดพลาดเหล่านี้เรียกว่า "การชนกัน" เป็นสิ่งที่น่าตกใจอย่างยิ่งในบริบทของเนื้อหาการล่วงละเมิดทางเพศเด็ก

นักวิจัยพบการชนกันหลายครั้งใน "NeuralHash" หลังจากที่ Apple ประกาศว่าจะใช้อัลกอริธึมในการสแกนภาพ Apple ตอบคำถามเกี่ยวกับการเตือนที่ผิดพลาดโดยชี้ให้เห็นว่าผลลัพธ์จะถูกตรวจสอบโดยมนุษย์ในตอนท้าย ดังนั้นผู้คนไม่จำเป็นต้องกังวลเกี่ยวกับเรื่องนี้

CSAM Pause ของ Apple เป็นแบบถาวรหรือไม่

ข้อดีและข้อเสียของคุณสมบัติที่ Apple เสนอมีมากมาย แต่ละอันเป็นของแท้และมีน้ำหนัก ยังไม่ชัดเจนว่าการเปลี่ยนแปลงใดที่ Apple สามารถนำไปใช้กับคุณลักษณะการสแกน CSAM เพื่อตอบสนองนักวิจารณ์

มันสามารถจำกัดการสแกนไปยังอัลบั้ม iCloud ที่แชร์แทนที่จะเกี่ยวข้องกับอุปกรณ์ของผู้ใช้ ไม่น่าเป็นไปได้มากที่ Apple จะยกเลิกแผนเหล่านี้ทั้งหมด เนื่องจากโดยทั่วไปแล้วบริษัทจะไม่ยอมแพ้ตามแผน

อย่างไรก็ตาม จากฟันเฟืองที่แพร่หลายและการที่ Apple หยุดแผนนั้นชัดเจน บริษัทต่างๆ ควรรวมชุมชนการวิจัยไว้ตั้งแต่เริ่มต้น โดยเฉพาะอย่างยิ่งสำหรับเทคโนโลยีที่ยังไม่ทดลอง