Microsoft ยอมรับว่าข้อผิดพลาดในการเขียนโค้ดทำให้ Copilot Chat เข้าถึงและสรุปอีเมลที่เป็นความลับโดยไม่ตั้งใจ
ตามที่ Bleeping Computer รายงาน ข้อบกพร่องดังกล่าวข้ามนโยบายการป้องกันข้อมูลสูญหาย (DLP) ที่เปิดใช้งานโดยลูกค้าที่ต้องการปกป้องข้อมูลของตนจาก AI ของ Microsoft ปัญหานี้ซึ่งรายงานครั้งแรกเมื่อวันที่ 21 มกราคม ส่งผลกระทบต่อแท็บงานของ Copilot Chat ซึ่งเป็นฟีเจอร์ที่เริ่มเผยแพร่แก่ผู้ใช้ Microsoft 365 ทางธุรกิจผ่าน Word, Excel, PowerPoint, Outlook และ OneNote ในเดือนกันยายน
(เครดิต:ไมโครซอฟต์)
Microsoft ได้ติดตามปัญหาเกี่ยวกับข้อบกพร่องในการเขียนโค้ดใน Copilot "ปัญหาโค้ดคือการอนุญาตให้ Copilot หยิบรายการในรายการที่ส่งและโฟลเดอร์ร่างได้ แม้ว่าจะมีการตั้งค่าป้ายกำกับที่เป็นความลับก็ตาม" บริษัทบอกกับ BleepingComputer
ผู้ใช้สามารถทำเครื่องหมายไฟล์และอีเมลของตนว่าละเอียดอ่อน หรือให้ Microsoft 365 ดำเนินการโดยอัตโนมัติ เมื่อใช้ป้ายกำกับแล้ว Microsoft ควรเก็บข้อมูล “ให้สอดคล้องกับนโยบายการปกป้องข้อมูลขององค์กรของคุณ”
การแก้ไขปัญหาที่กำลังดำเนินอยู่เริ่มเปิดตัวเมื่อต้นเดือนนี้ แม้ว่าบริษัทจะไม่ได้ชี้แจงว่าเมื่อใดจะได้รับการแก้ไขอย่างสมบูรณ์ ยังคงติดตามการแก้ไขและติดต่อผู้ใช้ที่ได้รับผลกระทบเพื่อตรวจสอบว่ามันใช้งานได้หรือไม่ จำนวนองค์กรที่ได้รับผลกระทบจากจุดบกพร่องนั้นไม่ชัดเจน แต่ดูเหมือนว่าบริการสุขภาพแห่งชาติ (NHS) ของสหราชอาณาจักรก็เป็นหนึ่งในนั้น
แนะนำโดยบรรณาธิการของเรา
การรวมคุณสมบัติ AI ของ Microsoft เข้ากับผลิตภัณฑ์ของตนนั้นราบรื่นมาก คุณลักษณะต่างๆ เช่น Windows Recall และ Copilot Vision ทำให้เกิดข้อกังวลด้านความเป็นส่วนตัว และมีรายงานว่าบริษัทกำลังวางแผนที่จะลดขนาด Copilot ในแอป Windows 11 อีกด้วย ป>
เกี่ยวกับผู้เชี่ยวชาญของเรา

ประสบการณ์
Jibin เป็นนักเขียนข่าวเทคโนโลยีจากเมืองอาเมดาบัด ประเทศอินเดีย ก่อนหน้านี้ เขาทำหน้าที่เป็นบรรณาธิการของ iGeeksBlog และเป็นคนที่ชอบเทคโนโลยีและชอบที่จะแจกแจงข้อมูลที่ซับซ้อนให้ผู้ชมในวงกว้าง
อ่านประวัติเต็ม