Microsoft ได้ออกชุดแนวทางเพื่อช่วยให้นักพัฒนาสร้างผู้ช่วยดิจิทัลที่ "มีความรับผิดชอบ" การใช้อินเทอร์เฟซการสนทนากำลังเพิ่มขึ้นท่ามกลางการปรับปรุงอย่างรวดเร็วในเทคโนโลยีพื้นฐาน อย่างไรก็ตาม การพิจารณาข้อกังวลด้านจริยธรรมกำลังดำเนินไปอย่างช้าๆ
ไมโครซอฟต์กล่าวว่าแนวทางนี้มีไว้เพื่อเตือนนักพัฒนาว่าผลิตภัณฑ์ของพวกเขาอาจถูกนำไปใช้ในลักษณะที่พวกเขาไม่สามารถคาดเดาได้เสมอไป แม้ว่าการออกแบบตามหลักจริยธรรมจะเกี่ยวข้องกับอุตสาหกรรมเทคโนโลยีมาโดยตลอด แต่ก็มีความสำคัญอย่างยิ่งในกรณีของอินเทอร์เฟซการสนทนา
Microsoft ใช้ตัวอย่างของบอทสั่งพิซซ่า บริการควรได้รับการออกแบบเพื่ออำนวยความสะดวกในการสั่งพิซซ่า โดยมีความไวต่อสิ่งรบกวนของผู้ใช้น้อยที่สุด หากผู้ใช้พยายามพูดคุยถึง "หัวข้อที่ละเอียดอ่อน" เช่น เชื้อชาติ เพศ ศาสนา หรือการเมือง บริการดังกล่าวควรละเว้นจากการมีส่วนร่วมในแบบเดียวกับที่พนักงานเสิร์ฟพิซซ่าทำ มิฉะนั้น อคติใดๆ ในอัลกอริทึมของบอทอาจส่งผลให้บอทเรียนรู้พฤติกรรมที่ไม่พึงประสงค์จากลูกค้า
แนวทางที่เหลือดำเนินต่อไปตามหัวข้อที่คล้ายกัน โดยรวมแล้ว Microsoft เน้นว่าบอทสามารถดีต่อสังคมได้ หากนักพัฒนายังคงตระหนักถึงปัญหาที่อาจเกิดขึ้น องค์กรต้องตรงไปตรงมาเกี่ยวกับการใช้บอท บริการที่ขับเคลื่อนด้วย AI จะต้องปราศจากอคติและเคารพในมาตรฐานทางวัฒนธรรม
"โดยทั่วไป หลักเกณฑ์เน้นการพัฒนา AI เชิงสนทนาที่มีความรับผิดชอบและเชื่อถือได้ตั้งแต่เริ่มต้นกระบวนการออกแบบ" Lili Cheng รองประธานบริษัท Microsoft ด้าน Conversational AI กล่าว "พวกเขาสนับสนุนให้บริษัทและองค์กรต่างๆ หยุดและคิดว่าบอตของตนจะถูกใช้อย่างไร และดำเนินการตามขั้นตอนที่จำเป็นเพื่อป้องกันการละเมิด ท้ายที่สุดแล้ว หลักเกณฑ์ทั้งหมดเกี่ยวกับความไว้วางใจ เพราะหากผู้คนไม่ไว้วางใจเทคโนโลยี พวกเขาจะไม่ใช้มัน"
คุณสามารถดูรายการหลักเกณฑ์ทั้งหมดได้จากเว็บไซต์ของ Microsoft Research แม้ว่าพวกเขาจะไม่ใช่กฎที่ตายตัว แต่พวกเขาก็สรุปมาตรฐานทางจริยธรรมพื้นฐานที่ควรพิจารณาเมื่อพัฒนาบอท Microsoft เผยแพร่หลักเกณฑ์ในสัปดาห์นี้พร้อมกับชุดเทคโนโลยี AI ใหม่ รวมถึงชุดเครื่องมือเริ่มต้นอย่างรวดเร็วสำหรับนักพัฒนาที่สร้างผู้ช่วยดิจิทัล