เว้นแต่คุณจะอาศัยอยู่ใต้ก้อนหิน คุณอาจรับรู้ถึงคำเตือนที่ผู้เชี่ยวชาญของ AI โจมตี มีการอ้างว่าเมื่อมนุษย์พัฒนา AI เต็มที่แล้ว พวกเขาจะออกแบบตัวเองใหม่และเติบโตในอัตราทวีคูณ ไม่มีการปฏิเสธความจริงที่ว่าเรายังไม่รู้อะไรเกี่ยวกับอนาคต แต่ AI ที่เราออกแบบและเขียนโค้ดจนถึงปัจจุบันนั้นยังไม่โตพอที่จะทำเช่นนั้นได้ เราอยู่ในขั้นเริ่มต้นที่เรากำลังสอนให้พวกเขาตัดสินใจง่ายๆ ด้วยตัวเอง
ที่มา:techemergence.com
เราเชื่อว่าการทำเช่นนั้น เราสามารถลดการมีส่วนร่วมของมนุษย์ในการทำงานง่ายๆ ไม่กี่อย่าง เช่น ในการตัดสินว่าใครสามารถขอสินเชื่อหรือขับรถ รับส่วนเพิ่มถัดไป หรือทำการสังเกตการณ์บางอย่างที่เร็วเกินไปสำหรับมนุษย์ แต่นักวิจัยกำลังต่อสู้กับคำถามข้อหนึ่ง นั่นคือ เครื่องจักรควรได้รับการสอนเกี่ยวกับศีลธรรมหรือไม่
ทำไมคำถามนี้จึงเป็นคำถามที่ตอบยาก
เป็นการสรุปงานที่ยากเย็นแสนเข็ญ เพราะการตัดสินใจในชีวิตจริงนั้นซับซ้อนกว่าการนำต้นแบบไปใช้มาก ตัวอย่างเช่น ลองคิดดูว่าเครื่องจักรจะรับรู้เกี่ยวกับความยุติธรรมได้อย่างไรในสถานการณ์ใดๆ เว้นแต่และจนกว่ามันจะรู้เกี่ยวกับสถานการณ์ทั้งหมด เราในฐานะมนุษย์มีอำนาจวิเศษในการหาข้อสรุปหลังจากดูแง่มุมต่างๆ ของสถานการณ์ แต่เครื่องจักรจะไม่ทำในทำนองเดียวกัน!
ที่มา:datasciencecentral.com
ในทางเทคนิคแล้ว มันเป็นไปไม่ได้เลยที่จะชักนำมนุษยชาติเข้าสู่เครื่องจักรของเรา! เหตุผลเบื้องหลังคือเราอยู่ไกลจากความรู้สึกผิดชอบชั่วดีและความรู้สึกผิดชอบชั่วดีที่เราใช้เวลาส่วนใหญ่ในการตัดสินใจ ใช่ เครื่องจักรเหล่านี้ดีกว่าเรามากในการเล่นโป๊กเกอร์ การจัดการระบบอัตโนมัติ การคำนวณที่คล้ายกัน แต่พวกเขาต้องการการดูแลจากมนุษย์ สำหรับตอนนี้ การถกเถียงที่ไม่มีวันจบสิ้นเพื่อตัดสินชะตากรรมของปัญญาประดิษฐ์ เราสามารถมุ่งเน้นไปที่แนวทางต่อไปนี้แทนการต่อสู้:
การกำหนดจริยธรรมและพฤติกรรมของมนุษย์อย่างชัดแจ้ง
เราจำเป็นต้องให้คำตอบที่ชัดเจนสำหรับคำถามบางข้อ จนกว่าเราจะไม่สอนให้ตอบสนองอย่างถูกต้อง อย่างไรก็ตาม เรื่องนี้จะต้องมีคณะกรรมการที่เหมาะสม เนื่องจากเรายังไม่แน่ใจเกี่ยวกับจริยธรรมของเราเอง แม้ว่าเราจะมองข้ามความแตกต่าง แต่ก็มีหลายสิ่งหลายอย่างที่เราไม่สามารถหาทางออกที่สมเหตุสมผลและยอมรับได้อย่างกว้างขวาง
การระดมมวลชนเพื่อศีลธรรมของมนุษย์
หากเราต้องการหาทางเลือกอื่นสำหรับความขัดแย้งที่อาจเกิดขึ้น เครื่องจักรก็จะไม่มีอคติต่อสิ่งใดสิ่งหนึ่งเช่นกัน ขึ้นอยู่กับสถานการณ์ การตัดสินใจของพวกเขาอาจเปลี่ยนแปลงซึ่งจะก่อให้เกิดความขัดแย้งอีกครั้ง ทีนี้ถ้ามันสามารถเข้าถึงความเชื่อที่มนุษย์ศรัทธาได้ วิธีนี้จะเป็นการง่ายกว่าที่จะสรุปอะไรจากสถานการณ์หนึ่งๆ
ที่มา:blog.applovin.com
ทำให้ระบบมีความโปร่งใสมากขึ้น
หากเราดูสถานการณ์ปัจจุบัน โครงข่ายประสาทเทียมที่แนะนำการทำงานของเครื่องเหล่านี้จะไม่เข้าใจเลย ดังนั้น ถ้าเรารู้ว่าวิศวกรสอนค่านิยมทางจริยธรรมให้พวกเขาอย่างไร เราจะเห็นได้ง่ายว่าใครทำผิด และไม่โทษอัลกอริทึมที่เข้าใจยากเกินไป สิ่งนี้จะเป็นประโยชน์อย่างมากสำหรับยานยนต์อัจฉริยะที่ขับเคลื่อนด้วยตัวเอง เนื่องจากพวกเขาจะได้เรียนรู้จากความผิดพลาดและประสบการณ์
ขอแนะนำเนื่องจากมนุษย์จะพึ่งพาเครื่องจักรที่ประพฤติตนอย่างมีจริยธรรมได้ง่ายกว่า ยิ่งไปกว่านั้น หลักการชี้แนะจะช่วยลดภาระของตัวแทนเทียมที่มีหน้าที่กำหนดการกระทำของพวกเขา ต่อจากนั้นเราไม่สามารถเพิกเฉยต่อข้อเท็จจริงที่ว่าถ้าเครื่องจักรและมนุษย์จำเป็นต้องร่วมกันตัดสินใจ ค่านิยมทางศีลธรรมที่มีร่วมกันอาจเอื้อให้เกิดฉันทามติและการประนีประนอม
เพื่อให้เข้าใจได้ดีขึ้น ลองมาดูตัวอย่างกัน จำลองภาพห้องผ่าตัดซึ่งกลุ่มผู้เชี่ยวชาญพบว่าการตัดสินใจทำได้ยาก ลองนึกภาพว่ามีเครื่องจักรที่จะช่วยพวกเขา โดยพื้นฐานแล้วเราจะแข็งแกร่งขึ้นด้วยการทำเช่นนั้น! และตอนนี้เราไม่สามารถรอให้สิ่งนี้เกิดขึ้น!
คุณคิดอย่างไร? แสดงความคิดเห็นของคุณในส่วนที่ระบุด้านล่างและแจ้งให้เราทราบ!