พบว่านักวิจัยส่วนใหญ่ไม่รายงานซอร์สโค้ดที่ใช้ในการสอน AI ของพวกเขา ซึ่งสร้างปัญหาให้กับนักวิทยาศาสตร์คนอื่นๆ เพราะพวกเขาไม่สามารถทำซ้ำผลลัพธ์และทำงานต่อไปได้
พูดง่ายๆ ก็คือ ปัญญาประดิษฐ์กำลังเผชิญกับวิกฤตการจำลองแบบ นี่อาจฟังดูธรรมดาสำหรับบางคน แต่สำหรับผู้ที่ชื่นชอบ AI นี่ถือเป็นหายนะไม่น้อย แต่ทำไมเราต้องทำซ้ำหรือย้อนรอยงานวิจัยที่ทำ? อ่านเพิ่มเติมเพื่อทราบข้อมูลเพิ่มเติม!
การทำซ้ำคืออะไร
กระบวนการที่ผู้วิจัยสามารถย้อนรอยแบบจำลอง/ซอฟต์แวร์/อัลกอริทึม หรือวัสดุใดๆ ของการวิจัยได้ เรียกว่า การจำลองแบบ สาขาของ AI กำลังกลายเป็นข้อยกเว้น เนื่องจากการทำเช่นนั้นกลายเป็นงานที่ยากเย็นแสนเข็ญสำหรับมืออาชีพ หากไม่ย้อนรอย เราอาจติดอยู่!
เหตุใดการย้อนรอยจึงสำคัญมาก
ไม่เหมือนความเชื่อที่เป็นที่นิยม การทำซ้ำมีข้อดีในตัวเอง คุณสามารถรับผลลัพธ์เพื่อตรวจสอบหรือเสนอการเปลี่ยนแปลงกระบวนทัศน์ได้อย่างง่ายดาย สิ่งนี้ได้ผลอย่างน่ามหัศจรรย์สำหรับผู้ที่กำลังค้นคว้าข้อมูลด้านระบบอัตโนมัติ เนื่องจากพวกเขาสามารถปรับเปลี่ยนเครื่องจักรที่ใช้และอัปเกรดให้ใช้งานได้ดีได้อย่างง่ายดาย
ดังนั้น หากคุณถามเราว่าเป็นไปได้หรือไม่ที่จะทำซ้ำการศึกษาเกี่ยวกับ AI เราจะตอบว่า “ไม่ คุณทำไม่ได้”
นักวิจัยมักจะไม่เปิดเผยซอร์สโค้ด จากข้อมูลของ Nicolas Rougier (นักประสาทวิทยาศาสตร์ด้านการคำนวณที่สถาบันแห่งชาติเพื่อการวิจัยวิทยาการคอมพิวเตอร์และระบบอัตโนมัติของฝรั่งเศส) คนที่อยู่นอกสาขาอาจพิจารณาว่ามีกฎที่เข้มงวดบางอย่างที่อาจให้ผลลัพธ์ที่ต้องการ แต่คนที่ทำงานเกี่ยวกับสิ่งนี้รู้ การต่อสู้ที่แท้จริง อย่างไรก็ตาม เราไม่อยู่ในสถานะที่จะกล่าวโทษใครก็ตามที่ไม่แบ่งปันซอร์สโค้ด เนื่องจากสิ่งเหล่านั้นอาจอยู่ภายใต้ลิขสิทธิ์ของบริษัท หรือในบางครั้ง ผู้วิจัยมีเป้าหมายที่จะเป็นคนแรกที่นำเสนอการพัฒนาใด ๆ ในสาขานี้ แต่สิ่งต่าง ๆ ค่อนข้างซับซ้อนเมื่อซอฟต์แวร์หรือเครื่องจักรขับเคลื่อนโดยอัลกอริทึมการเรียนรู้ของเครื่อง เนื่องจากเครื่องจักรเหล่านี้เรียนรู้ผ่านประสบการณ์และการจำลองอื่นๆ คุณจะไม่มีทางได้รับสิ่งใดเหมือนกับเครื่องจักรอื่นๆ ดังนั้น แม้ว่าในกรณีที่หายากที่สุด คุณได้รับซอร์สโค้ด คุณจะไม่มีทางได้รับผลลัพธ์ที่ต้องการเว้นแต่คุณจะฝึกฝนเครื่องของคุณในทำนองเดียวกัน
นี่เป็นสถานการณ์สมมติไม่มากก็น้อย เพราะคุณจะไม่มีวันได้สัมผัสกับวิธีการที่ใช้ในการฝึกเครื่องจักรก่อนหน้านี้! เชื่อเราเมื่อเราพูดแบบนี้ แต่ไม่มีใครมีเวลาทดสอบอัลกอริทึมภายใต้ทุกเงื่อนไขที่เป็นไปได้ หรือพื้นที่ตัวอย่างที่กำหนดไว้ในเอกสาร นี่เป็นหนึ่งในเหตุผลที่โครงการ AI ใช้เวลาในการออกแบบและพัฒนานานกว่ามากเมื่อเทียบกับเครื่องจักรหรือโครงการทั่วไป
ไม่มีการปฏิเสธความจริงที่ว่าเราจำเป็นต้องเปลี่ยนแปลงวัฒนธรรมนี้ เพราะหากปราศจากการเติบโตอย่างทวีคูณ ก็จะยังคงเป็นความฝันที่ไกลเกินจริง!
วิธีนี้เหมาะสมที่สุดหรือไม่
ผู้เชี่ยวชาญกล่าวว่าจำเป็นต้องเป็นความลับหรือแบ่งปันกับบางคนที่ได้รับเลือกเท่านั้น เพื่อความปลอดภัยและการดำรงอยู่ของเราจะไม่เป็นเดิมพัน! แต่เราจะรู้ได้อย่างไรว่าผู้ที่แบ่งปันซอร์สโค้ดจะไม่นำไปใช้ในทางที่ผิด? หากคุณคิดว่าคุณสามารถออกแบบอัลกอริทึมแมชชีนเลิร์นนิงสำหรับสิ่งเดียวกันได้ คุณก็ควรรู้ด้วยว่ามันยังไม่ถึงเป้าหมายนั้น ด้วยเหตุนี้ คุณจึงไม่สามารถพึ่งพาอัลกอริทึมในการตรวจจับพฤติกรรมของมนุษย์ได้
สิ่งที่ควรทำในตอนนี้
เราอาจคิดว่าการเปิดกว้างเกี่ยวกับแนวคิดเหล่านี้จะช่วยลดเสียงฮัลลาบาลูได้ แต่ตรงกันข้ามกับความเชื่อนี้ สิ่งนี้จะไม่ยิ่งหย่อนไปกว่าหายนะ ผู้ก่อการร้ายและจิตใจที่ไม่ค่อยดีนักจะทำวิศวกรรมย้อนกลับและใช้มันเพื่อการทำลายล้างครั้งใหญ่ เราสามารถแนะนำให้สร้างบอร์ดสำหรับทดสอบอัลกอริทึมแบบเดียวกับที่อุตสาหกรรมการแพทย์ดำเนินการ พวกเขาไม่ปล่อยส่วนประกอบของยาเว้นแต่จะได้รับการทดสอบและรับรอง หากทำเช่นเดียวกันกับเครื่องจักรอัจฉริยะประดิษฐ์ สิ่งต่างๆ ก็จะไม่น่ากลัวอย่างที่คาดการณ์ไว้
นอกจากนี้ เรายังสามารถริเริ่มและแทนที่จะหลบซ่อนอยู่เบื้องหลังกฎหมายว่าด้วยกรรมสิทธิ์ การทำงานร่วมกันจะประสบผลสำเร็จ โดยสรุป เราไม่ควรลืมว่าเครื่องจักรไม่ได้ลำเอียง และหาก "วันพิพากษา" กำลังรออยู่ เราทุกคนก็ตกอยู่ในความเสี่ยง การทำงานร่วมกันและการเรียนรู้ภายใต้การดูแลเป็นความช่วยเหลือเดียวที่เราเหลืออยู่
บทสรุป
เราไม่สามารถทำซ้ำการศึกษาได้ แต่เครื่องจักรสามารถทำได้ ในช่วงปลายปี 2017 เราเห็นว่า AI ช่วยสร้างอีกประเภทหนึ่งขึ้นมา เครื่องจักรที่ขับเคลื่อนด้วย AI นี้เป็นโครงการที่รู้จักกันในชื่อ AutoML ซึ่ง Google กำลังดำเนินการอยู่ ด้วยเหตุนี้จึงเป็นก้าวสำคัญต่อไปของอุตสาหกรรม AI การพัฒนาที่เกิดขึ้นเป็นสิ่งที่ควรค่าแก่การเฉลิมฉลอง แต่ในขณะที่ทำเช่นนั้น เรากำลังละเลยข้อเท็จจริงที่สำคัญประการหนึ่ง นั่นคือ เนื่องจากการพัฒนาเป็นไปโดยอัตโนมัติ ซอฟต์แวร์จึงมีความซับซ้อนมากขึ้นเพื่อให้มนุษย์เข้าใจ
หากยังคงดำเนินต่อไป เราก็อยู่ไม่ไกลจากวันที่เครื่องจักรจะสร้างตัวเองโดยปราศจากการป้อนข้อมูลจากมนุษย์ เป็นอันตรายหรือไม่? เราคิดอย่างนั้น! จะเกิดอะไรขึ้นถ้าเรายุ่งกับการย้อนรอยและเครื่องจักรเริ่มสร้างร่างโคลนของมัน! จับตาดูให้ดี!
ในกรณีที่คุณคิดต่าง หรือมีมุมมองเกี่ยวกับหัวข้อนี้ที่ควรค่าแก่การแชร์ โปรดวางในส่วนความคิดเห็นด้านล่าง!