![Top 10 Most Expensive Funerals Ever! 💰⚰](https://i.ytimg.com/vi/yN7yHdpuuRQ/hqdefault.jpg)
ดูเหมือนว่าหนึ่งเดือนจะไม่ผ่านไปโดยที่ไม่มีคนที่มีชื่อเสียงระดับสูงแสดงความคิดเห็นเกี่ยวกับศักยภาพของเครื่องจักรที่มีปัญญาประดิษฐ์มาครองโลก Elon Musk กำลังบันทึกไว้ว่าระบบ AI นั้น“ อาจเป็นอันตรายมากกว่านิวเคลียร์” แต่เขาไม่ใช่คนเดียว Stephen Hawking ยังเป็นห่วง“ การพัฒนาปัญญาประดิษฐ์เต็มรูปแบบสามารถสะกดจุดจบของเผ่าพันธุ์มนุษย์ได้” ศาสตราจารย์ฮอว์คิงเล่าให้บีบีซีฟัง “ มันจะเริ่มต้นเองและออกแบบตัวมันเองใหม่ในอัตราที่เพิ่มขึ้นเรื่อย ๆ ” แม้แต่บิลเกตส์ก็ยังเป็นห่วง“ ฉันอยู่ในค่ายที่กังวลเรื่องสติปัญญาขั้นสูง ฉันเห็นด้วยกับ Elon Musk และคนอื่น ๆ ในเรื่องนี้และไม่เข้าใจว่าทำไมบางคนถึงไม่เกี่ยวข้อง”
พวกเขาทุกคนต่างแสดงความกังวลเกี่ยวกับความเป็นไปได้ของระบบ AI ที่ทรงพลังโดยไม่ตั้งใจหรืออาจเป็นผลที่ตามมา ย้อนกลับไปในเดือนมกราคม Elon Musk บริจาค 10 ล้านเหรียญสหรัฐให้กับ Future of Life Institute (FLI) เพื่อดำเนินโครงการวิจัยระดับโลกเพื่อรักษา AI ที่เป็นประโยชน์ต่อมนุษยชาติ
วันนี้สถาบัน Future of Life ประกาศว่าได้มอบเงินทุน 7 ล้านเหรียญสหรัฐให้กับ 37 ทีมวิจัยทั่วโลกเพื่อให้สังคมสามารถเก็บเกี่ยวผลประโยชน์ของ AI ในขณะที่หลีกเลี่ยงการเปิดเผยและจุดจบของชีวิตบนโลก
อันตรายจากสถานการณ์ Terminator ไม่ได้เกิดขึ้น แต่มันจะหันเหความสนใจไปจากปัญหาจริงที่เกิดจาก AI ในอนาคต
Jaan Tallin หนึ่งในสมาชิกผู้ก่อตั้งของ FLI และคนที่เขียน Skype เวอร์ชันดั้งเดิมกล่าวถึงงานวิจัยใหม่ว่า“ การสร้าง AI ขั้นสูงเปรียบเสมือนการเปิดตัวจรวด ความท้าทายแรกคือการเร่งความเร็วให้สูงสุด แต่เมื่อเริ่มรับความเร็วคุณต้องมุ่งเน้นไปที่การบังคับเลี้ยวด้วย”
ในบรรดาโครงการ 37 โครงการนั้นมีสามโครงการซึ่งจะพิจารณาเทคนิคต่าง ๆ เพื่อให้ระบบ AI สามารถเรียนรู้สิ่งที่มนุษย์ต้องการจากการสังเกตพฤติกรรมของเรา หนึ่งในโครงการเหล่านี้จะดำเนินการที่ UC Berkeley และอีกหนึ่งโครงการจะอยู่ที่ Oxford University
Benja Fallenstein ที่ Machine Intelligence Research Institute กำลังได้รับ $ 250,000 เพื่อการวิจัยเพื่อรักษาผลประโยชน์ของระบบอัจฉริยะที่สอดคล้องกับคุณค่าของมนุษย์ ในขณะที่ทีมของ Manuela Veloso จาก Carnegie-Mellon University จะได้รับ $ 200,000 เพื่อดูว่าจะทำให้ระบบ AI อธิบายการตัดสินใจของพวกเขาต่อมนุษย์ได้อย่างไร
โครงการอื่น ๆ รวมถึงการศึกษาโดย Michael Webb จาก Stanford University เกี่ยวกับวิธีการรักษาผลกระทบทางเศรษฐกิจของ AI ที่เป็นประโยชน์โครงการในการเก็บอาวุธที่ขับเคลื่อนด้วย AI ภายใต้“ การควบคุมมนุษย์ที่มีความหมาย” และศูนย์วิจัย Oxford-Cambridge แห่งใหม่สำหรับการศึกษา AI - นโยบายที่เกี่ยวข้อง
เมื่อพูดถึงฮอลลีวูด FLI พยายามที่จะแยกตัวเองออกจากการเปิดเผย FLI กระตือรือร้นที่จะเน้นถึงความสำคัญของการแยกความเป็นจริงออกจากนิยาย “ อันตรายจากสถานการณ์ Terminator ไม่ใช่ว่าจะเกิดขึ้น แต่มันเบี่ยงเบนความสนใจไปจากปัญหาจริงที่เกิดจาก AI ในอนาคต” Max Maxmark ประธาน FLI กล่าว “ เรายังคงมุ่งเน้นและ 37 ทีมที่ได้รับการสนับสนุนจากทุนในวันนี้ควรช่วยแก้ปัญหาที่แท้จริงเช่นนี้”
คุณคิดอย่างไร? เงินใช้จ่ายอย่างดี?