
รัฐบาล วันนี้สิงคโปร์เปิดตัวพิมพ์เขียวสำหรับความร่วมมือด้านความมั่นคง AI ทั่วโลกในด้านปัญญาประดิษฐ์หลังจากการประชุมของนักวิจัย AI ในสหรัฐอเมริกาจีนและยุโรป เอกสารเสนอวิสัยทัศน์ที่ใช้ร่วมกันในการบรรลุความปลอดภัยของ AI ผ่านความร่วมมือระหว่างประเทศมากกว่าการแข่งขัน
“ สิงคโปร์เป็นหนึ่งในไม่กี่ประเทศในโลกที่เข้ากันได้ดีกับตะวันออก” แม็กซ์เทกมาร์คนักวิทยาศาสตร์ของ MIT กล่าว “พวกเขารู้ว่าพวกเขาจะไม่สร้างมันขึ้นมา” [artificial general intelligence] พวกเขาเอง – พวกเขาจะทำสิ่งนี้กับพวกเขา – ดังนั้นจึงเป็นเรื่องที่น่าสนใจที่จะสร้างประเทศที่พูดคุยกัน –
ประเทศเหล่านี้เชื่อว่าประเทศที่มีแนวโน้มที่จะสร้าง AGI นั้นแน่นอนว่าสหรัฐอเมริกาและจีน แต่ประเทศเหล่านี้ดูเหมือนจะเต็มใจที่จะแซงหน้ากันมากกว่าการทำงานร่วมกัน ในเดือนมกราคมหลังจากการเริ่มต้นของจีน Deepseek ได้เปิดตัวแบบจำลองที่ทันสมัยประธานาธิบดีทรัมป์เรียกมันว่า“ ปลุกอุตสาหกรรมของเรา” และกล่าวว่าสหรัฐอเมริกาจำเป็นต้อง“ ชนะด้วยเลเซอร์เพื่อมุ่งเน้นการแข่งขัน”
ฉันทามติของสิงคโปร์เกี่ยวกับลำดับความสำคัญของการวิจัยความปลอดภัย AI ทั่วโลกกำหนดให้นักวิจัยต้องทำงานร่วมกันในสามประเด็นสำคัญ: การศึกษาความเสี่ยงที่เกิดจากแบบจำลอง AI Frontier สำรวจวิธีการที่ปลอดภัยกว่าเพื่อสร้างแบบจำลองเหล่านี้และการพัฒนาวิธีการควบคุมพฤติกรรมของระบบ AI ที่ทันสมัย
ฉันทามติก่อตั้งขึ้นเมื่อวันที่ 26 เมษายนในการประชุมเหตุการณ์ AI ครั้งสำคัญที่จัดขึ้นในสิงคโปร์พร้อมกับการประชุมนานาชาติเกี่ยวกับตัวแทนการเรียนรู้ (ICLR)
นักวิจัยจาก Openai, Manthropic, Google Deepmind, Xai และ Meta ล้วนมีส่วนร่วมในกิจกรรมความปลอดภัยของ AI และนักวิชาการจากสถาบันต่าง ๆ เช่น MIT, Stanford, Tsinghua และ Chinese Academy of Sciences ก็มีส่วนร่วมในกิจกรรมการรักษาความปลอดภัย AI ผู้เชี่ยวชาญจากหน่วยงานความมั่นคงของ AI ในสหรัฐอเมริกาสหราชอาณาจักรฝรั่งเศสแคนาดาจีนญี่ปุ่นและเกาหลีใต้ก็เข้าร่วมการประชุมเช่นกัน
“ ในยุคของการแบ่งแยกทางภูมิรัฐศาสตร์การบูรณาการที่ครอบคลุมของการวิจัยที่ทันสมัยเกี่ยวกับการรักษาความปลอดภัย AI เป็นสัญญาณที่มีแนวโน้มว่าชุมชนทั่วโลกกำลังเข้าร่วมด้วยความมุ่งมั่นร่วมกันในการสร้างอนาคต AI ที่ปลอดภัยกว่า” Xue Lan หัวหน้ามหาวิทยาลัย Tsinghua กล่าวในแถลงการณ์
การพัฒนาโมเดล AI ที่มีความสามารถมากขึ้นซึ่งบางรุ่นมีความสามารถที่น่าประหลาดใจทำให้นักวิจัยกลัวความเสี่ยงที่หลากหลาย ในขณะที่บางคนมุ่งเน้นไปที่อันตรายเมื่อเร็ว ๆ นี้รวมถึงปัญหาที่เกิดจากระบบ AI ที่ลำเอียงหรือศักยภาพของอาชญากรที่จะใช้ประโยชน์จากเทคโนโลยีผู้คนจำนวนมากเชื่อว่า AI อาจก่อให้เกิดภัยคุกคามที่มีอยู่ต่อมนุษย์เมื่อมันเริ่มขยายมนุษย์มากขึ้นเรื่อย ๆ นักวิจัยเหล่านี้บางครั้งเรียกว่า “เรือพิฆาต AI” และกลัวว่าแบบจำลองอาจหลอกลวงและจัดการกับมนุษย์ในการแสวงหาเป้าหมายของตนเอง
ศักยภาพของ AI ได้จุดประกายการอภิปรายเกี่ยวกับการแข่งขันทางอาวุธระหว่างสหรัฐอเมริกาจีนและประเทศที่มีอำนาจอื่น ๆ เทคโนโลยีนี้ถูกมองว่าในชุมชนนโยบายมีความสำคัญต่อความเจริญรุ่งเรืองทางเศรษฐกิจและการปกครองทางทหารและรัฐบาลหลายแห่งกำลังพยายามพัฒนาวิสัยทัศน์และกฎระเบียบของตนเองเพื่อกำหนดวิธีการพัฒนา