
ประเด็นสำคัญ:
- Openai ถาม Musk เกี่ยวกับการเชื่อมต่อกับบิลที่อาจขัดขวางการปรับโครงสร้างเพื่อแสวงหาผลกำไร
- ผู้เชี่ยวชาญกำลังเรียกร้องให้หน่วยงานกำกับดูแลเพื่อป้องกันการเคลื่อนไหว
- นี่เป็นส่วนหนึ่งของการมุ่งเน้นที่กว้างขึ้นว่าสิ่งนี้อาจส่งผลกระทบต่อการพัฒนาจริยธรรมและความปลอดภัยของ AI กำเนิด
Openai กำลังขอให้กลุ่มอยู่เบื้องหลังกรณีที่อาจคุกคามแผนการปรับโครงสร้างที่แสวงหาผลกำไรโดยถามว่าพวกเขามีการเชื่อมต่อกับอดีตผู้ร่วมก่อตั้ง Elon Musk หรือไม่
ตามที่ทนายความของ Openai จดหมายจากพันธมิตรที่ไม่แสวงหาผลกำไร AI แสดงความคล้ายคลึงกับมัสค์ในศาล
ก่อตั้งขึ้นโดยองค์กรที่ไม่แสวงหาผลกำไรนักวิจัยและผู้สนับสนุนผู้บริโภคกลุ่มนี้เป็นแคมเปญเพื่อรักษาความสมบูรณ์แบบไม่แสวงหาผลกำไรในสาขา AI
ลีกปฏิเสธการได้รับเงินจากมัสค์ ตามที่โฆษกของมันเป็นองค์กร “ระดับรากหญ้า” ที่ได้รับทุนจากแหล่งต่าง ๆ รวมถึงญาติของวิศวกร Openai ปลาย Suchir Balaji ผู้เสียชีวิตเมื่อปีที่แล้ว
ทั้งหมดนี้ทั้งหมดและจะเกิดอะไรขึ้น? มาขุดกันเถอะ
จดหมายของ Sam Altman กำลังโจมตี
จดหมายของ Openai ทำสองคำขอ:
- พบกับประธานลีกเจฟฟรีย์มาร์คการ์ดเนอร์
- การเปิดเผยแหล่งที่มาของเงินทุนของพันธมิตรและเนื่องจากการจัดตั้งล่าสุดเอกสารภาษีไม่ได้เผยแพร่
สิ่งนี้เกิดขึ้นหลังจากการย้ายขององค์กรเพื่อสนับสนุนการเรียกเก็บเงินเดิมในเดือนกุมภาพันธ์ซึ่งสามารถป้องกันไม่ให้โปรแกรมการปรับโครงสร้างที่แสวงหาผลกำไรของ OpenAI ในเวลานั้นและที่นั่น
อย่างไรก็ตามผู้เขียนได้แก้ไขสิ่งนี้โดยอ้างว่าจะต้องใช้เวลามากขึ้นในการจัดการกับมัน
ยังไม่มีสัญญาณอื่น ๆ ของการเชื่อมต่อของมัสค์และทีมได้รวบรวมการสนับสนุนจากตัวเลขสำคัญในอุตสาหกรรมรวมถึง Geoffrey Hinton, Godfather of AI
จดหมายฉบับนี้เป็นเรื่องล่าสุดในการต่อสู้ศาลอย่างต่อเนื่องระหว่าง Elon Musk และ Sam Altman CEO ของ Openai Musk ผู้ร่วมก่อตั้ง Openai กับ Altman ก่อนออกเดินทางเพื่อสร้างคู่แข่ง XAI กำลังท้าทายแผนการของ บริษัท ในการเปลี่ยนมาใช้โมเดลที่แสวงหาผลกำไร
ข้อโต้แย้งของเขา? ซึ่งหมายความว่า Openai เบี่ยงเบนไปจากภารกิจดั้งเดิมเพื่อประโยชน์ต่อสาธารณชน
มัสค์ก็ไม่ได้อยู่คนเดียวเช่นกัน
จดหมายจากทนายความของรัฐแคลิฟอร์เนียและเดลาแวร์ลงนามโดยอดีตเจ้าหน้าที่ OpenAI และผู้ชนะรางวัลโนเบลมากกว่า 30 คนเรียกร้องให้ผู้กำกับดูแลป้องกันไม่ให้ OpenAI จัดระเบียบใหม่เป็นหน่วยงานที่แสวงหาผลกำไร
สิ่งนี้นำไปสู่การสอบสวนอัยการสูงสุดของรัฐแคลิฟอร์เนีย
ทำไมผู้เชี่ยวชาญหลายคนถึงคัดค้านการปรับโครงสร้างที่แสวงหาผลกำไรของ Openai?
การเปลี่ยนจากองค์กรไม่แสวงหาผลกำไรเป็นโครงสร้างที่แสวงหาผลกำไรมักหมายถึงการแยกความปลอดภัยการวิจัยและการพัฒนา จดหมายข้างต้นเปิดเผยต่อสาธารณชนเมื่อวันที่ 23 เมษายนว่าการเคลื่อนไหวจะ “กำจัดการป้องกันขั้นพื้นฐานสำหรับการปกป้อง AGI”
ข้อมูลเพิ่มเติมเกี่ยวกับ AGI
Intelligence General Intelligence (AGI) – ระบบที่สามารถเอาชนะมนุษย์ในการทำความเข้าใจการเรียนรู้และการใช้ความรู้เกี่ยวกับงานต่าง ๆ และอาจเป็นเทคโนโลยีที่ทรงพลังที่สุดเมื่อโลกมาถึง
ผู้เชี่ยวชาญเชื่อว่านี่เป็นเทคโนโลยีที่เปลี่ยนแปลงไปทั่วโลก แต่ก็มีความเสี่ยงร้ายแรงซึ่งอาจเลวร้ายยิ่งขึ้นภายใต้การควบคุมของ บริษัท ที่แสวงหาผลกำไร
หน่วยงานที่แสวงหาผลกำไรมุ่งเน้นไปที่การนำผลกำไรมาสู่ผู้ถือหุ้นของพวกเขา ผลกำไรอาจมีความสำคัญเหนือกว่าความปลอดภัยปัญหาทางศีลธรรมหรือผลประโยชน์ต่อสังคม แรงกดดันที่เพิ่มขึ้นในการนำ AGI ออกสู่ตลาดก่อนอาจหมายถึงการตัดมุมของการพัฒนาโดยเฉพาะอย่างยิ่งในแง่ของความปลอดภัย
อีกครั้งหนึ่ง Openai อาจตัดสินใจที่จะพัฒนา AGI เกรดทหารอย่างหมดจดเพื่อผลกำไรกล่าวคำอำลากับลำดับความสำคัญทางสังคมดั้งเดิม
ผู้เชี่ยวชาญยังเชื่อว่าเทคโนโลยี AGI ใด ๆ อาจยังคงเป็นเอกสิทธิ์ของผู้สร้าง
สิ่งนี้จะทำให้ยากขึ้นสำหรับประชาชนนักวิจัยและหน่วยงานกำกับดูแลในการพัฒนามาตรการป้องกันและตรวจสอบการพัฒนาอย่างรอบคอบ
ความสามารถสูงสุดยังมีแนวโน้มที่จะดึงดูด บริษัท ที่แสวงหาผลกำไรและสัญญาว่าจะได้รับค่าตอบแทนที่แข่งขันได้มากขึ้นดังนั้นองค์กรไม่หวังผลกำไรจะพบว่าเป็นการยากที่จะแข่งขัน (การแข่งขันที่ไม่เป็นธรรมทุกคน?)

นอกจากนี้เรายังสามารถคิดได้ว่าหากโครงสร้างที่แสวงหาผลกำไรได้รับการตรวจสอบบรรทัดฐานของอุตสาหกรรมอาจเปลี่ยนแปลงได้ AI startups อื่น ๆ สามารถเริ่มทำสิ่งเดียวกันได้ นี่อาจหมายความว่า บริษัท ที่แสวงหาผลกำไรอยู่ภายใต้การตรวจสอบทางจริยธรรมหากเป็นเรื่องธรรมดาสำหรับ บริษัท ในอุตสาหกรรม
สิ่งนี้อาจนำไปสู่การลดลงของนักลงทุนในหน่วยงานที่ไม่แสวงหากำไรเนื่องจากมีการใช้ทรัพยากรมากขึ้นในหน่วยงานที่แสวงหาผลกำไร สิ่งนี้จะทำให้ยากขึ้นสำหรับองค์กรไม่หวังผลกำไรที่จะแข่งขันในอุตสาหกรรมที่มีราคาแพงและมีการแข่งขันสูง
ในทางกลับกันมีการกล่าวกันว่าในองค์กรที่แสวงหาผลกำไรความปลอดภัยและปัญหาด้านจริยธรรมไม่ได้หายไปอย่างกะทันหันและแรงกดดันจากสาธารณะและความเสี่ยงระยะยาวของ AI เน้นสิ่งเหล่านี้
องค์กรวิจัย AI และกลุ่มผู้สนับสนุนจะยังคงส่งเสริมการพัฒนาที่รับผิดชอบของผู้นำ AI ทั่วตลาดโดยไม่คำนึงว่า บริษัท จะไม่แสวงหาผลกำไรหรือแสวงหาผลกำไร
แม้ว่าแน่นอนว่ามันเป็นเรื่องจริง แต่จะมีการล่อลวงกำไรมากเกินไปหรือไม่?
Openai รับผิดชอบวัตถุประสงค์ดั้งเดิม: ได้รับประโยชน์จากมนุษยชาติ
ความเสี่ยงโดยธรรมชาติของ OpenAI หรือการเริ่มต้น AI ใด ๆ ที่เปลี่ยนเป็นโครงสร้างที่แสวงหาผลกำไรอาจกลายเป็นการผูกขาดและควบคุมสังคมและเศรษฐกิจเป็นอย่างมาก
สิ่งนี้ทำให้ประชดอย่างชัดเจนเมื่อพิจารณาว่า Openai ก่อตั้งขึ้นเพื่อต่อสู้กับการผูกขาดนี้มาก
ในเดือนธันวาคม 2558 เมื่อ Google ดูเหมือนจะกำลังจะสร้าง AGI เริ่มต้น AI startups เริ่มต้นขึ้น CEO Sam Altman เชื่อว่าหาก บริษัท การค้าพัฒนา AGI มันจะเป็นอันตรายต่อสาธารณชน
การประกาศการก่อตั้งของ บริษัท ในการรวมตัวกันของรัฐ บริษัท :
เป้าหมายของเราคือการพัฒนาข่าวกรองดิจิทัลในรูปแบบที่น่าจะเป็นประโยชน์ต่อมนุษยชาติโดยรวมด้วยผลตอบแทนทางการเงินไม่ จำกัด เนื่องจากการวิจัยของเราไม่มีภาระผูกพันทางการเงินเราจึงสามารถมุ่งเน้นไปที่ผลกระทบของมนุษย์ในเชิงบวกมากขึ้น
– คำแถลงภารกิจ Openai
ในฐานะประธาน Greg Brockman กล่าวว่าจุดประสงค์ดั้งเดิมของ Openai ไม่ได้พัฒนา AGI เลย:
งานจริงไม่ได้เปิดเพื่อสร้าง AGI ภารกิจที่แท้จริงคือการให้ Agi พัฒนาเพื่อมนุษยชาติ … เป้าหมายของเราคือไม่สร้างเป้าหมาย เป้าหมายของเราคือเพื่อให้แน่ใจว่ามันพัฒนาได้ดีสำหรับโลก
– ประธานาธิบดี Greg Brockman
ตาม Openai การได้เปรียบในการแข่งขันเป็นเหตุผลหลักสำหรับการย้าย แต่บันทึกล่าสุดของ บริษัท แสดงให้เห็นถึงรูปแบบที่ไม่ระมัดระวัง
สถิติแสดงให้เห็นว่า OpenAI มีความกระตือรือร้นที่จะทำการทดสอบความปลอดภัยเพื่อให้แน่ใจว่าผลิตภัณฑ์ตรงตามกำหนดการวางจำหน่าย นอกจากนี้ยังลดเวลาในการทดสอบความปลอดภัยทำให้กระบวนการทดสอบน้อยลงอย่างละเอียดโดยมีเวลาและทรัพยากรไม่เพียงพอในการระบุและลดความเสี่ยง –
ถึงเวลาที่จะให้หน่วยงานกำกับดูแลมีส่วนร่วมหรือไม่?
ดังนั้นหน่วยงานกำกับดูแลควรก้าวเข้ามาเพื่อป้องกันการปรับโครงสร้างของ OpenAI ที่เสนอหรือไม่? ผู้เชี่ยวชาญหลายคนยอมรับอย่างแน่นอนว่าสิ่งนี้จะเกิดขึ้น
Stuart Russell ศาสตราจารย์ด้านวิทยาศาสตร์คอมพิวเตอร์ของ UC Berkeley กล่าวถึงเวลาว่าในฐานะที่ไม่แสวงหาผลกำไร Openai สามารถปิดตัวลงได้หากเบี่ยงเบนจากงาน มันเป็นเหมือนสวิตช์ปลดออกจากตำแหน่งเขาอธิบาย การย้ายไปยังเอนทิตีที่แสวงหาผลกำไรหมายถึง:“ โดยทั่วไปพวกเขาแนะนำให้ห้ามสิ่งนี้”
ในกรณีที่มีการปรับโครงสร้างที่แสวงหาผลกำไรสมาชิกคณะกรรมการจะต้องชั่งน้ำหนักงานต้นฉบับของ บริษัท กับผลกำไรของผู้ถือหุ้น

จากนั้นก็มีข้อโต้แย้งของ Openai ว่าหากทุกคนสร้าง AGI ต่อหน้า บริษัท จีนทุกคนจะได้รับประโยชน์ แม้ว่านี่จะเป็นแกนหลัก แต่ก็มีองค์กรอื่น ๆ ในระดับแนวหน้าของ AI
หากสถานะที่ไม่แสวงหาผลกำไรยังคงอยู่นั้นไม่มีเหตุผลว่าทำไมจึงไม่สามารถจัดหาทรัพยากรการคำนวณและความสามารถให้กับรัฐบาลสหรัฐฯหรือองค์กรอื่น ๆ ในสหรัฐอเมริกาเพื่อให้แน่ใจว่าสหรัฐฯยังคงอยู่ข้างหน้าการแข่งขันในประเทศจีน
จดหมายแนะนำว่าหน่วยงานกำกับดูแลปกป้องวัตถุประสงค์การกุศลของ OpenAI ในการพัฒนา AGI และปกป้องประชาชน นอกจากนี้ยังต้องการคำตอบสำหรับคำถามพื้นฐานเช่นประโยชน์ของวิธีการปรับโครงสร้างองค์กรและผลประโยชน์ที่มากขึ้น
ภาพรวมแผนปฏิบัติการแสดงให้เห็นว่าถ้าและเมื่อ OpenAI สร้าง AGI มันควรเป็นขององค์กรไม่แสวงหากำไร ความรับผิดชอบเพียงอย่างเดียวของพวกเขาคือเพื่อให้แน่ใจว่ามีการใช้อย่างรับผิดชอบเพื่อประโยชน์ของมนุษยชาติ ไม่ควรเป็นเจ้าของหรือควบคุมโดยนิติบุคคลเชิงพาณิชย์หรือนักลงทุน –
เป็นเรื่องง่ายที่จะเห็นว่าทำไมความตึงเครียดจึงสูงขึ้นเรื่อย ๆ ในคดีศาลระหว่างมัสค์และโอเพนได ยิ่งสูงขึ้นระหว่างผู้สร้างของ CHATGPT และผู้ที่ต่อต้านแผนการปรับโครงสร้างของ บริษัท อย่างแน่นหนา
ตอนนี้เนื่องจากการเชื่อมต่อของ Openai กับพันธมิตรได้ตั้งคำถามกับการเชื่อมต่อของ Musk และแผนเพื่อผลกำไรเราต้องรอและดูว่าการอภิปรายนี้จะเกิดขึ้นได้อย่างไร
จุดเน้นของนโยบายบรรณาธิการรายงานทางเทคนิคคือการจัดหาเนื้อหาที่มีประโยชน์และถูกต้องซึ่งให้คุณค่าที่แท้จริงแก่ผู้อ่านของเรา เราทำงานเฉพาะกับนักเขียนที่มีประสบการณ์ซึ่งมีความรู้เฉพาะเกี่ยวกับหัวข้อที่ครอบคลุมรวมถึงการพัฒนาล่าสุดในด้านเทคโนโลยีความเป็นส่วนตัวออนไลน์ cryptocurrency ซอฟต์แวร์และอื่น ๆ นโยบายบรรณาธิการของเรามั่นใจได้ว่าแต่ละหัวข้อได้รับการวิจัยและดูแลโดยบรรณาธิการภายในของเรา เรารักษามาตรฐานวารสารศาสตร์ที่เข้มงวดและแต่ละบทความเขียนโดยผู้เขียนจริง 100%