
Jaan Tallinn อธิบายว่าทำไมการจัดตำแหน่ง AI จึงเป็นปัญหาที่สำคัญ
หากคุณเคยใช้ Skype หรือแชร์ไฟล์บน Kazaa ย้อนกลับไปในช่วงต้นทศวรรษ 2000 คุณคงเคยเจอผลงานของ Jaan Tallinn
และถ้ามนุษย์ยุติการสร้างเครื่องจักรที่เกินสติปัญญาของเรา และเรามีชีวิตอยู่เพื่อบอกเล่าเกี่ยวกับมัน — เราอาจมีใจบุญสุนทานของทาลลินน์เป็นส่วนน้อยที่จะขอบคุณ
ทาลลินน์ซึ่งนวัตกรรมของเขาทำรายได้ให้เขานับสิบล้านดอลลาร์เป็นหนึ่งในผู้บริจาครายแรกๆ ที่โต้แย้งอย่างจริงจังว่าปัญญาประดิษฐ์ขั้นสูงเป็นภัยคุกคามต่อการดำรงอยู่ของมนุษย์ เขาเชื่อว่าเราอาจจะเข้าสู่ยุคแรกในประวัติศาสตร์ของมนุษย์ที่เราไม่ได้เป็นผู้มีอำนาจเหนือโลก และเมื่อเรามอบอนาคตของเราให้กับ AI ขั้นสูง เราควรจะสาปแช่งว่าศีลธรรมของมันสอดคล้องกับของเราเอง .
เขาได้บริจาคเงินมากกว่า 600,000 ดอลลาร์ให้กับMachine Intelligence Research Instituteซึ่งเป็นองค์กรสำคัญที่ทำงานเกี่ยวกับ “การจัดตำแหน่ง AI” (กล่าวคือ การปรับความสนใจของ AI ให้สอดคล้องกับผลประโยชน์ของสังคมมนุษย์) และอีกกว่า 310,000 ดอลลาร์ให้กับสถาบัน Future of Humanityที่ อ็อกซ์ฟอร์ดซึ่งทำงานในวิชาที่คล้ายคลึงกัน นอกจากนี้ เขายังร่วมก่อตั้งองค์กรใหม่ 2 แห่งที่กำลังศึกษาเกี่ยวกับ AI และภัยคุกคามจากการสูญพันธุ์อื่นๆ ได้แก่Center for the Study of Existential Risk at CambridgeและFuture of Life Institute
สิ่งเหล่านี้ก็เพียงพอแล้วที่จะบอกว่าไม่ใช่งานวิจัยทั่วไปสำหรับผู้ใจบุญ แม้แต่ผู้ใจบุญด้านเทคโนโลยี เป็นเรื่องธรรมดามากที่คนรวยใหม่จะใช้โชคลาภของพวกเขาในฐานะผู้อุปถัมภ์ศิลปะหรือบริจาคให้กับโรงเรียนเก่าของพวกเขาหรือบางทีในกรณีที่ดีที่สุดในการต่อสู้กับความยากจนทั่วโลก
พวกเราที่ พอดคาสต์ Future Perfectจึงอยากคุยกับทาลลินน์ว่าเขามาถึงแนวทางนี้ได้อย่างไร และทำไมเขาถึงคิดว่าการบริจาคเพื่อปกป้องเราจาก AI นั้นคุ้มค่า ตอนเต็มของเราเกี่ยวกับทาลลินน์และการทำบุญด้านความปลอดภัยของ AI จะออกมาในสัปดาห์หน้า แต่สำหรับตอนนี้ นี่คือรสชาติของการสนทนาของเรากับทาลลินน์
ดีแลน แมทธิวส์
คุณเริ่มคิดที่จะทำบุญครั้งแรกไม่ว่าจะโดยการจัดตำแหน่ง AI หรือประเด็นอื่นๆ เมื่อใด
ยาน ทาลลิน น์
เมื่อ 10 ปีที่แล้ว มีการฟ้องร้องระหว่าง eBay และผู้เกี่ยวข้องรายอื่นๆ ใน Skype รวมถึงผู้ร่วมก่อตั้ง Skype
ในช่วงเวลานั้น ฉันเริ่มมองหา … สิ่งใหม่ๆ ที่จะทำ จากนั้นฉันก็สะดุดกับงานเขียนของ Eliezer Yudkowsky บนอินเทอร์เน็ต ซึ่งฉันพบว่าน่าสนใจจริงๆ
[หมายเหตุบรรณาธิการ: Yudkowsky เป็น autodidact ที่เขียนอย่างกว้างขวางเกี่ยวกับ AI และหัวข้อที่เกี่ยวข้องและเขียนHarry Potter fanfic Harry Potter และ Methods of Rational ยอดนิยม ซึ่งสะท้อนถึงมุมมองที่ค่อนข้างแปลกของ Yudkowsky เกี่ยวกับเหตุผลและวิทยาศาสตร์]
ดีแลน แมทธิวส์
สำหรับผู้อ่านที่อาจไม่เคยได้ยินชื่อ Eliezer Yudkowsky คุณเริ่มอ่านอะไรจากเขา และอะไรที่คุณสนใจ
แจน ทาลลินน์
เมื่อฉันพบเขา เขาเขียนเรียงความประมาณ 1,000 บทความ
และก่อนที่ฉันจะพบว่าเขาเขียนได้เร็วกว่าที่ฉันอ่านได้ ฉันได้วางแผนและเขียนซอฟต์แวร์ไว้แล้วเพื่อขูดทุกอย่างที่เขาเขียนและจัดรูปแบบเพื่อให้อ่านง่ายขึ้น
ดังนั้นฉันจึงใช้เวลาประมาณหนึ่งปีในการอ่านหนังสือของเขา … อ่านบทความของเขาเกี่ยวกับความมีเหตุมีผล เกี่ยวกับจิตวิทยาของมนุษย์ เกี่ยวกับวิทยาศาสตร์ และเกี่ยวกับ AI และเหตุใดเราจึงต้องทุ่มเทเพื่อให้แน่ใจว่าอนาคตระยะยาวจะดี
Byrd Pinkerton
มีข้อความหรือแนวคิดใดที่ทำให้คุณสั่นคลอนหรือเปลี่ยนรูปแบบความคิดของคุณเกี่ยวกับโลกใหม่หรือไม่
แจน ทาลลินน์
แนวคิดโดยรวมที่ดึงดูดความสนใจของฉันซึ่งฉันไม่เคยคิดมาก่อนก็คือเรากำลังเห็นจุดจบของยุคที่สมองมนุษย์เป็นตัวกำหนดอนาคต
และเมื่อเรามอบอนาคตนั้นให้กับจิตใจที่ไม่ใช่มนุษย์ อนาคตอาจจะแปลกประหลาดจริงๆ เราคุ้นเคยกับการที่มนุษย์เป็นราชาของโลกมากจนเป็นเรื่องที่จินตนาการไม่ได้สำหรับเราว่ามันอาจแตกต่างออกไปเพียงใด
ดีแลน แมทธิวส์
ฉันรู้ว่ามี – โดยเฉพาะอย่างยิ่งเมื่อ 10 ปีที่แล้วเมื่อคุณอธิบายสิ่งนี้ – นักวิทยาศาสตร์คอมพิวเตอร์บางคนที่ไม่ใส่ใจมาก
ฉันกำลังนึกถึงคนอย่าง Andrew Ng ซึ่งมีคำพูดที่โด่งดังเกี่ยวกับการกังวลเกี่ยวกับ AI ระดับมนุษย์เหมือนกับการกังวลเกี่ยวกับการมีประชากรมากเกินไปบนดาวอังคาร
อะไรทำให้คุณคิดว่า “เอลีเซอร์กำลังทำอะไรอยู่ นี่ไม่ใช่แค่เรื่องไร้สาระที่ต้องกังวล เราควรกังวลเรื่องนี้จริงๆ”
แจน ทาลลินน์
ฉันเป็นโปรแกรมเมอร์และได้อ่านสิ่งที่พวกเขาโต้แย้งราวกับว่าเป็นโปรแกรม อย่างน้อยก็เมื่อฉันต้องการระมัดระวังเกี่ยวกับพวกเขา ฉันเพิ่งอ่าน และไม่พบข้อบกพร่องใดๆ ใน [การเขียนของ Yudkowsky เรื่อง AI]
ดีแลน แมทธิวส์
ดังนั้นคุณจึงอ่านข้อโต้แย้งเหล่านี้ คุณเริ่มมั่นใจ ขั้นตอนต่อไปของคุณคืออะไร?
แจน ทาลลินน์
สิ่งแรกที่ฉันทำคือ ฉันเพิ่งเริ่มสนับสนุนองค์กรของ Eliezer ซึ่งตอนนี้รู้จักกันในชื่อ MIRI — Machine Intelligence Research Institute — และฉันยังคงเป็นผู้สนับสนุนคนสำคัญขององค์กรนั้น ฉันค่อนข้างกระตือรือร้นกับสิ่งที่พวกเขากำลังทำอยู่
แต่จากนั้นฉันก็เริ่มขอคำแนะนำ ฉันไปที่ซิลิคอนแวลลีย์และใช้เวลาสองสามสัปดาห์ที่นั่น เหมือนกับการประชุมครั้งแล้วครั้งเล่า
ฉันมีนโยบายนี้ที่ฉันให้เงินเพียงเล็กน้อยแก่ผู้คนและเห็นว่าพวกเขาสามารถทำอะไรได้บ้าง จากนั้นจึงเพิ่มการสนับสนุนในที่สุด เหมือนกับการใช้วิธีการลงทุนเพื่อการกุศล
Byrd Pinkerton
ในฐานะฆราวาส ฉันสงสัยว่าการส่งเสริมการเติบโตทางเศรษฐกิจหรือการต่อสู้กับความไม่เท่าเทียมกันอาจมีความสำคัญมากกว่าในการปกป้องอนาคตหรือไม่?
https://christianbolanos.info
https://pridegoeseast.org
https://fecundbd.com
https://tuesdayafter.com
https://elsecretodemistercloset.com
https://supermanrevengesquad.com
https://carmelodaimiel.com
https://wesgaddis.com
https://msquakecon.org
https://autoinsurancequotesgs.net