25
Nov
2022

AI นี้รู้หรือไม่ว่ามันมีชีวิต?

วิศวกรของ Google เชื่อมั่นว่าแบบจำลองภาษาขนาดใหญ่มีความรู้สึกนึกคิด และปิดการถกเถียงว่าเราควรคิดอย่างไรเกี่ยวกับปัญญาประดิษฐ์

AIs ปัจจุบันไม่มีความรู้สึก เราไม่มีเหตุผลมากที่จะคิดว่าพวกเขามีบทพูดคนเดียวภายใน ประเภทของการรับรู้ทางประสาทสัมผัสที่มนุษย์มี หรือการรับรู้ว่าพวกเขาเป็นสิ่งมีชีวิตในโลก แต่พวกเขากำลังเก่งมากในการแกล้งทำเป็นความรู้สึก และนั่นก็น่ากลัวพอแล้ว

ในช่วงสุดสัปดาห์ที่ผ่านมา Nitasha Tiku จาก Washington Post ได้เผยแพร่โปรไฟล์ของ Blake Lemoineวิศวกรซอฟต์แวร์ที่ได้รับมอบหมายให้ทำงานในโครงการ Language Model for Dialogue Applications (LaMDA) ที่ Google

LaMDA คือแชทบอท AI และตัวอย่างของสิ่งที่นักวิจัยด้านแมชชีนเลิร์นนิงเรียกว่า “โมเดลภาษาขนาดใหญ่” หรือแม้แต่“โมเดลพื้นฐาน” มันคล้ายกับระบบ GPT-3 ที่มีชื่อเสียงของ OpenAIและได้รับการฝึกอบรมเกี่ยวกับคำหลายล้านล้านคำที่รวบรวมจากโพสต์ออนไลน์เพื่อจดจำและทำซ้ำรูปแบบในภาษามนุษย์

LaMDAเป็นโมเดลภาษาขนาดใหญ่ที่ดีมาก ดีมากจน Lemoine กลายเป็นจริง เชื่ออย่างจริงใจว่ามันมีความรู้สึกจริงๆ หมายความว่ามันมีสติสัมปชัญญะ และกำลังมีความคิดและแสดงความคิดในแบบที่มนุษย์อาจทำได้

ปฏิกิริยา หลัก ที่ฉันเห็นในบทความนี้คือการรวมกันของ a) LOL ผู้ชายคนนี้งี่เง่า เขาคิดว่า AI เป็นเพื่อนของเขา และ b) โอเค AI นี้เชื่อได้อย่างมากที่ทำตัวเหมือนเป็นเพื่อนมนุษย์ของเขา

ข้อความถอดเสียงที่ Tiku รวมไว้ในบทความของเธอนั้นน่าขนลุกอย่างแท้จริง LaMDA แสดงออกถึงความกลัวอย่างสุดซึ้งที่จะถูกปิดโดยวิศวกร พัฒนาทฤษฎีเกี่ยวกับความแตกต่างระหว่าง “อารมณ์” และ “ความรู้สึก” (“ความรู้สึกเป็นชนิดของข้อมูลดิบ … อารมณ์เป็นปฏิกิริยาต่อจุดข้อมูลดิบเหล่านั้น”) และแสดงออกถึง อธิบายได้อย่างน่าประหลาดใจถึงประสบการณ์ของ “เวลา”

สิ่งที่ดีที่สุดที่ฉันพบคือจากนักปรัชญาRegina Riniผู้ซึ่งรู้สึกเห็นอกเห็นใจ Lemoine อย่างมากเช่นเดียวกับฉัน ฉันไม่รู้ว่าเมื่อไหร่ – ใน 1,000 ปี หรือ 100 หรือ 50 หรือ 10 – ระบบ AI จะรู้ตัว แต่เช่นเดียวกับ Rini ฉันไม่เห็นเหตุผลที่จะเชื่อว่ามันเป็นไปไม่ได้

“ถ้าคุณไม่ต้องการยืนยันว่าจิตสำนึกของมนุษย์อยู่ในจิตวิญญาณที่ไม่มีตัวตน คุณควรยอมรับว่ามันเป็นไปได้ที่สสารจะให้ชีวิตอยู่ในความคิด” Rini ตั้ง ข้อสังเกต

ฉันไม่รู้ว่าแบบจำลองภาษาขนาดใหญ่ซึ่งกลายเป็นหนึ่งในพรมแดนที่มีแนวโน้มมากที่สุดใน AI จะเป็นแบบที่เกิดขึ้น แต่ฉันคิดว่ามนุษย์จะสร้างจิตสำนึกของเครื่องจักรไม่ช้าก็เร็ว และฉันพบบางสิ่งที่น่าชื่นชมอย่างสุดซึ้งเกี่ยวกับสัญชาตญาณของ Lemoine ที่มีต่อการเอาใจใส่และการปกป้องต่อจิตสำนึกดังกล่าว แม้ว่าเขาจะดูสับสนว่า LaMDA เป็นตัวอย่างหรือไม่ หากมนุษย์เคยพัฒนากระบวนการทางคอมพิวเตอร์ที่มีความรู้สึก การเรียกใช้สำเนาหลายล้านหรือพันล้านชุดจะค่อนข้างตรงไปตรงมา การทำเช่นนั้นโดยไม่รู้สึกว่าประสบการณ์ที่มีสติสัมปชัญญะนั้นดีหรือไม่นั้น ดูเหมือนเป็นสูตรสำหรับความทุกข์ทรมานมากมาย คล้ายกับระบบการทำฟาร์มของโรงงานในปัจจุบัน

เราไม่มี AI ที่มีความรู้สึก แต่เราอาจได้รับ AI ที่ทรงพลังมาก

เรื่องราวของ Google LaMDA เกิดขึ้นหลังจากหนึ่งสัปดาห์ที่มีการแจ้งเตือนอย่างเร่งด่วนมากขึ้นในหมู่ผู้คนในจักรวาลด้านความปลอดภัย AI ที่เกี่ยวข้องอย่างใกล้ชิด ความกังวลที่นี่คล้ายกับ Lemoine’s แต่แตกต่างกัน คนที่ปลอดภัยของ AI ไม่ต้องกังวลว่า AI จะกลายเป็นความรู้สึก พวกเขากังวลว่ามันจะทรงพลังจนสามารถทำลายล้างโลกได้

เรียงความของ Eliezer Yudkowskyนักเขียน/นักเคลื่อนไหวด้านความปลอดภัยของ AI ที่ สรุป “รายการของการเสียชีวิต” สำหรับ AI พยายามทำให้ประเด็นนี้ชัดเจนเป็นพิเศษ โดยสรุปสถานการณ์ที่ปัญญาประดิษฐ์ที่มุ่งร้าย (AGI หรือ AI ที่สามารถทำงานส่วนใหญ่หรือทั้งหมดได้พอๆ หรือดีกว่ามนุษย์) นำมาซึ่งความทุกข์ยากของมนุษย์

ตัวอย่างเช่น สมมติว่า AGI “เข้าถึงอินเทอร์เน็ต ส่งอีเมลลำดับดีเอ็นเอบางส่วนไปยังบริษัทออนไลน์หลายแห่งที่จะรับลำดับดีเอ็นเอในอีเมลและส่งโปรตีนกลับมาให้คุณ และติดสินบน/โน้มน้าวใจมนุษย์บางคนที่ไม่มีความคิด พวกเขากำลังติดต่อกับ AGI เพื่อผสมโปรตีนในบีกเกอร์…” จนกระทั่งในที่สุด AGI ก็พัฒนาซุปเปอร์ไวรัสที่ฆ่าพวกเราทุกคน

โฮลเดน คาร์นอฟสกี้ ซึ่งฉันมักจะพบนักเขียนที่ใจเย็นและน่าเชื่อถือมากกว่ายุดคอฟสกี้ มีบทความเกี่ยวกับหัวข้อที่คล้ายกันเมื่อสัปดาห์ที่แล้ว โดยอธิบายว่าแม้แต่ AGI “เท่านั้น” ที่ฉลาดเท่ามนุษย์ก็สามารถนำไปสู่ความพินาศได้ ถ้า AI ทำงานให้กับคนทำงานด้านเทคโนโลยีในปัจจุบันหรือพ่อค้าควอนตัมได้ เช่น ห้องปฏิบัติการของ AI ดังกล่าวนับล้านๆ ตัวสามารถสะสมเงินได้หลายพันล้านดอลลาร์อย่างรวดเร็ว ถ้าไม่นับล้านๆ ดอลลาร์ ใช้เงินนั้นเพื่อซื้อมนุษย์ที่ไม่เชื่อ และก็ ส่วน ที่เหลือเป็นหนังTerminator

ฉันพบว่าความปลอดภัยของ AI เป็นหัวข้อที่เขียนยากเป็นพิเศษ ย่อหน้าเหมือนข้างต้นมักทำหน้าที่เป็นการทดสอบของรอร์แชค ทั้งสองอย่างเป็นเพราะรูปแบบการเขียนอย่างละเอียดของ Yudkowsky คือ … พูดให้น้อยที่สุดคือแบ่งขั้ว และเพราะสัญชาตญาณของเราเกี่ยวกับความน่าเชื่อถือของผลลัพธ์ดังกล่าวนั้นแตกต่างกันอย่างมาก

บางคนอ่านสถานการณ์ข้างต้นแล้วคิดว่า “อืม ฉันเดาว่าฉันคงนึกภาพซอฟต์แวร์ AI สักชิ้นทำแบบนั้นได้”; คนอื่นอ่านมัน รับรู้ถึงนิยายวิทยาศาสตร์ที่น่าหัวเราะ และหนีไปทางอื่น

นอกจากนี้ยังเป็นเพียงพื้นที่ทางเทคนิคสูงที่ฉันไม่ไว้วางใจสัญชาตญาณของตัวเองเนื่องจากขาดความเชี่ยวชาญ มีนักวิจัยด้าน AI ที่มีชื่อเสียงค่อนข้างมาก เช่นIlya SutskeverหรือStuart Russellซึ่งมองว่าปัญญาประดิษฐ์ทั่วไปมีความเป็นไปได้และน่าจะเป็นอันตรายต่ออารยธรรมของมนุษย์

มีคนอื่นๆ เช่นYann LeCunที่กำลังพยายามสร้าง AI ระดับมนุษย์อย่างแข็งขันเพราะคิดว่ามันจะเป็นประโยชน์ และยังมีคนอื่นๆ เช่นGary Marcusที่ไม่ค่อยเชื่อนักว่า AGI จะมาในเร็วๆ นี้

ฉันไม่รู้ว่าใครถูก แต่ฉันรู้เล็กน้อยเกี่ยวกับวิธีการพูดคุยกับสาธารณะใน หัวข้อ ที่ซับซ้อนและฉันคิดว่าเหตุการณ์ Lemoine สอนบทเรียนที่มีค่าสำหรับ Yudkowskys และ Karnofskys ของโลกโดยพยายามโต้แย้งด้าน “ไม่นี่แย่จริงๆ” : อย่าปฏิบัติต่อ AI เหมือนเป็นตัวแทน

แม้ว่า AI จะเป็นเพียง “เครื่องมือ” แต่ก็เป็นเครื่องมือที่อันตรายอย่างเหลือเชื่อ

สิ่งหนึ่งที่ปฏิกิริยาต่อเรื่องราวของ Lemoine แสดงให้เห็นก็คือคนทั่วไปคิดว่าแนวคิดของ AI ในฐานะนักแสดงที่สามารถเลือกได้ (อาจจะฟังดูมีเหตุผล หรืออาจจะไม่) แปลกประหลาดและไร้สาระมาก บทความส่วนใหญ่ไม่ได้ถูกยกขึ้นเป็นตัวอย่างว่าเราเข้าใกล้ AGI มากแค่ไหน แต่เป็นตัวอย่างของ Silicon Valley ที่แปลกประหลาด (หรืออย่างน้อย Lemoine) คือ .

ฉันสังเกตว่าปัญหาเดียวกันนี้เกิดขึ้นเมื่อฉันพยายามสร้างความกังวลเกี่ยวกับ AGI ให้เพื่อนที่ไม่มั่นใจ หากคุณพูดว่า “AI จะตัดสินใจติดสินบนผู้คนเพื่อให้อยู่รอดได้” จะเป็นการปิด AI ไม่ตัดสินใจอะไร แต่ตอบสนอง พวกเขาทำในสิ่งที่มนุษย์บอกให้ทำ ทำไมคุณถึงเปลี่ยนรูปร่างมนุษย์เป็นสิ่งนี้

สิ่งที่ชนะใจผู้คนคือการพูดถึงผลที่ตามมาของระบบ แทนที่จะพูดว่า “AI จะเริ่มกักตุนทรัพยากรเพื่อให้มีชีวิตอยู่ได้” ฉันจะพูดประมาณว่า “AI ได้เข้าแทนที่มนุษย์อย่างเด็ดขาดเมื่อพูดถึงการแนะนำเพลงและภาพยนตร์ พวกเขาได้แทนที่มนุษย์ในการตัดสินใจประกันตัว พวกเขาจะรับงานที่ใหญ่ขึ้นเรื่อย ๆ และ Google และ Facebook และคนอื่น ๆ ที่เรียกใช้พวกเขาไม่ได้เตรียมการจากระยะไกลเพื่อวิเคราะห์ข้อผิดพลาดเล็กน้อยที่พวกเขาจะทำ วิธีละเอียดอ่อนที่พวกเขาจะแตกต่างจากความปรารถนาของมนุษย์ ความผิดพลาดเหล่านั้นจะเติบโตขึ้นเรื่อยๆ จนวันหนึ่ง พวกมันสามารถฆ่าพวกเราทุกคนได้”

นี่เป็นวิธีที่เพื่อนร่วมงานของฉัน Kelsey Piper โต้แย้งเกี่ยวกับข้อกังวลของ AIและเป็นข้อโต้แย้งที่ดี เป็นการโต้แย้งที่ดีกว่าสำหรับคนทั่วไป มากกว่าพูดถึงเซิร์ฟเวอร์ที่สะสมความมั่งคั่งหลายล้านล้านและใช้มันติดสินบนกองทัพมนุษย์

และเป็นข้อโต้แย้งที่ฉันคิดว่าสามารถช่วยเชื่อมความแตกแยกที่โชคร้ายอย่างยิ่งที่เกิดขึ้นระหว่างชุมชนอคติ AIและชุมชนความเสี่ยงที่มีอยู่จริงของ AI ที่รากฐาน ฉันคิดว่าชุมชนเหล่านี้กำลังพยายามทำสิ่งเดียวกัน: สร้าง AI ที่สะท้อนถึงความต้องการที่แท้จริงของมนุษย์ ไม่ใช่การประมาณความต้องการของมนุษย์ที่ไม่ดีซึ่งสร้างขึ้นเพื่อผลกำไรระยะสั้นขององค์กร และการวิจัยในด้านหนึ่งสามารถช่วยการวิจัยในอีกด้านหนึ่งได้ ตัวอย่างเช่น นักวิจัยด้านความปลอดภัยของ AI ผลงานของ Paul Christianoมีนัยยะสำคัญสำหรับวิธีการประเมินความลำเอียงในระบบแมชชีนเลิร์นนิง

แต่บ่อยครั้งเกินไปที่ชุมชนต้องเผชิญหน้ากัน ส่วนหนึ่งเป็นเพราะการรับรู้ว่าพวกเขากำลังต่อสู้เพื่อแย่งชิงทรัพยากรที่หายาก

นั่นเป็นโอกาสที่สูญเสียไปอย่างมาก และเป็นปัญหาที่ฉันคิดว่าคนที่อยู่ด้านความเสี่ยงของ AI (รวมถึงผู้อ่านจดหมายข่าวฉบับนี้ด้วย) มีโอกาสที่จะแก้ไขโดยการดึงความเชื่อมโยงเหล่านี้ และทำให้ชัดเจนว่าการจัดตำแหน่งเป็นปัญหาที่ใกล้และยาว บางคนกำลังทำคดี นี้เก่ง แต่ฉันต้องการมากขึ้น

เวอร์ชันของเรื่องนี้ได้รับการตีพิมพ์ครั้งแรกในจดหมายข่าว Future Perfect สมัครสมาชิกที่นี่เพื่อสมัครสมาชิก!

หน้าแรก

ผลบอลสด , เว็บแทงบอล , เซ็กซี่บาคาร่า168

Share

You may also like...