,

เปิดใจซีอีโอ OpenAI ผู้สร้าง ChatGPT ประเด็นน่ากังวลกับศักยภาพของ AI

แม้จะยังคงเดินหน้าแสดงความก้าวหน้าในการพัฒนาศักยภาพของแชตบอทปัญญาประดิษฐ์ (AI) อย่างต่อเนื่อง แต่ แซม อัลท์แมน (Sam Altman) ประธานเจ้าหน้าที่บริหาร (ซีอีโอ) ของ OpenAI บริษัทพัฒนาปัญญาประดิษฐ์ (AI) ก็เปิดใจยอมรับกับการให้สัมภาษณ์กับทาง ABC News เมื่อไม่นานมานี้ว่า ยังคงมีเรื่องที่ต้องกังวลเกี่ยวกับอนาคตของเทคโนโลยีปัญญาประดิษฐ์ เช่นกัน โดยเฉพาะอย่างยิ่ง การทำงานของ AI ที่ยังต้องเป็นไปภายใต้ความต้องการของมนุษย์

และความต้องการที่ว่านั้น อาจเป็นไปในทางที่ผิด จนสร้างผลกระทบทางสังคม ซึ่งความกังวลดังกล่าวเป็นสิ่งที่เป็นเรื่องปกติทั่วไปที่เกิดขึ้นกับเทคโนโลยีนวัตกรรมที่เกิดขึ้นมา ไม่ว่าจะเป็น เมตาเวิร์ส (Metaverse) บล็อกเชน (Blockchain) หรือ เว็บ3 (Web3)

ซีอีโอของ OpenAI กล่าวหลังจากที่เพิ่งเปิดตัว GPT-4 ซึ่งได้รับการยกย่องจากหลายฝ่ายว่าเป็น “โมเดลภาษา AI ที่ทรงพลังที่สุดในโลกปัจจุบัน” ว่า เป้าหมายในการพัฒนา AI ของบริษัท เป็นสิ่งที่ต้องระวัง เพราะพ่วงมาด้วยความเสี่ยงของผลกระทบทางสังคม ซึ่งความกลัวดังกล่าวถือเป็นเรื่องดี

อัลท์แมน ระบุเพิ่มเติมว่า อย่างที่รู้กันดีว่า AI จะเป็นตัวเปลี่ยนโฉมหน้าสังคมที่เรา ๆ คุ้นเคยกันอยู่ในปัจจุบัน ซึ่งแม้ว่าจะมีความเสี่ยง แต่ก็อาจเป็น “เทคโนโลยีที่ยิ่งใหญ่ที่สุดที่มนุษยชาติยังพัฒนาอยู่”

ขณะเดียวกัน อัลท์แมนยอมรับว่าโดยส่วนตัว ตนเองก็ค่อนข้างกลัวผลกระทบด้านลบของ AI เช่นเดียวกันคนอื่น ๆ

“ผมคิดว่า ถ้าผมตอบว่าไม่กลัว คุณก็ควรไม่ไว้ใจผม หรือดีใจที่ผมทำงานนี้” อัลท์แมนระบุ

เมื่อถามว่าอะไรคือสิ่งที่ อัลท์แมนกังวลมากที่สุด เจ้าตัวชี้ว่า การนำ AI ไปใช้เผยแพร่ข้อมูลข่าวสารที่หลอกลวงหรือเป็นเท็จ ซึ่งจะกลายเป็นจุดเริ่มต้นของปัญหาที่ตามมาไม่สิ้นสุด ก่อนชี้ว่า ขณะนี้เริ่มมีการใช้ AI สำหรับการบิดเบือนข้อมูลขนาดใหญ่ และใช้สำหรับการโจมตีทางไซเบอร์ที่ไม่เหมาะสมได้

และผู้ที่จะบทบาทสำคัญในการช่วยป้องกันไม่ให้ความกังวลดังกล่าวเกิดขึ้น ก็คือการมีส่วนร่วมของภาครัฐและภาคประชาสังคม

อัลท์แมนกล่าวว่า OpenAI ต้องการการมีส่วนร่วมจากทั้งหน่วยงานกำกับดูแลและสังคม เนื่องจากข้อเสนอแนะจะช่วยกำจัดผลกระทบด้านลบที่อาจเกิดขึ้นต่อโลกจากสิ่งประดิษฐ์ที่เพิ่งถูกสร้างขึ้นมา ซึ่งขณะนี้ OpenAI มีการติดต่อกับเจ้าหน้าที่ของรัฐอย่างสม่ำเสมอ

นอกจากนี้ อีกประเด็นที่น่าเป็นห่วงคือข้อเท็จจริงที่ว่าบริษัทเทคโนโลยีอื่น ๆ ทั่วโลกจะเริ่มสร้างโมเดล AI ของตนเอง ซึ่งจะทำให้ AI เพิ่มขึ้นและแพร่หลาย ซึ่งไม่ใช่บริษัทผู้พัฒนาทุกรายจะกำหนดขีดจำกัดความปลอดภัยแบบเข้มงวดอย่างที่ OpenAI กำหนด ประกอบกับการที่ AI แพร่หลายอย่างรวดเร็ว ทำให้สังคมมีเวลาจำกัดในการค้นหาวิธีตอบสนอง ควบคุม หรือ จัดการรับมือกับการใช้งาน AI

ยิ่งไปกว่านั้นต่อให้ AI จะฉลาดแค่ไหน เทคโนโลยีดังกล่าวก็ไม่ได้สมบูรณ์แบบและอาจชักนำไปในทางที่ผิดได้ เหตุผลเพราะข้อมูลต้นทางที่ใช้ในการสอน AI เป็นข้อมูลที่ผิด โดยอัลท์แมนมักจะเตือนผู้คนบ่อยครั้งถึงปัญหา ที่เรียกว่า ‘hallucinations problem’ คือความผิดปกติทางการรับรู้ด้วยประสาทสัมผัส เพราะ AI จะระบุสิ่งต่าง ๆ อย่างมั่นใจราวกับเป็นข้อเท็จจริง ทั้ง ๆ ที่เป็นเรื่องที่แต่งขึ้นทั้งหมด

OpenAI อธิบายว่า ปัญหาดังกล่าวเกิดขึ้นเนื่องจากระบบใช้เหตุผลแบบนิรนัยแทนการท่องจำ โดยอัลท์แมนอธิบายว่า วิธีที่ถูกต้องในการคิดแบบจำลองที่บริษัทสร้างขึ้นคือเครื่องมือให้เหตุผล ไม่ใช่ฐานข้อมูลข้อเท็จจริง สิ่งที่บริษัทต้องการให้ AI ทำคือสิ่งที่ใกล้เคียงกับความสามารถในการให้เหตุผล ไม่ใช่การท่องจำ”

ดังนั้น จึงมีความเป็นไปได้ที่จะเกิดข้อมูลผิด ๆ

ทั้งนี้ อัลท์แมนย้ำว่า สังคมต้องใช้เวลาในการทำความคุ้นเคยกับ ChatGPT และทาง OpenAI กำลังรวบรวมข้อเสนอแนะมากมายจากผู้ใช้

“ผู้คนต้องการเวลาในการอัปเดต ตอบสนอง และทำความคุ้นเคยกับเทคโนโลยีนี้ [และ] เพื่อทำความเข้าใจว่าจุดด้อยอยู่ที่ไหนและอะไรที่สามารถบรรเทาได้” อัลท์แมนกล่าว ก่อนเสริมว่า OpenAI ขณะนี้ มีทีมผู้กำหนดนโยบายที่ตัดสินใจว่าข้อมูลใดที่จะเข้าสู่ ChatGPT รวมถึงรูปแบบภาษาที่อนุญาตให้แบ่งปันกับผู้ใช้ โดยบริษัทจะไม่พัฒนา ChatGPT ให้สมบูรณ์แบบในครั้งแรก เนื่องจากสิ่งสำคัญคือต้องเรียนรู้บทเรียนจากความผิดพลาดและค้นหาข้อได้เปรียบต่างๆ ภายใต้ความเสี่ยงที่ต่ำที่สุดเท่าที่จะเป็นไปได้

ขณะเดียวกัน อีกหนึ่งคำถามที่ผู้คนในสังคมเริ่มกังวลมากขึ้น ก็คือ อีกนานไหมกว่าที่ AI จะเข้ามาแทนที่แรงงานมนุษย์ จนอาจทำให้ผู้คนจำนวนมากจะตกงาน ซึ่งในกรณีนี้ อัลท์แมนยอมรับว่า AI จะเข้ามาแทนที่งานบางอย่างในอนาคตอันใกล้ และอาจเกิดขึ้นเร็วกว่าที่คิดไว้ ซึ่งเป็นส่วนที่อัลท์แมนกังวลมากที่สุด 

อย่างไรก็ตาม อัลท์แมนย้ำว่าต้องการสนับสนุนให้ผู้คนมอง ChatGPT เป็นเครื่องมือที่สามารถช่วยปรับปรุงประสิทธิภาพในการทำงานของคนได้ ไม่ใช่มาแทนที่ เพราะความคิดสร้างสรรค์ของมนุษย์เป็นสิ่งที่ไร้ขีดจำกัด และเป็นหน้าที่ของคนที่จะต้องหางานใหม่ๆ หรือ สิ่งใหม่ๆ ทำ

ในการสรุปประโยชน์ของโมเดล AI ซีอีโอของ OpenAI กล่าวว่า เทคโนโลยี AI ทำให้คนทุกคนมีมีนักการศึกษาที่น่าทึ่งในกระเป๋าของตนเอง แถมเป็นนักการศึกษาที่ปรับแต่งมาสำหรับเราโดยเฉพาะ ซึ่งช่วยให้เราเรียนรู้และพัฒนาตนเองไปได้ตลอด หรือช่วยยกระดับคุณภาพชีวิตในสังคม เช่นการมีคำแนะนำทางการแพทย์ที่เหมาะสมสำหรับทุกคนซึ่งเกินกว่าที่จะทำได้ในปัจจุบัน

ในส่วนของแวดวงด้านการศึกษา อัลท์แมนกล่าวว่า AI จะทำให้เกิดการเปลี่ยนแปลงครั้งสำคัญ เพราะนักเรียนจำนวนมากจะมีครูที่นอกห้องเรียน และขัดเกลาความสามารถในการให้การเรียนรู้สอดคล้องเหมาะกับสำหรับนักเรียนแต่ละคนโดยเฉพาะ

ทั้งนี้ อัลท์แมนย้ำว่า เป้าหมายสุดท้ายของ OpenAI คือการสร้าง ปัญญาประดิษฐ์ทั่วไป หรือ Artificial General Intelligence ซึ่งอาจนำไปสู่ช่วงเวลาหนึ่งในอนาคตที่ระบบ AI โดยทั่วไปจะฉลาดกว่ามนุษย์ และ GPT-4 ของบริษัทเป็นเพียงขั้นตอนเดียวในการทำให้ความทะเยอทะยานนี้เป็นจริง

อัลท์แมนสรุปว่า เทคโนโลยี AI ก็เป็นเช่นเดียวกับสิ่งประดิษฐ์อื่นๆ ของมนุษย์ มีทั้งผลกระทบเชิงบวกและเชิงลบ แต่โลกควรมีหน่วยงานกำกับดูแลที่สามารถจัดการระงับการทำงานของ AI ได้ ในกรณีที่ AI ก้าวข้ามข้อกำหนดและไปไกลเกินไป

ที่มา Beyond Games

ข่าวอื่น ๆ ที่น่าสนใจ

บิทคับเชน เปิดตัวโปรเจกต์ CERTIFILE แพลตฟอร์มป้องกันการปลอมแปลงเอกสาร ผ่านบล็อกเชน

สรุปไฮไลต์สำคัญจากงาน GOOGLE I/O สมาร์ทโฟนพับได้ แท็บแล็ตใหม่ และ เทคโนโลยี AI

×

Share