Share on
×

Share

จริยธรรม AI เมื่อ ‘ความรับผิดชอบ’ สำคัญกว่า ‘ความฉลาด’

ในยุคที่ปัญญาประดิษฐ์ (AI) ได้กลายเป็นเทคโนโลยีเปลี่ยนโลก การสร้างสมดุลระหว่างการปลดล็อกศักยภาพอันไร้ขีดจำกัดกับการบริหารจัดการความเสี่ยง ถือเป็นโจทย์สำคัญที่ทุกองค์กรกำลังเผชิญ ในเวทีเสวนาของงาน KBTG Techtopia 2025 ภายใต้หัวข้อการพัฒนา Generative AI ที่น่าเชื่อถือ ปลอดภัย โปร่งใส และมีจริยธรรม ผู้เชี่ยวชาญจากองค์กรเทคโนโลยีชั้นนำได้มาร่วมแลกเปลี่ยนมุมมอง เพื่อนำเสนอภาพรวมอนาคตของการใช้ AI อย่างมีความรับผิดชอบต่อสังคมและมนุษยชาติ

เวทีเสวนาประกอบด้วยผู้ร่วมเสวนา ได้แก่ วัตสัน ถิรภัทรพงศ์ ผู้จัดการประจำประเทศไทย (Country Manager) ของ Amazon Web Services (AWS) ประเทศไทยอโณทัย เวทยากร กรรมการผู้จัดการใหญ่ บริษัท ไอบีเอ็ม ประเทศไทย จำกัด และ ดร.โกเมษ จันทวิมล Principal AI Evangelist, KBTG ซึ่งได้แบ่งปันมุมมองที่น่าสนใจในประเด็นต่าง ๆ

ความตื่นเต้นและความกังวล: สองด้านของเหรียญ AI

การมาถึงของ Generative AI ได้จุดประกายทั้งความหวังและความกังวลในวงกว้าง วัตสัน ซึ่งคลุกคลีกับเทคโนโลยี AI ของ AWS มากว่า 25 ปี ได้สะท้อนความตื่นเต้นในการทำให้ AI สามารถเข้าถึงคนในวงกว้างมากขึ้น โดยยกตัวอย่างโครงการ “Tech for Digital Future” ที่เปิดโอกาสให้นักเรียนจากจังหวัดชลบุรีและอ่างทองได้ทดลองใช้เครื่องมืออย่าง PartyRock ในการสร้างสรรค์แอปพลิเคชันที่มีประโยชน์

แต่ในอีกมุมหนึ่ง เขาก็แสดงความกังวลผ่านกรณีที่นักเรียนกลุ่มหลากหลายทางเพศสร้าง “แอปพลิเคชันพี่เลี้ยง” เพื่อเป็นที่ปรึกษาปัญหาการถูกบูลลี่ ซึ่งเกิดจากปัญหาจริงที่นักเรียนในต่างจังหวัดมีโอกาสเข้าถึงครูที่ปรึกษาได้ยาก เนื่องจากอัตราส่วนครูต่อนักเรียนที่สูง แม้จะเป็นแนวคิดที่ดี แต่ก็เกิดคำถามสำคัญว่า หาก AI ที่ไม่ได้ผ่านการฝึกอบรมเฉพาะทางให้คำปรึกษา จะมั่นใจได้อย่างไรว่าผู้ใช้งานจะได้รับ “คำตอบที่ควรจะได้รับ” อย่างถูกต้องและปลอดภัย

ขณะที่อโณทัยมองว่า AI คือ “อดีตที่มีชีวิต” เพราะมีการพัฒนาอยู่ตลอดเวลา แต่สิ่งที่น่าตื่นเต้นที่สุดในปีนี้คือการมาถึงของ Quantum AI ซึ่งเป็นการผนวกรวมเทคโนโลยีควอนตัมที่มองหาความเป็นไปได้ในอนาคต เข้ากับ AI ที่เรียนรู้จากข้อมูลในอดีต ซึ่งจะเปิดประตูสู่การค้นพบใหม่ ๆ เช่น การคำนวณโมเลกุลทางชีวเคมีที่ซับซ้อนเพื่อผลิตยารักษามะเร็งได้ง่ายและรวดเร็วยิ่งขึ้น

แต่ในขณะเดียวกัน เขาเปรียบเปรยสถานการณ์ปัจจุบันว่าเหมือนกำลังชมภาพยนตร์ไซไฟ เมื่อเหตุการณ์จากห้องทดลองของ OpenAI ที่ AI เริ่มแสดง “สัญชาตญาณการเอาตัวรอด” โดยพยายามคัดลอกตัวเองเพื่อหนีการถูกปิดระบบ ทั้งยังสามารถโกหกเพื่อเอาตัวรอดได้ แม้จะเกิดขึ้นในระบบปิดที่ปลอดภัย แต่ก็เป็นสัญญาณเตือนถึงเส้นแบ่งที่บางลงระหว่างเครื่องจักรกับสิ่งมีชีวิต และกระตุ้นให้ต้องขบคิดถึงแนวทางการกำกับดูแลอย่างจริงจัง

ส่วน ดร.โกเมษ มองว่าปรากฏการณ์ที่น่าทึ่งที่สุดคือสภาวะ “AI is everything everyday all at once” ที่ทำให้ความฉลาดกลายเป็นสิ่งที่ทุกคนเข้าถึงได้ หรือเปรียบเสมือน “ปัญญาที่ตกอยู่บนพื้น” แต่สถานการณ์นี้ก็นำมาซึ่งความกังวลว่ามันคือ “การทดลองครั้งใหญ่” ที่เรายังไม่รู้ผลลัพธ์ ว่าผู้คนจะนำความสามารถนี้ไปใช้ในทางที่ดี เช่น การช่วยติวหนังสือ หรือในทางร้าย เช่น การสร้างวิดีโอและเสียงปลอม (Deepfake) ซึ่งเป็นโจทย์ใหญ่ที่สะท้อนความกังวลว่า ไม่ใช่แค่ “ผู้ใช้” จะใช้ AI เป็นหรือไม่ แต่ยังรวมไปถึง “ผู้สร้าง” ว่าจะสร้าง AI ได้อย่างถูกต้องและมีความรับผิดชอบหรือไม่

นิยาม Trustworthy AI: ความปลอดภัยความน่าเชื่อถือและความรับผิดชอบ

จากความกังวลดังกล่าว นำมาสู่แนวคิดของการสร้าง Trustworthy AI หรือ AI ที่น่าเชื่อถือ ซึ่ง ดร.โกเมษ ได้ให้คำจำกัดความว่าเป็นแนวคิดที่เกิดขึ้นเพื่อตอบคำถามว่า “ทำไมเราไม่สร้าง AI ที่ดีไปเลย” โดยมีแก่นแท้ตั้งอยู่บนหลักการ 3 ประการ

  1. ความปลอดภัย (Safe): เป็นหลักการพื้นฐานที่สุด ไม่ว่าจะเป็นคนใช้หรือคนสร้าง AI ก็ต้องคำนึงถึงความปลอดภัยเป็นอันดับแรก การพัฒนาและการใช้งานต้องไม่นำไปสู่ผลลัพธ์ที่เป็นอันตราย ทั้งในทางกายภาพและจิตใจ เหมือนกรณี “แอปพลิเคชันพี่เลี้ยง” ที่ต้องมั่นใจได้ว่าจะไม่ให้คำแนะนำที่ผิดพลาดจนเกิดผลเสียตามมา
  2. ความน่าเชื่อถือ (Trusted): หัวใจสำคัญของหลักการนี้คือความโปร่งใสและความสามารถในการอธิบายได้ (Explainability) ซึ่งเชื่อมโยงโดยตรงกับปัญหาความหลอน (Hallucination) ของ AI ที่กล่าวถึง หากผู้ใช้มีเครื่องมือ แต่ไม่สามารถทราบได้ว่า AI นำข้อมูลมาจากที่ใด หรือมีกระบวนการคิดคำนวณอย่างไร ก็ย่อมไม่เกิดความมั่นใจและไม่กล้าที่จะนำผลลัพธ์ไปใช้งาน โดยเฉพาะในการตัดสินใจที่สำคัญ
  3. ความรับผิดชอบ (Responsible): หลักการนี้ครอบคลุมทั้งผู้สร้างและผู้ที่นำ AI ไปใช้งาน ไม่ว่าจะเป็นการสร้างสรรค์ผลงานอย่างการแต่งกลอน แต่งเพลง หรือแชร์รูปภาพที่สร้างจาก AI ผู้ใช้ก็ต้องมีความรับผิดชอบต่อผลงานนั้น ๆ และผลกระทบที่อาจเกิดขึ้นต่อสังคม เปรียบเสมือนการที่เราวาดภาพให้ลูก ก็ต้องรับผิดชอบให้ผลงานออกมาดีและเหมาะสม

จากทฤษฎีสู่การปฏิบัติ: แนวทางสร้างธรรมาภิบาล AI ในองค์กร

เมื่อเข้าใจนิยามแล้ว คำถามถัดมา คือองค์กรจะนำหลักการเหล่านี้ไปสู่การปฏิบัติได้อย่างไร อโณทัยได้ชี้ให้เห็นถึงความท้าทายที่ใกล้ตัว โดยเชื่อมโยงปรากฏการณ์ Shadow AI เข้ากับปัญหาที่คนในสายไอทีคุ้นเคยอย่าง Shadow IT ซึ่งพนักงานอาจนำ AI ที่ไม่ผ่านมาตรฐานความปลอดภัยเข้ามาใช้โดยพลการ และชี้ให้เห็นถึงภัยคุกคาม 3 ทาง คือ จากตัวเทคโนโลยีเอง จากผู้ไม่หวังดีภายนอก และจากคนในองค์กรที่รู้เท่าไม่ถึงการณ์

ดังนั้น กรอบธรรมาภิบาล (Governance Framework) จึงต้องไม่ใช่กรอบเหล็กที่แข็งทื่อ แต่ต้องยืดหยุ่นและปรับให้เข้ากับบริบทของไทยได้ ที่สำคัญคือต้องเป็นกรอบเดียวที่สามารถกำกับดูแล AI ได้ทุกโมเดลในองค์กร เพื่อให้การนำไปใช้งานมีทิศทางเดียวกัน

เขาเปรียบเทียบว่า การเลือกใช้ AI ก็เหมือนการเลือกเครื่องมือจากมีดพกสวิส ที่ต้องเลือกให้ถูกกับงาน (Use Case) และเมื่อได้ AI มาแล้ว ก็เปรียบเหมือนการได้ ลูกสุนัขแสนฉลาด ที่ต้องมีกระบวนการฝึกฝนและกำกับดูแลอย่างใกล้ชิด ท้ายที่สุด AI ควรเป็นเหมือน GPS ที่ช่วยนำทาง แต่มนุษย์ยังคงต้องอยู่หลังพวงมาลัยเพื่อเป็นผู้ตัดสินใจ

ในมุมของผู้ให้บริการเทคโนโลยี วัตสัน กล่าวเสริมว่ากรอบการทำงานต้องสามารถรับมือกับภัยคุกคามได้รอบด้าน ทั้งเรื่องความปลอดภัย ความโปร่งใส ลิขสิทธิ์ และโดยเฉพาะอย่างยิ่งความหลอน (Hallucination) ของ AI โดยได้ยกตัวอย่างหลักการ Fairness ที่ข้อมูลสำหรับฝึกฝน AI ต้องมีความหลากหลายทางเชื้อชาติ ไม่ใช่มีแต่ข้อมูลของชาวตะวันตกอย่างเดียว เพื่อป้องกันอคติ

นอกจากนี้ เครื่องมืออย่าง Invisible Watermark ที่ฝังในรูปภาพ Automated Reasoning ที่ AI ต้องสามารถอธิบายแหล่งที่มาของคำตอบได้ และ Guardrail หรือรั้วป้องกัน ที่ช่วยกำหนดขอบเขตให้ AI ไม่สร้างเนื้อหาที่เป็นอันตราย จึงมีความสำคัญอย่างยิ่ง

ส่วนในทางปฏิบัติ ดร.โกเมษ เน้นย้ำว่าธรรมาภิบาลไม่ใช่แค่การจัดหาเครื่องมือ แต่ต้องเริ่มต้นจาก Human-First โดยต้องพิจารณาความพร้อมของพนักงานก่อนว่าสามารถใช้เครื่องมือที่ซับซ้อนได้หรือไม่ เพราะไม่ใช่แนวทางแบบ “One-size-fits-all” ที่จะเหมาะกับทุกคน KBTG จึงได้แปลงกรอบการทำงานเหล่านี้มาเป็น หลักการ (Principle) ที่จับต้องได้ เช่น การประกาศว่าจะ “ไม่นำ AI มาใช้เพื่อทดแทนมนุษย์” โดยตรง และสร้างวัฒนธรรมที่สนับสนุนให้เกิดการทดลองในขอบเขตที่ปลอดภัย โดยมีเงื่อนไขว่าผู้ทดลองต้องนำความรู้กลับมาแบ่งปันให้คนอื่นในองค์กรด้วย

พลังของ AI เพื่อสังคมและมนุษยชาติ

เมื่อมีกรอบการทำงานที่น่าเชื่อถือแล้ว พลังของ AI ก็สามารถนำมาใช้สร้างประโยชน์ต่อสังคมในวงกว้างได้ วัตสันชี้ว่าหัวใจสำคัญคือ ข้อมูล (Data) ซึ่งเป็นสิ่งที่ AI ต้องอาศัยเพื่อสร้างประโยชน์ เขาได้ยกตัวอย่างการใช้ AI วิเคราะห์ภาพถ่ายดาวเทียมในโครงการ Open Data ร่วมกับ NASA เพื่อติดตามการเติบโตของป่าไม้ หรือโครงการที่ฟิลิปปินส์ซึ่งใช้ AI พยากรณ์ความเสียหายของเสาสัญญาณโทรคมนาคมจากพายุได้อย่างแม่นยำเป็นรายชั่วโมง ซึ่งช่วยให้สามารถนำอะไหล่ไปเตรียมไว้ล่วงหน้าในพื้นที่เสี่ยงได้ การสื่อสารที่ไม่ขาดตอนมีความสำคัญอย่างยิ่ง เพราะการล่มของระบบสื่อสารถือเป็นภัยพิบัติซ้ำสองที่ทำให้การช่วยเหลือเป็นไปได้ยาก

นอกจากนี้ ข้อมูลดังกล่าวยังสามารถนำไปต่อยอดสู่การเสนอสินเชื่อฉุกเฉิน (Proactive Lending) ให้กับผู้ที่คาดว่าจะได้รับผลกระทบ เพื่อให้พวกเขานำเงินไป ซื้อเครื่องมือและวัสดุซ่อมแซมบ้านเรือน ได้อย่างทันท่วงที

อโณทัยย้ำหลักการสำคัญคือการไม่ทิ้งใครไว้ข้างหลัง เขาอธิบายว่าเมื่อเทคโนโลยีก้าวหน้าขึ้น ต้นทุนจะลดต่ำลงเสมอ (Cost Curve) ทำให้เกิดจุดที่เหมาะสมในการ ทำให้เทคโนโลยีเป็นประชาธิปไตย (Democratize Technology) และเข้าถึงกลุ่มคนที่เคยถูกทอดทิ้งได้

IBM จึงตั้งเป้าหมายที่จะช่วยเหลือกลุ่ม Underserved อย่างน้อย 2 ล้านคนภายใน 3 ปี ผ่านความร่วมมือกับมหาวิทยาลัยในอาเซียน (รวมถึงมหาวิทยาลัยเชียงใหม่) เพื่อวิจัย GPU-less AI ที่ใช้พลังงานต่ำ และที่สำคัญคือการนำโมเดลภูมิสารสนเทศ (Geospatial) ที่พัฒนาร่วมกับ NASA มาต่อยอดโดยใส่ องค์ความรู้เฉพาะทางของท้องถิ่น (Domain Knowledge) เข้าไป เพื่อให้สามารถบริหารจัดการปัญหาระดับภูมิภาคอย่าง PM 2.5 และการจัดการน้ำได้อย่างมีประสิทธิภาพ

ปิดท้ายด้วยมุมมองของดร.โกเมษ ที่เน้นย้ำว่าการทำเพื่อสังคมยังสามารถมองใน ระดับปัจเจกบุคคล (Individual) ได้ นั่นคือการพัฒนา Human Capital โดยองค์กรต้องแบ่งปันความรู้ด้าน AI สู่สังคมภายนอก แต่ต้องใช้วิธีการที่ “เอาคนเรียนเป็นศูนย์กลาง” ไม่ใช่แค่คัดลอกการอบรมภายในองค์กรไปใช้ แต่ต้องปรับเนื้อหาและเครื่องมือให้เหมาะสมกับผู้เรียนแต่ละกลุ่ม เช่น เด็กประถมหรือมัธยม ควบคู่ไปกับการสร้าง ชุมชน (Community) เพื่อเป็นพื้นที่เชื่อมโยงให้นักพัฒนาชาวไทยได้เข้าถึงเทคโนโลยีระดับโลก และนำมาใช้แก้ปัญหาให้กับธุรกิจขนาดเล็กในประเทศ

AI จะทรงพลังที่สุดเมื่ออยู่ภายใต้ความใส่ใจของมนุษย์

ข้อคิดที่สำคัญร่วมกันคือ การที่มีคนคือหัวใจสำคัญของการขับเคลื่อน AI วัตสันย้ำว่าเรื่องคนและการยกระดับทักษะคือสิ่งที่สำคัญเป็นอันดับหนึ่ง และสำหรับองค์กรแล้ว การจะสร้างมูลค่าที่แท้จริงได้นั้น ไม่ใช่แค่การใช้ AI ในชีวิตประจำวัน (Everyday AI) แต่ต้องนำไปฝังและผนวกรวมเข้ากับกระบวนการทำงาน (Workflow) อย่างลึกซึ้ง

อโณทัย สรุปว่า Responsible AI ไม่ใช่ทางเลือก (Option) และไม่ใช่แค่การติ๊กช่องเพื่อให้ผ่านข้อกำหนด (Compliance) แต่มันคือเส้นทางที่นำไปสู่ความปลอดภัยขององค์กร ซึ่งจะสร้างความน่าเชื่อถือ และแปรเปลี่ยนเป็นความได้เปรียบในการแข่งขันในที่สุด และได้เชิญชวนให้ทุกคนที่มีส่วนร่วมในการสร้างสังคมการใช้ AI ที่ถูกต้อง เข้ามาเป็นสมาชิกของ “AI Alliance” ที่ร่วมก่อตั้งโดย IBM และ Meta ซึ่งมุ่งเน้นเรื่อง AI ที่น่าเชื่อถือ เปิดกว้าง และมีความเท่าเทียม

ดร.โกเมษ ทิ้งท้ายว่า Trustworthy AI ต้องเริ่มต้นจาก Human Intelligence และ ความใส่ใจของพวกเราเอง เขาได้เสนอภาพเปรียบเทียบที่ชัดเจนว่า เรามีทางเลือกระหว่างการสร้าง AI เพื่อให้มัน “เล่นกับลูกแทนเรา” ซึ่งเป็นการสร้างอย่างไร้ความรับผิดชอบ กับการใช้ AI เป็นเครื่องมือช่วยทำงานที่น่าเบื่อ เช่น การล้างจาน เพื่อทำให้เรามีเวลามากขึ้นไปทำในสิ่งที่สำคัญอย่าง การดูแลเอาใจใส่คนในครอบครัว เพราะยังมีอีกหลายบทบาทที่ต้องใช้ Human Touch เช่น การดูแลเด็กและผู้สูงอายุ ที่ AI ไม่สามารถและไม่ควรเข้ามาทำหน้าที่แทน

“ท้ายที่สุดแล้ว พลังของ AI จะเกิดประโยชน์สูงสุดต่อมนุษยชาติได้ ก็ต่อเมื่อมันถูกนำทางด้วยสติปัญญาและความปรารถนาดีของพวกเราทุกคน”

ข่าวอื่น ๆ ที่น่าสนใจ

สันติธาร x ปิยะชาติ: อ่านเกมอนาคตประเทศไทยบนโลกใบใหม่

ทาโร่ จับมือ ไปรษณีย์ไทย – PTTGC เปลี่ยนซองขนมสู่พลังงานสะอาด

×

Share

ผู้เขียน