กระทรวงดิจิทัลเพื่อเศรษฐกิจและสังคม (ดีอี) โดยสำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์ (สพธอ.) หรือ ETDA เดินหน้าผลักดันประเทศไทยสู่การเป็นผู้นำด้าน AI Governance เปิดเวทีรับฟังความเห็นต่อ “(ร่าง) หลักการของกฎหมายว่าด้วยปัญญาประดิษฐ์” ฉบับแรกของประเทศ เน้นการกำกับดูแลการใช้งาน AI ที่มี “ความเสี่ยงสูง” ดันมาตรฐานใช้ AI อย่างมีจริยธรรม ไม่ละเมิดสิทธิและมีความรับผิดชอบ พร้อมตั้งเป้าสร้างกรอบกฎหมายที่สมดุลระหว่างการคุ้มครองสิทธิประชาชนกับการส่งเสริมนวัตกรรมอย่างยั่งยืน
ศาสตราจารย์พิเศษวิศิษฏ์ วิศิษฏ์สรอรรถ ปลัดกระทรวงดิจิทัลเพื่อเศรษฐกิจและสังคม (ดีอี) กล่าวเนื่องในโอกาสเป็นประธานในเวที Hearing (ร่าง) หลักการกฎหมายเกี่ยวกับปัญญาประดิษฐ์ (AI) โดยระบุว่า ปัญญาประดิษฐ์ (AI) ถือเป็นกลไกสำคัญในการเพิ่มขีดความสามารถในการแข่งขันของประเทศ ทั้งในด้านประสิทธิภาพการดำเนินงานและการยกระดับเศรษฐกิจดิจิทัลอย่างยั่งยืน โดยเฉพาะในยุคที่การเปลี่ยนแปลงทางเทคโนโลยีเกิดขึ้นอย่างรวดเร็ว โดยประเด็นเรื่องความพร้อมของประเทศในการพัฒนาและประยุกต์ใช้ปัญญาประดิษฐ์ (AI Readiness) และการประยุกต์ใช้ปัญญาประดิษฐ์ (AI Adoption) ถือเป็นประเด็นสำคัญที่จะขับเคลื่อนประเทศไทยจากการเป็นผู้ตาม ไปสู่การใช้ AI เพื่อยกระดับชีวิต เศรษฐกิจ และบริการของประเทศอย่างเต็มศักยภาพ และปัจจัยสำคัญที่ผลักดันเรื่องเหล่านี้ คือ ธรรมาภิบาลปัญญาประดิษฐ์ (AI Governance)
“วันนี้ประเทศไทยเผชิญกับโจทย์สำคัญว่าเราจะสร้างจุดสมดุลอย่างไรระหว่างการวางกรอบกำกับดูแล เพื่อคุ้มครองสังคมและผู้บริโภค ที่จะต้องไม่สร้างอุปสรรคต่อการพัฒนานวัตกรรมและเศรษฐกิจดิจิทัล ซึ่งประเด็น AI Governance ต้องอาศัยการพิจารณาอย่างลึกซึ้งและรอบด้าน ประเด็นดังกล่าวจึงจะได้รับการหยิบยกขึ้นหารืออย่างจริงจังอีกครั้งในเวทีนานาชาติ The 3rd UNESCO Global Forum on the Ethics of AI 2025 ที่ประเทศไทยจะเป็นเจ้าภาพในเดือนมิถุนายนนี้ โดยมีเป้าหมายในการร่วมกำหนดแนวทางความร่วมมือในระดับภูมิภาคและระดับโลกด้านจริยธรรมและธรรมาภิบาล AI”
ศาสตราจารย์พิเศษวิศิษฏ์ กล่าวว่า นอกจากนี้สิ่งที่ต้องพัฒนาควบคู่กัน คือความพร้อมด้านบุคลากรและโครงสร้างพื้นฐาน โดยประเทศไทยได้มีการกำหนดเป้าหมายในการพัฒนาบุคลากรด้าน AI ในแต่ละระดับไว้อย่างชัดเจน ครอบคลุมทั้งด้านเทคนิค จริยธรรม และการประยุกต์ใช้ในภาคส่วนต่าง ๆ ขณะที่ในด้านโครงสร้างพื้นฐาน รัฐบาลให้ความสำคัญอย่างยิ่งต่อการพัฒนา ระบบแบ่งปันข้อมูล (data sharing) และการออกแบบระบบที่คำนึงถึง อธิปไตยทางดิจิทัล (Digital Sovereignty) เพื่อสร้างความสมดุลระหว่าง ความเป็นเจ้าของข้อมูล (data ownership) การเปิดใช้แหล่งข้อมูลแบบเปิด (open source) และการควบคุมดูแลการไหลเวียนข้อมูลในระบบภายในประเทศอย่างมั่นคงและปลอดภัย และความพร้อมทั้งสามมิติ ไม่ว่าจะเป็นด้านธรรมาภิบาล บุคลากร หรือโครงสร้างพื้นฐาน จะต้องถูกผลักดันไปสู่การประยุกต์ใช้จริงในภาคส่วนสำคัญของประเทศ เช่น การเกษตร การแพทย์ การท่องเที่ยว และการบริหารภาครัฐ เพื่อให้ประชาชนสามารถเข้าถึงประโยชน์จาก AI ได้อย่างเท่าเทียมและยั่งยืน
กระทรวงดีอี โดยสำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์จึงได้เร่งเดินหน้าจัดทำ “(ร่าง) หลักการของกฎหมายว่าด้วยปัญญาประดิษฐ์” เพื่อเป็นกรอบกำกับดูแลที่ชัดเจน โปร่งใส และสอดคล้องกับสถานการณ์เทคโนโลยีในปัจจุบัน โดยเฉพาะการใช้งาน AI ที่มีความเสี่ยงสูง ซึ่งอาจส่งผลกระทบต่อสิทธิ เสรีภาพ หรือความปลอดภัยของประชาชน ภายใต้เป้าหมายใหญ่คือ การสร้างสมดุล ระหว่าง “การส่งเสริมการพัฒนานวัตกรรม” และ “การปกป้องประโยชน์สาธารณะ” โดยจะเป็นเครื่องมือสำคัญสำหรับหน่วยงานรัฐและภาคเอกชนในการออกแบบแนวปฏิบัติ หรือมาตรการควบคุมที่เหมาะสมกับระดับความเสี่ยงของ AI ในแต่ละบริบท ตลอดจนรองรับแนวทางการกำกับดูแลในหลายระดับ ทั้ง Soft Law และ Hard Law ให้เกิดขึ้นอย่างยืดหยุ่น แต่ยังคงยึดมั่นในหลักความรับผิดชอบ โปร่งใส และเคารพสิทธิมนุษยชนตามหลักสากล
ดร. ศักดิ์ เสกขุนทด ที่ปรึกษาอาวุโสสำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์ กล่าวต่อว่า ปัจจุบันการบังคับใช้กฎหมายเกี่ยวกับ AI ในประเทศไทยยังอยู่ในรูปแบบ Soft Law หรือแนวทางปฏิบัติ (Guideline) แต่เนื่องจาก AI มีการพัฒนาอย่างก้าวกระโดด และมีความซับซ้อนมากขึ้น จึงอาจทำให้แนวปฏิบัติอาจมีช่องโหว่และไม่สามารถกำกับการใช้ ได้อย่างมีประสิทธิภาพเท่าที่ควร โดยเฉพาะในประเด็นที่สำคัญ เช่น เรื่องความโปร่งใสในการทำงานของ AI การรับผิดชอบต่อความเสียหายอันเกิดจาก AI หรือการละเว้นความรับผิดชอบในกรณีที่เกิดความผิดพลาดจาก AI ที่นอกเหนือความคาดหมาย
ทั้งนี้ ETDA จึงได้มีการศึกษาหลักการสากลอย่างเข้มข้น รวมถึงประชุมเพื่อหาทิศทางร่วมกับผู้เชี่ยวชาญจากศูนย์ธรรมภิบาลปัญญาประดิษฐ์ หรือศูนย์ AIGC by ETDA ตลอดจนผู้เชี่ยวชาญด้านการพัฒนาเทคโนโลยี AI หน่วยงานรัฐที่มีบทบาทการกำกับ – ดูแล ในภาคส่วนต่างๆ รวมไปถึงตัวแทนจากภาคธุรกิจ สู่การพัฒนาและจัดทำร่างหลักเกณฑ์กฎหมายและข้อบังคับให้เกิดการลดความเสี่ยงที่อาจเกิดจากใช้ AI โดยพบว่าการวางแนวทางสำหรับธรรมาภิบาล AI นั้นไม่ได้ถูกจำกัดเฉพาะในรูปแบบกฎหมาย แต่สามารถทำได้ในหลายระดับไม่ว่าจะเป็นระดับ Guideline หรือ Best Practice ระดับ Soft Law และระดับ Hard Law โดยความเข้มข้นของการกำกับ – ดูแล ก็ควรจะต้องพิจารณาให้เหมาะสมในแต่ละประเด็นที่แตกต่างกัน และต้องคำนึงถึงความเปลี่ยนแปลงที่รวดเร็วของเทคโนโลยีไปพร้อมกันด้วย
สำหรับการออกแบบร่างกฎหมายปัญหาประดิษฐ์ มีจุดที่จะต้องพิจารณา 3 เรื่องสำคัญ คือ 1) การปลดล็อกในประเด็นทางกฎหมายที่เป็นอุปสรรคต่อการพัฒนาหรือประยุกต์ใช้ปัญญาประดิษฐ์ 2) การส่งเสริมที่ควรกำหนดไว้เพื่อสร้างความชัดเจนในการขับเคลื่อนเรื่องนี้ อาทิ การให้ทุน การลดภาษี การสร้างแรงจูงใจ และ 3) การคุ้มครองหรือเรื่องธรรมาภิบาลปัญญาประดิษฐ์
โดยประเด็นหลักที่ได้จากการศึกษาการบังคับใช้กฎหมาย AI ในต่างประเทศทำให้ทราบว่าการวางแนวทางสำหรับธรรมาภิบาล AI นั้นไม่ได้ถูกจำกัดเฉพาะในรูปแบบกฎหมาย แต่สามารถทำได้ในหลายระดับ ไม่ว่าจะเป็นระดับ Guideline หรือ Best Practice ระดับ Soft Law และระดับ Hard Law โดยความเข้มข้นของการกำกับ – ดูแลก็ควรจะต้องพิจารณาให้เหมาะสมในแต่ละประเด็นที่แตกต่างกัน และต้องคำนึงถึงความเปลี่ยนแปลงที่รวดเร็วของเทคโนโลยีไปพร้อมกันด้วย ซึ่งการออกกฎหมายที่ครอบคลุมความเสี่ยงในทุกเรื่อง ทุกระดับความเสี่ยงแบบ one size fit all อาจจะไม่ใช่แนวทางการกำกับ-ดูแล AI ที่เหมาะกับประเทศไทยนัก เพราะโจทย์สำคัญของเราคือ การกำกับและ ดูแล AI โดยไม่ขัดขวางการพัฒนาเทคโนโลยี
อย่างไรก็ตาม สำหรับ “(ร่าง) หลักการกฎหมายเกี่ยวกับปัญญาประดิษฐ์ (AI)” จะมีเนื้อหาที่ครอบคลุมทั้ง การวางหลักการพื้นฐานที่สำคัญแก่ระบบกฎหมาย, มาตรการส่งเสริมในทางกฎหมายที่จำเป็น เช่น Text and Data Mining, Regulatory Sandbox กำหนดแนวทางกำกับความเสี่ยงจาก AI โดยเฉพาะการใช้งานในกลุ่มที่มีความเสี่ยงสูง (High-Risk AI), การส่งเสริมการใช้งาน AI อย่างรับผิดชอบ ผ่านกลไกการกำกับดูแลที่เหมาะสมในแต่ละบริบท, การกำหนดบทบาทของหน่วยงานกำกับเฉพาะด้าน ให้สามารถออกมาตรการควบคุมหรือส่งเสริม AI ได้อย่างยืดหยุ่นและทันต่อการเปลี่ยนแปลง รวมถึงการกำหนดองค์กรสนับสนุนการทำงานของกฎหมายฉบับนี้ เป็นต้น
ดร. ศักดิ์ ยังเน้นว่า “ร่างกฎหมายนี้ไม่ใช่เพียงเครื่องมือทางกฎหมาย แต่คือการสร้างสมดุลระหว่างการใช้เทคโนโลยี AI เพื่อประโยชน์ของสังคม กับการคุ้มครองความปลอดภัย สิทธิ และศักดิ์ศรีของมนุษย์ในยุคดิจิทัล และเพื่อให้ประชาชนทุกภาคส่วนมีส่วนร่วมในการกำหนดอนาคตของ AI ไทย”
ประชาชนสามารถร่วมแสดงความคิดเห็นต่อ “(ร่าง) หลักการของกฎหมายว่าด้วยปัญญาประดิษฐ์” ผ่านระบบกลางทางกฎหมายได้ที่ http://bit.ly/4kBjBTU ตั้งแต่วันนี้จนถึง 9 มิถุนายน 2568
ข่าวอื่น ๆ ที่น่าสนใจ
KBTG ชู ‘Human First, AI First’ พลิกโฉมธนาคาร ที่ Huawei Summit
Omise: วิสัยทัศน์ จุน ฮาเซกาวา มุ่งนำ Payment AI