ในปี 2025 ร่างกฎหมายควบคุม AI ที่ครอบคลุมของรัฐบาลไทยเป็นจุดเปลี่ยนสำคัญในกลยุทธ์เศรษฐกิจของประเทศ สำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์ (ETDA) เป็นหน่วยงานหลักในการจัดทำ “ร่างหลักการกฎหมาย AI” ซึ่งใช้กฎหมาย AI ของสหภาพยุโรป (EU) เป็นต้นแบบ แต่ปรับให้เข้ากับสถานการณ์เฉพาะของไทยด้วยแนวทางที่ยืดหยุ่น ร่างกฎหมายนี้เป็นรากฐานทางกฎหมายที่สนับสนุนนโยบาย Thailand 4.0 และยุทธศาสตร์ AI แห่งชาติจนถึงปี 2027 โดยมุ่งสร้างสมดุลระหว่างการคุ้มครองผ่านกฎระเบียบและการส่งเสริมนวัตกรรม
ประวัติการจัดทำร่างกฎหมาย
กระบวนการจัดทำกฎหมาย AI ของไทยเริ่มจากการรวมร่างที่มีทิศทางแตกต่างกัน 2 ฉบับ ในปี 2022 สำนักงานคณะกรรมการดิจิทัลเพื่อเศรษฐกิจและสังคมแห่งชาติ (ONDE) เสนอ “กฎหมาย AI เชิงควบคุม” ซึ่งสะท้อนกฎหมาย AI ของ EU อย่างชัดเจน โดยเน้นการควบคุมที่เข้มงวดแบบ Risk-based และการคุ้มครองผู้บริโภค ขณะเดียวกันในปี 2023 ETDA จัดทำ “กฎหมาย AI เชิงสนับสนุน” ที่ให้ความสำคัญสูงสุดกับการส่งเสริมนวัตกรรมและการเติบโตของระบบนิเวศ
ร่างทั้งสองมีปรัชญาพื้นฐานที่แตกต่างกันอย่างมาก ร่างของ ONDE เน้น “การคุ้มครอง” ขณะที่ร่างของ ETDA เน้น “การเติบโต” ในเดือนมิถุนายน 2025 หน่วยงานกำกับดูแลจัดการรับฟังความคิดเห็นสาธารณะ และตัดสินใจจัดทำเอกสารเดียวที่รวมร่างทั้งสองเข้าด้วยกันอย่างมีประสิทธิภาพ กระบวนการรวมนี้ให้กำเนิด “ร่างหลักการกฎหมาย AI” ที่กำลังอยู่ในระหว่างการพิจารณาในปัจจุบัน
ร่างหลักการที่รวมกันมีโครงสร้างที่นำแนวคิด Risk-based จากร่างของ ONDE และมาตรการส่งเสริม เช่น Sandbox และการแบ่งปันข้อมูลจากร่างของ ETDA การเปลี่ยนจากค่าประกันขั้นต่ำคงที่ (MAG) ไปสู่แบบผูกกับรายได้ เป็นความพยายามในการสร้างความยืดหยุ่นต่อความผันผวนของตลาด
การนำแนวทาง Risk-based มาใช้
แกนหลักของร่างกฎหมายคือแนวทาง Risk-based ตามแบบกฎหมาย AI ของ EU ซึ่งเป็นกลไกที่ปรับระดับความเข้มงวดของกฎระเบียบตามระดับอันตรายที่อาจเกิดจากระบบ AI โดยแบ่งออกเป็น 2 หมวดหมู่หลัก
“AI ที่ห้ามใช้” หมายถึงระบบที่ไม่สามารถลดอันตรายได้ และก่อให้เกิดภัยคุกคามที่สังคมไม่สามารถยอมรับได้ ระบบที่ใช้เทคนิคซับลิมินัลในการจัดการพฤติกรรมของคน หรือการให้คะแนนทางสังคมโดยรัฐบาล อาจอยู่ในหมวดนี้ “AI ความเสี่ยงสูง” คือระบบที่อาจส่งผลกระทบอย่างมีนัยสำคัญต่อสิทธิมนุษยชนพื้นฐานหรือความปลอดภัยสาธารณะ แต่อนุญาตให้ใช้ได้หากปฏิบัติตามข้อกำหนดที่เข้มงวด ตัวอย่างได้แก่ Credit scoring ที่ประเมินความน่าเชื่อถือของบุคคล ซอฟต์แวร์คัดกรองผู้สมัครงาน และยานยนต์ขับขี่อัตโนมัติ
ลักษณะสำคัญที่สุดในกรอบนี้คือการตัดสินใจไม่กำหนดรายการ AI “ที่ห้ามใช้” และ “ความเสี่ยงสูง” ไว้ในเนื้อหากฎหมายอย่างตายตัว แต่มอบอำนาจให้หน่วยงานกำกับดูแลเฉพาะสาขา เช่น ธนาคารแห่งประเทศไทยสำหรับภาคการเงิน กระทรวงสาธารณสุขสำหรับภาคการแพทย์ ในการออกรายการผ่านกฎหมายลำดับรอง และปรับปรุงตามความก้าวหน้าของเทคโนโลยีได้ตลอดเวลา
แนวทางรายการแบบไดนามิกนี้เป็นทางเลือกเพื่อความยืดหยุ่นและความทันสมัยของกฎหมาย เทคโนโลยี AI พัฒนาอย่างรวดเร็ว หากระบุเทคโนโลยีหรือการใช้งานเฉพาะในเนื้อหากฎหมาย อาจล้าสมัยได้อย่างรวดเร็ว ร่างกฎหมายไทยเลือกวิธีการมอบอำนาจให้องค์กรผู้เชี่ยวชาญเพื่อหลีกเลี่ยงปัญหานี้
อย่างไรก็ตาม ความยืดหยุ่นนี้มีข้อแลกเปลี่ยน สำหรับองค์กร เกิดปัญหาการแยกส่วนของกฎระเบียบ เครื่องมือ AI ตัวเดียวกันอาจถูกจัดเป็น “ความเสี่ยงสูง” ในภาคการเงิน แต่ไม่ใช่ในภาคโลจิสติกส์ องค์กรต้องติดตามประกาศจากหน่วยงานกำกับดูแลหลายแห่งอย่างต่อเนื่อง
การแยกภาระหน้าที่ระหว่างผู้ให้บริการและผู้ใช้งาน
ร่างกฎหมายแยกความแตกต่างระหว่าง “ผู้ให้บริการ” และ “ผู้ใช้งาน” ของระบบ AI ความเสี่ยงสูงอย่างชัดเจน โดยกำหนดภาระหน้าที่ที่แตกต่างกันให้แต่ละฝ่าย
ภาระหน้าที่ของผู้ให้บริการมุ่งเน้นการรับประกันความปลอดภัยและความน่าเชื่อถือของระบบเป็นหลัก ต้องนำกรอบการจัดการความเสี่ยงมาใช้ รายงานเหตุการณ์ร้ายแรง และหากผู้ให้บริการตั้งอยู่นอกประเทศไทย ต้องแต่งตั้งตัวแทนในประเทศ
ภาระหน้าที่ของผู้ใช้งานเน้นการดำเนินงานและการกำกับดูแลระบบที่เหมาะสม ต้องรับประกันการกำกับดูแลโดยมนุษย์ เก็บรักษา log การดำเนินงาน รับประกันคุณภาพข้อมูลนำเข้า และแจ้งบุคคลที่ได้รับผลกระทบ นอกจากนี้ ระบบเช่น Chatbot และ Deepfake มีภาระหน้าที่ด้านความโปร่งใส โดยต้องติดฉลากระบุว่าเนื้อหาสร้างโดย AI
การแยกภาระหน้าที่นี้สำคัญเพราะป้องกันไม่ให้ความรับผิดชอบด้านการปฏิบัติตามกฎระเบียบตกอยู่กับผู้ใช้ปลายทางฝ่ายเดียว ขณะเดียวกัน มันหมายถึงการสร้างความสัมพันธ์สัญญาที่ซับซ้อนรุ่นใหม่ระหว่างผู้ขาย AI และองค์กรลูกค้า สัญญาระดับการบริการในอนาคตจะต้องระบุมาตรฐานคุณภาพข้อมูล การรับประกันประสิทธิภาพโมเดล และโปรโตคอลการสอบสวนร่วมเมื่อเกิดเหตุการณ์ในรูปแบบที่มีผลผูกพันทางกฎหมาย
มาตรการส่งเสริมนวัตกรรม
ร่างกฎหมายกำหนดกรอบที่เข้มงวด แต่ในขณะเดียวกันก็รวมกลไกเฉพาะเพื่อส่งเสริมนวัตกรรมอย่างแข็งขัน
แกนหลักคือ “AI Regulatory Sandbox” ซึ่งเป็นระบบที่ให้องค์กรทดสอบแอปพลิเคชัน AI ใหม่ในสภาพแวดล้อมที่ควบคุมภายใต้การกำกับดูแลของหน่วยงานกำกับดูแล จุดเด่นสูงสุดของ Sandbox คือข้อกำหนด “Safe Harbor” ผู้เข้าร่วมด้วยความตั้งใจดี หากเกิดอันตรายที่ไม่ตั้งใจระหว่างการทดสอบ จะได้รับการยกเว้นบทลงโทษจากหน่วยงานกำกับดูแล
อย่างไรก็ตาม Safe Harbor นี้มีข้อจำกัดสำคัญ แม้จะได้รับการยกเว้นบทลงโทษทางกฎระเบียบ แต่ไม่ได้รับการยกเว้นความรับผิดชดใช้ความเสียหายทางแพ่ง สิ่งนี้สร้างความเสี่ยงที่คำนวณได้สำหรับผู้สร้างนวัตกรรม แม้จะรอดจากค่าปรับจากรัฐบาล แต่ไม่ได้รับการคุ้มครองจากการฟ้องร้องของประชาชนหรือองค์กรที่ได้รับความเสียหายจากการทดลอง โครงสร้างนี้สร้างสมดุลที่ส่งเสริมนวัตกรรมที่กล้าหาญ แต่ป้องกันการทดลองที่สุ่มเสี่ยงเกินไป และกระตุ้นให้องค์กรที่เข้าร่วมมีประกันภัยความรับผิดที่เพียงพอและนำมาตรการลดความเสี่ยงที่เข้มงวดมาใช้
มาตรการส่งเสริมที่สำคัญอีกอย่างคือการยกเว้นลิขสิทธิ์อย่างจำกัดสำหรับ Text and Data Mining (TDM) เพื่อสนับสนุนการฝึกโมเดล AI สิ่งนี้เป็นแนวทางเดียวกับคำสั่งลิขสิทธิ์ของ EU และช่วยให้นักวิจัยและนักพัฒนาเข้าถึงข้อมูลจำนวนมากอย่างถูกกฎหมายและสร้างโมเดล AI ได้ง่ายขึ้น
โครงสร้างการกำกับดูแลและการบังคับใช้
ในโครงสร้างการกำกับดูแล AI ของไทย สำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์ (ETDA) มีบทบาทเป็นศูนย์กลางและการประสานงาน ศูนย์กำกับดูแล AI (AIGC) ที่ตั้งขึ้นภายใต้ ETDA จะเป็นศูนย์ปฏิบัติการหลัก
ภาระหน้าที่ที่ AIGC ได้รับเกินกว่าองค์กรกำกับดูแลทั่วไป รวมถึงการดำเนินการวิจัยและพัฒนาด้านการกำกับดูแล AI การให้บริการให้คำปรึกษาแก่องค์กรที่นำ AI มาใช้ การสนับสนุน AI Regulatory Sandbox Initiative การรวบรวมสถิติเกี่ยวกับความพร้อมด้าน AI ของประเทศ และการติดตามแนวโน้มโลกของการพัฒนาและการประยุกต์ใช้ AI
เมื่อวิเคราะห์ภารกิจเหล่านี้ จะเห็นว่า AIGC ไม่ได้ถูกจัดตั้งเป็นเพียงผู้กำกับดูแล แต่เป็น “Center of Excellence” ระดับชาติและ “ที่ปรึกษาสนับสนุน” รัฐบาลไทยตระหนักว่าภาคเอกชนในประเทศขาดความเชี่ยวชาญด้านการกำกับดูแล AI ดังนั้น แทนที่จะเพียงแค่ประกาศกฎระเบียบและลงโทษผู้ละเมิด จึงสร้างองค์กรเพื่อสนับสนุนองค์กรอย่างแข็งขันให้ปฏิบัติตามกฎระเบียบและสร้างนวัตกรรม
การมอบอำนาจมากให้หน่วยงานกำกับดูแลเฉพาะสาขาก็เป็นจุดเด่น องค์กรผู้เชี่ยวชาญได้รับอำนาจในการกำหนดรายการ AI ที่ห้ามใช้และความเสี่ยงสูง และออกมาตรฐานการปฏิบัติที่เหมาะสมกับความต้องการเฉพาะของแต่ละสาขา คณะกรรมการกำกับหลักทรัพย์และตลาดหลักทรัพย์ (SEC) ประกาศกรอบการกำกับดูแลการใช้ AI ในตลาดทุนในปี 2023 และธนาคารแห่งประเทศไทย (BOT) ก็ดำเนินการรับฟังความคิดเห็นสาธารณะเกี่ยวกับแนวทางการจัดการความเสี่ยง AI ในบริการทางการเงิน
เกี่ยวกับอำนาจการบังคับใช้ หน่วยงานสามารถออกคำสั่งทางปกครองเพื่อหยุดการให้บริการหรือการใช้ AI ที่ไม่สอดคล้องกับกฎหมาย หากบริการ AI ที่มีปัญหาให้บริการผ่านแพลตฟอร์มดิจิทัล หน่วยงานมีอำนาจสั่งให้ผู้ให้บริการแพลตฟอร์มลบบริการหรือปิดกั้นการเข้าถึง การนำอำนาจ “Platform Takedown” นี้มาใช้เป็นกลไกการบังคับใช้ที่แข็งแกร่งโดยกำหนดเป้าหมายที่ช่องทางการจัดจำหน่าย
การเปรียบเทียบกับ EU และ “โมเดลไทย”
เป็นที่ชัดเจนว่าร่างกฎหมายไทยสะท้อนโครงสร้างของกฎหมาย AI ของ EU แนวทาง Risk-based การจำแนกลำดับความเสี่ยง และกลไกส่งเสริม เช่น Sandbox และการยกเว้น Text and Data Mining สอดคล้องกับแนวทางของ EU
การที่ไทยนำโครงสร้างของ EU มาใช้สามารถวิเคราะห์ว่าเป็นการเคลื่อนไหวเชิงกลยุทธ์เพื่อวางตำแหน่งตลาด AI ในอนาคตให้เป็นเขตอำนาจศาลที่ “ปลอดภัย” และเข้ากันได้สำหรับบริษัทและการไหลของข้อมูลจากยุโรป เป้าหมายคือทำให้บริษัทที่ตั้งอยู่ใน EU รู้สึกว่าสภาพแวดล้อมการกำกับดูแลของไทยคุ้นเคยและจัดการได้ เพื่อสร้างความได้เปรียบในการแข่งขันเหนือประเทศอาเซียนใกล้เคียงที่กรอบการกำกับดูแลยังไม่พัฒนา และดึงดูดการลงทุนจาก EU
อย่างไรก็ตาม ร่างกฎหมายไทยแตกต่างจากกฎหมาย AI ของ EU ในหลายประเด็นสำคัญ ความแตกต่างที่ใหญ่ที่สุดคือวิธีการกำหนดรายการ AI ความเสี่ยงสูง กฎหมาย AI ของ EU ระบุไว้ในภาคผนวกของกฎหมาย แต่ร่างกฎหมายไทยมอบให้หน่วยงานกำกับดูแลเฉพาะสาขาออกกฎหมายลำดับรองอย่างยืดหยุ่น
ปรัชญาพื้นฐานก็แตกต่างกัน กฎหมาย AI ของ EU ให้ความสำคัญสูงสุดกับการคุ้มครองสิทธิมนุษยชนพื้นฐาน ขณะที่กรอบของไทยให้ความสำคัญมากขึ้นกับการเติบโตของธุรกิจและการพัฒนาขีดความสามารถในการแข่งขันทางการค้า แนวทาง Sandbox ก็แตกต่างกัน ใน EU มันเป็นส่วนหนึ่งของการประเมินความสอดคล้องอย่างเป็นทางการ ขณะที่ในไทยการเข้าร่วมเป็นความสมัครใจและมีสิ่งจูงใจเป็น Safe Harbor จากบทลงโทษ
เมื่อรวมความคล้ายคลึงและความแตกต่างเหล่านี้ จะเห็นชัดว่าไทยกำลังสร้าง “โมเดลไทย” ที่ปรับให้เหมาะกับสถานการณ์ของตนเอง โมเดลนี้มีลักษณะเฉพาะคือ ลักษณะไฮบริดที่รวมองค์ประกอบของการควบคุมและการส่งเสริม แนวทางการควบคุมแบบไดนามิกที่เปลี่ยนแปลงตามสถานการณ์แทนกฎเกณฑ์คงที่ และบทบาทสองด้านที่รัฐบาลทำหน้าที่เป็นทั้งผู้ตัดสินและโค้ชในเวลาเดียวกัน
ผลกระทบต่อภาคอุตสาหกรรมหลัก
ภาคการเงินของไทยเป็นหนึ่งในสาขาที่ก้าวหน้าที่สุดในการนำ AI มาใช้ ธนาคารแห่งประเทศไทย (BOT) ประกาศร่างแนวทางการจัดการความเสี่ยง AI สำหรับผู้ให้บริการทางการเงินก่อนร่างกฎหมาย AI และดำเนินการรับฟังความคิดเห็นสาธารณะ
สถาบันการเงินจะต้องให้คณะกรรมการและผู้บริหารระดับสูงรับผิดชอบขั้นสุดท้ายเกี่ยวกับการนำ AI มาใช้และการดำเนินงาน การใช้งานความเสี่ยงสูงที่มีผลกระทบอย่างมีนัยสำคัญต่อลูกค้า เช่น Credit scoring และการอนุมัติเงินกู้ จำเป็นต้องมีการประเมินความเสี่ยงและการกำกับดูแลโดยมนุษย์ตลอดวงจรชีวิตของ AI ในไทย ความเสียหายจากการฉ้อโกงดิจิทัลรุนแรงขึ้น มีรายงานการสูญเสียมากกว่า 70,000 ล้านบาทในปี 2023 การกำหนดให้มีการจัดการความเสี่ยงตามกฎหมายจะเร่งการสร้างระบบตรวจจับการฉ้อโกงที่ใช้ AI และ Machine learning ของสถาบันการเงิน
ภาคการแพทย์เพิ่มความคาดหวังต่อเทคโนโลยี AI ท่ามกลางกระแสใหญ่สองกระแส คือการพัฒนาสังคมผู้สูงอายุและแนวคิด “Medical Hub” อย่างไรก็ตาม ข้อมูลการแพทย์ของไทยมีปัญหาที่ระบบไม่เป็นหนึ่งเดียวและไม่เชื่อมต่อกันระหว่างสถานพยาบาลระดับปฐมภูมิ ทุติยภูมิ และตติยภูมิ ภาระหน้าที่ “รับประกันคุณภาพข้อมูลนำเข้า” ที่ร่างกฎหมาย AI กำหนดให้กับ AI ความเสี่ยงสูง (เช่น ระบบสนับสนุนการวินิจฉัย) จะเป็นแรงกดดันให้สถานพยาบาลเสริมสร้างและทำให้การกำกับดูแลข้อมูลเป็นมาตรฐาน
สำหรับผู้เชี่ยวชาญด้านกฎหมาย ร่างกฎหมาย AI มีความหมายสองด้าน เป็นทั้งแนวทางปฏิบัติเมื่อตนเองใช้เครื่องมือ AI และเป็นสาขาความเชี่ยวชาญใหม่ในการให้คำปรึกษาแก่องค์กรลูกค้า องค์กรต้องประเมินว่าระบบ AI ที่ใช้หรือให้บริการอยู่ในหมวดความเสี่ยงใด และสร้างโครงสร้างการกำกับดูแลที่เหมาะสม ผู้เชี่ยวชาญด้านกฎหมายจะมีบทบาทหลักใน “การทำแผนที่ Inventory ของ AI” และ “การจำแนกความเสี่ยง”
การเตรียมตัวขององค์กรและแนวโน้มในอนาคต
ETDA กำลังแก้ไขร่างหลักการที่รวมกันโดยอิงจากข้อเสนอแนะที่ได้จากการรับฟังความคิดเห็นสาธารณะที่ดำเนินการตั้งแต่เดือนพฤษภาคมถึงมิถุนายน 2025 กระบวนการแก้ไขนี้คาดว่าจะดำเนินต่อไปจนถึงครึ่งหลังของปี 2025 และอาจมีการจัดการรับฟังความคิดเห็นเพิ่มเติมในระหว่างนั้น
ร่างกฎหมายที่แก้ไขแล้วจะต้องผ่านกระบวนการออกกฎหมายอย่างเป็นทางการ ได้แก่ การอนุมัติของคณะรัฐมนตรี การตรวจสอบของคณะกรรมการกฤษฎีกา และการพิจารณาในรัฐสภา แม้ระยะเวลาบังคับใช้ที่เฉพาะเจาะจงยังไม่ชัดเจน แต่หากกระบวนการดำเนินไปอย่างราบรื่น ไทยอาจเป็นหนึ่งในประเทศแรกในอาเซียนที่ตรากฎหมาย AI ที่ครอบคลุม
การเตรียมตัวที่องค์กรควรทำ รวมถึงการจัดทำรายการระบบ AI ทั้งหมดที่องค์กรพัฒนา นำเข้า ขาย หรือใช้ในการดำเนินงาน ต้องประเมินกรณีการใช้งานของระบบ AI แต่ละตัว และจำแนกเบื้องต้นว่าอาจอยู่ใน “ห้ามใช้” หรือ “ความเสี่ยงสูง” ที่ร่างกฎหมายระบุหรือไม่
การเริ่มจัดทำเอกสารการกำกับดูแล AI ที่สอดคล้องกับแนวทางปฏิบัติที่ดีระดับสากลก็สำคัญ รวมถึงแนวทางจริยธรรม AI ขั้นตอนการประเมินความเสี่ยง และนโยบายเกี่ยวกับการกำกับดูแลโดยมนุษย์ ต้องตรวจสอบว่าข้อมูลที่ระบบ AI ประมวลผลมีข้อมูลส่วนบุคคลหรือไม่ และทบทวนสถานะการปฏิบัติตามพระราชบัญญัติคุ้มครองข้อมูลส่วนบุคคล (PDPA) อย่างละเอียด
การสร้างระบบติดตามความเคลื่อนไหวของหน่วยงานกำกับดูแลเฉพาะสาขาที่องค์กรสังกัดอย่างต่อเนื่อง ไม่เพียงแต่ประกาศอย่างเป็นทางการจาก ETDA จะเป็นสิ่งจำเป็นในการตอบสนองการปฏิบัติตามกฎระเบียบในอนาคต การเตรียมตัวตั้งแต่เนิ่นๆ ไม่เพียงลดความเสี่ยงด้านการปฏิบัติตามกฎระเบียบ แต่ยังเพิ่มการประเมินองค์กรว่าใช้ AI อย่างรับผิดชอบ และนำไปสู่ความได้เปรียบในการแข่งขัน
BKK IT News ประเมินว่าร่างกฎหมาย AI ของไทยเป็นความพยายามที่เผชิญหน้ากับความท้าทายที่ยากในการสร้างสมดุลระหว่างการควบคุมที่เข้มงวดและนวัตกรรมที่เสรี ไม่ใช่การเลือกข้างใดข้างหนึ่ง ความสำเร็จของ “โมเดลไทย” นี้ขึ้นอยู่กับการประสานงานระหว่างหน่วยงานกำกับดูแลเฉพาะสาขา การดำเนินงานที่มีประสิทธิภาพของ AIGC และการตอบสนองต่อการขาดแคลนบุคลากรอย่างรุนแรง สำหรับองค์กรที่ดำเนินธุรกิจในไทย การจับตาดูการเปลี่ยนแปลงสภาพแวดล้อมการกำกับดูแลนี้และการเตรียมการเชิงกลยุทธ์จะเป็นองค์ประกอบสำคัญที่กำหนดขีดความสามารถในการแข่งขันในอนาคต
บทความอ้างอิง
- Thailand’s draft AI law: A new era for governance and innovation – Norton Rose Fulbright
- Thailand: AI Law Movement | Global law firm | Norton Rose Fulbright
- Thailand national AI strategy and action plan (2022 – 2027)
- Thailand Resumes Development of AI Regulatory Framework – Tilleke & Gibbins
- Navigating Thailand’s AI Law: Development at a Crossroads – Tech For Good Institute