กฎระเบียบ AI ของ EU แบ่งแยกบริษัทเทคโนโลยี ~ OpenAI กับ Google ลงนาม ขณะที่ Meta ปฏิเสธ เผยแนวคิดการพัฒนา AI ที่แตกต่างกัน~

กฎระเบียบ AI ของ EU แบ่งแยกบริษัทเทคโนโลยี ~ OpenAI กับ Google ลงนาม ขณะที่ Meta ปฏิเสธ เผยแนวคิดการพัฒนา AI ที่แตกต่างกัน~ AI
AI

สหภาพยุโรป (EU) ได้ประกาศ “General-Purpose AI Code of Practice” หรือ “กฎการปฏิบัติสำหรับ AI วัตถุประสงค์ทั่วไป” เมื่อวันที่ 10 กรกฎาคม ก่อให้เกิดการแบ่งแยกอย่างร้ายแรงในอุตสาหกรรม AI ทั่วโลก ในขณะที่ OpenAI, Google และ Microsoft ลงนามในกฎนี้ แต่ Meta กลับปฏิเสธด้วยเหตุผลที่ว่าจะ “สร้างความไม่แน่นอนทางกฎหมายและทรัพย์สินทางปัญญา” การตอบสนองต่อกฎระเบียบนี้แสดงให้เห็นความแตกต่างพื้นฐานในแนวคิดการพัฒนา AI และกลยุทธ์ทางธุรกิจของแต่ละบริษัท

กฎระเบียบ “สมัครใจ” ที่มีอำนาจบังคับ

กฎการปฏิบัติ GPAI ถูกกำหนดให้เป็น “สมัครใจ” ตามกฎหมาย แต่อิทธิพลที่แท้จริงมีมากมายมหาศาล บริษัทที่ลงนามจะได้รับ “การสันนิษฐานความสอดคล้อง” กับกฎหมาย EU AI ซึ่งเป็นการปกป้องทางกฎหมายที่ทรงพลัง ในขณะที่บริษัทที่ไม่ลงนามจะต้องพิสูจน์การปฏิบัติตามกฎระเบียบด้วยวิธีการทางเลือกที่ซับซ้อน และอาจต้องเผชิญกับ “การตรวจสอบที่เข้มงวดยิ่งขึ้น” จากหน่วยงาน AI

เนื้อหาของกฎระเบียบประกอบด้วย 3 เสาหลักคือ ความโปร่งใส ลิขสิทธิ์ และความปลอดภัย บริษัท AI ทั้งหมดจะต้องจัดทำเอกสารโมเดลที่ครอบคลุมและจัดการเนื้อหาที่มีลิขสิทธิ์อย่างเหมาะสม โมเดลประสิทธิภาพสูงที่มีความเสี่ยงเชิงระบบ (10^25 FLOPs ขึ้นไป) จะต้องผ่านการประเมินความปลอดภัยที่เข้มงวดมากยิ่งขึ้น

ค่าปรับสำหรับการละเมิดสูงสุด 15 ล้านยูโรหรือ 3% ของรายได้ประจำปีทั่วโลก ซึ่งเป็นระดับที่ส่งผลต่อการบริหารธุรกิจ การบังคับใช้เริ่มตั้งแต่วันที่ 2 สิงหาคม 2025 สำหรับโมเดลใหม่ และให้ระยะเวลาผ่อนผันถึงปี 2027 สำหรับโมเดลที่มีอยู่เดิม

การแบ่งแยกที่ชัดเจนตามกลยุทธ์องค์กร

การตัดสินใจของฝ่ายลงนาม

OpenAI แสดงความมุ่งมั่นต่อ “การพัฒนา AI ที่ปลอดภัย” อย่างชัดเจน และให้ความสำคัญกับการได้รับความไว้วางใจจากลูกค้าองค์กรที่ให้ความสำคัญกับกฎระเบียบ บริษัทนี้ใช้กลยุทธ์ “การปรับตัวตามกฎระเบียบ-การสร้างตลาด” โดยการมีส่วนร่วมอย่างแข็งขันกับกฎระเบียบเพื่อมีอิทธิพลต่อการกำหนดกฎเกณฑ์ และมุ่งหาโอกาสทางธุรกิจในตลาด EU ในอนาคต

Google แม้จะแสดงความกังวลเกี่ยวกับ “ความเสี่ยงในการชะลอนวัตกรรม” ในตอนแรก แต่สุดท้ายก็ตัดสินใจลงนาม การวิเคราะห์ชี้ว่าเป็นการตัดสินใจเชิงกลยุทธ์เพื่อหลีกเลี่ยงการเผชิญหน้ากับหน่วยงานกำกับดูแลเพิ่มเติม โดยพิจารณาจากการประกอบธุรกิจอย่างกว้างขวางในภูมิภาค EU และการถูกตรวจสอบอย่างเข้มงวดในด้านกฎหมายต่อต้านการผูกขาด

ท่าทีต่อต้านอย่างหนักของ Meta

ตรงข้ามกับ Meta ที่วิพากษ์วิจารณ์อย่างแรงว่ากฎการปฏิบัตินี้เป็น “การแทรกแซงเกินขอบเขต” ที่ล้ำเลยขอบเขตของกฎหมาย AI และขัดแย้งกับหลักการ “เสรีภาพในการใช้งาน” ซึ่งเป็นแก่นหลักของโอเพ่นซอร์ส สำหรับโมเดลโอเพ่นซอร์ส “Llama” ที่เป็นหัวใจของกลยุทธ์ AI ของ Meta การจำกัดการใช้งานจะเป็นภัยคุกคามต่อรากฐานของโมเดลธุรกิจ

การไม่ลงนามของ Meta ไม่ใช่การต่อต้านกฎระเบียบเพียงอย่างเดียว แต่เป็นการป้องกันเชิงกลยุทธ์เพื่อปกป้องกลยุทธ์ระบบนิเวศโอเพ่นซอร์ส Meta ประเมินว่าต้นทุนจากการปฏิบัติตามกฎการปฏิบัติ (การทำลายโมเดลธุรกิจ) มากกว่าความเสี่ยงจากการปฏิเสธลงนาม (การตรวจสอบที่เข้มงวดขึ้น)

“แบบทดสอบ” ที่ทดสอบแนวคิดการพัฒนา AI

การแบ่งแยกนี้แสดงให้เห็นว่าอุตสาหกรรม AI กำลังแบ่งออกเป็นสองค่ายที่ขัดแย้งกัน ค่ายหนึ่งมุ่งเน้น “การพัฒนาที่ปลอดภัยภายใต้การจัดการที่เข้มงวด” ด้วยการให้บริการ API แบบปิด อีกค่ายหนึ่งแสวงหา “นวัตกรรมผ่านความร่วมมือแบบเปิด” ผ่านระบบนิเวศโอเพ่นซอร์ส

สำหรับบริษัทที่ให้บริการ API เช่น OpenAI กฎระเบียบนำมาซึ่ง “ความสามารถในการคาดการณ์” และลดความเสี่ยงทางธุรกิจ ในทางตรงข้าม สำหรับบริษัทที่ใช้กลยุทธ์โอเพ่นซอร์สเช่น Meta กฎระเบียบกลายเป็นสิ่งที่คุกคามแหล่งที่มาของความสามารถในการแข่งขัน

ที่น่าสนใจคือ xAI ของ Elon Musk เลือกเส้นทางแบบ “ลงนามบางส่วน” โดยลงนามเฉพาะในบท “ความปลอดภัยและการรักษาความปลอดภัย” เท่านั้น เป็นการเลือกเชิงกลยุทธ์ที่เข้าร่วมความร่วมมือระหว่างประเทศในพื้นที่ความเสี่ยงที่ร้ายแรงที่สุด ขณะเดียวกันก็แสวงหาวิธีการเฉพาะตัวในพื้นที่ที่เชื่อมโยงโดยตรงกับธุรกิจ

ความท้าทายในการนำไปปฏิบัติที่บริษัทต้องเผชิญ

การตอบสนองต่อกฎระเบียบไม่ได้จบลงด้วยการสร้างเอกสารของแผนกกฎหมายเพียงอย่างเดียว ต้องมีการนำไปปฏิบัติทางเทคนิคเฉพาะเจาะจง เช่น การเคารพการสงวนสิทธิ์ที่อ่านได้ด้วยเครื่อง การป้องกันการสร้างเนื้อหาที่ละเมิดลิขสิทธิ์ และการประเมินความเสี่ยงเชิงระบบ

การปฏิบัติตามลิขสิทธิ์มีความซับซ้อนทางเทคนิคมากที่สุด ในการรวบรวมข้อมูลต้องเคารพการสงวนสิทธิ์ผ่าน robots.txt และ TDMRep protocol ของเว็บไซต์ ในขั้นตอนการส่งออกโมเดลต้องติดตั้งมาตรการป้องกันเพื่อป้องกันการละเมิดลิขสิทธิ์ สิ่งเหล่านี้กลายเป็นการปฏิบัติการวิจัยและพัฒนาและวิศวกรรมโดยตรง และบังคับให้มีการสร้างความร่วมมือแบบใหม่ระหว่างแผนกกฎหมายและแผนกพัฒนาเทคโนโลยี

เวทีใหม่ของการแข่งขันทางภูมิรัฐศาสตร์

กฎระเบียบ AI กลายเป็นเวทีใหม่ของการแข่งขันทางภูมิรัฐศาสตร์ที่สะท้อนค่านิยมของแต่ละประเทศ ท่ามกลางการแข่งขันระหว่างปรัชญากฎระเบียบที่แตกต่างกัน ได้แก่ “กฎระเบียบครอบคลุม-เน้นสิทธิมนุษยชน” ของ EU “ให้ความสำคัญกับนวัตกรรม-ตลาดเป็นแกนนำ” ของสหรัฐอเมริกา และ “รัฐเป็นผู้นำ-จัดการสังคม” ของจีน บริษัทข้ามชาติต้องมีกลยุทธ์การกำกับดูแลแบบหลายชั้นที่ปรับให้เหมาะสมกับแต่ละภูมิภาคอย่างจำเป็น

คำแนะนำสำหรับบริษัทที่ใช้ AI

กฎการปฏิบัติ GPAI มุ่งเป้าไปที่นักพัฒนา AI เป็นหลัก แต่บริษัทที่ใช้ AI ก็ไม่ใช่เรื่องที่ไม่เกี่ยวข้อง ผลกระทบต่อกลยุทธ์ AI ของบริษัทมีความสำคัญจาก 3 มุมมอง

การทบทวนกลยุทธ์การเลือกผู้ขาย
สถานการณ์การตอบสนองต่อกฎระเบียบของผู้ขาย AI ที่บริษัทใช้จะเชื่อมโยงโดยตรงกับความต่อเนื่องของบริการและการจัดการความเสี่ยงในอนาคต บริการจากบริษัทที่ลงนามมีความสามารถในการคาดการณ์สูง บริษัทที่ไม่ลงนามอาจให้ฟังก์ชันนวัตกรรมเฉพาะตัว การเลือกผู้ขายที่พิจารณาจากความสามารถในการรับความเสี่ยงและความต้องการนวัตกรรมของบริษัทเป็นสิ่งสำคัญ

ในฐานะทางเลือก สามารถพิจารณากลยุทธ์แบบผสมผสานที่ใช้บริษัทที่ลงนามเป็นผู้ขายหลัก ขณะเดียวกันก็ใช้เทคโนโลยีขั้นสูงของบริษัทที่ไม่ลงนามในการใช้งานเฉพาะ อาจสามารถหลีกเลี่ยงความไม่แน่นอนของกฎระเบียบและได้รับประโยชน์จากนวัตกรรมทางเทคโนโลยี

การเสริมสร้างการกำกับดูแลการใช้ AI ภายใน
บริษัทที่ขยายตัวในตลาด EU อาจต้องเผชิญกับการใช้ AI ของตนเองที่อยู่ภายใต้กฎหมาย EU AI ทางอ้อม โดยเฉพาะในการวิเคราะห์ข้อมูลลูกค้าด้วย AI และระบบสนับสนุนการตัดสินใจต้องมั่นใจถึงความโปร่งใสและความปลอดภัยของโมเดล AI ที่ใช้

จำเป็นต้องจัดทำนโยบายการใช้ AI ภายในบริษัท การจัดอบรมพนักงานและการสร้างระบบติดตามการใช้เครื่องมือ AI ก็มีความสำคัญ การใช้เครื่องมือ AI ฟรีในงานต้องระมัดระวังเป็นพิเศษ เพื่อหลีกเลี่ยงความเสี่ยงจากการใช้ข้อมูลองค์กรในการเรียนรู้และความเป็นไปได้ของการละเมิดกฎระเบียบ การเปลี่ยนไปใช้บริการ AI รุ่นองค์กรจึงเป็นทางเลือก

การลงทุนเชิงกลยุทธ์เพื่อรักษาความสามารถในการแข่งขัน
การเสริมสร้างกฎระเบียบทำให้ “ความน่าเชื่อถือ” และ “ความสามารถในการตอบสนองการปฏิบัติตาม” ในด้าน AI กลายเป็นแกนการแข่งขันใหม่ บริษัทที่ถือโอกาสนี้เป็นโอกาสอาจได้รับความได้เปรียบในการแข่งขันระยะยาว สามารถนำไปใช้ในการสร้างความสัมพันธ์ไว้วางใจกับลูกค้าและเพิ่มมูลค่าแบรนด์ได้

สามารถพิจารณามาตรการต่าง ๆ เช่น การรับประกันความโปร่งใสในการใช้ AI การพิจารณาด้านจริยธรรมอย่างละเอียด และการเสริมสร้างมาตรการรักษาความปลอดภัย มีทางเลือกในการมุ่งสู่การสร้างสถานะเป็น “บริษัทที่ใช้ AI อย่างมีความรับผิดชอบ” การวางตำแหน่งต้นทุนการตอบสนองกฎระเบียบเป็นการลงทุนเพื่อการได้รับความไว้วางใจจากลูกค้าและการเติบโตอย่างยั่งยืน จะเป็นเส้นทางสู่ความสำเร็จ

ความคิดเห็นของ BKK IT News คือ การเปลี่ยนแปลงครั้งนี้จะกลายเป็นโอกาสสำคัญสำหรับบริษัทที่มองไปข้างหน้า ไม่ใช่เพียงแค่การควบคุมต้นทุนเท่านั้น การลงทุนเชิงกลยุทธ์ในด้านจริยธรรม AI ความไว้วางใจ และความปลอดภัยจะกลายเป็นองค์ประกอบที่จำเป็นสำหรับการเติบโตอย่างยั่งยืนของบริษัท เช่นเดียวกับที่ไซเบอร์ซีเคียริตี้เคยพัฒนาจากงาน IT เฉพาะทางไปสู่หน้าที่หลักของการบริหาร

ลิงก์บทความอิงอ้าง