การใช้ AI สร้างสรรค์ในที่ทำงานขยายตัวอย่างรวดเร็ว ความเสี่ยงร้ายแรงเกิดขึ้นอย่างชัดเจน ZDNet เตือน “9 งานที่ไม่ควรใช้ AI ในที่ทำงาน” ถือเป็นภัยคุกคามที่เป็นจริงสำหรับองค์กร โดยเฉพาะ “Shadow AI” หรือการใช้ AI ที่ไม่ได้รับอนุญาต ทำให้ต้นทุนการละเมิดข้อมูลเพิ่มขึ้นเฉลี่ย 67 หมื่นดอลลาร์
การแพร่กระจาย AI สร้างสรรค์อย่างรวดเร็วและการควบคุมที่ล่าช้า
องค์กรกว่า 90% รวมถึงบริษัท Fortune 500 ได้นำโซลูชัน AI มาใช้แล้ว องค์กรถึง 78% ใช้ AI ในงานอย่างน้อยหนึ่งด้าน
แต่การขยายตัวอย่างรวดเร็วนี้มีปัญหาใหญ่ พนักงาน 98% ใช้แอปที่ไม่ได้รับอนุมัติ และ 57% ซ่อนการใช้ AI จากบริษัท ปรากฏการณ์ “Shadow AI” นี้ทำให้องค์กรเผชิญความเสี่ยงที่มองไม่เห็น
สถานการณ์ในประเทศไทยก็ไม่แตกต่างกัน การสำรวจพบว่าผู้ใช้ AI ของไทยมีมากกว่าครึ่งหนึ่ง แต่การนำไปใช้ในการทำงานจริงอยู่ที่เพียง 25% แสดงให้เห็นการขาดการควบคุมที่เป็นระบบ ปัญหาการใช้ข้อมูลองค์กรในการฝึกโมเดล AI ฟรียังคงเป็นความเสี่ยงที่ต้องจับตามอง
9 งานอันตรายที่ไม่ควรใช้ AI
ZDNet ชี้ให้เห็น 9 งานอันตรายดังนี้
1. การจัดการข้อมูลลับและทรัพย์สินทางปัญญา
ข้อมูลที่ป้อนเข้าโมเดล AI สาธารณะฟรีจะถูกดูดซับเป็นข้อมูลการฝึก อาจปรากฏในการตอบสนองผู้ใช้อื่น Samsung Electronics พบว่าพนักงานอัปโหลดซอร์สโค้ดลับไปยัง ChatGPT จึงต้องห้ามใช้เครื่องมือ AI สร้างสรรค์ในบริษัท
2. ลิขสิทธิ์และการสร้างเนื้อหา
การเผยแพร่ผลงานที่ AI สร้างเป็นของตัวเองมีความเสี่ยงร้ายแรงต่อการละเมิดลิขสิทธิ์ คดี New York Times กับ OpenAI และ Microsoft ที่ดำเนินอยู่ อาจต้องจ่ายค่าเสียหายตามกฎหมายสูงสุด 15 หมื่นดอลลาร์ต่อการละเมิดโดยตั้งใจหนึ่งครั้ง
3. เอกสารกฎหมายและการจัดทำสัญญา
สัญญาที่ AI สร้างขึ้นอาจมีข้อกำหนดที่ดูสมเหตุสมผลแต่ไม่มีผลทางกฎหมาย นอกจากนี้ การโต้ตอบกับ AI ไม่อยู่ภายใต้สิทธิพิเศษการรักษาความลับระหว่างทนายความกับลูกความ มีความเสี่ยงที่จะถูกเรียกให้เปิดเผยหลักฐานในการฟ้องร้อง
4. การตัดสินใจด้านทรัพยากรบุคคล
การใช้ AI ในการจ้างงาน เลื่อนตำแหน่ง ไล่ออก มีความเสี่ยงที่จะทำให้อคติในอดีตขององค์กรคงอยู่และขยายขึ้น คณะกรรมการโอกาสการจ้างงานที่เท่าเทียมของสหรัฐ (EEOC) ฟ้อง iTutorGroup บริษัทต้องจ่ายค่าประนีประนอม 36 หมื่น 5 พันดอลลาร์
5. การตอบสนองลูกค้าและสื่อ
แชทบอท AI ที่ไม่ได้รับการตรวจสอบอาจให้ข้อมูลไม่ถูกต้อง เช่น “เสนอรถบรรทุกในราคา 1 ดอลลาร์” ทำลายชื่อเสียงแบรนด์อย่างรุนแรง การตอบสนองที่ไม่เหมาะสมครั้งเดียวแพร่กระจายในโซเชียลมีเดีย อาจทำลายผลการประหยัดต้นทุนหลายปีในทันที
6. คำแนะนำด้านสุขภาพ・การเงิน
คำแนะนำ AI ที่ผิดพลาดในสาขาสุขภาพและการเงินอาจคุกคามชีวิตหรือนำไปสู่การล่มสลายทางเศรษฐกิจ AI Hallucination (การสร้างข้อมูลที่ไม่มีพื้นฐานความจริง) มีความเสี่ยงที่จะให้คำแนะนำที่ดูเชี่ยวชาญและมั่นใจ แต่ผิดพลาด
7. การพัฒนาซอฟต์แวร์
การใช้ AI โดยไม่มีการดูแลอย่างเข้มงวดอาจเป็นสาเหตุของการฝังช่องโหว่ด้านความปลอดภัยที่ซับซ้อนในโค้ด โมเดล AI ที่เรียนรู้จากโค้ดสาธารณะของ GitHub อาจทำซ้ำรูปแบบการเขียนโค้ดที่ไม่ปลอดภัย
8・9. งานอื่นๆ ที่มีความเสี่ยงสูง
นอกจากนี้ การใช้ AI ในการวิเคราะห์การเงินและการวางแผนกลยุทธ์ที่เชื่อมโยงโดยตรงกับการตัดสินใจขององค์กรต้องได้รับการพิจารณาอย่างรอบคอบ
Shadow AI สร้างความสูญเสียทางเศรษฐกิจอย่างร้ายแรง
รายงาน “ต้นทุนการรั่วไหลข้อมูล” ปี 2025 ของ IBM เผยข้อเท็จจริงที่น่าตกใจ องค์กรที่เข้าร่วมการสำรวจ 13% รายงานการรั่วไหลที่เกี่ยวข้องกับโมเดล AI และ 97% ขาดการควบคุมการเข้าถึง AI ที่เหมาะสม
ที่ร้ายแรงยิ่งกว่านั้นคือ ต้นทุนการรั่วไหลที่เกี่ยวข้องกับ Shadow AI สูงกว่าการรั่วไหลอื่นเฉลี่ย 67 หมื่นดอลลาร์ นี่คือหลักฐานชัดเจนว่าการขาดธรรมาภิบาลนำไปสู่ความเสียหายทางการเงินโดยตรง
การเปลี่ยนไปสู่ Enterprise AI เป็นเรื่องเร่งด่วน
การแก้ปัญหา Shadow AI โดยรากเหง้าไม่ใช่การห้ามเพียงอย่างเดียว แต่เป็นการจัดหาทางเลือกที่ปลอดภัยตอบสนองความต้องการของพนักงาน พนักงานต้องการเครื่องมือ AI เพื่อเพิ่มประสิทธิภาพ หากองค์กรไม่จัดหาเครื่องมือ Enterprise AI ที่ปลอดภัยและมีประสิทธิภาพสูง พนักงานจะต้องพึ่งพาเครื่องมือสาธารณะเพื่อบรรลุเป้าหมายการทำงานของตน
แพลตฟอร์มคลาวด์หลักอย่าง Microsoft Azure AI, Amazon Web Services, Google Cloud AI รับประกันว่าข้อมูลองค์กรจะไม่ถูกใช้ในการเรียนรู้โมเดลสาธารณะของผู้ให้บริการหากเป็นบริการสำหรับองค์กร บริการเหล่านี้ให้ฟังก์ชันควบคุมความปลอดภัย การปฏิบัติตามกฎระเบียบ และความเป็นส่วนตัวของข้อมูลในตัว
การสร้างระบบ AI Governance อย่างครอบคลุม
การจัดการความเสี่ยง AI อย่างมีประสิทธิภาพต้องมีกรอบงานเป็นระบบตาม 3 เสาหลัก
1. การสร้างธรรมาภิบาลและนโยบาย
การตั้ง “คณะกรรมการ AI Governance” ข้ามแผนกที่ประกอบด้วยตัวแทนจากกฎหมาย, IT, ทรัพยากรบุคคล, หน่วยธุรกิจต่างๆ เป็นสิ่งจำเป็น จัดทำข้อกำหนดการใช้งาน (AUP) ที่ชัดเจน ระบุสิ่งต้องห้าม วิธีการใช้งานที่ได้รับอนุมัติ กฎระเบียบเกี่ยวกับทรัพย์สินทางปัญญา ความรับผิดชอบของผู้ใช้
2. การนำระบบโครงสร้างพื้นฐานเทคโนโลยีที่ปลอดภัยมาใช้
การนำแพลตฟอร์ม AI สำหรับองค์กรมาใช้ การนำเทคโนโลยี RAG (Retrieval-Augmented Generation) มาใช้มีประสิทธิภาพอย่างมาก ทำให้โมเดล AI อ้างอิงเฉพาะฐานความรู้ในบริษัทเท่านั้น และลด Hallucination อย่างมาก
3. การพัฒนาทุนมนุษย์และการฝึกอบรม
นอกจากการฝึกอบรมพื้นฐานสำหรับพนักงานทุกคน นักพัฒนาต้องการการฝึกอบรมเกี่ยวกับข้อควรระวังด้านความปลอดภัยของ AI-assisted coding เจ้าหน้าที่ด้านกฎหมาย・ทรัพยากรบุคคลต้องการการฝึকอบรมขั้นสูงเกี่ยวกับการตรวจสอบอคติและความรับผิดชอบทางกฎหมาย
แนวโน้มอนาคตและข้อเสนอแนะต่อองค์กร
การนำ AI ที่มีความรับผิดชอบมาใช้เป็นการลงทุนเชิงกลยุทธ์เพื่อให้เกิดการเติบโตและนวัตกรรมอย่างยั่งยืน ไม่ใช่ต้นทุน BKK IT News เห็นว่าบริษัทไทยควรใช้ประสบการณ์จากต่างประเทศ ไม่ควรรอการเสริมสร้างกฎระเบียบ แต่ควรสร้างโครงสร้างพื้นฐาน Enterprise AI อย่างแข็งแรง
ระยะสั้นคือการทำความเข้าใจสถานการณ์ปัจจุบันและการตั้งคณะกรรมการ AI Governance ระยะกลางคือการนำแพลตฟอร์ม Enterprise AI มาใช้และดำเนินการฝึกอบรม ระยะยาวคือการสร้างระบบการตรวจสอบอย่างต่อเนื่อง
การแพร่กระจายของ Shadow AI เป็นการแสดงออกของปัญหาพื้นฐานคือการขาดกลยุทธ์และโครงสร้างพื้นฐาน AI ขององค์กร การเติม “Governance Gap” นี้เป็นกุญแจสำคัญในการรับประกันความสามารถในการแข่งขันและการเติบโตอย่างยั่งยืนขององค์กรในยุค AI
ลิงค์บทความอ้างอิง
- 9 things you shouldn’t use AI for at work | ZDNET
- 55+ New Generative AI Stats (2025) – Exploding Topics
- IBM Report: 13% Of Organizations Reported Breaches Of AI Models Or Applications – IBM Newsroom
- Shadow AI: The Silent Security Risk Lurking in Your Enterprise – F5
- NYT v. OpenAI: The Times’s About-Face – Harvard Law Review