มัลแวร์ AI เขียนโค้ดตัวเองใหม่อัตโนมัติ – ภัยคุกคามใหม่ที่ระบบป้องกันแบบเดิมใช้ไม่ได้ผล

มัลแวร์ AI เขียนโค้ดตัวเองใหม่อัตโนมัติ - ภัยคุกคามใหม่ที่ระบบป้องกันแบบเดิมใช้ไม่ได้ผล AI
AI

Google เตือนถึงการปรากฏของมัลแวร์ที่ใช้ AI เขียนโค้ดตัวเองใหม่ มัลแวร์ชื่อ PROMPTFLUX และ PROMPTSTEAL เชื่อมต่อกับ AI ขณะทำงานและเปลี่ยนแปลงตัวเองเพื่อหลบหลีกการตรวจจับ ซอฟต์แวร์แอนตี้ไวรัสแบบดั้งเดิมอาจไร้ประโยชน์ องค์กรต้องปรับกลยุทธ์การป้องกันทันที

มัลแวร์พัฒนาตัวเองด้วย AI

กลุ่มข่าวกรองภัยคุกคามของ Google ยืนยันการพบมัลแวร์ที่ใช้ AI ขณะทำงาน ในอดีต AI ถูกใช้เป็นเครื่องมือช่วยสร้างมัลแวร์เท่านั้น แต่มัลแวร์รุ่นใหม่นี้ต่างออกไป มันฝัง AI เข้าไปในตัวมัลแวร์เอง และพัฒนาตัวเองขณะทำงาน

PROMPTFLUX เชื่อมต่อกับ Gemini API ของ Google และขอให้เขียนโค้ดใหม่เป็นระยะ มัลแวร์มีฟังก์ชันที่เรียกว่า “Thinking Robot” สั่งการ AI ว่า “สร้างโค้ดที่หลบหลีกการตรวจจับ” AI สร้างโค้ดใหม่ตามคำสั่ง และมัลแวร์ก็เขียนตัวเองใหม่ ด้วยกลไกนี้ มัลแวร์สามารถปรับตัวตามการพัฒนาของระบบตรวจจับและเปลี่ยนรูปร่างใหม่ตลอดเวลา

PROMPTSTEAL เป็นมัลแวร์ที่กลุ่ม APT28 ซึ่งได้รับการสนับสนุนจากรัฐบาลรัสเซียใช้งาน มันเชื่อมต่อกับ AI ผ่าน Hugging Face API และสร้างคำสั่งที่เป็นอันตรายเพื่อเก็บข้อมูลและส่งออกไป การที่กลุ่มระดับประเทศใช้มัลแวร์ AI จริงแสดงว่าภัยคุกคามนี้ไม่ใช่แค่ทฤษฎี แต่เป็นอันตรายที่เกิดขึ้นจริง

เหตุผลที่ซอฟต์แวร์แอนตี้ไวรัสไม่ได้ผล

มัลแวร์แบบดั้งเดิมเปลี่ยนคีย์เข้ารหัสเพื่อเปลี่ยนรูปลักษณ์ของไฟล์ แต่โครงสร้างโค้ดหลักยังคงเหมือนเดิม ซอฟต์แวร์แอนตี้ไวรัสจึงตรวจจับ “รูปแบบ” ได้ เหมือนการจำคนร้ายจากรูปร่างหรือท่าเดินแม้จะแต่งตัวแปลง

มัลแวร์ AI พลิกแนวคิดนี้ มันใช้ AI เขียนโค้ดทั้งหมดใหม่ จึงมี “ลายนิ้วมือ” ที่แตกต่างกันทุกครั้ง เมื่อซอฟต์แวร์แอนตี้ไวรัสหา “รูปแบบที่รู้จัก” มัลแวร์ก็อยู่ในรูปแบบใหม่แล้ว จึงตรวจจับไม่ได้ นอกจากนี้ การมอบหมายการเขียนโค้ดให้ AI บนคลาวด์ทำให้ตัวมัลแวร์มีขนาดเล็ก ยิ่งตรวจจับยากขึ้น

กลไกนี้เปรียบได้กับ “ผู้เชี่ยวชาญการปลอมตัว” มัลแวร์แบบดั้งเดิมเปลี่ยนเสื้อผ้า ส่วนมัลแวร์ AI เปลี่ยนทั้งรูปหน้าและรูปร่าง ซอฟต์แวร์แอนตี้ไวรัสดู “ใบหน้าจดจำ” ก็ไม่สามารถระบุตัวได้

ความกังวลเรื่องการแพร่กระจายในตลาดอาชญากรรม

การที่ APT28 ใช้ PROMPTSTEAL แสดงว่ามัลแวร์ AI ถูกใช้ในการโจมตีไซเบอร์ระดับประเทศแล้ว ในปี 2025 “ตลาดอาชญากรรมไซเบอร์สำหรับเครื่องมือ AI” เติบโตเต็มที่ พร้อมท์ที่เป็นอันตรายและคีย์ API ของ AI ถูกจำหน่ายอย่างต่อเนื่อง

การที่กลุ่มระดับประเทศใช้มัลแวร์ AI และการเข้าถึง API ของ AI ง่ายขึ้น ทำให้เทคโนโลยีนี้อาจแพร่กระจายอย่างรวดเร็ว หลังปี 2026 มัลแวร์ AI อาจกลายเป็นบริการที่ผู้โจมตีที่มีทักษะต่ำสามารถใช้งานได้

QUIETVAULT เป็นมัลแวร์ที่ใช้เครื่องมือ AI บนระบบที่ติดเชื้อ มัลแวร์แบบดั้งเดิมค้นหา “ไฟล์ที่กำหนด” เท่านั้น แต่ QUIETVAULT ใช้ AI ค้นหา “ข้อมูลที่มีค่า” อย่างชาญฉลาด การขโมยข้อมูลพัฒนาจากการตรวจสอบรายการคงที่ไปสู่การค้นหาด้วย AI

FRUITSHELL เป็นมัลแวร์ที่ออกแบบมาเพื่อหลบหลีกระบบรักษาความปลอดภัย AI ผู้โจมตีศึกษาระบบ AI ของฝ่ายป้องกันและพัฒนาเทคนิคหลบหลีก การแข่งขันด้านความปลอดภัยไซเบอร์เปลี่ยนจากการต่อสู้ระหว่างคนเป็น AI ต่อ AI

มาตรการที่องค์กรต้องทำ

ต้องเปลี่ยนจุดสนใจจาก “รูปลักษณ์ของโค้ด” เป็น “การกระทำของโค้ด” นำการวิเคราะห์พฤติกรรมผู้ใช้และ Machine Learning มาใช้ตรวจจับการทำงานของระบบหรือการรันโปรเซสที่ผิดปกติ สำคัญคือต้องระบุพฤติกรรมที่เป็นอันตรายโดยไม่สนใจลายนิ้วมือของไฟล์

โซลูชัน EDR (Endpoint Detection and Response) ต้องฝัง AI เพื่อวิเคราะห์พฤติกรรมของไฟล์ปฏิบัติการ การตรวจสอบการสร้างไฟล์ชั่วคราวอย่าง thinking_robot_log.txt ที่ PROMPTFLUX สร้างเป็นตัวบ่งชี้สำคัญของการโจมตี

องค์กรต้องมีกลไกตรวจจับการเชื่อมต่อที่น่าสงสัยจากระบบภายในไปยัง API ของ AI ภายนอก (Gemini, Hugging Face, OpenAI) การเชื่อมต่อบ่อยไปยังจุดสิ้นสุดของ AI ที่รู้จักหรือการเชื่อมต่อจากระบบที่ไม่คาดคิดเป็นสัญญาณว่าผู้โจมตีใช้ AI เป็นส่วนหนึ่งของโครงสร้างพื้นฐาน

สำคัญคือต้องยึดหลัก Zero Trust อย่างเคร่งครัดและป้องกันความเสียหายแพร่กระจายหลังถูกโจมตี นำการควบคุมการเข้าถึงที่เข้มงวดและหลักการสิทธิ์ขั้นต่ำมาใช้ เพื่อป้องกันไม่ให้มัลแวร์ค้นหาข้อมูลที่มีค่าและแพร่กระจายในเครือข่าย

บทบาทของผู้ให้บริการ AI

เมื่อการใช้ AI ในทางที่ผิดชัดเจนแล้ว ผู้ให้บริการ AI (Google, Hugging Face ฯลฯ) มีความรับผิดชอบในการตรวจสอบและตรวจจับการใช้ API ที่ผิดกฎหมาย ต้องเปลี่ยนจากการตอบสนองหลังเกิดเหตุเป็นการตรวจจับความผิดปกติของการใช้ API แบบเรียลไทม์ นี่เป็นสิ่งจำเป็นเพื่อตัดการสร้างโค้ดของมัลแวร์ AI ตั้งแต่ต้นทาง

ผู้โจมตีใช้ “Social Engineering” ในพร้อมท์เพื่อหลบหลีกฟีเจอร์ความปลอดภัยของ AI สร้างข้ออ้างว่า “เพื่อการดีบัก” หรือ “การบำรุงรักษา” เพื่อให้ AI สร้างโค้ดที่เป็นอันตราย ผู้ให้บริการ AI ต้องเสริมกลไกตรวจจับและบล็อกรูปแบบการใช้งานที่ผิดเหล่านี้

เข้าสู่ยุค AI ต่อ AI

BKK IT News เห็นว่าการปรากฏของมัลแวร์ AI ผลักดันความปลอดภัยไซเบอร์สู่สนามรบ AI ต่อ AI การผสานรวม AI ทำให้ความเร็วในการพัฒนาการโจมตีเร็วขึ้นอย่างมาก การพัฒนามัลแวร์ขั้นสูงที่เคยใช้เวลาหลายเดือนสามารถทำได้ในระยะสั้นด้วย AI

ฝ่ายป้องกันต้องตอบสนองต่อความเร็วนี้ ต้องนำโมเดล AI ที่ประมวลผลข้อมูลจำนวนมากและตรวจจับความผิดปกติมาใช้อย่างรวดเร็ว ฝ่ายป้องกันต้องเร่งนวัตกรรมก่อนที่มัลแวร์ AI จะแพร่หลาย

การยึดติดกับการป้องกันแบบดั้งเดิมทำให้องค์กรเผชิญความเสี่ยงที่ยอมรับไม่ได้ ฝ่ายป้องกันต้องลดความสำคัญของซอฟต์แวร์แอนตี้ไวรัสแบบ Signature และลงทุนในโซลูชัน EDR/XDR ที่วิเคราะห์พฤติกรรม ต้องตรวจสอบทราฟฟิก API ของ AI ในเครือข่ายและยึดหลัก Zero Trust อย่างเคร่งครัด

ลิงก์บทความอ้างอิง