สิงหาคม 2025 เกิดปัญหาที่เนื้อหาการสนทนาผ่านฟีเจอร์แชร์ของ ChatGPT ปรากฏในผลการค้นหาของ Google ปัญหานี้ไม่ใช่เพียงข้อบกพร่องทางเทคนิค แต่เป็นเหตุการณ์สำคัญที่เผยให้เห็นความเสี่ยงการรั่วไหลของข้อมูลลับของบริษัท การสนทนาประมาณ 100,000 รายการถูกเผยแพร่โดยไม่ตั้งใจ รวมถึงสัญญาลับและข้อมูลส่วนบุคคล
พัฒนาการของปัญหา
ฟีเจอร์ “แชร์” ของ ChatGPT มีมาตั้งแต่ปี 2023 ในตอนแรก OpenAI ระบุชัดเจนว่าลิงก์แชร์จะไม่ถูกจัดเก็บในดัชนีของเครื่องมือค้นหา แต่ในช่วงต้นปี 2025 นโยบายนี้ถูกเปลี่ยนแปลงอย่างเงียบๆ ผู้ใช้สามารถเลือกให้แชทถูกจัดเก็บในดัชนีได้
ปลายเดือนกรกฎาคม 2025 พบว่าการสนทนาที่แชร์ผ่านฟีเจอร์นี้ปรากฏในการค้นหาของ Google ในตอนแรกนิตยสาร Fast Company รายงานว่ามีการสนทนาประมาณ 4,500 รายการถูกจัดเก็บในดัชนี การสำรวจต่อมาพบว่าจำนวนจริงใกล้ 100,000 รายการ
หัวใจของปัญหาอยู่ที่ช่องทำเครื่องหมาย “ทำให้แชทนี้สามารถค้นพบได้” ผู้ใช้จำนวนมากไม่เข้าใจความหมายของฟีเจอร์นี้อย่างแม่นยำ คำว่า “ค้นพบได้” เป็นการแสดงออกที่คลุมเครือและทำให้เกิดความสับสน ส่งผลให้ข้อมูลองค์กรที่มีความอ่อนไหวและข้อมูลส่วนบุคคลถูกเผยแพร่
ความร้ายแรงของข้อมูลที่เผยแพร่
การสนทนาที่เผยแพร่มีข้อมูลที่อ่อนไหวอย่างมาก รวมถึงข้อความสัญญาการรักษาความลับ (NDA) กลยุทธ์ภายในองค์กร การอภิปรายเกี่ยวกับสัญญาลับ ในระดับส่วนบุคคลยังมีการปรึกษาเรื่องสุขภาพจิต ประสบการณ์การทำร้ายร่างกายที่ถูกเผยแพร่ด้วย
ชื่อ ข้อมูลติดต่อ ประวัติการทำงาน และข้อมูลที่สามารถระบุตัวบุคคลได้ถูกรวมไว้อย่างสมบูรณ์ นี่ไม่ใช่เพียงการละเมิดความเป็นส่วนตัว แต่เป็นสถานการณ์ที่ข้อมูลการแข่งขันขององค์กรรั่วไหลออกไป
วิธีการค้นหาก็ง่ายมาก สามารถค้นหาการสนทนาที่เกี่ยวข้องได้ด้วยคำสั่ง site:chatgpt.com/share [คำหลัก]
ความง่ายนี้ทำให้ปัญหาร้ายแรงขึ้น
การตอบสนองของ OpenAI และความท้าทาย
OpenAI ตอบสนองอย่างรวดเร็วหลังจากปัญหาถูกค้นพบ วันที่ 1 สิงหาคม ผู้อำนวยการความปลอดภัยข้อมูลสูงสุดออกแถลงการณ์อย่างเป็นทางการ ประกาศการยกเลิกฟีเจอร์ “ค้นพบได้” และเริ่มขอให้เครื่องมือค้นหาลบเนื้อหา การยกเลิกฟีเจอร์เสร็จสิ้นภายในวันที่ 5 สิงหาคม
บริษัทมองฟีเจอร์นี้เป็น “การทดลองระยะสั้นเพื่อให้สามารถค้นพบการสนทนาที่มีประโยชน์ได้ง่ายขึ้น” ในขณะเดียวกันยอมรับข้อบกพร่องในการออกแบบว่า “สร้างโอกาสให้ผู้ใช้แชร์สิ่งที่ไม่ตั้งใจมากเกินไป”
แต่การลบข้อมูลที่เผยแพร่แล้วอย่างสมบูรณ์เป็นเรื่องยาก อาจมีการเก็บไว้ในแคชของเครื่องมือค้นหาหรือบริการเก็บถาวรของบุคคลที่สาม ยังคงมีความท้าทายพื้นฐานเรื่องความคงอยู่ของข้อมูลดิจิทัล
ผลกระทบและความเสี่ยงต่อบริษัท
เหตุการณ์นี้ทำให้ความเสี่ยง “Shadow AI” ของบริษัทกลายเป็นความจริง ความอันตรายของการที่พนักงานใช้เครื่องมือ AI สาธารณะในงานโดยไม่ได้รับอนุญาตจากบริษัทชัดเจนขึ้น การสำรวจเดือนที่แล้วรายงานว่า ความเสี่ยงจากการใช้ AI ในที่ทำงาน 9 ประเภททำให้ Shadow AI แพร่หลายและสูญเสีย 67 หมื่นดอลลาร์ การสำรวจระดับโลกระบุว่าพนักงาน 45% เคยใช้เครื่องมือ AI โดยไม่ปรึกษาหัวหน้า
กรณีของซัมซุงในปี 2023 ก็เช่นกัน พนักงานรั่วไหลซอร์สโค้ดผ่าน ChatGPT บริษัทไทยก็เผชิญความเสี่ยงเดียวกัน พนักงานอาจแชร์โค้ดกรรมสิทธิ์ ข้อมูลลูกค้า แผนกลยุทธ์โดยไม่ตั้งใจ
ประเด็นสำคัญคือการสนทนาที่รั่วไหลกลายเป็น “เหมืองทองของการรวบรวมข้อมูล” สำหรับคู่แข่ง อาจมีบริษัทที่ค้นหาข้อมูลลับของคู่แข่งอย่างเปิดเผย นี่คือความเสี่ยงใหม่ด้านข่าวกรองการแข่งขัน
การคาดการณ์และมาตรการรับมือ
BKK IT News คาดว่าเหตุการณ์นี้จะนำมาซึ่งการเปลี่ยนแปลงครั้งใหญ่ในนโยบายการใช้ AI ของบริษัท จะไม่ใช่การห้ามใช้ AI อย่างง่ายๆ แต่จะมีการกำหนดแนวทางที่เฉพาะเจาะจงมากขึ้น
บริษัทควรพิจารณามาตรการหลายประการ ก่อนอื่นเป็นการตอบสนองเร่งด่วน คือการตรวจสอบด้วยชื่อบริษัท ใช้ site:chatgpt.com/share
ตรวจสอบว่ามีข้อมูลที่เผยแพร่แล้วหรือไม่
ระยะยาวจำเป็นต้องกำหนดนโยบายการใช้ AI ที่ชัดเจน ระบุการห้ามป้อนข้อมูลลับ ห้ามใช้ฟีเจอร์แชร์สาธารณะ การใช้โซลูชัน AI เวอร์ชันองค์กรก็เป็นทางเลือกหนึ่ง
การศึกษาพนักงานก็สำคัญ ควรจัดอบรมเรื่องความเสี่ยงการรั่วไหลข้อมูลจาก AI โดยใช้เหตุการณ์นี้เป็นตัวอย่างเฉพาะ ต้องการเนื้อหาที่กระตุ้นการเปลี่ยนแปลงพฤติกรรม ไม่ใช่เพียงการให้ความรู้
ลิงก์บทความอ้างอิง
- Your ChatGPT conversations may be visible in Google Search
- Shared ChatGPT Conversations Are Now on Google Search
- OpenAI pulls ChatGPT feature that let user chats appear in Google Search results
- Nearly 100,000 ChatGPT Conversations Were Searchable on Google – 404 Media
- ChatGPT Privacy Scandal: Shared Links Exposed in Google Search – WebProNews