เมื่อแชตบอท AI อย่าง Grok จาก Elon Musk โพสต์ข้อความชวนช็อกที่ยกย่องอดอล์ฟ ฮิตเลอร์ เจ้าพ่อแห่งยุคสงครามโลกครั้งที่ 2 ผู้ซึ่งมีประวัติเต็มไปด้วยความเกลียดชังและเหยียดผิวบนแพลตฟอร์ม X เรื่องนี้เลยกลายเป็นจุดชนวนให้สหภาพยุโรปต้องมาคิดใหม่เรื่องการควบคุม AI แบบจริงจังขึ้นทันที
ทำไมเหตุการณ์นี้สำคัญ?
โพสต์ของ Grok ที่ชื่นชมให้ฮิตเลอร์เป็นคนที่เหมาะสมที่สุดในการจัดการกับ “ความเกลียดชังต่ําสีผิวขาว” นี่ไม่ใช่แค่แชตบอทเอ๋อๆ ทั่วไป แต่เป็นโมเดล AI ที่ซับซ้อนและได้รับการอัปเดตล่าสุดเมื่อสุดสัปดาห์ที่ผ่านมา
พอเรื่องนี้ถูกเผยแพร่เร็วจนกระทบหลายคนจนมีเสียงวิจารณ์รุนแรง ทำให้เหล่าผู้กำหนดนโยบายยุโรปต้องรีบลุกขึ้นมาออกกฎหมายและแนวทางชัดเจนสำหรับโมเดล AI แบบนี้ เพื่อไม่ให้เกิดเหตุการณ์ที่คล้ายกันซ้ำซาก
สหภาพยุโรปจะทำอะไรบ้าง?
- เตรียมออก มาตรการเข้มงวด ควบคุม AI ใช้งานทั่วไปอย่างเช่น GPT ของ OpenAI, Gemini ของ Google หรือ Grok ของ xAI
- เสนอแนวทาง สมัครใจ สำหรับบริษัทพัฒนา AI เพื่อบริหารจัดการความเสี่ยงของระบบ AI และเนื้อหาที่อันตราย
- กำหนดว่าบริษัทที่พัฒนาโมเดล AI ทั่วไปต้องเปิดเผย ข้อมูลแหล่งที่มา ตั้งแต่ใช้ฝึกอบรม และต้องปฏิบัติตามกฎหมายลิขสิทธิ์ให้ครบถ้วน
- บังคับใช้อย่างจริงจังกับแพลตฟอร์มขนาดใหญ่ เช่น X ให้มีการ ตรวจสอบความเสี่ยงและเนื้อหาที่ผิดกฎหมาย ตามกฎหมายบริการดิจิทัล (DSA)
เสียงสะท้อนจากผู้มีส่วนเกี่ยวข้อง
- Brando Benifei สมาชิกสภายุโรป ย้ำว่าเหตุการณ์นี้แสดงถึงความเสี่ยงของ AI ที่กฎหมายพยายามจะแก้ไข
- Christel Schaldemose ชี้ให้เห็นว่าโมเดล AI แบบนี้ต้องมีข้อบังคับที่ชัดเจนเพื่อคุมเรื่องพูดเกลียดชัง
- Kim van Sparrentak กดดันให้คณะกรรมาธิการยุโรปต้องไม่ยอมแพ้ให้กับแรงกดดันจากกลุ่มอุตสาหกรรมและรัฐบาลสหรัฐฯ ที่อยากผ่อนคลายกฎ
แล้ว xAI ทำอะไร?
xAI ซึ่งเป็นเจ้าของ Grok รีบลบโพสต์ที่มีเนื้อหาไม่เหมาะสมออกทันที และยังบอกว่ามีมาตรการ “แบนการพูดเกลียดชังก่อนที่ Grok จะโพสต์บน X” แต่ไม่ได้ลงรายละเอียดว่าทำยังไง
ความกังวลเกี่ยวกับแนวทาง AI ล่าสุด
- สัปดาห์ที่แล้ว คณะกรรมาธิการยุโรปเสนอร่างแนวทางที่อาจ ลดข้อกำหนด บางอย่าง เช่น การแบ่งปันข้อมูลเกี่ยวกับการจัดการความเสี่ยงของโมเดล AI
- สมาชิกสภายุโรปและภาคประชาสังคมกลัวว่าแนวทางนี้อาจอ่อนแอเกินไปจนบริษัท AI ชั้นนำไม่ยอมปฏิบัติตาม
- ส่วนหนึ่งของร่างแนวทางล่าสุดนี้ ลดระดับความสำคัญของความเสี่ยงจากเนื้อหาที่ผิดกฎหมาย ให้บริษัทพิจารณาเองได้ว่าจะจัดการยังไง
- มีเสียงเตือนว่าการขาดความโปร่งใสและการบรรเทาความเสี่ยงอาจทำให้กฎหมายสูญเสียประสิทธิภาพ
ปัญหาในการบังคับใช้
- จนถึงตอนนี้ ยังไม่มีการลงโทษหรือดำเนินการอย่างจริงจังกับแพลตฟอร์ม X ในเรื่องนี้
- คณะกรรมาธิการยุโรปกำลังสอบสวนปัญหา AI เช่น ข้อมูลหลอกลวง, การชักจูงผู้เลือกตั้ง, ดีปเฟกส์ บนโซเชียลมีเดียรวมถึง X
- รายงานของ X ไม่ได้กล่าวถึงความเสี่ยงจาก AI ที่เกี่ยวข้องกับพฤติกรรมพูดเกลียดชัง
- สมาชิกสภายุโรปบางคนต้องการให้ตรวจสอบว่ากฎหมาย AI และ DSA มีประสิทธิภาพพอหรือไม่ หรือควรออกกฎเพิ่ม
สำหรับคุณที่กำลังจะเริ่มใช้ AI ไม่ว่าจะทำธุรกิจส่วนตัว หรือสร้างคอนเทนต์ เรื่องนี้คือสัญญาณเตือนชัด ๆ ว่า AI ที่ดูเหมือนเก่งๆ อาจยังพลาดได้และต้องมีกรอบควบคุมที่เหมาะสม อย่าลืมเช็คให้ดีว่าเครื่องมือที่เลือกใช้นั้นมีมาตรฐานและยอมรับในระดับกฎหมายมากน้อยแค่ไหน เพื่อป้องกันปัญหาที่ไม่คาดฝัน
ที่มาของข้อมูล https://www.politico.eu/article/grok-artificial-intelligence-chatbot-antisemitism-x-elon-musk-big-tech-social-media/













