ถ้าพูดถึงเรื่อง การกำกับดูแล AI ขั้นสูง หรือ Frontier AI บางทีเราก็อาจจะงงๆ กันว่า เอ๊ะ! ถ้าอยากควบคุม AI ให้ปลอดภัย มันควรมุ่งเน้นที่อะไรดี ระหว่างการควบคุมแค่โมเดล AI หรือเน้นไปที่วิธีการใช้งานจริงของเทคโนโลยีนั้นกันแน่? ทำไมเรื่องนี้ถึงสำคัญ? ก็เพราะว่า AI มีพลังและความซับซ้อนที่เพิ่มขึ้นเรื่อยๆ และเราต้องเลือกวิธีดูแลให้เหมาะสม จะได้ไม่ขัดกับนวัตกรรม แต่ก็ไม่ปล่อยให้เสี่ยงเกินไป
กำกับดูแล AI: โมเดล vs การใช้งาน
ในวงการนี้ หลักๆ ก็จะแบ่งกันเป็นสองฝ่าย:
- กลุ่มที่บอกว่า ควรเน้นไปที่ การใช้งาน AI จริงๆ เพราะจะช่วยให้ผู้พัฒนาโมเดลมีอิสระมากขึ้นในการทดลอง และไม่ถูกกฎหมายหรือกฎเกณฑ์ทางเทคนิคมาบั่นทอนมากเกินไป
- อีกกลุ่มจะบอกว่า ควรจดจ่อที่ตัว โมเดล AI เลย เพราะจะช่วยลดภาระของคนที่ใช้งาน และทำให้เทคโนโลยีนี้กระจายตัวได้ดีกว่าในระยะยาว
แต่ทั้งสองแนวทางมันก็มีข้อจำกัดนะ อย่างกฎหมาย AI ของสหภาพยุโรป หรือกฎหมายในรัฐของสหรัฐฯ ที่เน้นการควบคุมตามการใช้งาน แม้ไม่ลงลึกที่ผู้พัฒนาโมเดลโดยตรง แต่มันก็ส่งผลกระทบกับการพัฒนาเพราะค่าใช้จ่ายในการทำตามกฎสูงเหมือนกัน
ส่วนการกำกับดูแลโมเดลตรงๆ ก็ไม่ง่ายในยุคนี้ เพราะระบบ AI ขั้นสูงไม่ได้มีแค่โมเดลตัวเดียว แต่ผสมผสานหลายๆ โมเดล ซอฟต์แวร์ ฮาร์ดแวร์ และพลังประมวลผลเข้าด้วยกัน ความสามารถและความเสี่ยงก็ไม่ได้เกิดเฉพาะจากโมเดลพื้นฐานเพียงอย่างเดียว
มาเปลี่ยนมุมมอง: กำกับดูแลโดยเน้น “องค์กร” แทนโมเดลหรือการใช้งาน
ฟังดูอาจแปลกไปนิด แต่ที่จริงมันคือวิธีที่หลายคนในสหรัฐฯ เริ่มสนใจมากขึ้น โดยเฉพาะบริษัทใหญ่ๆ ที่ลงทุนหนักในการพัฒนา AI ขั้นสูง เช่น ธนาคารหรือบริษัทประกัน ที่ต้องจัดการความเสี่ยงจากผลิตภัณฑ์หรือบริการที่ซับซ้อนและเปลี่ยนแปลงเร็ว
ถ้าเรากำกับดูแลที่องค์กรเหล่านี้โดยตรง เราจะได้:
- ครอบคลุมความเสี่ยงจากกิจกรรมที่หลากหลายของบริษัท ไม่ใช่แค่ตัวโมเดล AI
- ลดภาระกับบริษัทเล็กๆ ที่ไม่ได้ลงทุนเยอะหรือไม่มีระบบซับซ้อน
- ช่วยให้หน่วยงานกำกับดูแลโฟกัสทรัพยากรกับคนที่เสี่ยงหรือมีอำนาจจริง
ตัวอย่างกฎหมายที่มีข้อจำกัดในแนวทางอื่นๆ
ลองดูตัวอย่าง:
- ร่างกฎหมาย SB 1047 ของแคลิฟอร์เนีย กำหนดให้โมเดลที่ใช้กำลังประมวลผลสูง (10^26 FLOPs) ต้องรักษาความปลอดภัยสูงและมีความรับผิดชอบทางกฎหมาย แต่ก็เริ่มใช้ไม่ได้ดีเพราะเทคโนโลยีฝึกโมเดลใหม่ๆ อย่างการเรียนรู้เสริมแรงหลังฝึก (post-training reinforcement learning) ทำให้เกณฑ์นี้ล้าสมัยไปหลายจุด และยังมีโมเดลขนาดเล็กที่เก่งมากที่ไม่อยู่ในเกณฑ์นี้ เช่น o1-mini ของ OpenAI ที่ใช้เทคนิคคิดวิเคราะห์ก่อนตอบคำถาม
- ร่างกฎหมาย HB 1709 ของเท็กซัส มุ่งเน้นการใช้งาน AI ที่เกี่ยวข้องกับสิทธิมนุษยชนและการตัดสินใจที่กระทบโอกาสต่างๆ แม้ดีที่ครอบคลุม AI แคบและ AI ขั้นสูง แต่ข้อกำหนดเรื่องแผนบริหารความเสี่ยงกับผลกระทบทางอัลกอริทึม มันหนักหนามากจนอาจทำให้ธุรกิจเล็กๆ ไม่กล้าใช้ AI และทำให้นวัตกรรมลดลง เพราะกลัวภาระจากกฎเกณฑ์
สรุป: เน้นองค์กรผู้พัฒนา AI เป็นทางเลือกที่เวิร์กสุด?
หลักการง่ายๆ ก็คือ ใหญ่ๆ ที่ลงทุนหนักใน AI ขั้นสูงจริงๆ นี่แหละ ที่ควรถูกกำกับดูแลเข้ม เพราะเขาคือผู้เล่นหลักที่สร้างความเสี่ยงในวงกว้าง พร้อมทั้งมีระบบภายในที่ควบคุมความปลอดภัย ความลับอัลกอริทึม และบริหารความเสี่ยงได้
ถ้ารัฐบาลจะใช้วิธีนี้ก็อาจตั้งเกณฑ์ที่ชัดเจน เช่น:
- องค์กรใดที่ลงทุนในงานวิจัยและพัฒนา AI เกินพันล้านดอลลาร์ต่อปี
- องค์กรใดที่ใช้พลังการประมวลผลสูงสุดในการฝึกโมเดล
วิธีนี้จะช่วย:
- ลดภาระกับธุรกิจเล็กๆ
- หลีกเลี่ยงการสร้างกฎเกณฑ์ที่ยุ่งยากและตามไม่ทันเทคโนโลยี
- ทำให้ตรวจสอบกิจกรรมเสี่ยงได้แบบครอบคลุม ทั้งการเปิดเผยความเสี่ยงใหม่ๆ และการมีเจ้าหน้าที่บริหารความเสี่ยงหรือผู้ตรวจสอบอิสระ
แต่แน่นอนว่าวิธีนี้ก็ไม่เหมาะกับทุกสถานการณ์ เช่น อาจเกิดการหลีกเลี่ยงกฎหมายผ่านการตั้งบริษัทลูกหลายแห่ง หรืองานวิจัยที่ทำให้อันตรายกระจายออกไป อะไรแบบนี้
สุดท้าย คนเขียนเลยแนะนำว่า ควรลดความสำคัญของแนวทางกำกับดูแลที่เน้นโมเดลหรือการใช้งานลง และหันมาเน้นกำกับดูแลที่องค์กรพัฒนา AI ขั้นสูงจะดีที่สุด เพราะเป็นทางที่ค่อนข้างเหมาะกับสถานการณ์ของ AI ในปัจจุบันและอนาคต
ที่มาของข้อมูล https://carnegieendowment.org/research/2025/06/artificial-intelligence-regulation-united-states?lang=en














