AI Genius Academy

แหล่งเรียนรู้เเจาะลึกรื่อง AI สำหรับทุกคน

ข่าวสาร AI รอบโลก

กำกับ AI ขั้นสูงต้องเน้นองค์กรพัฒนาใหญ่ ไม่ใช่แค่ตัวโมเดลหรือการใช้งาน

ถ้าพูดถึงเรื่อง การกำกับดูแล AI ขั้นสูง หรือ Frontier AI บางทีเราก็อาจจะงงๆ กันว่า เอ๊ะ! ถ้าอยากควบคุม AI ให้ปลอดภัย มันควรมุ่งเน้นที่อะไรดี ระหว่างการควบคุมแค่โมเดล AI หรือเน้นไปที่วิธีการใช้งานจริงของเทคโนโลยีนั้นกันแน่? ทำไมเรื่องนี้ถึงสำคัญ? ก็เพราะว่า AI มีพลังและความซับซ้อนที่เพิ่มขึ้นเรื่อยๆ และเราต้องเลือกวิธีดูแลให้เหมาะสม จะได้ไม่ขัดกับนวัตกรรม แต่ก็ไม่ปล่อยให้เสี่ยงเกินไป

กำกับดูแล AI: โมเดล vs การใช้งาน

ในวงการนี้ หลักๆ ก็จะแบ่งกันเป็นสองฝ่าย:

  • กลุ่มที่บอกว่า ควรเน้นไปที่ การใช้งาน AI จริงๆ เพราะจะช่วยให้ผู้พัฒนาโมเดลมีอิสระมากขึ้นในการทดลอง และไม่ถูกกฎหมายหรือกฎเกณฑ์ทางเทคนิคมาบั่นทอนมากเกินไป
  • อีกกลุ่มจะบอกว่า ควรจดจ่อที่ตัว โมเดล AI เลย เพราะจะช่วยลดภาระของคนที่ใช้งาน และทำให้เทคโนโลยีนี้กระจายตัวได้ดีกว่าในระยะยาว

แต่ทั้งสองแนวทางมันก็มีข้อจำกัดนะ อย่างกฎหมาย AI ของสหภาพยุโรป หรือกฎหมายในรัฐของสหรัฐฯ ที่เน้นการควบคุมตามการใช้งาน แม้ไม่ลงลึกที่ผู้พัฒนาโมเดลโดยตรง แต่มันก็ส่งผลกระทบกับการพัฒนาเพราะค่าใช้จ่ายในการทำตามกฎสูงเหมือนกัน

ส่วนการกำกับดูแลโมเดลตรงๆ ก็ไม่ง่ายในยุคนี้ เพราะระบบ AI ขั้นสูงไม่ได้มีแค่โมเดลตัวเดียว แต่ผสมผสานหลายๆ โมเดล ซอฟต์แวร์ ฮาร์ดแวร์ และพลังประมวลผลเข้าด้วยกัน ความสามารถและความเสี่ยงก็ไม่ได้เกิดเฉพาะจากโมเดลพื้นฐานเพียงอย่างเดียว

มาเปลี่ยนมุมมอง: กำกับดูแลโดยเน้น “องค์กร” แทนโมเดลหรือการใช้งาน

ฟังดูอาจแปลกไปนิด แต่ที่จริงมันคือวิธีที่หลายคนในสหรัฐฯ เริ่มสนใจมากขึ้น โดยเฉพาะบริษัทใหญ่ๆ ที่ลงทุนหนักในการพัฒนา AI ขั้นสูง เช่น ธนาคารหรือบริษัทประกัน ที่ต้องจัดการความเสี่ยงจากผลิตภัณฑ์หรือบริการที่ซับซ้อนและเปลี่ยนแปลงเร็ว

ถ้าเรากำกับดูแลที่องค์กรเหล่านี้โดยตรง เราจะได้:

  • ครอบคลุมความเสี่ยงจากกิจกรรมที่หลากหลายของบริษัท ไม่ใช่แค่ตัวโมเดล AI
  • ลดภาระกับบริษัทเล็กๆ ที่ไม่ได้ลงทุนเยอะหรือไม่มีระบบซับซ้อน
  • ช่วยให้หน่วยงานกำกับดูแลโฟกัสทรัพยากรกับคนที่เสี่ยงหรือมีอำนาจจริง

ตัวอย่างกฎหมายที่มีข้อจำกัดในแนวทางอื่นๆ

ลองดูตัวอย่าง:

  1. ร่างกฎหมาย SB 1047 ของแคลิฟอร์เนีย กำหนดให้โมเดลที่ใช้กำลังประมวลผลสูง (10^26 FLOPs) ต้องรักษาความปลอดภัยสูงและมีความรับผิดชอบทางกฎหมาย แต่ก็เริ่มใช้ไม่ได้ดีเพราะเทคโนโลยีฝึกโมเดลใหม่ๆ อย่างการเรียนรู้เสริมแรงหลังฝึก (post-training reinforcement learning) ทำให้เกณฑ์นี้ล้าสมัยไปหลายจุด และยังมีโมเดลขนาดเล็กที่เก่งมากที่ไม่อยู่ในเกณฑ์นี้ เช่น o1-mini ของ OpenAI ที่ใช้เทคนิคคิดวิเคราะห์ก่อนตอบคำถาม
  2. ร่างกฎหมาย HB 1709 ของเท็กซัส มุ่งเน้นการใช้งาน AI ที่เกี่ยวข้องกับสิทธิมนุษยชนและการตัดสินใจที่กระทบโอกาสต่างๆ แม้ดีที่ครอบคลุม AI แคบและ AI ขั้นสูง แต่ข้อกำหนดเรื่องแผนบริหารความเสี่ยงกับผลกระทบทางอัลกอริทึม มันหนักหนามากจนอาจทำให้ธุรกิจเล็กๆ ไม่กล้าใช้ AI และทำให้นวัตกรรมลดลง เพราะกลัวภาระจากกฎเกณฑ์

สรุป: เน้นองค์กรผู้พัฒนา AI เป็นทางเลือกที่เวิร์กสุด?

หลักการง่ายๆ ก็คือ ใหญ่ๆ ที่ลงทุนหนักใน AI ขั้นสูงจริงๆ นี่แหละ ที่ควรถูกกำกับดูแลเข้ม เพราะเขาคือผู้เล่นหลักที่สร้างความเสี่ยงในวงกว้าง พร้อมทั้งมีระบบภายในที่ควบคุมความปลอดภัย ความลับอัลกอริทึม และบริหารความเสี่ยงได้

ถ้ารัฐบาลจะใช้วิธีนี้ก็อาจตั้งเกณฑ์ที่ชัดเจน เช่น:

  • องค์กรใดที่ลงทุนในงานวิจัยและพัฒนา AI เกินพันล้านดอลลาร์ต่อปี
  • องค์กรใดที่ใช้พลังการประมวลผลสูงสุดในการฝึกโมเดล

วิธีนี้จะช่วย:

  • ลดภาระกับธุรกิจเล็กๆ
  • หลีกเลี่ยงการสร้างกฎเกณฑ์ที่ยุ่งยากและตามไม่ทันเทคโนโลยี
  • ทำให้ตรวจสอบกิจกรรมเสี่ยงได้แบบครอบคลุม ทั้งการเปิดเผยความเสี่ยงใหม่ๆ และการมีเจ้าหน้าที่บริหารความเสี่ยงหรือผู้ตรวจสอบอิสระ

แต่แน่นอนว่าวิธีนี้ก็ไม่เหมาะกับทุกสถานการณ์ เช่น อาจเกิดการหลีกเลี่ยงกฎหมายผ่านการตั้งบริษัทลูกหลายแห่ง หรืองานวิจัยที่ทำให้อันตรายกระจายออกไป อะไรแบบนี้

สุดท้าย คนเขียนเลยแนะนำว่า ควรลดความสำคัญของแนวทางกำกับดูแลที่เน้นโมเดลหรือการใช้งานลง และหันมาเน้นกำกับดูแลที่องค์กรพัฒนา AI ขั้นสูงจะดีที่สุด เพราะเป็นทางที่ค่อนข้างเหมาะกับสถานการณ์ของ AI ในปัจจุบันและอนาคต

ที่มาของข้อมูล https://carnegieendowment.org/research/2025/06/artificial-intelligence-regulation-united-states?lang=en