การขาดมาตรฐาน AI ที่สอดคล้องกันทั่วโลก ทำให้องค์กรต้องพัฒนากลยุทธ์เฉพาะในระดับภูมิภาค และยังจำกัดความสามารถการขยายตลาดรวมถึงใช้ประโยชน์จาก AI ได้ไม่เต็มที่
การ์ทเนอร์ อิงค์ คาดว่าภายในปี 2570 ปัญหาข้อมูลรั่วไหลที่เกี่ยวข้องกับ AI มากกว่า 40% เกิดจากการใช้ Generative AI ข้ามประเทศอย่างไม่เหมาะสม
ความนิยมใช้งาน GenAI ในหมู่ผู้ใช้งานทั่วไปเติบโตเร็วเกินกว่าแนวทางการพัฒนาด้านการกำกับดูแลข้อมูลและมาตรการรักษาความปลอดภัย ซึ่งสร้างความกังวลอย่างยิ่งต่อการจัดเก็บและประมวลผลข้อมูลในประเทศ (Data Localization) เนื่องจากต้องใช้พลังการประมวลผลแบบรวมศูนย์ (Centralized Computing) สำหรับรองรับเทคโนโลยีเหล่านี้
Joerg Fritsch รองประธานนักวิเคราะห์ของการ์ทเนอร์ กล่าวว่า “การถ่ายโอนข้อมูลข้ามประเทศโดยไม่ตั้งใจมักเกิดขึ้นเนื่องจากขาดการกำกับดูแลที่ไม่เพียงพอ โดยเฉพาะเมื่อมีการรวม GenAI เข้าไว้ในผลิตภัณฑ์ที่มีอยู่ โดยไม่มีคำอธิบายหรือการประกาศที่ชัดเจน องค์กรต่าง ๆ เริ่มสังเกตเห็นการเปลี่ยนแปลงในเนื้อหาที่พนักงานสร้างขึ้นผ่านการใช้เครื่องมือ GenAI แม้เครื่องมือเหล่านี้จะสามารถใช้ในแอปพลิเคชันทางธุรกิจที่ได้รับอนุมัติ แต่ก็มีความเสี่ยงด้านความปลอดภัยหากมีการป้อนคำสั่งที่ละเอียดอ่อนไปยังเครื่องมือ AI และ APIs ที่โฮสต์ตั้งอยู่ในตำแหน่งที่ไม่สามารถระบุได้”
ช่องว่างของการกำหนดมาตรฐาน AI ทั่วโลก นำไปสู่การดำเนินงานที่ไม่มีประสิทธิภาพเพียงพอ
การขาดแนวปฏิบัติที่ดีและมาตรฐานที่สอดคล้องกันทั่วโลกสำหรับการใช้งาน AI รวมถึงการกำกับดูแลข้อมูล ทำให้เกิดความท้าทายเพิ่มขึ้น และเป็นเหตุให้เกิดการแบ่งแยกตลาด รวมถึงบังคับให้องค์กรต้องพัฒนากลยุทธ์ขึ้นเฉพาะแต่ละภูมิภาค ซึ่งอาจจำกัดความสามารถของการขยายการดำเนินงานไปสู่ระดับโลกและรับประโยชน์จากผลิตภัณฑ์และบริการ AI
“ความซับซ้อนของการจัดการการไหลเวียนข้อมูลและการรักษาคุณภาพตามนโยบาย AI ในแต่ละประเทศนั้นอาจทำให้การดำเนินงานไม่มีประสิทธิภาพ โดยองค์กรต้องลงทุนด้านการกำกับดูแล AI ขั้นสูงและเพิ่มความปลอดภัยเพื่อปกป้องข้อมูลที่ละเอียดอ่อนพร้อมปฏิบัติตามกฎระเบียบ และความจำเป็นนี้อาจผลักดันให้ตลาดบริการด้านความปลอดภัย การกำกับดูแล และการปฏิบัติตามกฎระเบียบของ AI เติบโตยิ่งขึ้น รวมถึงโซลูชันเทคโนโลยีที่ช่วยเพิ่มความโปร่งใสและการควบคุมกระบวนการทำงานของ AI” Fritsch กล่าวเพิ่มเติม
องค์กรต้องรีบดำเนินการก่อนที่การกำกับดูแล AI จะกลายเป็นข้อบังคับของโลก
การ์ทเนอร์คาดการณ์ว่าภายในปี 2570 การกำกับดูแล AI หรือ AI Governance จะกลายเป็นข้อกำหนดของกฎหมายและข้อบังคับ AI ที่มีอำนาจบังคับใช้ทั่วโลก
“องค์กรที่ไม่สามารถนำโมเดลการกำกับดูแลและการควบคุม AI มาใช้ได้อย่างบูรณาการ อาจเสียเปรียบในการแข่งขันได้ โดยเฉพาะองค์กรที่กำลังขาดทรัพยากรเพื่อการขยายกรอบการกำกับดูแลข้อมูลที่มีอยู่ให้ทันการเปลี่ยนแปลง” Fritsch กล่าวเพิ่มเติม
เพื่อลดความเสี่ยงจากเหตุการรั่วไหลของข้อมูล AI โดยเฉพาะจากการใช้และถ่ายโอนข้อมูล GenAI ข้ามประเทศอย่างไม่เหมาะสม และเพื่อให้เป็นไปตามข้อปฏิบัติตามกฎระเบียบ การ์ทเนอร์แนะนำกลยุทธ์การดำเนินการสำหรับองค์กรไว้ ดังนี้:
– เพิ่มประสิทธิภาพการกำกับดูแลด้านข้อมูล: องค์กรต้องปฏิบัติตามกฎระเบียบระหว่างประเทศและตรวจสอบการถ่ายโอนข้อมูลข้ามประเทศโดยที่ไม่ตั้งใจ ด้วยการขยายกรอบการกำกับดูแลข้อมูลให้ครอบคลุมถึงแนวทางสำหรับข้อมูลที่ประมวลผลด้วย AI รวมถึงการประเมินผลกระทบของการสืบย้อนข้อมูลและการถ่ายโอนข้อมูลสำหรับประเมินผลกระทบต่อความเป็นส่วนตัวแบบสม่ำเสมอ
– จัดตั้งคณะกรรมการกำกับดูแล: จัดตั้งคณะกรรมการเพื่อเพิ่มการกำกับดูแล AI และมีการสื่อสารที่โปร่งใสเกี่ยวกับการใช้งาน AI และการจัดการข้อมูล โดยคณะกรรมการเหล่านี้ต้องรับผิดชอบการกำกับดูแลทางเทคนิค การจัดการความเสี่ยงและการปฏิบัติตามกฎระเบียบ พร้อมมีการสื่อสารและการรายงานการตัดสินใจ
– เสริมสร้างความปลอดภัยข้อมูล: ใช้เทคโนโลยีขั้นสูง การเข้ารหัส และการปกปิดตัวตนเพื่อปกป้องข้อมูลที่ละเอียดอ่อน ตัวอย่างเช่น ตรวจสอบพื้นที่การประมวลผลที่ปลอดภัย หรือ Trusted Execution Environment (TEE) ในตำแหน่งทางภูมิศาสตร์เฉพาะ และใช้เทคโนโลยีการปกปิดตัวตนขั้นสูง เช่น Differential Privacy เมื่อข้อมูลต้องออกจากภูมิภาคเหล่านี้
– ลงทุนในผลิตภัณฑ์ TRiSM: วางแผนและจัดสรรงบประมาณสำหรับผลิตภัณฑ์และความสามารถด้านการจัดการความไว้วางใจ ความเสี่ยง และความปลอดภัย (TRiSM) ที่ปรับแต่งสำหรับเทคโนโลยี AI รวมถึงการกำกับดูแล AI การกำกับดูแลความปลอดภัยข้อมูล การกรองและแก้ไขคำสั่ง และการสร้างข้อมูลที่ไม่มีโครงสร้างแบบสังเคราะห์ การ์ทเนอร์คาดการณ์ว่าภายในปี 2569 องค์กรที่ใช้การควบคุม AI TRiSM จะใช้ข้อมูลที่ไม่ถูกต้องหรือผิดกฎหมายน้อยลงอย่างน้อย 50% พร้อมลดการตัดสินใจผิดพลาด
