แคสเปอร์สกี้เผย AI สามารถกระตุ้นให้โจรไซเบอร์รู้สึกผิดน้อยลง และโทษ AI ที่ทำงานมุ่งร้ายแทนตน

ผู้เชี่ยวชาญของแคสเปอร์สกี้ (Kaspersky) เปิดเผยการวิเคราะห์ผลที่ตามมาของ AI (Artificial Intelligence) ที่เป็นไปได้ โดยเฉพาะอย่างยิ่งอันตรายทางจิตวิทยาที่อาจเกิดขึ้นได้จากเทคโนโลยี AI นี้

นายวิทาลี คัมลัก หัวหน้าศูนย์วิจัยประจำเอเชียแปซิฟิก ทีมวิจัยและวิเคราะห์ระดับโลกของแคสเปอร์สกี้ (Global Research and Analysis Team – GReAT) เปิดเผยว่า เนื่องจากอาชญากรไซเบอร์ใช้ AI เพื่อกระทำการที่เป็นอันตราย โดยสามารถโยนความผิดให้กับเทคโนโลยี และรู้สึกไม่ต้องรับผิดชอบต่อผลกระทบของการโจมตีทางไซเบอร์ของตน ซึ่งสิ่งนี้นำไปสู่ “การไม่รู้สึกผิดชอบชั่วดีจากการเว้นระยะห่างจากเหยื่อ” (suffering distancing syndrome)

“นอกเหนือจากภัยคุกคามทางเทคนิคของ AI แล้ว ยังมีอันตรายทางจิตวิทยาที่อาจเกิดขึ้นได้ อาชญากรไซเบอร์มักมีอาการที่ต้องทนทุกข์ทรมานจากการเว้นระยะห่างจากเพื่อนร่วมงาน การทำร้ายคนบนท้องถนนทำให้อาชญากรเกิดความเครียดอย่างมากเพราะตนได้จะเห็นความทุกข์ทรมานของเหยื่อ แต่อาการนี้ใช้ไม่ได้กับอาชญากรรมออนไลน์ต่อเหยื่อที่ตนไม่เคยเห็นมาก่อน การสร้าง AI ที่สามารถทำเงินหรือผลกำไรที่ผิดกฎหมายทำให้อาชญากรออกห่างจากความรู้สึกผิดออกไปอีก เพราะคิดว่าไม่ใช่ฝีมือของตน แต่เป็น AI ที่ต้องรับผิด” นายวิทาลีอธิบาย

ผลกระทบทางจิตวิทยาอีกประการหนึ่งของ AI ที่อาจส่งผลกระทบต่อทีมรักษาความปลอดภัยด้านไอทีก็คือเรื่อง “ความรับผิดชอบต่องานที่ได้รับมอบหมาย” (responsibility delegation) เนื่องจากกระบวนการและเครื่องมือด้านความปลอดภัยทางไซเบอร์ทำงานอัตโนมัติ และจ่ายงานให้กับโครงข่าย AI มากขึ้น มนุษย์จึงอาจรู้สึกรับผิดชอบน้อยลงหากเกิดการโจมตีทางไซเบอร์ โดยเฉพาะอย่างยิ่งในการตั้งค่าความปลอดภัยต่างๆ ของบริษัท

“ผลกระทบที่คล้ายกันนี้อาจกับผู้ดูแลรักษาความปลอดภัย โดยเฉพาะอย่างยิ่งในภาคธุรกิจที่เต็มไปด้วยความรับผิดชอบด้านความปลอดภัย และการปฏิบัติตามกฎระเบียบที่เป็นทางการ ระบบการป้องกันที่ชาญฉลาดอาจกลายเป็นแพะรับบาป นอกจากนี้ การมีระบบขับเคลื่อนอัตโนมัติที่เป็นอิสระอย่างสมบูรณ์จะช่วยลดความสนใจของมนุษย์ที่ทำหน้าที่ดูแล” นายวิทาลีกล่าวเสริม

นายวิทาลีได้แบ่งปันแนวทางปฏิบัติบางประการเพื่อการใช้คุณประโยชน์ของ AI อย่างปลอดภัย

  1. การเข้าถึง – เราต้องจำกัดการเข้าถึงโดยไม่เปิดเผยตัวตนสำหรับระบบอัจฉริยะที่แท้จริงที่สร้างขึ้นและฝึกอบรมเกี่ยวกับปริมาณข้อมูลขนาดใหญ่ ควรเก็บประวัติของเนื้อหาที่สร้างขึ้น และระบุวิธีการสร้างเนื้อหาสังเคราะห์

เช่นเดียวกับ WWW ควรมีขั้นตอนในการจัดการกับการละเมิดและการใช้ AI ในทางที่ผิด รวมถึงข้อมูลที่ชัดเจนเพื่อรายงานการละเมิด ซึ่งสามารถตรวจสอบได้ด้วยข้อมูลสนับสนุน AI บรรทัดแรก และหากจำเป็นในบางกรณี ก็จะต้องให้มนุษย์เป็นผู้ตรวจสอบ

  1. กฎระเบียบ – สหภาพยุโรปได้เริ่มหารือเกี่ยวกับการทำเครื่องหมายเนื้อหาที่สร้างขึ้นด้วยความช่วยเหลือของ AI ด้วยวิธีนี้ อย่างน้อยผู้ใช้จะมีวิธีที่รวดเร็วและเชื่อถือได้ในการตรวจจับภาพ เสียง วิดีโอ หรือข้อความที่สร้างโดย AI แต่ผู้กระทำความผิดนั้นมีส่วนน้อยและจะต้องคอยหลบหลีกและและซ่อนตัวอยู่เสมอ

สำหรับนักพัฒนา AI อาจสมเหตุสมผลที่จะมีไลเซนซ์อนุญาตใช้งาน AI ดังกล่าว เนื่องจากระบบอาจเป็นอันตรายได้ เป็นเทคโนโลยีที่ใช้ได้สองทาง เช่นเดียวกับอุปกรณ์ทางการทหารหรืออุปกรณ์ที่ใช้ได้ทั้งทางดีและทางร้ายอื่นๆ การพัฒนาจะต้องได้รับการควบคุม รวมถึงข้อจำกัดในการนำไฟล์ออกตามที่จำเป็น

  1. การศึกษา – ประสิทธิผลสูงสุดสำหรับทุกคน คือการสร้างความตระหนักเกี่ยวกับวิธีการตรวจจับเนื้อหาปลอม วิธีตรวจสอบความถูกต้อง และวิธีการรายงานการละเมิดที่อาจเกิดขึ้น

โรงเรียนควรสอนแนวคิดว่า AI แตกต่างจากความฉลาดตามธรรมชาติอย่างไร และ AI จะเชื่อถือได้หรือสร้างความเสียหายได้เพียงใด

นอกจากนี้ ผู้เขียนโค้ดซอฟต์แวร์ต้องได้รับการสอนให้ใช้เทคโนโลยีอย่างมีความรับผิดชอบ และทราบถึงบทลงโทษสำหรับการละเมิดเทคโนโลยี

“บางคนคาดการณ์ว่า AI จะเป็นศูนย์กลางแห่งวันสิ้นโลก ซึ่งจะทำลายอารยธรรมของมนุษย์ ผู้บริหารระดับ C หลายคนของบริษัทขนาดใหญ่ถึงกับแสดงตัวและเรียกร้องให้มีการชะลอ AI เพื่อป้องกันภัยพิบัตินี้ ในความเป็นจริงการเพิ่มขึ้นของ Generative AI ทำให้เราได้เห็นความก้าวหน้าของเทคโนโลยีที่สามารถสังเคราะห์เนื้อหาที่คล้ายคลึงกับสิ่งที่มนุษย์ทำได้ ตั้งแต่รูปภาพไปจนถึงเสียง วิดีโอ ดีพเฟค และแม้แต่การสนทนาแบบข้อความที่แยกไม่ออกจากว่ามนุษย์หรือ AI ทั้งนี้ความก้าวหน้าทางเทคโนโลยีส่วนใหญ่ก็เป็นดาบสองคมรวมถึง AI ด้วย เราสามารถใช้งานเพื่อประโยชน์ของเราได้ตลอดเวลา ตราบใดที่เรารู้วิธีกำหนดคำสั่งที่ปลอดภัยสำหรับเครื่องจักรอัจฉริยะเหล่านี้” นายวิทาลีกล่าวสรุป

แคสเปอร์สกี้จะสานต่อการอภิปรายเกี่ยวกับอนาคตของความปลอดภัยทางไซเบอร์ที่งาน “Kaspersky Security Analyst Summit (SAS) 2023” ซึ่งจะจัดขึ้นที่จังหวัดภูเก็ต ประเทศไทย ตั้งแต่วันที่ 25 ถึง 28 ตุลาคม 2566 สำหรับนักวิจัยที่มีความสามารถสูงด้านการป้องกันมัลแวร์ หน่วยงานบังคับใช้กฎหมายระดับโลก ทีมตอบสนองเหตุฉุกเฉินทางคอมพิวเตอร์ และผู้บริหารระดับสูงจากบริษัทบริการด้านการเงิน เทคโนโลยี การดูแลสุขภาพ สถาบันการศึกษา และหน่วยงานภาครัฐจากทั่วโลก ผู้สนใจสามารถทราบข้อมูลเพิ่มเติมได้ที่เว็บไซต์

https://thesascon.com/#participation-opportunities

 

ที่มา: พิตอน คอมมิวนิเคชั่น