Fifty percent of all enterprise cybersecurity incident response efforts will focus on incidents involving custom-built AI-driven applications by 2028, according to Gartner, Inc., a business and technology insights company.
Christopher Mixter, VP Analyst at Gartner said: “AI is evolving quickly, yet many tools – especially custom-built AI applications – are being deployed before they’re fully tested. These systems are complex, dynamic and difficult to secure over time. Most security teams still lack clear processes for handling AI-related incidents, which means issues can take longer to resolve and require far more effort.”
Gartner recommends security leaders get involved early in custom-built AI application projects to ensure sufficient time exists, resources are planned and expectations are managed for adequate security controls.
This is one of Gartner’s top cybersecurity predictions being unveiled at the Summit recently. Gartner recommends cybersecurity leaders factor these predictions into their security strategies over the next two years.
By 2028, more than 50% of enterprises will use AI security platforms to secure third-party AI service usage and protect custom-built AI applications.
AI security platforms give organizations a unified way to manage the new risks associated with rapid AI adoption, such as prompt injection, data misuse and more. Centralizing visibility and control, these platforms help CISOs enforce use policies, monitor AI activity and apply consistent security guardrails across third-party and custom AI applications. Security leaders must evaluate AI security platforms to ensure they can secure both forms of applications.
Through 2027, manual AI compliance processes will expose 75% of regulated organizations to fines exceeding 5% of their global revenue.
Despite the distinct approaches to regulation globally, AI regulations converge on a universal demand for a systematic risk management approach. Even if CISOs can keep ahead of security, privacy and cyber risk management regulations and standards, new regulations covering AI safety call everything into question. For greater success, Gartner recommends establishing cyber governance risk and compliance, and enabling compliance through technology.
Through 2030, 33% of IT work will be spent remediating AI data debt to secure AI.
Most organizations’ data is not AI‑ready, with poorly secured and unstructured data a major barrier to AI adoption. In response, cybersecurity leaders are expanding data loss prevention to monitor and restrict data flows triggered by GenAI and agentic AI data access events and requests. Gartner recommends they collaborate with data and analytics and AI leaders to define a structured program of data discovery, assessment and access control remediation.
By 2027, 30% of organizations will require comprehensive sovereignty of their cloud security controls to address continued geopolitical turmoil.
Geopolitical turmoil and local regulations are creating untenable data risks, which require many organizations to make sovereignty a key part of their cyber resilience approach. This will necessitate changes in vendor selection for cloud-tethered offerings and prioritization efforts as geopatriation requirements intensify. Cybersecurity leaders must play an active role in defining organizational sovereignty requirements, including those required by local regulations.
By 2028, 70% of CISOs will use identity visibility and intelligence capabilities to shrink the IAM attack surface, reducing the risks of credential compromise.
Identity has become a primary attack surface as organizations struggle to manage the rapid growth and complexity of human and machine identities. This leaves visibility gaps left by isolated identity and access management (IAM) tools and increases the risk of misconfigurations. Gartner recommends these blind spots be addressed by integrating unified, AI‑powered identity visibility and intelligence platforms to improve detection and remediation.
การ์ทเนอร์ อิงก์ บริษัทวิจัยและให้คำปรึกษาด้านธุรกิจและเทคโนโลยีเปิดเผยว่าภายในปี 2571 กว่าครึ่ง (50%) ของการตอบสนองต่ออุบัติการณ์ทางความมั่นคงทางไซเบอร์ขององค์กรจะมุ่งเน้นไปที่เหตุการณ์ที่เกี่ยวข้องกับแอปพลิเคชัน AI ที่พัฒนาขึ้นเอง
Christopher Mixter รองประธานนักวิเคราะห์ของการ์ทเนอร์ กล่าวว่า “AI กำลังพัฒนาไปอย่างรวดเร็ว แต่เครื่องมือจำนวนมากโดยเฉพาะแอปพลิเคชัน AI ที่องค์กรพัฒนาขึ้นเองกลับถูกนำมาใช้งานทั้งที่ยังไม่ผ่านการทดสอบอย่างสมบูรณ์ ระบบเหล่านี้มีความซับซ้อน เปลี่ยนแปลงตลอดเวลาและควบคุมความปลอดภัยในระยะยาวได้ยาก นอกจากนี้ทีมงานด้านความปลอดภัยส่วนใหญ่ยังขาดกระบวนการที่ชัดเจนในการจัดการกับอุบัติการณ์ที่เกี่ยวข้องกับ AI ซึ่งส่งผลให้การแก้ไขปัญหาอาจใช้เวลานานขึ้น และต้องใช้ความพยายามมากขึ้นอย่างมหาศาล”
การ์ทเนอร์แนะนำให้ผู้นำด้านความมั่นคงทางไซเบอร์ เข้าไปมีส่วนร่วมในโครงการพัฒนาแอปพลิเคชัน AI ตั้งแต่ระยะเริ่มต้น เพื่อให้มั่นใจว่ามีระยะเวลาดำเนินการที่เพียงพอ มีการวางแผนทรัพยากรและมีการจัดการความคาดหวังเพื่อให้เกิดมาตรการควบคุมความปลอดภัยที่เหมาะสม
นี่คือหนึ่งในบทวิเคราะห์คาดการณ์ด้านความมั่นคงปลอดภัยไซเบอร์ที่สำคัญที่สุดของการ์ทเนอร์ที่เปิดเผยไปเมื่อเร็ว ๆ นี้ โดยการ์ทเนอร์แนะนำให้ผู้นำด้านความปลอดภัยนำปัจจัยเหล่านี้ไปประกอบการวางกลยุทธ์ด้านความมั่นคงปลอดภัยในช่วงสองปีข้างหน้า
ภายในปี 2571 องค์กรกว่า 50% จะใช้งาน แพลตฟอร์มความปลอดภัย AI หรือ AI Security Platforms เพื่อควบคุมดูแลการใช้บริการ AI จากภายนอกและปกป้องแอปพลิเคชัน AI ที่พัฒนาขึ้นเอง
แพลตฟอร์มเหล่านี้ช่วยให้องค์กรบริหารจัดการความเสี่ยงใหม่ ๆ ที่มาพร้อมกับการนำ AI มาใช้อย่างรวดเร็วได้แบบรวมศูนย์ เช่น การโจมตีแบบ Prompt Injection, การนำข้อมูลไปใช้ในทางที่ผิด และอื่น ๆ ด้วยการรวมศูนย์และการควบคุมนี้ จะช่วยให้ CISO สามารถบังคับใช้นโยบายการใช้งาน ตรวจสอบกิจกรรมของ AI และวางแนวทางความปลอดภัย ให้สอดคล้องกันทั้งในแอปพลิเคชันภายนอกและแอปพลิเคชันที่สร้างขึ้นเอง ผู้นำด้านความปลอดภัยจึงควรประเมินแพลตฟอร์มความปลอดภัย AI เพื่อให้มั่นใจว่าสามารถครอบคลุมการใช้งานได้ทั้งสองรูปแบบ
กระบวนการตรวจสอบการปฏิบัติตามกฎระเบียบ AI แบบแมนนวล จะส่งผลให้ 75% ขององค์กรที่อยู่ภายใต้การกำกับดูแล เสี่ยงต่อการถูกปรับเงินเกิน 5% ของรายได้รวมทั่วโลกจนถึงปี 2570
แม้แนวทางการกำกับดูแลทั่วโลกจะมีความแตกต่างกัน แต่กฎระเบียบด้าน AI ในภาพรวมมีเป้าหมายร่วมกันคือ การเรียกร้องให้มี “แนวทางการจัดการความเสี่ยงอย่างเป็นระบบ” ถึงแม้ CISO จะสามารถปรับตัวตามมาตรฐานด้านความปลอดภัย ความเป็นส่วนตัว และการจัดการความเสี่ยงทางไซเบอร์ได้ทัน แต่กฎระเบียบใหม่ ๆ ที่ครอบคลุมเรื่องความปลอดภัยของ AI (AI Safety) กำลังสร้างความท้าทายใหม่ในทุกมิติ เพื่อความสำเร็จที่ดียิ่งขึ้น การ์ทเนอร์แนะนำให้จัดทำระบบธรรมาภิบาล ความเสี่ยง และการปฏิบัติตามกฎเกณฑ์ (Cyber GRC) พร้อมขับเคลื่อนการปฏิบัติตามกฎระเบียบผ่านการใช้เทคโนโลยี
จนถึงปี 2573, 33% ของงานด้านไอทีจะถูกใช้ไปกับการจัดการ AI Data Debt เพื่อสร้างความปลอดภัยให้กับระบบ AI
ข้อมูลในองค์กรส่วนใหญ่ยังไม่พร้อมสำหรับ AI โดยเฉพาะอุปสรรคสำคัญในการนำ AI มาใช้ ได้แก่ข้อมูลที่ไม่มีโครงสร้างและการรักษาความปลอดภัยที่หละหลวม เพื่อตอบสนองต่อปัญหานี้ ผู้นำด้านความมั่นคงปลอดภัยไซเบอร์กำลังขยายขอบเขตระบบป้องกันข้อมูลรั่วไหล เพื่อเฝ้าระวังและจำกัดการไหลของข้อมูลที่เกิดขึ้นจาก GenAI และการร้องขอเข้าถึงข้อมูลของ Agentic AI การ์ทเนอร์แนะนำให้ประสานงานร่วมกับผู้นำด้านข้อมูล และผู้นำด้าน AI เพื่อกำหนดโครงการอย่างเป็นระบบในการค้นหาข้อมูล การประเมิน และการแก้ไขการควบคุมการเข้าถึง
30% ขององค์กรจะต้องการอธิปไตยเหนือระบบควบคุมความปลอดภัยบนคลาวด์อย่างครอบคลุม เพื่อรับมือกับความผันผวนทางภูมิรัฐศาสตร์ที่เกิดขึ้นอย่างต่อเนื่องภายในปี 2570
ความวุ่นวายทางภูมิรัฐศาสตร์และกฎระเบียบในแต่ละประเทศ กำลังสร้างความเสี่ยงด้านข้อมูลที่ยากจะจัดการ บีบให้หลายองค์กรต้องยกเรื่องอธิปไตยด้านข้อมูล (Sovereignty) เป็นหัวใจสำคัญของกลยุทธ์การสร้างความยืดหยุ่นทางไซเบอร์ สิ่งนี้จะส่งผลต่อการเลือกผู้ให้บริการสำหรับผลิตภัณฑ์ที่เชื่อมต่อกับคลาวด์ และต้องจัดลำดับความสำคัญใหม่เมื่อข้อกำหนดด้านการจัดเก็บข้อมูลภายในประเทศ เข้มงวดขึ้น ผู้นำความมั่นคงปลอดภัยไซเบอร์ต้องมีบทบาทเชิงรุกในการกำหนดข้อกำหนดด้านอธิปไตยขององค์กร รวมถึงข้อกำหนดตามกฎหมายท้องถิ่น
70% ของ CISO จะใช้ความสามารถด้าน Identity Visibility and Intelligence เพื่อลดพื้นที่การโจมตีของระบบ IAM และลดความเสี่ยงจากการถูกขโมยข้อมูลประจำตัวภายในปี 2571
อัตลักษณ์ หรือ Identity กลายเป็นพื้นที่การโจมตีหลัก เนื่องจากองค์กรประสบปัญหาในการจัดการกับการเติบโตที่รวดเร็วและความซับซ้อนทางอัตลักษณ์ของทั้งมนุษย์และเครื่องจักร สิ่งนี้ทำให้เกิดช่องโหว่ด้านการมองเห็นที่เกิดจากเครื่องมือการจัดการการเข้าถึง (IAM) ที่แยกส่วนกัน และเพิ่มความเสี่ยงจากการตั้งค่าผิดพลาด การ์ทเนอร์แนะนำให้แก้ไขจุดบอดเหล่านี้ด้วยการรวมแพลตฟอร์ม Identity Visibility and Intelligence ที่ขับเคลื่อนด้วย AI แบบรวมศูนย์ เพื่อปรับปรุงการตรวจจับและการแก้ไขปัญหา