Gartner, Inc., a business and technology insights company, identified critical blind spots stemming from overlooked risks and unintended consequences of generative AI (GenAI) adoption. Chief information officers (CIOs) must proactively address these hidden challenges to ensure GenAI value realization and avoid AI project failures.
“GenAI technologies and techniques are evolving at an unprecedented pace, matched only by the surrounding hype, which makes it challenging for CIOs to navigate this dynamic landscape,” said Arun Chandrasekaran, Distinguished VP Analyst at Gartner.
While organizations often focus on immediate GenAI challenges such as business value, security and data readiness, they may overlook critical blind spots because these are second- or third-order effects that are not often visible upfront. Risks like shadow AI, technical debt, skills erosion, data sovereignty demands, interoperability issues and vendor lock-in represent hidden undercurrents that can undermine long-term success.
Gartner predicts that by 2030 these blind spots will create the dividing line between enterprises that scale AI safely and strategically and those that become locked in, outpaced or disrupted from within.
To stay competitive and resilient, CIOs must tackle both visible challenges and hidden risks tied to GenAI adoption and prioritize addressing the following blind spots:
Explosion of Shadow AI
A Gartner survey of 302 cybersecurity leaders in March – May 2025 revealed that 69% of organizations suspect or have evidence that employees are using prohibited public GenAI.
The rapid adoption of unsanctioned AI tools can lead to both visible and invisible impacts such as IP loss, data exposure and increased security risks. Gartner predicts that by 2030 more than 40% of enterprises will experience security or compliance incidents linked to unauthorized shadow AI.
“To address these risks, CIOs should define clear enterprise-wide policies for AI tool usage, conduct regular audits for shadow AI activity and incorporate GenAI risk evaluation into their SaaS assessment processes,” said Chandrasekaran.
AI Technical Debt
Gartner predicts that by 2030, 50% of enterprises will face delayed AI upgrades and/or rising maintenance costs due to unmanaged GenAI technical debt.
“Enterprises are excited about GenAI’s speed of delivery. However, the punitively high cost of maintaining, fixing or replacing AI-generated artifacts such as code, content and design, can erode GenAI’s promised return on investments,” said Chandrasekaran. “By establishing clear standards for reviewing and documenting AI-generated assets and tracking technical debt metrics in IT dashboards, enterprises can take proactive steps to prevent costly disruptions.”
Rising Demand for Data and AI Sovereignty
Gartner predicts that by 2028, 65% of governments worldwide will introduce some technological sovereignty requirements to improve independence and protect from extraterritorial regulatory interference.
Regulatory constraints on cross-border data or model sharing can slow down enterprise-wide AI deployments, increase total cost of ownership (TCO) and result in suboptimal outcomes.
To address these challenges, CIOs must build data sovereignty into their AI strategies from the start by engaging legal and compliance teams early on and prioritize vendors who meet their data and AI sovereignty requirements.
Skills Erosion
Over-reliance on AI can erode critical human expertise, judgment and tacit knowledge that are not easily codified or replaceable. This erosion occurs gradually and often goes unnoticed, so CIOs may not recognize the risk until the enterprise struggles to function without AI or when AI fails in edge cases that require human intuition.
“To prevent the gradual loss of enterprise memory and capability, organizations should identify where human judgment and craftsmanship are essential, designing AI solutions to complement, not replace, these skills,” Chandrasekaran said.
Ecosystem Lock-In and Interoperability
Enterprises eager to harness GenAI’s potential at scale often choose a single vendor for speed and simplicity. This deep dependency can impact an enterprise’s technical agility and future negotiation power on pricing, terms or service levels.
Many CIOs underestimate how closely their data, models or workflows become tied to vendor-specific APIs, data lakes and platform tools.
“Prioritizing open standards, open APIs and modular architectures in AI stack design, help enterprises avoid vendor lock-ins,” said Chandrasekaran. “In addition, CIOs must make interoperability a standard in GenAI pilots and assessments.”
การ์ทเนอร์ อิงก์ บริษัทที่ให้ข้อมูลเชิงลึกด้านธุรกิจและเทคโนโลยี ชี้จุดบอดสำคัญที่เกิดจากความเสี่ยงจากการนำ Generative AI มาใช้งาน ที่ผู้บริหารไอทีมักมองข้ามและส่งผลกระทบตามมาโดยไม่ได้ตั้งใจ โดยผู้บริหาร CIO ต้องให้ความสำคัญ เร่งแก้ไขความท้าทายที่ซ่อนเร้นเหล่านี้ในแบบเชิงรุก เพื่อให้มั่นใจว่าจะได้รับคุณค่าจากการนำ GenAI มาใช้งาน และหลีกเลี่ยงความล้มเหลวในโครงการ AI
อรุณ จันทรเศกการัน (Arun Chandrasekaran) รองประธานนักวิเคราะห์การ์ทเนอร์ กล่าวว่า “เทคโนโลยีและเทคนิคการใช้งานของ GenAI กำลังพัฒนารุดหน้าไปอย่างรวดเร็วอย่างที่ไม่เคยเกิดมาก่อน พร้อม ๆ กับความคาดหวังที่สูงลิ่วขององค์กรผู้ใช้ นั่นทำให้ผู้บริหาร CIO ต้องเผชิญความท้าทายของการเป็นผู้นำท่ามกลางภูมิทัศน์ที่เปลี่ยนแปลงตลอดเวลานี้”
แม้องค์กรต่าง ๆ จะให้ความสำคัญกับความท้าทายเร่งด่วนของ GenAI อาทิ คุณค่าทางธุรกิจ ความปลอดภัย และความพร้อมของข้อมูล แต่พวกเขาอาจมองข้ามจุดบอดสำคัญเหล่านี้ เนื่องจากเป็นผลกระทบในระดับรอง ๆ ลงมาที่ไม่ค่อยปรากฏให้เห็นอย่างชัดเจนตั้งแต่แรก โดยความเสี่ยงอย่าง Shadow AI, หนี้ทางเทคนิค (Technical Debt), การเสื่อมถอยของทักษะ (Skills Erosion), ความต้องการด้านอธิปไตยข้อมูล (Data Sovereignty), ปัญหาการทำงานร่วมกัน (Interoperability Issues) และการผูกติดกับผู้ให้บริการรายเดียว (Vendor Lock-In) ล้วนเป็นคลื่นใต้น้ำที่บดบัง และบ่อนทำลายความสำเร็จในระยะยาว
การ์ทเนอร์ คาดการณ์ว่าภายในปี 2573 จุดบอดเหล่านี้จะสร้างเส้นแบ่งระหว่างองค์กรที่นำ AI มาใช้ได้อย่างปลอดภัยและมีกลยุทธ์ กับองค์กรที่ติดกับดัก ล้าหลัง หรือถูกรบกวนจากภายใน
เพื่อรักษาขีดความสามารถในการแข่งขันและความยืดหยุ่น ผู้บริหาร CIO ต้องจัดการทั้งความท้าทายที่มองเห็นได้และความเสี่ยงที่ซ่อนเร้นอยู่ในการนำ GenAI มาใช้ พร้อมจัดลำดับความสำคัญเพื่อแก้ไขจุดบอดเหล่านี้ได้อย่างเหมาะสม ดังนี้:
การปะทุของการแอบใช้ AI ในทางลับ ๆ (Explosion of Shadow AI)
ผลสำรวจการ์ทเนอร์ของผู้นำด้านความปลอดภัยทางไซเบอร์จำนวน 302 ราย ระหว่างเดือนมีนาคม-พฤษภาคม ปี 2568 เผยว่า 69% ขององค์กรสงสัยหรือมีหลักฐานว่าพนักงานกำลังใช้ GenAI สาธารณะที่ต้องห้าม
การนำเครื่องมือ AI ที่ไม่ได้รับอนุญาตมาใช้อย่างรวดเร็วอาจนำไปสู่ผลกระทบทั้งที่มองเห็นและมองไม่เห็น เช่น การละเมิดทรัพย์สินทางปัญญา การเปิดเผยข้อมูล และความเสี่ยงด้านความปลอดภัยที่เพิ่มขึ้น การ์ทเนอร์คาดการณ์ว่า ภายในปี 2573 มากกว่า 40% ขององค์กรจะเผชิญเหตุการณ์ด้านความปลอดภัยหรือการปฏิบัติตามข้อกำหนดที่เชื่อมโยงกับ Shadow AI ที่ไม่ได้รับอนุญาต
“เพื่อจัดการกับความเสี่ยงเหล่านี้ CIO ควรกำหนดนโยบายสำหรับการใช้เครื่องมือ AI ทั่วทั้งองค์กรที่ชัดเจนเพื่อดำเนินการตรวจสอบกิจกรรม Shadow AI เป็นประจำ และบูรณาการการประเมินความเสี่ยง GenAI เข้ากับกระบวนการประเมินและตรวจสอบซอฟต์แวร์บริการ (SaaS Assessment Processes) เพื่อให้แน่ใจว่าตอบโจทย์ธุรกิจ ทั้งด้านประสิทธิภาพ ความปลอดภัย การใช้งาน และการปฏิบัติตามข้อกำหนด” อรุณกล่าวเพิ่มเติม
หนี้ทางเทคนิคจาก AI (AI Technical Debt)
การ์ทเนอร์คาดการณ์ว่า ภายในปี 2573 องค์กร 50% จะเผชิญกับการอัปเกรด AI ที่ล่าช้าและ/หรือต้นทุนการบำรุงรักษาที่เพิ่มขึ้นเนื่องจากหนี้ทางเทคนิคของ GenAI ที่ไม่ได้รับการจัดการ
อรุณให้ความเห็นเสริมว่า “องค์กรต่าง ๆ ตื่นเต้นกับความเร็วในการตอบสนองของ GenAI แต่ด้วยต้นทุนที่สูงลิ่วในการบำรุงรักษา แก้ไข หรือปรับเปลี่ยนสิ่งที่ AI สร้างขึ้น เช่น โค้ด เนื้อหา และการออกแบบ อาจกัดกร่อนผลตอบแทนที่ได้จากการลงทุนตามที่ GenAI สัญญาไว้ ดังนั้นการจัดทำมาตรฐานที่ชัดเจนสำหรับการตรวจสอบและจัดทำเอกสารสินทรัพย์ที่ AI สร้างขึ้น และติดตามตัวชี้วัดหนี้สินทางเทคนิคในแดชบอร์ด IT จะช่วยให้องค์กรสามารถดำเนินการได้แบบเชิงรุกเพื่อป้องกันการหยุดชะงักที่มีค่าใช้จ่ายสูง”
ความต้องการด้านอธิปไตยข้อมูลและ AI ที่เพิ่มขึ้น (Rising Demand for Data and AI Sovereignty)
การ์ทเนอร์คาดการณ์ว่า ภายในปี 2571 รัฐบาล 65% ทั่วโลกจะนำข้อกำหนดด้านอธิปไตยทางเทคโนโลยีมาใช้เพื่อเพิ่มความเป็นอิสระและป้องกันการแทรกแซงด้านกฎระเบียบจากต่างแดน
ข้อจำกัดด้านกฎระเบียบเกี่ยวกับการแบ่งปันข้อมูลหรือใช้โมเดลการแบ่งปันข้อมูลแบบข้ามประเทศ (Cross-Border Data) สามารถชะลอการปรับใช้ AI ทั่วทั้งองค์กร เพิ่มต้นทุนรวมของการเป็นเจ้าของระบบไอทีต้นทุนการเป็นเจ้าของทั้งหมด (Total cost of Ownership หรือ TCO) และส่งผลให้ได้ผลลัพธ์ที่ไม่เหมาะสม
เพื่อจัดการกับความท้าทายเหล่านี้ CIO ต้องสร้างอธิปไตยข้อมูล (Data Sovereignty) ใส่เข้าไปในกลยุทธ์ AI ตั้งแต่เริ่มต้น โดยการให้ทีมกฎหมายเข้ามามีส่วนร่วมตั้งแต่เนิ่น ๆ และจัดลำดับความสำคัญของผู้ให้บริการที่ตอบสนองความต้องการด้านอธิปไตยข้อมูลและ AI
การเสื่อมถอยของทักษะ (Skills Erosion)
การพึ่งพา AI มากเกินไปอาจกัดกร่อนความเชี่ยวชาญ การตัดสินใจ และความรู้โดยนัยของมนุษย์ที่มีความสำคัญ ซึ่งไม่สามารถถ่ายทอดหรือทดแทนได้ง่าย ๆ โดยการเสื่อมถอยของทักษะนี้เกิดขึ้นอย่างค่อยเป็นค่อยไปและมักไม่มีใครสังเกตเห็น ดังนั้นผู้บริหาร CIO อาจไม่รับรู้ถึงความเสี่ยงจนกว่าองค์กรจะมีปัญหาในการทำงานเมื่อไม่ได้ใช้งาน AI หรือเมื่อ AI เกิดการล้มเหลวเป็นกรณีพิเศษและต้องใช้สัญชาตญาณมนุษย์เข้ามาช่วย
“เพื่อป้องกันการสูญเสียความรู้และความสามารถขององค์กรไปเรื่อย ๆ องค์กรควรระบุว่าการตัดสินใจและงานที่เกิดจากฝีมือของมนุษย์นั้นมีความจำเป็นในด้านใด และออกแบบโซลูชัน AI เพื่อเสริม ไม่ใช่มาแทนที่ทักษะเหล่านี้” อรุณกล่าว
การผูกติดกับระบบนิเวศและทำงานกับผู้ให้บริการเดียว (Ecosystem Lock-In and Interoperability)
องค์กรที่มุ่งมั่นนำศักยภาพ GenAI มาใช้ประโยชน์ในวงกว้าง มักเลือกผู้ให้บริการเพียงรายเดียวเพื่อความรวดเร็วและความง่าย ซึ่งการพึ่งพาเชิงลึกนี้ส่งผลกระทบต่อความคล่องตัวทางเทคนิคและอำนาจในการต่อรองเจรจาเกี่ยวกับด้านราคา เงื่อนไข หรือระดับการให้บริการในอนาคต
ผู้บริหาร CIO จำนวนมากมักประเมินความเชื่อมโยงระหว่างข้อมูล โมเดล หรือเวิร์กโฟลว์การทำงานต่ำไป และยึดติดกับ API ที่ออกแบบมาเฉพาะจากผู้ให้บริการ ไม่ว่าจะเป็นพื้นที่จัดเก็บข้อมูล (Data Leaks) และเครื่องมือที่มีบนแพลตฟอร์ม (Platform Tools)
“การจัดลำดับความสำคัญของมาตรฐานเปิด API และสถาปัตยกรรมแบบโมดูลาร์เพื่อออกแบบชุดเทคโนโลยี AI จะช่วยให้องค์กรสามารถหลีกเลี่ยงการผูกติดกับผู้ให้บริการรายใดรายหนึ่งมากจนเกินไป นอกจากนี้ผู้บริหาร CIO ต้องสร้างมาตรฐานการทำงานร่วมกันในโครงการนำร่อง GenAI และมีการประเมินผล” อรุณกล่าวสรุป