Gartner

Why organisations must block AI browsers – for now

ทำไมองค์กรต้องระงับการใช้ AI Browser ไว้ก่อนในตอนนี้

Write by Dennis Xu VP analyst at Gartner

AI browsers promise to reshape web browsing experiences, making them faster and more intuitive with broader and deeper reach. Yet, their current fit for enterprise use remains too risky for general adoption by most organisations.

AI browsers such as Perplexity Comet and OpenAI’s ChatGPT Atlas have the potential to transform how employees work, shifting from manual navigation to autonomous transactions with the web. By integrating agentic features directly into the web browsing experience, these tools can summarise content, draft emails and autonomously research and purchase products across online stores.

Unlike traditional browsers, AI browsers are beginning to leverage AI agents that not only interpret user intent but can also orchestrate end-to-end workflows. This redefines how individuals and enterprises interact with digital touchpoints – across the web, cloud services, and connected devices.

Despite these capabilities, AI browsers can introduce critical cybersecurity risks. They perform autonomous web navigation and transactions that can bypass traditional controls, which could result in significant data leakage, rogue or inaccurate agent actions or abuse of credentials. Even more concerning is the potential for hidden vulnerabilities yet to be discovered in this nascent technology.

Until these tools mature and robust safeguards are proven, Gartner recommends organisations regard AI browsers as high-risk emerging technology that is still functionally flawed: block for now, then pilot only when the technology becomes more secure and reliable.

Sensitive data leakage to third-party AI services

An AI browser’s summarisation, autonomous navigation, interaction and task completion functions rely on cloud-based back ends. This creates a significant risk of sensitive data leaking beyond organisational boundaries – sometimes without user awareness or consent.

It’s important to conduct a security review of any back-end service powering an AI browser under consideration. If this is deemed not secure for organisational use, block users from downloading or installing AI browsers.

If given the green light to continue to use, educate employees that any content viewed could potentially be sent to the cloud back-end. Ensure they avoid having highly sensitive information active on browser tabs while using sidebar features like summarisation or autonomous actions.

Where possible, experiment only with those tools the organisation already trusts. For example, if Microsoft Edge introduces more agentic functions, it will be an attractive option for enterprises that already store and process sensitive data using Microsoft 365 services.

Erroneous agentic transactions from employees

AI browsers tempt employees to offload repetitive and less interesting tasks, but this comes at a cost. Browsers may fill out forms incorrectly; complete mandatory training without true engagement; or even book incorrect flights due to inaccurate reasoning from large language models.

More critically, AI browsers can be deceived into navigating phishing websites, potentially leading to the loss of corporate credentials and subsequent abuse for initial access.

Mitigate these risks by piloting with users who demonstrate high AI literacy and only on low-risk tasks that don’t involve sensitive data or critical applications. It is important to remind them to closely monitor autonomous navigation by the AI browser. If it behaves unexpectedly or erratically, they should stop the task immediately.

Additionally, update acceptable use policies and provide clear education on prohibited uses for AI browsers, such as those related to completing annual cybersecurity awareness training.

Default settings prioritise user experience over cybersecurity

AI browsers are typically designed with default settings that optimise for end-user experience, rather than cybersecurity best practices. For example, many AI browsers retain usage data by default and may store user information for extended periods.

Develop clear security specifications for any AI browser under consideration and educate pilot users about updating settings to align with enterprise security requirements until centralised management becomes available.

For organisations already piloting an AI browser, disable any data retention features so the provider cannot use searches and interactions to improve their models. Instruct users to regularly delete stored histories or memories to minimise the risk of data leakage.

Additionally, review and make informed decisions about whether features such as email assistants or workflow automation tools may connect to organisational email systems (such as Google Gmail or Microsoft Outlook) or integrate with other enterprise applications.

Critical design flaws and vulnerabilities

As with any emerging technology, AI browsers are susceptible to design flaws and critical vulnerabilities.

For example, a critical vulnerability in OpenAI’s ChatGPT Atlas was found days after its launch, potentially allowing unauthorised access to user accounts. Users were advised to restrict usage to low-risk scenarios only and avoid any experimentation involving sensitive or high-risk data such as personal finance information. Organisations were required to enforce rapid patching and prohibit new downloads or installations until any vulnerabilities were resolved.

The rapid evolution of AI browsers brings both exciting potential and significant risks to enterprises. Until these tools mature and governance frameworks are in place, organisations should block AI browsers to protect sensitive data and maintain control over digital workflows.

Prioritising security now will enable responsible adoption when the technology is ready for enterprise use.

About the author

Dennis Xu is a VP analyst at Gartner focusing on AI and cloud security topics. He will be speaking at the upcoming Gartner Security & Risk Management Summit in Sydney on 16 – 17 March 2026. 

เขียนโดย เดนนิส ซวี รองประธานฝ่ายวิเคราะห์ การ์ทเนอร์ 

AI Browser มาพร้อมความสามารถในการยกระดับประสบการณ์การท่องเว็บให้รวดเร็วและชาญฉลาดยิ่งขึ้น ที่ขยายขอบเขตการเข้าถึงข้อมูลที่กว้างและลึกกว่าเดิม อย่างไรก็ตาม ในปัจจุบันความเหมาะสมของการนำมาใช้ในระดับองค์กรนั้นยังถือว่ามีความเสี่ยงสูงเกินกว่าที่องค์กรส่วนใหญ่จะยอมรับได้

AI Browser เช่น Perplexity Comet และ ChatGPT Atlas ของ OpenAI มีศักยภาพปรับเปลี่ยนรูปแบบการทำงานของพนักงาน จากเดิมที่ค้นหาข้อมูลด้วยตนเองไปสู่การรันงานบนเว็บแบบอัตโนมัติ ผ่านการบูรณาการ Agentic Features เข้ากับเบราว์เซอร์ ทำให้เครื่องมือเหล่านี้สามารถสรุปเนื้อหา ช่วยร่างอีเมล ตลอดจนค้นหาและสั่งซื้อสินค้าผ่านร้านค้าออนไลน์ได้อิสระ

สิ่งที่แตกต่างจากเบราว์เซอร์ดั้งเดิมคือ AI Browser เริ่มมีการใช้ “AI Agents” ที่ไม่เพียงแค่ตีความเจตจำนงของผู้ใช้เท่านั้น แต่ยังสามารถบริหารและจัดการเวิร์กโฟลว์การทำงานได้ตั้งแต่ต้นจนจบ สิ่งนี้ถือเป็นนิยามใหม่ของการสร้างปฏิสัมพันธ์ระหว่างบุคคลหรือองค์กรกับ Digital Touchpoints ทั้งบนเว็บไซต์ บริการคลาวด์ และอุปกรณ์เชื่อมต่อต่าง ๆ

แม้จะมีขีดความสามารถน่าทึ่ง แต่ AI Browser มาพร้อมความเสี่ยงด้านความมั่นคงปลอดภัยทางไซเบอร์ที่เราต้องให้ความสำคัญ เนื่องจากเครื่องมือเหล่านี้ดำเนินการและการรันงานบนเว็บได้ด้วยตนเอง ซึ่งอาจก้าวข้ามผ่านระบบควบคุมความปลอดภัยแบบเดิม ส่งผลให้เกิดการรั่วไหลของข้อมูลสำคัญ การกระทำที่ผิดพลาดหรือไม่ถูกต้องของ AI หรือแม้แต่การละเมิดข้อมูลหรือเอกสารรับรองที่ใช้ยืนยันตัวตน (Credentials) ที่น่ากังวลยิ่งกว่าคือช่องโหว่แฝงที่อาจยังไม่ถูกค้นพบในเทคโนโลยีที่ยังเพิ่งตั้งไข่นี้

จนกว่าเครื่องมือเหล่านี้จะมีมาตรการป้องกันที่พิสูจน์แล้วว่ามีประสิทธิภาพ การ์ทเนอร์แนะนำให้องค์กรพิจารณาว่า AI Browser เป็นเทคโนโลยีใหม่ที่มีความเสี่ยงสูงและยังมีข้อบกพร่องในเชิงฟังก์ชัน โดยควรระงับการใช้งานไว้ก่อนในตอนนี้ จากนั้นค่อยเริ่มโครงการนำร่องเมื่อเทคโนโลยีมีความปลอดภัยและเชื่อถือได้มากขึ้น

ข้อมูลละเอียดอ่อนรั่วไหลไปสู่บริการ AI ภายนอกองค์กร

ฟังก์ชันการสรุปเนื้อหา การนำทางอัตโนมัติ และการดำเนินงานต่าง ๆ ของ AI Browser ล้วนพึ่งพาระบบหลังบ้านบนคลาวด์ สิ่งนี้สร้างความเสี่ยงอย่างมากกับข้อมูลสำคัญ ๆ ที่อาจจะรั่วไหลออกนอกองค์กร โดยบางครั้งผู้ใช้อาจไม่ทราบหรือไม่ยินยอม

สิ่งสำคัญคือควรดำเนินการตรวจสอบความปลอดภัยของบริการหลังบ้านที่ขับเคลื่อน AI Browser หากพบว่าไม่ปลอดภัยเพียงพอสำหรับการใช้ในระดับองค์กร ให้ระงับการดาวน์โหลดหรือติดตั้งทันที

หากองค์กรอนุญาตให้ใช้ ต้องให้ความรู้แก่พนักงานว่าเนื้อหาใด ๆ ที่ปรากฏบนเบราว์เซอร์อาจถูกส่งไปยังคลาวด์ได้ และต้องหลีกเลี่ยงการเปิดเผยข้อมูลที่ละเอียดอ่อนสูงที่ทิ้งไว้บนแท็บเบราว์เซอร์ขณะใช้ฟีเจอร์ที่อยู่บน Sidebar อาทิ การสรุปเนื้อหา หรือ การดำเนินการอัตโนมัติต่าง ๆ

หากเป็นไปได้ ให้ทดลองใช้เฉพาะเครื่องมือที่องค์กรไว้วางใจ เช่น ถ้า Microsoft Edge เพิ่มฟังก์ชันด้าน Agentic มากขึ้น ก็เป็นตัวเลือกที่น่าสนใจสำหรับองค์กรที่ใช้งานและจัดเก็บข้อมูลอ่อนไหวไว้บน Microsoft 365 อยู่แล้ว

ความผิดพลาดในการรันงานของ AI Agents จากพนักงาน

AI Browser จูงใจให้พนักงานส่งต่องานที่ซ้ำซากจำเจให้ AI ทำแทน แต่สิ่งนี้มีราคาที่ต้องจ่าย เช่น เบราว์เซอร์อาจกรอกข้อมูลในแบบฟอร์มผิดพลาด, เข้าอบรมหลักสูตรบังคับโดยไม่ได้มีส่วนร่วมในการเรียนรู้ หรือแม้แต่จองเที่ยวบินผิดพลาดเนื่องจากการประมวลผลที่คลาดเคลื่อนของโมเดลภาษาขนาดใหญ่ (LLM)

ที่อันตรายกว่านั้น AI Browser อาจถูกหลอกลวงให้เข้าไปยังเว็บไซต์ฟิชชิง (Phishing) นำไปสู่การสูญเสียข้อมูลในองค์กร และถูกนำไปใช้เป็นช่องทางในการโจมตีระบบภายใน

องค์กรควรนำร่องใช้งานเฉพาะในกลุ่มผู้ใช้ที่มีความเข้าใจ AI ระดับสูงก่อน และใช้กับงานที่มีความเสี่ยงต่ำเท่านั้น พร้อมย้ำเตือนให้ตรวจสอบการทำงานของ AI อย่างใกล้ชิด หากพบความผิดปกติให้หยุดการทำงานทันที

นอกจากนั้น การปรับปรุงนโยบายการใช้งานคอมพิวเตอร์ ให้ชัดเจนเกี่ยวกับข้อห้าม อาทิ ห้ามใช้ AI Browser ในการเข้าอบรมด้าน Cybersecurity ประจำปี เป็นต้น

การเน้นประสบการณ์ผู้ใช้มากกว่าความปลอดภัย 

โดยส่วนใหญ่ AI Browser ถูกออกแบบมาเพื่อความสะดวกสบายของผู้ใช้เป็นหลัก มักจะมีการเก็บข้อมูลการใช้งานและข้อมูลส่วนตัวไว้เป็นเวลานานตั้งแต่เริ่มต้น

การพัฒนาข้อกำหนดด้านความปลอดภัยสำหรับ AI Browser ที่จะนำมาใช้ และสอนผู้ใช้กลุ่มแรก ๆ ให้ปรับการตั้งค่าให้สอดคล้องกับมาตรฐานองค์กร จนกว่าจะมีระบบการจัดการจากส่วนกลาง (Centralized Management) มาเพิ่ม

สำหรับองค์กรที่เริ่มทดลองใช้แล้ว ให้ปิดฟีเจอร์การจัดเก็บข้อมูล เพื่อไม่ให้ผู้ให้บริการนำข้อมูลการค้นหาไปพัฒนาต่อ และสั่งให้ผู้ใช้ลบประวัติหรือหน่วยความจำในระบบอย่างสม่ำเสมอ

นอกจากนี้ องค์กรควรตรวจสอบและตัดสินใจอยู่บนพื้นฐานของข้อมูลที่ครบถ้วน ว่าฟีเจอร์ต่าง ๆ อาทิ ผู้ช่วยจัดการอีเมล (Email Assistants) หรือเครื่องมือสำหรับสร้างกระบวนการทำงานอัตโนมัติ (Workflow Automation Tools) ที่มีการเชื่อมต่อกับระบบอีเมลขององค์กร (อาทิ Google Gmail หรือ Microsoft Outlook) หรือมีการเชื่อมการทำงานเข้ากับแอปพลิเคชันอื่น ๆ ขององค์กรอีกหรือไม่

ข้อบกพร่องและการออกแบบที่เกิดเป็นช่องโหว่

เช่นเดียวกับเทคโนโลยีเกิดใหม่อื่น ๆ AI Browser ย่อมมีช่องโหว่ในการออกแบบ

ตัวอย่างเช่น มีการตรวจพบช่องโหว่ร้ายแรงใน ChatGPT Atlas ของ OpenAI เพียงไม่กี่วันหลังเปิดตัว ซึ่งอาจเปิดช่องให้มีการเข้าถึงบัญชีผู้ใช้โดยไม่ได้รับอนุญาต ส่งผลให้ผู้ใช้ได้รับคำแนะนำให้จำกัดการใช้งานเฉพาะในสถานการณ์ที่มีความเสี่ยงต่ำเท่านั้น และหลีกเลี่ยงการทดลองใด ๆ ที่เกี่ยวข้องกับข้อมูลอ่อนไหวหรือข้อมูลที่มีความเสี่ยงสูง เช่น ข้อมูลด้านการเงินส่วนบุคคล ขณะที่องค์กรจำเป็นต้องบังคับใช้มาตรการติดตั้งแพตช์อย่างเร่งด่วน รวมถึงสั่งระงับการดาวน์โหลดหรือติดตั้งโปรแกรมใหม่ จนกว่าช่องโหว่ดังกล่าวจะได้รับการแก้ไขอย่างสมบูรณ์

วิวัฒนาการที่รวดเร็วของ AI Browser มาพร้อมกับศักยภาพที่น่าตื่นเต้นและความเสี่ยงที่สำคัญต่อองค์กร จนกว่าเครื่องมือเหล่านี้จะทำงานได้อย่างเสถียรและมีกรอบการกำกับดูแลชัดเจน องค์กรควรระงับการใช้งานเพื่อปกป้องข้อมูลละเอียดอ่อนและรักษาการควบคุมไว้เหนือกระบวนการทำงานดิจิทัล

และการจัดลำดับความสำคัญด้านความปลอดภัยตั้งแต่วันนี้ จะช่วยให้การนำเทคโนโลยีดิจิทัลมาใช้ในอนาคตเกิดประโยชน์และเป็นไปอย่างมีความรับผิดชอบ เมื่อเทคโนโลยีมีความพร้อมสำหรับการใช้งานระดับองค์กร

เกี่ยวกับผู้เขียน 

เดนนิส ซวี รองประธานฝ่ายวิเคราะห์ของการ์ทเนอร์ มีความเชี่ยวชาญด้านความปลอดภัยของ AI และคลาวด์ โดยเขาจะเป็นหนึ่งในวิทยากรในงาน Gartner Security & Risk Management Summit ณ กรุงซิดนีย์ ในวันที่ 16-17 มีนาคม ปี 2026