Gartner

Why is ChatGPT making waves in the AI market?

เปิดเหตุผลที่ ChatGPT สั่นสะเทือนโลก AI

By Bern Elliot, Distinguished VP Analyst at Gartner

Artificial intelligence (AI) research and deployment company OpenAI recently announced the official launch of ChatGPT, a new model for conversational AI. According to OpenAI, the dialogue provided by this platform makes it possible for ChatGPT to “answer follow-up questions, admit its mistakes, challenge incorrect premises and reject inappropriate requests.”

Since its launch, social media has been abuzz with discussions around the possibilities—and dangers—of this new innovation, ranging from its ability to debug code to its potential to write essays for college students.

What makes ChatGPT so interesting?

ChatGPT is the perfect storm of two current ‘hot’ AI topics: chatbots and GPT3. Together, they offer a wonderfully intriguing method of interacting with and producing content that sounds amazingly human. Each is the result of separate, significant improvements over the last five years in their respective technologies.

Chatbots allow interaction in a seemingly ‘intelligent’ conversational manner, while GPT3 produces output that appears to have ‘understood’ the question, the content and the context. Together this creates an uncanny valley effect of ‘Is it human or is it a computer? Or, is it a human-like computer?’ The interaction is sometimes humorous, sometimes profound and sometimes insightful.

Unfortunately, the content is also sometimes incorrect and the content is never based on a human-like understanding or intelligence. The problem may be with the terms ‘understand’ and ‘intelligent.’ These are terms loaded with implicitly human meaning, so when they are applied to an algorithm, it can result in severe misunderstandings.

The more useful perspective is to view chatbots and large language models (LLM) like GPT as potentially useful tools for accomplishing specific tasks, and not as parlor tricks. Success depends on identifying the applications for these technologies that offer meaningful benefits to the organization.

Potential use cases in the enterprise

At a high level, chatbots, or conversational assistants, provide a curated interaction with an information source. Chatbots themselves have many use cases, from customer service to assisting technician in identifying problems.

At a high level, ChatGPT is a specific chatbot use case where the chatbot is used to interact (chat) or ‘converse’ with a GPT information source. In this case, the GPT information source is trained for a specific domain by OpenAI. The training data used on the model determines the way questions will be answered.

As noted earlier, however, GPT’s capability to unpredictively generate information that is false means that the information can only be used for situations where errors can be tolerated or corrected.

There are numerous use cases for foundation models such as GPT, in domains including computer vision, software engineering and scientific research and development. For example, foundation models have been used to create images from text; generate, review and audit code from natural language, including smart contracts; and even in healthcare to create new drugs and decipher genome sequences for disease classification.

Ethical concerns

AI foundation models such as GPT represent a huge step change in the field of AI. They offer unique benefits, such as massive reductions in the cost and time needed to create a domain-specific model.

However, they also pose risks and ethical concerns, including those associated with:

Complexity: Large models involve billions, or even trillions, of parameters. These models are impractically large to train for most organizations, because of the necessary compute resources, which can make them expensive and environmentally unfriendly.

Concentration of power: These models have been built mainly by the largest technology companies, with huge R&D investments and significant AI talent. This has resulted in a concentration of power in a few large, deep-pocketed entities, which may create a significant imbalance in the future.

Potential misuse: Foundation models lower the cost of content creation, which means it becomes easier to create deepfakes that closely resemble the original. This includes everything from voice and video impersonation to fake art, as well as targeted attacks. The serious ethical concerns involved could harm reputations or cause political conflicts.

Black-box nature: These models still require careful training and can deliver unacceptable results due to their black-box nature. It is often unclear what factbase models are attributing responses to, which can propagate downstream bias in the datasets. The homogenization of such models can lead to a single point of failure.

Intellectual property: The model is trained on a corpus of created works and it is still unclear what the legal precedent may be for reuse of this content, if it was derived from the intellectual property of others.

How to integrate AI foundation models in an ethical way

Start with natural language processing (NLP) use cases such as classification, summarization and text generation for non-customer-facing scenarios and choose task-specific, pretrained models to avoid expensive customization and training. Use cases where output is reviewed by humans are preferred.

Create a strategy document that outlines the benefits, risks, opportunities and deployment roadmap for AI foundation models like GPT. This will help determine whether the benefits outweigh the risks for specific use cases.

Use cloud-based APIs to consume models, and choose the smallest model that will provide the accuracy and performance needed to reduce operational complexity, lower energy consumption and optimize total cost of ownership.

Prioritize vendors that promote responsible deployment of models by publishing usage guidelines, enforcing those guidelines, documenting known vulnerabilities and weaknesses and proactively disclosing harmful behavior and misuse scenarios.

โดย เบิร์น เอลเลียต รองประธานฝ่ายวิจัย การ์ทเนอร์ อิงค์

ไม่นานมานี้ OpenAI บริษัทวิจัยและพัฒนาเทคโนโลยีปัญญาประดิษฐ์ (AI) ได้เปิดตัว ChatGPT แพลตฟอร์มสนทนา AI รูปแบบใหม่อย่างเป็นทางการ จากข้อมูลของบริษัทฯ ระบุว่ารูปแบบการสนทนาที่จัดทำโดยแพลตฟอร์มนี้ทำให้ ChatGPT สามารถ “ตอบคำถามได้ครอบคลุม ยอมรับข้อผิดพลาด พร้อมนำเสนอข้อมูลใหม่ ๆ เพื่อปรับเปลี่ยนข้อมูลที่ไม่ถูกต้อง และปฏิเสธคำร้องขอที่ไม่สมเหตุสมผล”

นับตั้งแต่ ChatGPT เปิดให้บริการ บนโลกโซเชียลมีเดียก็มีการถกเถียงกันถึงความเป็นไปได้ในการนำนวัตกรรมนี้มาปรับใช้รวมถึงอันตรายที่อาจตามมา เนื่องจากความสามารถในการวิเคราะห์หาข้อผิดพลาดของโค้ด (Debug Code) ไปจนถึงศักยภาพในการเขียนเรียงความสำหรับนักศึกษา

เพราะอะไร ChatGPT ถึงได้รับความสนใจเป็นอย่างมาก?

ChatGPT เป็นปรากฎการณ์ Perfect Storm ที่เป็นการรวมกันของปัญญาประดิษฐ์ (AI) สองเรื่องใหญ่ ๆ ที่กำลังมาแรงในปัจจุบัน นั่นคือแชทบอท และ GPT3 ที่นำเสนอวิธีการสื่อสารโต้ตอบพร้อมสร้างเนื้อหาที่น่าสนใจ เสมือนการพูดคุยกับมนุษย์ได้อย่างน่าอัศจรรย์ ซึ่งเป็นผลมาจากการพัฒนาเทคโนโลยีที่เกี่ยวข้องสำคัญในช่วงห้าปีที่ผ่านมา

แชทบอทสร้างปฏิสัมพันธ์การสนทนาแบบ ‘ชาญฉลาด’ ขณะที่ GPT3 สร้างเอาต์พุทที่ดู ‘เข้าใจ’ คำถาม เนื้อหา และบริบทของการสนทนา ซึ่งเมื่อสองสิ่งนี้รวมกันได้สร้างผลกระทบใหญ่จนเกิดคำถามว่า ‘เรากำลังสนทนากับมนุษย์หรือคอมพิวเตอร์กันแน่หรือว่าเป็นคอมพิวเตอร์ที่เหมือนกับมนุษย์’ ซึ่งการโต้ตอบบางครั้งสร้างความขบขัน บ้างนำเสนอข้อมูลลึกซึ้งและบางทีก็เต็มไปด้วยสาระความรู้

แต่น่าเสียดายที่บางครั้ง ChatGPT ยังนำเสนอเนื้อหาได้ไม่ถูกต้องและไม่ได้อยู่บนพื้นฐานความเข้าใจหรือสติปัญญาของมนุษย์ ปัญหาอาจอยู่ที่คำว่า ‘เข้าใจ’ และ ‘ความฉลาด’ ซึ่งขึ้นอยู่กับการป้อนข้อมูลของมนุษย์ที่อาจมีความหมายคลุมเครือไม่ชัดเจน ดังนั้นเมื่อนำไปใช้กับอัลกอริธึม อาจส่งผลให้เกิดความเข้าใจผิดอย่างรุนแรง

ในมุมที่มีประโยชน์กว่าคือการได้เห็นว่าแชทบอทและโมเดลภาษาขนาดใหญ่ (LLM) เช่น GPT ได้กลายเป็นเครื่องมือที่มีคุณค่าสำหรับการทำงานเฉพาะอย่างให้สำเร็จลุล่วงได้ ที่ไม่ใช่เพื่อความบันเทิง โดยความสำเร็จจะเกิดขึ้นหรือไม่นั้นขึ้นอยู่กับการนำเทคโนโลยีเหล่านี้ไปใช้ในแอปพลิเคชันที่เหมาะสมและมอบประโยชน์ต่อองค์กรอย่างแท้จริง

รูปแบบการใช้ ChatGPT ในองค์กร

สำหรับการใช้งานเทคโนโลยีแชทบอทหรือผู้ช่วยการสนทนาในเชิงธุรกิจระดับสูงนั้น จะใช้เพื่อจัดเตรียมรูปแบบการโต้ตอบด้วยการเรียบเรียงเนื้อหาจากแหล่งข้อมูล โดยแชทบอทจะมีรูปแบบการใช้งานมากมายอยู่ในระบบของตัวเองอยู่แล้ว ตั้งแต่การให้บริการลูกค้าไปจนถึงการช่วยเหลือทีมงานเทคนิคระบุปัญหาต่าง ๆ

สำหรับการใช้งาน ChatGPT ระดับสูงขึ้นไปอีก จะใช้เป็นแชทบอทที่มีความเฉพาะสำหรับ (แชท) โต้ตอบหรือ ‘สนทนา’ กับแหล่งข้อมูลของ GPT ในกรณีนี้แหล่งข้อมูล GPT จะได้รับการทดสอบโดเมนเฉพาะโดย OpenAI ซึ่งข้อมูลการทดสอบที่ใช้ในแบบจำลองนี้จะกำหนดวิธีการตอบคำถาม

อย่างไรก็ตามความสามารถของ GPT สำหรับสร้างฐานข้อมูลยังไม่สามารถคาดเดาได้ว่าข้อมูลที่ได้นั้นเป็นเท็จ นั่นหมายความว่าข้อมูลสามารถใช้ได้กับบางสถานการณ์ที่ข้อผิดพลาดสามารถยอมรับหรือแก้ไขให้ถูกต้องได้

มีรูปแบบการใช้งานโมเดลพื้นฐานมากมาย เช่น GPT ในโดเมนต่าง ๆ ประกอบด้วย Computer Vision, Software Engineering และงานวิจัยและพัฒนาทางวิทยาศาสตร์ (Scientific Research and Development) เช่น มีการใช้แบบจำลองพื้นฐานสร้างรูปภาพขึ้นจากข้อความ และตรวจสอบโค้ดจากภาษาธรรมชาติ (Natural Language)  รวมถึงการทำ Smart Contracts  หรือแม้แต่ในด้านการดูแลสุขภาพ (Healthcare) เช่น การสร้างยารักษาโรคใหม่ ๆ และการถอดรหัสลำดับจีโนมเพื่อจำแนกโรค

ข้อกังวลด้านจริยธรรม

โมเดลแบบจำลองพื้นฐาน AI เช่น GPT แสดงให้เห็นถึงการเปลี่ยนแปลงครั้งใหญ่ด้าน AI จากประโยชน์เฉพาะตัวที่มอบให้ อาทิ การช่วยลดต้นทุนและระยะเวลาสร้างโมเดลแบบจำลองเฉพาะโดเมน

อย่างไรก็ตามสิ่งเหล่านี้ก่อให้เกิดความเสี่ยงและข้อกังวลด้านจริยธรรม ซึ่งประกอบด้วย

Complexity: โมเดลจำลองขนาดใหญ่ต้องใช้พารามิเตอร์นับพันล้านหรืออาจมากถึงล้านล้าน โดยโมเดลจำลองเหล่านี้มีขนาดใหญ่เกินไปที่องค์กรจะนำมาทดสอบใช้งาน เนื่องจากต้องใช้ทรัพยากรการประมวลผลที่จำเป็นจำนวนมาก อาจทำให้มีราคาแพงและไม่เป็นมิตรต่อสิ่งแวดล้อม

Concentration of power: โมเดลจำลองเหล่านี้ส่วนใหญ่สร้างขึ้นโดยบริษัทเทคโนโลยีที่ใหญ่ที่สุด ด้วยการลงทุนกับการวิจัยและพัฒนาจำนวนมหาศาล และมีความสามารถด้าน AI เป็นสำคัญ ซึ่งสิ่งเหล่านี้ส่งผลให้เกิดการกระจุกตัวของอำนาจในหน่วยงานขนาดใหญ่ไม่กี่แห่ง อาจสร้างความไม่สมดุลในอนาคต

Potential misuse: โมเดลจำลองพื้นฐานช่วยลดต้นทุนในการสร้างเนื้อหา ซึ่งหมายความว่าการสร้าง Deepfake ที่ใกล้เคียงกับต้นฉบับจะง่ายขึ้น รวมถึงทุก ๆ อย่าง ตั้งแต่การเลียนแบบเสียงและวิดีโอไปจนถึงผลงานศิลปะปลอม ตลอดจนการโจมตีแบบกำหนดเป้าหมาย ซึ่งข้อกังวลด้านจริยธรรมร้ายแรงที่เกี่ยวข้องอาจทำให้เสียชื่อเสียงหรือสร้างความขัดแย้งทางการเมืองได้

Black-box nature: โมเดลจำลองเหล่านี้ยังต้องการการทดสอบอย่างถี่ถ้วนและสามารถมอบผลลัพธ์ที่ไม่น่าพอใจ เนื่องจากการทดสอบในลักษณะกล่องดำ (Black-box nature) ที่ไม่คำนึงถึงคำสั่งภายในซอฟต์แวร์ และคลุมเครือว่าฐานข้อมูลที่ตอบสนองนั้นเท็จจริงเพียงใด อาจนำเสนอผลลัพธ์ที่เอนเอียงได้จากข้อมูลที่กำหนดไว้ โดยกระบวนการทำให้ข้อมูลตรงกันของแบบจำลองดังกล่าวสามารถนำไปสู่ความล้มเหลวได้ หากคลาดเคลื่อนเพียงจุดเดียว

Intellectual property: โมเดลแบบจำลองถูกทดสอบกับคลังข้อมูลของชิ้นงานที่สร้างขึ้น และยังไม่ชัดเจนว่าจะมีกฎหมายบังคับอย่างไรสำหรับการนำเนื้อหานี้กลับมาใช้ใหม่ และหากเนื้อหานั้นมาจากทรัพย์สินทางปัญญาของผู้อื่น

แนวทางการใช้โมเดลพื้นฐานเอไออย่างมีจริยธรรม

เริ่มต้นจากการใช้งานการประมวลผลภาษาตามธรรมชาติ (Natural Language Processing – NLP) เช่น การจัดหมวดหมู่ การสรุป และการสร้างข้อความในสถานการณ์ที่ไม่ได้เจอตัวลูกค้า และเลือกงานที่มีความเฉพาะ โดยโมเดลจำลองที่ได้รับการฝึกฝนมาแล้วจะสามารถลดต้นทุนการปรับแต่งและการทดสอบที่มีราคาแพง หรือใช้ในกรณีที่ต้องการตรวจสอบผลลัพธ์โดยมนุษย์

ใช้สร้างเอกสารเชิงกลยุทธ์ที่สรุปประโยชน์ ความเสี่ยง โอกาส และแผนงานการปรับใช้โมเดลจำลองพื้นฐาน AI เช่น GPT ซึ่งจะช่วยพิจารณาว่าได้ประโยชน์มากกว่าความเสี่ยงหรือไม่ กรณีที่นำมาใช้งานเฉพาะ

ใช้ APIs บนคลาวด์สำหรับสร้างรูปแบบจำลองและเลือกแบบจำลองที่มีขนาดเล็กที่สุด เพื่อให้มีความแม่นยำและมีประสิทธิภาพตรงตามความต้องการเพื่อลดความซับซ้อนในการดำเนินงาน ลดการใช้พลังงานและเพิ่มประสิทธิภาพด้านต้นทุนรวมสำหรับการเป็นเจ้าของ

จัดลำดับความสำคัญของผู้จำหน่ายที่ส่งเสริมการปรับใช้โมเดลอย่างมีความรับผิดชอบโดยการเผยแพร่แนวทางการใช้งาน การบังคับใช้ รวมถึงบันทึกช่องโหว่และจุดอ่อนที่ทราบ พร้อมเปิดเผยพฤติกรรมที่เป็นอันตรายและสถานการณ์การใช้งานในทางที่ผิดแบบเชิงรุก