ถ้าให้พูดถึง “คีย์เวิร์ด” เทคโนโลยีแห่งปี 2024 คงหนีไม่พ้นเรื่องของ Generative AI หรือที่เรียกสั้นๆ ว่า Gen AI ที่หลายภาคส่วนนำมาใช้ขับเคลื่อนองค์กรและช่วยทำงานในหลายๆ เรื่องที่สำคัญ ซึ่งไม่ว่าใครก็สามารถเข้าถึงและใช้งานได้ง่ายๆ ด้วยความโดดเด่นในเรื่องของความสามารถของสร้างเนื้อหา รูปภาพ วิดีโอ เพลง รวมถึงการสนทนาที่มีความใกล้เคียงกับการพูดคุยของมนุษย์ อีกทั้งยังสามารถทำงานได้อย่างรวดเร็ว
แต่อย่างไรก็ตาม ใช่ว่า Gen AI จะถูกพูดถึงแค่เรื่องความสามารถที่น่าทึ่งเพียงอย่างเดียว เพราะตลอดเวลาที่เราคุ้นชินและคุ้นเคยกับการใช้งาน Gen AI หลายๆ เวทีของผู้เชี่ยวชาญ ทั้งในและต่างประเทศ ต่างก็ออกมาแสดงความคิดเห็นว่าแท้จริงแล้ว Gen AI ที่เรามองว่ามีประโยชน์และนิยมใช้งานเพิ่มขึ้นมากนั้น อาจกำลังสร้างความเสี่ยงในหลายมิติ โดยเฉพาะในประเด็นเรื่องจริยธรรมการใช้งาน ทั้งเรื่องความโปร่งใส ความน่าเชื่อถือ ความเท่าเทียม ความมั่นคงปลอดภัยและความเป็นส่วนตัว จนนำมาสู่การตั้งคำถามในประเด็นเรื่องกรอบจริยธรรม ธรรมาภิบาลและการกำกับดูแล AI ที่ควรจะเป็น เพื่อการนำมาใช้ให้เกิดประโยชน์สูงสุด ในขณะเดียวกันก็ต้องลดความเสี่ยงที่อาจจะเกิดขึ้นด้วย
เพื่อให้ทุกคนได้ทำความเข้าใจเทคโนโลยี Gen AI ให้ลึกยิ่งขึ้น สำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์ (ETDA) โดย ศูนย์ธรรมาภิบาลปัญญาประดิษฐ์ หรือ ศูนย์ AIGCจึงไม่พลาดที่จะพาทุกคนร่วมเปิดมุมมองใหม่ จับเทรนด์ Gen AI รับปี 2025 เพื่อให้เข้าถึงประโยชน์ โอกาส ตลอดจนความเสี่ยงของการใช้ Gen AI ที่ต้องเข้าใจ สู่การสร้างสมดุลการใช้งานที่ยั่งยืนอย่างมีธรรมาภิบาล ผ่านการถอดบทเรียนไปกับผู้เชี่ยวชาญหลากหลายด้านเกี่ยวกับ AI ที่มาร่วมแชร์มุมมอง ความรู้ในงาน AI Governance Webinar 2024 : จับเทรนด์ Gen AI พลิกโฉมทุกภาคส่วน….ใช้อย่างไรให้มีธรรมาภิบาล? ที่เพิ่งผ่านไปเมื่อเร็วๆ นี้
Gen AI กับ ประเด็นเสี่ยง ที่ไม่อาจมองข้าม
คำว่า ‘เหรียญย่อมมีสองด้าน’ อาจไม่เกินจริง เพราะผู้เชี่ยวชาญด้าน AI ที่งานนี้ ต่างลงความเห็นว่า แม้ Gen AI มีประโยชน์ ช่วยสร้างโอกาสในหลายเรื่อง ตามที่เราได้ทราบข้อมูลและมีประสบการณ์จากการใช้งานกันดีอยู่แล้วนั้น ขณะเดียวกัน Gen AI ก็มาพร้อมกับความเสี่ยงอีกด้วย โดยตัวอย่างความเสี่ยงหลักๆ เช่น
· ‘อาการหลอน’ สร้างผลลัพธ์ หรือ คำตอบที่ดูน่าเชื่อถือ แต่เป็นข้อมูลที่ไม่ถูกต้อง ปรากฏการณ์นี้เรียกว่า Hallucination หรือ Confabulation ซึ่งอาจนำไปสู่ ความเข้าใจผิด และการตัดสินใจผิดพลาดอย่างไม่ตั้งใจ และก็เป็นประเด็นที่หลายๆ องค์กรที่ใช้Gen AI ต่างกังวลเป็นอันดับต้นๆ
· การมีอคติ (Bias) เลือกปฏิบัติ (Discrimination) เนื่องจากข้อมูลที่ใช้ในการฝึกฝนGen AI อาจมีอคติแอบแฝง หรือมีภาพจำที่ยังเป็น Stereotype ทำให้ Gen AI สร้างผลลัพธ์ที่มีความเอนเอียง ไม่เป็นกลาง
· ปัญหาด้านลิขสิทธิ์ เรื่องใหญ่ที่หลายๆ คนจับตา เพราะการใช้ Gen AI สร้างภาพ หรือแม้แต่ข้อความอาจมีประเด็นเรื่องการละเมิดลิขสิทธิ์ของเจ้าของผลงานตัวจริง เพราะอย่าลืมว่า ภาพหรือข้อความที่ AI สร้างมาให้เรา มาจากการประมวลผลจากแหล่งข้อมูลมหาศาล ซึ่งอาจมีการดึงเนื้อหาหรือผลงานของเจ้าของลิขสิทธิ์เดิมมาใช้โดยไม่ได้รับอนุญาต ส่งผลให้เกิดความเสี่ยงต่อการละเมิดลิขสิทธิ์โดยไม่ตั้งใจได้
· การละเมิดข้อมูลส่วนบุคคลและความเป็นส่วนตัว หากไม่มีการควบคุมการใช้งานและได้รับการออกแบบให้ปลอดภัย Gen AI อาจนำข้อมูลส่วนบุคคล หรือความลับองค์กรมาใช้หรือเผยแพร่โดยไม่ได้รับอนุญาต
· ความไม่แน่นอน ไม่คงที่ของผลลัพธ์ แม้ว่าจะสั่งการโดยใช้ Prompt และป้อนข้อมูลให้กับ Gen AI แบบเดียวกัน แต่คำตอบที่ได้อาจแตกต่างกัน
· ความเข้าใจ Gen AI ที่ไม่เพียงพอ อาจทำให้ไม่สามารถใช้ประโยชน์จาก Gen AI ได้อย่างเต็มที่ หรืออาจนำไปสู่การตัดสินใจที่ผิดพลาด และเกิดผลกระทบต่อตนเองและผู้อื่นได้
· ความเสี่ยงจากการใช้งานโดยผู้ไม่หวังดี Gen AI อาจถูกนำไปใช้สร้างปัญหา เช่น การเผยแพร่ข่าวปลอมหรือการหลอกลวงบนโลกออนไลน์
ยุคใหม่…ไม่ใช้ Gen AI ก็เสี่ยง!
ไม่ใช่แค่จะมีแต่ความเสี่ยงจากการใช้งานเท่านั้น อีกหนึ่งความเสี่ยงที่ผู้เชี่ยวชาญต่างตั้งข้อสังเกตไว้อย่างน่าสนใจและชวนให้ฉุกคิดไม่แพ้กัน คือ ‘ความเสี่ยงจากการไม่ใช้’ เพราะในขณะที่ผู้คนในสังคมและองค์กรส่วนใหญ่ต่างยินยอมพร้อมใจรับ Gen AI เข้ามาทั้งในการทำงานและชีวิตประจำวัน ในขณะที่เราหรือหลายๆ องค์กร ยังปรับตัวตามไม่ทันและไม่นำ Gen AI มาใช้ให้เกิดประโยชน์ อาจทำให้เสี่ยงยิ่งกว่า เพราะการไม่ใช่ Gen AI เลย นอกจากจะเสี่ยงต่อการถูกคนที่ใช้ Gen AI แซงหน้าแล้ว องค์กรอาจเสียโอกาสในการพัฒนาและเสียเปรียบในด้านความสามารถในการแข่งขันอีกด้วย
ผู้เชี่ยวชาญได้แสดงความคิดเห็นไปในทิศทางเดียวกันว่า การนำ Gen AI ไปใช้ประโยชน์ ไม่ใช่แค่การตัดสินระหว่าง ‘ข้อดี และ ข้อเสีย’ ‘โอกาส และ ความเสี่ยง’ ว่าอะไรมีมากกว่ากัน และก็ไม่ใช่ว่า กลัวจนไม่กล้าที่จะใช้ หรือ กล้าจนไม่กลัวอะไร แต่หัวใจสำคัญ คือการหาจุดสมดุลระหว่าง ประโยชน์ที่จะได้รับ และความเสี่ยงที่อาจจะเกิดขึ้น เพื่อให้สามารถใช้ Gen AI ได้อย่างเหมาะสม มีความรับผิดชอบเกิดประโยชน์สูงสุด เกิดผลกระทบน้อยที่สุด และอยู่บนพื้นฐานของจริยธรรมและธรรมาภิบาลที่ควรจะเป็น ซึ่งไม่ใช่เป็นหน้าที่หรือความรับผิดชอบของฝ่ายใดฝ่ายหนึ่ง แต่ทุกฝ่ายต้องร่วมมือกันทั้งฝั่งผู้พัฒนา ผู้ใช้งานจริง และผู้กำกับดูแล
ฝั่งผู้พัฒนา Gen AI ที่สามารถทำได้ เช่น พัฒนา Gen AI ให้มีความปลอดภัยและน่าเชื่อถือ มีความรับผิดชอบในการเลือกใช้ข้อมูลที่มีคุณภาพในการฝึกฝน AI เพื่อลดอคติ (Bias) และป้องกันความผิดพลาดในผลลัพธ์ ไปพร้อมกับการพัฒนานวัตกรรมที่ปลอดภัย โปร่งใส ตรวจสอบได้ และสอดคล้องกับหลักจริยธรรมและธรรมาภิบาล เพื่อให้ผู้ใช้งานมั่นใจ และต้องไม่ลืมกำหนดกรอบการใช้งานอย่างมีความรับผิดชอบ เพื่อป้องกันการนำไปใช้ในทางที่ผิด และมีแนวทางป้องกันผลกระทบที่อาจเกิดขึ้น
ฝั่งผู้ใช้ Gen AI ยิ่งสำคัญ ต้องเรียนรู้และทำความเข้าใจ AI literacy เพื่อเข้าใจและรู้เท่าทันให้ตระหนักถึงขอบเขต ข้อจำกัด และความเสี่ยงที่อาจจะเกิดขึ้น และต้องใช้งานอย่างมีสติและมีวิจารณญาณ เพราะ Gen AI เป็นแค่ผู้ช่วย ไม่ใช่ผู้แทน ต้องแยกแยะให้ออกว่างานลักษณะไหนที่สามารถปล่อยให้ Gen AI ทําแทนได้ แต่บางงานต้องมีคนอยู่ด้วยในการใช้ Gen AIและนำไปใช้อย่างรับผิดชอบ คำนึงถึงผลกระทบที่อาจเกิดขึ้น เลี่ยงการใช้ Gen AI ในทางที่สุ่มเสี่ยงหรือเผยแพร่เนื้อหาที่เป็นอันตราย ละเมิดจริยธรรมและกฎหมาย ที่ขาดไม่ได้คือ ต้องรักษาความปลอดภัยของข้อมูล อย่าป้อนข้อมูลส่วนตัว อ่อนไหว หรือความลับ เข้าสู่ระบบ AI เด็ดขาด
ภาครัฐที่มีหน้าที่กำกับดูแล นอกจากการสร้างความตระหนักรู้ เพิ่มความเข้าใจ ส่งเสริม AI Literacy ให้กับประชาชน ก็ต้องเร่งส่งเสริม AI Transformation ในองค์กร ผ่านการให้คำปรึกษา สนับสนุนด้านงบประมาณ รวมถึงพัฒนาบุคลากร ตลอดจน พัฒนากฎระเบียบ มาตรฐาน ข้อบังคับ กำหนดกรอบธรรมาภิบาล (Governance Framework) ให้มีความชัดเจน ทันต่อเทคโนโลยี
แม้ขณะนี้ ประเทศไทยยังไม่มีกฎหมายหรือข้อบังคับเกี่ยวกับการนำ AI ไปใช้โดยตรง แต่ก็มีกฎหมายอื่นๆ ที่รองรับประเด็นอ่อนไหวต่างๆ อย่างครอบคลุม เช่น กฎหมายลิขสิทธิ์ กฎหมายคุ้มครองข้อมูลส่วนบุคคล (PDPA) กฎหมายการรักษาความมั่นคงปลอดภัยไซเบอร์นอกจากนี้ ยังมีการจัดทำคู่มือแนะแนวทางการนำ Gen AI ไปใช้งาน
ตัวอย่างเช่น “แนวทางการประยุกต์ใช้ Generative AI อย่างมีธรรมาภิบาลสำหรับองค์กร (Generative AI Governance Guideline for Organizations)” ที่จัดทำโดย ศูนย์ AIGC by ETDA ที่ได้เสนอการวางกรอบแนวทางการกำกับดูแลการประยุกต์ใช้งาน Gen AI อย่างเหมาะสม สอดคล้องตามหลักธรรมาภิบาล ไม่ก่อให้เกิดความเสี่ยงในมิติต่างๆ ทั้งต่อผู้ใช้งาน องค์กร หรือสังคม ที่แต่ละองค์กรสามารถ นำไปปรับใช้ได้อย่างเหมาะสม
เปิดทักษะแห่งอนาคต ยุค Gen AI
ในยุคที่เราต่างพึ่งพา Gen AI เพิ่มมากขึ้นเรื่อยๆ อนาคต หรือไม่แน่ ในปี 2025 นี้ ผู้เชี่ยวชาญคาดการณ์ว่า การใช้งาน Gen AI มากเกินไป อาจส่งผลให้มนุษย์สูญเสียทักษะสำคัญบาง อาทิ ทักษะการอ่าน การเขียน การคิดวิเคราะห์ และที่น่าเป็นห่วงที่สุด คือ เด็กยุคใหม่ที่โตมาพร้อมกับ AI ที่อาจขาดโอกาสในการฝึกฝนและพัฒนาทักษะเหล่านี้ มากกว่าผู้ใหญ่ที่ผ่านช่วงก่อนการมี Gen AI ที่มีความสามารถและมีการพัฒนาทักษะเหล่านี้มาบ้างแล้ว
โดยทักษะที่ทุกคนควรต้องมีในอนาคต โดยเฉพาะในเด็กและเยาวชนในยุค Gen AI คือ ทักษะทางปัญญา Cognitive Skill ซึ่งเกี่ยวข้องกับการคิด วิเคราะห์ การจดจำ การเรียนรู้ และการแก้ปัญหา และความสามารถในการทำงานร่วมกับ AI อย่างมีประสิทธิภาพ Prompt Engineering ความสามารถ ในการตั้งคำถามหรือสร้างคำสั่งที่มีประสิทธิภาพเพื่อให้ Gen AI สร้างผลลัพธ์ หรือ Output ที่ดีที่สุดและตรงตามความต้องการ และอีกทักษะที่มีแนวโน้มว่าจะมีความสำคัญมากขึ้นเรื่อยๆ คือ Emotional Intelligence หรือ ทักษะความฉลาดทางอารมณ์ และ Emotional Management หรือทักษะการบริหารจัดการอารมณ์ ซึ่งเป็นทักษะที่ AI ยังไม่สามารถทำได้นั่นเอง
แม้ AI จะมีประโยชน์มากมาย แต่การพึ่งพาและใช้งานมากเกินไปก็อาจส่งผลกระทบต่อมนุษย์ อย่างปฏิเสธไม่ได้ การใช้งานอย่างเหมาะสม มีสติ และคำนึงถึงจริยธรรมจึงเป็นสิ่งสำคัญ เพื่อเน้นย้ำความสำคัญของกรอบธรรมาภิบาลปัญญาประดิษฐ์
กระทรวงดิจิทัลเพื่อเศรษฐกิจและสังคม ร่วมกับกระทรวงการอุดมศึกษา วิทยาศาสตร์ วิจัยและนวัตกรรม กระทรวงศึกษาธิการ และ UNESCO เตรียมจัดงานระดับโลก “The Global Forum on the Ethics of AI 2025” ครั้งแรกในเอเชียแปซิฟิก ภายใต้แนวคิด “Ethical Governance of AI in Motion” โดยมีผู้นำและผู้เชี่ยวชาญกว่า 800 คนจาก 194 ประเทศสมาชิก UNESCOที่จะมาร่วมแลกเปลี่ยนมุมมองและกำหนดอนาคตจริยธรรม AI ของโลกไปพร้อมกัน ระหว่างวันที่ 24-27 มิถุนายน 2568 ที่ กรุงเทพฯ