พอถามนักศึกษาว่าใช้ ChatGPT อะไรพวกนี้ส่งงานอาจารย์ใช้ไหม เค้าก็หน้าเสียนิด ๆ เลยงงครับว่า จะหน้าเสียทำไม หัดใช้ Generative AI ดีแล้วเพราะอนาคตภายภาคหน้าของเค้าเมื่อจบการศึกษาแล้ว เราไม่ได้ตามไปตอบเค้า เค้าต้องอยู่กับ AI พวกนี้ให้เป็น
ด้วยความสงสัยของผมว่าในมุมผู้เชี่ยวชาญด้านความเสี่ยง เขามอง AI ว่ามีความเสี่ยงอะไรบ้าง เลยเข้าไปศึกษา Content ขององค์กรระดับสากลด้านความเสี่ยงหรือ GARP-Global Association of Risk Professionals https://www.garp.org/rai
ผมไม่เคยคิดห้ามนักศึกษาใช้ การห้ามใช้มันล้าหลังเกินไป แต่จะแนะนำประมาณนี้ครับ
1. เราต้องเป็นคนกำหนด Content และ Structure โดยใช้เนื้อหาหรือทฤษฎีที่เราเรียนในห้องเป็นหลักเพราะทฤษฎีที่เรียนในห้องค่อนข้างนิ่งแล้ว แต่สามารถใช้ Generative AI เป็นผู้ช่วยในการสืบค้นข้อมูล ในยุคของ Generative AI เค้าเชื่อกันว่าการได้ข้อมูลที่มีประสิทธิภาพนั้น เกิดจากการ Prompt ให้เป็น (การป้อนคำสั่งให้ Generative AI ค้นหาข้อมูลให้เรา) มี Course ที่สอนเกี่ยวกับ Prompt ในท้องตลาดมากมาย หรือเข้าไปใน Youtube ก็มีสอนเยอะ หลักใหญ่ใจความสำคัญของการ Prompt คือ จะค้นหาข้อมูลอะไรนั้น ต้องให้ข้อมูลกับ AI ให้ละเอียด ก็จะได้ข้อมูลที่ต้องการ ดังนั้นเมื่อได้ข้อมูลมา อย่า Copy และเอามาส่งเลย ผมยังชอบคำนี้อยู่ว่า
AI Draft Human Craft
หมายความว่าเราต้องปรับแต่ง (Craft) มันก่อนส่งงานมาไม่ว่าจะเป็นงานที่เรียนหรือที่ทำงานนะครับ เพราะข้อมูลจาก Generative AI มีความเสี่ยงอยู่ ไปอ่านข้อ 2 กันเลยครับ ด้านล่าง
2. ในมุม Risk เขาไม่ได้มองแค่การ Prompt หากพูดถึง Concept ของ AI ที่ทุกคนทราบคือ มันเลียนแบบการทำงานของสมองมนุษย์ ด้วยพลังความสามารถสูงของคอมพิวเตอร์ ซึ่งก็ใช้หลักการของ
- Input (Data ที่ เข้าไป Train, Test, Validate)
- Process (Model) หรือ Algorithm
- Output (ผลลัพธ์)
- เริ่มตั้งแต่ Input เราเอาข้อมูลที่ดีไปเทรนมันหรือเปล่า จะกลับไปที่ Concept Garbage in Garbage out ในวงการสถาบันการเงินในปัจจุบันหลายที่ใช้ Machine Learning ซึ่งเป็น Subset ของ AI ในการพิจารณาการปล่อยสินเชื่อ (Credit Model Scoring) หากข้อมูลที่เอาเข้าไปเทรนมันมีข้อมูลผู้ชายมากกว่าผู้หญิง เป็นไปได้สูงว่าผลลัพธ์หรือ Output การอนุมัติสินเชื่อของธนาคารนี้จะอนุมัติให้ผู้ชายมากกว่าผู้หญิง ก็จะไปเข้าประเด็นความเสี่ยงของ AI ในด้าน อคติหรือ Bias หรือความยุติธรรม หรือ Fairness
- มากันที่ Process หรือ Algorithm ส่วนใหญ่เวลาเราใช้พวก Generative AI ก็ไม่มีใครมานั่งแกะนะครับว่าหลังบ้านมันใช่สมการอะไร รู้แต่ได้ยินคำว่า LLM (Large Language Model) ถ้าเราไม่ได้มาสาย Deep Tech ก็ไม่มีใครมานั่งสนใจ หรือสนใจไปก็ไม่รู้เรื่องอยู่ดี จนเรามักได้ยินคำว่า Black-Box หรือกล่องดำ คือ ไม่รู้มันประมวลผลยังไง ในมุมความเสี่ยงเค้าเรียกว่า Explainable Artificial Intelligence (XAI) ถ้าอธิบายไม่ได้ ก็ไม่สามารถเชื่อมันได้ 100%
ส่วนตัวผมเชื่อว่าในมุมความเสี่ยง ยังเห็นโอกาสหรือคุณค่า (Value) ของการใช้ AI ให้เป็นมากกว่าการไม่ให้ใช้เลย แต่อย่าว่าแต่ AI เลย หนังสือที่เราอ่านกันก็ไม่ 100% เช่นกัน ในช่วงนี้เราจึงเริ่มได้ยินคำว่า
- Trustworthy AI (เราจะเชื่อถือหรือมั่นใจ AI ได้อย่างไร)
- AI Ethic (จริยธรรม AI ว่ามันอคติหรือยุติธรรม โปร่งใสแค่ไหน)
- Data Governance (เริ่มตั้งแต่การได้มาซึ่งคุณภาพและการกำกับข้อมูลที่ดี)
ดังนั้นสำหรับอาชีพครู/อาจารย์ เราต้องสนับสนุนให้นักศึกษาใช้แต่ต้องบอกเขาว่าเราต้องเหนือกว่า AI นั่นคือ ใช้งานมันได้แต่ต้องตรวจหรือ Audit มันเป็นด้วย ตรวจสอบทุกครั้งก่อนส่งงานมานะครับ