สื่อมวลชนไทย ควรมีแนวทางปฏิบัติในการใช้ ‘AI’ อย่างไร?

รายงานพิเศษ

________________________________________

โดย (ธีรนัย จารุวัสตร์ ) อดีตอุปนายกฝ่ายสิทธิเสรีภาพและการปฏิรูปสื่อ สมาคมนักข่าวนักหนังสือพิมพ์ฯ

ภาพประกอบโดย Yasmin Dwiputri จากเว็บไซต์ Better Images of AI 

ในปัจจุบัน เทคโนโลยี “ปัญญาประดิษฐ์” หรือ Artificial Intelligence (AI) กำลังพัฒนาขึ้นอย่างก้าวกระโดด โดยเฉพาะเทคโนโลยีด้าน generative AI ที่สามารถประมวลภาพและข้อความ ตามที่ผู้ใช้ป้อนโจทย์ (prompt) ดังที่ผู้อ่านหลายท่านคงได้เห็นตัวอย่างมาแล้ว ไม่ว่าจะเป็น ChatGPT, ฺBard, Dall-e, Stable Diffusion ฯลฯ 

ประโยชน์ของเทคโนโลยี AI ในด้านการ “ทุ่นแรง” และช่วยเหลือมนุษย์ให้ทำงานสะดวกมากขึ้น ได้ทำให้ AI แพร่หลายไปยังอุตสาหกรรมหลากหลายประเภท รวมถึงสื่อมวลชนด้วย 

อย่างไรก็ตาม การนำเทคโนโลยี AI เข้ามามีส่วนในการทำงานด้านสื่อสารมวลชน ได้นำไปสู่ปัญหาหลายประการที่กระทบต่อหลักจรรยาบรรณวิชาชีพสื่ออย่างร้ายแรง ดังที่เห็นตัวอย่างเกิดขึ้นบ่อยครั้งในต่างประเทศ เช่น ข้อมูลผิดพลาด คำนวนเลขผิดพลาด ใช้ภาษาที่ไม่เหมาะสม ลอกเลียนเนื้อหาจากสำนักข่าวอื่นๆ โดยไม่ใส่ที่มาอย่างชัดเจน เป็นต้น 

ปัญหาต่างๆ ข้างต้น ได้กระตุ้นให้สำนักข่าวและองค์กรวิชาชีพสื่อในหลายประเทศ จัดทำ “แนวทางปฏิบัติ” สำหรับการใช้ AI ภายในองค์กรด้านสื่อมวลชน เพื่อส่งเสริมการใช้ AI ในเชิงสร้างสรรค์ โดยไม่สร้างความเสียหายต่อผู้อ่าน หรือกระทบต่อจรรยาบรรณวิชาชีพ

เท่าที่ผู้เขียนทราบ ยังไม่มีสำนักข่าวหรือองค์กรวิชาชีพสื่อใดๆ ในประเทศไทยประมวลแนวทางปฏิบัติเกี่ยวกับ AI สำหรับสื่อมวลชน ซึ่งเป็นเรื่องเข้าใจได้ เพราะ AI ยังไม่ได้เป็นประเด็นแพร่หลายหรือเร่งด่วนในสื่อไทย อาจจะด้วยข้อจำกัดทางภาษาของเทคโนโลยี AI (โดยเฉพาะประเภทที่ทำงานด้านการเขียน) 

แต่ด้วยศักยภาพของเทคโนโลยี AI ที่กำลังพัฒนาอย่างรวดเร็ว การใช้ AI ในธุรกิจสื่อมวลชนไทยอาจจะเพิ่มมากขึ้นในอนาคตอันใกล้ก็เป็นได้ ผู้เขียนจึงเชื่อว่า วงการสื่อไทยควรนำเอากรณีศึกษาในสื่อต่างประเทศมาเป็น “อุทธาหรณ์” และการวางแนวปฏิบัติด้าน AI ไว้เนิ่นๆ จะได้หลีกเลี่ยงความผิดพลาดหรือความเสียหายที่อาจจะเกิดขึ้นได้ในอนาคต 

สำหรับสื่อมวลชนที่สนใจ ผู้เขียนได้รวบรวมตัวอย่างแนวทางปฏิบัติจากสำนักข่าว องค์กรวิชาชีพสื่อ ตลอดจนผู้เชี่ยวชาญด้านสื่อสารมวลชนในต่างประเทศไว้จำนวนหนึ่ง และประมวลเป็น “แนวทางปฏิบัติต้นแบบ” คร่าวๆ สำหรับสื่อมวลชนไทยไว้ดังนี้:

การใช้ AI ต้องมีการควบคุมจากมนุษย์ทุกครั้ง

 ปัญหาหนึ่งที่เกิดขึ้นซ้ำซากเกี่ยวกับ AI ในสื่อมวลชน คือการใช้ AI ผลิตเนื้อหาข่าวหรือสกู๊ป และเผยแพร่สู่สาธารณชนทันทีโดยไม่มีการตรวจสอบจากกองบรรณาธิการ ทำให้ชิ้นข่าวที่เผยแพร่ออกไปเต็มไปด้วยความผิดพลาด ภาษาที่ชวนสับสน หรือละเมิดทรัพย์สินทางปัญญาของผู้อื่น 

การกระทำดังกล่าว นอกจากจะเป็นการใช้เทคโนโลยีในทางที่ผิดและสะเพร่าแล้ว ยังขัดต่อหลักจรรยาบรรณสื่ออย่างชัดเจนอีกด้วย เพราะบรรณาธิการย่อมมีหน้าที่ตรวจทานต้นฉบับให้ข้อมูลต่างๆ ถูกต้อง ก่อนที่จะเผยแพร่ไปยังผู้เสพข่าว ดังนั้น การใช้ AI ต้องมีการควบคุมจากมนุษย์ทุกครั้ง ไม่ว่าจะเป็นการร่าง เขียน ตรวจตัวสะกดหรือไวยากรณ์ คำนวนเลข วางโครงเรื่อง ฯลฯ

นอกจากนี้ สำนักข่าวควรมีขั้นตอนการขออนุญาตในการใช้ AI เพื่อหลีกเลี่ยงการกระทำโดยพลการของบุคคลากร เช่น การเผยแพร่ชิ้นงานที่มี AI เกี่ยวข้องต้องได้รับอนุญาตจากหัวหน้าข่าวหรือบรรณาธิการทุกครั้ง เป็นต้น 

หลีกเลี่ยงภาพประกอบเนื้อหาข่าวที่ทำขึ้นโดย AI

ภาพที่ทำขึ้นจาก AI อาจจะมีความสร้างสรรค์และสวยงาม แต่สำนักข่าวไม่ควรใช้ภาพในลักษณะดังกล่าวมาเป็นรูปประกอบเหตุการณ์ในข่าว (ไม่ว่าจะเป็นภาพนิ่งหรือภาพเคลื่อนไหวก็ตาม) เพราะภาพประกอบเนื้อหาข่าวในวิชาชีพสื่อนั้น ควรสะท้อนข้อเท็จจริงของเหตุการณ์อย่างเคร่งครัด ดังนั้น หากใช้ภาพที่ AI ทำขึ้น อาจจะทำให้เกิดความเข้าใจผิดสำหรับประชาชนที่อ่านหรือรับชมข่าวสารได้ 

ในกรณีข่าวที่ไม่จำเป็นต้องใช้ภาพประกอบของเหตุการณ์ เช่น บทความ สกู๊ป หรือคอลัมน์ สำนักข่าวควรเลือกใช้ภาพที่ถ่ายหรือวาดโดยมนุษย์เป็นหลัก ไม่ว่าจะเป็นช่างภาพหรือทีมถ่ายคลิปของสำนักข่าวตนเอง หรือการเลือกซื้อภาพจากโฟโต้เอเยนซี่ หรือคลิปวิดิโอจากสำนักข่าวอื่นๆ หรือจ้างศิลปินวาดภาพประกอบ แทนที่จะใช้ภาพที่ทำขึ้นจาก AI เพื่อเป็นการสนับสนุนคนทำงานในวิชาชีพสื่อและศิลปิน 

ภาพประกอบโดย Yasmin Dwiputri จากเว็บไซต์ Better Images of AI 

การใช้ AI ควรเป็นไปเพื่อจุดประสงค์ด้านการสาธิต

เนื่องจาก AI ยังมีข้อจำกัดในหลายด้าน โดยเฉพาะความถูกต้องของข้อมูล และการใช้ต้นฉบับที่อาจจะละเมิดทรัพย์สินทางปัญญา สำนักข่าวควรใช้ AI เพื่อจุดประสงค์ด้านการสาธิตเทคโนโลยีเป็นส่วนใหญ่ เช่น ใช้เพื่อแสดงศักยภาพของ AI หรือใช้แสดงตัวอย่างให้ประชาชนได้รับทราบและเข้าใจว่า AI ทำงานอย่างไร แทนที่จะใช้ AI ในการรายงานข่าวเป็นกิจลักษณะ เพื่อหลีกเลี่ยงการสร้างความเข้าใจผิด 

เนื้อหาหรือภาพใดๆ ที่ทำขึ้นโดย AI ต้องระบุอย่างชัดเจน

เพื่อความโปร่งใสต่อสาธารณชน หากมีการใช้เนื้อหาหรือภาพใดๆ ที่ทำขึ้นโดย AI สำนักข่าวนั้นๆ จะต้องแสดงข้อความชี้แจงอย่างชัดเจน (disclaimer)

กองบรรณาธิการต้องมีผู้รับผิดชอบต่อการใช้ AI

ในวิชาชีพสื่อมวลชน หากการรายงานข่าวหรือเผยแพร่ข้อมูลก่อให้เกิดความเสียหายต่อผู้อื่น กองบรรณาธิการย่อมต้องรับผิดชอบต่อความเสียหายที่เกิดขึ้น ฉันใดฉันนั้น หากเกิดความเสียหายใดๆ ที่มาจากการใช้ AI ของสำนักข่าว ไม่ว่าจะเป็นความผิดพลาดของข้อมูล หรือการละเมิดทรัพย์สินทางปัญญา ฯลฯ ต้นสังกัดย่อมไม่สามารถปัดความรับผิดชอบเช่นกัน 

ดังนั้น กองบรรณาธิการควรตระหนักถึงความเสี่ยงที่การใช้ AI ของตนอาจก่อให้ความเสียหายได้ และต้องมีบุคคลที่รับผิดชอบต่อการใช้ AI อย่างชัดเจน เช่น บรรณาธิการ  

ไม่ใช้ข้อมูลส่วนตัวในการฝึกฝน AI

เทคโนโลยี AI กำลังพัฒนาได้อย่างรวดเร็วจากการที่ผู้ใช้อินเตอร์เน็ตทั่วโลกสามารถ “เทรน” หรือฝึกฝน AI ให้รับรู้บริบทและมีความสามารถด้านการวิเคราะห์ได้ดีขึ้น อย่างไรก็ตาม สื่อมวลชนควรตระหนักต่อสิทธิความเป็นส่วนตัว และไม่ควรใช้ข้อมูลส่วนตัวหรือข้อมูลที่มีความอ่อนไหวในการฝึกฝน AI โดยเฉพาะอย่างยิ่งหากเป็นข้อมูลเกี่ยวกับแหล่งข่าวที่ได้มาในเชิงปิดลับ (off record) เพราะไม่แน่ชัดว่า ข้อมูลเหล่านี้จะถูกใช้งานหรือจัดเก็บจากผู้ผลิต AI อย่างไรบ้าง 

พึงระลึกว่า AI ไม่สามารถแทนที่คนทำงานได้

ถึงแม้เทคโนโลยี AI จะช่วยให้มนุษย์บรรลุภารกิจหลายรูปแบบอย่างสะดวกและราบรื่นขึ้น แต่ AI มีข้อจำกัดด้านศักยภาพจำนวนมาก และไม่เหมาะสมกับงานที่ต้องใช้ทักษะด้านวารสารศาสตร์อย่างเคร่งครัด ไม่ว่าจะเป็นการตรวจสอบข้อเท็จจริง การเสนอข่าวอย่างมีจรรยาบรรณ การสัมภาษณ์แหล่งข่าวและใช้ภาษาที่เหมาะสม ตลอดจนการวิเคราะห์และเข้าใจบริบทสภาพสังคมที่ซับซ้อน ดังนั้น สำนักข่าวพึงตระหนักว่า คนทำงานในวิชาชีพเป็น “ทรัพยากร” ที่สำคัญที่สุด ซึ่งไม่ควรถูกสามารถแทนที่ด้วย AI เพียงอย่างเดียว

ทั้งนี้ สื่อมวลชนที่สนใจประเด็นเรื่องแนวทางปฏิบัติเกี่ยวกับ AI สำหรับสำนักข่าว สามารถศึกษารายละเอียดเพิ่มเติมได้ที่:

Towards Guidelines for Guidelines on the Use of Generative AI in Newsrooms 

How Can Generative AI Help Journalists?

The Associated Press standards around generative AI