รายงานพิเศษจาก Nieman Lab เมื่อปี 2023 เมื่อเทคโนโลยี AI กำลังเปลี่ยนโฉมวงการสื่อ การกำหนดแนวทางการใช้งานที่เหมาะสมจึงเป็นสิ่งจำเป็น Nieman Lab รวบรวมและวิเคราะห์แนวปฏิบัติจาก 21 องค์กรข่าวชั้นนำทั่วโลก เผยมุมมองที่น่าสนใจทั้งด้านการควบคุมและการกำกับดูแล พร้อมเสนอกรอบการทำงานที่สมดุลระหว่างการใช้นวัตกรรมและการรักษามาตรฐานจริยธรรมวิชาชีพ รายงานพิเศษนี้จะพาคุณเจาะลึกว่าทำไมห้องข่าวยุคใหม่จำเป็นต้องมีแนวทางรับมือ AI อย่างไรคือสมดุลที่เหมาะสม และอะไรคือบทเรียนสำคัญที่องค์กรสื่อทั่วโลกได้เรียนรู้จากการนำ AI มาใช้ในกระบวนการผลิตข่าว | ภาพประกอบสร้างจากเทคโนโลยี AI โดย Microsoft Designer
อะไรที่ควรทำและไม่ควรทำเกี่ยวกับการใช้ AI ในการงานข่าว? นี่คือแนวทางที่กองบรรณาธิการ 21 แห่งในสหรัฐฯ ยุโรป และภูมิภาคอื่น ๆ ได้กำหนดนโยบายและแผนงานของตนเอง
การเกิดขึ้นของ Generative AI ทำให้เห็นความจำเป็นที่ห้องข่าวต้องมีแนวทางการใช้เทคโนโลยีเหล่านี้ รายงานพิเศษชิ้นนี้จะแบ่งการนำเสนอการ "อธิบายประเด็นสำคัญและรูปแบบที่พบในแนวทางปฏิบัติของกองบรรณาธิการข่าวต่าง ๆ" และ "นำเสนอคำแนะนำในการร่างแนวทางปฏิบัติสำหรับองค์กรข่าว"
รายงานชิ้นนี้นี้จะเป็นประโยชน์ทั้งสำหรับนักข่าว ผู้บริหาร ผู้ที่เกี่ยวข้อง และผู้ที่สนใจ โดยจะเป็น "แนวทางสำหรับการสร้างแนวทาง" ที่ครอบคลุมกรอบการใช้งาน AI ในกองบรรณาธิการข่าว
แนวทางที่นำมาวิเคราะห์มาจากองค์กรขนาดใหญ่และเล็กส่วนใหญ่ในยุโรปและสหรัฐฯ รวมถึงบางส่วนจากภูมิภาคอื่น ๆ รวม 21 องค์กร
แนวทางที่วิเคราะห์มีความละเอียดแตกต่างกัน บางครั้งถูกเรียกต่างกันเป็น "คำชี้แจงบรรณาธิการ" (editor’s note) "แนวทางปฏิบัติ" (protocol) "หลักการ" (principles) หรือแม้แต่ "ประมวลหลักปฏิบัติด้านจริยธรรม" (deontological charter) บางแนวทางมีลักษณะเข้มงวด โดยห้ามการใช้งานบางอย่างโดยเฉพาะ ขณะที่เอกสารอื่น ๆ เน้นเรื่องการกำกับดูแล โดยองค์กรข่าวมุ่งมั่นที่จะรับผิดชอบเฉพาะด้านเพื่อลดความเสี่ยงจากการใช้ AI
ข้อสังเกตจากแนวทางปฏิบัติของสื่อต่าง ๆ
การกำกับดูแล
แนวทางปฏิบัติได้กล่าวถึงการกำกับดูแลและเชื่อมโยงอย่างจงใจถึงความสำคัญของการมีส่วนร่วมของมนุษย์อย่างมีความหมายและการควบคุมดูแลในการใช้ AI รวมถึงการแก้ไขและการตรวจสอบข้อเท็จจริงของผลลัพธ์ก่อนการเผยแพร่ องค์กรข่าวยังปฏิเสธแนวคิดการใช้เครื่องจักรแทนที่นักข่าวและเน้นย้ำความสำคัญของบทบาทการตัดสินใจของมนุษย์เมื่อใช้เครื่องมือ Generative AI
Aftonbladet และ VG สื่อ 2 แห่งจากสวีเดนและนอร์เวย์ ซึ่งทั้งคู่เป็นเจ้าของโดยบริษัท Schibsted มีความคล้ายคลึงที่ชัดเจนในแนวทางปฏิบัติ แนวทางของ Aftonbladet ระบุว่า "เนื้อหาทั้งหมด ได้รับการตรวจสอบและอำนาจตัดสินใจในการเผยแพร่โดยมนุษย์" ในขณะที่ VG ระบุว่า "การใช้ Generative AI ทั้งหมดต้องได้รับการอนุมัติก่อนการเผยแพร่"
Reuters อธิบายการกำกับดูแลว่าเป็น "ความพยายามที่จะให้มนุษย์มีส่วนร่วมอย่างมีความหมาย การพัฒนา ใช้งานผลิตภัณฑ์ AI และใช้ข้อมูลในลักษณะที่ปฏิบัติต่อผู้คนอย่างเป็นธรรม" ในทำนองเดียวกัน The Guardian ระบุว่าการใช้ Generative AI ต้องมีการกำกับดูแลโดยมนุษย์ โดยระบุในแนวทางปฏิบัติว่าจำเป็นต้องเชื่อมโยงกับ "ประโยชน์เฉพาะและการอนุญาตอย่างชัดเจนจากบรรณาธิการอาวุโส" ANP สำนักข่าวดัตช์ มีข้อความคล้ายกันในแนวทางปฏิบัติเกี่ยวกับการกำกับดูแลโดยมนุษย์ โดยระบุว่าพวกเขาสามารถใช้ AI หรือระบบที่คล้ายกันเพื่อ "สนับสนุนกระบวนการการบรรณาธิกรขั้นสุดท้าย โดยมีเงื่อนไขว่ามนุษย์จะทำการตรวจสอบขั้นสุดท้ายในภายหลัง" พวกเขาอธิบายกระบวนการนี้ว่าเป็น มนุษย์>เครื่องจักร>มนุษย์ ซึ่งหน่วยงานและการตัดสินใจอยู่ภายใต้การกำกับดูแลของมนุษย์
CBC บริษัทข่าวสำคัญในแคนาดา ระบุว่า "จะไม่มีการเผยแพร่หรือออกอากาศข่าวของ CBC โดยปราศจากการมีส่วนร่วมและการกำกับดูแลโดยตรงจากมนุษย์" De Volkskrant หนังสือพิมพ์คุณภาพในเนเธอร์แลนด์ ระบุว่าเนื้อหาของพวกเขาถูกสร้างขึ้นโดยกองบรรณาธิการ นักข่าว ช่างภาพ และนักวาดภาพประกอบที่เป็นมนุษย์ ส่วนเนื้อหาที่สร้างขึ้นโดย AI จะไม่สามารถใช้ภายใต้ชื่อ de Volkskrant โดยไม่ได้รับการอนุมัติจากมนุษย์ แนวทางข้างต้นโดย de Volkskrant สอดคล้องอย่างมากกับสิ่งที่ Heidi.News องค์กรข่าวในสวิตเซอร์แลนด์ และ Le Parisien หนังสือพิมพ์ฝรั่งเศสกำลังระบุ โดยทั่วไปแล้ว พวกเขาระบุว่าจะไม่มีการเผยแพร่เนื้อหาใด ๆ โดยไม่มีการกำกับดูแลจากมนุษย์ก่อน
Nucleo สื่อดิจิทัลในบราซิลระบุว่าพวกเขาจะไม่มีวัน "เผยแพร่เนื้อหา AI โดยไม่มีการตรวจสอบจากมนุษย์บนเว็บไซต์" และจะไม่ "ใช้ AI เป็นบรรณาธิการขั้นสุดท้าย" Ringier กลุ่มสื่อจากสวิตเซอร์แลนด์ที่มีแบรนด์ข่าวใน 19 ประเทศ ระบุว่า "ผลลัพธ์ที่สร้างขึ้นโดยเครื่องมือ AI จะต้องได้รับการตรวจสอบอย่างพิจารณาเสมอ และข้อมูลจะต้องได้รับการตรวจสอบยืนยัน ตรวจสอบ และเสริมโดยใช้วิจารณญาณและความเชี่ยวชาญของบริษัทเอง" ในทำนองเดียวกัน DPA สำนักข่าวเยอรมัน อธิบายว่าการตัดสินใจขั้นสุดท้ายในการใช้ AI ทำโดยมนุษย์ พวกเขาเพิ่มเติมว่า "เราเคารพความเป็นอิสระของมนุษย์และความสำคัญของการตัดสินใจของมนุษย์"
สมาคมนักข่าวเยอรมัน (DJV) อ้างถึงเครื่องมือ AI ว่าเป็นเพื่อนร่วมงาน พวกเขาระบุว่า "ไม่ว่าในกรณีใด ๆ ไม่ควรอนุญาตให้ 'เพื่อนร่วมงาน AI' แทนที่บรรณาธิการ แม้ว่าการใช้ AI จะเปลี่ยนแปลงงานหรือกำจัดงานทั้งหมด แต่ก็ไม่ได้ทำให้ผู้คนในห้องข่าวไม่จำเป็นอีกต่อไป" The Financial Times กล่าวว่างานข่าวของพวกเขาจะยังคงได้รับการรายงาน เขียน และบรรณาธิกรโดยมนุษย์ที่เป็นผู้ที่ดีที่สุดในสาขาของตน STT สำนักข่าวฟินแลนด์ เชื่อมโยงการกำกับดูแลกับการตัดสินใจ: "อย่าปล่อยให้ AI ตัดสินใจแทนคุณ แต่ประเมินประโยชน์ของคำตอบด้วยตัวคุณเองเสมอ"
แนวปฏิบัติการใช้ AI ของ Insider บริษัทสื่อออนไลน์ของสหรัฐฯ ระบุว่านักข่าวของพวกเขาควรตรวจสอบข้อเท็จจริงเสมอ และเน้นย้ำว่า "ห้ามคัดลอก! ตรวจสอบความเป็นต้นฉบับเสมอ แนวปฏิบัติที่ดีที่สุดของบริษัทอาจมีการพัฒนา แต่ในตอนนี้ อย่างน้อยที่สุด นักข่าวต้องตรวจสอบให้แน่ใจว่าข้อความใด ๆ ที่ได้รับจาก ChatGPT ผ่านการค้นหาของ Google และตรวจสอบผ่านฟีเจอร์ตรวจจับการคัดลอกของ Grammarly" Insider ยังเรียกร้องให้บรรณาธิการท้าทายนักข่าวให้ตรวจสอบข้อเท็จจริง "จำเป็นต้องเพิ่มความเข้มงวดในการตรวจสอบ โดยสอบถามนักข่าวอย่างละเอียดว่าได้ข้อมูลและข้อเท็จจริงแต่ละประเด็นมาจากแหล่งใด"
ความโปร่งใส
การกล่าวถึงความโปร่งใส มักเชื่อมโยงกับข้อกำหนดที่ว่าเนื้อหาควรมีการระบุป้ายกำกับในรูปแบบที่ผู้อ่านสามารถเข้าใจได้ อย่างไรก็ตาม จากแนวทางปฏิบัติต่าง ๆ ยังไม่ชัดเจนนักว่าความโปร่งใสเหล่านี้จะถูกนำไปปฏิบัติจริงอย่างไร
Aftonbladet และ VG ระบุว่าในกรณีที่พวกเขาเผยแพร่เนื้อหาที่สร้างโดย AI ทั้งข้อความและรูปภาพ (ซึ่งมีไม่บ่อยนัก) จะต้องมีการระบุอย่างชัดเจนว่าถูกสร้างขึ้นโดย AI แนวทางของ VG ยังระบุเพิ่มเติมว่า: "เนื้อหาที่สร้างโดย AI ต้องมีการติดป้ายกำกับอย่างชัดเจนและในรูปแบบที่เข้าใจได้" ในทำนองเดียวกัน Reuters ระบุว่าพวกเขาจะนำแนวปฏิบัติด้าน AI มาใช้ "เพื่อทำให้การใช้ข้อมูลและ AI ในผลิตภัณฑ์และบริการของพวกเขาสามารถเข้าใจได้"
The Guardian ระบุว่าเมื่อพวกเขาใช้ Generative AI พวกเขาจะ "เปิดเผยต่อผู้อ่านเมื่อมีการใช้งาน" ส่วน CBC พูดถึง "การไม่สร้างความประหลาดใจ" ให้กับผู้ชมของพวกเขา โดยระบุว่าจะติดป้ายกำกับเนื้อหาที่สร้างโดย AI: "เราจะไม่ใช้หรือนำเสนอเนื้อหาที่สร้างโดย AI ต่อผู้ชมโดยไม่มีการเปิดเผยอย่างครบถ้วน" ข้อความที่คล้ายกันนี้สามารถพบได้ในแนวทางปฏิบัติของสำนักข่าว ANP, Mediahuis, สภาสื่อเบลเยียม (RVDJ), สำนักข่าว DPA และสมาคมนักข่าวเยอรมัน (DJV) ที่ระบุว่าเนื้อหาที่สร้างโดย AI จำเป็นต้องมีการติดป้ายกำกับอย่างชัดเจน
Ringier อธิบายว่ากฎทั่วไปของพวกเขาคือเนื้อหาที่สร้างโดย AI จำเป็นต้องมีการติดป้ายกำกับ น่าสนใจที่ว่าข้อกำหนดนี้ไม่จำเป็นต้องใช้ "ในกรณีที่เครื่องมือ AI ถูกใช้เป็นเพียงตัวช่วย" ซึ่งแสดงให้เห็นถึงแนวทางที่แตกต่างในด้านความโปร่งใสเมื่อ AI ถูกใช้โดยผู้คนในฐานะส่วนเสริมของกระบวนการทำงาน ในทำนองเดียวกัน STT ระบุว่าการใช้ AI ในการรายงานข่าวต้องมีการสื่อสารต่อสาธารณะเสมอ: "สิ่งนี้ใช้ได้ทั้งในสถานการณ์ที่มีการใช้เทคโนโลยีเพื่อช่วยในการผลิตข่าวและข่าวที่มีแหล่งข้อมูลที่สร้างโดย AI"
การห้ามและการอนุญาตให้ใช้ AI
การห้ามและการอนุญาตให้ใช้ AI มักถูกระบุเป็นแนวทางปฏิบัติ แม้บางครั้งจะมีข้อยกเว้น สำหรับข้อยกเว้นเหล่านี้ เงื่อนไขด้านความโปร่งใส ความรับผิดชอบ และความรับผิดชอบต่อผลลัพธ์จะถูกระบุไว้อย่างชัดเจนในแนวทางปฏิบัติ นอกจากนี้ยังให้ความสำคัญกับการใช้งานในด้านการสร้างภาพด้วย
Wired ระบุว่าพวกเขาไม่ตีพิมพ์เรื่องราวที่มีข้อความที่สร้างโดย AI ยกเว้นเมื่อตัวละครที่สร้างโดย AI เป็นประเด็นหลักของเรื่อง พวกเขายังกล่าวว่า "จะไม่ตีพิมพ์ข้อความที่แก้ไขโดย AI" รวมถึง "จะไม่ใช้ภาพที่สร้างโดย AI แทนภาพสต็อก" เหตุผลเบื้องหลังอ้างถึงแนวคิดที่ว่าการแก้ไขเชื่อมโยงโดยตรงกับการกำหนดว่าอะไรมีความเกี่ยวข้อง เป็นต้นฉบับ และน่าสนใจ แม้แนวทางของ Wired จะมีข้อจำกัด แต่พวกเขาระบุว่าอาจทดลองใช้ AI สำหรับงานในกระบวนการรายงานข่าว เช่น การแนะนำพาดหัวข่าวหรือสร้างไอเดียหรือข้อความสำหรับโพสต์โซเชียลมีเดียสั้น ๆ
Nucleo ระบุการใช้งาน AI ที่อนุญาต เช่น การสรุปข้อความเพื่อแนะนำ "โพสต์บนโซเชียลมีเดีย" และใช้เป็นเครื่องมือในการวิจัย "หัวข้อและประเด็น" นักข่าวของ Aftonbladet และ VG อาจ "ใช้เทคโนโลยี AI ในงานของพวกเขาเพื่อสร้างภาพประกอบ กราฟิก แบบจำลอง" แม้ว่าแนวทางของ VG จะเห้ามสร้างภาพที่สมจริงเนื่องจาก "เนื้อหาที่สร้างโดย AI ต้องไม่บั่นทอนความน่าเชื่อถือของการถ่ายภาพเชิงข่าว"
Insider ระบุว่านักข่าวของพวกเขาอาจใช้ AI ในการสร้าง "โครงร่างเรื่อง พาดหัว SEO การตรวจแก้ไข การออกแบบคำถามสัมภาษณ์ การอธิบายแนวคิด และการสรุปข่าวเก่า" อย่างไรก็ตาม พวกเขาระบุว่านักข่าวต้องไม่ใช้มันในการเขียนข่าวแทน สำหรับการใช้ภาพที่สร้างโดย AI พวกเขาเน้นว่าพวกเขา "ต้องมีการพูดคุยเพิ่มเติมก่อนที่จะตัดสินใจว่าจะใช้หรือไม่ใช้อย่างไร"
Hongkong Free Press (HKFP) หนังสือพิมพ์ภาษาอังกฤษในฮ่องกง จำกัดการใช้ AI ทั้งหมดสำหรับการเขียนข่าว การสร้างภาพ หรือการตรวจสอบข้อเท็จจริง เนื่องจาก "เครื่องมือ AI ส่วนน้อยที่มีการอ้างอิงแหล่งที่มาหรือข้อมูลการอ้างอิงที่เหมาะสม" น่าสนใจที่ HKFP ระบุว่าพวกเขาอาจใช้ AI ที่ได้รับการอนุมัติภายใน "สำหรับการตรวจสอบไวยากรณ์/การสะกดคำ การเรียบเรียง/สรุปข้อความ และช่วยในการแปล การถอดความ หรือการวิจัย" ในทำนองเดียวกัน De Volkskrant ระบุว่าบรรณาธิการของพวกเขาไม่ตีพิมพ์งานข่าวที่สร้างโดย AI
CBC ระบุว่าพวกเขาจะไม่ใช้ AI เพื่อสร้างเสียงหรือลักษณะของนักข่าวหรือบุคลากรของ CBC "ยกเว้นเพื่อแสดงให้เห็นว่าเทคโนโลยีทำงานอย่างไร" น่าสนใจที่พวกเขาเชื่อมโยงข้อยกเว้นนี้กับ 2 เงื่อนไข คือ (1) "การอนุมัติล่วงหน้าจากสำนักงานมาตรฐาน" และ (2) "ต้องได้รับอนุญาตจากบุคคลที่จะถูกนำไปสร้างเป็นเสียงหรือภาพเสมือนด้วย AI" นอกจากนี้ พวกเขาจะไม่ใช้เทคโนโลยีสำหรับการทำข่าวสืบสวนในรูปแบบของการจดจำใบหน้าหรือการจับคู่เสียง รวมถึงไม่ใช้มันในการสร้างเสียงสำหรับแหล่งข่าวที่เป็นความลับซึ่งพวกเขาพยายามปกป้องตัวตน พวกเขาจะยังคงใช้วิธีการที่ผู้ชมเข้าใจ เช่น การปรับเสียง การเบลอภาพ และการใช้เงา
Heidi.News องค์กรข่าวในสวิตเซอร์แลนด์ ระบุว่าพวกเขาจะ "ใช้ภาพสังเคราะห์จาก AI เพื่อวัตถุประสงค์ในการประกอบเท่านั้น ไม่ใช่เพื่อวัตถุประสงค์ในการให้ข้อมูล เพื่อไม่ให้สับสนกับเหตุการณ์จริง" พวกเขายังเพิ่มเติมว่าจะไม่ตีพิมพ์ภาพสังเคราะห์ใด ๆ ที่อาจดูเหมือนภาพถ่าย "ยกเว้นเพื่อวัตถุประสงค์ทางการศึกษาเมื่อภาพดังกล่าวเป็นที่เปิดเผยต่อสาธารณะแล้ว"
Le Parisien ระบุว่าพวกเขาสงวนสิทธิ์ในการใช้ AI สำหรับการสร้างข้อความและภาพเพื่อการประกอบ พวกเขาเชื่อมโยงการใช้ AI แบบพิเศษกับข้อเท็จจริงที่ว่าพวกเขาต้องโปร่งใสตลอดเวลา: "เราจะตรวจสอบให้แน่ใจว่ามีการระบุที่มาอย่างชัดเจนสำหรับผู้อ่าน" นอกจากนี้ พวกเขายังอธิบายการใช้ AI ว่าเป็นการเพิ่มคุณค่า "ผู้ปฏิบัติงานข่าวอาจใช้เครื่องมือเหล่านี้เหมือนกับที่พวกเขาใช้เครื่องมือค้นหา แต่พวกเขาต้องกลับไปยังแหล่งข้อมูลของตัวเองเสมอเพื่อรับประกันที่มาของข้อมูล" Financial Times เน้นย้ำว่าพวกเขาจะไม่ตีพิมพ์ภาพที่สมจริงที่สร้างโดย AI แต่พวกเขาจะสำรวจการใช้ภาพที่เสริมด้วย AI (อินโฟกราฟิก แผนภาพ ภาพถ่าย) และเมื่อพวกเขาทำเช่นนั้น พวกเขาจะทำให้ชัดเจนต่อผู้อ่าน
STT สำนักข่าวในฟินแลนด์ เชื่อมโยงการห้ามใช้ AI โดยตรงกับข้อจำกัดของมัน "STT ไม่ใช้ AI สำหรับการขุดข้อมูล แหล่งที่มาที่ใช้โดย AI มักไม่ชัดเจน ซึ่งทำให้การใช้งานในงานบรรณาธิการมีปัญหา" พวกเขายังระบุว่าความน่าเชื่อถือของแหล่งข้อมูลและการตรวจสอบข้อมูลยังคงมีความสำคัญ
ความรับผิดชอบและภาระรับผิดชอบ
"ความรับผิดชอบ" (Accountability) และ "ภาระรับผิดชอบ" (Responsibility) มักถูกกล่าวถึงในแนวทางปฏิบัติที่เกี่ยวข้องกับเนื้อหาที่เผยแพร่ รวมถึงค่านิยมต่างๆ เช่น ความถูกต้อง ความเป็นธรรม ความเป็นผลงานดั้งเดิม และความโปร่งใส นอกจากนี้ยังเน้นเรื่องการนำมาตรการความรับผิดชอบมาใช้สำหรับการใช้ข้อมูลและผลิตภัณฑ์ AI รวมถึงการใช้ระบบ AI ที่มีความแข็งแกร่งและปลอดภัยทางเทคนิคเพื่อลดความเสี่ยง
Aftonbladet ระบุว่าพวกเขารับผิดชอบ "ต่อทุกสิ่งที่พวกเขาเผยแพร่บนเว็บไซต์ รวมถึงเนื้อหาที่ผลิตโดยใช้หรืออ้างอิงจาก AI หรือเทคโนโลยีอื่นๆ และอยู่ภายใต้อำนาจการเผยแพร่ของเรา" Reuters ระบุว่าพวกเขาจะ "นำไปปฏิบัติและรักษามาตรการความรับผิดชอบที่เหมาะสมสำหรับการใช้ข้อมูลและผลิตภัณฑ์และบริการ AI ของเรา" DPA เน้นย้ำว่าพวกเขาจะใช้เฉพาะ AI "ที่มีความแข็งแกร่งและปลอดภัยทางเทคนิคเพื่อลดความเสี่ยงจากข้อผิดพลาดและการใช้งานในทางที่ผิด" Le Parisien ระบุว่าพวกเขาต้องการปกป้องตัวเองจาก "ความเสี่ยงของข้อผิดพลาดหรือการละเมิดลิขสิทธิ์ใดๆ รวมถึงเพื่อสนับสนุนผลงานของศิลปิน ช่างภาพ และนักวาดภาพประกอบ"
สมาคมนักข่าวเยอรมัน (DJV) เน้นย้ำว่าองค์กรข่าวต้องรับผิดชอบต่อเนื้อหาของตน และกองบรรณาธิการควรจัดตั้งกระบวนการยอมรับและอนุมัติที่มีการควบคุมสำหรับเนื้อหาข่าวเมื่อมีการใช้ AI Financial Times ระบุว่าเป็นความเชื่อมั่นของพวกเขาที่ว่า "ภารกิจในการผลิตงานข่าวที่มีมาตรฐานสูงสุดมีความสำคัญมากขึ้นในยุคของนวัตกรรมเทคโนโลยีที่รวดเร็วนี้" พวกเขาเพิ่มเติมว่า "FT มีความรับผิดชอบมากขึ้นที่จะต้องโปร่งใส รายงานข้อเท็จจริง และแสวงหาความจริง"
ส่วน Insider ระบุว่าผู้อ่านของพวกเขาควรไว้วางใจได้ว่าพวกเขาจะรับผิดชอบต่อความถูกต้อง ความเป็นธรรม ความเป็นผลงานดั้งเดิม และคุณภาพของแต่ละเรื่องราว พวกเขาระบุว่านักข่าวของพวกเขารับผิดชอบต่อความถูกต้อง ความเป็นธรรม ความเป็นผลงานดั้งเดิม และคุณภาพของทุกคำในเรื่องราวของพวกเขา
ความเป็นส่วนตัวและการรักษาความลับ
ความเป็นส่วนตัวและการรักษาความลับมักถูกกล่าวถึงในแง่ของการปกป้องแหล่งข่าวและการระมัดระวังในการให้ข้อมูลที่ละเอียดอ่อนแก่แพลตฟอร์มภายนอก นอกจากนี้ แนวทางปฏิบัติยังเน้นว่าพวกเขาควรระมัดระวังเกี่ยวกับการใช้เนื้อหาที่เป็นความลับหรือยังไม่ได้เผยแพร่ เป็นข้อมูลป้อนเข้าสำหรับเครื่องมือ AI
Aftonbladet อธิบายว่าพวกเขา "ปกป้องการคุ้มครองแหล่งข่าวและไม่ป้อนข้อมูลที่ละเอียดอ่อนหรือข้อมูลที่เป็นกรรมสิทธิ์ให้กับแพลตฟอร์มภายนอกอย่าง ChatGPT" ซึ่งความคิดนี้สะท้อนในคำที่แตกต่างเล็กน้อยโดย VG: "นักข่าวควรแบ่งปันเฉพาะเนื้อหาที่ได้รับการอนุมัติให้เผยแพร่ทันทีบนแพลตฟอร์มของ VG กับบริการ AI เท่านั้น" Reuters เน้นย้ำว่าพวกเขาจะ "ให้ความสำคัญกับความปลอดภัยและความเป็นส่วนตัวในการใช้ข้อมูลของเรา และตลอดการออกแบบ พัฒนา และการนำผลิตภัณฑ์และบริการด้านข้อมูลและ AI ของเราไปใช้" CBC ระบุว่าพวกเขาจะ "ไม่ป้อนเนื้อหาที่เป็นความลับหรือยังไม่ได้เผยแพร่เข้าไปในเครื่องมือ AI ไม่ว่าด้วยเหตุผลใดก็ตาม" ส่วน Mediahuis ระบุว่าพวกเขาควรปฏิบัติตามกฎหมายความเป็นส่วนตัวและขอความยินยอมจากผู้ใช้ก่อนใช้ข้อมูลส่วนบุคคลเมื่อจำเป็น
Ringier ระบุว่าพนักงานของพวกเขา "ไม่ได้รับอนุญาตให้ป้อนข้อมูลที่เป็นความลับ ความลับทางการค้า หรือข้อมูลส่วนบุคคลของแหล่งข่าว พนักงาน ลูกค้า หรือพันธมิตรทางธุรกิจ หรือบุคคลธรรมดาอื่นๆ ลงในเครื่องมือ AI" สำหรับการพัฒนาโค้ด แนวทางของ Ringier อธิบายว่าโค้ดอาจถูกป้อนเข้าในระบบ AI ได้เฉพาะเมื่อ "ไม่ได้เป็นความลับทางการค้าและไม่ได้เป็นของบุคคลที่สาม"
น่าสนใจที่ว่า แนวทางปฏิบัติส่วนใหญ่ที่รายงานชิ้นนี้ทำการวิเคราะห์ไม่ได้แยกแยะระหว่างบริการ AI (เช่น OpenAI) กับการพัฒนาและใช้ระบบ AI ที่โฮสต์บนคอมพิวเตอร์ที่องค์กรดำเนินการเอง เช่นที่อาจเป็นกรณีของโมเดลโอเพนซอร์ส อย่างไรก็ตาม สิ่งสำคัญที่ต้องทราบคือ ความเสี่ยงด้านความเป็นส่วนตัวและการรักษาความลับเกี่ยวข้องกับการใช้บริการ AI ที่โฮสต์โดยองค์กรอื่น มากกว่าการใช้ AI เอง
การทดลองอย่างระมัดระวัง
การกล่าวถึงการทดลองอย่างระมัดระวังในแนวทางปฏิบัติ มักเชื่อมโยงกับการมีความอยากรู้อยากเห็นและการมีวิจารณญาณ ในขณะที่ยังเน้นย้ำถึงศักยภาพในการสร้างนวัตกรรม นอกจากนี้ยังเน้นการตรวจสอบความถูกต้องของผลลัพธ์ที่สร้างโดย AI เนื่องจากมีการให้ความสำคัญกับการตระหนักถึงความเสี่ยงของข้อมูลเท็จและ "การบิดเบือนความจริง"
กฎหลักของ VG คือนักข่าวของพวกเขาต้อง "ปฏิบัติต่อการใช้ข้อความ วิดีโอ ภาพ เสียง และเนื้อหาอื่น ๆ ที่สร้างขึ้นด้วยความช่วยเหลือของ AI (generative AI) เช่นเดียวกับแหล่งข้อมูลอื่นๆ ด้วยความอยากรู้อยากเห็นอย่างเปิดเผยและด้วยความระมัดระวัง" CBC ระบุว่าพวกเขาจะไม่พึ่งพาการวิจัยที่สร้างโดย AI เพียงอย่างเดียวในงานข่าวของพวกเขา: "เราใช้หลายแหล่งข้อมูลเสมอเพื่อยืนยันข้อเท็จจริง" ส่วน ANP ระบุว่าสมาชิกทุกคนของกองบรรณาธิการ ANP ควรมองAI และระบบที่เกี่ยวข้อง "ด้วยความประหลาดใจ ช่างซักถาม มีวิจารณญาณ และเปิดรับการพัฒนา" พวกเขาเพิ่มเติมว่าพวกเขายังคงแสวงหานวัตกรรมอย่างต่อเนื่องด้วยใจที่เปิดกว้าง ด้าน STT ระบุว่านักข่าวควรสำรวจ AI เมื่อมีโอกาส พวกเขาเป็นหนึ่งในผู้ผลิตข่าวรายแรกๆ ที่เริ่มทดลองใช้ Generative AI ในรูปแบบของโมเดลภาษา และระบุว่าการทดลองยังคงมีความสำคัญในการค้นพบความเป็นไปได้และข้อจำกัดของโมเดลเหล่านี้
Financial Times ระบุในจดหมายจากบรรณาธิการว่าพวกเขาจะรับเอา AI มาใช้เพื่อให้บริการแก่ผู้อ่านและลูกค้า น่าสนใจที่พวกเขายังเน้นย้ำว่าจำเป็นสำหรับ FT ที่จะต้องมีทีมในห้องข่าวที่สามารถทดลองใช้ AI อย่างมีความรับผิดชอบ พวกเขายังเพิ่มเติมว่า "เทคโนโลยีทุกอย่างเปิดพรมแดนใหม่ที่น่าตื่นเต้นซึ่งต้องได้รับการสำรวจอย่างมีความรับผิดชอบ แต่เหมือนที่ประวัติศาสตร์เมื่อเร็วๆ นี้แสดงให้เห็น ความตื่นเต้นต้องมาพร้อมกับความระมัดระวังเกี่ยวกับความเสี่ยงของข้อมูลเท็จและการบิดเบือนความจริง" สุดท้าย FT ระบุว่าการทดลองใช้ AI ทั้งหมดในกองบรรณาธิการจะถูกบันทึกไว้เป็นการภายใน รวมถึงการใช้งานของผู้ให้บริการภายนอกที่อาจใช้เครื่องมือนี้เท่าที่เป็นไปได้
การกำหนดทิศทางการใช้ AI
ในหลายกรณี เอกสารแนวทางปฏิบัติยังแสดงถึงเป้าหมายเชิงกลยุทธ์ขององค์กรในการนำ Generative AI มาใช้ แรงจูงใจที่กล่าวถึงรวมถึงความต้องการที่จะเพิ่มความเป็นผลงานดั้งเดิม คุณภาพ และแม้แต่ความเร็ว ในขณะที่บางครั้งก็สะท้อนถึงความต้องการที่จะไม่แทนที่นักข่าวและรักษาค่านิยมหลัก เช่น ความเป็นอิสระหรือความเป็นกลาง
Financial Times ระบุว่า AI มีศักยภาพที่จะ "เพิ่มผลผลิตของพวกเขาและปลดปล่อยเวลาของนักข่าวและบรรณาธิการให้มุ่งเน้นไปที่การสร้างและรายงานเนื้อหาที่เป็นต้นฉบับ" The Guardian ระบุว่าพวกเขาจะพยายามใช้เครื่องมือ AI ในงานบรรณาธิการเฉพาะในกรณีที่มันช่วยสนับสนุนการสร้างและเผยแพร่งานข่าวที่เป็นต้นฉบับ นอกจากนี้ พวกเขายังกล่าวว่าเมื่อใช้ AI พวกเขาจะมุ่งเน้นไปที่ "สถานการณ์ที่สามารถปรับปรุงคุณภาพงานของเราได้" Mediahuis บริษัทข่าวในเบลเยียม ระบุว่า AI ควรยกระดับงานข่าวของพวกเขา พวกเขากล่าวว่าเป้าหมายของพวกเขาคือ "ยกระดับคุณภาพงานข่าวของเราเพื่อผู้อ่าน" Insider เน้นย้ำว่านักข่าวของพวกเขาอาจ และควรใช้ AI เพื่อทำให้งานของพวกเขาดีขึ้น "แต่มันยังคงเป็นงานของคุณ" พวกเขากล่าว "และคุณต้องรับผิดชอบต่อมัน คุณมีความรับผิดชอบต่อผู้อ่านและผู้ชมของเรา" ANP สำนักข่าวดัตช์ กล่าวว่าพวกเขาต้องการรักษาความเป็นกลางและความเป็นอิสระ และควรระมัดระวังในการใช้ AI แบบสร้างเนื้อหา
DPA ระบุว่าพวกเขาใช้ AI สำหรับวัตถุประสงค์ต่างๆ และเปิดกว้างต่อการใช้ AI ที่เพิ่มขึ้น พวกเขาเพิ่มเติมว่า AI จะช่วยให้พวกเขาทำงานได้ดีขึ้นและเร็วขึ้น De Volkskrant มอง AI เป็นเครื่องมือ "ไม่ใช่ระบบที่สามารถแทนที่งานของนักข่าวได้" และความรู้สึกที่ไม่ต้องการแทนที่นักข่าวด้วยเครื่องจักรนี้ถูกสะท้อนโดย Heidi.News และ Le Parisien ด้วย Heidi.News ระบุว่าควรมอง AI เป็นเครื่องมือ และเมื่อพยายามจะรักษาความเป็นกลาง นักข่าวของพวกเขาควร "ไม่มองเครื่องมือเหล่านี้เป็นแหล่งข้อมูล"
การฝึกอบรม
การฝึกอบรมถูกกล่าวถึงไม่บ่อยในแนวทางปฏิบัติ อย่างไรก็ตาม เมื่อถูกกล่าวถึง การฝึกอบรมและการเรียนการสอนมักเชื่อมโยงกับการลดความเสี่ยงของ AI แบบสร้างเนื้อหาและการมีความรับผิดชอบและความโปร่งใสต่อผู้อ่าน
Mediahuis ระบุว่าควรมีการฝึกอบรมและการรับรองคุณสมบัติสำหรับผู้ที่รับผิดชอบการตัดสินใจเกี่ยวกับ AI พวกเขาเชื่อมโยงสิ่งนี้กับการพัฒนาสายการรับผิดชอบที่ชัดเจนสำหรับการพัฒนาและการใช้ AI สมาคมนักข่าวเยอรมัน (DJV) เน้นย้ำว่าการใช้ปัญญาประดิษฐ์ต้องกลายเป็นส่วนสำคัญของการฝึกอบรมและการอบรมเพิ่มเติมของนักข่าว พวกเขาเรียกร้องให้บริษัทสื่อสร้างการฝึกอบรมที่เหมาะสมซึ่งรวมถึงการใช้ AI ในทางที่ผิด หนังสือพิมพ์อังกฤษ Financial Times ระบุว่าพวกเขาจะจัดฝึกอบรมให้นักข่าวเกี่ยวกับการใช้ AI แบบสร้างเนื้อหาสำหรับการค้นพบเรื่องราว โดยจะจัดในรูปแบบของชั้นเรียนมาสเตอร์คลาส
อคติ
The Guardian ระบุถึงการจัดการกับอคติใน AI อย่างชัดเจน โดยพวกเขาจะ "ป้องกันอันตรายจากอคอติที่ฝังอยู่ในเครื่องมือ AI และชุดข้อมูลฝึกฝนที่อยู่เบื้องหลัง" Mediahuis ระบุว่านักข่าวของพวกเขาควรระวังอคิติในระบบ AI และทำงานเพื่อแก้ไขปัญหาเหล่านั้น Ringier ระบุว่าเครื่องมือของพวกเขาจะต้อง "เป็นธรรม เป็นกลาง และไม่เลือกปฏิบัติ" เสมอ
การปรับเปลี่ยนแนวปฏิบัติ
แนวทางปฏิบัติหลายฉบับสะท้อนถึงความถ่อมตนเมื่อเผชิญกับการเปลี่ยนแปลงอย่างรวดเร็วและเน้นย้ำความสำคัญของการปรับแนวทางปฏิบัติเมื่อเวลาผ่านไป ตามที่ความเข้าใจเกี่ยวกับความเสี่ยงพัฒนาขึ้น
Nucleo ระบุว่านโยบายของพวกเขาเกี่ยวกับ Generative AI "มีการพัฒนาอย่างต่อเนื่องและอาจมีการปรับปรุงเป็นครั้งคราว" ข้อความในลักษณะเดียวกันนี้สามารถพบได้ในแนวทางปฏิบัติของ Aftonbladet และ VG Wired เขียนว่า AI จะพัฒนาขึ้น และ "อาจเปลี่ยนมุมมองของเราเมื่อเวลาผ่านไป และเราจะรับทราบการเปลี่ยนแปลงใดๆ ในโพสต์นี้ [แนวปฏิบัติขององค์กร]" ตามบันทึกของบรรณาธิการที่ด้านล่างของเอกสารแนวทางปฏิบัติ มันได้รับการปรับปรุงไปแล้วหนึ่งครั้ง CBC ระบุว่าพวกเขาบอกนักข่าวว่าแนวทางปฏิบัติเหล่านี้ "เป็นเพียงขั้นต้นและอาจมีการเปลี่ยนแปลงตามที่เทคโนโลยีและแนวปฏิบัติที่ดีที่สุดของอุตสาหกรรมพัฒนาไป" De Volkskrant ระบุว่าพวกเขาติดตามพัฒนาการด้วยความสนใจเชิงวิพากษ์และในที่ที่พวกเขาเห็นว่าจำเป็น พิธีการของพวกเขาจะได้รับการปรับเปลี่ยน ในทำนองเดียวกัน Ringier ระบุว่าแนวทางปฏิบัติของพวกเขาจะได้รับการทบทวนอย่างต่อเนื่องในเดือนต่อๆ ไป และจะมีการปรับเปลี่ยนหากจำเป็น
หัวข้อที่ถูกกล่าวถึงน้อยในแนวทางปฏิบัติ
โดยรวมแล้ว มีบางหัวข้อที่ไม่โดดเด่นในแนวทางปฏิบัติ การปฏิบัติตามกฎหมาย รวมถึงการปรับแต่งให้เข้ากับบุคคล คุณภาพข้อมูล ข้อเสนอแนะจากผู้ใช้ และการผสานรวม Generative AI ในห่วงโซ่อุปทานมักถูกกล่าวถึงน้อย
ห่วงโซ่อุปทาน
ห่วงโซ่อุปทานของ AI เกี่ยวข้องกับแนวคิดเรื่องเครือข่ายของผู้จัดหาระบบ AI เช่น โมเดลจากบุคคลที่สาม ผู้ร่วมงาน ผู้ให้บริการข้อมูล ผู้ให้บริการกำกับข้อมูล ฯลฯ DJV เน้นย้ำถึงความจำเป็นในเรื่องความแม่นยำเมื่อเกี่ยวข้องกับการจัดการข้อมูล พวกเขาระบุว่า: "การเก็บรวบรวมข้อมูล การเตรียมข้อมูล และการประมวลผลข้อมูลต้องเป็นไปตามมาตรฐานคุณภาพสูง ความไม่สมบูรณ์ การบิดเบือน และข้อผิดพลาดอื่นๆ ในข้อมูลต้องได้รับการแก้ไขโดยเร่งด่วน" น่าสนใจที่ DJV เรียกร้องให้สำนักข่าวสร้างฐานข้อมูลของตัวเองที่อิงกับคุณค่า และสนับสนุนโครงการข้อมูลเปิดโดยหน่วยงานรัฐและสถาบันรัฐบาล พวกเขาระบุว่าการมีความเป็นอิสระมากขึ้นจากผู้ให้บริการเทคโนโลยีขนาดใหญ่เชิงพาณิชย์เป็นสิ่งที่พึงปรารถนา Reuters เป็นหนึ่งในองค์กรข่าวไม่กี่แห่งที่กล่าวถึงการกำกับดูแลความร่วมมือ โดยพวกเขาระบุว่าจะ "พยายามร่วมมือกับบุคคลและองค์กรที่มีแนวทางจริยธรรมคล้ายกับของเราเกี่ยวกับการใช้ข้อมูล เนื้อหา และ AI"
การปฏิบัติตามกฎหมาย
DPA ระบุว่าพวกเขาใช้เฉพาะ AI ที่เป็นไปตามกฎหมายที่บังคับใช้และข้อกำหนดทางกฎหมาย และตรงตามหลักจริยธรรมของพวกเขา เช่น ความเป็นอิสระของมนุษย์ ความเป็นธรรม และคุณค่าประชาธิปไตย DJV เรียกร้องให้นักกฎหมายตรวจสอบให้แน่ใจว่าการติดป้ายกำกับเนื้อหาที่สร้างโดย AI กลายเป็นสิ่งที่บังคับ พวกเขาเรียกร้องให้นักกฎหมายกำหนดภาระผูกพันในการติดป้ายกำกับดังกล่าวในกฎหมาย
การปรับแต่งให้เข้ากับบุคคล
DJV ระบุว่าการปรับแต่งให้เข้ากับบุคคลโดยใช้ AI ต้องดำเนินการอย่างมีความรับผิดชอบและสมดุลเสมอ พวกเขาเพิ่มเติมว่าผู้ใช้ควรมี "ตัวเลือกในการเปลี่ยนเกณฑ์การคัดเลือกและ/หรือปิดการใช้งานการกระจายที่ปรับแต่งให้เข้ากับบุคคลโดยสมบูรณ์"
ข้อเสนอแนะจากผู้ใช้
Mediahuis ระบุว่าพวกเขาส่งเสริมให้ผู้อ่านแสดงความคิดเห็นและให้พวกเขาตรวจสอบข้อมูลของตนเอง สิ่งนี้สะท้อนถึงความมุ่งมั่นในเรื่องความโปร่งใส ความรับผิดชอบ และแนวคิดที่ให้ความสำคัญกับลูกค้าในภูมิทัศน์ของการบริโภคสื่อที่กำลังพัฒนา
ข้อแนะนำสำหรับการสร้างแนวทางปฏิบัติ
จากการสังเกตข้างต้น รายงานชิ้นนี้ขอเสนอคำแนะนำสำหรับนักข่าวและองค์กรข่าวที่อาจกำลังคิดจะพัฒนาแนวทางปฏิบัติของตัวเอง จากการทบทวนแนวทางจริยธรรมและหลักจรรยาบรรณที่มีอยู่ การใช้วิธีประเมินความเสี่ยง และการรวบรวมมุมมองที่หลากหลายภายในองค์กร จะทำให้องค์กรข่าวสามารถปรับปรุงคุณภาพและประโยชน์ของแนวทางปฏิบัติด้าน AI ของพวกเขาได้
ทบทวนแนวทางจริยธรรมและหลักจรรยาบรรณที่มีอยู่
หลายประเด็นที่เราพบในการวิเคราะห์ รวมถึงเรื่องต่างๆ เช่น ความรับผิดชอบ ความโปร่งใส ความเป็นส่วนตัว และอื่นๆ สะท้อนถึงค่านิยมและหลักจริยธรรมที่มีมายาวนานในการปฏิบัติงานข่าว ดังนั้น เมื่อร่างหรือปรับปรุงแนวทางปฏิบัติในบริบทของ Generative AI จะเป็นประโยชน์ที่จะทบทวนจรรยาบรรณและหลักการข่าวที่มีอยู่เดิม เพื่อเป็นพื้นฐานในการคิดว่าหลักการเหล่านั้นจะสามารถยึดถือได้อย่างไรเมื่อเผชิญกับการเปลี่ยนแปลงที่เกิดจาก AI ตัวอย่างเช่น แม้ว่าแนวคิดเรื่องความเป็นอิสระจะถูกกล่าวถึงหลายครั้งในการวิเคราะห์ข้างต้น แต่ก็ไม่โดดเด่นเท่าที่คาดไว้ เมื่อพิจารณาว่ามันเป็นหัวใจสำคัญในจรรยาบรรณต่างๆ เช่นคำถามที่ว่า การใช้ Generative AI สร้างเนื้อหา จะสามารถแสดงออกและสะท้อนถึงความมุ่งมั่นตามบรรทัดฐานต่อความเป็นอิสระทางวารสารศาสตร์ได้อย่างไร?
การเกิดขึ้นของ Generative AI อาจส่งผลให้เกิดความท้าทายใหม่ๆ สำหรับองค์กรข่าว แต่นี่ไม่ได้หมายความว่าการร่างแนวทางปฏิบัติควรเริ่มต้นจากศูนย์ องค์กรข่าวควรพิจารณาจรรยาบรรณดังกล่าวและเปรียบเทียบทีละข้อกับการใช้งาน AI ที่อาจเกิดขึ้นและความเสี่ยงที่อาจเกิดขึ้น การทำงานอย่างเป็นระบบผ่านค่านิยมหลักและหลักการของวารสารศาสตร์ ควรแนะนำกลยุทธ์และวิธีการในการใช้ AI ในรูปแบบที่สอดคล้องกับบรรทัดฐานที่มีอยู่
นำวิธีการประเมินความเสี่ยงมาใช้
องค์กรข่าวอาจได้ประโยชน์จากการนำวิธีการประเมินความเสี่ยงอย่างเป็นระบบมาใช้ในการพัฒนาแนวทางปฏิบัติ วิธีการเช่นนี้ที่พัฒนาโดยสถาบันมาตรฐานและเทคโนโลยีแห่งชาติของสหรัฐอเมริกา (National Institute of Standards and Technology - NIST) อาจช่วย ระบุ วัด และ จัดการ ความเสี่ยง โดยเสนอวิธีพัฒนานโยบายอย่างมีประสิทธิภาพเพื่อลดความเสี่ยงที่ระบุไว้ มีความเสี่ยงอะไรบ้างจากการใช้ Generative AI จะวัดและติดตามความเสี่ยงเหล่านั้นได้อย่างไร และจะจัดการกับสิ่งเหล่านี้อย่างไรโดยคำนึงถึงค่านิยมและเป้าหมายที่มีอยู่ขององค์กรข่าว?
ตัวอย่างเช่น การปฏิบัติงานข่าวแบบดั้งเดิมเน้นความสำคัญของการพึ่งพาแหล่งข้อมูลที่น่าเชื่อถือและการรับรองความถูกต้องของข้อมูล อย่างไรก็ตาม AI แบบสร้างเนื้อหานำมาซึ่งความไม่แน่นอนเกี่ยวกับที่มาและความน่าเชื่อถือของเนื้อหาที่อาจได้มาในระหว่างการรายงานข่าว ในบริบทของ AI การลดความเสี่ยงนี้อาจพิจารณาถึงวิธีการตรวจสอบความถูกต้องของเอกสารที่ถูกแบ่งปันเป็นแหล่งข้อมูล นักข่าวสามารถจัดการกับความไม่แน่นอนนี้โดยการนำกระบวนการตรวจสอบที่เข้มงวดมาใช้และใช้เทคนิคการยืนยันและการตรวจสอบแบบสามเส้าเพื่อตรวจสอบความถูกต้องของเนื้อหาที่สร้างโดย AI การตรวจสอบข้อมูลจากหลายแหล่งจะช่วยลดความเสี่ยงในการเผยแพร่ข้อมูลที่ไม่ได้รับการตรวจสอบหรือข้อมูลเท็จ
คำนึงถึงหลากหลายเมื่อร่างแนวทางปฏิบัติ
แม้ว่า AI แบบสร้างเนื้อหาสามารถใช้ในการสร้างโค้ดคอมพิวเตอร์และส่งผลกระทบต่อผลิตภัณฑ์ข่าวที่แตกต่างกันได้ มีแนวทางปฏิบัติน้อยมากที่แยกแยะว่าอาจมีวิธีการที่แตกต่างกันระหว่างการใช้งานด้านบรรณาธิการและผลิตภัณฑ์ (เช่น ในการพัฒนาซอฟต์แวร์) นอกจากนี้ ส่วนอื่นๆ ขององค์กรข่าว เช่น ฝ่ายขายและการตลาดก็อาจได้ประโยชน์จากการใช้ Generative AI พวกเขาควรมีแนวทางปฏิบัติแยกต่างหากหรือไม่? เพื่อครอบคลุมพื้นที่ทั้งหมดนี้ ขอแนะนำว่าเป็นสิ่งสำคัญที่จะต้องจัดตั้งกลุ่มผู้มีส่วนได้ส่วนเสียที่หลากหลายภายในองค์กรข่าวของคุณ เพื่อหารือและกำหนดขอบเขตของแนวทางปฏิบัติอย่างเหมาะสม สิ่งนี้จะช่วยให้องค์กรสามารถพิจารณาความเสี่ยงที่อาจเกิดขึ้นในกองบรรณาธิการข่าว และอาจช่วยกำหนดความเสี่ยงในระดับองค์กรที่กว้างขึ้นซึ่งเกินกว่าขั้นตอนการทำงานประจำวันของนักข่าว
เกี่ยวกับผู้เขียน Hannes Cools เป็นนักวิจัยหลังปริญญาเอกที่ห้องปฏิบัติการ AI, Media, and Democracy Lab ในเมืองอัมสเตอร์ดัม ประเทศเนเธอร์แลนด์ ซึ่งเป็นห้องปฏิบัติการที่ศึกษาเกี่ยวกับผลกระทบของ AI ต่อสื่อและประชาธิปไตย, Nick Diakopoulos เป็นศาสตราจารย์ด้านวารสารศาสตร์เชิงคำนวณที่มหาวิทยาลัย Northwestern ในสหรัฐอเมริกา และเป็นเจ้าของบล็อก "Generative AI in the Newsroom" ทั้งสองมีความเชี่ยวชาญในการวิเคราะห์การใช้ AI ในวงการสื่อและข่าว |
เกี่ยวกับ Nieman Lab Nieman Journalism Lab เป็นโครงการของมูลนิธิ Nieman สำหรับวารสารศาสตร์ที่มหาวิทยาลัยฮาร์วาร์ด มุ่งเน้นการสำรวจและอภิปรายเกี่ยวกับอนาคตของวารสารศาสตร์ในยุคอินเทอร์เน็ต โดยรวบรวมความคิดเห็นและข้อมูลจากผู้เชี่ยวชาญและบุคคลในวงการ เพื่อช่วยให้สื่อสามารถปรับตัวและอยู่รอดได้ เว็บไซต์นี้มีบทความ รายงาน และบทสัมภาษณ์มากมาย พร้อมทั้งมีทีมงานที่มีประสบการณ์จากหลากหลายองค์กรสื่อชั้นนำ |
www.facebook.com/tcijthai
ป้ายคำ