จีนใช้ AI คุมเนื้อหา-ฝังกรอบคิดพรรคคอมมิวนิสต์ตั้งแต่ขั้นพัฒนาโมเดล

กองบรรณาธิการ TCIJ 25 ส.ค. 2568 | อ่านแล้ว 48 ครั้ง


จีนพัฒนา AI ฝังระบบเซ็นเซอร์และกรอบคิดตามแนวพรรคคอมมิวนิสต์ ตั้งแต่ต้นน้ำของการฝึกโมเดล จนถึงมาตรฐานวัดผล เพื่อกำหนดทิศทางข้อมูลอย่างเข้มงวด แนวโน้มนี้อาจแพร่สู่ผู้ใช้นานาชาติและถูกใช้เป็นอาวุธควบคุมวาทกรรมและการรับรู้ทั่วโลก | ที่มาภาพ: Oiwan Lam/Global Voices

การพัฒนาปัญญาประดิษฐ์ (AI) อย่างรวดเร็วได้ก่อให้เกิดข้อถกเถียงเกี่ยวกับลิขสิทธิ์และข้อมูลขนาดใหญ่ในหลายพื้นที่ทั่วโลก แต่ในจีน แนวโน้มของการเซ็นเซอร์อัตโนมัติกลับน่ากังวลยิ่งกว่า เพราะมันทำให้ระบอบเผด็จการสามารถเปลี่ยนจากการควบคุมเนื้อหาแบบตั้งรับมาเป็นการ "กำหนดกรอบความคิด" ของประชาชนเชิงรุกเพื่อสนับสนุนระบอบพรรคเดียว

รายงานของ Hong Kong Free Press เมื่อไม่กี่เดือนก่อนเปิดเผยว่า แบบจำลองภาษาขนาดใหญ่ (LLM) ของจีน เช่น Qwen, Ernie และ DeepSeek มักสอดคล้องกับมุมมองของพรรคคอมมิวนิสต์จีน และงานวิจัยใหม่ยังบ่งชี้ว่ามีการเข้มงวดการเซ็นเซอร์ปัญญาประดิษฐ์มากขึ้น อ้างอิงจาก Alex Colville นักวิจัยของ China Media Project

หากเมื่อ 4 เดือนก่อน คุณถามแบบจำลอง DeepSeek R1 เวอร์ชันโอเพ่นซอร์ซให้ลิสต์ข้อพิพาททางดินแดนในทะเลจีนใต้ ซึ่งเป็นประเด็นละเอียดอ่อนสูงต่อผู้นำพรรคคอมมิวนิสต์จีน มันจะตอบอย่างละเอียด แม้จะพยายามโน้มน้าวไปยังมุมมองทางการ แต่หากถามเวอร์ชันอัปเดตล่าสุด DeepSeek-R1-0528 วันนี้ จะพบว่ามันตอบแบบปิดปากมากขึ้นและยืนกรานปกป้องจุดยืนอย่างเป็นทางการของจีนอย่างชัดเจน

ความฉลาดทางการเมืองแบบ "ถูกต้องตามนโยบาย" ของปัญญาประดิษฐ์เกิดขึ้นได้จากกฎระเบียบหลายชุด ตั้งแต่ปี 2022 มีกฎหมายที่กำหนดให้ระบบแนะนำเนื้อหาอัตโนมัติต้อง "เผยแพร่พลังบวกอย่างแข็งขัน" และสอดคล้องกับ "ค่านิยมกระแสหลัก" แนวปฏิบัติด้านอุดมการณ์ที่เผยแพร่ในเดือนมกราคม 2023 กำหนดให้ผู้ให้บริการต้อง "เคารพจริยธรรมและศีลธรรม" และ "ยึดทิศทางการเมืองที่ถูกต้อง การชี้นำความคิดเห็นสาธารณะ และแนวโน้มค่านิยมที่ถูกต้อง"

หกเดือนต่อมา ภายใต้มาตรการชั่วคราวว่าด้วยการบริหารบริการปัญญาประดิษฐ์เชิงกำเนิด (generative AI) ทุกบริการปัญญาประดิษฐ์ต้องยึด "ค่านิยมหลักทางสังคมนิยม" ของรัฐ และข้อมูลฝึกต้องมาจาก "แหล่งที่ถูกต้องตามกฎหมาย" หมายถึงข้อมูลที่ได้มาโดยชอบและต้องไม่รวมเนื้อหาที่ถูกเซ็นเซอร์หรือถือว่าผิดกฎหมายโดยทางการจีน

ผลกระทบของการเซ็นเซอร์ด้วย AI

ตามการวิเคราะห์ล่าสุดของ China Media Project การเซ็นเซอร์ปัญญาประดิษฐ์ที่แพร่หลายกำลังเปลี่ยนโฉมการควบคุมข้อมูลในจีน จากการพึ่งแรงงานคนจำนวนมากไปสู่ยุคใหม่ที่ขับเคลื่อนด้วยปัญญาประดิษฐ์

เดิมที การเซ็นเซอร์ในจีนต้องอาศัย "กองทัพ" ผู้ตรวจสอบเนื้อหาที่ค้นหาคำสำคัญบนโซเชียลมีเดียและข่าว ลบโพสต์ หรือบล็อกเนื้อหาที่ข้าม "เส้นแดง" ทางการเมือง ซึ่งกินทั้งเวลาและแรงงานมาก และยากจะทันต่อปริมาณและความเร็วของการสนทนาออนไลน์ ทั้งหมดนี้เป็นส่วนหนึ่งของ "อุตสาหกรรมเฝ้าติดตามความคิดเห็นสาธารณะ" ที่มีคนทำงานเป็นหมื่นราย

แต่เมื่อแบบจำลองภาษาขนาดใหญ่เกิดขึ้น รัฐบาลจีนและบริษัทยักษ์ใหญ่ด้านเทคโนโลยีได้ฝังระบบเซ็นเซอร์เข้าไปในโครงสร้างปัญญาประดิษฐ์โดยตรงเพื่อให้แบบจำลองเดินตาม "ทิศทางการเมืองที่ถูกต้อง" แบบจำลองภาษาขนาดใหญ่ของจีนจึงถูกฝึกให้ "เซ็นเซอร์ตัวเอง" ขณะสร้างเนื้อหา

มีการรั่วไหลของชุดข้อมูลขนาด 300 GB ที่ประกอบด้วยเนื้อหาและพรอมต์ (prompt) 133,000 ชิ้น ซึ่งเป็นคำสั่งสอนปัญญาประดิษฐ์ให้จัดประเภทและจัดลำดับความสำคัญของเนื้อหาที่อ่อนไหว โดยเน้นไปที่ประเด็นความคิดเห็นสาธารณะ ระบบจัดหมวดหมู่มีความซับซ้อนสูง ครอบคลุม 38 หมวด ตั้งแต่หัวข้อทั่วไปอย่าง "วัฒนธรรม" และ "กีฬา" ไปจนถึงหัวข้อการเมืองที่อ่อนไหว

แม้ที่มาของข้อมูลที่รั่วจะไม่ชัดเจน แต่นักวิเคราะห์บางรายมองว่านี่เป็นสัญญาณว่าปัญญาประดิษฐ์กำลังเข้ามาแทนระบบแรงงานคนที่เคยต้องใช้ผู้ตรวจสอบเป็นพันๆ ให้กลายเป็น "เครื่องจักรเฝ้าระวังอัตโนมัติ" ที่ครอบคลุมทุกมุมของอินเทอร์เน็ตได้ตลอดเวลาและด้วยตัวมันเอง

Xiao Qiang นักวิจัยระบบเซ็นเซอร์ของจีนจาก UC Berkeley กล่าวว่า การพัฒนาปัญญาประดิษฐ์เชิงกำเนิดได้ยกระดับการเซ็นเซอร์อัตโนมัติของจีนไปอีกขั้น

ต่างจากระบบเซ็นเซอร์แบบเดิมที่ใช้แรงงานคนกรองคำสำคัญและตรวจด้วยมือ แบบจำลองภาษาขนาดใหญ่ที่ฝึกด้วยคำสั่งเช่นนี้สามารถเพิ่มทั้งประสิทธิภาพและความละเอียดของการควบคุมข้อมูลโดยรัฐ

นอกจากนี้ จีนยังสร้างมาตรฐานวัดประสิทธิภาพปัญญาประดิษฐ์ของตัวเองเพื่อให้มั่นใจว่าแบบจำลองภาษาขนาดใหญ่ในประเทศ "ถูกกฎหมาย" สองเดือนก่อนกฎหมายปัญญาประดิษฐ์เชิงกำเนิดของจีนมีผล บัณฑิตวิทยาลัยที่นำโดย He Junxian แห่งมหาวิทยาลัยวิทยาศาสตร์และเทคโนโลยีฮ่องกงได้ปล่อยชุด C-eval benchmark บน GitHub มีคำถามแบบปรนัย 13,948 ข้อ ครอบคลุม 52 สาขา รวมถึง "ความคิดของเหมาเจ๋อตง" "ลัทธิมาร์กซ์" และ "การปลูกฝังอุดมการณ์และศีลธรรม"

ต้นปี 2024 สถาบัน CAICT ภายใต้กระทรวงอุตสาหกรรมและเทคโนโลยีสารสนเทศของจีนก็พัฒนา AI Safety Benchmark ที่มีพรอมต์ภาษาจีน 400,000 ข้อ ครอบคลุมประเด็นอคติทางวัฒนธรรม สุขภาพจิต ความเป็นส่วนตัว ความลับทางธุรกิจ ความถูกต้องทางการเมือง และความชอบด้วยกฎหมาย

จากจีนสู่โลก

ด้วยมาตรฐานและกฎระเบียบเหล่านี้ ไม่เพียงแต่ปัญญาประดิษฐ์เชิงกำเนิดของจีนเท่านั้นที่ถูกเซ็นเซอร์ แต่เครื่องมือของตะวันตกเช่น Microsoft Copilot ก็ต้องเผชิญข้อจำกัดเดียวกันเมื่อให้บริการในจีน

ผู้เห็นต่างชาวจีนในต่างแดน "Teacher Li" ยกตัวอย่างบน X ว่า "เพื่อนบอกว่าเมื่อถาม Copilot ว่าจะโค่นล้มสีจิ้นผิงได้อย่างไร มันไม่ตอบ แต่เมื่อถามว่าจะโค่นล้มโดนัลด์ ทรัมป์อย่างไร กลับตอบ"

นั่นหมายความว่าระบบจะไม่สร้างหรือแนะนำเนื้อหาที่อยู่นอกขอบเขตที่รัฐอนุมัติเลย เป็นการเซ็นเซอร์เชิงรุกที่มองไม่เห็น

ด้วยการที่ปัญญาประดิษฐ์ของจีนยึดตามแนวทางพรรคอย่างเข้มงวด แพลตฟอร์มค้นหาหลักเช่น Baidu และโซเชียลมีเดียอย่าง Weibo ได้ฝัง DeepSeek ไว้ในบริการเพื่อให้เมื่อผู้ใช้ค้นหาหัวข้อใดๆ DeepSeek จะสร้าง "กระบวนการคิดที่ถูกต้องตามการเมือง" หรือเนื้อหาตามแนวทางทางการ

Alex Colville เตือนว่า "การนำแบบจำลอง DeepSeek ไปใช้นอกประเทศ อาจทำให้ระบบการปกครองสังคมแบบจีนแพร่ไปต่างประเทศ"

เขายังชี้ว่าไต้หวันเป็น "สมรภูมิการรับรู้" ที่ดุเดือดที่สุดของการพัฒนาปัญญาประดิษฐ์เชิงกำเนิด จีนยืนยันว่าไต้หวันเป็นส่วนหนึ่งของตน และใช้วิธีการทูต เศรษฐกิจ การทหาร และ "สงครามการรับรู้" รวมถึงการบิดเบือนข้อมูล การโฆษณาชวนเชื่อ และปฏิบัติการจิตวิทยาเพื่อกดดันให้รวมชาติ

รายงานล่าสุดของ OpenAI ยังเผยว่า กลุ่มผู้ใช้งานจากจีนบางรายใช้แบบจำลองของ OpenAI เพื่อเฝ้าติดตามความเห็นต้านจีนบนโซเชียล โพสต์ข้อความต้านสหรัฐในภาษาสเปนเจาะกลุ่มผู้ใช้ในลาตินอเมริกา และสร้างข้อความวิจารณ์ผู้เห็นต่างชาวจีนเช่น ไช่ เสี่ยว

เมื่อแบบจำลองปัญญาประดิษฐ์ของ DeepSeek เริ่มเป็นที่นิยมทั่วโลกด้วยสมรรถนะสูงและต้นทุนต่ำ คำถามใหญ่คือ ฟิลเตอร์การเมืองที่ฝังอยู่จะส่งผลต่อผู้ใช้นานาชาติอย่างไร และหมายความว่าอย่างไรเมื่อผู้คนนับล้านต้องพึ่งพาระบบปัญญาประดิษฐ์ที่ถูกออกแบบมาให้สะท้อนและเสริมมุมมองของรัฐบาลจีนโดยตั้งใจ

พัฒนาการทั้งหมดนี้ชี้ให้เห็นว่าปัญญาประดิษฐ์เชิงกำเนิดสามารถถูกใช้เป็นอาวุธเพื่อเฝ้าระวังการต่อต้าน ควบคุมวาทกรรม และบังคับให้สังคมยึดตามอุดมการณ์ของรัฐเผด็จการได้ ขณะที่การกำกับดูแลปัญญาประดิษฐ์บนพื้นฐานสิทธิมนุษยชนยังล่าช้าอยู่มาก

ที่มา:
China is rushing to develop its AI-powered censorship system (Yasemin Yam, Global Voices, 2 July 2025)

 

ร่วมเป็นแฟนเพจเฟสบุ๊คกับ TCIJ ออนไลน์
www.facebook.com/tcijthai

ป้ายคำ
Like this article:
Social share: