AI ที่มีหัวใจ | มนุษย์ออนไลน์ ปี 2 EP.4

กองบรรณาธิการ TCIJ 2 ม.ค. 2568 | อ่านแล้ว 789 ครั้ง

ในยุคสมัยที่ปัญญาประดิษฐ์ (Artificial Intelligence หรือ AI) เข้ามามีบทบาทสำคัญต่อมนุษย์ในแทบจะทุกมิติ โดยเฉพาะเชิงข้อมูลข่าวสารบนโลกดิจิทัล จนอาจเรียกได้ว่าเป็นส่วนสำคัญต่อมุมมองโลกทัศน์ของมนุษย์ยุคปัจจุบัน สิ่งที่ตามมาคือข้อถกเถียงเกี่ยวกับความท้าทายในการออกแบบ ใช้สอย และอยู่ร่วมกับเอไอ เพื่อประโยชน์สูงสุดของมนุษย์ผู้ใช้งานและสังคม เป็นไปได้ไหมที่จะออกแบบเอไอที่มีหัวจิตหัวใจความเป็นมนุษย์และใส่ใจคุณค่าทางสังคม คุยกับ 'จิตร์ทัศน์ ฝักเจริญผล' ผู้แปลหนังสือ AI ที่มีหัวใจ The Ethical Algorithm ใน "มนุษย์ออนไลน์ ปี 2 EP.4 : AI ที่มีหัวใจ"

AI ที่มีหัวใจ | มนุษย์ออนไลน์ ปี 2 EP.4

AI มีจริยธรรมไหม? | มนุษย์ออนไลน์ปี 2 EP.4

จะรู้ได้อย่างไรว่า AI ไม่มีอคติ หรือที่จริงมนุษย์เราเองที่เลือกปฏิบัติ ?

จิตร์ทัศน์ ฝักเจริญผล อธิบายว่าจริง ๆ แล้วหนังสือต้นฉบับภาษาอังกฤษนั้นใช้คำว่าอัลกอริทึม ทางสำนักพิมพ์เปลี่ยนไปใช้คำว่า AI เพราะสามารถสื่อสารได้ดีกว่า และคนจำนวนมากก็ตื่นตัวเรื่องนี้ คำว่าอัลกอริทึมตามฉบับดั้งเดิมหมายถึงการตัดสินใจที่เป็นไปโดยอัตโนมัติ หรือการตัดสินใจที่เป็นไปตามสิ่งที่ระบุไว้ชัดเจน เหมือนกับการใช้สูตรในการแก้สมการ ที่จะมีลำดับขั้นตอนกำหนดไว้แน่นอน เมื่อเอาไปใส่ในคอมพิวเตอร์จึงสามารถตัดสินใจแทนมนุษย์ได้อัตโนมัติ เช่นว่าจะปล่อยกู้หรือไม่ ส่งโฆษณานี้ไปหาใครดี จะแนะนำหนังสือเล่มไหนที่น่าสนใจ

โดยรูปแบบหรือกฎเกณฑ์ในการตัดสินใจนั้น ปัจจุบันยังมีมนุษย์เป็นผู้ออกแบบ เช่น ควรจะส่งโฆษณาอาหารแมว ให้คนที่ดูวีดีโอแมวบ่อย ๆ ในอนาคตเป็นไปได้ที่อาจจะมีคอมพิวเตอร์มาช่วยออกแบบสิ่งเหล่านี้ได้ ซึ่งไม่ใช่แค่ในสื่อสังคมออนไลน์ แต่ในชีวิตส่วนอื่น ๆ ของเรา มีสิ่งเหล่านี้เข้ามาเกี่ยวข้องอยู่มาก อย่างการได้รับเงินช่วยจากรัฐบาลช่วงโควิด-19 ที่ผ่านมา ใครจะได้หรือไม่ได้รับถูกตัดสินผ่านอัลกอริทึม โดยเกณฑ์ที่กำหนดไว้ไม่ชัดเจน หรือกรณีการกระจายวัคซีนของโรงพยาบาลในสหรัฐอเมริกา ที่ใช้อัลกอริทึมกำหนดลำดับความสำคัญ ว่าใครควรจะได้วัคซีนก่อน-หลัง ผลปรากฏกลายเป็นว่าผู้บริหารโรงพยาบาลได้รับจัดสรรวัคซีน ก่อนคนทำงานด่านหน้า จึงเกิดความไม่พอใจ ทางโรงพยาบาลให้เหตุผลว่าเป็นเพราะใช้ AI ตัดสินใจ แต่ไม่บอกว่าสูตรหรือหลักเกณฑ์นั้นออกแบบมาอย่างไร

AI ถูกมักถูกใช้เป็นข้ออ้างเมื่อเกิดการตัดสินใจที่ผิดพลาด แต่หากค้นลึกลงไปจะพบว่า มีคนที่เป็นผู้ออกกฎเกณฑ์ให้ AI อยู่อีกทีหนึ่ง หรือแม้จะมีการอ้างว่าเป็นกฎเกณฑ์ที่อ้างอิงมาจากข้อมูลเชิงสถิติ ก็ยังมีคนที่คอยคัดเลือกข้อมูลเหล่านั้นให้กับ AI อยู่ดี “อย่างกรณีโอลิมปิกที่ตกลงจะให้นักชกเป็นผู้หญิงหรือผู้ชาย มันก็เป็นเรื่องของเกณฑ์ ซึ่งแต่ละหน่วยก็มีเส้นขีดไม่ตรงกัน ก็ถือเป็นการตัดสินโดยอัตโนมัติเหมือนกัน”

ต่อไป AI จะถูกนำไปใช้เพื่อตัดสินใจสิ่งต่าง ๆมากยิ่งขึ้น โดยเฉพาะอะไรที่ต้องตัดสินใจตลอดเวลา ในจำนวนมาก ๆ ที่คนเองทำไม่ไหว

การควบคุมเริ่มถูกนำมาใช้ เมื่อการตัดสินใจของ AI กระทบต่อสังคม

จิตร์ทัศน์  มองว่า เป็นการยากที่จะรู้ได้ว่าอัลกอริทึมมีอคติหรือเลือกปฏิบัติหรือไม่ หากเราไม่สามารถเข้าไปดูข้อมูลหลังบ้านว่าถูกติดตั้งมาอย่างไร นอกจากจะมีตัวอย่างการเลือกปฏิบัติที่เกิดขึ้นซ้ำๆ หลายกรณี จนเริ่มสังเกตได้ถึงความผิดปกติ ซึ่งในทางวิชาการ คำว่าเลือกปฏิบัติหรืออคตินั้นก็ยากที่จะนิยามให้ตรงกันอีกด้วย

ตามปกติผู้ให้บริการมักจะไม่เปิดเผยโค้ดของอัลกอริทึมให้สาธารณะรับรู้ ในกรณีของรัฐจะยิ่งส่งผลต่อสังคมมากว่าอย่างเช่นโครงการให้ช่วยเหลือต่างๆ

ซึ่งต่างประเทศอย่างยุโรปเริ่มมีการตื่นตัวเรื่องนี้มากขึ้น มีกฎหมายที่ออกหลักเกณฑ์ว่าหากมีการใช้ AI ในการตัดสินใจในเรื่องที่มีผลต่อสังคมมาก ก็จะถูกตรวจสอบมากขึ้นตามไปด้วย เป็นการคุ้มครองสิทธิของผู้ใช้งาน แต่ผู้ที่พัฒนาระบบอาจจะไม่ชอบเพราะเป็นการเพิ่มภาระ ต้องมีการตรวจสอบว่าระบบไม่มีอคติ มีข้อห้ามหรือระเบียบขั้นตอนกำหนดไว้ ว่าหากมีทำบางอย่างต้องมีการรายงาน ในสหรัฐอเมริกามีคำสั่งประธานาธิบดีว่าหากถ้ามีการใช้เอไอทำในบางกรณีต้องมีการแจ้งถึงประธานาธิบดี

การใช้เทคโนโลยีของฝั่งรัฐก็ควรจะต้องมีการตรวจสอบเช่นกัน อย่างทุกวันนี้มีระบบจดจำใบหน้า หากรัฐนำไปใช้ติดตามคนที่ออกไปชุมนุม ก็จะรู้ได้ว่าผู้ชุมนุมเป็นใครบ้างโดยที่ไม่ต้องให้เจ้าหน้าที่ออกไปถ่ายรูปมาทำข้อมูล สามารถใช้ใบหน้าจากข่าวออนไลน์เป็นฐานข้อมูลเพื่อตรวจดูได้ “รัฐก็จะรู้หมดว่าใครไปชุมนุมบ้าง แจ้งไปที่ทำงานได้ไหม หรือขึ้นบัญชีไว้ก่อน ถ้ามีระบบแบบนี้มันก็น่ากลัว แล้วเราจะรู้ได้ไหมว่าเขากำลังใช้อยู่หรือเปล่า ไอลอว์อาจต้องลองไปฟ้องดู”

จริง ๆ แล้วการล่าแม่มดจากรูปต่าง ๆ ลักษณะนี้มีอยู่แล้วโดยไม่ต้องใช้เอไอ โดยใช้คนด้วยกันคอยสอดแนมกันเอง คอยหาจากรูปในอินเตอร์เน็ตว่าใครเคยทำอะไรไว้บ้างในอดีต ซึ่งปัจจุบันบริษัทใหญ่ ๆ ที่ให้บริการจดจำใบหน้า เริ่มที่จะปฏิเสธไม่ให้บริการในรูปแบบที่ใช้ในสาธารณะเนื่องจากกลัวเรื่องเสียชื่อเสียง เพราะมีความกังวลจากหลายฝ่ายว่ารัฐจะใช้ละเมิดสิทธิ์ประชาชน อย่างเช่น Microsoft ที่หยุดให้บริการไป แต่ก็ยังมีบริษัทอื่น ๆ ที่ขนาดเล็กลงมาให้บริการอยู่ จึงยากที่ประชาชนจะหลีกเลี่ยงได้

และในหลายครั้งมีสิ่งที่ต้องแลกมากับความสะดวกสบาย เช่นเวลาไปซื้อของในห้างที่บางประเทศ มีการจดจำใบหน้าเรา เพื่อช่วยให้เราชำระเงินโดยไม่ต้องควักกระเป๋า หรือการใช้พร้อมเพย์ในบ้านเรา ที่แม้จะสะดวกสบายแต่ก็ต้องสูญเสียข้อมูลส่วนบุคคลไป

เราควรกลัว AI แค่ไหน? การพัฒนาเทคโนโลยี VS ความปลอดภัย

ผู้แปลหนังสือ 'AI ที่มีหัวใจ'  อธิบายต่อว่าความกลัวหรือกังวลต่อ AI ของผู้คนมีอยู่หลายรูปแบบ ทั้งความกลัวในระยะไกลอย่างเช่นพอคอมพิวเตอร์เรียนรู้ได้ดีขึ้นเรื่อย ๆ ถึงจุดหนึ่งที่เรียนรู้ได้เร็วจนฉลาดกว่าเรา จะคุกคามการดำรงอยู่ของเผ่าพันธ์มนุษย์ ส่วนความกังวลระยะสั้นก็เช่นอาชีพต่าง ๆ ของเราจะถูก AI แทนที่ AI จะเข้ามาแย่งงานเรา รวมถึง “มีความกลัวเกี่ยวกับสิทธิในแง่ข้อมูลที่เขาเอาไปใช้ในการฝึกสอน AI เช่นที่ AI วาดรูปได้มันเอารูปเราไปเทรนบ้างไหม เราสามารถปฏิเสธได้ไหม มันผิดกฎหมายไหม ก็มีการฟ้องเรื่องนี้กันอยู่” จิตร์ทัศน์ อธิบายว่า ถึงแม้ AI จะฉลาดขึ้นมาก แต่ก็ต้องใช้ข้อมูลพื้นที่ฐานต่าง ๆ ในการจะเรียนรู้ จึงเกิดคำถามที่ตามมาว่า การใช้ข้อมูลพื้นฐานของเราไปสอน AI นั้นเป็นละเมิดสิทธิหรือไม่

จิตร์ทัศน์ ยกตัวอย่างคดีที่กำลังที่อยู่ในชั้นศาล ที่ George R.R. Martin  ผู้เขียน Game of throne กับนักเขียนคนอื่นๆ ได้ฟ้องบริษัท OpenAI ว่า ChatGPT  ละเมิดลิขสิทธิ์ในงานของพวกเขา โดยมีหลักฐานที่ว่ามีเนื้อหาบางส่วนที่ไม่ถูกเผยแพร่เป็นสาธารณะ แต่ ChatGPT  กับรู้เนื้อหานั้น แสดงว่าข้อมูลที่ใช้สอนAI มาจากการละเมิดลิขสิทธิ์

ในกลุ่มของนักพัฒนาเทคโนโลยี โดยทั่วไปแล้วไม่อยากให้มีการกำกับดูแลมาก เพราะจะเป็นการเพิ่มภาระงาน แต่ก็บางกลุ่มก็ต้องการจะให้มีการกำกับดูแลให้ชัดเจน จะได้สามารถกำหนดแนวทางการทำงานได้ถูก อย่างในยุโรปมีการห้ามที่ใช้ AI ในการติดตามสอดส่องผู้คน อย่างเช่นถ่ายรูปคนในชุมนุมแล้วมาระบุตัวตนว่าเป็นใครทำไม่ได้ ซึ่งจะบังคับใช้ได้จริงไหมเป็นอีกเรื่องหนึ่ง

“บางทีการกำกับดูแลมันก็ยากที่ตามทันทุกอย่าง เป็นอะไรที่ถกเถียงกันอยู่ว่าจะกำกับดูมากน้อยแค่ไหน กำกับมากไปก็จะทำให้นวัตกรรมบางอย่างไม่เกิด” ในส่วนคนที่สนใจเรื่องการกำกับดูแลก็มองว่าถ้าไม่กำกับเลย เราจะไว้ใจ AI ได้แค่ไหน เพราะนักพัฒนาหลายคนก็ไม่ได้คิดถึงจุดบอดต่าง ๆ ในระดับปัจเจก โดยเขากล่าวด้วยว่าไม่แน่ใจจะต้องจัดการอย่างไร แต่ถ้าหากหวาดกลัวมากเกินไป ก็จะใช้ชีวิตได้ลำบาก เพียงแต่ต้องตะหนักว่ามันมีสิ่งอันตรายเหล่านี้อยู่ แล้วนำไปขีดเส้นเว้นระยะห่างของตัวเอง

จิตร์ทัศน์  กล่าวเสริมอีกว่านับวัน AI จะยิ่งลอกเลียนมนุษย์ได้แนบเนียนมากขึ้นเรื่อย ๆ สามารถเอาหน้าตา เสียง ของเราไปสร้างเป็นภาพถ่าย วีดีโอ จนแยกได้ยากมากขึ้น สิ่งที่ที่เรียกว่า Deep fake เหล่านี้จะแพร่กระจายมากขึ้นเรื่อย ๆ เช่นมีสร้างเสียงว่านักการเมืองว่ากำลังคุยข้อตกลงลับกัน หรือสร้างวีดีโอที่ประธานาธิบดีแถลงข่าวปลอมขึ้นมาได้

“นักวิจัยที่เริ่มทำเรื่อง Deep fake คนแรก เราควรไปด่าเขาไหม ว่าคุณทำแบบนี้ทำไมมันเกิดปัญหานะ ถ้าเราบอกแบบนี้ต้องกำกับดูแล เราก็อาจจะไม่มีเทคโนโลยีนี้” ถึงเราสามารถควบคุมไม่ให้นักพัฒนาคนนึงทำ Deep fake ขึ้นมาตั้งแต่แรกได้ แต่เราก็ไม่อาจใจว่าจะมีคนอื่นที่สามารถสร้าง Deep fake ขึ้นมาได้โดยเราไม่รู้ ซึ่งอันตรายกว่า ดังนั้นการพัฒนาที่เทคโนโลยีที่รับรู้ได้ จะสามารถระมัดระวังหาวิธีที่จะป้องกันได้ดีกว่า

ภายใต้ความก้าวหน้าทางเทคโนโลยีเหล่านี้ก็ยังมีเรื่องให้ถกเถียงอีกมากมาย เช่นว่าเรามีเส้นของการพัฒนา กำกับดูแลเทคโนโลยีในระดับไหน และอนาคต AI ยิ่งสามารถใช้มาหลอกลวงเราได้มากขึ้น จากเดิมที่มีอย่างแก๊งคอลเซนเตอร์ก็สร้างความเสียหายให้กับสังคมมากอยู่แล้ว

 

 

 

ร่วมเป็นแฟนเพจเฟสบุ๊คกับ TCIJ ออนไลน์
www.facebook.com/tcijthai

ป้ายคำ
Like this article:
Social share: