รูปเซลฟี่ของกลุ่มนักกีฬามวยปล้ำขณะถูกจับกุมตัวข้อหาประท้วง ถูกปลอมแปลงด้วย AI จนกลายเป็นไวรัลบนทวิตเตอร์ สร้างกระแสด้านลบให้กับกลุ่มผู้ประท้วงชนิดหน้ามือเป็นหลังมือ
โดยในช่วงปีที่ผ่านมามีการแพร่ข่าวปลอมด้วยเทคโนโลยี AI หลายต่อหลายครั้ง ส่งผลกระทบต่อเศรษฐกิจและความมั่นคงของประเทศ จนผู้เชี่ยวชาญออกมาเตือนภัยอันตรายจากปัญญาประดิษฐ์ที่สามารถใช้เทคโนโลยี DeepFake หรือการปลอมแปลงใบหน้าบุคคลจนอาจนำไปสู่ข้อมูลที่เป็นเท็จ
ปัจจุบันเทคโนโลยีปัญญาประดิษฐ์ (AI) กำลังถูกพัฒนาให้มีศักยภาพมากขึ้นเรื่อยๆ เพื่ออำนวยความสะดวกในชีวิตให้กับมนุษย์ ไม่ว่าจะเป็น โปรแกรมแชตบอตอย่าง ChatGPT ที่ช่วยตอบคำถาม หรือช่วยเขียนงานได้อย่างตามใจนึก หรือโปรแกรม Midjourney ที่ช่วยเนรมิตภาพจากข้อความ สร้างจินตนาการให้กลายเป็นรูปเป็นร่างขึ้นมา อย่างไรก็ตามศักยภาพอันน่าทึ่งและการเข้าถึงที่ง่ายแสนง่ายของ AI อาจเป็นช่องทางให้ใครบางคนใช้ประโยชน์จากเทคโนโลยีนี้ในทางที่ผิด เช่น การสร้างเนื้อหาหลอกลวง จนกลายเป็นเครื่องมือใส่ร้ายกลุ่มคนบางกลุ่ม ดังเช่นที่เกิดกับกลุ่มผู้ประท้วงนักกีฬามวยปล้ำที่อินเดีย
...
เมื่อวันที่ 28 พฤษภาคม 2566 กลุ่มนักกีฬามวยปล้ำอินเดียได้ออกมาประท้วงต่อต้านนายบริจ บูชาน ชาราน ซิง ประธานสหพันธ์มวยปล้ำอินเดีย ซึ่งเป็นหนึ่งในสมาชิกสภา ในข้อหาคุกคามทางเพศ โดยในขณะที่พวกเธอถูกตำรวจควบคุมตัวบนรถบัส พวกเธอได้ถ่ายรูปเซลฟี่ไว้เป็นหลักฐาน ว่ากำลังถูกพาตัวไปโดยที่ไม่ทราบจุดหมาย โดยภาพเซลฟี่ดังกล่าวแสดงให้เห็นใบหน้าที่วิตกกังวลของพวกเธอ และถูกเผยแพร่บนโลกโซเชียล เพื่อให้ประชาชนช่วยกันจับตาดูการจับกุมครั้งนี้ แต่ว่าข้อเท็จจริงที่ต้องการจะสื่อสารกลับถูกบิดเบือนไปจากหน้ามือเป็นหลังมือ เมื่อรูปดังกล่าวถูกนำไปปลอมแปลงด้วยปัญญาประดิษฐ์ (AI) จากผู้ใช้บัญชีทวิตเตอร์รายหนึ่ง
โดยผู้ใช้บัญชีทวิตเตอร์คนดังกล่าวใช้เทคโนโลยี DeepFake ซึ่งเป็นเทคโนโลยีในการปลอมแปลงใบหน้าหรือเสียง เปลี่ยนใบหน้าวิตกกังวลของพวกเธอให้เป็นใบหน้ายิ้มแย้ม ซึ่งสวนทางกับสถานการณ์ตึงเครียดในขณะนั้น ก่อนที่จะอัปโหลดบนทวิตเตอร์ และถูกแชร์อย่างแพร่หลายบนโลกโซเชียล กลายเป็นที่วิพากษ์วิจารณ์ และส่งผลให้เกิดความเข้าใจผิดว่าพวกเธอเห็นการประท้วงเป็นเรื่องเล่นๆ และเกิดการคาดเดาไปต่างๆ นานาว่าพวกเธอก่อความไม่สงบเพราะต้องการหลีกเลี่ยงการแข่งระดับนานาชาติ ซึ่งในขณะนั้นกลุ่มผู้สนับสนุนรัฐบาลบางส่วนได้แชร์รูปดังกล่าว ก่อนที่จะลบโพสต์ในภายหลัง ขณะที่ทางด้านนักกีฬามวยปล้ำโอลิมปิก นายบารยาง พูเนีย ได้ออกมาทวีตโต้กลับว่า รูปดังกล่าวเป็นรูปแต่ง พร้อมโพสต์รูปจริงเปรียบเทียบให้ดู แต่ก็ไม่อาจสยบข่าวลือผิดๆ ที่กระจายออกไปได้ทัน
ในช่วงปีที่ผ่านมานี้มีข่าวเท็จจากการใช้รูป DeepFake ที่ถูกแพร่กระจายบนโลกโซเชียลจนสร้างความเข้าใจผิดอยู่หลายครั้ง เช่น รูปสมเด็จพระสันตะปาปาฟรานซิสในชุดเสื้อกันหนาวแบรนด์เนมสไตล์วัยรุ่น จนเป็นที่เข้าใจผิดว่าพระองค์ทรงใส่ชุดนี้จริง หรือแม้กระทั่งรูปเหตุระเบิดใกล้อาคารของกระทรวงกลาโหมสหรัฐฯ หรือตึกเพนตากอน ที่ถูกมือดีใช้ AI แต่งเช่นกัน จนสร้างความวุ่นวายให้กับตลาดหุ้นสหรัฐฯ ในช่วงหนึ่ง ทั้งนี้ผู้เชี่ยวชาญหลายคนออกมาแสดงความกังวลถึงการใช้ AI แต่งรูปปลอมเพื่อสร้างข่าวเท็จ โดยนายแบรด สมิธ ประธานบริษัทเทคโนโลยียักษ์ใหญ่ ไมโครซอฟต์ ได้ออกมาแสดงความกังวลถึงภัยอันตรายนี้ว่า DeepFake คือภัยอันตรายที่ใหญ่ที่สุดจากปัญญาประดิษฐ์ และจำเป็นต้องมีการป้องกันไม่ให้มีการใช้ AI ในการปลอมแปลงเนื้อหา หรือสร้างข่าวเท็จเพื่อหลอกลวงประชาชน หรือใช้เป็นเครื่องมือโจมตีกลุ่มคนบางกลุ่ม รวมไปถึงสร้างภัยคุกคามให้กับความมั่นคงของประเทศ
ทั้งนี้เว็บไซต์ DW.com ซึ่งเป็นเว็บไซต์ข่าวของเยอรมนี ได้ลงบทความเกี่ยวกับวิธีการแยกรูปจริง หรือรูปแต่งจาก AI เพื่อป้องกันการแพร่กระจายข่าวที่ไม่เป็นจริง ด้วย 6 วิธีจับผิดรูป ดังนี้
1.ซูมภาพเพื่อสังเกตรายละเอียด
จริงอยู่ว่ารูปที่ใช้ AI ในการแต่งอาจดูเหมือนจริงเมื่อมองในแวบแรก แต่หากเราซูมภาพดูจะเห็นรายละเอียดบางอย่างที่ผิดไปจากธรรมชาติ
2.หาต้นตอของรูป
ถ้าหากไม่แน่ใจว่ารูปดังกล่าวเป็นรูปจริง หรือรูปแต่งจาก AI ลองพยายามหาที่มาของรูป เช่น รูปดังกล่าวถูกโพสต์ครั้งแรกที่ไหน โพสต์โดยแหล่งข่าวที่น่าเชื่อถือหรือไม่ และลองอ่านความคิดเห็นใต้โพสต์ว่าเป็นเช่นไร โดยการหาที่มาของรูป สามารถค้นหาผ่าน Google Image Reverse Search, TinEye, Yandex
3.สังเกตสัดส่วนร่างกาย
รูปแต่งจาก AI มักมีสัดส่วนบางอย่างไม่สอดคล้องกับความเป็นจริง เช่น มือเล็กเกินไป นิ้วมือยาวเกินไป หรือศีรษะกับเท้าไม่สมดุลกับร่างกาย เป็นต้น
...
4.มองหาข้อผิดพลาดแบบ AI
สำหรับรูปคน หนึ่งในจุดที่ AI หลายเจ้ามักทำพลาด คือ มีนิ้วมือไม่ครบ มีนิ้วมือเกิน มีจำนวนฟันที่เยอะผิดปกติ มีใบหูที่ลักษณะผิดปกติ หรือหากสวมแว่นก็มักจะมีรูปทรงบิดเบี้ยว
5.ดูว่ารูปดูดีเกินกว่าความจริงหรือไม่
AI มักถูกออกแบบมาให้สร้างรูปที่มีความสมบูรณ์แบบ เช่น ใบหน้าเรียบเนียนไร้ริ้วรอย ผมและฟันที่สวยไร้ที่ติ หรือแม้กระทั่งเสื้อผ้าที่มีเนื้อผ้ากลมกลืนไร้รอยต่อ
6.หาข้อผิดพลาดที่พื้นหลัง
มีบางกรณีที่ AI ใช้การโคลนสิ่งของ หรือคน ในการสร้างภาพพื้นหลังของรูปจนเกิดเป็นภาพซ้ำๆ ประกอบกัน หรืออาจใช้เทคนิคเบลอรูปพื้นหลังแทน
อย่างไรก็ตาม 6 วิธีจับผิดภาพจาก AI ดังกล่าว เป็นแค่วิธีสังเกตเบื้องต้นเท่านั้น ซึ่งในอนาคตอาจใช้วิธีเหล่านี้ไม่ได้ผล เพราะทุกวันนี้บริษัทต่างๆ ต่างก็พัฒนา AI อย่างไม่หยุด เพื่อสร้างผลงานออกมาให้สมบูรณ์ที่สุด ไม่แน่ว่าในอนาคต AI อาจจะสร้างภาพที่เหมือนจริงจนมนุษย์ไม่สามารถแยกได้ว่าเป็นของจริงหรือของปลอมก็เป็นได้.
...