โฮมเพจ » ทำอย่างไร » วิธีการสังเกตวิดีโอ Face-Swapped ที่มีการปลอมตัวลึก

    วิธีการสังเกตวิดีโอ Face-Swapped ที่มีการปลอมตัวลึก

    เมื่อเร็ว ๆ นี้ Reddit ได้ทำข่าวอีกครั้งด้วย subreddit ซึ่งผู้คนใช้เครื่องมือการเรียนรู้ของเครื่องที่เรียกว่า "Deep Fake" เพื่อแทนที่ใบหน้าของบุคคลหนึ่งโดยอัตโนมัติในวิดีโอ เห็นได้ชัดว่าเนื่องจากนี่คืออินเทอร์เน็ตผู้คนใช้มันเพื่อสองสิ่ง: โป๊ดาราปลอมและการแทรก Nicolas Cage ลงในภาพยนตร์แบบสุ่ม.

    ในขณะที่การแลกเปลี่ยนใบหน้าของใครบางคนในรูปถ่ายนั้นค่อนข้างง่ายเสมอการสลับใบหน้าของใครบางคนในวิดีโอที่ใช้เวลานานและยากลำบาก จนถึงตอนนี้ส่วนใหญ่จะทำโดยสตูดิโอ VFX สำหรับภาพยนตร์ฮอลลีวูดที่มีงบประมาณ จำกัด ซึ่งใบหน้าของนักแสดงถูกเปลี่ยนเป็นคู่แสดงความสามารถ แต่ตอนนี้ด้วย Deep Fake ทุกคนที่มีคอมพิวเตอร์สามารถทำได้อย่างรวดเร็วและอัตโนมัติ.

    ก่อนที่จะไปไกลกว่านี้คุณต้องรู้ว่า Deep Fake มีหน้าตาเป็นอย่างไร ลองชมวิดีโอ SFW ด้านล่างซึ่งเป็นการรวบรวมภาพใบหน้าคนดังต่าง ๆ ซึ่งส่วนใหญ่เกี่ยวข้องกับ Nic Cage.

    ซอฟต์แวร์ Deep Fake ทำงานโดยใช้การเรียนรู้ของเครื่อง มันถูกฝึกครั้งแรกกับใบหน้าเป้าหมาย ภาพที่บิดเบี้ยวของเป้าหมายนั้นถูกเรียกใช้ผ่านอัลกอริธึมและเรียนรู้วิธีแก้ไขให้คล้ายกับใบหน้าเป้าหมายที่ไม่เปลี่ยนแปลง เมื่ออัลกอริทึมนั้นป้อนรูปภาพของบุคคลอื่นสมมติว่าพวกเขาบิดเบือนภาพของเป้าหมายและพยายามแก้ไขให้ถูกต้อง ในการรับวิดีโอซอฟท์แวร์ Deep Fake ทำงานในทุก ๆ เฟรม.

    เหตุผลที่ Deep Fakes เกี่ยวข้องกับนักแสดงส่วนใหญ่ก็คือมีภาพจำนวนมากจากมุมที่แตกต่างกันซึ่งทำให้การฝึกอบรมมีประสิทธิภาพมากขึ้น (Nicolas Cage มีเครดิตการแสดง 91 เรื่องใน IMDB) อย่างไรก็ตามด้วยจำนวนภาพถ่ายและวิดีโอที่คนโพสต์ออนไลน์และคุณต้องการเพียงแค่ประมาณ 500 ภาพในการฝึกอัลกอริทึมไม่มีเหตุผลที่คนธรรมดาไม่สามารถกำหนดเป้าหมายได้เช่นกันแม้ว่าอาจจะประสบความสำเร็จน้อยกว่าเล็กน้อย.

    วิธีการจุดปลอมลึก

    ตอนนี้ Deep Fakes นั้นสวยง่ายที่จะมองเห็น แต่มันจะยากขึ้นเมื่อเทคโนโลยีดีขึ้น นี่คือของรางวัล.

    หน้าตาแปลก ๆ. ใน Deep Fakes จำนวนมากใบหน้าก็ดูแปลก ๆ ฟีเจอร์ไม่เข้ากันได้อย่างสมบูรณ์แบบและทุกอย่างก็ดูเหมือนขี้ผึ้งเล็กน้อยเหมือนในภาพด้านล่าง หากทุกอย่างอื่นดูปกติ แต่ใบหน้านั้นดูแปลก ๆ มันอาจเป็น Deep Fake.

    ริบหรี่. คุณสมบัติทั่วไปของวิดีโอ Deep Deep ที่ไม่ดีคือใบหน้าที่ดูเหมือนจะสั่นไหวและคุณสมบัติดั้งเดิมปรากฏขึ้นเป็นครั้งคราว ปกติแล้วจะเห็นได้ชัดมากขึ้นที่ขอบใบหน้าหรือเมื่อมีสิ่งใดผ่านด้านหน้า หากมีการสั่นไหวแปลก ๆ คุณจะเห็น Deep Fake.

    ร่างกายที่แตกต่าง. Deep Fakes เป็นเพียงการแลกเปลี่ยนหน้า คนส่วนใหญ่พยายามและได้รับการจับคู่ที่ดี แต่ก็ไม่สามารถทำได้ หากบุคคลนั้นดูเหมือนจะหนักขึ้นเบาขึ้นสูงขึ้นสั้นลงหรือมีรอยสักที่พวกเขาไม่มีในชีวิตจริง (หรือไม่มีรอยสักที่พวกเขามีในชีวิตจริง) มีโอกาสดีที่มันปลอม คุณสามารถเห็นตัวอย่างชัดเจนด้านล่างซึ่งใบหน้าของ Patrick Stewart ถูกสลับกับ J.K ซิมมอนส์ในฉากจากภาพยนตร์เรื่อง Whiplash ซิมมอนส์มีขนาดเล็กกว่าสจ๊วตอย่างเห็นได้ชัดดังนั้นมันจึงดูแปลก ๆ.

    คลิปสั้น ๆ. ในขณะนี้แม้ว่าซอฟต์แวร์ Deep Fake จะทำงานได้อย่างสมบูรณ์แบบและสร้างการสลับใบหน้าที่แทบจะแยกไม่ออก แต่ก็สามารถทำได้ในระยะเวลาอันสั้นเท่านั้น อีกไม่นานปัญหาใดปัญหาหนึ่งข้างต้นจะเริ่มเกิดขึ้น นั่นเป็นเหตุผลที่คลิปส่วนใหญ่ที่ผู้คนแบ่งปันมีความยาวเพียงไม่กี่วินาทีคลิปที่เหลือไม่สามารถใช้งานได้ หากคุณแสดงคลิปสั้น ๆ ของคนดังที่ทำอะไรบางอย่างและไม่มีเหตุผลที่ดีที่มันสั้นมากมันเป็นเบาะแสว่ามันเป็นของปลอม.

    ไม่มีเสียงหรือการซิงค์ริมฝีปากที่ไม่ดี. ซอฟต์แวร์ Deep Fake เท่านั้นที่ปรับคุณสมบัติของใบหน้า; มันไม่ได้ทำให้คนคนหนึ่งเสียงเหมือนคนอื่นอย่างน่าอัศจรรย์ หากไม่มีเสียงกับคลิปและไม่มีเหตุผลที่จะไม่ให้เสียงนี่เป็นเงื่อนงำอีกอย่างหนึ่งที่คุณกำลังมองหา Deep Fake ในทำนองเดียวกันแม้ว่าจะมีเสียงถ้าคำพูดไม่ตรงกันอย่างถูกต้องกับริมฝีปากที่กำลังเคลื่อนไหว (หรือริมฝีปากดูแปลก ๆ ในขณะที่คนพูดเช่นในคลิปด้านล่าง) คุณอาจมี Deep Fake.

    คลิปที่ไม่น่าเชื่อ. การพูดแบบนี้โดยไม่บอก แต่ถ้าคุณแสดงคลิปที่ไม่น่าเชื่ออย่างแท้จริงมีโอกาสดีที่คุณไม่ควรเชื่อจริง ๆ Nicolas Cage ไม่เคยแสดงเป็น Loki ในภาพยนตร์ Marvel แม้ว่าจะเท่ห์.

    แหล่งที่น่าสงสัย. เช่นเดียวกับภาพถ่ายปลอมที่ซึ่งวิดีโอที่คาดคะเนมานั้นมักจะเป็นเบาะแสที่แท้จริงเกี่ยวกับความถูกต้องของมัน หากนิวยอร์กไทม์สกำลังเล่าเรื่องราวอยู่มันอาจเป็นเรื่องจริงมากกว่าที่คุณจะค้นพบบางสิ่งในมุมที่สุ่มของ Reddit.


    ในขณะนี้ Deep Fakes เป็นความอยากรู้อยากเห็นที่น่ากลัวมากกว่าปัญหาใหญ่ ผลลัพธ์นั้นง่ายต่อการมองเห็นและในขณะที่ไม่สามารถเอาผิดสิ่งที่กำลังทำอยู่ไม่มีใครพยายามส่ง Deep Fakes ให้เป็นวิดีโอของแท้.

    อย่างไรก็ตามเมื่อเทคโนโลยีดีขึ้นพวกเขามีแนวโน้มที่จะเป็นปัญหาที่ใหญ่กว่ามาก ตัวอย่างเช่นวิดีโอปลอมของคิมจองอึนที่ประกาศสงครามกับสหรัฐอเมริกาอาจทำให้เกิดความตื่นตระหนกครั้งใหญ่.