'Deep Fakes' พรมแดนใหม่ของอาชญากรรมดิจิทัลหรือไม่?

เทคโนโลยีสเปเชียลเอฟเฟกต์ได้รับความนิยมอย่างมากในช่วงไม่กี่ทศวรรษที่ผ่านมาโดย CGI เปลี่ยนจากภาพหยาบและดั้งเดิมจนแทบจะแยกไม่ออกจากความเป็นจริง ขณะนี้ในขณะที่การสร้างภาพที่เหมือนจริงกลายเป็นเรื่องปกติมากขึ้นเรื่อย ๆ ผู้เชี่ยวชาญด้านการเมืองและผู้เชี่ยวชาญด้านกระบวนการยุติธรรมทางอาญาต่างก็คาดหวังว่าจะเกิดความตื่นตระหนกเกี่ยวกับเทคโนโลยีที่เรียกว่า 'ของปลอมอย่างล้ำลึก' ซึ่งมีศักยภาพที่จะทำให้การสนทนาระหว่างประเทศซับซ้อนยิ่งขึ้นเกี่ยวกับ 'ข่าวปลอม' แต่อะไรคือ 'ของปลอมที่ล้ำลึก' และเทคโนโลยีนี้จะก่อให้เกิดภัยคุกคามมากน้อยเพียงใดในอนาคต?





เทคโนโลยีปลอมลึก (บางครั้งเรียกว่า 'deepfake') หมายถึงภาพและ / หรือวิดีโอที่สังเคราะห์และ / หรือซ้อนทับที่สร้างขึ้นโดยปัญญาประดิษฐ์โดยใช้รูปภาพและวิดีโอที่มีอยู่ การใช้แมชชีนเลิร์นนิงเทคโนโลยีนี้สามารถสร้างภาพที่น่าเชื่อของบุคคลที่แสดงการกระทำที่ไม่เคยเกิดขึ้นจริงในชีวิตจริงในทางทฤษฎี

Owen Williams วิศวกรซอฟต์แวร์มืออาชีพและศิลปินวิชวลเอฟเฟกต์เสนอคำอธิบายง่ายๆ



'เป็นวิธีการใช้ระบบซอฟต์แวร์อัตโนมัติเพื่อแทนที่ใบหน้าของบุคคลในวิดีโอด้วยใบหน้าอื่นที่เป็นไปโดยอัตโนมัติและน่าเชื่อกว่าที่เคยเป็นมาได้จากเทคโนโลยีในอดีต' วิลเลียมส์กล่าว Oxygen.com .



คริสตจักรคาทอลิกตอบสนองต่อผู้ดูแล

วิลเลียมส์ตั้งข้อสังเกตว่าภาพยนตร์ยอดนิยมเช่น 'Jurassic Park' และ 'Blade Runner: The Final Cut' ใช้ซอฟต์แวร์คอมพิวเตอร์สำหรับฉากบางฉากในลักษณะที่อาจเป็นสารตั้งต้นของการปลอมอย่างลึกซึ้ง: 'ในอุตสาหกรรมภาพยนตร์เรื่องนี้เป็นเรื่องปกติมาก สมมติว่าคุณมีตัวละครที่ต้องแสดงความสามารถและคุณต้องการให้ใบหน้าของพวกเขามองเห็นได้ วิธีแก้ปัญหาแบบคลาสสิกคือคุณจะเห็นพวกเขาจากด้านหลังเท่านั้นหรือผมของพวกเขาจะบังหน้าดังนั้นคุณจึงไม่สามารถบอกได้ว่ามันเป็นสองเท่า แต่มีประวัติที่ค่อนข้างเกี่ยวข้องกับผู้สร้างภาพยนตร์ที่ใช้คอมพิวเตอร์เพื่อทำให้ใบหน้าของนักแสดงอยู่เหนือการแสดงความสามารถสองเท่า '



'มันเคยเป็นกระบวนการที่ต้องใช้มืออย่างมาก' วิลเลียมส์กล่าวต่อ 'ตอนนี้ด้วยเทคโนโลยีปลอมที่ล้ำลึกคุณสามารถป้อนคอมพิวเตอร์ได้สองอย่าง: อันดับแรกคือวิดีโอที่คุณจะเปลี่ยนจากนั้นจึงป้อนข้อมูลจำนวนมากของใบหน้าที่คุณจะแทนที่ด้วย คุณต้องได้ภาพบุคคลที่แสดงสีหน้าแตกต่างกันและจากมุมที่ต่างกันมากพอ คุณกำลังสร้างไลบรารีของใบหน้าของบุคคลนี้ในสถานการณ์ต่างๆจากนั้นคอมพิวเตอร์จะเปิดดูวิดีโอ ไม่จำเป็นต้องมีการจับคู่แบบตรงทั้งหมด สามารถปรับแต่งและปรับเปลี่ยนสิ่งที่มีอยู่ในห้องสมุดให้เข้ากับสิ่งที่ต้องการได้ สิ่งที่เคยต้องใช้ศิลปินหลายสิบคนหลายร้อยชั่วโมงในการลองใช้เอฟเฟกต์ที่ซับซ้อนจริงๆตอนนี้เป็นเพียงการกดปุ่มเท่านั้น '

แง่มุมของเทคโนโลยีนี้ที่ทำให้ผู้คนกังวลคือคน ๆ หนึ่งไม่จำเป็นต้องยอมจำนนด้วยความเต็มใจเพื่อให้กระบวนการนี้ถูกดำเนินการโดยพิจารณาจากจำนวนรูปภาพที่มีอยู่ทางออนไลน์ของคนส่วนใหญ่โดยเฉพาะคนดังและบุคคลทางการเมือง



จะเป็นนักฆ่าสัญญาได้อย่างไร

'มีรูปภาพของคนดังในมุมต่างๆมากพอที่คุณจะสร้างห้องสมุดนั้นได้ [โดยไม่ได้รับความยินยอม] 'วิลเลียมส์กล่าว 'มีงานจำนวนหนึ่งที่ต้องทำเช่นนั้น แต่สำหรับบุคคลที่ได้รับความนิยมเพียงเล็กน้อยสิ่งนั้นจะมีอยู่จริง ความรู้สึกของฉันคือมีโอกาสน้อยที่จะเป็นไปได้สำหรับคนทั่วไป '

วิดีโอปลอมแบบลึกตัวแรกปรากฏบนฟอรัม Reddit ในช่วงปลายปี 2017 ตามวาไรตี้ . ผู้ใช้อ้างว่าใช้คอมพิวเตอร์สร้างวิดีโอลามกอนาจารของคนดังหลายคนที่มีส่วนร่วมในกิจกรรมทางเพศที่ไม่เคยเกิดขึ้นจริงในชีวิตจริง ผู้ใช้อ้างว่าเขาป้อนภาพถ่ายดวงดาวนับพันในคอมพิวเตอร์ของเขาซึ่ง AI สามารถให้ข้อมูลการแสดงออกทางสีหน้าและการเคลื่อนไหวที่ปรากฎได้ ในที่สุดแอปที่ผู้สร้างปลอมใช้และแชร์บน Reddit ก็ถูกดาวน์โหลดมากกว่า 100,000 ครั้ง (ในที่สุด Reddit ก็จะแบนเนื้อหาประเภทนี้โดยกล่าวว่าละเมิดนโยบายของพวกเขาเกี่ยวกับ 'ภาพอนาจารโดยไม่สมัครใจ' ตาม The Verge .)

ความสมจริงที่สื่อนี้สามารถบรรลุได้ในขณะนี้เป็นที่สงสัยของวิลเลียมส์

'ถ้าคุณเคยดูเรื่องปลอมลึก ๆ เหล่านี้จริงๆ ... มีความแปลกประหลาดอยู่ที่นั่น' วิลเลียมส์กล่าว 'พวกเขาไม่ได้ขัด แม้ว่ามันอาจจะดีขึ้นเรื่อย ๆ โดยเฉพาะอย่างยิ่งเนื่องจากฮอลลีวูดมีความสนใจในการสร้างสิ่งนี้โดยอัตโนมัติมากกว่าการจ่ายเงินให้กับศิลปินราคาแพง '

ในทำนองเดียวกันวิลเลียมส์เดาว่าถึงแม้ ความตื่นตระหนกเกี่ยวกับสื่อลามกปลอมที่ลึกล้ำ ทัศนคติทางวัฒนธรรมที่เปลี่ยนแปลงไปรอบ ๆ ธรรมชาติของสิ่งต่างๆเช่นภาพโป๊แก้แค้นหรือภาพเปลือยที่รั่วไหลออกมาหมายความว่ามีแนวโน้มว่าคนที่สร้างสื่อประเภทนี้จะถูกประณามและไม่ได้รับการเฉลิมฉลองแม้แต่ในอุตสาหกรรมบันเทิงสำหรับผู้ใหญ่ก็ตาม

ฉันจะดูคลับแบดเกิร์ลทุกซีซั่นได้ที่ไหน

'มันจะไม่เป็นกระแสหลัก' วิลเลียมส์ตั้งทฤษฎี 'หลัง' Fappening 'สิ่งที่เกิดขึ้นใน Reddit ผู้คนสามารถเปลี่ยนบทสนทนาและพูดว่า' นี่ไม่ใช่เรื่องอื้อฉาวมันเป็นอาชญากรรมทางเพศ ' ดังนั้นฉันจึงไม่เห็นว่าเรื่องนี้กลายเป็นเรื่องอื้อฉาวอย่างที่คนทั่วไปคิด ผู้คนยังสามารถค้นหาสื่อลามกต้นฉบับที่สร้างของปลอมได้อย่างง่ายดายซึ่งหมายความว่ามันค่อนข้างง่ายที่จะ debunk '

แต่มันไม่ได้ก่อให้เกิดความกังวลเพียงอย่างเดียวเพราะมันสามารถใช้สร้างสื่อลามกดาราปลอมได้ ผู้คนยังกังวลเกี่ยวกับการแบ่งเขตทางการเมือง

ผู้เชี่ยวชาญด้านการเมืองเริ่มเขียนเกี่ยวกับการแพร่หลายของของปลอมในปีพ. ศ. 2561 บทความ Guardian ตั้งแต่เดือนพฤศจิกายนของปีนั้นได้สังเกตเห็นการแพร่กระจายของวิดีโอที่คาดการณ์ว่าประธานาธิบดีโดนัลด์ทรัมป์กระตุ้นให้ประเทศเบลเยียมถอนตัวจากข้อตกลงสภาพภูมิอากาศของกรุงปารีส สิ่งนี้กระตุ้นให้เกิดการอภิปรายที่ใหญ่ขึ้นเกี่ยวกับศักยภาพของรัฐบาลต่างๆในการใช้เทคโนโลยีนี้ในการรณรงค์บิดเบือนข้อมูลจำนวนมากซึ่งเป็นการสนทนาที่เริ่มต้นขึ้นแล้วเนื่องจากการสอบสวนอย่างต่อเนื่องเกี่ยวกับการมีส่วนร่วมของรัสเซียในการเลือกตั้งประธานาธิบดีสหรัฐอเมริกาในปี 2559

ความตื่นตระหนกเกี่ยวกับการปลอมแปลงอย่างลึกซึ้งยังเป็นแรงบันดาลใจให้คณะบรรณาธิการของ Bloomberg Media Group เขียนบทปฏิบัติการที่มีคำพูดอย่างจริงจังในเรื่องนี้

อัลบั้มฮิปฮอปที่ดีที่สุดตลอดกาลของโรลลิ่งสโตน

'หลักฐานวิดีโอกลายเป็นเสาหลักของกระบวนการยุติธรรมทางอาญา ... เนื่องจากภาพยนตร์เรื่องนี้ดูเหมือนบันทึกคำพูดหรือการกระทำของใครบางคนที่เชื่อถือได้ การปลอมแปลงลึก ๆ อาจทำให้หลักฐานดังกล่าวเป็นไปได้อย่างน่าสงสัย ' พวกเขาเขียน ในเดือนมิถุนายน 2018 'ความท้าทายที่เอาชนะได้จะระบุและเรียกร้องการปลอมแปลงเหล่านี้ - หากเป็นไปได้'

วิลเลียมส์เห็นพ้องกันว่าลักษณะของการปลอมแปลงอย่างลึกซึ้งคุกคามความคิดเรื่อง 'ความจริง' ของเราเกี่ยวกับหลักฐานวิดีโอ แต่ตั้งข้อสังเกตว่าหล่มทางกฎหมายนี้ไม่ได้มีลักษณะเฉพาะสำหรับภูมิทัศน์ดิจิทัลร่วมสมัยของเรา

'มันทำให้เกิดความคิดเช่นนี้ว่าผู้คนมีวิดีโอนั้นเท่ากับความจริงซึ่งไม่เคยเป็นเช่นนั้นมาก่อน เรารู้เรื่องนี้ตั้งแต่ Rodney King เป็นต้นมา หรือลองนึกถึง เอริคการ์เนอร์ : ผู้คนคิดว่า [เจ้าหน้าที่ที่ฆ่าเขา] เป็นผู้บริสุทธิ์ไม่ว่าวิดีโอจะทำนายเหตุการณ์ใดก็ตาม สำหรับฉันแล้ว [ความกลัวมากมายเกี่ยวกับของปลอมลึก ๆ ] ดูเหมือนจะไม่มีมูลความจริงเลย '

วิลเลียมส์ระบุเหตุการณ์อื่น ๆ ที่ไม่เกี่ยวข้องกับเทคโนโลยีปลอมที่ซับซ้อนซึ่งแสดงให้เห็นว่าวิดีโอได้รับการจัดการอย่างกล้าหาญเพื่อบิดเบือนความคิดเห็นของสาธารณชนเกี่ยวกับเรื่องใดเรื่องหนึ่งเช่น James O'Keefe ลบ ACORN ที่เป็นที่ถกเถียงกันอยู่ และเรื่องอื้อฉาวล่าสุดที่เกี่ยวข้อง วิดีโอที่ได้รับการตรวจสอบแล้วคาดว่าจะแสดงให้เห็นว่า Jim Acosta นักข่าว CNN โจมตีพนักงานทำเนียบขาว .

ข้อสรุปสุดท้ายของวิลเลียมส์คือฮิสทีเรียที่อยู่รอบ ๆ ของปลอมนั้นค่อนข้างจะดูตลกเกินไป

'สิ่งที่ฉันเห็นเกิดขึ้นคือมันจะทำงานได้ทั้งสองทาง หากวิดีโอออกมาและเป็นของจริงผู้คนจะอ้างว่าเป็นของปลอม หากวิดีโอออกมาและเป็นของปลอมผู้คนจะอ้างว่าเป็นของจริง แต่ละกรณีจะถือว่าความจริงจำนวนหนึ่งที่กำหนดให้กับวิดีโอ [ตัวมันเอง] ยากที่จะรู้ว่าสิ่งนี้จะไปในทิศทางใดถ้า พี่เทป ตัวอย่างเช่นคุณรู้ดีว่าจะเกิดอะไรขึ้น: ครึ่งหนึ่งของคนจะพูดว่า 'นี่คือวัว - t เป็นนักแสดงบางคน!' และครึ่งหนึ่งของผู้คนจะพูดว่า 'มีแล้ว! เป็นเรื่องจริง! ' ดังนั้นจะไม่มีอะไรเปลี่ยนแปลงจริงๆ สิ่งนี้มีแนวโน้มที่จะเกิดขึ้นกับเทคโนโลยีใหม่: สิ่งต่าง ๆ ไม่เปลี่ยนแปลงมากอย่างที่ผู้คนคิด '

[ภาพ: SAUL LOEB / AFP / Getty Images]

หมวดหมู่
แนะนำ
โพสต์ยอดนิยม