Teknologi Deepfake Bisa Hidupkan Orang Mati
Perkembangannya kian signifikan, namun juga meresahkan untuk sebagian orang
Kehadiran teknologi deepfake semakin diterima oleh masyarakat. Perkembangannya kian signifikan, namun juga meresahkan untuk sebagian orang. Pasalnya, teknologi ini berpotensi bisa dipakai untuk kejahatan, yakni merubah video hoax seolah-olah asli. Pada akhirnya, kita sulit mengenali, apakah itu asli atau hoax.
Deppfake adalah teknologi besutan MyHeritage. Pada akhir Februari 2021 mereka merilis fitur baru bernama Deep Nostalgia. Fitur tersebut langsung mendadak populer lantaran membuat siapapun bisa menghidupkan koleksi foto jadulnya dengan mudah. Dengan aplikasi ini, foto nenek atau kakek kita yang sudah meninggal bisa hidup, bergerak dan tersenyum.
Baca juga: Sukses Usaha Akuakultur dengan Teknologi eFishery
Teknologi yang merupakan kecerdasan buatan (Artificial Intelligence/AI) ini memang menakjubkan. Sebab, bisa membuat video ataupun audio palsu menggunakan referensi material yang sudah ada.
“Saya menggunakan MyHeritage untuk menganimasikan nenek saya dari foto yang diambil beberapa tahun sebelum saya lahir. Saya kira ini menarik dan juga agak menakutkan meskipun saya tahu tentang dia. Menakutkan,” tulis seorang netizen.
Pihak MyHeritage sendiri menyadari hal itu. “Beberapa orang suka dengan fitur Deep Nostalgia dan menganggapnya magis, sementara yang lain menilainya menakutkan dan tidak suka. Memang benar bahwa hasilnya bisa kontroversial,” sebut MyHeritage sebagaimana dilansir dari Forbes, Senin (8/3/2021).
Pihak MyHeritage sendiri mengharapkan bahwa kehadiran fitur ini bisa bernostalgia dengan orang tua atau kakek dan nenek kita yang sudah meninggal.
“Kami mengundang Anda untuk membuat video dengan fitur ini dan membagikannya di media sosial untuk melihat apa yang dipikirkan teman dan keluarga Anda. Fitur ini ditujukan untuk soal nostalgia, untuk menghidupkan kembali nenek kakek kita tercinta,” ujar MyHeritage lebih lanjut.
Video Hoax Sulit Dikenali
Meski begitu, teknologi ini memiliki celah yang bisa dipakai orang untuk berbuat kejahatan. Teknologi ini berpotensi membuat video hoax sangat sulit dikenali. Sebab, teknologi ini bisa mentransformasi wajah dalam video orang menjadi wajah orang lain.
Hao Lin, seorang Data Scientist mengkhawatirkan akan kehadiran teknologi deepfake ini.
Baca juga: Dakwah dan Pendidikan Wajib Gunakan Teknologi
“Anda bisa membuat video yang sangat realistis dari seseorang, mengatakan suatu hal yang tidak pernah orang tersebut katakan,” ujar Hao.
Kondisi ini bisa berbahaya ketika terjadi pemilihan umum.
“Ini bisa mengubah apa yang mereka katakan. Yang mengerikan orang akan membagikan video itu dan berkata ‘hey, aku liat video ini dan dia bilang begitu’,” ujar Hao lebih lanjut.
Maka, otoritas disarankan agar segera meregulasi penggunaan teknologi deepfake. Jika tidak, hoax berpotensi semakin merajalela.