Search

Ngeri, Teknologi Deepfake Bikin Video Hoax Sulit Dikenali - detikInet

Jakarta - Selamat datang di era baru di mana kemajuan semakin matang dan menciptakan kejutan, salah satunya deepfake technology. Teknologi ini berpotensi membuat video hoax sangat sulit dikenali.

Deepfake technology bisa mentransformasi wajah dalam video orang menjadi wajah orang lain, seperti dikutip dari Aljazeera. Di video Aljazeera, dicontohkan salah satu editan video dengan wajah pendiri Facebook Mack Zuckerberg sedang berbicara.

Namun ternyata, video itu sama sekali tak menampilkan Zuckerberg asli melainkan rekayasa.Maka, ada banyak ketakutan teknologi ini akan disalahgunakan dan dapat merusak reputasi seseorang. Salah satu kekhawatiran datang dari Hao Lin, seorang Data Scientist.


"Anda bisa membuat video yang sangat realistis dari seseorang, mengatakan suatu hal yang tidak pernah orang tersebut katakan," ujarnya.

"Nanti ketika ada pemilihan umum, ini bisa sangat sangat berbahaya. Ini bisa mengubah apa yang mereka katakan. Yang mengerikan orang akan membagikan video itu dan berkata 'hey, aku liat video ini dan dia bilang begitu'" cetus Hao.

Apalagi hanya diperlukan proses cukup sederhana untuk mengubah wajah seseorang di dalam video. "Ini sangat berbahaya, harusnya tidak diperbolehkan," tulis salah seorang netizen."Sangat mengerikan," sahut yang lain.

Maka, otoritas disarankan agar segera meregulasi penggunaan teknologi deepfake. Jika tidak, hoax berpotensi semakin merajalela.

Simak Video "Hati-hati Bermedsos, Polri Akan Tindak Penyebar Hoax Penyerangan Wiranto"
[Gambas:Video 20detik]
(fyk/fay)

Let's block ads! (Why?)



"teknologi" - Google Berita
October 21, 2019 at 08:06AM
https://ift.tt/2J7sHZg

Ngeri, Teknologi Deepfake Bikin Video Hoax Sulit Dikenali - detikInet
"teknologi" - Google Berita
https://ift.tt/2oXVZCr

Bagikan Berita Ini

0 Response to "Ngeri, Teknologi Deepfake Bikin Video Hoax Sulit Dikenali - detikInet"

Post a Comment

Powered by Blogger.