Dengan Kemajuan Besar Datanglah Tanggung Jawab Besar

Pengarang: Roger Morrison
Tanggal Pembuatan: 27 September 2021
Tanggal Pembaruan: 6 Boleh 2024
Anonim
Yang paling mengesankan Film Buddha "Sakyamuni Buddha Biografi" HD
Video: Yang paling mengesankan Film Buddha "Sakyamuni Buddha Biografi" HD

Isi


Sumber: Mike2focus / Dreamstime.com

Bawa pulang:

Konsumsi media berkembang seiring dengan kemajuan teknologi seperti kecerdasan buatan (AI). Sementara kita secara umum merangkul kemajuan, kita juga harus menyadari kelemahan dari beberapa bentuk teknologi. Ada sisi gelap dari kemampuan AI ketika digunakan dalam mempromosikan berita palsu.

Sisi gelap teknologi adalah salah satu topik yang dieksplorasi pada konferensi Mesin + Media NYC Media Lab kedua, yang disponsori dan diselenggarakan oleh Bloomberg di kantor pusat globalnya di kota itu pada 15 Mei. Meskipun beberapa sesi lebih membahas tentang teknologi apa. saat ini tersedia untuk media, bahkan mereka yang membawa bayangan manipulasi dan informasi yang salah.

Kisah yang Baik Lebih Menarik dari pada Seluruh Kebenaran

Dalam sesi berjudul "State of the Art," Gilad Lotan, VP, kepala ilmu data, Buzzfeed, menunjukkan bahwa masalah berita palsu atau menyesatkan tidak dapat disalahkan hanya pada perusahaan media atau teknologi baru. "Orang tidak perlu mencari fakta," katanya. "Pembaca ingin cerita."


Dia menambahkan bahwa memberi makan keinginan itu untuk cerita dan narasi disukai dapat menghasilkan berita palsu yang "lebih banyak manipulasi daripada informasi palsu." Bahkan, cerita yang disampaikan mungkin tidak termasuk sesuatu yang salah sama sekali. Apa yang palsu tentang hal itu adalah bahwa fakta-fakta yang dilaporkan diambil dari ceri dan dihapus dari "penipu" yang lebih besar untuk mengarahkan "pembaca ke kesimpulan."

Sejalan dengan hal yang sama, dalam sesi “Platform + Media”, Kelly Born dari Us Democracy Initiative dari William and Flora Hewlett Foundation mengatakan, “Orang-orang menyukai berita yang memperkuat kepercayaan mereka, dan terutama jika hal itu memicu kemarahan.” Ia memperingatkan bahwa kapitalisasi media oleh pada kecenderungan itu dapat menyebabkan "badai sempurna" yang memunculkan hal terburuk dalam diri kita. Ini diperburuk oleh kemungkinan presentasi yang dibuat-buat sepenuhnya.

Apakah Melihat Masih Percaya?

Teknologi memainkan peran dalam menceritakan kisah melalui gambar dan video. Kita biasanya percaya apa yang kita lihat kecuali ada tanda-tanda manipulasi yang jelas. Namun, karena AI meningkatkan realisme video palsu, sekarang mungkin untuk benar-benar meletakkan kata-kata di mulut tokoh masyarakat. (AI tidak hanya digunakan untuk tujuan jahat. Lihatlah beberapa yang konstruktif dalam 5 Cara Perusahaan Mungkin Ingin Pertimbangkan Menggunakan AI.)


Bahaya produksi AI dari video yang sangat dapat dipercaya ditunjukkan dalam sesi yang berjudul "Solusi untuk Sisi Gelap Media yang Didorong Mesin." Itu dimulai dengan video yang menampilkan Barack Obama mengatakan hal-hal yang belum pernah dikatakan oleh mantan presiden. Gerakan itu masih sedikit tidak sinkron dengan kata-kata, sehingga memiliki beberapa tanda video palsu, dan sebagian besar penonton mengatakan mereka bisa mengenalinya sebagai palsu.

Manipulasi video Obama itu tidak mencapai realisme membangkitkan Peter Cushing sebagai Grand Moff Tarkin untuk "Rogue One." Seperti yang dijelaskan oleh sebuah artikel di New York Times, efeknya dicapai dengan meminta seorang aktor mengenakan "bahan menangkap gerak di kepalanya" saat berada di depan kamera "agar wajahnya dapat diganti dengan kreasi ulang digital Cushing's." Kepala petugas kreatif film / pengawas efek visual senior, menyebutnya "versi super-teknologi tinggi dan padat karya dalam melakukan dandan."

Palsu yang Tidak Terdeteksi

Sekarang, berkat kemajuan AI, khususnya, jaringan permusuhan generatif (GAN), lebih mudah dari sebelumnya untuk mencapai efek sulap film. Memanfaatkan GAN, satu sistem AI memurnikan rekaman sampai cukup baik untuk diterima sebagai nyata oleh sistem AI yang dirancang untuk mendeteksi palsu.

Tanpa Bug, Tanpa Stres - Panduan Langkah Demi Langkah Anda untuk Membuat Perangkat Lunak yang Mengubah Hidup Tanpa Menghancurkan Kehidupan Anda

Anda tidak dapat meningkatkan keterampilan pemrograman Anda ketika tidak ada yang peduli dengan kualitas perangkat lunak.

Dalam video ini, Anda dapat melihat peneliti mendemonstrasikan bagaimana seorang aktor dapat mengarahkan pergerakan wajah figur publik untuk menghasilkan ekspresi dan pernyataan apa pun dengan tingkat kesetiaan yang biasanya tidak ditemukan dalam video yang direkayasa.

Meskipun tidak setiap orang yang bermain-main dengan video memiliki sistem yang tersedia saat ini, perangkat lunak akan berada dalam jangkauan lebih banyak orang dalam waktu dekat.

Konsekuensi yang Mungkin Terjadi

Dhruv Ghulati, pendiri dan CEO, Factmata, mengatakan dia "sangat khawatir tentang" bagaimana kemampuan ini dapat diterapkan untuk menempatkan tidak hanya wajah para pemimpin dunia tetapi CEO dan selebriti ke dalam video sebagai bukti dari perkataan mereka atau melakukan hal-hal yang mereka tidak lakukan. . Kekuatan destruktif video akan diintensifkan dengan mencapai efek viral dari botnet.

Itu berarti kita “tidak dapat lagi mempercayai mata kita yang bohong,” kata Mor Naaman, profesor ilmu informasi, Cornell Tech. Dia khawatir hal itu akan menyebabkan hilangnya kepercayaan.

Yang lain khawatir tentang mengipasi api kekerasan. Sudah "hanya sedikit video yang dimodifikasi" yang "digunakan untuk menyebabkan kekerasan di negara berkembang," kata Aviv Ovadya, kepala teknolog, Pusat Tanggung Jawab Media Sosial. (Media sosial bisa menjadi cara yang efektif untuk menyebarkan informasi palsu. Lihat Top 4 Hacks Umpan Paling Hancur.)

Sarah Hudson, mitra, Investing in US, menyatakan keprihatinan bahwa gambar yang dimanipulasi "pada skala" menimbulkan "ancaman luar biasa bagi keselamatan publik."

Perencanaan Proaktif

Sangat penting untuk "mencegah penyalahgunaan sebanyak mungkin," kata Ovadya. Itulah sebabnya penting untuk "berpikir dahulu saat mengembangkan teknologi" tentang "bagaimana mengurangi dampak buruk" dan "mencurahkan sumber daya untuk mengatasi konsekuensi yang tidak diinginkan itu."

Mustahil untuk memutar mundur waktu pada kemajuan, tetapi yang harus kita lakukan adalah memastikan arah yang kita ambil dipikirkan dan direncanakan. Itu berarti tidak hanya bekerja pada teknologi untuk melihat apa yang bisa dilakukan tetapi untuk memikirkan apa yang harus dilakukan yang harus dihindari.

Jalan ke depan untuk inovasi teknologi adalah memikirkan apa dampaknya dan merencanakan perlindungan sebelum bahaya terwujud. Untuk melakukannya, kita akan membutuhkan kerja sama di antara para peneliti, perusahaan teknologi, dan lembaga pemerintah untuk menetapkan standar dan praktik terbaik yang akan dipatuhi orang. Itu harus menjadi prioritas bagi semua pihak.