Andrey Doronichev khawatir tahun lalu ketika dia melihat video di media sosial yang menunjukkan presiden Ukraina menyerah kepada Rusia.
Video itu dengan cepat dibantah sebagai deepfake yang dibuat secara sintetis, tetapi bagi Mr. Doronichev, itu adalah pertanda yang mengkhawatirkan. Tahun ini, ketakutannya semakin data sgp mendekati kenyataan, karena perusahaan mulai bersaing untuk meningkatkan dan merilis teknologi kecerdasan buatan meskipun dapat menyebabkan kekacauan.
AI generatif sekarang tersedia untuk siapa saja, dan semakin mampu membodohi orang dengan teks, audio, gambar, dan video yang tampaknya dibuat dan ditangkap oleh manusia. Risiko mudah tertipu masyarakat telah memicu kekhawatiran tentang disinformasi, kehilangan pekerjaan, diskriminasi, privasi, dan distopia yang luas.
Bagi pengusaha seperti Tuan Doronichev, ini juga menjadi peluang bisnis. Lebih dari selusin perusahaan sekarang menawarkan alat untuk mengidentifikasi apakah sesuatu dibuat dengan kecerdasan buatan, dengan nama seperti Sensity AI (deteksi deepfake), Fictitious.AI (deteksi plagiarisme) dan Originality.AI (juga plagiarisme).
Tuan Doronichev, penduduk asli Rusia, mendirikan sebuah perusahaan di San Francisco, Optic, untuk membantu mengidentifikasi bahan sintetis atau palsu — menjadi, dalam kata-katanya, “mesin sinar-X bandara untuk konten digital”.
Pada bulan Maret, ia meluncurkan situs web di mana pengguna dapat memeriksa gambar untuk melihat apakah itu dibuat oleh foto asli atau kecerdasan buatan. Ini bekerja pada layanan lain untuk memverifikasi video dan audio.
“Keaslian konten akan menjadi masalah besar bagi masyarakat secara keseluruhan,” kata Mr. Doronichev, yang merupakan investor untuk aplikasi pertukaran wajah bernama Reface. “Kita sedang memasuki era pemalsuan murahan.” Karena tidak membutuhkan banyak biaya untuk memproduksi konten palsu, katanya, hal itu bisa dilakukan dalam skala besar.
Pasar AI generatif secara keseluruhan diperkirakan akan melebihi $109 miliar pada tahun 2030, tumbuh rata-rata 35,6 persen per tahun hingga saat itu, menurut firma riset pasar Grand View Research. Bisnis yang berfokus pada pendeteksian teknologi adalah bagian yang berkembang dari industri ini.
Beberapa bulan setelah dibuat oleh seorang mahasiswa Universitas Princeton, GPTZero mengklaim bahwa lebih dari satu juta orang telah menggunakan programnya untuk memilah-milah teks yang dihasilkan komputer. Reality Defender adalah salah satu dari 414 perusahaan yang dipilih dari 17.000 aplikasi yang akan didanai oleh akselerator start-up Y Combinator musim dingin ini.
Copyleaks mengumpulkan $7,75 juta tahun lalu sebagian untuk memperluas layanan anti-plagiarisme untuk sekolah dan universitas untuk mendeteksi kecerdasan buatan dalam pekerjaan siswa. Sentinel, yang pendirinya berspesialisasi dalam keamanan siber dan perang informasi untuk Angkatan Laut Kerajaan Inggris dan Organisasi Perjanjian Atlantik Utara, menutup putaran awal senilai $1,5 juta pada tahun 2020 yang didukung sebagian oleh salah satu insinyur pendiri Skype untuk membantu melindungi demokrasi dari deepfake dan kejahatan lainnya. media sintetik.
Perusahaan teknologi besar juga terlibat: FakeCatcher Intel mengklaim dapat mengidentifikasi video deepfake dengan akurasi 96 persen, sebagian dengan menganalisis piksel untuk tanda halus aliran darah di wajah manusia.
Di dalam pemerintah federal, Defense Advanced Research Projects Agency berencana menghabiskan hampir $30 juta tahun ini untuk menjalankan Semantic Forensics, sebuah program yang mengembangkan algoritme untuk secara otomatis mendeteksi deepfake dan menentukan apakah itu berbahaya.
Bahkan OpenAI, yang meningkatkan ledakan AI ketika merilis alat ChatGPT akhir tahun lalu, sedang mengerjakan layanan deteksi. Perusahaan, yang berbasis di San Francisco, meluncurkan alat gratis pada bulan Januari untuk membantu membedakan antara teks yang dibuat oleh manusia dan teks yang ditulis oleh kecerdasan buatan.
OpenAI menekankan bahwa meskipun alat tersebut merupakan peningkatan dari iterasi sebelumnya, alat ini masih “tidak sepenuhnya dapat diandalkan”. Alat tersebut dengan benar mengidentifikasi 26 persen teks yang dibuat secara artifisial tetapi salah menandai 9 persen teks dari manusia saat dihasilkan komputer.
Alat OpenAI dibebani dengan kelemahan umum dalam program pendeteksian: Alat ini berjuang dengan teks pendek dan tulisan yang bukan dalam bahasa Inggris. Dalam pengaturan pendidikan, alat pendeteksi plagiarisme seperti TurnItIn telah dituduh secara tidak akurat mengklasifikasikan esai yang ditulis oleh siswa sebagai dihasilkan oleh chatbots.
Alat deteksi secara inheren tertinggal dari teknologi generatif yang mereka coba deteksi. Pada saat sistem pertahanan dapat mengenali karya chatbot atau pembuat gambar baru, seperti Google Bard atau Midjourney, pengembang sudah membuat iterasi baru yang dapat menghindari pertahanan tersebut. Situasi tersebut digambarkan sebagai perlombaan senjata atau hubungan virus-antivirus di mana yang satu melahirkan yang lain, terus menerus.
“Saat Midjourney merilis Midjourney 5, starter gun saya berbunyi, dan saya mulai bekerja untuk mengejar – dan sementara saya melakukan itu, mereka sedang mengerjakan Midjourney 6,” kata Hany Farid, seorang profesor ilmu komputer di Universitas dari California, Berkeley, yang berspesialisasi dalam forensik digital dan juga terlibat dalam industri deteksi AI. “Ini adalah permainan permusuhan yang inheren di mana saat saya mengerjakan detektor, seseorang membuat perangkap tikus yang lebih baik, penyintesis yang lebih baik.”
Meskipun mengejar terus-menerus, banyak perusahaan telah melihat permintaan untuk deteksi AI dari sekolah dan pendidik, kata Joshua Tucker, seorang profesor politik di Universitas New York dan salah satu direktur Pusat Media Sosial dan Politiknya. Dia mempertanyakan apakah pasar serupa akan muncul menjelang pemilu 2024.
“Apakah kita akan melihat semacam sayap paralel dari perusahaan-perusahaan ini berkembang untuk membantu melindungi kandidat politik sehingga mereka dapat mengetahui kapan mereka menjadi sasaran hal-hal semacam ini,” katanya.
Para ahli mengatakan bahwa video yang dihasilkan secara sintetik masih cukup kikuk dan mudah diidentifikasi, tetapi kloning audio dan pembuatan gambar keduanya sangat canggih. Memisahkan yang asli dari yang palsu akan membutuhkan taktik forensik digital seperti pencarian gambar terbalik dan pelacakan alamat IP.
Program deteksi yang tersedia sedang diuji dengan contoh-contoh yang “sangat berbeda dari pergi ke alam liar, di mana gambar yang telah beredar dan telah dimodifikasi dan dipotong dan dirampingkan dan ditranskode dan dianotasi dan Tuhan tahu apa lagi yang terjadi pada mereka,” kata Pak Farid.
“Pencucian konten itu membuat ini menjadi tugas yang sulit,” tambahnya.
Inisiatif Keaslian Konten, sebuah konsorsium yang terdiri dari 1.000 perusahaan dan organisasi, adalah satu kelompok yang mencoba membuat teknologi generatif menjadi jelas sejak awal. (Dipimpin oleh Adobe, dengan anggota seperti The New York Times dan pemain kecerdasan buatan seperti Stability AI) Daripada menyatukan asal-usul gambar atau video di kemudian hari dalam siklus hidupnya, grup ini mencoba menetapkan standar yang akan diterapkan kredensial yang dapat dilacak ke karya digital setelah pembuatan.
Adobe mengatakan minggu lalu bahwa Firefly teknologi generatifnya akan diintegrasikan ke dalam Google Bard, di mana ia akan melampirkan “label nutrisi” ke konten yang dihasilkannya, termasuk tanggal pembuatan gambar dan alat digital yang digunakan untuk membuatnya.
Jeff Sakasegawa, arsitek kepercayaan dan keamanan di Persona, sebuah perusahaan yang membantu memverifikasi identitas konsumen, mengatakan bahwa tantangan yang ditimbulkan oleh kecerdasan buatan baru saja dimulai.
“Gelombang sedang membangun momentum,” katanya. “Itu menuju ke pantai. Saya tidak berpikir itu belum jatuh.