image featured from : unsplash.com
Dikutip dari msn, Kamis (8/12/2022) Jika Anda menghabiskan waktu menjelajahi umpan media sosial selama seminggu terakhir (siapa yang tidak), Anda mungkin pernah mendengar tentang ChatGPT. Chatbot yang memukau dan mencengangkan, dikembangkan oleh OpenAI dan dirilis minggu lalu, adalah AI kecil yang bagus yang dapat mengeluarkan teks yang sangat meyakinkan dan terdengar seperti manusia sebagai tanggapan atas petunjuk yang dibuat pengguna.
Anda mungkin, misalnya, memintanya untuk menulis ringkasan plot untuk Knives Out, kecuali Benoit Blanc sebenarnya adalah Foghorn Leghorn (hanya saya?), Dan itu akan mengeluarkan sesuatu yang relatif koheren. Itu juga dapat membantu memperbaiki kode yang rusak dan menulis esai sehingga meyakinkan beberapa akademisi mengatakan bahwa mereka akan mendapat nilai A pada ujian perguruan tinggi.
Tanggapannya telah mencengangkan orang sedemikian rupa sehingga beberapa orang bahkan menyatakan, “Google sudah mati.” Lalu ada orang yang berpikir ini melampaui Google: Pekerjaan manusia juga bermasalah.
Penjaga, misalnya, menyatakan “profesor, pemrogram, dan jurnalis semuanya bisa kehilangan pekerjaan hanya dalam beberapa tahun.” Pengambilan lain, dari publikasi unggulan Australian Computer Society, Information Age, menyarankan hal yang sama. Telegraph mengumumkan bahwa bot tersebut dapat “melakukan pekerjaan Anda lebih baik daripada Anda”.
ChatGPT belum akan membuat Anda kehilangan pekerjaan.
Contoh yang bagus tentang mengapa disediakan oleh cerita yang diterbitkan di Era Informasi. Publikasi menggunakan ChatGPT untuk menulis keseluruhan cerita tentang ChatGPT dan memposting produk jadi dengan pengantar singkat. Karya ini sesederhana yang Anda bisa minta — ChatGPT menyediakan penghitungan ulang dasar tentang fakta keberadaannya — tetapi dalam “menulis” karya tersebut, ChatGPT juga membuat kutipan palsu dan mengaitkannya dengan peneliti OpenAI, John Smith ( siapa yang nyata, rupanya).
Ini menggarisbawahi kegagalan utama model bahasa besar seperti ChatGPT: Ia tidak tahu bagaimana memisahkan fakta dari fiksi. Itu tidak bisa dilatih untuk melakukannya. Ini adalah pengatur kata, AI yang diprogram sedemikian rupa sehingga dapat menulis kalimat yang koheren.
Itu adalah perbedaan penting, dan pada dasarnya mencegah ChatGPT (atau model bahasa besar yang mendasarinya, GPT 3.5 OpenAI) dari menulis berita atau berbicara tentang urusan terkini (Itu juga tidak dilatih tentang data terkini, tapi itu hal lain). Itu pasti tidak bisa melakukan pekerjaan seorang jurnalis. Mengatakan demikian mengurangi tindakan jurnalisme itu sendiri.
ChatGPT tidak akan keluar untuk berbicara dengan Ukraina tentang invasi Rusia. Itu tidak akan bisa membaca emosi di wajah Kylian Mbappe ketika dia memenangkan Piala Dunia. Ini tentu tidak melompat ke atas kapal ke Antartika untuk menulis tentang pengalamannya. Tidaklah mengherankan jika ada kutipan, yang benar-benar di luar karakter, yang tanpa disadari mengungkap rahasia tentang bisnis CEO. Sial, tidak ada harapan untuk meliput pengambilalihan Twitter oleh Musk – itu bukan penengah kebenaran, dan itu tidak bisa membaca ruangan.
Sangat menarik untuk melihat seberapa positif tanggapan terhadap ChatGPT. Ini benar-benar layak dipuji, dan peningkatan terdokumentasi yang dibuat OpenAI pada produk terakhirnya, GPT-3, menarik dengan sendirinya. Tapi alasan utama itu benar-benar menarik perhatian karena sangat mudah diakses.
GPT-3 tidak memiliki kerangka online yang apik dan mudah digunakan, dan meskipun publikasi seperti Guardian menggunakannya untuk menghasilkan artikel, GPT-3 hanya membuat percikan singkat secara online. Mengembangkan chatbot yang dapat Anda gunakan untuk berinteraksi, dan berbagi tangkapan layar, benar-benar mengubah cara produk digunakan dan dibicarakan. Itu juga berkontribusi pada bot yang sedikit overhyped.
Anehnya, ini adalah AI kedua yang menimbulkan kegemparan dalam beberapa minggu terakhir.
Pada 15 November, Meta AI merilis kecerdasan buatannya sendiri, yang diberi nama Galactica. Seperti ChatGPT, ini adalah model bahasa yang besar dan digembar-gemborkan sebagai cara untuk “mengatur sains”. Pada dasarnya, ini bisa menghasilkan jawaban atas pertanyaan seperti, “Apa itu gravitasi kuantum?” atau menjelaskan persamaan matematika. Sama seperti ChatGPT, Anda mengajukan pertanyaan, dan itu memberikan jawaban.
Galactica dilatih di lebih dari 48 juta makalah ilmiah dan abstrak, dan memberikan jawaban yang terdengar meyakinkan. Tim pengembangan menggunakan bot sebagai cara untuk mengatur pengetahuan, karena dapat menghasilkan artikel Wikipedia dan makalah ilmiah.
Masalahnya adalah, itu sebagian besar membuang sampah — teks tidak masuk akal yang terdengar resmi dan bahkan menyertakan referensi ke literatur ilmiah, meskipun itu dibuat-buat. Banyaknya kesalahan informasi yang dihasilkannya sebagai tanggapan atas petunjuk sederhana, dan betapa berbahayanya informasi yang salah itu, telah menyadap akademisi dan peneliti AI, yang membiarkan pikiran mereka terbang di Twitter. Serangan balasan membuat proyek ditutup oleh tim Meta AI setelah dua hari.
ChatGPT sepertinya tidak menuju ke arah yang sama. Rasanya seperti versi Galactica yang “lebih pintar”, dengan filter yang jauh lebih kuat. Saat Galactica menawarkan cara untuk membuat bom, misalnya, ChatGPT menyingkirkan permintaan yang diskriminatif, menyinggung, atau tidak pantas. ChatGPT juga telah dilatih untuk berbicara dan mengakui kesalahannya.
Namun, ChatGPT masih terbatas seperti semua model bahasa besar. Tujuannya adalah untuk menyusun kalimat atau lagu atau paragraf atau esai dengan mempelajari miliaran (triliun?) kata yang ada di seluruh web. Itu kemudian menyatukan kata-kata itu, memprediksi cara terbaik untuk mengonfigurasinya.
Dengan melakukan itu, ia menulis beberapa jawaban esai yang cukup meyakinkan, tentu saja. Itu juga menulis sampah, seperti Galactica. Bagaimana Anda bisa belajar dari AI yang mungkin tidak memberikan jawaban yang jujur? Jenis pekerjaan apa yang mungkin digantikannya? Akankah penonton tahu siapa atau apa yang menulis sebuah karya? Dan bagaimana Anda tahu AI tidak jujur, terutama jika terdengar meyakinkan? Tim OpenAI mengakui kekurangan bot, tetapi ini adalah pertanyaan yang belum terselesaikan yang membatasi kemampuan AI seperti saat ini.
Jadi, meskipun chatbot kecil itu menghibur, sebagaimana dibuktikan oleh percakapan yang luar biasa tentang seorang pria yang membual tentang labu, sulit untuk melihat bagaimana AI ini akan membuat profesor, pemrogram, atau jurnalis kehilangan pekerjaan. Sebaliknya, dalam jangka pendek, ChatGPT dan model dasarnya kemungkinan akan melengkapi apa yang dilakukan jurnalis, profesor, dan pemrogram. Ini adalah alat, bukan pengganti. Sama seperti jurnalis yang menggunakan AI untuk mentranskripsikan wawancara panjang, mereka mungkin menggunakan AI gaya ChatGPT untuk, katakanlah, menghasilkan ide tajuk utama.
Karena itulah yang kami lakukan dengan karya ini. Judul utama yang Anda lihat di artikel ini sebagian disarankan oleh ChatGPT. Tapi saran itu tidak sempurna. Itu menyarankan menggunakan istilah seperti “Pekerjaan Manusia” dan “Pekerja Manusia.” Itu terasa terlalu resmi, terlalu… robotik. Tanpa emosi. Jadi, kami mengubah sarannya hingga kami mendapatkan apa yang Anda lihat di atas.
Apakah itu berarti iterasi ChatGPT di masa mendatang atau model AI yang mendasarinya (yang mungkin dirilis paling cepat tahun depan) tidak akan muncul dan membuat kita tidak relevan?
Mungkin! Untuk saat ini, saya merasa pekerjaan saya sebagai jurnalis cukup aman.
Milano – UKDW 2018
Be the first to comment