Teknologi Tidak Akan Pernah Netral

Absurd. Saya masih memikirkan percakapan imajiner antara Tan Malaka dengan Geoffrey Hinton tentang AI. Padahal itu jelas di generate ChatGPT oleh saya lewat prompt. Respon yang diperoleh dari peramalan kata oleh algoritma.

Tokoh yang satu masih hidup, lainnya sudah berkalang tanah. Tetapi seperti dipaksa-bangkit kembali dari kubur gegara pertanyaan tentang AI.

Timnit Gebru

Gegara itu juga, pikiran saya menjadi random sekali. Tetiba teringat dengan tokoh Black in AI bernama Timnit Gebru, peneliti AI lulusan PhD Stanford yang risetnya dibawah bimbingan Fei-Fei Li, juga peneliti beken dibidang AI. Gebru dipecat Google karena berseteru soal etik tahun 2020.

Gebru dikenal sebagai tokoh yang gigih mempertahankan gagasannya bahwa AI perlu diatur. Ada isu kemanusiaan disitu.

Saya teringat salah satu paper yang ditulisnya bersama peneliti lain, berjudul “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?”. Judulnya menggelitik. Mengibaratkan model bahasa yang sangat besar seperti burung beo: berbicara tanpa pemahaman, hanya mengulang apa yang telah mereka ‘dengar’ dari miliaran data corpus.

Yang ditekankan Gebru adalah, data yang digunakan untuk melatih AI itu tidak netral. Ia adalah cerminan dari bias yang ada di masyarakat kita. Bias ras, gender, ekonomi, dan segala macamnya. Jika kita memasukkan bias ke dalam sistem, maka yang akan keluar juga bias.

AI bisa jadi alat yang memperkuat ketidakadilan, bukan menguranginya.

Maka, klaim bahwa teknologi itu netral adalah sebuah ilusi berbahaya. Pisau bisa digunakan untuk memotong sayur atau melukai orang. Namun, dalam konteks AI, analogi itu tidak sepenuhnya tepat. AI tidak ‘se-netral’ pisau. Ia secara sadar bisa ‘diprogram’ dengan bias sejak awal.

Perdebatan tentang etika AI ini bukan hanya soal teknis, melainkan juga filosofis dan sosial. Tentang siapa yang membangun teknologi, data apa yang digunakan, dan nilai apa yang ditanam. Ini tentang masa depan: Apakah kita akan membangun teknologi yang melayani seluruh umat manusia, atau hanya sekelompok orang?

Tentu Tan Malaka tidak pernah benar-benar berbicara dengan Geoffrey Hinton, karena jarak waktu terpaut begitu jauh. Tetapi percakapan imajiner itu justru menyingkapkan sebuah kebenaran penting: bahwa teknologi, termasuk AI, adalah medan pertempuran ideologi.

Teknologi tidak pernah netral, dan tidak akan pernah.

Lalu saya menemukan tulisan lain yang ditulisnya, sebuah riset tentang pengenalan wajah. Bersama dengan Joy Buolamwini, seorang ilmuwan komputer lain yang juga fokus pada etika AI. Gebru menyoroti bagaimana sistem pengenalan wajah memiliki tingkat kesalahan yang jauh lebih tinggi pada wanita berkulit gelap. Riset ini dikenal dengan nama Gender Shades.

Lagi-lagi bukan sekadar “kekurangan teknis” yang bisa diperbaiki dengan kalibrasi. Ini adalah bukti nyata dari bias yang tertanam dalam algoritma. Data yang digunakan untuk melatih sistem ini didominasi oleh wajah pria berkulit putih.

Akibatnya, sistem tersebut menjadi ahli dalam mengenali wajah-wajah tersebut, sementara wajah-wajah lain — terutama wanita berkulit gelap — diperlakukan seolah-olah mereka adalah anomali, sesuatu yang tidak seharusnya ada dalam basis data.

Gebru dan Buolamwini menunjukkan bahwa AI bukanlah cermin yang sempurna, melainkan cermin yang bengkok, yang hanya merefleksikan sebagian kecil dari realitas manusia.

Cermin ini mengaburkan, bahkan menghapus, wajah-wajah yang tidak sesuai dengan “norma” yang telah ditentukan oleh data pelatihan. Ini adalah bentuk marginalisasi digital yang sangat berbahaya.

Bayangkan jika teknologi ini digunakan oleh kepolisian untuk mengidentifikasi tersangka, atau oleh bank untuk memverifikasi identitas nasabah. Kelompok-kelompok yang sudah rentan akan menjadi lebih rentan lagi. Teknologi yang seharusnya mempermudah hidup kita malah menjadi alat untuk memperkuat ketidakadilan.

Kasus Gebru dan “Gender Shades” adalah pengingat yang kuat bahwa kita tidak bisa hanya berfokus pada inovasi dan efisiensi. Kita harus menanyakan: Siapa yang diuntungkan? Dan siapa yang dirugikan?

Pertanyaan-pertanyaan ini harus menjadi bagian integral dari setiap percakapan tentang AI. Karena jika tidak, teknologi akan terus menciptakan dunia yang lebih bias, di mana sebagian dari kita dianggap “standar”, dan sebagian lainnya hanya “burung beo”.

Kemudian saya teringat puncak dari perlawanan Gebru: pemecatannya dari Google. Peristiwa itu menjadi sorotan dunia dan sebuah ironi yang begitu tajam. Sebuah perusahaan yang kode etiknya menulis “don’t be evil” –kode etik Google sejak tahun 2000 yang direvisi tahun 2018– justru memecat salah satu peneliti topnya karena berani menyuarakan isu-isu etis yang fundamental.

Laporan MIT’s Technology Review menyebutkan bahwa kepergian Gebru disebabkan oleh konflik terkait sebuah makalah yang dia tulis bersama. Makalah tersebut membahas masalah dalam pelatihan model bahasa AI, termasuk dampaknya terhadap lingkungan dan potensinya untuk merugikan kelompok-kelompok yang termarjinalkan.

Kepala AI Google, Jeff Dean, dilaporkan telah memberitahu rekan-rekannya dalam email internal bahwa makalah tersebut “tidak memenuhi standar publikasi perusahaan.”

Gebru dilaporkan menentang perintah untuk menarik penelitian tersebut dan mengatakan kepada raksasa teknologi itu bahwa dia akan mengundurkan diri jika syarat-syaratnya tidak dipenuhi.

Gebru menulis di X (Twitter) bahwa Google tidak setuju dengan syarat-syaratnya dan menerima pengunduran dirinya, mengakhiri pekerjaannya jauh lebih awal dari tanggal yang dia tentukan dan bahkan sebelum dia kembali dari liburan.

Lebih dari 1.400 karyawan Google dan 1.900 pendukung lainnya juga telah menandatangani surat protes.

Pemecatan ini mengungkap sebuah kenyataan pahit. Bahwa perusahaan teknologi besar, sekeras apa pun mereka mengklaim peduli pada etika, sering kali lebih memprioritaskan keuntungan dan citra daripada kebenaran. Mereka membangun sistem yang memengaruhi miliaran orang, tetapi tidak ingin ada diskusi terbuka tentang potensi bahaya dari sistem itu.

Kasus Gebru adalah bukti bahwa isu etika dalam AI bukan sekadar wacana akademis, tetapi pertarungan nyata. Pertarungan antara kekuatan korporasi yang ingin bergerak cepat demi keuntungan, melawan para peneliti dan aktivis yang menuntut agar kita melambat, berpikir, dan memastikan teknologi ini benar-benar melayani kemanusiaan.

Dalam pertarungan ini, Gebru menjadi simbol perlawanan, sebuah pengingat bahwa di balik kode-kode dan algoritma, ada manusia yang harus dipertanggungjawabkan.

Referensi:
https://www.blackinai.org/about
https://www.researchgate.net
https://proceedings.mlr.press/v81/buolamwini18a.html
https://x.com/timnitGebru
https://www.engadget.com
https://www.technologyreview.com
https://googlewalkout.medium.com

Published by

Adnuri Mohamidi

Alumni Ilmu Perpustakaan Universitas Indonesia/AI Enthusiast

Leave a Reply

Your email address will not be published. Required fields are marked *