JAKARTA, borneoreview.co – Kita sering mendengar kalau AI (kecerdasan artifisial) tidak akan menggantikan manusia.
Tapi, manusia yang memakai AI, akan lebih unggul daripada yang tidak memakai, apalagi tidak mengenalnya.
Ada satu hal lagi yang perlu kita ingat: umat yang tidak bisa mengendalikan AI akan tertinggal jauh, dibandingkan umat yang mampu mengaturnya.
Apa yang dimaksud dengan “mengatur/mengendalikan AI”? Bayangkan jika Anda sedang melamar pekerjaan, lalu ditolak bukan karena kemampuan Anda kurang.
Tapi, karena sebuah program komputer “pintar” menilai bahwa nama Anda terdengar “asing”, atau bahwa alamat rumah Anda berada di daerah yang dianggap “kurang menjanjikan”.
Atau bayangkan wajah Anda tiba-tiba muncul dalam video palsu yang memalukan, dibuat oleh teknologi AI yang canggih.
Inilah pangkal masalah, mengapa kita perlu diskusi serius tentang bagaimana mengatur AI: Apakah cukup dengan etika saja, atau kita butuh hukum yang tegas?
Etika Tidak Cukup, Hukum Diperlukan?
Untuk memahami perbedaan etika dan hukum dalam konteks AI, bayangkan etika sebagai kompas dan hukum sebagai peta jalan.
Etika AI seperti kompas moral yang menunjukkan arah yang “benar” dan “salah”.
Etika itu fleksibel, dalam arti bisa beradaptasi dengan situasi baru, dan membantu kita memahami nilai-nilai dasar seperti keadilan, transparansi, dan menghormati privasi.
Etika AI bertanya, “Apakah teknologi ini akan membuat hidup manusia lebih baik?”, atau “Apakah sebuah AI memperlakukan semua orang dengan adil?”
Sementara itu, hukum AI seperti peta jalan yang memberikan rute konkret dan aturan lalu lintas yang harus diikuti semua orang.
Hukum AI tertulis jelas, mengikat semua pihak, dan punya sanksi tegas bagi yang melanggar.
Hukum AI menetapkan, “Jika Anda menggunakan AI untuk rekrutmen, Anda harus memastikan tidak ada diskriminasi”,
Atau, “Jika AI Anda salah dan merugikan orang, Anda harus bertanggung jawab secara hukum.”
Keduanya saling melengkapi. Kompas tanpa peta membuat kita tahu arah tapi tidak tahu jalan konkretnya.
Peta tanpa kompas membuat kita tahu jalur namun tidak tahu apakah kita menuju tempat yang benar.
Etika AI memang penting sebagai fondasi moral, tetapi memiliki keterbatasan serius.
Pertama, sifatnya sukarela, seperti himbauan untuk tidak membuang sampah sembarangan.
Orang yang bermoral akan mengikuti, tapi yang tidak bermoral bisa mengabaikannya.
Kedua, etika bersifat kontekstual dan beragam. Apa yang dianggap “etis” oleh satu perusahaan teknologi belum tentu sama dengan perusahaan lain.
Tidak ada satu “aturan” etika universal yang berlaku untuk semua perusahaan.
Standar etika perusahaan adalah cerminan dari nilai-nilai, budaya, dan prioritas mereka masing-masing.
Ketiga, etika tidak memiliki sanksi nyata. Jika sebuah perusahaan melanggar etika AI, konsekuensinya paling jauh hanya mendapat kritik publik. Tidak ada denda, tidak ada penjara, tidak ada pencabutan izin.
Keempat, etika sulit ditegakkan karena tidak ada “polisi etika” yang berkeliling mengecek apakah semua pengembang AI mengikuti panduan moral yang ada.
Dalam situasi tersebut, hukum AI dapat memberikan hal-hal yang tidak bisa diberikan etika.
Pertama, kepastian dan kejelasan, seperti rambu lalu lintas yang jelas: merah berarti berhenti, hijau berarti jalan. Tidak ada interpretasi yang membingungkan.
Kedua, hukum memberikan sanksi nyata. Melanggar hukum AI bisa berarti denda miliaran rupiah, penjara, atau pencabutan izin usaha.
Hal ini membuat orang berpikir dua kali sebelum berbuat curang.
Ketiga, hukum memberikan perlindungan hukum yang konkret. Jika Anda dirugikan oleh AI, misalnya ditolak kredit karena algoritma yang bias, Anda bisa menggugat dan mendapat kompensasi.
Keempat, hukum menyediakan mekanisme pengawasan melalui lembaga khusus yang bertugas mengawasi dan menegakkan aturan, seperti polisi yang mengawasi lalu lintas.
Kerentanan Regulasi AI
Uni Eropa sudah membuat EU AI Act, hukum AI pertama di dunia yang komprehensif. Mereka membagi AI berdasarkan tingkat risikonya, seperti membagi obat berdasarkan resep dokter.
AI risiko rendah seperti chatbot customer service mendapat regulasi yang ringan.
AI risiko tinggi seperti sistem untuk rekrutmen atau diagnosis medis mendapat regulasi yang ketat.
Sementara AI yang dianggap berbahaya seperti sistem kredit sosial yang mengawasi semua aktivitas warga dilarang total.
Di Amerika Serikat, negara bagian Colorado membuat aturan khusus untuk mencegah diskriminasi algoritmik.
Jika perusahaan menggunakan AI untuk keputusan penting seperti rekrutmen atau pemberian kredit, mereka harus membuktikan bahwa AI-nya tidak diskriminatif.
Hal-hal tersebut menunjukkan bahwa negara-negara maju sudah mulai serius mengatur AI dengan hukum yang tegas.
Namun, tanpa pembedaan yang jelas antara etika dan hukum, bahkan regulasi yang sudah ada pun bisa menjadi “macan ompong”.
Yang indah di atas kertas, tapi tidak mampu mengatur situasi yang butuh pengaturan di lapangan.
Hal Ini terlihat jelas pada beberapa kasus. Pertama, kasus deepfake dalam politik di Iowa.
Di negara bagian Iowa, Amerika Serikat, ada aturan hukum yang melarang penggunaan deepfake (video palsu) dalam kampanye politik untuk menipu pemilih.
Namun, karena hukum ini masih terlalu fokus pada video dan audio, hukum tidak bisa menjangkau deepfake berbasis teks yang lebih halus dan lebih sulit dideteksi.
Alhasil, kampanye yang menyebarkan kebohongan lewat narasi yang dibuat AI masih bisa lolos dari jerat hukum. Di sini, etika jelas dilanggar, tetapi hukum tidak bisa menjangkau karena kurang spesifik.
Kedua, perekrutan dengan AI di New Mexico. Negara bagian New Mexico dan Colorado membuat regulasi yang mewajibkan perusahaan untuk memastikan AI rekrutmen mereka tidak diskriminatif.
Namun, banyak perusahaan yang hanya melakukan “etiket AI” (sebuah istilah yang mirip dengan greenwashing, yaitu perusahaan hanya terlihat etis tanpa benar-benar menerapkannya).
Sejumlah perusahaan mengklaim sistemnya sudah adil tanpa memberikan bukti kuat, dan konsumen yang merasa dirugikan sulit untuk menuntut karena butuh bukti teknis yang sangat rumit.
Aturan hukumnya ada, tetapi sulit ditegakkan karena tantangan teknis dalam pembuktian.
Ketiga, regulasi yang terpecah-pecah di Amerika Serikat. Alih-alih satu undang-undang AI yang komprehensif seperti Uni Eropa, Amerika Serikat memiliki banyak aturan yang berbeda di setiap negara bagian.
Ada aturan tentang bias di Colorado, aturan tentang deepfake di Iowa, dan aturan tentang privasi di California.
Akibatnya, pengembang AI bisa saja beroperasi secara legal di satu negara bagian tetapi melanggar hukum di negara bagian lain.
Situasi yang terpecah-pecah ini menciptakan kebingungan dan celah hukum yang bisa dimanfaatkan, sehingga sulit untuk menciptakan perlindungan hukum yang seragam dan kuat bagi seluruh warga.
Etika AI Butuh Hukum
Tanpa hukum AI yang tegas, kita bisa menghadapi berbagai masalah serius. Dapat disebutkan beberapa contoh.
Pertama, “tirani data” di mana perusahaan besar mengumpulkan data pribadi kita tanpa batas dan menggunakannya untuk keuntungan mereka sendiri.
Kedua, diskriminasi sistemik, di mana AI yang bias bisa menolak pinjaman, pekerjaan, atau layanan kesehatan berdasarkan ras, gender, atau latar belakang sosial.
Ketiga, maraknya deepfake dan manipulasi, di mana video palsu bisa merusak reputasi atau menyebarkan informasi bohong tanpa bisa ditindak hukum.
Keempat, ketidakadilan ekonomi, di mana perusahaan teknologi raksasa semakin kuat sementara bisnis kecil dan pekerja biasa semakin tertinggal.
Sebagai contoh, bayangkan sebuah perusahaan fintech Indonesia yang mengembangkan AI untuk memberikan pinjaman daring.
Dengan fondasi etika Pancasila, khususnya sila Keadilan Sosial bagi Seluruh Rakyat Indonesia, perusahaan ini akan memastikan AI-nya tidak diskriminatif terhadap suku, agama, atau daerah asal pemohon.
Perusahaan akan menerapkan prinsip gotong royong dengan memberikan akses yang adil kepada UMKM di daerah terpencil, bukan hanya fokus pada nasabah kaya di kota besar.
Namun, komitmen etika saja tidak cukup. Diperlukan regulasi hukum yang tegas.
Misalnya, kewajiban untuk melakukan audit algoritma secara berkala, transparansi dalam kriteria penilaian kredit, dan sanksi denda yang berat jika terbukti melakukan diskriminasi.
Ketika ada laporan bahwa AI perusahaan tersebut menolak pinjaman untuk sejumlah petani di Nusa Tenggara semata-mata karena alamat mereka.
Hukum harus memberikan mekanisme konkret, seperti investigasi oleh Otoritas Jasa Keuangan (OJK), denda administratif, dan kewajiban memperbaiki sistem dalam waktu tertentu.
Seiring waktu, ketika muncul AI yang bisa menganalisis media sosial untuk menilai kelayakan kredit, baik etika maupun hukum harus diperbarui. Etika Pancasila akan mempertanyakan:
“Apakah mengintip postingan Instagram/TikTok seseorang untuk menilai kemampuan bayar hutangnya, sesuai dengan prinsip kemanusiaan yang adil dan beradab?”
Sementara, hukum akan menyesuaikan regulasi privasi data dan memberikan batasan konkret tentang data apa saja yang boleh dan tidak boleh digunakan.
Hukum AI Butuh Etika
Kendati begitu, mengatur AI dengan hukum mesti diakui juga memiliki risiko tersendiri. Masalahnya, hukum itu seperti kereta api, bergerak lambat dan butuh waktu lama untuk berubah arah.
Sementara teknologi AI itu seperti pesawat jet, berkembang super cepat dan terus berubah setiap hari.
Jadi, dilemanya: kalau aturannya terlalu ketat, para pengembang AI Indonesia bisa jadi takut bereksperimen.
Mereka khawatir kalau-kalau inovasi mereka melanggar aturan yang rumit dan berbelit-belit.
Akibatnya, startup AI Indonesia kalah saing dengan perusahaan dari Singapura atau Amerika yang punya regulasi lebih fleksibel.
Seperti atlet yang dipaksa berlari dengan kaki diikat, sulit diharapkan untuk menang perlombaan.
Solusinya bukan memilih antara etika atau hukum, tetapi menggabungkan keduanya dalam sinergi yang kuat dan sesuai porsinya.
Hukum harus berani menegaskan hal-hal mendasar, seperti “Jangan merugikan orang lain”, “Wajib jujur dan transparan”, dan “Diskriminasi dilarang”. Sementara itu, etika harus menjadi penjaga moral yang selalu siaga di garis depan.
Etika harus terus direfleksikan secara aktif dan terbuka oleh para ahli, pengembang, dan masyarakat.
Ketika muncul teknologi baru yang belum diatur hukum, etika harus langsung mampu memberikan panduan, “Ini boleh atau tidak? Ini baik atau buruk untuk masyarakat?”.
Etika jadi benteng pertama yang mencegah penyalahgunaan sebelum hukum sempat menyusul.
Jelasnya, kita membutuhkan hukum AI yang adaptif dan mengadopsi asas-asas yang mendukungnya.
Jalan Bersama ke Depan
Yang tak kalah penting, masyarakat harus terlibat dalam menentukan bagaimana AI dikembangkan dan diatur. Ini bukan urusan ahli, teknisi dan advokat saja, melainkan urusan kita semua.
Kita tidak perlu takut dengan AI, tetapi kita harus bijak dalam mengaturnya. Mari kita bersama siapkan kerangka etika dan hukum yang kuat sebelum AI berkembang terlalu jauh tanpa kendali.
Seperti kata sebuah pepatah dari J. F. Kennedy, “The time to repair the roof is when the sun is shining.”
Kita memiliki kewajiban moral untuk memperbaiki atau mempersiapkan etika dan hukum AI saat keadaan masih baik, sebelum masalah datang.
Yang menentukan apakah AI akan membawa berkah atau bencana, bukan hanya bagaimana kita menggunakan dan mengembangkannya, melainkan bagaimana kita mengaturnya.***
*) Juneman Abraham, ahli psikoinformatika dan pengajar Psychoethics di BINUS University