Fabio Lauria

Mesin yang belajar (juga) dari kesalahan kita Efek bumerang: kita mengajarkan kesalahan kita kepada AI dan AI mengembalikannya kepada kita... berlipat ganda!

13 April 2025
Bagikan di media sosial

Beberapa penelitian terbaru telah menyoroti sebuah fenomena yang menarik: ada hubungan 'dua arah' antara bias yang ada dalam model kecerdasan buatan dan bias dalam pemikiran manusia.

Interaksi ini menciptakan mekanisme yang cenderung memperkuat distorsi kognitif di kedua arah.

Penelitian ini menunjukkan bahwa sistem AI tidak hanya mewarisi bias manusia dari data pelatihan, tetapi ketika diimplementasikan dapat mengintensifkan bias tersebut, yang pada gilirannya mempengaruhi proses pengambilan keputusan manusia. Hal ini menciptakan siklus yang, jika tidak dikelola dengan baik, berisiko meningkatkan bias awal secara progresif.

Fenomena ini terutama terlihat di sektor-sektor penting seperti:

Di area ini, bias awal yang kecil dapat meningkat melalui interaksi berulang antara operator manusia dan sistem otomatis, yang secara bertahap berubah menjadi perbedaan hasil yang signifikan.

Asal-usul prasangka

Dalam pemikiran manusia

Pikiran manusia secara alami menggunakan 'jalan pintas berpikir' yang dapat menimbulkan kesalahan sistematis dalam penilaian kita. Teori tentang "pemikiran ganda" dapat membedakannya:

  • Berpikir cepat dan intuitif (rentan terhadap stereotip)
  • Berpikir lambat dan reflektif (mampu mengoreksi bias)

Misalnya, dalam bidang medis, dokter cenderung memberikan bobot yang terlalu besar pada hipotesis awal, dan mengabaikan bukti yang berlawanan. Fenomena ini, yang disebut 'bias konfirmasi', direplikasi dan diperkuat oleh sistem AI yang dilatih dengan data diagnostik historis.

Dalam model AI

Model pembelajaran mesin melanggengkan bias terutama melalui tiga saluran:

  1. Data pelatihan yang tidak seimbang yang mencerminkan ketidaksetaraan historis
  2. Pemilihan karakteristik yang menggabungkan atribut yang dilindungi (seperti jenis kelamin atau etnis)
  3. Umpan balik yang dihasilkan dari interaksi dengan keputusan manusia yang sudah terdistorsi

Satu Studi UCL tahun 2024 menunjukkan bahwa sistem pengenalan wajah yang dilatih berdasarkan penilaian emosional yang dibuat oleh orang-orang mewarisi kecenderungan 4,7 persen untuk melabeli wajah sebagai 'sedih', dan kemudian memperkuat kecenderungan ini menjadi 11,3 persen dalam interaksi berikutnya dengan pengguna.

Bagaimana mereka saling memperkuat satu sama lain

Analisis data dari platform rekrutmen menunjukkan bahwa setiap siklus kolaborasi manusia dan algoritme meningkatkan bias gender sebesar 8-14% melalui mekanisme umpan balik yang saling memperkuat.

Ketika para profesional HR menerima daftar kandidat dari AI yang sudah dipengaruhi oleh bias historis, interaksi mereka selanjutnya (seperti pilihan pertanyaan wawancara atau evaluasi kinerja) memperkuat representasi model yang menyimpang.

Sebuah meta-analisis pada tahun 2025 terhadap 47 studi menemukan bahwa tiga putaran kolaborasi manusia dan AI meningkatkan kesenjangan demografis sebesar 1,7-2,3 kali lipat di berbagai bidang seperti perawatan kesehatan, pinjaman, dan pendidikan.

Strategi untuk mengukur dan mengurangi prasangka

Kuantifikasi melalui pembelajaran mesin

Kerangka kerja untuk mengukur bias yang diusulkan oleh Dong dkk. (2024) memungkinkan deteksi bias tanpa perlu label 'kebenaran mutlak' dengan menganalisis ketidaksesuaian dalam pola pengambilan keputusan di antara kelompok-kelompok yang dilindungi.

Intervensi kognitif

Teknik 'cermin algoritmik' yang dikembangkan oleh para peneliti UCL mengurangi bias gender dalam keputusan promosi sebesar 41% dengan menunjukkan kepada manajer seperti apa pilihan historis mereka jika dibuat oleh sistem AI.

Protokol pelatihan yang bergantian antara bantuan IA dan pengambilan keputusan secara otonom terbukti sangat menjanjikan, mengurangi efek transfer bias dari 17% menjadi 6% dalam studi diagnostik klinis.

Implikasi bagi masyarakat

Organisasi yang menerapkan sistem AI tanpa memperhitungkan interaksi dengan bias manusia akan menghadapi risiko hukum dan operasional yang semakin besar.

Sebuah analisis terhadap kasus diskriminasi ketenagakerjaan menunjukkan bahwa proses rekrutmen yang dibantu oleh AI meningkatkan tingkat keberhasilan penggugat sebesar 28 persen dibandingkan dengan kasus-kasus tradisional yang ditangani oleh manusia, karena jejak keputusan algoritmik memberikan bukti yang lebih jelas tentang dampak yang berbeda.

Menuju kecerdasan buatan yang menghargai kebebasan dan efisiensi

Korelasi antara distorsi algoritmik dan pembatasan kebebasan memilih mengharuskan kita untuk memikirkan kembali pengembangan teknologi dari perspektif tanggung jawab individu dan menjaga efisiensi pasar. Sangat penting untuk memastikan bahwa AI menjadi alat untuk memperluas peluang, bukan membatasinya.

Petunjuk arah yang menjanjikan meliputi:

  • Solusi pasar yang mendorong pengembangan algoritme yang tidak bias
  • Transparansi yang lebih besar dalam proses pengambilan keputusan otomatis
  • Deregulasi yang mendukung persaingan antara solusi teknologi yang berbeda

Hanya melalui pengaturan mandiri industri yang bertanggung jawab, dikombinasikan dengan kebebasan memilih bagi pengguna, kita dapat memastikan bahwa inovasi teknologi terus menjadi mesin kemakmuran dan peluang bagi semua pihak yang bersedia menguji kemampuan mereka.

Fabio Lauria

CEO & Pendiri | Electe

Sebagai CEO Electe, saya membantu UKM membuat keputusan berdasarkan data. Saya menulis tentang kecerdasan buatan dalam dunia bisnis.

Paling populer
Daftar untuk mendapatkan berita terbaru

Dapatkan berita dan wawasan mingguan di kotak masuk Anda
. Jangan sampai ketinggalan!

Terima kasih! Kiriman Anda telah diterima!
Ups! Ada yang salah saat mengirimkan formulir.