Sebuah lembaga penelitian interdisipliner yang mempelajari dampak sosial dari kecerdasan buatan (AI), AI Now Institute, merekomendasikan larangan teknologi yang dimaksudkan untuk mengenali emosi manusia dalam beberapa situasi dalam laporan tahunannya.
Para peneliti berpendapat bahwa teknologi pengenalan afek, juga dikenal sebagai teknologi pengenalan emosi, tidak boleh digunakan dalam pengambilan keputusan yang “mempengaruhi kehidupan dan akses peluang seseorang”, seperti penilaian rasa sakit atau pengambilan keputusan untuk merekrut seseorang. karena teknologi ini tidak cukup akurat dan dapat menghasilkan keputusan yang tidak akurat.
Apa sebenarnya teknologi ini, komponen mana yang telah digunakan dan dipasarkan, dan mengapa menjadi perhatian?
Dengan kemajuan teknologi pengenalan wajah
Para peneliti telah aktif bekerja pada algoritme visi komputer yang dapat mengidentifikasi emosi dan niat manusia, serta membuat kesimpulan tambahan selama setidaknya sepuluh tahun ini. Setidaknya sejak tahun 2003, analisis ekspresi wajah telah dilakukan.
Bahkan lebih lama, komputer mampu memahami emosi. Teknologi terbaru ini bergantung pada pendekatan data-sentris yang dikenal sebagai “pembelajaran mesin”. “Pembelajaran mesin” adalah algoritma yang memiliki kemampuan untuk memproses data untuk “dipelajari” cara membuat keputusan untuk mendapatkan hasil pengenalan yang lebih baik.
Tantangan membaca emosi
Peneliti selalu mencari cara baru untuk melakukan sesuatu dengan mempelajari apa yang telah mereka pelajari sebelumnya. Pengenalan emosi sangat menarik karena, entah bagaimana, kita sebagai manusia telah mampu melakukannya sejak lama. Kemampuan untuk meniru keterampilan manusia dengan menggunakan komputer tetap sulit.
Meskipun komputer dapat melakukan banyak hal luar biasa dengan gambar, seperti mengubah gambar menjadi seperti yang digambar oleh seorang seniman terkenal dan bahkan membuat foto wajah realistis (bahkan deepfake), kemampuan komputer untuk mengidentifikasi sifat manusia, seperti emosi, selalu menarik bagi para peneliti.
Emosi sulit dibaca karena biasanya bergantung pada situasi. Misalnya, konsentrasi pada sesuatu mungkin tampak seperti hanya berpikir. Pembelajaran mesin telah lama digunakan untuk pengenalan wajah, tetapi mengidentifikasi kondisi emosi seseorang hanya dengan melihat wajah mereka seringkali tidak menangkap informasi penting.
Tidak hanya ekspresi emosi seseorang, tetapi emosi mereka juga ditunjukkan oleh tindakan dan keberadaan mereka. Sulit bagi algoritme pembelajaran mesin kontemporer untuk memasukkan tanda-tanda kontekstual ini. Untuk mengatasi ini, upaya aktif dilakukan untuk meningkatkan teknik kecerdasan buatan yang dapat mempertimbangkan konteks untuk pengenalan emosi dan berbagai aplikasi.
Membaca emosi karyawan
laporan AI Now menunjukkan beberapa cara AI dapat digunakan untuk menilai produktivitas karyawan. Ini bahkan digunakan pada tahap awal, seperti wawancara. Analisis rekaman wawancara sudah lama digunakan, terutama bagi pencari kerja yang bekerja dari jarak jauh.
Manajer mungkin merasa terpengaruh oleh informasi ini saat membuat keputusan tentang kenaikan gaji, promosi, atau penugasan, serta masalah lain terkait ketenagakerjaan seperti evaluasi produktivitas. Sudah jelas bahwa teknologi ini dapat digunakan dalam berbagai cara.
Kenapa ada kecemasan?
Sistem seperti ini hampir selalu memiliki kelemahan dari aspek keadilan, akuntabilitas, transparansi, dan etis, yang telah tertanam dalam pencocokan pola mereka. Komponen-komponen ini biasanya disebut sebagai “FATE”. Sebagai contoh, penelitian menunjukkan bahwa algoritme pengenalan wajah menemukan bahwa wajah orang berkulit hitam menunjukkan tingkat kemarahan yang lebih tinggi daripada orang berkulit putih, bahkan ketika mereka tersenyum.
Meskipun tampaknya saat ini tidak ada solusi teknologi untuk masalah ini, banyak kelompok penelitian mencoba menyelesaikannya. Untuk mengidentifikasi dan mengatasi masalah yang berkaitan dengan FATE dalam kecerdasan buatan, pihak-pihak yang menggunakan teknologi ini harus melakukan upaya yang berkelanjutan dan berkolaborasi.
Masalah mengenai larangan teknologi berlapis
Larangan teknologi berlapis membawa masalah lain di luar etika, seperti keakuratan yang lebih tinggi dan kemudahan pemantauan. Selain itu, ada beberapa masalah privasi yang terkait dengan teknologi umum, seperti proliferasi kamera yang digunakan untuk membantu penegakan hukum hingga kamera yang dapat menganonimkan data sensitif.
Reaksi umum terhadap masalah etika dan privasi ini adalah dengan melarang teknik-teknik ini. Tentu saja, menggunakan kecerdasan buatan untuk prosedur penghukuman pidana atau hasil wawancara tampaknya berbahaya jika sistemnya tidak jujur dan tidak dapat diandalkan.
Menggabungkan kecerdasan buatan dengan penilaian manusia
Pada akhirnya, perancang teknologi dan masyarakat secara keseluruhan harus mempertimbangkan bagaimana informasi dari sistem kecerdasan buatan dapat digunakan dalam proses pengambilan keputusan, karena sistem ini dapat memberikan hasil yang tidak sebanding dengan jenis kecerdasan lainnya.
Tidak berbeda dengan manusia, mereka juga terkenal buruk dalam menilai kepercayaan diri mereka sendiri, bahkan dalam hal-hal sederhana seperti mengenali objek. Tentu saja, ada masalah teknis yang signifikan dalam membaca emosi, terutama dengan mempertimbangkan konteks untuk membuat kesimpulan tentang emosi.
Pengguna sistem akan menjadi jauh lebih buruk jika orang-orang mengandalkan sistem yang tidak akurat untuk membuat keputusan. Kita juga menyadari fakta bahwa orang lebih cenderung mempercayai sistem ini daripada individu yang memegang kekuasaan.
Oleh karena itu, sebagai masyarakat, kita harus mempertimbangkan aspek keadilan, akuntabilitas, transparansi, dan etika sistem ini secara menyeluruh selama proses membuat dan menerapkannya. Selain itu, manusia harus selalu memiliki keputusan akhir.