Google beserta perusahaan raksasa lain seperti Microsoft memang tengah gencar mengeksplorasi dan mengembangkan teknologi Artificial Intelligence (AI). Mereka berlomba melakukan berbagai penelitian tentang kecerdasan buatan demi menciptakan produk paling kompeten. Setelah Bard AI, kini Google dilaporkan tengah menguji tools AI lain yang sebenarnya menurut beberapa peneliti seharusnya dihindari.
Proyek ini dimulai bulan April lalu, ketika Google menggabungkan DeepMind, laboratorium penelitian di London dengan Brain, tim kecerdasan buatan. Empat bulan setelahnya, kedua kelompok yang tergabung itu menguji tools AI baru yang mengubah teknologi AI generatif (teknologi di balik chatbot seperti ChatGPT) menjadi sesuatu yang bisa memberi nasihat pribadi. Tools juga bisa memberi saran pada pengguna berdasar situasi personal yang ditulis dalam prompt.
Menurut laporan yang dipublikasikan oleh The New York Time, Google DeepMind mengembangkan AI generatif tersebut untuk melakukan setidaknya 21 jenis tugas yang sangat personal, seperti memberikan saran kehidupan, memberi ide, hingga instruksi perencanaan.
Masalahnya adalah, perkembangan ini seolah menggeser kewaspadaan Google soal keamanan penggunaan AI generatif. Sebelumnya, pakar keamanan AI diperusahan tersebut pernah memberi peringatan soal resiko terlalu terikat secara emosional terhadap AI.
“Kami telah lama bekerja dengan berbagai mitra untuk mengevaluasi penelitian dan produk kami di seluruh Google, yang merupakan langkah penting dalam membangun teknologi yang aman dan bermanfaat. Setiap saat ada banyak evaluasi seperti itu yang sedang berlangsung,” ungkap juru bicara Google DeepMind.
Namun, ditekankan bahwa AI generatif itu tidak dimaksudkan untuk memberikan nasihat medis misalnya terhadap kesehatan mental. Hal ini memang penting untuk dibatasi, mengingat AI pernah begitu kontroversial ketika digunakan dalam bidang tersebut. Salah satu contoh kasusnya adalah ketika chatbot Tessa ditangguhkan usai memberi saran yang tidak tepat bagi penderita gangguan makan.