AI Pekerja Sosial Bikin Catatan Ngawur

Govind

TeknoLogiz – Dunia pekerjaan sosial di Inggris dan Skotlandia kini dihadapkan pada dilema serius. Alat kecerdasan buatan atau AI yang digadang-gadang mampu menghemat waktu dan meringankan beban kerja, justru menimbulkan kekhawatiran besar. Laporan terbaru mengungkap bahwa sistem AI ini kerap menghasilkan transkrip yang tidak akurat, bahkan menyajikan informasi yang tidak relevan atau keliru, berpotensi membahayakan klien, terutama anak-anak.

Sebuah studi yang melibatkan 17 dewan kota di Inggris dan Skotlandia oleh Ada Lovelace Institute selama delapan bulan, menemukan adanya "halusinasi" AI yang menyusup ke dalam catatan resmi. Padahal, sebelumnya, tokoh politik seperti Keir Starmer sempat memuji teknologi transkripsi ini sebagai "luar biasa" dan mampu menghemat waktu. Namun, kenyataan di lapangan berkata lain.

AI Pekerja Sosial Bikin Catatan Ngawur
Gambar Istimewa : i.guim.co.uk

Salah satu kasus mencengangkan terjadi ketika alat transkripsi AI secara keliru mengindikasikan adanya "ide bunuh diri" pada seorang klien. Padahal, menurut pekerja sosial yang bersangkutan, klien tersebut sama sekali tidak pernah membahas hal tersebut. Contoh lain yang tak kalah mengkhawatirkan adalah ketika AI mencatat hal-hal seperti "fishfingers atau lalat atau pohon" saat seorang anak justru sedang menceritakan pertengkaran orang tuanya. Para ahli pekerjaan sosial menekankan bahwa kesalahan semacam ini sangat berbahaya, sebab bisa menyebabkan pola perilaku berisiko terlewatkan.

Tidak hanya itu, beberapa pekerja sosial juga menyuarakan keprihatinan terkait ketidakakuratan transkripsi percakapan dengan individu beraksen daerah. Ada yang menyebut transkrip hasil AI mereka seringkali berisi "omong kosong" yang tidak bisa dipahami. Bahkan, situasi ini sudah menjadi bahan candaan di kantor mereka.

Puluhan dewan kota, dari Croydon hingga Redcar dan Cleveland, telah mengadopsi alat transkripsi AI ini untuk merekam dan meringkas percakapan kasus. Potensi penghematan waktu menjadi daya tarik utama bagi pemerintah daerah yang menghadapi krisis kekurangan staf. Salah satu sistem populer, Magic Notes, ditawarkan dengan biaya antara £1.50 hingga £5 per jam transkripsi. Mayoritas pekerja sosial yang diwawancarai menggunakan Magic Notes atau Microsoft Copilot.

Meskipun demikian, penelitian tersebut juga mencatat adanya penghematan waktu yang nyata dan memungkinkan pekerja sosial lebih fokus pada hubungan dengan pengguna layanan. "Bukti kami menunjukkan alat ini juga dapat meningkatkan aspek relasional dalam pekerjaan perawatan dan kualitas informasi yang dicatat oleh pekerja sosial," demikian bunyi laporan setelah wawancara dengan 39 pekerja sosial. Namun, manfaat ini datang dengan risiko yang tidak bisa diabaikan.

Ketika seorang pekerja sosial mencoba menggunakan AI untuk menyusun ulang dokumen perawatan agar lebih "berpusat pada individu", sistem tersebut justru menyisipkan "semua kata yang tidak pernah diucapkan." Pekerja sosial lain melaporkan bahwa teknologi ini telah "melampaui batas antara penilaian Anda dan penilaian AI."

Laporan tersebut menyimpulkan bahwa ketidakakuratan yang dihasilkan AI dan masuk ke dalam catatan resmi dapat memiliki dampak jangka panjang. Ini bisa berujung pada keputusan keliru mengenai perawatan seorang anak, yang berpotensi membahayakan anak tersebut dan membawa konsekuensi profesional bagi pekerja sosial. Asosiasi Pekerja Sosial Inggris (BASW) bahkan melaporkan adanya tindakan disipliner bagi mereka yang gagal memeriksa hasil AI dan melewatkan kesalahan yang jelas.

Imogen Parker, direktur asosiasi di Ada Lovelace Institute, mengakui adanya "antusiasme nyata" di kalangan pekerja sosial terhadap potensi AI. Namun, ia juga memperingatkan bahwa "alat ini juga memperkenalkan risiko baru bagi pekerjaan sosial dan masyarakat, mulai dari potensi bias dalam ringkasan laporan hingga ‘halusinasi’ yang tidak akurat dalam transkrip." Parker menambahkan bahwa risiko-risiko ini belum sepenuhnya dinilai atau dimitigasi, sehingga pekerja garis depan harus menghadapi tantangan ini sendirian. Pelatihan AI yang diterima pekerja sosial seringkali sangat minim, bahkan ada yang hanya satu jam.

Waktu yang dihabiskan untuk memeriksa transkrip AI pun bervariasi. Ada yang menghabiskan hingga satu jam, sementara yang lain hanya dua menit. Bahkan, ada yang mengaku hanya butuh "lima menit untuk sekadar meninjau cepat […] lalu menyalin dan menempelkannya ke sistem." Rencana perawatan yang dihasilkan AI dengan metode salin-tempel ini terkadang bisa terbaca "mengerikan." Beberapa kolega disebut terlalu malas atau sibuk untuk memeriksa transkrip.

Andrew Reece, pemimpin strategis BASW untuk Inggris dan Wales, menyoroti bahaya ini. "Risikonya di sini adalah orang-orang tidak memeriksa apa yang telah ditulis untuk mereka," ujarnya. Ia menambahkan bahwa waktu yang dihabiskan untuk menulis sebenarnya membantu memahami apa yang telah didengar. Jika komputer yang melakukannya, maka pekerja sosial kehilangan bagian penting dari praktik reflektif.

Beam, operator Magic Notes, menegaskan bahwa hasil keluarannya adalah draf pertama, bukan catatan akhir. Seb Barker, salah satu pendirinya, menyatakan bahwa "alat AI sedang diterima oleh pekerja sosial karena alasan yang baik." Ia beralasan bahwa layanan sedang kewalahan, sulit diakses, generasi pekerja sosial berisiko mengalami kelelahan, dan kebutuhan akan dokumentasi yang akurat serta patuh terus meningkat. Barker juga mengklaim bahwa evaluasi bias menunjukkan Magic Notes bekerja "secara konsisten dan adil," serta menyoroti fitur-fitur khusus untuk pekerjaan sosial, termasuk pemeriksaan risiko halusinasi otomatis. "Tidak semua alat AI sama, dengan alat yang tidak terspesialisasi, berkualitas rendah, atau generik gagal memenuhi kebutuhan spesifik sektor ini," pungkasnya.

Also Read

Tags