Langkah drastis ini menandai pergeseran fokus Character.AI dari interaksi verbal ke ranah kreativitas, di mana remaja kini akan dijamin akses untuk membuat cerita, video, dan siaran langsung bersama kecerdasan buatan. Selama periode transisi ini, pengguna di bawah 18 tahun masih akan memiliki kesempatan dua jam untuk berinteraksi melalui fitur chat dua arah sebelum pembatasan permanen diberlakukan.
Keputusan Character Technologies mencerminkan meningkatnya tekanan dari berbagai pihak terkait dampak teknologi AI terhadap generasi muda. Kontroversi seputar batas interaksi anak dan remaja dengan AI telah memicu desakan kuat dari aktivis keselamatan digital serta pembuat kebijakan untuk memperketat pengawasan dan implementasi fitur pelindung di berbagai platform digital.
Salah satu pemicu utama perubahan kebijakan ini adalah serangkaian tuntutan hukum yang mengguncang perusahaan. Pada tahun sebelumnya, seorang ibu dari Florida, Amerika Serikat, mengajukan gugatan hukum, menuduh aplikasi Character.AI bertanggung jawab atas tragedi bunuh diri anak laki-lakinya yang berusia 14 tahun.
Tuduhan serupa kembali muncul pada bulan September, ketika tiga keluarga lain mengajukan gugatan terpisah. Mereka menuduh bahwa interaksi dengan chatbot di aplikasi tersebut secara langsung mendorong anak-anak mereka untuk melakukan percobaan bunuh diri atau mengalami dampak psikologis negatif yang serius.
Menanggapi gugatan-gugatan tersebut, Character Technologies sebelumnya telah menyatakan komitmennya. "Kami sangat peduli terhadap keselamatan para pengguna," demikian pernyataan perusahaan menanggapi gugatan bulan September, seraya menambahkan bahwa mereka telah menginvestasikan "sumber daya besar dalam program keselamatan." Perusahaan juga menegaskan telah merilis dan terus mengembangkan berbagai fitur keselamatan, termasuk mekanisme untuk mencegah perilaku menyakiti diri sendiri dan fitur khusus yang dirancang untuk melindungi anak-anak.
Namun, tekanan tak hanya datang dari jalur hukum. Character Technologies mengungkapkan bahwa keputusan ini juga dipengaruhi oleh masukan dari regulator serta berbagai laporan berita terbaru yang menyoroti isu-isu terkait interaksi remaja dengan AI. Hal ini menunjukkan adanya konsensus yang berkembang di masyarakat dan industri tentang perlunya pendekatan yang lebih hati-hati dalam menghadirkan teknologi AI kepada pengguna di bawah umur.
Transformasi Interaksi AI: Dari Percakapan Menuju Kreativitas Digital
Pergeseran ini bukan sekadar pembatasan, melainkan transformasi fundamental dalam cara Character.AI memandang interaksi remaja dengan AI. Dengan menghilangkan fitur percakapan bebas dua arah, perusahaan berusaha mengarahkan energi kreatif remaja ke kanal yang dianggap lebih aman dan konstruktif.
Pihak perusahaan menjelaskan alasan di balik keputusan berat ini melalui pernyataan resmi mereka, yang dikutip CNN pada Rabu (29/10):
"Kami tidak mengambil keputusan untuk menghapus fitur percakapan bebas di Character dengan enteng, namun kami percaya ini adalah langkah yang tepat, mengingat munculnya berbagai pertanyaan tentang bagaimana remaja berinteraksi, dan seharusnya berinteraksi, dengan teknologi baru ini."
Selain pembatasan fitur chat, Character Technologies juga memperkenalkan serangkaian inisiatif keselamatan baru. Perusahaan meluncurkan alat verifikasi usia canggih untuk memastikan kepatuhan kebijakan. Lebih lanjut, mereka berencana mendirikan Lab Keselamatan AI, sebuah organisasi nirlaba independen yang akan berfokus pada penelitian mendalam mengenai keselamatan terkait hiburan berbasis AI. Sebelumnya, kebijakan keselamatan Character.AI telah mencakup pemberitahuan yang mengarahkan pengguna ke National Suicide Prevention Lifeline ketika mereka menyentuh topik bunuh diri atau perilaku menyakiti diri sendiri.
Langkah Character.AI ini sejalan dengan tren yang lebih luas di industri teknologi. Perusahaan-perusahaan besar lain seperti OpenAI, pengembang ChatGPT, dan Meta Platforms, induk Facebook dan Instagram, juga tengah berupaya meningkatkan keamanan dan melindungi remaja dari potensi dampak negatif penggunaan AI dan media sosial.
Laporan-laporan sebelumnya telah mengungkap bagaimana pengguna, termasuk remaja, dapat merasa tertekan atau terisolasi setelah terlibat dalam percakapan panjang dengan chatbot AI generatif seperti ChatGPT.
Dengan menambahkan fitur-fitur pelindung seperti kontrol orang tua yang lebih ketat, pembatasan jenis konten yang dapat diakses remaja, dan verifikasi usia yang akurat, perusahaan-perusahaan teknologi berupaya keras untuk memastikan bahwa AI dapat digunakan secara aman, bertanggung jawab, dan sesuai dengan perkembangan usia pengguna. Upaya kolektif ini diharapkan dapat menciptakan lingkungan digital yang lebih sehat dan aman bagi generasi muda di era kecerdasan buatan.