Yahoo melaporkan kalau legislatif Louisiana sekarang lagi nyusun rancangan undang-undang yang ngebatesin pembuatan dan distribusi konten seksual anak yang dibuat oleh AI. Ini bukan cuma soal larang upload konten ilegal, tapi langsung menyasar model dan layanan yang bisa generate CSAM—kalau terbukti dipakai untuk itu, platform bisa kena denda dan pemblokiran akses.
Yang bikin menarik: aturan ini nggak cuma menarget layanan besar, tapi juga model open-source yang bisa diunduh sendiri. Mereka ngasih label "high risk" buat model yang punya kemampuan eksplisit buat ngebentuk tubuh anak kecil dan ngasih peringatan bahwa distribusi dataset seperti itu, bahkan buat riset, harus lewat izin ketat. Intinya, Louisiana pengen satu langkah lebih maju sebelum AI dipakai buat bikin konten semacam ini secara otomatis.
Para pendukung hukumannya bilang ini bagian dari usaha buat ngusir bad actors sebelum makin jauh. Tapi ada juga yang was-was soal kebebasan riset: siapa yang ngatur batasnya? Bagaimana caranya buktiin model dipakai buat tujuan jahat bukan cuma eksplorasi? Dialognya belum selesai, tapi satu hal jelas: regulator mulai ngeliat AI secara terpisah dari konten biasa, khususnya waktu unsur eksploitasi anak muncul.
Kita semua harus ngehubungin isu ini ke diskusi yang lebih luas: gimana perusahaan AI bisa sekaligus inovatif tapi tetep punya kontrol yang ketat? Sementara belum ada konsensus nasional, Louisiana maksa supaya level keamanan dan transparansi naik duluan.
Sumber: Yahoo — “Louisiana law to combat rise in AI-generated child sexual abuse material” (2026-04-03).