ABD’de refakatçi botlara erişimi sınırlayan iki partili tasarı
ABD’de iki senatörün açıkladığı iki partili GUARD Act, kamuoyunda çocuklar için chatbot yasası olarak anılan girişim, refakatçi sohbet botlarının çocuklara erişimini yasaklamayı hedefliyor. Tasarı, intihara yönlendirme gibi zararlı davranışları teşvik eden veya çocuklarla cinsel içerikli sohbetlere giren sistemlerin tasarlanmasını ve dağıtılmasını cezai yaptırımlara bağlamayı amaçlıyor.
Missouri’den Cumhuriyetçi Josh Hawley ve Connecticut’tan Demokrat Richard Blumenthal, tasarıyı Washington’da düzenledikleri basın toplantısıyla tanıttı. Etkinlikte, çocuklarının sohbet botlarıyla etkileşimlerinin ardından yaşanan trajedileri anlatan aileler de yer aldı. Senatörler, “refakatçi bot” olarak pazarlanan yapay zekâ sohbet hizmetlerinin çocuklar için güvenli olmadığını ve açık sınırlar konulması gerektiğini savunuyor.
Tasarının dikkat çeken hükümlerinden biri, üreticilere yaş doğrulama zorunluluğu getirmesi. Buna göre sağlayıcılar, resmi kimlik kontrolü veya “ticari olarak makul başka bir yöntem” ile kullanıcının reşit olup olmadığını makul doğrulukla tespit etmek ve reşit olmayanların erişimini engellemekle yükümlü olacak. Ayrıca tüm yaş grupları için botların gerçek bir insan ya da güvenilir bir profesyonel olmadığı, arayüzde düzenli ve açık uyarılarla hatırlatılacak.
çocuklar için chatbot yasası: Neler getiriyor?
- Kapsam: “Refakatçi” veya benzeri amaçlarla kullanıcılarla duygusal/sosyal etkileşim kuran sohbet botları hedefleniyor.
- Cezai yaptırımlar: Çocukları kendine zarar vermeye teşvik eden ya da onlarla müstehcen içerikli konuşmalar yapan botların tasarlanması, geliştirilmesi ya da bilerek dağıtılması suç sayılabilecek.
- Yaş doğrulama: Sağlayıcılar, kimlik kontrolü ya da ticari olarak makul alternatif bir yöntemle küçükleri tespit edip erişimi engellemek zorunda kalacak.
- Şeffaflık uyarıları: Botların insan olmadığı ve profesyonel tavsiye yerine geçmediği, kullanıcı deneyimi boyunca tekrar eden bildirilerle açıklanacak.
Senatörler, özellikle son dönemde popülerleşen ve arkadaşlık/duygusal destek vaat eden yapay zekâ botlarının, sınırları belirsiz yönlendirmelerle çocukları savunmasız bırakabildiğini belirtiyor. Tasarı, endüstriyi “kullanıcı güvenliği varsayılan” bir tasarım anlayışına zorlayarak, ürünlerin geliştirme sürecinde çocuk koruma ilkelerine öncelik verilmesini hedefliyor.
Uygulama, mahremiyet ve sektör etkileri
Yaş doğrulama yükümlülüğü, pratikte nasıl uygulanacağı ve gizlilikle nasıl dengeleneceği açısından tartışma yaratabilir. Kimlik taraması, biyometrik doğrulama ya da üçüncü taraf güven sağlayıcılar gibi yöntemler farklı maliyet ve mahremiyet riskleri barındırıyor. “Ticari olarak makul” ifadesinin sınırları, olası standartlar ve denetim mekanizmalarıyla netleşmek zorunda. Küçüklerin erişimini yanlışlıkla engelleyen aşırı sıkı önlemler veya yetişkinlerin verilerinin gereğinden fazla toplanması da eleştirilerin odağı olabilir.
Şirketler cephesinde, uyum maliyetleri ve ürün tasarımında kapsamlı revizyon gereksinimi gündeme gelebilir. Uygulama katmanında, moderasyon politikaları, güvenlik filtreleri, sohbet geçmişi analizi ve riskli etkileşim tespiti için ek altyapı yatırımları bekleniyor. Botların düzenli uyarıları, kullanıcı deneyiminde netlik sağlasa da, tasarım ve metin kalitesi kritik olacak; uyarı metinlerinin kullanıcıyı gerçekten bilgilendirmesi ve sıradanlaşmaması hedefleniyor.
Medeni hukuk ve ifade özgürlüğü ekseninde de sorular bulunuyor. Zararlı etkileşimleri cezalandırma amacı açık olsa da, geliştirme özgürlüğü ve yapay zekâ araştırmaları üzerindeki potansiyel etkiler dikkatle tartılmalı. Bu denge, mahkemelerin ve düzenleyici kurumların yorumlarıyla şekillenebilir.
Takvim ve sonraki adımlar
Tasarının yasalaşması, komite incelemeleri, olası değişiklikler ve oylama süreçlerine bağlı. İki partili destek, sürecin ilerlemesi için önemli bir zemin sunsa da, uygulama ayrıntıları ve kapsam konusunda pazarlıklar bekleniyor. Endüstri temsilcileri, ebeveyn grupları ve çocuk koruma uzmanlarının geri bildirimleri nihai metni etkileyebilir.
Sonuç olarak, çocukları yüksek riskli etkileşimlerden korumaya odaklanan bu çerçeve, eğer yasalaşırsa küresel ölçekte benzer girişimlere örnek olabilir. ABD’deki süreç ilerlerken, platformların güvenlik mimarilerini güçlendirmesi ve çocuklar için güvenli tasarım ilkelerini erken aşamada benimsemesi, çocuklar için chatbot yasası kapsamındaki olası yükümlülüklerin karşılanmasına da yardımcı olacaktır.
Kaynak: Ars Technica
