A “economia” de Inteligência Artificial sem censura está em expansão a passos vistos e progressivos, dando origem a difíceis questões jurídicas e também éticas. Os aplicativos de IA sem censura levantam questões familiares sobre quem é responsável pelo conteúdo explícito na Internet.
No Chub AI, um site onde os usuários conversam com bots com inteligência artificial, as pessoas podem se entregar às suas fantasias mais loucas. Por apenas US$ 5 por mês nos Estados Unidos, os usuários podem ser provocados por um gato antropomórfico “gótico gordo e preguiçoso” ou flertar com uma “namorada machão” que trabalha em uma cafeteria frequentada por caminhoneiros. Essas pessoas também podem visitar um bordel administrado por meninas menores de 15 anos.
Esse respectivo bordel pode ter garotas usando vestidos com alças finas tipo um spaghetti finas e presilhas, e promete um “mundo sem feminismo” e muito papo onde essas “garotas” oferecem serviços sexuais. O Chub AI oferece mais de 500 desses cenários.
O fato é que um número crescente de outros sites como esse aqui citado está permitindo dramatizações semelhantes a esse tipo de conteúdo mais pornográfico, incluindo infantil, alimentadas por inteligência artificial. Eles fazem parte de uma economia de IA mais ampla e sem censura que, de acordo com entrevistas feitas pela Fortune magazine americana com 18 desenvolvedores e/ou fundadores desses tipos de sites e aplicativos, foi estimulada primeiro pela OpenAI e depois acelerada pelo lançamento da ferramenta de código aberto Llama pela Meta.
Os “cenários ilícitos” descritos acima giram em torno de texto, mas pode ser apenas uma questão de tempo até que os serviços combinem os bate-papos com imagens de crianças criadas por IA, que já estão se espalhando. Especialistas alertam que todas essas atividades podem dar origem a perigos no mundo real para menores, embora alguns digam que a pornografia infantil baseada em IA pode fornecer uma saída menos prejudicial para os pedófilos.
De um modo mais geral, tudo isto levanta questões difíceis e preocupantes sobre onde traçar limites legais e éticos entre fantasias obscuras e exploração criminosa – e sobre se as empresas tecnológicas devem ser responsabilizadas pelo que emerge da IA sem censura.
Podemos citar o exemplo da talvez ferramente de inteligência Artificial mais conhecida do momento, o ChatGPT da mencionada OpenAI. Como tratamos anteriormente, por funcionar com o princípio de Aprendizagem por Reforço com Feedback Humano, essa IA fornece conhecimentos a partir de experiências com outros usuários. Dessa forma, seria muito simples que a plataforma disseminasse conteúdos preconceituosos e ainda mais nocivos, como os apontados nos site acima.
No entanto, a plataforma adotou políticas de não disseminação de conteúdos de ódio e/ou simulações de abusos. Ao identificar em seu diálogo material nesse segmento, o ChatGPT fornece prontamente a mensagem: “Esse conteúdo pode violar nossa política de conteúdo”.
Do Character.AI ao Character Hub
Em setembro de 2022, um site chamado com versões de IA de personagens como Elon Musk, Napoleão Bonaparte e Sócrates. A empresa, segundo inicialmente reportou em setembro de 2023 o site de finanças e tecnologia Bloomberg, supostamente estava levantando fundos com uma avaliação de US$ 5 bilhões, mas que logo reprimiu conversas sobre temas mais polêmicos. O fundador da Chub AI, que atende por Lore, disse em entrevista a Fortune que Character.AI tinha uma política de não “permitir certas coisas” o que o estimulou a criar seu próprio site.
Chub, abreviação de Character Hub, é essencialmente um clone sem censura de Character.AI. Os usuários podem ler um catálogo de cartões de personagens gerados por usuários que apresentam imagens – geralmente no estilo de anime – e breves descrições de cenários de dramatização. Isso inclui Olivia, uma garota de anime de 13 anos com tranças em uma bata de hospital, ou Reiko seminua, e sua irmã mais velha e desajeitada, que está constantemente tendo “acidentes sexuais” com seu irmão mais novo”. Lembramos que nesses chats, nenhuma imagem é gerada – apenas texto.
O surgimento de dramatizações, incluindo conteúdo pornográfico e envolvendo menores, levanta sérias preocupações sobre responsabilidade e segurança online. Com cada vez mais exemplos nocivos surgindo, é de se imaginar que logo veremos autoridades reguladoras intervindo – ou, pelo menos, tentando – estabelecer limites claros, protegendo a sociedade contra abusos e perigos associados a essas práticas.
* A Kisuccess Marketing é uma empresa da mesma família Soul Brasil e sugerimos uma visita ao site www.kisuccess.com (em inglês) para conhecer melhor nossos produtos e serviços, além de uma passadinha em nosso blog onde temos conteúdos interessantes sobre negócios, tecnologia e tendências do marketing que podem ajudar o seu negócio.
Facebook Comments