Instâncias estão usando a OpenAI para moderar e decidir sobre banimentos

A administração do PieFed, uma alternativa fediversal ao Reddit, denunciou o uso da OpenAI para tomada de decisões de moderação.

Os comentários de um usuário eram enviados para o chatbot e se pedia evidências de sentimento político específico para decidir se o usuário seria banido.

A administração do PieFed então elenca vários questionamentos que surgem disso:

- Quais os riscos?
- Quais salvaguardas precisamos?
- O resultado de perguntar “avalie a opinião política dessa pessoa” seria diferente de perguntar “encontre evidências que sustentem o banimento dessa pessoa”?
- Quais as expectativas de transparência?
- Isso é aceitável e normal?
- Essa ferramenta integrada ao OpenAI deveria ser divulgada?
- Se dada a opção, você faria o opt-out disso?
- Podemos sequer fazer opt-out disso?
- Quais as implicações com relação à privacidade, LGPD/GDPR? Deveriam constar na Política de Privacidade?
- As menções privadas estão sendo escaneadas e enviadas para a OpenAI?
- Por quanto tempo essas consultas ao chatbot devem ser mantidas? Podemos solicitar acesso a elas ou exclusão delas?
- Os comentários de um usuário que são enviados para a OpenIA terminam usados para treinar o chatbot?
- Quais os impactos na nossa cultura e discurso caso as pessoas saibam que estão criando perfis políticos delas?
- Quais as divisas entre ferramentas normais de moderação, criação de perfis políticos e processamento opaco de dados por terceiros?

As instâncias envolvidas ainda não foram expostas visando dar tempo para que elas coloquem a mão na consciência.

:neobot_hyper: https://join.piefed.social/?p=2663

@fediadminbr

#FediAdminBR