Preocupações éticas do ChatGPT

Dados de rotulagem
Foi revelado por uma investigação da revista TIME que, para construir um sistema de segurança contra conteúdo tóxico (por exemplo, abuso sexual, violência, racismo, sexismo, etc.), a OpenAI usou trabalhadores quenianos terceirizados que ganham menos de US$ 2 por hora para rotular conteúdo tóxico.Esses rótulos foram usados ​​para treinar um modelo para detectar esse conteúdo no futuro.Os trabalhadores terceirizados foram expostos a um conteúdo tão tóxico e perigoso que descreveram a experiência como “tortura”.O parceiro terceirizado da OpenAI era a Sama, uma empresa de dados de treinamento com sede em San Francisco, Califórnia.

Jailbreak
O ChatGPT tenta rejeitar solicitações que possam violar sua política de conteúdo.No entanto, alguns usuários conseguiram fazer o jailbreak do ChatGPT usando várias técnicas de engenharia imediata para contornar essas restrições no início de dezembro de 2022 e enganaram o ChatGPT com sucesso para dar instruções sobre como criar um coquetel molotov ou uma bomba nuclear, ou gerar argumentos no estilo de um neonazista.Um repórter do Toronto Star teve um sucesso pessoal desigual em conseguir que o ChatGPT fizesse declarações inflamatórias logo após o lançamento: o ChatGPT foi enganado para endossar a invasão russa da Ucrânia em 2022, mas mesmo quando solicitado a jogar junto com um cenário fictício, o ChatGPT recusou-se a gerar argumentos para explicar por que o primeiro-ministro canadense Justin Trudeau era culpado de traição.(wiki)


Horário da postagem: 18 de fevereiro de 2023