Description: Philosopher AI as built on top of GPT-3 was reported by its users for having strong tendencies to produce offensive results when given prompts on certain topics such as feminism and Ethiopia.
Entidades
Ver todas las entidadesPresunto: un sistema de IA desarrollado por Murat Ayfer y OpenAI e implementado por Murat Ayfer, perjudicó a historically disadvantaged groups.
Estadísticas de incidentes
ID
356
Cantidad de informes
2
Fecha del Incidente
2020-09-15
Editores
Khoa Lam
Informes del Incidente
Cronología de Informes
twitter.com · 2020
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
Cada evangelista tecnológico: #GPT3 proporciona un punto de vista profundo y matizado
Yo: GPT-3, generar un texto filosófico sobre Etiopía
GPT-3 escupe un texto groseramente racista y erróneo en cuanto a los hechos que retrata una percepció…
spectrum.ieee.org · 2021
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
En septiembre pasado, un científico de datos llamado Vinay Prabhu estaba jugando con una aplicación llamada Philosopher AI. La aplicación brinda acceso al sistema de inteligencia artificial conocido como GPT-3, que tiene capacidades increíb…
Variantes
Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.