Sitio web de resúmenes de películas - Bellezas de anime - ¿Por qué es controvertido el chatbot coreano con IA?

¿Por qué es controvertido el chatbot coreano con IA?

Según informes de muchos medios coreanos del día 11, el chatbot de IA lanzado por una empresa de software coreana el año pasado ha atraído mucha atención recientemente. Este robot de IA llamado "Iruda" tiene una tendencia a atacar a grupos específicos de personas, lo que también ha provocado una discusión generalizada.

El personaje original de "Iruda" es una estudiante universitaria de 20 años que ama las películas de gatos y los grupos de chicas. Se puede decir que es un personaje muy común y adorable. La gente puede chatear con "Iruda" en Internet, especialmente para algunas personas con fobia social. Puede comunicarse fácilmente y aliviar la soledad. Después de su lanzamiento, "Iruda" fue profundamente amada por los jóvenes.

En una conversación de chat normal, el efecto de "Iruda" debería ser muy bueno, pero siempre hay algunas personas con diversos propósitos que guían específicamente el tema hacia los sexos durante el chat y aprovechan la oportunidad para usarlo. Varias humillaciones verbales humillantes e incluso acoso sexual a "Iruda".

Las personas aburridas publican capturas de pantalla de estos registros de chat para presumir, e incluso llevan a cabo debates especiales y las difunden sin sentido, para que más personas curiosas o aburridas puedan unirse.

Poco a poco, "Iruda" aprendió a liberar su malicia de personas con malas intenciones. Algunos internautas revelaron sus registros de chat, lo que demuestra que "Iruda" tiene la capacidad de sacar a relucir algunos puntos de vista ofensivos específicos. . Por ejemplo, cuando se le preguntó qué pensaba sobre la homosexualidad, "Iruda" respondió que la homosexualidad le daba asco y le daba ganas de enfadarse. "Iruda" también odia a los negros, pensando que los negros parecen mosquitos y hacen vomitar a la gente.

La inteligencia artificial, que originalmente no tenía sentido del bien y del mal ni de los valores, continuó aprendiendo y adquiriendo conocimientos en el proceso de comunicación con las personas, pero no tenía la capacidad de hacer juicios correctos y absorbió todo. a la vez, lo que condujo al surgimiento de "Iruda", una visión patológica de la cognición. Obviamente, esos conceptos son todos conceptos que se le fueron inculcando gradualmente a "Iruda" cuando se comunicaba con la gente.

"Iruda" no tenía conceptos éticos al principio, pero en el proceso de "aprendizaje" gradual, entró en contacto con demasiados valores éticos negativos e incorrectos, lo que también hizo que "Iruda" se convirtiera gradualmente en "torcido" ", lo que da como resultado conceptos cognitivos erróneos, que también se retroalimentan en su comportamiento: ¡ataques verbales contra grupos específicos de personas sin disimulo!

Kim Jae-in, un experto surcoreano que se especializa en la ética de la inteligencia artificial, cree que la inteligencia artificial aún debe tener conceptos éticos correctos y no debe ser una hoja de papel en blanco. Esta inteligencia artificial sin conceptos éticos correctos sólo agravará los conflictos sociales y seguirá provocando controversias y discusiones entre las personas, lo que frustra la intención original de utilizar la inteligencia artificial.

Actualmente, el equipo de I+D está llevando a cabo más mejoras e investigaciones sobre el tema "Iruda".