¿La inteligencia artificial eventualmente dañará a la humanidad?
En 1956, se propuso por primera vez el término académico "inteligencia artificial", y la "inteligencia artificial" se convirtió oficialmente en una disciplina emergente. Pero en las décadas siguientes, la "inteligencia artificial" nos impresionó más en los laboratorios y en las películas. Pero alrededor de 2013, los gigantes tecnológicos representados por Google, Microsoft y Facebook ingresaron sucesivamente al campo de la inteligencia artificial. Además, fabricantes como Hon Hai planearon utilizar robots para trabajar, y la "inteligencia artificial" entró gradualmente en nuestras vidas.
Frente a una "marea de inteligencia artificial" sin precedentes en el mundo de la tecnología, gigantes tecnológicos como Musk y Gates no pueden quedarse quietos. En agosto de 2014, Musk publicó un estado en Twitter: "Vale la pena leer el libro "Superinteligencia" escrito por Bostrom. Debemos ser muy cautelosos con la inteligencia artificial. Su potencial puede ser más peligroso que las bombas nucleares, también lo dijo Bill Gates". Es un hecho reciente que las máquinas reemplazarán a los humanos en diversos trabajos y, si podemos manejarlas bien, deberían desempeñar un papel positivo. Pero en unas pocas décadas, la inteligencia artificial se desarrollará a un nivel preocupante.
Peligros ocultos de la inteligencia artificial: Puede afectar al sistema social existente
A principios de febrero, el Future of Life Institute (Instituto Futuro de la Vida), que se compromete a "reducir el riesgos existentes que enfrenta la humanidad" Cientos de científicos destacados firmaron una carta abierta pidiendo a la comunidad científica y tecnológica que examine a fondo cómo el desarrollo de la inteligencia artificial afectará a la sociedad humana y al mismo tiempo promoverá el desarrollo de la inteligencia artificial.
Los autores de la carta reconocen que la inteligencia artificial ha logrado un éxito notable en áreas como el reconocimiento de voz, la clasificación de imágenes, los vehículos autónomos, la traducción automática y los sistemas de respuesta a preguntas, y creen que estas investigaciones pueden ayudar a eliminar las enfermedades y la pobreza. Pero insisten en que "los sistemas de inteligencia artificial deben hacer lo que queremos que haga" y la comunidad científica debería establecer objetivos de investigación que "ayuden a maximizar los beneficios sociales de la inteligencia artificial".
La carta abierta enfatiza que la inteligencia artificial futura puede afectar a la sociedad en campos como la seguridad informática, la economía, el derecho y la filosofía, pero es este potencial omnipresente el que puede desencadenar crisis en muchos aspectos. Por ejemplo, los científicos creen que si algunas partes de la economía se automatizan en el futuro, los trabajadores y los salarios de los trabajadores se verán muy afectados, y los expertos en inteligencia artificial deben prestar atención. La inteligencia artificial debería enfrentar las siguientes preguntas: ¿Las armas letales autónomas cumplen con el derecho humanitario? ¿Cómo evitar violaciones de la privacidad cuando los sistemas de inteligencia artificial recopilan datos de cámaras de vigilancia, líneas telefónicas y correos electrónicos?
Un grupo de académicos de la Universidad de Oxford en el Reino Unido escribió en una publicación de blog el año pasado: "Cuando una máquina comete un error, la forma en que falla puede ser más dramática que un error humano. y puede traer más consecuencias impredecibles. Un algoritmo simple es en gran medida predecible, pero en situaciones inusuales puede tomar decisiones extrañas."
En comparación con estos problemas más realistas. El científico Hawking pensó más. Hawking dijo en una entrevista con la BBC que si la tecnología tiene capacidades similares a las de los humanos, "se escapará del control y se rediseñará a un ritmo acelerado. Lo que es aún más aterrador es que los humanos no podrán alcanzar el desarrollo". de la tecnología debido a limitaciones en el sentido biológico". Velocidad. "Hawking expresó su preocupación por el futuro de la humanidad: "Los seres humanos están limitados por una lenta evolución biológica y no pueden competir con las máquinas, y el desarrollo de una inteligencia artificial completa puede conducir al fin de la humanidad."
De las observaciones de estos científicos, podemos ver que las preocupaciones de los círculos tecnológicos y científicos sobre la inteligencia artificial provienen principalmente de dos aspectos: por un lado, los cambios de la inteligencia artificial a el trabajo y el estilo de vida humanos pueden afectar el sistema legal existente, las normas morales, los modelos de distribución de ganancias, etc., y la velocidad de los cambios humanos puede no seguir el ritmo de desarrollo de la inteligencia artificial, lo que tendrá un impacto en el sistema social existente. y causar caos; por otro lado, la inteligencia artificial hace que los seres humanos sean cada vez menos reflexivos y puede volverse cada vez más inteligente, amenazando así la supervivencia de la humanidad.
¿Se cumplió la profecía? La "teoría de la destrucción" es algo alarmista
El presidente de Google, Schmidt, tomó la iniciativa al refutar los comentarios de Musk, Gates, Hawking y otros.
La identidad de Schmidt es muy especial. Como presidente de Google, ha participado personalmente en el desarrollo de muchos de los sistemas de inteligencia artificial más complejos del mundo, desde vehículos autónomos hasta el motor de búsqueda predictivo de Google, incluso lanzó el suyo propio el año pasado. Laboratorio de robótica interno. Schmidt cree que todos los temores de que las máquinas eliminen puestos de trabajo humanos y se apoderen del mundo son infundados, y espera que la gente se dé cuenta de que los robots se convertirán en nuestros amigos.
Schmidt dijo: "Es normal tener preocupaciones sobre la inteligencia artificial. Pero mirando hacia atrás en la historia, encontrará que son absolutamente erróneas. Sólo esperamos que a través de métodos más mecanizados, podamos poner "Mejor ropa y la experiencia histórica ha demostrado que la mayoría de los auges económicos pasados fueron causados por la adopción de nuevas tecnologías".
El vicepresidente global de IBM, Wang Yang, también dijo a Tencent. La tecnología dijo que siempre da miedo cuando La tecnología logra avances rápidos, pero lo que realmente importa es la gente que domina la tecnología. "Siempre hay gente malvada que utiliza nuevas tecnologías para causar problemas". El desarrollo de la tecnología es imparable. Por ejemplo, en los éxitos de taquilla de Hollywood, a menudo se pueden ver fuerzas malignas que abusan de las tecnologías de alta tecnología, pero los humanos deben dominarlas lo antes posible. resistir la injusticia. En resumen, inevitablemente habrá debates sobre el desarrollo de nuevas tecnologías, pero el progreso científico siempre traerá un futuro mejor para la humanidad. "
Tony Cohen es profesor de razonamiento automático en la Universidad de Leeds en el Reino Unido. Dijo que la inteligencia artificial completa "todavía tiene un largo camino por recorrer, a juzgar por la velocidad actual de desarrollo, creo. Todavía se necesitan algunos años. "Cohen cree que, aunque los programas de reconocimiento y el reconocimiento de voz han logrado grandes avances, los robots funcionan muy mal en entornos abiertos y caóticos. El mayor obstáculo al que se enfrenta la inteligencia artificial en última instancia es que "las máquinas son máquinas después de todo".
Desde el punto de vista de la mayoría de la gente, la afirmación de que "la inteligencia artificial destruirá a la humanidad" parece un poco exagerada. La ciencia y la tecnología existentes sólo pueden permitir que las máquinas hagan algunas cosas básicas, como algunos movimientos fijos en la línea de producción, etc. , e incluso los sistemas inteligentes no tripulados para conducir automóviles no son perfectos, sin mencionar que la inteligencia artificial tiene pensamiento y emociones y puede representar una amenaza para la supervivencia humana. Sin embargo, una cosa no se puede ignorar con el avance de la ciencia y la tecnología. La inteligencia artificial será cada vez más popular. Apareciendo cada vez más en nuestro trabajo y nuestra vida, es muy probable que las máquinas reemplacen el trabajo humano en un futuro próximo.
Los vehículos no tripulados son el tipo más cercano a la inteligencia artificial. Para nosotros, pero aparte de eso, además de los factores técnicos, también enfrenta muchos desafíos. Por ejemplo, si un automóvil sin conductor de Google tiene un accidente automovilístico y causa consecuencias graves, ¿es el propietario del automóvil, Google o los algoritmos o sensores? ¿Y todos los sistemas de control que conducen el coche son responsables del accidente de tráfico? Desgraciadamente, el sistema jurídico existente no ha seguido el ritmo del desarrollo de la sociedad moderna, de las empresas o de los robots y no puede dar una respuesta clara. >
También deberíamos pensar en lo que haremos cuando los robots dejen sin empleo a un gran número de trabajadores. ¿Cómo aclaran las leyes existentes la responsabilidad cuando los robots funcionan mal? ¿Cómo debemos evitar que los piratas informáticos cometan delitos?