Mitos sobre la inteligencia artificial de Mindsync MindSync.ai Dic, 2020

El concepto de "inteligencia artificial" es, en cierto modo, desafortunado. Originalmente surgió en el entorno científico, finalmente penetró en la literatura fantástica y, a través de ella, en la cultura pop, donde experimentó una serie de cambios, se convirtió en una variedad de interpretaciones y al final quedó completamente desconcertado.

Es por eso que a menudo escuchamos a personas no especializadas acerca de tales declaraciones: “La IA no existe”, “La IA no se puede crear. La incomprensión de la investigación de la IA también lleva fácilmente a las personas a otros extremos; por ejemplo, los sistemas de IA modernos atribuyen conciencia, libre albedrío y motivos secretos.

En ciencia, la inteligencia artificial se denomina sistemas diseñados para resolver problemas intelectuales.

A su vez, una tarea intelectual es una tarea que las personas resuelven con la ayuda de su propio intelecto. Cabe señalar que en este caso los especialistas se alejan conscientemente de la definición del concepto de “inteligencia”, porque antes de la aparición de los sistemas de IA el único ejemplo de inteligencia era el intelecto humano, y para definir el concepto de inteligencia en base a un solo ejemplo, lo mismo que intentar dibujar una línea directa a través de un solo punto. Puede haber tantas líneas como quieras, lo que significa que el debate sobre el concepto de intelecto podría llevar siglos.

INTELIGENCIA ARTIFICIAL “FUERTE” Y “DÉBIL”.

Los sistemas de IA se dividen en dos grandes grupos.

La Inteligencia Artificial Aplicada (también se usa el término “IA débil / aplicada / estrecha”, en la tradición inglesa IA débil / aplicada / estrecha) es IA diseñada para resolver un solo problema intelectual o un pequeño número de ellos. Esta clase incluye sistemas para jugar al ajedrez, go, reconocimiento de patrones, habla, decidir si conceder o no un préstamo bancario, etc.

A diferencia de la IA aplicada, presentamos el concepto de inteligencia artificial universal (también "IA fuerte", en inglés – IA fuerte / Inteligencia general artificial), es decir, IA hipotética (hasta ahora), capaz de resolver cualquier problema intelectual.

A menudo, las personas, sin conocer la terminología, identifican la IA con una IA fuerte, y es por eso que surgen juicios como “La IA no existe”.

Una IA fuerte no existe todavía. Prácticamente todos los éxitos que hemos visto en la última década en IA son los de los sistemas de aplicaciones. Estos avances no deben subestimarse, ya que los sistemas de aplicación son en algunos casos capaces de resolver problemas intelectuales mejor que el intelecto humano universal.

Creo que habrás notado que el concepto de IA es bastante amplio. Digamos que el conteo oral también es una tarea intelectual, y significa que cualquier máquina de conteo se considerará un sistema de inteligencia artificial. ¿Y las cuentas? ¿Abacá? ¿El mecanismo Anti-Ketter? De hecho, todo esto es formalmente, aunque primitivo, pero sistemas de IA. Sin embargo, generalmente, al llamar a algún sistema un sistema de IA, enfatizamos la complejidad de la tarea resuelta por este sistema.

Es obvio que la división de tareas intelectuales en simples y complejas es bastante artificial, y nuestras ideas sobre la complejidad de estas o aquellas tareas están cambiando gradualmente. La máquina de conteo mecánica fue un milagro de la tecnología en el siglo XVII, pero hoy en día la gente, desde la infancia enfrentando mecanismos mucho más complejos, ya no puede impresionar. Cuando el juego de los coches en marcha o los pilotos automáticos de los coches ya no sorprenda al público, es probable que haya gente que se arrugue porque alguien relacionará esos sistemas con la IA.

Otro error gracioso es que los sistemas de IA tienen la capacidad de aprender por sí mismos. Por un lado, esto no es en absoluto una característica obligatoria de los sistemas de IA: hay muchos sistemas asombrosos que son incapaces de aprender por sí mismos, pero que resuelven muchos problemas mejor que el cerebro humano. Por otro lado, algunas personas simplemente no saben que el autoaprendizaje es una propiedad que muchos sistemas de IA adquirieron hace más de cincuenta años.

El entrenamiento de máquinas, toda la disciplina científica, se dedica a procesos de entrenamiento de máquinas para resolver tal o cual problema.

Hay dos grandes polos del aprendizaje automático: la formación con un profesor y la formación sin un profesor.

En el entrenamiento con el maestro, la máquina ya tiene algunas decisiones condicionalmente correctas para algunos casos. El problema del entrenamiento en tal caso consiste en aprender el auto en base a los ejemplos disponibles para tomar decisiones correctas en otras situaciones desconocidas.

Otro extremo: entrenamiento sin el maestro. Es decir, el automóvil se pone en una situación en la que se desconocen las decisiones correctas, solo hay datos en un tipo burdo y no detectado. Resulta, y en tales casos, puede lograr cierto éxito. Por ejemplo, es posible enseñar a la máquina a revelar relaciones semánticas entre palabras del idioma sobre la base del análisis de un conjunto muy grande de textos.

Uno de los tipos de aprendizaje con un maestro es el aprendizaje por refuerzo. La idea es que el sistema de IA actúe como un agente ubicado en algún entorno modelo en el que pueda interactuar con otros agentes, como sus propias copias, y recibir alguna retroalimentación del entorno a través de una función de recompensa. Por ejemplo, un programa de ajedrez que juega consigo mismo ajustando gradualmente sus parámetros y fortaleciendo así gradualmente su propio juego.

El aprendizaje reforzado es un campo bastante amplio, donde se utilizan muchos métodos interesantes, que van desde algoritmos evolutivos hasta optimización bayesiana. Los avances recientes en IA para juegos están precisamente relacionados con el refuerzo de la IA en el entrenamiento de respaldo.

Riesgos del desarrollo tecnológico: ¿se debe temer al “día del juicio final”?

No soy un armista de IA y, en ese sentido, no estoy solo. Por ejemplo, Andrew Eun, el creador del curso de aprendizaje automático de Stanford, compara el peligro de la IA con la superpoblación de Marte.

De hecho, en el futuro, es probable que la gente colonice Marte. También es probable que tarde o temprano se produzca una superpoblación en Marte, pero no está claro por qué deberíamos estar lidiando con este problema ahora. Estamos de acuerdo con Eun y Yang LeCoon, el creador de redes neuronales, un hombre cuya investigación ha permitido que las redes neuronales modernas resuelvan problemas complejos en el campo del procesamiento de texto.

1. NO PUEDE LIMITAR EL DESARROLLO DE LA IA.

Los alarmistas miran los riesgos asociados con el potencial impacto disruptivo de la IA, mientras ignoran los riesgos asociados con intentar limitar o incluso detener el progreso en esta área. El poder tecnológico humano está creciendo a un ritmo extremadamente rápido, lo que resulta en lo que llamo el “abaratamiento del apocalipsis”.

Hace 150 años, con todo su deseo, la humanidad no podía causar daños irreparables ni a la biosfera ni a sí misma como especie. Para realizar el escenario catastrófico hace 50 años habría sido necesario concentrar todo el poder tecnológico de las potencias nucleares. Mañana, un pequeño puñado de fanáticos puede ser suficiente para realizar una catástrofe global provocada por el hombre.

Nuestro poder tecnológico está creciendo mucho más rápido que la capacidad del intelecto humano para controlarlo.

Si el intelecto humano, con sus prejuicios, agresiones, delirios y limitaciones, no es reemplazado por un sistema capaz de tomar decisiones más informadas (ya sea IA o, en mi opinión, más probablemente, tecnológicamente mejorado y combinado con máquinas en un solo sistema del intelecto humano), podemos enfrentar una catástrofe global.

2. LA CREACIÓN DE SUPER AI ES FUNDAMENTALMENTE IMPOSIBLE …

Existe la idea de que la IA del futuro siempre será un superintelectual, superior a los humanos incluso más fuerte que los humanos superiores a las hormigas. Me temo que en este caso también decepcionará a los optimistas tecnológicos: nuestro universo contiene una serie de limitaciones físicas fundamentales que probablemente hagan imposible la creación de un superintelecto.

Por ejemplo, la velocidad de transmisión está limitada por la velocidad de la luz, mientras que la incertidumbre de Heisenberg aparece en una escala de tabla. De aquí sigue el primer límite fundamental, el límite de Bremermann, que introduce restricciones en la velocidad máxima de cálculo para un sistema autónomo de una masa m dada.

El otro límite está relacionado con el principio de Landauer, según el cual se emite una cantidad mínima de calor al procesar 1 bit de información. Un cálculo demasiado rápido provocará una calefacción inaceptable y una falla del sistema. De hecho, los procesadores modernos están menos de mil veces por detrás del límite de Landauer. Parecería que 1000 es bastante, pero otro problema es que muchas tareas intelectuales pertenecen a la clase de complejidad EXPTIME. Esto significa que el tiempo necesario para resolverlos es una función exponencial de la dimensionalidad de la tarea. La aceleración del sistema varias veces da solo un aumento constante de "intelecto".

En general, hay razones muy serias para creer que una IA fuerte y superintelectual no funcionará, aunque, por supuesto, el nivel de intelecto humano puede ser superado. ¿Qué tan peligroso es eso? Probablemente no sea muy peligroso.

Imagina que de repente empezaste a pensar 100 veces más rápido que otras personas. ¿Eso significa que puedes persuadir fácilmente a cualquiera para que te dé tu billetera?