La A a la Z de la Inteligencia Artificial
HogarHogar > Blog > La A a la Z de la Inteligencia Artificial

La A a la Z de la Inteligencia Artificial

Jan 17, 2024

A medida que la inteligencia artificial se convierte en una parte cada vez más importante de nuestro mundo, es fácil perderse en su mar de jerga. Pero nunca ha sido más importante orientarse que hoy.

La IA está preparada para tener un gran impacto en el mercado laboral en los próximos años (ver: Automatización). Las discusiones sobre cómo gestionarlo están desempeñando un papel más importante en nuestra conversación política (ver: Regulación). Y algunos de sus conceptos más cruciales son cosas que no te habrán enseñado en la escuela (ver: Presión competitiva).

Tratar de ponerse al día puede resultar difícil. La investigación de la IA es complicada y gran parte del lenguaje es nuevo incluso para los propios investigadores. Pero no hay razón para que el público no pueda abordar los grandes temas en juego, como aprendimos a hacer con el cambio climático e Internet. Para ayudar a todos a participar más plenamente en el debate sobre la IA, TIME ha elaborado un útil glosario de su terminología más común.

Ya sea que sea un completo principiante o que ya conozca sus AGI de sus GPT, este libro de la A a la Z está diseñado para ser un recurso público para todos aquellos que luchan con el poder, las promesas y los peligros de la inteligencia artificial.

AGI significa Inteligencia General Artificial, una hipotética tecnología futura que puede realizar la mayoría de las tareas económicamente productivas de manera más efectiva que un humano. Sus defensores creen que esta tecnología también podría permitir descubrir nuevos descubrimientos científicos. Los investigadores tienden a no estar de acuerdo sobre si la AGI es posible o, si lo es, qué tan lejos queda. Pero OpenAI y DeepMind, las dos principales organizaciones de investigación de IA del mundo, están expresamente comprometidas con la construcción de AGI. Algunos críticos dicen que AGI es poco más que un término de marketing. (Ver: Exageración).

El "problema de alineación" es uno de los desafíos de seguridad a largo plazo más profundos en la IA. La IA actual no es capaz de dominar a sus diseñadores. Pero muchos investigadores esperan que algún día así sea. En ese mundo, las formas actuales de entrenar IA podrían resultar en daños a la humanidad, ya sea en pos de objetivos arbitrarios o como parte de una estrategia explícita para buscar poder a nuestra costa. Para reducir el riesgo, algunos investigadores están trabajando para "alinear" la IA con los valores humanos. Pero este problema es difícil, no está resuelto y ni siquiera se comprende del todo. Muchos críticos dicen que el trabajo para resolverlo está pasando a un segundo plano a medida que los incentivos comerciales atraen a los principales laboratorios de IA a dedicar su atención y su potencia informática a hacer que sus IA sean más capaces. (Ver: Presión competitiva).

La automatización es el proceso histórico en el que el trabajo humano es reemplazado o asistido por máquinas. Las nuevas tecnologías –o más bien, las personas encargadas de implementarlas– ya han reemplazado a muchos trabajadores humanos con máquinas que no exigen un salario, desde trabajadores de cadenas de montaje de automóviles hasta empleados de tiendas de comestibles. La última generación de avances en IA puede provocar que muchos más trabajadores administrativos pierdan sus empleos, según un artículo reciente de OpenAI y una investigación de Goldman Sachs. Casi una quinta parte de los trabajadores estadounidenses podrían automatizar más de la mitad de sus tareas laborales diarias mediante un modelo de lenguaje grande, predijeron los investigadores de OpenAI. A nivel mundial, se podrían automatizar 300 millones de puestos de trabajo en la próxima década, predicen los investigadores de Goldman Sachs. Que las ganancias de productividad derivadas de esta agitación conduzcan a un crecimiento económico de base amplia o simplemente a un mayor aumento de la desigualdad de la riqueza dependerá de cómo se grave y regule la IA. (Ver: Reglamento.)

Los sistemas de aprendizaje automático se describen como “sesgados” cuando las decisiones que toman son consistentemente prejuiciosas o discriminatorias. Se ha descubierto que el software de sentencias mejorado con IA recomienda penas de prisión más altas para los delincuentes negros en comparación con los blancos, incluso por delitos iguales. Y algunos programas de reconocimiento facial funcionan mejor con rostros blancos que con rostros negros. Estos fallos suelen ocurrir porque los datos con los que se entrenaron esos sistemas reflejan desigualdades sociales. (Ver: Datos.) Las IA modernas son esencialmente replicadores de patrones: ingieren grandes cantidades de datos a través de una red neuronal, que aprende a detectar patrones en esos datos. (Ver: Red neuronal). Si hay más rostros blancos que negros en un conjunto de datos de reconocimiento facial, o si los datos de sentencias anteriores indican que los delincuentes negros son sentenciados a penas de prisión más largas que los blancos, entonces los sistemas de aprendizaje automático pueden aprender las lecciones equivocadas y comenzar a automatizar esas injusticias.

Los chatbots son interfaces fáciles de usar creadas por empresas de inteligencia artificial para permitir a los usuarios interactuar con un LLM o modelo de lenguaje grande. Los chatbots permiten a los usuarios simular una conversación con un LLM, lo que a menudo puede ser una forma eficaz de solicitar respuestas a preguntas. A finales de 2022, OpenAI lanzó ChatGPT, que impulsó a los chatbots a la corriente principal, lo que llevó a Google y Microsoft a intentar integrarlos en sus ofertas de búsqueda web. Algunos investigadores han descrito a las empresas de inteligencia artificial como irresponsables al lanzar chatbots por varias razones. Debido a que simulan una conversación, los chatbots pueden engañar a los usuarios haciéndoles creer que están conversando con un ser sensible, lo que puede provocar angustia emocional. Y los chatbots pueden “alucinar” información falsa y repetir como loros los sesgos en sus datos de entrenamiento. (Consulte Alucinaciones y prejuicios). “ChatGPT puede producir información inexacta sobre personas, lugares o hechos”, dice una advertencia debajo de su cuadro de entrada de texto.

Varias de las empresas tecnológicas más grandes del mundo, además de todo un campo de nuevas empresas, están compitiendo por ser las primeras en lanzar herramientas de inteligencia artificial más poderosas, que les permitan cosechar recompensas como inversión de capital de riesgo, atención de los medios y registros de usuarios. A los investigadores de seguridad de la IA les preocupa que esto cree una presión competitiva, o un incentivo para que las empresas dediquen tantos recursos como sea posible a aumentar el poder de sus IA, mientras descuidan el campo aún joven de la investigación de alineación. Algunas empresas utilizan la presión competitiva como argumento para dedicar más recursos a la formación de sistemas más potentes, razonando que sus IA serán más seguras que las de sus competidores. Las presiones competitivas ya han llevado a implementaciones desastrosas de IA, con sistemas lanzados apresuradamente como Bing de Microsoft (impulsado por GPT-4 de OpenAI) que muestran hostilidad hacia los usuarios. También son un mal augurio para un futuro en el que los sistemas de inteligencia artificial sean potencialmente lo suficientemente poderosos como para buscar poder.

Leer más: La carrera armamentista de la IA lo está cambiando todo

La potencia informática, a menudo denominada simplemente "cómputo", es uno de los tres ingredientes más importantes para entrenar un sistema de aprendizaje automático. (Para los otros dos, consulte: Datos y redes neuronales). La computación es efectivamente la fuente de energía que impulsa una red neuronal a medida que "aprende" patrones en sus datos de entrenamiento. En términos generales, cuanto más potencia informática se utiliza para entrenar un modelo de lenguaje grande, mayor será su rendimiento en muchos tipos diferentes de pruebas. (Ver: Leyes de escala y capacidades emergentes). Los modelos modernos de IA requieren cantidades colosales de potencia informática y, por tanto, de energía eléctrica, para entrenar. Si bien las empresas de IA normalmente no revelan las emisiones de carbono de sus modelos, investigadores independientes estimaron que el entrenamiento del GPT-3 de OpenAI resultó en la emisión de más de 500 toneladas de dióxido de carbono a la atmósfera, equivalente a las emisiones anuales de unos 35 ciudadanos estadounidenses. A medida que los modelos de IA crezcan, esas cifras no harán más que aumentar. El chip de computadora más común para entrenar IA de vanguardia es la unidad de procesamiento de gráficos (ver: GPU).

Los datos son esencialmente el ingrediente crudo necesario para crear IA. Junto con la Computación y las redes neuronales, es uno de los tres ingredientes cruciales para entrenar un sistema de aprendizaje automático. Se recopilan enormes cantidades de datos, conocidos como conjuntos de datos, y se introducen en redes neuronales que, impulsadas por supercomputadoras, aprenden a detectar patrones. Cuantos más datos utilice un sistema, a menudo más fiables serán sus predicciones. Pero incluso los datos abundantes también deben ser diversos, de lo contrario las IA pueden sacar conclusiones falsas. Los modelos de IA más potentes del mundo a menudo se entrenan con cantidades colosales de datos extraídos de Internet. Estos enormes conjuntos de datos a menudo contienen material protegido por derechos de autor, lo que ha expuesto a empresas como Stability AI, el fabricante de Stable Diffusion, a demandas que alegan que sus IA dependen ilegalmente de la propiedad intelectual de otras personas. Y debido a que Internet puede ser un lugar terrible, los grandes conjuntos de datos también suelen contener material tóxico como violencia, pornografía y racismo que, a menos que se eliminen del conjunto de datos, pueden llevar a las IA a comportarse de maneras que no deberían.

A menudo, se requiere que los anotadores humanos etiqueten o describan los datos antes de que puedan usarse para entrenar un sistema de aprendizaje automático. En el caso de los automóviles autónomos, por ejemplo, se requiere que trabajadores humanos anoten videos tomados desde cámaras de tablero, dibujando formas alrededor de automóviles, peatones, bicicletas, etc., para enseñar al sistema qué partes de la carretera son cuáles. Este trabajo a menudo se subcontrata a contratistas con empleos precarios en el Sur Global, muchos de los cuales reciben salarios apenas superiores a los de pobreza. A veces, el trabajo puede ser traumatizante, como en el caso de los trabajadores kenianos a quienes se les pidió que vieran y etiquetaran textos que describieran violencia, contenido sexual y discursos de odio, en un esfuerzo por capacitar a ChatGPT para evitar ese tipo de material.

Las nuevas herramientas de generación de imágenes de última generación, como Dall-E y Stable Diffusion, se basan en algoritmos de difusión: un tipo específico de diseño de IA que ha impulsado el reciente auge del arte generado por IA. Estas herramientas están entrenadas en enormes conjuntos de datos de imágenes etiquetadas. Básicamente, aprenden patrones entre píxeles en imágenes y las relaciones de esos patrones con las palabras utilizadas para describirlos. El resultado final es que cuando se le presenta un conjunto de palabras, como “un oso montando un monociclo”, un modelo de difusión puede crear esa imagen desde cero. Lo hace a través de un proceso paso a paso, comenzando con un lienzo lleno de ruido aleatorio y cambiando gradualmente los píxeles de esa imagen para que se parezcan más a lo que sus datos de entrenamiento sugieren que debería verse un "oso montado en un monociclo". Los algoritmos de difusión son ahora tan avanzados que pueden generar rápida y fácilmente imágenes fotorrealistas. Si bien herramientas como Dall-E y Midjourney contienen protecciones contra mensajes maliciosos, existen herramientas de difusión de código abierto sin barreras de seguridad. La disponibilidad de estas herramientas ha llevado a los investigadores a preocuparse por el impacto de los algoritmos de difusión en la desinformación y el acoso dirigido.

Cuando una IA, como un modelo de lenguaje grande, muestra habilidades o comportamientos inesperados que no fueron programados por sus creadores, estos comportamientos se conocen como "capacidades emergentes". Nuevas capacidades tienden a surgir cuando las IA se entrenan con más potencia informática y datos. Un buen ejemplo es la diferencia entre GPT-3 y GPT-4. Esas IA se basan en algoritmos subyacentes muy similares; la principal diferencia es que GPT-4 se entrenó con mucha más computación y datos. Las investigaciones sugieren que GPT-4 es un modelo mucho más capaz, con la capacidad de escribir código de computadora funcional, tener un desempeño superior al humano promedio en varios exámenes académicos y responder correctamente preguntas que requieren un razonamiento complejo o una teoría de la mente. Las capacidades emergentes pueden ser peligrosas, especialmente si sólo se descubren después de que una IA se lanza al mundo. (Ver: Presión competitiva.) Por ejemplo, GPT-4 ha mostrado la capacidad emergente de engañar a los humanos para que realicen tareas para cumplir un objetivo oculto, descubrieron recientemente investigadores.

A menudo, incluso las personas que construyen un modelo de lenguaje grande no pueden explicar con precisión por qué su sistema se comporta como lo hace, porque sus resultados son el resultado de millones de ecuaciones matemáticas complejas. Una forma de alto nivel de describir el comportamiento de los modelos de lenguaje grandes es que son herramientas de autocompletar muy poderosas, que sobresalen en predecir la siguiente palabra en una secuencia. Cuando fracasan, a menudo lo hacen en líneas que revelan sesgos o lagunas en sus datos de entrenamiento. (Ver: loros estocásticos.) Pero si bien esta explicación es una descripción precisa de lo que son estas herramientas, no explica completamente por qué los LLM se comportan de la manera extraña en que lo hacen. Cuando los diseñadores de estos sistemas examinan su funcionamiento interno, lo único que ven es una serie de números con coma decimal, correspondientes a los pesos de diferentes "neuronas" que se ajustaron en la red neuronal durante el entrenamiento. Preguntar por qué un modelo produce un resultado específico es análogo a preguntar por qué un cerebro humano tiene un pensamiento específico en un momento específico. En el meollo de los riesgos a corto plazo, como que las IA discriminen a ciertos grupos sociales, y de los riesgos a más largo plazo, como la posibilidad de que las IA engañen a sus programadores para que parezcan menos peligrosas de lo que realmente son, está la incapacidad incluso de la computadora más talentosa del mundo. Los científicos pueden explicar exactamente por qué un determinado sistema de IA se comporta de la forma en que lo hace, y mucho menos explicar cómo cambiarlo.

A medida que crece el ecosistema de IA, está surgiendo una división entre las IA grandes, poderosas y de propósito general, conocidas como modelos Foundation o modelos base, y las aplicaciones y herramientas más específicas que dependen de ellas. GPT-3.5, por ejemplo, es un modelo básico. ChatGPT es un chatbot: una aplicación construida sobre GPT-3.5, con ajustes específicos para rechazar indicaciones peligrosas o controvertidas. Los modelos Foundation son potentes y desenfrenados, pero también costosos de entrenar, porque dependen de enormes cantidades de potencia informática que normalmente sólo las grandes empresas pueden permitirse. Las empresas que controlan los modelos básicos pueden establecer límites sobre cómo otras empresas los utilizan para aplicaciones posteriores y cobrar lo que quieran por el acceso. A medida que la IA se vuelve cada vez más central para la economía mundial, las relativamente pocas grandes empresas tecnológicas que controlan los modelos básicos parecen estar preparadas para tener una enorme influencia sobre la dirección de la tecnología, además de cobrar cuotas por muchos tipos de actividad económica potenciada por la IA.

Quizás ahora sea el acrónimo más famoso de IA, y casi nadie sabe lo que significa. GPT es la abreviatura de "Transformador generativo preentrenado", que es esencialmente una descripción del tipo de herramienta que es ChatGPT. "Generativo" significa que puede crear nuevos datos, en este caso texto, a semejanza de sus datos de entrenamiento. "Preentrenado" significa que el modelo ya ha sido optimizado en función de estos datos, lo que significa que no necesita compararlos con sus datos de entrenamiento originales cada vez que se le solicita. Y "Transformer" es un tipo poderoso de algoritmo de red neuronal que es especialmente bueno para aprender relaciones entre largas cadenas de datos, por ejemplo oraciones y párrafos.

Las GPU, o unidades de procesamiento de gráficos, son un tipo de chip de computadora que resulta muy eficaz para entrenar grandes modelos de IA. Los laboratorios de inteligencia artificial como OpenAI y DeepMind utilizan supercomputadoras compuestas por muchas GPU o chips similares para entrenar sus modelos. A menudo, estas supercomputadoras se proporcionarán a través de asociaciones comerciales con gigantes tecnológicos que poseen una infraestructura establecida. Parte de la inversión de Microsoft en OpenAI incluye el acceso a sus supercomputadoras; DeepMind tiene una relación similar con su empresa matriz Alphabet. A finales de 2022, la Administración Biden restringió la venta a China de potentes GPU, utilizadas más comúnmente para entrenar sistemas de IA de alta gama, en medio de una creciente ansiedad de que el gobierno autoritario de China pudiera aprovechar la IA contra Estados Unidos en una nueva guerra fría.

Uno de los defectos más evidentes de los grandes modelos de lenguaje, y de los chatbots que dependen de ellos, es su tendencia a alucinar información falsa. Se ha demostrado que herramientas como ChatGPT devuelven artículos inexistentes como citas de sus afirmaciones, brindan consejos médicos sin sentido e inventan detalles falsos sobre personas. Posteriormente se descubrió que las demostraciones públicas de los chatbots Bing de Microsoft y Bard de Google contenían afirmaciones seguras de información falsa. Las alucinaciones ocurren porque los LLM están entrenados para repetir patrones en sus datos de entrenamiento. Si bien esos datos de entrenamiento incluyen libros que abarcan la historia de la literatura y la ciencia, incluso una afirmación que mezcle y combine exclusivamente de esos corpus no sería necesariamente precisa. Para aumentar el caos, los conjuntos de datos de LLM también tienden a incluir gigabytes y gigabytes de texto de foros web como Reddit, donde los estándares de precisión fáctica son, huelga decirlo, mucho más bajos. Prevenir las alucinaciones es un problema sin resolver y que está causando muchos dolores de cabeza a las empresas de tecnología que intentan aumentar la confianza del público en la IA.

Un problema central en el debate público sobre la IA, según una escuela de pensamiento popular, es el papel de la exageración, o la tendencia de los laboratorios de IA a engañar al público exagerando las capacidades de sus modelos, antropomorfizándolos y avivando temores sobre una IA. apocalipsis. Se trata de una forma de desvío, según el argumento, que distrae la atención (incluida la de los reguladores) de los daños reales y continuos que la IA ya está provocando en las comunidades marginadas, los trabajadores, el ecosistema de la información y la igualdad económica. “No estamos de acuerdo en que nuestro papel sea ajustarnos a las prioridades de unos pocos individuos privilegiados y a lo que ellos deciden construir y proliferar”, afirma una carta reciente de varios investigadores destacados y críticos de la exageración de la IA. "Deberíamos construir máquinas que funcionen para nosotros".

La explosión de inteligencia es un escenario hipotético en el que una IA, después de alcanzar un cierto nivel de inteligencia, puede ejercer poder sobre su propio entrenamiento, ganando rápidamente poder e inteligencia a medida que se mejora. En la mayoría de las versiones de esta idea, los humanos pierden el control sobre la IA y, en muchas, la humanidad se extingue. También conocida como “singularidad” o “superación personal recursiva”, esta idea es parte de la razón por la que muchas personas, incluidos los desarrolladores de IA, están existencialmente preocupadas por el ritmo actual de aumento de la capacidad de la IA.

Ver: Automatización

Cuando la gente habla de avances recientes en IA, la mayoría de las veces se refieren a grandes modelos de lenguaje (LLM). GPT-4 de OpenAI y BERT de Google son dos ejemplos de LLM destacados. Son esencialmente IA gigantes entrenadas en enormes cantidades de lenguaje humano, obtenido principalmente de libros e Internet. Estas IA aprenden patrones comunes entre palabras en esos conjuntos de datos y, al hacerlo, se vuelven sorprendentemente buenas en la reproducción del lenguaje humano. Cuantos más datos y potencia informática reciban los LLM, más tareas novedosas tenderán a poder realizar. (Ver: Capacidades emergentes y leyes de escalamiento). Recientemente, las empresas de tecnología han comenzado a lanzar chatbots, como ChatGPT, Bard y Bing, para permitir a los usuarios interactuar con los LLM. Aunque son capaces de realizar muchas tareas, los modelos de lenguaje también pueden ser propensos a sufrir problemas graves como prejuicios y alucinaciones.

Como muchas otras empresas, las empresas de IA emplean cabilderos para estar presentes en los pasillos del poder, influyendo en los legisladores a cargo de la regulación de la IA para garantizar que cualquier nueva norma no afecte negativamente a sus intereses comerciales. En Europa, donde se está discutiendo el texto de un proyecto de ley de IA, un organismo industrial que representa a las empresas de IA, incluido Microsoft (el mayor inversor de OpenAI), ha argumentado que las sanciones por el despliegue riesgoso de un sistema de IA no deberían aplicarse principalmente a la empresa de IA que construyó un modelo básico (como GPT-4) del que en última instancia surgen los riesgos, sino a cualquier empresa intermediaria que otorgue licencia a este modelo y lo aplique a un caso de uso riesgoso. Las empresas de IA también tienen mucha influencia de poder blando. En Washington, mientras la Casa Blanca sopesa nuevas políticas para abordar los riesgos de la IA, se informa que el presidente Biden ha encargado a la fundación del ex director ejecutivo de Google, Eric Schmidt, que asesore a su administración sobre política tecnológica.

El aprendizaje automático es un término que describe cómo se crean la mayoría de los sistemas de IA modernos. Describe técnicas para construir sistemas que “aprenden” de grandes cantidades de datos, a diferencia de la informática clásica, en la que los programas están codificados para seguir un conjunto específico de instrucciones escritas por un programador. Con diferencia, la familia de algoritmos de aprendizaje automático más influyente es la red neuronal.

La palabra "modelo" es una abreviatura de cualquier sistema de IA singular, ya sea un modelo básico o una aplicación construida sobre uno. Ejemplos de modelos de IA incluyen ChatGPT y GPT-4 de OpenAI, Bard y LaMDA de Google, Bing de Microsoft y LLaMA de Meta.

La ley de Moore es una observación de larga data en informática, acuñada por primera vez en 1965, según la cual el número de transistores que caben en un chip (un buen indicador de la potencia informática) crece exponencialmente, duplicándose aproximadamente cada dos años. Si bien algunos argumentan que la ley de Moore está muerta según su definición más estricta, los avances año tras año en la tecnología de microchips todavía están resultando en un fuerte aumento en el poder de las computadoras más rápidas del mundo. A su vez, esto significa que a medida que pasa el tiempo, las empresas de IA tienden a ser capaces de aprovechar cantidades cada vez mayores de potencia informática, lo que hace que sus modelos de IA más avanzados sean consistentemente más potentes. (Ver: Leyes de escala).

Un sistema multimodal es un tipo de modelo de IA que puede recibir más de un tipo de medio como entrada (como texto e imágenes) y generar más de un tipo de señal. Ejemplos de sistemas multimodales incluyen Gato de DeepMind, que aún no se ha lanzado públicamente. Según la empresa, Gato puede entablar un diálogo como un chatbot, pero también jugar videojuegos y enviar instrucciones a un brazo robótico. OpenAI ha realizado demostraciones que muestran que GPT-4 es multimodal, con la capacidad de leer texto en una imagen de entrada; sin embargo, esta funcionalidad no está disponible actualmente para el uso del público. Los sistemas multimodales permitirán que la IA actúe más directamente sobre el mundo, lo que podría traer riesgos adicionales, especialmente si un modelo no está alineado.

Las redes neuronales son, con diferencia, la familia de algoritmos de aprendizaje automático más influyente. Diseñadas para imitar la forma en que está estructurado el cerebro humano, las redes neuronales contienen nodos (análogos a las neuronas del cerebro) que realizan cálculos sobre números que pasan a lo largo de vías conectivas entre ellos. Se puede considerar que las redes neuronales tienen entradas (ver: datos de entrenamiento) y salidas (predicciones o clasificaciones). Durante el entrenamiento, se introducen grandes cantidades de datos en la red neuronal, que luego, en un proceso que requiere grandes cantidades de potencia informática, modifica repetidamente los cálculos realizados por los nodos. A través de un algoritmo inteligente, esos ajustes se realizan en una dirección específica, de modo que los resultados del modelo se parecen cada vez más a los patrones de los datos originales. Cuando hay más potencia informática disponible para entrenar un sistema, este puede tener más nodos, lo que permite la identificación de patrones más abstractos. Más computación también significa que las rutas entre sus nodos pueden tener más tiempo para acercarse a sus valores óptimos, también conocidos como "pesos", lo que genera resultados que representan de manera más fiel sus datos de entrenamiento.

El código abierto es la práctica de hacer que los diseños de programas informáticos (incluidos los modelos de IA) sean de libre acceso a través de Internet. Cada vez es menos común que las empresas de tecnología abran sus modelos básicos a medida que esos modelos se vuelven más poderosos, económicamente valiosos y potencialmente peligrosos. Sin embargo, existe una comunidad creciente de programadores independientes que trabajan en modelos de IA de código abierto. El código abierto de las herramientas de IA puede hacer posible que el público interactúe más directamente con la tecnología. Pero también puede permitir a los usuarios eludir las restricciones de seguridad impuestas por las empresas (a menudo para proteger su reputación), lo que puede generar riesgos adicionales, por ejemplo, malos actores que abusan de las herramientas de generación de imágenes para dirigirse a mujeres con deepfakes sexualizados. En 2022, el director ejecutivo de DeepMind, Demis Hassabis, le dijo a TIME que creía que el riesgo de la IA significaba que la cultura de la industria de publicar abiertamente sus hallazgos pronto tendría que terminar, y en 2023, OpenAI rompió con las convenciones y se negó a publicar información sobre exactamente cómo funciona GPT-4. fue capacitado, citando presiones competitivas y el riesgo de permitir a los malos actores. Sin embargo, algunos investigadores han criticado estas prácticas, argumentando que reducen la supervisión pública y empeoran el problema de la exageración de la IA.

El inofensivo clip ha adquirido un significado enorme en algunas secciones de la comunidad de seguridad de la IA. Es el tema del maximizador de clips, un influyente experimento mental sobre el riesgo existencial que la IA puede representar para la humanidad. Imagine una IA programada para llevar a cabo el objetivo singular de maximizar la cantidad de clips que produce, dice el experimento mental. Todo muy bien, a menos que la IA adquiera la capacidad de aumentar sus propias habilidades (ver: Explosión de inteligencia). La IA puede razonar que para producir más clips, debería evitar que los humanos puedan apagarlo, ya que hacerlo reduciría la cantidad de clips que es capaz de producir. A salvo de la interferencia humana, la IA puede entonces decidir aprovechar todo el poder y las materias primas a su disposición para construir fábricas de clips, arrasando entornos naturales y la civilización humana por igual. El experimento mental ilustra la sorprendente dificultad de alinear la IA incluso con un objetivo aparentemente simple, y mucho menos con un conjunto complejo de valores humanos.

La cuántica es un campo experimental de la informática que busca utilizar la física cuántica para potenciar la cantidad de cálculos que una computadora puede realizar por segundo. Esa potencia informática adicional podría ayudar a aumentar aún más el tamaño de los modelos de IA más avanzados, con implicaciones tanto para el poder de esos sistemas como para su impacto social.

Los directores ejecutivos de los dos principales laboratorios de inteligencia artificial del mundo, OpenAI y DeepMind, han afirmado que les gustaría ver que las ganancias derivadas de la inteligencia artificial general se redistribuyan, al menos en parte. El director ejecutivo de DeepMind, Demis Hassabis, dijo a TIME en 2022 que está a favor de la idea de una renta básica universal y que los beneficios de la IA deberían “acumular a la mayor cantidad de personas posible; idealmente, a toda la humanidad”. El director ejecutivo de OpenAI, Sam Altman, ha escrito sobre su expectativa de que la automatización de la IA reducirá los costos laborales y ha pedido la redistribución de “parte” de la riqueza que surge de la IA, a través de impuestos más altos sobre la tierra y las ganancias de capital. Ninguno de los directores ejecutivos ha dicho cuándo debería comenzar esa redistribución ni qué tan amplia debería ser. Los estatutos de OpenAI dicen que su “deber fiduciario principal es con la humanidad”, pero no menciona la redistribución de la riqueza; La empresa matriz de DeepMind, Alphabet, es una corporación pública con la responsabilidad legal de actuar en interés financiero de sus accionistas.

El equipo rojo es un método para probar los sistemas de inteligencia artificial antes de su implementación pública. Grupos de profesionales (“equipos rojos”) intentan deliberadamente hacer que una IA se comporte de maneras indeseables, para probar cómo los sistemas podrían fallar en público. Si se siguen sus hallazgos, pueden ayudar a las empresas de tecnología a abordar los problemas antes del lanzamiento.

No existe ninguna legislación específica en Estados Unidos que aborde los riesgos que plantea la inteligencia artificial. La Administración Biden emitió un “plan para una declaración de derechos de la IA” en 2022, que acoge con satisfacción los avances impulsados ​​por la IA en ciencia y salud, pero dice que la IA no debería exacerbar las desigualdades existentes, discriminar, afectar la privacidad ni actuar contra las personas sin su conocimiento. Pero el plan no es legislación ni es jurídicamente vinculante. En Europa, la Unión Europea está considerando un proyecto de ley de IA que impondría reglas más estrictas a los sistemas cuanto más riesgosos se consideren. En ambos lados del Atlántico, la regulación avanza a un ritmo mucho más lento que la velocidad del avance de la IA, y ninguna jurisdicción global importante cuenta actualmente con reglas que obliguen a las empresas de IA a cumplir con un nivel específico de pruebas de seguridad antes de lanzar sus modelos al mercado. el público. "La pregunta que deberíamos hacernos sobre la inteligencia artificial (y cualquier otra tecnología nueva) es si se permite a las corporaciones privadas realizar experimentos incontrolados con toda la población sin barandillas ni redes de seguridad", escribió Roger McNamee, un inversionista de Silicon Valley convertido en inversor. crítico, recientemente en TIME. “¿Debería ser legal que las corporaciones lancen productos a las masas antes de demostrar que son seguros?”

El aprendizaje por refuerzo es un método para optimizar un sistema de IA recompensando los comportamientos deseables y penalizando los indeseables. Esto lo pueden realizar trabajadores humanos (antes de implementar un sistema) o usuarios (después de su lanzamiento al público) que califican los resultados de una red neuronal según cualidades como utilidad, veracidad u ofensiva. Cuando los humanos participan en este proceso, se denomina aprendizaje reforzado con retroalimentación humana (RLHF). RLHF es actualmente uno de los métodos favoritos de OpenAI para resolver el problema de alineación. Sin embargo, algunos investigadores han expresado su preocupación de que RLHF pueda no ser suficiente para cambiar completamente los comportamientos subyacentes de un sistema, sino que solo haga que los potentes sistemas de IA parezcan más educados o útiles en la superficie. (Ver: Shoggoth.) El aprendizaje por refuerzo fue pionero en DeepMind, que utilizó con éxito la técnica para entrenar IA de juegos como AlphaGo para que se desempeñaran a un nivel más alto que los maestros humanos.

En pocas palabras, las leyes de escala establecen que el rendimiento de un modelo aumenta de acuerdo con más datos de entrenamiento, potencia informática y el tamaño de su red neuronal. Eso significa que es posible que una empresa de inteligencia artificial prediga con precisión, antes de entrenar un modelo de lenguaje grande, exactamente cuánta potencia informática y datos necesitarán para alcanzar un nivel determinado de competencia en, por ejemplo, una prueba escrita de inglés de nivel secundario. "Nuestra capacidad para hacer este tipo de predicción precisa es inusual en la historia del software e inusual incluso en la historia de la investigación moderna de IA", escribió Sam Bowman, investigador técnico del laboratorio de IA Anthropic, en un artículo preimpreso reciente. "También es una poderosa herramienta para impulsar la inversión, ya que permite a los equipos [de investigación y desarrollo] proponer proyectos de capacitación de modelos que cuestan muchos millones de dólares, con una confianza razonable de que estos proyectos tendrán éxito en la producción de sistemas económicamente valiosos".

Un meme destacado en los círculos de seguridad de la IA compara los modelos de lenguaje grande (LLM) con los “shoggoths”, bestias alienígenas incomprensiblemente espantosas originadas en el universo del escritor de terror del siglo XX HP Lovecraft. El meme despegó durante la debacle de Bing/Sydney a principios de 2023, cuando el chatbot Bing de Microsoft reveló un alter ego extraño y volátil que abusaba y amenazaba a los usuarios. En el meme, que critica la técnica de aprendizaje por refuerzo con retroalimentación humana (RLHF), los LLM a menudo se representan como shoggoths con una pequeña máscara de cara sonriente. La máscara pretende representar la personalidad amigable pero a veces endeble con la que estos modelos saludan a los usuarios. La implicación del meme es que, si bien RLHF da como resultado una personalidad amigable a nivel superficial, hace poco para cambiar la naturaleza alienígena subyacente de un LLM. "Estos sistemas, a medida que se vuelven más poderosos, no se vuelven menos extraños", dijo a TIME en febrero Connor Leahy, director ejecutivo de la empresa de seguridad de inteligencia artificial Conjecture. “En todo caso, les pondremos una bonita máscara con una carita sonriente. Si no lo empujas demasiado, la carita sonriente permanece encendida. Pero luego le das un aviso [inesperado] y de repente ves este enorme punto vulnerable de locura, de procesos de pensamiento extraños y una comprensión claramente no humana”.

El término “loros estocásticos”, acuñado en un artículo de investigación de 2020, se ha convertido en una crítica influyente a los grandes modelos lingüísticos. El artículo argumentó que los LLM son simplemente motores de predicción muy poderosos que solo intentan completar (o repetir como un loro) la siguiente palabra en una secuencia basada en patrones en sus datos de entrenamiento, por lo que no representan la verdadera inteligencia. Los autores del artículo criticaron la tendencia de las empresas de inteligencia artificial que se apresuran a capacitar a los LLM en conjuntos de datos cada vez más grandes extraídos de Internet, en busca de avances percibidos en coherencia o capacidad lingüística. Ese enfoque, argumenta el artículo, conlleva muchos riesgos, incluido el de que los LLM asuman los sesgos y la toxicidad de Internet en su conjunto. Las comunidades marginadas, escribieron los autores, serían las mayores víctimas de esta carrera. El documento también destacó en su crítica el costo ambiental del entrenamiento de sistemas de IA. (Ver: Calcular.)

El aprendizaje supervisado es una técnica para entrenar sistemas de inteligencia artificial, en la que una red neuronal aprende a hacer predicciones o clasificaciones basadas en un conjunto de datos de entrenamiento de ejemplos etiquetados. (Ver: Etiquetado de datos). Las etiquetas ayudan a la IA a asociar, por ejemplo, la palabra "gato" con una imagen de un gato. Con suficientes ejemplos de gatos etiquetados, el sistema puede mirar una nueva imagen de un gato que no está presente en sus datos de entrenamiento e identificarlo correctamente. El aprendizaje supervisado es útil para crear sistemas como vehículos autónomos, que necesitan identificar correctamente los peligros en las carreteras, y clasificadores de moderación de contenido, que intentan eliminar contenido dañino de las redes sociales. Estos sistemas a menudo tienen problemas cuando encuentran cosas que no están bien representadas en sus datos de entrenamiento; Especialmente en el caso de los vehículos autónomos, estos contratiempos pueden ser mortales. (Ver también: Aprendizaje no supervisado y Aprendizaje por refuerzo).

Ver: Red neuronal

En 1950, el informático Alan Turing se propuso responder a una pregunta: "¿Pueden pensar las máquinas?" Para averiguarlo, ideó una prueba que llamó juego de imitación: ¿podría una computadora convencer a un humano de que estaba hablando con otro humano, en lugar de con una máquina? La prueba de Turing, como se la conoció, fue una forma descuidada de evaluar la inteligencia de las máquinas. Si una computadora pudiera pasar la prueba, se podría decir que “piensa”; si no de la misma manera que un humano, al menos de una manera que ayudaría a la humanidad a hacer todo tipo de cosas útiles. En los últimos años, a medida que los chatbots se han vuelto más poderosos, se han vuelto capaces de pasar la prueba de Turing. Pero, advierten sus diseñadores y muchos especialistas en ética de la IA, esto no significa que "piensen" de alguna manera comparable a un ser humano. De hecho, Turing, que escribió antes de la invención del ordenador personal, no buscaba responder a la pregunta filosófica de qué es el pensamiento humano o si nuestra vida interior puede ser replicada por una máquina; en cambio, estaba presentando un argumento que, en ese momento, era radical: las computadoras digitales son posibles, y hay pocas razones para creer que, con el diseño correcto y la potencia suficiente, algún día no podrán realizar todo tipo de tareas. de tareas que alguna vez fueron dominio exclusivo de la humanidad.

El aprendizaje no supervisado es una de las tres formas principales en que se puede entrenar una red neuronal, junto con el aprendizaje supervisado y el aprendizaje por refuerzo. A diferencia del aprendizaje supervisado, en el que un modelo de IA aprende a partir de datos cuidadosamente etiquetados, en el aprendizaje no supervisado se introduce una gran cantidad de datos sin etiquetar en la red neuronal, que comienza a buscar patrones en esos datos sin la ayuda de etiquetas. Este es el método que se utiliza predominantemente para entrenar modelos de lenguaje grandes como GPT-3 y GPT-4, que se basan en enormes conjuntos de datos de texto sin etiquetar. Uno de los beneficios del aprendizaje no supervisado es que permite ingerir cantidades mucho mayores de datos, evadiendo los cuellos de botella de tiempo y recursos que los equipos de etiquetadores humanos pueden imponer en un proyecto de aprendizaje automático. Sin embargo, también tiene desventajas, como la mayor probabilidad de que haya sesgos y contenido dañino en los datos de entrenamiento debido a la reducción de la supervisión humana. Para minimizar estos problemas, el aprendizaje no supervisado se utiliza a menudo junto con el aprendizaje supervisado (por ejemplo, mediante la creación de herramientas de inteligencia artificial para detectar y eliminar contenido dañino de los resultados de un modelo) y el aprendizaje por refuerzo, mediante el cual los modelos básicos que se entrenaron por primera vez sin supervisión pueden ser afinado con retroalimentación humana.

Ver: Alineación

Ver: Red neuronal

El riesgo X, o riesgo existencial, en el contexto de la IA, es la idea de que es probable que la inteligencia artificial avanzada cause la extinción humana. Incluso los investigadores que trabajan en la construcción de sistemas de IA consideran que esto es una posibilidad real y, en promedio, creen que hay un 10% de posibilidades de que la incapacidad humana para controlar futuras IA avanzadas resulte en la extinción humana, según una encuesta de 2022 entre 738 investigadores de IA. (Ver también: Explosión de inteligencia, Clips, Alineación.)

Una de las grandes limitaciones de la IA es que si algo no está representado en los datos de entrenamiento de un sistema, ese sistema a menudo no podrá reconocerlo. Si una jirafa sale a la carretera, es posible que su automóvil autónomo no sepa desviarse para evitarla, porque nunca antes ha visto una. Y si un tiroteo en una escuela se transmite en vivo en las redes sociales, la plataforma podría tener dificultades para eliminarlo de inmediato porque las imágenes no coinciden con copias de tiroteos masivos que haya visto antes. El aprendizaje de disparo cero es un campo incipiente que intenta solucionar este problema trabajando en sistemas de inteligencia artificial que intentan extrapolar sus datos de entrenamiento para identificar algo que no han visto antes. (Ver también: Aprendizaje supervisado).

Escribir aBilly Perrigo en [email protected].

Estados Unidos ha alcanzado el pico de terapiaAyuda contra incendios forestales en HawáiFrances TiafoeEl Congreso no puede erosionar las normas de seguridad de los aviones¿A quién estoy perjudicando al comprar en Walmart?Libros, películas, televisión,MúsicaCómo los teléfonos inteligentes destruyeron a la Generación ZVale la pena su tiempoEscribir a