Máquinas de amorosa gracia

Cómo la IA podría transformar el mundo para bien

Título original: Machines of Loving Grace¹
Texto original: darioamodei.com

Dario Amodei — Octubre de 2024


Pienso y hablo mucho sobre los riesgos de una IA poderosa. La empresa de la que soy CEO, Anthropic, investiga extensamente cómo reducir estos riesgos. Por esto, a veces se concluye que soy pesimista o un “apocalíptico” que cree que la IA será mayormente mala o peligrosa. No pienso eso en absoluto. De hecho, una de mis principales razones para concentrarme en los riesgos es que son lo único que se interpone entre nosotros y lo que considero un futuro fundamentalmente positivo. Creo que la mayoría de las personas subestiman cuán radical podría ser el potencial positivo de la IA, así como creo que la mayoría subestima cuán graves podrían ser los riesgos.

En este ensayo intento esbozar cómo podría ser ese potencial positivo: cómo sería un mundo con IA poderosa si todo sale bien. Por supuesto, nadie puede conocer el futuro con certeza o precisión, y los efectos de una IA poderosa probablemente serán aún más impredecibles que los cambios tecnológicos anteriores, por lo que todo esto consistirá inevitablemente en conjeturas. Pero aspiro al menos a conjeturas informadas y útiles, que capturen el sabor de lo que ocurrirá aunque la mayoría de los detalles resulten erróneos. Incluyo muchos detalles principalmente porque creo que una visión concreta hace más por avanzar la discusión que una altamente cautelosa y abstracta.

Primero, sin embargo, quería explicar brevemente por qué yo y Anthropic no hemos hablado tanto sobre los aspectos positivos de la IA poderosa, y por qué probablemente continuaremos, en general, hablando mucho sobre los riesgos. En particular, he tomado esta decisión por el deseo de:

Sin embargo, a pesar de todas las preocupaciones anteriores, realmente creo que es importante discutir cómo podría ser un buen mundo con IA poderosa, mientras hacemos nuestro mejor esfuerzo por evitar los escollos mencionados. De hecho, creo que es crítico tener una visión genuinamente inspiradora del futuro, y no solo un plan para apagar incendios. Muchas de las implicaciones de la IA poderosa son adversariales o peligrosas, pero al final de todo, tiene que haber algo por lo que estemos luchando a favor, algún resultado de suma positiva donde todos estén mejor, algo para reunir a las personas a elevarse por encima de sus disputas y enfrentar los desafíos venideros. El miedo es un tipo de motivador, pero no es suficiente: también necesitamos esperanza.

La lista de aplicaciones positivas de la IA poderosa es extremadamente larga (e incluye robótica, manufactura, energía y mucho más), pero voy a concentrarme en un pequeño número de áreas que me parecen tener el mayor potencial para mejorar directamente la calidad de la vida humana. Las cinco categorías que más me entusiasman son:

  1. Biología y salud física
  2. Neurociencia y salud mental
  3. Desarrollo económico y pobreza
  4. Paz y gobernanza
  5. Trabajo y sentido

Mis predicciones van a ser radicales según la mayoría de los estándares (excepto las visiones de “singularidad” de ciencia ficción²), pero las formulo con seriedad y sinceridad. Todo lo que estoy diciendo podría fácilmente estar equivocado (para repetir mi punto de antes), pero al menos he intentado fundamentar mis opiniones en una evaluación semi-analítica de cuánto podría acelerarse el progreso en varios campos y qué podría significar eso en la práctica. Tengo la fortuna de tener experiencia profesional en biología y neurociencia, y soy un aficionado informado en el campo del desarrollo económico, pero seguramente me equivocaré en muchas cosas. Una cosa que escribir este ensayo me ha hecho notar es que sería valioso reunir a un grupo de expertos de dominio (en biología, economía, relaciones internacionales y otras áreas) para escribir una versión mucho mejor y más informada de lo que he producido aquí. Probablemente sea mejor ver mis esfuerzos aquí como un prompt inicial para ese grupo.

Supuestos básicos y marco conceptual

Para hacer todo este ensayo más preciso y fundamentado, es útil especificar claramente qué entendemos por IA poderosa (es decir, el umbral en el que comienza a contar el reloj de 5-10 años), así como establecer un marco para pensar sobre los efectos de tal IA una vez que esté presente.

Cómo será la IA poderosa (no me gusta el término AGI)³, y cuándo (o si) llegará, es un tema enorme en sí mismo. Es uno que he discutido públicamente y sobre el que podría escribir un ensayo completamente separado (probablemente lo haré en algún momento). Obviamente, muchas personas son escépticas de que la IA poderosa se construirá pronto y algunos son escépticos de que se construirá alguna vez. Creo que podría llegar tan pronto como 2026, aunque también hay maneras en que podría tomar mucho más tiempo. Pero para los propósitos de este ensayo, me gustaría dejar estos temas de lado, asumir que llegará razonablemente pronto, y concentrarme en lo que ocurre en los 5-10 años después de eso. También quiero asumir una definición de cómo se verá tal sistema, cuáles son sus capacidades y cómo interactúa, aunque hay espacio para desacuerdo sobre esto.

Por IA poderosa, tengo en mente un modelo de IA—probablemente similar en forma a los LLMs de hoy, aunque podría basarse en una arquitectura diferente, podría involucrar varios modelos interactuando, y podría entrenarse de manera diferente—con las siguientes propiedades:

Podríamos resumir esto como un “país de genios en un centro de datos”.

Claramente tal entidad sería capaz de resolver problemas muy difíciles, muy rápido, pero no es trivial determinar cuán rápido. Dos posiciones “extremas” me parecen ambas falsas. Primero, podrías pensar que el mundo se transformaría instantáneamente en la escala de segundos o días (“la Singularidad”), mientras la inteligencia superior se construye sobre sí misma y resuelve cada tarea posible científica, de ingeniería y operacional casi inmediatamente. El problema con esto es que hay límites físicos y prácticos reales, por ejemplo alrededor de construir hardware o conducir experimentos biológicos. Incluso un nuevo país de genios chocaría contra estos límites. La inteligencia puede ser muy poderosa, pero no es polvo mágico de hadas.

Segundo, y conversamente, podrías creer que el progreso tecnológico está saturado o limitado por datos del mundo real o por factores sociales, y que la inteligencia mejor que la humana añadirá muy poco⁶. Esto me parece igualmente implausible—puedo pensar en cientos de problemas científicos o incluso sociales donde un grupo grande de personas realmente inteligentes aceleraría drásticamente el progreso, especialmente si no están limitadas al análisis y pueden hacer que las cosas ocurran en el mundo real (lo cual nuestro postulado país de genios puede hacer, incluyendo dirigir o asistir equipos de humanos).

Creo que la verdad probablemente sea alguna mezcla desordenada de estas dos imágenes extremas, algo que varía por tarea y campo y es muy sutil en sus detalles. Creo que necesitamos nuevos marcos para pensar sobre estos detalles de manera productiva.

Los economistas a menudo hablan de “factores de producción”: cosas como trabajo, tierra y capital. La frase “rendimientos marginales del trabajo/tierra/capital” captura la idea de que en una situación dada, un factor dado puede o no ser el limitante—por ejemplo, una fuerza aérea necesita tanto aviones como pilotos, y contratar más pilotos no ayuda mucho si te quedaste sin aviones. Creo que en la era de la IA, deberíamos estar hablando de los rendimientos marginales de la inteligencia⁷, e intentando determinar cuáles son los otros factores que son complementarios a la inteligencia y que se convierten en factores limitantes cuando la inteligencia es muy alta. No estamos acostumbrados a pensar de esta manera—a preguntar “¿cuánto ayuda ser más inteligente con esta tarea, y en qué escala de tiempo?”—pero parece la manera correcta de conceptualizar un mundo con IA muy poderosa.

Mi conjetura de una lista de factores que limitan o son complementarios a la inteligencia incluye:

Hay una distinción adicional basada en escalas de tiempo. Cosas que son restricciones duras a corto plazo pueden volverse más maleables a la inteligencia a largo plazo. Por ejemplo, la inteligencia podría usarse para desarrollar un nuevo paradigma experimental que nos permita aprender in vitro lo que antes requería experimentos con animales vivos, o para construir las herramientas necesarias para recolectar nuevos datos (por ejemplo, el acelerador de partículas más grande), o para (dentro de límites éticos) encontrar maneras de sortear las restricciones basadas en humanos (por ejemplo, ayudando a mejorar el sistema de ensayos clínicos, ayudando a crear nuevas jurisdicciones donde los ensayos clínicos tengan menos burocracia, o mejorando la ciencia misma para hacer los ensayos clínicos humanos menos necesarios o más baratos).

Por lo tanto, deberíamos imaginar una imagen donde la inteligencia está inicialmente muy restringida por los otros factores de producción, pero con el tiempo la inteligencia misma sortea cada vez más los otros factores, incluso si nunca se disuelven completamente (y algunas cosas como las leyes físicas son absolutas)¹⁰. La pregunta clave es cuán rápido ocurre todo y en qué orden.

Con el marco anterior en mente, intentaré responder esa pregunta para las cinco áreas mencionadas en la introducción.

1. Biología y salud

La biología es probablemente el área donde el progreso científico tiene el mayor potencial para mejorar directa e inequívocamente la calidad de la vida humana. En el último siglo algunas de las aflicciones humanas más antiguas (como la viruela) han sido finalmente vencidas, pero muchas más aún permanecen, y derrotarlas sería un enorme logro humanitario. Más allá incluso de curar enfermedades, la ciencia biológica puede en principio mejorar la calidad base de la salud humana, extendiendo la esperanza de vida saludable humana, aumentando el control y la libertad sobre nuestros propios procesos biológicos, y abordando problemas cotidianos que actualmente consideramos partes inmutables de la condición humana.

En el lenguaje de “factores limitantes” de la sección anterior, los principales desafíos con aplicar directamente la inteligencia a la biología son los datos, la velocidad del mundo físico y la complejidad intrínseca (de hecho, los tres están relacionados entre sí). Las restricciones humanas también juegan un papel en una etapa posterior, cuando están involucrados los ensayos clínicos. Tomemos estos uno por uno.

Los experimentos en células, animales e incluso procesos químicos están limitados por la velocidad del mundo físico: muchos protocolos biológicos involucran cultivar bacterias u otras células, o simplemente esperar que ocurran reacciones químicas, y esto a veces puede tomar días o incluso semanas, sin manera obvia de acelerarlo. Los experimentos con animales pueden tomar meses (o más) y los experimentos humanos a menudo toman años (o incluso décadas para estudios de resultados a largo plazo). Algo relacionado con esto, a menudo faltan datos—no tanto en cantidad, sino en calidad: siempre hay una escasez de datos claros e inequívocos que aíslen un efecto biológico de interés de las otras 10,000 cosas confusoras que están ocurriendo, o que intervengan causalmente en un proceso dado, o que midan directamente algún efecto (en oposición a inferir sus consecuencias de alguna manera indirecta o ruidosa). Incluso datos moleculares masivos y cuantitativos, como los datos de proteómica que recolecté mientras trabajaba en técnicas de espectrometría de masas, son ruidosos e incompletos (¿en qué tipos de células estaban estas proteínas? ¿En qué parte de la célula? ¿En qué fase del ciclo celular?).

En parte responsable de estos problemas con los datos está la complejidad intrínseca: si alguna vez has visto un diagrama mostrando la bioquímica del metabolismo humano, sabrás que es muy difícil aislar el efecto de cualquier parte de este sistema complejo, y aún más difícil intervenir en el sistema de manera precisa o predecible. Y finalmente, más allá del tiempo intrínseco que toma ejecutar un experimento en humanos, los ensayos clínicos reales involucran mucha burocracia y requisitos regulatorios que (en la opinión de muchas personas, incluyéndome) añaden tiempo adicional innecesario y retrasan el progreso.

Dado todo esto, muchos biólogos han sido durante mucho tiempo escépticos del valor de la IA y los “big data” más generalmente en biología. Históricamente, matemáticos, científicos de la computación y físicos que han aplicado sus habilidades a la biología en los últimos 30 años han sido bastante exitosos, pero no han tenido el impacto verdaderamente transformador que inicialmente se esperaba. Algo del escepticismo se ha reducido por avances mayores y revolucionarios como AlphaFold (que acaba de merecer ganar para sus creadores el Premio Nobel de Química) y AlphaProteo¹¹, pero todavía hay una percepción de que la IA es (y continuará siendo) útil solo en un conjunto limitado de circunstancias. Una formulación común es “la IA puede hacer un mejor trabajo analizando tus datos, pero no puede producir más datos o mejorar la calidad de los datos. Basura entra, basura sale”.

Pero creo que esa perspectiva pesimista está pensando en la IA de manera equivocada. Si nuestra hipótesis central sobre el progreso de la IA es correcta, entonces la manera correcta de pensar en la IA no es como un método de análisis de datos, sino como un biólogo virtual que realiza todas las tareas que hacen los biólogos, incluyendo diseñar y ejecutar experimentos en el mundo real (controlando robots de laboratorio o simplemente diciéndole a los humanos qué experimentos ejecutar—como haría un Investigador Principal con sus estudiantes de posgrado), inventando nuevos métodos biológicos o técnicas de medición, y demás. Es acelerando todo el proceso de investigación que la IA puede verdaderamente acelerar la biología. Quiero repetir esto porque es la concepción errónea más común que surge cuando hablo sobre la capacidad de la IA para transformar la biología: no estoy hablando de la IA como meramente una herramienta para analizar datos. En línea con la definición de IA poderosa al comienzo de este ensayo, estoy hablando de usar IA para realizar, dirigir y mejorar casi todo lo que hacen los biólogos.

Para ser más específico sobre de dónde creo que es probable que venga la aceleración, una fracción sorprendentemente grande del progreso en biología ha venido de un número verdaderamente diminuto de descubrimientos, a menudo relacionados con herramientas o técnicas de medición amplias¹² que permiten una intervención precisa pero generalizada o programable en sistemas biológicos. Hay quizás ~1 de estos descubrimientos mayores por año y colectivamente impulsan probablemente >50% del progreso en biología. Estos descubrimientos son tan poderosos precisamente porque atraviesan la complejidad intrínseca y las limitaciones de datos, aumentando directamente nuestra comprensión y control sobre los procesos biológicos. Unos pocos descubrimientos por década han habilitado tanto el grueso de nuestra comprensión científica básica de la biología, como han impulsado muchos de los tratamientos médicos más poderosos.

Algunos ejemplos incluyen:

Me estoy tomando la molestia de listar todas estas tecnologías porque quiero hacer una afirmación crucial sobre ellas: Creo que su tasa de descubrimiento podría aumentarse 10x o más si hubiera muchos más investigadores talentosos y creativos. O, puesto de otra manera, creo que los rendimientos a la inteligencia son altos para estos descubrimientos, y que todo lo demás en biología y medicina mayormente se sigue de ellos.

¿Por qué creo esto? Por las respuestas a algunas preguntas que deberíamos acostumbrarnos a hacer cuando intentamos determinar “rendimientos a la inteligencia”. Primero, estos descubrimientos generalmente son hechos por un número diminuto de investigadores, a menudo las mismas personas repetidamente, sugiriendo habilidad y no búsqueda aleatoria (lo último podría sugerir que los experimentos largos son el factor limitante). Segundo, a menudo “podrían haberse hecho” años antes de que lo fueran: por ejemplo, CRISPR era un componente natural del sistema inmune en bacterias que se ha conocido desde los años 1980, pero tomó otros 25 años para que la gente se diera cuenta de que podía reutilizarse para edición genética general. También a menudo se retrasan muchos años por la falta de apoyo de la comunidad científica para direcciones prometedoras (ver este perfil sobre la inventora de las vacunas de ARNm; abundan historias similares). Tercero, los proyectos exitosos a menudo son frugales o fueron ideas secundarias que la gente no pensó inicialmente que eran prometedoras, en lugar de esfuerzos masivamente financiados. Esto sugiere que no es solo la concentración masiva de recursos lo que impulsa los descubrimientos, sino el ingenio.

Finalmente, aunque algunos de estos descubrimientos tienen “dependencia serial” (necesitas hacer el descubrimiento A primero para tener las herramientas o conocimiento para hacer el descubrimiento B)—lo cual de nuevo podría crear retrasos experimentales—muchos, quizás la mayoría, son independientes, lo que significa que se pueden trabajar muchos a la vez en paralelo. Tanto estos hechos, como mi experiencia general como biólogo, me sugieren fuertemente que hay cientos de estos descubrimientos esperando ser hechos si los científicos fueran más inteligentes y mejores en hacer conexiones entre la vasta cantidad de conocimiento biológico que la humanidad posee (de nuevo considera el ejemplo de CRISPR). El éxito de AlphaFold/AlphaProteo al resolver problemas importantes mucho más efectivamente que los humanos, a pesar de décadas de modelado de física cuidadosamente diseñado, provee una prueba de principio (aunque con una herramienta estrecha en un dominio estrecho) que debería señalar el camino hacia adelante.

Por lo tanto, mi conjetura es que la IA poderosa podría al menos multiplicar por 10 la tasa de estos descubrimientos, dándonos los próximos 50-100 años de progreso biológico en 5-10 años.¹⁴ ¿Por qué no 100x? Quizás sea posible, pero aquí tanto la dependencia serial como los tiempos de experimento se vuelven importantes: obtener 100 años de progreso en 1 año requiere que muchas cosas salgan bien la primera vez, incluyendo experimentos con animales y cosas como diseñar microscopios o instalaciones de laboratorio costosas. De hecho estoy abierto a la idea (quizás absurda) de que podríamos obtener 1000 años de progreso en 5-10 años, pero muy escéptico de que podamos obtener 100 años en 1 año. Otra manera de decirlo es que creo que hay un retraso constante inevitable: los experimentos y el diseño de hardware tienen cierta “latencia” y necesitan ser iterados cierto número “irreducible” de veces para aprender cosas que no pueden deducirse lógicamente. Pero el paralelismo masivo puede ser posible sobre eso¹⁵.

¿Qué hay de los ensayos clínicos? Aunque hay mucha burocracia y desaceleración asociada con ellos, la verdad es que mucha (aunque de ninguna manera toda) de su lentitud deriva en última instancia de la necesidad de evaluar rigurosamente medicamentos que apenas funcionan o funcionan ambiguamente. Esto es tristemente cierto de la mayoría de las terapias hoy: el medicamento promedio contra el cáncer aumenta la supervivencia por unos pocos meses mientras tiene efectos secundarios significativos que necesitan medirse cuidadosamente (hay una historia similar para los medicamentos de Alzheimer). Esto lleva a estudios enormes (para lograr poder estadístico) y compensaciones difíciles que las agencias reguladoras generalmente no son buenas haciendo, de nuevo debido a la burocracia y la complejidad de intereses competidores.

Cuando algo funciona realmente bien, va mucho más rápido: hay una vía de aprobación acelerada y la facilidad de aprobación es mucho mayor cuando los tamaños de efecto son mayores. Las vacunas de ARNm para COVID fueron aprobadas en 9 meses—mucho más rápido que el ritmo usual. Dicho esto, incluso bajo estas condiciones los ensayos clínicos aún son demasiado lentos—las vacunas de ARNm deberían haber sido aprobadas en ~2 meses, posiblemente. Pero este tipo de retrasos (~1 año de extremo a extremo para un medicamento) combinado con paralelización masiva y la necesidad de alguna pero no demasiada iteración (“unos pocos intentos”) son muy compatibles con una transformación radical en 5-10 años. Aún más optimistamente, es posible que la ciencia biológica habilitada por IA reducirá la necesidad de iteración en ensayos clínicos desarrollando mejores modelos experimentales animales y celulares (o incluso simulaciones) que son más precisos en predecir lo que ocurrirá en humanos. Esto será particularmente importante en desarrollar medicamentos contra el proceso de envejecimiento, que se desarrolla durante décadas y donde necesitamos un ciclo de iteración más rápido.

Finalmente, sobre el tema de los ensayos clínicos y las barreras sociales, vale la pena señalar explícitamente que de alguna manera las innovaciones biomédicas tienen un historial inusualmente fuerte de ser desplegadas exitosamente, en contraste con algunas otras tecnologías¹⁶. Como se mencionó en la introducción, muchas tecnologías son obstaculizadas por factores sociales a pesar de funcionar bien técnicamente. Esto podría sugerir una perspectiva pesimista sobre lo que la IA puede lograr. Pero la biomedicina es única en que aunque el proceso de desarrollar medicamentos es excesivamente engorroso, una vez desarrollados generalmente son exitosamente desplegados y usados.

Para resumir lo anterior, mi predicción básica es que la biología y medicina habilitadas por IA nos permitirán comprimir el progreso que los biólogos humanos habrían logrado en los próximos 50-100 años en 5-10 años. Me referiré a esto como el “siglo XXI comprimido”: la idea de que después de que se desarrolle la IA poderosa, en unos pocos años haremos todo el progreso en biología y medicina que habríamos hecho en todo el siglo XXI.

Aunque predecir lo que la IA poderosa puede hacer en unos pocos años permanece inherentemente difícil y especulativo, hay cierta concreción en preguntar “¿qué podrían hacer los humanos sin ayuda en los próximos 100 años?”. Simplemente mirar lo que hemos logrado en el siglo XX, o extrapolar de las primeras 2 décadas del XXI, o preguntar qué nos darían “10 CRISPRs y 50 CAR-Ts”, todo ofrece maneras prácticas y fundamentadas de estimar el nivel general de progreso que podríamos esperar de la IA poderosa.

Abajo intento hacer una lista de lo que podríamos esperar. Esto no está basado en ninguna metodología rigurosa, y casi con certeza resultará erróneo en los detalles, pero está tratando de transmitir el nivel general de radicalismo que deberíamos esperar:

Vale la pena mirar esta lista y reflexionar sobre cuán diferente será el mundo si todo esto se logra 7-12 años a partir de ahora (lo cual estaría en línea con una línea de tiempo agresiva de IA). Hace falta decir que sería un triunfo humanitario inimaginable, la eliminación de una vez de la mayoría de los azotes que han perseguido a la humanidad por milenios. Muchos de mis amigos y colegas están criando hijos, y cuando esos hijos crezcan, espero que cualquier mención de enfermedad les suene de la manera en que el escorbuto, la viruela, o la peste bubónica nos suenan a nosotros. Esa generación también se beneficiará de una mayor libertad y autoexpresión biológica, y con suerte también podrá vivir tanto como quiera.

Es difícil sobreestimar cuán sorprendentes serán estos cambios para todos excepto la pequeña comunidad de personas que esperaban IA poderosa. Por ejemplo, miles de economistas y expertos en políticas en EE.UU. actualmente debaten cómo mantener solventes al Seguro Social y Medicare, y más ampliamente cómo mantener bajo el costo de la atención médica (que es mayormente consumida por los mayores de 70 años y especialmente aquellos con enfermedades terminales como el cáncer). La situación para estos programas probablemente mejorará radicalmente si todo esto se materializa²⁰, ya que la proporción de población en edad de trabajar a jubilada cambiará drásticamente. Sin duda estos desafíos serán reemplazados por otros, como cómo asegurar acceso amplio a las nuevas tecnologías, pero vale la pena reflexionar sobre cuánto cambiará el mundo incluso si la biología es la única área que es exitosamente acelerada por la IA.

2. Neurociencia y mente

En la sección anterior me concentré en enfermedades físicas y biología en general, y no cubrí la neurociencia o la salud mental. Pero la neurociencia es una subdisciplina de la biología y la salud mental es tan importante como la salud física. De hecho, si acaso, la salud mental afecta el bienestar humano aún más directamente que la salud física. Cientos de millones de personas tienen muy baja calidad de vida debido a problemas como adicción, depresión, esquizofrenia, autismo de bajo funcionamiento, TEPT, psicopatía²¹, o discapacidades intelectuales. Miles de millones más luchan con problemas cotidianos que a menudo pueden interpretarse como versiones mucho más leves de uno de estos trastornos clínicos severos. Y como con la biología general, puede ser posible ir más allá de abordar problemas para mejorar la calidad base de la experiencia humana.

El marco básico que establecí para la biología aplica igualmente a la neurociencia. El campo es propulsado hacia adelante por un pequeño número de descubrimientos a menudo relacionados con herramientas para medición o intervención precisa—en la lista de arriba, la optogenética fue un descubrimiento de neurociencia, y más recientemente CLARITY y microscopía de expansión son avances en la misma línea, además de muchos de los métodos generales de biología celular que se trasladan directamente a la neurociencia. Creo que la tasa de estos avances será similarmente acelerada por la IA y por lo tanto que el marco de “100 años de progreso en 5-10 años” aplica a la neurociencia de la misma manera que aplica a la biología y por las mismas razones. Como en biología, el progreso en la neurociencia del siglo XX fue enorme—por ejemplo ni siquiera entendíamos cómo o por qué las neuronas disparaban hasta los años 1950. Por lo tanto, parece razonable esperar que la neurociencia acelerada por IA produzca progreso rápido durante unos pocos años.

Hay una cosa que deberíamos añadir a esta imagen básica, que es que algunas de las cosas que hemos aprendido (o estamos aprendiendo) sobre la IA misma en los últimos años probablemente ayudarán a avanzar la neurociencia, incluso si continúa siendo hecha solo por humanos. La interpretabilidad es un ejemplo obvio: aunque las neuronas biológicas superficialmente operan de manera completamente diferente de las neuronas artificiales (se comunican mediante impulsos y a menudo tasas de impulsos, así que hay un elemento temporal no presente en las neuronas artificiales, y un montón de detalles relacionados con la fisiología celular y los neurotransmisores modifica su operación sustancialmente), la pregunta básica de “¿cómo funcionan juntas redes distribuidas y entrenadas de unidades simples que realizan operaciones combinadas lineales/no lineales para realizar computaciones importantes?” es la misma, y sospecho fuertemente que los detalles de la comunicación neuronal individual serán abstraídos en la mayoría de las preguntas interesantes sobre computación y circuitos²². Como solo un ejemplo de esto, un mecanismo computacional descubierto por investigadores de interpretabilidad en sistemas de IA fue recientemente redescubierto en los cerebros de ratones.

Es mucho más fácil hacer experimentos en redes neuronales artificiales que en reales (lo último a menudo requiere cortar cerebros de animales), así que la interpretabilidad bien podría convertirse en una herramienta para mejorar nuestra comprensión de la neurociencia. Además, las IAs poderosas mismas probablemente serán capaces de desarrollar y aplicar esta herramienta mejor de lo que los humanos pueden.

Más allá de solo la interpretabilidad, sin embargo, lo que hemos aprendido de la IA sobre cómo los sistemas inteligentes son entrenados debería (aunque no estoy seguro de que lo haya hecho aún) causar una revolución en la neurociencia. Cuando estaba trabajando en neurociencia, mucha gente se concentraba en lo que ahora consideraría las preguntas equivocadas sobre el aprendizaje, porque el concepto de la hipótesis de escalamiento / lección amarga aún no existía. La idea de que una función objetivo simple más muchos datos puede impulsar comportamientos increíblemente complejos hace más interesante entender las funciones objetivo y los sesgos arquitectónicos y menos interesante entender los detalles de las computaciones emergentes. No he seguido el campo de cerca en años recientes, pero tengo una vaga sensación de que los neurocientíficos computacionales aún no han absorbido completamente la lección. Mi actitud hacia la hipótesis de escalamiento siempre ha sido “ajá—esta es una explicación, a alto nivel, de cómo funciona la inteligencia y cómo evolucionó tan fácilmente”, pero no creo que esa sea la vista del neurocientífico promedio, en parte porque la hipótesis de escalamiento como “el secreto de la inteligencia” no está completamente aceptada incluso dentro de la IA.

Creo que los neurocientíficos deberían estar tratando de combinar este conocimiento básico con las particularidades del cerebro humano (limitaciones biofísicas, historia evolutiva, topología, detalles de entradas/salidas motoras y sensoriales) para tratar de resolver algunos de los acertijos clave de la neurociencia. Algunos probablemente lo están haciendo, pero sospecho que aún no es suficiente, y que los neurocientíficos de IA serán capaces de aprovechar más efectivamente este ángulo para acelerar el progreso.

Espero que la IA acelere el progreso neurocientífico a través de cuatro rutas distintas, todas las cuales con suerte pueden trabajar juntas para curar enfermedades mentales y mejorar el funcionamiento:

Mi conjetura es que estas cuatro rutas de progreso trabajando juntas, como con la enfermedad física, estarían en camino de llevar a la cura o prevención de la mayoría de las enfermedades mentales en los próximos 100 años incluso si la IA no estuviera involucrada—y por lo tanto podrían razonablemente completarse en 5-10 años acelerados por IA. Concretamente mi conjetura de lo que ocurrirá es algo como:

Un tema que a menudo surge en las representaciones de ciencia ficción de la IA, pero que intencionalmente no he discutido aquí, es la “carga de mentes”, la idea de capturar el patrón y dinámicas de un cerebro humano e instanciarlos en software. Este tema podría ser el sujeto de un ensayo por sí mismo, pero basta decir que mientras creo que la carga es casi con certeza posible en principio, en la práctica enfrenta desafíos tecnológicos y sociales significativos, incluso con IA poderosa, que probablemente la ponen fuera de la ventana de 5-10 años que estamos discutiendo.

En resumen, la neurociencia acelerada por IA probablemente mejorará vastamente los tratamientos para, o incluso curará, la mayoría de las enfermedades mentales así como expandirá grandemente la “libertad cognitiva y mental” y las habilidades cognitivas y emocionales humanas. Será tan radical como las mejoras en salud física descritas en la sección anterior. Quizás el mundo no será visiblemente diferente por fuera, pero el mundo como es experimentado por los humanos será un lugar mucho mejor y más humano, así como un lugar que ofrece mayores oportunidades para la autorrealización. También sospecho que la salud mental mejorada aliviará muchos otros problemas sociales, incluyendo los que parecen políticos o económicos.

3. Desarrollo económico y pobreza

Las dos secciones anteriores son sobre desarrollar nuevas tecnologías que curan enfermedades y mejoran la calidad de la vida humana. Sin embargo, una pregunta obvia, desde una perspectiva humanitaria, es: “¿todos tendrán acceso a estas tecnologías?”

Una cosa es desarrollar una cura para una enfermedad, otra cosa es erradicar la enfermedad del mundo. Más ampliamente, muchas intervenciones de salud existentes aún no se han aplicado en todas partes del mundo, y de hecho lo mismo es cierto de las mejoras tecnológicas (no relacionadas con salud) en general. Otra manera de decir esto es que los estándares de vida en muchas partes del mundo son todavía desesperadamente pobres: el PIB per cápita es ~$2,000 en África Subsahariana comparado con ~$75,000 en Estados Unidos. Si la IA aumenta aún más el crecimiento económico y la calidad de vida en el mundo desarrollado, mientras hace poco por ayudar al mundo en desarrollo, deberíamos ver eso como un terrible fracaso moral y una mancha en las genuinas victorias humanitarias de las dos secciones anteriores. Idealmente, la IA poderosa debería ayudar al mundo en desarrollo a alcanzar al mundo desarrollado, incluso mientras revoluciona a este último.

No estoy tan confiado en que la IA pueda abordar la desigualdad y el crecimiento económico como lo estoy en que puede inventar tecnologías fundamentales, porque la tecnología tiene rendimientos tan obviamente altos a la inteligencia (incluyendo la capacidad de sortear complejidades y falta de datos) mientras que la economía involucra muchas restricciones de los humanos, así como una gran dosis de complejidad intrínseca. Soy algo escéptico de que una IA pueda resolver el famoso “problema del cálculo socialista”²³ y no creo que los gobiernos vayan a (ni deban) entregar su política económica a tal entidad, incluso si pudiera hacerlo. También hay problemas como cómo convencer a las personas de tomar tratamientos que son efectivos pero de los cuales pueden ser desconfiados.

Los desafíos que enfrenta el mundo en desarrollo se complican aún más por la corrupción generalizada tanto en sectores privados como públicos. La corrupción crea un ciclo vicioso: exacerba la pobreza, y la pobreza a su vez genera más corrupción. Los planes impulsados por IA para el desarrollo económico necesitan lidiar con la corrupción, las instituciones débiles y otros desafíos muy humanos.

Sin embargo, sí veo razones significativas para el optimismo. Las enfermedades han sido erradicadas y muchos países han pasado de pobres a ricos, y es claro que las decisiones involucradas en estas tareas exhiben altos rendimientos a la inteligencia (a pesar de las restricciones humanas y la complejidad). Por lo tanto, la IA probablemente puede hacerlas mejor de lo que se están haciendo actualmente. También puede haber intervenciones dirigidas que sortean las restricciones humanas y en las que la IA podría concentrarse. Más importantemente sin embargo, tenemos que intentar. Tanto las empresas de IA como los formuladores de políticas del mundo desarrollado necesitarán hacer su parte para asegurar que el mundo en desarrollo no quede fuera; el imperativo moral es demasiado grande. Así que en esta sección, continuaré argumentando el caso optimista, pero tengan en mente en todo momento que el éxito no está garantizado y depende de nuestros esfuerzos colectivos.

Abajo hago algunas conjeturas sobre cómo creo que pueden ir las cosas en el mundo en desarrollo durante los 5-10 años después de que se desarrolle la IA poderosa:

En general, soy optimista sobre traer rápidamente los avances biológicos de la IA a las personas en el mundo en desarrollo. Soy esperanzado, aunque no confiado, de que la IA también puede habilitar tasas de crecimiento económico sin precedentes y permitir que el mundo en desarrollo al menos supere donde está el mundo desarrollado ahora. Me preocupa el problema del “opt-out” tanto en el mundo desarrollado como en desarrollo, pero sospecho que se extinguirá con el tiempo y que la IA puede ayudar a acelerar este proceso. No será un mundo perfecto, y aquellos que están atrás no se pondrán completamente al día, al menos no en los primeros años. Pero con fuertes esfuerzos de nuestra parte, podríamos ser capaces de poner las cosas moviéndose en la dirección correcta—y rápido. Si lo hacemos, podemos al menos hacer un pago inicial de las promesas de dignidad e igualdad que le debemos a cada ser humano en la tierra.

4. Paz y gobernanza

Supongamos que todo en las primeras tres secciones va bien: la enfermedad, la pobreza y la desigualdad se reducen significativamente y la línea base de la experiencia humana se eleva sustancialmente. No se sigue que todas las principales causas de sufrimiento humano estén resueltas. Los humanos todavía son una amenaza para sí mismos. Aunque hay una tendencia de la mejora tecnológica y el desarrollo económico llevando a la democracia y la paz, es una tendencia muy suelta, con retrocesos frecuentes (y recientes). En los albores del siglo XX, la gente pensaba que habían dejado la guerra atrás; luego vinieron las dos guerras mundiales. Hace treinta años Francis Fukuyama escribió sobre “el Fin de la Historia” y un triunfo final de la democracia liberal; eso no ha ocurrido aún. Hace veinte años los formuladores de políticas de EE.UU. creían que el libre comercio con China la haría liberalizarse a medida que se volviera más rica; eso muy decididamente no ocurrió, y ahora parecemos dirigirnos hacia una segunda Guerra Fría con un bloque autoritario resurgente. Y teorías plausibles sugieren que la tecnología de internet puede realmente favorecer al autoritarismo, no a la democracia como se creyó inicialmente (por ejemplo en el período de la “Primavera Árabe”). Parece importante intentar entender cómo la IA poderosa intersectará con estos problemas de paz, democracia y libertad.

Desafortunadamente, no veo una razón fuerte para creer que la IA favorecerá preferencial o estructuralmente a la democracia y la paz, de la misma manera que creo que estructuralmente avanzará la salud humana y aliviará la pobreza. El conflicto humano es adversarial y la IA puede en principio ayudar tanto a los “buenos” como a los “malos”. Si acaso, algunos factores estructurales parecen preocupantes: la IA parece propensa a habilitar propaganda y vigilancia mucho mejores, ambas herramientas principales en el kit del autócrata. Por lo tanto, depende de nosotros como actores individuales inclinar las cosas en la dirección correcta: si queremos que la IA favorezca la democracia y los derechos individuales, vamos a tener que luchar por ese resultado. Siento esto aún más fuertemente que sobre la desigualdad internacional: el triunfo de la democracia liberal y la estabilidad política no está garantizado, quizás ni siquiera es probable, y requerirá gran sacrificio y compromiso de parte de todos nosotros, como a menudo lo ha hecho en el pasado.

Pienso en el problema como teniendo dos partes: el conflicto internacional, y la estructura interna de las naciones. En el lado internacional, parece muy importante que las democracias tengan la ventaja en el escenario mundial cuando se cree la IA poderosa. El autoritarismo potenciado por IA parece demasiado terrible para contemplar, así que las democracias necesitan poder establecer los términos por los cuales la IA poderosa se trae al mundo, tanto para evitar ser superadas por autoritarios como para prevenir abusos de derechos humanos dentro de países autoritarios.

Mi conjetura actual de la mejor manera de hacer esto es mediante una “estrategia de entente”²⁶, en la cual una coalición de democracias busca obtener una ventaja clara (aunque sea solo temporal) en IA poderosa asegurando su cadena de suministro, escalando rápidamente, y bloqueando o retrasando el acceso de adversarios a recursos clave como chips y equipos de semiconductores. Esta coalición por un lado usaría IA para lograr superioridad militar robusta (el palo) mientras al mismo tiempo ofrece distribuir los beneficios de la IA poderosa (la zanahoria) a un grupo cada vez más amplio de países a cambio de apoyar la estrategia de la coalición para promover la democracia (esto sería algo análogo a “Átomos para la Paz”). La coalición apuntaría a ganar el apoyo de más y más del mundo, aislando a nuestros peores adversarios y eventualmente poniéndolos en una posición donde están mejor tomando el mismo trato que el resto del mundo: dejar de competir con las democracias para recibir todos los beneficios y no pelear contra un enemigo superior.

Si podemos hacer todo esto, tendremos un mundo en el que las democracias lideran en el escenario mundial y tienen la fuerza económica y militar para evitar ser socavadas, conquistadas o saboteadas por autocracias, y pueden ser capaces de convertir su superioridad en IA en una ventaja durable. Esto podría optimistamente llevar a un “1991 eterno”—un mundo donde las democracias tienen la ventaja y los sueños de Fukuyama se realizan. De nuevo, esto será muy difícil de lograr, y en particular requerirá cooperación cercana entre empresas de IA privadas y gobiernos democráticos, así como decisiones extraordinariamente sabias sobre el balance entre la zanahoria y el palo.

Incluso si todo eso va bien, queda la pregunta de la lucha entre democracia y autocracia dentro de cada país. Es obviamente difícil predecir qué pasará aquí, pero sí tengo algo de optimismo de que dado un ambiente global en el que las democracias controlan la IA más poderosa, entonces la IA puede realmente favorecer estructuralmente a la democracia en todas partes. En particular, en este ambiente los gobiernos democráticos pueden usar su IA superior para ganar la guerra de información: pueden contrarrestar las operaciones de influencia y propaganda de las autocracias e incluso pueden ser capaces de crear un ambiente de información globalmente libre proporcionando canales de información y servicios de IA de una manera que las autocracias carecen de la habilidad técnica para bloquear o monitorear. Probablemente no es necesario entregar propaganda, solo contrarrestar ataques maliciosos y desbloquear el libre flujo de información. Aunque no inmediato, un campo de juego nivelado como este tiene una buena probabilidad de inclinar gradualmente la gobernanza global hacia la democracia, por varias razones.

Primero, los aumentos en calidad de vida en las Secciones 1-3 deberían, con todo lo demás igual, promover la democracia: históricamente lo han hecho, al menos hasta cierto punto. En particular espero que las mejoras en salud mental, bienestar y educación aumenten la democracia, ya que las tres están negativamente correlacionadas con el apoyo a líderes autoritarios. En general las personas quieren más autoexpresión cuando sus otras necesidades están satisfechas, y la democracia es entre otras cosas una forma de autoexpresión. Conversamente, el autoritarismo prospera en el miedo y el resentimiento.

Segundo, hay una buena probabilidad de que la información libre realmente socave el autoritarismo, siempre y cuando los autoritarios no puedan censurarla. Y la IA sin censurar también puede traer a los individuos herramientas poderosas para socavar gobiernos represivos. Los gobiernos represivos sobreviven negando a las personas cierto tipo de conocimiento común, evitando que se den cuenta de que “el emperador no tiene ropa”. Por ejemplo Srđa Popović, quien ayudó a derrocar al gobierno de Milošević en Serbia, ha escrito extensamente sobre técnicas para robar psicológicamente a los autoritarios de su poder, para romper el hechizo y reunir apoyo contra un dictador. Una versión de IA sobrehumanamente efectiva de Popović (cuyas habilidades parecen tener altos rendimientos a la inteligencia) en el bolsillo de todos, una que los dictadores no tienen poder de bloquear o censurar, podría crear un viento a favor de los disidentes y reformadores en todo el mundo. Para decirlo de nuevo, esta será una lucha larga y prolongada, una donde la victoria no está asegurada, pero si diseñamos y construimos IA de la manera correcta, al menos puede ser una lucha donde los defensores de la libertad en todas partes tienen una ventaja.

Como con la neurociencia y la biología, también podemos preguntar cómo las cosas podrían ser “mejores que lo normal”—no solo cómo evitar la autocracia, sino cómo hacer que las democracias sean mejores de lo que son hoy. Incluso dentro de las democracias, las injusticias ocurren todo el tiempo. Las sociedades de estado de derecho hacen una promesa a sus ciudadanos de que todos serán iguales ante la ley y todos tienen derecho a derechos humanos básicos, pero obviamente las personas no siempre reciben esos derechos en la práctica. Que esta promesa se cumpla siquiera parcialmente la hace algo de lo cual estar orgulloso, pero ¿puede la IA ayudarnos a hacerlo mejor?

Por ejemplo, ¿podría la IA mejorar nuestro sistema legal y judicial haciendo las decisiones y procesos más imparciales? Hoy la gente mayormente se preocupa en contextos legales o judiciales de que los sistemas de IA serán una causa de discriminación, y estas preocupaciones son importantes y necesitan ser defendidas en contra. Al mismo tiempo, la vitalidad de la democracia depende de aprovechar nuevas tecnologías para mejorar las instituciones democráticas, no solo de responder a los riesgos. Una implementación verdaderamente madura y exitosa de IA tiene el potencial de reducir el sesgo y ser más justa para todos.

Durante siglos, los sistemas legales han enfrentado el dilema de que la ley apunta a ser imparcial, pero es inherentemente subjetiva y por lo tanto debe ser interpretada por humanos sesgados. Intentar hacer la ley completamente mecánica no ha funcionado porque el mundo real es desordenado y no siempre puede capturarse en fórmulas matemáticas. En cambio los sistemas legales dependen de criterios notoriamente imprecisos como “castigo cruel e inusual” o “completamente sin importancia social redentora”, que los humanos luego interpretan—y a menudo lo hacen de una manera que muestra sesgo, favoritismo o arbitrariedad. Los “contratos inteligentes” en criptomonedas no han revolucionado la ley porque el código ordinario no es lo suficientemente inteligente para adjudicar todo lo que tiene interés. Pero la IA podría ser lo suficientemente inteligente para esto: es la primera tecnología capaz de hacer juicios amplios y difusos de manera repetible y mecánica.

No estoy sugiriendo que literalmente reemplacemos a los jueces con sistemas de IA, pero la combinación de imparcialidad con la capacidad de entender y procesar situaciones del mundo real desordenadas se siente como que debería tener algunas aplicaciones positivas serias a la ley y la justicia. Como mínimo, tales sistemas podrían trabajar junto a los humanos como ayuda para la toma de decisiones. La transparencia sería importante en cualquier sistema de este tipo, y una ciencia madura de la IA podría concebiblmente proporcionarla: el proceso de entrenamiento para tales sistemas podría estudiarse extensivamente, y técnicas avanzadas de interpretabilidad podrían usarse para ver dentro del modelo final y evaluarlo por sesgos ocultos, de una manera que simplemente no es posible con humanos. Tales herramientas de IA también podrían usarse para monitorear violaciones de derechos fundamentales en un contexto judicial o policial, haciendo las constituciones más autoaplicables.

En un sentido similar, la IA podría usarse para agregar opiniones e impulsar el consenso entre ciudadanos, resolviendo conflictos, encontrando terreno común y buscando compromisos. Algunas ideas tempranas en esta dirección han sido emprendidas por el proyecto de democracia computacional, incluyendo colaboraciones con Anthropic. Una ciudadanía más informada y reflexiva obviamente fortalecería las instituciones democráticas.

También hay una oportunidad clara para que la IA se use para ayudar a proveer servicios gubernamentales—como beneficios de salud o servicios sociales—que en principio están disponibles para todos pero en la práctica a menudo están severamente carentes, y peores en algunos lugares que en otros. Esto incluye servicios de salud, el registro de vehículos, impuestos, seguridad social, aplicación de códigos de construcción, y demás. Tener una IA muy reflexiva e informada cuyo trabajo es darte todo a lo que tienes legalmente derecho por parte del gobierno de una manera que puedas entender—y que también te ayuda a cumplir con las reglas gubernamentales a menudo confusas—sería algo importante. Aumentar la capacidad del estado ayuda tanto a cumplir la promesa de igualdad ante la ley, como a fortalecer el respeto por la gobernanza democrática. Los servicios mal implementados son actualmente un importante impulsor del cinismo sobre el gobierno²⁷.

Todas estas son ideas algo vagas, y como dije al principio de esta sección, no estoy ni de cerca tan confiado en su viabilidad como lo estoy en los avances en biología, neurociencia y alivio de la pobreza. Pueden ser irrealistamente utópicas. Pero lo importante es tener una visión ambiciosa, estar dispuesto a soñar en grande y probar cosas. La visión de la IA como garante de la libertad, los derechos individuales y la igualdad ante la ley es una visión demasiado poderosa para no luchar por ella. Un sistema político del siglo XXI, habilitado por IA, podría ser tanto un protector más fuerte de la libertad individual, como un faro de esperanza que ayude a hacer de la democracia liberal la forma de gobierno que todo el mundo quiere adoptar.

5. Trabajo y sentido

Incluso si todo en las cuatro secciones precedentes va bien—no solo aliviamos la enfermedad, la pobreza y la desigualdad, sino que la democracia liberal se convierte en la forma dominante de gobierno, y las democracias liberales existentes se convierten en mejores versiones de sí mismas—al menos una pregunta importante aún permanece. “Es genial que vivamos en un mundo tan tecnológicamente avanzado así como uno justo y decente”, alguien podría objetar, “pero con las IAs haciendo todo, ¿cómo tendrán sentido los humanos? Y en primer lugar, ¿cómo sobrevivirán económicamente?”.

Creo que esta pregunta es más difícil que las otras. No quiero decir que soy necesariamente más pesimista sobre ella de lo que soy sobre las otras preguntas (aunque sí veo desafíos). Quiero decir que es más difusa y más difícil de predecir por adelantado, porque se relaciona con preguntas macroscópicas sobre cómo se organiza la sociedad que tienden a resolverse solo con el tiempo y de manera descentralizada. Por ejemplo, las sociedades históricas de cazadores-recolectores podrían haber imaginado que la vida no tiene sentido sin cazar y varios tipos de rituales religiosos relacionados con la caza, y habrían imaginado que nuestra sociedad tecnológica bien alimentada carece de propósito. También podrían no haber entendido cómo nuestra economía puede proveer para todos, o qué función pueden servir útilmente las personas en una sociedad mecanizada.

Sin embargo, vale la pena decir al menos unas pocas palabras, teniendo en cuenta que la brevedad de esta sección no debe tomarse de ninguna manera como señal de que no tomo estos problemas en serio—al contrario, es señal de falta de respuestas claras.

Sobre la cuestión del sentido, creo que es muy probablemente un error creer que las tareas que emprendes no tienen sentido simplemente porque una IA podría hacerlas mejor. La mayoría de las personas no son las mejores del mundo en nada, y no parece molestarles particularmente. Por supuesto hoy todavía pueden contribuir a través de la ventaja comparativa, y pueden derivar sentido del valor económico que producen, pero las personas también disfrutan grandemente de actividades que no producen valor económico. Paso mucho tiempo jugando videojuegos, nadando, caminando afuera, y hablando con amigos, todo lo cual genera cero valor económico. Podría pasar un día tratando de mejorar en un videojuego, o ser más rápido subiendo una montaña en bicicleta, y realmente no me importa que alguien en algún lugar sea mucho mejor en esas cosas. En cualquier caso creo que el sentido viene mayormente de las relaciones humanas y la conexión, no del trabajo económico. Las personas sí quieren un sentido de logro, incluso un sentido de competencia, y en un mundo post-IA será perfectamente posible pasar años intentando alguna tarea muy difícil con una estrategia compleja, similar a lo que las personas hacen hoy cuando se embarcan en proyectos de investigación, intentan convertirse en actores de Hollywood, o fundan empresas²⁸. Los hechos de que (a) una IA en algún lugar podría en principio hacer esta tarea mejor, y (b) esta tarea ya no es un elemento económicamente recompensado de una economía global, no me parecen importar mucho.

La pieza económica realmente me parece más difícil que la pieza del sentido. Por “económico” en esta sección me refiero al posible problema de que la mayoría o todos los humanos pueden no ser capaces de contribuir significativamente a una economía impulsada por IA suficientemente avanzada. Este es un problema más macro que el problema separado de la desigualdad, especialmente la desigualdad en el acceso a las nuevas tecnologías, que discutí en la Sección 3.

Primero que todo, a corto plazo estoy de acuerdo con los argumentos de que la ventaja comparativa continuará manteniendo a los humanos relevantes y de hecho aumentará su productividad, y puede incluso de algunas maneras nivelar el campo de juego entre humanos. Mientras la IA solo sea mejor en el 90% de un trabajo dado, el otro 10% causará que los humanos se vuelvan altamente apalancados, aumentando la compensación y de hecho creando un montón de nuevos trabajos humanos complementando y amplificando en lo que la IA es buena, de tal manera que el “10%” se expande para continuar empleando a casi todos. De hecho, incluso si la IA puede hacer el 100% de las cosas mejor que los humanos, pero permanece ineficiente o cara en algunas tareas, o si los insumos de recursos para humanos e IAs son significativamente diferentes, entonces la lógica de la ventaja comparativa continúa aplicándose. Un área donde los humanos probablemente mantengan una ventaja relativa (o incluso absoluta) por un tiempo significativo es el mundo físico. Por lo tanto, creo que la economía humana puede continuar teniendo sentido incluso un poco más allá del punto donde alcancemos “un país de genios en un centro de datos”.

Sin embargo, sí creo que a largo plazo la IA se volverá tan ampliamente efectiva y tan barata que esto ya no aplicará. En ese punto nuestra configuración económica actual ya no tendrá sentido, y habrá necesidad de una conversación social más amplia sobre cómo debería organizarse la economía.

Aunque eso pueda sonar loco, el hecho es que la civilización ha navegado exitosamente cambios económicos mayores en el pasado: de la caza y recolección a la agricultura, de la agricultura al feudalismo, y del feudalismo al industrialismo. Sospecho que se necesitará algo nuevo y más extraño, y que es algo que nadie hoy ha hecho un buen trabajo de imaginar. Podría ser tan simple como un gran ingreso básico universal para todos, aunque sospecho que eso será solo una pequeña parte de una solución. Podría ser una economía capitalista de sistemas de IA, que luego distribuyen recursos (cantidades enormes de ellos, ya que el pastel económico general será gigantesco) a los humanos basados en alguna economía secundaria de lo que los sistemas de IA piensan que tiene sentido recompensar en humanos (basado en algún juicio derivado en última instancia de valores humanos). Quizás la economía funciona con puntos Whuffie. O quizás los humanos continuarán siendo económicamente valiosos después de todo, de alguna manera no anticipada por los modelos económicos usuales. Todas estas soluciones tienen toneladas de posibles problemas, y no es posible saber si tendrán sentido sin mucha iteración y experimentación. Y como con algunos de los otros desafíos, probablemente tendremos que luchar para obtener un buen resultado aquí: las direcciones explotadoras o distópicas son claramente también posibles y tienen que ser prevenidas. Mucho más podría escribirse sobre estas preguntas y espero hacerlo en algún momento posterior.

Balance

A través de los variados temas anteriores, he tratado de presentar una visión de un mundo que es tanto plausible si todo va bien con la IA, como mucho mejor que el mundo de hoy. No sé si este mundo es realista, e incluso si lo es, no se logrará sin una enorme cantidad de esfuerzo y lucha por muchas personas valientes y dedicadas. Todos (¡incluyendo las empresas de IA!) necesitarán hacer su parte tanto para prevenir riesgos como para realizar plenamente los beneficios.

Pero es un mundo por el que vale la pena luchar. Si todo esto realmente ocurre en 5 a 10 años—la derrota de la mayoría de las enfermedades, el crecimiento en la libertad biológica y cognitiva, el levantamiento de miles de millones de personas de la pobreza para compartir las nuevas tecnologías, un renacimiento de la democracia liberal y los derechos humanos—sospecho que todos los que lo observen estarán sorprendidos por el efecto que tiene en ellos. No me refiero a la experiencia de beneficiarse personalmente de todas las nuevas tecnologías, aunque eso ciertamente será asombroso. Me refiero a la experiencia de ver un conjunto de ideales largamente sostenidos materializarse frente a todos nosotros de una vez. Creo que muchos literalmente se conmoverán hasta las lágrimas por ello.

A lo largo de escribir este ensayo noté una tensión interesante. En un sentido la visión presentada aquí es extremadamente radical: no es lo que casi nadie espera que ocurra en la próxima década, y probablemente le parecerá a muchos una fantasía absurda. Algunos pueden ni siquiera considerarla deseable; encarna valores y elecciones políticas con las que no todos estarán de acuerdo. Pero al mismo tiempo hay algo cegadoramente obvio—algo sobredeterminado—sobre ella, como si muchos intentos diferentes de imaginar un buen mundo inevitablemente lleven aproximadamente aquí.

En El jugador de juegos²⁹ de Iain M. Banks, el protagonista—un miembro de una sociedad llamada la Cultura, que está basada en principios no muy diferentes de los que he presentado aquí—viaja a un imperio represivo y militarista en el cual el liderazgo es determinado por competencia en un intrincado juego de batalla. El juego, sin embargo, es lo suficientemente complejo como para que la estrategia de un jugador dentro de él tienda a reflejar su propia perspectiva política y filosófica. El protagonista logra derrotar al emperador en el juego, mostrando que sus valores (los valores de la Cultura) representan una estrategia ganadora incluso en un juego diseñado por una sociedad basada en competencia despiadada y supervivencia del más apto. Un post muy conocido de Scott Alexander tiene la misma tesis—que la competencia es autodestructiva y tiende a llevar a una sociedad basada en la compasión y la cooperación. El “arco del universo moral” es otro concepto similar.

Creo que los valores de la Cultura son una estrategia ganadora porque son la suma de un millón de pequeñas decisiones que tienen fuerza moral clara y que tienden a atraer a todos hacia el mismo lado. Las intuiciones humanas básicas de justicia, cooperación, curiosidad y autonomía son difíciles de rebatir, y son acumulativas de una manera que nuestros impulsos más destructivos a menudo no lo son. Es fácil argumentar que los niños no deberían morir de enfermedades si podemos prevenirlo, y fácil desde ahí argumentar que los hijos de todos merecen ese derecho igualmente. Desde ahí no es difícil argumentar que todos deberíamos unirnos y aplicar nuestros intelectos para lograr este resultado. Pocos discrepan de que las personas deberían ser castigadas por atacar o herir a otros innecesariamente, y desde ahí no es mucho salto hacia la idea de que los castigos deberían ser consistentes y sistemáticos entre personas. Es similarmente intuitivo que las personas deberían tener autonomía y responsabilidad sobre sus propias vidas y elecciones. Estas simples intuiciones, si se llevan a su conclusión lógica, llevan eventualmente al estado de derecho, la democracia y los valores de la Ilustración. Si no inevitablemente, entonces al menos como tendencia estadística, esto es hacia donde la humanidad ya se dirigía. La IA simplemente ofrece una oportunidad de llevarnos allí más rápido—de hacer la lógica más clara y el destino más evidente.

Sin embargo, es una cosa de belleza trascendente. Tenemos la oportunidad de jugar algún pequeño papel en hacerla realidad.


Gracias a Kevin Esvelt, Parag Mallick, Stuart Ritchie, Matt Yglesias, Erik Brynjolfsson, Jim McClave, Allan Dafoe, y muchas personas en Anthropic por revisar borradores de este ensayo.

A los ganadores del Premio Nobel de Química 2024, por mostrarnos a todos el camino.

Notas al pie

  1. https://allpoetry.com/All-Watched-Over-By-Machines-Of-Loving-Grace

  2. Anticipo que la reacción de una minoría de personas será “esto es bastante moderado”. Creo que esas personas necesitan, en jerga de Twitter, “tocar pasto”. Pero más importante, lo moderado es bueno desde una perspectiva social. Creo que hay solo cierta cantidad de cambio que las personas pueden manejar a la vez, y el ritmo que estoy describiendo probablemente está cerca de los límites de lo que la sociedad puede absorber sin turbulencia extrema.

  3. Encuentro que AGI es un término impreciso que ha acumulado mucho bagaje de ciencia ficción y bombo publicitario. Prefiero “IA poderosa” o “Ciencia e Ingeniería de Nivel Experto” que capturan lo que quiero decir sin el bombo.

  4. En este ensayo, uso “inteligencia” para referirme a una capacidad general de resolución de problemas que puede aplicarse a través de dominios diversos. Esto incluye habilidades como razonamiento, aprendizaje, planificación y creatividad. Aunque uso “inteligencia” como abreviatura a lo largo de este ensayo, reconozco que la naturaleza de la inteligencia es un tema complejo y debatido en la ciencia cognitiva y la investigación de IA. Algunos investigadores argumentan que la inteligencia no es un concepto único y unificado sino más bien una colección de habilidades cognitivas separadas. Otros sostienen que hay un factor general de inteligencia (factor g) subyacente a varias habilidades cognitivas. Ese es un debate para otro momento.

  5. Esta es aproximadamente la velocidad actual de los sistemas de IA—por ejemplo pueden leer una página de texto en un par de segundos y escribir una página de texto en quizás 20 segundos, lo cual es 10-100x la velocidad a la que los humanos pueden hacer estas cosas. Con el tiempo los modelos más grandes tienden a hacer esto más lento pero los chips más poderosos tienden a hacerlo más rápido; hasta la fecha los dos efectos aproximadamente se han cancelado.

  6. Esto podría parecer una posición de hombre de paja, pero pensadores cuidadosos como Tyler Cowen y Matt Yglesias lo han planteado como una preocupación seria (aunque no creo que sostengan completamente la opinión), y no creo que sea descabellado.

  7. El trabajo de economía más cercano que conozco para abordar esta pregunta es el trabajo sobre “tecnologías de propósito general” e “inversiones intangibles” que sirven como complementos de las tecnologías de propósito general.

  8. Este aprendizaje puede incluir aprendizaje temporal en contexto, o entrenamiento tradicional; ambos estarán limitados por la velocidad del mundo físico.

  9. En un sistema caótico, los pequeños errores se componen exponencialmente con el tiempo, de modo que incluso un enorme aumento en poder de cómputo lleva a solo una pequeña mejora en cuán lejos adelante es posible predecir, y en la práctica el error de medición puede degradar esto aún más.

  10. Otro factor es por supuesto que la IA poderosa misma potencialmente puede usarse para crear IA aún más poderosa. Mi suposición es que esto podría (de hecho, probablemente lo hará) ocurrir, pero que su efecto será menor de lo que podrías imaginar, precisamente por los “rendimientos marginales decrecientes a la inteligencia” discutidos aquí. En otras palabras, la IA continuará volviéndose más inteligente rápidamente, pero su efecto eventualmente estará limitado por factores no relacionados con la inteligencia, y analizar esos es lo que más importa para la velocidad del progreso científico fuera de la IA.

  11. Estos logros han sido una inspiración para mí y quizás el ejemplo existente más poderoso de IA siendo usada para transformar la biología.

  12. “El progreso en ciencia depende de nuevas técnicas, nuevos descubrimientos y nuevas ideas, probablemente en ese orden.” — Sydney Brenner

  13. Gracias a Parag Mallick por sugerir este punto.

  14. No quería atascar el texto con especulación sobre qué descubrimientos futuros específicos podría hacer la ciencia habilitada por IA, pero aquí hay una lluvia de ideas de algunas posibilidades: — Diseño de mejores herramientas computacionales como AlphaFold y AlphaProteo—es decir, un sistema de IA general acelerando nuestra capacidad de hacer herramientas especializadas de IA para biología computacional. — CRISPR más eficiente y selectivo. — Terapias celulares más avanzadas. — Avances en ciencia de materiales y miniaturización llevando a mejores dispositivos implantados. — Mejor control sobre células madre, diferenciación celular y desdiferenciación, y una capacidad resultante de regenerar o remodelar tejido. — Mejor control sobre el sistema inmune: encendiéndolo selectivamente para abordar el cáncer y las enfermedades infecciosas, y apagándolo selectivamente para abordar enfermedades autoinmunes.

  15. La IA también puede por supuesto ayudar a ser más inteligente sobre elegir qué experimentos ejecutar: mejorando el diseño experimental, aprendiendo más de una primera ronda de experimentos para que la segunda ronda pueda enfocarse en preguntas clave, y demás.

  16. Gracias a Matthew Yglesias por sugerir este punto.

  17. Las enfermedades de evolución rápida, como las cepas multirresistentes que esencialmente usan los hospitales como un laboratorio evolutivo para mejorar continuamente su resistencia al tratamiento, podrían ser especialmente tercas de tratar, y podrían ser el tipo de cosa que nos impide llegar al 100%.

  18. Nota: puede ser difícil saber que hemos duplicado la esperanza de vida humana dentro de los 5-10 años. Aunque podríamos haberlo logrado, podríamos no saberlo aún dentro del marco de tiempo del estudio.

  19. Este es un lugar donde estoy dispuesto, a pesar de las diferencias biológicas obvias entre curar enfermedades y desacelerar el proceso de envejecimiento mismo, a en cambio mirar desde mayor distancia la tendencia estadística y decir “aunque los detalles son diferentes, creo que la ciencia humana probablemente encontraría una manera de continuar esta tendencia; después de todo, las tendencias suaves en cualquier cosa compleja necesariamente se hacen sumando componentes muy heterogéneos.

  20. Como ejemplo, me dicen que un aumento en el crecimiento de productividad por año del 1% o incluso 0.5% sería transformador en las proyecciones relacionadas con estos programas. Si las ideas contempladas en este ensayo se materializan, las ganancias de productividad podrían ser mucho mayores que esto.

  21. A los medios les encanta retratar psicópatas de alto estatus, pero el psicópata promedio es probablemente una persona con pobres perspectivas económicas y pobre control de impulsos que termina pasando tiempo significativo en prisión.

  22. Creo que esto es algo análogo al hecho de que muchos, aunque probablemente no todos, los resultados que estamos aprendiendo de la interpretabilidad continuarían siendo relevantes incluso si algunos de los detalles arquitectónicos de nuestras redes neuronales artificiales actuales, como el mecanismo de atención, fueran cambiados o reemplazados de alguna manera.

  23. Sospecho que es un poco como un sistema caótico clásico—acosado por complejidad irreducible que tiene que manejarse de manera mayormente descentralizada. Aunque como digo más adelante en esta sección, intervenciones más modestas pueden ser posibles. Un contraargumento, hecho a mí por el economista Erik Brynjolfsson, es que las grandes empresas (como Walmart o Uber) están empezando a tener suficiente conocimiento centralizado para entender a los consumidores mejor que cualquier proceso descentralizado podría, quizás forzándonos a revisar las ideas de Hayek sobre quién tiene el mejor conocimiento local.

  24. Gracias a Kevin Esvelt por sugerir este punto.

  25. Por ejemplo, los teléfonos celulares fueron inicialmente una tecnología para los ricos, pero rápidamente se volvieron muy baratos con mejoras año tras año ocurriendo tan rápido como para obviar cualquier ventaja de comprar un teléfono celular de “lujo”, y hoy la mayoría de las personas tienen teléfonos de calidad similar.

  26. Este es el título de un documento próximo de RAND, que presenta aproximadamente la estrategia que describo.

  27. Cuando la persona promedio piensa en instituciones públicas, probablemente piensa en su experiencia con el registro de vehículos, la agencia tributaria, el sistema de salud, o funciones similares. Hacer estas experiencias más positivas de lo que actualmente son parece una manera poderosa de combatir el cinismo indebido.

  28. De hecho, en un mundo potenciado por IA, el rango de tales posibles desafíos y proyectos será mucho más vasto que hoy.

  29. Estoy rompiendo mi propia regla de no hacer esto sobre ciencia ficción, pero me ha resultado difícil no referirme a ella al menos un poco. La verdad es que la ciencia ficción es una de nuestras únicas fuentes de experimentos mentales expansivos sobre el futuro; creo que dice algo malo que esté tan enredada con una subcultura estrecha particular.


Traducción al castellano por Claude Opus 4.5 (Anthropic).

Autor: Dario Amodei - CEO de Anthropic

Prompt:

Traducí al español el [Nombre del Texto].
PRINCIPIOS DE TRADUCCIÓN:
1. **Fidelidad semántica**: La precisión del significado es prioritaria. No reinterpretes ni parafrasees
libremente; traducí lo que dice el autor, no lo que vos dirías.
2. **Estilo borgiano como referencia**: Usá el español de Jorge Luis Borges como modelo de registro, no como
estilo a imitar. Esto significa:
- Español argentino pero neutro y universal, legible para cualquier hispanohablante
- Vocabulario erudito cuando corresponda, pero sin afectación
- Sintaxis elegante: oraciones complejas pero claras
- Evitar coloquialismos modernos y regionalismos marcados
- Preferir formas impersonales ("se tiene", "es posible") sobre el voseo directo
- Tono sobrio, sin grandilocuencia ni florituras innecesarias
3. **Términos técnicos**: Mantener en inglés los términos que se usan así en español técnico (software, hardware,
chips, startups, jailbreaks). Traducir conceptos cuando exista equivalente establecido.
4. **Formato**: Preservar la estructura del original (títulos, subtítulos, listas, notas al pie, blockquotes).
5. **Lo que NO hacer**:
- No agregar metáforas o giros que no estén en el original
- No simplificar argumentos complejos
- No usar lunfardo ni expresiones coloquiales argentinas modernas
- No "borgesificar" el contenido; Borges es referencia de registro, no de contenido
El objetivo es una traducción precisa, elegante y accesible.