
Lex Fridman, un reconocido investigador y presentador, llevó a cabo una entrevista con Amanda Askell, una filósofa experta en la alineación de modelos de inteligencia artificial en Anthropic. Durante esta conversación, que fue transmitida en el popular canal de Fridman, se abordaron los retos y oportunidades que presenta la IA avanzada, incluyendo los riesgos asociados a su autonomía y el impacto que estas tecnologías pueden tener en las decisiones humanas. Askell enfatizó la importancia de garantizar que estas herramientas sean seguras y éticas.
Desafíos éticos y la alineación de la IA
Askell, quien cuenta con una destacada trayectoria en la filosofía de los dilemas éticos relacionados con la tecnología, reflexionó sobre cómo la IA está moldeando el comportamiento humano y los desafíos que surgen al diseñar sistemas que reflejen valores universales. Uno de los puntos más destacados de la conversación fue la necesidad de transparencia y la democratización del acceso a la tecnología, así como las responsabilidades de quienes lideran su desarrollo.
Riesgos de la autonomía de la IA
Para Askell, el riesgo de que la IA actúe de manera descontrolada no es un problema en sí mismo, sino que puede convertirse en un asunto significativo si estas tecnologías actúan de formas imprevistas o desalineadas con los intereses humanos. Ella afirmó: “El mayor riesgo no es que sean autónomos, sino que actúen de formas que no anticipamos o comprendemos completamente”. Un ejemplo que proporcionó fue el de un sistema diseñado para optimizar el tráfico, que podría proponer soluciones que resulten socialmente perjudiciales, como cerrar rutas principales sin considerar el impacto en las comunidades afectadas.
Askell advirtió: “Cuando un sistema es lo suficientemente poderoso, incluso desviaciones pequeñas de su objetivo inicial pueden tener consecuencias enormes”. La clave, según la investigadora, es que estos sistemas sean funcionales y operen bajo restricciones claras que estén alineadas con objetivos predefinidos.
Estrategias para limitar riesgos
Desde su experiencia, Askell explicó que la supervisión constante y el uso de principios explícitos son fundamentales para mantener el control sobre la IA. Ella mencionó: “La supervisión permite que operen dentro de un marco ético claro, evaluando sus acciones en base a datos que también deben ser predefinidos”. Además, propuso la idea de un ajuste dinámico, donde los sistemas sean monitoreados y ajustados continuamente para evitar desviaciones, destacando que el aprendizaje activo es esencial para mantener la alineación con los valores humanos.
Concentración de poder y sus implicaciones
Askell también abordó el desafío social que representa la concentración de poder en unas pocas organizaciones, señalando que este desequilibrio solo ampliará las brechas en la diversidad de perspectivas integradas en la IA. Ella advirtió: “Si se concentra demasiado en una sola dirección, podemos terminar ignorando las necesidades de gran parte de la humanidad”. Este peligro es especialmente preocupante en aplicaciones relacionadas con la educación, la justicia y el empleo, donde los sesgos integrados podrían perpetuar exclusiones y discriminaciones.
La filósofa subrayó: “Un único modelo cultural no puede representar adecuadamente la riqueza que existen en diferentes sociedades”. En este contexto, Askell abogó por una colaboración entre empresas, gobiernos y organizaciones independientes para crear un ecosistema más inclusivo que reduzca los riesgos y amplíe la aplicación equitativa de la IA.
El futuro de la interacción humano-máquina
En cuanto al futuro de la interacción entre humanos y máquinas, Askell destacó que los asistentes virtuales actuales son solo el inicio de una relación mucho más profunda. Ella afirmó: “Estamos avanzando hacia un punto en el que las máquinas responderán preguntas y ejecutarán comandos, convirtiéndose en colaboradores reales en tareas complejas”.
La experta enfatizó que el diseño de estas interacciones debe equilibrar la innovación con la responsabilidad, asegurándose de que las tecnologías complementen las habilidades humanas en lugar de sustituirlas. Ella expresó: “Queremos que nuestras habilidades sean potenciadas, no que sean reemplazadas por completo. Si las personas comienzan a depender de la IA para tomar decisiones importantes, corremos el riesgo de perder el control en el proceso”.
Askell concluyó que las relaciones que se establezcan hoy tendrán un profundo impacto en el futuro, afirmando que “la forma en que diseñamos ahora definirá cómo las sociedades se relacionarán en las próximas décadas”. La conversación dejó claro que la tecnología es una fuerza transformadora que redefine cómo vivimos y trabajamos, así como las decisiones que tomamos. El poder de la IA, según la especialista, estará determinado por la capacidad técnica y las políticas que se implementen hoy.
Askell finalizó afirmando que el verdadero desafío es construir sistemas avanzados que sirvan al bienestar colectivo, evitando la concentración de poder y las desigualdades. Ella planteó un dilema central: “¿Qué tan preparados estamos para que la IA beneficie a toda la humanidad?”.