En medio de una especulación más amplia sobre las implicaciones legales del desarrollo de la IA y, en particular, el uso de contenido protegido por derechos de autor para capacitar a los modelos de IA, el presidente de los Estados Unidos, Donald Trump, ha emitido una variedad de nuevos órdenes que tienen como objetivo convertir a los Estados Unidos en el líder en el desarrollo global de IA y eliminar restricciones en torno a aspectos clave.
El presidente Trump ha emitido hoy una variedad de directivas relacionadas con el desarrollo de la IA, que incluye:
El paquete de IA combinado formará la base para el impulso de Estados Unidos para liderar la raza AI y convertirse en el proveedor clave de la tecnología de IA en los próximos años.
“Es la política de los Estados Unidos preservar y extender el liderazgo estadounidense en la IA y disminuir la dependencia internacional de las tecnologías de IA desarrolladas por nuestros adversarios al apoyar el despliegue global de tecnologías de IA de origen de los Estados Unidos.“
El enfoque actualizado podría ser un golpe para los titulares de derechos de autor, pero Trump dice que los desarrolladores de IA simplemente No se puede esperar que cree un programa exitoso “Cuando cada artículo, libro o cualquier otra cosa que haya leído o estudiado, se supone que debe pagar”.
Como tal, habrá una nueva protección para dicho uso, dentro de ciertos modelos de IA, lo que reducirá la capacidad de recurso legal en muchos casos.
Aunque son los comentarios sobre la IA “Woke” los que han provocado la mayor discusión.
Según el pedido de la Casa Blanca en “Woke AI”:
“La inteligencia artificial desempeñará un papel fundamental en cómo los estadounidenses de todas las edades aprenden nuevas habilidades, consumen información y navegarán por su vida cotidiana. Los estadounidenses requerirán resultados confiables de la IA, pero cuando los sesgos ideológicos o las agendas sociales se integran en modelos de IA, pueden distorsionar la calidad y la precisión de la producción “.
Esto es cierto, y hay evidencia que sugiere que varios desarrolladores de IA ya están construyendo en un nivel de sesgo basado en las inclinaciones de sus propietarios.
Y el pedido de la Casa Blanca señala específicamente el sesgo que tiene como objetivo abordar:
“Por ejemplo, un modelo de IA importante cambió la raza o el sexo de las figuras históricas, incluidos el Papa, los Padres Fundadores y los vikingos, cuando se les solicitó imágenes porque fue entrenado para priorizar los requisitos de DEI a costa de precisión. Otro modelo de IA se negó a producir imágenes celebrando los logros de los blancos, incluso mientras cumplía con la misma solicitud para personas de otras razas “.
El desafío inherente dentro de esto es que debe haber un nivel de control sobre tales indicaciones, para evitar que los modelos de IA salgan de los rieles, ya que los usuarios buscan hacerles decir cosas más controvertidas. Pero al mismo tiempo, cualquier ponderación hará que sus resultados sean menos objetivos, lo que lleva a problemas potenciales a medida que las personas dependen más de estas herramientas para obtener información.
XAI ha estado buscando corregir esto en sus herramientas, utilizando las propias publicaciones de Elon Musk como punto de referencia para verificar la alineación objetiva. Obviamente, no es el camino a seguir, usando a una sola persona como una brújula moral, pero podría haber una manera de construir el enfoque de estilo de las notas comunitarias de X para facilitar una visión más representativa y precisa de todos los temas.
Simplemente no tenemos una respuesta real todavía, y con la web inundada de tomas divisivas y partidistas, y esa información que se utiliza como entrada de referencia para herramientas de IA, es difícil ver cómo podemos llegar sin un nivel de suavizado en los resultados.
De hecho, son las entradas a este respecto los que siguen siendo el problema. Los modelos de IA dependen de bases de datos a gran escala, principalmente en función de lo que pueden acceder en línea, pero esos conjuntos de datos probablemente no sean representaciones precisas de la opinión general o la inclinación.
Por ejemplo, Twitter/X ha notado repetidamente que solo alrededor del 20% de sus usuarios publican algo, con la gran mayoría de las personas que usan la aplicación en modo “solo leer”. Es probable que también sea lo mismo para otras plataformas sociales, y con solo una quinta parte de los usuarios que contribuyen activamente a las conversaciones, eso significa que solo estamos obteniendo una pequeña muestra, de las personas más divisivas y argumentativas, que luego informan cómo los chatbots de IA “piensan” sobre los temas clave.
Por supuesto, los bots de IA también pueden acceder a información objetiva de fuentes adicionales, y eso debería solidificar sus respuestas, particularmente en consultas técnicas. Pero cuando se trata de asuntos de debate político y/o opinión divisiva, eso podría conducir a problemas con la información errónea y las respuestas engañosas basadas en tales aportes.
Lo que luego podría ver que estos modelos caen en el territorio “Woke”, y será interesante ver cómo la Casa Blanca planea evaluar la “wokeness” en los modelos de IA, como un medio para determinar la adquisición de IA.
Aunque cualquier prueba de este tipo puede terminar beneficiando a los modelos XAI de Elon Musk, particularmente dado que Musk probablemente tiene la palabra interna sobre cómo se desarrollaron las políticas del gobierno y, por lo tanto, lo que buscarán en tales pruebas.
Hay una variedad de consideraciones interesantes dentro de estos nuevos pedidos, que podrían tener una variedad de implicaciones, particularmente a medida que el uso de IA se expande en más elementos.
Y con la IA listo para desempeñar un papel importante en la interacción en las redes sociales en particular, vale la pena señalar cómo estas reglas impactan tales y se relacionan con el uso de IA para moderación, creación, etc.

