En medio de una especulaci贸n m谩s amplia sobre las implicaciones legales del desarrollo de la IA y, en particular, el uso de contenido protegido por derechos de autor para capacitar a los modelos de IA, el presidente de los Estados Unidos, Donald Trump, ha emitido una variedad de nuevos 贸rdenes que tienen como objetivo convertir a los Estados Unidos en el l铆der en el desarrollo global de IA y eliminar restricciones en torno a aspectos clave.
El presidente Trump ha emitido hoy una variedad de directivas relacionadas con el desarrollo de la IA, que incluye:
El paquete de IA combinado formar谩 la base para el impulso de Estados Unidos para liderar la raza AI y convertirse en el proveedor clave de la tecnolog铆a de IA en los pr贸ximos a帽os.
“Es la pol铆tica de los Estados Unidos preservar y extender el liderazgo estadounidense en la IA y disminuir la dependencia internacional de las tecnolog铆as de IA desarrolladas por nuestros adversarios al apoyar el despliegue global de tecnolog铆as de IA de origen de los Estados Unidos.“
El enfoque actualizado podr铆a ser un golpe para los titulares de derechos de autor, pero Trump dice que los desarrolladores de IA simplemente No se puede esperar que cree un programa exitoso “Cuando cada art铆culo, libro o cualquier otra cosa que haya le铆do o estudiado, se supone que debe pagar”.
Como tal, habr谩 una nueva protecci贸n para dicho uso, dentro de ciertos modelos de IA, lo que reducir谩 la capacidad de recurso legal en muchos casos.
Aunque son los comentarios sobre la IA “Woke” los que han provocado la mayor discusi贸n.
Seg煤n el pedido de la Casa Blanca en “Woke AI”:
“La inteligencia artificial desempe帽ar谩 un papel fundamental en c贸mo los estadounidenses de todas las edades aprenden nuevas habilidades, consumen informaci贸n y navegar谩n por su vida cotidiana. Los estadounidenses requerir谩n resultados confiables de la IA, pero cuando los sesgos ideol贸gicos o las agendas sociales se integran en modelos de IA, pueden distorsionar la calidad y la precisi贸n de la producci贸n “.
Esto es cierto, y hay evidencia que sugiere que varios desarrolladores de IA ya est谩n construyendo en un nivel de sesgo basado en las inclinaciones de sus propietarios.
Y el pedido de la Casa Blanca se帽ala espec铆ficamente el sesgo que tiene como objetivo abordar:
“Por ejemplo, un modelo de IA importante cambi贸 la raza o el sexo de las figuras hist贸ricas, incluidos el Papa, los Padres Fundadores y los vikingos, cuando se les solicit贸 im谩genes porque fue entrenado para priorizar los requisitos de DEI a costa de precisi贸n. Otro modelo de IA se neg贸 a producir im谩genes celebrando los logros de los blancos, incluso mientras cumpl铆a con la misma solicitud para personas de otras razas “.
El desaf铆o inherente dentro de esto es que debe haber un nivel de control sobre tales indicaciones, para evitar que los modelos de IA salgan de los rieles, ya que los usuarios buscan hacerles decir cosas m谩s controvertidas. Pero al mismo tiempo, cualquier ponderaci贸n har谩 que sus resultados sean menos objetivos, lo que lleva a problemas potenciales a medida que las personas dependen m谩s de estas herramientas para obtener informaci贸n.
XAI ha estado buscando corregir esto en sus herramientas, utilizando las propias publicaciones de Elon Musk como punto de referencia para verificar la alineaci贸n objetiva. Obviamente, no es el camino a seguir, usando a una sola persona como una br煤jula moral, pero podr铆a haber una manera de construir el enfoque de estilo de las notas comunitarias de X para facilitar una visi贸n m谩s representativa y precisa de todos los temas.
Simplemente no tenemos una respuesta real todav铆a, y con la web inundada de tomas divisivas y partidistas, y esa informaci贸n que se utiliza como entrada de referencia para herramientas de IA, es dif铆cil ver c贸mo podemos llegar sin un nivel de suavizado en los resultados.
De hecho, son las entradas a este respecto los que siguen siendo el problema. Los modelos de IA dependen de bases de datos a gran escala, principalmente en funci贸n de lo que pueden acceder en l铆nea, pero esos conjuntos de datos probablemente no sean representaciones precisas de la opini贸n general o la inclinaci贸n.
Por ejemplo, Twitter/X ha notado repetidamente que solo alrededor del 20% de sus usuarios publican algo, con la gran mayor铆a de las personas que usan la aplicaci贸n en modo “solo leer”. Es probable que tambi茅n sea lo mismo para otras plataformas sociales, y con solo una quinta parte de los usuarios que contribuyen activamente a las conversaciones, eso significa que solo estamos obteniendo una peque帽a muestra, de las personas m谩s divisivas y argumentativas, que luego informan c贸mo los chatbots de IA “piensan” sobre los temas clave.
Por supuesto, los bots de IA tambi茅n pueden acceder a informaci贸n objetiva de fuentes adicionales, y eso deber铆a solidificar sus respuestas, particularmente en consultas t茅cnicas. Pero cuando se trata de asuntos de debate pol铆tico y/o opini贸n divisiva, eso podr铆a conducir a problemas con la informaci贸n err贸nea y las respuestas enga帽osas basadas en tales aportes.
Lo que luego podr铆a ver que estos modelos caen en el territorio “Woke”, y ser谩 interesante ver c贸mo la Casa Blanca planea evaluar la “wokeness” en los modelos de IA, como un medio para determinar la adquisici贸n de IA.
Aunque cualquier prueba de este tipo puede terminar beneficiando a los modelos XAI de Elon Musk, particularmente dado que Musk probablemente tiene la palabra interna sobre c贸mo se desarrollaron las pol铆ticas del gobierno y, por lo tanto, lo que buscar谩n en tales pruebas.
Hay una variedad de consideraciones interesantes dentro de estos nuevos pedidos, que podr铆an tener una variedad de implicaciones, particularmente a medida que el uso de IA se expande en m谩s elementos.
Y con la IA listo para desempe帽ar un papel importante en la interacci贸n en las redes sociales en particular, vale la pena se帽alar c贸mo estas reglas impactan tales y se relacionan con el uso de IA para moderaci贸n, creaci贸n, etc.