Los daños de IA deben tenerse en cuenta en los enfoques regulatorios en evolución

- Advertisement -spot_img

A medida que la carrera de desarrollo de IA se calienta, estamos obteniendo más indicadores de posibles enfoques regulatorios para el desarrollo de la IA, lo que podría terminar obstaculizando ciertos proyectos de IA, al tiempo que garantizan una mayor transparencia para los consumidores.

Lo cual, dados los riesgos del material generado por la IA, es algo bueno, pero al mismo tiempo, no estoy seguro de que vamos a obtener la diligencia debida que la IA realmente requiere para garantizar que implementemos tales herramientas de la manera más protectora y, en última instancia, beneficiosa.

Los controles de datos son la primera limitación potencial, con cada compañía que desarrolla proyectos de IA que enfrentan diversos desafíos legales en función de su uso de material protegido por derechos de autor para construir sus modelos fundamentales.

La semana pasada, un grupo de editoriales francesas lanzó acciones legales contra Meta por infracción de derechos de autor, uniéndose a un colectivo de autores estadounidenses para ejercer sus derechos de propiedad contra el gigante tecnológico.

Y si cualquiera de estos casos da como resultado un pago significativo, puede apostar a que todas las otras compañías editoriales del mundo lanzarán acciones similares, lo que podría dar como resultado grandes multas para Zuck and Co. basado en su proceso de construcción de los modelos iniciales de su LLAMA LLM.

Y no es solo Meta: Openai, Google, Microsoft, y cualquier otro desarrollador de IA enfrenta desafíos legales sobre el uso de material protegido por derechos de autor, en medio de preocupaciones amplias sobre el robo de contenido de texto para alimentar a estos modelos.

Eso podría conducir a un nuevo precedente legal en torno al uso de datos, que en última instancia podrían dejar plataformas sociales como los líderes en el desarrollo de LLM, ya que serán los únicos que tienen suficientes datos patentados para alimentar dichos modelos. Pero su capacidad de vender de este tipo también estará limitada por sus acuerdos de usuario, y las cláusulas de datos integradas después del escándalo de Cambridge Analytica (así como la regulación de la UE). Al mismo tiempo, Según los informes, Meta accedió a libros e información pirateados para construir su LLM porque su conjunto de datos existente, basado en publicaciones de usuarios de Facebook e IG, no era adecuado para dicho desarrollo.

Leer  5 formas en que los profesionales de las redes sociales usan de forma segura en este momento

Eso podría terminar siendo un importante obstáculo en el desarrollo de la IA en los Estados Unidos en particular, porque las reglas de ciberseguridad de China ya permiten que el gobierno chino acceda y utilice datos de organizaciones chinas si eligen y cómo eligen.

Es por eso que las compañías estadounidenses están argumentando restricciones aflojadas en torno al uso de datos, y OpenAi pide directamente al gobierno que permita el uso de datos protegidos por derechos de autor en la capacitación de IA.

Esta es también la razón por la cual tantos líderes tecnológicos han estado buscando acogerse con la administración Trump, como parte de un esfuerzo más amplio para ganar favor en esto y en los acuerdos tecnológicos relacionados. Porque si las empresas estadounidenses enfrentan restricciones, los proveedores chinos van a ganar en la carrera de IA más amplia.

Sin embargo, al mismo tiempo, los derechos de autor intelectuales son una consideración esencial, y permitir que su trabajo se utilice para entrenar sistemas diseñados para hacer que su arte y/o vocación sean obsoletos parece un camino negativo. Además, dinero. Cuando hay dinero que se puede ganar, puede apostar que las corporaciones aprovechan tales (ver: los abogados que saltan a las afirmaciones de derechos de autor de YouTube), por lo que aparentemente esto es una especie de cuentas que definirán el futuro de la raza de la IA.

Al mismo tiempo, más regiones ahora están implementando leyes sobre la divulgación de IA, con China la semana pasada uniéndose a la UE y los Estados Unidos para implementar regulaciones relacionadas con el “etiquetado del contenido sintético”.

La mayoría de las plataformas sociales ya están por delante en este frente, con Facebook, Instagram, hilos y Tiktok todas las reglas de implementación en torno a la divulgación de IA, que Pinterest también ha agregado recientemente. LinkedIn también tiene la detección de IA y las etiquetas vigentes (pero no hay reglas sobre el etiquetado voluntario), mientras que Snapchat también etiqueta las imágenes de IA creadas en sus propias herramientas, pero no tiene reglas para el contenido de terceros.

Leer  Instagram lanza una nueva iniciativa de inspiración de artistas, características adicionales en la aplicación

(Nota: X estaba desarrollando reglas de divulgación de IA en 2020, pero no ha implementado oficialmente las tales).

Este es un desarrollo importante también, aunque al igual que con la mayoría de los cambios de IA, estamos viendo que gran parte de esto sucede en retrospectiva, y de maneras fragmentarias, lo que deja la obligación en plataformas específicas, en lugar de implementar reglas y procedimientos más universales.

Lo cual, nuevamente, es mejor para la innovación, en el viejo sentido de Facebook “Move Fast and Break Things”. Y dada la afluencia de líderes tecnológicos en la Casa Blanca, es cada vez más probable que el enfoque avance.

Pero todavía siento que empujar la innovación corre el riesgo de más daño, y a medida que las personas dependen cada vez más de las herramientas de IA para pensar por ellos, mientras que las imágenes de IA se arraigan más en el proceso interactivo moderno, estamos pasando por alto los peligros de la adopción y uso de la IA masiva, a favor del éxito corporativo.

¿Deberíamos estar más preocupados por AI Harms?

Quiero decir, en su mayor parte, regurgitar la información de la web es en gran medida, aparentemente solo una alteración de nuestro proceso regular. Pero hay riesgos. Los niños ya están subcontratando el pensamiento crítico para los bots de IA, las personas están desarrollando relaciones con personajes generados por IA (que se volverán más comunes en las aplicaciones sociales), mientras que millones están siendo engañados por imágenes generadas por IA de niños hambrientos, personas viejas solitarias, niños innovadores de pueblos remotos y más.

Claro, no vimos la afluencia esperada de contenido generado por la IA motivados políticamente en las elecciones más recientes de los Estados Unidos, pero eso no significa que el contenido generado por IA no tenga un impacto profundo de otras maneras, y balancee las opiniones de las personas, e incluso su proceso interactivo. Aquí hay peligros, y Harms ya está integrado, sin embargo, estamos pasando por alto porque los líderes no quieren que otras naciones desarrollen mejores modelos más rápido.

Leer  Las notas comunitarias de X llegan a 1 millón de contribuyentes

Lo mismo sucedió con las redes sociales, lo que permitió a miles de millones de personas acceder a herramientas que desde entonces se han vinculado a varias formas de daño. Y ahora estamos tratando de reducir las cosas, con varias regiones que buscan prohibir a los adolescentes de las redes sociales para protegerlas de tal. Pero ahora estamos dos décadas, y solo en los últimos 10 años han habido esfuerzos reales para abordar los peligros de la interacción en las redes sociales.

¿No hemos aprendido nada de esto?

Evidentemente, no, porque nuevamente, moverse rápido y romper cosas, sin importar cuáles puedan ser esas cosas, es el enfoque capitalista, que está siendo impulsado por corporaciones que se beneficiarán más de la recaudación masiva.

Eso no quiere decir que la IA sea mala, eso no quiere decir que no debamos buscar utilizar herramientas generativas de IA para racionalizar varios procesos. Sin embargo, lo que estoy diciendo es que el plan de acción de IA propuesto actualmente de la Casa Blanca, y otras iniciativas como esta, deberían tener en cuenta los riesgos como factores significativos en el desarrollo de la IA.

No lo harán. Todos sabemos esto, y dentro de diez años veremos cómo frenar los daños causados ​​por las herramientas generativas de IA y cómo restringimos su uso.

Pero los principales jugadores ganarán, por lo que también espero que, eventualmente, todas estas afirmaciones de derechos de autor también se desvanezcan, a favor de la rápida innovación.

Porque la exageración de la IA es real, y la industria de la IA se convertirá en un mercado de $ 1.3 billones de dólares.

El pensamiento crítico, la capacidad interactiva, la salud mental, todo esto se ve afectado, a escala, como resultado.

spot_img
spot_img

Artículos relacionados

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Artículos populares