Es una buena noticia que los modelos abiertos de IA compitan de igual a igual, e incluso superen en eficiencia, a los modelos cerrados.
Queda todavía la cuestión de la transparencia en los datos de entrenamiento. El problema principal con esto es el copyright: en la medida en que no se reconozca el uso de datos para entrenamiento como una actividad legal, no quedan muchas alternativas:
=> More informations about this toot | More toots from Jorgemet@mastodon.online
En algunos países (p ej en Japón) hay excepciones al copyright que permiten hacer este tipo de entrenamiento.
Pero ahora en algunos países las industrias de contenidos y las gestoras colectivas quieren meter un canon para entrenar IA. Es decir que todo el que hiciera un modelo tendría que pagar un canon. Eso solo inclinaría la cancha hacia los más poderosos. OpenAI podría pagarlo, mientras que un proyecto de investigación, ONG o empresa pequeña no podría.
=> More informations about this toot | More toots from Jorgemet@mastodon.online
Hace un tiempo, la Alianza Latinoamericana por el Acceso Justo al Conocimiento publicó un informe sobre la cuestión de las excepciones para investigación en IA: https://datysoc.org/wp-content/uploads/2023/03/Informe-ia-y-da.pdf
=> More informations about this toot | More toots from Jorgemet@mastodon.online This content has been proxied by September (3851b).Proxy Information
text/gemini