América Latina dio un paso histórico en el desarrollo de inteligencia artificial. Este lunes presentaron Latam-GPT, el primer Gran Modelo de Lenguaje abierto creado desde y para América Latina y el Caribe, con identidad cultural propia y enfoque regional.

El proyecto lo coordinó el Centro Nacional de Inteligencia Artificial (CENIA) junto al Ministerio de Ciencia, Tecnología, Conocimiento e Innovación de Chile, el Banco de Desarrollo de América Latina y el Caribe (CAF), Amazon Web Services (AWS), el centro tecnológico Data Observatory y decenas de instituciones académicas y públicas de la región.

Latam-GPT incorpora idiomas, datos y contextos latinoamericanos desde su arquitectura original. A diferencia de los modelos entrenados principalmente con información en inglés y marcos culturales del Norte Global, esta herramienta entiende matices lingüísticos, realidades políticas e identidades históricas propias del continente.

El lanzamiento reunió al presidente de Chile, Gabriel Boric; al ministro de Ciencia, Aldo Valle; al director de CENIA, Álvaro Soto; al especialista principal de CAF, Marcelo Facchina; al líder tecnológico de AWS para el Cono Sur, Rafael Mattje; y al director ejecutivo de Data Observatory, Rodrigo Roa, además de autoridades nacionales, representantes diplomáticos y actores del ecosistema tecnológico regional.

Boric llamó a ver la inteligencia artificial como una oportunidad y no como una amenaza. Durante la presentación, el mandatario observó demostraciones del modelo, que procesó contextos latinoamericanos con un nivel de precisión que, según sus desarrolladores, no logran los sistemas importados.

Álvaro Soto aseguró que el proyecto permite que la región participe como actor en la revolución tecnológica y no solo como usuaria. En la misma línea, el ministro Valle destacó que la iniciativa responde a una política pública que apuesta por la soberanía tecnológica con gobernanza público-privada y una infraestructura robusta en supercómputo, centros de datos y formación especializada.

Desde AWS, Rafael Mattje explicó que la compañía aportó infraestructura de nube e inteligencia artificial para entrenar el modelo y redujo el tiempo de entrenamiento de 25 a 9 días, lo que representa una optimización del 64%. Por su parte, Sergio Díaz-Granados, presidente ejecutivo de CAF, señaló que la región necesita construir capacidades propias en cómputo, datos y conectividad para competir en la economía digital.

Rodrigo Roa, de Data Observatory, afirmó que el proyecto demuestra que América Latina puede liderar desarrollos tecnológicos de alto impacto cuando articula talento calificado e infraestructura de clase mundial.

Idiomas y datos propios

Latam-GPT busca cerrar una brecha histórica. Según estimaciones basadas en repositorios abiertos como Common Crawl, el español representa apenas cerca del 4% y el portugués alrededor del 2% de los datos utilizados para entrenar grandes modelos de lenguaje a nivel global.

Esa subrepresentación dejó fuera, durante años, buena parte de las realidades latinoamericanas. Frente a ese escenario, el equipo entrenó el modelo para comprender variantes del español y el portugués, así como memorias, tradiciones e identidades culturales del continente.

El desarrollo utilizó una arquitectura base Llama 3.1 de 70 mil millones de parámetros, complementada con un corpus regional obtenido bajo permisos y licencias explícitas. El proceso incluyó recolección y curaduría de datos, pre-training y post-training, además de benchmarks adaptados al contexto latinoamericano y documentación ética rigurosa.

Más de 100 profesionales y 60 instituciones de 15 países participaron en el proyecto. El equipo reunió más de 300 mil millones de tokens —equivalentes a unas 230 mil millones de palabras— y aplicó procesos de anonimización y filtrado para eliminar contenidos tóxicos o desinformación. El dataset incluye áreas como educación, salud, políticas públicas, economía, medioambiente, artes y pueblos indígenas.

Bien público y código abierto

Los impulsores concibieron Latam-GPT como un bien público. Su diseño de código abierto permitirá que universidades, gobiernos, startups y comunidades desarrollen soluciones propias sobre una base común, transparente y trazable.

El equipo proyecta que la herramienta podría impactar en la productividad de hasta el 50% de la fuerza laboral latinoamericana, especialmente en educación, gestión pública e innovación productiva.

Con este lanzamiento, Chile y América Latina buscan posicionarse como referentes globales en el desarrollo de una inteligencia artificial abierta, colaborativa y con identidad propia.

Regístrate

Con tu red social preferida

O con tu correo

Inicia sesión

Con tu red social preferida

O con tu correo