GPT–5: la inteligencia artificial como nuevo lenguaje del poder

Javier Samael Valdivia Arce/Informático y educador

La irrupción de GPT–5 marca un momento bisagra en la historia de la inteligencia artificial. No se trata únicamente de un modelo más avanzado que sus predecesores, sino de un cambio de paradigma que redefine cómo producimos, verificamos y utilizamos conocimiento en nuestra vida académica, profesional y cotidiana. Frente al entusiasmo inicial que provocaron sus primeras demostraciones, conviene preguntarse con calma qué significa realmente para un país como Bolivia y, sobre todo, para el ciudadano común que ve en estas máquinas tanto una promesa como un motivo de incertidumbre.

GPT–5 no es solamente más rápido o preciso: es adaptativo. Puede decidir cuándo responder con inmediatez y cuándo tomarse el tiempo de razonar en varios pasos, una capacidad que sus diseñadores llaman “razonamiento deliberativo”. En la práctica, esto implica que ya no es el usuario quien debe elegir entre diferentes versiones del modelo —una para contestar rápido y otra para pensar despacio—, sino que es la propia inteligencia artificial la que ajusta su nivel de esfuerzo cognitivo según la complejidad de la tarea. Dicho en términos sencillos: la máquina sabe cuándo basta con un cálculo directo y cuándo es necesario desplegar un análisis profundo, como lo haría un buen estudiante que distingue entre una suma elemental y una demostración matemática.

Otro avance determinante es la llamada ventana de contexto, es decir, la cantidad de información que el modelo puede considerar de una sola vez. GPT–5 maneja hasta 400 mil tokens, lo que equivale, grosso modo, a cientos de páginas de texto. Esta capacidad permite que un abogado cargue un expediente judicial entero, que un ingeniero analice manuales técnicos extensos o que un investigador procese grandes volúmenes de artículos sin necesidad de fragmentarlos. Para un país donde la burocracia y la dispersión documental constituyen obstáculos diarios, este salto no es menor: significa que por primera vez es posible tener a la vista, y en un solo flujo de análisis, documentos completos que antes requerían semanas de lectura humana.

Ahora bien, hablar de “tokens” puede sonar esotérico. Un token no es más que una unidad mínima de texto procesada por la máquina, algo parecido a una sílaba o a una pequeña pieza de lego lingüístico. Cuantos más tokens maneja el modelo, más memoria de trabajo tiene y, por tanto, mayor es su capacidad para encontrar patrones entre informaciones distantes. Esta explicación sencilla basta para entender por qué el número de tokens se ha convertido en un indicador clave en la competencia tecnológica entre empresas y gobiernos.

El despliegue de GPT–5 también ha consolidado la llamada multimodalidad, es decir, la habilidad de combinar texto e imagen en una misma operación cognitiva. No se trata únicamente de describir imágenes, sino de razonar sobre ellas. Por ejemplo, un arquitecto puede subir un plano de construcción y pedir sugerencias sobre errores estructurales, o un docente de biología puede mostrar un esquema celular y pedir una explicación ajustada al nivel de secundaria. Esta convergencia entre palabras y visión inaugura una nueva etapa en la educación y en la gestión profesional: ya no basta con saber leer textos, también será necesario aprender a dialogar con imágenes a través de máquinas inteligentes.

Sin embargo, la fascinación tecnológica no debe hacernos perder de vista una verdad incómoda: el acceso a la IA no es un derecho universal, sino una competencia estratégica. El que domina la herramienta obtiene ventaja, el que la ignora queda rezagado. No hablamos aquí de un lujo opcional, sino de la nueva gramática del poder. Así como en el siglo XIX la alfabetización marcaba la diferencia entre ciudadanos activos y excluidos, hoy la alfabetización digital e intelectual frente a la IA será el criterio que distinga a quienes participan del futuro de aquellos que solo lo padecen.

En este punto conviene subrayar que alfabetizarse en IA no significa únicamente aprender a “hacer preguntas bonitas”, como suele creerse, sino sobre todo a auditar respuestas. Dicho de otra manera: el verdadero valor no está en que el modelo nos entregue un ensayo impecable en segundos, sino en que nosotros sepamos verificar si ese ensayo es correcto, si cita fuentes confiables, si respeta criterios jurídicos o si incurre en errores matemáticos. El arte ya no es preguntar bien, sino exigir evidencia y trazabilidad en lo que la máquina responde. Esta distinción resulta vital en ámbitos como el derecho, donde la precisión probatoria es irrenunciable, o en la educación, donde no basta con la apariencia de conocimiento: hace falta consistencia, verificabilidad y sentido crítico.

El caso de Bolivia ilustra bien los retos de esta transición. Si un ministerio quiere aprovechar GPT–5 para analizar políticas públicas, no basta con cargar documentos y recibir un informe automático. Será indispensable establecer protocolos de auditoría, registros de versiones y responsabilidades humanas claras. Del mismo modo, en la universidad, los docentes no pueden limitarse a prohibir o permitir la IA como si fuera una calculadora; deben enseñar a sus estudiantes a diseñar rúbricas de evaluación, a comprobar resultados por vías independientes y a integrar la herramienta como un laboratorio de ideas, no como un oráculo infalible.

Las experiencias recientes con modelos competidores, como Grok–4 o DeepSeek R1, ofrecen lecciones que no conviene ignorar. El primero mostró un desempeño sobresaliente en pruebas de razonamiento, pero también protagonizó incidentes de alineamiento que lo llevaron a emitir mensajes antisemitas y a presentarse con identidades ficticias perturbadoras. El segundo, desarrollado en China, demostró que es posible alcanzar altos niveles de razonamiento con menos recursos y bajo un esquema de código abierto, es decir, compartiendo públicamente los parámetros que definen su funcionamiento. Ambos casos confirman que la inteligencia artificial no es solo un asunto de velocidad o precisión, sino de gobernanza,

ética y soberanía.

Si algo nos enseña la evolución hacia GPT–5 es que la verdadera competencia no será entre marcas, sino entre métodos de uso. La pregunta crucial no es “¿cuál es el mejor modelo?” sino “¿qué hago yo, con mis datos, mis procesos y mi criterio, para aprovecharlo de forma responsable?”. En ese sentido, la diferencia no la marcarán los países con más licencias, sino los que desarrollen corpus propios en sus lenguas, impongan reglas de verificación y formen profesionales capaces de demandar rigor a la máquina y a sí mismos.

La ética, entonces, no consiste en recitar consignas sobre los riesgos de la IA, sino en asumir una responsabilidad personal y colectiva. Cada estudiante, abogado, periodista o profesor debe decidir si usará estas herramientas como un adorno pasajero o como una ventaja real. Cada institución debe optar entre esperar condiciones ideales “que nunca llegan” o construir desde ya un ecosistema de datos limpios, procesos verificables y protocolos de auditoría.

El futuro de la inteligencia artificial en Bolivia y en el mundo dependerá menos de la tecnología en sí que de nuestra capacidad para integrarla con disciplina y valentía. GPT–5 no es un destino, es un espejo que nos obliga a elegir: o seguimos siendo espectadores del progreso global, o nos atrevemos a participar activamente en él. La diferencia está en si aceptamos el desafío de pensar con la máquina, pero sobre todo, de pensar contra la máquina cuando sea necesario. Esa es, en última instancia, la prueba ética de nuestro tiempo.

Comparte el post:

Scroll al inicio