OpenAI ha presentado su modelo de inteligencia artificial más potente y sofisticado: o3-pro. Este lanzamiento llega pocos meses después de o3 y 4-mini, posicionando a o3-pro como una IA especializada en razonamiento profundo y pensamiento a largo plazo, ideal para tareas que requieren respuestas confiables y detalladas.
A diferencia de anteriores lanzamientos, OpenAI ha anunciado o3-pro principalmente a través de su portal de soporte, combinando esta noticia con la reciente reducción de precio del modelo o3. Esta nueva versión se presenta como una evolución mejorada de o3, con una capacidad ampliada para integrarse con diversas herramientas de software, aunque sacrifica algo de velocidad para ofrecer mayor precisión.
Según OpenAI, o3-pro está diseñado para usuarios profesionales que necesitan resolver problemas complejos en áreas como matemáticas, ciencias y programación. Gracias a su entrenamiento con aprendizaje por refuerzo y cadenas de pensamiento, el modelo destaca especialmente en análisis de datos, redacción técnica y solución de problemas científicos y empresariales.
El modelo estará disponible desde hoy para los suscriptores de ChatGPT Pro y Team, con un costo de 20 dólares por millón de tokens de entrada y 80 dólares por millón de tokens de salida, equivalente a unas 750,000 palabras.
Sin embargo, o3-pro tiene limitaciones: su tiempo de respuesta es más lento en comparación con GPT-4o mini, y no soporta generación de imágenes ni funcionalidades de Canvas, funciones que se mantienen exclusivas para o3 y GPT-4o.
La ventaja de o3-pro radica en su acceso a un conjunto más amplio de herramientas, que le permiten navegar en la web, escribir código en Python, analizar contenido visual y ofrecer respuestas personalizadas gracias a su memoria integrada.
Para quienes buscan un modelo capaz de combinar potencia y precisión en razonamiento complejo, o3-pro representa la opción más avanzada disponible dentro del ecosistema OpenAI.
Este artículo fue publicado originalmente en hipertextual y está protegido por derechos de autor. Todos los derechos reservados a hipertextual. Puedes consultar el artículo original en su (https://hipertextual.com)