Estados Unidos - Agencia de Noticias Ekhbary
El Costo de la Revolución de IA en el Código: 'Goose' Emerge Como Alternativa Gratuita a Claude Code
El poder transformador de la inteligencia artificial en el desarrollo de software promete revolucionar la forma en que se escribe, depura y despliega el código. Sin embargo, este avance impulsado por la IA tiene un costo significativo, lo que genera una creciente fricción dentro de la comunidad de desarrolladores. Claude Code de Anthropic, un sofisticado agente de IA diseñado para operaciones basadas en terminales, ha atraído considerable atención por sus capacidades de codificación autónoma. A pesar de ello, su estructura de precios escalonada, que oscila entre $20 y $200 al mes según el uso, ha desatado una rebelión entre los programadores a los que pretende potenciar.
En medio de esta creciente frustración, una poderosa alternativa de código abierto llamada Goose ha ganado rápidamente terreno. Desarrollada por Block, la compañía de tecnología financiera anteriormente conocida como Square, Goose ofrece una funcionalidad casi idéntica a Claude Code pero opera completamente en la máquina local del usuario. Este modelo elimina las tarifas de suscripción, anula la dependencia de la nube y elimina los restrictivos límites de velocidad que a menudo obstaculizan la productividad. "Sus datos se quedan con usted, punto", enfatizó Parth Sareen, un ingeniero de software que demostró la herramienta. Este atractivo principal – control total del usuario sobre su flujo de trabajo impulsado por IA, incluidas las capacidades sin conexión – resuena profundamente con los desarrolladores preocupados por la privacidad de los datos y la libertad operativa, incluso durante los viajes en avión.
Leer también
- Donut Lab Clama un Avance en Baterías de Estado Sólido, Pero Enfrenta Escepticismo
- Optimización de Sistemas de Gestión Térmica de Vehículos Eléctricos a Batería
- Un Momento Decisivo: La Colaboración IA-Humana Verifica Formalmente Pruebas Matemáticas de la Medalla Fields
- Los Héroes Anónimos de Ucrania: Los Ingenieros Eléctricos en la Guerra de la Red
- Cómo los datos cuánticos pueden enseñar a la IA a mejorar la química
La popularidad del proyecto ha aumentado drásticamente. Goose ha acumulado más de 26.100 estrellas en GitHub, un testimonio de su creciente adopción y utilidad. Con 362 contribuidores y 102 lanzamientos desde su creación, incluida la versión 1.20.1 lanzada el 19 de enero de 2026, su ritmo de desarrollo rivaliza con el de los productos comerciales. Para los desarrolladores cansados de los precios restrictivos y los límites de uso de Claude Code, Goose representa una mercancía rara en el panorama de la IA: una solución verdaderamente gratuita y sin ataduras para el desarrollo de nivel profesional.
La Controversia de Precios de Anthropic y la Revuelta de Desarrolladores
Para apreciar completamente la importancia de Goose, es esencial comprender la controversia en torno a los precios de Claude Code. Anthropic, una empresa de IA con sede en San Francisco fundada por ex ejecutivos de OpenAI, integra Claude Code en sus niveles de suscripción. El plan gratuito no ofrece acceso alguno, mientras que el plan "Pro", por $17/mes (facturado anualmente) o $20/mes, impone un estricto límite de 10 a 40 prompts cada cinco horas, una restricción que muchos desarrolladores encuentran insuficiente incluso para sesiones de codificación intensivas y breves.
Los planes "Max" más elevados, con precios de $100 y $200 al mes, ofrecen mayor capacidad, proporcionando 50-200 y 200-800 prompts respectivamente, además de acceso al modelo más avanzado de Anthropic, Claude 4.5 Opus. Sin embargo, incluso estas ofertas premium están sujetas a restricciones que han inflamado aún más a la comunidad de desarrolladores. A finales de julio, Anthropic introdujo nuevos límites semanales. Los usuarios Pro reciben 40-80 horas de uso de Sonnet 4 por semana, mientras que los usuarios del nivel Max de $200 reciben 240-480 horas de Sonnet 4 y 24-40 horas de Opus 4. Casi cinco meses después, la frustración de los desarrolladores persiste.
El problema principal radica en la interpretación de estas "horas". No son unidades de tiempo literales, sino límites basados en tokens que fluctúan según factores como el tamaño de la base de código, la duración de la conversación y la complejidad del código. Análisis independientes sugieren que estos límites se traducen en aproximadamente 44,000 tokens para usuarios Pro y 220,000 tokens para el plan Max de $200 por sesión. "Es confuso y vago", señaló un desarrollador en un análisis ampliamente difundido, criticando la falta de utilidad práctica de las métricas proporcionadas. La reacción violenta en plataformas como Reddit y foros de desarrolladores ha sido feroz, con usuarios que informan haber alcanzado los límites diarios en 30 minutos de trabajo intensivo y otros que cancelaron suscripciones por completo, considerando las restricciones "una broma" e "inutilizables para trabajo real". Anthropic ha defendido estos cambios, afirmando que afectan a menos del cinco por ciento de los usuarios y se dirigen a un uso continuo 24/7. Sin embargo, la compañía no ha aclarado si este porcentaje se aplica a todos los usuarios o solo a los suscriptores Max, una distinción de gran importancia.
El Enfoque Innovador de Block: El Agente de Codificación de IA en Máquina
Goose ofrece un paradigma fundamentalmente diferente. Construido por Block, la compañía liderada por Jack Dorsey, Goose funciona como un "agente de IA en máquina" (on-machine AI agent). A diferencia de las soluciones basadas en la nube como Claude Code, Goose procesa las consultas localmente, aprovechando modelos de lenguaje de código abierto que los usuarios descargan y gestionan en su propio hardware. Su documentación enfatiza su capacidad para "instalar, ejecutar, editar y probar con cualquier LLM", destacando su diseño independiente del modelo.
Esta flexibilidad permite a los desarrolladores conectar Goose a varios modelos de IA, incluyendo Claude de Anthropic (a través de API), GPT-5 de OpenAI, Gemini de Google, o enrutarlo a través de servicios como Groq u OpenRouter. Fundamentalmente, permite la operación totalmente local utilizando herramientas como Ollama. Los beneficios prácticos son sustanciales: sin tarifas de suscripción, sin límites de uso, sin límites de velocidad y la garantía de que el código y las conversaciones sensibles permanecen en la máquina del usuario. "Uso Ollama todo el tiempo en aviones, ¡es muy divertido!", compartió Sareen, subrayando la libertad de las restricciones de conectividad a Internet.
Las Capacidades Avanzadas de Goose Más Allá de los Asistentes Tradicionales
Goose funciona como una herramienta de línea de comandos o una aplicación de escritorio capaz de realizar tareas complejas de desarrollo de forma autónoma. Puede iniciar proyectos, escribir y ejecutar código, depurar problemas, orquestar flujos de trabajo de múltiples archivos e interactuar con API externas sin una supervisión humana constante. Su arquitectura se basa en capacidades avanzadas de "llamada de herramientas" (tool calling) o "llamada de funciones" (function calling), lo que permite al modelo de lenguaje activar acciones específicas dentro de sistemas externos. Cuando un usuario solicita a Goose que cree un archivo, ejecute pruebas o verifique el estado de una solicitud de extracción de GitHub, ejecuta directamente esas operaciones.
La eficacia de estas operaciones depende del modelo de lenguaje subyacente. Si bien los modelos Claude 4 de Anthropic actualmente lideran en rendimiento de llamadas de herramientas según el Berkeley Function-Calling Leaderboard, los modelos de código abierto están mejorando rápidamente. La documentación de Goose recomienda modelos como la serie Llama de Meta, los modelos Qwen de Alibaba, las variantes Gemma de Google y las arquitecturas centradas en el razonamiento de DeepSeek para un sólido soporte de llamadas de herramientas. Además, Goose se integra con el emergente Protocolo de Contexto de Modelo (MCP), ampliando sus capacidades para acceder a bases de datos, motores de búsqueda, sistemas de archivos y API de terceros, mejorando significativamente su utilidad más allá de las capacidades del LLM base.
Configuración de Goose con un Modelo Local
Para los desarrolladores que buscan una configuración completamente gratuita y que preserve la privacidad, el proceso implica tres componentes clave: Goose, Ollama y un modelo de lenguaje compatible.
Paso 1: Instalar Ollama
Ollama simplifica la ejecución de grandes modelos de lenguaje localmente. Descárguelo e instálelo desde ollama.com. Una vez instalado, puede obtener un modelo con un comando simple, por ejemplo, para tareas de codificación que utilizan Qwen 2.5:
Noticias relacionadas
- Hallado un agujero negro que rompe las reglas, creciendo 13 veces el 'límite de velocidad' cósmico, desafiando teorías
- Preguntas Médicas del Mundo Real Confunden a los Chatbots de IA
- IEEE honra a un 'Equipo de Ensueño' Global de Innovadores: Fundadores de Nvidia y Duolingo entre los Galardonados
- Mono africano contrae mpox tras consumir una ardilla de cuerda, estudio revela salto interespecífico
- Descifrando el Sabor "Cazado": ¿Qué Hace que Algunas Carnes Tengan un Gusto Distinto?
ollama run qwen2.5
El modelo se descargará automáticamente y comenzará a ejecutarse en su máquina.
Paso 2: Instalar Goose
Goose está disponible como aplicación de escritorio y como interfaz de línea de comandos. La aplicación de escritorio...