伊赫巴里
Wednesday, 04 March 2026
Breaking

KI-Revolution im Coding wird teuer: Goose tritt als kostenlose Alternative zu Claude Code auf

Der Open-Source-KI-Agent 'Goose' bietet ähnliche Funktionali

KI-Revolution im Coding wird teuer: Goose tritt als kostenlose Alternative zu Claude Code auf
7DAYES
5 hours ago
6

USA - Ekhbary Nachrichtenagentur

KI-Revolution im Coding wird teuer: Goose tritt als kostenlose Alternative zu Claude Code auf

Die transformative Kraft der künstlichen Intelligenz in der Softwareentwicklung verspricht, die Art und Weise, wie Code geschrieben, debuggt und bereitgestellt wird, zu revolutionieren. Dieser KI-gesteuerte Fortschritt hat jedoch einen erheblichen Preis, der zu wachsenden Spannungen innerhalb der Entwicklergemeinschaft führt. Claude Code von Anthropic, ein hochentwickelter KI-Agent für terminalbasierte Operationen, hat aufgrund seiner autonomen Codierungsfähigkeiten erhebliche Aufmerksamkeit erregt. Dennoch hat seine gestaffelte Preisstruktur, die je nach Nutzung zwischen 20 und 200 US-Dollar pro Monat liegt, eine Revolte unter den Programmierern ausgelöst, die er zu stärken sucht.

Inmitten dieser wachsenden Frustration gewinnt eine leistungsstarke Open-Source-Alternative namens Goose schnell an Bedeutung. Entwickelt von Block, dem Finanztechnologieunternehmen, das früher als Square bekannt war, bietet Goose eine nahezu identische Funktionalität wie Claude Code, läuft aber vollständig auf der lokalen Maschine des Benutzers. Dieses Modell eliminiert Abonnementgebühren, macht Cloud-Abhängigkeiten überflüssig und beseitigt restriktive Ratenbegrenzungen, die oft die Produktivität behindern. "Ihre Daten bleiben bei Ihnen, Punkt", betonte Parth Sareen, ein Softwareentwickler, der das Tool demonstrierte. Diese Kernattraktivität – die vollständige Kontrolle des Benutzers über seinen KI-gestützten Workflow, einschließlich Offline-Fähigkeiten – findet bei Entwicklern, die sich Sorgen um Datenschutz und operative Freiheit machen, auch auf Flugreisen, großen Anklang.

Die Popularität des Projekts ist dramatisch gestiegen. Goose hat über 26.100 Sterne auf GitHub gesammelt, ein Beweis für seine wachsende Akzeptanz und Nützlichkeit. Mit 362 Mitwirkenden und 102 Veröffentlichungen seit seiner Gründung, einschließlich der am 19. Januar 2026 ausgelieferten Version 1.20.1, konkurriert sein Entwicklungstempo mit dem kommerzieller Produkte. Für Entwickler, die von den restriktiven Preisen und Nutzungslimits von Claude Code müde sind, repräsentiert Goose eine seltene Ware in der KI-Landschaft: eine wirklich kostenlose Lösung ohne Bedingungen für professionelle Entwicklungsarbeit.

Anthropic's Preisstreit und Entwickler-Revolte

Um die Bedeutung von Goose vollständig zu erfassen, ist es unerlässlich, die Kontroverse um die Preisgestaltung von Claude Code zu verstehen. Anthropic, ein in San Francisco ansässiges KI-Unternehmen, das von ehemaligen OpenAI-Führungskräften gegründet wurde, integriert Claude Code in seine Abonnementstufen. Der kostenlose Plan bietet keinerlei Zugriff, während der "Pro"-Plan für 17 US-Dollar pro Monat (bei jährlicher Abrechnung) oder 20 US-Dollar pro Monat eine strenge Grenze von 10 bis 40 Prompts alle fünf Stunden auferlegt – eine Einschränkung, die viele Entwickler selbst für kurze, intensive Codierungssitzungen als unzureichend empfinden.

Die höheren "Max"-Pläne zu 100 und 200 US-Dollar pro Monat bieten erhöhte Kapazität, liefern 50-200 bzw. 200-800 Prompts und gewähren Zugang zu Anthropic's fortschrittlichstem Modell, Claude 4.5 Opus. Selbst diese Premium-Angebote unterliegen jedoch Einschränkungen, die die Entwicklergemeinschaft weiter entflammt haben. Ende Juli führte Anthropic neue wöchentliche Nutzungslimits ein. Pro-Benutzer erhalten 40-80 Stunden Sonnet 4-Nutzung pro Woche, während Benutzer der 200-Dollar-Max-Stufe 240-480 Stunden Sonnet 4 und 24-40 Stunden Opus 4 erhalten. Fast fünf Monate später ist die Frustration der Entwickler immer noch spürbar.

Das Kernproblem liegt in der Interpretation dieser "Stunden". Es handelt sich nicht um buchstäbliche zeitbasierte Einheiten, sondern um tokenbasierte Limits, die je nach Faktoren wie Codebasisgröße, Gesprächslänge und Codekomplexität schwanken. Unabhängige Analysen deuten darauf hin, dass diese Limits pro Sitzung für Pro-Benutzer etwa 44.000 Token und für den 200-Dollar-Max-Plan 220.000 Token entsprechen. "Es ist verwirrend und vage", bemerkte ein Entwickler in einer weit verbreiteten Analyse und kritisierte den Mangel an praktischem Nutzen der bereitgestellten Metriken. Die Gegenreaktion auf Plattformen wie Reddit und Entwicklerforen war heftig. Benutzer berichteten, dass sie die täglichen Limits innerhalb von 30 Minuten intensiver Arbeit erreichten, während andere Abonnements vollständig kündigten und die Beschränkungen als "Witz" und "für echte Arbeit unbrauchbar" bezeichneten. Anthropic hat die Änderungen verteidigt und erklärt, sie beträfen weniger als fünf Prozent der Benutzer und zielten auf eine kontinuierliche 24/7-Nutzung ab. Das Unternehmen hat jedoch nicht klargestellt, ob sich dieser Prozentsatz auf alle Benutzer oder nur auf Max-Abonnenten bezieht, eine Unterscheidung mit erheblichen Auswirkungen.

Block's innovativer Ansatz: Der Offline-KI-Coding-Agent

Goose bietet ein grundlegend anderes Paradigma. Von Block, dem Unternehmen unter der Leitung von Jack Dorsey, entwickelt, fungiert Goose als "On-Machine-KI-Agent". Im Gegensatz zu Cloud-basierten Lösungen wie Claude Code verarbeitet Goose Anfragen lokal und nutzt Open-Source-Sprachmodelle, die Benutzer auf ihrer eigenen Hardware herunterladen und verwalten. Seine Dokumentation hebt seine Fähigkeit hervor, "mit jedem LLM zu installieren, auszuführen, zu bearbeiten und zu testen" und betont sein modellunabhängiges Design.

Diese Flexibilität ermöglicht es Entwicklern, Goose mit verschiedenen KI-Modellen zu verbinden, darunter Claude von Anthropic (via API), GPT-5 von OpenAI, Gemini von Google, oder über Dienste wie Groq oder OpenRouter zu leiten. Entscheidend ist, dass es den vollständig lokalen Betrieb mit Tools wie Ollama ermöglicht. Die praktischen Vorteile sind erheblich: keine Abonnementgebühren, keine Nutzungslimits, keine Ratenbegrenzungen und die Gewissheit, dass vertraulicher Code und Gespräche auf der Maschine des Benutzers verbleiben. "Ich benutze Ollama ständig im Flugzeug – es macht viel Spaß!", teilte Sareen mit und hob die Freiheit von Internetverbindungsbeschränkungen hervor.

Goose's fortschrittliche Fähigkeiten jenseits traditioneller Assistenten

Goose funktioniert als Befehlszeilentool oder Desktop-Anwendung, die komplexe Entwicklungsaufgaben autonom ausführen kann. Es kann Projekte initiieren, Code schreiben und ausführen, Probleme debuggen, Multi-File-Workflows verwalten und mit externen APIs interagieren, ohne ständige menschliche Aufsicht. Seine Architektur basiert auf fortschrittlichen "Tool Calling"- oder "Function Calling"-Funktionen, die es dem Sprachmodell ermöglichen, spezifische Aktionen innerhalb externer Systeme auszulösen. Wenn ein Benutzer Goose anweist, eine Datei zu erstellen, Tests auszuführen oder den Status einer GitHub-Pull-Anforderung zu überprüfen, führt es diese Operationen direkt aus.

Die Effektivität dieser Operationen hängt vom zugrunde liegenden Sprachmodell ab. Während die Claude 4-Modelle von Anthropic laut der Berkeley Function-Calling Leaderboard derzeit führend in der Tool-Calling-Leistung sind, verbessern sich Open-Source-Modelle schnell. Die Goose-Dokumentation empfiehlt Modelle wie die Llama-Serie von Meta, die Qwen-Modelle von Alibaba, die Gemma-Varianten von Google und die auf Schlussfolgerungen ausgerichteten Architekturen von DeepSeek für eine starke Tool-Calling-Unterstützung. Darüber hinaus integriert sich Goose in das aufkommende Model Context Protocol (MCP), das seine Fähigkeiten auf Datenbanken, Suchmaschinen, Dateisysteme und Drittanbieter-APIs erweitert und seine Nützlichkeit weit über die Fähigkeiten des Basis-LLM hinaus erweitert.

Goose mit einem lokalen Modell einrichten

Für Entwickler, die eine vollständig kostenlose und datenschutzfreundliche Einrichtung suchen, umfasst der Prozess drei Schlüsselkomponenten: Goose, Ollama und ein kompatibles Sprachmodell.

Schritt 1: Ollama installieren

Ollama vereinfacht die Ausführung großer Sprachmodelle lokal. Laden Sie es von ollama.com herunter und installieren Sie es. Nach der Installation können Sie ein Modell mit einem einfachen Befehl abrufen, z. B. für Codierungsaufgaben mit Qwen 2.5:

ollama run qwen2.5

Das Modell wird automatisch heruntergeladen und auf Ihrem Computer ausgeführt.

Schritt 2: Goose installieren

Goose ist sowohl als Desktop-Anwendung als auch als Befehlszeilenschnittstelle verfügbar. Die Desktop-Anwendung...

Tags: # KI-Codierung # Claude Code # Goose # Block # Anthropic # Open-Source # Entwicklerwerkzeuge # KI-Preise # Datenschutz # lokales KI # Softwareentwicklung