whisper.cpp
Synthese
whisper.cpp ist eine C/C++-Port des OpenAI-Whisper-Modells, entwickelt von Georgi Gerganov, der auch llama.cpp initiiert hat. Ziel ist hochperformante, dependency-freie Inferenz auf Consumer-Hardware – ohne Python-Stack, ohne GPU-Pflicht.
Der Port nutzt GGML als eigene Tensor-Bibliothek und unterstützt quantisierte Modellgewichte, wodurch selbst große Whisper-Varianten (large) auf einem MacBook lokal laufen. Apple Silicon wird über Metal/Core ML beschleunigt, CUDA und OpenCL sind ebenfalls integriert.
Praktisch relevant ist whisper.cpp vor allem für Offline-Transkription, Echtzeit-Audio-Verarbeitung und Einbettung in native Applikationen, da die Bibliothek als einfach kompilierbare Abhängigkeit eingebunden werden kann. Die Community hat zahlreiche Bindings (Python, Go, Rust, Node) beigesteuert, ohne den C++-Kern zu verlassen.