KI-Radio: Automatisierte Radiosendungen auf Knopfdruck
Die Idee:
Ein vollautomatisches Radioprogramm, generiert durch KI – mit frei wählbaren Themen und zufälliger Musikeinspielung. Wie bei einem klassischen Radiosender, nur ohne menschlichen Moderator.
Das Konzept ist simpel: Knopf drücken, Sendung läuft. Über ein UI lassen sich Themen in einer Tabelle definieren, und aus einer Musikdatenbank wird per Zufallsprinzip passende Musik eingespielt.
Sendungsaufbau:
-
Kurzes Intro
-
Moderation zu einem vorgewählten Thema (Gesprächsdauer einstellbar)
-
Musikeinspielung
-
Weitere Moderationsblöcke zum Thema (Anzahl frei wählbar)
-
Wetterinfo (Temperatur etc.) – zufällig eingestreut
-
Abmoderation
Technische Umsetzung:
-
Getestet wurden Llama 3.1:8B und später Gemma3:27B. Der Qualitätssprung zu Gemma3:27B ist beachtlich.
-
Stimme über die kostenlose Stimme "Katja"von Microsoft. Die Stimme ist nicht sonderlich gut, aber das Beste, was ich kostenlos bekommen habe. Klingt leider sehr nach "Synthetik".
-
Weiter Version über elevenlabs. Kostenpflichtig.
Die Sendung wird von mir "vorproduziert" und als Audiodatei (mp3) ausgegeben – damit auf jedem Rechner abspielbar.
Vorteile: Sendungen lassen sich vorproduzieren und archivieren.
Ausblick: Ein autonomes Live-Radio ist das nächste Ziel.
Projektstatus: Ich experimentiere bei den verschiedenen Sendungen mit Stimme, Musik, Häufigkeit der Sequenzen.
Beispielsendungen KI-Radio: (Stream über wix)
1. Sendung Äypten (20,49 Minuten)
-
Thema: Meine Vorgaben an das Sprachmodell sind Urlaub Ägypten und Reise nach Kairo.
-
Umsetzung: Reines Modellwissen, aktuelles Wetter über API eingeholt. Orte für Wetter frei wählbar.
-
Modell Geamm3 :27B
-
Stimme API elevenlaps.
-
Musik mit KI "Suno" produziert.
Fazit:
Das KI-Radio läuft. Das Modell Gemma3:27B arbeitet lokal bei mir auf dem PC – und überrascht.
Klar, weit entfernt von den Parameterzahlen der Großen, aber erstaunlich nah an brauchbaren Ergebnissen.
Für ein KI-Radio? Durchaus geeignet.
Die Stimme selbst als API in der "Produktion" hakelt hier und da, bleibt aber im akzeptablen Bereich.
Lokale KI ist erwachsen geworden – nicht perfekt, aber nutzbar.
Die Begrenzung für größere Modelle ist die Hardware. Beim mir leider nur 12 GB GPU.
