Künstliche Intelligenz im Mediamonitoring: Wie KI die Medienbeobachtung revolutioniert
Künstliche Intelligenz verändert derzeit rasant, wie Informationen erfasst, ausgewertet und kommuniziert werden – auch im politischen Raum. Das Berliner Unternehmen Policylead setzt auf KI-gestütztes Themenmonitoring und Medienanalysen, um Entscheidungsträgern aus Politik, Wirtschaft und Verbänden präzise und relevante Informationen bereitzustellen. Wir haben mit Geschäftsführer Julius Jasso darüber gesprochen, wie KI die Medienbeobachtung revolutioniert, welche Rolle Prompt-Kompetenz spielt und wie personalisierte Insights neue Maßstäbe in der Kommunikation setzen.
Herr Jasso, Policylead positioniert sich als KI-gestützte Plattform für Medien- und Stakeholder-Analyse im politischen Raum. Welche konkreten Technologien und innovativen Tools kommen dabei zum Einsatz?
Policylead ist ein Frühwarnsystem – ein 360°-Radar für politische Entwicklungen. Wir nutzen Künstliche Intelligenz, um enorme Datenmengen aus Politik und Medien zu analysieren und relevante Signale frühzeitig aufzuspüren. Das umfasst parlamentarische Dokumente, Positionspapiere, Social-Media-Beiträge und klassische Nachrichten. Unsere Plattform identifiziert automatisch die wichtigsten Stakeholder-Aktivitäten und bereitet diese für unsere Kunden auf. Im Grunde nehmen wir unseren Nutzern die aufwendige Recherche ab und liefern einen umfassenden Überblick – rund um die Uhr und auf allen politischen Ebenen.
Besonders stolz sind wir auf eine Reihe innovativer KI-Tools, die in Policylead integriert sind. Zum Beispiel ermöglicht unser KI-Dossier-Summary, innerhalb von Sekunden eine professionelle Zusammenfassung eines Gesetzgebungsvorhabens zu erhalten. Das heißt, aus einer Vielzahl von Artikeln und Meldungen zu einem bestimmten Thema erstellt die KI ein prägnantes Executive Summary – komplett mit intelligenten Verknüpfungen zu Originalquellen und sogar eigenen Dokumenten des Nutzers.
Ein weiteres Highlight ist der KI-Analyst in Microsoft Teams: Dabei handelt es sich um einen KI-Assistenten, den wir in die Arbeitsumgebung unserer Kunden integrieren. Auf Knopfdruck generiert er ein Stakeholder-Briefing zu gewünschten Themen – inklusive Steckbrief der Akteure oder einer KI-gestützten Zusammenfassung der aktuellen Lage und einer Auflistung der Quellendokumente.
Wie gelingt es Ihnen, daraus personalisierte und zielgruppenspezifische Insights für Akteure wie Verbände, Ministerien oder Unternehmen zu generieren?
Die Tiefe an Analyse und Modularität erlaubt es uns, die Auswertungen passgenau auf unterschiedliche Zielgruppen zuzuschneiden. Denn ein Spitzenverband benötigt oft ganz andere Informationen als ein Fachministerium oder ein mittelständisches Unternehmen. Wir orientieren uns dabei nicht nur an thematischen Schwerpunkten, sondern auch am konkreten Informationsbedarf einzelner Nutzer – etwa ob regulatorische Risiken, öffentliche Positionierungen oder Netzwerkdynamiken im Fokus stehen sollen.
Die Individualisierung der Inhalte und Beobachtungsparameter erfolgt zunächst gemeinsam mit unserem Kundenservice: In einem strukturierten Onboarding-Prozess definieren wir gemeinsam mit dem Kunden relevante Themenfelder, Stakeholder-Gruppen, Prompt-Einstellungen und Analyseformate. So erhält beispielsweise ein Verband ein wöchentliches Briefing zu für ihn relevanten Gesetzesinitiativen, während ein Ministerialbeamter gezielt über Positionswechsel bestimmter Akteure informiert wird.
Technisch umgesetzt wird diese Personalisierung über individualisierbare Dashboards, Filter und Alert-Funktionen. Mit unserem Stakeholder-Tracking können Nutzer gezielt Organisationen oder Personen beobachten und sehen in Echtzeit, was ihre Stakeholder sagen oder unternehmen. Ein weiteres Feature ist unser Policylead-Kompass – eine interaktive Übersicht zu politischen Vorgängen, die Dokumente wie Tagesordnungen oder Drucksachen automatisch den entsprechenden Initiativen zuordnet und die zuständigen Ausschüsse sowie federführenden Berichterstatter listet.
Alle diese Komponenten greifen nahtlos ineinander und machen Policylead zu einer leistungsstarken 360°-Monitoring-Plattform für Politik und Medienanalyse. Und das Beste daran: Die vorkonfigurierte Beobachtung lässt sich bei Bedarf jederzeit durch den Nutzer selbstständig anpassen und erweitern. Damit kombinieren wir den Komfort eines maßgeschneiderten Einstiegs mit der Flexibilität einer eigenständig steuerbaren Monitoring-Plattform – genau abgestimmt auf die individuellen Anforderungen unserer Kunden.
Mit welchen technologischen Herausforderungen sind Sie konfrontiert, wenn Sie KI im Politik- und Medienmonitoring einsetzen? Wie stellen Sie sicher, dass KI-Komponenten, insbesondere generative Modelle, verlässlich arbeiten und keine „Halluzinationen“ produzieren?
Eine der größten Herausforderungen ist sicherlich die schiere Datenmenge, die wir abdecken. Wir sprechen von zehntausenden Quellen – von Parlamentsdokumenten über Nachrichtenartikel bis Tweets – die kontinuierlich ausgewertet werden. Daraus verlässlich die relevanten Informationen herauszufiltern, ist ohne KI und Automatisierung kaum noch machbar. Gleichzeitig müssen wir darauf achten, dass die KI die Inhalte wirklich versteht. Politische Sprache kann sehr komplex sein: Denken Sie an juristische Formulierungen in Gesetzentwürfen oder ironische Untertöne in Debattenbeiträgen. Ein Sprachmodell wie GPT ist immens leistungsfähig, neigt aber auch dazu, Dinge zu halluzinieren oder Zusammenhänge falsch zu deuten, wenn es nicht richtig geführt wird. Wir stehen also vor der Aufgabe, unsere KI-Modelle so zu trainieren und einzusetzen, dass sie mit Kontext, Spracheigenheiten und Mehrdeutigkeiten in denTexten umgehen können. Außerdem spielt Aktualität eine Rolle: Politische Entwicklungen ändern sich täglich, und ein Modell muss immer auf dem neuesten Stand sein – technisch ist das ein fortlaufender Aufwand, Datenfeeds und Modelle aktuell zu halten. Nicht zuletzt müssen wir natürlich Performance und Datenschutz balancieren, wenn wir externe KI-Services einbinden – doch dazu können wir gleich noch kommen.
Mit unserer KI-Cluster-Analyse lassen sich auf Knopfdruck die Positionen verschiedener Stakeholder zu einem Thema auswerten, inklusive der Frage, wer innerhalb einer Partei vielleicht eine abweichende Meinung vertritt. Solche Ausreißer zu erkennen, ist für unsere Kunden ungemein wertvoll. Gleichzeitig ermöglichen Trendanalysen, Veränderungen im Zeitverlauf darzustellen – unsere KI zeigt etwa, wenn ein Thema über Wochen hinweg an Fahrt gewinnt oder die Tonalität in der Berichterstattung plötzlich kippt. All das verschafft unseren Nutzern einen Wissensvorsprung. Insgesamt können wir dank KI schneller, tiefer und umfassender analysieren als je zuvor. Die Technologie gibt uns die Möglichkeit, aus der Datenflut echte Insights und Prognosen zu generieren – ein Potenzial, das vor wenigen Jahren so noch nicht denkbar war.
Um die Verlässlichkeit generativer Modelle sicherzustellen, verfolgen wir bei Policylead einen methodischen Multi-Ebenen-Ansatz. Zentrale Prinzipien dabei sind Transparenz, Quellenverweis und das sogenannte „Human-in-the-Loop“-Verfahren. Konkret bedeutet das: Jeder generierte Output – etwa ein Dossier-Summary oder ein Stakeholder-Briefing – wird mit klaren Verlinkungen zu den zugrunde liegenden Originalquellen angereichert. So bleibt die Analyse jederzeit nachvollziehbar und überprüfbar. Zusätzlich arbeiten wir mit vordefinierten Prompt-Vorlagen, die das Modell gezielt führen und Fehlinterpretationen reduzieren. Besonders bei sensiblen Inhalten greifen unsere Redaktionsteams ein und prüfen die generierten Ergebnisse systematisch auf Kohärenz, inhaltliche Korrektheit und semantische Konsistenz. Dieses Zusammenspiel aus technischer Kontrolle, intelligenter Prompt-Gestaltung und menschlicher Qualitätsprüfung ist essentiell, um Halluzinationen vorzubeugen und die Integrität der Analyseergebnisse dauerhaft zu sichern.
Welche Rolle spielt Prompt Engineering in Ihrem Workflow – und wie schulen Sie Ihre Mitarbeitenden oder Kunden, um effektive Prompts für Medienanalysen zu entwickeln?
Prompt Engineering spielt bei Policylead eine zentrale Rolle – denn die Qualität der Analyse hängt maßgeblich davon ab, wie präzise und kontextsensibel eine Anfrage an das Sprachmodell formuliert ist. Gerade im Politikmonitoring, wo Nuancen, Sprachbilder oder implizite Positionierungen entscheidend sein können, ist es essentiell, Prompts nicht dem Zufall zu überlassen. Wir haben in unseren internen Prozessen eigene Prompt-Bibliotheken aufgebaut, die für verschiedene Analyse-Use-Cases optimiert sind – etwa für Stakeholder-Briefings, Dossier-Zusammenfassungen oder Tonalitätsanalysen. Diese Vorlagen optimieren wir kontinuierlich anhand von Use Cases, Nutzerfeedback und Modellverhalten.
Für unsere Mitarbeitenden und Kunden geben wir konkrete Prompting-Tipps mit an die Hand, etwa:
- Kontext mitliefern:
Politische Kommunikation ist selten eindeutig. Ein Prompt wie „Fasse die Position dieses Dokuments zusammen“ bleibt zu vage. Besser: „Fasse die Position des Berichterstatters zur CO2-Grenzabgabe aus diesem Dokument für einen Umweltverband zusammen – achte auf parteipolitische Einordnung und Argumentationsstruktur.“ - Rollen definieren:
Sprachmodelle verhalten sich anders, je nachdem, welche Rolle ihnen zugewiesen wird. Prompts wie „Du bist politischer Analyst mit Fokus auf europäische Regulatorik“ helfen, die Tonalität und Fachlichkeit der Antwort gezielt zu steuern. - Fragen statt Befehle:
Statt „Erstelle eine Analyse“ lieber mit konkreten Fragen arbeiten: „Welche Risiken und Chancen nennt der Autor in Bezug auf die vorgeschlagene Richtlinie?“ Das führt oft zu strukturierteren und treffsichereren Antworten. - Beispielhafte Struktur vorgeben (Few-shot):
Ein kurzes Beispiel für die gewünschte Struktur – z. B. ein exemplarisches Briefing – kann die Qualität der generierten Inhalte deutlich verbessern. - Sensibilität für Sprache und Bias:
Besonders im politischen Raum ist es wichtig, Prompts so zu formulieren, dass sie keine unbeabsichtigten Wertungen verstärken. Wir empfehlen daher neutrale Fragestellungen und gegebenenfalls die Einbindung unterschiedlicher Perspektiven in der Analyse.
Unsere Vision ist es, nicht nur technologische Lösungen zu liefern, sondern auch unsere Nutzer in die Lage zu versetzen, die neuen Werkzeuge kompetent und reflektiert einzusetzen. Denn gerade in diesem Kontext braucht es Sorgfalt, Präzision – und ein gutes Verständnis dafür, wie man eine KI „richtig fragt“. Ziel ist, dass Nutzer nicht nur verstehen, dass KI eine gute Analyse liefern kann, sondern auch wie sie diese selbst beeinflussen und absichern können.
Künstliche Intelligenz wirft auch Fragen zu Transparenz, Datenschutz und möglicher algorithmischer Verzerrung auf. Wie gehen Sie bei Policylead mit diesen Themen um? Was tun Sie, um das Vertrauen Ihrer Kunden und der Öffentlichkeit in Ihre KI-Lösungen zu gewinnen und zu erhalten?
Für uns hat ein verantwortungsbewusster KI-Einsatz oberste Priorität. Konkret bedeutet das zuerst: Transparenz. Unsere Nutzer sollen jederzeit nachvollziehen können, wie eine Analyse zustande kommt. Wenn unsere KI also beispielsweise einen Parlamentsbericht zusammenfasst oder einen „Alert“ auslöst, liefern wir immer einen direkten Verweis zur Originalquelle mit. Auf diese Weise bleibt nichts eine Black Box – der Nutzer kann selbst prüfen, was im Originaldokument steht, und die KI-Ergebnisse verifizieren. Außerdem kennzeichnen wir KI-generierte Inhalte entsprechend, sodass klar ist, wo eine menschliche Redaktion im Spiel war und wo die Maschine. Apropos menschliche Redaktion: Ein Teil unserer Dienstleistung besteht ja bewusst darin, KI und menschliche Expertise zu kombinieren. Wir haben ein Redaktionsteam, das beispielsweise kuratierte Dossiers und Executive Summaries erstellt. Diese Experten prüfen auch die Output unserer KI-Module, besonders wenn es um heikle inhaltliche Punkte geht. Dieses Vier-Augen-Prinzip – KI plus Human-in-the-loop – hilft uns, Verzerrungen oder Fehler der Algorithmen früh aufzufangen. Sollte die KI mal „danebengreifen“, merken wir das und können korrigierend eingreifen, bevor Informationen zum Kunden gehen.
Datenschutz ist der zweite zentrale Aspekt. Unsere Plattform verarbeitet viele Daten, aber wir achten penibel darauf, die Vorgaben der DSGVO und verwandter Vorschriften einzuhalten. Alle Kundendaten und individuellen Einstellungen werden vertraulich behandelt und sicher gespeichert – wir hosten in Deutschland und setzen auf moderne Verschlüsselung. Wenn wir externe KI-Dienste wie GPT integrieren, schicken wir keine sensiblen Rohdaten ungeschützt über die Leitungen. Tatsächlich verfolgen wir hier oft eine hybride Strategie: führende KI-Modelle nutzen, aber unter unserer Kontrolle. Beispielsweise setzen wir bei Bedarf auf Open-Source-Modelle wie Llama2 in unserer Infrastruktur, wenn ein Kunde besonders hohe Datenschutzanforderungen hat – so verlässt kein Datensatz das System nach draußen. Schließlich das Thema algorithmische Bias (Verzerrung): Uns ist bewusst, dass Sprachmodelle Vorurteile aus Trainingsdaten übernehmen können. Dem begegnen wir durch sorgfältiges Fine-Tuning und Tests. Unsere Datenbasis für die KI ist sehr breit und umfasst diverse Quellen, damit keine einseitige Perspektive dominiert. Zusätzlich behalten unsere Analysten ein wachsames Auge darauf, ob die Ergebnisse „schieflastig“ sind. Wichtig ist uns auch, offen über die Grenzen der KI zu kommunizieren. Wenn eine KI-Auswertung mal Unsicherheit enthält, scheuen wir uns nicht, das dem Nutzer zu sagen. Vertrauen gewinnt man aus unserer Sicht durch Qualität, Transparenz und Dialog. Wir zeigen unseren Kunden gerne, wie unsere Algorithmen arbeiten, welche Metriken wir verwenden, und stehen für Nachfragen bereit – zum Beispiel erläutern wir in Beratungsgesprächen genau unsere Methodik und Metriken. Insgesamt gilt: Wir wollen, dass KI bei Policylead ein vertrauenswürdiges Werkzeug ist. Deshalb investieren wir viel in datenschutzkonforme Prozesse und Bias-Kontrollen. Vertrauen ist die Grundlage unseres Geschäfts – nur wenn unsere Kunden sich auf die Ergebnisse verlassen können, werden sie KI-basierte Tools langfristig akzeptieren.
Abschließend ein Blick nach vorn: Wie wird sich das Monitoring und die Medienanalyse in den kommenden Jahren entwickeln? Welche Rolle wird Generative KI dabei spielen, und was sind spannende Use Cases von morgen?
Ich bin überzeugt, dass wir hier vor einer sehr aufregenden Entwicklung stehen. Wir beobachten bereits jetzt einen Wandel von KI-unterstützten hin zu echten KI-zentrierten Anwendungen. In Zukunft wird KI noch viel stärker zum integralen Bestandteil von Monitoring-Tools werden – manche sprechen vom Konzept „AI-first“, also dass Anwendungen von Grund auf um die Möglichkeiten der KI herum gebaut werden. Das bedeutet: Die Systeme der Zukunft werden noch proaktiver agieren. Ein Monitoring-Tool könnte z. B. eigenständig erkennen, dass zu Ihrem Thema gerade etwas Relevantes passiert, und Sie automatisch benachrichtigen, inklusive Einschätzung, ohne dass Sie überhaupt eine Abfrage starten müssen. KI wird uns erlauben, quasi einen persönlichen politischen Assistenten an unserer Seite zu haben, der dauerhaft mitscannt und vorsortiert.
Generative KI im Speziellen wird dabei eine Schlüsselrolle spielen. Die rasante Entwicklung der großen Sprachmodelle wird sich nämlich weiter fortsetzen. Wir werden Modelle sehen, die noch leistungsfähiger und spezialisierter sind – etwa besser auf Deutsch und politische Texte zugeschnitten. Ein Trend ist auch die Multimodalität: KI-Systeme lernen, verschiedene Arten von Daten gleichzeitig zu verarbeiten. Im Klartext heißt das, künftige Lösungen werden nicht nur Text, sondern ebenso Audio und Video analysieren können. Man kann sich vorstellen, dass ein System eine Fernsehdebatte live transkribiert, gleich mehrsprachig zusammenfasst und die Stimmung der Redner analysiert. Oder dass Social-Media-Videos automatisiert darauf geprüft werden, welche Botschaften darin stecken. Solche Fähigkeiten würden das Monitoring noch umfassender machen – schließlich spielt sich politische Kommunikation längst nicht mehr nur auf Papier ab, sondern in Posts, Streams und Clips. Wir bei Policylead integrieren bereits heute sehr viele Quellen (von Social Media, Podcasts bis TV); in Zukunft wird die KI diese Vielfalt noch besser gleichzeitig durchdringen können.
Ein weiterer wichtiger Punkt ist die Interaktivität und Personalisierung von KI. Die Nutzung wird viel dialogorientierter: Man wird einer Monitoring-KI künftig in natürlicher Sprache Fragen stellen können – so wie wir uns gerade unterhalten – und prompt maßgeschneiderte Antworten erhalten. Ich stelle mir vor, dass ein Kunde die KI fragt: „Welche politischen Vorstöße und Stakeholder muss ich diese Woche für meine Branche auf dem Schirm haben?“ und das System liefert daraufhin einen individuellen Wochenausblick, spezifisch für sein Anliegen inklusive aussagekräftiger Rankings, Heatmaps und anderen Charts. Generative KI kann hier sogar den nächsten Schritt gehen und Handlungsempfehlungen skizzieren – natürlich immer mit Vorsicht zu genießen, aber als zusätzliche Entscheidungshilfe.
Spannend ist auch das Feld der predictive analysis: Wenn man die Muster der Vergangenheit und die Echtzeit-Daten von heute kombiniert, kann KI künftig Entwicklungen antizipieren. Sie könnte zum Beispiel früh signalisieren, dass ein bislang wenig beachteter Akteur zum Meinungsmacher von morgen wird – quasi einen „Hidden Champion“ identifizieren, noch bevor er oder sie größere Bekanntheit erlangt. Oder denken Sie an Szenario-Simulationen: KI könnte durchrechnen, wie sich die Stimmung zu einem Thema verändern könnte, falls X oder Y passiert, was Entscheidungsträger daraus folgern könnten usw. All das klingt futuristisch, ist aber gar nicht so fern. Wichtig ist: Diese Technik soll den Menschen nicht ersetzen, sondern ihm lästige Fleißarbeit abnehmen. Strategische Entscheidungen und Bewertungen bleiben bei uns Menschen – aber die KI liefert uns bis dahin die bestmögliche Informationsbasis, und das in Lichtgeschwindigkeit. Zusammengefasst glaube ich, dass wir in den kommenden Jahren immer intelligentere, schnellere und intuitivere Tools im Monitoring sehen werden. Die Zusammenarbeit von menschlicher Expertise und generativer KI wird neue Möglichkeiten schaffen, politische Entwicklungen zu verstehen und darauf zu reagieren. Die Aufgabe einer Plattform wie Policylead ist es, für die Agenten-Mensch-Interaktion reibungslose Analyse-flows und intuitive Interaktionsflächen zu schaffen. So wollen wir die Zukunft von KI-Anwendungen mitgestalten.
Autorenhinweis:
Das Interview führte die Redaktion der PresseBox, dem führenden PR-Portal für Unternehmenskommunikation im Technologiebereich im DACH-Raum. Das Monitoring-Tool von PresseBox erfasst und analysiert in Echtzeit automatisiert sämtliche Online-Veröffentlichungen, die mit zuvor definierten Keywords in Verbindung stehen. Weitere Beiträge zu Innovationen rund um Künstliche Intelligenz und Kommunikation finden Sie unter pressebox.de.
Hinweis: Aus Gründen der besseren Lesbarkeit wird auf die gleichzeitige Verwendung der Sprachformen männlich, weiblich und divers (m/w/d) verzichtet. Sämtliche Personenbezeichnungen gelten gleichermaßen für alle Geschlechter.