K12

Roboterjournalismus: Den Maschinen die Pflicht, den Menschen die Kür

15. Januar 2016 · von Verena Waldbröl · 1 Kommentar

Roboterjournalismus: Maschinen texten schnelle News, Menschen schaffen Emotionen.

Sorry, Robo-Journalist. Texte, die wirklich Spaß machen, bleiben uns Menschen vorbehalten.

90 Millionen Texte könnte die Software der Stuttgarter Agentur Aexea täglich schreiben. In menschliche Arbeitsleistung umgerechnet, wären das verdammt viele Redakteure, ein ordentlicher Batzen Gehalt und sicher auch der ein oder andere Tippfehler – sagen wir mal, im fünfstelligen Bereich? Ohne Frage: Die „Roboterjournalisten“ sind einfach schneller, billiger und gewissenhafter als der beste Redakteur. Aber auch besser?

Von automatisiertem Journalismus oder Roboterjournalismus sprechen wir, wenn Algorithmen auf Basis von (automatisch) eingepflegten Daten Texte produzieren und sie mitunter sogar selbstständig veröffentlichen. Syntax und Stil werden mit wenigen Einstellungen an die Zielgruppe angepasst. Aexea-Gründer Saim Alkan sagt, seine Software könne die Hälfte einer überregionalen Tageszeitung texten. Big Player wie die amerikanische Nachrichtenagentur Associated Press (AP) nutzen eine solche Software bereits: AP lässt seit Juli 2014 ihre Meldungen über Quartalsberichte von Unternehmen von einem Algorithmus schreiben.

Schnelle News aus der Maschine

Journalisten weltweit reagieren verständlicherweise verschnupft auf die „Robo-Kollegen“, befürchten sie doch Verdrängung und Qualitätsverlust. Noch sitzen jedoch Kollegen aus Fleisch und Blut neben mir. Das wird auch zukünftig so sein, davon bin ich überzeugt. Denn der Ruf nach „Content Marketing“ und „Storytelling“, also Inhalt mit Mehrwert, der die Leser packt, ist lauter als nie zuvor. Den aber können nur Menschen liefern.
Wenn Schreibroboter die Pflicht übernehmen, bleibt den Menschen mehr Zeit für die Kür. Soll sich der Algorithmus um schnelle News wie Wetterberichte, Polizei- oder Feinstaubmeldungen kümmern. Automatisierter Journalismus ist für solch faktenbasierte Meldungen perfekt geeignet. Oft schreibt die Software sogar Texte, die bislang einfach nicht existierten. Der Weser Kurier beispielsweise lässt als eine der ersten Zeitungen Deutschlands Fußballberichte automatisch von einer Software schreiben und deckt so auch Spiele unterer Klassen ab, die vorher nicht berücksichtigt wurden.

Software schafft Freiräume

Warum also überlassen wir den Algorithmen nicht einfach die Fließbandarbeit und machen selbst das, was mehr Spaß macht? Reportagen, Features, Hintergrundberichte und Interviews leben von der Menschlichkeit. Von den Emotionen des Autors, der Dinge ganz anders einzuordnen vermag als eine Software, seinen Sinneseindrücken und seinem Verstand.
Indem der „Robotexter“ beim Weser Kurier die Ergebnisberichterstattung übernimmt, verschafft er seinen menschlichen Kollegen Freiräume, um neue Geschichten rund um den Fußball zu generieren. Aus diesem Grund setzt übrigens auch AP eine Software ein: Die Journalisten sollen sich stärker auf Analyse und Hintergründe konzentrieren.

Texte sind kaum unterscheidbar

Artikel mit rein faktenbasierten Inhalten werden durch Roboterjournalismus immer austauschbarer. Die meisten Menschen, die computergenerierte Texte erkennen sollen, schaffen dies nicht eindeutig, hat Kommunikationswissenschaftler Mario Haim herausgefunden. „Computergenerierte Texte werden als sachlicher und glaubwürdiger empfunden, Texte von Journalistenhand hingegen sind angenehmer zu lesen“, wird er in der Zeit zitiert. Diese Aussage sollten wir als Ansporn sehen, die eigenen Texte unterscheidbar zu machen: durch Menschlichkeit, spannende Hintergrundinformationen mit Mehrwert, Unvorhersehbares und Überraschendes.
Ab Februar 2016 werden Haim und sein Kollege  Andreas Graefe von der LMU München die für die Plattform PollyVote.com generierten Meldungen über aktuelle Prognosen im US-Wahlkampf untersuchen. Daraus könnten sich neue Erkenntnisse darüber ergeben, wie Leser die Qualität computergenerierter Artikel beurteilen.

Selbst ausprobieren! Erkennen Sie computergenerierte Texte?

Arbeitserleichterung vs. Arbeitsplatzverlust

Bei aller Faszination für die clevere Technik bleibt die Kehrseite der Medaille: Je besser die Textqualität, desto sicherer ist, dass der automatisierte Journalismus Menschen ihre Jobs kosten wird. Nicht alle, die derzeit TV-Tipps schreiben, können sich stattdessen seitenlangen Reportagen widmen. Dafür entstehen vermehrt andere Aufgaben, denn jemand muss die Algorithmen anpassen, ihnen etwas beibringen und die ersten Schritte überwachen.
Und: Wo ein Algorithmus tausende Fußballmeldungen schreibt, kann er auch gefakte Produktbewertungen abgeben oder Hassbotschaften in sozialen Netzwerken loslassen. Der Siegener Politologe Simon Hegelich vermutet, dass mindestens fünf, vielleicht aber auch zwanzig Prozent der Userkommentare bei Twitter von sogenannten „social bots“ erstellt werden. Er und andere Forscher wollen in dem Projekt „Social Media Forensic“ (SoMeFo) unter anderem herausfinden, wie man solche Kommentare im Netz entlarven kann. Kein leichtes Unterfangen, denn die social bots passen ihr Verhalten immer besser an das menschliche an.

Ruf nach Transparenz?

Auch Nutzer mit ehrenwerteren Motiven werden sich Fragen zur Transparenz stellen müssen, je häufiger sie die Textsoftware einsetzen. Spätestens, wenn Fehler passieren.
–    Wer steckt hinter dem generierten Inhalt?
–    Wer hat den Algorithmus entwickelt und kontrolliert ihn?
–    Wer ist für den generierten Inhalt verantwortlich?
–    Welche Daten wurden dafür erfasst?
–    Welche Daten werden genutzt, um die News zu personalisieren?
AP-Journalist Tom Kent hat deshalb bereits eine ethische Checkliste für automatisierten Journalismus entwickelt. Ob diese Fragen die Leser wirklich interessieren, wird die Zeit zeigen.

Fazit

Roboterjournalismus lässt ohne Zweifel die Anzahl der verfügbaren News stark ansteigen. Für die Leser wird es dann immer schwerer, relevante Informationen zu finden. Die vom Algorithmus analysierten Daten und Meldungen hingegen können Journalisten helfen, spannende Stories zu entdecken. Denn nur Menschen haben ein Gespür für verlässliche Quellen. Die Maschine hingegen stößt an ihre Grenzen, wenn keine strukturierten Daten vorliegen.
Statt uns über von einer Software verfasste Meldungen über die Feinstaubbelastung aufzuregen, sollten wir lieber überlegen, wie wir uns von der Maschine unterscheiden können. Die Technologie wird sich durchsetzen. Wir Menschen sind faul und profitorientiert: Diesen Bedürfnissen entspricht der automatisierte Journalismus. Doch wir mögen auch Handgemachtes, Individuelles, und vor allem mögen wir Geschichten. Die können aber nur andere Menschen glaubhaft und mit Herzblut erzählen.

Weitere Infos

Wie Roboterjournalismus funktioniert, wie er eingesetzt wird und was das für unsere Zukunft bedeutet, steht im „Report zum Status Quo und die künftige Entwicklung des automatisierten Journalismus von Dr. Andreas Graefe“. (PDF, engl., 690KB, 48 Seiten)

Autor: Verena Waldbröl

Verena Waldbröl ist Redakteurin bei K12 – Agentur für Kommunikation und Innovation in Düsseldorf. Ob Interne oder Externe Kommunikation, Change Kommunikation oder Social Media – schöne Worte findet sie für alles. Am liebsten aber weckt sie bei den KollegInnen die Lust am kreativen Schreiben.

Ein Kommentar

Schreibe einen Kommentar

Pflichtfelder sind mit * markiert.


4 × zwei =