Presse-Informationen
Telepolis

  1. Heise Gruppe
  2. Presse-Informationen
  3. Telepolis

Neues Telepolis-Buch beleuchtet Algorithmen, die Inhalte produzieren und unser Denken beeinflussen
Roboterjournalismus, Chatbots & Co.

Hannover, 5. November 2018 – Google, Facebook & Co. be­glücken uns mit immer mehr automatisch erzeugten Inhalten. Effiziente Algorithmen produzieren Texte, Bilder sowie Filme und ersetzen den Menschen als Urheber. Telepolis-Buchautor Stefan Weber fordert in seinem neuen Buch „Roboterjournalismus, Chatbots & Co.“ eine Kenn­zeich­nungspflicht und verbindliche Herkunftsangaben für automatisch erstellte Inhalte. Seiner Meinung nach könnten diese Regeln auch das Problem der Social Bots lösen. Wahl- und Entscheidungsmanipulationen wären dann – was ihren automatisierten Charakter anbelangt – transparent.

Automatisch generierte Zeitungsartikel, Hotelbeschreibungen auf Google Maps, Fotoalben von Facebook, Produktbewer­tungen oder Kommentare: Immer häufiger kommen Chatbots, Sprach-, Schreib- und Meinungs­robo­ter zum Einsatz. Vielen sind sie ein Begriff durch vermu­tete Wahlmanipulationen oder Schlag­zeilen zu Hass­kommen­taren in sozialen Netzwerken. In seinem neuen Telepolis-Buch zeichnet Universitätslektor und Plagiats­gutachter Dr. Stefan Weber die Entwicklung der dahinter­stehenden Technologien nach. Gesellschafts­politisch Interessierte erhalten ein umfassendes, aber leicht verständliches Bild der Anwendungen und ihrer zukünftigen Entwicklung.

„In zehn Jahren wird die Mehrheit der Inhalte von einer Software hergestellt werden“, zitiert der Autor Joe Pulizzi vom Content Marketing Institute und fordert gleichzeitig eine sofortige Debatte zum Umgang mit automatisch erzeugter Information und automatisierter Kommunikation. Die neuralgischen Punkte sind aus seiner Sicht das Urheberrecht und die Kennzeichnungspflicht. Automatisch generierte Inhalte fänden keine Erwähnung in Urheberrechtsgesetzen, die „Software als Autor“ sei derzeit eine Gesetzeslücke und beträfe sogar die Debatte um die neue EU-Urheberrechtsrichtlinie.

Zudem sollte die Kennzeichnungspflicht nicht nur für den Journalismus gelten, sondern vor allem auch für die Big Five, für Amazon, Apple, Facebook, Google und Microsoft, die sich bislang allen Diskussionen entzogen haben. Weber beruft sich dabei auf Interviewanfragen bei Googles Österreich-Sprecher Wolfgang Fasching, der ihm antwortete: „Leider ist mir kein Experte für dieses Thema in Europa bekannt und in absehbarer Zeit ist es nicht realistisch, darüber hinaus jemanden auf globaler Ebene ausfindig zu machen.“ Die Berliner PR-Agentur von Facebook APCO sagte zu Weber ganz offen: „Dazu sagt Facebook nichts.“ Auch dem Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag erging es im Jahr 2016 nicht anders: „Vertreter von sozialen Netzwerken wie Facebook und Twitter konnten trotz intensiver Bemühungen nicht für ein Interview gewonnen werden. Auch der Internetversandhandel Amazon und das IT-Unternehmen Microsoft haben sich auf unsere Anfragen nicht zurückgemeldet.“

Über den Autor: Dozent Dr. Stefan Weber, geboren 1970 in Salzburg. Universitätslektor an der Universität Wien und Senior Researcher der Research Studios Austria. Bekannt wurde er als Plagiatsgutachter und Verfasser kulturkritischer Bücher zum Wandel der Textkultur durch die Digitalisierung wie „Das Google-Copy-Paste-Syndrom“, 2. Auflage dpunkt/Telepolis 2008, und „Die Medialisierungsfalle“. Er bloggt unter https://plagiatsgutachten.de/blog.

Zu Interviews steht der Autor gern zur Verfügung.

Bibliografische Angaben:
Stefan Weber
Roboterjournalismus, Chatbots & Co.
Wie Algorithmen Inhalte produzieren und unser Denken beeinflussen

Taschenbuch
137 Seiten
Heise Medien GmbH & Co KG
16,95 Euro ISBN 978-3957881045