WirtschaftsRundschauWirtschaftsRundschauWirtschaftsRundschau
  • Home
  • Wirtschaft
    Wirtschaft
    Die Kategorie „Wirtschaft“ in der WirtschaftsRundschau bietet umfassende Berichterstattung und Analysen zu nationalen und internationalen Wirtschaftsthemen. Hier finden Leser aktuelle Informationen zu Finanzmärkten, Unternehmensentwicklungen, Wirtschaftspolitik…
    Mehr laden
    Top Schlagzeilen
    Börsen-Ticker: DAX verliert, im Fokus Douglas und Aroundtown
    29. Mai 2024
    Nächste Förderrunde für Heizungstausch gestartet
    29. Mai 2024
    Unternehmen in Schieflage: Stadt Kelheim hilft Faserhersteller
    29. Mai 2024
    Neuste Schlagzeilen
    Wie der Iran-Krieg den Allgäuer Logistikkonzern Dachser trifft
    17. April 2026
    Hormus-Sperre: Können Containerschiffe nicht andere Wege nutzen?
    17. April 2026
    „Notgroschen“: Diese finanziellen Rücklagen sollten Sie haben
    17. April 2026
    Lufthansa Cityline wird früher als geplant stillgelegt
    17. April 2026
  • Netzwelt
    NetzweltMehr laden
    Amazon kauft Satelliten-Firma Globalstar: Was steckt dahinter?
    15. April 2026
    WhatsApp führt Nutzername ein – darauf sollte man achten
    14. April 2026
    Russische Hacker greifen deutsche Router an
    13. April 2026
    Schluss mit Hintergrund-Lärm – „neue“ Funktion bei WhatsApp
    13. April 2026
    Jobs durch KI bedroht? Soziologe sagt: Wandel ja, Verlust nein
    12. April 2026
  • Wissen
    WissenMehr laden
    Oft schutzlos ausgeliefert: Wie jeder Wiesenbrütern helfen kann
    17. April 2026
    Wie effizient sind Kraftwerke auf Brennstoffzellen-Basis?
    17. April 2026
    Mehr Kinderschutz im Netz: App zur Altersprüfung soll kommen
    16. April 2026
    Wie Super-Recognizer Gesichter wiedererkennen
    16. April 2026
    „Ein Game Changer“: Wie blinde Menschen KI nutzen
    16. April 2026
  • Kultur
    KulturMehr laden
    Die Bestseller-Verfilmung „Allegro Pastell“
    17. April 2026
    Staffel 2: Weniger „Beef“ als beim Vorgänger
    17. April 2026
    Schneegestöber in Québec: So kühl ist die GOP-Show „Seasons“
    17. April 2026
    Verleger warnt vor Putins Zensur: Jedes zweite Buch gefährdet
    17. April 2026
    „Der rosarote Elefant“: Wie ein Trauma eine ganze Familie prägt
    17. April 2026
  • Lesezeichen
Gerade: #Faktenfuchs: Wie viele Fake-Profile gibt es auf Social Media?
Teilen
Benachrichtigungen
Schriftgröße ändernAa
WirtschaftsRundschauWirtschaftsRundschau
Schriftgröße ändernAa
  • Wirtschaft
  • Wissen
  • Kultur
  • Netzwelt
  • Home
  • Wirtschaft
  • Netzwelt
  • Wissen
  • Kultur
  • Lesezeichen
WirtschaftsRundschau > Nachrichten > Netzwelt > #Faktenfuchs: Wie viele Fake-Profile gibt es auf Social Media?
Netzwelt

#Faktenfuchs: Wie viele Fake-Profile gibt es auf Social Media?

Benjamin Lehmann
Zuletzt aktualisert 17. April 2026 22:47
Von Benjamin Lehmann
Teilen
17 min. Lesezeit
Teilen

 

Darum geht’s:

Inhaltsübersicht
Welche Zahlen zu Fake-Profilen haben die Plattformen selbst?Gelöschte Fake-Profile als AnhaltspunktFacebook und Instagram: Keine oder nur weltweite Zahlen für gelöschte AccountsUnvollständige Berichte können grundsätzlich Strafen nach sich ziehenWissenschaftliche Studien haben ein GrundproblemWie kann man Fake-Profile überhaupt erkennen?Eine hundertprozentige Fake-Erkennung gibt es nichtCoordinated Inauthentic Behavior: Verhalten mehrerer Accounts verrät mehr als ein ProfilCIB-Kampagnen werden regelmäßig aufgedecktWichtig für User: Bei Zweifeln so viel Umfeld wie möglich betrachtenFazit
  • Mit Fake-Accounts und -Profilen können Social-Media-Nutzer getäuscht und manipuliert werden. Es gibt verschiedene Kategorien davon.
  • Welcher Account oder Profil allerdings authentisch ist oder fake, ist für Außenstehende schwer mit letzter Sicherheit festzustellen. Bei der Klassifizierung können Fehler passieren.
  • Deswegen ist es schwierig, eine Gesamtanzahl oder einen prozentualen Anteil auf den Social-Media-Plattformen zu beziffern. Anhaltspunkte liefern Löschzahlen der Plattformen oder die Analyse von mehreren Accounts statt einem.

Auf Social Media kann man in den meisten Fällen anonym bleiben. Die großen Plattformen haben zwar Richtlinien, die zum Beispiel Fake-Profile oder automatisch betriebene Accounts untersagen. Sie entfernen solche Profile nach eigenen Aussagen auch.

Um festzustellen, dass es sie gibt, reicht ein Blick auf Social Media. Accounts oder Profile auf Plattformen wie Instagram, Facebook, Youtube oder TikTok gibt es mit Fantasienamen, einem Pseudonym oder wirren Buchstabenreihen, ohne Profilbild oder mit nichtssagenden Motiven.

Auch dass eine Person mehrere Accounts und Profile betreibt, ist möglich. Ein Account ist das Konto, das eine Person bei einer Plattform anlegt, das Profil ist der (öffentlich) sichtbare Auftritt, wo die Person Inhalte postet.

Ob dahinter eine Privatperson oder staatlich gelenkte Bots oder Trolle stecken, ist in der Regel nicht zu erkennen. Für Nutzer stellt sich die Frage: Welche Profile sind authentisch? In welchem Ausmaß manipulieren sie, was auf den Timelines zu sehen ist? Wie viele Fake-Accounts und -Profile gibt es auf welchen Plattformen? Und wie kann man sie entlarven?

Welche Zahlen zu Fake-Profilen haben die Plattformen selbst?

Schon die Definition, was als „Fake-Profil oder -account“ zählt, ist komplex. Verschiedene Begriffe beschreiben solche Accounts:

  • Alter Ego: Profil, das eine Person (mit Klarnamen oder Pseudonym) händisch betreibt.
  • Social Bot: Profil, das automatisiert betrieben wird und mit anderen Profilen auf Social Media interagiert. Ein solches Profil muss keinen böswilligen Hintergrund haben, es gibt auch Bots, die dies offenlegen.
  • Sockenpuppen (englisch: sock puppets): Händisch betriebene Profile, aber die Verbindung zu der Person, die sie betreibt, soll verschleiert werden.
  • Fake-Profil: Oberbegriff für alle möglichen Arten von nicht-authentischen Profilen. Zum Beispiel ein Profil, das eine reale Person nachahmt.

Die Betreiber der meistgenutzten Social-Media-Plattformen machen keine genauen Zahlen dazu öffentlich, wie viele ihrer Accounts sie selbst als „Fake“ definieren. Der #Faktenfuchs hat einige der Unternehmen angefragt, aber keine solchen Zahlen oder Antworten erhalten.

Die meistgenutzten Social-Media-Plattformen der deutschsprechenden Bevölkerung in Deutschland ab 14 Jahren sind laut der ARD/ZDF-Medienstudie in absteigender Reihenfolge Youtube, Instagram, Facebook und TikTok.

Meta, das Unternehmen hinter Facebook und Instagram, veröffentlicht in einem Bericht auf der Unternehmenswebseite nur eine Prozentzahl. Im vierten Quartal 2025 hätten weniger als fünf Prozent der weltweit täglich aktiven Nutzer aller Meta-Apps gegen die Nutzungsbedingungen verstoßen, die Fake-Accounts verbieten. Wie diese Zahl zustande kommt, wird allerdings nicht erläutert.

Gelöschte Fake-Profile als Anhaltspunkt

Teilweise öffentlich ist aber die Zahl der Accounts, die die Plattformen als „Fake-Accounts“ löschen. Denn nach dem Code of Conduct on Disinformation unter dem Digital Services Act (DSA) müssen die Betreiber regelmäßig Transparenzberichte erstellen.

In diesen Transparenzberichten sollen die Plattformen die Anzahl der Maßnahmen auflisten, die sie gegen verschiedene Desinformationstechniken und -taktiken ergriffen haben, aufgeschlüsselt nach EU-Staaten. Dazu zählt auch die „Erstellung und Nutzung von Fake-Accounts, Account-Übernahmen und Bot-getriebene Verstärkung“.

Manche Plattformen weisen in ihren Berichten diese Kategorie gesondert aus. Youtube hat im zweiten Halbjahr 2025 EU-weit 336.934 „nicht-authentische Accounts oder Bot-Netze“ gelöscht. Zum Vergleich: Laut eigenen Aussagen hatte Youtube im selben Zeitraum pro Monat durchschnittlich 479 Millionen „aktive angemeldete Nutzer“ in der EU. Das wären sogar mehr als es EU-Bürger gibt. Die 479 Millionen können allerdings durch Doppelzählungen erhöht sein, zum Beispiel wenn ein Nutzer mehrere Geräte hat, heißt es im entsprechenden Bericht.

TikTok gibt an, im vierten Quartal 2025 gut 26 Millionen Fake-Accounts in den EU-Ländern entfernt zu haben, bei durchschnittlich rund 178 Millionen monatlich aktiven Nutzern in der EU.

Facebook und Instagram: Keine oder nur weltweite Zahlen für gelöschte Accounts

Andere Plattformen listen die Zahlen gröber oder unvollständig auf. Im Report von Facebook heißt es, dass im vierten Quartal 2025 1,1 Milliarden Fake-Accounts weltweit entfernt wurden, es fehlen aber Zahlen für die EU. Diese Zahl kommuniziert Facebook auch in einer Mail an den #Faktenfuchs. Im Instagram-Report steht für denselben Zeitraum lediglich, dass in Polen ein Account und in Belarus 21 Accounts entfernt wurden. Diese Zahlen zeigen, wie groß die Spanne in den Berichten ausfällt.

Nach Einschätzung der Juristin Fay Carathanassis von der TU München lässt das Regelwerk des Code of Conduct on Disinformation den Plattformen zwar einen Spielraum bei der Detailtiefe der Berichtspflicht. Ob die Plattformen genau angeben müssen, wie viele Fake-Profile sie gelöscht haben oder nur eine Gesamtanzahl an Maßnahmen, sei nicht explizit festgelegt. Carathanassis forscht zur Regulierung digitaler Kommunikationsplattformen.

Im Falle von Facebook und Instagram hält Carathanassis die Berichtspflichten aufgrund der groben oder unvollständigen Angaben aber für nicht erfüllt. Meta antwortete auf eine entsprechende #Faktenfuchs-Nachfrage, man könne dazu keine Informationen geben.

Unvollständige Berichte können grundsätzlich Strafen nach sich ziehen

Grundsätzlich gebe es Mechanismen, mit der unvollständige Berichte sanktioniert werden könnten, sagt Carathanassis. „Es gibt laut dem DSA eine externe unabhängige Prüfungsstelle und die überprüft die Einhaltung der Verpflichtungen der sehr großen Plattformen“, sagt sie. Diese Prüfungsstelle könne dann Empfehlungen an die Plattformen geben. Falls weiter nichts passiert, könne die EU-Kommission ein Verfahren einleiten.

Ein solches Verfahren kann Konsequenzen haben: Die Kommission hat im Dezember 2025 eine Geldbuße von 120 Millionen Euro gegen X verhängt. Die Plattform hatte andere Transparenzverpflichtungen nach dem DSA nicht erfüllt, unter anderem Forschenden keinen Datenzugriff gewährt.

Prinzipiell schreibt der Code of Conduct on Disinformation noch weitere Berichtspflichten vor: So steht in dem Regelwerk, dass die Plattformen zu „Views, Impressions, Interaktion/Engagement“ von Desinformationstechniken und -taktiken berichten sollen, wozu auch Fake-Accounts gehören. Die Plattformen sollen außerdem „sobald verfügbar“ Kennzahlen zu „Verbreitung und Auswirkungen“ von Fake-Accounts veröffentlichen. Facebook zum Beispiel gibt für diese beiden Berichtsabschnitte gar keine Zahlen oder Null an.

„Der Wortlaut des Code of Conduct ist da auch unbefriedigend, weil er sehr offen gehalten ist“, sagt Carathanassis. Deswegen könne es sein, dass Facebook mit seinen nicht vorhandenen Angaben zu „Views, Impressions, Interaktion/Engagement“ und „Verbreitung und Auswirkungen“ sich noch im Raum des Erlaubten bewege. Der #Faktenfuchs hat bei Meta nachgefragt, weshalb hier keine Zahlen für Facebook veröffentlicht sind, jedoch keine Informationen darüber erhalten.

Ob die Zahlen, die die Plattformbetreiber veröffentlichen, akkurat sind, könne man nicht beurteilen, sagt Lea Frühwirth. Die Psychologin befasst sich am Center für Monitoring, Analyse und Strategie (CeMAS) mit den Wirkweisen und Mechanismen manipulativer Inhalte: „Das kann stimmen, aber muss nicht stimmen. Es ist plausibel, dass sie ein Interesse haben, die Zahl kleinzureden.“ Denn mehr Fake-Accounts auf einer Plattform mache diese für Werbepartner unattraktiver.

Einige Fragen bleiben also offen: Wie viele Fake-Accounts werden gar nicht erkannt und deswegen oder aus anderen Gründen nicht gelöscht? Welchen relativen Anteil an den gesamten Userzahlen haben Fake-Profile? Wie unterscheiden sich die Plattformen dabei?

Wissenschaftliche Studien haben ein Grundproblem

Forscherinnen und Forscher beschäftigen sich mit der Frage schon länger. Es gibt Studien zur Anzahl von Fake-Profilen, zum Beispiel wurde das Vorkommen von Bots auf dem damaligen Twitter, heute X, während der Bundestagswahl 2017 untersucht. In einer anderen Studie untersuchten die Forscher die Online-Diskussion zu Impfstoffen in den USA von 2017 bis 2019.

Um einen Bot zu erkennen, sammelten die Forscher bei beiden Studien hunderttausende Tweets und Accounts und klassifizierten sie dann. Für diese Klassifizierung nutzten sie das bekannte Tool „Botometer„. Es wurde mit großen Datenmengen trainiert, die vorher als „menschlich“ oder „Bot“ eingestuft wurden. Der Botometer zeigte dann einen Score an, der die Wahrscheinlichkeit zeigt, dass der Content auf einem Profil von einem Bot stammt – und nicht von einem Menschen.

Das Problem: Wenn in den Trainingsdaten falsche Einstufungen vorhanden sind, dann liefert auch der Botometer falsche Ergebnisse. So zeigten zwei deutsche Forscher, die das Tool mit eindeutig menschlichen Profilen überprüften: Fast die Hälfte der damaligen Mitglieder des US-Kongresses wurden fälschlicherweise als Bot-ähnlich eingestuft.

Wie kann man Fake-Profile überhaupt erkennen?

Das zeigt die erste grundlegende Herausforderung: Ein Fake-Profil überhaupt gesichert als solches zu erkennen. Anzeichen für ein Fake-Profil können sein: Ein ungewöhnlicher Name oder Fantasiename. Ein nicht vorhandenes Profilbild, ein KI-erstelltes Profilbild oder ein Bild, das keine reale Person zeigt. Wenige eigene Posts, eine sehr einseitige Themenauswahl bis hin zur massenhaften Verbreitung von Behauptungen zu einem Themenkomplex. All das sind allerdings nur Indizien, kein sicherer Beleg.

„Es gibt auch ziemlich viele Accounts, bei denen man nicht hundertprozentig feststellen kann, sind die jetzt fake oder nicht fake“, sagt Richard Kuchta vom Institute for Strategic Dialogue (ISD) Germany. Kuchta forscht dort zu Desinformation und Extremismus.

Beispiel 1: Ein Profil war in der Vergangenheit authentisch, wurde dann aber gekapert und verhält sich jetzt ganz anders. Beispiel 2: Ein Profil ohne Klarnamen bewirbt intensiv nur eine Partei und teilt hauptsächlich fremde Inhalte. Das Verhalten auf beiden Profilen sei auffällig, weil viele menschliche User sich anders verhalten, so Frühwirth. „Das heißt aber nicht, dass es ein Fake-Account ist“, so Psychologin Frühwirth vom CeMAS.

Außerdem sei eine solche Klassifizierung stets im Wandel, schreiben die Botometer-Erfinder: „Fake-Accounts entwickeln sich ständig weiter und setzen neue Taktiken ein, um nicht entdeckt zu werden. Beispielsweise verwenden einige gefälschte Accounts KI-generierte Gesichter als Profilbilder.“

Eine hundertprozentige Fake-Erkennung gibt es nicht

Der Kommunikationswissenschaftler Martin Moore beschreibt deswegen das grundlegende Problem so: Ein Forscher könne sich nie sicher sein, (alle) Bots identifiziert zu haben, solange es keine Master-Liste gebe, auf der dies sicher vermerkt sei.

„Um die Häufigkeit gefälschter Konten abzuschätzen, ist eine vereinfachte binäre Klassifizierung erforderlich: authentisches oder gefälschtes Konto“, schreiben die Erfinder des Botometer in einem Artikel. Bei einer solchen binären Einteilung ziehe man irgendwo eine Grenze – und deswegen seien Fehler unvermeidlich.

Hinzu komme das persönliche „Risikoprofil“: Wie häufig eine Person mit Fake-Profilen interagiere, sei von den persönlichen Themen und der Freundesliste auf Social Media abhängig. Bei Kryptowährungen etwa tummelten sich viele Bots, bei Katzen wenige.

Sowohl Lea Frühwirth als auch Richard Kuchta betonen: Eine hundertprozentige Sicherheit, ob ein Account oder Profil fake sei oder nicht, sei als Außenstehender nicht zu erhalten. Für externe Personen ist das noch einmal schwerer als für die Betreiber selbst. „Ich gucke in der Regel auf eine Blackbox, ich sehe einen Post oder einen Account oder mehrere Postings, vielleicht auch mehrere Accounts. Und schlussfolgere daraus etwas mit einer unterschiedlich ausgeprägten Sicherheit oder Wahrscheinlichkeit“, sagt Lea Frühwirth.

Coordinated Inauthentic Behavior: Verhalten mehrerer Accounts verrät mehr als ein Profil

Kann man eine Anzahl von Fake-Accounts oder -Profilen auf einer Social-Media-Plattform dann überhaupt erfassen? Die Experten sind skeptisch. „Ich weiß nicht, ob es überhaupt möglich ist, die Grundgesamtheit zu erfassen“, sagt Kuchta. Lea Frühwirth sagt, de facto könne man dies nicht. Die Plattform-Betreiber könnten wahrscheinlich besser Fake-Accounts erkennen, weil sie mehr Daten haben als Außenstehende, so Frühwirth: Mail-Adressen, Mail-Server, Zeitpunkt der Registrierung, Login-Daten, verwendete Geräte oder Browser zum Beispiel.

In der Forschung wird oft auch der Begriff Coordinated Inauthentic Behavior, kurz CIB, verwendet. Übersetzt heißt das „koordiniertes nicht-authentisches Verhalten“ und beschreibt eine Taktik von Account-Betreibern. Mithilfe von Manipulationen wie Fake-Profilen sollen die Plattform-Betreiber oder -Nutzer getäuscht werden, zum Beispiel bei der Verbreitung von Desinformation.

Statt eines einzelnen Profils wird eine Gruppe betrachtet, sagt Frühwirth. Wenn 20 Profile zur selben Zeit zum selben Thema nach demselben Muster etwas posten, dann sei das ein starker Hinweis für CIB.

„Zwölf Facebook-Seiten oder -Accounts oder -Profile, die innerhalb von 30 Sekunden identische Inhalte geteilt haben, obwohl sie auf den ersten Blick gar nichts miteinander zu tun haben“, sagt Kuchta – das sei ein Beweis für CIB.

Mehr Interaktionen – also wenn User einen Beitrag liken, kommentieren oder teilen – führen dazu, dass Beiträge auf einer Plattform öfter gesehen werden, sagt Kuchta. Ein Ziel von CIB sei es, die Interaktionen einzelner Beiträge künstlich nach oben zu schrauben.

CIB-Kampagnen werden regelmäßig aufgedeckt

Zu solchen CIB-Netzwerken gibt es immer wieder punktuelle Erkenntnisse. Vor der Bundestagswahl 2025 war die russische „Doppelgänger“-Kampagne aktiv, der #Faktenfuchs berichtete damals. Bots verbreiteten auf der Plattform X (früher Twitter) pro-russische Inhalte.

Lea Frühwirth identifizierte diese Inhalte, indem sie nach bestimmten Muster bei X-Beiträgen suchte: Die Beiträge wurden allesamt mehr als 300-mal geteilt, aber nur unter 100-mal geliked, von anderen Profilen, die wiederum weniger als 100 Follower hatten.

Wichtig für User: Bei Zweifeln so viel Umfeld wie möglich betrachten

Das heißt für User: Falls Zweifel an der Echtheit eines Profils bestehen, sollte man so viele Anhaltspunkte wie möglich für eine Abwägung sammeln. „Es ist sehr wichtig, immer ein bisschen kritisch zu sein, sich alles anzuschauen“, sagt Richard Kuchta vom ISD.

Mögliche Fragen, die man sich stellen kann: Von welchem Profil stammt ein Inhalt? Wie viele Follower hat dieses Profil und wie vielen folgt er wiederum? Auf welchem Weg verbreitet das Profil seine Inhalte: eigene Postings oder Re-Postings? Teilen noch dutzende andere Profile, die suspekt wirken, dasselbe Video?

Ist nicht erkennbar, wer hinter einem Profil steckt, dann sollte man mit den Inhalten grundsätzlich vorsichtig umgehen. Um die Aussagen zu überprüfen, sind dazu zwei Leitfragen hilfreich: 1) Welche Belege gibt es? Sieht, hört oder liest man keine Quellen für eine Behauptung, dann sollte man skeptisch bleiben. 2) Was sagen andere Quellen? Man verlässt den Bereich, in dem man sich gerade aufhält und sucht bei anderen Quellen nach Belegen oder Widerlegungen des fraglichen Inhalts. Zum Beispiel bei Behörden, Institutionen, anerkannten Expertinnen und Experten oder seriösen Medien. Bei konkreten Behauptungen lohnt es sich auch, nach Faktenchecks zu suchen.

Fazit

Es gibt verschiedene Arten von Fake-Accounts und -Profilen auf den großen Social-Media-Plattformen. Welche davon „fake“ sind und welche „authentisch“, ist mit den öffentlich einsehbaren Daten aber nicht einfach zu unterscheiden und einzelne Accounts oder Profile können falsch eingestuft werden.

Studien und Datenauswertungen können deswegen keine sicheren Zahlen liefern. In der Wissenschaft wird deswegen zum Beispiel eher nach koordiniertem nicht-authentischem Verhalten von mehreren Accounts gesucht als nach der Gesamtzahl. Als Nutzer sollte man kritisch und bewusst mit Social-Media-Inhalten umgehen.

 

Dir gefällt vielleicht

Amazon kauft Satelliten-Firma Globalstar: Was steckt dahinter?

WhatsApp führt Nutzername ein – darauf sollte man achten

Russische Hacker greifen deutsche Router an

Schluss mit Hintergrund-Lärm – „neue“ Funktion bei WhatsApp

Jobs durch KI bedroht? Soziologe sagt: Wandel ja, Verlust nein

Diesen Artikel teilen
Facebook Twitter Whatsapp Whatsapp Link kopieren Drucken
Was denken Sie?
Liebe0
Traurig0
Glücklich0
Wütend0
Avatar-Foto
Von Benjamin Lehmann
Benjamin Lehmann schreibt für das Ressort Netzwelt der WirtschaftsRundschau. Mit seinem Fachwissen in digitalen Technologien und Internetkultur informiert er über aktuelle Trends und Innovationen und bietet den Lesern wertvolle Einblicke in die digitale Welt.
Vorheriger Artikel Mehr Kinderschutz im Netz: App zur Altersprüfung soll kommen
Nächster Artikel „Notgroschen“: Diese finanziellen Rücklagen sollten Sie haben
Schreibe einen Kommentar

Schreibe einen Kommentar Antwort abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert


Letzte Beiträge

Oft schutzlos ausgeliefert: Wie jeder Wiesenbrütern helfen kann
Wissen 17. April 2026
Wie effizient sind Kraftwerke auf Brennstoffzellen-Basis?
Wissen 17. April 2026
Die Bestseller-Verfilmung „Allegro Pastell“
Kultur 17. April 2026
Staffel 2: Weniger „Beef“ als beim Vorgänger
Kultur 17. April 2026
WirtschaftsRundschauWirtschaftsRundschau
© 1984-2025 WirtschaftsRundschau. Alle Rechte vorbehalten.
  • Meine Lesezeichen
  • Kontakt
  • Datenschutz
Welcome Back!

Sign in to your account


Lost your password?