Chat-Kontrolle: Was es ist, wo es sich befindet und wie es die Verschlüsselung beeinflussen kann

Letzte Aktualisierung: 14 Oktober 2025
  • Es gibt zwei unterschiedliche Rahmenwerke: 1.0 (freiwillig und vorhanden) und 2.0 (vorgeschlagen mit Mandaten zur Erkennung und Debatte über Verschlüsselung).
  • Chat Control 2.0 wird nicht angenommen: Der Rat muss eine Position festlegen, dann folgen ein Trilog und eine endgültige Abstimmung.
  • Das Scannen vor der Verschlüsselung birgt technische und rechtliche Risiken; Rechtsexperten warnen vor Unvereinbarkeiten mit Grundrechten.

Allgemeine Abbildung zu Chat-Steuerung und Datenschutz

Die Vorstellung, dass jemand Ihre privaten Nachrichten lesen könnte, ist unangenehm, insbesondere wenn es sich um Gespräche mit Ende-zu-Ende-Verschlüsselung handelt. Dennoch diskutieren die europäischen Institutionen über ein Regulierungspaket, das Messaging- und E-Mail-Dienste dazu zwingen könnte, Inhalte auf Darstellungen von sexuellem Kindesmissbrauch zu prüfen. Dieser Maßnahmenkatalog ist allgemein als Chat-Kontrolle bekannt.und umfasst tatsächlich zwei unterschiedliche Rahmen mit sehr unterschiedlichen Verläufen und Auswirkungen.

Um das Chaos zu verstehen, ist es hilfreich, Gegenwart und Zukunft zu trennen. Einerseits gibt es Chat Control 1.0, das bereits eingeführt und für Plattformen freiwillig ist; andererseits den Vorschlag für Chat Control 2.0, der eine Analyse bei Erkennung verpflichtend machen könnte. Der zweite Text wird noch bearbeitet und es könnte sich immer noch ändern, aber in den sozialen Medien ist aufgrund viraler Videos, in denen behauptet wird, die Entscheidung sei genehmigt oder stehe unmittelbar bevor, ein Aufruhr ausgebrochen, was Verwirrung darüber stiftet, was tatsächlich entschieden wurde.

Was genau ist Chat Control und warum gibt es zwei Versionen?

Der Name „Chat Control“ bezieht sich auf zwei europäische Initiativen, die die Verbreitung von Material mit sexuellem Kindesmissbrauch über digitale Dienste bekämpfen sollen. Die erste, Verordnung 2021/1232 (genannt Chat Control 1.0), das 2021 verabschiedet wurde, ermöglicht es Messaging- und E-Mail-Anbietern, solche Inhalte freiwillig zu erkennen, ohne dass sie dazu verpflichtet sind oder ihnen eine zusätzliche Rechtsgrundlage über die vorübergehende Aufhebung bestimmter ePrivacy-Beschränkungen hinaus gegeben wird.

Die zweite ist die Verordnung 2022/0155, bekannt als Chat Control 2.0 oder die Verordnung zur Verhütung und Bekämpfung des sexuellen Missbrauchs von Kindern. Dies ist ein Vorschlag, der könnte Plattformen eine Pflicht zur Erkennung auferlegen und die Entfernung von Inhalten, wobei die zuständigen Behörden bei erheblichem Risiko entsprechende Anordnungen zur Erkennung erlassen. Der Kern der Debatte liegt darin, wie diese Verpflichtung mit der Ende-zu-Ende-Verschlüsselung und den Grundrechten der europäischen Bürger in Einklang gebracht werden kann.

Repräsentative Grafik zur Inhaltserkennung in Chats

Chat Control 1.0 vs. Chat Control 2.0: Wichtige Unterschiede

Chat Control 1.0 ermöglicht es Anbietern, die Kommunikation auf Material mit sexuellem Kindesmissbrauch zu überprüfen, allerdings auf freiwilliger Basis und mit Sicherheitsvorkehrungen. Artikel 3 fordert Technologien, die so wenig invasiv wie möglich sind und Techniken, die nicht den Inhalt der Gespräche rekonstruieren, sondern nach Mustern oder Signalen suchen, die mit Missbrauch in Verbindung stehen. Darüber hinaus hat das Europäische Parlament im April 2024 einer Verlängerung dieser Ausnahmeregelung bis zum 3. April 2026 zugestimmt, um einen stabilen langfristigen Rahmen zu ermöglichen.

Der Vorschlag „Chat Control 2.0“ geht noch ehrgeiziger vor: In bestimmten Fällen und auf Anordnung einer unabhängigen Justiz- oder Verwaltungsbehörde Plattformen müssten CSAM erkennen, melden und entfernenNach der technischen Interpretation der Branchenverbände könnte es sich dabei um die Analyse von Inhalten vor der Verschlüsselung auf dem Gerät des Nutzers handeln, ein sogenanntes Client-Side-Scanning. Dies widerspricht dem Kernversprechen der Ende-zu-Ende-Verschlüsselung.

Es gibt einen wichtigen Vorbehalt: Beide Initiativen konzentrieren sich auf die Anbieter, nicht auf europäische Institutionen, die Gespräche überwachen. Laut der Branche keine EU-Institution hätte Zugriff auf private Nachrichten im Rahmen dieser Rahmenbedingungen; wenn eine Plattform Anzeichen von CSAM erkennt, muss sie die Strafverfolgungs- und Justizbehörden oder Einrichtungen mit einem öffentlichen Interesse am Schutz von Kindern benachrichtigen.

Stand des Verfahrens: Was ist entschieden und was nicht

Der Vorschlag zur Chat-Kontrolle 2.0 ist nicht in Kraft. Ab Anfang Oktober 2025 gilt der Text wartet auf den Abschluss seiner ersten Lesung Im Rat hat das Parlament bereits seinen Standpunkt dargelegt, um das Gleichgewicht zwischen dem Schutz von Kindern und der Vermeidung umfassender Überwachung zu wahren. Im Falle einer Annahme des Standpunkts des Rates würden Triloge und eine abschließende Abstimmung im Plenum des Parlaments folgen, bevor er offiziell veröffentlicht wird.

In diesem Zusammenhang wurden verstärkte Botschaften verbreitet, die davon ausgingen, dass der Rat die Regel am 14. Oktober 2025 aktivieren würde. Die dänische Präsidentschaft hat dem Dossier Priorität eingeräumt, und der Rat für Justiz und Inneres ist für den 13. und 14. Oktober geplant, aber Dieser Schritt löst nicht direkt die Anwendung der Regel aus.Aus europäischen Quellen wurde klargestellt, dass das Gesetz an diesem Tag nicht „in Kraft treten“ werde und dass der Zeitplan für die Annahme und das Inkrafttreten derzeit nicht vorhersehbar sei.

  Was ist Google Chrome? Eine vollständige Anleitung zum Browser

Auch die Zahlen zur Unterstützung und Ablehnung in den einzelnen Bundesstaaten gingen viral. Spanien, Portugal, Frankreich, Italien, Kroatien, Ungarn, Bulgarien, Zypern, Malta, Island, Dänemark, Schweden, Lettland und Litauen haben die Bereitschaft gezeigt, voranzukommen, während Österreich, Belgien, Tschechische Republik, Finnland, Deutschland, Luxemburg, Niederlande, Polen und Slowakei Sie stehen jeder Formel, die die Verschlüsselung schwächt, äußerst kritisch gegenüber. In einigen Ländern (zum Beispiel Griechenland, Rumänien, Estland und Slowenien) gibt es bei einigen Abstimmungen noch keine Entscheidung, und die deutsche Position gilt als besonders entscheidend.

Funktionsweise der Erkennung: Reihenfolge, Umfang und Grenzen

Das Rückgrat des Vorschlags ist das System der Detektionsanordnung. Es könnte einem Dienst nur auferlegt werden, wenn eine erhebliches Risiko Missbrauch für Darstellungen sexuellen Kindesmissbrauchs oder Kindestäuschung. Die Anordnung würde von einer zuständigen Justizbehörde oder einer unabhängigen Verwaltungsbehörde erlassen, wäre zeitlich begrenzt und würde einer angemessenen Aufsicht unterliegen.

Um die Auswirkungen zu minimieren, betonte die Kommission die Notwendigkeit modernster Technologien, die nicht in der Lage sind, andere Informationen als die unbedingt notwendigen zu extrahieren, und mit gezielte menschliche Überwachung zum Filtern falscher PositivmeldungenDarüber hinaus betrachtet der Gesetzesentwurf die Erkennung von Grooming als den einschneidendsten Eingriff, da hierfür eine Textanalyse erforderlich ist. Ihre Einführung bedarf daher einer besonders strengen Begründung. In den Vorschlägen einiger Bundesländer soll sie nur dann gelten, wenn einer der Beteiligten minderjährig ist.

Ein besonders heikles Thema ist der Umgang mit Diensten mit Ende-zu-Ende-Verschlüsselung. Im Betrieb würde eine Vorverschlüsselungserkennung auf dem Gerät des Nutzers durchgeführt, um Bilder, Videos oder, je nach Vorgängerversion, Text mit Fingerabdruckdatenbanken oder Erkennungsmodellen abzugleichen. Viele Experten setzen diese lokale Überprüfung mit der Schaffung eines Hintertür, da dadurch ein zusätzlicher Kanal geöffnet wird, über den Inhalte, die verschlüsselt werden sollten, vor der Übertragung analysiert und gekennzeichnet werden können.

Wer prüft, wer berichtet und welche Rolle spielt das neue europäische Zentrum?

Eines der häufigsten Missverständnisse in den sozialen Medien ist, dass „die Europäische Union alle Nachrichten liest“. Das ist nicht der Fall. In beiden Kontexten sind sie die Anbieter, die die Erkennung durchführen mit technischen Hilfsmitteln. Stellen sie illegale Inhalte fest, müssen sie diese zur Bearbeitung an die zuständigen Behörden oder akkreditierten Organisationen weiterleiten.

Der Kommissionsvorschlag sieht außerdem die Schaffung einer EU-Zentrum für sexuellen KindesmissbrauchZiel ist es, den Empfang von Meldungen zu zentralisieren, die Zusammenarbeit zwischen Plattformen, Zivilgesellschaft und Behörden zu verbessern und die Transparenz und Überprüfung von Tools und Prozessen zur Inhaltssuche und -entfernung zu konsolidieren. Dadurch sollen Doppelarbeit vermieden, Reaktionszeiten verbessert und das Risiko von Lecks beim Austausch sensibler Informationen verringert werden.

Aus Sicht der Industrie könnten bei einer Einführung von Chat Control 2.0 neben Polizei und Staatsanwaltschaft auch die von den Mitgliedstaaten benannten Koordinierten Behörden, die für die Umsetzung zuständig sind, alarmiert werden, obwohl dieses Detail bleibt offen Die Branche betont jedoch, dass die EU niemals eigenmächtig auf private Chats zugreifen würde.

Datenschutz, Verschlüsselung und technische Risiken: Die schwerwiegendsten Kritikpunkte

Digitale Menschenrechtsorganisationen, Sicherheitsexperten und Rechtsexperten kritisieren den Kern des Vorschlags. Sie argumentieren, dass clientseitiges Scannen untergräbt das Wesen der Ende-zu-Ende-Verschlüsselung, was zu einem erhöhten Risiko von Datenschutzverletzungen führt. Wenn eine Möglichkeit zur Überprüfung von Inhalten vor der Verschlüsselung eingebaut wird, könnte dies von böswilligen Akteuren – von Cyberkriminellen bis hin zu feindlichen Regierungen – ausgenutzt werden.

Eine vom Europäischen Parlament in Auftrag gegebene Bewertung kam zu einem besonders eindringlichen Ergebnis: Derzeit gibt es keine Technologie, die bekannte und neue Fälle von CSAM in großem Umfang erkennen kann. ohne hohe Fehlerraten zu erzeugen die den gesamten Verkehr auf einer Plattform beeinflussen. Die Studie weist auch auf Nebeneffekte hin, wie etwa das Risiko, dass Bilder, die von Jugendlichen einvernehmlich geteilt werden, als illegal eingestuft werden.

Empirische Belege stützen diesen Optimismus nicht. In Irland beispielsweise 852 von 4.192 Meldungen (20,3 %) Es stellte sich heraus, dass es sich um ausbeuterisches Material handelte und 471 (11,2 Prozent) waren falsch-positiv. Diese Zahlen verdeutlichen die schwierige Balance zwischen Genauigkeit, Meldevolumen und menschlichen Überprüfungsressourcen.

In rechtlicher Hinsicht stellte der Juristische Dienst des Rates die Vereinbarkeit des Vorschlags mit Grundrechten wie Privatsphäre und Datenschutz in Frage und verwies auch auf die Rechtsprechung des Gerichtshofs der Europäischen Union gegen eine weitverbreitete Vorratsdatenspeicherung. Der Europäische Datenschutzbeauftragte und der Europäische Datenschutzausschuss In einer gemeinsamen Stellungnahme warnten sie vor der Gefahr, dass es zu einer umfassenden und wahllosen De-facto-Durchsuchung des Inhalts nahezu aller elektronischen Kommunikation käme.

  Was ist Miracast und wie funktioniert es? Alles was Sie wissen müssen

Auch Gerichtsurteile haben großes Gewicht. Im Februar 2024 entschied der Europäische Gerichtshof für Menschenrechte in einem unabhängigen Fall, dass die Forderung nach einer verschlechterten Ende-zu-Ende-Verschlüsselung nicht als notwendig erachtet werden in einer demokratischen Gesellschaft. Dieser Rechtsaufschwung bestärkt diejenigen, die eine Stärkung der Verschlüsselung in der endgültigen Regelung fordern.

Wer unterstützt, wer lehnt ab und wie bewegt sich die Politik?

Der Schutz von Kindern hat starke Unterstützer, von Kinderschutzgruppen bis hin zu Kommissionsabteilungen und Europaabgeordneten unterschiedlicher Couleur, die einen verbindlichen Rahmen als Reaktion auf die Unzulänglichkeit freiwilligen HandelnsSie argumentieren, dass es aufgrund unterschiedlicher Unternehmensrichtlinien, der Abhängigkeit von Berichten aus den USA und des Fehlens eines flexiblen europäischen Berichts- und Untersuchungsprozesses Lücken gebe.

Die Opposition hingegen zieht beim Thema Verschlüsselung eine rote Linie. Im Europaparlament haben Grüne, Sozialliberale, Konservative und Piratenparteien in einer merkwürdigen parteiübergreifenden Konvergenz ihre Stimme erhoben. Die Idee, dass Kinderschutz eine Frage der Wiederholung sei, wird immer wieder wiederholt. erfordert keine Massenüberwachung und dass es weniger einschneidende Instrumente gibt: die Stärkung der Polizeiressourcen, die Verbesserung der grenzüberschreitenden Zusammenarbeit, die Verfolgung illegaler Märkte, die Forderung nach mehr Sicherheit durch Design von Plattformen und die Arbeit an Aufklärung und Prävention.

Die Karte im Rat ist geteilt. Spanien ist in dem Block, der das Dossier vorantreibt und hat verteidigt, dass die Behörden Zugang zu Daten im Kampf gegen Missbrauch, während Polen, die Niederlande, Finnland und Österreich weiterhin kritisch bleiben. Frankreich zögert, Belgien und Estland hegen Zweifel an der Umsetzung, und Deutschland scheint nach Regierungswechseln von ablehnender Haltung zu Unentschlossenheit übergegangen zu sein. Dänemark hat mit der Übernahme der rotierenden Ratspräsidentschaft im Juli 2025 die Verhandlungen wieder aufgenommen und der Verordnung hohe Priorität eingeräumt.

In der öffentlichen Meinung gibt es Umfragen wie die von YouGov, die von klaren Mehrheiten gegen flächendeckendes Scannen berichten. Dieses soziale Klima hat sich in Wellen des Drucks niedergeschlagen an die Abgeordneten, insbesondere in den Jahren 2023 und 2024, als der Rat mehrere Abstimmungen wegen mangelnder Einigung verschob.

Kontroversen: Lobbyarbeit, politische Kommunikation und die Rolle bestimmter Organisationen

Der Prozess war von Kontroversen begleitet. Transnationale journalistische Untersuchungen befassten sich mit der Rolle der American Thorn Foundation, die von Persönlichkeiten des öffentlichen Lebens vorangetrieben wird, sich aktiv für den Einsatz von Erkennungstools einsetzt und Software für künstliche Intelligenz zur Identifizierung von CSAM vermarktet. Ihr Engagement bei der Kommission und dem für den Fall zuständigen Kommissar hat hinsichtlich Interessenkonflikten und Druck seitens kommerzieller Interessengruppen für Aufsehen gesorgt.

Auch die Kommunikationsstrategie der Kommission wurde kritisiert, unter anderem Mikrosegmentierungskampagnen Die Sprache wird als mehrdeutig empfunden. Begriffe wie „Massenscans“ werden vermieden und stattdessen Formeln für gezielte Erkennung und Verhältnismäßigkeit verwendet. Organisationen für digitale Rechte geben an, formelle Treffen angefragt zu haben, auf die jedoch nicht immer eine Antwort erfolgte. Dies hat die Erzählung von der Intransparenz weiter angeheizt.

Im Zuge der Debatte sind in anderen Ländern Initiativen entstanden. In den USA beispielsweise werden politische Kampagnen gegen den Datenschutz unter dem Deckmantel der Missbrauchsbekämpfung angeprangert, und in Großbritannien gab es die Versuchung, Hintertüren zu fordern. Die EU läuft Gefahr, als heuchlerisch Wenn er Maßnahmen vorantreibt, die er im Ausland kritisiert, sagen Stimmen aus der Zivilgesellschaft.

Was sich für den Durchschnittsnutzer ändert: praktische Auswirkungen und Rahmenbedingungen in Spanien

Sollte der Vorschlag in seiner härtesten Version umgesetzt werden, könnten in Spiele integrierte Messaging-, E-Mail- oder sogar Chat-Dienste gezwungen werden, automatische Erkennungssysteme installieren Bilder, Videos oder Links. Bei Ende-zu-Ende-verschlüsselten Diensten würde dies bedeuten, dass bestimmte Inhalte analysiert werden, bevor sie auf Ihrem Gerät verschlüsselt werden. Dies führt zu einer größeren Angriffsfläche und Vertraulichkeitsproblemen, wenn etwas schiefgeht.

In Spanien garantiert Artikel 18 der Verfassung die Vertraulichkeit der Kommunikation, sofern keine richterliche Genehmigung vorliegt. Plattformen sind verpflichtet, bei Bedarf zu kooperieren. Mit der Ende-zu-Ende-Verschlüsselung ist dies für Plattformen heute nicht möglich. Chats entschlüsseln Selbst wenn es eine Ordnung gäbe, würden sie die Passwörter der Benutzer nicht schützen. Ein System, das vor der Verschlüsselung eine Erkennung erfordert, würde die technische und rechtliche Architektur verändern und einen alles andere als trivialen Verfassungsrahmen schaffen.

Neben den technischen Risiken gibt es Bedenken hinsichtlich der abschreckende Wirkung auf die Ausübung von Rechten wie Meinungsfreiheit oder politisches Engagement. Wenn Benutzer das Gefühl haben, dass jedes Bild oder Audio vorab analysiert werden kann, kann die Selbstzensur zunehmen und damit auch die Angst, selbst legitime Inhalte zu teilen.

  Smartphones im Geschäftsumfeld: Nutzung, Risiken und Management

Mythen und Realitäten des viralen Videos, das in den sozialen Medien kursiert

Im November 2024 und erneut im Jahr 2025 kursierten Videos, in denen behauptet wurde, dass die Chat-Kontrolle „bereits alle Phasen durchlaufen“ habe und „am 14. Oktober in Kraft treten“ werde. Diese Nachricht Es ist falsch: Der Vorschlag 2.0 befindet sich noch in der Bearbeitung, es sind noch einige Schritte zu gehen, und obwohl der Rat berät und eine Position festlegt, bedeutet dies nicht, dass er sofort umgesetzt wird.

Eine weitere immer wiederkehrende Behauptung ist, dass „die EU Zugriff auf alle privaten Nachrichten haben wird“ und dass nur X und Telegram dies ablehnen würden. In Wirklichkeit legen die Texte die Last der Entdeckung auf die Plattformen, und alle Scans vor der Verschlüsselung würden spezifischen Erkennungsanordnungen unterliegen. Obwohl mehrere Unternehmen ihre Zurückhaltung hinsichtlich einer Gefährdung der Verschlüsselung zum Ausdruck gebracht haben, gibt es keine geschlossene oder definitive Liste darüber, welche Dienste ein mögliches europäisches Mandat akzeptieren würden oder nicht.

Woher kommt das alles: minimale Chronologie, um uns zu verorten

Die Kommission legte ihren Vorschlag im Mai 2022 vor, nachdem die Zahl der CSAM-Meldungen an Einrichtungen wie das US-amerikanische National Center for Missing and Exploited Children jahrelang stark zugenommen hatte. Im Jahr 2023 genehmigte der Ausschuss für bürgerliche Freiheiten des Repräsentantenhauses den Vorschlag. Verschlüsselung explizit schützen und wahlloses Scannen zu unterbinden. Im Jahr 2024 verschob der Rat die Abstimmung mehrmals, da es an Mehrheiten mangelte.

Im Jahr 2024 arbeitete die Kommission an überarbeiteten Versionen, und es kursierten durchgesickerte Entwürfe, die versuchten, den Anwendungsbereich einzugrenzen (z. B. indem die Erkennung auf Multimedia und Links und weniger auf Text und Audio fokussiert wurde). Die Einführung der Dänische Ratspräsidentschaft Im Juli 2025 reaktivierte er die Akte und setzte sich das Ziel, im Herbst eine politische Entscheidung herbeizuführen. Damit rückte die Debatte wieder in die Schlagzeilen und auf die öffentliche Agenda.

Vorgeschlagene Verhältnismäßigkeitsmaßnahmen und vorgeschlagene Schutzmaßnahmen

Um die Notwendigkeits- und Verhältnismäßigkeitsprüfung zu umgehen, bestehen die Entwürfe des Rates darauf, die Ermittlungsanordnungen zeitlich und umfangreich zu begrenzen. objektive Risikobewertungen, wobei möglichst wenig aufdringliche Technologien bevorzugt werden und Audits und menschliche Überwachung gekennzeichneter Fälle erforderlich sind, um Fehler und Voreingenommenheit zu reduzieren.

Darüber hinaus wird vorgeschlagen, dass Anordnungen zeitlich begrenzte Beschränkungen (beispielsweise bis zu zwölf Monate) nicht überschreiten dürfen, dass sie überprüft werden und dass die Auswirkungen auf die Rechte dokumentiert werden. allgemeine Aufsichtspflichten vermeiden Dies ist das erklärte Ziel und man möchte sich im Rahmen konkreter und begründeter Anordnungen bewegen.

Beziehung zu anderen digitalen Standards und Debatten

Dieser Gesetzentwurf existiert nicht im luftleeren Raum. Er koexistiert mit dem Digital Services Act, den Datenschutzbestimmungen und nationalen Rahmenwerken, die ein Gleichgewicht zwischen Sicherheit und Grundrechten anstreben. Die Konsistenz dieser Gesetze wird entscheidend sein. Notenschlüssel damit keine Widersprüche oder Grauzonen entstehen, die Missbrauch oder Rechtsunsicherheit Tür und Tor öffnen.

  • Gesetz über digitale Dienste und ihre Sorgfaltspflichten
  • Online-Sicherheitsgesetz von 2023 und parallele Debatten in anderen Ländern

Schließlich ist es wichtig, sich daran zu erinnern, dass selbst wenn der Wille besteht, Kinder zu schützen, Nicht alles lässt sich mit Technologie lösenPrävention, digitale Aufklärung, die Stärkung der Ermittlungskapazitäten und die grenzüberschreitende Zusammenarbeit sind entscheidende Elemente, deren Stärkung Experten zufolge neben jedem Rahmen für die Aufdeckung von Straftaten empfehlen.

Insgesamt ist die Chat-Kontrolle ein Minenfeld, in dem eine gerechte Sache mit sehr ernsten Risiken für die Privatsphäre und Sicherheit aller koexistiert. 1.0 ermöglicht freiwillige Überprüfung mit Sicherheitsvorkehrungen und wird bis 2026 verlängert; 2.0 hingegen ist ein sich entwickelnder Vorschlag, der Detektionsanordnungen einführt, die möglicherweise die Verschlüsselung beeinträchtigen, und der auf breiten Widerstand von Rechtsexperten, Technikern und Datenschutzorganisationen stößt. Zwischen wechselnden politischen Agenden, gesellschaftlichem Druck und technologischen Bedenken wird die endgültige Entscheidung das nächste Jahrzehnt unserer Kommunikation prägen. Daher ist es wichtig, den Prozess genau zu beobachten und zu fordern, dass alle ergriffenen Schritte den Kern unserer Rechte respektieren.

WhatsApp-Anrufbeantworter
Verwandte Artikel:
WhatsApp Auto-Reply: Vollständige Anleitung zum Einrichten