Damit rückt erstmals nicht nur der Inhalt, sondern die Architektur digitaler Dienste selbst in den regulatorischen Fokus. In einer kürzlich veröffentlichten Untersuchung kam die Europäische Kommission zu dem Schluss, dass TikToks Algorithmen und Benutzeroberfläche Elemente enthalten, die – besonders bei Kindern und Jugendlichen – zu übermäßig langer Nutzung und „autopilotartig“ wiederholtem Scrollen führen. Die Kommission sieht darin einen Verstoß gegen die Verpflichtungen aus dem Digital Services Act (DSA).
EU sieht TikTok in der Pflicht, Dinge zu ändern
Im Kern richtet sich die Kritik der Brüsseler Regulierer gegen:
- die infinite‑scroll‑Funktion, die Nutzende beinahe endlos durch neue Inhalte führt,
- automatisches Laden von Videos (autoplay),
- gezielte Vorschläge über Empfehlungsalgorithmen,
- Push‑Benachrichtigungen, die zur Rückkehr in die App animieren.
TikTok muss nun maßgebliche Änderungen am Design seiner Plattform vornehmen. Sonst riskiert die Social-Media-Plattform – wie im DSA vorgesehen – hohe Strafzahlungen von bis zu 6 % des weltweiten Jahresumsatzes.
Was bedeutet das für Meta und andere Plattformen?
Auch andere große Plattformbetreiber stehen in der EU unter schärferer Beobachtung. Bereits im Herbst 2025 hatte die Kommission – im Rahmen derselben DSA‑Durchsetzung – vorläufige Verstöße gegen Transparenzpflichten bei TikTok und Meta (u.a. Facebook und Instagram) festgestellt, weil Nutzern, Forschern und Behörden der Zugang zu wichtigen Datenblockaden und Meldemechanismen für schädliche Inhalte erschwert worden sei.
Zusätzlich drängen Politiker in EU‑Mitgliedstaaten darauf, dass Meta seine Dienste konsequent an die neuen Vorschriften anpasst. So forderte zuletzt etwa die flämische Medienministerin Cieltje Van Achter, dass Meta Funktionen wie algorithmisch gesteuerte Feeds auch für Nutzerinnen und Nutzer in Belgien anpasst. Ähnlich wie jüngst in den Niederlanden beschlossen.
Digital Services Act als Regulierungsmotor
Der Digital Services Act ist eine weitreichende EU‑Verordnung, die seit 2024 in der Praxis durchgesetzt wird. Sie verpflichtet große digitale Plattformen, Risiken für Nutzer zu reduzieren, für mehr Transparenz zu sorgen und Missbrauch zu verhindern. Sie unterscheidet zwischen allgemeinen Plattformen und sehr großen Online‑Plattformen (Very Large Online Platforms – VLOPs) mit mehr als 45 Millionen monatlich aktiven EU‑Nutzern. Zu letztgenannten zählen auch Instagram, Facebook und TikTok.
Ein wesentlicher Punkt des DSA ist, dass Unternehmen mit algorithmischen Empfehlungsmechanismen und Nutzeroberflächen verantwortlich für die Wirkungen dieser Technologien auf Menschen gemacht werden – nicht nur für die Inhalte selbst. Die aktuelle Untersuchung gegen TikTok markiert daher einen möglichen Präzedenzfall: Regulierung greift tiefer in Softwaredesign und Nutzerinteraktion ein als zuvor.
Reaktionen aus Wirtschaft und Politik
TikTok hat bereits erklärt, dass es die Vorwürfe für „kategorisch falsch“ halte. Die Plattform plane, die künftigen Schritte durch die EU juristisch anzufechten. Meta wiederum betont, dass man kontinuierlich an Tools zur Steigerung von Nutzerkontrolle und Transparenz arbeite. Etwa an Optionen für chronologische oder weniger algorithmische Feeds.
Politisch wird die Debatte breiter geführt: Das Europäische Parlament hatte im Dezember 2025 in einem separaten Bericht für stärkere Beschränkungen für Minderjährige votiert, darunter einheitliche Altersgrenzen und Beschränkungen für algorithmische Inhalte, was die Regulierungsdynamik weiter unterstreicht.
Angesichts der nun eingeleiteten Schritte in Brüssel ist damit zu rechnen, dass weitere Design‑ und Algorithmus‑Funktionen großer Plattformen in den Fokus der EU‑Regulierer rücken. Die Auseinandersetzung um endloses Scrollen könnte nur der Anfang einer umfassenderen Neuordnung digitaler Nutzeroberflächen innerhalb der EU sein – mit weitreichenden Folgen für global arbeitende Tech‑Konzerne. Aber auch Endnutzer werden sich auf Änderungen bei der Nutzung von Social-Media-Apps einstellen müssen.
