IETF wendet sich gegen unerwünschte Konzentration im Internet

Je mehr Dienste die wenigen großen Konzerne selbst abwickeln, desto anfälliger wird das Internet. Die IETF findet: Dagegen muss etwas getan werden.

In Pocket speichern vorlesen Druckansicht 5 Kommentare lesen

(Bild: Wes Hardaker)

Update
Lesezeit: 5 Min.
Von
  • Monika Ermert
Inhaltsverzeichnis

Die Internet Engineering Task Force (IETF) soll sich intensiver mit dem Thema unerwünschte Konzentration und Konsolidierung von Diensten im Internet befassen. Das forderten Teilnehmer des virtuellen 110. Treffens der Standardisierungsorganisation. Die IETF solle Richtlinien entwickeln, um negativen Konzentrationsprozessen mittels geeigneter Normung vorzubeugen.

Als Beleg für unerwünschte Konzentration lassen sich Messungen eines Forscherteams heranziehen. Mitgearbeitet haben Wissenschaftler der University of Southern California (USC), SIDN Labs, InternetNZ und der Universität von Twente. Demnach sind bei Adresszonen wie der niederländischen .nl nur fünf große Cloudprovider für ein Drittel aller DNS-Anfragen verantwortlich. Und diese fünf Großen sind ohnehin groß – es handelt sich um Google, Microsoft, Amazon, Facebook und Cloudflare.

Konzentration und Konsolidierung hätten zwar auch positive Seiten, unterstrich auf der IETF-Konferenz Wes Hardaker vom Institute for Information Science Institute der USC. Große Provider können die Dienste schnell absichern oder modernisieren etwa, indem sie neue Spezifikationen wie IPv6, DNSSEC oder QNAME Minimization durchsetzen – wenn sie das denn wollen. Doch räumte Hardaker auch ein, dass die Konzentration wichtiger Dienste auf wenige große Player für die Vertraulichkeit und die Resilienz des gesamten Internets ein Problem darstellt.

Weil die Zentralisierung "single points of failure" fördert, kann der Ausfall einzelner großer Dienste verheerende Folgen für viele Nutzer haben. Beispielsweise konnten im Jahr 2016 überproportional viele Nutzer nicht auf prominente Websites wie Twitter, Spotify, SoundCloud oder New York Times zugreifen, weil damals der große DNS-Anbieter Dyn von einer heftigen DDoS-Attacke heimgesucht worden ist.

Andererseits fühlen sich viele Vertreter und Mitarbeiter der offenen technischen Standardisierungsorganisation für Wettbewerbsfragen nicht zuständig. Darauf, wie Protokolle um- und eingesetzt werden, hätten sie keinen Einflus, sie seien schließlich "nicht die Internetpolizei".

Jedoch gibt es bei vielen Vorüberlegungen zu Spezifikationen "konkurrierende technische Ansätze oder Features", die durchaus verschiedene Deployment-Modelle fördern können. Das schreibt der ehemalige IETF-Vorsitzende Jari Arkko in einem kürzlich erschienenen Bericht des Internet Architecture Board. Gelegentlich könne man sehr wohl wählen, ob ein neuer Standard existierende Geschäftsmodelle stütze oder, ob Features vorgesehen werden, die kleineren Playern das Zusammenspiel erleichterten, oder ob man gar ein disruptives Konzept verankert.

Jedoch erhält die IETF laut Arkko das Feedback der Institutionen und Firmen, die die Spezifikationen in der Praxis umsetzen, oft zu spät. Auch Endanwender meldeten Einwände oder Wünsche zu spät an.

Mit einem konkreten Fall, wie ein Standard eine unerwünschte Zentralisierung verstärken kann, schlagen sich derzeit Experten für das Domain Name System in der IETF herum. Denn nachdem vor zwei Jahren auf Betreiben großer Browser- und DNS-Provider eine Verschlüsselung des DNS-Verkehrs mit Resolvern via HTTPS (DoH) in Rekordzeit standardisiert worden war, fiel auf, dass DoH den DNS-Verkehr weltweit massiv konzentrieren kann. Wenn Browseranbieter wie Mozilla oder Google ihre DoH-Implementierungen vorkonfiguriert in den Browsern ausliefern, und DoH ab Werk aktivieren, können sie den in den Browsereinstellungen eingetragenen DNS-Resolver zum Fokuspunkt für DNS-Anfragen machen. Die Erfahrung zeigt nämlich, dass der Großteil der Browsernutzer die DNS-Einstellungen kaum oder gar nicht überprüft und ebensowenig ändert. Arkko lobte vergangene Woche, dass die IETF-Gruppe Adaptive DNS Discovery dieses Problem verstanden hat, und an Maßnahmen zur Dezentralisierung arbeitet.

Jedoch lässt sich die Uhr kaum zurückdrehen. Das Hinzufügen von immer neuen Sicherheits- beziehungsweise Reputationsmechanismen spielt am Ende nur noch den Großen in die Hände. Email-Standards wie DMARC sind ein Beispiel dafür und neue Ideen wie ein "DMARC für DNS" mit zusätzlichen DNS-Fehlermeldungen, werden daher gerade kritisch beäugt.

Viele Experten beklagten in der Diskussion, dass es nicht absehbar sei, welche Effekte die Implementierung gut gemeinter, sicherer Standards zeitigen. Das Web etwa habe sich als stark zentralisierende Kraft erwiesen, sagte Fastly-Entwickler und HTTP-Papst Mark Nottingham. "Würde es das Web geben, wenn wir zentralisierende Effekte ausgeschlossen hätten", fragte er.

Was zu tun ist, darüber gehen die Vorstellungen in der IETF auseinander. Eine konsequente Standardisierung unter dem Aspekt "Endnutzersouveränität" empfahl unter anderem Philipp Hallam-Baker, wissenschaftlicher Angestelter bei Comodo. Und Nottingham rät dazu, den aktiv gewordenen Wettbewerbshütern die technischen Effekte besser zu erklären.

Die IETF müsse sicherlich intern das Bewusstsein vom Zusammenhang zwischen Standards und unerwünschter Konzentration schärfen, konzedierte Arkko.

Dabei könnten Richtlinien für den Umgang mit dem Problem technisch und organisatorisch helfen. Diese könnten in einem RFC festgehalten werden. Darüber soll sich möglichst bald ein Workshop oder sogar eine Arbeitsgruppe austauschen.

[Update]: 19.03.2021, 18:52, Liste der Mitwirkenden an den DNS-Messungen vervollständigt (dz)