zurück zum Artikel

Missing Link: "Das Internet ist im Prinzip kaputt"

Monika Ermert
Abstract,Futuristic,Cyberspace,With,A,Hacked,Array,Of,Binary,Data,

(Bild: Shutterstock)

Mehr Komplexität, mehr Web statt Netz und immer weniger Marktplayer, all das hat das Internet verändert. Kann die technische Standardisierung etwas dagegen tun?

"Die Internet Engineering Task Force (IETF) ist keine klassische Standardisierungsorganisation, obwohl sie viele Standards produziert", schrieb 1993 Gary Scott Malkin in einem Dokument, das er mit "Das Tao der IETF" übertitelte. Fast drei Jahrzehnte später debattiert die IETF jetzt, ob dieses Grundsatzdokument veraltet ist – ein historisches Relikt. Ist die Debatte auch Ausdruck eines Kulturwandels der Standardisierungsorganisation für das Internet?

"Missing Link"

Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.

"Da alle Teilnehmer (an IETF Konferenzen, d. Red.) Namensschilder tragen müssen, müssen sie auch Hemden oder Blusen tragen. Auch Hosen oder Röcke werden dringend empfohlen. Im Ernst sind Neulinge immer wieder peinlich berührt, wenn sie am Montag früh im Anzug erscheinen, um festzustellen, dass alle anderen hier T-Shirts, Jeans (Shorts, wenn es das Wetter erlaubt) und Sandalen anhaben."

Es sind solche Formulierungen, die das Tao der IETF bekannt und die Organisation für ihre etwas eigenwillige Philosophie berüchtigt gemacht haben. Geschrieben wurde das Tao-Dokument, wie Autor Malkin in RFC 1392 vom Januar 1993 erklärt [2], weil in den 90ern bei jedem der dreimal jährlich stattfindenden Treffen der TCP/IP Standardisierer fast vierzig Prozent Neulinge ankamen. Im Tao, im Original Bibel des Taoismus [3] und von manchen Übersetzern auch als hintersinnige politische Kritik am herrschenden Konfuzianismus interpretiert, brachte man in Fall der IETF den Neulingen Wege und Weisen des IETF-Prozesses nahe.

Von der Offenheit des Standardisierungsprozesses ist da die Rede, jeder kann als individueller Entwickler seine technischen Lösungen für "drängende Probleme für Betrieb und Technik des Internet" vorschlagen. Die Bedeutsamkeit des Arbeitens via öffentlicher Mailinglisten – lange vor Corona-Reisebeschränkungen – wird unterstrichen; auch der Hinweis, dass es eine schlechte Idee ist, Mailinglisten oder Meetings zur Werbung für das eigene Unternehmen zu nutzen, ist enthalten: "die IETF ist keine Trade-Show".

Bis zum Jahr 2000 wuchs die IETF auf die stolze Zahl von 3.000 Teilnehmern. Philosophie und Prozesse wuchsen mit und wuchsen weiter, auch nachdem die Dotcom-Blase geplatzt war. Aus dem taoistisches Vorbild nacheifernden knappen 18-Seiten-Dokument sind 50 Seiten geworden und manchen lustigen Verweis auf den Striptease des notorischen Anzugträgers Vint Cerf zum 20. Geburtstag der IETF hat man längst bereinigt.

Verschoben haben sich die Rollen der IETF-Gremien, etwa das Verhältnis von Internet Architecture Board und Internet Engieering Steering Committee, hinzugefügt wurden auch Kapitel zum Verhältnis der IETF mit der "Außenwelt". Sogar die Presse wurde mit einem How-to-Abschnitt bedacht und davor gewarnt, mit Sensationshunger bei der IETF einzutreffen. Eingefügt wurden schließlich auch Kulturtechniken wie das Humming. Mit diesem "Summen" bringen die Teilnehmer von IETF-Arbeitsgruppen den Grad von Gefallen oder Missfallen an einem technischen Vorschlag zum Ausdruck. Er ist ein Maß für den "rough consensus", den Konsens, mit dem alle leben können.

Trotzdem geht es dem Tao nun an den Kragen. Beim jüngsten Treffen der IETF in Philadelphia stellte der derzeitige IETF-Vorsitzende, Lars Eggert, die Frage, wie man mit dem unhandlichen Dokument künftig verfahren soll. Zwar durchlaufen Update-Versionen der IETF-Bibel nicht mehr den regulären Peer-Review-Prozess. Ein kleines Redaktionsteam pflegt vielmehr die Änderungen der IETF-Struktur mehr oder weniger regelmäßig auf einer dedizierten Webseite [4] ein.

Aber auch das kommt nicht mehr hinterher, was natürlich auch illustriert, wie stark sich die IETF strukturell in den vergangenen Jahren geändert hat – so hat sie mittlerweile ein eigenes rechtsfähiges Dach, ein Unternehmen mit beschränkter Haftung, die IETF Administration LLC. Die IETF ist seriös geworden.

Zudem, so beklagt Eggert, ist es ganz schön verwirrend, dass neben den inzwischen per Webseite veröffentlichten Aktualisierungen die alten Request for Comment-Dokumente fortbestehen, vom ursprünglichen RFC 1931 bis zu RFC 4677 [5].

In IETF-typischer Manier gibt es nun eine hitzige Debatte über das Tao und eine Reihe jüngerer Teilnehmer, darunter auch die aktuelle Vorsitzende des Internet Architecture Board (IAB), Mirja Kühlewind. Sie und ihr Kollege David Schinazi halten das alte Dokument für entbehrliche Folklore. "Ich dachte, das Tao ist so eine Art Schlüssel, um all die Begriffe hier zu entschlüsseln und zu verstehen, warum die Leute hier so merkwürdig sind", meckerte Schinazi. "Aber warum haben wir dem Dechiffrierschlüssel einen so verwirrenden Namen gegeben? Tao war in grauen Vorzeiten vielleicht mal ein niedlicher Name, aber ich weiß nicht viel über den Taoismus und würde wohl eher etwas weniger Irreführendes verwenden", meint der für Google in der IETF aktive Entwickler.

Tao des Pooh

Bei der Referenzierung des Tao hat, glaubt man einigen der älteren Entwickler, eher das 1982 erschienene "Tao des Pooh" beziehungsweise das "Te des Ferkels" eine Rolle gespielt. Aber die gehören heute, so beklagen manche ältere IETF-Teilnehmer, eben nicht mehr zur kanonischen Lektüre aller Nerds, ebenso wenig wie der von Tao-Autor Malkin noch eigens im Glossar für Internetuser referenzierte Neuromancer von William Gibson.

Einen Grabstein fürs angestaubte Tao forderten daher IAB-Chefin Kühlewind, Mozilla-CTO und TLS-Papst Erik Rescorla, aber auch Daniel Kahn Gillmor, der seit vielen Jahren im Dienst der American Civil Liberties Union in der IETF mitarbeitet. Er habe das Tao-Dokument durchaus mit Gewinn gelesen. Als Pflichtritual für Neulinge werde es aber doch eher zur Schikane, und "ich bin gegen Schikanen".

Statt Neulinge durch 50 Seiten eines historischen Artefakts (Rescorla) zu jagen, so die Ansicht der (etwas) Jüngeren, seien kurzgefasste Dokumente zu einzelnen Aspekten, Tutorials oder Videos zeitgemäßer, um diejenigen in die Arbeit der IETF einzuführen, die keine "Männer mit grauen Bärten" (Gillmor) seien. Ist das Ganze eine Wachablösung, ein Generationenwechsel in der IETF?

Einen ersten Generationswechsel beobachtete Jeanette Hofmann, Deutschlands vielleicht erste Internet-Governance-Forscherin, schon Mitte der 90er [6]. Hofmann ist Gründungsdirektorin des Alexander von Humboldt-Instituts für Internet und Gesellschaft, Principal Investigator der Forschungsgruppen Demokratie und Digitalisierung und Quantifizierung und gesellschaftliche Regulierung am Weizenbaum Institut und hält Professuren an der TU und der FU Berlin. "Man konnte zu dieser Zeit bereits einen Übergang von der Gründergeneration zu einer nachkommenden Entwicklergeneration beobachten, die nicht so sehr durch die Frontstellung zwischen der offenen, unorthodoxen Internetstandardisierung und der staatlichen Telekommunikationsregulierung geprägt waren."

Dieser erste Generationswechsel, meint Hofmann, sei zugleich von einer stärker kommerziell getriebenen Standardentwicklung für das boomende Internet geprägt gewesen. Vertreter von Herstellern und Netzbetreibern lösten die Forscher von Universitäten rund um das DARPA-Projekt ab.

Zugleich sei der Markt durchaus noch als etwas verstanden worden, was sich – im Gegensatz zur Welt der staatlich abgestimmten Standards – "von unten" entwickle, und selbst, wenn man für Firmen entwickelte, hielten die Entwickler zugute, dass sie nicht reine Firmeninteressen verfolgten. Trotz gewisser Ausnahmestellungen, etwa von Unternehmen wie Cisco oder Juniper, sei der Markt in den 90ern allerdings noch nicht so konzentriert und vermachtet gewesen wie heute, ergänzt die Berliner Forscherin.

Streng genommen sei der von Hofmann beschriebene Generationswechsel schon der Zweite gewesen, sagt John Klensin, ehemaliger IAB -Vorsitzender, Autor des E-Mail-Standards Simple Mail Transfer Protocol (SMTP) und ein IETF-Urgestein. Denn die eigentlichen Gründer, die "Arpanet-Crew", waren mit der Übergabe des Netzes von DARPA an die National Science Foundation raus. Den Bruch von einer akademischen zu einer stärker Markt orientierten Entwickler-Community kann Klensin dennoch bestätigen. Länger als andere Standardisierungsorganisationen habe die IETF dem Trend zu "professionellen Standardisierern" aus Firmen getrotzt. Aber der Trend sei nicht wirklich aufzuhalten, sagt Klensin.

Der Router- und Hardware-Hersteller Cisco, der zu Glanzzeiten 100-Menschen-starke Gruppen zur IETF brachte, die sich dann an den Saalmikrofonen gerne auch mal widersprachen, ist ein Beispiel für den Trend. "Ein Kollege im Bereich Industriesteuerung erzählte mir, dass man sich weniger auf Design und Innovation und mehr auf Marketing und Profitmaximierung konzentriert", berichtet Klensin.

Seine Vorreiterstellung im Standardisierungsprozess, die durch den mit Abstand größten Anteil an den RFCs verschiedener Unternehmen [7] dokumentiert ist, hat Cisco verloren. Immerhin schickt das Unternehmen nach wie vor viele Teilnehmer, etwa 30 waren es beim jüngsten IETF Meeting in Philadelphia und damit mehr als Google (24), Huawei/Futurewei (24) Juniper (19), Microsoft (15) und Apple mit genauso viel wie die National Security Agency (12).

Bei den Publikationen setzte sich Google 2021 laut den Angaben von einem anderen Ex-IETF-Chef, Ericsson Ingenieur Jari Arkko, wohl erstmals vor Cisco. Ebenso wie Huawei veröffentlichte Google 2021 25 RFCs. Die Liste der Standards, an denen Google beteiligt war, unterstreicht die Dominanz des US-Unternehmens noch mehr. Sie reicht von weiteren Dokumenten zur Standardsuite des neuen Transportprotokolls QUIC, über TLS Certificate Compression bis zu Richtlinien zur Nutzung von Multiplexing-Features des Real-Time Transport Protokolls (RTP) oder Captive Portal-Identifizierung bei DHCP und Router Advertisements.

Ländervergleich im Laufe der Jahre

(Bild: Jari Arkko [8])

Das Internet besser machen sei das Ziel der IETF, schrieb Harald Alvestrand, erster nicht-amerikanischer Vorsitzender der IETF, während seiner Amtszeit 2004 in einem RFC zur Mission der Standardisierer. Ein besseres Internet dient heute freilich dem Geschäftsmodell des Riesen. Die Optimierung für kurze Latenzen etwa macht ihre Dienste attraktiver und hält Daten-bringende Kunden bei der Stange. Alvestrand, der für seinen IETF Vorsitz von seinem damaligen Arbeitgeber Cisco unterstützt wurde, gehört heute genauso wie Internet Vater Vint Cerf zum Team Google. Auch Huawei hat ehemalige Cisco-Mitarbeiter angeheuert und will es Google offenbar nachmachen. Die beiden kürzlich um den IETF-Vorsitz ins Rennen geschickten Huawei. und Futurewei-Vertreter, Barry Leiba und Alvaro Retana, arbeiteten früher auch für Cisco.

Wenn wenige große Unternehmen die Entwicklung der Standardisierung rund um TCP/IP dominieren, müsste sich die IETF Regeln gegen den möglichen Missbrauch des Standardisierungsprozesses einfallen lassen, meint Wissenschaftlerin Hofmann. Wie könnten die Organisation sonst noch für sich Inklusivität, Offenheit und Fairness in Anspruch nehmen – im Gegensatz zur Erzfeindin ITU, der UN-Organisation zur Technik der Telekommunikationsnetze?

Es fehle in der IETF tatsächlich an Werkzeugen, um wenige, besonders lautstarke Unternehmen im Standardisierungsprozess einzuhegen und zu verhindern, dass diese den Prozess der IETF prägen. Die IETF sei zugleich Opfer der fortschreitenden Konsolidierung des Marktes, fürchtet Klensin, aber in gewisser Weise auch Teil des Problems.

Die Decentralized Internet Infrastructure Research Group (DINRG) präsentierte beim Treffen in Philadelphia im Juli die Ergebnisse ihres Workshops zum Problem der Zentralisierung [9] und konstatierte nüchtern, man sei sich einig, dass die Zentralisierung im Bereich Datentransportnetze, Kontrolle über Plattformen, Entwicklung neuer Applikationen und deren Implementierung rapide vorangeschritten ist. Es ist nach einem Bericht des Internet Architecture Board [10] (IAB) schon die zweite Mahnung innerhalb von zwei Jahren.

Der DINRG-Bericht geht in seiner Analyse noch einen Schritt weiter. Nicht nur Netze und Anwendungen selbst, auch die Entwicklung von Standards erfahre den Trend zur Konsolidierung, stellen die Autoren des Workshops Berichts, Datenschutzexperte Christian Huitema, APNIC-Chefwissenschaftler Geoff Huston und die beiden DINRG-Vorsitzenden, der deutsche Wissenschaftler Dirk Kutscher und seine US-Kollegin Lixia Zhang fest.

"Heute gibt es offenbar nur noch eine kleine Zahl von Organisationen in einer überschaubaren Zahl von Ländern, die Internetprotokolle entwickelt", schreiben sie. Sogar auf einzelnen Schichten des Internet Protokollstacks wollen manche Beobachter Konzentrationstrends erkennen: Das neue Transportprotokoll QUIC und auch Konzepte wie DNS over HTTPS [11] sind geeignet, die Kontrolle über Verkehre in weniger Hände zu legen, so die Befürchtung.

Zwei Hauptfaktoren hat laut den DINRG-Beobachtungen die Konsolidierung in den Netzen begünstigt. Einerseits sind es die klassischen Skaleneffekte, die man laut Huston auch aus anderen Industrien kennt. Weil die Marktkonsolidierung aber auf die Massierung von Nutzerdaten aufbaut, sei der Effekt dramatischer als bei General Motors oder General Electric. Bei über 90 Prozent Marktanteil von Google Search entscheide letztlich das Unternehmen aus Kalifornien, was man über beliebige Fragen denken soll.

Der Vorsprung Googles beim Besitz von Nutzerdaten habe sogar Microsofts Versuch, durch große Investitionen in Bing gegenzuhalten, zum Scheitern gebracht, meint Huitema, der 2016 Microsoft verließ.

Der zweite Konzentrationstreiber ist das Thema Sicherheit. "Der TCP/IP-Protokollstack kam ohne Sicherheitsfeatures, sodass naive IP-Devices leicht zu kompromittieren waren. Das bereitete bösartiger Nutzung einen fruchtbaren Boden." Die sich immer höher auftürmenden Wellen von Distributed Denial-of-Service-Attacken führten daher dazu, dass "große Player Festungen gebaut haben, die Clouddienste, mit starken Mauern", und die Nutzer werden alle gezwungen, sich via TLS-abgesicherter Verbindungen in der Cloud anzumelden – denn eine sichere ID fürs individuelle Nutzerdevice fehlt. In gewisser Weise sei man so wieder da, wo man in den 70ern war. Statt der gepriesenen Ende-zu-Ende Kommunikation ahme man heute wieder die Einwahl der User Terminals via Mainframe-Rechner nach, befanden die DINRG-Autoren.

"Das Internet ist im Prinzip kaputt", sagt Kutscher. Technische Neuentwürfe aus der Wissenschaft würden übrigens kaum noch gefördert, bedauert der Professor der Hochschule Emden.

Auch das Posterchild der Dezentralität, die E-Mail, liegt wegen der Sicherheitsprobleme am Boden, setzt Kutschers Kollege Stephen Farrell vom University College Dublin hinzu. Die vielen Absicherungsmaßnahmen gegen Spam, DKIM, DMARC und dergleichen, seien gar nicht so kompliziert, versichert er. "Es ist einfach so, dass man viel mehr Chancen hat, im Betrieb etwas zu verbocken." So betreibe er selbst – wie vielleicht noch einige wenige tausend Nerds weltweit – seinen Mailserver. Sein renommiertes College aber hat längst auf Outlook umgestellt; man könne es den IT-Administratoren noch nicht einmal verdenken.

Es ist nicht so, versichern langjährige IETF-Experten wie Farrell oder der Wes Hardaker von der University of Souther California, einer der geschichtsträchtigen Wiegen des Internets. Mit dem Jabber, im Entwicklerjargon XMPP, etwa habe die IETF ein dezentrales, auf Interoperabilität getrimmtes Chatprotokoll für den für die für Konzentrationseffekte anfälligere Anwendungsschicht standardisiert. Aber selbst wenn Firmen XMPP einsetzten, schalteten sie die Möglichkeit für die Nutzer, mit anderen Diensten zu kommunizieren, einfach aus, berichtet Farrell.

Hardaker hat noch ein anderes Beispiel: das Echtzeitkommunikationsprotokoll WebRTC. Da Services wie Zoom WebRTC nutzen, wäre es ein leichtes, Interoperabilität zu anderen Videokonferenzdiensten zu realisieren. "Ich kann Zoom austricksen, um etwa mit dem von uns hier genutzten Jitsi zu kommunizieren", versichert Hardaker.

"Man kann die Leute nicht zu Interoperabilität zwingen", betont Farrell.

So kommen IETF und die DINRG-beherbergende Internet Research Task Force, die Forschungsschwester der IETF, letztlich zu einem Ergebnis. Die Standardisierer können nicht viel tun. Ein paar Ideen hat HTTP-Guru Mark Nottingham vorgeschlagen [12]. So ergebe es nach wie vor Sinn, Alternativen zu proprietären Diensten zu standardisieren, während Vorschläge für rein proprietäre Technik von der IETF oder auch dem W3C nicht standardisiert werden sollten.

Die Möglichkeit, Standards für Weiterentwicklungen und Zusatzfeatures offenzuhalten, mache viel Sinn und anstatt Intermediäre, also Dritte, die zwischen den Endpunkten sitzen, rundweg abzulehnen, sei es besser, deren Wirken klar zu standardisieren. Im Webprotokoll HTTP etwa hätten sich anfangs Intermediäre ohne Wissen der Endpunkte einschalten können. HTTPS (und Connect) verhindere das nun.

Nottingham warnt aber vor überzogenen Vorstellungen, die erste Regel laute, realistisch zu bleiben.

Sowohl der Australier als auch Hardaker und der DINRG-Workshop stellen zugleich fest: Regulierung kann helfen, indem sie dort auf Interoperabilität pocht, wo entsprechende Protokolle vorliegen. Dass die EU dies gerade in Bezug auf Messenger austesten will, begrüßte Hardaker bei einer öffentlichen Sitzung des IAB in Philadelphia und lobte die Effekte des Digital Markets Act ausdrücklich. Sicher komme es am Ende sehr darauf an, wie das Interoperabilitätsgebot implementiert werde, meint er. Die gestiegene Aufmerksamkeit für das Problem unnötig abgeschlossen gehaltener Walled Gardens aber sei gut. So gut finden diese Idee aber nicht alle IETF-Teilnehmer und Googles Vertreter gehören nicht zu den heißen Befürwortern. Farrell mahnt immerhin, wer A und EU-Regulierung sage, müsse damit rechnen, dass ihm auch bald eine B-Regulierung aus weniger demokratischen Ecken abverlangt werde.

IETF-Chair Eggert gibt sich im Gespräch über die Spannungen diplomatisch. Die offene, praktisch basisdemokratische Arbeitsweise lasse die Spannungen in der guten alten IETF dramatischer erscheinen, als sie seien, sagt er. Natürlich sei es nicht ganz einfach, eine diversere IETF, in der etwa Ideen von Huaweis New IP [13] auf totale Verschlüsselung unter dem Dach einzelner Hyperscaler prallen, durch politischer werdende Auseinandersetzungen zu navigieren. Manchmal komme es ihm vor, als habe er eine kleine Mini-UN vor sich, sagt Eggert.

Auch für Eggert ist der Konzentrationstrend ein Problem und auch er schielt auf die Regulierung. Gute Regulierung könnte helfen, etwa um interoperable Videokonferenzplattformen zu ermöglichen. "Technisch steht dem eigentlich nichts im Weg", sagt er.

Er sieht die IETF noch gut aufgestellt in Bezug auf die Pluralität. "Bei uns kann nach wie vor jeder PhD-Student oder irgendwie Interessierte mitmachen und seine Vorschläge mitbringen", unterstreicht er. Ein kürzlicher Bericht habe überdies ergeben, dass 33 Prozent der Zeit, die Teilnehmer in die IETF investieren, tatsächlich auch persönliche [14], nicht vom Arbeitgeber bezahlte Zeit ist. Und noch immer gelte, einfach Massen von Entwicklern in eine Arbeitsgruppe zu schicken, um den eigenen Vorschlag qua Lautstärke durchzudrücken, widerspricht nach wie vor den ungeschriebenen Gesetzen. Der Community entgehe das in der Regel nicht und sie spreche das sofort an, so Eggert.

Können Google, Cisco oder auch Apple viele Entwickler schicken und mit schneller Implementierung wuchern? Ja. Aber die Standardisierung von QUIC, die von vielen als Google getriggert erschien, habe eben auch gezeigt, dass sich Googles Wünsche für die Spezifikation häufig nicht durchgesetzt haben.

Der Abschied vom "Regierungen, lasst uns in Ruhe"-Mythos [15] ist für Eggert keine Frage mehr. Tatsächlich diskutiert er gemeinsam mit den IETF-Gremien und der Internet Society darüber, wie Regulierer besser durch die IETF informiert und beraten werden könnten. Denn gute Standards sind eine Herausforderung, aber gute Regulierung ist vielleicht noch schwieriger.

Ob künftige neue Stakeholder dann das alte Tao zu lesen bekommen – oder ein ganz neues Tao? Ein bisschen kürzer als 50 Seiten dürfte es dafür wohl schon sein.

(bme [16])


URL dieses Artikels:
https://www.heise.de/-7244186

Links in diesem Artikel:
[1] https://www.heise.de/thema/Missing-Link
[2] https://www.heise.de/netze/rfc/rfcs/rfc1392.shtml
[3] http://www.tao-te-king.org/
[4] https://www.ietf.org/about/participate/tao/
[5] https://www.heise.de/netze/rfc/rfcs/rfc4677.shtml
[6] https://duplox.wzb.eu/docs/ipng/index.html
[7] https://www.arkko.com/tools/rfcstats/companydistr.html
[8] https://www.arkko.com/tools/rfcstats/countrydistrhist.html
[9] https://datatracker.ietf.org/meeting/114/materials/slides-114-dinrg-draft-report-of-dinrg-workshop-on-centralization-in-the-internet-01
[10] https://www.heise.de/news/IETF-wendet-sich-gegen-unerwuenschte-Konzentration-im-Internet-5991490.html
[11] https://datatracker.ietf.org/doc/slides-interim-2021-dinrg-01-sessa-mitigation-options-against-centralization-in-dns-resolvers-jari-arkko/
[12] https://datatracker.ietf.org/doc/pdf/draft-nottingham-avoiding-internet-centralization-05
[13] https://www.heise.de/news/Missing-Link-Neuer-Protokollkrieg-Streit-um-New-IP-und-erneuertes-Internet-4705192.html
[14] https://www.ietf.org/media/documents/IETF_Community_Survey_2021.pdf
[15] https://www.heise.de/tp/features/Unabhaengigkeitserklaerung-des-Cyberspace-3410887.html
[16] mailto:bme@heise.de