Der Monat der Netzpolitik
Neuland no moreMan kann mit Fug und Recht behaupten, dass dieser Monat einer der wichtigeren war, was politische Entscheidungen zum Internet angeht. In weiten Teilen überschattet von der Flüchtlingskrise, die täglich die Nachrichten füllt, waren die im Folgenden ausgeführten Ereignisse nur eine so kurze Randnotiz, dass die Süddeutsche einem der Themen einen Artikel unter dem Titel „Dieses Thema interessiert Sie nicht – sollte es aber“ veröffentlichen musste. Netzpolitik ist abstrakt, irgendwo ungreifbar und man glaubt als einfacher Bürger, wenig Einfluss auf sowohl die großen Internetkonzerne als auch die Politik haben zu können. Dass das nur bedingt stimmt, zeigt gleich der erste Teil.
Alle im Folgenden höchstens kurz behandelten Themen sind für sich genommen so interessant und ausführlich, dass man zu jedem einzelnen einen Text schreiben könnte, der die Länge dieses hier bei weitem übersteigt – und Journalisten und Blogger haben genau das getan. Ich empfehle jedem, sich selbst zu informieren. Dieser Artikel verzichtet absichtlich auf Quellen. Wir haben ein freies Internet: Wenden Sie sich einfach an die Suchmaschine Ihres geringsten Misstrauens und recherchieren Sie!
Das Internet ist ein integraler Bestandteil unserer Gesellschaft und unseres Alltags geworden. Wir sollten seine Belange nicht ignorieren.
Safe Harbor
Safe Harbor war ein Entscheidung der europäischen Kommission, die den Transfer von personenbezogenen Daten in die USA erlaubt hat. Eigentlich sieht der europäische Datenschutz vor, dass personenbezogene Daten nur in Länder übertragen werden dürfen, in denen zur EU vergleichbare Datenschutzstandards herrschen. In den USA ist das grundsätzlich nicht der Fall.
Um eine Übertragung dennoch möglich zu machen (schließlich ist die Speicherung von Nutzerdaten in den USA wichtiger Teil des Geschäftsmodells von zum Beispiel Facebook), wurde 2000 das Safe-Harbor-Prinzip eingeführt. Unternehmen können sich im US-Handelsministerium in eine Liste eintragen, verpflichten sich, bestimmte Regeln zu beachten, und dürfen dafür personenbezogene Daten aus der EU in die USA übertragen, um sie dort zu speichern und zu verarbeiten.
Wegen der in den USA geltenden Sicherheitsgesetze, die Unternehmen zur stillschweigenden Herausgabe auch von personenbezogenen Daten von EU-Bürgern zwingen können, war das Abkommen schon länger in der Kritik, da die Einhaltung hoher Standards, die Safe Harbor eigentlich herstellen sollte, nicht sichergestellt werden konnte. Im Rahmen der Veröffentlichung um Edward Snowden wurde diese Kritik lauter.
Die Klage, die zum Kippen von Safe Harbor führte, begann als Einzelfall in Irland, in dem die europäische Niederlassung von Facebook ansässig ist. Die dortige nationale Datenschutzbehörde hat die Prüfung von Datenschutz-Beschwerden gegen Facebook mit Verweis auf das Safe-Harbor-Abkommen abgelehnt. Der junge Österreicher Jurist Max Schrems, der die Beschwerden mit einem eigens dafür gegründeten Verein eingebracht hat, hat allein durch Spenden finanziert gegen das Vorgehen der Datenschutzbehörde beim irischen High Court geklagt, das den Fall recht schnell an den Europäischen Gerichtshof weitergereicht hat. Fragestellung: Kann eine Entscheidung der europäischen Kommission (wie Safe Harbor eine ist) die Durchgriffsrechte nationaler Datenschutzbehörden beseitigen oder beschränken?
Diese Frage wurde am 6. Oktober eindeutig mit Nein beantwortet. Wenn in einem Drittland systematische Mängel den Schutz europäischer Grundrechte wie Privatsphäre und den Schutz personenbezogener Daten aushebeln, kann eine Entscheidung der europäischen Kommission das Vorgehen der zuständigen nationalen Datenschutzbehörden nicht blockieren. Konkret bedeutet das, und so wurde es auch im Urteil betont, dass, wenn personenbezogene Daten in den USA nicht hinreichend geschützt werden können, wie es auf Grund der geltenden Rechtslage der Fall ist, das Safe-Harbor-Abkommen weiteren Datentransfer entgegen dem europäischen Datenschutz nicht rechtfertigen darf. Es ist ungültig; nationale Datenschutzbehörden (wie im konkreten Fall die irische) müssen nach europäischen Recht eine Prüfung vornehmen und können sich nicht hinter dem Abkommen verstecken.
Als das Urteil gesprochen war, waren die Reaktionen sehr extrem. Die einen äußerten die Befürchtung, dass künftig nicht nur Facebook und co., sondern auch viele andere amerikanische Unternehmen nicht mehr in Europa tätig sein würden, weil die hohen Datenschutzanforderungen entweder eine teure Niederlassung in Europa notwendig machen würden (gerade für kleine Unternehmen unmöglich), oder der nunmehr strengere europäische Datenschutz das Geschäftsmodell der unternehmen zerstören würde. Datentransfer rein auf Basis von Safe Harbor ist schließlich illegal. Andere Stimmen waren sehr euphorisch in ihrer Reaktion; ein Sieg gegen Facebook, jetzt seien unsere Daten sicher.
Rückblickend hat sich nichts geändert: Euphorie und Panik haben sich gelegt, wir verwenden Facebook immernoch. Warum? Momentan gibt es noch eine Alternative: Sogenannte Standardvertragsklauseln, die unternehmen wörtlich in ihre Verträge oder AGB übernehmen müssen, können gemeinsam mit einer Erklärung, wofür die Daten verwendet werden, eine Übertragung von personenbezogenen Daten ermöglichen. Bis Ende Februar 2016 soll jedoch überprüft werden, ob diese Standardvertragsklauseln (gemeinsam mit anderen Regelungen) nicht ebenfalls unter dieses Urteil fallen und damit ungültig sind.
Daher ist auf kurz oder lang wieder die Politik am Zug, für Nutzer aus der EU sichere Vereinbarungen zu treffen.
Vorratsdatenspeicherung
Verdachtsunabhängige Vorratsdatenspeicherung oder, wie sie jetzt heißt, Höchstspeicherfrist für Verkehrsdaten bezeichnet das Konzept, alle Metadaten von Telekommunikationsverbindungen, also wer mit wem und an welchem Ort wann kommuniziert hat, anlasslos für eine bestimmte Zeit zu speichern, um sie bei Bedarf auswerten zu können. Die Speicherung erfolgt dabei dezentral nicht beim Staat, sondern bei den einzelnen Telekommunikationsanbietern wie der Telekom, die die Daten auf richterlichen Beschluss herausgeben müssen. Die gesammelten Daten sollen bei der Verhinderung und Verfolgung schwerer Straftaten, insbesondere Terrorismus, verwendet werden.
Ein entsprechendes Gesetz war in Deutschland in der Vergangenheit bereits einige Zeit in Kraft. 2007 von der damaligen großen Koalition beschlossen, wurden die Verbindungsdaten jedes einzelnen Bürgers mindestens jeweils 6 Monate lang gespeichert, bis das Gesetz 2010 vom Bundesverfassungsgericht gekippt wurde: Es verstoße gegen das Post- und Fernmeldegeheimnis; grundsätzlich sei eine Vorratsdatenspeicherung allerdings möglich, wenn das Gesetz die Einhaltung bestimmter Richtlinien sicherstellt.
Auf Basis einer EU-Richtlinie, die die Einführung einer Vorratsdatenspeicherung vorschrieb, wurde die erneute, dieses mal verfassungskonforme Umsetzung der Vorratsdatenspeicherung in den gemeinsamen Koalitionsvertrag der aktuellen Regierung aufgenommen, zumal die EU wegen der Nichtumsetzung der Richtline durch Deutschland im Rahmen eines Vertragsverletzungsverfahrens erhebliche Schadensersatzansprüche geltend machen wollte.
Im Frühjahr 2014 wurde eben diese EU-Richtlinie jedoch durch den Europäischen Gerichtshof als ungültig aufgehoben. Sie verstoße gegen die in der Europäischen Grundrechtecharta festgelegten Rechte auf Privatsphäre, den Schutz von personenbezogenen Daten sowie das Prinzip der Verhältnismäßigkeit.
Trotz vielfältiger Kritik wurde das Gesetz zur Vorratsdatenspeicherung, die nun zur wesentlich freundlicher klingenden Höchstspeicherfrist für Verkehrsdaten umbenannt wurde, am 16. Oktober im Bundestag verabschiedet.
Das Gesetz verpflichtet Telekommunikationsanbieter zur Speicherung von Standortdaten bei Telefonie und Nutzung von mobilem Internet über 4 Wochen, Rufnummern und Kommunikationszeiten bei Telefonie und SMS, sowie Daten zur Nutzung des Internets einschließlich der Zuordnung von IP-Adressen über 10 Wochen.
Diese Daten werden immer gespeichert, bei allen Nutzern von Kommunikationsdiensten in Deutschland. Um Grundrechte weiter zu schützen, ist jedoch die Auswertung der gespeicherten Daten von zum Beispiel Journalisten nicht zulässig.
Grundsätzlich scheint so eine Vorratsdatenspeicherung ja keine schlechte Idee zu sein. Nach Straftaten kann man die Kommunikation von Verdächtigen nachverfolgen und Komplizen zur Rechenschaft ziehen; bei klarer Bedrohungslage vielleicht auch schon bevor etwas schlimmes passiert die Täter festnehmen. Die Idee entstand als Antwort auf die zunehmende Terrorgefahr und soll im besten Fall Anschläge verhindern können. Dabei umgeht sie elegant das Problem, dass der Staat die Daten schon ohne vorherigen Verdacht erfassen muss, was eine erhebliche Verletzung von Privatsphäre und Fernmeldegeheimnis wäre.
Allerdings ist Vorratsdatenspeicherung nicht das Allheilmittel, als das sie häufig angepriesen wird. Ganz grundsätzlich ist sie ein massiver Grundrechtseingriff. Dass der Staat die Daten ja gar nicht erhebt, sondern nur die Telekommunikationsanbieter, und dass eine Auswertung nur nach rechtsstaatlichen Maßgaben möglich ist, ist eine relativ schlechte Ausrede. Bereits 2009 vor dem Bundesverfassungsgericht beim ersten Gesetz zur Vorratsdatenspeicherung wurde eine einfache Metapher bemüht: „Wo ein Trog ist, da kommen die Schweine.“ Wenn die Daten gespeichert werden, werden sie früher oder später auch genutzt. Und es braucht nicht viel Fantasie, sich auszumalen, dass irgendwann mal argumentiert wird, man könne die zur Verfolgung schwerer Straftaten gespeicherten Daten doch auch zur Verfolgung von Raubkopierern verwenden. Und vielleicht bei noch geringeren Straftaten. Warum auch nicht? Verhältnismäßig ist dieser Eingriff in die Grundrechte dann jedoch definitiv nicht mehr.
Neben der Gefahr des Missbrauchs der Daten stellt sich die Frage der Wirksamkeit der Vorratsdatenspeicherung. Verschiedene Studien stellen fest, dass sich in der Zeit, in der in Deutschland Vorratsdatenspeicherung eingesetzt wurde, Kriminalitätsrate und Aufklärungsrate quasi gar nicht verändert haben. Gerade bei Terror-Anschlägen war der Täter häufig vorher schon bekannt, stand auf entsprechenden Listen der Geheimdienste und wurde trotzdem nicht gefasst. Bei den Anschlägen 2011 in Norwegen war der Täter dem Geheimdienst schon monatelang bekannt; und wenn Sigmar Gabriel sagt, nur durch Vorratsdatenspeicherung hätte man den Fall in Norwegen so schnell klären können, vergisst er, dass sie zu diesem Zeitpunkt noch gar nicht in Kraft war. Wenn viele Politiker nach den Anschlägen auf Charlie Hebdo Anfang diesen Jahres die schnelle Wiedereinführung der Vorratsdatenspeicherung fordern, vergessen sie, dass die in Frankreich bestehende Vorratsdatenspeicherung weder das Attentat auf die Zeitung, noch die Folgeanschläge in Paris und Umgebung verhindern konnte.
Neben diesen beiden Hauptargumenten gibt es noch weitere Argumente gegen Vorratsdatenspeicherung. So herrscht die Befürchtung, sie hebelt den Quellenschutz von Journalisten aus. Zusammen mit dem ebenfalls neu eingeführten Straftatbestand der Datenhehlerei, dessen sich jeder schuldig macht, der geheime Dokumente austauscht, wird investigativer Journalismus erheblich erschwert.
Außerdem ist ein Zugriff auf einen Teil der im Rahmen der Vorratsdatenspeicherung nun länger gespeicherten Daten, nämlich der Bestandsdaten, bereits ohne richterlichen Beschluss möglich. Obwohl öffentlich stets betont wurde, dass zum Zugriff auf die Daten aus der Vorratsdatenspeicherung „hohe Eingriffsvoraussetzungen mit einem Richtervorbehalt“ bestehen, wird in einer nicht-öffentlichen Nebenabrede klargestellt: Informationen über Bestandsdaten, also welchem Nutzer wann welche IP-Adresse zugeordnet war, waren von Telekommunikationsanbietern schon immer ohne Richtervorbehalt zu erteilen. Diese Daten liegen künftig aus der Vorratsdatenspeicherung auch länger vor, und dürfen wie gehabt ohne Richtervorbehalt verwendet werden.
Trotz Widerstände aus Bevölkerung und Wirtschaft wird das Gesetz jetzt eingeführt. Die FDP hat bereits eine Verfassungsklage gegen das Gesetz angekündigt.
Netzneutralität
Der Begriff „Netzneutralität“ bezeichnet eines der fundamentalen Prinzipien des Internets: Alle Daten werden gleich behandelt. Ob ich über das Internet telefoniere, Videos schaue oder meine Mails abrufe – die Daten werden gleich behandelt und immer mit der gleichen Geschwindigkeit übertragen.
Dieses Prinzip stammt noch aus den Anfängen von Computernetzwerken, aus denen letztendlich ein einziges weltweites, nämlich das Internet hervorgegangen ist: Jeder, der die entsprechenden Geräte hatte, konnte sich an ein Netzwerk anschließen und mitmachen. Heute kennt man das zum Beispiel von LAN-Parties. Mit einer weltweiten Vernetzung stellen sich jedoch zwei für die Struktur des Internets prägende Herausforderungen:
Einerseits müssen möglichst effizient Endkunden an das Netz angebunden werden, was über die bereits zur Telefonie vorhandenen Kupferleitungen, die zentral bei den Telekommunikationsanbietern zusammenlaufen. Andererseits müssen die Weltmeere überbrückt werden, wozu lange Glasfaserleitungen auf dem Meeresgrund verlegt werden. Das führt, obwohl nicht durch die Technologie vorgegeben, zu einem sternförmigen Aufbau des Internets.
Durch die Verbreitung neuer Internetdienste wie Netflix und YouTube steigt die Datenmenge im Internet rapide an. Die bereits erwähnten Glasfaserleitungen sind noch lange nicht an ihren Kapazitätsgrenzen angelangt; die alten Kupferkabel in den Haushalten hingegen schon. Bei klassischem ADSL wird in der Ortsvermittlungsstelle das Internet ins Kupfernetz eingespeist, was die Geschwindigkeiten begrenzt. Schneller ist dagegen VDSL, wo das Glasfaserkabel bis in einzelne Straßen verlegt werden muss, wo es in den neu zu bauenden Outdoor-DSLAMs ins Telefonnetz eingespeist wird. Doch auch hier ist man an das relativ langsame Kupferkabel gebunden. Im Idealfall würde man die Glasfaserkabel direkt bis ins Haus legen, wie es Google in einigen Städten in den USA derzeit tut. Doch solch ein Netzausbau ist teuer und wurde bis vor kurzem von den Telekommunikationsanbietern nicht vorangetrieben. Ähnliche Probleme existieren auch beim mobilen Internet über das Mobilfunknetz.
Und an dieser Stelle beginnt die Debatte um Netzneutralität. Ein wichtiges Argument der Telekommunikationsanbieter ist nämlich, die Anbieter solcher Dienste, die durch ihr hohes Datenaufkommen die Leitungen „verstopfen“, an den Kosten für den Netzausbau zu beteiligen. Das wäre nur fair, außerdem könne der innovative Anbieter so sicherstellen, dass sein Dienst nicht ins Stocken gerät (was ja sein Geschäftsmodell gefährden würde). Will ein Anbieter nicht zahlen, muss er jedoch damit rechnen, dass seine Daten nur langsamer übertragen werden (können).
Umgekehrt möchten die Telekommunikationsanbieter ihre eigenen Dienste, für die der Kunde bezahlt, mit garantierter Qualität ausliefern können: So sollten „Voice-over-IP“-Telefonate, die die klassische analoge Telefonie ablösen, natürlich nicht ruckeln, weil jemand nebenan ein YouTube-Video guckt. Die Telekom zum Beispiel bietet zusätzlich „Entertain“ an, was Fernsehen über das Internet ermöglicht. Der Kunde hat dafür extra gezahlt, also sollte auch das nicht ruckeln.
Zu guter Letzt gibt es noch Dienste, die im Interesse der Allgemeinheit immer funktionieren sollten: Der Notruf und Tele-Medizin werden an der Stelle immer genannt, aber auch die selbstfahrenden Autos der Zukunft (die aber ein schlechtes Beispiel sind, weil sie für ihre autonome Fahrweise gar nicht aufs Internet angewiesen sind). Alles in allem geht es darum, für wichtige Dienste eine „Überholspur im Internet“ einzurichten.
Dennoch gibt es gute Gründe für Netzneutralität. Das Internet hat sich schon immer durch seine große Offenheit ausgezeichnet. Neue, innovative Ideen konnten entstehen und groß werden, weil der von ihnen verursachte Datenverkehr nicht diskriminiert wurde. Ein Startup kann mit seiner innovativen Idee gar nicht groß werden, wenn Telekommunikationsfirmen sie vor die Wahl stellen „Entweder gibst du mir einen Teil deines Umsatzes, oder du wirst bei deinen Kunden in meinem Netz nur sehr langsam ankommen.“ Denn das ist die Konsequenz: Wenn eine „Überholspur für Spezialdienste“ im Internet eingeführt wird, muss der Rest zwangsläufig langsamer sein – sonst gäbe es ja gar kein Interesse, diese Überholspur benutzen und insbesondere für sie zu bezahlen.
Außerdem schafft die Einrichtung einer Überholspur für wichtige oder bezahlte Dienste den Anreiz für Telekommunikationsanbieter, den teuren Netzausbau nicht voranzutreiben: So steigt der Druck von Endkunden und Diensteanbietern, Geld auszugeben, um auf die bezahlte Überholspur zu wechseln, die nicht ruckelt.
Jetzt argumentieren Telekommunikationsanbieter gerne, echte Netzneutralität habe es nie gegeben, da Internetverkehr schon immer priorisiert wurde, um das Benutzererlebnis zu optimieren. Das ist tatsächlich korrekt: Einerseits ist es bei Internetanschlüssen von Privatkunden so, dass die Download-Geschwindigkeit wesentlich größer ist als die Upload-Geschwindigkeit, obwohl eine „gerechte“ Aufteilung der insgesamt verfügbaren Bandbreite eigentlich ein Verhältnis 50:50 bedeuten würde. Da der normale Nutzer aber viel mehr Daten empfängt (z.B. Inhalte von Webseiten) als hochlädt (wozu auch Anfragen zählen, eine Website aufzurufen), ist diese Aufteilung sehr sinnvoll.
Andererseits haben die Router, die zwischen Computer und Internet stehen, häufig sogenanntes „Quality of Service“: Anhand bestimmter Heuristiken kann erkannt werden, ob Daten schneller übertragen werden sollten als andere. Im Internet werden Daten in kleinen Paketen verschickt. Kleine Pakete lassen auf interaktive Dienste wie (Video-)Telefonie schließen, die priorisiert werden sollten. Größere deuten zum Beispiel auf Downloads oder E-Mails hin, deren schnelle Übertragung im Vergleich weniger wichtig ist. Diese ist jedoch unabhängig davon, ob jetzt ein bestimmter Dienst für schnellere Übertragung gezahlt hat, findet auf den eigenen Geräten statt und auf einer sehr technischen Ebene.
Wenn entschieden werden muss, ob ein Dienst auf die „Überholspur“ darf, muss hingegen weit tiefer untersucht werden, was da genau verschickt wird. So müsste zum Beispiel die abgerufene Internetseite ausgelesen werden oder das verwendete Protokoll. Dies schafft Infrastruktur, die eine Zensur von bestimmten Inhalten ermöglichen würde. So haben Anbieter von mobilem Internet vor kurzem damit gedroht, wenn die Werbeindustrie nicht einen Teil ihrer Einnahmen an die Betreiber der Mobilfunknetze abtreten würde, könnte die Werbung blockiert werden, sodass sie nicht zum Nutzer gelangt und das Netz nicht blockiert. Das mag auf den ersten Blick wie eine kundenfreundliche und gute Idee klingen, offenbart aber die Möglichkeiten, die damit geschaffen werden könnten.
Für die Netzneutralität sind daher sehr viele Internet-Aktivisten, die um das freie Netz fürchten, aber auch Experten und Internet-Konzerne wie Facebook, Google und Amazon. Für eine Abschaffung der Netzneutralität sind die Telekommunikationsanbieter wie die Telekom.
Um in dem ganzen Problemfeld Netzneutralität europaweit einheitliche Regelungen zu schaffen, wurde am 27. Oktober ein Gesetz im Europaparlament verabschiedet, dem vorher EU-Kommission und europäischen Rat zugestimmt hatten. Neben der Netzpolitik wurde im Rahmen der „Harmonisierung des europäischen Binnenmarktes in der Telekommunikation“ der schrittweise Abbau der Roaming-Gebühren, den Aufpreisen bei der Nutzung von Telefonie, SMS und mobilem Internet im Ausland, beschlossen.
Obwohl das Gesetz dem Namen nach die Netzneutralität schützt, steht es in der Kritik, letztendlich genau das Gegenteil zu bewirken. So wird Netzneutralität grundsätzlich vorgeschrieben, jedoch mit einer Ausnahme für „Spezialdienste“, die priorisiert werden dürfen. Das adressiert grundsätzlich die garantierten Kapazitäten für zum Beispiel Tele-Medizin, erlaubt aber je nach Auslegung auch die Priorisierung von bezahlten Diensten. Die Entscheidung darüber obliegt dann wieder den nationalen Behörden wie der Bundesnetzagentur, wodurch das Verfahren weniger transparent wird und Kritiker einen größeren Einfluss von Lobbyisten fürchten. Letztendlich, so die Kritiker, sei das Zwei-Klassen-Netz also durch die Hintertür eingeführt worden.
Die Verabschiedung der Regeln zur Netzneutralität hat bereits Auswirkungen gezeigt: So hat die Telekom bereits angekündigt, Unternehmen und Startups, die „Spezialdienste“ wie Videokonferenzen oder Online-Gaming anbieten, „ein paar Prozent“ ihres Umsatzes für die Nutzung der Infrastruktur zahlen zu lassen. Das sei „ein fairer Beitrag“.
Eine zweite Auswirkung hat die Regelung in Großbritannien. Dort gibt es einen Filter, der unter anderem pornographische Inhalte im Internet blockiert, und den jeder Nutzer manuell ausschalten müsste. Mit dem Beschluss zur Netzneutralität ist diese Filterung nicht mehr zulässig.