Netzneutralität
Freitag, 24. Juni 2011
Zusammenfassung: Ausblick

In diesem Statement möchte ich jene Ausblicke in die Zukunft zusammenfassen und nochmals besprechen, die ich im vergangenen Semester getätigt habe.

Ausblick in "Google Epic 2015"

Den ersten Blick in die Zukunft habe ich im Beitrag über Google Epic 2015 gewagt. Zunehmende Vernetzung und der zunehmend wachsende Berg an Daten führten zu einer bis dato unbekannten Notwendigkeit: Suchmaschinenoptimierung. Diese wird heute von Wirtschaftsunternehmen und Privatpersonen gleichermaßen intensiv und teils mit fragwürdigen Mitteln betrieben; gilt es doch möglichst oft, relevant und prominent von den Suchalgorithmen der Suchmaschinenbetreiber gefunden zu werden. Durch die Einführung des Web 2.0 wurde dieser Prozess massiv beschleunigt, doch zeichnet sich mit dem "Web 3.0" oder auch "semantic web" bereits der Nachfolger dieses Konzeptes ab.

Wie das semantische Web funktionieren könnte lässt sich durch das folgende Video gut umreißen:

(Quelle: YouTube http://youtu.be/OGg8A2zfWKg)

Auch habe ich in dem Beitrag die zunehmende Aktivität der Menschen im Netz angesprochen und indirekt deren weiteren Anstieg prognostiziert. Die weltweite Verbreitung und Nutzung sozialer Netzwerke wird in der folgenden Grafik gut visualisiert.

Global Map of Social Networking

(Quelle: http://9.mshcdn.com/wp-content/uploads/2011/06/GWI_Mashable_23-06-11.jpg)

Ausblick in "IPv6 - nur Chance und Nutzen oder auch Gefahr - und was davon ist bereits Realität?"

Direkt zu Beginn des Statements beschreibe ich die stetige Beschleunigung der technologischen Entwicklung. Diese ist nicht von der Hand zu weisen. Durch konstante Innovationen und die gesteigerte und weiter steigende Nachfrage nach technischen Produkten und Innovationen seitens Gesellschaft, Industrie und Militär wird dieser Prozess konstant weitergetrieben.

Als Grundlage für diese Überlegung, besonders da der Großteil der Anwendungen und Produkte durch steigende Komplexität auch immer größere Rechenkapazitäten benötigen, lässt sich das Mooresche Gesetz zu Rate ziehen. Die bekannte Technologiefirma INTEL beschreibt in einem Artikel die Gültigkeit und Reichweite des Mooreschen Gesetzes und prognostiziert in dem Artikel durch die stetige Entwicklung eine Vereinfachung und Verbesserung des Lebensalltags der Menschen.

Die Gesellschaft für Unterhaltungs- und Kommunikationselektronik (GFU) beschrieb für die zukunftsweisende Funkausstellung 2010 die Trends. Dazu zählten auch die zunehmende Gerätekonvergenz sowie steigene Mobilität der Angebote bei gleichzeitig wachsender Bandbreite und Verfügbarkeit.

Bezüglich der Umsetzbarkeit und Umsetzung, technischer Probleme etc. prognostizierte ich in meinem Beitrag einige "Anlaufprobleme" für IPv6, schloss zugleich jedoch aber auf eine kurze Test- und Probephase mit geringen Beeinträchtigungen für die Benutzer. Diese Prognose konnte durch den kurzlich durchgeführten "World IPv6 Day" bestätigt werden.

Bezüglich der prognostizierten Datensicherheitsproblematik gibt es den Vorschlag des "Privacy by Design", dieser sowie die verbundene Problematik wird im Beitrag "IPv6: Bundesdatenschutzbeauftragter fordert Privacy by Design" vorgestellt.

Ausblick in "Privatsphäre ist tot! Lang lebe Privatsphäre - Ein Ausblick."

Wie der Titel meines Statements zum Thema Privatsphäre bereits erkennen lässt, stellt der gesamte Artikel eine Prognose dar.

Da mein Beitrag noch relativ "jung" ist und ich bis dato keine neuen Erkenntnisse zu diesem Thema habe, kann ich die darin gesammelten Informationen bisher nicht ergänzen.

Zu meiner Forderung, die Benutzer müssten ähnlich wie die Anbieter der Dienste ihren Teil zu einem sicheren Netz beitragen wird auch vom Professor für allg. Didaktik und Medienpädagogik (Uni Paderborn) Gerhard Tulodziecki geteilt. Er hat zu diesem Thema ein entsprechendes Paper erstellt.

Ausblick in "Themenrecherche und Präsentation"

In meinem Statement zum Referatsthema Netzneutralität wurden diverse Aspekte des Themas Netzneutralität bearbeitet. Im Statement und Referat (besonders im teil von Klaus Schächner) wurde oftmals auf die bisher fehlende politische Absicherung der Netzneutralität hingewiesen. Dies wurde nun (zumindest in den Niederlanden) geändert.

In dem Statement und Referat wird oft von der drohenden und/oder zukünftigen Überlastung des Netzes gesprochen. Zu diesem Thema gibt es eine interessante Studie. Diese befasst sich mit der Auslastung der Netze. Diese Studie ist jedoch mit Vorsicht zu genießen, sind die Auftraggeber doch gleichzeitig mit entsprechenden Interessen behaftet. Eine gute Zusammenfassung der Ergebnisse sowie eine kritische Würdigung der Studie insgesamt erfolgte durch das Portal Netzpolitik.org.

Ausblick in "Das Ende der Ladenhüter"

Dieser letzte Beitrag befasste sich mit dem "long Tail". Darin traf ich die Prognose, dass die Verwertungskonzepte die dem "long tail"-Prinzip unterliegen, in Zukunft durch soziale Netzwerke und deren stärkere Einbindung in die Gesellschaft, diesen Effekt noch weiter verstärken werden.

Permalink (2 Kommentare)   Kommentieren



Freitag, 17. Juni 2011
"Das Ende der Ladenhüter"

Durch den Beitrag der letzten LV angeregt, möchte ich mein fünftes Statement dem Thema "The Long Tail" widmen.

Die Grundzüge und -gedanken zum Thema wurden bereits im Beitrag von Hr. Mittendorfer besprochen, ich möchte sie jedoch nochmals kurz zusammenfassen.

  • "The Long Tail" als Art wirtschaftskulturelle Theorie
  • erste Gedanken und Veröffentlichung dazu auf der Plattform WIRED
  • physikalische Begrenzungen nötigen wirtschaftlich orientierte Unternehmen dazu, hauptsächlich jene Produkte anzubieten, die den größten Absatz und somit den größten Profit versprechen (Stichwort: HITS)
  • dadurch bedingte Ausrichtung des Wirtschaftssystems auf das Erkennen von Hits und das Sortieren & Entfernen von weniger gut verkäuflichen Produkten

  • Veränderung im digitalen Zeitalter bzw. durch das Internet:
    (virtueller) Verkaufsraum kostet bedeutend weniger Geld als in realen Geschäften
  • somit wird die Bereitstellung von weniger gut verkäuflichen Produkten (die ein beträchtliches Ausmaß annehmen) rentabel
  • Lagerkosten, Bereitstellungkosten und laufende Kosten sind so gering, dass der Profit beim Verkauf einiger weniger Produkte noch immer rentabel erscheint

(vgl. Oetting 2006: o.S.)

Ein sehr gutes Zitat bzw. eine sehr gute Beschreibung der Veränderung, die das Internet bewirkt hat stammt von Martin Oetting aus dem Jahr 2006.

Was ändert sich nun durch das Internet? Die entscheidende Veränderung ist, dass Verkaufsraum plötzlich kaum noch Geld kostet, oder zumindest sehr viel weniger. Bei digitalen Produkten ist das ganz leicht zu verstehen - es kostet für iTunes kaum zusätzliches Geld, noch einen weiteren Song (oder 100 weitere Songs!) ins Repertoire aufzunehmen. Das bißchen Serverplatz ist mittlerweile spottbillig geworden. Wenn ein stationärer Plattenladen, der schon voll ausgelastet ist, noch 10 weitere CDs ins Angebot aufnehmen will, muss er, im Extremfall, anbauen. Das wird in den seltensten Fällen passieren. Also sortiert er aus und nimmt nur noch... genau: die Hits. Aber auch bei physischen Produkten gilt diese Veränderung zu einem gewissen Grad. Es ist für Amazon deutlich leichter, eine neue Warengattung einzuführen als für ein stationäres Warenhaus. Unter anderem, weil Amazon die Waren gar nicht bei sich selber im Lager horten muss, sondern die meisten Dinge in Kommission verkauft. D.h. andere übernehmen die Lagerkosten. Noch extremer bei Ebay: Das Unternehmen lagert überhaupt nichts selbst, kann also prinzipiell alles verkaufen. Und tut das ja auch.

(Oettinger 2006: o.S.)

Die Möglichkeiten des Internets eröffnen, unter Berücksichtigung des Long Tail-Ansatzes also ganz neue Verkaufsmöglichkeiten. Durch den Wegfall der hohen Lager- und Bereitstellungkosten werden, wie bereits ausführlich beschrieben, neue Möglichkeiten geschaffen, bis dato unrentable Produkte in das Sortiment aufnehmen zu können.

Das Prinzip des Long Tail lässt sich sehr gut visualisieren:

Beispiel des Long Tail (Musik)

(Quelle: http://www.webascender.com/Blog/ID/27/The-Long-Tail--Marketing-Strategy / 17.06.11)

Diese Grafik stellt (exemplarisch an Musik visualisiert) sehr gut dar, dass die Spanne an möglichen Produkten von den sog. "Hits", also stark nachgefragten Produkten (in diesem Fall Justin Timberlake) über bedingt nachgefragte Produkte bis hin zu schwach nachgefragten Produkten, in diesem Fall Cuban Jazz, reicht. Die Verkäufe, und somit auch der Profit, sind jedoch zu einem Großteil im Bereich der Hits angesiedelt.Wie schon erwähnt ist es daher klassischen Läden selten, und wenn, nur mit geringem Profit, möglich gewesen, Nieschenprodukte zu platzieren und diese zu verkaufen.

Die Möglichkeiten, die das Long Tail-Prinzip ermöglicht, macht der Autor des gleichnamigen Artikels Chris Anderson in einem Video deutlich:

Chris Anderson führte mit iTunes, Amazon und weitern namhaften und großen Anbietern Gespräche über deren Produktvielfalt und den Willen der Menschen, diese Produkte zu kaufen. Das Resultat mag überraschen, doch wurden von all den angebotenen Produkten (die im digitalen Zeitalter (so gut wie) keine Kosten für Lagerung und Bereitstellung verursachen) gut 90 Prozent bereits mindestens einmal verkauft. Das mag sich unspektakulär anhören, doch sollte man nie vergessen, dass der so entstandene Profit ohne die Bereitstellung des Nieschenprodukts nicht entstanden wäre.

Natürlich ist die Bereitstellung nicht gratis, doch der Verkauf von Millionen Songs beispielsweise zu jeweils 99 cent bringt einen enormen Profit. Dass diese Songs auch nachgefragt werden, obwohl sie nicht zu den Hits zählen, belegt das Interview von Anderson mit Amazon und iTunes. Auch trägt sein Buch den Untertitel "How Endless Choice is Creating Unlimited Demand." und weißt damit auch darauf hin, dass durch die reine Existenz des Angebots (vermutlich mit einer Verzögerung) auf dem Markt eine Nachfrage nach diesen Produkten entsteht (vgl. Oetting 2006: o.S.).

 

Die Auswirkungen des Social Webs auf die damaligen Ladenhüter

Früher war ein Ladenhüter ein Produkt, das niemand wollte, da es niemand kannte.

Heute gibt es quasi keine Ladenhüter mehr. Jedes Produkt findet einen Interessenten (den Praxisbeweis dafür erbringt eBay jeden Tag). Doch was bei eBay immernoch innerhalb Special-Interest-Gruppen gehandelt wird, wird durch die Möglichkeiten des Social Webs in die Welt hinausgetragen. Wer ein Produkt auf Amazon kauft und dieses für besonders toll oder mitteilenswert hält, postet oftmals seinen Einkauf auf einer der diversen Social Media Plattformen wie beispielsweise facebook.

Praxisbeispiel:

Ein WDA-Absolvent mit dem ich befreundet bin postet heute vormittag auf facebook, dass der Postbote ihm gerade 2 neue Bücher über Corporate Publishing und Graphic Design geliefert hatte. Dazu packte er noch ein Handyfoto und eine kurze, erste Beurteilung des Inhalts der Bücher. Unter dem Bild und der Beschreibung entstand binnen weniger Minuten eine rege Diskussion und nach einiger weiterer Recherche habe ich nun auch eines der Bücher geordert.

 

Diese Komponente ist natürlich nichts völlig neues, doch verbreiten sich diese Beurteilungen nicht nur über facebook in dem geschlossenen Kreis seiner Freunde, sondern auch auf Amazon oder anderen Plattformen können Bewertungen hinterlassen werden, die zum Kaufanreiz oder, im Worst Case, als Warnung vor dem Produkt dienen.

Fazit

Persönlich denke ich, dass die Möglichkeiten des Long Tails eine Bereicherung für die Gesellschaft sind - immerhin stellen sie eine Möglichkeit dar, aus dem allgemeinen "Trott" auszureißen. Durch soziale Medien wird dieser Effekt meiner Meinung auf die Spitze getrieben; Sharing und Liking führen zu mehr Popularität von zuvor womöglich unterbewerteten Produkten. Im Idealfall kann das zu einem Hype um das Produkt führen, der zu enormen Absatzzahlen und somit Profit für Vertrieb und Hersteller führt. Allgemein lässt sich sagen: das Internet und der Long Tail führten und führen zu einer enormen Steigerung der Produktvielfalt am Markt und beschneiden zudem die Macht der Opinionleader in gewissem Maße.

Literaturliste:

Ötting, Markus (2006): The Long Tail. Die Killer Application des Web 2.0 ist Mundpropaganda. Online unter: http://www.trendmile.com/Blog/optimierung/the-long-tail/ (17.06.11)

Permalink (0 Kommentare)   Kommentieren



Sonntag, 29. Mai 2011
Themenrecherche und Präsentation

Die Arbeitsgruppe Jochner/Schächner befasst sich, wie Anfang des Semesters angekündigt, mit dem Thema "Netzneutralität".

Im für den 30.05.11 geplanten Kurz-Referat sollen die folgenden Punkte erläutert werden:

  1. Definition und allgemeine Informationen zum Thema Netzneutralität
  2. aktueller Bezug "Deutsche Telekom bremst YouTube"
  3. allg. Probleme im Zusammenhang mit Netzneutralität
  4. technische Probleme durch Netzneutralität
  5. 9 Mythen zur Netzneutralität
  6. Lösungsansatz A: Ein neutrales Netz
  7. Lösungsansatz B: Ein Netz ohne Neutralität
  8. Exkurs: Deep Packet Inspection (DPI)
  9. Die Bedeutung von Netzneutralität für den Einzelnen
  10. Die Bedeutung von Netzneutralität für die Gesellschaft
  11. Ökonomische Interessen und Akteure
  12. daraus entstehende Gefahren für Netzneutralität
  13. politische Rundumschau

Die Punkte 1 bis 7 werden von mir behandelt, 8 bis 13 bespricht Hr. Schächner.

Der Einstieg ins Thema Netzneutralität erfolgt mittels des guten und anschaulichen Videos von ZDF "elektronischer Reporter - ePolitik - Netzneutralität"

Das Video macht mit Hilfe der Paket-Systeme im Postverkehr sowie treffender Vergleiche die Bedeutung eines neutralen Internets, aber auch die Vor- und Nachteile sowie Konsequenzen eines nicht mehr neutralen Internets deutlich.
Eine allgemeine Definition des Begriffs der Netzneutralität findet sich in einer Begriffsdefinition des deutschen Bundestags. Der wissenschaftliche Dienst des Bundestags definiert Netzneutralität als:

"Der Begriff Netzneutralität bezeichnet die neutrale Übermittlung von Daten im Internet, dads bedeutet eine gleichberechtigte Übertragung aller Datenpakete unabhängig davon, woher diese stammen, welchen Inhalt sie haben oder welche Anwendung die Pakete generiert haben." (Bullinger 2010: 1)

Aktuelle Bedeutung und Relevanz erlangt das Thema Netzneutralität durch den deutschen Internetservice-Provider (kurz ISP) "Deutsche Telekom". Die Deutsche Telekom bremst, wie seit einigen Wochen zu lesen ist, bewusst die Onlineplattform YouTube aus. EndverbraucherInnen, die BenutzerInnen vor dem heimischen Computer also, die mittels eines Zugangs der deutschen Telekom die Inhalte der Plattform abgreifen möchten, müssen seit geraumer Zeit länger auf die angeforderten Daten warten, als bisher bzw. länger, als technisch theoretisch notwendig. Der Pressesprecher der Deutschen Telekom Mark Nierwetberg reagiert in seinem Corporate Blog auf die im Internet aufkommende Beschwerdewelle. Seine Antwort vom 18.05.11 ist hier abrufbar. Er begründet die gewählten Schritte der Deutschen Telekom mit dem Anspruch, eine Mindestgeschwindigkeit für alle DienstnehmerInnen (sprich DSL-BenutzerInnen) garantieren zu wollen bzw. müssen. Daher sieht sich die Deutsche Telekom genötigt, datenintensive Angebote wie YouTube mit technischen Mitteln bzgl. der Auslastung des Gesamtnetzwerks zu beschränken - zumindest so lang, bis der derzeit stattfindende Ausbau der Infrastruktur (Verdreifachung der Kapazitäten ist geplant) abgeschlossen sei.

In einem Video bezieht Hr. Nierwetberg zum Thema Netzneutralität für die Deutsche Telekom Stellung:

Die bisher gesammelten Informationen und Eindrücke sollen im Gliederungspunkt 3 des Referats "allg. Probleme im Zusammenhang mit Netzneutralität" gesammelt werden. Netzneutralität stellt einen essentiellen Grundgedanken des Internets und der Netzkultur wie wir sie bisher kennen dar. Doch durch steigende Ansprüche der Internet-NutzerInnen in Sachen Qualität, Quantität und Verfügbarkeit der Inhalte, verändert sich die bekannte Umgebung. Nicht nur die Plattformen, die hochqualitative Inhalte anbieten (beispielsweise YouTube- oder Vimeo-Videos in HighDefinition oder auch in 3D) steigen, sondern auch deren Anzahl. Jede Minute jeden Tages werden 48 Stunden Videomaterial auf YouTube hochgeladen.

eine Minute - 48 Stunden Video

Diese Videos werden natürlich nicht nur zur Verfügung gestellt, sondern, wie aus der Grafik zu entnehmen, auch konsumiert. Das alles belastet die Internetverbindungen und Knotenpunkte. Dieses Angebot wird jedoch nicht länger wie bis vor einigen Jahren noch vor dem heimischen Computer abgerufen, sondern es kommen, neben traditionellen Geräten wie Laptop und Computer, inzwischen auch vermehrt moderne Endgeräte wie Smartphones und internetfähige Fernsehgeräte zum Einsatz. Dieser Entwicklung versuchen die ISPs Rechnung zu tragen (siehe Beitrag von Mark Nierwetberg), jedoch sinken die Preise für Internetzugänge (mobil als auch DSL) stetig.

Dieser allgemeinen Problembeschreibung folgt die technische. Die starke Belastung der Verbindungen (besonders zu Kernzeiten) führt zu "Datenstaus". Diese Datenstaus entstehen, wenn die BenutzerInnen mehr Daten anfordern oder senden, als die Leitungen verkraften können. Im Fall eines Datenstaus werden die Daten zwischengespeichert und nach dem "First-In/First-Out"-Prinzip wieder ausgegeben. Dies führt im schlimmsten Fall zur verspäteten Weitervermittlung, zu Qualitätseinbußen und unter Umständen auch zu Datenverlust. Diese Probleme ließen sich durch die Bereitstellung von Überkapazitäten im Netz beheben, die zur Kompensierung der Belastungsspitzen genutzt werden können - diese Bereitstellung ist jedoch unwirtschaftlich.
Sollte die Netzneutralität in ihrer jetztigen Form aufgehoben werden, so ergäben sich daraus für die beteiligten ISPs zusätzliche Konsequenzen. Das Internet als globales Phänomen lässt sich nicht durch einzelstaatliche Verträge regulieren sondern nur durch globale Verträge. Daher müssten alle ISPs mit anderen ISPs Verträge über die Priorisierung gewisser Datenpakete abschließen.

Im Zusammenhang mit Netzneutralität kursieren viele Halbwahrheiten und Vorurteile. Das Kapitel "9 Mythen zur Netzneutralität" soll mit den häufigsten Irrtümern aufräumen.

  1. Es gibt DIE Netzneutralität
    Diese Aussage ist so nicht tragbar, da es unterschiedlichste Definitionen und Auffassungen zum Thema Netzneutralität gibt. Während beispielsweise oftmals die vollständige Neutralität des Netzes gefordert wird, ist der Chaos Computer Club (CCC) bereit, eine Priorisierung von Telefonie-Daten zu akzeptieren.
  2. Keine Netzneutralität - ein "zwei-Klassen-Internet"
    Die Grundlage dieser Metapher stellt die Unterteilung des Datenverkehrs in (mindestens) zwei Gruppen dar; den priorisierten Verkehr und den traditionell ablaufenden. Doch auch aktuell, in einem, der allgemeinen Meinung nach neutralen Netz, gibt es bereits unterschiedlichste Möglichkeiten für Unternehmen, Behörden, etc., eine schnellere Datenverbindung und einen schnellerden Datentransport zu erzielen.
  3. Netzneutralität sichert Diskriminierungsfreiheit
    Netzneutralität wird oftmals als Garant für Gleichbehandlung gesehen. Dabei sichert Netzneutralität lediglich die Gleichbehandlung auf Traffic-Ebene. Bezüglich der Plattformen ist Netzneutralität wirkungslos. Proprietäre Systeme oder Unternehmen wie beispielsweise Apple schränken dennoch die Möglichkeiten und Zugriffe der BenutzerInnen ein.
  4. Netzneutralität ist kein staatlicher Eingriff in den Wettbewerb
    Paradoxer Weise fordern Befürworter der Netzneutralität ein freies Internet ohne staatliche Eingriffe, während sie gleichzeitig die gesetzliche Verankerung der Netzneutralität (und somit eine Regulierung des Staates) wünschen.
  5. Netzneutralität kostet nichts
    Die Kosten eines neutralen Netzes werden in den meisten Diskussionen vergessen. Der Ausbau und die Erneuerung der Infrastrukturen verschlingt enorme Summen, die mittels höherer Endpreise an die KonsumentInnen weitergegeben werden müssten.
  6. Netzneutralität gibt es bisher.
    Oftmals wird angenommen, das Netz sei bisher neutral - was jedoch nicht stimmt. Neben Glasfaserzugängen für Unternehmen sind beispielsweise auch mobile Internetzugänge (von Smartphones, Laptops, o.Ä.) nicht neutral geregelt; sie werden im Datenverkehr von den entsprechenden ISPs gesondert behandelt.
  7. Legislative ist gegen Netzneutralität
    Die europäische Politik fordern eine Netzneutralität. Sowohl die deutsche Bundesnetzagentur als auch das Verbraucherministerium und die EU-Kommission sehen die Nicht-Diskriminierungsregel als Kernprinzip der Medienpolitik.
  8. Das Internet ist öffentlich
    Netzneutralität wird oftmals mit dem Recht auf freie Meinungsäußerung begründet und gefordert. Jedoch trifft dies nur auf Daten zu, die der Meinungsäußerung und/oder -Bildung dienen; was bei weitem nicht auf alle verfügbaren und angebotenen Daten zutrifft. 
  9. ISPs wollen Netzneutralität abschaffen
    Nach der Priorisierung von Daten in den USA folgte für die beteiligten Unternehmen ein PR-Gau. Dieser könnte in der Eu dazu führen, dass im stark wettbewerbsorientierten Markt, einige Anbieter durch die Bewerbung neutraler Anschlüsse versuchen zu punkten.

Doch wie lässt sich der Streit um die Netzneutralität lösen? Dazu gibt es hauptsächlich 2 gangbare Wege. Um die stetig wachsenden Datenmengen und die höheren Geschwindigkeiten gewährleisten zu können, müssen in beiden Fällen die Netze massiv ausgebaut werden. Lösungsansatz A sieht eine Sicherung der Netzneutralität per Gesetz vor. Durch die Bereitstellung ausreichender Infrastruktur wird somit dem gestiegenen Volumen Rechnung getragen. Lösungsansatz B hingegen sieht eine Abschaffung der Netzneutralität vor. Durch die Aufhebung der Netzneutralität ist eine Kategorisierung der Pakete mittels des IPv6-Features "Deep Packet Inspection" (kurz DPI) möglich.Dieses Feature ermöglicht die Priorisierung bzw. auch Nachrangigkeit oder gar Blockade eines Datenpakets. Durch IPv6 stehen im Header eines Datenpakets genügend Informationen zur Verfügung um dessen Absender, Empfänger, Herkunft und Priorisierung oder eben Nachrangigkeit zu erkennen. Daher ist mit Hilfe des IPv6-Standards die Möglichkeit eines priorisierten Datentransports geschaffen worden. In Echtzeit (mittels Aho-Corasick-Algrorithmus und Wirespeed) können so die versandten und angeforderten Datenpakete bzgl. ihrer Priorität sortiert werden. Zudem können die Daten jedoch auch von Netzbetreibern und Systemadministratoren durchleuchtet, ausgelesen und teils auch gespeichert werden. Dieser Umstand ist aus datenschutzrechtlichen Gründen bedenklich. Mittels DPI lassen sich somit nicht nur Datenpakete priorisieren sondern auch der Verkehr im Internet filtern (Anwendung z.B.: Schutz gegen die Verbreitung jugendgefährdender Inhalte), jedoch kann DPI auch zur Überwachung oder Zensur eingesetzt werden. Interessante Artikel zum Thema Deep Packet Inspection finden sich unter anderem hier und hier.

Den Rest des Referats entnehmen Sie bitte dem Blog meines Kollegen Hr. Schächner.

 Die Slides zur Präsentation gibt es hier:

Literatur:

 

Bullinger, Gyde Maria (2010): Aktueller Begriff. Netzneutralität. Online unter: http://www.bundestag.de/dokumente/analysen/2010/Netzneutralitaet.pdf (29.05.11)

 

Permalink (1 Kommentar)   Kommentieren



Freitag, 27. Mai 2011
Privatsphäre ist tot! Lang lebe Privatsphäre - Ein Ausblick.
Der Einfluss neuer Medien, sozialer Netzwerke auf den Datenschutz und die Privatsphäre.
Wie lassen sich Datenschutz und Privatsphäre in Zeiten von facebook & Co. erhalten?

Soziale Medien, das Web 2.0, facebook, YouTube.

Kaum ein Tag vergeht, an dem man nicht mindestens einmal mit einem dieser Begriffe in Berührung kommt. Das Paradebeispiel facebook stellt das aktuell größte und vorallem beliebteste soziale Netzwerk der Welt dar - im Jahr 2011 sind dort über 600 Millionen BenutzerInnen registriert. Eine aktuelle Grafik (April 2011) zeigt die konkreten Ausmaße von facebook in Deutschland, Österreich und der Schweiz

Infografik facebook 30.4.11

Die Grafik ist hier in Originalgröße verfügbar.

Daher ist facebook sehr gut geeignet, um die Problematik des Datenschutzes und des Begriffs der Privatsphäre im Zusammenhang mit den "neuen Medien" zu beleuchten. Einen satirischen und kritischen Blick auf facebook liefert der Videobeitrag der NDR-Sendung Extra3 vom 23.07.2010.

Das Video macht deutlich, dass das Problem des Datenschutzes sehr aktuell ist. Die Tendenz vieler BenutzerInnen geht dahin, (teils auch nur in Ausschnitten) direkt aus dem Leben zu posten. Es werden Beiträge über den Tagesablauf, das Liebesleben und die Arbeit oder Schule veröffentlicht. Diese Daten bieten natürlich ein enormes Potential, für oder eben auch gegen die AutorInnen verwendet zu werden. Klar wird in dem Video auch, dass die Datenschutzbestimmungen von facebook dahingehend ausgelegt sind, möglichst wenige Inhalte für möglichst wenige BenutzerInnen zur Verfügung zu stellen; das klare und auch so formulierte Anliegen ist es, im Idealfall alle Daten für alle BenutzerInnen verfügbar zu machen - können doch nur solch auffindbare Daten von Dritten rezipiert werden. In dieser Auslegung liegt jedoch auch das Hauptproblem: durch undurchsichtige und oftmals irreführende Datenschutzregeln ist es sehr schwierig, das eigene Profil und die darin enthaltenen Daten vor den Zugriffen Dritter zu schützen.

In der digitalen Zeit ist der Schutz der persönlichen Daten in sozialen Netzwerken ein Mammutprojekt für jeden einzelnen Benutzer und jede Benutzerin. Mangelnder Datenschutz bedeutet die gewollte oder ungewollte Veröffentlichung privater Daten im Internet. Daher ist die Frage "Bedeuten soziale Netzwerke das Ende der Privatsphäre?" durchaus berechtigt. Diese Frage behandelt Daniel J. Solove in seinem Beitrag im Sammelwerk "#public_life. Digitale Intimität, die Privatsphäre und das Netz". Er beschäftigt sich dabei anfangs mit den neuen Möglichkeiten unserer Alltagsrealität; Handys mit Kameras, Webcams, Recorder und diverse andere Technologien zur Aufzeichnung ermöglichen es jederzeit alles zu dokumentieren. So gewonnene Inhalte werden dann im Internet auf entsprechenden Plattformen wie beispielsweise YouTube oder facebook geshared - einer (Teil)Öffentlichkeit zugänglich gemacht, ganz ohne den Weg über die bis dato notwendig gewesenen Massenmedien. Während die Vergangenheit und die Erinnerungen der Eltern noch in Fotoalben und auf VHS-Videos gesammelt ist, werden die Fotos und Videos der Kinder auf YouTube und facebook für alle Zeit und im nicht privaten Raum gesichert. Doch trotz dieser Veränderung spielen Fotos und Videos sowie Informationen im Allgemeinen eine wichtige Rolle für das Image, also das Bild, das andere von uns haben. Der Verlust der Kontrolle über die Informationen und Bilder kann in Zukunft den eigenen Ruf und das öffentliche Ansehen in massiver Weise beeinflussen und ggf. schädigen.

Privatsphäre ist tot! Lang lebe Privatsphäre.

Scott McNealy (CEO von Sun Microsystems) findet:

"You have zero privacy anyway (...) get over it." Doch gibt es wirklich keine Privatsphäre mehr? McNealy stützt seine Aussage auf die Annahme, in einer Welt, in der Informationen frei fließen können, sei das bisherige und alte Verständnis von Privatsphäre nicht mehr durchsetzbar und zeitgemäß. Auch der facebook-Gründer Marc Zuckerberg hat sich mit seiner Aussage, Privatsphäre sei ein nicht mehr zeitgemäßes Konzept, wenig Freunde gemacht. Doch stimmt das in dieser Weise? Ist die Ära von geschützter Privatsphäre vorbei? Meiner Meinung nach stimmt dies so nicht. Zum Thema Datenschutz und Privatsphäre in sozialen Medien und der heutigen Zeit gibt es unterschiedlichste Standpunkte (vgl. Solove 2011: 41ff.). Einige (meiner Meinung nach mögliche) Gangarten und Anliegen der Benutzerinnen möchte ich nun vorstellen:

totale Verschwiegenheit
Dieser Ansatz besagt, dass in der vernetzten Gesellschaft nur dann Privatsphäre und Datenschutz aufrechterhalten und gewährleistet werden können, wenn wir uns sozialen Medien und deren Diensten völlig entziehen - sprich uns diesen Angeboten verweigern. Diesem Ansatz liegt die Idee zu Grunde, dass alle Informationen im Netz, sobald sie von BenutzerInnen außer den AutorInnen selbst einsehbar sind, geteilt werden (können). Somit ist der einzig mögliche Weg zur definitiven Datensicherheit und Privatsphäre das Übergehen sämtlicher sozialer Plattformen und vergleichbarer Angebote. Diese Theorie lässt sich jedoch in der Realität einer Online-Gesellschaft nicht umsetzen und trifft auf Unverständnis, sind sich doch die meisten OnlinerInnen bewusst, dass ihr Handeln im Netz Konsequenzen nach sich zieht und Spuren hinterläss (vgl. Solove 2011: 42ff.)

bewusste Kontrolle - die Frage der Zugänglichkeit
Ein weiterer Ansatz basiert auf der bewussten Kontrolle der eigenen Daten und somit der gezielten und gewollten Freigabe von Daten an den AutorInnen bekannte Menschen. Die "Generation Google" möchte auf die Verbreitung der eigenen Daten Einfluss nehmen und Kontrolle über diese haben. Dieses Anliegen wurde 2006, als facebook den "News Feed" einführte, erkennbar - knapp 700 000 Beschwerden trafen bei facebook über dieses neue Feature ein, dass alle FreundInnen über die eigenen Aktivitäten informierte. Dieses Feedback überraschte facebook und war teilweise nicht nachvollziehbar, waren doch mitunter die Profile der Protestierenden völlig frei einsehbar. Die Beschwerden gingen nicht ein, weil die Informationen frei auslesbaren waren - das waren sie zuvor auch gewesen; die Beschwerden gingen ein, da nun sämtliche, auch noch so minimale Änderungen des eigenen Profils, eine Information sämtlicher Freunde zur Folge hatte. Die Benutzer vertragen die Ansicht, dass Änderungen zu vor nur wenigen BesucherInnen aufgefallen wären. Der Schutz der Privatsphäre in diesem Zusammenhang beschäftigt sich also nicht mit der Geheimhaltung von Informationen, sondern mit der Frage der Zugänglichkeit dieser Informationen.

bewusste Kontrolle - eine Frage der Transparenz
2007 begann facebook, im Namen der Benutzer Werbung an deren Freunde zu senden. Dahinter standen zwei Anwendungen von facebook: Social Ads und Beacon. Der Ablauf war denkbar simpel: Benutzer A lobt den neuesten Kinofilm auf dessen Profilseite. Daraufhin wird in dessen Namen und mit dessen Bild der eben genannte Film an dessen Freunde versandt. Dies erfolgte nicht nur bei Filmen, sondern auch bei anderen Produkten. Da der Dienstanbieter (facebook) die Dienste ohne das Wissen der BenutzerInnen gestartet hatte, sammelten sich auch hier binnen weniger Tage zehntausende Beschwerden und zwangen facebook zum einlenken.
Dieses Beispiel zeigt klar, dass Datenschutz und Privatsphäre nicht immer mit Geheimhaltung zu tun hat, sondern auch mit der Transparenz der benutzten und angebotenen Dienste. Das wissentliche Posten auf der eigenen Pinnwand über ein Produkt ist das eine. Die Nutzung dieser mitgeteilten Vorliebe und Abneigung gegen ein Produkt durch Werbefirmen zu Werbezwecken, die den eigenen Freundeskreis benachrichtigen und teils belästigen ist etwas anderes.
Die BenutzerInnen haben also das Anliegen, vor Benutzung eines Dienstes über dessen Möglichkeiten der Datenentnahme und Weitergabe informiert zu werden.

Diese drei Ansätze zeigen klar, dass die Anliegen der BenutzerInnen durchaus in eine Richtung gehen, sich in ihrer Radikalität jedoch unterscheiden - vom vollständigen Verzicht über bewusste Kontrolle bis hin zum Wunsch nach Transparenz.

Fazit

Privatsphäre ist nicht tot - bei Weitem nicht. Lediglich das Verständnis, die Toleranz und die Anforderungen der BenutzerInnen haben sich - ähnlich wie die Medien, deren Rolle in unserem Alltag und der Grad deren Benutzung - geändert.
Einen Ausblick zu geben erscheint mir unmöglich. Die Prognose, der Schutz der persönlichen Daten auf sozialen Plattformen wie facebook würde in den kommenden Jahrzehnten weiter zurückgehen mag richtig, kann aber genauso gut falsch sein. Diese Angebote leben von den BenutzerInnen und deren Aktivitäten. Sollten die BenutzerInnen Änderungen der Datenschutzbestimmungen nicht akzeptieren oder ein anderes, besseres oder besser geschütztes Angebot auf dem Markt der sozialen Plattformen erscheinen, kann dies zur Abwanderung vom derzeitigen Marktführer facebook führen.
Ob dies jedoch je passieren wird, vermag ich nicht zu prognostizieren. Bis dahin kann man nur versuchen, seine Daten möglichst effektiv, umfassend und sinnvoll zu schützen und somit dem Missbrauch einen Riegel vorschieben. Wie das effektiv geht zeigt der schweizer SocialMedia-Experte Thomas Hutter in seinem Tutorial.

Abschließend lässt sich sagen: es gehören (wie bei jedem Streit) immer zwei dazu. Benutzer, die sich ohne vorherige Information in die Weiten des Internets begeben, werden nicht nur mit den Datenschutzproblematiken auf facebook in Konflikt kommen, sondern auch sonstige Spuren und Nachweise im Netz hinterlassen. Mangelnde Medienkompetenz sollte nicht dazu führen, Angebote zu verteufeln wie dies zum Teil in den "klassischen" Massenmedien der Fall ist. Vielmehr sollte versucht werden, die BenutzerInnen und potentiellen BenutzerInnen möglichst frühzeitig und effektiv auf die möglichen Problematiken hinzuweisen und somit deren Verhalten zu beeinflussen - immer mit dem Ziel die Medienkompetenz zu erhöhen damit diese mit den ständig stärker in den Alltag integrierten Medien agieren können.

 

 

Literaturverzeichnis:

Solove, Daniel J. (2011): Bedeuten soziale Netzwerke das Ende der Privatsphäre? In: Heinrich-Böll-Stiftung (Hg.): #public_life. Digitale Intimität, die Privatsphäre und das Netz. Berlin: Verlang Heinrich-Böll-Stiftung, S. 41-47.
http://www.youtube.com/embed/vDZQd-zkxCY
http://allfacebook.de/zahlen_fakten/facebook-nutzerzahlen-2011
http://www.wired.com/politics/law/news/1999/01/17538
http://www.thomashutter.com/index.php/2010/05/facebook-der-ultimative-facebook-privatsphaere-leitfaden-30052010/
http://www.thomashutter.com/index.php/2011/05/facebook-infografik-und-demographische-daten-deutschland-osterreich-und-schweiz-per-april-2011/

Permalink (0 Kommentare)   Kommentieren



Sonntag, 8. Mai 2011
IPv6 - nur Chance und Nutzen oder auch Gefahr - und was davon ist bereits Realität?

DIE CHANCEN UND NUTZEN

Dieses "Osterstatement" nimmt Bezug auf den Vortrag der letzten Lehrveranstaltungseinheit zum Thema IPv6. Besonders in den letzten Jahren hat sich der Computermarkt immer schneller entwickelt, neue Geräteklassen entstanden (beispielsweise Tablett-Computer), neue und alte Gerätetypen mit Internetanbindung verkaufen sich verstärkt und zudem ist eine Konvergenz zu beobachten (rascher Anstieg der Verkaufszahlen von Smartphones). Beeinflusst durch die gesteigerten Verkaufszahlen sinken die Preise für beispielsweise Einsteiger-Smartphones stetig, was deren Verbreitung weiter verstärkt. All diese Geräte bieten mittels WLan-Adapter oder SIM-Karte die Möglichkeit, im Internet Inhalte aufzurufen. Doch nicht nur mobile Geräte verkaufen sich vermehrt, auch im Bereich der herkömmlichen Computer und Notebooks sind Absatzsteigerungen zu erkennen; doch ist auch hier der Trend zu Mobilität zu beobachten (sinkende Verkaufszahlen für Stand-/Desktop-Computer vs. steigende Verkaufszahlen für Notebooks & Netbooks). Durch die gesteigerten Möglichkeiten von Smartphones, wie neue Bedienkonzepte (Stichwort Usability und HCI), sinkende Preise bei gleichzeitig gesteigerter Leistungsfähigkeit, nehmen mobile Endgeräte aller Art zunehmend den Platz von Stand-Geräten ein. Egal ob zu Hause, am Arbeitsplatz oder unterwegs, meistens ist die Möglichkeit gegeben, sofort ins Internet zu gehen, dort Informationen zu erfragen oder mit anderen Nutzern zu interagieren. Diese Vorteile führen neben der gesteigerten Verbreitung der Endgeräte natürlich auch zu einer gesteigerten Nutzung der Inhalte - eine Art "Teufelskreis".

DIE TECHNIK

Wie bereits der Vortrag deutlich machte, war das alte System - IPv4 - diesem zunehmenden Andrang neuer Endgeräte nicht mehr gewachsen; die IP-Adressen gingen schlichtweg zusehend aus. Das IPv4-System sah gut 4,3 Milliarden Adressen vor, dieser Pool ist nun erschöpft und bedarf eines Nachfolgers, dem Protokoll IPv6, das 340 Sextillionen (3,4x10^38) Adressen zur Verfügung stellt. Eine gute Erläuterung und Einführung in das Thema IPv4 vs. IPv6 sowie einen kurzen Überblick über die Möglichkeiten bietet das VIDEO . Um die Notwendigkeit dieses neuen Standards zu verdeutlichen, wurde im Beitrag von ZDF heute das anschauliche Beispiel der Wiedervereinigung in Deutschland und der damit notwendig gewordenen Neuverteilung der Postleitzahlen gebracht. Dies lässt sich so auch einfach auf das Internet bzw. die gesteigerten Nutzer und Geräte ummünzen. Einen guten Überblick über die Technik, die Probleme bei der Migration und Integration von IPv6 bietet die Präsentation  von Dr. Harald Sack.

DIE GEFAHREN

Doch bietet IPv6 somit nur allen Nutzern der Welt mit all ihren Geräten die Möglichkeit online zu gehen, ihre Daten zu tauschen und zu agieren - kurz: generiert es nur Nutzen, oder aber tauchen durch diesen neuen Standard auch neue Gefahren auf? Die Vorstellung eines "gläsernen Nutzers" ist vermutlich jedem Menschen unbehaglich; eine Transparenz und Nachvollziehbarkeit sämtlicher Aktionen und auch Transaktionen im virtuellen Raum ermöglicht ein in Teilen präzises Bild der jeweiligen Lebenswirklichkeit. Die Gefahr, die diesbezüglich durch IPv6 drohen kann wurde im ZEIT-Artikel  gut erfasst. Durch die Masse an verfügbaren IP-Adressen wird es unnötig, diese immer wieder neu zuzuweisen; ein Gerät würde für die Dauer seiner Funktion die selbe IP-Adresse behalten und somit eine einfach Nachvollziehbarkeit dessen Aktivitäten (bzw. der seines Benutzers) ermöglichen. Da dies, wie im obigen Artikel beschrieben, zu massiven Problemen in Sachen Datenschutz führen kann, hat diese Thematik zu einer heftigen Datenschutzdiskussion geführt, deren Ende bis dato noch nicht klar absehbar ist. Klar hingegen ist, dass durch die permanente Zuweisung und somit langfristige Nachvollziehbarkeit die Vorstellung eines "digitalen Fingerabdrucks" erneut bekräftigt wird. Daher sind effektive und sicher Schutzmaßnahmen der Geräte UND IP-Adressen notwendig. Diese umzusetzen gelang und gelingt  jedoch bisher nicht immer. Wie im Spiegel-Artikel mitte der vergangenen Woche veröffentlicht, planen die deutschen Anbieter Vodaphone und Deutsche Telekom jedoch auch zukünftig, ihren DSL-Kunden dynamische (also wechselnde) IP-Adressen zuzuweisen. Dies bedeutet zwar eine Mehrlast für deren Netzwerke, jedoch ist dies gegenüber der drohenden Überwachung für die Anbieter wohl das geringere Übel (Mehrlast vs. negative PR).

IST-ZUSTAND

Wie eingangs erwähnt, steigt die Zahl der mobilen Endgeräte (besonders der Smartphones) stetig und massiv. Dies bedeutet im Zusammenhang mit IPv6 jedoch, dass durch Versäumnisse der Hersteller und Softwareproduzenten neue Gefahrenpotentiale auftreten. Eines dieser Probleme wird im Spiegel-Artikel  beschrieben. Unnötigerweise übertragen viele der Smartphones ihre MAC-Adresse (diese ist eindeutig identifizierbar und einmalig) mit ins Netz - ein gefundenes Fresse für alle Datensammler und -Händler. Besonders Smartphones, die als alltäglicher Begleiter einzelner Personen quasi eindeutig zuzuordnen sind, können dadurch das Verhalten, die Gewohnheiten und Vorlieben des jeweiligen Benutzers erkennen lassen. Auch die beiden Marktführer Google und Apple (mit ihren Betriebssystemen Android und iOS) haben laut dem Spiegel-Artikel vom 15.01.2011 nicht ihr Möglichstes getan; alle Geräte mit deren Betriebssystemen übertragen im Hintergrund die MAC-Adressen - ein erhebliches Problem. Diese Programmierung und Entscheidung von Apple und Google sind nicht nachvollziehbar. Das Protokoll IPv6 selbst bietet so genannte "Privacy Extensions"  mit denen eine eindeutige Zuordnung der Geräte erschwert bzw. behindert werden kann. Apple (Produzent von iOS) und Google (Android) haben sich jedoch entschieden, diese Möglichkeit nicht zu nutzen (weder als Option die aktiviert werden könnte, geschweige denn standardmäßig). Dass diese Möglichkeit den Unternehmen nicht bekannt ist, ist auszuschließen; nicht zuletzt, da Apple bei seinen Betriebssystemen die Möglichkeit anbietet, diese Kennung zu deaktivieren. Ein Paradebeispiel der Nutzung der in IPv6 includierten Datenschutzmöglichkeiten stellt hingegen Microsoft mit seinem aktuellen Betriebssystem Windows7 dar; dort ist die Übermittlung standardmäßig deaktiviert. Jedoch sei angemerkt, dass auch diese Umsetzung nicht der gleichen Schutz bzw. die selbe Anonymität bietet, die IPv4 schaffen konnte.

FAZIT

Die Umstellung von IPv4 auf IPv6 ist unausweichlich, sollen weitere Geräte an das Internet angeschlossen werden. Zwar gibt es bis dato noch einige Probleme bei der Integration des neuen Standards (siehe Slides von Dr. Sack), jedoch stellt dies wohl (der Realität geschuldet) nur ein Übergangsproblem dar und wird in absehbarer Zeit überstanden sein. Der neue Standard stößt viele neue Türen auf, jedoch werden auch Probleme und Risiken geschaffen. Um den Datenschutz auch in Zeiten von IPv6 zugewährleisten zu können bzw. den Benutzern zumindest die theoretische Möglichkeit zu bieten, sich zu schützen, sind die Marktführer, doch auch die Produzenten bzw. Anbieter im Allgemeinen in die Verantwortung zu nehmen, die Wünsche, Bedürfnisse und Ansprüche der Benutzer und Kunden zu realisieren und möglichst effektiv und vollständig umzusetzen. Zudem sollten gesetzliche Vorgaben geschaffen werden, die die Einhaltung eines gewissen Mindestdatenschutzes in Zeiten von IPv6 gewährleisten können. Anderen Falls sind Datensammlern und Überwachung Tür und Tor geöffnet.

QUELLEN (Abrufdatum jeweils 08.05.11)

http://collabor.idv.edu/0721459/stories/33134/
http://www.elektronik-kompendium.de/sites/net/1601271.htm
http://www.spiegel.de/netzwelt/web/0,1518,739701,00.html
http://www.spiegel.de/netzwelt/web/0,1518,760274,00.html
http://www.zeit.de/digital/datenschutz/2011-01/ipv6-vorratsdaten?page=all
http://www.zeit.de/digital/datenschutz/2011-01/ipv6-vorratsdaten?page=all
http://www.slideshare.net/lysander07/ipv6-jetzt-bmwi-workshop-08-feb-2011
http://www.zdf.de/ZDFmediathek/beitrag/video/1250100/Neuer-Standard-fuer-IP-Adressen#/beitrag/video/1250100/Neuer-Standard-fuer-IP-Adressen
http://www.spiegel.de/netzwelt/web/0,1518,515644,00.html
http://www.heise.de/resale/meldung/Smartphones-auch-privat-auf-dem-Vormarsch-1006077.html

Permalink (1 Kommentar)   Kommentieren



Freitag, 1. April 2011
Google Epic 2015

Der Ausblick "Google Epic 2015" aus dem Jahr 2004 zeichnet ein Bild der Zukunft, das mit der heutigen Realität abgeglichen werden kann.



Die erste getroffene Prognose, die Menschen hätten im Jahr 2015 zu einer unvorstellbaren Menge an Informationen Zugang, ist so eingetroffen. Die wachsende Zahl an Websites, Blogs, Wikis und weiteren Online-Formaten sowei die steigende Aktivität der Gesellschaftsmitglieder in sozialen Netzwerken und der damit verbundenen Organisation dieser Mitglieder, führt zu einem massiv gesteigerten Zugang zu Informationen. Die Suche nach Informationen und deren Bewertung wird von Suchmaschinen übernommen; die Programmierung und die Suchmaschinenoptimierung einer Website ist für deren Erfolg und somit die Auffindbarkeit im Netz bzw. Präsenz in Suchmaschinen ausschlaggebend.
Eine gute Begründung der Notwendigkeit von Suchmaschinenoptimierung bietet der Willkommenstext der Seite www.seo-united.de.
"Wer nachhaltig erfolgreich sein möchte, muss sie einer gezielten Suchmaschinenoptimierung unterziehen. Tatsache ist, dass lediglich die Webseiten auf den ersten Positionen, maximal der ersten Seite von den Nutzern einer Suchmaschine besucht werden. Wer mit seiner Seite weiter hinten gelistet ist, dem entgehen potentielle Besucher und zukünftige Kunden." (www.seo-united.de)

Auch die mehrfach in "google Epic 2015" zu erkennende zunehmende Vernetzung der Menschen und deren Beitrag zur "lebendigen Medienlandschaft" ist bereits in der heutigen Gesellschaft erkennbar. Der über die letzten Jahre eindeutig zu erkennende Trend der zunehmenden Vernetzung (nicht nur auf Geräteeebene/Konvergenz, sondern auch auf interpersoneller und -kultureller Ebene) ist nicht zu leugnen.
Die Macht von Blogs, Wikis und sozialen Netzwerken wurde zuletzt medienwirksam durch die Veröffentlichungen der umstrittenen Plattform "WikiLeaks" und die daran anknüpfenden gesellschaftlichen Diskussionen erkennbar.
Auch die wachsende Beteiligung Menschen aller Alters- und Gesellschaftsschichten an sozialen Netzwerken wie facebook führt zu einer weiteren Verstärkung der Vernetzung der Menschen sowie auch zu einer zunehmenden Verbreitung mobiler Internetzugänge, um jederzeit an diesen Phänomenen/Netzwerken teilnehmen zu können.

Im Bereich sozialer Netzwerke herrscht ein stetiger Umbruch. Nicht nur entstehen und verschwinden kontinuierlich Angebote, auch die Terminologie wandelt sich. Einen Überblick über dieses Thema hat mein Kollege P.C. Sinner in seinem Blog bereitgestellt.

Die Dimensionen des aktuell weltweit größten sozialen Netzwerks facebook.com zeigt folgendes Video aus dem Jahr 2010 sehr gut. Wichtig dabei ist jedoch, das enorme Wachstum, das die Plattform seither erfahren hat, nicht außer Acht zu lassen.




Der in "Google Epic 2015" prognostizierte Untergang der Presse ist im Gegensatz zu den beiden ersten einleitenden Thesen des Videos nicht zu beobachten. Einen Überblick über den deutschen Zeitungsmarkt (Stand 2009) bietet dieses PDF-Dokument des Bundesverbands Deutscher Zeitungsverleger e.V. Diesem ist zu entnehmen, dass z.B.die Anzahl der verkauften Tageszeitungs-Exemplare seit dem Jahr 1993 stetig sinkt (1993: 35,9 Mio - 2009: 19,9 Mio) und auch der Gesamtumsatz leicht sinkt, jedoch ist nach wie vor eine breite Vielfalt an unterschiedlichsten Presseprodukten verfügbar (2009: 134 publizistische Einheiten). Ein "Aussterben" der Presse wie es prognositiziert wurde ist daher von der Hand zu weisen.
Diese Entwicklung/Beobachtung bestätigt erneut das Riepl'sche Gesetz. Medien werden nicht durch neue Konkurrenzprodukte ersetzt, sondern es findet lediglich eine Spezialisierung statt.

Eine weitere nachvollziehbare, da in der Alltagsrealität beobachtbare, Folge der zunehmenden Vernetzung der Menschen ist deren (auch in google epic 2015 angesprochene) zunehmende Transparenz. Durch Einkäufe bei Onlineshops wie amazon sowie Sucheingaben bei Suchmaschinen wie google oder die Teilnahme an sozialen Netzwerken oder das Führen eines Blogs lassen sich im Internet einfach detaillierte Personenprofile erstellen, das Verhalten und die Bewegungen sowie sozialen Kontakte von Menschen überprüfen und festhalten. Mit diesen Informationen werden bereits heute personalisierte Werbungen angeboten, der Datenhandel wird in der Zukunft ein florierender Markt sein. Die nur langsam wachsende Kenntnis und das nur geringe Interesse der Benutzer sozialer Plattformen an Datenschutz sowie "innovative" Auslegungen des Begriffs "Datenschutz" seitens der Plattformbetreiber (facebook-Gründer Marc Zuckerberg z.B. hält Datenschutz für ein veraltetet System).

Die Kombination all dieser, bereits heute beobachtbarer und nutzbarer Online-Dienste, wie es "google epic" sein soll scheint denkbar.
Ein umfassendes Wissen über den jeweiligen Nutzer, dessen Angewohnheiten, soziales Umfeld, seine Wünsche, Vorlieben und Interessen würde es einem derartigen Dienst ermöglichen, ein perfekt auf die Interessen des Individuums zugeschnittenes Informations- und Dienstleistungsangebot zu erstellen.

Doch würden dadurch nicht Allgemeinbildung, sonstige INformationsangebote sowie soziale Kontakte enorm beschnitten werden?!

Permalink (0 Kommentare)   Kommentieren



Freitag, 18. März 2011
Erste Gedanken

 

Immer mehr Menschen erlangen Zugang zum Internet. Immer mehr Menschen konsumieren dort immer aufwändigere Angebote wie beispielsweise Videos und Spiele. Die Knotenpunkte und Leitungen werden über kurz oder lang an die Grenzen ihrer Belastbarkeit stoßen.

Bis dato wurden und werden alle Datenpakete, unabhängig von deren Herkunft (welche Quelle dieses Datenpaket erzeugt hat), deren Inhalt (ob sie beispielsweise zu einem Video oder einem Spiel gehören) sowie deren Empfänger (z.B. Privatperson oder Unternehmen) versandt. Wirtschaftsunternehmen formulieren seit einigen Jahren den Wunsch, diesen neutralen Versand zu beenden und den Transport der Datenpakete ne Kriterien wie Inhalt, Absender oder Empfänger mit gesonderten Tarifen berechnen zu dürfen. Dies ist durch den Grundsatz der Netzneutralität der als Grundfeste des Internets wie wir es bisher kennen zu sehen.

Besonders seit dem Jahr 2010 wird das Thema noch intensiver diskutiert als zuvor. Im Jahr 2010 wurden auf der IFA (Internationalen Funkausstellung in Berlin) TV-Endgeräte vorgestellt, die ihr Signal nicht mehr über Kabel oder Satellit, sondern über einen Internetzugang beziehen. Diese immensen Datenströme haben die o.g. Diskussion erneut angefacht.

Der aktuelle Stand der Diskussion sowie eingängige Erläuterungen finden sich im folgenden Video:






Das Ziel der Arbeitsgruppe Schächner/Jochner ist es, den Begriff der Netzneutralität verständlich und möglichst umfassend zu erläutern. Dabei sollen nicht nur technische Möglichkeiten und Anforderungen, sondern auch politische und wirtschaftliche Positionen erläutert werden. In einem Fazit soll, soweit möglich, die Skizzierung möglicher Zukunftsszenarien gewagt werden.

Permalink (1 Kommentar)   Kommentieren



Gedanken zu "Richtung 2000"

 

Der TV-Beitrag „Richtung 2000 – Vorschau auf die Welt von morgen“ des ZDFs aus dem Jahre 1972 sollte damals (im Jahr 1972) einen Ausblick auf die hochtechnisierte Zukunft der Menschen wagen. Dieser, nun gut 40 Jahre alte Film, zeigt in einigen Punkten erstaunliche Genauigkeit, in anderen Punkten immense Abweichungen von der heutigen Alltagsrealität.

Die „von der Elektronik beherrschte“ Wohnung von Hr. B. sowie deren Bedienung über eine einzige Fernbedienung (Schaltpult) ist auch im heutigen Alltag zu finden. Viele Geräte lassen sich über eine Fernbedienung kontrollieren; so können beispielsweise HomeCinema-Systeme oder Lichtkonzepte derart bedient werden. Auch die medizinischen Fortschritte finden bereits hier Anklang. Das künstliche Herz von Hr. B. ist in dieser Form zwar noch nicht existent, jedoch sind Transplantationen und Maßnahmen, die das Leben stark verlängern heutzutage an der Tagesordnung. Die vorhergesagte und umfassende Medikation der Gesellschaft – in Form von Antidepressiva etc. – ist ebenfalls durch die Entwicklung bestätigt worden. Auch die Nahrungsaufnahme mit vorgefertigtem, nur noch im Hause erwärmtem Essen, ist durch die Etablierung von Fertiggerichten und Mikrowellen so in der heutigen Alltagsrealität zu finden. Die Technisierung findet in allen Bereichen statt, so auch im Bereich der Medien. Das „Faxgerät“ von Hr. B., auf dem er seine Tageszeitung zugestellt bekommt sowie die Aussage, nur wenige große Verlage könnten sich diese Art der Zustellung erlauben, lässt aktuelle Entwicklungen im Bereich der Zeitungsverlage sowie auch der iPhone und besonders der iPad-Apps erkennen. Auch hier sind nur wenige große Konzerne in der Lage die Kosten für diese Art des Kundenservices zu stemmen und der Großteil der Verlage hat mit sinkenden Verkaufszahlen und Umsätzen zu kämpfen. Diese Veränderung auf dem Mediensektor wird auch im TV-Gerät von Hr. B. erkennbar; die ständige Verfügbarkeit internationalen Fernsehens per Satellit ist im Film nur zu einem Bruchteil vorhergesagt worden – 15 Stationen umfasst heute bereits jedes inländische TV-Programm. Das Ziel „erste Forschungsstation auf dem Mars“ im Jahr 2000 zu erreichen wurde weit verfehlt; der im Film angedachte Öko-Trend (keine Schädlingsbekämpfungsmittel und Dünger) ist jedoch auch in der heutigen Gesellschaft erkennbar, wenn bei weitem auch nicht so stark ausgeprägt wie dort vorgestellt. Das Einkaufen in Form eines Teleshoppingkanals wurde exakt vorher gesagt; auch im Internet wurde durch z.B. den Nahrungsmittelversand von Amazon diese Idee aufgegriffen.

Die Idee eines Fernsehtelefons wurde bereits vor einigen Jahren technisch ermöglicht, zu einem wirklichen Durchbruch konnten jedoch weder Skype, noch Facetime von Apple führen. Die im Film angesprochene soziale Isolation der Menschen ist jedoch auch in der Realität (zum Teil durch MMORPGs oder anderen exzessiven Medienkonsum) zu beobachten.

Im Bereich der Verkehrsmittel (Monorail und Kleinfahrzeuge) sind dem Film ähnliche Zustände zu beobachten. Die Trennung von Wohn- und Arbeitsort ist heute eben wie im Film kein Problem mehr. Auch die Idee des Carsharings oder eines Monorail-Zuges der mit hoher Geschwindigkeit fährt hat in der Entwicklung recht behalten. Hochgeschwindigkeitszüge, die Pendler transportieren findet man z.B. im Bereich des Transrapids oder auch in Deutschland, wo ICE-Trassen Ballungsräume verbinden.

Die Herabsetzung der menschlichen Tätigkeit durch zusehende Technisierung (Computer etc.) ist in der heutigen Entwicklung zu beobachten. Roboter und Computer nehmen zusehends Arbeitsplätze ein; Menschen sind nurmehr zur Kontrolle und Auswertung der Ergebnisse im Einsatz. Die Geschwindigkeit der technischen Entwicklung (besonders im Bereich der Computer) konnte jedoch nicht korrekt vorhergesagt werden und zeigt, dass dieser Fortschritt unvorstellbar (aus damaliger Sicht) schnell von statten gehen würde.

Die Technisierung, auch im Bereich der Waffen und dies trotz zunehmender sozialer und innerstaatlicher Probleme, wurde korrekt vorhergesagt. Die nukleare Bedrohung der Welt und deren spätere Verringerung durch die Abrüstungsverträge wurden in Ansätzen gut vorhergesagt.

Auch die Umweltproblematik die in der heutigen Gesellschaft ein allgegenwärtiges Thema darstellt wurde bereits vorhergesagt. Jedoch wurden (abgesehen von Katastrophen) bereits frühzeitig Maßnahmen ergriffen, die Folgen und Auswirkungen dieser Verseuchung einzudämmen.

Auch die Aufspaltung der Schere zwischen Arm und Reich wurde gut vorhergesagt. Zwar können keine wie im Film dargestellten „Elendsviertel“ beobachtet werden, dennoch gibt es durch Hartz-4 und schlechte Aufstiegsmöglichkeit sowie Probleme in der Bildungspolitik (Studentenzahlen und Universitätsproblematik wurde vorhergesagt!) nur wenige Möglichkeiten, dem Kreislauf der Armut zu entrinnen.

Abschließend lässt sich festhalten, dass dieser Film ein erstaunlich und teils erschreckend deutliches Bild der Zukunft der Menschen gezeichnet hat. Wenn auch in gewissen Punkten nur unscharf oder teils falsch, so wurde der Großteil der für das alltägliche Zusammenleben relevanten Techniken gut erfasst. Das Fazit, die Planung der Erbauer wurde ohne Rücksicht auf den Faktor Mensch gemacht, lässt sich in dieser Form bestätigen. Der durch die Veränderungen erschaffte Wandel in den Ansprüche und Wünsche der Menschen führt(e) zu immer mehr Problemen und sozialen Spannungen.

Permalink (0 Kommentare)   Kommentieren