Was ist Urheberrecht?
Das Urheberrecht besagt, dass die Urheberin/der Urheber das alleinige Recht hat, ihr/sein Werk öffentlich zugänglich zu machen, zu vervielfältigen, zu verbreiten, zu senden, zu verleihen und aufzuführen. Bei Tauschbörsen und Websites sind vor allem zwei Rechte berührt: Einerseits wird das Werk meist anderen öffentlich zugänglich gemacht, andererseits wird es durch die lokale Abspeicherung von Kopien vervielfältigt. Die rechtliche Grundlage wie und ob ein Werk vervielfältigt oder verwertet werden darf, bildet das österreichische Urheberrecht (UrhG; BGBI Nr. 111/1936 idF BGBI Nr. 81/2006). Der Zweck des Urheberrechts, auch in Verbindung mit dem World Wide Web, besteht darin, Urheber vor missbräuchlichen Gebrauch ihrer Schöpfungen durch Unbefugte zu schützen.
§ 10 (1) Urheber eines Werkes ist, wer es geschaffen hat.(2) In diesem Gesetzt umfasst der Ausdruck „Urheber“, […] außer dem Schöpfer des Werkes auch die Personen, auf die das Urheberrecht nach seinem Tod übergegangen ist.“
Siehe hierzu folgende Seite: http://www.help.gv.at/Content.Node/172/Seite.1720400.html
Aufgrund des stetig wachsenden Brandbreite und höhere Datendurchsatz erhöht sich auch die Bedeutung des Internets für die Distribution und Nutzung geistigen Eigentums. Heutzutage ist der Abruf von Informationen, Texten, Musik, Videofilmen aus dem internet leichter als in einem Kaufhaus zu gehen und dort diese Materialien zu besorgen. Der Zeitungskiosk an der Ecke oder der Videoverleih sind längst keine Konkurrenz mehr zum Internet. Die Popularität des Internets steigt rasant an. Natürlich ist es auch absehbar, dass der enorme Umfang von Informationen urheberrechtliche Probleme mit sich bringt. Das Musikstück lässt sich genauso schnell aus einschlägigen Internetangeboten oder Tauschbörsen herunterladen und auf CD brennen bzw. direkt am PC oder auf einem speziellen Player speichern. Durch immer niedrigere Online Kosten auf Anbieter- und Nutzerseite d.h. Billigen großen Speichermedien und kostergeringen breitbandigen Internet-Anbindungen gewinnt der multimediale Datenaustausch weiter an Bedeutung. Weiterhin beinhaltet jede Internetseite Inhalte, denen zumindest teilweise urheberrechtliche Bedeutung zukommt. Bei wachsender Ausbreitung des Internets steigt einhergehend auch der Bedarf und die Nutzung von solchen Inhalten.
Urheberrechtsverletzungen im Internet treten in unterschiedlichsten Formen und Intensitäten auf. Als eines der größten Rechtsverletzungen gilt die Verletzung des Vervielfältigungsrechts. Durch Internetangebote und Tauschbörsen wird der Austausch und die Weitergabe von Musikstücken als Tonkunstwerke, Videos in Form von Filmkunstwerken, Grafiken und Software, zum Teil auch urheberrechtlich geschützte Sprachwerke zwischen den Nutzern ermöglicht. Es gibt hier Privatpersonen die ein nicht-gewinnorientiertes Ziel verfolgen und professionell organisierte Personen und Gruppen welche diese Piraterie „gewerbsmäßig“ betreiben. Mit dem starken Wachstum der privaten und professionellen Internetseiten und Angebote im World Wide Web, nehmen auch die weniger offensichtlichen Verletzungshandlungen zu. Urheberrechtlich geschützte Bilder, Texte oder Stadtplanauszüge werden immer öfter aus fremden Internetseiten herauskopiert und die eigene Internetseite eingefügt, oder für andere Zwecke verwendet. Das Verhindern des Missbrauchs der digitalen Möglichkeiten ist oft nicht nur allein durch rechtliche Sanktionen möglich. Deswegen gibt es neben den rechtlichen Maßnahmen auch technische Einrichtungen die einen effektiven Schutz realisieren. Diese technischen Schutzmaßnahmen werden als Digital Rights Management (DRM) oder als Electronic Copyright Management Systems (ECMS) zusammengefasst. Diese beiden Systeme können selbstverständlich verschiedene Komponenten beinhalten, mit denen Rechte im digitalen Umfeld technisch identifiziert, organisiert, beschränkt und durchgesetzt werden sollen.
Einzelne technische Ansätze außerhalb der DRM-Systeme sind zum Beispiel digitale Wasserzeichen. Digitale Wasserzeichen sind in dem Inhalt für den Nutzer versteckte, nicht wahrnehmbare und den Gebrauch des Werkes zunächst nicht beeinträchtigende Markierungen. Allein der Rechteinhaber kann durch Vergleich mit dem Original dieser Markierung erkennen. Ein digitales Wasserzeichen zum Beispiel in einer Grafik, hilft dem Rechteinhaber Vervielfältigungen dieses Werkes mittels automatisierter Suchmaschinen im Internet zu finden. Eine andere technische Möglichkeit bilden die Verschlüsslungen und Passwortsicherungen von Daten. Diese Methode ist eine der einfachsten um nicht autorisierte Zugriffe auf geschützte Inhalte zu verhindern. Die Daten werden mit Hilfe mathematischer Algorithmen so kodiert, dass ein Zugriff auf das gesamte Werk oder auch nur auf Teilstücke eines Werkes nur mit dem Entschlüsselungscode möglich ist. Ein sehr verbreitetes Einsatzgebiet dafür ist zum Beispiel Pay-TV wie Premiere. Das Problem bei einer einfachen technischen Möglichkeit Inhalte zu schützen ist, dass sie auch genauso einfach umgangen werden können. Eine Verbesserung der Verschlüsselung stellt das asymmetrische „Public-Private-Key“ Verfahren dar. Der Rechteinhaber, im Fall vom oben genannten Beispiel wäre der Rechteinhaber Premiere, verschlüsselt das Werk mittels dem Public-Key für die jeweiligen Adressaten, der Inhalt kann dann nur von diesem Adressaten mit seinem Private- Key entschlüsselt und genutzt werden.
Siehe auch http://www.zeit.de/2009/18/pirate-bay-urheberrecht
Als Fazit kann man sagen, dass diese Situation am besten mit dem Satz beschrieben wird;
„Warum soll ich für etwas Geld ausgeben, das ich auch gratis haben kann?“.
Solange es kostenfreie Software gibt die den Kopierschutz einer DVD oder einer CD umgehen kann, wird es dieses Gratisangebot im Internet auch weiterhin geben. Heutige Systeme, wie zum Beispiel DRM-Systeme, können die Piraterie nicht vollständig verhindern. Es wird für die diversen Industrien nur einen Weg geben, sie müssen nicht nur in anderen Unternehmen derselben Branche ihre Konkurrenten sehen, sondern auch die Piraterie selbst, als einen der schärfsten Konkurrenten
betrachten. Aus diesem Grund ist das Urheberrecht auch nicht zeitgerecht. Es müssen neue Möglichkeiten gefunden werden diese Probleme zu mildern, ganz von der Welt schaffen wird nur sehr schwer möglich sein. Ich bin gespannt wie sich diese Angelegenheit in Zukunft entwickeln wird.
Weitere Inhalte folgen.....noch in arbeit
Permalink (2 Kommentare) Kommentieren
Meine Forschungsfrage lautet daher:
Wie weit ist die Entwicklung von autonomen Fahrassistenzsystemen und welchen Nutzen
haben sie?
Heute ist es wichtig sowohl die Umweltfrage als auch die Sozialfrage in allen zukünftigen Entwicklungskonzepten mit zu bedenken und zu entwickeln. Konkret bezieht sich mein Statement auf das autonome Fahren im Straßenverkehr, dass sowohl die Lebensqualität steigert, das Autofahren erleichtert, das Verkehrsaufkommen mindert und die Unfallrate (Übermüdung beim Fahren) reduziert. Das autonome Fahren hat zusätzlich einen sozialen Aspekt, dass eine große Bedeutung mit sich trägt. Mit Hilfe des autonomen Fahrens wird beispielsweise Menschen mit körperlichen Gebrechen die Möglichkeit der Mobilität gegeben. Also erleichtert sie das Leben von Menschen mit körperlichen Gebrechen und ermöglicht somit ihre Mobilität im Alltagsleben, was wiederum ihre Sozialisierung positiv beeinflusst. Aufgrund dieser Entwicklung wird diesen Menschen die Möglichkeit der direkten persönlichen Kommunikation gegeben und somit wird die soziale Integration der betroffenen Menschen gesteigert.
Im Rahmen dieses Statements soll herausgefunden werden wie der Forschungsstand von autonomen Fahrassistenzsystemen ist und welche Vorteile diese Entwicklung mit sich bringt. Die Arbeit wird sich im ersten Teil mit der Historischen Entwicklung zusammensetzen, im Hauptteil wird das autonome Fahren an den Rezipienten näher gebracht und im letzten Teil wird ein Fazit aus den gewonnen Erkenntnissen kurz
zusammengefasst und auf einem gemeinsamen Nenner gebracht.
Autopiloten kennen wir heute in Verbindung mit Flugzeugen. Zu beginn der Luftfahrt war die Aufmerksamkeit der Piloten sehr wichtig und lebensnotwendig. Die Problematik war jedoch, dass bei längeren Flügen die Piloten übermüdet waren und diese Umstände führten auch zu häufigen Unfällen. 1912 wurde eine frühe Version des Autopiloten von Lawrence Sperry entwickelt. Die erste Version des Autopiloten, welches serienmäßig von verschiedenen Herstellern auf den Markt gebracht wurde, war um 1930. Später wurden Sturzflug-Autopiloten für den Einsatz bei Militärflugzeugen entwickelt. Der Junkers Ju 87_B war ein solcher Autopilot. Er war mit der Luftbremse verbunden und senkte das Flugzeug in die Sturzkampfstellung. In geringer Höhe brachte der Autopilot das Heck wieder in die Ursprungslage. Dieser Autopilot erleichterte somit den Abwurf von Bomben um ein vielfaches. Mit der Zeit gewannen die Autopiloten immer mehr und weiter entwickelte Funktionen. Eine wichtige Funktion war es den korrekten Kurs bei zu behalten, beim Start und bei der Landung Unterstützung zu bekommen und die die Kontrolle der Flughöhe durch den Autopiloten waren sehr fotschrittliche Entwicklungen. Also zusammenfassend kann man sagen, dass ein Auopilot eine automatische Steuerungsanlag in Flugzeugen oder in Raketen war. Heute sind Autopiloten hingegen eine computergesteuertes System, welches zur Stabilisierung des Flugs und zu seiner Abwicklung nach digitalem Flugplan herangezogen wird. (vgl. Zimmermann 2011: 3)
Mit Autopiloten auf der Autobahn
Die Automobilindustrie ist heute auf einem hohen Entwicklungspotenzial. In den letzten Jahren hat es viele technische Innovationen in der Automobiltechnologie gegeben. Moderne Fahrzeuge von heute werden mit immer mehr Elektronik ausgerüstet. Eine Vielzahl von Sensoren liefern Informationen über das Fahrzeug und seine Umgebung. Etwa Information, die Fahrzeugbezogen sind wie zum Beispiel Geschwindigkeit, die Bremsbeschleunigung oder der Einschlagwinkel des Lenkrads. Aber auch Umgebungssensoren wie etwa Thermometer, Regensensoren, Helligkeitssensoren oder Sensoren, die den Abstand zum nächsten Objekt messen. Eine weitere und wichtige Erneuerung ist die Entwicklung von Satelliten gestützten Navigationssystemen.
Aber die Technologie des autonomen Fahrens ist nicht so neu wie wir uns das denken. In der Industrie sind autonome Fahrzeuge für Transportarbeiten keine Seltenheit. Die Industrie versucht somit hohe Lohnkosten zu sparen, Arbeitsfelder zu reduzieren und die Produktivität zu erhöhen. Der Unterschied zu unseren autonomen Fahrzeugen ist, dass die industriell genutzten Fahrzeuge nur innerbetrieblich eingesetzt werden und somit als zuverlässig eingestuft werden.(vgl. Löwer 2011: 1)
ZUKÜNFTIGE ENTWICKLUNGEN
Ein Auto zu steuern ohne selbst Hand zu legen, ein Auto oder ein Rollstuhl durch Gedanken steuern - das macht Technologie möglich, die für autonome Technologie entwickelt wurde. Künstliche Intelligenz wird in Zukunft den Straßenverkehr erobern.
Auto per Gedanken steuern – „The Brain Driver“
Ein Auto zu steuern ohne selbst Hand zu legen, ein Fahrzeug durch Gedanken steuern. Das hört sich zwar nach Zukunftsmusik an aber es ist Realität. Im Rahmen der Freien Universität Berlin und unter den Projektnamen „Brain Driver“ startete ein Forschungsteam ein Projekt, bei dem man per Gedanken ein Auto steuern konnte. Der Fahrer des Fahrzeuges kann allein durch Gedankenkraft das Fahrzeugen beschleunigen, bremsen, nach links und rechts lenken. Die Problematik auch hier ist, dass Künstliche Intelligenzen ohne menschliche Intuition noch sehr riskant ist. Im Falle einer Gefahr gibt es die Möglichkeit, dass der Fahrer durch ein Tippen auf das Pedal oder den Griff zum Lenkrad die Fahrautomatik unterbrechen kann, um selbst einzugreifen. Der Fahrer eines solchen Fahrzeuges muss ein hartes Training am Computer absolvieren. Dabei wird dem Fahrer eine Sensorkappe auf den Kopf gegeben, welches die Hirnströme aufzeichnet und daraus studiert das Program die Kommandos wie links, rechts, bremsen, beschleunigen. Die Sensoren erzeugen einen bioelektrischen Wellenmuster vom Fahrzeughalter und der Computer kann die Befehle erst danach interpretieren. Der Fahrzeughalter muss 5-6 Sekunden vorher an sein Kommando denken, dh er muss vorausschauend fahren.
Rollstuhl „Roland“ (autonomes Rollstuhl)
Im Fachbereich Mathematik und Informatik wurde das Projekt „Roland“ unter der Leitung von Prof. Dr. Bernd Krieg-Brückner ins Leben gerufen. Die Arbeitsgruppe „Kognitive Robotik“ beschäftigt sich mit der Entwicklung eines autonomen Rollstuhles und eines autonomen Rollators für Inndoor-Bereiche. Es klingt zwar wie ein Science-Fiction Film: Rollstühle, die autonom Fahren oder durch Gedanken gesteuert werden können. Inzwischen gibt es verschiedene Prototypen, die sich selbstständig orientieren, Barrieren erkennen und ihnen ausweichen. Begonnen hat es mit einem Studenten, der sich mit Barrieren im Rahmen seiner Diplomarbeit beschäftigt hat. Aus einem umfangreichen Datensatz hat der Student ein Navigationssystem für Rollstühle entwickelt. Mit dieser Technologie wird beispielsweise den Menschen mit körperlichen Gebrechen die Möglichkeit gegeben mobil zu sein. Aufgrund dieser Entwicklung können die betroffenen Personen den Kontakt zu ihren Mitmenschen besser aufrechterhalten und das führt folglich zur sozialen Integration dieser Menschen. Ein Problem der bisherigen Rollstühle ist, dass sie auch nur von einem bestimmten Teil der körperlich Behinderten Menschen benutzt werden können. Beispielsweise Menschen die zusätzlich zu ihrem eingeschränkten Gehvermögen Probleme mit der Handmotorik haben. Diesen Menschen kann mit der vorhandenen Technik wenig geholfen werden. Aus diesem Grund sind die Entwicklung von autonomen Rollstühlen und die Entwicklung von Gedankengesteuerten Assistenzsystemen in Rollstühlen besonders wichtig.(vgl. Kognitive Robotik 2005: o.S.)
Problemfelder des autonomen Fahrens
- Konzentration lässt beim passiven Fahrer nach
- Reaktionsgeschwindigkeit bei Gefahr verzögert sich
- Zukünftig: Praxis und Erfahrung beim Fahrer sinkt
- Fahrzeughalter ist überfordert wenn komplexe Systemfehler auftreten
- Gedankenströme unter Kontrolle behalten kann problematisch sein
- Technik ist noch nicht ausgereift und man kennt noch keine Risiken
(Nationaler IT-Gipfel 2009: 36)
Fazit
Auch im Bereich der autonomen Fortbewegungsmittel ist die Umweltverträglichkeit und die Energieefizienz wichtig. Die Entwicklung zeigt einen Trend in Richtung Nachhaltigkeit. Immer mehr Fahrzeuge werden mit umweltverträglicheren Energiequellen angetrieben. Somit passt auch das Thema von Ertas mit Akkumulatoren sehr gut zu dem Thema autonome Fahrzeuge. Sollte diese Entwicklung sich in Zukunft etablieren, so werden diese Fahrzeuge mit Sicherheit durch alternative Energieformen angetrieben. Die Automobilindustrie sieht den größten Potential bei alternativen Energieformen die Akkumulatoren.
Es sind einige Problemfelder sowohl im Bereich der autonomen Fahrassistenzsysteme als auch im Bereich der Akkumulatoren. Löst man die genannten Probleme, so glauben wir dass dieser Entwicklung nichts im Wege steht.
Quellenverzeichnis:
Al-Shihabi, Talal/ Mourant, R. Roland (2005): A Framwork for Modeling Human-like Driving Behaviors for Autonomous Vehicles in Driving Simulators. Boston: o.V.
Bertsch, Patrick (2006): Autonome Fahrzeuge. Ulm: o.V. Eckart, Granitza (2011): Autonome Autos auf der Überholspur. Forschung für die Zukunft: Entspannt Akten lesen und den Wagen alleine machen lassen. In: Berliner Zeitung vom 11.05.2011, S 3.
Kognitive Robotik (2005): Der Bremer autonome Rollstuhl. Online unter http://www.informatik.unibremen. de/kogrob/ (Stand 03.06.2011)
Löwer, Chris (2011): Lenken mit Gedankenkraft. Online unter http://www.heise.de/tr/artikel/Lenkenmit-Gedankenkraft-1211378.html (Stand 30.04.2011)
Nationaler IT-Gipfel (2009): Zukunft und Zukunftsfähigkeit der Informations und Kommunikationstechnologien und Medien. Internationale Delphi Studie 2030. Stuttgart: Münchner Kreis.
Permalink (0 Kommentare) Kommentieren
The Long Tail – Der lange Schwanz
Wie schon auch in der Präsentation erwähnt, geht es hierbei um die aufbauenden Arbeiten und Theorien von Gladwell. Diese Theorien bauen auf den US-amerikanischen Journalistejn und Chefredakteur Chris Anderson. Er stellte 2004 vor, dass Nischenprodukte für Internetanbieter großen Gewinn bringen können. Besonders interessant war dieses Phänomen für den Musik- und Bücherhandel.
Um diese Thematik näher verstehen zu können, bedarf es der Definition von „Nischenmarkt“.
Es findet sich in der Betriebswirtschaft keine anerkannte und allein gültige Definition des Nischenbegriffes. Aus genauerer Betrachtung geht heraus, dass gewisse Autoren mehrere Kriterien zur Definitionsgebung heranziehen:
• Art der Marktbeschränkung
• Ausmaß der Bedürfnisbefriedigung
• Schutz vor der Konkurrenz und vor der Wettbewerbsintensität
• Zahlungsbereitschaft
(vgl. Trachsel 2007: 43f.)
Absatzpolitisch kann man die Nische als ein Teilbereich des Marktes sehen, der
noch nicht vollkommen oder ungenügend, unzureichend abgedeckt ist.
Kotler definiert „Nischenmarketing“ als „a more narrowly defined group, typically a small market whose needs are not well served. Marketers usually identify niches by dividing a segment into subsegments or by defining a group seeking a destinctive mix of benefits. For example: the segments of heavy smokers include those who are trying to stop smoking and those who dont’t care“ (Kotler 2000: 257)
Nischenmarketing wird in der Literatur auch als die „Anpassung des Produktes an
eine Gruppe von Kunden bezeichnet“, oder auch im englischen Original:„the
promotion of a product aimed at one particular area of the market“ (Dictionary
of marketing 2003: 181).
In Verbindung mit dem Nischenmarkt muss auch der Begriff E-Commerce näher erläutert werden:
Verkauf oder Kauf von Waren und Dienstleistungen, der über computergestützte Netzwerke getätigt wird, wie etwa das Internet oder Netzwerke von Mobilfunkanbietern“, (vgl. Gabler 2004: o.S.) bezeichnet. Wirtz hingegen meint, dass Electronic Commerce: „die elektronische Unterstützung von Aktivitäten beinhaltet, die in direktem Zusammenhang mit dem Kauf und Verkauf von Gütern und Dienstleistungen via elektronischer Netze in Verbindung stehen. (vgl. Wirtz 2001: 40)
Im Zeitalter der Digitalisierung, der Globalisierung und des Massenmarketings sowie einem erhöhten Aufkommen von Netzwerkeffekten gelten einfache Richtlinien, um Märkte erfolgreich zu bedienen: Je niedriger die Kosten beim Verkauf, desto mehr kann ich als Unternehmen bieten. Die Kombination mit der Tatsache, dass die Digitalisierung auch zu einer Veränderung unseres Sozialverhaltens führt man bedenke, dass wir heutzutage vermehrt über das Internet kommunizieren und „chatten“ als tatsächlich mit einer Person im Kaffeehaus zu sitzen, führt zu einer Veränderung der gesamten Konsumlandschaft. Wir bewegen uns von einem Massenmarkt zu einem digitalen Massenmarkt, bestehend aus zahlreichen kleinen Nischen, die aber nicht mehr mit unseren tatsächlichen Kaufgewohnheiten eigentlich zu tun haben, sondern viel mehr mit unseren jeweiligen Interessen.
Begriff „The Long Tail“
Der Begriff der „Long Tail“ hat seinen Ursprung eigentlich aus der Statistik: Dort werden Kurven zur Häufigkeitsverteilung „Long Tail“ genannt, weil die Länge der Kurve im Vergleich zu ihrer Spitze unverhältnismäßig lang ist. Grundsätzlich handelt es sich bei der Theorie des Long Tail um zwei verschiedene Tatsachen beziehungsweise Phänomene, die in der Wirtschaft des 21.Jahrhunderts auftreten.
1. These: Vergrößerung des Produktangebotes durch das Internet
Ein Händler muss beim Verkauf von seinen Produkten schauen, dass die Fixkosten gedeckt sind. Hierzu gehören Kosten der Liegenschaft des Geschäftes wie etwa Miete, Betriebskosten, Strom, Wasser, Heizung und so weiter. Das heisst der Händler muss schauen, dass seine Verkaufsquote entsprechend hoch ist, um die Kosten zu decken und gleichzeitig auch Gewinn zu machen. Problematisch ist es daher, dass bestimmte Waren angeboten werden müssen, um Kundschaft nicht zu verlieren aber diese Produkte nehmen wertvolle Regalflächen in Anspruch, die auf dauer gesehen keinen Gewinn erzielen. Hier wäre kein Platz für Nischenprodukte. Im Internet allerdings kostet die Regalfläche nichts, hier können auch Artikel reingestellt werden, die in zukunft ein Verkaufsschlager werden könnten. Durch solche Konzepte entstanden sehr erfolgreiche Online-Firmen wie Amazon oder Ebay.
Die 2. These: The Long Tail
Die zweite These, auf die sich Andersons Theorie des Long Tail stützt ist die Annahme, dass dieser Online Handel das Aussehen der Nachfragekurve deutlich verändern wird. Andersons grundsätzliche Annahme ist, dass Nischenprodukte in Zukunft bei den Kunden besser ankommen werden, als die Massenware. Die Tatsache, dass die Kunden aufgrund der eingesetzten Software dieser Online Verkaufshäuser und der daraus folgenden Kategorisierung nun einfacher Produkte finden können und auch auf die Empfehlungen dieser sich verlassen können, führt dazu, dass sich- die Konsum und Kaufgewohnheiten der Kunden verändern werden.
Ein erfolgreiches Long Tail besteht aus drei wichtigen Faktoren;
-
Kosten senken
-
Nischendenken
-
Kontrollverzicht
Chris Anderson beschäftigt sich im Rahmen der Long Tail Theorie mit dem Effekt des Paretro Prinzip. Ausgehend von einem italienischen Ökonomen und Soziologen Vilfried Pareto, entstand eine Untersuchung zur Verteilung des Volksvermögens auf Familien in Italien, aus der eine 80:20 % Regel ergeben hat. Der Größte Teil des Vermögens gehört einer Minderheit der Bevölkerung an. Bespielsweise weiss man, dass etwa 70 % der Ehen zwischen Personen abgeschlossen werden, die nicht weiter als 30 % Entfernung von diesem Gebiet wohnen. Dieses konkrete Beispiel lässt sich auf unser Pareto Prinzip wieder spielgeln. Mit 20 % der Produkte kann man 80 % des Umsatzes machen oder mit 20 % Aufwand erzielt man 80 % Produktivität. Anderson fordert auch auf, sich nicht allzu leichtfertig auf die 80% zu 20% Regel zu verlassen, da selbst wenn nur 20% der Produkte 80% des Umsatzes machen, dies nicht heißen soll, dass man auf die anderen 80% der Produkte vergisst und diese nicht führt. Die Möglichkeit, dass ein „unerfolgreiches Produkt“ aus den 80% sich zu einem höchst erfolgreichen entwickelt, ist immer gegeben. So kann man sagen, wie sich die 80% zu 20% Regel aufgrund des Long Tails verändert. Der Nischenmarketing Gedanke des Long Tail sieht daher das zukünftige Marktpotential nicht im Vertrieb und Verkauf von Hitprodukten oder den üblichen Mainstream- Produkten, sondern im Absatz von Nischenprodukten,
welche der gegebenheiten in die 20% Kategorie eingeordnet werden können. Diese Theorie verlangt daher nach vollkommen neuen Markting- Strategien und Konzepten.
Kritik an „The Long Tail“
Eine vollständiges vertrauen auf die Long Tail Theorie wäre zu schnell und unüberlegt für die Unternehmen. Es ist schwierig sein Geld im Lont Tail zu verdienen und seine gesamte Nachfrage nur auf Nischenprodukte zu konzentrieren. (vgl. Elbersee 2008: 1ff.)
„the mass market is dying, to be replaced by a mass of niches“
Diese Aussage über Long Tail ist desöfteren zu lesen. Jedoch ist es eine provokante Aussage, da sie auch eine falsche Aussage sein könnte. Es könnte eine falsche Strategie verfolgen.
Ein Professor vom Associate im Fachbereich Marketing an der Harvard Business School beschäftigt sich mit der Frage;
„Wird der Long Tail der Absatzverteilung länger UND dicker, je stärker sich die Nachfrage von Ladengeschäften mit begrenzter Regalfläche auf Online Anbieter mit einem viel größerem Sortiment verlagert?“ (Elberse, 2008; S.4)
Aufgrund ihrer 5jährigen Analyse von Verkaufszahlen und Mithilfe von ökonometrischen Modellen, fand Elberse heraus, dass sich der Absatz wirklich messbar in den rechten Teil der Kurve, dem sogenannten Nischenteil, verlagert hat. Das interessante daran ist allerdings, dass sich im gleichen Zeitraum die Anzahl der Produkte, die sich überhaupt nicht verkauft haben, ebenso verdoppelt hat. Die Kurve des Long Tail wird als nicht länger und dicker sie wird nur länger.Die Annahme, dass die Länger der Kurve durch die zunehmende Digitalisierung der Produkte angetrieben wird, wird allerdings durch die Analyse ihrer Daten noch bestätigt.Laut den Untersuchungen gibt es kein klares Kundensegment mit einem Hang zu ausfälligen und schwer zu findenden Produkten. Die Nischenzielgruppe existiert nicht. Die rechte Seite der Nachfragekurve des Long Tail wird hauptsächlich durch Menschen geprägt die übermäßig viel konsumieren und daher auch sehr gerne zu den Nischenprodukten ausweichen. Kunden, die weniger konsumieren, konzentrieren sich dagegen auf populäre Produkte. Es wird zusätzlich noch behauptet, dass Nischenprodukte auch generell bei den Kundenbewertungen schlechter bewertet werden. Laut Elberse kann man zwischen den Kaufentscheidungen im Internet und denen im Einzelhandel keinen Unterschied erkennen.Zusammenfassend kann man sagen, dass egal ob die Kritiken beziehungsweise die Theorien gegenüber dem Long Tail in allen Punkten immer stimmen, eines klar geworden ist: Ein größeres Angebot heißt nicht zwangsläufig, dass mehr Produkte als zuvor nachgefragt werden.
Literaturverzeichnis
Elberse, Anita (Hg.)(2008): Das Märchen vom Long Tail. In: Harvard Business Manager, Vol. 8, 32 – 44.
Ivanovic, Collin (2003): Dictionary of Marketing. London: Bloomsbury Publishing.
Kotler, Philip (200): Marketing Management – The Millenium Edition. New Jersey: Prentice Hall.
Trachsel, Micha (2007): Nischenstrategien und ihre Bedeutung für den Unternehmenserfolg. Berlin: DUV Gabler Edition Wissenschaft.
Wirtz, Bernhard (2001): Electronic Business. Wiesbaden: Gabler Verlag.
Permalink (0 Kommentare) Kommentieren
The Long Tail – Der lange Schwanz
Wie schon auch in der Präsentation erwähnt, geht es hierbei um die aufbauenden Arbeiten und Theorien von Gladwell. Diese Theorien bauen auf den US-amerikanischen Journalistejn und Chefredakteur Chris Anderson. Er stellte 2004 vor, dass Nischenprodukte für Internetanbieter großen Gewinn bringen können. Besonders interessant war dieses Phänomen für den Musik- und Bücherhandel.
Um diese Thematik näher verstehen zu können, bedarf es der Definition von „Nischenmarkt“.
Es findet sich in der Betriebswirtschaft keine anerkannte und allein gültige Definition des Nischenbegriffes. Aus genauerer Betrachtung geht heraus, dass gewisse Autoren mehrere Kriterien zur Definitionsgebung heranziehen:
• Art der Marktbeschränkung
• Ausmaß der Bedürfnisbefriedigung
• Schutz vor der Konkurrenz und vor der Wettbewerbsintensität
• Zahlungsbereitschaft
(vgl. Trachsel 2007: 43f.)
Absatzpolitisch kann man die Nische als ein Teilbereich des Marktes sehen, der
noch nicht vollkommen oder ungenügend, unzureichend abgedeckt ist.
Kotler definiert „Nischenmarketing“ als „a more narrowly defined group, typically a small market whose needs are not well served. Marketers usually identify niches by dividing a segment into subsegments or by defining a group seeking a destinctive mix of benefits. For example: the segments of heavy smokers include those who are trying to stop smoking and those who dont’t care“ (Kotler 2000: 257)
Nischenmarketing wird in der Literatur auch als die „Anpassung des Produktes an
eine Gruppe von Kunden bezeichnet“, oder auch im englischen Original:„the
promotion of a product aimed at one particular area of the market“ (Dictionary
of marketing 2003: 181).
In Verbindung mit dem Nischenmarkt muss auch der Begriff E-Commerce näher erläutert werden:
Verkauf oder Kauf von Waren und Dienstleistungen, der über computergestützte Netzwerke getätigt wird, wie etwa das Internet oder Netzwerke von Mobilfunkanbietern“, (vgl. Gabler 2004: o.S.) bezeichnet. Wirtz hingegen meint, dass Electronic Commerce: „die elektronische Unterstützung von Aktivitäten beinhaltet, die in direktem Zusammenhang mit dem Kauf und Verkauf von Gütern und Dienstleistungen via elektronischer Netze in Verbindung stehen. (vgl. Wirtz 2001: 40)
Im Zeitalter der Digitalisierung, der Globalisierung und des Massenmarketings sowie einem erhöhten Aufkommen von Netzwerkeffekten gelten einfache Richtlinien, um Märkte erfolgreich zu bedienen: Je niedriger die Kosten beim Verkauf, desto mehr kann ich als Unternehmen bieten. Die Kombination mit der Tatsache, dass die Digitalisierung auch zu einer Veränderung unseres Sozialverhaltens führt man bedenke, dass wir heutzutage vermehrt über das Internet kommunizieren und „chatten“ als tatsächlich mit einer Person im Kaffeehaus zu sitzen, führt zu einer Veränderung der gesamten Konsumlandschaft. Wir bewegen uns von einem Massenmarkt zu einem digitalen Massenmarkt, bestehend aus zahlreichen kleinen Nischen, die aber nicht mehr mit unseren tatsächlichen Kaufgewohnheiten eigentlich zu tun haben, sondern viel mehr mit unseren jeweiligen Interessen.
Begriff „The Long Tail“
Der Begriff der „Long Tail“ hat seinen Ursprung eigentlich aus der Statistik: Dort werden Kurven zur Häufigkeitsverteilung „Long Tail“ genannt, weil die Länge der Kurve im Vergleich zu ihrer Spitze unverhältnismäßig lang ist. Grundsätzlich handelt es sich bei der Theorie des Long Tail um zwei verschiedene Tatsachen beziehungsweise Phänomene, die in der Wirtschaft des 21.Jahrhunderts auftreten.
1. These: Vergrößerung des Produktangebotes durch das Internet
Ein Händler muss beim Verkauf von seinen Produkten schauen, dass die Fixkosten gedeckt sind. Hierzu gehören Kosten der Liegenschaft des Geschäftes wie etwa Miete, Betriebskosten, Strom, Wasser, Heizung und so weiter. Das heisst der Händler muss schauen, dass seine Verkaufsquote entsprechend hoch ist, um die Kosten zu decken und gleichzeitig auch Gewinn zu machen. Problematisch ist es daher, dass bestimmte Waren angeboten werden müssen, um Kundschaft nicht zu verlieren aber diese Produkte nehmen wertvolle Regalflächen in Anspruch, die auf dauer gesehen keinen Gewinn erzielen. Hier wäre kein Platz für Nischenprodukte. Im Internet allerdings kostet die Regalfläche nichts, hier können auch Artikel reingestellt werden, die in zukunft ein Verkaufsschlager werden könnten. Durch solche Konzepte entstanden sehr erfolgreiche Online-Firmen wie Amazon oder Ebay.
Die 2. These: The Long Tail
Die zweite These, auf die sich Andersons Theorie des Long Tail stützt ist die Annahme, dass dieser Online Handel das Aussehen der Nachfragekurve deutlich verändern wird. Andersons grundsätzliche Annahme ist, dass Nischenprodukte in Zukunft bei den Kunden besser ankommen werden, als die Massenware. Die Tatsache, dass die Kunden aufgrund der eingesetzten Software dieser Online Verkaufshäuser und der daraus folgenden Kategorisierung nun einfacher Produkte finden können und auch auf die Empfehlungen dieser sich verlassen können, führt dazu, dass sich- die Konsum und Kaufgewohnheiten der Kunden verändern werden.
Ein erfolgreiches Long Tail besteht aus drei wichtigen Faktoren;
-
Kosten senken
-
Nischendenken
-
Kontrollverzicht
Chris Anderson beschäftigt sich im Rahmen der Long Tail Theorie mit dem Effekt des Paretro Prinzip. Ausgehend von einem italienischen Ökonomen und Soziologen Vilfried Pareto, entstand eine Untersuchung zur Verteilung des Volksvermögens auf Familien in Italien, aus der eine 80:20 % Regel ergeben hat. Der Größte Teil des Vermögens gehört einer Minderheit der Bevölkerung an. Bespielsweise weiss man, dass etwa 70 % der Ehen zwischen Personen abgeschlossen werden, die nicht weiter als 30 % Entfernung von diesem Gebiet wohnen. Dieses konkrete Beispiel lässt sich auf unser Pareto Prinzip wieder spielgeln. Mit 20 % der Produkte kann man 80 % des Umsatzes machen oder mit 20 % Aufwand erzielt man 80 % Produktivität. Anderson fordert auch auf, sich nicht allzu leichtfertig auf die 80% zu 20% Regel zu verlassen, da selbst wenn nur 20% der Produkte 80% des Umsatzes machen, dies nicht heißen soll, dass man auf die anderen 80% der Produkte vergisst und diese nicht führt. Die Möglichkeit, dass ein „unerfolgreiches Produkt“ aus den 80% sich zu einem höchst erfolgreichen entwickelt, ist immer gegeben. So kann man sagen, wie sich die 80% zu 20% Regel aufgrund des Long Tails verändert. Der Nischenmarketing Gedanke des Long Tail sieht daher das zukünftige Marktpotential nicht im Vertrieb und Verkauf von Hitprodukten oder den üblichen Mainstream- Produkten, sondern im Absatz von Nischenprodukten,
welche der gegebenheiten in die 20% Kategorie eingeordnet werden können. Diese Theorie verlangt daher nach vollkommen neuen Markting- Strategien und Konzepten.
Kritik an „The Long Tail“
Eine vollständiges vertrauen auf die Long Tail Theorie wäre zu schnell und unüberlegt für die Unternehmen. Es ist schwierig sein Geld im Lont Tail zu verdienen und seine gesamte Nachfrage nur auf Nischenprodukte zu konzentrieren. (vgl. Elbersee 2008: 1ff.)
„the mass market is dying, to be replaced by a mass of niches“
Diese Aussage über Long Tail ist desöfteren zu lesen. Jedoch ist es eine provokante Aussage, da sie auch eine falsche Aussage sein könnte. Es könnte eine falsche Strategie verfolgen.
Ein Professor vom Associate im Fachbereich Marketing an der Harvard Business School beschäftigt sich mit der Frage;
„Wird der Long Tail der Absatzverteilung länger UND dicker, je stärker sich die Nachfrage von Ladengeschäften mit begrenzter Regalfläche auf Online Anbieter mit einem viel größerem Sortiment verlagert?“ (Elberse, 2008; S.4)
Aufgrund ihrer 5jährigen Analyse von Verkaufszahlen und Mithilfe von ökonometrischen Modellen, fand Elberse heraus, dass sich der Absatz wirklich messbar in den rechten Teil der Kurve, dem sogenannten Nischenteil, verlagert hat. Das interessante daran ist allerdings, dass sich im gleichen Zeitraum die Anzahl der Produkte, die sich überhaupt nicht verkauft haben, ebenso verdoppelt hat. Die Kurve des Long Tail wird als nicht länger und dicker sie wird nur länger.Die Annahme, dass die Länger der Kurve durch die zunehmende Digitalisierung der Produkte angetrieben wird, wird allerdings durch die Analyse ihrer Daten noch bestätigt.Laut den Untersuchungen gibt es kein klares Kundensegment mit einem Hang zu ausfälligen und schwer zu findenden Produkten. Die Nischenzielgruppe existiert nicht. Die rechte Seite der Nachfragekurve des Long Tail wird hauptsächlich durch Menschen geprägt die übermäßig viel konsumieren und daher auch sehr gerne zu den Nischenprodukten ausweichen. Kunden, die weniger konsumieren, konzentrieren sich dagegen auf populäre Produkte. Es wird zusätzlich noch behauptet, dass Nischenprodukte auch generell bei den Kundenbewertungen schlechter bewertet werden. Laut Elberse kann man zwischen den Kaufentscheidungen im Internet und denen im Einzelhandel keinen Unterschied erkennen.Zusammenfassend kann man sagen, dass egal ob die Kritiken beziehungsweise die Theorien gegenüber dem Long Tail in allen Punkten immer stimmen, eines klar geworden ist: Ein größeres Angebot heißt nicht zwangsläufig, dass mehr Produkte als zuvor nachgefragt werden.
Literaturverzeichnis
Elberse, Anita (Hg.)(2008): Das Märchen vom Long Tail. In: Harvard Business Manager, Vol. 8, 32 – 44.
Ivanovic, Collin (2003): Dictionary of Marketing. London: Bloomsbury Publishing.
Kotler, Philip (200): Marketing Management – The Millenium Edition. New Jersey: Prentice Hall.
Trachsel, Micha (2007): Nischenstrategien und ihre Bedeutung für den Unternehmenserfolg. Berlin: DUV Gabler Edition Wissenschaft.
Wirtz, Bernhard (2001): Electronic Business. Wiesbaden: Gabler Verlag.
Permalink (1 Kommentar) Kommentieren
Der Fokus meiner Präsentation richtet sich im Rahmen des Themenbereichs „Social Network“ auf Informationssicherheit, Datenschutz und Social Communities. Die Sozialen Plattformen gewinnen an Bedeutung, wenn die Benutzerzahlen einen ernst zu nehmenden Anteil am Social Communitie-Markt eingenommen haben. Sofern eine Soziale Plattform einen beachtlichen Bekanntheitsgrad erreicht hat, steigt somit auch das Risiko von datenschutzrechtlichen Problemen. Meine Präsentation soll erfolgreiche Communities im Internet näher beleuchten und gleichzeitig werde ich versuchen die Bemühungen von Social Communities im Hinblick auf Datenschutz näher euch zu bringen. Hierzu werde ich drei bekannte Plattformen näher analysieren und dann miteinander vergleichen. Mein Ziel wird es sein, die Nutzer auf mögliche Gefahren aufmerksam zu machen und gleichzeitig einen überblick über Social Communities zu geben.
Für die Präsentation am 30. Mai 2011 kann unter diesem Link die Präsentation abgerufen werden:
Präsentationsfolien sind hier Abrufbar!
Passend zu diesem Thema möchte ich euch noch dieses Youtube-Video empfehlen.
Weiterführende Quellen:
Computerwoche (2008): Datenschutz in Social Network. Verraten und Verkauft. Online unter http://www.computerwoche.de/netzwerke/web/1874326/ (Stand 27.05.2011)
Ehm, Jorg (2011): Datenschutzprinzipien. Online unter http://www.standardchartered.de/forms/en/_pdf/datenschutzprinzipien.pdf (Stand 26.05.2011)
DREWS/ KASSEL/LESSENICH (1993): Lexikon Datenschutz und Informationssicherheit. 4. Auflage. Berlin und München: Siemens Aktiengesellschaft.
Grosfutner, Christof (2008): Entscheidungen zu Selbstveröffentlichungshandlungen auf Social Network Sites. Wien: o.V.
KAUL, M. 2008. Jäger und Sammler Online unter
http://www.taz.de/1/leben/internet/artikel/1/jaeger-und-sammler/?type=98 (Stand 28.05.2011)
MÜLLER/ REICHENBACH (2001): Sicherheitskonzepte für das Internet. Berlin Heidelberg: Springer-Verlag.
http://www.e-recht24.de/news/datenschutz/6217-stiftung-warnetest-soziale-netzwerke-datenschutz.htm
http://www.gesetze-im-internet.de/bdsg_1990/
http://www.youtube.com/watch?v=ruEl7dOI6p4
l
Permalink (2 Kommentare) Kommentieren
Die Problematik der Datenschutzes und der Informationssicherheit ist ein Thema, dass sicherlich jeden betrifft. Fast jeder Internetnutzer hat schon mal ein Suchbegriff auf Google & Co eingegeben oder in Social Communities kommuniziert und viele der Internetnutzer haben mindestens einmal schon über Internet Waren bestellt. Wir leben im Zeitalter des Internets und Information sind wichtige Bestandteile für die Abwicklung von verschiedenen Internettätigkeiten. Genau um diese Informationen geht es hierbei, da eben jeder mit diesen Themen konfrontiert ist. Die Daten von Internetusern werden auf dem eigenen Computer/Laptop/Handy gespeichert, der Internetanbieter speichert die Sitzungsdaten und mit Hilfe von technischen Eigenschaften des Internets wird bei jedem Seitenaufruf gespeicherte Daten wieder abgerufen. In diesem Sinne sind auch einige Begrifflichkeiten näher zu erläutern.
Datenschutz
„Datenschutz ist im engeren Sinne gemäß Bundesdatenschutzgesetz die Aufgabe den einzelnen davor zu schützen, dass er durch den Umgang mit seinen personenbezogenen Daten in seinem Persönlichkeitsrecht beeinträchtigt wird. Ist im weiteren Sinne die Aufgabe, durch den Schutz der Daten vor Mißbrauch in ihren Verarbeitungsphasen der Beeinträchtigung fremder und eigener schutzwürdiger Belange zu begegnen. (Drews 1993: 88)
Drews definiert Datenschutz als eine Tätigkeit, die einzelne Personen vor Persönlichkeitsrechtsberaubung mit Hilfe von Gesetzen schützt.8 Jahre später definiert Müller den neuen Datenschutz folgendermaßen:
„Zum klassischen Schutz der individuellen Privatsphäre im Sinne der Verwirklichung der informationellen Selbstbestimmung tritt untrennbar sowohl die notwendige Berücksichtigung der kommunikativen Autonomie aller an der elektronischen KommunikationBeteiligten als auch die notwendige Gewährleistung einer hinreichenden technischen Datensicherheit als Grundvoraussetzung hinzu […] Die erfolgreiche Erfüllung aller Aufgaben hängt dabei zunehmend von der Realisierung der vier wichtigsten informationstechnischen Schutzziele Vertraulichkeit, Integrität, Verfügbarkeit und Zurechenbarkeit ab, d.h. der technologisch auszuschließenden unbefugten Kenntnisnahme Dritte sowie unbefugter Veränderung der Daten, der bedarfsnahen Zugänglichkeit relevanter Informationen und der im – autorisierten – Bedarfsfall möglichen Identifikation der kommunizierenden Nutzer.“ Müller und Reichenbach erweitern den definierten Datenschutz um die Gewährleistung der Datensicherung und Autonomie aller Beteiligten. Vier Grundziele (Vertraulichkeit, Integrität, Verfügbarkeit und Zurechenbarkeit) werden erkannt und mit dem Thema „Datensicherheit“ in Verbindung gebracht. Die beiden Autoren sind der Meinung, dass ein völlig nahtloser Datenschutz in komplexen Netzwerken, wie es das Internet zweifelsohne darstellt, nicht erreicht werden kann. (vgl. Müller/ Reichbach 2001: 193)
„Das zunehmende Aufkommen personenbezogener Daten, die Dezentralisierung der Datenerhebung und die Dezentralisierung der Datenverarbeitung in komplexen Netzwerken macht allein die Feststellung sämtlicher potentiell sensibler Verarbeitungsprozesse unmöglich, von einer wirkungsvollen Aufsicht oder Kontrolle ganz zu schweigen“ (Müller/ Reichbach 2001: 191)
Der gläserne Mensch
Staatliche Kontrollstellen können beispielsweise auf Kreditkarteninformationen, Krankenstandsdaten und Steuerzahlungen von Privatpersonen Zugriff nehmen. Wir als Facebook & Co – User machen es aber den Kontrollstellen auch sehr einfach. Eine breite Verfügbarkeit von sozialen Netzen und der darin gespeicherten Daten eröffnen sich Überwachungsmöglichkeiten für jedermann. Will man über jemanden was erfahren, dann reichen meist einige klicks, um über Vorlieben, Arbeitsstelle, Beziehungsstatus, Interessen und Hobbies sowie private Fotos zu erfahren.
„Weil Millionen von Menschen ihre privatesten Details im Internet ausbreiten, hat die Bild-Zeitung ihre zuverlässigsten Informanten entdeckt: die Opfer selbst. […] Das Schönste daran: Die Nutzer stellen ihre privaten Vorlieben auch noch freiwillig ins Netz. […] Eine Tatsache, die sich die Bild-Zeitung schamlos zu Nutze macht. Als Anfang März in Hamburg beinahe eine Lufthansa-Maschine abgestürzt wäre, "enthüllte" Bild "das traurige Geheimnis der schönen Pilotin" auf ihrer Titelseite - ein Blick ins StudiVZ reichte, um herauszufinden, was die Hobbies und Vorlieben, was die Ängste von "Maxi J. (24)" waren. Die passende Bebilderung? Lieferte ein einfacher Klick auf das private Fotoalbum, das die Pilotin auf der Online-Plattform veröffentlicht hatte. In anderen Fällen ging die Berichterstattung weit darüber hinaus. Als im Januar etwa eine junge Frau bei einem Ski-Unfall ums Leben kam, druckte die Bild am Sonntag nicht nur ein dort gepostetes Foto der Frau ab - sondern zählte auch ihre Kontakte bei StudiVZ, um sie als "sehr beliebt" zu charakterisieren und nannte ihre liebsten Schulfächer.“ (Kaul, 2008)
Das Geschäft mit den Nutzerdaten
Web2.03 Dienste bestehen zumeist ausschließlich aus „user generated content“, der eine Plattform einzigartig macht. Der Wert eines Dienstes, egal ob Videoplattform, Blogdienst oder Social Community liegt daher weniger in den Funktionen und dem Programmcode, sondern viel mehr im Benutzerstamm. Aus diesem Grund werden sämtliche Daten aus den Diensten analysiert um Dienste verbessern und attraktiver für Benutzer und Werbepartner machen zu können. Um dies bewerkstelligen zu können, ist der Einsatz von drei auf einander aufbauenden Techniken notwendig.
1. Datamining
Unter dem Begriff des Dataminings versteht man eine statistische Analyse der Daten, um neue Daten und Zusammenhänge zu generieren. Datamining kann als mögliches Anwendungsszenario Daten von Social Web Diensten analysieren und Benutzer zu untersuchen. Aus den daraus gewonnen Daten können mittels Targeting sehr genaue Nutzungsprofile und dazu passende Informationen erstellt werden. Das Aggregieren der Daten ist dabei anonym und erfolgt ausschließlich unidirektional.
2. Targeting
Basierend auf den Ergebnissen des Dataminings versucht Targeting ähnliche Benutzer eines Dienstes in Gruppen zu formen. Vorteil des Targetings ist im Gegensatz zur personalisierten Werbung, dass hierbei keine personenbezogenen Daten an den Werber übertragen werden.
3. Personalisierte Werbung
Personalisierte Werbung geht einen Schritt weiter als Targeting und versucht ein wesentlich spezifischeres 1:1 Marketing erneut einzuführen. Dabei entscheidet ein Benutzer, bzw. dessen Umfeld, welche Werbung zu ihm passt. Merkmale der eigenen Person, oder Beziehungen zu anderen Personen helfen hierbei ein genaues Bild über eine Person zu bekommen. Die hierfür notwendige Auswertung personenbezogener Daten stößt dabei bei Benutzern auf wenig Freude. Die Spiegel Online Umfrage zum Thema „Welche Art von Personalisierung finden Sie akzeptabel?“, an der 925 Personen teilnahmen, zeigt ein ernüchterndes Ergebnis: Fast 3 von 4 Teilnehmern sprechen sich dafür aus, dass keine Personalisierung akzeptabel ist. 16% finden eine anonymisierte Analyse des Surfverhaltens ok. Lediglich 5 % sagen, dass sie eine Analyse für unproblematisch halten würden.
Social Communities
Social Communities sind virtuelle Netzwerke, die das Kommunizieren ihrer Benutzer auf der Plattform in den Vordergrund stellen und als direkte Antwort auf die „soziale Isolation“ von Internetteilnehmern zu verstehen, die oftmals in den Beginnen des Internets vermutet wurde.
Mit dem Einzug des Web2.0 starteten soziale Netze auch im Internet durch. Unter dem Begriff „Web2.0“ versteht man eine neue Generation von Webdiensten, die vor allem die Interaktion mit dem Benutzer ins Zentrum aller Bemühungen stellen. Während die Plattformanbieter lediglich Dienste zur Verfügung stellen, erstellen die Benutzer der Applikationen Inhalte, die oftmals den Wert einer Plattform darstellen. Dienste, die das Partizipieren ihrer Benutzer in den Vordergrund stellen, wuchsen in den letzten Jahren rapide und so wurde das Web2.0 zum „Social Web“5, in dem Scharen von Benutzern ihr Leben dokumentierten. Im Jahr 2006 stellten Social Communities für die Gruppe der 12-21 jährigen Amerikaner den Hauptgrund ihrer Internetaktivitäten dar. 2/3 Jugendlichen benutzten damals bereits die sozialen Netze im Internet.
Blogs, Foren und nicht zuletzt Social Communities zum Austausch von Fotos, Videos, Musik und dem eigenen Wohlbefinden sind interaktive Plätze geworden, die vom so genannten „user generated content“ leben. Je mehr Benutzer sich registrieren und in Form von Beiträgen, Kommentaren und gegenseitigen Verlinkungen Daten miteinander verknüpfen desto transparenter werden die personenbezogenen Daten. Die angesprochene Architektur des Partizipierens ist der Grund, warum sich das Web in den letzten Jahren massiv verändert hat. Jeder, der möchte, kann sein komplettes Leben im Internet publizieren Dabei gilt jedoch, dass es natürlich auch für fast jeden möglich ist, diese Informationen wiederzufinden. Deswegen ist der Umgang mit den Daten in zweierlei Hinsicht entscheidend:
- Die Sicht des Benutzers:
Welche Daten publiziere ich über mich im Internet?
- Die Sicht des Betreibers:
Welche Vorkehrungen treffe ich, um Datenschutz und –sicherheit auf meiner Plattform
zu forcieren, um meinen Benutzern zu helfen? Inwieweit ist fehlender Datenschutz
ein Vorteil für meine Benutzer, die einfacher Informationen über Mitglieder auffinden
können?
Hinsichtlich Datenschutzrecht gibt es hierzu folgende Gesetze:
Bundesdatenschutzgesetz (BDSG)
Als wichtigstes Gesetz regelt das Bundesdatenschutzgesetz (BDSG) die Voraussetzungen der Datenerhebung, Weitergabe und Verarbeitung.
Das BDSG gilt sowohl für Unternehmen als auch für Behörden. Es regelt alle Bereiche des Datenschutzes von der Erhebung, Speicherung und Verarbeitung bis hin zur Weitergabe von Daten etwa zu Zwecken der Werbung. Das Bundesdatenschutzgesetz gilt zudem für alle Bereiche der Datenverarbeitung, agel ob diese online oder offline erfolgt.
Telemediengesetz
Nachdem das Teledienstegesetz und der Mediendienstestaatsvertrag nicht mehr in Kraft sind, gilt hier das Telemediengesetz (TMG) als wichtigste gesetzliche Vorschrift.
Das Telemediengesetz regelt für die Tele- und Mediendienste, also spezifisch für die Internetbranche, verschiedene Bereiche. Neben Haftungsfragen sind dies in den §§ 11 – 15a TMG insbesondere fragen des Datenschutzes.
Stiftung Warentest hat zahlreiche Soziale Netzwerke hinsichtlich Datenschutz getestet und kam zu einem ernüchtertem Ergebnis.
Es wurden zehn Netzwerke genauer unter die Lupe genommen, darunter schülerVZ und studiVZ aber auch xing, Stayfriends und Facebook. Primus bezeichnet die Ergebnisse als "sehr durchwachsen". Untersucht wurden Organisation und Transparenz, der Umgang mit den Nutzerdaten und die Datensicherheit aber auch die Nutzerrechte, der Jugenschutz und die Mängel in den AGB. Besonders bei dem Punkt der Datensicherheit schieden alle getesteten Netzwerke durch die Bank schlecht ab. Hierbei wurden zum Beispiel die technische Maßnahmen, unter anderem der Umfang eingesetzter Schutzmaßnahmen wie HTTPS/SSL aber auch die Registrierung und Anmeldung berücksichtigt.
Die „besten“ Ergebnisse erreichten mit der Note „mangelhaft“ schülerVZ, StudiVZ und lokalisten. Die US-Netzwerke sowie Xing haben nach Angaben von Primus ihre Zustimmung zur Sicherheitsprüfung verweigert. Dies führte zur Abwertung der Portale wegen fehlender Transparenz. Für die Seiten Jappy, wer-kennt-wen und Stayfriends konnte nur ein "mangelhaft" für diesem Prüfungspunkt vergeben werden.
Besser Ergebnisse wurden bei dem Prüfungspunkt Nutzerrechte erreicht. Untersucht wurden Verfügungs- und Nutzerrechte aber auch die Überwachung und Schlichtung. Hier erhielt die Seite Jappy ein „gut“ und die VZ-Protale sogar ein „sehr gut“. Zudem weisen die AGB VZ-Protale nur sehr geringe Mängel auf. Auch die Seiten Jappy und lokalisten weisen nur geringe Mängel im Hinblick auf die AGB auf. Die AGB der Seiten wer-kennt-wen und Stayfriends sind nach Angaben von Primus mangelfrei.
Hervorzuheben sind die guten Testergebnisse hinsichtlich des Umgangs mit den Nutzerdaten. Bewertet wurden die Zulässigkeit der Datenverarbeitung, die Angemes¬senheit der Protokolldaten, die Weitergabe von Daten an Dritte und die Datenlöschung. SchülerVZ erhielt ein „sehr gut“ und alle anderen deutschen Netzwerke, mit Ausnahme von lokalisten („ausreichend“), mit „gut“ ab. Auch die US-Netzwerke erreichten nur ein „ausreichend“ oder sogar nur „mangelhaft“.
Resümee
Wie wir es wahrscheinlich vermutet haben, zeigen sich erhebliche Mängel hinsichtlich Datenschutz bei den bekanntesten Sozialen Netzwerken Facebook und MySpace. Die Nutzerdaten von Usern und die Nutzerrechte von Usern werden von Seiten dieser Sozialen Plattformen keine wirkliche Beachtung geschenkt. Daher ist eine dringende Verbesserung von Datensicherheit und Jugendschutz erforderlich.
Quellen:
DREWS/ KASSEL/LESSENICH (1993): Lexikon Datenschutz und Informationssicherheit. 4. Auflage. Berlin und München: Siemens Aktiengesellschaft.
KAUL, M. 2008. Jäger und Sammler Online unter
http://www.taz.de/1/leben/internet/artikel/1/jaeger-und-sammler/?type=98 (Stand 28.05.2011)
MÜLLER/ REICHENBACH (2001): Sicherheitskonzepte für das Internet. Berlin Heidelberg: Springer-Verlag.
http://www.e-recht24.de/news/datenschutz/6217-stiftung-warnetest-soziale-netzwerke-datenschutz.html
http://www.gesetze-im-internet.de/bdsg_1990/
Permalink (0 Kommentare) Kommentieren
Was ist iPv6?
Ipv6 hören wir in letzter Zeit sehr häufig aber was bedeutet sie eigentlich? Recherchiert man im Internet stößt man auf verschiedene Erklärungen, Definition und Beschreibungen, die dieses Begriff näher erläutern.
Ipv6 lautet ausgeschrieben Internet Protocol next Generation und dient als Nachfolger des aktuellen und gegenwärtigen Internet Protocols. Gegenwärtig wird im Internet noch überwiegend die Version 4 des Internet Protokoll verwendet (Ipv4). Ipv6 spezifiziert die Vorgänge, die Vermittlung von Daten durch ein Paket vermittelndes Datennetz notwendig sind, wie etwa die Adressierung der beteiligten Netzwerkelemente und den Vorgang der Paketweiterentwicklung zwischen Teilnetzen. (vgl. Wikipedia 2011: o.S.)
Warum gibt es IPv6?
Die IP-Adressen werden immer knapper und die Unterstützung von modernen Multimedia-Anwendungen ist nach wie vor sehr schlecht. Aus diesem Grund wird das derzeitige Internetprotokoll mit den steigenden Anforderungen kaum noch gerecht.
Durch immer knapper werdende IP-Adressen und schlechte Unterstützung von modernen Multimedia-Anwendungen wird das derzeitige Internet Protokoll den steigendende Anforderungen kaum noch gerecht. Der Nachfolger IPv6 soll viele Unzulänglichkeiten seines Vorgängers beseitigen. Ipv4 bietet mehr als vier Milliarden IP-Adressen, mit denen Computer und andere Geräte angesprochen werden können. Niemand hat mit so einem Wachstum wie heute gerechnet und daher herrscht heutzutage eine Adressknappheit. Die Vergabe der IP-Adressen erfolgte teilweise ohne Hierarchie, daher sind die Adressen überall auf der Welt verstreut. Die IANA hat der APNIC (Regional Ineternet Registry) im Jahre 2001 die letzten zwei frei zu vergenden Netze vergeben. Die restlichen verbleibenden Adressen wurden gleichmäßig an die regionalen Adressvergabestellen verteilt. Über die vergebene Adresszahl hinaus, können keine weiteren Ipv4-Adressen vergeben werden. Man kommt inzwischen an die äußerste Grenze an. Ein weiteres Problem der Ipv4 ist die teilweise stark framentierte Vergabepraxis, da häufig mehrere nicht zusammenhängende Adressbereiche zur gleichen organisatorischen Instanzen gehören. Also war eine Lösung für dieses Problem notwendig.
Mit der Ipv6 bricht eine neue Ära an. Dieses Protokoll hat einen viel größeren Adressraum und kann sich an die heute bestehenden Funktionen anpassen. Ipv6 Adressen sind 128 bit lang, es gibt also 2128 = 340.282.366.920.938.463.463.374.607.431.768.211.456. Das Protokollrahmen ist viel einfacher und besser als die vom Ipv4. Die Konfiguration von IP-Adressen erfolgt automatisch und die Implementierung und Überprüfung von Ipsec innerhalb der Authentizität wird ermöglicht. Die Länge des Headers ist variabel und die minimale Länge beträgt 20 Byte. (vgl. Link 2011: 51f)
Problematik bei der Umstellung von Ipv4 zu Ipv6
Die Umstellung von Ipv4 auf Ipv6 muss gut geplant werden. Die Probleme, die entstehen können wären beispielsweise der Zusammenbruch des Netzes aufgrund von gravierenden Änderungen. Daher empfiehlt es sich nicht eine Ad-hoc Umstellung, weil es durch die Größe des Internets nicht realisierbar ist. Besser ist eine sanfte und schonende Migration von IPv6.
Zukunft
Die Zukunft sollte darauf ausgerichtet sein, die Mobilität noch stärker zu stärken und auszurichten. Für die EU wird diese Entwicklung als Staatsziel angesehen, wobei die Asiaten die Vorreiter dieser Entwicklung sein werden. Die Asiaten haben einen noch größeren Problem als die anderen, aufgrund des akuten Adressmangels. Die am Markt angebotenen Router werden standardmäßig nur noch Ipv6 anbieten. (vgl. Managementcenter Inssbruck 2011: 41)
Literaturverzeichnis
Link, Jens (2011): Ipv6 Einführung. Online unter http://www.heinlein-support.de/upload/slac08/slac-ipv6.pdf (Stand 8.5.2011)
Managementcenter Innsbruck (2011): Ipv6. Online unter http://www.ika-reutte.at/elearning/IPv6.pdf (Stand 8.5.2011)
Wikipedia (2011): Ipv6. Online unter http://de.wikipedia.org/wiki/IPv6 (Stand 8.5.2011)
Permalink (0 Kommentare) Kommentieren
Künstliche Intelligenz versucht ebenso den Menschen den Alltag zu erleichtern. An der Universität Bremen beschäftigt sich eine Arbeitsgruppe des Fachbereichs Mathematik und Informatik, unter der Leitung von Professor Dr. Bernd Krieg Brückner, mit "kognitiver Robotik". Versucht wird ein intelligentes Transportmittel für ältere und behinderte Menschen zu entwickeln. Der Bremer Autonome Rollstuhl Roland, der mit Sensorik und Steuer-PC ausgestattet ist dient einerseits als wissenschaftliche Experimentplattform im Rahmen des Schwerpunktprogramms "Raumkognition" der deutschen Forschungsgemeinschaft, andererseits als als Demonstrator für den Einsatz formaler Methoden bei der Entwicklung eingebetteter Systeme Was kann man aber unter "kognitiver Robotik" verstehen? Beginnen Roboter Gefühle zu entwickeln und zu denken? Können geistig kranke Menschen von Robotern betreut werden? Gerade im Zeitalter, in dem Menschen immer älter werden und Pflegepersonal knapper. Zu was sind Roboter fähig? Unter "kognitiver Robotik" ist ein Anwedungsbereich gemeint, der durch die Ansgehnung und Anwendung von Methoden und Techniken der Robotik auf den neuartigen Bereich der technischen Kognition inhaltlich geprägt ist. Die klassische Kognition, die sich auf die geistigen Fähigkeiten konzentriert, wie Planen, eigenständiges Denken oder Problemlösen, wird somit erweitert. Vor allem die wechselseitige Interaktion zwischen Maschine und Mensch muss berücksichtigt werden. Dennoch befindet sich die "Kognitive Robotik" in den Kinderschuhen, mit Hilfe von "Raumkognition" kann die Maschine zwar gespeicherte Wege im Haus zurücklegen und auf dementsprechende Befehle reagieren, aber nicht autonom Wege erkunden! Der Roboter als Schnittstelle, durch den sämtliche Befehle befolgt werden, kann so durch Knopfdruck Türen öffnen, den Ofen vorheizen oder das Licht regulieren, jedoch wird noch daran gearbeitet, Befehle über Gedanken zu steuern und den Roboter eigenständige Gedankengänge zu entwickeln, wie das Licht eigenständig auszuschalten, wenn der User das Haus verlassen möchte. So ist der Mensch der Maschine noch um einiges Voraus. Bei Problemen denken Menschen weiter und suchen Lösungen, Roboter kommen zum Stillstand. Quellen (27.03.2011) Anwendungsfach: Kognitive Robotik.
Online Unter: http://www.techkyb.de/diplom/infostudierende/anwendungsfach/kognitiverobotik/
Online Unter: Universität Bremen: "Roland"- Der Bremer Autonome Rollstuhl: http://www.informatik.uni-bremen.de/rolland/index_d.htm
Online unter: http://www.badische-zeitung.de/bildung-wissen-1/humboldt-laedt-ein-vergoldete-rueckkehr--15576841.html
Permalink (3 Kommentare) Kommentieren
Zur Debatte steht die Analyse der Dokumentation ?richtung 2000? im Rahmen der Lehrveranstaltung ?Das Web der Zukunft?. Ich habe einige Statements von anderen Kollegen gelesen. Ich finde aber, dass die Vorstellung von der Zukunft bzw. vom Jahr 2000 aus der Sicht von 1972 gar nicht so weit her geholt. Kommen wir zu dem Punkt Isolation und Vereinsamung. Zum Teil stimmt sogar diese Prognose von damals. Die Single-Haushalte sind mehr als je. Einige Menschen verlieren im Zeitalter des Internet und mit der rasanten Entwicklung von Social Networks reale soziale Kontakte. Manche meiden sogar ihre Außenwelt. Social Networks können zwar sehr viele Vorteile hervorbringen aber gleichzeitig sollte wie jede Technologie überlegt genutzt werden. Der Punkt mit Depressionen betrifft uns mehr als die Generationen vor uns. Wir leben im Zeitalter des schnellen Essens, der Akkordarbeit, des starken Verkehrs, des Konkurrenzdruckes und der rasant wachsenden globalisierten Weltwirtschaft. Daher sind diese Prognosen nicht weit hergeholt. Wir erinnern uns an die Szene in diesem Beitrag, wo der Hauptdarsteller die sogenannten fs10-20 Frühstücke verzehrt. Heute würde man es als Fastfood oder als Fertiggericht definieren. Auch die Vorstellung über Teleshopping ist nicht weit weg von der Realität auch wenn sie ein bisschen übertrieben dargestellt wurde. Es gibt aber auch absurde Prognosen wie etwa der Verzehr von nur biologischen Lebensmittel. Heute wissen wir, dass es so etwas wie die Gentechnik gibt und nur wenige Bio-Produkte leisten können. Der Einsatz und die chemische Entwicklung in Sachen Schädlingsbekämpfung ist in der heutigen Zeit mehr als Fortgeschritten. Das witzigste an diesem Beitrag, wo ich auch lachen musste, ist die Theorie der Fernsehtelefonie bzw. heute videotelefonie. Diese Technik hat sich nicht durchgesetzt, obwohl es sie lange gibt. Die Theorie, dass Menschen nur in ihren Wohnungen bleiben und jeglichen Kontakt meiden, die Straßen leer sind, ist auch eine Fiktion und wird sich auch nicht verwirklichen in einer Welt mit ständig wachsenden Bevölkerungszahl. Also kann man zusammenfassend sagen, dass gewisse Prognosen nicht weit her geholt sind und manche nur reine Fiktion bzw. Science Fiktion sind.
Permalink (0 Kommentare) Kommentieren