Die Medien der "Neuen Informationsgesellschaft"
Mittwoch, 17. Januar 2007
IPv6 - Internet Protocol version 6

IP – Internetprotocols


Das derzeit vorherrschende Internetprotokoll ist die Version 4 (seit 1981 von John Postel). Dieses Protokoll ist derzeit der Standard für die Netzwerkschicht des OSI-Modells und regeln die Adressierung und das Routing von Datenpaketen innerhalb eines Netzwerkes. Die Version 4 wird derzeit noch überwiegend verwendet, aber es gibt bereits eine Nächste Generation der IP nämlich die IPnG (Internet Protocol Next Generation) oder auch die Version 6

IPv5


.
Jetzt stellt sich natürlich die Frage warum es keine Version 5 gibt. Hierzu muss man sagen das die IANA (Internet Assigned Numbers Authority) die IPv5 für das ST2 (Streaming Protocol 2) reserviert hat, das gegenüber des IPv4 bessere Echtzeitfähigkeiten haben sollte. Die Weiterentwicklung des IPv5 wurde jedoch zu Gunsten des IPv6 und des RSVP (Resource reSerVation Protocol) eingestellt.

IPv4


Die IPv4 bieten einen Adressraum von etwas über 4 Milliarden IP-Adressen, mit denen PC und andere Geräte über das Internet angesprochen und eingebunden werden können. IPv4 benutzt 32-Bit-Adressen daher sind maximal Viermilliardenzweihundertvierundneunzigmillionenneunhundertsiebenundsechzigtausendzweihundertsechsundneunzig (4.294.967.296) eindeutige Adressen möglich. Die Adressen werden normalerweise dezimal in 4 Blöcken geschrieben (200.131.144.55). In jedem Block werden 8 Bit zusammengefasst, daraus ergibt sich, dass jeder der 4 Blöcke einen Wertbereich zwischen 0 und 255 besitzt. Diese Adressen werden von der IANA eindeutig einem User zugeordnet. Es gibt im IPv4 jedoch auch 2 freie Adressräume, nämlich 10.x.x.x und 192.168.x.x .

Was macht das neue IPv6 so bedeutend


In der Anfangszeit des Internets, dachte man das man mit diesem Adressraum auskommen würde, diese Vermutung wurde noch untermauert, da es zu dieser Zeit fasst keine Computer gab. Niemand konnte sich auch nur im entferntesten vorstellen, dass einmal so viele Computer und andere Geräte in einem Netzwerk zusammengeschlossen werden würden, dass diese immense Zahl an IP-Adressen nicht mehr ausreichen würde.
Ein weiteres Problem, dass den IP-Adressen Engpass noch fördert ist, dass in der Praxis viele der Adressen nicht einmal genutzt werden können.
Da Ihnen Sonderaufgaben zugeordnet sind (z. B. Multicast --> Gruppenrufe --> eine Nachricht wird von einem Sender an eine Gruppe übertragen) oder sie zu großen Teilnetzen (Subnetzen exakt spezifizierter Teil des IP-Adressraumes) gehören. So wurden den ersten Teilnehmern am Internet wurden riesige Adressbereiche (sog. Class-A-Netze) mit je 16,8 Mill. Adressen zugeteilt, die diese Organisationen bis heute behalten haben, ohne sie jemals voll ausgenutzt zu haben oder bis zum heutigen Zeitpunkt zu können. Natürlich teilen sich die Länder die als erster stark im Internet vertreten waren, diesen Adressraum auf. Der Hauptanteil dieser Adressen teilen sich die Nordamerikaner und die Europäer auf. Die „Späteinsteiger“ Südamerika und Asien bleiben zunächst außen vor.

Daher ist die IP-Adressen-Knappheit in der IT-Boom-Region Asien am ausgeprägtesten. Dieser Entwicklung versucht man mit, PAT (Port Adress Translation = NAT Overloading), Lockerung der Netzklassenunterteilung durch CIDR (Classless Inter-Domain Routing  keine Differenzierung zwischen A,B,C Netzen) , normalem NAT (Network Adress Translation) oder der Vergabe dynamischer Adressen, entgegenzuwirken. Doch diese Lösungen sind nur Lösungen auf Zeit, da beim derzeitigen Wachstum der IT-User und neuen Nutzungsformen (Internet via Handy, oder Einbindung von Haushaltsgeräten in das Netzwerk) auch diese Zwischenlösungen nicht mehr Herr der Lage werden können.
Die Adressknappheit war der Hauptgrund warum 1995 mit der Entwicklung des IPv6 begonnen wurde, mit der Weiterentwicklung wurden jedoch auch einige Probleme von IPv4 gleich mitgelöst.
Die wesentlichsten Änderungen waren:
Die Erweiterung des Adressraumes von 232 (ca. 4,3 Milliarden) auf 2128 (340 Sextillionen) Adressen.
Die Autokonfiguration von IPv6-Adressen (Stateless) DHCP (Dynamic Host Configuration Protocol --> stateful) ist für IPv6 damit in der Regel überflüssig Mobile IP und vereinfachte Umnummerierung (Renumbering)
Dienste wie IPSec (IP Security --> zur Behebung von Schwächen im Protokoll), Qos (Quality of Service) und Multicast werden dadurch für jeden automatisch nutzbar
Vereinfachung und Verbesserung der Protokollrahmen (Kopfdaten). Dies ist insbesondere für Router und deren Benutzer wichtig.

Adressaufbau von IPv6


Wie bereits erwähnt ist eine IPv6-Adresse 128 Bit lang, und somit können ca. 3,4 x 1038 Adressen vergeben werden. Damit man sich unter dieser unvorstellbaren Zahl etwas vorstellen kann, hier ein kleines Beispiel:
Für jeden Quadratmillimeter der Erdoberfläche könnten ca. 667Billiardden IPv6-Adressen bereitgestellt werden, während auf einem Quadratkilometer Erdoberfläche nur 8,4 Adressen im IPv4-Format zur Verfügung gestellt werden können.
Ein weiterer Unterschied zwischen dem vorherrschenden IPv4 und dem neuen IPv6 ist das die Adressen nicht in dezimaler (255.255.255.0-IPv4-Adresse) sondern in hexadezimaler Notation mit Doppelpunkten geschrieben werden. Die IPv4-Adressen bestehen wie man oben ersehen kann aus 4 Blöcken, die Adressen im IPv6 jedoch bestehen aus 8 Blöcken mit einer Länge von jeweils 16 Bit. Hierfür ein Beispiel:
2345:8xv4:00b9:9999:1708:1fgh:ru48:a00a
Eine oder mehrere 16Bit-Gruppen die den Wert 0000 enthalten können durch zwei aufeinanderfolgende Doppelpunkte ersetzt werden , und brauchen dadurch nicht angeschrieben werden, es darf jedoch keine Adresse mehr als 2 solcher aufeinander folgende Doppelpunkte enthalten.
Adressbereiche werden bei IPv6 durch Präfixe angegeben. Dazu wird die Präfixlänge (Anzahl der „gültigen“ Bits) als Dezimalzahl mit vorangehendem „/“ an die IPv6-Adresse angehängt. Subnetze werden als Adressbereiche ebenfalls durch den Präfix bestimmt. Netzmasken, wie sie bei IPv4 verwendet wurden, gibt es bei IPv6 nicht mehr, stattdessen wird eine ähnliche Notation wie beim IPv4-CIDR verwendet.
Die ersten 64 Bit der IPv6-Adresse dienen üblicherweise der Netzadressierung, die letzten 64 Bit werden zur Host-Adressierung verwendet.

Beispiel: hat ein Netzwerkgerät die IPv6-Adresse

2001:0db8:85a3:08d3:1319:8a2e:0370:7344
so stammt es aus dem Subnetz

2001:0db8:85a3:08d3::/64
das mit den ersten 64 Bit seiner Adresse identifiziert wird. Analog gehört das Subnetz 2001:0db8:85a3:08d3::/64 hierarchisch zum Subnetz mit dem kürzeren Präfix 2001:0db8:85a3::/48.

In einer URL wird die IPv6-Adresse in eckigen Klammern eingeschlossen. Beispiel einer korrekten URL:
http://[2001:0db8:85a3:08d3:1319:8a2e:0370:7344]/

Diese Notation verhindert die fälschliche Interpretation von Portnummern als Teil der IPv6-Adresse:
http://[2001:0db8:85a3:08d3:1319:8a2e:0370:7344]:443/

Mobile IPv6


Ein immer wichtigerer Teil in unserer Gesellschaft ist die Mobilität, auch hier ist das Internet bereits ein immer wichtiger werdender Punkt. Daher wurde dieser Punkt auch gleich bei der Entwicklung des IPv6-Standards berückrichtige und unter dem Namen „Mobile IPv6“ in das IPv6 Protokoll integriert. Hierbei geht es darum, dass man unter der gleichen IP-Adress überall erreichbar ist. Das heißt egal ob man sich zu Hause an seinem PC, im Zug am Laptop oder in der Stadt mit seinem Palmtop befindet, man steigt immer mit der gleichen IP-Adresse in das Internet ein. Früher musste man die Routing-Tabellen ändern, was sehr aufwendig ist und meist nur von Personen, die sich mit der EDV gut auskennen, durchgeführt werden kann. Das IPv6 umgeht dieses Problem mit so genannten Home Agents, die das Mobile-Gerät im Heimnetzwerk vertritt. Eingehende Pakete werden durch diesen Home Agent an die momentane Adresse, diese nennt man Care-of-Adress, des Mobilen-Gerätes getunnelt. Der Home Agent erhält diese Adresse des Mobile-Gerätes durch so genannte Binding Updates. Diese Updates werden von Mobilen-Gerät an den Home-Agent gesendet sobald es eine neue Adresse im aktuellen Fremdnetz, in dem es sich befindet, erhalten hat.
Grundsätzlich wird jedes Gerät von Mobile IP mit 2 Adressen ausgestattet. Nämlich mit der Home Address und mit der Care-of-Address. Wenn der Mobile Host nun sein Heimnetzwerk verlässt und sich in ein fremdes Netz einbucht, bekommt er von diesem ein Care-of-Address zugewiesen, die er eben über Binding Updates an seinen Home Agent mitteilt.
Beim Datenverkehr leitet dieser Home Agent nun ankommende Datenpakete and die CoA und somit an den Mobile Host weiter. Wenn jedoch der Mobile Host Datenpakete verschicken will muss er dies nicht über den Home Agent machen, sonder kann durch den Einsatz der IP-Routing-Mechanisman diese direkt verschicken.
Kehrt der mobile Rechner in sein Heimatnetz zurück, meldet er sich beim Foreign-Agent wieder ab, so dass an ihn gerichtete Pakete wieder ohne Umweg über den Home-Agent zugestellt werden.








zu IPv6
Multicast
DHCP
IPSecurity
Quality of Service
Subnetz
IPv6 Part II
Mobile IP
Mobile IP Part II
Mobile IP Part III
Mobile IP Part IV

... link (0 comments)   ... comment


Sonntag, 7. Januar 2007
Datenkomprimierung

Damit mehr sein kann ohne Ressourcen zu verbrauchen



Bei der Datenkomprimierung geht es in erster Linie darum mit Hilfe von bestimmten verfahren, eine Reduktion des Speicherbedarfs von Daten zu erzielen, aber auch das Vermeiden von zu hohen Datenaufkommen auf dem jeweiligen Speichermedium oder bei der Übertragung von Daten.

Die Menge der Daten wird reduziert, in dem eine günstigere Repräsentation bestimmt wird, mit der die gleichen Daten in kürzerer Form dargestellt werden können, diesen Part übernimmt ein Kodierer.

Es gibt grundsätzlich 2 Arten der Kompression:

1. verlustfreie Kompression. Man spricht von dieser Art und Weise der Kodierung, wenn die kodierten Daten nachdem Sie mit einem entsprechenden Dekodierer entkomprimiert wurden, exakt dem Original entsprechen. Diese nennt man auch Redundanzreduktion.
2. verlustbehaftete Kompression. Ein solche Art und Weise der Kompression liegt dann vor wenn, sich die komprimierten Daten nicht in jedem Fall fehlerfrei rekonstruieren lassen. Dies nennt man auch Irrelevanzreduktion.

In der Informatik wird die „günstige Repäsentation, durch das Vermeiden von Redundanz und durch das teilweise weglassen von Informationen erreicht.

Ein Beispiel hierfür ist das beim MPEG3 Format, nach lauten Tönen ein Rauschen eingespeist wird, da ein Rauschen weniger Datenvolumen benötigt als ein vollwertiger Ton, erwirkt man eine Reduktion der Datenmenge, wie man aus diesem Beispiel ersehen kann handelt es sich bei der MPEG-Kompression um eine Verlustbehaftete Kompression.

Kompression von Bildern und Ton


In diesem Beitrag wird die Kompression von Bildern und Ton näher behandelt, auf die anderen Einsatzgebiete der Komprimierung wird nicht eingegangen.

Die Komprimierung von Bild und Ton ist wie man an dem oben angeführten Beispiel (MPEG3) klar ersehen kann ein typisches Einsatzgebiet der Verlustbehafteten Kompression.

Bei der Komprimierung dieser Art von Daten orientiert man sich sehr stark an den physiologischen Wahrnehmungseigenschaften des Menschen. Da der Mensch akustische Signale oberhalb eines Frequenzbereiches von 20-25 kHz nicht mehr wahrnehmen kann, können diese gleich während der Aufnahme weggeschnitten werden. Ebenso werden sehr leise Nebentöne vom Kompressions-System entfernt.

In der akustischen Wahrnehmung des Menschen werden Frequenzen oberhalb 20–25 kHz meist nicht mehr wahrgenommen und können bereits im Aufnahmesystem beschnitten. Verfahren wie Vorbis oder MP3 reduzieren das Datenvolumen um den Faktor bis zu 50. Dies kann nur bei bestimmten Daten umgesetzt werden. In der Regen reduzieren diese Systeme um den Faktor 10. Das heißt, dass man den 10fachen Speicherplatz zur Verfügung hat.

Bei der optischen Wahrnehmung des Menschen werden die Farben weniger stark aufgelöst als bei Helligkeitsveränderungen, aus dieser Erkenntnis heraus ist in der analogen Farbfernsehtechnologie die YUV-422 Reduktion angewandt worden. Mit moderater Tiefpassfilterung zur Farbreduktion (z. B. JPEG) verringert sich das Datenvolumen um bis zu 90 %, man muss sich jedoch mit dem für JPEG typischen Rauschanteil begnügen. Möchte man ein Bild jedoch verlustfrei komprimieren und vergleichbar viel Datenvolumen zu sparen, findet man keine Möglichkeit dies zu tun. Es gibt das TIFF-Format, dies ist ein verlustfreies Komprimierungsverfahren für Bilder das durch das geringe Kompensierungspotential jedoch fast ausschließlich in der Professionellen Fotographie verwendet wird.
Es gibt ein weiteres verlustfreies Verfahren zu Kompressionen von Bildern, das GIF-Format, da es das Farbspektrum jedoch auf 256 Farben einschränkt ist dieses Verfahren nur für Zeichnungen geeignet.

Bei bewegten Bildern ist die Grundvoraussetzung so, dass ein Film mit 25 Bildern pro Sekunde aufgenommen wird. Da sich die Bilder nur bei Szenenwechsel deutlich ändern, beschränkt sich die Speicherung vornehmlich auf die Speicherung der Änderung zwischen Bildern.

AVI von Microsoft


Dieses Containerformat von Microsoft wurde vom RIFF (Resource Interchange File Format) ,das für Windows 3.1 entwickelt wurde, abgeleitet. In einer AVI-Datei können mehrere Video-, Audiodatenströme vorhanden sein. Diese können mit verschiedenen Verfahren kodiert sein daher ordnet man AVI auch unter die Containerformate ein. Der Typ eines Videostreams wird über so genannte FourCCs(Four Character Code) gespeichert. Für Audiostreams kommen TwoCCs zum Einsatz. Zum Kodieren oder Dekodieren wird für jeden Stream ein entsprechender Codec benötigt. Vorteil von AVI ist, dass es weit verbreitet ist und von den meisten Multimediaprogrammen unterstützt wird und außerdem von den meisten DVD-Playern abgespielt werden kann. Nachteile sind, dass es nicht für jedes Audioformat geeignet ist und außerdem keine Menüs, Kapitel und Untertitel unterstützt. Da dies zu Konflikten führen kann wurden weitere, verbesserte Systeme entwickelt wie z. B. DivX.

AVI
Datakompression1
Datakompression2

... link (0 comments)   ... comment


Sonntag, 3. Dezember 2006
Anonym durch das Web 2.0

Wieviel Privatspähre braucht das web 2.0?



Die Anonymität ist im web 2.0 ein Punkt den man nicht außer acht lassen soll, und der gleichzeitig die Geister scheidet. Ein Teil ist begeistert von den Möglichkeiten die das web 2.0 bietet, der andere Teil steht dem Ganzen sehr skeptisch gegenüber, und findet dass das web 2.0 eine sehr gefährliche Sache ist.

Feststeht, dass das web 2.0 bisher nicht geahnte Möglichkeiten in sich birgt, man muss jedoch auch darauf achten, dass man nicht zu unbedacht mit der Social-Software umgeht und dabei seine Privatspähre zu leichtfertig aufs Spiel setzt. Einige der stärksten Kritker des web 2.0 befürchten überhaupt, dass Portale wie „myspace“ zu „Social-Portalen“ für verkappte Kinderschänder, Stalker oder sonstige Verbrecher werden könnten. Natürlich besteht hierin eine Gefahr, aber wie überall im Leben gibt es bei allen guten und nützlichen Dingen, wenn sie von den „Falschen Menschen“ benützt werden, auch eine schlechte Seite. Ein nicht so extremes aber ein durchaus universelles Problem ist die Sicherheit der Daten und Passwörter. Es gibt bei „Myspace.com“, nach Angaben des Unternehmens, über 56 Millionen registrierte User. Die bereitwillig, ihre Fotos, Videos, Bilder und ihre persönlichen Daten bekannt geben, und naiverweise glauben, dass nichts passieren kann. Daher offenbaren viele Nutzer ihre sensibelsten Daten und werden damit zu Kanonenfutter der web 2.0 Ära. Dadurch erhält die Marketingindustrie völlig neue Einsichten in das Kaufverhalten der Menschen und kann dadurch, neue Vermarktungsstrategien entwickeln. Das kann für den einzelnen wiederum sowohl von Vorteil als auch von Nachteil sein. Einerseits könnte der Verbraucher durch Werbung, die auf seine Bedürfnisse zugeschnitten ist schneller die Produkte seiner Wahl finden, andererseits könnte dadurch auch eine Verarmung der Vielseitigkeit entstehen. Ein weiterer kritischer Punkt in Bereich der Social-Software, ist auch der Aspekt der Soziale-Verarmung, es entsteht die Illusion eines persönlichen Mehrwertes und sozialer Anerkennung durch die Applikationen des web 2.0, aber die Gefahr besteht darin, dass für die User das reale Leben keine Relevanz mehr besitzt. Sprich das sie ihre realen sozialen Kontakte verlieren, und nur mehr virtuelle zwischenmenschliche Kontakte haben.

Private-Data-Transfer ein Problem speziell bei jungen Menschen



Bei der Weitergabe von persönlichen Daten sind speziell junge Leute offen erstaunlich unbefangen und unvorsichtig. Das könnte aber in vielerlei Hinsicht zu weitreichenden Problemen führen. Den durch die komplette Bekanntgabe seiner persönlichen Daten, wird der Mensch immer durchsichtiger. So könnten zum Beispiel zukünftige Arbeitgeber mit Hilfe einer einfache Internetsuche auf Dinge stoßen, die sich für den Bewerber, dann schnell als unvorteilhaft im Bezug auf die Jobchance auswirken könnten. Dem Bewerbe könnte somit ein verfängliches Party-Foto oder eine politische Meinungsäußerung aus der Vergangenheit zum Verhängnis werden und ihm schließlich die Chance auf den Job verbauen. Ein Aspekt, warum viele Menschen so unvorsichtig mit den Anwendungen des web 2.0 umgehen ist, dass sie „das Ganze eher als private und nicht als öffentliche Kommunikation betrachten“ (Kommunikationssoziologe Jan Schmidt).
Da es sich jedoch durchaus um öffentliche Kommunikation handelt, ist es von Seiten der User wichtig, dass man vorsichtig mit seinen persönlichen Daten umgeht. Den es gibt bei allen Anwendungen des web 2.0 die Möglichkeit selbst zu bestimmen, wie viel man von sich selbst im web preisgibt, aber es liegt am einzelnen User dies auch zu nutzen. Wenn also jeder genau darauf achtet, was er im Netz preisgibt oder nicht, dann kann man sagen, das web 2.0 bietet unglaubliche Möglichkeiten für jeden einzelnen bietet, und wenn es von jedem effektiv und sinnvoll genutzt wird, wird diese art der Software sicher zukunftsweisend sein.

GnuPrivacyGuide



Einen Punkt den ich noch erwähnen will ist die Datenverschlüsselung, hier bin ich nach meinen Recherchen im Netz auf eine öffentlich zugängliche Verschlüsselungs-Software namens GnuPrivacyGuard gestossen.
Mit Hilfe dieser Software ist es möglich mit Hilfe von kryptographischen Methoden Daten zu Ver- und Entschlüsseln sowie elektronische Signaturen zu Erzeugen oder zu Prüfen.

Die Funktionsweise ist , das GnuPG asymetrische Schlüsselpaare verwendet, die von Usern erstellt wurden. Die dadurch entstanden "öffentlichen Schlüssel" können nun von den Usern ausgetauscht werden, z. B. mit Hilfe von Keyservern. Der öffentliche Schlüssel dient zum verschlüsseln der Daten und um signierte Daten zu überprüfen. Dieser muss jedem Kommunikationspartner der diese Beiden Aktionen durchführen will zur Verfügung stehen. Mit dem öffentlichen Schlüssel ist es nicht möglich Daten zu entschlüsseln oder zu signieren, daher ist seine Verbreitung mit keinem Sicherheitsrisiko verbunden. Der zweite Teil besteht aus einem "privaten Schlüssel", auf den nur der Eigentümer zu Griff hat und der mit einem Passwort geschützt ist. Der private Schlüssel dient zur Signierung und Entschlüsselung von Daten

Mittels Web of Trust versucht GnuPG das man sich persönlich der Echtheit, des Schlüssels den der Kommunikationspartner verwendet, überzeugen kann. Benutzer können andere Schlüssel mit ihrem eigenen Schlüssel signieren und somit Dritten bestätigen, dass sie sich von der Echtheit des Schlüssels überzeugt haben und wie sehr sie diesem vertrauen.

Wenn Knut beispielsweise mit ihrer Signatur die Echtheit des Schlüssels von Adelheid bestätigt hat, kann Sven der Echtheit des Schlüssels von Adelheid auch dann trauen, wenn sie selbst sich davon nicht direkt überzeugen konnte, weil sie ihn beispielsweise aus dem Internet bezogen hat. Voraussetzung dafür ist natürlich, dass es den Schlüssel von Knut kennt und ihm vertraut.

Natürlich gibt es auch Zertifizierungsstellen, sogenannte Certification Authority`s die die Echtheit von Schlüsseln feststellen. Diesen Dienst bieten zum Beispiel das Deutsche Forschungsnetz oder die Zeitschrift „c’t“ kostenlos an.

GnuPrivacyGuide
validome.org
Bericht von Tagesschau.de

... link (0 comments)   ... comment


Online for 6553 days
Last update: 2007.01.19, 11:42
status
You're not logged in ... login
menu
... home
... topics
... galleries

... ::collabor:: home
search
 
calendar
September 2024
Mo
Di
Mi
Do
Fr
Sa
So
 
 
 
 
 
 
 1 
 2 
 3 
 4 
 5 
 6 
 7 
 8 
 9 
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
 
 
 
 
 
 
 
 
recent updates
IPv6 - Internet Protocol...
IP – Internetprotocols Das derzeit vorherrschende...
by Erich.Moises.Uni-Sbg (2007.01.19, 11:42)
Datenkomprimierung
Damit mehr sein kann ohne Ressourcen zu verbrauchen Bei...
by Erich.Moises.Uni-Sbg (2007.01.07, 20:00)
Anonym durch das Web...
Wieviel Privatspähre braucht das web 2.0? Die...
by Erich.Moises.Uni-Sbg (2006.12.03, 16:12)
web 2.0 für Bilder
Flickr Einer der größten und berühmtesten...
by Erich.Moises.Uni-Sbg (2006.11.19, 22:04)
Das WEB 2.0
Oder wie aus Dokumenten ein Medium für Jedermann...
by Erich.Moises.Uni-Sbg (2006.11.19, 21:20)

xml version of this page

made with antville