Blog zu Nutzung Interaktiver Medien |
Dienstag, 15. Juni 2004
Die Geschichte des Internetprotokolls ist eine Geschichte voller Missverständnisse…
martin.menrad.uni-linz, 19:22h
In der Lehrveranstaltung zum 3. Brachet wurde versucht mit rat und tat den verunsicherten StudentInnen zu Seite zu stehen. Hier nun eine Zusammenfassung der dort ausgeführten Ergebnisse: Wie so vieles, und ganz speziell in diesem Bereich, hat das Internetprotokoll oder kurz IP und das darauf basierende Internet seinen Ursprung in einer militärischen Entwicklung: dem ARPANET auf dem unser heutiges Internet basiert. Ein sehr ausführlicher und chronologisch geordneter Exkurs über die Entstehungsgeschichte ist für Interessierte hier nachzulesen. Dieses und weitere Netzwerksysteme wie „SPX/IPX, Apple Talk, XNS“ basieren auf dem Prinzip der Paketvermittlung. Sie „verpacken“ die Daten in kleine Pakete die von den sogenannten „Routern“ oder auch „Nodes“ genannt über den jeweils effizientesten Weg an ihr Ziel gelenkt. Die Information über das Ziel liegt im sogenannten Header den jedes einzelne dieser Datenpakete beinhaltet und die somit an keinen vorbestimmten Weg gebunden sind und die Übertragungsroute jeweils an die gegenwärtigen Anforderungen („Netzwerkstaus“, Routerausfall,…) anpassen können. Die verschiedenen Pakete aus denen die übertragen Daten somit bestehen können komplett unterschiedliche Wege durch das Internet bestreiten bevor sie am Ziel angekommen dort wieder zusammengeführt werden. Im Jahr 1983 wurde das damals noch gebräuchliche aber hilflos veraltete NCP („Network Core Protocol“) gegen das noch heute im Gebrauch befindliche und inzwischen wahrscheinlich allgemein bekannte TCP/IP („Transmission Control Protocol/Internet Protocol“) ausgetauscht und gleichzeitig der Militärische Teil des (damals noch) ARPANET, das sogenannte MILNET, „ausgelagert“. TCP sitzt im ISO/OSI („Open System Interconnect“), einem internationalen Referenzmodell für die Datenübertragung, in der vierten Schicht, der Transportschicht. Sie regelt die Übermittlung von Datenpaketen zwischen den Hosts und überprüft sie auf Vollständigkeit. IP sitzt in der dritten Schicht, der Netzwerkschicht. Sie übernimmt die Adressierung der Pakete und ihr Routing im Netz. Die gegenwärtig in Verwendung stehende Version 4 („IPv4“) stößt gegenwärtig an die Grenzen ihrer Belastbarkeit. Da das IPv4 noch 32-Bit Adressen verwendet (d.h. es stehen maximal 4.294.967.296 eindeutige Adressen zur Verfügung) und somit in Zeiten des exponentiellen Wachstums des Internet schön langsam seine Grenzen offenbart wird zukünftig wahrscheinlich auf das neue IPv6 umgestellt werden. Dieses verwendet 128-Bit Adressen und ist somit für die Zukunft mit ihren 3,4 x 1038 eindeutigen Adressen mehr als gerüstet. Durch die in letzter Zeit gestiegenen Sicherheitsanforderungen, vor allem von großen schwer überschaubaren Betrieben, ist die Verwendung von Firewalls und der damit Verbundenen NAT („Network Adress Translation“) Technologie stark gestiegen. Solche Firmen brauchen dadurch für tausende Rechner de facto nur noch eine IP Adresse pro Standort. Dies entschärft die Adressenproblematik vehement und wird das IPv4 wahrscheinlich noch lange als allgemein verwendetes Protokoll am Leben erhalten. Der gerade angesprochene Sicherheitsaspekt ist beim TCP/IP ein ganz besonders Interessanter. Da es an sich gesehen so gut wie keine eigenständigen Möglichkeiten der Sicherung bietet z.B.: vor dem Zugriff bzw. Manipulation Dritter („Portscan“, Trojanische Pferde,…). Erst durch eigene Initiative lässt sich eine relativ hohe Sicherheit der Daten herstellen. Eine Möglichkeit diese Sicherheit herbeizuführen ist eine sogenannte Firewall deren alleinige Aufgabe es ist die gesendeten und empfangenen Datenströme auf unrechtmäßige Zugriffe zu überprüfen und nicht-benutzte Ports, also den Schnittstellen zur Kommunikation mit der Außenwelt, zu sperren. Eine etwas neuere Technik den Datenaustausch sicherer zu machen ist das sogenannte „Tunneln“. Dieses „tunneling“ wir vor allem in VPN's, also „Virtuellen Privaten Netzwerken“ die praktisch für die Dauer des Datentransfers erzeugt werden und faktisch einen Tunnel im Internet bereitstellen der sehr schwer angreifbar bzw. abhörbar ist. Ich hoffe durch diesen kleinen aber feinen Einblick in die Welt des TCP/IP mit dazu beitragen helfen konnte, die anfangs erwähnten Missverständnisse und Irrtümer zu beseitigen und das Internet zu einem sicherem Platz der Kommunikation und des Gedankenaustausches für dich und mich zu machen. Pace! Quellen: Net Lexikon.de ... link (0 comments) ... comment Donnerstag, 3. Juni 2004
Verschlüsselung als Machtinstrument am Beispiel „PGP“
martin.menrad.uni-linz, 19:42h
Die Diskussion über Verschlüsselung und Verschlüsselungstechniken, ihre Möglichkeiten, Anwendungsgebiete und Gefahren ist nicht neu. In Zeiten des Terrors und insbesondere nach den Ereignissen des 11. September wiederum von brennender Aktualität. In diesem Zusammenhang möchte ich die Geschichte von „PGP“, was abgekürzt soviel wie „Pretty Good Privacy“ bedeutet, und ihre Rolle als Spielball, Machtinstrument und Waffe in den 90er Jahren beleuchten. Die Kryptographie oder Verschlüsselung als solche ist wahrscheinlich fast so alt wie die Menschheit selbst. Wir wissen, dass solche Systeme schon in den Hochkulturen Roms und der Griechen verwendet wurden und auch über ihre Bedeutung in den (Welt-) Kriegen des letzten Jahrhunderts. Vor allem in kriegerischen Konflikten hatte die Verschlüsselung von Daten den Stellenwert einer Waffe die soweit sie vom Gegner nicht „geknackt“ werden konnte für Sieg oder Niederlage von essentieller Bedeutung war. In diesem Beitrag möchte ich aber auf eine noch etwas neuere Entwicklung Namens PGP („Pretty Good Privacy“) in diesem Bereich eingehen und kurz ihre Geschichte und Auswirkung auf die Gegenwart und Zukunft beleuchten. PGP beruht auf der 1976 vom Kryptographen Whitfield Diffie und dem Ingenieur Martin Hellman entwickelten „public key cryptography“ Verfahren auf das wir schon im Kurs näher eingegangen sind. Für Interessierte ist hier eine kurze Einführung dazu. Der Schöpfer dieses Verschlüsselungssystems ist der Amerikaner Phil R. Zimmermann. 1991 erdacht und entwickelt verbreitete sich, das auch den RSA Verschlüsselungsalgorithmus implementiert, auf Messageboards in den Vereinigten Staaten sehr schnell. Diese Distribution war aber durch den Gesetzeserlass 266 schon zu dieser Zeit illegal weil es für jedes Verschlüsselungssystem eine sogenannte „Hintertür“ verlangt die jederzeit durch Regierungsinstitutionen „geöffnet“ und somit die Verschlüsselung ausgehebelt werden kann. Nichtsdestotrotz fand PGP schiesslich seinen Weg über das Internet und weiter Kanäle in andere Länder außerhalb der USA und wurde weltweit genutzt. Dies hatte vor allem für den Entwickler Zimmermann ungeahnte Konsequenzen da er somit zur Zielscheibe der nationalen Geheimdienste wurde und sich außerdem mit Patentverletzungsklagen der RSA Entwickler konfrontiert sah. Durch die rasende und durch das dezentrale Internet unmöglich zu kontrollierende Verbreitung und auch Beilegung des Rechtsstreites um den RSA Algorithmus ist der heutige Status der, dass PGP quasi ohne Konsequenzen befürchten zu müssen eingesetzt werden kann. Diese Entwicklung ist einerseits zu Begrüssen weil ja ein so kraftvolles Instrument nun praktisch der gesamten Menschheit zur Verfügung steht und eine ganz neue Form der Freiheit und Sicherheit bewerkstelligen kann. Andererseits ist es in den falschen Händen in gleichem Maße Freiheits- und Sicherheitsabbauend bzw. –gefährden. Wie sich das Verschlüsseln in Zukunft durch die Entwicklung von Quantencomputern und demnach auch Quanten Kryptographie ist derzeit nur zu erahnen. Wie so vieles in der Welt hängt der Nutzen für die Menschheit zum großen Teil „guten Willen“ derer die sie einsetzen werden ab. Hoffen wir auf das Beste! Quellen: PGP Timeline Phil Zimmerman's Homepage Zum Thema: The International PGP Home Page Weitere Aspekte in den Artikeln von Harald Greinstetter und Elmar Huber @ ::collabor:: ... link (0 comments) ... comment Dienstag, 4. Mai 2004
Weblogs - Chance oder Gefahr für die Zukunft des Journalismus?
martin.menrad.uni-linz, 11:03h
Im Kurs "Nutzung Interaktiver Medien" in dessen Zuge ich dieses Weblog führen muss/darf ist im Zuge des Gastvortrages des "Schockwellenreiters" stellte sich uns auch die Frage was dieses "publizieren für jedermann" für die Zukunft und vor allem Glaubwürdigkeit des Journalismus bedeutet. Ein hoch spannendes und sehr aktuelles Beispiel wie "Blogs" den traditionellen Formen der Nachrichtenverbreitung den Rang ablaufen konnte gut im Zuge des Irak Krieges beobachtet werden. Während auf den üblichen Kanälen wie CNN, Sky News aber auch renommierten Quellen wie der BBC zum großen Teil nur die "zensierten" und vom US Militär freigegeben Informationen verbreitet wurden sorgte erstmals ein "Blogger" für weltweites Aufsehen. Unter dem Pseudonym Salam Pax gelang es einem der wenigen Iraker mit einem funktionierenden Internetanschluss eine etwas andere Version der Kriegsgeschehnisse ohne jedwede Zensur and die Weltöffentlichkeit zu bringen. Hier zeigte sich erstmals das Potenzial dieses neuen Instrumentes zur Informationsverbreitung. Trotzdem lässt sich an diesem Beispiel auch die potentielle Gefahr die aus diesem "unkontrollierten publizieren" hervorgeht erkennen. Da praktisch jeder Mensch so zum Journalisten wird sich aber nicht unbedingt den strengen Regeln des journalistischen Publizierens unterwerfen muss besteht das Risiko subjektiv gefärbte, unrecherchierte Informationen aus nicht hinterfragten Quellen als Fakten und demnach als Wahrheit zu übernehmen und zu verbreiten.
Meiner persönlichen Meinung nach steckt ohne Frage viel Gutes in der Möglichkeit für alle Menschen sich des Internet als Medium zur Informationsverbreitung zu bedienen. Trotzdem ist gerade in Zeiten der Informationsmanipulation auf breiter Basis somit ein neues "Fenster der Täuschung" offen das nur darauf wartet missbraucht zu werden. Leider haben merkwürdigerweise Informationen aus dem Internet mehr noch als solche aus den traditionellen Quellen wie TV, Zeitung, etc. den Ruf auf jeden Fall authentisch und wahr zu sein. Hier wird noch öfters unreflektiert und ohne zu hinterfragen das gelesene als Wahrheit übernommen. Das dies eine bedenkliche Entwicklung ist in einer Zeit in der die Information ein bedeutendes und wertvolles Gut darstellt ist wohl klar ersichtlich. Wohin genau dieser Trend zu "Journalismus für Jedermann" hinführt ist für mich schwer vorherzusagen. Die Zukunft wird uns hautnah vor Augen führen wie wir diese neuerworbene "Freiheit" verwenden, ob und wie wir sie für das "Gute" verwenden und wie und auf welche Arten wir sie Missbrauchen werden... --- Weiters möchte ich hier an das Weblog des Kollegen Harald Greinstetter verweisen der sich auch mit diesem Thema auseinandersetzt. ... link (1 comment) ... comment |
Online for 7508 days
Last update: 2004.06.15, 19:22 status
You're not logged in ... login
menu
search
calendar
recent updates
Die Geschichte des Internetprotokolls...
In der Lehrveranstaltung zum 3. Brachet wurde versucht... by martin.menrad.uni-linz (2004.06.15, 19:22) Verschlüsselung...
Die Diskussion über Verschlüsselung und... by martin.menrad.uni-linz (2004.06.03, 19:51) Zukunft des Journalismus
Das stimmt, daß diese neue Medium ein großes... by harald.greinstetter.uni-linz (2004.06.03, 07:47) Weblogs - Chance oder...
Im Kurs "Nutzung Interaktiver Medien" in dessen Zuge... by martin.menrad.uni-linz (2004.06.01, 21:10) |