Grimmelikhuijsen zeigt in seinem Artikel auf, dass die erhöhte Transparenz der Verwaltung und der Tätigkeiten einer Regierung nicht immer nur positive Auswirkungen haben. Mit Hilfe der verfügbaren it-basierten Kommunikationstechnologien lässt sich Transparenz einfacher leben und durchführen, führt aber oft auch zu einer Überlast an Informationen bzw. zu genau dem gegenteiligen Effekt den man eigentlich erreichen will.
Transparenz wird im öffentlichen Bereich als Allheilmittel gesehen, um das gesunkene Vertrauen der Gesellschaft zu erhöhen, Korruption aufzudecken und ein nachvollziehbare Verwaltung zu erschaffen. Dabei werden folgende drei Vorteile herausgehoben – welche im Zuge des Artikels vom Autor widerlegt werden:
Transparenz wird geschaffen indem Informationen offen dargelegt werden. Diese Veröffentlichung bringt aber nicht nur positive Effekte, denn nicht alle Informationen sind auch für die Öffentlichkeit bestimmt bzw. nützlich, zB. Informationen die die öffentliche Sicherheit gefährden oder die Privatsphäre des Einzelnen.
Zudem besteht die Gefahr, dass die Bürger Probleme bei der Interpretation und dem Verständnis von veröffentlichten Informationen haben. In diesem Zusammenhang sieht der Autor das Problem der Informationsweitergabe durch die Medien. Medien berichten meist nur über die spannendsten und leider oft negativsten Entwicklungen. In diesem Fall würde die Transparenz zu falschen Annahmen und Falsch-Interpretation bei den Bürgern führen.
Ein weiterer Aspekt ist das Problem von ungewollter Veröffentlichung von Informationen. Nicht alle Entscheidungen in der Politik wurden rational getroffen – die Veröffentlichung der Ergebnisse kann somit zu einer Verunsicherung führen.
Der Anforderung nach Transparenz im öffentlichen Bereich wurde bisher durch öffentliche Sitzungen und gewährleistet. Die technologischen Entwicklungen im IT-Bereich schaffen nun neue Möglichkeiten an Transparenz. Die verfügbaren Daten können auf einfache Weise verarbeitet und ausgewertet werden. In diesem Zusammenhang wird oft auch der Begriff der New Public Management (öffentliche Verwaltungsreform) genannt, mit dem Ziel die öffentliche Verwaltung mehr wie ein privates Unternehmen zu führen. Diese soll durch die Bekanntgabe von Leistungsindikatoren und Kennzahlen erreicht werden, um öffentliche Güter messbarer zu machen.
Ein oft nicht beachtetes Problem mit der technologischen Entwicklung des Internets ist die Überlastung der Bürger mit Informationen bzw. auch an Überflutung mit Fehlinformationen. Diese Fehlinformationen führen wiederum zu weniger Vertrauen in den öffentlichen Bereich.
Wie im Fall von WikiLeaks führen it-basierte Kommunikationstechnologien auch zur Bekanntgabe von ungewollten Daten. Die Veröffentlichung tausender von geheimen Regierungsdokumenten führte zur allgemeinen Verunsicherung der Bevölkerung und dadurch sank auch das Vertrauen in die Regierung.
Transparenz führt zu vermehrter Information der Bürger und soll diese mehr an den Geschehnissen der öffentlichen Bereiche teilhaben lassen. Meist werden öffentliche Entscheidungen aber nicht rational getroffen, da nicht alle benötigten Informationen zur Verfügung stehen bzw. politische Hintergründe eine rationale Entscheidung verhindern. Transparenz würde dabei zur Veröffentlichung dieser Tatsachen und gleichzeitig zu weniger Vertrauen der Öffentlichkeit in die Entscheidungsprozesse.
Ein weiterer Aspekt sind die gestiegenen Erwartungen und Anforderungen der Bevölkerung durch die technologischen Mittel Informationen zu erhalten und zu veröffentlichen. Ein ewiger Teufelskreis denn durch die Bereitstellung der geforderten Daten besteht die Gefahr Missinformationen und Misstände aufzudecken bzw. zu verbreitern.
Zusätzliche können durch die gestiegen Transparenz auch unerwartete ökonomische und soziale Nebeneffekte entstehen. So werden durch die Veröffentlichung von Daten einzelner Stadtgebiete zu Kriminalitätsraten und öffentlichen Einrichtungen, wie etwa Schulen, zu vermehrter Abwanderung oder Zuwanderung von Bewohnern führen.
Die gerade dargestellten Auswirkungen zeigen die Grenzen der Transparenz auf. Wobei festzuhalten ist, dass durch die Entwicklung der it-basierten Technologien Entscheidungen der Regierung und in der öffentlichen Verwaltung kaum mehr unbeobachtet gefällt werden können bzw. unbeachtet bleiben. Gerade der Fall WikiLeaks zeigt auch, dass die Veröffentlichung von Daten zu enormen Schäden führen kann (durch zB. die Bekanntgabe von Namen einiger Geheimagenten). In diesem Sinne – Transparenz ist immer ein erstrebenswertes Ziel aber nicht um jeden Preis.
Viele Regierungen nehmen dieses Thema bereits sehr ernst und schaffen mehr Offenheit. Um die veröffentlichten Informationen in gewisser Weise zu kontrollieren und auch sensible Daten zu schützen ist es unbedingt notwendig gewisse Kontrollmechanismen anzuwenden. Wobei je größer die Auswirkung und das Ausmaß öffentlicher Entscheidungen sind desto unwahrscheinlicher ist es, dass die Informationen geheim gehalten werden können.
Die eben dargestellten Grenzen und Probleme von öffentlicher Transparenz sollen nicht dazu führen Informationen weiterhin geheim zu halten und die Bürger nicht einzubinden sondern zur Bewusstseinsschaffung. Es ist auf jeden Fall wichtig die öffentlichen Entscheidungen mitzutragen und darüber informiert zu werden bzw. Mißstände dadurch aufzudecken. Werden die genannten Faktoren beachten so können Fehler und Missinterpretationen vermieden werden.
Grimmelikhuijsen, S. (2012). A good man but a bad wizard. About the limits and future of transparency of democratic governments. In: Information Polity, 17(3-4), S. 293-302.
Die durch das Internet gesteigerte Transparenz am Markt und die einfache Möglichkeit der Informationsbeschaffung für Endkunden erhöht die Anforderungen an Unternehmen auch transparent zu sein und ihre Prozesse offen zu legen.
Die Auswirkungen die Unternehmen auf die Umwelt und die Gesellschaft haben werden dadurch immer offensichtlicher bzw. auch wesentlich leichter zu messen– egal ob in positivem als negativem Sinne. Unternehmen müssen daher ihre Strategie und Führungsprinzipien überdenken und auf die neue Anforderung der Kunden und Gesellschaft nach Transparenz ausrichten.
Die Autoren sprechen in diesem Zusammenhang von der Berücksichtigung externer Effekte (sogenannte externalities). Genauer gesagt sind dies Auswirkungen eines Unternehmens auf deren Umwelt bzw. Umgebung. Wobei das Unternehmen dafür nicht aufkommen muss oder nicht verpflichtet ist deren Resultat in betriebliche Entscheidungen einzubeziehen (Bsp. Fabrik – umliegende Missernten).
Die Internalisierung externer Effekte wird von den Autoren als Ziel und notwendiges Verhalten gesehen, um eine führende Rolle in der Gesellschaft zu vertreten. Solange Unternehmen Auswirkungen auf Dritte haben ist es auch wichtig diese Auswirkungen in Entscheidungen mit einzubeziehen (auch wenn sie nicht gesetzlich vorgeschrieben sind).
Folgende Faktoren sind ausschlaggebend für die von den Autoren als notwendig gesehenen Veränderungen im Unternehmen:
Ausmaß – Viele der von Unternehmen verursachten Effekte sind so bedeutsam geworden, dass sie nicht mehr unbeachtet werden können. Das rasche Wachstum in den Schwellenländern verstärkt diesen Effekt noch. So haben oft kleine Entscheidungen multinationaler Unternehmen große Auswirkungen auf die Umwelt (Bsp. UPS – statt Aufkleber wurde ein Stempel erfunden).
Sensoren – Technische Messverfahren ermöglichen den Vergleich von externen Effekten. Zudem werden immer mehr Daten gespeichert, aufgezeichnet und festgehalten – unter anderem auch das menschliche Verhalten. Ermöglicht und vereinfacht wird dies durch das Medium Internet. Der Zugang zu diesen Informationen gestattet es Rückschlüsse auf ein gewisses Verhalten zu ziehen (Bsp. Google – Grippeepidemie). Dadurch hat die Gesellschaft viel einfacher die Möglichkeit externe Effekte von Unternehmen zu finden, zu bewerten und darauf basierend zu handeln.
Gefühle – Die unmittelbare Kommunikation, die durch das Internet und auch Fernsehen etc. erschaffen wurde, erhöht die globale Verbundenheit und Verantwortung der Gesellschaft. Dies führt auch dazu, dass gefühlslose oder umweltschädigende Aktivitäten eines Unternehmens viel leichter Aufmerksamkeit erregen als noch vor 30 Jahren (Bsp. Fair Trade Kaffee).
Diese drei Bereiche sind die Hauptgründe für die notwendige Veränderung bei Unternehmensentscheidungen im Zeitalter der Transparenz. Denn wenn Messtechniken sich verbessern und der Zugang zu diesen Messungen erleichtert wird, agieren Menschen viel schneller auf Probleme oder Mißstände auf Basis dieser Informationen und deren gestiegenen Sensibilität zum Thema.
Diese notwendige Entwicklung der Unternehmen wird auch als soziale Verantwortung bezeichnet. Von verantwortungsbewussten Unternehmen wird daher die ständige Internalisierung externer Effekte verlangt – der Druck der Gesellschaft wird dabei immer höher.
Ebenso hat sich mein Kollege Hr. Leithinger auf seinem Blog mit dem Thema "Corporate Social Responsibility" auseinander gesetzt. In seiner Studie werden die 10 wichtigsten Themen, die unter diesen Begriff fallen aufgezeigt.
Um sich den richtigen und bedeutendsten externen Effekten als Unternehmen anzunehmen, verwenden die Autoren ein Modell mit vier konzentrischen Kreisen. Der innerste Kreis steht für die direkt dem Unternehmen zuschreibbaren Probleme und der äußerste Kreis für entferntere Probleme. Je nach Problem und zugeordnetem Kreis, sind vom Unternehmen folgende Aktivitäten zu setzen:
Meyer, C. & Kirby, J. (2010). Leadership in the Age of Transparency. In: Harvard Business Review, 88(4), S. S. 38-46.
Die Autoren diskutieren in diesem Artikel den Zusammenhang von elektronische Marktplätze, deren Fähigkeit die Preistransparenz zu erhöhen, den daraus resultierenden niedrigeren Preisen für Konsumenten, sowie deren Erfolgsauswirkungen. Wider aller Erwartung sind elektronische Marktplätze mit hoher Preistransparenz und niedrigen Preisen nicht am erfolgreichsten.
Elektronische Marktplätze sind unabhängige, IT-fähige Intermediäre welche Käufer und Verkäufer an einem Ort zusammenbringen.
Das Konzept der Preistransparenz wird beschrieben als das Ausmaß indem Marktteilnehmer die vorherrschenden Preise und Charakteristika bzw. Attribute eines Produktes/Serviceleistung kennen. Ist der Aufwand für die Informationssuche gleich 0, dh Käufer haben alle notwendigen Preisinformationen um eine angemessene Entscheidung zu treffen, so spricht man von vollkommener Preistransparenz.
Theoretiker argumentieren, dass für spezielle Produkte (zB leicht zu beschreibende Produkte) und spezielle Marktstrukturen (zB viele Käufer und Verkäufer) elektronische Marktplätze zu erhöhter Preistransparenz und dadurch zu mehr Markteffizienz und niedrigeren Preisen führen.
Um eine gewisse Preistransparenz erreichen zu können müssen elektronische Marktplätze zwei Voraussetzungen erfüllen – einerseits IT-basierte Mechanismen anwenden und andererseits erfolgreich sein (sprich Käufer und Verkäufer müssen den elektronischen Marktplatz nutzen). Käufer werden nur teilnehmen, wenn hohe Preistransparenz vorliegt, Verkäufer auf der anderen Seite wollen höhere Preise erzielen und vermeiden daher elektronische Marktplätze. Diese zwei gegenseitigen Ansprüche und dem Ziel des elektronischen Anbieters beide zufrieden zu stellen führen zu einer sogenannten „catch-22“ Situation. Hohe Preistransparenz ist nicht im Interesse von Verkäufern, niedrige Preistransparenz wiederum ist nicht im Interesse von Käufern.
Aufgrund dieser speziellen Situation ist die strategische Ausrichtung eines elektronischen Marktplatzes einer der wichtigsten Faktor um erfolgreich zu sein. Hier unterscheiden die Autoren einerseits zwischen der Niedrigpreis-Strategie, mit dem Ziel niedrige Preise mit hoher Preistransparenz zu erreichen. Auf der anderen Seite steht die Differenzierungs-Strategie, die zum Ziel hat Kundenloyalität mittels einzigartiger Produkte zu erreichen (dies kann entweder mit hoher oder niedriger Preistransparenz angestrebt werden).
Um den Käufer bei niedriger Preistransparenz bzw. den Verkäufer bei hoher Preistransparenz dennoch zufrieden zu stellen, ist ein Ausgleich oder Anreiz zur Nutzung des Marktplatzes zur Verfügung zu stellen. Mit Hilfe it-gestützter Systeme haben elektronische Marktplätze viele Möglichkeiten solche unterschiedliche Anreize für Käufer und Verkäufer zu schaffen (zB erweiterte Produktinformationen bereitstellen, Online Auktionen etc.). Die Einbindung dieser IT-Tools ist jedoch auch kostspielig und daher meist nicht im Sinne von Marktplätzen die auf geringe Kosten abzielen.
Anhand der dargestellten Situation stellen die Autoren daher folgende Thesen auf:
These 1 - Strategie und Preistransparenz: Elektronische Marktplätze die eine Niedrigpreis-Strategie verfolgen, erreichen eher eine hohe Preistransparenz als elektronische Marktplätze, die eine Differenzierungs-Strategie verfolgen.
These 2 – Strategie und Performance: Elektronische Marktplätze die eine Differenzierungs-Strategie anstreben, erbringen eine bessere Leistung als elektronische Marktplätze mit einer Niedrigpreis-Strategie.
Anhand der Analyse von 19 elektronischen Marktplätzen, die am Markt für Elektrokomponenten tätig sind, wurden die gestellten Thesen anhand folgender Faktoren analysiert: Performance (analysiert anhand folgender Ausprägung - Dynamik, Lebensdauer und Ruf), die Fähigkeit die Preistransparenz zu erhöhen und die verfolgte Strategie.
Anhand der Auswertung der Daten konnte folgende Schlüsse gezogen werden:
These 1 wurde bestätigt - alle analysierten elektronischen Marktplätze mit einer Niedrigpreis-Strategie bieten hohe Preistransparenz an, aber nur drei der acht Marktplätze mit einer Differenzierungs-Strategie.
These 2 wurde bestätigt - die leistungsstärksten elektronischen Marktplätze verfolgen die Differenzierungs-Strategie. Kein Marktplatz mit der Niedrigpreis-Strategie konnten so eine gute Performance vorweisen. Die Autoren weisen jedoch auf daraufhin, dass neben der gewählten Strategie noch viele andere Faktoren für den Erfolg eines Unternehmens wichtig sind.
Auf Basis der Ergebnisse diskutieren die Autoren noch folgende Punkte:
Um eine erfolgreiche Plattformerreichen zu können ist es wichtig Käufer und Verkäufer zufrieden zu stellen, mittels der Niedrigpreis-Strategie ist dies nur schwer möglich – die Kompensation für Verkäufer aufgrund der hohen Preistransparenz kann nur mit großen Aufwand und Kosten erreicht werden, was der Niedrigpreis-Strategie entgegenspricht. Weiters belegen Studien, dass Verkäufer, Plattformen mit umfangreichen Produktinformationen statt Preisinformationen bevorzugen. Diese Faktoren sprechen gegen Marktplätze mit hoher Preistransparenz.
Interessant ist auch, dass unter den erfolgreichsten Marktplätzen (alle verfolgen die Differenzierungsstrategie) lt. Studie einmal auf hohe und einmal auf niedrige Preistransparenz gesetzt wird. Zwei Beispiele dazu wurden im Artikel angeführt - interessant dabei die Art und Weise wie eine sogennante die Nachteile für entweder Käufer oder Verkäufer kompensiert wruden.
Soh, C., Markus, M.L. & Goh, H.K. (2006). Electronic Marketplaces and Price Transparency: Strategy, Information Technology, and Success. In: MIS Quarterly, 30(3), S. 705-723.
Shroff und Fordham zeigen in ihrem Artikel auf, wie wichtig digitale Informationen (meist persönliche Informationen) für Unternehmen und staatliche Behörden sind. Unumgänglich für die Preisgabe dieser Daten sind deren Schutz sowie das Vertrauen der teilnehmenden Personen. Die Überwindung die eigene Identität online jemanden bekannt zu geben steht oft in Diskussion.
Die eigene Identität wird über Jahre hinweg selbst definiert und beeinflusst durch soziale, kulturelle und politische Einflüsse. Und Identität ist formbar, dh. verändert sich im Laufe der Zeit - nicht die Augenfarbe oder das Geschlecht, aber persönliche Eigenschaften können sich verändern. Die eigene Identität kann aus unterschiedlichen Blickwinkeln betrachtet werden – aus Sicht des angestellten von Unternehmen X, oder aus Sicht des liebevollen Ehepartners etc. Diese Ansichten sind oft entscheidend für Daten die man gefragt wird bzw. wieviel man über sich selbst preisgibt (zB. per Mail, per Telefon oder auf Facebook). Auf der anderen Seite ist auch wichtig wieviel man über den Gefragten weiß – ist es ein Kollege, eine öffentliche Einrichtung oder ein Nachbar – und ihm dann erzählt. Die Authentifikation dieser persönlichen Identität wird aufgrund einiger oder vieler der oben genannten Elemente bestimmt.
Die Identität sagt aus wer wir sind und durch was wir uns definieren. Identität ist persönlich und öffentlich gültig, bzw. verbindet unsere Vergangenheit und Zukunft – und daher so wichtig und auch schützenswürdig für uns.
Die Autorinnen definieren einige Ziele von Identitäts-Management wie folgt:
- um Verpflichtungen durchzusetzen
- rechtmäßige Qualifikationen festzulegen
- den Schuldigen/Straftäter zu markieren
Ziele die gleichzeitig Kontrolle ermöglichen. Um Gerechtigkeit zu erreichen ist oft die Identifikation einer Person notwendig (durch zB DNA) – diese Identifikation wird mit Hilfe von neuen Technologien festgestellt. Fehler bei der Verwendung dieser Messinstrumente sind aber nicht auszuschließen.
Technologie kann aber auch Identität „kreieren“ – wie die Sozialen Netzwerke zeigen. Alles was wir online unternehmen, hinterlässt einen digitalen Schatten und bleibt immer bestehen. Diese persönlichen Informationen haben einen immer höheren kommerziellen Wert, für Unternehmen als auch öffentliche Einrichtungen. Informationen werden immer mehr zu einer handelbaren Ware.
Aufgrund des neuen Stellenwertes von Informationen ist es wichtig diese zu schützen bzw. auch zu kontrollieren – aber durch wen? Wollen wir dies überhaupt? Identitäts-Management wird in diesem Zusammenhang immer öfter erwähnt und ist sowohl mit seinen Vor- als auch Nachteilen zu betrachten. Sollen Identitäten von öffentlichen oder privaten Unternehmen gehandelt werden? Fakt ist, dass es aktuell keine Regelungen etc gibt wie mit digitalen Daten umgegangen werden soll. Aufgrund der laufenden Weiterentwicklung des Webs sind Standards zu definieren. Zusehen und nichts tun wird nicht weiterhelfen – es muss ein Weg gefunden werden der unsere Identitäten respektiert, anerkennt und unterstützt, egal wie wir diese im Laufe der Zeit formen.
Shroff, M. & Fordham, A. (2010). “Do you know who I am?” Exploring identity and privacy. In: Information Polity, 15(4), S. 299-307.
Kruse (2008) stellt in seinem Artikel dar, warum die Internet-Überlastung mit der Netzneutralität zusammenhängt und wie das Problem mit Hilfe von Service-Qualitäten gelöst werden kann.
Die Menge an Daten die im Internet „umhergeschickt“ werden steigt jährlich an, was zu einer Überlastung der IP-Infrastruktur führen wird bzw. bereits tut. Diese Überlastung wiederum beeinflusst die Datenqualität die beim Endkunden angeliefert wird.
Je nach aufgerufenem Service kann eine Überlastung keinen Einfluss auf das Endergebnis haben (z.B. bei E-Mails, Downloads etc = geringwertige Services), oder es entstehen erhebliche Datenverluste bzw. unkorrekte Zusammenhänge (z.B. Internet-Telefonie oder Online-Spiele = hochwertige Services). Die Wichtigkeit eines Services wird auch über die Bereitschaft für die Übertragung eines Datenpaketes zu bezahlen generiert.
Laut Kruse (2008) ist das Problem der Überlastung auf zwei Faktoren zurückzuführen:
- Flatrates (Kunden können ohne Limitierung Daten abrufen, egal ob es sich um hochwertige oder geringwertige Services handelt) und
- Netzneutralität (alle Services und deren Daten werden gleich behandelt)
Die Netzneutralität lässt in ihrer Definition nicht zu, Datenpakete nach ihren Bestandteilen bzw. Merkmalen (lt. Kruse - Datenrate, Qualitätssensitivität oder wirtschaftlichen Wert) zu differenzieren. Würde man dieser These folgen, könnten keine Verbesserungen geschaffen werden.
Auf Basis der aktuellen Situation hat Kruse (2008) folgende Lösungsansätze ausgearbeitet:
Overprovisioning
Behebung der Belastungsprobleme durch Generierung von Überkapazitäten bei der Übertragung. Problem hierbei sind die benötigten hohen Reservekapazitäten und Investitionsaufwände. Negativer Zusatzeffekt – je mehr Bandbreite verfügbar ist desto mehr wird im Zeitverlauf auch benötigt.
Separate Netze
Der Aufbau eigener Netze für qualitätssensitive Daten würde zulassen, diese entsprechend zu bepreisen. Zwei separate Netze würden jedoch die Kosten für die Erhaltung zweier Infrastrukturen herbeiführen und eine 2-Klassen Internet Infrastruktur erschaffen.
Volumentarife
Ersatz der Flat-Rate durch volumenbasierte Tarife. Die Festlegung eines einheitlichen Preises ist jedoch aufgrund der Lastschwankungen schwer schätzbar. Zu geringe Preise würde keine Verbesserung bringen, zu hohe Preise den Service nicht attraktiv machen.
Priority Pricing / Quality of Service
Aufgrund der unterschiedlichen Qualitätsmerkmale der Services kann bei diesem Ansatz das Problem durch passende Priorisierung bei Überlastung gelöst werden. Der Kunde sollte dabei die Wahl bekommen, welche Services er priorisieren will –dafür muss er aber auch bezahlen. Ein Quality-of-Service-System mit den unterschiedlichen Qualitätsklassen und fixen Preisen wird hier entstehen. Kritisch zu sehen ist hierbei die Verrechnung der Preise zwischen Diensteanbietern.
Kruse, J. (2008). Internet-Überlast, Netzneutralität und Service-Qualität. In: Wirtschaftsdienst, 88(3), S. 188-194.
Man ärgert sich schnell, wenn Homepageseiten lange Ladezeiten haben oder wenn während eines Skype Gespräches die Verbindung zusammenbricht. Dass dies aufgrund einer Internet-Überlastung auftreten kann war mir neu. Daher, und weil gerade in wirtschaftlich schlechten Zeiten besonders interessant ist, wo man noch Geld erwirtschaften kann (in diesem Fall in dem man hochwertige Services bepreist bzw mehr dafür bezahlt), habe ich diesen Artikel ausgewählt.
Aus technischer Sicht betrachtet der Artikel den Umgang mit der Netz-Überlastung und welche Maßnahmen man treffen kann um dem gegenzuwirken.
Dezember 2024 |
||||||
Mo |
Di |
Mi |
Do |
Fr |
Sa |
So |
1 |
||||||
2 |
3 |
4 |
5 |
6 |
7 |
8 |
9 |
10 |
11 |
12 |
13 |
14 |
15 |
16 |
17 |
18 |
19 |
20 |
21 |
22 |
23 |
24 |
25 |
26 |
27 |
28 |
29 |
30 |
31 |
|||||