Medienberichte über US-Sicherheitsprogramm



VS2015 Remote Debugging JavaScript – Part 2


VS2015 Remote Debugging JavaScript Hosted in Web Browser Control

Earlier we talked about how to debug JavaScript remotely from Internet Explorer process. This one does not differ at all from it. All you need to do is select different target process. If you haven't read the post, then here is the link.

https://blogs.msdn.com/b/prakashpatel/archive/2015/10/23/vs2015-remote-debugging-javascript.aspx

I'll start from the step that assumes that all the configuration is taken care of. If you run into any issues, then you may want to read the FAQ section in the previous blog.

Sample HTML Page

Here is a sample HTML page that I'm using for debugging – it is very basic. I have saved it as TestLeak.html.

<!DOCTYPE html>

<html>

<head>

<style>

body.segoe {

font-family: "Segoe UI", Verdana, serif;

}

</style>

<script type="text/javascript">

function throwError() {

document.getElementById("LeakedDiv").appendChild("<p>It worked!</p>"); // Misspelled LeakedDiv (L is upper case)

}

</script>

</head>

<body class="segoe" id="leakedDiv">

<div>

<input id="btnThrowError" type="button" value="Throw an error" onclick="throwError()" />

</div>

</body>

</html>

 

Sample WinForms Application Hosting Web Browser Control

  1. Start Visual Studio

  2. To create a sample WinForms application

    1. From Start Screen: Click on New Project… or
    2. From Menu: File à New… à New Project… or
    3. Keyboard Shortcut: Control + Shift + N
  3. I'm choosing TestApp as name but you can choose any other name. You may specify additional configuration if desired. Click on OK to continue.

  4. Create a simple form with 2 button, 1 textbox and a WebBrowserControl on the form as shown. Rename them as shown below. You can also drop status bar on the form if you like.

  5. Add following line of code to the event handlers for Refresh and OK button. You can double click on the buttons to add event handlers

private void button1_Click(object sender, EventArgs e)

{

if (!String.IsNullOrWhiteSpace(textBox1.Text))

webBrowser1.Navigate(textBox1.Text);

}

 

private void button2_Click(object sender, EventArgs e)

{

webBrowser1.Refresh(WebBrowserRefreshOption.Completely);

}

  1. Now compile and copy the binary (TestApp.exe) to the target machine.

 

Connecting VS2015 to VS2015 Remote Debugger on Target Machine

  1. Start Sample WebBrowser application on the target machine where you just now installed VS2015 Remote Debugger.

  2. On VS2015 Machine, open VS2015. Click on Debug ? Attach to Process…

      

  3. On the Attach to Process window, specify target machine name in the Qualifier textbox. Or click on Find… button to find the machine in the domain. I'm connecting to my test machine named ContosoDev2.

       

  4. By default, the list will not be refreshed so click on Refresh button to see the list of running processes. You may want to select Show processes from all users if you need to debug process launched by another user.

    Note:

  • If you configured Remote Debugger to run under LocalSystem account (or accepted default settings) then, you'll have to select Show processes from all users option to view your processes. As it will only list processes running under SYSTEM account in all sessions.
  • The Qualifier may change from ContosoDev2 to Contosodev2:4020.
  • Make sure you select Script code as debugging option or Attach to as shown in the screenshot.  
  1. Select the target process and click on Attach button. Make sure Script is displayed next to the target process. By default Script and Managed code debugging will be selected by VS2015.

  2. Visual Studio warns you against potential security compromise that may happen when you attach to a remote process. If you know the target process and site it has navigated to click on Attach to continue.

       

  3. After the connection is successful, you should see TestLeak.html page in the VS2015 Solution Explorer.

         

       

  4. Now, click on Throw an error button.

  5. It should break in the debugger.

 

The goal here is to make you familiar with the tool feature. Hope you find it useful.

Sample Source Code and Project

You may want to rename TestLeak.html.txt to TestLeak.html

TespApp.zip

TestLeak.html


VS2015 Remote Debugging JavaScript – Resources


Some of the resource I have found useful in the past. I'll keep updating the list as and when I find good article. Please feel free to send me your list too!

  1. What's New in F12 for "Project Spartan" by Andy

  2. F12 developer tools MSDN article

    1. Inspect running JavaScript with the Debugger
    2. Diagnosing memory problems in your webpages
  3. If you are a debugging guru and you like to deal with bit and bytes then you may find following blog useful. Starting with Windows 8, you can identify JavaScript function or line of code that was executing when the dump was captured.

    Finally... JavaScript source line info in a dump

  4. You can also use standalone tools like PerfView (no installation required) to identify offending JavaScript code.

    PerfView does JavaScript investigations too

  5. DebugDiag is another tool you may want to become familiar with. It allows you to automate some of the debugging work so you can spend more time designing and developing applications.

    1. Debug Diagnostic Tool – Blog
    2. The DebugDiag 2.0 Team

Note: You may blogs published by my colleagues and me at PFE – Developer Notes for The Field.


2. Microsoft Polizeisymposium in Berlin - Mobile Policing: Neue Technologien und Geräte für die mobile Polizeiarbeit


Ein Großteil der Polizeiarbeit findet naturgemäß außerhalb von Dienststellen und abseits vom Schreibtisch statt. Hier ist entscheidend, die Mitarbeiter im mobilen Einsatz mit effizienten, zuverlässigen und sicheren Technologien sowie mit geeigneten Geräten zu unterstützen.

Ich lade Sie deshalb herzlich zu unserem Symposium zum Thema „Mobile Policing" am 27. November 2013 bei Microsoft in Berlin ein.

Machen Sie sich im Rahmen des Polizeisymposium Berlin 2013 selbst ein Bild von der Leistungsfähigkeit und Zuverlässigkeit der neuesten Technologien und Geräte. Microsoft und seine Partner bieten Ihnen dabei einen umfassenden Einblick in die Thematik, von der App-Entwicklung, dem Aufbau von sicheren Infrastrukturen, der Berücksichtigung des Datenschutzes, der Vorbeugung von Missbrauch und der Beweiswerterhaltung bis hin zum Einsatz von Tablets-PCs. Ergänzend präsentieren wir Ihnen eine Auswahl von Windows Phone und Tablet-PCs, inklusive ruggedized Geräten und natürlich stellen wir Ihnen auch die Microsoft Surface Familie vor.

 

Ihre Agenda

Uhrzeit

Programm

9.30 Uhr 

Registrierung, Frühstück und Führung durch die Räumlichkeiten von Microsoft Berlin und The Digital Eatery, Café und Showroom

Hier können Sie selbst Hardware, Software & Services erleben und ausprobieren

10.00 Uhr 

Begrüßung

Thomas Lipp, Senior Business Development Manager, Microsoft Deutschland GmbH

10.10 Uhr 

Überblick über Mobile Policing

Thomas Lipp, Senior Business Development Manager, Microsoft Deutschland GmbH

10.30 Uhr 

Von der Idee zur App und deren Entwicklung mit dem XD-Studio

Rene Rösel, Solution Sales Professional, Microsoft Deutschland GmbH Karsten Lutter, Director, Avanade Deutschland GmbH

10.50 Uhr 

Ordnungswidrigkeiten-App für Windows Phone und Surface

Karsten Lutter, Director, Avanade Deutschland GmbH

11.10 Uhr 

Aufbau einer sicheren Infrastruktur für Mobile Policing

Markus Kobe, Senior Technologieberater, Microsoft Deutschland GmbH Thomas Kuklowski, Senior Technologieberater, Microsoft Deutschland GmbH

11.30 Uhr

Mobile und sichere Datenabfragen inkl. hochauflösender Fotos

Alex Becker, Managing Consultant, Alegri International Service GmbH

11.50 Uhr

Mobilität mit Surface und Windows Tablets

Gregor Kolk, Surface Produktmanager, Microsoft Deutschland GmbH

12.10 Uhr

Ruggedized Tablet-PCs für den polizeilichen Einsatz

Dónal Ó Donnabháin, Senior Manager Sales, Intel Mobile Communications

12.30 Uhr 

Mittagessen und begleitende Ausstellung von Devices

13.30 Uhr 

Mobile Karten

Mareike Kortmann, Account Manager BOS, ESRI Deutschland GmbH

13.50 Uhr 

Kundenvortrag zum Einsatz von mobilen Geräten im täglichen Polizeieinsatz

14.10 Uhr 

Sichere Identitäten und Beweiswerterhaltung mit Truedentity

Steffen Sklebitz, Sales Manager, OpenLimit SignCubes GmbH

14.30 Uhr

Mobile Asservaten

Thomas Bley, Account Manager, OPTIMAL SYSTEMS Vertriebsgesellschaft mbH

14.50 Uhr

Mobiles, integriertes Bildungsmanagementsystem

Marcus Schubert, Business Development Manager, T-Systems MMS

15.10 Uhr

Infrastrukturlösungen eines Carriers

Heiner Jung, Key Account Manager, Vodafone GmbH

15.30 Uhr bis ca. 17.00 Uhr  

Ende der Veranstaltung, Get Together und begleitende Ausstellung von Devices

 

Um einen möglichst intensiven Austausch zwischen Teilnehmern und Referenten zu gewährleisten, sind die Kapazitäten begrenzt. Eine schnelle Anmeldung ist zu empfehlen. Melden Sie sich deshalb am besten noch heute zum kostenfreien Polizeisymposium Berlin 2013 an.

Falls Sie Fragen zu diesem Angebot haben, freue ich mich auf Ihre Kontaktaufnahme. Wenn Sie in Zukunft keine weiteren Empfehlungen zu Microsoft Veranstaltungen erhalten möchten, geben Sie mir bitte kurz Bescheid. Zudem können Sie die Art und Weise wie Microsoft mit Ihnen in Kontakt treten soll hier ganz leicht selbst bestimmen.

Ich freue mich schon jetzt sehr darauf, Sie persönlich in Berlin zu begrüßen und wünsche Ihnen weiterhin viel Erfolg bei Ihren Projekten.

Mit freundlichen Grüßen

Thomas Lipp
Senior Business Development Manager
Microsoft Deutschland GmbH


Auf den Hund gekommen - aktuelle Schritte zur künstlichen Intelligenz


Letzten Monat hat die Universität von Reading verkündet, dass erstmals ein Computer den vor 64 Jahren definierten Turing Test bestanden hat. Alan Turing, ein britischer Mathematiker und Informatiker, hatte diesen Test im Jahr 1950 vorgeschlagen, um festzustellen, ob eine Maschine ein dem Menschen ebenbürtiges Denkvermögen besitzt. Der Test soll also der Feststellung von künstlicher Intelligenz dienen und Turing erwartete, dass er im Jahr 2000 bestanden werden könnte.

Kurz gesagt geht es darum, ob menschliche Fragesteller in einer fünfminütigen, freien Konversation über Tastatur und Bildschirm zu mehr als 30% nicht mehr zwischen einem menschlichem Gegenüber oder einem Computer als Gesprächspartner unterscheiden können. Ob sich mit diesem Test nun tatsächlich künstliche Intelligenz feststellen lässt ist inzwischen umstritten und die Testbedingungen in Reading waren sicherlich auch etwas eigenwillig (hier mehr zum Turing Test).

Was sich aber unzweifelhaft feststellen lässt: Die unbelebte Welt um uns herum fühlt sich zunehmend intelligenter an. Dem Smartphone oder Tablet in unserer Hand ist „irgendwie bewusst", wo es sich befindet, welche Tageszeit wir haben, wie das Wetter gerade ist und unsere persönlichen, digitalen Assistenten „wissen" und teilen uns mit, dass wir aufgrund eines Verkehrsstaus früher als sonst zum Flughafen aufbrechen sollten oder dass wir heute vielleicht mal wieder zu wenig Bewegung hatten.

Möglich wird dies alles durch Sensoren, deren Vernetzung und eine Vielzahl von lernenden Algorithmen, die „Erkenntnisse" ermöglichen, inzwischen eben auch für alle Arten von Computern.

Wie weit wir damit bereits sind, zeigt eindrucksvoll und aktuell das „Projekt Adam" von Microsoft Research, in dem ein neuronales Netzwerk durch eine Vielzahl von Servern in der Microsoft Azure Cloud aufgebaut wird. Dieses Netzwerk ist in besonderem Maße lernfähig, da es asynchron arbeiten und quasi Analyse-Unteraufgaben im Netzwerk verteilen kann, die weitgehend unabhängig voneinander gelöst werden und danach zu einer „Gesamterkenntnis" verschmolzen werden.

Beeindruckend ist das Ergebnis in diesem kurzen Demo-Video, in dem Cortana, Microsoft's persönliche Assistentin auf dem Windows Phone, sich die Lernfähigkeiten von Projekt Adam zunutze macht, um zuverlässig Hunderassen zu erkennen.

Übrigens hat Cortana auch die Gewinner aller Endrundenspiele der Fußballweltmeisterschaft richtig vorher gesagt.

Das sich entwickelnde „Internet der Dinge" wird uns auf dem Weg zu künstlicher Intelligenz deutlich weiter bringen. Eine unglaubliche Zahl unterschiedlicher, miteinander vernetzter Sensoren, gigantische, verteilte Verarbeitungs- und Speicherkapazitäten, effiziente Algorithmen zur Analyse und Interpretation – diese Beschreibung vom „Internet der Dinge" passt eben auch auf das menschliche Gehirn.


Big Data – Das neue IT-Paradigma?


Big Data ist in aller Munde – das beweist die große Anzahl der Beiträge auf Blogs, in Fachzeitschriften und Magazinen, aber auch die Vielzahl durchgeführter Umfragen  und Unternehmen, die sich mit dieser Thematik auseinandersetzen. In den nächsten Wochen widmen wir uns an dieser Stelle verschiedenen Fragestellungen: Was klassifiziert Data als Big Data? Impliziert Big Data Big Security? Gehen Open Data und Big Data Hand in Hand? Gibt es einen Zusammenhang zwischen der Cloud und Big Data? Ein Annäherungsversuch an den Begriff Big Data soll der Startschuss unserer kleinen Big Data-Reihe sein.

Wann spricht man nun eigentlich von Big Data"? Um diese Frage zu beantworten wird oftmals auf die „3Vs" – Volume, Variety und Velocity – zurückgegriffen, die im Folgenden genauer erläutert werden.

•             Volume – Verschiedene Studien belegen ein stetiges Datenwachstum, sodass sich das im Jahr weltweit erzeugte Datenvolumen mittlerweile im Bereich von Zetabytes (1021 Byte) bewegt und weiter ansteigt. So wird Big Data vom McKinsey Global Insitute  beispielsweise definiert als Datensätze, deren Größe über die Fähigkeit von typischen Software Werkzeugen für die Erfassung, Speicherung, Verwaltung und Analyse hinausgehen.

•             Variety – Die unterschiedlichen Datenquellen und Datenformate  sind ein weiteres Charakteristikum von Big Data. Es geht demnach um die Erfassung, Speicherung, Verwaltung und Analyse von strukturierten, unstrukturierten, dynamischen oder statischen Daten unterschiedlichen Ursprungs. Die Auswertung und Nutzung von Daten aus verschiedenen Social Media Kanälen ist ein interessanter Zugang, um Einblicke in gewisse Situationen, wie Krisen oder Meinungen zu öffentlichen Belangen oder Beschlüssen, zu erhalten.

•             Velocity – Das dritte V bezieht sich auf die hohe Geschwindigkeit mit der die großen Datenmengen unterschiedlicher Formate und verschiedenen Ursprungs anfallen und zu erfassen, zu speichern, zu verwalten und zu analysieren sind. Die Analyse und Nutzung von Echtzeitdaten kommt besondere Bedeutung zu. Als Beispiel kann hier die Erfassung von Fahrzeugpositionen im Straßenverkehr zur Umgehung von Staus genannt werden. 

Big Data ist in aller Munde – aber ist das Thema auch für die öffentliche Verwaltung von Relevanz? Ja! Gegenüber dem Behörden Spiegel  äußerte Franz-Reinhard Habbel, Sprecher des Deutschen Städte- und Gemeindebundes, dass es bislang um Hardware und Software gegangen sei und nun ein Wandel hin zu Inhalten, also der Analyse und Auswertung von Daten, Informationen und Wissen, stattfindet.  Auch in weiteren Beiträgen wird Big Data als ein wichtiges Thema für die Verwaltung von heute angesehen. Hier wird vor allem auf die Vorteile der Nutzung von Big Data in Bezug auf „ […] operative Effizienz, die Bekämpfung von Korruption und Kriminalität sowie […] [die] Umsetzung der Rechenschaftspflicht [...]" hingewiesen.  Auch die Nutzung entsprechender Analysen in Krisensituation wird thematisiert. 

Die Relevanz von Big Data auch im öffentlichen Bereich möchten wir zum Anlass nehmen und Ihnen kommende Woche ein paar konkrete Einsatzbeispiele vorzustellen.

Geposted von Rüdiger Dorn und Magdalena Theisen


Big Data – Ein Thema für die Informations-Sicherheit?


Als Fortsetzung unserer Big Data Reihe und den Beiträgen zu Definition und der Aufzählung von einigen Beispielen soll heute das Thema Sicherheit beleuchtet  werden. So steht die Frage „Ein Thema für die Informationssicherheit?" im Mittelpunkt.

Bereits im Blog zur Definition wurde die Frage aufgeworfen: Impliziert Big Data Big Security? Diese Frage ist eindeutig mit JA zu beantworten, allein aus dem Grund, da alle Informationenverarbeitende IT-Themen mit Informationssicherheit zusammenhängen. So sollte es zumindest sein. Wer heute angesichts der Vernetzung und einhergehenden Bedrohung durch Angriffe aus dem Cyberraum keine Informations-Sicherheit betreibt, handelt grob fahrlässig, das lässt sich nicht mehr anders formulieren.

Muss es deswegen gleich "BIG" sein? Nein, nicht unbedingt, "big" werden Sicherheitsthemen meist dann, wenn etwas passiert ist und keine oder nicht ausreichende Maßnahmen getroffen worden sind, um das Vorkommnis zu verhindern. Deswegen ist es ratsam sich von Beginn an auch mit dem Thema Sicherheit zu beschäftigen und die Investition in Sicherheitsmaßnahmen nicht zu scheuen. Statistisch gesehen ist eine initiale Investition in der Design-Phase nur ein Zehntel so groß wie eine Investition nach einen Vorfall im laufenden System. Wie weiß man aber welche Maßnahmen getroffen werden müssten? Auch beim Thema Big Data kommt hier das Risiko Management ins Spiel. Bei der Sammlung von großen Datenmengen sowie bei der Auswertung und Darstellung muss analysiert werden, welche Risiken mit der Verarbeitung einhergehen und wie die jeweilige Organisation mit diesen Risiken umgehen möchte. Die Grundregeln der Informationssicherheit gelten also auch für Big Data.

Neben dem risikobasiertem Ansatz bilden auch die Schutzziele Vertraulichkeit, Verfügbarkeit und Integrität die Basis der Informationssicherheit. Deswegen sollen diese drei Bereiche im Zusammenhang mit Big Data kurz skizziert werden.

Daten die im Zuge das Aufbaus einer Big Data Installation eingesammelt werden, sei es über Sensoren, Datenerhebung, Protokollierung oder jeglicher anderer Art müssen klassifiziert werden und entsprechende Maßnahmen zum Schutz der Vertraulichkeit getroffen werden. Insbesondere bei der Erhebung von Daten, die auf Personen Rückschlüsse zulassen, müssen diese auch sicher vor fremden Zugriff gespeichert und gegebenenfalls durch Verschlüsselungstechnologien geschützt werden. Je nachdem zu welchen Zwecken die Daten ausgewertet werden, sind hier auch Anonymisierungs- und Pseudonymisierungstechniken anwendbar.

Damit die auszuwertenden Daten auch den Stand widerspiegeln, der in dem jeweiligem Moment analysiert werden soll, muss die Verfügbarkeit der Daten auch zu diesem Zeitpunkt sichergestellt werden. Wenn die Daten einen nicht aktuellen Stand darstellen, besteht die Gefahr, dass falsche Rückschlüsse getroffen werden. Es muss also sichergestellt werden, dass die relevanten Daten für eine Auswertung in aktueller Ausführung verfügbar sind. Somit muss für Big Data Installationen im besonderen Maße Desaster Recovery und Business-Continuity Management betrieben und Prozesse etabliert werden, die bei Abweichungen greifen.

Auch das Schutzziel Integrität hat Auswirkung auf die Vertrauenswürdigkeit der Ergebnisse. Wenn es möglich ist die gesammelten oder die Sammlung der Daten unbemerkt zu manipulieren, sind die Ergebnisse ebenfalls der Gefahr ausgesetzt zu falschen Rückschlüssen zu führen. Deswegen sind insbesondere die Themen Zugriffsteuerung und Benutzerverwaltung zu beachten, um die Verbindlichkeit der Erhebung der Daten nachvollziehbar abbilden zu können.

Grundsätzlich sind Big Data Installationen also auch in die Sicherheits-Architektur zu integrieren und alle vorhandenen Maßnahmen gemäß der Risikoeinschätzung anzuwenden.

Doch Big Data hat noch weitere Implikationen auf Security. Denn erst durch die Möglichkeit der Analyse von großen Datenbeständen wird es auch möglich Informationen zu gewinnen, die Rückschlüsse für angepasste Sicherheitsmaßnahmen zulassen. So kann gezielter entschieden werden, welche Maßnahmen tatsächlich nötig sind, um Angriffe oder andere Aktivitäten, die die Informationssicherheit bedrohen zu verhindern oder zumindest einzuschränken. So wird es auch möglich Investition in Abwehrmechanismen genauer abzustimmen bis hin zu einer Echtzeit-Reaktion, wenn die Daten schnell genug ausgewertet werden können. Ein Bespiel für eine Big Data Auswertung ist unser Security Intelligence Report. Mit Hilfe telemetrischen Daten ist es uns möglich die Situation der Bedrohungen im Internet genauer zu bestimmen und Empfehlungen zu geben, die auf tatsächliche Bedrohungen ausgerichtet sind.

 

 

Gastbeitrag von Michael Kranawetter, Chief Security Advisor (CSA) bei Microsoft in Deutschland. In seinem eigenen Blog veröffentlicht Michael Kranawetter alles Wissenswerte rund um Schwachstellen in Microsoft-Produkten und die veröffentlichten Softwareupdates.


Die Axt im Haus erspart den Zimmermann – Open Data Nutzen selbst gemacht


Seit ein paar Jahren stellen immer mehr Verwaltungen aller Ebenen ihre Informationsschätze als Open Data ins Netz. Der große Unterschied dieser Öffnung im Gegensatz zu der erzielten, eher überschaubaren Wirkung von Informationsfreiheits- und Informationsweiterverwendungsgesetzen, besteht neben einigen anderen Aspekten darin, dass die Verwaltungen ihre Daten nun proaktiv, in Rohform und maschinenlesbar bereit stellen (eine umfassendere Beschreibung von Open Data und den Open Data Prinzipien findet sich hier).

Open Data schafft die Voraussetzung für mehr Transparenz, neue und bessere Services und häufig die Grundlage für eine konstruktive, informierte Bürgerbeteiligung. Auch in den diversen digitalen Initiativen, Agendas und Gesetzen spielt Open Data inzwischen eine zunehmende Rolle. So heißt auch im aktuellen Entwurf der Digitalen Agenda der Bundesregierung: „Durch Open Data, d. h. die maschinenlesbare Öffnung staatlicher Daten im Netz, werden wir für mehr Transparenz sorgen und neue digitale Dienste befördern."

Regierung und Verwaltungen sind nicht selber auf diese gute Idee gekommen, das jahrhundertealte „Amtsgeheimnis" in Frage zu stellen. Vielmehr wurde der Anspruch international aus der Zivilgesellschaft heraus entwickelt, seit einigen Jahren gibt es auch in Deutschland viele Initiativen und zivilgesellschaftliche Vereine, die sich engagiert dem Thema widmen. Inzwischen gibt es aber auch innerhalb der deutschen Verwaltungen, insbesondere auf der Kommunalebene – gerade dort, wo offene Verwaltungsdaten die größte Alltagsrelevanz und den engsten lokalen Bezug haben -, viele überzeugte Verantwortliche und Mitarbeiter, die diesen frischen Wind begrüßen und sich in die Suche nach den Datenschätzen stürzen. Schöne Beispiele dazu kommen aus Moers, Bremen, Bonn, Hamburg oder auch Berlin.

Die Angebote und Sammlungen von Open Data wachsen allerorten – es gibt nur einen Haken.

Die Bereitstellung von Open Data ist kein Selbstzweck. Offene Daten stiften nur dann Nutzen, wenn sie auch aufgegriffen werden, wenn sie miteinander verknüpft, analysiert und die gewonnenen Erkenntnisse verständlich visualisiert und kommuniziert werden. Das scheitert bislang in der Breite aber eben an der Natur von Open Data – es sollen möglichst unbearbeitete Rohdaten sein, die ohne Aufbereitung und Analyse kaum interpretierbar sind.

Auch wenn es inzwischen einige gute Beispiele für Anwendungen gibt, die auf offenen Daten beruhen (zum Beispiel auf Open Data Showroom), so lässt das versprochene Feuerwerk von Open Data basierten Demokratie- und Wirtschaftsimpulsen aber bislang eher noch auf sich warten. Während auf Govdata.de, dem offiziellen Datenportal für Deutschland, bislang ca. 7.200 Datensätzen zu finden sind, sieht es mit den Anwendungen, also den Open Data basierten Apps, übersichtlicher aus – Govdata.de listet hier gegenwärtig 19 Anwendungen, alleine 9 davon im Bereich von Umwelt- und Klimadaten. Neelie Kroes, Vizepräsidentin der europäischen Kommission und zuständig für die Digitale Agenda Europas, hat 2011 den möglichen jährlich wirtschaftlichen Nutzen aus Open Data mit ca. 40 Milliarden Euro beziffert. Das ist möglich – aber nur mit der Bereitstellung von Open Data sind solche Werte nicht zu realisieren.        

Es ist eben bislang schwieriger, aus den offenen Daten etwas zu machen und Apps zu entwickeln, als die Open Data Prinzipien zu erklären und die Bereitstellung der Daten durch die Verwaltung zu fordern – große Halden offener Verwaltungsdaten nützen aber niemandem.

Die Erschließung und Nutzung von Open Data muss daher deutlich vereinfacht werden und nicht überwiegend davon abhängen, dass sich in bestimmten Interessenbereichen sachkundige Entwickler finden, die sich entweder aus zivilgesellschaftlichem Engagement heraus oder zur Umsetzung einer Geschäftsidee an die Entwicklung von Apps machen.

Mein Kollege Martin Ihrke zeigt in seinem aktuellen Webcast, wie man quasi mit Bordmitteln auf der Basis von Microsoft Excel in Verbindung mit den neuen Self Service Business Intelligence Ergänzungen PowerQuery, PowerPivot und PowerView, den Nutzen von Open Data ganz erstaunlich erschließen kann, auch wenn man selber kein Programmierer ist. So lassen sich in Zukunft viele Erkenntnisse aus Open Data gewinnen – übrigens auch für die Verwaltung selber-, ohne dass man erst auf die passenden Apps dafür warten muss. Mehr zu PowerBI finden Sie auch unter www.powerbi.com.