government2020 header image 2

Warnung vor den Goldmachern

Juni 13th, 2016 · 1 Kommentar

Eine Rezension der Studie der Technologie Stiftung Berlin „Digitales Gold. Nutzen und Wertschöpfung durch Open Data für Berlin“

Autor: Herbert Kubicek

Die Technologiestiftung Berlin hat im Februar 2014 nach eigener Aussage eine „präzise Einschätzung“ des Nutzens der Bereitstellung von Open Data für Berlin vorgenommen und damit eine Wissenslücke geschlossen, denn „in der Fachliteratur findet sich bisher keine Studie, die den Nutzen von Open Data untersucht“. Mit einem auf Multiplikatoren basierenden Ansatz, den sie von anderen Autoren etwas abgewandelt übernimmt, wird der Nutzen von Open Data für Berlin, je nach Szenario auf 22 bis 54 Mio. € pro Jahr geschätzt. „Bei einem mittleren Szenario ergibt sich ein Nutzen von 32 Mio. € pro Jahr“. Allerdings wird bei den einzelnen Berechnungsschritten mehrfach eingeräumt, dass keine verlässlichen Daten zur Verfügung stehen und eine exakte Berechnung als „nahezu ausgeschlossen“ eingeschätzt. Dem zuvor erhobenen Anspruch wird damit selbst diametral widersprochen.

Open Data oder die Suche nach dem digitalen Gold - die Politik folgt hier falschen Verheißungen, meint Herbert Kubicek. Foto: PublicDomainPictures / pixabay.com

Open Data oder die Suche nach dem digitalen Gold – die Politik folgt hier falschen Verheißungen, meint Herbert Kubicek. Foto: PublicDomainPictures / pixabay.com

Der auf Multiplikatoren basierende Ansatz setzt sich zusammen aus dem Basisnutzen, einem Kostenmultiplikator, einem direkten und einem indirekten Nutzenmultiplikator sowie der Preiselastizität der Nachfrage. Hierbei handelt es sich um eine Erweiterung einer Formel, die Studierende an der Wirtschaftsuniversität Wien in einer Projektarbeit für die Berechnung des Nutzens Offener Daten der Stadt Wien bzw. Österreichs entwickelt haben. Diese wiederum ist eine Vereinfachung der Formel von Rufus Pollack, dem Mitbegründer der Open Knowledge Foundation, die dieser zur Berechnung des „Wohlfahrtszugewinns“ durch Open Data für das Vereinigte Königreich entwickelt hat (Pollock R. Welfare Gains from opening up public sector information in the UK. 2011).

Die Formel zur Berechnung des Nutzens von Offenen Daten. Quelle: Technologie Stiftung Berlin: Digitales Gold. Berlin, Februar 2014, S. 34

Die Formel zur Berechnung des Nutzens von Offenen Daten. Quelle: Technologie Stiftung Berlin: Digitales Gold. Berlin, Februar 2014, S. 34

Das sieht wissenschaftlich aus und soll Politik und Verwaltung dazu bewegen, mehr Offene Daten bereitzustellen und diesen Bereitstellungsprozess zu fördern und zu finanzieren. Die Formel kann jedoch einer wissenschaftlichen Kritik nicht standhalten und grenzt an eine Beleidigung des gesunden Menschenverstandes. Erschreckend ist nicht nur dieser Verdummungsversuch, sondern auch dass dies seit mehr als zwei Jahren noch niemand kritisiert hat. Es wird jedoch höchste Zeit, denn hier droht die Etablierung einer irreführenden pseudowissenschaftlichen Schule. Denn die Kette geht nicht nur über Fuchs et. al zurück zu Pollock. Auch die Konrad Adenauer Stiftung hat diese Formel gerade erst als eine von zwei Ansätzen verwendet, um das volkswirtschaftliche Potential Offener Daten für Deutschland zu schätzen, sich dann aber im Fazit aus methodischen Gründen davon distanziert.

Der gewählte Titel „Digitales Gold“, der in Anlehnung an eine Pressemitteilung von EU Kommissarin Neelie Kroes gewählt wurde , weckt bei mir die Assoziation zu den Alchemisten und speziell den Goldmachern unter ihnen.

Seriöse Alchemisten und die Goldmacher

Alchemisten waren im Mittelalter Gelehrte, die mit verschiedenen Stoffen experimentierten und durch Behandlungen wie Legieren oder Destillieren neue wertvollere Stoffe entwickeln wollten. Unter ihnen gab es auch die sogenannten Goldmacher, die glaubten oder Glauben machen wollten, dass man aus einfachen Stoffen Gold herstellen könnte. Einige überredeten Fürsten, ihnen Laboratorien einzurichten, in denen sie entsprechende Experimente durchführten. Der eine oder andere wurde nach längerer erfolgloser aber gut entlohnter Tätigkeit wegen Betrugs verurteilt, weil er etwas versprochen hatte, was er nicht einlösen konnte.

Was ist digitales Gold?

Heute wissen wir, dass man aus einfachen physischen Rohstoffen kein physisches Gold machen kann. Warum soll das bei digitalen Rohdaten und digitalen …, ja was denn: Apps, Anwendungen, Services… anders sein? Es bleibt völlig unklar, was genau in der Analogie mit „Gold“ gemeint ist. Die Rohdaten kaum, denn die müssen ja noch veredelt werden. Am ehesten könnten die Anwendungen gemeint sein, die auf den Rohdaten basieren. In den App-Stores findet man allerdings kaum Apps, die auf offenen kommunalen Verwaltungsdaten basieren.

Die Studie der Technologie Stiftung versucht, wie andere auch, den wirtschaftlichen Nutzen von offenen Verwaltungsdaten mit Beispielen zu belegen. Nach Beispielen, die aus einer Studie für die EU Kommission über den volkswirtschaftlichen Nutzen von Public Sector Informationen (PSI) stammen , führt ein Verzicht auf Gebühren für die Bereitstellung von Daten zu Umsätzen von Unternehmen und über höhere Steuereinnahmen auch zu einem Gewinn für die bereitstellenden Behörden. Ich halte diese Zahlen für außerordentlich problematisch. Aber selbst wenn es sich im Einzelfall so ergeben haben sollte, stellt sich speziell im vorliegenden Fall die Frage, was das mit Berlin zu tun hat. Denn die Beispiele beziehen sich überwiegend auf nationale meteorologische Daten. Es gibt kein vergleichbares Beispiel für eine steuerrelevante kommerzielle Verwertung von Daten, die deutsche Kommunen und Länder außerhalb der Geodaten bereitstellen. In den Aussagen zu Park-Apps in Wien oder der Berlinwahlkarte fehlen entsprechende Zahlen. Und bei den meisten kommunalen Daten, wie Bevölkerungs- oder Wahlstatistik, Luft- und Wasserwerte, häufigste Vornamen, Schulwegweiser u.a.m. fehlt die Phantasie für ähnliche Wertschöpfungsketten wie bei Geo- und Wetterdaten.

Die Goldmacher-Parallele: Kosten x Nutzenfaktor = Nutzen

Worin besteht die Verdummung in der zitierten Formel? Darin werden die Kosten F mit einem Kosten- und einem Nutzenfaktor sowie einem Elastizitätsfaktor multipliziert. Bei jeder Formel ist es handwerkliche Grundregel die Dimensionen zu prüfen. Wenn man die Kosten in Euro mit noch so vielen Faktoren multipliziert, bleiben es Kosten in Euro, und nur die Goldmacher unter den Alchemisten können behaupten, daraus einen Nutzen zu berechnen.
Diese auf Pollock zurückgehende Gleichsetzung von Kosten mit Nutzen wird damit begründet, dass Verwaltungen die Daten zu Grenzkosten bereitstellen und die Kosten somit hypothetische Preise seien, die summiert dann das Marktvolumen ausmachen.

Noch abwegiger ist die Wahl des konkreten Kostenansatzes. Für Berlin werden die Kosten der Bereitstellung nur mit den laufenden Betriebskosten für das Berliner Open Data Portal in Höhe von 120.000 Euro angesetzt. Dies wiederspricht jeder betriebswirtschaftlichen Theorie und Praxis, weil es sich dabei nur um die Lizenz- und Auftragskosten für den Portalbetreiber handelt, aber die Personalkosten der Bereitstellung und die Abschreibung der Portalentwicklungskosten fehlen. In einer Antwort des Senats an die Hamburgische Bürgerschaft wurden die Entwicklungskosten mit 5,172 Mio. und die Kosten des Betriebs mit jährlich 1,380 Mio. Euro angegeben.

Wie absurd dieser Ansatz ist, zeigt eine bei Formeln zu empfehlende Sensitivitätsanalyse Sie prüft, was passiert, wenn man einzelne Größen verändert. Da die Faktoren in der Formel alle größer 1 sind, bedeutet eine Erhöhung der Kosten F automatisch eine Erhöhung des Nutzens. Man muss also nur viel Geld in die Bereitstellung stecken und erzielt dann auch einen hohen Nutzen. Hätten die Autoren die Hamburger Zahlen als Bezugsgröße verwendet und laufende Kosten von 2,5 Mio. angesetzt, wäre ein 20-fach höherer „Nutzen“ errechnet worden, also im mittleren Szenario ein Nutzen von 600 Mio. Euro. Aber dann wäre der Unsinn wohl offenkundig geworden.

Willkürliche Faktorenbestimmung statt präziser Berechnung

Während zu Beginn eine „präzise Einschätzung“ angekündigt wird, wird bei der Erläuterung der Faktoren eingeräumt, dass es keine geeigneten Zahlen gibt und es werden willkürlich Werte festgelegt:

  • Für die Bestimmung des Kostenmultiplikators übernimmt man den Ansatz von Fuchs et al. und legt den Faktor bei 1,5 fest, weil Österreich und Deutschland vergleichbare Rechtssysteme hätten.
  • Der Nutzenmultiplikator berücksichtigt direkte Effekte wie Einnahmeausfälle und Steuereinnahmen der Verwaltung, Umsatzsteigerungen und Effizienzverbesserungen bei Nutzern. Dafür werden aus unterschiedlichen Fallstudien jeweils Nutzenfaktoren ermittelt und gemittelt, am Ende aber addiert, weil diese Effekte gleichzeitig auftreten und „in der Summe den direkten Nutzeneffekt abbilden“.
  • Überraschenderweise geht dieser „grobe Schätzwert“ aber nicht in die Formel ein. Vielmehr wird der mittlere Schätzwert aus einer Studie von Houghton übernommen, der Kosten-Nutzenrelationen zwischen 6,9 und 13,5 bestimmt hat. Weil die Zahl 10 so etwa in der Mitte liegt, erhält der Nutzenfaktor den Wert 10. Ob und wie die Schätzungen von Houghton zustande gekommen sind und welchen kommunalen Bezug sie haben, wird nicht erkenntlich.
  • Noch abenteuerlicher ist die Berechnung eines indirekten Nutzenfaktors, der nicht monetär messbare Wohlfahrtseffekte abdecken soll. Zur Quantifizierung werden allgemeine Indizes zur Lebensqualität wie der „Your Better Life Index“ der OECD und der Web Index 2012 der World Wide Web Foundation herangezogen. Weil der Durchschnitt ausgewählter Indexwerte für Deutschland das 1,13-fache des Durchschnitts aller OECD-Länder beträgt, bzw. beim Web-Index das 1,49-fache, wird dieser zweite Nutzenmultiplikator auf 1,13 Punkte festgelegt. Weil die Bewertung und Messung dieser Aspekte schwer zu quantifizieren sei, könne man dem Multiplikator auch einen Wert von 1,0 zuweisen. Und dann wird das arithmetische Mittel aus 1, 1,13 und 1,49 = 1,21 ermittelt und in die Formel eingesetzt.
  • Für die Preiselastizität der Nachfrage von offenen Daten als letztem Glied der Formel wird der Wert 10 festgelegt. Das heißt bei einer Preissenkung von 1 % steigt die Nachfrage nach offenen Daten um 10%. Was aber, wenn die offenen Daten, wie es sein sollte, unentgeltlich abgegeben werden und gar keinen Preis haben? Wäre dann die Nachfrageelastizität Null und durch den Faktor Null in den Multiplikationen der Formel auch der Nutzen gleich Null?

Die falschen Verheißungen – Wie die Goldmacher

Das Versprechen einer präzisen Schätzung vom Anfang wird nicht aufgehoben, sondern aufgeschoben: Im letzten Absatz der „Studie“ heißt es:

„Die hohe Spannbreite der Abschätzung stellt nicht zufrieden, ist aber bei der bei Innovationen anfangs geringen Datenlage zu erwarten. Mit einer sich entwickelnden breiteren empirischen Datenbasis können die Multiplikatoren entsprechend quantifiziert und infolgedessen eine genauere Nutzenabschätzung getroffen werden. Über ein rein qualitatives Aufzeigen potentiellen Nutzens geht die Analyse jedoch deutlich hinaus, da sie letztlich unter allen Annahmen einen Nutzen ergibt, der die Einnahmeausfälle bei weitem übersteigt.“ (S.43)

Die hier gezogene Parallele zu den Alchemisten muss zum Abschluss relativiert werden. Wir verdanken den Alchemisten, wie erwähnt, Erkenntnisse wie man aus Quarzsand und anderen Rohstoffen Porzellan macht und wie man verschiedene Erze zu höherwertigen verschmelzen kann. Das tun in der digitalen Welt viele Entwicklerinnen und Entwickler. Die Goldmacher haben die Arbeit und den Ruf der Alchemie in Diskredit gebracht. Veröffentlichungen wie die hier rezensierte tun genau das. Und auch Politiker werden irgendwann merken, dass die ihnen vorgelegten Zahlen keine öffentlichen Ausgaben rechtfertigen. Die Begründung für Investitionen in die Öffnung von Daten muss auf andere, politische Weise erfolgen, vielleicht aber auch etwas differenzierter geführt und überprüft werden.

Artikel teilen!

Tags: Verwaltungsmodernisierung

1 Antwort bis jetzt ↓

  • 1 Wolfgang Ksoll // Jun 13, 2016 at 18:00

    Der deutschnationale Blick des Betriebswirtes auf die Volkswirtschaft, kann in die Irre führen. :-)

    Da gab es mal eine gewissen Herbert Kubicek, der sich dem schwierigen Unterfangen hingab, die Zukunft zu prognostizieren. Ist ja auch schwer. Im Interview in der WELT hieß es 2002:
    „Kubicek: An kostenpflichtigen Inhalten führt kein Weg vorbei, wobei mir der Begriff „Inhalt“ allerdings zu allgemein gehalten ist. Es geht vielmehr um qualitativ hochwertige Angebote – wir könnten sie auch Premiumdienste nennen -, die in besonderer Weise für den Nutzer aufbereitet sind. Durch die er zum Beispiel viel Zeit spart. Im Laufe des nächsten Jahres wird sich herauskristallisieren, für welche Qualität die Nutzer wie viel zu zahlen bereit sind.“
    http://www.welt.de/wirtschaft/webwelt/article314762/An-Bezahlinhalten-fuehrt-kein-Weg-fuehrt-vorbei.html

    2003 ist nun vorbei und Kubiceks Prognose erwies sich als falsch. Im Gegenteil: im Wissenschaftsbetrieb gibt es eine Bewegung Open Access, die nicht mehr möchte, dass wissenschaftliche Erkenntnisse durch eine Paywalls durch gewinnorientierte Verlage an der Verbreitung behindert werden. Die Erkenntnis der nahezu grenzkostenlosen Distribution (siehe auch Rifkin) ermöglicht ganz andere Geschäftsmodelle als Kubuicek sie in der WELT für möglich hielt.

    Als die qualifizierten Signaturen (2002/2003) in jener Zeit abkackten, pries Goldmacher Kubicek Micropayments. Ich dagegen fing mir 1999 Prügel ein, als ich bei einem Gastvortrag in der Humboldt Universität sagte, dass Micropayment-Geschäftsmodelle im Internet nicht kommen werden, wenn man so etwas nicht in drei Monaten implementiert. Nun, Micropayment bezahlter Content ist immer noch kein Kracher, und das Signaturgesetz wird wohl nach Worten des BMWi abegschafft, weil die EU keine Böcke mehr auf die deutschen Starrhälse hat und mit eIDAS brutal aufräumt statt weiter deutschnationalen Träumen nachzuhängen. Was wäre dann nun, wenn man so um 2003/2004 sich mit Micropayments an das deutsche Signaturgesetz gehängt hätte? Man hätte wegen falscher Spökenkieckerei eine Fehlinvestment gemacht oder wie der Grieche sagt: „Shit happens!“ Was lernt es uns? Zukunft ist immer schwer voraus zu sehen, besonders, wenn sie noch vor uns liegt.

    Ein anderes Beispiel: mit deutschnationaler Brille (oder Scheuklappe) stellt man richtig fest, dass bei Verkäufen von Immobilien nach §192-199 des Baugesetzbuches (BauGB) die Gutachterausschüsse Kenntnis von den Preisen bekommen, die sie aber nur bei berechtigtem Interesse einem Käufer verraten. Irritation schafft natürlich wenn Borisplus in NRW (http://www.boris.nrw.de/borisplus/?lang=de#) nun für Gebiete Näherungswerte verschaffen. Mit deutschnationaler Kritikerbrille könnte man jetzt korrekt feststellen, dass a) das Sammeln von Kaufpreisen, das Verarbeiten und Veröffentlichen mit Aufwänden verbunden ist (die teilweise sowieso gesetzlich vorgeschrieben sind und nur mit geringen Grenzkosten als Open Data abgegeben werden könnten, wenn denn nur die Verwaltung sich der Neuzeit hingäbe und ihre Akten elektronisch führten, was ja manche sich als Aufgabe für die nächsten Jahrzehnte gesetzt haben) und b) das überhaupt nicht messbar ist, was das für einen Impact auf die Märkte hat. Aus der Neuen Institutionenökonomik wissen wir aus der Principal-Agent-Theorie, dass asymmetrisches Wissen schlecht für die Marktwirtschaft ist, hier Immobilienmarkt. Trotz systematischer Nichtberechenbarkeit erdreisten sich die Briten aber, die Kaufpreise und die Adressen aller Käufe in ganz England und Wales als Open Data veröffentlichen als „Price Paid Dataset“ (ca. 80 MB) (http://odimpact.org/static/files/case-studies-hm-land-registry.pdf). Jetzt ist der arme Volkswirt dumm dran, weil er ja weiss, dass er den Impact von Markttransparenz nicht messen kann und der Betriebswirt Kubicek jedes Modell zerpflücken wird, insbesondere weil er sowieso andere Meinungen über die Zukunft hat als Volkswirte (von denen eigentlich alle wissen, dass der Modelle immer schwierig sind :-)
    Außerdem wird Kubicek sagen, dass er das bei den Gutachterausschüssen in Deutschland nicht messen kann, weil die ja die Daten nicht veröffentlichen :-) Im Zweifel wird Kubicek postulieren, dass transparente Märkte Goldmachen seien.

    Aber es komm noch schlimmer: Die britische Zeitung Private Eye hat sich für kleines Geld auch die Namen der Eigentümer gekauft und bei tausenden britischen Immobilien festgestellt, dass sie anonymen Überseefirmen, deren Eiegntümer man nicht feststellen kann, obwoghl David Cameron schon 2008 sagte, dass er in UK ein Firmenregister schaffen, wo der wirtschaftliche Begünstigte benannt wird. in UK. Nicht aber in Panama (siehe Panama Papers). http://www.private-eye.co.uk/registry

    Man geht davon aus, dass alleine der EU jährlich 1 Billion (1.000 Milliarden) € an Steuern entgehen, durch Steuerhinterziehung oder Steuerminderung durch Briefkastenfirmen in Offshore-Ländern. Dann sagt der liebe Herr Kubicek, ist doch egal: kann man doch nicht messen bei den anonymen Briefkastenfirmen.. Jetzt könnte man denken, Markttransparenz ist da eher ein britischen Problem. Mit meiner deutschnationalen Brille habe ich ja noch nie Markttransparenz gehabt mit meinem geliebten Bundesbaugesetz.

    Blöd wird es aber, wenn der brandenburgische Handwerker sich entscheiden muss, für einen anonymen Steuerhinterzieher, Waffenhändler, Geldwäscher zu arbeiten, wo er nicht den Eigentümer kennen darf, weil der sich hinter einer anonymen Briefkastenfirma in Panama versteckt. Gibt es nicht? Gibt es mitten in Berlin: ttp://www.tagesspiegel.de/berlin/bezirke/kudamm/berlin-charlottenburg-briefkastenfirma-besitzt-haelfte-des-kudamm-karrees/13423906.html

    Da wird Fliesenlegen und Tapezieren, Rohre legen und Häuser verkabeln zum Pokerspiel für den Handwerker, da der Staat ihm nicht mehr hilft wie früher sein Geld im Ernstfall einzutreiben.

    Nun, es gibt Menschen, die lieben Marktwirtschaft. Und sie lieben es, wenn man Markttransparenz hat. In manchen Märkten braucht man dazu auch Open Data. Aber was soll es, wenn man auch von der EU 400.000 € abgreifen kann für Projekte mit öffentlichen Toiletten-Apps, die man anderswo verflucht. Man muss halt den richtigen Humor haben. Der arme Volkswirt,d er dann beweisen muss, dass transparente Märkte effizienter sind als korrupte Kungeleien.

    Aber was soll es: manche mögen halt Open Data nicht, manche mögen Transparenz nicht, manche mögen Demokratie nicht (wie in China, die aber das zehnfache Wachstum des BIPs vorweisen können :-)

    Am Rande noch für die Simulanten: Vor zwanzig Jahren betreute ich eine Diplomanden. Der wollte ein mathematisches Simulationsmodell aufstellen, um den Traffic auf dem Ethernet zu simulieren, wenn wir Dokumente einscannten und retrievalten. Schon die Literaturrecherche war humorig: es gab seriöse Wissenschaftler, die uns sagten, dass das Ethernet ab 30% Netzlast unzuverlässig wird und dann schnell verstopft (auch wegen des Congestion Avoidance Algorithms). Das CERN aber sagte uns, dass wenn das Ethernet (wegen der diskless Unix-Clients) ruhig sei, es mit 55% belastet sei. Danach käme Nutzlast. Insgesamt identifizierten wir ca. 250 Parameter (im hochfrequenten Bereich am losen Ende mit dem 50 Ohm-Widerstand und vielerlei mehr. Das erschien uns unpraktisch, weil nicht stabil simulierbar. Wir reduzierten auf ca 10, von denen manche für die Aufstellung der Markov-Ketten auch gemessen wurden und dann konnten wir fröhlich sehen, wo ein Netz mit 600 Retrieval-Arbeitsplätzen und 60 Scannern bei einem 100-Bit-FDDI-Backbone in die Knie gingen. Wir haben das nicht veröffentlicht, aber das von Dritten gebaute und betriebene Netz wurde vom Kunden nicht abgenommen und die Installation schlug fehl (20 Mio Schaden). Aber wie gesagt, Zukunft voraus zu sagen ist immer schwierig, besonders, wenn sie noch vor einem eigen (siehe auch Micropayments und Bezahlinhalte).

    Für die Schwarzmaler empfehle ich auch immer gerne den Andreas Gryphius mit seinem Vanitasgesängen „Es ist alles eitel!“
    https://de.wikipedia.org/wiki/Vanitas!_Vanitatum_Vanitas!

    Also nicht mal das Schwarzmalen ist neu :-) Aber dass der Karneval so kurz nach Pfingsten schon wieder anfängt: erstaunlich!

Hinterlasse ein Kommentar

*