Big Data ist en vogue. Vor allem die Wirtschaft trommelt seit Jahren für einen stärkeren Einsatz neuer Analysemethoden. Der Glaube: alles zu jeder Zeit im Blick haben und vorausschauend bestimmen zu können. Doch es ist Vorsicht geboten. Denn neben den vermeintlichen Chancen der Big-Data-Welt lauern auch Risiken. Über beide Seiten der Medaille sprach die gis.Business mit zwei Experten, die es wissen müssen: Ernest McCutcheon vom Unternehmen DDS in Karlsruhe sowie Frank Romeike vom Kompetenzportal RiskNET.
Location Intelligence und damit das Thema raumbezogener Daten ist für Sie, Herr McCutcheon, Teil Ihres Kerngeschäfts. Können Sie der Leserschaft einen kurzen Einblick geben, was Sie in diesem Bereich genau tun und welchen Mehrwert Sie Unternehmen versprechen?
E. McCutcheon: Location Intelligence und raumbezogene Daten sind nicht ein Teil meines Kerngeschäfts, sondern sie sind mein Kerngeschäft. Vor über 20 Jahren hat meine Firma, DDS Digital Data Services GmbH, sich auf das Thema raumbezogene Daten spezialisiert. Unser Aktivitätsschwerpunkt liegt besonders auf der Nutzung solcher Daten in Verbindung mit den Daten des Kunden, um deren Geschäftsprozesse zu optimieren. Das nennen wir inzwischen "Location Intelligence". Je nach Kunde und Anwendung sind die dafür benötigten Daten sehr unterschiedlich. Wir unterstützen und beraten unsere Kunden bei der Auswahl, Lizenzierung und Integration dieser Daten oder inzwischen auch zu cloudbasierten Datendiensten.
Häufig sind unsere Kunden selbst Lösungsanbieter, die wiederum für die Nutzer ihrer Lösungen ergänzende Daten (oder Dienste) suchen. Aber auch wenn der Kunde für seine Anwendung Software oder Tools benötigt, können wir ihn dabei unterstützen. Wir bieten Komponenten und/oder Dienste von PTV (xServer), Pitney Bowes (MapInfo, Spectrum Spatial), Integeo (MapIntelligence), Microsoft (Bing Maps) und Here (Here Location Platform) an.
Unser Mehrwert liegt konkret in unserer langjährigen Erfahrung mit raumbezogenen Daten in Business-Anwendungen, wie Standortplanung und -analyse, Marketingoptimierung, Kundenanalyse und -segmentierung.
Herr Romeike, wo es Chancen und Vorteile gibt, sind auch Risiken. Wo sehen Sie die kritischen Momente einer umfassenden Datenanalyse und -auswertung?
F. Romeike: Die modernen Orakel unserer digitalen und vernetzten Zeit heißen Big Data, Datenanalysen und Predictive Analytics. Doch eine große Zahl von selbsternannten und verträumten Big-Data-Propagandisten kennt weder die grundlegenden numerischen Algorithmen zur Lösung von linearen Gleichungssystemen noch Verfahren der linearen Optimierung, der Dimensionsreduktion oder der Interpolation. Sie sehen blauäugig nur die kommerziellen Chancen der schönen neuen Datenwelt.
Können Sie das konkretisieren?
F. Romeike: Eines der größten Risiken von Big Data besteht darin, dass Koinzidenz (Korrelation) mit Kausalität verwechselt wird. So kann man eine fast perfekte (positive) Korrelation zwischen Beschäftigten auf Campingplätzen und der Erntemenge von Gurken auf dem Freiland berechnen oder der Anzahl der McDonalds-Standorte in Deutschland und der installierten Windenergieleistung in Deutschland. Doch besteht hier auch eine Kausalität? In der verträumten "Pro-Big-Data"-Propagandawelt würde man uns klarmachen, dass dies egal wäre. Mathematiker hingegen bezeichnen so etwas als "spurious relationship".
Big Data birgt vor allem das Risiko von extremen Fehlentscheidungen, da wir die Gesetzmäßigkeiten nicht mehr kritisch hinterfragen. Newtons Idee des Schwerkraftgesetzes kam ihm nicht, weil er unentwegt Äpfel von Bäumen fallen ließ. Mit anderen Worten: Zu Bits und Bytes muss die Fähigkeit kommen, die anfallenden Daten nicht nur auszuwerten, sondern auch zu interpretieren. Und exakt hier scheitern viele Experten in der Praxis. Denn die Tatsache, dass ein Muster existiert, setzt voraus, dass dieses in der Vergangenheit entstanden ist.
Dies wiederum heißt nicht zwangsläufig, dass eine Schlussfolgerung aufgrund dieses Musters auch für die Zukunft Gültigkeit besitzt. Ein Thema, das wir übrigens beim kommenden RiskNET Summit Ende Oktober 2017 ausführlich diskutieren werden.
Weitere Risiken sehe ich darin, dass Menschen auf Datenspuren reduziert werden. Wir benötigen eine gesellschaftliche und konstruktive Debatte über Datenschutz, Ethik und "informationelle Selbstbestimmung". Wollen wir uns einer Diktatur der Daten ausliefern und in einer Welt leben, in der Big Data mehr über unsere Risiken, unsere Vergangenheit, Gegenwart und Zukunft weiß, als wir uns selbst erinnern können? Diese Schattenseiten von Big Data sollten zu transparenten und verbindlichen Regeln und einer breiten Diskussion über die Gefahren entfesselter Daten-Technologien und einer zunehmend unkontrollierten Macht von Herrschern über Daten führen.
Bleiben wir noch einen Moment bei den negativen Folgen: Datenanalysen sind per se nicht immer das Allheilmittel, wie die letzten Fälle von Fehlinterpretationen der Wahl in den USA und dem Brexit-Austritt zeigen. Begeben wir uns hier nicht in die Falle einer falschen Kausalität bei Datenauswertungen?
E. McCutcheon: Da es in dieser Diskussion um Big Data geht, werde ich versuchen, auf die wachsende Rolle von Big Data bei solchen Ereignissen einzugehen. Dafür muss ich etwas ausholen. Die massive Zunahme an Mobiltelefonen hat dazu geführt, dass schon 2016 weniger als die Hälfte aller Haushalte in den USA über ein Festnetztelefon verfügten. Da es verboten ist, bei Umfragen Mobiltelefone anzurufen (in den USA müssen Handynutzer auch eingehende Anrufe bezahlen), wird es immer schwieriger, eine wirklich "repräsentative" Gruppe zu bilden. Das Leben für die Erheber solcher Umfragen wird immer schwieriger und sie werden langfristig ihre Methoden anpassen müssen, wenn sie in Zukunft wieder realistische Prognosen abgeben wollen.
Eine bedeutende Quelle von "Big Data" sind Social-Media- Plattformen wie Facebook und Twitter. Die Wahl von Donald Trump hat die Diskussion über die Rolle von "Fake News" und "Alternativen Fakten", die über solche Medien verbreitet werden, entfacht. Studien zeigen, dass es möglich ist, durch eine gezielte Sendung von Informationen an "vernetzte Influencer" deren Verhalten, auch deren Wahlverhalten, zu beeinflussen.
Natürlich haben beide Phänomene etwas miteinander zu tun. Da die Mehrheit der Nutzer solcher Plattformen über ihr Mobiltelefon aktiv ist, sind häufig auch raumbezogene Daten dabei – sei es direkt über das GPS des Geräts oder indirekt über eine WLAN- MAC- oder IP-Adresse. Damit ist es möglich, regionale Trends zu erkennen und darauf basierend gezielte lokale Maßnahmen einzusetzen.
Eine klassische EDV-Aussage lautet: "Müll rein, Müll raus". Bei Big Data könnte man sagen: "viel Müll rein, viel Müll raus". Data Scientists müssen also sicherstellen, dass sie ein gutes Verständnis der Eingangsdaten haben, sonst kommen Ergebnisse raus, die nichts mit der Realität zu tun haben. Da viele Entscheidungen negative Auswirkungen auf Menschen haben können, zum Beispiel in den Versicherungs- und Finanzbranchen, ist durchaus Vorsicht geboten.
F. Romeike: Der Aussage hinsichtlich "GIGO" (Garbage In, Garbage Out, Anm. d. Red.) kann ich nur zustimmen. Aber im konkreten Fall Brexit und US-Wahl sehe ich weniger das Risiko der "spurious relationship", also der Scheinkorrelationen, und auch nicht "GIGO". Kritisch zu bewerten ist hier vielmehr die Methode des "Voter Targeting". Basierend auf Big-Data-Analytics können Daten, die Bürger beispielsweise auf Facebook oder anderen sozialen Netzwerken und Blogs hinterlassen, analysiert werden, um ein psychologisches Profil zu erstellen und in einem nächsten Schritt Wähler zielgenau mit Wahlbotschaften und Fake-News zu versorgen. Das Unternehmen Cambridge Analytica hat sowohl bei der letzten US-Wahl für Trump derartige Analysen durchgeführt als auch für die "Brexit"-Befürworter (Leave.eu-Kampagne). Inwieweit die Big-Data-Experten tatsächlich die Wahl beeinflusst haben, ist unter Experten äußerst umstritten. Cambridge Analytica hat im Nachhinein auch die Beeinflussung des Brexit-Votums dementiert, nachdem die britische Datenschutzbeauftragte eine Untersuchung der Vorgänge eingeleitet hatte.
Fakt ist jedoch, dass eine solche Wählermanipulation mithilfe von Big-Data-Analytics und Fake News grundsätzlich möglich ist. Und darüber sollten wir einen kritischen Diskurs führen.
Wie lassen sich solche Fehlentwicklungen im Big-Data-Umfeld verhindern?
F. Romeike: Wenn die Zusammenhänge und Hypothesen nicht verstanden werden, bleiben die Muster und Korrelationen von Big Data weitgehend zufällig. Wir sollten uns davor hüten, in jeder statistischen Korrelation sofort eine Kausalität zu identifizieren. Basierend auf Kants "Kritik der Urteilskraft" existieren eine bestimmende sowie eine reflektierende Urteilskraft. Die bestimmende Urteilskraft subsumiert etwas Besonderes unter ein gegebenes Gesetz bzw. eine Regel, während die reflektierende zum gegebenen Besonderen das Allgemeine finden soll. Übertragen auf die Welt von "Big Data" und "Predictive Analytics" bedeutet dies, dass wir die massive Datenflut mit Theorien und Gesetzen verknüpfen müssen. Es sei hier an den bereits zitierten Newton erinnert.
Und was noch wichtiger ist: Wir müssen uns als Menschen und auch als Gesellschaft mit der Frage beschäftigen, wie viel (vermeintliche) Sicherheit und Vorhersehbarkeit auf der einen Seite sowie Freiheit und Risiko auf der anderen Seite gewünscht ist. Wünschen wir überhaupt eine solche Beschleunigung des menschlichen Erkenntnisprozesses – ohne emotionale und soziale Intelligenz?
E. McCutcheon: In meiner letzten Antwort habe ich von Vorsicht gesprochen. Vorsicht ist aber nicht mit Verbot gleichzusetzen. Durch die Nutzung von Big-Data-Analysen können Entscheidungen getroffen werden, die positive Auswirkungen haben. Einige Beispiele: Durch die Analyse von Mobilitätsdaten werden die Echtzeit-Verkehrsinformationen und -Verkehrsprognosen immer besser. Energieanbieter können dafür sorgen, dass die Stromproduktion dann anläuft, wenn Strom gebraucht wird. Lebensmittelfirmen können dafür sorgen, dass die richtige Menge an Frischprodukten in den Filialen zur richtigen Zeit verfügbar ist und weniger entsorgt werden muss. Wir bekommen Produkte und Dienstleistungen angeboten, die uns wirklich interessieren. Alles in allem meine ich, die Lebensqualität von uns individuell, aber auch die der Gesellschaft allgemein kann durch die Nutzung von Big Data gesteigert werden.
Jedoch denke ich, dass man in der Ausbildung von Data Scientists durchaus auf die Risiken des Missbrauchs hinweisen soll, ebenso wie auf mögliche Fehlerquellen. Zum Beispiel sollte man ihnen helfen, beim Design ihrer Analysen sogenannte "geschlossene Feedback Loops" zu vermeiden. Bei Studien oder Analysen wird oft vergessen, Kontrollgruppen zu bilden.
Darüber hinaus soll man nicht alles, was möglich ist, auch tun. Besonders wenn es um menschliche Existenzen geht, ist besondere Vorsicht geboten und hier könnte man sich durchaus auch gesetzliche Verbote vorstellen. Das Gros der Big-Data-Analysen betrifft aber nicht solche Themen. Allein die Natur bietet viele Gelegenheiten, Big-Data-Analysen durchzuführen. Die daraus gewonnenen Erkenntnisse können genutzt werden, um die Umwelt zu verbessern und im Agrarbereich Erträge zu steigern bei gleichzeitiger Verminderung der Verwendung von Kunstdünger.
Das heißt, es mangelt an methodischen Ansätzen in Organisationen, um zu einem "geordneten" Umgang mit der Datenflut zu gelangen?
E. McCutcheon: So könnte man das sehen, aber ich sehe die Situation differenzierter. Auf der einen Seite gibt es Organisationen, die bereits sehr weit vorgeschritten sind. In den meisten Organisationen aber geht es eher darum, die neuen Möglichkeiten und Herausforderungen zu verstehen und dann methodische Ansätze zu entwickeln. Meiner Meinung nach ist "Big Data" für die meisten Firmen heute noch kein Thema. Viele Organisationen setzen häufig "viele Daten" mit Big Data gleich. Aber in der allgemeinen Definition von Big Data ist von den "5 V" die Rede. Ich denke, das wichtigste "V" hierbei ist "Velocity" (Schnelllebigkeit). Dies bedeutet, dass sich die Daten stark innerhalb kurzer Zeitabstände verändern.
Da wir aber in den nächsten Jahren vor einer wahren Flut an echten "Big Data" stehen und immer mehr Organisationen betroffen sein werden, ist jetzt ein guter Zeitpunkt, sich mit diesem Thema auseinanderzusetzen. Immer mehr Sensoren werden in immer mehr Geräten verbaut und diese Sensoren werden über das Internet mit "Zuhause" verbunden. Neben reinen methodischen Ansätzen werden auch der Datenschutz (insbesondere von personenbezogenen Daten) und die Datenaufbewahrung adressiert werden müssen. Die Herausforderung für Organisationen wird sein, geeignete Menschen zu finden, welche die Konzepte verstehen, dann die Prozesse entwerfen und die notwendigen Kontrollen aufsetzen können. Aktuell sind solche Personen eher rar gesät.
F. Romeike: Ja, die Kompetenzen in den Themenfeldern sind nicht sehr ausgeprägt. Doch es fehlt nicht nur an methodischen Ansätzen. Ich würde noch einen Schritt weitergehen. Wenn Daten die Währung des 21. Jahrhunderts sein sollen, müssen sich Unternehmen fragen, wie sie das in den Daten schlummernde Wissen als Wettbewerbsvorteil nutzen können. Wie kann beispielsweise ein Versicherer oder eine Bank die Kundendaten nutzen, um gegen die neuen Wettbewerber aus der Datenwelt (Google, Facebook, Amazon & Co.) bestehen zu können? Auch wenn Big Data Fluch und Segen zugleich ist: Viele Unternehmen, die sich hierzu nicht strategisch aufstellen, werden im Wettbewerb zu den "Born Globals" und Datenkraken auf der Strecke bleiben. Unternehmen benötigen zunächst erstmal eine Strategie für "Big Data", bevor sie sich überlegen, wie sie die Daten analysieren und gewinnbringend einsetzen können. Bei der Erstellung der Strategie sollten Unternehmen unter anderem folgende Punkte berücksichtigen: Verknüpfung der Geschäftsstrategie zur Big-Data-Strategie, Data Governance, Data Culture, Management von Big Data sowie Methoden und Werkzeuge. Anschließend sollten Unternehmen eine "Big Data Policy" veröffentlichen, um Kunden, Mitarbeitern und der Öffentlichkeit transparent zu machen, in welcher Form Daten gesammelt werden und was damit passiert.
Sind hier nicht Wirtschaft und Wissenschaft stärker gefragt, um das notwendige Wissen im Umgang mit der Digitalisierung und Big Data weiter auszubauen und weniger Worthülsen zu produzieren?
F. Romeike: Bei einem euphorischen Hype-Thema haben es konstruktive Kritiker nicht einfach. Doch es gibt sowohl in der Wirtschaft als auch in der Wissenschaft viele Kritiker, die die neue Berechnung der Welt mithilfe von "Big Data" kritisch bewerten. Big-Data-Protagonisten verkünden das "Ende der Theorie" – und auf der anderen Seite des Kritikerspektrums wird darauf hingewiesen, dass wir uns auf die Theorien, Gesetze und die Geschichte besinnen sollten, die zu der Welt geführt haben, in der wir heute leben. Aus meiner Sicht fehlt ein entscheidender Schritt: Wir müssen die Diskussion, die in der Wissenschaft stattfinden, in die Gesellschaft transportieren. Hier spielen kritische Journalisten und Politiker eine entscheidende Rolle. Außerdem benötigen wir eine höhere Transparenz der Algorithmen. Und wir sollten uns alle davor hüten, Big Data zur Allzweckwaffe hochzustilisieren. Ergänzend würde ich allen Schülern und Studenten sowie allen Bürgern den Dokumentarfilm "Democracy – Im Rausch der Daten" schenken, damit wir alle mehr über den Zustand der heutigen Demokratie und den Windmühlenkampf in der digitalen Welt erfahren.
E. McCutcheon: Natürlich sind Wirtschaft und Wissenschaft gefragt, aber die rasante Entwicklung in diesen und anderen Bereichen überfordert ein Stück weit das gesamte System. Die Wirtschaft kann nicht in jede neue Idee und Technologie investieren und nicht jeder Trend trägt zum unternehmerischen Erfolg bei. Bei der Wissenschaft ist es vergleichbar. Den Begriff "Data Scientist" gibt es in Deutschland noch nicht lange und einige Universitäten sind gerade noch dabei, Studiengänge in "Data Science" einzurichten.
Ja, meiner Meinung nach geht es hier zunächst in der Tat noch um viele "Worthülsen". Viele Leser kennen die "Hype Curve" der Gartner Group, da sind viele Big-Data-Themen noch in den Bereichen von "Innovation Trigger" und "Peak of Inflated Expections" zu finden.
Das "InGeoForum" hat einige Veranstaltungen zu dem Thema "Big Data" durchgeführt und auch hier ist festzustellen, dass Ideen und Ansätze da sind, aber die tatsächliche Implementierung noch aussteht. Das "InGeoForum" wird seinen Fokus künftig auf die Möglichkeiten von Big Data für die Geobranche selbst legen und weniger auf umgesetzte Kundenprojekte, da es einfach in Deutschland zu wenig davon gibt.
Auf den DDS Data Days in Heidelberg bieten wir zu diesem Thema einen Impulsvortrag "Geo Intelligence – wie aus Big Data Local Success wird" und anschließend eine Diskussionsrunde über "Geomarketing-Ansätze mit Big Data: der aktuelle Stand". Salopp gesagt, auch wenn man sich erst jetzt mit dem Thema Big Data befasst, hat man das Boot nicht verpasst. Es liegt noch am Kai und man kann noch einsteigen.
Wenn Sie nach vorne schauen: Welche Entwicklungen werden Big-Data-Methoden in den kommenden Jahren nehmen und wie können Unternehmen zukünftig davon profitieren?
F. Romeike: Ohne Vertrauen gibt es keine digitale Wirtschaft. Bevor Unternehmen überhaupt erst aus Big-Data-Analytics Erträge erwirtschaften können, sollten sie erst einmal transparente und klare Regeln schaffen, damit die Bürger wissen, wer was mit ihren Daten anstellt. Die Menschen werden irgendwann verstehen, dass sie mit jedem Klick und jedem Download, jedem Facebook-Eintrag und bestellten Buch und jeder Kreditkartenzahlung im World Wide Web einen digitalen Fingerabdruck hinterlassen und gläserner werden. Sind wir damit einverstanden, dass diese Datenbestände auf wenige Unternehmen konzentriert werden, wodurch eine schier unglaubliche informationelle Macht resultiert? Insbesondere im "Internet of everything" benötigen wir einen klaren Rechtsrahmen, denn das Recht auf Privatsphäre ist kein Auslaufmodell. In den nächsten Jahren wird sich ein neues Datenrechtsbewusstsein formieren – davon bin ich überzeugt. Denn erst langsam verstehen wir die Überwachungspraktiken der Datensammler. "Big Data" des einen ist die Hehlerware des anderen. Wollen wir wirklich, dass künstliche Intelligenz den Menschen ablöst? Wollen wir wirklich, dass eine unkontrollierbare Überwachungsmaschinerie uns auf Schritt und Tritt begleitet? Big Data, Nudging, Verhaltenssteuerung: Wollen wir unser Leben und Denken von Algorithmen definieren lassen? Wollen wir mit Dingen kommunizieren und mit ihnen zu einem einzigen Superorganismus zusammenwachsen? Wollen wir, dass Kriminelle, Terroristen oder Extremisten den digitalen Zauberstab von Big Data unter ihre Kontrolle bringen? Wir stehen am digitalen Scheideweg und sollten uns an Immanuel Kant erinnern: "Unmündigkeit ist das Unvermögen, sich seines Verstands ohne Leitung eines anderen zu bedienen."
E. McCutcheon: Zu dieser Frage habe ich in meinen vorherigen Antworten schon einiges ausgeführt. Zunächst aber würde ich sagen, dass die Frage aus meiner Sicht nicht ganz richtig formuliert ist. Ich glaube nicht, dass bei den Methoden spannende Entwicklungen zu finden sein werden. Vielmehr wird es in den kommenden Jahren die schiere Menge und Verfügbarkeiten an "echten" Big Data und die Anwendung der bestehenden Methoden sein, wovon Unternehmen und Organisationen profitieren können.
Sobald Produkte mit eingebauten Sensoren eine signifikante Verbreitung gefunden haben – hierzu zählen auch die autonom fahrenden Autos –, wird statt von einer Flut an Daten eher von einem Tsunami die Rede sein können. Dann wird es richtig interessant sein zu sehen, welche Erkenntnisse aus den Daten zu gewinnen sind und wo alle diese Daten gespeichert werden. Und genau darin liegt die Herausforderung für Unternehmen und Organisationen.
Basierend auf diesen Daten können Geschäftsprozesse und Entscheidungsprozesse optimiert und sogar automatisiert werden. Zum Beispiel können Aufträge für die Durchführung von Wartungsarbeiten und Reparaturen vergeben werden, bevor der Kunde überhaupt weiß, dass sie nötig sind. Die passenden Ersatzteile sind schon bestellt und liegen im richtigen Servicezentrum vor. Ressourcen und Aufwendungen werden gespart. Ebenso wird, sofern die Kundenerwartungen die tatsächlichen Möglichkeiten nicht übersteigen, die Kundenzufriedenheit steigen.
Um davon zu profitieren, wird es wichtig sein, die Ängste der Menschen zu berücksichtigen. Durch die Anwendung von Big-Data-Methoden können Menschen sehr schnell das Gefühl bekommen, ständig und in allen Lebenslagen überwacht zu werden. Es ist heute schon so, dass, wenn von "Big Data" die Rede ist, viele Menschen spontan an die NSA denken. Wenn nicht frühzeitig darauf eingegangen wird, könnte es zu negativen Entwicklungen (Verbote, Kontrollen) kommen, die sich wiederum auf die Möglichkeiten auswirken können. Dies gilt es von Anfang an zu vermeiden.
Meine Herren, vielen Dank für das Gespräch!
Unsere Interviewpartner
Ernest McCutcheon
Nach seinem Volkswirtschaftsstudium an der University of North Carolina in Chapel Hill, USA, kam Ernest McCutcheon 1981 nach Deutschland und schloss an der Universität Düsseldorf ein Aufbaustudium an. 1982 trat er eine Anstellung bei der Kaypro Computervertriebs GmbH an und übernahm bald darauf die Vertriebsleitung. Nach seinem Wechsel zur späteren DAT Informationssysteme AG im Jahr 1986 war Ernest McCutcheon Leiter von Marketing und internationalem Vertrieb, bevor ihm 1990 die Leitung der Geschäftsstelle Technische Anwendungen übertragen wurde. Als Distributor der GIS-Software MapInfo war die DAT einer der Vorreiter in der Branche. Aus dieser Erfahrung heraus gründete Ernest McCutcheon 1993 die Desktop Data Services, aus der nach einem Joint Venture mit der PTV Group die DDS Digital Data Services GmbH wurde. Heute ist die DDS einer der führenden Anbieter von raumbezogenen Daten und Software für Desktop-Mapping-Anwendungen. Darüber hinaus wurde Ernest McCutcheon im Januar 2001 bis 2007 in die Geschäftsleitung der Map&Guide GmbH berufen und gilt heute mit über 20 Jahren Markterfahrung in den unterschiedlichsten Bereichen der Geoinformation als Experte für Geodaten.
Frank Romeike
Er ist Gründer, Geschäftsführer und Eigentümer des Kompetenzzentrums RiskNET GmbH – The Risk Management Network. Er zählt international zu den renommiertesten und führenden Experten für Risiko- und Chancenmanagement. In seiner beruflichen Vergangenheit war er Chief Risk Officer bei der IBM Central Europe, wo er u. a. an der Einführung des weltweiten Risk-Management-Prozesses der IBM beteiligt war und mehrere internationale Projekte leitete. Er hat u. a. ein wirtschaftswissenschaftliches Studium (mit Schwerpunkt Versicherungsmathematik) in Köln und Norwich/UK abgeschlossen. Im Anschluss hat er Politikwissenschaften, Psychologie und Philosophie studiert. Außerdem hat er ein exekutives Masterstudium im Bereich Risiko- und Compliancemanagement abgeschlossen.
[Quelle: gis.Business 5/2017, S. 34-42 | Wir bedanken uns bei der gis.Business-Redaktion für die Genehmigung einer Veröffentlichung auf RiskNET]