Experten-Interview

Prof. Dr. Lutz Heuser
zum Thema Daten

Über das Thema Daten, deren Umgang und Sicherheit haben wir 
Prof. Dr. Lutz Heuser ebenfalls
zu Wort kommen lassen.

Für jegliche Anwendung und Auswertung müssen Daten erhoben und verarbeitet werden. Wie wird man dieser Fülle an Daten Herr?

Prof. Heuser: In den vergangenen Jahren haben wir in der IT eine wichtige Entwicklung erfolgreich absolviert, die „Big Data“-Analyse. Diese setzen auch wir ein. Eine enorme Datenfülle und -sammlung gab und gibt es in Unternehmen schon immer. Denken Sie an Großkonzerne, die beispielsweise monatlich ihre Rechnungen verschicken.
Durch die Big Data-Algorithmen ist man in der Lage, Daten in Echtzeit zu verarbeiten. Früher wurde die Datenverarbeitung im sogenannten „batch“ angestoßen. Der Rechenzeitraum dauerte 4 Wochen, dann wurde die Rechnung versendet. Mit der neuen Big Data-Technologie, die es seit rund 5 bis 6 Jahren gibt, kann man den gesamten Verarbeitungsprozess so reduzieren, dass – je nach Problemstellung – alles in unter einer Sekunde oder maximal in ein paar wenigen Minuten berechnet werden kann. Die dahinterliegende Technologie zur Auswertung der Daten ist das maschinelle Lernen und die künstliche Intelligenz.
Nichts desto trotz kann man sagen, dass es in 10 oder 15 Jahren Datenfüllen geben wird, die mit der heutigen Rechner-
architektur nicht mehr berechenbar sein werden. D.h. es gibt einen Zeitpunkt, zu dem es eine neue Rechnerarchitektur geben wird, die ganz anders aussehen muss, als die, die wir heute nutzen.
Im Smart-City-Bereich wird das für uns kurzfristig kein Thema sein. Es ist im Moment in der Grundlagenforschung ein Thema, das gerade in die angewandte Forschung übergeht. Die ersten Rechner dieser Generation wird man irgendwann Anfang des nächsten Jahrzehnts in Betrieb nehmen. Dann wird man sehen, in welcher Geschwindigkeit diese Rechner sich weiterentwickeln.

Wie wird diese Fülle an Daten auf das Wesentliche reduziert?

Prof. Heuser: Den Kern von Smart City kann man in zwei Felder unterteilen – das wird nicht ewig so sein, aber im Moment trifft das zu: Die Menschen wollen „predictions“, also Vorhersagen. Diese sind eine Kombination aus aktueller Situation und Historiendaten, also Erfahrungen aus der Vergangenheit. Das ist das klassische „machine learning“-Prinzip. Aus Historien-
daten und Ist-Daten werden Prognosen für eine bestimmte Zeit abgeleitet. Diese Methode wird für das Parken, für den Verkehr, für ÖPNV-Übergänge und für die Energieverteilung angewendet. Ein gewaltiger Datensatz wird beispielsweise auf eine einzige Aussage reduziert: „Die Ampel schaltet in 15 Sekunden auf Grün“.
Die andere Kategorie nennt man ereignisgesteuert. Irgendetwas ist passiert und weil das passiert ist, wird eine andere Aktion ausgelöst. Meistens ist dieses Ereignis nicht ein einzelnes Ereignis, sondern eine Kombination von Ereignissen – also Ereignisketten – und der englische Fachausdruck dafür ist „complex event processing“. Viele Einzelevents ergeben zusammen ein komplexes Event.
Solch komplexe Events muss man beschreiben können. Man muss eine Wenn-Dann-Kombination programmieren, die in der zutreffenden Situation veranlasst, eine Aktion auszulösen. Zum Beispiel, dass bei erkannter Gefahr eine Leuchte die Beleuchtungsstärke auf 100 Prozent hochfährt und gleichzeitig einen Notruf absetzt.

Wie werden diese Daten „kompatibel“ zu bestehenden Datenformaten und -systemen einer Stadt oder Kommune oder baut sich hier eine „Parallelwelt“ auf?

Prof. Heuser: Das ist eine sehr zeitgemäße Frage. Dazu gibt es die Bestrebungen über den DIN Standard, der offenen urbanen Datenplattform. Das war sozusagen der erste Schritt. In einem zweiten Schritt diskutieren wir gerade mit dem DIN eine Ergänzung zum DIN 91357 – die offene urbane Datenplattform – bei dem es genau um die Kompatibilität der Datenformate geht, damit noch mehr Planungssicherheit gegeben ist – nicht nur in der Art und Weise, wie die Plattform aufgebaut ist, sondern auch wie die Datenformate aussehen sollten.
Wir vergleichen das derzeit mit dem „EDIFACT“-Standard aus der Wirtschaft – das ist ein branchenübergreifender internationaler Standard für das Format elektronischer Daten im Geschäftsverkehr. EDIFACT sagt, wie zum Beispiel eine Rechnung, eine Adresse oder ein Angebot aussehen muss. Dadurch ist man in der Lage, Rechnungen und Angebote zwischen Maschinen – also Computern – online zu verarbeiten.
Eine solche EDIFACT-artige Idee wollen wir für kommunale Daten diskutieren. Es gibt gewisse Gemeinsamkeiten, die in allen Städten gleich sind. Diese Gemeinsamkeiten wollen wir in ein gemeinsames Datenmodell packen. Es gibt dazu schon Vorschläge, aber noch keinen Standard.

Bedeutet es für die Kommune einen Mehraufwand?

Prof. Heuser: Nein. Hier kommen wir auf die Schlagworte „re-use“ und „re-purpose“, d. h.: Wiederverwenden und nutzen der vorhandenen Daten. Die Tatsache, dass wir die Daten miteinander zusammenführen und nutzen, bildet keinen Mehraufwand.
Was natürlich notwendig ist: Die digitale Transformation ist eine Investition. Sie kommt nicht kostenlos. Natürlich muss eine Stadt einen Mehraufwand betreiben, um die digitale Transformation zu leisten, aber dafür wird auch etwas zurückgespielt, das diesen Mehraufwand rechtfertigt.

Es gibt in Sachen Daten sicherlich Themen, die sehr kritisch zu betrachten sind,
z.B. die Datensicherheit. Wie gehen Sie damit um bzw. was empfehlen Sie Ihren Kunden? 

Prof. Heuser: Aktuell ist für Deutschland, wo wir sehr strenge Auflagen haben, die Tendenz, dass die jeweiligen „sensiblen Komponenten“, wie z.B. eine Kamera, die Verarbeitung der Daten im Gerät selbst vornehmen. Der IT-Fachmann spricht hier vom „edge computing“, also das „Rechnen an den Ecken des Netzes“. Von diesen Geräten wird folglich nicht das Bild an sich übertragen, sondern nur die Auswertung des Bildes. Damit wird sichergestellt, dass die Privatsphäre der Personen, die dort zu sehen sind, gewahrt bleibt.
Auch werden in Städten viele Ampelanlagen kameragesteuert betrieben. Die Kameras geben dabei weder das einzelne Nummernschild noch das Fahrzeugmodell weiter, wohl aber die Anzahl und die Art der Fahrzeuge (also PKW, LKW oder Bus). Wenn ein Bild weitergegeben werden muss, erfolgt das in verpixelter Form. Das stellt die Komponente sicher und garantiert damit die Einhaltung der Datenschutzgrundverordnung. Folglich wird mit Daten gearbeitet, die nicht personenbezogen sind.
Anders gestaltet es sich, wenn es sich um hoheitliche Aufgaben handelt. Deswegen können derzeit Daten-Infrastrukturen zwischen Polizei und Dritten nicht genutzt werden. Die Polizei hat die gesetzliche Berechtigung und die hoheitliche Aufgabe, beispielsweise an Flughäfen oder Bahnhöfen, Personen auf Bildern zu identifizieren. Das hat nichts mit der Datenschutzgrundverordnung zu tun. Und man darf diese Daten mit anderen kommunalen Daten nicht in einem Datensatz vermischen.
Blendet man die hoheitlichen Aufgaben aus, können die Daten unter Einhaltung der Datenschutzgrundverordnung genutzt werden. Das wird in diesen urbanen Datenplattformen gemacht. Wir verarbeiten in unseren Plattformen keine personenbezogenen Daten, sondern ausschließlich Daten, die keinerlei Rückschlüsse auf Personen ermöglichen.
Das trifft sogar auf WiFi-Daten zu, die wir aus den Routern bekommen. Die Router filtern das aus, denn diese Informationen dürfen den Router nicht verlassen. Für diese Wiederverwendung nach dem genannten Prinzip „re-use and re-purpose“ erfahren wir nur: Dort war eine Person und sie hat sich in diesem Zeitraum dort aufgehalten. Wer das genau war, das erfahren wir nicht. Es wird immer in den Geräten selbst geregelt. Insofern sind, und da wiederhole ich mich gerne, die Daten, mit denen wir arbeiten, durch die Datensicherheitsthematik abgedeckt.
Im Sinne von Eingriff in kritische Infrastrukturen muss man das durch die Rechnerarchitektur regeln. Das haben wir auch in der DIN beschrieben. Wir als Unternehmen stellen einen sogenannten „Gateway-Server“ hinter die Firewall und holen die Daten damit ab. So ist das eigentliche System nicht unmittelbar an das Internet angeschlossen und damit kommen unsere Kunden (z.B. Stadtwerke und Infrastrukturbetreiber) bestens klar.
Das heißt, die Datensicherheit der Management-Systeme wird über Gateways und die personenbezogene Datensicherheit wird mittels der Verarbeitung über das „edge computing“ in den Geräten vor Ort geregelt.
In dem Fall, dass die Datenplattform gehackt wird, sind die ganzen Services davon betroffen. Da muss man die üblichen Datensicherheitskriterien an den Tag legen, die immer gewährleistet sein müssen, wenn man einen Service wie unseren im Internet betreibt. Dazu bedienen wir uns der Cloud-Services von Microsoft oder SAP, die diese Mechanismen im Rahmen der Cloud-Infrastruktur zur Verfügung stellen und deren Standards sehr hoch sind.
Damit haben wir die drei wichtigsten Komponenten: sicherer Zugang der Daten, Anonymisierung wo notwendig und Nutzung der IT-Sicherheitsinfrastruktur großer Cloud-Anbieter.

Gibt es in diesem Bereich Standards oder ist es geplant, solche einzuführen?

Prof. Heuser: Neben der bereits erwähnten DIN 91357 gibt es auch die DIN 91347. Letztere bezieht sich auf den imHLa, das ist die Straßenbeleuchtung im Sinne des digitalen Hubs. Die erstgenannte DIN 91357 sind die offenen urbanen Datenplattformen.
Zurzeit wird die DIN 91367 entwickelt. Dabei geht es um die mobilen Daten, d.h. welche Mobilitätsdaten müsste eine Stadt überhaupt zur Verfügung stellen, um diese neuen Echtzeitanwendungen zu ermöglichen. Und die DIN 91377 ist vorreserviert für den gemeinsamen Datenstandard, über den wir auch schon gesprochen haben.
Es gibt eine ganze Serie von Standards, die aufeinander aufbauend diese Thematik adressieren. Es gibt jedoch nicht den einen Smart-City-Standard, das wäre viel zu komplex. Man teilt den gesamten Themenkomplex in kleinere Einheiten auf, um diese besser zu verarbeiten.