Interview – Erfolgreiche Big Data Projekte mit DataLab

Anonymisierung von Daten ist ein essenzielles Thema

Data Science Blog: Führen Sie auch Telekom-interne Projekte durch?

Ja, wir nutzen unsere internen Projekte auch zur Erprobung unserer eigenen Leistungen, so dass wir unseren Kunden ausgereifte Leistungen anbieten können. Interne Projekte sind u.a. Fraud-Detection und unser eigenes Customer Analytics, um unseren Kunden stets ein sicheres und attraktives Angebot machen zu können.

Ein zurzeit wichtiges internes Projekt ist die Synthetisierung von Daten, das ist ein datenschutzrelevantes Thema. Die Anonymisierung von Daten ist ein essenzielles Thema, denn  unter bestimmten Umständen könnten selbst in anonymen Datenbeständen durch Kombination von gewissen Merkmalen einzelne Personen  wieder identifiziert werden. Deshalb haben wir Algorithmen entwickelt, die statistische Zwillinge aus den Realdaten bilden, aber absolut keinen Bezug mehr zu den Ursprungsdaten ermöglichen.

Data Science Blog: Der Datenschutz scheint den kreativen Umgang mit Daten also ziemlich einzuschränken?

Unser deutscher Datenschutz ist sicherlich nicht übertrieben. Als Telekommunikationsunternehmen müssen wir unsere Kunden vor Datenmissbrauch schützen. Wir haben 60 feste Mitarbeiter, die nur für den Datenschutz zuständig sind und diese sind bei jedem Projekt von Anfang an mit eingebunden.

Aber selbst wenn der Datenschutz eingeräumt ist, müssen die Analysen nicht zwangsweise gut sein. Wir möchten Daten nur dann nutzen, wenn die Kunden auch einen Vorteil davon haben.

Als Deutsche Telekom haben wir darüber hinaus den Vorteil, dass unsere Daten nachweislich ausschließlich in unseren eigenen deutschen Rechenzentren  verbleiben, das heißt sie unterliegen ununterbrochen dem strengen deutschen Datenschutz.

Data Science Blog: Welche Algorithmen und Tools verwenden Sie für Ihre Anwendungsfälle?

Das hängt natürlich ganz von den Anwendungsfällen ab. Selten deckt ein Tool alleine den kompletten Bedarf ab, daher kombinieren wir in der Regel viele Tools miteinander. Als Programmiersprache setzen wir vor allem auf Scala, R und Python. Für die Infrastruktur nutzen wir aktuell die Hadoop Distributionen von Cloudera und Hortonworks, sowie z.B. Storm, Spark, Datameer, KNIME, Flink und als Cloud-Plattform Pivotal, sowie Tableau zur Datenvisualisierung. Wir versuchen uns stets auf wenige Toolanbieter zu einigen, müssen jedoch auch Kompromisse eingehen, da wir in mehreren unterschiedlichen Ländern arbeiten.

Stellen wir fest, dass notwendige Lösungen noch nicht vorhanden sind, realisieren wir diese selber. Daher können wir auch als eigene Lösungsentwickler betrachtet werden.

Data Science Blog: Woher beziehen Sie Ihr technisches Know-How?

Unser DataLab in Berlin besteht aus 12 Mitarbeitern. Wir arbeiten jedoch eng mit unseren Kollegen von T-Systems zusammen und sind selbst ein An-Institut der Technischen Universität Berlin, aus der wir einen Großteil unserer Kompetenz für Machine Learning schöpfen. Wie entwickeln aber auch Systeme mit der Ben-Gurion-University in Israel und der Berkeley University of California.

Außerdem arbeiten wir bei einigen Anwendungen mit Motionlogic zusammen, einer 100%-Tochter der Deutschen Telekom, die in den T-Labs entstanden ist und sich auf fundierte Analysen von Verkehrs- und Bewegungsströmen spezialisiert hat, die auf anonymen Signalisierungsdaten aus dem Mobilfunk- und WiFi-Netz basieren.

Data Science Blog: Wie stellen Sie ein Data Science Team auf? Und suchen Sie für dieses Team eher Nerds oder extrovertierte Beratertypen?

Ich selbst stehe ganz hinter den Nerds, aber für ein gutes Team braucht es eine Kombination. Neben der analytischen Denkweise ist vor allem die Flexibilität, sich auf neue Themen und Teamarbeit einzulassen, sehr wichtig. Nerds bilden sowas wie einen Kern der Data Science Teams und bringen gute Ideen ein, auf die etablierte Geschäftsleute nicht so leicht kommen. Schafft man es, diese Nerds mit den Kollegen aus den Fachbereichen, beim Customer Analytics also die Marketing-Experten, zusammen zu bringen und dass sie sich gegenseitig anerkennen, dann steht dem Erfolg nichts mehr im Wege.

Benjamin Aunkofer

Benjamin Aunkofer ist Lead Data Scientist bei DATANOMIQ und Hochschul-Dozent für Data Science und Data Strategy. Darüber hinaus arbeitet er als Interim Head of Business Intelligence und gibt Seminare/Workshops zu den Themen BI, Data Science und Machine Learning für Unternehmen.

0 replies

Leave a Reply

Want to join the discussion?
Feel free to contribute!

Leave a Reply

Your email address will not be published. Required fields are marked *

7824 Views