Seit etwas über dreieinhalb Jahren arbeitet Tehseen bei iteratec. Zuvor absolvierte er ein Studium in theoretischer und mathematischer Physik, in dem er anschließend auch promovierte. Nach seiner Promotion sammelte Tehseen in einer IT-Beratung wertvolle Erfahrung, bevor er 2019 zu iteratec kam. Hier war er zunächst in agilen Softwareentwicklungsprojekten aktiv. 2021 entschied sich Tehseen einen neuen Weg zu gehen und in den Data-Bereich zu wechseln.
Im Interview gibt er spannende Einblicke in sein aktuelles Projekt und verrät, wieso er sich für den Wechsel in den Data-Bereich entschieden hat.
Ich arbeite zurzeit an einer Webapplikation, die mittels maschinellen Lernens dabei hilft, den CO2 Ausstoß bei der Zement- und Betonherstellung zu minimieren.
Wir verwenden Python, Flask und diverse Machine Learning Bibliotheken. Im Frontend setzen wir auf Vanilla Javascript. Außerdem verwenden wir Bash Skripte und Heroku für unser Deployment, sowie Gatling um Lasttest durchzuführen.
Ich beschäftige mich mit den Themen Data Engineering und Data Science. Hierbei implementiere ich sowohl Machine Learning Algorithmen als auch das Backend und Frontend unserer Anwendung.
... designe ich die Architektur und unterstütze bei der Anforderungsanalyse. Zudem übernehme ich einige Aufgaben eines agilen Coaches.
Der Product Owner und ein Entwickler sind von unserem Kunden. Die anderen Teammitglieder sind alle von iteratec. Die Architektur designe ich in enger Absprache mit allen Teammitgliedern.
Die Machine Learning Algorithmen müssen trotz weniger Referenzdatenpunkte Vorhersagen für neue Zementrezepturen liefern können. Das erfordert spezielle Machine Learning-Ansätze.
Bereits in meinem Physikstudium haben mich mathematische Modelle und datenbasierte Probleme fasziniert. Daher war es für mich ein sinnvoller Schritt, mich in diesem Bereich bei iteratec weiterzuentwickeln und jetzt an der Schnittstelle von Software und datengetriebenen Fragestellungen zu arbeiten.
Als Vorbereitung für mein nächstes Projekt habe ich ein Training zu speziellen Features von Spark im Big Data-Umfeld absolviert.
Da fallen mir spontan sogar drei ein: