Daten sollen Menschen dienen und nicht umgekehrt. Der gesellschaftlich richtige Umgang mit Daten ist eine der zentralen Herausforderungen unserer Zeit. Auf der herCAREER Expo 2023 hat die Journalistin Stefanie Hornung mit Prof. Dr. Frauke Kreuter, unter anderem Professorin für Statistik und Data Science an der LMU München, und Dr. Enise Lauterbach, CEO & Co-Gründerin von LEMOA medical, über dieses Thema gesprochen.

Gemeinsam haben die beiden Gästinnen, dass sie Beiträge für den Band “Women in Data Science – Female Role Models in AI & ML” verfasst haben, herausgegeben von Özlem Doger Herter.

Abonniere den herCAREER Podcast bei Apple Podcasts, Spotify oder wo immer du deine Podcasts hörst.

Thema

Wirtschaft, Arbeit & New Work | Wissenschaft, Technik, Digitalisierung & Technologie

Angaben zur Referentinnen

Prof. Dr. Frauke Kreuter is the Professor of Statistics and Data Science in Social Sciences and the Humanities at the Ludwig-Maximilians-University of Munich, Germany; Co-director of the Social Data Science Center (SoDa), and faculty member in the Joint Program in Survey Methodology (JPSM) at the University of Maryland, USA. Previous engagements include being head of the statistical methods group at the Institute for Employment Research (IAB) in Nuremberg, Germany, research fellow at Meta Inc. Currently she is president of the American Association for Public Opinion Research and visiting researcher at the Simon’s Institute in Berkeley. She is an elected fellow of the American Statistical Association and the 2020 recipient of the Warren Mitofsky Innovators Award. In addition to her academic work, Dr. Kreuter is the Founder of the International Program for Survey and Data Science, developed in response to the increasing demand from researchers and practitioners for the appropriate methods and right tools to face a changing data environment; Co-Founder of the Coleridge Initiative, whose goal is to accelerate data-driven research and policy around human beings and their interactions for program management, policy development, and scholarly purposes by enabling efficient, effective, and secure access to sensitive data about society and the economy; and Co-Founder of the German language podcast Dig Deep.

Dr. med. Enise Lauterbach ist Ärztin und Gründerin der LEMOA medical. Die Internistin und Kardiologin gründete im Frühjahr 2020 ein Health-Tech Startup. Die mehrfach ausgezeichnete Gründerin gilt als Pionierin der Digitalmedizin. Die Medizin der Zukunft sieht die Gründerin klar in digitalen Versorgungsformen, die komplementär zur analogen Medizin koexistieren. Sie entwickelt und forscht an einer digitalen Gesundheitsanwendung für Patienten mit Herzerkrankungen, die eine geschlechtsspezifische Versorgung zum Ziel hat. Geschlechtergerechte Medizin in der Herzmedizin ist bisher keine Selbstverständlichkeit, fehlende Daten zur Frauengesundheit sind auch 2023 ein großes Problem. „Digitale Innovationen müssen für beide Geschlechter funktionieren“, so die Kardiologin. Sie setzte früh den Fokus auf das Thema Data Gap, um bestehende Datenlücken in der Herzgesundheit von Frauen zu schließen.
Da Prävention bekanntlich noch immer die beste Medizin ist, hat Dr. Enise Lauterbach gemeinsam mit ihrer Schwester Fatma Mittler-Solak, der Spiegel-Kolumnistin und ARD-Moderatorin das Buch: „Kala? Kala! Unsere kretische Kardio-Küche.“ im EMF herausgebracht.
Die gebürtige Pfälzerin, Tochter türkischer Gastarbeiter lebt mit ihrem Mann und ihren beiden Kindern in Trier.

Stefanie Hornung beschäftigt sich als Journalistin und Autorin seit mehr als fünfzehn Jahren mit Fragen der Arbeitswelt und der Chancengleichheit. Sie schreibt regelmäßig zu Personal- und Management-Themen im Personalmagazin und im Magazin neues lernen.
Seit 2017 untersucht sie, wie Unternehmen Entlohnung fairer gestalten können, und veröffentlichte dazu in einem Autorenkollektiv die Bücher „New Pay“ (2019) und „New Pay Journey“ (2023). Sie treibt das Thema auch als Mitgründerin des „New Pay Collective“ voran, einem Netzwerk, das Organisationen bei der Neugestaltung ihrer Vergütungssysteme begleitet und Forschung zu Vergütungsprozessen anstößt. Außerdem ist sie Referentin des New Pay Campus zu den Schwerpunkten Leistung und Kommunikation. Aus ihrer Feder stammt der Newsletter „Gehaltvolle Zeilen“, der regelmäßig über neue Formen der Entlohnung und gesellschaftliche Entwicklungen rund um das Thema Geld und Gehalt berichtet.
In Freiburg i. Br. studierte Stefanie Hornung Germanistik, Romanistik (Spanisch) und Geschichte. Sie war viele Jahre Pressesprecherin der größten deutschen Personalfachmesse, der Zukunft Personal (heute: Zukunft Personal Europe), und Chefredakteurin des Online-Portals HRM.de. Heute lebe und arbeitet sie in Tübingen.

Der Beitrag wurde im Rahmen der herCAREER Expo 2023 aufgezeichnet und als Podcast aufbereitet.

Abonniere den Podcast herCAREER Voice auf Apple PodcastsSpotify oder wo immer du deine Podcasts hörst

00: 00:00 Enise Lauterbach: In der Medizin ist der Mann die Norm. Diese Datenlücke führt zu ziemlich gefährlichen Situationen wie Fehlbehandlungen, Falschbehandlungen. Und deshalb lege ich einen Fokus genau auf diese Lücke. Ich erhebe die Daten der Frauen.

00: 00:33 Julia Hägele: Herzlich willkommen beim herCareer Podcast. Hier kommen Menschen zu Wort, die sich für eine vielfältige und gerechte Arbeitswelt einsetzen. Von der herCareer Expo Live und aus der herCareer Community. Daten sollen Menschen dienen und nicht umgekehrt. Der gesellschaftlich richtige Umgang mit Daten ist eine der zentralen Herausforderungen unserer Zeit. Auf der herCareer Expo 2023 hat die Journalistin Stefanie Hornung mit Professor Dr. Frauke Kreuter, unter anderem Professorin für Statistik und Data Science an der LMU München, und Dr. Enise Lauterbach, CEO und Co-Gründerin von Lemoa Medical, über dieses Thema gesprochen. Gemeinsam haben die beiden Gästinnen, dass sie Beiträge für den Band „Women in Data Science. Female Role Models in AI“ verfasst haben, herausgegeben von Özlem Doger-Herter.

00: 01:41 Stefanie Hornung: Wir erleben aktuell eine große Datafizierung, eine Art Datenrevolution. Die schiere Menge der Daten, die wir verarbeiten in Unternehmen und Organisationen, wächst exponentiell. Und das birgt natürlich Chancen, aber auch sehr viele Risiken. Und eines dieser Risiken ist, dass Frauen diesen Berufsfeld noch die Minderheit sind. Warum ist es kritisch? Warum sollten sich Frauen für das Berufsfeld interessieren? Und wie sieht das eigentlich genau aus, dieses Berufsfeld? Und wie sollten wir alle mit Daten umgehen, um Diversität zu leben und zu fördern? Das sind Fragen, auf die wir jetzt gemeinsam Antworten suchen. Mein Name ist Stefanie Hornung. Ich bin freie Journalistin und Autorin. Ich bin auch Initiatorin der New-Pay-Bewegung, die sich mit neuen Formen der Vergütung beschäftigt. Ein anderes Thema, hat aber auch ein bisschen mit Daten zu tun. Rechts von mir sitzt Professor Dr. Frauke Kreuter, und zu meiner Linken sitzt Dr. Enise Lauterbach. Und das Spannende finde ich in dieser Runde: Beide machen so was mit Daten. Aber sie sind keine Mathematikerinnen, sie sind keine Informatikerinnen. Das zeigt und das sieht man auch bei den anderen Beiträgen im Buch, das zeigt, es führen viele Wege in die Datenwissenschaft. Frauke, da würde ich gerne mal bei dir anfangen. Du hast ursprünglich Soziologie studiert, jetzt bist du in der Statistik gelandet, in der Datenwissenschaft. Wie konnte das passieren?

00: 03:23 Frauke Kreuter: Das ist völlig richtig. Ich habe Soziologie studiert, weil mich die Gesellschaft interessiert hat und habe das auch mit Herzblut gemacht. Aber es gab dann irgendwann den Punkt, dass ich mir dachte: Okay, woher wissen wir eigentlich, ob diese Theorien stimmen oder was eigentlich los ist in der Gesellschaft? Und je nachdem, wo man Soziologie studiert, lernt man dann Statistik und kriegt mit, dass das mit Daten unterstützt wird. Als ich dann gesehen habe, wie schwierig es eigentlich ist, zu wissen, ob die Daten, die man da hat, tatsächlich auch gute Daten sind, bin ich immer weiter diesen Pfad da runter, weil ich mir dachte, okay, das selbst zu studieren, nämlich herauszufinden, welche Daten eignen sich für welche Fragestellung? Wenn Fehler in den Daten sind, wie kriege ich die weg? Wie erhebe ich gute Daten? Das fand ich dann so spannend, dass ich mich darum immer gekümmert habe. Damals gab es den Namen Data Science so der Datenwissenschaften noch gar nicht. Aber ich war dann sehr froh, als es irgendwann gab und dann auch Stellen, dass die dann in Statistik-Departments angesiedelt sind oder sonstwo, liegt vielleicht daran, dass viele denken, Data Science ist was, was die Informatik oder die Mathematik macht. Aber ich würde sagen, gerade die Sozialwissenschaften und die Psychologen haben eigentlich in ihrer Ausbildung so viel mehr Datenerfahrung, dass die mit Stolz diese Flagge tragen sollten und auch viel häufiger mit an den Tisch gebracht werden, wenn es um datenbasierte Fragen geht.

00: 04:50 Stefanie Hornung: Enise, du bist Fachärztin für Kardiologie. Da denkt man auch nicht unbedingt gleich im ersten Moment an Daten. Wie sah dann dein Weg aus und inwiefern hast du auch mit Daten zu tun in deinem Start-up? Und was machst du da genau?

00: 05:04 Enise Lauterbach: Ja, in meinem Start-up – wie kommt man als Fachärztin quasi zu einem Start-up und was hat man mit Daten zu tun? Wir Mediziner haben sehr viel mit Daten zu tun. Insbesondere mit Gesundheitsdaten. Mir war das aber lange erst mal nicht bewusst. Aber wieso bin ich jetzt Gründerin geworden? Gründerin bin ich geworden, weil meine Patienten sich eine digitale Gesundheitsanwendung gewünscht haben, ein Gesundheitstool. Zu diesem Zeitpunkt war ich Chefärztin in einer kardiologischen Rehabilitation. Ich kannte schon sehr viele Patienten, auch aus der Klinik, und das sind überwiegend Patienten mit einer Herzschwäche. Diese Patienten müssen tagtäglich tatsächlich Vitalparameter erheben, also Blutdruck, Herzfrequenz, insbesondere auch Gewicht. Das ist wichtig und das machen die Patienten klassischerweise. Wenn wir in so eine Kladde oder so in Oktavheftchen, wie sie es ja kennen. Zettelwirtschaft, auch Zettel haben wir alles. Sie werden auch gut instruiert. Die wissen also ganz genau, warum sie das erheben müssen. Es geht um die Behandlungstreue und die Behandlungsgüte. Dieser eine Patient meinte so: Das kann ja nicht sein, dass Sie so eine schlechte Versorgung haben und dass die Behandlungsgüte ja eigentlich in fünf Minuten dann, wenn ich dann endlich beim Arzt sitze, abgehandelt wird. Der guckt sich das ja manchmal gar nicht an! Ich gab diesen Patienten recht und sagte: Ja, das wissen wir. Es ist sehr wichtig, dass wir Daten strukturiert erfassen. Aber ich bin da eher die falsche Ansprechpartnerin. Er sieht das nicht so. Ja, nach 24 Stunden dachte ich auch so, er hat Recht. Warum erfassen wir nicht in der Medizin strukturiert diese Daten qualitativ? Wir erheben viele Daten, nur sind die nicht strukturiert. Ich glaub so ein Beispiel noch mal Corona-Pandemie. Wir haben ja viele Daten erfasst. Auch da ist es uns nicht gelungen, strukturierte Daten zu erfassen. Für diese Patienten ist es aber lebensnotwendig. Deshalb wollte das der Patient. Also diese Daten werden ja von Patientenseite erfasst. Zur Selbstkontrolle, damit Sie sehen: Aha, jetzt wird es kritisch. Ich habe eine Gewichtszunahme, ich muss sofort zum Arzt oder in die Klinik. Aber auch für uns Ärzte für die Behandlung ist es gut für die Behandlungsqualität. Also dann habe ich gesagt: Gut, jetzt Digitalisierung, alles das. Das war alles sowieso in Zeiten 2018. Ich habe so lange auf diese Digitalisierung gewartet, seit 2002 auf die EPA (Elektronische Patientenakte). Da dachte ich, ich mache das jetzt, ich hab es meinem Mann gesagt, okay, total verrückt, der ist auch Kardiologe, er unterstützt, das machen wir dann, wir gründen, wir gründen und werden Daten erheben. Und es ist sehr wichtig, diese Daten, die wir sowieso in der Medizin sehen, strukturiert zu erfassen. Warum alles lebensnotwendig ist. Lebensrettend für Frauen. Jetzt kommt es nämlich: Die Männer haben ja noch so ein bisschen Glück, weil in der Medizin ist der Mann die Norm. Wir Frauen, wir machen aber die Hälfte der Weltbevölkerung aus. Da sind wir ziemlich lazy. Wir sind so der kleine Mann oder Mann light. Ja, vielleicht sind wir eher Mann smart, aber nicht Mann light. Also es ist eine Katastrophe, diese Datenlücke, die es in der Medizin de facto gibt, nicht nur in meinem Fachbereich, in der Herzmedizin, bis zu ziemlich gefährlichen Situationen wie Fehlbehandlungen, Falschbehandlungen, auch tödliche medikamentös. In der Herzmedizin ist es sogar so, dass wir eine Übersterblichkeit haben. Vor 20 Jahren sind wir ausgelacht worden. Wir Kardiologen, die alle sagten: Hey, wir haben hier Infarkte. Wir sehen, wir erkennen das ja noch nicht mal bei den Frauen, hier muss was getan werden. Da waren wir die Hexen. Es ändert sich jetzt, also es findet ein Umdenken statt. Trotzdem haben wir es nicht geschafft, Daten zu erfassen. Und deshalb lege ich einen Fokus genau auf diese Lücke. Ich erhebe die Daten der Frauen. Nur, wenn Daten gesammelt werden. Überwiegend machen das Männer. Vor allem, wenn wir später künstliche Intelligenzen tatsächlich entwickeln wollen aus diesen gesammelten Daten. Wenn die unstrukturiert sind oder nur quasi die weibliche Perspektive gar nicht sehen, dann haben wir eher noch einen viel, viel krasseren Bias. Und das ist ja dann noch viel, viel gefährlicher. Also wir müssen es alle, wie wir auch in unseren eigen Berufsfeldern, wir müssen immer schauen, wie schauen wir Frauen auf diese Daten, wie erfassen wir diese Daten? Wir haben eine ganz andere Sichtweise. Also hier geht es auch eher darum, wir sind zum Beispiel klein. Also ich bin besonders klein geraten. Aber auch solche Daten müssen erfasst werden, wenn wir Künstliche Intelligenz in der Automatik haben. Diese Frauen werden ja dann quasi ja irgendwo nicht mehr dann in Schranken durchkommen. Nur das hat man ja zwar immer wieder in der Medizin gesehen, auch auch außerhalb der Medizin.

00: 09:45 Frauke Kreuter: Vielleicht ein anschauliches Beispiel: wir kennen es ja alle, dass mittlerweile die Handys auch Gesichtserkennungssoftware haben, und auch viele Plattformen, wenn man sein Foto hochlädt, automatisch taggen können oder erkennen. Viele renommierte Firmen haben Gesichtserkennungssoftware entwickelt und niemand ist aufgefallen. Die Dinger waren auf dem Markt. Lange. Niemand ist aufgefallen, dass die Erkennungsquote bei Frauen, die nicht weiße Hautfarbe haben, massiv schlechter war als bei den Männern generell und vor allem natürlich dann auch im Vergleich zu den Männern mit weißer Hautfarbe oder heller Hautfarbe. Das war nicht böse gemeint. Sie haben nicht absichtlich versucht zu diskriminieren, aber es gab einfach keine Trainingsdaten. Im gleichen Ausmaß ist nur niemand aufgefallen, weil natürlich die Firmen dominiert sind, die das dann ausprobieren im Test. Und dann funktioniert es. Ja, das sind die die Datenlücken, das findet sich überall und können dann, wenn man sich verlässt, auf automatisierte Anwendungen, die gelernt haben an Daten durchaus – soll ich sagen – behindern oder in die Irre führen, je nachdem welche Anwendungen benachteiligen.

00: 10:53 Enise Lauterbach: Also wir sind dann doppelt benachteiligt. Erst werden wir nicht gesehen und dann müssen wir auch diese Folgen aussitzen und ausbaden.

00: 11:02 Stefanie Hornung: Ja, das war jetzt ein schönes, anschauliches Beispiel schon. Und ich finde bei dir auch das spannend, dass der mit ganz unterschiedlichen Organisationen gearbeitet hast, du hast mal mit Facebook ein Projekt gehabt. Du warst aber auch im IAB der Bundesagentur für Arbeit, mal Leiterin der Statistikabteilung. Das sind ja Welten auch. Vielleicht kannst du noch mal ein Beispiel geben. Ein Google-Beispiel bringst du auch ein Buch? Dann kannst du da noch mal so sagen: Was ist denn so die Bandbreite auch der Projekte da?

00: 11:34 Frauke Kreuter: Mich interessiert, wie Daten genutzt werden, um Gesellschaft zu beschreiben und zu verändern. War sind für mich sowohl Firmen wie jetzt Meta, damals Facebook, als auch Institutionen, Regierungseinrichtungen wie die Bundesagentur für Arbeit einfach erst mal spannend. Und die Bundesagentur für Arbeit hat ja von uns allen, also so man nicht Gründerin ist und selbstständig, Meldungen der sozialversicherungspflichtigen Daten. Also jedes Mal wenn man einen Job wo anfängt, wird das gemeldet. Muss ja hinterher dann schön gemessen werden für die Rente: Was hat man verdient und an welchen Tagen war man angestellt? Und am IAB, also der Forschungseinrichtung der Bundesagentur für Arbeit, liegen tatsächlich diese Daten seit 1972 für alle Leute in Deutschland vor. Also auf den Daten kann man Forschung machen und wunderbar sich angucken: berufsverläufe, alles mögliche. Wär ein super Fundus, wenn man es mit den Gesundheitdaten vergleichen könnte. Geht aber in Deutschland nicht. Das ist nicht gestattet. Also da haben wir noch viel Digitalisierungsaufräumarbeit zu tun. Aber generell zunächst mal spannend: Anwendungsfelder in dem Kontext. Jetzt zu dem, was ich vorhin sagte: Wenn dann KI mit ins Spiel kommt. An anderen Stellen versuchen Arbeitsagenturen schon diese Berufsverläufe zu nutzen, um dann bei der Jobvermittlung oder wenn jemand arbeitslos wird, bei der Vermittlung von irgendwelchen Weiterqualifizierungsmaßnahmen anhand der vorliegenden Daten Vorschläge zu machen. Jetzt kann man sich ja vorstellen, vielleicht habt ihr mal diese Meldungen angeschaut, da steht ja nicht viel drin, da weiß man ja nicht viel über die Personen. Das heißt, die Vorhersagen werden entsprechend schlecht sein, ähnlich wie ihr das auch habt, was da in den records ist, ist ja nie so vielfältig.

00: 13:12 Enise Lauterbach: Also von der Deutschen Rentenversicherung. Also wie kommen diese Daten, wie werden die erfasst? Also in der Reha haben wir das ja, wenn Abschlussberichte erstellt werden, wir müssen ja quasi das melden. Ist jemand arbeitsfähig, arbeitsunfähig, wann kann er wieder arbeiten? Und auch eine Prognose, das geht tatsächlich. Wenn jemand dann in einer Maßnahme steckt, ja auch direkt an das Arbeitsamt. Wenn da jetzt aber kein Kontext steht: schwierig. Datenschutz. Das sind sensible Daten, Gesundheitsdaten, hochsensible. Es muss aber trotzdem möglich sein. Da kann ich immer sagen Datenschutz, Datenschutz. Wie können wir diese Daten trotzdem nehmen, um die Leute eine echte Teilhabe erleben lassen? Auch bei den Arbeitsmaßnahmen.

00: 13:50 Frauke Kreuter: Eine der Forschung, die wir gemacht haben, hat eben gezeigt: Die Leute sind eigentlich willig, mehr Daten von sich preiszugeben. Und vor allem im Gesundheitsbereich sind sie willig. Wir hatten zufälligerweise vor Corona gefragt, ob die Leute bereit wären, ihre Daten, die man so auf dem Handy hat und Herzfrequenz und Ähnliches, die man von Smartwatches messen könnte, zur Verfügung zu stellen, damit man im Fall einer Pandemie reagieren könnte. Und dann war die Zustimmungsrate eher moderat. Also das war 2019, dann kam Corona und die Raten ging natürlich massiv hoch, weil jeder gesehen hat, okay, das macht schon Sinn. Natürlich nicht alle, aber viel mehr. Und was was in der Datenschutzdebatte leider immer vergessen wird: dass es für einen bestimmten Kontext, für einen bestimmten Zweck, den Leuten auch recht ist. Ja, also da hoffe ich sehr, dass wir irgendwann diese Hürden abbauen. Und tatsächlich auch die Verlinkung schaffen.

00: 14:43 Enise Lauterbach: Während der Pandemie gab es ja auch diese intrinsische Motivation: ich muss was für mich tun, ich muss quasi gesund bleiben, ich darf nicht krank werden. Was könnte nutzen? Eine erhöhte Atemfrequenz, eine erhöhte Herzfrequenz, die darauf hinweisen kann, dass ein Infekt da ist, also Fieber macht Herzanstieg. Eine erhöhte Atmung kann natürlich auf eine Lungenentzündung hinweisen. Die Leute waren total begeistert. Also intuitiv wussten Sie, dass es gut ist. Ich bin bereit, meine Daten zu spenden, zu geben. Und eigentlich sollte das legitim sein, weil wir haben ziemlich gute Gesetzgebung, was diese Daten ja schützt. Und da müssen wir ein bisschen nachhelfen.

00: 15:21 Stefanie Hornung: Das heißt es eine ist ja die Dringlichkeit. Das andere ist aber auch das Vertrauen in diejenigen, die diese Daten erheben. Und da würde ich jetzt mal einfach auch sagen, na ja, gut, ihr seid jetzt sehr pro Datenerhebung und euch würde ich natürlich meine Daten geben. Selbstverständlich. Aber ich würde nicht in jedem Zusammenhang auch meine Daten bereitstellen. Natürlich ist eine Manipulationsgefahr ja auch da. Also wie kann man denn vielleicht auch erkennen, dass es seriös ist und wie kann man da auch Vertrauen schaffen in euren Bereichen?

00: 15:53 Frauke Kreuter: Als ich bei Facebook gearbeitet hatte, das war in 2018 grad, als der Cambridge-Analytica-Skandal so richtig hochkam und das war schon interessant zu sehen, wie die Organisationen selber eigentlich, die haben ja die Daten nicht weitergegeben, damit das gemacht wird. Eigentlich haben sie die gar nicht weitergegeben, sondern die Leute haben halt irgendwelche Spielchen gemacht und Fragebögen ausgefüllt, die irgendjemand Drittes auf der Timeline gepostet hat. Und dann gingen die Antworten dahin, weil dadurch konnten die Modelle lernen. Und dann haben die das Advertisement Tool genutzt der Plattform, um die Leute entsprechend anzusteuern. Dennoch hat natürlich das ein riesen Vertrauensverlust erzeugt. Bei Facebook geht sicherlich vielen hier auch so, dass man dann irgendwann sagt, nee, okay, muss nicht sein. Was dahinter steckt, ist die Krux. Dass die ganze Datengesetzgebung im Moment eigentlich darauf vertraut, dass die einzelne Person entscheiden kann und auch vorausschauen, was vielleicht mit den Daten gemacht wird. Also eigentlich müsste man sich alle Datenschutzbedingungen mal durchlesen, macht natürlich niemand. Es gab diverse Experimente, jemand hat in der Londoner Ubahn so ein freies WiFi mal aufgesetzt und da stand in den Datenschutzbedingungen drin: wenn du hier zustimmst, dann übergibst du uns deinen erstgeborenen Sohn. Und natürlich haben die Leute trotzdem geklickt, weil wann hat man schon die Zeit zu lesen? Und vor allem jetzt, wo wir bei jedem hingehen, auf einer neue Website bombardiert werden mit – es ist mühsam. Es ist ja schon mühsam, zu finden: Wo ist der Button, dass man sagen kann, ich will nicht alles anschalten. Aber das ist sozusagen inhärent in der Gesetzgebung, weil es heißt, es muss eine Einverständniserklärung geben und wenn es Einverständnis da ist, dann kannst du ganz viel damit machen. Anstatt andersrum zu sagen sagen: Okay, die Daten sind da, Firma nutzt nutzt sie, wie sie sinnvoll ist für das Produkt. Weil natürlich wollen die Leute von dir das Produkt, deswegen kommen sie auf deine Webseite. Aber wenn du darüber hinaus was mit den Daten machst oder jemand anders und das schadet der Person, dann bist du haftbar. Das ist irgendwie upside down, wenn ihr mich fragt.

00: 17:58 Enise Lauterbach: Dann wähle mich. Also, da fehlt es an der Transparenz, das ist das eine. Ich lese auch gerne mal einfach just for fun AGBs, um mich da aufzuregen. Das sind juristische Texte. Ich kenne es ja von meinem Start-up. Ich musste ja auch für die Tools AGBs aufsetzen lassen mit Juristen. Also das sind ganz speziell Ausgebildete für medizinische Kontexte. Das war ein spannendes Thema. Ich sage mal, wer soll denn das verstehen? Also das verstehen noch nicht mal die Leute aus der Medizin und Laien erst recht nicht. Ja, das wissen die Juristen. Ich glaube, es gibt ein einziges Start-up in Deutschland. Das ist eine Juristin, die versucht das jetzt in einfacher Sprache, dass alles auf einer Seite ist. Wenn die Leute das verstehen würden. Aha. Wozu? Warum, Wieso wird etwas quasi erhoben? Und wo wird das gespeichert? Das ist noch wichtiger: Und wann wird es gelöscht? Und ich habe immer noch quasi Zugriff auf meine Daten. Ich habe das Recht. Ich glaube, das würde den Leuten unglaublich helfen, das besser zu verstehen mit den Daten und anzunehmen, dass es nichts schlimmes ist. Auch der Datenschutz, der ja wie so eine Monstranz vor uns der hergetragen wird. Datenschutz! Datenschutz! Nein, das ist was Geiles. Das ist ja zu unserem Schutz, aber das muss man verstehen und ich glaube, wir brauchen hier wirklich Transparenz und eine einfache Sprache also, die auch wir verstehen, das ist wirklich so ein Wunsch von mir auch.

00: 19:25 Stefanie Hornung: Ich denke, du sagst in deinem Beitrag auch, es braucht immer wieder so Feedback-Loops. Findet das stattm, dass man dann auch tatsächlich noch mal fragt: Naja, wie habt ihr das gemeint mit euren Daten? Was habt ihr denn überhaupt für Background? Und so ein Kontakt kann ja auch dann diese Transparenz vielleicht schaffen.

00: 19:44 Frauke Kreuter: Unbedingt. Also ich finde es immer spannend, die Medizinerperspektive zu hören. Ich komme ja eher aus der Ecke, wo man Umfragen macht und da ist es ein bisschen häufiger so, dass es die Möglichkeit gibt, noch mal nachzufragen, was ist eigentlich mit einer Antwort gemeint? Aber bei medizinischen Daten zum Beispiel oder anderen Prozessdaten, die über einen halt vorliegen, weiß man ja gar nicht unbedingt, was da drin steht. Und mir ging es so, als ich nach 20 Jahren USA nach Deutschland zurückgekommen bin, habe ich meine Medizinakten, die dort tatsächlich elektronisch schon vorliegen, mitnehmen wollen und habe dann die Versicherung angeschrieben hab gesagt, könnt ihr mir das bitte mal alles geben. Und dann habe ich festgestellt, dass ich weder eine Treppe steigen kann, noch schwer heben, noch irgendwie mich alleine anziehen. Und das lag daran, dass sie so einen Standardbogen hatten für die Ärztinnen, die dann bei der Analyse einen angucken. Und da war einfach, wenn die Frage nicht beantwortet war, einfach alles auf schlecht gesetzt und das hat niemand geändert. Und plötzlich ist mein record dann einer, der mir vielleicht eine verbilligte Fahrkarte oder ermöglichen würde.

00: 20:51 Enise Lauterbach: Das hat etwas Dystopisches. Stell dir mal vor, diese Daten würden hier übernommen werden, Rentenversicherung oder mit der Arbeitsagentur gematcht werden. Du wärst ja quasi berufsunfähig, dann auch nicht mehr vermittelbar, und du würdest vielleicht, wenn das auch noch weiter jetzt gegeben werden würde, der Kreditwürdigkeit, würdest du gar keinen Kredit mehr bekommen. Das ist total schlimm. Wir müssen schon ganz genau verstehen, wie diese Daten erhoben werden und wie die Qualität ist. Und diese Loops, von denen du sprichst, wir sagen ja Follow-up in klinischen Studien, das ist essenziell. Also wir müssen schon sicher sein, ist ist das korrekt?

00: 21:25 Frauke Kreuter: Und also Standardideen gibt es da genug. Zunehmend sieht man unter dem Stichwort Daten-Coop Versuche zu sagen, okay, hier ist ein Raum, in dem man seine eigenen Daten hochladen darf. Seitdem die europäische Datenschutzgrundverordnung institutionalisiert wurde, kann man das machen. Jede Plattform erlaubt einem ja, die Daten runterzuladen, sprich: Man kann sie auch woanders wieder hochladen. Die Hoffnung ist, dass wir vielleicht irgendwann eine Infrastruktur hinkriegen, wo die Firmen an diese Hubs gehen, um die Daten zu bekommen und man selber auch vorher gucken kann: sind die denn korrekt und stimmig? Also ist das, was über mich da steht, eigentlich das, was dann stehen sollte? Im Moment fehlt an den meisten Schritten dieser Feedback und ich konnte in dem Fall nur froh sein, dass der Datenaustausch zwischen den USA und Deutschland noch so schlecht ist, dass das dann bei der Verbeamtung keiner wissen wollte.

00: 22:15 Enise Lauterbach: Da sprichst du jetzt etwas ganz Wichtiges an. Apropos Verbeamtung. Eine ganz komplizierte Situation, gesundheitsrechtlich. Also das wäre ein Aus gewesen, oder Versicherung in einer privaten Versicherung wäre nicht mehr möglich. Und deshalb ist es wichtig, das sind eure Daten. Fragt dann auch bei euren Kassen nach oder bei euren Ärzten. Diese Daten müssen ja auch eine bestimmte Zeit vorgehalten werden. Normale Gesundheitsdaten zehn Jahre, radiologische Daten 30 Jahre. Es ist ganz wichtig, schaut euch das an, was steht in diesen Briefen drin? Manchmal kommt es ja zu Verwechslungen, gar nicht mal so selten. Es wäre fatal, wenn dann mit 19, 20 solche Diagnosen erfasst werden, dann habt ihr eine Beamtenkarriere dder es steht eine Versicherungssituation an von der GKV in die private. Ihr kommt da nicht rein, weil einfach falsche Daten erhoben worden sind. Also es ist auch auch ein Appell von uns, die Daten lieben: Es sind eure Daten, schaut nach, sind die korrekt? Ist das korrekt erfasst worden?

00: 23:12 Stefanie Hornung: Wenn sich jetzt Frauen in ihrem Arbeitsbereich, wenn sie sagen: Ja, das mit den Daten ist so wichtig, aber damit habe ich ja noch nichts zu tun und aber interessiert mich. Ich möchte irgendwie mehr über Data Science, über Big Data & Co. erfahren. Welche Förder- und Lernmöglichkeiten gibt es denn da? Was würdet ihr den Frauen raten?

00: 23:32 Frauke Kreuter: Erst mal würde ich raten, da keine Angst zu haben. Sollte sie irgendwo noch sitzen, aus vergangenen Schuljahren oder der Unizeit. Also ich habe das immer wieder erlebt. Jedes Mal, wenn ich in die USA komme, dann wird man an der Grenze gefragt, was der eigene Job ist. Wenn ich dann sage, ich mach Statistiken, sagen die: Oh je! Statistiken habe ich immer gehasst. Also das Data Science sein oder auf Daten Schauen, das kann jeder lernen. Also Excel hat jeder schon mal in der Hand gehabt. Viel schwieriger sind die anderen Programme auch nicht. Sie können nur mehr. Heutzutage gibt es so viele Tools, ChatGPT das Letzte, das dir im Zweifelsfall sogar den Code schreibt. Aber wichtig, viel wichtiger ist, dass man eine gute Fragestellung hat und eine Vorstellung davon: was will man denn eigentlich wissen und was sind die relevanten Informationen, um dahin zu kommen? Der Datennudel-Teil, das kriegt man hin, das ist online ein bisschen Copy&paste, Software ist da, das kriegt man hin. Aber die guten Fragestellungen, die kommen.

00: 24:28 Enise Lauterbach: Das sind ja diese Prompts, die ja bei ChatGPT so wichtig sind. Also was stellen wir für Fragen, was wollen wir wissen? Ich meine, letztendlich kennt ihr das ja von früher. Google ist ja auch nichts anderes als eine sehr intelligente Suchmaschine. Je besser ihr eure Fragen da reinformuliert, umso exakter waren ja auch die Antworten. So ist es auch in ChatGPT. Was man machen kann, also niederschwellig: Plattform wie von Hasso Plattner. Da gibt es sehr viele Kurse, wirklich so Basics, aber auch komplexer. Oder KI-Campus. Für Mediziner vielleicht sehr spannend, aber auch für Pharmazeuten sehr lehrreich.

00: 25:02 Frauke Kreuter: Ja, genau. Also an der KI-Campus, der hier in Deutschland aufgebaut wurde, hat wirklich ganz tolle Kurse, die man frei besuchen kann. Auf Coursera gibt es auch viele Kurse. Wenn man da zertifiziert werden will, muss man bezahlen, aber sonst stehen die auch frei zur Verfügung. Muss man ein bisschen auch suchen. Es gibt die Code Academy, also es gibt viele Stellen, an denen man wirklich online – Khan Academy ist ein anderer Ort, auf dem es viele dieser Kurse gibt. Also da ist wirklich für jedermann was dabei.

00: 25:32 Enise Lauterbach: Es lohnt sich, es macht auch Spaß.

00: 25:34 Frauke Kreuter: Viele der Tätigkeiten sind, da braucht man kein Unistudium dafür und und eigentlich an der Stelle fehlts. Wenn dann die Firmen irgendwelche machine learner mit PhD einstellen, hauen die ihnen nach einem halben Jahr wieder ab, weil das zu langweilig ist, weil man da irgendwie unstrukturierte Daten in ein strukturiertes Format bringt. Also was ich eigentlich hoffe, ist, ja, hier nachziehen. Aber dass sich das Feld ein bisschen ausbreitet, dass man wirklich das anhand der verschiedenen Tätigkeitsgruppen auffällt, das ist es noch zu neu, aber den Trend sehe ich auch jetzt.

00: 26:07 Enise Lauterbach: Und wir hinken definitiv hinterher, weil wir eben auch die großen Konzerne nicht haben, jetzt Meta oder auch Google, Amazon. Es fehlt halt einfach diese europäische Plattform. GAIA-X war ja so die Vorstellung einer europäischen Plattform. Die werden wir so nicht haben. Deshalb hinken wir so hinterher.

00: 26:28 Stefanie Hornung: Vielen Dank, dass ihr da wart und vielen Dank an euch fürs Zuhören.