Sport Livestreams für Fußball Bundesliga, DFB-Pokal, Champions League, Europa League, NFL, NBA & Co.
Jetzt neu und kostenlos: Sport Live bei radio.de. Egal ob 1. oder 2. deutsche Fußball Bundesliga, DFB-Pokal, UEFA Fußball Europameisterschaft, UEFA Champions League, UEFA Europa League, Premier League, NFL, NBA oder die MLB - seid live dabei mit radio.de.
Der Fluch einfacher statischer Maßzahlen – Harm-to-Benefit-Ratio bei Zulassungsstudien (Folge 28)
In der aktuellen Folge unseres Podcasts »Streuspanne« heißt es back to the roots! Wir werfen erneut einen kritischen Blick auf die Bewertung der Wirksamkeit von Corona-Impfstoffen – wie schon in unserer allerersten Folge. Diesmal dreht sich alles um das sogenannte Harm-to-Benefit-Ratio, eine vermeintlich neue Kennzahl, die das Schaden-Nutzen-Verhältnis von Impfstoffen besser messbar machen soll. Grundlage der Diskussion ist eine Publikation einer universitär angesiedelten Gruppe um Falk Mörl, Michael Günther und Robert Rockenfeller mit dem Titel: »Is the Harm-to-Benefit Ratio a Key Criterion in Vaccine Approval?«Fünf Jahre nach dem ersten COVID-19-Fall gibt es immer wieder Versuche, neue Analysen oder sogar Kennzahlen für die »Risiko-Nutzen-Abwägung« von Impfstoffen zu etablieren. Der freie Journalist Martin Rücker hat uns auf eine solche neu vorgeschlagene Maßzahl und die Diskussion rund um ihren Nutzen aufmerksam gemacht. Laut den Berechnungen würde der BioNTech-Impfstoff dabei besonders schlecht abschneiden.Doch wie belastbar ist dieser Wert wirklich? Und ist das zugrunde liegende Modell überhaupt geeignet, in der konkreten Anwendung eine valide Aussage über das Schaden-Nutzen-Verhältnis zu treffen?Unsere bloggenden Statistiker Sascha Feth und Jürgen Fiedler schauen sich das genauer an und äußern Zweifel an den wissenschaftlichen Techniken und Methoden. Gemeinsam mit den beiden Experten diskutiert Esther Packullat unter anderem folgende Punkte:• Harm-to-Benefit-Ratio: Was ist das überhaupt für ein Wert und wie wird er berechnet?• Wie sieht die Kritik an diesem vorgeschlagenen Wert aus?• Ist der Nutzen der Impfung angemessen berücksichtigt, wenn man sich auf den – relativ kurzen – Beobachtungszeitraum der Zulassungsstudie bezieht?• Ist die neue Kennzahl überhaupt nützlich?• Warum ist die Diskussion um die sogenannten »severe adverse events« und das gesamte Wording so entscheidend und gleichzeitig so schwierig für die Interpretation der Ergebnisse?In der aktuellen Folge erwähnen wir folgende Links, Artikel und Podcasts:• Meinungsartikel zur Einführung des »Harm-to-Benefit Ratios« nach Mörl et al.: https://s.fhg.de/Harm-to-Benefit-Ratio• Zulassungsstudie von BioNTech und Supplementary Material: https://s.fhg.de/Zulassungsstudie• Unsere erste Streuspanne-Folge unter dem Titel »Was bedeutet Wirksamkeit bei Corona-Impfungen?«: https://s.fhg.de/Wirksamkeit-Corona-ImpfstoffAußerdem sind im Nachgang zu unseren Experten-Statements folgende Artikel von Martin Rücker erschienen (beide hinter Bezahlschranke):• Martin Rücker auf www.riffreporter.de: »Corona-Impfstoffe: 25-mal mehr Schaden als Nutzen? Wo eine spektakuläre Analyse falsch liegt«: https://s.fhg.de/Artikel-Corona-Impfstoff-Kritik• Martin Rücker in der Berliner Zeitung »Corona-Impfstoff: Kritik an Analyse zum Schaden-Nutzen-Verhältnis«: https://s.fhg.de/Artikel-Corona-ImpfstoffeGestaltet unseren Podcast mit!Ihr habt ein Zahlenphänomen entdeckt, das wir besprechen sollen? Oder eine Statistik in den Medien gelesen, die wir in der »Streuspanne« einmal genauer unter die Lupe nehmen sollen? Dann meldet Euch gerne über presse(at)itwm.fraunhofer.de bei uns!
--------
52:21
Kann man mit Statistik den nächsten Bundeskanzler vorhersagen? (Folge 27)
In der aktuellen Folge unseres Podcasts »Streuspanne« dreht sich alles um Wahlumfragen, Prognosen und ihre Unsicherheiten.
Anlässlich der überraschend deutlichen Wiederwahl von Donald Trump werfen wir einen genaueren Blick darauf, wie solche Prognosen entstehen, welche Fallstricke sie bergen und wie wir ihre Qualität bewerten können.
Schließlich stehen auch bei uns in Deutschland Wahlen vor der Tür und wir möchten wissen, ob uns eine ähnliche Überraschung wie in Amerika erwartet.
Mit den Statistik-Experten Sascha Feth und Jochen Fiedler diskutiert Esther Packullat unter anderem folgende Punkte:
· Warum Wahlumfragen keine eigentlichen Prognosen sind
· Wie sich Prognosen und Unsicherheiten mathematisch bewerten lassen
· Warum Mittelwerte aus mehreren Prognosen oft zuverlässiger sind
· Weshalb Trumps Wahlsieg 2024 zeigt, dass systematische Fehler in Prognosen ein großes Problem sind
Außerdem gibt es spannende Vergleiche zu Wettervorhersagen, Quizsendungen und sogar zur Anzahl verkaufter Schlitten!
Wir erwähnen folgende Links, Artikel und Podcasts in der aktuellen Folge:
· Streuspanne-Folge 4 »Wie funktionieren Wahlprognosen?«:
www.itwm.fraunhofer.de/wahlprognose
· Streuspanne Folge 20 »Viel Lärm um Bias«: https://www.itwm.fraunhofer.de/podcast-noise
· Streuspanne Folge 6 »Haben Sie schon mal in den Badesee gemacht?«: https://www.itwm.fraunhofer.de/Streuspanne-Badesee
· Streuspanne Lexikon »K wie Konfidenzintervall“: Podcast »Streuspanne –Statistik und ihre Kuriositäten«: K wie Konfidenzintervall - Fraunhofer ITWM
· US-Wahlergebnisse in den Swingstates:
https://s.fhg.de/us-wahlergebnisse-24
· Sonntagsfrage Allensbach https://s.fhg.de/sonntagsfrage-allensbach-25
· US-Election Forecast von fivethirtyeigth.com: https://s.fhg.de/US-election-forecast
· Link zur Datei: https://s.fhg.de/datei-fivethirtyeight
· Video von INSA zu sicheren Stimmen und maximal möglichem Potential: https://s.fhg.de/insa-meinungstrend
Gestaltet unseren Podcast mit und meldet Euch!
Ihr habt ein Zahlenphänomen entdeckt, das wir besprechen
sollen oder eine Statistik in den Medien gelesen und wollt, dass wir sie in der »Streuspanne« zum Thema machen? Dann meldet Euch gerne bei uns.
--------
40:19
KI in seichten Datengewässern - Dritter Teil der Miniserie »Künstliche Intelligenz (KI) und Statistik«
In der dritten Folge unserer Miniserie »Künstliche Intelligenz (KI) und Statistik« dreht sich alles um »Shallow Learning« oder auch in Deutsch »Seichtes Lernen«. Unser Podcast-Team –bestehend aus Sascha Feth, Jochen Fiedler und Esther Packullat – klärt in dieser Episode, was sich hinter diesem Konzept verbirgt. Gemeinsam beleuchten wir, wie unzureichende Trainingsdaten und historische Verzerrungen (Stichwort Bias) die Leistungsfähigkeit von KI-Systemen beeinflussen. Außerdem hinterfragen wir, ob Fehler in Algorithmen bereits vor der Entwicklung von KI-gestützten Systemen auftraten – und wie sich solche Probleme beheben lassen.
Schon bald wird klar: Ohne hochwertige Daten kann keine KI ihr volles Potenzial entfalten. Um das greifbar zu machen, bringen wir konkrete Beispiele ins Spiel:
Nicht repräsentative Trainingsdaten: Warum das KI-Bestellsystem von McDonald's scheiterte und welche Einblicke das Buch »Unsichtbare Frauen« liefert
Historischer Bias: Was wir aus Episode 20 »Viel Lärm um Bias« lernen können
Menschliche Entscheidungen versus KI: Welche Entscheidungen müssen bei einem Menschen verbleiben und die Meinung der »UNESCO«
Softwarefehler vor dem KI-Zeitalter: Welche Fehler in den 90er Jahren die Raumfahrt herausforderten
Probleme des Community-Engagements: Der Fall des Microsoft-Chatbots »Tay«
Im nächsten Teil unserer Miniserie richten wir den Blick auf »Unsupervised Learning«. Hier lernen Modelle selbstständig und entdecken Muster – ganz wie Archäologen, die versuchen, eine alte Sprache zu entschlüsseln.
Gestaltet unseren Podcast mit!
Wie immer gilt: Ihr habt ein Zahlenphänomen entdeckt, das wir besprechen sollen oder eine Statistik in den Medien gelesen, die wir in der »Streuspanne« analysieren sollen? Dann meldet Euch gerne bei uns und wir bringen Euer Thema in die nächste Folge!
Darauf wird in dieser Folge verwiesen:
Weiterführende Artikel:
https://s.fhg.de/mcdonalds-ai-drive-thru
https://s.fhg.de/ki-unesco
https://s.fhg.de/softwarefehler-raumfahrt
https://s.fhg.de/microsoft-chatbot-tay
Buchtipp:
Caroline Criado-Perez: Unsichtbare Frauen – Wie eine von Daten beherrschte Welt die Hälfte der Bevölkerung ignoriert. München: btb Verlag (2020).
Passende Folge aus der »Streuspanne«-Welt: Folge 20: Viel Lärm um Bias – Wie Noise Entscheidungen und Statistiken verzerrt: https://www.itwm.fraunhofer.de/podcast-noise
Folge 6: Haben Sie schon mal in den Badesee gemacht?
https://www.itwm.fraunhofer.de/de/abteilungen/mf/aktuelles/blog-streuspanne/podcast-badesee-statistik-peinlichkeiten.html
--------
26:18
Neuronale Netze: Wie Maschinen das Denken lernen - Zweiter Teil der Miniserie »Künstliche Intelligenz (KI) und Statistik«
In der neuen Folge unserer Miniserie zu KI und Statistik dreht sich heute alles um Neuronale Netze. Unser Team, bestehend aus Sascha Feth, Jochen Fiedler und Esther Packullat, erklärt, wie die »künstlichen Gehirne« funktionieren und wie Maschinen mithilfe von Millionen von verbundenen Neuronen lernen, komplexe Aufgaben zu meistern – von Bilderkennung bis zur Sprachverarbeitung. Was sind Neuronale Netze eigentlich? Wie sind sie aufgebaut? Was haben Katzen damit zu tun? Wie bilden sie den Lernprozess des menschlichen Gehirns nach? Außerdem lösen wir die Aufgabe aus der vorherigen Folge zum maschinellen Erkennen eines Rechtecks.
Unser passender Buchtipp in dieser Folge, ganz neu erschienen im Fraunhofer Verlag: »Forscherinnen im Fokus – Wir schaffen Veränderung«. Im Buch werden 42 inspirierende Wissenschaftlerinnen im Porträt vorgestellt, die in verschiedenen Anwendungsgebieten mit Künstlicher Intelligenz und Simulation arbeiten – von Klimaschutz bis zu Gesundheit oder in der Mobilität. Direkt zum eBook: www.itwm.fraunhofer.de/forscherinnen-im-fokus
Wer an einem Printexemplar interessiert ist, kann sich gerne bei uns melden.
Im nächsten Teil unserer Streuspanne-Mini-Serie tauchen wir tiefer in das Thema »Training Neuronaler Netze« ein und sind mit KI dann in seichten Datengewässern unterwegs.
Gestaltet unseren Podcast mit!
Wie immer gilt: Ihr habt ein Zahlenphänomen entdeckt, das wir besprechen sollen oder eine Statistik in den Medien gelesen und wollt, dass wir sie in der »Streuspanne« zum Thema machen? Dann meldet Euch gerne bei uns.
--------
26:39
Künstliche Intelligenz und Statistik – Erster Teil: Ist KI nur glorifizierte Statistik? KI hieß mal ML
In dieser ersten Episode unserer neuen Mini-Serie zu »Künstlicher Intelligenz (KI) und Statistik« gehen wir
der Frage nach, ob KI wirklich nur »glorifizierte Statistik« ist – und damit »alter Wein in neuen Schläuchen«.
Gemeinsam werfen wir einen Blick auf die Begriffe KI und Machine Learning (ML). Wir zeigen anhand von
greifbaren Beispielen, wie Datenwolken und Algorithmen zusammenhängen. Wie unterscheidet ein Algorithmus Kinder von Erwachsenen? Was hat es mit Random
Forests und Entscheidungsbäumen auf sich hat – und warum ist das Ganze ziemlich komplex und auch mehr ist als nur einfache Statistik? Hört selbst!
Eine Aufgabe gibt es diesmal für Euch:
Stellt Euch ein kariertes DIN-A4-Blatt vor. Manche
Kästchen sind schwarz angemalt, andere bleiben weiß. Auf diese Weise entsteht ein verpixeltes Schwarz-Weiß-Bild. Jetzt malt auf diese Art und Weise auf dem
Blatt ein einfaches Rechteck und stellt Euch vor, Ihr müsst einer KI erklären, wie sie dieses Rechteck erkennen kann.
Welche Regeln oder Algorithmen könnten verwendet werden, um die Konturen des Rechtecks zu identifizieren?
Wie würdet Ihr einem Computer diese Wenn-Dann-Regel erklären, mit der er ein Rechteck auf diesem Papier finden soll?
Schreibt uns Eure Ideen und Lösungen per E-Mail an presse(at)itwm.fraunhofer.de oder in Social Media per
Direkter Nachricht oder Kommentar. Wir sind gespannt auf Eure Antworten, die wir in der nächsten Folge dann gerne aufgreifen.
Teil Eins ist ein grundlegender Einstieg ins Thema
und eine gute Basis, um in einer nächsten Folge mit Neuronalen Netzen und »Künstlichen Gehirne« weiterzumachen. Mit dieser Episode legen wir die Grundlagen für weitere spannende Diskussionen rund Deep Learning und die Zukunft der KI –
bleibt also dran und freut Euch auf die nächste Streuspanne!