Massachusetts Institute of Technology, Cambridge (USA)
Mathematische Modellierung weicher und biologischer Materie – von „smarten“ Golfbällen zur embryonalen Strukturbildung
Ein zentrales Thema unserer Forschung ist die Entwicklung quantitativer mathematischer Modelle zur Beschreibung und Vorhersage komplexer Strukturbildungsvorgänge in weichen Materialien und multizellulären Modellorganismen. Dieses Ziel verfolgen wir in enger Zusammenarbeit mit Experimentalphysikern und Biologen in den USA, Grossbritannien und Deutschland. Von besonderem Interesse ist dabei die Entwicklung vielseitig einsetzbarer analytischer und numerischer Methoden, die es erlauben, oberflächlich sehr verschieden erscheinende Phänomene mittels ähnlicher mathematischer Gleichungen zu beschreiben. Wesentliche Voraussetzung für die erfolgreiche Umsetzung dieses Vorhabens ist die Identifizierung „universeller“ physikalischer oder biologischer Prinzipien, die sich mathematisch sinnvoll and effektiv erfassen lassen. In diesem Vortrag werde ich versuchen, die zugrundeliegenden allgemeinen Ideen und Konzepte anhand einiger konkreter Beispiele aus unserer derzeitigen Forschungsarbeit zu veranschaulichen. So werden wir sehen, dass sich Molekülbewegungen in Flüssigkeiten, Aktienkurse und bakterielle Dynamik in Biofilmen durch eng verwandte Gleichungen modellieren lassen und dass die Untersuchung von Mustern auf der Oberfläche von gekrümmten doppelschichtigen elastischen Materialien hilfreiche Einsichten in die mathematische Beschreibung von Strukturbildungsprozessen in der Embryonalentwicklung liefern kann. Im letzten Teil werde ich noch kurz auf zukünftige Herausforderungen in der mathematischen Datenanalyse eingehen, die sich aus kürzlich erzielten experimentellen Fortschritten im Bereich der Mikrofluidik und Zellbiologie ergeben.
Zur Person
Jörn Dunkel studierte Physik und Mathematik an der Humboldt-Universität zu Berlin. Er promovierte im Jahr 2008 am Institut für Physik der Universität Augsburg bei Peter Hänggi. Er forschte bei Julia Yeomans am Rudolf Peierls Centre for Theoretical Physics der Universität Oxford und bei Ray Goldstein am Department of Applied Mathematics and Theoretical Physics der Universität Cambridge. Er wurde 2013 als Professor für Physikalisch-Angewandte Mathematik ans MIT in Cambridge (USA) berufen.
In seiner Forschungstätigkeit beschäftigt sich Jörn Dunkel mit dem kollektiven Verhalten von Mikroorganismen, den Ordnungsprinzipien in Biofilmen, der Musterbildung und topologischen Defekte in heterogenen elastischen Materialien, Strukturbildungsprozessen in der Embryonalentwicklung und nichtlinearer Dynamik, stochastischen Prozessen und hydrodynamischen Kontinuumsmodellen.
Jörn Dunkel war Stipendiat der Studienstiftung des deutschen Volkes, er erhielt den Humboldt-Preis und den Lise-Meitner-Preis der Humboldt-Universität zu Berlin, den Erich-Krautz-Preis der Universität Augsburg, den Gustav-Hertz-Preis der Deutschen Physikalischen Gesellschaft und den Edmund F. Kelly Research Award des MIT.
Direktor am Max-Planck-Institut für Meteorologie, Hamburg
„Vorhersagen sind schwierig…“ – Möglichkeiten und Grenzen von Klimamodellen
Besonders schwierig sind Vorhersagen über eine Zukunft jenseits des menschlichen Erfahrungshorizonts, und um solche handelt es sich, wenn wir den Klimawandel bis zum Ende des 21. Jahrhunderts betrachten. Wir müssen uns dabei auf höchst abstrakte Werkzeuge verlassen, nämlich auf Klimamodelle. Dieser Vortrag wird die Möglichkeiten und Grenzen von Klimamodellen ausloten: Worauf basieren sie? Können wir ihren Ergebnissen vertrauen, und wenn ja, warum? Gibt es fundamentale oder praktische Grenzen ihrer Vertrauenswürdigkeit? Die Antworten liegen in grundlegenden Aspekten der Physik.
Zur Person
Jochem Marotzke studierte Physik an den Universitäten Bonn, Kopenhagen und Kiel und schloss dieses 1985 mit dem Diplom ab. 1990 promovierte er in Kiel in physischer Ozeanographie. Anschließend war er zwei Jahre lang am Massachusetts Institute of Technology beschäftigt und wurde dort 1992 zunächst Assistant Professor, 1997 dann Associate Professor. Von 1999 bis 2003 war er Professor für physische Ozeanographie am Southampton Oceanography Centre, danach wurde er zum Direktor des Hamburger Max-Planck-Instituts für Meteorologie berufen. Seit 2006 ist er auch Honorarprofessor an der Universität Hamburg; ein Jahr später wurde er Mitglied der Deutschen Akademie der Naturforscher Leopoldina. Im 2014 erschienenen Fünften Sachstandsbericht des IPCC war er einer der beiden Koordinierenden Leitautoren des Kapitels über die Evaluierung von Klimamodellen.
Center for Free-Electron Laser Science, DESY
The Hamburg Center for Ultrafast Imaging, Universität Hamburg
Massachusetts Institute of Technology, Cambridge, USA
Wie schrumpft man einen Beschleuniger? Vom Europäischen Röntgenlaser zur kompakten Röntgenquelle
In diesen Monaten wird in Hamburg der Europäische Röntgenlaser, ein Freier-Elektronen Laser im harten Röntgenbereich (European XFEL), in Betrieb genommen. Das Kernstück der Anlage ist ein etwa 2,5 Kilometer langer supraleitender Beschleuniger, welcher Elektronen auf bis zu 17 GeV beschleunigt, bevor Sie auf einem 1 Kilometer langen Slalomkurs gesandt werden, erzwungen durch starke periodische magnetische Felder, sogenannte Undulatoren. Dabei strahlen die Elektronen räumlich kohärente ultrakurze Röntgenimpulse ab. Der Europäische Röntgenlaser ist dann die gegenwärtig intensivste Röntgenquelle und ermöglicht neue Einblicke in den Bau und die Dynamik von Atomen, Molekülen und kondensierte Materie. Unsere Forschung beschäftigt sich mit der Miniaturisierung von Beschleunigern und Röntgenlasern, um damit in der Zukunft zum einen vollständig räumlich und zeitlich kohärente Röntgenimpulse im Attosekundenbereich zu erzeugen als auch eine weitere Verbreitung dieser Technologien zu ermöglichen. Schlüsselkomponenten einer solchen Technologie sind dabei Terahertz-Beschleuniger, welche wesentlich höhere Beschleunigungsfeldstärken erlauben, und optische Undulatoren in Form von Hochleistungslaserimpulsen. Verschiedene Ansätze und erste Ergebnisse werden diskutiert.
Zur Person
Franz Kärtner studierte Elektrotechnik und promovierte in Hochfrequenztechnik an der Technischen Universität München von 1981-1989. Er forschte als Feodor-Lynen Fellow der Alexander von Humboldt-Stiftung 1991-1993 am MIT, habilitierte sich 1997 in Experimentalphysik an der ETH Zürich, und lehrte von 1999 – 2001 an der Universität Karlsruhe (TH) und 2001 – 2010 am MIT. Seit 2011 leitet er die Gruppe für Ultrakurzzeit Laser- und Röntgenphysik am Center for Free-Electron Laser Science des DESY und am Research Laboratory of Electronics des MIT und lehrt an der Universität Hamburg. Er ist bekannt für seine Arbeiten zur Rauschanalyse von Mikrowellenoszillatoren, Erzeugung ultrakurzer Laserpulse, Femtosekunden-Synchronisation von Großforschungsanlagen, Terahertz-Beschleunigern und kompakten Röntgenquellen.
¹ Media Engineering am Fraunhofer IAIS, Sankt Augustin
Leiter der europaweiten Initiative „Roberta – Lernen mit Robotern“, Bonn
² Media Engineering am Fraunhofer IAIS, Sankt Augustin
Roberta-Teacher, Bonn
Open Roberta – Intuitive Roboterprogrammierung in der Cloud
In der Welt der Computeranwendungen ist das Prinzip der „open source“ weit verbreitet und sehr erfolgreich. Vergleichbare Ansätze gibt es auch in den Naturwissenschaften. Wir zeigen anhand von Simulationen und realen Experimenten, wie sich mit geringem finanziellem und methodischem Aufwand neurophysiologische Fragestellungen bearbeiten lassen.
Die Eigenschaften neuronaler Membranen werden mittels eines Simulationsprogramms untersucht. Mithilfe des Programms können neben dem Einfluss äußerer Parameter (z.B. Ionenkonzentrationen, Medikamente/Gifte) auch intrinsische Membraneigenschaften (z.B. Permeabilitäten) sowie simulierte Reize auf das elektrische Verhalten von Nervenzellen im Detail ausgetestet und dargestellt werden.
In einem weiteren Versuch werden mit einfach durchzuführenden extrazellulären Ableitungen verschiedene Aspekte neuronaler Signalverarbeitung untersucht. Im Einzelnen werden wir demonstrieren, wie Sinneszellen auf Reize reagieren, die Leitungsgeschwindigkeit von Nervenzellen bestimmen und elektrische Potenziale von der Unterarmmuskulatur des Menschen ableiten.
Die verwendete Software und die zum Einsatz kommenden Verstärker sind quelloffen und somit schnell verfügbar und an die eigenen Bedürfnisse anpassbar.
Zu den Personen
Thorsten Leimbach ist wissenschaftlicher Mitarbeiter in der Abteilung Media Engineering am Fraunhofer IAIS und Leiter der europaweiten Initiative „Roberta – Lernen mit Robotern“, Zudem ist Thorsten Leimbach verantwortlich für die strategische Projektentwicklung und Akquisitionen auf dem Gebiet der Bildungsrobotik am Fraunhofer IAIS.
Richard Erdmann ist wissenschaftliche Hilfskraft der Abteilung Media Engineering am Fraunhofer IAIS. Dort ist er mit der Erstellung von Schulungsmaterialien, wie Bauanlei-tungen und Aufgaben, sowie der Betreuung der Webpräsenzen betraut. Als Roberta-Teacher gibt er regelmäßig Roberta-Kurse für Kinder.
¹ Leiter des Labors für instrumentelle Analytik und des Schülerlabors Mobile Analytik, Hochschule für Angewandte Wissenschaften, Hamburg
² Wissenschaftlicher Mitarbeiter im Department Biotechnologie, Hochschule für angewandte Wissenschaften, Hamburg
Eigenanfertigung von Photometern
In diesem Workshop wird mit unterschiedlichen Spektrometern experimentiert. Das preislich günstigste ist ein LED-Photosensor, der u.a. bei Besuchen von Schulklassen an der HAW Hamburg von SchülerInnen selbst gefertigt wird. Ein weiteres ist für ca. 100 € als Bausatz kommerziell erhältlich. Der dabei eingesetzte Sensor lässt sich auch direkt mit einem Raspberry Pi Mikrocomputer verbinden und für Messungen einsetzen. Schließlich werden auch Experimente mit einem USB-Spektrometer durchgeführt, das simultan den Wellenlängenbereich von 400 bis 800 nm mit einer Auflösung von ca. 1 nm aufnehmen lässt.
Für die Durchführung der Experimente sollten die TeilnehmerInnen einen Taschenrechner mit Logarithmusfunktion oder einen Rechner mit Excel mitbringen.
Zu den Personen
Olaf Elsholz studierte an der TU Berlin Chemie und promovierte dort auf dem Gebiet der instrumentellen analytischen Chemie. 1990 war er für die Bundesanstalt für Materialforschung und Prüfung (BAM) am Kenian Bureau of Standards (KBS) in Nairobi tätig und trat danach eine Position als Laborleiter an der Umweltbehörde Hamburg an. 1993 wechselte er zunächst an die Bundesanstalt für Geowissenschaften und Rohstoffe (BGR) in Hannover und wurde im gleichen Jahr als Professor für Analytische und Umweltchemie an die Fachhochschule Hamburg (jetzt HAW Hamburg) berufen. Dort ist er u.a. seit 2000 Leiter des Labors für instrumentelle Analytik.
Ulrich Scheffler studierte Bioingenieurwesen an der FH Hamburg und war nach dem Studium in der Elektronik- und Softwareentwicklung tätig. Seit 1995 ist er in den Aufbau und die Weiterentwicklung des Labors für Bioprozessautomatisierung als wissenschaftlicher Mitarbeiter im Department Biotechnologie der Hochschule für Angewandte Wissenschaften Hamburg eingebunden. In seiner Forschungstätigkeit ist Herr Scheffler unter anderem als Experte für Systemintegration, d. h. der Verknüpfung von eigenständigen Mess- und Automatisierungsrechnern mit den Prozessleitsystemen der Bioreaktionstechnik zuständig. Weiterhin ist er in zahlreiche Studien-, Bachelor-, Master- und Doktorarbeiten sowie Industriepartnerschaften und unabhängige Entwicklungsprojekte der Mess- und Automatisierungstechnik in der Biotechnologie involviert. In diesen Projekten wird intensiv von den Möglichkeiten aktueller Mikrocontroller-Plattformen wie Raspberry Pi oder Arduino Gebrauch gemacht.
Institut für Verhaltenswissenschaften an der Eidgenössischen Technischen Hochschule Zürich (Schweiz)
Lernen
Alles, was wir in einem bestimmten Inhaltsbereich wissen und können, müssen wir zuvor – oft recht mühevoll – lernen. Diese eigentlich triviale Tatsache gewinnt vor dem Hintergrund der Diskussion um Bildungsinhalte zunehmend an Bedeutung. Lohnt es sich angesichts der sich schnell ändernden Welt überhaupt noch Inhaltswissen zu erwerben, oder sollte man dieses zugunsten der Vermittlung von Schlüsselqualifikationen und Lernstrategien zurückzustellen? Mit dieser Position werde ich mich sehr kritisch auseinander setzen. Lern- und Denkstrategien sind nämlich untrennbar an den jeweiligen Inhaltsbereich gebunden, und alle Versuche, solche Kompetenzen losgelöst von anspruchsvollen Inhalten zu trainieren, müssen als gescheitert betrachtet werden. Allerdings kann Inhaltswissen im Gedächtnis mehr oder weniger intelligent abgelegt werden und ist damit mehr oder weniger geeignet zur Bewältigung neuer Anforderungen. Unter Kompetenzen im kognitionswissenschaftlichen Sinne wird intelligent angelegtes und damit auf neue Anforderungen anwendbares Wissen verstanden. Wie Lernumgebungen beschaffen sein müssen, damit intelligentes, breit einsetzbares Wissen erworben werden kann, wird ausführlich behandelt. Worin sich Menschen in ihren Lernvoraussetzungen unterscheiden und inwieweit solche Unterschiede durch Anstrengung und Fleiß ausgeglichen werden können, wird ebenfalls angesprochen.
Zur Person
Elsbeth Stern studierte Psychologie an der Philipps-Universität Marburg und an der Universität Hamburg. Nach ihrem Diplom bei Hubert Feger promovierte sie 1986 bei Kurt Pawlik. Von 1987 bis 1993 war sie Wissenschaftliche Mitarbeiterin der Abteilung für Entwicklungspsychologie von Franz E. Weinert am Max-Planck-Institut für psychologische Forschung in München. Sie habilitierte sich 1994 im Fach Psychologie an der Ludwig-Maximilians-Universität München mit einer Arbeit über Die Entwicklung des mathematischen Verständnisses im Kindesalter. Von 1994 bis 1997 war sie Professorin für Pädagogische Psychologie an der Universität Leipzig. Von 1997 bis 2006 arbeitete sie als Forschungsgruppenleiterin am Max-Planck-Institut für Bildungsforschung in Berlin. Unter anderem forschte sie in einem Lernlabor, wie Kinder im Grundschulalter sinnvoll an Mathematik und Naturwissenschaften herangeführt werden können. Zusammen mit Ralph Schumacher entwickelte sie 2004 an der Universität Brandenburg ein Curriculum für die Frühkindliche Bildung. 2006 nahm sie einen Ruf an die ETH Zürich auf eine Professur für Lehr- und Lernforschung an. In der Presse bekannt wurde sie u.a. durch eine Untersuchung über den Einfluss des Lateinunterrichts auf die Intelligenzentwicklung, in der kein positiver Effekt auf das logische Schlussfolgern und Leistungen im mathematisch-naturwissenschaftlichen Bereich nachgewiesen werden konnte. Eine weitere Studie zum naturwissenschaftlichen Unterricht in der Vor- und Grundschule kam zu dem Ergebnis, dass z. B. physikalische Begriffe viel früher erfasst werden als bisher angenommen. 2014 wurde sie in die Akademie der Wissenschaften und der Literatur Mainz gewählt. Wissenschaftliche Schwerpunkte sind bei ihr neben der Lehr-Lern-Forschung Kognitionspsychologie und Intelligenzforschung.
Nobelpreisträger für Physik 1985
Direktor am Max-Planck-Institut für Festkörperforschung, Stuttgart
Vom Quanten-Hall-Effekt zu einem neuen Kilogramm
Der Nobelpreis für Physik 1985 wurde für die Entdeckung des „Quanten-Hall-Effektes“ verliehen. Von Beginn an war klar, dass hier ein neuer elektrischer Widerstand entdeckt wurde, dessen Wert nur von Naturkonstanten abhängt und heute durch die von-Klitzing-Konstante charakterisiert ist. Diese Entdeckung hat nicht nur die Präzisionsmesstechnik elektrischer Größen revolutioniert, sondern unser gesamtes Einheitensystem, das sogenannte „Système International d’Unités“ (SI).
Der Vortrag gibt einen Überblick über die Entwicklung unseres Einheitensystems und eine Einführung in das geplante neue SI System. Es besteht eine große Wahrscheinlichkeit, dass im Jahr 2018 unsere SI-Basiseinheiten (Länge, Masse, Zeit, Strom, Temperatur und Stoffmenge) auf der Grundlage von Fundamentalkonstanten definiert werden, wodurch z.B. auch das Urkilogramm seine Bedeutung verlieren wird. Bei einer solchen Neufestlegung wird der Quanten-Hall-Effekt eine wichtige Rolle spielen.
Zur Person
Klaus von Klitzing studierte Physik an der Technischen Universität Braunschweig und promovierte an der Universität Würzburg. Nach Auslandsaufenthalten in England und Frankreich und Habilitation in Würzburg erhielt er einen Ruf an die Technische Universität München. Neben zahlreichen Ehrungen und Preisen wurde ihm 1985 der Nobelpreis in Physik verliehen. Seit 1985 ist er Direktor am Max-Planck-Institut in Stuttgart und Honorarprofessor an der Universität Stuttgart.
Seine jetzige experimentelle Forschungsarbeit konzentriert sich auf elektronische Eigenschaften niedrigdimensionaler Halbleiterstrukturen.
Sein besonderes Engagement gilt dem wissenschaftlichen Nachwuchs und der Förderung der Vorbilder, die das Interesse bei der jungen Generation für die Naturwissenschaften wecken. Mit dem Klaus-von-Klitzing-Preis werden seit 2005 jährlich Lehrer ausgezeichnet, die in besonderer Weise Schülerinnen und Schüler für die MINT-Fächer begeistern.