Mobile learning – Altes Lernen in neuem Gewand

Thema dieser noch frischen Woche des opco11 ist das Mobile Learning. Höchst interessant und doch ein weites Feld…

Zuallererst habe ich mir die Frage gestellt: Was ist das überhaupt – mobile Learning? Natürlich liegt der Fokus des OpenCourse eher auf tollen neuen Tools in Web2.0-Manier. Und auch Wikipedia sagt zum Stichwort M-Learning:

Unter M-Learning wird allgemein das Lernen mit portablen ubiquitären Medien bzw. mobilen Medien überall und zu jeder Zeit verstanden.

Das Wörtchen „ubiquitär“ deutet hier tatsächlich an, dass es beim M-Learning um rechnergestütztes Lernen geht. Ich möchte jedoch die obige Definition einmal weiter auslegen und zu diesem Zweck das Wörtchen „ubiquitär“ einmal vollständig ignorieren. Mit eigenen Worten kann ich das mobile Lernen also ungefähr so definieren:

Mobile Learning ist jedes Lernen, das außerhalb des Schreibtisch bzw. Klassenraums bzw. Hörsaals stattfindet.

Eine Einschränkung ist allerdings noch nötig: Unter Mobile-Learning verstehe ich bewusstes Lernen. Dieses bewußte Lernen ist natürlich neben dem unbewussten Lernen, dem Aufnehmen und Verarbeiten von Sinnesreizen, nur ein kleiner Teil von „Lernen“. Aber gerade das bewußte, intentionale Lernen ist ja das, worum es in Bildungskontexten (zum größten Teil) geht.

Lege ich meine Definition zu Grunde kann ich sagen, dass ich „mobil“ vor allem durch zwei Dinge lerne: durch Bücher und durch Gespräche. Beide sind nicht an den Schreibtisch, den Klassenraum oder den Hörsaal gebunden und somit im besten Sinne mobil. Erstere sind immer verfügbar und ich kann leicht Anmerkungen und Gedanken hineinschreiben. Letztere  – der face-2-face-Kontakt – sind für meine ganz persönlichen Lernerfahrungen unersetzlich. Unersetzlich sind technische Spielereien für mich nicht.

Allerdings: In letzter Zeit unterstützt auch ein Smartphone mein mobiles Lernen. Hier nütze ich vor allem den GoogleReader, um über das informiert zu bleiben, was mich interessiert. Auch Twitter und Facebook werden von Zeit zu Zeit genutzt, ebenso wie QR-Code-Reader und dergleichen. Letztlich beschränkt sich meine persönliche Nutzung aber zumeist auf das reine Rezipieren von Texten. Somit hat sich zwar das Medium verändert (Buch -> Smartphone mit RSS-Reader), nicht aber das Lernen an sich. Der für meinen Teil kann ich sagen: Lernen ist für mich genauso mobil wie früher. Nur das Medium ist ein anderes geworden. Wie sieht es bei euch da draußen aus?

Eine kleine Randbemerkung: SicherdeinWeb schlägt eine Brücke zur vorletzten Woche des OpenCourse und klassifiziert Lerntechnologien nach ihren Anwendungsmöglichkeiten in 4 Bereiche (Suche, Austausch, Präsentation, Archivierung). Auch die dort vorgestellten Tools unterscheiden sich sicherlich in ihrem „Mobilitätsgrad“. Und noch mehr: Dieses einfach Schema bietet auch die Möglichkeit, die Möglichkeiten mobilen Lernens auszuloten.Wenn ich dieses kurz versuche: M-Learning (im Sinne der Wikipedia-Definition MIT z.B. Smartphones) kann beim Suchen von Informationen und begrenzt auch dem Austausch helfen. Archivierung und Präsentation wird in der Regel aber nicht auf dem Smartphone unterwegs stattfinden, sondern ganz klassisch: In aller Ruhe am Schreibtisch (Archivierung / Vorbereitung einer Präsentation) oder vor Publikum.

Phänomenta, Phänomene, Wagenschein

Am Freitag war ich mit der Uni in der Phänomenta in Flensburg. Es war großartig: wir haben unglaublich viele Experimente ausprobiert und mit ihnen im wahrsten Sinne des Wortes herumgespielt. Dabei haben wir auch noch Vieles über die Physik hinter den Dingen gelernt. Viel mehr möchte ich zu den Inhalten der Phänomenta aber auch gar nicht sagen. Selbst besuchen lohnt sich!

Was mich seit unserem Besuch dort beschäftigt ist ein kurzes Statement unseres Betreuers vor Ort:

Wir leben in einer Informationsgesellschaft, nicht in einer Wissensgesellschaft.

Diese Aussage ist auch in Bezug auf das Thema neue Medien und Veränderung des Lernens durch sie besonders wichtig und liefert mir neue Argumente, um Gunter Dueck zu widersprechen. So machen neue Medien in meinen Augen Experten nicht überflüssig, genauso wenig wie formale Bildung. Um das von ihm gebrachte Beispiel aufzugreifen: Mit Sicherheit hat ein Patient, der einige Zeit gegooglet hat, mehr Informationen über ein spezifisches Thema als beispielsweise der behandelnde Arzt. Jedoch – und das ist der große Unterschied: Der Arzt hat im Normalfall ein wesentlich größeres Wissen. Er kann Krankheiten im Zusammenhang sehen, hat ähnliche Krankheiten bereits behandelt und ist geübt in der Risikoabschätzung. Kurz: Der Arzt hat Wissen. Und genau dieses Wissen unterscheidet den Experten vom informierten Laien.

Um es auf den Punkt zu bringen: Durch die neuen Medien sind Informationen zwar ständig verfügbar. Jedoch sind Informationen, die nicht zu Wissen geworden sind, nur wenig wert. Wissen heißt in diesem Zusammenhang: Sinnliche Erfahrungen mit dem Gegenstand, die Fähigkeit, selbst mit der Information Probleme lösen. Oder, in neuerem pädagogischen Vokabular ausgedrückt, Kompetenz.

Ich will das an einem weiteren Beispiel aus der Physik festmachen: ich kann mir eine Webseite, zum Beispiel aus der wikipedia, durchlesen und erhalte daraus viele Informationen. Nehmen wir – ohne Beschränkung der Allgemeinheit- an, dass es sich um physikalische Gleichungen handelt. Ich kann diese zwar eventuell wiedergeben. Ich habe deswegen aber nichts im eigentlichen Sinn verstanden. Verstehen stellt sich erst ein, wenn Informationen verarbeitet werden. Es muss also (intelligent) geübt, an Experimenten herumgespielt, gerechnet und mit Vorwissen verknüpft werden. Erst dann stellt sich langsam Wissen im Sinne von wirklichem Verstehen ein. Da Verstehen nur, wie auch Herr Larbig schreibt, analog stattfinden kann, muss es offline und mit allen Sinnen geschehen. Welcher Ort eignet sich dazu besser als die Schule? Oder eben die Phänomenta. Das Internet kann bei der Beschaffung von Informationen gute Dienste leisten. Mehr aber auch nicht.

Und was hat Wagenschein damit zu tun? Wir haben die Methode des genetischen Gesprächs kennengelernt. Hierbei achtet der Moderator auf die Einhaltung der Gesprächsregeln:

  1. Nur einer spricht zur Zeit. Es gibt keine „Nachbarschafts-Gespräch“.
  2. Wer etwas sagen möchte, sagt es. Egal, wie sinnvoll es im ersten Moment erscheinen mag.
  3. Es wird streng am Phänomen orientiert diskutiert.

Im Rahmen dieses Gesprächs haben wir tatsächlich ein Exponat der Phänomenta erklärt. Und – das wichtigste: Alle haben es im besten Sinne verstanden. Zwar nicht unbedingt fachsprachlich korrekt. Aber wichtiger ist doch das „Wissen“ in oben erläutertem Sinne, oder? Mehr über das „genetische Gespräch“ findet sich hier.

Außerdem: Das Verstehen – ausgehend von Phänomenen – ist Wagenschein pur. Damit habe ich mich an anderer Stelle schon einmal auseinandergesetzt.

Lecker Lecker: Selbst gemachtes Eis!

Nächste Woche will ich mit Schülern als Abschluss einer längeren Einheit selbst Eis herstellen. Die Einheit ist übrigens sehr empfehlenswert und hier frei zugänglich zu finden. Fertige Arbeitsblätter habe ich daraus gebastelt und stelle sie bei Gelegenheit gern zur Verfügung!

Aber zur Eisherstellung: In Stationenarbeit haben die Schüler gelernt, dass durch eine Eis-Salz-Mischung sehr kalte Temperaturen erreicht werden können. Kalt genug jedenfalls, dass auch Fette erstarren! Bevor ich das mit den Schülern ausprobiere, muss ich mir natürlich sicher sein, dass alles funktioniert. Gesagt, getan: Zuerst habe ich eine gute Menge (ich habe 500 g benutzt) Eis zerkleinert und mit 150 g Kochsalz gut vermischt. Dann habe ich einen kleinen Kochtopf in ein größeres Plastikgefäß gestellt und in den Zwischenraum die Eis-Salz-Mischung gefüllt.

In den Topf kam dann das, was das Eis lecker macht: Zwei Becher Sahne, drei Päckchen Vanillezucker und ein guter Schuß Bailey’s. Letzteres ist wohl eher nicht schulgeeignet… Dann habe ich mit einem Plastiklöffel gerührt. Und gerührt. Und gerührt. Und ja, nach 15 Minuten war das Eis wirklich fest. Und schmeckte tatsächlich lecker. Wird das der Hit des NW-Unterrichts? Ich hoffe doch!

Übrigens: Jetzt ist mir übel. Aber lecker war’s. Hier zwei Fotos der Aktion – das Eis wurde auch noch deutlich fester als auf dem Bild:

Eis - noch wird kräftig gerührt
Eis - noch wird kräftig gerührt
Eis - langsam wird's fest
Eis - langsam wird's fest

 

E-Learning-Erfahrungen – #opco11

Ich nehme die Frage auf der #opco11-Webseite zum Anlass, einmal die im Lehramtsstudium an der Uni Hamburg gemachten Erfahrungen mit E-Learning zu schildern. Gerne würde ich auch über Erfahrungen in Schulpraktika berichten. Doch: Dort habe ich bisher nicht, was sich unter dem Begriff des E-Learnings fassen ließe, wahrgenommen. Schade eigentlich.

E-Learning findet in den Naturwissenschaften hauptsächlich dergestalt statt, dass der Dozent eine Webseite zum Kurs einrichtet. Auf dieser stehen dann einige Informationen, das Skript und eine Kontaktmöglichkeit. Ohne Besuch der Vorlesung haben diese Webseiten kaum einen Wert, erfüllen als Begleitmaterial dann aber durchaus ihren Zweck. Diskussionen der Studenten untereinander oder gar mit dem Dozenten können über die Webseite nicht stattfinden.

Am Fachbereich Erziehungswissenschaft wird viel und gern mit Commsy gearbeitet. Dieses System bildet einzelne Kursräume ab und bietet auch sonst einfache Diskussionsfunktionen und z.B. Möglichkeiten zur Terminabsprache. Genutzt werden Commsy-Räume allerdings in den meisten Fällen als Materialsammlung. Sieht zwar nach Web2.0 aus, ist es aber nicht wirklich. Muss es aber auch nicht sein, es erfüllt seinen Zweck. In einigen Fällen kommen auch hier rege Diskussionen zustande. Dies ist aber die absolute Ausnahme.

Erfahrungen mit E-Learning im eigentlichen Sinne, wo das Internet also nicht als bloßes Transportmedium genutzt wird, habe ich im institutionellen Rahmen keine gesammelt. Eher aus Bequemlichkeit nutze ich natürlich Wikipedia zur Recherche. Außerdem blogge ich gern. Ich schaue mir Simulationen an, wenn ich physikalische Gleichungen nicht auf Anhieb verstehe. Ich stelle anderen in Foren Fragen, wenn ich nicht weiter komme.

Ich erkenne also das Potential des E-Learnings durch eigeninitiative Erfahrungen. Dieses wird aber in meinem direkten Umfeld im institutionalisierten Rahmen – provokant formuliert – überhaupt nicht genutzt.

Sicherlich machen digitale Werkzeuge allein keinen schlechten Unterricht besser. Und sie werden – da stimme ich Herrn Larbig vollkommen zu – auch in Zukunft traditionellere Unterrichtsmethoden und „-werkzeuge“ nicht ersetzen können. Trotzdem bergen sie ein unglaubliches Potential, das in den seltensten Fällen für Schule und Hochschule fruchtbar gemacht wird. Habt ihr ähnliche Erfahrungen – in der Rolle der Lernenden, in der ihr die in einer Veranstaltung genutzten Medien nicht in der Hand habt – gemacht?

Warum sich etwas ändern muss! (#opco11 – Woche 1)

So das Thema der ersten Woche des OpenCourses 2011. Ja, warum muss sich eigentlich etwas ändern? Die erste Woche des #opco11 neigt sich dem Ende entgegen, die erste Live-Session ist vorbei und es sind viele interessante Beiträge entstanden. Besonders gewinnbringend finde ich bisher das von @_Rya_ gestartete Etherpad, in dem bereits vielfältige Gedanken geäußert wurden, „warum sich etwas ändern muss“. Die meisten der dort genannten Argumente beziehen sich entweder auf den Einsatz von Medien oder sind eher allgemeindidaktischer Natur. Den dort gemachten Überlegungen kann ich größtenteils zustimmen, finde aber als angehender Chemie- und Physiklehrer auch gerade auf den naturwissenschaftlichen (Fach-)Unterricht bezogene Gründe, „warum sich etwas ändern muss“. Diese möchte ich thesenartig zusammenfassen.

  • Die Methodik des Unterrichts muss sich ändern. Nicht unbedingt zu völlig individualisiertem Lernen hin, aber doch zu einem bunten Mix aus Lernformen. Kein Lehrer kann sich mehr einbilden, eine völlig homogene Klasse vor sich zu haben. Deshalb sind die Zeiten des reinen Frontalunterrichts gezählt. Offenere Unterrichtsformen können neue Technologien einbinden, Frontalunterricht widerspricht dem Grundgedanken des kollaborativen Lernens.
  • Die Inhalte des Unterrichts müssen sich ändern. Reines Faktenwissen ist in meinen Augen zwar nach wie vor notwendig, um reflektiert und sachbezogen Stellung zu verschiedensten Fragestellungen nehmen zu können. Außerdem gehört ein Mindestmaß an Wissen zu dem, was ich unter „Bildung“ verstehe. Mindestens genauso wichtig wie Faktenwissen sind aber methodische Kenntnisse: Wie lerne ich? Wie beurteile ich Wissensquellen? Wie organisiere ich Lernprozesse? Hier können Tools wie Wikis, Blogs, … neue Lernerfahrungen ermöglichen und neue Möglichkeiten aufzeigen.
  • Besonders im naturwissenschaftlichen Unterricht muss weniger auf Fachbegriffe als auf Verstehen gesetzt werden. Das heißt auch für den Lehrer: für die Schüler neue Fachbegriffe hinterfragen, ob diese wirklich notwendig  sind. Die Praxis sieht oftmals anders aus, wird sich aber hoffentlich nach und nach ändern.
  • Das Verhältnis von Lehrern und Schülern muss sich ändern. Lehrer haben eine unbestreitbare Vorbildrolle. Diese müssen sie annehmen, in dieser Rolle aber auch zeigen, dass sie selbst lern- und kritikfähig sind. Konkret bedeutet dies: Offensein für Ideen der Schüler, Feedback von den Schülern und an die Schüler institutionalisieren, didaktische Überlegungen ehrlich kommunizieren und den „roten Faden“ der Unterrichtsplanung aufzeigen. Online-Tools (Kursblogs oder -webseiten, Twitter, Commsy-Räume usw.) können hier sinnvoll eingesetzt werden. Lehrer haben natürlich (in der Regel) einen deutlichen Wissensvorsprung, sollten sich aber eher als Anbieter von Lernmöglichkeiten denn als Wissensvermittler verstehen.
  • Im naturwissenschaftlichen Unterricht müssen Experimente eine zentralere Rolle einnehmen. Sie sind nicht bloß „Entertainment“ zwischendurch, sondern dienen zum einen der Wissensgenerierung („Wie kann man untersuchen, ob ….?“) und zum anderen der Wissensüberprüfung („Stimmt es tatsächlich, dass…?“). Sie sollten also in ein didaktisches Gesamtsetting eingebettet sein. Hierzu kann auch mal das Üben einer experimentellen Methode nach einer strikten Anleitung („Kochrezept“) sinnvoll sein. Formen des forschenden Lernens („Plane ein Experiment, um …. zu untersuchen.“) müssen aber selbstverständlicher in den Unterricht eingebettet werden.
  • Die Chancen, die neue Medien bieten, müssen konsequent für den Fachunterricht genutzt werden. Excel vereinfacht den Umgang mit Messungen,  Etherpad’s können zum gemeinschaftlichen Verfassen von Versuchsprotokollen genutzt werden. Experimente, die im Unterricht nicht durchgeführt werden können, werden bei Youtube angeschaut oder mit entsprechender Software simuliert. Wikis und Blogs dienen zum kollaborativen Festhalten von erarbeitetem Wissen und zeigen die Chancen des gemeinsamen Lernens auf. Beiträge aus Mediatheken und Online-Angeboten von Zeitschriften dienen zum Üben, nach welchen Kriterien Quellen im Internet beurteilt werden können. Der Umgang mit Powerpoint, Word und z.B. Prezi kann die Präsentationskompetenz stärken und den Fachunterricht aufwerten.
  • Um das alles umsetzen zu können, müssen Lehrer sich im Umgang mit neuen Medien und Methoden konsequent fortbilden. Ein grundsätzlicher Wandel kann auf Dauer nur Bestand haben, wenn sich in der Breite etwas tut. Diese Entwicklung sehe ich zur Zeit nicht. Natürlich ist hier auch die Lehrerbildung ein wichtiger Ansatzpunkt.

Diese Thesen sind mit Sicherheit nicht alles, was zu diesem Thema zu sagen ist. Vieles davon ist in manchem Unterricht bereits Realität, in vielen Fachräumen aber auch nicht. Dass für die Umsetzung teilweise immense räumliche und zeitliche Ressourcen notwendig sind, ist unbestreitbar. Sinnvoll wären viele der oben umrissenen Maßnahmen in meinen Augen allemal. Oder?

Weitere interessante Gedanken finden sich bei Herrn Larbig. So stellt er fest:

Die Zukunft des Lernens ist seine Vergangenheit und Gegenwart: Lernen ist ein (hirn)physiologischer Prozess, der analog abläuft und heute genau so funktioniert, wie er vor hundert oder tausend Jahren funktioniert hat

Hier muss ich ihm in Teilen widersprechen: Sicherlich funktioniert Lernen grundsätzlich heute genauso wie früher. Jedoch sind „Wissen“ im Sinne von deklarativem, faktenbasierten Wissen und prozedurales Wissen im Sinne von mehr oder minder automatisch ablaufenden „Können“ zwei unterschiedliche Paar Schuhe. Verschiebt sich die Aufgabe von Schule in Richtung „können“ so heißt dies, dass beispielsweise das regelhafte Feedback-Geben und -Nehmen immer wieder in verschiedenen Kontexten geübt werden muss, damit es zum Automatismus wird. Dies war schon immer so, Schule hat hier in meinen Augen aber durchaus Nachholbedarf.

Volle Zustimmung erhält er von mir aber für die implizite Forderung, dass lernpsychologisches Wissen verstärkt wieder Teil der Ausbildung von Lehrern werden muss. Ich merke das selbst: in meinem Studium taucht Psychologie schlicht nicht auf. Schade und für meine berufliche Praxis vermutlich eher kontraproduktiv. Es verspricht also weiter interessant zu werden ;)

Vortrag von Prof. Oliver Reiser: Chemie im Alltag

Heute abend hatte ich die Gelegenheit, einen sehr interessanten und kurzweiligen Vortrag von Prof. Reiser zum Thema „Chemie im Alltag“ an der Universität Hamburg zu hören. Und es hat sich durchaus gelohnt. Sehr zu empfehlen ist auf den ersten Blick seine Webseite, die mich doch sehr an das Angebot von Prof. Blume erinnert. Anschauen lohnt sich, ich habe beide Seiten in die Links aufgenommen.

Besonders nachdenklich haben mich mal wieder die Ausführungen zur Wahrnehmung der Chemie im Alltag gestimmt, die er hier umreißt. Da in den Augen vieler Menschen den Naturwissenschaften kein Bildungswert zukommt, habe ich heute länger darüber nachgedacht, worin dieser Bildungswert genau liegen könnte.

Was ich hier für die Physik gesagt habe, gilt in sehr ähnlicher Weise auch für die Chemie. Insgesamt können die Naturwissenschaften uns eine weitere Möglichkeit der Betrachtung der Welt eröffnen. Genauso wie Literatur, Geschichte oder andere Wissenschaften.

Aber weiter gedacht: Haben die Naturwissenschaften noch weiteren Bildungswert? Rein utilitaristisch betrachtet haben die Naturwissenschaften eine unglaubliche handlungspraktische Bedeutung, die mir gerade in jüngster Zeit wieder deutlich geworden ist. Als Stichworte seien Fukushima, Dioxine im Futter, Gentechnik, Präimplantationsdiagnostik und vielfältige Alltagsprodukte wie Benzin, Kunststoffe, … genannt. Differenzierte Diskussionen hierüber sind ohne ein breites naturwissenschaftliches Wissen schlicht nicht möglich. Mehr noch: ohne dieses Hintergrundwissen ist eine Teilnahme als mündiger Bürger an unserer Gesellschaft für mich kaum vorstellbar.

Und doch ist in der breiten Gesellschaft von „scientific literacy“ oftmals nichts zu spüren. Wir brauchen also besseren Unterricht!

 

OpenCourse2011: Ich bin dabei (#opco11)

Am Montag beginnt ein sehr interessantes Experiment für mich: Ich nehme an einem „OpenCourse“ zum Thema „Die Zukunft des Lernens“ teil. Das ganze kostet nichts und die Agenda klingt sehr interessant. Wer noch ein bißchen Zeit über hat: Anmelden!

Ich hoffe, dass ich es schaffen werde, im Laufe des Kurses einige interessante Themen zu verbloggen.

Unser Sonnensystem in 3D

Über den Physikblog habe ich eine grandiose Animation unseres Sonnensystems entdeckt. Anschauen und ausprobieren! Das „SolarsystemScope“ ist eine Flash-Animation und hier zu finden.

Es sind verschiedene Ansichten einstellbar (heliozentrisch, geozentrisch, Sternenpanorama), alles ist frei drehbar und man kann sich alles auch noch animieren lassen, die Planeten hin- und herziehen und viele andere tolle Dinge…. Wäre das nicht was für den Physikunterricht?

Wasserstoffentwicklung in Atomkraftwerken – Updated

Update am 17.3.: Offenbar scheint großes Interesse an den Hintergründen zu bestehen. Deshalb habe ich den Artikel erweitert und Quellen ergänzt. Die Ergänzungen sind jeweils unterstrichen.

Bereits gestern habe ich einen Link zur Dissertation von M. Bendiab gepostet. In dieser werden verschiedene Mechanismen diskutiert, wie in Kernkraftwerken Wasserstoff entstehen kann. Dieser Wasserstoff war vermutlich der Grund, warum es verschiedene Explosionen in mehreren Blöcken des KKW Fukushima gegeben hat. Außerdem scheint es, dass es ähnliche Störfälle (die glimpflich abliefen) auch in deutschen Kernkraftwerken bereits gegeben. Wie also kommt Wasserstoff in ein Kernkraftwerk?

Zunächst: Das eigentliche Spaltmaterial der Kernkraftwerke ist in Pellets gepresstes Urandioxid ([latex size=“1″]UO_{2}[/latex]), in einigen Fällen zusätzlich auch ein Plutoniumoxid (Sogenannte Mischoxid-Elemente, kurz MOX-Brennelemente). Diese Pellets werden durch eine Hülle aus Zirkalloy, einer Legierung mit hohem Zirkoniumanteil, umschlossen. Die Pellets mit der Hülle bilden den sogenannten Brennstab, der einige Millimeter dick ist. Viele dieser Brennstäbe werden dann gebündelt und bilden die Brennelemente, von denen mehrere wiederum den Kern eines KKW bilden (siehe Bild).

Brennelement eines KKW
Brennelement eines KKW. Foto: Wilfried Wittkowsky, 2005, Gefunden bei Wikimedia Commons.

 

 

Entsteht nun – zum Beispiel auf Grund geringer Kühlung – eine bestimmte Menge Wasserdampf und ist die Temperatur erhöht, so kann eine Redox-Reaktion zwischen Wasser und Zirkonium (Zr) einsetzen. Diese verläuft exotherm, liefert also zusätzlich weitere Wärme, wodurch noch mehr Wasser verdampfen kann. Die Reaktionsgleichung hierfür ist:

[latex size=“1″]Zr + 2 H_{2}O \longrightarrow ZrO_{2} + 2 H_{2}[/latex]

Eine Druckerhöhung ist hierdurch per se erstmal in meinen Augen kaum zu erwarten, da ja pro Wassermolekül auch ein Molekül Wasserstoff entsteht. Die Hauptkomponente der Druckerhöhung im Reaktor dürfte – soweit ich als Laie auf diesem Gebiet das überblicken kann – eher die erhöhte Temperatur sein.

Die ganze Reaktion ist – soweit ich das nachvollziehen kann – temperaturabhängig. Ob eine Reaktion spontan abläuft, hängt von der freien Enthalpie [latex size=“1″]\Delta G[/latex] ab. Diese ist selbst nach der Gibbs-Helmholtz-Gleichung aber (in diesem Falle leicht) temperaturabhängig.

Ebenfalls kann durch Reaktion von Wasserdampf mit verschiedenen anderen, im Reaktor vorhandenen Stoffen, Wasserstoff entstehen. Einzelheiten in der oben verlinkten Dissertation. Zusätzlich kann durch Einwirkung ionisierender Strahlung Wasser direkt zu Wasserstoff und Sauerstoff umgesetzt werden (Radiolyse). Das ist dann natürlich eine ganz unangenehme Mischung…

Solange Wasserstoff nicht mit Sauerstoff in Kontakt kommt, ist die Welt noch in Ordnung. Ist dieser jedoch verfügbar – durch die Luft oder andere chemische Reaktionen – kann es einen ordentlichen Knall geben: Die Knallgasreaktion, die schon in kleinen Mengen sehr eindrucksvoll sein kann:
Ob es zu einer Explosion kommt, hängt stark vom Mischungsverhältnis Wasserstoff-Luft-Wasserdampf ab. Eine schöne Übersicht findet sich in der Dissertation von P. Drinovac (S.8).

Neben der oben bereits erwähnten Reaktion von Wasser mit Zirkonium und der direkten Radiolyse von Wasser durch Strahlung spielen bei gewissen Temperaturen auch die folgenden Reaktionen eine Rolle (siehe Diss Bendiab, S. 38):

[latex size=“1″]3 UO_{2} + 2 H_{2}O \longrightarrow U_{3}O_{8} + 2 H_{2}[/latex]

Diese Reaktion spielt bei Temperaturen ab 1100 °C eine Rolle. Ebenso kann bei Temperaturen ab 1000 °C das im Stahl des Druckbehälters vorhandene Eisen zu verschiedenen Eisenoxiden oxidiert werden:

[latex size=“1″]Fe + H_{2}O \longrightarrow FeO + H_{2}[/latex]

 

[latex size=“1″]2 Fe + 3 H_{2}O \longrightarrow Fe_{2}O_{3} + 3 H_{2}[/latex]

Weitere Möglichkeiten finden sich ebenfalls bei Bendiab. Die Theorie einer direkten Thermolyse von Wasser zu Wasserstoff und Sauerstoff, wie sie im H2Blog vorgeschlagen wird, halte ich persönlich für eher unwahrscheinlich, da diese erst bei wesentlich höheren Temperaturen (ab 2500 °C . Laut Riedel (2. Aufl. 1990, S. 272) liegt das Gleichgewicht der thermischen Dissoziation von Wasser zu Wasserstoff und Sauerstoff erst weit jenseits von 2000°C merklich auf Seite der Elemente) einsetzt. Bei diesen Temperaturen wäre aber wohl alles andere innerhalb des Reaktors geschmolzen, was so zumindest nicht in der Presse zu lesen war.

Fukushima – Aus aktuellem Anlass. * Updated 17.3.*

Zwar hoffe ich noch inständig, dass Fukushima nicht bald in einem Atemzug mit Tschernobyl genannt werden muss. Und wegen tatsächlich besserer Technik wird es wohl auch nicht soweit kommen. Dennoch ist es – gerade über TV-Medien – momentan schwierig, an gute Informationen zu kommen. Daher vorerst einige hilfreiche Links und demnächst mehr...

Unbedingt lesenwert: Der PhysikBlog erklärt, was so ein Reaktor überhaupt ist und was es mit der Kernschmelze auf sich hat. Und das auf sehr humorvolle Weise… Sofern dies überhaupt möglich ist.

Bei Diax Rake finden sich immer aktualisierte Links zu guten Informationen. Ich möchte und muss ihm (und auch unserem Bundesumweltminister) jedoch vehement widersprechen: Gerade jetzt ist eine Diskussion über die Zukunft der Kernenergie richtig und wichtig! Dazu jedoch von meiner Seite auch in den nächsten Tagen mehr. Hoffen wir, dass es alles glimpflicher abläuft als es momentan scheint… Ihr müsst dort jedenfalls, wie FrischerWind schreibt, das „AKW-Gegner-Bashing“ ignorieren…

Bei Bodenseepeter findet sich die Übersetzung eines englischsprachigen Artikels von Dr. Josef Oehmen über die technischen Hintergründe. Ich stimme ihm nicht in allen Punkten zu, finde den Artikel jedoch sehr lesenswert.

Nicht direkt mit den Vorgängen in Japan hat eine Zukunftsvision von BravenewClimate zu tun – werden wir wirklich im Jahr 2060 zu 75% auf atomare Energie setzen? Ich hoffe, wir finden Alternativen…

Relativ kompakte Informationen über Strahlung, relevante Messgrößen und die im Zusammenhang mit dem Austritt radioaktiver Stoffe verbundenen Gefahren finden sich bei den WissensLogs und sehr schön aufbereitet bei WeltderPhysik.

Ebenfalls bei WeltderPhysik: Die Stellungnahme der Deutschen Physikalischen Gesellschaft als Video.

Wer etwas mehr über die chemischen Hintergründe der Wasserstoffexplosionen erfahren möchte, dem sei das 3. Kapitel der Dissertation von M. Bendiab empfohlen.

Wer einmal selbst ein KKW vor dem GAU retten möchte, kann sich an diesem JAVA-Applet versuchen. Danke für den Hinweis an @akasche.

Etwas populärwissenschaftlicher – aber sehr gelungen – ist das Video der PeriodicTable of Videos der University of Nottingham, das ich via YouTube gern einbinde und damit diese Linksammlung für heute abschließe.

Inhalt nicht verfügbar.
Bitte erlauben Sie Cookies, indem Sie auf Übernehmen Sie auf das Banner

Update 15.3. – 22:39

Sehr informativ berichtet auch die Webseite der GRS über die Lage. Nicht immer ganz aktuell, aber ohne Panikmache.

Update 16.3. – 23:59

Gerade lief im ZDF Abenteuer Forschung von und mit Harald Lesch. Sehr informativ, auch ethische Fragen der Kernenergie wurden diskutiert. Empfehlenswert! Noch gibt es Teile der Sendung in der Mediathek des ZDF: „Übrigens“ zur Sendung, Beitrag über die Auswirkungen ionisierender Strahlung aus der Sendung und Beitrag über Möglichkeiten der erneuerbaren Energien.

Update 17.3. – 23:59

Gerade bin ich noch auf sehr viele interessante Links gestoßen. Im Sammelsurium für den Unterricht findet sich eine Skizze eines Siedewasserreaktors. Ebenfalls dort: Strahlendosismesswerte (via GRS) und Vergleich mit normaler Hintergrundstrahlung sowie Zeitungsausschnitt aus der FAZ zu biologischen Strahlenschäden.

Das MIT erklärt, was Nachzerfallswärme eigentlich ist – allerdings auf englisch. Wer es lieber deutsch mag, findet es beim PhysikBlog. Die ZEIT stellt klar: Es gibt keine sichere Strahlendosis. Aus purem Interesse: Stellungnahme von CampusGrün-Hamburg zu den Vorfällen.

Mein neues Spielzeug: Der Inspiron Duo von Dell *Update am 18.3.*

Mein Dell Inspiron Duo-Netbook
Mein Dell Inspiron Duo-Netbook

Nach einigen Tagen voller Recherche und verschiedener Überlegungen habe ich es am letzten Montag gewagt und mir im Elektronikladen mit dem M ein Dell Inspiron Duo Convertible Netbook („Netvertible“) gekauft. Das Besondere: Der – übrigens sehr gut verarbeitete! – Laptop hat einen ganz normalen Monitor mit zwei Scharnieren. In der Mitte lässt sich der Monitor aber drehen und man hat ein Tablett mit einem kapazitiven Touchscreen.

Warum ich ihn mir gekauft habe? Nunja: Hauptsächlich möchte ich ein leichtes Notebook für Uni und Unterricht (Stichwort: Papierfreie Tasche) haben, das mir die Möglichkeit bietet, direkt in z.B. Vorlesungsskripte Notizen und Markierungen zu machen. Ansonsten sollte er aber alles können, was ein normales Netbook auch kann (OpenOffice, PDF’s anzeigen, Internet, W-LAN). Auf große Spielequalitäten lege ich keinen gesteigerten Wert.

Was ist im Inspiron Duo drin?

Einen sehr ausführlichen Testbericht mit Vor- und Nachteilen findet ihr bei notebookcheck.com. Das möchte ich hier gar nicht alles wiederholen. Wichtig ist herauszustellen, dass der Inspiron Duo für ein Netbook zur eher flotten Kategorie gehört und mit 2 GB Arbeitsspeicher für alle Office-Aufgaben gut gerüstet ist. Schade ist allerdings: Es gibt weder einen HDMI- noch einen DVI- oder VGA-Ausgang. Für Präsentationen ist das Netbook daher erstmal nur bedingt geeignet.

Wie läuft der Dell?

Besser als erwartet! Klar, Touch macht nicht ganz so viel Spaß wie auf dem iPad. Dafür steckt hinter dem Dell aber ein vollwertiges Winows-System mit entsprechender Erweiterbarkeit. Im Vergleich zu einem reinen Netbook muss man Abstriche in Sachen Akkulaufzeit hinnehmen. Wer aber zu einem Preis von unter 600 € für das 320 GB-Modell einen High-End-Rennwagen erwartet, täuscht sich sowieso selbst.

Die Touch-Funktion funktioniert gut und flüssig und auch sonst läuft das System zu meiner vollen Zufriedenheit.

Notwendige Anpassungen

Die mitgelieferte Dell-Stage-Software läuft sehr langsam und bietet in meinen Augen auch keinen Mehrwert. Sie wurde also gleich mal deaktiviert und die meiste andere vorinstallierte Software deinstalliert. Durch einen englischen Blog bin ich auf einige Software-Tipps gestoßen. Diese möchte ich kurz widergeben und durch eigene Ideen ergänzen. Ganz wichtig waren mir diese allgemeinen Punkte:

  • Ich habe die System-Schriftgröße wieder auf 100% gestellt (Rechtsklick auf den Desktop -> Anpassen -> Anzeige)
  • Alle vorinstallierten Programme, die für mich ohne Nutzen sind (z.B. die Testversion von MS Office), wurden deinstalliert
  • Wenn alle im Haushalt vorhandenen Computer (so wie bei mir) unter Windows 7 laufen: Eine Heimnetzgruppe einrichten. Das vereinfacht die Dateifreigabe usw. ganz ungemein!
  • Auf meinem normalen Laptop habe ich das DVD-Laufwerk freigegeben. So kann ich ggf. Software von CD ohne externes CD-Laufwerk direkt auf dem Inspiron Duo installieren.

Auf in die Cloud

Um Dateien zwischen dem Inspiron Duo und meinem „normalen“ Laptop zu synchronisieren, benutze ich Dropbox. Hier bekommt man umsonst 2 GB Speicherplatz, der für beliebige Dateitypen genutzt werden kann. Dropbox bindet sich als eigenes Verzeichnis in das System ein und synchronisiert bei aktiver Internetverbindung die Dateien mit dem Server. So ist immer auf jedem Computer der aktuelle Datenbestand vorhanden – und auch über das Webinterface jederzeit (auch vom Smartphone!) verfügbar.

In eigener Sache: Wenn ihr mir (und euch) etwas gutes tun wollt, meldet euch über diesen Link bei Dropbox an. Ihr bekommt dann 250 MB weiteren Speicher, ich 500 MB. Danke!

Office

Als Office-Suite benutze ich OpenOffice. Es ist kostenlos und kann eigentlich alles, was das Konkurrenzprodukt von Microsoft auch kann. Allerdings setze ich auf dem Inspiron Duo auch ein Microsoft-Produkt ein: MS OneNote 2007.

In OneNote ist es möglich, Notizen zu erstellen (aus Bildern, Webseiten, per Tastatureingabe oder auch per Freihandeingabe) und diese übersichtlich in verschiedenen Notizbüchern zu ordnen. So wird Papier bei Besprechungen überflüssig! Wie gut die Freihandeingabe mittels Stift funktioniert, lest ihr weiter unten.

OneNote bietet für mich noch einen weiteren Vorteil: So kann man in OneNote per Rechtsklick auf ein Notizbuch den Speicherort eben dieses Notizbuches verändern. Dieser liegt nun in meinem Dropbox-Verzeichnis und wird mit meinem normalen PC synchronisiert. Auf diesem wiederum ist OneNote 2010 installiert, der das gleiche Notizbuch aus der Dropbox öffnet. So habe ich immer meine Notizen bei mir und in der Dropbox gleichzeitig eine Sicherungskopie. Ganz praktisch, oder? Zugegeben: Die Idee stammt von Jan-Martin Klinge, genauer aus seinem OneNote-Projekt. Ich habe es nur auf Dropbox „übersetzt“ und meine Bedürfnisse übersetzt.

Ein Tipp: Solltet ihr noch studieren, so ist es nicht unwahrscheinlich, dass eure Uni am sogenannten MSDNAA-Programm von Microsoft teilnimmt. Dort bekommt ihr – wenn ihr euch z.B. im Rechenzentrum – anmeldet, eine Lizenz von OneNote 2007 und eine von OneNote 2010 – für lau.

Web-Browser

Hier benutze ich – obwohl sonst eingefleischter Feuerfuchs-Benutzer – GoogleChrome, da dieser einfach eine insgesamt größere Darstellung von Webseiten anbietet und  schön schnell ist. Allerdings braucht es für die komfortable Touch-Bedienung einige Plugins:

PDF-Viewer

Ich benutze den kostenlosen PDF-XChange-Viewer. Mit diesem können sowohl per Tastatur als auch per Stift- bzw. Fingereingabe Anmerkungen und Markierungen direkt in die PDF-Datei geschrieben werden. Besonders zum Markieren von Text (mache ich häufig) sehr praktisch, für Freihandnotizen (mache ich eher selten) aber nur bedingt geeignet. Ausprobieren lohnt sich!

Dinge, die das Leben leichter machen

  • Ein Stift ist eine lohnende Investition. Ich benutze diesen hier und bin damit ganz zufrieden. Es schreibt sich natürlich nicht wie auf Papier, jedoch ist die Eingabe auf der OnScreen-Tastatur von Windows damit sehr einfach und die Touch-Funktion recht komfortabel. Auch die Eingabe von Freihandtext funktioniert in OneNote mit ein wenig Übung gut. Die Schrift wird von Windows sehr zuverlässig in Maschinenschrift umgesetzt. Update: Ich konnte die Schrifterkennung – und auch meine persönlichen Schreibfertigkeiten – sehr gut mit Hilfe der Handschriftanpassung von Windows 7 verbessern. Wie das geht, findet ihr bei Microsoft.
  • Eine externe Grafikkarte habe ich bestellt – über Erfahrungen werde ich berichten, da der Inspiron Duo ab und an auch mal an den Beamer muss. Update: Die Grafikkarte (die günstigste bei Amazon) funktioniert zumindest am Monitor tadellos. Präsentationen laufen gut, Erfahrungen am Beamer konnte ich noch nicht sammeln. Negativ muss bemerkt werden, dass dieses Modell zwar den Monitor spiegeln oder auch den Desktop erweitern kann, leider aber nicht reibungslos als zusätzlicher Monitor von Windows erkannt wird. Der Präsentationsmodus von Powerpoint (den ich persönlich nie nutze) funktioniert also nicht ohne weiteres.
  • Eine Schutzhülle habe ich ebenfalls bestellt. Über Erfahrungen werde ich ebenfalls berichten, sobald ich sie gemacht habe. Diese war leider zu klein und ist mir schon kaputt gegangen. Ich bin noch auf der Suche nach einem passenden Exemplar… Update: Ich habe für’s erste eine kleine Tragetasche beim Elektrofachmarkt meines Vertrauens erstanden. Sie ist für 11′-Netbooks geeignet und das Inspiron Duo passt wunderbar hinein. Außerdem bietet so eine Tragetasche den Vorteil, das auch Netzteil und sonstiges Zubehör Platz finden. Für den Schutz des Netbooks suche ich allerdings zusätzlich trotzdem noch eine Neopren-Hülle…
  • Update: Evernote ist eine Alternative zu OneNote (siehe oben). Ich benutze es nicht regelmäßig. Wem aber die Vollversion von OneNote zu teuer ist, sollte sich Evernote mal anschauen.
  • Update: Absolut praktisch ist die Software RitePen. Sie ist in der Lage, Handschrift zu erkennen und mach ihren Job wesentlich besser als die Windows-eigene Handschriftenerkennung. Mit RitePen ist es möglich, über den gesamten Monitor zu schreiben und das Geschriebene wahlsweise in Maschinenschrift übersetzen oder aber als Screenshot speichern zu lassen. So sind auch mit OpenOffice sehr einfach Notizen in Präsentationen möglich. Die Screenshots lassen sich direkt in Evernote speichern.

Fazit

Ich habe den Kauf nicht bereut. Zwar ist die Akkulaufzeit mit ca. 3-4 Stunden nicht überragend, dennoch kann die Leistungsfähigkeit und auch die Touchfunktion überzeugen. Die Verarbeitung ist gut und die Bauweise des Touchscreens eine echte Innovation.

Wer eine direkte Konkurrenz zum iPad erwartet, wird enttäuscht sein. Auch wer ein reines Netbook sucht, sollte besser zu den (günstigeren) Geräten ohne Touchscreen greifen. Wer allerdings beides sucht und ein erweiterbares System mit Winows haben möchte, sollte den Dell einmal ausprobieren.

Dieser Artikel wird bei Bedarf und neuen Erfahrungen immer mal wieder erweitert und ergänzt.

Zur Wahl in Hamburg…

Am Sonntag dürfen wir wählen: Eine neue Bürgerschaft und neue Bezirksversammlungen. Für mich ist es das erste Mal, dass ich für das Hamburger Landesparlament abstimmen darf. Grund genug für einige kritische Gedanken.

Wahlsystem – Viele Stimmen, arme Zähler

Das Wahlsystem in Hamburg ist neu: Man hat nun auf einer Landesliste (bis zu) 5 beliebig zu verteilende Stimmen. Diese können sowohl Personen als auch Listen gegeben werden und kumuliert oder panaschiert werden. Mit dieser Stimme wird die Sitzverteilung (und teilweise die Reihenfolge der Landesliste) bestimmt.

Weitere 5 Stimmen gibt es auf einer Wahlkreisliste. Hier können die Stimmen allerdings nur Personen gegeben werden. Hierbei wird über insgesamt 71 Wahlkreismandate entschieden. So wie ich das verstehe, können also Überhangmandate entstehen, wenn eine Partei mehr Wahlkreissitze bekommt, als ihr nach Erststimmenergebnis zustünden. Ich habe hierzu aber auf die Schnelle nichts finden können.

Ihr seht auf dem Foto die Landesliste der CDU (zufällig aufgeschlagen). Wohlgemerkt: Nur der CDU. Und nur die Landesliste.
Ihr seht auf dem Foto die Landesliste der CDU (zufällig aufgeschlagen). Wohlgemerkt: Nur der CDU. Und nur die Landesliste.

Das gleiche Spiel gibt es dann auch nochmal für die Bezirksversammlungen, macht insgesamt 4×5 Stimmen. Der Musterstimmzettel ist daher auch mehr ein Musterstimmbuch, wie auf dem Bild gut erkennbar ist.

Prinzipiell finde ich das ganze gut: Mehr Einfluss der Bürger auf die Zusammensetzung der Parlamente. Aber warum tut man den armen Auszählern das an? Warum wagt man nicht den logisch nächsten Schritt und führt Wahlcomputer ein? Hier wäre es doch sogar möglich, Gesichter neben die Personen zu setzen. Und mehr als 5 Stimmen könnte auch aus Versehen niemand verteilen… Aus Angst vor der neuen Technik? Dabei wäre es doch ein leichtes, nach jedem Wähler einen kleinen Kontrollausdruck zu drucken, der dann – zur Vorsicht – in eine Urne kommt. So wäre es, wenn es hart auf hart kommt und die Computer streiken, immernoch möglich, das Ergebnis nachzuvollziehen. Und wenn die Computer funktionieren, ist das Ergebnis um 18:01 Uhr da. Und nicht erst irgendwann am Mittwoch…

Bildungspolitik

Leider scheint das einzutreten, was ich vor dem Volksentscheid befürchtet habe: Keine Partei traut sich mehr, etwas wirklich substantielles in der Schulpolitik zu verändern. CDU und SPD schwafeln vom „Schulfrieden“, der mindest 10 Jahre andauern solle. Von der FDP möchte ich – KatJA sei Dank – gar nicht sprechen. Die Grünen wollen zwar noch immer längeres gemeinsames Lernen… Aber ob dieser Wunsch eventuelle Koaliationsverhandlungen übersteht? Wir dürfen alle gespannt sein. Denn die Frage am Sonntag scheint ja zu sein: Reicht es für die SPD allein oder brauchen sie einen Koalititonspartner?

Interessantes zur Wahl

Für alle unentschlossenen ist der Wahl-o-mat empfehlenswert. Eine Internetseite der Stadt informiert über das neue Wahlrecht und man kann „Probewählen“. Und der Wahlbeobachter veröffentlicht täglich die Twitter-Charts… Ob die Piraten am Sonntag ein ähnlich starkes Ergebnis einfahren? Ich glaube es dann doch eher nicht. Wie dem auch immer sei: Geht wählen. Und wählt nicht die NPD…

Lernen, Lernen, nochmals Lernen

…was tut man nicht alles, um sich davon abzulenken. Ich beginne jedenfalls gerne, im Internet zu stöbern und bleibe an einigen interessanten Seiten hängen. Das ist definitiv interessanter als die Gefahrstoffverordnung oder die Chemikalienverbotsverordnung *gähn*.

Dank astrodicticum simplex bin ich auf einen grandiosen Comic über „Carl Sagans kampf gegen das Astrology-Raumschiff“ gestoßen. Sehr amüsant und für einen kurzen Schmunzler zwischendurch mehr als geeignet.

Außerdem gefunden: ein tolles Video über TNT und Nitroglycerin. Ich mag Chemie… außer Rechtskunde jedenfalls ;)

Einsatz von Wikis im Unterricht

Im Rahmen der Begabtenförderung werde ich im Sommer auf der Nachhaltigkeitsakademie des Vereins Jugendbildung in Gesellschaft und Wissenschaft e.V. gemeinsam mit einer Kommilitonin einen Kurs zum Thema „Regenerative Energien“ anbieten. Die Ergebnisse der Arbeit soll – so unsere Vorstellung – in einem Wiki dokumentiert werden. Meine Erfahrungen mit dem Wiki werde ich zu gegebener Zeit an dieser Stelle dokumentieren. Zunächst möchte ich in diesem Blogpost meine Vorüberlegungen vorstellen.

Schließlich weißt Christian Spannagel noch auf einige „Alltagsprobleme“ hin. So seien viele (gerade jüngere) Schüler mit dem Einsatz eines Wikis überfordert und bräuchten für einfach Dinge (Anmelden beim Wiki) unglaublich viel Zeit. Auch sei der kooperative Gedanke nicht so verwurzelt, wie es wünschenswert wäre. Unter anderem dadurch sei dann auch die Motivation der Schüler geringer als erwartet.

Was ist überhaupt ein Wiki?

Ein Wiki […] ist ein  Hypertext-System für Webseiten, deren Inhalte von den Benutzern nicht nur gelesen, sondern auch online direkt im Browser geändert werden können.

Diese Definition aus der Wikipedia sagt wohl fast alles: In einem Wiki können die Betrachter einer Webseite ihren Inhalt direkt ändern und so selbst neue Inhalte generieren. Weitergehend kann man sogar sagen: Sie können auch die durch andere Benutzer erstellten Inhalte ändern und so die Qualität des Inhalts insgesamt sukzessive verbessern. In der Regel wird durch ein recht ausgeklügeltes Backup-System sichergestellt, dass auch alte Artikelversionen noch immer vorhanden sind (bei obigem Artikel zum Beispiel hier). So können alte Versionen durch entsprechend berechtigte Benutzer wieder hergestellt werden.

Logo der Software MediaWiki. Bildquelle: Wikipedia

Die bekannteste Wiki-Software ist das auch für die Wikipedia eingesetzte System MediaWiki. In meinen Augen ist diese Software zur Zeit die ausgereifteste Wiki-Software auf dem Markt. Sie enthält sehr viele Funktionen – die für kleine Projekte natürlich manchmal auch viel zu riesig überdimensioniert sind. Alternativen zu MediaWiki finden sich hier. Gerade für Bildungszwecke kann es auch interessant sein, ein Wiki nicht selbst aufzusetzen, sondern bei einem Service-Provider zu betreiben. Dieses geht beispielsweise bei wikispaces und hat den Vorteil, dass man als Lehrender sich nicht um die Technik hinter dem Wiki kümmern muss.

Unser Einsatzszenario

Wir werden mit circa 20 Beteiligten am Wiki arbeiten. Da sich alle (zukünftigen) Benutzer noch nicht untereinander kennen, wurde das gesamte Wiki zunächst mit einem Kennwort versehen. Das habe ich mit .htacces realisiert: einfach, vergleichsweise sicher und ganz wichtig: wenn alle Teilnehmer einverstanden sind, ist der Verzeichnisschutz auch leicht wieder zu entfernen. So kann das Wiki der breiteren Öffentlichkeit zugänglich gemacht werden, ohne direkte Änderungen am Code oder an der Datenbank vornehmen zu müssen.

Da das eigentliche Seminar durch (Kurz)referate inhaltlich vorbereitet werden soll, kommen Themenstellungen und Materialien für die entsprechenden Referate direkt ins Wiki. Das hat auch für uns als Dozenten Vorteile: So können wir beide parallel arbeiten und uns gegenseitig ergänzen bzw. korrigieren. Ein nicht zu unterschätzender Zeitgewinn im Vergleich zu persönlichen Treffen.

Natürlich soll während des Seminars auch in Gruppen gearbeitet werden. Die Ergebnisse dieser Arbeiten können – genau wie die ausgearbeiteten Referate – über das Wiki direkt allen Teilnehmern zugänglich gemacht werden. Die Notwendigkeit, ausufernde PowerPoint-Präsentationen zu erstellen, entfällt somit in weiten Teilen: Oft ist es einfach, einer Wiki-Artikel gut zu strukturieren und dann mit allen gemeinsam die Kernpunkte anhand des Artikels zu besprechen.

Was spricht gegen den Einsatz eines Wikis?

Schaut man sich ein wenig in der Blogosphäre um, so haben viele Blogger sehr zwiespältige Erfahrungen gemacht, die ich an dieser Stelle kurz zusammenfassen möchte. So stellt Maik Riecken fest:

Der Mehrwert [eines Wikis] entsteht für mich erst durch Rückmeldungen, die so motivierend sind, dass sie den Verbesserungs- und Überarbeitungsprozess anzutreiben vermögen. Deswegen versauern m.E. nach einer ersten euphorischen Anfangsphase so viele Schülerblogs.

Ich denke da hat er recht. Das Problem bei allen im Unterricht entstandenen Produkten ist doch: Sie sind (zumindest oftmals) nicht aus eigener Motivation der Schüler heraus entstanden, sondern aus einem durch die Schule geschaffenen Notendruck heraus (ich möchte den Begriff  „extrinsische Motivation“ hier nicht zu sehr strapazieren). Diesen Druck in eigene, „intrinsische“ Lern- und Arbeitsmotivation umzuwandeln, gelingt nicht immer und nicht bei jedem Schüler. Und haben Schüler (genau wie andere Menschen ja auch) keine intrinsische Motivation, so „versauern“ viele Projekte nach Abschluss der Unterrichtseinheit und werden nie wieder gepflegt.

Beim Einsatz eines Wikis ist also zu beachten, dass alle Teilnehmer/Schüler „mit im Boot“ sitzen und den Nutzen gegenseitiger Kritik und Hilfe erkennen. Dies gelingt wohl nicht in allen Klassen.

Ein weiteres Problem reißt Werner Prüher an:

Daher müsste ich bei jedem Lehrgang thematisch ein neues Wiki beginnen. Aber was mache ich mit dem alten Wiki? Als Lernunterlage für die nachfolgenden Schüler? Das ist zu vergessen, das ist wie e-learning aus dem Jahr 2000, völlig unakzeptabel. E-Learning heute heißt: Inhalte erstellen. Der Weg ist das Ziel, niemals das Endprodukt. Das Endprodukt ist als Nachschlagewerk nützlich, aber nicht als Lern- oder Unterrichtsbehelf.

Ich stimme insoweit zu, als die „Verwertung“ des Endproduktes ein Problem darstellt – gerade in Schulen mit festgezurrtem Curriculum, wo sich Themen jährlich wiederholen. Niemand benötigt 10 verschiedene Wikis zum gleichen Thema. Und sich – mit einer neuen Klasse – in ein Thema soweit einzuarbeiten, dass gewinnbringend an einem alten Wiki weitergearbeitet werden kann, ist wohl schwer zu realisieren. Eine Lösung könnte hier nur sein, Wikis für innovative, mehr oder minder einmalige Themen einzusetzen. So stünde – zumindest beim ersten Wiki-Kontakt – dann doch das Produkt im Vordergrund. Haben Schüler dann den Wert von Wikis und ähnlichen Systemen für die Zusammenarbeit erkannt, mag im Idealfall dann tatsächlich „der Weg das Ziel“ sein – und das Problem sich in Luft auflösen.

Schließlich wird der zu Anfang der Wiki-Arbeit sehr hohe Zeitbedarf kritisiert. Dieser hängt aber in meinen Augen sehr stark von der jeweiligen Lerngruppe (Vorerfahrungen, Alter, …) ab.

Was spricht für den Einsatz eines Wikis?

Alle oben genannten Kritikpunkte stellen in meinen Augen zwar gewichtige Argumente für den Verzicht auf ein Wiki in bestimmten Lerngruppen dar, nicht jedoch gegen den Einsatz eines Wikis an sich. Als Vorteile sehe ich:

  • Kollaboration: Durch den Einsatz eines Wikis besteht die Möglichkeit, echte Kollaboration bei den Teilnehmern zu erreichen. So können im Idealfall alle Teilnehmer am gleichen Text arbeiten, sich gegenseitig konstruktiv kritisieren (und solche Formen der Kritik einüben) und ein äußerst hochwertiges Produkt entwickeln.
  • Entkopplung der Lernzeit aus dem starren Schulrhythmus. An einem Wiki kann immer gearbeitet werden, egal zu welcher Uhrzeit. So wird den Teilnehmern zum einen eine wesentlich größere Freiheit gegeben – zum anderen aber auch eine erhebliche Eigenverantwortung für das eigene Lernen. Steffen Obeling merkt hierzu an, dass in Unterrichtssituationen das Wiki aber natürlich sinnvoll in den Kontext des Unterrichts integriert sein muss und es klare Regeln bezüglich Formaler und Kommunikativer Aspekte geben muss. Volle Zustimmung zu dieser Anmerkung.
  • Förderung von Medienkompetenz. Durch das Erlernern des Wiki-Codes und dem Umgang mit einem Wiki erwerben die Teilnehmer wichtige Fähigkeiten beim Umgang mit einem Wiki und anderen Internetsystemen. Dies könnte beispielsweise auch darin münden, dass Teilnehmer sich für die Arbeit in der Wikipedia begeistern.
  • Steffen Obelingt weißt noch auf einen weiteren Punkt hin: Durch ein (Media)Wiki werden Produktionsprozesse von Wissen und Inhalt sichtbar dokumentiert. So hat auch der Lehrer die Möglichkeit, die Aktivität der einzelnen Schüler über die Logs nachzuvollziehen. Kritisch möchte ich hierzu aber anmerken: Wird die Qualität/Quantität der Einzelbeiträge in irgendeiner Form bewertet, so steigt in meinen Augen die Hemmschwelle, etwas zum Wiki beizutragen. Wenn eine Benotung vorgenommen werden muss, dann eine des Endproduktes. Trotzdem: Die Logs eines Wikis bieten unglaubliche Möglichkeiten, den Produktionsprozess explizit im Unterricht zu reflektieren.

Dinge, die berücksichtigt werden müssen

Absolut sinnvoll finde ich die „10 Best Practices“ von Barbara Schröder. Bei der Konzeption des Wikis für unser Seminar waren und sind sie mir eine große Hilfe. Unter anderem plädiert sie dafür, Regeln und Erwartungen an die Lerngruppe klar zu formulieren.

Wie oben bereits erwähnt: Sowohl aus Gründen des Copyrights als auch aus Datenschutzgründen sollte ein Wiki meiner Meinung nach nur allgemein zugänglich gemacht werden, wenn alle Beteiligten sich damit einverstanden erklären – und sich an Copyrights halten. Ich halte es daher für sinnvoll, zuerst mit höheren Sicherheitsstufen zu arbeiten.

Und schließlich das Wichtigste überhaupt: Damit kein Teilnehmer an einem Wiki-Projekt überfordert wird, muss die Technik eines Wikis, die dahinterstehenden Grundgedanken, die Handhabung, die Anmeldung, … gemeinsam mit ausreichend Zeit geübt werden. Denn nur, wenn man weiß, wie es funktioniert, kann ein Wiki ein Projekt voranbringen. Wie gesagt: Über meine Erfahrungen werde ich zu gegebener Zeit berichten.

Pimp my Blog: Erweiterung des TinyMCE-Editors und ein schönes Firefox-Plugin

Welcher Blogger hat sich nicht schonmal über den in WordPress eingebauten Editor geärgert? Er kann zwar vieles – aber lange nicht alles. Heute habe ich beim Stöbern im Internet zwei praktische Helferlein entdeckt, die den eingebauten TinyMCE-Editor ein wenig aufwerten.

TinyMCE Advanced…

…ist ein Plugin für WordPress und lässt sich als solches sehr leicht installieren. Am einfachsten funktioniert das aus dem Adminbereich per automatischem Download. Ist das Plugin erst installiert, erscheinen im WordPress-Editor mehrere neue Formatierungsoptionen, die einem das Leben erleichtern. Besonders praktisch finde ich sie im Vollbildmodus. Gestoßen bin ich auf dieses tolle Plugin durch den Blog von Michael Karl.

UPDATE: Wenn TinyMCE aktiviert ist, fehlt in meinem Backend plötzlich der Quote-Button. Dies ist aber nicht weiter schlimm: Soll ein Absatz als Zitat formatiert werden, einfach den gewünschten Absatz markieren und die Tastenkombination ALT + SHIFT + Q drücken. Zum Rückgängigmachen einfach die gleiche Kombination nochmal.

Deepest Sender…

…ist ein Plugin für Firefox. Das Programm verbindet sich mit dem Blog und man kann direkt aus der Sidebar Blogeinträge verfassen. Diese können auch direkt als „Draft“ markiert werden und so später noch in WordPress bearbeitet werden. Das würde ich auch immer so machen, da der Editor nicht so wahnsinnige Formatierungsoptionen unterstützt. Stolpert man aber zufällig über einen Gedanken, über den man etwas schreiben möchte, so ist das Plugin mehr als praktisch. Zu finden ist Deepest Sender hier. Gefunden habe ich den Link bei speckyboy. Dort finden sich übrigens noch viele viele weitere Firefox-Erweiterungen, die für den einen oder die andere durchaus sinnvoll sein können.

Blogblumenparade 2011

Mein Blog ist noch jung – so jung, dass ich noch nie an einer Blogparade teilgenommen habe. Das möchte ich hier und jetzt nachholen.

Durch Christian Droßmann bin ich auf eine Blogparade der Blogblume gestoßen. Sie ruft dazu auf, eine „Blume seines Blogs“ – generiert aus Verzweigungen und HTML-Tags – mit dem Tool HTMLGraph zu erstellen. Und hier kommt meine Blume 2011:

Sehr hübsch das ganze. Einen Vergleich zum Vorjahr kann ich leider nicht ziehen – so viele Jahre hat mein Blog ja leider nocht nicht auf dem Buckel. Was nicht ist, kann ja aber noch werden, oder?

Online-Zusammenarbeit: Google-Docs und Etherpad

Ich habe mich in den letzten Tagen aus verschiedenen Gründen ein wenig mit Tools zur Zusammenarbeit an Dokumenten beschäftigt. Als erstes habe ich mich – nach längerer Abstinenz – mal wieder an GoogleDocs (auf Deutsch nun „Texte & Tabellen“) herangewagt. Da ich sowieso ein GoogleMail-Konto habe, ist der Service auch nur einen Klick entfernt. Und was soll ich sagen: Seit meinem letzten Besuch hat sich einiges getan!

GoogleDocs hat sich zu einem – fast – vollwertigen Officeprodukt gemausert. Auch schön: Man kann ganz genau festlegen, mit welchen Personen  gemeinsam an einem Dokument gearbeitet werden darf. Auch zeitgleiches Editieren mit Chat-Funktion ist möglich (ein kleines Video dazu findet sich bei Google). Für etwas umfangreichere Dokumente gibt es zur Zeit kaum etwas vergleichbares, webbasiertes – und das auch noch kostenlos.

Der Nachteil: GoogleDocs ist natürlich, wie der Name schon sagt, von  Google. Ich persönlich teile keine Weltuntergangs- und Verschwörungstheoriephantasien, was den Datenschutz bei Google angeht. Ich kann es aber durchaus nachvollziehen, wenn nicht jeder alle seine Daten gerne in die Hände dieses Weltkonzerns legt.

Für solche Menschen – und gerade auch für „das kleine Dokument zwischendurch“ gibt es die Freeware Etherpad. Etherpad war vor einigen Jahren mal ein Dienst, der einfaches simultanes Bearbeiten von Textdokumenten mit mehreren Nutzern bereitstellte. Stellte, da er dann von – na, wem? – Google aufgekauft wurde. Die Software ist mittlerweile aber OpenSource und bei verschiedenen Anbietern in Betrieb. Einer davon ist typewith.me.

Dort kann mit nur einem Klick ein neues Dokument erstellt werden. Man erhält einen kryptischen Link, mit dessen Hilfe das Dokument bearbeitet werden kann. Nachteil: Wirklich geschützt – z. B. mit einem Passwort – sind die Dokumente nicht. Vorteil: Es müssen keine weiteren persönlichen Daten hinterlegt werden und die Software funktioniert gut und reibungslos, unterstützt aber außer „plain text“ kaum Formatierungsbefehle. Für umfangreichere Projekte scheint mir der Dienst daher weniger geeignet. Einen Kurztest (in english!) findet man auch bei isocialcompute.

Neben typewith.me gibt es auch für andere Google-Dienste guten (und fast gleichwertigen) Ersatz, wie Christiane Schulzki-Haddouti in ihrem Blog schildert. Für mich sind viele dieser Dienste aber nichts, ich mag den Komfort von Google (…Der GoogleKalender ist auch der einzige Kalender, der vernünftig mit meinem Handy synchronisieren möchte).

Wozu sind also solche Dienste zur „Zusammenarbeit“ gut?

Zum einen erleichtern sie die Zusammenarbeit mehrerer Personen an einem Dokument. Im Studium oder auch bei anderen Projekten kann dies äußerst entlastend sein, da man sich nicht mehr mit diversen Mails mit noch viel mehr unterschiedlichen Dateiversionen und unterschiedlichen Office-Paketen herumschlagen muss. Alle können direkt die aktuelle Version editieren und Änderungen der anderen mitverfolgen.

Zum anderen kann ich mir auch – ganz ähnlich wie Maik Riecken – den Einsatz im Unterricht gut vorstellen. So können Schüler Kompetenzen im besten SInne erwerben, wenn sie Arbeitsergebnisse kollaborativ und direkt am Computer gemeinsam festhalten können. Maik erklärt übrigens auch, wie man Etherpad selbst installiert.

Ziemlich Cool: Erdgas aus CO2 und Wasser

Eigentlich hatte ich ja vor, mir in einem Blogpost Gedanken über das Für und Wider der Kernenergie zu machen. Eigentlich, denn hängen geblieben bin ich bei einem sehr interessanten Projekt: Der Speicherung von CO2 in den vorhandenen Erdgasnetzen.

In einem Forschungsprojekt der Fraunhofer-Gesellschaft wird dies bereits erfolgreich erprobt und kann in meinen Augen als ein Baustein für die effiziente Nutzung regenerativer Energie dienen. Kurz zusammengefasst ist der Kerngedanke folgender (etwas ausführlicher im H2Blog):

CO2 wird aus der Luft gewonnen und mit überschüssigem Strom aus z.B. Windkraftanlagen wird Wasser zu Sauerstoff und Wasserstoff elektrolysiert. Der Wasserstoff wird dann katalytisch mit CO2 zu Methan, einem Hauptbestandteil des Erdgases, umgesetzt. Dieses kann dann in Gaskraftwerken oder privaten Heizungen verwertet werden. Der Clou: Für Erdgas gibt es bereits riesige Speicherkapazitäten. Ein Beispiel hierfür ist der relativ neue Erdgasspeicher in Kraak.

Strom hingegen lässt sich nicht wirklich gut speichern: Für eine ordentliche Ladungsportion werden schnell mal Akkus im Einfamilienhaus-Maßstab benötigt. Und die sind nach einigen Lade- und Entladezyklen früher oder später hinüber und leider dazu auch noch oft unter Selbstentladung. Die Speicherung in Form von Erdgas erscheint mir da wesentlich eleganter. Und noch etwas: Das ganze ist wirklich CO2-neutral. Es entsteht also nicht mehr CO2 als anfangs gebunden wurde.

Wie sieht das ganze auf chemischer Ebene aus? Dazu enthält der Link leider nur wenige Informationen. Ich reime mir das ganze in etwa als modifizierten Sabatier-Prozess zusammen. Im Grunde ist dies ein alter Hut, könnte aber mit neuartigen Katalysatoren wesentlich effizienter ablaufen. Beispielsweise wird aktuell an einem Ruthenium-Aluminium-Katalysator geforscht.

Es gibt aber auch andere Ideen sind zur Speicherung regenerativer Energien. Persönlich kommt mir noch ein Projekt zur Speicherung von Wärme – z.B. aus Solarzellen – durch reversible Salzhydratation in den Sinn. In diesem Projekt habe ich im Grunde meine Bachelorarbeit geschrieben, vielleicht raffe ich mich auch mal zu einigen Worten hierzu auf. Weitere Ideen sind natürlich auf Nanotechnologie beruhenden Akkus und viele Dinge mehr. Hierfür müsste natürlich „nur“ deutlich mehr Geld für die Forschung ausgegeben werden. Nur…

ChemZ 4 – Wie sieht mein Fazit aus?

Gut Ding will Weile haben – manchmal aber auch sehr viel Weile. Hier ist er nun aber, der letzte Teil meiner kleinen Serie über das Konzept ChemZ.

Fazit: Meine Erfahrungen mit ChemZ

Ich möchte hier zunächst aus meinem Praktikumsbericht über das Praktikum, in dem ich ChemZ ausprobiert habe, zitieren, um meine Erfahrungen zusammenzufassen.

Das von mir benutzte Konzept „Chemie mit medizintechnischem Zubehör“ hat mich während des Praktikums mehr und mehr überzeugt. Viele Reaktionen lassen sich mit Hilfe von Spritzen und einfachen, unempfindlichen Geräten schnell und mit kleinen Stoffmengen (auch im Schülerversuch) durchführen. Ein großer Vorteil ist weiterhin die einfache Handhabung von Gasen in den gasdicht verschließbaren Spritzen. Mit klassischen Glasgeräten ist die Handhabung von Gasen meist deutlich komplizierter und auch gefährlicher, da immer die Gefahr des Zerberstens besteht. Diese ist bei der Benutzung von Spritzen nicht gegeben.

Jedoch wird für den Umgang mit dem vielfältigen Zubehör eine gewisse Einarbeitungszeit benötigt, um alle Versuche schnell und erfolgreich durchführen zu können. So musste ich erst einmal lernen, wie genau die Spritzen mit den Hähnen verbunden werden, welche Möglichkeiten es gibt, Gase aufzufangen, wie ich am geschicktesten Spritzen miteinander verbinde und vieles andere mehr. Hier ist sind Kreativität und Spieltrieb gefordert.

Alles in allem hat mich das Konzept ChemZ gerade im Hinblick auf den Einsatz in der Schule überzeugt. Mit seiner Hilfe lassen sich viele Dinge wie die Dichtemessung mit guter Genauigkeit schnell und einfach sogar im Schülerversuch durchführen und viele Versuche, die ansonsten zu aufwändig/gefährlich wären, werden in der Schule durchführbar. Jedoch sollten in meinen Augen Schüler im Unterricht nicht den Eindruck bekommen, man könne alle Versuche mit Hilfe von Spritzen durchführen. Glasgeräte und „klassische“ Laborgeräte müssen daher auch in jedem Unterricht ihren Platz bekommen. Im Rahmen eines integrierten Konzeptes lässt sich ChemZ aber gewinnbringend einsetzen.

Ich möchte Stichpunktartig die Vor- und Nachteile der Benutzung des Konzepts „ChemZ“ niederschreiben und damit auch diese kleine Serie wesentlich später als geplant beenden.

Vorteile von ChemZ

  • Kostenfaktor – so günstig wie Spritzen, Hähne und Schläuche gibt es auf dem Markt wohl kaum ein Glasgerät zu kaufen.
  • einfacher Aufbau – die Versuche sind alle sehr schnell aufgebaut (nach einem gewissen „Warmwerden“ mit dem System) und ohne langes Schliffe-Fetten einsatzbereit
  • geringes Sicherheitsrisiko – gerade beim Arbeiten mit Gasen und bei „gefährlicheren“ Reaktionen ist das Risiko bei der Benutzung von ChemZ wesentlich geringer als bei der Benutzung von Glasgeräten. Zum einen sind die umgesetzten Stoffmengen vergleichsweise klein, zum anderen ist die Gefahr des Zerberstens nicht gegeben. So sind viele Versuche schnell und sicher auch als Schülerversuche durchführbar.
  • Auflockerung des Unterrichts – durch die Benutzung von aus anderem Kontext bekannten Geräten.

Nachteile von ChemZ

  • Genauigkeit – mit Spritzen ist eine Titration lange nicht so genau durchführbar wie mit klassischen Büretten und etwas Übung. Wobei gerade bei Schülern diese Übung naturgemäß oft auch fehlt.
  • Wissenschaftspropädeutik – im chemischen Labor ist es nicht üblich, mit solchen Geräten zu arbeiten. Ziel des Chemieunterrichts muss es auch sein, dass die Schüler auch den Umgang mit einfachen Glasgeräten lernen.
  • vermeintlicher Lebensbezug – auf der Webseite von ChemZ wird mehr oder minder behauptet, dass durch die Benutzung von medizintechnischem Zubehör ein größerer Bezug zur Lebenswelt der Schüler gegeben sei. Hier bin ich eher skeptisch, denn allein durch die Benutzung von bestimmten Geräten wird noch lange nicht zwangsläufig auch ein Phänomen aus dem Erfahrungsbereich der Schüler untersucht. Sicherlich sind mit dem Konzept derartige Versuche denkbar, jedoch sind diese genausogut auch mit herkömmlichen Glasgeräten machbar. Dieses ist in meinen Augen eher ein Scheinargument für ChemZ.

Schlussbemerkung: ChemZ kann in meinen Augen eine große Bereicherung für den Chemieunterricht in jeder Altersstufe darstellen und bietet eine kostengünstige, sichere und einfache Möglichkeit des Experimentierens – auch im Schülerversuch. Jedoch sollten Schüler genauso auch den Umgang mit „klassischen“ Glasgeräten kennenlernen. Einen echten Mehrwert bietet ChemZ also nur in einem integrierten Kurs mit starkem Bezug zur Lebenswelt der Schüler und der Benutzung klassischer Geräte.

Bisher in dieser Artikelserie: