smartphone geht vor

Tekst
Loe katkendit
Märgi loetuks
Kuidas lugeda raamatut pärast ostmist
Šrift:Väiksem АаSuurem Aa

Neue Medien = neue Gehirne = neue Jugend = neues Lernen?

Seit Marc Prensky (2001a, 2007) den Begriff der Digital Natives für eine Generation einführte, die zum einen mit den digitalen Technologien­ ­aufgewachsen und vertraut ist, zum anderen durch ganz andere ­Erfahrungen geprägt wurde und ganz anders ist als ihre Elterngeneration (Digital Immigrants), hat eine Kontroverse eingesetzt, ob die Gehirne dieser Generation anders ausgebildet sind, und wenn ja, was dies für das Lehren und Lernen bedeutet.

Das von Prensky beschriebene Phänomen kann jeder Lehrende, ob Elternteil, Lehrer oder Hochschuldozent, anhand seiner alltäglichen Lehrerfahrungen bestätigen, sodass dieses Phänomen recht plausibel erscheint. Doch weisen viele Fachleute auch darauf hin, dass Belege dafür fehlen, dass die Gehirne der jüngeren Generationen qualitativ anders funktionieren, denken, fühlen, kommunizieren und lernen (vgl. Schulmeister, 2008; vgl. Helsper/Eynon, 2009; vgl. Kerres, 2013). Betrachtet man bei dieser Kontroverse, aus welchen Generationen und Disziplinen Pro- und Kontraargumentationen mit und ohne wissenschaftliche Belege geführt werden, hat man oft den Eindruck, dass hier mehrere Fragestellungen, Argumentationsstränge und Grundsatzposi­tionen nicht zielführend und sachgerecht miteinander verwoben werden. Dies mag interessant erscheinen, hat aber mitunter nur einen bedingten Mehrwert, da die eigentliche Fragestellung in den Hintergrund zu rücken scheint. Der Begriff Neuroplastizität ist dabei zu einer mächtigen Metapher geworden, und zwar als Argument sowohl für als auch gegen den digitalen Medienkonsum, sodass er dabei selbst plastisch wurde (vgl. Choudhury/McKinney, 2013). Dieser fehlende Mehrwert gipfelt dann in der Forderung, dass die eine richtige lerntheoretische Position und die eine richtige Lehr-/Lernmethode für das Problem doch endlich zu benennen sei. In diesem Diskursstadium finden sich Formulierungen wie: »Der Behaviorismus wird durch den Konstruktivismus überwunden, alle Seminare jetzt auch im Blended-learning-Ansatz« oder »mit NLP sind alle Lernprobleme und alle Lebenskrisen lösbar – bei ­jedem«.

Die Komplexität des Lernens und die Komplexität der heutigen Lern- und Bildungswelten legen nahe, dass eine einfache Reduktion auf eine Methode für alle Lehrenden und Lernenden und schlichte Entweder-oder-Reflexe zu vermeiden sind. Es wird dafür plädiert, das Phänomen Lernen in der digitalen Ära bzw. Lernen an sich aus unterschiedlichen, sich nicht wechselseitig ausschließenden Positionen und Perspektiven zu betrachten: Diese sind weder gut noch schlecht, alle in jedem Kontext richtig oder falsch, noch gibt es den einen Musterschüler oder den typischen Studierenden der Net-Generation. Die zunehmende Heterogenität der Lerngruppen als auch die Individualität des Lerner- und Lehrendengehirns in seinen unterschiedlichen Lernprägungen lassen in ihrer alltäglichen und komplexen Wechselwirkung nur eine offene, pragmatische Sichtweise im Bildungsprozess zu. Zunächst wird betrachtet, wie diese unterschiedlichen Prägungen neurobiologisch gekennzeichnet und wie dadurch wiederum die Generationen geprägt sind (Kap. 2).

1.1Unser Gehirn passt sich plastisch den exponentiellen Zeiten an


|Abb. 3| Gall’scher Schädel, Wien 1812

»Die erste Welle der Hirnforschung lieferte vor einigen Jahren mehr Fiktion als Fakten. Nun liegen neue […] hilfreiche Erkenntnisse vor.« (Waytz/Mason, 2013, S. 36)

Wie das menschliche Gehirn funktioniert, hat die Menschheit seit jeher interessiert: Es wurden ganze Sammlungen von (Elite-)Gehirnen angelegt, um ihnen ihre Geheimnisse zu entlocken. Am Ende des 18. Jahrhunderts geschah das zunächst auf kuriose und vorwissen­schaftliche Art und Weise. Zum Beispiel verortete der deutsche Mediziner Franz-Joseph Gall (1758–1828) bestimmte Charakter- und Persönlichkeitseigenschaften anhand der Schädelform in bestimmten Gehirnarealen: Ein langer Hinterkopf zeuge beispielsweise von Anhänglichkeit, eine Wölbung über dem rechten Auge von Ortssinn (|Abb. 3| vgl. Critchley, 1965; vgl. Greenblatt, 1995). Seine von ihm entwickelte Kombination von Physiognomie und Gehirnlokalisation nannte er zunächst Kraniologie – die Wissenschaft vom Schädel. Anschließend Organologie – die Wissenschaft von den Organen im Gehirn – und kurze Zeit später wurde die Wissenschaft als Phrenologie bezeichnet – »the science of the mind« (Greenblatt, 1995, S. 790–05).

In der Tagespublizistik des 19. Jahrhunderts waren seine Theorien »ein Ereignis« (vgl. Deneke, 1985), seine öffentlichen Vorträge auf seiner zweieinhalbjährigen Vortragstour (1805–1807) überwältigend. Wobei der Wissenschaftshistoriker John van Whye die Absichten von Gall weniger in der Vermittlung der Wissenschaften oder in der Verbreitung seiner Theo­rien sieht, sondern vielmehr darin, zur intellektuellen Elite seiner Zeit zu gehören. (vgl. van Whye, 2002)

Der Durchbruch für das Verständnis der Funktionsweise des ­menschlichen Gehirns kam mehr als ein Jahrhundert später aus dem Tierreich, sodass die Reise in das menschliche Gehirn zunächst im ­Tierreich beginnen soll:

»Im Laufe der Geschichte der Neurowissenschaften hat eine große Menagerie von Invertebraten[2] als Versuchstier gedient. Der Tintenfisch […], Schaben, Fliegen, Bienen, Egel und Fadenwürmer (Nematoden) […]. Zugegebenermaßen ist das Verhaltensrepertoire eines durchschnittlichen Invertebraten eher begrenzt. Dennoch lassen sich bei vielen Invertebratenarten die […] einfachen Formen des Lernens beobachten […]. Die Neurobiologie des Lernens wurde vor allem an einer Art erforscht, an der Meeresschnecke Aplysia californica ([|Abb. 4|], Kalifornischer Seehase).« (Bear et al., 2009, S. 870)


|Abb. 4| Der Kalifornische Seehase (Aplysia californica)

An ihr konnte der spätere Nobelpreisträger für Physiologie und Medizin (2000) Eric R. Kandel nachweisen, dass die Funktion der Synapsen |Abb. 5| und deren Veränderung grundlegende Bedeutung für unser Lern- und Erinnerungsvermögen haben: Das Gedächtnis ist in den Synapsen verortet. Oder wie es Sebastian Seung, Professor am Massachusetts Institute of Technology (MIT), formuliert: »I am my connectome.« (Seung: I am my connectome, Web.)


Die Synapse ist »der Kontaktbereich, in dem ein Neuron Informationen auf eine andere Zelle überträgt« (Bear et al., 2009, S. 927).Das Konnektom (Connectome) ist die Gesamtheit aller Verbindungen zwischen den Neuronen (Nervenzellen) eines Gehirns.

Zusammenfassend ist festzuhalten, dass das Gehirn aus 100 bis 120 Milliarden Nervenzellen (Neuronen) besteht, die alle einen ähnlichen Grundbauplan haben |Abb. 5|. Dieser kann aber morphologisch unterschiedlich und komplex ausgeformt sein: Der Dendritenbaum einer einzigen Purkinjezelle kann beispielsweise zwischen 150.000 und 200.000 Synapsen empfangen. Damit zählt das menschliche Gehirn zu den komplexesten Systemen überhaupt, obwohl der Grundbauplan und das Verknüpfungsprinzip einfach sind.


|Abb. 5| Pyramidenzelle im Mandelkern, ein Emotionszentrum des Gehirns (links); Skizze eines Neurons (rechts)

Die zentrale Frage bleibt: Wie schafft es das menschliche Gehirn, sich fortlaufend, ein Leben lang, den permanenten Veränderungen der Umwelt anzupassen? In den 1960er-Jahren herrschte die Meinung, dass die Entwicklung des Gehirns ähnlich der Konstruktion eines elektrischen Gerätes sei: Zunächst werden Drähte produziert, die anschließend verschaltet werden. Wenn alles funktioniert, bleibt dieser Schaltplan (im Erwachsenenalter) unverändert. »[Diese] Überzeugung basierte stärker auf theoretischen Vorurteilen als auf empirischen Belegen.« (Seung, 2013, S. 73)

Da in den letzten zehn Jahren nicht nur Fernsehgeräte und Mobiltelefone rasant weiterentwickelt wurden, sondern auch Darstellungsmethoden wie die Zweiphotonenmikroskopie oder Methoden zur Analyse und zur Darstellung synaptischer Ketten im Konnektommaßstab, können heute Synapsen zum einen am lebenden Gehirn dargestellt und zum anderen in großer Anzahl analysiert werden. So ist heute allgemein akzeptiert, dass auch im Erwachsenengehirn Synapsen neu gebildet und abgebaut werden können.

»Geboren mit dem maximalen Anpassungspotential, aber einem nur unzureichend vorbereiteten Gehirn, geht es im Leben von Anfang an darum, möglichst schnell die neue Umwelt so wahrzunehmen, dass man sie internalisieren kann und selbst Teil davon wird.« (Esch, 2012, S. 66)


|Abb. 6| Dendritenwachstum von der Geburt bis ins Alter von zwei Jahren[3]

Doch wie schafft unser Gehirn das? Die Antwort auf diese Frage ist unmittelbar mit dem Namen Donald Olding Hebb verbunden, der 1949 in seinem Buch The Organization of Behavior: a neuropsychological approach die Hebb’sche Lernregel mit der erklärenden Kurzformel beschreibt: »what fires together, wires together«. Je häufiger zwei Neuronen gleichzeitig aktiv sind, desto häufiger werden beide aufeinander reagieren. Er gilt damit als der Entdecker der synaptischen Plastizität, der Eigenschaften von Synapsen, sich in Abhängigkeit von der Verwendung in ihren Eigenschaften zu verändern. Hier wird oft das Bild einer Veränderung eines Trampelpfades zu einer Autobahn verwendet: Bei der ersten Benutzung des Pfades ist eigentlich noch kein Weg da. Hat erst einmal der Erste einen Pfad angelegt, so wird der Zweite, der ihn nutzt, diesen durch seine Benutzung noch mehr zum Pfad ebnen usw. Allgemein ist somit die Änderung der Stärke der synaptischen Übertragung aktivitätsabhängig und kann sowohl durch morphologische als auch durch physiologische Änderungen bedingt sein. Zu dieser Neugewichtung und Neuverbindung |Abb. 6| kommt noch ein drittes Phänomen im Kleinkind­alter hinzu:

 

»Im Gehirn eines Kleinkinds werden neue Synapsen mit atemberaubender Geschwindigkeit gebildet. Allein im Brodmann-Areal 17 werden im Alter von zwei bis vier Monaten mehr als eine halbe Million pro Sekunde erzeugt.« (Seung, 2013, S. 98; Daten von Huttenlocher, 1990)

Doch mit zunehmendem Alter werden auch Verbindungen wieder zerstört (Pruning): Bis zu Beginn des Erwachsenenalters reduziert sich dieser Spitzenwert des Kleinkindalters um 60 Prozent. (vgl. Huttenlocher/Dabholkar, 1997)

Bevor im nächsten Kapitel genauer betrachtet wird, wie sich die digitalen Technologien auf das sich entwickelnde Gehirn konkret auswirken können, soll zuvor auf das große Potenzial der modernen Neurobiologie eingegangen werden, das neben den medizinischen Implikationen im Themenspektrum Gehirn und Lernen einzuordnen ist.

Zur Jahrtausendwende erschien in den führenden wissenschaftlichen Fachzeitschriften eine Flut an Bildern und Artikeln zu den bildgebenden Verfahren des Gehirns. Gerade die eindrucksvollen Bilder von aufleuchtenden Gehirnregionen boten für die heutigen Medien scheinbar schnelle und einfache Erklärungen für hochkomplexe Gehirnphäno­mene, sodass vielerorts Kritiker »von der neuen Phrenologie sprachen. […] Zurückhaltung bei der Interpretation ist angezeigt, will man die Fehler der vergangenen zehn Jahre nicht wiederholen« (Waytz/Mason, 2013, S. 48). Anstelle einer Wissenschaft von den aufleuchtenden Gehirnregionen zur Jahrtausendwende untersuchen die modernen Neurowissenschaften in den letzten Jahren, wie Netzwerke verschiedener Gehirnregionen zusammenarbeiten. Dass das Netzwerk des Fadenwurms Caenorhabditis elegans aus 302 Neuronen mit 5.000 (chemischen) Synapsen besteht, wurde von White et al. bereits 1986 nachgewiesen, doch erweist sich das menschliche Gehirn mit seinen 100 bis 120 Milliarden Neuronen, die über 100 Billionen Synapsen miteinander verbunden sind, als weitaus komplexer. Dennoch wird im Human Connectome Project[4] versucht, die Herkulesaufgabe zu vollbringen, das menschliche Konnektom, also die Gesamtheit aller Verbindungen im Gehirn, zu kartieren. (vgl. Abbott, 2014; vgl. Seung, 2013; vgl. Sporns, 2013) Bereits 15 Netz- und Unternetzwerke konnten identifiziert werden, von denen vier von den meisten Neurowissenschaftlern einhellig akzeptiert worden sind: das Belohnungs-, das Emotions-, das Kontroll- und das Ruhestandsnetzwerk. (vgl. Waytz/Mason, 2013) Doch wie wirken sich die modernen digitalen Technologien auf die Entstehung und Entwicklung dieser neuronalen Netzwerke aus, die nicht nur für das Lernen essenziell sind?

1.2Digitale Technologien prägen die Generationen Y und Z seit ihrer Geburt

Susan Greenfield, renommierte Neurowissenschaftlerin an der Universität Oxford, warnte 2010 die Öffentlichkeit vor den Gefahren des Internets und der digitalen Technologien für Kinder und Jugendliche. Sie bewertete dieses Thema als fast ebenso bedeutsam für die Menschheit wie den Klimawandel: »almost as important as climate change.« (Greenfield: Society should wake up to harmful effects of internet, Web.) Im April 2013, als Mark Zuckerberg sein neustes Projekt Facebook Home präsentierte, warnte sie erneut: »Facebook kann unser Gehirn verändern.« (Greenfield: Facebook Home could change our brains, Web.) Ihre Argumente schwappten von populärwissenschaftlichen Zeitschriften zu internationalen Tageszeitungen, von Blogs zu Talkshows und waren in der wachsenden Debatte, was das Internet mit unserem Gehirn macht, viel beachtet. In dieser Debatte ging und geht es auch heute noch meist um die folgenden Fragen:

•Wenn wir online gehen, betreten wir dann eine Welt, die flüchtiges Lesen, überhastetes und oft abgelenktes Denken als auch oberflächliches Halbwissen fördert? (vgl. Carr, 2010)

•Werden gerade junge Menschen durch die digitalen Medien passiv, unfähig zu Empathie (vgl. Zaki: What, me care?, Web.), intellektuell seicht und oberflächlich (vgl. Carr, 2010), unkritisch und desensibilisiert, depressiv und aufmerksamkeitsgestört (vgl. Choudhury/McKinney, 2013; vgl. Derbyshire, 2009; vgl. Small/Vorgan, 2008)?

•Beschädigt oder beschleunigt Videospielen unser Gehirn? (vgl. Bavelier et al., 2011)

•Ist der unkontrollierte, obsessive Gebrauch digitaler Technologien verantwortlich für die offensichtlichen Veränderungen im Lernverhalten der jüngeren Generationen? (vgl. Grimley, 2012)

•Macht das Internet uns süchtig (vgl. Greydanus/Greydanus, 2012) und Google uns dümmer oder smarter? (vgl. Carr, 2010)

•Wie beeinflussen die digitalen Medien den Schul- und Studienerfolg? (vgl. Duncan et al., 2012)

Diese Fragen als Ausdruck einer Sorge über neue Technologien haben eine lange Geschichte: Vor über 2.500 Jahren warnte Sokrates vor der Ein­­führung des Lesens und Schreibens. Bei der Einführung des Buchdrucks­­ wurde gleichwohl vor den sozialen und kognitiven Auswirkungen von Massenmedien gewarnt. Doch was ist dran an den heutigen Vorbehalten? Gibt es wissenschaftlich belastbare Erkenntnisse?


|Abb. 7| Aktivitätsmuster von interneterfahrenen Probanden der Leseaufgabe (links) und der Internetsuchaufgabe (rechts)

Dr. Gary Small (2009), Professor für Psychiatrie und Biobehavioral ­Sciences und Parlow-Solomon Professor on Aging an der UCLA School of Medicine, führte hierzu folgendes Experiment durch: Er bat 24 Probanden im Alter von 55 bis 76 Jahren jeweils mit und ohne Interneterfahrung, einige Internetsuchen durchzuführen, wobei er über funktionelle Magnetresonanztomographie (fMRT oder fMRI) die Gehirnaktivitäten der Teilnehmer beobachtete. Dabei zeigte sich u.a., dass Probanden mit Interneterfahrung bei den Internetsuchaufgaben im Gegensatz zu den Leseaufgaben signifikant erhöhte Aktivität in Regionen aufwiesen, die das Entscheiden, das Sehen und das komplexe Schlussfolgern kontrollieren |Abb. 7|.


|Abb. 8| Direkter Vergleich der Aktivitätsmuster von internetunerfahrenen (in Blau) und interneterfahrenen Probanden (in Rot)

Beim direkten Vergleich der Aktivitätsmuster von internetunerfahrenen (|Abb. 8| links in Blau) bzw. -erfahrenen (|Abb. 8| rechts in Rot) Probanden zeigte sich neben dem obigen Befund eine mehr als doppelt so große Aktivierung bestimmter Gehirnaktivitäten. Diese Ergebnisse legen nahe, dass die Aktivierung während einer Internetsuchaufgabe bei Probanden mit Internetvorerfahrung signifikant größer war als ohne Internetvorerfahrung. Small et al. schlussfolgern, dass die Internetvorerfahrung eine Änderung der Reizempfänglichkeit in den neutralen Netzwerken bewirkt haben könnte, die das Entscheiden und das komplexe Schlussfolgern kontrollieren. Bezüglich der obigen Fragestellung, ob das Internet das menschliche Gehirn verändert, kann anhand dieser Ergebnisse gesagt werden: Ja, und zwar umfangreicher als das Lesen eines Textes allein. Bedeutet dies aber auch, dass beispielsweise Google unser Gehirn smarter macht? Hier weist Small zu Recht darauf hin, dass eine erhöhte Gehirnaktivität nicht notwendigerweise gleichzusetzen ist mit einer besseren Gehirnaktivität.

Die Studie von Erping Zhu (1999) ist hierfür ein treffendes Beispiel. Zhu testete u.a. den Einfluss von Links auf das Lernverhalten von Studierenden, indem sie Studierende bat, einen digital präsentierten Text zu lesen, in welchem die Anzahl der Links variiert wurde. Sie konnte anhand eines anschließenden Wissenstestes zeigen, dass mit zunehmender Anzahl von Links im Text die Ergebnisse im nachfolgenden Test signifikant schlechter wurden, und zwar unabhängig davon, ob die Studierenden auf den Link klickten oder nicht. Erklärt wird dieser Befund damit, dass das Gehirn – auch wenn der Link nicht angeklickt wurde – entscheidet, den Link nicht zu klicken, was von der eigentlichen Aufgabe ablenkt und zu einem Cognitive Overload führen kann.


Die Cognitive Load Theory beruht auf der Annahme, dass Lernen mit kognitiver Belastung verbunden ist. In dieser Theorie wird dem Arbeitsgedächtnis eine besonders wichtige Funktion beim Wissenserwerb zugeschrieben. Prozesse der Problemlösungs- und Informationsverarbeitung laufen dort ab. Doch es wird davon ausgegangen, dass die Kapazität des Arbeitsgedächtnisses begrenzt ist und nur eine bestimmte Menge an Informationen aufrechterhalten werden kann. Verfügt das Arbeitsgedächtnis über keine ausreichende Kapazität, kann es kognitiv überlastet werden. Ein effektives Lernen ist dann nicht möglich. Man spricht vom Cognitive Overload.

Eveland und Dunwoody (2001) kamen in ihrer Studie zur Selbstkontrolle zu dem Ergebnis, dass die Verlinkung in Artikeln eine so große Herausforderung darstellen kann, dass die kognitiven Ressourcen eher dafür aufgewendet werden, um die Navigation zu meistern, als sich auf das Lernen an sich zu konzentrieren.

Demgegenüber zeigt die viel zitierte Studie von Green und Bavelier, die von der weltweit führenden Wissenschaftszeitschrift Nature 2003 veröffentlicht wurde, auf, dass eine Gruppe von jungen Probanden nach 10-tägigem Videospielen an einem Computer die Geschwindigkeit signifikant erhöhen konnte, mit der sie ihren visuellen Focus zwischen verschiedenen Bildern und Aufgaben verlagerten.

Colzato et al. (DOOM’d to switch, Web.; 2006) konnten ferner zeigen, dass durch Videospielen neben visuellen und auditiven Fertigkeiten auch die kognitive Flexibilität gefördert wurde: Videospielende Probanden erzielten in Ravens IQ-Test (Fluid Intelligence) signifikant höhere Werte als nichtvideospielende Probanden. In diesem Sinne ist eine höhere Geschwindigkeit und Effizienz in der Reiz- und Informationsverarbeitung vorteilhaft für die kognitiven Funktionen. Dass dies aber auch seine natürlichen Grenzen zu haben scheint, konnten Ophir et al. (2009) zeigen: Chronische Heavy-media-Multitasker schnitten in Task-switching-ability-Tests schlechter ab als Light-media-Multitasker. Erklärt wurde dieser Befund dadurch, dass chronische Heavy-media-Multitasker eine verminderte Fertigkeit ausgebildet hatten, irrelevante, interferierende Reize herauszufiltern.

Die renommierte Entwicklungspsychologin Dr. Patricia Greenfield fasste 2009 in einem Science[5]-Artikel 40 Veröffentlichungen über Effekte verschiedener Medien auf die Intelligenz und die Lernfähigkeit zusammen:

»The informal learning environments of television, video games, and the Internet are producing learners with a new profile of cognitive skills. This profile features widespread and sophisticated development of visual-spatial skills, such as iconic representation and spatial visualization.« (Greenfield: Society should wake up to harmful effects of internet, Web.)

Neben diesen Vorteilen des neuen Profils kognitiver Fertigkeiten weist sie aber gleichwohl auf die einhergehenden Schwächen in höheren kognitiven Prozessen hin und empfiehlt – neben dem Ablassen vom Info-Crunching – eine balancierte Mediendiät zur Entwicklung aller kognitiven Funktionen:

»Formal education must adapt to these changes, taking advantage of new strengths in visual-spatial intelligence and compensating for new weaknesses in higher-order cognitive processes: abstract vocabulary, mindfulness, reflection, inductive problem solving, critical thinking, and imagination. […] education therefore requires a balanced media diet using each technology’s specific strengths in order to develop a complete profile of cognitive skills.« (ebd.)

 

Bevor im nächsten Kapitel ein Überblick über die Generationen gegeben wird und dann die Empfehlungen von Patricia Greenfield aufgegriffen werden, soll auf die vier Wahrnehmungstypen nach Dr. Winnie Dunn (2010) eingegangen werden |Tab. 1|:

|Tab. 1| Die vier Wahrnehmungstypen (vgl. 2010, S. 34)


Sensoren und Reiz-Vermeider haben eine niedrige Wahrnehmungsschwelle, sodass zum einen Reize mit geringer Intensität wahrgenommen werden können, zum anderen aber eine Reizüberbelastung (Cognitive Overload) relativ schnell erreicht ist. Demgegenüber suchen Reiz-Sucher aktiv immer mehr Reize. Wichtig für das Folgende sind zweierlei Feststellungen: Unsere Mitmenschen müssen nicht unbedingt denselben Wahrnehmungstyp haben wie wir selbst. Das individuelle Empfinden, von den Informationen des Internets überflutet zu werden, kann auch in den Wahrnehmungstypen Sensor oder Reiz-Vermeider begründet liegen. Dauerhafte und chronische Reizüberforderungen induzieren mitunter Stressreaktionen, die beispielsweise wiederum die Morphologie von Nervenzellen strukturell |Abb. 9| und funktionell verändern können. (vgl. Gray et al., 2013; vgl. Liston et al., 2006; vgl. McEven, 2010, 2000; vgl. McEven/Morrison, 2013)

Zusammenfassend scheint auch aus dieser Perspektive die obige Empfehlung von Patricia Greenfield sinnvoll, da die jüngeren Generationen seit ihrer Geburt über mehrere Jahre oder Jahrzehnte kontinuierlich durch die digitalen Technologien geprägt wurden und mitunter immer noch geprägt werden:

•Ja, die digitale Umgebung aus Fernsehen, Videospielen und Internet erzeugt Lerner mit einem neuen kognitiven Profil. (vgl. Greenfield: Society should wake up to harmful effects of internet, Web.)


|Abb. 9| Auswirkungen von Stress (in Rot) auf die Morphologie der Dendriten im AC (Anterior Cingulate, vorderes Cingulum, A und B) und im lateralen OFC (Orbital Frontal Cortex, A und C)

•Ja, Fertigkeiten, wie ein verbessertes räumliches Vorstellungsvermögen (2D/3D), eine filigranere Augen-Hand-Koordination und eine erhöhte kognitive Flexibilität kennzeichnen dieses Profil.

•Ja, dieses neue Profil hat auch Schwächen in den höheren kognitiven Prozessen, wie abstrakte Ausdrucksfähigkeit, Reflexionsvermögen, Problemlösefähigkeiten, kritisches Denken, Genauigkeit und Geduld.

•Zu empfehlen ist die Entwicklung aller kognitiver Fähigkeiten durch einen ausgewogenen Mix der Stärken einer jeden Technologie, digitale wie traditionelle.

Da bei dieser Entwicklung die einzelnen Generationen unterschiedliche Stärken zu haben scheinen, werden diese im nächsten Kapitel betrachtet, um in den folgenden Kapiteln konkrete Lösungsvorschläge zu diskutieren.

[1] Video online verfügbar: TED. URL: http://www.ted.com

[2] Invertebraten = Wirbellose.

[3] Zusammengestellt von Hye-Vin Kim nach Zeichnungen in Conel 1939–1967.

[4] http://www.humanconnectomeproject.org

[5] Neben Nature eine weltweit führende Wissenschaftszeitschrift.