Was die Wissenschaft 2024 geliefert hat


… und ein Ausblick auf 2025

05.01.2025

Quantencomputer | KI | Graphen-Halbleiter | Alzheimer | LiDAR | Quantenkommunikation | Malaria-Impfungen | BCIs
(14 Minuten Lesezeit)

Blitzzusammenfassung_(in 30 Sekunden)

  • Wir werfen einen Blick auf fünf Durchbrüche im Jahr 2024 und drei aufregende Entwicklungen, die 2025 bevorstehen dürften
  • Ein neuer Google-Prozessor deutet einen Sprung im Quantencomputing an, da er die oft noch kritische Fehleranfälligkeit senkt.
  • KI ist derzeit vor allem im Kontext von Generative AI auffällig, doch im Hintergrund gibt es auch anderswo Fortschritte, etwa beim Einsatz in den Biowissenschaften.
  • Halbleiter aus Graphen versprechen deutlich mehr Effizienz und könnte relativ einfach zu produzieren sein.
  • In der Alzheimer-Forschung gab es 2024 sowohl ein neues Verständnis über die Formen der Krankheit als auch vielversprechende Therapiemittel, die derzeit Studien durchlaufen.
  • Archäologen machten 2024 eine beeindruckende Vielzahl an Funden dank der LiDAR-Technologie, praktisch ein Laserscanner für Landstriche.
  • Und 2025? Schon in den letzten Tagen gab es einen großen Durchbruch bei der Quantenkommunikation. Darüber hinaus dürfte es viel neues zu Malaria-Impfungen und Brain-Computer-Interfaces geben.

Viel los in der Forschung im Jahr 2024. Wir präsentieren eine kleine (!) Auswahl an spannenden Erfolgen in unterschiedlichen Feldern, welche du womöglich verpasst hattest. Und schauen uns im Anschluss an, was 2025 bevorstehen könnte.

2024: Das Wissenschafts-Review_ 

(9,5 Minuten Lesezeit)

Der erste praktikable Quantenprozessor?

(2,5 Minuten Lesezeit)

Googles bisheriges Quantenchip-Flaggschiff “Sycamore”. Quelle: Google, wikimedia

Kurz vor Jahresende erreichte uns ein wahrer Paukenschlag aus der Welt der Quantentechnologie: Google veröffentlichte “Willow”, seinen neuesten Quantenprozessor, und brachte damit einen Durchbruch, auf den das Unterfeld des Quantencomputings seit mehr als 30 Jahren gewartet hatte.

Doch erst einmal: Worum geht es in der Quantentechnologie? Im Grunde ist sie nichts anderes als der Versuch, Erkenntnisse aus der Forschung über die kleinsten Bestandteile des Universums, die der Quantenmenchanik unterliegen, in praktische Technologie umzusetzen. Das ist notwendigerweise verwirrend, denn auf Quantenniveau gelten andere physikalische Gesetze als für uns. Partikel, die der Quantenmechanik unterliegen, können zum Beispiel in mehreren Zuständen gleichzeitig existieren – die sogenannte Überlagerung. Sie können außerdem Informationen zwischen zwei Partikeln über sehr weite Distanzen austauschen, was Quantenteleportation genannt wird. Im Gegensatz zum popkulturellen Verständnis von Teleportation wird nicht das Partikel selbst, sondern nur Information über dessen Zustand “teleportiert”, doch dazu später mehr. So weit, so theoretisch.

Quantencomputer sind ein Versuch, die Regeln der Quantenmechanik für Berechnungen einzusetzen, an welche klassische Computer scheitern würden oder für die sie prohibitiv lange benötigen. Wo klassische Computer Bits nutzen, um ihre Operationen durchzuführen, setzen Quantencomputer auf “Qubits“, welche mit obigen Eigenschaften der Quantenmechanik funktionieren. Das verpasst ihnen einen Vorteil – in der Theorie.

Warum spielt Googles neuer Chip “Willow” eine derart große Rolle? Er macht durch ein innovatives Design einen ordentlichen Schritt bei der Lösung eines der größten Probleme auf dem Weg zum funktionellen Quantencomputer: Ihre Störanfälligkeit. Qubits sind nämlich sehr anfällig für Störfaktoren aus der Umgebung, etwa Wärme und Vibrationen, wie sie im Betrieb entstehen. Je komplexer und länger eine Berechnung, umso mehr Fehler schleichen sich ein, was das Ergebnis im Zweifelsfall nutzlos gestaltet. Willow ist imstande, die auftretenden Fehler effizienter zu korrigieren, als es bislang möglich war.

Google ist keineswegs der erste Entwickler, welcher an der Fehlerreduzierung arbeitet. Auch IBMAmazon und andere Firmen haben in der Vergangenheit Systeme oder Techniken vorgelegt, welche die Fehleranfälligkeit reduzieren oder die Korrekturfähigkeit erhöhen sollen. Im Feld wird das als Quantum Error Correction (QEC) bezeichnet. Was Willow besonders macht, ist, dass sein Design besonders stabile Qubits bietet, was eine bessere Fehlerkorrektur erlaubt. Und die Fehlerrate sinkt, je mehr Qubits eingesetzt werden. 

Für das Feld des Quantencomputings ist das ein großer Erfolg.Er ist notwendig, damit Quantencomputer überhaupt jemals brauchbar werden können. Passend dazu lieferte Google gleich einen weiteren Erfolg mit: Laut eigenen Angaben hat Willow eine Rechenaufgabe in fünf Minuten lösen können, für die der aktuell zweitbeste Supercomputer etwa zehn Billiarden Jahre bräuchte. Dabei handelt es sich wohlgemerkt um eine speziell für die Gelegenheit formulierte Aufgabe ohne Bezug zur Wirklichkeit, nämlich das “Random Circuit Sampling” (RCS), bei welchem die Qubits in eine bestimmte Anordnung gebracht werden. Die Ära der kommerziell einsetzbaren Quantencomputer bleibt also weiterhin Jahre entfernt. Und doch ist Googles neuester Prozessor ein beachtlicher Erfolg auf dem Weg zu tatsächlich nutzbarer Quantentechnologie.

Gut zu wissen: Das Quantencomputing ist ein Teilbereich der Quantentechnologie. Davon abgrenzen lassen sich Felder wie die Quantenkommunikation und Quantensensorik.

KI und die Bausteine der Natur

(2,5 Minuten Lesezeit)

Die Chancen der SMR_

(5,5 Minuten Lesezeit)

Chemienobelpreis-Gewinner David Baker, Demis Hassabis und John Jumper bei der Nobelpreiskonferenz im Dezember 2024. Quelle: wikimedia

2024 war auch ein wahrhaft großes Jahr für KI-Technologie. Wer in unserem jüngsten Jahresreview 2024 nach ganz unten scrollt, findet eine Kurzanalyse für die “Konsumentenseite” der Künstlichen Intelligenz: KI-Firmen werden mit Kapital überhäuft und Techriesen verbandeln ihre Ökosysteme standardmäßig immer stärker mit KI-Anwendungen: Sei es Apple (Apple Intelligence), Samsung (Galaxy AI) oder Microsoft (Copilot). Die Technologie hat die Stufe der Kommerzialisierung damit längst erreicht, auch wenn sie noch einige Jahre zu wachsen und zu reifen hat, bevor sie makroökonomisch bedeutsam wird. Die whathappened-Redaktion lenkt ein besonderes Augenmerk auf Googles experimentelles System NotebookLM, welches beinahe erschreckend realistische Podcast-Gespräche generieren kann, und auf OpenAIs im Dezember gelaunchtes Tool Sora, das bis dato bei Weitem fortschrittlichste Text-zu-Video-Modell.

Was das absolute Gros der “Blockbuster”-Anwendungen aus dem vergangenen Jahr gemeinsam haben, ist, dass sie unter den Oberbegriff Generative AI fallen. Auf Basis großer Sprachmodelle (large language models, LLMs) können sie anhand simpler sprachlicher Inputs Content kreieren, sei es in Video-, Bild-, Audio- oder Textformat. Der Fortschritt dort hört nicht auf: OpenAI arbeitet bereits an einem neuen Flaggschiffmodell namens o3, welches in Benchmark-Tests offenbar große Durchbrüche erzielt; andere Entwickler wie Google, Meta oder Anthropic werden ihrerseits nicht auf sich warten lassen.

“Gen AI” ist aber längst nicht die einzige Art von KI. Im Gegenteil: Klassische Mustererkennung unterfüttert weite Teile der Onlinewirtschaft, sei es, indem sie Empfehlungen für dein Spotify-Profil ausstellt oder Betrug in Bankkonten erkennt. Und “Computer Vision” erlaubt es Software, die Umgebung zu erkennen und etwa autonome Fahrzeuge zu steuern.Auch in den Naturwissenschaften stößt KI weiter vor: Zwei der drei naturwissenschaftlichen Nobelpreise gingen 2024 an KI-Projekte. Der Physiknobelpreis ging an Geoffrey Hinton und John Hopfield für deren Entwicklungen zum maschinellen Lernen in künstlichen neuronalen Netzen, einer besonders komplexen Unterkategorie der KI, welche große Teile der Fortschritte der letzten Jahre überhaupt erst ermöglicht hatte. Das ist gewissermaßen noch eine Prämierung für die KI als solche. Der Preis für Chemie ging jedoch unter anderem an Demis Hassabis und John Jumper: respektive CEO und Direktor der Google-Initiative DeepMind. Sie wurden für AlphaFold 2 prämiert, ein Programm, welches mittels KI die Strukturen und Konfigurationen komplexer Proteine vorhersagt. 

Das ist ein bemerkenswerter Schritt in der Bioinformatik und brachte unser Verständnis der Funktion von Proteinen entscheidend nach vorne. Das Problem der Proteinfaltung war jahrzehntelang eines der zentralen in der Chemie, mit großen Auswirkungen auf die Medikamentenforschung. Proteine, ein Baustein fast aller organischer Prozesse, werden durch eine eindimensionale Anordnung von Aminosäuren gebildet. Es gibt 20 unterschiedliche Aminosäurenarten und ein Protein kann aus einigen Dutzend oder bis zu Tausenden Aminosäuren bestehen. Kompliziert wird es allerdings vor allem dadurch, dass sich Proteine dann noch in eine dreidimensionale Struktur falten, bevor sie funktionsfähig werden. Die dreidimensionale Form, die ein Protein auf Basis seiner Aminosäurensequenz annehmen kann, ist allerdings extrem schwierig vorherzusagen. Bis AlphaFold genau das hinbekam. Auch wenn wir noch immer nicht alles rund um Proteine verstehen, ist die konkrete Frage, wie sich ein Protein falten wird, praktisch gelöst.

2024 veröffentlichte DeepMind die neueste Version, AlphaFold 3. Anders als Vorgängerversionen kann es auch zeigen, wie Proteine mit DNA, RNA und bestimmten Molekülen interagieren und bewegt sich damit von der reinen Proteinfaltung weg zu einer holistischeren Einsetzbarkeit. Im Hintergrund smarter Chatbots und generierter Videos trägt KI damit zu einer stillen Revolution in der Pharmazie und den Biowissenschaften bei.

Neue Halbleiter, neue Chipgenerationen

(1,5 Minuten Lesezeit)

Solche Silizium-Wafer sind die Grundlage aller Computerchips – bisher. Quelle: wikimedia

Bereits im Januar gab ein Team der Tianjin University in China bekannt, erstmals einen Halbleiter-Chip aus Graphen hergestellt zu haben. Graphen galt zwar schon länger als vielversprechendes Material in der Elektronik, konnte bislang aber wegen seiner im Normalzustand fehlenden Bandlücke nicht als Halbleiter verwendet werden. Die Bandlücke bezeichnet eine Mindestmenge an Ladung, der ein Material ausgesetzt werden muss, damit die darin gebundenen Elektronen frei werden und als Ladungsträger funktionieren können. Sie definiert die elektrischen Eigenschaften jedes Materials: Leiter haben keine Bandlücke, Isolatoren eine sehr große. Die kleine Bandlücke macht den Halbleiter zum Halbleiter: mit Ladung leitet er, ohne nicht.

Eine solide und einheitliche Bandlücke ist für Elektronik sehr wichtig, damit Materialien als “Schalter” verwendet werden können. Silizium zum Beispiel, das wichtigste Material in der Herstellung von Computerchips, hat eine Bandlücke von 1,12eV. Durch eine “Sandwichkonstruktion” aus einer Schicht Graphen zwischen zwei Plättchen aus Siliziumcarbid haben die Forscher dem Graphen jetzt die lang ersehnte Bandlücke gegeben – zusätzlich ist diese mit nur 0,6eV etwa halb so groß wie die von Silizium.Das könnte aus mehreren Gründen zu einer Revolution im Chipbau führen: Zum einen ist der Graphen-Silizum-Leiter durch die geringere Bandlücke weitaus energieeffizienter und heizt sich nicht so schnell auf. Der Herstellungsprozess des chinesischen Teams ist außerdem leicht in existierende Produktionsmethoden zu integrieren, man bräuchte weder neue Fabriken noch Fertigungslinien.

Am wichtigsten jedoch sind die elektrischen Eigenschaften des neuen Materials: Dessen Ladungsmobilität, also die Geschwindigkeit mit der sich Elektronen darin bewegen können, ist bis zu zehnmal höher als die von Silizium. Das trifft sich gut, denn siliziumbasierte Schaltkreise stoßen langsam an die Grenzen ihrer Möglichkeiten, zum Beispiel darin, wie schnell sie ein- und ausgeschaltet und wie klein sie gebaut werden können. Der neue Graphenhalbleiter ist darin schon jetzt, vor jeglicher Optimierung, überlegen.

Alzheimer wird (ein bisschen) behandelbarer

(1,5 Minuten Lesezeit)

Die medizinische Forschung erreichte im letzten Jahr vielversprechende Ergebnisse; genau genommen war ein Großteil der “Good News” im whathappened-Briefing mit Medizinbezug. Neben großen Fortschritten in der Malariaforschung und CRISPR-Therapie war vor allem die Alzheimer-Krankheit das Ziel konzertierter Anstrengungen. Bereits Anfang des Jahres entwirrte ein niederländisches Team ein großes Mysterium der Krankheit. Der Behandlungserfolg ist bisher nämlich sehr wechselhaft und unvorhersehbar gewesen – bei manchen Patienten greifen verschiedene Behandlungsarten sehr gut, bei anderen dagegen so gut wie gar nicht. Das liegt laut der niederländischen Studie wohl daran, dass die Krankheit eigentlich fünf Untertypen umfasst.

Ärzte müssten Alzheimer daher eigentlich als fünf gesonderte Krankheiten sehen und behandeln,da jeder der Untertypen eigene Ursachen und Wirkmechanismen hat. Das Forschungsteam identifizierte sie durch die Analyse der Rückenmarksflüssigkeit von 40 Probanden – die zeigte große, aber konsistente Unterschiede in der Verteilung von Proteinen und Hirnstoffwechselprodukten. Die lassen sich am besten dadurch erklären, dass Alzheimer-Demenz eben keine einzelne Krankheit, sondern eine Gruppe von Erkrankungen beschreibt.

Diese Erkenntnis wird zum einen dazu führen, dass gezieltere Behandlungsmethoden entwickelt werden können, zum anderen wird sie auch die Alzheimerforschung zielgerichteter machen. Durch die Einordnung in Subtypen können diese einzeln untersucht werden, das verwirrende Chaos an Symptomen, Proteinen und Risikofaktoren wird etwas übersichtlicher. Dazu wurden 2024 übrigens auch zwei neue Risikofaktoren entdeckt, die sich zu den bisherigen zwölf dazu gesellen: unbehandelter Sehkraftverlust und hohe Cholesterinwerte.

Die Erkenntnisse verheißen Gutes für die vielen anderen Behandlungsansätze aus dem vergangenen Jahr: Rund zwanzig neue Medikamente befinden sich im Endstadium klinischer Studien, und es gibt jetzt einen funktionierenden Bluttest auf die Krankheit. Der ist weitaus weniger invasiv als bestehende Tests und kann dank der anderen Erkenntnisse in Zukunft hoffentlich auch zur Früherkennung benutzt werden. Zu guter Letzt stimmt auch ein recht unerwarteter Pharmakandidat hoffnungsvoll: Aus Studien geht hervor, dass die sogenannten GLP-1-Rezeptor-Agonisten, zu denen auch die prominenten “Diätshots” Wegoy und Zepbound gehören, anscheinend das Alzheimer-Risiko bei Typ-2-Diabetikern senken

Verlorene Städte tauchen wieder auf

(1,5 Minuten Lesezeit)

Ein LiDAR-Scan des Upanotals, die weitläufigen städtischen Siedlungen sind gut zu erkennen. Quelle: Antoine Dorison und Stéphen Rostain, wikimedia

Natürlich machte der technologische Fortschritt im Jahr 2024 auch vor den klassischerweise etwas “analogeren” Wissenschaften nicht halt. Gerade in der Archäologie vollzogen sich geradezu bahnbrechende Entwicklungen, die versprechen, die Wissenschaft als Ganzes zu verändern. Dank des sogenannten LiDAR (Light Detection and Ranging) wurde im letzten Jahr eine ganze Reihe von verlorenen Städten entdeckt – vorbei sind die Zeiten des einsamen Entdeckers, der dem Dschungel die Geheimnisse mit der Machete abtrotzt. 
Stattdessen können Wissenschaftler nun aus dem Flugzeug heraus ganze Landstriche vermessen und kartografieren,wobei auch immer wieder ungeahnte irdische Strukturen sichtbar werden. LiDAR ist zu vergleichen mit Radar und Sonar, nur dass anstatt Radio- oder Schallwellen Laserstrahlen benutzt werden – es ist also ein dreidimensionaler Laserscanner. Das LiDAR-Gerät schießt Lichtimpulse, die von Objekten in der Umgebung reflektiert und wieder vom Gerät gemessen werden. Aus der Reisedauer jedes Impulses berechnet das Gerät den Abstand zu jedem einzelnen Reflexionspunkt. Da Licht viel schneller ist als Radiowellen oder der Schall, kann LiDAR innerhalb kürzester Zeit viele Millionen Impulse verarbeiten. Die so entstehende “Punktwolke” ist gleichzeitig eine extrem genaue 3D-Karte des abgetasteten Gebietes.

Vor allem zeigt LiDAR die ansonsten unsichtbaren Überreste menschlicher Ansiedlungen, wie nicht natürlich entstandene Hügel, Gräben und Pyramiden. Gerade in unwegsamem oder unübersichtlichem Gelände ist LiDAR nützlich, weil es weder durch Vegetation noch durch Höhenluft gestört wird. Letztes Jahr waren unter den Entdeckungen zwei mittelalterliche Städte an der Seidenstraße, die wahrscheinlich erste Stadt des Südpazifiks auf Tonga, eine neue urbane Region der Maya tief im Dschungel von Yucatan, ein römischer Zirkus in Spanien und, womöglich am interessantesten, die Überreste einer bis dato vollkommen unbekannten Amazonas-Kultur im Upanotal in Ecuador.

Der Ausblick auf 2025: Drei spannende Entwicklungen_

(5 Minuten Lesezeit)

Teleportation – nur nicht ganz so, wie du sie dir vorstellst

(2 Minuten Lesezeit)

Eine Illustration der “Teleportation” von Informationen – Informationen in Form des Zustands von Partikel A werden an Partikel B in drei Fuß Entfernung teleportiert, da die beiden Partikel quantenverschränkt sind. Quelle: National Science Foundation, wikimedia

Das Jahr hat jetzt schon mit einem weiteren Knaller aus der Quantentechnologie begonnen: In den letzten Tagen wurde bekannt, dass es Wissenschaftler der Northwestern University in Illinois gelungen ist, Quantenkommunikationssignale über 30 Kilometer lange Glasfaserkabel zu senden, über die gleichzeitig konventioneller Internetverkehr lief. Das bedeutet, dass wohl keine separate Infrastruktur nötig sein wird, um ein Quantenkommunikationsnetzwerk etablieren zu können – damit wird das bedeutend realistischer.

Quantenkommunikation bedeutet, wie schon oben in unserem Text zu Quantencomputing, die Eigenschaften der Quantenmechanik zu nutzen, um unsere Kommunikation schneller und vor allem sicherer zu machen. Dabei geht es vor allem um das Konzept der Quantenteleportation – die hat etwas kontraintuitiv nicht viel mit Science-Fiction und dafür viel mit Datensicherheit zu tun. Sie ist eine Form von Kommunikation, nicht von Transport, denn dabei bewegen sich nur Informationen, keine Materie. Kurzum geht es darum, den Zustand eines Partikels an einen anderen Ort zu kommunizieren, ohne das Partikel zu bewegen – auch dieser Zustand, der aus verschiedenen superpositionierten Variablen besteht, lässt sich als Qubit beschreiben, die fundamentale Informationseinheit der Quantentechnologie. Das bedeutet also, dass sich so signifikante Datenmengen zwischen Partikeln teleportieren lassen, genauso wie es beim herkömmlichen Internet getan wird.

Hierfür gibt es verschiedene Methoden, die allesamt den dezent mysteriösen Zustand der Quantenverschränkung gebrauchen, bei dem Partikel auch über große Distanzen hinweg denselben Zustand teilen. Dadurch kann man auch ohne Partikel B zu beobachten wissen, in welchem Zustand es sich befindet, indem man Partikel A beobachtet. Außerdem tritt jede Zustandsveränderung bei Partikel A auch bei Partikel B ein, und das so gut wie umgehend – Partikel A und B kommunizieren also miteinander, ohne dass sie Informationen austauschen. Das klingt verwirrend, und das ist es auch. Trotzdem kann das Prinzip theoretisch auf verschiedene Weisen genutzt werden, vor allem in der Konzeption von sicheren Kommunikationswegen.

Der Erfolg des Teams aus den USA ist so beeindruckend, weil nicht erwartet worden war, dass Quantenkommunikation über herkömmliche Glasfaserkabel funktionieren kann. Bisher wurde Quantenkommunikation nur unter hochspeziellen Laborbedingungen nachgewiesen; die Skalierung schien von dedizierten Quantenkommunikationsnetzwerken auf Basis von Zukunftstechnologien abzuhängen. Nun stellt sich heraus, dass das ganz normale Internetnetz genügen kann. Die Ambition ist, dass der Datentransfer über Quantenkommunikation extrem sicher und zudem extrem schnell ist, immerhin wäre die Lichtgeschwindigkeit der einzige limitierende Faktor.

Für das Jahr 2025 ist das ein starker Einstand, selbst wenn ein “Quanteninternet” noch reichlich entfernt sein dürfte. Es hat auch etwas Symbolisches, immerhin hatte die UN 2025 zum Jahr der Quantentechnologie ernannt. Bislang bewahrheitet sich der Titel.

Der Kampf gegen Malaria hebt ab

(1,5 Minuten Lesezeit)

Großangelegte Impfkampagnen sind der Schlüssel zum Schutz der Bevölkerung, vor allem bei schwächer schützenden Impfungen. Quelle:  wikimedia

2024 war auch das Jahr der Einführung der ersten Malariaimpfungen in der Menschheitsgeschichte. Rund fünf Millionen Kinder in siebzehn Ländern wurden 2024 gegen die oft verheerende Krankheit geimpft; dieses Jahr sollen noch mal rund 14 Millionen in insgesamt 25 Ländern dazukommen. Damit geht die Kampagne im Jahr 2025 erst so richtig los.

Das sind ambitionierte Ziele, das ist aber auch nötig,denn die zwei bisher zugelassenen Impfungen sind nicht hochgradig effektiv und wirken am besten nur bei sehr jungen Kindern. Die als Erste zugelassene, Mosquirix, besteht aus vier Injektionen an Kindern zwischen fünf und siebzehn Monaten und bietet dann einen 36-prozentigen Schutz in den ersten vier Jahren. 

Das klingt erstmal nach nicht besonders viel,doch wie wir ja während der Frühphase der Covid-Pandemie gelernt haben, werden solche Raten erst auf dem Populationsniveau richtig interessant. Schon jetzt zeigen Studien eine Reduktion der Sterberate unter berechtigten Kindern von 12 Prozent, die Anzahl der Krankenhausaufenthalte wegen schwerer Verläufe der Malaria ging sogar um 22 Prozent zurück – in Gebieten mit guter Impfquote, natürlich. Je höher die Anzahl der Geimpften, desto besser also auch das Ergebnis.

Dieses Jahr dürften wir zum ersten Mal besagte Resultate auf Populationsniveau sehen. Damit ist ein wichtiger Schritt gegen eine Krankheit getan, die die Menschheit schon so lange begleitet wie keine Zweite. Schon bevor Homo sapiens zum ersten Mal Afrika verließ, litt sie unter Malaria. Über die gesamte Menschheitsgeschichte hinweg gehen etwa 4 bis 5 Prozent aller Todesfälle auf die Krankheit zurück. Auch heute sterben noch rund eine halbe Million Menschen jährlich daran.

Jetzt gibt es sogar Hoffnung auf eine vollumfängliche Impfung: Neueste Studien zeigen, dass eine einzige Injektion mit genetisch modifizierten Plasmodien wohl eine Immunität von bis zu 90 Prozent herbeiführen könnte. Sollte sich das in der Praxis bewahrheiten, könnten wir mit einer konzertierten Impfkampagne schon bald eine der notorischsten Krankheiten der Menschheit besiegen.

Technologie direkt im Gehirn

(1,5 Minuten Lesezeit)

Das klassische, nicht-invasive Brain-Computer Interface: die EEG-Kappe. Quelle: Chris Hope, wikimedia

Sogenannte Brain-Computer-Interfaces (BCIs) könnten dieses Jahr entscheidend vorankommen. Schon im letzten Jahr hat Elon Musks Unternehmen Neuralink zwei Menschen seine Chips ins Gehirn implantiert. Dabei geht es zunächst noch um relativ simple Geräte, die es dem Träger erlauben, einen Computercursor nur mit Gedanken zu steuern. Mittelfristig will Neuralink seine Chips zunächst als medizinische Geräte vermarkten, zum Beispiel um Körperlähmungen oder Blindheit zu behandeln. Es gab allerdings auch schon Probleme: Beim ersten Neuralink-Probanden löste sich der 1.000-Elektroden-Chip nach wenigen Wochen teilweise vom Gehirn und musste operativ korrigiert werden.

Dieses Jahr werden auch andere Player auf den Plan treten, vor allem in China regt sich Interesse an der Technologie. An der Tsinghua University entwickelt ein Team schon seit 2013 das Implantat NEO – es wird als minimalinvasiv beschrieben und bereits seit 2023 begrenzt getestet. Das Implantat wird bei Menschen mit Behinderungen am Motorkortex eingesetzt und ermöglicht es ihnen, eine elektronische Prothese durch Gedanken zu steuern. Jetzt will NEO die klinischen Tests erheblich ausbauen und dieses Jahr 30 bis 50 Implantate an Menschen mit Rückenmarksverletzungen vornehmen. So will das Team auch genug Daten für eine Marktzulassung sammeln.

Medizinische Anwendungen sind nur der erste Schritt in die Mitte der Gesellschaft für die BCI-Technologie. Elon Musk selbst macht keinen Hehl daraus, dass er sie auch als Weg zu “Cyber-Superkräften” sieht. Auch wenn es dahingehend noch keine konkreten Pläne gibt, weder in den USA noch in China, ist der Weg von einem medizinischen zu einem Hobby-Implantat zumindest technologisch nicht weit. Im laufenden Jahr geht es aber erst einmal darum, den medizinischen Anwendungen einen Schritt näher zu kommen.

Scroll to Top