Weit, weit, weit, weit weg.
Die Menschheit weiß noch viel zu wenig über das Gehirn, etwa wurde erst vor kurzem ein 'makroskopisches Reinigungssystem' entdeckt. Wenn es noch die Müllabfuhr zu entdecken gibt, dann fehlen auch noch viele andere Ecken.
BCIs machen Probleme, noch bevor sie an Menschen getestet werden. Und der erste Versuch am Menschen funktioniert auch nicht sonderlich.
Das KI Thema ist komplexer, aber um es kurz zu machen: der große KI Boom ist maßgeblich, aber nicht ausschließlich, von Large Language Modellen vorangetrieben worden. Diese Large Language Modelle machen vereinfacht nichts anders, als statistisch zu raten, was das nächstwahrscheinlichste Wort sein könnte. Sie sind nur K, nicht I. Und unglaublich unzuverlässig. Trotzdem kann man damit schon viel machen.
Bildgenerierende KI macht im Grunde das Gleiche, nur für angelernte Bilder: es produziert das, was es denkt, was man am wahrscheinlichsten sehen möchte, basierend auf dem, was es kennt.
Wie Kernfusion: Immer 30 Jahre weit weg. Nur diese Thematik vllt eher immer 50 Jahre.
P.S. Wenn dich das Thema beschäftigt, dann frag nicht ChatGPT. Lies Fachartikel aus Fachzeitschriften. Oder wenigstens was wissenschaftsjournalistisches, was wirklich nicht schwer zu finden ist. Hier etwa eines der ersten Suchergebnisse für BCIs. Dann braucht es auch keinen langen Diskussionsstarter, sondern ein paar Links zu lesenswerten Seiten. Und GPT ist auch keine Abkürzung zu echtem Wissen.
P.P.S. Solltest du Cyberpunk 2077 noch nicht gespielt haben, ist das sicher ein extrem spielenswertes Spiel für dich. Es beschäftigt sich aus verschiedenen Blickwinkeln immer wieder mit der Frage, ob ein digitalisiertes Abbild eines Menschen wirklich noch ein Mensch ist. Und ob diese digitalisierte Existenz wirklich irgendeinen Mehrwert generiert.