Bearbeitet von Jannis, 28 Dezember 2023 - 14:28.
Diskussion: Mensch oder Maschine?
#1
Geschrieben 27 Dezember 2023 - 14:49
Meistens gut gelaunt, offen für sehr viel und immer für eine angeregte Diskussion zu haben!
- • (Buch) gerade am lesen:Zara Zerbe: Phytopia Plus
-
• (Film) gerade gesehen: Dune: Part Two / Damsel / 3 Body Problem
-
• (Film) als nächstes geplant: Furiosa - A Mad Max Saga
#2
Geschrieben 27 Dezember 2023 - 15:21
Bei dem allen schwingt am Ende ja das Harte Problem der Neurowissenschaften mit: Wie kann aus Materie (Gehirnzellen) Bewusstsein entstehen?
Und ist das Gehirn die einzige Voraussetzung? Mittlerweile wird diskutieret das es zur Beantwortung des og. Problems noch 2 weitere Voraussetzungen gibt:
die Verwobenheit des Gehirns mit dem biologischen Körper und der Umwelt (Evolution, Sozialisation etc.).
Emotionen wie Angst, Wut, Freude und Traurigkeit sind innerliche Körperzustände die evolutionär entstanden beim bewussten Abbilden dieser in das Gehirn.
Zb Angst als bewusste Wahrnehmung des Fluchtreflex bei drohen von Gefahr.
So ist die oft getätigte Behauptung das Substrat spiele für Bewusstsein keine Rolle, dann schon stark, da es alles og. nicht berücksichtigt.
Also ich denke nicht das plötzlich aus einem Haufen Materie wie Silizium etwas entsteht was dem menschlichen Bewusstsein qualitativ entspräche.
Quantitativ ist das Ergebnis einer möglichen Maschinen/Computerevolution überlegen (Computationzeit, Massendatenverarbeitung, Parallelverarbeitung etc. etc.) -
aber es bliebe eine Imitation des Bewusstseins und als solche erkennbar.
Bearbeitet von head_in_the_clouds, 27 Dezember 2023 - 15:31.
"Why should one be afraid of something merely because it is strange?"
- • (Buch) gerade am lesen:Sternendieb (Tabea Jute 1) - Colin Greenland
#3
Geschrieben 27 Dezember 2023 - 20:40
Prämisse 3 ist allein genommen philosophisch gesehen irrelevant, oder? Nur, weil Menschen etwas nicht unterscheiden können, bedeutet es nicht, dass der Unterschied nicht da ist/wäre. (Alltags-lebensweltlich wäre die Prämisse, wenn sie denn stimmt, natürlich durchaus relevant.)
#4
Geschrieben 28 Dezember 2023 - 12:54
Bewusstsein ist eine zentrale Eigenschaft lebender Organismen. Sie ist Stand heute prinzipiell nur durch eigenes Erleben feststellbar. Bewusstsein beim jeweils anderen setzen wir lediglich per Heuristik voraus, nehmen es an. Feststellen ist etwas anderes. Die äußerlichen Begleiterscheinungen von Bewusstsein sind wahrscheinlich irgendwann allesamt simulierbar. Solange nicht klar ist, was Bewusstsein ist und wie es entsteht, Bewusstsein also nicht intersubjektiv feststellbar ist, kann es keine Gewissheit über das Erleben einer Maschine geben.
Ob wir jemals werden klären können, was die Natur von Bewusstsein ist, bezweifeln so manche, die sich intensiv mit der Materie befasst haben. Auch ich zähle zu diesem Personenkreis. Manche jedoch glauben, dass auch das eine oder andere heutige Modell schon ausreichen würde, was aus meiner Sicht definitiv nicht der Fall ist, denn diese Modelle sind entweder erneut nur an Epiphänomen orientiert und/oder selbstrückbezüglich.
Dennoch planen bereits einige ihren Geist in eine Maschine zu übertragen und ihre biologische Basis aufzugeben, was ich angesichts der aktuellen Erkenntnislage fahrlässig finde.
Bearbeitet von Christian Hornstein, 28 Dezember 2023 - 13:00.
#5
Geschrieben 28 Dezember 2023 - 14:00
Bewusstsein ist eine zentrale Eigenschaft lebender Organismen. [...]
Selbst wenn wir ein nicht biologisches Analogon unseres gesamten Körpers samt Hirn nachbauen könnten und dieses funktionell ähnliche, von außen feststellbare Leistungen erbringen würde, könnten wir Stand heute immer noch nicht sicher sein, ob es über Bewusstsein verfügt.
Bitte mich hier nicht falsch verstehen: ich spiele in der Diskussion gerne den Anwalt des Teufels, also bitte nicht gleich hauen (wurde ich aber auch nicht!)
Aussage 1 von Dir: klares Nein: Wieso sollte eine Mikrobe (Bakterium nicht Virus) ein Bewußtsein haben, obwohl es doch ein "lebender Organismus" in deiner Definition ist? Wir sind uns wohl einig, dass es einen Maß an Komplexität in einem Organismus geben muss, bevor ein Bewußtsein auftritt? Aber wo ist diese Grenze?
Aussage 2: Ja genau: wir können uns nicht sicher sein, ob eine perfekte Kopie ein Bewußtsein hat oder dies nur "vorspielt". Aber wir können uns genauso wenig nicht sicher sein, dass es kein Bewußtsein hat? Vielleicht hat die Kopie eben doch ein Bewußtsein entwickelt?
Da wir uns einig sind (?), dass es keinen Test für ein Bewußtsein gibt, können wir weder die Hypothese noch die Gegen-Hypothese beweisen, also können wir es auch nicht ausschliessen!
P.S: der Spiegeltest erkennt nur Selbstwahrnehmung, das wird die KI der Zukunft ganz locker hinbekommen, woran Kinder (mit Bewußtsein schon scheitern: Self‐Awareness in Human and Chimpanzee Infants: What Is Measured and What Is Meant by the Mark and Mirror Test? - Bard - 2006 - Infancy - Wiley Online Library
Meistens gut gelaunt, offen für sehr viel und immer für eine angeregte Diskussion zu haben!
- • (Buch) gerade am lesen:Zara Zerbe: Phytopia Plus
-
• (Film) gerade gesehen: Dune: Part Two / Damsel / 3 Body Problem
-
• (Film) als nächstes geplant: Furiosa - A Mad Max Saga
#6
Geschrieben 28 Dezember 2023 - 14:05
[...]
So ist die oft getätigte Behauptung das Substrat spiele für Bewusstsein keine Rolle, dann schon stark, da es alles og. nicht berücksichtigt.
Also ich denke nicht das plötzlich aus einem Haufen Materie wie Silizium etwas entsteht was dem menschlichen Bewusstsein qualitativ entspräche.
[...]
Okay, den Punkt akzeptiere ich komplett, der ist aber wohl lösbar: der Kopie hätte ja genauso einen Körper (dem Menschen nachgeahmt) und würde Sinnesreize der Umwelt als Input bekommen, auf die die Maschine auch reagieren müsste. Und genau wie ein Kind erst angemessene Emotionen erlernen muss (z.B. man lacht nicht bei der Beerdigung, auch wenn der liebe aber tote Opi immer so lustige Sachen gemacht hat), so kann diese die Maschine doch auch anhand der Reaktionen seines Umfeldes erkennen und anpassen?
Meistens gut gelaunt, offen für sehr viel und immer für eine angeregte Diskussion zu haben!
- • (Buch) gerade am lesen:Zara Zerbe: Phytopia Plus
-
• (Film) gerade gesehen: Dune: Part Two / Damsel / 3 Body Problem
-
• (Film) als nächstes geplant: Furiosa - A Mad Max Saga
#7
Geschrieben 28 Dezember 2023 - 14:10
Prämisse 3 ist allein genommen philosophisch gesehen irrelevant, oder? Nur, weil Menschen etwas nicht unterscheiden können, bedeutet es nicht, dass der Unterschied nicht da ist/wäre. (Alltags-lebensweltlich wäre die Prämisse, wenn sie denn stimmt, natürlich durchaus relevant.)
<Advocatus diaboli-Modus> Jetzt bin ich zu sehr Naturwissenschaftler und zu wenig Philosoph, um mir über diesen Punkt Gedanken zu machen. Ist ja nur philosopisches Geschwurbel. </Advocatus diaboli-Modus>
Im Ernst: Du hast ja Recht, aber wie lösen wir das jetzt?
Zitat: "Any sufficiently advanced technology is indistinguishable from magic" (Arthur C. Clarke)
Nur weil etwas außerhalb unserer aktuellen Vorstellung/Beweiskraft/Fähigkeiten liegt, heißt es ja nicht, dass es nicht möglich ist?
Meistens gut gelaunt, offen für sehr viel und immer für eine angeregte Diskussion zu haben!
- • (Buch) gerade am lesen:Zara Zerbe: Phytopia Plus
-
• (Film) gerade gesehen: Dune: Part Two / Damsel / 3 Body Problem
-
• (Film) als nächstes geplant: Furiosa - A Mad Max Saga
#8
Geschrieben 28 Dezember 2023 - 14:13
Neben den bereits benannten Gedanken von Head in the Clouds und Christian, denen ich zustimme, stellt sich noch die Frage, ob ein Bewusstsein denkbar ist, dass uns so fremd ist, dass wir es nicht erfassen können. Und ob nicht die Wahrscheinlichkeit hoch ist, dass ein Maschinenbewusstsein uns unfassbar fremd wäre. Das würde dann eigentlich all deine Prämissen mit einem Schlag zunichte machen:
Prämisse 1: Beim heutigen Stand der Wissenschaft und der Technik ist der Bau von Maschinen, die Menschen perfekt imitieren, in der nahen Zukunft wahrscheinlich.
Prämisse 2: Turing-Test oder Chinesisches Zimmer sind keine valide Methoden, um eine perfekte Imitation (Maschine) von dem Orginial (Mensch) zu unterscheidenPrämisse 3: Nicht einmal Menschen werden verlässlich Maschinen von anderen Menschen unterscheiden könnenPrämisse 4: Wenn Maschinen und Menschen nicht mehr zu unterscheiden sind, so gelten alle Eigenschaften für einen Menschen (Gefühle, Emotionen, Bewußtsein) auch für Maschinen
zu 1: Warum sollten sie imitieren? Wenn sie bewusst wären, warum sollten sie das wollen?
zu 2: jop
zu 3: bei fremden Bewusstseinen erst recht nicht, nein
zu 4: Meine These steht dem entgegen: Vielleicht sind sie nicht nur leicht zu unterscheiden, sondern auch so verschieden, dass sie einander kaum verstehen können. Was würde das dann bedeuten?
Zentral scheint mir aber die Frage, wie sich Bewusstsein eigentlich fassen lässt. Genau genommen wissen wir ja nicht einmal, ob sich Tiere oder Pflanzen selbst bewusst sind oder nicht. Wir empfinden sie als uns unähnlich und machen dann Zuschreibungen. Über den Wirklichkeitsgehalt dieser lässt sich nur schwer etwas aussagen.
Ernsthafte Textarbeit gefällig? https://www.federteufel.de/
Science-Fiction-Buchblog: https://www.jol-rose.../de/rezensionen
- • (Buch) gerade am lesen:Schildmaid
- • (Buch) als nächstes geplant:Empfindungsfähig
-
• (Film) gerade gesehen: Paradise
-
• (Film) als nächstes geplant: nope
#9
Geschrieben 28 Dezember 2023 - 14:16
Prämisse 1: Beim heutigen Stand der Wissenschaft und der Technik ist der Bau von Maschinen, die Menschen perfekt imitieren, in der nahen Zukunft wahrscheinlich.Prämisse 2: Turing-Test oder Chinesisches Zimmer sind keine valide Methoden, um eine perfekte Imitation (Maschine) von dem Orginial (Mensch) zu unterscheidenPrämisse 3: Nicht einmal Menschen werden verlässlich Maschinen von anderen Menschen unterscheiden könnenPrämisse 4: Wenn Maschinen und Menschen nicht mehr zu unterscheiden sind, so gelten alle Eigenschaften für einen Menschen (Gefühle, Emotionen, Bewußtsein) auch für Maschinen
Prämisse 1 widerspreche ich schon mal. Da wir nicht wissen, was einen Menschen wirklich und vollständig ausmacht, sondern allenfalls einen Haufen von Ideen und Vermutungen dazu haben, können wir diese Wahrscheinlichkeit unmöglich einschätzen. Das kann ebensogut in 10 Jahren wie in zehntausend Jahren soweit sein.
Eine interessante Idee kommt mir allerdings zu Prämisse 3: Es wäre auf jeden Fall eine interessante Entwicklung, wenn Maschinen diesen Unterschied besser einschätzen könnten als Menschen.
#10
Geschrieben 28 Dezember 2023 - 14:21
Neben den bereits benannten Gedanken von Head in the Clouds und Christian, denen ich zustimme, stellt sich noch die Frage, ob ein Bewusstsein denkbar ist, dass uns so fremd ist, dass wir es nicht erfassen können. Und ob nicht die Wahrscheinlichkeit hoch ist, dass ein Maschinenbewusstsein uns unfassbar fremd wäre. Das würde dann eigentlich all deine Prämissen mit einem Schlag zunichte machen:
[...]
Da bin ich völlig bei Dir! Wenn wir mal Kontakt zu Aliens haben sollten, kann ich mir vorstellen, dass wir gar nicht merken, dass wir den Kontakt haben, da wir das andere Bewußtsein gar nicht als solches erkennen: unterschreibe ich sofort.
Da aber die perfekte Maschine ja aus unserem Einflussbereich erst entstanden ist, behaupte ich jetzt einfach mal platt, dann ist es unserem Bewußtsein so ähnlich (da 1:1 Kopie), dass wir es auch als solches erkennen können (mit den oben erwähnten Limitationen, dass es ja gar keinen Test für ein Bewußtsein überhaupt gibt).
Meistens gut gelaunt, offen für sehr viel und immer für eine angeregte Diskussion zu haben!
- • (Buch) gerade am lesen:Zara Zerbe: Phytopia Plus
-
• (Film) gerade gesehen: Dune: Part Two / Damsel / 3 Body Problem
-
• (Film) als nächstes geplant: Furiosa - A Mad Max Saga
#11
Geschrieben 28 Dezember 2023 - 14:27
Prämisse 1 widerspreche ich schon mal. Da wir nicht wissen, was einen Menschen wirklich und vollständig ausmacht, sondern allenfalls einen Haufen von Ideen und Vermutungen dazu haben, können wir diese Wahrscheinlichkeit unmöglich einschätzen. Das kann ebensogut in 10 Jahren wie in zehntausend Jahren soweit sein.
Eine interessante Idee kommt mir allerdings zu Prämisse 3: Es wäre auf jeden Fall eine interessante Entwicklung, wenn Maschinen diesen Unterschied besser einschätzen könnten als Menschen.
zu 1: Okay, das heißt aber nur, dass wir nicht den Zeithorizont in Prämisse 1 kennen (nahe vs. ferne Zukunft). Ich höre aber kein Nein von Dir.
zu 3: In der Medizin übertreffen sehr spezialisierte hochgradig trainierte KIs bereits locker den Assistenzarzt/ärztin, teilweise aber auch erfahrene Ärzte/Ärztinnen. In der Kombination mit einer Ärztin/Arzt ist die KI einem Ärzteteam bereits jetzt überlegen: alles nur eine Frage der Trainingsdaten und des Trainings? Dann machbar!
Meistens gut gelaunt, offen für sehr viel und immer für eine angeregte Diskussion zu haben!
- • (Buch) gerade am lesen:Zara Zerbe: Phytopia Plus
-
• (Film) gerade gesehen: Dune: Part Two / Damsel / 3 Body Problem
-
• (Film) als nächstes geplant: Furiosa - A Mad Max Saga
#12
Geschrieben 28 Dezember 2023 - 14:29
Da aber die perfekte Maschine ja aus unserem Einflussbereich erst entstanden ist, behaupte ich jetzt einfach mal platt, dann ist es unserem Bewußtsein so ähnlich (da 1:1 Kopie), dass wir es auch als solches erkennen können (mit den oben erwähnten Limitationen, dass es ja gar keinen Test für ein Bewußtsein überhaupt gibt).
Man könnte aber auch folgern, dass, da wir noch nichtmal ansatzweise erfasst haben, was Bewusstsein ist und wie es entsteht, die Chance hoch ist, dass Bewusstsein eher zufällig entsteht. Und eben nicht als Imitation oder geplante Sache. Und dann wäre es auch nicht vorhersehbar, was da entsteht und ob es uns ähnelt.
Ernsthafte Textarbeit gefällig? https://www.federteufel.de/
Science-Fiction-Buchblog: https://www.jol-rose.../de/rezensionen
- • (Buch) gerade am lesen:Schildmaid
- • (Buch) als nächstes geplant:Empfindungsfähig
-
• (Film) gerade gesehen: Paradise
-
• (Film) als nächstes geplant: nope
#13
Geschrieben 28 Dezember 2023 - 15:02
Man könnte aber auch folgern, dass, da wir noch nichtmal ansatzweise erfasst haben, was Bewusstsein ist und wie es entsteht, die Chance hoch ist, dass Bewusstsein eher zufällig entsteht. Und eben nicht als Imitation oder geplante Sache. Und dann wäre es auch nicht vorhersehbar, was da entsteht und ob es uns ähnelt.
Ja, ich kann Dir folgen. Aber wenn ich Dir zustimmen würde, würden ja meine Prämissen nicht mehr geifen. Also ein energisches (nicht auf Wissen oder Fakten-basierendes) Nein!
Ich finde deinen Punkt super spannend und habe mir darüber noch nie Gedanken gemacht: "Was wäre, wenn Bewußtsein so abstrakt für uns ist, dass wir es nie begreifen/erfassen/imitieren/testen ... können?" Finde ich einen coolen Ansatz!
Meistens gut gelaunt, offen für sehr viel und immer für eine angeregte Diskussion zu haben!
- • (Buch) gerade am lesen:Zara Zerbe: Phytopia Plus
-
• (Film) gerade gesehen: Dune: Part Two / Damsel / 3 Body Problem
-
• (Film) als nächstes geplant: Furiosa - A Mad Max Saga
#14
Geschrieben 28 Dezember 2023 - 15:07
Man könnte aber auch folgern, dass, da wir noch nichtmal ansatzweise erfasst haben, was Bewusstsein ist und wie es entsteht, die Chance hoch ist, dass Bewusstsein eher zufällig entsteht. Und eben nicht als Imitation oder geplante Sache. Und dann wäre es auch nicht vorhersehbar, was da entsteht und ob es uns ähnelt.
Bearbeitet von Michael Böhnhardt, 28 Dezember 2023 - 15:10.
#15
Geschrieben 28 Dezember 2023 - 15:08
Edit wegen Überschneidung:
@Jannis: Ich auch. Ich habe auch schon öfter versucht, darüber zu schreiben, aber mir ist es nie gelungen, einen verständlichen Text zu produzieren. Denn das Unfassbare ist wohl kaum in Sprache zu fassen.
Interessant finde ich, was du mit Imitation meinst. Im Wortsinn ist Imitation ja stets nur ein Abklatsch des Originals. Ein Maschinenbewusstsein wäre dann also stets nur ein quasi gefälschter Mensch. Die Frage ist: Was hätten wir davon? Und was wären die Implikationen?
@Michael: Punkt zwei stimme ich zu. Nur würde dieser dann nicht eigentlich Punkts eins widersprechen? Also wenn wir davon ausgehen, dass Bewusstsein so verschieden sein kann, dass wir es nicht erkennen können, müssen wir dann nicht die Möglichkeit des Erkennens an sich in Frage stellen? Daraus folgt dann aber wieder, das du schon benennst: Wir müssten dann allen Wesen Rechte zugestehen.
Bearbeitet von Jol Rosenberg, 28 Dezember 2023 - 15:10.
Ernsthafte Textarbeit gefällig? https://www.federteufel.de/
Science-Fiction-Buchblog: https://www.jol-rose.../de/rezensionen
- • (Buch) gerade am lesen:Schildmaid
- • (Buch) als nächstes geplant:Empfindungsfähig
-
• (Film) gerade gesehen: Paradise
-
• (Film) als nächstes geplant: nope
#16
Geschrieben 28 Dezember 2023 - 15:15
@Michael: Punkt zwei stimme ich zu. Nur würde dieser dann nicht eigentlich Punkts eins widersprechen? Also wenn wir davon ausgehen, dass Bewusstsein so verschieden sein kann, dass wir es nicht erkennen können, müssen wir dann nicht die Möglichkeit des Erkennens an sich in Frage stellen?
Nein. Ich gehe ja davon aus, dass sie sich verhält wie ein Mensch, ob sie Bewusstsein hat oder nicht. Also muss ich sie ethisch behandeln wie einen Menschen. Das hat mit der (Un-)Möglichkeit des Erkennens eines (fremdartigen) Bewusstseins nichts zu tun.
(Edit: Formulierung etwas präzisiert)
Bearbeitet von Michael Böhnhardt, 28 Dezember 2023 - 15:22.
#17
Geschrieben 28 Dezember 2023 - 15:36
Im Wortsinn ist Imitation ja stets nur ein Abklatsch des Originals. Ein Maschinenbewusstsein wäre dann also stets nur ein quasi gefälschter Mensch. Die Frage ist: Was hätten wir davon? Und was wären die Implikationen?
Naja, diese Frage wird sich wie immer niemand von denen stellen, die genügend wissenschaftliche Neugier haben, um wissen zu wollen, ob sie es wirklich können.
#18
Geschrieben 28 Dezember 2023 - 15:55
Hallo zusamen,für alle, die auch zwischen den Jahren noch am PC sitzen (z.B. um zu arbeiten), die Einladung sich mit der Frage zu beschäftigen, was den Menschen eigentlich ausmacht?Meine Prämissen:Prämisse 1: Beim heutigen Stand der Wissenschaft und der Technik ist der Bau von Maschinen, die Menschen perfekt imitieren, in der Zukunft wahrscheinlich.Prämisse 2: Es gibt keine validen Methoden, um eine perfekte Imitation (Maschine) von dem Orginial (Mensch) zu unterscheidenPrämisse 3: Nicht einmal Menschen werden verlässlich Maschinen von anderen Menschen unterscheiden könnenPrämisse 4: Wenn Maschinen und Menschen nicht mehr zu unterscheiden sind, so gelten alle Eigenschaften für einen Menschen (Gefühle, Emotionen, Bewußtsein) auch für MaschinenWas meint ihr? Wo ist der Haken und die Prämissen bauen nicht auf einander auf? Oder stimmt das alles und wir sind nichts anderes als biologische Maschinen, die man auch mit Drähten und Strom nachbauen könnte?(Edit 1: Prämisse 2 verallgemeinert)(Edit 2: Prämisse 1 verallgemeinert)
Hallo Jannis,
vielen Dank für die Prämissen. Ich liebe solche spannenden Diskussionen, besonders an solchen ruhigen Tagen.
Meine Gedanken zu den Prämissen selbst:
Sie sind nicht komplett voneinander unabhängig, und und bilden strenggenommen kein echtes Axiomsystem. Warum?
1. Prämisse 3 folgt unmittelbar aus Prämisse 2. Wenn es keine Methode gibt, um Mensch und Maschine zuverlässig auseinander zu halten, kann es auch ein Mensch nicht.
Damit ist Prämisse 3 bereits eine Folgerung, keine Prämisse.
2. Prämisse 4 könnte man allgemein so umformulieren: Wenn zwei Objekte (in diesem Fall komplexe Systeme) in allem gleich sind, und sich auf keine denkbare Weise unterscheiden lassen, dann sind auch ihre emergenten Eigenschaften gleich.
Zur Erläuterung: Lebewesen sind Instanzen von komplexen Systemen. Komplexe Systeme, sofern sie nicht trivial sind, bringen emergente Eigenschaften hervor. Bewusstsein ist beispielsweise eine emergente Eigenschaft des menschlichen Gehirns.
Prämisse 4 ist damit aus meiner Sicht keine Prämisse, sondern eher eine Selbstverständlichkeit.
Strenggenommen muss man aber die Sache etwas anders formulieren:
Menschen sind als Instanzen einer Gruppe von komplexen Systemen keineswegs ununterscheidbar, jedes Individuum ist anders, allerdings eindeutig als Angehöriger der Spezies Mensch erkennbar. Die vierte Prämisse würde also besagen, dass die Maschinen als individuelle Instanzen solcher komplexer Systeme gelten würden, die ihrerseits eine Gruppe (Spezies) bilden, die wir "Mensch" (homo sapiens) nennen, und die gleichen emergenten Eigenschaften wie andere Instanzen dieser Gruppe ausbilden.
Auch das halte ich für unmittelbar einsehbar. Es wäre also zu begründen, warum diese Aussage nicht wahr sein sollte, beziehungsweise passende Gedankenexperimente zu entwickeln.
Fazit: Nach meiner Auffassung wären die Prämissen eins und zwei bereits ausreichend und hätten die gleichen Folgerungen wie 1-4.
Jetzt zu der Aussage der Prämissen.
Prämisse 1:
Bisher ist es den Menschen nicht gelungen, auch nur ein Bakterium künstlich herzustellen. Von der Herstellung eukaryontischem Lebens oder gar von Vielzellern sind wir weit entfernt. Künstliche Intelligenzen simulieren lediglich mit geeigneten technischen Mitteln eine Interaktion mit Menschen zu mehr oder weniger abstrakten Themen, wobei allerdings nur schriftliche oder akustische Interaktion gelingt. Eine optische Interaktion (ein sprechendes Gesicht) ist in der Entwicklung. Die Interaktion über Körpersprache, Gerüche, Bewegungen, Berührungen o.ä. ist bisher nicht möglich.
Also nochmal: KI simuliert nicht einen Menschen, sondern Teile einer Interaktion. Der Schluss, dass eine vollständige Simulation einer Instanz des komplexen Systems "Mensch" in absehbarer Zeit möglich sein wird, ist daraus nicht valide zu ziehen.
Prämisse 2:
Leider ist der Begriff "Imitation" so schlecht definiert, (siehe Wikipedia) dass es kaum möglich ist, diese Aussage zu bestätigen oder widerlegen. Wäre beispielsweise ein Mensch, der von der befruchteten Eizelle an bis zur Geburt in einer künstlichen Gebärmutter aufwächst, eine Imitation? Oder würde es für den Begriff bereits genügen, wenn die überwiegende Anzahl von Menschen eine Konversation mit einer Maschine über technische Methoden (also über einen Bildschirm) nicht von der Konversation mit einem Menschen auf gleichem Wege unterscheiden können?
Um Prämisse zwei zu diskutieren, wäre eine demnach eine exaktere Definition von "Imitation" hilfreich.
Man könnte beispielsweise definieren, dass eine perfekte Imitation eine solche ist, die ein Arzt mit den Mitteln der modernen Medizin nicht von einem Menschen unterscheiden kann. Wäre das in deinem Sinne?
Bewusstsein ist eine zentrale Eigenschaft lebender Organismen. Sie ist Stand heute prinzipiell nur durch eigenes Erleben feststellbar. Bewusstsein beim jeweils anderen setzen wir lediglich per Heuristik voraus, nehmen es an. Feststellen ist etwas anderes. Die äußerlichen Begleiterscheinungen von Bewusstsein sind wahrscheinlich irgendwann allesamt simulierbar. Solange nicht klar ist, was Bewusstsein ist und wie es entsteht, Bewusstsein also nicht intersubjektiv feststellbar ist, kann es keine Gewissheit über das Erleben einer Maschine geben.
Ob wir jemals werden klären können, was die Natur von Bewusstsein ist, bezweifeln so manche, die sich intensiv mit der Materie befasst haben. Auch ich zähle zu diesem Personenkreis. Manche jedoch glauben, dass auch das eine oder andere heutige Modell schon ausreichen würde, was aus meiner Sicht definitiv nicht der Fall ist, denn diese Modelle sind entweder erneut nur an Epiphänomen orientiert und/oder selbstrückbezüglich.
Dennoch planen bereits einige ihren Geist in eine Maschine zu übertragen und ihre biologische Basis aufzugeben, was ich angesichts der aktuellen Erkenntnislage fahrlässig finde.
Prämisse 1: Jein. Es ist schwer zu sagen, wann eine starke KI entstehen wird. Wir haben es hier mit nicht linearen Entwicklungsprozessen zu tun.Prämisse 2: Der Turing-Test kann per Definition nur die Fassade prüfen, ist also zur Feststellung von Eigenschaften wie Bewusstsein nach aktuellem Wissensstand nicht geeignet. Das Chinesische Zimmer ist gar keine Methode, sondern ein Gedankenexperiment, um zu erklären, warum allein die Ausführung eines Programms noch kein Bewusstsein bedeuten muss.Prämisse 3: Das wird wahrscheinlich irgendwann so sein, bedeutet aber nichts in Bezug auf die erkenntnistheoretische Frage, da wir schon heute allen möglichen Dingen Regungen unterstellen, die sie nicht haben.Prämisse 4: Nicht, solange wir es auch mit Eigenschaften wie dem Bewusstsein zu tun haben.Selbst wenn wir ein nicht biologisches Analogon unseres gesamten Körpers samt Hirn nachbauen könnten und dieses funktionell ähnliche, von außen feststellbare Leistungen erbringen würde, könnten wir Stand heute immer noch nicht sicher sein, ob es über Bewusstsein verfügt.
Wie schon gesagt, es geht hier um die Frage, ob eine Instanz einer Gruppe von sehr ähnlichen komplexen Systemen über die gleichen emergenten Eigenschaften verfügt. Wenn man diese Frage bejaht, wäre einer perfekten Imitation nach meinem Vorschlag oben ein Bewusstsein zuzuweisen. Wollte man das verneinen, käme man um die unangenehme Diskussion kaum herum, ob denn alle Menschen ein Bewusstsein haben.
Okay, den Punkt akzeptiere ich komplett, der ist aber wohl lösbar: der Kopie hätte ja genauso einen Körper (dem Menschen nachgeahmt) und würde Sinnesreize der Umwelt als Input bekommen, auf die die Maschine auch reagieren müsste. Und genau wie ein Kind erst angemessene Emotionen erlernen muss (z.B. man lacht nicht bei der Beerdigung, auch wenn der liebe aber tote Opi immer so lustige Sachen gemacht hat), so kann diese die Maschine doch auch anhand der Reaktionen seines Umfeldes erkennen und anpassen?
Natürlich wäre eine perfekte Imitation eine lernende Maschine. Und ein Mensch bildet seine wesentlichen Eigenschaften nur in der Interaktion mit seiner Umgebung aus, also mit anderen Menschen und mit der Welt.
Bearbeitet von Fermentarius, 28 Dezember 2023 - 15:59.
#19
Geschrieben 28 Dezember 2023 - 16:46
Hallo Jannis,
vielen Dank für die Prämissen. Ich liebe solche spannenden Diskussionen, besonders an solchen ruhigen Tagen.
[...]
Strenggenommen muss man aber die Sache etwas anders formulieren:
Menschen sind als Instanzen einer Gruppe von komplexen Systemen keineswegs ununterscheidbar, jedes Individuum ist anders, allerdings eindeutig als Angehöriger der Spezies Mensch erkennbar. Die vierte Prämisse würde also besagen, dass die Maschinen als individuelle Instanzen solcher komplexer Systeme gelten würden, die ihrerseits eine Gruppe (Spezies) bilden, die wir "Mensch" (homo sapiens) nennen, und die gleichen emergenten Eigenschaften wie andere Instanzen dieser Gruppe ausbilden.
Auch das halte ich für unmittelbar einsehbar. Es wäre also zu begründen, warum diese Aussage nicht wahr sein sollte, beziehungsweise passende Gedankenexperimente zu entwickeln.
Fazit: Nach meiner Auffassung wären die Prämissen eins und zwei bereits ausreichend und hätten die gleichen Folgerungen wie 1-4.
Jetzt zu der Aussage der Prämissen.
Prämisse 1:
Bisher ist es den Menschen nicht gelungen, auch nur ein Bakterium künstlich herzustellen. [...]
Prämisse 2:
[...]
Um Prämisse zwei zu diskutieren, wäre eine demnach eine exaktere Definition von "Imitation" hilfreich.
Man könnte beispielsweise definieren, dass eine perfekte Imitation eine solche ist, die ein Arzt mit den Mitteln der modernen Medizin nicht von einem Menschen unterscheiden kann. Wäre das in deinem Sinne?
Wie schon gesagt, es geht hier um die Frage, ob eine Instanz einer Gruppe von sehr ähnlichen komplexen Systemen über die gleichen emergenten Eigenschaften verfügt. Wenn man diese Frage bejaht, wäre einer perfekten Imitation nach meinem Vorschlag oben ein Bewusstsein zuzuweisen. Wollte man das verneinen, käme man um die unangenehme Diskussion kaum herum, ob denn alle Menschen ein Bewusstsein haben.
Natürlich wäre eine perfekte Imitation eine lernende Maschine. Und ein Mensch bildet seine wesentlichen Eigenschaften nur in der Interaktion mit seiner Umgebung aus, also mit anderen Menschen und mit der Welt.
Das habe ich doch gerne gemacht: das schöne ist ja: höchstwahrscheinlich befinden sich mehrere Menschen mit den gleichen komischen Gedanken & Fragen in diesem Forum
Zu den Prämissen 1-4: Ja, da hast Du recht! 3+4 sind eigentlich nur die Folgen aus 1-2 --> muss ich umformulieren
Wo ich aber Widerspruch einlege, ist die Aussage zu künstlichen Bakterien, siehe Yeast 2.0 Project:
Vorschläge zur Änderung des Wortes "Imitation"?
Meistens gut gelaunt, offen für sehr viel und immer für eine angeregte Diskussion zu haben!
- • (Buch) gerade am lesen:Zara Zerbe: Phytopia Plus
-
• (Film) gerade gesehen: Dune: Part Two / Damsel / 3 Body Problem
-
• (Film) als nächstes geplant: Furiosa - A Mad Max Saga
#20
Geschrieben 28 Dezember 2023 - 17:12
Meine Gedanken zu der sehr interessanten Diskussion (Danke an Jannis):
Begrifflichkeiten sind ja nicht immer sonderlich präzise und werden unterschiedlich interpretiert, so mein Empfinden beim Lesen der Diskussionsbeiträge.
Eine normale Maschine bzw. ein normaler Algorithmus funktioniert ja, in dem man etwas hineingibt und ein erwartbares Ergebnis herauskommt. Neuronale Netze sollen da ja anders funktionieren. Man gibt etwas herein und weiß nicht, was im Innern des Neuronalen Netzes passiert, und am Ende kommt ein Ergebnis heraus. Da spricht man von Künstlicher Intelligenz, manchmal von einer schwachen K.I
Kennzeichen einer KI ist es bisher, sie agiert nicht selbstständig.
Ein lebender Organismus wird in dieser Hinsicht unterschieden in seiner Komplexität. Ob Virus, Bakterie oder Mikrobe, da scheint die Intelligenz recht übersichtlich. Bei einem Säugetier wie einem Hund ist das schon anders, da projiziert man schnell mehr in das Verhalten als dahinter steckt. Oder nicht? Hat ein Tier ein Bewusstsein? Eine Seele?
Bei den Begrifflichkeiten tue ich mir schwer. Intelligenz und Bewusstsein und Seele, das sind ja recht ineinander übergehende Begriffe, die man nicht immer eindeutig voneinander abgrenzen kann. Früher hat man den Begriff Intelligenz zur Abgrenzung von Tieren verwendet (wenn man nicht religiös die Seele als Unterscheidungsmerkmal herangezogen hat). Jetzt zählen ja Maschinen schon als Intelligenz.
Eine Idee ist, dass das Gehirn durch eine Mindestkomplexität zu einem Bewusstsein wird. Also das weniger entwickelte Kreaturen wie Tiere kein Bewusstsein haben und das durch die Größe und Komplexität des Gehirns Bewusstsein entsteht.
Eine andere Art von Intelligenz ist die Schwarmintelligenz. So sagt man ja Insektenvölkern nach, dass sie eine Art Schwarmintelligenz bilden. Wenn die Vielzahl der einzelnen Individuen zusammen sowas bilden, kann man das vielleicht als eine Art Bewusstsein interpretieren.
Man sagt ja auch, dass Bäume, oder vielleicht sogar mehrere Arten in Wäldern eine Symbiose eingehen und insgesamt wie ein Organismus zu sehen sind. Hat dann ein Wald auch ein Bewusstsein?
Wenn man jetzt sagt, Bewusstsein sagt nur, man ist sich selbst bewusst (Spiegeltest), ist das ja nur eine Form. Dann ist der Mensch bewusst und die Tiere, die sich im Spiegel erkennen, andere aber nicht. Wenn wir aber sagen, Bewusstsein ist mehr und macht eine Vielzahl an Eigenschaften aus, dann kann man auch davon sprechen, dass ein Hund ein Bewusstsein hat. Bei Säugetieren kann das natürlich ebenfalls nur der Anschein sein, da diese ähnlich wie wir sind und Verhaltensweisen ähneln. Bei einem Insektenvolk oder gar einem Wald ist das eher abstrakt und entzieht sich den Vergleichen. Wenn wir also irgendwann auf eine intelligente außerirdische Lebensform stoßen, ist uns vielleicht gar nicht bewusst, dass es eine ist oder man kann auch sagen, nach dieser gängigen Definition ist es keine bewusste und intelligente Lebensform.
Wenn wir nicht mal feststellen können, ob ein ähnliches Wesen (Säugetier) ein (wenn auch) andersartiges Bewusstsein hat wie ein Mensch, es bei noch fremdartigeren Rassen noch weniger zu definieren ist, was soll das bei einer Künstlichen Intelligenz sein und warum soll der Anschein als Zeichen genommen werden, das die K.I. menschengleich ist und bewusst? Beim Hund sagt man ja auch, der wirkt menschlich (treuer Blick, etc.), spricht ihm aber oft das Bewusstsein (im menschlichen Sinne) ab.
Was mir bei einer Maschinenintelligenz fehlt ist die Selbstständigkeit. Die Maschinenintelligenz ist dann menschenähnlich, wenn sie selbstständig ist. Den Beweis hat sie noch nicht erbracht. Und solange sie nicht selbstständig ist, ist sie meines Erachtens vom Menschen prinzipiell unterscheidbar und damit ist fraglich, ob Prämisse 1 überhaupt jemals zutrifft.
http://defms.blogspo...blick-2023.html
#21
Geschrieben 28 Dezember 2023 - 17:29
Wo ich aber Widerspruch einlege, ist die Aussage zu künstlichen Bakterien, siehe Yeast 2.0 Project:
Synthetic genomics using eukaryotes:Yeast 2.0: The other most widely known example of synthetic genomics resulting in organisms with synthetic genomes is the Synthetic Yeast Genome Project, Sc2.0, more commonly known as the Yeast 2.0 project.Quelle: sehr cooler Review-Artikel von Craig Venter zu "künstlichem Leben" und wo wir 2021 schon waren:Synthetic chromosomes, genomes, viruses, and cells, Venter, J. Craig et al., Cell, Volume 185, Issue 15, 2708 - 2724Vorschläge zur Änderung des Wortes "Imitation"?
Ärzte/Mediziner*innen würde ich gerne aus der Definition raushalten:1. Sind sie auch nur Menschen2. hat die Geschichte gezeigt, dass gerade Mediziner solche Definitionen nicht immer sauber ethisch benutzen
Das Yeast 2.0-Projekt ist schon eindrucksvoll, und vor der Leistung der Beteiligten habe ich den höchsten Respekt. Man sollte aber nicht vergessen, dass nur Teile des Genoms ausgetauscht wurden, und zwar indem nicht-codierende Teile des Genoms ausgeschnitten wurden. Und es wurde auch nicht das komplette Genom synthetisiert.
Hier ein Link zu einem aktuellen Artikel:
https://www.technolo...st-time-380815
Aber man sollte bitte nicht vergessen: Es wurde keine Zelle erschaffen, sondern in eine lebende Zelle wurde ein verändertes Genom eingesetzt, und zwar ein solches, das mit dem Rest der Zelle verträglich ist. Dabei wurde das Genom der Hefe als Blaupause benutzt, und die Teile ausgeschnitten, von denen man annimmt, dass sie keine Funktion haben. Der Rest wurde in der Tat in vitro hergestellt. Eine komplette lebende Zelle hat aber noch niemand zusammenkochen können.
Es ist nachvollziehbar, dass die Beteiligten sich feiern, und auch gefeiert werden, aber von einem vollständig synthetischen Organismus ist man immer noch weit entfernt.
Zur Definition: Du kannst Arzt gerne durch "Wissenschaftler" ersetzen. Oder noch neutraler: Subjekt weglassen. " ... mit den Mitteln der modernen Wissenschaft kein Unterschied festgestellt werden kann, der über die individuellen DIfferenzen innerhalb der Spezies Mensch hinausgeht."
#22
Geschrieben 28 Dezember 2023 - 21:41
Aussage 1 von Dir: klares Nein: Wieso sollte eine Mikrobe (Bakterium nicht Virus) ein Bewußtsein haben, obwohl es doch ein "lebender Organismus" in deiner Definition ist? Wir sind uns wohl einig, dass es einen Maß an Komplexität in einem Organismus geben muss, bevor ein Bewußtsein auftritt? Aber wo ist diese Grenze?
Aussage 2: Ja genau: wir können uns nicht sicher sein, ob eine perfekte Kopie ein Bewußtsein hat oder dies nur "vorspielt". Aber wir können uns genauso wenig nicht sicher sein, dass es kein Bewußtsein hat? Vielleicht hat die Kopie eben doch ein Bewußtsein entwickelt?
Da wir uns einig sind (?), dass es keinen Test für ein Bewußtsein gibt, können wir weder die Hypothese noch die Gegen-Hypothese beweisen, also können wir es auch nicht ausschliessen!
Du hast natürlich recht. Ich meinte es anders. Ich meinte nicht "Bewusstsein ist eine zentrale Eigenschaft aller lebender Organismen", sondern "lebender Organismen".
Und ja: Wir können Bewusstsein momentan bei so mancher Art weder bestätigen noch ausschließen.
#23
Geschrieben 28 Dezember 2023 - 21:49
2. Können wir Maschinen / Simulationen erzeugen, die sich ununterscheidbar wie Menschen mit Bewusstsein verhalten?
Irgendwann in Kürze wohl schon. Und wenn das so ist, dass man nicht unterscheiden kann, ob diese Maschine ebenso wie ein Mensch ein Bewusstsein hat, dann kann man eigentlich vom ethischen Standpunkt aus nur davon ausgehen, dass sie eins hat und müsste sie so behandeln. Was wohl trotzdem nicht so sein wird.
Es wäre fatal, wenn wir Gegenständen, die nicht fühlen können, die gleichen Rechte zubilligen würden wie Lebewesen, die empfindsam sind.
#24
Geschrieben 28 Dezember 2023 - 22:07
Um Prämisse zwei zu diskutieren, wäre eine demnach eine exaktere Definition von "Imitation" hilfreich.
Imitieren bedeutet, etwas nachzuahmen. Was unter einer Imitation verstanden wird, hängt deshalb entscheidend davon ab, was auf welche Weise nachgeahmt werden soll.
Eine Imitation wäre dann perfekt, wenn sie das, was sie nachahmen soll, auf genau die Weise nachahmt, die man vorgesehen hat.
Ob die Nachahmung dann auch eine bestimmte Eigenschaft mit sich bringt, hängt wiederum davon ab, mit welchen Elementen der Imitation wir diese Eigenschaft in Verbindung bringen.
#25
Geschrieben 29 Dezember 2023 - 08:07
Es wäre fatal, wenn wir Gegenständen, die nicht fühlen können, die gleichen Rechte zubilligen würden wie Lebewesen, die empfindsam sind.
Wir reden aber nicht von "Gegenständen, die nicht fühlen können", sondern explizit von elektronischen Prozessen, die die neurologischen Prozesse imitieren sollen, durch die das Fühlen bzw. Bewusstsein entsteht. Die wären per definitionem empfindsam.
Ich wüsste nicht, warum man ein Wesen, dass dies durch ein natürliches neuronales Netz erzeugt, bevorzugen dürfen sollte.
#26
Geschrieben 29 Dezember 2023 - 10:18
Wir reden aber nicht von "Gegenständen, die nicht fühlen können", sondern explizit von elektronischen Prozessen, die die neurologischen Prozesse imitieren sollen, durch die das Fühlen bzw. Bewusstsein entsteht. Die wären per definitionem empfindsam.
Ich wüsste nicht, warum man ein Wesen, dass dies durch ein natürliches neuronales Netz erzeugt, bevorzugen dürfen sollte.
Unter der Voraussetzung, dass die Imitation die entscheidenden Elemente beinhaltet, von denen wir wissen (nicht bloß glauben), dass sie Bewusstsein hervorbringen, stimme ich Dir natürlich zu. Aber genau diese Voraussetzung ist noch nicht gegeben und es ist durchaus fraglich, ob sie es jemals sein wird. Sollten wir dennoch auf Basis von Glauben eine derartige Attribution vornehmen, kommen wir im Falle eines Irrtums in Teufels Küche.
Bearbeitet von Christian Hornstein, 29 Dezember 2023 - 10:18.
#27
Geschrieben 29 Dezember 2023 - 11:17
Zur Sicherheit: Ich rede nicht von derzeitigen KI-Systemen, sondern (hypothetisch) von dem, was theoretisch möglich sein könnte, wenn man die bisherige Entwicklung so weitertreibt.
Wirklich wissen, was meinst du damit?
Es gibt ja nur eine mehr oder weniger gut begründete Hypothese, die bisher nicht falsifiziert wurde. Dein Schluss, dass alle Menschen ein Bewusstsein haben, beruht ja darauf, dass du ein Bewusstsein hast, du ein Mensch bist, also davon ausgehst, dass alle anderen Menschen ebenfalls eins haben. Da das eigentlich eine sehr schwache Basis ist, erhärtest du das noch dadurch, dass du an anderen Menschen Verhaltensweisen beobachtest, die du auf ein Bewusstsein zurückführst.
Jetzt beobachtest du an einer Maschine exakt dieselben Verhaltensweisen, die du beim Menschen auf ein Bewusstsein zurückführst. Zu behaupten, die Maschine könne trotzdem kein Bewusstsein haben, weil sie ja kein Mensch ist, ist dann unredlich. Diese grundlegende Eigenschaft kann ja kein anderes Wesen haben, und nach der Logik würdest du auch intelligenten Außerirdischen jegliches Bewusstsein von vornherein absprechen.
Bearbeitet von Michael Böhnhardt, 29 Dezember 2023 - 11:22.
#28
Geschrieben 29 Dezember 2023 - 11:35
Der Prämisse 1 (Beim heutigen Stand der Wissenschaft und der Technik ist der Bau von Maschinen, die Menschen perfekt imitieren, in der Zukunft wahrscheinlich) kann ich nur widersprechen. Selbst wenn man in ferner Zukunft dazu in der Lage wäre, gibt es keinen Grund, das zu tun.
Natürlich gibt es Teilbereiche, wo ein Imitieren des menschlichen Körpers oder der Denkweise hilfreich ist, um Zusammenhänge zu verstehen. So ist die menschliche Hand ein unglaublich komplexes, aber auch extrem variables Greifwerkzeug, Oder der Aufbau des Gehirns ein sehr effektives Modell für die Hardware eines Computers. Und ja, beim Versuch, eine Intelligenz künstlich zu erschaffen, ist eine Anlehnung an die menschliche Intelligenz hilfreich, da man diese dann vielleicht noch versteht - im Unterschied zu anderen Formen von Intelligenz.
Aber warum sollte man alle Bereiche des Menschen nachbauen wollen, dazu noch alles in ein einziges System zusammenpacken? Was die körperlichen Funktionen angeht, sind dem Menschen Grenzen gesetzt, die man mit einem künstlichen Menschen überschreiten will. Also wird man künstliche Lebensformen so bauen, dass sie in der Schwerelosigkeit leben können oder auf Planeten mit hoher Schwerkraft, dass sie Hitze oder Kälte besser vertragen können, dass sie für ihre jeweilgen Aufgaben optimiert werden, und sei es nur mit zusätzlichen oder veränderten Gliedmaßen. Die Science Fiction ist voll von Cyborgs, Androiden und posthumanen Wesen, die alle ihre Anwendungsfälle haben. Für das perfekte Imitat eines Menschen gibt es jedoch keinen Anwendungsfall.
Das war jetzt sehr aus der physischen Perspektive argumentiert, aber auch für den ganzen Komplex der künstlichen Intelligenz, des Schaffen eines Bewußtseins, der Erzeugung von Individualität gilt das Gleiche: Warum sollte man das beschränkt auf den Menschen machen? Viel wahrscheinlicher ist, dass eine künstliche Intelligenz, sollte man wirklich mal hier Fortschritte machen, alles andere als menschlich Denken wird. Der aktuelle Ansatz mit purem Deep Learning und Mustererkennung ist eine Sackgasse, oder allenfalls einer von vielen notwendigen Bausteinen. Die derzeitigen stochastischen Papageien zeigen das sehr deutlich. Sie sind nur ein Quantensprung in der Bereitstellung von Werkzeugen, um Bilder, Texte, Videos etc. zu fälschen, aber nichts davon ist auch nur ansatzweise intelligent - egal wie man Intelligenz definiert. Sollte es trotzdem gelingen, eine Software zu entwickeln, die Grundzüge einer Intelligenz zeigt, dann muss diese lernfähig sein, und sie wird es in einem hohen Tempo sein. Das heißt aber, es wird nur einen kurzen Moment geben, in dem diese Intelligenz mit der menschlichen verglechbar ist, danach hat sie den Menschen überholt (Stichwort Singularität).
#29
Geschrieben 29 Dezember 2023 - 11:52
Sollte es trotzdem gelingen, eine Software zu entwickeln, die Grundzüge einer Intelligenz zeigt, dann muss diese lernfähig sein, und sie wird es in einem hohen Tempo sein. Das heißt aber, es wird nur einen kurzen Moment geben, in dem diese Intelligenz mit der menschlichen verglechbar ist, danach hat sie den Menschen überholt (Stichwort Singularität).
Worin genau äußert sich das, dass die künstliche Intelligenz die menschliche "überholt"? Woran würde man merken, dass sie viel, viel schlauer ist?
#30
Geschrieben 29 Dezember 2023 - 13:59
Vielleicht sollte man mal den Begriff "identische Kopie" auf den Prüfstand stellen.
Eine absolut identische Kopie eines Menschen wäre nicht nur von einem solchen ununterscheidbar (genau das heißt ja "identlsch": alles gleich, jede Zelle, jede Neuronen-Verknüpfung, jedes Haar) sondern auch wie Udo richtig sagt nutzlos, wenn man nicht gerade vorhat, eine Klonarmee aufzubauen, wo es lediglich auf die Quantität und nicht irgendwelche qualitativen Aspekte ankommt (wie Fehlbarkeit, Einsatzbereitschaft, Hang zu schwierigen Dingen wie "eigene Meinung").
Sobald eine Kopie nicht identisch ist, kann man sie vom Original unterscheiden, und, hier beißt sich die Katze wieder in den Schwanz, allein anhand desselben Aspekts, der eben das "Identischsein" zu Fall bringt.
Das macht ja alle Filme, Serien und Geschichten, in denen vermeintlich mit Menschen identische Roboter, die von menschlichen Schauspielern verkörpert werden, versuchen, sich wie Menschen zu verhalten. Mal ist es eine verräterische USB-Buchse, mal ein nicht auf Menschen schießenwollender Revolver (in "Westworld" dem Film), so dass es mit der Gleichheit bald vorbei ist, denn absolute Gleichheit wäre ja, wie oben ausgeführt, sinnlos.
Sobald man sich von dem Gedanken der Gleichheit verabschiedet hat, erledigen sich viele Fragen von alleine: Eine KI kann sich nicht ununterscheidbar wie ein Mensch verhalten, weil sie keiner ist. Ein ChatGPT kann zwar bei den Hausaufgaben helfen und ist in dieser Hinsicht wohl schon heute intelligenter als der hilfsbedürftige Schüler (und lernfähig sind Sprachmodelle ja schon längst, Udo!), aber er kann mangels Körper kein armes Kätzchen von einem Baum holen. Vieles an der Diskussion ist also abstrakt, was natürlich ebenfalls hochinteressant ist. Ebenso wie am Einwurf von Michael gerade eben sieht man aber, dass man vor allem viele Begriffe genauer definieren muss: Was wollen wir eigentlich unter "Bewusstsein" genau verstehen, anhand welcher Messungen sollen wir auf ihr Vorhandensein schließen, was ist Intelligenz (zur Erinnerung: Der Begriff KI ist bloß handlich, von menschenähnlicher Intelligenz im Wortsinne kann bei keiner momentanen oder nahzukünftlichen Software gesprochen werden!), wie misst man sie und welchen Sinn ergibt das, wenn man zwar weiß, dass ChatGPT zwar mehr über den Aufbau von Softwaresystemen weiß als ich, mich aber nicht daran hindern kann, dass ich einfach den Aus-Schalter an dem Gerät drücke, auf dem er läuft?
Der fundamentale Unterschied zwischen Menschen und Maschinen ist zuallerst mal der Körper. Mit all den feinen Sensoren, den Härchen, den Zellen, unseren Sinnen, die wir seit unserer Geburt besitzen, haben wir ein Alleinstellungsmerkmal, das keine Maschine mit irgendwie vertretbarem Aufwand je erreichen wird. Denn bei aller Liebe für Grundlagenforschung: Wenn man für irgendwas einen Menschen braucht, weil eine Maschine einfach nicht reicht, dann kann man einfach einen Menschen nehmen, statt die Maschine noch menschenähnlicher zu machen - schlicht aus Kostengründen.
Künstliche Menschen (also annähernd menschenähnliche Maschinen) sind letztlich Industrieerzeugnisse, und die Industrie will Geld verdienen. Deshalb sind annähernd menschenähnliche digitale Schauspieler wahrscheinlich, auch Sexpuppen mit anregender Stimme (und Körpertemperatur!) und sicher auch Betreuungs- oder Beschäftigungs-Bots für Kleinkinder oder Senioren. Aber es werden nicht zig tausend Androiden so selbstverständlich durch die Stadt laufen wie heute Menschen es tun. Das ergäbe rein wirtschaftlich einfach keinen Sinn, und das macht es sehr unwahrscheinlich.
Ein bisschen von dieser Einordnung ausschließen würde ich Halbroboter, also Cyber-Wesen, aber da steht die Forschung vor so grundlegenden Problemen, dass man das wirklich erstmal außen vor lassen kann.
Bearbeitet von Uwe Post, 29 Dezember 2023 - 14:01.
Besucher die dieses Thema lesen: 1
Mitglieder: 0, Gäste: 1, unsichtbare Mitglieder: 0