
Maschinelle Evolution - durch Meme
#1
Geschrieben 21 Januar 2009 - 14:01
#2
Geschrieben 21 Januar 2009 - 14:25

#3
Geschrieben 21 Januar 2009 - 16:08
#4
Geschrieben 21 Januar 2009 - 18:07
Ich gebe dir recht, was die Assoziation mit einer Maschinen- bzw. Roboter-Evolution angeht. Es gibt aber eine andere Interpretation, die durchaus Sinn macht. Das ist die Assoziation mit einer Evolution von Prozessen auf vernetzten Servern. Hier gibt es eine Resource für die Reproduktion, nämlich Speicherraum und Rechenzeit, die nur noch indirekt der Kontrolle des Menschen unterliegt. Tatsächlich kann man Computerviren als die unterste Ebene einer Evolution von menschenunabhängigen Prozessen begreifen. Diese unterliegen einem hohen Selektionsdruck, nämlich der Aufspürbarkeit durch menschenkontrollierte Prozesse. Ich würde zum heutigen Zeitpunkt schon nicht mehr ausschließen, das es nicht Viren gibt, die sich im Servernetz unsichtbar eingenistet haben und von dem Schlupf/Schwund von Rechnerresourcen "ernähren", den wir heute schon als "normal" hinnehmen. Vielleicht ist dies der Grund, warum es mit malloc() immer Probleme gibt...Ich find ehrlich gesagt schon den Denkansatz dämlich, mit dem immer wieder eine Bedrohung durch fortentwickelte Maschinen suggeriert wird. Als würde Intelligenz oder auch die Möglichkeit evolutionärer Entwicklung automatisch zu einem Streben nach Dominanz oder auch nur zu Bewusstsein führen. Oder auch nur zum Drang nach Selbsterhaltung. Was dabei übersehen wird, ist, dass für die Evolution die Selektionskriterien viel bedeutsamer sind als das Evolutionspotenzial. Die Frage muss also lauten: Was für ein evolutionärer Druck lastet auf Maschinen, der dafür sorgt, dass diejenigen Exemplare sich bevorzugt vermehren, die sich auf eine eigenständige Entwicklung unabhängig vom Menschen zubewegen? Ich würde mal sagen, keiner - solange die Menschen die Ressourcen für die Vermehrung kontrollieren & auch die Lebensumgebung dieser Maschinen festlegen. Da werden allzu leichtfertig die evolutionären Entwicklungen in der Natur auf Maschinen übertragen und so getan, als wären die Ergebnisse dieser evolutionären Entwicklung ein "universeller Wert", auf den jede evolutionäre Entwicklung ganz selbstverständlich zuliefe - und der von der Umwelt, in der sich die Entwicklung vollzieht, unabhängig ist. Dieser Kurzschluss, der eigentlich regelmäßig in solchen Beiträgen auftaucht, nimmt mir schon die Lust auf das Thema. Und wenn ich den Artikel so überfliege, sehe ich den Faktor "Selektionsbedingungen" wieder mal nur sehr stiefmütterlich behandelt. Da benutzt der Mensch das Objekt seiner Betrachtung (in dem Falle, den Maschinen) wieder mal eher als Spiegel seiner selbst, anstatt tatsächlich das Objekt zu untersuchen und Aussagen über dessen Eigenschaften zu treffen

#5
Geschrieben 21 Januar 2009 - 20:01
Klingt plausibel ... wenn ich mir den üblichen Rechnerressourcenschwund so anseheIch würde zum heutigen Zeitpunkt schon nicht mehr ausschließen, das es nicht Viren gibt, die sich im Servernetz unsichtbar eingenistet haben und von dem Schlupf/Schwund von Rechnerresourcen "ernähren", den wir heute schon als "normal" hinnehmen.

#6
Geschrieben 21 Januar 2009 - 21:34
#7
Geschrieben 21 Januar 2009 - 23:01
Wenn es aber selbstreplizierende Systeme mit unentdeckten Viren gaebe, die mit dem System repliziert wuerden, koennte so etwas vielleicht doch entstehen. Aussortiert wuerden die werden, bei denen etwaige "Mutationen" der Viren zu Systemausfaellen fuehrten. Roboter und Computer wuerden nicht selbst evolvieren, aber die Viren, die "in" ihnen "leben". Dann waere es wohl auch vorstellbar, dass dann die aus solchen Viren hervorgegangenen Programme die Roboter und Computer uebernehmen und Einfluss auf deren Programm nehmen koennten. Vergleichbar vielleicht mit dem, was die weissen Blutkoerperchen in "Blutmusik" mit den Koerpern machen, in denen sie leben. Was denkt Ihr? Doch zu weit hergeholt? Ich habe mir ueberlegt, was ein Beispiel fuer eine Memenentwicklung sein koennte und bin auf die Entwicklungslinie Wachswalze - Schallplatte aus verschiedenen Materialien - LP - CD - DVD gekommen. Die DVD draengte auch in eine andere Nische und vertrieb die Videokassette (was vielleicht zu ihrem Aussterben fuehrt). Ist das so gemeint? Koennte man es sich so vorstellen, was mit Memen und ihrer Evolution gemeint ist? Wenn ja, koennte man wohl sagen, dass Philip K. Dick schon darueber geschrieben hat, ohne das Wort "Meme" zu benutzen, und zwar in "Ubik", in demBei Robotern und Computern an sich sehe ich allerdings nicht ansatzweise eine Konstellation, die eine Entwicklung der üblichen Horrorszenarien als "Selbstläufer" induzieren könnte. Solange der Mensch so was nicht selbst programmiert ...
Bearbeitet von Morn, 21 Januar 2009 - 23:04.
#8
Geschrieben 21 Januar 2009 - 23:31
So ein selbstreplizierendes System, so wir hier von einem autark sich selbst reproduzierenden Roboter sprechen, müsste initial erst mal von einer Firma konstruiert werden. Da stellt sich doch schon die Frage, warum sollte man das tun, welchen Nutzen hätte man davon ? Eine normale separate Produktion auf der Basis von vorgefertigten Bauteilen ist viel einfacher zu realisieren als ein integrierter Replikationsmechanismus. Bei der normalen Produktion gibt es z.B. nicht die Problematik der Begrenzung der Resourcen (Baumaterialien und Energie). Weiter müsste man bei einem Replikationsmechanismus von einer Fertigung auf der Basis von Rohmaterial ausgehen. Man stelle sich die riesige Fertigungsstraße vor, die auch die bei den Zulieferern angesiedelten Fertigungsprozesse integriert für Bauteile, die man bei einer normalen Produktion fertig geliefert bekommt. Und nun hat man eine Fabrik von gigantischem Ausmaß und dieses Ungetüm muß man jetzt auch noch Miniaturisieren, denn man will diese Funktion ja in einer mobilen Einheit haben. Das alles spricht dagegen, daß man die Konstruktion einer derartige Funktion überhaupt in Angriff nimmt. Wenn man aber die Entwicklung und Produktion von Computern oder Robotern über den Menschen als selbstreplizierendes System auffaßt, dann enthält diese Reproduktionskette ja keine Viren. Diese würden ja lediglich als extern eingeschleppte Krankheit einen Computer befallen. Hier könnte man natürlich so etwas wie eine Koevolution von Computern und Viren betrachten. Die Ausselektion von "kränkelnden" Computern würde aber nicht notwendigerweise zu mehr Computern führen, wo Viren ohne Störung des Computerbetriebs leben können. Im gleichen Maße würden auch Systeme bevorzugt, die "virenresistent" sind, also den Befall durch Viren verhindern. Da diese ja keinen Performance-Schwund durch die in ihnen lebenden Viren haben, müßten sie sogar einen evolutiven Vorteil gegenüber den anderen Systemen haben.Wenn es aber selbstreplizierende Systeme mit unentdeckten Viren gaebe, die mit dem System repliziert wuerden, koennte so etwas vielleicht doch entstehen.
Bearbeitet von Konrad, 22 Januar 2009 - 10:20.
#9
Geschrieben 22 Januar 2009 - 12:03
Könnte man m.E. als Beispiel sehen. Ich habe aber auch so meine Probleme mit diesem unscharfen Begriff. Dawkins hat es, glaube ich, mehr als Modell zur Erklärung von tradierten Verhaltensweisen des Menschen verstanden. Spannend sind in diesem Zusammenhang auch die neueren Entdeckungen der Epigenetik. Ist doch lustig, daß die verlachten Thesen von Lamarck dadurch wieder Auftrieb bekommen.Ich habe mir ueberlegt, was ein Beispiel fuer eine Memenentwicklung sein koennte und bin auf die Entwicklungslinie Wachswalze - Schallplatte aus verschiedenen Materialien - LP - CD - DVD gekommen. Die DVD draengte auch in eine andere Nische und vertrieb die Videokassette (was vielleicht zu ihrem Aussterben fuehrt). Ist das so gemeint? Koennte man es sich so vorstellen, was mit Memen und ihrer Evolution gemeint ist?

Bearbeitet von Konrad, 22 Januar 2009 - 12:03.
#10
Geschrieben 22 Januar 2009 - 13:24
Nun, selbstreplizierende und selbstentwickelnde Technik läge durchaus noch im Rahmen meines Vorstellungshorizonts. Es wird ja durchaus in diese Richtung gedacht und gearbeitet, und ich kann mir auch vorstellen, in welcher Hinsicht das nützlich sein könnte. Genau genommen muss ich mir das gar nicht vorstellen, weil es schon in genug SF-Erzählungen plausibel dargestellt wurdeSo ein selbstreplizierendes System, so wir hier von einem autark sich selbst reproduzierenden Roboter sprechen, müsste initial erst mal von einer Firma konstruiert werden. Da stellt sich doch schon die Frage, warum sollte man das tun, welchen Nutzen hätte man davon ?

#11
Geschrieben 22 Januar 2009 - 14:11
Wo arbeitet man daran ?Nun, selbstreplizierende und selbstentwickelnde Technik läge durchaus noch im Rahmen meines Vorstellungshorizonts. Es wird ja durchaus in diese Richtung gedacht und gearbeitet, und ich kann mir auch vorstellen, in welcher Hinsicht das nützlich sein könnte. Genau genommen muss ich mir das gar nicht vorstellen, weil es schon in genug SF-Erzählungen plausibel dargestellt wurde


Bearbeitet von Konrad, 22 Januar 2009 - 15:09.
#12
Geschrieben 22 Januar 2009 - 16:04
Die mir bekannten Beispiele sind bisher theoretisch und experimentell. Also so was wie das hier. Über die praktische Relevanz und die Übertragbarkeit auf produktive Geräte mag man streiten, oder auch darüber, inwiefern Konzepte wie selbstevolvierend und selbstreproduzierend in der Praxis kombinierbar sind. Aber ich würde durchaus auch schon das Entwickeln konkreter theoretischer Konzepte als "daran arbeiten" bezeichnen - selbst wenn unklar ist, wann und wie da jemals ein reales Produkt draus wird. Wie gesagt, selbst wenn ich das als konkrete Möglichkeit azeptieren kann, ändert es nichts an meiner Skepsis gegenüber einer "Menschwerdung" der Maschinen. Um die Diskussion aus den Sphären der Spekulation herabzuziehen: Es ist nicht so, dass der Mensch keine Erfahrung damit hätte, sich selbstreproduzierende und evolvierende Einheiten zu kontrollieren. Seit Jahrtausenden. Trotzdem haben sich beispielsweise Kühe und Ackerpflanzen bisher noch nicht zu einer Konkurrenz für den Menschen entwickelt - weil nämlich der Mensch selbst die Evolutionsfaktoren der Entwicklung vorgibt, und diese daher nicht auf Eigenständigkeit oder "Menschlichkeit" zielt, sondern auf maximale Anpassung an die vom Menschen formulierten Bedürfnisse. Das wäre auch nicht anders, wenn Maschinen sich innerhalb eines von Menschen formulierten Anforderungsprofils selbstständig vermehren und optimieren könnten. Aus dem System ausbrechen würden sie, wie bei sonstiger Zucht auch, nur dann, wenn ein Faktor hinzukommt, der Einheiten belohnt, die sich gegen die menschlichen Erwartungen Menschen stellen. Die Wahrscheinlichkeit dafür ist eher geringer als bei der "wilden" Evolution in freier Natur.Wo arbeitet man daran ?
Gibt es da schon was Konkretes oder handelt es sich um die übliche amerikanische Vaporware ?
#13
Geschrieben 22 Januar 2009 - 16:41
Ok, ich dachte schon, mir wäre ein evolutionärer Durchbruch durch die Lappen gegangen.Die mir bekannten Beispiele sind bisher theoretisch und experimentell. Also so was wie das hier. Über die praktische Relevanz und die Übertragbarkeit auf produktive Geräte mag man streiten, oder auch darüber, inwiefern Konzepte wie selbstevolvierend und selbstreproduzierend in der Praxis kombinierbar sind. Aber ich würde durchaus auch schon das Entwickeln konkreter theoretischer Konzepte als "daran arbeiten" bezeichnen - selbst wenn unklar ist, wann und wie da jemals ein reales Produkt draus wird.

Da bin ich völlig deiner Meinung.Wie gesagt, selbst wenn ich das als konkrete Möglichkeit azeptieren kann, ändert es nichts an meiner Skepsis gegenüber einer "Menschwerdung" der Maschinen.
Da gibt es allerdings Beispiele, wo er die Kontrolle nur sehr mühsam wiedergewonnen hat, wenn man an die Kaninchen in Australien denkt. Das enorme Beschleunigungspotential einer technischen Evolution könnte da seine Reaktionsfähigkeit auf die Probe stellen.Um die Diskussion aus den Sphären der Spekulation herabzuziehen: Es ist nicht so, dass der Mensch keine Erfahrung damit hätte, sich selbstreproduzierende und evolvierende Einheiten zu kontrollieren. Seit Jahrtausenden. Trotzdem haben sich beispielsweise Kühe und Ackerpflanzen bisher noch nicht zu einer Konkurrenz für den Menschen entwickelt - weil nämlich der Mensch selbst die Evolutionsfaktoren der Entwicklung vorgibt, und diese daher nicht auf Eigenständigkeit oder "Menschlichkeit" zielt, sondern auf maximale Anpassung an die vom Menschen formulierten Bedürfnisse. Das wäre auch nicht anders, wenn Maschinen sich innerhalb eines von Menschen formulierten Anforderungsprofils selbstständig vermehren und optimieren könnten. Aus dem System ausbrechen würden sie, wie bei sonstiger Zucht auch, nur dann, wenn ein Faktor hinzukommt, der Einheiten belohnt, die sich gegen die menschlichen Erwartungen Menschen stellen. Die Wahrscheinlichkeit dafür ist eher geringer als bei der "wilden" Evolution in freier Natur.
#14
Geschrieben 22 Januar 2009 - 17:22
Ich denke mal vom Kontext her ist in diesem Satz ein "nicht" zu viel drin?Ich würde zum heutigen Zeitpunkt schon nicht mehr ausschließen, das es nicht Viren gibt, die sich im Servernetz unsichtbar eingenistet haben und von dem Schlupf/Schwund von Rechnerresourcen "ernähren", den wir heute schon als "normal" hinnehmen.
@all: Mir fällt - oder besser: stößt - bei Ms. Blackmores Artikel noch etwas Anderes auf... Sie übernimmt einfach wortlos Dawkins Theorie, dass die Gene die eigentlichen Einheiten sind, die auf Erden evolvieren - so postuliert in seinem 30-Jahre-alten Bestseller Das Egoistische Gen. Nicht lebende Objekte, also u.a. Menschen. Aber diese Sichtweise ist ziemlich umstritten, um es sehr vorsichtig zu formulieren! Der SPIEGEL-Artikel macht mal wieder das, was heuer in u.a. den Medien sehr gerne gemacht wird: Jemand wird als ExpertIn zu einem Thema dargestellt, und dann wird unkritisch deren Aussage präsentiert; wir sollen also erneut vor Staunen umfallen und ebenso unkritisch dem Heiligtum "Wissenschaft" huldigen. (Eine völlige Verzerrung einer zentralen Eigenschaft jeder wissenschaftlichen These - nämlich dass sie auch Quatsch sein kann, und dass man das auch sagen darf, bzw. versuchen darf das Gegenteil zu beweisen.) Die einzige Gegenmaßnahme im Artikel ist die Beschreibung von Ms. B. als "Theoretikerin". Und, Achtung: Dawkins hat das Wort "Meme" erfunden, insofern ist also Ms. B. Vehikel des Meme "Meme", das Dawkins gebar!

P.S. @Konrad:
Vielleicht ist dies der Grund, warum es mit malloc() immer Probleme gibt...


/KB
Yay! KI-generiertes SF-Zitat Ende November...
"In the sprawling city forums of the galaxy, where chaos reigns and time flows differently, true power is found not in dominance, but in moderation. The wise use their influence to temper ambition with reason, and chaos with order."
(auf Bing.de generierter Monolog von der Copilot-S/W - die ich hiermit NICHT bewerbe! - nach Aufforderung nach einem "s.f. quote" mit einem bestimmten Wort darin; ich ersetzte nur das 4. Wort mit "city forums")
#15
Geschrieben 22 Januar 2009 - 17:30
Das lässt sich eher nicht vergleichen. Was zu dem Kontrollverlust führte, war ja nicht das durch Zucht entwickelte Potenzial der Kaninchen, sondern das ihnen natürlich innewohnende. Der Mensch war nur durch Einführung der Tiere beteiligt, nicht durch seinen Einfluss auf die Entwicklung derselben - was sich schon dadurch zeigt, dass dieselben Probleme ja auch mit anderen Spezies auftraten, die durch den Menschen nach Australien gekommen sind. Und wie ich schon oben gesagt habe - durch "wilde Evolution" in der Natur können durchaus Einheiten entstehen, die potenziell zum Menschen und seinen Zielen in Konkurrenz treten. Und eben die dafür verantwortlichen Selektionsfaktoren fehlen bei einer "Maschinenevolution".Da gibt es allerdings Beispiele, wo er die Kontrolle nur sehr mühsam wiedergewonnen hat, wenn man an die Kaninchen in Australien denkt.
#16
Geschrieben 22 Januar 2009 - 17:39
Das kann man sicher auch in Frage stellen. Ich bin mir allerdings nicht so sicher, ob das auch eine Prämisse ist, auf der die Grundaussage ihres Textes zwingend beruht.Sie übernimmt einfach wortlos Dawkins Theorie, dass die Gene die eigentlichen Einheiten sind, die auf Erden evolvieren - so postuliert in seinem 30-Jahre-alten Bestseller Das Egoistische Gen. Nicht lebende Objekte, also u.a. Menschen.
#17
Geschrieben 22 Januar 2009 - 17:48
/KB
Yay! KI-generiertes SF-Zitat Ende November...
"In the sprawling city forums of the galaxy, where chaos reigns and time flows differently, true power is found not in dominance, but in moderation. The wise use their influence to temper ambition with reason, and chaos with order."
(auf Bing.de generierter Monolog von der Copilot-S/W - die ich hiermit NICHT bewerbe! - nach Aufforderung nach einem "s.f. quote" mit einem bestimmten Wort darin; ich ersetzte nur das 4. Wort mit "city forums")
#18
Geschrieben 22 Januar 2009 - 18:43
Mein lieber Yip, mal abgesehen davon, daß du mir in diesem Beispiel peinlich bewußt machst, daß ich offensichtlich immer noch nicht zwischen "das" und "daß" unterscheiden kann, glaube ich aber, daß das 2. "nicht" in dieser Satzposition keine reguläre Verneinung, sondern nur ein rhetorisches Füllsel ist, das man auch weglassen kann ohne die Semantik zu ändern. Da ich kein professioneller Schreiberling bin, lasse ich mich aber gerne von Fachleuten belehren. Im Zweifel kann ich mich immer noch auf die einfache Ausrede zurückziehen, von wegen Bayern und die doppelte Verneinung...Ich hab ein wenig versucht seit Konrads 1. Post auf zu holen, aber schaffe es (heute zumindest) nicht. Allerdings ist mir in besagtem Post schon ein logischer Stolperstein gelegt worden - das doppelte Negativ: Ich denke mal vom Kontext her ist in diesem Satz ein "nicht" zu viel drin?

#19
Geschrieben 23 Januar 2009 - 00:29


/KB
Yay! KI-generiertes SF-Zitat Ende November...
"In the sprawling city forums of the galaxy, where chaos reigns and time flows differently, true power is found not in dominance, but in moderation. The wise use their influence to temper ambition with reason, and chaos with order."
(auf Bing.de generierter Monolog von der Copilot-S/W - die ich hiermit NICHT bewerbe! - nach Aufforderung nach einem "s.f. quote" mit einem bestimmten Wort darin; ich ersetzte nur das 4. Wort mit "city forums")
#20
Geschrieben 23 Januar 2009 - 01:34
[OT] Das ging mir mit deiner Frage ähnlich.Keine grose (
) Sache! Dieser "nicht-nicht"-Satz wirkte nur als schlechter Attraktor für mein Verständnis anstrebendes Hirn, und führte zu derartigem Energie-Abzug, dass ich mich erstmal 24h zur Ruhe und Regenerierung zurückzog...

#21
Geschrieben 23 Januar 2009 - 11:52
Sehe ich nicht so. Die Unfähigkeit, das Potential eines lange durch Zucht bekannten Genotyps einzuschätzen, sagt m.E. sehr wohl auch etwas über die Fähigkeit aus, die Auswirkungen einer Genotyp-Veränderung richtig einzuschätzen.Das lässt sich eher nicht vergleichen. Was zu dem Kontrollverlust führte, war ja nicht das durch Zucht entwickelte Potenzial der Kaninchen, sondern das ihnen natürlich innewohnende. Der Mensch war nur durch Einführung der Tiere beteiligt, nicht durch seinen Einfluss auf die Entwicklung derselben - was sich schon dadurch zeigt, dass dieselben Probleme ja auch mit anderen Spezies auftraten, die durch den Menschen nach Australien gekommen sind.
Übrigens gibt es ja nicht nur die Gefahr eines Interessenkonfliktes durch evolutionär gebahnte gleiche Ziele, sondern auch die Gefahr der unbeabsichtigten Nebenwirkung einer wechselseitigen Einwirkung. Man stelle sich vor, es gäbe einen Haushaltsroboter, der u.a. die Aufgabe hat, alle Bierdosen, die er in der Wohnung findet, zusammenzupressen und wegzuwerfen. Der Robot erkennt Objekte seine Umwelt durch Videobilder, die er mit vorprogrammierten Objektmodellen vergleicht. Durch eine Nebenwirkung einer viralen Aktivität in seinem Speicher wird das Modell der Bierdose mit dem Modell des Familienhundes oder gar dem des Hausherrn vertauscht. Die Auswirkungen auszumalen, überlasse ich dem geneigten Leser...Und wie ich schon oben gesagt habe - durch "wilde Evolution" in der Natur können durchaus Einheiten entstehen, die potenziell zum Menschen und seinen Zielen in Konkurrenz treten. Und eben die dafür verantwortlichen Selektionsfaktoren fehlen bei einer "Maschinenevolution".

Bearbeitet von Konrad, 23 Januar 2009 - 12:37.
#22
Geschrieben 23 Januar 2009 - 19:07
Nun ja, man darf ja nicht vergessen, dass es sich bei der außer Kontrolle geratenen Spezies um "Wildkaninchen" handelte. Wie der Name schon sagt ... auch wenn die auch in Zucht gehalten wurden: Das Problem damit war ja eben, dass sie auch in der Wildnis überleben & sich vermehren konnten. Wären sie durch längere Zucht von den wilden Wurzeln weiter entfernt gewesen, oder hätten gar wie im Falle der Maschinen gar keine wilden Wurzeln gehabt - hätte auch alles gefehlt, was sie in Australien zum Problem werden ließ. Genau das macht sie nach meiner Sicht als Vergleichsmodell ungeeignet.Die Unfähigkeit, das Potential eines lange durch Zucht bekannten Genotyps einzuschätzen, sagt m.E. sehr wohl auch etwas über die Fähigkeit aus, die Auswirkungen einer Genotyp-Veränderung richtig einzuschätzen.
Für sich genommen ist das ja kein Beispiel, wie "die Maschinen" durch ihre Evolution außer Kontrolle geraten können. Es ist nicht mal ein Beispiel dafür, wie virale evolutionäre Prozesse eine solche Fehlentwicklung auslösen können. Im Gegenteil, es ist ein Beispiel, wie virale Prozesse einen einzelnen, individuellen Fehler auslösen können. Und die Umgebung, in der diese Maschine arbeitet, würde dann dafür sorgen, dass gerade dieses Individuum ausselektiert und Maschinen, die nicht dazu neigen, aus welchen Gründen auch immer Hunde zu zerdrücken, bevorzugt als Ausgangspunkt für Weiterentwicklungen herangezogen würden.Durch eine Nebenwirkung einer viralen Aktivität in seinem Speicher wird das Modell der Bierdose mit dem Modell des Familienhundes oder gar dem des Hausherrn vertauscht.
#23
Geschrieben 24 Januar 2009 - 12:02
Hauskaninchen züchtet man seit etwa 500 Jahren und gehören damit zu den jüngeren Haustierrassen. Evolutionshistorisch gesehen ist der Genotyp des Hauskaninchens nur minimal vom dem des Wildkaninchen entfernt. Sie unterscheiden sich also was die Anpassungsfähigkeit und insbesondere die VermehrungsfreudigkeitNun ja, man darf ja nicht vergessen, dass es sich bei der außer Kontrolle geratenen Spezies um "Wildkaninchen" handelte. Wie der Name schon sagt ... auch wenn die auch in Zucht gehalten wurden: Das Problem damit war ja eben, dass sie auch in der Wildnis überleben & sich vermehren konnten. Wären sie durch längere Zucht von den wilden Wurzeln weiter entfernt gewesen, oder hätten gar wie im Falle der Maschinen gar keine wilden Wurzeln gehabt - hätte auch alles gefehlt, was sie in Australien zum Problem werden ließ. Genau das macht sie nach meiner Sicht als Vergleichsmodell ungeeignet.


Tut mir leid, ich verstehe deinen Einwand nicht. Seit meinem ersten Posting rede ich davon, daß ich, wenn überhaupt, eine Gefahr bei selbstevolvierenden Computerviren sehe. Und hier habe ich, wie im Vorsatz angekündigt, ein Beispiel konstruiert, wie durch die Wechselwirkung eines Virus mit einem Haushaltroboterprogramm eine große Gefahr für Hunde und Menschen entstehen kann.Für sich genommen ist das ja kein Beispiel, wie "die Maschinen" durch ihre Evolution außer Kontrolle geraten können. Es ist nicht mal ein Beispiel dafür, wie virale evolutionäre Prozesse eine solche Fehlentwicklung auslösen können.
Das ist jetzt aber etwas zu wenig "ausgemalt".Im Gegenteil, es ist ein Beispiel, wie virale Prozesse einen einzelnen, individuellen Fehler auslösen können.

So man noch die Gelegenheit dazu hat...Und die Umgebung, in der diese Maschine arbeitet, würde dann dafür sorgen, dass gerade dieses Individuum ausselektiert und Maschinen, die nicht dazu neigen, aus welchen Gründen auch immer Hunde zu zerdrücken, bevorzugt als Ausgangspunkt für Weiterentwicklungen herangezogen würden.

#24
Geschrieben 24 Januar 2009 - 17:59
#25
Geschrieben 25 Januar 2009 - 01:51
Das sehe ich auch so. Allerdings nimmt die Wahrscheinlichkeit für einen solchen Effekt mit der Größe des Bereichs zu, in dem prinzipiell eine Wechselwirkung möglich ist. Dies ist bei Computerviren, die ja sozusagen im Hauptspeicher "leben", der gesamte Hauptspeicher-Bereich, den ein "Nachbarprozess" einnimmt. Natürlich sind nicht alle Veränderungen durch Viren "tödlich" und es gibt Schutzmechanismen, die versuchen, prozessuale "Übergriffe" zu verhindern. Trotzdem sehe ich der Zukunft mit ziemlich gemischten Gefühlen entgegen, wenn ich den zunehmenden "Speicherhunger" der Programme und den immer größer werdenden Hauptspeicher der Computer beobachte.Okay, als Beispiel für eine "virale Evolution" mit punktuell schädlicher Wechselwirkung auf die Maschinen ist der hundekomprimierende Roboter perfekt geeignet. Aber das Schadpotenzial wäre dennoch ein Zufallseffekt, nicht Bestandteil einer Entwicklung, die tendenziell schädliche Folgen bevorzugt.

Naja, bei den biologischen Viren und ihren Wirten verhält sich die Sache nicht ganz so, denn es gibt offenbar unterschiedliche Entwicklungslinien, die sich in ihrer Überlebensstrategie grundsätzlich unterscheiden. Es gibt die sogen. "Hit and Run"-Strategie, die auf maximale Vermehrung ohne Rücksicht auf den Wirt setzt (z.B. Ebula). Und es gibt die "Infect and Persist"-Strategie, die versucht, möglichst lange im Wirt zu verbleiben und eine Minimierung der Schadwirkung im Wirt anstrebt (z.B. Herpes). Die erste Strategie schädigt das Reservoir des Virus und wird offenbar häufig von weniger stark an den Wirt angepaßten Viren verwendet, was aber auch ein Überspringen der Artengrenze ermöglicht. Die zweite Strategie wird überwiegend von stark an den Wirt angepaßte Viren verwendet, die sich wohl in einer evolutionären Senke befinden, aus der sie nicht mehr herauskommen. Wenn der Wirt ausstirbt, stirbt der Parasit mit aus, denn er kann die Artengrenze nicht mehr überwinden. Nach deiner Theorie müßte die erste Linie aussterben, was aber bisher nicht passiert ist. Offenbar haben beide Linien ihre Existenzberechtigung.Auf Seiten der Störprogramme gäbe es ja keinen evolutionären Druck, der die Entwicklung solcher Effekte begünstigt. Im Gegenteil, wie auch schon bei natürlichen Krankheiten wäre der beste Erreger derjenige, der den Wirt nicht schädigt - in dem Falle hätten also die viralen Komponenten die besten Entwicklungschancen, die sich möglichst unauffällig im System einnisten und so wenige funktionsbeeinträchtige Merkmale haben wie möglich. Und von der Frage abgesehen, ob ein solcher zufälliger Schaden so groß sein kann, dass man ihn nicht in den Griff bekommt - er hätte doch keine Weiterentwicklung in Hinblick auf Gefährdung zur Folge. Denn solange noch eine Entwicklung der betroffenen Maschinen stattfindet, würde wiederum ein evolutionärer Druck in Hinblick auf die Ausmerzung dieser "Fehlfunktion" stattfinden. Mein Einwand gegen Theorien wie im genannten Artikel ist ja nicht, dass nicht irgendwas zufällig passieren kann. Und, wie gesagt - gerade solchen "viralen Softwarekomponenten" traue ich eine unberechenbare Entwicklung auch eher zu als den Maschinen an sich. Ich sage nur, dass die Selektionskriterien der künstlichen Evolution die Entwicklung eher von Konfrontation, Konkurrenz oder wie auch immer gearteten Interessenkonflikten mit dem Menschen fortlenken, als solches zu begünstigen.
Bearbeitet von Konrad, 25 Januar 2009 - 09:37.
#26
Geschrieben 25 Januar 2009 - 10:04
In den meisten aktuell benutzten Betriebssystemen, sei es auf Großrechnern oder Laptops, ist es heutzutage nur dem Betriebssystemkern möglich, beliebig im RAM (= Hauptspeicher) herum zu "machen"; dieser Kern ist aber kein Prozess im Sinne des typischen IT-Jargons zur Systemarchitektur. Sollte der Kern also infiziert sein, hast du Recht, aber dann gibt es keinen "Nachbarprozess". Ist hingegen ein normales Dienst- oder Anwendungs-Programm infiziert, wird zu dessen Start eine Prozessumgebung geschaffen, die nur RAM bekommt, wenn es diese vom Kern anfordert. Dieses RAM ist für diesen Prozess reserviert, und außerhalb der "Sichtweite" jedes anderen Prozesses. Der Virus könnte also höchstens immer mehr RAM anfordern und damit das ganze System etwas verlangsamen (denn RAM wird oft virtuell zugewiesen und noch gar nicht "echt" verbraucht bei der Anforderung). Ein "prozessualer Übergriff" ist also im Standardfall eh nicht möglich. Die einzige Ausnahme, was RAM angeht, ist "shared memory". Wie der Name schon andeutet, sind dann aber nur die Prozesse beteiligt, die sich von sich aus an einem solchen Block von RAM über Anfrage an den Kern anschließen lassen bzw. die Rechte dazu haben - i.d.R. nur wenige privilegierte (oft Datenbank-) Prozesse. Der Virus müsste also ziemlich schlau sein. Ein Problem ist dabei sicherlich, dass viele Privatnutzer von Windows nach wie vor alles (auch Surfen und Downloaden) als alleskönnender Administrator machen, und dann ist das Überschreiben/Ändern von privilegierten Programmen nicht mehr so schwer, bleibt aber immer noch die Frage wieviele davon "s.m." betreiben...Dies ist bei Computerviren, die ja sozusagen im Hauptspeicher "leben", der gesamte Hauptspeicher-Bereich, den ein "Nachbarprozess" einnimmt. Natürlich sind nicht alle Veränderungen durch Viren "tödlich" und es gibt Schutzmechanismen, die versuchen, prozessuale "Übergriffe" zu verhindern.

/KB
Yay! KI-generiertes SF-Zitat Ende November...
"In the sprawling city forums of the galaxy, where chaos reigns and time flows differently, true power is found not in dominance, but in moderation. The wise use their influence to temper ambition with reason, and chaos with order."
(auf Bing.de generierter Monolog von der Copilot-S/W - die ich hiermit NICHT bewerbe! - nach Aufforderung nach einem "s.f. quote" mit einem bestimmten Wort darin; ich ersetzte nur das 4. Wort mit "city forums")
#27
Geschrieben 25 Januar 2009 - 12:16
Das ist jetzt aber ein weites Feld...Ich habe bei eurer Diskussion gemerkt, dass ich nicht firm genug bin in evolutionärer "Mechanik" um da mit zu reden. Ich hatte mir vage vorgenommen, nochmal Goulds essayistische Widerlegung von Dawkins "egoistisches Gen"-Theorie nach zu lesen... Nun geht's aber im letzten Post - evtl. etwas OT - um etwas, von dem ich ein wenig mehr verstehe: In den meisten aktuell benutzten Betriebssystemen, sei es auf Großrechnern oder Laptops, ist es heutzutage nur dem Betriebssystemkern möglich, beliebig im RAM (= Hauptspeicher) herum zu "machen"; dieser Kern ist aber kein Prozess im Sinne des typischen IT-Jargons zur Systemarchitektur. Sollte der Kern also infiziert sein, hast du Recht, aber dann gibt es keinen "Nachbarprozess".


Tja, prinzipiell hast du recht, was Standard-Betriebssysteme für Rechner angeht. Da sind die Schutzmechanismen schon sehr ausgefeilt, allein schon, um die Benutzer und das System vor Programmieranfänger zu schützen.Ist hingegen ein normales Dienst- oder Anwendungs-Programm infiziert, wird zu dessen Start eine Prozessumgebung geschaffen, die nur RAM bekommt, wenn es diese vom Kern anfordert. Dieses RAM ist für diesen Prozess reserviert, und außerhalb der "Sichtweite" jedes anderen Prozesses. Der Virus könnte also höchstens immer mehr RAM anfordern und damit das ganze System etwas verlangsamen (denn RAM wird oft virtuell zugewiesen und noch gar nicht "echt" verbraucht bei der Anforderung). Ein "prozessualer Übergriff" ist also im Standardfall eh nicht möglich. Die einzige Ausnahme, was RAM angeht, ist "shared memory". Wie der Name schon andeutet, sind dann aber nur die Prozesse beteiligt, die sich von sich aus an einem solchen Block von RAM über Anfrage an den Kern anschließen lassen bzw. die Rechte dazu haben - i.d.R. nur wenige privilegierte (oft Datenbank-) Prozesse. Der Virus müsste also ziemlich schlau sein. Ein Problem ist dabei sicherlich, dass viele Privatnutzer von Windows nach wie vor alles (auch Surfen und Downloaden) als alleskönnender Administrator machen, und dann ist das Überschreiben/Ändern von privilegierten Programmen nicht mehr so schwer, bleibt aber immer noch die Frage wieviele davon "s.m." betreiben...
Aber auch Windows enthält inzwischen alle oben-genannten Einschränkungen (und MacOS, übrigens meines Wissens erst seit Vn. X, auch).


#28
Geschrieben 25 Januar 2009 - 16:07
Ja - aber wie im weiteren Verlauf der Diskussion ja schon angedeutet wurde: Die "weitere Entwicklung" der Technik verläuft ja nicht unabhängig von den Störungen. Da arbeiten also zwei Mechanismen gegeneinander: Bei zunehmender Komplexität steigt die Wahrscheinlichkeit zufälliger Störung. Umgekehrt arbeitet aber der "evolutionäre Druck", der von den viralen Prozessen ausgeübt wird, darauf hin, dass die komplexer werdenden Prozesse zugleich weiter gegen solche Störungen abgesichert werden.Allerdings nimmt die Wahrscheinlichkeit für einen solchen Effekt mit der Größe des Bereichs zu, in dem prinzipiell eine Wechselwirkung möglich ist.
Die Schutzmechanismen, mit denen du gerade über Yip geredet hast, sind ja dann das praktische Beispiel dafür. Wie dieser Wettlauf ausgehen wird - wer weiß? Ich geh mal davon aus, dass man langfristig ein Gleichgewicht halten kann, in dem die Störungen parallel zu einer Entwicklung verlaufen, die sich auch langfristig entlang der von Menschen gesetzten Vorgaben bewegen wird - ohne dass "die Maschine" an sich außer Kontrolle gerät.
Ebola ist ein gutes Beispiel. Denn es zeigt auch, dass selbst die "Hit & Run"-Erreger einen sicheren Rückzugsraum brauchen, um überleben zu können. Sie benötigen mindestens einen Wirt, in dem sie unauffällig(er) ruhen können. Was zeigt, dass eine reine Hit&Run-Strategie ohne Rücksicht auf den Wirt niemals funktionieren kann. Diese Rücksicht kann allerdings durchaus auch eine nur geringe Ansteckungswahrscheinlichkeit sein und muss nicht unbedingt eine längere Koexistenz mit dem befallenen Individuum bedeuten.Es gibt die sogen. "Hit and Run"-Strategie, die auf maximale Vermehrung ohne Rücksicht auf den Wirt setzt (z.B. Ebula).
Ich würde also sagen, der evolutionäre Druck auf virale Prozesse führt nicht zwangsläufig dazu, dass sie alle unauffällig und schadfrei schlummern. Aber er macht es doch unwahrscheinlich, dass sich schnelle, schrankenübergreifende Wirkung und großes Schadpotenzial kombinieren. Was das betrifft, würde ich mir immer noch mehr Sorgen um den menschlichen Entwickler machen, der so eine Wirkung erreichen will, als um den unkontrollierten Prozess, der sie von selbst ausbildet.
#29
Geschrieben 25 Januar 2009 - 20:30
Das ist genau die Frage.Ja - aber wie im weiteren Verlauf der Diskussion ja schon angedeutet wurde: Die "weitere Entwicklung" der Technik verläuft ja nicht unabhängig von den Störungen. Da arbeiten also zwei Mechanismen gegeneinander: Bei zunehmender Komplexität steigt die Wahrscheinlichkeit zufälliger Störung. Umgekehrt arbeitet aber der "evolutionäre Druck", der von den viralen Prozessen ausgeübt wird, darauf hin, dass die komplexer werdenden Prozesse zugleich weiter gegen solche Störungen abgesichert werden.
Die Schutzmechanismen, mit denen du gerade über Yip geredet hast, sind ja dann das praktische Beispiel dafür. Wie dieser Wettlauf ausgehen wird - wer weiß? Ich geh mal davon aus, dass man langfristig ein Gleichgewicht halten kann, in dem die Störungen parallel zu einer Entwicklung verlaufen, die sich auch langfristig entlang der von Menschen gesetzten Vorgaben bewegen wird - ohne dass "die Maschine" an sich außer Kontrolle gerät.
Wie du schon angedeutet hast, muß man bei Computerviren zwei Eigenschaften auseinanderhalten, das ist das Schadpotential auf der einen und das Infiltrations- und Verbreitungspotential auf der anderen Seite.
Die Problematik liegt nun darin, daß der "evolutionäre Druck" zur Verbesserung der Schutzmechanismen durch Störungen erzeugt wird, die von dem Schadpotential eines Virus abhängen.
Hat ein Virus eine sehr spezifische Schadfunktion, kann es aber sein, das seine Anwesenheit gar nicht registriert wird, weil die Schadfunktion in der momentanen Umgebung keinen sichtbaren Schaden produziert oder gar nicht aktiv ist.
Ein solcher Virus hat das Potential sich überall hin zu verbreiten, ohne daß er bemerkt wird.
Die Tatsache, daß er momentan keinen oder keinen sichtbaren Schaden produziert, heißt aber nicht, daß ein solcher "Schläfer" ungefährlich wäre.
Schon das nächste Update des Haushalrobotprogramms kann eine veränderte Schadwirkung zeigen.
Die größte Gefahr geht dann von einem Virus aus, dessen Schadwirkung stark verzögert, dann aber fatal eintritt.
Ich glaube auch, daß die größte Gefahr von den "Schläfern" ausgeht.Ebola ist ein gutes Beispiel. Denn es zeigt auch, dass selbst die "Hit & Run"-Erreger einen sicheren Rückzugsraum brauchen, um überleben zu können. Sie benötigen mindestens einen Wirt, in dem sie unauffällig(er) ruhen können. Was zeigt, dass eine reine Hit&Run-Strategie ohne Rücksicht auf den Wirt niemals funktionieren kann. Diese Rücksicht kann allerdings durchaus auch eine nur geringe Ansteckungswahrscheinlichkeit sein und muss nicht unbedingt eine längere Koexistenz mit dem befallenen Individuum bedeuten.
Ich würde also sagen, der evolutionäre Druck auf virale Prozesse führt nicht zwangsläufig dazu, dass sie alle unauffällig und schadfrei schlummern. Aber er macht es doch unwahrscheinlich, dass sich schnelle, schrankenübergreifende Wirkung und großes Schadpotenzial kombinieren. Was das betrifft, würde ich mir immer noch mehr Sorgen um den menschlichen Entwickler machen, der so eine Wirkung erreichen will, als um den unkontrollierten Prozess, der sie von selbst ausbildet.
Dummerweise ist dies aber auch der Typus, der von den Profihackern bevorzugt wird.
Die Evolution der Computerviren wird nicht zuletzt durch den Anreiz vorrangetrieben, die Schutzmechanismen von Betriebssystemen zu überlisten.
Die Schadfunktion ist oftmals zunächst nur Nebensache.
Allerdings werden "Schläfer" häufig verwendet um einen illegalen Zugangsweg in ein System zu etablieren.
Die Wirk- bzw. Schadfunktion kann dann interaktiv nach Bedarf nachgeschoben und ausgelöst werden.
#30
Geschrieben 25 Januar 2009 - 23:21

/KB
Yay! KI-generiertes SF-Zitat Ende November...
"In the sprawling city forums of the galaxy, where chaos reigns and time flows differently, true power is found not in dominance, but in moderation. The wise use their influence to temper ambition with reason, and chaos with order."
(auf Bing.de generierter Monolog von der Copilot-S/W - die ich hiermit NICHT bewerbe! - nach Aufforderung nach einem "s.f. quote" mit einem bestimmten Wort darin; ich ersetzte nur das 4. Wort mit "city forums")
Besucher die dieses Thema lesen: 1
Mitglieder: 0, Gäste: 1, unsichtbare Mitglieder: 0