Zum Inhalt wechseln


Foto
- - - - -

Jannis kleiner Wissenschaftsthread

#science #wissenschaft #medicalscience #scificheck

  • Bitte melde dich an um zu Antworten
57 Antworten in diesem Thema

#31 Jannis

Jannis

    Der Fantastische Buchladen Moderator

  • Globalmoderator
  • PIPPIPPIP
  • 379 Beiträge
  • Geschlecht:männlich
  • Wohnort:Frankfurt

Geschrieben 11 September 2024 - 11:27

100% Kryoprotektion ... also demnächst Hibernation?

 

Nur für die roten Blutzellen... der Rest ist trotzdem Matschepampe :) 


Meistens gut gelaunt, offen für sehr viel und immer für eine angeregte Diskussion zu haben!

  • (Buch) gerade am lesen:Esther S. Schmidt: Rho

#32 Fermentarius

Fermentarius

    Infonaut

  • Mitglieder
  • PIPPIP
  • 208 Beiträge
  • Geschlecht:männlich
  • Wohnort:Münster

Geschrieben 12 September 2024 - 08:56

An das Paper komme ich leider nicht ran, ich habe nur den Abstract. Danach hört sich das an, als hätte die Autoren rote Blutkörperchen in eine Art Kieselalgen verwandelt. Kryoprotektion soll wohl bedeuten, dass man Blutkonserven dann komplett einfrieren kann. Bisher besteht immer die Gefahr, dass sich beim Auftauen Eiskristalle bilden, die dann die Zellen auseinanderreißen. Wie das Siliziumhülle das verhindern soll, ist aus dem Abstract nicht recht zu entnehmen. Die andere Frage ist, ob die Blutzellen durch die Siliziumhülle starrer werden. Sie würden dann Mikrothrombosen verursachen, weil die roten Blutzellen nur die kleinsten Blutgefäße passen, wenn sie sich verformen. Das Problem ist von der Sichelzellanämie bekannt, weil die roten Blutzellen bei dieser Krankheit zu hart sind. Auch bei Long Covid wird diskutiert, ob die roten Blutkörperchen nach der COVID-Infektion eventuell steifer sind und die Durchblutung auf Kapillarebene beeinträchtigen.

Die Silizium-Hülle könnte ähnliche Probleme hervorrufen. Und was passiert mit der Hülle, wenn die Zellen sterben? Löst sie sich zuverlässig auf? Ist sie nierengängig? Ruft sie eventuell selbst Immunreaktionen oder allergische Reaktionen hervor?

Im Abstract steht dazu nicht viel, ich will mal sehen, ob ich an das komplette Paper komme.


Bearbeitet von Fermentarius, 17 September 2024 - 19:37.


#33 Jannis

Jannis

    Der Fantastische Buchladen Moderator

  • Globalmoderator
  • PIPPIPPIP
  • 379 Beiträge
  • Geschlecht:männlich
  • Wohnort:Frankfurt

Geschrieben 16 September 2024 - 08:22

Wer hat bisher nicht davon geträumt in einen lebenden und funktionierenden Organismus zu schauen, ganz ohne MRT, CT oder Ultraschall.
 
Einen (überraschend einfachen) ersten Schritt in diese Richtung beschreibt eine Forschergruppe von der Stanford University in Science:
 
Editor’s summary
Optical imaging of biological tissues is hindered by the scattering and, to a lesser extent, absorption of light that limits the penetration depth. Ou et al. addressed this problem through an approach that at first may seem counterintuitive: the introduction of highly absorbing molecules (see the Perspective by Rowlands and Gorecki). The authors show that the addition of common dye molecules that absorb in the near ultraviolet and blue regions improve optical transparency in nearby longer wavelengths. In essence, by causing sharp absorption in the blue region, the refractive index in the red part of the spectrum is increased without increasing absorption. The addition of tartrazine was able to make the skin of a live rodent temporarily transparent. —Marc S. Lavine
Structured Abstract
INTRODUCTION
A challenge in trying to image biological matter is that its complex structure causes opacity because of unwanted light scattering. This scattering results from refractive index mismatches among the components of biological tissues, limiting the penetration depth of optical imaging. The desire to see inside biological tissue and uncover the fundamental processes of life has spurred extensive research into deep-tissue optical imaging methods, such as two-photon microscopy, near-infrared-II fluorescence imaging, and optical tissue clearing. However, these methods either lack sufficient penetration depth and resolution or are unsuitable for living animals. Therefore, the ability to achieve optical transparency in live animals holds promise for transforming many optical imaging techniques.
RATIONALE
We hypothesized that strongly absorbing molecules can achieve optical transparency in live biological tissues. By applying the Lorentz oscillator model for the dielectric properties of tissue components and absorbing molecules, we predicted that dye molecules with sharp absorption resonances in the near-ultraviolet spectrum (300 to 400 nm) and blue region of the visible spectrum (400 to 500 nm) are effective in raising the real part of the refractive index of the aqueous medium at longer wavelengths when dissolved in water, which is in agreement with the Kramers-Kronig relations. As a result, water-soluble dyes can effectively reduce the RI contrast between water and lipids, leading to optical transparency of live biological tissues.
RESULTS
Following our theory, we found that an aqueous solution of a common food color approved by the US Food and Drug Administration, tartrazine, has the effect of reversibly making the skin, muscle, and connective tissues transparent in live rodents. We conducted experiments in both tissue-mimicking scattering hydrogels and ex vivo biological tissues. These tests confirmed the mechanism underlying our observations and showcased the achievable spatial resolution down to the micrometer level through millimeters of scattering medium once transparency is attained. By using absorbing dye molecules, we can transform the typically opaque abdomen of a live mouse into a transparent medium. This “transparent abdomen” allows for direct visualization of fluorescent protein–labeled enteric neurons, capturing their movements that mirror the underlying gut motility in live mice. This enabled us to generate time-evolving maps that depict mouse gut motility and the diversity of movement patterns. To demonstrate the generalizability of this approach, we also applied dye solutions topically to the scalp of a mouse head for visualizing cerebral blood vessels and to the mouse hindlimb for high-resolution microscopic imaging of muscle sarcomeres.
CONCLUSION
Overall, we report the counterintuitive observation that strongly absorbing molecules can achieve optical transparency in live animals. The Lorentz oscillator model, which underlies this unusual observation, predicts that molecules with low resonance frequencies (long absorption wavelengths), sharp absorption peaks, and rich delocalized electrons are more effective candidates at raising the refractive index of the aqueous medium than are conventional optical clearing agents. Our approach also presents opportunities for visualizing the structure, activity, and functions of deep-seated tissues and organs without the need for surgical removal or the replacement of overlying tissues with transparent windows. Some limitations remain for this method, including reduced but not eliminated scattering owing to the challenge of matching refractive indices in heterogeneous tissues and achievable penetration depth depending on the diffusion of absorbing molecules.
 
Übersetzung:
**Zusammenfassung des Herausgebers**
Die optische Bildgebung biologischer Gewebe wird durch die Streuung und, in geringerem Maße, durch die Absorption von Licht behindert, was die Eindringtiefe begrenzt. Ou et al. haben dieses Problem durch einen Ansatz gelöst, der auf den ersten Blick kontraintuitiv erscheinen mag: die Einführung stark absorbierender Moleküle (siehe die Perspektive von Rowlands und Gorecki). Die Autoren zeigen, dass die Zugabe von gewöhnlichen Farbstoffmolekülen, die im nahen Ultraviolett- und Blaulichtbereich absorbieren, die optische Transparenz in benachbarten längeren Wellenlängen verbessert. Im Wesentlichen wird durch die starke Absorption im blauen Bereich der Brechungsindex im roten Teil des Spektrums erhöht, ohne die Absorption zu erhöhen. Die Zugabe von Tartrazin konnte die Haut eines lebenden Nagetiers vorübergehend transparent machen. —Marc S. Lavine
 
**Strukturierte Zusammenfassung**
 
**EINLEITUNG**
Eine Herausforderung bei der Bildgebung biologischer Materie besteht darin, dass ihre komplexe Struktur aufgrund unerwünschter Lichtstreuung Opazität verursacht. Diese Streuung resultiert aus Brechungsindexunterschieden zwischen den Komponenten biologischer Gewebe, was die Eindringtiefe der optischen Bildgebung begrenzt. Der Wunsch, in biologisches Gewebe hineinzusehen und die grundlegenden Lebensprozesse zu entdecken, hat umfangreiche Forschungen zu tiefenoptischen Bildgebungsverfahren wie der Zwei-Photonen-Mikroskopie, der Nahinfrarot-II-Fluoreszenzbildgebung und der optischen Gewebeklarstellung angeregt. Diese Methoden haben jedoch entweder nicht ausreichende Eindringtiefe und Auflösung oder sind für lebende Tiere ungeeignet. Daher verspricht die Fähigkeit, optische Transparenz bei lebenden Tieren zu erreichen, viele optische Bildgebungstechniken zu transformieren.
 
**GRUNDLAGE**
Wir vermuteten, dass stark absorbierende Moleküle optische Transparenz in lebenden biologischen Geweben erreichen können. Durch Anwendung des Lorentz-Oszillatormodells für die dielektrischen Eigenschaften von Gewebekomponenten und absorbierenden Molekülen sagten wir voraus, dass Farbstoffmoleküle mit scharfen Absorptionsresonanzen im nahen Ultraviolettspektrum (300 bis 400 nm) und im blauen Bereich des sichtbaren Spektrums (400 bis 500 nm) wirksam sind, um den realen Teil des Brechungsindex des wässrigen Mediums bei längeren Wellenlängen zu erhöhen, wenn sie in Wasser gelöst sind, was mit den Kramers-Kronig-Beziehungen übereinstimmt. Infolgedessen können wasserlösliche Farbstoffe den RI-Kontrast zwischen Wasser und Lipiden effektiv reduzieren, was zur optischen Transparenz lebender biologischer Gewebe führt.
 
**ERGEBNISSE**
Entsprechend unserer Theorie fanden wir heraus, dass eine wässrige Lösung eines von der US-amerikanischen Food and Drug Administration zugelassenen Lebensmittelfarbstoffs, Tartrazin, die Haut, Muskeln und Bindegewebe lebender Nagetiere reversibel transparent machen kann. Wir führten Experimente sowohl in gewebemimetischen Streuhydrogelen als auch in ex vivo biologischen Geweben durch. Diese Tests bestätigten den Mechanismus, der unseren Beobachtungen zugrunde liegt, und zeigten die erreichbare räumliche Auflösung bis in den Mikrometerbereich durch Millimeter von Streumedium, sobald Transparenz erreicht ist. Durch die Verwendung absorbierender Farbstoffmoleküle können wir den typischerweise undurchsichtigen Bauch eines lebenden Maus in ein transparentes Medium verwandeln. Dieser „transparente Bauch“ ermöglicht die direkte Visualisierung von fluoreszenzmarkierten enterischen Neuronen und die Erfassung ihrer Bewegungen, die die zugrunde liegende Darmmotilität in lebenden Mäusen widerspiegeln. Dies ermöglichte es uns, sich zeitlich entwickelnde Karten zu erstellen, die die Darmmotilität der Maus und die Vielfalt der Bewegungsmuster darstellen. Um die Generalisierbarkeit dieses Ansatzes zu demonstrieren, haben wir auch Farbstofflösungen topisch auf die Kopfhaut eines Mauskopfes aufgetragen, um zerebrale Blutgefäße zu visualisieren, und auf die Hintergliedmaße der Maus für hochauflösende mikroskopische Bildgebung von Muskelsarkomeren.
 
**SCHLUSSFOLGERUNG**
Insgesamt berichten wir über die kontraintuitive Beobachtung, dass stark absorbierende Moleküle optische Transparenz bei lebenden Tieren erreichen können. Das Lorentz-Oszillatormodell, das dieser ungewöhnlichen Beobachtung zugrunde liegt, sagt voraus, dass Moleküle mit niedrigen Resonanzfrequenzen (langen Absorptionswellenlängen), scharfen Absorptionsspitzen und reichlich delokalisierten Elektronen wirksamere Kandidaten zur Erhöhung des Brechungsindex des wässrigen Mediums sind als herkömmliche optische Klärmittel. Unser Ansatz bietet auch Möglichkeiten zur Visualisierung der Struktur, Aktivität und Funktionen tief liegender Gewebe und Organe, ohne dass eine chirurgische Entfernung oder der Ersatz überlagernder Gewebe durch transparente Fenster erforderlich ist. Einige Einschränkungen bestehen weiterhin für diese Methode, einschließlich reduzierter, aber nicht eliminierter Streuung aufgrund der Herausforderung, Brechungsindizes in heterogenen Geweben abzugleichen, und der erreichbaren Eindringtiefe, die von der Diffusion der absorbierenden Moleküle abhängt.
 
Quelle:
Zihao Ou et al. ,Achieving optical transparency in live animals with absorbing molecules. Science 385,eadm6869(2024).DOI:10.1126/science.adm6869, https://www.science....science.adm6869

Meistens gut gelaunt, offen für sehr viel und immer für eine angeregte Diskussion zu haben!

  • (Buch) gerade am lesen:Esther S. Schmidt: Rho

#34 Fermentarius

Fermentarius

    Infonaut

  • Mitglieder
  • PIPPIP
  • 208 Beiträge
  • Geschlecht:männlich
  • Wohnort:Münster

Geschrieben 17 September 2024 - 19:27

Ich habe jetzt das Originalpaper zum Thema der roten Blutkörperchen mit Kieselhülle gelesen, und es sieht fast zu schön aus, um wahr zu sein. Die Zellen sollen so flexibel sein wie ohne Hülle, und im Mäuseversuch keine signifikante Belastung von Leber und Nieren auslösen. Auch eine Immunreaktion ist bei Mäusen nicht beobachtet worden. Und selbst menschliche Blutzellen sollen die Mäuse gut vertragen haben, nachdem sie mit der Kieselhülle überzogen wurden.

Trotzdem, irgendwie kann ich mir das kaum vorstellen. Andererseits ist PNAS ein angesehenes Journal und mindestens zwei Fachgutachter müssen bescheinigt haben, dass die Arbeit valide ist. Im Idealfall könnte es also sein, dass verkieselte Blutzellen von Schweinen oder Rindern in absehbarer Zeit für Transplantationen zur Verfügung stehen.



#35 Fermentarius

Fermentarius

    Infonaut

  • Mitglieder
  • PIPPIP
  • 208 Beiträge
  • Geschlecht:männlich
  • Wohnort:Münster

Geschrieben 17 September 2024 - 19:33


**Zusammenfassung des Herausgebers**
Die optische Bildgebung biologischer Gewebe wird durch die Streuung und, in geringerem Maße, durch die Absorption von Licht behindert, was die Eindringtiefe begrenzt. Ou et al. haben dieses Problem durch einen Ansatz gelöst, der auf den ersten Blick kontraintuitiv erscheinen mag: die Einführung stark absorbierender Moleküle (siehe die Perspektive von Rowlands und Gorecki). Die Autoren zeigen, dass die Zugabe von gewöhnlichen Farbstoffmolekülen, die im nahen Ultraviolett- und Blaulichtbereich absorbieren, die optische Transparenz in benachbarten längeren Wellenlängen verbessert. Im Wesentlichen wird durch die starke Absorption im blauen Bereich der Brechungsindex im roten Teil des Spektrums erhöht, ohne die Absorption zu erhöhen. Die Zugabe von Tartrazin konnte die Haut eines lebenden Nagetiers vorübergehend transparent machen. —Marc S. Lavine

 

Hört sich so an, als ob man jetzt eine Methode für die bessere Beobachtung von Stoffwechselprozessen gefunden hat. Hört sich gut an, und ist ein wirklich gut ausgedachtes Verfahren. Hut ab!
 



#36 Jannis

Jannis

    Der Fantastische Buchladen Moderator

  • Globalmoderator
  • PIPPIPPIP
  • 379 Beiträge
  • Geschlecht:männlich
  • Wohnort:Frankfurt

Geschrieben 25 September 2024 - 10:37

Hier mal was "fieses" für die ganzen Umweltkatastrophen-Autor*innen: Fluoxetin (Prozac) ist nicht nur ein weit verbreitetes Medikament (1), sondern ins Klo-gekippte Tabellen verändern tatsächlich die Fische. 
 
Das hat nun eine Forschergruppe mit Guppys simuliert und tatsächlich phänotypische Merkmale sowohl auf Populations- als auch auf individueller Ebene beeinflusst: 
 
Long-term effects of widespread pharmaceutical pollution on trade-offs between behavioural, life-history and reproductive traits in fish
 
Aich, U., Polverino, G., Yazdan Parast, F., Melo, G. C., Tan, H., Howells, J., Nosrati, R., & Wong, B. B. M. (2024). Long-term effects of widespread pharmaceutical pollution on trade-offs between behavioural, life-history and reproductive traits in fish. Journal of Animal Ecology, 00, 1–16. https://doi.org/10.1...1365-2656.14152
 
Abstract
In our rapidly changing world, understanding how species respond to shifting conditions is of paramount importance. Pharmaceutical pollutants are widespread in aquatic ecosystems globally, yet their impacts on animal behaviour, life-history and reproductive allocation remain poorly understood, especially in the context of intraspecific variation in ecologically important traits that facilitate species' adaptive capacities.
We test whether a widespread pharmaceutical pollutant, fluoxetine (Prozac), disrupts the trade-off between individual-level (co)variation in behavioural, life-history and reproductive traits of freshwater fish.
We exposed the progeny of wild-caught guppies (Poecilia reticulata) to three field-relevant levels of fluoxetine (mean measured concentrations: 0, 31.5 and 316 ng/L) for 5 years, across multiple generations. We used 12 independent laboratory populations and repeatedly quantified activity and risk-taking behaviour of male guppies, capturing both mean behaviours and variation within and between individuals across exposure treatments. We also measured key life-history traits (body condition, coloration and gonopodium size) and assessed post-copulatory sperm traits (sperm vitality, number and velocity) that are known to be under strong sexual selection in polyandrous species. Intraspecific (co)variation of these traits was analysed using a comprehensive, multivariate statistical approach.
Fluoxetine had a dose-specific (mean) effect on the life-history and sperm trait of guppies: low pollutant exposure altered male body condition and increased gonopodium size, but reduced sperm velocity. At the individual level, fluoxetine reduced the behavioural plasticity of guppies by eroding their within-individual variation in both activity and risk-taking behaviour. Fluoxetine also altered between-individual correlations in pace-of-life syndrome traits: it triggered the emergence of correlations between behavioural and life-history traits (e.g. activity and body condition) and between life-history and sperm traits (e.g. gonopodium size and sperm vitality), but collapsed other between-individual correlations (e.g. activity and gonopodium size).
Our results reveal that chronic exposure to global pollutants can affect phenotypic traits at both population and individual levels, and even alter individual-level correlations among such traits in a dose-specific manner. We discuss the need to integrate individual-level analyses and test behaviour in association with life-history and reproductive traits to fully understand how animals respond to human-induced environmental change.
 
Übersetzung:
In unserer sich schnell verändernden Welt ist es von größter Bedeutung zu verstehen, wie Arten auf sich ändernde Bedingungen reagieren. Pharmazeutische Schadstoffe sind weltweit in aquatischen Ökosystemen weit verbreitet, doch ihre Auswirkungen auf das Verhalten von Tieren, ihre Lebensgeschichte und ihre Fortpflanzungszuweisung sind noch wenig verstanden, insbesondere im Kontext der intraspezifischen Variation ökologisch wichtiger Merkmale, die die Anpassungsfähigkeit von Arten erleichtern.
 
Wir untersuchen, ob ein weit verbreiteter pharmazeutischer Schadstoff, Fluoxetin (Prozac), den Kompromiss zwischen individueller (Ko-)Variation in Verhaltens-, Lebensgeschichte- und Fortpflanzungsmerkmalen von Süßwasserfischen stört. Wir setzten die Nachkommen von wild gefangenen Guppys (Poecilia reticulata) über fünf Jahre hinweg drei feldrelevanten Fluoxetin-Konzentrationen (mittlere gemessene Konzentrationen: 0, 31,5 und 316 ng/L) aus, über mehrere Generationen hinweg. Wir verwendeten 12 unabhängige Laborpopulationen und quantifizierten wiederholt die Aktivität und das Risikoverhalten männlicher Guppys, wobei wir sowohl das durchschnittliche Verhalten als auch die Variation innerhalb und zwischen Individuen über die Expositionsbehandlungen hinweg erfassten. Wir maßen auch wichtige Lebensgeschichtsmerkmale (Körperkondition, Färbung und Gonopodiumgröße) und bewerteten postkopulatorische Spermienmerkmale (Spermienvitalität, Anzahl und Geschwindigkeit), die in polyandrischen Arten unter starkem sexuellen Selektionsdruck stehen. Die intraspezifische (Ko-)Variation dieser Merkmale wurde mit einem umfassenden, multivariaten statistischen Ansatz analysiert.
 
Fluoxetin hatte einen dosisabhängigen (mittleren) Effekt auf die Lebensgeschichte und die Spermienmerkmale der Guppys: Eine geringe Schadstoffexposition veränderte die Körperkondition der Männchen und vergrößerte die Gonopodiumgröße, verringerte jedoch die Spermiengeschwindigkeit. Auf individueller Ebene reduzierte Fluoxetin die Verhaltensplastizität der Guppys, indem es ihre innerindividuelle Variation in sowohl Aktivität als auch Risikoverhalten verringerte. Fluoxetin veränderte auch die zwischenindividuellen Korrelationen in den Merkmalen des Lebensrhythmus-Syndroms: Es löste das Auftreten von Korrelationen zwischen Verhaltens- und Lebensgeschichtsmerkmalen (z.B. Aktivität und Körperkondition) und zwischen Lebensgeschichte- und Spermienmerkmalen (z.B. Gonopodiumgröße und Spermienvitalität) aus, kollabierte jedoch andere zwischenindividuelle Korrelationen (z.B. Aktivität und Gonopodiumgröße).
 
Unsere Ergebnisse zeigen, dass chronische Exposition gegenüber globalen Schadstoffen phänotypische Merkmale sowohl auf Populations- als auch auf individueller Ebene beeinflussen und sogar individuelle Korrelationen zwischen solchen Merkmalen dosisabhängig verändern kann. Wir diskutieren die Notwendigkeit, individuelle Analysen zu integrieren und Verhalten in Verbindung mit Lebensgeschichte- und Fortpflanzungsmerkmalen zu testen, um vollständig zu verstehen, wie Tiere auf vom Menschen verursachte Umweltveränderungen reagieren.
 
 

Meistens gut gelaunt, offen für sehr viel und immer für eine angeregte Diskussion zu haben!

  • (Buch) gerade am lesen:Esther S. Schmidt: Rho

#37 Fermentarius

Fermentarius

    Infonaut

  • Mitglieder
  • PIPPIP
  • 208 Beiträge
  • Geschlecht:männlich
  • Wohnort:Münster

Geschrieben 27 September 2024 - 19:11

Arzneimittelrückstände in der Umwelt sind ein spannendes Thema. Eine gute Übersicht gibt es beim Umweltbundesamt. Das Thema gibt eigentlich immer was her - aber in diesem speziellen Fall scheinen mir die Ergebnisse doch wirklich etwas dünn. Mit der Fragestellung kann ich nicht viel anfangen. Will wirklich jemand wissen, ob "Fluoxetin (Prozac) den Kompromiss zwischen individueller (Ko-)Variation in Verhaltens-, Lebensgeschichte- und Fortpflanzungsmerkmalen von Süßwasserfischen stört"? Und das ganze über fünf Jahre und mehrere Generationen? Und dabei geht es offenbar nur um "die Aktivität und das Risikoverhalten männlicher Guppys" und diverse Körpermerkmale.

Und siehe da: eine Korrelation wird festgestellt. Das kommt nicht unerwartet. Andererseits bin ich durchaus skeptisch. Wurden weibliche Guppys nicht untersucht? Andere Merkmale nicht erhoben? Und warum sind die Ergebnisse so komplex?

Bei Studien dieser Art drängt sich immer der Verdacht auf, dass eine fünfjährige Studie kaum Ergebnisse erbracht hat und die Arbeitsgruppe so lange herumgerechnet hat, bis wenigstens irgendetwas dabei herausgekommen ist - was man dann rückwirkend zur Fragestellung erhebt. Ich kann das für diese Studie nicht verifizieren, aber ich finde, die Autoren hätten mehr tun müssen, um den Verdacht auszuräumen.

Aber in jedem Fall sind Arzneimittelrückstände in der Umwelt ein absolut echtes Problem. Und es ist bisher kaum möglich, sie in Kläranlagen aus dem Abwasser zu filtern.


Bearbeitet von Fermentarius, 28 September 2024 - 09:47.


#38 Jannis

Jannis

    Der Fantastische Buchladen Moderator

  • Globalmoderator
  • PIPPIPPIP
  • 379 Beiträge
  • Geschlecht:männlich
  • Wohnort:Frankfurt

Geschrieben 09 Oktober 2024 - 09:17

"Gendern verunstaltet die Deutsche Sprache" ... nein, tut sie nicht. Das ist jetzt wissenschaftlich von einer Forschungsgruppe vom Leibniz Institut bewiesen worden:
 
Im Durchschnitt sind weniger als 1 % aller Token (Wörter) von genderinklusiver Sprache (der untersuchten Pressetexte) betroffen.
 
Abstract:
Research on gender and language is tightly knitted to social debates on gender equality and non-discriminatory language use. Psycholinguistic scholars have made significant contributions in this field. However, corpus-based studies that investigate these matters within the context of language use are still rare. In our study, we address the question of how much textual material would actually have to be changed if non-gender-inclusive texts were rewritten to be gender-inclusive. This quantitative measure is an important empirical insight, as a recurring argument against the use of gender-inclusive German is that it supposedly makes written texts too long and complicated. It is also argued that gender-inclusive language has negative effects on language learners. However, such effects are only likely if gender-inclusive texts are very different from those that are not gender-inclusive. In our corpus-linguistic study, we manually annotated German press texts to identify the parts that would have to be changed. Our results show that, on average, less than 1% of all tokens would be affected by gender-inclusive language. This small proportion calls into question whether gender-inclusive German presents a substantial barrier to understanding and learning the language, particularly when we take into account the potential complexities of interpreting masculine generics.
 
Übersetzung:
Die Forschung zu Geschlecht und Sprache ist eng mit gesellschaftlichen Debatten über Geschlechtergleichstellung und diskriminierungsfreie Sprachverwendung verknüpft. Psycholinguistische Wissenschaftler haben in diesem Bereich bedeutende Beiträge geleistet. Allerdings sind korpusbasierte Studien, die diese Themen im Kontext der Sprachverwendung untersuchen, noch selten. In unserer Studie gehen wir der Frage nach, wie viel Textmaterial tatsächlich geändert werden müsste, wenn nicht geschlechtergerechte Texte in geschlechtergerechte umgeschrieben würden. Diese quantitative Messung ist eine wichtige empirische Erkenntnis, da ein wiederkehrendes Argument gegen die Verwendung geschlechtergerechter Sprache im Deutschen ist, dass sie angeblich geschriebene Texte zu lang und kompliziert macht. Es wird auch argumentiert, dass geschlechtergerechte Sprache negative Auswirkungen auf Sprachlernende hat. Solche Effekte sind jedoch nur wahrscheinlich, wenn geschlechtergerechte Texte sehr unterschiedlich zu nicht geschlechtergerechten Texten sind. In unserer korpuslinguistischen Studie haben wir deutsche Pressetexte manuell annotiert, um die Teile zu identifizieren, die geändert werden müssten. Unsere Ergebnisse zeigen, dass im Durchschnitt weniger als 1% aller Tokens von geschlechtergerechter Sprache betroffen wären. Dieser geringe Anteil stellt infrage, ob geschlechtergerechtes Deutsch ein erhebliches Hindernis für das Verstehen und Lernen der Sprache darstellt, insbesondere wenn wir die potenziellen Komplexitäten der Interpretation maskuliner Generika berücksichtigen.
 
Quelle: 
Müller-Spitzer, C., Ochs, S., Koplenig, A. et al. Less than one percent of words would be affected by gender-inclusive language in German press texts. Humanit Soc Sci Commun 11, 1343 (2024). https://doi.org/10.1...599-024-03769-w

Meistens gut gelaunt, offen für sehr viel und immer für eine angeregte Diskussion zu haben!

  • (Buch) gerade am lesen:Esther S. Schmidt: Rho

#39 rostig

rostig

    Temponaut

  • Mitglieder
  • PIPPIPPIPPIPPIP
  • 1.339 Beiträge
  • Geschlecht:männlich

Geschrieben 09 Oktober 2024 - 10:07

Es gibt dazu ein sehr schönes Video von Maithink X. Fazit: gendergerechte Sprache stört den Lesefluss überhaupt nicht, es sei denn der Leser will sich daran stören.



#40 Naut

Naut

    Semantomorph

  • Mitglieder
  • PIPPIPPIPPIPPIP
  • 4.231 Beiträge
  • Geschlecht:unbekannt

Geschrieben 09 Oktober 2024 - 10:08

Das ist ein interessantes Argument. Allerdings gehe ich davon aus, dass die Gewichtung der Tokens dabei eine Rolle spielen sollte: Nicht alle Wortarten sind gleich wichtig für Leseverständnis und Sinnwahrnehmung eines Satzes. So können z.B. viele Artikel, Konjunktionen usw. oft weggelassen werden, ohne den Sinngehalt zu verändern.
Eine Folgestudie sollte also eine solche Gewichtung berücksichtigen.

Mal ganz abgesehen von der emotionalisierten Diskussion. :)
Liest gerade: Atwood - Die Zeuginnen

#41 Fermentarius

Fermentarius

    Infonaut

  • Mitglieder
  • PIPPIP
  • 208 Beiträge
  • Geschlecht:männlich
  • Wohnort:Münster

Geschrieben 11 Oktober 2024 - 13:24

Das ist wieder ein bemerkenswertes Paper in mehrerer Hinsicht. Zunächst zur Einordnung: Es stammt aus dem Leibnitz-Institut für Deutsche Sprache, einer gemeinsam vom Bund und den Bundesländern getragenen zentralen wissenschaftlichen Einrichtung zur Dokumentation und Erforschung der deutschen Sprache. Die Arbeit ist über den Link, den Jannis mitgeliefert hat, im Volltext verfügbar. 

Die Erstautorin leitet die Abteilung "Lexik empirisch und digital" in der Abteilung "Lexik". Wenn es um gendergerechte Sprache geht, hat sie sich in Presseinterviews mehrfach gegen die Praxis des generischen Maskulinums ausgesprochen.

Jetzt zum Paper: Was haben die Autoren berichtet?

Zitat: "In unserer korpuslinguistischen Studie haben wir deutsche Pressetexte manuell annotiert, um die Teile zu identifizieren, die geändert werden müssten. Unsere Ergebnisse zeigen, dass im Durchschnitt weniger als 1% aller Tokens von geschlechtergerechter Sprache betroffen wären."

"Tokens" sind in diesem Zusammenhang Worte. Ist das unerwartet?

Laut Wikipedia hat ein durchschnittlicher Satz in der Presse zwischen 10 und 23 Worten. Wenn ich also 15 Worte als Durchschnitt annehme, wäre etwa alle sieben Sätze ein Gruppenbegriff (Politiker, Ärzte, Bürger etc.) zu erwarten, der gendergerecht umgearbeitet werden könnte. Grundsätzlich leuchtet das ein. Aussage über menschliche Gruppen geraten sehr schnell in den Bereich von Pauschalurteilen oder, schlimmer noch, Vorurteilen, was die Presse eigentlich zu vermeiden sucht. Ich frage mich allerdings, ob wirklich jemand ein wesentlich höheres Vorkommen solcher Kollektivbegriffe erwartet hat.

Wie allgemeingültig ist die Aussage?

Das hängt davon ab, wie breit das Sample gestreut ist, wie groß es ist und nicht zuletzt wie aktuell. Das Sample im Paper ist nicht sonderlich groß. 190 Texte stammen von der Deutschen Presse Agentur (dpa), je 40 von den Zeitschriften Brigitte, Zeit Wissen und Psychologie heute. In den Texte sollte "annotiert", also angemerkt werden, wo eventuell gendergerecht verändert werden sollte.

Aber nur 261 der 310 Texte wurden, wie vorgesehen, unabhängig voneinander von zwei "Research Assistents" durchgesehen. Warum? Die Begründung lautet (der Einfachheit halber von DeepL übersetzt): "Von den 310 Texten in der Stichprobe wurden 261 von beiden Annotatoren annotiert. 34 wurden nur von Annotator A annotiert, weil Annotator B unsere Einrichtung verlassen hat, bevor er die Annotationen abschließen konnte (1 DPA, 33 Zeit Wissen). Leider wurden 15 Texte aufgrund von Benutzerfehlern im Annotationsprogramm überhaupt nicht annotiert (5 dpa, 5 Brigitte, 1 Zeit Wissen, 4 Psychologie Heute)."

 

Das sind die kleinen Widrigkeiten des Alltags, die auch Wissenschaftler nicht verschonen. Allerdings habe ich jetzt doch einige Probleme mit der allgemeinen Aussagekraft der Untersuchung, zumal sich die beiden Annotatoren trotz Training nur in ca. 78% aller Fälle einig waren, und in nur 64% der Fälle, wenn darum ging, ob eine "gender-inclusive form" nötig ist. Dieser Wert lässt sich aus dem "Supplementary material" entnehmen, das die Autoren auf OSF hochgeladen haben.

 

Ganz unabhängig von der teilweise giftigen Diskussion um das generische Maskulinum, stellt sich doch die Frage, ob auf der Grundlage einer kleinen Stichprobe, die zudem hauptsächlich aus einer einzigen Quelle stammt, wirklich eine allgemeingültige Aussage treffen lässt. Mir fehlt auch eine Diskussion der hausinternen Regeln der dpa zum Umgang mit dem Thema. Das wäre schon wichtig um zu beurteilen, inwieweit sich das Ergebnis verallgemeinern lässt. Im Paper steht dazu (wieder DEEPL-Übersetzung): "DPA hat erst kürzlich angekündigt, von nun an eine geschlechtsneutrale Sprache zu verwenden, was bedeutet, dass DPA-Texte aus der Zeit vor 2021 noch nicht (bewusst) geschlechtsspezifisch sind und daher eine gute Grundlage für die Untersuchung von nicht geschlechtsspezifischer Sprache darstellen. Daher haben wir nur Texte aus den Jahren 2006-2020 für unsere Forschungsfragen herangezogen."

Der im Paper verlinkte Text besagt lediglich folgendes: "Die deutschsprachigen Nachrichtenagenturen AFP, APA, dpa, epd, Keystone-sda, KNA, Reuters und SID haben ein gemeinsames Vorgehen vereinbart, um diskriminierungssensibler zu schreiben und zu sprechen." Wie das genauer aussehen soll, steht dann im weiteren Text. Daraus kann man aber nicht schließen, dass dpa vorher keine Richtlinie hatte, beziehungsweise, dass diese Richtlinie sich von 2006 bis 2020 nicht (eventuell auch mehrfach) geändert hat. Vielleicht hätten die Autoren ja einfach nachfragen können. Immerhin ist die hier einfach angenommene Tatsache ein wichtiger Grund der Auswahl gewesen.

Und ehrlich gesagt halte ich auch nicht viel davon, wenn im Ergebnisteil eines Papers (damit ist nicht nur dieses gemeint) wild mit Zahlen jongliert wird, die auf einer wackeligen Grundlage ermittelt wurden.

Insgesamt habe ich kein Problem mit der Aussage, dass Texte für eine gendergerechte Anpassung nur wenig verändert werden müssten. Aber das hat auch wohl nie jemand ernsthaft bezweifelt. Nur weiß ich nicht, ob dieses Paper ausreicht, die Aussage wirklich valide zu untermauern.


Bearbeitet von Fermentarius, 11 Oktober 2024 - 18:05.


#42 Jannis

Jannis

    Der Fantastische Buchladen Moderator

  • Globalmoderator
  • PIPPIPPIP
  • 379 Beiträge
  • Geschlecht:männlich
  • Wohnort:Frankfurt

Geschrieben 15 Oktober 2024 - 11:39

Das ist ein interessantes Argument. Allerdings gehe ich davon aus, dass die Gewichtung der Tokens dabei eine Rolle spielen sollte: Nicht alle Wortarten sind gleich wichtig für Leseverständnis und Sinnwahrnehmung eines Satzes. So können z.B. viele Artikel, Konjunktionen usw. oft weggelassen werden, ohne den Sinngehalt zu verändern.
Eine Folgestudie sollte also eine solche Gewichtung berücksichtigen.

Mal ganz abgesehen von der emotionalisierten Diskussion. :)

 

Echt spanender Punkt, finde da aber noch keine Lösung, zu definieren welche Wörter schwerer gewichtet sein sollten?

 

- Einfache Analyse der Häufigkeit: sehr individuell, wenn man das aus Spaß in Word mit Bibel-Texten oder freien aus dem Projekt Gutenberg macht

- Reihenfolge / Ordnung der Wörter: Subjekt Prädikat Objekt ... aber was ist davon wichtig? 


Meistens gut gelaunt, offen für sehr viel und immer für eine angeregte Diskussion zu haben!

  • (Buch) gerade am lesen:Esther S. Schmidt: Rho

#43 Naut

Naut

    Semantomorph

  • Mitglieder
  • PIPPIPPIPPIPPIP
  • 4.231 Beiträge
  • Geschlecht:unbekannt

Geschrieben 15 Oktober 2024 - 16:15

Echt spanender Punkt, finde da aber noch keine Lösung, zu definieren welche Wörter schwerer gewichtet sein sollten?
 
- Einfache Analyse der Häufigkeit: sehr individuell, wenn man das aus Spaß in Word mit Bibel-Texten oder freien aus dem Projekt Gutenberg macht
- Reihenfolge / Ordnung der Wörter: Subjekt Prädikat Objekt ... aber was ist davon wichtig?

ME sollte eine solche Gewichtung auf einer qualitativen Skala basieren, die etwa die Wichtigkeit in Bezug auf Sinngehalt bewertet. Da stehen Verben und Substantive dann natürlich viel weiter oben. Das würde dann die Folgerung der Studie schwächen, denn Gendern ändert zwar wenige, aber dafür immens wichtige Wörter - ist ja auch logisch, denn wenn die Worte unbedeutend wären, müssten sich die Befürworter nicht um ihre Wirkung sorgen.
Liest gerade: Atwood - Die Zeuginnen

#44 Fermentarius

Fermentarius

    Infonaut

  • Mitglieder
  • PIPPIP
  • 208 Beiträge
  • Geschlecht:männlich
  • Wohnort:Münster

Geschrieben 15 Oktober 2024 - 17:46

ME sollte eine solche Gewichtung auf einer qualitativen Skala basieren, die etwa die Wichtigkeit in Bezug auf Sinngehalt bewertet. Da stehen Verben und Substantive dann natürlich viel weiter oben. Das würde dann die Folgerung der Studie schwächen, denn Gendern ändert zwar wenige, aber dafür immens wichtige Wörter - ist ja auch logisch, denn wenn die Worte unbedeutend wären, müssten sich die Befürworter nicht um ihre Wirkung sorgen.

Auch wenn das sicherlich sinnvoll wäre, bedeutete es doch einen hohen Aufwand. Die Wichtigkeit im Bezug auf den Sinngehalt lässt sich nur subjektiv bewerten. "Sinn" ist nun einmal schwer zu messen. Bevor ein Text untersucht wird, müsste also zunächst ein mindestens dreiköpfiges Team die Sinnträger des Textes finden und quantifizieren. Letztlich wird sich das für ein doch eher marginales Thema kaum lohnen.

Inzwischen stellt sich ohnehin die Frage, ob Gendern außerhalb des akademischen Milieus noch viele Anhänger findet. Bei der aktuellen Shell-Jugendstudie lehnt selbst unter den Jugendlichen zwischen 12 und 25 Jahren eine relative Mehrheit das Gendern ab. Man kann also nicht sagen, dass Gendern sich langsam durchsetzt, weil die Gegner aussterben. Eine Stichprobe von Texten, die vorgestern ich bei eher linken Onlineportale wie fr.de und taz.de durchgelesen habe, zeigte mir, dass auch diese Portale keineswegs konsequent gendern, sondern Umfang und Stil offenbar den einzelnen Autoren und Redakteuren überlassen.



#45 Naut

Naut

    Semantomorph

  • Mitglieder
  • PIPPIPPIPPIPPIP
  • 4.231 Beiträge
  • Geschlecht:unbekannt

Geschrieben 15 Oktober 2024 - 19:55

Ich schlage ja auch nicht vor, das tatsächlich zu machen, sondern finde, dass die Studie eher schief argumentiert. Eine ungewichtete Korpusstudie bildet die angestrebte Forschungsfrage nicht hinreichend ab.

Edit: Ich glaube, ich sollte das besser erklären: Befürworter einer gegenderten Sprache (ich nenne das jetzt mal verkürzt so) erklären, dass es wichtig ist, inkludierende Formen zu benutzen, um alle Menschen mit einzuschließen. Sie argumentieren, dass Sprache das Denken formt und damit der Sprachgebrauch Einfluss auf soziale Prozesse nimmt.
Die Studie andererseits argumentiert, dass es relativ egal ist, ob nun andere Formen verwendet werden oder nicht, weil dies nur einen kleinen Teil der Sprache beträfe. Gegner bräuchten sich demnach nicht daran stören.
Also was denn nun? Ist es wichtig oder nicht?
Meiner Meinung nach liegt der Widerspruch darin, dass der Anteil der zu ändernden Worte zwar klein ist, diese aber überproportional zur Semantik beitragen. Es ist also irreführend, zu bahaupten, dass das schon klar ginge, weil gerade diese kleine Änderung stark wahrgenommen würde.
Es wäre also besser, eben diese Wahrnehmung in qualitativen Studien zu untersuchen, statt (günstig) einfach Worte zu zählen.

Abgesehen davon sollte es aber meiner Meinung nach zweitrangig sein, ob der Forschungsgegenstand nun "wichtig" ist oder nicht. Forschung ist Forschung.

Bearbeitet von Naut, 15 Oktober 2024 - 20:19.

Liest gerade: Atwood - Die Zeuginnen

#46 Fermentarius

Fermentarius

    Infonaut

  • Mitglieder
  • PIPPIP
  • 208 Beiträge
  • Geschlecht:männlich
  • Wohnort:Münster

Geschrieben 15 Oktober 2024 - 20:23

Ich schlage ja auch nicht vor, das tatsächlich zu machen, sondern finde, dass die Studie eher schief argumentiert. Eine ungewichtete Korpusstudie bildet die angestrebte Forschungsfrage nicht hinreichend ab.

Abgesehen davon sollte es aber meiner Meinung nach zweitrangig sein, ob der Forschungsgegenstand nun "wichtig" ist oder nicht. Forschung ist Forschung.

Wir können uns sicher darauf einigen, dass die Studie schief argumentiert und einen beträchtlichen Aufwand treibt, um etwas zu beweisen, was niemand bezweifelt und was andererseits am eigentlichen Thema vorbeigeht. Theoretisch ist es auch richtig, dass man für eine Fragestellung, egal ob wichtig oder unwichtig, kompromisslos den gebotenen Aufwand treiben sollte. In der Praxis ist das allerdings oft genug schlicht nicht möglich. Die hier vorgestellte Studie ist selbst an dem Prozedere gescheitert, dass sie eigentlich vorgesehen hatte.


Bearbeitet von Fermentarius, 16 Oktober 2024 - 06:46.


#47 Naut

Naut

    Semantomorph

  • Mitglieder
  • PIPPIPPIPPIPPIP
  • 4.231 Beiträge
  • Geschlecht:unbekannt

Geschrieben 15 Oktober 2024 - 21:29

Genau!
Liest gerade: Atwood - Die Zeuginnen

#48 Jannis

Jannis

    Der Fantastische Buchladen Moderator

  • Globalmoderator
  • PIPPIPPIP
  • 379 Beiträge
  • Geschlecht:männlich
  • Wohnort:Frankfurt

Geschrieben 30 Oktober 2024 - 09:41

Was macht der Weltraum eigentlich mit einem Menschen... so auf physiologischer oder molekularer Ebene? Ein paar Hinweise liefern die privaten Space-X Weltraumflüge:

 

Abstract:

Human spaceflight has historically been managed by government agencies, such as in the NASA Twins Study1, but new commercial spaceflight opportunities have opened spaceflight to a broader population. In 2021, the SpaceX Inspiration4 mission launched the first all-civilian crew to low Earth orbit, which included the youngest American astronaut (aged 29), new in-flight experimental technologies (handheld ultrasound imaging, smartwatch wearables and immune profiling), ocular alignment measurements and new protocols for in-depth, multi-omic molecular and cellular profiling. Here we report the primary findings from the 3-day spaceflight mission, which induced a broad range of physiological and stress responses, neurovestibular changes indexed by ocular misalignment, and altered neurocognitive functioning, some of which match those of long-term spaceflight2, but almost all of which did not differ from baseline (pre-flight) after return to Earth. Overall, these preliminary civilian spaceflight data suggest that short-duration missions do not pose a significant health risk, and moreover present a rich opportunity to measure the earliest phases of adaptation to spaceflight in the human body at anatomical, cellular, physiological and cognitive levels. Finally, these methods and results lay the foundation for an open, rapidly expanding biomedical database for astronauts3, which can inform countermeasure development for both private and government-sponsored space missions.

 

Übersetzung:

Die bemannte Raumfahrt wurde historisch gesehen von Regierungsbehörden wie in der NASA Twins Study verwaltet, aber neue kommerzielle Raumfahrtmöglichkeiten haben die Raumfahrt einer breiteren Bevölkerung zugänglich gemacht. Im Jahr 2021 startete die SpaceX Inspiration4-Mission die erste rein zivile Besatzung in eine niedrige Erdumlaufbahn, zu der der jüngste amerikanische Astronaut (29 Jahre alt), neue experimentelle Technologien während des Flugs (tragbare Ultraschallbildgebung, Smartwatch-Wearables und Immunprofilierung), Messungen der Augenstellung und neue Protokolle für eine eingehende, multi-omische molekulare und zelluläre Profilierung gehörten. Hier berichten wir über die primären Ergebnisse der dreitägigen Raumfahrtmission, die eine breite Palette von physiologischen und Stressreaktionen, neurovestibuläre Veränderungen, die durch Augenfehlstellungen angezeigt wurden, und veränderte neurokognitive Funktionen induzierte, von denen einige denen der Langzeitraumfahrt ähneln, aber fast alle sich nach der Rückkehr zur Erde nicht von den Ausgangswerten (vor dem Flug) unterschieden. Insgesamt deuten diese vorläufigen Daten der zivilen Raumfahrt darauf hin, dass Kurzzeitmissionen kein signifikantes Gesundheitsrisiko darstellen und darüber hinaus eine reiche Gelegenheit bieten, die frühesten Phasen der Anpassung des menschlichen Körpers an die Raumfahrt auf anatomischer, zellulärer, physiologischer und kognitiver Ebene zu messen. Schließlich legen diese Methoden und Ergebnisse den Grundstein für eine offene, schnell wachsende biomedizinische Datenbank für Astronauten, die die Entwicklung von Gegenmaßnahmen sowohl für private als auch für staatlich geförderte Raumfahrtmissionen informieren kann.

 

Quelle:

Jones, C.W., Overbey, E.G., Lacombe, J. et al. Molecular and physiological changes in the SpaceX Inspiration4 civilian crew. Nature 632, 1155–1164 (2024). https://doi.org/10.1...586-024-07648-x


Meistens gut gelaunt, offen für sehr viel und immer für eine angeregte Diskussion zu haben!

  • (Buch) gerade am lesen:Esther S. Schmidt: Rho

#49 Fermentarius

Fermentarius

    Infonaut

  • Mitglieder
  • PIPPIP
  • 208 Beiträge
  • Geschlecht:männlich
  • Wohnort:Münster

Geschrieben 31 Oktober 2024 - 19:23

Das ist eine wirklich wichtige Arbeit für zukünftige Weltraumflüge! Natürlich fragt man sich, warum nach über 60 Jahren bemannter Raumfahrt jetzt zum ersten Mal eine so umfangreicher Gesundheits-Check unternommen wurde. Ein Grund ist sicher, dass viele der Untersuchungen, die bei der privaten Inspiration4-Mission durchgeführt wurden, bis vor wenigen Jahren nicht möglich gewesen wären. Und natürlich flogen bisher hauptsächlich hoch trainierte Astronauten ins All, und denen traute man schon zu, die Mission gesund durchzustehen. Und schließlich sind Kurzmissionen seit vielen Jahren eher eine Seltenheit, so dass bisher wohl eher die Langzeitprobleme im Vordergrund standen.

Die Ergebnisse sind jedenfalls ziemlich eindeutig: Eine stärkere Gesundheitsgefährdung ist nicht nachweisbar, auch bei Menschen, die nicht in körperlicher Topform sind. Zwei Astronauten wurden raumkrank, es gelang aber nicht, Parameter zu finden, mit denen sich das zuverlässig vorhersagen lässt. Da braucht man wohl noch umfangreichere Untersuchungen.

Im Moment sieht es also so aus, als ob ein künftiger Weltraumtourismus keine allzu großen medizinischen Hürden zu überwinden hat. Auch ein achttägiger Ausflug zum Mond wäre vermutlich unproblematisch. Bei Reisen zu entfernteren Zielen könnte das natürlich anders aussehen. Aber das wird man sehen.


Bearbeitet von Fermentarius, 01 November 2024 - 07:26.


#50 Christian Hornstein

Christian Hornstein

    Illuminaut

  • Mitglieder
  • PIPPIPPIPPIP
  • 802 Beiträge
  • Geschlecht:männlich
  • Wohnort:Bonn

Geschrieben 20 November 2024 - 18:57

Mir ist gerade noch eine Studie aufgefallen, die vielleicht für die Science-Fiction-Autoren in der Liste von Interesse ist:

Die Bedingungen für die Entstehung von höherem Leben könnte auf Planeten von massearmen roten Sternen ("rote Zwerge") schlechter sein als bisher angenommen.

Die in den Monthly Notices of the Royal Astronomical Society erschienene Arbeit heißt "Stellar flares are far-ultraviolet luminous".

Demnach ist besonders schädliche kurzwellige ultraviolette Strahlung bei Flares deutlich stärker als bisher angenommen. Das hätte eventuell erhebliche Konsequenzen für die Verbreitung von vielzelligem Leben, weil kurzwelliges UV-Licht komplexe Organismen schnell schädigen kann. Leben könnte also durchaus entstehen, zum Beispiel an heißen Mineralquellen auf dem Meeresgrund, aber es könnte an der Oberfläche oder erst recht an Land nicht Fuß fassen.

In einer Geschichte für Spektrum.de hatte ich spekuliert, wie Menschen eventuell dort doch leben könnten, aber das ist natürlich nur eine Vermutung von mir, die weit daneben liegen kann. Abgesehen davon ist es auch denkbar, dass heftige Flares auf die Dauer den Planeten die Atmosphäre wegreißen. Weil rote Zwerge die weitaus häufigsten Sterne sind, und viele davon unter heftigen Flare-Ausbrüchen leiden, hätte das beträchtliche Konsequenzen für die Anzahl der bewohnbaren Planeten in der Milchstraße. Im ungünstigen Fall wäre die Erde der einzige Planet mit Leben, oder wenigstens der einzige mit intelligentem Leben. Was meint ihr: Wimmelt die Milchstraße von Leben, gibt es vielleicht sogar Leben auf dem Mars, dem Saturnmond Enceladus oder dem Jupitermond Europa? Oder sind wir ziemlich alleine? Immerhin könnte man es als böses Omen ansehen, dass von bisher mehr als 7300 bekannten Exoplaneten nur ein winziger Bruchteil auch nur annähernd erdähnlich ist.

 
Da trittst Du aber wieder übermäßig nüchtern auf Thomas. Die Fakten legen ein etwas anderes Bild nahe. Wir haben bislang über 200.000 Sterne untersucht. In der Milchstraße gibt es aber mindestens 100 Milliarden, also über 500 Tausend mal mehr. Die Anzahl an Sternen, die von uns auf Exoplaneten hin untersucht wurde, stellt also höchstens 0,0002 Prozent der Gesamtanzahl an Sternen in unserer Galaxis dar. Und wir haben jetzt schon Dutzende erdähnliche Trabanten sicher gefunden. Rechne das mal hoch.

Es wird geschätzt, dass wir etwa 300 Millionen potentiell lebensfreundliche erdähnliche Planeten in der Milchstraße haben.

https://www.nasa.gov...itable-planets/

https://arxiv.org/abs/2010.14812



#51 Christian Hornstein

Christian Hornstein

    Illuminaut

  • Mitglieder
  • PIPPIPPIPPIP
  • 802 Beiträge
  • Geschlecht:männlich
  • Wohnort:Bonn

Geschrieben 20 November 2024 - 20:13

Rainer Werner Fassbinder hat den Stoff kongenial verfilmt. Das war noch lange vor den Matrixfilmen. Nick Boström, der Direktor des "Future of Humanity Institute" der Universität Oxford hat übrigens ein geniales Argument vorgebracht vorgebracht, warum wir höchstwahrscheinlich in einer Simulation leben. Ich gebe es hier sehr verkürzt wieder, sonst wird der Beitrag zu lang: Es gibt nur eine Wirklichkeit, aber beliebig viele Simulationen davon, oder anders ausgedrückt: In einem Heuhaufen sind sehr viele Strohhalme, aber nur eine Stricknadel. Dass wir bei einem blinden Griff einen Strohhalm erwischen, ist sehr viel wahrscheinlicher als die Stricknadel zu greifen.

Und, ach ja: Würde die Simulation eigentlich beendet werden, wenn die Charaktere darin herauskriegen, dass sie nur simuliert sind?

 

Nick Boströms Hypothese hat mich bis heute nicht überzeugt, weil sie auf Annahmen beruht, die sehr spekulativ sind, allen voran die Annahme, dass simulierte Wesen ein Bewusstsein haben (Simulation heißt ja gerade Vorspiegelung, also unecht), oder die Annahme, dass fortgeschrittene technische Zivilisationen jede Menge Simulationen erschaffen, die ganze Universen bis ins Detail nachahmen, die über Milliarden von simulierten Jahren existieren. Mir fallen spontan eine ganze Reihe von Gründen ein, weshalb sie so etwas nicht tun würden.
 



#52 Fermentarius

Fermentarius

    Infonaut

  • Mitglieder
  • PIPPIP
  • 208 Beiträge
  • Geschlecht:männlich
  • Wohnort:Münster

Geschrieben 20 November 2024 - 22:07

Nick Boströms Hypothese hat mich bis heute nicht überzeugt, weil sie auf Annahmen beruht, die sehr spekulativ sind, allen voran die Annahme, dass simulierte Wesen ein Bewusstsein haben (Simulation heißt ja gerade Vorspiegelung, also unecht), oder die Annahme, dass fortgeschrittene technische Zivilisationen jede Menge Simulationen erschaffen, die ganze Universen bis ins Detail nachahmen, die über Milliarden von simulierten Jahren existieren. Mir fallen spontan eine ganze Reihe von Gründen ein, weshalb sie so etwas nicht tun würden.
 

Ich kann mich für Boströms Idee auch nicht so recht erwärmen, auch wenn sie auf den ersten Blick sehr einleuchtend aussieht. Hier nur eins von vielen möglichen Gegenargumenten: Jede Simulation muss, schon aus praktischen Gründen, sehr viel kleiner sein als das Original. Wenn wir hier in einem Computer ein Modell der Erde und der Tiere darauf errichten, dann hat der Computer eine Masse, die wenigstens 10 Zehnerpotenzen kleiner ist. Und davon ist noch ein großer Teil für die Funktion der Hardware nötig. Das Modell wäre also extrem vereinfacht und wird niemals auch nur annähernd so funktionieren wie das Original. Eine Simulation kann eben nur einen winzigen Ausschnitt der Wirklichkeit simulieren, und das auch nur sehr eingeschränkt. Deshalb ist sie nicht etwa sinnlos, man kann sie eben nur an vergleichsweise kleine Probleme setzen, und muss um ihre Einschränkungen wissen.

Weil unsere Welt aber extrem komplex ist, könnte sie nur dann eine Simulation sein, wenn die echte Welt noch einmal um Größenordnungen komplexer wäre. Das kann ich nicht ausschließen, halte es aber wiederum nicht für sehr wahrscheinlich.

Ob simulierte Personen ein Bewusstsein haben können, lässt sich im Moment nur schwer sagen, weil die Wissenschaft allenfalls eine rudimentäre Idee davon hat, was Bewusstsein eigentlich ist.



#53 Christian Hornstein

Christian Hornstein

    Illuminaut

  • Mitglieder
  • PIPPIPPIPPIP
  • 802 Beiträge
  • Geschlecht:männlich
  • Wohnort:Bonn

Geschrieben 23 November 2024 - 18:36

Ob simulierte Personen ein Bewusstsein haben können, lässt sich im Moment nur schwer sagen, weil die Wissenschaft allenfalls eine rudimentäre Idee davon hat, was Bewusstsein eigentlich ist.

 

Ja, genau. Ich kenne bis heute keine neurologische oder neuropsychologische Theorie, die das Phänomen überzeugend erklärt hätte. Entweder es handelt sich um angenommene neuronale Korrelate oder um Modelle, die auch nichts erklären, sondern nur beschreiben, und oft die Erklärungsebene nur verlagern wie beim infiniten Regress des Homunculus-Ansatzes. Die entscheidende Frage, wie Erleben und Empfinden aus der unbelebten Materie hervorgeht, hat meines Wissens noch niemand auch nur annähernd beantwortet.
 



#54 Naut

Naut

    Semantomorph

  • Mitglieder
  • PIPPIPPIPPIPPIP
  • 4.231 Beiträge
  • Geschlecht:unbekannt

Geschrieben 23 November 2024 - 22:34

Ich kann mich für Boströms Idee auch nicht so recht erwärmen, auch wenn sie auf den ersten Blick sehr einleuchtend aussieht. Hier nur eins von vielen möglichen Gegenargumenten: Jede Simulation muss, schon aus praktischen Gründen, sehr viel kleiner sein als das Original. Wenn wir hier in einem Computer ein Modell der Erde und der Tiere darauf errichten, dann hat der Computer eine Masse, die wenigstens 10 Zehnerpotenzen kleiner ist. Und davon ist noch ein großer Teil für die Funktion der Hardware nötig. Das Modell wäre also extrem vereinfacht und wird niemals auch nur annähernd so funktionieren wie das Original. Eine Simulation kann eben nur einen winzigen Ausschnitt der Wirklichkeit simulieren, und das auch nur sehr eingeschränkt. Deshalb ist sie nicht etwa sinnlos, man kann sie eben nur an vergleichsweise kleine Probleme setzen, und muss um ihre Einschränkungen wissen.
Weil unsere Welt aber extrem komplex ist, könnte sie nur dann eine Simulation sein, wenn die echte Welt noch einmal um Größenordnungen komplexer wäre. Das kann ich nicht ausschließen, halte es aber wiederum nicht für sehr wahrscheinlich.
Ob simulierte Personen ein Bewusstsein haben können, lässt sich im Moment nur schwer sagen, weil die Wissenschaft allenfalls eine rudimentäre Idee davon hat, was Bewusstsein eigentlich ist.

Das Argument mit dem Bewusstsein erscheint mir stichhaltig, aber Dein Argument mit der Komplexität nicht so ganz. Es würde nämlich in der Praxis genügen, gar nicht das ganze Universum zu simulieren, sondern lediglich den sensorischen Input aller bewussten Wesen darin. Da kein Wesen immer das ganze Universum in seiner gesamten Komplexität wahrnimmt, sondern nur einen sehr kleinen Teil, wäre die Simulation um Größenordnungen einfacher als eine Vollsimulation. Es würde sogar reichen, nur einen Bruchteil der Bewusstseine zu füttern, der Rest könnte einfach NPCs sein.
Jedes moderne Computerspiel funktioniert so. Auch wenn die Welten oft riesig wirken, sind nur kleine Teile voll bespielbar. Und wenn doch, wird manches einfach on-the-fly generiert, das könnte das Universum auch so machen: Sie fliegen zum Mars? Okay, GodGPT, generiere einen Mars!
Diese Tatsache ist oft in der SF thematisiert worden, etwa in "Simulacron 3", wenn es um das Verlassen der Ebene geht, in Lems Geschichte um die "Hirne im Glas", natürlich später in "Matrix" und davor in "Dark City". Wir nehmen nur wahr, was unsere Sinne uns zeigen, und unsere Instrumente sind nur Extensionen davon.
Liest gerade: Atwood - Die Zeuginnen

#55 Fermentarius

Fermentarius

    Infonaut

  • Mitglieder
  • PIPPIP
  • 208 Beiträge
  • Geschlecht:männlich
  • Wohnort:Münster

Geschrieben 24 November 2024 - 16:13

Das Argument mit dem Bewusstsein erscheint mir stichhaltig, aber Dein Argument mit der Komplexität nicht so ganz. Es würde nämlich in der Praxis genügen, gar nicht das ganze Universum zu simulieren, sondern lediglich den sensorischen Input aller bewussten Wesen darin. Da kein Wesen immer das ganze Universum in seiner gesamten Komplexität wahrnimmt, sondern nur einen sehr kleinen Teil, wäre die Simulation um Größenordnungen einfacher als eine Vollsimulation. Es würde sogar reichen, nur einen Bruchteil der Bewusstseine zu füttern, der Rest könnte einfach NPCs sein.
Jedes moderne Computerspiel funktioniert so. Auch wenn die Welten oft riesig wirken, sind nur kleine Teile voll bespielbar. Und wenn doch, wird manches einfach on-the-fly generiert, das könnte das Universum auch so machen: Sie fliegen zum Mars? Okay, GodGPT, generiere einen Mars!
Diese Tatsache ist oft in der SF thematisiert worden, etwa in "Simulacron 3", wenn es um das Verlassen der Ebene geht, in Lems Geschichte um die "Hirne im Glas", natürlich später in "Matrix" und davor in "Dark City". Wir nehmen nur wahr, was unsere Sinne uns zeigen, und unsere Instrumente sind nur Extensionen davon.

Es ist sicher richtig, dass eine Simulation nicht die gesamte Welt umfassen muss, wenn es darum geht, einer bewussten Entität eine Umgebung vorzuspiegeln. Letztlich wäre es für einen Menschen (oder ein bewusstes Wesen jeder Art) nicht möglich, zu unterscheiden, ob eine andere bewusste Entität ihr eine Umgebung vorspiegelt, die nicht der Wirklichkeit entspricht. Es gibt eine spannende philosophische Strömung, die das aufgreift. Der "radikale Konstruktivismus" geht davon aus, dass die Wirklichkeit immer nur ein individuelles Konstrukt unseres Gehirns sein kann. Das Gehirn verarbeitet die Sinneswahrnehmung und konstruiert daraus ein Modell - nicht etwa ein Abbild - der Außenwelt, dessen einzige Anforderung ist, dass sie stabil sein muss. Ein instabiles, ständig wechselndes, oder immer wieder zusammenbrechendes Modell wäre nutzlos. Beispielsweise liefern die Augen nur die Vorlage für das Bild, das im Gehirn schließlich konstruiert wird. Nur deswegen glauben wir, dass wir uns in einer stabilen, stationären Umwelt bewegen. Das Gehirn verrechnet die Bewegung unseres Körpers mit dem von den Augen gelieferten Daten, ein äußerst komplexer Vorgang. Erst daraus entsteht das bewusst wahrgenommene Bild. Ob das der "wirklichen" Welt entspricht, ist schlicht nicht feststellbar. Diese Sicht scheint mir ausgesprochen einleuchtend zu sein. Andererseits wäre dann schon prinzipiell nicht mehr feststellbar, ob wir in einer Simulation leben. Man musste dann allenfalls unterscheiden, ob unseren Sinnesorganen die absichtlich verfälschte Daten der Außenwelt zugespielt werden, die - wie in den genannten Filmen - dadurch auffallen, dass die Stabilität der Außenweltkonstruktion plötzlich Risse bekommt.

 

 

 

 

 

 



#56 Naut

Naut

    Semantomorph

  • Mitglieder
  • PIPPIPPIPPIPPIP
  • 4.231 Beiträge
  • Geschlecht:unbekannt

Geschrieben 24 November 2024 - 20:34

Ja, genau. Diese Sichtweise gibt es nicht nur im Konstruktivismus, sondern mittlerweile ja auch in vielen davon abgeleiteten Theorien, etwa der soziologischen Systemtheorie. Der Kern ist ja, dass nicht entschiedebar ist, was "die Realität" ist, nicht einmal, ob es so etwas überhaupt gibt. Entscheidend ist nur, dass die interne Repräsentation davon hinreichend leistungsfähig ist, d.h. stabil und vorhersagefähig. Das kann aber auch gelten, wenn alle Daten nur hinreichend gut simuliert sind.

Aber uns kann es egal sein, solange wir nicht an die blaue Wand der Trueman-Show stoßen.
Liest gerade: Atwood - Die Zeuginnen

#57 Christian Hornstein

Christian Hornstein

    Illuminaut

  • Mitglieder
  • PIPPIPPIPPIP
  • 802 Beiträge
  • Geschlecht:männlich
  • Wohnort:Bonn

Geschrieben 25 November 2024 - 10:46

@Fermentarius, @Naut

 

In der Wissenschaft, auch in den Naturwissenschaften, geht es deshalb nicht um Wahrheit, sondern um Vorhersagbarkeit. Was wir bisher herausgefunden haben, zeigt uns deutlich, dass wir die Realität - sofern es eine von uns unabhängige solche überhaupt gibt - auf keinen Fall so sehen, wie sie ist, außer vielleicht in Bezug auf Kontingenzen, die eine Voraussetzung für Vorhersagbarkeit sind.

 

Es ist aber grundsätzlich unentscheidbar, was die Schatten an der Höhlenwand erzeugt. Deshalb ist die Simulationshypothese solange wissenschaftlich nicht prüfbar, wie sie weder verifizierbar noch falzifierbar ist. Postulierte Glitches müssen z.B. tatsächlich im Konflikt mit bekannten Naturgesetzen stehen und reproduzierbar sein, was sie nicht sind. Das ist auch ein Grund, warum die Simulationshypothese mich nicht überzeugt und momentan eher metaphysische Züge trägt.



#58 Jannis

Jannis

    Der Fantastische Buchladen Moderator

  • Globalmoderator
  • PIPPIPPIP
  • 379 Beiträge
  • Geschlecht:männlich
  • Wohnort:Frankfurt

Geschrieben 18 Dezember 2024 - 09:17

Mal eine (wissenschaftlich fundierte) Abwechslung zu Weihnachten aus dem alt ehrwürdigen British Medical Journal "BMJ" (von 2015):   :bighlaugh:

 

Zombie infections: epidemiology, treatment, and prevention

 

Abstract:

Zombies — also known as walkers, Zed, Zs, biters, geeks, stiffs, roamers, Zeke, ghouls, rotters, Zoms, and runners — ave become a dominant part of the medical landscape. Zombie expert Matt Mogk defines a zombie with three criteria: it is a reanimated humancorpse; it is relentlessly aggressive; and it is biologically infected and infectious. But Mogk notes that this definition has been altered by the recognition of “rage” zombies, which are infected but still alive. They are more closely related to vampires infected with the contagious bacterium Bacillus vampiris. Here, I review zombie biology and epidemiology.

 

Übersetzung:

Zombies – auch bekannt als walkers,Zed,Zs, biters, geeks, stiffs, roamers, Zeke, ghouls, rotters, Zoms, and runners – sind zu einem dominanten Teil der medizinischen Landschaft geworden. Der Zombie-Experte Matt Mogk definiert einen Zombie anhand von drei Kriterien: Es handelt sich um eine wiederbelebte menschliche Leiche; es ist unermüdlich aggressiv; und es ist biologisch infiziert und ansteckend. Mogk weist jedoch darauf hin, dass diese Definition durch die Anerkennung von „Rage“-Zombies, die infiziert, aber noch am Leben sind, verändert wurde. Diese stehen in engerem Zusammenhang mit Vampiren, die mit dem ansteckenden Bakterium Bacillus vampiris infiziert sind. Hier überprüfe ich die Biologie und Epidemiologie von Zombies.

 

Quelle: 

Smith, T. C. (2015). "Zombie infections: epidemiology, treatment, and prevention." BMJ 351: h6423.

 

Link:

https://www.bmj.com/.../bmj.h6423.full


Meistens gut gelaunt, offen für sehr viel und immer für eine angeregte Diskussion zu haben!

  • (Buch) gerade am lesen:Esther S. Schmidt: Rho


Besucher die dieses Thema lesen: 0

Mitglieder: 0, Gäste: 0, unsichtbare Mitglieder: 0