Lucius Caviola – GBS Schweiz https://gbs-schweiz.org Aufklärung im 21. Jahrhundert Wed, 30 Dec 2015 13:02:41 +0000 de-DE hourly 1 https://wordpress.org/?v=5.6.1 Effective Altruism: Impact through Rationality https://gbs-schweiz.org/blog/effective-altruism-impact-through-rationality/ https://gbs-schweiz.org/blog/effective-altruism-impact-through-rationality/#respond Sat, 14 Jun 2014 16:15:24 +0000 http://gbs-schweiz.org/?p=8087 Vor einem Jahr haben die GBS-Autoren Lucius Caviola und Adriano Mannino an der Universität St. Gallen zum Thema „Effective Altruism: Impact through Rationality“ referiert – heute erreicht der Vortrag 10’000 Views!

Es ist ein Hauptanliegen der GBS, das kritisch-rationale, wissenschaftlich fundierte Denken auch auf die Ethik anzuwenden: Wie können wir mit unseren limitierten Ressourcen möglichst viel bewirken (Impact), möglichst viel unnötiges Leid verhindern? Und welche rationalen Gründe gibt es, sich diesen „effektiven Altruismus“ zur Lebensaufgabe zu machen?

Diesen Überlegungen entsprang – als Spin-Off der GBS Schweiz – das Projekt „Effective Altruism Switzerland (EACH)„: Es vereint Menschen, die ihre berufliche Laufbahn darauf ausrichten, einen möglichst hohen ethischen Impact zu erzielen, d.h. für möglichst viele Menschen (und andere empfindungsfähige Wesen) möglichst viel zu bewirken. Der Vortrag erläutert u.a. die wesentlichen Strategien der effektiven Berufswahlethik.

Unsere Beiträge zum Thema „ethische Kosteneffektivität“:

 

Thumbnail by EACH
]]>
https://gbs-schweiz.org/blog/effective-altruism-impact-through-rationality/feed/ 0
Wie wir moralische Entscheidungen fällen https://gbs-schweiz.org/blog/wie-wir-moralische-entscheide-faellen/ https://gbs-schweiz.org/blog/wie-wir-moralische-entscheide-faellen/#comments Mon, 13 Jan 2014 16:35:09 +0000 http://giordano-bruno-stiftung.ch/?p=6639 Stellen wir uns folgendes Dilemma vor: Eine Strassenbahn rast unkontrolliert auf fünf an ein Gleis gefesselte Personen zu. Du stehst auf einer Brücke, unter der die Strassenbahn durchfahren wird. Neben dir – so will es der Zufall – steht ein sehr dicker Mann. Wenn du ihn von der Brücke stösst und dadurch tötest, bringst du die Strassenbahn zum Stoppen und rettest somit die fünf Personen. Eine andere Möglichkeit, die Bahn zu stoppen, gibt es leider nicht. Würdest du den Mann runterstossen?

Trolley Footbridge Case
Wenn man im moralpsychologischen Experiment Testpersonen diese Frage stellt, antworten die meisten mit Nein (rund 70%).

Moralphilosophisch ist die Frage umstritten. Seit Jahrhunderten streiten sich PhilosophInnen darüber, ob es gerechtfertigt (und/oder geboten) sein kann, jemanden zu schädigen, um dadurch mehr anderen zu helfen, d.h. insgesamt mehr Gutes zu bewirken. Das Brückenbeispiel illustriert und isoliert demnach einen wichtigen Aspekt der moralphilosophischen Unterscheidung zwischen Utilitarismus (z.B. Bentham, Mill) und Deontologie (z.B. Kant). Der Utilitarismus legt den Fokus auf die Konsequenzen einer Handlung und folgt der Annahme, dass eine Entscheidung dann richtig ist, wenn sie das Wohlergehen aller maximiert. Die Deontologie hingegen schreibt meist mehrere Regeln vor, nach denen sich jedes Verhalten zu richten hat, wie etwa das Tötungs- oder Instrumentalisierungsverbot, ganz ungeachtet der Konsequenzen insgesamt. Folglich würden UtilitaristInnen – im Gegensatz zu DeontologInnen – im obigen Brückenbeispiel den dicken Mann von der Brücke stossen und die Schädigung dieser einen Person in Kauf nehmen, um Schaden von den fünf anderen Personen abzuwenden.

Ein zweites Dilemma: Stell dir vor, du stehst an einer Weiche. Die Strassenbahn rast wieder unkontrolliert auf fünf gefesselte Personen zu. Falls du nicht handelst, werden diese Personen überfahren und getötet werden. Falls du jedoch die Weiche umstellst, verändert die Strassenbahn ihren Kurs und rast lediglich auf eine Person zu. Diese wird dadurch getötet. Würdest du die Weiche umstellen?

switch trolley
Bei dieser Frage antworten die meisten Personen mit Ja (rund 90%).

Philosophisch sind diese Resultate ziemlich interessant. Denn in beiden Situationen sind die auf dem Spiel stehenden Konsequenzen identisch: entweder eine Person stirbt – oder fünf sterben. Ein Unterschied könnte darin liegen, dass im Brücken-Dilemma eine Person instrumentalisiert wird, d.h. als kausal notwendiges Mittel zum guten Zweck verwendet wird, wohingegen im Weichenbeispiel die Person lediglich einen „Kollateralschaden“ erleidet: Die Schädigung dieser Person ist kausal nicht notwendig, um die fünf zu retten. Ist die Frage nach der Instrumentalisierung also der Grund, weshalb sich die Leute in den beiden Dilemmata je anders entscheiden? (Das Tötungsverbot würde nicht genügen, denn auch im Weichenbeispiel wird eine Person aktiv getötet.)

Diese Hypothese scheint zweifelhaft, wie das folgendermassen modifizierte Weichendilemma zeigt („Schlaufen-Dilemma“):

Trolley Loop case

Hier ist die Situation identisch mit der obigen, abgesehen von einem zusätzlichen Weichenstück, das die Strassenbahn in einer Schlaufe wieder auf die fünf führen würde, wenn sie vom einen Opfer nicht aufgehalten wird. Kann ein zusätzliches Weichenstück wirklich dazu führen, dass die moralische Beurteilung komplett anders ausfällt? Das müsste hier der Fall sein, wenn die Instrumentalisierung ausschlaggebend ist.

In einem weiteren Experiment wurden Personen mit einem modifizierten Brücken-Dilemma konfrontiert. In diesem Dilemma muss der dicke Mann nicht physisch von der Brücke gestossen werden, sondern kann per Knopfdruck durch eine Falltür auf die Schienen befördert werden. Interessanterweise stimmen hier plötzlich doppelt so viele Personen (rund 60%) der Tötung des Mannes zu als im Standard-Brücken–Dilemma, obwohl auch auch hier eine Person instrumentalisierend getötet wird, um mehrere andere zu retten. Es scheint daher, dass insbesondere das Vorhandensein eines physischen Eingriffs entscheidend dafür ist, ob unsere unreflektierten moralischen Intuitionen und Impulse eine Handlung als gerechtfertigt betrachten oder nicht. Jemandem in die Augen zu schauen und ihn mit den eigenen Händen vor einen Zug zu stossen, löst bei uns eine starke emotionale Aversion aus. Die Betätigung eines Schalters (dessen Mechanismus ohne direkten physischen Kontakt auskommt) hingegen tut dies in einem viel geringeren Ausmass. Interessant wäre es, die Parameter „räumliche Distanz“ und „physischer Kontakt“ experimentell auch noch zu trennen und die Reaktionen der Menschen zu testen: Die Öffnung der Falltüre berührt den dicken Mann ja nicht. Macht es einen Unterschied, ob wir sie aus der Ferne oder in der unmittelbaren Nähe öffnen? Und was, wenn wir über einen 1000m langen Stab verfügen, den wir hinten betätigen, so dass der dicke Mann vorne berührt wird und fällt? Oder über ein ferngesteuertes Spielauto, das wir aus weiter Distanz auf den dicken Mann prallen lassen können? Über einen ferngesteuerten Computer/Roboter? Oder einen ferngesteuerten Bio-Roboter, d.h. einen Menschen, den wir so steuern, dass wir ihn anrufen und ihn damit beauftragen, den dicken Mann runterzustossen?

Im Lichte seiner experimentellen Erkenntnisse schlägt der Moralpsychologe Joshua Greene eine “Dual-Process”-Theorie vor, um unser moralisches Urteilen bzw. Entscheiden zu erklären. Greene geht davon aus, dass unser Gehirn über zwei konkurrierende moralische Entscheidungssysteme verfügt. Sind wir mit einer moralischen Entscheidsituation konfrontiert, können wir uns entweder von unseren Bauchgefühlen, d.h. von automatischen, emotionalen Intuitionen, leiten lassen, oder aber versuchen, die Intuitionen als unmittelbare Reaktionen zurückzustellen und unseren Verstand bewusst und explizit einzusetzen, d.h. systematischer über die Situation nachzudenken.

Zahlreiche Studien scheinen die Dual-Process-Theorie zu bestätigen. Zum Beispiel konnte gezeigt werden, dass Hirnareale, die für die Verarbeitung von Emotionen zuständig sind, besonders aktiv sind, wenn wir über das Brücken-Dilemma nachdenken, und weniger, wenn wir mit dem Weichen-Dilemma konfrontiert sind. Ebenfalls konnte gezeigt werden, dass Leute sich eher deontologisch entscheiden, wenn sie unter Zeitdruck stehen oder wenn sie gestresst sind. Dies scheint darauf hinzudeuten, dass – zumindest im Brückenbeispiel – deontologische Urteile mit automatischen emotionalen Intuitionen assoziiert sind. Ist die emotionale Intuition zu stark, fällt es uns schwer, systematische ethische Kosten-Nutzen-Analysen bezüglich der zu erwartenden Konsequenzen durchzuführen.

Dies wirft eine wichtige normative Frage auf: Wie stark sollten wir unseren emotional vermittelten Intuitionen vertrauen? „Unmittelbar-emotional-intuitive Reaktion“ scheint nicht der zuverlässigste epistemische Prozess zu sein, d.h. kein Prozess, von dem wir erwarten können, dass er mit hoher Wahrscheinlichkeit die jeweils zutreffenden Antworten generiert bzw. „trackt“. Und in der Tat: Unsere Intuitionen scheinen inkonsistent und/oder ziemlich willkürlich zu sein. (Warum sollte zum Beispiel „physischer Kontakt“ oder „Nähe“ ethisch eine Rolle spielen und nicht vielmehr „Nicht-Kontakt“ und „Ferne“? Und wenn sie eine Rolle spielen, wie? Entsprechend welcher mathematischen Funktion variiert die ethische Beurteilung mit dem Kontakt oder der Nähe? Hier scheint komplette Willkür vorzuliegen.) Zudem stimmen sie oft nicht mit den Zielen überein, die unser Verstand bewusst identifizieren würde. Wenn wir die Dilemmata reflektierter betrachten und unsere Bauchgefühle nicht gleich für bare Münze nehmen, kommen wir vielleicht zum Schluss, dass es keine Rolle spielen sollte, wie genau nun die besten Konsequenzen herbeigeführt werden (Weiche, Hand, Falltüre, Schlaufe etc.), weil einzig relevant ist, wie es den betroffenen Individuen ergeht. Für die fünf geretteten Personen sowie für das eine Opfer spielt es schliesslich keine Rolle, wie genau die Handlung erfolgt – ob per Knopfdruck oder durch einen Stoss – und ob allenfalls kausale Abhängigkeiten (Instrumentalisierungen) vorliegen oder bloss „Kollateralschäden“. Für uns fühlt sich die eine Handlung vielleicht unangenehmer an als die andere. Doch wollen wir diesem Bauchgefühl wirklich folgen? Entspricht es wirklich unserem moralischen Ziel, unser eigenes Wohlbefinden bzw. unsere eigene Präferenz durch Befolgung unserer Bauchgefühle stärker zu gewichten als die Konsequenzen unserer Entscheidungen für das Leben und den Tod anderer? Untergräbt dies nicht das (Ziel-)Verständnis unserer moralischen Entscheidung als einer altruistischen?

Denn was ist für die Individuen relevant, die von unseren Entscheidungen betroffen sind? Oder: Was wäre für uns an ihrer Stelle relevant? Doch nur, dass wir mit möglichst hoher Wahrscheinlichkeit ohne Schaden bleiben. Welche Entscheidungsregel genügt dieser Bedingung? Nur die Regel, wonach dafür zu sorgen ist, dass die grösste Anzahl Individuen ohne Schaden bleibt. Apriori weiss ich nicht, in welcher Position ich mich befinden werde, ob ich (in den obigen Situationen) unter den fünf oder der eine sein werde, der – auf welche Art auch immer – zu Schaden kommt. Die Wahrscheinlichkeit beträgt demnach 5/6, dass ich unter den fünf, und 1/6, dass ich in der Position des anderen sein werde. Folglich ist meine Wahrscheinlichkeit, ohne Schaden zu bleiben, in jeder der obigen Situationen fünfmal höher, wenn utilitaristisch entschieden wird.

Altruistisch scheint nichts Besseres möglich zu sein, als dafür zu sorgen, dass jedes Individuum apriori eine möglichst hohe Wahrscheinlichkeit hat, von Schäden verschont zu bleiben. Denn das ist es, was für die von unseren Entscheidungen Betroffenen zählt. Wie die entsprechende Entscheidung konkret implementiert ist (Weiche, Hand, Falltüre, Schlaufe etc.), scheint – nachdem die Schäden für die betroffenen Individuen gezählt wurden – höchstens für uns relevant. Wenn wir entsprechende Präferenzen haben, dann hat die Erfüllung dieser Präferenzen für niemanden einen Wert ausser für uns. Will heissen: Die Erfüllung dieser Präferenzen hat keinen altruistischen, sondern nur egoistischen Wert.

Falls diese Analyse (mit guter Wahrscheinlichkeit) zutrifft: Ist es nicht schockierend, dass uns unsere Intuitionen mehrheitlich suggerieren, dass annähernde Gewissheit darüber besteht, dass es „böse“ ist, den dicken Mann runterzustossen?

Quellenangabe

  1. Bentham, J. (1789). An Introduction to the Principles of Morals and Legislation.
  2. Greene, J. D. (2013). Moral tribes: emotion, reason, and the gap between us and them. New York: The Penguin Press.
  3. Greene, J. D., Morelli, S. A., Lowenberg, K., Nvstrom, L. E., & Cohen, J. D. (2008). Cognitive load selectively interferes with utilitarian moral judgment. Cognition, 107(3), 1144-1154.
  4. Greene, J. D., Nystrom, L. E., Engell, A. D., Darley, J. M., & Cohen, J. D. (2004). The neural bases of cognitive conflict and control in moral judgment. Neuron, 44(2), 389-400.
  5. Greene, J.D., Cushman, F.A., Stewart. L.E., Lowenberg, K., Nystrom, L.E., and Cohen, J.D. (2009). Pushing moral buttons: The interaction between personal force and intention in moral judgment. Cognition, Vol. 111 (3), 364-371.
  6. Kant, I. (1785). Grundlegung zur Metaphysik der Sitten.
  7. Mill, J. S. (1861). Utilitarianism.
  8. Paxton, J. M., Ungar, L., & Greene, J. D. (2012). Reflection and Reasoning in Moral Judgment. Cognitive Science, 36(1), 163-177.
  9. Suter, R. S., & Hertwig, R. (2011). Time and moral judgment. Cognition, 119(3), 454-458.
  10. Youssef, F. F., Dookeeram, K., Basdeo, V., Francis, E., Doman, M., Mamed, D., . . . Legall, G. (2012). Stress alters personal moral decision making. Psychoneuroendocrinology, 37(4), 491-498.
]]>
https://gbs-schweiz.org/blog/wie-wir-moralische-entscheide-faellen/feed/ 1
Transhumanismus als vereinfachter Humanismus? https://gbs-schweiz.org/blog/transhumanismus-als-vereinfachter-humanismus/ https://gbs-schweiz.org/blog/transhumanismus-als-vereinfachter-humanismus/#comments Mon, 09 Dec 2013 23:04:06 +0000 http://giordano-bruno-stiftung.ch/?p=2096 transhumanmichelangelo

99% dessen, was die Evolutionstheorie über menschliches Verhalten zu sagen hat, ist so offensichtlich wahr, dass wir unser Verständnis davon kaum Darwin zuschreiben können. Die Psychoanalyse hat es diesbezüglich einfacher. Ihre Annahmen sind so originell und ihre Erklärungen so kontraintuitiv, dass wir uns fragen müssen: Kann das wirklich stimmen? Wie radikal! Freuds Ideen sind so verblüffend, dass Leute bereit sind, dafür Geld auszugeben, während wir beim Darwinismus das Gefühl haben, wir wüssten alles schon – und in einem gewissen Sinne tun wir es auch.

Frank Sulloway

Nehmen wir an, wir finden ein bewusstloses sechsjähriges Mädchen auf den Gleisen einer Fahrbahn liegend, welches in wenigen Minuten von einem herannahenden Zug erfasst werden würde. Was sollten wir – moralisch gesehen – in einer solchen Situation tun? Wäre es besser, das Kind dort liegen zu lassen oder es zu retten? Und wie würden wir uns entscheiden, wenn wir die Möglichkeit hätten, einen 45-jährigen erkrankten Mann von einer sehr schmerzhaften Lähmung zu heilen? Würden wir es tun oder nicht?

Dies ist keine rhetorische Frage.

Bestimmt würden wir ohne zu zögern sowohl dem Kind auf den Gleisen zu Hilfe eilen als auch den 45-jährigen kranken Mann von seinem Leid befreien. Manchmal – nicht immer jedoch – ist die offensichtliche Antwort die (moralisch) richtige Antwort. Zugegebenermassen ist die Antwort nicht sonderlich originell. Niemand wäre bereit, für eine solche Antwort Geld auszugeben. Wer verkündet, dass zwei und zwei vier ergibt, wird keine grosse Beachtung finden, geschweige denn sich einen Ruf als grosser Denker erarbeiten. Und trotzdem ist die Antwort richtig.

Es ist also gut, ein kleines Kind vor einem herannahenden Zug zu retten und es ist auch gut, einen 45-jährigen Mann von einer lähmenden Krankheit zu heilen. Nun mag man sich fragen, ob diesen spezifischen Beispielen ein generelles ethisches Prinzip zugrunde liegt, welches besagt: „Weiterleben ist gut, Tod ist schlecht; Gesundheit ist gut, Krankheit ist schlecht.“ Denn, falls dem so wäre, – und hier begeben wir uns auf kontroverses Territorium – könnten wir diesem generellem Prinzip folgen und kämen zu vielleicht überraschenden neuen Schlüssen: Wenn beispielsweise ein 95-jähriger Mann kurz davor ist, vor Altersschwäche zu sterben, wäre es gut, ihn zu retten. Und wenn ein 120-jähriger Mann beginnt sich etwas schwach zu fühlen, wäre es gut, ihm zu seiner vollen Kraft zurückzuverhelfen. Mit der aktuellen Technologie ist dies zwar noch nicht möglich, doch wenn solche Technologien zukünftig vorhanden sein sollten – z.B. dank fortgeschrittener medizinischer Nanotechnologie oder wegen anderer technologischen Erfindungen – sollten wir dann diese Handlungen als gut bewerten?

Nochmals, dies ist keine rhetorische Frage.

Der Transhumanismus ist deshalb an sich so einfach, weil es keine Spezialfälle gibt. Wenn wir manchen BerufsbioethikerInnen (also Personen, die dafür bezahlt werden, ethische Aussagen zu machen) Glauben schenken wollen, dann gilt die Regel „Weiterleben ist gut, Tod ist schlecht; Gesundheit ist gut, Krankheit ist schlecht“ nur bis zu einem kritischen Alter und ab dann nicht mehr. Doch weshalb? Weshalb sollte die Regel „Weiterleben ist gut“ nicht immer gelten? Wenn es gut sein soll, ein sechsjähriges Mädchen zu retten, aber schlecht ist, das Leben und die Gesundheit eines 120-jährigen zu erweitern, wo genau liegt dann die Grenze zwischen gut und schlecht? Und weshalb gerade dort?

Für eine Transhumanistin ist die Angelegenheit viel einfacher: Wenn jemand leidet oder weiterleben will und wir der Person helfen können, sollten wir es tun. So einfach ist das. Keine Spezialfälle und kein Grund, jemanden nach dem Alter zu fragen.

Ein Transhumanist fragt auch nicht nach dem Alter der Technologie. Ob eine Technologie nun tausend Jahre alt ist (wie beispielsweise eine Bahre, mit der wir das Kind von den Gleisen tragen können) oder im letzten Jahrhundert erfunden wurde und uns fortgeschritten, aber gewöhnlich erscheint, da sie seit unserer Kindheit vorhanden ist (wie z.B. Penicillin), spielt keine Rolle. Dasselbe gilt auch für moderne Technologien, die vielleicht etwas beängstigend und futuristisch anmuten (wie Gentherapie), bloss weil sie erst seit kurzem Realität sind; oder zukünftige Technologien, die absurd und unplausibel wirken (wie Nanotechnologie). Für eine Transhumanistin gibt es keine Jahresgrenzen, in welchen Technologien erfunden sein müssen, um von ihnen Gebrauch machen zu dürfen. Es stellt sich einzig und allein die Frage, ob geholfen werden kann (und vielleicht präziser: ob unter dem Strich bzw. netto geholfen werden kann). Falls die Antwort ja ist, dann tun wir es. Das ist alles.

Gehen wir davon aus, ein neunjähriger Junge mit einem IQ von 120 leide an einer Gehirnkrankheit, welche, falls nicht behandelt, seinen IQ langsam auf 110 reduzieren wird. Die meisten wären damit einverstanden, dass wir dies verhindern sollten. Nun mag man sich fragen, ob dies ein spezieller Fall eines generellen ethischen Prinzips darstellen soll, welches (intrinsisch oder instrumentell) besagt, dass Intelligenz etwas Erstrebenswertes sei. Es stellt sich heraus, dass die Schwester des Jungen einen IQ von 110 hat. Wenn nun eine Technologie vorhanden wäre, die ihren IQ langsam auf 120 erhöhen könnte, ohne negative Nebenwirkungen, sollten wir dies tun oder nicht?

Natürlich. Warum auch nicht? Auch das ist ernst gemeint. Entweder wir ziehen einen IQ von 110 einem IQ von 120 vor, in welchem Fall wir darum bemüht sein sollten, IQs von 120 auf 110 zu reduzieren, oder wir bevorzugen einen IQ von 120, in welchem Fall wir darum bemüht sein sollten, den IQ der Schwester zu erhöhen. Manchmal ist die offensichtliche Antwort die richtige.

Man mag sich fragen, wo dies enden wird. Es ist ja schön und gut, die Lebenserwartung auf 150 zu erhöhen, doch weshalb nicht gleich auf 200, 300, 500 Jahre oder mehr? Und weshalb dann nicht auch den IQ auf 140, 180 oder mehr erhöhen?

Wo soll das alles enden? Nirgendwo. Weshalb sollte es auch irgendwo enden? Ein leidfreies und möglichst langes Leben sowie ein möglichst hoher IQ sind erstrebenswert. Das ändert sich nicht plötzlich, wenn die Werte eine bestimmte Grösse erreicht haben. Wenn es eine obere Grenze gäbe, hätten wir inkonsistente oder zumindest unbegründbar-willkürlich gesetzte Spezialfälle. (Hilfreiches Denktool: Was bedeutet eine bestimmte ethische Aussage mathematisch bzw. wie würde man sie einem Computer einprogrammieren, den man ethisch relevante Entscheidungen fällen lassen könnte/müsste? Man wird sehen: a) Alle ethischen Aussagen/Theorien lassen sich entsprechend formalisieren, b) man kommt nicht umhin, dies zu tun, denn andernfalls gibt es mögliche Entscheidsituationen, in denen die Theorie nicht handlungsleitend ist und damit den Zweck einer ethischen Theorie nicht erfüllt, und c) wenn man sich bewusst macht, was welche Aussage/Theorie mathematisch bedeutet, lässt sich auch unbegründete Willkür und Absurdität unmittelbarer und deutlicher erkennen.)

Vielleicht limitieren physikalische Grenzen die Lebensspanne auf eine maximale Dauer X – genau so wie dies der medizinaltechnologische Stand eines bestimmten Jahrhunderts tut. Doch dies ist eine empirische Frage und nicht mit dem ethisch-normativen Ziel bzw. Ideal des Transhumanismus zu verwechseln. Der Transhumanismus beschäftigt sich ethisch nur mit der Frage, ob eine gesunde Lebensdauer X wünschenswert wäre, falls sie physikalisch möglich ist. (Zuerst kommt das Ziel!) Er beantwortet die Frage für alle X mit ja. Denn es handelt sich dabei, wie bereits erwähnt, keineswegs um eine rhetorische Frage.

Das ist Transhumanismus: Ein glückliches Leben für erstrebenswert halten, ohne spezielle Ausnahmen und ohne willkürlich gezogene Grenzen.

Kann der Transhumanismus tatsächlich so einfach sein? Macht dies seine Philosophie nicht trivial, so ganz ohne originelle Ausnahmen, nur mit gesundem Menschenverstand? Ja. Der Transhumanismus ist – genau wie die wissenschaftliche Methode – nichts anderes als gesunder Menschenverstand.

Weshalb denn einen komplizierten Namen wie „Transhumanismus“ einführen? Aus denselben Gründen wie die „wissenschaftliche Methode“, der „säkulare Humanismus“ oder der „evolutionäre Humanismus“ komplizierte Namen haben. Wenn man den gesunden Menschenverstand ausserhalb der Alltagserfahrung rigoros und konsequent anwendet und dabei alle möglichen verlockenden Fehler (Biases) vermeidet, endet man oft in einer Minderheitsposition, welcher Leute einen speziellen Namen geben.

Die Ethik braucht keine originellen Ausnahmen. Ethik ist nicht da, um den Einfallsreichtum zu fördern. Die Aufgabe der Ethik besteht darin, uns anzuleiten, wie wir uns entscheiden sollten. Nur weil die Handlungsanweisung simpel sein kann, spricht das nicht gegen sie – Ethik muss nicht immer kompliziert sein.

Wie der traditionelle Humanismus beruht auch der Transhumanismus auf dem gesunden Menschenverstand, rigoros angewandt auch auf Bereiche ausserhalb der Alltagserfahrung. Eine Lebensdauer von einer Million Jahre? Wenn es möglich wäre, weshalb nicht? Die Perspektive scheint uns vielleicht fremd und merkwürdig, relativ zu dem aktuell Gewohnten. Doch was soll daran grundsätzlich schlecht sein?

Kann Ethik wirklich so einfach sein?

Ja.

Ist die Debatte damit abgeschlossen? – Nein.

Erstens sind die „einfachen Regeln“, obwohl in erster Approximation in der Tat klar und einfach genug, noch ambig. Geht es eher um gefühltes Glück und/oder Leid oder um die Erfüllung von Präferenzen, die sich auch auf andere Dinge richten können? Und eher um die Maximierung von Erfüllung oder die Minimierung von Nicht-Erfüllung? Diese theoret(h)ische Ambiguität kann sich durchaus zeigen, besonders wenn wir praktische Gesamtabwägungen anstellen.

Zweitens ist für die praktische Gesamtabwägung natürlich auch die empirische Frage entscheidend, ob die Förderung transhumanistisch relevanter Technologien tatsächlich zu mehr Nutzen (bzw. mehr Schadensverhinderung) als Schaden führen wird, und wenn ja, mit welchem Übergewicht. Doch bevor wir diese Frage sinnvoll angehen können, müssen wir die Frage nach dem theoret(h)ischen Ziel stellen. Denn wenn das Ziel unbestimmt ist, dann ist auch unbestimmt, was überhaupt als „Nutzen“ bzw. „Schaden“ zu betrachten ist. Ist es ein Schaden bzw. ein Problem, wenn wir Leid-/Glücksniveaus, Lebensspannen, IQs und – ethisch vielleicht besonders wichtig – Empathie- und Altruismus-Niveaus von X statt 2X oder 10X haben? Dazu ist, wie aufgezeigt wurde, die Frage relevant (Reversal Test): Wäre es ein Schaden bzw. ein Problem, wenn wir uns auf einem Niveau von 0.5X statt X befänden?

Ziemlich sicher: Ja. Können wir – in der gesellschaftlichen Praxis – die Schäden reduzieren und die Probleme lösen, ohne zugleich grössere zu verursachen? Diese empirische Frage ist Gegenstand einer hiermit lancierten GBS-Blogsequenz. Pro- und Contra-Beiträge (auch zur hier behandelten ethischen Theorie bzw. Zielbestimmung) sind herzlich willkommen!

In Anlehnung an den Artikel Transhumanism as Simplified Humanism von Eliezer Yudkowsky

 

]]>
https://gbs-schweiz.org/blog/transhumanismus-als-vereinfachter-humanismus/feed/ 1
Was ist der Erwartungswert und warum soll ich ihn maximieren? https://gbs-schweiz.org/blog/was-ist-der-erwartungswert-und-warum-soll-ich-ihn-maximieren/ https://gbs-schweiz.org/blog/was-ist-der-erwartungswert-und-warum-soll-ich-ihn-maximieren/#comments Tue, 12 Nov 2013 15:11:58 +0000 http://giordano-bruno-stiftung.ch/?p=5560 Es liegt (trivialerweise) im Interesse eines jeden Akteurs, die eigenen Ziele so gut als möglich zu erreichen. Wenn ich dies bei meinen Handlungen umsetze, dann handle ich rational. Was heisst es aber konkret, so zu handeln, dass wir ein Ziel bestmöglichst erreichen?

Wenn wir nur mit absoluten Gewissheiten konfrontiert sind, dann ist der Fall klar. Ich möchte diejenige Handlungsoption wählen, die von mir am höchsten bewertet wird. Wenn es mein Ziel wäre, möglichst viel Geld zu verdienen und ich entweder eine Zehner- oder eine Hunderternote auswählen kann, dann wähle ich natürlich die Hunderternote.

Nun sind aber die Welt und insbesondere auch unsere Sinnesorgane nicht so aufgebaut, dass wir die Konsequenzen unserer Handlungen jeweils mit Gewissheit voraussagen können. Wenn ich mir beispielsweise überlege, einen Lottoschein zu kaufen, dann ist die Chance hoch, dass ich das bezahlte Geld verlieren werde. Aber mit einer kleinen Wahrscheinlichkeit gewinne ich auch mehr, als ich einsetze.

In anderen Fällen haben wir – anders als im Lotto – gar keine exakten Vorgaben, wie wir unser Risiko respektive unsere Gewinnchancen genau ausrechnen können. Aber trotzdem müssen wir nach bestem Wissen und Gewissen Wahrscheinlichkeiten setzen, weil wir uns schlussendlich ja irgendwie entscheiden müssen. Jede Handlung ist eine Wette, und das Beste, was wir in einer Welt voller Unsicherheiten machen können, ist den Erwartungswert unserer Handlungen zu maximieren.

Was ist der Erwartungswert?

Der Erwartungswert einer Handlungsoption setzt sich aus der Summe aller möglichen Outcomes („Ausgänge“) zusammen, wobei jedes Outcome der Eintreffwahrscheinlichkeit nach gewichtet wird. Die Summe aller Eintreffwahrscheinlichkeiten muss 1 ergeben. Als Formel sieht das wie folgt aus:

EV = p_{1}*V_{1} + p_{2}*V_{2} + ... +p_{n}*V_{n}
EV steht für den Erwartungswert („expected value“),
p steht jeweils für die Wahrscheinlichkeit, dass ein bestimmtes Outcome eintrifft,
und V steht für den Wert des besagten Outcomes, falls es eintrifft.

Ein Beispiel:
Mir wird angeboten, dass ich entweder
a) 10 Franken bar auf die Hand bekomme, oder dass ich
b) ein Spiel spielen kann, bei dem ich 66 Franken bekomme, falls ein fairer, 6-seitiger Würfel beim ersten Wurf eine sechs zeigt, und jeweils 1 Franken verliere, wenn der Würfel keine 6 zeigt.

Der Erwartungswert der Handlungsoption a) beträgt 10 Franken, da nur ein Outcome gegeben ist, das mit Sicherheit eintreten wird.

Der Erwartungswert der Handlungsoption b) besteht aus zwei Komponenten, die wir addieren müssen. Man berechnet ihn wie folgt:

Wahrscheinlichkeit, dass keine sechs kommt, multipliziert mit dem dazugehörigen Outcome:
(5/6)*(-1) CHF = -0.83 CHF

Wahrscheinlichkeit, dass eine sechs kommt, multipliziert mit dem dazugehörigen Outcome: (1/6)*66 CHF = 11 CHF

Summe von beidem:
-0.83 CHF + 11 CHF = 10.17 CHF.

Es folgt, dass ich im Erwartungswert 0.17 Franken mehr gewinne, falls ich mich für das Würfelspiel entscheide. Heisst das, dass jemand irrational handelt, wenn er/sie sich für die 10 Franken auf sicher entscheidet? Nicht unbedingt! Die Frage ist, worauf es uns genau ankommt.

Unterschied zwischen Wert und Utility

Es kann gut sein, dass wir in den fünf von sechs Fällen, wo wir im obigen Beispiel beim Würfelspiel verlieren und einen Franken bezahlen müssen, überproportional enttäuscht darüber sind im Vergleich dazu, wie glücklich wir im Gewinnfall wären. Wenn ein Spieler das eigene Wohlbefinden auch einbeziehen möchte, dann könnte es also gut sein, dass nach seiner Bewertung die gefühlte Enttäuschung in fünf von sechs Fällen die zusätzliche Freude im sechsten Fall und die zusätzlichen 0.17 Franken im Erwartungswert nicht aufzuwiegen vermag.

Zudem könnte es auch sein, dass wir uns in einer Situation befinden, in der wir aus bestimmten Gründen dringend 10 Franken benötigen, z.B. wenn wir ohne Kreditkarte in der Stadt sind und vor Ladenschluss unbedingt noch ein bestimmtes Geburtstagsgeschenk für jemanden kaufen müssen, für das uns genau zehn Franken fehlen. In einem solchen Fall wäre es vermutlich sehr schlecht für uns, auf die kleine Chance zu spekulieren, viel Geld zu gewinnen (und damit den Erwartungswert an gewonnenem Geld zu maximieren), weil wir dann in Kauf nehmen müssten, dass wir in fünf von sechs Fällen eine uns wichtige Person enttäuschen werden.

Es ist also für praktisch niemanden primär das Geld, das man maximieren möchte. Und weiterhin ist es auch nicht der Fall, dass doppelt so viel Geld für Leute jeweils doppelt so gut ist, da Geld (und Güter allgemeinen) in der Regel einen abnehmenden Grenznutzen haben.

Um alles zusammenzufassen, was uns wichtig ist, gibt es das Konzept der Utility („Nutzen“). Jedem möglichen Ausgang wird eine Utility zugeschrieben, abhängig davon, wie sehr wir dieses Outcome möchten, d.h. wie sehr es der Gesamtmenge unserer Ziele entspricht. Wenn eine Option für uns doppelt so viel Utility hat, dann bedeutet dies, dass wir sie, wenn wir vollständig informiert sind und keinen Biases unterliegen, doppelt so gut finden würden.

Prinzipiell kann alles mögliche unter Utility fallen, es kommt einfach darauf an, was unsere Ziele im Leben sind. Oft wird angenommen, dass Utility (oder auch Rationalität) immer mit Egoismus zu tun hat, oder damit, Geld anzuhäufen. Dabei handelt es sich um ein Missverständnis. Auch altruistische Ziele fallen unter den Begriff Utility, wenn es jemandem darum geht, anderen zu helfen.

Weil im Konzept der Utility also alles berücksichtigt wird, was einem wichtig ist, macht es stets Sinn, im Erwartungswert Utility zu maximieren.

Warum den Erwartungswert maximieren?

Aber warum genau? Warum sollen wir den Erwartungswert maximieren und nicht irgend ein anderes Verhältnis zwischen Eintreffwahrscheinlichkeiten und Outcomes? Nehmen wir ein Beispiel, bei dem es darum geht, anderen zu helfen. Und nehmen wir an, dass wir vollständig altruistisch sind und unsere Utility mit jedem Menschen, dem wir helfen, linear zunimmt (d.h. es wäre für uns n Mal besser, einer Anzahl n an Menschen zu helfen, als einem einzigen Menschen zu helfen).

Auf einer Insel ist eine Epidemie ausgebrochen. Alle 20’000 EinwohnerInnen schweben in Todesgefahr, da jede Infektion dieses Erregers innert drei Tagen zum qualvollen Erstickungstod führt. ExpertInnen schätzen die Dynamik so ein, dass bei fehlender Intervention die gesamte Inselbevölkerung innert weniger Wochen ersticken wird. Die EinwohnerInnen dieser Insel verfügen nur über ein spärliches Gesundheitswesen, deshalb sind sie auf externe Hilfe angewiesen. Wir befinden uns auf der grösseren Nachbarsinsel und koordinieren ein Rettungspaket. Dabei stehen wir vor der Wahl, welche der zwei auf dem Markt verfügbaren Interventionsmethoden wir einsetzen: SafeRelieve und/oder CheapRelieve. Beide Präparate wirken sowohl kurativ wie auch präventiv. SafeRelieve kostet 2.04 CHF pro behandelte Person und zieht zu 100% eine vollständige Genesung nach sich. CheapRelieve ist ein günstigeres aber auch weniger sicheres Produkt. Nämlich heilt es nur in 50% der Fälle vollständig, bei den restlichen Fällen wirkt es überhaupt nicht. Dies bei einem Preis von 1.00 CHF pro behandelte Person. Die Politik gewährt dem Rettungspaket ein Budget von 10’000 CHF. Das Paket ist so geplant, dass jede(r) Einwohner(in) mit gleich hoher Wahrscheinlichkeit das Medikament erhält. Wie gehen wir vor?

Angenommen, wir setzen alles auf SafeRelieve, so ersparen wir 10’000/2.04, also etwa 4’900 EinwohnerInnen die Todesqual. Setzen wir jedoch auf das zweite Medikament, so dürfen wir im Erwartungswert mit 10’000/1*0.5, also mit ungefähr 5’000 Unversehrten, rechnen. CheapRelieve mag weniger sicher erscheinen, aber wir erwarten damit das geringere Übel.

Theoretisch wäre es aber möglich (die Chance beträgt 2.3%), dass wir grosses Pech haben und CheapRelieve in vielen Fällen nichts bewirkt, so dass weniger Leuten dadurch geholfen wird.

Aufteilen

Wenn wir das Geld halb-halb aufteilen, und sowohl SafeRelieve als auch CheapRelieve kaufen, dann helfen wir im Erwartungswert 4’950 Leuten. Durch die vielen SafeRelieve Medikamente verringern wir die Varianz, d.h. wir verkleinern die Chance, dass durch Pech extrem wenig Leute gerettet werden. Der Preis, den wir dafür bezahlen, ist aber auch, dass wir die Chance verringern, dass extrem viele Leute gerettet werden, und dass der Erwartungswert an geretteten Leuten abnimmt. Wenn 100% CheapRelieve besser ist als 100% SafeRelieve, dann scheint es kein Argument zu geben, warum man einen Teil (wie viel genau?) des Geldes in SafeRelieve investieren sollte. Je mehr Medikamente man kaufen kann, desto klarer wird es, dass CheapRelieve die bessere Wahl ist.

Aber stellen wir uns nun folgende Situation vor: Wiederum koordinieren wir das Rettungspaket, aber dieses Mal finden wir heraus, dass wir eine zusätzliche Spende von 51 Franken bekommen haben, mit der wir mehr Medikamente kaufen können. Mit SafeRelieve retten wir garantiert 51/2.04 = 25 zusätzliche Leute. Mit CheapRelieve ist der Erwartungswert bei 25.5 Leuten. Dieses Mal besteht eine 44%ige(!) Chance, dass CheapRelieve weniger Leuten hilft als SafeRelieve. Sollen wir dieses Mal, anders als bei der grossen Spende, lieber auf Sicherheit setzen?

Sicherlich nicht! Die zusätzlichen 51 CHF sind nicht isoliert, sondern sie sind Teil des gesamten Budgets. Wenn wir mit einem Budget von 10’051 CHF angefangen hätten, gäbe es keinen Sinn, die Strategie zu wechseln. Wie wir oben gesehen haben, ist es nicht sinnvoll, das Geld über beide Medikamente aufzuteilen.

Law of Large Numbers

Der Erwartungswert misst im Wesentlichen das durchschnittliche Outcome, das eintreffen würde, wenn wir die Handlung enorm viele Male durchspielen würden. CheapRelieve schneidet im Erwartungswert immer besser ab. Zusätzlich gilt, dass je grösser die Gesamtmenge an Leuten, denen CheapRelieve gegeben wird, desto wahrscheinlicher ist es, dass es auch in einem spezifischen Fall besser abschneidet.

Ein Argument dafür, immer den Erwartungswert zu maximieren, ist das „Law of Large Numbers“. Längerfristig, wenn wir eine Entscheidung immer wieder durchspielen würden, wird unser Gesamtgewinn praktisch garantiert dann am höchsten sein, wenn wir bei jeder einzelnen Entscheidung den Erwartungswert maximieren.

Dieses Argument mag überzeugend sein, aber man könnte immer noch einwenden, dass wir Entscheidungen in der Regel ja nur einmal fällen. Warum sollte man in einer einmaligen Entscheidung den Erwartungswert maximieren?

Willkür

Dazu kann man sich noch folgendes überlgen: Wenn nicht den Erwartungswert maximieren, was sonst? Sobald man anfängt, Outcomes mit erhöhtem Risiko weniger als dem Erwartungswert nach zu gewichten, stellt sich sofort die Frage, wie viel weniger man sie gewichten möchte. Hier scheint es so, als ob prinzipiell jegliche Form der Gewichtung möglich wäre, ohne dass eine dieser unendlichen Möglichkeiten heraussticht. Der Erwartungswert hingegen ist eindeutig und lässt sich sinnvoll ableiten. Siehe auch das nächste Argument dafür:

Axiomatischer Ansatz

Als weiteres Argument für die EV-Maximierung gibt es den axiomatischen Ansatz, das sogenannte Von Neumann-Morgenstern Utility Theorem. Wenn eine Person ihre Präferenzen über eine Menge an Wetten angibt, und wenn diese Präferenzen vier intuitiv einleuchtenden Axiomen folgen, dann handelt diese Person so, als ob sie den Erwartungswert ihrer Zielfunktion (utility function) maximiert. Oder mit anderen Worten bedeutet dies, dass die Ablehnung der EV-Maximierung einer Verletzung von mindestens einem intuitiv einleuchtenden Axiom gleichkommt.

Die Altruistische Perspektive

Für altruistische Zielfunktionen gibt es interessanterweise noch ein zusätzliches Argument dafür, auch in isolierten Entscheidungssituationen stets den Erwartungswert zu maximieren. Wir können uns nämlich in die Perspektive derer versetzen, denen wir helfen möchten. Welche Entscheidung würde ich bevorzugen, wenn ich ein zufällig ausgewähltes hilfsbedürftiges Wesen wäre, welchem prinzipiell geholfen werden könnte? Ich würde diejenige Handlungsoption wählen, bei welcher meine Chance am grössten ist, gerettet zu werden. Beim Insel-Beispiel oben würde ich also immer auf CheapRelieve setzen, selbst dann, wenn nur Medikamente für 51 Franken gekauft werden können.

Einstellung zum Risiko

Wer stets den Erwartungswert maximieren möchte, handelt risikoneutral. Wer Outcomes vorzieht, bei denen eine grosse Sicherheit besteht (selbst wenn der Erwartungswert einer anderen Handlungsoption höher wäre), der handelt risikoavers. Weil Menschen Verluste tendenziell stärker wahrnehmen als Gewinne, handeln sie irrationalerweise oft risikoavers.

Leute, die dafür argumentieren, dass Risikoaversion rational sein kann, haben oft den Unterschied zwischen Wert und Utility nicht verstanden. Wenn jemand mir anbietet, mein gesamtes Vermögen auf einen Münzwurf zu setzen, und mir im Gewinnfall noch einen Franken extra draufgelegt wird, dann würde ich bei diesem Spiel im Erwartungswert 0.5 Franken Gewinn machen. Allerdings wäre es für mich wahrscheinlich viel schlechter, all mein Hab und Gut zu verlieren, als es positiv wäre, meine Besitztümer zu verdoppeln. Dass man bei Geld manchmal (nicht immer!) „risikoavers“ handelt, macht also Sinn, weil es immer noch sein kann, dass man bezüglich der Utility, also dem, worauf es einem letztendlich ankommt, den Erwartungswert maximiert.

Pascal’sche Szenarien

Wenn wir die Idee der Utility-Maximierung im Erwartungswert auch in Extremfällen anwenden, dann kommen wir zu sogenannten Pascal’schen Szenarien, wo unser Handeln womöglich von einer sehr geringen Möglichkeit dominiert wird, riesige Mengen an Utility zu beeinflussen. Wenn die Menge gross genug ist, dann kann es sein, dass sie selbst bei einer astronomisch tiefen Beeinflussungswahrscheinlichkeit noch relevant für uns ist.

Als Beispiel die Pascal’sche Wette: Wenn die Chance auch nur ein Milliardstel Prozent beträgt, dass es einen Himmel gibt, in dem es einem ewig lange maximal gut geht, dann ist die Utility davon (wenn man das ewige gute Leben als Ziel hat) so enorm gross, dass man alles versuchen sollte, um die Wahrscheinlichkeit des in-den-Himmel-Kommens zu vergrössern.

Die Pascal’sche Wette ist ein Argument dafür, dass man selbst als 99.99% überzeugte(r) Atheist(in) aus strategischen Gründen beten und an Gott glauben sollte. Das Argument „es ist extrem unwahrscheinlich, dass es einen Himmel gibt, also muss ich mir keine Gedanken darüber machen“ funktioniert je nach dem nicht, wenn im Erwartungswert trotzdem enorm viel auf dem Spiel steht.

Ob es rational wäre, die Pascal’sche Wette im Spezifischen anzunehmen, ist jedoch sehr zweifelhaft, weil wir die gleichen Behauptungen auch in die andere Richtung hin aufstellen können: Wenn wir z.B. nicht wissen, welche Gottheit wir anbeten sollen, dann könnte es sein, dass der Akt des Betens die Chance, in den Himmel zu kommen, senkt anstatt erhöht. Wenn auch bei der gegenteiligen Handlungsoption eine riesige Utility auf dem Spiel steht, und es keine rationalen Gründe gibt zur Annahme, dass das eine Szenario wahrscheinlicher ist als das andere, dann habe ich keinen Grund, meine Zeit mit Beten zu verbringen. Die zwei Szenarien heben sich gegenseitig auf, weil sich – egal was ich wähle – meine Wahrscheinlichkeit, in den Himmel zu kommen, nicht verändert.

Falls es aber Fälle gibt, wo nicht ersichtlich ist, wie sich die Szenarien gegenseitig aufheben, dann scheint es rational, selbst bei Pascal’schen Szenarien den Erwartungswert zu maximieren. Auch hier kann man das Willkür-Argument bringen: Wenn man den Erwartungswert ablehnt, sobald die in Betracht genommenen Wahrscheinlichkeiten zu klein werden (bzw. die Utilities, die auf dem Spiel stehen zu gross), dann fragt sich, wo genau dies denn der Fall sein könnte. Wenn wir an dieser Stelle eine Willkürlichkeit postulieren, dann würde sich diese Willkürlichkeit auf das ganze Vorgehen, d.h. auf alle Fälle übertragen, bei denen wir Outcomes und Eintreffwahrscheinlichkeiten berücksichtigen müssten (also praktisch ständig), und wir könnten selbst die extremsten Formen der Risikoaversion (oder warum nicht auch Risikofreudigkeit?) nicht für irrational halten! Diese Alternative erscheint äusserst unplausibel.

 

Referenzen
Brian Tomasik (2007). Why maximize expected value
Martin Peterson (2009). An Introduction to Decision Theory. Cambridge University Press.
]]>
https://gbs-schweiz.org/blog/was-ist-der-erwartungswert-und-warum-soll-ich-ihn-maximieren/feed/ 4
Konformitätsdruck und die Vergänglichkeit sozialen Heldentums https://gbs-schweiz.org/blog/konformitatsdruck-und-die-verganglichkeit-sozialen-heldentums/ https://gbs-schweiz.org/blog/konformitatsdruck-und-die-verganglichkeit-sozialen-heldentums/#respond http://giordano-bruno-stiftung.ch/?p=4120

That we have found the tendency to conformity in our society so strong is a matter of concern. It raises questions about our ways of education and about the values that guide our conduct.

Solomon Asch

In einem erstmals 1951 veröffentlichten und seither wiederholt replizierten Experiment wies Solomon Asch den Konformitätsdruck nach, der die Entscheidungen von Menschen in sozialen Situationen beeinflusst. Die Testpersonen mussten im Experiment angeben, welche der 3 Linien A, B oder C gleich lang ist wie eine links davon eingeblendete.

 

 

 

 

 

Das Experiment war so aufgebaut, dass jeweils 5 Personen der Reihe nach die Frage beantworteten. Dabei waren 4 Personen von Asch eingesetzte Schauspieler. Die Testperson beantwortete die Frage jeweils als 4-te Person in der Reihe. In 18 Durchgängen gaben die Schauspieler 6-mal die richtige Antwort und die übrigen 12-mal einstimmig eine falsche.

Das verstörende Ergebnis des Experiments war, dass die eigentlichen Testpersonen in 37% der Fälle der Mehrheitsantwort folgten und ebenfalls die offensichtlich falsche Antwort gaben. Lediglich ein Viertel der Testpersonen gab in allen Fällen die korrekte Antwort. Asch selbst war der Ansicht, dass sein Ergebniss Fragen bezüglich unseres Bildungssystemes aufwirft. Auch in Situationen, die von der Testperson nicht als Experiment wahrgenommen werden, lässt sich Konformität mit sinnlosem Mehrheitsverhalten herbeiführen, wie sich etwa hier beobachten lässt.

Das in Aschs Experimenten beobachtete gruppenkonforme Verhalten aus Angst, von der Mehrheitsmeinung abzuweichen, wird als normative Konformität bezeichnet. Orientiert man sich hingegen aufgrund eigener Unwissenheit oder Unsicherheit an der Mehrheit, so spricht man von informativer Konformität. Ein entsprechender Effekt wurde von Sherif schon 1935 entdeckt. Dabei nutzte er den autokinetischen Effekt, eine optische Täuschung, die auftritt, wenn ein kleiner Lichtpunkt in einem dunklen Raum den Anschein hat, sich zu bewegen obwohl er eigentlich still steht. Die Versuchspersonen sollten angeben, wieviele Zentimeter sich der Lichtpunkt bewegt. Interessanterweise antworteten die Versuchspersonen unterschiedlich, wenn sie separat oder in Gruppen gefragt wurden und ihre Einschätzung laut ausprechen sollten. Sherif fand heraus, dass sich die Antworten der Personen innerhalb einer Gruppe mit der Zeit einander annährten und schliesslich zu einer gemeinsamen Schätzung konvergierten.

Die Bereitschaft durchschnittlicher Personen in klarem Widerspruch zum eigenen Gewissen autoritären Anweisungen Folge zu leisten, welche in den berühmten Milgram-Experimenten eindrücklich nachgewiesen wurde, veranschaulicht beide Aspekte der Konformität. Der informative Aspekt zeigt sich darin, dass die Folgsamkeit gegenüber vermeintlichen Experten höher war, als gegenüber Laien. Hingegen reduzierten auch Anwesende, welche die Anweisungen des Versuchsleiters in Frage stellten, die Gehorsamkeit, was den normativen Einfluss deutlich macht.

Sherifs Experiment unterscheidet sich von Aschs Studie dadurch, dass die Personen tatsächlich daran glauben, dass ihre Aussage über die Bewegung des Lichtpunktes korrekt sei, während Verschiedenes dafür spricht, dass den Testpersonen in Aschs Eperiment bewusst ist, dass sie die falsche Antwort geben. So lässt etwa die Möglichkeit, seine Antwort ungesehen von der Gruppe abzugeben die Konformität sinken. Auch Ingroup-Outgroup-Manipulationen zeigen, dass die Konformität unter Mitgliedern einer Ingroup höher ist: Linde und Patterson (1964) stellten fest, dass Männer mit schweren orthopädischen Beschwerden sich ihresgleichen gegenüber eher konform verhalten als gegenüber gesunden Männern. In einer Metastudie (Smith und Bond 1996) wurde festgestellt, dass die Konformität bei zwei vorherigen Falschantworten deutlich höher ist als bei nur einer, und bei dreien noch einmal deutlich höher als bei zweien, sich danach aber nicht mehr stark verändert.

Schon eine einzige von der (falschen) Mehrheitsantwort abweichende Aussage schwächt die Tendenz zur Konformität stark ab – um bis zu 80%. Dies geschieht unabhängig davon, ob die Antwort der abweichenden Person die richtige oder eine andere falsche ist. Es scheint in der Regel also tatsächlich das Unbehagen zu sein, der einzige Abweichler zu sein, welches die Testpersonen die offensichtlich falsche Antwort geben lässt. Der vorherige Abweichler beeinflusst entscheidend, ob man sich einer Revolution anschliesst oder eine Revolution startet. Dennoch waren Testpersonen, welche dem Abweichler folgend die korrekte Antwort gaben, überzeugt, dass sie dies auch ohne den vorherigen Abweichler getan hätten. Offenbar ist es schwierig, korrekt zu antizipieren, wie man selbst einer einstimmigen Mehrheit gegenüber reagieren würde. Widersetzte sich der Abweichler nur während der ersten sechs Runden der Mehrheit und schloss sich danach dieser an, so stieg abrupt auch die Fehlerrate der eigentlichen Testperson an – und zwar ebenso stark, wie wenn es nie einen Abweichler gegeben hätte. Der erste Nonkonformist zu sein, kann eine ebenso schwierige wie wichtige soziale Aufgabe sein. Lohnen tut sie sich aber nur, wenn sie auch durchgezogen wird.

Quellenangabe
Asch, S. E. (1956). Studies of independence and conformity: A minority of one against a unanimous majority. Psychological Monographs 70.
Sherif, M. (1935). A study of some social factors in perception. Archives of Psychology 187/27.
Linde, T. F. and Patterson, C. H. (1964). Influence of orthopedic disability on conformity behavior. The Journal of Abnormal and Social Psychology 1/86.
Bond, R. and Smith, P. B. (1996). Culture and Conformity: A Meta-Analysis of Studies Using Asch’s Line Judgment TaskPsychological Bulletin 119 (pp. 111-137)
Yudkowsky, E. (2007). Asch’s Conformity Experiment. LessWrong (16.7.2013)
]]>
https://gbs-schweiz.org/blog/konformitatsdruck-und-die-verganglichkeit-sozialen-heldentums/feed/ 0
Daniel Kahneman – Entdecker der Biases https://gbs-schweiz.org/blog/daniel-kahneman-entdecker-der-biases/ https://gbs-schweiz.org/blog/daniel-kahneman-entdecker-der-biases/#comments Thu, 04 Apr 2013 12:13:56 +0000 http://giordano-bruno-stiftung.ch/?p=3493 Daniel Kahneman ist einer der einflussreichsten Psychologen und gilt zusammen mit Amos Tversky als der Entdecker der kognitiven Biases. Für seine Pionierarbeit im Gebiet der Verhaltensöknomie erhielt er den den Nobelpreis.

Mitte der 70er-Jahre gehörte er zu den ersten Forschern, die sich der Frage stellten, wie und weshalb wir irrationale Entscheidungen treffen. Die 1979 begründete Prospect Theory stellte anhand einer einfachen Frage zum Entscheidverhalten in Risikosituationen das in der Wirtschaftswissenschaft gängige Bild des rationalen Menschen auf den Kopf. Sie trug damit massgeblich zur Entstehung der Verhaltensökonomie bei und zog das Biases & Heuristics Program, ein Forschungsprogramm der kognitiven Psychologie, nach sich. Mehr dazu in diesem Video.

Ein Bias ist ein irrationales Denk- und Entscheidungsmuster, welches uns systematisch davon abhält, unsere Ziele – was auch immer diese sind – bestmöglich zu erreichen. Die Entdeckung der Biases kann durchaus als Meilenstein in der Menschheitsgeschichte bezeichnet werden. Die Auseinandersetzung mit Biases ermöglicht uns, rationaler zu werden. Dazu gehört das systematischere Definieren und Evaluieren unserer Ziele und die Entwicklung spezifischer Techniken, um Biases zu überwinden und unsere Ziele besser zu erreichen. Ein Beispiel hierzu ist der Reversal-Test, der uns helfen kann, den Status Quo Bias zu erkennen.

In seinem Bestseller Thinking, Fast and Slow gibt Kahneman einen Überblick über seine jahrzehntelange Forschung. Einen Einblick gibt auch seine Nobelpreisrede.nobelkahneman

Quellenangabe
Critical Thinker Academy (2011). Cognitive Biases: What They Are, Why They’re Important. Youtube (4.4.2013)
Kahneman, D., Tversky, A. (1979). Prospect Theory: An Analysis of Decision under Risk. Econometrica 47 (2), 263-292.
Kahneman, D. (2002). Prize Lecture. Nobel Prize (4.4.2013).
Muehlhauser, L. (2011). Review of Kahneman, Thinking Fast and Slow. LessWrong (4.4.2013).

 

]]>
https://gbs-schweiz.org/blog/daniel-kahneman-entdecker-der-biases/feed/ 1
Wie wir mit Forschung etwas bewirken können: Ein Interview mit Nick Bostrom https://gbs-schweiz.org/blog/wie-wir-mit-forschung-etwas-bewirken-konnen-ein-interview-mit-nick-bostrom/ https://gbs-schweiz.org/blog/wie-wir-mit-forschung-etwas-bewirken-konnen-ein-interview-mit-nick-bostrom/#respond Mon, 18 Mar 2013 02:21:16 +0000 http://giordano-bruno-stiftung.ch/?p=3525 nbpic

Nick Bostrom, Direktor des Future of Humanity Institute in Oxford, spricht über seine Karriere und High-Impact-Forschung. Eine Auflistung der bedeutendsten Erkenntnisse:

  • Meta-Forschung ist äusserst wichtig. Wir sollten die Gesamtsituation betrachten und die wichtigsten Fragen identifizieren. Hier gibt es noch grosse Unsicherheiten.
  • Schon allein das Nachdenken über den Impact unserer Forschung bewirkt etwas. Die meisten WissenschaftlerInnen scheinen sich nicht darum zu kümmern, wichtige Forschung zu betreiben; jedenfalls denken sie nicht gross darüber nach.
  • Für die Förderung von High-Impact-Forschung sind vermutlich junge ForscherInnen die beste Zielgruppe. Es ist allgemein schwierig, etablierte AkademikerInnen zu einem Umdenken zu bewegen; junge Forscher sind offener.
  • Geldmittel in wichtigere Forschungsgebiete zu lenken ist eine weitere Möglichkeit, eine grosse Wirkung zu erzielen.
  • Grosse Unsicherheiten bestehen auch darüber, welche Forschungsfragen die wichtigsten sind. In dieser Situation können wir uns auf solche Meta-Fragen konzentrieren, um die Unisicherheiten zu reduzieren, oder uns mit Fragen beschäftigen, die in jedem Fall wichtig erscheinen, unabhängig davon, in welche Richtung sich die Unsicherheiten auflösen (safe bets).

 

Komplettes Interview:

Das Interview mit Nick Bostrom wurde von Jess Whittlestone und Rob Wiblin von 80’000 Hours durchgeführt.

Tell us a bit about how you ended up where you are now

For as long as I can remember, I’ve been interested in the potential for changing the human condition in some fundamental way, and how this could have a huge impact. This was back in the days before the internet was popular though, so I had no idea of anyone else who was interested in this. In the meantime I just tried to learn enough to put myself in a better position to work on these things later on. Later when I came to London as an exchange student I discovered there were other folk out there discussing similar things.

I had a bit of an intellectual awakening aged 15 or 16; before that I hated school. The realisation that there was a world of learning, ideas, culture, art and philosophy much more interesting than what we were being taught made me hate school even more! I felt like I needed to make up for lost time, so I started to guide my own studies: picking up lots of different subjects that seemed relevant. Once at university I tried to study many things in parallel. But there was a cap on how many subjects you could enrol in. At one point I actually got expelled from the psychology faculty for studying too much!

How did you get to setting up the Future of Humanity Institute in Oxford?

After my PhD I went to Yale, and then came to Oxford as a British Academy postdoctoral fellow in philosophy, where I met more people interested in the same things as me. I tried to find topics in philosophy that would be acceptable to academic philosophers while still being relevant to the world, such as anthropic reasoning and applied ethics. The circumstances that led to me creating the FHI were very fortuitous: the Oxford Martin School was just in the process of being founded which made it possible. There was a huge amount of luck here: if the money for the Martin School had been given to Cambridge instead, for example, it might not have happened.

What do you think are some of the best ways to find high impact research areas?

There could be very high leverage opportunities looking at the bigger picture and trying to figure out what is important and what should be researched, because there are still very large uncertainties involved here. You could come at this from a variety of different disciplines: philosophy, computer science, maths, economics, neuroscience etc.

Something else to bear in mind in terms of your impact is that in some fields the problems are pretty much predetermined, so your efforts go to speeding up progress on these problems; in others there’s more room for manoeuvre and you can actually change which problems are dealt with. The humanities, philosophy, and interdisciplinary fields seem to fall into this second category, whereas in science it’s often clearer where the big problems are.

Why do you think certain really important questions get neglected?

This is a difficult question. One way to answer it would be to turn the question around: why do the things that do get studied, get studied? Often it’s because they’ve been studied before and a discipline has been established, which can lead to a great deal of inertia. The concept behind some of the questions that are important now are fairly new, which explains why they haven’t been studied in the past. The opportunity to develop artificial intelligence, nanotechnology and cognitive enhancement haven’t been around for that long. Another factor is that a lot of these questions are very interdisciplinary and there’s no standard protocol for investigating them.

An even more frugal explanation for why people don’t focus on the most important questions is just that they don’t care that much. There are plenty of people who might care if they thought about it more, but they just don’t reflect on the importance of their research. This is where you can make a big difference just by encouraging people to think about the world in terms of impact.

How important is your choice of thesis topic?

There’s a risk of getting pigeon-holed by your PhD, and it’s easier to write one more article when you’ve already done a lot of research on a topic, so your choice of thesis area is important in this respect. It’s also four years of your peak intellectual period so you don’t want to squander this time unnecessarily. On the other hand, few people will ever actually read your PhD thesis.

It can be quite common, at least in philosophy, to enrol in a PhD program before you have a good topic and then spend the first year choosing your thesis idea. But disciplines can vary a lot in this respect: in the life sciences you probably have to chose before you start.

It is possible to shift your focus after your PhD. If you find what you are studying isn’t that useful you should seize that opportunity. Unfortunately it is more difficult to change departmental field.

What about specialising vs. generalising: which do you think is better? Is it best to try and be a T-shaped generalist?

I’ve never made that sharp a distinction between different academic areas: wherever there’s stuff I find interesting I just learn that. But for the most part I don’t think academia rewards this attitude. That said, if you are lucky enough to find the right entry point, there can be good opportunities in multidisciplinary fields.

I think T-shaped generalising might help you in the long run: if you can pull it off you’ll probably be more productive and creative. But in the short term, it can slow down your career. Your chances of getting a postdoc and then tenure might be higher just by focussing exclusively on something that’s fashionable in your field.

It seems like in most fields, the top few researchers often seem to get almost all the attention. Do you have any tips for increasing your chances of becoming one of these top researchers?

In some fields, having a big impact is a matter of doing something unique. In philosophy, doing something slightly crazy is a way to get minor fame. For instance, you could choose an outlandish position and defend it better than people believe is possible. This is not not an activity I would recommend. But to become one of the top people you have to go beyond competent, solid work, and take some risks or go out on a limb somewhat, for example by showing that some common conception is false. I would imagine it’s similar in other humanities and social sciences at least.

If you can get into an elite university I think that can make a big difference. This might seem obvious to people in the UK and USA, but it’s less obvious elsewhere. In Sweden, for example, there isn’t much difference between the various universities, so it’s less clear to people that some universities can be way better than others. Having a “brand name” university is useful not just for intellectual development but also in terms of opportunity: for grants, media impact, collaborations and so on. At a less recognised university these things are possible but it’s more of an uphill struggle. It’s unfair, but nonetheless true.

That said, maybe sometimes there is a case for ending up in a middle rank university and being a “big fish in a small pond.” There might be more flexibility to do exactly what you want, for example.

What about influencing other academics to think more about impact – how easy do you think this is to do?

It’s hard to get established academics to change their views, unless they spontaneously become interested in a topic, or bear a latent interest for a topic they were unable to pursue in the past. If you can show them a way to get funding, they may well look at it again.

Otherwise, there’s probably more leverage in influencing people who are just entering the academic world. At the FHI we’ve done this thesis competition to get people to write a thesis outline on some important topic, with a prize for the best one. They don’t actually have to write their thesis on it, but the idea is to get people spending time thinking about important areas, which will hopefully at least increase the chance of these areas getting researched.

How easy is it to influence what research is conducted by getting into a position of power in an organisation that provides funding and grants?

A lot of the grants in academia actually end up being dispersed by the academics who conduct the evaluations. Even when someone higher up in a funding body is trying to set priorities, it’s hard for them to change how the money is used on the ground. At each stage in the chain of management, the goals are shifted slightly, until the intention of the top-level managers is largely forgotten.

Probably in the natural sciences it is easier to exercise control than in the humanities. Presumably you could get a lab to work on one vaccine rather than another. If you’re funding a big group working on some structured project it’s easier to impose control, but in fields like philosophy where you’re funding individuals it’s difficult to influence what they end up thinking about.

Is there more opportunity to pull funding sideways from within academia, then?

In philosophy it’s hard to pull funding because there’s just not much money. But there are other opportunities for academics to pull money into more important fields, and this is arguably better than getting onto the board of a funding body.

Other things equal, it’s much nicer to take money from some big organisation which has a bad focus. Then you are simply rescuing the funds from being wasted. But in fact I think it should be fairly easy to make much better use of funding than the average academic – even without any particular competence, just caring about getting funding into important areas puts you above the many others who don’t. So there’s no need to go out of your way to try to get your funding at the expense of the least effective projects.

Finally, if you could give just one piece of advice to a student wanting to make a difference through research, what would it be?

There’s a lot of uncertainty in our understanding of the world and it’s really difficult to know what is valuable. This is why working on meta-level questions and trying to figure out what’s important might be a good option. You have to know which direction to start walking before you set out on your journey. Another good tactic would be to focus on projects that are robust in the face of great uncertainty. Making people generally more benevolent and compassionate might be an example of this: it’s hard to see how that would turn out badly. The bottom line is that it’s not all that obvious yet what research is most important, so think twice.

]]>
https://gbs-schweiz.org/blog/wie-wir-mit-forschung-etwas-bewirken-konnen-ein-interview-mit-nick-bostrom/feed/ 0
Die Verlockung der Overhead Ratio https://gbs-schweiz.org/blog/die-verlockung-der-overhead-ratio/ https://gbs-schweiz.org/blog/die-verlockung-der-overhead-ratio/#respond Mon, 11 Feb 2013 10:59:02 +0000 http://giordano-bruno-stiftung.ch/?p=2473 Welcher der folgenden Werbesprüche tanzt aus der Reihe?

  1. „90 Rappen jedes gespendeten Frankens gehen direkt in die Autofabrikation. Nur 10% unserer Ausgaben werden für Planung und Design ausgegeben.“
  2. „Die Regie wird von einem Freiwilligen übernommen und wir verschwenden kein Geld mit Werbung. So können wir 100% des Filmbudgets für die Dreharbeiten verwenden. Wir werden einen Hit landen!“
  3. „90% unseres Militärbudgets gehen direkt an die Soldaten und die Beschaffung von Waffen. Wir verschwenden keine Steuergelder für Administrationskosten.“
  4. „Mehr als 90% unserer Ausgaben gehen direkt in die armutsbekämpfenden Projekte. Weniger als 10% der Ausgaben werden für Administrations- und Spendenaktionskosten ausgegeben.“

Der vierte Werbespruch ist – im Gegensatz zu den anderen – Realität. Leider ist er nicht weniger lächerlich als die anderen. Effizienz ist wichtig, doch wer zum Kuckuck kam auf die absurde Idee, dass Effizienz mit tiefen Administrationskosten gleichzusetzen sei? Administrationskosten werden u.a. für die Entlohnung der Angestellten, die Infrastruktur und die Selbstevaluation verwendet. Profit-Unternehmen geben hierfür viel Geld aus. Dies tun sie nicht etwa, weil sie extravagant wirken wollen, sondern weil es die Organisation insgesamt erfolgreicher macht. Komplexe Arbeit erfordert gute Administration. Es ist daher ohne Weiteres möglich und oft gar wahrscheinlich, dass eine Erhöhung der Administrationskosten die Performance einer Organisation verbessert.

Nehmen wir an, wir möchten Geld spenden und können uns zwischen zwei Organisationen entscheiden. Die eine Organisation fördert Malariaprävention, die andere behandelt Parasitenwurminfektionen. An welche Organisation sollten wir spenden?

Wenn wir davon ausgehen, dass wir über die Evaluationsforschung von Meta-Charities wie GiveWell oder Giving What We Can nicht Bescheid wissen, dann wird es schwierig, zu beurteilen, welche Organisation besser ist. Doch um unsere Entscheidung zu fällen, müssen wir irgendein Kriterium zu Rate ziehen. Ein Merkmal, das relativ einfach verfügbar ist und den Anschein hat, ein sinnvolles Kriterium zu sein, ist die Overhead Ratio, also der Anteil der Administrationskosten an den Gesamtkosten. Auf diese Weise entscheiden wir uns für die Organisation mit den geringsten Administrationskosten und dem grössten Anteil an Geld, das direkt in die eigentliche Arbeit fliesst. Doch es zeigt sich schnell, dass die Overhead Ratio als Kriterium an sich irrelevant ist. Nehmen wir an, zwei Organisationen A und B erhalten je 100 Franken. Organisation A investiert 10 Franken in Administrationskosten und rettet 9 Leben mit den restlichen 90 Franken. Organisation B hingegen investiert 25 Franken in die Administration, rettet mit den übrigen 75 Franken allerdings (vielleicht gerade aufgrund besserer administrativer Planung!) 15 Leben. B ist offensichtlich die bessere Organisation, doch das Kriterium der Overhead Ratio würde uns fälschlicherweise Organisation A empfehlen.

Was erklärt, weshalb die Overhead Ratio intuitiv den Anschein hat, ein sinnvolles Kriterium zu sein? Vielleicht stellt man sich unreflektiert vor, die Administrationskosten (10 bzw. 25 Franken im obigen Beispiel) würden nichts bringen und gingen daher verloren, während mit dem Restbetrag (90 bzw. 75 Franken) etwas Positives bewirkt werde, und zwar bei jeder Organisation pro Franken gleich viel. Es bedarf keiner grossen Erklärungen, um einzusehen, wie verrückt diese Annahmen sind. Gerade eine gute Administration kann, wie erwähnt, natürlich sehr viel Positives bewirken. Und es wäre ein Zufall astronomischer Grössenordnung, wenn alle Organisationen „mit dem Restbetrag“ gleich viel Positives bewirken würden. In der Tat: Die wissenschaftlichen Charity-Evaluationen weisen nach, dass teilweise Effektivitätsunterschiede von einem Faktor der Grössenordnung 1000 bestehen. Wie der Oxforder Philosoph und Gründer von Giving What We Can Toby Ord hier ausführt, kann man mit $40’000 z.B. einer blinden Person in den USA einen Blindenhund finanzieren oder in Afrika 2000 (!) Trachoma-Patienten mit einer einfachen Operation vor der Erblindung retten. $20 können also – am richtigen Ort gespendet – eine Person vor der Erblindung bewahren. (Wann immer wir $20 anders ausgeben, entstehen daher ethische Opportunitätskosten mindestens im Gewicht der Erblindung einer Person.) Ähnlich massive Unterschiede ergeben sich etwa bei unterschiedlichen HIV/Aids-Interventionen und zwischen den jeweils besten Optionen verschiedener Bereiche.

Evaluability Bias

Wir tendieren dazu, uns auf Merkmale zu konzentrieren, die einfach einzuschätzen bzw. zu evaluieren sind (Hsee, 1996) – selbst wenn es sich dabei nicht um diejenigen Merkmale handelt, die wir eigentlich bzw. nach reiflicher Überlegung für wertvoll und erstrebenswert halten.

Mehr dazu in diesem Blog-Artikel: Wie wir unsere Ziele verwerfen – Evaluability Bias

GoodIntents.org listet zahlreiche Gründe auf, weshalb die Overhead Ratio nicht nur an sich nicht das richtige Kriterium, sondern auch kein zuverlässiger Indikator dafür ist, wie gut das richtige Kriterium (so etwas wie: gerettete Leben/Geldinput) erfüllt wird. Die Overhead Ratio ist relativ leicht manipulierbar und der Druck, die Administrationskosten tief zu halten, kann dazu führen, dass Projekten zu wenig Personal zugewiesen wird oder dass Programme bevorzugt werden, die ineffizient sind, aber tiefe Administrationskosten haben. Trotzdem lassen sich viele SpenderInnen vom einfach zu evaluierenden Merkmal der Overhead Ratio leiten, anstatt ihre Entscheidung entsprechend dem wirklich entscheidenden Merkmal der Kosteneffizienz (d.h. dem Verhältnis des Spendenaufwands gegenüber der Spendenwirkung, also z.B. eben: gerettete Leben/Geldinput) zu treffen.

Weil Spendengelder eine wertvolle, aber knappe Ressource sind, sollte ihre Allokation wohlüberlegt sein. Gegeben ein Geldbetrag, den eine Person zu spenden bereit ist, ist das Geld an die kosteneffizienteste Option zuzuteilen (wo es am meisten bewirkt, d.h. den grössten Impact hat). Ein Hindernis in diesem Unterfangen können grob vereinfachende Entscheidungsregeln, sogenannte Heuristiken oder kognitive Biases, darstellen. Biases sind systematische Denkfehler, die nicht zwingend aufgrund von Fehlinformation oder Ignoranz entstehen. Sie sind oft das Resultat übergeneralisierter Entscheidungsregeln, die in vielen Fällen sinnvoll sein können, angewandt auf andere Situationen jedoch ungünstig oder gar gefährlich sind. Biases führen zu systematischer Fehlallokation und verschwenden folglich Ressourcen. Im Spendenfall heisst dies, dass nicht so viele Menschen (oder Tiere) gerettet werden, wie die verfügbaren Ressourcen hätten retten können.

 

]]>
https://gbs-schweiz.org/blog/die-verlockung-der-overhead-ratio/feed/ 0
Wie wir unsere Ziele verwerfen (Evaluability Bias) https://gbs-schweiz.org/blog/wie-wir-unsere-ziele-verwerfen/ https://gbs-schweiz.org/blog/wie-wir-unsere-ziele-verwerfen/#comments Mon, 11 Feb 2013 10:28:07 +0000 http://giordano-bruno-stiftung.ch/?p=1147 Ein CEO würde sich lächerlich machen, wenn er seinen AktionärInnen mitteilte: „Es ist einfach nicht möglich, genau zu wissen, welche Entscheidungen den Wert unserer Firma maximieren werden. Weshalb versuchen wir stattdessen nicht einfach zuzusehen, dass wir unsere Meetings maximal pünktlich beenden?“ 

Trotzdem taucht dieses Argument in vielen Debatten auf. Es hat die folgende Struktur:

  1. Vorschlag V erfordert es, die Grösse G zu messen bzw. abzuschätzen.
  2. Es ist schwierig, G zu messen bzw. abzuschätzen.
  3. Also sollten wir V nicht tun.

Dieses Argument ist dann sinnvoll, wenn G nicht Bestandteil des Zieles ist. Nehmen wir z.B. an, jemand schlägt vor (V), eine kurze Strecke mithilfe von Triangulation zu vermessen. Triangulation ist eine Messtechnik, bei der die Abstandsmessung durch Winkelmessungen und trigonometrische Berechnungen erfolgt. Die Kritik, dass sich die Winkelvermessung (G) als schwieriger herausstellen könnte als die direkte Vermessung der Strecke, kann hier durchaus angebracht sein. In Situationen hingegen, in denen die Optimierung von G das eigentliche Ziel darstellt, ist das obige Argument verfehlt. Dem falschen Argument liegt der Evaluability Bias zugrunde. Wir tendieren dazu, uns auf Merkmale zu konzentrierendie einfach einzuschätzen bzw. zu evaluieren sind – selbst wenn es sich dabei nicht um diejenigen Merkmale handelt, die wir eigentlich bzw. nach reiflicher Überlegung für wertvoll und erstrebenswert halten.

Ein Paradebeispiel dafür ist die Kritik der Kosten-Nutzen-Abwägung bezüglich des Spendens. Oft wird argumentiert, dass es unmöglich sei, genau herauszufinden, ob und wie sehr eine Spende das Wohlergehen von Menschen (oder Tieren) erhöhe. Die Kritiker schliessen daraus, dass eine andere, einfacher einzuschätzende Strategie verfolgt werden soll, zum Beispiel das intuitive Befolgen spezifischer Verhaltensregeln. Doch wenn unser eigentliches Ziel tatsächlich darin besteht, das Wohlergehen von Menschen (oder Tieren) zu erhöhen, dann darf uns die Schwierigkeit der entsprechenden empirischen Forschung nicht dazu verleiten, dieses Ziel aufzugeben. Wir tun besser daran, die Genauigkeit unserer Methode zu untersuchen und zu optimieren, anstatt das eigentliche Ziel zu verwerfen und ein neues, arbiträres Ziel zu setzen. Denn wenn wir gar nicht mehr anstreben, was wir eigentlich anstreben wollen und für wertvoll halten, verlieren wir so oder so. Wenn wir aber – bei schwerer Evaluierbarkeit – weiterhin verfolgen, was wir eigentlich für wertvoll und wichtig halten, sind wir wenigstens noch im Rennen und können gewinnen (wenn vielleicht auch mit geringer Wahrscheinlichkeit).

Mit anderen Worten: Wir sollten uns nicht verhalten wie Betrunkene, die ihren Autoschlüssel unter der Strassenlaterne suchen, weil sie dort etwas sehen – anstatt dort, wo sie ihn verloren haben. Wir sollten ein schwieriges Spiel nicht dadurch zu gewinnen versuchen, dass wir plötzlich ein leichteres Spiel spielen – was uns im eigentlich relevanten Spiel aus dem Spiel nimmt und die Niederlage garantiert. 

Das obige Argument versagt immer dann, wenn die Optimierung von G integraler Bestandteil des Zieles ist. Wie schlecht unsere Schätzung auch sein mag, sie wird nicht dadurch besser, dass wir unser Ziel aufgeben. Wer sicher ist, eine Strategie gefunden zu haben, die besser ist als die beste bisherige Schätzung von G, hat in Wirklichkeit eine bessere Strategie gefunden, G zu messen – es sei denn, er hat das Ziel plötzlich verändert. Diese plötzliche Veränderung riecht natürlich nach Evaluability Bias und müsste in jedem Fall auch unabhängig begründet werden, d.h. es wäre aufzuzeigen, weshalb das ursprünglich angestrebte Ziel doch nicht das eigentlich wertvolle, wichtige und erstrebenswerte war.

Betrachten wir schliesslich noch eine modifizierte Prämisse (2):

(2)‘ Es ist gänzlich unmöglich, G zu messen bzw. abzuschätzen.

Nun gibt es zwei Fälle: Wenn G nicht das Ziel ist, das wir erreichen wollen, sondern bloss als Mittel zum Zweck infrage käme, dann halten wir nun Ausschau nach besseren Mitteln, denselben Zweck zu erreichen. Wenn G hingegen das eigentliche Ziel ist, das wir erreichen wollen, dann folgt aus (2)‘, dass es tatsächlich egal ist, was wir tun. Wir können dann eine Münze werfen, denn im Falle vollständiger Unsicherheit sind alle Optionen gleich gut bzw. schlecht zielführend. Ohne ein weiteres Argument wäre es aber irrational bzw. Ausdruck des Evaluability Bias, das unevaluierbare Ziel plötzlich zugunsten eines leichter evaluierbaren aufzugeben. Dieser Bias ergibt sich seinerseits wohl aus einem Wishful Thinking Bias: Wir wünschen uns natürlich, dass unsere eigentlichen Ziele leicht evaluier- und erreichbar sind. Aber apriori garantiert nichts, dass dies der Fall sein wird. 

Quellenangabe
Baron, J. (1994). Nonconsequentialist decisionsBehavioral and Brain Sciences 17 (1), 1-10.
Baron, J., Szymanska, E. (2010). Heuristics and Biases in Charity. In D. Oppenheimer, C. Olivola (Eds). The science of giving: Experimental approaches to the study of charity, 215–236. New York: Taylor and Francis.
Caviola, L., Faulmüller, N., Everett, J.A.C., Savulescu, J., & Kahane, G. (2014). The evaluability bias in charitable giving: Saving administration costs or saving lives? Journal of Judgment and Decision Making.
Grace, K. (2011). Estimation is the best we have80.000 hours (11.2.2013).
Karnofsky, Holden (2007). Which of these boasts is not like the others? GiveWell (11.2.2013).
Sotala, K. (2012). Heuristics and Biases in CharityLessWrong (11.2.2013).
Yakubchik, B. (2011). It is Effectiveness not Overhead that Matters. 80.000 hours (11.2.2013).

 

Serie: Biases & Charities

  1. Unser schlechtestes Schulfach
  2. Triage – Entscheidungsökonomie im Alltag
  3. Wie wir unsere Ziele verwerfen – Evaluability Bias
  4. Die Verlockung der Overhead Ratio

 

]]>
https://gbs-schweiz.org/blog/wie-wir-unsere-ziele-verwerfen/feed/ 3
Intellektuelle Hipster https://gbs-schweiz.org/blog/intellektuelle-hipster/ https://gbs-schweiz.org/blog/intellektuelle-hipster/#comments http://giordano-bruno-stiftung.ch/?p=1056 vuittonfire

Ein Hipster ist eine Person, die – darum bestrebt, cooler zu wirken als der Mainstream –absichtlich einen unpopulären, veralteten oder obskuren Kleiderstil pflegt. Doch weshalb soll es cooler sein, bewusst uncool zu sein, als einfach nur cool zu sein?

In gewissen Situationen kann die Verweigerung einer Signalisierung selbst ein Signal eines hohen Status sein. Der Soziologe Thorstein Veblen führte den Begriff des „demonstrativen Verbrauchs“ ein, um das auffallende Konsumverhalten der Neureichen zu beschreiben. Die Neureichen müssen im Gegensatz zur bereits etablierten Oberschicht ihren Reichtum signalisieren, indem sie viel Geld für Autos, Kleidung und Schmuck ausgeben. Weshalb findet sich ein derart auffälliger Glanz insbesondere unter Neureichen, jedoch nicht unter den Etablierten? Weil diese sich ihrer Position so sicher sein können, dass sie gar nicht auf die Idee kämen, irgendjemand könnte sie mit armen Leuten verwechseln. Die Neureichen haben jedoch keinen artistokratischen Hintergrund. Sie sind deshalb besorgt darüber, mit der Unterschicht verwechselt zu werden, wenn sie es nicht offensichtlich machten, dass sie teure Dinge besitzen.

Die etablierte Oberschicht kauft vermutlich aus pragmatischen Gründen keine auffälligen Dinge – sie benötigt sie nicht, weshalb also Geld verschwenden? Doch wenn F. Scott Fitzgerald recht hat, dann haben die Etablierten ein Gefühl der Überlegenheit gegenüber den Neureichen und ihrem demonstrativen Konsum aktiv kultiviert. Keine protzigen Objekte zu kaufen wird so zu einer Prinzipienfrage. Das macht Sinn: Die Neureichen wollen sich von der Unterschicht und die Etablierten von den Neureichen abgrenzen.

Dieses Phänomen nennt man Gegensignalisierung und man findet seine Muster in vielen Lebensbereichen. Diejenigen, die sich mit romantischer Anziehung beschäftigen, warnen Männer, sich nicht zu schnell und direkt einer Frau zu nähern. Das hat Gemeinsamkeiten mit dem Beispiel der Neureichen: Ein totaler Versager würde sich ohne einen Anschein von Romantik an eine Frau heranmachen, ihr nichts versprechen und direkt Sex verlangen. Ein kultivierterer Mann würde einer Frau vielleicht Rosen kaufen, ihr Liebesgedichte schreiben und ihr jeden Wunsch erfüllen. Damit signalisiert er, dass er kein totaler Versager ist. Die begehrtesten Männer hingegen würden es bewusst vermeiden, sich für eine Frau zu bemühen. Sie signalisieren damit, dass sie das nicht nötig haben, weil sie einen so hohen Status haben. Der durchschnittliche Mann versucht sich vom totalen Versager dadurch abzugrenzen, dass er nett ist. Der sehr attraktive Mann versucht sich vom durchschnittlichen Mann abzugrenzen, indem er nicht besonders nett ist.

In allen drei Beispielen zeigen die Personen, die auf der Pyramide zuoberst oder zuunterst stehen, ähnliche Merkmale. Hipster tragen bewusst die gleichen Kleider wie die Uncoolen. Die etablierte Oberschicht trägt ähnlich wenig Schmuck wie die Unterschicht. Und die begehrtesten Männer gehen auf Frauen mit ebenso wenig Feinfühligkeit zu wie totale Versager.

Wenn es in Politik, Philosophie und Religion auch um Signalisierung geht, sollten wir hier ähnliche Muster von Gegensignalen finden.

Klugheit vorspielen

Wenn wir ein 5-jähriges Kind dazu befragen, wird es uns sagen, dass der Tod schlecht sei. Der Tod ist schlecht, weil er praktisch immer mit Leid verbunden ist und Präferenzen zuwiderläuft. Es gibt wenig Subtiles über den Tod zu sagen. Er scheint auf den ersten Blick allgemein für jedermann schlecht. Doch neben den grossen Nachteilen, die er mit sich bringt, hat er auch ein paar Vorzüge. Er verringert die Überbevölkerung, ermöglicht es der neuen Generation, sich von frei von der Einmischung der Älteren zu entwickeln und motiviert dazu, im Leben nicht unnötig Zeit zu verlieren. Und gerade weil diese Vorteile viel kleiner sind als die Kosten, erkennen sie nicht alle. Jeder Dummkopf kann uns sagen, weshalb der Tod schlecht ist, doch nur ein besonders einfallsreicher Dummkopf kommt auf die Idee, dass er vielleicht gut ist.

Auf die gegensätzliche Position hinzuweisen, dass der Tod einige Vorteile hat, ist deshalb potentiell ein Signal von hoher Intelligenz. Es ist zwar kein besonders zuverlässiges Signal –denn sobald es jemand erwähnt hat, kann es von allen kopiert werden – doch es ist ein billiges Signal. Und einer Person, die vielleicht nicht clever genug ist, sich die Vorteile des Todes selbst auszudenken, und nur bemerkt, dass kluge Leute dies offenbar behaupten, scheint es vielleicht superklug, zu sagen, dass der Tod eine Menge Vorteile hat und wirklich eine ziemlich gute Sache ist. Und wenn andere Leute einwenden, dass der Tod schlecht ist, nun, das ist eine Meinung, die sich ein 5-jähriges Kind ausdenken kann. Deshalb ist diese Person offensichtlich nicht klüger als ein 5-jähriges Kind.

Wenn man nicht auf die Vorteile einer sehr schlechten Sache eingehen will, kann man seine Klugheit auch vortäuschen, indem man auf die Nachteile einer sehr guten Sache hinweist. Alles in allem ist die moderene Industriegesellschaft – mit ihrer forschrittlichen Technologie und Medizin – eine ziemlich gute Sache. Doch sie hat auch viele Nachteile: Entfremdung von der Natur, Anonymität des Grossstadtlebens, Umweltverschmutzung und Überbevölkerung. Dies sind echte Nachteile, die ernst genommen werden sollten.

Nichtsdestotrotz: Die grosse Anzahl von Migranten, die versuchen, von der Dritten Welt in die Erste zu gelangen, und der Umstand, dass keine Migration in die umgekehrte Richtung stattfindet, legt nahe, dass die Vorteile überwiegen. Aber es scheint, dass die Leute lieber auf den negativen Aspekten unseres Lebensstandards herumreiten. Die meisten Leute, die von einer Reise aus einem Drittweltland zurückkehren, erzählen, wie viel authentischer der Lebensstil dort sei und wie viel wir von den Menschen dort lernen könnten. So zu reden, klingt klug. Aber es tönt trivial und egoistisch, zu bemerken, wie angenehm es ist, Busse zu haben, die nicht nach jedem halben Kilometer eine Panne haben.

Deshalb ist meine Hypothese: Wenn in einer Angelegenheit eine Seite die besseren Argumente hat und die andere Seite sich auf viel subtilere Punkte stützt, welche die Durchschnittsperson vielleicht nicht versteht, dann wird es zu einem Zeichen von Intelligenz, diese Seite zu vertreten, selbst wenn ihre Argumente falsch sind.

Dies funktioniert jedoch nur bei Problemen, die von Anfang an so verworren sind, dass es keine eindeutige Lösung gibt. Es versucht also niemand dadurch Intelligenz zu signalisieren, dass er sagt: 1+1=3.

Intellektuelle Hipster vertreten die Meta-Gegenposition

Eine Person, die einigermassen vornehm ist, wird ihren Reichtum auffallend signalisieren, indem sie Dinge kauft, die schwer zu erwerben sind. Eine Person, die sehr vornehm ist, wird auffallend signalisieren, dass sie es nicht nötig hat, auffallend ihren Reichtum zu signalisieren, indem sie bewusst keine solchen Dinge kauft.

Eine Person, die einigermassen intelligent ist, wird ihre Intelligenz auffallend signalisieren, indem sie Meinungen vertritt, die schwer zu verstehen sind. Eine Person, die sehr intelligent ist, wird auffallend signalisieren, dass sie es nicht nötig hat, auffallend ihre Intelligenz zu signalisieren, indem sie Meinungen vertritt, die allgemein verständlich sind.

Sehr intelligente Leute sind eher geneigt, zu sagen, dass der Tod schlecht ist und dass es keinen philosophischen Grund gibt, anzunehmen, dass 1+1=3. Sie haben einen Punkt erreicht, ab dem sie es nicht mehr für nötig halten, sich von den Leuten abzugrenzen, die nicht klug genug sind, um zu verstehen, dass der Tod auch Vorteile hat.

Stattdessen sind die sehr intelligenten Leute auf einer Ebene, auf der sie sich von den einigermassen klugen Leuten, welche als Nonkonformisten die Vorteile des Todes für gut halten, abgrenzen wollen. Sie sind Meta-Nonkonformisten und intellektuelle Hipster. Sie geben also ein Gegensignal gegen die einigermassen intelligenten Leute, indem sie Positionen vertreten, die diesen widersprechen. Und im Falle des Todes kann das nur eine gute Sache sein.

Doch genauso wie ein Nonkonformist kann auch ein Meta-Nonkonformist falsch liegen. Eine naive Person denkt vielleicht, dass die industrielle Produktion eine absolut gute Sache ist. Wer klüger ist als die naive Person erkennt vielleicht, dass die Klimaerwärmung ein grosser Nachteil der industriellen Produktion ist und dringend gestoppt werden muss. Wer noch klüger ist, entscheidet vielleicht, dass die Klimaerwärmung kein grosses Problem ist, nicht vom Mensch verursacht wurde oder nicht existiert. In diesem Fall ist vermutlich die erste Gegenposition korrekt und der intellektuelle Hipster hat sich von der Wahrheit entfernt.

Tatsächlich ist die naive Position des 5-jährigen Kindes oft fehlerhaft und die erste Gegenposition eine notwendige Korrektur dieser Fehler. Dies macht Meta-Gegenpositionen zu einer sehr gefährlichen Sache.

Ohne etwas darüber aussagen zu wollen, ob irgendeine dieser Positionen korrekt ist oder nicht, unterscheiden folgende Triaden zwischen naiver Einstellung – Konformismus – Meta-Nonkonformismus:

  • „Ich bin gläubig.“ – „Ich bin Atheist.“ – „Der Atheismus ist auch ein Glaube.“
  • „Schwarze sind minderwertig.“ – „Ich bin Anti-Rassist.“ – „Es gibt wissenschaftlich bewiesene genetische Unterschiede.“
  • „Frauen sind minderwertig.“ – „Ich setze mich für Gleichberechtigung ein.“ – „Männer werden diskriminiert.“
  • „Ich kümmere mich nicht um Armut.“ – „Ich spende.“ – „Spenden schadet.“

Das Interessante an diesen Triaden ist, dass Leute tiefe persönliche Befriedigung empfinden, ihre Position zu verteidigen, auch wenn ihre Argumente politisch nichts ändern.

Falls wir bei uns eine Tendenz zum Meta-Nonkonformismus erkennen, bedeutet es nicht, dass wir die damit verbundenen Ansichten sofort aufgeben sollten. Wir sollten dann aber besonders misstrauisch sein gegenüber unserem Wunsch, etwas zu glauben, das der vorherrschenden nonkonformistischen Position widerspricht, vor allem, wenn wir dies wirklich gerne tun. Es könnte ein Bias sein.

Welche Position wir vertreten, sollte nicht davon abhängen, welche Stellung sie in der Pyramide bzw. der Triade einnimmt, sondern davon, ob sie rational ist. Es ist also nicht per se gut, ein intellektueller Hipster zu sein.

Quellenangabe
Yvain (2010). Intellectual Hipsters and Meta-Contrarianism. LessWrong (30.1.2013)
]]>
https://gbs-schweiz.org/blog/intellektuelle-hipster/feed/ 1