Connect with me

Mobile Phone +49 176 97 873 726

Email: steck-winter@gmx.de

Email: hartmut.steck-winter@live.de

Welcome, Willkommen, Welkom, Bienvenidos, Bonjour, Salaam, Velkommen, Foon Ying, Huaning, Nazdar, Benvido, Aloha, Shalom, Benvenuto, Sprivetom, Amohela, Vaelkommen, Karibu, Gruetzi, Amkela, Ukwemukela

Philosophisches - Philosophical (in German only)

Auf dieser Seite finden Sie philosophische Themen die mich besonders interessieren und über die ich nachdenke. Hier werde ich auch auf Philosophie- und Physikveranstaltungen hinweisen die ich interessant finde.

Philosophische Gedanken

Der Mensch ist das Maß aller Dinge.
Protagoras aus Abdera (490 - 411 v. Chr.), griechischer Philosoph, Sophist

Der Mensch ist nicht das Mass aller Dinge, sondern Leben inmitten von Leben, das auch leben will!
Albert Schweitzer (1875-1965), ev. Theologe, Arzt und Philosoph

Der Mensch ist das Tier, das keines sein will!
Markus Gabriel, Philosoph

Vorlesung Sommersemester 2016 an der Uni in Vaihingen

Philosophischer Diskurs über Weltbild und schwere Krankheit

Die Diagnose einer unheilbaren schweren Erkrankung ist ein Wendepunkt, der das Leben in seiner Ganzheit verändert. Sie zwingt zu einer Auseinandersetzung mit der eigenen Endlichkeit, mit Fragen nach Sinn, Leiden und der Suche nach einem möglichen Frieden mit dieser Diagnose. Hier eröffnet sich ein Raum für die Philosophie, die seit jeher Antworten auf existenzielle Fragen sucht.

Mein Traktat folgt der Spur von sechs philosophischen Fragen, die sich in der philosophischen Literatur um die Schlüsselbegriffe Krankheit, Leiden, Vergänglichkeit, Leben im Moment, Sinnsuche und Hoffnung entfalten.

Traktat Philosophischer Diskurs über Weltbild und schwere Krankheit (Preprint)

Kostenloses Kompendium der abendländischen Philosophie

Ich habe ein individuell editierbares Kompendium der abendländischen Philosophie in OneNote erstellt, das ich auf Anforderung gerne zum kostenlosen Download zur Verfügung stelle. Mein Kompendium ist besonders für Philosophiestudierende geeignet, die mein Kompendium bearbeiten oder ihre eigenen Ergänzungen hinzufügen wollen.

Sie können mein Philosophie Kompendium über den Link in der aktuellen Fassung auch einsehen, aber nicht bearbeiten.

In nachstehenden Screenshot sind die einzelnen Fachbereiche meines Kompendiums und der prinzipielle Aufbau ersichtlich.

Screenshot OneNote

Es umfasst die Kapitel phil. Grundlagen, phil. Epochen, abendländische Philosophen, phil. Disziplinen, phil. Strömungen, phil. Begriffe, Ethiken, phil. Schulen, phil. Gedankenexperimente und phil. Dilemmata. Die einzelnen Disziplinen, Strömungen, Philosophen etc. beinhalten auch eine umfassende Rezeption. Externe Quellen und interne Verweise sind mit Hyperlinks verknüpft.

Das Kompendium ist zwar bereits recht umfassend, wird aber von mir noch ständig weiter bearbeitet. Rückmeldungen und Updates sind mir daher auch gerne willkommen.

Hinweise zur Nutzung von OneNote ohne MS-Office mit OneNote

Du kannst mein externes OneNote-Notizbuch über meinen Link öffnen, auch wenn OneNote nicht auf deinem PC oder iPad installiert ist. Dafür benötigst du lediglich einen Webbrowser und ein Microsoft-Konto. Der Link führt dich in der Regel zur Web-Version von OneNote, die kostenlos genutzt werden kann.

So funktioniert es:

(1) Klicke auf den Link. Der Browser öffnet die OneNote Web App (OneNote Online).

(2) Melde dich mit deinem Microsoft-Konto an (falls erforderlich). Das Notizbuch wird im Browser angezeigt, und du kannst es dort bearbeiten oder ansehen. (2a) Falls du ein Microsoft-Konto hast, aber nicht angemeldet bist, wirst du eventuell zur Anmeldung aufgefordert. (2c) Solltest du kein Microsoft-Konto besitzen, müsstest du ein kostenloses Konto erstellen, um Zugriff auf das Notizbuch zu erhalten.

Moral und Ethik. Gibt es einen Unterschied?

In der heutigen Alltagssprache gebrauchen wir Moral und Ethik weitestgehend synonym. In der akademischen Mainstream-Philosophie wird zwischen diesen beiden Wörtern aber genauestens unterschieden.

Mit Moral bezeichnen wir Normensysteme für das richtige menschliches Verhalten. Ethik ist die Wissenschaft von der Moral.

Die Moral soll für alle gelten, d.h. allgemeingültig sein. Da es in unserer Welt verschiedene Normensysteme gibt, existieren auch verschiedene Moralen (beispielsweise die christliche oder die marxistische Moral). Moralisch handeln ist im jeweiligen Normensystem "sittlich" oder "sittlich gut" handeln.

Die Ethik wird in der Philosophie in drei Teilgebiete unterschieden:

Die deskriptive Ethik fragt, welche Normensysteme die Menschen denn de facto vertreten. Wer glaubt was tun zu müssen?

Die normative Ethik fragt, welche Normensysteme die Menschen vertreten sollten. Was sollten wir tun?

Die Metaethik fragt abstrakt, welchen Status moralische Urteile und Begriffe haben.

Genaugenommen ist also " unethisches Verhalten" kein guter deutscher Wortgebrauch. Gemeint ist damit ein Verhalten, welches nicht unserem Normensystem entspricht. Der passende Ausdruck wäre daher "unmoralisches Verhalten".

Im Englischen gibt es diese Unterscheidung nicht. "Ethics" kann sowohl "morality" oder "morals" bedeuten, als auch die akademische Disziplin Ethik benennen.

Ethik in der Programmierung von autonomen Maschinen?

Die aktuelle Diskussion um selbstfahrende Kraftfahrzeuge wird durch ethische und rechtliche Fragestellungen befeuert [1, 2, 3]. Aus guten Gründen! Wenn auch nicht von annähernd vergleichbarer Bedeutung auf unser aller Alltagsleben, treffen die gleichen Fragen auch für Maschinen und Anlagen im Umfeld der Industrie 4.0 zu. Maschinen und Anlagen in der Industrie 4.0 sollen komplexe Entscheidungen autonom treffen. Aber wie groß soll und darf ihr Handlungsspielraum sein? Welche Moral soll ein Programmierer einer autonomen Maschine zukünftig mit auf dem Weg gegeben?

Programmierung einer autonomen Maschine

Programmierung ist eine Aneinanderreihung von Code in der Software mit dem Ziel die Maschine bestimmte Operationen ausführen zu lassen. Eine „normale“ Maschine folgt ihrem Programm mit klaren Regeln wie "Wenn Schutzgitter geöffnet, dann Stopp". Mit Regeln wird festgelegt, wie sich eine Maschine in einer vom Programmierer vorhergesehenen Situation verhalten soll. Soll heißen: Im Programmcode ist kein Platz für Autonomie und schon gar nicht für Ethik!

Für smarte Maschinen und Anlagen in der Industrie 4.0 kann dies aber so definitiv nicht mehr gelten. Autonome Maschinen lassen ihre Steuerungen mit Hilfe von Lernalgorithmen in neuronalen Netzen selbstständig dazulernen. Autonome Maschinen werden mit entsprechenden Sensoren und Software fähig sein, ihr Umfeld zu erfassen und darauf zu reagieren. Der Programmierer ist dann also nur noch Schöpfer eines digitalen Urgebildes, dessen Programmcodes sich aber als Reaktion auf ihre Umwelt selbsttätig verändern.

Spätestens wenn etwas Unvorhergesehenes passiert haben wir als Schöpfer einer autonomen Maschine ein moralisches und/oder rechtliches Problem. Wie sonst sollten wir es nennen, wenn wir Menschen für Ereignisse zur rechtlich zur Verantwortung gezogen werden, über die sie keine hinreichende Kontrolle haben konnten. Daraus folgt, dass über kurz oder lang eine autonome Maschinen ein Rechtssubjekt ganz eigener Art werden sollte.

Welche Ethik?

Genaugenommen betrachtet „denkt und entscheidet“ die autonome Maschine nämlich zunehmend selbst. Sie verfügt über eine künstliche Intelligenz die ihr Handeln bestimmt. In ihrer Vorgehensweise folgt sie entweder dem deontologischen Prinzip (nach Kant), in welchem das autonome System fest gelegten Regeln gehorchen muss, oder dem konsequentialistischen Prinzip (nach Bentham), bei dem in der jeweiligen Situation der Nutzen maximiert, bzw. ein möglicher Schaden minimiert werden soll.

Das deontologische Prinzip

Das deontologische Prinzip stellt die Handlung an sich, weitestgehend unabhängig von den Konsequenzen, in den Mittelpunkt. Entscheidend ist dabei nur, ob die Handlung Prinzip gemäß ist. Deontologische Normen haben die Gestalt von Befehlen (Handle so, dass die Maxime deiner Handlung ...) , gleichgültig mit welchen Folgen. Regeln den ein Computer bei entsprechender Programmierung schon heute folgen kann. Die Befehlsketten können durchaus komplex sein und auch Sonderfälle berücksichtigen. Wir sprechen dann von Entscheidungsbäumen.

Das konsequentialistische (utilitaristische) Prinzip

Dem gegenüber steht das konsequentialistische Prinzip. Hierbei steht das Ergebnis einer Handlung im Vordergrund. Der einzig moralisch relevante Faktor für die Richtigkeit oder Falschheit einer Handlung sind ihre Folgen. Eine Handlung ist moralisch genau dann richtig, wenn ihre Konsequenzen mindestens so gut sind, wie die Konsequenzen jeder anderen Handlung, die man an ihrer Stelle ausführen könnte.

Bei einer Bewertung in Geldeinheiten wäre die Minimierung eines Sachschadens, bzw. die Maximierung des Nutzens ein mögliches (utilitaristisches) Ziel. Wer will dagegen schon Einwände haben?

Die Nichtaufrechenbarkeit eines Menschenlebens

Wie aber sieht es aus, wenn auch Menschen betroffen sind? Es scheint nämlich kaum denkbar, einen monetären Bewertungsmaßstab auch auf Menschenleben anzuwenden. Wie soll beispielsweise eine autonome Maschine handeln, wenn sie nur die Wahl zwischen einem oder fünf möglichen Toten hat, wie dies im sogenannten Trolley Problem beschrieben wird. Manche Probleme lassen uns keinen Ausweg. Auch eine Entscheidung zum Nicht-Handeln hat dramatische Folgen.

Den Wert eines Lebens gegenüber einem anderen als schützenswerter einzustufen, widerspricht deutschen Rechtsverständnis, welches eher dem deontologischen Prinzip folgend jede Gewichtung von Menschenleben verbietet. Ein deutsches Gesetz, welches es autonomen Maschinen ermöglicht, den Wert von Menschenleben gegeneinander aufzurechnen, ist mit der unantastbaren Würde des Menschen unvereinbar. Die Diskussion um das Luftsicherheitsgesetz, welches den Abschuss eines Passagierflugzeugs zum Schutz Dritter untersagte, weist entsprechende Parallelen auf und verdeutlicht noch einmal die Nichtaufrechenbarkeit eines Menschenlebens.

Die drei Robotergesetze

Ausgangspunkt für die Diskussion einer Ethik in autonomen Maschinen sind häufig die vom Schriftsteller Isaac Asimov im Jahr 1942 entwickelten drei Robotergesetze:
1. Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen (wissentlich) Schaden zugefügt wird.
2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

Die Schwächen der Asimovschen Grundregeln

Zum einen ist es bisher noch nicht gelungen, die Asimovschen Robotergesetze in eine Maschine einzuprogrammieren. Maschinen können die Bedeutung von „Verletzung“ oder „Schutz“ nicht erfassen oder gar verstehen, so dass sie auch keine Entscheidungen vor diesem Hintergrund treffen können. Ebenfalls können Maschinen die Konsequenzen ihrer Handlungen oder deren Unterlassen nicht voraussehen.

Zum anderen, auch wenn diese Situation aus heutiger Sicht unrealistisch erscheint, sollte zumindest die Möglichkeit bedacht werden, dass Maschinen eines Tages klügere Entscheidungen als der Mensch treffen können. Wir sollten ja nicht vergessen, dass genau dieser Punkt auch eine treibende Kraft für die Entwicklung selbstfahrender Fahrzeuge ist. Die zweite Asimovsche Grundregel ließe eine derartige Konstellation jedoch nicht zu.

Ethik in der künstlicher Intelligenz

Die Unmöglichkeit absolute Sicherheit zu erreichen, mögliche Eingriffe von außen und die Möglichkeit des technischen Versagens einzelner Komponenten zwingen uns über eine Ethik in der künstlichen Intelligenz nachzudenken. Gesucht sind Regelungen (Normen), die aus der ethischen Unvollkommenheit autonomer Maschinen führen.

Da es unwahrscheinlich ist, dass alle möglichen Szenarien durch vorab festgelegte Regeln (nach dem deontologischen Prinzip) abgedeckt werden können ohne miteinander zu kollidieren (Dilemmata) oder das Handeln ungewiss sein kann, muss eine autonome Maschine über eine Art künstlicher Ethik verfügen.

Literatur

Dieser Aufsatz basiert auszugsweise auf nachstehender Literatur:
[1] Boeing, N.: Der Richter und sein Lenker. ZEIT Wissen Nr. 6/2015
[2] Lin, P.: Why Ehtics matters for Autonomous Cars. California Polytechnic State University 2015
[3] Randelhoff, M.: Autonomes Fahren, Zukunft des Automobils. Zukunft Mobilität 2016

Können Big Data-Ergebnisse Theorie und Beweis ersetzen?

Klaus Mainzer, Professor für Philosophie und Wissenschaftstheorie an der TU München hat als Wissenschaftsphilosoph in einem lesenswerten Aufsatz kritisch über Big Data nachgedacht. Er fragt ob zukünftig Entscheidungen durch datenverarbeitende Maschinen statt durch Reflexion, Theorie und Gesetze erfolgen. Stehen wir vor dem „Ende der Theorie“, gar vor einem radikalen Paradigmenwechsel?

Dass diese Welt von einer steigenden Datenflut überrollt wird ist Alltagserfahrung. Die wenigsten wissen, woher die Datenströme kommen, wie sie entstehen und welche Gesetzmäßigkeiten ihnen zugrunde liegen. Immer schnellere, kleinere und preiswertere Computer und Sensoren erzeugen immer mehr Daten und automatisieren die Welt. Die großen Datenmassen erlauben günstige neue Geschäftsmodelle.

Warum sollten wir uns lange mit dem Warum und Wieso aufhalten? Schnelle Suchmaschinen finden scheinbar Lösungen unserer Probleme, bevor wir die Ursachen und Gesetze verstanden haben. Einflussreiche Propheten der digitalen Welt propagieren bereits „das Ende der Theorie“.

Ein radikaler Paradigmenwechsel, so glaubt man, in der man die Ursachen und Wirkungen von Krankheiten, Märkten und Verbrechen nicht mehr verstehen muss, sondern durch blitzschnelles Durchforsten von riesigen Datenmengen Muster und Korrelationen erkennt, die Voraussagen erlauben.

Historisch steht die „Warum“-Frage am Anfang menschlichen Denkens in Wissenschaft und Philosophie. Dahinter steht die Überzeugung: Erst wenn wir eine gute Theorie haben, können wir wissen, wonach wir suchen, um die Vielfalt der Welt zu verstehen und zu bewältigen. Die Muster und Korrelationen von Big Data bleiben im Gegensatz im verborgenen, weil wir die zugrunde liegenden Algorithmen und Zusammenhänge nicht verstehen.

Mainzers Aufsatz ist ein Plädoyer für die Besinnung auf die Grundlagen der Wissenschaft. Am Ende geht es, so Mainzer, um eine Stärkung unserer Urteilskraft, d.h. die Fähigkeit, Zusammenhänge zu erkennen, das „Besondere“, wie es bei Kant heißt, mit dem „Allgemeinen“ zu verbinden, in diesem Fall die Datenflut mit Reflexion, Theorie und Gesetzen, damit eine immer komplexer werdende und von Automatisierung beherrschte Welt uns nicht aus dem Ruder läuft.

Der Link zum vollständigen Aufsatz: Die Berechnung der Welt

Links

Sternstunde Philosophie

Wer hat’s erfunden? Die Schweizer haben die Philosophie zwar nicht erfunden, wohl aber die Sternstunde Philosophie. Aber die ist echt gut, nicht nur die Podcasts, auch die Webseite. Wer sich dafür interessiert, was die Welt im Innersten zusammenhält und welche Themen gerade heute besonders Nachdenkenswert sind ist hier genau richtig.

sternstunde

Technischer Fortschritt, Kapitalismus, Digitalisierung und Globalisierung werfen ein neues Licht auf die ewigen Fragen der Philosophie. In der Sternstunde Philosophie reflektieren renommierte Denker die grossen Menschheitsthemen in ihrer aktuellen Gestalt.

Keine Sorge, es geht bei der Sternstunde Philosophie nicht streng hochwissenschaftlich zu. Die Sternstunden-Moderatoren unterhalten sich mit ihren Gästen, durchweg hochkarätigen Philosophen der Gegenwart; beispielsweise Michael Sandel, Peter Singer, Martha Nussbaum oder Richard David Precht, über Fragen und Erkenntnisse die uns alle betreffen.

philosophie.ch

Und gleich noch eine super Webseite aus der Schweiz. Philosophie.ch ist eine thematisch schön gegliederte Anlaufstelle für viele philosophische Themen und Veranstaltungen.

philosophie.ch

Slippery Slopes

In diesem Online-Magazin werden philosophische Rutschpartien organisiert. Die Macher des Blogs lassen dazu alle 14 Tage ein eher lebensweltliches Thema mit philosophischer Relevanz zirkulieren. An diesen Auseinandersetzungen beteiligen sich stets die drei Redakteure dieses Magazins sowie jeweils eine erlesene Gastautorin bzw. ein belesener Gastautor. So richtig in Fahrt kommen die Diskussionen dann, wenn sich die Leserinnen und Leser dieses Magazins durch eigene Kommentare auch selbst daran beteiligen.

Slippery Slopes

Philosophiebegriffe

Goldene Regel

Die goldene Regel „Behandle andere so, wie du von ihnen behandelt werden willst“ oder in ihrer bekannteren Fassung „Was du nicht willst, das man dir tu', das füg auch keinem andern zu“ ist eine universelle Ethik. Sie gilt nicht als irgendeine Regel, die zusätzlich zu schon vorhandenen Verboten und Geboten hinzukommt, sondern die Quintessenz und der Kern aller Moral.

Die Goldene Regel ist seit mehr als zweieinhalbtausend Jahren weltweit bekannt. Der antike griechische Philosoph Thales von Milet (* um 624 v. Chr.; † um 547 v. Chr.) hat die Goldene Regel als Antwort auf die Frage nach der edelsten und gerechtesten Lebensführung genannt. Konfuzius (vermutlich * um 551 v. Chr.; † um 479 v. Chr.) zufolge kann diese Regel ein Leben lang als Richtschnur des Handelns dienen.

Bei der Goldenen Regel wird deutlich, dass sich Eigeninteresse und Altruismus nicht ausschliessen. Gemäß der Goldenen Regel zu leben, ist langfristig nämlich die klügste Art und die beste Weise, sein Eigeninteresse zu vertreten und zugleich für das Wohl anderer zu sorgen. Wenn es mehr Redlichkeit, Mitgefühl, Gerechtigkeit und Frieden in der Welt gibt, haben nicht nur andere etwas davon, sondern auch wir selbst.
Vgl. Bauschke, M.; Stiftung Weltethos: Die Goldene Regel, Berlin 2010

Letzte Aktualisierung am 5.1.2025