Einschreibeoptionen

Mit der fortschreitenden Technisierung unserer Welt halten auch immer fortschrittlichere künstliche System einzug in diese. Für manche Menschen kommt Künstliche Intelligenz (KI) menschlicher Intelligenz erschreckend nahe. Dementsprechend verwundert es nicht, dass immer mehr Forschung sich damit beschäftigt, wie solche Systeme in ihrem Verhalten eingeschränkt werden sollen (und vielleicht sogar müssen?) um ein produktives Miteinander von Menschen unbd Maschine zu gewährleisten.

Die Frage, wie solche adäquaten Enschränkungen aussehen sollen, betrifft die Machinenethik – der Suche nach formalen, eindeutigen, algorithmisierbaren und implementierbaren Verhaltenseinschränkungen für künstliche Systeme, um sie dazu zu befähigen, uns Menschen moralisch akzeptables Verhalten entgegenzubringen. Doch können die für Menschen ersonnenen Moraltheorien überhaupt in künstliche Systeme eingebaut werden? Bei konsequentialistischen Theorien scheint dies problemlos möglich (schließlich ist das Abwägen von Konsequenzen oft ein herkömmlicher Rechenprozess). Doch wie sieht es mit deontologischen oder tugendethischen Moraltheorien aus? Und auch wenn solche Theorien implementiert werden könnten, sollten sie es überhaupt? Schließlich wurde sie für Menschen erstellt und nicht etwa für künstliche Systeme. Hier schließen sich unzählige weitere Fragen an: sind künstliche Systeme überhaupt moralische Akteure? Können sie es überhaupt sein? Wie in fast jeder philosophischen Debatte finden sich hier diametral entgegengesetzte Positionen zu den just genannten Fragen.

Doch selbst wenn die oben genannten Fragen geklärt worden sind (wenn sie denn überhaupt klärbar sind), reicht dies vielen Menschen noch nicht. Selbst zertifiziertes moralisches Verhalten oder algorithmen-TÜVs für künstliche Systeme sind vielen Forschern noch zu wenig. Für den menschengerechten Einsatz von künstlichen Systemen wird oft Maschinenerklärbarkeit gefordet – die Fähigkeit künstlicher Systeme, die Beweggründe für ihr Verhalten und ihre Entscheidungen für Menschen nachvollziehbar darlegen zu können. Die KI-Strategie der Bundesregierung und auch die Expertengruppe für KI auf Europaebene betonen, dass die Nachvollziehbarkeit von künstlichen Systemen unabdingbar für ihren menschengerechten und -freundlichen Einsatz ist.

In diesem Seminar werden wir Einführungstexte zu Maschinenethik und Maschinenerklärbarkeit lesen. Ziel ist es, einen Überblick über die für diese Thematiken relevanten Debatten zu bekommen und den Zusammenhang zwischen Maschinenethik und Maschinenerklärbarkeit darlegen zu können. Das Seminar ist ein Einführungsseminar und richtet sich dementsprechend auch an ein Publikum, was kein Hintergrundwissen aus der Informatik oder ähnlichen Fächern hat.

Die Literatur wird am Semesteranfang bekannt gegeben.

Zeit: Donnerstag 12-14 Uhr 
Ort: Gebäude B2.2 - Seminarraum 1.02
Selbsteinschreibung (TeilnehmerIn)
Selbsteinschreibung (TeilnehmerIn)