Maschinen und Roboter übernehmen in Industrie und Wirtschaft immer mehr Aufgaben. Aufgaben, die früher noch von Menschenhand erledigt wurden. Doch was bedeutet das konkret für uns? Kann man Ethik programmieren?
Programmierer finden sich zunehmend in Situationen wieder, wo von Software moralische oder ethische Entscheidungen gefordert werden. Egal ob Uploadfilter oder selbstfahrende Autos, künftig gilt zu entscheiden, wie Ethik in Code umgesetzt werden kann. Wie ist es möglich, das gewünschte Verhalten zu implementieren? Autonome Autos müssen künftig entscheiden können, wie sie in einem Notfall reagieren. Schützen sie im Falle einer unkontrollierbaren Situation die Insassen oder andere Verkehrsteilnehmer? Welches Leben ist als schützenswerter anzusehen? Soll das Auto im Zweifelsfall das Baby oder den Rentner retten?
Grundsätzlich wäre es nötig, die von der Gesellschaft anerkannten Regeln und Modelle guten Verhaltens in berechenbare, deterministische und objektive Regelsysteme zu übersetzen. Doch leider sind unsere Regeln abstrakt und variieren von Kultur zu Kultur und von Mensch zu Mensch. Aktuelle Ansätze des Versuchs, Ethik in Code zu betten, scheiterten bisher. Oft kam es dabei sogar zu höchst diskriminierenden Ergebnissen.
So beispielsweise am MIT, dem Massachusetts Institute of Technology. Wissenschaftler versuchten, mithilfe der Plattform “Moral Maschine” ethische Entscheidungen auszuhandeln – wie sich ein selbstfahrendes Auto auf der Straße zu verhalten habe. Nutzer weltweit entschieden in einem kleinen Point and Click Game über das Schicksal verschiedener Passanten. Die Ergebnisse waren unerwartet: so sollte das Auto lieber Kriminelle statt Hunde überfahren.
Ethik in einfache Regeln zu gießen mag in der Videospielbranche funktionieren, ist im echten Leben nach aktuellem Stand der Technik aber nicht möglich. Moralische Entscheidungen sind komplexe Denkprozesse, sozial wie psychologisch. Sie werden trotz identischer Grundlagen je nach sozialem, gesellschaftlichen oder kulturellen Hintergrund des Entscheiders getroffen und können zu vollkommen unterschiedlichen Ergebnissen führen – je nach Erfahrungswerten und Tagesform.
Das scheint ja voll zu funktionieren…!!???
Das Ergebnis soll ja nicht ein fehlerfrei immer richtig entscheidendes human alter ego entwickelt werden den der mensch ist ein Individuum dessen Verhalten bei identischer Situation nicht jeder die gleiche Wahl treffen wird dies gegeben durch seine Erfahrung Erziehung und andere Prioritäten, das Beispiel mit den Hunden und kriminelle ist ein gutes Beispiel,das Opfer einer schlimmen Tat würde sicher den kriminellen vor dem Tier setzen;obwohl es nicht für ihn sondern für unbeteiligte die seine Entscheidung sogar strafen werde nicht nachvollziehen, das Experiment wird erfolgreich sein nicht wenn die KI besser als die BI sein wird sondern nicht schlechter….
Mfg
Sry 4 my German
Problem wird sein; bei ‘Fehlentscheidung’ wer wird die Konsequenzen tragen,der Software programmierer;der Hersteller oder…?
Andrer guter Beispiel im Artikel; Szenario Kleinkind oder ältere Person… da wird der computer in seiner Logik dem Kleinkind Vorrang geben normalerweise; der Mensch ((nicht jeder)) wird überlegen,
Hmmm….habe mehr Vorteile den älteren zu retten weil Interesse oder andere Variablen mit im ‘Spiel’ sind, Beförderung,Belohnung.
Wird die KI-Technik soweit kommen und den Mensch als eigentlichen Störfaktor in einer digitalen ethischere Denkweise und als Hürde zur Durchsetzung von absolut 1 oder 0 richtig falsch als unerwünscht sehen und uns entmachten.
???
Sogar der Papst hat sich auf die Gefahren von ki geäußert.
Schlussendlich wird es der mensch sein der die Enter taste drückt und dann abwarten….
Mfg
Jmb