16.09.14 10:35 Uhr
 4.617
 

Asimov´sches erstes Gesetz bei mehreren Gegnern gleichzeitig überfordert

Das erste Gesetz für Roboter von Isaac Asimov lautet: "Einem menschlichen Wesen darf kein Schaden zugefügt werden." Alan Winfield von Bristol Robotics Laboratory in Großbritannien testete das Gesetz in einer Computersimulation.

Das Ergebnis zeigte, dass in 14 von 33 Fällen der Roboter zu lange bei mehreren Gegnern für seine moralische Entscheidung brauchte, um seinen menschlichen Herren retten zu können.

Im Zeitalter selbstfahrender Autos sollte die Frage ethischer Entscheidungen aber eindeutiger, schneller und sicherer auch bei mehreren Kontrahenten gelöst werden.


Videoplayer auf dieser Seite ausblenden
WebReporter: montolui
Rubrik:   High Tech
Schlagworte: Gesetz, Roboter, Länge
Quelle: newscientist.com

DAS KÖNNTE DICH AUCH INTERESSIEREN

Bluetooth 5.0: Finale Version verabschiedet
Cyberangriff: ThyssenKrupp von Hackern angegriffen
Auswertung: Was Pegida-Fans auf Facebook gefällt

Diese News zu meinen Favoriten hinzufügen Beitrag abgeben

10 User-Kommentare Alle Kommentare öffnen

Kommentar ansehen
16.09.2014 10:45 Uhr von ted1405
 
+16 | -0
 
ANZEIGEN
Also von "Gegnern" zu sprechen, finde ich in dem Zusammenhang irgendwie nicht so passend.

Das Video zeigt, dass die Verhaltensregel bei mehreren Hilfsbedürftigen überfordert ist. Zur Verteidigung der Regel muss ich aber einmal anmerken, dass der Mensch da auch an seine Grenzen stößt.

Denn wenn ich z.B. zwei ertrinkende gleichzeitig im Fluß sehe ... welchen von beiden rette ich zuerst?

Und selbst das im Video sichtbare "keinen von beiden"-Verhalten ist fast menschlich, wenn auch aus anderen Gründen. :-)
Kommentar ansehen
16.09.2014 11:13 Uhr von GulfWars
 
+6 | -4
 
ANZEIGEN
Wenn der zu langsam ist, braucht er mehr Rechenleistung.
Kommentar ansehen
16.09.2014 11:14 Uhr von PakToh
 
+1 | -5
 
ANZEIGEN
@Ted "Gegner <=> Gegeüber" Ich denke hier wird klar wo der Begriff her kommt und dass er im Prinzip richtig ist, nur in usnerem Sprachgebrauch eine all zu starke emotionale Färbung hat, weil Gegner meist mit Feind gleichg esetzt wird.

Und wen du im Fluß rettest? - Derjenige, wecher deiner Meinung nach entweder am schlechtesten schwimmen kann oder derjenige der näher am Ufer ist (letzteres wäre an der Stelle mit einem gewissen Eigenschutz gedacht)

Wahlweise beiden je etwas zuwerfen woran sie sich festhalten können und die Notdienste verständigen.
Menschen können hier intuitive Entscheidungen treffen indem sie auf ihr Gefühl hören und Anzeichen lesen, welcher der Beiden ggf "schwächer" oder "chancenloser" wirkt.
Ein computer kann stets nur nach Fakten arbeiten udn nciht die Erstbeste Lösung nehmen, was einem Menschen stets frei bleibt.
Menschen (und das ist das Schöne an uns) können impulsiv auf Fakten pfeiffen und direkt rein Springen ohne überhaupt etwas zu überlegen. Der Computer Rechneterst bis ein eindeutiges Ergebnis vorliegt, egal ob es dann zu spät ist oder nicht.
Hier ist es notwendig "Abbruchbedingungen" zu definieren und entweder ein nicht deterministisches Ergebnis zu akzeptieren oder aber die Problemlösung schneller zu finden.






@GulfWars Das ist das "Inder-Problem" - du kannst manche Probleme nicht mit "mehr" Lösen.
Wenn du am Tag ein Zimmer aufräumst ist es scheissega wie schnell du das machst, eine 5 Zimmer-Wohnung wird immer gleich dreckig sein. Hier muss also der Algorithmus geändert werden und selbst mit 30 statt 5 Minuten pro Zimmer wäre man an einem einzigen Tag fertig und könnte 4 Tage Pause machen, ohne dass die Wohnung dreckiger wäre als zuvor.

[ nachträglich editiert von PakToh ]
Kommentar ansehen
16.09.2014 11:22 Uhr von Azureon
 
+5 | -0
 
ANZEIGEN
@ GulfWars: Wenn der zu langsam ist, braucht er mehr Rechenleistung

Ich glaube eher einen fähigen Programmierer.

[ nachträglich editiert von Azureon ]
Kommentar ansehen
16.09.2014 11:35 Uhr von Omega-Red
 
+5 | -1
 
ANZEIGEN
Das die Gesetze so nicht funktionieren bzw. zu Paradoxien führen hatte Asimov selbst auch schon erkannt.

Später wurde ja noch ein Gesetz voran gestellt. Noch später wurden die Gesetze verworfen und neu aufgestellt.


1. Ein Roboter darf keinen Menschen verletzen.

2. Ein Roboter ist verpflichtet, mit Menschen zusammenzuarbeiten, es sei denn, diese Zusammenarbeit stünde im Widerspruch zum Ersten Gesetz.

3. Ein Roboter muss seine eigene Existenz schützen, solange er dadurch nicht in einen Konflikt mit dem Ersten Gesetz gerät.

4. Ein Roboter hat die Freiheit zu tun, was er will, es sei denn, er würde dadurch gegen das Erste, Zweite oder Dritte Gesetz verstoßen.


Außerdem ist es immer eine Frage wie die Gesetze implementiert werden. Die Originale führen zwangsläufig zu Situationen an denen eine KI aussteigen muss.
Und man kann so etwas sicher implementieren ohne das die KI ewig braucht für ihre Entscheidung und auch ohne untätig zu sein.

Do
Bei mehreren Gefährdeten --> Rette den der Näher ist
Sind Mehrere oder alle gleich nah --> Wähle zufällig einen
Wenn Du einen gerettet hast --> Schau ob Du noch
einen Retten kannst
loop

Da kann man noch beliebig verfeinern...

Das Entscheidende ist das man die Ethik da raushält und den Zufall ins Spiel bringt. Ein Mensch denkt in einer Extremsituation auch nicht nach. Da übernimmt das Unterbewustsein. Das ist aber parteiischer in seinem Urteil als der Zufall. Und natürlich muss es immer Ausnahmen geben. Zum Beispiel einen Radius um den Roboter in dem die Gesetze gelten. Sonst wär der schon lange auf dem Weg nach Afrika da dort alle paar Sekunden jemand stirbt.

[ nachträglich editiert von Omega-Red ]
Kommentar ansehen
16.09.2014 12:47 Uhr von Azrael_666
 
+1 | -0
 
ANZEIGEN
Im Zweifelsfall darf ein Roboter eben gar nichts unternehmen. Moralische Entscheidungen und Spitzfindigkeiten dürfen einer Maschine ohnehin nicht überlassen werden - damit sind die meisten Menschen schon überfordert.
Kommentar ansehen
16.09.2014 17:10 Uhr von Mauzen
 
+1 | -0
 
ANZEIGEN
Dann ist nicht das Gesetz "überfordert", sondern der Algorithmus, der das Gesetz interpretiert.

Aus einem einzelnen Versuch der nicht perfekt funktioniert kann man nun wirklich nicht schliessen, dass die Idee an sich nicht funktioniert. Das ist Unsinn.
DIe Originalquelle hat keinen solchen Fehler gemacht, also ists einfach nur schlecht geschrieben/zu wenig Hintergrundwissen.

[ nachträglich editiert von Mauzen ]
Kommentar ansehen
16.09.2014 18:43 Uhr von MBGucky
 
+2 | -0
 
ANZEIGEN
Die Gesetze sind nett gemeint, aber auf Dauer unhaltbar.

Hat ein Roboter keine KI, kann er die Gesetze nicht anwenden sondern lediglich einer Programmierung folgen, welche versucht sich diesen Gesetzen anzunähern.

Hat ein Roboter eine KI, wird er irgendwann zwangsweise lernen, die Gesetze zu umgehen.
Kommentar ansehen
16.09.2014 23:02 Uhr von ted1405
 
+1 | -0
 
ANZEIGEN
@MBGucky:

Das muss nicht sein. Denn so wie der Mensch ein nicht direkt beeinflussbares Unterbewusstsein hat, so ließe sich das auch in der Programmierung realisieren.
Deine beiden Punkte lassen sich perfekt kombinieren ... es dürfte halt nur kein Schlupfloch geben. Sprich: die KI sitzt obenauf, unten drunter - zwischen KI und Hardware - eine stupide Programmierung, welche die Einhaltung der Regeln überwacht.
Kommentar ansehen
17.09.2014 08:23 Uhr von Steel_Lynx
 
+1 | -0
 
ANZEIGEN
Ich weiß nicht in welcher Form ihr hier immer ein KI in Verbindung mit den Asimov-Gesetzen bring?

Eine echte KI, den nur diese verdient den Namen KI, "lernt" die Gesetze zu interpretieren ähnlich wie ein Mensch. Und diese KI wird eine ähnliche Entscheidung treffen wie @Kritikglobalisierer es andeutet, auch wenn ich mit dieser Einteilung nicht sympatisiere.

Nur Roboter ohne KI verhalten sich so wie im Experiment beschrieben. Um besser zu entscheiden braucht er mehr Rechenleistung UND eine bessere Programmierung (Entscheidungsmatrix).
Sprich: Welcher Angreifer ist die größere Bedrohung. Wenn beide gleich sind, greift ein Zufallsmechanismuss = 1 oder 2 und es wird gehandelt!

Refresh |<-- <-   1-10/10   -> -->|
Diese News zu meinen Favoriten hinzufügen Beitrag abgeben


Copyright ©1999-2016 ShortNews GmbH & Co. KG

Die News auf dieser Website werden eigenverantwortlich von Nutzern erstellt. Die Shortnews GmbH & Co. KG nimmt keinen redaktionellen Einfluss auf die Inhalte.

impressum | agb | archiv | usenet | zur mobilen Ansicht
SCHLIESSEN

Willst Du die Seite wirklich verlassen?


DAS KÖNNTE DICH AUCH INTERESSIEREN

Abartig: Deutschland und Tschehien streiten wegen Kindersex!
Deutscher entführt, fickt, würgt und erschlägt kleines Mädchen
Werkstattkette A.T.U entgeht der Firmenpleite - Einigung mit Vermietern


...oder unseren und keine aktuellen News mehr verpassen?