Lieber Besucher, herzlich willkommen bei: MastersForum. Falls dies Ihr erster Besuch auf dieser Seite ist, lesen Sie sich bitte die Hilfe durch. Dort wird Ihnen die Bedienung dieser Seite näher erläutert. Darüber hinaus sollten Sie sich registrieren, um alle Funktionen dieser Seite nutzen zu können. Benutzen Sie das Registrierungsformular, um sich zu registrieren oder informieren Sie sich ausführlich über den Registrierungsvorgang. Falls Sie sich bereits zu einem früheren Zeitpunkt registriert haben, können Sie sich hier anmelden.
Zitat
Original von -=)GWC(RaMsEs
von 50k könnte ich in münchen nicht mehr leben.
In jede Drohne baut man eine per Fernzünder steuerbare Selbstzerstörung ein, die nicht digital abgeschaltet werden kann. Richtet sich die Drohne gegen den Erbauer, muss man nur den Knopf drücken.Ich stelle mir zum Beispiel eine Armee von Dronen vor, die jeden Menschen die sie sieht auslöscht. Da könnte man evtl. nicht viel dagegen machen...
Aber zum Glück ist das noch nicht so weit....
Dann liegt der Fehler aber beim Menschen. Das ist wie wenn man in einer Krisenregion eine bestimmte Volksgruppe bewaffnet und hofft die werden mit diesen Waffen nie gegen den kämpfen der ihnen die Waffen gegeben hat. Das ist in erster Linie dumm. Wenn wir Maschinen erschaffen die uns vernichten sind wir dumm. Wenn wir dann aussterben haben wir es nicht anders verdient.Eine so hoch entwickelte KI wird bestimmt keine Möglichkeit finden den Fernzünder zu deaktivieren... ^^
auch wenn sich das nach einem wahnsinns schritt anhört - es ist doch immer noch 'nur' Go. ein spiel mit vollständiger information und leichten, klar definierten spielregeln. beides sachen, die in der realen welt häufig nicht vorhanden sind.[/url]
Es geht um die Menschheit als Ganzes, nicht um einen einzelnen verrückten Wissenschaftler. Alleine ist man wahrscheinlich nicht mal in der Lage etwas herzustellen was die Menschheit vernichten würde. Dahinter steckt immer eine gewaltige Logistik.
Das ist ähnlich wie beim Holocaust. Da kann sich nicht einer hinstellen und einfach eine Holocaust machen, da braucht man eine gewissen Anzahl Menschen die mitmacht.
Zitat
Die KI müsste das absolut perfekt planen, ihre Vorbereitungen heimlich treffen und erst zu einem Zeitpunkt zuschlagen wo die Menschheit keine Chance hätte sich erfolgreich zu verteidigen.
Zitat
Dann liegt der Fehler aber beim Menschen. Das ist wie wenn man in einer Krisenregion eine bestimmte Volksgruppe bewaffnet und hofft die werden mit diesen Waffen nie gegen den kämpfen der ihnen die Waffen gegeben hat. Das ist in erster Linie dumm. Wenn wir Maschinen erschaffen die uns vernichten sind wir dumm. Wenn wir dann aussterben haben wir es nicht anders verdient.
Dieser Beitrag wurde bereits 2 mal editiert, zuletzt von »jens« (01.11.2017, 14:33)
Ich kann mir die nötige Perfektion einer Intelligenz schlicht nicht vorstellen.Wenn diese Schritte ein Problem für die KI wären, dann ist es wohl (noch) nicht so weit her mit ihrer übernatürlichen Intelligenz ...
wenn dich das thema interessiert und du dich intensiver damit beschäftigen möchtest, kann ich dir das buch 'superintelligence' wärmstens empfehlen.
https://www.amazon.de/Superintelligence-…g=UTF8&qid=&sr=
Zitat
Original von Antares
Sex ist nicht so schön, wie man es sich beim wixen immer vorstellt.
Das wichtigste ist für mich immer noch das wir es hier nur mit Algorithmen von Menschen zu tun haben. Keine Maschine entwickelt eigene. Sie lesen verarbeiten und geben aus. Das können sie sehr gut. Mehr aber nicht. Es wird ja teilweise so dargestellt als ob sie selbständig sich weiterentwickeln wenn sie nur ihre Datenbank vergrössern.