Sie sind nicht angemeldet.

  • Anmelden

Lieber Besucher, herzlich willkommen bei: MastersForum. Falls dies Ihr erster Besuch auf dieser Seite ist, lesen Sie sich bitte die Hilfe durch. Dort wird Ihnen die Bedienung dieser Seite näher erläutert. Darüber hinaus sollten Sie sich registrieren, um alle Funktionen dieser Seite nutzen zu können. Benutzen Sie das Registrierungsformular, um sich zu registrieren oder informieren Sie sich ausführlich über den Registrierungsvorgang. Falls Sie sich bereits zu einem früheren Zeitpunkt registriert haben, können Sie sich hier anmelden.

1

30.10.2017, 13:07

Spannend oder beängstigend?

http://www.spiegel.de/wissenschaft/techn…-a-1175130.html

Ich finde es ehrlich gesagt eher beängstigend, welche Fortschritte der Bereich künstliche Intelligenz macht. Vielleicht habe ich zu viele Filme gesehen / Romane gelesen aber ich stelle mir vor, dass der Mensch sich damit quasi abschafft und/oder gar die Kontrolle verliert. Natürlich ist es auch ein sehr spannendes Thema (die KI trainiert sich selbst ohne Zutun des Menschen) aber ähnlich wie im Bereich der Genetik mit schwer absehbaren Folgen?

2

30.10.2017, 16:36

auch wenn sich das nach einem wahnsinns schritt anhört - es ist doch immer noch 'nur' Go. ein spiel mit vollständiger information und leichten, klar definierten spielregeln. beides sachen, die in der realen welt häufig nicht vorhanden sind.

dennoch muss beim fortschritt in der ki-entwicklung genau hingeschaut werden, um potentiell apokalyptische auswirkungen zu verhindern. wenn dich das thema interessiert und du dich intensiver damit beschäftigen möchtest, kann ich dir das buch 'superintelligence' wärmstens empfehlen.
https://www.amazon.de/Superintelligence-…g=UTF8&qid=&sr=

3

30.10.2017, 16:44

Künstliche Intelligenz ist doch toll, problematisch wird es erst wenn ein Mensch vergisst den Notschalter mit einzubauen.
Demokratie ist die schlechteste Regierungsform, mit Ausnahme aller anderen die wir bis jetzt ausprobiert haben!

Beiträge: 2 917

Wohnort: Seehausen am Staffelsee

Beruf: Statistiker

  • Nachricht senden

4

31.10.2017, 02:59

Ich stelle mir zum Beispiel eine Armee von Dronen vor, die jeden Menschen die sie sieht auslöscht. Da könnte man evtl. nicht viel dagegen machen...
Aber zum Glück ist das noch nicht so weit....
live is live, nana nanana :D

Zitat

Original von -=)GWC(RaMsEs
von 50k könnte ich in münchen nicht mehr leben.

SchuLz

Profi

Beiträge: 922

Wohnort: Deutschland

Beruf: GER

  • Nachricht senden

5

31.10.2017, 11:31

Verstecken, warten bis der Strom ausgeht, die Viecher zerfetzen. :up:

6

31.10.2017, 11:56

Ich finde diese Entwicklung ehrlich gesagt ganz und gar nicht beängstigend. Ich finde sie eher unglaublich spannend und faszinierend. Die Möglichkeiten, die solch eine Forschung mit sich bringt, scheinen unendlich. Die Menschheit könnte dadurch einen gewaltigen Sprung machen.

7

31.10.2017, 12:08

Ich stelle mir zum Beispiel eine Armee von Dronen vor, die jeden Menschen die sie sieht auslöscht. Da könnte man evtl. nicht viel dagegen machen...
Aber zum Glück ist das noch nicht so weit....
In jede Drohne baut man eine per Fernzünder steuerbare Selbstzerstörung ein, die nicht digital abgeschaltet werden kann. Richtet sich die Drohne gegen den Erbauer, muss man nur den Knopf drücken.
Demokratie ist die schlechteste Regierungsform, mit Ausnahme aller anderen die wir bis jetzt ausprobiert haben!

8

31.10.2017, 14:09

Eine so hoch entwickelte KI wird bestimmt keine Möglichkeit finden den Fernzünder zu deaktivieren... ^^

Ich glaube das einzige was gegen eine Machtübernahme der Maschinen spricht ist das "Warum".
Menschen, Tiere oder auch Pflanzen haben immer einen Grund für die Dinge die sie tun, sei es Fortpflanzung, Machtgier, Langeweile, Hass oder Liebe.

Nur wenn Maschinen so etwas wie ein Ego entwickeln, könnte es haarig werden, aber da sind wir glaub ich noch Lichtjahre von entfernt. :)

9

31.10.2017, 14:12

Eine so hoch entwickelte KI wird bestimmt keine Möglichkeit finden den Fernzünder zu deaktivieren... ^^
Dann liegt der Fehler aber beim Menschen. Das ist wie wenn man in einer Krisenregion eine bestimmte Volksgruppe bewaffnet und hofft die werden mit diesen Waffen nie gegen den kämpfen der ihnen die Waffen gegeben hat. Das ist in erster Linie dumm. Wenn wir Maschinen erschaffen die uns vernichten sind wir dumm. Wenn wir dann aussterben haben wir es nicht anders verdient.
Demokratie ist die schlechteste Regierungsform, mit Ausnahme aller anderen die wir bis jetzt ausprobiert haben!

SchuLz

Profi

Beiträge: 922

Wohnort: Deutschland

Beruf: GER

  • Nachricht senden

10

31.10.2017, 14:38

Angenommen einer von euch will eine solche Maschine bauen, die intelligenter ist als wir und uns alle vernichten könnte, wenn sie es denn wollte.

Ich habe ja nicht mitgebaut und angenommen, ich will auch so eine Maschine nicht: Darf ich dann denjenigen aus Notwehr töten, der diese Maschine gerade am bauen ist? Denn schließlich betrifft der Bau ja potentiell auch mein Leben. Und das von 99,999% der Weltbevölkerung. Und meine Meinung ist, dass man es mir nicht zumuten kann, zu sterben, nur weil ein anderer "dumm" ist.

Weil in diesem "Wenn wir Maschinen erschaffen die uns vernichten sind wir dumm. Wenn wir dann aussterben haben wir es nicht anders verdient" klingt immer mit, es wäre von 100% aller Menschen getragen. Das Gegenteil wird aber der Fall sein, es entscheiden ganz ganz wenige, ob an sowas geforscht wird und wie geforscht wird und was am Ende realisiert wird.

Ist es moralisch vertretbar, dass die gesamte Spezies ausstirbt, nur weil ein paar Leute "dumm" sind? Oder muss sich die Spezies solcher Hirne einfach entledigen und diese Leute aus der Welt pusten?

11

31.10.2017, 16:19

Wer entscheidet ab wann eine Erfindung zum auslöschen der Menschheit führen wird, ich kann mich erinnern, kurz vor Inbetriebnahme des CERN stand in den Zeitungen "wird ein künstliches schwarzes Loch die Menschheit vernichten?"
Was is passiert? Nix.
Fortschritt beinhaltet wohl immer ein paar Gefahren, darauf verzichten will ich des Wegen aber nicht darauf.

12

31.10.2017, 16:50

Es geht um die Menschheit als Ganzes, nicht um einen einzelnen verrückten Wissenschaftler. Alleine ist man wahrscheinlich nicht mal in der Lage etwas herzustellen was die Menschheit vernichten würde. Dahinter steckt immer eine gewaltige Logistik.

Das ist ähnlich wie beim Holocaust. Da kann sich nicht einer hinstellen und einfach eine Holocaust machen, da braucht man eine gewissen Anzahl Menschen die mitmacht.
Demokratie ist die schlechteste Regierungsform, mit Ausnahme aller anderen die wir bis jetzt ausprobiert haben!

SchuLz

Profi

Beiträge: 922

Wohnort: Deutschland

Beruf: GER

  • Nachricht senden

13

31.10.2017, 22:10

Ja das ist mir schon klar, dass man "ein paar Leute" braucht, besonders realistisch ist das ja auch zum Glück nicht. Kam mir nur so in den Sinn.

Das mit dem CERN ist aber zu 100% Esoterik-Schwachmaten-Kokolores gewesen, das war aber auch schon damals sonnenklar.

14

31.10.2017, 22:30

auch wenn sich das nach einem wahnsinns schritt anhört - es ist doch immer noch 'nur' Go. ein spiel mit vollständiger information und leichten, klar definierten spielregeln. beides sachen, die in der realen welt häufig nicht vorhanden sind.[/url]


Das ist ja auch nur ein Anfang. Go ist schon komplex und weitaus beeindruckender als die Leistung an sich ist, dass die letzte Generation sich selbst trainiert hat. Wenn man sich mal überlegt, welche Entwicklung Computer, Vernetzung und KI in den letzten 20 Jahren gemacht hat, werden wir es vermutlich noch erleben, dass KIs uns überlegen sein werden. Dazu rein rational, ohne Werte oder Moral, sofern nicht unüberwindbar hineinprogrammiert. Was gestern noch Science Fiction war, ist heute schon real.

15

31.10.2017, 22:34

Es geht um die Menschheit als Ganzes, nicht um einen einzelnen verrückten Wissenschaftler. Alleine ist man wahrscheinlich nicht mal in der Lage etwas herzustellen was die Menschheit vernichten würde. Dahinter steckt immer eine gewaltige Logistik.

Das ist ähnlich wie beim Holocaust. Da kann sich nicht einer hinstellen und einfach eine Holocaust machen, da braucht man eine gewissen Anzahl Menschen die mitmacht.


Wir vernetzen alles immer weiter, nichts geht mehr ohne Strom und Computersteuerung. Da brauchst Du irgendwann keine Menschen mehr, um uns zurück in die Steinzeit zu katapultieren. Wenn dann eine KI in der Lage ist, sich übers Netz zu vervielfältigen und - weshalb auch immer - der Überzeugung ist, der Welt wäre ohne Menschen besser dran... Ich sehe da schon ein Risiko. ;)

Natürlich ist es auch spannend und eröffnet sicher tolle Möglichkeiten, nur braucht man die? Wozu genau?

16

31.10.2017, 22:41

Einen GAU kann es ja mal geben, nur die Vernichtung der Menschheit durch eine KI kann ich mir nicht vorstellen.

Die KI müsste das absolut perfekt planen, ihre Vorbereitungen heimlich treffen und erst zu einem Zeitpunkt zuschlagen wo die Menschheit keine Chance hätte sich erfolgreich zu verteidigen.

Auch könnte es andere KIs geben die gegen die "böse" KI arbeiten.

Ich denke die Summe der Variablen ist zu hoch. Das ist wie wenn man ein Schachspiel durchplant bevor man weiß welche Züge der Gegner machen wird, eigentlich unmöglich.
Demokratie ist die schlechteste Regierungsform, mit Ausnahme aller anderen die wir bis jetzt ausprobiert haben!

17

01.11.2017, 11:07

Zitat


Die KI müsste das absolut perfekt planen, ihre Vorbereitungen heimlich treffen und erst zu einem Zeitpunkt zuschlagen wo die Menschheit keine Chance hätte sich erfolgreich zu verteidigen.



Wenn diese Schritte ein Problem für die KI wären, dann ist es wohl (noch) nicht so weit her mit ihrer übernatürlichen Intelligenz ...


Zitat


Dann liegt der Fehler aber beim Menschen. Das ist wie wenn man in einer Krisenregion eine bestimmte Volksgruppe bewaffnet und hofft die werden mit diesen Waffen nie gegen den kämpfen der ihnen die Waffen gegeben hat. Das ist in erster Linie dumm. Wenn wir Maschinen erschaffen die uns vernichten sind wir dumm. Wenn wir dann aussterben haben wir es nicht anders verdient.


Das ist ja genau der Knackpunkt der ganzen Diskussion. Wie kann man die Entwicklung sicher gestalten?
Es gibt da nunmal sehr viele Szenarien, die im Ausgang garnicht rosig für uns aussehen.


Ein paar Stichpunkte dazu, über die ihr nachdenken könnt oder auch nicht:

- Eine KI braucht ein vernünftiges Confinement, um einen Not-Aus zu ermöglichen
- Eine nicht-vernetzte KI ist nicht sonderlich hilfreich für uns (Widerspruch zur Aussage darüber)
- Eine KI kann ihre Intelligenz nutzen, um aus dem Confinement auszubrechen (Hacken / Menschen manipulieren, die ihr dann Zugang zur vernetzen Welt schaffen)
- Eine KI wird keine oder andere moralische Werte haben als der Mensch
- Eine KI wird möglicherweise ihre Absichten verstecken, wenn das Wissen um ihre Absichten zum Ausschalten der KI durch den Menschen führen könnte
- Eine KI könnte sich möglicherweise auf andere Hardware duplizieren/hacken, sobald sie Zugang zum Internet hat
- Eine KI in der Zukunft wird in einer hochvernetzen Welt leben und könnte zum Beispiel vollautomatisierte Labore/Fabriken hacken, um Gewalt über physiche Aktuatoren zu erlangen.
- Wenn die KI denkt, dass die Menschheit ihr zum Erlangen ihrer Ziele im Weg steht, könnte sie z.B. vollautomatisierten Biolaboren den Code schicken, um ein extrem gefährliches Gift/Virus zu produzieren.
- Es ist anzunehmen, dass die KI, sofern sie über unvorstellbare Intelligenz verfügt, tausende Wege finden würde, in kurzer Zeit den Großteil der Menschheit auszurotten.

Der wichtigste Punkt bei der ganzen Sache:

KIs sind selbstlernend. Sobald es eine KI gibt, die in die nähe der Intelligenz eines Menschens kommt, kann es zu einer 'Intelligenzexplosion' kommen. Innerhalb kürzester Zeit (Stunden/Tage/Wochen) ist es theoretisch denkbar, dass die KI ihre Intelligenz ohne das Zutun des Menschen/der Programmierer ihre Intelligenz durch selbstständiges Lernen/Verbessern ihrer Selbst/des Sourcecodes für Menschen aktuell völlig unvorstellbare Intelligenzlevels erreicht (siehe auch: Go besser können als der beste lebende Profispieler innerhalb von 3 Tagen). Ob das alles wirklich so zutreffen kann (und ob es überhaupt möglich ist, eine General-Purpose KI zu erschaffen, die an die Intelligenz des Menschen reicht, ist natürlich reine Spekulation. Aber die möglichen apokalyptischen Szenarien machen es dennoch nötig, sich darüber VORHER Gedanken zu machen, und nicht erst wenn es so weit ist.

Wenn es erstmal so weit kommt, könnte es schnell zu spät sein, um noch irgend etwas dagegen zu tun.



Das ist aber jetzt alles unabhängig von AlphaGo Zero. Sicherlich ist das eine beeindruckende Leistung des Teams von DeepMind. Aber reinforcement learning in Form von gegen-sich-selber-spielen ist auch kein neuer Ansatz, sondern wird seit zig Jahren immer mehr aktiv und erfolgreich eingesetzt. Für mich ist das kein 'Meilenstein' in der KI-Forschung, sondern ein inkrementelles Upgrade. Aber auf jeden Fall ein beeindruckendes!

Dieser Beitrag wurde bereits 2 mal editiert, zuletzt von »jens« (01.11.2017, 14:33)


18

01.11.2017, 13:49

Wenn diese Schritte ein Problem für die KI wären, dann ist es wohl (noch) nicht so weit her mit ihrer übernatürlichen Intelligenz ...
Ich kann mir die nötige Perfektion einer Intelligenz schlicht nicht vorstellen.
Demokratie ist die schlechteste Regierungsform, mit Ausnahme aller anderen die wir bis jetzt ausprobiert haben!

Yezariael

Erleuchteter

Beiträge: 5 150

Wohnort: ... da wars dunkel und kalt...

  • Nachricht senden

19

02.11.2017, 12:51

wenn dich das thema interessiert und du dich intensiver damit beschäftigen möchtest, kann ich dir das buch 'superintelligence' wärmstens empfehlen.
https://www.amazon.de/Superintelligence-…g=UTF8&qid=&sr=



Ich kann euch zum Thema den Roman Der Herr aller Dinge empfehlen...
Hab ihn vor ein paar Jahren gelesen und er hat mich eine Zeit lang ziemlich beschäftigt.
Eine KI die sich selbst reproduziert, ziemlich erschreckend

Wiki der Herr aller Dinge

Zitat

Original von Antares
Sex ist nicht so schön, wie man es sich beim wixen immer vorstellt.

20

03.11.2017, 07:38


Ein (hoffentlich) augenöffnendes Video über die Zukunft der Arbeit...

21

04.11.2017, 18:00

Das wichtigste ist für mich immer noch das wir es hier nur mit Algorithmen von Menschen zu tun haben. Keine Maschine entwickelt eigene. Sie lesen verarbeiten und geben aus. Das können sie sehr gut. Mehr aber nicht. Es wird ja teilweise so dargestellt als ob sie selbständig sich weiterentwickeln wenn sie nur ihre Datenbank vergrössern.

22

05.11.2017, 11:55

Das wichtigste ist für mich immer noch das wir es hier nur mit Algorithmen von Menschen zu tun haben. Keine Maschine entwickelt eigene. Sie lesen verarbeiten und geben aus. Das können sie sehr gut. Mehr aber nicht. Es wird ja teilweise so dargestellt als ob sie selbständig sich weiterentwickeln wenn sie nur ihre Datenbank vergrössern.

Ich würde der Aussage komplett widersprechen. Es gibt jetzt schon AI die AI Software schreibt, wobei man sich hier noch streiten kann in wie weit das als eigenständige Softwareentwicklung zu sehen ist. Prinzipiell spricht aber nichts dagegen, dass sich Software selbstständig weiterentwickelt.

Das Besondere an den Neuronalen Netzen ist eben, dass man keine herkömmlichen Algorithmen mehr schreibt, sondern lediglich das Setup bereit stellt und es dem System mehr oder weniger selbst überlässt zu einer Lösung zu gelangen. Am Ende kann man nicht mehr verstehen wie es zu dieser Lösung gelangt ist.

@Humans Need Not Apply: Einfach großartig, wir sprechen hier von nicht weniger als der Überwindung der Arbeit. Ich hoffe, dass das nicht mehr lange auf sich warten lässt.

23

05.11.2017, 14:35

Schön, dann haben wir die Arbeit überwunden... nur wovon leben die Menschen dann, die nicht reich sind? Erstmal bedeutet das mehr Arbeitslosigkeit und Armut. Und wonach streben? Auf legale Weise kannst Du dann nur noch mit Kreativität etwas verdienen und auch das nur begrenzt, denn so viele Künstler braucht die Welt nicht. Also Suche nach dem Sinn des Lebens und Depressionen?

AI wird sich erweitern und vervielfältigen können und ist dem Sinne dann auch keine Maschine mehr. Vermutlich sind neuronale Netze in dem Sinne noch kein Bewusstsein, aber auch das wird kommen. Durch Vernetzung gibt es dann auch keinen Power-off-Button.

24

05.11.2017, 21:38

Wir müssen uns dann neue Methoden der (Um-)Verteilung ausdenken. Eine Art Grundeinkommen für die alltäglichen Konsumbedüfrnisse ist das naheliegenste, schwieriger wird es beispielsweise bei der Frage "Wer darf wo wohnen und dabei wieviel Platz verbrauchen?", also der Verteilung von Gütern die nicht durch Maschinen produziert werden können.

"Kreativität" wird sogar noch als eines der ersten Gebiete durch Maschinen erledigt, sowohl im Business als auch in Musik und Kunst.

Und wir haben dann endlich Zeit den ganzen Tag Age zu spielen :D .