You are not logged in.

  • Login

Dear visitor, welcome to MastersForum. If this is your first visit here, please read the Help. It explains in detail how this page works. To use all features of this page, you should consider registering. Please use the registration form, to register here or read more information about the registration process. If you are already registered, please login here.

1

Monday, October 30th 2017, 1:07pm

Spannend oder beängstigend?

http://www.spiegel.de/wissenschaft/techn…-a-1175130.html

Ich finde es ehrlich gesagt eher beängstigend, welche Fortschritte der Bereich künstliche Intelligenz macht. Vielleicht habe ich zu viele Filme gesehen / Romane gelesen aber ich stelle mir vor, dass der Mensch sich damit quasi abschafft und/oder gar die Kontrolle verliert. Natürlich ist es auch ein sehr spannendes Thema (die KI trainiert sich selbst ohne Zutun des Menschen) aber ähnlich wie im Bereich der Genetik mit schwer absehbaren Folgen?

2

Monday, October 30th 2017, 4:36pm

auch wenn sich das nach einem wahnsinns schritt anhört - es ist doch immer noch 'nur' Go. ein spiel mit vollständiger information und leichten, klar definierten spielregeln. beides sachen, die in der realen welt häufig nicht vorhanden sind.

dennoch muss beim fortschritt in der ki-entwicklung genau hingeschaut werden, um potentiell apokalyptische auswirkungen zu verhindern. wenn dich das thema interessiert und du dich intensiver damit beschäftigen möchtest, kann ich dir das buch 'superintelligence' wärmstens empfehlen.
https://www.amazon.de/Superintelligence-…g=UTF8&qid=&sr=

3

Monday, October 30th 2017, 4:44pm

Künstliche Intelligenz ist doch toll, problematisch wird es erst wenn ein Mensch vergisst den Notschalter mit einzubauen.
Demokratie ist die schlechteste Regierungsform, mit Ausnahme aller anderen die wir bis jetzt ausprobiert haben!

Posts: 2,877

Location: Seehausen am Staffelsee

Occupation: Statistiker

  • Send private message

4

Tuesday, October 31st 2017, 2:59am

Ich stelle mir zum Beispiel eine Armee von Dronen vor, die jeden Menschen die sie sieht auslöscht. Da könnte man evtl. nicht viel dagegen machen...
Aber zum Glück ist das noch nicht so weit....
live is live, nana nanana :D

Quoted

Original von -=)GWC(RaMsEs
von 50k könnte ich in münchen nicht mehr leben.

SchuLz

Professional

Posts: 884

Location: Deutschland

Occupation: GER

  • Send private message

5

Tuesday, October 31st 2017, 11:31am

Verstecken, warten bis der Strom ausgeht, die Viecher zerfetzen. :up:

Posts: 7,003

Location: NRW

Occupation: Ger

  • Send private message

6

Tuesday, October 31st 2017, 11:56am

Ich finde diese Entwicklung ehrlich gesagt ganz und gar nicht beängstigend. Ich finde sie eher unglaublich spannend und faszinierend. Die Möglichkeiten, die solch eine Forschung mit sich bringt, scheinen unendlich. Die Menschheit könnte dadurch einen gewaltigen Sprung machen.

7

Tuesday, October 31st 2017, 12:08pm

Ich stelle mir zum Beispiel eine Armee von Dronen vor, die jeden Menschen die sie sieht auslöscht. Da könnte man evtl. nicht viel dagegen machen...
Aber zum Glück ist das noch nicht so weit....
In jede Drohne baut man eine per Fernzünder steuerbare Selbstzerstörung ein, die nicht digital abgeschaltet werden kann. Richtet sich die Drohne gegen den Erbauer, muss man nur den Knopf drücken.
Demokratie ist die schlechteste Regierungsform, mit Ausnahme aller anderen die wir bis jetzt ausprobiert haben!

Posts: 3,678

Location: Wien, Österreich

  • Send private message

8

Tuesday, October 31st 2017, 2:09pm

Eine so hoch entwickelte KI wird bestimmt keine Möglichkeit finden den Fernzünder zu deaktivieren... ^^

Ich glaube das einzige was gegen eine Machtübernahme der Maschinen spricht ist das "Warum".
Menschen, Tiere oder auch Pflanzen haben immer einen Grund für die Dinge die sie tun, sei es Fortpflanzung, Machtgier, Langeweile, Hass oder Liebe.

Nur wenn Maschinen so etwas wie ein Ego entwickeln, könnte es haarig werden, aber da sind wir glaub ich noch Lichtjahre von entfernt. :)

9

Tuesday, October 31st 2017, 2:12pm

Eine so hoch entwickelte KI wird bestimmt keine Möglichkeit finden den Fernzünder zu deaktivieren... ^^
Dann liegt der Fehler aber beim Menschen. Das ist wie wenn man in einer Krisenregion eine bestimmte Volksgruppe bewaffnet und hofft die werden mit diesen Waffen nie gegen den kämpfen der ihnen die Waffen gegeben hat. Das ist in erster Linie dumm. Wenn wir Maschinen erschaffen die uns vernichten sind wir dumm. Wenn wir dann aussterben haben wir es nicht anders verdient.
Demokratie ist die schlechteste Regierungsform, mit Ausnahme aller anderen die wir bis jetzt ausprobiert haben!

SchuLz

Professional

Posts: 884

Location: Deutschland

Occupation: GER

  • Send private message

10

Tuesday, October 31st 2017, 2:38pm

Angenommen einer von euch will eine solche Maschine bauen, die intelligenter ist als wir und uns alle vernichten könnte, wenn sie es denn wollte.

Ich habe ja nicht mitgebaut und angenommen, ich will auch so eine Maschine nicht: Darf ich dann denjenigen aus Notwehr töten, der diese Maschine gerade am bauen ist? Denn schließlich betrifft der Bau ja potentiell auch mein Leben. Und das von 99,999% der Weltbevölkerung. Und meine Meinung ist, dass man es mir nicht zumuten kann, zu sterben, nur weil ein anderer "dumm" ist.

Weil in diesem "Wenn wir Maschinen erschaffen die uns vernichten sind wir dumm. Wenn wir dann aussterben haben wir es nicht anders verdient" klingt immer mit, es wäre von 100% aller Menschen getragen. Das Gegenteil wird aber der Fall sein, es entscheiden ganz ganz wenige, ob an sowas geforscht wird und wie geforscht wird und was am Ende realisiert wird.

Ist es moralisch vertretbar, dass die gesamte Spezies ausstirbt, nur weil ein paar Leute "dumm" sind? Oder muss sich die Spezies solcher Hirne einfach entledigen und diese Leute aus der Welt pusten?

Posts: 3,678

Location: Wien, Österreich

  • Send private message

11

Tuesday, October 31st 2017, 4:19pm

Wer entscheidet ab wann eine Erfindung zum auslöschen der Menschheit führen wird, ich kann mich erinnern, kurz vor Inbetriebnahme des CERN stand in den Zeitungen "wird ein künstliches schwarzes Loch die Menschheit vernichten?"
Was is passiert? Nix.
Fortschritt beinhaltet wohl immer ein paar Gefahren, darauf verzichten will ich des Wegen aber nicht darauf.

12

Tuesday, October 31st 2017, 4:50pm

Es geht um die Menschheit als Ganzes, nicht um einen einzelnen verrückten Wissenschaftler. Alleine ist man wahrscheinlich nicht mal in der Lage etwas herzustellen was die Menschheit vernichten würde. Dahinter steckt immer eine gewaltige Logistik.

Das ist ähnlich wie beim Holocaust. Da kann sich nicht einer hinstellen und einfach eine Holocaust machen, da braucht man eine gewissen Anzahl Menschen die mitmacht.
Demokratie ist die schlechteste Regierungsform, mit Ausnahme aller anderen die wir bis jetzt ausprobiert haben!

SchuLz

Professional

Posts: 884

Location: Deutschland

Occupation: GER

  • Send private message

13

Tuesday, October 31st 2017, 10:10pm

Ja das ist mir schon klar, dass man "ein paar Leute" braucht, besonders realistisch ist das ja auch zum Glück nicht. Kam mir nur so in den Sinn.

Das mit dem CERN ist aber zu 100% Esoterik-Schwachmaten-Kokolores gewesen, das war aber auch schon damals sonnenklar.

14

Tuesday, October 31st 2017, 10:30pm

auch wenn sich das nach einem wahnsinns schritt anhört - es ist doch immer noch 'nur' Go. ein spiel mit vollständiger information und leichten, klar definierten spielregeln. beides sachen, die in der realen welt häufig nicht vorhanden sind.[/url]


Das ist ja auch nur ein Anfang. Go ist schon komplex und weitaus beeindruckender als die Leistung an sich ist, dass die letzte Generation sich selbst trainiert hat. Wenn man sich mal überlegt, welche Entwicklung Computer, Vernetzung und KI in den letzten 20 Jahren gemacht hat, werden wir es vermutlich noch erleben, dass KIs uns überlegen sein werden. Dazu rein rational, ohne Werte oder Moral, sofern nicht unüberwindbar hineinprogrammiert. Was gestern noch Science Fiction war, ist heute schon real.

15

Tuesday, October 31st 2017, 10:34pm

Es geht um die Menschheit als Ganzes, nicht um einen einzelnen verrückten Wissenschaftler. Alleine ist man wahrscheinlich nicht mal in der Lage etwas herzustellen was die Menschheit vernichten würde. Dahinter steckt immer eine gewaltige Logistik.

Das ist ähnlich wie beim Holocaust. Da kann sich nicht einer hinstellen und einfach eine Holocaust machen, da braucht man eine gewissen Anzahl Menschen die mitmacht.


Wir vernetzen alles immer weiter, nichts geht mehr ohne Strom und Computersteuerung. Da brauchst Du irgendwann keine Menschen mehr, um uns zurück in die Steinzeit zu katapultieren. Wenn dann eine KI in der Lage ist, sich übers Netz zu vervielfältigen und - weshalb auch immer - der Überzeugung ist, der Welt wäre ohne Menschen besser dran... Ich sehe da schon ein Risiko. ;)

Natürlich ist es auch spannend und eröffnet sicher tolle Möglichkeiten, nur braucht man die? Wozu genau?

16

Tuesday, October 31st 2017, 10:41pm

Einen GAU kann es ja mal geben, nur die Vernichtung der Menschheit durch eine KI kann ich mir nicht vorstellen.

Die KI müsste das absolut perfekt planen, ihre Vorbereitungen heimlich treffen und erst zu einem Zeitpunkt zuschlagen wo die Menschheit keine Chance hätte sich erfolgreich zu verteidigen.

Auch könnte es andere KIs geben die gegen die "böse" KI arbeiten.

Ich denke die Summe der Variablen ist zu hoch. Das ist wie wenn man ein Schachspiel durchplant bevor man weiß welche Züge der Gegner machen wird, eigentlich unmöglich.
Demokratie ist die schlechteste Regierungsform, mit Ausnahme aller anderen die wir bis jetzt ausprobiert haben!

17

Wednesday, November 1st 2017, 11:07am

Quoted


Die KI müsste das absolut perfekt planen, ihre Vorbereitungen heimlich treffen und erst zu einem Zeitpunkt zuschlagen wo die Menschheit keine Chance hätte sich erfolgreich zu verteidigen.



Wenn diese Schritte ein Problem für die KI wären, dann ist es wohl (noch) nicht so weit her mit ihrer übernatürlichen Intelligenz ...


Quoted


Dann liegt der Fehler aber beim Menschen. Das ist wie wenn man in einer Krisenregion eine bestimmte Volksgruppe bewaffnet und hofft die werden mit diesen Waffen nie gegen den kämpfen der ihnen die Waffen gegeben hat. Das ist in erster Linie dumm. Wenn wir Maschinen erschaffen die uns vernichten sind wir dumm. Wenn wir dann aussterben haben wir es nicht anders verdient.


Das ist ja genau der Knackpunkt der ganzen Diskussion. Wie kann man die Entwicklung sicher gestalten?
Es gibt da nunmal sehr viele Szenarien, die im Ausgang garnicht rosig für uns aussehen.


Ein paar Stichpunkte dazu, über die ihr nachdenken könnt oder auch nicht:

- Eine KI braucht ein vernünftiges Confinement, um einen Not-Aus zu ermöglichen
- Eine nicht-vernetzte KI ist nicht sonderlich hilfreich für uns (Widerspruch zur Aussage darüber)
- Eine KI kann ihre Intelligenz nutzen, um aus dem Confinement auszubrechen (Hacken / Menschen manipulieren, die ihr dann Zugang zur vernetzen Welt schaffen)
- Eine KI wird keine oder andere moralische Werte haben als der Mensch
- Eine KI wird möglicherweise ihre Absichten verstecken, wenn das Wissen um ihre Absichten zum Ausschalten der KI durch den Menschen führen könnte
- Eine KI könnte sich möglicherweise auf andere Hardware duplizieren/hacken, sobald sie Zugang zum Internet hat
- Eine KI in der Zukunft wird in einer hochvernetzen Welt leben und könnte zum Beispiel vollautomatisierte Labore/Fabriken hacken, um Gewalt über physiche Aktuatoren zu erlangen.
- Wenn die KI denkt, dass die Menschheit ihr zum Erlangen ihrer Ziele im Weg steht, könnte sie z.B. vollautomatisierten Biolaboren den Code schicken, um ein extrem gefährliches Gift/Virus zu produzieren.
- Es ist anzunehmen, dass die KI, sofern sie über unvorstellbare Intelligenz verfügt, tausende Wege finden würde, in kurzer Zeit den Großteil der Menschheit auszurotten.

Der wichtigste Punkt bei der ganzen Sache:

KIs sind selbstlernend. Sobald es eine KI gibt, die in die nähe der Intelligenz eines Menschens kommt, kann es zu einer 'Intelligenzexplosion' kommen. Innerhalb kürzester Zeit (Stunden/Tage/Wochen) ist es theoretisch denkbar, dass die KI ihre Intelligenz ohne das Zutun des Menschen/der Programmierer ihre Intelligenz durch selbstständiges Lernen/Verbessern ihrer Selbst/des Sourcecodes für Menschen aktuell völlig unvorstellbare Intelligenzlevels erreicht (siehe auch: Go besser können als der beste lebende Profispieler innerhalb von 3 Tagen). Ob das alles wirklich so zutreffen kann (und ob es überhaupt möglich ist, eine General-Purpose KI zu erschaffen, die an die Intelligenz des Menschen reicht, ist natürlich reine Spekulation. Aber die möglichen apokalyptischen Szenarien machen es dennoch nötig, sich darüber VORHER Gedanken zu machen, und nicht erst wenn es so weit ist.

Wenn es erstmal so weit kommt, könnte es schnell zu spät sein, um noch irgend etwas dagegen zu tun.



Das ist aber jetzt alles unabhängig von AlphaGo Zero. Sicherlich ist das eine beeindruckende Leistung des Teams von DeepMind. Aber reinforcement learning in Form von gegen-sich-selber-spielen ist auch kein neuer Ansatz, sondern wird seit zig Jahren immer mehr aktiv und erfolgreich eingesetzt. Für mich ist das kein 'Meilenstein' in der KI-Forschung, sondern ein inkrementelles Upgrade. Aber auf jeden Fall ein beeindruckendes!

This post has been edited 2 times, last edit by "jens" (Nov 1st 2017, 2:33pm)


18

Wednesday, November 1st 2017, 1:49pm

Wenn diese Schritte ein Problem für die KI wären, dann ist es wohl (noch) nicht so weit her mit ihrer übernatürlichen Intelligenz ...
Ich kann mir die nötige Perfektion einer Intelligenz schlicht nicht vorstellen.
Demokratie ist die schlechteste Regierungsform, mit Ausnahme aller anderen die wir bis jetzt ausprobiert haben!

Posts: 5,131

Location: ... da wars dunkel und kalt...

  • Send private message

19

Thursday, November 2nd 2017, 12:51pm

wenn dich das thema interessiert und du dich intensiver damit beschäftigen möchtest, kann ich dir das buch 'superintelligence' wärmstens empfehlen.
https://www.amazon.de/Superintelligence-…g=UTF8&qid=&sr=



Ich kann euch zum Thema den Roman Der Herr aller Dinge empfehlen...
Hab ihn vor ein paar Jahren gelesen und er hat mich eine Zeit lang ziemlich beschäftigt.
Eine KI die sich selbst reproduziert, ziemlich erschreckend

Wiki der Herr aller Dinge

Quoted

Original von Antares
Sex ist nicht so schön, wie man es sich beim wixen immer vorstellt.

r3.s1n

Professional

Posts: 1,087

Location: Zürich

Occupation: CH

  • Send private message

20

Friday, November 3rd 2017, 7:38am


Ein (hoffentlich) augenöffnendes Video über die Zukunft der Arbeit...

Invader

Master

Posts: 2,188

Location: München

  • Send private message

21

Saturday, November 4th 2017, 6:00pm

Das wichtigste ist für mich immer noch das wir es hier nur mit Algorithmen von Menschen zu tun haben. Keine Maschine entwickelt eigene. Sie lesen verarbeiten und geben aus. Das können sie sehr gut. Mehr aber nicht. Es wird ja teilweise so dargestellt als ob sie selbständig sich weiterentwickeln wenn sie nur ihre Datenbank vergrössern.

22

Sunday, November 5th 2017, 11:55am

Das wichtigste ist für mich immer noch das wir es hier nur mit Algorithmen von Menschen zu tun haben. Keine Maschine entwickelt eigene. Sie lesen verarbeiten und geben aus. Das können sie sehr gut. Mehr aber nicht. Es wird ja teilweise so dargestellt als ob sie selbständig sich weiterentwickeln wenn sie nur ihre Datenbank vergrössern.

Ich würde der Aussage komplett widersprechen. Es gibt jetzt schon AI die AI Software schreibt, wobei man sich hier noch streiten kann in wie weit das als eigenständige Softwareentwicklung zu sehen ist. Prinzipiell spricht aber nichts dagegen, dass sich Software selbstständig weiterentwickelt.

Das Besondere an den Neuronalen Netzen ist eben, dass man keine herkömmlichen Algorithmen mehr schreibt, sondern lediglich das Setup bereit stellt und es dem System mehr oder weniger selbst überlässt zu einer Lösung zu gelangen. Am Ende kann man nicht mehr verstehen wie es zu dieser Lösung gelangt ist.

@Humans Need Not Apply: Einfach großartig, wir sprechen hier von nicht weniger als der Überwindung der Arbeit. Ich hoffe, dass das nicht mehr lange auf sich warten lässt.

23

Sunday, November 5th 2017, 2:35pm

Schön, dann haben wir die Arbeit überwunden... nur wovon leben die Menschen dann, die nicht reich sind? Erstmal bedeutet das mehr Arbeitslosigkeit und Armut. Und wonach streben? Auf legale Weise kannst Du dann nur noch mit Kreativität etwas verdienen und auch das nur begrenzt, denn so viele Künstler braucht die Welt nicht. Also Suche nach dem Sinn des Lebens und Depressionen?

AI wird sich erweitern und vervielfältigen können und ist dem Sinne dann auch keine Maschine mehr. Vermutlich sind neuronale Netze in dem Sinne noch kein Bewusstsein, aber auch das wird kommen. Durch Vernetzung gibt es dann auch keinen Power-off-Button.

24

Sunday, November 5th 2017, 9:38pm

Wir müssen uns dann neue Methoden der (Um-)Verteilung ausdenken. Eine Art Grundeinkommen für die alltäglichen Konsumbedüfrnisse ist das naheliegenste, schwieriger wird es beispielsweise bei der Frage "Wer darf wo wohnen und dabei wieviel Platz verbrauchen?", also der Verteilung von Gütern die nicht durch Maschinen produziert werden können.

"Kreativität" wird sogar noch als eines der ersten Gebiete durch Maschinen erledigt, sowohl im Business als auch in Musik und Kunst.

Und wir haben dann endlich Zeit den ganzen Tag Age zu spielen :D .

Rate this thread