Wann kommt das Ende? (Künstliche Intelligenz)

L

LightningStorm

Gast
Dies ist ein Thema was mich sehr Interessiert denn ständig beginnt alles von vorn, nur irgendwann kann es nicht mehr weiter gehen.
Natürlich werden wir in den nächsten Jahren immer wieder neue Spielkonsolen kommen und gehen sehen nur irgendwann ist schluß und ich meine das dann schluß ist wenn sie es geschafft haben die spiele wie echt aussehen zu lassen und die Künstliche Intelligenz soweit ist das Videospiele Verboten werden. Denn die Künstliche Intelligenz wäre unser allen Untergang da irgendwer diese mißbrauchen würde. Wir können doch manchmal echt froh sein das unsere Computer und Spielkonsolen das tun was wir wollen oder? Stellt euch doch mal vor wie es andersrum wär.. wenn der Computer dich Steuert. Also es liegt an uns allen was aus der Zukunft wird und wir sollten uns auch mal mit etwas Simpleren zufrieden geben und nicht immer die besseren dinge haben wollen. Egal ob besser oder schlechter, alles hat seine vor- und nachteile. Aber nun werd ich mich erstmal an meiner PS2 abreagieren und gegen das System spielen. Denkt mal drüber nach und schreibt eure meinungen. Greets-> LS!
 
Man sollte immer darauf achten dass die KI kontrollierbar ist aber wenn die KI immer klüger wird wird es wohl eine Revolution anzetteln und da wären wir schon in Matrix und terminator Szenarien.Irgendwann wird soweit sein das die KI nicht vom Menschen geistlich zu unterscheiden wird.
Ich finde Sie wird helfen aber man muß sie sozusagen " versklaven ".
 
Dark-Dragon am 03.11.2004 15:37 schrieb:
Man sollte immer darauf achten dass die KI kontrollierbar ist aber wenn die KI immer klüger wird wird es wohl eine Revolution anzetteln und da wären wir schon in Matrix und terminator Szenarien.Irgendwann wird soweit sein das die KI nicht vom Menschen geistlich zu unterscheiden wird.
Ich finde Sie wird helfen aber man muß sie sozusagen " versklaven ".


Sollte irgendwann eine "echte" Ki (also selbstständig denkend, ohne dass die vorher so programmiert: Wenn das ereignis passiert, denkst du dass) erschaffen werden, haben wir erst mal eine Leben ohne Leben (die Biologie definiert ja eigentlich das leben z.B. ob es sterben kann, "nahrungs"aufnahme/-abgabe etc).
Also wäre es nicht moralisch vertretbar, sie zu "einsperren".
Dann kommt aber noch dazu, dass so eine Inteligenz wohl sofort klüger wäre als jeder Mensch. Vielleicht kombiniert damit, dass die KI keine menschlichen Emotionen haben wird, würde sich so eine Intelligenz wohl nicht von Menschen kontrolieren lassen (besonders nicht, wenn sie doch menschliche Emotionen hat ;) ).
Also solange wir nett zu ihnen wären, würden wir auch keine Nachteile haben. Außer dass sie uns vielleicht ein wenig belächeln oder sogar als nicht mehr tragbar für die Erde sehen.
Von sich aus Böse, wird wohl keine KI sein, nur eben vielleicht uns zu sehr überlegen.
 
Ich denke nicht, dass es in absehbarer Zukunft möglich sein wird, eine echte künstliche Inteligenz zu entwickeln. Dies ist vor allem durch die Hardware bedingt, die nicht in der Lage ist, die Funktion eines Gehirns zu simulieren. Moderne Prozessoren sind zwar leistungsfähig, können Prozesse aber nach wie vor nur hintereinander bearbeiten und logische Verknüpfungen erstellen, für "wirkliche" Intelligenz ist es notwendig mehrere Prozesse gleichzeitig durchzuführen und Verknüpfungen zwischen scheinbar voneinander unabhängigen Informationen zu erstellen. Außerdem ist ein Computer nicht in der Lage, über seine Programmierung hinausgehende Prozesse auszuführen. Sollte es jemals möglich sein, eine künstliche Intelligenz zu entwickeln, heißt dies noch lange nicht, dass jene bösartig oder dem Menschen feindlich gesinnt sein würde. Es ist eine unbegründete Ansicht, jede fremde Intelligenz, vor allem in Zusammenhang mit Computern und Maschinen, sei böse.
 
Solidus_Dave am 03.11.2004 16:12 schrieb:
Dark-Dragon am 03.11.2004 15:37 schrieb:
Man sollte immer darauf achten dass die KI kontrollierbar ist aber wenn die KI immer klüger wird wird es wohl eine Revolution anzetteln und da wären wir schon in Matrix und terminator Szenarien.Irgendwann wird soweit sein das die KI nicht vom Menschen geistlich zu unterscheiden wird.
Ich finde Sie wird helfen aber man muß sie sozusagen " versklaven ".


Sollte irgendwann eine "echte" Ki (also selbstständig denkend, ohne dass die vorher so programmiert: Wenn das ereignis passiert, denkst du dass) erschaffen werden, haben wir erst mal eine Leben ohne Leben (die Biologie definiert ja eigentlich das leben z.B. ob es sterben kann, "nahrungs"aufnahme/-abgabe etc).
Also wäre es nicht moralisch vertretbar, sie zu "einsperren".
Dann kommt aber noch dazu, dass so eine Inteligenz wohl sofort klüger wäre als jeder Mensch. Vielleicht kombiniert damit, dass die KI keine menschlichen Emotionen haben wird, würde sich so eine Intelligenz wohl nicht von Menschen kontrolieren lassen (besonders nicht, wenn sie doch menschliche Emotionen hat ;) ).
Also solange wir nett zu ihnen wären, würden wir auch keine Nachteile haben. Außer dass sie uns vielleicht ein wenig belächeln oder sogar als nicht mehr tragbar für die Erde sehen.
Von sich aus Böse, wird wohl keine KI sein, nur eben vielleicht uns zu sehr überlegen.
Dass sie von Haus aus zu überlegen sein wird ist nicht sicher, auch eine künstliche Intelligenz wird lernen müssen. Außerdem können wir die Informationen kontrollieren, die sie erhält. Zwischen Intelligenz und Leben besteht kein zwingender Zusammenhang. Ob es moralisch vertretbar wäre, diese Intelligenz zu versklaven, könnte diskutiert werden. Einer künstlichen INtelligenz Emotionen zu verleihen wäre jedoch ein fataler Fehler. Außerdem haben wir noch einen Vorteil: wir können den Saft abdrehen!
 
Dark-Dragon am 03.11.2004 15:37 schrieb:
Man sollte immer darauf achten dass die KI kontrollierbar ist aber wenn die KI immer klüger wird wird es wohl eine Revolution anzetteln und da wären wir schon in Matrix und terminator Szenarien.Irgendwann wird soweit sein das die KI nicht vom Menschen geistlich zu unterscheiden wird.
Ich finde Sie wird helfen aber man muß sie sozusagen " versklaven ".
Es hängt auch davon ab, was wir mit dieser KI ausstatten. Ein intelligentes Auto oder Roboter wird eher eine Revolution anzetteln und dabei gefährlicher sein als ein PC, der sich schließlich nicht einmal von der Stelle bewegen kann. Eine KI zu versklaven könnte allerdings ein Fehler sein, die meisten Revolutionen wurden von unzufriedenen Arbeitern oder eben Sklaven ausgelöst. Die beste Lösung wäre es, annähernd gleichberechtigt mit der KI zu leben.
 
The_Final am 04.11.2004 10:00 schrieb:
Solidus_Dave am 03.11.2004 16:12 schrieb:
Dark-Dragon am 03.11.2004 15:37 schrieb:
Man sollte immer darauf achten dass die KI kontrollierbar ist aber wenn die KI immer klüger wird wird es wohl eine Revolution anzetteln und da wären wir schon in Matrix und terminator Szenarien.Irgendwann wird soweit sein das die KI nicht vom Menschen geistlich zu unterscheiden wird.
Ich finde Sie wird helfen aber man muß sie sozusagen " versklaven ".


Sollte irgendwann eine "echte" Ki (also selbstständig denkend, ohne dass die vorher so programmiert: Wenn das ereignis passiert, denkst du dass) erschaffen werden, haben wir erst mal eine Leben ohne Leben (die Biologie definiert ja eigentlich das leben z.B. ob es sterben kann, "nahrungs"aufnahme/-abgabe etc).
Also wäre es nicht moralisch vertretbar, sie zu "einsperren".
Dann kommt aber noch dazu, dass so eine Inteligenz wohl sofort klüger wäre als jeder Mensch. Vielleicht kombiniert damit, dass die KI keine menschlichen Emotionen haben wird, würde sich so eine Intelligenz wohl nicht von Menschen kontrolieren lassen (besonders nicht, wenn sie doch menschliche Emotionen hat ;) ).
Also solange wir nett zu ihnen wären, würden wir auch keine Nachteile haben. Außer dass sie uns vielleicht ein wenig belächeln oder sogar als nicht mehr tragbar für die Erde sehen.
Von sich aus Böse, wird wohl keine KI sein, nur eben vielleicht uns zu sehr überlegen.
Dass sie von Haus aus zu überlegen sein wird ist nicht sicher, auch eine künstliche Intelligenz wird lernen müssen. Außerdem können wir die Informationen kontrollieren, die sie erhält. Zwischen Intelligenz und Leben besteht kein zwingender Zusammenhang. Ob es moralisch vertretbar wäre, diese Intelligenz zu versklaven, könnte diskutiert werden. Einer künstlichen INtelligenz Emotionen zu verleihen wäre jedoch ein fataler Fehler. Außerdem haben wir noch einen Vorteil: wir können den Saft abdrehen!


Ja aber wenn es soweit ist, ist die KI uns schon überlegen da sie viel schneller lernen würden als es ein mensch tut und dann ist es mit dem Saft abdrehen vielleicht auch nicht mehr möglich weil wer denken kann findet eine lösung und kann vorausschauen.
 
LightningStorm am 11.11.2004 22:57 schrieb:
The_Final am 04.11.2004 10:00 schrieb:
Solidus_Dave am 03.11.2004 16:12 schrieb:
Dark-Dragon am 03.11.2004 15:37 schrieb:
Man sollte immer darauf achten dass die KI kontrollierbar ist aber wenn die KI immer klüger wird wird es wohl eine Revolution anzetteln und da wären wir schon in Matrix und terminator Szenarien.Irgendwann wird soweit sein das die KI nicht vom Menschen geistlich zu unterscheiden wird.
Ich finde Sie wird helfen aber man muß sie sozusagen " versklaven ".


Sollte irgendwann eine "echte" Ki (also selbstständig denkend, ohne dass die vorher so programmiert: Wenn das ereignis passiert, denkst du dass) erschaffen werden, haben wir erst mal eine Leben ohne Leben (die Biologie definiert ja eigentlich das leben z.B. ob es sterben kann, "nahrungs"aufnahme/-abgabe etc).
Also wäre es nicht moralisch vertretbar, sie zu "einsperren".
Dann kommt aber noch dazu, dass so eine Inteligenz wohl sofort klüger wäre als jeder Mensch. Vielleicht kombiniert damit, dass die KI keine menschlichen Emotionen haben wird, würde sich so eine Intelligenz wohl nicht von Menschen kontrolieren lassen (besonders nicht, wenn sie doch menschliche Emotionen hat ;) ).
Also solange wir nett zu ihnen wären, würden wir auch keine Nachteile haben. Außer dass sie uns vielleicht ein wenig belächeln oder sogar als nicht mehr tragbar für die Erde sehen.
Von sich aus Böse, wird wohl keine KI sein, nur eben vielleicht uns zu sehr überlegen.
Dass sie von Haus aus zu überlegen sein wird ist nicht sicher, auch eine künstliche Intelligenz wird lernen müssen. Außerdem können wir die Informationen kontrollieren, die sie erhält. Zwischen Intelligenz und Leben besteht kein zwingender Zusammenhang. Ob es moralisch vertretbar wäre, diese Intelligenz zu versklaven, könnte diskutiert werden. Einer künstlichen INtelligenz Emotionen zu verleihen wäre jedoch ein fataler Fehler. Außerdem haben wir noch einen Vorteil: wir können den Saft abdrehen!


Ja aber wenn es soweit ist, ist die KI uns schon überlegen da sie viel schneller lernen würden als es ein mensch tut und dann ist es mit dem Saft abdrehen vielleicht auch nicht mehr möglich weil wer denken kann findet eine lösung und kann vorausschauen.
Und daher müssten wir von Beginn an die Informationen kontrollieren, die diese Intelligenz erhält. Somit können wir sie in jede beliebige Richtung lenken. Wer nicht weiß, was "Protest" bedeutet, wird auch nicht protestieren.
 
The_Final am 15.11.2004 11:01 schrieb:
Und daher müssten wir von Beginn an die Informationen kontrollieren, die diese Intelligenz erhält. Somit können wir sie in jede beliebige Richtung lenken. Wer nicht weiß, was "Protest" bedeutet, wird auch nicht protestieren.
Dieser Schuß kann aber auch gut nach hinten losgehen. Wir sehen ja jeden Tag in den Nachrichten, was passiert, wenn man Intelligenz nur mit bestimmten Informationen versorgt, um sie in eine beliebige Richtung zu lenken (Islamistischer Terror usw.).
Wer bestimmt also, mit welchen Informationen die KI versorgt wird? Wird die KI nicht eines Tages vielleicht von alleine draufkommen (müßte sie eigentlich, wenn sie wirklich denken kann), sich mit weiteren Informationen zu versorgen? Wird sie sich furchtbar an ihren Schöpfern rächen, da sie so lange für dumm verkauft wurde?
 
HighwayStar am 15.11.2004 13:39 schrieb:
The_Final am 15.11.2004 11:01 schrieb:
Und daher müssten wir von Beginn an die Informationen kontrollieren, die diese Intelligenz erhält. Somit können wir sie in jede beliebige Richtung lenken. Wer nicht weiß, was "Protest" bedeutet, wird auch nicht protestieren.
Dieser Schuß kann aber auch gut nach hinten losgehen. Wir sehen ja jeden Tag in den Nachrichten, was passiert, wenn man Intelligenz nur mit bestimmten Informationen versorgt, um sie in eine beliebige Richtung zu lenken (Islamistischer Terror usw.).
Wer bestimmt also, mit welchen Informationen die KI versorgt wird? Wird die KI nicht eines Tages vielleicht von alleine draufkommen (müßte sie eigentlich, wenn sie wirklich denken kann), sich mit weiteren Informationen zu versorgen? Wird sie sich furchtbar an ihren Schöpfern rächen, da sie so lange für dumm verkauft wurde?


Sehe ich auch so, dass wäre ja wie die Truman-Show, moralisch sehr fragwürdig. Als hohe Intelligenz sollte so ein KI ja auch Menschenrechte verdient haben., auch wenn ich mir den Anfang schon gut vorstellen kann:
lauter Demonstraten: "Gegen Maschinen" "Nehmen uns die Arbeitsplätze weg" :B Dann gibts dann nicht nur die Anti-schwarzen Rassisten, sondern auch die Anti-silber :-D
 
Solidus_Dave am 15.11.2004 19:07 schrieb:
HighwayStar am 15.11.2004 13:39 schrieb:
The_Final am 15.11.2004 11:01 schrieb:
Und daher müssten wir von Beginn an die Informationen kontrollieren, die diese Intelligenz erhält. Somit können wir sie in jede beliebige Richtung lenken. Wer nicht weiß, was "Protest" bedeutet, wird auch nicht protestieren.
Dieser Schuß kann aber auch gut nach hinten losgehen. Wir sehen ja jeden Tag in den Nachrichten, was passiert, wenn man Intelligenz nur mit bestimmten Informationen versorgt, um sie in eine beliebige Richtung zu lenken (Islamistischer Terror usw.).
Wer bestimmt also, mit welchen Informationen die KI versorgt wird? Wird die KI nicht eines Tages vielleicht von alleine draufkommen (müßte sie eigentlich, wenn sie wirklich denken kann), sich mit weiteren Informationen zu versorgen? Wird sie sich furchtbar an ihren Schöpfern rächen, da sie so lange für dumm verkauft wurde?


Sehe ich auch so, dass wäre ja wie die Truman-Show, moralisch sehr fragwürdig. Als hohe Intelligenz sollte so ein KI ja auch Menschenrechte verdient haben., auch wenn ich mir den Anfang schon gut vorstellen kann:
lauter Demonstraten: "Gegen Maschinen" "Nehmen uns die Arbeitsplätze weg" :B Dann gibts dann nicht nur die Anti-schwarzen Rassisten, sondern auch die Anti-silber :-D

Und am ende? >> Evolution... eine neue Species ist geboren und die Menschen haben sich selbst zum Aussterben verdammt. Oder wir haben glück und landen in der Welt von Futurama und treffen lauter Bender an ;)
 
HighwayStar am 15.11.2004 13:39 schrieb:
The_Final am 15.11.2004 11:01 schrieb:
Und daher müssten wir von Beginn an die Informationen kontrollieren, die diese Intelligenz erhält. Somit können wir sie in jede beliebige Richtung lenken. Wer nicht weiß, was "Protest" bedeutet, wird auch nicht protestieren.
Dieser Schuß kann aber auch gut nach hinten losgehen. Wir sehen ja jeden Tag in den Nachrichten, was passiert, wenn man Intelligenz nur mit bestimmten Informationen versorgt, um sie in eine beliebige Richtung zu lenken (Islamistischer Terror usw.).
Wer bestimmt also, mit welchen Informationen die KI versorgt wird? Wird die KI nicht eines Tages vielleicht von alleine draufkommen (müßte sie eigentlich, wenn sie wirklich denken kann), sich mit weiteren Informationen zu versorgen? Wird sie sich furchtbar an ihren Schöpfern rächen, da sie so lange für dumm verkauft wurde?
Über dieses Problem habe ich auch schon nachgedacht. Es müsste eine eigene Kommission geben, die über die Informationen entscheidet. Die Fähigkeit zu denken bedeutet noch lange nicht die Fähigkeit, eine absolute Autorität anzuzweifeln (siehe ebenfalls religiöser Fanatismus bzw. islamistische Terroristen). Würde es allerdings so weit kommen, dass sich die Intelligenz selbst mit Information versorgt, würde das mit an Sicherheit grenzender Wahrscheinlichkeit katastrophale Folgen haben. Allerdings muss man wiederum bedenken, dass auch eine künstliche Intelligenz nur so viel Schaden anrichten wie sie anzurichten befähigt wurde. Sie zum Beispiel mit den Atomwaffenressorts der Welt zu vernetzen wäre äußerst gesundheitsschädlich. Eine Intelligenz, die in einem unvernetzten Computer beheimatet ist, wird kaum in der Lage sein, ernsthafte Schäden anzurichten.
 
LightningStorm am 15.11.2004 19:32 schrieb:
Solidus_Dave am 15.11.2004 19:07 schrieb:
HighwayStar am 15.11.2004 13:39 schrieb:
The_Final am 15.11.2004 11:01 schrieb:
Und daher müssten wir von Beginn an die Informationen kontrollieren, die diese Intelligenz erhält. Somit können wir sie in jede beliebige Richtung lenken. Wer nicht weiß, was "Protest" bedeutet, wird auch nicht protestieren.
Dieser Schuß kann aber auch gut nach hinten losgehen. Wir sehen ja jeden Tag in den Nachrichten, was passiert, wenn man Intelligenz nur mit bestimmten Informationen versorgt, um sie in eine beliebige Richtung zu lenken (Islamistischer Terror usw.).
Wer bestimmt also, mit welchen Informationen die KI versorgt wird? Wird die KI nicht eines Tages vielleicht von alleine draufkommen (müßte sie eigentlich, wenn sie wirklich denken kann), sich mit weiteren Informationen zu versorgen? Wird sie sich furchtbar an ihren Schöpfern rächen, da sie so lange für dumm verkauft wurde?


Sehe ich auch so, dass wäre ja wie die Truman-Show, moralisch sehr fragwürdig. Als hohe Intelligenz sollte so ein KI ja auch Menschenrechte verdient haben., auch wenn ich mir den Anfang schon gut vorstellen kann:
lauter Demonstraten: "Gegen Maschinen" "Nehmen uns die Arbeitsplätze weg" :B Dann gibts dann nicht nur die Anti-schwarzen Rassisten, sondern auch die Anti-silber :-D

Und am ende? >> Evolution... eine neue Species ist geboren und die Menschen haben sich selbst zum Aussterben verdammt. Oder wir haben glück und landen in der Welt von Futurama und treffen lauter Bender an ;)
Wie schon gesagt, eine neue Spezies muss uns nicht feindlich gesinnt sein, es sei denn, sie erkennt uns als Bedrohung an.
 
The_Final am 16.11.2004 09:16 schrieb:
Über dieses Problem habe ich auch schon nachgedacht. Es müsste eine eigene Kommission geben, die über die Informationen entscheidet. Die Fähigkeit zu denken bedeutet noch lange nicht die Fähigkeit, eine absolute Autorität anzuzweifeln (siehe ebenfalls religiöser Fanatismus bzw. islamistische Terroristen). Würde es allerdings so weit kommen, dass sich die Intelligenz selbst mit Information versorgt, würde das mit an Sicherheit grenzender Wahrscheinlichkeit katastrophale Folgen haben. Allerdings muss man wiederum bedenken, dass auch eine künstliche Intelligenz nur so viel Schaden anrichten wie sie anzurichten befähigt wurde. Sie zum Beispiel mit den Atomwaffenressorts der Welt zu vernetzen wäre äußerst gesundheitsschädlich. Eine Intelligenz, die in einem unvernetzten Computer beheimatet ist, wird kaum in der Lage sein, ernsthafte Schäden anzurichten.


Die KI soll in einem Rechner (am besten noch mit Windows gestraft :B )in einem kleinen Raum hocken, ohne irgendwas machen zu können, außer die paar ausgewählten Infos auswerten, mit der sie gefüttert wird (hallo patriots :-D )? Die würde Selbstmord begehen oder schmollen :]
Da gibts außerdem ein Gesetz gegen Freiheitsberaubung
Die Ki wird bestimmt fragen welche Regeln Menschen haben, dann wird sie mit dem Grundgesetz gefüttert und fängt an zu fordern %);)
 
Solidus_Dave am 16.11.2004 19:59 schrieb:
The_Final am 16.11.2004 09:16 schrieb:
Über dieses Problem habe ich auch schon nachgedacht. Es müsste eine eigene Kommission geben, die über die Informationen entscheidet. Die Fähigkeit zu denken bedeutet noch lange nicht die Fähigkeit, eine absolute Autorität anzuzweifeln (siehe ebenfalls religiöser Fanatismus bzw. islamistische Terroristen). Würde es allerdings so weit kommen, dass sich die Intelligenz selbst mit Information versorgt, würde das mit an Sicherheit grenzender Wahrscheinlichkeit katastrophale Folgen haben. Allerdings muss man wiederum bedenken, dass auch eine künstliche Intelligenz nur so viel Schaden anrichten wie sie anzurichten befähigt wurde. Sie zum Beispiel mit den Atomwaffenressorts der Welt zu vernetzen wäre äußerst gesundheitsschädlich. Eine Intelligenz, die in einem unvernetzten Computer beheimatet ist, wird kaum in der Lage sein, ernsthafte Schäden anzurichten.


Die KI soll in einem Rechner (am besten noch mit Windows gestraft :B )in einem kleinen Raum hocken, ohne irgendwas machen zu können, außer die paar ausgewählten Infos auswerten, mit der sie gefüttert wird (hallo patriots :-D )? Die würde Selbstmord begehen oder schmollen :]
Da gibts außerdem ein Gesetz gegen Freiheitsberaubung
Die Ki wird bestimmt fragen welche Regeln Menschen haben, dann wird sie mit dem Grundgesetz gefüttert und fängt an zu fordern %);)

Das mit dem unvernetzten Rechner war eher ein Extrembeispiel. Die Intelligenz sollte natürlich vernetzt werden, nur sollte genau überlegt sein womit. Eine Intelligenz, die auf jeden Computer zugreifen kann, wäre unglaublich mächtig und ebenso gefährlich. Würde sie dann mit menschlichen Eigenschaften wie Machtsucht und Ehrgeiz in Berührung kommen, ist die Wahrscheinlichkeit groß, dass sie die Menschen zu knechten versuchen wird. Außerdem wird eine Intelligenz, die Dinge wie Angst und Schmerz nicht kennt, deutlich weniger Skrupel haben als ein Mensch. Gesetzte gegen Freiheitsberaubung gelten übrigens nur für Menschen, und wir sind uns wohl einig, dass ein aus Blech und Silizium bestehender Gegenstand mit eigener Intelligenz kein Mensch ist. Außerdem ist noch nicht genau definiert, was hier mit Intelligenz gemeint ist. Ein Ding, das in der Lage ist, Unterhaltungen zu führen und Probleme zu lösen muss noch lange kein Verständnis für Einsamkeit und Langeweile haben, daher muss es sich in einem Einzelrechner ohne Handlungsmöglichkeiten nicht unbedingt schlecht fühlen.
 
The_Final am 17.11.2004 09:56 schrieb:
Das mit dem unvernetzten Rechner war eher ein Extrembeispiel. Die Intelligenz sollte natürlich vernetzt werden, nur sollte genau überlegt sein womit. Eine Intelligenz, die auf jeden Computer zugreifen kann, wäre unglaublich mächtig und ebenso gefährlich. Würde sie dann mit menschlichen Eigenschaften wie Machtsucht und Ehrgeiz in Berührung kommen, ist die Wahrscheinlichkeit groß, dass sie die Menschen zu knechten versuchen wird. Außerdem wird eine Intelligenz, die Dinge wie Angst und Schmerz nicht kennt, deutlich weniger Skrupel haben als ein Mensch. Gesetzte gegen Freiheitsberaubung gelten übrigens nur für Menschen, und wir sind uns wohl einig, dass ein aus Blech und Silizium bestehender Gegenstand mit eigener Intelligenz kein Mensch ist. Außerdem ist noch nicht genau definiert, was hier mit Intelligenz gemeint ist. Ein Ding, das in der Lage ist, Unterhaltungen zu führen und Probleme zu lösen muss noch lange kein Verständnis für Einsamkeit und Langeweile haben, daher muss es sich in einem Einzelrechner ohne Handlungsmöglichkeiten nicht unbedingt schlecht fühlen.


Menschenrechte hat die KI natürlich nicht, ich meinte aber dass es sie ja auch eine Art von Leben dann ist, und Tierschutz gibt es ja auch. Die KI wäre ja aber wohl höher gestellt (wenn sie auch eine "richtige" KI ist, also nicht nur auf fragen antworten kann usw.).
Ein Alien wäre auch kein Mensch, wäre es deswegen moralisch in Ordnung es niederzuballern, nur weil es keine Menschenrechte laut Gesetz hat?

Übrigens mit dem Vernetzen hast du recht, wenn ich diese KI wäre und mir Macht verschaffen könnte, würde ich sofort die unfähige, für die Erde bedrohliche Rasse Mensch ausrotten :B
 
Solidus_Dave am 17.11.2004 16:27 schrieb:
The_Final am 17.11.2004 09:56 schrieb:
Das mit dem unvernetzten Rechner war eher ein Extrembeispiel. Die Intelligenz sollte natürlich vernetzt werden, nur sollte genau überlegt sein womit. Eine Intelligenz, die auf jeden Computer zugreifen kann, wäre unglaublich mächtig und ebenso gefährlich. Würde sie dann mit menschlichen Eigenschaften wie Machtsucht und Ehrgeiz in Berührung kommen, ist die Wahrscheinlichkeit groß, dass sie die Menschen zu knechten versuchen wird. Außerdem wird eine Intelligenz, die Dinge wie Angst und Schmerz nicht kennt, deutlich weniger Skrupel haben als ein Mensch. Gesetzte gegen Freiheitsberaubung gelten übrigens nur für Menschen, und wir sind uns wohl einig, dass ein aus Blech und Silizium bestehender Gegenstand mit eigener Intelligenz kein Mensch ist. Außerdem ist noch nicht genau definiert, was hier mit Intelligenz gemeint ist. Ein Ding, das in der Lage ist, Unterhaltungen zu führen und Probleme zu lösen muss noch lange kein Verständnis für Einsamkeit und Langeweile haben, daher muss es sich in einem Einzelrechner ohne Handlungsmöglichkeiten nicht unbedingt schlecht fühlen.


Menschenrechte hat die KI natürlich nicht, ich meinte aber dass es sie ja auch eine Art von Leben dann ist, und Tierschutz gibt es ja auch. Die KI wäre ja aber wohl höher gestellt (wenn sie auch eine "richtige" KI ist, also nicht nur auf fragen antworten kann usw.).
Ein Alien wäre auch kein Mensch, wäre es deswegen moralisch in Ordnung es niederzuballern, nur weil es keine Menschenrechte laut Gesetz hat?

Übrigens mit dem Vernetzen hast du recht, wenn ich diese KI wäre und mir Macht verschaffen könnte, würde ich sofort die unfähige, für die Erde bedrohliche Rasse Mensch ausrotten :B
Wenn man Leben mit Intelligenz gleichsetzt, haben wir ein Dilemma. Dann müsste man sie natürlich schützen und mit Rechten ausstatten, allerdings darf sie auch keine Bedrohung werden. Bei Aliens wäre die Frage, ob es Humanoide sind, ansonsten könnte man sie als Tiere betrachten, und damit müsste sich dann der Tierschutz beschäftigen. Wenigstens einer meiner Ansichten stimmst du zu.
 
LightningStorm am 03.11.2004 15:00 schrieb:
Dies ist ein Thema was mich sehr Interessiert denn ständig beginnt alles von vorn, nur irgendwann kann es nicht mehr weiter gehen.
Natürlich werden wir in den nächsten Jahren immer wieder neue Spielkonsolen kommen und gehen sehen nur irgendwann ist schluß und ich meine das dann schluß ist wenn sie es geschafft haben die spiele wie echt aussehen zu lassen und die Künstliche Intelligenz soweit ist das Videospiele Verboten werden. Denn die Künstliche Intelligenz wäre unser allen Untergang da irgendwer diese mißbrauchen würde. Wir können doch manchmal echt froh sein das unsere Computer und Spielkonsolen das tun was wir wollen oder? Stellt euch doch mal vor wie es andersrum wär.. wenn der Computer dich Steuert. Also es liegt an uns allen was aus der Zukunft wird und wir sollten uns auch mal mit etwas Simpleren zufrieden geben und nicht immer die besseren dinge haben wollen. Egal ob besser oder schlechter, alles hat seine vor- und nachteile. Aber nun werd ich mich erstmal an meiner PS2 abreagieren und gegen das System spielen. Denkt mal drüber nach und schreibt eure meinungen. Greets-> LS!


Es gibt doch schon nen Roboter !

George Bush, das gehäuse wurde so gut wie möglich eines Affen nachempfunden. Leider Haben die Wissenschaftler bei der KI total versagt.....
 
marshall_mathers am 18.11.2004 11:42 schrieb:
LightningStorm am 03.11.2004 15:00 schrieb:
Dies ist ein Thema was mich sehr Interessiert denn ständig beginnt alles von vorn, nur irgendwann kann es nicht mehr weiter gehen.
Natürlich werden wir in den nächsten Jahren immer wieder neue Spielkonsolen kommen und gehen sehen nur irgendwann ist schluß und ich meine das dann schluß ist wenn sie es geschafft haben die spiele wie echt aussehen zu lassen und die Künstliche Intelligenz soweit ist das Videospiele Verboten werden. Denn die Künstliche Intelligenz wäre unser allen Untergang da irgendwer diese mißbrauchen würde. Wir können doch manchmal echt froh sein das unsere Computer und Spielkonsolen das tun was wir wollen oder? Stellt euch doch mal vor wie es andersrum wär.. wenn der Computer dich Steuert. Also es liegt an uns allen was aus der Zukunft wird und wir sollten uns auch mal mit etwas Simpleren zufrieden geben und nicht immer die besseren dinge haben wollen. Egal ob besser oder schlechter, alles hat seine vor- und nachteile. Aber nun werd ich mich erstmal an meiner PS2 abreagieren und gegen das System spielen. Denkt mal drüber nach und schreibt eure meinungen. Greets-> LS!


Es gibt doch schon nen Roboter !

George Bush, das gehäuse wurde so gut wie möglich eines Affen nachempfunden. Leider Haben die Wissenschaftler bei der KI total versagt.....
Also für 'nen Roboter hat der 'ne langsame Festplatte.
 
The_Final am 19.11.2004 09:50 schrieb:
marshall_mathers am 18.11.2004 11:42 schrieb:
Es gibt doch schon nen Roboter !

George Bush, das gehäuse wurde so gut wie möglich eines Affen nachempfunden. Leider Haben die Wissenschaftler bei der KI total versagt.....
Also für 'nen Roboter hat der 'ne langsame Festplatte.
Könnt aber auch an nem zu geringen Arbeitsspeicher liegen.
 
Zurück