Registrierung Kalender Mitgliederliste Teammitglieder Suche Häufig gestellte Fragen Zur Startseite

Informatiker Board » Themengebiete » übergreifende Themen » Künstliche Intelligenz » ai - gefährlich oder nicht? » Antwort erstellen » Hallo Gast [Anmelden|Registrieren]

Antwort erstellen
Benutzername: (du bist nicht eingeloggt!)
Thema:
Nachricht:

HTML ist nicht erlaubt
BBCode ist erlaubt
Smilies sind erlaubt
Bilder sind erlaubt

Smilies: 21 von 33
smileWinkDaumen hoch
verwirrtAugenzwinkerngeschockt
Mit ZungeGottunglücklich
Forum Kloppebösegroßes Grinsen
TanzentraurigProst
TeufelSpamWillkommen
LehrerLOL HammerZunge raus
Hilfe 
aktuellen Tag schließen
alle Tags schließen
fettgedruckter Textkursiver Textunterstrichener Text zentrierter Text Hyperlink einfügenE-Mail-Adresse einfügenBild einfügen Zitat einfügenListe erstellen CODE einfügenPHP CODE farbig hervorheben
Spamschutz:
Text aus Bild eingeben
Spamschutz

Die letzten 2 Beiträge
grey goose ai - gefährlich oder nicht

gegenwärtig halte ich eine kombination von self-assemblern und nano-technologie für am gefährlichsten. wenn sensorik und self-learning hinzukommt, kann eigentlich alles geschehen, z.b. können strukturen entstehen, die zu natürlichen ressourcen zugriff haben und somit die wachtumsgrenze lösen. micro-strukturen dürften dabei am effektivsten sein.

damit beende ich meine diskussion im öffentlichen raum - ich setze voraus, dass das szenario verstanden wird.
noneedforbot ai - gefährlich oder nicht?

Meine Frage:
ich sehe zu erwartende bewegung und zerlege sie in teilbewegungen, die einem takt entsprechen. dadurch komme ich in die lage, in einem set mit mehreren körpern zusammenstöße vorherzusehen und ausweichbewegung zu erzeugen.
das gelingt bei fahrenden robotern inzwischen sehr gut.

die grenze zum verblüffenden kann hier überschritten werden, wenn die software eine massive vorhersagekraft erreicht bzw. wenn sie vorhersagen kann, was ich auch beim besten willen nicht mehr vorhersagen kann.

taktische spiele wie backgammon, schach, go und poker hat die software inzwischen im griff. v.a. ist sprache ein grundlegendes werkzeug, und jeopardy gehört auch schon seit langem der software.
bilderkennung sollte folgen und die ableitung - zeigt ein gesicht entspannung, angst, zorn, ekel oder zweifel; gehört zur entspannung freude? usw.

die technik ist eher schlicht; neuronale netze in mehreren ebenen für verschiedene ebenen der perception. das leistet natürlich klasse - funktion und ableitung zu kennen löst bspw. jedes problem der mechanik.
intelligent ist dabei aber m.e. nichts, denn beides, sowohl der basis-algorithmus als auch der lern-algorithmus sind algorithmen, also streng mathematisch operierende files.

dann sehe ich die notwendigkeit, eine software zu begrenzen, denn z.b. sprache bietet viele wege, destruktive aussagen zusammenzubauen (und es entspricht wohl auch dem tier im menschen, aggressiv zu sein?)

wenn an dieser stelle die entscheidung nicht mehr erfolgt, sondern die software sich entsprechend des algorithmusses entwickelt, kann der growth einer kettenreaktion entsprechen.

ein schlichtes beispiel zur transparenz: die software baut den satz: "schalte die menschen aus!" das ergibt sich aus den gewichten, wie sie sich lokal und im augenblick gebildet haben.

die problematik hat ihren ursprung wohl in der sensorik. eine selbstlernende software sollte in der lage sein, aus einer gemessenen physikalischen bewegung eine realitätsnahe gleichung abzuleiten, deren lösung wieder zu einer bewegung führt, die hinreichend physikalisch ist.
intelligent ist das system weiterhin nicht, aber quasi.

der zweite teil der problematik besteht darin, dass manche sich nicht im klaren ist, was dieses system ist - wenn sie es ai nennen, hoffen, ai ist aware usw.
ich schlage vor, die sprache zu klären und begriffe wie "intelligence", "consciousness" usw. zu verwerfen, ehe nicht ein vollständig kontrolliertes system hergestellt wurde.


Meine Ideen:
meine idee
rege diskussion