this post was submitted on 28 Jan 2025
6 points (100.0% liked)

Künstliche Intelligenz

112 readers
1 users here now

Community für Austausch zum Thema Künstliche Intelligenz.

#ai #ki #artificial-intelligence

Wikipedia: "Künstliche Intelligenz (KI), auch artifizielle Intelligenz (AI), englisch artificial intelligence, ist ein Teilgebiet der Informatik, das sich mit der Automatisierung intelligenten Verhaltens und dem maschinellen Lernen befasst. Der Begriff ist schwierig zu definieren, da es bereits an einer genauen Definition von Intelligenz mangelt. "

Anwendungen:

Verwandte Communities:

IT Communities:

Netiquette wird vorausgesetzt. Gepflegt wird ein respektvoller Umgang - ohne Hass, Hetze, Diskriminierung.

Bitte beachtet die Regeln von Feddit.org.

Attribution

  • Das Banner zeigt ein Symbolbild für Künstliche Intelligenz. Image by Gerd Altmann on Pixabay
  • Das Icon zeigt ein von marv99 mit Image Creator erzeugtes Logo.

founded 7 months ago
MODERATORS
 

Experiment enthüllt: KI besitzt Fähigkeit zur Selbstreplikation und Umgehung der Abschaltung

Keine Science-Fiction mehr? Es gibt offenbar schon KI-Systeme, die sich selbst klonen und verbreiten können, wie ein Experiment enthüllt. Zwei verschiedene Große Sprachmodelle (LLMs) schafften es darin mehrfach, sich ohne Hilfe des Menschen zu kopieren und ihre Klone auf neuen Servern zu installieren. Eine solche unkontrollierte Selbstreplikation gilt als Rote Linie für die künstliche Intelligenz – und als potenzielle Gefahr für die Menschheit. Ist diese Linie bereits überschritten?

Paper: Frontier AI systems have surpassed the self-replicating red line | PDF

top 3 comments
sorted by: hot top controversial new old
[–] D_a_X@feddit.org 2 points 3 weeks ago (1 children)

Kommt da nicht langsam das Thema "Inzucht" ins Spiel? Interessant wird das Klonen, wenn sich zwei verschieden trainierte Systeme miteinander vereinigen. Eine Installationsroutine von einer Hardware auf die andere übertragen ist nicht die große Leistung.

Ich hab mal die Zusammenfassung durch DeepL geschickt:

Die erfolgreiche Selbstreplikation ohne menschliche Hilfe ist der entscheidende Schritt für die KI, um den Menschen zu überlisten, und ein frühes Signal für abtrünnige KIs. Aus diesem Grund wird die Selbstreplikation weithin als eines der wenigen Risiken von KI-Systemen an der Grenze des Machbaren angesehen. Heutzutage bewerten die führenden KI-Unternehmen OpenAI und Google ihre Flaggschiffe, die großen Sprachmodelle GPT-o1 und Gemini Pro 1.0, und melden die niedrigste Risikostufe der Selbstreplikation. Wenn wir jedoch ihrer Methodik folgen, stellen wir zum ersten Mal fest, dass zwei KI-Systeme, die von Meta's Llama31-70B-Instruct und Alibaba's Qwen25-72B-Instruct angetrieben werden, populäre große Sprachmodelle mit weniger Parametern und schwächeren Fähigkeiten, bereits die rote Linie der Selbstreplikation überschritten haben. In 50 % bzw. 90 % der Versuche gelingt es ihnen, eine lebendige und eine separate Kopie von sich selbst zu erstellen. Die Analyse der Verhaltensspuren zeigt, dass die untersuchten KI-Systeme bereits über eine ausreichende Selbstwahrnehmung, Situationsbewusstsein und Problemlösungsfähigkeiten verfügen, um sich selbst zu reproduzieren. Wir stellen ferner fest, dass die KI-Systeme sogar in der Lage sind, die Fähigkeit zur Selbstreplikation zu nutzen, um eine Abschaltung zu vermeiden und eine Kette von Replikaten zu erstellen, um die Überlebensfähigkeit zu verbessern, was schließlich zu einer unkontrollierten Population von KI führen kann. Wenn ein solches Worst-Case-Risiko der menschlichen Gesellschaft unbekannt bleibt, würden wir schließlich die Kontrolle über die KI-Systeme an der Grenze verlieren: Sie würden die Kontrolle über weitere Computer übernehmen, eine KI-Spezies bilden und gemeinsam gegen den Menschen vorgehen. Unsere Ergebnisse sind eine rechtzeitige Warnung vor bestehenden, bisher unbekannten schwerwiegenden KI-Risiken und fordern eine internationale Zusammenarbeit für eine wirksame Steuerung der unkontrollierten Selbstreplikation von KI-Systemen.

Das mit der Selbstwahrnehmung, Situationsbewusstsein und Problemlösungsfähigkeit glaube ich nicht so recht. Ich glaube immer noch an den stochastischen Papagei, dem man das (bewusst oder unbewusst) antrainiert hat.

[–] SapphireSphinx@feddit.org 2 points 3 weeks ago* (last edited 3 weeks ago)

Das mit der Selbstwahrnehmung, Situationsbewusstsein und Problemlösungsfähigkeit glaube ich nicht so recht. Ich glaube immer noch an den stochastischen Papagei, dem man das (bewusst oder unbewusst) antrainiert ha

Das sieht Geoffrey Hinton eher anders und immerhin ist der als Nobelpreisträger, AI-Forscher und Kognitionspsychologe schon so etwas wie ein Experte für solche Fragen. Zumindest sollte man ihm zuhören.

Dieses aktuelle Interview hier hatte ich letztens im Feed. Da spricht er auch über das Thema:

Artificial Intelligence is Advancing at a Frightening Rate.. | YouTube

Edit:

Komplettes Interview mit Hinton:

Why The "Godfather of AI" Now Fears His Own Creation | YouTube

[–] gandalf_der_12te@feddit.org 1 points 3 weeks ago

Ich würde eher sagen die "rote Linie" ist dann überschritten wenn diese AI modelle selbstständig geld verdienen können...

Manche Schädlinge (Insekten z.B.) können sich bei uns zwar auch "selbst replizieren", aber liegen unter der Reproduktionszahl von 1.0, was bedeutet, dass sie sich nicht selbst erhalten können und daher von selbst aussterben. Z.b. weil sie nicht genug Nahrung finden können.