Künstliche Intelligenz

112 readers
1 users here now

Community für Austausch zum Thema Künstliche Intelligenz.

#ai #ki #artificial-intelligence

Wikipedia: "Künstliche Intelligenz (KI), auch artifizielle Intelligenz (AI), englisch artificial intelligence, ist ein Teilgebiet der Informatik, das sich mit der Automatisierung intelligenten Verhaltens und dem maschinellen Lernen befasst. Der Begriff ist schwierig zu definieren, da es bereits an einer genauen Definition von Intelligenz mangelt. "

Anwendungen:

Verwandte Communities:

IT Communities:

Netiquette wird vorausgesetzt. Gepflegt wird ein respektvoller Umgang - ohne Hass, Hetze, Diskriminierung.

Bitte beachtet die Regeln von Feddit.org.

Attribution

  • Das Banner zeigt ein Symbolbild für Künstliche Intelligenz. Image by Gerd Altmann on Pixabay
  • Das Icon zeigt ein von marv99 mit Image Creator erzeugtes Logo.

founded 7 months ago
MODERATORS
1
 
 

Video: So läuft DeepSeek lokal mit voller Qualität - Dauer: 24 min

[...] Also bleibt nur die CPU als Alternative. Aber wir brauchen halt mindestens ungefähr 720 GB RAM. Und normale Büro- oder Gaming-PCs haben nur vier RAM-Slots. Es gibt RAM-Riegel mit maximal 64 GB. Das ergibt 256 GB bei Consumer-Desktop-PCs. Also braucht man eine Workstation oder ein Server-Mainboard. Server-CPUs können mehr RAM anbinden, und die Boards haben auch mehr Slots.

Aus dem Fazit:

Ich glaube, so lange herumgefrickelt habe ich erst für sehr wenige 3003-Videos. Also das habt ihr vielleicht auch gemerkt. Es gibt so viel zu erzählen, das Thema ist auch einigermaßen komplex. Aber auf alle Fälle ist meine ursprüngliche Frage zumindest ansatzweise beantwortet: Ja, DeepSeek liefert mit den offenen Weights offenbar wirklich das Gleiche, was da auf chat.deepseek.com zu sehen ist beziehungsweise in der Mobil-App. Aber auf jeden Fall ist das eine dicke Sache, weil DeepSeek R1 und V3 sind die ersten KI-Modelle, die ich lokal laufend anfassen kann, sozusagen, die wirklich mit den großen Platzhirschen von OpenAI, Anthropic und Google mithalten können.

2
3
4
5
 
 
6
7
8
 
 

„Humanity’s Last Exam“: KI-Forscher haben einen neuen Test entwickelt, an dem selbst die besten aktuellen KI-Modelle scheitern – noch. Große Sprachmodelle wie DeepSeek, OpenAI-o1 oder Gemini 2.0 lösten weniger als zehn Prozent der 3.000 Aufgaben korrekt, die meisten erreichten sogar nur rund fünf Prozent. Die Menschheit hat demnach zumindest in der Wissenschaft auf Expertenniveau noch einen Vorsprung. Die Fragen des „Last Exam“ stammen aus mehr als 100 Fachgebieten und wurden von Forscher weltweit eingereicht.

Paper: Humanity's Last Exam | PDF

9
10
 
 

"Die vorher kaum bekannte chinesische KI-Firma DeepSeek hat einen Überraschungserfolg geschafft. Darin steckt auch eine Hoffnung für Europa."

11
12
13
14
15
 
 

Laut Berichten von Bloomberg haben Sicherheitsforscher von Microsoft Ende 2024 ungewöhnliche Aktivitäten festgestellt. Entwicklerkonten, die mutmaßlich mit DeepSeek in Verbindung stehen, sollen über die API von OpenAI große Datenmengen abgegriffen haben.

16
 
 
17
 
 

Eine kleine Ollama -Anleitung, wie man die DeepSeek-Modelle ganz einfach lokal auf Linux mit 16 GB RAM (sogar ohne GPU) ausprobieren kann. Hier am Beispiel des ganz ordentlichen 14b-Modells deepseek-r1:14b.

  • der Ollama-Download hat ca. 1.6 GB
  • das Modell deepseek-r1:14b hat ca. 9 GB

Ollama wie folgt in einen Ordner herunterladen und dort auspacken:

mkdir ollama
cd ollama
wget https://github.com/ollama/ollama/releases/download/v0.5.7/ollama-linux-amd64.tgz
tar xfv ollama-linux-amd64.tgz

Ollama-Server starten:

bin/ollama serve

Modell herunterladen und starten:

bin/ollama run deepseek-r1:14b

Modell stoppen:

bin/ollama stop deepseek-r1:14b
18
19
20
21
 
 

Archiv

Nachdem die KI-App des chinesischen Unternehmens DeepSeek am Wochenende die Konkurrenz in Apples App Store überholt hat, ist der Börsenwert von Nvidia am Montag um fast 600 Milliarden abgesackt. Es ist der größte derartige Tagesverlust der US-Börsengeschichte. Das vorher noch wertvollste Unternehmen der Welt ist damit auf Platz drei hinter Apple und Microsoft abgerutscht. Mit einem Wertverlust von 17 Prozent war der Kursrutsch von Nvidia aber am Montag noch nicht einmal der größte, Siemens Energy – wo man zuletzt von Erwartungen auf den hohen Strombedarf von KI-Rechenzentren profitierte – stürzte gar um gut 20 Prozent ab.

22
6
submitted 3 weeks ago* (last edited 3 weeks ago) by marv99@feddit.org to c/kintelligenz@feddit.org
 
 

Experiment enthüllt: KI besitzt Fähigkeit zur Selbstreplikation und Umgehung der Abschaltung

Keine Science-Fiction mehr? Es gibt offenbar schon KI-Systeme, die sich selbst klonen und verbreiten können, wie ein Experiment enthüllt. Zwei verschiedene Große Sprachmodelle (LLMs) schafften es darin mehrfach, sich ohne Hilfe des Menschen zu kopieren und ihre Klone auf neuen Servern zu installieren. Eine solche unkontrollierte Selbstreplikation gilt als Rote Linie für die künstliche Intelligenz – und als potenzielle Gefahr für die Menschheit. Ist diese Linie bereits überschritten?

Paper: Frontier AI systems have surpassed the self-replicating red line | PDF

23
 
 

Archiv

Nepenthes funktioniert, indem eine Seite mit rund einem Dutzend Links generiert wird, die alle wieder auf sich selbst verlinken. Noch dazu haben die Nepenthes-Seiten extrem lange Ladezeiten, was bei den Crawlern Zeit bindet. Das Konzept lässt sich hier anschaulich ausprobieren (ja, das Laden der Seite im Schneckentempo ist Absicht). Wer über genug Rechenleistung und Bandbreite verfügt, kann noch einen Schritt weitergehen, und die Crawler mit Markov-generiertem Nonsens füttern, der die Festplatten der KI-Server verstopft.

24
 
 

Archiv

Um Betrug in wissenschaftlichen Publikationen zu verhindern, empfehlen die Studienautoren unter anderem die Einführung technischer Standards, um die Sicherstellung der Datenherkunft zu gewährleisten. Es sollte eine Pflicht zum Einreichen der Rohdaten geben. Auch komme der Einsatz automatisierter Tools zur Erkennung von gefälschten Bildern in Betracht.

25
 
 

Archiv

Die neuesten und leistungsfähigsten KI-Modelle erreichen laut der Anbieter gut und gerne 90 Prozent der gängigen Benchmarks. Das bedeutet schlicht, dass sie einen derart hohen Anteil an Aufgaben eines standardisierten Tests bestehen können. Nun gibt es jedoch einen neuen Test samt wissenschaftlichem Paper: Humanity's Last Exam. An diesem scheitern selbst die fortschrittlichsten Modelle.
Entwickelt wurde der Benchmark von den beiden US-Organisationen Scale AI und dem Center for AI Safety (CAIS). Die haben von knapp 1000 Experten aus 50 Ländern Fragen zu ihren jeweiligen Gebieten eingeholt. 70.000 Fragen sind zusammengekommen. Von denen haben Menschen in einem Review-Prozess 13.000 Fragen genauer angeschaut, in den Test sind davon wiederum 3000 Fragen aufgenommen worden. Es geht dabei um Mathematik, Naturwissenschaften, Geisteswissenschaften und mehr. Die Aufgabenstellungen variieren zwischen reinen Textaufgaben bis zu benötigten multimodalen Fähigkeiten, um Diagramme und Bilder zu verstehen. Wie der Name des Tests schon erahnen lässt, meinen die Experten, den ultimativen Test entwickelt zu haben.

view more: next ›