Ancestors

Toot

Written by Thomas Renkert🦞 on 2025-01-28 at 16:28

[#]LLM -Fortschritte haben sich immer schon ausgezeichnet durch "plötzliche" große Sprünge bei der Effizienz, Qualität, Geschwindigkeit usw.. Forschung zu #KI legt nahe, dass ein Großteil der Architekturen redundant oder stark optimierbar sind. Deshalb kam #Deepseek-R1 nicht völlig überraschend.

Die eigentlich interessante Wendung ist die öffentliche Interpretation. Von der "Kurskorrektur" bei #Nvidia an der Börse bis hin zu " #China überholt den Westen". Denn eigentlich bedeutet es vor allem: 1) #Opensource Modelle ziehen mit closed Modellen gleich. 2) Rein vonseiten der Ressourcen ist das Rennen immer noch offen.

Kann sein, dass nächste Woche Jemand aus Nigeria oder Griechenland ein Foundation Modell für <1 Mio. trainiert. Die spannendere Perspektive ist daher: 4) der entscheidende Faktor ist Bildung und Talent (in der Breite). Ab diesem Punkt sind nicht mehr 3 "Genies" mit exorbitanten Gehältern entscheidend, sondern 2000 Leute mit einer sehr soliden Grundausbildung...

=> More informations about this toot | More toots from thomasrenkert@hcommons.social

Descendants

Written by Thomas Renkert🦞 on 2025-01-28 at 16:29

(wehmütiger Blick in Richtung Schulsystem). Und schließlich 5) man kann jetzt große SOTA-Modelle selber mit Desktophardware (#MacMini Cluster) laufen lassen. Es hat ca. 2.5 Jahre gedauert und ist noch teuer, aber wir sind jetzt an diesem Punkt.

Man könnte jetzt - wo es jemand vorgemacht hat - ausloten (in Startups, Hochschulen usw.), wie weit eine #lowtech -Strategie, die auf andere Ansätze als scaling setzt, tragen könnte. Schon im Sinn von geopolitischer Autonomie und mehr #KIMündigkeit.

=> More informations about this toot | More toots from thomasrenkert@hcommons.social

Written by Jörg Knappen on 2025-01-28 at 19:00

@thomasrenkert

Eine weitere wichtige Botschaft ist: Um LLMs zu trainieren und zu betreiben, werden künftig keine neuen Atomkernkraftwerke nötig sein, weil der Energiebedarf sich noch sehr drücken lässt.

=> More informations about this toot | More toots from jk@nfdi.social

Written by Thomas Renkert🦞 on 2025-01-28 at 19:08

@jk für die Inference auf jeden Fall. Fürs Training gibt es eigentlich schon länger Ansätze, wie #primeintellect gezeigt hat, z.B. ray.

D.h. das Energieargument verliert so oder so schnell an Gewicht.

=> More informations about this toot | More toots from thomasrenkert@hcommons.social

Written by Livia Weigel on 2025-01-29 at 11:28

@thomasrenkert interessant, leider vermisse ich Punkt 3), ist der drin oder rausgekürzt?

=> More informations about this toot | More toots from livia@sciences.social

Written by Thomas Renkert🦞 on 2025-01-29 at 20:05

@livia nein, das war ein copy paste fehler :) es sind am Ende nur 4 Punkte.

=> More informations about this toot | More toots from thomasrenkert@hcommons.social

Proxy Information
Original URL
gemini://mastogem.picasoft.net/thread/113906923165147672
Status Code
Success (20)
Meta
text/gemini
Capsule Response Time
271.336994 milliseconds
Gemini-to-HTML Time
1.21828 milliseconds

This content has been proxied by September (3851b).