[#]LLM -Fortschritte haben sich immer schon ausgezeichnet durch "plötzliche" große Sprünge bei der Effizienz, Qualität, Geschwindigkeit usw.. Forschung zu #KI legt nahe, dass ein Großteil der Architekturen redundant oder stark optimierbar sind. Deshalb kam #Deepseek-R1 nicht völlig überraschend.
Die eigentlich interessante Wendung ist die öffentliche Interpretation. Von der "Kurskorrektur" bei #Nvidia an der Börse bis hin zu " #China überholt den Westen". Denn eigentlich bedeutet es vor allem: 1) #Opensource Modelle ziehen mit closed Modellen gleich. 2) Rein vonseiten der Ressourcen ist das Rennen immer noch offen.
Kann sein, dass nächste Woche Jemand aus Nigeria oder Griechenland ein Foundation Modell für <1 Mio. trainiert. Die spannendere Perspektive ist daher: 4) der entscheidende Faktor ist Bildung und Talent (in der Breite). Ab diesem Punkt sind nicht mehr 3 "Genies" mit exorbitanten Gehältern entscheidend, sondern 2000 Leute mit einer sehr soliden Grundausbildung...
=> More informations about this toot | More toots from thomasrenkert@hcommons.social
@thomasrenkert interessant, leider vermisse ich Punkt 3), ist der drin oder rausgekürzt?
=> More informations about this toot | More toots from livia@sciences.social
@livia nein, das war ein copy paste fehler :) es sind am Ende nur 4 Punkte.
=> More informations about this toot | More toots from thomasrenkert@hcommons.social
text/gemini
This content has been proxied by September (3851b).