… letzte Nacht hatte ich mal meinen “Coder-Benchmark” (was aus meiner Diplomarbeit und Uni-Anfänger-Praktikum-Projekt Ende der '90-er) bei Grok ausprobiert.
Hier mein erster Prompt mit dem Ergebnis nach 30 Sekunden:
VDX: … kannst du ein Programm zur Ausführung im Firefox-Browser erstellen, in welchem ich mit der Maus mit 3 auswählbaren Farben für Elektroden (Blau = -100 Volt, Grau = 0 Volt, Rot = +100 Volt) Elektrodenkonturen auf eine 100x100 Einheiten große Fläche zeichne, und dann das Äquipotentialfeld zwischen diesen Elektroden und dem äußeren “frei mitlaifendem” Rand berechnet und in einem separaten Fenster als farbiges 3D-Objekt anhezeigt wird und mit der Maus im Raum gedreht werden kann?
VDX: … kannst du die berechnete Fläche entsprechend dem jeweiligen Potential zwischen -100 Volt und +100 Volt mit dneFarbverläufen zwischen Blau (-100V9 und Rot (+100V) einfärben und die dargestellte Höhe mit einem Schieber am Rand variabel machen? Diesen Farbverlauf dann bitte auch im linken Fenster anzeigen
Nice! Grok muss ich auch mal testen. Bislang bin ich mit ChatGPT gut gefahren. Aber Grok soll weniger gefiltert sein … bestimmt auch gut für “alternative” Forschung. Wobei ich gemerkt habe, dass ChatGPT-o4 (was ich meistens nehme) letztens nochmal deutlich optimiert wurde und empfänglicher für spekulative Themen ist. Auch das Canvas-Feature ist für die Programmierung genial.
Ich hab mir letztens ein fünfer auf openrouter.ai geladen, damit ich dort ein paar KI’s vergleichen kann ohne zig accounts und zig abos zu benötigen.
ich hab zb. VDX seine anfragen mal an Claude 3.7 (kam erst kürzlich frisch raus und übertrifft angebliche alle in programmierung),
die webapplikation ging auf anhieb, wenn auch mit ein paar fehlern hier und da. falsche orientierung des meshes etc. aber funktional.
die 5…6 anfragen haben mich insg. ca. 40cent gekostet. das modell is ziemlich teuer im vergleich zu den anderen.
Grok, da haben die leider nur die älteren versionen. konnte ich jetzt nich testen.
auf der seite kann man für eine anfrage gleich mehrere KI modelle auswählen und die antworten vergleichen.
zb. ein datensatz aus einer csv visualisieren über html und php
da war claude 3.5 am besten, gefolgt von gpt-4o
deepseek-r1 ging erst im zweiten anlauf
und das deepseek das ich lokal auf dem rechner laufen hab (wenig parameter weil nur 8gb vram… das r1 braucht so 700…1000gb…) bekam das garnicht auf die reihe
für so kleinkram is das optimal
kürzlich brauchte ich zb. ein python programm welches auf einem com port mehrere anfragen stellt, die antwort dekodiert und mir in einem fenster als status anzeigt.
da hätt ich bestimmt 20x googlen müssen und 2 stunden gebraucht bis das funktioniert hätte. da waren es 20sek.
problem ist halt immer, der kontext. idealerweise lässt man den code so schreiben dass jederzeit was hinzugefügt oder entfernt werden kann ohne gleich alles komplett kennen zu müssen.
modelle mit viel kontext wie zb. gemini pro 1.5 können sich 2M token merken… das waren glaub 150.000 codezeilen. andere hören bei ein paar hundert bis tausend schon auf. lokal-laufende mit wenig vram … da hörts nach der ersten frage oft auf.
… ja, für kleinere Projekte sind die KI’s schon eine massive Erleichterung … solange man halt nicht darauf achten muß, von seinem Chef “outgesourst” zu werden, weil die typisch anstehenden Programmier-Aufgaben dann auch von einem billigeren Studenten erledigt werden können, statt auf einen erfahrenen Software-Experten angewiesen zu sein
Ich programmiere ja auch schon seit Ende der '70-er und habe über die Zeit so einiges an Verbesserungen (und Verschlechterungen) mitbekommen – das mit den KI’s ist aber eine Echte “Revolution” … die Frage, ob gut oder schlecht, kann aber immer nur im Nachhienein beantwortet werden.
Zum Glück bin ich aber auch kein “Programmierer”, der um seinen Job bangt (meine Frau schon), sondern ein “Entwickler” im high-tech-Bereich, wo es noch ein paar Jahre länger dauern dürfte, bis sich das da auch ändern dürfte
Was wäre denn zur Zeit die beste KI (erst mal kostenlos) zum Programmieren? Ich habe zwar sehr lange Zeit mit VB an meinem Arbeitsplatz gearbeitet, aber zuhause will ich eher mal C++ für Microcontroller verwenden. Allerdings hab ich die Grenzen schon öfter zu spüren bekommen, wenn die KI einfach wieder etwas am Code ändert, was die ganze Zeit wichtig war und funktionierte. Oder sie sich dumm stellt, bis kurz bevor das Limit angelaufen ist.
In den letzten Monaten habe ich jeweils die neu rausgekommenen “kostenlosen Demos” getestet – das wären die ChatGPT-Modelle gewesen oder auch Claude 3.5 … gestern eben Grok.
Solange du um die Datensicherheit bedenken hast, besser Claude … ansonsten hat aktuell wohl eher Grok die Nase vorn (und erlaubt mehr Anfragen pro Tag oder Session als ChatGPT)
Ich habe gerade mal Gemini getestet, das war nicht übel, bis ich auf Settings geklickt habe, danach habe ich mein Gespräch nicht mehr gefunden. Copilot habe ich noch nicht getestet. Mal sehen.
Ich probiere seit ein paar Wochen Deepseek und bin wirklich begeistert: schnell, halbwegs zuverlässig und meist gut erreichbar. Die haben auch etliche Modelle, die man kostenlos nutzen kann: https://huggingface.co/spaces?p=3&sort=trending
dazu mit Janus und Flux noch 2 nette Grafikgeneratoren, die auch gar nicht schlecht sind.
Man darf sich nur nicht kritisch über China äußern
… das “gefährliche” an den meisten der “chinesischen Taktiken” ist, daß sie erstmal nur Vorteile bringen und kostenlos bis sehr günstig sind … bis sie genug “Masse” aufgebaut haben und eventuelle Konkurrenz aus dem Rennen ist … dann erst zeigen sie ihre wahren Absichten … und die sind zu 120% “China First!”
Das befürchte ich aber bei all den anderen KIs auch. Ich gehe davon aus, dass die Menschen jetzt erst mal “angefüttert” werden, bis sie nichts mehr ohne KI auf die Reihe bekommen. Danach gehts nur noch mit genügend Kohle , oder halt auch persönliche Daten etc.
Es gibt open source modelle die man lokal auf dem rechner laufen lassen kann, ohne nach hause telefonieren. die kann dir keiner nehmen. brauchst nur die entsprechende hardware.
auf huggingface findet man etliche die man einfach runterladen kann.
Nur haben die halt nicht so viel gelernt, und haben auch nicht so ein großes Gedächtnis.
(Gerade was z.B. Programmieren betrifft, da gibt es große Unterschiede auch unter den Online KIs)
Ja weil du nur die kleinen mit einer hand voll parameter und kontext laufen lassen kannst bevor dein system abschmiert.
Mehr parameter = mehr gelernt. mehr kontext = mehr gedächtnis.
aber beides braucht unmengen an schnellen speicher.
Wenn man jetzt die großen, online verfügbaren Deepseek, LLaMA oder Gwen lokal laufen lassen will braucht man nunmal 800gb VRAM… das wären 10…11 H100 grafikkarten die pro stück ca. 30.000€ kosten.
Es hält dich niemand ausser vielleicht die vernunft und der geldbeutel davon ab das zun tun. Und ändern wird sich das in absehbarer zukunft auch nicht, eher braucht man dafür noch mehr speicher.
Ja, Speicher und Energiefresser. Das wird sich nicht ändern, das ist ein Loch ohne Boden. Und ich finde es fraglich, ob sich das überhaupt rechnet. Im Moment geht es ja um Konkurrenz, da schaut man noch nicht aufs Geld.
Ich denke, da müsste man schon ein neues Konzept erfinden, um alles viel kleiner und weniger Energie raubend zu machen. Also eher auf biologischem Weg ein künstliches Gehirn züchten, für das man ein passendes Interface braucht. Am besten noch mit Zuckerwasser füttern.
Oder eine Zwansgvernetzung der menschlichen Gehirne. So dass jeder aus dem Wissenspool aller anderer Menschen schöpfen kann.
Man darf sich von keiner dieser KI’en abhängig machen. Ich nutze die eher zum Spaß oder aus Neugier. Bei manchen Dingen haben die mir aber auch schon echt geholfen: Suche nach Ferienunterkünften, Zusammenfassung von Themen/Meinungen, Sachfragen etc. etc. Hin und wieder kommen auch echte Falschmeldungen, z.B. Suche nach Hybridwechselrichter mit best. Eigenschaften. Man muß also immer die Angaben auch selber noch überprüfen. Aber man bekommt bestenfalls gute Ideen geliefert.