Der eine Handwerker ist halt auch Strunzdumm wenn er uebehaupt noch Diesel braucht. Gibt schon seit laengerem eine gute Auswahl an den diversen elektrischen Kleinbussen die ueblicherweise fuer Handwerker umgebaut werden.
aard
Laut einem Bericht der "Financial Times" sagte sie, dass Deutschland aufgrund von Entscheidungen früherer Regierungen keine Alternative zum Gas habe, um den Grundlaststrombedarf zu decken
Waere nett wenn sie auch sagen wuerde dass das alles CDU-Regierungen waren.
Es gibt wohl die ueblichen Verdaechtigen die darueber ungluecklich sind.
Hier in Finnland kamen ein paar verirrte Drohnen runter - und unsere Regierung hat explizit darauf hingewiesen dass Ukraine ein Recht auf Selbstverteidigung hat, was beinhaltet dass sie sich ihre Ziele in Russland selber aussuchen koennen, und es von Seite der Finnischen Regierung keinerlei Versuche gibt ihnen da reinzureden.
Fuer alle die auch mal einen Browser benutzen wollen sind 8GB zu wenig. Und schon seit einiger Zeit. Ja, auch bei Apple.
Ich hatte natuerlich die Gesamtkosten angeschaut, nicht nur den direkten Waermepumpeneinbau. Gibt natuerlich Variationen je nach Haus, aber generell war schon damals so dass es nur Sinn macht ein Haus mit Oelheizung zu kaufen wenn man die direkt rausreisst. Ich denke jetzt, etwas ueber 10 Jahre spaeter, duerfte das noch deutlicher sein.
Hast du das ordentlich durchgerechnet? Wir hatten 2014 ein Haus gekauft, und eines mit Oel war auch eine Option. Ich hab das damals durchgerechnet, durch die massiven laufenden Kosten fuer Oel haette sich damals schon eine Umruestung auf Waermepumpe+Geothermie (keine Ahnung ob das der korrekte deutsche Begriff hier ist) schon im 6. Jahr gelohnt.
Wir hatten dann ein anderes Haus genommen weil wir nicht direkt nach Einzug renovieren wollten.
Gibt es irgendwelche Evidenz, dass das nicht so ist?
Hatte ich doch geschrieben - ich habe diverse Tools die mich etwa 2-3 Wochen Arbeit gekoestet haetten, und ich so in knapp unter einer Woche gebaut habe. Mit Aufarbeiten des Codes damit er wartbar ist - fuer Wegwerftools ist das etwa ein Tag. Weitere Entwicklung danach mach ich manuell, da taugt das nicht fuer, unter anderem wegen fehlendem Codeverstaendnis fuer das was er generiert hat. Hauptarbeit ist auch das so zu lenken dass wartbarer Code rauskommt.
Ergebnis haengt auch sehr stark von der Sprache ab - ich hatte mit Abstand die besten Ergebnisse mit elisp (und mir da auch diverse Sachen gebastelt fuer die ich sonst keine Zeit gehabt haette). Das hilft da deutlich dass es durch den lisp-interpreter gute Fehlermeldungen gibt, und die eingebaute Dokumentation exzellent ist. Da die Welt wohl leider nicht auf Emacs umsteigen wird ist das allerdings fuer die meisten Leute wohl eher nicht relevant.
So wie ich test driven development erlebt habe ging es darum die Tests vor der Implementation zu entwickeln - das hatte nichts mit unsolidem Konzept zu tun. Das war bei Programmierern eher ungeliebt weil das Gegenteil erforderlich war: Sie muessten sich darueber Gedanken machen wie der Code aussehen soll bevor sie den taetsaechlichen Code schreiben um dafuer sinnvolle Tests zu bauen. Das wurde oft als "das sollten doch Architekten machen" gesehen, "ich leg einfach los und das wird dann irgendwann".
Ich beschreibe hier lediglich meine eigenen Erfahrungen - ich halte nicht viel davon Dinge blind zu hassen ohne sich das naeher angeschaut zu haben. I spiele seit etwa drei Jahren mit LLMs, hauptsaechlich auf lokaler Hardware. Die letzten Monate kamen Claude credits dazu weil es fuer bestimmte Probleme tatsaechlich Sinn gemacht hat.
Mein Hauptproblem mit LLMs ist der massive Energieaufwand, vor allem fuer Training - da sollte reguliert werden dass das zwingend erneuerbare Energien sein muessen (und zwar dafuer neu gebaut, nicht bestehende), und entsprechende Strafzoelle auf Benutzung von LLMs ausserhalb von EU wo wir nicht regulieren koennen. Das naechste ist dass der aktuelle Hype zum einen eine unnoetige Investitionsblase ist, zum anderen dann ohne Nachzudenken ueberall LLMs eingebaut werden, ohne dass verstanden wird zu welchem Zweck, oder auch wie das Fehlerverhalten ist. Zu Fehlerverhalten bei Codegenerierung habe ich oben ja was geschrieben - ich hab bisher grob 100EUR an Claude Credits verbrannt einfach nur um zu beobachten wie das Ding versucht weiterzumachen wenn es steckenbleibt (tl;dr: in dem Fall ist es praktisch immer besser das von Hand zu machen - teilweise ist es klar billiger, und ansonsten wird ziemlich sicher der erzeugte Code scheisse sein, bzw, deutlich zu viel neu schreiben).
Ich gehe davon aus dass wir langfristig mit LLMs arbeiten werden - aber sicher >95% der aktuellen Einsatzzwecke ein Platzen der Investitionsblase nicht ueberleben werden, aus einer Kombination von "das war von Anfang an doof" und "nachdem die jetzt tatsaechliche Kosten bezahlt haben wollen ist das zu teuer". Ich gehe auch nicht davon aus dass bei Bezug auf Code wir eine Verbesserung ueber die 10k-20k LOC sehen werden - auch um das zu erreichen steigt die Koordinationsarbeit vom Menschen um die relevanten Informationen im Context Window zu halten, und ein Vorhalten von nennenswert groesseren Context Windows wuerde das zu sehr verteuern.
Ich wuerde darauf tippen dass generell das Generieren von Code mit Ende der Blase deutlich weniger werden wird - das duerfte sich dann nur noch bei Modellen lohnen die man lokal laufen lassen kann. Bei Reverse Engineering und aehnlichen Analysen wuerde ich erwarten dass das weiterhin viel genutzt wird - da sind heute schon lokale Modelle recht nuetzlich.
Ich sehe vor allem bei kleinen, klar abgegrenzten Projekten einen Vorteil - Dinge die man in 10-20k Code machen kann. Danach bekommt das LLM auch massiv Probleme, und macht zu viel Duplizierung von Code - ab der Schwelle etwas ist es fast immer schneller ein Problem selber zu beheben.
Auch um da hinzukommen braucht es recht viel Anleitung - das ist praktisch wie wenn man einen Berufsanfaenger anleitet der alle Patternbooks auswendig gelernt hat, aber nicht so richtig versteht wie man das in eine funktionierende Anwendung zusammensetzt. Wirklich gute Erbebnisse bekommt man auch nur wenn man von Anfang an so arbeitet dass die KI ihren Code testen kann (wer schon laenger dabei ist wird sich an "test driven development" erinnern - die Methodik ist ideal mit KI). Aber auch da gibt es Ausreden ("ich hab den Test nicht kaputtgemacht, der hat noch nie funktioniert"), und oft genug Probleme die sich mit Erfahrung schneller (und eventuell billiger) loesen lassen als mit KI. Man sieht da recht schoen dass der erzeugte Code am Anfang oft nicht compiliert - ohne dass die KI selber Compilieren kann scheitert das schon daran. Und bei Problemen werden so lange Variationen durchprobiert bis das tut - was sehr schoen zeigt dass eben keinerlei Codeverstaendnis vorhanden ist.
Gerade bei existierenden Projekten fuehrt das dann dazu dass die vorgeschlagenen Aenderungen deutlich groesser sind als noetig - was fuer die Nachvollziehbarkeit spaeter ein Problem ist.
Wir machen als Firma viel um CI und Testautomatisierung - und haben da immer wieder Bedarf an spezialisierten und relativ kleinen Tools. Fuer den Spezialfall ist das ideal - das ist so Groessenordnung 20 EUR API-Credits und ein Tag Anleitung, gefolgt von 3-4 Tagen Code saubermachen gegenueber 2-3 Wochen komplett selber machen.
Ich koennte mir denken dass man in einer reinen Microservicesumgebung (sofern man die einzelnen Services bei 10-20k LOC halten kann) damit die Entwicklung deutlich beschleunigen kann - das trifft aber eben nur auf einen Bruchteil der Software da draussen zu.
I missed that she had that with her - that makes things even worse. Either he's a weapons grade moron, or he planned that trip to kill her.










Das ist nicht nur ein KI-erzeugtes Problem. Das fing schon vor Jahren an als sie ihre Strategie voll auf "Leute unendlich am Geraet halten" umgestellt haben. Davor konnte man Kinder damit ab und an Cartoons schauen lassen, danach war es praktisch unmoeglich irgendwas zu schauen ohne in billigsten massenproduzierten Brainrot abzudriften.