AMS - oder wie sie auch morgen noch kraftvoll die Bevölkerung verarschen

04. Januar 2024

Der Jour­na­lis­mus konn­te lei­der nur die State­ments abschrei­ben - weil Wis­sen hat er keins, und recher­chie­ren ist ihm zu hoch.

Die­se Gesell­schaft ist das abso­lut gro­tesk Allerletzte.

Der Stan­dard hat das AMS um ein State­ment bezüg­lich der 300.000 Euro “Ent­wick­lungs­kos­ten” für den Beru­f­in­for­mat gebeten.

Das AMS hat wie folgt reagiert:

Und wei­ter zu den tech­ni­schen Details: “Der AMS-Berufsinfomat ist ein auf Gene­ra­ti­ve AI basie­ren­des Chat­sys­tem und nutzt Tech­no­lo­gien wie [Lar­ge Lan­guage Models (LLMs), Machine/Deep Learning][macht ChatGPT fürs den vom AMS beauf­trag­ten Ven­dor], [Python, Java, NoS­QL, SQL und JS][OMG they are run­ning a web­ser­ver, cant belie­ve thats 50 USD-500 USD a mon­th!]. Die Lösung besteht aus Client- als auch Server-Komponenten, [wobei die Ser­ver­kom­po­nen­ten sowohl haupt­säch­lich inter­ne KI-Verarbeitungsprozesse als auch exter­ne Ser­vices wie Ope­nAI nutzen][wut?]. [Die tech­ni­sche Basis bil­det ein RAG (Retrieval-augmented generation)-Verfahren mit einer vor-/nachgeschalteten Verarbeitungspipeline][jetzt hal­tet mal die Fres­se, RAG ist eine Vek­tor­da­ten­bank die ans User­prompt noch wei­te­re Instruk­tio­nen klatscht, damit ChatGPT exak­te­re Ant­wor­ten gene­riert - mehr dazu spä­ter]. [Erst als letz­ter Ver­ar­bei­tungs­schritt wird Ope­nAI ChatGPT 3.5T verwendet][So much wow! Davor ist da ja noch RAG geschnallt, das auf einem Web­ser­ver läuft!], um die Ant­wort auf Basis der aus­ge­wähl­ten Daten­ob­jek­te zu gene­rie­ren. Der Cli­ent wur­de im Rah­men der Anpas­sun­gen auf Bar­rie­re­frei­heit, Respon­si­ve­ness und Per­for­mance opti­miert und neu designt.” [OH, for fucks sake - yes, we also got a web­page designer]

src: click

Also zu RAG. Was kos­tet das denn so eine Vek­tor­da­ten­bank aus den 3 Web­sei­ten zu kre­ieren, die das AMS für “Berufs­in­for­ma­tio­nen scraped”?

Räus­per:

Is Fine-Tuning LLMs or Imple­men­ting RAG Expensive?
Both fine-tuning and RAG invol­ve some cos­ts and chal­len­ges that need to be con­si­de­red befo­re imple­men­ting them for your LLM app­li­ca­ti­on. Here are some examples:

The cost of com­pu­te power: Both fine-tuning and RAG requi­re signi­fi­cant amounts of com­pu­te power to train and run your models. Depen­ding on the size and com­ple­xi­ty of your models and data, this may incur sub­stan­ti­al expen­ses for cloud ser­vices or hard­ware resour­ces. For examp­le, accord­ing to OpenAI’s pricing1, fine-tuning GPT-3.5 Tur­bo cos­ts $0.008 per 1K tokens for trai­ning and $0.012 per 1K tokens for input usage2. Run­ning RAG also requi­res addi­tio­nal com­pu­te power for embed­ding models and vec­tor data­ba­ses that are used for infor­ma­ti­on retrieval34.

Final­ly, fine-tuning is the most expen­si­ve pro­cess. It chan­ges some fun­da­men­tal aspects of a model: its lear­ned know­ledge, its expres­si­ve rea­so­ning capa­bi­li­ties, and so on. The­se cos­ts can be unpre­dic­ta­ble and depend on the size of the model, but usual­ly cost around $100,000 for smal­ler models bet­ween one to five bil­li­on para­me­ters, and mil­li­ons of dol­lars for lar­ger models.”

src: click

Nur damit wir das ein­mal ver­ste­hen, Chat GPT bie­tet das “Finetu­ning” mit eige­nen Quel­len als Opti­on eben­falls an, nur falls man die­sen Schritt selbst hos­ten möch­te, kann man das selbst­re­dend eben­falls ger­ne tun. Man hos­tet das im All­ge­mei­nen selbst, wenn man auf open source LLMs zurück­greift, und dann nicht auch noch eine ChatGPT Anmel­dung zukauft, aber das AMS hat das ger­ne auch noch getan.

Nächs­ter Punkt, man greift auf RAG zurück wenn einem das Finetu­ning bei ChatGPT zu teu­er ist.

$0.012 per 1K tokens,

sind $0.004 pro A4 Sei­te. Das AMS lässt drei Web­sei­ten scra­pen. Sagen wir die haben den Umfang von 100 Bibeln

740000 Wör­ter in der Bibel

740000*100 = 74000000

gebro­chen durch 250 (Wör­ter auf einer Stan­dard A4 seite)

74000000/250 = 296000

296000 A4 Sei­ten zu 0.004 cent

296000*0.004 = 1184

Also

500 Euro mal 12 für die Jah­res­kos­ten für einen Ser­ver bei Hetz­ner macht 6000 Euro.

Finetu­ning von Chat-GPT auf 100 Bibeln an Con­tent macht 1200 Euro.

Wofür haben die jetzt 300.000 Euro aus gegeben?

Stan­dard 100 Nut­zer­li­zen­zen bei ChatGPT für AMS Leu­te! Ok, macht noch­mal 2000 Euro.

Der Dreck ist kei­ne 15.000 Euro wert (6000+1200+2000)+300 fürs Web­de­sign einer html sei­te mit iframe - und gezahlt haben sie 300.000 Euro.

What?!

Hier die Bei­spiel­rech­nung von symbl.ai mit Chat GPT 3.5 und RAG das das AMS verwendet:

Simu­la­ting an Example
To illus­tra­te how fine-tuning and RAG can be used for an LLM app­li­ca­ti­on, let’s simu­la­te an examp­le of buil­ding a chat­bot that can ans­wer ques­ti­ons about cloud com­pu­ting. Here are some sam­ple num­bers based on what is being offe­red in the mar­ket for fine-tuning pri­cing, vec­tor data­ba­se pri­cing, com­pu­te power examp­les and cost and sam­ple time­li­nes. The­se num­bers are for illus­tra­ti­ve pur­po­ses only and may not reflect the actu­al cos­ts and time­li­nes for your spe­ci­fic application.

[…]

RAG:

GPT-3.5 Tur­bo:

LLM Usa­ge Cost: $280 (from Fine-tuning)
Embed­ding Model Cost: $0.0001 per 1K tokens × 10,000 = $1
Vec­tor Data­ba­se Cost: $70 (Stan­dard Plan for Pinecone)
Com­pu­te Power Cost: $0.6 per hour (GPU + CPU) × 24 hours × 15 days = $216
Total Mon­th­ly Ope­ra­ting Cost: $280 + $1 + $70 + $216 = $567

src: click

Das Bei­spiel rech­net mit 9.6 Bibeln (Umfang) an Trainingsdaten.

Die­se Gesell­schaft ist das abso­lut gro­tesk und abar­tigst Allerletzte.

edit2: Und hier der Beleg:

https://wia.tv/berufsinfomat

Ein Nach­bau des AMS Berufs­in­fo­ma­ten [nicht von mir gebaut] - inner­halb von zwei Tagen erstellt. (Kei­ner der API calls geht (vor­der­grün­dig) zur AMS domain.)

Hat die sel­ben “Begren­zun­gen” drinnen:
Bildschirmfoto 2024 01 05 um 08 46 24

Nutzt die sel­ben Trainingsdaten:
Bildschirmfoto 2024 01 05 um 08 47 22

Bedeu­tet fol­gen­des: Ohne jetzt die­se vier Web­sei­ten zu scra­pen, wer­den alle vier nicht den Umfang von (gesam­melt) mehr als viel­leicht zwei Bibeln haben.

Das Bei­spiel oben rech­net mit einer Trai­nings­zeit für RAG von 3 Mona­ten bei einem Umfang von 9 Bibeln als Trai­nings­da­ten - das Fak­si­mi­le war inner­halb von zwei Tagen online.

Ich redu­zier den wahr­schein­li­chen Umfang der “Trai­nings­da­ten” mal auf zwei Bibeln. Bedeu­tet, wenn ich ChatGPTs Finetu­ning für 4.0 ver­wen­de, fal­len in etwa Kos­ten von 20 Euro gesamt an. Bei Nut­zung von RAG mit GPT 3.5 immer noch 500 Euro monat­lich, aber halt nicht für 3 Mona­te, son­dern für eins.

Ver­mu­te­te Kos­ten des Fak­si­mi­le­pro­jekts, bei Nut­zung von ChatGPTs “Finetu­ning”: Unter 100 Euro.

Das AMS hat aber schon 300.000 aus­ge­ge­ben. Denn man muss­te ja das Kon­sul­ting­un­ter­neh­men bezah­len und die Ser­ver kau­fen! Und dann in der Begrün­dung noch 100 Lizen­zen für GhatGPT unter­brin­gen, die mit dem Berufs­in­fo­ma­ten aber auch haar­ge­nau gar­nichts zu tun haben.

Der Jour­na­lis­mus war wie­der ein­mal KOMPLETT unfä­hig zu recherchieren.

Und hat anstatt­des­sen lus­ti­ges “he said” “she said” Brief­chen­durch­rei­chen von State­ments an die Öffent­lich­keit gespielt.

Und das AMS hats immer noch geschafft dafür 300.000 Euro auszugeben.

Die­se Gesell­schaft ist das ABSOLUT GROTESK und ABARTIGST ALLERLETZE.

edit3: Dan­ke. Start-up baut KI-Chatbot des AMS um weni­ge Euro nach









Hinterlasse eine Antwort