Ich hab's ausprobiert, die Ergebnisse sind aber sehr bescheiden. "ChatGPT" lokal laufen zu lassen klingt zwar cool, die Performance von LLaMA ist aber meilenweit von der von ChatGPT entfernt (zumindest in den Modellen, die ich zum Laufen gebracht habe).
You are viewing a single comment's thread from:
yep, die Modelle sind noch viel schwächer als ChatGPT, aber wenn die Entwicklung so weitergeht, werden wir vielleicht in ein paar Monaten richtig gute lokale Modelle haben. Ist unglaublich.
Vielleicht, bin da auch gespannt.