@informapirata @aitech @pazpi Qualcuno/a è riuscito ad eseguirlo? Su CPU è lentissimo, su GPU alloca 100GB di VRAM, ricarica il modello ad ogni query, non supporta motori come ollama...
matteofortini
joined 5 years ago
@informapirata @aitech @pazpi Qualcuno/a è riuscito ad eseguirlo? Su CPU è lentissimo, su GPU alloca 100GB di VRAM, ricarica il modello ad ogni query, non supporta motori come ollama...
@Moonrise2473 @informapirata e molto più intelligentemente Alexa, da sempre: "Alexa, due minuti" "Due minuti, a partire da ora". (Con Google devi spiegare tutto per filo e per segno)