ollama/llama
Michael Yang 1775647f76 continue conversation
feed responses back into the llm
2023-07-13 17:13:00 -07:00
..
ggml-cuda.cu vendor llama.cpp 2023-07-11 11:59:18 -07:00
ggml-cuda.h vendor llama.cpp 2023-07-11 11:59:18 -07:00
ggml-metal.h vendor llama.cpp 2023-07-11 11:59:18 -07:00
ggml-metal.m fix compilation issue in Dockerfile, remove from README.md until ready 2023-07-11 19:51:08 -07:00
ggml-metal.metal vendor llama.cpp 2023-07-11 11:59:18 -07:00
ggml.c vendor llama.cpp 2023-07-11 11:59:18 -07:00
ggml.h vendor llama.cpp 2023-07-11 11:59:18 -07:00
k_quants.c vendor llama.cpp 2023-07-11 11:59:18 -07:00
k_quants.h vendor llama.cpp 2023-07-11 11:59:18 -07:00
llama-util.h vendor llama.cpp 2023-07-11 11:59:18 -07:00
llama.cpp vendor llama.cpp 2023-07-11 11:59:18 -07:00
llama.go continue conversation 2023-07-13 17:13:00 -07:00
llama.h vendor llama.cpp 2023-07-11 11:59:18 -07:00
utils.go call llama.cpp directly from go 2023-07-11 11:59:18 -07:00