From 38e34c97f0cd540531722c60b553e953d8fa21fa Mon Sep 17 00:00:00 2001 From: Andrei Betlen Date: Mon, 18 Sep 2023 16:11:27 -0400 Subject: [PATCH] Update llama.cpp --- llama_cpp/llama.py | 2 ++ llama_cpp/llama_cpp.py | 11 ++++++++--- vendor/llama.cpp | 2 +- 3 files changed, 11 insertions(+), 4 deletions(-) diff --git a/llama_cpp/llama.py b/llama_cpp/llama.py index 5d093be..0c0d48f 100644 --- a/llama_cpp/llama.py +++ b/llama_cpp/llama.py @@ -430,6 +430,7 @@ class Llama: n_tokens = llama_cpp.llama_tokenize_with_model( self.model, text, + len(text), tokens, n_ctx, add_bos, @@ -440,6 +441,7 @@ class Llama: n_tokens = llama_cpp.llama_tokenize_with_model( self.model, text, + len(text), tokens, n_tokens, add_bos, diff --git a/llama_cpp/llama_cpp.py b/llama_cpp/llama_cpp.py index f7e562d..53298df 100644 --- a/llama_cpp/llama_cpp.py +++ b/llama_cpp/llama_cpp.py @@ -950,42 +950,47 @@ _lib.llama_token_nl.restype = llama_token # LLAMA_API int llama_tokenize( # struct llama_context * ctx, # const char * text, +# int text_len, # llama_token * tokens, # int n_max_tokens, # bool add_bos); def llama_tokenize( ctx: llama_context_p, text: bytes, + text_len: Union[c_int, int], tokens, # type: Array[llama_token] n_max_tokens: Union[c_int, int], add_bos: Union[c_bool, int], ) -> int: - return _lib.llama_tokenize(ctx, text, tokens, n_max_tokens, add_bos) + return _lib.llama_tokenize(ctx, text, text_len, tokens, n_max_tokens, add_bos) -_lib.llama_tokenize.argtypes = [llama_context_p, c_char_p, llama_token_p, c_int, c_bool] +_lib.llama_tokenize.argtypes = [llama_context_p, c_char_p, c_int, llama_token_p, c_int, c_bool] _lib.llama_tokenize.restype = c_int # LLAMA_API int llama_tokenize_with_model( # const struct llama_model * model, # const char * text, +# int text_len, # llama_token * tokens, # int n_max_tokens, # bool add_bos); def llama_tokenize_with_model( model: llama_model_p, text: bytes, + text_len: Union[c_int, int], tokens, # type: Array[llama_token] n_max_tokens: Union[c_int, int], add_bos: Union[c_bool, bool], ) -> int: - return _lib.llama_tokenize_with_model(model, text, tokens, n_max_tokens, add_bos) + return _lib.llama_tokenize_with_model(model, text, text_len, tokens, n_max_tokens, add_bos) _lib.llama_tokenize_with_model.argtypes = [ llama_model_p, c_char_p, + c_int, llama_token_p, c_int, c_bool, diff --git a/vendor/llama.cpp b/vendor/llama.cpp index 80291a1..8781013 160000 --- a/vendor/llama.cpp +++ b/vendor/llama.cpp @@ -1 +1 @@ -Subproject commit 80291a1d02a07f7f66666fb576c5b1e75aa48b46 +Subproject commit 8781013ef654270cbead3e0011e33a6d690fb168