From 078902a6fe5fd0ddaf523c9a5a3e2c4093d9e430 Mon Sep 17 00:00:00 2001 From: Andrei Betlen Date: Mon, 24 Jul 2023 15:55:26 -0400 Subject: [PATCH] Add llama_grammar_accept_token --- llama_cpp/llama_cpp.py | 15 +++++++++++++++ 1 file changed, 15 insertions(+) diff --git a/llama_cpp/llama_cpp.py b/llama_cpp/llama_cpp.py index efb9936..0f319fc 100644 --- a/llama_cpp/llama_cpp.py +++ b/llama_cpp/llama_cpp.py @@ -1262,6 +1262,21 @@ _lib.llama_sample_token.argtypes = [ _lib.llama_sample_token.restype = llama_token +# /// @details Accepts the sampled token into the grammar +# LLAMA_API void llama_grammar_accept_token(struct llama_context * ctx, struct llama_grammar * grammar, llama_token token); +def llama_grammar_accept_token( + ctx: llama_context_p, grammar: llama_grammar_p, token: llama_token +): + return _lib.llama_grammar_accept_token(ctx, grammar, token) + + +_lib.llama_grammar_accept_token.argtypes = [ + llama_context_p, + llama_grammar_p, + llama_token, +] +_lib.llama_grammar_accept_token.restype = None + # Performance information