diff options
author | Douglas Hanley <thesecretaryofwar@gmail.com> | 2024-04-24 08:10:07 -0500 |
---|---|---|
committer | GitHub <noreply@github.com> | 2024-04-24 16:10:07 +0300 |
commit | b4e4b8a9351d918a56831c73cf9f25c1837b80d1 (patch) | |
tree | 26aa8b15ca29b3e63ab300cc863739f1f31cd1d6 | |
parent | 3fe847b5747676ee1bf90371c46ed0bc66b57240 (diff) |
llama : add llama_get_pooling_type function (#6862)
* add llama_get_pooling_type function
* fix argument name, move with ctx funcs
-rw-r--r-- | common/common.h | 4 | ||||
-rw-r--r-- | llama.cpp | 4 | ||||
-rw-r--r-- | llama.h | 6 |
3 files changed, 10 insertions, 4 deletions
diff --git a/common/common.h b/common/common.h index 157b54a3..87361e8e 100644 --- a/common/common.h +++ b/common/common.h @@ -86,8 +86,8 @@ struct gpt_params { ggml_numa_strategy numa = GGML_NUMA_STRATEGY_DISABLED; - llama_rope_scaling_type rope_scaling_type = LLAMA_ROPE_SCALING_TYPE_UNSPECIFIED; - llama_pooling_type pooling_type = LLAMA_POOLING_TYPE_UNSPECIFIED; // pooling type for embeddings + enum llama_rope_scaling_type rope_scaling_type = LLAMA_ROPE_SCALING_TYPE_UNSPECIFIED; + enum llama_pooling_type pooling_type = LLAMA_POOLING_TYPE_UNSPECIFIED; // pooling type for embeddings // // sampling parameters struct llama_sampling_params sparams; @@ -15599,6 +15599,10 @@ enum llama_rope_type llama_rope_type(const struct llama_model * model) { return LLAMA_ROPE_TYPE_NONE; } +enum llama_pooling_type llama_pooling_type(const struct llama_context * ctx) { + return ctx->cparams.pooling_type; +} + int32_t llama_n_vocab(const struct llama_model * model) { return model->hparams.n_vocab; } @@ -390,8 +390,10 @@ extern "C" { LLAMA_API uint32_t llama_n_ubatch (const struct llama_context * ctx); LLAMA_API uint32_t llama_n_seq_max (const struct llama_context * ctx); - LLAMA_API enum llama_vocab_type llama_vocab_type(const struct llama_model * model); - LLAMA_API enum llama_rope_type llama_rope_type (const struct llama_model * model); + LLAMA_API enum llama_pooling_type llama_pooling_type(const struct llama_context * ctx); + + LLAMA_API enum llama_vocab_type llama_vocab_type (const struct llama_model * model); + LLAMA_API enum llama_rope_type llama_rope_type (const struct llama_model * model); LLAMA_API int32_t llama_n_vocab (const struct llama_model * model); LLAMA_API int32_t llama_n_ctx_train(const struct llama_model * model); |