Method List
-
#allow_requantize LlamaCpp::LlamaModelQuantizeParams
-
#allow_requantize= LlamaCpp::LlamaModelQuantizeParams
-
#attention_type LlamaCpp::LlamaContextParams
-
#attention_type= LlamaCpp::LlamaContextParams
-
#bias LlamaCpp::LlamaLogitBias
-
#check_tensors LlamaCpp::LlamaModelParams
-
#check_tensors= LlamaCpp::LlamaModelParams
-
#content LlamaCpp::LlamaChatMessage
-
#defrag_thold LlamaCpp::LlamaContextParams
-
#defrag_thold= LlamaCpp::LlamaContextParams
-
#embeddings LlamaCpp::LlamaContextParams
-
#embeddings= LlamaCpp::LlamaContextParams
-
#flash_attn LlamaCpp::LlamaContextParams
-
#flash_attn= LlamaCpp::LlamaContextParams
-
#ftype LlamaCpp::LlamaModelQuantizeParams
-
#ftype= LlamaCpp::LlamaModelQuantizeParams
-
generate LlamaCpp
-
ggml_backend_load_all LlamaCpp
-
#id LlamaCpp::LlamaTokenData
-
#keep_split LlamaCpp::LlamaModelQuantizeParams
-
#keep_split= LlamaCpp::LlamaModelQuantizeParams
-
#key LlamaCpp::LlamaModelKvOverride
-
llama_adapter_lora_free LlamaCpp
-
llama_adapter_lora_init LlamaCpp
-
llama_backend_free LlamaCpp
-
llama_backend_init LlamaCpp
-
llama_batch_free LlamaCpp
-
llama_batch_get_one LlamaCpp
-
llama_batch_init LlamaCpp
-
llama_clear_adapter_lora LlamaCpp
-
llama_decode LlamaCpp
-
llama_detokenize LlamaCpp
-
llama_encode LlamaCpp
-
llama_free LlamaCpp
-
llama_get_kv_self LlamaCpp
-
llama_get_model LlamaCpp
-
llama_init_from_model LlamaCpp
-
llama_kv_cache_view_free LlamaCpp
-
llama_kv_cache_view_init LlamaCpp
-
llama_kv_cache_view_update LlamaCpp
-
llama_kv_self_can_shift? LlamaCpp
-
llama_kv_self_clear LlamaCpp
-
llama_kv_self_defrag LlamaCpp
-
llama_kv_self_n_tokens LlamaCpp
-
llama_kv_self_seq_add LlamaCpp
-
llama_kv_self_seq_cp LlamaCpp
-
llama_kv_self_seq_div LlamaCpp
-
llama_kv_self_seq_keep LlamaCpp
-
llama_kv_self_seq_pos_max LlamaCpp
-
llama_kv_self_seq_rm LlamaCpp
-
llama_kv_self_update LlamaCpp
-
llama_kv_self_used_cells LlamaCpp
-
llama_max_devices LlamaCpp
-
llama_model_decoder_start_token LlamaCpp
-
llama_model_desc LlamaCpp
-
llama_model_free LlamaCpp
-
llama_model_get_vocab LlamaCpp
-
llama_model_has_decoder? LlamaCpp
-
llama_model_has_encoder? LlamaCpp
-
llama_model_is_recurrent? LlamaCpp
-
llama_model_load_from_file LlamaCpp
-
llama_model_load_from_splits LlamaCpp
-
llama_model_n_ctx_train LlamaCpp
-
llama_model_n_embd LlamaCpp
-
llama_model_n_head LlamaCpp
-
llama_model_n_head_kv LlamaCpp
-
llama_model_n_layer LlamaCpp
-
llama_model_n_params LlamaCpp
-
llama_model_quantize LlamaCpp
-
llama_model_rope_freq_scale_train LlamaCpp
-
llama_model_rope_type LlamaCpp
-
llama_model_size LlamaCpp
-
llama_n_batch LlamaCpp
-
llama_n_ctx LlamaCpp
-
llama_n_seq_max LlamaCpp
-
llama_n_threads LlamaCpp
-
llama_n_threads_batch LlamaCpp
-
llama_n_ubatch LlamaCpp
-
llama_numa_init LlamaCpp
-
llama_perf_context LlamaCpp
-
llama_perf_context_print LlamaCpp
-
llama_perf_context_reset LlamaCpp
-
llama_perf_sampler LlamaCpp
-
llama_perf_sampler_print LlamaCpp
-
llama_perf_sampler_reset LlamaCpp
-
llama_pooling_type LlamaCpp
-
llama_print_system_info LlamaCpp
-
llama_rm_adapter_lora LlamaCpp
-
llama_sampler_accept LlamaCpp
-
llama_sampler_apply LlamaCpp
-
llama_sampler_chain_add LlamaCpp
-
llama_sampler_chain_get LlamaCpp
-
llama_sampler_chain_init LlamaCpp
-
llama_sampler_chain_n LlamaCpp
-
llama_sampler_chain_remove LlamaCpp
-
llama_sampler_clone LlamaCpp
-
llama_sampler_free LlamaCpp
-
llama_sampler_get_seed LlamaCpp
-
llama_sampler_init_dist LlamaCpp
-
llama_sampler_init_grammar LlamaCpp
-
llama_sampler_init_greedy LlamaCpp
-
llama_sampler_init_infill LlamaCpp
-
llama_sampler_init_logit_bias LlamaCpp
-
llama_sampler_init_min_p LlamaCpp
-
llama_sampler_init_mirostat LlamaCpp
-
llama_sampler_init_mirostat_v2 LlamaCpp
-
llama_sampler_init_penalties LlamaCpp
-
llama_sampler_init_temp LlamaCpp
-
llama_sampler_init_temp_ext LlamaCpp
-
llama_sampler_init_top_k LlamaCpp
-
llama_sampler_init_top_n_sigma LlamaCpp
-
llama_sampler_init_top_p LlamaCpp
-
llama_sampler_init_typical LlamaCpp
-
llama_sampler_init_xtc LlamaCpp
-
llama_sampler_name LlamaCpp
-
llama_sampler_reset LlamaCpp
-
llama_sampler_sample LlamaCpp
-
llama_set_adapter_lora LlamaCpp
-
llama_set_causal_attn LlamaCpp
-
llama_set_embeddings LlamaCpp
-
llama_set_n_threads LlamaCpp
-
llama_state_get_size LlamaCpp
-
llama_state_seq_get_size LlamaCpp
-
llama_supports_gpu_offload? LlamaCpp
-
llama_supports_mlock? LlamaCpp
-
llama_supports_mmap? LlamaCpp
-
llama_supports_rpc? LlamaCpp
-
llama_synchronize LlamaCpp
-
llama_time_us LlamaCpp
-
llama_token_to_piece LlamaCpp
-
llama_tokenize LlamaCpp
-
llama_vocab_bos LlamaCpp
-
llama_vocab_eos LlamaCpp
-
llama_vocab_eot LlamaCpp
-
llama_vocab_fim_mid LlamaCpp
-
llama_vocab_fim_pad LlamaCpp
-
llama_vocab_fim_pre LlamaCpp
-
llama_vocab_fim_rep LlamaCpp
-
llama_vocab_fim_sep LlamaCpp
-
llama_vocab_fim_suf LlamaCpp
-
llama_vocab_get_add_bos LlamaCpp
-
llama_vocab_get_add_eos LlamaCpp
-
llama_vocab_get_attr LlamaCpp
-
llama_vocab_get_score LlamaCpp
-
llama_vocab_get_text LlamaCpp
-
llama_vocab_is_control? LlamaCpp
-
llama_vocab_is_eog? LlamaCpp
-
llama_vocab_n_tokens LlamaCpp
-
llama_vocab_nl LlamaCpp
-
llama_vocab_pad LlamaCpp
-
llama_vocab_sep LlamaCpp
-
llama_vocab_type LlamaCpp
-
#logit LlamaCpp::LlamaTokenData
-
#logits_all LlamaCpp::LlamaContextParams
-
#logits_all= LlamaCpp::LlamaContextParams
-
#main_gpu LlamaCpp::LlamaModelParams
-
#main_gpu= LlamaCpp::LlamaModelParams
-
#max_contiguous LlamaCpp::LlamaKvCacheView
-
#max_contiguous_idx LlamaCpp::LlamaKvCacheView
-
#n_batch LlamaCpp::LlamaContextParams
-
#n_batch= LlamaCpp::LlamaContextParams
-
#n_cells LlamaCpp::LlamaKvCacheView
-
#n_ctx LlamaCpp::LlamaContextParams
-
#n_ctx= LlamaCpp::LlamaContextParams
-
#n_eval LlamaCpp::LlamaPerfContextData
-
#n_gpu_layers LlamaCpp::LlamaModelParams
-
#n_gpu_layers= LlamaCpp::LlamaModelParams
-
#n_p_eval LlamaCpp::LlamaPerfContextData
-
#n_sample LlamaCpp::LlamaPerfSamplerData
-
#n_seq_max LlamaCpp::LlamaContextParams
-
#n_seq_max LlamaCpp::LlamaKvCacheView
-
#n_seq_max= LlamaCpp::LlamaContextParams
-
#n_threads LlamaCpp::LlamaContextParams
-
#n_threads= LlamaCpp::LlamaContextParams
-
#n_threads_batch LlamaCpp::LlamaContextParams
-
#n_threads_batch= LlamaCpp::LlamaContextParams
-
#n_tokens LlamaCpp::LlamaBatch
-
#n_ubatch LlamaCpp::LlamaContextParams
-
#n_ubatch= LlamaCpp::LlamaContextParams
-
#no_perf LlamaCpp::LlamaContextParams
-
#no_perf LlamaCpp::LlamaSamplerChainParams
-
#no_perf= LlamaCpp::LlamaContextParams
-
#no_perf= LlamaCpp::LlamaSamplerChainParams
-
#nthread LlamaCpp::LlamaModelQuantizeParams
-
#nthread= LlamaCpp::LlamaModelQuantizeParams
-
#offload_kqv LlamaCpp::LlamaContextParams
-
#offload_kqv= LlamaCpp::LlamaContextParams
-
#only_copy LlamaCpp::LlamaModelQuantizeParams
-
#only_copy= LlamaCpp::LlamaModelQuantizeParams
-
#output_tensor_type LlamaCpp::LlamaModelQuantizeParams
-
#output_tensor_type= LlamaCpp::LlamaModelQuantizeParams
-
#p LlamaCpp::LlamaTokenData
-
#pooling_type LlamaCpp::LlamaContextParams
-
#pooling_type= LlamaCpp::LlamaContextParams
-
#pos LlamaCpp::LlamaKvCacheViewCell
-
#pure LlamaCpp::LlamaModelQuantizeParams
-
#pure= LlamaCpp::LlamaModelQuantizeParams
-
#quantize_output_tensor LlamaCpp::LlamaModelQuantizeParams
-
#quantize_output_tensor= LlamaCpp::LlamaModelQuantizeParams
-
#role LlamaCpp::LlamaChatMessage
-
#rope_freq_base LlamaCpp::LlamaContextParams
-
#rope_freq_base= LlamaCpp::LlamaContextParams
-
#rope_freq_scale LlamaCpp::LlamaContextParams
-
#rope_freq_scale= LlamaCpp::LlamaContextParams
-
#rope_scaling_type LlamaCpp::LlamaContextParams
-
#rope_scaling_type= LlamaCpp::LlamaContextParams
-
#selected LlamaCpp::LlamaTokenDataArray
-
#size LlamaCpp::LlamaTokenDataArray
-
#sorted LlamaCpp::LlamaTokenDataArray
-
#split_mode LlamaCpp::LlamaModelParams
-
#split_mode= LlamaCpp::LlamaModelParams
-
#t_eval_ms LlamaCpp::LlamaPerfContextData
-
#t_load_ms LlamaCpp::LlamaPerfContextData
-
#t_p_eval_ms LlamaCpp::LlamaPerfContextData
-
#t_sample_ms LlamaCpp::LlamaPerfSamplerData
-
#t_start_ms LlamaCpp::LlamaPerfContextData
-
#tag LlamaCpp::LlamaModelKvOverride
-
#tensor_split LlamaCpp::LlamaModelParams
-
#token LlamaCpp::LlamaBatch
-
#token LlamaCpp::LlamaLogitBias
-
#token_count LlamaCpp::LlamaKvCacheView
-
#token_embedding_type LlamaCpp::LlamaModelQuantizeParams
-
#token_embedding_type= LlamaCpp::LlamaModelQuantizeParams
-
#type_k LlamaCpp::LlamaContextParams
-
#type_k= LlamaCpp::LlamaContextParams
-
#type_v LlamaCpp::LlamaContextParams
-
#type_v= LlamaCpp::LlamaContextParams
-
#use_mlock LlamaCpp::LlamaModelParams
-
#use_mlock= LlamaCpp::LlamaModelParams
-
#use_mmap LlamaCpp::LlamaModelParams
-
#use_mmap= LlamaCpp::LlamaModelParams
-
#used_cells LlamaCpp::LlamaKvCacheView
-
#val_bool LlamaCpp::LlamaModelKvOverride
-
#val_f64 LlamaCpp::LlamaModelKvOverride
-
#val_i64 LlamaCpp::LlamaModelKvOverride
-
#val_str LlamaCpp::LlamaModelKvOverride
-
#vocab_only LlamaCpp::LlamaModelParams
-
#vocab_only= LlamaCpp::LlamaModelParams
-
#yarn_attn_factor LlamaCpp::LlamaContextParams
-
#yarn_attn_factor= LlamaCpp::LlamaContextParams
-
#yarn_beta_fast LlamaCpp::LlamaContextParams
-
#yarn_beta_fast= LlamaCpp::LlamaContextParams
-
#yarn_beta_slow LlamaCpp::LlamaContextParams
-
#yarn_beta_slow= LlamaCpp::LlamaContextParams
-
#yarn_ext_factor LlamaCpp::LlamaContextParams
-
#yarn_ext_factor= LlamaCpp::LlamaContextParams
-
#yarn_orig_ctx LlamaCpp::LlamaContextParams
-
#yarn_orig_ctx= LlamaCpp::LlamaContextParams