Method List
-
#== Ollama::DTO
-
#[] Ollama::Response
-
#adapt_messages Ollama::PromptAdapters::Base
-
#adapt_messages Ollama::PromptAdapters::Gemma4
-
#add Ollama::MultimodalInput
-
#add Ollama::HistorySanitizer
-
#answer? Ollama::StreamEvent
-
#api_key Ollama::Config
-
#apply_auth_to Ollama::Config
-
#arguments Ollama::Response::Message::ToolCall
-
#arguments Ollama::Response::Message::ToolCall::Function
-
#as_array Ollama::DTO
-
#as_array_of_hashes Ollama::DTO
-
#as_hash Ollama::DTO
-
#as_json Ollama::DTO
-
#attr_accessor Ollama::DTO::ClassMethods
-
#attr_reader Ollama::DTO::ClassMethods
-
#attributes Ollama::DTO::ClassMethods
-
#attributes= Ollama::DTO::ClassMethods
-
#base_url Ollama::Config
-
build Ollama::MultimodalInput
-
call Ollama::GenerateStreamHandler
-
#call Ollama::GenerateStreamHandler
-
call Ollama::JsonFragmentExtractor
-
#call Ollama::Client::ChatStreamProcessor
-
#chat Ollama::Client::Chat
-
config OllamaClient
-
configure OllamaClient
-
#content Ollama::Response
-
#content Ollama::Response::Message
-
#context_window Ollama::ModelProfile
-
#copy_model Ollama::Client::ModelManagement
-
#create_model Ollama::Client::ModelManagement
-
#created_at Ollama::Response
-
#data Ollama::StreamEvent
-
#default_options Ollama::ModelProfile
-
#delete_model Ollama::Client::ModelManagement
-
#description Ollama::Response::Message::ToolCall::Function
-
#done? Ollama::Response
-
#done_reason Ollama::Response
-
#embed Ollama::Embeddings
-
#embeddings Ollama::Client
-
#empty? Ollama::DTO
-
#eval_count Ollama::Response
-
#eval_duration Ollama::Response
-
#extract Ollama::JsonFragmentExtractor
-
#family Ollama::ModelProfile
-
for Ollama::Capabilities
-
for Ollama::ModelProfile
-
for Ollama::PromptAdapters
-
for Ollama::HistorySanitizer
-
#frequency_penalty Ollama::Options
-
#from_hash Ollama::DTO::ClassMethods
-
#function Ollama::Response::Message::ToolCall
-
#generate Ollama::Client::Generate
-
#history_policy Ollama::ModelProfile
-
#history_sanitizer Ollama::Client
-
#http_connection_options Ollama::Config
-
#id Ollama::Response::Message::ToolCall
-
#images Ollama::Response::Message
-
included Ollama::DTO
-
#initialize Ollama::Client
-
#initialize Ollama::Config
-
#initialize Ollama::HTTPError
-
#initialize Ollama::NotFoundError
-
#initialize Ollama::Options
-
#initialize Ollama::Response
-
#initialize Ollama::Response::Message
-
#initialize Ollama::Response::Message::ToolCall
-
#initialize Ollama::Response::Message::ToolCall::Function
-
#initialize Ollama::Embeddings
-
#initialize Ollama::ModelProfile
-
#initialize Ollama::MultimodalInput
-
#initialize Ollama::HistorySanitizer
-
#initialize Ollama::PromptAdapters::Base
-
#initialize Ollama::GenerateStreamHandler
-
#initialize Ollama::JsonFragmentExtractor
-
#initialize Ollama::Client::ChatStreamProcessor
-
#inject_think_flag? Ollama::PromptAdapters::Base
-
#inject_think_flag? Ollama::PromptAdapters::Qwen
-
#inject_think_flag? Ollama::PromptAdapters::Gemma4
-
#inject_think_flag? Ollama::PromptAdapters::DeepSeek
-
#inspect Ollama::Config
-
#inspect Ollama::ModelProfile
-
#latency_ms Ollama::Response
-
#list_model_names Ollama::Client::ModelManagement
-
#list_models Ollama::Client::ModelManagement
-
#list_running Ollama::Client::ModelManagement
-
#load_duration Ollama::Response
-
load_from_json Ollama::Config
-
#logprobs Ollama::Response
-
#message Ollama::Response
-
#method_missing Ollama::Response
-
#mirostat Ollama::Options
-
#mirostat_eta Ollama::Options
-
#mirostat_tau Ollama::Options
-
#modality_order Ollama::ModelProfile
-
#model Ollama::Config
-
#model Ollama::Response
-
#model Ollama::StreamEvent
-
#model_name Ollama::ModelProfile
-
#multimodal? Ollama::ModelProfile
-
#name Ollama::Response::Message::ToolCall
-
#name Ollama::Response::Message::ToolCall::Function
-
#num_ctx Ollama::Config
-
#num_ctx Ollama::Options
-
#num_gpu Ollama::Options
-
#num_keep Ollama::Options
-
#num_predict Ollama::Options
-
#num_thread Ollama::Options
-
#on_response Ollama::Config
-
#parts Ollama::MultimodalInput
-
#presence_penalty Ollama::Options
-
#profile Ollama::Client
-
#profile Ollama::PromptAdapters::Base
-
#prompt_eval_count Ollama::Response
-
#prompt_eval_duration Ollama::Response
-
#pull Ollama::Client::ModelManagement
-
#push_model Ollama::Client::ModelManagement
-
#reorder! Ollama::MultimodalInput
-
#repeat_penalty Ollama::Options
-
#requested_model Ollama::NotFoundError
-
#respond_to_missing? Ollama::Response
-
#retries Ollama::Config
-
#retryable? Ollama::HTTPError
-
#retryable? Ollama::NotFoundError
-
#role Ollama::Response::Message
-
#seed Ollama::Options
-
#show_model Ollama::Client::ModelManagement
-
#status_code Ollama::HTTPError
-
#stop Ollama::Options
-
#stream_reasoning? Ollama::ModelProfile
-
#strict_json Ollama::Config
-
#structured_output? Ollama::ModelProfile
-
#suggestions Ollama::NotFoundError
-
#supports_modality? Ollama::ModelProfile
-
#temperature Ollama::Config
-
#temperature Ollama::Options
-
#terminal? Ollama::StreamEvent
-
#tfs_z Ollama::Options
-
#think_tag Ollama::ModelProfile
-
#think_trigger Ollama::ModelProfile
-
#thinking Ollama::Response::Message
-
#thinking? Ollama::ModelProfile
-
#thought? Ollama::StreamEvent
-
#timeout Ollama::Config
-
#to_h Ollama::Options
-
#to_h Ollama::Response
-
#to_h Ollama::Response::Message
-
#to_h Ollama::Response::Message::ToolCall
-
#to_h Ollama::Response::Message::ToolCall::Function
-
#to_h Ollama::ModelProfile
-
#to_json Ollama::DTO
-
#to_jsonl Ollama::StreamEvent
-
#to_message Ollama::MultimodalInput
-
#to_s Ollama::NotFoundError
-
#tool_call? Ollama::StreamEvent
-
#tool_calling? Ollama::ModelProfile
-
#tool_calls Ollama::Response::Message
-
#top_k Ollama::Options
-
#top_p Ollama::Config
-
#top_p Ollama::Options
-
#total_duration Ollama::Response
-
#type Ollama::StreamEvent
-
#typical_p Ollama::Options
-
#usage Ollama::Response
-
validate! Ollama::SchemaValidator
-
#version Ollama::Client::ModelManagement