Method List
-
#<< LLM::MessageQueue
-
#== LLM::Message
-
File LLM
-
anthropic LLM
-
#body LLM::Response
-
#chat LLM::Provider
-
#chat LLM::Conversation
-
#chat LLM::LazyConversation
-
#chat! LLM::Provider
-
#choices LLM::Response::Completion
-
#complete LLM::Provider
-
#complete LLM::Gemini
-
#complete LLM::Ollama
-
#complete LLM::OpenAI
-
#complete LLM::Anthropic
-
#completion_tokens LLM::Response::Completion
-
#content LLM::Message
-
#each LLM::MessageQueue
-
#embed LLM::Provider
-
#embed LLM::Gemini
-
#embed LLM::OpenAI
-
#embed LLM::Anthropic
-
#embeddings LLM::Response::Embedding
-
#extra LLM::Message
-
#format LLM::Gemini::Format
-
#format LLM::Ollama::Format
-
#format LLM::OpenAI::Format
-
#format LLM::Anthropic::Format
-
#from_hash OpenStruct::FromHash
-
gemini LLM
-
#initialize LLM::File
-
#initialize LLM::Error
-
#initialize LLM::Message
-
#initialize LLM::Provider
-
#initialize LLM::Response
-
#initialize LLM::Conversation
-
#initialize LLM::MessageQueue
-
#initialize LLM::Gemini
-
#initialize LLM::Ollama
-
#initialize LLM::OpenAI
-
#initialize LLM::LazyConversation
-
#initialize LLM::Anthropic
-
#initialize LLM::Gemini::ErrorHandler
-
#initialize LLM::Ollama::ErrorHandler
-
#initialize LLM::OpenAI::ErrorHandler
-
#initialize LLM::Anthropic::ErrorHandler
-
#inspect LLM::Provider
-
#logprobs LLM::Message
-
#messages LLM::Conversation
-
#messages LLM::LazyConversation
-
#mime_type LLM::File
-
mime_types LLM::File
-
#model LLM::Response::Embedding
-
#model LLM::Response::Completion
-
ollama LLM
-
openai LLM
-
#parse_completion LLM::Gemini::ResponseParser
-
#parse_completion LLM::Ollama::ResponseParser
-
#parse_completion LLM::OpenAI::ResponseParser
-
#parse_completion LLM::Anthropic::ResponseParser
-
#parse_embedding LLM::Gemini::ResponseParser
-
#parse_embedding LLM::OpenAI::ResponseParser
-
#parse_embedding LLM::Anthropic::ResponseParser
-
#path LLM::File
-
#prompt_tokens LLM::Response::Completion
-
#raise_error! LLM::Gemini::ErrorHandler
-
#raise_error! LLM::Ollama::ErrorHandler
-
#raise_error! LLM::OpenAI::ErrorHandler
-
#raise_error! LLM::Anthropic::ErrorHandler
-
#request LLM::HTTPClient
-
#res LLM::Gemini::ErrorHandler
-
#res LLM::Ollama::ErrorHandler
-
#res LLM::OpenAI::ErrorHandler
-
#res LLM::Anthropic::ErrorHandler
-
#response LLM::Error::BadResponse
-
#role LLM::Message
-
#to_h LLM::Message
-
#total_tokens LLM::Response::Embedding
-
#total_tokens LLM::Response::Completion