Method List
-
#<< LLM::Buffer
-
#<< LLM::EventStream::Parser
-
#== LLM::Message
-
File LLM
-
[] LLM::Mime
-
#[] LLM::Object
-
#[]= LLM::Object
-
#all LLM::Gemini::Files
-
#all LLM::OpenAI::Files
-
#all LLM::Gemini::Models
-
#all LLM::Ollama::Models
-
#all LLM::OpenAI::Models
-
#all LLM::Anthropic::Models
-
anthropic LLM
-
#arguments LLM::Function
-
#array JSON::Schema
-
#assistant? LLM::Message
-
#assistant_role LLM::Provider
-
#assistant_role LLM::Gemini
-
#assistant_role LLM::Ollama
-
#assistant_role LLM::OpenAI
-
#assistant_role LLM::Anthropic
-
#audio LLM::Provider
-
#audio LLM::Response::Audio
-
#audio LLM::Gemini
-
#audio LLM::OpenAI
-
#audio LLM::DeepSeek
-
#audio LLM::LlamaCpp
-
#basename LLM::File
-
#body LLM::Response
-
#body LLM::Multipart
-
#body LLM::EventHandler
-
#body LLM::Response::File
-
#body LLM::EventStream::Parser
-
#body LLM::Gemini::StreamParser
-
#body LLM::Ollama::StreamParser
-
#body LLM::OpenAI::StreamParser
-
#body LLM::Anthropic::StreamParser
-
#boolean JSON::Schema
-
#bot LLM::Bot::Prompt::Respond
-
#bot LLM::Bot::Prompt::Completion
-
#boundary LLM::Multipart
-
#bytesize LLM::File
-
#call LLM::Function
-
#called? LLM::Function
-
#camelcase LLM::Utils
-
#cancel LLM::Function
-
#cancelled? LLM::Function
-
#categories LLM::Response::ModerationList::Moderation
-
#chat LLM::Bot
-
#chat LLM::Provider
-
#chat! LLM::Provider
-
#choices LLM::Response::Completion
-
#chunk LLM::EventStream::Event
-
#class LLM::Object::Kernel
-
#complete LLM::Provider
-
#complete LLM::Gemini
-
#complete LLM::Ollama
-
#complete LLM::OpenAI
-
#complete LLM::Anthropic
-
#completion_tokens LLM::Response::Completion
-
#const JSON::Schema::Leaf
-
#content LLM::Message
-
#content LLM::Gemini::Format::CompletionFormat
-
#content! LLM::Message
-
#content_type LLM::Multipart
-
#create LLM::Gemini::Files
-
#create LLM::OpenAI::Files
-
#create LLM::Gemini::Images
-
#create LLM::OpenAI::Images
-
#create LLM::OpenAI::Responses
-
#create LLM::OpenAI::Moderations
-
#create_speech LLM::Gemini::Audio
-
#create_speech LLM::OpenAI::Audio
-
#create_transcription LLM::Gemini::Audio
-
#create_transcription LLM::OpenAI::Audio
-
#create_translation LLM::Gemini::Audio
-
#create_translation LLM::OpenAI::Audio
-
#create_variation LLM::Gemini::Images
-
#create_variation LLM::OpenAI::Images
-
#data? LLM::EventStream::Event
-
deepseek LLM
-
#default JSON::Schema::Leaf
-
#default_model LLM::Provider
-
#default_model LLM::Gemini
-
#default_model LLM::Ollama
-
#default_model LLM::OpenAI
-
#default_model LLM::DeepSeek
-
#default_model LLM::LlamaCpp
-
#default_model LLM::Anthropic
-
#defaults LLM::Bot::Prompt::Respond
-
#defaults LLM::Bot::Prompt::Completion
-
#define LLM::Function
-
#delete LLM::Gemini::Files
-
#delete LLM::OpenAI::Files
-
#delete LLM::OpenAI::Responses
-
#description LLM::Function
-
#description JSON::Schema::Leaf
-
#developer LLM::Bot::Prompt::Respond
-
#download LLM::Gemini::Files
-
#download LLM::OpenAI::Files
-
#each LLM::Buffer
-
#each LLM::Object
-
#each LLM::Response::FileList
-
#each LLM::Response::ModelList
-
#each LLM::Response::ModerationList
-
#edit LLM::Gemini::Images
-
#edit LLM::OpenAI::Images
-
#embed LLM::Provider
-
#embed LLM::Gemini
-
#embed LLM::Ollama
-
#embed LLM::OpenAI
-
#embed LLM::VoyageAI
-
#embed LLM::Anthropic
-
#embeddings LLM::Response::Embedding
-
#empty? LLM::Object
-
#end? LLM::EventStream::Event
-
#enum JSON::Schema::Leaf
-
#event? LLM::EventStream::Event
-
#extra LLM::Message
-
#field LLM::EventStream::Event
-
#file LLM::Response::DownloadFile
-
#files LLM::Provider
-
#files LLM::Gemini
-
#files LLM::OpenAI
-
#files LLM::Response::FileList
-
#files LLM::DeepSeek
-
#files LLM::LlamaCpp
-
#find LLM::Buffer
-
#flagged? LLM::Response::ModerationList::Moderation
-
#format LLM::Function
-
#format LLM::Gemini::Format
-
#format LLM::Ollama::Format
-
#format LLM::OpenAI::Format
-
#format LLM::DeepSeek::Format
-
#format LLM::Anthropic::Format
-
#format LLM::OpenAI::Format::RespondFormat
-
#format LLM::Gemini::Format::CompletionFormat
-
#format LLM::Ollama::Format::CompletionFormat
-
#format LLM::OpenAI::Format::CompletionFormat
-
#format LLM::OpenAI::Format::ModerationFormat
-
#format LLM::DeepSeek::Format::CompletionFormat
-
#format LLM::Anthropic::Format::CompletionFormat
-
#format LLM::OpenAI::ResponseParser::RespondParser
-
#format LLM::Gemini::ResponseParser::CompletionParser
-
#format LLM::Ollama::ResponseParser::CompletionParser
-
#format LLM::OpenAI::ResponseParser::CompletionParser
-
#format LLM::Anthropic::ResponseParser::CompletionParser
-
#format_content LLM::Gemini::Format::CompletionFormat
-
#free LLM::EventStream::Parser
-
#from_hash LLM::Object::Builder
-
function LLM
-
functions LLM
-
#functions LLM::Bot
-
#functions LLM::Message
-
gemini LLM
-
#get LLM::Gemini::Files
-
#get LLM::OpenAI::Files
-
#get LLM::OpenAI::Responses
-
#id LLM::Model
-
#id LLM::Function::Return
-
#id LLM::Function
-
#id LLM::Response::Respond
-
#id LLM::Response::ModerationList
-
#id? LLM::EventStream::Event
-
#image? LLM::File
-
#images LLM::Provider
-
#images LLM::Response::Image
-
#images LLM::Gemini
-
#images LLM::OpenAI
-
#images LLM::DeepSeek
-
#images LLM::LlamaCpp
-
#initialize LLM::Bot
-
#initialize LLM::File
-
#initialize LLM::Error
-
#initialize LLM::Buffer
-
#initialize LLM::Object
-
#initialize LLM::Message
-
#initialize LLM::Function
-
#initialize LLM::Provider
-
#initialize LLM::Response
-
#initialize LLM::Multipart
-
#initialize LLM::EventHandler
-
#initialize JSON::Schema::Leaf
-
#initialize LLM::Gemini
-
#initialize LLM::Ollama
-
#initialize LLM::OpenAI
-
#initialize LLM::EventStream::Event
-
#initialize JSON::Schema::Array
-
#initialize LLM::Bot::Prompt::Respond
-
#initialize LLM::EventStream::Parser
-
#initialize JSON::Schema::Object
-
#initialize LLM::DeepSeek
-
#initialize LLM::LlamaCpp
-
#initialize LLM::VoyageAI
-
#initialize LLM::Anthropic
-
#initialize LLM::Bot::Prompt::Completion
-
#initialize LLM::Gemini::Audio
-
#initialize LLM::Gemini::Files
-
#initialize LLM::OpenAI::Audio
-
#initialize LLM::OpenAI::Files
-
#initialize LLM::Gemini::Images
-
#initialize LLM::Gemini::Models
-
#initialize LLM::Ollama::Models
-
#initialize LLM::OpenAI::Images
-
#initialize LLM::OpenAI::Models
-
#initialize LLM::Anthropic::Models
-
#initialize LLM::OpenAI::Responses
-
#initialize LLM::OpenAI::Moderations
-
#initialize LLM::Gemini::ErrorHandler
-
#initialize LLM::Gemini::StreamParser
-
#initialize LLM::Ollama::ErrorHandler
-
#initialize LLM::Ollama::StreamParser
-
#initialize LLM::OpenAI::ErrorHandler
-
#initialize LLM::OpenAI::StreamParser
-
#initialize LLM::VoyageAI::ErrorHandler
-
#initialize LLM::Anthropic::ErrorHandler
-
#initialize LLM::Anthropic::StreamParser
-
#initialize LLM::Response::ModerationList::Moderation
-
#initialize LLM::OpenAI::Format::RespondFormat
-
#initialize LLM::Gemini::Format::CompletionFormat
-
#initialize LLM::Ollama::Format::CompletionFormat
-
#initialize LLM::OpenAI::Format::CompletionFormat
-
#initialize LLM::OpenAI::Format::ModerationFormat
-
#initialize LLM::DeepSeek::Format::CompletionFormat
-
#initialize LLM::Anthropic::Format::CompletionFormat
-
#initialize LLM::OpenAI::ResponseParser::RespondParser
-
#initialize LLM::Gemini::ResponseParser::CompletionParser
-
#initialize LLM::Ollama::ResponseParser::CompletionParser
-
#initialize LLM::OpenAI::ResponseParser::CompletionParser
-
#initialize LLM::Anthropic::ResponseParser::CompletionParser
-
#input_tokens LLM::Response::Respond
-
#inspect LLM::Bot
-
#inspect LLM::Buffer
-
#inspect LLM::Message
-
#inspect LLM::Provider
-
#inspect LLM::Object::Kernel
-
#inspect LLM::Response::File
-
#inspect LLM::Response::ModerationList::Moderation
-
#instance_of? LLM::Object::Kernel
-
#integer JSON::Schema
-
#kind_of? LLM::Object::Kernel
-
llamacpp LLM
-
#max JSON::Schema::Number
-
#max JSON::Schema::String
-
#max JSON::Schema::Integer
-
#message LLM::ResponseError
-
#message LLM::Gemini::Format::CompletionFormat
-
#messages LLM::Bot
-
#method LLM::Object::Kernel
-
#mime_type LLM::File
-
#min JSON::Schema::Number
-
#min JSON::Schema::String
-
#min JSON::Schema::Integer
-
#model LLM::Response::Respond
-
#model LLM::Response::Embedding
-
#model LLM::Response::Completion
-
#model LLM::Response::ModerationList
-
#models LLM::Provider
-
#models LLM::Gemini
-
#models LLM::Ollama
-
#models LLM::OpenAI
-
#models LLM::Response::ModelList
-
#models LLM::Anthropic
-
#moderations LLM::Provider
-
#moderations LLM::OpenAI
-
#moderations LLM::DeepSeek
-
#moderations LLM::LlamaCpp
-
#multiple_of JSON::Schema::Number
-
#multiple_of JSON::Schema::Integer
-
#name LLM::Function
-
#null JSON::Schema
-
#number JSON::Schema
-
#object JSON::Schema
-
#object_id LLM::Object::Kernel
-
ollama LLM
-
#on LLM::EventStream::Parser
-
#on_chunk LLM::EventHandler
-
#on_data LLM::EventHandler
-
openai LLM
-
#output_tokens LLM::Response::Respond
-
#outputs LLM::Response::Respond
-
#params LLM::Function
-
#parse! LLM::Gemini::StreamParser
-
#parse! LLM::Ollama::StreamParser
-
#parse! LLM::OpenAI::StreamParser
-
#parse! LLM::Anthropic::StreamParser
-
#parse_completion LLM::Gemini::ResponseParser
-
#parse_completion LLM::Ollama::ResponseParser
-
#parse_completion LLM::OpenAI::ResponseParser
-
#parse_completion LLM::Anthropic::ResponseParser
-
#parse_embedding LLM::Gemini::ResponseParser
-
#parse_embedding LLM::Ollama::ResponseParser
-
#parse_embedding LLM::OpenAI::ResponseParser
-
#parse_embedding LLM::VoyageAI::ResponseParser
-
#parse_embedding LLM::Anthropic::ResponseParser
-
#parse_image LLM::Gemini::ResponseParser
-
#parse_image LLM::OpenAI::ResponseParser
-
#parse_moderation_list LLM::OpenAI::ResponseParser
-
#parse_respond_response LLM::OpenAI::ResponseParser
-
#path LLM::File
-
#pending? LLM::Function
-
#prompt_tokens LLM::Response::Completion
-
#provider LLM::Model
-
#raise_error! LLM::Gemini::ErrorHandler
-
#raise_error! LLM::Ollama::ErrorHandler
-
#raise_error! LLM::OpenAI::ErrorHandler
-
#raise_error! LLM::VoyageAI::ErrorHandler
-
#raise_error! LLM::Anthropic::ErrorHandler
-
#read! LLM::Message
-
#read? LLM::Message
-
#register LLM::EventStream::Parser
-
#required JSON::Schema::Leaf
-
#required? JSON::Schema::Leaf
-
#res LLM::Gemini::ErrorHandler
-
#res LLM::Ollama::ErrorHandler
-
#res LLM::OpenAI::ErrorHandler
-
#res LLM::VoyageAI::ErrorHandler
-
#res LLM::Anthropic::ErrorHandler
-
#respond LLM::Bot
-
#respond LLM::Provider
-
#respond! LLM::Provider
-
#respond_to? LLM::Object::Kernel
-
#respond_to_missing? LLM::Object::Kernel
-
#response LLM::ResponseError
-
#responses LLM::Provider
-
#responses LLM::OpenAI
-
#responses LLM::DeepSeek
-
#responses LLM::LlamaCpp
-
#retry? LLM::EventStream::Event
-
#role LLM::Message
-
#schema LLM::Provider
-
#scores LLM::Response::ModerationList::Moderation
-
#snakecase LLM::Utils
-
#string JSON::Schema
-
#system LLM::Bot::Prompt::Respond
-
#system LLM::Bot::Prompt::Completion
-
#system? LLM::Message
-
#tap LLM::Object::Kernel
-
#text LLM::Response::AudioTranslation
-
#text LLM::Response::AudioTranscription
-
#to_b64 LLM::File
-
#to_data_uri LLM::File
-
#to_h LLM::Object
-
#to_h LLM::Message
-
#to_h JSON::Schema::Leaf
-
#to_h JSON::Schema::Null
-
#to_h JSON::Schema::Array
-
#to_h JSON::Schema::Number
-
#to_h JSON::Schema::Object
-
#to_h JSON::Schema::String
-
#to_h JSON::Schema::Boolean
-
#to_h JSON::Schema::Integer
-
#to_json LLM::Model
-
#to_json LLM::Object
-
#to_json JSON::Schema::Leaf
-
#to_json JSON::Schema::Array
-
#to_json JSON::Schema::Object
-
#tool_call? LLM::Message
-
#total_tokens LLM::Response::Respond
-
#total_tokens LLM::Response::Embedding
-
#total_tokens LLM::Response::Completion
-
types LLM::Mime
-
#unread LLM::Buffer
-
#urls LLM::Response::Image
-
#user LLM::Bot::Prompt::Respond
-
#user LLM::Bot::Prompt::Completion
-
#user? LLM::Message
-
#value LLM::Function::Return
-
#value LLM::EventStream::Event
-
voyageai LLM
-
#with LLM::Provider
-
#with_io LLM::File