Method List
-
#anthropic LlmConductor::Configuration
-
#anthropic_api_key LlmConductor::Configuration
-
#anthropic_api_key= LlmConductor::Configuration
-
#build LlmConductor::DataBuilder
-
build LlmConductor::ClientFactory
-
build_client LlmConductor
-
clear! LlmConductor::PromptManager
-
client_class_for_vendor LlmConductor::ClientFactory
-
configuration LlmConductor
-
configure LlmConductor
-
create LlmConductor::PromptManager
-
#data LlmConductor::Prompts::BasePrompt
-
#data_dig LlmConductor::Prompts::BasePrompt
-
#default_model LlmConductor::Configuration
-
#default_vendor LlmConductor::Configuration
-
determine_vendor LlmConductor::ClientFactory
-
#estimated_cost LlmConductor::Response
-
#extract_code_block LlmConductor::Response
-
#gemini LlmConductor::Configuration
-
#gemini_api_key LlmConductor::Configuration
-
#gemini_api_key= LlmConductor::Configuration
-
generate LlmConductor
-
#generate LlmConductor::Clients::BaseClient
-
#generate_simple LlmConductor::Clients::BaseClient
-
get LlmConductor::PromptManager
-
#groq LlmConductor::Configuration
-
#groq_api_key LlmConductor::Configuration
-
#groq_api_key= LlmConductor::Configuration
-
#initialize LlmConductor::Response
-
#initialize LlmConductor::DataBuilder
-
#initialize LlmConductor::Configuration
-
#initialize LlmConductor::Clients::BaseClient
-
#initialize LlmConductor::Prompts::BasePrompt
-
#input_tokens LlmConductor::Response
-
#logger LlmConductor::Configuration
-
#max_retries LlmConductor::Configuration
-
#metadata LlmConductor::Response
-
#metadata_with_cost LlmConductor::Response
-
#model LlmConductor::Response
-
#model LlmConductor::Clients::BaseClient
-
#ollama LlmConductor::Configuration
-
#ollama_address LlmConductor::Configuration
-
#ollama_address= LlmConductor::Configuration
-
#openai LlmConductor::Configuration
-
#openai_api_key LlmConductor::Configuration
-
#openai_api_key= LlmConductor::Configuration
-
#openrouter LlmConductor::Configuration
-
#openrouter_api_key LlmConductor::Configuration
-
#openrouter_api_key= LlmConductor::Configuration
-
#output LlmConductor::Response
-
#output_tokens LlmConductor::Response
-
#parse_json LlmConductor::Response
-
#prompt_analyze_content LlmConductor::Prompts
-
#prompt_classify_content LlmConductor::Prompts
-
#prompt_custom LlmConductor::Prompts
-
#prompt_extract_links LlmConductor::Prompts
-
#prompt_summarize_text LlmConductor::Prompts
-
#provider_config LlmConductor::Configuration
-
#providers LlmConductor::Configuration
-
register LlmConductor::PromptManager
-
registered? LlmConductor::PromptManager
-
registry LlmConductor::PromptManager
-
render LlmConductor::PromptManager
-
#render LlmConductor::Prompts::BasePrompt
-
#retry_delay LlmConductor::Configuration
-
#source_object LlmConductor::DataBuilder
-
#success? LlmConductor::Response
-
#timeout LlmConductor::Configuration
-
#to_s LlmConductor::Prompts::BasePrompt
-
#total_tokens LlmConductor::Response
-
#type LlmConductor::Clients::BaseClient
-
types LlmConductor::PromptManager
-
unregister LlmConductor::PromptManager
-
#zai LlmConductor::Configuration
-
#zai_api_key LlmConductor::Configuration
-
#zai_api_key= LlmConductor::Configuration