Как да използвам анализатор на структурирани изходни данни в LangChain?

Kak Da Izpolzvam Analizator Na Strukturirani Izhodni Danni V Langchain



LangChain е рамката за изграждане на модели за чат и LLM за получаване на информация от набора от данни или интернет, използвайки средата OpenAI. Анализаторът на структурирания изход се използва за получаване на множество полета или отговори като действителния отговор и допълнителна свързана информация. Библиотеките на изходния анализатор могат да се използват с LangChain за извличане на данни, като се използват моделите, изградени като LLM или чат модели.

Тази публикация демонстрира процеса на използване на анализатора на структурирания изход в LangChain.







Как да използвам анализатор на структурирани изходни данни в LangChain?

За да използвате анализатора на структурирания изход в LangChain, просто преминете през тези стъпки:



Стъпка 1: Инсталирайте предпоставки



Стартирайте процеса, като инсталирате рамката LangChain, ако тя все още не е инсталирана във вашата Python среда:





пип Инсталирай Langchain



Инсталирайте рамката OpenAI за достъп до нейните методи за изграждане на анализатор в LangChain:

пип Инсталирай openai

След това просто се свържете към средата на OpenAI, като използвате нейния API ключ, за да получите достъп до нейната среда, като използвате „ Вие ” библиотека и осигурете API ключа с помощта на „ getpass ' библиотека:

импортирайте ни
импортиране на getpass

os.environ [ „OPENAI_API_KEY“ ] = getpass.getpass ( „Ключ за OpenAI API:“ )

Стъпка 2: Изградете схема за изхода/отговора

След като получите връзката с OpenAI, просто импортирайте библиотеките, за да изградите схемата за генериране на изхода:

от langchain.output_parsers импортирайте StructuredOutputParser, ResponseSchema
от langchain.prompts импортирайте PromptTemplate, ChatPromptTemplate, HumanMessagePromptTemplate
от langchain.llms импортирайте OpenAI
от langchain.chat_models импортирайте ChatOpenAI

Посочете схемата за отговора според изискването, така че моделът да генерира съответно отговора:

отговори_схеми = [
ResponseSchema ( име = 'отговор' , описание = 'отговор на запитването' ) ,
ResponseSchema ( име = 'източник' , описание = „източник на уебсайт, който се използва за получаване на отговора“ )
]
output_parser = StructuredOutputParser.from_response_schemas ( схеми_за_отговори )

Стъпка 3: Форматиране на шаблон

След като конфигурирате схемата за изхода, просто задайте шаблона за вход на естествения език, така че моделът да може да разбере въпросите, преди да извлече отговора за него:

format_instructions = output_parser.get_format_instructions ( )
подкана = PromptTemplate (
шаблон = „Дайте отговор на въпроса на потребителя. {шаблон} {query}' ,
входни_променливи = [ 'запитване' ] ,
частични_променливи = { 'шаблон' : формат_инструкции }
)

Метод 1: Използване на езиковия модел

След като конфигурирате шаблоните за формат за въпроси и отговори, просто изградете модела с помощта на функцията OpenAI():

модел = OpenAI ( температура = 0 )

Задайте подканата в „ заявка ” променлива и я предайте на format_prompt() функционира като вход и след това съхранява отговора в „ изход ” променлива:

_input = prompt.format_prompt ( заявка = 'колко континента има в света' )
изход = модел ( _input.to_string ( ) )

Обадете се на анализирам () функция с изходната променлива като неин аргумент, за да получите отговора от модела:

изходен_парсер.парс ( изход )

Изходният анализатор получава отговора на заявката и показва подробен отговор с връзката към страницата на уебсайта, която се използва за получаване на отговора:

Метод 2: Използване на модела за чат

За да получите резултати от изходния анализатор в LangChain, използвайте chat_model променлива по-долу:

chat_model = ChatOpenAI ( температура = 0 )

За да разберете подканата, конфигурирайте шаблона за подкана за модела на чат. След това генерирайте отговора според входа:

подкана = ChatPromptTemplate (
съобщения = [
HumanMessagePromptTemplate.from_template ( „Дайте отговор на въпроса на потребителя. {format_instructions} {query}' )
] ,
входни_променливи = [ 'запитване' ] ,
частични_променливи = { 'инструкции_форматиране' : формат_инструкции }
)

След това просто въведете въведените данни в „ заявка ” и след това я предайте на chat_model() функция за получаване на изхода от модела:

_input = prompt.format_prompt ( заявка = „САЩ означава“ )
изход = chat_model ( _input.to_messages ( ) )

За да получите отговор от модела на чат, използвайте output_parser, който съхранява резултата от „ изход ” променлива:

изходен_парсер.парс ( изход.съдържание )

Моделът на чат показва отговора на заявката и името на уебсайта, който се използва за получаване на отговор от интернет:

Това е всичко за използването на структуриран изходен анализатор в LangChain.

Заключение

За да използвате анализатора на структурирания изход в LangChain, просто инсталирайте модулите LangChain и OpenAI, за да започнете процеса. След това се свържете със средата OpenAI, като използвате нейния API ключ и след това конфигурирайте шаблоните за подкана и отговор за модела. Изходният анализатор може да се използва или с езиков модел, или с чат модел. Това ръководство обяснява използването на изходния анализатор и с двата метода.