Как да изградите LLM и LLMChain в LangChain?

Kak Da Izgradite Llm I Llmchain V Langchain



LangChain е рамката с приложението в домейна за обработка на естествен език или NLP за изграждане на модели на човешки езици. Тези модели могат да се използват от хората, за да получават отговори от модела или да водят разговор като всеки друг човек. LangChain се използва за изграждане на вериги, като съхранява всяко изречение в разговора и взаимодейства допълнително, използвайки го като контекст.

Тази публикация ще илюстрира процеса на изграждане на LLM и LLMChain в LangChain.







Как да изградите LLM и LLMChain в LangChain?

За да изградите LLM и LLMChain в LangChain, просто преминете през изброените стъпки:



Стъпка 1: Инсталирайте модули

Първо, инсталирайте модула LangChain, за да използвате неговите библиотеки за изграждане на LLM и LLMChain:



pip инсталирайте langchain





Друг модул, който е необходим за изграждане на LLM, е OpenAI и може да бъде инсталиран с помощта на командата pip:

pip инсталирайте openai



Стъпка 2: Настройте среда

Настройте среда, като използвате OpenAI API ключа от нейната среда:

импортирайте ни
import getpassos.environ['OPENAI_API_KEY'] = getpass.getpass('OpenAI API Key:')

Пример 1: Изграждане на LLM с помощта на LangChain

Първият пример е да се изградят големите езикови модели с помощта на LangChain чрез импортиране на OpenAI и ChatOpenAI библиотеки и използване на функцията llm():

Стъпка 1: Използване на LLM Chat Model

Импортирайте модули OpenAI и ChatOpenAI, за да изградите прост LLM, използвайки среда OpenAI от LangChain:

от langchain.chat_models импортирайте ChatOpenAI

от langchain.llms импортирайте OpenAI

llm = OpenAI()
chat_model = ChatOpenAI()
llm.predict('здравей!')

Моделът е отговорил с отговора „здравей“, както е показано на следната екранна снимка по-долу:

Функцията predict() от chat_model се използва за получаване на отговор или отговор от модела:

chat_model.predict('здравей!')

Изходът показва, че моделът е на разположение на потребителя, задаващ запитвания:

Стъпка 2: Използване на текстова заявка

Потребителят може също да получи отговори от модела, като даде пълното изречение в текстовата променлива:

text = 'Какво би било добро име на компания, която произвежда цветни чорапи?'

llm.predict(текст)

Моделът е показал множество цветови комбинации за цветни чорапи:

Получете подробен отговор от модела, като използвате функцията predict() с цветовите комбинации за чорапите:

chat_model.predict(текст)

Стъпка 3: Използване на текст със съдържание

Потребителят може да получи отговора с малко обяснение за отговора:

от langchain.schema import HumanMessage

text = 'Какво би било добро заглавие за компания, произвеждаща цветни дрехи'
съобщения = [HumanMessage(content=text)]

llm.predict_messages(съобщения)

Моделът е генерирал заглавието на компанията, която е 'Creative Clothing Co':

Прогнозирайте съобщението, за да получите отговор и за името на фирмата с нейното обяснение:

chat_model.predict_messages(съобщения)

Пример 2: Изградете LLMChain с помощта на LangChain

Вторият пример от нашето ръководство изгражда LLMChain, за да получи модела във формата на човешко взаимодействие, за да комбинира всички стъпки от предишния пример:

от langchain.chat_models импортирайте ChatOpenAI
от langchain.prompts.chat импортирайте ChatPromptTemplate
от langchain.prompts.chat импортирайте ChatPromptTemplate
от langchain.prompts.chat импорт  SystemMessagePromptTemplatfrom langchain.prompts.chat импортиране HumanMessagePromptTemplate
от langchain.chains импортирайте LLMChain
от langchain.schema import BaseOutputParserclass CommaSeparatedListOutputParser(BaseOutputParser):

def parse(self, text: str):
върне text.strip().split(', ')

Създайте шаблона за модела на чат, като дадете подробно обяснение на неговата работа и след това изградете функцията LLMChain(), съдържаща библиотеките LLM, изходен анализатор и chat_prompt:

template = '''Трябва да помогнете при генерирането на списъци, разделени със запетаи
Вземете категорията от потребителя и генерирайте разделен със запетаи списък с пет обекта
Единственото нещо трябва да бъде обектът от категорията'''
system_message_prompt = SystemMessagePromptTemplate.from_template(шаблон)
human_template = '{текст}'
human_message_prompt = HumanMessagePromptTemplate.from_template(human_template)
#Конфигурирайте LLMChain със структурата на заявката
chat_prompt = ChatPromptTemplate.from_messages([system_message_prompt, human_message_prompt])
верига = LLMChain(
llm=ChatOpenAI(),
подкана=chat_prompt,
output_parser=CommaSeparatedListOutputParser()
)
chain.run('цветове')

Моделът е предоставил отговора със списъка с цветове, тъй като категорията трябва да съдържа само 5 обекта, дадени в подканата:

Това е всичко за изграждането на LLM и LLMChain в LangChain.

Заключение

За да изградите LLM и LLMChain с помощта на LangChain, просто инсталирайте модули LangChain и OpenAI, за да настроите среда, използвайки нейния API ключ. След това изградете LLM модела, като използвате chat_model, след като създадете шаблона за подкана за единична заявка към пълен чат. LLMChain се използват за изграждане на вериги от всички наблюдения в разговора и използването им като контекст на взаимодействието. Тази публикация илюстрира процеса на изграждане на LLM и LLMChain с помощта на рамката LangChain.