Как да използвам памет в LLMChain чрез LangChain?

Kak Da Izpolzvam Pamet V Llmchain Crez Langchain



LangChain е рамката, която може да се използва за импортиране на библиотеки и зависимости за изграждане на големи езикови модели или LLM. Езиковите модели използват памет за съхраняване на данни или история в базата данни като наблюдение, за да получат контекста на разговора. Паметта е конфигурирана да съхранява най-новите съобщения, така че моделът да може да разбере двусмислените подкани, дадени от потребителя.

Този блог обяснява процеса на използване на памет в LLMChain чрез LangChain.







Как да използвам памет в LLMChain чрез LangChain?

За да добавите памет и да я използвате в LLMChain чрез LangChain, библиотеката ConversationBufferMemory може да се използва, като я импортирате от LangChain.



За да научите процеса на използване на паметта в LLMChain чрез LangChain, преминете през следното ръководство:



Стъпка 1: Инсталирайте модули

Първо, започнете процеса на използване на паметта, като инсталирате LangChain с помощта на командата pip:





pip инсталирайте langchain

Инсталирайте модулите OpenAI, за да получите неговите зависимости или библиотеки за изграждане на LLM или модели за чат:



pip инсталирайте openai

Настройте средата за OpenAI, използвайки неговия API ключ чрез импортиране на библиотеките os и getpass:

импортирайте ни
импортиране на getpass

os.environ['OPENAI_API_KEY'] = getpass.getpass('OpenAI API ключ:')

Стъпка 2: Импортиране на библиотеки

След като настроите средата, просто импортирайте библиотеките като ConversationBufferMemory от LangChain:

от langchain.chains импортирайте LLMChain
от langchain.llms импортирайте OpenAI

от langchain.memory импортирайте ConversationBufferMemory

от langchain.prompts импортирайте PromptTemplate

Конфигурирайте шаблона за подканата, като използвате променливи като „вход“, за да получите заявката от потребителя и „hist“ за съхраняване на данните в буферната памет:

template = '''Вие сте модел, който разговаря с човек

{hist}
Човек: {вход}
Чатбот:'''

подкана = PromptTemplate(
input_variables=['hist', 'input'], template=шаблон
)
памет = ConversationBufferMemory(memory_key='hist')

Стъпка 3: Конфигуриране на LLM

След като шаблонът за заявката е изграден, конфигурирайте метода LLMChain(), като използвате множество параметри:

llm = OpenAI()
llm_chain = LLMChain(
llm=llm,
prompt=подкана,
verbose=Вярно,
памет=памет,
)

Стъпка 4: Тестване на LLMChain

След това тествайте LLMChain, като използвате входната променлива, за да получите подканата от потребителя в текстова форма:

llm_chain.predict(input='Здравей приятелю')

Използвайте друг вход, за да получите данните, съхранени в паметта за извличане на изход, като използвате контекста:

llm_chain.predict(input='Добре! Аз съм добре - как си')

Стъпка 5: Добавяне на памет към модел на чат

Паметта може да бъде добавена към базирания на чат модел LLMChain чрез импортиране на библиотеките:

от langchain.chat_models импортирайте ChatOpenAI
от langchain.schema import SystemMessage
от langchain.prompts импортиране на ChatPromptTemplate, HumanMessagePromptTemplate, MessagesPlaceholder

Конфигурирайте шаблона за подкана с помощта на ConversationBufferMemory(), като използвате различни променливи, за да зададете въвеждането от потребителя:

подкана = ChatPromptTemplate.from_messages([
SystemMessage(content='Вие сте модел, който разговаря с човек'),
MessagesPlaceholder(variable_),
HumanMessagePromptTemplate.from_template('{input}'),
])

memory = ConversationBufferMemory(memory_key='hist', return_messages=True)

Стъпка 6: Конфигуриране на LLMChain

Настройте метода LLMChain(), за да конфигурирате модела, като използвате различни аргументи и параметри:

llm = ChatOpenAI()

chat_llm_chain = LLMChain(
llm=llm,
prompt=подкана,
verbose=Вярно,
памет=памет,
)

Стъпка 7: Тестване на LLMChain

Накрая просто тествайте LLMChain, като използвате входа, така че моделът да може да генерира текста според подканата:

chat_llm_chain.predict(input='Здравей приятелю')

Моделът е съхранил предишния разговор в паметта и го показва преди действителния изход на заявката:

llm_chain.predict(input='Добре! Аз съм добре - как си')

Това е всичко за използването на памет в LLMChain с помощта на LangChain.

Заключение

За да използвате паметта в LLMChain чрез рамката LangChain, просто инсталирайте модулите, за да настроите средата, за да получите зависимостите от модулите. След това просто импортирайте библиотеките от LangChain, за да използвате буферната памет за съхраняване на предишния разговор. Потребителят може също да добави памет към модела на чат, като изгради LLMChain и след това тества веригата, като предостави входа. Това ръководство разработи подробно процеса на използване на паметта в LLMChain чрез LangChain.