Как да добавите състояние на паметта във верига с помощта на LangChain?

Kak Da Dobavite S Stoanie Na Pametta V V Veriga S Pomosta Na Langchain



LangChain позволява на разработчиците да създават модели за чат, които могат да водят разговор с хора, използвайки естествени езици. За да има ефективен разговор, моделът трябва да има памет за това къде се съхранява контекстът на разговора. Моделите LangChain могат да съхраняват чат съобщенията като наблюдения, така че изходът да може да бъде в контекста на разговора през цялото време

Това ръководство ще илюстрира процеса на зареждане на вериги от LangChain Hub.

Как да добавите състояние на паметта във верига с помощта на LangChain?

Състоянието на паметта може да се използва за инициализиране на веригите, тъй като може да се отнася до скорошната стойност, съхранена във веригите, която ще се използва при връщане на изхода. За да научите процеса на добавяне на състояние на памет във вериги с помощта на рамката LangChain, просто преминете през това лесно ръководство:







Стъпка 1: Инсталирайте модули

Първо, влезте в процеса, като инсталирате рамката LangChain с нейните зависимости, като използвате командата pip:



pip инсталирайте langchain



Инсталирайте и модула OpenAI, за да получите неговите библиотеки, които могат да се използват за добавяне на състояние на паметта във веригата:





pip инсталирайте openai

Вземете API ключа от акаунта на OpenAI и настройте средата използвайки го, така че веригите да имат достъп до него:



импортиране Вие

импортиране getpass

Вие . приблизително [ „OPENAI_API_KEY“ ] = getpass . getpass ( „API ключ на OpenAI:“ )

Тази стъпка е важна за правилната работа на кода.

Стъпка 2: Импортирайте библиотеки

След като настроите средата, просто импортирайте библиотеките за добавяне на състоянието на паметта като LLMChain, ConversationBufferMemory и много други:

от Langchain. вериги импортиране ConversationChain

от Langchain. памет импортиране ConversationBufferMemory

от Langchain. chat_models импортиране ChatOpenAI

от Langchain. вериги . llm импортиране LLMChain

от Langchain. подкани импортиране PromptTemplate

Стъпка 3: Изграждане на вериги

Сега просто изградете вериги за LLM, като използвате метода OpenAI() и шаблона на подканата, като използвате заявката за извикване на веригата:

чат = ChatOpenAI ( температура = 0 )

prompt_template = „Напишете {style} виц“

llm_chain = LLMChain ( llm = чат , подкана = PromptTemplate. от_шаблон ( prompt_template ) )

llm_chain ( входове = { 'стил' : 'банален' } )

Моделът е показал изхода, използвайки модела LLM, както е показано на екранната снимка по-долу:

Стъпка 4: Добавяне на състояние на паметта

Тук ще добавим състоянието на паметта във веригата с помощта на метода ConversationBufferMemory() и ще стартираме веригата, за да получим 3 цвята от дъгата:

разговор = ConversationChain (

llm = чат ,

памет = ConversationBufferMemory ( )

)

разговор. тичам ( 'накратко дайте 3-те цвята в дъгата' )

Моделът показва само три цвята на дъгата и контекстът се съхранява в паметта на веригата:

Тук изпълняваме веригата с двусмислена команда като „ други 4? ”, така че самият модел получава контекста от паметта и показва останалите цветове на дъгата:

разговор. тичам ( 'други 4?' )

Моделът е направил точно това, тъй като е разбрал контекста и е върнал останалите четири цвята от комплекта дъга:

Това е всичко за зареждане на вериги от LangChain Hub.

Заключение

За да добавите памет във вериги, използвайки рамката LangChain, просто инсталирайте модули, за да настроите средата за изграждане на LLM. След това импортирайте библиотеките, необходими за изграждане на веригите в LLM и след това добавете състоянието на паметта към него. След като добавите състоянието на паметта към веригата, просто дайте команда на веригата, за да получите изхода и след това дайте друга команда в контекста на предишната, за да получите правилния отговор. Тази публикация разработи процеса на добавяне на състояние на паметта във вериги с помощта на рамката LangChain.