Как да използвам резюме на разговора в LangChain?

Kak Da Izpolzvam Rezume Na Razgovora V Langchain



LangChain е рамката, която може да се използва за изграждане на езикови модели, използвайки огромното количество набори от данни за обучение, изградени на естествени езици. LangChain предоставя библиотеките и зависимостите, които могат да се използват за изграждане и управление на чатботове и езикови модели като LLM. Тези модели се считат най-вече за машини, с които да се води разговор или да се извлича информация въз основа на подкани, написани на човешки езици.

Това ръководство ще илюстрира процеса на използване на резюме на разговор в LangChain.

Как да използвам резюме на разговора в LangChain?

LangChain предоставя библиотеки като ConversationSummaryMemory, които могат да извлекат пълното резюме на чата или разговора. Може да се използва за получаване на основната информация за разговора, без да се налага да четете всички съобщения и текст, налични в чата.







За да научите процеса на използване на резюмето на разговора в LangChain, просто преминете към следните стъпки:



Стъпка 1: Инсталирайте модули

Първо инсталирайте рамката LangChain, за да получите нейните зависимости или библиотеки, като използвате следния код:



pip инсталирайте langchain





Сега инсталирайте модулите OpenAI след инсталиране на LangChain с помощта на командата pip:

pip инсталирайте openai



След инсталиране на модулите, просто настройте средата като използвате следния код след получаване на API ключа от OpenAI акаунта:

импортиране Вие

импортиране getpass

Вие . приблизително [ „OPENAI_API_KEY“ ] = getpass . getpass ( „API ключ на OpenAI:“ )

Стъпка 2: Използване на резюме на разговора

Влезте в процеса на използване на резюмето на разговора, като импортирате библиотеките от LangChain:

от Langchain. памет импортиране ConversationSummaryMemory , ChatMessageHistory

от Langchain. llms импортиране OpenAI

Конфигурирайте паметта на модела с помощта на методите ConversationSummaryMemory() и OpenAI() и запазете данните в нея:

памет = ConversationSummaryMemory ( llm = OpenAI ( температура = 0 ) )

памет. save_context ( { 'вход' : 'Здравейте' } , { 'изход' : 'здравей' } )

Стартирайте паметта, като извикате load_memory_variables() метод за извличане на данни от паметта:

памет. load_memory_variables ( { } )

Потребителят може също да получи данните под формата на разговор като всеки обект с отделно съобщение:

памет = ConversationSummaryMemory ( llm = OpenAI ( температура = 0 ) , върнати_съобщения = Вярно )

памет. save_context ( { 'вход' : 'Здравейте' } , { 'изход' : 'Здравей! Как си' } )

За да получите съобщението на AI и хората поотделно, изпълнете метода load_memory_variables():

памет. load_memory_variables ( { } )

Запазете резюмето на разговора в паметта и след това изпълнете паметта, за да покажете резюмето на чата/разговора на екрана:

съобщения = памет. chat_memory . съобщения

предишно_резюме = ''

памет. прогнозиране_ново_резюме ( съобщения , предишно_резюме )

Стъпка 3: Използване на резюме на разговор със съществуващи съобщения

Потребителят може също да получи резюмето на разговора, който съществува извън класа или чата, като използва съобщението ChatMessageHistory(). Тези съобщения могат да се добавят към паметта, за да може автоматично да генерира резюмето на целия разговор:

история = ChatMessageHistory ( )

история. add_user_message ( 'здравей' )

история. add_ai_message ( 'Здрасти!' )

Изградете модел като LLM, като използвате метода OpenAI(), за да изпълните съществуващите съобщения в chat_memory променлива:

памет = ConversationSummaryMemory. от_съобщения (
llm = OpenAI ( температура = 0 ) ,
chat_memory = история ,
върнати_съобщения = Вярно
)

Изпълнете паметта с помощта на буфера, за да получите обобщението на съществуващите съобщения:

памет. буфер

Изпълнете следния код, за да изградите LLM чрез конфигуриране на буферната памет с помощта на чат съобщенията:

памет = ConversationSummaryMemory (
llm = OpenAI ( температура = 0 ) ,
буфер = '''Човекът пита машината за себе си
Системата отговаря, че AI е създаден за добро, тъй като може да помогне на хората да постигнат своя потенциал'''
,
chat_memory = история ,
върнати_съобщения = Вярно
)

Стъпка 4: Използване на резюме на разговор във верига

Следващата стъпка обяснява процеса на използване на резюмето на разговора във верига с помощта на LLM:

от Langchain. llms импортиране OpenAI
от Langchain. вериги импортиране ConversationChain
llm = OpenAI ( температура = 0 )
разговор_с_резюме = ConversationChain (
llm = llm ,
памет = ConversationSummaryMemory ( llm = OpenAI ( ) ) ,
многословен = Вярно
)
разговор_с_резюме. прогнозирам ( вход = 'Здравей какво правиш' )

Тук започнахме да изграждаме вериги, като започнахме разговора с учтиво запитване:

Сега влезте в разговора, като попитате малко повече за последния резултат, за да го разширите:

разговор_с_резюме. прогнозирам ( вход = 'Разкажи ми повече!' )

Моделът е обяснил последното съобщение с подробно въведение в AI технологията или chatbot:

Извлечете интересна точка от предишния резултат, за да насочите разговора в определена посока:

разговор_с_резюме. прогнозирам ( вход = „Удивително, колко добър е този проект?“ )

Тук получаваме подробни отговори от бота, използвайки библиотеката с обобщена памет на разговора:

Това е всичко за използването на резюмето на разговора в LangChain.

Заключение

За да използвате обобщеното съобщение за разговор в LangChain, просто инсталирайте модулите и рамките, необходими за настройка на средата. След като средата е зададена, импортирайте ConversationSummaryMemory библиотека за изграждане на LLM с помощта на метода OpenAI(). След това просто използвайте резюмето на разговора, за да извлечете подробния резултат от моделите, който е резюмето на предишния разговор. Това ръководство разработи подробно процеса на използване на паметта за обобщение на разговори с помощта на модула LangChain.