Как да използвате функцията LangChain LLMChain в Python

Kak Da Izpolzvate Funkciata Langchain Llmchain V Python



LangChain разполага с множество модули за създаване на приложения за езикови модели. Приложенията могат да бъдат направени по-сложни чрез комбиниране на модули или могат да бъдат направени по-прости с помощта на един модул. Извикването на LLM при определен вход е най-същественият компонент на LangChain.

Веригите не работят само за един LLM разговор; те са колекции от обаждания към LLM или друга помощна програма. Вериги от край до край за широко използвани приложения се предоставят от LangChain заедно със стандартен API за верига и многобройни интеграции на инструменти.

Гъвкавостта и способността за свързване на множество елементи в един обект може да бъде полезна, когато искаме да проектираме верига, която приема потребителски вход, настройва я с помощта на PromptTemplate и след това доставя генерирания резултат на LLM.







Тази статия ви помага да разберете използването на функция LangChain LLMchain в Python.



Пример: Как да използвате функцията LLMchain в LangChain

Говорихме какво представляват веригите. Сега ще видим практическа демонстрация на тези вериги, които са имплементирани в скрипт на Python. В този пример използваме най-основната верига LangChain, която е LLMchain. Той съдържа PromptTemplate и LLM и ги свързва заедно, за да генерира изход.



За да започнем прилагането на концепцията, трябва да инсталираме някои необходими библиотеки, които не са включени в стандартната библиотека на Python. Библиотеките, които трябва да инсталираме са LangChain и OpenAI. Ние инсталираме библиотеката LangChain, защото трябва да използваме нейния модул LLMchain, както и PromptTemplate. Библиотеката OpenAI ни позволява да използваме моделите на OpenAI, за да прогнозираме резултатите, т.е. GPT-3.





За да инсталирате библиотеката LangChain, изпълнете следната команда на терминала:

$ pip инсталирайте langchain

Инсталирайте библиотеката OpenAI със следната команда:



$ pip инсталирайте openai

След приключване на инсталациите можем да започнем работа по основния проект.

от Langchain. подкани импортиране PromptTemplate

от Langchain. llms импортиране OpenAI

импортиране Вие

Вие . приблизително [ „OPENAI_API_KEY“ ] = 'sk-ВАШИЯТ API КЛЮЧ'

Основният проект започва с импортиране на необходимите модули. И така, първо импортираме PromptTemplate от библиотеката „langchain.prompts“. След това импортираме OpenAI от библиотеката „langchain.llms“. След това импортираме „os“, за да зададем променливата на средата.

Първоначално зададохме OpenAI API ключа като променлива на средата. Променливата на средата е променлива, която се състои от име и стойност и е зададена в нашата операционна система. “Os.environ” е обект, който се използва за картографиране на променливите на средата. И така, ние наричаме „os.environ“. Името, което задаваме за API ключа е OPENAI_API_KEY. След това присвояваме API ключа като негова стойност. API ключът е уникален за всеки потребител. Така че, когато практикувате този кодов скрипт, напишете вашия таен API ключ.

llm = OpenAI ( температура = 0,9 )

подкана = PromptTemplate (

входни_променливи = [ 'продукти' ] ,

шаблон = „Как би се кръстила марка, която продава {продукти}?“ ,

)

Сега, когато ключът е зададен като променлива на средата, ние инициализираме обвивка. Задайте температурата за моделите OpenAI GPT. Температурата е характеристика, която ни помага да определим колко непредсказуем ще бъде отговорът. Колкото по-висока е стойността на температурата, толкова по-променливи са реакциите. Тук задаваме стойността на температурата на 0,9. Така получаваме най-случайните резултати.

След това инициализираме клас PromptTemplate. Когато използваме LLM, ние генерираме подкана от входа, който е взет от потребителя, и след това го предаваме на LLM, вместо да изпращаме входа директно към LLM, което изисква твърдо кодиране (подкана е вход, който сме взели от потребител и на който дефинираният AI модел трябва да създаде отговор). И така, инициализираме PromptTemplate. След това, в рамките на фигурните скоби, дефинираме input_variable като „Продукти“, а текстът на шаблона е „Как би се казвала марка, която продава {продукти}?“ Въведеното от потребителя показва какво прави марката. След това форматира подканата въз основа на тази информация.

от Langchain. вериги импортиране LLMChain

верига = LLMChain ( llm = llm , подкана = подкана )

След като нашият PromptTemplate е форматиран, следващата стъпка е да направим LLMchain. Първо импортирайте модула LLMchain от библиотеката „langchain.chain“. След това създаваме верига, като извикваме функцията LLMchain(), която приема потребителския вход и форматира подканата с него. Накрая изпраща отговора до LLM. И така, той свързва PromptTemplate и LLM.

печат ( верига. тичам ( 'Художествени принадлежности' ) )

За да изпълним веригата, извикваме метода chain.run() и предоставяме въведеното от потребителя като параметър, който се дефинира като „Принадлежности за изкуство“. След това предаваме този метод на функцията Python print(), за да покажем прогнозирания резултат на конзолата на Python.

AI моделът чете подканата и прави отговор въз основа на нея.

Тъй като поискахме да посочим марка, която продава арт консумативи, предвиденото име от AI модела може да се види на следната моментна снимка:

Този пример ни показва LLMchaining, когато е предоставена една входна променлива. Това е възможно и при използване на множество променливи. За целта просто трябва да създадем речник на променливите, за да ги въведем изцяло. Да видим как работи това:

от Langchain. подкани импортиране PromptTemplate

от Langchain. llms импортиране OpenAI

импортиране Вие

Вие . приблизително [ „OPENAI_API_KEY“ ] = 'sk- Вашият-API-КЛЮЧ'

llm = OpenAI(температура=0,9)

подкана = PromptTemplate(

входни_променливи=['
Марка ', ' Продукт '],

шаблон='
Какво би било името на { Марка } който продава { Продукт } ? ',

)

от langchain.chains импортирайте LLMChain

верига = LLMChain(llm=llm, подкана=подкана)

print(chain.run({

'Марка': '
Художествени принадлежности ',

„Продукт“: „
цветове '

}))

Кодът е същият като предишния пример, с изключение на това, че трябва да предадем две променливи в класа на шаблона за подкана. И така, създайте речник на input_variables. Дългите скоби представляват речник. Тук имаме две променливи – „Марка“ и „Продукт“, които са разделени със запетая. Сега текстът на шаблона, който предоставяме, е „Какво би било името на {Марка}, която продава {Продукт}?“ По този начин AI моделът предвижда име, което се фокусира върху тези две входни променливи.

След това създаваме LLMchain, който форматира потребителския вход с подкана за изпращане на отговора до LLM. За да изпълним тази верига, ние използваме метода chain.run() и предаваме речника на променливите с потребителски вход като „Марка“: „Принадлежности за изкуство“ и „Продукт“ като „Цветове“. След това предаваме този метод на функцията Python print(), за да покаже получения отговор.

Изходното изображение показва прогнозирания резултат:

Заключение

Веригите са градивните елементи на LangChain. Тази статия разглежда концепцията за използване на LLMchain в LangChain. Направихме въведение в LLMchain и изобразихме необходимостта от използването им в проекта Python. След това направихме практическа илюстрация, която демонстрира внедряването на LLMchain чрез свързване на PromptTemplate и LLM. Можете да създадете тези вериги с една входна променлива, както и с множество променливи, предоставени от потребителя. Предоставени са и генерираните отговори от GPT модела.