Как да изчислим немащабирания градиент на тензор в PyTorch?

Kak Da Izcislim Nemasabirania Gradient Na Tenzor V Pytorch



Индивидуалните въведени данни се съхраняват под формата на „ Тензори ” в PyTorch и „ градиенти ” на тензорите се изчисляват с помощта на обратно разпространение в рамките на тренировъчния цикъл на модел за дълбоко обучение. Терминът „ немащабиран ” означава, че данните са необработени и няма предварителна обработка или оптимизация. Немащабираният градиент на тензор предоставя истинската стойност на промяната относно определената функция на загуба.

В този блог ще обсъдим как да изчислим немащабирания градиент на тензор в PyTorch.







Какво е немащабиран градиент на тензор в PyTorch?

Тензорите са многоизмерни масиви, които съдържат данни и могат да работят на GPU в PyTorch. Тензорите, които съдържат необработени данни от набора от данни без предварителна обработка, трансформации или оптимизации, се наричат ​​немащабирани тензори. Въпреки това, един „ Немащабиран градиент ” е различен от немащабиран тензор и трябва да се внимава да не се объркат двете. Немащабиран градиент на тензор се изчислява по отношение на избраната функция на загубите и няма допълнителни оптимизации или мащабиране.



Как да изчислим немащабирания градиент на тензор в PyTorch?

Немащабираният градиент на тензор е действителната стойност на скоростта на промяна на входните данни относно избраната функция на загуба. Необработените данни за градиента са важни за разбиране на поведението на модела и неговата прогресия по време на обучителния цикъл.



Следвайте стъпките, дадени по-долу, за да научите как да изчислявате немащабирания градиент на тензор в PyTorch:





Стъпка 1: Започнете проекта, като настроите IDE

Google Collaboratory IDE е един от най-добрите избори за разработване на проекти на PyTorch, защото предоставя безплатен достъп до GPU за по-бърза обработка. Отидете в Colab уебсайт и щракнете върху „ Нов бележник ” опция за започване на работа:



Стъпка 2: Импортирайте Essential Torch Library

Цялата функционалност на рамката на PyTorch се съдържа в „ Факел ' библиотека. Всеки проект на PyTorch започва с инсталиране и импортиране на тази библиотека:

!pip инсталирайте горелка

факел за внос

Горният код работи по следния начин:

  • “! пип ” е инсталационен пакет за Python, използван за инсталиране на библиотеки в проекти.
  • импортиране ” се използва за извикване на инсталираните библиотеки в проекта.
  • Този проект се нуждае само от функционалността на „ факла ' библиотека:

Стъпка 3: Дефинирайте тензор на PyTorch с градиент

Използвай ' факла.тензор ()” метод за дефиниране на тензор с градиент “ requires_grad=Вярно ” метод:

A = torch.tensor([5.0], requires_grad=True)

Стъпка 4: Дефинирайте проста функция за загуба

Функция на загуба се дефинира с помощта на просто аритметично уравнение, както е показано:

загуба_функция = A*5

Стъпка 5: Изчислете градиента и отпечатайте за изход

Използвай ' назад ()” за изчисляване на немащабирания градиент, както е показано:

загуба_функция.назад()

unscaled_grad = A.grad

print('Немащабиран градиент на PyTorch Tensor: ', unscaled_grad)

Горният код работи по следния начин:

  • Използвай ' назад ()” метод за изчисляване на немащабирания градиент чрез обратно разпространение.
  • Задайте „ А.град ' към ' немащабиран_град ” променлива.
  • Накрая използвайте „ печат ()” метод за демонстриране на резултата от немащабирания градиент:

Забележка : Можете да получите достъп до нашия бележник Colab тук връзка .

Професионален съвет

Немащабираният градиент на тензорите може да покаже точната връзка на входните данни с функцията на загубата за невронна мрежа в рамките на PyTorch. Суровият нередактиран градиент показва как двете стойности са свързани систематично.

Успех! Току-що показахме как да изчислим немащабирания градиент на тензор в PyTorch.

Заключение

Изчислете немащабирания градиент на тензор в PyTorch, като първо дефинирате тензора и след това използвате метода backward(), за да намерите градиента. Това показва как моделът на дълбоко обучение свързва входните данни с дефинираната функция на загуба. В този блог сме дали поетапен урок за това как да изчислим немащабирания градиент на тензор в PyTorch.