Логаритмична регресия

Подобни документи
Машинно обучение - въведение

Машинно обучение Лабораторно упражнение 9 Класификация с множество класове. Представяне на невронна мрежа Упражнението демонстрира класификация в множ

Машинно обучение Лабораторно упражнение 4 Линейна регресия и градиентно спускане Целта на упражнението е да се реализира линейна регресия, в която фун

I

munss2.dvi

Microsoft Word - stokdovo saprotivlenie.doc

Анализ и оптимизация на софтуерни приложения

Вариант 1 Писмен Изпит по Дискретни Структури 14/02/2018 г. Оценката се образува по следния начин: 2 + бр. точки, Наредени двойки бележим с ъглови ско

Машинно обучение - въведение

Microsoft Word - VM22 SEC55.doc

Microsoft Word - VM-2-7-integrirane-na-racionalni-funkcii-seminar.doc

Kontrolno 5, variant 1

Предефиниране на оператори. Копиращ конструктор. Оператор за присвояване Любомир Чорбаджиев Технологическо училище Електронни системи Технически униве

Microsoft Word - Sem02_KH_VM2-19.doc

ПЛОВДИВСКИ УНИВЕРСИТЕТ

Microsoft Word - VM-LECTURE06.doc

16. Основни методи за интегриране. Интегриране на някои класове функции Интегриране по части. Теорема 1 (Формула за интегриране по части). Ако

Управление на перална машина с размита логика Пералните машини в наши дни са обикновен уред в дома. Най-голяма изгода, която потребителя получава от п

Основен вариант за клас Задача 1. (4 точки) На графиката на полином a n x n + a n 1 x n a 1 x + a 0, чиито коефициенти a n, a n 1,..., a 1

munss2.dvi

Рекурсия Трифон Трифонов Увод в програмирането, спец. Компютърни науки, 1 поток, спец. Софтуерно инженерство, 2016/17 г. 21 декември 2016 г. 4 януари

Информатика

Homework 3

Microsoft Word - IGM-SER1111.doc

Глава 5 Критерий за субхармоничност Да разгледаме някои общи свойства на полу-непрекъснатите отгоре функции, преди да се съсредоточим върху онези от т

8 клас

годишно разпределение по математика за 8. клас 36 учебни седмици по 3 учебни часа = 108 учебни часа I срок 18 учебни седмици = 54 учебни часа II срок

Slide 1

Семинар 5: Обикновени диференциални уравнения (ОДУ)

Глава 4 Раздуване на комплексно многообразие в точка. Векторни разслоения. Нека M е комплексно многообразие с размерност dim p M = n в точка p M. Разд

BULGARIAN PARTICIPATION IN THE SPS AND PS EXPERIMENTS

Проектиране на непрекъснат ПИД - регулатор. Динамичните свойства на системите за автоматично регулиране, при реализация на първия етап от проектиранет

(не)разложимост на полиноми с рационални коефициенти Велико Дончев Допълнителен материал за студентите по Висша алгебра и Алгебра 2 на ФМИ 1 Предварит

Глава 15 Въпрос 15: Оператор на Рейнолдс. Крайна породеност на пръстена от инвариантни полиноми на крайна матрична група. Навсякъде в настоящия въпрос

Microsoft Word - VypBIOL-06-rabota.doc

ПРОЧЕТЕТЕ ВНИМАТЕЛНО СЛЕДНИТЕ УКАЗАНИЯ:

Exam, SU, FMI,

M10_18.dvi

Scan Tailor Кратко ръководство за работа Преди време описах как се работи с програмата Scan Kromsator. Сега искам да Ви представя една друга програма,

Microsoft PowerPoint - tema_5,PM_web.ppt

Препис:

Логаритмична регресия Доц. д-р Ивайло Пенев Кат. Компютърни науки и технологии

Функция на хипотезата h θ x = g θ T x = 1 1 + e θt x

Функция на цената J θ = 1 σ m i=1 m Cost(h θ x i, y i ), където Cost(h θ x i, y i = log h θ x за y = 1 Cost(h θ x i, y i = log 1 h θ x за y = 0

J(theta) J(theta) Графично представяне на J θ 2,5 При y=1 2,5 При y=0 2 2 1,5 1 1,5 0,5 1 0 0 0,2 0,4 0,6 0,8 1 1,2 htheta(x) 0,5 0 0 0,2 0,4 0,6 0,8 1 1,2 htheta(x)

Обяснение Cost(h θ x), y = 0, ако h θ x = y Cost(h θ x), y, ако y = 0 и h θ (x) 1 Cost(h θ x), y, ако y = 1 и h θ (x) 0 Ако при обучението коректният резултат е y = 0, то цената ще бъде 0 при h θ (x)=0 (т.е. при прогноза 0). Ако прогнозата е поголяма от 0, то цената ще се увеличава (Cost(h θ x), y ) Ако при обучението коректният резултат е y = 1, то цената ще бъде 0 при h θ (x)=1 (т.е. при прогноза 1). Ако прогнозата е помалка от 1, то цената ще се увеличава (Cost(h θ x), y )

Контролен въпрос В логаритмичната регресия функцията на цената има следният вид: Cost(h θ x), y = log h θ x за y = 1 Cost(h θ x), y = log 1 h θ x за y = 0 Отбележете всички верни отговори: а) Ако h θ x = y, то cost(h θ x), y = 0 за y=0 и y=1 б) Ако y=0, то cost(h θ x), y при h θ (x) 1 в) Ако y=0, то cost(h θ x), y при h θ (x) 0 г) Ако h θ x = 0.5, то cost(h θ x), y > 0 за y=0 и y=1

Опростена функция на цената Двата случая на ф-та на цената (за y=0 и y=1) могат да бъдат обединени: Cost(h θ x), y = ylog h θ x 1 y log(1 h θ x ) При y=1 => Cost(h θ x), y = ylog h θ x При y=0 => Cost(h θ x), y = 1 y log(1 h θ x ) Следователно ф-та на цената може да се представи: m J θ = 1 m i=1 [y i log(h θ x i + 1 y i log(1 h θ x i )]

Векторна форма на функцията на цената Ако ф-та на цената за всички обучителни примери е: m J θ = 1 m [y i log(h θ x i + 1 y i log(1 h θ x i )] i=1, то във векторна форма ф-та може да се запише така: h = g Xθ J θ = 1 m. ( yt log h 1 y T log 1 h )

Градиентно спускане Общ вид: Повтаряй: { θ j = θ j α J(θ) θ j } След диференцирането на J(θ) се получава: Повтаряй: { m θ j = θ j α m i=1 } (h θ x i y i )x j (i)

Контролен въпрос Прилагаме градиентно спускане в логаритмична регресия за намиране на стойностите на параметрите θ. Как ще проверим дали сме избрали подходяща стойност на скоростта на обучение α и дали градиентното спускане работи правилно? а) Чертаем графиката на ф-та J θ = 1 σ m i=1 m (h θ x (i) y (i) ) 2, като по абсцисната ос нанасяме броя на итерациите. Проверяваме дали стойността на J θ намалява на всяка следваща итерация б) Чертаем графиката на ф-та J θ = 1 σ m i=1 m [y i log(h θ x i + ൫1

Контролен въпрос При градиентно спускане на всяка итерация се изпълняват следните операции: m θ 0 = θ 0 α m i=1 m θ 1 = θ 1 α m i=1... m (h θ x i y i )x 0 (i) (h θ x i y i )x 1 (i) θ n = θ 1 α m (h θ x i y i (i) )x n i=1 Искаме да направим векторна реализация на алгоритъма във вида θ = θ αβ, където β е вектор. Изберете правилния вариант на векторната имплементация: а) θ = θ α 1 σ m i=1 m [ h θ x i y i. x (i) ] б) θ = θ α 1 [σ m i=1 m (h θ x i y i ]. x (i) в) θ = θ α 1 m x(i) [σ m i=1 (h θ x i y i ] г) Всички изброени

Векторна форма на градиентното спускане θ θ α m XT (g Xθ Ԧy)

Класификация за множество класове Обобщаваме класификационната задача за случаи, в които имаме повече от две възможности за y, т.е вместо y = {0,1} възможните изходи са y = 0,1,, n Можем да разделим задачата на n + 1 бинарни класификационни задачи, във всяка от които предсказваме вероятността y да принадлежи на всеки от n класа, т.е.: y = 0,1,, n h 0 θ x = P y = 0 x ; θ) h 1 θ x = P y = 1 x ; θ) h n θ x = P y = n x ; θ) i Резултат = max i (h θ x )

Алгоритъм Първоначална избираме един клас, а всички останали отделяме в друг клас. Решаваме бинарна класификационна задача. Повтаряме това за всеки възможен клас. Накрая избираме прогнозата с най-висока вероятност.

Пример за класификация с 3 възможни класа

Обобщение Обучаваме хипотеза с логаритмична регресия (логаритмичен класификатор) h θ (x) за всеки възможен клас i определяме вероятността за y=i За да определим към кой клас принадлежи неизвестна променлива x, избираме класа с максимална h θ (x)