国产成人精品亚洲777人妖,欧美日韩精品一区视频,最新亚洲国产,国产乱码精品一区二区亚洲

您的位置:首頁技術(shù)文章
文章詳情頁

python實(shí)現(xiàn)logistic分類算法代碼

瀏覽:6日期:2022-08-05 10:06:53

最近在看吳恩達(dá)的機(jī)器學(xué)習(xí)課程,自己用python實(shí)現(xiàn)了其中的logistic算法,并用梯度下降獲取最優(yōu)值。

logistic分類是一個(gè)二分類問題,而我們的線性回歸函數(shù)

python實(shí)現(xiàn)logistic分類算法代碼

的取值在負(fù)無窮到正無窮之間,對(duì)于分類問題而言,我們希望假設(shè)函數(shù)的取值在0~1之間,因此logistic函數(shù)的假設(shè)函數(shù)需要改造一下

python實(shí)現(xiàn)logistic分類算法代碼

由上面的公式可以看出,0 < h(x) < 1,這樣,我們可以以1/2為分界線

python實(shí)現(xiàn)logistic分類算法代碼

cost function可以這樣定義

python實(shí)現(xiàn)logistic分類算法代碼

其中,m是樣本的數(shù)量,初始時(shí)θ可以隨機(jī)給定一個(gè)初始值,算出一個(gè)初始的J(θ)值,再執(zhí)行梯度下降算法迭代,直到達(dá)到最優(yōu)值,我們知道,迭代的公式主要是每次減少一個(gè)偏導(dǎo)量

python實(shí)現(xiàn)logistic分類算法代碼

如果將J(θ)代入化簡之后,我們發(fā)現(xiàn)可以得到和線性回歸相同的迭代函數(shù)

python實(shí)現(xiàn)logistic分類算法代碼

按照這個(gè)迭代函數(shù)不斷調(diào)整θ的值,直到兩次J(θ)的值差值不超過某個(gè)極小的值之后,即認(rèn)為已經(jīng)達(dá)到最優(yōu)解,這其實(shí)只是一個(gè)相對(duì)較優(yōu)的解,并不是真正的最優(yōu)解。 其中,α是學(xué)習(xí)速率,學(xué)習(xí)速率越大,就能越快達(dá)到最優(yōu)解,但是學(xué)習(xí)速率過大可能會(huì)讓懲罰函數(shù)最終無法收斂,整個(gè)過程python的實(shí)現(xiàn)如下

import mathALPHA = 0.3DIFF = 0.00001def predict(theta, data): results = [] for i in range(0, data.__len__()): temp = 0 for j in range(1, theta.__len__()): temp += theta[j] * data[i][j - 1] temp = 1 / (1 + math.e ** (-1 * (temp + theta[0]))) results.append(temp) return resultsdef training(training_data): size = training_data.__len__() dimension = training_data[0].__len__() hxs = [] theta = [] for i in range(0, dimension): theta.append(1) initial = 0 for i in range(0, size): hx = theta[0] for j in range(1, dimension): hx += theta[j] * training_data[i][j] hx = 1 / (1 + math.e ** (-1 * hx)) hxs.append(hx) initial += (-1 * (training_data[i][0] * math.log(hx) + (1 - training_data[i][0]) * math.log(1 - hx))) initial /= size iteration = initial initial = 0 counts = 1 while abs(iteration - initial) > DIFF: print('第', counts, '次迭代, diff=', abs(iteration - initial)) initial = iteration gap = 0 for j in range(0, size): gap += (hxs[j] - training_data[j][0]) theta[0] = theta[0] - ALPHA * gap / size for i in range(1, dimension): gap = 0 for j in range(0, size):gap += (hxs[j] - training_data[j][0]) * training_data[j][i] theta[i] = theta[i] - ALPHA * gap / size for m in range(0, size):hx = theta[0]for j in range(1, dimension): hx += theta[j] * training_data[i][j]hx = 1 / (1 + math.e ** (-1 * hx))hxs[i] = hxiteration += -1 * (training_data[i][0] * math.log(hx) + (1 - training_data[i][0]) * math.log(1 - hx)) iteration /= size counts += 1 print(’training done,theta=’, theta) return thetaif __name__ == ’__main__’: training_data = [[1, 1, 1, 1, 0, 0], [1, 1, 0, 1, 0, 0], [1, 0, 1, 0, 0, 0], [0, 0, 0, 0, 1, 1], [0, 1, 0, 0, 0, 1],[0, 0, 0, 0, 1, 1]] test_data = [[0, 1, 0, 0, 0], [0, 0, 0, 0, 1]] theta = training(training_data) res = predict(theta, test_data) print(res)

運(yùn)行結(jié)果如下

python實(shí)現(xiàn)logistic分類算法代碼

以上這篇python實(shí)現(xiàn)logistic分類算法代碼就是小編分享給大家的全部內(nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持好吧啦網(wǎng)。

標(biāo)簽: Python 編程
相關(guān)文章:
主站蜘蛛池模板: 高平市| 灵宝市| 巩留县| 邻水| 化州市| 越西县| 循化| 华蓥市| 兴安盟| 长丰县| 万宁市| 乌拉特前旗| 兰溪市| 淮南市| 阿瓦提县| 万年县| 德保县| 科尔| 龙岩市| 姜堰市| 巫山县| 镶黄旗| 苏尼特左旗| 博湖县| 叙永县| 施秉县| 保亭| 礼泉县| 广德县| 龙泉市| 安康市| 潮州市| 巴彦淖尔市| 柳江县| 醴陵市| 达日县| 县级市| 晋州市| 内丘县| 敦化市| 通渭县|