日韩无码专区无码一级三级片|91人人爱网站中日韩无码电影|厨房大战丰满熟妇|AV高清无码在线免费观看|另类AV日韩少妇熟女|中文日本大黄一级黄色片|色情在线视频免费|亚洲成人特黄a片|黄片wwwav色图欧美|欧亚乱色一区二区三区

RELATEED CONSULTING
相關(guān)咨詢
選擇下列產(chǎn)品馬上在線溝通
服務(wù)時間:8:30-17:00
你可能遇到了下面的問題
關(guān)閉右側(cè)工具欄

新聞中心

這里有您想知道的互聯(lián)網(wǎng)營銷解決方案
一個單層的基礎(chǔ)神經(jīng)網(wǎng)絡(luò)實現(xiàn)手寫字識別


成都創(chuàng)新互聯(lián)專注于富川網(wǎng)站建設(shè)服務(wù)及定制,我們擁有豐富的企業(yè)做網(wǎng)站經(jīng)驗。 熱誠為您提供富川營銷型網(wǎng)站建設(shè),富川網(wǎng)站制作、富川網(wǎng)頁設(shè)計、富川網(wǎng)站官網(wǎng)定制、重慶小程序開發(fā)公司服務(wù),打造富川網(wǎng)絡(luò)公司原創(chuàng)品牌,更為您提供富川網(wǎng)站排名全網(wǎng)營銷落地服務(wù)。

先上代碼

 
 
 
  1. import tensorflow 
  2.  
  3. from tensorflow.examples.tutorials.mnist import input_data 
  4.  
  5. import matplotlib.pyplot as plt 
  6.  
  7.  
  8.  
  9. # 普通的神經(jīng)網(wǎng)絡(luò)學(xué)習(xí) 
  10.  
  11. # 學(xué)習(xí)訓(xùn)練類 
  12.  
  13. class Normal: 
  14.  
  15.  
  16.  
  17.     weight = [] 
  18.  
  19.     biases = [] 
  20.  
  21.  
  22.  
  23.     def __init__(self): 
  24.  
  25.         self.times = 1000 
  26.  
  27.         self.mnist = [] 
  28.  
  29.         self.session = tensorflow.Session() 
  30.  
  31.         self.xs = tensorflow.placeholder(tensorflow.float32, [None, 784]) 
  32.  
  33.         self.ys = tensorflow.placeholder(tensorflow.float32, [None, 10]) 
  34.  
  35.         self.save_path = 'learn/result/normal.ckpt' 
  36.  
  37.  
  38.  
  39.     def run(self): 
  40.  
  41.         self.import_data() 
  42.  
  43.         self.train() 
  44.  
  45.         self.save() 
  46.  
  47.  
  48.  
  49.     def _setWeight(self,weight): 
  50.  
  51.         self.weight = weight 
  52.  
  53.  
  54.  
  55.     def _setBiases(self,biases): 
  56.  
  57.         self.biases = biases 
  58.  
  59.  
  60.  
  61.     def _getWeight(self): 
  62.  
  63.         return self.weight 
  64.  
  65.  
  66.  
  67.     def _getBiases(self): 
  68.  
  69.         return self.biases 
  70.  
  71.     # 訓(xùn)練 
  72.  
  73.     def train(self): 
  74.  
  75.  
  76.  
  77.         prediction = self.add_layer(self.xs, 784, 10, activation_function=tensorflow.nn.softmax) 
  78.  
  79.  
  80.  
  81.         cross_entropy = tensorflow.reduce_mean( 
  82.  
  83.             -tensorflow.reduce_sum( 
  84.  
  85.                 self.ys * tensorflow.log(prediction) 
  86.  
  87.                 , reduction_indices=[1]) 
  88.  
  89.         ) 
  90.  
  91.         train_step = tensorflow.train.GradientDescentOptimizer(0.5).minimize(cross_entropy) 
  92.  
  93.  
  94.  
  95.         self.session.run(tensorflow.global_variables_initializer()) 
  96.  
  97.  
  98.  
  99.         for i in range(self.times): 
  100.  
  101.             batch_xs, batch_ys = self.mnist.train.next_batch(100) 
  102.  
  103.             self.session.run(train_step, feed_dict={self.xs: batch_xs, self.ys: batch_ys}) 
  104.  
  105.             if i % 50 == 0: 
  106.  
  107.                 # images 變換為 labels,images相當(dāng)于x,labels相當(dāng)于y 
  108.  
  109.                 accurary = self.computer_accurary( 
  110.  
  111.                     self.mnist.test.images, 
  112.  
  113.                     self.mnist.test.labels, 
  114.  
  115.                     prediction 
  116.  
  117.                 ) 
  118.  
  119.  
  120.  
  121.     # 數(shù)據(jù)導(dǎo)入 
  122.  
  123.     def import_data(self): 
  124.  
  125.         self.mnist = input_data.read_data_sets('MNIST_data', one_hot=True) 
  126.  
  127.  
  128.  
  129.     # 數(shù)據(jù)保存 
  130.  
  131.     def save(self): 
  132.  
  133.         saver = tensorflow.train.Saver() 
  134.  
  135.         path = saver.save(self.session,self.save_path) 
  136.  
  137.  
  138.  
  139.     # 添加隱藏層 
  140.  
  141.     def add_layer(self,inputs,input_size,output_size,activation_function=None): 
  142.  
  143.  
  144.  
  145.         weight = tensorflow.Variable(tensorflow.random_normal([input_size,output_size]),dtype=tensorflow.float32,name='weight') 
  146.  
  147.  
  148.  
  149.         biases = tensorflow.Variable(tensorflow.zeros([1,output_size]) + 0.1,dtype=tensorflow.float32,name='biases') 
  150.  
  151.         Wx_plus_b = tensorflow.matmul(inputs,weight) + biases 
  152.  
  153.  
  154.  
  155.         self._setBiases(biases) 
  156.  
  157.         self._setWeight(weight) 
  158.  
  159.  
  160.  
  161.         if activation_function is None: 
  162.  
  163.             outputs = Wx_plus_b 
  164.  
  165.         else: 
  166.  
  167.             outputs = activation_function(Wx_plus_b,) 
  168.  
  169.  
  170.  
  171.         return outputs 
  172.  
  173.  
  174.  
  175.  
  176.  
  177.     # 計算結(jié)果數(shù)據(jù)與實際數(shù)據(jù)的正確率 
  178.  
  179.     def computer_accurary(self,x_data,y_data,tf_prediction): 
  180.  
  181.  
  182.  
  183.         prediction = self.session.run(tf_prediction,feed_dict={self.xs:x_data,self.ys:y_data}) 
  184.  
  185.  
  186.  
  187.         # 返回兩個矩陣中***值的索引號位置,然后進行相應(yīng)位置的值大小比較并在此位置設(shè)置為True/False 
  188.  
  189.         correct_predition = tensorflow.equal(tensorflow.argmax(prediction,1),tensorflow.argmax(y_data,1)) 
  190.  
  191.  
  192.  
  193.         # 進行數(shù)據(jù)格式轉(zhuǎn)換,然后進行降維求平均值 
  194.  
  195.         accurary = tensorflow.reduce_mean(tensorflow.cast(correct_predition,tensorflow.float32)) 
  196.  
  197.  
  198.  
  199.         result = self.session.run(accurary,feed_dict={self.xs:x_data,self.ys:y_data}) 
  200.  
  201.  
  202.  
  203.         return result 
  204.  
  205.  
  206.  
  207. # 識別類 
  208.  
  209. class NormalRead(Normal): 
  210.  
  211.  
  212.  
  213.     input_size = 784 
  214.  
  215.     output_size = 10 
  216.  
  217.  
  218.  
  219.     def run(self): 
  220.  
  221.         self.import_data() 
  222.  
  223.         self.getSaver() 
  224.  
  225.         origin_input = self._getInput() 
  226.  
  227.         output = self.recognize(origin_input) 
  228.  
  229.  
  230.  
  231.         self._showImage(origin_input) 
  232.  
  233.         self._showOutput(output) 
  234.  
  235.         pass 
  236.  
  237.  
  238.  
  239.     # 顯示識別結(jié)果 
  240.  
  241.     def _showOutput(self,output): 
  242.  
  243.         number = output.index(1) 
  244.  
  245.         print('識別到的數(shù)字:',number) 
  246.  
  247.  
  248.  
  249.     # 顯示被識別圖片 
  250.  
  251.     def _showImage(self,origin_input): 
  252.  
  253.         data = [] 
  254.  
  255.         tmp = [] 
  256.  
  257.         i = 1 
  258.  
  259.         # 原數(shù)據(jù)轉(zhuǎn)換為可顯示的矩陣 
  260.  
  261.         for v in origin_input[0]: 
  262.  
  263.             if i %28 == 0: 
  264.  
  265.                 tmp.append(v) 
  266.  
  267.                 data.append(tmp) 
  268.  
  269.                 tmp = [] 
  270.  
  271.             else: 
  272.  
  273.                 tmp.append(v) 
  274.  
  275.             i += 1 
  276.  
  277.  
  278.  
  279.         plt.figure() 
  280.  
  281.         plt.imshow(data, cmap='binary')  # 黑白顯示 
  282.  
  283.         plt.show() 
  284.  
  285.  
  286.  
  287.  
  288.  
  289.     def _setBiases(self,biases): 
  290.  
  291.         self.biases = biases 
  292.  
  293.         pass 
  294.  
  295.  
  296.  
  297.     def _setWeight(self,weight): 
  298.  
  299.         self.weight = weight 
  300.  
  301.         pass 
  302.  
  303.  
  304.  
  305.     def _getBiases(self): 
  306.  
  307.         return self.biases 
  308.  
  309.  
  310.  
  311.     def _getWeight(self): 
  312.  
  313.         return self.weight 
  314.  
  315.  
  316.  
  317.     # 獲取訓(xùn)練模型 
  318.  
  319.     def getSaver(self): 
  320.  
  321.         weight = tensorflow.Variable(tensorflow.random_normal([self.input_size, self.output_size]), dtype=tensorflow.float32,name='weight') 
  322.  
  323.  
  324.  
  325.         biases = tensorflow.Variable(tensorflow.zeros([1, self.output_size]) + 0.1, dtype=tensorflow.float32, name='biases') 
  326.  
  327.  
  328.  
  329.         saver = tensorflow.train.Saver() 
  330.  
  331.         saver.restore(self.session,self.save_path) 
  332.  
  333.  
  334.  
  335.         self._setWeight(weight) 
  336.  
  337.         self._setBiases(biases) 
  338.  
  339.  
  340.  
  341.     def recognize(self,origin_input): 
  342.  
  343.         input = tensorflow.placeholder(tensorflow.float32,[None,784]) 
  344.  
  345.         weight = self._getWeight() 
  346.  
  347.         biases = self._getBiases() 
  348.  
  349.  
  350.  
  351.         result = tensorflow.matmul(input,weight) + biases 
  352.  
  353.         resultSof = tensorflow.nn.softmax(result,) # 把結(jié)果集使用softmax進行激勵 
  354.  
  355.         resultSig = tensorflow.nn.sigmoid(resultSof,) # 把結(jié)果集以sigmoid函數(shù)進行激勵,用于后續(xù)分類 
  356.  
  357.         output = self.session.run(resultSig,{input:origin_input}) 
  358.  
  359.  
  360.  
  361.         output = output[0] 
  362.  
  363.  
  364.  
  365.         # 對識別結(jié)果進行分類處理 
  366.  
  367.         output_tmp = [] 
  368.  
  369.         for item in output: 
  370.  
  371.             if item < 0.6: 
  372.  
  373.                 output_tmp.append(0) 
  374.  
  375.             else : 
  376.  
  377.                 output_tmp.append(1) 
  378.  
  379.  
  380.  
  381.         return output_tmp 
  382.  
  383.  
  384.  
  385.     def _getInput(self): 
  386.  
  387.         inputs, y = self.mnist.train.next_batch(100); 
  388.  
  389.         return [inputs[50]] 

以上是程序,整個程序基于TensorFlow來實現(xiàn)的,具體的TensorFlow安裝我就不說了。

整個訓(xùn)練過程不做多說,我發(fā)現(xiàn)網(wǎng)上關(guān)于訓(xùn)練的教程很多,但是訓(xùn)練結(jié)果的教程很少。

整個程序里,通過tensorflow.train.Saver()的save進行訓(xùn)練結(jié)果模型進行存儲,然后再用tensorflow.train.Saver()的restore進行模型恢復(fù)然后取到訓(xùn)練好的weight和baises。

這里要注意的一個地方是因為一次性隨機取出100張手寫圖片進行批量訓(xùn)練的,我在取的時候其實也是批量隨機取100張,但是我傳入識別的是一張,通過以下這段程序:

 
 
 
  1. def _getInput(self): 
  2.  
  3.         inputs, y = self.mnist.train.next_batch(100); 
  4.  
  5.         return [inputs[50]] 

注意一下return這里的數(shù)據(jù)結(jié)構(gòu),其實是取這批量的第50張,實際上這段程序?qū)懗桑?/p>

 
 
 
  1. def _getInput(self): 
  2.  
  3.         inputs, y = self.mnist.train.next_batch(1); 
  4.  
  5.         return [inputs[0]] 

會更好。

因為識別的時候是需要用到訓(xùn)練的隱藏層來進行的,所以在此我雖然識別的是一張圖片,但是我必須要傳入一個批量數(shù)據(jù)的這樣一個結(jié)構(gòu)。

然后再識別的地方,我使用了兩個激勵函數(shù):

 
 
 
  1. resultSof = tensorflow.nn.softmax(result,) # 把結(jié)果集使用softmax進行激勵 
  2.  
  3. resultSig = tensorflow.nn.sigmoid(resultSof,) # 把結(jié)果集以sigmoid函數(shù)進行激勵,用于后續(xù)分類 

這里的話,***個softmax激勵后的數(shù)據(jù)我發(fā)現(xiàn)得到的是以e為底的指數(shù)形式,轉(zhuǎn)換成普通的浮點數(shù)來看,不是很清楚到底是什么,那么我在做識別數(shù)字判斷的時候就不方便,所以再通過了一次sigmoid的激勵。

后續(xù)我通過一個循環(huán)判斷進行一次實際上的分類,這個原因首先要說到識別結(jié)果形式:

 
 
 
  1. [0,0,0,0,0,0,0,0,1,0] 

像以上這個數(shù)據(jù),表示的是8,也就是說,數(shù)組下表第幾位為1就表示是幾,如0的表示:

 
 
 
  1. [1,0,0,0,0,0,0,0,0,0] 

而sigmoid函數(shù)在這個地方其實就是對每個位置的數(shù)據(jù)進行了分類,我發(fā)現(xiàn)如果分類值小于0.52這樣的數(shù)據(jù)其實代表的是否,也就是說此位置的值對應(yīng)的是0,大于0.52應(yīng)該對應(yīng)的是真,也就是1;而我在程序里取的是0.6為界限做判斷。

實際上,這個界限值應(yīng)該是在神經(jīng)網(wǎng)絡(luò)訓(xùn)練的時候取的,而不是看識別結(jié)果來進行憑感覺取的(雖然訓(xùn)練的時候的參數(shù)也是憑感覺取的)

這篇文章是我根據(jù)個人的一些理解來寫的,后續(xù)如果發(fā)現(xiàn)有錯誤,我會在新文章說出來,但這篇文章不做保留,方便后續(xù)檢查思考記錄的時候知道到底怎么踩坑的。

以下是我上次寫的sigmoid函數(shù)的文章:

https://segmentfault.com/a/11...

關(guān)于其他激勵函數(shù),可以網(wǎng)上找資料進行了解,很多基礎(chǔ)性的數(shù)學(xué)知識,放到一些比較具體的應(yīng)用,會顯得非常的有意思。


本文名稱:一個單層的基礎(chǔ)神經(jīng)網(wǎng)絡(luò)實現(xiàn)手寫字識別
本文鏈接:http://m.5511xx.com/article/dhopjpg.html