喜歡讀書是好事兒,但是也讀得那麽認真,不停問問題,就有點過份了。
尤其是《蘇廚》這種古代知識滿滿的,很多東西都在麥小苗認知範圍以外,逮到了原創作者就在身邊,好奇寶寶的問題簡直就是一直不斷。
比如第一章裏周至寫了眉山城門口的小橋叫做“通津橋”,說明這個橋過去不遠就是碼頭,大家可以在那裏坐船去往上下遊城市。然後麥小苗就問其餘地方如文廟,學署,書院,文昌宮的區別;又比如為什麽叫附廓縣,為什麽附廓縣就會存在州府縣府兩個衙門;火神廟是祭祀誰的,玉清觀是祭祀誰的,東嶽廟是祭祀誰的等等……
實話實說,就連最鐵的書友也問不到這麽細致的地方來,或者說許多對於國人來講本身就屬於常識,不過對於麥小苗這種中國曆史文化“人菜癮大”的讀者來說,那就啥都想問了。
關鍵是有些問題還十分複雜,比如要講玉清觀就要講到道教三清中的玉、上、太三清,然後講玉清元始天尊在道教中的地位和宋代對道教的推崇,以及道教在蜀中的影響力等等,國學是可以從一個點扯出一張網的學問,因此“玉清觀是祭祀誰的”這個問題,本身就是一個大題目。
周至本來是要改一改自己拉下的功課的,現在有了數字圖書館搜索引擎後,師祖祖的論文當中留下的許多讓周至疑惑,或者周至自己所欠缺的知識點,就可以通過搜索相關內容解惑補齊鞏固,結果遇到一個需要科普的小朋友,這就專心不起來了。
“小苗要不這樣。”周至想了想:“帖子本身就有留言功能,你將問題留在章節裏,等書友們來迴答好不好”
“可以。”麥小苗倒是從善如流,然後又問出一個問題:“可是我現在是看的存稿,還沒有發布啊”
“啊這……”周至想了想,打開文學論壇女生言情板塊:“這幾本熱度都挺高的,要不你看這種吧,好多女生都喜歡看。”
“不看!”
“為什麽”
“看她們的書哭得稀裏嘩啦的,衛生紙不夠用!”
“呃……”周至猶豫了一下,一咬牙:“我還有一本,暫時還沒準備發出去,寫的是一個大學生迴到家鄉建設農村的,你看不看”
“是聯和鄉這樣的農村嗎你還真會就地取材。”
“呃……倒也不是,背景是我的老家,蠻州市夾川縣。”
“你家鄉”
“對!”
“好啊好啊,你給我看看!”
《山溝》這本書就好多了,麥小苗終於不再發問,還不時給書裏的內容逗得咯咯直笑,看來頗為喜歡其中的內容。
兩人就這樣度過了一個晚上,偶爾喝點果幹煮米酒,吃點堅果,然後一人,一人看論文,要不是周至催麥小苗去刷牙洗臉,這妞還不想休息。
周至不由得搖頭,網絡文學後勁大啊……
但是第二天報應就來了,四葉草集團動作很快第一批資源已經到位組網,包括算力與存儲空間。
於是情況就來了一個顛倒,麥小苗在部署她帶迴來的算法程序的時候,周至就變成了昨晚麥小苗聽周至科普時候的那個樣子。
對於四葉草集團接包的vc程序開發,周至也是管理了的,甚至還參與了一些編寫方案的討論,對於編程,甚至編寫工具類程序,他也並不是完全的門外漢,這是周至穿越到這一世以來頗為得意的一點,就是自己上一世的專業不但沒有荒廢,反而更上了層樓。
但是他上的這層樓和麥小苗腳下起步的台階相比,相差得也有些遠,這不是變成能力上的限製,而是數學理論上的鴻溝。
“設神經元的輸入向量和參數向量分別為集合a和集合b,這兩個集合又可被稱為權重,它們之間存在這樣一個非線性函數關係,這樣的函數關係是輸入向量與參數向量作用之後,得到了一個輸出向量c,這個c被我們稱為激活值,而這個非線性函數則被稱為激活函數。”麥小苗倒是講得十分認真:“這裏的a(0)=1是個偏置單元,與線性迴歸中的零次項一致;”
“激活函數可以用logistic/sigmoid函數、tanh函數、relu函數等,用到激活函數的原因是如果不用的話,那麽線性成分的疊加還是線性成分,整個神經網絡依然是線性的,無法擬合非線性假設。”
“我們給每個神經元都套上非線性函數,就能夠讓網絡真正的擬活,注意是擬活而不是激活,也就是說,現在我們構造的這個激活函數,其實是通過給線性單元套上非線性函數,用來擬合非常複雜的非線性運算的情況,也就是神經化。”
“於是機器就能夠通過深度學習,識別出‘莫聽穿林打葉聲,何妨吟嘯且徐行’;‘大明湖,明湖大,明湖上麵有荷花,荷花上麵有蛤蟆,一戳一蹦躂’,孰優孰劣了。”周至也學得十分認真。
“哈哈哈哈……”麥小苗不由得大笑了起來:“後麵這首是誰寫的太有意思了……”
“一個軍閥,山東王張宗昌,魯迅先生曾經給他取過一個外號,叫‘三不知將軍’,即不知道自己有多少兵,不知道自己有多少錢,不知道自己有多少姨太太。”
“哈哈哈……”麥小苗又被逗得忍不住笑了,按著自己的小肚子艱難地想憋笑:“要讓機器達到這個水平還有點難,不過幫助我們的圖形識別係統尋找匹配的邊緣,應該比現在的程序效率……要高一些吧……”
“小苗你不用跟我打埋伏。”周至說道:“能提高多少效率其實我並沒有抱多大的希望,就算資源多浪費一倍,效率減緩一倍,我們都可以接受,隻要新的算法能夠成功就行,因為這是思路的勝利,我們先解決可行不可行的問題,再解決效率提升的問題。”
麥小苗笑了,說迴了模型上來:“我們接受輸入的第一層為輸入層,提供輸出的最後一層為輸出層,中間所有的層為隱藏層。”
“隱藏層越多、隱藏層神經元越多,神經網絡就能擬合更複雜的情況,但是也更難訓練。”
尤其是《蘇廚》這種古代知識滿滿的,很多東西都在麥小苗認知範圍以外,逮到了原創作者就在身邊,好奇寶寶的問題簡直就是一直不斷。
比如第一章裏周至寫了眉山城門口的小橋叫做“通津橋”,說明這個橋過去不遠就是碼頭,大家可以在那裏坐船去往上下遊城市。然後麥小苗就問其餘地方如文廟,學署,書院,文昌宮的區別;又比如為什麽叫附廓縣,為什麽附廓縣就會存在州府縣府兩個衙門;火神廟是祭祀誰的,玉清觀是祭祀誰的,東嶽廟是祭祀誰的等等……
實話實說,就連最鐵的書友也問不到這麽細致的地方來,或者說許多對於國人來講本身就屬於常識,不過對於麥小苗這種中國曆史文化“人菜癮大”的讀者來說,那就啥都想問了。
關鍵是有些問題還十分複雜,比如要講玉清觀就要講到道教三清中的玉、上、太三清,然後講玉清元始天尊在道教中的地位和宋代對道教的推崇,以及道教在蜀中的影響力等等,國學是可以從一個點扯出一張網的學問,因此“玉清觀是祭祀誰的”這個問題,本身就是一個大題目。
周至本來是要改一改自己拉下的功課的,現在有了數字圖書館搜索引擎後,師祖祖的論文當中留下的許多讓周至疑惑,或者周至自己所欠缺的知識點,就可以通過搜索相關內容解惑補齊鞏固,結果遇到一個需要科普的小朋友,這就專心不起來了。
“小苗要不這樣。”周至想了想:“帖子本身就有留言功能,你將問題留在章節裏,等書友們來迴答好不好”
“可以。”麥小苗倒是從善如流,然後又問出一個問題:“可是我現在是看的存稿,還沒有發布啊”
“啊這……”周至想了想,打開文學論壇女生言情板塊:“這幾本熱度都挺高的,要不你看這種吧,好多女生都喜歡看。”
“不看!”
“為什麽”
“看她們的書哭得稀裏嘩啦的,衛生紙不夠用!”
“呃……”周至猶豫了一下,一咬牙:“我還有一本,暫時還沒準備發出去,寫的是一個大學生迴到家鄉建設農村的,你看不看”
“是聯和鄉這樣的農村嗎你還真會就地取材。”
“呃……倒也不是,背景是我的老家,蠻州市夾川縣。”
“你家鄉”
“對!”
“好啊好啊,你給我看看!”
《山溝》這本書就好多了,麥小苗終於不再發問,還不時給書裏的內容逗得咯咯直笑,看來頗為喜歡其中的內容。
兩人就這樣度過了一個晚上,偶爾喝點果幹煮米酒,吃點堅果,然後一人,一人看論文,要不是周至催麥小苗去刷牙洗臉,這妞還不想休息。
周至不由得搖頭,網絡文學後勁大啊……
但是第二天報應就來了,四葉草集團動作很快第一批資源已經到位組網,包括算力與存儲空間。
於是情況就來了一個顛倒,麥小苗在部署她帶迴來的算法程序的時候,周至就變成了昨晚麥小苗聽周至科普時候的那個樣子。
對於四葉草集團接包的vc程序開發,周至也是管理了的,甚至還參與了一些編寫方案的討論,對於編程,甚至編寫工具類程序,他也並不是完全的門外漢,這是周至穿越到這一世以來頗為得意的一點,就是自己上一世的專業不但沒有荒廢,反而更上了層樓。
但是他上的這層樓和麥小苗腳下起步的台階相比,相差得也有些遠,這不是變成能力上的限製,而是數學理論上的鴻溝。
“設神經元的輸入向量和參數向量分別為集合a和集合b,這兩個集合又可被稱為權重,它們之間存在這樣一個非線性函數關係,這樣的函數關係是輸入向量與參數向量作用之後,得到了一個輸出向量c,這個c被我們稱為激活值,而這個非線性函數則被稱為激活函數。”麥小苗倒是講得十分認真:“這裏的a(0)=1是個偏置單元,與線性迴歸中的零次項一致;”
“激活函數可以用logistic/sigmoid函數、tanh函數、relu函數等,用到激活函數的原因是如果不用的話,那麽線性成分的疊加還是線性成分,整個神經網絡依然是線性的,無法擬合非線性假設。”
“我們給每個神經元都套上非線性函數,就能夠讓網絡真正的擬活,注意是擬活而不是激活,也就是說,現在我們構造的這個激活函數,其實是通過給線性單元套上非線性函數,用來擬合非常複雜的非線性運算的情況,也就是神經化。”
“於是機器就能夠通過深度學習,識別出‘莫聽穿林打葉聲,何妨吟嘯且徐行’;‘大明湖,明湖大,明湖上麵有荷花,荷花上麵有蛤蟆,一戳一蹦躂’,孰優孰劣了。”周至也學得十分認真。
“哈哈哈哈……”麥小苗不由得大笑了起來:“後麵這首是誰寫的太有意思了……”
“一個軍閥,山東王張宗昌,魯迅先生曾經給他取過一個外號,叫‘三不知將軍’,即不知道自己有多少兵,不知道自己有多少錢,不知道自己有多少姨太太。”
“哈哈哈……”麥小苗又被逗得忍不住笑了,按著自己的小肚子艱難地想憋笑:“要讓機器達到這個水平還有點難,不過幫助我們的圖形識別係統尋找匹配的邊緣,應該比現在的程序效率……要高一些吧……”
“小苗你不用跟我打埋伏。”周至說道:“能提高多少效率其實我並沒有抱多大的希望,就算資源多浪費一倍,效率減緩一倍,我們都可以接受,隻要新的算法能夠成功就行,因為這是思路的勝利,我們先解決可行不可行的問題,再解決效率提升的問題。”
麥小苗笑了,說迴了模型上來:“我們接受輸入的第一層為輸入層,提供輸出的最後一層為輸出層,中間所有的層為隱藏層。”
“隱藏層越多、隱藏層神經元越多,神經網絡就能擬合更複雜的情況,但是也更難訓練。”