Mist 跟前回介紹的 MetaMask 一樣是可以與 Ethereum 進行互動的工具,除了可以管理 Ethereum 相關密鑰之外,Mist 還包含了 Ethereum 節點以及網頁瀏覽器,方便大家瀏覽 Dapp 網頁。

首先請到這邊安裝 Mist,請選擇適於自己的作業系統安裝。

由於 Mist 會安裝節點在你的電腦裡,也因此會同步整個帳本下來,所以會花上不少時間同時也會佔用許多硬碟空間。我們目前僅是要使用測試鏈,所以請切換到 Ropsten 測試鏈(如下圖),這樣就不用花這麼多時間與空間了。

在 Mist 的左下角可以觀察目前已同步到你的電腦的區塊數(如下圖),如果這個數字跟 Etherscan(Etherscan 是一個可以查看 Ethereum 區塊鏈所有交易的網站) 上的最新區塊數一致的話,那就代表已經同步完成了。

接下來讓我們用 Mist 開一個 Ethereum 帳戶,請點擊 Add Account,並依指示輸入密碼後創建帳號,密碼請務必要記下來,將來交易時都會需要輸入你的密碼。

學會創建 Ethereum 帳戶之後,我們要來看一下 Mist 要怎麼備份帳號,請點擊 Mist 上方選單的 File -> Backup ->Accounts(如下圖),這樣就會打開帳號存放的資料夾,所有的帳號都會加密存在這邊,所以只要備份這些檔案及當時設定的密碼,你就可以在別台電腦復原你的帳號。

現在你這個 Ethereum 帳戶還沒有任何 Ether,我們仿造之前用 MetaMask 來跟水龍頭要 Ether 的步驟來取得 Ether 看看。

我個人提供了一個水龍頭 Dapp,請前往這個網址來取得 Ether:https://blog.fukuball.com/dapp/faucet/

由於 Mist 也是一個 Dapp 網頁瀏覽器,請在 Mist 上方的網址列輸入:https://blog.fukuball.com/dapp/faucet/

Mist 在揭露你的 Ethereum 帳戶資訊給 Dapp 網頁時都會詢問你的同意,請先選擇要瀏覽這個 Dapp 網頁的帳號(你可能在 Mist 有多個帳號,所以就需要選擇目前要用哪個帳號瀏覽這個網頁)。

然後點擊 Authorize,這樣就可以連上 Dapp 網頁了。

你可以看到跟 MetaMask 一樣,Ethereum 帳號(public address)已經被填寫到 Send To 欄位了,只要按下 Send To 之後不久你就可以從水龍頭收到 Ether 了。

果然不久之後我們就收到了 0.5 Ether!

接下來我們一樣練習一下把 0.1 Ether 匯回給水龍頭,請在 Credit 欄位輸入 0.1,然後按下 Credit。

這時 Mist 跟 MetaMask 一樣會彈出一個視窗顯示 Gas Fee 等資訊,不同的地方是 Mist 需要輸入密碼來授權這個交易。

交易進行時,你會收到一個 Tx id,在我這邊的例子是:0x82407e0aac7cc5d3ef485ffba78f279b37aaba50e64396c477b1b19ee5590793,你可以到 Etherscan 去查看這筆交易進行的狀態:https://ropsten.etherscan.io/tx/0x82407e0aac7cc5d3ef485ffba78f279b37aaba50e64396c477b1b19ee5590793

不久之後,等交易確認,你就可以看到 Ether 變成 0.4 了,你成功匯回了 0.1 Ether。

如同使用 MetaMask,我們也可以使用官方提供的 Mist 來與 Ethereum 區塊鏈做互動,其實都不錯用,但 Mist 相對肥大很多,也因此有時候交易會卡住,畢竟 Mist 在你的機器上安裝了 Ethereum 節點,所以比起 MetaMask 複雜許多,也比較容易遇到問題。如果你遇到問題了,可能重開 Mist 就能解決,如果還是不能解決,那就 google 吧!

Appendix

Mist 在系統背景開了一個叫 geth 的程序,這個 geth 就是主要用來與 Ethereum Network 互動的程式,未來我們會再多說一點 geth,在這邊我們先稍微看一下就好。

請在 Terminal 輸入指令:

ps aux | grep geth

你會看到 geth 真的有被跑在背景執行:

我們也可以進入 geth 的指令介面來使用 geth 更多功能,請在 Terminal 輸入指令:

/Users/username/Library/Application\ Support/Mist/binaries/Geth/unpacked/geth attach ~/Library/Ethereum/geth.ipc

你會看到像這樣的互動介面:

在這邊可以使用 geth 更多與 Ethereum 互動的指令,我們後續會學到更多,在這邊先簡單感受一下就好,你可以輸入指令:

net.peerCount

這樣 geth 就會回覆目前你的節點有多少的 peer 連結,其他的功能,我們就以後再說吧!

前一回稍微對 Blockchain、Bitcoin、Ethereum 做了一個科普的簡介,我們可以知道 Blockchain 就是一個帳本,每一個加入 Blockchain 的節點都會下載整個帳本在本地端,所以我們就可以在自己的節點(系統)寫入資料到帳本並透過 Blockchain 背後的機制同步到所有的節點。

但實際在節點帳本上寫入交易紀錄前,我們先使用 MetaMask 這個工具來跟 Ethereum 互動吧,不然要裝好 Ethereum 節點、下載好帳本可能會花上不少時間,在這之前就失去耐性的話可不是一個好的開始。

MetaMask 這個工具可以讓你不用安裝節點就跟 Ethereum 上的帳本做互動,這背後的原理其實就是使用別人幫忙維護的節點,如此就可以不用自己安裝節點、同步帳本。

首先請到 MetaMask 上安裝 Chrome(或 Firefox)外掛,並請依指示安裝,MetaMask 會創建 Ethereum 帳戶及相關密鑰,MetaMask 也會管理密鑰,讓你可以方便地使用密鑰來與 Ethereum 互動,請記下密碼及 12 個單字的帳戶復原字,這 12 復原字可以用來讓你回復 Ethereum 帳戶,如下圖。

Ethereum 上流通的貨幣就是 Ether,它用來當成 Ethereum Blockchain 得以運作的貨幣,Ethereum 上的節點想在 Ethereum 上做運算或是記下資料,那就需要付 Ether 當手續費,而在 Ethereum 上當礦工的節點就可以提供運算資源收取 Ether 當報酬。就如同現實世界一樣,貨幣的流通形成了資源的流通,讓世界可以正常運作。

我們先切換到 Ropsten Test Network(Ethereum 的測試鏈,上面的 Ether 是沒有任何價值的)來感受一下在 Blockchain 上怎麼進行交易。

現在我們還沒有任何 Ether 可以使用,這樣我們就沒辦法與 Ethereum 做互動,也就是無法做任何交易,讓我們來跟水龍頭要一些 Ether 來花吧!(在測試鏈上有佛心水龍頭,但正式鏈上就要自己挖礦或是花錢買 Ether 了!)

我個人提供了一個水龍頭 Dapp,請前往這個網址來取得 Ether:https://blog.fukuball.com/dapp/faucet/

這個 Dapp 會讀取你的帳戶位址到 Send To 欄位,你也可以自己複製位址到 Send To 欄位,點擊 Send To 之後不久就可以收到 Ether 了!

如上圖,我們不久之後就收到了 0.5 Ether,接下來我們來把 0.1 Ether 捐回去給水龍頭提供者看看。

請在 Credit 欄位上輸入 0.1,並點擊 Credit。

這時 MetaMask 會彈出交易視窗,顯示將要匯出 0.1 Ether(約 22.78 美金),然後手續費 Gas Fee(礦工運算顯)是 0.0001 Ether。(手續費現實世界通用的,但在 Ethereum 的世界叫 Gas Fee,之後文章將都統一使用 Gas Fee)

你可以點擊 Edit 調整 Gas Fee,簡易說明下 Gas Fee,Gas Fee 就是 Gas Price(以 Gwei 為單位)X Gas Limit 的計算結果,因此這個例子的 Gas Fee 就是 0.0001 Ether,Gas Price 影響的是礦工運算的優先度,Gas Limit 影響的則是可用多少運算資源。

不久之後,我們的 Ether 降到了 0.399978,我們成功地匯回了 0.1 Ether,而 Gas Fee 沒有花完所以得到的 balance 是 0.399978,並非 0.3999(Gas Fee 花光會有交易失敗風險)。

我們成功地透過了 MetaMask 在 Ethereum 上做交易,我們可以不用透過銀行就可以將錢匯來匯去了!只要會寫 Dapp,我們就可以從世界各地賺錢,讓使用者直接與我們交易,中間不需要再接銀行的金流了,這樣的世界是不是很棒呢!

網際網路發展至今,大家已經很習慣上網使用系統與服務了,這樣普遍存在網路上的系統大部分都是 Client-Server 式的系統,這樣的系統會有自己的內部網路與資料庫,當不同的系統之間要溝通或同步資料的時候,通常會透過 API 這樣的管道來溝通與同步資料,而 API 需要工程師撰寫,並不是在這些系統原生就會有的機制與功能,這就會產生開發成本,也因此不同系統之間的資料交換一直是一個需要被解決的問題。

Blockchain 的特性上,若系統是屬於 Blockchain 上的節點,那麼所有的系統節點就是共享同一份資料,當其中一個系統更改了 Blockchain 上的資料,那這一份更改就會同步到所有的系統。

這樣的特性除了泛用的資料同步分享之外,其實也非常適合使用作為「帳本」(可同步、且不可竄改),Bitcoin 是第一個將這樣帳本特性發揚光大的應用,雖然 Bitcoin 被製造出來時還沒有 Blockchain 這樣的概念,但背後的技術及運用的特性就是現在大家在講的 Blockchain。Blockchain 的思想基本上就是以「帳本」這樣的概念產生的,這個帳本上記錄所有的交易紀錄(也就是資料紀錄),且只能新增紀錄,不能修改或刪除紀錄,所有的紀錄像鏈子一樣結合起來,就像一個 chian of block,並透過加密機制讓鏈結的資料不可被竄改,也因此所有的交易紀錄(也就是資料)被紀錄到帳本之中,那就永遠不會消失。要算帳時只要將個人所擁有的所有交易紀錄進帳與出帳加總起來,就可以得到這個帳戶的結餘。Bitcoin 運用了早已存在的 P2P 運算、共識機制、加密機制、Chain of Block 及 Merkle Tree 整合出了現在大家在說的 Blockchain,而這一切的出發點就是為了製造出一個去中心化的金流系統(資料交換系統)。

Bitcoin 帶來了第一波 Blockchain 革命,第二波 Blockchain 革命就是在 Ethereum 開始的。由於在 Bitcoin 上的交易紀錄只是紀錄資料,假設我們將一個可執行的程式紀錄在 Blockchain 交易紀錄上會發生什麼事呢?

這樣這個程式就可以共享在整個 Blockchain 上,大家都可以在 Blockchain 上運行程式,而程式運行的資料可以在 Blockchain 上存取,讓整個 Blockchain 作為資料庫,這樣的程式就叫做 Smart Contract。這樣將程式放到 Blockchain 上運行的想法帶來了 Ethereum 的成功,如此 Ethereum Blockchain 就成了一個非常龐大的運算平台,讓許多去中心化的應用如雨後春筍地開發出來,讓未來的網路應用充滿了更多想像!

這份筆記將會紀錄在 Ethereum 上開發應用所學習到的知識,作為自己的回憶,也分享給想一起學習的開發者。

之前看到〈『致敬赵雷』基于TensorFlow让机器生成赵雷曲风的歌词〉這篇文章覺得非常有趣,因此一直都想自己動手試試看,中國有趙雷,那台灣要找什麼值得紀念的音樂人來作這個歌詞機器學習模型呢?我想張雨生應該會是台灣非常值得令人紀念的音樂人之一了。

程式的基礎我使用了之前在 GitHub 上有點小小貢獻的一個 Project 作為程式碼基礎,這個 Project 是 char-rnn-tf,可以用於生成一段中文文本(訓練與料是英文時也可以用於生成英文),訓練語料庫我收集了張雨生的百餘首歌詞(包含由張雨生演唱或作曲的歌詞),由於這樣的歌詞語料還是有些不足,因此也加入了林夕、其他著名歌詞、新詩作為輔助,整個語料庫大致包含 74856 個字、2612 個不重複字(其實語料庫還是不足)。

演算法基本上就是 LSTM,細節在此就不多加著墨,若有興趣可以在這篇文章了解一下,沒有時間的人,也可以看看 char-rnn-tf 這個 Project 作者所做的這張圖(見下圖),對概念了解一下。

https://github.com/hit-computer/char-rnn-tf/blob/master/model.jpg?raw=true

相關程式碼我放在這邊:Tom-Chang-Deep-Lyrics,如何安裝環境、如何訓練、如何生成歌詞,基本上都寫在 Readme 了,大家可以前往瞧瞧。


歌詞產生結果

範例一:夢想

訓練完模型之後(用 macbook air 大致上需要 1 天的時間),由於大眾對張雨生歌詞的印象應該就是「我的未來不是夢」,因此我首先使用「夢想」作為 seed,結果產生歌詞如下:

夢想會有心
我不願再區福 也不是一種把你一樣偷偷
我的心中有無奈

在我的心裡流 你的身影 你的轉身 你的沈靜 框進畫裡印象派的意

我有個朋友聽我說故舊 這一路悠揚的街長
我是天堂飄輝在天空裡
期待愛人看不同的眼睛
我等待與你身邊
你的歡念 你的灑明 在我心底都是飄逸水墨

我想你 愛過了我的一切
為你一起孤定我的美麗

產生的結果,歌詞機器學習模型先把詞補成句子「夢想會有心」,其實補得蠻好的啊!

「我不願再區福 也不是一種把你一樣偷偷 我的心中有無奈」

這邊雖有錯字,但也不至於不能理解。

「在我的心裡流 你的身影 你的轉身 你的沈靜 框進畫裡印象派的意」

這裡則結合了一首新詩,自創了歌詞。’

「我有個朋友聽我說故舊 這一路悠揚的街長」

這一句歌詞結合了張雨生的歌曲永公街的街長,說明歌詞機器學習模型的確有張雨生的影子,但悠揚的街長感覺怪怪的 XD


範例二:我的未來不是夢

從上一個範例,我們可以了解這個歌詞機器學習模型的效果還算不錯,且看起來比起〈『致敬赵雷』基于TensorFlow让机器生成赵雷曲风的歌词〉這篇所產生的歌詞還要好,仔細看趙雷歌詞產生的結果就會覺得歌詞有點不知所云,而我這邊訓練完的結果,看起來語意會比較明確一些。

接著上個範例,我們來試試看「我的未來不是夢」作為 seed。

我的未來不是夢
我只是真的勇敢

我是一棵秋天的樹 枯少的葉片顯過我
如果有愛能值得這些愁
這個世界保持安靜的距離

熱鬧容易 難得孤寂
我才捨不得問自己
從哪裡來又沒有用 感情和你的歸懷

你是我的姊妹
你是我的 BABY
讓我們的是 BAD BOY 難道我曾經默默縱容 那全是你犯的錯 喔

你贏 我不想與你再爭辯
我說你贏 我再也不想爭辯 請你轉過頭 我有哭泣的尊嚴
我是你的 BABY 我說得再多

「我的未來不是夢 我只是真的勇敢」

如果少了「只」感覺會更好一些。

「我是一棵秋天的樹 枯少的葉片顯過我 如果有愛能值得這些愁」

這邊則是致敬了張雨生的「我是一棵秋天的樹」的歌詞。

「你是我的姊妹」、「讓我們的是 BAD BOY」、「你贏 我不想與你再爭辯」

這邊則結合了「姊妹」「BAD BOY」「你贏」三首歌詞,有些地方說得通,但其實很難讓整首歌詞語意一致,這是目前這個歌詞機器學習模型需要改善的地方。


範例三:永遠不回頭

接下來試試經典歌曲「永遠不回頭」作為 seed。

永遠不回頭
我只能誠實你只能真摰 你無需幻想你無需作夢

當舞台來喝采聲星 為你的心呢的旋律
我是如此的愛 被我無深在心靈
我的愛沒有書香的清澈 我的愛沒有酒醇的狂語
我的愛沒有鑽石的雨 我是真的 人是假的唯

我要你的愛不曾衰竭 只要越來越不知道那無遲

別用你的眼 用我的心
好好一些感動

我在你心裡面看不見
我的世界裡用天地溫柔
永遠的感覺你和你

「永遠不回頭 我只能誠實你只能真摰 你無需幻想你無需作夢」

語意上蠻貼切的。

「別用你的眼 用我的心 好好一些感動」

「我在你心裡面看不見 我的世界裡用天地溫柔 永遠的感覺你和你」

這邊看不出是致敬哪首歌詞,比較像是歌詞機器學習模型自己從看過的語料中創作出來的,在字彙這麼少的情況下能夠這樣創作真的很不容易,想想自己小時候寫作文就知道這有多難,機器等於是一天學會作文。


範例四:我學會飛翔

接下來使用「我學會飛翔」作為 seed,這是範例中唯一由張雨生寫的歌詞,其他範例都是合作過的歌曲(雖然也都放在語料庫中),哎呀,真不會選範例!

我學會飛翔
深空之前如何困見 那裡有愛的人
為誰呼喚我 那一天我依稀回來
我們的愛情是迷霧 我總是深彎

我不能相信 何難自己

當風和日麗 陽春三月天
燦爛的心境 醉人的詩篇
或許紅磚上 或許小湖沿
繽紛的足跡 飛揚的笑靨
純潔的性靈 仿如剛清醒
又似蒙蔽 你的輪廓 在汗水中穿梭的角梗
吐著濃濃的煙霧恣任冥思出星
燦爛的陽光溫暖不到這樣的角落
一想到你呀 就讓我快樂
就好比蜻猴呀穿梭梭林 聚成了身邊

「我們的愛情是迷霧」

這也是歌詞機器學習模型自己創作出來的,覺得蠻厲害的。

「當風和日麗 陽春三月天 燦爛的心境 醉人的詩篇」

這邊的詞有點高水準,所以其實是 Overfitting,抄了張雨生的「三月的天真」這首歌詞。


範例五:沒有菸抽的日子

接下來試試另一首經典歌曲「沒有菸抽的日子」作為 seed。

沒有菸抽的日子 喔

蒼匆的年宴不想留念你的存在
等待那一天鐘
不能說
我不會知道該怎麼做

當秋天葉落 西風來臨後
樹靈的枯枝 曳搖千萬萬 搖積不再有不停 是否不能呼吸
你也能夠 不顧

常常常覺得對自己嗎 難道我真的更好

oh 不醉 就學不會

好男人是不是都躲在家裡
為何身邊六塊肌全對女人沒興趣
有時我真懷疑 纏綿悱惻的劇情
幸福結局 只出現在日劇
女人的心 好比 放大鏡

「沒有菸抽的日子 喔」

「oh 不醉 就學不會」

這兩句真的喔的很貼切啊!很可惜後面 Overfitting 了~


範例六:漂向北方

最後我們來試試不是張雨生的歌曲看看,刻意選了近期還蠻紅的歌曲「漂向北方」作為 seed。

漂向北方 別問我家鄉
直到昏景 等到癡邊

我期待 在我的窗中
你給我一個感覺
肯定的愛情
擁有工作我的愛 請我的愛沒有書醇的狂向
直到傻風上煙中深起
你知道我不會猜你

我的笑容隨著煦煦和風 溫暖吹襲一股月色迷濛
我的歌聲衝出節節喉嚨 騷動八方就該天地星座 快同我怒吼

大度能寬容 滄海樂悠悠 誰又不想放下身段快意自由
失意也會有 得意也會有 反正都是生不帶來死不帶走

「漂向北方 別問我家鄉 直到昏景 等到癡邊」

補完的詞還不錯,「等到癡邊」比較不能理解,但算是有趣的創作吧。

「我期待 在我的窗中 你給我一個感覺 肯定的愛情」

致敬了我期待,感覺真的有在期待的感覺。

後面好像 Overfitting 了張雨生的「門外還有愛」,但整首詞的語意還算一致,算是一個不錯的結果。


以上就是這個「基於 LSTM 深度學習方法研發而成的張雨生歌詞產生模型」的實驗結果,產生的詞算是可讀,而且有些還蠻有意思的,比較大的問題是上下文的語意可能會不一致,這樣的問題目前也有很多論文在解了,大體上就是用多層的 LSTM,可以將句子為 level 做 Encode 之後做一層 LSTM,將段落為 level 做 Encode 之後做一層 LSTM,結合原本的字詞 level 的 LSTM 模型,應該就可以做出上下文語意一致的歌詞產生模型了,如果大家有做出來,別忘了分享一下啊!

前言

本系列部落格文章將分享我在 Coursera 上台灣大學林軒田教授所教授的機器學習技法(Machine Learning Techniques)課程整理成的心得,並對照林教授的投影片作說明。若還沒有閱讀過 第 15 講 的碼農們,我建議可以先回頭去讀一下再回來喔!

範例原始碼:FukuML - 簡單易用的機器學習套件

我在分享機器學習基石課程時,也跟著把每個介紹過的機器學習演算法都實作了一遍,原始碼都放在 GitHub 上了,所以大家可以去參考看看每個演算法的實作細節,看完原始碼會對課程中的數學式更容易理解。

如果大家對實作沒有興趣,只想知道怎麼使用機器學習演算法,那 FukuML 絕對會比起其他機器學習套件簡單易用,且方法及變數都會跟林軒田教授的課程類似,有看過課程的話,說不定連文件都不用看就會使用 FukuML 了。不過我還是有寫 Tutorial 啦,之後會不定期更新,讓大家可以容易上手比較重要!

熱身回顧一下

上一講中我們學到了如何使用矩陣分解方法來解推薦問題,機器學習技法課程也到這邊告一段落了,這一講終將會總結回顧一下我們在機器學習技法中學到的所有機器學習演算法,也許還有許多算法沒有介紹到,但基本概念都可以延伸。

特徵技巧:Kernel

我們學習到了如何使用 Kernel 來表現資料特徵,使用到 Kernel 技巧的相關演算法如下:

特徵技巧:Aggregation

我們也可以使用 Aggregation 方法來結合資料特徵,藉以合成更強大的學習演算法,使用到 Aggregation 技巧的相關演算法如下:

特徵技巧:Extration

我們可以使用 Extration 技巧來取得重要的資料特徵,使用到 Extration 技巧的相關演算法如下:

特徵技巧:Low-Dim

我們也會使用降維這個特徵技巧來取得資料的重要特徵,用到降維技巧的相關演算法如下:

優化技巧:Gradient Decent

在類神經網路大量用到了 Gradient Decent 技巧來進行 Error 優化,用到 Gradient Decent 技巧的相關演算法如下:

優化技巧:Equivalent Solution

在許多困難的問題,我們很難找到優化的方法,我們會使用 Equivalent Solution 找到優化的方法,例如 Dual SVM 我們使用 covex QP、Kernel LogReg 我們用 representer、PCA 我們用 eigenproblem 來解。

未來若需要發展自己的演算法,也可以朝 Equivalent Solution 去想優化方法,只是這可能需要大量的數學推理知識。

優化技巧:Multiple Steps

有一些演算法我們會用 Multiple Steps 來一步一步進行優化,,用到 Multiple Steps 技巧的相關演算法如下:

過擬似技巧:正規化

由於演算法的能力越來越強,也因此很容易過擬似(Overfitting),所以我們必須要有方法來避免過擬似,其中一個方式就是正規化,我們大致學過的正規化方法如下:

過擬似技巧:Validation

另外我們也需要使用 Validation 方法讓我們在訓練過程就可以避免過擬似,在機器學習技法中我們學到的一些演算法有因為演算法特性而發展出來的 Valdation 方法:

機器學習叢林

林軒田老師在機器學習技法課程的一開始就有放過這樣一張投影片,我們進入的是一個機器學習的叢林,從一開始可能對這投影片的所有演算法都不了解,但在這課程的尾聲我們重新回顧,相信大家多少都已經認識了這個叢林的險惡,也了解這個叢林是個多麽有趣與豐富!

前言

本系列部落格文章將分享我在 Coursera 上台灣大學林軒田教授所教授的機器學習技法(Machine Learning Techniques)課程整理成的心得,並對照林教授的投影片作說明。若還沒有閱讀過 第 14 講 的碼農們,我建議可以先回頭去讀一下再回來喔!

範例原始碼:FukuML - 簡單易用的機器學習套件

我在分享機器學習基石課程時,也跟著把每個介紹過的機器學習演算法都實作了一遍,原始碼都放在 GitHub 上了,所以大家可以去參考看看每個演算法的實作細節,看完原始碼會對課程中的數學式更容易理解。

如果大家對實作沒有興趣,只想知道怎麼使用機器學習演算法,那 FukuML 絕對會比起其他機器學習套件簡單易用,且方法及變數都會跟林軒田教授的課程類似,有看過課程的話,說不定連文件都不用看就會使用 FukuML 了。不過我還是有寫 Tutorial 啦,之後會不定期更新,讓大家可以容易上手比較重要!

熱身回顧一下

上一講介紹了 RBF Network,基本上就是透過距離公式及中心點來對資料點進行投票的一個算法,這一講將介紹矩陣分解系列的算法。

推薦系統問題

之前的課程中曾經提到過推薦系統的問題,我們的資料集是使用者對電影的評分,希望讓機器學習算法學習到可以推薦使用者也會高評分的電影,這樣的問題 Netflix 曾經舉行過競賽。我們如何解這樣的問題呢?

類別編碼

這個問題首先會需要進行編碼,因為使用者資料可能只是一連串的使用者編號,這是類別資料,不太能用來直接用於運算(僅有 Decision Tree 可以直接用來做類別運算),所以我們會先將類別資料編碼成數值資料,編碼的方法常用 binary vector encoding,如下所示:

特徵選取

我們可以將使用者評分電影的過程視做一組特徵轉換,能夠將 X 轉換成 Y,轉換的過程如果分成兩個矩陣 Wni、Wim,那左邊的矩陣代表的意義就是使用者對電影中哪些特徵很在意,右邊的矩陣代表的意義就是電影中有哪些特徵成份。

矩陣分解

因此這個推薦問題可以寫成底下的矩陣分解,首先我們把評分做成一個 Rnm 矩陣,需要嘗試把它分解成 VT W 兩個矩陣,使用者的喜好會對映一組特徵,電影的成分也會對應到這組特徵,我們要將這組特徵萃取出來。

矩陣分解學習 Alternating Least Squares

矩陣分解學習算法如下,首先決定特徵維度 d,然後隨機初始化使用者對特徵的喜好 Vn,電影中特徵的強度 Wm,然後優化 Ein,先固定 Vn 去優化 Wm,再固定 Wm 去優化 Vn,如此重複直到收斂,這樣就可以得到與 Rnm 最相似的 Vn X Wm。

Linear Autoencoder vs 矩陣分解

之前介紹過的 Linear Autoencoder 基本上也是一種矩陣分解,但意義上有些不同。

使用隨機梯度下降法解矩陣分解

我們也可以使用隨機梯度下降法來解矩陣分解的問題,與 Alternating Least Squares 比起來,隨機梯度下降法速度較快,且比較簡單。

觀察 Error Function

隨機梯度下降是計算某個點的梯度來進行優化,所以我們可以用一個點作為範例來看看梯度優化的式子,例如我們要對 Vn 進行優化時,只要對 Vn 進行偏微分,即可得到優化的數學式,同理要對 Wm 進行優化時,也只要對 Wm 進行偏微分即可。

矩陣分解學習 SGD

因此 SGD 矩陣分解學習算法如下,首先一樣先決定特徵維度 d,然後隨機初始化使用者對特徵的喜好 Vn,電影中特徵的強度 Wm,然後隨機選取 Rnm 中的一點,計算 Rnm - WmVn,然後各自做偏微分取得新的 Vn 及 Wm 直到收斂。

矩陣分解學習 SGD 實務

林軒田老師分享了矩陣分解學習 SGD 算法在實務上的應用,由於在 KDDCup 2011 年的問題中,測試資料與訓練資料是在不同時間收集到的,因此可以說是不同的資料分布,在做訓練上可能需要將時間的因素考量進去這樣未來做預測才會準確。

使用 SGD 矩陣分解學習算法,我們可以在訓練過程中讓後半段的訓練資料都選取較新的訓練資料,因此可以將時間因素也同時考量在訓練過程中了,這樣的調整讓台大隊伍拿下了比賽的冠軍。如果了解了機器學習算法的細節,我們就可以因應不同的問題做調整。

總結

在這一講中,我們學到了如何使用矩陣分解方法來解推薦問題,矩陣分解的演算法可以使用 Alternating Least Squares 或是隨機梯度下降法,雖然目前網路上已經一大堆矩陣分解程式可以使用,但當遇到要適度調整演算法的時候,了解實作演算法細節便可以自行調整以解決真實世界會遇到的問題。

前言

本系列部落格文章將分享我在 Coursera 上台灣大學林軒田教授所教授的機器學習技法(Machine Learning Techniques)課程整理成的心得,並對照林教授的投影片作說明。若還沒有閱讀過 第 13 講 的碼農們,我建議可以先回頭去讀一下再回來喔!

範例原始碼:FukuML - 簡單易用的機器學習套件

我在分享機器學習基石課程時,也跟著把每個介紹過的機器學習演算法都實作了一遍,原始碼都放在 GitHub 上了,所以大家可以去參考看看每個演算法的實作細節,看完原始碼會對課程中的數學式更容易理解。

如果大家對實作沒有興趣,只想知道怎麼使用機器學習演算法,那 FukuML 絕對會比起其他機器學習套件簡單易用,且方法及變數都會跟林軒田教授的課程類似,有看過課程的話,說不定連文件都不用看就會使用 FukuML 了。不過我還是有寫 Tutorial 啦,之後會不定期更新,讓大家可以容易上手比較重要!

熱身回顧一下

上一講介紹了深度學習神經網路,基本上神經網路林軒田老師只說明了兩講,這一講將進入一個新的 Machine Learning 演算法 Radial Basis Function Network(我個人不太覺得這個是神經網路演算法),並延伸介紹了其中會使用到的 K-means 分群演算法。

回顧一下 Gaussian SVM

Gaussian Kernel 也稱為是 Radial Basis Function(RBF),定義一種距離關係,Gaussiam SVM 也就是使用這些 RBF 經過線性組合的預測模型。

RBF Network 的定義

RBF Network 定義是資料點與代表性中心點投票出來的結果作為預測,其中每個中心點具有代表性,資料點經過 RBF 距離公式的轉換之後(距離越小,越有影響力),再經過 beta 投票。

而 RBF Network 要學習的參數就是中心點 u 以及每個中心點距離公式的權重 beta。

Full RBF Network

了解定義之後,我們就要求出 RBF Network 最佳化的 u 及 beta,一種情況我們是將所有的資料點都當成是重要的中心點,這種情況,然後 beta 直接用 y 當成加權,這樣就是所謂的 Full RBF Network,這樣的預測模型就完全沒有訓練過程,只要將所有的點記下來,然後用 RBF 距離公式計算投票來定義新的資料點應該是屬於什麼。

Nearest Neighbor

由於每次預測都要使用所有的訓練資料點來計算預測結果很費力,我們從距離公式可以了解,投票結果大部分會受最近距離的中心點影響,所以我們其實可以只看最近一點中心點的 RBF 投票結果就好,這就是所謂的 Nearest Neighbor,如果是看最近 k 點中心點的 RBF 投票結果就是所謂的 K Nearest Neighbor。

Beta 不使用相同權重

Full RBF Network 的 Beta 使用相同權重其實就是 Nearest Neighbor,現在我們不想要讓 Beta 使用相同權重,因此要透過訓練資料來計算出最佳的 Beta 權重,最佳的 Beta 有公式解,且這個結果會讓 RBF Network 得到 Ein=0,這樣其實會有 overfitting。

使用更少的中心點來正規劃

我們從 SVM 中看到 SVM 其實只考慮了幾個點(SV)來決定胖胖的線,那 RBF Netwrok 應該也可以用同樣的概念來找出幾的重要的中心點,然後再來計算出最佳的 beta 就好,這樣就可以避免 overfitting。

中心點如何決定?

中心點如何決定並不是一個簡單的問題,我們必須要找出讓訓練資料跟各中心點距離最小,然後又要找出訓練資料最佳的分組結果,這是無法找出最佳化公式的問題。

分別最佳化(1)

其中一個方法就是做最佳化,首先假設我們已經決定了最佳的中心點,那要算出資料點應該要分在哪個中心點的分組就非常容易,就看跟哪個中心點距離最小就可以了。

分別最佳化(2)

假設現在分組已經決定了,找出最佳化的中心點也很容易,將距離公式進行微分資料就可以知道最佳的中心點就是分組所有資料點的平均。

K-Means 算法

經過以上的推導,我們可以知道 K-Means 演算法如下:

  1. 先隨意從資料點找出 k 個資料點當成是初始的中心點
  2. 計算資料點的分組
  3. 資料分完組之後,計算各組資料點的平均當成是新的中心點
  4. 重複 2 跟 3 直到中心點不再改變

RBF Network 搭配 K-means 中心點

現在我們將 RBF Netwrok 搭配 K-means 算出的中心點來做出先的 RBF Network 模型:

  1. 使用 K-means 計算出 k 個最重要的中心點(k 要設幾個要自己試,可以用 cross-validation)
  2. 將訓練資料 x 經過 k 個 RBF 距離公式進行特徵轉換
  3. 將特徵轉換後的訓練資料跑 linear model 計算最佳化的 beta
  4. 如此就得到了訓練完後具有正規化性質 RBF Network 了

K-means 的問題

K 很難決定、初始化的中心點也會影響分群的結果,這是目前無解的,我們只能透過 cross validation 來決定最好的 k 是幾個,而初始化的中心點只能多試只次來避面模型是落在局部最佳化。

總結

這一章介紹了 RBF Network,基本上就是透過距離公式及中心點來對資料點進行投票的一個算法,而中心點就是一種代表性,為了決定中心點,我們可以使用 K-means,了解 RBF Network 的核心概念之後,覺得 RBF 算是蠻簡單的,幾乎不太需要訓練,相對的,我也覺得 RBF Network 的用處比較沒那麼大。

Fukuball

我是林志傑,網路上常用的名字是 Fukuball。我使用 PHP 及 Python,對機器學習及區塊鏈技術感到興趣。 https://www.fukuball.com

Staff Engineer

Taiwan