1. 至 "Teachable machine” 中建立圖形專案
( Get Started(開始使用) >> Image Project(圖片專案) >> Standard image mode(標準圖像模型)
2. 允許網路攝影機權限,並將Class1,Class2,Class3類別重新命名station1、station2、background。
3. 更改後,馬上開始蒐集樣本 !
將辨識物(站牌, 空白背景)對準鏡頭,滑鼠按下webcam(網路攝影機)拍攝辨識物的各種
角度和與鏡頭的距離,可以多多嘗試不同的角度與距離 !
(兩個辨識物的照片量各100出頭即可)
4. 拍好之後按下training(訓練),等待模型生成
5. 顯示preview(預覽)後就可以從右上角的選單載下來
(選單>>Download project as file(將專案下載為檔案))
1. 載下來後到
https://colab.research.google.com/drive/1kV6OOe1OAmHNdpWUx7MURLwoqCC5_YA_
建立副本,將剛剛下載的檔案放入副本中執行
2. 執行成功後,會自動下載kmodle ! 即完成影像辨識模型 !
*如遇上任何關於kmodel無法順利下載的問題,詳見程式區FAQ。
鋰電池充電方式: 電池插著WebAI,關AI板的電源,插USB就可以充電。
1. 登入Webduino
(webduino網站>>教育平台>>web:ai程式積木>>建立帳號登入)
2. 登錄成功後,進入程式積木畫面點選右上角"範例">>左顧右盼,並燒錄程式
(測試web:ai是否正常)
3. 測試成功後,點選"範例">>自訂影像處理
輸入web:ai 板的 Device ID 後,電腦插上AI版,燒錄程式。
4. 選擇匯入剛剛下載的kmodel分類改為自己取名的兩個辨識物名稱
5. AI 板即會開始影像辨識
1. 登入 Webduino
(Webduino網站>>教育平台>>smart程式積木>>建立帳號登入>>"我的專案")
想像機器人站在網格,我們定義往前與往右為正(0~100),往後即往左為負(-100~0)。
而橫向為 x 軸,縱向為 y 軸,如下方圖示。(x, y)即可成為一個座標。
在思考之前,我們要先定義基本移動的函式。請將下圖程式碼拼出來,0~100代表腳位是否輸出能量使相應的馬達轉動。
以這樣的定義在以下欄位中填入相關的座標,讓機器人到你像要去的地方。
(以下舉例從 點 D 到 "1"號家)
接下來定義走路 x 與走路 y,照著以下的說明撰寫看看走路 x 與 y !
照著以下範本拖拉積木。
A. 設定馬達腳位
1. 輸入Smart板的 Device ID
2. 串聯 L 跟 R 的Smart 板
3. 將馬達角度歸 0
B. MQTT設定
1. 幫每個馬達的MQTT取名字,將(編號)_MQTT輸入至下圖紅框中!
(每個馬達的名字都要是獨一無二的喔!)
2. 設定馬達的MQTT - 接收到訊息就旋轉馬達
(紅框中要改成各馬達的名字喔~,其他馬達依此類推)
3. 思考看看,如果接收到mgR1的訊息時要做甚麼呢? (其他依此類推)
共需要填寫6個喔!(R1、R2、R3、L1、L2、L3)
1. 以安卓(Android)系統裝置掃描下圖QR Code,下載apk檔至手機中
(點進去程式介面如下方第二張圖)
2. 輸入MQTT名稱,並按下「OK」。
3. 按下Connect,再按 Send。
4. 將肩膀、手軸及吸盤歸零。
5. 可以開始用下方的按鈕操控機器人的手臂囉~
這樣就完成機器人的程式部分囉~