Your browser does not support JavaScript!
國立清華大學資訊工程學系 NTHU Department of Computer Science
歡迎光臨國立清華大學資訊工程學系
讓機器人在虛擬世界練功 清華創新 AI 技術奪冠

讓機器人在虛擬世界練功清華創新AI技術奪冠

清華資工系李濬屹助理教授帶領學生團隊打造出新一代的「NVISION II 智慧自主機器人」,不同於傳統機器人全身裝滿感測器來偵測周遭環境,它只靠一個幾百元鏡頭來「看」世界,再透過深度神經網路分析,把真實世界的人、車、建築物等轉換為機器人能理解的圖像語義分割影像,就能讓機器人行動自如,不但能閃避障礙物及迎面而來的車輛,還會跟著人走。

且因這套系統可把機器人在真實世界中拍到的影像,利用深度學習技術自動塗色,標記出看到的物體,可讓機器人在虛擬世界中學習過去在真實世界才能學到的經驗,將可大量節省訓練機器人的時間及成本,並避免訓練過程可能造成周遭人事物的損壞。

李濬屹老師團隊這項將深度學習應用在智慧型機器人上的研究成果,最近打敗全球許多大學、研究機構及機器人公司,奪下輝達(NVIDIA)在美國舉辦的全球首屆Jetson開發者挑戰賽冠軍。團隊還應全球最頂尖的人工智慧國際研討會之一的IJCAI之邀,將於7月赴瑞典發表研發成果。

拋開感測器改用數百元鏡頭

李濬屹老師前年在電梯中看到一張機器人競賽的海報引起他的興趣帶著學生一頭栽進了AI人工智慧與自主機器人的研究領域,「當時我只是想很多機器人全身裝滿感測器價格非常高昂掃地機器人要撞到東西才轉彎為什麼不能繞過去呢?」就是這樣的想法激發李濬屹老師別開蹊徑拋開昂貴的感測器改用幾百元的簡單鏡頭來建立機器人的感知系統

但他首先碰到挑戰就是如何讓機器人分辨走在路上遇到的是人還是房子? 李老師認為如果無法把機器人帶進我們的世界不如讓我們走進機器人的世界把真實世界的影像轉化為如同它在虛擬世界看到的影像

轉換真實影像為色塊機器人也能懂

因此李濬屹老師先用視覺辨識技術框出真實世界影像中物體的輪廓再分析光影色澤材質分別予以定義轉換此時人變成紅色的色塊移動的車輛則變成藍色就像在魔鬼終結者等科幻電影中人工智慧看到的世界一樣機器人就能看懂」。

此外在虛擬世界訓練時也要讓機器人認知自己的身材高矮胖瘦否則若認知錯誤在真實世界轉彎時就會撞到東西

李濬屹老師說以這種技術設計出的掃地機器人就可以在撞到家具之前繞過去機器車走在路上也可閃避靜態與動態的障礙物還能跟著人走未來可以應用在智慧家庭智慧校園及智慧製造等領域

李濬屹老師強調有了這套系統無人駕駛車就可以在虛擬世界中先訓練最後才真的上路測試可大幅提升效率節省成本也減少危險,「我們是世界上很早提出這樣創新想法的團隊最近看到UberIntel也把類似的想法用在開發自動駕駛車輛上。」

帶學生勇闖世界大賽矽谷奪冠

2016年李濬屹老師即帶領學生參加輝達在台舉辦的嵌入式智能機器人挑戰賽以新手打敗不少專業團隊榮獲全國冠軍李老師今年再度帶著清華資工系學生洪章瑋陳昱名楊炫恭蕭興暐蕭子謦賴思頻組成團隊打進今年3月在美國矽谷舉辦的Jetson開發者挑戰賽80國團隊中勇奪冠軍

團隊名稱ELSA LAB引自動畫電影冰雪奇緣Elsa李濬屹老師笑稱這是因為Elsa智慧又善良的特質與團隊精神相符

團隊成員資工系大四生楊炫恭說一年來為了找出能連接機器人眼中虛擬影像與真實世界的方法日思夜想,「最後是在夢中得到靈感

團隊成員、資工系大四生陳昱名說,研究最辛苦的就是要帶著重達80多公斤的機器人到戶外測試、蒐集數據,好不容易教機器人看懂真實世界影像時,又發生機器人一動、鏡頭就出現殘影等問題,「最難忘的是和與學長洪章瑋熬夜調整參數,機器人終於成功動起來的瞬間。」

 

瀏覽數  
將此文章推薦給親友
請輸入此驗證碼
Voice Play
更換驗證碼