清大研發仿視神經AI智慧晶片

圖說:清華跨領域仿生視覺團隊由電機系教授鄭桂忠(右一)、謝志成(左二)、呂仁碩(左一)及生科院教授羅中泉組成。

圖說:清華跨領域仿生視覺團隊由電機系教授鄭桂忠(右一)、謝志成(左二)、呂仁碩(左一)及生科院教授羅中泉組成。

清華大學跨領域整合電機與生科團隊,研發出教無人機、機器人及自駕車像昆蟲一樣「看」的仿生物視覺技術,打造仿視神經AI智慧晶片。未來只要一枚低功耗的晶片搭配鏡頭,就能在高速行進間辨識、追蹤並避開障礙物,並應用在自動搜救與勘災、無人巡檢、智慧監控、智慧醫療及智慧農業領域。

仿生視覺團隊的研究成果除發表在多項國際頂尖期刊,如《自然電子學》(Nature Electronics)、IEEE固態電路期刊(JSSC),也獲得科技部2021未來科技獎的肯定。


圖說:清華大學跨生科及電機領域組成仿生視覺研究團隊,前排左起為電機系教授謝志成、生科院教授羅中泉、電機系教授鄭桂忠,以及電機系教授呂仁碩。

主持這項大型研究計畫的清華電機系教授鄭桂忠表示,目前的「電腦動態視覺」就像拍電影一樣,是由一張張連續拍攝的靜態影像組成,電腦必須完整儲存所有數位影像,再計算每幀影像與前一幀的差異,不僅速度慢、耗電、且很占用記憶體。應用在無人機上,則因太重,飛不快又飛不遠。

為取得突破,清華電機團隊邀請生科院教授羅中泉合作。羅中泉研究昆蟲的視覺與空間感知,從小小的果蠅、蜜蜂得到啟發,推演出「光流法」,也就是從光的流動來判斷周遭物體的遠近及移動速度,只擷取所見景物的輪廓及幾何特徵,來辨認障礙物及移動中的物體。

羅中泉解釋,這就像我們走在路上,不需太費力看清楚並記憶眼前所有建築物、招牌、人物特徵、車牌號碼,只用少許的注意力來看是否有車形或人形物體快速靠近就可以了。新的技術可以讓鏡頭專注於畫面中的「變化」,如有人招手、球飛過來,只抓取必要資料,就能加快影像處理速度、減少耗電。

鄭桂忠並讓電腦演算法也向生物大腦神經網路學習,也就是所謂的「剪枝」及「稀疏化」,把不重要的部分運算權重調為零,予以忽視,「零愈多,算得愈快,耗電也愈少。」團隊並取得重大突破,可以在記憶體內直接進行計算,不必在記憶體與CPU中央處理器之間來回搬運資料計算、儲存,可節省9成的功耗與時間。

團隊中的電機系教授謝志成負責開發感測器內運算,如應用於智慧監視或門禁系統,只需要簡單的鏡頭就可以判斷畫面上是否有人出現,還是不相干的狗或貓;一旦鏡頭判斷有人,再會將人臉資料傳到電腦的辨識系統比對來者是誰。由於不需要細部分析每幀畫面所有資訊,只需幾微瓦的電力就夠了,約等於一只燈泡百萬分之一的用電量。 

電機系副教授呂仁碩是整合軟硬體的仿神經智慧晶片架構設計師,攜手團隊與國內IC設計領導廠商及台積電合作,開發新世代AI晶片。他表示,目前正開發無人機的關鍵主晶片,建立仿生無人機的必要自主技術。

這個由生科與電機教授跨領域組成的團隊成軍4年,已取得許多重要突破,但回想組團之初,也花了許多時間磨合。生科「擔當」羅中泉每每講到果蠅的某種功能多聰明,電機教授都要問一句「這個運算要多少bit(電腦位元)?」令羅中泉哭笑不得,「對生物來說很自然簡單的事,為何變成電機工程就這麼難?」

但羅中泉的浪漫也逐漸感染了原來一心只想「這個要怎麼做出來?」的電機系教授。團隊計畫未來運用新技術製作出體積比無人機還小的「搜救小蜜蜂」,在地震等災害發生時,穿越瓦礫與險境及時救人;並運用新世代無人機體積小的特性,開發可匿蹤的無人機。

回到頂端