減少算力資源但不減準確度 自動駕駛軌跡預測模型 Lite-QCNet 登場
【台灣台北–2024年9月9日】全球最大科技製造與服務商鴻海科技集團(TWSE:2317)旗下,鴻海研究院人工智慧研究所與香港城市大學合作,推出先進的自動駕駛軌跡預測模型「QCNet」後,在2023年的世界級AI會議CVPR Argoverse 1和Argoverse 2挑戰賽中取得第一名的成績。2024年新推出「Lite-QCNet」,在減少計算資源的同時卻能保持高性能,並再次在CVPR大會 Argoverse 2挑戰賽中獲得第一名!
電腦視覺與圖形辨識會議CVPR (IEEE Conference on Computer Vision and Pattern Recognition) 是人工智慧、深度學習、計算機視覺和模式識別領域最具影響力的國際學術會議之一。CVPR吸引了全球頂尖研究人員和科技巨頭的參與,近三年CVPR投稿論文數量從八千篇成長到一萬篇,這趨勢反映了CVPR在人工智慧和計算機視覺領域的重要地位。根據Google Scholar Metrics 2024的排名,CVPR已成為全球第二大學術出版物,僅次於Nature,超越了Science。
在AI領域,CVPR時常發表計算機視覺和深度學習領域的最新突破,還推動了許多重要技術創新的發展。Argoverse 2挑戰賽是基於自動駕駛研究的基準測試平台,為研究人員提供了一個重要的競爭和交流平台,促進相關技術的快速發展和實際應用。
基於AI的軌跡預測方法,過去幾年雖然在準確度上持續有進步,但在效率、可擴展性和靈活性方面存在顯著的限制。預測法通常使用複雜的編碼-解碼結構,導致處理時間較慢和資源消耗較高,從而阻礙了實時應用。此外,這些方法在處理大量車流量或複雜環境時難以有效擴展,導致性能瓶頸和精度下降。
與以往方法不同,QCNet的高效設計支持動態環境中的實時應用。利用先進的Transformer架構,QCNet有效地捕捉時空動態,增強其穩健性和高性能。在可擴展性方面,能夠在不增加計算複雜性的情況下處理大量交通元素(如車道和行人)和複雜交通場景。透過QCNet精準的預測提高了自動駕駛系統的安全性和可靠性,降低事故風險並提升整體性能。
今年鴻海研究院新推出的Lite-QCNet改良版,旨在進一步減少運算資源的同時,依然保持高準確度。它使用基於注意力機制的分塊技術(attention-based patching)進行時間抽象化,並使用k近鄰(k-NN)局部注意力演算法捕捉空間互動性。Lite-QCNet通過消除特徵緩存簡化了實現,並在Argoverse 2基準測試中達到最先進的性能,證明其在多車輛運動預測中的效率。
此項成果由鴻海研究院人工智慧研究所栗永徽所長率領所內研究員,與香港城市大學汪建平教授團隊、美國卡內基梅隆大學研究人員共同合作完成,獲得Argoverse 2挑戰賽冠軍,不僅是展現其技術實力得到國際的認可,更將推動整個自動駕駛領域的發展,促進技術創新和產業應用。
歡迎產學研各界先進參加今年10月8日至9日,首次連續兩天舉辦的鴻海科技日(Hon Hai Tech Day, HHTD24) 活動,在鴻海研究院人工智慧研究所的展位上將會詳細展示此項技術與其相關應用。
Lite-QCNet 技術榮獲2024 CVPR Argoverse 2 Multi-World Motion Forecasting Challenge 挑戰冠軍