Page 28 - 鴻海研究院2023年年鑑
P. 28
Hon Hai Research Institute 院長序 執行長序
鴻海研究院2023年鑑
研究所將透過資料擴增
方式快速擴充資料庫,
提升模型的訓練效果及
降低執行難度與成本。
其他團隊可以持續精進模型表現,總是 QCNet模型可在使用較少GPU資源的情況
在短時間之後有團隊挑戰成功。」栗永徽 下進行有效訓練,模型的規模相對較小。栗
說明這排行榜的殘酷,而根據過往歷史來 永徽強調車載硬體的空間和處理能力是有
看,冠軍能維持2週就算非常厲害,「我們 限的,「一台車不可能放進幾百張GPU卡,
的QCNet從2023年6月到2024年7月已穩居 所以將AI模型縮小,同時又維持精確度,這
第一名超過1年之久,這在AI界可說是非常 是全球自動駕駛領域共同追求的目標。」鴻
罕見的。」 海研究院推出的第二代模型QCNet做到了,
大大推進全球自動駕駛技術的進展,其發
特殊演算法奏效 減輕算力負擔 表的相關論文在不到1年內已被引用約70次
QCNet穩坐冠軍寶座,來自於第一代 之多,足見此研究的影響力。
QCNet及第二代QCNet的接力傑出表現。
軌跡預測技術與時俱進,不僅考量車輛自 強化自然語言處理
身的過去數據和周邊車輛的當前位置,還 智慧座艙更能溝通
要預測這些周邊車輛未來的動作將如何影 不僅在自動駕駛取得突破性成果,人
響自身的駕駛決策。例如,若偵測到左側 工智慧研究所在智慧座艙領域也迭有亮眼
車輛在未來3秒內可能會切入前方,則自 成績,例如自然語言處理(NLP)方面的
身車輛可能需要減速或調整行駛路線來避 研究,讓駕駛者及乘客能夠更自然地與
免潛在碰撞。可以想見,如此的進步來自 車輛「交談」,打造更沉浸、更直覺的座
於更加複雜及精確的整體系統決策,需要 艙體驗。研究論文已於2023年底舉行的
更強大的算力支持,也就是得採用更多的 Empirical Methods in Natural Language
GPU。 Processing(EMNLP)上發表,同樣引
基於Query-Centric(QC)演算法, 來高度矚目。在此篇論文中,AI所與中央
28
ɨʹ
ᒿऎӺ৫ ʫ˖ ڥᓃҦஔ JOEE ɨʹ
ᒿऎӺ৫ ʫ˖ ڥᓃҦஔ JOEE

