“大腦”控制無人車
在近日舉辦的第四屆“中國智能車未來挑戰賽”中,有14輛汽車前來參加比賽,每一輛無人駕駛汽車都裝有攝像機,頂部有激光雷達,有些雷達還會不停的旋轉,這是三維激光雷達,能夠探測到360°范圍內的物體。這些汽車的后備箱裡裝著一個大箱子,這是智能駕駛裝置,由計算機系統組成。
“無人駕駛汽車就是一個四輪機器人,攝像頭和激光雷達是‘眼睛’,智能駕駛裝置相當於‘大腦’。”鄭南寧說,在比賽中,如果遇到突發情況,無人駕駛汽車需要完全依靠自己的“大腦”來判斷處理——攝像機和激光雷達會將拍攝到的環境數據信息傳輸到智能駕駛裝置,對這些信息整合處理后,智能駕駛裝置會對汽車目前所處的環境作出判斷,並發出讓汽車前進、加速、轉彎、停止、繞行等指令。
讓無人駕駛汽車能聽、能看,能思考、能判斷、能有所行動,這是一個信息科學、生命科學和數理科學相互交叉的領域。這需要研究人類的大腦如何在運動的狀態中抓取圖像信息,並進行分析,還需要研究構建新的計算機模型與計算方法,然后將這些模型轉化為計算機語言。這些研究最終將提高計算機對非結構化視聽覺感知信息的理解能力和海量異構信息的處理效率。
除了應用在無人駕駛汽車上,“視聽覺信息的認知計算”重大研究計劃的成果還有其他的用途,例如,基於有關視聽覺信息融合的模式識別技術,出現了一種新的視頻信息檢索和網絡敏感信息檢索技術,它可以識別視頻信息中的圖像和語言,對視頻信息搜索的查准率比同期國外最好水平高5%—10%。
計算機的視聽覺本領不斷提高
第四屆“中國智能車未來挑戰賽”在設置比賽起點時,就與上一屆有所區別,悄無聲息的紅綠燈取代了發令槍。這實際上是對無人駕駛汽車圖像識別能力的考驗——當紅燈變為綠燈時,每一輛無人駕駛汽車需要自動識別出交通燈的狀態,並在綠燈亮起后8秒鐘的時間內,向前行駛。
在第四屆“中國智能車未來挑戰賽”的賽場,還有模擬行人過馬路、模擬施工道路,模擬霧天天氣等“障礙”,在到達終點時,無人駕駛汽車要能識別路旁寫著“停”字的交通標志,並在這裡停止行駛。與上一屆比賽相比,第四屆“中國智能車未來挑戰賽”還新增加了鄉村公路賽區,同時增加了考核的難度。
“設置這些‘障礙’是希望研究在各種光照條件下,特別是在雨、雪、霧和黑夜等條件下,無人駕駛車輛的智能駕駛裝置對道路交通標志和圖文信息的實時檢測、識別和理解技術。”鄭南寧說,這些無人駕駛車輛可能還要面對褪色,變形污損的交通提示信息和目標文字信息,並對這些信息進行實時檢測,識別和語義理解,“這需要有較高的檢測,識別和理解能力。”
盡管增加了難度,但“視聽覺信息的認知計算”重大研究計劃專家組的成員對比賽結果卻比較滿意——來自軍事交通學院的參賽車輛在3.38秒的時間內就識別出了綠燈信號,在鄉村道路的行駛中,這輛汽車也獨立跑完了全程,沒有經過任何人工干預,來自西安交通大學的參賽車輛也表現不俗,在遇到模擬的行人時,能夠及時識別並避讓……“有些無人駕駛汽車表現非常好,這說明重大研究計劃資助的相關研究有一定進展。”專家組成員之一,清華大學教授孫富春說。
![]() | ![]() |

分享到人人
分享到QQ空間

































