蓋世汽車訊 自動駕駛汽車必須可以快速、準(zhǔn)確地識別遇到的物體,包括停在拐角處的送貨卡車、正在接近十字路口的騎行者等。為此,自動駕駛汽車可能會使用一個強(qiáng)大的計算機(jī)視覺模型來對高分辨率場景圖像中的每個像素進(jìn)行分類,從而讓其不會忽略在低質(zhì)量圖像中可能被遮擋的物體。但是,此種稱作語義分割(semantic segmentation)的任務(wù)非常復(fù)雜,當(dāng)圖像分辨率高時,需要進(jìn)行大量的計算。
據(jù)外媒報道,美國麻省理工學(xué)院(MIT)和麻省理工學(xué)院-IBM沃森人工智能實(shí)驗(yàn)室(MIT-IBM Watson AI Lab)及來自其他地方的研究人員合作研發(fā)了一款更高效的計算機(jī)視覺模型,大大降低了上述任務(wù)的計算復(fù)雜性。該款模型可在車載計算機(jī)等硬件資源有限的設(shè)備上實(shí)時、準(zhǔn)確地進(jìn)行語義分割,使自動駕駛汽車能夠在瞬間做出決策。
EfficientViT模型(圖片來源:MIT)
現(xiàn)在最先進(jìn)的語義分割模型都可直接學(xué)習(xí)圖像每對像素之間的交互情況,因此其計算會隨著圖像分辨率的增加而呈二次方增長。因此,雖然此類模型非常準(zhǔn)確,但是處理速度太慢,無法在傳感器或手機(jī)等邊緣設(shè)備上實(shí)時處理高分辨率圖像。
MIT的研究人員為語義分割模型設(shè)計了一個新型構(gòu)件,其能力與此類最先進(jìn)模型相同,但是復(fù)雜性只達(dá)到線性計算,而且實(shí)現(xiàn)了硬件高效操作。
研究人員的成果是一個用于高分辨率計算機(jī)視覺的新型模型系列,在將其部署到移動設(shè)備上時,其運(yùn)行速度比原來的模型快9倍。重要的是,與此類替代方案相比,該款新模型的準(zhǔn)確性與之相同,甚至更高。
該技術(shù)不僅可以用于幫助自動駕駛汽車實(shí)時做出決策,還可以提高醫(yī)學(xué)圖像分割等其他高分辨率計算機(jī)視覺任務(wù)的效率。
來源:蓋世汽車
作者:Fairy
本文地址:http://www.healthsupplement-reviews.com/news/jishu/210135
以上內(nèi)容轉(zhuǎn)載自蓋世汽車,目的在于傳播更多信息,如有侵僅請聯(lián)系admin#d1ev.com(#替換成@)刪除,轉(zhuǎn)載內(nèi)容并不代表第一電動網(wǎng)(www.healthsupplement-reviews.com)立場。
文中圖片源自互聯(lián)網(wǎng),如有侵權(quán)請聯(lián)系admin#d1ev.com(#替換成@)刪除。