蓋世汽車訊 自動(dòng)駕駛汽車必須可以快速、準(zhǔn)確地識(shí)別遇到的物體,包括停在拐角處的送貨卡車、正在接近十字路口的騎行者等。為此,自動(dòng)駕駛汽車可能會(huì)使用一個(gè)強(qiáng)大的計(jì)算機(jī)視覺模型來對(duì)高分辨率場(chǎng)景圖像中的每個(gè)像素進(jìn)行分類,從而讓其不會(huì)忽略在低質(zhì)量圖像中可能被遮擋的物體。但是,此種稱作語義分割的任務(wù)非常復(fù)雜,當(dāng)圖像分辨率高時(shí),需要進(jìn)行大量的計(jì)算。
據(jù)外媒報(bào)道,美國(guó)麻省理工學(xué)院和麻省理工學(xué)院-IBM沃森人工智能實(shí)驗(yàn)室(MIT-IBM Watson AI Lab)及來自其他地方的研究人員合作研發(fā)了一款更高效的計(jì)算機(jī)視覺模型,大大降低了上述任務(wù)的計(jì)算復(fù)雜性。該款模型可在車載計(jì)算機(jī)等硬件資源有限的設(shè)備上實(shí)時(shí)、準(zhǔn)確地進(jìn)行語義分割,使自動(dòng)駕駛汽車能夠在瞬間做出決策。
EfficientViT模型
現(xiàn)在最先進(jìn)的語義分割模型都可直接學(xué)習(xí)圖像每對(duì)像素之間的交互情況,因此其計(jì)算會(huì)隨著圖像分辨率的增加而呈二次方增長(zhǎng)。因此,雖然此類模型非常準(zhǔn)確,但是處理速度太慢,無法在傳感器或手機(jī)等邊緣設(shè)備上實(shí)時(shí)處理高分辨率圖像。
MIT的研究人員為語義分割模型設(shè)計(jì)了一個(gè)新型構(gòu)件,其能力與此類最先進(jìn)模型相同,但是復(fù)雜性只達(dá)到線性計(jì)算,而且實(shí)現(xiàn)了硬件高效操作。
研究人員的成果是一個(gè)用于高分辨率計(jì)算機(jī)視覺的新型模型系列,在將其部署到移動(dòng)設(shè)備上時(shí),其運(yùn)行速度比原來的模型快9倍。重要的是,與此類替代方案相比,該款新模型的準(zhǔn)確性與之相同,甚至更高。
該技術(shù)不僅可以用于幫助自動(dòng)駕駛汽車實(shí)時(shí)做出決策,還可以提高醫(yī)學(xué)圖像分割等其他高分辨率計(jì)算機(jī)視覺任務(wù)的效率。
鄭重聲明:此文內(nèi)容為本網(wǎng)站轉(zhuǎn)載企業(yè)宣傳資訊,目的在于傳播更多信息,與本站立場(chǎng)無關(guān)。僅供讀者參考,并請(qǐng)自行核實(shí)相關(guān)內(nèi)容。