国产精品在线视频资源|av人人人人操爱香蕉视频|AAA黄色片子黄色a级片视频|亚洲综合视频网2|成人免费网站观影|国产天堂AV在线播放资源|成人无码精品一区二区黑寡妇在线|论理聚合视频一区二区三区|在线无码视频一区二区|淫荡人妻不卡av

  1. 首頁
  2. 資訊
  3. 市場
  4. 奈良先端科學(xué)技術(shù)大學(xué)院大學(xué)深度創(chuàng)新聚焦/散焦技術(shù) 為更強大的計算機視覺系統(tǒng)鋪平道路

奈良先端科學(xué)技術(shù)大學(xué)院大學(xué)深度創(chuàng)新聚焦/散焦技術(shù) 為更強大的計算機視覺系統(tǒng)鋪平道路

蓋世汽車

蓋世汽車訊 在計算機視覺的一些應(yīng)用中,例如增強現(xiàn)實和自動駕駛汽車,估計物體和相機之間的距離是一項重要任務(wù)。聚焦/散焦深度是利用圖像中的模糊作為線索來實現(xiàn)這一過程的技術(shù)之一。聚焦/散焦深度通常需要一堆以不同焦距拍攝的同一場景的圖像,這種技術(shù)稱為“焦點堆棧”。

在過去的十幾年里,科學(xué)家們提出許多不同的聚焦/散焦深度方法,其中大多數(shù)可以分為兩類。第一類包括基于模型的方法,使用數(shù)學(xué)和光學(xué)模型根據(jù)清晰度或模糊度來估計場景深度。然而,此類方法的主要問題是它們無法處理無紋理的表面,而無紋理的表面在整個焦點堆棧上看起來幾乎相同。

第二類包括基于學(xué)習(xí)的方法,可以訓(xùn)練這些方法以有效地執(zhí)行聚焦/散焦深度,即使對于無紋理的表面也是如此。然而,如果用于輸入焦點堆棧的攝像頭設(shè)置與訓(xùn)練數(shù)據(jù)集中使用的攝像頭設(shè)置不同,這些方法就會失敗。

據(jù)外媒報道,日本研究人員克服了這些限制,開發(fā)出創(chuàng)新的聚焦/散焦深度方法,可以同時解決上述問題。該相關(guān)研究由日本奈良先端科學(xué)技術(shù)大學(xué)院大學(xué)(Nara Institute of Science and Technology,NAIST)的Yasuhiro Mukaikawa和Yuki Fujimura領(lǐng)導(dǎo),且已發(fā)表在《International Journal of Computer Vision》上。

奈良先端科學(xué)技術(shù)大學(xué)院大學(xué)深度創(chuàng)新聚焦/散焦技術(shù) 為更強大的計算機視覺系統(tǒng)鋪平道路

來源:第一電動網(wǎng)

作者:蓋世汽車

本文地址:http://www.cbbreul.com/news/shichang/219652

返回第一電動網(wǎng)首頁 >

收藏
61
  • 分享到:
發(fā)表評論
新聞推薦
第一電動網(wǎng)官方微信

反饋和建議 在線回復(fù)

您的詢價信息
已經(jīng)成功提交我們稍后會聯(lián)系您進行報價!

第一電動網(wǎng)
Hello world!
-->