TW202020732A - 物體辨識方法及其裝置 - Google Patents

物體辨識方法及其裝置 Download PDF

Info

Publication number
TW202020732A
TW202020732A TW107142083A TW107142083A TW202020732A TW 202020732 A TW202020732 A TW 202020732A TW 107142083 A TW107142083 A TW 107142083A TW 107142083 A TW107142083 A TW 107142083A TW 202020732 A TW202020732 A TW 202020732A
Authority
TW
Taiwan
Prior art keywords
test
image
training
object recognition
candidate regions
Prior art date
Application number
TW107142083A
Other languages
English (en)
Other versions
TWI697846B (zh
Inventor
陳心怡
葉佳良
林信成
周森益
Original Assignee
財團法人工業技術研究院
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 財團法人工業技術研究院 filed Critical 財團法人工業技術研究院
Priority to TW107142083A priority Critical patent/TWI697846B/zh
Priority to US16/231,701 priority patent/US11069084B2/en
Publication of TW202020732A publication Critical patent/TW202020732A/zh
Application granted granted Critical
Publication of TWI697846B publication Critical patent/TWI697846B/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

物體辨識方法包括:建立一訓練資料庫,該訓練資料庫包括一訓練影像的一拍攝距離,以及一訓練相機參數;於拍攝一目標測試物件時,取得一測試影像、一深度圖,一RGB圖,及一測試相機參數;以及根據該訓練資料庫、該深度圖及該測試相機參數,調整該RGB圖,使調整後的該RGB圖的大小相同於該訓練資料庫中的該訓練影像。

Description

物體辨識方法及其裝置
本發明是有關於一種物體辨識方法及其裝置。
利用圖像學習來進行物體辨識愈來愈受到重視。例如,物體辨識可應用於AOI(Automated Optical Inspection,自動光學檢查)、自動車、無人零售商店、社會安全監視器等。
以目前的物體偵測/辨識而言,在訓練時,將訓練影像存在於資料庫中,所儲存的影像與其訓練距離會一起存於資料庫之中,進行特徵比對,以進行物體偵測/辨識。當測試距離與訓練距離之間差距不大時,物體偵測/辨識的準確度影響不大。
然而,如果測試距離與訓練距離之間差距過大時,在資料庫無法完整建置的前提下,將可能導致辨識率下降。
以目前而言,提高辨識率的方法如下。第一種是建立大量資料庫,來涵蓋多種訓練距離,雖然此方法的準確度較高,但此種方式需要花費大量時間來建立大量資料庫。第二種方式則是事先模擬各種大小/角度/距離的物件資料,雖然此種方式不用建立大量資料庫,但此種方式的辨識準確度較低,且需要很多大量模擬。
因此,如何研發出物體辨識方法,在不建立大量資料庫的前提下,仍能提高辨識準確度,乃是業界努力方向之一。
根據本案一實例,提出一種物體辨識方法,包括:建立一訓練資料庫,該訓練資料庫包括一訓練影像的一拍攝距離,以及一訓練相機參數;於拍攝一目標測試物件時,取得一測試影像、一深度圖,一RGB圖,及一測試相機參數;以及根據該訓練資料庫、該深度圖及該測試相機參數,調整該RGB圖,使調整後的該RGB圖的大小相同於該訓練資料庫中的該訓練影像。
根據本案另一實例,提出一種物體辨識裝置,包括:一資料庫模組,建立一訓練資料庫,該訓練資料庫包括一訓練影像的一拍攝距離,以及一訓練相機參數;一控制器,於拍攝一目標測試物件時,該控制器取得一測試影像、一深度圖,一RGB圖,及一測試相機參數;以及一辨識模組,根據該訓練資料庫、該深度圖及該測試相機參數,該辨識模組調整該RGB圖,使調整後的該RGB圖的大小相同於該訓練資料庫中的該訓練影像。
為了對本發明之上述及其他方面有更佳的瞭解,下文特舉實施例,並配合所附圖式詳細說明如下:
本說明書的技術用語係參照本技術領域之習慣用語,如本說明書對部分用語有加以說明或定義,該部分用語之解釋係以本說明書之說明或定義為準。本揭露之各個實施例分別具有一或多個技術特徵。在可能實施的前提下,本技術領域具有通常知識者可選擇性地實施任一實施例中部分或全部的技術特徵,或者選擇性地將這些實施例中部分或全部的技術特徵加以組合。
第1圖顯示根據本案一實施例的物體辨識方法的流程圖。如第1圖所示,在步驟110中,建立訓練資料庫,該訓練資料庫包括訓練影像的拍攝距離,以及訓練相機參數。「訓練影像的拍攝距離」則是指「訓練物體」距離「訓練用相機」之間的距離(此參數可由訓練影像的深度參數而推出),而「訓練影像」則是指訓練用相機拍攝「訓練物體」後所得到的影像。「訓練相機參數」是指用於拍攝訓練影像的相機參數,其中,訓練相機參數包括下列的任意組合:焦距參數,放大倍率,相機解析度等。
在步驟120中,於拍攝目標測試物件時,取得測試影像、深度圖,RGB圖,及測試相機參數。「深度圖」包括:目標測試物件的深度資訊。在本案實施例中,目標測試物件的深度資訊可由「測試相機」所產生,或者由使用者以測量工具(例如:尺)來手動量測目標測試物件的深度資訊。「RGB圖」包括:由「測試相機」所拍攝到的目標測試物件的影像圖的各像素(pixel)的R/G/B灰階值。「測試相機參數」是指用於拍攝「目標測試物件」的測試相機的參數。相似地,「測試相機參數」包括下列的任意組合:焦距參數,放大倍率,相機解析度等。
在步驟130中,根據該訓練資料庫、該深度圖及該測試相機參數,調整該RGB圖,並使調整後的該RGB圖的大小相同於該訓練資料庫中的一相關訓練影像。
在本案另一實施例中,對於測試影像,根據測試影像的拍攝距離、該訓練影像拍攝距離,以及該訓練相機參數,來決定對該測試影像的縮放;將經縮放後的該測試影像切割成複數個測試子影像,各測試子影像的大小相同於該訓練資料庫中的該相關訓練影像;以及,對該些測試子影像執行物體辨識。
此外,在本案另一可能實施例中,從測試影像產生複數個候選區域,該些候選區域包括複數個物件特徵;於該些候選區域生成之後,參考各該些候選區域內的所有物體平均距離來個別縮放各該些候選區域,經縮放的各該些候選區域的大小相同於該訓練資料庫中的該相關訓練影像;以及對縮放後的各該些候選區域,執行物體辨識。
現將說明本案數個實施例的詳細內容。
第一實施例:前處理
在本案第一實施例中,對於整張測試影像210(如第2A圖),根據測試影像的拍攝距離、訓練影像220(如第2B圖)的拍攝距離以及測試相機參數,來決定如何縮放該測試影像。假設在第2A圖中,將測試影像縮放成「縮放後測試影像」215。
之後,將縮放後測試影像215切割成多張測試子影像230(如第2C圖),每張測試子影像230的大小(例如,畫素數量,或者是影像高度與寬度)相同於訓練影像220,之後,對每張測試子影像230執行物體辨識,以辨識在每張測試子影像230內是否出現訓練影像220。至於在本實施例中,可以利用如滑動視窗(sliding window)等演算法將縮放後測試影像215切割成多張測試子影像230,其細節在此省略。
現將說明如何縮放測試影像的細節。
當拍攝測試影像的測試相機參數與訓練資料庫中的訓練相機參數相同時,若訓練資料庫中的訓練距離為d,測試距離為d‘,則縮放方式為:縮放後測試影像的長度=測試影像的長度*(d’/d),縮放後測試影像的寬度=測試影像的寬度*(d’/d)。
接著,考量訓練資料庫中的訓練距離相同於拍攝測試影像的測試距離(d’=d),但測試相機參數不同於訓練相機參數的情況。在此情況下,考慮相機鏡頭的放大倍率。舉例而言,若相機鏡頭的放大倍率為1:1,則代表物體跟影像的尺寸相同。若相機鏡頭的放大倍率為1:0.5,則代表物體縮小一半成像(亦即,影像的尺寸為物體尺寸的一半)。以拍攝直徑2.0cm的硬幣為例做說明,若相機鏡頭的放大倍率為1:1(亦即放大倍率為1),則所得到的影像為直徑2.0cm的硬幣;若相機鏡頭的放大倍率為1:0.5(亦即,放大倍率為2),則所得到的影像為直徑1.0cm的硬幣。
所以,將「所拍到的影像」*(1/放大倍率)可以調整出物件的大小。若相機鏡頭的放大倍率為1:0.5(亦即,放大倍率為2),則所得到的影像為直徑1.0cm的硬幣,所以,由此調整可以得到:1.0*(1/0.5)=2.0(cm),亦即可以調整而得到被拍攝物件為直徑2.0cm的硬幣。
假設訓練相機的鏡頭的放大倍率為p,而測試相機的鏡頭的放大倍率為p’,則縮放方式為:縮放後測試影像的長度=測試影像的長度*(p/p’);縮放後測試影像的寬度=測試影像的寬度*(p/p’)。
所以,如果(1)拍攝測試影像的測試相機參數不同於訓練資料庫中的訓練相機參數且(2)訓練距離不同於測試距離時,則計算測試距離d’在測試相機參數中所對應放大倍率p’,再利用上述方式做影像的縮放。亦即,縮放後測試影像的長度=測試影像的長度*(p/p’),縮放後測試影像的寬度=測試影像的寬度*(p/p’)。為清楚說明該流程,以下列範例說明之:假設有一張測試影像,是以焦距f’的相機,拍攝物距qq’的目標物而得,根據薄透鏡成像公式,知道(1/pp’)+(1/qq’)=1/f’,其中pp’為相機中的成像距離,從f’及qq’可以計算出pp’,以及放大倍率p’為|qq’/ pp’| 。同理,在資料庫中的一張訓練影像,是以焦距f的相機,拍攝物距qq的目標物而得,根據薄透鏡成像公式,知道(1/pp)+(1/qq)=1/f,其中pp為相機中的成像距離,從f及qq可以計算出pp,以及放大倍率p為|qq/ pp|。將p與p’帶入上述敘述中進行運算,即可求得影像調整(回推)結果(亦即,縮放後測試影像的長度=測試影像的長度*(p/p’),縮放後測試影像的寬度=測試影像的寬度*(p/p’))。
第二實施例:
於本案第二實施例中,可以利用選擇性搜尋(selective search)等演算法從測試影像310產生複數個候選區域320,該些候選區域320包括物件的特徵。如第3圖所示。當然,本案並不受限於此,本案其他可能實施例可以利用其他可能的演算法從測試影像產生複數個候選區域,其皆在本案精神範圍內。
於候選區域320生成之後,參考各別候選區域320內的所有物件的平均距離(亦即所有物件的平均深度)來縮放該候選區域320成為「縮放後候選區域330」,之後,針對縮放後候選區域330執行物體偵測/辨識。
現將說明在第二實施例中如何對候選區域320縮放成為「縮放後候選區域330」。在此以候選區域320與縮放後候選區域330為方形為例做說明,但當知本案並不受限於此。
類似於第一實施例的縮放決定方式,在本案第二實施例中,「縮放後候選區域330的長度」=「候選區域320的長度」*(d’/d)*(p/p’),「縮放後候選區域330的寬度」=「候選區域320的寬度」*(d’/d)*(p/p’)。
第4圖顯示根據本案一實施例的物體辨識裝置的功能方塊圖。如第4圖所示,物體辨識裝置400包括:資料庫模組410、控制器420與辨識模組430。
資料庫模組410建立訓練資料庫,該訓練資料庫包括訓練影像的拍攝距離,以及訓練相機參數。「訓練影像的拍攝距離」則是指「訓練物體」距離「訓練用相機」之間的距離(此參數可由訓練影像的深度參數而推出),而「訓練影像」則是指訓練用相機拍攝「訓練物體」後所得到的影像。「訓練相機參數」是指用於拍攝訓練影像的相機參數,其中,訓練相機參數包括下列的任意組合:焦距參數,放大倍率,相機解析度等。
於拍攝目標測試物件時,控制器420取得測試影像、深度圖,RGB圖,及測試相機參數。「深度圖」包括:目標測試物件的深度資訊。「RGB圖」包括:由「測試相機」所拍攝到的目標測試物件的影像圖的各像素(pixel)的R/G/B灰階值。「測試相機參數」是指用於拍攝「目標測試物件」的測試相機的參數。相似地,「測試相機參數」包括下列的任意組合:焦距參數,放大倍率,相機解析度。
辨識模組430根據該訓練資料庫、該深度圖及該測試相機參數,調整該RGB圖,使調整後的該RGB圖的大小相同於該訓練資料庫中的一相關訓練影像。
由上述描述可知,本案上述實施例可達成如:根據物件實際距離(亦即利用相關的拍攝距離及測試距離)來調整,使得測試子影像與候選區域的大小能接近/相同於訓練影像的大小,藉此來提高物體辨識率。故而,本案上述實施例不是透過模擬方式來進行物體辨識,所以可以不用建立大量資料庫,也不會遇到「模擬方面的問題(例如,沒有模擬到該測試距離等)。
如此一來,本案上述實施例可以在不建立大量資料庫的前提下,提高物體辨識率。故而本案上述實施例可省略建立大量資料庫的麻煩。此外,本案上述實施例並非以模擬方式進行物件辨識,故而,也能提高辨識的準確度。
本案實施例可以在電腦上產生特殊功效(透過影像調整來進行物體辨識),而非僅僅將電腦當成工具。亦即,本案實施例非僅利用電腦,更是對於特定型態規則(根據相機參數與拍攝距離/測試距離等,使得測試子影像/候選區域的大小能接近於訓練影像的大小),以達到改善物體辨識的特定功效。
本案上述實施例所具體指向的領域例如但不受限於,為電腦辨識系統,相較於傳統電腦辨識系統無法在少量資料訓練的情況下達成高物體辨識率的缺點,本案實施例不走資料模擬路線,而是能標記出真實物體所在的「測試子影像」/「候選區域」來反推出訓練影像(亦即,讓「測試子影像」/「候選區域」內的物體影像大小相似於資料庫中的訓練影像的大小)。
綜上所述,雖然本發明已以實施例揭露如上,然其並非用以限定本發明。本發明所屬技術領域中具有通常知識者,在不脫離本發明之精神和範圍內,當可作各種之更動與潤飾。因此,本發明之保護範圍當視後附之申請專利範圍所界定者為準。
110-130:步驟210:測試影像215:縮放後測試影像220:訓練影像230:測試子影像310:測試影像320:候選區域330:縮放後候選區域400:物體辨識裝置410:資料庫模組420:控制器430:辨識模組
第1圖顯示根據本案一實施例的物體辨識方法流程圖。 第2A圖至第2C圖顯示根據本案第一實施例的物體辨識示意圖。 第3圖顯示根據本案第二實施例的物體辨識示意圖。 第4圖顯示根據本案一實施例的物體辨識裝置的功能方塊圖。
110-130:步驟

Claims (10)

  1. 一種物體辨識方法,包括: 建立一訓練資料庫,該訓練資料庫包括一訓練影像的一拍攝距離,以及一訓練相機參數; 於拍攝一目標測試物件時,取得一測試影像、一深度圖,一RGB圖,及一測試相機參數;以及 根據該訓練資料庫、該深度圖及該測試相機參數,調整該RGB圖,使調整後的該RGB圖的大小相同於該訓練資料庫中的該訓練影像。
  2. 如申請專利範圍第1項所述的物體辨識方法,其中,該訓練相機參數包括下列的任意組合:焦距參數,放大倍率,相機解析度。
  3. 如申請專利範圍第1項所述的物體辨識方法,其中,根據該訓練影像的該拍攝距離、該目標測試物件測的一拍攝距離、該訓練相機參數與該測試相機參數,來決定對該測試影像的縮放。
  4. 如申請專利範圍第3項所述的物體辨識方法,更包括: 將經縮放後的該測試影像切割成複數個測試子影像,各測試子影像的大小相同於該訓練影像的大小;以及 對該些測試子影像進行物體辨識。
  5. 如申請專利範圍第3項所述的物體辨識方法,更包括: 從該測試影像產生複數個候選區域,所述些候選區域包括複數個物件特徵; 參考各該些候選區域內的所有物體平均距離來個別縮放各該些候選區域,經縮放的各該些候選區域的大小相同於該訓練影像的大小;以及 對縮放後的各該些候選區域,執行物體辨識。
  6. 一種物體辨識裝置,包括: 一資料庫模組,建立一訓練資料庫,該訓練資料庫包括一訓練影像的一拍攝距離,以及一訓練相機參數; 一控制器,於拍攝一目標測試物件時,該控制器取得一測試影像、一深度圖,一RGB圖,及一測試相機參數;以及 一辨識模組,根據該訓練資料庫、該深度圖及該測試相機參數,該辨識模組調整該RGB圖,使調整後的該RGB圖的大小相同於該訓練資料庫中的該訓練影像。
  7. 如申請專利範圍第6項所述的物體辨識裝置,其中,該訓練相機參數包括下列的任意組合:焦距參數,放大倍率,相機解析度。
  8. 如申請專利範圍第6項所述的物體辨識裝置,其中,根據該訓練影像的該拍攝距離、該目標測試物件測的一拍攝距離、該訓練相機參數與該測試相機參數,該控制器來決定對該測試影像的縮放。
  9. 如申請專利範圍第8項所述的物體辨識裝置,其中,該控制器: 將經縮放後的該測試影像切割成複數個測試子影像,各測試子影像的大小相同於該訓練影像的大小;以及 對該些測試子影像進行物體辨識。
  10. 如申請專利範圍第8項所述的物體辨識裝置,其中,該控制器更: 從該測試影像產生複數個候選區域,所述些候選區域包括複數個物件特徵; 參考各該些候選區域內的所有物體平均距離來個別縮放各該些候選區域,經縮放的各該些候選區域的大小相同於該訓練影像的大小;以及 對縮放後的各該些候選區域,執行物體辨識。
TW107142083A 2018-11-26 2018-11-26 物體辨識方法及其裝置 TWI697846B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
TW107142083A TWI697846B (zh) 2018-11-26 2018-11-26 物體辨識方法及其裝置
US16/231,701 US11069084B2 (en) 2018-11-26 2018-12-24 Object identification method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW107142083A TWI697846B (zh) 2018-11-26 2018-11-26 物體辨識方法及其裝置

Publications (2)

Publication Number Publication Date
TW202020732A true TW202020732A (zh) 2020-06-01
TWI697846B TWI697846B (zh) 2020-07-01

Family

ID=70771202

Family Applications (1)

Application Number Title Priority Date Filing Date
TW107142083A TWI697846B (zh) 2018-11-26 2018-11-26 物體辨識方法及其裝置

Country Status (2)

Country Link
US (1) US11069084B2 (zh)
TW (1) TWI697846B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11494939B2 (en) * 2019-12-02 2022-11-08 Toyota Research Institute, Inc. Sensor self-calibration in the wild by coupling object detection and analysis-by-synthesis
US12008743B2 (en) * 2020-05-22 2024-06-11 Robert Bosch Gmbh Hazard detection ensemble architecture system and method

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2794698B2 (ja) 1987-10-28 1998-09-10 興和 株式会社 立体形状測定装置
US5793900A (en) 1995-12-29 1998-08-11 Stanford University Generating categorical depth maps using passive defocus sensing
US7596249B2 (en) * 2002-02-22 2009-09-29 Olympus America Inc. Focusable virtual microscopy apparatus and method
US7366325B2 (en) 2003-10-09 2008-04-29 Honda Motor Co., Ltd. Moving object detection using low illumination depth capable computer vision
US8831299B2 (en) * 2007-05-22 2014-09-09 Intellectual Ventures Fund 83 Llc Capturing data for individual physiological monitoring
US8918209B2 (en) 2010-05-20 2014-12-23 Irobot Corporation Mobile human interface robot
US9865083B2 (en) 2010-11-03 2018-01-09 Industrial Technology Research Institute Apparatus and method for inpainting three-dimensional stereoscopic image
JP5821457B2 (ja) 2011-09-20 2015-11-24 ソニー株式会社 画像処理装置、および、画像処理装置の制御方法ならびに当該方法をコンピュータに実行させるためのプログラム
TWI467226B (zh) 2011-11-15 2015-01-01 Ind Tech Res Inst 相位物體顯微系統
US9530060B2 (en) 2012-01-17 2016-12-27 Avigilon Fortress Corporation System and method for building automation using video content analysis with depth sensing
US9541640B2 (en) 2012-08-01 2017-01-10 David R. Hall Ground penetrating radar with variable dwell time
US9386298B2 (en) 2012-11-08 2016-07-05 Leap Motion, Inc. Three-dimensional image sensors
CN104424649B (zh) 2013-08-21 2017-09-26 株式会社理光 检测运动物体的方法和系统
DE102014104968B3 (de) 2014-04-08 2014-12-11 Sick Ag Lichttaster
US9848112B2 (en) 2014-07-01 2017-12-19 Brain Corporation Optical detection apparatus and methods
US9418319B2 (en) * 2014-11-21 2016-08-16 Adobe Systems Incorporated Object detection using cascaded convolutional neural networks
JP6457278B2 (ja) 2015-01-23 2019-01-23 トヨタ自動車株式会社 物体検出装置及び物体検出方法
PL411602A1 (pl) 2015-03-17 2016-09-26 Politechnika Poznańska System do estymacji ruchu na obrazie wideo i sposób estymacji ruchu na obrazie wideo
CN105141889A (zh) * 2015-07-28 2015-12-09 国家电网公司 一种基于图像视觉输电线路智能巡检系统
US9892496B2 (en) * 2015-11-05 2018-02-13 Google Llc Edge-aware bilateral image processing
KR102535617B1 (ko) 2016-01-04 2023-05-24 한국전자통신연구원 깊이 영상에서의 객체 검출 시스템 및 방법
US10043261B2 (en) * 2016-01-11 2018-08-07 Kla-Tencor Corp. Generating simulated output for a specimen
CN107157717A (zh) * 2016-03-07 2017-09-15 维看公司 用于向盲人提供视觉信息的物体检测、分析及提示系统
US9963246B2 (en) 2016-03-28 2018-05-08 Amazon Technologies, Inc. Combining depth and thermal information for object detection and avoidance
US10354159B2 (en) 2016-09-06 2019-07-16 Carnegie Mellon University Methods and software for detecting objects in an image using a contextual multiscale fast region-based convolutional neural network
CN106529527A (zh) 2016-09-23 2017-03-22 北京市商汤科技开发有限公司 物体检测方法和装置、数据处理装置和电子设备
JP6573744B2 (ja) 2017-03-06 2019-09-11 三菱電機株式会社 物体追跡装置及び物体追跡方法
US10311311B1 (en) * 2017-08-31 2019-06-04 Ambarella, Inc. Efficient two-stage object detection scheme for embedded device
US20190080795A1 (en) * 2017-09-14 2019-03-14 Foram Mahendra Sanghavi Digitized needle biopsies nuclei information based prostate cancer detection, grading, scoring, and reporting systems and methods
US11205274B2 (en) * 2018-04-03 2021-12-21 Altumview Systems Inc. High-performance visual object tracking for embedded vision systems

Also Published As

Publication number Publication date
US20200167952A1 (en) 2020-05-28
US11069084B2 (en) 2021-07-20
TWI697846B (zh) 2020-07-01

Similar Documents

Publication Publication Date Title
CN109583483B (zh) 一种基于卷积神经网络的目标检测方法和系统
CN108470356B (zh) 一种基于双目视觉的目标对象快速测距方法
CN102833486B (zh) 一种实时调节视频图像中人脸显示比例的方法及装置
JP5743859B2 (ja) 画像処理装置、方法、及び画像表示装置
CN110297232A (zh) 基于计算机视觉的单目测距方法、装置及电子设备
CN105790836A (zh) 应用全光照相机的表面属性的推定
KR19990067567A (ko) 영상에 패턴을 자동으로 위치시키기 위한 벡터상관 시스템
JP4521235B2 (ja) 撮影画像の変化抽出装置及び方法
CN110567441B (zh) 基于粒子滤波的定位方法、定位装置、建图及定位的方法
TWI697846B (zh) 物體辨識方法及其裝置
JP7312026B2 (ja) 画像処理装置、画像処理方法およびプログラム
CN116188763A (zh) 一种基于YOLOv5的纸箱识别定位及放置角度的测量方法
CN103607558A (zh) 一种视频监控系统及其目标匹配方法和装置
WO2021051382A1 (zh) 白平衡处理方法和设备、可移动平台、相机
CN112991159B (zh) 人脸光照质量评估方法、系统、服务器与计算机可读介质
CN103544699B (zh) 一种基于单图片三圆模版的摄像头标定方法
JP2007127478A (ja) 追跡対象物速度検出装置および追跡対象物速度検出方法
CN105093479A (zh) 用于显微镜的自动对焦方法和装置
CN104104911B (zh) 全景图像生成过程中的时间戳消除和重置方法及系统
CN113569679A (zh) 测量断裂伸长率的方法、装置和系统
JPH05215547A (ja) ステレオ画像間対応点決定方法
CN114140659B (zh) 一种基于无人机视角下人体检测的社交距离监控方法
CN111583341B (zh) 云台像机移位检测方法
CN111489384B (zh) 基于互视角的遮挡评估方法及装置、设备、系统和介质
CN114782556A (zh) 相机与激光雷达的配准方法、系统及存储介质