TWI738406B - 物體偵測裝置及方法 - Google Patents

物體偵測裝置及方法 Download PDF

Info

Publication number
TWI738406B
TWI738406B TW109122729A TW109122729A TWI738406B TW I738406 B TWI738406 B TW I738406B TW 109122729 A TW109122729 A TW 109122729A TW 109122729 A TW109122729 A TW 109122729A TW I738406 B TWI738406 B TW I738406B
Authority
TW
Taiwan
Prior art keywords
bounding box
detection
lens
range
target
Prior art date
Application number
TW109122729A
Other languages
English (en)
Other versions
TW202103109A (zh
Inventor
陳志瑋
叢培貴
王韶儀
陳鴻仁
陳冠宇
任正隆
Original Assignee
聯發科技股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 聯發科技股份有限公司 filed Critical 聯發科技股份有限公司
Publication of TW202103109A publication Critical patent/TW202103109A/zh
Application granted granted Critical
Publication of TWI738406B publication Critical patent/TWI738406B/zh

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

本發明公開一種物體偵測裝置,包括:邊界盒判定電路,用於接收鏡頭的鏡頭配置資訊,並參考該鏡頭配置資訊確定邊界盒的邊界盒分佈,其中,該邊界盒分配為與用於目標物體的偵測的該鏡頭相關的不同偵測距離;以及處理電路,佈置為接收使用該鏡頭從影像捕獲設備的輸出中匯出的捕獲影像,並且根據該邊界盒的邊界盒分佈對該捕獲影像執行物體偵測。

Description

物體偵測裝置及方法
本發明涉及電學技術領域,尤其涉及一種物體偵測裝置及方法。
基於魚眼相機(fisheye-camera-based)的應用(application)有增長的趨勢,基於魚眼相機的應用包括監視應用、增強現實(augmented reality,AR)應用、虛擬實境(virtual reality,VR)應用,汽車應用等。通常,透過魚眼鏡頭將入射光傳遞到影像感測器上來捕獲的影像內容會嚴重失真,並且可以轉換為經度不失真的等角投影(equi-rectangular projection,ERP)影像,以進行進一步的影像處理(例如,物體偵測(objection detection))。物體偵測廣泛應用於許多領域。例如,在自動駕駛(self-driving)技術中,我們需要透過在捕獲影像(captured image)中識別車輛、行人、道路和障礙物的位置來規劃路線。再例如,安全領域的系統需要偵測異常目標,例如入侵者。
通常,物體偵測需要超過一百萬個訓練影像。如果使用透過使用從具有正常鏡頭(normal lens)的照相機生成的正常影像(normal image)訓練的物體偵測裝置來對從具有魚眼鏡頭(fisheye lens)的照相機生成的魚眼影像(fisheye image)執行物體偵測,則物體偵測精度將大大降低。一種常規的解決方案是收集和標記一百萬個用於魚眼影像的影像,然後再對物體偵測裝置進行訓練。然而,如果使用者更換鏡頭,則收集並標記一百萬個魚眼影像的影像,然後再訓練物體偵測裝置是不現實的。
有鑑於此,本發明提供一種物體偵測裝置及方法,以提高物體偵測的精度。
根據本發明的第一方面,公開一種物體偵測裝置,包括:邊界盒判定電路,用於接收鏡頭的鏡頭配置資訊,並參考該鏡頭配置資訊確定邊界盒的邊界盒分佈,其中,該邊界盒分配為與用於目標物體的偵測的該鏡頭相關的不同偵測距離;以及處理電路,佈置為接收使用該鏡頭從影像捕獲設備的輸出中匯出的捕獲影像,並且根據該邊界盒的邊界盒分佈對該捕獲影像執行物體偵測。
根據本發明的第二方面,公開一種物體偵測方法,包括:接收鏡頭的鏡頭配置資訊;邊界盒判定電路根據該鏡頭配置資訊確定該邊界盒的邊界盒分佈,該邊界盒分配為與用於目標物體的偵測的該鏡頭相關的不同偵測距離;使用該鏡頭接收從影像捕獲設備的輸出中匯出的捕獲影像;以及根據該邊界盒的邊界盒分佈對該捕獲影像進行物體偵測。
根據本發明的第三方面,公開一種物體偵測方法,包括:接收在目標物體從目標偵測距離範圍的第一端移動到該目標偵測距離範圍的第二端時連續生成的捕獲影像;以及由處理電路根據具有不同偵測範圍的複數個邊界盒對該捕獲影像進行物體偵測,其中,對物體偵測透過使用至少一個該邊界盒在每個該捕獲影像中偵測目標物體。
本發明的物體偵測裝置由於包括邊界盒判定電路,用於接收鏡頭的鏡頭配置資訊,並參考該鏡頭配置資訊確定邊界盒的邊界盒分佈,該邊界盒分配為與用於目標物體的偵測的該鏡頭相關的不同偵測距離;處理電路,用於接 收使用該鏡頭從影像捕獲設備的輸出中匯出的捕獲影像,並且根據該邊界盒的邊界盒分佈對該捕獲影像執行物體偵測。這樣邊界盒判定電路根據鏡頭配置資訊確定邊界盒分佈,從而使得所確定的邊界盒分佈與使用該鏡頭捕獲的捕獲影像相匹配,能夠適用於該鏡頭捕獲的捕獲影像,更加準確和完整的偵測目標物體。
10:影像捕獲設備
12:鏡頭
20:顯示設備
30:硬體緩衝器
100:物體偵測裝置
102:處理電路
104:邊界盒判定電路
106:結果收集緩衝器
透過閱讀後續的詳細描述和實施例可以更全面地理解本發明,本實施例參照附圖給出,其中:第1圖是示出根據本發明的實施例的第一物體偵測佈置的圖。
第2圖是示出根據本發明的實施例的第二物體偵測佈置的圖。
第3圖是示出由第1圖所示的邊界盒判定電路用來確定影像平面上的邊界盒高度(影像高度)的針孔模型的圖。
第4圖是示出將影像平面上的參考影像高度映射到影像平面上的實際影像高度的原理的示圖。
第5圖是示出根據本發明的實施例的由第1圖所示的邊界盒判定電路計算出的鏡頭畸變曲線的圖。
第6圖是示出根據本發明的實施例的基於鏡頭配置資訊確定的邊界盒分佈的示例的圖。
第7圖是示出在不考慮鏡頭配置資訊的情況下確定的邊界盒分佈的示例的圖。
第8圖是示出透過使用分配給不同偵測距離的邊界盒將偵測應用於魚眼影像的圖。
第9圖是示出透過使用分配給不同偵測距離的邊界盒將偵測應用於普通影像的 圖。
在整個以下描述和申請專利範圍中使用某些術語,它們指的是特定 部件。如所屬技術領域具有通常知識者將理解的,電子裝置製造商可以用不同的名稱來指代組件。本文檔無意區分名稱不同但功能相同的組件。在以下描述和申請專利範圍中,術語“包括”和“包含”以開放式方式使用,因此應解釋為表示“包括但不限於...”。同樣,術語“耦接”旨在表示間接或直接的電連接。 因此,如果一個裝置耦接到另一裝置,則該連接可以是透過直接電連接,或者是透過經由其他裝置和連接的間接電連接。
第1圖是示出根據本發明的實施例的第一物體偵測佈置的圖。物體偵測裝置100包括處理電路102、邊界盒(boundary box)判定電路104和結果收集緩衝器106。邊界盒判定電路104佈置為接收鏡頭12的鏡頭配置資訊(lens configuration information)LC(例如其中包括鏡頭畸變曲線(lens distortion curve)等資訊),並參考該鏡頭配置資訊LC來確定(複數個)邊界盒(bounding box)的邊界盒分佈(bounding box distribution)D_BBX,(複數個)邊界盒被分配了與用於偵測目標物體(target object)的鏡頭12相關的不同的偵測距離。處理電路102佈置為接收使用鏡頭12從影像捕獲設備10的輸出中匯出的捕獲影像IMG,並且根據邊界盒的邊界盒分佈D_BBX對捕獲影像IMG執行物體偵測。結果收集緩衝器106佈置為存儲對捕獲影像IMG執行的物體偵測的處理結果PR。結果收集緩衝器106耦接到顯示設備20,使得處理結果PR顯示在顯示設備20上。例如,當在邊界盒的偵測範圍內很好地偵測到目標物體時,邊界盒可以在顯示設備20的螢幕上顯示以指示目標物體的位置。邊界盒分佈也即每個邊界盒的座標位置。
在本實施例中,由處理電路102執行的物體偵測可以是基於深度學習 (deep-learning based)的物體偵測。因此,可以使用人工智慧(artificial intelligence,AI)處理器來實現處理電路102。例如,處理電路102可以是卷積加速器(convolution accelerator),圖形處理單元(graphics processing unit,GPU)或專用積體電路(application-specific integrated circuit,ASIC)。對於某些應用,影像捕獲設備10可以是相機模組,並且影像捕獲設備10所使用的鏡頭12可以是諸如魚眼鏡頭的廣角鏡頭。
在第1圖所示的實施例中,物體偵測裝置100(特別是處理電路102)耦接到影像捕獲設備10,並且從影像捕獲設備10接收捕獲影像IMG。偵測裝置100(特別是邊界盒判定電路104)耦接到影像捕獲設備10,並從影像捕獲設備10接收鏡頭12的鏡頭配置資訊LC。例如,物體偵測裝置100和影像捕獲設備10可以安裝在同一電子裝置上。因此,處理電路102和邊界盒判定電路104都可以直接從影像捕獲設備10獲得資料。但是,這僅出於說明的目的,並不意味著對本發明的限制。
第2圖是示出根據本發明的實施例的第二物體偵測佈置的圖。在本實施例中,物體偵測裝置100耦接到硬體緩衝器30。硬體緩衝器30佈置為存儲鏡頭12的鏡頭配置資訊LC(例如其中包括鏡頭畸變曲線等資訊)和使用鏡頭12從影像拍攝裝置10生成的捕獲影像IMG。硬體緩衝器30不是影像捕獲設備10的一部分。因此,處理電路102和邊界盒判定電路104都不能直接從影像捕獲設備10獲得資料。例如,物體偵測裝置100和影像捕獲設備10可以不安裝在同一電子裝置上。因此,處理電路102從硬體緩衝器30檢索(retrieve)捕獲影像IMG,並且邊框判定電路104從硬體緩衝器30檢索鏡頭12的鏡頭配置資訊LC。硬體緩衝器可以例如是記憶體、隨機存取記憶體、硬盤等等存儲介質。
在本實施例中,物體偵測裝置100使在處理電路102上運行的物體偵測處理適應於鏡頭12的鏡頭配置資訊LC。換句話說,回應於鏡頭12的配置資訊 LC來自適應地(adaptively)調整物體偵測處理。例如,當對從不同鏡頭產生的捕獲影像執行物體偵測時,處理電路(例如,AI處理器)102採用不同的邊界盒分佈(bounding box distribution)D_BBX。
關於魚眼鏡頭,從許多訓練影像中獲得具有大量錨盒(anchor box)的訓練模型(training model)TM。錨盒是具有不同形狀的矩形、用於偵測捕獲框架(captured frame)中具有相關大小的物體。具有帶有錨盒的訓練模型TM提供給處理電路102,並且邊界盒判定電路104參考鏡頭12的鏡頭配置資訊LC以僅選擇錨盒的一部分作為在處理電路102上進行的物體偵測所使用的邊界盒。具體地,適當地(或正確地)設置邊界盒分佈D_BBX,以確保目標偵測距離範圍所要求的偵測邊界盒範圍由基於鏡頭配置資訊LC確定的邊界盒的偵測範圍完全覆蓋(基於鏡頭配置資訊LC確定的邊界盒的偵測範圍完全覆蓋目標偵測距離範圍所要求的偵測邊界盒範圍)。因此,處理電路102可以透過使用訓練模型TM來對捕獲影像IMG執行基於深度學習的物體偵測,訓練模型TM修改為使用由邊界盒判定電路104選擇的一些錨盒。邊界判定電路104的更多細節將如下所述。
第3圖是示出邊界盒判定電路104用於確定影像平面(image plane)上的邊界盒(bounding box,BBOX)高度(影像高度(image height))的針孔模型的圖。假設需要物體偵測以偵測物體高度H在80cm至200cm範圍內並且位於偵測距離D在30cm至11m(1100cm)範圍內的目標物體。目標物體在影像平面上的影像高度由(F * H)/D確定,其中F代表由影像捕獲設備10使用的鏡頭12的焦距,D代表相對於鏡頭12的特定偵測距離,H表示位於特定偵測距離處的目標物體的特定物體高度。目標物體在影像平面上的影像高度可以用於確定用於偵測目標物體的邊界盒的邊界盒高度,該邊界盒具有相關於鏡頭12的特定物體高度並且處於特定偵測距離處。由於影像捕獲設備10所使用的鏡頭12可能會引入畸變(distortion),因此邊界盒判定電路104參考鏡頭12的鏡頭配置資訊LC以 針對每個相關於鏡頭12的偵測距離(即,D:30cm~11m)在影像平面上找到目標物體的真實影像高度。
第4圖是示出將影像平面上的參考影像高度映射為影像平面上的實際影像高度的原理的圖。鏡頭12的鏡頭配置資訊LC可以由鏡頭12的製造商設置和提供(鏡頭配置資訊LC例如包括鏡頭畸變曲線等資訊),並且可以包括與真實影像高度相關聯的映射資訊(mapping information)。具體來說,透過下文描述的方式以及結合上文的描述,可以根據已獲得的鏡頭畸變曲線,使用真實影像高度,最終獲取到在鏡頭畸變曲線上合適的點的座標值(例如對應與第6圖所示的點P1-P7的座標值),然後基於這些點的座標值,合適地或正確地設置邊界盒的寬度和高度,這樣形成的所有的邊界盒的偵測範圍可以覆蓋位於偵測距離之內的鏡頭畸變曲線所有的點(或者,邊界盒的偵測範圍完全覆蓋目標偵測距離範圍)。針對具有不同高度的目標物體,邊界盒的偵測範圍可能不同,並且可以根據目標高度的不同進行調整。例如,以下映射表(表1)是鏡頭配置資訊LC的一部分。其中f是焦距。
Figure 109122729-A0305-02-0009-1
Figure 109122729-A0305-02-0010-4
在透過使用包括在鏡頭12的鏡頭配置資訊LC中的映射資訊獲得在目標偵測距離範圍內的不同偵測距離處的目標物體的真實影像高度之後,邊界盒判定電路104映射每個真實影像根據影像捕獲設備10所使用的影像感測器(未示出)的圖元(pixel)密度,將特定偵測距離處的目標物體的各個真實影像高度映射為圖元數量。影像感測器的圖元密度取決於影像感測器中包括的圖元數量和影像感測器的尺寸。因此,可以透過將真實影像高度(mm)與指定每個單元(cell)尺寸的圖元數量(圖元/mm)的參數相乘來獲得真實影像高度的圖元數量。
接下來,邊界盒判定電路104根據在目標偵測距離範圍內的不同偵測距離處針對目標物體的實際影像高度確定的圖元數量,計算鏡頭畸變曲線(lens distribution curve)。第5圖是示出根據本發明的實施例的鏡頭畸變曲線的圖。假設要捕獲的目標物體的物體高度為180cm,目標偵測距離範圍為30cm至11m。鏡頭畸變曲線CV可以使用多項式函數(polynomial function)來表示。例如,邊界盒判定電路104可以採用曲線擬合方法來求出鏡頭畸變曲線CV,以使得在目標偵測距離範圍內的不同偵測距離處為目標物體的真實影像高度確定的圖元數量與鏡頭畸變曲線CV相符。根據鏡頭畸變曲線CV,可以參考以圖元為單位元的影像高度以確定以圖元為單位的邊界盒(BBOX)高度。
在本實施例中,可以將目標偵測距離範圍(例如30cm~11m)均勻劃分為複數個偵測片段(detection segment),從訓練模型TM的錨盒中選擇一個邊界盒,並將其目標分配給偵測距離範圍(例如30cm~11m)的一個分支點。 在透過將魚眼影像轉換成等角投影(equi-rectangular projection,ERP)影像而匯出要由處理電路102處理的捕獲影像IMG的情況下,以圖元為單位元的影像高度 被進一步映射到ERP域(domain),並且在ERP域中為影像高度選擇了一個邊界。 也就是說,根據目標偵測距離範圍,將目標偵測距離範圍劃分為N個片段(N為大於1的正整數),然後根據得到的點或分支點計算影像高度(魚眼影像)和影像高度(ERP影像)。其中點或分支點的數值可以是對應鏡頭畸變曲線CV上的點或分支點的X軸座標值,而計算得到的與點或分支點相對應的影像高度(ERP影像)的數值可以是對應的Y軸座標值。例如,本實施例中,劃分為6個偵測片段,即從30cm到1100cm之間劃分為7個等差數值,分別計算每個數值的影像高度(ERP影像)。下表(表2)顯示了將影像高度映射到ERP域並將目標偵測距離範圍(例如30cm~11m)劃分為六個偵測片段的示例。
Figure 109122729-A0305-02-0011-5
因此,關於ERP域{222.968699,114.6279084,67.75260652,48.30019801,36.39056014,29.77409466,22.05}中的影像高度,邊界盒判定電路104確定分配給不同的偵測距離的分支點的七個邊界盒的邊界盒分佈D_BBX{30,208.3333333,386.6666667,565,743.3333333,921.6666667,1100}。 也就是說,本實施例中,對於確定的七個分支點的座標值,X軸座標值可以分別 是邊界盒分佈D_BBX{30,208.3333333,386.6666667,565,743.3333333,921.6666667,1100},Y軸座標值可以分別是ERP域{222.968699,114.6279084,67.75260652,48.30019801,36.39056014,29.77409466,22.05}中的影像高度。 當然,本實施例中確定為七個分支點僅為舉例,分支點也可以是其他的數量,例如五個、八個、十一個等等。
應當注意,根據從鏡頭畸變曲線CV給出的資訊,適當地(或正確地)設置邊界盒分佈D_BBX以確保目標偵測距離範圍所需的偵測邊界盒範圍由邊界盒的偵測範圍完全覆蓋。第6圖是示出根據本發明的實施例的基於鏡頭配置資訊LC確定的邊界盒分佈D_BBX的示例的圖。為了簡化和清楚起見,假定將由處理電路102處理的捕獲影像IMG是魚眼影像,並且目標偵測距離範圍R_DD(detection distance range)被均勻地劃分為七個分支點界定的六個片段,該七個分支點映射到鏡頭畸變曲線CV上的{P1,P2,P3,P4,P5,P6,P7}。在本實施例中,X軸表示相關於鏡頭12的偵測距離,Y軸表示邊界盒(BBOX)的高度。
點P1具有X軸座標值X_P1和Y軸座標值Y_P1。點P2具有X軸座標值X_P2和Y軸座標值Y_P2。點P3具有X軸座標值X_P3和Y軸座標值Y_P3。點P4具有X軸座標值X_P4和Y軸座標值Y_P4。點P5具有X軸座標值X_P5和Y軸座標值Y_P5。點P6具有X軸座標值X_P6和Y軸座標值Y_P6。點P7具有X軸座標值X_P7和Y軸座標值Y_P7。例如,X軸座標值{X_P1,X_P2,X_P3,X_P4,X_P5,X_P6,X_P7}可以分別是上述偵測距離值{30、208.3333333、386.6666667、565、743.3333333、921.6666667、1100}。分配為X軸座標值{X_P1,X_P2,X_P3,X_P4,X_P5,X_P6,X_P7}的邊界盒的邊界盒高度分別等於Y軸座標值{Y_P1,Y_P2,Y_P3,Y_P4,Y_P5,Y_P6,Y_P7},Y軸座標值{Y_P1,Y_P2,Y_P3,Y_P4,Y_P5,Y_P6,Y_P7}可以分別是上述ERP域中的影像高度{222.968699,114.6279084,67.75260652,48.30019801,36.39056014,29.77409466,22.05}。
關於分配為X軸座標值X_P1並具有等於Y軸座標值Y_P1的邊界盒高度的邊界盒,其提供了由Y軸方向上的{Y_P1+Y1,Y_P1-Y1}和由X軸方向上的{X1_1,X1_2}定義的偵測範圍R_P1,其中Y1由Y_P1確定。例如,Y1=0.25 * Y_P1,但是該係數(0.25)也可以是其他數值,例如0.22、0.3、0.5等等,可以根據實際需求進行設置,本發明並不限制該數值。根據鏡頭畸變曲線CV,當目標物體位於X1_1時,目標物體的影像高度等於Y_P1+Y1,而當目標物體位於X1_2時,目標物體的影像高度等於Y_P1-Y1。換句話說,當目標物體在距離範圍{X1_1,X1_2}中移動時,透過使用分配為X軸座標值X_P1且邊界盒高度等於Y軸座標值Y_P1的邊界盒,可以從捕獲影像IMG中偵測到目標物體。
關於分配為X軸座標值X_P2且具有等於Y軸座標值Y_P2的邊界盒高度的邊界盒,其提供由Y軸方向上的{Y_P2+Y2,Y_P2-Y2}和X軸方向上的{X2_1,X2_2}定義的偵測範圍R_P2,其中Y2由Y_P2確定。例如,Y2=0.25 * Y_P2。根據鏡頭畸變曲線CV,當目標物體位於X2_1時,目標物體的影像高度等於Y_P2+Y2,而當目標物體為位於X2_2時,目標物體的影像高度等於Y_P2-Y2。換句話說,當目標物體在距離範圍{X2_1,X2_2}中移動時,可以使用分配為X軸座標值X_P2且邊界盒高度等於Y軸座標值Y_P2的邊界盒,可以從捕獲影像IMG中偵測到目標物體。
關於分配為X軸座標值X_P3且具有等於Y軸座標值Y_P3的邊界盒高度的邊界盒,其提供了由Y軸方向上的{Y_P3+Y3,Y_P3-Y3}和X軸方向上的{X3_1,X3_2}定義的偵測範圍R_P3,其中Y3由Y_P3確定。例如,Y3=0.25 * Y_P3。根據鏡頭畸變曲線CV,當目標物體位於X3_1時,目標物體的影像高度等於Y_P3+Y3,而當目標物體為X3_2時,目標物體的影像高度等於Y_P3-Y3。換句話說,當目標物體在距離範圍{X3_1,X3_2}中移動時,可以使用分配為X軸座標值X_P3且邊界盒高度等於Y軸座標值Y_P3的邊界盒,可以從捕獲影像IMG 中偵測到目標物體。
關於分配為X軸座標值X_P4並具有等於Y軸座標值Y_P4的邊界盒高度的邊界盒,其提供了由Y軸方向上的{Y_P4+Y4,Y_P4-Y4}和X軸方向上的{X4_1,X4_2}定義的偵測範圍R_P4,其中Y4由Y_P4確定。例如,Y4=0.25 * Y_P4。根據鏡頭畸變曲線CV,當目標物體位於X4_1時,目標物體的影像高度等於Y_P4+Y4,而當目標物體為X4_2時,目標物體的影像高度等於Y_P4-Y4。換句話說,當目標物體在距離範圍{X4_1,X4_2}中移動時,可以使用分配為X軸座標值X_P4且邊界盒高度等於Y軸座標值Y_P4的邊界盒,可以從捕獲影像IMG中偵測到目標物體。
關於分配為X軸座標值X_P5且具有等於Y軸座標值Y_P5的邊界盒高度的邊界盒,其提供了由Y軸方向上的{Y_P5+Y5,Y_P5-Y5}和X軸方向上的{X5_1,X5_2}定義的偵測範圍R_P5,其中Y5由Y_P5確定。例如,Y5=0.25 * Y_P5。根據鏡頭畸變曲線CV,當目標物體位於X5_1時,目標物體的影像高度等於Y_P5+Y5,而當目標物體為X5_2時,目標物體的影像高度等於Y_P5-Y5。換句話說,當目標物體在距離範圍{X5_1,X5_2}中移動時,可以使用分配為X軸座標值X_P5且邊界盒高度等於Y軸座標值Y_P5的邊界盒,可以從捕獲影像IMG中偵測到目標物體。
關於分配為X軸座標值X_P6且具有等於Y軸座標值Y_P6的邊界盒高度的邊界盒,其提供了由Y軸方向上的{Y_P6+Y6,Y_P6-Y6}和X軸方向上的{X6_1,X6_2}定義的偵測範圍R_P6,其中Y6由Y_P6確定。例如,Y6=0.25 * Y_P6。根據鏡頭畸變曲線CV,當目標物體位於X6_1時,目標物體的影像高度等於Y_P6+Y6,而當目標物體為X6_2時,目標物體的影像高度等於Y_P6-Y6。換句話說,當目標物體在距離範圍{X6_1,X6_2}中移動時,可以使用分配為X軸座標值X_P6且邊界盒高度等於Y軸座標值Y_P6的邊界盒,可以從捕獲影像IMG 中偵測到目標物體。
關於分配為X軸座標值X_P7且具有等於Y軸座標值Y_P7的邊界盒高度的邊界盒,其提供了由Y軸方向上的{Y_P7+Y7,Y_P7-Y7}和X軸方向上的{X7_1,X7_2}定義的偵測範圍R_P7,其中Y7由Y_P7確定。例如,Y7=0.25 * Y_P7。根據鏡頭畸變曲線CV,當目標物體位於X7_1時,目標物體的影像高度等於Y_P7+Y7,而當目標物體位於X7_2時,目標物體的影像高度等於Y_P7-Y7。 換句話說,當目標物體在距離範圍{X7_1,X7_2}中移動時,可以使用分配為X軸座標值X_P7且邊界盒高度等於Y軸座標值Y_P7的邊界盒,可以從捕獲影像IMG中偵測到目標物體。
如第6圖所示,目標偵測距離範圍R_DD(例如P1_X~P7_X)所需的偵測邊界盒範圍R_DBBX(detection bounding box range)(例如P7_Y~P1_Y)由邊界盒的偵測範圍R_P1-R_P7完全覆蓋,其中,根據鏡頭畸變曲線CV確定邊界盒的分佈,並根據鏡頭12的鏡頭配置資訊LC確定鏡頭畸變曲線CV。也就是說,邊界盒的偵測範圍R_P1-R_P7在X軸方向上完全覆蓋從P1-P7之間的鏡頭畸變曲線CV,在Y軸方向上也完全覆蓋從P1-P7之間的鏡頭畸變曲線CV。或者說,邊界盒的偵測範圍R_P1-R_P7覆蓋了目標偵測距離範圍R_DD(例如P1_X~P7_X)以及偵測邊界盒範圍R_DBBX(detection bounding box range)(例如P7_Y~P1_Y)。考慮目標物體從目標偵測距離範圍R_DD的第一端P1_X(或P7_X)移動到目標偵測距離範圍R_DD的第二端P7_X(或P1_X)的情況。處理電路102接收在目標物體從目標偵測距離範圍R_DD的第一端移動到目標偵測距離範圍R_DD的第二端時連續生成的捕獲影像IMG,並根據具有不同偵測範圍R_P1-R_P7的邊界盒對捕獲影像IMG執行物體偵測,其中物體偵測透過使用至少一個邊界盒來偵測每個捕獲影像IMG中的目標物體。其中,邊界盒的邊界盒分佈為參考該鏡頭配置資訊(例如其中包括鏡頭畸變曲線等資訊)確定的,該邊 界盒分配為與用於目標物體的偵測的鏡頭相關的不同偵測距離。在一些邊界盒分佈重疊的情況下例如第6圖中偵測範圍R_P3與偵測範圍R_P4之間具有重疊部分,因此目標物體可能會被偵測範圍R_P3與R_P4都偵測到。邊界盒分佈(也即由邊界盒的偵測範圍R_P1-R_P7形成的)完全覆蓋了目標偵測距離範圍R_DD和偵測邊界盒範圍R_DBBX,沒有留出未被邊界盒的偵測範圍R_P1-R_P7覆蓋的區域。具體來說,在X軸方向上(目標偵測距離範圍R_DD的方向上),從X_P1(P1點的X座標值)到X_P7(P7點的X座標值)之間由偵測範圍R_P1-R_P7連續地覆蓋,沒有斷開的區域或範圍;在Y軸方向上(偵測邊界盒範圍R_DBBX的方向上或BBOX高度的方向上),從Y_P1(P1點的Y座標值)到Y_P7(P7點的Y座標值)之間由偵測範圍R_P1-R_P7連續地覆蓋,沒有斷開的區域或範圍。此外由於點P1-P7分佈更均勻,因此每兩個相鄰邊界盒的偵測範圍更可能連續或重疊以提供連續的偵測範圍。例如,目標偵測距離範圍R_DD包括均勻分佈的非重疊偵測片段{P1_X-P2_X,P2_X-P3_X,P3_X-P4_X,P4_X-P5_X,P5_X-P6_X,P6_X-P7_X},也即P1至P7的七個點中任意相鄰的兩個點的X軸的座標的差值相等,例如X_P7-X_P6=X_P6-X_P5=X_P5-X_P4=X_P4-X_P3=X_P3-X_P2=X_P2-X_P1,當然也本實施例中也可以不是這樣均勻的分佈(也即任意相鄰的兩個點的X軸的座標的差值不必全相等);每個非重疊偵測片段{P1_X-P2_X,P2_X-P3_X,P3_X-P4_X,P4_X-P5_X,P5_X-P6_X,P6_X-P7_X}的物體偵測只涉及兩個邊界盒。並且,偵測片段{P1_X-P2_X,P2_X-P3_X,P3_X-P4_X,P4_X-P5_X,P5_X-P6_X,P6_X-P7_X}中任意一個偵測片段均完全的被邊界盒覆蓋而沒有未被覆蓋的區域。與不考慮鏡頭配置的邊界盒分佈實施方式(例如第7圖所示的方式)相比,由於邊界盒沿著目標偵測距離範圍適當分佈,提供了連續的偵測範圍,因此所提出的邊界盒分佈實施方案使目標物體更容易被很好地偵測。
請結合第7圖參照第6圖,第7圖是示出在不考慮鏡頭配置的情況下確定的邊界盒分佈的示例的圖。在確定邊界盒分佈不涉及鏡頭配置的情況下,固定的邊界盒分佈(例如,通常由物體偵測所使用的邊界盒分佈應用於由具有正常鏡頭的相機拍攝的正常影像)可以用於對帶有魚眼鏡頭的相機拍攝的魚眼影像進行物體偵測。如第7圖所示,一些邊界盒為分配了超出目標偵測距離範圍R_DD的偵測距離,從而導致不能偵測在目標偵測距離範圍R_DD內移動的目標物體的過度偵測範圍(over detection range)R_OD1和R_OD2。另外,當鏡頭配置被認為可以自適應地調整邊界盒分佈時,由於邊界盒沿目標偵測距離範圍的不均勻分佈,因此使用固定邊界盒分佈可能會遭受不良的偵測範圍。也就是說,第7圖所示的是先前技術中,沒有參考鏡頭配置資訊而確定邊界盒分佈時的狀態。這種情況下,針對不同的鏡頭拍攝的影像,邊界盒分佈可能均相同,這樣對於其中一些鏡頭(例如魚眼鏡頭)拍攝的影像,繼續使用相同的邊界盒分佈可能會造成出現邊界盒的偵測範圍未完全覆蓋目標偵測距離範圍(例如第7圖中的D1和D2未被覆蓋)。因此,先前技術中存在目標可能不能被完全或完整的偵測到的情況。
關於分配為點G1的X軸座標值X_G1且具有等於點G1的Y軸座標值Y_G1的邊界盒高度的邊界盒,其提供了由Y軸方向上的{Y_G1+Y1,Y_G1-Y1}和X軸方向上的{X1_1,X1_2}定義的偵測範圍R_G1,其中Y1由Y_G1確定。例如,Y1=0.25 * Y_G1。當目標物體在距離範圍{X1_1,X1_2}中移動時,透過使用分配為X軸座標值X_G1且邊界盒高度等於Y軸座標值Y_G1的邊界盒,可以從捕獲影像(例如,從使用魚眼鏡頭的相機生成的捕獲影像)中偵測到目標物體。
關於分配為點G2的X軸座標值X_G2且具有等於點G2的Y軸座標值Y_G2的邊界盒高度的邊界盒,其提供了由Y軸方向上的{Y_G2+Y2,Y_G2-Y2}和X軸方向上的{X2_1,X2_2}定義的偵測範圍R_G2,其中Y2由Y_G2確定。例 如,Y2=0.25 * Y_G2。當目標物體在距離範圍{X2_1,X2_2}中移動時,透過使用分配為X軸座標值X_G2且邊界盒高度等於Y軸座標值Y_G2的邊界盒,可以從捕獲影像(例如,從使用魚眼鏡頭的相機生成的捕獲影像)中偵測到目標物體。
關於分配為點G3的X軸座標值X_G3且具有等於點G3的Y軸座標值Y_G3的邊界盒高度的邊界盒,其提供了由Y軸方向上的{Y_G3+Y3,Y_G3-Y3}和X軸方向上的{X3_1,X3_2}定義的偵測範圍R_G3,其中Y3由Y_G3確定。例如,Y3=0.25 * Y_G3。當目標物體在距離範圍{X3_1,X3_2}中移動時,透過使用分配為X軸座標值X_G3且邊界盒高度等於Y軸座標值Y_G3的邊界盒,可以從捕獲影像(例如,從使用魚眼鏡頭的相機生成的捕獲影像)中偵測到目標物體。
關於分配為點G4的X軸座標值X_G4且具有等於點G4的Y軸座標值Y_G4的邊界盒高度的邊界盒,其提供了由Y軸方向上的{Y_G4+Y4,Y_G4-Y4}和X軸方向上的{X4_1,X4_2}定義的偵測範圍R_G4由Y軸方向上的,其中Y4由Y_G4確定。例如,Y4=0.25 * Y_G4。當目標物體在距離範圍{X4_1,X4_2}中移動時,透過使用分配為X軸座標值X_G4且邊界盒高度等於Y軸座標值Y_G4的邊界盒,可以從捕獲影像(例如,從使用魚眼鏡頭的相機生成的捕獲影像)中偵測到目標物體。
關於分配為點G5的X軸座標值X_G5且邊界盒高度等於點G5的Y軸座標值Y_G5的邊界盒,其提供了由Y軸方向上的{Y_G5+Y5,Y_G5-Y5},X軸方向為{X5_1,X5_2}定義的偵測範圍R_G5由Y軸方向為,其中Y5由Y_G5確定。 例如,Y5=0.25 * Y_G5。當目標物體在距離範圍{X5_1,X5_2}中移動時,透過使用分配為X軸座標值X_G4且邊界盒高度等於Y軸座標值Y_G4的邊界盒,可以從捕獲影像(例如,從使用魚眼鏡頭的相機生成的捕獲影像)中偵測到目標物體。
如第7圖所示,目標偵測距離範圍R_DD所需的偵測邊界盒範圍 R_DBBX未被邊界盒的偵測範圍R_G1-R_G5完全覆蓋(邊界盒的偵測範圍R_G1-R_G5未完全覆蓋目標偵測距離範圍R_DD所需的偵測邊界盒範圍R_DBBX)。具體地,當目標物體在距離範圍D1(即,X3_2~X4_1)內移動時,由於缺少覆蓋距離範圍D1的所需偵測範圍,因此不能從捕獲影像IMG中偵測出目標物體。在進入偵測範圍R_G3或R_G4之前,很難偵測到目標物體。類似地,當目標物體在距離範圍D2(即,X4_2~X5_1)內移動時,由於缺少覆蓋距離範圍D2的所需偵測範圍,因此無法從捕獲影像IMG中偵測出目標物體。在進入偵測範圍R_G4或R_G5之前,很難偵測到目標物體。
在本實施例中,鏡頭12是諸如魚眼鏡頭的廣角鏡頭(wide-view lens)。與普通鏡頭相比,魚眼鏡頭具有更寬的視野(field of view,FOV)。另外,與使用普通鏡頭的影像捕獲設備捕獲的普通影像相比,使用魚眼鏡頭的影像捕獲設備捕獲的魚眼影像嚴重失真。因此,普通影像和魚眼影像在相同距離和相同物體上的邊界盒高度的圖元數量不同。請結合第9圖參考第8圖,第8圖是示出透過使用分配為不同偵測距離的邊界盒將偵測應用於魚眼影像的圖。第9圖是示出透過使用分配為不同偵測距離的邊界盒將偵測應用於普通影像的圖。第8圖和第9圖主要為了說明普通影像與魚眼影像之間存在區別,其中第8圖中的簡筆畫的人比第9圖中簡筆畫的人要小。例如第9圖中的普通影像IMG_2,對於分配為偵測距離為2m的邊界盒(用“BBOX(2m)”表示),在偵測時就無法完整的偵測到目標物體,從而造成偵測不準確或顯示不完整等不利情況。關於應用於普通影像IMG_2的物體偵測,分配為偵測距離為2m的邊界盒(用“BBOX(2m)”表示)可以具有約260個圖元的邊界盒高度,分配為偵測距離為4m的邊界盒(用“BBOX(4m)”表示)可以具有大約140個圖元的邊界盒高度,分配為偵測距離為11m的邊界盒(用“BBOX(11m)”表示)可以具有大約60圖元的邊界盒高度。如第9圖所示,邊界盒的一部分(用“BBOX(2m)”表 示)在普通影像IMG_2的頂部邊界之外。此外,分配為偵測距離為0.3m的邊界盒(未顯示)超出範圍。
關於應用於魚眼影像IMG_1的物體偵測,分配為偵測距離為0.3m的邊界盒(用“BBOX(0.3m)”表示)可以具有約250圖元的邊界盒高度,分配為偵測距離為2m的邊界盒(用“BBOX(2m)”表示)可以具有約70個圖元的邊界盒高度,分配為偵測距離為4m的邊界盒(用“BBOX(4m)”表示)可以具有具有大約46個圖元的邊界盒高度,並且分配為偵測距離為11m的邊界盒(用“BBOX(11m)”表示)可以具有大約19個圖元的邊界盒高度。如第8圖所示,所有邊界盒都完全位元於魚眼影像IMG_1的內部。根據提出的基於鏡頭配置的邊界盒分佈設計,可以適當地(或正確地)設置邊界盒以適合基於鏡頭(例如魚眼鏡頭)的鏡頭配置資訊確定的鏡頭畸變曲線。邊界盒沿目標偵測距離範圍適當地分佈,從而確保目標偵測距離範圍所需的偵測邊界盒範圍被邊界盒的偵測範圍完全覆蓋。
在以上實施例中,邊界盒可以均勻地分佈,以確保目標偵測距離範圍所需的偵測邊界盒範圍被邊界盒的偵測範圍完全覆蓋。但是,這僅出於說明的目的,並不意味著對本發明的限制。備選地,可以透過使用以非均勻分佈的方式分配的邊界盒來實現確保目標偵測距離範圍所需的偵測邊界盒範圍被邊界盒的偵測範圍完全覆蓋的相同目的,因此只要邊界盒分佈可確保目標偵測距離範圍所需的偵測邊界盒範圍被邊界盒的偵測範圍完全覆蓋的相同目的即可;而邊界盒均勻地分佈更加有利,若非均勻分佈也可以實現完全覆蓋的目的。採用本發明的物體偵測裝置,邊界盒判定電路根據鏡頭配置資訊確定邊界盒分佈,從而使得所確定的邊界盒分佈與使用該鏡頭捕獲的捕獲影像相匹配,能夠適用於該鏡頭捕獲的捕獲影像,更加準確和完整的偵測目標物體。並且由於邊界盒判定電路根據鏡頭配置資訊確定邊界盒分佈,因此即使更換了鏡頭,也可以根 據當前鏡頭的鏡頭配置資訊來確定相適應的邊界盒分佈,這樣在更換鏡頭之後無需重新收集例如一百萬個訓練影像,所以本發明的方案效率更高、更具通用性。
儘管已經對本發明實施例及其優點進行了詳細說明,但應當理解的是,在不脫離本發明的精神以及申請專利範圍所定義的範圍內,可以對本發明進行各種改變、替換和變更。所描述的實施例在所有方面僅用於說明的目的而並非用於限制本發明。本發明的保護範圍當視所附的申請專利範圍所界定者為准。本領域技術人員皆在不脫離本發明之精神以及範圍內做些許更動與潤飾。
以上所述僅為本發明之較佳實施例,凡依本發明申請專利範圍所做之均等變化與修飾,皆應屬本發明之涵蓋範圍。
10:影像捕獲設備
12:鏡頭
20:顯示設備
100:物體偵測裝置
102:處理電路
104:邊界盒判定電路
106:結果收集緩衝器

Claims (11)

  1. 一種物體偵測裝置,包括:邊界盒判定電路,用於接收鏡頭的鏡頭配置資訊,並參考該鏡頭配置資訊確定邊界盒的邊界盒分佈,其中,該邊界盒分配為與用於目標物體的偵測的該鏡頭相關的不同偵測距離;其中,目標偵測距離範圍所需的偵測邊界盒範圍由該邊界盒的偵測範圍完全覆蓋;以及處理電路,佈置為接收使用該鏡頭從影像捕獲設備的輸出中匯出的捕獲影像,並且根據該邊界盒的邊界盒分佈對該捕獲影像執行物體偵測。
  2. 如請求項1之物體偵測裝置,其中,該鏡頭是魚眼鏡頭。
  3. 如請求項1之物體偵測裝置,其中,該邊界盒判定電路耦接到該影像捕獲設備,並且從該影像捕獲設備接收該鏡頭的鏡頭配置資訊;或者其中,邊界盒判定電路耦接到不是該影像捕獲設備的一部分的硬體緩衝器,並且該邊界盒判定電路從該硬體緩衝器檢索該鏡頭的鏡頭配置資訊。
  4. 如請求項1之物體偵測裝置,其中,由該處理電路執行的物體偵測是基於深度學習的物體偵測。
  5. 如請求項4之物體偵測裝置,其中,該處理電路是由卷積加速器、圖形處理單元或專用積體電路實現的人工智慧處理器。
  6. 如請求項1之物體偵測裝置,其中,與該鏡頭相關的不同該偵測距離沿著該目標偵測距離範圍均勻地分佈。
  7. 如請求項1之物體偵測裝置,其中,該邊界盒判定電路根據該鏡頭的鏡頭配置資訊來計算鏡頭畸變曲線,並根據該鏡頭畸變曲線來確定該邊界盒的邊界盒分佈,其中,該鏡頭畸變曲線將該目標物體和該鏡頭之間的該偵測距離映射到該目標物體在影像平面上的物體尺寸。
  8. 如請求項1之物體偵測裝置,其中,該處理電路採用具有錨盒的訓 練模型,並且該邊界盒判定電路僅選擇該錨盒的一部分作為該邊界盒。
  9. 一種物體偵測方法,包括:接收鏡頭的鏡頭配置資訊;邊界盒判定電路根據該鏡頭配置資訊確定該邊界盒的邊界盒分佈,該邊界盒分配為與用於目標物體的偵測的該鏡頭相關的不同偵測距離;其中,目標偵測距離範圍所需的偵測邊界盒範圍由該邊界盒的偵測範圍完全覆蓋;使用該鏡頭接收從影像捕獲設備的輸出中匯出的捕獲影像;以及根據該邊界盒的邊界盒分佈對該捕獲影像進行物體偵測。
  10. 一種物體偵測方法,包括:接收在目標物體從目標偵測距離範圍的第一端移動到該目標偵測距離範圍的第二端時連續生成的捕獲影像;以及由處理電路根據具有不同偵測範圍的邊界盒對該捕獲影像進行物體偵測,其中,對物體偵測透過使用至少一個該邊界盒在每個該捕獲影像中偵測目標物體;其中,目標偵測距離範圍所需的偵測邊界盒範圍由該邊界盒的偵測範圍完全覆蓋。
  11. 如請求項10之物體偵測方法,其中,該目標偵測距離範圍包括均勻分佈的非重疊偵測片段;以及對於每個非重疊偵測片段,在該物體偵測中僅涉及兩個邊界盒。
TW109122729A 2019-07-12 2020-07-06 物體偵測裝置及方法 TWI738406B (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201962873197P 2019-07-12 2019-07-12
US62/873,197 2019-07-12
US16/789,376 2020-02-12
US16/789,376 US11004232B2 (en) 2019-07-12 2020-02-12 Method and apparatus for performing object detection according to bounding box distribution that is determined by considering lens configuration

Publications (2)

Publication Number Publication Date
TW202103109A TW202103109A (zh) 2021-01-16
TWI738406B true TWI738406B (zh) 2021-09-01

Family

ID=74103176

Family Applications (1)

Application Number Title Priority Date Filing Date
TW109122729A TWI738406B (zh) 2019-07-12 2020-07-06 物體偵測裝置及方法

Country Status (3)

Country Link
US (1) US11004232B2 (zh)
CN (1) CN112399046B (zh)
TW (1) TWI738406B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11900706B1 (en) * 2019-10-22 2024-02-13 Objectvideo Labs, Llc Object of interest detector distance-based multi-thresholding
TWI795752B (zh) * 2021-03-30 2023-03-11 歐特明電子股份有限公司 行車智能系統學習的開發裝置及其開發方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201516378A (zh) * 2013-10-31 2015-05-01 Ind Tech Res Inst 量測距離之方法與系統
CN106162144A (zh) * 2016-07-21 2016-11-23 触景无限科技(北京)有限公司 一种用于夜视环境的视觉图像处理设备、系统和智能机器
CN108256547A (zh) * 2016-12-29 2018-07-06 伊莱比特汽车有限责任公司 生成用于基于机器学习的对象识别系统的训练图像
TW201917697A (zh) * 2017-10-24 2019-05-01 華晶科技股份有限公司 利用魚眼影像計算所攝物體座標的方法及影像擷取裝置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003143427A (ja) * 2001-11-05 2003-05-16 Konica Corp 撮像装置
US8326077B2 (en) 2008-10-31 2012-12-04 General Instrument Corporation Method and apparatus for transforming a non-linear lens-distorted image
TWI441514B (zh) 2008-11-12 2014-06-11 Avisonic Technology Corp 魚眼影像校正及減輕透視變形的影像處理方法及相關影像處理裝置
US9007432B2 (en) 2010-12-16 2015-04-14 The Massachusetts Institute Of Technology Imaging systems and methods for immersive surveillance
US8711248B2 (en) 2011-02-25 2014-04-29 Microsoft Corporation Global alignment for high-dynamic range image generation
US10178314B2 (en) 2011-03-08 2019-01-08 Mitsubishi Electric Corporation Moving object periphery image correction apparatus
CN102663734A (zh) * 2012-03-15 2012-09-12 天津理工大学 鱼眼镜头的标定及鱼眼图像的畸变矫正方法
CN102724402A (zh) * 2012-06-08 2012-10-10 中兴通讯股份有限公司 拍摄装置、拍摄图像的处理方法及装置
US20170297488A1 (en) * 2016-04-19 2017-10-19 GM Global Technology Operations LLC Surround view camera system for object detection and tracking
US10572982B2 (en) 2017-10-04 2020-02-25 Intel Corporation Method and system of image distortion correction for images captured by using a wide-angle lens
US11055541B2 (en) * 2018-10-12 2021-07-06 Volvo Car Corporation Vehicle lane marking and other object detection using side fisheye cameras and three-fold de-warping
US11288525B2 (en) * 2018-10-31 2022-03-29 Texas Instruments Incorporated Object detection for distorted images
CN109726692A (zh) * 2018-12-29 2019-05-07 重庆集诚汽车电子有限责任公司 基于深度学习的高清摄像头3d目标检测系统
US11055540B2 (en) * 2019-06-28 2021-07-06 Baidu Usa Llc Method for determining anchor boxes for training neural network object detection models for autonomous driving

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201516378A (zh) * 2013-10-31 2015-05-01 Ind Tech Res Inst 量測距離之方法與系統
CN106162144A (zh) * 2016-07-21 2016-11-23 触景无限科技(北京)有限公司 一种用于夜视环境的视觉图像处理设备、系统和智能机器
CN108256547A (zh) * 2016-12-29 2018-07-06 伊莱比特汽车有限责任公司 生成用于基于机器学习的对象识别系统的训练图像
TW201917697A (zh) * 2017-10-24 2019-05-01 華晶科技股份有限公司 利用魚眼影像計算所攝物體座標的方法及影像擷取裝置

Also Published As

Publication number Publication date
TW202103109A (zh) 2021-01-16
US20210012110A1 (en) 2021-01-14
US11004232B2 (en) 2021-05-11
CN112399046A (zh) 2021-02-23
CN112399046B (zh) 2022-10-14

Similar Documents

Publication Publication Date Title
CN111179358B (zh) 标定方法、装置、设备及存储介质
CN107749268B (zh) 屏幕检测方法及设备
WO2020259271A1 (zh) 图像畸变校正方法和装置
CN110717942B (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
US8755624B2 (en) Image registration device and method thereof
TWI253006B (en) Image processing system, projector, information storage medium, and image processing method
WO2017217411A1 (ja) 画像処理装置、画像処理方法、及び記憶媒体
KR101121034B1 (ko) 복수의 이미지들로부터 카메라 파라미터를 얻기 위한 시스템과 방법 및 이들의 컴퓨터 프로그램 제품
JP6260891B2 (ja) 画像処理装置および画像処理方法
JP5773436B2 (ja) 情報端末装置
CN112270719B (zh) 相机标定方法、装置及系统
TWI738406B (zh) 物體偵測裝置及方法
WO2020014813A1 (zh) 计算对象和车辆碰撞时间的方法、计算设备及车辆
JP6566768B2 (ja) 情報処理装置、情報処理方法、プログラム
JP2007129709A (ja) イメージングデバイスをキャリブレートするための方法、イメージングデバイスの配列を含むイメージングシステムをキャリブレートするための方法およびイメージングシステム
US20060215881A1 (en) Distance measurement apparatus, electronic device, distance measurement method, distance measurement control program and computer-readable recording medium
JPWO2018235300A1 (ja) 物体検知装置、物体検知方法、及びコンピュータ読み取り可能な記録媒体
CN111462503A (zh) 车辆测速方法、装置及计算机可读存储介质
KR101705558B1 (ko) Avm 시스템의 공차 보정 장치 및 방법
JP2011049733A (ja) カメラキャリブレーション装置および映像歪み補正装置
JP5228614B2 (ja) パラメータ計算装置、パラメータ計算システムおよびプログラム
TWI658431B (zh) 影像處理方法、影像處理裝置及電腦可讀取記錄媒體
JP4468019B2 (ja) 画像処理装置
JP2013200840A (ja) 映像処理装置、映像処理方法、映像処理プログラム、及び映像表示装置
JP2003331263A (ja) カメラ画像−実空間座標対応付けマップ生成方法、カメラ画像−実空間座標対応付けマップ生成装置、プログラムおよび記録媒体