JP2020135866A - オブジェクト検出方法、検出装置及び電子機器 - Google Patents
オブジェクト検出方法、検出装置及び電子機器 Download PDFInfo
- Publication number
- JP2020135866A JP2020135866A JP2020005616A JP2020005616A JP2020135866A JP 2020135866 A JP2020135866 A JP 2020135866A JP 2020005616 A JP2020005616 A JP 2020005616A JP 2020005616 A JP2020005616 A JP 2020005616A JP 2020135866 A JP2020135866 A JP 2020135866A
- Authority
- JP
- Japan
- Prior art keywords
- image
- processing unit
- mapping
- inverse mapping
- objects
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 53
- 238000013507 mapping Methods 0.000 claims abstract description 157
- 238000012545 processing Methods 0.000 claims abstract description 69
- 238000000034 method Methods 0.000 claims abstract description 56
- 230000000007 visual effect Effects 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 4
- PCTMTFRHKVHKIS-BMFZQQSSSA-N (1s,3r,4e,6e,8e,10e,12e,14e,16e,18s,19r,20r,21s,25r,27r,30r,31r,33s,35r,37s,38r)-3-[(2r,3s,4s,5s,6r)-4-amino-3,5-dihydroxy-6-methyloxan-2-yl]oxy-19,25,27,30,31,33,35,37-octahydroxy-18,20,21-trimethyl-23-oxo-22,39-dioxabicyclo[33.3.1]nonatriaconta-4,6,8,10 Chemical compound C1C=C2C[C@@H](OS(O)(=O)=O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H]([C@H](C)CCCC(C)C)[C@@]1(C)CC2.O[C@H]1[C@@H](N)[C@H](O)[C@@H](C)O[C@H]1O[C@H]1/C=C/C=C/C=C/C=C/C=C/C=C/C=C/[C@H](C)[C@@H](O)[C@@H](C)[C@H](C)OC(=O)C[C@H](O)C[C@H](O)CC[C@@H](O)[C@H](O)C[C@H](O)C[C@](O)(C[C@H](O)[C@H]2C(O)=O)O[C@H]2C1 PCTMTFRHKVHKIS-BMFZQQSSSA-N 0.000 description 3
- 101150045555 Bbox1 gene Proteins 0.000 description 3
- 230000000877 morphologic effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 101150025733 pub2 gene Proteins 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/12—Panospheric to cylindrical image transformations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
- G06T3/047—Fisheye or wide-angle transformations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/08—Projecting images onto non-planar surfaces, e.g. geodetic screens
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/147—Details of sensors, e.g. sensor lenses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/10—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
- B60R2300/102—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using 360 degree surveillance camera system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Vascular Medicine (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
Abstract
【解決手段】該装置は、魚眼カメラが撮影したオリジナル画像を円柱面又は球面投影モデルに投影し、逆マッピングを行い、少なくとも2つの逆マッピング画像を取得し、前記少なくとも2つの逆マッピング画像の視角が異なる方向に面する第一処理ユニット;各逆マッピング画像におけるオブジェクトをそれぞれ検出する第二処理ユニット;及び、各逆マッピング画像から検出されたオブジェクトのうちの同一のオブジェクトを検出する第三処理ユニットを含む。
【選択図】図1
Description
魚眼カメラが撮影したオリジナル画像を円柱面又は球面投影モデルに投影し、逆マッピング(reverse mapping)を行い、少なくとも2つの逆マッピング画像を取得し、前記少なくとも2つの逆マッピング画像の視角が異なる方向に面する第一処理ユニット;
各逆マッピング画像におけるオブジェクトをそれぞれ検出する第二処理ユニット;及び
各逆マッピング画像から検出されたオブジェクトのうちの同一のオブジェクトを検出する第三処理ユニットを含む。
魚眼カメラが撮影したオリジナル画像を円柱面又は球面投影モデルに投影し、逆マッピング(reverse mapping)を行い、少なくとも2つの逆マッピング画像を取得し、前記少なくとも2つの逆マッピング画像の視角が異なる方向に面し;
各逆マッピング画像におけるオブジェクトをそれぞれ検出し;及び
各逆マッピング画像から検出されたオブジェクトのうちの同一のオブジェクトを検出することを含む。
ステップ102:各逆マッピング画像におけるオブジェクトをそれぞれ検出し;及び
ステップ103:各逆マッピング画像から検出されたオブジェクトが同一のオブジェクトであるかを判断する。
ステップ502:所定の閾値に基づいて、前景に対して閾値化処理を行い、二値化画像を取得し、例えば、前景における画素値が閾値以上の画素を白色画素とし、前景における画素値が閾値よりも小さい画素を黒色画素とすることで、二値化画像を得ることができ;
ステップ503:二値化画像に対して形態学的処理(morphological processing)を行い、二値化画像における画素数が比較的少ない領域を除去することで、少なくとも1つの画素集合(blob)を得ることができ;
ステップ504:形態学的処理後の二値化画像に対して接続領域合併処理(connected domain processing)を行うことで、隣接する画素集合を比較的大きい画素集合として合併することができ;
ステップ505:接続領域合併処理の結果に基づいて、ブロブ(blob)のクラスタリング(clustering)を行い、例えば、中心距離が所定の閾値よりも小さい画素集合を1つの画素クラスタとしてクラスタリングし、そのうち、1つの画素クラスタを、検出された1つのオブジェクトとし;
ステップ506:分類器により逆マッピング画像におけるオブジェクトを検出し、そのうち、該分類器は、オブジェクトに基づく訓練により得られた分類器であっても良く、例えば、該分類器は、車両の画像に基づいて訓練することにより得られた分類器であっても良く、これにより、逆マッピング画像から車両を検出することができ、該分類器は、例えば、HOG(Histogram of Oriented Gradient)特徴に基づいて検出を行うことができ;
ステップ507:ステップ505で検出されたオブジェクト及びステップ506で検出されたオブジェクトの融合を行うことで、最終のオブジェクト検出結果を取得し、そのうち、融合は、例えば、ステップ505で検出されたオブジェクト1の輪郭フレームBbox1と、ステップ506で検出されたオブジェクト2の輪郭フレームBbox2とを比較し、Bbox1とBbox2との両者のIoU(Intersection-over-Union)が所定の閾値Tmergeよりも大きいときに、該オブジェクト1を最終のオブジェクトとして確定し、そうでないときに、該オブジェクト1を最終のオブジェクトとして確定しない。
ステップ602:前記マッピング後の各輪郭フレームの重畳度を検出し、前記重畳度が第一閾値よりも大きいときに、前記オブジェクトが同一のオブジェクトであると判断する。
ステップ702:オリジナル画像のサイズを調整して円柱面投影モデルに投影し;
ステップ703:第一値よりも小さいオフセット量を設定し、逆マッピングを行い、第一逆マッピング画像、例えば、図4の(b)を取得し;
ステップ704:第一値よりも大きいオフセット量を設定し、逆マッピングを行い、第二逆マッピング画像、例えば、図4の(c)を取得し;
ステップ705:第一逆マッピング画像におけるオブジェクトを検出し;
ステップ706:第二逆マッピング画像におけるオブジェクトを検出し;
ステップ707:第i個目のオブジェクトが領域Spublic1にあるか、即ち、Fi Spublic1が1であるかを判断し、「はい」と判断された場合”、ステップ708に進み、「いいえ」と判断された場合、ステップ709に進み;
ステップ708:boxi Spub1をオリジナル画像にマッピングし、boxi Spub1′を取得し;
ステップ709:第i個目のオブジェクトの速度を計算し;
ステップ710:第j個目のオブジェクトが領域Spublic2にあるか、即ち、Fj Spublic2が1であるかを判断し、「はい」と判断された場合、ステップ711に進み、「いいえ」と判断された場合、ステップ712に進み;
ステップ711:boxj pub2をオリジナル画像にマッピングし、boxj pub2′を取得し;
ステップ712:第j個目のオブジェクトの速度を計算し;
ステップ713:boxi Spub1′とboxj Spub2′とのIoUが閾値Tmatchよりも大きいか、即ち、Fboxi Spub1及びFboxj Spub2がすべて1であるかを判断し、「はい」と判断された場合、ステップ714に進み;
ステップ714:該オブジェクトの移動方向が正方向であるかを判断し、「はい」と判断された場合、ステップ715に進み、「いいえ」と判断された場合、ステップ716に進み;
ステップ715:Fboxj Spub2を0に設定し、ステップ706に戻り;
ステップ716:Fboxi Spub1を0に設定し、ステップ705に戻る。
第二処理ユニット802:各逆マッピング画像におけるオブジェクトをそれぞれ検出し;及び
第三処理ユニット803:各逆マッピング画像から検出されたオブジェクトのうちの同一のオブジェクトを検出する。
第五処理ユニット902:前記マッピング後の各輪郭フレームの重畳度を検出し、前記重畳度が第一閾値よりも大きいときに、前記オブジェクトが同一のオブジェクトであると判断する。
第八処理ユニット1002:それぞれ各逆マッピング画像に基づいて計算された該オブジェクトの各移動速度の差に基づいて、オブジェクトの移動状態を検出する。
魚眼カメラが撮影した画像に基づいて、オブジェクト検出を行う装置であって、
魚眼カメラが撮影したオリジナル画像を円柱面又は球面投影モデルに投影し、逆マッピング(reverse mapping)を行い、少なくとも2つの逆マッピング画像を取得する第一処理ユニットであって、前記少なくとも2つの逆マッピング画像の視角が異なる方向に面する第一処理ユニット;
各逆マッピング画像におけるオブジェクトをそれぞれ検出する第二処理ユニット;及び
各逆マッピング画像から検出されたオブジェクトのうちの同一のオブジェクトを検出する第三処理ユニットを含む、装置。
付記1に記載の装置であって、
前記第一処理ユニットが前記逆マッピングを行うときに、前記オリジナル画像の幅及び/又は高さに関するオフセット量(offset)をそれぞれ第一値よりも大きく及び前記第一値よりも小さく設定し、2つの逆マッピング画像を取得し、
前記オフセット量(offset)が第一値に等しいときに、前記視角は、前記オリジナル画像の幅及び/又は高さの中心に面する、装置。
付記1に記載の装置であって、
前記第二処理ユニットは、前景及び背景に基づいて検出を行い、及び/又は、分類器に基づいて検出を行う、装置。
付記1に記載の装置であって、
第三処理ユニットは、
各逆マッピング画像の重畳領域にすべて存在するオブジェクトについて、前記オブジェクトの各逆マッピング画像の重畳領域における輪郭フレームを前記オリジナル画像にマッピングし、マッピング後の各輪郭フレームを得る第四処理ユニット;及び
前記マッピング後の各輪郭フレームの重畳度を検出し、前記重畳度が第一閾値よりも大きいときに、前記オブジェクトが同一のオブジェクトであると判断する第五処理ユニットを含む、装置。
付記1に記載の装置であって、
第三処理ユニットの検出の結果に基づいて、オブジェクトの移動状態の検出を行う第六処理ユニットをさらに含む、装置。
付記5に記載の装置であって、
前記第六処理ユニットは、
各逆マッピング画像から検出されたオブジェクトが同一のオブジェクトであると判断された場合、それぞれ各逆マッピング画像に基づいて該オブジェクトの移動速度を計算する第七処理ユニット;及び
それぞれ各逆マッピング画像に基づいて計算された該オブジェクトの各移動速度の差に基づいて、オブジェクトの移動状態を検出する第八処理ユニットを含む、装置。
付記1〜6のうちの任意の一項に記載の装置を含む、電子機器。
魚眼カメラが撮影した画像に基づいて、オブジェクト検出を行う方法であって、
魚眼カメラが撮影したオリジナル画像を円柱面又は球面投影モデルに投影し、逆マッピング(reverse mapping)を行い、少なくとも2つの逆マッピング画像を取得し、前記少なくとも2つの逆マッピング画像の視角が異なる方向に面し;
各逆マッピング画像におけるオブジェクトをそれぞれ検出し;及び
各逆マッピング画像から検出されたオブジェクトのうちの同一のオブジェクトを検出するステップを含む、方法。
付記8に記載の方法であって、
前記逆マッピングを行うときに、前記オリジナル画像の幅及び/又は高さに関するオフセット量(offset)をそれぞれ第一値よりも大きく及び前記第一値よりも小さく設定することで、2つの逆マッピング画像を取得し、
前記オフセット量(offset)が第一値に等しいときに、前記視角は、前記オリジナル画像の幅及び/又は高さの中心に面する、方法。
付記8に記載の方法であって、
各逆マッピング画像におけるオブジェクトの検出は、
前景及び背景に基づいて検出を行い、及び/又は、分類器に基づいて検出を行うことを含む、方法。
付記8に記載の方法であって、
各逆マッピング画像から検出されたオブジェクトのうちの同一のオブジェクトの検出は、
各逆マッピング画像の重畳領域にすべて存在するオブジェクトについて、前記オブジェクトの各逆マッピング画像の重畳領域における輪郭フレームを前記オリジナル画像にマッピングし、マッピング後の各輪郭フレームを取得し;及び
前記マッピング後の各輪郭フレームの重畳度を検出し、前記重畳度が第一閾値よりも大きいときに、前記オブジェクトが同一のオブジェクトであると判断することを含む、方法。
付記8に記載の方法であって、
前記検出の結果に基づいて、オブジェクトの移動状態の検出をさらに含む、方法。
付記12に記載の方法であって、
オブジェクトの移動状態の検出は、
各逆マッピング画像から検出されたオブジェクトが同一のオブジェクトであると判断された場合、それぞれ各逆マッピング画像に基づいて該オブジェクトの移動速度を計算し;及び
それぞれ各逆マッピング画像に基づいて計算された該オブジェクトの各移動速度の差に基づいて、オブジェクトの移動状態を検出することを含む、方法。
Claims (13)
- 魚眼カメラが撮影した画像に基づいて、オブジェクト検出を行う装置であって、
魚眼カメラが撮影したオリジナル画像を円柱面又は球面投影モデルに投影し、逆マッピング(reverse mapping)を行い、少なくとも2つの逆マッピング画像を取得する第一処理ユニットであって、前記少なくとも2つの逆マッピング画像の視角が異なる方向に面する第一処理ユニット;
各逆マッピング画像におけるオブジェクトをそれぞれ検出する第二処理ユニット;及び
各逆マッピング画像から検出されたオブジェクトのうちの同一のオブジェクトを検出する第三処理ユニットを含む、装置。 - 請求項1に記載の装置であって、
前記第一処理ユニットが前記逆マッピングを行うときに、前記オリジナル画像の幅及び/又は高さに関するオフセット量(offset)をそれぞれ第一値よりも大きく及び前記第一値よりも小さく設定し、2つの逆マッピング画像を取得し、
前記オフセット量(offset)が第一値に等しいときに、前記視角は、前記オリジナル画像の幅及び/又は高さの中心に面する、装置。 - 請求項1に記載の装置であって、
前記第二処理ユニットは、前景及び背景に基づいて検出を行い、及び/又は、分類器に基づいて検出を行う、装置。 - 請求項1に記載の装置であって、
第三処理ユニットは、
各逆マッピング画像の重畳領域にすべて存在するオブジェクトについて、前記オブジェクトの各逆マッピング画像の重畳領域における輪郭フレームを前記オリジナル画像にマッピングし、マッピング後の各輪郭フレームを得る第四処理ユニット;及び
前記マッピング後の各輪郭フレームの重畳度を検出し、前記重畳度が第一閾値よりも大きいときに、前記オブジェクトが同一のオブジェクトであると判断する第五処理ユニットを含む、装置。 - 請求項1に記載の装置であって、
第三処理ユニットの検出の結果に基づいて、オブジェクトの移動状態の検出を行う第六処理ユニットをさらに含む、装置。 - 請求項5に記載の装置であって、
前記第六処理ユニットは、
各逆マッピング画像から検出されたオブジェクトが同一のオブジェクトであると判断された場合、それぞれ各逆マッピング画像に基づいて該オブジェクトの移動速度を計算する第七処理ユニット;及び
それぞれ各逆マッピング画像に基づいて計算された該オブジェクトの各移動速度の差に基づいて、オブジェクトの移動状態を検出する第八処理ユニットを含む、装置。 - 請求項1〜6のうちの任意の一項に記載の装置を含む、電子機器。
- 魚眼カメラが撮影した画像に基づいて、オブジェクト検出を行う方法であって、
魚眼カメラが撮影したオリジナル画像を円柱面又は球面投影モデルに投影し、逆マッピング(reverse mapping)を行い、少なくとも2つの逆マッピング画像を取得し、前記少なくとも2つの逆マッピング画像の視角が異なる方向に面し;
各逆マッピング画像におけるオブジェクトをそれぞれ検出し;及び
各逆マッピング画像から検出されたオブジェクトのうちの同一のオブジェクトを検出するステップを含む、方法。 - 請求項8に記載の方法であって、
前記逆マッピングを行うときに、前記オリジナル画像の幅及び/又は高さに関するオフセット量(offset)をそれぞれ第一値よりも大きく及び前記第一値よりも小さく設定し、2つの逆マッピング画像を取得し、
前記オフセット量(offset)が第一値に等しいときに、前記視角は、前記オリジナル画像の幅及び/又は高さの中心に面する、方法。 - 請求項8に記載の方法であって、
各逆マッピング画像におけるオブジェクトの検出は、
前景及び背景に基づいて検出を行い、及び/又は、分類器に基づいて検出を行うことを含む、方法。 - 請求項8に記載の方法であって、
各逆マッピング画像から検出されたオブジェクトのうちの同一のオブジェクトの検出は、
各逆マッピング画像の重畳領域にすべて存在するオブジェクトについて、前記オブジェクトの各逆マッピング画像の重畳領域における輪郭フレームを前記オリジナル画像にマッピングし、マッピング後の各輪郭フレームを取得し;及び
前記マッピング後の各輪郭フレームの重畳度を検出し、前記重畳度が第一閾値よりも大きいときに、前記オブジェクトが同一のオブジェクトであると判断することを含む、方法。 - 請求項8に記載の方法であって、
前記検出の結果に基づいて、オブジェクトの移動状態の検出をさらに含む、方法。 - 請求項12に記載の方法であって、
オブジェクトの移動状態の検出は、
各逆マッピング画像から検出されたオブジェクトが同一のオブジェクトであると判断された場合、それぞれ各逆マッピング画像に基づいて該オブジェクトの移動速度を計算し;及び
それぞれ各逆マッピング画像に基づいて計算された該オブジェクトの各移動速度の差に基づいて、オブジェクトの移動状態を検出することを含む、方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910132115.9 | 2019-02-22 | ||
CN201910132115.9A CN111612812B (zh) | 2019-02-22 | 2019-02-22 | 目标物检测方法、检测装置和电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020135866A true JP2020135866A (ja) | 2020-08-31 |
JP7363504B2 JP7363504B2 (ja) | 2023-10-18 |
Family
ID=72141264
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020005616A Active JP7363504B2 (ja) | 2019-02-22 | 2020-01-17 | オブジェクト検出方法、検出装置及び電子機器 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11398009B2 (ja) |
JP (1) | JP7363504B2 (ja) |
CN (1) | CN111612812B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022102371A1 (ja) * | 2020-11-16 | 2022-05-19 | 株式会社デンソー | 物体検出装置、物体検出方法 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116416166B (zh) * | 2023-06-12 | 2023-08-04 | 贵州省人民医院 | 一种肝活检数据分析方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012175207A (ja) * | 2011-02-18 | 2012-09-10 | Panasonic Corp | 画像処理装置、画像処理方法、及びコンピュータプログラム |
WO2018235300A1 (ja) * | 2017-06-23 | 2018-12-27 | 日本電気株式会社 | 物体検知装置、物体検知方法、及びコンピュータ読み取り可能な記録媒体 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5687249A (en) * | 1993-09-06 | 1997-11-11 | Nippon Telephone And Telegraph | Method and apparatus for extracting features of moving objects |
KR100790890B1 (ko) | 2006-09-27 | 2008-01-02 | 삼성전자주식회사 | 파노라마 영상 생성장치 및 방법 |
US20110216157A1 (en) * | 2010-03-05 | 2011-09-08 | Tessera Technologies Ireland Limited | Object Detection and Rendering for Wide Field of View (WFOV) Image Acquisition Systems |
JP5569329B2 (ja) * | 2010-10-15 | 2014-08-13 | 大日本印刷株式会社 | 会議システム、監視システム、画像処理装置、画像処理方法及び画像処理プログラム等 |
JP2014119427A (ja) * | 2012-12-19 | 2014-06-30 | Fujitsu Semiconductor Ltd | スポット探索装置、スポット探索方法 |
US9437001B2 (en) * | 2014-09-18 | 2016-09-06 | Intel Corporation | Tracking objects in bowl-shaped imaging systems |
CN104318206B (zh) * | 2014-09-30 | 2017-09-29 | 东软集团股份有限公司 | 一种障碍物检测方法和装置 |
JP6454554B2 (ja) * | 2015-01-20 | 2019-01-16 | クラリオン株式会社 | 車両用外界認識装置およびそれを用いた車両挙動制御装置 |
CN104636724B (zh) | 2015-02-02 | 2018-09-04 | 华中科技大学 | 一种基于目标一致性的车载相机快速行人车辆检测方法 |
US9942475B2 (en) * | 2015-07-24 | 2018-04-10 | Robert Bosch Gmbh | Real cross traffic—quick looks |
KR101697211B1 (ko) | 2016-02-01 | 2017-01-17 | 성균관대학교산학협력단 | 영상 인식 장치, 인터랙션과 영상 인식 기반의 주차 공간 정보 제공 방법과 시스템 |
JP2017208619A (ja) * | 2016-05-16 | 2017-11-24 | 株式会社リコー | 画像処理装置、画像処理方法、プログラム及び撮像システム |
WO2017217411A1 (ja) * | 2016-06-17 | 2017-12-21 | 日本電気株式会社 | 画像処理装置、画像処理方法、及び記憶媒体 |
CN106683045A (zh) * | 2016-09-28 | 2017-05-17 | 深圳市优象计算技术有限公司 | 一种基于双目像机的全景图像拼接方法 |
CN106683139B (zh) * | 2017-02-20 | 2023-09-26 | 南京航空航天大学 | 基于遗传算法的鱼眼相机标定系统及其图像畸变矫正方法 |
US10958942B2 (en) * | 2017-02-27 | 2021-03-23 | Koninklijke Kpn N.V. | Processing spherical video data |
CN108629732B (zh) * | 2017-03-15 | 2021-05-14 | 比亚迪股份有限公司 | 车辆环视全景图像生成方法、装置和车辆 |
US11044463B2 (en) * | 2017-06-27 | 2021-06-22 | Sony Corporation | Image processing device and image processing method |
CN107154152A (zh) | 2017-06-30 | 2017-09-12 | 深圳信路通智能技术有限公司 | 视频桩设备及停车管理方法 |
CN108111818B (zh) * | 2017-12-25 | 2019-05-03 | 北京航空航天大学 | 基于多摄像机协同的运动目标主动感知方法和装置 |
JP6688277B2 (ja) * | 2017-12-27 | 2020-04-28 | 本田技研工業株式会社 | プログラム、学習処理方法、学習モデル、データ構造、学習装置、および物体認識装置 |
CN109308686B (zh) * | 2018-08-16 | 2022-06-24 | 北京市商汤科技开发有限公司 | 一种鱼眼图像处理方法及装置、设备和存储介质 |
-
2019
- 2019-02-22 CN CN201910132115.9A patent/CN111612812B/zh active Active
-
2020
- 2020-01-17 JP JP2020005616A patent/JP7363504B2/ja active Active
- 2020-01-23 US US16/750,805 patent/US11398009B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012175207A (ja) * | 2011-02-18 | 2012-09-10 | Panasonic Corp | 画像処理装置、画像処理方法、及びコンピュータプログラム |
WO2018235300A1 (ja) * | 2017-06-23 | 2018-12-27 | 日本電気株式会社 | 物体検知装置、物体検知方法、及びコンピュータ読み取り可能な記録媒体 |
Non-Patent Citations (3)
Title |
---|
井上 慶彦: "全方位カメラを用いた物体検出とトラッキング 視覚障害者支援システムの実現に向けて", 情報処理学会 研究報告 コンピュータビジョンとイメージメディア(CVIM), vol. Vol.2018-CVIM-212 No.20, JPN6023028761, 3 May 2018 (2018-05-03), JP, pages 1 - 6, ISSN: 0005108364 * |
川崎 敦史: "全方位カメラ映像からの人物動線の追跡", SSII2014 第20回画像センシングシンポジウム 講演論文集 [CD−ROM], vol. IS3-03, JPN6023028759, 11 June 2014 (2014-06-11), JP, pages 3 - 03, ISSN: 0005108366 * |
関 海克: "魚眼カメラによる職場作業者認識および位置測定", SSII2018 THE 24TH SYMPOSIUM ON SENSING VIA IMAGE I, vol. IS2-35 SO2-IS2-35, JPN6023028760, 2018, JP, pages 5, ISSN: 0005108365 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022102371A1 (ja) * | 2020-11-16 | 2022-05-19 | 株式会社デンソー | 物体検出装置、物体検出方法 |
JPWO2022102371A1 (ja) * | 2020-11-16 | 2022-05-19 |
Also Published As
Publication number | Publication date |
---|---|
CN111612812A (zh) | 2020-09-01 |
CN111612812B (zh) | 2023-11-03 |
US20200273145A1 (en) | 2020-08-27 |
JP7363504B2 (ja) | 2023-10-18 |
US11398009B2 (en) | 2022-07-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021004312A1 (zh) | 一种基于双目立体视觉系统的车辆智能测轨迹方法 | |
JP2008186246A (ja) | 移動物体認識装置 | |
US10909719B2 (en) | Image processing method and apparatus | |
TWI332453B (en) | The asynchronous photography automobile-detecting apparatus and method thereof | |
GB2593335A (en) | Method and apparatus for 3-D auto tagging | |
WO2020154990A1 (zh) | 目标物体运动状态检测方法、设备及存储介质 | |
JP7091485B2 (ja) | 運動物体検出およびスマート運転制御方法、装置、媒体、並びに機器 | |
CN109741241B (zh) | 鱼眼图像的处理方法、装置、设备和存储介质 | |
Kocur et al. | Detection of 3D bounding boxes of vehicles using perspective transformation for accurate speed measurement | |
EP3623993A1 (en) | Method and device of multi-focal sensing of an obstacle and non-volatile computer-readable storage medium | |
CN107972585A (zh) | 结合雷达信息的自适应3d环视场景重建系统与方法 | |
WO2020156923A2 (en) | Map and method for creating a map | |
US20220301277A1 (en) | Target detection method, terminal device, and medium | |
JP7363504B2 (ja) | オブジェクト検出方法、検出装置及び電子機器 | |
KR101699014B1 (ko) | 스테레오 카메라를 이용한 객체 검출 방법 및 장치 | |
Mariotti et al. | Spherical formulation of geometric motion segmentation constraints in fisheye cameras | |
Geiger et al. | Object flow: A descriptor for classifying traffic motion | |
Kinzig et al. | Real-time seamless image stitching in autonomous driving | |
CN110197104B (zh) | 基于车辆的测距方法及装置 | |
Ramirez et al. | Panoramic stitching for driver assistance and applications to motion saliency-based risk analysis | |
Simond et al. | Obstacle detection from ipm and super-homography | |
Yang | Estimation of vehicle's lateral position via the Lucas-Kanade optical flow method | |
KR102003387B1 (ko) | 조감도 이미지를 이용한 교통 장애물의 검출 및 거리 측정 방법, 교통 장애물을 검출하고 거리를 측정하는 프로그램을 저장한 컴퓨터 판독가능 기록매체 | |
CN114648639B (zh) | 一种目标车辆的检测方法、系统及装置 | |
CN110738696A (zh) | 行车盲区透视视频的生成方法及行车盲区视野透视系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220908 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230710 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230718 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230824 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230905 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230918 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7363504 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |