JP2015176563A - Object detector - Google Patents

Object detector Download PDF

Info

Publication number
JP2015176563A
JP2015176563A JP2014054831A JP2014054831A JP2015176563A JP 2015176563 A JP2015176563 A JP 2015176563A JP 2014054831 A JP2014054831 A JP 2014054831A JP 2014054831 A JP2014054831 A JP 2014054831A JP 2015176563 A JP2015176563 A JP 2015176563A
Authority
JP
Japan
Prior art keywords
image
model
distortion
feature amount
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014054831A
Other languages
Japanese (ja)
Other versions
JP6156212B2 (en
Inventor
幹郎 清水
Mikiro Shimizu
幹郎 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2014054831A priority Critical patent/JP6156212B2/en
Publication of JP2015176563A publication Critical patent/JP2015176563A/en
Application granted granted Critical
Publication of JP6156212B2 publication Critical patent/JP6156212B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique capable of reducing the processing load to object detection using a distorted image while improving detection accuracy.SOLUTION: Target model storage means (20) stores a target model prepared for each detection target object. Image acquisition means (S110) acquires an image having a distortion. Feature extraction means (S120 to S130) extracts an image feature amount that is a feature amount of each unit region clipped from the image on the basis of the image acquired by the image acquisition means. Model adjustment means (S160) defines search points set in a three-dimensional space that is an imaging target space for the image as projected search points, and adjusts the target model in response to a degree of the image distortion determined for each projected search point. Object detection means (S170) detects an object corresponding to the target model by evaluating the similarity between the image feature amount extracted by the feature extraction means and an adjustment model that is the target model adjusted by the model adjustment means.

Description

本発明は、歪みのある画像から物体を検出する技術に関する。   The present invention relates to a technique for detecting an object from a distorted image.

従来、車両の周囲を撮像した画像から対象物モデルを用いて物体検出し、その検出結果を運転支援等の制御に利用することが行われている。その際、検出範囲を広げるために、画角の広い魚眼カメラを用いることも考えられている。但し、魚眼カメラで撮像した画像は歪んでいるため、通常のカメラから得られる歪みのない画像を前提とした物体検出技術をそのまま適用すると、物体の検出精度が低下する。   2. Description of the Related Art Conventionally, an object is detected using an object model from an image captured around a vehicle, and the detection result is used for control such as driving assistance. At that time, in order to widen the detection range, it is also considered to use a fisheye camera with a wide angle of view. However, since the image picked up by the fisheye camera is distorted, if the object detection technique based on an image without distortion obtained from a normal camera is applied as it is, the detection accuracy of the object is lowered.

これに対して、歪んだ画像に対して歪み補正処理を施し、その補正後の画像を用いて物体検出を行う従来技術が知られている。この従来技術では、歪み画像を補正する際に、補正式が比較的単純になる真上視点での変換式と、真上視点への変換式に分解することで、計算式を高速化することも提案されている(特許文献1参照)。   On the other hand, a conventional technique is known in which distortion correction processing is performed on a distorted image and object detection is performed using the corrected image. In this conventional technology, when correcting a distorted image, the calculation formula can be speeded up by decomposing the correction formula into a conversion formula for the overhead view, which makes the correction formula relatively simple, and a conversion formula for the overhead view. Has also been proposed (see Patent Document 1).

特許第4243767号公報Japanese Patent No. 4243767

ところで、歪み補正処理では、歪みを補正するための計算を、補正後の画像の画素毎に行う必要がある。例えば、通常の車載カメラで用いられている解像度の画像は、例えば、QVGAでは約8万画素を有するため、この全ての画素について補正処理を施すには、膨大な計算が必要となる。特に、計算能力が乏しい車載マイコンでは、負荷が過大となってしまうため、このような手法を適用することは困難であるという問題があった。   By the way, in distortion correction processing, it is necessary to perform calculation for correcting distortion for each pixel of the corrected image. For example, an image with a resolution used in a normal in-vehicle camera has, for example, about 80,000 pixels in QVGA, and enormous calculation is required to perform correction processing on all the pixels. In particular, an in-vehicle microcomputer with poor calculation capability has a problem that it is difficult to apply such a method because the load becomes excessive.

また、特許文献1に記載の歪み補正処理では、歪みの大きい周辺部では、適切な補正がなされないため、認識精度が低下するという問題もあった。
本発明は、こうした問題に鑑みてなされたものであり、歪み画像を用いた物体検出の処理負荷を軽減し且つ検出精度を向上させる技術を提供することを目的とする。
Further, the distortion correction process described in Patent Document 1 has a problem in that recognition accuracy is lowered because appropriate correction is not performed in a peripheral portion where distortion is large.
The present invention has been made in view of these problems, and an object of the present invention is to provide a technique for reducing the processing load of object detection using a distorted image and improving the detection accuracy.

本発明の物体検出装置は、対象モデル記憶手段と、画像取得手段と、特徴抽出手段と、モデル調整手段と、物体検出手段とを備える。対象モデル記憶手段は、検出対象となる物体毎に用意され、それぞれが物体の一部に対応した複数のパートを有し、パート間の相対的な位置関係を表す各パートの基準位置および各パートの特徴を表す特徴量であるパート特徴量が定義された対象物モデルを記憶する。画像取得手段は、歪みを有する画像を取得する。特徴抽出手段は、画像取得手段によって取得された画像に基づき、画像から切り出した単位領域毎に、該単位領域の特徴量である画像特徴量を抽出する。モデル調整手段は、画像の撮像対象となる三次元空間に設定された探索点を画像面に投影した点を投影探索点とし、該投影探索点毎に求めた画像歪みの程度に応じて対象モデルを調整する。物体検出手段は、特徴抽出手段にて抽出された画像特徴量と、モデル調整手段にて調整された対象物モデルである調整モデルとの類似度を評価することで、対象物モデルに対応づけられた物体を検出する。   The object detection apparatus of the present invention includes a target model storage unit, an image acquisition unit, a feature extraction unit, a model adjustment unit, and an object detection unit. The target model storage means is prepared for each object to be detected, each of which has a plurality of parts corresponding to a part of the object, and represents the relative position relationship between the parts. The target object model in which the part feature quantity that is the feature quantity representing the feature of the object is defined is stored. The image acquisition means acquires an image having distortion. The feature extraction unit extracts, based on the image acquired by the image acquisition unit, an image feature amount, which is a feature amount of the unit region, for each unit region cut out from the image. The model adjustment means uses a point obtained by projecting a search point set in the three-dimensional space to be imaged on the image plane as a projection search point, and an object model according to the degree of image distortion obtained for each projection search point. Adjust. The object detection means is associated with the object model by evaluating the similarity between the image feature amount extracted by the feature extraction means and the adjustment model that is the object model adjusted by the model adjustment means. Detects an object.

このように本発明によれば、画像の歪みを補正するのではなく、対象物モデルの方を、これを適用する投影探索点での画像の歪みに応じて調整しているため、物体検出の処理負荷を軽減することができると共に、歪み画像を用いた物体検出の検出精度を向上させることができる。   As described above, according to the present invention, the object model is adjusted according to the image distortion at the projection search point to which the object model is applied instead of correcting the image distortion. The processing load can be reduced, and the detection accuracy of object detection using a distorted image can be improved.

なお、特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。   In addition, the code | symbol in the parenthesis described in the claim shows the correspondence with the specific means as described in embodiment mentioned later as one aspect, Comprising: The technical scope of this invention is limited is not.

また、本発明は、前述した物体検出装置の他、当該物体検出装置を構成要素とする各種システム、当該物体検出装置としてコンピュータを機能させるためのプログラム、物体検出方法など、種々の形態で実現することができる。   In addition to the object detection device described above, the present invention is realized in various forms such as various systems including the object detection device as components, a program for causing a computer to function as the object detection device, and an object detection method. be able to.

運転支援システムの全体構成を示すブロック図である。It is a block diagram which shows the whole structure of a driving assistance system. 対象物モデルの構成を示す説明図である。It is explanatory drawing which shows the structure of a target object model. セルブロックおよびセルの形状を示す説明図である。It is explanatory drawing which shows the shape of a cell block and a cell. セルブロックを構成するセルの回転対称性を示す説明図である。It is explanatory drawing which shows the rotational symmetry of the cell which comprises a cell block. 輝度勾配ヒストグラムの説明図であり、(a)がビンと勾配方向との対応関係を示す図、(b)は輝度勾配ヒストグラムの一例を示す図である。It is explanatory drawing of a brightness | luminance gradient histogram, (a) is a figure which shows the correspondence of a bin and a gradient direction, (b) is a figure which shows an example of a brightness | luminance gradient histogram. 対象物識別部のCPUが実行する識別対象判定処理の内容を示すフローチャートである。It is a flowchart which shows the content of the identification target determination process which CPU of a target object identification part performs. 探索点の設定例を示す説明図である。It is explanatory drawing which shows the example of a setting of a search point. 識別対象判定処理中で実行するモデル調整処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the model adjustment process performed in the identification target determination process. 魚眼カメラモデルによる画像平面への投影のされ方を示す説明図である。It is explanatory drawing which shows how to project on the image plane by a fisheye camera model. 対象物モデルの調整に使用するパートシフト量およびパート回転量の算出方法を示す説明図である。It is explanatory drawing which shows the calculation method of the part shift amount and part rotation amount which are used for adjustment of a target object model. セルブロックの回転と輝度勾配ヒストグラムのビン番号の配列との関係を示す説明図である。It is explanatory drawing which shows the relationship between rotation of a cell block and the arrangement | sequence of the bin number of a brightness | luminance gradient histogram. パート特徴量の調整に使用する対応テーブルの内容を例示した表である。It is the table | surface which illustrated the content of the corresponding | compatible table used for adjustment of part feature-value. 対象物モデルを調整することによる効果を示す説明図である。It is explanatory drawing which shows the effect by adjusting a target object model. セルブロックが矩形である場合の問題を示す説明図である。It is explanatory drawing which shows the problem in case a cell block is a rectangle.

以下に本発明が適用された実施形態について、図面を用いて説明する。
[全体構成]
本発明が適用された運転支援システム1は、図1に示す様に、自車両の前方を撮像する撮像装置2と、撮像装置2が取得した画像(以下、入力画像という)に従い、自車両の前方に存在し識別対象となる物体(以下、対象物という)を検出する処理を行う画像処理部3と、画像処理部3での処理結果に従い、各種車載器を制御して所定の運転支援を実行する運転支援実行部4とを備える。
Embodiments to which the present invention is applied will be described below with reference to the drawings.
[overall structure]
As shown in FIG. 1, a driving support system 1 to which the present invention is applied includes an imaging device 2 that images the front of the host vehicle and an image acquired by the imaging device 2 (hereinafter referred to as an input image). An image processing unit 3 that performs processing for detecting an object that is present ahead and is an identification target (hereinafter, referred to as a target), and controls various vehicle-mounted devices according to the processing result in the image processing unit 3 to provide predetermined driving assistance. And a driving support execution unit 4 to be executed.

このうち、撮像装置2は、車両前後のパンパーやサイドミラーの近傍等の車両ボデーに配置された魚眼カメラからなる。従って、撮像装置2から画像処理部3への入力画像は、全体的に歪みを含んだもの(図13参照)となる。また、運転支援実行部4の制御対象となる車載機器には、各種画像を表示するモニタ41や、警報音や案内音声を出力するスピーカ42が少なくとも含まれている。   Among these, the imaging device 2 is composed of a fish-eye camera disposed on a vehicle body such as the vicinity of a front and rear bumpers and side mirrors. Therefore, the input image from the imaging device 2 to the image processing unit 3 is entirely distorted (see FIG. 13). In addition, the in-vehicle device to be controlled by the driving support execution unit 4 includes at least a monitor 41 that displays various images and a speaker 42 that outputs alarm sound and guidance sound.

画像処理部3は、対象物を入力画像から識別する対象物識別部10と、対象物識別部10での処理に使用され、対象物のそれぞれについて用意された対象物モデルや対象物モデルの調整に使用する対応テーブルなどを記憶する識別情報記憶部20と、対象物識別部10での処理結果を、車内LANによって接続されている各種車載器に供給する通信部30とを備える。   The image processing unit 3 is used for processing in the target object identifying unit 10 for identifying the target object from the input image and the target object identifying unit 10, and adjusting the target object model and target object model prepared for each target object. An identification information storage unit 20 that stores a correspondence table used for the communication, and a communication unit 30 that supplies the processing result of the object identification unit 10 to various on-vehicle devices connected by the in-vehicle LAN.

対象物識別部10は、CPU、ROM、RAM等を備えた周知のマイクロコンピュータからなり、後述する対象物検出処理を少なくとも実行する。なお、ROMには、対象物検出処理のプログラムのほか、対象物のそれぞれについて予め用意された対象物モデル、対象物モデルの調整に使用する対応テーブルが少なくとも記憶されている。   The object identification unit 10 is formed of a known microcomputer including a CPU, a ROM, a RAM, and the like, and executes at least an object detection process described later. In addition to the object detection processing program, the ROM stores at least an object model prepared in advance for each object and a correspondence table used for adjustment of the object model.

[対象物モデル]
対象物モデルは、図2(a)に示すように、検出対象となる物体(対象物)毎に、対象物を構成する各部位に対応する複数のパートMPi(図ではi=1〜6)を用いて定義されている。例えば、対象物が人である場合、対象物を構成する部位としては、頭、左腕、右腕、胴、左脚および右脚などが考えられる。
[Object model]
As shown in FIG. 2 (a), the object model has a plurality of parts MPi corresponding to each part constituting the object (i = 1 to 6 in the figure) for each object (object) to be detected. It is defined using For example, when the object is a person, the head, the left arm, the right arm, the torso, the left leg, the right leg, and the like can be considered as the parts constituting the object.

また、対象物モデルは、パートMPi毎に対応する対象物の部位の特徴を表現した特徴量(パート特徴量)と、各パートMPi間の相対的な位置関係を規定する相対位置情報とによって表現される。   The object model is expressed by a feature amount (part feature amount) that expresses the feature of the part of the object corresponding to each part MPi and relative position information that defines a relative positional relationship between the parts MPi. Is done.

<相対位置情報>
相対位置情報は、図2(b)に示すように、パートMPi毎に設定された代表基準点Pc(i)の座標および複数の補正用基準点Pa(i,j)の座標からなる。但し、iはパートを識別する識別子であり、jは同一パート中にある複数の補正用基準点を識別する識別子である。なお、これらの座標は、図2(a)に示すように、予め設定されたモデル基準点MO(例えば、対象物モデルを構成する全てのパートMPiを包含するように設定された矩形領域MDの下端中央)を原点とする三次元座標からなる。但し、三次元座標は横方向をX軸、高さ方向をY軸、奥行き方向をZ軸とし、パートMPiは、Z=0のXY平面に存在し、且つ、モデル基準点MOが座標の原点となるように設定されている。つまり、ある対象物モデルを構成する各パートMPiの相対的な位置関係は、対象物モデル毎に独立した相対的な座標系によって定義される。
<Relative position information>
As shown in FIG. 2B, the relative position information includes the coordinates of the representative reference point Pc (i) set for each part MPi and the coordinates of a plurality of correction reference points Pa (i, j). Here, i is an identifier for identifying a part, and j is an identifier for identifying a plurality of correction reference points in the same part. As shown in FIG. 2A, these coordinates are set in advance in a model reference point MO (for example, a rectangular area MD set so as to include all the parts MPi constituting the object model). Consists of three-dimensional coordinates with the origin at the bottom center. However, in the three-dimensional coordinates, the horizontal direction is the X-axis, the height direction is the Y-axis, the depth direction is the Z-axis, the part MPi exists on the XY plane with Z = 0, and the model reference point MO is the origin of the coordinates It is set to become. That is, the relative positional relationship between the parts MPi constituting a certain object model is defined by a relative coordinate system independent for each object model.

代表基準点Pc(i)は、パートMPiを代表する点であり、例えば、パートMPiの中心に設定される。補正用基準点Pa(i,j)は、後述するパート回転量(歪み補正用パラメータ)を計算するために設けられた点であり、代表基準点Pc(i)に対し、X軸方向またはY軸方向に沿って平行移動した位置に設定される。ここでは、Y軸方向に沿って平行移動した位置、且つ、代表基準点Pc(i)を挟んで対称な位置に、二つ補正用基準点Pa(i,1),Pa(i,2)が設定されている。   The representative reference point Pc (i) is a point representing the part MPi, and is set at the center of the part MPi, for example. The correction reference point Pa (i, j) is a point provided for calculating a part rotation amount (distortion correction parameter), which will be described later, with respect to the representative reference point Pc (i). It is set at the position translated along the axial direction. Here, two correction reference points Pa (i, 1) and Pa (i, 2) are located at positions parallel to the Y-axis direction and symmetrical positions with respect to the representative reference point Pc (i). Is set.

例えば、対象物を歩行者とした対象物モデルのパートMP1として歩行者の頭部を想定した場合、代表基準点の座標は、Pc(1)=(1.7,0,0)に設定され、二つの補正用基準点の座標は、Pa(1,1)=(1.75,0,0)およびPa(1,2)=(1.65,0,0)に設定される。ここに例示した代表基準点の座標は、頭部を表すパートMP1が1.7mの高さに位置することを意味するが、歩行者の身長に幅があることを考慮して、同種の対象物に対して複数の対象モデルを用意してもよい。   For example, assuming the pedestrian's head as part MP1 of the object model with the object as a pedestrian, the coordinates of the representative reference point are set to Pc (1) = (1.7, 0, 0). The coordinates of the two reference points for correction are set to Pa (1,1) = (1.75,0,0) and Pa (1,2) = (1.65,0,0). The coordinates of the representative reference point exemplified here mean that the part MP1 representing the head is located at a height of 1.7 m, but considering that the height of the pedestrian is wide, the same kind of object A plurality of target models may be prepared for an object.

<特徴量>
特徴量は、入力画像から生成されるエッジ画像(輝度の微分画像)の特徴を、複数のセルで構成されたセルブロック(後述する)単位で求めたものであり、多次元ベクトルによって表現される。以下、その生成方法について説明する。
<Feature amount>
The feature amount is obtained by obtaining a feature of an edge image (luminance differential image) generated from an input image in a unit of a cell block (described later) composed of a plurality of cells, and is represented by a multidimensional vector. . Hereinafter, the generation method will be described.

まず、エッジ画像を構成する画素毎に輝度勾配を求める。具体的には、着目する画素に対して上下左右に隣接する画素の輝度値からX軸方向およびY軸方向の輝度勾配(dx,dy)を求め、その算出結果から、着目画素の輝度勾配の強度vと方向θを、(1)(2)式によって求める。   First, a luminance gradient is obtained for each pixel constituting the edge image. Specifically, the luminance gradients (dx, dy) in the X-axis direction and the Y-axis direction are obtained from the luminance values of the pixels adjacent to the pixel of interest vertically and horizontally, and the luminance gradient of the pixel of interest is calculated from the calculation result. The intensity v and the direction θ are obtained by equations (1) and (2).

次に、セルブロック単位で画像を切り出し、セルブロックを構成するセルのそれぞれについて、輝度勾配ヒストグラムを生成する。なお、セルブロックは、図3に示すように、円形に設定され、このセルブロックを周方向に8等分、径方向に2等分した合計16(=M)個の部分領域がセルとなる。図中の数字は、セルを識別するセル番号である。つまり、セルブロックを構成する各セルは、図4に示すように、所定角度(ここでは45°の整数倍)での回転に対して回転対称となるように配置されている。ここでは、16個のセルを持つセルブロックを示したが、回転対称となっていれば他のセルの配置方法としてもよい。   Next, an image is cut out in cell block units, and a luminance gradient histogram is generated for each of the cells constituting the cell block. As shown in FIG. 3, the cell block is set in a circular shape, and a total of 16 (= M) partial areas obtained by dividing the cell block into eight equal parts in the circumferential direction and two equal parts in the radial direction are cells. . The numbers in the figure are cell numbers that identify the cells. That is, as shown in FIG. 4, each cell constituting the cell block is arranged to be rotationally symmetric with respect to rotation at a predetermined angle (here, an integral multiple of 45 °). Here, a cell block having 16 cells is shown, but other cell arrangement methods may be used as long as they are rotationally symmetric.

輝度勾配ヒストグラムは、図5(a)に示すように、それぞれが互いに異なる勾配方向を表す所定角度範囲(ここではセルブロックの回転対称となる所定角度と同じ45°)に対応づけられた8個のビン(ビン番号1〜8)によって表現される。そして、図5(b)に示すように、着目するセルに属する各画素について求められた輝度勾配が、どのビンに属するかを投票することによって、セル毎の輝度勾配ヒストグラムを作成する。 そして、特徴量は、同じセルブロックを構成するM個のセルについて各々求められた輝度勾配ヒストグラムを表すN個のビンの各値を、所定の順番(例えば図3に示すセル番号の順番)に連結したM×N次元ベクトルによって表現される。   As shown in FIG. 5A, the brightness gradient histogram is associated with 8 predetermined angle ranges (45 °, which is the same as the predetermined angle that is rotationally symmetric with the cell block), each representing a different gradient direction. Bins (bin numbers 1 to 8). Then, as shown in FIG. 5B, a luminance gradient histogram for each cell is created by voting to which bin the luminance gradient obtained for each pixel belonging to the cell of interest belongs. Then, the feature amount is obtained by assigning each value of the N bins representing the brightness gradient histogram obtained for each of the M cells constituting the same cell block in a predetermined order (for example, the order of the cell numbers shown in FIG. 3). It is represented by a concatenated M × N-dimensional vector.

以下では入力画像にから生成される特徴量を画像特徴量とよび、対象物モデルを構成するパート毎に設定される特徴量をパート特徴量とよぶ。パート特徴量は、着目するパートに対応づけられた対象物の部位について撮像された多数の画像を使用し、これらの画像から抽出された画像特徴量を教師データとする学習によって設定される。この種の学習は周知の技術であるため、その詳細についての説明は省略する。   In the following, the feature quantity generated from the input image is called an image feature quantity, and the feature quantity set for each part constituting the object model is called a part feature quantity. The part feature amount is set by learning using a large number of images taken for the part of the object associated with the part of interest, and using the image feature amount extracted from these images as teacher data. Since this type of learning is a well-known technique, a detailed description thereof is omitted.

[識別対象判定処理]
対象物識別部10のCPUが実行する識別対象判定処理の内容を、図6に示すフローチャートに沿って説明する。なお、本処理は、撮像装置2にて撮像画像が所定間隔で生成される毎に起動する。
[Identification target judgment processing]
The contents of the identification object determination process executed by the CPU of the object identification unit 10 will be described with reference to the flowchart shown in FIG. This process is started every time captured images are generated at a predetermined interval in the imaging apparatus 2.

本処理が起動すると、CPUは、まず撮像装置2にて生成された撮像画像を入力画像として取得し(S110)、その入力画像のエッジ画像を生成する(S120)。次に、CPUは、エッジ画像を構成する各画素の輝度勾配を求め、エッジ画像から切り出した単位領域(セル群)毎に画像特徴量を算出する(S130)。   When this process is started, the CPU first acquires a captured image generated by the imaging device 2 as an input image (S110), and generates an edge image of the input image (S120). Next, the CPU obtains a luminance gradient of each pixel constituting the edge image, and calculates an image feature amount for each unit region (cell group) cut out from the edge image (S130).

次に、CPUは、対象物モデルを一つ選択し(S140)、更に、探索点を一つ選択する(S150)。
探索点は、図7示すように、撮像装置2の撮像対象となる三次元空間のXZ平面(地面)上に規則的に設定する。ここでは、当該運転支援システム1を搭載する車両の正面方向を基準として所定角度方向(0°,±α,±2α,±3α)且つ所定距離(R,2R,3R,4R)にある地点(図中の黒点で示した地点)を探索点Ps(k)とする。但し、kは探索点を識別する識別子である。なお、探索点の配置は、これに限るものではなく、例えば、画像平面への投影点が一定間隔で格子状に配置されるように設定してもよい。
Next, the CPU selects one object model (S140), and further selects one search point (S150).
As shown in FIG. 7, the search points are regularly set on the XZ plane (ground) of the three-dimensional space to be imaged by the imaging device 2. Here, a point (with a predetermined angle direction (0 °, ± α, ± 2α, ± 3α) and a predetermined distance (R, 2R, 3R, 4R) with respect to the front direction of the vehicle on which the driving support system 1 is mounted) A point indicated by a black dot in the drawing) is set as a search point Ps (k). Here, k is an identifier for identifying a search point. Note that the arrangement of the search points is not limited to this. For example, the search points may be set so that the projection points on the image plane are arranged in a lattice pattern at regular intervals.

図6に戻り、CPUは、先のS150にて選択した探索点Ps(k)に応じて、先のS140にて選択した対象物モデルを調整するモデル調整処理を実行し(S160)、探索点を画像平面に投影した点(以下、投影探索点という)を中心とした所定範囲内の画像特徴量を、S160にて調整された対象物モデル(調整モデル)とを照合することにより物体検出を行う(S170)。なお、画像特徴量と対象物モデルとの照合によって物体を検出する技術は周知であるため、その詳細については説明を省略する。   Returning to FIG. 6, the CPU executes model adjustment processing for adjusting the object model selected in the previous S140 in accordance with the search point Ps (k) selected in the previous S150 (S160). Is detected by collating the image feature quantity within a predetermined range centered on a point projected on the image plane (hereinafter referred to as a projection search point) with the object model (adjusted model) adjusted in S160. It performs (S170). In addition, since the technique which detects an object by collation with an image feature-value and a target object model is known, description is abbreviate | omitted for the detail.

次に、CPUは、全ての探索点Ps(k)について、上述のS150〜S170の処理を実行済みであるか否かを判断し(S180)、未処理の探索点Ps(k)があればS150に戻る。一方、全ての探索点について処理を実行済みであれば、更に、全ての対象物モデルについて、上述のS140〜S180の処理を実行済みであるか否かを判断し(S190)、未処理の対象物モデルがあればS140に戻る。一方、全ての対象物モデルについて処理を実行済みであれば、各対象物モデルに対応した各物体の検出結果を、通信部30を介して運転支援実行部4に出力して(S200)、本処理を終了する。   Next, the CPU determines whether or not the above-described processing of S150 to S170 has been executed for all search points Ps (k) (S180), and if there is an unprocessed search point Ps (k). Return to S150. On the other hand, if the processing has been executed for all the search points, it is further determined whether or not the above-described processing of S140 to S180 has been executed for all target models (S190), and unprocessed targets are determined. If there is an object model, the process returns to S140. On the other hand, if the processing has been executed for all the object models, the detection result of each object corresponding to each object model is output to the driving support execution unit 4 via the communication unit 30 (S200). The process ends.

[モデル調整処理]
先のS160で実行するモデル調整処理の詳細を、図8に示すフローチャートに沿って説明する。
[Model adjustment processing]
Details of the model adjustment process executed in S160 will be described with reference to the flowchart shown in FIG.

本処理では、CPUは、まず、先のS140にて選択された対象物モデルについて、この対象物モデルを構成する複数のパートの中の一つを選択し(S310)、先のS150で選択された探索点上に対象物モデルが存在すると仮定した場合の代表基準点Pcおよび補正用基準点Paの三次元座標を表す探索点上代表基準点Pcsおよび探索点上補正用基準点Pasを(3)(4)式を用いて計算する(S320)。但し、Ps(k)は選択された探索点の三次元座標を表すものとする。   In this process, the CPU first selects one of a plurality of parts constituting the object model for the object model selected in the previous S140 (S310), and is selected in the previous S150. The representative reference point Pcs on the search point and the correction reference point Pas on the search point representing the three-dimensional coordinates of the representative reference point Pc and the correction reference point Pa when it is assumed that the object model exists on the search point (3 ) Calculate using equation (4) (S320). However, Ps (k) represents the three-dimensional coordinates of the selected search point.

次に、CPUは、S320で求めた探索点上代表基準点Pcsまたは探索点上補正用基準点Pasを対象点Pとし、対象点Pが投影される画像平面上の点を投影点pIとして、この投影点pIの座標(xp,yp)を、(5)(6)式を用いて計算する(S330)。 Then, CPU is the search point on the representative reference point Pcs or on the searched point correction reference point Pas determined at S320 and the target point P, a point on the image plane the object point P is projected as a projection point p I Then, the coordinates (x p , y p ) of the projection point p I are calculated using the equations (5) and (6) (S330).

但し、図9(b)に示すように、rは画像中心OIから投影点pIまでの距離(画像歪みを考慮した像高)、ψは画像平面における水平線(X軸)に対する投影点pIの角度を表す。 However, as shown in FIG. 9B, r is the distance from the image center O I to the projection point p I (image height considering image distortion), and ψ is the projection point p with respect to the horizontal line (X axis) on the image plane. Represents the angle of I.

なお、(5)(6)式は、図9(a)に示す魚眼カメラモデルから導かれる。魚眼カメラモデルは、対象点P、カメラ中心Oc、画像中心OI、対象点P、画像の歪みを考慮しない場合の対象点Pの画像平面上への投影点をPI、画像歪みを考慮した場合の対象点Pの画像平面上への投影点をpIの関係を示すものである。ここでは、対象点Pの三次元座標を(X,Y,Z)、光軸と投影点PIのなす角度をφ、焦点距離(カメラ中心Ocから画像中心OIまでの距離)をf、画素サイズをw(図示せず)としている。 Equations (5) and (6) are derived from the fisheye camera model shown in FIG. Fisheye camera model, object point P, the camera center Oc, image center O I, object point P, the projection point of the image distortion on the image plane of the object point P in the case of not considering P I, taking into account the image distortions the projection point onto the image plane of the object point P in the case of those showing the relationship p I. Here, the three-dimensional coordinates of the target point P (X, Y, Z), the angle of the projected point P I and the optical axis phi, the focal length (the distance from the camera center Oc to the image center O I) f, The pixel size is w (not shown).

図9から明らかなように、角度ψは(7)式によって算出される。一方、像高rは、魚眼カメラの方式によって異なり、例えば、等距離射影方式では、(8)式に示すように、角度φに応じて変化する。但し、角度φは(9)式によって算出される。つまり、画像歪みのないカメラでは、対象点Pは、対象点Pとカメラ中心Ocとを結ぶ線分が画像平面と交わる点(仮想投影点)PIに投影される。一方、魚眼カメラ等の画像歪みのあるカメラでは、対象点Pは、仮想投影点PIからずれた位置(実投影点)pIに投影される。このずれが像高rに反映される。 As is clear from FIG. 9, the angle ψ is calculated by the equation (7). On the other hand, the image height r differs depending on the fish-eye camera system. For example, in the equidistant projection system, the image height r changes according to the angle φ as shown in the equation (8). However, the angle φ is calculated by the equation (9). That is, in the absence of image distortion camera, object point P is the line segment connecting the target point P and the camera center Oc is a point which intersects the image plane (virtual projection point) onto a P I. On the other hand, in the camera with an image distortion such as a fisheye camera, object point P is located (actual projection point) offset from the virtual projection point P I is projected in p I. This shift is reflected in the image height r.

図8に戻り、次にCPUは、S330にて計算した、探索点上代表基準点Pcsおよび探索点上補正用基準点Pasの画像平面への投影点の座標に基づき、対象物モデルの調整に使用する調整量として、パートシフト量(Δxc,Δyc)、およびパート回転量ηを計算する(S340)。 Returning to FIG. 8, next, the CPU adjusts the object model based on the coordinates of the projection point on the image plane of the representative reference point Pcs on the search point and the reference point Pas for correction on the search point calculated in S330. As an adjustment amount to be used, a part shift amount (Δx c , Δy c ) and a part rotation amount η are calculated (S340).

具体的には、パートシフト量(Δxc,Δyc)は、図10(a)に示すように、探索点上代表基準点Pcsの仮想投影点の座標を(Xc,Yc)、実投影点の座標を(xc,yc)として、両者の差分を(10)式によって計算する。パート回転量ηは、図10(b)に示すように、探索点上補正用基準点Pasの実投影点の座標を(xa,ya)として、探索点上代表基準点Pcsの実投影点と探索点上補正用基準点Pasの実投影点とを結ぶ線分がY軸に対してなす角度を(11)式によって計算する。なお、パート回転量ηは、複数の補正用基準点Paが用意されている場合、それぞれについて算出した角度の平均を用いればよい。また、補正用基準点Paが代表基準点Pcに対してX軸方向にシフトした位置に設定されている場合は、上記線分がX軸に対してなす角度を求めればよい。
Specifically, as shown in FIG. 10A, the part shift amounts (Δx c , Δy c ) are obtained by setting the coordinates of the virtual projection point of the representative reference point Pcs on the search point to (X c , Y c ), The coordinate of the projection point is set to (x c , y c ), and the difference between the two is calculated by equation (10). As shown in FIG. 10B, the part rotation amount η is the actual projection of the representative reference point Pcs on the search point with the coordinates of the actual projection point of the correction point Pas on the search point being (x a , y a ). The angle formed by the line segment connecting the point and the actual projection point of the reference point Pas for correction on the search point with respect to the Y axis is calculated by the equation (11). As the part rotation amount η, when a plurality of correction reference points Pa are prepared, an average of angles calculated for each may be used. When the correction reference point Pa is set at a position shifted in the X-axis direction with respect to the representative reference point Pc, the angle formed by the line segment with respect to the X-axis may be obtained.

図8に戻り、次にCPUは、S330にて計算したパート回転量ηに応じて、パート特徴量を表す多次元ベクトルの要素の並びを変化させることで、パート特徴量を調整する(S350)。   Returning to FIG. 8, next, the CPU adjusts the part feature quantity by changing the arrangement of the elements of the multidimensional vector representing the part feature quantity in accordance with the part rotation amount η calculated in S330 (S350). .

具体的には、対象物モデルのパート特徴量は、セルブロックを構成する各セルの輝度勾配ヒストグラムをセル番号順に並べたものであり、また、各セルの輝度勾配ヒストグラムを構成する各要素は、図11(a)に示すように、ビン番号1〜8の順に並べられている。ここで、セルブロックとの比較対象となる画像(以下「比較画像」という)における真上方向を基準方向とすると、ビン番号1に対応する勾配方向が基準方向と一致する。ここで、比較画像が左45°に傾斜した場合を考えると、これを正しく検出するには、図11(b)に示すように、セルブロックも左方向に45°回転させて適用する必要がある。但し、セルブロックを回転させると、各セルの輝度勾配ヒストグラムにおけるビン番号と勾配方向の対応関係が崩れてしまう。しかし、セルブロックを構成する各セルは、45°の整数倍の回転に対して回転対称となるように配置されているため、セルブロックを回転させていない場合(図11(a)参照)について生成した輝度勾配ヒストグラムを使用し、輝度勾配ヒストグラムのビンの並び順を、パート回転量ηに応じてシフトさせることによって、傾斜した比較画像に適したパート特徴量が得られる。ここでは、ビン番号1〜8の順に並んでいたものを、ビン番号2〜8,1の順に並び変えている。   Specifically, the part feature amount of the object model is obtained by arranging the luminance gradient histogram of each cell constituting the cell block in the order of the cell number, and each element constituting the luminance gradient histogram of each cell is: As shown to Fig.11 (a), it arranges in order of the bin numbers 1-8. Here, assuming that the upward direction in the image to be compared with the cell block (hereinafter referred to as “comparison image”) is the reference direction, the gradient direction corresponding to bin number 1 matches the reference direction. Here, considering the case where the comparison image is tilted 45 ° to the left, in order to detect this correctly, as shown in FIG. 11B, it is necessary to apply the cell block by rotating it 45 ° to the left. is there. However, if the cell block is rotated, the correspondence between the bin number and the gradient direction in the luminance gradient histogram of each cell is lost. However, since each cell constituting the cell block is arranged so as to be rotationally symmetric with respect to rotation of an integral multiple of 45 °, the cell block is not rotated (see FIG. 11A). By using the generated luminance gradient histogram and shifting the bin order of the luminance gradient histogram in accordance with the part rotation amount η, a part feature amount suitable for an inclined comparative image is obtained. Here, the bin numbers 1 to 8 are rearranged in the order of bin numbers 2 to 8 and 1.

実際の処理としては、図12に示すようなパート回転量ηとビン番号の配列との対応関係を示す対応テーブルをROMに記憶しておき、この対応テーブルに示された対応関係に従って、多次元ベクトルを構成する各要素の並び順を入れ替えればよい。   As an actual process, a correspondence table showing the correspondence between the part rotation amount η and the bin number array as shown in FIG. What is necessary is just to change the arrangement order of each element which comprises a vector.

図8に戻り、次にCPUは、先のS140にて選択された対象物モデルを構成する全てのパートについて、上述の処理(S310〜S350)を実施済みであるか否かを判断し(S360)、上述の処理を未実施のパートが存在する場合は、S310に戻り、全てのパートについて上述の処理を実施済みであれば本処理を終了する。   Returning to FIG. 8, next, the CPU determines whether or not the above-described processing (S310 to S350) has been performed for all the parts constituting the object model selected in the previous S140 (S360). ) If there is a part that has not been subjected to the above-described processing, the process returns to S310, and if the above-described processing has been performed for all the parts, this processing ends.

[効果]
以上説明したように、本実施形態では、魚眼カメラから得られる歪んだ入力画像に対して、入力画像の歪み補正を行うのではなく、歪みに応じて対象物モデルを調整しているため、入力画像に対して歪み補正処理を行う従来装置と比較して、物体検出処理に要する処理量を削減することができる。
[effect]
As described above, in the present embodiment, because the distortion correction of the input image is not performed on the distorted input image obtained from the fisheye camera, the object model is adjusted according to the distortion. Compared to a conventional apparatus that performs distortion correction processing on an input image, the processing amount required for object detection processing can be reduced.

また、本実施形態では、入力画像の歪みを、パートシフト量およびパート回転量として抽出し、パートシフト量に応じて、対象物モデルを構成するパートの相対的な位置関係を変化させると共に、パート回転量に応じて各パートの特徴量を変化させている。   In the present embodiment, the distortion of the input image is extracted as the part shift amount and the part rotation amount, and the relative positional relationship of the parts constituting the object model is changed according to the part shift amount. The feature amount of each part is changed according to the amount of rotation.

これにより、図13(a)に示すように、対象物モデルを構成する各パートの位置関係およびパート特徴量を、適用箇所の歪みの程度に応じた的確なものとすることができ、図13(b)に示すように、対象物モデルを調整することなく適用した場合と比較して、検出精度を向上させることができる。   As a result, as shown in FIG. 13A, the positional relationship and part feature quantity of each part constituting the object model can be made accurate according to the degree of distortion at the application location. As shown in (b), the detection accuracy can be improved as compared with the case where the object model is applied without adjustment.

また、本実施形態では、セルブロックを構成する各セルを、輝度勾配ヒストグラムのビンの設定に関連して決まる所定の回転に対して回転対称な形状としている。パート回転量ηに応じた輝度勾配ヒストグラムを、ビンの並び順を変更するだけで実現することができる。その結果、パート回転量ηに応じたパート特徴量の調整を、パート特徴量の再計算を行うことなく実現することができ、この点でも処理負荷を軽減することができる。   In this embodiment, each cell constituting the cell block has a rotationally symmetric shape with respect to a predetermined rotation determined in relation to the setting of the bin of the luminance gradient histogram. A luminance gradient histogram corresponding to the part rotation amount η can be realized simply by changing the order of bins. As a result, the adjustment of the part feature amount according to the part rotation amount η can be realized without recalculating the part feature amount, and the processing load can be reduced in this respect as well.

即ち、例えば、図14に示すように、セルブロックが格子状に配置された正方形のセルによって構成されている場合、パートを回転させた時に、画像特徴量の抽出単位となるセルブロックと、パート特徴量の抽出単位となるセルブロックとが互いに重なり合わないため、両者を比較することができず、パート特徴量を再計算する必要が生じてしまうのである。   That is, for example, as shown in FIG. 14, when the cell block is configured by square cells arranged in a grid pattern, when the part is rotated, the cell block serving as an extraction unit of the image feature amount, and the part Since the cell blocks as the feature quantity extraction units do not overlap with each other, they cannot be compared, and the part feature quantity needs to be recalculated.

[他の実施形態]
以上、本発明の実施形態について説明したが、本発明は、上記実施形態に限定されることなく、種々の形態を採り得ることは言うまでもない。
[Other Embodiments]
As mentioned above, although embodiment of this invention was described, it cannot be overemphasized that this invention can take a various form, without being limited to the said embodiment.

(1)上記実施形態では、パート回転量ηとビン番号の配列との関係を示す対応テーブルを、360°分用意しているが、実際の画像歪みに応じて必要な角度分だけ用意するようにしてもよい。   (1) In the above embodiment, a correspondence table indicating the relationship between the part rotation amount η and the bin number array is prepared for 360 °, but only a necessary angle is prepared according to actual image distortion. It may be.

(2)上記実施形態では、パート回転量ηに応じたパート特徴量の調整を、η=0°の時の値を基準にして、対応テーブルに従って多次元ベクトルの要素の順番を入れ替えることによって実現しているが、パート回転量ηに応じたパート特徴量を予め用意しておき、算出されたパート回転量ηに応じてパート特徴量を選択するように構成してもよい。この場合、パート特徴量の調整に要する処理負荷をより削減することができる。   (2) In the above embodiment, the adjustment of the part feature amount according to the part rotation amount η is realized by changing the order of the elements of the multidimensional vector according to the correspondence table with reference to the value when η = 0 °. However, a part feature amount corresponding to the part rotation amount η may be prepared in advance, and the part feature amount may be selected according to the calculated part rotation amount η. In this case, it is possible to further reduce the processing load required for adjusting the part feature amount.

(3)上記実施形態では、探索点に応じた基準点の投影点の座標を、その都度計算しているが、予め探索点と投影点との関係をルックアップテーブルに登録しておき、これを参照するように構成してもよい。   (3) In the above embodiment, the coordinates of the projection point of the reference point corresponding to the search point are calculated each time. However, the relationship between the search point and the projection point is registered in advance in the lookup table. You may comprise so that it may refer.

(4)上記実施形態では、対象物識別部を、CPUが実行する処理(ソフトウェア)によって実現しているが、その全体または一部を、例えばロジック回路等のハードウェアによって実現するようにしてもよい。   (4) In the above embodiment, the object identification unit is realized by processing (software) executed by the CPU. However, the whole or a part thereof may be realized by hardware such as a logic circuit. Good.

(5)本発明の各構成要素は概念的なものであり、上記実施形態に限定されない。例えば、一つの構成要素が有する機能を複数の構成要素に分散させたり、複数の構成要素が有する機能を一つの構成要素に統合したりしてもよい。また、上記実施形態の構成の少なくとも一部を、同様の機能を有する公知の構成に置き換えてもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加、置換等してもよい。   (5) Each component of the present invention is conceptual and is not limited to the above embodiment. For example, the functions of one component may be distributed to a plurality of components, or the functions of a plurality of components may be integrated into one component. Further, at least a part of the configuration of the above embodiment may be replaced with a known configuration having the same function. In addition, at least a part of the configuration of the above embodiment may be added to or replaced with the configuration of the other embodiment.

1…運転支援システム 2…撮像装置 3…画像処理部 4…運転支援実行部 10…対象物識別部 20…識別情報記憶部 30…通信部 41…モニタ 42…スピーカ DESCRIPTION OF SYMBOLS 1 ... Driving assistance system 2 ... Imaging device 3 ... Image processing part 4 ... Driving assistance execution part 10 ... Object identification part 20 ... Identification information storage part 30 ... Communication part 41 ... Monitor 42 ... Speaker

Claims (7)

検出対象となる物体毎に用意され、それぞれが前記物体の一部に対応した複数のパートを有し、前記パート間の相対的な位置関係を表す各パートの基準位置および各パートの特徴を表す特徴量であるパート特徴量が定義された対象物モデルを記憶する対象モデル記憶手段(20)と、
歪みを有する画像を取得する画像取得手段(10:S110)と、
前記画像取得手段によって取得された画像に基づき、前記画像から切り出した単位領域毎に、該単位領域の特徴量である画像特徴量を抽出する特徴抽出手段(10:S120〜S130)と、
前記画像の撮像対象となる三次元空間に設定された探索点を前記画像面に投影した点を投影探索点とし、該投影探索点毎に求めた画像歪みの程度に応じて前記対象モデルを調整するモデル調整手段(10:S160)と、
前記特徴抽出手段にて抽出された画像特徴量と、前記モデル調整手段にて調整された対象物モデルである調整モデルとの類似度を評価することで該対象物モデルに対応づけられた物体を検出する物体検出手段(10:S170)と、
を備えることを特徴とする物体検出装置。
Prepared for each object to be detected, each having a plurality of parts corresponding to a part of the object, and representing the reference position of each part and the characteristics of each part representing the relative positional relationship between the parts A target model storage means (20) for storing a target object model in which a part feature amount that is a feature amount is defined;
Image acquisition means (10: S110) for acquiring an image having distortion;
Feature extraction means (10: S120 to S130) for extracting, for each unit area cut out from the image, an image feature quantity that is a feature quantity of the unit area based on the image acquired by the image acquisition means;
A point obtained by projecting a search point set in the three-dimensional space to be imaged onto the image plane is set as a projection search point, and the target model is adjusted according to the degree of image distortion obtained for each projection search point. Model adjusting means (10: S160),
The object associated with the object model is evaluated by evaluating the similarity between the image feature amount extracted by the feature extraction unit and the adjustment model that is the object model adjusted by the model adjustment unit. An object detecting means for detecting (10: S170);
An object detection apparatus comprising:
前記対象モデル記憶手段は、歪みのない画像に対応した前記対象モデルを少なくとも記憶し、
前記モデル調整手段は、前記投影探索点で生じる画像の歪みとして、歪みがない場合に対する位置ずれ量を求め、該位置ずれ量に応じて前記対象物モデルを構成する各パートの基準位置を変化させることを特徴とする請求項1に記載の物体検出装置。
The target model storage means stores at least the target model corresponding to an image without distortion,
The model adjusting unit obtains a positional deviation amount with respect to a case where there is no distortion as an image distortion occurring at the projection search point, and changes a reference position of each part constituting the object model according to the positional deviation amount. The object detection apparatus according to claim 1.
前記モデル調整手段は、前記投影探索点で生じる画像の歪みとして、歪みがない場合に対する回転量を求め、該回転量に応じて前記対象物モデルを構成する各パートのパート特徴量を変化させることを特徴とする請求項2に記載の物体検出装置。   The model adjusting means obtains a rotation amount with respect to a case where there is no distortion as a distortion of an image generated at the projection search point, and changes a part feature amount of each part constituting the object model according to the rotation amount. The object detection device according to claim 2. 所定角度での回転に対して回転対称に配置された複数のセルをセルブロックとし、画素毎に求めた輝度勾配を、それぞれが異なる勾配方向に対応づけられた複数のビンのいずれかに投票することによって、前記セル毎に輝度勾配ヒストグラムを生成し、該輝度勾配ヒストグラムを前記セルブロック単位で連結することで生成された多次元ベクトルを、前記特徴量として使用し、
前記モデル調整手段は、前記回転量に応じて前記輝度勾配ヒストグラムのビンの順番が入れ替わるように、前記パート特徴量を表す前記多次元ベクトルの要素の並び順を入れ替えることで前記パート特徴量を変化させることを特徴とする請求項3に記載の物体検出装置。
A plurality of cells arranged rotationally symmetrically with respect to rotation at a predetermined angle are defined as cell blocks, and the luminance gradient obtained for each pixel is voted to one of a plurality of bins each associated with a different gradient direction. Thus, a luminance gradient histogram is generated for each cell, and a multidimensional vector generated by concatenating the luminance gradient histogram in units of the cell blocks is used as the feature amount.
The model adjusting unit changes the part feature amount by changing the order of the elements of the multidimensional vector representing the part feature amount so that the order of bins of the luminance gradient histogram is changed according to the rotation amount. The object detection apparatus according to claim 3, wherein:
前記対象モデル記憶手段は、前記パートそのそれぞれについて、前記回転量に応じた複数のパート特徴量を記憶し、
前記モデル調整手段は、前記回転量に応じて各パートのパート特徴量を選択することを特徴とする請求項3に記載の物体検出装置。
The target model storage means stores a plurality of part feature amounts corresponding to the rotation amount for each of the parts,
The object detection apparatus according to claim 3, wherein the model adjustment unit selects a part feature amount of each part according to the rotation amount.
前記モデル調整手段は、前記投影探索点で生じる画像の歪みを、前記画像を生成した撮像手段の校正情報と、該撮像手段と前記探索点との三次元的な位置関係とに基づく幾何計算によって算出することを特徴とする請求項1ないし請求項5のいずれか1項に記載の物体検出装置。   The model adjusting unit is configured to calculate distortion of an image generated at the projection search point by geometric calculation based on calibration information of the imaging unit that has generated the image and a three-dimensional positional relationship between the imaging unit and the search point. The object detection device according to claim 1, wherein the object detection device calculates the object detection device. 前記画像取得手段は、魚眼カメラから画像情報を取得することを特徴とする請求項1ないし請求項6のいずれか1項に記載の物体検出装置。   The object detection apparatus according to claim 1, wherein the image acquisition unit acquires image information from a fisheye camera.
JP2014054831A 2014-03-18 2014-03-18 Object detection device Active JP6156212B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014054831A JP6156212B2 (en) 2014-03-18 2014-03-18 Object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014054831A JP6156212B2 (en) 2014-03-18 2014-03-18 Object detection device

Publications (2)

Publication Number Publication Date
JP2015176563A true JP2015176563A (en) 2015-10-05
JP6156212B2 JP6156212B2 (en) 2017-07-05

Family

ID=54255653

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014054831A Active JP6156212B2 (en) 2014-03-18 2014-03-18 Object detection device

Country Status (1)

Country Link
JP (1) JP6156212B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020035338A (en) * 2018-08-31 2020-03-05 国立大学法人岩手大学 Object detection method and object detection device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070065014A1 (en) * 2005-09-20 2007-03-22 Yuri Owechko Method for warped image object recognition
JP2012230546A (en) * 2011-04-26 2012-11-22 Hitachi Information & Communication Engineering Ltd Object recognition method and recognition device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070065014A1 (en) * 2005-09-20 2007-03-22 Yuri Owechko Method for warped image object recognition
JP2012230546A (en) * 2011-04-26 2012-11-22 Hitachi Information & Communication Engineering Ltd Object recognition method and recognition device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020035338A (en) * 2018-08-31 2020-03-05 国立大学法人岩手大学 Object detection method and object detection device
JP7201211B2 (en) 2018-08-31 2023-01-10 国立大学法人岩手大学 Object detection method and object detection device

Also Published As

Publication number Publication date
JP6156212B2 (en) 2017-07-05

Similar Documents

Publication Publication Date Title
CN111179358B (en) Calibration method, device, equipment and storage medium
WO2021098608A1 (en) Calibration method for sensors, device, system, vehicle, apparatus, and storage medium
JP6891954B2 (en) Object detection device, object detection method, and program
JP5870273B2 (en) Object detection apparatus, object detection method, and program
WO2017217411A1 (en) Image processing device, image processing method, and recording medium
JP5480777B2 (en) Object display device and object display method
JP2006252473A (en) Obstacle detector, calibration device, calibration method and calibration program
WO2015037178A1 (en) Posture estimation method and robot
CN110826512B (en) Ground obstacle detection method, ground obstacle detection device, and computer-readable storage medium
JP6208094B2 (en) Information processing apparatus, information processing system, information processing method, and program thereof
JP2004117078A (en) Obstacle detection device and method
JP6172432B2 (en) Subject identification device, subject identification method, and subject identification program
WO2014123619A1 (en) System and method for identifying similarities in different images
CN112184811B (en) Monocular space structured light system structure calibration method and device
US11417080B2 (en) Object detection apparatus, object detection method, and computer-readable recording medium
JP2009163682A (en) Image discrimination device and program
CN113269728B (en) Visual edge-tracking method, device, readable storage medium and program product
JP6156212B2 (en) Object detection device
JP2013254242A (en) Image recognition device, image recognition method, and image recognition program
JP2020071739A (en) Image processing apparatus
CN112634377B (en) Camera calibration method, terminal and computer readable storage medium of sweeping robot
EP3879810A1 (en) Imaging device
JP6492603B2 (en) Image processing apparatus, system, image processing method, and program
JP5991166B2 (en) 3D position measurement device, 3D position measurement method, and 3D position measurement program
JP2010151582A (en) Camera calibration target and camera calibration method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160622

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170501

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170522

R151 Written notification of patent or utility model registration

Ref document number: 6156212

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250