JP5838750B2 - Object recognition system and object recognition apparatus - Google Patents

Object recognition system and object recognition apparatus Download PDF

Info

Publication number
JP5838750B2
JP5838750B2 JP2011251258A JP2011251258A JP5838750B2 JP 5838750 B2 JP5838750 B2 JP 5838750B2 JP 2011251258 A JP2011251258 A JP 2011251258A JP 2011251258 A JP2011251258 A JP 2011251258A JP 5838750 B2 JP5838750 B2 JP 5838750B2
Authority
JP
Japan
Prior art keywords
speed
data
unit
imaging data
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011251258A
Other languages
Japanese (ja)
Other versions
JP2013105474A (en
Inventor
論季 小竹
論季 小竹
俊平 亀山
俊平 亀山
勝治 今城
勝治 今城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2011251258A priority Critical patent/JP5838750B2/en
Publication of JP2013105474A publication Critical patent/JP2013105474A/en
Application granted granted Critical
Publication of JP5838750B2 publication Critical patent/JP5838750B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、ラインセンサ等の撮像装置で撮像される領域に存在する物体を、撮像装置により取得した撮像データを用いて認識する物体認識システム及び物体認識装置に関するものである。   The present invention relates to an object recognition system and an object recognition device for recognizing an object existing in a region imaged by an imaging device such as a line sensor using imaging data acquired by the imaging device.

ラインセンサ等の撮像装置によって得られる強度画像等の撮像データを用い、撮像装置に撮像される領域を通過する車両等の物体を認識する物体認識システムが知られている(例えば、特許文献1参照)。このような物体認識システムにおいては、様々な対象物についてのテンプレートデータを用意し、それら複数のテンプレートデータと取得された撮像データとをそれぞれパターンマッチングすることにより物体を認識する。   An object recognition system that recognizes an object such as a vehicle passing through a region imaged by the imaging device using imaging data such as an intensity image obtained by an imaging device such as a line sensor is known (for example, see Patent Document 1). ). In such an object recognition system, template data for various objects is prepared, and an object is recognized by pattern matching between the plurality of template data and the acquired imaging data.

特開2010−14706号公報JP 2010-14706 A

しかしながら、従来の物体認識システムでは、撮像装置におけるデータ取得レートは一定であるため、領域を通過する物体の速度によって撮像データに含まれる物体の画像が歪み、例えば車軸であれば扁平率が変化する。そのため、基準の速度で通過する対象物についてのテンプレートデータとのマッチングの精度が低下するという課題があった。また、それぞれの対象物について様々な速度に対応したテンプレートデータを用意するとなると、テンプレートデータの数が膨大になり、パターンマッチング処理についての処理時間が増大するという課題があった。   However, in the conventional object recognition system, since the data acquisition rate in the imaging device is constant, the image of the object included in the imaging data is distorted depending on the speed of the object passing through the region, for example, the flatness changes in the case of an axle. . Therefore, the subject that the precision of matching with the template data about the target object which passes at a standard speed fell. Further, when template data corresponding to various speeds is prepared for each object, there is a problem that the number of template data becomes enormous and the processing time for pattern matching processing increases.

本発明は、上記のような課題を解決するためになされたものであって、処理時間の増大がなく精度の高い物体認識が可能な物体認識システム及び物体認識装置を提供することを目的とする。   The present invention has been made to solve the above-described problems, and it is an object of the present invention to provide an object recognition system and an object recognition apparatus capable of highly accurate object recognition without increasing processing time. .

本発明に係る物体認識システムは、物体が通過する所定領域にレーザ光を照射して得た撮像データを出力する撮像手段と、前記物体が通過する速度を検出する物体速度検出手段と、前記撮像手段から出力された前記撮像データに含まれる前記物体の画像のサイズを前記検出速度に応じて変更し、変更後の撮像データと基準速度に対応するテンプレートデータとを比較することにより前記物体又は前記物体の一部を認識する物体認識手段とを備え、前記物体認識手段は、前記検出速度と予め設定した速度閾値とを比較する速度比較部を有し、前記検出速度が前記速度閾値よりも速い場合には前記撮像データに含まれる前記物体の画像のサイズを前記検出速度に応じて変更し、変更後の撮像データと基準速度に対応するテンプレートデータとを比較して前記物体又は前記物体の一部を認識し、前記検出速度が前記速度閾値よりも遅い場合又は前記物体の速度が検出されない場合には、前記撮像データの高度方向について算出したヒストグラムから検知フラグを生成し、前記検知フラグのパターンから前記物体又は前記物体の一部を認識することを特徴とする。
An object recognition system according to the present invention includes an imaging unit that outputs imaging data obtained by irradiating a predetermined region through which an object passes, an object speed detection unit that detects a speed at which the object passes, and the imaging The size of the image of the object included in the imaging data output from the means is changed according to the detection speed, and the imaging data after the change is compared with the template data corresponding to the reference speed, or the object or the An object recognizing unit for recognizing a part of the object, and the object recognizing unit includes a speed comparing unit that compares the detected speed with a preset speed threshold, and the detected speed is faster than the speed threshold. In this case, the image size of the object included in the imaging data is changed according to the detection speed, and the changed imaging data is compared with the template data corresponding to the reference speed. Then, when the object or part of the object is recognized and the detection speed is slower than the speed threshold or the speed of the object is not detected, a detection flag is calculated from the histogram calculated for the altitude direction of the imaging data. It generates, characterized that you recognize some of the object or the object from the pattern of the detection flag.

本発明に係る物体認識装置は、物体が通過する所定領域にレーザ光を照射して得られた撮像データが入力され物体又は物体の一部を認識する物体認識装置であって、前記物体が通過する速度を検出する物体速度検出手段と、前記撮像手段から出力された前記撮像データに含まれる前記物体の画像のサイズを前記検出速度に応じて変更し、変更後の撮像データと基準速度に対応するテンプレートデータとを比較することにより前記物体又は前記物体の一部を認識する物体認識手段とを備え、前記物体認識手段は、前記検出速度と予め設定した速度閾値とを比較する速度比較部を有し、前記検出速度が前記速度閾値よりも速い場合には前記撮像データに含まれる前記物体の画像のサイズを前記検出速度に応じて変更し、変更後の撮像データと基準速度に対応するテンプレートデータとを比較して前記物体又は前記物体の一部を認識し、前記検出速度が前記速度閾値よりも遅い場合又は前記物体の速度が検出されない場合には、前記撮像データの高度方向について算出したヒストグラムから検知フラグを生成し、前記検知フラグのパターンから前記物体又は前記物体の一部を認識することを特徴とする。 An object recognition apparatus according to the present invention is an object recognition apparatus that recognizes an object or a part of an object by inputting imaging data obtained by irradiating a predetermined region through which the object passes with laser light, and the object passes through the object recognition apparatus. An object speed detecting means for detecting a speed to be changed, and the size of the image of the object included in the imaging data output from the imaging means is changed according to the detection speed, and the changed imaging data and the reference speed are supported. Object recognition means for recognizing the object or part of the object by comparing with the template data to be processed , the object recognition means comprises a speed comparison unit for comparing the detection speed with a preset speed threshold value. And when the detection speed is faster than the speed threshold, the image size of the object included in the imaging data is changed according to the detection speed, and the changed imaging data and reference Compare the template data corresponding to the degree to recognize the object or a part of the object, and if the detection speed is slower than the speed threshold or the speed of the object is not detected, generates a detection flag from the histogram calculated for altitude direction, characterized that you recognize some of the object or the object from the pattern of the detection flag.

本発明の物体認識システム、物体認識装置によれば、検出した物体の速度に応じて撮像データに含まれる物体の画像をサイズ変更し、その変更後の撮像データとテンプレートデータとをパターンマッチング処理することにより物体を認識するので、処理時間の増大がなく精度高く物体認識ができるという効果を奏する。   According to the object recognition system and the object recognition device of the present invention, the size of the image of the object included in the imaging data is changed according to the speed of the detected object, and pattern matching processing is performed between the changed imaging data and the template data. Therefore, there is an effect that the object can be recognized with high accuracy without increasing the processing time.

実施の形態1に係る物体認識システムの構成図。1 is a configuration diagram of an object recognition system according to Embodiment 1. FIG. 実施の形態1に係る第1の撮像装置と第2の撮像装置の配置を説明するための図。4A and 4B are diagrams for explaining the arrangement of a first imaging device and a second imaging device according to Embodiment 1. FIG. 実施の形態1に係る撮像データに含まれる物体である車両の画像を表す図。FIG. 4 is a diagram illustrating an image of a vehicle that is an object included in imaging data according to Embodiment 1. 実施の形態1に係る車両を正面から見た図。The figure which looked at the vehicle which concerns on Embodiment 1 from the front. 実施の形態1に係る物体認識部の構成図。FIG. 3 is a configuration diagram of an object recognition unit according to the first embodiment. 実施の形態1に係る撮像データに含まれる車両の画像のサイズ変更を説明するための図。The figure for demonstrating the size change of the image of the vehicle contained in the imaging data which concerns on Embodiment 1. FIG. 実施の形態1の動作を説明するフローチャート。3 is a flowchart for explaining the operation of the first embodiment. 実施の形態2に係る物体認識システムの構成図。FIG. 3 is a configuration diagram of an object recognition system according to a second embodiment. 実施の形態2に係る第1の撮像装置と速度計の配置を説明するための図。FIG. 6 is a diagram for explaining the arrangement of a first imaging device and a speedometer according to a second embodiment. 実施の形態2の動作を説明するフローチャート。9 is a flowchart for explaining the operation of the second embodiment. 実施の形態3に係る物体認識部の構成図。FIG. 6 is a configuration diagram of an object recognition unit according to Embodiment 3. 実施の形態3に係る高度ヒストグラム算出処理の一例を説明するための図。FIG. 10 is a diagram for explaining an example of altitude histogram calculation processing according to the third embodiment. 実施の形態3における撮像データに対しての検知フラグ算出処理の一例を説明するための図。FIG. 10 is a diagram for describing an example of a detection flag calculation process for imaging data according to Embodiment 3. 実施の形態3の動作を説明するフローチャート。10 is a flowchart for explaining the operation of the third embodiment. 実施の形態3に係る高度ヒストグラム算出処理の他の例を説明するための図。FIG. 10 is a diagram for explaining another example of altitude histogram calculation processing according to the third embodiment. 実施の形態3における撮像データに対しての検知フラグ算出処理の他の例を説明するための図。FIG. 10 is a diagram for explaining another example of detection flag calculation processing for imaging data in the third embodiment. 実施の形態4に係る物体認識部の構成図。FIG. 6 is a configuration diagram of an object recognition unit according to a fourth embodiment.

実施の形態1.
以下図面を用いて本発明の実施の形態1を説明する。図1は実施の形態1に係る物体認識システムの構成図である。図2は実施の形態1における第1の撮像装置と第2の撮像装置の配置を説明するための図である。図3は実施の形態1における撮像データに含まれる物体である車両の画像を表す図である。図4は実施の形態1における車両を正面から見た図である。図5は実施の形態1に係る物体認識部の構成図である。図6は実施の形態1における撮像データに含まれる車両の画像のサイズ変更を説明するための図である。図7は実施の形態1の動作を説明するフローチャートである。
Embodiment 1 FIG.
Embodiment 1 of the present invention will be described below with reference to the drawings. FIG. 1 is a configuration diagram of an object recognition system according to the first embodiment. FIG. 2 is a diagram for explaining the arrangement of the first imaging device and the second imaging device in the first embodiment. FIG. 3 is a diagram illustrating an image of a vehicle that is an object included in the imaging data according to the first embodiment. FIG. 4 is a front view of the vehicle in the first embodiment. FIG. 5 is a configuration diagram of the object recognition unit according to the first embodiment. FIG. 6 is a diagram for explaining the size change of the image of the vehicle included in the imaging data in the first embodiment. FIG. 7 is a flowchart for explaining the operation of the first embodiment.

図1に示すように、物体認識システムは、第1の撮像装置(第1の撮像部)1と、第2の撮像装置(第2の撮像部)2と、物体認識装置3とから構成される。このような物体認識システムは、例えばゲートの侵入監視システムに適用される。ここでは、ゲートに侵入する物体を車両として説明を行うが、これに限定するものではなく、動物、人物等であってもよい。以下も同様である。   As shown in FIG. 1, the object recognition system includes a first imaging device (first imaging unit) 1, a second imaging device (second imaging unit) 2, and an object recognition device 3. The Such an object recognition system is applied to, for example, a gate intrusion monitoring system. Here, an object that enters the gate is described as a vehicle. However, the present invention is not limited to this and may be an animal, a person, or the like. The same applies to the following.

まず、第1の撮像装置1と第2の撮像装置2について説明する。第1の撮像装置1と第2の撮像装置2は例えば受信スキャンレス型のレーザ画像計測装置が該当する。第1の撮像装置1は第1の領域に、第2の撮像装置2は第2の領域にそれぞれレーザ光を照射し、照射を行った領域内の各点における強度値を強度データとして取得する。また、領域の照射を行った各点における距離値を距離データとして取得する。第1の撮像装置1及び第2の撮像装置2は、所定の時間間隔毎に、取得した強度データと距離データとをそれぞれ第1の撮像データ、第2の撮像データとして物体認識装置3に出力する。   First, the first imaging device 1 and the second imaging device 2 will be described. The first imaging device 1 and the second imaging device 2 correspond to, for example, a reception scanless type laser image measurement device. The first imaging device 1 irradiates the first region and the second imaging device 2 irradiates the second region with laser light, and acquires the intensity value at each point in the irradiated region as intensity data. . Further, the distance value at each point where the region is irradiated is acquired as distance data. The first imaging device 1 and the second imaging device 2 output the acquired intensity data and distance data to the object recognition device 3 as first imaging data and second imaging data, respectively, at predetermined time intervals. To do.

なお、上記レーザ光が照射される領域については、観測領域、照射領域のように表現してもよい。以下では単に領域(第1の領域、第2の領域)として説明を行う。   Note that the region irradiated with the laser beam may be expressed as an observation region or an irradiation region. In the following, description will be made simply as a region (first region, second region).

図2に示すよう、第1の撮像装置1と第2の撮像装置2は、所定の間隔w(m)をもって車両の通行経路の傍に設置されている。つまり、第2の撮像装置2は、第1の撮像装置1に対して、車両の進行方向(通過方向)に所定間隔をおいて配置されている。図2の例では第1の撮像装置1と第2の撮像装置2は通行経路の反対側にそれぞれ設置されているが、この配置に限るものではなく、同側であってもよい。また、間隔wについては、例えば0.8m程度であればよい。   As shown in FIG. 2, the first image pickup device 1 and the second image pickup device 2 are installed near a traffic route of the vehicle with a predetermined interval w (m). That is, the second imaging device 2 is arranged at a predetermined interval in the traveling direction (passing direction) of the vehicle with respect to the first imaging device 1. In the example of FIG. 2, the first imaging device 1 and the second imaging device 2 are respectively installed on the opposite sides of the passage route. However, the arrangement is not limited to this arrangement, and may be on the same side. Further, the interval w may be about 0.8 m, for example.

車両が進行方向に移動して第1の撮像装置1がレーザ光を照射する第1の領域を通過すると、第1の撮像装置1は車両についての強度データ及び距離データを取得し、物体認識装置3に出力する。このとき、第1の撮像装置1は強度データを画像データ(強度画像)として出力してもよい。強度画像は、図3に示すよう、横軸を車両進行方向に対応するライン方向、縦軸を撮像装置(センサ)の走査方向に対応するデータ方向と定義された平面において、各画素に強度値が与えられた画像であり、第1の撮像装置1から見た奥行方向の強度値を含めてもよい。   When the vehicle moves in the traveling direction and passes through the first region where the first imaging device 1 irradiates laser light, the first imaging device 1 acquires intensity data and distance data about the vehicle, and the object recognition device. 3 is output. At this time, the first imaging device 1 may output the intensity data as image data (intensity image). As shown in FIG. 3, the intensity image has an intensity value for each pixel in a plane in which the horizontal axis is defined as the line direction corresponding to the vehicle traveling direction and the vertical axis is defined as the data direction corresponding to the scanning direction of the imaging device (sensor). And an intensity value in the depth direction viewed from the first imaging device 1 may be included.

また同様に、車両が進行方向に移動して第2の撮像装置2がレーザ光を照射する第2の領域を通過すると、第2の撮像装置2は車両についての強度データ及び距離データを取得し、物体認識装置3に出力する。   Similarly, when the vehicle moves in the traveling direction and the second imaging device 2 passes through the second region irradiated with the laser light, the second imaging device 2 acquires intensity data and distance data about the vehicle. To the object recognition device 3.

なお、ここでは第1の撮像装置1と第2の撮像装置2を一例としてライン状にスキャン(走査)するラインセンサとしたが、これに限るものではなく、少なくとも強度データと距離データとを取得できるものであればよい。強度データの代わりに、領域の照射を行った各点における輝度値から構成される輝度データを取得できるCCD(Charge Coupled Device)カメラ等であってもよい。なお、強度データ(又は輝度データ)及び距離データをそれぞれ強度画像(又は輝度画像)、距離画像と画像形式にしたものも撮像データに含まれる。第1の撮像装置1は第1の領域にレーザ光を照射して取得する第1の撮像データを、第2の撮像装置2は第2の領域にレーザ光を照射して取得する第2の撮像データを、物体認識装置3に出力する。   Here, the first imaging device 1 and the second imaging device 2 are taken as an example of a line sensor that scans in a line, but the present invention is not limited to this, and at least intensity data and distance data are acquired. Anything is possible. Instead of intensity data, a CCD (Charge Coupled Device) camera or the like that can acquire luminance data composed of luminance values at each point where the region is irradiated may be used. It should be noted that intensity data (or luminance data) and distance data are converted into intensity images (or luminance images), distance images, and image formats, respectively. The first imaging device 1 acquires the first imaging data acquired by irradiating the first region with laser light, and the second imaging device 2 acquires the second imaging device acquired by irradiating the second region with laser light. The imaging data is output to the object recognition device 3.

また、第1の撮像装置1及び第2の撮像装置2は、取得した距離データから、高度値(高さ値)及び奥行距離値を算出し、これらを撮像データとして物体認識装置3に出力してもよい。図4に示すように、撮像装置から見た奥行方向をx軸、撮像装置の高さ方向である高度方向をz軸と定義すると、x−z平面に垂直な方向が進行方向となり、第1の撮像装置1(第2の撮像装置2)は、z軸方向にセンサ高度H、ビーム走査角度の半角θ、センサオフナディア角φとなるように設置される。この場合、距離画像におけるデータ方向の画素番号をi、その最大画素数をN、領域における各点の距離値をRiとすると、高度値及び奥行距離値は式(1)のとおりに求められる。   Also, the first imaging device 1 and the second imaging device 2 calculate an altitude value (height value) and a depth distance value from the acquired distance data, and output these as imaging data to the object recognition device 3. May be. As shown in FIG. 4, when the depth direction viewed from the imaging device is defined as the x axis and the altitude direction that is the height direction of the imaging device is defined as the z axis, the direction perpendicular to the xz plane is the traveling direction. The second imaging device 1 (second imaging device 2) is installed such that the sensor height H, the beam scanning angle half angle θ, and the sensor off-nadir angle φ are in the z-axis direction. In this case, assuming that the pixel number in the data direction in the distance image is i, the maximum number of pixels is N, and the distance value of each point in the region is Ri, the altitude value and the depth distance value are obtained as in Expression (1).

Figure 0005838750
Figure 0005838750

なお、第1の撮像装置1、第2の撮像装置2はそれぞれ撮像手段(第1の撮像手段、第2の撮像手段)を構成する。また、撮像手段は第1の撮像装置1と第2の撮像装置2とから構成されるものであってもよい。   The first imaging device 1 and the second imaging device 2 constitute imaging means (first imaging means and second imaging means), respectively. In addition, the imaging unit may be configured by the first imaging device 1 and the second imaging device 2.

次に、物体認識装置3について説明する。物体認識装置3は、図1に示すように、撮像データ保存部31と、物体検知部32と、速度検出部33と、物体認識部34とを備え、第1の撮像装置1から第1の撮像データ、第2の撮像装置2から第2の撮像データが出力される。なお、撮像データ保存部31、物体検知部32、速度検出部33、物体認識部34、はそれぞれ、撮像データ保存手段31と、物体検知手段32と、速度検出手段33と、物体認識手段34を構成する。   Next, the object recognition device 3 will be described. As shown in FIG. 1, the object recognition device 3 includes an imaging data storage unit 31, an object detection unit 32, a speed detection unit 33, and an object recognition unit 34. The imaging data and the second imaging data are output from the second imaging device 2. The imaging data storage unit 31, the object detection unit 32, the speed detection unit 33, and the object recognition unit 34 respectively include the imaging data storage unit 31, the object detection unit 32, the speed detection unit 33, and the object recognition unit 34. Configure.

撮像データ保存部31には、第1の撮像装置1と第2の撮像装置2から出力された第1の撮像データ、第2の撮像データを保存される。また、複数のテンプレートデータが予め保存されている。このテンプレートデータは、予め設定された基準速度で通行経路を通過する対象物の特徴量(特徴パターン)を有するデータであり、対象物には、トラック、乗用車、軽自動車等の様々な種類の車両や、人物、動物等が該当する。ここで、基準速度をどのように決めるかについては、車両認識を行うにあたり想定される車両の最大通過速度としてもよいし、ユーザが任意に決めてもよい。以下では1例として、一般に車両がゲートを通過する速度Vbを基準速度として説明を行う。   The imaging data storage unit 31 stores the first imaging data and the second imaging data output from the first imaging device 1 and the second imaging device 2. A plurality of template data are stored in advance. This template data is data having a feature amount (feature pattern) of an object passing through a traffic route at a preset reference speed. Examples of the object include various types of vehicles such as trucks, passenger cars, and light cars. Or a person or an animal. Here, how to determine the reference speed may be the maximum vehicle passing speed assumed when performing vehicle recognition, or may be arbitrarily determined by the user. Hereinafter, as an example, the speed Vb at which the vehicle passes through the gate is generally described as a reference speed.

物体検知部32は、撮像データ保存部31から取得した撮像データに基づき、領域内に存在する車両を検知する。物体検知部32は、例えば、領域内に車両が存在しない状態の強度データ(背景データ)を予め取得しておき、この背景データと車両が存在する状態の第1の撮像データとの各点における強度差を読み出し、強度差が所定の閾値を超える点の数が設定数以上あれば物体である車両が存在しているものと検知する。物体検知部32は、第1の撮像装置1に出力された第1の撮像データから第1の領域内に存在する車両を検知すると、車両の検知を表す第1の検知信号を出力し、第2の撮像装置2に出力された第2の撮像データから第2の領域内に存在する車両を検知すると車両の検知を表す第2の検知信号を出力する。   The object detection unit 32 detects a vehicle existing in the area based on the imaging data acquired from the imaging data storage unit 31. For example, the object detection unit 32 acquires in advance intensity data (background data) in a state where no vehicle exists in the region, and at each point of the background data and first imaging data in the state where the vehicle exists. The intensity difference is read, and if the number of points where the intensity difference exceeds a predetermined threshold is greater than or equal to the set number, it is detected that there is an object vehicle. When the object detection unit 32 detects a vehicle existing in the first region from the first imaging data output to the first imaging device 1, the object detection unit 32 outputs a first detection signal representing detection of the vehicle, When a vehicle existing in the second region is detected from the second imaging data output to the second imaging device 2, a second detection signal representing the detection of the vehicle is output.

速度検出部33は、物体検知部32から入力される第1の検知信号と第2の検知信号との入力の時間差から、車両の通過する速度を算出する。つまり、速度検出部33は、第1の撮像装置1と第2の撮像装置2との距離wの情報は予め持っているので、第1の撮像装置1から出力される第1の撮像データと第2の装置2から出力される第2の撮像データの出力のタイミング差が把握できれば、車両の通過速度の算出ができる。より具体的には、第1の撮像装置1及び第2の撮像装置2のデータ取得レートをfs(Hz)、各撮像装置において車両を検知したライン方向のデータ取得数をSとすると、車両の速度Vは式(2)のとおり求められる。速度検出部33は、検出した速度を物体認識部34に出力する。   The speed detection unit 33 calculates the speed at which the vehicle passes from the time difference between the input of the first detection signal and the second detection signal input from the object detection unit 32. That is, the speed detection unit 33 has information about the distance w between the first imaging device 1 and the second imaging device 2 in advance, so that the first imaging data output from the first imaging device 1 and If the timing difference of the output of the second imaging data output from the second device 2 can be grasped, the passing speed of the vehicle can be calculated. More specifically, if the data acquisition rate of the first imaging device 1 and the second imaging device 2 is fs (Hz), and the number of data acquisitions in the line direction in which the vehicle is detected in each imaging device is S, The speed V is obtained as shown in Equation (2). The speed detection unit 33 outputs the detected speed to the object recognition unit 34.

Figure 0005838750
Figure 0005838750

なお、物体検知部32と速度検出部33とは、物体速度検出手段を構成する。   The object detection unit 32 and the speed detection unit 33 constitute an object speed detection unit.

物体認識部34は、撮像データに含まれる車両の画像サイズを検出速度Vに応じて変更し、変更後の撮像データと基準速度Vbに対応するテンプレートデータとを比較することにより、撮像データに含まれる車両又は車両の一部を認識する。そして、その認識結果を図4には図示しない例えばPC(Personal Computer)等の上位の装置に出力する。物体認識部34は、図5に示すように、画像サイズ変更部341と、判定部342と、認識処理部343とを備える。   The object recognition unit 34 changes the image size of the vehicle included in the imaging data in accordance with the detection speed V, and compares the changed imaging data with the template data corresponding to the reference speed Vb, thereby including the imaging data. Recognize the vehicle or part of the vehicle. The recognition result is output to a higher-level device such as a PC (Personal Computer) (not shown in FIG. 4). As illustrated in FIG. 5, the object recognition unit 34 includes an image size changing unit 341, a determination unit 342, and a recognition processing unit 343.

画像サイズ変更部341は、速度検出部33により検出された速度Vに基づき、撮像データ保存部31から取得した撮像データに含まれる車両の画像のサイズを変更する。具体的には、画像サイズ変更部341は、撮像データに含まれる車両の画像について、車両のライン方向、すなわち通過方向(横方向)の長さが変更されるよう、バイリニア補間又はバイキュービック補間等を行いサイズを変更する。なお、画像のサイズを変更する処理を、画像を補正すると表現してもよい。   The image size changing unit 341 changes the size of the vehicle image included in the imaging data acquired from the imaging data storage unit 31 based on the speed V detected by the speed detection unit 33. Specifically, the image size changing unit 341 performs bilinear interpolation, bicubic interpolation, or the like so that the length of the vehicle line direction, that is, the passing direction (lateral direction) is changed with respect to the vehicle image included in the imaging data. To change the size. Note that the process of changing the size of the image may be expressed as correcting the image.

画像のライン方向のサイズをどの程度変更するかについては、例えば基準速度Vbに対する検出速度Vの割合に比例するよう変更すればよい。図6に示すよう、検出速度Vで通過する車両のライン方向の長さがAだとした場合、サイズ変更後の車両のライン方向の長さはA×V/Vbとなる。検出速度Vが基準速度Vbよりも速い場合、撮像データに含まれる車両の画像は基準速度に対応する画像よりもライン方向に縮んだ画像となっており、サイズ変更されることによりライン方向に伸びるようになる。一方、検出速度Vが基準速度Vbよりも遅い場合、撮像データに含まれる車両の画像は基準速度に対応する画像よりもライン方向に伸びた画像となっており、サイズ変更されることによりライン方向に縮むようになる。画像が車軸の場合は、サイズ変換後の車軸の扁平率が0に近づくこととなる。   The extent to which the size of the image in the line direction is changed may be changed in proportion to the ratio of the detection speed V to the reference speed Vb, for example. As shown in FIG. 6, when the length in the line direction of the vehicle passing at the detection speed V is A, the length in the line direction of the vehicle after the size change is A × V / Vb. When the detection speed V is faster than the reference speed Vb, the image of the vehicle included in the imaging data is an image contracted in the line direction than the image corresponding to the reference speed, and extends in the line direction when the size is changed. It becomes like this. On the other hand, when the detection speed V is slower than the reference speed Vb, the image of the vehicle included in the imaging data is an image that extends in the line direction from the image corresponding to the reference speed, and the line direction is changed by resizing the image. To shrink. If the image is an axle, the flatness of the axle after size conversion will approach zero.

サイズ変更後のライン方向の長さは、車両が基準速度Vbで通過する場合の車両のライン方向の長さに対応している。そのため、車両がいずれの速度で通過しようとも、その通過速度に起因した画像の歪みを補正し、基準速度Vbで通過した場合の画像サイズに合うようになる。   The length in the line direction after the size change corresponds to the length in the line direction of the vehicle when the vehicle passes at the reference speed Vb. Therefore, regardless of the speed at which the vehicle passes, the distortion of the image due to the passing speed is corrected to match the image size when passing at the reference speed Vb.

なお、サイズ変更には、画像のライン方向の長さが大きくなるようサイズ変更した後、さらにアスペクト比を変更したものについても含まれる。また、ライン方向の長さを長く(短く)する代わりにデータ方向(縦方向)の長さが短く(長く)なるように変更してもよいし、ライン方向とデータ方向の両方の長さを変更することによりサイズ変更してもよい。   Note that the size change includes those in which the aspect ratio is further changed after the size is changed so that the length in the line direction of the image is increased. Further, instead of increasing (shortening) the length in the line direction, the length in the data direction (vertical direction) may be changed to be short (longer), or both the lengths in the line direction and data direction may be changed. You may change size by changing.

判定部342は、画像サイズ変更部341で画像のサイズが変更された撮像データが入力され、この撮像データと、撮像データ保存部31に予め保存されたテンプレートデータとについて、パターンマッチング処理を行う。判定部342は、撮像データに含まれる車両の画像である被探索画像上を、テンプレートデータに含まれる対象物の特徴パターンをxy方向に移動して比較を行っていき、被探索画像上に対象物の特徴パターンの検出を行う。つまり、判定部342は、撮像データに含まれる物体である車両の画像が、テンプレートデータに含まれる対象物の特徴パターンを有するか否かを判定する。判定結果は、認識処理部343に出力される。   The determination unit 342 receives the imaging data whose image size has been changed by the image size changing unit 341, and performs pattern matching processing on the imaging data and the template data stored in advance in the imaging data storage unit 31. The determination unit 342 performs comparison by moving the feature pattern of the target object included in the template data in the xy direction on the search target image that is an image of the vehicle included in the captured image data. The feature pattern of an object is detected. That is, the determination unit 342 determines whether or not the image of the vehicle that is an object included in the imaging data has the feature pattern of the target included in the template data. The determination result is output to the recognition processing unit 343.

ここで撮像データに含まれる画像とは、強度画像、輝度画像、又は距離画像が該当する。また、高度値及び奥行距離値のデータを有する画像とテンプレート画像とのマッチングであってもよいし、検出速度Vを用いて算出されるライン方向の距離値による3次元形状マッチングを用いてもよい。検知を行うスキャンの相対ライン数をjとすると、ライン方向の距離値Yjは式(3)のように求められる   Here, the image included in the imaging data corresponds to an intensity image, a luminance image, or a distance image. Further, matching between an image having altitude value and depth distance value data and a template image may be used, or three-dimensional shape matching based on a distance value in the line direction calculated using the detection speed V may be used. . Assuming that the relative number of lines of scanning for detection is j, the distance value Yj in the line direction is obtained as shown in Equation (3).

Figure 0005838750
Figure 0005838750

なお、パターンマッチングの方法としては、テンプレートマッチング処理やテクスチャーマッチング処理を用いればよい。また、テンプレートデータについては撮像データ保存部31に保存されているとしたが、別の保存装置(メモリ)に予め保存されていてもよいし、また判定部342が内部メモリを有し予め保存しておいてもよい。また、テンプレートデータは対象物の特徴量を有するものであるとして説明を行ったが、対象物の画像データそのものであってもよい。   As a pattern matching method, template matching processing or texture matching processing may be used. The template data is stored in the imaging data storage unit 31, but may be stored in another storage device (memory) in advance, or the determination unit 342 has an internal memory and stores it in advance. You may keep it. Further, the template data has been described as having the feature amount of the object, but it may be the image data of the object itself.

認識処理部343は、判定部342からの判定結果に基づいて、物体の認識結果を求め、その認識結果を例えばPC等の外部装置に出力する。つまり、認識処理部343は、判定部342により撮像データは対象物の特徴パターンを有するという判定結果が入力されると、撮像データに含まれる物体を対象物と認識し、その認識結果を出力する。例えば撮像データが軽自動車の特徴パターンを有するのであれば、認識処理部343は物体を軽自動車と認識し、トラックの特徴パターンを有する場合は、認識処理部343は物体をトラックと認識してその認識結果を出力する。   The recognition processing unit 343 obtains the recognition result of the object based on the determination result from the determination unit 342, and outputs the recognition result to an external device such as a PC. That is, when the determination unit 342 receives a determination result that the imaging data has the feature pattern of the target object from the determination unit 342, the recognition processing unit 343 recognizes the object included in the imaging data as the target object and outputs the recognition result. . For example, if the imaging data has a feature pattern of a light vehicle, the recognition processing unit 343 recognizes the object as a light vehicle, and if it has a track feature pattern, the recognition processing unit 343 recognizes the object as a truck and Output the recognition result.

次に、図7を用いて本発明の実施の形態1の動作について説明する。   Next, the operation of the first embodiment of the present invention will be described with reference to FIG.

第1の撮像装置1及び第2の撮像装置2はそれぞれ所定時間間隔をもって取得した撮像データ(第1の撮像データ、第2の撮像データ)を物体認識装置3の撮像データ保存部31に出力している(ステップS1)。   The first imaging device 1 and the second imaging device 2 each output imaging data (first imaging data and second imaging data) acquired at predetermined time intervals to the imaging data storage unit 31 of the object recognition device 3. (Step S1).

図2に示すように車両が車両進行方向に移動して第1の領域内に入り、第1の撮像装置1が出力する第1の撮像データ中に車両が存在すると(ステップS2−Yes)、物体検知部32は、撮像データ保存部31から取得したその第1の撮像データ中の物体である車両を検知する。そして、物体検知部32は、車両が存在することを示す第1の検知信号を速度検出部33に出力する(ステップS3)。なお、この時点では撮像データ中に何か物体が存在することは検知できるが、撮像データ中の物体が車両ということまでは認識できていない。   As shown in FIG. 2, when the vehicle moves in the vehicle traveling direction and enters the first region, and the vehicle is present in the first imaging data output by the first imaging device 1 (step S2-Yes), The object detection unit 32 detects a vehicle that is an object in the first imaging data acquired from the imaging data storage unit 31. And the object detection part 32 outputs the 1st detection signal which shows that a vehicle exists to the speed detection part 33 (step S3). At this time, it can be detected that an object is present in the imaging data, but it cannot be recognized that the object in the imaging data is a vehicle.

次いで車両が第2の領域内に入り、第2の撮像装置2が出力する第2の撮像データ中に車両が存在すると(ステップS4−Yes)、物体検知部32は、撮像データ保存部31から取得したその第2の撮像データ中の物体である車両を検知する。そして、物体検知部32は、車両が存在することを示す第2の検知信号を速度検出部33に出力する(ステップS5)。   Next, when the vehicle enters the second area and the vehicle is present in the second imaging data output from the second imaging device 2 (step S <b> 4 -Yes), the object detection unit 32 starts from the imaging data storage unit 31. A vehicle that is an object in the acquired second imaging data is detected. And the object detection part 32 outputs the 2nd detection signal which shows that a vehicle exists to the speed detection part 33 (step S5).

速度検出部33は、第1の検知信号と第2の検知信号との両方が入力されると、各検知信号の入力の時間差から車両の通過速度Vを検出し、検出速度を物体認識部34に出力する(ステップS6)。   When both the first detection signal and the second detection signal are input, the speed detection unit 33 detects the passing speed V of the vehicle from the input time difference between the detection signals, and the detected speed is detected by the object recognition unit 34. (Step S6).

物体認識部34の画像サイズ変更部341は、速度検出部33からの検出速度Vが入力されると、撮像データ保存部31から撮像データを取得し、検出速度Vに応じて、撮像データに含まれる車両の画像のサイズを変更する(ステップS7)。このようにサイズ変更することにより、車両のライン方向の長さは、車両が基準速度Vbで通過する場合におけるライン方向の長さに対応したものとなる。   When the detection speed V from the speed detection unit 33 is input, the image size changing unit 341 of the object recognition unit 34 acquires the imaging data from the imaging data storage unit 31 and is included in the imaging data according to the detection speed V. The size of the vehicle image to be changed is changed (step S7). By changing the size in this way, the length in the line direction of the vehicle corresponds to the length in the line direction when the vehicle passes at the reference speed Vb.

画像サイズ変更部341は、サイズ変更処理を行うと、その変更後の撮像データを判定部342に出力する。ここで、サイズ変更される画像を含む撮像データは、第1の撮像装置1で撮像された第1の撮像データでも、第2の撮像装置2で撮像された第2の撮像データのいずれであってもよい。   When the image size changing unit 341 performs the size changing process, the image size changing unit 341 outputs the changed imaging data to the determining unit 342. Here, the imaging data including the image to be resized is either the first imaging data captured by the first imaging apparatus 1 or the second imaging data captured by the second imaging apparatus 2. May be.

判定部342は、画像サイズ変更部341から変更後の画像を含む撮像データが入力されると、変更された撮像データと、撮像データ保存部31に保存される複数のテンプレートデータとを比較し(ステップS8)、撮像データがテンプレートデータに含まれる対象物の特徴パターンを有するか否かを判定し、その判定結果を認識結果出力部343に出力する。   When the imaging data including the changed image is input from the image size changing unit 341, the determination unit 342 compares the changed imaging data with a plurality of template data stored in the imaging data storage unit 31 ( In step S8), it is determined whether or not the imaging data has a feature pattern of an object included in the template data, and the determination result is output to the recognition result output unit 343.

例えば撮像データ保存部31にテンプレートデータA、B、Cが保存されており、各テンプレートデータがそれぞれ、対象物である軽自動車、乗用車、トラックの特徴パターンを有する場合、判定部342は変更後の撮像データとテンプレートデータA、B、Cとをそれぞれパターンマッチング処理を行う。ここでは、撮像データにはテンプレートデータCの特徴パターンが含まれるものとして説明する。   For example, when template data A, B, and C are stored in the imaging data storage unit 31, and each template data has a characteristic pattern of a light vehicle, a passenger car, and a truck that are objects, the determination unit 342 displays Pattern matching processing is performed on the imaging data and the template data A, B, and C, respectively. Here, description will be made assuming that the imaging data includes the feature pattern of the template data C.

このとき、撮像データにふくまれる車両のライン方向の長さは、車両がいずれの速度で通過しようとも、基準速度Vbで通過する場合のライン方向の長さに対応するようサイズ変更されており、また、テンプレートデータA、B、Cに含まれる対象物の特徴パターンは基準速度Vbで通行する場合のサイズに対応させたものとなっている。そのため、車両の通過速度が異なることによるミスマッチを防止し、パターンマッチング処理のマッチング精度の低下を防止することができる。また、様々な通過速度に対応したテンプレートデータを用意する必要がないので、パターンマッチング処理における計算コストを下げることが可能となる。   At this time, the length in the line direction of the vehicle included in the imaging data is resized to correspond to the length in the line direction when the vehicle passes at the reference speed Vb, regardless of the speed. Further, the feature patterns of the objects included in the template data A, B, and C are made to correspond to the size when passing at the reference speed Vb. Therefore, it is possible to prevent mismatch due to different passing speeds of the vehicles and to prevent the matching accuracy of the pattern matching process from being lowered. In addition, since it is not necessary to prepare template data corresponding to various passing speeds, it is possible to reduce the calculation cost in the pattern matching process.

認識処理部343は、判定部342での判定結果にもとづいて物体を認識し、その結果を出力する(ステップS9)。つまり、認識処理部343は、判定部342から、撮像データにはテンプレートデータCの特徴パターンが含まれるという判定結果が入力されると、撮像データに含まれる物体である車両はトラックであると認識し、その結果を出力する。   The recognition processing unit 343 recognizes the object based on the determination result in the determination unit 342, and outputs the result (step S9). That is, when the determination result that the imaging data includes the feature pattern of the template data C is input from the determination unit 342, the recognition processing unit 343 recognizes that the vehicle that is the object included in the imaging data is a truck. And output the result.

ここで、判定部342はサイズ変更された撮像データに含まれる物体の一部と対象物が同一か否か判定してもよい。すなわち、テンプレートデータを車軸の特徴量を有するデータとし、車両の画像を含む撮像データと車軸の特徴量を有するテンプレートデータとでパターンマッチング処理を行ってもよい。こうすることにより、物体である車両の一部に車軸が存在するか否かを判定、認識することが可能となる。またテンプレートデータについては、基準速度で通過する際の車軸の特徴量を有するテンプレートデータだけを保存していればよく、複数の速度に対応した車軸の特徴量を有する複数のテンプレートデータは不要となるので、保存しておくテンプレートデータのパターンの量を大幅に削減することができる。   Here, the determination unit 342 may determine whether a part of the object included in the resized imaging data is the same as the target object. That is, the template data may be data having an axle feature amount, and pattern matching processing may be performed using image data including a vehicle image and template data having an axle feature amount. By doing so, it is possible to determine and recognize whether or not the axle is present in a part of the vehicle that is the object. As for template data, it is only necessary to store template data having axle feature values when passing at a reference speed, and a plurality of template data having axle feature values corresponding to a plurality of speeds are not required. Therefore, the amount of template data patterns to be saved can be greatly reduced.

以上のように、本発明の実施の形態1によれば、検出した物体の速度に応じて撮像データに含まれる物体の画像をサイズ変更し、その変更後の撮像データとテンプレートデータとをパターンマッチング処理することにより物体を認識するので、マッチングの精度を向上させ精度高い物体認識が可能となる。   As described above, according to the first embodiment of the present invention, the size of the object image included in the imaging data is changed according to the detected speed of the object, and the changed imaging data and the template data are subjected to pattern matching. Since the object is recognized by processing, the accuracy of matching is improved and the object recognition can be performed with high accuracy.

また、複数の速度に対応した複数のテンプレートデータを予め用意する必要がなくなるので、撮像データとパターンマッチング処理するテンプレートデータ量が減少し、パターンマッチング処理における計算コストを削減して処理時間の増大を防止することが可能となる。   In addition, since it is not necessary to prepare a plurality of template data corresponding to a plurality of speeds in advance, the amount of template data to be subjected to pattern matching processing with imaging data is reduced, the calculation cost in the pattern matching processing is reduced, and the processing time is increased. It becomes possible to prevent.

また、検出した物体である車両の速度に応じて撮像データに含まれる物体の画像のサイズを変更し、その変更後の撮像データと車軸の特徴量を有するテンプレートデータとをパターンマッチング処理することにより、マッチングの精度を良くし、かつ、その計算コストを下げて、通行する車両の車軸を認識することが可能となる。   In addition, by changing the size of the image of the object included in the imaging data in accordance with the speed of the vehicle that is the detected object, pattern matching processing is performed on the imaging data after the change and the template data having the axle feature amount. Thus, it is possible to improve the matching accuracy and reduce the calculation cost, thereby recognizing the axle of the passing vehicle.

なお、これまで第1の撮像装置1から出力される第1の撮像データ及び第2の撮像装置2から出力される第2の撮像データは、撮像データ保存部31に一旦保存されてから物体検知部32及び物体認識部34に入力されていたが、この構成に限らず、例えば第1の撮像装置1及び第2の撮像装置2から直接物体検知部32及び物体認識部34に出力されることとしてもよい。以下も同様である。   The first imaging data output from the first imaging device 1 and the second imaging data output from the second imaging device 2 are temporarily stored in the imaging data storage unit 31 before the object detection. However, the present invention is not limited to this configuration, and is output directly from the first imaging device 1 and the second imaging device 2 to the object detection unit 32 and the object recognition unit 34, for example. It is good. The same applies to the following.

なお、これまで撮像データ保存部31は物体認識装置3の内部に備えられた構成としたが、これに限らず、物体認識装置3の外部の記憶装置に備えられた構成としてもよい。以下も同様である。   The imaging data storage unit 31 has been configured to be provided in the object recognition device 3 so far, but is not limited thereto, and may be configured to be provided in a storage device outside the object recognition device 3. The same applies to the following.

なお、これまで複数のテンプレートデータは撮像データ保存部31に保存されているとして説明を行ったが、これに限るものではなく、例えば物体認識装置3内の別メモリに保存してもよいし、物体認識部34の内部メモリに保存してもよい。以下も同様である。   In the above description, a plurality of template data has been described as being stored in the imaging data storage unit 31. However, the present invention is not limited to this, and may be stored in another memory in the object recognition device 3, for example. You may preserve | save in the internal memory of the object recognition part 34. FIG. The same applies to the following.

実施の形態2.
以下図面を用いて本発明の実施の形態2について説明する。図8は実施の形態2に係る物体認識システムの構成図である。図9は実施の形態2における第1の撮像装置と速度計の配置を説明するための図である。図10は実施の形態2の動作を説明するフローチャートである。実施の形態1の画像表示システムの構成に相当する部分には図1と同一符号を付してその説明を省略する。
Embodiment 2. FIG.
The second embodiment of the present invention will be described below with reference to the drawings. FIG. 8 is a configuration diagram of an object recognition system according to the second embodiment. FIG. 9 is a diagram for explaining the arrangement of the first imaging device and the speedometer in the second embodiment. FIG. 10 is a flowchart for explaining the operation of the second embodiment. Portions corresponding to the configuration of the image display system according to the first embodiment are denoted by the same reference numerals as those in FIG.

実施の形態2の物体認識システムは、図8に示すように、第1の撮像装置1と、物体認識装置3と、速度計4とを備え、物体認識装置3は撮像データ保存部31と物体認識部34を有する。また、物体認識部34は、実施の形態1と同様に、図5に示す画像変換部341、判定部342、認識結果出力部343とを有する。実施の形態2の物体認識システムは、撮像装置が1台である点と、物体認識装置3が物体検知部32と速度検出部33とを有していない点において実施の形態1と異なる。   As shown in FIG. 8, the object recognition system of Embodiment 2 includes a first imaging device 1, an object recognition device 3, and a speedometer 4. The object recognition device 3 includes an imaging data storage unit 31 and an object. It has a recognition unit 34. Similarly to the first embodiment, the object recognition unit 34 includes an image conversion unit 341, a determination unit 342, and a recognition result output unit 343 illustrated in FIG. The object recognition system of the second embodiment is different from that of the first embodiment in that there is one imaging device and that the object recognition device 3 does not include the object detection unit 32 and the speed detection unit 33.

速度計4は、図9に示すように、通行経路の傍に、第1の撮像装置1と所定の間隔をおいて設置されている。この速度計4は、通過する車両等の物体が速度を検出する領域内に入ると、物体の速度を検知して物体認識部34の速度比較部340に出力する。なお、速度計4は物体速度検出手段を構成する。   As shown in FIG. 9, the speedometer 4 is installed at a predetermined distance from the first imaging device 1 near the traffic route. The speedometer 4 detects the speed of the object and outputs it to the speed comparison section 340 of the object recognition section 34 when an object such as a passing vehicle enters the speed detection region. The speedometer 4 constitutes an object speed detection means.

図10を用いて本発明の実施の形態2の動作について説明する。   The operation of the second embodiment of the present invention will be described with reference to FIG.

第1の撮像装置1は所定時間間隔で取得した第1の撮像データを物体認識装置3の撮像データ保存部31に出力している(ステップS01)。   The first imaging device 1 outputs the first imaging data acquired at predetermined time intervals to the imaging data storage unit 31 of the object recognition device 3 (step S01).

車両が車両進行方向に移動して速度計4による速度を検出する領域内に入り、速度計4が車両の速度を検出すると(ステップS02−Yes)、その検出した速度を物体認識部34の画像サイズ変更部341に出力する(ステップS03)。なお、この時点では撮像データ中の物体が車両ということは認識できていない。   When the vehicle moves in the vehicle traveling direction and enters the region where the speedometer 4 detects the speed, and the speedometer 4 detects the speed of the vehicle (step S02-Yes), the detected speed is displayed on the image of the object recognition unit 34. It outputs to the size change part 341 (step S03). At this time, it cannot be recognized that the object in the imaging data is a vehicle.

速度計4により検出された速度が画像サイズ変更部341に入力された後の処理(ステップS04〜S06)については、実施の形態1で説明した図7のステップS7〜S9と同一であるので、説明を省略する。   Since the processing (steps S04 to S06) after the speed detected by the speedometer 4 is input to the image size changing unit 341 is the same as steps S7 to S9 of FIG. 7 described in the first embodiment, Description is omitted.

以上のように、本発明の実施の形態2によれば、速度計4により物体の通行速度を検出し、その検出速度に応じて撮像データに含まれる物体の画像をサイズ変更し、その変更後の撮像データとテンプレートデータとをパターンマッチング処理することにより物体を認識するので、実施の形態1よりも撮像装置の設置台数が減り、物体認識装置3において物体検知処理、速度検出処理が不要となるので、実施の形態1と同一の効果を有することに加え、さらに計算コストを下げることが可能となり、また、装置規模を縮小することが可能となる。   As described above, according to the second embodiment of the present invention, the speed of the object is detected by the speedometer 4, and the size of the image of the object included in the imaging data is changed according to the detected speed. Since the object is recognized by pattern matching processing of the imaging data and the template data, the number of installed imaging devices is reduced as compared with the first embodiment, and the object recognition processing and the speed detection processing are not required in the object recognition device 3. Therefore, in addition to having the same effect as that of the first embodiment, it is possible to further reduce the calculation cost and reduce the scale of the apparatus.

実施の形態3.
以下図面を用いて本発明の実施の形態3について説明する。図11は実施の形態3に係る物体認識部の構成図である。図12は実施の形態3に係る高度ヒストグラム算出処理の一例を説明するための図である。図13は実施の形態3における撮像データに対しての検知フラグ算出処理の一例を説明するための図である。図14は実施の形態3の動作を説明するフローチャートである。図15は実施の形態3に係る高度ヒストグラム算出処理の他の例を説明するための図である。図16は実施の形態3における撮像データに対しての検知フラグ算出処理の他の例を説明するための図である。実施の形態1の画像表示システムの構成に相当する部分には図1と同一符号を付してその説明を省略する。
Embodiment 3 FIG.
Embodiment 3 of the present invention will be described below with reference to the drawings. FIG. 11 is a configuration diagram of an object recognition unit according to the third embodiment. FIG. 12 is a diagram for explaining an example of the altitude histogram calculation process according to the third embodiment. FIG. 13 is a diagram for explaining an example of a detection flag calculation process for imaging data according to the third embodiment. FIG. 14 is a flowchart for explaining the operation of the third embodiment. FIG. 15 is a diagram for explaining another example of the altitude histogram calculation process according to the third embodiment. FIG. 16 is a diagram for explaining another example of the detection flag calculation process for the imaging data in the third embodiment. Portions corresponding to the configuration of the image display system according to the first embodiment are denoted by the same reference numerals as those in FIG.

実施の形態3の物体認識システムは、物体認識装置3の構成が実施の形態1と異なり、図11に示すように、新たに速度比較部340と、平均化処理部344と、ヒストグラム算出領域設定部345と、高度ヒストグラム算出部346と、データ存在確率算出部347と、検知フラグ生成部348とを備える。なお、速度比較部340、平均化処理部344、ヒストグラム算出領域設定部345、高度ヒストグラム算出部346、データ存在確率算出部347、検知フラグ生成部348、はそれぞれ、速度比較手段340と、平均化処理手段344と、ヒストグラム算出領域設定手段345と、高度ヒストグラム算出手段346と、データ存在確率算出手段347と、検知フラグ生成手段348を構成する。   In the object recognition system of the third embodiment, the configuration of the object recognition device 3 is different from that of the first embodiment. As shown in FIG. 11, a speed comparison unit 340, an averaging processing unit 344, and a histogram calculation region setting are newly added. Unit 345, altitude histogram calculation unit 346, data existence probability calculation unit 347, and detection flag generation unit 348. The speed comparison unit 340, the averaging processing unit 344, the histogram calculation region setting unit 345, the altitude histogram calculation unit 346, the data existence probability calculation unit 347, and the detection flag generation unit 348 are respectively compared with the speed comparison unit 340 and the averaging. The processing unit 344, the histogram calculation region setting unit 345, the altitude histogram calculation unit 346, the data existence probability calculation unit 347, and the detection flag generation unit 348 are configured.

速度比較部340は、速度検出部33から検出速度Vが入力されると、その検出速度Vと予め設定された速度閾値Vthとを比較し、検出速度Vが速度閾値Vthよりも速ければその検出速度Vを画像サイズ変更部341に出力する。一方、速度比較部340は、検出速度Vが速度閾値Vthよりも遅い場合、又は速度検出部33から車両の速度を検出できなかったことを表すエラー信号が入力された場合は、画像サイズ変更部341に検出速度Vを出力せず、平均化処理部344に対して処理を行うよう指示する指示信号を出力する。ここで、車両の速度を検出できない場合とは、例えば撮像装置の前で車両が停止した場合等が該当する。   When the detection speed V is input from the speed detection unit 33, the speed comparison unit 340 compares the detection speed V with a preset speed threshold Vth, and if the detection speed V is higher than the speed threshold Vth, the speed comparison unit 340 detects the detection speed V. The speed V is output to the image size changing unit 341. On the other hand, when the detected speed V is slower than the speed threshold Vth, or when an error signal indicating that the vehicle speed cannot be detected is input from the speed detector 33, the speed comparison unit 340 The detection speed V is not output to 341, and an instruction signal instructing the averaging processing unit 344 to perform processing is output. Here, the case where the speed of the vehicle cannot be detected corresponds to the case where the vehicle stops in front of the imaging device, for example.

速度閾値Vthは、物体認識を行う制限時間内に車両を認識することができる最低の速度値である。すなわち、車両の形状全てを含む画像を保存するために必要な最低の速度であり、車両の通過速度がこのVthを下回ったとき、制限時間内に車両の全形状の画像が含まれる撮像データが得られないこととなる。速度閾値Vthの求め方についての詳細は後述する。   The speed threshold Vth is the lowest speed value at which the vehicle can be recognized within the time limit for performing object recognition. That is, it is the minimum speed necessary for storing an image including the entire shape of the vehicle, and when the vehicle passing speed falls below the Vth, imaging data including an image of the entire shape of the vehicle within the time limit is obtained. It will not be obtained. Details of how to obtain the speed threshold Vth will be described later.

平均化処理部344は、速度比較部340から指示信号が入力されると、撮像データ保存部31から撮像データを取得し、撮像データに含まれる車両画像のライン方向に対して移動平均処理を行う。この移動平均処理を行うことにより、移動平均点数をNAとして、このNAの平方根倍でSNR(Signal to Noise Ratio)が上昇し、画質を向上させることが可能となる。移動平均点数NAは任意に定めることができるが、1例としては、物体認識を行う必要がある制限時間をTLとすると、式(4)のように求められる。   When an instruction signal is input from the speed comparison unit 340, the averaging processing unit 344 acquires imaging data from the imaging data storage unit 31, and performs a moving average process on the line direction of the vehicle image included in the imaging data. . By performing this moving average processing, assuming that the moving average score is NA, the SNR (Signal to Noise Ratio) increases by the square root multiple of the NA, and the image quality can be improved. The moving average score NA can be arbitrarily determined. As an example, when the time limit for performing object recognition is TL, the moving average score NA is obtained as shown in Expression (4).

Figure 0005838750
Figure 0005838750

なお、平均化処理部344の代わりにFIR(Finite Impulse Response)フィルタ、Butterworthフィルタ等のIIRフィルタを用いその次数をNAとしてもよい。   Instead of the averaging processing unit 344, an IIR filter such as a FIR (Finite Impulse Response) filter or a Butterworth filter may be used, and the order may be NA.

ここでの撮像データは、強度データと距離データとからなる三次元データに相当するが、これに限定するものではなく、例えば距離データの三次元データのみに相当するものであってもよい。また、ここでの撮像データは、第1の撮像データでも第2の撮像データのいずれでもよく、以下は単に撮像データとして説明する。   The imaging data here corresponds to three-dimensional data composed of intensity data and distance data, but is not limited to this, and may correspond to only three-dimensional data of distance data, for example. Further, the imaging data here may be either the first imaging data or the second imaging data, and the following will be described simply as imaging data.

ヒストグラム算出領域設定部345は、平均化処理部344により移動平均処理がなされた撮像データに対して、第1の領域(又は第2の領域)を所定領域に絞り込み、絞り込んだ所定領域についての撮像データを出力する。この所定領域をヒストグラム算出領域と定義して以下説明する。   The histogram calculation region setting unit 345 narrows down the first region (or the second region) to a predetermined region with respect to the imaging data that has been subjected to the moving average processing by the averaging processing unit 344, and performs imaging for the narrowed down predetermined region. Output data. This predetermined area is defined as a histogram calculation area and will be described below.

このヒストグラム算出領域は、図12に示すよう、高度方向の上限値H1a、下限値H2a、奥行距離方向の上限値S1a、下限値S2aとで囲まれた領域である。例えば、高度方向の上限値H1aは撮像装置で撮像可能な最大高さに設定され、高度方向の下限値H2aは国産車の最低地上高度に設定され、奥行距離方向の上限値S1aは車両が走行している車線幅に設定され、奥行距離方向の下限値S2aは撮像装置と車両との最小距離に設定されるが、これに限定されるものではない。   As shown in FIG. 12, the histogram calculation area is an area surrounded by an upper limit value H1a in the altitude direction, a lower limit value H2a, an upper limit value S1a in the depth distance direction, and a lower limit value S2a. For example, the upper limit value H1a in the altitude direction is set to the maximum height that can be imaged by the imaging device, the lower limit value H2a in the altitude direction is set to the lowest ground altitude of the domestic vehicle, and the upper limit value S1a in the depth distance direction is set by the vehicle. The lower limit value S2a in the depth distance direction is set to the minimum distance between the imaging device and the vehicle, but is not limited to this.

高度ヒストグラム算出部346は、撮像データのうちのヒストグラム算出領域を高度(高さ)方向にN分割して総数N個の区間(高さビン)Bhaを作成し高度ヒストグラムCaを算出する。この高さビンBhaの幅は任意に設定できるが、例えば撮像データの有する高さ方向の空間分解能に相当する値とすればよい。   The altitude histogram calculation unit 346 divides the histogram calculation area of the imaging data into N (altitude) directions to create N total sections (height bins) Bha and calculates the altitude histogram Ca. The width of the height bin Bha can be set arbitrarily, but may be a value corresponding to the spatial resolution in the height direction of the imaging data, for example.

図12では高さビンの分割数を2と設定し、車両のルーフ部分Baに該当する撮像データが上部のビンに複数個格納され、車両のドア部分Ba、車両床部分、及びタイヤ部分A’に該当する撮像データが下部のビンに複数個格納される。路面はヒストグラム算出領域外となっているので、路面に該当する撮像データは高さビンには格納されない。そして、高度ヒストグラム算出部346は、算出したヒストグラムをデータ存在確率算出部347に出力する。   In FIG. 12, the division number of the height bin is set to 2, and a plurality of imaging data corresponding to the roof portion Ba of the vehicle are stored in the upper bin, and the vehicle door portion Ba, vehicle floor portion, and tire portion A ′. A plurality of image data corresponding to the above are stored in the lower bin. Since the road surface is outside the histogram calculation area, imaging data corresponding to the road surface is not stored in the height bin. Then, the altitude histogram calculation unit 346 outputs the calculated histogram to the data existence probability calculation unit 347.

データ存在確率算出部347は、高度ヒストグラム算出部346で算出された高度ヒストグラムCaに基づき、強度データ又は距離データが所定数以上格納されたビン数nと、高さ方向に分割したビン総数Nとの比率n/Nをデータ存在確率Paとして算出する。そして、データ存在確率算出部347は、図13(a)に示す撮像データに含まれる車両の断面、つまりライン方向に沿ってデータ存在確率Paを取得する(図13(b)に対応)。そして、データ存在確率算出部347は、車両のライン方向に沿って得たデータ存在確率Paについてのデータを検知フラグ生成部に出力する。なお、撮像データに含まれる車両の画像は、車両の検出速度Vが速度閾値Vthを下回っているため、図13(a)に示すように、車両の全形状のうち一部領域が欠落した画像となる。   Based on the altitude histogram Ca calculated by the altitude histogram calculation unit 346, the data existence probability calculation unit 347 includes the bin number n in which a predetermined number or more of intensity data or distance data is stored, and the total number N of bins divided in the height direction. The ratio n / N is calculated as the data existence probability Pa. Then, the data existence probability calculating unit 347 acquires the data existence probability Pa along the cross section of the vehicle included in the imaging data shown in FIG. 13A, that is, along the line direction (corresponding to FIG. 13B). Then, the data existence probability calculation unit 347 outputs data about the data existence probability Pa obtained along the line direction of the vehicle to the detection flag generation unit. Note that the image of the vehicle included in the imaging data is an image in which a part of the entire shape of the vehicle is missing as shown in FIG. 13A because the detected speed V of the vehicle is below the speed threshold Vth. It becomes.

検知フラグ生成部348は、データ存在確率算出部347で算出されたデータ存在確率Paと予め設定された閾値とを比較することにより検知フラグを生成する。   The detection flag generation unit 348 generates a detection flag by comparing the data presence probability Pa calculated by the data presence probability calculation unit 347 with a preset threshold value.

検知フラグ生成部348は複数の閾値の組(上限閾値、下限閾値)を有し、データ存在確率Paが、上限閾値よりも高い場合には検知フラグをH、上限閾値よりも低く下限閾値よりも高い場合はM、下限閾値よりも低い場合はLとする。複数の閾値の組は対象物毎、すなわち車種毎、車両サイズ毎に異なるものとされており、例えばトラック用の閾値の組D、軽自動車用の閾値の組E、乗用車用の閾値の組Fはそれぞれ異なる値である。このように検知フラグ生成部348は、対象物に応じて値が異なる複数の閾値の組と、データ存在確率Paとをそれぞれ比較する。   The detection flag generation unit 348 has a plurality of threshold sets (upper limit threshold, lower limit threshold). When the data existence probability Pa is higher than the upper limit threshold, the detection flag is H, lower than the upper limit threshold, and lower than the lower limit threshold. If it is higher, M, and if it is lower than the lower threshold, L. A plurality of threshold value sets are different for each object, that is, for each vehicle type and each vehicle size. For example, a threshold value set D for trucks, a threshold value set E for light vehicles, and a threshold value set F for passenger cars Are different values. As described above, the detection flag generation unit 348 compares a plurality of threshold sets having different values depending on the object with the data existence probability Pa.

例えば図13(b)に示すデータ存在確率Paが入力されると、検知フラグ生成部348は、このデータ存在確率Paと上限閾値、下限閾値との比較を行う。ここでは撮像データに含まれる物体である車両は乗用車とし、比較用の閾値の組も乗用車用の閾値の組Fとする。比較の結果、図13(a)に示す撮像データのうち、車両のタイヤ部分におけるデータ存在確率Paは上限閾値を超えているのでHとなる。車両のルーフ部分におけるデータ存在確率Paは下限閾値よりも大きくかつ上限閾値未満となるのでMとなる。その他の部分におけるデータ存在確率Paは下限閾値よりも小さくなるのでLとなる。その結果、図13(c)に示されるパターンの検知フラグが検知フラグ生成部348により生成される。   For example, when the data existence probability Pa shown in FIG. 13B is input, the detection flag generation unit 348 compares the data existence probability Pa with the upper limit threshold and the lower limit threshold. Here, the vehicle that is the object included in the imaging data is a passenger car, and the threshold set for comparison is also the threshold set F for the passenger car. As a result of the comparison, among the imaging data shown in FIG. 13A, the data existence probability Pa in the tire portion of the vehicle is H because it exceeds the upper threshold. The data existence probability Pa in the roof portion of the vehicle is M because it is greater than the lower limit threshold and less than the upper limit threshold. The data existence probability Pa in the other part is L because it is smaller than the lower limit threshold. As a result, the detection flag generation unit 348 generates a detection flag having the pattern shown in FIG.

検知フラグ生成部348は、乗用車用の閾値の組F以外の組の閾値に対してもデータ存在確率Paと比較するが、F以外の組の閾値においては図13(c)に示されるような検知フラグのパターンは生成されない。これは、乗用車とトラック、乗用車と軽自動車とでライン方向におけるデータ存在確率Paの値が異なるためである。そのため、閾値の組Fにおいて図13(c)のような検知フラグのパターンが生成されるのは、乗用車に対しては乗用車用の閾値の組Fだけとなる。   The detection flag generation unit 348 compares the data existence probability Pa with respect to threshold values other than the threshold value set F for passenger cars, but the threshold values other than F are as shown in FIG. No detection flag pattern is generated. This is because the value of the data existence probability Pa in the line direction differs between a passenger car and a truck, and between a passenger car and a light vehicle. Therefore, the detection flag pattern as shown in FIG. 13C in the threshold set F is generated only for the passenger car threshold set F for a passenger car.

検知フラグ生成部348は、データ存在確率Paと対象物に応じた閾値の組とをそれぞれ比較して複数の検知フラグを生成すると、生成した検知フラグパターンと対応する対象物の情報とを対応づけて認識処理部343に出力する。例えば上記の閾値の組D、E、Fと図13(b)に示すデータ存在確率Pとを比較した場合、Dと比較され生成された検知フラグパターンと「トラック」という情報、Eと比較され生成された検知フラグパターンと「軽自動車」、Fと比較され生成された検知フラグパターン(図13(c)に対応)と「乗用車」という情報をそれぞれ認識処理部343に出力する。   When the detection flag generation unit 348 generates a plurality of detection flags by comparing the data existence probability Pa and a set of threshold values corresponding to the target object, the detection flag generation unit 348 associates the generated detection flag pattern with the corresponding target object information. To the recognition processing unit 343. For example, when the above threshold value sets D, E, and F are compared with the data existence probability P shown in FIG. 13B, the detection flag pattern generated by comparing with D is compared with the information “track” and E. The generated detection flag pattern and “light vehicle”, and the detection flag pattern (corresponding to FIG. 13C) generated by comparing with F and the information “passenger car” are output to the recognition processing unit 343, respectively.

認識処理部343は、検知フラグ生成部348から出力された検知フラグパターンと当該パターンに対応する対象物の情報とに基づいて、物体の認識を行う。つまり、認識処理部343は、入力された複数の検知フラグパターンを読み取り、所望の検知フラグパターンに対応する閾値の組についての情報から、物体の認識を行う。例えば閾値の組D、E、Fとの比較により生成された検知フラグパターンと対応する対象物の情報とが入力された場合、認識処理部343は、物体を、図13(c)に示す所望の検知フラグパターンに対応する乗用車であると認識する。   The recognition processing unit 343 recognizes an object based on the detection flag pattern output from the detection flag generation unit 348 and information on the target corresponding to the pattern. That is, the recognition processing unit 343 reads a plurality of input detection flag patterns, and recognizes an object from information about a set of threshold values corresponding to a desired detection flag pattern. For example, when the detection flag pattern generated by comparison with the threshold sets D, E, and F and the corresponding target object information are input, the recognition processing unit 343 selects the object shown in FIG. It is recognized as a passenger car corresponding to the detection flag pattern.

図14を用いて本発明の実施の形態3の動作について説明する。   The operation of the third embodiment of the present invention will be described with reference to FIG.

ステップS001からS006までの処理については、実施の形態1で説明した図7のステップS1〜S6と同一であるので、説明を省略する。   Since the processing from steps S001 to S006 is the same as steps S1 to S6 in FIG. 7 described in the first embodiment, the description thereof is omitted.

速度比較部340は、速度検出部33により検出された検出速度Vと速度閾値Vthとを比較し(ステップS007)、検出速度Vが設定速度Vbよりも速い場合(ステップS008−Yes)、画像サイズ変更部341に検出速度Vを出力し、その後ステップS009〜S011までの処理がなされることとなる。これらステップS009〜S011までの処理は、実施の形態1で説明した図7のステップS7〜S9と同一であるので、説明を省略する。   The speed comparison unit 340 compares the detection speed V detected by the speed detection unit 33 with the speed threshold Vth (step S007), and when the detection speed V is faster than the set speed Vb (step S008-Yes), the image size The detection speed V is output to the changing unit 341, and then the processing from steps S009 to S011 is performed. Since the processing from these steps S009 to S011 is the same as the steps S7 to S9 in FIG. 7 described in the first embodiment, the description thereof is omitted.

速度比較部340は、速度検出部33により検出された検出速度Vが設定速度Vbよりも遅い場合、又は速度検出部33からエラー信号が入力された場合(ステップS008−No)、ステップS009〜S011までの処理はなされず、ステップS012〜S017までの処理がなされるよう、処理が切り替わる。つまり、速度比較部340は、画像サイズ変更部341に検出速度Vを出力せず、平均化処理部344に対して指示信号を出力することにより処理を切り替える。   When the detected speed V detected by the speed detecting unit 33 is slower than the set speed Vb, or when an error signal is input from the speed detecting unit 33 (step S008-No), the speed comparing unit 340 performs steps S009 to S011. The process is switched so that the processes from steps S012 to S017 are performed. That is, the speed comparison unit 340 does not output the detection speed V to the image size changing unit 341 but switches the processing by outputting an instruction signal to the averaging processing unit 344.

平均化処理部344は、速度比較部340より指示信号が出力されると、撮像データ保存部31から取得した撮像データに対し移動平均処理を行い、ノイズの除去をする(ステップS012)。   When the instruction signal is output from the speed comparison unit 340, the averaging processing unit 344 performs a moving average process on the imaging data acquired from the imaging data storage unit 31 to remove noise (step S012).

ヒストグラム算出領域設定部345は、移動平均処理が行われた撮像データにおける第1の領域(又は第2の領域)を絞り込み、ヒストグラム算出領域を得る(ステップS013)。   The histogram calculation area setting unit 345 narrows down the first area (or the second area) in the imaging data on which the moving average processing has been performed, and obtains a histogram calculation area (step S013).

高度ヒストグラム算出部346は、ヒストグラム算出領域を高さ方向にN分割して総数N個の高さビンBhaを作成し高度ヒストグラムCaを算出する(ステップS014)。高度ヒストグラム算出部346は、この高度ヒストグラムを車両のライン方向に沿って算出する。   The altitude histogram calculation unit 346 divides the histogram calculation area into N in the height direction to create a total of N height bins Bha and calculates the altitude histogram Ca (step S014). The altitude histogram calculation unit 346 calculates this altitude histogram along the line direction of the vehicle.

データ存在確率算出部347は、車両のライン方向に沿って算出された高度ヒストグラムに基づき、強度データ又は距離データが所定数以上格納されたビン数nと、高さ方向に分割したビン総数Nとの比率n/Nから、車両のライン方向に沿ったデータ存在確率Paを算出する(ステップS015)。   Based on the altitude histogram calculated along the line direction of the vehicle, the data existence probability calculation unit 347 includes a bin number n in which a predetermined number or more of intensity data or distance data is stored, and a bin total number N divided in the height direction. From the ratio n / N, the data existence probability Pa along the line direction of the vehicle is calculated (step S015).

検知フラグ生成部348は、データ存在確率算出部347で算出されたデータ存在確率Paと、対象物に応じてそれぞれ値が異なる閾値の組とを比較することにより複数の検知フラグを生成し、生成した複数の検知フラグパターンと各パターンに対応する対象物の情報とを認識処理部343に出力する(ステップS016)。   The detection flag generation unit 348 generates and generates a plurality of detection flags by comparing the data existence probability Pa calculated by the data existence probability calculation unit 347 and a set of thresholds having different values depending on the object. The plurality of detected flag patterns and the information on the object corresponding to each pattern are output to the recognition processing unit 343 (step S016).

認識処理部343は、検知フラグ生成部348から出力された検知フラグのパターンとそのパターンに対応する対象物の情報とから、検知された物体を、所望の検知フラグパターンに対応する対象物であると認識する(ステップS017)。   The recognition processing unit 343 is a target corresponding to a desired detection flag pattern from the detection flag pattern output from the detection flag generation unit 348 and information on the target corresponding to the pattern. (Step S017).

ここで、ヒストグラム算出領域設定部345は、上述したように、車両全体が含まれるような領域をヒストグラム算出領域として設定してもよいが、図15(a)(b)に示すように、車両のタイヤが含まれる程度の広さの領域に設定してもよい。この場合、ヒストグラム算出領域設定部345は、例えば高度方向の上限値H1を国産車の最低地上高度、下限値H2を路面に対する高度の標準偏差値、奥行距離方向の上限値S1を国内で販売されているタイヤ幅の最大値、下限値S2を撮像装置1と物体との最小距離、のように設定する。   Here, as described above, the histogram calculation area setting unit 345 may set an area including the entire vehicle as the histogram calculation area. However, as shown in FIGS. You may set to the area | region of the extent to which the tire of this is included. In this case, for example, the histogram calculation region setting unit 345 sells the upper limit value H1 in the altitude direction as the minimum ground altitude of the domestic vehicle, the lower limit value H2 as the standard deviation value of the altitude relative to the road surface, and the upper limit value S1 in the depth distance direction. The maximum value and the lower limit value S2 of the tire width are set as the minimum distance between the imaging device 1 and the object.

高度ヒストグラム算出部346は、ヒストグラム算出領域を高さ方向にN分割して総数N個の高さビンBhを作成し、高度ヒストグラムを算出する。図15(a)に示すように、ヒストグラム算出領域内にタイヤが存在する場合は、設定した高さビンBhのいずれの位置においても強度データ又は距離データが存在するヒストグラムCになるので、データ存在確率Paは100%となる。   The altitude histogram calculation unit 346 divides the histogram calculation area into N in the height direction to create a total of N height bins Bh, and calculates an altitude histogram. As shown in FIG. 15 (a), when there is a tire in the histogram calculation region, the histogram C in which intensity data or distance data exists is present at any position of the set height bin Bh. The probability Pa is 100%.

一方、図15(b)に示すように、ヒストグラム算出領域内にタイヤが存在しない場合、設定した高さビンBhの一部についてのみ強度データ又は距離データが存在するので、偏ったヒストグラムCとなり、データ存在確率Paは25%程度となる。高度ヒストグラム算出部346は、上述したように、車両のライン方向に沿って高度ヒストグラムを算出する。   On the other hand, as shown in FIG. 15 (b), when there is no tire in the histogram calculation region, since intensity data or distance data exists only for a part of the set height bin Bh, a biased histogram C is obtained. The data existence probability Pa is about 25%. As described above, the altitude histogram calculation unit 346 calculates the altitude histogram along the line direction of the vehicle.

データ存在確率算出部347は、ヒストグラム算出領域内にタイヤが存在する場合、図16(a)に示す車両のライン方向に沿ってデータ存在確率Pを取得する(図16(b)に対応)。ここで得られたデータ存在確率Pは、車両のタイヤが検知されるときに値が高くなる。   When there is a tire in the histogram calculation area, the data existence probability calculation unit 347 acquires the data existence probability P along the vehicle line direction shown in FIG. 16A (corresponding to FIG. 16B). The data existence probability P obtained here has a higher value when a vehicle tire is detected.

検知フラグ生成部348は、データ存在確率Pと予め設定した閾値とを比較することにより検知フラグを生成し、生成した検知フラグパターンを認識処理部343に出力する。   The detection flag generation unit 348 generates a detection flag by comparing the data existence probability P with a preset threshold value, and outputs the generated detection flag pattern to the recognition processing unit 343.

検知フラグは、図16(b)に示すデータ存在確率Pのうち、タイヤが存在しない部分においては閾値を超えず値が0となり、タイヤが存在する部分においては閾値を超え1となる。そのため、検知フラグ生成部348は、タイヤが存在する場合には図16(c)に示すようなタイヤの存在を表す1の検知フラグパターンを生成し、タイヤが存在しない場合においては0の検知フラグパターンを生成することとなる。   In the data existence probability P shown in FIG. 16 (b), the detection flag does not exceed the threshold value in the portion where the tire does not exist and becomes 0, and exceeds 1 in the portion where the tire exists. Therefore, the detection flag generation unit 348 generates one detection flag pattern indicating the presence of the tire as shown in FIG. 16C when the tire is present, and detects zero when the tire is not present. A pattern will be generated.

認識処理部343は、検知フラグ生成部348から出力された検知フラグパターンから、物体にタイヤが存在するか否か、言い換えると、物体に車軸が存在するか否かを判定する。そして、認識処理部343は、物体に車軸が存在すると判定すると、物体は車両であると認識する。   The recognition processing unit 343 determines from the detection flag pattern output from the detection flag generation unit 348 whether a tire exists on the object, in other words, whether an axle exists on the object. When the recognition processing unit 343 determines that the axle is present on the object, the recognition processing unit 343 recognizes that the object is a vehicle.

なお、取得された撮像データに含まれる車両の画像に後輪のタイヤも含まれた場合、検知フラグのパターンは1のピークが2つ生じるようなパターンとなり、前輪のタイヤのみが検出された場合と同様に物体中に車軸が存在すると判定され、認識処理部343により物体は車両であると認識される。   When the rear wheel tire is also included in the image of the vehicle included in the acquired imaging data, the detection flag pattern is a pattern in which two 1 peaks occur, and only the front wheel tire is detected. Similarly, it is determined that an axle is present in the object, and the recognition processing unit 343 recognizes that the object is a vehicle.

以上のように、本発明の実施の形態3によれば、実施の形態1の効果に加え、物体の検出速度が速度閾値よりも遅い場合又は物体の通過する速度が検出できなかった場合には、撮像データ内の領域を絞り込んだヒストグラム算出領域に対して高度ヒストグラムを算出し、その高度ヒストグラムから算出したデータ存在確率と閾値とを比較することにより検知フラグを生成し、その検知フラグのパターンから物体を認識するようにしたので、物体の形状全てを含む画像を保存できない場合であっても、物体を認識することが可能となる。   As described above, according to the third embodiment of the present invention, in addition to the effect of the first embodiment, when the detection speed of the object is lower than the speed threshold or when the speed of the object passing cannot be detected. Then, an altitude histogram is calculated for a histogram calculation area obtained by narrowing down the area in the imaging data, and a detection flag is generated by comparing the data existence probability calculated from the altitude histogram with a threshold, and from the detection flag pattern Since the object is recognized, the object can be recognized even when the image including all the shapes of the object cannot be saved.

なお、物体認識部347は、図11に図示しないデータ削除部を備えていてもよい。データ削除部は、撮像データ保存部31において保存していたデータ量の検査を行う。データ量閾値をMとすると、その決定方法として、例えば、搭載されているメモリ量をMe(bit)とすると、1ラインの画素数N、1データのbit数Fを用いて、式(5)のように求められる。   The object recognition unit 347 may include a data deletion unit (not shown in FIG. 11). The data deletion unit inspects the data amount stored in the imaging data storage unit 31. Assuming that the data amount threshold value is M, for example, if the installed memory amount is Me (bit), the number of pixels in one line N and the number of bits in data F are used to calculate the equation (5). It is required as follows.

Figure 0005838750
Figure 0005838750

また、データ削除部は、物体認識を行う必要がある制限時間TLを用いて、式(6)のように求めてもよい。ただし、式(5)又は式(6)に制限されるものではない。保存されていたデータ量がM以上である場合、データ削除部347は、最古のデータを破棄し、その結果を電気信号として撮像データ保存部31に出力する。   In addition, the data deletion unit may obtain the following equation (6) using the time limit TL that requires object recognition. However, it is not limited to Formula (5) or Formula (6). When the stored data amount is M or more, the data deletion unit 347 discards the oldest data and outputs the result to the imaging data storage unit 31 as an electrical signal.

Figure 0005838750
Figure 0005838750

ここで、速度閾値Vthの求め方についてその詳細を説明する。速度閾値Vthは、式(5)又は式(6)におけるMを用いて、式(7)のように表される。また、ユーザが任意にMを定義してもよい。   Here, details of how to obtain the speed threshold value Vth will be described. The speed threshold Vth is expressed as in Expression (7) using M in Expression (5) or Expression (6). The user may arbitrarily define M.

Figure 0005838750
Figure 0005838750

実施の形態4.
以下図面を用いて本発明の実施の形態4について説明する。図17は実施の形態4に係る物体認識部の構成図である。実施の形態1の画像表示システムの構成に相当する部分には図1と同一符号を付してその説明を省略する。
Embodiment 4 FIG.
Embodiment 4 of the present invention will be described below with reference to the drawings. FIG. 17 is a configuration diagram of an object recognition unit according to the fourth embodiment. Portions corresponding to the configuration of the image display system according to the first embodiment are denoted by the same reference numerals as those in FIG.

実施の形態4の物体認識システムは、実施の形態3の物体認識システムと比較して、図18に示すように、新たに平均化処理部344aと、ヒストグラム算出領域設定部345aと、高度ヒストグラム算出部346aと、データ存在確率算出部347aと、検知フラグ生成部348aとを備えた構成であってもよい。これら各構成はそれぞれ図11の平均化処理部344、ヒストグラム算出領域設定部345、高度ヒストグラム算出部346、データ存在確率算出部347、検知フラグ生成部348と同一の機能を有するためその説明は省略する。また、速度比較部340に検出速度が入力されるまでの動作は実施の形態3と同一であるので、その説明は省略する。   Compared with the object recognition system of the third embodiment, the object recognition system of the fourth embodiment newly includes an averaging processing unit 344a, a histogram calculation region setting unit 345a, and an altitude histogram calculation as shown in FIG. The configuration may include a unit 346a, a data existence probability calculation unit 347a, and a detection flag generation unit 348a. Each of these components has the same functions as the averaging processing unit 344, histogram calculation region setting unit 345, altitude histogram calculation unit 346, data existence probability calculation unit 347, and detection flag generation unit 348 of FIG. To do. Further, since the operation until the detection speed is input to the speed comparison unit 340 is the same as that of the third embodiment, the description thereof is omitted.

速度比較部340は、速度検出部33により検出された検出速度Vが速度閾値Vthよりも遅い場合、又は速度検出部33からエラー信号が入力された場合、平均化処理部344に指示信号を出力する。その後は図14のステップS012〜S017の処理がなされて物体が認識される。   The speed comparison unit 340 outputs an instruction signal to the averaging processing unit 344 when the detected speed V detected by the speed detection unit 33 is slower than the speed threshold Vth or when an error signal is input from the speed detection unit 33. To do. Thereafter, the processing of steps S012 to S017 in FIG. 14 is performed to recognize the object.

速度比較部340は、速度検出部33により検出された検出速度Vが速度閾値Vthよりも速い場合、画像サイズ変更部341及び平均化処理部344aに検出速度Vを出力する。その後は画像サイズ変更部341と、判定部342とにより図14のステップS009、S010の処理がなされ、また、平均化処理部344aと、ヒストグラム算出領域設定部345aと、高度ヒストグラム算出部346aと、データ存在確率算出部347aと、検知フラグ生成部348aとにより図14のステップS012〜S016に対応する処理もなされる。   When the detection speed V detected by the speed detection unit 33 is faster than the speed threshold Vth, the speed comparison unit 340 outputs the detection speed V to the image size changing unit 341 and the averaging processing unit 344a. Thereafter, the image size changing unit 341 and the determining unit 342 perform the processing of steps S009 and S010 in FIG. 14, and the averaging processing unit 344a, the histogram calculation region setting unit 345a, the altitude histogram calculation unit 346a, Processing corresponding to steps S012 to S016 in FIG. 14 is also performed by the data existence probability calculation unit 347a and the detection flag generation unit 348a.

そして、認識処理部343は、判定部342から出力される判定結果と、検知フラグ生成部348aから出力される検知フラグパターン及び対象物の情報と、に基づいて、物体の認識結果を外部PC等へ出力する。つまり、認識処理部343は、画像のサイズが変更された撮像データと基準速度に対応するテンプレートデータとが比較された結果と、撮像データの高度方向について算出したヒストグラムから生成された検知フラグのパターン及び対象物の情報とから物体又は物体の一部を認識する。判定部342からの結果と検知フラグ生成部348aからの結果が異なる場合は、判定部342からの結果を優先させることが好ましい。   Then, the recognition processing unit 343 determines the object recognition result based on the determination result output from the determination unit 342 and the detection flag pattern and target object information output from the detection flag generation unit 348a. Output to. In other words, the recognition processing unit 343 detects the pattern of the detection flag generated from the result of comparison between the captured image data whose image size has been changed and the template data corresponding to the reference speed, and the histogram calculated for the altitude direction of the captured image data. And the object or part of the object is recognized from the information of the object. When the result from the determination unit 342 is different from the result from the detection flag generation unit 348a, the result from the determination unit 342 is preferably prioritized.

こうすることにより、実施の形態1〜3と比較して、認識処理部343における物体認識の精度を向上させることが可能となる。   By doing so, it is possible to improve the accuracy of object recognition in the recognition processing unit 343 as compared with the first to third embodiments.

なお、平均化処理部344aは、移動平均点数NAを、オフセットCを用いて式(8)のように求めてもよい。動的に移動平均点数を制御することによって、最適な平均化処理を行うことが可能となる。   Note that the averaging processing unit 344a may obtain the moving average score NA using the offset C as shown in Expression (8). It is possible to perform an optimal averaging process by dynamically controlling the moving average score.

Figure 0005838750
Figure 0005838750

なお、速度閾値Vthを複数設定してもよく、例えばVth、Vth_s(Vth<Vth_s)とすると、速度比較部340において検出速度VがVth_sよりも大きければ図14のステップS009〜S011に対応する処理がなされ、検出速度VがVthよりも小さければ図14のステップS012〜017に対応する処理がなされる。検出速度VがVthよりも大きくVth_sよりも小さければ、本実施の形態で説明したように、画像サイズ変更部341と、判定部342とにより図14のステップS009、S010の処理がなされ、また、平均化処理部344aと、ヒストグラム算出領域設定部345aと、高度ヒストグラム算出部346aと、データ存在確率算出部347aと、検知フラグ生成部348aとにより図14のステップS012〜S016に対応する処理がなされ、認識処理部343は判定部342から出力される判定結果と、検知フラグ生成部348aから出力される検知フラグパターン及び対象物の情報と、に基づいて、物体を認識する、というようにしてもよい。また、Vth_sについては任意に設定してもよい。   A plurality of speed threshold values Vth may be set. For example, assuming that Vth and Vth_s (Vth <Vth_s), if the detected speed V is larger than Vth_s in the speed comparison unit 340, processing corresponding to steps S009 to S011 in FIG. If the detected speed V is lower than Vth, processing corresponding to steps S012 to 017 in FIG. 14 is performed. If the detection speed V is larger than Vth and smaller than Vth_s, as described in the present embodiment, the image size changing unit 341 and the determining unit 342 perform the processes of steps S009 and S010 in FIG. Processing corresponding to steps S012 to S016 of FIG. 14 is performed by the averaging processing unit 344a, the histogram calculation region setting unit 345a, the altitude histogram calculation unit 346a, the data existence probability calculation unit 347a, and the detection flag generation unit 348a. The recognition processing unit 343 recognizes the object based on the determination result output from the determination unit 342 and the detection flag pattern and target object information output from the detection flag generation unit 348a. Good. Further, Vth_s may be set arbitrarily.

1 第1の撮像装置
2 第2の撮像装置
3 物体認識装置
31 撮像データ保存部
32 物体検知部
33 速度検出部
34 物体認識部
340 速度比較部
341 画像サイズ変更部
342 判定部
343 認識処理部
344、344a 平均化処理部
345、345a ヒストグラム算出領域設定部
346、346a 高度ヒストグラム算出部
347、347a データ存在確率算出部
348、348a 検知フラグ生成部
4 速度計
DESCRIPTION OF SYMBOLS 1 1st imaging device 2 2nd imaging device 3 Object recognition apparatus 31 Imaging data storage part 32 Object detection part 33 Speed detection part 34 Object recognition part 340 Speed comparison part 341 Image size change part 342 Determination part 343 Recognition processing part 344 344a Averaging processing unit 345, 345a Histogram calculation area setting unit 346, 346a Altitude histogram calculation unit 347, 347a Data existence probability calculation unit 348, 348a Detection flag generation unit 4 Speedometer

Claims (8)

物体が通過する所定領域にレーザ光を照射して得た撮像データを出力する撮像手段と、
前記物体が通過する速度を検出する物体速度検出手段と、
前記撮像手段から出力された前記撮像データに含まれる前記物体の画像のサイズを前記検出速度に応じて変更し、変更後の撮像データと基準速度に対応するテンプレートデータとを比較することにより前記物体又は前記物体の一部を認識する物体認識手段とを備え
前記物体認識手段は、
前記検出速度と予め設定した速度閾値とを比較する速度比較部を有し、
前記検出速度が前記速度閾値よりも速い場合には前記撮像データに含まれる前記物体の画像のサイズを前記検出速度に応じて変更し、変更後の撮像データと基準速度に対応するテンプレートデータとを比較して前記物体又は前記物体の一部を認識し、
前記検出速度が前記速度閾値よりも遅い場合又は前記物体の速度が検出されない場合には、前記撮像データの高度方向について算出したヒストグラムから検知フラグを生成し、前記検知フラグのパターンから前記物体又は前記物体の一部を認識することを特徴とする物体認識システム。
Imaging means for outputting imaging data obtained by irradiating laser light to a predetermined region through which an object passes;
An object speed detecting means for detecting a speed at which the object passes;
The size of the image of the object included in the imaging data output from the imaging means is changed according to the detection speed, and the imaging data after the change is compared with template data corresponding to a reference speed. Or an object recognition means for recognizing a part of the object ,
The object recognition means includes
A speed comparison unit that compares the detected speed with a preset speed threshold;
When the detection speed is faster than the speed threshold, the image size of the object included in the imaging data is changed according to the detection speed, and the changed imaging data and template data corresponding to the reference speed are obtained. Recognize the object or part of the object in comparison,
When the detection speed is slower than the speed threshold or when the speed of the object is not detected, a detection flag is generated from the histogram calculated for the altitude direction of the imaging data, and the object or the An object recognition system characterized by recognizing a part of an object.
前記物体認識手段は、
前記基準速度に対する前記検出速度の割合に基づいて前記物体又は前記物体の一部の画像の通過方向の長さを変更してサイズを変更するサイズ変更部と、
前記サイズ変更部で変更された画像を有する前記撮像データと対象物の特徴量を有する前記テンプレートデータとでパターンマッチング処理を行い、前記撮像データが前記対象物の特徴量を有するか否かを判定する判定部と、
前記判定部により前記撮像データが前記対象物の特徴量を有すると判定された場合に、前記物体又は前記物体の一部を前記対象物と認識する認識処理部とを有することを特徴とする請求項1に記載の物体認識システム。
The object recognition means includes
A size changing unit that changes the size by changing the length of the image of the object or a part of the object based on the ratio of the detection speed to the reference speed; and
A pattern matching process is performed between the imaging data having the image changed by the size changing unit and the template data having the feature amount of the object, and it is determined whether the imaging data has the feature amount of the object. A determination unit to perform,
And a recognition processing unit that recognizes the object or a part of the object as the target when the determination unit determines that the imaging data has a feature amount of the target. Item 4. The object recognition system according to Item 1.
前記撮像手段は、
前記物体が通過する第1の領域にレーザ光を照射して取得した第1の撮像データを出力する第1の撮像部と、前記第1の撮像部に対して前記物体の通過方向に所定間隔をおいて配置され、前記物体が通過する第2の領域にレーザ光を照射して取得した第2の撮像データを出力する第2の撮像部とを有し、
前記物体速度検出手段は、
前記第1の撮像データから前記第1の領域内の前記物体を検知したことを示す第1の検知信号を出力し、前記第2の撮像データから前記第2の領域内の前記物体を検知したことを示す第2の検知信号を出力する物体検知部と、
前記第1の検知信号と前記第2の検知信号との入力の時間差から前記物体の通過する速度を検出する速度検出部とを有し、
前記物体認識手段は、前記第1の撮像データ又は前記第2の撮像データのいずれかに含まれる前記物体の画像のサイズを変更して前記物体又は前記物体の一部を認識することを特徴とする請求項1又は2に記載の物体認識システム。
The imaging means includes
A first imaging unit that outputs first imaging data acquired by irradiating a first region through which the object passes, and a predetermined interval in the passing direction of the object with respect to the first imaging unit; And a second imaging unit that outputs second imaging data acquired by irradiating a laser beam to a second region through which the object passes, and
The object speed detecting means is
A first detection signal indicating that the object in the first area is detected from the first imaging data is output, and the object in the second area is detected from the second imaging data. An object detection unit that outputs a second detection signal indicating that;
A speed detection unit that detects a speed at which the object passes from a time difference between inputs of the first detection signal and the second detection signal;
The object recognizing means recognizes the object or a part of the object by changing a size of an image of the object included in either the first imaging data or the second imaging data. The object recognition system according to claim 1 or 2.
前記物体認識手段は、
前記検出速度が前記速度閾値よりも遅い場合又は前記物体の速度が検出されない場合に、前記撮像データの高度方向についてのヒストグラムを算出する高度ヒストグラム算出部と、
前記高度ヒストグラム算出部で算出された前記高度ヒストグラムのうち所定数以上の前記撮像データが存在する割合をデータ存在確率として算出するデータ存在確率算出部と、
前記データ存在確率算出部で算出された前記データ存在確率と予め設定された閾値とを比較して前記検知フラグを生成する検知フラグ生成部とを有し、
前記認識処理部は、前記検知フラグ生成部で生成された前記検知フラグのパターンから前記物体又は前記物体の一部を認識することを特徴とする請求項1から3のいずれか1項に記載の物体認識システム。
The object recognition means includes
An altitude histogram calculation unit that calculates a histogram for the altitude direction of the imaging data when the detection speed is slower than the speed threshold or when the speed of the object is not detected;
A data existence probability calculating unit that calculates a ratio of the imaging data of a predetermined number or more in the altitude histogram calculated by the altitude histogram calculating unit as a data existence probability;
A detection flag generation unit that generates the detection flag by comparing the data presence probability calculated by the data presence probability calculation unit with a preset threshold;
The said recognition process part recognizes the said object or a part of said object from the pattern of the said detection flag produced | generated by the said detection flag production | generation part, The any one of Claim 1 to 3 characterized by the above-mentioned. Object recognition system.
前記高度ヒストグラム算出部は、前記撮像データを高度方向に分割してN個のビンを作成し、
前記データ存在確率算出部は、前記ビンの個数Nに対する前記撮像データが所定数よりも多く格納されたビンの個数nの比率n/Nを前記データ存在確率として算出することを特徴とする請求項に記載の物体認識システム。
The altitude histogram calculation unit creates N bins by dividing the imaging data in an altitude direction,
The data existence probability calculating unit calculates, as the data existence probability, a ratio n / N of the number of bins n in which more than a predetermined number of the imaging data is stored with respect to the number N of bins. 5. The object recognition system according to 4 .
前記物体認識手段は、
前記検出速度が前記速度閾値よりも速い場合に、前記検出速度に応じて画像サイズが変更された撮像データと基準速度に対応するテンプレートデータとを比較した結果と、前記撮像データの高度方向について算出したヒストグラムから生成された前記検知フラグのパターンとに基づいて前記物体又は前記物体の一部を認識することを特徴とする請求項1から請求項5のいずれか1項に記載の物体認識システム。
The object recognition means includes
When the detection speed is faster than the speed threshold, a comparison is made between the imaging data whose image size is changed according to the detection speed and the template data corresponding to the reference speed, and the altitude direction of the imaging data is calculated. the object or the object object recognition system of the placing serial any to one of claims 1 to 5, characterized in that to recognize a portion of the based on the the pattern of the detecting flag generated from the histogram .
前記物体は車両であるとともに、前記物体の一部は車軸であることを特徴とする請求項1から請求項6のいずれか1項に記載の物体認識システム。 The object recognition system according to any one of claims 1 to 6, wherein the object is a vehicle, and a part of the object is an axle. 物体が通過する所定領域にレーザ光を照射して得られた撮像データが入力され物体又は物体の一部を認識する物体認識装置であって、
前記物体が通過する速度を検出する物体速度検出手段と、
前記撮像手段から出力された前記撮像データに含まれる前記物体の画像のサイズを前記検出速度に応じて変更し、変更後の撮像データと基準速度に対応するテンプレートデータとを比較することにより前記物体又は前記物体の一部を認識する物体認識手段とを備え
前記物体認識手段は、
前記検出速度と予め設定した速度閾値とを比較する速度比較部を有し、
前記検出速度が前記速度閾値よりも速い場合には前記撮像データに含まれる前記物体の画像のサイズを前記検出速度に応じて変更し、変更後の撮像データと基準速度に対応するテンプレートデータとを比較して前記物体又は前記物体の一部を認識し、
前記検出速度が前記速度閾値よりも遅い場合又は前記物体の速度が検出されない場合には、前記撮像データの高度方向について算出したヒストグラムから検知フラグを生成し、前記検知フラグのパターンから前記物体又は前記物体の一部を認識することを特徴とする物体認識装置。
An object recognition device for recognizing an object or a part of an object by inputting imaging data obtained by irradiating a predetermined area through which the object passes with laser light
An object speed detecting means for detecting a speed at which the object passes;
The size of the image of the object included in the imaging data output from the imaging means is changed according to the detection speed, and the imaging data after the change is compared with template data corresponding to a reference speed. Or an object recognition means for recognizing a part of the object ,
The object recognition means includes
A speed comparison unit that compares the detected speed with a preset speed threshold;
When the detection speed is faster than the speed threshold, the image size of the object included in the imaging data is changed according to the detection speed, and the changed imaging data and template data corresponding to the reference speed are obtained. Recognize the object or part of the object in comparison,
When the detection speed is slower than the speed threshold or when the speed of the object is not detected, a detection flag is generated from the histogram calculated for the altitude direction of the imaging data, and the object or the An object recognition apparatus characterized by recognizing a part of an object.
JP2011251258A 2011-11-17 2011-11-17 Object recognition system and object recognition apparatus Active JP5838750B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011251258A JP5838750B2 (en) 2011-11-17 2011-11-17 Object recognition system and object recognition apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011251258A JP5838750B2 (en) 2011-11-17 2011-11-17 Object recognition system and object recognition apparatus

Publications (2)

Publication Number Publication Date
JP2013105474A JP2013105474A (en) 2013-05-30
JP5838750B2 true JP5838750B2 (en) 2016-01-06

Family

ID=48624923

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011251258A Active JP5838750B2 (en) 2011-11-17 2011-11-17 Object recognition system and object recognition apparatus

Country Status (1)

Country Link
JP (1) JP5838750B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6426433B2 (en) * 2014-10-27 2018-11-21 株式会社日立製作所 Image processing apparatus, image processing method, POI information creation system, warning system, and guidance system
JP6724670B2 (en) * 2016-09-09 2020-07-15 日産自動車株式会社 Vehicle detection method and vehicle detection device
EP3574647B1 (en) * 2017-01-25 2022-10-26 Carrier Corporation Line array detection and imaging system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3658137B2 (en) * 1997-05-07 2005-06-08 株式会社リコー Moving object recognition method
JP3403697B2 (en) * 1999-05-28 2003-05-06 日本電信電話株式会社 Image processing method and apparatus
JP5478419B2 (en) * 2009-10-22 2014-04-23 三菱電機株式会社 Axle detection system

Also Published As

Publication number Publication date
JP2013105474A (en) 2013-05-30

Similar Documents

Publication Publication Date Title
EP2924653B1 (en) Image processing apparatus and image processing method
JP5143235B2 (en) Control device and vehicle surrounding monitoring device
JP4832321B2 (en) Camera posture estimation apparatus, vehicle, and camera posture estimation method
CN108445496B (en) Ranging calibration device and method, ranging equipment and ranging method
JP5208147B2 (en) Camera calibration device for in-vehicle camera
JP6456499B2 (en) Three-dimensional object detection device, stereo camera device, vehicle, and three-dimensional object detection method
JP6601506B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method, image processing program, and vehicle
WO2014027478A1 (en) Road environment recognition device
US11030761B2 (en) Information processing device, imaging device, apparatus control system, movable body, information processing method, and computer program product
JP5937832B2 (en) In-vehicle camera exposure control system
CN107428261B (en) Lifting hook detection device based on image processing
JP5838750B2 (en) Object recognition system and object recognition apparatus
JP6241172B2 (en) Vehicle position estimation device and vehicle position estimation method
JP6683245B2 (en) Image processing device, image processing method, image processing program, object recognition device, and device control system
JPWO2019082628A1 (en) Image processing equipment, imaging equipment, driving support equipment, moving objects, and image processing methods
JP7052265B2 (en) Information processing device, image pickup device, device control system, mobile body, information processing method, and information processing program
WO2018034304A1 (en) Image processing system
JP6331628B2 (en) Lane recognition device
JPH0757200A (en) Method and device for recognizing travel course
JP4995555B2 (en) Image processing device
WO2018100971A1 (en) Information processing device, imaging device, apparatus control system, movable body, information processing method, and computer program product
JP5867207B2 (en) Image processing apparatus, image processing system, and image processing method
JP2006302095A (en) Image processing apparatus, image processing method, image processing program, and recording medium
JPH11259641A (en) Method for observing body, body observing device using the same method, and vehicle observing device
JP2017090987A (en) Unoccupied compartment identifying system, method, and program

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20140326

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140919

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151013

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151026

R151 Written notification of patent or utility model registration

Ref document number: 5838750

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250