JP2015002401A - Image processing apparatus, image processing method, and image processing program - Google Patents
Image processing apparatus, image processing method, and image processing program Download PDFInfo
- Publication number
- JP2015002401A JP2015002401A JP2013125311A JP2013125311A JP2015002401A JP 2015002401 A JP2015002401 A JP 2015002401A JP 2013125311 A JP2013125311 A JP 2013125311A JP 2013125311 A JP2013125311 A JP 2013125311A JP 2015002401 A JP2015002401 A JP 2015002401A
- Authority
- JP
- Japan
- Prior art keywords
- image
- processing
- resizing
- unit
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/015—Detecting movement of traffic to be counted or controlled with provision for distinguishing between two or more types of vehicles, e.g. between motor-cars and cycles
Abstract
Description
この発明は、カメラで撮像した対象エリアのフレーム画像を処理し、大きさが異なる複数種類のオブジェクトを検出する技術に関する。 The present invention relates to a technique for processing a frame image of a target area captured by a camera and detecting a plurality of types of objects having different sizes.
従来、カメラで撮像したフレーム画像を処理し、このフレーム画像に撮像されている人や車両等のオブジェクトの検出や、検出したオブジェクトの追跡(トラッキング)を行う画像処理装置がある。例えば、特許文献1には、交差点を撮像したフレーム画像を処理し、分岐方向別(直進、右折、左折)に車両台数を計数する交通流計測装置が記載されている。
2. Description of the Related Art Conventionally, there is an image processing apparatus that processes a frame image captured by a camera, detects an object such as a person or a vehicle captured in the frame image, and tracks (tracks) the detected object. For example,
また、交差点において計数した分岐方向別(直進、右折、左折)の車両台数や、横断歩道を通行している歩行者の有無等を用いて、この交差点に設置されている信号灯機を制御することも行われている。 Also, control the signal lights installed at this intersection using the number of vehicles by branching direction (straight, right turn, left turn) counted at the intersection and the presence / absence of pedestrians crossing the pedestrian crossing. Has also been done.
しかしながら、カメラで撮像したフレーム画像を処理して、撮像されているオブジェクトを検出したり、追跡したりする場合、画像の解像度が検出するオブジェクトに対して適正でないと、その精度を確保することができない。一方で、検出したり、追跡したりするオブジェクトの大きさや、移動速度等によって、そのオブジェクトに対する画像の解像度の適正範囲(精度を十分に確保できる範囲)が異なる。 However, when a frame image captured by a camera is processed to detect or track an imaged object, the accuracy can be ensured if the resolution of the image is not appropriate for the detected object. Can not. On the other hand, depending on the size of the object to be detected or tracked, the moving speed, etc., the appropriate range of the resolution of the image for that object (a range where sufficient accuracy can be ensured) varies.
したがって、大きさや移動速度が異なる複数種類のオブジェクトについて、検出や追跡を行うシステム(例えば、交差点において自動車(四輪車)、バイク(二輪車)、歩行者等の複数種類のオブジェクトを検出し追跡するシステム、)では、画像の解像度を、いずれかの種類のオブジェクトに対して適正な範囲に設定すると、他の種類のオブジェクトに対する画像の解像度が適正な範囲から外れてしまうことがある。画像の解像度が適正な範囲から外れた種類のオブジェクトについては、検出や追跡にかかる精度を確保することができない。 Therefore, a system for detecting and tracking a plurality of types of objects having different sizes and moving speeds (for example, detecting and tracking a plurality of types of objects such as an automobile (four-wheeled vehicle), a motorcycle (two-wheeled vehicle), and a pedestrian at an intersection). In the system), if the image resolution is set to an appropriate range for any type of object, the image resolution for other types of objects may be out of the appropriate range. The accuracy of detection and tracking cannot be ensured for objects of a type whose image resolution is out of the proper range.
このように、従来の装置では、大きさや、移動速度等が異なる複数種類のオブジェクトについて、検出や追跡を精度よく行うことが困難であった。 As described above, in the conventional apparatus, it is difficult to accurately detect and track a plurality of types of objects having different sizes and moving speeds.
なお、オブジェクトの種類毎に、そのオブジェクトに対して適正な画像の解像度の範囲は、ある程度の幅がある(適正な画像の解像度は、特定の値ではない。)。 For each type of object, the range of image resolution appropriate for the object has a certain range (the appropriate image resolution is not a specific value).
この発明の目的は、大きさや、移動速度等が異なる複数種類のオブジェクトについて、検出や追跡が精度よく行える技術を提供することにある。 An object of the present invention is to provide a technique capable of accurately detecting and tracking a plurality of types of objects having different sizes and moving speeds.
この発明の画像処理装置は、上述の目的を達するために、以下のように構成している。 In order to achieve the above object, the image processing apparatus of the present invention is configured as follows.
画像入力部には、カメラで撮像した対象エリアのフレーム画像が入力される。画像入力部に入力されたフレーム画像上には、検出対象であるオブジェクトの種類(車両、歩行者等)を定めた複数の処理領域が設定されている。各処理領域は、他の処理領域とその一部が重なっていてもよいし、重なっていなくてもよい。 A frame image of the target area captured by the camera is input to the image input unit. On the frame image input to the image input unit, a plurality of processing regions that define the types of objects (vehicles, pedestrians, etc.) that are detection targets are set. Each processing region may or may not overlap with another processing region.
リサイジング処理部は、処理領域毎に、その処理領域の画像を、検出対象であるオブジェクトの種類に応じた解像度の画像に変換したリサイジング画像を生成する。 The resizing processing unit generates, for each processing area, a resizing image obtained by converting the image of the processing area into an image having a resolution corresponding to the type of object to be detected.
そして、オブジェクト検出部は、リサイジング処理部が生成したリサイジング画像を処理し、検出対象である種類のオブジェクトを検出する。 Then, the object detection unit processes the resizing image generated by the resizing processing unit, and detects the type of object that is the detection target.
このように、カメラで撮像したフレーム画像を直接処理してオブジェクトを検出するのではなく、検出対象であるオブジェクトの種類を定めた処理領域毎に、その処理領域について検出対象であるオブジェクトの種類に応じた解像度のリサイジング画像を生成し、このリサイジング画像を処理してオブジェクトを検出する。したがって、大きさや、移動速度等が異なる複数種類のオブジェクトについて検出や追跡を行う場合であっても、オブジェクトの種類毎に検出や追跡が精度よく行える。 In this way, instead of directly processing the frame image captured by the camera to detect the object, for each processing region that defines the type of object to be detected, the processing region is changed to the type of object to be detected. A resizing image with a corresponding resolution is generated, and the resizing image is processed to detect an object. Therefore, even when a plurality of types of objects having different sizes, moving speeds, and the like are detected and tracked, detection and tracking can be performed with accuracy for each type of object.
また、オブジェクトの種類毎に、カメラを設置する必要がないので、システムの大型化やコストアップが抑えられる。 In addition, since it is not necessary to install a camera for each type of object, an increase in the size and cost of the system can be suppressed.
また、リサイジング処理部は、処理領域毎に、予め設定した画素数のリサイジング画像を生成する構成としてもよい。この場合には、フレーム画像上に設定する処理領域の大きさを、生成されるリサイジング画像において、その処理領域に定めた検出対象のオブジェクトの種類に応じた解像度になるように定めておけばよい。 The resizing processing unit may generate a resizing image having a preset number of pixels for each processing region. In this case, if the size of the processing area set on the frame image is determined so as to have a resolution corresponding to the type of object to be detected set in the processing area in the generated resizing image. Good.
なお、リサイジング処理部は、処理領域毎に、その処理領域について予め定められている解像度の画像を生成する構成であってもよい。この場合には、フレーム画像上に設定する処理領域の大きさに関係なく解像度を設定できる。但し、各処理領域について生成されるリサイジング画像の画素数が均一にならない。 The resizing processing unit may be configured to generate an image having a resolution determined in advance for each processing region. In this case, the resolution can be set regardless of the size of the processing area set on the frame image. However, the number of pixels of the resizing image generated for each processing region is not uniform.
また、オブジェクト検出部が検出したオブジェクト毎に、時間経過にともなう対象エリア上の位置の変化を示すオブジェクトマップを生成するオブジェクトマップ生成部を備えてもよい。これにより、検出したオブジェクト毎に、時間経過にともなう位置の変化(移動軌跡)を得ることができる。 Moreover, you may provide the object map production | generation part which produces | generates the object map which shows the change of the position on the target area with progress of time for every object which the object detection part detected. As a result, a change in position (movement trajectory) with time can be obtained for each detected object.
また、画像入力部に、対象エリアに対するアングルが異なる複数のカメラで撮像したフレーム画像を入力し、リサイジング処理部、およびオブジェクト検出部を、カメラ毎に設けてもよい。これにより、あるカメラのフレーム画像において、手前に位置するオブジェクトの影になって撮像されなかったオブジェクトの見逃しが防止できる。 In addition, frame images captured by a plurality of cameras having different angles with respect to the target area may be input to the image input unit, and a resizing processing unit and an object detection unit may be provided for each camera. As a result, in a frame image of a certain camera, it is possible to prevent an object that has not been captured due to a shadow of an object positioned in front of the camera from being overlooked.
また、オブジェクトマップ生成部についても、カメラ毎に設けるのが好ましい。この場合、カメラ毎に設けたオブジェクトマップ生成部が生成したオブジェクトマップを検出したオブジェクト単位で統合する統合部を備えればよい。これにより、複数のカメラのフレーム画像から検出されたオブジェクトを、1つのオブジェクトとして処理できる。 Also, it is preferable to provide an object map generation unit for each camera. In this case, an integration unit that integrates the object map generated by the object map generation unit provided for each camera in units of detected objects may be provided. Thereby, the object detected from the frame image of a some camera can be processed as one object.
また、対象エリアは、交差点とする場合には、検出するオブジェクトの種類を、車両(自動車やバイク)や歩行者等にすればよい。また、オブジェクト検出部の検出結果に基づき、対象エリアである交差点における車両、または人の通過を示す出力信号を出力する構成とすればよい。これにより、交通量に応じた信号灯機の制御が行える。 In addition, when the target area is an intersection, the type of object to be detected may be a vehicle (automobile or motorcycle), a pedestrian, or the like. Moreover, what is necessary is just to set it as the structure which outputs the output signal which shows the passage of the vehicle in the intersection which is a target area, or a person based on the detection result of an object detection part. Thereby, control of the signal lamp according to traffic volume can be performed.
この発明によれば、大きさや、移動速度等が異なる複数種類のオブジェクトについて、検出や追跡が精度よく行える。 According to the present invention, it is possible to accurately detect and track a plurality of types of objects having different sizes and moving speeds.
以下、この発明の実施形態である画像処理装置について説明する。 Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described.
図1は、この例にかかる画像処理装置の主要部の構成を示すブロック図である。この例にかかる画像処理装置1は、制御部2と、画像入力部3と、画像処理プロセッサ4と、出力部5と、を備えている。この例にかかる画像処理装置1は、交差点における車両、および歩行者の検出、および追跡を行う。この例は、説明を簡単にするため、検出するオブジェクトの種類を車両(自動車(四輪車)、およびバイク(二輪車))と、歩行者との2種類にしている。
FIG. 1 is a block diagram showing the configuration of the main part of the image processing apparatus according to this example. The
制御部2は、画像処理装置1本体各部の動作を制御する。また、後述する統合処理(この発明で言う統合部に相当する構成)や出力信号生成処理を行う。
The
画像入力部3は、接続されている2台のビデオカメラ10、11が撮像した交差点のフレーム画像が入力される。ビデオカメラ10、11のフレームレートは、数十フレーム/sec(例えば、30フレーム/sec)である。
The image input unit 3 receives a frame image of an intersection captured by the two connected
画像処理プロセッサ4は、一方のビデオカメラ10から入力されたフレーム画像を処理して、検出対象である車両、および歩行者の検出、追跡を行う第1の画像処理部41と、他方のビデオカメラ11から入力されたフレーム画像を処理して、検出対象である車両、および歩行者の検出、追跡を行う第2の画像処理部42と、を備えている。画像処理プロセッサ4の詳細については、後述する。この画像処理プロセッサ4が、この発明にかかる画像処理方法を実行するコンピュータに相当する。また、この画像処理プロセッサ4が、この発明にかかる画像処理プログラムを実行させるコンピュータに相当する。
The image processor 4 processes a frame image input from one
出力部5は、検出対象である車両、および歩行者の検出、追跡にかかる処理結果に基づく信号(制御部2が生成した出力信号)を出力する。例えば、出力部5は、交差点に設置されている信号灯機を制御する信号制御装置(不図示)に対して、車両や歩行者の通過信号(通過パルス)を出力する。また、出力部5は、交差点の交通量をモニタリングする装置に対して、交差点における車両の分岐方向別(直進、右折、左折)の台数を計数して出力する構成であってもよい。すなわち、出力部5から出力する信号(制御部2が生成する出力信号)は、その信号を入力する装置や、用途に応じて決定すればよい。 The output unit 5 outputs a signal (an output signal generated by the control unit 2) based on a detection result of a vehicle and a pedestrian to be detected and a processing result related to tracking. For example, the output unit 5 outputs a passing signal (passing pulse) of a vehicle or a pedestrian to a signal control device (not shown) that controls a signal lamp installed at an intersection. Further, the output unit 5 may be configured to count and output the number of vehicles by the branch direction (straight forward, right turn, left turn) at the intersection with respect to a device that monitors traffic at the intersection. That is, a signal output from the output unit 5 (an output signal generated by the control unit 2) may be determined according to a device that inputs the signal and an application.
2台のビデオカメラ10、11は、図2に示すように、交差点を対向して撮像する向きに設置している。また、各ビデオカメラ10、11は交差点全体を撮像エリア内に収められるように、撮像レンズとして広角レンズを使用している。また、ビデオカメラ10、11は、メガピクセル(例えば、縦×横が1300×1000程度)の撮像素子を備えている。図2から明らかなように、交差点に対するビデオカメラ10、11のアングルは異なっている。
As shown in FIG. 2, the two
なお、2台のビデオカメラ10は、一方のビデオカメラ10(または11)において、大型車両(バスやトラック等)が撮像されたときに、その背後に位置する車両(普通自動車)や歩行者等が隠れて撮像されないときでも、他方のビデオカメラ11(または10)において、その車両や歩行者等が撮像できるように設置している。言い換えれば、他のオブジェクトによって隠れが生じることなく、撮像エリア内に位置する全てのオブジェクトが撮像できる環境であれば、交差点に設置するカメラは1台であってもよい。また、交差点に設置するカメラは3台以上であってもよい。ここでは、上述したように、2台のビデオカメラ10、11を設置している場合を例にして説明する。
The two
画像入力部3は、一方のビデオカメラ10が撮像した交差点のフレーム画像を入力する第1の画像入力部(不図示)と、他方のビデオカメラ11が撮像した交差点のフレーム画像を入力する第2の画像入力部(不図示)と、を備えている。画像入力部3には、入力されたフレーム画像を一時的に記憶する画像メモリ(不図示)を備えている。
The image input unit 3 inputs a first image input unit (not shown) that inputs an intersection frame image captured by one
図3は、画像処理プロセッサの機能構成を示す機能ブロック図である。画像処理プロセッサ4は、第1の画像処理部41と、第2の画像処理部42とを備えている。第1の画像処理部41と、第2の画像処理部42とは、同じ機能構成である。第1の画像処理部41は、一方のビデオカメラ10が撮像した交差点のフレーム画像を処理し、第2の画像処理部42は、他方のビデオカメラ11が撮像した交差点のフレーム画像を処理する。
FIG. 3 is a functional block diagram showing the functional configuration of the image processor. The image processor 4 includes a first
なお、交差点に設置しているビデオカメラ10(または11)が1台である場合には、第2の画像処理部42(または、第1の画像処理部41)を不要にできる。また、交差点に設置しているビデオカメラが3台以上であれば、画像処理プロセッサ4は、ビデオカメラの台数分の画像処理部を備える。 When there is one video camera 10 (or 11) installed at the intersection, the second image processing unit 42 (or the first image processing unit 41) can be omitted. If there are three or more video cameras installed at the intersection, the image processing processor 4 includes image processing units as many as the number of video cameras.
第1の画像処理部41は、リサイジング処理機能部411と、車両検出処理機能部412と、車両追跡処理機能部413と、車両判定処理機能部414と、歩行者検出処理機能部415と、歩行者追跡処理機能部416と、歩行者判定処理機能部417と、を備えている。
The first
リサイジング処理機能部411は、画像入力部3の第1の画像入力部に入力されたフレーム画像に対して設定されている処理領域毎に、解像度を変換したリサイジング画像を生成するリサイジング処理を行う。図4は、一方のビデオカメラが撮像した交差点のフレーム画像を示す図である。図4に示すように、ビデオカメラ10が撮像したフレーム画像に対して、複数の処理領域が設定されている。図4に示す例では、2つの処理領域100、101は、検出対象のオブジェクトの種類を車両と定めた領域(以下、車両検出処理領域100、101と言う。)である。また、4つの処理領域110〜113は、検出する対象のオブジェクトの種類を歩行者と定めた領域(以下、歩行者検出処理領域110〜113と言う。)である。
The resizing
図4に示すように、車両検出処理領域100は交差点内をカバーする領域であり、車両検出処理領域101は、フレーム画像を撮像したビデオカメラ10の設置側と反対側の停止線付近をカバーする領域である。図4では、車両検出処理領域100と、車両検出処理領域101とは、その一部が重複している例である。また、4つの歩行者検出処理領域110〜113は、それぞれ交差点に設けられている横断歩道をカバーする領域である。歩行者検出処理領域110〜113は、他の歩行者検出処理領域110〜113と重複していない。但し、歩行者検出領域110〜113は、その一部が車両検出処理領域100、101と重複している。
As shown in FIG. 4, the vehicle
リサイジング処理機能部411は、車両検出処理領域100、101、および歩行者検出処理領域110〜113毎に、予め設定している画素数の画像(この例では、640×480画素のVGA画像)に変換するリサイジング処理を行う。このリサイジング処理により生成した画像を、ここではリサイジング画像と言う。車両検出処理領域100、101のリサイジング画の解像度は、車両の検出における適正な範囲内である。また、歩行者検出処理領域110〜113のリサイジング画像の解像度は、歩行者の検出における適正な範囲内である。言い換えれば、 車両検出処理領域100、101は、生成されるリサイジング画像の解像度が車両の検出において適正な範囲に収まるように設定しており、歩行者検出処理領域110〜113は、生成されるリサイジング画像の解像度が歩行者の検出において適正な範囲内に収まるように設定している。このリサイジング処理は、公知の最近傍補間(ニアレストネイバー)、双一次補間(バイリニア補間)、または双三次補間(バイキュービック補間)等の方法を利用して行えばよい。図5(A)は、車両検出処理領域100にかかるリサイジング画像を示す図であり、図5(B)は、歩行者検出処理領域110にかかるリサイジング画像を示す図である。
The resizing
なお、車両検出処理領域100、101にかかるリサイジング画像の解像度は、車両の検出に適した解像度の範囲内に収まるだけであって、これら2つの領域のリサイジング画像の解像度が同じであるということではない。同様に、歩行者検出処理領域110〜113にかかるリサイジング画像の解像度は、歩行者の検出に適した解像度の範囲内に収まるだけであって、これら4つの領域のリサイジング画像の解像度が同じであるということではない。
Note that the resizing image resolution for the vehicle
車両検出処理機能部412は、検出対象が車両である車両検出処理領域100、101について、それぞれリサイジング画像を処理して撮像されている車両を検出する。車両検出処理機能部412は、公知のパターンマッチング等を利用して撮像されている車両を検出する。
The vehicle detection
車両追跡処理機能部413は、車両検出処理機能部412が検出した車両毎に、その車両のID、検出時刻(フレーム画像の撮像時刻)、位置(交差点上の位置を示す座標)、状態を対応付けたオブジェクトマップを生成する。このオブジェクトマップでは、検出した車両の位置を交差点上の位置にしているので、2つの車両検出処理領域100、101が重複している部分に位置する車両の同定が行える。したがって、車両検出処理領域100にかかるリサイジング画像、および車両検出処理領域101にかかるリサイジング画像において検出された同じ車両を、1台の車両として検出できる。
For each vehicle detected by the vehicle detection
車両判定処理機能部414は、車両追跡処理機能部413でオブジェクトマップが生成された車両毎に、その車両についてすでに生成されているオブジェクトマップから得られる車両の移動軌跡に基づいて状態を判定する。ここで判定する車両の状態は、交差点流入前、交差点内、および交差点流出である。
The vehicle determination
歩行者検出処理機能部415は、検出対象が歩行者である歩行者検出処理領域110〜113について、それぞれリサイジング画像を処理して撮像されている歩行者を検出する。歩行者検出処理機能部415は、公知のパターンマッチング等を利用して撮像されている歩行者を検出する。
The pedestrian detection
歩行者追跡処理機能部416は、歩行者検出処理機能部415が検出した歩行者毎に、その歩行者のID、検出時刻(フレーム画像の撮像時刻)、位置(交差点上の位置を示す座標)を対応付けたオブジェクトマップを生成する。このオブジェクトマップでも、検出した歩行者の位置を交差点上の位置にしているので、複数の歩行者検出処理領域110〜113が重複している部分に位置する歩行者の同定が行える。
The pedestrian tracking
なお、図4に示した例は、歩行者検出処理領域110〜113が重複していない例である。
In addition, the example shown in FIG. 4 is an example in which the pedestrian
歩行者判定処理機能部417は、歩行者追跡処理機能部416でオブジェクトマップが生成された歩行者毎に、その歩行者についてすでに生成されているオブジェクトマップから得られる歩行者の移動軌跡に基づいて状態を判定する。ここで判定する歩行者の状態は、横断歩道外歩行者(信号待ち等で横断歩道を横断していない歩行者)、中央通過歩行者(横断歩道の中央に達した横断中の歩行者)、中央未達歩行者(横断歩道の中央に達していない横断中の歩行者)である。
For each pedestrian whose object map has been generated by the pedestrian tracking
また、図3に示すように、第2の画像処理部42も、上述した第1の画像処理部41と同様に、リサイジング処理機能部421と、車両検出処理機能部422と、車両追跡処理機能部423と、車両判定処理機能部424と、歩行者検出処理機能部425と、歩行者追跡処理機能部426と、歩行者判定処理機能部427と、を備えている。リサイジング処理機能部421、車両検出処理機能部422、車両追跡処理機能部423、車両判定処理機能部424、歩行者検出処理機能部425、歩行者追跡処理機能部426、および歩行者判定処理機能部427は、それぞれ、上述した、第1の画像処理部41が備えるリサイジング処理機能部411、車両検出処理機能部412、車両追跡処理機能部413、車両判定処理機能部414、歩行者検出処理機能部415、歩行者追跡処理機能部416、および歩行者判定処理機能部417と同じ機能ブロックであるので、ここでは説明を省略する。
As shown in FIG. 3, the second
なお、一方のビデオカメラ10が撮像したフレーム画像に対する車両検出処理領域100、101、および歩行者検出処理領域110〜113の設定と、他方のビデオカメラ11が撮像したフレーム画像に対する処理領域の設定とは、個別に行っている。また、一方のビデオカメラ10が撮像したフレーム画像に対して設定した処理領域の個数と、他方のビデオカメラ11が撮像したフレーム画像に対して設定した処理領域の個数と、が相違していても特に問題はない。
Note that the settings of the vehicle
ここで図6を参照して、画像処理プロセッサ4で生成するオブジェクトマップについて、簡単に説明しておく。 Here, the object map generated by the image processor 4 will be briefly described with reference to FIG.
図6(A)は、車両にかかるオブジェクトマップを示す図である。図6(B)は、歩行者にかかるオブジェクトマップを示す図である。このオブジェクトマップは、検出した車両や歩行者毎に生成される。図6(A)は、ID「p0001」を付与した車両のオブジェクトマップである。図6(A)に示すように、オブジェクトマップには、その車両を検出したリサイジング画像毎に、撮像時刻(リサイジング画像の生成に用いたフレーム画像の撮像時刻)、交差点上の車両の位置、および車両判定処理機能部414が判定した当該車両の状態を対応づけたレコードが時系列に蓄積的に登録されている。したがって、このオブジェクトマップから、該当する車両について、時間経過にともなう、交差点上における位置の変化(移動軌跡)が得られる。このため、該当する車両がどの方向から交差点に進入し、通過方向がどの方向(右折、左折、直進)であったか等を得ることができる。すなわち、交差点における、車両の分岐率等を得ることができる。
FIG. 6A is a diagram showing an object map for the vehicle. FIG. 6B is a diagram illustrating an object map for a pedestrian. This object map is generated for each detected vehicle or pedestrian. FIG. 6A is an object map of a vehicle assigned ID “p0001”. As shown in FIG. 6A, the object map includes, for each resizing image in which the vehicle is detected, the imaging time (the imaging time of the frame image used for generating the resizing image), and the position of the vehicle on the intersection. , And records in which the vehicle states determined by the vehicle determination
また、図6(B)に示す歩行者にかかるオブジェクトマップも、上述の車両にかかるオブジェクトマップと同様である。図6(B)は、ID「q0001」を付与した歩行者のオブジェクトマップである。上述したように、このオブジェクトマップから、該当する方向者について、時間経過にともなう、交差点上における位置の変化が得られる。このため、該当する歩行者がどの方向に横断歩道をわたっているのかを得ることができる。 The object map for the pedestrian shown in FIG. 6B is the same as the object map for the vehicle described above. FIG. 6B is an object map of a pedestrian assigned ID “q0001”. As described above, from this object map, a change in the position on the intersection with the passage of time can be obtained for the corresponding direction person. For this reason, it can be obtained in which direction the corresponding pedestrian crosses the pedestrian crossing.
以下、この例にかかる画像処理装置1の動作について説明する。図7は、この画像処理装置の動作を示すフローチャートである。
Hereinafter, the operation of the
上述したように、一方のビデオカメラ10が交差点を撮像したフレーム画像を画像入力部3(第1の画像入力部)に入力しており、他方のビデオカメラ11が交差点を撮像したフレーム画像を画像入力部3(第2の画像入力部)に入力している。画像入力部3には、入力されたフレーム画像を記憶する画像メモリ(不図示)を備えている。
As described above, a frame image in which one
画像処理装置1は、画像メモリに記憶しているフレーム画像に対する画像処理を行う(s1)。s1では、第1の画像処理部41が一方のビデオカメラ10が撮像したフレーム画像を処理し、第2の画像処理部42が他方のビデオカメラ11が撮像したフレーム画像を処理する。第1の画像処理部41と、第2の画像処理部42とにおける処理は、並行して行われている。
The
また、第1の画像処理部41が実行する画像処理と、第2の画像処理部42が実行する画像処理とは、処理対象の画像が異なるだけで、実質的に同じ処理である。ここでは、s1にかかる画像処理を、第1の画像処理部41を例にして説明する。図8は、このs1にかかる画像処理を示すフローチャートである。
In addition, the image processing executed by the first
第1の画像処理部41は、画像メモリに記憶している未処理のフレーム画像であって、時間的に最もはやい時刻のフレーム画像(時間的に最も古いフレーム画像)を処理対象のフレーム画像として選択し取り込む(s11)。第1の画像処理部41は、一方のビデオカメラ10が撮像したフレーム画像の中から、処理対象のフレーム画像を選択する。
The first
第1の画像処理部41は、s11で取り込んだ処理対象のフレーム画像に対して、リサイジング処理機能部411が、リサイジング処理を行う(s12)。リサイジング処理機能部411は、図4に示した車両検出処理領域100、101、および歩行者検出処理領域110〜113毎に、予め設定している画素数の画像(この例では、640×480画素のVGA画像)に変換するリサイジング処理を行う。
In the first
第1の画像処理部41は、車両検出処理領域100、101にかかるリサイジング画像毎に、車両検出処理機能部412で撮像されている車両を検出する処理を行う(s13)。s13では、パターンマッチング等の公知の手法により、撮像されている車両を検出する。また、s13では、検出した車両について、交差点上の位置を示す座標データを取得する。
The first
第1の画像処理部41は、車両追跡処理機能部413がs13で検出した車両について、車両検出処理領域100にかかるリサイジング画像、および車両検出処理領域101にかかるリサイジング画像の両方の画像から検出された車両を抽出する同定処理を行う(s14)。s14は、交差点上において、車両検出処理領域100と車両検出処理領域101とが重なっている重複領域に位置する車両を1対1で対応づける処理である。すなわち、交差点上において、車両検出処理領域100と車両検出処理領域101とが重なっている重複領域に位置する車両を1台の車両として検出するための処理である。この同定処理は、s13で取得した交差点上の車両の位置を用いて行う。
For the vehicle detected by the vehicle tracking
車両追跡処理機能部413は、今回検出した車両毎に、オブジェクトマップを生成する(s15)。s15では、今回検出した車両毎に、s11で選択した処理対象のフレーム画像の撮像時刻と、s13で取得した交差点上の位置と、を対応付けたレコードを生成する。ここで生成したレコードには、図6(A)に示した車両の状態が対応付けられていない。また、車両追跡処理機能部413は、今回生成したレコード毎に、その車両に対してすでにIDが付与されているかどうかを判定する。この時点でIDが付与されていない車両は、前回の処理対象であったフレーム画像の撮像時刻から、今回の処理対象であったフレーム画像の撮像時刻までの間に、車両検出処理領域100、101外から車両検出処理領域100、101内に進入した車両であり、この時点では図6(A)に示したオブジェクトマップが生成されていない。
The vehicle tracking
車両追跡処理機能部413は、この時点でIDが付与されていない車両については、IDを付与し、図6(A)に示したオブジェクトマップ(今回生成したレコードのみを登録したオブジェクトマップ)を生成する。一方、この時点でIDがすでに付与されている車両については、該当する車両のオブジェクトマップに、今回生成したレコードを追加したオブジェクトマップを生成する(該当する車両のオブジェクトマップに対して、今回生成したレコードを追加する。)。IDが付与されているかどうかは、s13で取得した交差点上の車両位置と、この時点でIDが付与されている車両のオブジェクトマップから得られる交差点上の車両位置の時間的変化とに基づいて行える。
The vehicle tracking
さらに、第1の画像処理部41は、車両判定処理機能部414が今回検出した車両毎に、その車両の状態(交差点流入前、交差点内、交差点流出)を判定し、その状態を、s15で生成した該当する車両のオブジェクトマップに追加登録したレコードに登録する(s16)。
Further, the first
また、第1の画像処理部41は、歩行者検出処理領域110〜113にかかるリサイジング画像毎に、歩行者検出処理機能部415で撮像されている歩行者を検出する処理を行う(s17)。s17では、パターンマッチング等の公知の手法により、撮像されている歩行者を検出する。また、s17では、検出した歩行者について、交差点上の位置を示す座標データを取得する。
Moreover, the 1st
第1の画像処理部41は、歩行者追跡処理機能部416がs17で検出した歩行者について、複数の歩行者検出処理領域110〜113にかかるリサイジング画像から検出された歩行者を抽出する同定処理を行う(s18)。s18は、交差点上において、複数の歩行者検出処理領域110〜113が重なっている重複領域に位置する歩行者を1対1で対応づける処理である。すなわち、交差点上において、複数の歩行者検出処理領域110〜113が重なっている重複領域に位置する歩行者を1人の歩行者として検出するための処理である。この同定処理は、s17で取得した交差点上の歩行者の位置を用いて行う。
The first
なお、図4に示す例では、歩行者検出処理領域110〜113は、他の歩行者検出処理領域110〜113と重複していないので、このs18にかかる処理を不要にしてもよい。
In the example illustrated in FIG. 4, the pedestrian
歩行者追跡処理機能部416は、今回検出した歩行者毎に、オブジェクトマップを生成する(s19)。s19では、今回検出した歩行者毎に、s11で選択した処理対象のフレーム画像の撮像時刻と、s17で取得した交差点上の位置と、を対応付けたレコードを生成する。ここで生成したレコードには、図6(B)に示した歩行者の状態が対応付けられていない。また、歩行者追跡処理機能部416は、今回生成したレコード毎に、その歩行者に対してすでにIDが付与されているかどうかを判定する。この時点でIDが付与されていない歩行者は、前回の処理対象であったフレーム画像の撮像時刻から、今回の処理対象であったフレーム画像の撮像時刻までの間に、歩行者検出処理領域110〜113外から歩行者検出処理領域110〜113内に進入した歩行者であり、この時点においては図6(B)に示したオブジェクトマップが生成されていない。
The pedestrian tracking
歩行者追跡処理機能部416は、この時点でIDが付与されていない歩行者については、IDを付与し、図6(B)に示したオブジェクトマップ(今回生成したレコードのみを登録したオブジェクトマップ)を生成する。一方、この時点でIDがすでに付与されている歩行者については、該当する歩行者のオブジェクトマップに、今回生成したレコードを追加したオブジェクトマップを生成する。IDが付与されているかどうかは、s17で取得した交差点上の歩行者の位置と、この時点でIDが付与されている歩行者のオブジェクトマップから得られる交差点上の歩行者の位置の時間的変化とに基づいて行える。
The pedestrian tracking
さらに、第1の画像処理部41は、歩行者判定処理機能部417が今回検出した歩行者毎に、その歩行者の状態(横断歩道外歩行者、中央通過歩行者、中央未達歩行者)を判定し、その状態を、s19で生成した該当する歩行者のオブジェクトマップに追加登録したレコードに登録する(s20)。
Further, the first
s13〜s16にかかる処理と、s17〜s20にかかる処理とは、その対象が車両であるか、歩行者であるかの違いであって、そのプロセスは実質的に同じである。また、s13〜s16にかかる処理と、s17〜s20にかかる処理とを実行する順番は、上記と逆の順番(s17〜s20にかかる処理の実行後、s13〜s16にかかる処理を実行する。)にしてもよい。また、第1の画像処理部41が、s13〜s16にかかる処理と、s17〜s20にかかる処理とを並列処理する構成であってもよい。
The process according to s13 to s16 and the process according to s17 to s20 are the difference between whether the target is a vehicle or a pedestrian, and the processes are substantially the same. Moreover, the order which performs the process concerning s13-s16 and the process concerning s17-s20 is reverse order to the above (after execution of the process concerning s17-s20, the process concerning s13-s16 is performed). It may be. Further, the first
さらに、s12で生成する各処理領域100、101、110〜113のリサイジング画像は、その画素数が同じである画像(ここでは、VGA画像)にしているので、リサイジング画像に対するオブジェクト(車両や、歩行者)の検出等にかかる処理プログラムも略同じにできる。具体的には、検出するオブジェクト(車両、または歩行者)の種類の相違による、パターンマッチング等にかかるパラメータの変更で対応できる。
Furthermore, since the resizing images of the
図7に戻って、画像処理装置1は、上述したs1にかかる画像処理を完了すると、制御部2が統合処理を行う(s2)。s2にかかる統合処理は、s1にかかる画像処理で、第1の画像処理部41が生成したオブジェクトマップと、第2の画像処理部42が生成したオブジェクトマップと、を統合する処理である。具体的には、第1の画像処理部41、および第2の画像処理部の両方で検出されたオブジェクト(車両、および歩行者)を1つのオブジェクトとして検出し、第1の画像処理部41、または第2の画像処理部の一方でのみ検出されたオブジェクト(車両、および歩行者)を1つのオブジェクトとして検出する処理である。すなわち、第1の画像処理部41が生成したオブジェクトマップと、第2の画像処理部42が生成したオブジェクトマップと、を統合し、検出されたオブジェクト毎に、1つのオブジェクトマップを得る処理である。これにより、一方のビデオカメラ10(または11)において、大型車両(バスやトラック等)が撮像されたときに、その背後に位置するために撮像されなかった車両(普通自動車)や歩行者にかかるオブジェクトマップも取得できる。これにより、オブジェクト(車両、または歩行者)の見逃しが防止できる。
Returning to FIG. 7, when the
画像処理装置1は、制御部2がs2にかかる統合処理の処理結果に基づく出力信号を生成し、この出力信号を出力部5から出力する出力処理を行い(s3)、s1に戻る。この出力信号は、例えば、交差点に設置されている信号灯機を制御する信号制御装置に対して出力される信号であって、車両や歩行者の通過を示すパルス信号である。また、交差点の交通量をモニタリングする装置に対して出力される信号であって、交差点における車両の分岐方向別(直進、右折、左折)の台数を計測したディジタル信号であってもよい。
In the
なお、上記の説明では、この発明にかかる画像処理装置を交差点における車両、および歩行者を検出する装置を例にしたが、車両を自動車(四輪車)とバイク(二輪車)で区別してもよい。この場合、図4に示した車両検出処理領域100、101にかえて、自動車検出処理領域、およびバイク検出処理領域をビデオカメラ10、11が撮像したフレーム画像に設定する構成とすればよい。また、検出するオブジェクトの種類として、自転車を追加してもよい。この場合には、自転車検出処理領域をビデオカメラ10、11が撮像したフレーム画像に設定する構成とすればよい。また、画像処理プロセッサ4は、検出、追跡するオブジェクトの種類毎に、検出処理機能部、追跡処理機能部、判定処理機能部を備えればよい。
In the above description, the image processing device according to the present invention is exemplified by a vehicle at an intersection and a device that detects a pedestrian, but the vehicle may be distinguished by an automobile (four-wheeled vehicle) and a motorcycle (two-wheeled vehicle). . In this case, instead of the vehicle
また、本発明は、上記の例に限らず、大きさが異なる複数種類のオブジェクトを検出する装置としても利用できる。また、ビデオカメラ10、11の撮像エリアも、交差点に限らず、駅ホーム等の他の場所であってもよい。
The present invention is not limited to the above example, and can also be used as an apparatus for detecting a plurality of types of objects having different sizes. In addition, the imaging areas of the
また、上記の例では、車両検出処理領域100、101、および歩行者検出処理領域110〜113毎に、生成されるリサイジング画像がVGA画像であるとしたが、各処理領域について生成されるリサイジング画像の画素数が異なっていてもよい。但し、各処理領域について生成されたリサイジング画像の解像度は、その処理領域に対して設定した検出対象のオブジェクトに対して適正な範囲内である。
In the above example, the resizing image generated for each of the vehicle
1…画像処理装置
2…制御部
3…画像入力部
4…画像処理プロセッサ
5…出力部
10、11…ビデオカメラ
100、101…車両検出処理領域
110〜113…歩行者検出処理領域
41…第1の画像処理部
42…第2の画像処理部
411、421…リサイジング処理機能部
412、422…車両検出処理機能部
413、423…車両追跡処理機能部
414、424…車両判定処理機能部
415、425…歩行者検出処理機能部
416、426…歩行者追跡処理機能部
417、427…歩行者判定処理機能部
DESCRIPTION OF
Claims (10)
前記画像入力部に入力されたフレーム画像上に、検出対象であるオブジェクトの種類を定めた複数の処理領域毎に、その処理領域の画像を、検出対象であるオブジェクトの種類に応じた解像度の画像に変換したリサイジング画像を生成するリサイジング処理部と、
前記リサイジング処理部が生成したリサイジング画像を処理し、検出対象である種類のオブジェクトを検出するオブジェクト検出部と、を備えた画像処理装置。 An image input unit for inputting a frame image of the target area captured by the camera;
On the frame image input to the image input unit, for each of a plurality of processing areas in which the type of the object to be detected is determined, the image of the processing area is an image having a resolution corresponding to the type of the object to be detected. A resizing processing unit that generates a resizing image converted into
An image processing apparatus comprising: an object detection unit that processes a resizing image generated by the resizing processing unit and detects an object of a type that is a detection target.
前記リサイジング処理部、および前記オブジェクト検出部を、前記カメラ毎に設けた請求項1〜3のいずれかに記載の画像処理装置。 The image input unit receives frame images captured by a plurality of cameras having different angles with respect to the target area,
The image processing apparatus according to claim 1, wherein the resizing processing unit and the object detection unit are provided for each camera.
前記リサイジング処理部、前記オブジェクト検出部、およびオブジェクトマップ生成部を、それぞれ前記カメラ毎に設け、
前記カメラ毎に設けた前記オブジェクトマップ生成部が生成したオブジェクトマップを検出したオブジェクト単位で統合する統合部を備えた請求項1〜3のいずれかに記載の画像処理装置。 The image input unit receives frame images captured by a plurality of cameras having different angles with respect to the target area,
The resizing processing unit, the object detection unit, and the object map generation unit are provided for each camera,
The image processing apparatus according to claim 1, further comprising an integration unit that integrates an object map generated by the object map generation unit provided for each camera in units of detected objects.
前記画像入力部に入力されたフレーム画像上に、検出対象であるオブジェクトの種類を定めた複数の処理領域毎に、その処理領域の画像を、検出対象であるオブジェクトの種類に応じた解像度の画像に変換したリサイジング画像を生成するリサイジング処理ステップと、
前記リサイジング処理ステップで生成したリサイジング画像を処理し、検出対象である種類のオブジェクトを検出するオブジェクト検出ステップと、をコンピュータが実行する画像処理方法。 An image processing method in which a computer processes a frame image of a target area captured by a camera, input to an image input unit,
On the frame image input to the image input unit, for each of a plurality of processing areas in which the type of the object to be detected is determined, the image of the processing area is an image having a resolution corresponding to the type of the object to be detected. A resizing process step for generating a resizing image converted into
An image processing method in which a computer executes an object detection step of processing a resizing image generated in the resizing processing step and detecting an object of a type to be detected.
前記画像入力部に入力されたフレーム画像上に、検出対象であるオブジェクトの種類を定めた複数の処理領域毎に、その処理領域の画像を、検出対象であるオブジェクトの種類に応じた解像度の画像に変換したリサイジング画像を生成するリサイジング処理ステップと、
前記リサイジング処理ステップで生成したリサイジング画像を処理し、検出対象である種類のオブジェクトを検出するオブジェクト検出ステップと、をコンピュータに実行させる画像処理プログラム。 An image processing program for causing a computer to process a frame image of a target area captured by a camera, input to an image input unit,
On the frame image input to the image input unit, for each of a plurality of processing areas in which the type of the object to be detected is determined, the image of the processing area is an image having a resolution corresponding to the type of the object to be detected. A resizing process step for generating a resizing image converted into
An image processing program that causes a computer to execute an object detection step of processing a resizing image generated in the resizing processing step and detecting an object of a type that is a detection target.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013125311A JP2015002401A (en) | 2013-06-14 | 2013-06-14 | Image processing apparatus, image processing method, and image processing program |
SG11201501530WA SG11201501530WA (en) | 2013-06-14 | 2014-05-27 | Image processing device, image processing method, and image processing program |
PCT/JP2014/063918 WO2014199817A1 (en) | 2013-06-14 | 2014-05-27 | Image processing device, image processing method, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013125311A JP2015002401A (en) | 2013-06-14 | 2013-06-14 | Image processing apparatus, image processing method, and image processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015002401A true JP2015002401A (en) | 2015-01-05 |
Family
ID=52022116
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013125311A Pending JP2015002401A (en) | 2013-06-14 | 2013-06-14 | Image processing apparatus, image processing method, and image processing program |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP2015002401A (en) |
SG (1) | SG11201501530WA (en) |
WO (1) | WO2014199817A1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105427343A (en) * | 2015-11-18 | 2016-03-23 | 中国科学院信息工程研究所 | Moving target detecting and tracking method based on DM8148 development board |
JP2019151968A (en) * | 2018-02-28 | 2019-09-12 | 株式会社小松製作所 | Information presenting device and information presenting method |
JP2021040248A (en) * | 2019-09-03 | 2021-03-11 | パナソニックi−PROセンシングソリューションズ株式会社 | Investigation support system, investigation support method, and computer program |
JP2022507399A (en) * | 2019-07-17 | 2022-01-18 | 上▲海▼商▲湯▼智能科技有限公司 | Robot image enhancement methods and devices, processors, equipment, media and programs |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
MX2017017172A (en) | 2015-06-22 | 2018-02-23 | Bayer Pharma AG | Antibody drug conjugates (adcs) and antibody prodrug conjugates (apdcs) with enzymatically cleavable groups. |
JP6975483B1 (en) * | 2020-06-29 | 2021-12-01 | ナカシャ クリエイテブ株式会社 | Object information processing device |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005190142A (en) * | 2003-12-25 | 2005-07-14 | Foundation For The Promotion Of Industrial Science | Intersection traffic measuring system and intersection traffic measurement method |
JP2009055139A (en) * | 2007-08-23 | 2009-03-12 | Hitachi Kokusai Electric Inc | Person tracking system, apparatus, and program |
JP2011013838A (en) * | 2009-06-30 | 2011-01-20 | Sumitomo Electric Ind Ltd | Mobile object detection device, mobile object detection method and computer program |
JP2012222762A (en) * | 2011-04-14 | 2012-11-12 | Hitachi Automotive Systems Ltd | Image processing apparatus |
JP2012533922A (en) * | 2009-07-17 | 2012-12-27 | サムスン エレクトロニクス カンパニー リミテッド | Video processing method and apparatus |
-
2013
- 2013-06-14 JP JP2013125311A patent/JP2015002401A/en active Pending
-
2014
- 2014-05-27 WO PCT/JP2014/063918 patent/WO2014199817A1/en active Application Filing
- 2014-05-27 SG SG11201501530WA patent/SG11201501530WA/en unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005190142A (en) * | 2003-12-25 | 2005-07-14 | Foundation For The Promotion Of Industrial Science | Intersection traffic measuring system and intersection traffic measurement method |
JP2009055139A (en) * | 2007-08-23 | 2009-03-12 | Hitachi Kokusai Electric Inc | Person tracking system, apparatus, and program |
JP2011013838A (en) * | 2009-06-30 | 2011-01-20 | Sumitomo Electric Ind Ltd | Mobile object detection device, mobile object detection method and computer program |
JP2012533922A (en) * | 2009-07-17 | 2012-12-27 | サムスン エレクトロニクス カンパニー リミテッド | Video processing method and apparatus |
JP2012222762A (en) * | 2011-04-14 | 2012-11-12 | Hitachi Automotive Systems Ltd | Image processing apparatus |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105427343A (en) * | 2015-11-18 | 2016-03-23 | 中国科学院信息工程研究所 | Moving target detecting and tracking method based on DM8148 development board |
JP2019151968A (en) * | 2018-02-28 | 2019-09-12 | 株式会社小松製作所 | Information presenting device and information presenting method |
JP2022507399A (en) * | 2019-07-17 | 2022-01-18 | 上▲海▼商▲湯▼智能科技有限公司 | Robot image enhancement methods and devices, processors, equipment, media and programs |
JP2021040248A (en) * | 2019-09-03 | 2021-03-11 | パナソニックi−PROセンシングソリューションズ株式会社 | Investigation support system, investigation support method, and computer program |
US11417103B2 (en) | 2019-09-03 | 2022-08-16 | Panasonic I-Pro Sensing Solutions Co., Ltd. | Investigation assist system and investigation assist method |
US11790658B2 (en) | 2019-09-03 | 2023-10-17 | i-PRO Co., Ltd. | Investigation assist system and investigation assist method |
Also Published As
Publication number | Publication date |
---|---|
WO2014199817A1 (en) | 2014-12-18 |
SG11201501530WA (en) | 2015-04-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2014199817A1 (en) | Image processing device, image processing method, and image processing program | |
KR101997436B1 (en) | Object position measurement by car camera using vehicle motion data | |
JP6197291B2 (en) | Compound eye camera device and vehicle equipped with the same | |
JP5503728B2 (en) | Vehicle periphery monitoring device | |
US8050459B2 (en) | System and method for detecting pedestrians | |
JP6014440B2 (en) | Moving object recognition device | |
CN112349144B (en) | Monocular vision-based vehicle collision early warning method and system | |
JP5597454B2 (en) | Abnormal traveling vehicle detection system and road monitoring program | |
CN107845290B (en) | Intersection warning method, processing system, intersection warning system and vehicle | |
EP2416571A1 (en) | Vehicle surrounding monitoring device | |
JP2012123470A (en) | Object detection device and object detection method | |
CN112513873A (en) | Identification of pedestrian's movement intention from camera images | |
JP2020052647A (en) | Object detection device, object detection method, computer program for object detection, and vehicle control system | |
JP2011048520A (en) | Device and method for monitoring vehicle periphery | |
JP2015186085A (en) | Travel derivation apparatus and travel derivation method | |
JP2020013206A (en) | Device for detecting two-wheeled vehicle from moving image/camera, program, and system | |
Sung et al. | Real-time traffic light recognition on mobile devices with geometry-based filtering | |
US10417507B2 (en) | Freespace detection apparatus and freespace detection method | |
JP6407596B2 (en) | Image processing apparatus and driving support system | |
JP2017054408A (en) | Vehicle type determination device, vehicle type determination method, vehicle type determination program | |
JP2004258981A (en) | Vehicle monitoring method and device | |
JP2012221272A (en) | Image processing system and image processing method | |
JP5587068B2 (en) | Driving support apparatus and method | |
US20190012763A1 (en) | Image data processing circuit and imaging circuit | |
JP5487648B2 (en) | Moving object measuring system, moving object measuring apparatus, moving object measuring method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170418 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170609 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20171205 |