JP2015002401A - Image processing apparatus, image processing method, and image processing program - Google Patents

Image processing apparatus, image processing method, and image processing program Download PDF

Info

Publication number
JP2015002401A
JP2015002401A JP2013125311A JP2013125311A JP2015002401A JP 2015002401 A JP2015002401 A JP 2015002401A JP 2013125311 A JP2013125311 A JP 2013125311A JP 2013125311 A JP2013125311 A JP 2013125311A JP 2015002401 A JP2015002401 A JP 2015002401A
Authority
JP
Japan
Prior art keywords
image
processing
resizing
unit
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013125311A
Other languages
Japanese (ja)
Inventor
直輝 富井
Naoki Tomii
直輝 富井
丈嗣 内藤
Joji Naito
丈嗣 内藤
禎宏 阪本
Sadahiro Sakamoto
禎宏 阪本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2013125311A priority Critical patent/JP2015002401A/en
Priority to SG11201501530WA priority patent/SG11201501530WA/en
Priority to PCT/JP2014/063918 priority patent/WO2014199817A1/en
Publication of JP2015002401A publication Critical patent/JP2015002401A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/015Detecting movement of traffic to be counted or controlled with provision for distinguishing between two or more types of vehicles, e.g. between motor-cars and cycles

Abstract

PROBLEM TO BE SOLVED: To provide a technology with which detection and tracking of a plurality of types of objects having different sizes and travel speeds from each other can be performed with high accuracy.SOLUTION: An image input unit 3 receives the input of frame images of a target area photographed with video cameras 10 and 11. An image processing processor 4 creates, on the frame images input to the image input unit 3, for each of a plurality of processing areas in which the type of an object, which is a detection object, is determined, a resizing image in which the image of the processing area is converted into an image with resolution according to the type of the object, which is the detection object. The image processing processor 4 further processes the created resizing image to detect the object of the type of the detection object.

Description

この発明は、カメラで撮像した対象エリアのフレーム画像を処理し、大きさが異なる複数種類のオブジェクトを検出する技術に関する。   The present invention relates to a technique for processing a frame image of a target area captured by a camera and detecting a plurality of types of objects having different sizes.

従来、カメラで撮像したフレーム画像を処理し、このフレーム画像に撮像されている人や車両等のオブジェクトの検出や、検出したオブジェクトの追跡(トラッキング)を行う画像処理装置がある。例えば、特許文献1には、交差点を撮像したフレーム画像を処理し、分岐方向別(直進、右折、左折)に車両台数を計数する交通流計測装置が記載されている。   2. Description of the Related Art Conventionally, there is an image processing apparatus that processes a frame image captured by a camera, detects an object such as a person or a vehicle captured in the frame image, and tracks (tracks) the detected object. For example, Patent Literature 1 describes a traffic flow measuring device that processes a frame image obtained by imaging an intersection and counts the number of vehicles for each branch direction (straight, right, left).

また、交差点において計数した分岐方向別(直進、右折、左折)の車両台数や、横断歩道を通行している歩行者の有無等を用いて、この交差点に設置されている信号灯機を制御することも行われている。   Also, control the signal lights installed at this intersection using the number of vehicles by branching direction (straight, right turn, left turn) counted at the intersection and the presence / absence of pedestrians crossing the pedestrian crossing. Has also been done.

特開2005−190142号公報JP 2005-190142 A

しかしながら、カメラで撮像したフレーム画像を処理して、撮像されているオブジェクトを検出したり、追跡したりする場合、画像の解像度が検出するオブジェクトに対して適正でないと、その精度を確保することができない。一方で、検出したり、追跡したりするオブジェクトの大きさや、移動速度等によって、そのオブジェクトに対する画像の解像度の適正範囲(精度を十分に確保できる範囲)が異なる。   However, when a frame image captured by a camera is processed to detect or track an imaged object, the accuracy can be ensured if the resolution of the image is not appropriate for the detected object. Can not. On the other hand, depending on the size of the object to be detected or tracked, the moving speed, etc., the appropriate range of the resolution of the image for that object (a range where sufficient accuracy can be ensured) varies.

したがって、大きさや移動速度が異なる複数種類のオブジェクトについて、検出や追跡を行うシステム(例えば、交差点において自動車(四輪車)、バイク(二輪車)、歩行者等の複数種類のオブジェクトを検出し追跡するシステム、)では、画像の解像度を、いずれかの種類のオブジェクトに対して適正な範囲に設定すると、他の種類のオブジェクトに対する画像の解像度が適正な範囲から外れてしまうことがある。画像の解像度が適正な範囲から外れた種類のオブジェクトについては、検出や追跡にかかる精度を確保することができない。   Therefore, a system for detecting and tracking a plurality of types of objects having different sizes and moving speeds (for example, detecting and tracking a plurality of types of objects such as an automobile (four-wheeled vehicle), a motorcycle (two-wheeled vehicle), and a pedestrian at an intersection). In the system), if the image resolution is set to an appropriate range for any type of object, the image resolution for other types of objects may be out of the appropriate range. The accuracy of detection and tracking cannot be ensured for objects of a type whose image resolution is out of the proper range.

このように、従来の装置では、大きさや、移動速度等が異なる複数種類のオブジェクトについて、検出や追跡を精度よく行うことが困難であった。   As described above, in the conventional apparatus, it is difficult to accurately detect and track a plurality of types of objects having different sizes and moving speeds.

なお、オブジェクトの種類毎に、そのオブジェクトに対して適正な画像の解像度の範囲は、ある程度の幅がある(適正な画像の解像度は、特定の値ではない。)。   For each type of object, the range of image resolution appropriate for the object has a certain range (the appropriate image resolution is not a specific value).

この発明の目的は、大きさや、移動速度等が異なる複数種類のオブジェクトについて、検出や追跡が精度よく行える技術を提供することにある。   An object of the present invention is to provide a technique capable of accurately detecting and tracking a plurality of types of objects having different sizes and moving speeds.

この発明の画像処理装置は、上述の目的を達するために、以下のように構成している。   In order to achieve the above object, the image processing apparatus of the present invention is configured as follows.

画像入力部には、カメラで撮像した対象エリアのフレーム画像が入力される。画像入力部に入力されたフレーム画像上には、検出対象であるオブジェクトの種類(車両、歩行者等)を定めた複数の処理領域が設定されている。各処理領域は、他の処理領域とその一部が重なっていてもよいし、重なっていなくてもよい。   A frame image of the target area captured by the camera is input to the image input unit. On the frame image input to the image input unit, a plurality of processing regions that define the types of objects (vehicles, pedestrians, etc.) that are detection targets are set. Each processing region may or may not overlap with another processing region.

リサイジング処理部は、処理領域毎に、その処理領域の画像を、検出対象であるオブジェクトの種類に応じた解像度の画像に変換したリサイジング画像を生成する。   The resizing processing unit generates, for each processing area, a resizing image obtained by converting the image of the processing area into an image having a resolution corresponding to the type of object to be detected.

そして、オブジェクト検出部は、リサイジング処理部が生成したリサイジング画像を処理し、検出対象である種類のオブジェクトを検出する。   Then, the object detection unit processes the resizing image generated by the resizing processing unit, and detects the type of object that is the detection target.

このように、カメラで撮像したフレーム画像を直接処理してオブジェクトを検出するのではなく、検出対象であるオブジェクトの種類を定めた処理領域毎に、その処理領域について検出対象であるオブジェクトの種類に応じた解像度のリサイジング画像を生成し、このリサイジング画像を処理してオブジェクトを検出する。したがって、大きさや、移動速度等が異なる複数種類のオブジェクトについて検出や追跡を行う場合であっても、オブジェクトの種類毎に検出や追跡が精度よく行える。   In this way, instead of directly processing the frame image captured by the camera to detect the object, for each processing region that defines the type of object to be detected, the processing region is changed to the type of object to be detected. A resizing image with a corresponding resolution is generated, and the resizing image is processed to detect an object. Therefore, even when a plurality of types of objects having different sizes, moving speeds, and the like are detected and tracked, detection and tracking can be performed with accuracy for each type of object.

また、オブジェクトの種類毎に、カメラを設置する必要がないので、システムの大型化やコストアップが抑えられる。   In addition, since it is not necessary to install a camera for each type of object, an increase in the size and cost of the system can be suppressed.

また、リサイジング処理部は、処理領域毎に、予め設定した画素数のリサイジング画像を生成する構成としてもよい。この場合には、フレーム画像上に設定する処理領域の大きさを、生成されるリサイジング画像において、その処理領域に定めた検出対象のオブジェクトの種類に応じた解像度になるように定めておけばよい。   The resizing processing unit may generate a resizing image having a preset number of pixels for each processing region. In this case, if the size of the processing area set on the frame image is determined so as to have a resolution corresponding to the type of object to be detected set in the processing area in the generated resizing image. Good.

なお、リサイジング処理部は、処理領域毎に、その処理領域について予め定められている解像度の画像を生成する構成であってもよい。この場合には、フレーム画像上に設定する処理領域の大きさに関係なく解像度を設定できる。但し、各処理領域について生成されるリサイジング画像の画素数が均一にならない。   The resizing processing unit may be configured to generate an image having a resolution determined in advance for each processing region. In this case, the resolution can be set regardless of the size of the processing area set on the frame image. However, the number of pixels of the resizing image generated for each processing region is not uniform.

また、オブジェクト検出部が検出したオブジェクト毎に、時間経過にともなう対象エリア上の位置の変化を示すオブジェクトマップを生成するオブジェクトマップ生成部を備えてもよい。これにより、検出したオブジェクト毎に、時間経過にともなう位置の変化(移動軌跡)を得ることができる。   Moreover, you may provide the object map production | generation part which produces | generates the object map which shows the change of the position on the target area with progress of time for every object which the object detection part detected. As a result, a change in position (movement trajectory) with time can be obtained for each detected object.

また、画像入力部に、対象エリアに対するアングルが異なる複数のカメラで撮像したフレーム画像を入力し、リサイジング処理部、およびオブジェクト検出部を、カメラ毎に設けてもよい。これにより、あるカメラのフレーム画像において、手前に位置するオブジェクトの影になって撮像されなかったオブジェクトの見逃しが防止できる。   In addition, frame images captured by a plurality of cameras having different angles with respect to the target area may be input to the image input unit, and a resizing processing unit and an object detection unit may be provided for each camera. As a result, in a frame image of a certain camera, it is possible to prevent an object that has not been captured due to a shadow of an object positioned in front of the camera from being overlooked.

また、オブジェクトマップ生成部についても、カメラ毎に設けるのが好ましい。この場合、カメラ毎に設けたオブジェクトマップ生成部が生成したオブジェクトマップを検出したオブジェクト単位で統合する統合部を備えればよい。これにより、複数のカメラのフレーム画像から検出されたオブジェクトを、1つのオブジェクトとして処理できる。   Also, it is preferable to provide an object map generation unit for each camera. In this case, an integration unit that integrates the object map generated by the object map generation unit provided for each camera in units of detected objects may be provided. Thereby, the object detected from the frame image of a some camera can be processed as one object.

また、対象エリアは、交差点とする場合には、検出するオブジェクトの種類を、車両(自動車やバイク)や歩行者等にすればよい。また、オブジェクト検出部の検出結果に基づき、対象エリアである交差点における車両、または人の通過を示す出力信号を出力する構成とすればよい。これにより、交通量に応じた信号灯機の制御が行える。   In addition, when the target area is an intersection, the type of object to be detected may be a vehicle (automobile or motorcycle), a pedestrian, or the like. Moreover, what is necessary is just to set it as the structure which outputs the output signal which shows the passage of the vehicle in the intersection which is a target area, or a person based on the detection result of an object detection part. Thereby, control of the signal lamp according to traffic volume can be performed.

この発明によれば、大きさや、移動速度等が異なる複数種類のオブジェクトについて、検出や追跡が精度よく行える。   According to the present invention, it is possible to accurately detect and track a plurality of types of objects having different sizes and moving speeds.

画像処理装置の主要部の構成を示すブロック図である。It is a block diagram which shows the structure of the principal part of an image processing apparatus. 交差点におけるビデオカメラの設置例を示す図である。It is a figure which shows the example of installation of the video camera in an intersection. 画像処理プロセッサの機能構成を示す機能ブロック図である。It is a functional block diagram which shows the function structure of an image processor. ビデオカメラが撮像した交差点のフレー無画像を示す図である。It is a figure which shows the frame free image of the intersection which the video camera imaged. リサイジング画像を示す図である。It is a figure which shows a resizing image. オブジェクトマップを示す図である。It is a figure which shows an object map. 画像処理装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of an image processing apparatus. 画像処理を示すフローチャートである。It is a flowchart which shows an image process.

以下、この発明の実施形態である画像処理装置について説明する。   Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described.

図1は、この例にかかる画像処理装置の主要部の構成を示すブロック図である。この例にかかる画像処理装置1は、制御部2と、画像入力部3と、画像処理プロセッサ4と、出力部5と、を備えている。この例にかかる画像処理装置1は、交差点における車両、および歩行者の検出、および追跡を行う。この例は、説明を簡単にするため、検出するオブジェクトの種類を車両(自動車(四輪車)、およびバイク(二輪車))と、歩行者との2種類にしている。   FIG. 1 is a block diagram showing the configuration of the main part of the image processing apparatus according to this example. The image processing apparatus 1 according to this example includes a control unit 2, an image input unit 3, an image processing processor 4, and an output unit 5. The image processing apparatus 1 according to this example detects and tracks vehicles and pedestrians at intersections. In this example, in order to simplify the description, the types of objects to be detected are two types: vehicles (automobiles (four-wheeled vehicles) and motorcycles (two-wheeled vehicles)) and pedestrians.

制御部2は、画像処理装置1本体各部の動作を制御する。また、後述する統合処理(この発明で言う統合部に相当する構成)や出力信号生成処理を行う。   The control unit 2 controls the operation of each part of the main body of the image processing apparatus 1. Further, an integration process (a configuration corresponding to the integration unit in the present invention) and an output signal generation process described later are performed.

画像入力部3は、接続されている2台のビデオカメラ10、11が撮像した交差点のフレーム画像が入力される。ビデオカメラ10、11のフレームレートは、数十フレーム/sec(例えば、30フレーム/sec)である。   The image input unit 3 receives a frame image of an intersection captured by the two connected video cameras 10 and 11. The frame rate of the video cameras 10 and 11 is several tens of frames / sec (for example, 30 frames / sec).

画像処理プロセッサ4は、一方のビデオカメラ10から入力されたフレーム画像を処理して、検出対象である車両、および歩行者の検出、追跡を行う第1の画像処理部41と、他方のビデオカメラ11から入力されたフレーム画像を処理して、検出対象である車両、および歩行者の検出、追跡を行う第2の画像処理部42と、を備えている。画像処理プロセッサ4の詳細については、後述する。この画像処理プロセッサ4が、この発明にかかる画像処理方法を実行するコンピュータに相当する。また、この画像処理プロセッサ4が、この発明にかかる画像処理プログラムを実行させるコンピュータに相当する。   The image processor 4 processes a frame image input from one video camera 10 to detect and track a vehicle to be detected and a pedestrian, and the other video camera. 11, a second image processing unit 42 that processes the frame image input from 11 to detect and track a vehicle to be detected and a pedestrian. Details of the image processor 4 will be described later. The image processor 4 corresponds to a computer that executes the image processing method according to the present invention. The image processor 4 corresponds to a computer that executes the image processing program according to the present invention.

出力部5は、検出対象である車両、および歩行者の検出、追跡にかかる処理結果に基づく信号(制御部2が生成した出力信号)を出力する。例えば、出力部5は、交差点に設置されている信号灯機を制御する信号制御装置(不図示)に対して、車両や歩行者の通過信号(通過パルス)を出力する。また、出力部5は、交差点の交通量をモニタリングする装置に対して、交差点における車両の分岐方向別(直進、右折、左折)の台数を計数して出力する構成であってもよい。すなわち、出力部5から出力する信号(制御部2が生成する出力信号)は、その信号を入力する装置や、用途に応じて決定すればよい。   The output unit 5 outputs a signal (an output signal generated by the control unit 2) based on a detection result of a vehicle and a pedestrian to be detected and a processing result related to tracking. For example, the output unit 5 outputs a passing signal (passing pulse) of a vehicle or a pedestrian to a signal control device (not shown) that controls a signal lamp installed at an intersection. Further, the output unit 5 may be configured to count and output the number of vehicles by the branch direction (straight forward, right turn, left turn) at the intersection with respect to a device that monitors traffic at the intersection. That is, a signal output from the output unit 5 (an output signal generated by the control unit 2) may be determined according to a device that inputs the signal and an application.

2台のビデオカメラ10、11は、図2に示すように、交差点を対向して撮像する向きに設置している。また、各ビデオカメラ10、11は交差点全体を撮像エリア内に収められるように、撮像レンズとして広角レンズを使用している。また、ビデオカメラ10、11は、メガピクセル(例えば、縦×横が1300×1000程度)の撮像素子を備えている。図2から明らかなように、交差点に対するビデオカメラ10、11のアングルは異なっている。   As shown in FIG. 2, the two video cameras 10 and 11 are installed in the direction in which an intersection is imaged facing each other. In addition, each video camera 10 and 11 uses a wide-angle lens as an imaging lens so that the entire intersection can be accommodated in the imaging area. In addition, the video cameras 10 and 11 are provided with an image sensor of megapixels (for example, vertical × horizontal is about 1300 × 1000). As is apparent from FIG. 2, the angles of the video cameras 10 and 11 with respect to the intersection are different.

なお、2台のビデオカメラ10は、一方のビデオカメラ10(または11)において、大型車両(バスやトラック等)が撮像されたときに、その背後に位置する車両(普通自動車)や歩行者等が隠れて撮像されないときでも、他方のビデオカメラ11(または10)において、その車両や歩行者等が撮像できるように設置している。言い換えれば、他のオブジェクトによって隠れが生じることなく、撮像エリア内に位置する全てのオブジェクトが撮像できる環境であれば、交差点に設置するカメラは1台であってもよい。また、交差点に設置するカメラは3台以上であってもよい。ここでは、上述したように、2台のビデオカメラ10、11を設置している場合を例にして説明する。   The two video cameras 10 are vehicles (ordinary cars), pedestrians, etc. that are located behind a large vehicle (such as a bus or a truck) captured by one video camera 10 (or 11). Even when the camera is hidden and is not imaged, the other video camera 11 (or 10) is installed so that the vehicle, a pedestrian, and the like can image. In other words, if there is an environment in which all objects located in the imaging area can be imaged without being hidden by other objects, one camera may be installed at the intersection. Further, three or more cameras may be installed at the intersection. Here, as described above, a case where two video cameras 10 and 11 are installed will be described as an example.

画像入力部3は、一方のビデオカメラ10が撮像した交差点のフレーム画像を入力する第1の画像入力部(不図示)と、他方のビデオカメラ11が撮像した交差点のフレーム画像を入力する第2の画像入力部(不図示)と、を備えている。画像入力部3には、入力されたフレーム画像を一時的に記憶する画像メモリ(不図示)を備えている。   The image input unit 3 inputs a first image input unit (not shown) that inputs an intersection frame image captured by one video camera 10 and a second image input unit inputs an intersection frame image captured by the other video camera 11. And an image input unit (not shown). The image input unit 3 includes an image memory (not shown) that temporarily stores the input frame image.

図3は、画像処理プロセッサの機能構成を示す機能ブロック図である。画像処理プロセッサ4は、第1の画像処理部41と、第2の画像処理部42とを備えている。第1の画像処理部41と、第2の画像処理部42とは、同じ機能構成である。第1の画像処理部41は、一方のビデオカメラ10が撮像した交差点のフレーム画像を処理し、第2の画像処理部42は、他方のビデオカメラ11が撮像した交差点のフレーム画像を処理する。   FIG. 3 is a functional block diagram showing the functional configuration of the image processor. The image processor 4 includes a first image processing unit 41 and a second image processing unit 42. The first image processing unit 41 and the second image processing unit 42 have the same functional configuration. The first image processing unit 41 processes the frame image of the intersection imaged by one video camera 10, and the second image processing unit 42 processes the frame image of the intersection imaged by the other video camera 11.

なお、交差点に設置しているビデオカメラ10(または11)が1台である場合には、第2の画像処理部42(または、第1の画像処理部41)を不要にできる。また、交差点に設置しているビデオカメラが3台以上であれば、画像処理プロセッサ4は、ビデオカメラの台数分の画像処理部を備える。   When there is one video camera 10 (or 11) installed at the intersection, the second image processing unit 42 (or the first image processing unit 41) can be omitted. If there are three or more video cameras installed at the intersection, the image processing processor 4 includes image processing units as many as the number of video cameras.

第1の画像処理部41は、リサイジング処理機能部411と、車両検出処理機能部412と、車両追跡処理機能部413と、車両判定処理機能部414と、歩行者検出処理機能部415と、歩行者追跡処理機能部416と、歩行者判定処理機能部417と、を備えている。   The first image processing unit 41 includes a resizing processing function unit 411, a vehicle detection processing function unit 412, a vehicle tracking processing function unit 413, a vehicle determination processing function unit 414, a pedestrian detection processing function unit 415, A pedestrian tracking processing function unit 416 and a pedestrian determination processing function unit 417 are provided.

リサイジング処理機能部411は、画像入力部3の第1の画像入力部に入力されたフレーム画像に対して設定されている処理領域毎に、解像度を変換したリサイジング画像を生成するリサイジング処理を行う。図4は、一方のビデオカメラが撮像した交差点のフレーム画像を示す図である。図4に示すように、ビデオカメラ10が撮像したフレーム画像に対して、複数の処理領域が設定されている。図4に示す例では、2つの処理領域100、101は、検出対象のオブジェクトの種類を車両と定めた領域(以下、車両検出処理領域100、101と言う。)である。また、4つの処理領域110〜113は、検出する対象のオブジェクトの種類を歩行者と定めた領域(以下、歩行者検出処理領域110〜113と言う。)である。   The resizing processing function unit 411 generates resizing images with converted resolutions for each processing region set for the frame image input to the first image input unit of the image input unit 3. I do. FIG. 4 is a diagram showing a frame image of an intersection captured by one video camera. As shown in FIG. 4, a plurality of processing areas are set for the frame image captured by the video camera 10. In the example shown in FIG. 4, the two processing areas 100 and 101 are areas where the types of objects to be detected are determined as vehicles (hereinafter referred to as vehicle detection processing areas 100 and 101). The four processing areas 110 to 113 are areas in which the types of objects to be detected are defined as pedestrians (hereinafter referred to as pedestrian detection processing areas 110 to 113).

図4に示すように、車両検出処理領域100は交差点内をカバーする領域であり、車両検出処理領域101は、フレーム画像を撮像したビデオカメラ10の設置側と反対側の停止線付近をカバーする領域である。図4では、車両検出処理領域100と、車両検出処理領域101とは、その一部が重複している例である。また、4つの歩行者検出処理領域110〜113は、それぞれ交差点に設けられている横断歩道をカバーする領域である。歩行者検出処理領域110〜113は、他の歩行者検出処理領域110〜113と重複していない。但し、歩行者検出領域110〜113は、その一部が車両検出処理領域100、101と重複している。   As shown in FIG. 4, the vehicle detection processing area 100 is an area covering the inside of the intersection, and the vehicle detection processing area 101 covers the vicinity of the stop line on the opposite side to the installation side of the video camera 10 that captured the frame image. It is an area. In FIG. 4, the vehicle detection processing area 100 and the vehicle detection processing area 101 are an example in which a part thereof overlaps. The four pedestrian detection processing areas 110 to 113 are areas that cover pedestrian crossings provided at intersections. The pedestrian detection processing areas 110 to 113 do not overlap with the other pedestrian detection processing areas 110 to 113. However, the pedestrian detection areas 110 to 113 partially overlap the vehicle detection processing areas 100 and 101.

リサイジング処理機能部411は、車両検出処理領域100、101、および歩行者検出処理領域110〜113毎に、予め設定している画素数の画像(この例では、640×480画素のVGA画像)に変換するリサイジング処理を行う。このリサイジング処理により生成した画像を、ここではリサイジング画像と言う。車両検出処理領域100、101のリサイジング画の解像度は、車両の検出における適正な範囲内である。また、歩行者検出処理領域110〜113のリサイジング画像の解像度は、歩行者の検出における適正な範囲内である。言い換えれば、 車両検出処理領域100、101は、生成されるリサイジング画像の解像度が車両の検出において適正な範囲に収まるように設定しており、歩行者検出処理領域110〜113は、生成されるリサイジング画像の解像度が歩行者の検出において適正な範囲内に収まるように設定している。このリサイジング処理は、公知の最近傍補間(ニアレストネイバー)、双一次補間(バイリニア補間)、または双三次補間(バイキュービック補間)等の方法を利用して行えばよい。図5(A)は、車両検出処理領域100にかかるリサイジング画像を示す図であり、図5(B)は、歩行者検出処理領域110にかかるリサイジング画像を示す図である。   The resizing processing function unit 411 has an image with a preset number of pixels for each of the vehicle detection processing areas 100 and 101 and the pedestrian detection processing areas 110 to 113 (in this example, a VGA image of 640 × 480 pixels). Resizing process to convert to. Here, the image generated by the resizing process is referred to as a resizing image. The resolution of the resizing images in the vehicle detection processing areas 100 and 101 is within an appropriate range for vehicle detection. Moreover, the resolution of the resizing image of the pedestrian detection process area | regions 110-113 is in the appropriate range in a pedestrian detection. In other words, the vehicle detection processing areas 100 and 101 are set so that the resolution of the generated resizing image falls within an appropriate range in vehicle detection, and the pedestrian detection processing areas 110 to 113 are generated. The resolution of the resizing image is set so as to be within an appropriate range in detecting a pedestrian. This resizing process may be performed using a method such as a known nearest neighbor interpolation (nearest neighbor), bilinear interpolation (bilinear interpolation), or bicubic interpolation (bicubic interpolation). FIG. 5A is a diagram showing a resizing image related to the vehicle detection processing area 100, and FIG. 5B is a diagram showing a resizing image related to the pedestrian detection processing area 110.

なお、車両検出処理領域100、101にかかるリサイジング画像の解像度は、車両の検出に適した解像度の範囲内に収まるだけであって、これら2つの領域のリサイジング画像の解像度が同じであるということではない。同様に、歩行者検出処理領域110〜113にかかるリサイジング画像の解像度は、歩行者の検出に適した解像度の範囲内に収まるだけであって、これら4つの領域のリサイジング画像の解像度が同じであるということではない。   Note that the resizing image resolution for the vehicle detection processing areas 100 and 101 only falls within the resolution range suitable for vehicle detection, and the resizing image resolutions of these two areas are the same. Not that. Similarly, the resolution of the resizing image relating to the pedestrian detection processing areas 110 to 113 only falls within the resolution range suitable for detection of the pedestrian, and the resizing images of these four areas have the same resolution. It doesn't mean that.

車両検出処理機能部412は、検出対象が車両である車両検出処理領域100、101について、それぞれリサイジング画像を処理して撮像されている車両を検出する。車両検出処理機能部412は、公知のパターンマッチング等を利用して撮像されている車両を検出する。   The vehicle detection processing function unit 412 detects a vehicle that has been picked up by processing resizing images for the vehicle detection processing regions 100 and 101 whose detection targets are vehicles. The vehicle detection processing function unit 412 detects a vehicle being imaged using known pattern matching or the like.

車両追跡処理機能部413は、車両検出処理機能部412が検出した車両毎に、その車両のID、検出時刻(フレーム画像の撮像時刻)、位置(交差点上の位置を示す座標)、状態を対応付けたオブジェクトマップを生成する。このオブジェクトマップでは、検出した車両の位置を交差点上の位置にしているので、2つの車両検出処理領域100、101が重複している部分に位置する車両の同定が行える。したがって、車両検出処理領域100にかかるリサイジング画像、および車両検出処理領域101にかかるリサイジング画像において検出された同じ車両を、1台の車両として検出できる。   For each vehicle detected by the vehicle detection processing function unit 412, the vehicle tracking processing function unit 413 corresponds to the vehicle ID, detection time (frame image capturing time), position (coordinates indicating the position on the intersection), and state. Generate the attached object map. In this object map, since the position of the detected vehicle is set to the position on the intersection, it is possible to identify a vehicle located in a portion where the two vehicle detection processing areas 100 and 101 overlap. Therefore, the same vehicle detected in the resizing image related to the vehicle detection processing area 100 and the resizing image related to the vehicle detection processing area 101 can be detected as one vehicle.

車両判定処理機能部414は、車両追跡処理機能部413でオブジェクトマップが生成された車両毎に、その車両についてすでに生成されているオブジェクトマップから得られる車両の移動軌跡に基づいて状態を判定する。ここで判定する車両の状態は、交差点流入前、交差点内、および交差点流出である。   The vehicle determination processing function unit 414 determines the state of each vehicle for which an object map has been generated by the vehicle tracking processing function unit 413 based on the movement trajectory of the vehicle obtained from the object map already generated for the vehicle. The vehicle state to be determined here is before the intersection inflow, in the intersection, and in the intersection outflow.

歩行者検出処理機能部415は、検出対象が歩行者である歩行者検出処理領域110〜113について、それぞれリサイジング画像を処理して撮像されている歩行者を検出する。歩行者検出処理機能部415は、公知のパターンマッチング等を利用して撮像されている歩行者を検出する。   The pedestrian detection processing function unit 415 detects pedestrians that are picked up by processing resizing images for the pedestrian detection processing areas 110 to 113 whose detection targets are pedestrians. The pedestrian detection processing function unit 415 detects a pedestrian being imaged using a known pattern matching or the like.

歩行者追跡処理機能部416は、歩行者検出処理機能部415が検出した歩行者毎に、その歩行者のID、検出時刻(フレーム画像の撮像時刻)、位置(交差点上の位置を示す座標)を対応付けたオブジェクトマップを生成する。このオブジェクトマップでも、検出した歩行者の位置を交差点上の位置にしているので、複数の歩行者検出処理領域110〜113が重複している部分に位置する歩行者の同定が行える。   The pedestrian tracking processing function unit 416, for each pedestrian detected by the pedestrian detection processing function unit 415, the pedestrian ID, detection time (frame image capturing time), and position (coordinates indicating the position on the intersection). An object map in which is associated is generated. Also in this object map, since the position of the detected pedestrian is set to the position on the intersection, it is possible to identify a pedestrian located in a portion where a plurality of pedestrian detection processing areas 110 to 113 overlap.

なお、図4に示した例は、歩行者検出処理領域110〜113が重複していない例である。   In addition, the example shown in FIG. 4 is an example in which the pedestrian detection processing areas 110 to 113 do not overlap.

歩行者判定処理機能部417は、歩行者追跡処理機能部416でオブジェクトマップが生成された歩行者毎に、その歩行者についてすでに生成されているオブジェクトマップから得られる歩行者の移動軌跡に基づいて状態を判定する。ここで判定する歩行者の状態は、横断歩道外歩行者(信号待ち等で横断歩道を横断していない歩行者)、中央通過歩行者(横断歩道の中央に達した横断中の歩行者)、中央未達歩行者(横断歩道の中央に達していない横断中の歩行者)である。   For each pedestrian whose object map has been generated by the pedestrian tracking processing function unit 416, the pedestrian determination processing function unit 417 is based on the movement trajectory of the pedestrian obtained from the object map already generated for the pedestrian. Determine the state. The pedestrian status to be judged here is pedestrians outside the pedestrian crossing (pedestrians who have not crossed the pedestrian crossing due to traffic lights etc.), pedestrians in the middle (pedestrians crossing the center of the pedestrian crossing), It is a pedestrian who has not reached the center (a pedestrian who has not reached the center of the pedestrian crossing)

また、図3に示すように、第2の画像処理部42も、上述した第1の画像処理部41と同様に、リサイジング処理機能部421と、車両検出処理機能部422と、車両追跡処理機能部423と、車両判定処理機能部424と、歩行者検出処理機能部425と、歩行者追跡処理機能部426と、歩行者判定処理機能部427と、を備えている。リサイジング処理機能部421、車両検出処理機能部422、車両追跡処理機能部423、車両判定処理機能部424、歩行者検出処理機能部425、歩行者追跡処理機能部426、および歩行者判定処理機能部427は、それぞれ、上述した、第1の画像処理部41が備えるリサイジング処理機能部411、車両検出処理機能部412、車両追跡処理機能部413、車両判定処理機能部414、歩行者検出処理機能部415、歩行者追跡処理機能部416、および歩行者判定処理機能部417と同じ機能ブロックであるので、ここでは説明を省略する。   As shown in FIG. 3, the second image processing unit 42 also has a resizing processing function unit 421, a vehicle detection processing function unit 422, and a vehicle tracking process in the same manner as the first image processing unit 41 described above. A functional unit 423, a vehicle determination processing function unit 424, a pedestrian detection processing function unit 425, a pedestrian tracking processing function unit 426, and a pedestrian determination processing function unit 427 are provided. Resizing processing function unit 421, vehicle detection processing function unit 422, vehicle tracking processing function unit 423, vehicle determination processing function unit 424, pedestrian detection processing function unit 425, pedestrian tracking processing function unit 426, and pedestrian determination processing function The units 427 are respectively the resizing processing function unit 411, the vehicle detection processing function unit 412, the vehicle tracking processing function unit 413, the vehicle determination processing function unit 414, and the pedestrian detection process included in the first image processing unit 41 described above. Since it is the same functional block as the function unit 415, the pedestrian tracking processing function unit 416, and the pedestrian determination processing function unit 417, description thereof is omitted here.

なお、一方のビデオカメラ10が撮像したフレーム画像に対する車両検出処理領域100、101、および歩行者検出処理領域110〜113の設定と、他方のビデオカメラ11が撮像したフレーム画像に対する処理領域の設定とは、個別に行っている。また、一方のビデオカメラ10が撮像したフレーム画像に対して設定した処理領域の個数と、他方のビデオカメラ11が撮像したフレーム画像に対して設定した処理領域の個数と、が相違していても特に問題はない。   Note that the settings of the vehicle detection processing areas 100 and 101 and the pedestrian detection processing areas 110 to 113 for the frame image captured by one video camera 10 and the setting of the processing area for the frame image captured by the other video camera 11 Are done individually. Even if the number of processing areas set for the frame image captured by one video camera 10 and the number of processing areas set for the frame image captured by the other video camera 11 are different. There is no particular problem.

ここで図6を参照して、画像処理プロセッサ4で生成するオブジェクトマップについて、簡単に説明しておく。   Here, the object map generated by the image processor 4 will be briefly described with reference to FIG.

図6(A)は、車両にかかるオブジェクトマップを示す図である。図6(B)は、歩行者にかかるオブジェクトマップを示す図である。このオブジェクトマップは、検出した車両や歩行者毎に生成される。図6(A)は、ID「p0001」を付与した車両のオブジェクトマップである。図6(A)に示すように、オブジェクトマップには、その車両を検出したリサイジング画像毎に、撮像時刻(リサイジング画像の生成に用いたフレーム画像の撮像時刻)、交差点上の車両の位置、および車両判定処理機能部414が判定した当該車両の状態を対応づけたレコードが時系列に蓄積的に登録されている。したがって、このオブジェクトマップから、該当する車両について、時間経過にともなう、交差点上における位置の変化(移動軌跡)が得られる。このため、該当する車両がどの方向から交差点に進入し、通過方向がどの方向(右折、左折、直進)であったか等を得ることができる。すなわち、交差点における、車両の分岐率等を得ることができる。   FIG. 6A is a diagram showing an object map for the vehicle. FIG. 6B is a diagram illustrating an object map for a pedestrian. This object map is generated for each detected vehicle or pedestrian. FIG. 6A is an object map of a vehicle assigned ID “p0001”. As shown in FIG. 6A, the object map includes, for each resizing image in which the vehicle is detected, the imaging time (the imaging time of the frame image used for generating the resizing image), and the position of the vehicle on the intersection. , And records in which the vehicle states determined by the vehicle determination processing function unit 414 are associated with each other are accumulated in a time series. Therefore, from this object map, the change (movement trajectory) of the position on the intersection with the passage of time is obtained for the corresponding vehicle. For this reason, it can be obtained from which direction the corresponding vehicle enters the intersection, and which direction (right turn, left turn, straight travel) the passing direction is. That is, the branching rate of the vehicle at the intersection can be obtained.

また、図6(B)に示す歩行者にかかるオブジェクトマップも、上述の車両にかかるオブジェクトマップと同様である。図6(B)は、ID「q0001」を付与した歩行者のオブジェクトマップである。上述したように、このオブジェクトマップから、該当する方向者について、時間経過にともなう、交差点上における位置の変化が得られる。このため、該当する歩行者がどの方向に横断歩道をわたっているのかを得ることができる。   The object map for the pedestrian shown in FIG. 6B is the same as the object map for the vehicle described above. FIG. 6B is an object map of a pedestrian assigned ID “q0001”. As described above, from this object map, a change in the position on the intersection with the passage of time can be obtained for the corresponding direction person. For this reason, it can be obtained in which direction the corresponding pedestrian crosses the pedestrian crossing.

以下、この例にかかる画像処理装置1の動作について説明する。図7は、この画像処理装置の動作を示すフローチャートである。   Hereinafter, the operation of the image processing apparatus 1 according to this example will be described. FIG. 7 is a flowchart showing the operation of the image processing apparatus.

上述したように、一方のビデオカメラ10が交差点を撮像したフレーム画像を画像入力部3(第1の画像入力部)に入力しており、他方のビデオカメラ11が交差点を撮像したフレーム画像を画像入力部3(第2の画像入力部)に入力している。画像入力部3には、入力されたフレーム画像を記憶する画像メモリ(不図示)を備えている。   As described above, a frame image in which one video camera 10 images an intersection is input to the image input unit 3 (first image input unit), and a frame image in which the other video camera 11 images an intersection is imaged. The data is input to the input unit 3 (second image input unit). The image input unit 3 includes an image memory (not shown) that stores the input frame image.

画像処理装置1は、画像メモリに記憶しているフレーム画像に対する画像処理を行う(s1)。s1では、第1の画像処理部41が一方のビデオカメラ10が撮像したフレーム画像を処理し、第2の画像処理部42が他方のビデオカメラ11が撮像したフレーム画像を処理する。第1の画像処理部41と、第2の画像処理部42とにおける処理は、並行して行われている。   The image processing apparatus 1 performs image processing on the frame image stored in the image memory (s1). In s1, the first image processing unit 41 processes a frame image captured by one video camera 10, and the second image processing unit 42 processes a frame image captured by the other video camera 11. The processes in the first image processing unit 41 and the second image processing unit 42 are performed in parallel.

また、第1の画像処理部41が実行する画像処理と、第2の画像処理部42が実行する画像処理とは、処理対象の画像が異なるだけで、実質的に同じ処理である。ここでは、s1にかかる画像処理を、第1の画像処理部41を例にして説明する。図8は、このs1にかかる画像処理を示すフローチャートである。   In addition, the image processing executed by the first image processing unit 41 and the image processing executed by the second image processing unit 42 are substantially the same processing except that the image to be processed is different. Here, the image processing relating to s1 will be described using the first image processing unit 41 as an example. FIG. 8 is a flowchart showing the image processing according to s1.

第1の画像処理部41は、画像メモリに記憶している未処理のフレーム画像であって、時間的に最もはやい時刻のフレーム画像(時間的に最も古いフレーム画像)を処理対象のフレーム画像として選択し取り込む(s11)。第1の画像処理部41は、一方のビデオカメラ10が撮像したフレーム画像の中から、処理対象のフレーム画像を選択する。   The first image processing unit 41 is an unprocessed frame image stored in the image memory, and the frame image at the earliest time in time (the oldest frame image in time) is used as the processing target frame image. Select and capture (s11). The first image processing unit 41 selects a frame image to be processed from frame images captured by one video camera 10.

第1の画像処理部41は、s11で取り込んだ処理対象のフレーム画像に対して、リサイジング処理機能部411が、リサイジング処理を行う(s12)。リサイジング処理機能部411は、図4に示した車両検出処理領域100、101、および歩行者検出処理領域110〜113毎に、予め設定している画素数の画像(この例では、640×480画素のVGA画像)に変換するリサイジング処理を行う。   In the first image processing unit 41, the resizing processing function unit 411 performs resizing processing on the processing target frame image captured in s11 (s12). The resizing processing function unit 411 has an image with a preset number of pixels (640 × 480 in this example) for each of the vehicle detection processing areas 100 and 101 and the pedestrian detection processing areas 110 to 113 shown in FIG. Resizing processing for conversion into a VGA image of pixels) is performed.

第1の画像処理部41は、車両検出処理領域100、101にかかるリサイジング画像毎に、車両検出処理機能部412で撮像されている車両を検出する処理を行う(s13)。s13では、パターンマッチング等の公知の手法により、撮像されている車両を検出する。また、s13では、検出した車両について、交差点上の位置を示す座標データを取得する。   The first image processing unit 41 performs processing for detecting the vehicle imaged by the vehicle detection processing function unit 412 for each resizing image in the vehicle detection processing regions 100 and 101 (s13). In s13, the imaged vehicle is detected by a known method such as pattern matching. In s13, coordinate data indicating the position on the intersection is acquired for the detected vehicle.

第1の画像処理部41は、車両追跡処理機能部413がs13で検出した車両について、車両検出処理領域100にかかるリサイジング画像、および車両検出処理領域101にかかるリサイジング画像の両方の画像から検出された車両を抽出する同定処理を行う(s14)。s14は、交差点上において、車両検出処理領域100と車両検出処理領域101とが重なっている重複領域に位置する車両を1対1で対応づける処理である。すなわち、交差点上において、車両検出処理領域100と車両検出処理領域101とが重なっている重複領域に位置する車両を1台の車両として検出するための処理である。この同定処理は、s13で取得した交差点上の車両の位置を用いて行う。   For the vehicle detected by the vehicle tracking processing function unit 413 in s13, the first image processing unit 41 uses both the resizing image for the vehicle detection processing region 100 and the resizing image for the vehicle detection processing region 101. An identification process for extracting the detected vehicle is performed (s14). s14 is a process of associating one-to-one with a vehicle located in an overlapping area where the vehicle detection processing area 100 and the vehicle detection processing area 101 overlap on the intersection. That is, this is a process for detecting a vehicle located in an overlapping area where the vehicle detection processing area 100 and the vehicle detection processing area 101 overlap on the intersection as one vehicle. This identification process is performed using the position of the vehicle on the intersection acquired in s13.

車両追跡処理機能部413は、今回検出した車両毎に、オブジェクトマップを生成する(s15)。s15では、今回検出した車両毎に、s11で選択した処理対象のフレーム画像の撮像時刻と、s13で取得した交差点上の位置と、を対応付けたレコードを生成する。ここで生成したレコードには、図6(A)に示した車両の状態が対応付けられていない。また、車両追跡処理機能部413は、今回生成したレコード毎に、その車両に対してすでにIDが付与されているかどうかを判定する。この時点でIDが付与されていない車両は、前回の処理対象であったフレーム画像の撮像時刻から、今回の処理対象であったフレーム画像の撮像時刻までの間に、車両検出処理領域100、101外から車両検出処理領域100、101内に進入した車両であり、この時点では図6(A)に示したオブジェクトマップが生成されていない。   The vehicle tracking processing function unit 413 generates an object map for each vehicle detected this time (s15). In s15, for each vehicle detected this time, a record in which the imaging time of the frame image to be processed selected in s11 is associated with the position on the intersection acquired in s13 is generated. The record generated here is not associated with the state of the vehicle shown in FIG. Further, the vehicle tracking processing function unit 413 determines whether or not an ID has already been assigned to the vehicle for each record generated this time. Vehicles to which no ID is assigned at this time are detected in the vehicle detection processing regions 100 and 101 between the time when the frame image that was the previous processing target is captured and the time when the frame image that is the current processing target is captured. The vehicle has entered the vehicle detection processing areas 100 and 101 from the outside, and the object map shown in FIG. 6A is not generated at this time.

車両追跡処理機能部413は、この時点でIDが付与されていない車両については、IDを付与し、図6(A)に示したオブジェクトマップ(今回生成したレコードのみを登録したオブジェクトマップ)を生成する。一方、この時点でIDがすでに付与されている車両については、該当する車両のオブジェクトマップに、今回生成したレコードを追加したオブジェクトマップを生成する(該当する車両のオブジェクトマップに対して、今回生成したレコードを追加する。)。IDが付与されているかどうかは、s13で取得した交差点上の車両位置と、この時点でIDが付与されている車両のオブジェクトマップから得られる交差点上の車両位置の時間的変化とに基づいて行える。   The vehicle tracking processing function unit 413 assigns an ID to a vehicle to which no ID is assigned at this time, and generates an object map (an object map in which only the record generated this time is registered) shown in FIG. To do. On the other hand, for a vehicle that has already been given an ID at this time, an object map is generated by adding the record generated this time to the object map of the corresponding vehicle (the current map is generated for the object map of the corresponding vehicle). Add a record.) Whether the ID is assigned can be determined based on the vehicle position on the intersection acquired in s13 and the temporal change in the vehicle position on the intersection obtained from the object map of the vehicle assigned the ID at this time. .

さらに、第1の画像処理部41は、車両判定処理機能部414が今回検出した車両毎に、その車両の状態(交差点流入前、交差点内、交差点流出)を判定し、その状態を、s15で生成した該当する車両のオブジェクトマップに追加登録したレコードに登録する(s16)。   Further, the first image processing unit 41 determines the state of the vehicle (before entering the intersection, inside the intersection, and flowing out of the intersection) for each vehicle detected by the vehicle determination processing function unit 414 this time, and the state is determined in s15. It is registered in the record additionally registered in the generated object map of the corresponding vehicle (s16).

また、第1の画像処理部41は、歩行者検出処理領域110〜113にかかるリサイジング画像毎に、歩行者検出処理機能部415で撮像されている歩行者を検出する処理を行う(s17)。s17では、パターンマッチング等の公知の手法により、撮像されている歩行者を検出する。また、s17では、検出した歩行者について、交差点上の位置を示す座標データを取得する。   Moreover, the 1st image process part 41 performs the process which detects the pedestrian currently imaged by the pedestrian detection process function part 415 for every resizing image concerning the pedestrian detection process area | regions 110-113 (s17). . In s17, the imaged pedestrian is detected by a known method such as pattern matching. In s17, coordinate data indicating the position on the intersection is acquired for the detected pedestrian.

第1の画像処理部41は、歩行者追跡処理機能部416がs17で検出した歩行者について、複数の歩行者検出処理領域110〜113にかかるリサイジング画像から検出された歩行者を抽出する同定処理を行う(s18)。s18は、交差点上において、複数の歩行者検出処理領域110〜113が重なっている重複領域に位置する歩行者を1対1で対応づける処理である。すなわち、交差点上において、複数の歩行者検出処理領域110〜113が重なっている重複領域に位置する歩行者を1人の歩行者として検出するための処理である。この同定処理は、s17で取得した交差点上の歩行者の位置を用いて行う。   The first image processing unit 41 identifies the pedestrian detected by the pedestrian tracking processing function unit 416 detected from the resizing images of the plurality of pedestrian detection processing areas 110 to 113 for the pedestrian detected in s17. Processing is performed (s18). s18 is a process of associating pedestrians in a one-to-one correspondence on overlapping areas where a plurality of pedestrian detection processing areas 110 to 113 overlap on an intersection. That is, it is a process for detecting a pedestrian located in an overlapping area where a plurality of pedestrian detection processing areas 110 to 113 overlap on the intersection as one pedestrian. This identification process is performed using the position of the pedestrian on the intersection acquired in s17.

なお、図4に示す例では、歩行者検出処理領域110〜113は、他の歩行者検出処理領域110〜113と重複していないので、このs18にかかる処理を不要にしてもよい。   In the example illustrated in FIG. 4, the pedestrian detection processing areas 110 to 113 do not overlap with the other pedestrian detection processing areas 110 to 113, and therefore the processing according to s 18 may be unnecessary.

歩行者追跡処理機能部416は、今回検出した歩行者毎に、オブジェクトマップを生成する(s19)。s19では、今回検出した歩行者毎に、s11で選択した処理対象のフレーム画像の撮像時刻と、s17で取得した交差点上の位置と、を対応付けたレコードを生成する。ここで生成したレコードには、図6(B)に示した歩行者の状態が対応付けられていない。また、歩行者追跡処理機能部416は、今回生成したレコード毎に、その歩行者に対してすでにIDが付与されているかどうかを判定する。この時点でIDが付与されていない歩行者は、前回の処理対象であったフレーム画像の撮像時刻から、今回の処理対象であったフレーム画像の撮像時刻までの間に、歩行者検出処理領域110〜113外から歩行者検出処理領域110〜113内に進入した歩行者であり、この時点においては図6(B)に示したオブジェクトマップが生成されていない。   The pedestrian tracking processing function unit 416 generates an object map for each pedestrian detected this time (s19). In s19, for each pedestrian detected this time, a record in which the imaging time of the processing target frame image selected in s11 is associated with the position on the intersection acquired in s17 is generated. The record generated here is not associated with the pedestrian state shown in FIG. In addition, the pedestrian tracking processing function unit 416 determines whether or not an ID has already been assigned to the pedestrian for each record generated this time. At this time, the pedestrian to whom no ID is assigned is the pedestrian detection processing area 110 between the imaging time of the frame image that was the previous processing target and the imaging time of the frame image that was the current processing target. ~ 113 is a pedestrian who has entered the pedestrian detection processing areas 110 to 113 from outside, and the object map shown in FIG. 6B is not generated at this point.

歩行者追跡処理機能部416は、この時点でIDが付与されていない歩行者については、IDを付与し、図6(B)に示したオブジェクトマップ(今回生成したレコードのみを登録したオブジェクトマップ)を生成する。一方、この時点でIDがすでに付与されている歩行者については、該当する歩行者のオブジェクトマップに、今回生成したレコードを追加したオブジェクトマップを生成する。IDが付与されているかどうかは、s17で取得した交差点上の歩行者の位置と、この時点でIDが付与されている歩行者のオブジェクトマップから得られる交差点上の歩行者の位置の時間的変化とに基づいて行える。   The pedestrian tracking processing function unit 416 assigns an ID to a pedestrian not assigned an ID at this time, and the object map shown in FIG. 6B (an object map in which only the record generated this time is registered). Is generated. On the other hand, for a pedestrian whose ID has already been assigned at this time, an object map is generated by adding the record generated this time to the corresponding pedestrian object map. Whether or not the ID is given is a temporal change in the position of the pedestrian on the intersection acquired in s17 and the position of the pedestrian on the intersection obtained from the object map of the pedestrian assigned the ID at this time. It can be done based on.

さらに、第1の画像処理部41は、歩行者判定処理機能部417が今回検出した歩行者毎に、その歩行者の状態(横断歩道外歩行者、中央通過歩行者、中央未達歩行者)を判定し、その状態を、s19で生成した該当する歩行者のオブジェクトマップに追加登録したレコードに登録する(s20)。   Further, the first image processing unit 41, for each pedestrian detected by the pedestrian determination processing function unit 417 this time, the state of the pedestrian (a pedestrian outside the pedestrian crossing, a central passing pedestrian, a central unachieved pedestrian). Is registered in the record additionally registered in the object map of the corresponding pedestrian generated in s19 (s20).

s13〜s16にかかる処理と、s17〜s20にかかる処理とは、その対象が車両であるか、歩行者であるかの違いであって、そのプロセスは実質的に同じである。また、s13〜s16にかかる処理と、s17〜s20にかかる処理とを実行する順番は、上記と逆の順番(s17〜s20にかかる処理の実行後、s13〜s16にかかる処理を実行する。)にしてもよい。また、第1の画像処理部41が、s13〜s16にかかる処理と、s17〜s20にかかる処理とを並列処理する構成であってもよい。   The process according to s13 to s16 and the process according to s17 to s20 are the difference between whether the target is a vehicle or a pedestrian, and the processes are substantially the same. Moreover, the order which performs the process concerning s13-s16 and the process concerning s17-s20 is reverse order to the above (after execution of the process concerning s17-s20, the process concerning s13-s16 is performed). It may be. Further, the first image processing unit 41 may be configured to perform parallel processing on the processing on s13 to s16 and the processing on s17 to s20.

さらに、s12で生成する各処理領域100、101、110〜113のリサイジング画像は、その画素数が同じである画像(ここでは、VGA画像)にしているので、リサイジング画像に対するオブジェクト(車両や、歩行者)の検出等にかかる処理プログラムも略同じにできる。具体的には、検出するオブジェクト(車両、または歩行者)の種類の相違による、パターンマッチング等にかかるパラメータの変更で対応できる。   Furthermore, since the resizing images of the processing areas 100, 101, 110 to 113 generated in s12 are images having the same number of pixels (here, VGA images), an object (vehicle or The processing program related to the detection of pedestrians) can be made substantially the same. More specifically, this can be dealt with by changing parameters relating to pattern matching or the like due to the difference in the type of object (vehicle or pedestrian) to be detected.

図7に戻って、画像処理装置1は、上述したs1にかかる画像処理を完了すると、制御部2が統合処理を行う(s2)。s2にかかる統合処理は、s1にかかる画像処理で、第1の画像処理部41が生成したオブジェクトマップと、第2の画像処理部42が生成したオブジェクトマップと、を統合する処理である。具体的には、第1の画像処理部41、および第2の画像処理部の両方で検出されたオブジェクト(車両、および歩行者)を1つのオブジェクトとして検出し、第1の画像処理部41、または第2の画像処理部の一方でのみ検出されたオブジェクト(車両、および歩行者)を1つのオブジェクトとして検出する処理である。すなわち、第1の画像処理部41が生成したオブジェクトマップと、第2の画像処理部42が生成したオブジェクトマップと、を統合し、検出されたオブジェクト毎に、1つのオブジェクトマップを得る処理である。これにより、一方のビデオカメラ10(または11)において、大型車両(バスやトラック等)が撮像されたときに、その背後に位置するために撮像されなかった車両(普通自動車)や歩行者にかかるオブジェクトマップも取得できる。これにより、オブジェクト(車両、または歩行者)の見逃しが防止できる。   Returning to FIG. 7, when the image processing apparatus 1 completes the image processing related to s1 described above, the control unit 2 performs integration processing (s2). The integration process related to s2 is a process of integrating the object map generated by the first image processing unit 41 and the object map generated by the second image processing unit 42 in the image processing related to s1. Specifically, an object (vehicle and pedestrian) detected by both the first image processing unit 41 and the second image processing unit is detected as one object, and the first image processing unit 41, Or it is the process which detects the object (a vehicle and a pedestrian) detected only by one side of the 2nd image process part as one object. In other words, the object map generated by the first image processing unit 41 and the object map generated by the second image processing unit 42 are integrated to obtain one object map for each detected object. . As a result, when one of the video cameras 10 (or 11) captures an image of a large vehicle (such as a bus or truck), the video camera 10 (or 11) takes a vehicle (ordinary car) or a pedestrian that was not imaged because it is located behind it. You can also get an object map. Thereby, oversight of an object (a vehicle or a pedestrian) can be prevented.

画像処理装置1は、制御部2がs2にかかる統合処理の処理結果に基づく出力信号を生成し、この出力信号を出力部5から出力する出力処理を行い(s3)、s1に戻る。この出力信号は、例えば、交差点に設置されている信号灯機を制御する信号制御装置に対して出力される信号であって、車両や歩行者の通過を示すパルス信号である。また、交差点の交通量をモニタリングする装置に対して出力される信号であって、交差点における車両の分岐方向別(直進、右折、左折)の台数を計測したディジタル信号であってもよい。   In the image processing apparatus 1, the control unit 2 generates an output signal based on the processing result of the integration processing related to s 2, performs output processing for outputting this output signal from the output unit 5 (s 3), and returns to s 1. This output signal is, for example, a signal that is output to a signal control device that controls a signal lamp installed at an intersection, and is a pulse signal that indicates the passage of a vehicle or a pedestrian. Further, it may be a signal output to a device for monitoring traffic at an intersection, and may be a digital signal obtained by measuring the number of vehicles at the intersection according to the branch direction (straight, right turn, left turn).

なお、上記の説明では、この発明にかかる画像処理装置を交差点における車両、および歩行者を検出する装置を例にしたが、車両を自動車(四輪車)とバイク(二輪車)で区別してもよい。この場合、図4に示した車両検出処理領域100、101にかえて、自動車検出処理領域、およびバイク検出処理領域をビデオカメラ10、11が撮像したフレーム画像に設定する構成とすればよい。また、検出するオブジェクトの種類として、自転車を追加してもよい。この場合には、自転車検出処理領域をビデオカメラ10、11が撮像したフレーム画像に設定する構成とすればよい。また、画像処理プロセッサ4は、検出、追跡するオブジェクトの種類毎に、検出処理機能部、追跡処理機能部、判定処理機能部を備えればよい。   In the above description, the image processing device according to the present invention is exemplified by a vehicle at an intersection and a device that detects a pedestrian, but the vehicle may be distinguished by an automobile (four-wheeled vehicle) and a motorcycle (two-wheeled vehicle). . In this case, instead of the vehicle detection processing areas 100 and 101 shown in FIG. 4, the vehicle detection processing area and the motorcycle detection processing area may be set to frame images captured by the video cameras 10 and 11. In addition, a bicycle may be added as the type of object to be detected. In this case, the bicycle detection processing area may be set to a frame image captured by the video cameras 10 and 11. The image processor 4 may include a detection processing function unit, a tracking processing function unit, and a determination processing function unit for each type of object to be detected and tracked.

また、本発明は、上記の例に限らず、大きさが異なる複数種類のオブジェクトを検出する装置としても利用できる。また、ビデオカメラ10、11の撮像エリアも、交差点に限らず、駅ホーム等の他の場所であってもよい。   The present invention is not limited to the above example, and can also be used as an apparatus for detecting a plurality of types of objects having different sizes. In addition, the imaging areas of the video cameras 10 and 11 are not limited to intersections, but may be other places such as station platforms.

また、上記の例では、車両検出処理領域100、101、および歩行者検出処理領域110〜113毎に、生成されるリサイジング画像がVGA画像であるとしたが、各処理領域について生成されるリサイジング画像の画素数が異なっていてもよい。但し、各処理領域について生成されたリサイジング画像の解像度は、その処理領域に対して設定した検出対象のオブジェクトに対して適正な範囲内である。   In the above example, the resizing image generated for each of the vehicle detection processing areas 100 and 101 and the pedestrian detection processing areas 110 to 113 is a VGA image. The number of pixels of the sizing image may be different. However, the resolution of the resizing image generated for each processing region is within the appropriate range for the detection target object set for the processing region.

1…画像処理装置
2…制御部
3…画像入力部
4…画像処理プロセッサ
5…出力部
10、11…ビデオカメラ
100、101…車両検出処理領域
110〜113…歩行者検出処理領域
41…第1の画像処理部
42…第2の画像処理部
411、421…リサイジング処理機能部
412、422…車両検出処理機能部
413、423…車両追跡処理機能部
414、424…車両判定処理機能部
415、425…歩行者検出処理機能部
416、426…歩行者追跡処理機能部
417、427…歩行者判定処理機能部
DESCRIPTION OF SYMBOLS 1 ... Image processing apparatus 2 ... Control part 3 ... Image input part 4 ... Image processing processor 5 ... Output part 10, 11 ... Video camera 100, 101 ... Vehicle detection processing area 110-113 ... Pedestrian detection processing area 41 ... 1st Image processing unit 42 ... Second image processing unit 411, 421 ... Resizing processing function unit 412, 422 ... Vehicle detection processing function unit 413, 423 ... Vehicle tracking processing function unit 414, 424 ... Vehicle determination processing function unit 415, 425 ... Pedestrian detection processing function unit 416, 426 ... Pedestrian tracking processing function unit 417, 427 ... Pedestrian determination processing function unit

Claims (10)

カメラで撮像した対象エリアのフレーム画像を入力する画像入力部と、
前記画像入力部に入力されたフレーム画像上に、検出対象であるオブジェクトの種類を定めた複数の処理領域毎に、その処理領域の画像を、検出対象であるオブジェクトの種類に応じた解像度の画像に変換したリサイジング画像を生成するリサイジング処理部と、
前記リサイジング処理部が生成したリサイジング画像を処理し、検出対象である種類のオブジェクトを検出するオブジェクト検出部と、を備えた画像処理装置。
An image input unit for inputting a frame image of the target area captured by the camera;
On the frame image input to the image input unit, for each of a plurality of processing areas in which the type of the object to be detected is determined, the image of the processing area is an image having a resolution corresponding to the type of the object to be detected. A resizing processing unit that generates a resizing image converted into
An image processing apparatus comprising: an object detection unit that processes a resizing image generated by the resizing processing unit and detects an object of a type that is a detection target.
前記リサイジング処理部は、前記処理領域毎に、予め設定した画素数のリサイジング画像を生成する、請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the resizing processing unit generates a resizing image having a preset number of pixels for each processing region. 前記オブジェクト検出部が検出したオブジェクト毎に、時間経過にともなう前記対象エリア上の位置の変化を示すオブジェクトマップを生成するオブジェクトマップ生成部を備えた、請求項1、または2に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising: an object map generation unit configured to generate an object map indicating a change in position on the target area with time for each object detected by the object detection unit. . 前記画像入力部には、前記対象エリアに対するアングルが異なる複数のカメラで撮像したフレーム画像が入力され、
前記リサイジング処理部、および前記オブジェクト検出部を、前記カメラ毎に設けた請求項1〜3のいずれかに記載の画像処理装置。
The image input unit receives frame images captured by a plurality of cameras having different angles with respect to the target area,
The image processing apparatus according to claim 1, wherein the resizing processing unit and the object detection unit are provided for each camera.
前記画像入力部には、前記対象エリアに対するアングルが異なる複数のカメラで撮像したフレーム画像が入力され、
前記リサイジング処理部、前記オブジェクト検出部、およびオブジェクトマップ生成部を、それぞれ前記カメラ毎に設け、
前記カメラ毎に設けた前記オブジェクトマップ生成部が生成したオブジェクトマップを検出したオブジェクト単位で統合する統合部を備えた請求項1〜3のいずれかに記載の画像処理装置。
The image input unit receives frame images captured by a plurality of cameras having different angles with respect to the target area,
The resizing processing unit, the object detection unit, and the object map generation unit are provided for each camera,
The image processing apparatus according to claim 1, further comprising an integration unit that integrates an object map generated by the object map generation unit provided for each camera in units of detected objects.
前記対象エリアは、交差点である、請求項1〜5のいずれかに記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the target area is an intersection. 前記画像入力部に入力されたフレーム画像上に設定した処理領域は、検出対象であるオブジェクトの種類が車両、または人である、請求項6に記載の画像処理装置。   The image processing apparatus according to claim 6, wherein the processing area set on the frame image input to the image input unit is a vehicle or a person as a type of object to be detected. 前記オブジェクト検出部の検出結果に基づき、対象エリアである交差点における車両、または人の通過を示す出力信号を出力する出力部を備えた、請求項6、または7に記載の画像処理装置。   The image processing apparatus according to claim 6, further comprising an output unit configured to output an output signal indicating the passage of a vehicle or a person at an intersection that is a target area based on a detection result of the object detection unit. コンピュータが、画像入力部に入力された、カメラで撮像した対象エリアのフレーム画像を処理する画像処理方法であって、
前記画像入力部に入力されたフレーム画像上に、検出対象であるオブジェクトの種類を定めた複数の処理領域毎に、その処理領域の画像を、検出対象であるオブジェクトの種類に応じた解像度の画像に変換したリサイジング画像を生成するリサイジング処理ステップと、
前記リサイジング処理ステップで生成したリサイジング画像を処理し、検出対象である種類のオブジェクトを検出するオブジェクト検出ステップと、をコンピュータが実行する画像処理方法。
An image processing method in which a computer processes a frame image of a target area captured by a camera, input to an image input unit,
On the frame image input to the image input unit, for each of a plurality of processing areas in which the type of the object to be detected is determined, the image of the processing area is an image having a resolution corresponding to the type of the object to be detected. A resizing process step for generating a resizing image converted into
An image processing method in which a computer executes an object detection step of processing a resizing image generated in the resizing processing step and detecting an object of a type to be detected.
画像入力部に入力された、カメラで撮像した対象エリアのフレーム画像をコンピュータに処理させる画像処理プログラムであって、
前記画像入力部に入力されたフレーム画像上に、検出対象であるオブジェクトの種類を定めた複数の処理領域毎に、その処理領域の画像を、検出対象であるオブジェクトの種類に応じた解像度の画像に変換したリサイジング画像を生成するリサイジング処理ステップと、
前記リサイジング処理ステップで生成したリサイジング画像を処理し、検出対象である種類のオブジェクトを検出するオブジェクト検出ステップと、をコンピュータに実行させる画像処理プログラム。
An image processing program for causing a computer to process a frame image of a target area captured by a camera, input to an image input unit,
On the frame image input to the image input unit, for each of a plurality of processing areas in which the type of the object to be detected is determined, the image of the processing area is an image having a resolution corresponding to the type of the object to be detected. A resizing process step for generating a resizing image converted into
An image processing program that causes a computer to execute an object detection step of processing a resizing image generated in the resizing processing step and detecting an object of a type that is a detection target.
JP2013125311A 2013-06-14 2013-06-14 Image processing apparatus, image processing method, and image processing program Pending JP2015002401A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013125311A JP2015002401A (en) 2013-06-14 2013-06-14 Image processing apparatus, image processing method, and image processing program
SG11201501530WA SG11201501530WA (en) 2013-06-14 2014-05-27 Image processing device, image processing method, and image processing program
PCT/JP2014/063918 WO2014199817A1 (en) 2013-06-14 2014-05-27 Image processing device, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013125311A JP2015002401A (en) 2013-06-14 2013-06-14 Image processing apparatus, image processing method, and image processing program

Publications (1)

Publication Number Publication Date
JP2015002401A true JP2015002401A (en) 2015-01-05

Family

ID=52022116

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013125311A Pending JP2015002401A (en) 2013-06-14 2013-06-14 Image processing apparatus, image processing method, and image processing program

Country Status (3)

Country Link
JP (1) JP2015002401A (en)
SG (1) SG11201501530WA (en)
WO (1) WO2014199817A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105427343A (en) * 2015-11-18 2016-03-23 中国科学院信息工程研究所 Moving target detecting and tracking method based on DM8148 development board
JP2019151968A (en) * 2018-02-28 2019-09-12 株式会社小松製作所 Information presenting device and information presenting method
JP2021040248A (en) * 2019-09-03 2021-03-11 パナソニックi−PROセンシングソリューションズ株式会社 Investigation support system, investigation support method, and computer program
JP2022507399A (en) * 2019-07-17 2022-01-18 上▲海▼商▲湯▼智能科技有限公司 Robot image enhancement methods and devices, processors, equipment, media and programs

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
MX2017017172A (en) 2015-06-22 2018-02-23 Bayer Pharma AG Antibody drug conjugates (adcs) and antibody prodrug conjugates (apdcs) with enzymatically cleavable groups.
JP6975483B1 (en) * 2020-06-29 2021-12-01 ナカシャ クリエイテブ株式会社 Object information processing device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005190142A (en) * 2003-12-25 2005-07-14 Foundation For The Promotion Of Industrial Science Intersection traffic measuring system and intersection traffic measurement method
JP2009055139A (en) * 2007-08-23 2009-03-12 Hitachi Kokusai Electric Inc Person tracking system, apparatus, and program
JP2011013838A (en) * 2009-06-30 2011-01-20 Sumitomo Electric Ind Ltd Mobile object detection device, mobile object detection method and computer program
JP2012222762A (en) * 2011-04-14 2012-11-12 Hitachi Automotive Systems Ltd Image processing apparatus
JP2012533922A (en) * 2009-07-17 2012-12-27 サムスン エレクトロニクス カンパニー リミテッド Video processing method and apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005190142A (en) * 2003-12-25 2005-07-14 Foundation For The Promotion Of Industrial Science Intersection traffic measuring system and intersection traffic measurement method
JP2009055139A (en) * 2007-08-23 2009-03-12 Hitachi Kokusai Electric Inc Person tracking system, apparatus, and program
JP2011013838A (en) * 2009-06-30 2011-01-20 Sumitomo Electric Ind Ltd Mobile object detection device, mobile object detection method and computer program
JP2012533922A (en) * 2009-07-17 2012-12-27 サムスン エレクトロニクス カンパニー リミテッド Video processing method and apparatus
JP2012222762A (en) * 2011-04-14 2012-11-12 Hitachi Automotive Systems Ltd Image processing apparatus

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105427343A (en) * 2015-11-18 2016-03-23 中国科学院信息工程研究所 Moving target detecting and tracking method based on DM8148 development board
JP2019151968A (en) * 2018-02-28 2019-09-12 株式会社小松製作所 Information presenting device and information presenting method
JP2022507399A (en) * 2019-07-17 2022-01-18 上▲海▼商▲湯▼智能科技有限公司 Robot image enhancement methods and devices, processors, equipment, media and programs
JP2021040248A (en) * 2019-09-03 2021-03-11 パナソニックi−PROセンシングソリューションズ株式会社 Investigation support system, investigation support method, and computer program
US11417103B2 (en) 2019-09-03 2022-08-16 Panasonic I-Pro Sensing Solutions Co., Ltd. Investigation assist system and investigation assist method
US11790658B2 (en) 2019-09-03 2023-10-17 i-PRO Co., Ltd. Investigation assist system and investigation assist method

Also Published As

Publication number Publication date
WO2014199817A1 (en) 2014-12-18
SG11201501530WA (en) 2015-04-29

Similar Documents

Publication Publication Date Title
WO2014199817A1 (en) Image processing device, image processing method, and image processing program
KR101997436B1 (en) Object position measurement by car camera using vehicle motion data
JP6197291B2 (en) Compound eye camera device and vehicle equipped with the same
JP5503728B2 (en) Vehicle periphery monitoring device
US8050459B2 (en) System and method for detecting pedestrians
JP6014440B2 (en) Moving object recognition device
CN112349144B (en) Monocular vision-based vehicle collision early warning method and system
JP5597454B2 (en) Abnormal traveling vehicle detection system and road monitoring program
CN107845290B (en) Intersection warning method, processing system, intersection warning system and vehicle
EP2416571A1 (en) Vehicle surrounding monitoring device
JP2012123470A (en) Object detection device and object detection method
CN112513873A (en) Identification of pedestrian's movement intention from camera images
JP2020052647A (en) Object detection device, object detection method, computer program for object detection, and vehicle control system
JP2011048520A (en) Device and method for monitoring vehicle periphery
JP2015186085A (en) Travel derivation apparatus and travel derivation method
JP2020013206A (en) Device for detecting two-wheeled vehicle from moving image/camera, program, and system
Sung et al. Real-time traffic light recognition on mobile devices with geometry-based filtering
US10417507B2 (en) Freespace detection apparatus and freespace detection method
JP6407596B2 (en) Image processing apparatus and driving support system
JP2017054408A (en) Vehicle type determination device, vehicle type determination method, vehicle type determination program
JP2004258981A (en) Vehicle monitoring method and device
JP2012221272A (en) Image processing system and image processing method
JP5587068B2 (en) Driving support apparatus and method
US20190012763A1 (en) Image data processing circuit and imaging circuit
JP5487648B2 (en) Moving object measuring system, moving object measuring apparatus, moving object measuring method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170609

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20171205