JP5062091B2 - Moving object identification device, computer program, and optical axis direction specifying method - Google Patents

Moving object identification device, computer program, and optical axis direction specifying method Download PDF

Info

Publication number
JP5062091B2
JP5062091B2 JP2008201012A JP2008201012A JP5062091B2 JP 5062091 B2 JP5062091 B2 JP 5062091B2 JP 2008201012 A JP2008201012 A JP 2008201012A JP 2008201012 A JP2008201012 A JP 2008201012A JP 5062091 B2 JP5062091 B2 JP 5062091B2
Authority
JP
Japan
Prior art keywords
optical axis
vehicle
axis direction
feature amount
partial image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008201012A
Other languages
Japanese (ja)
Other versions
JP2010041322A (en
Inventor
政勝 東久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries Ltd filed Critical Sumitomo Electric Industries Ltd
Priority to JP2008201012A priority Critical patent/JP5062091B2/en
Publication of JP2010041322A publication Critical patent/JP2010041322A/en
Application granted granted Critical
Publication of JP5062091B2 publication Critical patent/JP5062091B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、道路を含む領域を撮像して得られた撮像画像から特徴量を抽出し、抽出した特徴量を用いて移動体を識別する移動体識別装置、移動体識別装置をコンピュータで実現するためのコンピュータプログラム及び前記移動体識別装置による光軸方向特定方法に関する。 The present invention, an area including the road to extract a feature from the captured image obtained by imaging, mobile identification apparatus for identifying moving body using the extracted feature quantity, the mobile identification equipment in the computer optical axis direction identification method by a computer program and the mobile identification equipment for implementing related.

路側インフラ装置と車両(車載装置)とが有線又は無線による路車間通信にて情報を交換し、各装置が単独では実現できなかった機能を実現させるシステムが検討されている。特に、車両の運転者からは死角となる場所に存在する車両又は歩行者の情報をインフラ側より車両側に提供することで未然に交通事故を抑止する路車協調型安全運転支援システムの検討が進められている。   A system in which a roadside infrastructure device and a vehicle (on-vehicle device) exchange information by wired or wireless road-to-vehicle communication and each device realizes a function that cannot be realized independently has been studied. In particular, there is a study on a road-vehicle cooperative safe driving support system that suppresses traffic accidents by providing information on vehicles or pedestrians in a blind spot from the vehicle side to the vehicle side from the infrastructure side. It is being advanced.

このようなシステムを実現するための主要技術としては、例えば、車両の位置情報、車種情報(例えば、自動車、二輪車又は歩行者等)、車両の移動速度又は移動方向などの情報を検出するセンサが必要である。このようなセンサとしては、例えば、レーザを利用するもの、あるいは、ビデオカメラで撮像した画像を利用するものがあるが、情報を検出することができる範囲の広さ、製品寿命、コスト及び性能などのバランスを考慮すると画像処理方式が有力である。   As main technologies for realizing such a system, for example, there are sensors that detect information such as vehicle position information, vehicle type information (for example, automobiles, two-wheeled vehicles, pedestrians, etc.), vehicle movement speed or direction, and the like. is necessary. Examples of such sensors include those that use lasers or those that use images captured by a video camera. The range of information that can be detected, product life, cost, performance, etc. Considering this balance, the image processing method is effective.

画像処理方式のセンサ(画像センサ)を使用する例として、例えば、ビデオカメラで撮像された画像情報から、車両の存在、小型車や中型車などの車種、車両速度などを検出して交通流計測を行う装置が開示されている(特許文献1参照)。
特開平5−307695号公報
As an example of using an image processing type sensor (image sensor), for example, traffic flow measurement is performed by detecting the presence of a vehicle, a vehicle type such as a small or medium-sized vehicle, a vehicle speed, etc. from image information captured by a video camera. An apparatus for performing this is disclosed (see Patent Document 1).
JP-A-5-307695

しかし、特許文献1に開示されている画像処理方式のセンサの課題の1つは、撮像する道路の幅、車線の位置、車両の進行方向等に応じてビデオカメラで撮像する撮像範囲、ビデオカメラの設置高さ、俯角又は回転角などのビデオカメラの取付角度(ビデオカメラのレンズの光軸方向)の調整及び撮像画像上での車線位置等の設定を要することである。特に、車両の速度計測や位置を精度良く求めるためには、撮像画像上の位置と実際の道路上の位置を一致させておく必要があり、ビデオカメラの取付角度を正確に設定する必要があった。   However, one of the problems of the sensor of the image processing method disclosed in Patent Document 1 is that the imaging range captured by the video camera according to the width of the road to be imaged, the position of the lane, the traveling direction of the vehicle, etc., the video camera It is necessary to adjust the mounting angle of the video camera (the optical axis direction of the lens of the video camera) such as the installation height, the depression angle, or the rotation angle, and to set the lane position on the captured image. In particular, in order to accurately determine the vehicle speed measurement and position, it is necessary to match the position on the captured image with the position on the actual road, and it is necessary to set the video camera mounting angle accurately. It was.

従来、ビデオカメラの設置場所で取付角度の調整を行っていたが、調整作業には多大の労力を要した。また、調整作業中は、道路の車線規制などを行う必要があり、交通渋滞や交通事故の恐れもあった。このため、簡便な方法でビデオカメラ等の取付角度を設定することが望まれていた。   Conventionally, the mounting angle has been adjusted at the installation location of the video camera, but the adjustment work has required a great deal of labor. In addition, during the adjustment work, it is necessary to regulate road lanes, which may cause traffic congestion and traffic accidents. For this reason, it has been desired to set the mounting angle of a video camera or the like by a simple method.

本発明は、斯かる事情に鑑みてなされたものであり、ビデオカメラ等の取付角度(レンズの光軸方向)を簡便に設定することができる移動体識別装置、該移動体識別装置をコンピュータで実現するためのコンピュータプログラム並びに前記移動体識別装置による光軸方向特定方法に関する。 The present invention has been made in view of such circumstances, mobile identification apparatus capable of setting the mounting angle of such a video camera (an optical axis direction of the lens) conveniently, the mobile identification equipment computer in a computer program, and the optical axis direction identification method by the mobile identification equipment for realizing.

第1発明に係る移動体識別装置は、道路を含む領域を撮像装置で撮像して得られた撮像画像から特徴量を抽出し、抽出した特徴量を用いて移動体を識別する移動体識別装置であって、移動体の位置情報を取得する位置情報取得手段と、撮像画像上の部分画像を特定する部分画像特定手段と、該部分画像特定手段で特定した部分画像の特徴量を抽出する特徴量抽出手段と、該特徴量抽出手段で抽出した特徴量を用いて移動体を識別する識別手段と、該識別手段で移動体を識別した場合、前記位置情報取得手段で取得した位置情報、前記撮像装置のレンズの既知の光軸方向及び前記部分画像特定手段で特定した部分画像の撮像画像上の位置に基づいて、前記位置情報取得手段で位置情報を取得した移動体が前記部分画像に撮像されているか否かを判定する判定手段と、該判定手段で前記移動体が撮像されていると判定した場合、該移動体の撮像画像上の位置を算出する位置算出手段と、該位置算出手段で算出した複数の撮像時点での1又は複数の移動体の各位置及び前記撮像装置の撮像パラメータを用いて、前記光軸方向を修正すべく光軸方向を特定する光軸方向特定手段とを備えることを特徴とする。   A mobile object identification device according to a first aspect of the present invention extracts a feature amount from a captured image obtained by imaging an area including a road with an imaging device, and identifies the mobile object using the extracted feature amount. A position information acquisition unit that acquires position information of a moving body, a partial image specification unit that specifies a partial image on a captured image, and a feature that extracts a feature amount of the partial image specified by the partial image specification unit An amount extracting unit; an identifying unit that identifies a moving object using the feature amount extracted by the feature amount extracting unit; and a position information acquired by the position information acquiring unit when the moving unit is identified by the identifying unit, Based on the known optical axis direction of the lens of the imaging device and the position on the captured image of the partial image specified by the partial image specifying unit, the moving body that acquired the position information by the position information acquiring unit captures the partial image. Whether or not A determination means for determining, a position calculation means for calculating a position of the moving body on a captured image when the determination means determines that the moving body is imaged, and a plurality of imaging calculated by the position calculation means And an optical axis direction specifying means for specifying the optical axis direction to correct the optical axis direction using each position of the one or more moving bodies at the time and the imaging parameters of the imaging device. .

第2発明に係る移動体識別装置は、第1発明において、前記特徴量抽出手段で抽出した特徴量を用いて天候又は昼夜の別を含む環境状況を識別する環境識別手段を備え、前記識別手段は、前記環境識別手段で識別した環境状況及び前記特徴量を用いて移動体を識別するように構成してあることを特徴とする。   According to a second aspect of the present invention, there is provided a mobile unit identification apparatus comprising: an environment identification unit for identifying an environmental situation including weather or day and night using the feature amount extracted by the feature amount extraction unit. Is configured to identify the moving object using the environmental situation identified by the environment identification means and the feature amount.

第4発明に係るコンピュータプログラムは、コンピュータを、道路を含む領域を撮像装置で撮像して得られた撮像画像から特徴量を抽出し、抽出した特徴量を用いて移動体を識別する手段として機能させるためのコンピュータプログラムであって、コンピュータを、撮像画像上の部分画像を特定する部分画像特定手段と、特定した部分画像の特徴量を抽出する特徴量抽出手段と、抽出した特徴量を用いて移動体を識別する識別手段と、移動体を識別した場合、移動体の位置情報、前記撮像装置のレンズの既知の光軸方向及び特定した部分画像の撮像画像上の位置に基づいて、前記移動体が前記部分画像に撮像されているか否かを判定する判定手段と、前記移動体が撮像されていると判定した場合、該移動体の撮像画像上の位置を算出する位置算出手段と、算出した複数の撮像時点での1又は複数の移動体の各位置及び前記撮像装置の撮像パラメータを用いて、前記光軸方向を修正すべく光軸方向を特定する光軸方向特定手段として機能させることを特徴とする。   A computer program according to a fourth invention functions as a means for extracting a feature amount from a captured image obtained by capturing an image of an area including a road with an imaging device, and identifying a moving object using the extracted feature amount. A computer program for causing a computer to use a partial image specifying unit for specifying a partial image on a captured image, a feature amount extracting unit for extracting a feature amount of the specified partial image, and the extracted feature amount An identification means for identifying a moving body and, when the moving body is identified, the movement based on positional information of the moving body, a known optical axis direction of the lens of the imaging device, and a position of the specified partial image on the captured image. A determination unit that determines whether or not a body is captured in the partial image, and a position that calculates a position on the captured image of the mobile body when it is determined that the mobile body is captured An optical axis direction specification for specifying the optical axis direction to correct the optical axis direction by using the output means, the calculated positions of one or a plurality of moving bodies at a plurality of imaging time points, and the imaging parameters of the imaging device It is made to function as a means.

第6発明に係る光軸方向特定方法は、道路を含む領域を撮像装置で撮像して得られた撮像画像から特徴量を抽出し、抽出した特徴量を用いて移動体を識別する移動体識別装置による光軸方向特定方法であって、移動体の位置情報を取得し、撮像画像上の部分画像を特定し、特定した部分画像の特徴量を抽出し、抽出した特徴量を用いて移動体を識別し、移動体を識別した場合、取得した位置情報、前記撮像装置のレンズの既知の光軸方向及び特定した部分画像の撮像画像上の位置に基づいて、前記位置情報を取得した移動体が前記部分画像に撮像されているか否かを判定し、前記移動体が撮像されていると判定した場合、該移動体の撮像画像上の位置を算出し、算出した複数の撮像時点での1又は複数の移動体の各位置及び前記撮像装置の撮像パラメータを用いて、前記光軸方向を修正すべく光軸方向を特定することを特徴とする。   According to a sixth aspect of the present invention, there is provided an optical axis direction identification method that extracts a feature amount from a captured image obtained by capturing an area including a road with an imaging device, and identifies the moving body using the extracted feature amount. A method for specifying an optical axis direction by an apparatus, which acquires position information of a moving body, specifies a partial image on a captured image, extracts a feature amount of the specified partial image, and uses the extracted feature amount to move the moving body When the moving body is identified, the moving body that has acquired the position information based on the acquired position information, the known optical axis direction of the lens of the imaging device, and the position of the specified partial image on the captured image Is determined to be captured in the partial image, and when it is determined that the moving body is captured, the position of the moving body on the captured image is calculated, and 1 at a plurality of calculated imaging time points is calculated. Alternatively, each position of a plurality of moving bodies and the imaging device Using the parameters, and identifies the optical axis direction so as to correct the optical axis direction.

第1発明、第発明及び第発明にあっては、撮像画像上の部分画像を特定し、特定した部分画像の特徴量を抽出する。部分画像は、例えば、24×32画素の検出範囲であって、検出範囲を撮像画像上で走査して検出範囲の特徴量を抽出する。特徴量は、例えば、HOG(Histograms of Oriented Gradients)特徴を用いることができ、検出範囲の輝度の勾配強度を勾配方向毎にヒストグラム化した特徴ベクトルである。なお、特徴量は、HOG特徴に限定されるものではなく、エッジ検出により抽出してもよい。抽出した特徴量を用いて移動体(例えば、車両)を識別手段(識別器)で識別した場合、移動体の位置情報、撮像装置のレンズの既知の光軸方向(例えば、光軸の俯角及び回転角)及び特定した部分画像(移動体を識別した際の特徴量を抽出した検出範囲)の撮像画像上の位置に基づいて、車両の位置情報を取得した移動体が部分画像(検出範囲)内にあるか否かを判定する。識別器は、特徴量(特徴ベクトル)が入力された場合、入力された特徴量と識別器パラメータとにより識別結果(判定情報、例えば、車両あり、車両なし等)を出力するものである。また、既知の光軸方向は、例えば、大凡に設定されたものであり精度良く特定する前のものである。 In the first invention, the third invention, and the fourth invention, the partial image on the captured image is specified, and the feature amount of the specified partial image is extracted. The partial image is, for example, a detection range of 24 × 32 pixels, and the detection range is scanned on the captured image to extract the feature amount of the detection range. For example, HOG (Histograms of Oriented Gradients) features can be used as the feature amount, which is a feature vector in which the gradient intensity of the luminance in the detection range is histogrammed for each gradient direction. Note that the feature amount is not limited to the HOG feature, and may be extracted by edge detection. When a moving body (for example, a vehicle) is identified by an identification unit (identifier) using the extracted feature amount, the position information of the moving body, the known optical axis direction of the lens of the imaging device (for example, the depression angle of the optical axis, and the like) The moving body that has acquired the vehicle position information based on the position on the captured image of the rotation angle) and the identified partial image (the detection range from which the feature amount is extracted when the moving body is identified) is the partial image (detection range). It is determined whether or not it is inside. When a feature amount (feature vector) is input, the discriminator outputs a discrimination result (determination information, for example, there is a vehicle, no vehicle, etc.) based on the input feature amount and the discriminator parameter. Further, the known optical axis direction is, for example, roughly set and is the one before specifying with high accuracy.

移動体が撮像されている(検出範囲内にある)と判定した場合、前記移動体の撮像画像上の位置を算出する。複数の撮像時点で同様にして移動体の位置を算出する。これにより、移動体の走行軌跡を表わす仮想直線を撮像画像上で求めることができる。また、複数の移動体について、同様に撮像画像上の複数の位置を算出する。これにより、複数の仮想直線を求めることができる。算出した各位置、すなわち、複数の仮想直線の交点(無限遠点)及び撮像装置の撮像パラメータ(例えば、撮像装置の撮像面の大きさ及び解像度、レンズの焦点距離など)を用いて、撮像装置のレンズの既知の光軸方向を修正すべく光軸方向(例えば、光軸の俯角及び回転角)を特定する。これにより、レンズの光軸方向(俯角及び回転角)を高精度かつ自動的に求めることができる。また、撮像装置の取付角度に関わる調整作業を手作業ではなく自動的に行うことができ、調整作業に要する車線規制なども不要になり、作業労力及び作業コストの低減を図ることができ、また、交通渋滞や交通事故の防止に繋がる。   When it is determined that the moving body is imaged (within the detection range), the position of the moving body on the captured image is calculated. The position of the moving body is calculated in the same way at a plurality of imaging time points. Thereby, a virtual straight line representing the traveling locus of the moving body can be obtained on the captured image. Similarly, a plurality of positions on the captured image are calculated for a plurality of moving objects. Thereby, a plurality of virtual straight lines can be obtained. Using each calculated position, that is, an intersection (a point at infinity) of a plurality of virtual straight lines and imaging parameters of the imaging device (for example, the size and resolution of the imaging surface of the imaging device, the focal length of the lens, etc.) The optical axis direction (for example, the depression angle and the rotation angle of the optical axis) is specified to correct the known optical axis direction of the lens. Thereby, the optical axis direction (the depression angle and the rotation angle) of the lens can be automatically obtained with high accuracy. In addition, adjustment work related to the mounting angle of the imaging device can be performed automatically instead of manual work, lane regulation required for the adjustment work becomes unnecessary, and work labor and cost can be reduced. , Leading to prevention of traffic jams and traffic accidents.

第2発明にあっては、抽出した特徴量を用いて天候又は昼夜の別を含む環境状況を識別する環境識別手段(環境識別器)を備える。環境識別器は、特徴量(特徴ベクトル)が入力された場合、入力された特徴量と環境識別器パラメータとにより識別結果(判定情報、例えば、昼、夕方、夜、晴天、雨天等などの環境状況を出力するものである。車両を識別する場合、抽出した特徴量及び所要の環境状況(例えば、昼、夕方、晴れの夜間、雨天の夜間など)により車両(移動体)を識別する。これにより、環境状況に関わらず移動体を精度良く識別することができる。   In the second invention, there is provided environment identification means (environment identifier) for identifying an environmental situation including weather or day and night using the extracted feature quantity. When a feature quantity (feature vector) is input, the environment discriminator determines an identification result (determination information, for example, environment such as day, evening, night, clear sky, rainy weather, etc.) based on the input feature quantity and the environment discriminator parameter. When the vehicle is identified, the vehicle (moving object) is identified based on the extracted feature amount and the required environmental condition (for example, daytime, evening, sunny night, rainy night). Thus, the moving object can be accurately identified regardless of the environmental situation.

本発明によれば、撮像装置の取付角度に関わる調整作業を手作業ではなく自動的に行うことができ、調整作業に要する車線規制なども不要になり、作業労力及び作業コストの低減を図ることができ、また、交通渋滞や交通事故の防止に繋がる。   According to the present invention, adjustment work related to the mounting angle of the imaging apparatus can be automatically performed instead of manual work, lane regulation required for the adjustment work becomes unnecessary, and work labor and work cost are reduced. Can also prevent traffic jams and traffic accidents.

以下、本発明を実施の形態を示す図面に基づいて説明する。図1は本発明に係る移動体識別装置である車両識別装置100の構成の一例を示すブロック図である。車両識別装置100は、画像入力部11、A/D変換部12、画像メモリ13、通信部14、記憶部15、装置全体を制御する制御部20、部分画像特定部30、特徴量抽出部40、識別手段(識別器)としての識別部50、車両存在位置判定部60、ビデオカメラ10のレンズの光軸方向を特定する光軸方向特定部70などを備える。また、識別部50は、車両有無識別部51、車種識別部52、環境識別部53、環境別車両有無識別部54などを備えている。また、画像入力部11には、ビデオカメラ10を接続してある。なお、ビデオカメラ10は、車両識別装置100とは別個の装置であってもよく、あるいは、両者が一体をなす構成であってもよい。   Hereinafter, the present invention will be described with reference to the drawings illustrating embodiments. FIG. 1 is a block diagram showing an example of a configuration of a vehicle identification device 100 that is a moving body identification device according to the present invention. The vehicle identification device 100 includes an image input unit 11, an A / D conversion unit 12, an image memory 13, a communication unit 14, a storage unit 15, a control unit 20 that controls the entire device, a partial image specification unit 30, and a feature amount extraction unit 40. , An identification unit 50 as identification means (identifier), a vehicle presence position determination unit 60, an optical axis direction identification unit 70 that identifies the optical axis direction of the lens of the video camera 10, and the like. The identification unit 50 includes a vehicle presence / absence identification unit 51, a vehicle type identification unit 52, an environment identification unit 53, an environment-specific vehicle presence / absence identification unit 54, and the like. A video camera 10 is connected to the image input unit 11. Note that the video camera 10 may be a separate device from the vehicle identification device 100, or may be configured such that both are integrated.

ビデオカメラ10は、道路を含む所要の領域を撮像すべく、所定の高さ、レンズの光軸方向(例えば、俯角及び回転角)などの撮像条件が設定された状態で道路付近の所要の地点に設置してある。ビデオカメラ10は、撮像して得られた撮像画像を映像信号(アナログ信号)として画像入力部11へ出力する。   The video camera 10 captures a required area including a road, and a predetermined point near the road in a state where imaging conditions such as a predetermined height and a lens optical axis direction (for example, depression angle and rotation angle) are set. It is installed in. The video camera 10 outputs a captured image obtained by imaging to the image input unit 11 as a video signal (analog signal).

まず、ビデオカメラ10のレンズの光軸方向の大凡の値(初期値)設定方法について説明する。図2は道路座標系を示す説明図である。図2に示すように、ビデオカメラ10のレンズ中心を原点として、道路座標系(X、Y、Z)を定義する。道路座標系は、道路の進行方向(ビデオカメラ10から離れる方向)をY軸(前方向を正)、道路方向と垂直な道路面上の方向をX軸(前方に向かって右方向を正)、路面と垂直な方向をZ軸(上方を正)とする。また、ビデオカメラ10のレンズ中心を原点として、カメラ座標系(X’、Y’、Z’)を定義する。カメラ座標系は、カメラレンズの光軸をY’軸、光軸に垂直であって水平方向の軸をX’軸、カメラの上方向をZ’軸とする。さらに、カメラ座標系の各軸の道路座標系の各軸に対する回転角を、それぞれα(ピッチ角)、β(ロール角)、γ(ヨー角)とし、全て右ねじの進む方向を正(α:水平面より上向きが正、β:右回りが正、γ:左回りが正)とする。この場合、道路座標系からカメラ座標系の変換式は、式(1)で表すことができる。   First, a method for setting approximate values (initial values) in the optical axis direction of the lens of the video camera 10 will be described. FIG. 2 is an explanatory diagram showing a road coordinate system. As shown in FIG. 2, a road coordinate system (X, Y, Z) is defined with the lens center of the video camera 10 as the origin. In the road coordinate system, the traveling direction of the road (the direction away from the video camera 10) is the Y axis (the forward direction is positive), and the direction on the road surface perpendicular to the road direction is the X axis (the right direction toward the front is positive). The direction perpendicular to the road surface is taken as the Z-axis (upward is positive). The camera coordinate system (X ′, Y ′, Z ′) is defined with the lens center of the video camera 10 as the origin. In the camera coordinate system, the optical axis of the camera lens is the Y ′ axis, the horizontal axis perpendicular to the optical axis is the X ′ axis, and the upward direction of the camera is the Z ′ axis. Furthermore, the rotation angle of each axis of the camera coordinate system with respect to each axis of the road coordinate system is α (pitch angle), β (roll angle), and γ (yaw angle), respectively, and the direction in which the right screw advances is positive (α : Positive upward from the horizontal plane, β: positive clockwise, γ: positive counterclockwise). In this case, the conversion equation from the road coordinate system to the camera coordinate system can be expressed by equation (1).

Figure 0005062091
Figure 0005062091

変換行列の係数P11〜P33それぞれは、式(2)で表すことができる。また、撮像画像上の座標(x、y)は、レンズの焦点距離をFとすると、式(3)で表すことができる。   Each of the coefficients P11 to P33 of the transformation matrix can be expressed by Expression (2). Further, the coordinates (x, y) on the captured image can be expressed by Expression (3), where F is the focal length of the lens.

図3はビデオカメラ10の取付状態を示す説明図である。ビデオカメラ10のレンズの光軸方向は、俯角及び回転角により特定することができる。図3(a)に示すように、俯角は、道路面と平行な面とレンズの光軸とのなす角である。レンズの光軸が道路面と平行な場合には、俯角は0度であり、レンズの光軸が下に向く方向を正の俯角と定義する。この場合、俯角は上述のピッチ角の方向とは逆になり、−αで表わすことができる。   FIG. 3 is an explanatory view showing a mounting state of the video camera 10. The optical axis direction of the lens of the video camera 10 can be specified by the depression angle and the rotation angle. As shown in FIG. 3A, the depression angle is an angle formed by a plane parallel to the road surface and the optical axis of the lens. When the optical axis of the lens is parallel to the road surface, the depression angle is 0 degree, and the direction in which the optical axis of the lens faces downward is defined as a positive depression angle. In this case, the depression angle is opposite to the direction of the pitch angle described above and can be represented by -α.

また、図3(b)に示すように、回転角は道路の進行方向とレンズの光軸とのなす角である。レンズの光軸が道路の進行方向と平行な場合には、回転角は0度であり、レンズの光軸が左へ向く方向を正の回転角と定義する。この場合、回転角は上述のヨー角(γ)で表わすことができる。なお、ロール角βは水平器を用いて0に設定するものとする。ビデオカメラ10のレンズの光軸方向の大凡の値を設定するということは、上述のピッチ角(α)、ヨー角(γ)を暫定的に求めることである。   As shown in FIG. 3B, the rotation angle is an angle formed by the traveling direction of the road and the optical axis of the lens. When the optical axis of the lens is parallel to the traveling direction of the road, the rotation angle is 0 degree, and the direction in which the optical axis of the lens faces left is defined as a positive rotation angle. In this case, the rotation angle can be expressed by the above-mentioned yaw angle (γ). The roll angle β is set to 0 using a leveling device. Setting approximate values in the optical axis direction of the lens of the video camera 10 is to tentatively obtain the pitch angle (α) and yaw angle (γ) described above.

図4はビデオカメラ10のレンズの光軸方向の初期設定の例を示す説明図である。光軸方向の初期設定は、ビデオカメラ10を設置した際に、レンズの光軸方向(俯角と回転角)の大凡の値を設定するものである。これにより、俯角及び回転角を予め定めておく。光軸方向の大凡の設定方法としては、例えば、計測範囲の左右端(例えば、道路の端)の境界位置(E1、E2、E3、E4)を撮像画像上で設定することで2つの境界線を決定する。なお、この作業は人手により容易に行うことができる。そして、2つの境界線の交点E0により、俯角及び回転角を算出し、撮像画像上の座標と実際の道路上の位置とを合わせておく。   FIG. 4 is an explanatory diagram showing an example of initial setting of the lens of the video camera 10 in the optical axis direction. The initial setting in the optical axis direction is to set approximate values in the optical axis direction (the depression angle and the rotation angle) of the lens when the video camera 10 is installed. Thus, the depression angle and the rotation angle are determined in advance. As an approximate setting method in the optical axis direction, for example, two boundary lines are set by setting the boundary positions (E1, E2, E3, E4) of the left and right ends (for example, the end of the road) of the measurement range on the captured image. To decide. This operation can be easily performed manually. Then, the depression angle and the rotation angle are calculated from the intersection E0 of the two boundary lines, and the coordinates on the captured image are matched with the actual position on the road.

ビデオカメラ10の撮像パラメータを以下のとおりとする。すなわち、ビデオカメラの設置高さをH、撮像面の横サイズをSH、縦サイズをSV、撮像面の横解像度(画素数)をRH、縦解像度(ライン数)をRV、レンズの焦点距離をFとする。   The imaging parameters of the video camera 10 are as follows. That is, the installation height of the video camera is H, the horizontal size of the imaging surface is SH, the vertical size is SV, the horizontal resolution (number of pixels) of the imaging surface is RH, the vertical resolution (number of lines) is RV, and the focal length of the lens is F.

図4に示すように、撮像画像上の点E1〜E4の座標をそれぞれ(x1、y1)、(x2、y2)、(x3、y3)、(x4、y4)とする。点E1、E2を結ぶ仮想直線E1E2と、点E3、E4を結ぶ仮想直線E3E4との交点をE0とする。仮想直線E1E2は式(4)で表わすことができ、仮想直線E3E4は式(5)で表わすことができる。   As shown in FIG. 4, the coordinates of the points E1 to E4 on the captured image are (x1, y1), (x2, y2), (x3, y3), and (x4, y4), respectively. Let E0 be the intersection of a virtual straight line E1E2 connecting points E1 and E2 and a virtual straight line E3E4 connecting points E3 and E4. The virtual straight line E1E2 can be expressed by Expression (4), and the virtual straight line E3E4 can be expressed by Expression (5).

Figure 0005062091
Figure 0005062091

また、交点E0の座標を(x0、y0)とすると、交点E0は、式(6)により求めることができる。撮像面上での交点E1の座標(s0、t0)は、式(7)で求めることができ、俯角α及び回転角γは、式(8)で算出することができる。式(8)で算出した俯角及び回転角は、大凡の値であり、光軸方向特定部70で求める前の暫定的な既知の値である。   Further, when the coordinates of the intersection point E0 are (x0, y0), the intersection point E0 can be obtained by Expression (6). The coordinates (s0, t0) of the intersection point E1 on the imaging surface can be obtained by Expression (7), and the depression angle α and the rotation angle γ can be calculated by Expression (8). The depression angle and the rotation angle calculated by Expression (8) are approximate values, and are provisional known values before being obtained by the optical axis direction identification unit 70.

画像入力部11は、取得した映像信号をA/D変換部12へ出力する。   The image input unit 11 outputs the acquired video signal to the A / D conversion unit 12.

A/D変換部12は、入力された映像信号をデジタル信号に変換し、変換したデジタル信号を画像データとして画像メモリ13へ記憶する。画像入力部11を介してビデオカメラ10から入力された撮像画像は、ビデオカメラ10のフレームレート(撮像時点の間隔、例えば、1秒間に30フレーム)と同期して、1フレーム単位(例えば、240×320画素)の画像データとして画像メモリ13に記憶される。   The A / D converter 12 converts the input video signal into a digital signal, and stores the converted digital signal in the image memory 13 as image data. The captured image input from the video camera 10 via the image input unit 11 is synchronized with the frame rate of the video camera 10 (interval at the time of imaging, for example, 30 frames per second) in units of one frame (for example, 240 Is stored in the image memory 13 as (× 320 pixels) image data.

図5は撮像画像の一例を示す説明図である。図5に示すように、ビデオカメラ10を所定の撮像条件で道路付近に設置することで、所要の道路を走行する車両を撮像することができる。なお、ビデオカメラ10を設置する場合、レンズの光軸方向(例えば、俯角及び回転角など)は、大凡に設定されたものであり、後述のとおり、レンズの光軸方向は、光軸方向特定部70で自動的に精度良く特定(設定)される。また、図5では、撮像画像の大きさは240×320画素であるが、撮像画像の大きさはこれに限定されるものではない。   FIG. 5 is an explanatory diagram illustrating an example of a captured image. As shown in FIG. 5, by installing the video camera 10 in the vicinity of the road under predetermined imaging conditions, it is possible to image a vehicle traveling on the required road. When the video camera 10 is installed, the optical axis direction of the lens (for example, the depression angle and the rotation angle) is generally set, and the optical axis direction of the lens is specified as the optical axis direction as described later. The part 70 is automatically specified (set) with high accuracy. In FIG. 5, the size of the captured image is 240 × 320 pixels, but the size of the captured image is not limited to this.

通信部14は、狭域通信機能、UHF帯若しくはVHF帯などの無線LAN等の中域通信機能、及び携帯電話、PHS、多重FM放送若しくはインターネット通信などの広域通信機能を備える。通信部14は、ビデオカメラ10の撮像領域内又はその付近に存在する車両から所定の車両情報(例えば、車両の位置情報、車速情報、車種情報、ワイパー及びヘッドライト等の車灯の動作状況を示す情報など)を受信する。また、通信部14は、車両を識別した結果得られた識別情報を付近に存在する車両へ送信する。また、通信部14は、交通管制センタ等に設置されたサーバ装置、他の車両識別装置との間で所定の情報の送受信を行う。   The communication unit 14 includes a narrow-area communication function, a mid-range communication function such as a wireless LAN such as a UHF band or a VHF band, and a wide-area communication function such as a mobile phone, PHS, multiple FM broadcasting, or Internet communication. The communication unit 14 obtains predetermined vehicle information (for example, vehicle position information, vehicle speed information, vehicle type information, operation statuses of vehicle lights such as wipers and headlights) from a vehicle existing in or near the imaging region of the video camera 10. Information). Moreover, the communication part 14 transmits the identification information obtained as a result of identifying a vehicle to the vehicle which exists in the vicinity. Moreover, the communication part 14 transmits / receives predetermined information between the server apparatus installed in the traffic control center etc., and another vehicle identification apparatus.

記憶部15は、制御部20の制御により、車両識別装置100の処理により得られたデータ、通信部14を介して受信したデータなどを記憶する。   The storage unit 15 stores data obtained by processing of the vehicle identification device 100, data received via the communication unit 14, and the like under the control of the control unit 20.

部分画像特定部30は、撮像画像上で所要の大きさの部分画像を特定し、特定した部分画像を撮像画像上で走査する。部分画像は、後述する特徴量を抽出するための検出範囲を画定する。   The partial image specifying unit 30 specifies a partial image having a required size on the captured image, and scans the specified partial image on the captured image. The partial image defines a detection range for extracting a feature amount described later.

図6は検出範囲の一例を示す説明図である。図6に示すように、検出範囲の大きさは、例えば、24×32画素である。検出範囲を撮像画像上で走査する場合、図6に示すように1回の走査で水平方向に16画素だけ検出範囲を移動させることができる。   FIG. 6 is an explanatory diagram showing an example of a detection range. As shown in FIG. 6, the size of the detection range is, for example, 24 × 32 pixels. When the detection range is scanned on the captured image, the detection range can be moved by 16 pixels in the horizontal direction in one scan as shown in FIG.

特徴量抽出部40は、検出範囲の特徴量を抽出する。特徴量は、HOG(Histograms of Oriented Gradients)特徴を用いることができ、検出範囲の輝度の勾配強度を勾配方向毎にヒストグラム化した特徴ベクトルである。なお、特徴量は、HOG特徴に限定されるものではなく、エッジ検出により抽出してもよい。   The feature quantity extraction unit 40 extracts feature quantities in the detection range. The feature quantity can be a HOG (Histograms of Oriented Gradients) feature, and is a feature vector in which the gradient intensity of the luminance in the detection range is histogrammed for each gradient direction. Note that the feature amount is not limited to the HOG feature, and may be extracted by edge detection.

以下、特徴量としての特徴ベクトルの算出方法について説明する。図7は局所領域の一例を示す説明図である。局所領域(ブロック)は、24×32画素の検出範囲から一部が重複するように抽出され、例えば、16×16画素の大きさを有する。従って、検出範囲から6つの局所領域を抽出することができる。また、局所領域は、4個のセル(8×8画素の領域)で構成されている。   Hereinafter, a method for calculating a feature vector as a feature amount will be described. FIG. 7 is an explanatory diagram showing an example of the local region. The local area (block) is extracted so as to partially overlap from the detection range of 24 × 32 pixels, and has a size of 16 × 16 pixels, for example. Accordingly, six local regions can be extracted from the detection range. The local area is composed of four cells (area of 8 × 8 pixels).

図8は輝度の勾配強度と勾配方向の一例を示す説明図である。セル内の画素の位置を(x、y)で表わす。画素(x、y)における輝度の勾配強度をm(x、y)、勾配方向をθ(x、y)とする。勾配強度m(x、y)、勾配方向θ(x、y)は、式(9)〜式(11)で求めることができる。ここで、fx(x、y)は横方向(x方向)の輝度勾配であり、fy(x、y)は縦方向(y方向)の輝度勾配であり、式(3)以外にも、例えば、Sobelフィルタにより求めることができる。また、L(x、y)は、画素(x、y)の輝度である。   FIG. 8 is an explanatory view showing an example of the gradient intensity of the luminance and the gradient direction. The position of the pixel in the cell is represented by (x, y). It is assumed that the luminance gradient intensity at pixel (x, y) is m (x, y) and the gradient direction is θ (x, y). The gradient strength m (x, y) and the gradient direction θ (x, y) can be obtained from Equations (9) to (11). Here, fx (x, y) is a luminance gradient in the horizontal direction (x direction), and fy (x, y) is a luminance gradient in the vertical direction (y direction). , And the Sobel filter. L (x, y) is the luminance of the pixel (x, y).

Figure 0005062091
Figure 0005062091

そして、セル毎に8方向のヒストグラムを作成する。図9は勾配方向の一例を示す説明図であり、図10は勾配強度のヒストグラムの一例を示す説明図である。図9に示すように、勾配方向を45°毎に分割し8方向の(j=1〜8)勾配方向を設定する。また、図10に示すように、算出した輝度の勾配強度を勾配方向毎に振り分けてヒストグラムを作成する。勾配強度を算出する場合に、局所領域(ブロック)の中心からの距離に反比例したσ=1.6のガウシアンフィルタを局所領域に対して施してエッジ強度を平滑化することもできる。   Then, a histogram in eight directions is created for each cell. FIG. 9 is an explanatory diagram illustrating an example of a gradient direction, and FIG. 10 is an explanatory diagram illustrating an example of a histogram of gradient strength. As shown in FIG. 9, the gradient direction is divided every 45 °, and eight (j = 1 to 8) gradient directions are set. Also, as shown in FIG. 10, a histogram is created by distributing the calculated intensity gradients for each gradient direction. When calculating the gradient strength, the edge strength can be smoothed by applying a Gaussian filter of σ = 1.6 inversely proportional to the distance from the center of the local region (block) to the local region.

セル毎に求めたヒストグラムを局所領域でまとめ、局所領域毎のヒストグラムの最大要素(勾配強度の最大値)で各ヒストグラムの要素(勾配強度)を除算して正規化する。これにより、1つの局所領域(ブロック)で抽出された32次元の特徴ベクトルの最大成分は1となる。1つの検出範囲で6つの局所領域があるので、式(12)に示すように、1つの検出範囲について192次元(32次元×6=192次元)の特徴ベクトルVを算出することができる。   Histograms obtained for each cell are collected in a local region, and normalized by dividing each histogram element (gradient strength) by the maximum element (gradient strength maximum) of the histogram for each local region. As a result, the maximum component of the 32-dimensional feature vector extracted in one local region (block) is 1. Since there are six local regions in one detection range, 192-dimensional (32 dimensions × 6 = 192 dimensions) feature vector V can be calculated for one detection range as shown in Expression (12).

Figure 0005062091
Figure 0005062091

隣接画素の勾配を検出範囲毎にヒストグラム化して正規化するため、道路を撮像して得られる撮像画像に対するノイズ又は明るさの変化、影の有無などの影響を受けにくく局所的な幾何学変化(平行移動、回転など)に対して頑健である。   Since the gradient of adjacent pixels is normalized by creating a histogram for each detection range, local geometrical changes that are less affected by noise or brightness changes and the presence or absence of shadows on captured images obtained by imaging roads ( Robust against translation, rotation, etc.).

識別部50は、特徴量抽出部40で抽出した特徴量(特徴ベクトル)を入力情報として、車両の有無を含む所定の識別判定を行い、識別結果(判定情報)を出力する。識別部50は、車両有無識別器を有する車両有無識別部51、車種識別器を有する車種識別部52、環境識別器を有する環境識別部53、環境別車両有無識別器を有する環境別車両有無識別部54などを備えている。   The identification unit 50 uses the feature quantity (feature vector) extracted by the feature quantity extraction unit 40 as input information, performs a predetermined identification determination including the presence or absence of a vehicle, and outputs an identification result (determination information). The discriminating unit 50 includes a vehicle presence / absence discriminating unit 51 having a vehicle presence / absence discriminator, a vehicle type discriminating unit 52 having a vehicle type discriminator, an environment discriminating unit 53 having an environment discriminator, and an environment-specific vehicle presence / absence discriminating unit having environment-specific vehicle presence / absence discriminators. Part 54 and the like.

図11は識別部50の各識別器の概要を示す説明図であり、図12は識別部50の各識別器の識別内容を示す説明図である。車両有無識別器は、特徴ベクトルVが入力された場合、識別情報Dc=Ac・Vを出力する。ここで、Acは車両有無識別器の識別器パラメータである。車両有無識別器は、入力された特徴ベクトルVに対して、識別器パラメータAcによる所定の演算を行って、識別結果(クラス)として車両あり又は車両なしを判定する。出力された識別情報Dcが、例えば、Dc>0であれば車両ありと判定され、Dc<0であれば車両なしと判定することができる。なお、判定条件は一例であって、これに限定されるものではない。   FIG. 11 is an explanatory diagram showing an outline of each classifier of the classifier 50, and FIG. 12 is an explanatory diagram showing identification contents of each classifier of the classifier 50. When the feature vector V is input, the vehicle presence / absence discriminator outputs identification information Dc = Ac · V. Here, Ac is a discriminator parameter of the vehicle presence / absence discriminator. The vehicle presence / absence discriminator performs a predetermined calculation based on the discriminator parameter Ac on the input feature vector V, and determines whether there is a vehicle or no vehicle as an identification result (class). For example, if the output identification information Dc is Dc> 0, it is determined that there is a vehicle, and if Dc <0, it can be determined that there is no vehicle. Note that the determination condition is an example, and the present invention is not limited to this.

また、車種識別器は、特徴ベクトルVが入力された場合、識別情報Dt=At・Vを出力する。ここで、Atは車種識別器の識別器パラメータである。車種識別器は、入力された特徴ベクトルVに対して、識別器パラメータAtによる所定の演算を行って、識別結果(クラス)として、例えば、普通車、大型車、二輪車又は歩行者などの別を判定する。出力された識別情報Dtが、例えば、0<Dt<Tt1であれば普通車と判定され、Tt1<Dt<Tt2であれば大型車と判定され、Tt2<Dt<Tt3であれば二輪車と判定され、Dt<0であれば歩行者と判定することができる。なお、判定条件は一例であって、これに限定されるものではない。   In addition, when the feature vector V is input, the vehicle type identifier outputs identification information Dt = At · V. Here, At is a discriminator parameter of the vehicle type discriminator. The vehicle type discriminator performs a predetermined calculation based on the discriminator parameter At on the input feature vector V, and distinguishes the classification result (class), for example, an ordinary vehicle, a large vehicle, a two-wheeled vehicle or a pedestrian. judge. For example, if the output identification information Dt is 0 <Dt <Tt1, it is determined as a normal vehicle, if Tt1 <Dt <Tt2, it is determined as a large vehicle, and if Tt2 <Dt <Tt3, it is determined as a motorcycle. If Dt <0, it can be determined as a pedestrian. Note that the determination condition is an example, and the present invention is not limited to this.

また、環境識別器は、特徴ベクトルVが入力された場合、識別情報Dw=Aw・Vを出力する。ここで、Awは環境識別器の識別器パラメータである。環境識別器は、入力された特徴ベクトルVに対して、識別器パラメータAwによる所定の演算を行って、識別結果(クラス)として、例えば、昼、夕方、晴れの夜間、雨天の夜間などの別を判定する。出力された識別情報Dwが、例えば、0<Dw<Tw1であれば昼と判定され、Tw1<Dw<Tw2であれば夕方と判定され、Tw2<Dw<Tw3であれば晴れの夜間と判定され、Tw3<Dw<Tw4であれば雨天の夜間と判定することができる。なお、判定条件は一例であって、これに限定されるものではない。   Further, when the feature vector V is input, the environment classifier outputs the identification information Dw = Aw · V. Here, Aw is a classifier parameter of the environment classifier. The environment classifier performs a predetermined calculation based on the classifier parameter Aw on the input feature vector V, and the classification result (class) is, for example, different from daytime, evening, sunny night, rainy night, etc. Determine. For example, if the output identification information Dw is 0 <Dw <Tw1, it is determined as daytime, if Tw1 <Dw <Tw2, it is determined as evening, and if Tw2 <Dw <Tw3, it is determined as a clear night. If Tw3 <Dw <Tw4, it can be determined that the rainy night. Note that the determination condition is an example, and the present invention is not limited to this.

また、環境別車両有無識別器は、特徴ベクトルVが入力された場合、識別情報Dcw=Acw・Vを出力する。ここで、Acwは環境別車両有無識別器の識別器パラメータである。環境別車両有無識別器は、入力された特徴ベクトルVに対して、識別器パラメータAcwによる所定の演算を行って、識別結果(クラス)として、例えば、昼車両あり、夕方車両あり、晴夜車両あり、雨夜車両あり、昼車両なし、夕方車両なし、晴夜車両なし、雨夜車両なしなどの別を判定する。なお、判定内容は、上述の各識別器と同様に識別情報Dcwの値に応じて区別することができる。   Further, when the feature vector V is input, the environment-specific vehicle presence / absence discriminator outputs identification information Dcw = Acw · V. Here, Acw is a discriminator parameter of the vehicle presence / absence discriminator by environment. The environment-specific vehicle presence / absence discriminator performs a predetermined calculation based on the discriminator parameter Acw on the input feature vector V, and the discrimination result (class) is, for example, a day vehicle, an evening vehicle, or a sunny vehicle. It is determined whether there is a rainy night vehicle, no daytime vehicle, no evening vehicle, no clear night vehicle, no rainy night vehicle. Note that the determination contents can be distinguished according to the value of the identification information Dcw, as with the above-described classifiers.

車両存在位置判定部60は、検出範囲(部分画像)において車両有無識別部51で車両が識別された場合(車両ありと判定された場合)、通信部14を介して車両から受信した車両情報に含まれる車両の位置情報に基づいて、該車両が検出範囲内に存在するか否かを判定する。すなわち、車両存在位置判定部60は、車両情報を受信したときに、その車両情報を送信した車両が、特徴ベクトルを抽出して車両ありと判定された検出範囲内の車両と同一車両であるか否かを判定する。なお、同一車両である否かの判定は、車両の位置検出精度に応じて所要の誤差範囲を含めることができる。すなわち、車両の位置情報に誤差範囲を加味した位置が検出範囲内にあるか否かで判定すればよい。また、車両有無識別部51に代えて環境別車両有無識別部54を用いることもできる。これにより、環境状況に関わらず車両を精度良く識別することができる。   When the vehicle presence / absence discriminating unit 51 identifies the vehicle in the detection range (partial image) (when it is determined that there is a vehicle), the vehicle presence position determination unit 60 uses the vehicle information received from the vehicle via the communication unit 14. Based on the position information of the included vehicle, it is determined whether or not the vehicle exists within the detection range. That is, when the vehicle presence position determination unit 60 receives the vehicle information, whether the vehicle that transmitted the vehicle information is the same vehicle as the vehicle in the detection range in which the feature vector is extracted and determined to be a vehicle. Determine whether or not. The determination of whether or not they are the same vehicle can include a required error range according to the position detection accuracy of the vehicle. That is, the determination may be made based on whether or not the position where the error range is added to the vehicle position information is within the detection range. Further, instead of the vehicle presence / absence identifying unit 51, an environment-specific vehicle presence / absence identifying unit 54 may be used. As a result, the vehicle can be accurately identified regardless of the environmental situation.

より具体的には、車両が検出範囲内に存在するか否かは、以下のように行うことができる。車両から受信した車両情報に含まれる車両の位置をPcarとし、特徴ベクトルを抽出して車両ありと判定された検出範囲の中心位置をPdetとする。ただし、Pcar及びPdetは、カメラ設置位置を基準とする実道路上での位置とする。この場合に、2つの位置の距離がある誤差(Err)範囲以下のとき、すなわち、|Pcar−Pdet|<Err、のとき、検出範囲内に車両が存在すると判定する。   More specifically, whether or not the vehicle exists within the detection range can be performed as follows. The position of the vehicle included in the vehicle information received from the vehicle is defined as Pcar, and the center position of the detection range in which the feature vector is extracted and determined to be present is defined as Pdet. However, Pcar and Pdet are positions on the actual road with the camera installation position as a reference. In this case, when the distance between the two positions is equal to or smaller than a certain error (Err) range, that is, when | Pcar−Pdet | <Err, it is determined that the vehicle exists within the detection range.

光軸方向特定部70は、ビデオカメラ10のレンズの予め定められた大凡の光軸方向を手作業による調整を行うことなく自動的かつ高精度に特定する。以下、光軸方向(俯角及び回転角)の特定方法について説明する。   The optical axis direction specifying unit 70 automatically and accurately specifies a predetermined approximate optical axis direction of the lens of the video camera 10 without performing manual adjustment. Hereinafter, a method for specifying the optical axis direction (the depression angle and the rotation angle) will be described.

図13は車両識別装置100の光軸方向特定モードの適用例を示す説明図である。図13に示すように、車両識別装置100は、撮像範囲を走行する車両C1を撮像するとともに、車両C1から車両C1の位置情報を含む車両情報を受信する。車両識別装置100は、撮像画像から抽出した特徴量(特徴ベクトル)を用いて識別部50(車両有無識別部51、又は環境別車両有無識別部54)で車両を識別する。   FIG. 13 is an explanatory diagram showing an application example of the optical axis direction identification mode of the vehicle identification device 100. As illustrated in FIG. 13, the vehicle identification device 100 captures an image of the vehicle C1 traveling in the imaging range, and receives vehicle information including position information of the vehicle C1 from the vehicle C1. The vehicle identification device 100 identifies a vehicle by the identification unit 50 (the vehicle presence / absence identification unit 51 or the environment-specific vehicle presence / absence identification unit 54) using the feature amount (feature vector) extracted from the captured image.

光軸方向特定部70は、車両存在位置判定部60で車両が検出範囲内に存在すると判定した場合、識別部50で識別された車両位置(例えば、車両を識別した検出範囲の中心位置)を撮像画像上でプロットし、同様にして、複数の撮像時点で識別した車両位置をプロットする。これにより、車両の走行軌跡を表わす仮想直線を撮像画像上で求めることができる。なお、同じ車両を追跡するには、例えば、テンプレートマチング方式等を用いることができる。また、車両を追跡する場合の位置としては、例えば、検出範囲の重心位置、車両の先頭位置などを用いることができる。   When the vehicle presence position determination unit 60 determines that the vehicle is within the detection range, the optical axis direction identification unit 70 determines the vehicle position identified by the identification unit 50 (for example, the center position of the detection range that identifies the vehicle). Plotting is performed on the captured image, and similarly, vehicle positions identified at a plurality of imaging time points are plotted. As a result, a virtual straight line representing the traveling locus of the vehicle can be obtained on the captured image. In order to track the same vehicle, for example, a template matching method or the like can be used. Further, as the position for tracking the vehicle, for example, the center of gravity position of the detection range, the head position of the vehicle, or the like can be used.

次に、同様の処理を複数の車両に対して行う。これにより、複数の車両それぞれの走行軌跡を表わす仮想直線を求めることができる。   Next, the same processing is performed for a plurality of vehicles. Thereby, the virtual straight line showing the traveling locus of each of a plurality of vehicles can be obtained.

図14はビデオカメラ10のレンズの光軸方向の特定方法の一例を示す説明図である。1つの車両の撮像画像上でプロットした位置をA、Bとし、それぞれの座標をA(xa、ya)、B(xb、yb)とする。また、他の車両の撮像画像上でプロットした位置をC、Dとし、それぞれの座標をC(xc、yc)、D(xd、yd)とする。なお、プロットした位置は、車両毎に2点に限定されるものではなく、さらに多数の位置をプロットすることができる。   FIG. 14 is an explanatory diagram showing an example of a method of specifying the optical axis direction of the lens of the video camera 10. The positions plotted on the captured image of one vehicle are A and B, and the respective coordinates are A (xa, ya) and B (xb, yb). Also, the positions plotted on the captured images of other vehicles are C and D, and the coordinates are C (xc, yc) and D (xd, yd). The plotted positions are not limited to two points for each vehicle, and a larger number of positions can be plotted.

次に、位置A、Bを通る車両の走行軌跡を直線近似することにより仮想直線ABを求める。同様にして、位置C、Dを通る車両の走行軌跡を直線近似することにより仮想直線CDを求める。仮想直線ABは式(13)で表わすことができ、仮想直線CDは式(14)で表わすことができる。   Next, a virtual straight line AB is obtained by linearly approximating the traveling locus of the vehicle passing through the positions A and B. Similarly, the virtual straight line CD is obtained by linearly approximating the traveling locus of the vehicle passing through the positions C and D. The virtual straight line AB can be expressed by Expression (13), and the virtual straight line CD can be expressed by Expression (14).

Figure 0005062091
Figure 0005062091

仮想直線AB及びCDの交点(無限遠点)をMとし、その座標をM(mx、my)とすると、無限遠点M(mx、my)は、式(15)により算出することができる。そして、撮像面上での無限遠点Mの座標(ms、mt)は、式(16)で求めることができ、俯角α′及び回転角γ′は、式(17)で算出することができる。   Assuming that the intersection (infinite point) of the virtual straight line AB and CD is M and the coordinates are M (mx, my), the infinite point M (mx, my) can be calculated by the equation (15). Then, the coordinates (ms, mt) of the infinity point M on the imaging surface can be obtained by Expression (16), and the depression angle α ′ and the rotation angle γ ′ can be calculated by Expression (17). .

なお、式(16)及び(17)において、ビデオカメラ10の撮像パラメータを以下のとおりとする。すなわち、ビデオカメラ10の撮像面の横サイズをSH、縦サイズをSV、撮像面の横解像度(画素数)をRH、縦解像度(ライン数)をRV、レンズの焦点距離をFとする。   In Expressions (16) and (17), the imaging parameters of the video camera 10 are as follows. That is, the horizontal size of the imaging surface of the video camera 10 is SH, the vertical size is SV, the horizontal resolution (number of pixels) of the imaging surface is RH, the vertical resolution (number of lines) is RV, and the focal length of the lens is F.

式(17)で算出した俯角及び回転角は、図4により求めた暫定的な既知の値を修正するものであり、自動的かつ高精度に求めることができる。   The depression angle and the rotation angle calculated by the equation (17) are for correcting the provisional known values obtained from FIG. 4 and can be obtained automatically and with high accuracy.

制御部20、部分画像特定部30、特徴量抽出部40、識別部50、車両存在位置判定部60、光軸方向特定部70などは、専用のハードウエア回路で実現することができる。また、各部の機能を定めたコンピュータプログラムをCPUで実行させることで実現することもできる。   The control unit 20, the partial image specifying unit 30, the feature amount extracting unit 40, the identifying unit 50, the vehicle presence position determining unit 60, the optical axis direction specifying unit 70, and the like can be realized by a dedicated hardware circuit. It can also be realized by causing a CPU to execute a computer program that defines the function of each unit.

従来のような時間差分結果の積分などを用いる方法にあっては、周囲の環境変化により車両以外のノイズ成分も車両存在範囲に含まれるので、正確な車両存在範囲を特定することが困難であった。本発明によれば、ビデオカメラ10で撮像した撮像画像により求めた車両位置と車両から取得した位置情報との両者を用いることにより、確実に車両が存在する範囲を決定することができる。   In the conventional method using integration of the time difference result, noise components other than the vehicle are included in the vehicle presence range due to changes in the surrounding environment, and it is difficult to specify an accurate vehicle presence range. It was. According to the present invention, by using both the vehicle position obtained from the captured image captured by the video camera 10 and the position information acquired from the vehicle, it is possible to reliably determine the range in which the vehicle exists.

図15は車両識別装置100の情報提供モードの適用例を示す説明図である。図15に示すように、車両識別装置100を交差点付近に設置し、所要の撮像範囲をビデオカメラで撮像する。車両識別装置100は、撮像範囲が見通し外となる車両C2、C3などに対して、見通し外の車両又は見通し外の歩行者などの識別を行い、識別結果に基づいて情報提供を行う。これにより、車両の運転者から死角となる地点の車両や歩行者の情報を提供することができ、交通事故を未然に防止することができる。   FIG. 15 is an explanatory diagram illustrating an application example of the information providing mode of the vehicle identification device 100. As shown in FIG. 15, the vehicle identification device 100 is installed in the vicinity of an intersection, and a required imaging range is imaged with a video camera. The vehicle identification device 100 identifies an out-of-sight vehicle or an out-of-sight pedestrian with respect to the vehicles C2, C3 and the like whose imaging range is out of sight, and provides information based on the identification result. Thereby, it is possible to provide information on a vehicle or a pedestrian at a spot that becomes a blind spot from the driver of the vehicle, and it is possible to prevent a traffic accident.

次に車両識別装置100の動作について説明する。図16は光軸方向特定の処理手順を示すフローチャートである。制御部20は、撮像画像を取得し(S11)、部分画像としての検出範囲を特定した上で走査する(S12)。制御部20は、検出範囲の特徴量としての特徴ベクトルを算出し(S13)、算出した特徴ベクトルに対して識別器パラメータによる演算を施して識別処理(例えば、車両の有無の識別)を行う(S14)。なお、この場合、識別器としては、車両有無識別器又は環境別車両有無識別器を用いることができる。   Next, the operation of the vehicle identification device 100 will be described. FIG. 16 is a flowchart showing a processing procedure for specifying the optical axis direction. The control unit 20 acquires a captured image (S11), scans after specifying a detection range as a partial image (S12). The control unit 20 calculates a feature vector as a feature amount of the detection range (S13), and performs an identification process (for example, identification of the presence / absence of a vehicle) by performing an operation based on the classifier parameter on the calculated feature vector ( S14). In this case, a vehicle presence / absence discriminator or an environment-specific vehicle presence / absence discriminator can be used as the discriminator.

制御部20は、車両の有無を判定し(S15)、車両ありの場合(S15でYES)、車両の位置情報を含む車両情報を受信したか否かを判定する(S16)。なお、車両情報は、位置情報のみでもよい。車両情報を受信した場合(S16でYES)、制御部20は、受信した位置情報に基づいて車両位置が検出範囲内にあるか否かを判定する(S17)。   The control unit 20 determines whether or not there is a vehicle (S15). If there is a vehicle (YES in S15), the control unit 20 determines whether or not vehicle information including vehicle position information has been received (S16). The vehicle information may be only position information. When the vehicle information is received (YES in S16), the control unit 20 determines whether or not the vehicle position is within the detection range based on the received position information (S17).

車両位置が検出範囲内にある場合(S17でYES)、すなわち、車両情報を受信したときに、その車両情報を送信した車両が、特徴ベクトルを抽出して車両ありと判定された検出範囲内の車両と同一車両である場合、制御部20は、撮像画像上で車両位置をプロットする(S18)。   When the vehicle position is within the detection range (YES in S17), that is, when the vehicle information is received, the vehicle that has transmitted the vehicle information extracts the feature vector and is within the detection range determined to have a vehicle. When it is the same vehicle as the vehicle, the control unit 20 plots the vehicle position on the captured image (S18).

制御部20は、複数の撮像時点でのプロット位置により車両の軌跡を算出し(S19)、複数車両の軌跡により無限遠点を算出する(S20)。制御部20は、レンズの光軸方向を特定(俯角及び回転角を算出)し(S21)、処理を終了する。   The control unit 20 calculates a trajectory of the vehicle based on plot positions at a plurality of imaging points (S19), and calculates an infinity point based on the trajectories of the plurality of vehicles (S20). The control unit 20 specifies the optical axis direction of the lens (calculates the depression angle and the rotation angle) (S21), and ends the process.

また、車両なしの場合(S15でNO)、車両情報を受信していない場合(S16でNO)、あるいは、車両位置が検出範囲内でない場合(S17でNO)、制御部20は、ステップS11以降の処理を続ける。   When there is no vehicle (NO in S15), when vehicle information is not received (NO in S16), or when the vehicle position is not within the detection range (NO in S17), the control unit 20 performs step S11 and subsequent steps. Continue processing.

これにより、ビデオカメラ10の取付角度に関わる調整作業を手作業ではなく自動的に行うことができ、調整作業に要する車線規制なども不要になり、作業労力及び作業コストの低減を図ることができ、また、交通渋滞や交通事故の防止に繋がる。   As a result, adjustment work related to the mounting angle of the video camera 10 can be automatically performed instead of manual work, lane regulation required for the adjustment work becomes unnecessary, and work labor and work costs can be reduced. It also leads to prevention of traffic jams and traffic accidents.

ビデオカメラ10のレンズの光軸方向の初期値(暫定値)は、図4の例のように手作業で道路上の複数地点を撮像画像上で設定することにより求めることができる。しかし、光軸方向を求める方法は、これに限定されるものではなく、画像処理により求めることもできる。   The initial value (provisional value) in the optical axis direction of the lens of the video camera 10 can be obtained by manually setting a plurality of points on the road on the captured image as in the example of FIG. However, the method of obtaining the optical axis direction is not limited to this, and can be obtained by image processing.

図17は本発明に係る画像処理装置200の構成の一例を示すブロック図である。画像処理装置200は、必ずしも車両を識別するための装置でなくてもよく、他の所定の画像処理を行うものであればよい。   FIG. 17 is a block diagram showing an example of the configuration of the image processing apparatus 200 according to the present invention. The image processing device 200 does not necessarily have to be a device for identifying a vehicle, and may be any device that performs other predetermined image processing.

画像処理装置200は、画像入力部11、A/D変換部12、画像メモリ13、通信部14、記憶部15、装置全体を制御する制御部201、所定の画像処理を行う画像処理部202、移動体特定部203、光軸方向特定部204などを備える。また、画像入力部11には、ビデオカメラ10を接続してある。なお、ビデオカメラ10は、画像処理装置200とは別個の装置であってもよく、あるいは、両者が一体をなす構成であってもよい。また、車両識別装置100と同様の構成のものは同一符号を付して説明を省略する。   The image processing apparatus 200 includes an image input unit 11, an A / D conversion unit 12, an image memory 13, a communication unit 14, a storage unit 15, a control unit 201 that controls the entire apparatus, an image processing unit 202 that performs predetermined image processing, A moving body specifying unit 203, an optical axis direction specifying unit 204, and the like are provided. A video camera 10 is connected to the image input unit 11. Note that the video camera 10 may be a separate device from the image processing apparatus 200, or may be configured such that both are integrated. In addition, the same components as those of the vehicle identification device 100 are denoted by the same reference numerals and description thereof is omitted.

移動体特定部203は、撮像画像の特徴量を抽出し、抽出した特徴量を用いて撮像画像上の移動体(車両)の位置を算出する。特徴量は、例えば、エッジ検出により抽出してもよく、あるいは、HOG(Histograms of Oriented Gradients)特徴を用いることもできる。   The moving body specifying unit 203 extracts the feature amount of the captured image, and calculates the position of the moving body (vehicle) on the captured image using the extracted feature amount. The feature amount may be extracted by edge detection, for example, or a HOG (Histograms of Oriented Gradients) feature may be used.

光軸方向特定部204は、移動体特定部203で算出した車両位置を撮像画像上でプロットし、同様にして、複数の撮像時点で算出した車両位置をプロットする。これにより、車両の走行軌跡を表わす仮想直線を撮像画像上で求めることができる。なお、同じ車両を追跡するには、例えば、テンプレートマッチング方式等を用いることができる。また、車両を追跡する場合の位置としては、例えば、車両の先頭位置などを用いることができる。   The optical axis direction identification unit 204 plots the vehicle position calculated by the moving body identification unit 203 on the captured image, and similarly plots the vehicle position calculated at a plurality of imaging points. As a result, a virtual straight line representing the traveling locus of the vehicle can be obtained on the captured image. In order to track the same vehicle, for example, a template matching method or the like can be used. In addition, as the position for tracking the vehicle, for example, the head position of the vehicle can be used.

光軸方向特定部204は、同様の処理を複数の車両に対して行う。これにより、複数の車両それぞれの走行軌跡を表わす仮想直線を求めることができる。光軸方向特定部204は、複数の仮想直線の交点(無限遠点)及びビデオカメラ10の撮像パラメータ(例えば、撮像面の大きさ及び解像度、レンズの焦点距離など)を用いて、ビデオカメラ10のレンズの光軸方向(光軸の俯角及び回転角)を特定する。   The optical axis direction identification unit 204 performs the same process on a plurality of vehicles. Thereby, the virtual straight line showing the traveling locus of each of a plurality of vehicles can be obtained. The optical axis direction specifying unit 204 uses the intersection (infinite point) of a plurality of virtual straight lines and the imaging parameters of the video camera 10 (for example, the size and resolution of the imaging surface, the focal length of the lens, etc.) to The optical axis direction of the lens (the depression angle and the rotation angle of the optical axis) is specified.

以上説明したように、本発明の画像処理装置200によれば、ビデオカメラ10の取付角度に関わる調整作業を手作業ではなく自動的に行うことができ、調整作業に要する車線規制なども不要になり、作業労力及び作業コストの低減を図ることができ、また、交通渋滞や交通事故の防止に繋がる。   As described above, according to the image processing apparatus 200 of the present invention, the adjustment work related to the mounting angle of the video camera 10 can be automatically performed instead of the manual work, and the lane regulation required for the adjustment work is unnecessary. Therefore, it is possible to reduce work labor and work cost, and to prevent traffic congestion and traffic accidents.

また、本発明の車両識別装置100によれば、ビデオカメラ10で撮像した撮像画像により求めた車両位置と車両から取得した位置情報との両者を用いることにより、確実に車両が存在する範囲を決定することができる。このため、レンズの光軸方向(俯角及び回転角)を高精度かつ自動的に求めることができる。また、ビデオカメラ10の取付角度に関わる調整作業を手作業ではなく自動的に行うことができ、調整作業に要する車線規制なども不要になり、作業労力及び作業コストの低減を図ることができ、また、交通渋滞や交通事故の防止に繋がる。   In addition, according to the vehicle identification device 100 of the present invention, the range in which the vehicle exists is reliably determined by using both the vehicle position obtained from the captured image captured by the video camera 10 and the position information acquired from the vehicle. can do. For this reason, the optical axis direction (the depression angle and the rotation angle) of the lens can be automatically obtained with high accuracy. In addition, adjustment work related to the mounting angle of the video camera 10 can be automatically performed instead of manual work, lane regulation required for the adjustment work becomes unnecessary, and work labor and work cost can be reduced, It also helps prevent traffic jams and traffic accidents.

上述の実施の形態では、車両の走行軌跡を直線近似して求めた仮想直線の交点により、ビデオカメラ10のレンズの光軸の俯角及び回転角を求める構成であったが、これに限定されるものではない。例えば、ビデオカメラの焦点距離や撮像面の画素の間隔などのビデオカメラの内部パラメータ、ビデオカメラの位置と姿勢により決定される外部パラメータ及びこれら内部パラメータと外部パラメータとを組み合わせたパラメータ等を構成要素とする透視投影行列を用いることもできる。この場合、6個以上の道路面上の位置と撮像画像上の位置との組み合わせにより、レンズの光軸の俯角及び回転角を算出することができる。   In the embodiment described above, the depression angle and the rotation angle of the optical axis of the lens of the video camera 10 are obtained from the intersection of the virtual straight lines obtained by linearly approximating the traveling locus of the vehicle. However, the present invention is not limited to this. It is not a thing. For example, the internal parameters of the video camera such as the focal length of the video camera and the pixel spacing on the imaging surface, external parameters determined by the position and orientation of the video camera, and parameters that combine these internal parameters and external parameters, etc. A perspective projection matrix can be used. In this case, the depression angle and rotation angle of the optical axis of the lens can be calculated by a combination of six or more positions on the road surface and positions on the captured image.

上述の実施の形態において、複数の車両の走行軌跡や車両の存在範囲により、道路の車線数や車線位置などを検出することもできる。すなわち、車線境界は各車線における走行軌跡(車両の通過経路)間の中心位置として求めることができる。また、車両の存在分布が少ない範囲において、追跡方向に沿った白線を検出することにより、車線位置を検出することもできる。   In the above-described embodiment, the number of lanes, lane positions, and the like on the road can also be detected based on the traveling trajectories of a plurality of vehicles and the vehicle existence ranges. That is, the lane boundary can be obtained as the center position between the travel tracks (passage paths of the vehicle) in each lane. Further, the lane position can be detected by detecting a white line along the tracking direction in a range where the vehicle distribution is small.

以上に開示された実施の形態及び実施例は、全ての点で例示であって制限的なものではないと考慮されるべきである。本発明の範囲は、以上の実施の形態及び実施例ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内での全ての修正や変形を含むものと意図される。   The embodiments and examples disclosed above should be considered as illustrative in all points and not restrictive. The scope of the present invention is shown not by the above embodiments and examples but by the scope of claims, and is intended to include all modifications and variations within the meaning and scope equivalent to the scope of claims. .

本発明に係る移動体識別装置である車両識別装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the vehicle identification device which is a moving body identification device which concerns on this invention. 道路座標系を示す説明図である。It is explanatory drawing which shows a road coordinate system. ビデオカメラの取付状態を示す説明図である。It is explanatory drawing which shows the attachment state of a video camera. ビデオカメラのレンズの光軸方向の初期設定の例を示す説明図である。It is explanatory drawing which shows the example of the initial setting of the optical axis direction of the lens of a video camera. 撮像画像の一例を示す説明図である。It is explanatory drawing which shows an example of a captured image. 検出範囲の一例を示す説明図である。It is explanatory drawing which shows an example of a detection range. 局所領域の一例を示す説明図である。It is explanatory drawing which shows an example of a local area | region. 輝度の勾配強度と勾配方向の一例を示す説明図である。It is explanatory drawing which shows an example of the gradient intensity | strength of a brightness | luminance, and a gradient direction. 勾配方向の一例を示す説明図である。It is explanatory drawing which shows an example of a gradient direction. 勾配強度のヒストグラムの一例を示す説明図である。It is explanatory drawing which shows an example of the histogram of gradient intensity | strength. 識別部の各識別器の概要を示す説明図である。It is explanatory drawing which shows the outline | summary of each discriminator of an identification part. 識別部の各識別器の識別内容を示す説明図である。It is explanatory drawing which shows the identification content of each discriminator of an identification part. 車両識別装置の光軸方向特定モードの適用例を示す説明図である。It is explanatory drawing which shows the example of application of the optical axis direction specific mode of a vehicle identification device. ビデオカメラのレンズの光軸方向の特定方法の一例を示す説明図である。It is explanatory drawing which shows an example of the identification method of the optical axis direction of the lens of a video camera. 車両識別装置の情報提供モードの適用例を示す説明図である。It is explanatory drawing which shows the example of application of the information provision mode of a vehicle identification device. 光軸方向特定の処理手順を示すフローチャートである。It is a flowchart which shows the optical axis direction specific process sequence. 本発明に係る画像処理装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the image processing apparatus which concerns on this invention.

符号の説明Explanation of symbols

10 ビデオカメラ
11 画像入力部
12 A/D変換部
13 画像メモリ
14 通信部
15 記憶部
20 制御部
30 部分画像特定部
40 特徴量抽出部
50 識別部
51 車両有無識別部
52 車種識別部
53 環境識別部
54 環境別車両有無識別部
60 車両存在位置判定部
70 光軸方向特定部
DESCRIPTION OF SYMBOLS 10 Video camera 11 Image input part 12 A / D conversion part 13 Image memory 14 Communication part 15 Storage part 20 Control part 30 Partial image specific part 40 Feature-value extraction part 50 Identification part 51 Vehicle presence / absence identification part 52 Vehicle type identification part 53 Environment identification 54 Vehicle presence / absence identifying unit according to environment 60 Vehicle presence position determining unit 70 Optical axis direction specifying unit

Claims (4)

道路を含む領域を撮像装置で撮像して得られた撮像画像から特徴量を抽出し、抽出した特徴量を用いて移動体を識別する移動体識別装置であって、
移動体の位置情報を取得する位置情報取得手段と、
撮像画像上の部分画像を特定する部分画像特定手段と、
該部分画像特定手段で特定した部分画像の特徴量を抽出する特徴量抽出手段と、
該特徴量抽出手段で抽出した特徴量を用いて移動体を識別する識別手段と、
該識別手段で移動体を識別した場合、前記位置情報取得手段で取得した位置情報、前記撮像装置のレンズの既知の光軸方向及び前記部分画像特定手段で特定した部分画像の撮像画像上の位置に基づいて、前記位置情報取得手段で位置情報を取得した移動体が前記部分画像に撮像されているか否かを判定する判定手段と、
該判定手段で前記移動体が撮像されていると判定した場合、該移動体の撮像画像上の位置を算出する位置算出手段と、
該位置算出手段で算出した複数の撮像時点での1又は複数の移動体の各位置及び前記撮像装置の撮像パラメータを用いて、前記光軸方向を修正すべく光軸方向を特定する光軸方向特定手段と
を備えることを特徴とする移動体識別装置。
A mobile object identification device that extracts a feature amount from a captured image obtained by imaging an area including a road with an imaging device, and identifies the mobile object using the extracted feature amount,
Position information acquisition means for acquiring position information of the moving body;
A partial image specifying means for specifying a partial image on the captured image;
Feature quantity extraction means for extracting the feature quantity of the partial image identified by the partial image identification means;
Identification means for identifying a moving object using the feature amount extracted by the feature amount extraction means;
When the moving unit is identified by the identifying unit, the position information acquired by the position information acquiring unit, the known optical axis direction of the lens of the imaging device, and the position on the captured image of the partial image specified by the partial image specifying unit Determination means for determining whether or not the moving body that has acquired the position information by the position information acquisition means is captured in the partial image,
A position calculating unit that calculates a position of the moving body on a captured image when the determining unit determines that the moving body is captured;
An optical axis direction that specifies the optical axis direction to correct the optical axis direction by using each position of one or a plurality of moving bodies at a plurality of imaging time points calculated by the position calculation means and imaging parameters of the imaging device A moving body identification device comprising: a specifying unit.
前記特徴量抽出手段で抽出した特徴量を用いて天候又は昼夜の別を含む環境状況を識別する環境識別手段を備え、
前記識別手段は、
前記環境識別手段で識別した環境状況及び前記特徴量を用いて移動体を識別するように構成してあることを特徴とする請求項1に記載の移動体識別装置。
Environment identifying means for identifying an environmental situation including weather or day and night using the feature quantity extracted by the feature quantity extraction means,
The identification means includes
The mobile object identification device according to claim 1, wherein the mobile object identification device is configured to identify a mobile object using the environmental situation and the feature amount identified by the environment identification unit.
コンピュータを、道路を含む領域を撮像装置で撮像して得られた撮像画像から特徴量を抽出し、抽出した特徴量を用いて移動体を識別する手段として機能させるためのコンピュータプログラムであって、
コンピュータを、
撮像画像上の部分画像を特定する部分画像特定手段と、
特定した部分画像の特徴量を抽出する特徴量抽出手段と、
抽出した特徴量を用いて移動体を識別する識別手段と、
移動体を識別した場合、移動体の位置情報、前記撮像装置のレンズの既知の光軸方向及び特定した部分画像の撮像画像上の位置に基づいて、前記移動体が前記部分画像に撮像されているか否かを判定する判定手段と、
前記移動体が撮像されていると判定した場合、該移動体の撮像画像上の位置を算出する位置算出手段と、
算出した複数の撮像時点での1又は複数の移動体の各位置及び前記撮像装置の撮像パラメータを用いて、前記光軸方向を修正すべく光軸方向を特定する光軸方向特定手段として機能させることを特徴とするコンピュータプログラム。
A computer program for causing a computer to extract a feature amount from a captured image obtained by capturing an area including a road with an imaging device, and to function as a means for identifying a moving object using the extracted feature amount,
Computer
A partial image specifying means for specifying a partial image on the captured image;
Feature amount extraction means for extracting the feature amount of the identified partial image;
An identification means for identifying the moving object using the extracted feature amount;
When the moving body is identified, the moving body is captured in the partial image based on the position information of the moving body, the known optical axis direction of the lens of the imaging device, and the position of the identified partial image on the captured image. Determination means for determining whether or not,
If it is determined that the moving body is being imaged, position calculating means for calculating the position of the moving body on the captured image;
Using the calculated positions of one or a plurality of moving bodies at a plurality of imaging time points and the imaging parameters of the imaging device, the optical axis direction specifying means for specifying the optical axis direction to correct the optical axis direction is caused to function. A computer program characterized by the above.
道路を含む領域を撮像装置で撮像して得られた撮像画像から特徴量を抽出し、抽出した特徴量を用いて移動体を識別する移動体識別装置による光軸方向特定方法であって、
移動体の位置情報を取得し、
撮像画像上の部分画像を特定し、
特定した部分画像の特徴量を抽出し、
抽出した特徴量を用いて移動体を識別し、
移動体を識別した場合、取得した位置情報、前記撮像装置のレンズの既知の光軸方向及び特定した部分画像の撮像画像上の位置に基づいて、前記位置情報を取得した移動体が前記部分画像に撮像されているか否かを判定し、
前記移動体が撮像されていると判定した場合、該移動体の撮像画像上の位置を算出し、
算出した複数の撮像時点での1又は複数の移動体の各位置及び前記撮像装置の撮像パラメータを用いて、前記光軸方向を修正すべく光軸方向を特定することを特徴とする移動体識別装置による光軸方向特定方法。
An optical axis direction specifying method by a mobile object identification device that extracts a feature amount from a captured image obtained by imaging an area including a road with an imaging device and identifies a mobile object using the extracted feature amount,
Get the location information of the moving object,
Identify the partial image on the captured image,
Extract the feature quantity of the identified partial image,
Identify moving objects using the extracted features,
When the moving object is identified, the moving object that has acquired the position information is based on the acquired position information, the known optical axis direction of the lens of the imaging device, and the position of the specified partial image on the captured image. To determine whether or not
When it is determined that the moving body is imaged, the position of the moving body on the captured image is calculated,
A moving body identification characterized by specifying an optical axis direction to correct the optical axis direction by using the calculated positions of one or a plurality of moving bodies at a plurality of imaging time points and imaging parameters of the imaging apparatus. An optical axis direction specifying method by a device.
JP2008201012A 2008-08-04 2008-08-04 Moving object identification device, computer program, and optical axis direction specifying method Expired - Fee Related JP5062091B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008201012A JP5062091B2 (en) 2008-08-04 2008-08-04 Moving object identification device, computer program, and optical axis direction specifying method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008201012A JP5062091B2 (en) 2008-08-04 2008-08-04 Moving object identification device, computer program, and optical axis direction specifying method

Publications (2)

Publication Number Publication Date
JP2010041322A JP2010041322A (en) 2010-02-18
JP5062091B2 true JP5062091B2 (en) 2012-10-31

Family

ID=42013405

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008201012A Expired - Fee Related JP5062091B2 (en) 2008-08-04 2008-08-04 Moving object identification device, computer program, and optical axis direction specifying method

Country Status (1)

Country Link
JP (1) JP5062091B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012042705A1 (en) * 2010-09-27 2012-04-05 パナソニック株式会社 Method of detecting moving object and moving object detecting device
JP5936527B2 (en) * 2012-12-10 2016-06-22 三菱電機株式会社 Image processing apparatus and image processing method
JP6619590B2 (en) * 2015-09-02 2019-12-11 株式会社Subaru Image processing device
JP6782895B2 (en) * 2017-03-09 2020-11-11 国立研究開発法人農業・食品産業技術総合研究機構 In-vehicle camera mounting direction parameter calculation device and mounting direction parameter calculation method
JP7203905B2 (en) * 2021-06-18 2023-01-13 本田技研工業株式会社 CONTROL DEVICE, MOVING OBJECT, CONTROL METHOD AND PROGRAM
KR102646288B1 (en) * 2021-09-14 2024-03-12 (주) 하나텍시스템 Day and night driving detection system using cosssntrol camera

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0417099A (en) * 1990-05-10 1992-01-21 Mitsubishi Electric Corp Traffic flow measuring picture processor
JP3897984B2 (en) * 2001-02-02 2007-03-28 三菱電機株式会社 Surveillance camera calibration method and road surveillance camera
JP2006017676A (en) * 2004-07-05 2006-01-19 Sumitomo Electric Ind Ltd Measuring system and method
JP2007128232A (en) * 2005-11-02 2007-05-24 Denso Corp Obstacle detection device
JP5105400B2 (en) * 2006-08-24 2012-12-26 コイト電工株式会社 Traffic measuring method and traffic measuring device

Also Published As

Publication number Publication date
JP2010041322A (en) 2010-02-18

Similar Documents

Publication Publication Date Title
JP4654163B2 (en) Vehicle surrounding environment recognition device and system
CN106485233B (en) Method and device for detecting travelable area and electronic equipment
EP3026651B1 (en) Vehicle monitoring device and vehicle monitoring method
JP4871909B2 (en) Object recognition apparatus and object recognition method
US8180561B2 (en) Vehicle-installation obstacle detection apparatus
US8670590B2 (en) Image processing device
JP4820221B2 (en) Car camera calibration device and program
JP6082802B2 (en) Object detection device
WO2015163078A1 (en) External-environment-recognizing apparatus
JP5223675B2 (en) Vehicle detection device, vehicle detection method, and vehicle detection program
JP5062091B2 (en) Moving object identification device, computer program, and optical axis direction specifying method
US20200074212A1 (en) Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium
JP5401257B2 (en) Far-infrared pedestrian detection device
JP5115390B2 (en) Mobile object identification device, computer program, and learning method of mobile object identification device
CN111145569A (en) Road monitoring and vehicle running control method and device and vehicle-road cooperative system
JP4770755B2 (en) Road sign recognition device
JP2007066003A (en) Stop-line detection device
JP2014106739A (en) In-vehicle image processing device
JP2018073275A (en) Image recognition device
JP2011033594A (en) Distance calculation device for vehicle
JP2007018451A (en) Road boundary line detecting device
JP6032141B2 (en) Travel road marking detection device and travel road marking detection method
US20200034641A1 (en) Method for classifying a traffic sign, or road sign, in an environment region of a motor vehicle, computational apparatus, driver assistance system and motor vehicle
WO2021006025A1 (en) Object identification device
KR20180081966A (en) Image correction method by vehicle recognition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110329

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120710

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120723

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150817

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees