JP2010039705A - Moving body identification device, computer program, and learning method for moving body identification device - Google Patents
Moving body identification device, computer program, and learning method for moving body identification device Download PDFInfo
- Publication number
- JP2010039705A JP2010039705A JP2008201011A JP2008201011A JP2010039705A JP 2010039705 A JP2010039705 A JP 2010039705A JP 2008201011 A JP2008201011 A JP 2008201011A JP 2008201011 A JP2008201011 A JP 2008201011A JP 2010039705 A JP2010039705 A JP 2010039705A
- Authority
- JP
- Japan
- Prior art keywords
- information
- identification
- unit
- vehicle
- moving body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、道路を含む領域を撮像して得られた撮像画像から特徴量を抽出し、抽出した特徴量を用いて移動体を識別する移動体識別装置、該移動体識別装置をコンピュータで実現するためのコンピュータプログラム及び移動体識別装置の学習方法に関する。 The present invention extracts a feature quantity from a captured image obtained by imaging a region including a road, identifies a mobile object using the extracted feature quantity, and realizes the mobile object identification apparatus with a computer The present invention relates to a computer program and a learning method for a mobile object identification device.
路側インフラ装置と車両(車載装置)とが有線又は無線による路車間通信にて情報を交換し、各装置が単独では実現できなかった機能を実現させるシステムが検討されている。特に、車両の運転者からは死角となる場所に存在する車両又は歩行者の情報をインフラ側より車両側に提供することで未然に交通事故を抑止する路車協調型安全運転支援システムの検討が進められている。 A system in which a roadside infrastructure device and a vehicle (on-vehicle device) exchange information by wired or wireless road-to-vehicle communication and each device realizes a function that cannot be realized independently has been studied. In particular, there is a study on a road-vehicle cooperative safe driving support system that suppresses traffic accidents by providing information on vehicles or pedestrians in a blind spot from the vehicle side to the vehicle side from the infrastructure side. It is being advanced.
このようなシステムを実現するための主要技術としては、例えば、車両の位置情報、車種情報(例えば、自動車、二輪車又は歩行者等)、車両の移動速度又は移動方向などの情報を検出するセンサが必要である。このようなセンサとしては、例えば、レーザを利用するもの、あるいは、ビデオカメラで撮像した画像を利用するものがあるが、情報を検出することができる範囲の広さ、製品寿命、コスト及び性能などのバランスを考慮すると画像処理方式が有力である。 As main technologies for realizing such a system, for example, there are sensors that detect information such as vehicle position information, vehicle type information (for example, automobiles, two-wheeled vehicles, pedestrians, etc.), vehicle movement speed or direction, and the like. is necessary. Examples of such sensors include those that use lasers or those that use images captured by a video camera. The range of information that can be detected, product life, cost, performance, etc. Considering this balance, the image processing method is effective.
しかし、画像処理方式のセンサ(画像センサ)の課題の1つとして、天候変化や道路周辺物の影響など様々な環境変化があり、これらすべてに対処した画像処理方式の実現は難しい。一方で、日照条件の変化や風により木々の揺れなど様々な外乱の影響を機械学習の過程に含めて学習し、これらの外乱を検出対象から除外する技術が開示されている(非特許文献1参照)。
非特許文献1の技術を適用すれば、環境変化などの起こりえる映像シーンのデータを予めすべて収集し、収集したデータを学習用データとして車両を識別する識別装置を学習させることは可能である。しかし、カメラを設置する地点が異なれば、道路状況や交通状況が変化し、また、同一地点であっても時間帯、曜日、天候など様々な環境変化要因が存在するため、起こりえる環境変化のデータをすべて収集するには、多大な労力及び費用を必要とする。このため、従来の方法はあまり実現的ではなく、適用範囲も限定的であり、車両などを識別する識別装置の学習のために必要な学習データを効率的に収集することが望まれていた。
If the technique of Non-Patent
本発明は、斯かる事情に鑑みてなされたものであり、車両などの移動体を高精度に識別することができるとともに学習データを効率的に収集することができる移動体識別装置、該移動体識別装置をコンピュータで実現するためのコンピュータプログラム及び移動体識別装置の学習方法を提供することを目的とする。 The present invention has been made in view of such circumstances, and can identify a moving body such as a vehicle with high accuracy and can efficiently collect learning data, and the moving body. It is an object of the present invention to provide a computer program for realizing an identification device by a computer and a learning method for a mobile object identification device.
第1発明に係る移動体識別装置は、道路を含む領域を撮像して得られた撮像画像から特徴量を抽出し、抽出した特徴量を用いて移動体を識別する移動体識別装置であって、移動体の位置情報を含む移動体情報を取得する移動体情報取得手段と、撮像画像上の部分画像を特定する部分画像特定手段と、該部分画像特定手段で特定した部分画像の特徴量を抽出する特徴量抽出手段と、該特徴量抽出手段で抽出した特徴量を用いて移動体を識別する識別手段と、該識別手段で移動体を識別した場合、前記移動体情報取得手段で取得した位置情報及び前記部分画像特定手段で特定した部分画像の撮像画像上の位置に基づいて、前記移動体情報取得手段で移動体情報を取得した移動体が前記部分画像に撮像されているか否かを判定する判定手段と、該判定手段で前記移動体が撮像されていると判定した場合、前記特徴量抽出手段で抽出した特徴量及び前記移動体情報取得手段で取得した移動体情報を用いて前記識別手段に識別に用いる情報を学習させる学習手段とを備えることを特徴とする。 A mobile object identification device according to a first aspect of the present invention is a mobile object identification device that extracts a feature amount from a captured image obtained by imaging an area including a road and identifies the mobile object using the extracted feature amount. Mobile body information acquisition means for acquiring mobile body information including position information of the mobile body, partial image specification means for specifying a partial image on the captured image, and feature amounts of the partial images specified by the partial image specification means Feature amount extracting means to be extracted; identification means for identifying a moving body using the feature amount extracted by the feature amount extracting means; and when the moving body is identified by the identifying means, acquired by the moving body information acquisition means Based on the position information and the position on the captured image of the partial image specified by the partial image specifying means, it is determined whether or not the mobile object whose moving body information is acquired by the moving body information acquisition means is captured in the partial image. Determination means for determining, and If it is determined that the moving body is imaged by the means, the identification unit uses the feature amount extracted by the feature amount extraction unit and the moving body information acquired by the mobile body information acquisition unit to use the information used for identification. And learning means for learning.
第2発明に係る移動体識別装置は、第1発明において、移動体の有無を判定するための移動体識別手段を備え、前記学習手段は、前記特徴量抽出手段で抽出した特徴量及び前記判定手段で判定した判定結果を用いて前記移動体識別手段に識別に用いる情報を学習させるように構成してあることを特徴とする。 According to a second aspect of the present invention, there is provided a moving body identification apparatus according to the first aspect, further comprising a moving body identification means for determining the presence or absence of a moving body, wherein the learning means includes the feature amount extracted by the feature amount extraction means and the determination. The mobile object identifying means is configured to learn information used for identification using the determination result determined by the means.
第3発明に係る移動体識別装置は、第1発明又は第2発明において、天候を含む環境状況を識別する環境識別手段を備え、前記移動体情報取得手段は、ワイパーの動作情報を含む移動体情報を取得するように構成してあり、前記学習手段は、前記特徴量抽出手段で抽出した特徴量及び前記移動体情報取得手段で取得した移動体情報を用いて前記環境識別手段に識別に用いる情報を学習させるように構成してあることを特徴とする。 According to a third aspect of the present invention, in the first or second aspect, the mobile unit identification device includes an environment identification unit that identifies an environmental situation including weather, and the mobile unit information acquisition unit includes a wiper operation information. Information is acquired, and the learning unit uses the feature amount extracted by the feature amount extraction unit and the moving body information acquired by the moving body information acquisition unit to be used for identification by the environment identification unit. It is configured to learn information.
第4発明に係る移動体識別装置は、第1発明又は第2発明において、昼夜の別を含む環境状況を識別する環境識別手段を備え、前記移動体情報取得手段は、車灯を含む移動体情報を取得するように構成してあり、前記学習手段は、前記特徴量抽出手段で抽出した特徴量及び前記移動体情報取得手段で取得した移動体情報を用いて前記環境識別手段に識別に用いる情報を学習させるように構成してあることを特徴とする。 According to a fourth aspect of the present invention, in the first or second aspect of the present invention, the mobile unit identification device further includes an environment identification unit that identifies environmental conditions including day and night, and the mobile unit information acquisition unit includes a vehicle light. Information is acquired, and the learning unit uses the feature amount extracted by the feature amount extraction unit and the moving body information acquired by the moving body information acquisition unit to be used for identification by the environment identification unit. It is configured to learn information.
第5発明に係る移動体識別装置は、第3発明又は第4発明において、異なる環境毎に移動体の有無を判定するための環境別移動体識別手段を備え、前記学習手段は、前記特徴量抽出手段で抽出した特徴量、前記判定手段で判定した判定結果及び前記移動体情報取得手段で取得した移動体情報を用いて前記環境別移動体識別手段に識別に用いる情報を学習させるように構成してあることを特徴とする。 According to a fifth aspect of the present invention, there is provided a mobile unit identification apparatus according to the third or fourth aspect, further comprising environment-specific mobile unit identification means for determining the presence or absence of a mobile unit for each different environment, wherein the learning unit includes the feature quantity. The environment-based mobile object identification means is configured to learn information used for identification using the feature amount extracted by the extraction means, the determination result determined by the determination means, and the mobile object information acquired by the mobile object information acquisition means. It is characterized by being.
第6発明に係る移動体識別装置は、第2発明乃至第5発明のいずれか1つにおいて、移動体の種類を判定するための種類識別手段を備え、前記移動体情報取得手段は、車種又は二輪車若しくは歩行者の別を含む移動体情報を取得するように構成してあり、前記学習手段は、前記特徴量抽出手段で抽出した特徴量及び前記移動体情報取得手段で取得した移動体情報を用いて前記種類識別手段に識別に用いる情報を学習させるように構成してあることを特徴とする。 According to a sixth aspect of the present invention, there is provided a mobile unit identification apparatus according to any one of the second to fifth aspects of the present invention, comprising a type identification unit for determining the type of the mobile unit, It is configured to acquire moving body information including whether the vehicle is a motorcycle or a pedestrian, and the learning means uses the feature amount extracted by the feature amount extraction means and the moving body information acquired by the moving body information acquisition means. The type identifying means is used to learn information used for identification.
第7発明に係る移動体識別装置は、第1発明乃至第6発明のいずれか1つにおいて、他の移動体識別装置から前記識別手段に識別に用いる情報を学習させるための学習データを取得する学習データ取得手段を備え、前記学習手段は、前記学習データ取得手段で取得した学習データを用いて前記識別手段に識別に用いる情報を学習させるように構成してあることを特徴とする。 According to a seventh aspect of the present invention, in any one of the first to sixth aspects, the mobile object identification device acquires learning data for causing the identification means to learn information used for identification from another mobile object identification device. Learning data acquisition means is provided, and the learning means is configured to cause the identification means to learn information used for identification using the learning data acquired by the learning data acquisition means.
第8発明に係る移動体識別装置は、第7発明において、他の移動体識別装置の撮像条件を取得する撮像条件取得手段と、該撮像条件取得手段で取得した撮像条件と自身の撮像条件との比較結果を用いて、前記学習データ取得手段で取得した学習データを用いて学習させるか否かを決定する決定手段とを備えることを特徴とする。 According to an eighth aspect of the present invention, in the seventh aspect, the mobile object identification device includes: an imaging condition acquisition unit that acquires an imaging condition of another mobile body identification device; an imaging condition acquired by the imaging condition acquisition unit; And determining means for determining whether or not learning is performed using the learning data acquired by the learning data acquiring means.
第9発明に係るコンピュータプログラムは、コンピュータを、道路を含む領域を撮像して得られた撮像画像から特徴量を抽出し、抽出した特徴量を用いて移動体を識別する手段として機能させるためのコンピュータプログラムであって、コンピュータを、撮像画像上の部分画像を特定する部分画像特定手段と、特定した部分画像の特徴量を抽出する特徴量抽出手段と、抽出した特徴量を用いて移動体を識別する識別手段と、移動体を識別した場合、移動体の位置情報及び特定した部分画像の撮像画像上の位置に基づいて、前記移動体が前記部分画像に撮像されているか否かを判定する判定手段と、前記移動体が撮像されていると判定した場合、抽出した特徴量及び前記移動体の移動体情報を用いて前記識別手段に識別に用いる情報を学習させる学習手段として機能させることを特徴とする。 A computer program according to a ninth aspect is a computer program for causing a computer to function as a means for extracting a feature amount from a captured image obtained by capturing an area including a road and identifying a moving object using the extracted feature amount. A computer program comprising: a computer, a partial image specifying unit that specifies a partial image on a captured image; a feature amount extracting unit that extracts a feature amount of the specified partial image; and a moving object using the extracted feature amount. When identifying the identifying means and the moving body, it is determined whether the moving body is imaged in the partial image based on the position information of the moving body and the position of the specified partial image on the captured image. When it is determined that the moving unit is picked up by the determining unit, the identifying unit is made to learn information used for identification using the extracted feature amount and the moving unit information of the moving unit. Characterized in that to function as learning means.
第10発明に係る移動体識別装置の学習方法は、道路を含む領域を撮像して得られた撮像画像から特徴量を抽出し、抽出した特徴量を用いて移動体を識別する識別手段を備えた移動体識別装置の学習方法であって、前記移動体識別装置は、移動体の位置情報を含む移動体情報を取得し、撮像画像上の部分画像を特定し、特定した部分画像の特徴量を抽出し、抽出した特徴量を用いて移動体を識別し、移動体を識別した場合、取得した位置情報及び特定した部分画像の撮像画像上の位置に基づいて、前記移動体情報を取得した移動体が前記部分画像に撮像されているか否かを判定し、前記移動体が撮像されていると判定した場合、抽出した特徴量及び取得した移動体情報を用いて前記識別手段に識別に用いる情報を学習させることを特徴とする。 According to a tenth aspect of the present invention, there is provided a learning method for a mobile object identification device including an identification unit that extracts a feature amount from a captured image obtained by imaging a region including a road and identifies the mobile object using the extracted feature amount. The mobile object identification device learning method, wherein the mobile object identification device acquires mobile object information including position information of a mobile object, specifies a partial image on a captured image, and features of the specified partial image When the moving body is identified using the extracted feature amount, the moving body information is acquired based on the acquired position information and the position on the captured image of the specified partial image. It is determined whether or not the moving body is captured in the partial image, and when it is determined that the moving body is captured, the extracted means and the acquired moving body information are used for identification in the identification unit. Characterized by learning information
第1発明、第9発明及び第10発明にあっては、撮像画像上の部分画像を特定し、特定した部分画像の特徴量を抽出する。部分画像は、例えば、24×32画素の検出範囲であって、検出範囲を撮像画像上で走査して検出範囲の特徴量を抽出する。また、特徴量は、例えば、HOG(Histograms of Oriented Gradients)特徴を用いることができ、検出範囲の輝度の勾配強度を勾配方向毎にヒストグラム化した特徴ベクトルである。なお、特徴量は、HOG特徴に限定されるものではなく、エッジ検出により抽出してもよい。抽出した特徴量を用いて移動体(例えば、車両)を識別した場合、移動体の位置情報と特定した部分画像(移動体を識別した際の特徴量を抽出した検出範囲)の撮像画像上の位置に基づいて、移動体情報(例えば、車両の位置情報以外に車速、車種に関する情報、ヘッドライト又はワイパー等の動作状態を示す情報など)を取得した移動体が部分画像(検出範囲)内にあるか否かを判定する。移動体が撮像されている(検出範囲内にある)と判定した場合、抽出した特徴量及び取得した移動体情報を用いて識別手段(識別器)に識別に用いる情報(例えば、識別器の識別パラメータ)を学習させる。 In the first invention, the ninth invention, and the tenth invention, the partial image on the captured image is specified, and the feature amount of the specified partial image is extracted. The partial image is, for example, a detection range of 24 × 32 pixels, and the detection range is scanned on the captured image to extract the feature amount of the detection range. The feature amount may be, for example, a HOG (Histograms of Oriented Gradients) feature, and is a feature vector in which the intensity gradient intensity of the detection range is histogrammed for each gradient direction. Note that the feature amount is not limited to the HOG feature, and may be extracted by edge detection. When a moving object (for example, a vehicle) is identified using the extracted feature value, the position information of the moving object and the specified partial image (detection range from which the feature value is extracted when the moving object is identified) on the captured image Based on the position, the moving body that has acquired the moving body information (for example, information on the vehicle speed, information on the vehicle type, information indicating the operating state of the headlight, wiper, etc. in addition to the vehicle position information) is included in the partial image (detection range). It is determined whether or not there is. When it is determined that the moving body is imaged (within the detection range), information used for identification (for example, identification of the classifier) using the extracted feature amount and the acquired moving body information Parameter).
識別器は、特徴量(特徴ベクトル)が入力された場合、入力された特徴量と識別器パラメータとにより識別結果(判定情報、例えば、車両あり、車両なし等)を出力するものである。移動体(車両)が検出範囲内にあると判定された場合、移動体識別装置は、その検出範囲に車両が存在する場合の特徴量(識別器の入力情報)を抽出することができるとともに、その検出範囲内で撮像された車両の車両情報(識別器の出力情報)を取得することができる。すなわち、識別器の入力情報として車両が存在する場合の特徴量と出力情報として車両ありの判定情報とを取得することができ、これらの情報を用いることで識別器パラメータを求めることができ、識別器を学習させることができる。また、求めた識別器パラメータと抽出した特徴量を学習データとして記憶することもできる。これにより、多くの映像シーンを効率的に収集することができ、識別器の学習を効率的に行うことができるとともに、識別器の識別精度を向上させることができる。 When a feature amount (feature vector) is input, the discriminator outputs a discrimination result (determination information, for example, there is a vehicle, no vehicle, etc.) based on the input feature amount and the discriminator parameter. When it is determined that the mobile body (vehicle) is within the detection range, the mobile body identification device can extract the feature amount (input information of the identifier) when the vehicle is present in the detection range, The vehicle information (output information of the discriminator) of the vehicle imaged within the detection range can be acquired. That is, it is possible to obtain the feature amount when the vehicle exists as the input information of the discriminator and the determination information with the vehicle as the output information, and the discriminator parameters can be obtained by using these information, Can learn the vessel. Further, the obtained discriminator parameter and the extracted feature amount can be stored as learning data. Thereby, many video scenes can be collected efficiently, learning of the discriminator can be performed efficiently, and discrimination accuracy of the discriminator can be improved.
第2発明にあっては、抽出した特徴量及び判定結果を用いて、移動体(車両)の有無を判定する移動体識別手段(車両有無識別器)に識別に用いる情報を学習させる。例えば、車両有無識別器の入力情報として車両が存在する場合の特徴量と判定結果(例えば、車両ありの判定情報)とを用いて車両有無識別器パラメータを求めることができ、車両有無識別器を学習させることができる。また、車両有無識別器の入力情報として車両が存在しない場合の特徴量と判定結果(例えば、車両なしの判定情報)とを用いて車両有無識別器パラメータを求めることができ、車両有無識別器を学習させることができる。これにより、多くの映像シーンを効率的に収集することができ、車両有無識別器の学習を効率的に行うことができるとともに、車両有無識別器の識別精度を向上させることができる。 In the second invention, using the extracted feature amount and the determination result, the mobile body identifying means (vehicle presence / absence classifier) that determines the presence / absence of the mobile body (vehicle) is caused to learn information used for identification. For example, a vehicle presence / absence discriminator parameter can be obtained using a feature amount and a determination result (for example, determination information with a vehicle) when there is a vehicle as input information of the vehicle presence / absence discriminator. You can learn. In addition, the vehicle presence / absence discriminator parameters can be obtained using the feature amount and the determination result (for example, determination information indicating no vehicle) when no vehicle is present as input information of the vehicle presence / absence discriminator. You can learn. Thereby, many video scenes can be efficiently collected, the vehicle presence / absence discriminator can be efficiently learned, and the identification accuracy of the vehicle presence / absence discriminator can be improved.
第3発明にあっては、抽出した特徴量及び取得した移動体情報を用いて、天候を含む環境状況を識別する環境識別手段(環境識別器)に識別に用いる情報を学習させる。環境状況は、例えば、晴天、雨天などである。環境識別器の入力情報としての特徴量と移動体情報(例えば、ワイパー動作ありの判定情報)とを用いて雨天用の環境識別器パラメータを求めることができ、環境識別器を学習させることができる。これにより、多くの映像シーンを効率的に収集することができ、環境識別器の学習を効率的に行うことができるとともに、環境識別器の識別精度を向上させることができる。 In the third aspect of the invention, information used for identification is learned by an environment identification unit (environment identifier) that identifies an environmental situation including weather using the extracted feature amount and the acquired moving body information. The environmental situation is, for example, fine weather, rainy weather, and the like. The environment classifier parameters for rainy weather can be obtained using the feature quantity as input information of the environment classifier and the moving body information (for example, determination information with wiper operation), and the environment classifier can be learned. . As a result, many video scenes can be efficiently collected, the environment identifier can be learned efficiently, and the identification accuracy of the environment identifier can be improved.
第4発明にあっては、抽出した特徴量及び取得した移動体情報を用いて、昼夜の別を含む環境状況を識別する環境識別手段(環境識別器)に識別に用いる情報を学習させる。環境状況は、例えば、昼、夕方、夜などである。環境識別器の入力情報としての特徴量と移動体情報(例えば、ヘッドライト動作ありの判定情報)とを用いて夜間用の環境識別器パラメータを求めることができ、環境識別器を学習させることができる。これにより、多くの映像シーンを効率的に収集することができ、環境識別器の学習を効率的に行うことができるとともに、環境識別器の識別精度を向上させることができる。 In the fourth invention, using the extracted feature quantity and the acquired moving body information, the environment identification means (environment identifier) for identifying the environmental situation including day and night is learned. The environmental situation is, for example, daytime, evening, night. It is possible to obtain an environment classifier parameter for night using feature values and moving body information (for example, determination information with headlight operation) as input information of the environment classifier, and to train the environment classifier. it can. As a result, many video scenes can be efficiently collected, the environment identifier can be learned efficiently, and the identification accuracy of the environment identifier can be improved.
第5発明にあっては、抽出した特徴量、判定結果(例えば、車両あり又は車両なしの判定情報)及び取得した移動体情報を用いて、異なる環境毎に移動体の有無を判定するための環境別移動体識別手段(環境別車両有無識別器)に識別に用いる情報を学習させる。例えば、環境別車両有無識別器の入力情報としての特徴量と、判定結果(例えば、車両ありの判定情報)及び移動体情報(例えば、ワイパー動作ありの判定情報)とを用いて雨天用車両有無識別器パラメータを求めることができ、環境別車両有無識別器を学習させることができる。また、環境別車両有無識別器の入力情報としての特徴量と、判定結果(例えば、車両ありの判定情報)移動体情報(例えば、ヘッドライト動作ありの判定情報)とを用いて夜間用車両有無識別器パラメータを求めることができ、環境別車両有無識別器を学習させることができる。これにより、多くの映像シーンを効率的に収集することができ、環境別車両有無識別器の学習を効率的に行うことができるとともに、環境別車両有無識別器の識別精度を向上させることができる。 In the fifth invention, using the extracted feature amount, the determination result (for example, determination information with or without a vehicle) and the acquired moving body information, the presence or absence of the moving body is determined for each different environment. Information used for identification is learned by the environment-specific moving body identification means (environment-specific vehicle presence / absence identifier). For example, the presence / absence of a vehicle for rainy weather using the feature amount as input information of the vehicle presence / absence discriminator according to the environment, the determination result (for example, determination information with a vehicle) and the moving body information (for example, determination information with a wiper operation) A discriminator parameter can be obtained, and an environment-specific vehicle presence / absence discriminator can be learned. Further, the presence / absence of a vehicle for nighttime using the feature amount as input information of the vehicle presence / absence discriminator according to the environment, and the determination result (for example, determination information with a vehicle) and moving body information (for example, determination information with headlight operation). A discriminator parameter can be obtained, and an environment-specific vehicle presence / absence discriminator can be learned. As a result, many video scenes can be efficiently collected, the environment-specific vehicle presence / absence classifier can be efficiently learned, and the identification accuracy of the environment-specific vehicle presence / absence classifier can be improved. .
第6発明にあっては、抽出した特徴量及び取得した移動体情報を用いて、移動体の種類を判定するための種類識別手段(車種識別器)に識別に用いる情報を学習させる。移動体の種類は、例えば、車種情報であり、普通車、大型車、二輪車、歩行者等などである。車種識別器の入力情報としての特徴量と移動体情報(例えば、車種情報)とを用いて車種識別器パラメータを求めることができ、車種識別器を学習させることができる。これにより、多くの映像シーンを効率的に収集することができ、車種識別器の学習を効率的に行うことができるとともに、車種識別器の識別精度を向上させることができる。 In the sixth invention, using the extracted feature quantity and the acquired mobile object information, the type identification means (vehicle type identifier) for determining the type of the mobile object is made to learn information used for identification. The type of the moving body is, for example, vehicle type information such as a normal vehicle, a large vehicle, a two-wheeled vehicle, and a pedestrian. The vehicle type discriminator parameter can be obtained by using the feature quantity as the input information of the vehicle type discriminator and the moving body information (for example, car type information), and the vehicle type discriminator can be learned. As a result, many video scenes can be efficiently collected, the vehicle type discriminator can be learned efficiently, and the discrimination accuracy of the car type discriminator can be improved.
第7発明にあっては、他の移動体識別装置から識別手段(識別器)に識別に用いる情報を学習させるための学習データを取得し、取得した学習データを用いて前記識別手段に識別に用いる情報を学習させる。他の移動体識別装置が設置された他の地点での映像シーンを収集することができ、一層多くの映像シーンを収集することができ、識別器の学習をさらに効率的に行うことができるとともに、識別器の識別精度を一層向上させることができる。 In the seventh aspect of the invention, learning data for learning the information used for identification by the identification means (identifier) is acquired from another mobile object identification device, and the identification means is used for identification using the acquired learning data. Learn the information to use. It is possible to collect video scenes at other points where other mobile unit identification devices are installed, collect more video scenes, and learn classifiers more efficiently. The identification accuracy of the classifier can be further improved.
第8発明にあっては、他の移動体識別装置の撮像条件を取得し、取得した撮像条件と自身の撮像条件との比較結果を用いて、取得した学習データを用いて学習させるか否かを決定する。撮像条件は、例えば、撮像装置(ビデオカメラ等)の俯角又は回転角などの条件である。撮像条件を比較して等しいか又は近似する場合、他の移動体識別装置で取得した学習データを用いて自身の識別器に識別に用いる情報を学習させる。これにより、有効な学習データだけを用いて識別器の学習を効率的に行うことができるとともに、識別器の識別精度を向上させることができる。 In the eighth invention, whether or not to acquire the imaging condition of the other mobile object identification device and learn using the acquired learning data using the comparison result between the acquired imaging condition and its own imaging condition To decide. Imaging conditions are conditions, such as a depression angle or a rotation angle, of an imaging device (video camera etc.), for example. When the imaging conditions are compared and are equal or approximate, the learning data acquired by another moving body identification device is used to learn information used for identification in its own classifier. As a result, it is possible to efficiently learn the discriminator using only valid learning data, and it is possible to improve the discrimination accuracy of the discriminator.
本発明にあっては、多くの映像シーンを効率的に収集することができ、識別器の学習を効率的に行うことができるとともに、識別器の識別精度を向上させることができる。 In the present invention, many video scenes can be collected efficiently, learning of the discriminator can be performed efficiently, and discrimination accuracy of the discriminator can be improved.
以下、本発明を実施の形態を示す図面に基づいて説明する。図1は本発明に係る移動体識別装置である車両識別装置100の構成の一例を示すブロック図である。車両識別装置100は、画像入力部11、A/D変換部12、画像メモリ13、通信部14、記憶部15、装置全体を制御する制御部20、部分画像特定部30、特徴量抽出部40、識別手段(識別器)としての識別部50、車両存在位置判定部60、学習部70などを備える。また、識別部50は、車両有無識別部51、車種識別部52、環境識別部53、環境別車両有無識別部54などを備えている。また、画像入力部11には、ビデオカメラ10を接続してある。なお、ビデオカメラ10は、車両識別装置100とは別個の装置であってもよく、あるいは、両者が一体をなす構成であってもよい。
Hereinafter, the present invention will be described with reference to the drawings illustrating embodiments. FIG. 1 is a block diagram showing an example of a configuration of a
ビデオカメラ10は、道路を含む所要の領域を撮像すべく、所定の高さ、俯角及び回転角などの撮像条件が設定された状態で道路付近の所要の地点に設置してある。ビデオカメラ10は、撮像して得られた撮像画像を映像信号(アナログ信号)として画像入力部11へ出力する。
The
画像入力部11は、取得した映像信号をA/D変換部12へ出力する。
The
A/D変換部12は、入力された映像信号をデジタル信号に変換し、変換したデジタル信号を画像データとして画像メモリ13へ記憶する。画像入力部11を介してビデオカメラ10から入力された撮像画像は、ビデオカメラ10のフレームレート(撮像時点の間隔、例えば、1秒間に30フレーム)と同期して、1フレーム単位(例えば、240×320画素)の画像データとして画像メモリ13に記憶される。
The A /
図2は撮像画像の一例を示す説明図である。図2に示すように、ビデオカメラ10を所定の撮像条件で道路付近に設置することで、所要の道路を走行する車両を撮像することができる。図2では、撮像画像の大きさは240×320画素である。なお、撮像画像の大きさはこれに限定されるものではない。
FIG. 2 is an explanatory diagram illustrating an example of a captured image. As shown in FIG. 2, by installing the
通信部14は、狭域通信機能、UHF帯若しくはVHF帯などの無線LAN等の中域通信機能、及び携帯電話、PHS、多重FM放送若しくはインターネット通信などの広域通信機能を備える。通信部14は、ビデオカメラ10の撮像領域内又はその付近に存在する車両から所定の車両情報(例えば、車両の位置情報、車速情報、車種情報、ワイパー及びヘッドライト等の車灯の動作状況を示す情報など)を受信する。また、通信部14は、車両を識別した結果得られた識別情報を提供すべく付近を存在する車両へ送信する。また、通信部14は、交通管制センタ等に設置されたサーバ装置、他の車両識別装置との間で所定の情報の送受信を行う。
The
記憶部15は、制御部20の制御により、車両識別装置100の処理により得られたデータ、通信部14を介して受信したデータなどを記憶する。
The
部分画像特定部30は、撮像画像上で所要の大きさの部分画像を特定し、特定した部分画像を撮像画像上で走査する。部分画像は、後述する特徴量を抽出するための検出範囲を画定する。
The partial
図3は検出範囲の一例を示す説明図である。図3に示すように、検出範囲の大きさは、例えば、24×32画素である。検出範囲を撮像画像上で走査する場合、図3に示すように1回の走査で水平方向に16画素だけ検出範囲を移動させることができる。 FIG. 3 is an explanatory diagram showing an example of a detection range. As shown in FIG. 3, the size of the detection range is, for example, 24 × 32 pixels. When scanning the detection range on the captured image, as shown in FIG. 3, the detection range can be moved by 16 pixels in the horizontal direction in one scan.
特徴量抽出部40は、検出範囲の特徴量を抽出する。特徴量は、HOG(Histograms of Oriented Gradients)特徴を用いることができ、検出範囲の輝度の勾配強度を勾配方向毎にヒストグラム化した特徴ベクトルである。なお、特徴量は、HOG特徴に限定されるものではなく、エッジ検出により抽出してもよい。
The feature
以下、特徴量としての特徴ベクトルの算出方法について説明する。図4は局所領域の一例を示す説明図である。局所領域(ブロック)は、24×32画素の検出範囲から一部が重複するように抽出され、例えば、16×16画素の大きさを有する。従って、検出範囲から6つの局所領域を抽出することができる。また、局所領域は、4個のセル(8×8画素の領域)で構成されている。 Hereinafter, a method for calculating a feature vector as a feature amount will be described. FIG. 4 is an explanatory diagram showing an example of the local region. The local area (block) is extracted so as to partially overlap from the detection range of 24 × 32 pixels, and has a size of 16 × 16 pixels, for example. Accordingly, six local regions can be extracted from the detection range. The local area is composed of four cells (area of 8 × 8 pixels).
図5は輝度の勾配強度と勾配方向の一例を示す説明図である。セル内の画素の位置を(x、y)で表わす。画素(x、y)における輝度の勾配強度をm(x、y)、勾配方向をθ(x、y)とする。勾配強度m(x、y)、勾配方向θ(x、y)は、式(1)〜式(3)で求めることができる。ここで、fx(x、y)は横方向(x方向)の輝度勾配であり、fy(x、y)は縦方向(y方向)の輝度勾配であり、式(3)以外に、例えば、Sobelフィルタにより求めることができる。また、L(x、y)は、画素(x、y)の輝度である。 FIG. 5 is an explanatory diagram showing an example of the luminance gradient strength and gradient direction. The position of the pixel in the cell is represented by (x, y). It is assumed that the luminance gradient intensity at pixel (x, y) is m (x, y) and the gradient direction is θ (x, y). The gradient strength m (x, y) and the gradient direction θ (x, y) can be obtained by Equations (1) to (3). Here, fx (x, y) is a luminance gradient in the horizontal direction (x direction), fy (x, y) is a luminance gradient in the vertical direction (y direction), and in addition to Expression (3), for example, It can be obtained by a Sobel filter. L (x, y) is the luminance of the pixel (x, y).
そして、セル毎に8方向のヒストグラムを作成する。図6は勾配方向の一例を示す説明図であり、図7は勾配強度のヒストグラムの一例を示す説明図である。図6に示すように、勾配方向を45°毎に分割し8方向の(j=1〜8)勾配方向を設定する。また、図7に示すように、算出した輝度の勾配強度を勾配方向毎に振り分けてヒストグラムを作成する。勾配強度を算出する場合に、局所領域(ブロック)の中心からの距離に反比例したσ=1.6のガウシアンフィルタを局所領域に対して施してエッジ強度を平滑化することもできる。 Then, a histogram in eight directions is created for each cell. FIG. 6 is an explanatory diagram showing an example of a gradient direction, and FIG. 7 is an explanatory diagram showing an example of a histogram of gradient strength. As shown in FIG. 6, the gradient direction is divided every 45 °, and eight (j = 1 to 8) gradient directions are set. Further, as shown in FIG. 7, a histogram is created by assigning the calculated intensity gradient intensity for each gradient direction. When calculating the gradient strength, the edge strength can be smoothed by applying a Gaussian filter of σ = 1.6 inversely proportional to the distance from the center of the local region (block) to the local region.
セル毎に求めたヒストグラムを局所領域でまとめ、局所領域毎のヒストグラムの最大要素(勾配強度の最大値)で各ヒストグラムの要素(勾配強度)を除算して正規化する。これにより、1つの局所領域(ブロック)で抽出された32次元の特徴ベクトルの最大成分は1となる。1つの検出範囲で6つの局所領域があるので、式(4)に示すように、1つの検出範囲について192次元(32次元×6=192次元)の特徴ベクトルVを算出することができる。 Histograms obtained for each cell are collected in a local region, and normalized by dividing each histogram element (gradient strength) by the maximum element (gradient strength maximum) of the histogram for each local region. As a result, the maximum component of the 32-dimensional feature vector extracted in one local region (block) is 1. Since there are six local regions in one detection range, a feature vector V of 192 dimensions (32 dimensions × 6 = 192 dimensions) can be calculated for one detection range as shown in Expression (4).
隣接画素の勾配を検出範囲毎にヒストグラム化して正規化するため、道路を撮像して得られる撮像画像に対するノイズ又は明るさの変化、影の有無などの影響を受けにくく局所的な幾何学変化(平行移動、回転など)に対して頑健である。 Since the gradient of adjacent pixels is normalized by creating a histogram for each detection range, local geometrical changes that are less affected by noise or brightness changes and the presence or absence of shadows on captured images obtained by imaging roads ( Robust against translation, rotation, etc.).
識別部50は、特徴量抽出部40で抽出した特徴量(特徴ベクトル)を入力情報として、車両の有無を含む所定の識別判定を行い、識別結果(判定情報)を出力する。識別部50は、車両有無識別器を有する車両有無識別部51、車種識別器を有する車種識別部52、環境識別器を有する環境識別部53、環境別車両有無識別器を有する環境別車両有無識別部54などを備えている。
The
図8は識別部50の各識別器の概要を示す説明図であり、図9は識別部50の各識別器の識別内容を示す説明図である。車両有無識別器は、特徴ベクトルVが入力された場合、識別情報Dc=Ac・Vを出力する。ここで、Acは車両有無識別器の識別器パラメータである。車両有無識別器は、入力された特徴ベクトルVに対して、識別器パラメータAcによる所定の演算を行って、識別結果(クラス)として車両あり又は車両なしを判定する。出力された識別情報Dcが、例えば、Dc>0であれば車両ありと判定され、Dc<0であれば車両なしと判定することができる。なお、判定条件は一例であって、これに限定されるものではない。
FIG. 8 is an explanatory diagram showing an outline of each discriminator of the discriminating
また、車種識別器は、特徴ベクトルVが入力された場合、識別情報Dt=At・Vを出力する。ここで、Atは車種識別器の識別器パラメータである。車種識別器は、入力された特徴ベクトルVに対して、識別器パラメータAtによる所定の演算を行って、識別結果(クラス)として、例えば、普通車、大型車、二輪車又は歩行者などの別を判定する。出力された識別情報Dtが、例えば、0<Dt<Tt1であれば普通車と判定され、Tt1<Dt<Tt2であれば大型車と判定され、Tt2<Dt<Tt3であれば二輪車と判定され、Dt<0であれば歩行者と判定することができる。なお、判定条件は一例であって、これに限定されるものではない。 In addition, when the feature vector V is input, the vehicle type identifier outputs identification information Dt = At · V. Here, At is a discriminator parameter of the vehicle type discriminator. The vehicle type discriminator performs a predetermined calculation based on the discriminator parameter At on the input feature vector V, and distinguishes the classification result (class), for example, an ordinary vehicle, a large vehicle, a two-wheeled vehicle or a pedestrian. judge. For example, if the output identification information Dt is 0 <Dt <Tt1, it is determined as a normal vehicle, if Tt1 <Dt <Tt2, it is determined as a large vehicle, and if Tt2 <Dt <Tt3, it is determined as a motorcycle. If Dt <0, it can be determined as a pedestrian. Note that the determination condition is an example, and the present invention is not limited to this.
また、環境識別器は、特徴ベクトルVが入力された場合、識別情報Dw=Aw・Vを出力する。ここで、Awは環境識別器の識別器パラメータである。環境識別器は、入力された特徴ベクトルVに対して、識別器パラメータAwによる所定の演算を行って、識別結果(クラス)として、例えば、昼、夕方、晴れの夜間、雨天の夜間などの別を判定する。出力された識別情報Dwが、例えば、0<Dw<Tw1であれば昼と判定され、Tw1<Dw<Tw2であれば夕方と判定され、Tw2<Dw<Tw3であれば晴れの夜間と判定され、Tw3<Dw<Tw4であれば雨天の夜間と判定することができる。なお、判定条件は一例であって、これに限定されるものではない。 Further, when the feature vector V is input, the environment classifier outputs the identification information Dw = Aw · V. Here, Aw is a classifier parameter of the environment classifier. The environment classifier performs a predetermined calculation based on the classifier parameter Aw on the input feature vector V, and the classification result (class) is, for example, different from daytime, evening, sunny night, rainy night, etc. Determine. For example, if the output identification information Dw is 0 <Dw <Tw1, it is determined as daytime, if Tw1 <Dw <Tw2, it is determined as evening, and if Tw2 <Dw <Tw3, it is determined as a clear night. If Tw3 <Dw <Tw4, it can be determined that the rainy night. Note that the determination condition is an example, and the present invention is not limited to this.
また、環境別車両有無識別器は、特徴ベクトルVが入力された場合、識別情報Dcw=Acw・Vを出力する。ここで、Acwは環境別車両有無識別器の識別器パラメータである。環境別車両有無識別器は、入力された特徴ベクトルVに対して、識別器パラメータAcwによる所定の演算を行って、識別結果(クラス)として、例えば、昼車両あり、夕方車両あり、晴夜車両あり、雨夜車両あり、昼車両なし、夕方車両なし、晴夜車両なし、雨夜車両なしなどの別を判定する。なお、判定内容は、上述の各識別器と同様に識別情報Dcwの値に応じて区別することができる。 Further, when the feature vector V is input, the environment-specific vehicle presence / absence discriminator outputs identification information Dcw = Acw · V. Here, Acw is a discriminator parameter of the vehicle presence / absence discriminator by environment. The environment-specific vehicle presence / absence discriminator performs a predetermined calculation based on the discriminator parameter Acw on the input feature vector V, and the discrimination result (class) is, for example, a day vehicle, an evening vehicle, or a sunny vehicle. It is determined whether there is a rainy night vehicle, no daytime vehicle, no evening vehicle, no clear night vehicle, no rainy night vehicle. Note that the determination contents can be distinguished according to the value of the identification information Dcw, as with the above-described classifiers.
車両存在位置判定部60は、検出範囲(部分画像)において車両有無識別部51で車両が識別された場合(車両ありと判定された場合)、通信部14を介して車両から受信した車両情報に含まれる車両の位置情報に基づいて、該車両が検出範囲内に存在するか否かを判定する。すなわち、車両存在位置判定部60は、車両情報を受信したときに、その車両情報を送信した車両が、特徴ベクトルを抽出して車両ありと判定された検出範囲内の車両と同一車両であるか否かを判定する。なお、同一車両であるか否かの判定は、車両の位置検出精度に応じて所要の誤差範囲を含めることができる。すなわち、車両の位置情報に誤差範囲を加味した位置が検出範囲内にあるか否かで判定すればよい。
When the vehicle presence /
より具体的には、車両が検出範囲内に存在するか否かは、以下のように行うことができる。車両から受信した車両情報に含まれる車両の位置をPcarとし、特徴ベクトルを抽出して車両ありと判定された検出範囲の中心位置をPdetとする。ただし、Pcar及びPdetは、カメラ設置位置を基準とする実道路上での位置とする。この場合に、2つの位置の距離がある誤差(Err)範囲以下のとき、すなわち、|Pcar−Pdet|<Err、のとき、検出範囲内に車両が存在すると判定する。 More specifically, whether or not the vehicle exists within the detection range can be performed as follows. The position of the vehicle included in the vehicle information received from the vehicle is defined as Pcar, and the center position of the detection range in which the feature vector is extracted and determined to be present is defined as Pdet. However, Pcar and Pdet are positions on the actual road with the camera installation position as a reference. In this case, when the distance between the two positions is equal to or smaller than a certain error (Err) range, that is, when | Pcar−Pdet | <Err, it is determined that the vehicle exists within the detection range.
学習部70は、車両有無識別器、車種識別器、環境識別器、環境別車両有無識別器などの各識別器の識別器パラメータを求めることにより、各識別器に識別に用いる情報(識別パラメータ)の学習を行う。以下、識別器の学習方法について説明する。
The
図10は識別器の学習方法の一例を示す説明図である。なお、図10では車両有無識別器を例として説明するが、他の識別器の学習方法も同様である。図10(a)に示すように、車両有無識別器は、特徴ベクトルVが入力された場合、特徴ベクトルVに対して識別器パラメータAcによる所定の演算を施して、識別情報Dc=Ac・Vを出力するものである。なお、以下簡略化のため特徴ベクトルVを2次元ベクトルとして説明するが、学習方法は、次元の数にかかわらず同様に考えることができる。 FIG. 10 is an explanatory diagram illustrating an example of a learning method for a classifier. In FIG. 10, a vehicle presence / absence discriminator is described as an example, but the learning method of other discriminators is the same. As shown in FIG. 10A, when the feature vector V is input, the vehicle presence / absence discriminator performs a predetermined calculation based on the discriminator parameter Ac on the feature vector V to obtain the identification information Dc = Ac · V. Is output. For simplicity, the feature vector V will be described as a two-dimensional vector, but the learning method can be considered in the same manner regardless of the number of dimensions.
車両情報(位置情報を含む)を送信した車両が、特徴ベクトルを抽出して車両ありと判定された検出範囲内の車両と同一車両であると、車両存在位置判定部60で判定された場合、抽出された特徴ベクトルをV1とする。この場合、図10(b)に示すように、学習用データとしては、検出範囲で車両が識別された際の特徴ベクトルV1と、車両が送信した車両情報に基づいて検出範囲内に車両が存在すると車両存在位置判定部60で判定された判定情報d(例えば、d=1、車両あり)とが存在する。異なる時点で撮像された他の車両についても同様の処理を繰り返すことにより、学習データとして特徴ベクトルV2、…と、それに対応する判定情報d、…を得ることができる。また、検出範囲内に車両が存在しない際の特徴ベクトルVk、…と判定情報(d=0)、…を車両ありと同等数予め用意しておく。
When it is determined by the vehicle presence
図10(c)に示すように、学習部70は、収集された学習用データを用いて、識別器パラメータAcを算出することにより、車両有無識別器の学習を行う。
As shown in FIG. 10C, the
なお、車両有無識別器の学習を行う場合、撮像画像上で車両が1台だけ撮像されている場合、あるいは、複数の車両が撮像されている場合には、車両同士が少なくとも1台分程度離隔しているときが学習を行いやすいので、このような条件を満たす場合に学習を行うようにしてもよい。 When learning the vehicle presence / absence discriminator, when only one vehicle is captured on the captured image, or when a plurality of vehicles are captured, the vehicles are separated by at least about one. Since learning is easy when the user is doing, learning may be performed when such a condition is satisfied.
車両が送信する位置情報は、例えば、車両に搭載したGPSにより位置検出を行うことにより得ることができる。また、技術発展に伴い、より高精度な位置検出が可能になれば、誤差範囲を小さく設定することにより、より正確な学習が可能になる。さらに、位置情報を含む車両情報を送信することができる車両の割合が大きくなれば、学習機会が増加し、より早く学習を進めることができる。 The position information transmitted by the vehicle can be obtained, for example, by performing position detection using a GPS mounted on the vehicle. Further, if the position detection with higher accuracy becomes possible as the technology develops, more accurate learning can be performed by setting the error range to be smaller. Furthermore, if the ratio of vehicles that can transmit vehicle information including position information increases, learning opportunities increase, and learning can proceed more quickly.
学習部70は、車両有無識別器の学習を行うときに、車両の位置情報に加えて車種情報を受信することができれば、車種識別器の学習も行うことができる。この場合、学習用データとしては、検出範囲で車両が識別された際の特徴ベクトルVと、車両が送信した車種情報に基づいて判定された判定情報d(例えば、普通車、大型車、二輪車など)とが存在する。
If learning
学習部70は、車両より受信したワイパー及び車灯の動作状態を示す情報を判定情報として用い、環境識別器の学習を行うことができる。これにより、道路周辺の明るさや降雨状態、路面状態を推定することにより、その環境に応じた車両有無や車種判定のための学習ができる。例えば、情報を送信した車両の20%以下がヘッドライトを点灯している場合、昼と判定し、そのときに学習した識別器を昼用とすることができる。また、情報を送信した車両の20%以上80%以下がヘッドライトを点灯している場合、夕方と判定し、そのときに学習した識別器を夕方用とすることができる。また、情報を送信した車両の80%以上がヘッドライトを点灯し、20%以下がワイパー動作中である場合、晴れの夜と判定し、そのときに学習した識別器を晴夜用とすることができる。さらに、情報を送信した車両の80%以上がヘッドライトを点灯し、80%以上がワイパー動作中である場合、雨天の夜と判定し、そのときに学習した識別器を雨夜用とすることができる。環境識別器の学習を行う場合、必ずしも車両が検出範囲に存在しなくてもよい。
The
学習部70は、車両有無識別器の学習と環境識別器の学習とを行うことにより、環境別車両有無識別器の学習も行うことができる。
The
図11は車両識別装置100の情報提供モードの適用例を示す説明図である。図11に示すように、車両識別装置100を交差点付近に設置し、所要の撮像範囲をビデオカメラで撮像する。車両識別装置100は、撮像範囲外の車両C1、C2などに対して、見通し外の車両又は見通し外の歩行者などの識別を行い、識別結果に基づいて情報提供を行う。これにより、車両の運転者から死角となる地点の車両や歩行者の情報を提供することができ、交通事故を未然に防止することができる。
FIG. 11 is an explanatory diagram illustrating an application example of the information providing mode of the
図12は車両識別装置100の学習モードの適用例を示す説明図である。図12に示すように、車両識別装置100を交差点付近に設置し、所要の撮像範囲をビデオカメラで撮像する。車両識別装置100は、撮像範囲を走行する車両C3を撮像するとともに、車両C3から車両C3の位置情報を含む車両情報を受信する。車両識別装置100は、撮像画像から抽出した特徴量(特徴ベクトル)及び/又は車両から受信した車両情報を判定情報として用いることにより識別器の学習を行う。これにより、多くの人手をかける必要もなく、また簡便かつ安価に識別器を学習するためのデータを効率的に収集することができる。
FIG. 12 is an explanatory diagram illustrating an application example of the learning mode of the
制御部20、部分画像特定部30、特徴量抽出部40、識別部50、車両存在位置判定部60、学習部70などは、専用のハードウエア回路で実現することができる。また、各部の機能を定めたコンピュータプログラムをCPUで実行させることで実現することもできる。
The
次に車両識別装置100の動作について説明する。図13は車両識別装置100の処理手順を示すフローチャートである。制御部20は、撮像画像を取得し(S11)、部分画像としての検出範囲を特定した上で走査する(S12)。制御部20は、検出範囲の特徴量としての特徴ベクトルを算出し(S13)、算出した特徴ベクトルに対して識別器パラメータによる演算を施して識別処理(例えば、車両の有無の識別)を行う(S14)。
Next, the operation of the
制御部20は、車両の有無を判定し(S15)、車両ありの場合(S15でYES)、車両の位置情報を含む車両情報を受信したか否かを判定する(S16)。車両情報を受信した場合(S16でYES)、制御部20は、受信した位置情報に基づいて車両位置が検出範囲内にあるか否かを判定する(S17)。
The
車両位置が検出範囲内にある場合(S17でYES)、すなわち、車両情報を受信したときに、その車両情報を送信した車両が、特徴ベクトルを抽出して車両ありと判定された検出範囲内の車両と同一車両である場合、制御部20は、抽出した特徴ベクトル及び車両情報を用いて学習処理を行う(S18)。これにより、識別器の識別器パラメータを算出する。
When the vehicle position is within the detection range (YES in S17), that is, when the vehicle information is received, the vehicle that has transmitted the vehicle information extracts the feature vector and is within the detection range determined to have a vehicle. When it is the same vehicle as the vehicle, the
制御部20は、特徴ベクトル、算出した識別器パラメータを学習データとして記憶する(S19)。制御部20は、撮像画像内をすべて走査したか否かを判定し(S20)、すべて走査していない場合(S20でNO)、ステップS12以降の処理を続ける。
The
すべて走査した場合(S20でYES)、制御部20は、識別結果を記憶し(S21)、処理を終了するか否かを判定し(S22)、処理を終了しない場合(S22でNO)、ステップS11以降の処理を続け、処理を終了する場合(S22でYES)、処理を終了する。
When all scanning is performed (YES in S20), the
また、車両なしの場合(S15でNO)、車両情報を受信していない場合(S16でNO)、あるいは、車両位置が検出範囲内でない場合(S17でNO)、制御部20は、ステップS21の処理を行う。
Further, when there is no vehicle (NO in S15), when vehicle information is not received (NO in S16), or when the vehicle position is not within the detection range (NO in S17), the
なお、上述の処理で車両位置が検出範囲内にある場合に、学習処理を行うが、これにより車両有無識別器、車種識別器の学習を行うことがでる。環境識別器の学習は、車両位置が検出範囲内にある場合でも、検出範囲内にない場合でも行うことができる。 Note that, when the vehicle position is within the detection range in the above-described processing, the learning process is performed, whereby the vehicle presence / absence discriminator and the vehicle type identifier can be learned. The environment classifier can be learned whether the vehicle position is within the detection range or not.
実用化の際には、収集済みのデータセットを用いて予め識別器を学習させておき、この識別器の結果と、異なる情報が路車間通信で得られた場合に、これを学習データに追加し、識別器を再学習させ、その地点に応じた調整を行うことができる。 In practical use, the classifier is trained in advance using the collected data set. If different information from the classifier results is obtained through road-to-vehicle communication, this is added to the training data. Then, the discriminator can be re-learned, and adjustment according to the point can be performed.
また、車両識別装置100で得られた学習結果をサーバ装置へ送信し、他地点での車両識別装置の学習データに利用することができる。図14はサーバ装置200の構成を示すブロック図である。サーバ装置200は、装置全体を制御する制御部201、通信部202、記憶部203、学習部204、分類部205などを備えている。
Moreover, the learning result obtained by the
通信部202は、通信部14と同様の機能を備え、各地点(各車両識別装置)での学習データ及び撮像条件を受信する。撮像条件は、例えば、撮像装置(ビデオカメラ等)の俯角又は回転角などの条件である。
The
分類部205は、取得した撮像条件に基づき収集した学習データを分類する。つまり、撮像条件が等しいか又は近似する地点の学習データ毎に分類する。通信部202は、各地点(各車両識別装置)へ、その地点の撮像条件に分類された学習データを送信する。各車両識別装置は、他の地点で得られた学習データを含んだ学習データを用いて、自身の識別器を学習させる。これにより、より多くの映像シーンを用いた学習を効率的に行うことができるとともに、識別器の識別精度を向上させることができる。また、学習部204は、学習部70と同様の機能を備え、撮像条件に基づいて分類された学習データを用いて、サーバ装置で識別器を学習させ、この結果を他の1又は複数の車両識別装置へ送信することもできる。
The
以上説明したように、本発明にあっては、起こりうる変化のデータを効率的に収集することにより、データ収集に要するコストが削減できる。さらに、収集データをフィードバックすることにより、各車両識別装置の識別精度が向上し、より精度の高い情報を車両に提供し、交通事故等の抑止がより期待できる。また、本発明は、長距離トンネル内の異常交通監視システム、駐車場システム、一般道路の交通管制システムなどに適用することができる。 As described above, according to the present invention, the cost required for data collection can be reduced by efficiently collecting data of possible changes. Furthermore, by feeding back the collected data, the identification accuracy of each vehicle identification device is improved, more accurate information is provided to the vehicle, and traffic accidents can be further suppressed. Further, the present invention can be applied to an abnormal traffic monitoring system, a parking lot system, a general road traffic control system, etc. in a long distance tunnel.
以上に開示された実施の形態及び実施例は、全ての点で例示であって制限的なものではないと考慮されるべきである。本発明の範囲は、以上の実施の形態及び実施例ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内での全ての修正や変形を含むものと意図される。 The embodiments and examples disclosed above should be considered as illustrative in all points and not restrictive. The scope of the present invention is shown not by the above embodiments and examples but by the scope of claims, and is intended to include all modifications and variations within the meaning and scope equivalent to the scope of claims. .
10 ビデオカメラ
11 画像入力部
12 A/D変換部
13 画像メモリ
14 通信部
15 記憶部
20 制御部
30 部分画像特定部
40 特徴量抽出部
50 識別部
51 車両有無識別部
52 車種識別部
53 環境識別部
54 環境別車両有無識別部
60 車両存在位置判定部
70 学習部
DESCRIPTION OF
Claims (10)
移動体の位置情報を含む移動体情報を取得する移動体情報取得手段と、
撮像画像上の部分画像を特定する部分画像特定手段と、
該部分画像特定手段で特定した部分画像の特徴量を抽出する特徴量抽出手段と、
該特徴量抽出手段で抽出した特徴量を用いて移動体を識別する識別手段と、
該識別手段で移動体を識別した場合、前記移動体情報取得手段で取得した位置情報及び前記部分画像特定手段で特定した部分画像の撮像画像上の位置に基づいて、前記移動体情報取得手段で移動体情報を取得した移動体が前記部分画像に撮像されているか否かを判定する判定手段と、
該判定手段で前記移動体が撮像されていると判定した場合、前記特徴量抽出手段で抽出した特徴量及び前記移動体情報取得手段で取得した移動体情報を用いて前記識別手段に識別に用いる情報を学習させる学習手段と
を備えることを特徴とする移動体識別装置。 A mobile object identification device that extracts a feature amount from a captured image obtained by imaging a region including a road and identifies a mobile object using the extracted feature amount,
Mobile body information acquisition means for acquiring mobile body information including position information of the mobile body;
A partial image specifying means for specifying a partial image on the captured image;
Feature quantity extraction means for extracting the feature quantity of the partial image identified by the partial image identification means;
Identification means for identifying a moving object using the feature amount extracted by the feature amount extraction means;
When the moving body is identified by the identifying means, the moving body information acquiring means uses the positional information acquired by the moving body information acquiring means and the position on the captured image of the partial image specified by the partial image specifying means. Determining means for determining whether or not the moving body that has acquired the moving body information is captured in the partial image;
When the determination unit determines that the moving body is imaged, the identification unit uses the feature amount extracted by the feature amount extraction unit and the mobile unit information acquired by the mobile unit information acquisition unit for identification. A moving body identification device comprising: learning means for learning information.
前記学習手段は、
前記特徴量抽出手段で抽出した特徴量及び前記判定手段で判定した判定結果を用いて前記移動体識別手段に識別に用いる情報を学習させるように構成してあることを特徴とする請求項1に記載の移動体識別装置。 A moving body identification means for determining the presence or absence of a moving body is provided,
The learning means includes
2. The apparatus according to claim 1, wherein the moving object identifying unit is made to learn information used for identification using the feature amount extracted by the feature amount extracting unit and the determination result determined by the determining unit. The moving body identification device described.
前記移動体情報取得手段は、
ワイパーの動作情報を含む移動体情報を取得するように構成してあり、
前記学習手段は、
前記特徴量抽出手段で抽出した特徴量及び前記移動体情報取得手段で取得した移動体情報を用いて前記環境識別手段に識別に用いる情報を学習させるように構成してあることを特徴とする請求項1又は請求項2に記載の移動体識別装置。 Environmental identification means for identifying environmental conditions including the weather,
The mobile body information acquisition means includes
It is configured to acquire moving body information including movement information of the wiper,
The learning means includes
The environment identification unit is configured to learn information used for identification using the feature amount extracted by the feature amount extraction unit and the mobile unit information acquired by the mobile unit information acquisition unit. The mobile object identification device according to claim 1 or 2.
前記移動体情報取得手段は、
車灯を含む移動体情報を取得するように構成してあり、
前記学習手段は、
前記特徴量抽出手段で抽出した特徴量及び前記移動体情報取得手段で取得した移動体情報を用いて前記環境識別手段に識別に用いる情報を学習させるように構成してあることを特徴とする請求項1又は請求項2に記載の移動体識別装置。 An environmental identification means for identifying environmental conditions including day and night,
The mobile body information acquisition means includes
It is configured to acquire moving body information including car lights,
The learning means includes
The environment identification unit is configured to learn information used for identification using the feature amount extracted by the feature amount extraction unit and the mobile unit information acquired by the mobile unit information acquisition unit. The mobile object identification device according to claim 1 or 2.
前記学習手段は、
前記特徴量抽出手段で抽出した特徴量、前記判定手段で判定した判定結果及び前記移動体情報取得手段で取得した移動体情報を用いて前記環境別移動体識別手段に識別に用いる情報を学習させるように構成してあることを特徴とする請求項3又は請求項4に記載の移動体識別装置。 Provided with a moving body identification means for each environment for determining the presence or absence of a moving body for each different environment,
The learning means includes
Using the feature amount extracted by the feature amount extraction unit, the determination result determined by the determination unit, and the mobile unit information acquired by the mobile unit information acquisition unit, the environment-specific mobile unit identification unit learns information used for identification. The mobile object identification device according to claim 3, wherein the mobile object identification device is configured as described above.
前記移動体情報取得手段は、
車種又は二輪車若しくは歩行者の別を含む移動体情報を取得するように構成してあり、
前記学習手段は、
前記特徴量抽出手段で抽出した特徴量及び前記移動体情報取得手段で取得した移動体情報を用いて前記種類識別手段に識別に用いる情報を学習させるように構成してあることを特徴とする請求項2乃至請求項5のいずれか1つに記載の移動体識別装置。 Provided with a type identifying means for determining the type of the moving object,
The mobile body information acquisition means includes
It is configured to acquire moving body information including the type of vehicle or motorcycle or pedestrian,
The learning means includes
The feature identifying unit is configured to cause the type identifying unit to learn information used for identification using the feature amount extracted by the feature amount extracting unit and the moving body information acquired by the moving body information acquiring unit. The mobile object identification device according to any one of claims 2 to 5.
前記学習手段は、
前記学習データ取得手段で取得した学習データを用いて前記識別手段に識別に用いる情報を学習させるように構成してあることを特徴とする請求項1乃至請求項6のいずれか1つに記載の移動体識別装置。 Learning data acquisition means for acquiring learning data for causing the identification means to learn information used for identification from another mobile object identification device;
The learning means includes
7. The configuration according to claim 1, wherein learning information acquired by the learning data acquisition unit is used to cause the identification unit to learn information used for identification. 8. Mobile object identification device.
該撮像条件取得手段で取得した撮像条件と自身の撮像条件との比較結果を用いて、前記学習データ取得手段で取得した学習データを用いて学習させるか否かを決定する決定手段と
を備えることを特徴とする請求項7に記載の移動体識別装置。 Imaging condition acquisition means for acquiring imaging conditions of another mobile object identification device;
Determining means for determining whether or not to learn using the learning data acquired by the learning data acquisition means, using a comparison result between the imaging conditions acquired by the imaging condition acquisition means and the own imaging conditions; The mobile object identification device according to claim 7.
コンピュータを、
撮像画像上の部分画像を特定する部分画像特定手段と、
特定した部分画像の特徴量を抽出する特徴量抽出手段と、
抽出した特徴量を用いて移動体を識別する識別手段と、
移動体を識別した場合、移動体の位置情報及び特定した部分画像の撮像画像上の位置に基づいて、前記移動体が前記部分画像に撮像されているか否かを判定する判定手段と、
前記移動体が撮像されていると判定した場合、抽出した特徴量及び前記移動体の移動体情報を用いて前記識別手段に識別に用いる情報を学習させる学習手段と
して機能させることを特徴とするコンピュータプログラム。 A computer program for extracting a feature amount from a captured image obtained by imaging a region including a road, and causing the computer to function as a means for identifying a mobile object using the extracted feature amount,
Computer
A partial image specifying means for specifying a partial image on the captured image;
Feature amount extraction means for extracting the feature amount of the identified partial image;
An identification means for identifying the moving object using the extracted feature amount;
A determination unit that determines whether or not the moving body is captured in the partial image based on position information of the moving body and a position on the captured image of the identified partial image when the mobile body is identified;
When it is determined that the moving body is imaged, the identifying means uses the extracted feature amount and the moving body information of the moving body to function as learning means for learning information used for identification. Computer program.
前記移動体識別装置は、
移動体の位置情報を含む移動体情報を取得し、
撮像画像上の部分画像を特定し、
特定した部分画像の特徴量を抽出し、
抽出した特徴量を用いて移動体を識別し、
移動体を識別した場合、取得した位置情報及び特定した部分画像の撮像画像上の位置に基づいて、前記移動体情報を取得した移動体が前記部分画像に撮像されているか否かを判定し、
前記移動体が撮像されていると判定した場合、抽出した特徴量及び取得した移動体情報を用いて前記識別手段に識別に用いる情報を学習させることを特徴とする移動体識別装置の学習方法。 A method for learning a mobile object identification device including an identification unit that extracts a feature amount from a captured image obtained by imaging a region including a road and identifies the mobile object using the extracted feature amount,
The mobile object identification device includes:
Get the mobile object information including the position information of the mobile object,
Identify the partial image on the captured image,
Extract the feature quantity of the identified partial image,
Identify moving objects using the extracted features,
When identifying the moving body, based on the acquired position information and the position on the captured image of the identified partial image, it is determined whether the moving body that acquired the moving body information is captured in the partial image,
A learning method for a mobile object identification device, wherein when the mobile object is determined to be imaged, the identification unit is made to learn information used for identification using the extracted feature amount and the acquired mobile object information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008201011A JP5115390B2 (en) | 2008-08-04 | 2008-08-04 | Mobile object identification device, computer program, and learning method of mobile object identification device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008201011A JP5115390B2 (en) | 2008-08-04 | 2008-08-04 | Mobile object identification device, computer program, and learning method of mobile object identification device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010039705A true JP2010039705A (en) | 2010-02-18 |
JP5115390B2 JP5115390B2 (en) | 2013-01-09 |
Family
ID=42012200
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008201011A Expired - Fee Related JP5115390B2 (en) | 2008-08-04 | 2008-08-04 | Mobile object identification device, computer program, and learning method of mobile object identification device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5115390B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012103169A (en) * | 2010-11-11 | 2012-05-31 | Fujitsu Ltd | Moving object specification system, moving object specification device and moving object specification program |
JP2017194949A (en) * | 2016-04-22 | 2017-10-26 | 財団法人車輌研究測試中心 | Object detection system and object detection method |
WO2021020304A1 (en) * | 2019-07-29 | 2021-02-04 | 京セラ株式会社 | Base station, roadside device, traffic communication system, traffic management method, and teaching data generation method |
JP2021022221A (en) * | 2019-07-29 | 2021-02-18 | 京セラ株式会社 | Base station, traffic communication system, and traffic management method |
CN112686122A (en) * | 2020-12-25 | 2021-04-20 | 浙江大华技术股份有限公司 | Human body and shadow detection method, device, electronic device and storage medium |
JP2021086347A (en) * | 2019-11-27 | 2021-06-03 | 京セラ株式会社 | Traffic communication system, roadside machine, and teacher data generation method |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0333968A (en) * | 1989-06-30 | 1991-02-14 | Hitachi Ltd | Information processing system and pattern recognizing system using neural network |
JPH04247600A (en) * | 1991-02-01 | 1992-09-03 | Omron Corp | Vehicle recognizing method |
JPH07210795A (en) * | 1994-01-24 | 1995-08-11 | Babcock Hitachi Kk | Method and instrument for image type traffic flow measurement |
JP2001256485A (en) * | 2000-03-14 | 2001-09-21 | Hitachi Ltd | System for discriminating vehicle kind |
JP2002099906A (en) * | 2000-09-22 | 2002-04-05 | Mazda Motor Corp | Object-recognizing device |
JP2002171517A (en) * | 2000-12-01 | 2002-06-14 | Omron Corp | Vehicle monitor device |
-
2008
- 2008-08-04 JP JP2008201011A patent/JP5115390B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0333968A (en) * | 1989-06-30 | 1991-02-14 | Hitachi Ltd | Information processing system and pattern recognizing system using neural network |
JPH04247600A (en) * | 1991-02-01 | 1992-09-03 | Omron Corp | Vehicle recognizing method |
JPH07210795A (en) * | 1994-01-24 | 1995-08-11 | Babcock Hitachi Kk | Method and instrument for image type traffic flow measurement |
JP2001256485A (en) * | 2000-03-14 | 2001-09-21 | Hitachi Ltd | System for discriminating vehicle kind |
JP2002099906A (en) * | 2000-09-22 | 2002-04-05 | Mazda Motor Corp | Object-recognizing device |
JP2002171517A (en) * | 2000-12-01 | 2002-06-14 | Omron Corp | Vehicle monitor device |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012103169A (en) * | 2010-11-11 | 2012-05-31 | Fujitsu Ltd | Moving object specification system, moving object specification device and moving object specification program |
JP2017194949A (en) * | 2016-04-22 | 2017-10-26 | 財団法人車輌研究測試中心 | Object detection system and object detection method |
WO2021020304A1 (en) * | 2019-07-29 | 2021-02-04 | 京セラ株式会社 | Base station, roadside device, traffic communication system, traffic management method, and teaching data generation method |
JP2021022221A (en) * | 2019-07-29 | 2021-02-18 | 京セラ株式会社 | Base station, traffic communication system, and traffic management method |
JP7401217B2 (en) | 2019-07-29 | 2023-12-19 | 京セラ株式会社 | Base station, traffic communication system, and traffic management method |
JP2021086347A (en) * | 2019-11-27 | 2021-06-03 | 京セラ株式会社 | Traffic communication system, roadside machine, and teacher data generation method |
JP7296305B2 (en) | 2019-11-27 | 2023-06-22 | 京セラ株式会社 | Traffic communication system, roadside unit, and training data generation method |
CN112686122A (en) * | 2020-12-25 | 2021-04-20 | 浙江大华技术股份有限公司 | Human body and shadow detection method, device, electronic device and storage medium |
CN112686122B (en) * | 2020-12-25 | 2023-09-29 | 浙江大华技术股份有限公司 | Human body and shadow detection method and device, electronic equipment and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP5115390B2 (en) | 2013-01-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4871909B2 (en) | Object recognition apparatus and object recognition method | |
JP5223675B2 (en) | Vehicle detection device, vehicle detection method, and vehicle detection program | |
JP6082802B2 (en) | Object detection device | |
JP4654163B2 (en) | Vehicle surrounding environment recognition device and system | |
CN109703460B (en) | Multi-camera complex scene self-adaptive vehicle collision early warning device and early warning method | |
JP5115390B2 (en) | Mobile object identification device, computer program, and learning method of mobile object identification device | |
US20180211121A1 (en) | Detecting Vehicles In Low Light Conditions | |
CN110430401A (en) | Vehicle blind zone method for early warning, prior-warning device, MEC platform and storage medium | |
JP6626410B2 (en) | Vehicle position specifying device and vehicle position specifying method | |
CN110730966B (en) | System and method for pedestrian detection | |
JP2018022220A (en) | Behavior data analysis system, and behavior data analysis device, and behavior data analysis method | |
JP5062091B2 (en) | Moving object identification device, computer program, and optical axis direction specifying method | |
CN111967396A (en) | Processing method, device and equipment for obstacle detection and storage medium | |
CN111145569A (en) | Road monitoring and vehicle running control method and device and vehicle-road cooperative system | |
CN111967377A (en) | Method, device and equipment for identifying state of engineering vehicle and storage medium | |
JP5083164B2 (en) | Image processing apparatus and image processing method | |
JP2021531598A (en) | Systems and methods for use in object detection from video streams | |
KR20100105160A (en) | Auto transportation information extraction system and thereby method | |
KR100801989B1 (en) | Recognition system for registration number plate and pre-processor and method therefor | |
CN113538967B (en) | Vehicle-road cooperation device and method under crossroad scene | |
JPWO2019039157A1 (en) | Apparatus and method for identifying a small object area around a vehicle | |
CN114627439A (en) | Moving object detection method based on 360-degree look-around camera | |
CN104077566B (en) | Bayonet socket picture method for detecting human face based on color difference | |
JP2021152826A (en) | Information processing device, subject classification method, and subject classification program | |
KR101982091B1 (en) | Surround view monitoring system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110329 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120912 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120918 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121001 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151026 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |