JP2010039705A - Moving body identification device, computer program, and learning method for moving body identification device - Google Patents

Moving body identification device, computer program, and learning method for moving body identification device Download PDF

Info

Publication number
JP2010039705A
JP2010039705A JP2008201011A JP2008201011A JP2010039705A JP 2010039705 A JP2010039705 A JP 2010039705A JP 2008201011 A JP2008201011 A JP 2008201011A JP 2008201011 A JP2008201011 A JP 2008201011A JP 2010039705 A JP2010039705 A JP 2010039705A
Authority
JP
Japan
Prior art keywords
information
identification
unit
vehicle
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008201011A
Other languages
Japanese (ja)
Other versions
JP5115390B2 (en
Inventor
Masakatsu Higashikubo
政勝 東久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries Ltd filed Critical Sumitomo Electric Industries Ltd
Priority to JP2008201011A priority Critical patent/JP5115390B2/en
Publication of JP2010039705A publication Critical patent/JP2010039705A/en
Application granted granted Critical
Publication of JP5115390B2 publication Critical patent/JP5115390B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a moving body identification device and a computer program, which identify a moving body such as a vehicle with high accuracy and efficiently collect learning data, and to provide a learning method for the moving body identification device. <P>SOLUTION: A feature amount extraction part 40 calculates a feature vector of a detection range specified by a partial image specification part 30. An identification part 50 performs predetermined identification decision, including where a vehicle exists or not, using the feature vector as input information, and outputs an identification result. A vehicle position decision part 60 decides whether the vehicle is present inside the detection range or not based on position information of the vehicle included in vehicle information received from the vehicle through a communication part 14 when the vehicle is identified in the detection range. A learning part 70 performs learning of an identification device by use of the feature vector and the vehicle information transmitted by the vehicle. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、道路を含む領域を撮像して得られた撮像画像から特徴量を抽出し、抽出した特徴量を用いて移動体を識別する移動体識別装置、該移動体識別装置をコンピュータで実現するためのコンピュータプログラム及び移動体識別装置の学習方法に関する。   The present invention extracts a feature quantity from a captured image obtained by imaging a region including a road, identifies a mobile object using the extracted feature quantity, and realizes the mobile object identification apparatus with a computer The present invention relates to a computer program and a learning method for a mobile object identification device.

路側インフラ装置と車両(車載装置)とが有線又は無線による路車間通信にて情報を交換し、各装置が単独では実現できなかった機能を実現させるシステムが検討されている。特に、車両の運転者からは死角となる場所に存在する車両又は歩行者の情報をインフラ側より車両側に提供することで未然に交通事故を抑止する路車協調型安全運転支援システムの検討が進められている。   A system in which a roadside infrastructure device and a vehicle (on-vehicle device) exchange information by wired or wireless road-to-vehicle communication and each device realizes a function that cannot be realized independently has been studied. In particular, there is a study on a road-vehicle cooperative safe driving support system that suppresses traffic accidents by providing information on vehicles or pedestrians in a blind spot from the vehicle side to the vehicle side from the infrastructure side. It is being advanced.

このようなシステムを実現するための主要技術としては、例えば、車両の位置情報、車種情報(例えば、自動車、二輪車又は歩行者等)、車両の移動速度又は移動方向などの情報を検出するセンサが必要である。このようなセンサとしては、例えば、レーザを利用するもの、あるいは、ビデオカメラで撮像した画像を利用するものがあるが、情報を検出することができる範囲の広さ、製品寿命、コスト及び性能などのバランスを考慮すると画像処理方式が有力である。   As main technologies for realizing such a system, for example, there are sensors that detect information such as vehicle position information, vehicle type information (for example, automobiles, two-wheeled vehicles, pedestrians, etc.), vehicle movement speed or direction, and the like. is necessary. Examples of such sensors include those that use lasers or those that use images captured by a video camera. The range of information that can be detected, product life, cost, performance, etc. Considering this balance, the image processing method is effective.

しかし、画像処理方式のセンサ(画像センサ)の課題の1つとして、天候変化や道路周辺物の影響など様々な環境変化があり、これらすべてに対処した画像処理方式の実現は難しい。一方で、日照条件の変化や風により木々の揺れなど様々な外乱の影響を機械学習の過程に含めて学習し、これらの外乱を検出対象から除外する技術が開示されている(非特許文献1参照)。
「カメラ映像から異常動作をリアルタイムで自動検出するソフトを開発」、[online]、2007年10月16日発表、独立行政法人 産業技術総合研究所ホームページ[平成20年8月1日 検索]、インターネット(URL:http://www.aist.go.jp/aist_j/press_release/pr2007/pr20071016/pr20071016.html)
However, as one of the problems of an image processing system sensor (image sensor), there are various environmental changes such as weather changes and the influence of surrounding objects on the road, and it is difficult to realize an image processing system that can cope with all of them. On the other hand, a technique is disclosed in which the effects of various disturbances such as tree fluctuations due to changes in sunshine conditions and wind are included in the machine learning process, and these disturbances are excluded from detection targets (Non-Patent Document 1). reference).
"Development of software that automatically detects abnormal behavior in real time from camera images", [online], announced on October 16, 2007, National Institute of Advanced Industrial Science and Technology (AIST) search [August 1, 2008 search], Internet (URL: http://www.aist.go.jp/aist_j/press_release/pr2007/pr20071016/pr20071016.html)

非特許文献1の技術を適用すれば、環境変化などの起こりえる映像シーンのデータを予めすべて収集し、収集したデータを学習用データとして車両を識別する識別装置を学習させることは可能である。しかし、カメラを設置する地点が異なれば、道路状況や交通状況が変化し、また、同一地点であっても時間帯、曜日、天候など様々な環境変化要因が存在するため、起こりえる環境変化のデータをすべて収集するには、多大な労力及び費用を必要とする。このため、従来の方法はあまり実現的ではなく、適用範囲も限定的であり、車両などを識別する識別装置の学習のために必要な学習データを効率的に収集することが望まれていた。   If the technique of Non-Patent Document 1 is applied, it is possible to collect all the data of a video scene that may occur such as an environmental change in advance, and to learn an identification device that identifies the vehicle using the collected data as learning data. However, if the location where the camera is installed is different, the road and traffic conditions will change, and even at the same location, there are various environmental change factors such as time of day, day of the week, and weather. Collecting all the data requires a great deal of labor and expense. For this reason, the conventional method is not so feasible and has a limited application range, and it has been desired to efficiently collect learning data necessary for learning of an identification device for identifying a vehicle or the like.

本発明は、斯かる事情に鑑みてなされたものであり、車両などの移動体を高精度に識別することができるとともに学習データを効率的に収集することができる移動体識別装置、該移動体識別装置をコンピュータで実現するためのコンピュータプログラム及び移動体識別装置の学習方法を提供することを目的とする。   The present invention has been made in view of such circumstances, and can identify a moving body such as a vehicle with high accuracy and can efficiently collect learning data, and the moving body. It is an object of the present invention to provide a computer program for realizing an identification device by a computer and a learning method for a mobile object identification device.

第1発明に係る移動体識別装置は、道路を含む領域を撮像して得られた撮像画像から特徴量を抽出し、抽出した特徴量を用いて移動体を識別する移動体識別装置であって、移動体の位置情報を含む移動体情報を取得する移動体情報取得手段と、撮像画像上の部分画像を特定する部分画像特定手段と、該部分画像特定手段で特定した部分画像の特徴量を抽出する特徴量抽出手段と、該特徴量抽出手段で抽出した特徴量を用いて移動体を識別する識別手段と、該識別手段で移動体を識別した場合、前記移動体情報取得手段で取得した位置情報及び前記部分画像特定手段で特定した部分画像の撮像画像上の位置に基づいて、前記移動体情報取得手段で移動体情報を取得した移動体が前記部分画像に撮像されているか否かを判定する判定手段と、該判定手段で前記移動体が撮像されていると判定した場合、前記特徴量抽出手段で抽出した特徴量及び前記移動体情報取得手段で取得した移動体情報を用いて前記識別手段に識別に用いる情報を学習させる学習手段とを備えることを特徴とする。   A mobile object identification device according to a first aspect of the present invention is a mobile object identification device that extracts a feature amount from a captured image obtained by imaging an area including a road and identifies the mobile object using the extracted feature amount. Mobile body information acquisition means for acquiring mobile body information including position information of the mobile body, partial image specification means for specifying a partial image on the captured image, and feature amounts of the partial images specified by the partial image specification means Feature amount extracting means to be extracted; identification means for identifying a moving body using the feature amount extracted by the feature amount extracting means; and when the moving body is identified by the identifying means, acquired by the moving body information acquisition means Based on the position information and the position on the captured image of the partial image specified by the partial image specifying means, it is determined whether or not the mobile object whose moving body information is acquired by the moving body information acquisition means is captured in the partial image. Determination means for determining, and If it is determined that the moving body is imaged by the means, the identification unit uses the feature amount extracted by the feature amount extraction unit and the moving body information acquired by the mobile body information acquisition unit to use the information used for identification. And learning means for learning.

第2発明に係る移動体識別装置は、第1発明において、移動体の有無を判定するための移動体識別手段を備え、前記学習手段は、前記特徴量抽出手段で抽出した特徴量及び前記判定手段で判定した判定結果を用いて前記移動体識別手段に識別に用いる情報を学習させるように構成してあることを特徴とする。   According to a second aspect of the present invention, there is provided a moving body identification apparatus according to the first aspect, further comprising a moving body identification means for determining the presence or absence of a moving body, wherein the learning means includes the feature amount extracted by the feature amount extraction means and the determination. The mobile object identifying means is configured to learn information used for identification using the determination result determined by the means.

第3発明に係る移動体識別装置は、第1発明又は第2発明において、天候を含む環境状況を識別する環境識別手段を備え、前記移動体情報取得手段は、ワイパーの動作情報を含む移動体情報を取得するように構成してあり、前記学習手段は、前記特徴量抽出手段で抽出した特徴量及び前記移動体情報取得手段で取得した移動体情報を用いて前記環境識別手段に識別に用いる情報を学習させるように構成してあることを特徴とする。   According to a third aspect of the present invention, in the first or second aspect, the mobile unit identification device includes an environment identification unit that identifies an environmental situation including weather, and the mobile unit information acquisition unit includes a wiper operation information. Information is acquired, and the learning unit uses the feature amount extracted by the feature amount extraction unit and the moving body information acquired by the moving body information acquisition unit to be used for identification by the environment identification unit. It is configured to learn information.

第4発明に係る移動体識別装置は、第1発明又は第2発明において、昼夜の別を含む環境状況を識別する環境識別手段を備え、前記移動体情報取得手段は、車灯を含む移動体情報を取得するように構成してあり、前記学習手段は、前記特徴量抽出手段で抽出した特徴量及び前記移動体情報取得手段で取得した移動体情報を用いて前記環境識別手段に識別に用いる情報を学習させるように構成してあることを特徴とする。   According to a fourth aspect of the present invention, in the first or second aspect of the present invention, the mobile unit identification device further includes an environment identification unit that identifies environmental conditions including day and night, and the mobile unit information acquisition unit includes a vehicle light. Information is acquired, and the learning unit uses the feature amount extracted by the feature amount extraction unit and the moving body information acquired by the moving body information acquisition unit to be used for identification by the environment identification unit. It is configured to learn information.

第5発明に係る移動体識別装置は、第3発明又は第4発明において、異なる環境毎に移動体の有無を判定するための環境別移動体識別手段を備え、前記学習手段は、前記特徴量抽出手段で抽出した特徴量、前記判定手段で判定した判定結果及び前記移動体情報取得手段で取得した移動体情報を用いて前記環境別移動体識別手段に識別に用いる情報を学習させるように構成してあることを特徴とする。   According to a fifth aspect of the present invention, there is provided a mobile unit identification apparatus according to the third or fourth aspect, further comprising environment-specific mobile unit identification means for determining the presence or absence of a mobile unit for each different environment, wherein the learning unit includes the feature quantity. The environment-based mobile object identification means is configured to learn information used for identification using the feature amount extracted by the extraction means, the determination result determined by the determination means, and the mobile object information acquired by the mobile object information acquisition means. It is characterized by being.

第6発明に係る移動体識別装置は、第2発明乃至第5発明のいずれか1つにおいて、移動体の種類を判定するための種類識別手段を備え、前記移動体情報取得手段は、車種又は二輪車若しくは歩行者の別を含む移動体情報を取得するように構成してあり、前記学習手段は、前記特徴量抽出手段で抽出した特徴量及び前記移動体情報取得手段で取得した移動体情報を用いて前記種類識別手段に識別に用いる情報を学習させるように構成してあることを特徴とする。   According to a sixth aspect of the present invention, there is provided a mobile unit identification apparatus according to any one of the second to fifth aspects of the present invention, comprising a type identification unit for determining the type of the mobile unit, It is configured to acquire moving body information including whether the vehicle is a motorcycle or a pedestrian, and the learning means uses the feature amount extracted by the feature amount extraction means and the moving body information acquired by the moving body information acquisition means. The type identifying means is used to learn information used for identification.

第7発明に係る移動体識別装置は、第1発明乃至第6発明のいずれか1つにおいて、他の移動体識別装置から前記識別手段に識別に用いる情報を学習させるための学習データを取得する学習データ取得手段を備え、前記学習手段は、前記学習データ取得手段で取得した学習データを用いて前記識別手段に識別に用いる情報を学習させるように構成してあることを特徴とする。   According to a seventh aspect of the present invention, in any one of the first to sixth aspects, the mobile object identification device acquires learning data for causing the identification means to learn information used for identification from another mobile object identification device. Learning data acquisition means is provided, and the learning means is configured to cause the identification means to learn information used for identification using the learning data acquired by the learning data acquisition means.

第8発明に係る移動体識別装置は、第7発明において、他の移動体識別装置の撮像条件を取得する撮像条件取得手段と、該撮像条件取得手段で取得した撮像条件と自身の撮像条件との比較結果を用いて、前記学習データ取得手段で取得した学習データを用いて学習させるか否かを決定する決定手段とを備えることを特徴とする。   According to an eighth aspect of the present invention, in the seventh aspect, the mobile object identification device includes: an imaging condition acquisition unit that acquires an imaging condition of another mobile body identification device; an imaging condition acquired by the imaging condition acquisition unit; And determining means for determining whether or not learning is performed using the learning data acquired by the learning data acquiring means.

第9発明に係るコンピュータプログラムは、コンピュータを、道路を含む領域を撮像して得られた撮像画像から特徴量を抽出し、抽出した特徴量を用いて移動体を識別する手段として機能させるためのコンピュータプログラムであって、コンピュータを、撮像画像上の部分画像を特定する部分画像特定手段と、特定した部分画像の特徴量を抽出する特徴量抽出手段と、抽出した特徴量を用いて移動体を識別する識別手段と、移動体を識別した場合、移動体の位置情報及び特定した部分画像の撮像画像上の位置に基づいて、前記移動体が前記部分画像に撮像されているか否かを判定する判定手段と、前記移動体が撮像されていると判定した場合、抽出した特徴量及び前記移動体の移動体情報を用いて前記識別手段に識別に用いる情報を学習させる学習手段として機能させることを特徴とする。   A computer program according to a ninth aspect is a computer program for causing a computer to function as a means for extracting a feature amount from a captured image obtained by capturing an area including a road and identifying a moving object using the extracted feature amount. A computer program comprising: a computer, a partial image specifying unit that specifies a partial image on a captured image; a feature amount extracting unit that extracts a feature amount of the specified partial image; and a moving object using the extracted feature amount. When identifying the identifying means and the moving body, it is determined whether the moving body is imaged in the partial image based on the position information of the moving body and the position of the specified partial image on the captured image. When it is determined that the moving unit is picked up by the determining unit, the identifying unit is made to learn information used for identification using the extracted feature amount and the moving unit information of the moving unit. Characterized in that to function as learning means.

第10発明に係る移動体識別装置の学習方法は、道路を含む領域を撮像して得られた撮像画像から特徴量を抽出し、抽出した特徴量を用いて移動体を識別する識別手段を備えた移動体識別装置の学習方法であって、前記移動体識別装置は、移動体の位置情報を含む移動体情報を取得し、撮像画像上の部分画像を特定し、特定した部分画像の特徴量を抽出し、抽出した特徴量を用いて移動体を識別し、移動体を識別した場合、取得した位置情報及び特定した部分画像の撮像画像上の位置に基づいて、前記移動体情報を取得した移動体が前記部分画像に撮像されているか否かを判定し、前記移動体が撮像されていると判定した場合、抽出した特徴量及び取得した移動体情報を用いて前記識別手段に識別に用いる情報を学習させることを特徴とする。   According to a tenth aspect of the present invention, there is provided a learning method for a mobile object identification device including an identification unit that extracts a feature amount from a captured image obtained by imaging a region including a road and identifies the mobile object using the extracted feature amount. The mobile object identification device learning method, wherein the mobile object identification device acquires mobile object information including position information of a mobile object, specifies a partial image on a captured image, and features of the specified partial image When the moving body is identified using the extracted feature amount, the moving body information is acquired based on the acquired position information and the position on the captured image of the specified partial image. It is determined whether or not the moving body is captured in the partial image, and when it is determined that the moving body is captured, the extracted means and the acquired moving body information are used for identification in the identification unit. Characterized by learning information

第1発明、第9発明及び第10発明にあっては、撮像画像上の部分画像を特定し、特定した部分画像の特徴量を抽出する。部分画像は、例えば、24×32画素の検出範囲であって、検出範囲を撮像画像上で走査して検出範囲の特徴量を抽出する。また、特徴量は、例えば、HOG(Histograms of Oriented Gradients)特徴を用いることができ、検出範囲の輝度の勾配強度を勾配方向毎にヒストグラム化した特徴ベクトルである。なお、特徴量は、HOG特徴に限定されるものではなく、エッジ検出により抽出してもよい。抽出した特徴量を用いて移動体(例えば、車両)を識別した場合、移動体の位置情報と特定した部分画像(移動体を識別した際の特徴量を抽出した検出範囲)の撮像画像上の位置に基づいて、移動体情報(例えば、車両の位置情報以外に車速、車種に関する情報、ヘッドライト又はワイパー等の動作状態を示す情報など)を取得した移動体が部分画像(検出範囲)内にあるか否かを判定する。移動体が撮像されている(検出範囲内にある)と判定した場合、抽出した特徴量及び取得した移動体情報を用いて識別手段(識別器)に識別に用いる情報(例えば、識別器の識別パラメータ)を学習させる。   In the first invention, the ninth invention, and the tenth invention, the partial image on the captured image is specified, and the feature amount of the specified partial image is extracted. The partial image is, for example, a detection range of 24 × 32 pixels, and the detection range is scanned on the captured image to extract the feature amount of the detection range. The feature amount may be, for example, a HOG (Histograms of Oriented Gradients) feature, and is a feature vector in which the intensity gradient intensity of the detection range is histogrammed for each gradient direction. Note that the feature amount is not limited to the HOG feature, and may be extracted by edge detection. When a moving object (for example, a vehicle) is identified using the extracted feature value, the position information of the moving object and the specified partial image (detection range from which the feature value is extracted when the moving object is identified) on the captured image Based on the position, the moving body that has acquired the moving body information (for example, information on the vehicle speed, information on the vehicle type, information indicating the operating state of the headlight, wiper, etc. in addition to the vehicle position information) is included in the partial image (detection range). It is determined whether or not there is. When it is determined that the moving body is imaged (within the detection range), information used for identification (for example, identification of the classifier) using the extracted feature amount and the acquired moving body information Parameter).

識別器は、特徴量(特徴ベクトル)が入力された場合、入力された特徴量と識別器パラメータとにより識別結果(判定情報、例えば、車両あり、車両なし等)を出力するものである。移動体(車両)が検出範囲内にあると判定された場合、移動体識別装置は、その検出範囲に車両が存在する場合の特徴量(識別器の入力情報)を抽出することができるとともに、その検出範囲内で撮像された車両の車両情報(識別器の出力情報)を取得することができる。すなわち、識別器の入力情報として車両が存在する場合の特徴量と出力情報として車両ありの判定情報とを取得することができ、これらの情報を用いることで識別器パラメータを求めることができ、識別器を学習させることができる。また、求めた識別器パラメータと抽出した特徴量を学習データとして記憶することもできる。これにより、多くの映像シーンを効率的に収集することができ、識別器の学習を効率的に行うことができるとともに、識別器の識別精度を向上させることができる。   When a feature amount (feature vector) is input, the discriminator outputs a discrimination result (determination information, for example, there is a vehicle, no vehicle, etc.) based on the input feature amount and the discriminator parameter. When it is determined that the mobile body (vehicle) is within the detection range, the mobile body identification device can extract the feature amount (input information of the identifier) when the vehicle is present in the detection range, The vehicle information (output information of the discriminator) of the vehicle imaged within the detection range can be acquired. That is, it is possible to obtain the feature amount when the vehicle exists as the input information of the discriminator and the determination information with the vehicle as the output information, and the discriminator parameters can be obtained by using these information, Can learn the vessel. Further, the obtained discriminator parameter and the extracted feature amount can be stored as learning data. Thereby, many video scenes can be collected efficiently, learning of the discriminator can be performed efficiently, and discrimination accuracy of the discriminator can be improved.

第2発明にあっては、抽出した特徴量及び判定結果を用いて、移動体(車両)の有無を判定する移動体識別手段(車両有無識別器)に識別に用いる情報を学習させる。例えば、車両有無識別器の入力情報として車両が存在する場合の特徴量と判定結果(例えば、車両ありの判定情報)とを用いて車両有無識別器パラメータを求めることができ、車両有無識別器を学習させることができる。また、車両有無識別器の入力情報として車両が存在しない場合の特徴量と判定結果(例えば、車両なしの判定情報)とを用いて車両有無識別器パラメータを求めることができ、車両有無識別器を学習させることができる。これにより、多くの映像シーンを効率的に収集することができ、車両有無識別器の学習を効率的に行うことができるとともに、車両有無識別器の識別精度を向上させることができる。   In the second invention, using the extracted feature amount and the determination result, the mobile body identifying means (vehicle presence / absence classifier) that determines the presence / absence of the mobile body (vehicle) is caused to learn information used for identification. For example, a vehicle presence / absence discriminator parameter can be obtained using a feature amount and a determination result (for example, determination information with a vehicle) when there is a vehicle as input information of the vehicle presence / absence discriminator. You can learn. In addition, the vehicle presence / absence discriminator parameters can be obtained using the feature amount and the determination result (for example, determination information indicating no vehicle) when no vehicle is present as input information of the vehicle presence / absence discriminator. You can learn. Thereby, many video scenes can be efficiently collected, the vehicle presence / absence discriminator can be efficiently learned, and the identification accuracy of the vehicle presence / absence discriminator can be improved.

第3発明にあっては、抽出した特徴量及び取得した移動体情報を用いて、天候を含む環境状況を識別する環境識別手段(環境識別器)に識別に用いる情報を学習させる。環境状況は、例えば、晴天、雨天などである。環境識別器の入力情報としての特徴量と移動体情報(例えば、ワイパー動作ありの判定情報)とを用いて雨天用の環境識別器パラメータを求めることができ、環境識別器を学習させることができる。これにより、多くの映像シーンを効率的に収集することができ、環境識別器の学習を効率的に行うことができるとともに、環境識別器の識別精度を向上させることができる。   In the third aspect of the invention, information used for identification is learned by an environment identification unit (environment identifier) that identifies an environmental situation including weather using the extracted feature amount and the acquired moving body information. The environmental situation is, for example, fine weather, rainy weather, and the like. The environment classifier parameters for rainy weather can be obtained using the feature quantity as input information of the environment classifier and the moving body information (for example, determination information with wiper operation), and the environment classifier can be learned. . As a result, many video scenes can be efficiently collected, the environment identifier can be learned efficiently, and the identification accuracy of the environment identifier can be improved.

第4発明にあっては、抽出した特徴量及び取得した移動体情報を用いて、昼夜の別を含む環境状況を識別する環境識別手段(環境識別器)に識別に用いる情報を学習させる。環境状況は、例えば、昼、夕方、夜などである。環境識別器の入力情報としての特徴量と移動体情報(例えば、ヘッドライト動作ありの判定情報)とを用いて夜間用の環境識別器パラメータを求めることができ、環境識別器を学習させることができる。これにより、多くの映像シーンを効率的に収集することができ、環境識別器の学習を効率的に行うことができるとともに、環境識別器の識別精度を向上させることができる。   In the fourth invention, using the extracted feature quantity and the acquired moving body information, the environment identification means (environment identifier) for identifying the environmental situation including day and night is learned. The environmental situation is, for example, daytime, evening, night. It is possible to obtain an environment classifier parameter for night using feature values and moving body information (for example, determination information with headlight operation) as input information of the environment classifier, and to train the environment classifier. it can. As a result, many video scenes can be efficiently collected, the environment identifier can be learned efficiently, and the identification accuracy of the environment identifier can be improved.

第5発明にあっては、抽出した特徴量、判定結果(例えば、車両あり又は車両なしの判定情報)及び取得した移動体情報を用いて、異なる環境毎に移動体の有無を判定するための環境別移動体識別手段(環境別車両有無識別器)に識別に用いる情報を学習させる。例えば、環境別車両有無識別器の入力情報としての特徴量と、判定結果(例えば、車両ありの判定情報)及び移動体情報(例えば、ワイパー動作ありの判定情報)とを用いて雨天用車両有無識別器パラメータを求めることができ、環境別車両有無識別器を学習させることができる。また、環境別車両有無識別器の入力情報としての特徴量と、判定結果(例えば、車両ありの判定情報)移動体情報(例えば、ヘッドライト動作ありの判定情報)とを用いて夜間用車両有無識別器パラメータを求めることができ、環境別車両有無識別器を学習させることができる。これにより、多くの映像シーンを効率的に収集することができ、環境別車両有無識別器の学習を効率的に行うことができるとともに、環境別車両有無識別器の識別精度を向上させることができる。   In the fifth invention, using the extracted feature amount, the determination result (for example, determination information with or without a vehicle) and the acquired moving body information, the presence or absence of the moving body is determined for each different environment. Information used for identification is learned by the environment-specific moving body identification means (environment-specific vehicle presence / absence identifier). For example, the presence / absence of a vehicle for rainy weather using the feature amount as input information of the vehicle presence / absence discriminator according to the environment, the determination result (for example, determination information with a vehicle) and the moving body information (for example, determination information with a wiper operation) A discriminator parameter can be obtained, and an environment-specific vehicle presence / absence discriminator can be learned. Further, the presence / absence of a vehicle for nighttime using the feature amount as input information of the vehicle presence / absence discriminator according to the environment, and the determination result (for example, determination information with a vehicle) and moving body information (for example, determination information with headlight operation). A discriminator parameter can be obtained, and an environment-specific vehicle presence / absence discriminator can be learned. As a result, many video scenes can be efficiently collected, the environment-specific vehicle presence / absence classifier can be efficiently learned, and the identification accuracy of the environment-specific vehicle presence / absence classifier can be improved. .

第6発明にあっては、抽出した特徴量及び取得した移動体情報を用いて、移動体の種類を判定するための種類識別手段(車種識別器)に識別に用いる情報を学習させる。移動体の種類は、例えば、車種情報であり、普通車、大型車、二輪車、歩行者等などである。車種識別器の入力情報としての特徴量と移動体情報(例えば、車種情報)とを用いて車種識別器パラメータを求めることができ、車種識別器を学習させることができる。これにより、多くの映像シーンを効率的に収集することができ、車種識別器の学習を効率的に行うことができるとともに、車種識別器の識別精度を向上させることができる。   In the sixth invention, using the extracted feature quantity and the acquired mobile object information, the type identification means (vehicle type identifier) for determining the type of the mobile object is made to learn information used for identification. The type of the moving body is, for example, vehicle type information such as a normal vehicle, a large vehicle, a two-wheeled vehicle, and a pedestrian. The vehicle type discriminator parameter can be obtained by using the feature quantity as the input information of the vehicle type discriminator and the moving body information (for example, car type information), and the vehicle type discriminator can be learned. As a result, many video scenes can be efficiently collected, the vehicle type discriminator can be learned efficiently, and the discrimination accuracy of the car type discriminator can be improved.

第7発明にあっては、他の移動体識別装置から識別手段(識別器)に識別に用いる情報を学習させるための学習データを取得し、取得した学習データを用いて前記識別手段に識別に用いる情報を学習させる。他の移動体識別装置が設置された他の地点での映像シーンを収集することができ、一層多くの映像シーンを収集することができ、識別器の学習をさらに効率的に行うことができるとともに、識別器の識別精度を一層向上させることができる。   In the seventh aspect of the invention, learning data for learning the information used for identification by the identification means (identifier) is acquired from another mobile object identification device, and the identification means is used for identification using the acquired learning data. Learn the information to use. It is possible to collect video scenes at other points where other mobile unit identification devices are installed, collect more video scenes, and learn classifiers more efficiently. The identification accuracy of the classifier can be further improved.

第8発明にあっては、他の移動体識別装置の撮像条件を取得し、取得した撮像条件と自身の撮像条件との比較結果を用いて、取得した学習データを用いて学習させるか否かを決定する。撮像条件は、例えば、撮像装置(ビデオカメラ等)の俯角又は回転角などの条件である。撮像条件を比較して等しいか又は近似する場合、他の移動体識別装置で取得した学習データを用いて自身の識別器に識別に用いる情報を学習させる。これにより、有効な学習データだけを用いて識別器の学習を効率的に行うことができるとともに、識別器の識別精度を向上させることができる。   In the eighth invention, whether or not to acquire the imaging condition of the other mobile object identification device and learn using the acquired learning data using the comparison result between the acquired imaging condition and its own imaging condition To decide. Imaging conditions are conditions, such as a depression angle or a rotation angle, of an imaging device (video camera etc.), for example. When the imaging conditions are compared and are equal or approximate, the learning data acquired by another moving body identification device is used to learn information used for identification in its own classifier. As a result, it is possible to efficiently learn the discriminator using only valid learning data, and it is possible to improve the discrimination accuracy of the discriminator.

本発明にあっては、多くの映像シーンを効率的に収集することができ、識別器の学習を効率的に行うことができるとともに、識別器の識別精度を向上させることができる。   In the present invention, many video scenes can be collected efficiently, learning of the discriminator can be performed efficiently, and discrimination accuracy of the discriminator can be improved.

以下、本発明を実施の形態を示す図面に基づいて説明する。図1は本発明に係る移動体識別装置である車両識別装置100の構成の一例を示すブロック図である。車両識別装置100は、画像入力部11、A/D変換部12、画像メモリ13、通信部14、記憶部15、装置全体を制御する制御部20、部分画像特定部30、特徴量抽出部40、識別手段(識別器)としての識別部50、車両存在位置判定部60、学習部70などを備える。また、識別部50は、車両有無識別部51、車種識別部52、環境識別部53、環境別車両有無識別部54などを備えている。また、画像入力部11には、ビデオカメラ10を接続してある。なお、ビデオカメラ10は、車両識別装置100とは別個の装置であってもよく、あるいは、両者が一体をなす構成であってもよい。   Hereinafter, the present invention will be described with reference to the drawings illustrating embodiments. FIG. 1 is a block diagram showing an example of a configuration of a vehicle identification device 100 that is a moving body identification device according to the present invention. The vehicle identification device 100 includes an image input unit 11, an A / D conversion unit 12, an image memory 13, a communication unit 14, a storage unit 15, a control unit 20 that controls the entire device, a partial image specification unit 30, and a feature amount extraction unit 40. , An identification unit 50 as an identification unit (identifier), a vehicle presence position determination unit 60, a learning unit 70, and the like. The identification unit 50 includes a vehicle presence / absence identification unit 51, a vehicle type identification unit 52, an environment identification unit 53, an environment-specific vehicle presence / absence identification unit 54, and the like. A video camera 10 is connected to the image input unit 11. Note that the video camera 10 may be a separate device from the vehicle identification device 100, or may be configured such that both are integrated.

ビデオカメラ10は、道路を含む所要の領域を撮像すべく、所定の高さ、俯角及び回転角などの撮像条件が設定された状態で道路付近の所要の地点に設置してある。ビデオカメラ10は、撮像して得られた撮像画像を映像信号(アナログ信号)として画像入力部11へ出力する。   The video camera 10 is installed at a required point near the road in a state where imaging conditions such as a predetermined height, depression angle, and rotation angle are set in order to capture a required area including the road. The video camera 10 outputs a captured image obtained by imaging to the image input unit 11 as a video signal (analog signal).

画像入力部11は、取得した映像信号をA/D変換部12へ出力する。   The image input unit 11 outputs the acquired video signal to the A / D conversion unit 12.

A/D変換部12は、入力された映像信号をデジタル信号に変換し、変換したデジタル信号を画像データとして画像メモリ13へ記憶する。画像入力部11を介してビデオカメラ10から入力された撮像画像は、ビデオカメラ10のフレームレート(撮像時点の間隔、例えば、1秒間に30フレーム)と同期して、1フレーム単位(例えば、240×320画素)の画像データとして画像メモリ13に記憶される。   The A / D converter 12 converts the input video signal into a digital signal, and stores the converted digital signal in the image memory 13 as image data. The captured image input from the video camera 10 via the image input unit 11 is synchronized with the frame rate of the video camera 10 (interval at the time of imaging, for example, 30 frames per second) in units of one frame (for example, 240 Is stored in the image memory 13 as (× 320 pixels) image data.

図2は撮像画像の一例を示す説明図である。図2に示すように、ビデオカメラ10を所定の撮像条件で道路付近に設置することで、所要の道路を走行する車両を撮像することができる。図2では、撮像画像の大きさは240×320画素である。なお、撮像画像の大きさはこれに限定されるものではない。   FIG. 2 is an explanatory diagram illustrating an example of a captured image. As shown in FIG. 2, by installing the video camera 10 in the vicinity of a road under a predetermined imaging condition, it is possible to image a vehicle traveling on a required road. In FIG. 2, the size of the captured image is 240 × 320 pixels. Note that the size of the captured image is not limited to this.

通信部14は、狭域通信機能、UHF帯若しくはVHF帯などの無線LAN等の中域通信機能、及び携帯電話、PHS、多重FM放送若しくはインターネット通信などの広域通信機能を備える。通信部14は、ビデオカメラ10の撮像領域内又はその付近に存在する車両から所定の車両情報(例えば、車両の位置情報、車速情報、車種情報、ワイパー及びヘッドライト等の車灯の動作状況を示す情報など)を受信する。また、通信部14は、車両を識別した結果得られた識別情報を提供すべく付近を存在する車両へ送信する。また、通信部14は、交通管制センタ等に設置されたサーバ装置、他の車両識別装置との間で所定の情報の送受信を行う。   The communication unit 14 includes a narrow-area communication function, a mid-range communication function such as a wireless LAN such as a UHF band or a VHF band, and a wide-area communication function such as a mobile phone, PHS, multiple FM broadcasting, or Internet communication. The communication unit 14 obtains predetermined vehicle information (for example, vehicle position information, vehicle speed information, vehicle type information, operation statuses of vehicle lights such as wipers and headlights) from a vehicle existing in or near the imaging region of the video camera 10. Information). In addition, the communication unit 14 transmits the identification information obtained as a result of identifying the vehicle to a vehicle in the vicinity to provide the identification information. Moreover, the communication part 14 transmits / receives predetermined information between the server apparatus installed in the traffic control center etc., and another vehicle identification apparatus.

記憶部15は、制御部20の制御により、車両識別装置100の処理により得られたデータ、通信部14を介して受信したデータなどを記憶する。   The storage unit 15 stores data obtained by processing of the vehicle identification device 100, data received via the communication unit 14, and the like under the control of the control unit 20.

部分画像特定部30は、撮像画像上で所要の大きさの部分画像を特定し、特定した部分画像を撮像画像上で走査する。部分画像は、後述する特徴量を抽出するための検出範囲を画定する。   The partial image specifying unit 30 specifies a partial image having a required size on the captured image, and scans the specified partial image on the captured image. The partial image defines a detection range for extracting a feature amount described later.

図3は検出範囲の一例を示す説明図である。図3に示すように、検出範囲の大きさは、例えば、24×32画素である。検出範囲を撮像画像上で走査する場合、図3に示すように1回の走査で水平方向に16画素だけ検出範囲を移動させることができる。   FIG. 3 is an explanatory diagram showing an example of a detection range. As shown in FIG. 3, the size of the detection range is, for example, 24 × 32 pixels. When scanning the detection range on the captured image, as shown in FIG. 3, the detection range can be moved by 16 pixels in the horizontal direction in one scan.

特徴量抽出部40は、検出範囲の特徴量を抽出する。特徴量は、HOG(Histograms of Oriented Gradients)特徴を用いることができ、検出範囲の輝度の勾配強度を勾配方向毎にヒストグラム化した特徴ベクトルである。なお、特徴量は、HOG特徴に限定されるものではなく、エッジ検出により抽出してもよい。   The feature quantity extraction unit 40 extracts feature quantities in the detection range. The feature amount can be a HOG (Histograms of Oriented Gradients) feature, and is a feature vector in which the gradient intensity of the luminance in the detection range is histogrammed for each gradient direction. Note that the feature amount is not limited to the HOG feature, and may be extracted by edge detection.

以下、特徴量としての特徴ベクトルの算出方法について説明する。図4は局所領域の一例を示す説明図である。局所領域(ブロック)は、24×32画素の検出範囲から一部が重複するように抽出され、例えば、16×16画素の大きさを有する。従って、検出範囲から6つの局所領域を抽出することができる。また、局所領域は、4個のセル(8×8画素の領域)で構成されている。   Hereinafter, a method for calculating a feature vector as a feature amount will be described. FIG. 4 is an explanatory diagram showing an example of the local region. The local area (block) is extracted so as to partially overlap from the detection range of 24 × 32 pixels, and has a size of 16 × 16 pixels, for example. Accordingly, six local regions can be extracted from the detection range. The local area is composed of four cells (area of 8 × 8 pixels).

図5は輝度の勾配強度と勾配方向の一例を示す説明図である。セル内の画素の位置を(x、y)で表わす。画素(x、y)における輝度の勾配強度をm(x、y)、勾配方向をθ(x、y)とする。勾配強度m(x、y)、勾配方向θ(x、y)は、式(1)〜式(3)で求めることができる。ここで、fx(x、y)は横方向(x方向)の輝度勾配であり、fy(x、y)は縦方向(y方向)の輝度勾配であり、式(3)以外に、例えば、Sobelフィルタにより求めることができる。また、L(x、y)は、画素(x、y)の輝度である。   FIG. 5 is an explanatory diagram showing an example of the luminance gradient strength and gradient direction. The position of the pixel in the cell is represented by (x, y). It is assumed that the luminance gradient intensity at pixel (x, y) is m (x, y) and the gradient direction is θ (x, y). The gradient strength m (x, y) and the gradient direction θ (x, y) can be obtained by Equations (1) to (3). Here, fx (x, y) is a luminance gradient in the horizontal direction (x direction), fy (x, y) is a luminance gradient in the vertical direction (y direction), and in addition to Expression (3), for example, It can be obtained by a Sobel filter. L (x, y) is the luminance of the pixel (x, y).

Figure 2010039705
Figure 2010039705

そして、セル毎に8方向のヒストグラムを作成する。図6は勾配方向の一例を示す説明図であり、図7は勾配強度のヒストグラムの一例を示す説明図である。図6に示すように、勾配方向を45°毎に分割し8方向の(j=1〜8)勾配方向を設定する。また、図7に示すように、算出した輝度の勾配強度を勾配方向毎に振り分けてヒストグラムを作成する。勾配強度を算出する場合に、局所領域(ブロック)の中心からの距離に反比例したσ=1.6のガウシアンフィルタを局所領域に対して施してエッジ強度を平滑化することもできる。   Then, a histogram in eight directions is created for each cell. FIG. 6 is an explanatory diagram showing an example of a gradient direction, and FIG. 7 is an explanatory diagram showing an example of a histogram of gradient strength. As shown in FIG. 6, the gradient direction is divided every 45 °, and eight (j = 1 to 8) gradient directions are set. Further, as shown in FIG. 7, a histogram is created by assigning the calculated intensity gradient intensity for each gradient direction. When calculating the gradient strength, the edge strength can be smoothed by applying a Gaussian filter of σ = 1.6 inversely proportional to the distance from the center of the local region (block) to the local region.

セル毎に求めたヒストグラムを局所領域でまとめ、局所領域毎のヒストグラムの最大要素(勾配強度の最大値)で各ヒストグラムの要素(勾配強度)を除算して正規化する。これにより、1つの局所領域(ブロック)で抽出された32次元の特徴ベクトルの最大成分は1となる。1つの検出範囲で6つの局所領域があるので、式(4)に示すように、1つの検出範囲について192次元(32次元×6=192次元)の特徴ベクトルVを算出することができる。   Histograms obtained for each cell are collected in a local region, and normalized by dividing each histogram element (gradient strength) by the maximum element (gradient strength maximum) of the histogram for each local region. As a result, the maximum component of the 32-dimensional feature vector extracted in one local region (block) is 1. Since there are six local regions in one detection range, a feature vector V of 192 dimensions (32 dimensions × 6 = 192 dimensions) can be calculated for one detection range as shown in Expression (4).

Figure 2010039705
Figure 2010039705

隣接画素の勾配を検出範囲毎にヒストグラム化して正規化するため、道路を撮像して得られる撮像画像に対するノイズ又は明るさの変化、影の有無などの影響を受けにくく局所的な幾何学変化(平行移動、回転など)に対して頑健である。   Since the gradient of adjacent pixels is normalized by creating a histogram for each detection range, local geometrical changes that are less affected by noise or brightness changes and the presence or absence of shadows on captured images obtained by imaging roads ( Robust against translation, rotation, etc.).

識別部50は、特徴量抽出部40で抽出した特徴量(特徴ベクトル)を入力情報として、車両の有無を含む所定の識別判定を行い、識別結果(判定情報)を出力する。識別部50は、車両有無識別器を有する車両有無識別部51、車種識別器を有する車種識別部52、環境識別器を有する環境識別部53、環境別車両有無識別器を有する環境別車両有無識別部54などを備えている。   The identification unit 50 uses the feature quantity (feature vector) extracted by the feature quantity extraction unit 40 as input information, performs a predetermined identification determination including the presence or absence of a vehicle, and outputs an identification result (determination information). The discriminating unit 50 includes a vehicle presence / absence discriminating unit 51 having a vehicle presence / absence discriminator, a vehicle type discriminating unit 52 having a vehicle type discriminator, an environment discriminating unit 53 having an environment discriminator, and an environment-specific vehicle presence / absence discriminating unit having environment-specific vehicle presence / absence discriminators. Part 54 and the like.

図8は識別部50の各識別器の概要を示す説明図であり、図9は識別部50の各識別器の識別内容を示す説明図である。車両有無識別器は、特徴ベクトルVが入力された場合、識別情報Dc=Ac・Vを出力する。ここで、Acは車両有無識別器の識別器パラメータである。車両有無識別器は、入力された特徴ベクトルVに対して、識別器パラメータAcによる所定の演算を行って、識別結果(クラス)として車両あり又は車両なしを判定する。出力された識別情報Dcが、例えば、Dc>0であれば車両ありと判定され、Dc<0であれば車両なしと判定することができる。なお、判定条件は一例であって、これに限定されるものではない。   FIG. 8 is an explanatory diagram showing an outline of each discriminator of the discriminating unit 50, and FIG. 9 is an explanatory diagram showing identification contents of each discriminator of the discriminating unit 50. When the feature vector V is input, the vehicle presence / absence discriminator outputs identification information Dc = Ac · V. Here, Ac is a discriminator parameter of the vehicle presence / absence discriminator. The vehicle presence / absence discriminator performs a predetermined calculation based on the discriminator parameter Ac on the input feature vector V, and determines whether there is a vehicle or no vehicle as an identification result (class). For example, if the output identification information Dc is Dc> 0, it is determined that there is a vehicle, and if Dc <0, it can be determined that there is no vehicle. Note that the determination condition is an example, and the present invention is not limited to this.

また、車種識別器は、特徴ベクトルVが入力された場合、識別情報Dt=At・Vを出力する。ここで、Atは車種識別器の識別器パラメータである。車種識別器は、入力された特徴ベクトルVに対して、識別器パラメータAtによる所定の演算を行って、識別結果(クラス)として、例えば、普通車、大型車、二輪車又は歩行者などの別を判定する。出力された識別情報Dtが、例えば、0<Dt<Tt1であれば普通車と判定され、Tt1<Dt<Tt2であれば大型車と判定され、Tt2<Dt<Tt3であれば二輪車と判定され、Dt<0であれば歩行者と判定することができる。なお、判定条件は一例であって、これに限定されるものではない。   In addition, when the feature vector V is input, the vehicle type identifier outputs identification information Dt = At · V. Here, At is a discriminator parameter of the vehicle type discriminator. The vehicle type discriminator performs a predetermined calculation based on the discriminator parameter At on the input feature vector V, and distinguishes the classification result (class), for example, an ordinary vehicle, a large vehicle, a two-wheeled vehicle or a pedestrian. judge. For example, if the output identification information Dt is 0 <Dt <Tt1, it is determined as a normal vehicle, if Tt1 <Dt <Tt2, it is determined as a large vehicle, and if Tt2 <Dt <Tt3, it is determined as a motorcycle. If Dt <0, it can be determined as a pedestrian. Note that the determination condition is an example, and the present invention is not limited to this.

また、環境識別器は、特徴ベクトルVが入力された場合、識別情報Dw=Aw・Vを出力する。ここで、Awは環境識別器の識別器パラメータである。環境識別器は、入力された特徴ベクトルVに対して、識別器パラメータAwによる所定の演算を行って、識別結果(クラス)として、例えば、昼、夕方、晴れの夜間、雨天の夜間などの別を判定する。出力された識別情報Dwが、例えば、0<Dw<Tw1であれば昼と判定され、Tw1<Dw<Tw2であれば夕方と判定され、Tw2<Dw<Tw3であれば晴れの夜間と判定され、Tw3<Dw<Tw4であれば雨天の夜間と判定することができる。なお、判定条件は一例であって、これに限定されるものではない。   Further, when the feature vector V is input, the environment classifier outputs the identification information Dw = Aw · V. Here, Aw is a classifier parameter of the environment classifier. The environment classifier performs a predetermined calculation based on the classifier parameter Aw on the input feature vector V, and the classification result (class) is, for example, different from daytime, evening, sunny night, rainy night, etc. Determine. For example, if the output identification information Dw is 0 <Dw <Tw1, it is determined as daytime, if Tw1 <Dw <Tw2, it is determined as evening, and if Tw2 <Dw <Tw3, it is determined as a clear night. If Tw3 <Dw <Tw4, it can be determined that the rainy night. Note that the determination condition is an example, and the present invention is not limited to this.

また、環境別車両有無識別器は、特徴ベクトルVが入力された場合、識別情報Dcw=Acw・Vを出力する。ここで、Acwは環境別車両有無識別器の識別器パラメータである。環境別車両有無識別器は、入力された特徴ベクトルVに対して、識別器パラメータAcwによる所定の演算を行って、識別結果(クラス)として、例えば、昼車両あり、夕方車両あり、晴夜車両あり、雨夜車両あり、昼車両なし、夕方車両なし、晴夜車両なし、雨夜車両なしなどの別を判定する。なお、判定内容は、上述の各識別器と同様に識別情報Dcwの値に応じて区別することができる。   Further, when the feature vector V is input, the environment-specific vehicle presence / absence discriminator outputs identification information Dcw = Acw · V. Here, Acw is a discriminator parameter of the vehicle presence / absence discriminator by environment. The environment-specific vehicle presence / absence discriminator performs a predetermined calculation based on the discriminator parameter Acw on the input feature vector V, and the discrimination result (class) is, for example, a day vehicle, an evening vehicle, or a sunny vehicle. It is determined whether there is a rainy night vehicle, no daytime vehicle, no evening vehicle, no clear night vehicle, no rainy night vehicle. Note that the determination contents can be distinguished according to the value of the identification information Dcw, as with the above-described classifiers.

車両存在位置判定部60は、検出範囲(部分画像)において車両有無識別部51で車両が識別された場合(車両ありと判定された場合)、通信部14を介して車両から受信した車両情報に含まれる車両の位置情報に基づいて、該車両が検出範囲内に存在するか否かを判定する。すなわち、車両存在位置判定部60は、車両情報を受信したときに、その車両情報を送信した車両が、特徴ベクトルを抽出して車両ありと判定された検出範囲内の車両と同一車両であるか否かを判定する。なお、同一車両であるか否かの判定は、車両の位置検出精度に応じて所要の誤差範囲を含めることができる。すなわち、車両の位置情報に誤差範囲を加味した位置が検出範囲内にあるか否かで判定すればよい。   When the vehicle presence / absence discriminating unit 51 identifies the vehicle in the detection range (partial image) (when it is determined that there is a vehicle), the vehicle presence position determination unit 60 uses the vehicle information received from the vehicle via the communication unit 14. Based on the position information of the included vehicle, it is determined whether or not the vehicle exists within the detection range. That is, when the vehicle presence position determination unit 60 receives the vehicle information, whether the vehicle that transmitted the vehicle information is the same vehicle as the vehicle in the detection range in which the feature vector is extracted and determined to be a vehicle. Determine whether or not. The determination of whether or not they are the same vehicle can include a required error range according to the position detection accuracy of the vehicle. That is, the determination may be made based on whether or not the position where the error range is added to the vehicle position information is within the detection range.

より具体的には、車両が検出範囲内に存在するか否かは、以下のように行うことができる。車両から受信した車両情報に含まれる車両の位置をPcarとし、特徴ベクトルを抽出して車両ありと判定された検出範囲の中心位置をPdetとする。ただし、Pcar及びPdetは、カメラ設置位置を基準とする実道路上での位置とする。この場合に、2つの位置の距離がある誤差(Err)範囲以下のとき、すなわち、|Pcar−Pdet|<Err、のとき、検出範囲内に車両が存在すると判定する。   More specifically, whether or not the vehicle exists within the detection range can be performed as follows. The position of the vehicle included in the vehicle information received from the vehicle is defined as Pcar, and the center position of the detection range in which the feature vector is extracted and determined to be present is defined as Pdet. However, Pcar and Pdet are positions on the actual road with the camera installation position as a reference. In this case, when the distance between the two positions is equal to or smaller than a certain error (Err) range, that is, when | Pcar−Pdet | <Err, it is determined that the vehicle exists within the detection range.

学習部70は、車両有無識別器、車種識別器、環境識別器、環境別車両有無識別器などの各識別器の識別器パラメータを求めることにより、各識別器に識別に用いる情報(識別パラメータ)の学習を行う。以下、識別器の学習方法について説明する。   The learning unit 70 obtains classifier parameters of each classifier such as a vehicle presence / absence classifier, a vehicle type classifier, an environment classifier, an environment-specific vehicle presence / absence classifier, and the like (information used for classification) for each classifier To learn. Hereinafter, a learning method of the classifier will be described.

図10は識別器の学習方法の一例を示す説明図である。なお、図10では車両有無識別器を例として説明するが、他の識別器の学習方法も同様である。図10(a)に示すように、車両有無識別器は、特徴ベクトルVが入力された場合、特徴ベクトルVに対して識別器パラメータAcによる所定の演算を施して、識別情報Dc=Ac・Vを出力するものである。なお、以下簡略化のため特徴ベクトルVを2次元ベクトルとして説明するが、学習方法は、次元の数にかかわらず同様に考えることができる。   FIG. 10 is an explanatory diagram illustrating an example of a learning method for a classifier. In FIG. 10, a vehicle presence / absence discriminator is described as an example, but the learning method of other discriminators is the same. As shown in FIG. 10A, when the feature vector V is input, the vehicle presence / absence discriminator performs a predetermined calculation based on the discriminator parameter Ac on the feature vector V to obtain the identification information Dc = Ac · V. Is output. For simplicity, the feature vector V will be described as a two-dimensional vector, but the learning method can be considered in the same manner regardless of the number of dimensions.

車両情報(位置情報を含む)を送信した車両が、特徴ベクトルを抽出して車両ありと判定された検出範囲内の車両と同一車両であると、車両存在位置判定部60で判定された場合、抽出された特徴ベクトルをV1とする。この場合、図10(b)に示すように、学習用データとしては、検出範囲で車両が識別された際の特徴ベクトルV1と、車両が送信した車両情報に基づいて検出範囲内に車両が存在すると車両存在位置判定部60で判定された判定情報d(例えば、d=1、車両あり)とが存在する。異なる時点で撮像された他の車両についても同様の処理を繰り返すことにより、学習データとして特徴ベクトルV2、…と、それに対応する判定情報d、…を得ることができる。また、検出範囲内に車両が存在しない際の特徴ベクトルVk、…と判定情報(d=0)、…を車両ありと同等数予め用意しておく。   When it is determined by the vehicle presence position determination unit 60 that the vehicle that has transmitted the vehicle information (including the position information) is the same vehicle as the vehicle within the detection range in which the feature vector is extracted and determined to be a vehicle, Let the extracted feature vector be V1. In this case, as shown in FIG. 10B, the learning data includes a feature vector V1 when the vehicle is identified in the detection range and a vehicle in the detection range based on the vehicle information transmitted by the vehicle. Then, the determination information d determined by the vehicle presence position determination unit 60 (for example, d = 1, with a vehicle) exists. By repeating the same processing for other vehicles imaged at different points in time, it is possible to obtain feature vectors V2,... And corresponding determination information d,. Further, feature vectors Vk when the vehicle does not exist within the detection range,... And determination information (d = 0),.

図10(c)に示すように、学習部70は、収集された学習用データを用いて、識別器パラメータAcを算出することにより、車両有無識別器の学習を行う。   As shown in FIG. 10C, the learning unit 70 learns the vehicle presence / absence discriminator by calculating the discriminator parameter Ac using the collected learning data.

なお、車両有無識別器の学習を行う場合、撮像画像上で車両が1台だけ撮像されている場合、あるいは、複数の車両が撮像されている場合には、車両同士が少なくとも1台分程度離隔しているときが学習を行いやすいので、このような条件を満たす場合に学習を行うようにしてもよい。   When learning the vehicle presence / absence discriminator, when only one vehicle is captured on the captured image, or when a plurality of vehicles are captured, the vehicles are separated by at least about one. Since learning is easy when the user is doing, learning may be performed when such a condition is satisfied.

車両が送信する位置情報は、例えば、車両に搭載したGPSにより位置検出を行うことにより得ることができる。また、技術発展に伴い、より高精度な位置検出が可能になれば、誤差範囲を小さく設定することにより、より正確な学習が可能になる。さらに、位置情報を含む車両情報を送信することができる車両の割合が大きくなれば、学習機会が増加し、より早く学習を進めることができる。   The position information transmitted by the vehicle can be obtained, for example, by performing position detection using a GPS mounted on the vehicle. Further, if the position detection with higher accuracy becomes possible as the technology develops, more accurate learning can be performed by setting the error range to be smaller. Furthermore, if the ratio of vehicles that can transmit vehicle information including position information increases, learning opportunities increase, and learning can proceed more quickly.

学習部70は、車両有無識別器の学習を行うときに、車両の位置情報に加えて車種情報を受信することができれば、車種識別器の学習も行うことができる。この場合、学習用データとしては、検出範囲で車両が識別された際の特徴ベクトルVと、車両が送信した車種情報に基づいて判定された判定情報d(例えば、普通車、大型車、二輪車など)とが存在する。   If learning unit 70 can receive vehicle type information in addition to vehicle position information when learning a vehicle presence / absence discriminator, it can also learn a vehicle type discriminator. In this case, the learning data includes the feature vector V when the vehicle is identified in the detection range and the determination information d determined based on the vehicle type information transmitted by the vehicle (for example, a normal vehicle, a large vehicle, a two-wheeled vehicle, etc. ) And exist.

学習部70は、車両より受信したワイパー及び車灯の動作状態を示す情報を判定情報として用い、環境識別器の学習を行うことができる。これにより、道路周辺の明るさや降雨状態、路面状態を推定することにより、その環境に応じた車両有無や車種判定のための学習ができる。例えば、情報を送信した車両の20%以下がヘッドライトを点灯している場合、昼と判定し、そのときに学習した識別器を昼用とすることができる。また、情報を送信した車両の20%以上80%以下がヘッドライトを点灯している場合、夕方と判定し、そのときに学習した識別器を夕方用とすることができる。また、情報を送信した車両の80%以上がヘッドライトを点灯し、20%以下がワイパー動作中である場合、晴れの夜と判定し、そのときに学習した識別器を晴夜用とすることができる。さらに、情報を送信した車両の80%以上がヘッドライトを点灯し、80%以上がワイパー動作中である場合、雨天の夜と判定し、そのときに学習した識別器を雨夜用とすることができる。環境識別器の学習を行う場合、必ずしも車両が検出範囲に存在しなくてもよい。   The learning unit 70 can learn the environment discriminator using information indicating the operation state of the wiper and the vehicle lamp received from the vehicle as the determination information. Thereby, by learning the brightness around the road, the rainfall state, and the road surface state, it is possible to learn for vehicle presence and vehicle type determination according to the environment. For example, when 20% or less of the vehicles that have transmitted information have their headlights turned on, it is possible to determine that it is daytime and use the classifier learned at that time for daytime. Further, when 20% or more and 80% or less of the vehicles that transmitted the information have the headlights on, it is determined that the vehicle is in the evening, and the classifier learned at that time can be used for the evening. In addition, when 80% or more of the vehicles that have transmitted information turn on the headlights and 20% or less are in the wiper operation, it is determined that the night is sunny, and the classifier learned at that time is for sunny night Can do. Furthermore, when 80% or more of the vehicles that have transmitted information turn on the headlights and more than 80% are in the wiper operation, it is determined that it is rainy night, and the classifier learned at that time is used for rainy night. it can. When learning the environment discriminator, the vehicle is not necessarily present in the detection range.

学習部70は、車両有無識別器の学習と環境識別器の学習とを行うことにより、環境別車両有無識別器の学習も行うことができる。   The learning unit 70 can also learn an environment-specific vehicle presence / absence discriminator by learning a vehicle presence / absence discriminator and an environment discriminator.

図11は車両識別装置100の情報提供モードの適用例を示す説明図である。図11に示すように、車両識別装置100を交差点付近に設置し、所要の撮像範囲をビデオカメラで撮像する。車両識別装置100は、撮像範囲外の車両C1、C2などに対して、見通し外の車両又は見通し外の歩行者などの識別を行い、識別結果に基づいて情報提供を行う。これにより、車両の運転者から死角となる地点の車両や歩行者の情報を提供することができ、交通事故を未然に防止することができる。   FIG. 11 is an explanatory diagram illustrating an application example of the information providing mode of the vehicle identification device 100. As shown in FIG. 11, the vehicle identification device 100 is installed near an intersection, and a required imaging range is imaged with a video camera. The vehicle identification device 100 identifies an out-of-sight vehicle or an out-of-sight pedestrian with respect to the vehicles C1, C2, and the like outside the imaging range, and provides information based on the identification result. Thereby, it is possible to provide information on a vehicle or a pedestrian at a spot that becomes a blind spot from the driver of the vehicle, and it is possible to prevent a traffic accident.

図12は車両識別装置100の学習モードの適用例を示す説明図である。図12に示すように、車両識別装置100を交差点付近に設置し、所要の撮像範囲をビデオカメラで撮像する。車両識別装置100は、撮像範囲を走行する車両C3を撮像するとともに、車両C3から車両C3の位置情報を含む車両情報を受信する。車両識別装置100は、撮像画像から抽出した特徴量(特徴ベクトル)及び/又は車両から受信した車両情報を判定情報として用いることにより識別器の学習を行う。これにより、多くの人手をかける必要もなく、また簡便かつ安価に識別器を学習するためのデータを効率的に収集することができる。   FIG. 12 is an explanatory diagram illustrating an application example of the learning mode of the vehicle identification device 100. As shown in FIG. 12, the vehicle identification device 100 is installed in the vicinity of an intersection, and a required imaging range is imaged with a video camera. The vehicle identification device 100 captures the vehicle C3 traveling in the imaging range and receives vehicle information including position information of the vehicle C3 from the vehicle C3. The vehicle identification device 100 learns the classifier by using the feature amount (feature vector) extracted from the captured image and / or the vehicle information received from the vehicle as determination information. As a result, it is not necessary to take a lot of manpower, and data for learning the discriminator can be efficiently collected simply and inexpensively.

制御部20、部分画像特定部30、特徴量抽出部40、識別部50、車両存在位置判定部60、学習部70などは、専用のハードウエア回路で実現することができる。また、各部の機能を定めたコンピュータプログラムをCPUで実行させることで実現することもできる。   The control unit 20, the partial image specifying unit 30, the feature amount extraction unit 40, the identification unit 50, the vehicle presence position determination unit 60, the learning unit 70, and the like can be realized by dedicated hardware circuits. It can also be realized by causing a CPU to execute a computer program that defines the function of each unit.

次に車両識別装置100の動作について説明する。図13は車両識別装置100の処理手順を示すフローチャートである。制御部20は、撮像画像を取得し(S11)、部分画像としての検出範囲を特定した上で走査する(S12)。制御部20は、検出範囲の特徴量としての特徴ベクトルを算出し(S13)、算出した特徴ベクトルに対して識別器パラメータによる演算を施して識別処理(例えば、車両の有無の識別)を行う(S14)。   Next, the operation of the vehicle identification device 100 will be described. FIG. 13 is a flowchart showing a processing procedure of the vehicle identification device 100. The control unit 20 acquires a captured image (S11), scans after specifying a detection range as a partial image (S12). The control unit 20 calculates a feature vector as a feature amount of the detection range (S13), and performs an identification process (for example, identification of the presence / absence of a vehicle) by performing an operation based on the classifier parameter on the calculated feature vector ( S14).

制御部20は、車両の有無を判定し(S15)、車両ありの場合(S15でYES)、車両の位置情報を含む車両情報を受信したか否かを判定する(S16)。車両情報を受信した場合(S16でYES)、制御部20は、受信した位置情報に基づいて車両位置が検出範囲内にあるか否かを判定する(S17)。   The control unit 20 determines whether or not there is a vehicle (S15). If there is a vehicle (YES in S15), the control unit 20 determines whether or not vehicle information including vehicle position information has been received (S16). When the vehicle information is received (YES in S16), the control unit 20 determines whether or not the vehicle position is within the detection range based on the received position information (S17).

車両位置が検出範囲内にある場合(S17でYES)、すなわち、車両情報を受信したときに、その車両情報を送信した車両が、特徴ベクトルを抽出して車両ありと判定された検出範囲内の車両と同一車両である場合、制御部20は、抽出した特徴ベクトル及び車両情報を用いて学習処理を行う(S18)。これにより、識別器の識別器パラメータを算出する。   When the vehicle position is within the detection range (YES in S17), that is, when the vehicle information is received, the vehicle that has transmitted the vehicle information extracts the feature vector and is within the detection range determined to have a vehicle. When it is the same vehicle as the vehicle, the control unit 20 performs a learning process using the extracted feature vector and vehicle information (S18). Thereby, the discriminator parameter of the discriminator is calculated.

制御部20は、特徴ベクトル、算出した識別器パラメータを学習データとして記憶する(S19)。制御部20は、撮像画像内をすべて走査したか否かを判定し(S20)、すべて走査していない場合(S20でNO)、ステップS12以降の処理を続ける。   The control unit 20 stores the feature vector and the calculated discriminator parameter as learning data (S19). The control unit 20 determines whether or not the entire captured image has been scanned (S20). If not all has been scanned (NO in S20), the processing from step S12 is continued.

すべて走査した場合(S20でYES)、制御部20は、識別結果を記憶し(S21)、処理を終了するか否かを判定し(S22)、処理を終了しない場合(S22でNO)、ステップS11以降の処理を続け、処理を終了する場合(S22でYES)、処理を終了する。   When all scanning is performed (YES in S20), the control unit 20 stores the identification result (S21), determines whether or not to end the process (S22), and does not end the process (NO in S22), step When the processing after S11 is continued and the processing is terminated (YES in S22), the processing is terminated.

また、車両なしの場合(S15でNO)、車両情報を受信していない場合(S16でNO)、あるいは、車両位置が検出範囲内でない場合(S17でNO)、制御部20は、ステップS21の処理を行う。   Further, when there is no vehicle (NO in S15), when vehicle information is not received (NO in S16), or when the vehicle position is not within the detection range (NO in S17), the control unit 20 performs step S21. Process.

なお、上述の処理で車両位置が検出範囲内にある場合に、学習処理を行うが、これにより車両有無識別器、車種識別器の学習を行うことがでる。環境識別器の学習は、車両位置が検出範囲内にある場合でも、検出範囲内にない場合でも行うことができる。   Note that, when the vehicle position is within the detection range in the above-described processing, the learning process is performed, whereby the vehicle presence / absence discriminator and the vehicle type identifier can be learned. The environment classifier can be learned whether the vehicle position is within the detection range or not.

実用化の際には、収集済みのデータセットを用いて予め識別器を学習させておき、この識別器の結果と、異なる情報が路車間通信で得られた場合に、これを学習データに追加し、識別器を再学習させ、その地点に応じた調整を行うことができる。   In practical use, the classifier is trained in advance using the collected data set. If different information from the classifier results is obtained through road-to-vehicle communication, this is added to the training data. Then, the discriminator can be re-learned, and adjustment according to the point can be performed.

また、車両識別装置100で得られた学習結果をサーバ装置へ送信し、他地点での車両識別装置の学習データに利用することができる。図14はサーバ装置200の構成を示すブロック図である。サーバ装置200は、装置全体を制御する制御部201、通信部202、記憶部203、学習部204、分類部205などを備えている。   Moreover, the learning result obtained by the vehicle identification device 100 can be transmitted to the server device and used for the learning data of the vehicle identification device at another point. FIG. 14 is a block diagram illustrating a configuration of the server device 200. The server device 200 includes a control unit 201 that controls the entire device, a communication unit 202, a storage unit 203, a learning unit 204, a classification unit 205, and the like.

通信部202は、通信部14と同様の機能を備え、各地点(各車両識別装置)での学習データ及び撮像条件を受信する。撮像条件は、例えば、撮像装置(ビデオカメラ等)の俯角又は回転角などの条件である。   The communication unit 202 has the same function as the communication unit 14 and receives learning data and imaging conditions at each point (each vehicle identification device). Imaging conditions are conditions, such as a depression angle or a rotation angle, of an imaging device (video camera etc.), for example.

分類部205は、取得した撮像条件に基づき収集した学習データを分類する。つまり、撮像条件が等しいか又は近似する地点の学習データ毎に分類する。通信部202は、各地点(各車両識別装置)へ、その地点の撮像条件に分類された学習データを送信する。各車両識別装置は、他の地点で得られた学習データを含んだ学習データを用いて、自身の識別器を学習させる。これにより、より多くの映像シーンを用いた学習を効率的に行うことができるとともに、識別器の識別精度を向上させることができる。また、学習部204は、学習部70と同様の機能を備え、撮像条件に基づいて分類された学習データを用いて、サーバ装置で識別器を学習させ、この結果を他の1又は複数の車両識別装置へ送信することもできる。   The classification unit 205 classifies the learning data collected based on the acquired imaging conditions. That is, it classifies for every learning data of the point where imaging conditions are equal or approximate. The communication unit 202 transmits learning data classified according to the imaging conditions at each point (each vehicle identification device). Each vehicle identification device learns its own classifier using learning data including learning data obtained at other points. Thereby, learning using more video scenes can be performed efficiently, and the discrimination accuracy of the discriminator can be improved. The learning unit 204 has the same function as that of the learning unit 70 and uses the learning data classified based on the imaging condition to cause the server device to learn the classifier, and uses the result as one or more other vehicles. It can also be transmitted to the identification device.

以上説明したように、本発明にあっては、起こりうる変化のデータを効率的に収集することにより、データ収集に要するコストが削減できる。さらに、収集データをフィードバックすることにより、各車両識別装置の識別精度が向上し、より精度の高い情報を車両に提供し、交通事故等の抑止がより期待できる。また、本発明は、長距離トンネル内の異常交通監視システム、駐車場システム、一般道路の交通管制システムなどに適用することができる。   As described above, according to the present invention, the cost required for data collection can be reduced by efficiently collecting data of possible changes. Furthermore, by feeding back the collected data, the identification accuracy of each vehicle identification device is improved, more accurate information is provided to the vehicle, and traffic accidents can be further suppressed. Further, the present invention can be applied to an abnormal traffic monitoring system, a parking lot system, a general road traffic control system, etc. in a long distance tunnel.

以上に開示された実施の形態及び実施例は、全ての点で例示であって制限的なものではないと考慮されるべきである。本発明の範囲は、以上の実施の形態及び実施例ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内での全ての修正や変形を含むものと意図される。   The embodiments and examples disclosed above should be considered as illustrative in all points and not restrictive. The scope of the present invention is shown not by the above embodiments and examples but by the scope of claims, and is intended to include all modifications and variations within the meaning and scope equivalent to the scope of claims. .

本発明に係る移動体識別装置である車両識別装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the vehicle identification device which is a moving body identification device which concerns on this invention. 撮像画像の一例を示す説明図である。It is explanatory drawing which shows an example of a captured image. 検出範囲の一例を示す説明図である。It is explanatory drawing which shows an example of a detection range. 局所領域の一例を示す説明図である。It is explanatory drawing which shows an example of a local area | region. 輝度の勾配強度と勾配方向の一例を示す説明図である。It is explanatory drawing which shows an example of the gradient intensity | strength of a brightness | luminance, and a gradient direction. 勾配方向の一例を示す説明図である。It is explanatory drawing which shows an example of a gradient direction. 勾配強度のヒストグラムの一例を示す説明図である。It is explanatory drawing which shows an example of the histogram of gradient intensity | strength. 識別部の各識別器の概要を示す説明図である。It is explanatory drawing which shows the outline | summary of each discriminator of an identification part. 識別部の各識別器の識別内容を示す説明図である。It is explanatory drawing which shows the identification content of each discriminator of an identification part. 識別器の学習方法の一例を示す説明図である。It is explanatory drawing which shows an example of the learning method of a discriminator. 車両識別装置の情報提供モードの適用例を示す説明図である。It is explanatory drawing which shows the example of application of the information provision mode of a vehicle identification device. 車両識別装置の学習モードの適用例を示す説明図である。It is explanatory drawing which shows the example of application of the learning mode of a vehicle identification device. 車両識別装置の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of a vehicle identification device. サーバ装置の構成を示すブロック図である。It is a block diagram which shows the structure of a server apparatus.

符号の説明Explanation of symbols

10 ビデオカメラ
11 画像入力部
12 A/D変換部
13 画像メモリ
14 通信部
15 記憶部
20 制御部
30 部分画像特定部
40 特徴量抽出部
50 識別部
51 車両有無識別部
52 車種識別部
53 環境識別部
54 環境別車両有無識別部
60 車両存在位置判定部
70 学習部
DESCRIPTION OF SYMBOLS 10 Video camera 11 Image input part 12 A / D conversion part 13 Image memory 14 Communication part 15 Storage part 20 Control part 30 Partial image specific part 40 Feature-value extraction part 50 Identification part 51 Vehicle presence / absence identification part 52 Vehicle type identification part 53 Environment identification 54 Vehicle presence / absence identification unit according to environment 60 Vehicle presence position determination unit 70 Learning unit

Claims (10)

道路を含む領域を撮像して得られた撮像画像から特徴量を抽出し、抽出した特徴量を用いて移動体を識別する移動体識別装置であって、
移動体の位置情報を含む移動体情報を取得する移動体情報取得手段と、
撮像画像上の部分画像を特定する部分画像特定手段と、
該部分画像特定手段で特定した部分画像の特徴量を抽出する特徴量抽出手段と、
該特徴量抽出手段で抽出した特徴量を用いて移動体を識別する識別手段と、
該識別手段で移動体を識別した場合、前記移動体情報取得手段で取得した位置情報及び前記部分画像特定手段で特定した部分画像の撮像画像上の位置に基づいて、前記移動体情報取得手段で移動体情報を取得した移動体が前記部分画像に撮像されているか否かを判定する判定手段と、
該判定手段で前記移動体が撮像されていると判定した場合、前記特徴量抽出手段で抽出した特徴量及び前記移動体情報取得手段で取得した移動体情報を用いて前記識別手段に識別に用いる情報を学習させる学習手段と
を備えることを特徴とする移動体識別装置。
A mobile object identification device that extracts a feature amount from a captured image obtained by imaging a region including a road and identifies a mobile object using the extracted feature amount,
Mobile body information acquisition means for acquiring mobile body information including position information of the mobile body;
A partial image specifying means for specifying a partial image on the captured image;
Feature quantity extraction means for extracting the feature quantity of the partial image identified by the partial image identification means;
Identification means for identifying a moving object using the feature amount extracted by the feature amount extraction means;
When the moving body is identified by the identifying means, the moving body information acquiring means uses the positional information acquired by the moving body information acquiring means and the position on the captured image of the partial image specified by the partial image specifying means. Determining means for determining whether or not the moving body that has acquired the moving body information is captured in the partial image;
When the determination unit determines that the moving body is imaged, the identification unit uses the feature amount extracted by the feature amount extraction unit and the mobile unit information acquired by the mobile unit information acquisition unit for identification. A moving body identification device comprising: learning means for learning information.
移動体の有無を判定するための移動体識別手段を備え、
前記学習手段は、
前記特徴量抽出手段で抽出した特徴量及び前記判定手段で判定した判定結果を用いて前記移動体識別手段に識別に用いる情報を学習させるように構成してあることを特徴とする請求項1に記載の移動体識別装置。
A moving body identification means for determining the presence or absence of a moving body is provided,
The learning means includes
2. The apparatus according to claim 1, wherein the moving object identifying unit is made to learn information used for identification using the feature amount extracted by the feature amount extracting unit and the determination result determined by the determining unit. The moving body identification device described.
天候を含む環境状況を識別する環境識別手段を備え、
前記移動体情報取得手段は、
ワイパーの動作情報を含む移動体情報を取得するように構成してあり、
前記学習手段は、
前記特徴量抽出手段で抽出した特徴量及び前記移動体情報取得手段で取得した移動体情報を用いて前記環境識別手段に識別に用いる情報を学習させるように構成してあることを特徴とする請求項1又は請求項2に記載の移動体識別装置。
Environmental identification means for identifying environmental conditions including the weather,
The mobile body information acquisition means includes
It is configured to acquire moving body information including movement information of the wiper,
The learning means includes
The environment identification unit is configured to learn information used for identification using the feature amount extracted by the feature amount extraction unit and the mobile unit information acquired by the mobile unit information acquisition unit. The mobile object identification device according to claim 1 or 2.
昼夜の別を含む環境状況を識別する環境識別手段を備え、
前記移動体情報取得手段は、
車灯を含む移動体情報を取得するように構成してあり、
前記学習手段は、
前記特徴量抽出手段で抽出した特徴量及び前記移動体情報取得手段で取得した移動体情報を用いて前記環境識別手段に識別に用いる情報を学習させるように構成してあることを特徴とする請求項1又は請求項2に記載の移動体識別装置。
An environmental identification means for identifying environmental conditions including day and night,
The mobile body information acquisition means includes
It is configured to acquire moving body information including car lights,
The learning means includes
The environment identification unit is configured to learn information used for identification using the feature amount extracted by the feature amount extraction unit and the mobile unit information acquired by the mobile unit information acquisition unit. The mobile object identification device according to claim 1 or 2.
異なる環境毎に移動体の有無を判定するための環境別移動体識別手段を備え、
前記学習手段は、
前記特徴量抽出手段で抽出した特徴量、前記判定手段で判定した判定結果及び前記移動体情報取得手段で取得した移動体情報を用いて前記環境別移動体識別手段に識別に用いる情報を学習させるように構成してあることを特徴とする請求項3又は請求項4に記載の移動体識別装置。
Provided with a moving body identification means for each environment for determining the presence or absence of a moving body for each different environment,
The learning means includes
Using the feature amount extracted by the feature amount extraction unit, the determination result determined by the determination unit, and the mobile unit information acquired by the mobile unit information acquisition unit, the environment-specific mobile unit identification unit learns information used for identification. The mobile object identification device according to claim 3, wherein the mobile object identification device is configured as described above.
移動体の種類を判定するための種類識別手段を備え、
前記移動体情報取得手段は、
車種又は二輪車若しくは歩行者の別を含む移動体情報を取得するように構成してあり、
前記学習手段は、
前記特徴量抽出手段で抽出した特徴量及び前記移動体情報取得手段で取得した移動体情報を用いて前記種類識別手段に識別に用いる情報を学習させるように構成してあることを特徴とする請求項2乃至請求項5のいずれか1つに記載の移動体識別装置。
Provided with a type identifying means for determining the type of the moving object,
The mobile body information acquisition means includes
It is configured to acquire moving body information including the type of vehicle or motorcycle or pedestrian,
The learning means includes
The feature identifying unit is configured to cause the type identifying unit to learn information used for identification using the feature amount extracted by the feature amount extracting unit and the moving body information acquired by the moving body information acquiring unit. The mobile object identification device according to any one of claims 2 to 5.
他の移動体識別装置から前記識別手段に識別に用いる情報を学習させるための学習データを取得する学習データ取得手段を備え、
前記学習手段は、
前記学習データ取得手段で取得した学習データを用いて前記識別手段に識別に用いる情報を学習させるように構成してあることを特徴とする請求項1乃至請求項6のいずれか1つに記載の移動体識別装置。
Learning data acquisition means for acquiring learning data for causing the identification means to learn information used for identification from another mobile object identification device;
The learning means includes
7. The configuration according to claim 1, wherein learning information acquired by the learning data acquisition unit is used to cause the identification unit to learn information used for identification. 8. Mobile object identification device.
他の移動体識別装置の撮像条件を取得する撮像条件取得手段と、
該撮像条件取得手段で取得した撮像条件と自身の撮像条件との比較結果を用いて、前記学習データ取得手段で取得した学習データを用いて学習させるか否かを決定する決定手段と
を備えることを特徴とする請求項7に記載の移動体識別装置。
Imaging condition acquisition means for acquiring imaging conditions of another mobile object identification device;
Determining means for determining whether or not to learn using the learning data acquired by the learning data acquisition means, using a comparison result between the imaging conditions acquired by the imaging condition acquisition means and the own imaging conditions; The mobile object identification device according to claim 7.
コンピュータを、道路を含む領域を撮像して得られた撮像画像から特徴量を抽出し、抽出した特徴量を用いて移動体を識別する手段として機能させるためのコンピュータプログラムであって、
コンピュータを、
撮像画像上の部分画像を特定する部分画像特定手段と、
特定した部分画像の特徴量を抽出する特徴量抽出手段と、
抽出した特徴量を用いて移動体を識別する識別手段と、
移動体を識別した場合、移動体の位置情報及び特定した部分画像の撮像画像上の位置に基づいて、前記移動体が前記部分画像に撮像されているか否かを判定する判定手段と、
前記移動体が撮像されていると判定した場合、抽出した特徴量及び前記移動体の移動体情報を用いて前記識別手段に識別に用いる情報を学習させる学習手段と
して機能させることを特徴とするコンピュータプログラム。
A computer program for extracting a feature amount from a captured image obtained by imaging a region including a road, and causing the computer to function as a means for identifying a mobile object using the extracted feature amount,
Computer
A partial image specifying means for specifying a partial image on the captured image;
Feature amount extraction means for extracting the feature amount of the identified partial image;
An identification means for identifying the moving object using the extracted feature amount;
A determination unit that determines whether or not the moving body is captured in the partial image based on position information of the moving body and a position on the captured image of the identified partial image when the mobile body is identified;
When it is determined that the moving body is imaged, the identifying means uses the extracted feature amount and the moving body information of the moving body to function as learning means for learning information used for identification. Computer program.
道路を含む領域を撮像して得られた撮像画像から特徴量を抽出し、抽出した特徴量を用いて移動体を識別する識別手段を備えた移動体識別装置の学習方法であって、
前記移動体識別装置は、
移動体の位置情報を含む移動体情報を取得し、
撮像画像上の部分画像を特定し、
特定した部分画像の特徴量を抽出し、
抽出した特徴量を用いて移動体を識別し、
移動体を識別した場合、取得した位置情報及び特定した部分画像の撮像画像上の位置に基づいて、前記移動体情報を取得した移動体が前記部分画像に撮像されているか否かを判定し、
前記移動体が撮像されていると判定した場合、抽出した特徴量及び取得した移動体情報を用いて前記識別手段に識別に用いる情報を学習させることを特徴とする移動体識別装置の学習方法。
A method for learning a mobile object identification device including an identification unit that extracts a feature amount from a captured image obtained by imaging a region including a road and identifies the mobile object using the extracted feature amount,
The mobile object identification device includes:
Get the mobile object information including the position information of the mobile object,
Identify the partial image on the captured image,
Extract the feature quantity of the identified partial image,
Identify moving objects using the extracted features,
When identifying the moving body, based on the acquired position information and the position on the captured image of the identified partial image, it is determined whether the moving body that acquired the moving body information is captured in the partial image,
A learning method for a mobile object identification device, wherein when the mobile object is determined to be imaged, the identification unit is made to learn information used for identification using the extracted feature amount and the acquired mobile object information.
JP2008201011A 2008-08-04 2008-08-04 Mobile object identification device, computer program, and learning method of mobile object identification device Expired - Fee Related JP5115390B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008201011A JP5115390B2 (en) 2008-08-04 2008-08-04 Mobile object identification device, computer program, and learning method of mobile object identification device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008201011A JP5115390B2 (en) 2008-08-04 2008-08-04 Mobile object identification device, computer program, and learning method of mobile object identification device

Publications (2)

Publication Number Publication Date
JP2010039705A true JP2010039705A (en) 2010-02-18
JP5115390B2 JP5115390B2 (en) 2013-01-09

Family

ID=42012200

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008201011A Expired - Fee Related JP5115390B2 (en) 2008-08-04 2008-08-04 Mobile object identification device, computer program, and learning method of mobile object identification device

Country Status (1)

Country Link
JP (1) JP5115390B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012103169A (en) * 2010-11-11 2012-05-31 Fujitsu Ltd Moving object specification system, moving object specification device and moving object specification program
JP2017194949A (en) * 2016-04-22 2017-10-26 財団法人車輌研究測試中心 Object detection system and object detection method
WO2021020304A1 (en) * 2019-07-29 2021-02-04 京セラ株式会社 Base station, roadside device, traffic communication system, traffic management method, and teaching data generation method
JP2021022221A (en) * 2019-07-29 2021-02-18 京セラ株式会社 Base station, traffic communication system, and traffic management method
CN112686122A (en) * 2020-12-25 2021-04-20 浙江大华技术股份有限公司 Human body and shadow detection method, device, electronic device and storage medium
JP2021086347A (en) * 2019-11-27 2021-06-03 京セラ株式会社 Traffic communication system, roadside machine, and teacher data generation method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0333968A (en) * 1989-06-30 1991-02-14 Hitachi Ltd Information processing system and pattern recognizing system using neural network
JPH04247600A (en) * 1991-02-01 1992-09-03 Omron Corp Vehicle recognizing method
JPH07210795A (en) * 1994-01-24 1995-08-11 Babcock Hitachi Kk Method and instrument for image type traffic flow measurement
JP2001256485A (en) * 2000-03-14 2001-09-21 Hitachi Ltd System for discriminating vehicle kind
JP2002099906A (en) * 2000-09-22 2002-04-05 Mazda Motor Corp Object-recognizing device
JP2002171517A (en) * 2000-12-01 2002-06-14 Omron Corp Vehicle monitor device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0333968A (en) * 1989-06-30 1991-02-14 Hitachi Ltd Information processing system and pattern recognizing system using neural network
JPH04247600A (en) * 1991-02-01 1992-09-03 Omron Corp Vehicle recognizing method
JPH07210795A (en) * 1994-01-24 1995-08-11 Babcock Hitachi Kk Method and instrument for image type traffic flow measurement
JP2001256485A (en) * 2000-03-14 2001-09-21 Hitachi Ltd System for discriminating vehicle kind
JP2002099906A (en) * 2000-09-22 2002-04-05 Mazda Motor Corp Object-recognizing device
JP2002171517A (en) * 2000-12-01 2002-06-14 Omron Corp Vehicle monitor device

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012103169A (en) * 2010-11-11 2012-05-31 Fujitsu Ltd Moving object specification system, moving object specification device and moving object specification program
JP2017194949A (en) * 2016-04-22 2017-10-26 財団法人車輌研究測試中心 Object detection system and object detection method
WO2021020304A1 (en) * 2019-07-29 2021-02-04 京セラ株式会社 Base station, roadside device, traffic communication system, traffic management method, and teaching data generation method
JP2021022221A (en) * 2019-07-29 2021-02-18 京セラ株式会社 Base station, traffic communication system, and traffic management method
JP7401217B2 (en) 2019-07-29 2023-12-19 京セラ株式会社 Base station, traffic communication system, and traffic management method
JP2021086347A (en) * 2019-11-27 2021-06-03 京セラ株式会社 Traffic communication system, roadside machine, and teacher data generation method
JP7296305B2 (en) 2019-11-27 2023-06-22 京セラ株式会社 Traffic communication system, roadside unit, and training data generation method
CN112686122A (en) * 2020-12-25 2021-04-20 浙江大华技术股份有限公司 Human body and shadow detection method, device, electronic device and storage medium
CN112686122B (en) * 2020-12-25 2023-09-29 浙江大华技术股份有限公司 Human body and shadow detection method and device, electronic equipment and storage medium

Also Published As

Publication number Publication date
JP5115390B2 (en) 2013-01-09

Similar Documents

Publication Publication Date Title
JP4871909B2 (en) Object recognition apparatus and object recognition method
JP5223675B2 (en) Vehicle detection device, vehicle detection method, and vehicle detection program
JP6082802B2 (en) Object detection device
JP4654163B2 (en) Vehicle surrounding environment recognition device and system
CN109703460B (en) Multi-camera complex scene self-adaptive vehicle collision early warning device and early warning method
JP5115390B2 (en) Mobile object identification device, computer program, and learning method of mobile object identification device
US20180211121A1 (en) Detecting Vehicles In Low Light Conditions
CN110430401A (en) Vehicle blind zone method for early warning, prior-warning device, MEC platform and storage medium
JP6626410B2 (en) Vehicle position specifying device and vehicle position specifying method
CN110730966B (en) System and method for pedestrian detection
JP2018022220A (en) Behavior data analysis system, and behavior data analysis device, and behavior data analysis method
JP5062091B2 (en) Moving object identification device, computer program, and optical axis direction specifying method
CN111967396A (en) Processing method, device and equipment for obstacle detection and storage medium
CN111145569A (en) Road monitoring and vehicle running control method and device and vehicle-road cooperative system
CN111967377A (en) Method, device and equipment for identifying state of engineering vehicle and storage medium
JP5083164B2 (en) Image processing apparatus and image processing method
JP2021531598A (en) Systems and methods for use in object detection from video streams
KR20100105160A (en) Auto transportation information extraction system and thereby method
KR100801989B1 (en) Recognition system for registration number plate and pre-processor and method therefor
CN113538967B (en) Vehicle-road cooperation device and method under crossroad scene
JPWO2019039157A1 (en) Apparatus and method for identifying a small object area around a vehicle
CN114627439A (en) Moving object detection method based on 360-degree look-around camera
CN104077566B (en) Bayonet socket picture method for detecting human face based on color difference
JP2021152826A (en) Information processing device, subject classification method, and subject classification program
KR101982091B1 (en) Surround view monitoring system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110329

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120912

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120918

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121001

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151026

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees