JP2014106685A - Vehicle periphery monitoring device - Google Patents
Vehicle periphery monitoring device Download PDFInfo
- Publication number
- JP2014106685A JP2014106685A JP2012258488A JP2012258488A JP2014106685A JP 2014106685 A JP2014106685 A JP 2014106685A JP 2012258488 A JP2012258488 A JP 2012258488A JP 2012258488 A JP2012258488 A JP 2012258488A JP 2014106685 A JP2014106685 A JP 2014106685A
- Authority
- JP
- Japan
- Prior art keywords
- image
- identification
- vehicle
- learning
- periphery monitoring
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
この発明は、車載された撮像手段から取得した撮像画像に基づいて、車両の周辺に存在する対象物を検知する車両周辺監視装置に関する。 The present invention relates to a vehicle periphery monitoring device that detects an object existing around a vehicle based on a captured image acquired from an on-vehicle imaging unit.
従来から、カメラ等の撮像手段を用いて撮像し、得られた撮像画像を基に物体を検知等する方法が種々提案されている。例えば、画像の局所領域での輝度の強度及び勾配に関する特徴量(いわゆるHOG特徴量)を用いて、撮像画像に映りこんだ歩行者を検知等する手法が記載されている(非特許文献1参照)。 Conventionally, various methods have been proposed in which an image is picked up using an image pickup means such as a camera, and an object is detected based on the obtained picked-up image. For example, a method for detecting a pedestrian reflected in a captured image using a feature amount (so-called HOG feature amount) related to intensity and gradient of luminance in a local region of the image is described (see Non-Patent Document 1). ).
そして、上記の撮像手段と、撮像画像を基に物体を識別可能な識別器とを車両に併せて搭載することで、その車両外に存在する物体を検知し、あるいは物体と自車両との相対的な位置関係等を監視する車両周辺監視装置が構築される。この装置を導入することにより、車両の乗員(特に運転者)の支援になる。 Then, by mounting the above-described imaging means and an identifier capable of identifying an object based on the captured image together with the vehicle, the object existing outside the vehicle is detected, or the relative between the object and the host vehicle is detected. A vehicle periphery monitoring device for monitoring a general positional relationship and the like is constructed. By introducing this device, the vehicle occupant (especially the driver) is supported.
上記した識別器は、種々の機械学習をさせることで、歩行者(人体)のみならず、動物、人工構造物等を識別可能である。ところが、これらの対象物を少なくとも含む、識別対象の画像領域(以下、識別対象領域)を抽出する場合、対象物の種類によって識別精度が異なる場合があった。これは、対象物の種類に応じて投影像の形状が異なるので、背景部の画像情報を取り込む割合が変化するためと考えられる。換言すれば、背景部の画像情報は、学習処理又は識別処理の際に、対象物の学習・識別精度を低下させる外乱因子(ノイズ情報)として作用する。 The discriminator described above can discriminate not only pedestrians (human bodies) but also animals, artificial structures and the like by performing various machine learning. However, when extracting an image area (hereinafter referred to as an identification target area) that includes at least these objects, the identification accuracy may differ depending on the type of the object. This is probably because the shape of the projected image varies depending on the type of the object, and the ratio of capturing the image information of the background portion changes. In other words, the image information of the background portion acts as a disturbance factor (noise information) that lowers the learning / identification accuracy of the object during the learning process or the identification process.
特に、この種の車両周辺監視装置では車両の走行中に逐次撮像するため、カメラから得た撮像画像のシーン(背景・天候等)は時々刻々と変化し得る。また、車両が路面上を走行した場合に取得される識別対象(歩行者等)の画像には、横断歩道、ガードレール等の路面パターンが含まれることが多い。このため、識別器に機械学習をさせる結果、この路面パターンが歩行者であるとして誤って学習する可能性が高くなる。すなわち、背景部における画像特徴を予測することは困難であり、外乱因子としての影響を無視できないという問題があった。 In particular, since this type of vehicle periphery monitoring apparatus sequentially captures images while the vehicle is running, the scene (background, weather, etc.) of the captured image obtained from the camera can change from moment to moment. Moreover, road surface patterns such as pedestrian crossings and guardrails are often included in images of identification objects (pedestrians and the like) acquired when a vehicle travels on a road surface. For this reason, as a result of causing the classifier to perform machine learning, there is a high possibility that the road surface pattern is erroneously learned as a pedestrian. That is, it is difficult to predict the image feature in the background portion, and there is a problem that the influence as a disturbance factor cannot be ignored.
本発明は上記した問題を解決するためになされたもので、対象物の種類にかかわらず学習・識別精度を向上可能な車両周辺監視装置を提供することを目的とする。 The present invention has been made to solve the above-described problem, and an object thereof is to provide a vehicle periphery monitoring device that can improve learning / identification accuracy regardless of the type of an object.
本発明に係る車両周辺監視装置は、車両に搭載され、前記車両の走行中に撮像することで前記車両の周辺における撮像画像を取得する撮像手段と、前記撮像手段により取得された前記撮像画像の中から識別対象領域を抽出する識別対象領域抽出手段と、前記識別対象領域抽出手段により抽出された前記識別対象領域における画像特徴量から、前記識別対象領域内に対象物が存在するか否かを前記対象物の種類毎に識別する対象物識別手段とを備え、前記対象物識別手段は、前記画像特徴量としての特徴データ群を入力とし前記対象物の存否情報を出力とする、機械学習を用いて生成された識別器であり、前記識別器は、前記機械学習に供される各学習サンプル画像を構成する複数のサブ領域のうち、前記対象物の種類に応じて選択した少なくとも1つの前記サブ領域の画像から、前記特徴データ群を作成し入力することを特徴とする。 A vehicle periphery monitoring device according to the present invention is mounted on a vehicle and captures an image of the captured image acquired by the imaging unit by acquiring an image of the periphery of the vehicle by capturing an image while the vehicle is running. An identification target area extracting unit for extracting an identification target area from the inside, and whether or not an object exists in the identification target area from the image feature amount in the identification target area extracted by the identification target area extracting unit. Object identification means for identifying each type of the object, and the object identification means performs machine learning in which a feature data group as the image feature amount is input and presence / absence information of the object is output. And the classifier is selected according to the type of the target object from among a plurality of sub-regions constituting each learning sample image used for the machine learning. From one image of the sub-region, and wherein the inputting create the feature data group.
このように、対象物識別手段としての識別器は、機械学習に供される各学習サンプル画像を構成する複数のサブ領域のうち、対象物の種類に応じて選択した少なくとも1つのサブ領域の画像から、前記特徴データ群を作成し入力するようにしたので、前記対象物の投影像の形状に適したサブ領域の画像情報を、学習処理に対して選択的に採用可能であり、対象物の種類にかかわらず学習精度を向上させることができる。そして、残余のサブ領域を学習処理から除外することで、識別処理の際に外乱因子として作用する、対象物の投影像以外の画像情報に対する過学習を防止可能であり、前記対象物の識別精度を向上させることができる。なお、車載された撮像手段から得た撮像画像のシーンは時々刻々と変化するため、特に効果的である。 Thus, the discriminator as the object discriminating means is an image of at least one sub-area selected according to the type of the object out of a plurality of sub-areas constituting each learning sample image used for machine learning. Since the feature data group is created and input, image information of sub-regions suitable for the shape of the projected image of the object can be selectively employed for the learning process, The learning accuracy can be improved regardless of the type. Then, by excluding the remaining sub-regions from the learning process, it is possible to prevent over-learning for image information other than the projected image of the object that acts as a disturbance factor during the identification process, and the identification accuracy of the object Can be improved. In addition, since the scene of the captured image obtained from the imaging means mounted on the vehicle changes every moment, it is particularly effective.
また、前記対象物識別手段は、前記識別対象領域内に前記対象物が存在するか否かを該対象物の移動方向毎に識別することが好ましい。移動方向に応じて撮像画像上での像形状が変化する傾向を踏まえ、移動方向毎に識別することで対象物の学習・識別精度が一層向上する。 Moreover, it is preferable that the said object identification means identifies for each moving direction of the said object whether the said object exists in the said identification object area | region. Based on the tendency that the image shape on the captured image changes according to the moving direction, the learning / identification accuracy of the object is further improved by identifying each moving direction.
さらに、前記識別対象領域抽出手段は、前記撮像手段から前記対象物までの距離に比例するサイズの前記識別対象領域を抽出することが好ましい。これにより、対象物と識別対象領域との間の相対的大小関係が距離によらず一定になり、外乱因子(対象物の投影像以外の画像情報)の影響を一律に抑えることで対象物の学習・識別精度が一層向上する。 Furthermore, it is preferable that the identification target area extracting unit extracts the identification target area having a size proportional to a distance from the imaging unit to the target. As a result, the relative magnitude relationship between the target object and the identification target region becomes constant regardless of the distance, and the influence of disturbance factors (image information other than the projected image of the target object) is uniformly suppressed to uniformly Learning / identification accuracy is further improved.
さらに、前記画像特徴量には、空間上での輝度勾配方向ヒストグラムが含まれることが好ましい。撮像の露光量に起因する輝度勾配方向の変動は小さいので、対象物の特徴を的確に捉えることが可能であり、環境光の強度が時々刻々と変化する屋外環境であっても安定した識別精度が得られる。 Furthermore, it is preferable that the image feature amount includes a luminance gradient direction histogram in space. Because the fluctuation in the brightness gradient direction due to the exposure amount of imaging is small, it is possible to accurately grasp the characteristics of the target object, and stable identification accuracy even in outdoor environments where the intensity of ambient light changes from moment to moment Is obtained.
さらに、前記画像特徴量には、時空間上での輝度勾配方向ヒストグラムが含まれることが好ましい。空間上のみならず、時間上の輝度勾配方向も併せて考慮することで、時系列で取得された複数の撮像画像にわたる対象物の検知・追跡が容易になる。 Furthermore, it is preferable that the image feature amount includes a luminance gradient direction histogram in time and space. By considering the luminance gradient direction in time as well as in space, it becomes easy to detect and track an object over a plurality of captured images acquired in time series.
本発明に係る車両周辺監視装置によれば、対象物識別手段としての識別器は、機械学習に供される各学習サンプル画像を構成する複数のサブ領域のうち、対象物の種類に応じて選択した少なくとも1つのサブ領域の画像から、前記特徴データ群を作成し入力するようにしたので、前記対象物の投影像の形状に適したサブ領域の画像情報を、学習処理に対して選択的に採用可能であり、対象物の種類にかかわらず学習精度を向上させることができる。そして、残余のサブ領域を学習処理から除外することで、識別処理の際に外乱因子として作用する、対象物の投影像以外の画像情報に対する過学習を防止可能であり、前記対象物の識別精度を向上させることができる。なお、車載された撮像手段から得た撮像画像のシーンは時々刻々と変化するため、特に効果的である。 According to the vehicle periphery monitoring apparatus according to the present invention, the discriminator as the object discriminating unit is selected according to the type of the object out of the plurality of sub-regions constituting each learning sample image provided for machine learning. Since the feature data group is created and input from the at least one sub-region image, image information of the sub-region suitable for the shape of the projected image of the object is selectively selected for the learning process. The learning accuracy can be improved regardless of the type of the object. Then, by excluding the remaining sub-regions from the learning process, it is possible to prevent over-learning for image information other than the projected image of the object that acts as a disturbance factor during the identification process, and the identification accuracy of the object Can be improved. In addition, since the scene of the captured image obtained from the imaging means mounted on the vehicle changes every moment, it is particularly effective.
以下、本発明に係る車両周辺監視装置について好適な実施形態を挙げ、添付の図面を参照しながら説明する。 Hereinafter, preferred embodiments of a vehicle periphery monitoring device according to the present invention will be described with reference to the accompanying drawings.
図1は、本実施形態に係る車両周辺監視装置10の構成を示すブロック図である。図2は、図1に示す車両周辺監視装置10が搭載された車両12の概略斜視図である。
FIG. 1 is a block diagram illustrating a configuration of a vehicle
図1及び図2に示すように、車両周辺監視装置10は、複数のカラーチャンネルからなるカラー画像(以下、撮像画像Imという)を撮像するカラーカメラ(以下、単に「カメラ14」という)と、車両12の車速Vsを検出する車速センサ16と、車両12のヨーレートYrを検出するヨーレートセンサ18と、運転者によるブレーキペダルの操作量Brを検出するブレーキセンサ20と、この車両周辺監視装置10を制御する電子制御装置(以下、「ECU22」という)と、音声で警報等を発するためのスピーカ24と、カメラ14から出力された撮像画像等を表示する表示装置26と、を備える。
As shown in FIGS. 1 and 2, the vehicle
カメラ14は、主に可視光領域の波長を有する光を利用するカメラであり、車両12の周辺を撮像する撮像手段として機能する。カメラ14は、被写体の表面を反射する光量が多いほど、その出力信号レベルが高くなり、画像の輝度(例えば、RGB値)が増加する特性を有する。図2に示すように、カメラ14は、車両12の前部バンパー部の略中心部に固定的に配置(搭載)されている。
The
なお、車両12の周囲を撮像する撮像手段は、上記した構成例(いわゆる単眼カメラ)に限られることなく、例えば複眼カメラ(ステレオカメラ)であってもよい。また、カラーカメラに代替して赤外線カメラを用いてもよく、或いは両方を併せ備えてもよい。さらに、単眼カメラの場合、別の測距手段(レーダ装置)を併せて備えてもよい。
The imaging means for imaging the periphery of the
図1に戻って、スピーカ24は、ECU22からの指令に応じて、警報音等の出力を行う。スピーカ24は、車両12の図示しないダッシュボードに設けられる。あるいは、スピーカ24に代替して、他の装置(例えば、オーディオ装置又はナビゲーション装置)が備える音声出力機能を用いてもよい。
Returning to FIG. 1, the
表示装置26(図1及び図2参照)は、車両12のフロントウインドシールド上、運転者の前方視界を妨げない位置に配されたHUD(ヘッドアップディスプレイ)である。表示装置26として、HUDに限らず、車両12に搭載されたナビゲーションシステムの地図等を表示するディスプレイや、メータユニット内等に設けられた燃費等を表示するディスプレイ(MID;マルチインフォメーションディスプレイ)を利用することができる。
The display device 26 (see FIGS. 1 and 2) is a HUD (head-up display) disposed on the front windshield of the
ECU22は、入出力部28、演算部30、表示制御部32、及び記憶部34を基本的に備える。
The
カメラ14、車速センサ16、ヨーレートセンサ18及びブレーキセンサ20からの各信号は、入出力部28を介してECU22側に入力される。また、ECU22からの各信号は、入出力部28を介してスピーカ24及び表示装置26側に出力される。入出力部28は、入力されたアナログ信号をデジタル信号に変換する図示しないA/D変換回路を備える。
Signals from the
演算部30は、カメラ14、車速センサ16、ヨーレートセンサ18及びブレーキセンサ20からの各信号に基づく演算を実行し、演算結果に基づきスピーカ24及び表示装置26に対する信号を生成する。演算部30は、距離推定部40、識別対象領域決定部42(識別対象領域抽出手段)、対象物識別部44(対象物識別手段)、及び対象物検知部46として機能する。ここで、対象物識別部44は、画像特徴量としての特徴データ群を入力とし対象物の存否情報を出力とする、機械学習を用いて生成された識別器50で構成される。
The
演算部30における各部の機能は、記憶部34に記憶されているプログラムを読み出して実行することにより実現される。或いは、前記プログラムは、図示しない無線通信装置(携帯電話機、スマートフォン等)を介して外部から供給されてもよい。
The function of each unit in the
表示制御部32は、表示装置26を駆動制御する制御回路である。表示制御部32が、入出力部28を介して、表示制御に供される信号を表示装置26に出力することで、表示装置26が駆動する。これにより、表示装置26は各種画像(撮像画像Im、マーク等)を表示することができる。
The
記憶部34は、デジタル信号に変換された撮像信号、各種演算処理に供される一時データ等を記憶するRAM(Random Access Memory)、及び実行プログラム、テーブル又はマップ等を記憶するROM(Read Only Memory)等で構成される。
The
本実施形態に係る車両周辺監視装置10は、基本的には、以上のように構成される。この車両周辺監視装置10の動作の概要について以下説明する。
The vehicle
ECU22は、所定のフレームクロック間隔・周期(例えば、1秒あたり30フレーム)毎に、カメラ14から出力されるアナログの映像信号をデジタル信号に変換し、記憶部34に一時的に取り込む。
The
図3Aに示すように、撮像時点T=T1において、第1フレームの撮像画像Imが得られたとする。本図例では、撮像画像Imにおいて、車両12が走行する道路領域(以下、単に「道路60」という)、道路60に沿って略等間隔に設置された複数の電柱領域(以下、単に「電柱62」という)、道路60上の横断歩行者領域(以下、単に「横断歩行者64」という)がそれぞれ存在する。
As shown in FIG. 3A, it is assumed that a captured image Im of the first frame is obtained at an imaging time point T = T1. In the illustrated example, in the captured image Im, a road area (hereinafter simply referred to as “
図3Bに示すように、撮像時点T=T2(>T1)において、第2フレームの撮像画像Imが得られたとする。本図の撮像画像Imにおいて、図3Aに示す撮像画像Imの場合と同様に、道路60、複数の電柱62、及び横断歩行者64がそれぞれ存在する。ところが、フレーム間隔時間が経過するにつれて、カメラ14及び各対象物の間の相対的位置関係が時々刻々と変化する。これにより、第1及び第2フレーム(撮像画像Im)が同一の画角範囲であっても、各対象物は、それぞれ異なる形態(形状、大きさ又は色彩)で画像化される。
As shown in FIG. 3B, it is assumed that a captured image Im of the second frame is obtained at an imaging time point T = T2 (> T1). In the captured image Im of this figure, as in the captured image Im shown in FIG. 3A, a
そして、ECU22は、記憶部34から読み出した撮像画像Im(車両12の前方画像)に対して各種演算処理を施す。ECU22(特に演算部30)は、撮像画像Imに対する処理結果、必要に応じて車両12の走行状態を示す各信号(車速Vs、ヨーレートYr及び操作量Br)を総合的に考慮し、車両12の前方に存在する人体、動物等を、監視対象となる物体(以下、「監視対象物」あるいは単に「対象物」という。)として検出する。
Then, the
車両12が監視対象物に接触する可能性が高いと演算部30により判断された場合、ECU22は、運転者の注意を喚起するために車両周辺監視装置10の各出力部を制御する。ECU22は、例えば、スピーカ24を介して警報音(例えば、ピッ、ピッ、…と鳴る音)を出力させるともに、表示装置26上に可視化された撮像画像Imのうちその監視対象物の部位を強調表示させる。
When the
続いて、図1に示す識別器50による学習処理について、図4のフローチャートを参照しながら詳細に説明する。機械学習の手法として、教師あり学習、教師なし学習、強化学習のうちのいずれのアルゴリズムを採用してもよい。本実施形態では、事前に与えられたデータセットに基づいて学習を行う「教師あり学習」について具体例を挙げて説明する。
Next, the learning process by the
ステップS11において、機械学習に供される学習データが収集される。ここで、学習データは、対象物を含む(又は含まない)学習サンプル画像と、この対象物の種類(「対象物無し」の属性を含む)とのデータセットである。対象物の種類として、例えば、人体、各種動物(具体的には、鹿、馬、羊、犬、猫等の哺乳動物、鳥類等)、人工構造物(具体的には、車両、標識、電柱、ガードレール、壁等)等が挙げられる。 In step S11, learning data used for machine learning is collected. Here, the learning data is a data set of a learning sample image including (or not including) the target object and the type of the target object (including the attribute “no target object”). Examples of types of objects include human bodies, various animals (specifically, mammals such as deer, horses, sheep, dogs and cats, birds, etc.), artificial structures (specifically, vehicles, signs, utility poles) , Guardrails, walls, etc.).
図5は、横断歩行者70、72を含む学習サンプル画像74、76の一例を示す画像図である。学習サンプル画像74の略中央には、左側から右側に向かって横断歩行する人体の投影像(以下、横断歩行者70)が映し出されている。また、別の学習サンプル画像76の略中央には、右手前側から左奥側に向かって横断歩行する人体の投影像(以下、横断歩行者72)が映し出されている。本図例の学習サンプル画像74、76はいずれも、対象物が含まれる正解画像に相当する。収集される各学習サンプル画像には、対象物が含まれない不正解画像が含まれてもよい。また、識別器50(図1参照)側に入力されるデータ形式を統一するため、各学習サンプル画像74、76は、それらの形状が互いに一致又は相似する画像領域80を有することが好ましい。
FIG. 5 is an image diagram showing an example of learning
ステップS12において、各学習サンプル画像74、76の画像領域80を分割することで、複数のサブ領域82がそれぞれ定義される。図6例では、矩形状の画像領域80は、そのサイズにかかわらず、行数が8つ、列数が6つとして、格子状に均等分割されている。すなわち、画像領域80内において、同一の形状を有する、48個のサブ領域82がそれぞれ定義される。
In step S <b> 12, a plurality of
ステップS13において、識別器50の学習アーキテクチャが構築される。学習アーキテクチャの例として、ブースティング法、SVM(Support Vector machine)、ニューラルネットワーク、EM(Expectation Maximization)アルゴリズム等が挙げられる。本実施形態では、ブースティング法の一種であるAdaBoostを適用する。
In step S13, a learning architecture of the
図7に示すように、識別器50は、N個(Nは2以上の自然数)の特徴データ生成器90と、N個の弱学習器92と、重み付け更新器93と、重み付け演算器94と、サンプル荷重更新器95とから構成される。
As shown in FIG. 7, the
なお、本図において、説明の便宜のため、各特徴データ生成器90に対して上から順に、第1データ生成器、第2データ生成器、第3データ生成器、‥、第Nデータ生成器と表記している。同様に、各弱学習器92に対して上から順に、第1弱学習器、第2弱学習器、第3弱学習器、‥、第N弱学習器と表記している。
In this figure, for convenience of explanation, the first data generator, the second data generator, the third data generator,..., The Nth data generator are sequentially arranged from the top with respect to each
本図に示すように、1つの特徴データ生成器90(例えば、第1データ生成器)及び1つの弱学習器92(例えば、第1弱学習器)が択一的に接続されることで、N個のサブシステムが構築されている。そして、重み付け更新器93の入力側にはN個のサブシステムの出力側(各弱学習器92)がそれぞれ接続され、その出力側には、重み付け演算器94及びサンプル荷重更新器95が直列に接続されている。なお、機械学習の際における、識別器50の詳細な動作については後述する。
As shown in the figure, one feature data generator 90 (for example, the first data generator) and one weak learner 92 (for example, the first weak learner) are alternatively connected, N subsystems are constructed. The output side (each weak learner 92) of N subsystems is connected to the input side of the
ステップS14において、対象物の種類毎に、サブ領域82のマスク条件が決定される。ここで、マスク条件とは、1つの学習サンプル画像74からN個の特徴データ(以下、特徴データ群という)を生成する際に、各サブ領域82内の画像を採用するか否かについての選択条件を意味する。
In step S14, the mask conditions for the
例えば、車両12にカメラ14を搭載して実際に得た撮像画像Imを、学習サンプル画像74、76(正解画像)として用いる場合、対象物の背後に種々の構造物が映り込むことがある。図5例に示す学習サンプル画像74において、横断歩行者70を除いた背景部78には、別の3名の人体、路面、建物の壁等が映し出されている。
For example, when the captured image Im actually obtained by mounting the
機械学習の際、横断歩行者70のみならず、背景部78も含めて特徴データ群を作成すると、学習サンプル画像74等を蓄積するデータベースの傾向によって背景部78に関する過学習が起こることがある。この場合、背景部78の画像情報は、対象物としての横断歩行者70の学習・識別精度を低下させる外乱因子(ノイズ情報)として作用する。そこで、48個すべてのサブ領域82のうち、識別処理に適したサブ領域82のみを選択し、作成された特徴データ群を用いて学習させることが効果的である。
During machine learning, if a feature data group including not only the crossing
図8Aは、横断歩行者70、72を含む多数の学習サンプル画像74、76から得た、典型輪郭画像100を表す模式図である。具体的には、図示しない画像処理装置を用いて、各学習サンプル画像74等に対して公知のエッジ抽出処理を施すことで、各オブジェクトの輪郭が抽出された輪郭抽出画像(図示しない。)をそれぞれ作成する。ここで、各輪郭抽出画像は、オブジェクトの輪郭が抽出された部位を白色で表現するとともに、輪郭が抽出されなかった部位を黒色で表現する。
FIG. 8A is a schematic diagram showing a
そして、図示しない画像処理装置を用いて、各輪郭抽出画像に対して種々の統計処理(例えば、平均化処理)を施すことで、各学習サンプル画像74に典型的な輪郭画像(典型輪郭画像100)を得る。ここで、典型輪郭画像100は、各輪郭抽出画像と同様に、オブジェクトの輪郭が抽出された部位を白色で表現するとともに、輪郭が抽出されなかった部位を黒色で表現する。すなわち、典型輪郭画像100は、多数の学習サンプル画像74等に共通して含まれる対象物(横断歩行者70、72)の輪郭を表す画像に相当する。
Then, by using various image processing (for example, averaging processing) for each contour extraction image using an image processing device (not shown), a contour image typical for each learning sample image 74 (
例えば、輪郭特徴量が所定の閾値を超えたサブ領域82を演算対象として採用し、輪郭特徴量が所定の閾値を下回ったサブ領域82を演算対象から除外する。その結果、図8Bに示すように、画像領域80内にそれぞれ定義された48個のサブ領域82のうち、20個のサブ領域82(典型輪郭画像100の部分画像を示した領域)の集合が非マスク領域102として決定されたとする。また、48個のサブ領域82のうち、残余の28個のサブ領域82(白く塗り潰した領域)の集合がマスク領域104として決定される。
For example, the
図9Aは、対面歩行者を含む多数の学習サンプル画像から得た、典型輪郭画像106を表す模式図である。典型輪郭画像106の作成方法については、図8Aの典型輪郭画像100と同様であるので、その説明を省略する。
FIG. 9A is a schematic diagram showing a
図9Bは、対面歩行者を含む各学習サンプル画像に共通する、非マスク領域108及びマスク領域110を示す概略説明図である。マスク領域110の決定方法については、図8Bのマスク領域104と同様であるので、その説明を省略する。
FIG. 9B is a schematic explanatory diagram showing a
図8B及び図9Bから理解されるように、対象物は同一(歩行者)であるにもかかわらず、マスク領域104、110が異なっている。より詳細には、マスク領域104、110は、ハッチングを付した4つのサブ領域82(図9B参照)がマスク対象であるか否かで異なる。これは、歩行動作(手足を振る動き)に起因する像形状の変化の度合いが、歩行者の移動方向によって異なるためである。このように、移動方向に応じて画像上での像形状が変化する傾向を踏まえ、対象物の移動方向毎に学習させてもよい。移動方向としては、画像面に対して横断方向(より詳しくは右方向、左方向)、対面方向(より詳しくは手前方向、奥方向)、斜め方向のいずれであってもよい。
As can be understood from FIGS. 8B and 9B, the
ステップS15において、ステップS11で収集した多数の学習データを、識別器50に対して遂次入力することで機械学習をさせる。以下、図7を参照しながら詳細に説明する。
In step S15, machine learning is performed by sequentially inputting a large number of learning data collected in step S11 to the
先ず、識別器50は、収集された各学習データのうち、横断歩行者70を含む学習サンプル画像74を特徴データ生成器90側にそれぞれ入力する。そして、各特徴データ生成器90は、ステップS14で決定されたマスク条件に従って、学習サンプル画像74に対し特定の演算処理を施すことで各特徴データ(総称して、特徴データ群)を作成する。マスク処理の具体的方法として、マスク領域104(図8B参照)に属する全画素の値を使用せずに演算してもよいし、上記した全画素の値を所定値(例えば0)に置き換えた後に演算することで、特徴データを実質的に無効にしてもよい。
First, the
そして、各弱学習器92(第i弱学習器;1≦i≦N)は、特徴データ生成器90(第iデータ生成器)から取得した各特徴データ(第i特徴データ)に対して所定の演算を施すことで各出力結果(第i出力結果)を得る。そして、重み付け更新器93は、各弱学習器92から取得した第1〜第N出力結果をそれぞれ入力するとともに、収集された1つの学習データのうちの対象物の存否情報である対象物情報96を入力する。ここで、対象物情報96は、学習サンプル画像74の中に横断歩行者70が含まれる旨を示す。
Each weak learner 92 (i-th weak learner; 1 ≦ i ≦ N) is predetermined for each feature data (i-th feature data) acquired from the feature data generator 90 (i-th data generator). Each output result (i-th output result) is obtained by performing the above calculation. The
その後、重み付け更新器93は、対象物情報96に応じた出力値との誤差量が最小となる出力結果を得た弱学習器92を1つ選択し、その重み付け係数αが大きくなるように更新量Δαを決定する。そして、重み付け演算器94は、重み付け更新器93から供給された更新量Δαを加算することで重み付け係数αを更新する。これと併せて、サンプル荷重更新器95は、更新された重み付け係数α等に基づいて、学習サンプル画像74等に予め付与された荷重(以下、サンプル荷重97という)を更新する。
Thereafter, the
このように、学習データの入力、重み付け係数αの更新、及びサンプル荷重97の更新を順次繰り返し、収束条件を満たすまで識別器50に機械学習をさせる(ステップS15)。
In this manner, the learning data is input, the weighting coefficient α is updated, and the
以上のようにして、機械学習された識別器50を車両周辺監視装置10(図1参照)内に実装することで、撮像画像Imの識別対象領域内に少なくとも1種類の対象物が存在するか否かを識別可能な対象物識別部44が構築される。
As described above, by mounting the machine-learned
続いて、車両周辺監視装置10の詳細な動作について、図10のフローチャートを参照しながら説明する。なお、本処理の流れは、車両12が走行中である場合、撮像のフレーム毎に実行される。
Next, the detailed operation of the vehicle
ステップS21において、ECU22は、フレーム毎に、カメラ14により撮像された車両12の前方(所定画角範囲)の出力信号である撮像画像Imを取得する。例えば、図3Aに示すように、撮像時点T=T1においてフレーム単位の撮像画像Imが得られたとする。そして、ECU22は、取得した撮像画像Imを記憶部34に一時的に記憶させる。例えば、カメラ14としてRGBカメラを用いる場合、得られた撮像画像Imは、3つのカラーチャンネルからなる多階調画像である。
In step S21, the
ステップS22において、距離推定部40は、ステップS21で取得された撮像画像Imを用いて車両12の仰俯角を算出することで、車両12からの距離Disをそれぞれ推定する。
In step S22, the
図11は、車両12、カメラ14及び人体Mの位置関係を表す概略説明図である。ここで、カメラ14を搭載した車両12、及び、対象物としての人体Mが、平坦な路面S上に存在する場合を想定する。また、人体Mと路面Sとの接触点をPcとし、カメラ14の光軸をL1とし、カメラ14の光学中心Cと接触点Pcとを結ぶ直線をL2とする。
FIG. 11 is a schematic explanatory diagram showing the positional relationship between the
例えば、カメラ14の光軸L1が路面Sに対してなす角(仰俯角)がβであり、直線L2が直線L1に対してなす角がγであり、路面Sに対するカメラ14の高さがHcであったとする。この場合、距離Disは、幾何学的な考察から、角度β、γ、及び高さHcを用いて、次の(1)式で算出される。
Dis=Hc/tan(β+γ) ‥(1)
For example, the angle (elevation angle) formed by the optical axis L1 of the
Dis = Hc / tan (β + γ) (1)
このようにして、距離推定部40は、撮像画像Im上における路面S(図3Aの道路60)の各位置に対応する距離Disをそれぞれ推定できる。あるいは、距離推定部40は、車両12の運動に伴う、路面Sとカメラ14との間の姿勢変化を考慮し、SfM(Structure from Motion)等の公知の手法を用いて距離Disを推定してもよい。なお、車両周辺監視装置10が測距センサを備える場合、これを利用して距離Disを計測してもよい。
In this way, the
ステップS23において、識別対象領域決定部42は、識別対象の画像領域である識別対象領域122のサイズ等を決定する。本実施形態では、識別対象領域決定部42は、ステップS22で推定された距離Dis、及び/又は、車速センサ16から取得した車速Vsに応じて、識別対象領域122のサイズ等を決定する。この具体例について図12を参照しながら説明する。
In step S23, the identification target
図12に示すように、路面S(道路60)と人体M(横断歩行者64)との接触点Pc(図11参照)に対応する、撮像画像Im上の位置を基準位置120とする。そして、横断歩行者64をすべて含むように、矩形状の識別対象領域122が設定される。
As illustrated in FIG. 12, a position on the captured image Im corresponding to a contact point Pc (see FIG. 11) between the road surface S (road 60) and the human body M (crossing pedestrian 64) is set as a
識別対象領域決定部42は、カメラ14(図11の光学中心C)から対象物までの距離Disに比例するように識別対象領域122のサイズを決定する。路面S(道路60)上の基準位置124に、破線で図示した横断歩行者64fが存在すると仮定した場合、識別対象領域122に相似する識別対象領域126が設定される。これにより、横断歩行者64(64f)と識別対象領域122(126)との間の相対的大小関係が距離Disによらず一定になり、外乱因子(対象物の投影像以外の画像情報)の影響を一律に抑えることで対象物の学習・識別精度が一層向上する。
The identification target
そして、識別対象領域決定部42は、後述するラスタスキャンの対象範囲である指定領域128を併せて決定する。例えば、通常の動作範囲内において対象物が確実に検知される距離であるDis1を下限値として決定し、通常の動作範囲内において対象物に即時に衝突するおそれがない距離であるDis2を上限値として決定してもよい。このように、撮像画像Imのうちの一部の領域におけるスキャンを省略することで、識別処理の演算量及び演算時間を低減できるのみならず、指定領域128以外の領域において生じ得る誤検出自体を無くすることができる。
Then, the identification target
なお、識別対象領域決定部42は、対象物の種類に応じて、識別対象領域122の形状を適宜変更してもよい。この場合、本実施形態の場合と同様に、距離Disに比例したサイズに決定してもよい。
Note that the identification target
また、識別対象領域決定部42は、同一の距離Disであっても、対象物の身長に応じて識別対象領域122のサイズを変更してもよい。これにより、対象物の身長別に適切なサイズを設定可能であり、外乱因子の影響を一律に抑えることで対象物の学習・識別精度がさらに一層向上する。
Further, the identification target
ステップS24において、演算部30は、ステップS23で決定された指定領域128内で、撮像画像Imのラスタスキャンを開始する。ここで、ラスタスキャンとは、基準位置120(撮像画像Im内の画素)を所定の方向に移動させながら、対象物の有無を遂次識別する手法をいう。以下、識別対象領域決定部42は、現在スキャン中の基準位置120、及び、基準位置120から特定される識別対象領域122の位置・サイズを遂次決定する。
In step S24, the
ステップS25において、対象物識別部44は、決定された識別対象領域122内に、少なくとも1種類の対象物が存在するか否かを識別する。
In step S <b> 25, the
図13に示すように、対象物識別部44は、機械学習を用いて生成された識別器50(図7参照)である。重み付け演算器94には、機械学習(図4のステップS15)により得た、適切な重み付け係数αfが予め設定されている。
As illustrated in FIG. 13, the
対象物識別部44は、識別対象領域122を含む画像領域80を有する評価画像130を、各特徴データ生成器90側に入力する。ここで、対象物識別部44による識別精度を高めるため、識別対象領域122の画像に対して正規化処理(階調処理・拡縮処理)、位置合わせ処理等の必要な画像処理を適宜施してもよい。そして、対象物識別部44は、各特徴データ生成器90、各弱学習器92、重み付け演算器94、及び、重み付け演算器94から取得した重み付け出力結果に対して階段関数を作用させる統合学習器98を介して、評価画像130を順次処理し、識別対象領域122内に横断歩行者64が存在する旨の識別結果を出力する。この場合、対象物識別部44は、N個の弱識別器(弱学習器92)を組み合わせることで高い識別性能を備えた強識別器として機能する。
The
各特徴データ生成器90は、学習処理の場合(図7参照)と同一の演算方法を用いて、各サブ領域82における画像特徴量(すなわち、上述の特徴データ群)をそれぞれ算出する。
Each
ところで、画像特徴量の算出方法は、公知の方法を種々用いることができる。以下、画像の局所領域での輝度の強度及び勾配の特徴を示すHOG(Histograms of Oriented Gradient;輝度勾配方向ヒストグラム)特徴量について説明する。 By the way, various known methods can be used as the image feature amount calculation method. Hereinafter, the HOG (Histograms of Oriented Gradient) feature amount indicating the intensity and gradient characteristics of the luminance in the local region of the image will be described.
図14Aに示すように、画像領域80の中から、ヒストグラムの作成単位であるブロックが1つ選択されたとする。技術の理解を容易にするため、以下、各ブロックをそれぞれのサブ領域82に対応させて定義する。例えば、ブロックとしてのサブ領域82は、縦に6画素、横に6画素、合計36個の画素84で構成されたとする。
As shown in FIG. 14A, it is assumed that one block which is a histogram creation unit is selected from the
図14Bに示すように、ブロックを構成する画素84毎に、輝度の二次元勾配(Ix,Iy)が算出される。この場合、勾配強度I及び空間輝度勾配角θは、次の(2)式及び(3)式に従って算出される。
I=(Ix2+Iy2)1/2 ‥(2)
θ=tan−1(Iy/Ix) ‥(3)
As shown in FIG. 14B, a two-dimensional gradient (Ix, Iy) of luminance is calculated for each
I = (Ix 2 + Iy 2 ) 1/2 (2)
θ = tan −1 (Iy / Ix) (3)
第1行目の各格子内に表記された矢印は、平面的な輝度勾配の方向を図示する。実際には、勾配強度I及び空間輝度勾配角θが、すべての画素84に対して算出されるが、第2行目以降における矢印の図示を省略する。
The arrows written in each grid in the first row illustrate the direction of the planar luminance gradient. Actually, the gradient intensity I and the spatial luminance gradient angle θ are calculated for all the
図14Cに示すように、1つのブロックにつき、空間輝度勾配角θに対するヒストグラムが作成される。ヒストグラムの横軸は空間輝度勾配角θ(本図例では、8つの区分)であり、ヒストグラムの縦軸は勾配強度Iである。この場合、(2)式に示す勾配強度Iに基づいてブロック毎のヒストグラムが作成される。 As shown in FIG. 14C, a histogram for the spatial luminance gradient angle θ is created for each block. The horizontal axis of the histogram is the spatial luminance gradient angle θ (eight divisions in this example), and the vertical axis of the histogram is the gradient intensity I. In this case, a histogram for each block is created based on the gradient intensity I shown in Equation (2).
図15Aに示すように、ブロック毎のヒストグラム(図14C例では空間輝度勾配角θ)を予め定めた順番、例えば昇順に連結することで、評価画像130のHOG特徴量が得られる。
As illustrated in FIG. 15A, the HOG feature amount of the
このように、画像特徴量には、空間上での輝度勾配方向ヒストグラム(HOG特徴量)が含まれてもよい。撮像の露光量に起因する輝度勾配方向(θ)の変動は小さいので、対象物の特徴を的確に捉えることが可能であり、環境光の強度が時々刻々と変化する屋外環境であっても安定した識別精度が得られる。 Thus, the image feature amount may include a luminance gradient direction histogram (HOG feature amount) in space. Because the fluctuation of the luminance gradient direction (θ) due to the exposure amount of imaging is small, it is possible to accurately capture the characteristics of the target object, and it is stable even in outdoor environments where the intensity of ambient light changes from moment to moment Identification accuracy can be obtained.
また、画像特徴量として、HOG特徴量の定義を拡張させたSTHOG(Spatio-Temporal Histograms of Oriented Gradient)特徴量を用いてもよい。この場合、時系列で取得された複数の撮像画像Imを用いて、図14Bの場合と同様に、ブロックを構成する画素84毎に、輝度の三次元的勾配(Ix,Iy,It)が算出される。ここで、勾配強度I及び時間輝度勾配角φは、次の(4)式及び(5)式に従って算出される。
I=(Ix2+Iy2+It2)1/2 ‥(4)
φ=tan−1{It/(Ix2+Iy2)1/2} ‥(5)
Further, as the image feature amount, an STHOG (Spatio-Temporal Histograms of Oriented Gradient) feature amount in which the definition of the HOG feature amount is expanded may be used. In this case, a three-dimensional gradient (Ix, Iy, It) of luminance is calculated for each
I = (Ix 2 + Iy 2 + It 2 ) 1/2 (4)
φ = tan −1 {It / (Ix 2 + Iy 2 ) 1/2 } (5)
図15Bに示すように、HOG特徴量に対し、時間輝度勾配角φのヒストグラムをさらに連結することで、時空間上での輝度勾配ヒストグラムであるSTHOG特徴量が得られる。このように、空間上の輝度勾配方向(θ)のみならず、時間上の輝度勾配方向(φ)も併せて考慮することで、時系列で取得された複数の撮像画像Imにわたる対象物の検知・追跡が容易になる。 As shown in FIG. 15B, an STHOG feature quantity that is a brightness gradient histogram in space-time is obtained by further connecting a histogram of temporal brightness gradient angle φ to the HOG feature quantity. Thus, not only the luminance gradient direction (θ) in space but also the luminance gradient direction (φ) in time is taken into consideration, thereby detecting an object over a plurality of captured images Im acquired in time series.・ Easy tracking.
なお、STHOG特徴量の場合もHOG特徴量と同様に、(2)式に示す勾配強度Iに基づいてブロック毎のヒストグラムが作成される。 In the case of the STHOG feature value, similarly to the HOG feature value, a histogram for each block is created based on the gradient intensity I shown in the equation (2).
このようにして、対象物識別部44は、決定された識別対象領域122内に、少なくとも1種類の対象物が存在するか否かを識別する(ステップS25)。これにより、人体Mを含む対象物の種類のみならず、横断方向・対面方向を含む移動方向も併せて識別される。
In this way, the
ステップS26において、識別対象領域決定部42は、指定領域128内のスキャンがすべて完了したか否かを判別する。未完了であると判別された場合(ステップS26:NO)、次のステップ(S27)に進む。
In step S <b> 26, the identification target
ステップS27において、識別対象領域決定部42は、識別対象領域122の位置又はサイズを変更する。具体的には、識別対象領域決定部42は、スキャン対象であった基準位置120を所定方向(例えば、右方向)に所定量(例えば、1画素分)だけ移動する。また、距離Disが変化する場合、識別対象領域122のサイズも併せて変更する。さらに、対象物の種類によって体長又は体幅の典型値が異なることを考慮して、識別対象領域決定部42は、対象物の種類に応じて識別対象領域122のサイズを変更してもよい。
In step S <b> 27, the identification target
その後、ステップS25に戻って、演算部30は、指定領域128内のスキャンがすべて完了するまでステップS25〜S27を順次繰り返す。完了したと判別された場合(ステップS26:YES)、演算部30は、撮像画像Imのラスタスキャンを終了する(ステップS28)。
Thereafter, returning to step S25, the
ステップS29において、対象物検知部46は、撮像画像Im内に存在する対象物を検知する。フレーム単体での識別結果を用いてもよいし、複数のフレームでの識別結果を併せて考慮することで、同一の対象物についての動きベクトルを算出できる。
In step S29, the
ステップS30において、ECU22は、次回の演算処理に必要なデータを記憶部34に記憶させる。例えば、ステップS22で作成された距離Dis、ステップS25で得られた対象物(図3A等の横断歩行者64)の属性、基準位置120等が挙げられる。
In step S30, the
この動作を遂次実行することで、車両周辺監視装置10は、所定の時間間隔で、車両12の前方に存在する対象物(例えば、図11の人体M)を監視することができる。
By sequentially executing this operation, the vehicle
以上のように、本発明に係る車両周辺監視装置10は、車両12に搭載され、車両12の走行中に撮像することで車両12の周辺における撮像画像Imを取得するカメラ14と、取得された撮像画像Imの中から識別対象領域122、126を抽出する識別対象領域決定部42と、抽出された識別対象領域122、126における画像特徴量から、識別対象領域122、126内に対象物(例えば、横断歩行者64)が存在するか否かを対象物の種類毎に識別する対象物識別部44とを備える。対象物識別部44は、画像特徴量としての特徴データ群を入力とし対象物の存否情報を出力とする、機械学習を用いて生成された識別器50である。
As described above, the vehicle
そして、対象物識別手段としての識別器50は、機械学習に供される各学習サンプル画像74、76を構成する複数のサブ領域82のうち、対象物の種類に応じて選択した少なくとも1つのサブ領域82(非マスク領域102、108)の画像から、前記特徴データ群を作成し入力するようにしたので、対象物の投影像の形状に適したサブ領域82の画像情報を、学習処理に対して選択的に採用可能であり、対象物の種類にかかわらず学習精度を向上させることができる。そして、残余のサブ領域82(マスク領域104、110)を学習処理から除外することで、識別処理の際に外乱因子として作用する、対象物の投影像以外の画像情報に対する過学習を防止可能であり、対象物の識別精度を向上させることができる。なお、車載されたカメラ14から得た撮像画像Imのシーン(背景、天候、路面パターン等)は時々刻々と変化するため、特に効果的である。
The
なお、この発明は、上述した実施形態に限定されるものではなく、この発明の主旨を逸脱しない範囲で自由に変更できることは勿論である。 In addition, this invention is not limited to embodiment mentioned above, Of course, it can change freely in the range which does not deviate from the main point of this invention.
本実施形態では、単眼カメラ(カメラ14)により得られた撮像画像Imに対して上記した識別処理を実行しているが、複眼カメラ(ステレオカメラ)でも同様の作用効果が得られることは言うまでもない。 In the present embodiment, the above-described identification process is performed on the captured image Im obtained by the monocular camera (camera 14), but it goes without saying that the same effect can also be obtained with a compound eye camera (stereo camera). .
また、本実施形態では、対象物識別部44(識別器50)による学習処理及び識別処理を分離して実行しているが、両者の処理を並列的に実行可能に設けてもよい。 In the present embodiment, the learning process and the identification process by the object identification unit 44 (identifier 50) are performed separately, but both processes may be provided so as to be executed in parallel.
10…車両周辺監視装置 12…車両
14…カメラ 22…ECU
30…演算部 34…記憶部
40…距離推定部 42…識別対象領域決定部
44…対象物識別部 46…対象物検知部
50…識別器 64、70、72…横断歩行者
74、76…学習サンプル画像 78…背景部
80…画像領域 82…サブ領域
90…特徴データ生成器 92…弱学習器
94…重み付け演算器 96…対象物情報
98…統合学習器 100、106…典型輪郭画像
102、108…非マスク領域 104、110…マスク領域
120、124…基準位置 122、126…識別対象領域
128…指定領域 130…評価画像
DESCRIPTION OF
DESCRIPTION OF
Claims (5)
前記撮像手段により取得された前記撮像画像の中から識別対象領域を抽出する識別対象領域抽出手段と、
前記識別対象領域抽出手段により抽出された前記識別対象領域における画像特徴量から、前記識別対象領域内に対象物が存在するか否かを前記対象物の種類毎に識別する対象物識別手段と
を備え、
前記対象物識別手段は、前記画像特徴量としての特徴データ群を入力とし前記対象物の存否情報を出力とする、機械学習を用いて生成された識別器であり、
前記識別器は、前記機械学習に供される各学習サンプル画像を構成する複数のサブ領域のうち、前記対象物の種類に応じて選択した少なくとも1つの前記サブ領域の画像から、前記特徴データ群を作成し入力する
ことを特徴とする車両周辺監視装置。 An imaging means mounted on a vehicle for acquiring a captured image in the vicinity of the vehicle by capturing an image while the vehicle is running;
An identification target area extracting means for extracting an identification target area from the captured image acquired by the imaging means;
Object identification means for identifying, for each type of the object, whether or not an object exists in the identification object area from the image feature amount in the identification object area extracted by the identification object area extraction means. Prepared,
The target object identification means is a classifier generated using machine learning, wherein a feature data group as the image feature amount is input and presence / absence information of the target object is output.
The classifier includes the feature data group from images of at least one sub-region selected according to the type of the target object among a plurality of sub-regions constituting each learning sample image used for the machine learning. A vehicle periphery monitoring device characterized by creating and inputting a vehicle.
前記対象物識別手段は、前記識別対象領域内に前記対象物が存在するか否かを該対象物の移動方向毎に識別することを特徴とする車両周辺監視装置。 The vehicle periphery monitoring device according to claim 1,
The vehicle object monitoring device, wherein the object identifying means identifies whether the object exists in the identification object area for each moving direction of the object.
前記識別対象領域抽出手段は、前記撮像手段から前記対象物までの距離に比例するサイズの前記識別対象領域を抽出することを特徴とする車両周辺監視装置。 The apparatus according to claim 1 or 2,
The vehicle periphery monitoring apparatus, wherein the identification target area extracting unit extracts the identification target area having a size proportional to a distance from the imaging unit to the target.
前記画像特徴量には、空間上での輝度勾配方向ヒストグラムが含まれることを特徴とする車両周辺監視装置。 The device according to any one of claims 1 to 3,
A vehicle periphery monitoring device, wherein the image feature amount includes a luminance gradient direction histogram in space.
前記画像特徴量には、時空間上での輝度勾配方向ヒストグラムが含まれることを特徴とする車両周辺監視装置。 The device according to any one of claims 1 to 3,
A vehicle periphery monitoring apparatus, wherein the image feature amount includes a luminance gradient direction histogram in time and space.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012258488A JP2014106685A (en) | 2012-11-27 | 2012-11-27 | Vehicle periphery monitoring device |
PCT/JP2013/081808 WO2014084218A1 (en) | 2012-11-27 | 2013-11-26 | Subject detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012258488A JP2014106685A (en) | 2012-11-27 | 2012-11-27 | Vehicle periphery monitoring device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014106685A true JP2014106685A (en) | 2014-06-09 |
Family
ID=50827854
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012258488A Pending JP2014106685A (en) | 2012-11-27 | 2012-11-27 | Vehicle periphery monitoring device |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2014106685A (en) |
WO (1) | WO2014084218A1 (en) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017010206A (en) * | 2015-06-19 | 2017-01-12 | 株式会社デンソー | Driving operation determination device |
JP2017146957A (en) * | 2016-02-19 | 2017-08-24 | トヨタ自動車株式会社 | Augmenting layer-based object detection with deep convolutional neural networks |
JP2017159884A (en) * | 2016-03-10 | 2017-09-14 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Drive control device, drive control method and drive control program |
CN107390682A (en) * | 2017-07-04 | 2017-11-24 | 安徽省现代农业装备产业技术研究院有限公司 | A kind of agri-vehicle automatic Pilot path follower method and system |
JP2018136211A (en) * | 2017-02-22 | 2018-08-30 | オムロン株式会社 | Environment recognition system and learning device |
JP2018152106A (en) * | 2018-05-02 | 2018-09-27 | 株式会社日立国際電気 | System for detecting invasion on water and method for the same |
WO2018173819A1 (en) * | 2017-03-22 | 2018-09-27 | パナソニックIpマネジメント株式会社 | Image recognition device |
JP2019008796A (en) * | 2017-06-23 | 2019-01-17 | ウーバー テクノロジーズ,インコーポレイテッド | Collision avoidance system for autonomous vehicle |
KR20190013843A (en) * | 2016-05-16 | 2019-02-11 | 와이-트로닉스, 엘엘씨 | Video content analysis system and method for transportation system |
JP2019517701A (en) * | 2016-07-25 | 2019-06-24 | 三菱電機株式会社 | Method and system for detecting an object in an image |
JP2020201863A (en) * | 2019-06-13 | 2020-12-17 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
WO2021205616A1 (en) * | 2020-04-09 | 2021-10-14 | 三菱電機株式会社 | Moving body control device, moving body control method, and learning device |
RU2784892C2 (en) * | 2016-05-16 | 2022-11-30 | ВАЙ-ТРОНИКС, ЭлЭлСи | Method and system for analysis of video content for transport system |
JP7484587B2 (en) | 2020-08-31 | 2024-05-16 | 沖電気工業株式会社 | Traffic monitoring device, traffic monitoring system, traffic monitoring method, and traffic monitoring program |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6542824B2 (en) | 2017-03-13 | 2019-07-10 | ファナック株式会社 | Image processing apparatus and image processing method for calculating likelihood of image of object detected from input image |
JP7002729B2 (en) | 2017-07-31 | 2022-01-20 | 株式会社アイシン | Image data generator, image recognition device, image data generation program, and image recognition program |
US11257370B2 (en) | 2018-03-19 | 2022-02-22 | Derq Inc. | Early warning and collision avoidance |
WO2020100438A1 (en) * | 2018-11-13 | 2020-05-22 | ソニー株式会社 | Information processing device, information processing method, and program |
CA3148680A1 (en) | 2019-08-29 | 2021-03-04 | Derq Inc. | Enhanced onboard equipment |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011165170A (en) * | 2010-01-15 | 2011-08-25 | Toyota Central R&D Labs Inc | Object detection device and program |
JP2011210181A (en) * | 2010-03-30 | 2011-10-20 | Secom Co Ltd | Learning device and object detection device |
JP2011216069A (en) * | 2010-03-16 | 2011-10-27 | Panasonic Corp | Object identification device and method, and learning method of the device |
WO2011161924A1 (en) * | 2010-06-23 | 2011-12-29 | 国立大学法人大阪大学 | Moving-object detection device |
JP2012128558A (en) * | 2010-12-14 | 2012-07-05 | Toshiba Corp | Identification apparatus |
WO2012124000A1 (en) * | 2011-03-17 | 2012-09-20 | 日本電気株式会社 | Image recognition system, image recognition method, and nontemporary computer- readable medium in which program for image recognition is stored |
JP2012185684A (en) * | 2011-03-07 | 2012-09-27 | Jvc Kenwood Corp | Object detection device and object detection method |
JP2013117865A (en) * | 2011-12-02 | 2013-06-13 | Kyushu Institute Of Technology | Detection method for body and detection device for body using the method |
-
2012
- 2012-11-27 JP JP2012258488A patent/JP2014106685A/en active Pending
-
2013
- 2013-11-26 WO PCT/JP2013/081808 patent/WO2014084218A1/en active Application Filing
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011165170A (en) * | 2010-01-15 | 2011-08-25 | Toyota Central R&D Labs Inc | Object detection device and program |
JP2011216069A (en) * | 2010-03-16 | 2011-10-27 | Panasonic Corp | Object identification device and method, and learning method of the device |
JP2011210181A (en) * | 2010-03-30 | 2011-10-20 | Secom Co Ltd | Learning device and object detection device |
WO2011161924A1 (en) * | 2010-06-23 | 2011-12-29 | 国立大学法人大阪大学 | Moving-object detection device |
JP2012128558A (en) * | 2010-12-14 | 2012-07-05 | Toshiba Corp | Identification apparatus |
JP2012185684A (en) * | 2011-03-07 | 2012-09-27 | Jvc Kenwood Corp | Object detection device and object detection method |
WO2012124000A1 (en) * | 2011-03-17 | 2012-09-20 | 日本電気株式会社 | Image recognition system, image recognition method, and nontemporary computer- readable medium in which program for image recognition is stored |
JP2013117865A (en) * | 2011-12-02 | 2013-06-13 | Kyushu Institute Of Technology | Detection method for body and detection device for body using the method |
Non-Patent Citations (1)
Title |
---|
吉田 英史、外6名: ""生成型学習法を用いた姿勢変化に頑健な歩行者検出の検討"", 電子情報通信学会技術研究報告, vol. 111, no. 49, JPN6014002087, 12 May 2011 (2011-05-12), JP, pages 127 - 132, ISSN: 0003133383 * |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017010206A (en) * | 2015-06-19 | 2017-01-12 | 株式会社デンソー | Driving operation determination device |
JP2017146957A (en) * | 2016-02-19 | 2017-08-24 | トヨタ自動車株式会社 | Augmenting layer-based object detection with deep convolutional neural networks |
JP2017159884A (en) * | 2016-03-10 | 2017-09-14 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Drive control device, drive control method and drive control program |
KR102437322B1 (en) * | 2016-05-16 | 2022-08-29 | 와이-트로닉스, 엘엘씨 | Methods for video content analysis systems and transportation systems |
RU2784892C2 (en) * | 2016-05-16 | 2022-11-30 | ВАЙ-ТРОНИКС, ЭлЭлСи | Method and system for analysis of video content for transport system |
KR20190013843A (en) * | 2016-05-16 | 2019-02-11 | 와이-트로닉스, 엘엘씨 | Video content analysis system and method for transportation system |
JP2019517701A (en) * | 2016-07-25 | 2019-06-24 | 三菱電機株式会社 | Method and system for detecting an object in an image |
CN110140130A (en) * | 2017-02-22 | 2019-08-16 | 欧姆龙株式会社 | Context awareness system and facility for study |
JP2018136211A (en) * | 2017-02-22 | 2018-08-30 | オムロン株式会社 | Environment recognition system and learning device |
WO2018173819A1 (en) * | 2017-03-22 | 2018-09-27 | パナソニックIpマネジメント株式会社 | Image recognition device |
JP2018160049A (en) * | 2017-03-22 | 2018-10-11 | パナソニックIpマネジメント株式会社 | Image recognition device |
JP2019008796A (en) * | 2017-06-23 | 2019-01-17 | ウーバー テクノロジーズ,インコーポレイテッド | Collision avoidance system for autonomous vehicle |
US10649464B2 (en) | 2017-06-23 | 2020-05-12 | Uatc Llc | Collision-avoidance system for autonomous-capable vehicles |
US11402848B2 (en) | 2017-06-23 | 2022-08-02 | Uatc, Llc | Collision-avoidance system for autonomous-capable vehicles |
CN107390682B (en) * | 2017-07-04 | 2020-08-07 | 安徽省现代农业装备产业技术研究院有限公司 | Automatic driving path following method and system for agricultural vehicle |
CN107390682A (en) * | 2017-07-04 | 2017-11-24 | 安徽省现代农业装备产业技术研究院有限公司 | A kind of agri-vehicle automatic Pilot path follower method and system |
JP2018152106A (en) * | 2018-05-02 | 2018-09-27 | 株式会社日立国際電気 | System for detecting invasion on water and method for the same |
JP2020201863A (en) * | 2019-06-13 | 2020-12-17 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
JP7401199B2 (en) | 2019-06-13 | 2023-12-19 | キヤノン株式会社 | Information processing device, information processing method, and program |
WO2021205616A1 (en) * | 2020-04-09 | 2021-10-14 | 三菱電機株式会社 | Moving body control device, moving body control method, and learning device |
JP7484587B2 (en) | 2020-08-31 | 2024-05-16 | 沖電気工業株式会社 | Traffic monitoring device, traffic monitoring system, traffic monitoring method, and traffic monitoring program |
Also Published As
Publication number | Publication date |
---|---|
WO2014084218A1 (en) | 2014-06-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2014084218A1 (en) | Subject detection device | |
JP7052663B2 (en) | Object detection device, object detection method and computer program for object detection | |
US11741696B2 (en) | Advanced path prediction | |
JP5922257B2 (en) | Vehicle periphery monitoring device | |
WO2019223582A1 (en) | Target detection method and system | |
JP4173902B2 (en) | Vehicle periphery monitoring device | |
JP4173901B2 (en) | Vehicle periphery monitoring device | |
JP5856682B2 (en) | Object identification device | |
JP4171501B2 (en) | Vehicle periphery monitoring device | |
DE112018007287T5 (en) | VEHICLE SYSTEM AND METHOD FOR DETECTING OBJECTS AND OBJECT DISTANCE | |
US8712096B2 (en) | Method and apparatus for detecting and tracking vehicles | |
US9165197B2 (en) | Vehicle surroundings monitoring apparatus | |
US10984264B2 (en) | Detection and validation of objects from sequential images of a camera | |
JP4631036B2 (en) | Passer-by behavior analysis device, passer-by behavior analysis method, and program thereof | |
CN111967396A (en) | Processing method, device and equipment for obstacle detection and storage medium | |
Romera et al. | A Real-Time Multi-scale Vehicle Detection and Tracking Approach for Smartphones. | |
CN114359714A (en) | Unmanned body obstacle avoidance method and device based on event camera and intelligent unmanned body | |
WO2018138782A1 (en) | Information processing device, feature point extraction program, and feature point extraction method | |
US11120292B2 (en) | Distance estimation device, distance estimation method, and distance estimation computer program | |
KR20160015091A (en) | Trafic signal control using HOG-based pedestrian detection and behavior patterns | |
JP4055785B2 (en) | Moving object height detection method and apparatus, and object shape determination method and apparatus | |
JP5907849B2 (en) | Vehicle periphery monitoring device | |
US20230267749A1 (en) | System and method of segmenting free space based on electromagnetic waves | |
GB2525587A (en) | Monocular camera cognitive imaging system for a vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140922 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140922 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20140922 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150818 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160405 |