JP2008060988A - Apparatus for acquiring travel environment information - Google Patents
Apparatus for acquiring travel environment information Download PDFInfo
- Publication number
- JP2008060988A JP2008060988A JP2006236568A JP2006236568A JP2008060988A JP 2008060988 A JP2008060988 A JP 2008060988A JP 2006236568 A JP2006236568 A JP 2006236568A JP 2006236568 A JP2006236568 A JP 2006236568A JP 2008060988 A JP2008060988 A JP 2008060988A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- image
- imaging
- unit
- cameras
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は自動車など移動体に搭載され、移動体周囲の環境を認識して障害物を検出する走行環境情報取得装置に関する。 The present invention relates to a traveling environment information acquisition device that is mounted on a moving body such as an automobile and detects an obstacle by recognizing the environment around the moving body.
従来、運転者を支援するために、自動車などの車両に搭載され、自車両が走行する方向に存在する走行の障害となる物体を、画像処理により認識する装置が知られている。 2. Description of the Related Art Conventionally, in order to assist a driver, an apparatus that is mounted on a vehicle such as an automobile and recognizes an object that obstructs traveling that exists in the traveling direction of the host vehicle by image processing is known.
このように障害物を検出する装置として、例えば、特許文献1の走行環境認識装置が周知である。この走行環境認識装置では、レーダにより検出された対象物までの距離および方位とカメラで撮影した画像とから対象物までの距離と方位に応じて物体識別対象の範囲を限定(特定)し、限定した範囲内の画像で物体識別が行われている。
As an apparatus for detecting an obstacle in this way, for example, a traveling environment recognition apparatus disclosed in
図10〜図12を用いて、従来の走行環境認識装置において撮像した画像を用いて物体識別を行う処理を説明する。 A process for identifying an object using an image captured by a conventional travel environment recognition apparatus will be described with reference to FIGS.
図10は、走行車両と対象物の位置関係を示す図、図11は、図10の位置関係を用いて、従来の方式による自車両と対象物の位置関係から画像内の対象物範囲特定方法を示す概念図、図12は、従来の方式における自車両と対象物の位置関係から画像内の対象物画像の抽出方法を示す概念図である。 FIG. 10 is a diagram showing the positional relationship between the traveling vehicle and the object, and FIG. 11 is a method for specifying the object range in the image from the positional relationship between the vehicle and the object according to the conventional method using the positional relationship of FIG. FIG. 12 is a conceptual diagram showing a method for extracting an object image in an image from the positional relationship between the host vehicle and the object in the conventional method.
図10に示す走行車両において、移動方向に位置する対象物A〜Cの物体識別を行う場合、従来の走行環境装置では、カメラを用いて走行方向に存在する対象物A〜Cを撮影する(図11(a)参照)する。図11(a)に示すように対象物A〜Cが表示された一画像1と、レーダで取得した対象物A〜Cまでの距離及び対象物A〜Cの方向によって、図11(b)に示すように、対象物A〜Cのそれぞれに対して対象物認識範囲2〜4を設定する。
In the traveling vehicle shown in FIG. 10, when performing object identification of the objects A to C located in the moving direction, the conventional traveling environment apparatus photographs the objects A to C existing in the traveling direction using a camera ( (See FIG. 11A). As shown in FIG. 11 (a), depending on one
次いで、図12に示すように、画面1から対象物認識範囲2〜4を抽出し、それぞれを物体識別可能な変換処理(図12では拡大した画像6〜8として示す)を行って対象物認識処理を実行する。
特許文献1に示す走行環境認識装置で用いられる物体認識方法では、図11及び図12に示すように、対象物A〜Cに対して物体認識対象を行う場合、同一の画像1として撮影された対象物A〜Cの画像を用いて行う。
In the object recognition method used in the traveling environment recognition apparatus disclosed in
よって、従来の走行環境認識装置では、遠方の物体は、画像内では小さく写るため構成する画素数が少なく、かつ、物体の輪郭が不明瞭になるため、周辺の建物と検出対象の物体との分離が困難であり、物体識別の精度が低下するという問題がある。 Therefore, in the conventional driving environment recognition device, a distant object appears small in the image, so the number of pixels to be configured is small and the outline of the object becomes unclear. There is a problem that separation is difficult and accuracy of object identification is lowered.
また、高解像度の画像を使用した場合、遠方の物体の検出部分を構成する画素数は増加するが、近傍の対象物を構成する画素数も増大するため、物体識別に要する処理時間が増大するという問題がある。 In addition, when a high-resolution image is used, the number of pixels constituting the detection part of a distant object increases, but the number of pixels constituting a nearby object also increases, so that the processing time required for object identification increases. There is a problem.
さらに、従来の走行環境認識装置では、対象部分の画像の大きさを同一とすることにより、物体識別に要する処理時間の低減を図る(図12参照)ため、画像の大きさの拡大と縮小処理に処理時間がかかり、結果として処理時間が増大するという問題がある。 Furthermore, in the conventional driving environment recognition device, the processing time required for object identification is reduced by making the size of the image of the target portion the same (see FIG. 12). There is a problem that it takes a long processing time, resulting in an increase in the processing time.
本発明はかかる点に鑑みてなされたものであり、物体識別の精度向上と処理時間の短縮、および、処理プロセッサの必要性能の低下によるコスト低下が可能な走行環境情報取得装置を提供することを目的とする。 The present invention has been made in view of the above points, and provides a travel environment information acquisition device capable of improving the accuracy of object identification, shortening the processing time, and reducing the cost due to the reduction in the required performance of the processing processor. Objective.
本発明の走行環境情報取得装置は、移動体に搭載され、前記移動体の移動方向において対象物の画像を用いて前記対象物を走行環境情報として取得する走行環境情報取得装置であって、前記移動体の移動方向にある前記対象物の位置と方向を検出する物体検出手段と、前記対象物の位置と方向から、対象物の種類毎に予め設定された対象物認識可能な画像サイズで撮像できるレンズの向き、レンズの焦点及びズームの設定からなるカメラ設定を算出するカメラ設定算出手段と、カメラを制御して前記対象物毎に算出された前記カメラ設定で前記対象物の撮像を行うカメラ制御手段と、算出された前記カメラ設定に基づいて前記カメラで撮像した対象物の画像を取得する画像取得手段とを備える構成を採る。 The traveling environment information acquisition device of the present invention is a traveling environment information acquisition device that is mounted on a moving body and acquires the object as traveling environment information using an image of the object in the moving direction of the moving body, Object detection means for detecting the position and direction of the target object in the moving direction of the moving body, and imaging with an image size that can be recognized by a target object set in advance for each type of target object from the position and direction of the target object A camera setting calculating means for calculating a camera setting composed of a lens orientation, a lens focus, and a zoom setting, and a camera that controls the camera and images the object with the camera setting calculated for each object. A configuration including a control unit and an image acquisition unit that acquires an image of an object captured by the camera based on the calculated camera setting is adopted.
以上説明したように、本発明によれば、物体識別の精度向上と処理時間の短縮、および、処理プロセッサの必要性能の低下によるコスト低下化を図ることができる。 As described above, according to the present invention, it is possible to improve the accuracy of object identification, shorten the processing time, and reduce the cost by reducing the required performance of the processing processor.
以下、本発明の実施の形態について、図面を参照して詳細に説明する。なお、本実施の形態では、走行環境情報取得装置を、移動する移動体に搭載され、前記移動体の移動方向において障害物となりうる対象物の画像を用いて前記対象物を検出する障害物検出装置に適用して説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the present embodiment, the obstacle detection is carried out by detecting the object using an image of the object that is mounted on the moving body and can be an obstacle in the moving direction of the moving body. The description will be applied to the apparatus.
(実施の形態1)
図1は、本発明の実施の形態1に係る走行環境情報取得装置を適用した障害物検出装置100の構成を示すブロック図である。
(Embodiment 1)
FIG. 1 is a block diagram showing a configuration of an
図1に示すように障害物検出装置100は、物体検出センサ102と、カメラ104と、スピーカ105と、モニタ106と、障害物検出処理部110とを有する。
As illustrated in FIG. 1, the
障害物検出処理部110は、物体検出部111と、カメラ設定算出部112と、撮影順序算出部113と、カメラ制御部114と、画像取得部115と、物体認識部116と、危険度判定部117と、通知部118とを有する。
The obstacle
物体検出センサ102は、カメラやレーダ等を用いて識別対象となる複数の対象物までの現在の位置からの距離と方向を取得するものであり、取得した情報は、物体検出部111に出力する。なお、物体検出センサ102としてレーダやソナー等を用いた場合、これらレーダやソナーの反射波を利用して、反射方向と反射波の強度と反射波の到達時間から、対象物がある方向と距離を算出することになる。この構成により、遠方の対象物の物体識別の精度向上と物体識別に要する処理時間の短縮が可能になる。
The
物体検出部111は、物体検出センサ102より入力される複数の対象物までの距離と方向の情報に基づき、規定する距離範囲内にあり、かつ、規定する方向範囲内になる対象物の集合を1つの対象物として判断する。その判断した情報は、物体検出センサ102からの情報とともにカメラ設定算出部112に出力される。
Based on the distance and direction information to a plurality of objects input from the
なお、規定する距離範囲及び方向範囲は、物体認識部116において物体識別の対象となる対象物の長さの許容値、例えば、自動車の場合は全長の許容値から設定し、方向範囲は、対象物までの距離から対象物が取りうる幅の許容値、例えば、自動車の場合は自動車の幅と距離に応じた視野角内の範囲を許容値として設定する。
The distance range and the direction range to be specified are set from the allowable value of the length of the object to be identified by the
カメラ設定算出部112は、入力される情報を用いて、物体検出部111で検出する複数の対象物毎に、カメラ104を用いて撮影した際に、物体認識部116にて物体の認識に適した画像サイズとなるカメラ設定を算出する。この画像サイズは、対象物の種類(歩行者、自動車など)毎に予め設定された対象物認識可能なものであり、同じ解像度の画像で同じ大きさのものである。
The camera
具体的には、カメラ設定算出部112は、物体検出部111で検出する複数の対象物毎に、現在位置から対象物までの距離より、物体認識部116にて物体の認識に適した画像のサイズとなるカメラのズーム設定値の算出とレンズ焦点の設定値を算出する。また、カメラ設定算出部112は、物体検出部111で検出する複数の対象物毎に、対象物に対する現在位置からの方向より、物体認識部116にて物体の認識に適した画像のサイズとなる撮影を行うためのカメラの上下方向と左右方向の設定値を算出する。
Specifically, the camera
撮影順序算出部113は、カメラ設定算出部112で算出した対象物毎のカメラの設定値と対象物までの距離と方向に基づき、距離や方向から対象物の撮影順序を決定する。
The shooting
この撮影順序算出部113は、カメラ104への負荷の軽減とすべての対象物の撮影に必要な撮影時間を短縮し、物体識別に要する処理時間の短縮とカメラの制御に要する所要時間の短縮とカメラの負荷軽減によるカメラ寿命の延長を可能にする。
This photographing
カメラ制御部114は、撮影順序算出部113から入力される情報に基づいて、カメラ104を制御して対象物の撮像を行う。
The
具体的に、カメラ制御部114は、撮影順序算出部113の撮影順序と対象物毎のカメラの設定値に従って、カメラ104のズームの設定とレンズの焦点の設定とレンズ方向の設定を行う。
Specifically, the
また、カメラ制御部114は、カメラ104に対して、設定した内容での撮影実施を指示し、カメラ104を制御して、対象物の画像の撮影を対象物数分繰り返し実行する。
In addition, the
また、カメラ制御部114は、撮影順序算出部113から入力される対象物毎のカメラ設定を画像取得部115に出力する。
Further, the
画像取得部115は、カメラ104で撮影した画像を取得するとともに、カメラ制御部114から撮影した画像に対応する対象物までの距離と方向を取得して、対象物数分の画像情報を作成する。画像取得部115は、作成した対象物数分の画像情報を、保存するとともに、物体認識部116に出力する。
The
物体認識部116は、画像取得部115で取得した対象物の画像から、対象物の識別を行い、対象物までの距離と方向と対象物の識別結果から物体情報を生成する。
The
危険度判定部117は、物体認識部116で生成した対象物までの距離と方向と対象物の識別結果からなる物体情報より、対象物の危険度を判断する。
The degree-of-
詳細には、物体認識部116で認識した対象物の種類と自車両から対象物までの距離と方向を用いて、対象物の種類や距離、同一車線内外などよって危険度を判断する。
Specifically, using the type of the object recognized by the
例えば、危険度判定部117は、対象物の種類が車両であるとき、対象物が自車線の範囲内にあり、距離が30m以内の場合には危険、30mから60mの範囲内の場合には注意、60mを超える場合には安全、対象物が自車線の範囲外にあり、且つ、距離が30m以内の場合には注意、30mを超える場合には安全とそれぞれ判断する。
For example, when the type of the object is a vehicle, the
また、危険度判定部117では、対象物の種類が人であるときは、車両の場合の半分で判断する方法とする。なお、危険を判断する距離の分割は、上記の例と異なり、少ない分割数やより多い分割数でも同様の効果が得られる。
Further, in the
また、上記構成の危険度判定部117は、自車両の走行速度に基づき、動的に距離範囲を変更するようにしてもよい。
The
さらに、判断の対象物が自車両の走行車線と同一の走行車線か否かの判断は、車線を区別する道路面上に表示されている白線や黄色の線を画像から検出するようにしてもよい。このような走行車線検出方法を利用することにより、容易に実現することが可能である。 Further, the determination whether the object to be determined is the same traveling lane as the traveling lane of the host vehicle may be performed by detecting a white line or a yellow line displayed on the road surface that distinguishes the lane from the image. Good. By using such a traveling lane detection method, it can be easily realized.
通知部118は、危険度判定部117により判定された自車と対象物が衝突する危険度に基づき、危険通知内容を作成し、スピーカ105、あるいは、モニタ106より、運転者に通知を行う。
The
次いで、上記構成を有する障害物検出装置100の動作について、図2及び図3を用いて説明する。
Next, the operation of the
図2及び図3は、本発明の実施の形態1における障害物検出装置100の動作を説明するためのフローチャートである。なお、図2は、撮影終了までの処理を示すものであり、図3は、取得した対象物の画像を用いて物体認識を行う処理を示すものである。
2 and 3 are flowcharts for explaining the operation of the
ステップS201では、障害物検出装置100において、物体検出センサ102が、自車両の現在位置から自車両の移動方向に存在する対象物までの距離と方向を取得してステップS202に移行する。なお、ステップS201において、物体検出センサ102が複数の対象物を検出した場合、複数の対象物毎に、自車両から対象物までの距離及び方向の検出情報を物体検出部111に出力する。
In step S201, in the
ステップS202では、物体検出部111が、物体検出センサ102から入力される対象物毎の現在位置から当該対象物までの距離と方向から、規定内の距離範囲内にあり、かつ、規定内の方向範囲内にある対象物を同一の物体の集合を1つの対象物情報とし、対象物の集合の中心点を検出した対象物までの距離と方向として算出し、ステップS203に移行する。なお、これら距離と方向の算出により物体検出部111は、対象物の位置を算出している。
In step S202, the object detection unit 111 is within the specified distance range from the current position and the direction from the current position for each target object input from the
ステップS203では、カメラ設定算出部112が、物体検出部111から入力された対象物までの距離と方向とより、対象物毎に、物体認識部116での物体認識に使用する画像サイズに合わせて、対象物までの距離に基づきズーム設定値を算出し、さらに、ズーム設定値と対象物までの距離からレンズの焦点位置を調整するためのレンズ焦点の設定値を算出する。さらに、対象物の方向に基づき、カメラの向きの設定値を算出してステップS204に移行する。
In step S <b> 203, the camera setting
ステップS204では、撮影順序算出部113が、カメラ設定算出部112から入力された対象物毎に算出したカメラのズーム設定値やレンズ焦点の設定値やカメラの向きの設定値、あるいは、対象物までの距離や方向から、カメラの設定変更が最小になる順序を計算し、対象物の撮影順序を算出してステップS205に移行する。
In step S204, the imaging
なお、ステップS204におけるカメラ104の設定変更を最小とする順序の算出は、最短経路探索法を適用することで、容易に算出することができる。例えば、ズーム設定の変更量が最小になる順序での算出が可能であり、また、ズーム設定とレンズの焦点設定とレンズの方向設定のそれぞれに要する時間から、カメラの設定変更にかかる時間が最小になる撮影順序の算出が可能である。
Note that the calculation of the order that minimizes the setting change of the
ステップS205では、カメラ制御部114が、カメラ104に対し、算出された撮影順序に従って、対象物のカメラ設定に基づいて、ズーム設定とレンズの焦点設定とレンズの方向設定を行いステップS206に移行する。
In step S205, the
ステップS206では、カメラ制御部114が、カメラ104の設定終了後に、カメラ104に対して設定した内容での撮影指示を行い、カメラ104で対象物の画像を撮影してステップS207に移行する。
In step S206, the
ステップS207では、画像取得部115が、カメラ104で撮影した対象物の画像を取得するとともにカメラ制御部114から対象物に該当する対象物までの距離と方向を取得して、取得した対象物の画像と対象物に該当する対象物までの距離と方向の対応付けを行いステップS208に移行する。なお、ステップS207において画像取得部115により対象物までの距離と方向対応付けられた対象物の画像情報は物体認識が完了するまで保存される。
In step S207, the
ステップS208では、画像取得部115は、カメラ104から入力される画像と、カメラ制御部114から入力される対象物までの距離と方向とを用いて、全対象物の撮影完了可否の判定を行う。
In step S <b> 208, the
ステップS208において、全対象物の撮影が終了していなければステップS205に戻り、ステップS205以降の処理を繰り返し実行して、次の対象物の撮影を行い、全対象物の撮影が終了していれば、対象物の撮影を終了する。 In step S208, if the shooting of all objects has not been completed, the process returns to step S205, and the processes in and after step S205 are repeatedly executed to shoot the next object, and the shooting of all objects has been completed. If so, the shooting of the object ends.
このようにして、障害物検出装置100では、物体検出センサ102により検出された対象物に対応する対象物の全画像を取得する。
In this way, the
次いで、障害物検出装置100は、図3に示すように、物体認識処理を行う。
Next, the
図3に示すステップS301では、物体認識部116が、画像取得部115で保存した対象物の画像と、この画像に対応する対象物までの距離と方向とを画像取得部115を介してカメラ制御部114から取得して、ステップS302に移行する。
In step S301 illustrated in FIG. 3, the
ステップS302では、物体認識部116は、取得した対象物の画像について、識別を行い、ステップS303に移行する。
In step S302, the
ステップS303では、危険度判定部117が、物体認識部116で識別した対象物の種類と対象物までの距離と方向から、対象物の危険度を判定して、ステップS304に移行する。
In step S303, the risk
ステップS304では、危険度判定部117が、対象物の危険度の判定結果に基づいて、危険通知の実施可否の判定を行い、通知を行う場合には、ステップS305に移行し、通知を行わない場合にはステップS306に移行する。
In step S304, the
ステップS305では、通知部118は、危険度判定部117からの情報を受けて、対象物の種類と対象物までの距離と方向から危険通知情報を作成してステップS306に移行する。
In step S305, the
ステップS306では、全対象物の識別の終了可否を行い、終了していない場合、ステップS301に戻り、それ以降の処理を繰り返し実行し、終了している場合、ステップS307では、通知部118は、スピーカ105やモニタ106等を用いて、危険通知の実行を行う。
In step S306, whether or not to end identification of all objects is determined. If not completed, the process returns to step S301, and the subsequent processing is repeatedly executed. If completed, in step S307, the
図4は、本実施の形態1の障害物検出装置100が行う対象物の検出処理の概要を説明する概念図である。なお、この図4に示すカメラ104が搭載された自車両と対象物A〜Cとの位置関係は、従来の方法との差異を明確にするため、図10で示した位置関係と同様のものとする。
FIG. 4 is a conceptual diagram illustrating an outline of the object detection process performed by the
つまり、図10の位置関係にある自車両としての走行車両に、本実施の形態1の障害物検出装置100を搭載して、この障害物検出装置100が、移動方向に存在する対象物A〜Cの画像を取得してそれぞれに対して物体認識処理を行うものとする。
That is, the
図4に示すように、障害物検出装置100では、まず、対象物を認識するとともに、対象物毎のカメラ設定を算出する。このカメラ設定は、設定により対象物を撮影して取得する画像が、物体認識部116にて物体の認識に適した画像サイズとなるように、方向設定、焦点設定、ズーム設定を行うものである。
As shown in FIG. 4, the
そして、算出したカメラ設定(方向、焦点、ズーム設定)に従って、カメラ104に対してカメラ設定を行い、カメラ設定したカメラ104を用いて、カメラ設定に対応する対象物を撮影する。
Then, according to the calculated camera settings (direction, focus, zoom setting), camera settings are made for the
ここでは、対象物A、B、Cの順に撮影するものであり、図4(1)は、図10に示す位置関係において、対象物Aを撮影する際のカメラ104の方向し、この方向にて撮影した対象物A画像11を示す。また、図4(2)は、同位置関係において、対象物Bを撮影する際のカメラ104の方向し、この方向で撮影した対象物B画像12を示す。また、図4(3)は同位置関係において、対象物Cを撮影する際のカメラ104の方向し、この方向で撮影した対象物C画像13を示す。
Here, the objects A, B, and C are photographed in this order, and FIG. 4A shows the direction of the
ここでは、図10の位置関係における対象物A〜Cの撮影は、それぞれを撮影する場合のカメラにおける、レンズの向きの変更量、レンズの焦点を合せるレンズ移動量及びズーム設定するレンズ移動量が最小となる順序に設定される。ここでは、対象物A、B、Cの順に撮像されるものとする。 Here, photographing of the objects A to C in the positional relationship of FIG. 10 includes the amount of change in the lens direction, the amount of lens movement for focusing the lens, and the amount of lens movement for zoom setting in the camera when photographing each of them. Set to the minimum order. Here, it is assumed that the objects A, B, and C are imaged in this order.
図4に示すようにカメラ104で各対象物A〜Cを撮影して取得した対象物画像、ここでは、対象物A画像11、対象物B画像12及び対象物C画像13は、それぞれ、そのまま対象物認識処理が行える画像サイズとなる。
As shown in FIG. 4, the object images acquired by photographing each of the objects A to C with the
これら対象物画像11、12、13を加工することなく用いて対象物認識処理を実行することで、対象物を認識する。
The target object is recognized by executing the target object recognition process using these
この構成によれば、移動方向にある全ての対象物に対して、当該対象物までの距離と方位の検出し、検出した対象物毎の距離と方向に合わせて、カメラ104のレンズの方向と焦点とズームの設定を変更し撮影する。
According to this configuration, the distance and direction to the target object are detected for all the target objects in the moving direction, and the lens direction of the
これにより、遠方にある対象物であっても、十分な画素数の画像で撮影することが可能であるため、物体の識別率を向上させることができる。 As a result, even an object located far away can be photographed with an image having a sufficient number of pixels, so that the object identification rate can be improved.
また、低解像度のカメラの画像で十分な画像の大きさが確保できるため、カメラ104として低コストのカメラを用いて物体識別を行うことできる。
In addition, since a sufficient image size can be secured with an image of a low-resolution camera, an object can be identified using a low-cost camera as the
さらに、対象物の種類毎に予め設定された対象物認識可能な画像サイズが同じ解像度の画像で同じ大きさであり、このサイズで物体を撮影する。 Furthermore, the object recognizable image size set in advance for each type of the object is the same size with the same resolution, and the object is photographed with this size.
このため、撮像後の画像の大きさの変換が不要であるため、画像変換に必要な処理が不要となり、処理プロセッサの必要性能の低下によるコスト低下、あるいは、処理時間の短縮が可能になるという効果を有する障害物検出装置を提供することができる。 For this reason, it is not necessary to convert the size of the image after imaging, so that the processing necessary for image conversion is not required, and the cost can be reduced due to the reduction in the required performance of the processing processor, or the processing time can be shortened. An obstacle detection device having an effect can be provided.
このように本実施の形態1によれば、対象物までの距離と方向に関わらず、物体識別に適した画像が取得可能であり、かつ、物体識別に適した画像の大きさの変換が不要であることにより画像処理の簡易化を図ることができ、遠方の対象物の物体識別の精度向上と処理時間の短縮、および、処理プロセッサの必要性能の低下によるコストの低廉化を図ることができる。 As described above, according to the first embodiment, an image suitable for object identification can be acquired regardless of the distance and direction to the target object, and conversion of the image size suitable for object identification is not required. Therefore, it is possible to simplify image processing, improve the accuracy of object identification of a distant object, shorten the processing time, and reduce the cost by reducing the required performance of the processing processor. .
(実施の形態2)
図5は、本発明の実施の形態2に係る走行環境情報取得装置を適用した障害物検出装置400の構成を示すブロック図である。なお、この障害物検出装置400は、図1に示す実施の形態1に対応する障害物検出装置100と同様の基本的構成を有しており、同一の構成要素には同一の符号を付して、その説明を省略する。
(Embodiment 2)
FIG. 5 is a block diagram showing a configuration of an
図5に示す障害物検出装置400は、図1の障害物検出装置100の構成において対象物の撮影用カメラ(図1ではカメラ104)を、複数備えたものである。ここでは、障害物検出装置400は、障害物検出装置100の構成において、対象物撮影用のカメラを一つ加えて、対象物撮影用の第1カメラ402と、第2カメラ404とを具備する構成となっている。なお、図5の障害物検出装置400は、便宜上、第1カメラ402及び第2カメラ404といった対象物撮影用のカメラを2つ備える構成としたが、これに限らず、3つ以上備える構成としてもよい。
An
この障害物検出装置400において、障害物検出処理部110と同様の構成の障害物検出処理部410では、カメラ制御部414は、入力される情報に基づいて第1カメラ402及び第2カメラ404を制御して対象物の撮像を行う。
In the
具体的に、カメラ制御部414は、撮影順序算出部113で算出した対象物の撮影順序からカメラ毎に撮影する対象物の振り分けを行うとともに、カメラ毎に制御を行い、それぞれのカメラ(ここでは、第1カメラ402、第2カメラ404)で撮影を実行する。
Specifically, the
ここで、カメラ制御部414が、カメラ毎に振り分ける方法として、図5に示すようにカメラが2個の場合では、例えば、奇数順序の対象物を第1カメラ402、偶数番目の対象物を第2カメラ404で撮影する方法がある。また、撮影順序の前半を第1カメラ402、撮影順序の後半を第2カメラ404で撮影する方法でカメラ毎に振り分ける構成としてもよい。また、対象物までの距離に応じて閾値を設けて、閾値範囲内の距離の場合には第1カメラ402に撮影させ、閾値範囲外の距離の場合には第2カメラ404に撮影させる方法によりカメラ毎の振り分けを行うようにしてもよい。
Here, as a method in which the
この場合、例えば、障害物検出装置400の備える複数のカメラ(第1カメラ402、第2カメラ404)が、それぞれ撮像距離が異なる構成であればより好適である。
In this case, for example, it is more preferable if a plurality of cameras (
すなわち、対象物までの距離に応じて閾値を設ける場合では、閾値範囲内の距離の場合に撮影させる第1カメラ402は、広角レンズを備える近距離用カメラとし、閾値範囲外の距離の場合に撮影させる第2カメラ404は、望遠レンズを備える中距離、長距離用カメラ等で構成する。
That is, in the case where a threshold is provided according to the distance to the object, the
これにより、カメラ制御部414は、カメラ毎のカメラ固有の撮像距離に対応した対象物の撮影が行えるように撮影順序を含めたカメラ毎の振り分けを行う。
Thus, the
言い換えれば、障害物検出装置400は、それぞれ望遠レンズ、広角レンズなどを装着して、それぞれの撮像距離が異なった、長距離撮影用、中距離撮影用、近距離撮影用カメラにより構成される複数のカメラを備え、それぞれの特有の撮像距離に基づいて、撮像順序を割り当てる。
In other words, the
よって、複数のカメラそれぞれを用いて取得される画像は精度が高いものとなり、物体認識においてより認識を容易にさせる画像を取得できる。 Therefore, an image acquired using each of the plurality of cameras has high accuracy, and an image that makes recognition easier in object recognition can be acquired.
さらに、検出した対象物の方向から、右半分に位置する対象物に対して第1カメラ402、左半分に位置する対象物に対しては第2カメラ404で撮影する方法によりカメラ毎の振り分けを行うようにしてもよい。
Further, from the direction of the detected object, the
また、カメラ毎の制御としては、カメラ制御部414は、振り分けられた対象物毎に対応するカメラ設定に従って、振り分けられた対象物を撮影するカメラ(第1カメラ402、第2カメラ404)毎にズームの設定とレンズの焦点の設定とレンズ方向の設定を行う。
In addition, as the control for each camera, the
また、カメラ制御部414は、第1カメラ402、第2カメラ404に対して、それぞれ設定した内容で撮影実施を指示し、第1カメラ402、第2カメラ404を制御して、それぞれ撮影順序に従って、対象物毎の画像の撮影を対象物数分繰り返し実行する。
In addition, the
なお、カメラ制御部414は、カメラ制御部114と同様に、撮影順序算出部113から入力される対象物毎のカメラ設定を画像取得部115に出力する。
Similar to the
次いで、上記構成を有する障害物検出装置400の動作について、図6を用いて説明する。
Next, the operation of the
図6は、本発明の実施の形態2における障害物検出装置400の動作を説明するためのフローチャートである。
FIG. 6 is a flowchart for explaining the operation of the
まず、障害物検出装置400では、実施の形態1の障害物検出装置100のステップS201〜S204と同様のステップS501〜ステップS504の処理を行う。
First, the
すなわち、障害物検出装置400は、障害物検出装置100と同様に、ステップS501〜ステップS504の処理によって、対象物情報(方向、距離)を取得して、対象物の位置、対象物毎に撮像する際のカメラ設定、撮影順序を算出する。
That is, the
ステップS504における撮影順序算出(ステップS204と同様の処理)の後、ステップS505に移行し、ステップS505では、カメラ制御部414は、撮影順序算出部113で算出した撮影順序に基づき、カメラ毎に撮影する対象物の振り分けを行う。
After calculating the shooting order in step S504 (the same processing as step S204), the process proceeds to step S505. In step S505, the
なお、このステップS505にてカメラ制御部414が、カメラ毎に振り分ける方法としては上述した方法により実現されるものする。
Note that, in this step S505, the
ステップS505に次ぐステップS506以降の処理は、撮影順序と、撮影順序の対象となる対象物毎に設定されたカメラ設定とが振り分けられたカメラ毎に撮影を行う処理を示す。ここでは、第1カメラ402における撮影処理のステップS506からステップS509は、図2のステップS205からステップS208の処理と同様である。
The processing after step S506 after step S505 indicates processing for shooting for each camera to which the shooting order and the camera settings set for each target object of the shooting order are distributed. Here, steps S506 to S509 of the photographing process in the
同様に、第2カメラ404における撮影処理のステップS510からステップS513は、図2のステップS205からステップS208と同様である。
Similarly, steps S510 to S513 of the photographing process in the
すなわち、ステップS506では、カメラ制御部414が、第1カメラ402に対し、算出された撮影順序に従って、対象物のカメラ設定に基づいて、ズーム設定とレンズの焦点設定とレンズの方向設定を行いステップS507に移行する。
That is, in step S506, the
ステップS507では、カメラ制御部414が、第1カメラ402の設定終了後に、第1カメラ402に対して設定した内容での撮影指示を行い、第1カメラ402で対象物の画像を撮影してステップS508に移行する。
In step S507, after the setting of the
ステップS508では、画像取得部115が、第1カメラ402で撮影した対象物の画像を取得するとともにカメラ制御部414から対象物に該当する対象物までの距離と方向を取得して、取得した対象物の画像と対象物に該当する対象物までの距離と方向の対応付けを行いステップS509に移行する。なお、ステップS508において画像取得部115により対象物までの距離と方向対応付けられた対象物の画像情報は物体認識が完了するまで保存される。
In step S508, the
ステップS509では、画像取得部115は、第1カメラ402から入力される画像と、カメラ制御部414から入力される対象物までの距離と方向とを用いて、全対象物の撮影完了可否の判定を行う。
In step S <b> 509, the
ステップS509において、全対象物の撮影が終了していなければステップS506に戻り、ステップS506からステップS509までの処理を繰り返し実行して、次の対象物の撮影を行い、全対象物の撮影が終了していれば、対象物の撮影を終了する。 In step S509, if the shooting of all the objects has not been completed, the process returns to step S506, the processes from step S506 to step S509 are repeatedly executed, the next object is shot, and the shooting of all the objects is completed. If so, the shooting of the object is terminated.
第2カメラ404における撮像処理として、ステップS510では、カメラ制御部414が、第2カメラ404に対し、算出された撮影順序に従って、対象物のカメラ設定に基づいて、ズーム設定とレンズの焦点設定とレンズの方向設定を行いステップS511に移行する。
As the imaging process in the
ステップS511では、カメラ制御部414が、第2カメラ404の設定終了後に、第2カメラ404に対して設定した内容での撮影指示を行い、第2カメラ404で対象物の画像を撮影してステップS512に移行する。
In step S511, after the setting of the
ステップS512では、画像取得部115が、第2カメラ404で撮影した対象物の画像を取得するとともにカメラ制御部414から対象物に該当する対象物までの距離と方向を取得して、取得した対象物の画像と対象物に該当する対象物までの距離と方向の対応付けを行いステップS513に移行する。なお、ステップS512において画像取得部115により対象物までの距離と方向対応付けられた対象物の画像情報は物体認識が完了するまで保存される。
In step S512, the
ステップS513では、画像取得部115は、第2カメラ404から入力される画像と、カメラ制御部から入力される対象物までの距離と方向とを用いて、全対象物の撮影完了可否の判定を行う。
In step S513, the
ステップS513において、全対象物の撮影が終了していなければステップS510に戻り、ステップS510からステップS513までの処理を繰り返し実行して、次の対象物の撮影を行い、全対象物の撮影が終了していれば、対象物の撮影を終了する。 In step S513, if the shooting of all the objects has not been completed, the process returns to step S510, the processes from step S510 to step S513 are repeatedly executed, the next object is shot, and the shooting of all the objects is completed. If so, the shooting of the object is terminated.
このようにして、障害物検出装置400は、物体検出センサ102により検出された対象物に対応する対象物の全画像を、算出された撮像順序にしたがって複数のカメラ(第1カメラ402、第2カメラ404)により取得する。これら取得した画像すべては、加工することなく、物体認識部116にて認識できる画像サイズで取得されている。
In this way, the
なお、カメラの台数が2台以上でも、同様の処理で実現することができる。 Even if the number of cameras is two or more, the same processing can be realized.
なお、障害物検出装置400において、撮影終了以降の処理は、図3で示す障害物検出装置100の処理と同様であるため説明発は省略する。
In the
このように本発明の実施の形態2の障害物検出装置400によれば、対象物を撮影するカメラを複数備え、撮影する対象物を複数のカメラに振り分けて撮影し、カメラ毎に、撮影する対象物までの距離と方向に応じて、物体認識に適した画像サイズですべての対象物の撮影が可能となるカメラのズームとレンズの焦点とレンズの方向を設定して対象物画像の撮影を行うカメラ設定算出部と複数の対象物の撮影に必要なカメラの制御量、あるいは、制御に要する時間が最小になる撮影順序の算出を行う撮影順序算出部と対象物毎のカメラの設定と対象物の撮影順序に従い、カメラの制御を行うカメラ制御部を設けることにより、物体識別の精度向上と処理時間の短縮、および、処理プロセッサの必要性能の低下によるコスト低下、さらに、カメラへの撮影負荷の低減による故障率の削減と撮影時間の短縮を可能にすることができる。
As described above, according to the
ここで、カメラの画像を用いた対象物までの距離は、2台のカメラの設置位置を水平方向、あるいは、垂直方向にずらして設置することによって生じる撮影した2枚の画像における対象物の位置の差より算出する方法で実現可能であり、対象物の方向は、撮影した画像内の位置から算出する方法で実現が可能であることが知られている。 Here, the distance to the object using the image of the camera is the position of the object in the two images taken by shifting the installation positions of the two cameras in the horizontal direction or the vertical direction. It is known that the direction of the object can be realized by a method of calculating from the position in the captured image.
また、撮影順序算出部113により対象物の撮影順序を算出し、カメラ制御部414において、算出された撮影順序を分割して、順序に対応した複数のカメラ毎に設定を行い、このカメラ設定に基づいて対象物の撮影を行う。これにより、カメラへの負荷の軽減とすべての対象物の撮影に必要な撮影時間を短縮することができ、物体識別に要する処理時間の短縮とカメラの制御に要する所要時間の短縮とカメラの負荷軽減によるカメラの寿命を延長できる。
In addition, the shooting
(実施の形態3)
図7は、本発明の実施の形態3に係る走行環境情報取得装置を適用した障害物検出装置600の構成を示すブロック図である。なお、この障害物検出装置600は、図1に示す実施の形態1に対応する障害物検出装置100と同様の基本的構成を有しており、同一の構成要素には同一の符号を付して、その説明を省略する。
(Embodiment 3)
FIG. 7 is a block diagram showing a configuration of an
この実施の形態3の障害物検出装置600は、障害物検出装置100において、物体検出センサ102及びカメラ104に変えて、複数のAカメラ602、Bカメラ604を備え、これら複数のAカメラ602、Bカメラ604を用いて、対象物の方向と距離を算出して対象物の位置と方向を検出するともに、対象物の識別のための対象物の画像を撮像するものである。
The
障害物検出装置600は、Aカメラ602、Bカメラ604と、スピーカ105と、モニタ106と、障害物検出処理部610とを有する。
The
障害物検出処理部610は、物体検出部611と、カメラ設定算出部112と、撮影順序算出部113と、カメラ制御部614と、画像取得部615と、物体認識部116と、危険度判定部117と、通知部118と、撮影切替部618とを有する。
The obstacle
複数のAカメラ602、Bカメラ604は、車両においてそれぞれ異なる位置に配設され、一つの対象物を撮像したり、別々の対象物を撮像する。
The plurality of A
複数のAカメラ602、Bカメラ604は、物体検出部611又はカメラ制御部614により撮影切替部618を介して制御され、対象物を撮像して、識別対象となる対象物までの現在の位置からの距離と方向を取得したり、前記対象物の識別のための対象物の画像を取得したりする。これら複数のAカメラ602、Bカメラ604によって取得された情報は、物体検出部611や画像取得部615に出力される。
The plurality of A
これら複数のAカメラ602、Bカメラ604による対象物までの距離と方向を算出するための撮像と、対象物の識別のための撮像とは撮影切替部618により切り替えられる。
The
撮影切替部618は、物体検出部611とカメラ制御部614からのAカメラ602とBカメラ604に対する制御の切替指示に従って、Aカメラ602、Bカメラ604に対するカメラ制御の入力元と撮影した画像の出力先を切り替える。具体的に、撮影切替部618は、複数のAカメラ602、Bカメラ604が対象物までの距離と方向を算出するための撮像を行った場合は、取得した情報の出力先を物体検出部611に設定し、対象物の識別のための撮像を行った場合は、情報の出力先を画像取得部615に設定する。
The
また、撮影切替部618は、障害物検出処理部610から、Aカメラ602とBカメラ604の制御切替を指示され、撮影切替部618経由でAカメラ602とBカメラ604に対し、対象物までの距離と方向を検出するためのカメラ設定して、画像取得を行い、識別対象となる複数の対象物までの現在の位置からの距離と方向を算出する構成としてもよい。
Also, the
物体検出部611は、撮影切替部618を介して複数のAカメラ602、Bカメラ604により対象物を撮像し、これら複数のAカメラ602、Bカメラ604の視差を利用することにより、算出された対象物の方向と距離を取得する。
The
物体検出部611は、複数のAカメラ602、Bカメラ604より入力される情報により算出する対象物までの距離と方向の情報を用いて、規定する距離範囲内にあり、かつ、規定する方向範囲内になる対象物の集合を1つの対象物として判断する。その判断した情報は、カメラ設定算出部112に出力される。
The
なお、規定する距離範囲及び方向範囲は、物体認識部116において物体識別の対象となる対象物の長さの許容値、例えば、自動車の場合は全長の許容値から設定し、方向範囲は、対象物までの距離から対象物が取りうる幅の許容値、例えば、自動車の場合は自動車の幅と距離に応じた視野角内の範囲を許容値として設定する。
The distance range and the direction range to be specified are set from the allowable value of the length of the object to be identified by the
カメラ制御部614は、撮影順序算出部113から入力される情報に基づいて、撮影切替部618を介してAカメラ602、Bカメラ604を制御して対象物の撮像を行う。
The
具体的に、カメラ制御部614は、撮影切替部618に対し、Aカメラ602、Bカメラ604の制御切替を指示する。
Specifically, the
また、カメラ制御部614は、撮影切替部618を介して、Aカメラ602、Bカメラ604に対し、撮影順序算出部113の撮影順序と対象物毎のカメラの設定値に従って、Aカメラ602、Bカメラ604のズームの設定とレンズの焦点の設定とレンズ方向の設定を行う。
In addition, the
また、カメラ制御部614は、撮影切替部618を介して、複数のAカメラ602、Bカメラ604に対して、設定した内容での撮影実施を指示し、複数のAカメラ602、Bカメラ604を制御して、対象物の画像の撮影を対象物数分繰り返し実行する。
In addition, the
また、カメラ制御部614は、撮影順序算出部113から入力される対象物毎のカメラ設定を画像取得部615に出力する。
In addition, the
画像取得部615は、複数のAカメラ602、Bカメラ604で撮影した画像を、撮影切替部618を介して取得するとともに、カメラ制御部614から撮影した画像に対応する対象物までの距離と方向を取得して、対象物数分の画像情報を作成する。
The
作成された対象物数分の画像情報は、物体認識部116に出力される。
The created image information for the number of objects is output to the
次いで、上記構成を有する障害物検出装置600の動作について、図8及び図9を用いて説明する。
Next, the operation of the
図8及び図9は、本発明の実施の形態3における障害物検出装置600の動作を説明するためのフローチャートである。なお、図8は、カメラを用いた対象物までの距離と方向を検出する対象物取得方法の一例を示す。
8 and 9 are flowcharts for explaining the operation of the
図8に示すように、まず、ステップS701では、物体検出部611が、撮影切替部618に対し、カメラ制御の入力元と撮影した画像の出力先を設定してステップS702に移行する。
As shown in FIG. 8, first, in step S701, the
ステップS702では、物体検出部611は、撮影切替部618を介してAカメラ602に対して、ズーム設定とレンズの焦点設定とレンズの方向設定を行いステップS703に移行する。
In step S702, the
ステップS703では、物体検出部611は、撮影切替部618を介して、Bカメラ604に対し、ズーム設定とレンズの焦点設定とレンズの方向設定を行いステップS704に移行する。
In step S703, the
ステップS704では、物体検出部611は、撮影切替部618を介してAカメラ602に対し、撮影指示を行い、Aカメラ602を用いて画像を撮影してステップS705に移行する。
In step S704, the
ステップS705では、物体検出部611は、撮影切替部618を介してBカメラ604に対し、撮影指示を行い、Bカメラ604を用いてAカメラ602で撮像した対象物と同じ対象物の画像を撮影してステップS706に移行する。
In step S <b> 705, the
ステップS706では、Aカメラ602とBカメラ604で撮影した画像を撮影切替部618から物体検出部611に出力されることにより物体検出部611は画像を取得して、ステップS707に移行する。
In step S706, the image picked up by the
ステップS707では、物体検出部611は、撮影切替部618から取得した画像から、Aカメラ602とBカメラ604の画像に基づき、対象物までの距離と方向を算出し、現在位置から対象物までの距離と方向から、規定内の距離範囲内にあり、かつ、規定内の方向範囲内になる対象物を同一の物体の集合として1つの対象物情報とし、対象物の集合の中心点を検出した対象物までの距離と方向として算出する。
In step S707, the
なお、これら距離と方向の算出により物体検出部611は、対象物の位置を算出している。
Note that the
次に、図9示すように障害物検出装置600は、対象物情報取得に使用したカメラを使用した物体認識のための画像取得を行う。
Next, as illustrated in FIG. 9, the
まず、図8で示した処理により算出することによって取得した対象物までの距離と方向の対象物情報を用いて、物体検出部611は、対象物の位置(方向、距離)を算出しており(ステップS800)、次いで、ステップS801では、カメラ設定算出部112が、物体検出部611から入力された対象物までの距離と方向とより、対象物毎に、物体認識部116での物体認識に使用する画像サイズに合わせて、対象物までの距離に基づきズーム設定値を算出し、さらに、ズーム設定値と対象物までの距離からレンズの焦点位置を調整するためのレンズ焦点の設定値を算出する。さらに、対象物の方向に基づき、カメラの向きの設定値を算出してステップS802に移行する。
First, the
ステップS802では、撮影順序算出部113が、カメラ設定算出部112から入力された対象物毎に算出したカメラのズーム設定値やレンズ焦点の設定値やカメラの向きの設定値、あるいは、対象物までの距離や方向から、カメラの設定変更が最小になる順序を計算し、対象物の撮影順序を算出してステップS803に移行する。
In step S <b> 802, the shooting
なお、ステップS802におけるカメラの設定変更を最小とする順序の算出は、最短経路探索法を適用することで、容易に算出することができる。例えば、ズーム設定の変更量が最小になる順序での算出が可能であり、また、ズーム設定とレンズの焦点設定とレンズの方向設定のそれぞれに要する時間から、カメラの設定変更にかかる時間が最小になる撮影順序の算出が可能である。 The calculation of the order that minimizes the camera setting change in step S802 can be easily performed by applying the shortest path search method. For example, it is possible to calculate in the order in which the amount of zoom setting change is minimized, and the time required for camera setting change is minimized from the time required for zoom setting, lens focus setting, and lens direction setting. It is possible to calculate the shooting order.
ステップS803では、カメラ制御部614は、撮影順序算出部113で算出した撮影順序に基づき、カメラ毎に撮影する対象物の振り分けを行い、撮影するカメラを決定して、ステップS804に移行する。
In step S803, the
ステップS804では、カメラ制御部614が、撮影切替部618に対し、カメラ制御の入力元をカメラ制御部614に設定し、Aカメラ602、Bカメラ604で撮影した画像の出力先を画像取得部615に設定する。
In step S804, the
ステップS805〜ステップS808の処理及びステップS809〜ステップS812の処理は、それぞれ複数のカメラ(Aカメラ602、Bカメラ604)毎における撮影順序及び設定されたカメラ設定に基づいて対象物の撮像処理を説明する。
The processing of step S805 to step S808 and the processing of step S809 to step S812 explain the imaging processing of the object based on the shooting order and the set camera settings for each of the plurality of cameras (A
すなわち、ステップS805では、カメラ制御部614が、撮影切替部618を介して、Aカメラ602に対し、算出された撮影順序に従って、対象物のカメラ設定に基づいて、ズーム設定とレンズの焦点設定とレンズの方向設定を行いステップS806に移行する。
That is, in step S805, the
ステップS806では、カメラ制御部614が、撮影切替部618を介したAカメラ602の設定終了後に、Aカメラ602に対して設定した内容での撮影指示を行い、Aカメラ602で対象物の画像を撮影してステップS807に移行する。
In step S806, the
ステップS807では、画像取得部615が、Aカメラ602で撮影した対象物の画像を取得するとともにカメラ制御部614から対象物に該当する対象物までの距離と方向を取得して、取得した対象物の画像と対象物に該当する対象物までの距離と方向の対応付けを行いステップS808に移行する。なお、ステップS807において画像取得部615により対象物までの距離と方向対応付けられた対象物の画像情報は物体認識が完了するまで保存される。
In step S807, the
ステップS808では、画像取得部615は、撮影切替部618を介して、Aカメラ602から入力される画像と、カメラ制御部から入力される対象物までの距離と方向とを用いて、全対象物の撮影完了可否の判定を行う。
In step S808, the
ステップS808において、全対象物の撮影が終了していなければステップS805に戻り、ステップS805からステップS808までの処理を繰り返し実行して、次の対象物の撮影を行い、全対象物の撮影が終了していれば、対象物の撮影を終了する。 In step S808, if the shooting of all objects has not been completed, the process returns to step S805, the processes from step S805 to step S808 are repeatedly executed, the next object is shot, and the shooting of all objects is completed. If so, the shooting of the object is terminated.
一方、Bカメラ604における撮像処理として、ステップS809では、カメラ制御部614が、撮影切替部618を介して、Bカメラ604に対し、算出された撮影順序に従って、対象物のカメラ設定に基づいて、ズーム設定とレンズの焦点設定とレンズの方向設定を行いステップS810に移行する。
On the other hand, as an imaging process in the
ステップS810では、カメラ制御部614が、撮影切替部618を介したBカメラ604の設定終了後に、撮影切替部618を介して、Bカメラ604に対して設定した内容での撮影指示を行い、撮影切替部618を介して、Bカメラ604で対象物の画像を撮影してステップS811に移行する。
In step S <b> 810, the
ステップS811では、画像取得部615が、撮影切替部618を介して、Bカメラ604で撮影した対象物の画像を取得するとともにカメラ制御部614から対象物に該当する対象物までの距離と方向を取得して、取得した対象物の画像と対象物に該当する対象物までの距離と方向の対応付けを行いステップS812に移行する。なお、ステップS811において画像取得部615により対象物までの距離と方向対応付けられた対象物の画像情報は物体認識が完了するまで保存される。
In step S811, the
ステップS812では、画像取得部615は、撮影切替部618を介して、Bカメラ604から入力される画像と、カメラ制御部から入力される対象物までの距離と方向とを用いて、全対象物の撮影完了可否の判定を行う。
In step S812, the
ステップS812において、全対象物の撮影が終了していなければステップS809に戻り、ステップS809からステップS812までの処理を繰り返し実行して、次の対象物の撮影を行い、全対象物の撮影が終了していれば、対象物の撮影を終了する。 In step S812, if the shooting of all objects has not been completed, the process returns to step S809, the processes from step S809 to step S812 are repeatedly executed, the next object is shot, and the shooting of all objects is completed. If so, the shooting of the object is terminated.
このようにして、障害物検出装置600は、複数のカメラ(Aカメラ602、Bカメラ604)により取得した対象物に対応する対象物の全画像を、算出された撮像順序にしたがって複数のカメラ(Aカメラ602、Bカメラ604)により取得する。これら取得した画像すべては、加工することなく、物体認識部116にて認識できる画像サイズで取得される。
In this way, the
この障害物検出装置600は、対象物までの距離と方向を算出するための前記対象物の撮像と前記対象物の識別のための前記対象物の撮像とを行う複数のカメラ602、604と、複数のカメラ602、604による対象物までの距離と方向を算出するための撮像と対象物の識別のための撮像とを切り替える撮影切替部618とを備える。
The
この撮影切替部618の切替によって、物体検出部611は、Aカメラ602、Bカメラ604の視差を用いて対象物の方向と距離を算出して対象物の位置と方向を検出し、カメラ制御部614は、Aカメラ602、Bカメラ604を用いて対象物の識別のための対象物の画像を撮像する。
By switching the photographing
つまり、障害物検出装置600では、カメラを複数備え、対象物までの距離と方向を画像から検出するために画像を撮影するためのカメラ602、604と、対象物の識別するための画像を撮影するカメラを共通で使用する。
That is, the
これにより、撮影用カメラの共有化によるコストの低下、および、物体識別の精度向上と処理時間の短縮、および、処理プロセッサの必要性能の低下によるコスト低下、さらに、カメラへの撮影負荷の低減による故障率の削減と撮影時間の短縮を可能にすることができる。 As a result, the cost is reduced by sharing the camera for shooting, the accuracy of object identification is improved and the processing time is reduced, the cost is reduced due to the reduction in the required performance of the processing processor, and the shooting load on the camera is reduced. It is possible to reduce the failure rate and the shooting time.
なお、本実施の形態3の障害物検出装置600が備える複数のカメラをAカメラ602とBカメラ604としたが、これらAカメラ602及びBカメラ604に替えて、同様の機能の複数の撮像部を備える複眼カメラを用いても良い。
In addition, although the several camera with which the
本発明における障害物検出装置は上記各実施の形態に限定されず、種々変更して実施することが可能である。 The obstacle detection apparatus according to the present invention is not limited to the above embodiments, and can be implemented with various modifications.
本発明に係る障害物検出装置は、車両に搭載されて、走行方向の対象物を障害物であるかを識別する障害物検出装置に搭載することが可能であり、これにより上記と同様の作用効果を有する障害物検出装置を提供することができる。 The obstacle detection device according to the present invention can be mounted on an obstacle detection device that is mounted on a vehicle and identifies whether an object in the traveling direction is an obstacle, and thus has the same effect as described above. An obstacle detection device having an effect can be provided.
なお、ここでは、本発明をハードウェアで構成する場合を例にとって説明したが、本発明をソフトウェアで実現することも可能である。例えば、本発明に係る走行情報取得方法のアルゴリズムをプログラム言語によって記述し、このプログラムをメモリに記憶しておいて情報処理手段によって実行させることにより、本発明に係る装置と同様の機能を実現することができる。 Here, the case where the present invention is configured by hardware has been described as an example, but the present invention can also be realized by software. For example, a function similar to that of the apparatus according to the present invention is realized by describing the algorithm of the travel information acquisition method according to the present invention in a program language, storing the program in a memory, and causing the information processing means to execute the algorithm. be able to.
本発明に係る走行環境情報取得装置は、物体識別の精度向上と処理時間の短縮、および、処理プロセッサの必要性能の低下によるコスト低下化を図る効果を有し、自動車などの移動体に搭載されて、レーダや画像を用いて移動方向の障害物を検出する障害物検出装置として有用である。 The travel environment information acquisition device according to the present invention has the effect of improving the accuracy of object identification, shortening the processing time, and reducing the cost due to the reduction in the required performance of the processing processor, and is mounted on a moving body such as an automobile. Therefore, it is useful as an obstacle detection device that detects an obstacle in the moving direction using a radar or an image.
100、400、600 障害物検出装置
102 物体検出センサ
104 カメラ
111、611 物体検出部(物体検出手段)
112 カメラ設定算出部
113 撮影順序算出部(撮像順序算出手段)
114、414、614 カメラ制御部(カメラ制御手段)
115、615 画像取得部(画像取得手段)
116 物体認識部
117 危険度判定部
118 通知部
402 第1カメラ
404 第2カメラ
602 Aカメラ
604 Bカメラ
618 撮影切替部(撮像切替手段)
100, 400, 600
112 camera setting
114, 414, 614 Camera control unit (camera control means)
115, 615 Image acquisition unit (image acquisition means)
116
Claims (7)
前記移動体の移動方向にある前記対象物の位置と方向を検出する物体検出手段と、
前記対象物の位置と方向から、対象物の種類毎に予め設定された対象物認識可能な画像サイズで撮像できるレンズの向き、レンズの焦点及びズームの設定からなるカメラ設定を算出するカメラ設定算出手段と、
カメラを制御して前記対象物毎に算出された前記カメラ設定で前記対象物の撮像を行うカメラ制御手段と、
算出された前記カメラ設定に基づいて前記カメラで撮像した対象物の画像を取得する画像取得手段と、
を備えることを特徴とする走行環境情報取得装置。 A traveling environment information acquisition device that is mounted on a moving object and acquires the object as traveling environment information using an image of the object in the moving direction of the moving object,
Object detection means for detecting the position and direction of the object in the moving direction of the moving body;
Camera setting calculation that calculates camera settings including lens orientation, lens focus, and zoom settings that can be captured with an object-recognizable image size set in advance for each object type from the position and direction of the object Means,
Camera control means for controlling the camera to image the object with the camera settings calculated for each object;
Image acquisition means for acquiring an image of an object imaged by the camera based on the calculated camera setting;
A travel environment information acquisition device comprising:
前記物体認識手段で判定した前記対象物の危険度に対応した危険通知を行う危険通知手段と、
を更に備えることを特徴とする請求項1記載の走行環境情報取得装置。 An object recognition unit that determines the type of the target using the captured target image and the set camera setting, and determines the risk of the target from the type, distance, and direction of the target When,
A danger notification means for performing a danger notification corresponding to the danger level of the object determined by the object recognition means;
The travel environment information acquisition device according to claim 1, further comprising:
前記カメラ設定算出手段により算出された前記複数の対象物毎のカメラ設定に基づいて、レンズの向きの変更量、レンズの焦点を合せるレンズ移動量及びズーム設定するレンズ移動量が最小となる前記複数の対象物の撮像順序を算出する撮像順序算出手段を更に備えることを特徴とする請求項1記載の走行環境情報取得装置。 When the plurality of objects are detected by the object detection means and all detected objects are imaged,
Based on the camera settings for each of the plurality of objects calculated by the camera setting calculation means, the amount of change in lens orientation, the amount of lens movement for focusing the lens, and the amount of lens movement for zoom setting are minimized. The travel environment information acquisition apparatus according to claim 1, further comprising an imaging order calculation unit that calculates an imaging order of the target object.
前記カメラ制御手段は、前記撮像順序算出手段により算出された撮像順序を、前記複数のカメラ毎に割り当てて、前記複数のカメラをそれぞれ用いて、前記撮像順序で撮像される対象物に対するカメラ設定で対象物の撮像を行うことを特徴とする請求項1記載の走行環境情報取得装置。 Comprising a plurality of cameras for imaging the object;
The camera control means assigns the imaging order calculated by the imaging order calculation means to each of the plurality of cameras, and sets the camera for an object to be imaged in the imaging order using each of the plurality of cameras. The traveling environment information acquisition apparatus according to claim 1, wherein the object is imaged.
前記カメラ制御手段は、前記複数のカメラの撮像距離に基づいて、前記複数のカメラに前記撮像順序を割り当てることを特徴とする請求項4記載の走行環境情報取得装置。 The plurality of cameras have different imaging distances,
The travel environment information acquisition apparatus according to claim 4, wherein the camera control unit assigns the imaging order to the plurality of cameras based on imaging distances of the plurality of cameras.
前記複数のカメラによる前記対象物までの距離と方向を算出するための撮像と、前記対象物の識別のための撮像とを切り替える撮像切替部とを備え、
前記撮像切替部の切替によって、
前記物体検出手段は、前記複数のカメラの視差を用いて対象物の方向と距離を算出して前記対象物の位置と方向を検出し、
前記カメラ制御手段は、前記複数のカメラを用いて前記対象物の識別のための対象物の画像を撮像することを特徴とする請求項1記載の走行環境情報取得装置。 A plurality of cameras that perform imaging of the object for calculating the distance and direction to the object and imaging of the object for identification of the object;
An imaging switching unit that switches between imaging for calculating the distance and direction to the object by the plurality of cameras and imaging for identifying the object;
By switching the imaging switching unit,
The object detection means detects the position and direction of the object by calculating the direction and distance of the object using the parallax of the plurality of cameras,
The travel environment information acquisition apparatus according to claim 1, wherein the camera control unit captures an image of an object for identifying the object using the plurality of cameras.
前記移動体の移動方向にある前記対象物の位置と方向を検出する物体検出ステップと、
前記対象物の位置と方向から、対象物の種類毎に予め設定された対象物認識可能な画像サイズで撮像できるレンズの向き、レンズの焦点及びズームの設定からなるカメラ設定を算出するカメラ設定算出ステップと、
カメラを制御して、前記カメラ設定で前記対象物の撮像を行うカメラ制御ステップと、
算出された前記カメラ設定に基づいて前記カメラで撮像した対象物の画像を取得する画像取得ステップと、
を備えることを特徴とする走行環境情報取得方法。 A traveling environment information acquisition method that is mounted on a moving object and acquires the object as traveling environment information using an image of the object in the moving direction of the moving object,
An object detection step of detecting a position and a direction of the object in a moving direction of the moving body;
Camera setting calculation that calculates camera settings including lens orientation, lens focus, and zoom settings that can be captured with an object-recognizable image size set in advance for each object type from the position and direction of the object Steps,
A camera control step of controlling the camera and imaging the object with the camera settings;
An image acquisition step of acquiring an image of an object imaged by the camera based on the calculated camera setting;
A driving environment information acquisition method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006236568A JP2008060988A (en) | 2006-08-31 | 2006-08-31 | Apparatus for acquiring travel environment information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006236568A JP2008060988A (en) | 2006-08-31 | 2006-08-31 | Apparatus for acquiring travel environment information |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008060988A true JP2008060988A (en) | 2008-03-13 |
Family
ID=39243219
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006236568A Pending JP2008060988A (en) | 2006-08-31 | 2006-08-31 | Apparatus for acquiring travel environment information |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008060988A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2930658A1 (en) | 2014-03-25 | 2015-10-14 | Panasonic Intellectual Property Corporation of America | Image-capturing device for moving body |
JP2018515945A (en) * | 2015-03-27 | 2018-06-14 | インテル・コーポレーション | Technology for controlling user access to image sensors in camera devices |
WO2019142523A1 (en) * | 2018-01-19 | 2019-07-25 | コベルコ建機株式会社 | Tip attachment discrimination device |
CN110576867A (en) * | 2018-06-08 | 2019-12-17 | 铃木株式会社 | Vehicle driving support device |
WO2022113432A1 (en) * | 2020-11-24 | 2022-06-02 | 株式会社Jvcケンウッド | Vehicle-surroundings monitoring device and vehicle-surroundings monitoring method |
-
2006
- 2006-08-31 JP JP2006236568A patent/JP2008060988A/en active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2930658A1 (en) | 2014-03-25 | 2015-10-14 | Panasonic Intellectual Property Corporation of America | Image-capturing device for moving body |
US9398226B2 (en) | 2014-03-25 | 2016-07-19 | Panasonic Intellectual Property Corporation Of America | Image-capturing device for moving body |
JP2018515945A (en) * | 2015-03-27 | 2018-06-14 | インテル・コーポレーション | Technology for controlling user access to image sensors in camera devices |
WO2019142523A1 (en) * | 2018-01-19 | 2019-07-25 | コベルコ建機株式会社 | Tip attachment discrimination device |
JP2019125314A (en) * | 2018-01-19 | 2019-07-25 | コベルコ建機株式会社 | Tip attachment discrimination device |
CN111587448A (en) * | 2018-01-19 | 2020-08-25 | 神钢建机株式会社 | Remote accessory device identification apparatus |
JP7114907B2 (en) | 2018-01-19 | 2022-08-09 | コベルコ建機株式会社 | Tip attachment discriminator |
CN110576867A (en) * | 2018-06-08 | 2019-12-17 | 铃木株式会社 | Vehicle driving support device |
WO2022113432A1 (en) * | 2020-11-24 | 2022-06-02 | 株式会社Jvcケンウッド | Vehicle-surroundings monitoring device and vehicle-surroundings monitoring method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3168823B1 (en) | Traffic signal detection device and traffic signal detection method | |
JP4622001B2 (en) | Road lane marking detection apparatus and road lane marking detection method | |
JP6407626B2 (en) | Object recognition device and vehicle control system | |
JP5663352B2 (en) | Image processing apparatus, image processing method, and image processing program | |
WO2014084121A1 (en) | On-vehicle control device | |
US11029150B2 (en) | Object distance detection device | |
JP6660751B2 (en) | Imaging device | |
JP6722051B2 (en) | Object detection device and object detection method | |
JP4807733B2 (en) | Outside environment recognition device | |
WO2017104574A1 (en) | Image processing device, object recognition device, apparatus control system, image processing method and program | |
JP2007280132A (en) | Travel guide obstacle detector, and controller for vehicle | |
JP2008060988A (en) | Apparatus for acquiring travel environment information | |
JP6677474B2 (en) | Perimeter recognition device | |
JP2020187474A (en) | Traveling lane recognition device, traveling lane recognition method and program | |
JP2000293693A (en) | Obstacle detecting method and device | |
JP6899673B2 (en) | Object distance detector | |
JP5434277B2 (en) | Driving support device and driving support method | |
CN113646607A (en) | Object position detection device, travel control system, and travel control method | |
JP2007310591A (en) | Image processor and parking space determination method | |
JP6891082B2 (en) | Object distance detector | |
JP2020109559A (en) | Traffic signal recognition method and traffic signal recognition device | |
JP5973843B2 (en) | Outside environment recognition device and outside environment recognition method | |
JP7120835B2 (en) | Image processing device | |
JP5866238B2 (en) | Outside environment recognition device and outside environment recognition method | |
JP6564682B2 (en) | Object detection device, object detection method, and object detection program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20080806 |