JP2008060988A - Apparatus for acquiring travel environment information - Google Patents

Apparatus for acquiring travel environment information Download PDF

Info

Publication number
JP2008060988A
JP2008060988A JP2006236568A JP2006236568A JP2008060988A JP 2008060988 A JP2008060988 A JP 2008060988A JP 2006236568 A JP2006236568 A JP 2006236568A JP 2006236568 A JP2006236568 A JP 2006236568A JP 2008060988 A JP2008060988 A JP 2008060988A
Authority
JP
Japan
Prior art keywords
camera
image
imaging
unit
cameras
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006236568A
Other languages
Japanese (ja)
Inventor
Osamu Miyawaki
治 宮脇
Kazuhiko Iwai
和彦 岩井
Tatsuyuki Negishi
辰行 根岸
Koji Shin
浩治 新
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2006236568A priority Critical patent/JP2008060988A/en
Publication of JP2008060988A publication Critical patent/JP2008060988A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve the accuracy of object identification even for an object located far, to shorten the processing time, and to reduce cost by reducing the required performance of a processor. <P>SOLUTION: An obstacle detection device 100 uses and images an object in the moving direction of a mobile to acquire the object as travel environment information. An object detection unit 111 detects the position and the direction of the object, located in the moving direction of the mobile. A camera setting calculation unit 112 calculates, from the position and the direction of the object, the camera setting comprising the lens direction, the focal point of lens and zoom setting which are preset for each type of the object and with which imaging can be performed, in an object-recognizable image size; and a camera control unit 114 controls a camera 104 for imaging the object with the camera setting calculated for each object, and the image is acquired by an image acquisition unit 115. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は自動車など移動体に搭載され、移動体周囲の環境を認識して障害物を検出する走行環境情報取得装置に関する。   The present invention relates to a traveling environment information acquisition device that is mounted on a moving body such as an automobile and detects an obstacle by recognizing the environment around the moving body.

従来、運転者を支援するために、自動車などの車両に搭載され、自車両が走行する方向に存在する走行の障害となる物体を、画像処理により認識する装置が知られている。   2. Description of the Related Art Conventionally, in order to assist a driver, an apparatus that is mounted on a vehicle such as an automobile and recognizes an object that obstructs traveling that exists in the traveling direction of the host vehicle by image processing is known.

このように障害物を検出する装置として、例えば、特許文献1の走行環境認識装置が周知である。この走行環境認識装置では、レーダにより検出された対象物までの距離および方位とカメラで撮影した画像とから対象物までの距離と方位に応じて物体識別対象の範囲を限定(特定)し、限定した範囲内の画像で物体識別が行われている。   As an apparatus for detecting an obstacle in this way, for example, a traveling environment recognition apparatus disclosed in Patent Document 1 is well known. In this traveling environment recognition device, the range of the object identification target is limited (specified) according to the distance and direction to the target object from the distance and direction to the target object detected by the radar and the image captured by the camera, Object identification is performed with images within the range.

図10〜図12を用いて、従来の走行環境認識装置において撮像した画像を用いて物体識別を行う処理を説明する。   A process for identifying an object using an image captured by a conventional travel environment recognition apparatus will be described with reference to FIGS.

図10は、走行車両と対象物の位置関係を示す図、図11は、図10の位置関係を用いて、従来の方式による自車両と対象物の位置関係から画像内の対象物範囲特定方法を示す概念図、図12は、従来の方式における自車両と対象物の位置関係から画像内の対象物画像の抽出方法を示す概念図である。   FIG. 10 is a diagram showing the positional relationship between the traveling vehicle and the object, and FIG. 11 is a method for specifying the object range in the image from the positional relationship between the vehicle and the object according to the conventional method using the positional relationship of FIG. FIG. 12 is a conceptual diagram showing a method for extracting an object image in an image from the positional relationship between the host vehicle and the object in the conventional method.

図10に示す走行車両において、移動方向に位置する対象物A〜Cの物体識別を行う場合、従来の走行環境装置では、カメラを用いて走行方向に存在する対象物A〜Cを撮影する(図11(a)参照)する。図11(a)に示すように対象物A〜Cが表示された一画像1と、レーダで取得した対象物A〜Cまでの距離及び対象物A〜Cの方向によって、図11(b)に示すように、対象物A〜Cのそれぞれに対して対象物認識範囲2〜4を設定する。   In the traveling vehicle shown in FIG. 10, when performing object identification of the objects A to C located in the moving direction, the conventional traveling environment apparatus photographs the objects A to C existing in the traveling direction using a camera ( (See FIG. 11A). As shown in FIG. 11 (a), depending on one image 1 on which the objects A to C are displayed, the distance to the objects A to C acquired by the radar, and the directions of the objects A to C, FIG. As shown, the object recognition ranges 2 to 4 are set for the objects A to C, respectively.

次いで、図12に示すように、画面1から対象物認識範囲2〜4を抽出し、それぞれを物体識別可能な変換処理(図12では拡大した画像6〜8として示す)を行って対象物認識処理を実行する。
特開2004−265432号公報
Next, as shown in FIG. 12, the object recognition ranges 2 to 4 are extracted from the screen 1, and each of them is subjected to conversion processing (shown as enlarged images 6 to 8 in FIG. 12) that can identify the objects. Execute the process.
JP 2004-265432 A

特許文献1に示す走行環境認識装置で用いられる物体認識方法では、図11及び図12に示すように、対象物A〜Cに対して物体認識対象を行う場合、同一の画像1として撮影された対象物A〜Cの画像を用いて行う。   In the object recognition method used in the traveling environment recognition apparatus disclosed in Patent Document 1, when the object recognition target is performed on the objects A to C as shown in FIGS. This is performed using images of the objects A to C.

よって、従来の走行環境認識装置では、遠方の物体は、画像内では小さく写るため構成する画素数が少なく、かつ、物体の輪郭が不明瞭になるため、周辺の建物と検出対象の物体との分離が困難であり、物体識別の精度が低下するという問題がある。   Therefore, in the conventional driving environment recognition device, a distant object appears small in the image, so the number of pixels to be configured is small and the outline of the object becomes unclear. There is a problem that separation is difficult and accuracy of object identification is lowered.

また、高解像度の画像を使用した場合、遠方の物体の検出部分を構成する画素数は増加するが、近傍の対象物を構成する画素数も増大するため、物体識別に要する処理時間が増大するという問題がある。   In addition, when a high-resolution image is used, the number of pixels constituting the detection part of a distant object increases, but the number of pixels constituting a nearby object also increases, so that the processing time required for object identification increases. There is a problem.

さらに、従来の走行環境認識装置では、対象部分の画像の大きさを同一とすることにより、物体識別に要する処理時間の低減を図る(図12参照)ため、画像の大きさの拡大と縮小処理に処理時間がかかり、結果として処理時間が増大するという問題がある。   Furthermore, in the conventional driving environment recognition device, the processing time required for object identification is reduced by making the size of the image of the target portion the same (see FIG. 12). There is a problem that it takes a long processing time, resulting in an increase in the processing time.

本発明はかかる点に鑑みてなされたものであり、物体識別の精度向上と処理時間の短縮、および、処理プロセッサの必要性能の低下によるコスト低下が可能な走行環境情報取得装置を提供することを目的とする。   The present invention has been made in view of the above points, and provides a travel environment information acquisition device capable of improving the accuracy of object identification, shortening the processing time, and reducing the cost due to the reduction in the required performance of the processing processor. Objective.

本発明の走行環境情報取得装置は、移動体に搭載され、前記移動体の移動方向において対象物の画像を用いて前記対象物を走行環境情報として取得する走行環境情報取得装置であって、前記移動体の移動方向にある前記対象物の位置と方向を検出する物体検出手段と、前記対象物の位置と方向から、対象物の種類毎に予め設定された対象物認識可能な画像サイズで撮像できるレンズの向き、レンズの焦点及びズームの設定からなるカメラ設定を算出するカメラ設定算出手段と、カメラを制御して前記対象物毎に算出された前記カメラ設定で前記対象物の撮像を行うカメラ制御手段と、算出された前記カメラ設定に基づいて前記カメラで撮像した対象物の画像を取得する画像取得手段とを備える構成を採る。   The traveling environment information acquisition device of the present invention is a traveling environment information acquisition device that is mounted on a moving body and acquires the object as traveling environment information using an image of the object in the moving direction of the moving body, Object detection means for detecting the position and direction of the target object in the moving direction of the moving body, and imaging with an image size that can be recognized by a target object set in advance for each type of target object from the position and direction of the target object A camera setting calculating means for calculating a camera setting composed of a lens orientation, a lens focus, and a zoom setting, and a camera that controls the camera and images the object with the camera setting calculated for each object. A configuration including a control unit and an image acquisition unit that acquires an image of an object captured by the camera based on the calculated camera setting is adopted.

以上説明したように、本発明によれば、物体識別の精度向上と処理時間の短縮、および、処理プロセッサの必要性能の低下によるコスト低下化を図ることができる。   As described above, according to the present invention, it is possible to improve the accuracy of object identification, shorten the processing time, and reduce the cost by reducing the required performance of the processing processor.

以下、本発明の実施の形態について、図面を参照して詳細に説明する。なお、本実施の形態では、走行環境情報取得装置を、移動する移動体に搭載され、前記移動体の移動方向において障害物となりうる対象物の画像を用いて前記対象物を検出する障害物検出装置に適用して説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the present embodiment, the obstacle detection is carried out by detecting the object using an image of the object that is mounted on the moving body and can be an obstacle in the moving direction of the moving body. The description will be applied to the apparatus.

(実施の形態1)
図1は、本発明の実施の形態1に係る走行環境情報取得装置を適用した障害物検出装置100の構成を示すブロック図である。
(Embodiment 1)
FIG. 1 is a block diagram showing a configuration of an obstacle detection apparatus 100 to which the traveling environment information acquisition apparatus according to Embodiment 1 of the present invention is applied.

図1に示すように障害物検出装置100は、物体検出センサ102と、カメラ104と、スピーカ105と、モニタ106と、障害物検出処理部110とを有する。   As illustrated in FIG. 1, the obstacle detection apparatus 100 includes an object detection sensor 102, a camera 104, a speaker 105, a monitor 106, and an obstacle detection processing unit 110.

障害物検出処理部110は、物体検出部111と、カメラ設定算出部112と、撮影順序算出部113と、カメラ制御部114と、画像取得部115と、物体認識部116と、危険度判定部117と、通知部118とを有する。   The obstacle detection processing unit 110 includes an object detection unit 111, a camera setting calculation unit 112, a shooting order calculation unit 113, a camera control unit 114, an image acquisition unit 115, an object recognition unit 116, and a risk determination unit. 117 and a notification unit 118.

物体検出センサ102は、カメラやレーダ等を用いて識別対象となる複数の対象物までの現在の位置からの距離と方向を取得するものであり、取得した情報は、物体検出部111に出力する。なお、物体検出センサ102としてレーダやソナー等を用いた場合、これらレーダやソナーの反射波を利用して、反射方向と反射波の強度と反射波の到達時間から、対象物がある方向と距離を算出することになる。この構成により、遠方の対象物の物体識別の精度向上と物体識別に要する処理時間の短縮が可能になる。   The object detection sensor 102 acquires the distance and direction from the current position to a plurality of objects to be identified using a camera, radar, or the like, and outputs the acquired information to the object detection unit 111. . When a radar or sonar is used as the object detection sensor 102, the direction and distance of the target object are determined from the reflection direction, the intensity of the reflected wave, and the arrival time of the reflected wave using the reflected wave of the radar or sonar. Will be calculated. With this configuration, it is possible to improve the accuracy of object identification of a distant object and reduce the processing time required for object identification.

物体検出部111は、物体検出センサ102より入力される複数の対象物までの距離と方向の情報に基づき、規定する距離範囲内にあり、かつ、規定する方向範囲内になる対象物の集合を1つの対象物として判断する。その判断した情報は、物体検出センサ102からの情報とともにカメラ設定算出部112に出力される。   Based on the distance and direction information to a plurality of objects input from the object detection sensor 102, the object detection unit 111 is a set of objects that are within a specified distance range and that are within a specified direction range. Judge as one object. The determined information is output to the camera setting calculation unit 112 together with information from the object detection sensor 102.

なお、規定する距離範囲及び方向範囲は、物体認識部116において物体識別の対象となる対象物の長さの許容値、例えば、自動車の場合は全長の許容値から設定し、方向範囲は、対象物までの距離から対象物が取りうる幅の許容値、例えば、自動車の場合は自動車の幅と距離に応じた視野角内の範囲を許容値として設定する。   The distance range and the direction range to be specified are set from the allowable value of the length of the object to be identified by the object recognizing unit 116, for example, the allowable value of the total length in the case of an automobile. An allowable value of the width that the object can take from the distance to the object, for example, in the case of an automobile, a range within a viewing angle corresponding to the width and distance of the automobile is set as the allowable value.

カメラ設定算出部112は、入力される情報を用いて、物体検出部111で検出する複数の対象物毎に、カメラ104を用いて撮影した際に、物体認識部116にて物体の認識に適した画像サイズとなるカメラ設定を算出する。この画像サイズは、対象物の種類(歩行者、自動車など)毎に予め設定された対象物認識可能なものであり、同じ解像度の画像で同じ大きさのものである。   The camera setting calculation unit 112 is suitable for recognizing an object by the object recognition unit 116 when shooting using the camera 104 for each of a plurality of objects detected by the object detection unit 111 using the input information. Calculate the camera settings for the selected image size. This image size is an object recognizable in advance set for each type of object (pedestrian, car, etc.), and has the same resolution and the same size.

具体的には、カメラ設定算出部112は、物体検出部111で検出する複数の対象物毎に、現在位置から対象物までの距離より、物体認識部116にて物体の認識に適した画像のサイズとなるカメラのズーム設定値の算出とレンズ焦点の設定値を算出する。また、カメラ設定算出部112は、物体検出部111で検出する複数の対象物毎に、対象物に対する現在位置からの方向より、物体認識部116にて物体の認識に適した画像のサイズとなる撮影を行うためのカメラの上下方向と左右方向の設定値を算出する。   Specifically, the camera setting calculation unit 112 determines, for each of a plurality of targets detected by the object detection unit 111, an image suitable for object recognition by the object recognition unit 116 based on the distance from the current position to the target. Calculation of the zoom setting value of the camera as the size and the setting value of the lens focus are calculated. In addition, the camera setting calculation unit 112 has an image size suitable for object recognition by the object recognition unit 116 from the direction from the current position with respect to the target for each of the plurality of objects detected by the object detection unit 111. Set values in the vertical and horizontal directions of the camera for shooting are calculated.

撮影順序算出部113は、カメラ設定算出部112で算出した対象物毎のカメラの設定値と対象物までの距離と方向に基づき、距離や方向から対象物の撮影順序を決定する。   The shooting order calculation unit 113 determines the shooting order of the objects based on the distance and direction based on the camera setting value for each target object calculated by the camera setting calculation unit 112 and the distance and direction to the target object.

この撮影順序算出部113は、カメラ104への負荷の軽減とすべての対象物の撮影に必要な撮影時間を短縮し、物体識別に要する処理時間の短縮とカメラの制御に要する所要時間の短縮とカメラの負荷軽減によるカメラ寿命の延長を可能にする。   This photographing order calculation unit 113 reduces the load on the camera 104 and shortens the photographing time required for photographing all objects, shortens the processing time required for object identification, and shortens the time required for camera control. The camera life can be extended by reducing the load on the camera.

カメラ制御部114は、撮影順序算出部113から入力される情報に基づいて、カメラ104を制御して対象物の撮像を行う。   The camera control unit 114 controls the camera 104 based on the information input from the shooting order calculation unit 113 to capture an object.

具体的に、カメラ制御部114は、撮影順序算出部113の撮影順序と対象物毎のカメラの設定値に従って、カメラ104のズームの設定とレンズの焦点の設定とレンズ方向の設定を行う。   Specifically, the camera control unit 114 sets the zoom of the camera 104, the focus of the lens, and the setting of the lens direction in accordance with the shooting order of the shooting order calculation unit 113 and the setting value of the camera for each object.

また、カメラ制御部114は、カメラ104に対して、設定した内容での撮影実施を指示し、カメラ104を制御して、対象物の画像の撮影を対象物数分繰り返し実行する。   In addition, the camera control unit 114 instructs the camera 104 to perform shooting with the set contents, controls the camera 104, and repeatedly executes shooting of an image of the target object for the number of objects.

また、カメラ制御部114は、撮影順序算出部113から入力される対象物毎のカメラ設定を画像取得部115に出力する。   Further, the camera control unit 114 outputs the camera setting for each target object input from the imaging order calculation unit 113 to the image acquisition unit 115.

画像取得部115は、カメラ104で撮影した画像を取得するとともに、カメラ制御部114から撮影した画像に対応する対象物までの距離と方向を取得して、対象物数分の画像情報を作成する。画像取得部115は、作成した対象物数分の画像情報を、保存するとともに、物体認識部116に出力する。   The image acquisition unit 115 acquires an image captured by the camera 104 and also acquires the distance and direction to the target corresponding to the captured image from the camera control unit 114, and creates image information for the number of targets. . The image acquisition unit 115 saves the created image information for the number of objects and outputs it to the object recognition unit 116.

物体認識部116は、画像取得部115で取得した対象物の画像から、対象物の識別を行い、対象物までの距離と方向と対象物の識別結果から物体情報を生成する。   The object recognition unit 116 identifies the target object from the target image acquired by the image acquisition unit 115, and generates object information from the distance and direction to the target object and the target identification result.

危険度判定部117は、物体認識部116で生成した対象物までの距離と方向と対象物の識別結果からなる物体情報より、対象物の危険度を判断する。   The degree-of-risk determination unit 117 determines the degree of risk of the object based on the object information including the distance and direction to the object generated by the object recognition unit 116 and the identification result of the object.

詳細には、物体認識部116で認識した対象物の種類と自車両から対象物までの距離と方向を用いて、対象物の種類や距離、同一車線内外などよって危険度を判断する。   Specifically, using the type of the object recognized by the object recognition unit 116 and the distance and direction from the host vehicle to the object, the degree of risk is determined based on the type and distance of the object, the inside and outside of the same lane, and the like.

例えば、危険度判定部117は、対象物の種類が車両であるとき、対象物が自車線の範囲内にあり、距離が30m以内の場合には危険、30mから60mの範囲内の場合には注意、60mを超える場合には安全、対象物が自車線の範囲外にあり、且つ、距離が30m以内の場合には注意、30mを超える場合には安全とそれぞれ判断する。   For example, when the type of the object is a vehicle, the risk determination unit 117 is dangerous when the object is in the range of the own lane and the distance is within 30 m, and when the object is within the range of 30 m to 60 m. Attention, if it exceeds 60m, it will be judged as safe, if the object is outside the range of its own lane and the distance is within 30m, it will be judged as caution, and if it exceeds 30m, it will be judged as safe.

また、危険度判定部117では、対象物の種類が人であるときは、車両の場合の半分で判断する方法とする。なお、危険を判断する距離の分割は、上記の例と異なり、少ない分割数やより多い分割数でも同様の効果が得られる。   Further, in the risk determination unit 117, when the type of the object is a person, the determination is made with half of the case of the vehicle. Note that the distance division for judging danger is different from the above example, and the same effect can be obtained with a small number of divisions or a larger number of divisions.

また、上記構成の危険度判定部117は、自車両の走行速度に基づき、動的に距離範囲を変更するようにしてもよい。   The risk determination unit 117 having the above-described configuration may dynamically change the distance range based on the traveling speed of the host vehicle.

さらに、判断の対象物が自車両の走行車線と同一の走行車線か否かの判断は、車線を区別する道路面上に表示されている白線や黄色の線を画像から検出するようにしてもよい。このような走行車線検出方法を利用することにより、容易に実現することが可能である。   Further, the determination whether the object to be determined is the same traveling lane as the traveling lane of the host vehicle may be performed by detecting a white line or a yellow line displayed on the road surface that distinguishes the lane from the image. Good. By using such a traveling lane detection method, it can be easily realized.

通知部118は、危険度判定部117により判定された自車と対象物が衝突する危険度に基づき、危険通知内容を作成し、スピーカ105、あるいは、モニタ106より、運転者に通知を行う。   The notification unit 118 creates a risk notification content based on the risk of collision between the host vehicle and the object determined by the risk determination unit 117, and notifies the driver from the speaker 105 or the monitor 106.

次いで、上記構成を有する障害物検出装置100の動作について、図2及び図3を用いて説明する。   Next, the operation of the obstacle detection apparatus 100 having the above configuration will be described with reference to FIGS.

図2及び図3は、本発明の実施の形態1における障害物検出装置100の動作を説明するためのフローチャートである。なお、図2は、撮影終了までの処理を示すものであり、図3は、取得した対象物の画像を用いて物体認識を行う処理を示すものである。   2 and 3 are flowcharts for explaining the operation of the obstacle detection apparatus 100 according to Embodiment 1 of the present invention. 2 shows processing up to the end of photographing, and FIG. 3 shows processing for performing object recognition using the acquired image of the target object.

ステップS201では、障害物検出装置100において、物体検出センサ102が、自車両の現在位置から自車両の移動方向に存在する対象物までの距離と方向を取得してステップS202に移行する。なお、ステップS201において、物体検出センサ102が複数の対象物を検出した場合、複数の対象物毎に、自車両から対象物までの距離及び方向の検出情報を物体検出部111に出力する。   In step S201, in the obstacle detection apparatus 100, the object detection sensor 102 obtains the distance and direction from the current position of the host vehicle to the object existing in the moving direction of the host vehicle, and proceeds to step S202. In step S201, when the object detection sensor 102 detects a plurality of objects, the detection information on the distance and direction from the host vehicle to the object is output to the object detection unit 111 for each of the plurality of objects.

ステップS202では、物体検出部111が、物体検出センサ102から入力される対象物毎の現在位置から当該対象物までの距離と方向から、規定内の距離範囲内にあり、かつ、規定内の方向範囲内にある対象物を同一の物体の集合を1つの対象物情報とし、対象物の集合の中心点を検出した対象物までの距離と方向として算出し、ステップS203に移行する。なお、これら距離と方向の算出により物体検出部111は、対象物の位置を算出している。   In step S202, the object detection unit 111 is within the specified distance range from the current position and the direction from the current position for each target object input from the object detection sensor 102 to the target object, and the specified direction. The objects within the range are set as the same object set as one piece of object information, and the distance and direction to the detected object are calculated as the center point of the set of objects, and the process proceeds to step S203. Note that the object detection unit 111 calculates the position of the object by calculating the distance and the direction.

ステップS203では、カメラ設定算出部112が、物体検出部111から入力された対象物までの距離と方向とより、対象物毎に、物体認識部116での物体認識に使用する画像サイズに合わせて、対象物までの距離に基づきズーム設定値を算出し、さらに、ズーム設定値と対象物までの距離からレンズの焦点位置を調整するためのレンズ焦点の設定値を算出する。さらに、対象物の方向に基づき、カメラの向きの設定値を算出してステップS204に移行する。   In step S <b> 203, the camera setting calculation unit 112 matches the image size used for object recognition in the object recognition unit 116 for each target object based on the distance and direction to the target object input from the object detection unit 111. Then, a zoom setting value is calculated based on the distance to the object, and further, a lens focus setting value for adjusting the focal position of the lens is calculated from the zoom setting value and the distance to the object. Further, based on the direction of the object, a setting value for the camera orientation is calculated, and the process proceeds to step S204.

ステップS204では、撮影順序算出部113が、カメラ設定算出部112から入力された対象物毎に算出したカメラのズーム設定値やレンズ焦点の設定値やカメラの向きの設定値、あるいは、対象物までの距離や方向から、カメラの設定変更が最小になる順序を計算し、対象物の撮影順序を算出してステップS205に移行する。   In step S204, the imaging order calculation unit 113 calculates the camera zoom setting value, the lens focus setting value, the camera orientation setting value, or the target object calculated for each object input from the camera setting calculation unit 112. The order in which the camera setting change is minimized is calculated from the distance and the direction, and the shooting order of the object is calculated, and the process proceeds to step S205.

なお、ステップS204におけるカメラ104の設定変更を最小とする順序の算出は、最短経路探索法を適用することで、容易に算出することができる。例えば、ズーム設定の変更量が最小になる順序での算出が可能であり、また、ズーム設定とレンズの焦点設定とレンズの方向設定のそれぞれに要する時間から、カメラの設定変更にかかる時間が最小になる撮影順序の算出が可能である。   Note that the calculation of the order that minimizes the setting change of the camera 104 in step S204 can be easily calculated by applying the shortest path search method. For example, it is possible to calculate in the order in which the amount of zoom setting change is minimized, and the time required for camera setting change is minimized from the time required for zoom setting, lens focus setting, and lens direction setting. It is possible to calculate the shooting order.

ステップS205では、カメラ制御部114が、カメラ104に対し、算出された撮影順序に従って、対象物のカメラ設定に基づいて、ズーム設定とレンズの焦点設定とレンズの方向設定を行いステップS206に移行する。   In step S205, the camera control unit 114 performs zoom setting, lens focus setting, and lens direction setting on the camera 104 based on the camera setting of the object in accordance with the calculated shooting order, and the process proceeds to step S206. .

ステップS206では、カメラ制御部114が、カメラ104の設定終了後に、カメラ104に対して設定した内容での撮影指示を行い、カメラ104で対象物の画像を撮影してステップS207に移行する。   In step S206, the camera control unit 114 instructs the camera 104 to shoot with the set content after completing the setting of the camera 104, and shoots an image of the object with the camera 104, and the process proceeds to step S207.

ステップS207では、画像取得部115が、カメラ104で撮影した対象物の画像を取得するとともにカメラ制御部114から対象物に該当する対象物までの距離と方向を取得して、取得した対象物の画像と対象物に該当する対象物までの距離と方向の対応付けを行いステップS208に移行する。なお、ステップS207において画像取得部115により対象物までの距離と方向対応付けられた対象物の画像情報は物体認識が完了するまで保存される。   In step S207, the image acquisition unit 115 acquires an image of the object photographed by the camera 104, acquires the distance and direction from the camera control unit 114 to the object corresponding to the object, and acquires the acquired object. The distance between the image and the object corresponding to the object is associated with the direction, and the process proceeds to step S208. In step S207, the image information of the target that is associated with the distance to the target by the image acquisition unit 115 in the direction is stored until the object recognition is completed.

ステップS208では、画像取得部115は、カメラ104から入力される画像と、カメラ制御部114から入力される対象物までの距離と方向とを用いて、全対象物の撮影完了可否の判定を行う。   In step S <b> 208, the image acquisition unit 115 uses the image input from the camera 104 and the distance and direction to the target input from the camera control unit 114 to determine whether or not shooting of all the targets is complete. .

ステップS208において、全対象物の撮影が終了していなければステップS205に戻り、ステップS205以降の処理を繰り返し実行して、次の対象物の撮影を行い、全対象物の撮影が終了していれば、対象物の撮影を終了する。   In step S208, if the shooting of all objects has not been completed, the process returns to step S205, and the processes in and after step S205 are repeatedly executed to shoot the next object, and the shooting of all objects has been completed. If so, the shooting of the object ends.

このようにして、障害物検出装置100では、物体検出センサ102により検出された対象物に対応する対象物の全画像を取得する。   In this way, the obstacle detection apparatus 100 acquires all images of the object corresponding to the object detected by the object detection sensor 102.

次いで、障害物検出装置100は、図3に示すように、物体認識処理を行う。   Next, the obstacle detection apparatus 100 performs object recognition processing as shown in FIG.

図3に示すステップS301では、物体認識部116が、画像取得部115で保存した対象物の画像と、この画像に対応する対象物までの距離と方向とを画像取得部115を介してカメラ制御部114から取得して、ステップS302に移行する。   In step S301 illustrated in FIG. 3, the object recognition unit 116 controls the image of the target object stored in the image acquisition unit 115 and the distance and direction to the target object corresponding to the image via the image acquisition unit 115. Acquired from the unit 114, and the process proceeds to step S302.

ステップS302では、物体認識部116は、取得した対象物の画像について、識別を行い、ステップS303に移行する。   In step S302, the object recognition unit 116 identifies the acquired image of the target object, and proceeds to step S303.

ステップS303では、危険度判定部117が、物体認識部116で識別した対象物の種類と対象物までの距離と方向から、対象物の危険度を判定して、ステップS304に移行する。   In step S303, the risk level determination unit 117 determines the risk level of the target object from the type of target object identified by the object recognition unit 116, the distance to the target object, and the direction, and the process proceeds to step S304.

ステップS304では、危険度判定部117が、対象物の危険度の判定結果に基づいて、危険通知の実施可否の判定を行い、通知を行う場合には、ステップS305に移行し、通知を行わない場合にはステップS306に移行する。   In step S304, the risk determination unit 117 determines whether or not the danger notification can be performed based on the determination result of the risk of the object. If notification is to be made, the process proceeds to step S305 and the notification is not performed. In this case, the process proceeds to step S306.

ステップS305では、通知部118は、危険度判定部117からの情報を受けて、対象物の種類と対象物までの距離と方向から危険通知情報を作成してステップS306に移行する。   In step S305, the notification unit 118 receives the information from the risk determination unit 117, creates danger notification information from the type of object, the distance to the object, and the direction, and proceeds to step S306.

ステップS306では、全対象物の識別の終了可否を行い、終了していない場合、ステップS301に戻り、それ以降の処理を繰り返し実行し、終了している場合、ステップS307では、通知部118は、スピーカ105やモニタ106等を用いて、危険通知の実行を行う。   In step S306, whether or not to end identification of all objects is determined. If not completed, the process returns to step S301, and the subsequent processing is repeatedly executed. If completed, in step S307, the notification unit 118 The danger notification is executed using the speaker 105, the monitor 106, or the like.

図4は、本実施の形態1の障害物検出装置100が行う対象物の検出処理の概要を説明する概念図である。なお、この図4に示すカメラ104が搭載された自車両と対象物A〜Cとの位置関係は、従来の方法との差異を明確にするため、図10で示した位置関係と同様のものとする。   FIG. 4 is a conceptual diagram illustrating an outline of the object detection process performed by the obstacle detection apparatus 100 according to the first embodiment. The positional relationship between the host vehicle on which the camera 104 shown in FIG. 4 is mounted and the objects A to C is the same as the positional relationship shown in FIG. 10 in order to clarify the difference from the conventional method. And

つまり、図10の位置関係にある自車両としての走行車両に、本実施の形態1の障害物検出装置100を搭載して、この障害物検出装置100が、移動方向に存在する対象物A〜Cの画像を取得してそれぞれに対して物体認識処理を行うものとする。   That is, the obstacle detection device 100 according to the first embodiment is mounted on the traveling vehicle as the host vehicle in the positional relationship of FIG. 10, and the obstacle detection device 100 exists in the moving direction. It is assumed that C images are acquired and object recognition processing is performed on each of them.

図4に示すように、障害物検出装置100では、まず、対象物を認識するとともに、対象物毎のカメラ設定を算出する。このカメラ設定は、設定により対象物を撮影して取得する画像が、物体認識部116にて物体の認識に適した画像サイズとなるように、方向設定、焦点設定、ズーム設定を行うものである。   As shown in FIG. 4, the obstacle detection apparatus 100 first recognizes an object and calculates camera settings for each object. In this camera setting, the direction setting, the focus setting, and the zoom setting are performed so that the image acquired by photographing the object according to the setting has an image size suitable for object recognition by the object recognition unit 116. .

そして、算出したカメラ設定(方向、焦点、ズーム設定)に従って、カメラ104に対してカメラ設定を行い、カメラ設定したカメラ104を用いて、カメラ設定に対応する対象物を撮影する。   Then, according to the calculated camera settings (direction, focus, zoom setting), camera settings are made for the camera 104, and an object corresponding to the camera settings is photographed using the camera 104 set for the camera.

ここでは、対象物A、B、Cの順に撮影するものであり、図4(1)は、図10に示す位置関係において、対象物Aを撮影する際のカメラ104の方向し、この方向にて撮影した対象物A画像11を示す。また、図4(2)は、同位置関係において、対象物Bを撮影する際のカメラ104の方向し、この方向で撮影した対象物B画像12を示す。また、図4(3)は同位置関係において、対象物Cを撮影する際のカメラ104の方向し、この方向で撮影した対象物C画像13を示す。   Here, the objects A, B, and C are photographed in this order, and FIG. 4A shows the direction of the camera 104 when photographing the object A in the positional relationship shown in FIG. The object A image 11 photographed in FIG. FIG. 4B shows the object B image 12 photographed in this direction in the direction of the camera 104 when photographing the object B in the same positional relationship. 4 (3) shows the object C image 13 photographed in this direction in the direction of the camera 104 when photographing the object C in the same positional relationship.

ここでは、図10の位置関係における対象物A〜Cの撮影は、それぞれを撮影する場合のカメラにおける、レンズの向きの変更量、レンズの焦点を合せるレンズ移動量及びズーム設定するレンズ移動量が最小となる順序に設定される。ここでは、対象物A、B、Cの順に撮像されるものとする。   Here, photographing of the objects A to C in the positional relationship of FIG. 10 includes the amount of change in the lens direction, the amount of lens movement for focusing the lens, and the amount of lens movement for zoom setting in the camera when photographing each of them. Set to the minimum order. Here, it is assumed that the objects A, B, and C are imaged in this order.

図4に示すようにカメラ104で各対象物A〜Cを撮影して取得した対象物画像、ここでは、対象物A画像11、対象物B画像12及び対象物C画像13は、それぞれ、そのまま対象物認識処理が行える画像サイズとなる。   As shown in FIG. 4, the object images acquired by photographing each of the objects A to C with the camera 104, here, the object A image 11, the object B image 12, and the object C image 13 are each as they are. The image size is such that the object recognition process can be performed.

これら対象物画像11、12、13を加工することなく用いて対象物認識処理を実行することで、対象物を認識する。   The target object is recognized by executing the target object recognition process using these target object images 11, 12, and 13 without being processed.

この構成によれば、移動方向にある全ての対象物に対して、当該対象物までの距離と方位の検出し、検出した対象物毎の距離と方向に合わせて、カメラ104のレンズの方向と焦点とズームの設定を変更し撮影する。   According to this configuration, the distance and direction to the target object are detected for all the target objects in the moving direction, and the lens direction of the camera 104 is adjusted according to the detected distance and direction for each target object. Change the focus and zoom settings and shoot.

これにより、遠方にある対象物であっても、十分な画素数の画像で撮影することが可能であるため、物体の識別率を向上させることができる。   As a result, even an object located far away can be photographed with an image having a sufficient number of pixels, so that the object identification rate can be improved.

また、低解像度のカメラの画像で十分な画像の大きさが確保できるため、カメラ104として低コストのカメラを用いて物体識別を行うことできる。   In addition, since a sufficient image size can be secured with an image of a low-resolution camera, an object can be identified using a low-cost camera as the camera 104.

さらに、対象物の種類毎に予め設定された対象物認識可能な画像サイズが同じ解像度の画像で同じ大きさであり、このサイズで物体を撮影する。   Furthermore, the object recognizable image size set in advance for each type of the object is the same size with the same resolution, and the object is photographed with this size.

このため、撮像後の画像の大きさの変換が不要であるため、画像変換に必要な処理が不要となり、処理プロセッサの必要性能の低下によるコスト低下、あるいは、処理時間の短縮が可能になるという効果を有する障害物検出装置を提供することができる。   For this reason, it is not necessary to convert the size of the image after imaging, so that the processing necessary for image conversion is not required, and the cost can be reduced due to the reduction in the required performance of the processing processor, or the processing time can be shortened. An obstacle detection device having an effect can be provided.

このように本実施の形態1によれば、対象物までの距離と方向に関わらず、物体識別に適した画像が取得可能であり、かつ、物体識別に適した画像の大きさの変換が不要であることにより画像処理の簡易化を図ることができ、遠方の対象物の物体識別の精度向上と処理時間の短縮、および、処理プロセッサの必要性能の低下によるコストの低廉化を図ることができる。   As described above, according to the first embodiment, an image suitable for object identification can be acquired regardless of the distance and direction to the target object, and conversion of the image size suitable for object identification is not required. Therefore, it is possible to simplify image processing, improve the accuracy of object identification of a distant object, shorten the processing time, and reduce the cost by reducing the required performance of the processing processor. .

(実施の形態2)
図5は、本発明の実施の形態2に係る走行環境情報取得装置を適用した障害物検出装置400の構成を示すブロック図である。なお、この障害物検出装置400は、図1に示す実施の形態1に対応する障害物検出装置100と同様の基本的構成を有しており、同一の構成要素には同一の符号を付して、その説明を省略する。
(Embodiment 2)
FIG. 5 is a block diagram showing a configuration of an obstacle detection apparatus 400 to which the traveling environment information acquisition apparatus according to Embodiment 2 of the present invention is applied. The obstacle detection device 400 has the same basic configuration as the obstacle detection device 100 corresponding to the first embodiment shown in FIG. 1, and the same components are denoted by the same reference numerals. The description is omitted.

図5に示す障害物検出装置400は、図1の障害物検出装置100の構成において対象物の撮影用カメラ(図1ではカメラ104)を、複数備えたものである。ここでは、障害物検出装置400は、障害物検出装置100の構成において、対象物撮影用のカメラを一つ加えて、対象物撮影用の第1カメラ402と、第2カメラ404とを具備する構成となっている。なお、図5の障害物検出装置400は、便宜上、第1カメラ402及び第2カメラ404といった対象物撮影用のカメラを2つ備える構成としたが、これに限らず、3つ以上備える構成としてもよい。   An obstacle detection apparatus 400 shown in FIG. 5 includes a plurality of shooting cameras (cameras 104 in FIG. 1) of the object in the configuration of the obstacle detection apparatus 100 of FIG. Here, the obstacle detection apparatus 400 includes a first camera 402 for shooting an object and a second camera 404 in addition to one camera for shooting the object in the configuration of the obstacle detection apparatus 100. It has a configuration. The obstacle detection device 400 in FIG. 5 is configured to include two cameras for shooting an object such as the first camera 402 and the second camera 404 for convenience, but is not limited thereto, and is configured to include three or more. Also good.

この障害物検出装置400において、障害物検出処理部110と同様の構成の障害物検出処理部410では、カメラ制御部414は、入力される情報に基づいて第1カメラ402及び第2カメラ404を制御して対象物の撮像を行う。   In the obstacle detection apparatus 400, in the obstacle detection processing unit 410 having the same configuration as the obstacle detection processing unit 110, the camera control unit 414 controls the first camera 402 and the second camera 404 based on the input information. Control and image the object.

具体的に、カメラ制御部414は、撮影順序算出部113で算出した対象物の撮影順序からカメラ毎に撮影する対象物の振り分けを行うとともに、カメラ毎に制御を行い、それぞれのカメラ(ここでは、第1カメラ402、第2カメラ404)で撮影を実行する。   Specifically, the camera control unit 414 distributes the objects to be photographed for each camera from the photographing order of the objects calculated by the photographing order calculation unit 113 and performs control for each camera. The first camera 402 and the second camera 404) perform shooting.

ここで、カメラ制御部414が、カメラ毎に振り分ける方法として、図5に示すようにカメラが2個の場合では、例えば、奇数順序の対象物を第1カメラ402、偶数番目の対象物を第2カメラ404で撮影する方法がある。また、撮影順序の前半を第1カメラ402、撮影順序の後半を第2カメラ404で撮影する方法でカメラ毎に振り分ける構成としてもよい。また、対象物までの距離に応じて閾値を設けて、閾値範囲内の距離の場合には第1カメラ402に撮影させ、閾値範囲外の距離の場合には第2カメラ404に撮影させる方法によりカメラ毎の振り分けを行うようにしてもよい。   Here, as a method in which the camera control unit 414 distributes each camera, when there are two cameras as shown in FIG. 5, for example, the odd-numbered objects are the first camera 402 and the even-numbered objects are the first. There is a method of photographing with two cameras 404. Further, the first camera 402 may be used for the first half of the shooting order and the second camera 404 may be used for the second half of the shooting order. In addition, a threshold value is set according to the distance to the object, and the first camera 402 is used for shooting when the distance is within the threshold range, and the second camera 404 is used for shooting when the distance is outside the threshold range. You may make it perform distribution for every camera.

この場合、例えば、障害物検出装置400の備える複数のカメラ(第1カメラ402、第2カメラ404)が、それぞれ撮像距離が異なる構成であればより好適である。   In this case, for example, it is more preferable if a plurality of cameras (first camera 402 and second camera 404) provided in the obstacle detection device 400 have different imaging distances.

すなわち、対象物までの距離に応じて閾値を設ける場合では、閾値範囲内の距離の場合に撮影させる第1カメラ402は、広角レンズを備える近距離用カメラとし、閾値範囲外の距離の場合に撮影させる第2カメラ404は、望遠レンズを備える中距離、長距離用カメラ等で構成する。   That is, in the case where a threshold is provided according to the distance to the object, the first camera 402 to be imaged when the distance is within the threshold range is a short-distance camera including a wide-angle lens, and when the distance is outside the threshold range. The second camera 404 to be photographed is composed of a medium-distance / long-distance camera equipped with a telephoto lens.

これにより、カメラ制御部414は、カメラ毎のカメラ固有の撮像距離に対応した対象物の撮影が行えるように撮影順序を含めたカメラ毎の振り分けを行う。   Thus, the camera control unit 414 performs sorting for each camera including the shooting order so that the object corresponding to the camera-specific imaging distance for each camera can be shot.

言い換えれば、障害物検出装置400は、それぞれ望遠レンズ、広角レンズなどを装着して、それぞれの撮像距離が異なった、長距離撮影用、中距離撮影用、近距離撮影用カメラにより構成される複数のカメラを備え、それぞれの特有の撮像距離に基づいて、撮像順序を割り当てる。   In other words, the obstacle detection apparatus 400 includes a plurality of cameras for long-distance shooting, medium-distance shooting, and short-distance shooting, which are each equipped with a telephoto lens, a wide-angle lens, and the like and have different imaging distances. The imaging order is assigned based on the specific imaging distance.

よって、複数のカメラそれぞれを用いて取得される画像は精度が高いものとなり、物体認識においてより認識を容易にさせる画像を取得できる。   Therefore, an image acquired using each of the plurality of cameras has high accuracy, and an image that makes recognition easier in object recognition can be acquired.

さらに、検出した対象物の方向から、右半分に位置する対象物に対して第1カメラ402、左半分に位置する対象物に対しては第2カメラ404で撮影する方法によりカメラ毎の振り分けを行うようにしてもよい。   Further, from the direction of the detected object, the first camera 402 is applied to the object located in the right half, and the second camera 404 is used to assign the object to the object located in the left half. You may make it perform.

また、カメラ毎の制御としては、カメラ制御部414は、振り分けられた対象物毎に対応するカメラ設定に従って、振り分けられた対象物を撮影するカメラ(第1カメラ402、第2カメラ404)毎にズームの設定とレンズの焦点の設定とレンズ方向の設定を行う。   In addition, as the control for each camera, the camera control unit 414 is configured for each camera (the first camera 402 and the second camera 404) that captures the distributed object according to the camera setting corresponding to each distributed object. Set the zoom, set the lens focus, and set the lens direction.

また、カメラ制御部414は、第1カメラ402、第2カメラ404に対して、それぞれ設定した内容で撮影実施を指示し、第1カメラ402、第2カメラ404を制御して、それぞれ撮影順序に従って、対象物毎の画像の撮影を対象物数分繰り返し実行する。   In addition, the camera control unit 414 instructs the first camera 402 and the second camera 404 to perform shooting with the set contents, controls the first camera 402 and the second camera 404, and respectively follows the shooting order. The imaging of each object is repeatedly executed for the number of objects.

なお、カメラ制御部414は、カメラ制御部114と同様に、撮影順序算出部113から入力される対象物毎のカメラ設定を画像取得部115に出力する。   Similar to the camera control unit 114, the camera control unit 414 outputs the camera settings for each target object input from the imaging order calculation unit 113 to the image acquisition unit 115.

次いで、上記構成を有する障害物検出装置400の動作について、図6を用いて説明する。   Next, the operation of the obstacle detection apparatus 400 having the above configuration will be described with reference to FIG.

図6は、本発明の実施の形態2における障害物検出装置400の動作を説明するためのフローチャートである。   FIG. 6 is a flowchart for explaining the operation of the obstacle detection apparatus 400 according to Embodiment 2 of the present invention.

まず、障害物検出装置400では、実施の形態1の障害物検出装置100のステップS201〜S204と同様のステップS501〜ステップS504の処理を行う。   First, the obstacle detection apparatus 400 performs the processing of steps S501 to S504 similar to steps S201 to S204 of the obstacle detection apparatus 100 of the first embodiment.

すなわち、障害物検出装置400は、障害物検出装置100と同様に、ステップS501〜ステップS504の処理によって、対象物情報(方向、距離)を取得して、対象物の位置、対象物毎に撮像する際のカメラ設定、撮影順序を算出する。   That is, the obstacle detection apparatus 400 acquires object information (direction and distance) by the processing of step S501 to step S504, and images the position of the object and each object, similarly to the obstacle detection apparatus 100. The camera settings and shooting order are calculated.

ステップS504における撮影順序算出(ステップS204と同様の処理)の後、ステップS505に移行し、ステップS505では、カメラ制御部414は、撮影順序算出部113で算出した撮影順序に基づき、カメラ毎に撮影する対象物の振り分けを行う。   After calculating the shooting order in step S504 (the same processing as step S204), the process proceeds to step S505. In step S505, the camera control unit 414 performs shooting for each camera based on the shooting order calculated by the shooting order calculation unit 113. Sort the target object.

なお、このステップS505にてカメラ制御部414が、カメラ毎に振り分ける方法としては上述した方法により実現されるものする。   Note that, in this step S505, the camera control unit 414 is realized by the above-described method as the method of distributing for each camera.

ステップS505に次ぐステップS506以降の処理は、撮影順序と、撮影順序の対象となる対象物毎に設定されたカメラ設定とが振り分けられたカメラ毎に撮影を行う処理を示す。ここでは、第1カメラ402における撮影処理のステップS506からステップS509は、図2のステップS205からステップS208の処理と同様である。   The processing after step S506 after step S505 indicates processing for shooting for each camera to which the shooting order and the camera settings set for each target object of the shooting order are distributed. Here, steps S506 to S509 of the photographing process in the first camera 402 are the same as the processes from step S205 to step S208 of FIG.

同様に、第2カメラ404における撮影処理のステップS510からステップS513は、図2のステップS205からステップS208と同様である。   Similarly, steps S510 to S513 of the photographing process in the second camera 404 are the same as steps S205 to S208 in FIG.

すなわち、ステップS506では、カメラ制御部414が、第1カメラ402に対し、算出された撮影順序に従って、対象物のカメラ設定に基づいて、ズーム設定とレンズの焦点設定とレンズの方向設定を行いステップS507に移行する。   That is, in step S506, the camera control unit 414 performs zoom setting, lens focus setting, and lens direction setting on the first camera 402 based on the camera setting of the object in accordance with the calculated shooting order. The process proceeds to S507.

ステップS507では、カメラ制御部414が、第1カメラ402の設定終了後に、第1カメラ402に対して設定した内容での撮影指示を行い、第1カメラ402で対象物の画像を撮影してステップS508に移行する。   In step S507, after the setting of the first camera 402 is completed, the camera control unit 414 instructs the first camera 402 to shoot with the set content, and the first camera 402 shoots an image of the object. The process proceeds to S508.

ステップS508では、画像取得部115が、第1カメラ402で撮影した対象物の画像を取得するとともにカメラ制御部414から対象物に該当する対象物までの距離と方向を取得して、取得した対象物の画像と対象物に該当する対象物までの距離と方向の対応付けを行いステップS509に移行する。なお、ステップS508において画像取得部115により対象物までの距離と方向対応付けられた対象物の画像情報は物体認識が完了するまで保存される。   In step S508, the image acquisition unit 115 acquires the image of the target object captured by the first camera 402 and acquires the distance and direction from the camera control unit 414 to the target object corresponding to the target object. The distance between the object image and the object corresponding to the object is associated with the direction, and the process proceeds to step S509. In step S508, the image information of the target associated with the distance to the target and the direction by the image acquisition unit 115 is stored until the object recognition is completed.

ステップS509では、画像取得部115は、第1カメラ402から入力される画像と、カメラ制御部414から入力される対象物までの距離と方向とを用いて、全対象物の撮影完了可否の判定を行う。   In step S <b> 509, the image acquisition unit 115 uses the image input from the first camera 402 and the distance and direction to the target object input from the camera control unit 414 to determine whether or not shooting of all the targets is complete. I do.

ステップS509において、全対象物の撮影が終了していなければステップS506に戻り、ステップS506からステップS509までの処理を繰り返し実行して、次の対象物の撮影を行い、全対象物の撮影が終了していれば、対象物の撮影を終了する。   In step S509, if the shooting of all the objects has not been completed, the process returns to step S506, the processes from step S506 to step S509 are repeatedly executed, the next object is shot, and the shooting of all the objects is completed. If so, the shooting of the object is terminated.

第2カメラ404における撮像処理として、ステップS510では、カメラ制御部414が、第2カメラ404に対し、算出された撮影順序に従って、対象物のカメラ設定に基づいて、ズーム設定とレンズの焦点設定とレンズの方向設定を行いステップS511に移行する。   As the imaging process in the second camera 404, in step S510, the camera control unit 414 performs the zoom setting and the lens focus setting on the second camera 404 based on the camera setting of the object according to the calculated shooting order. The direction of the lens is set and the process proceeds to step S511.

ステップS511では、カメラ制御部414が、第2カメラ404の設定終了後に、第2カメラ404に対して設定した内容での撮影指示を行い、第2カメラ404で対象物の画像を撮影してステップS512に移行する。   In step S511, after the setting of the second camera 404 is completed, the camera control unit 414 instructs the second camera 404 to shoot with the set content, and the second camera 404 shoots an image of the object. The process proceeds to S512.

ステップS512では、画像取得部115が、第2カメラ404で撮影した対象物の画像を取得するとともにカメラ制御部414から対象物に該当する対象物までの距離と方向を取得して、取得した対象物の画像と対象物に該当する対象物までの距離と方向の対応付けを行いステップS513に移行する。なお、ステップS512において画像取得部115により対象物までの距離と方向対応付けられた対象物の画像情報は物体認識が完了するまで保存される。   In step S512, the image acquisition unit 115 acquires the image of the object photographed by the second camera 404, acquires the distance and direction from the camera control unit 414 to the object corresponding to the object, and acquires the acquired object. The distance between the object image and the object corresponding to the object is associated with the direction, and the process proceeds to step S513. Note that, in step S512, the image information of the target associated with the direction to the distance to the target by the image acquisition unit 115 is stored until the object recognition is completed.

ステップS513では、画像取得部115は、第2カメラ404から入力される画像と、カメラ制御部から入力される対象物までの距離と方向とを用いて、全対象物の撮影完了可否の判定を行う。   In step S513, the image acquisition unit 115 uses the image input from the second camera 404 and the distance and direction to the target object input from the camera control unit to determine whether or not shooting of all the target objects is complete. Do.

ステップS513において、全対象物の撮影が終了していなければステップS510に戻り、ステップS510からステップS513までの処理を繰り返し実行して、次の対象物の撮影を行い、全対象物の撮影が終了していれば、対象物の撮影を終了する。   In step S513, if the shooting of all the objects has not been completed, the process returns to step S510, the processes from step S510 to step S513 are repeatedly executed, the next object is shot, and the shooting of all the objects is completed. If so, the shooting of the object is terminated.

このようにして、障害物検出装置400は、物体検出センサ102により検出された対象物に対応する対象物の全画像を、算出された撮像順序にしたがって複数のカメラ(第1カメラ402、第2カメラ404)により取得する。これら取得した画像すべては、加工することなく、物体認識部116にて認識できる画像サイズで取得されている。   In this way, the obstacle detection device 400 converts all images of the object corresponding to the object detected by the object detection sensor 102 into a plurality of cameras (first camera 402, second camera) according to the calculated imaging order. Obtained by the camera 404). All of these acquired images are acquired with an image size that can be recognized by the object recognition unit 116 without being processed.

なお、カメラの台数が2台以上でも、同様の処理で実現することができる。   Even if the number of cameras is two or more, the same processing can be realized.

なお、障害物検出装置400において、撮影終了以降の処理は、図3で示す障害物検出装置100の処理と同様であるため説明発は省略する。   In the obstacle detection device 400, the processing after the end of photographing is the same as the processing of the obstacle detection device 100 shown in FIG.

このように本発明の実施の形態2の障害物検出装置400によれば、対象物を撮影するカメラを複数備え、撮影する対象物を複数のカメラに振り分けて撮影し、カメラ毎に、撮影する対象物までの距離と方向に応じて、物体認識に適した画像サイズですべての対象物の撮影が可能となるカメラのズームとレンズの焦点とレンズの方向を設定して対象物画像の撮影を行うカメラ設定算出部と複数の対象物の撮影に必要なカメラの制御量、あるいは、制御に要する時間が最小になる撮影順序の算出を行う撮影順序算出部と対象物毎のカメラの設定と対象物の撮影順序に従い、カメラの制御を行うカメラ制御部を設けることにより、物体識別の精度向上と処理時間の短縮、および、処理プロセッサの必要性能の低下によるコスト低下、さらに、カメラへの撮影負荷の低減による故障率の削減と撮影時間の短縮を可能にすることができる。   As described above, according to the obstacle detection device 400 according to the second embodiment of the present invention, a plurality of cameras for photographing an object are provided, the objects to be photographed are distributed to the plurality of cameras, and the images are photographed for each camera. Depending on the distance and direction to the target object, you can shoot all target objects with an image size suitable for object recognition.Set the camera zoom, lens focus and lens direction. Camera setting calculation unit to perform and camera control amount necessary for shooting multiple objects, or shooting order calculation unit to calculate the shooting order that minimizes the time required for control and camera settings and targets for each target By providing a camera control unit that controls the camera according to the shooting order of objects, the accuracy of object identification and the processing time are shortened, the cost is reduced due to a decrease in the required performance of the processing processor, and the camera It may enable shortening of the reduction of the failure rate and the imaging time by reducing the photographing load to.

ここで、カメラの画像を用いた対象物までの距離は、2台のカメラの設置位置を水平方向、あるいは、垂直方向にずらして設置することによって生じる撮影した2枚の画像における対象物の位置の差より算出する方法で実現可能であり、対象物の方向は、撮影した画像内の位置から算出する方法で実現が可能であることが知られている。   Here, the distance to the object using the image of the camera is the position of the object in the two images taken by shifting the installation positions of the two cameras in the horizontal direction or the vertical direction. It is known that the direction of the object can be realized by a method of calculating from the position in the captured image.

また、撮影順序算出部113により対象物の撮影順序を算出し、カメラ制御部414において、算出された撮影順序を分割して、順序に対応した複数のカメラ毎に設定を行い、このカメラ設定に基づいて対象物の撮影を行う。これにより、カメラへの負荷の軽減とすべての対象物の撮影に必要な撮影時間を短縮することができ、物体識別に要する処理時間の短縮とカメラの制御に要する所要時間の短縮とカメラの負荷軽減によるカメラの寿命を延長できる。   In addition, the shooting order calculation unit 113 calculates the shooting order of the object, and the camera control unit 414 divides the calculated shooting order and performs setting for each of the plurality of cameras corresponding to the order. Based on this, the object is photographed. This reduces the load on the camera and the shooting time required to shoot all objects, shortens the processing time required for object identification, reduces the time required to control the camera, and loads the camera. The life of the camera can be extended by the reduction.

(実施の形態3)
図7は、本発明の実施の形態3に係る走行環境情報取得装置を適用した障害物検出装置600の構成を示すブロック図である。なお、この障害物検出装置600は、図1に示す実施の形態1に対応する障害物検出装置100と同様の基本的構成を有しており、同一の構成要素には同一の符号を付して、その説明を省略する。
(Embodiment 3)
FIG. 7 is a block diagram showing a configuration of an obstacle detection apparatus 600 to which the traveling environment information acquisition apparatus according to Embodiment 3 of the present invention is applied. The obstacle detection device 600 has the same basic configuration as the obstacle detection device 100 corresponding to the first embodiment shown in FIG. 1, and the same components are denoted by the same reference numerals. The description is omitted.

この実施の形態3の障害物検出装置600は、障害物検出装置100において、物体検出センサ102及びカメラ104に変えて、複数のAカメラ602、Bカメラ604を備え、これら複数のAカメラ602、Bカメラ604を用いて、対象物の方向と距離を算出して対象物の位置と方向を検出するともに、対象物の識別のための対象物の画像を撮像するものである。   The obstacle detection apparatus 600 according to the third embodiment includes a plurality of A cameras 602 and B cameras 604 instead of the object detection sensor 102 and the camera 104 in the obstacle detection apparatus 100, and the plurality of A cameras 602, The B camera 604 is used to calculate the direction and distance of the object to detect the position and direction of the object and to capture an image of the object for identifying the object.

障害物検出装置600は、Aカメラ602、Bカメラ604と、スピーカ105と、モニタ106と、障害物検出処理部610とを有する。   The obstacle detection apparatus 600 includes an A camera 602, a B camera 604, a speaker 105, a monitor 106, and an obstacle detection processing unit 610.

障害物検出処理部610は、物体検出部611と、カメラ設定算出部112と、撮影順序算出部113と、カメラ制御部614と、画像取得部615と、物体認識部116と、危険度判定部117と、通知部118と、撮影切替部618とを有する。   The obstacle detection processing unit 610 includes an object detection unit 611, a camera setting calculation unit 112, a shooting order calculation unit 113, a camera control unit 614, an image acquisition unit 615, an object recognition unit 116, and a risk determination unit. 117, a notification unit 118, and a shooting switching unit 618.

複数のAカメラ602、Bカメラ604は、車両においてそれぞれ異なる位置に配設され、一つの対象物を撮像したり、別々の対象物を撮像する。   The plurality of A cameras 602 and B cameras 604 are arranged at different positions in the vehicle, and image one object or separate objects.

複数のAカメラ602、Bカメラ604は、物体検出部611又はカメラ制御部614により撮影切替部618を介して制御され、対象物を撮像して、識別対象となる対象物までの現在の位置からの距離と方向を取得したり、前記対象物の識別のための対象物の画像を取得したりする。これら複数のAカメラ602、Bカメラ604によって取得された情報は、物体検出部611や画像取得部615に出力される。   The plurality of A cameras 602 and B cameras 604 are controlled by the object detection unit 611 or the camera control unit 614 via the shooting switching unit 618, pick up an image of the object, and from the current position to the object to be identified. The distance and direction of the object are acquired, or an image of the object for identifying the object is acquired. Information acquired by the plurality of A cameras 602 and B cameras 604 is output to the object detection unit 611 and the image acquisition unit 615.

これら複数のAカメラ602、Bカメラ604による対象物までの距離と方向を算出するための撮像と、対象物の識別のための撮像とは撮影切替部618により切り替えられる。   The imaging switching unit 618 switches between imaging for calculating the distance and direction to the target by the plurality of A cameras 602 and B cameras 604 and imaging for identifying the target.

撮影切替部618は、物体検出部611とカメラ制御部614からのAカメラ602とBカメラ604に対する制御の切替指示に従って、Aカメラ602、Bカメラ604に対するカメラ制御の入力元と撮影した画像の出力先を切り替える。具体的に、撮影切替部618は、複数のAカメラ602、Bカメラ604が対象物までの距離と方向を算出するための撮像を行った場合は、取得した情報の出力先を物体検出部611に設定し、対象物の識別のための撮像を行った場合は、情報の出力先を画像取得部615に設定する。   The imaging switching unit 618 outputs the captured image and the input source of the camera control for the A camera 602 and the B camera 604 according to the control switching instruction for the A camera 602 and the B camera 604 from the object detection unit 611 and the camera control unit 614. Switch the destination. Specifically, when the plurality of A cameras 602 and B cameras 604 perform imaging for calculating the distance and direction to the target, the imaging switching unit 618 determines the output destination of the acquired information as the object detection unit 611. If the image is captured for identification of the object, the information output destination is set in the image acquisition unit 615.

また、撮影切替部618は、障害物検出処理部610から、Aカメラ602とBカメラ604の制御切替を指示され、撮影切替部618経由でAカメラ602とBカメラ604に対し、対象物までの距離と方向を検出するためのカメラ設定して、画像取得を行い、識別対象となる複数の対象物までの現在の位置からの距離と方向を算出する構成としてもよい。   Also, the imaging switching unit 618 is instructed by the obstacle detection processing unit 610 to switch control between the A camera 602 and the B camera 604, and the A camera 602 and the B camera 604 are connected to the object via the imaging switching unit 618. It is good also as a structure which sets the camera for detecting a distance and a direction, acquires an image, and calculates the distance and direction from the present position to the several target object used as identification object.

物体検出部611は、撮影切替部618を介して複数のAカメラ602、Bカメラ604により対象物を撮像し、これら複数のAカメラ602、Bカメラ604の視差を利用することにより、算出された対象物の方向と距離を取得する。   The object detection unit 611 is calculated by imaging a target object with the plurality of A cameras 602 and B cameras 604 via the shooting switching unit 618 and using the parallax of the plurality of A cameras 602 and B cameras 604. Get the direction and distance of the object.

物体検出部611は、複数のAカメラ602、Bカメラ604より入力される情報により算出する対象物までの距離と方向の情報を用いて、規定する距離範囲内にあり、かつ、規定する方向範囲内になる対象物の集合を1つの対象物として判断する。その判断した情報は、カメラ設定算出部112に出力される。   The object detection unit 611 is within the specified distance range using the information on the distance to the target and the direction calculated from information input from the plurality of A cameras 602 and B cameras 604, and the specified direction range. A set of objects inside is determined as one object. The determined information is output to the camera setting calculation unit 112.

なお、規定する距離範囲及び方向範囲は、物体認識部116において物体識別の対象となる対象物の長さの許容値、例えば、自動車の場合は全長の許容値から設定し、方向範囲は、対象物までの距離から対象物が取りうる幅の許容値、例えば、自動車の場合は自動車の幅と距離に応じた視野角内の範囲を許容値として設定する。   The distance range and the direction range to be specified are set from the allowable value of the length of the object to be identified by the object recognizing unit 116, for example, the allowable value of the total length in the case of an automobile. An allowable value of the width that the object can take from the distance to the object, for example, in the case of an automobile, a range within a viewing angle corresponding to the width and distance of the automobile is set as the allowable value.

カメラ制御部614は、撮影順序算出部113から入力される情報に基づいて、撮影切替部618を介してAカメラ602、Bカメラ604を制御して対象物の撮像を行う。   The camera control unit 614 controls the A camera 602 and the B camera 604 via the shooting switching unit 618 based on the information input from the shooting order calculation unit 113 and images the target object.

具体的に、カメラ制御部614は、撮影切替部618に対し、Aカメラ602、Bカメラ604の制御切替を指示する。   Specifically, the camera control unit 614 instructs the shooting switching unit 618 to switch control between the A camera 602 and the B camera 604.

また、カメラ制御部614は、撮影切替部618を介して、Aカメラ602、Bカメラ604に対し、撮影順序算出部113の撮影順序と対象物毎のカメラの設定値に従って、Aカメラ602、Bカメラ604のズームの設定とレンズの焦点の設定とレンズ方向の設定を行う。   In addition, the camera control unit 614 sends the A camera 602 and B to the A camera 602 and B camera 604 via the shooting switching unit 618 according to the shooting order of the shooting order calculation unit 113 and the setting value of the camera for each object. The zoom setting of the camera 604, the focus of the lens, and the lens direction are set.

また、カメラ制御部614は、撮影切替部618を介して、複数のAカメラ602、Bカメラ604に対して、設定した内容での撮影実施を指示し、複数のAカメラ602、Bカメラ604を制御して、対象物の画像の撮影を対象物数分繰り返し実行する。   In addition, the camera control unit 614 instructs the plurality of A cameras 602 and B cameras 604 to perform shooting with the set contents via the shooting switching unit 618, and controls the plurality of A cameras 602 and B cameras 604. Under control, the imaging of the image of the object is repeatedly executed for the number of objects.

また、カメラ制御部614は、撮影順序算出部113から入力される対象物毎のカメラ設定を画像取得部615に出力する。   In addition, the camera control unit 614 outputs the camera setting for each object input from the imaging order calculation unit 113 to the image acquisition unit 615.

画像取得部615は、複数のAカメラ602、Bカメラ604で撮影した画像を、撮影切替部618を介して取得するとともに、カメラ制御部614から撮影した画像に対応する対象物までの距離と方向を取得して、対象物数分の画像情報を作成する。   The image acquisition unit 615 acquires the images captured by the plurality of A cameras 602 and B cameras 604 via the capture switching unit 618, and the distance and direction to the object corresponding to the captured images from the camera control unit 614. And image information for the number of objects is created.

作成された対象物数分の画像情報は、物体認識部116に出力される。   The created image information for the number of objects is output to the object recognition unit 116.

次いで、上記構成を有する障害物検出装置600の動作について、図8及び図9を用いて説明する。   Next, the operation of the obstacle detection apparatus 600 having the above configuration will be described with reference to FIGS.

図8及び図9は、本発明の実施の形態3における障害物検出装置600の動作を説明するためのフローチャートである。なお、図8は、カメラを用いた対象物までの距離と方向を検出する対象物取得方法の一例を示す。   8 and 9 are flowcharts for explaining the operation of the obstacle detection apparatus 600 according to Embodiment 3 of the present invention. FIG. 8 shows an example of an object acquisition method for detecting the distance and direction to the object using a camera.

図8に示すように、まず、ステップS701では、物体検出部611が、撮影切替部618に対し、カメラ制御の入力元と撮影した画像の出力先を設定してステップS702に移行する。   As shown in FIG. 8, first, in step S701, the object detection unit 611 sets a camera control input source and a captured image output destination in the shooting switching unit 618, and the process proceeds to step S702.

ステップS702では、物体検出部611は、撮影切替部618を介してAカメラ602に対して、ズーム設定とレンズの焦点設定とレンズの方向設定を行いステップS703に移行する。   In step S702, the object detection unit 611 performs zoom setting, lens focus setting, and lens direction setting for the A camera 602 via the shooting switching unit 618, and the process proceeds to step S703.

ステップS703では、物体検出部611は、撮影切替部618を介して、Bカメラ604に対し、ズーム設定とレンズの焦点設定とレンズの方向設定を行いステップS704に移行する。   In step S703, the object detection unit 611 performs zoom setting, lens focus setting, and lens direction setting for the B camera 604 via the shooting switching unit 618, and the process proceeds to step S704.

ステップS704では、物体検出部611は、撮影切替部618を介してAカメラ602に対し、撮影指示を行い、Aカメラ602を用いて画像を撮影してステップS705に移行する。   In step S704, the object detection unit 611 issues a shooting instruction to the A camera 602 via the shooting switching unit 618, takes an image using the A camera 602, and proceeds to step S705.

ステップS705では、物体検出部611は、撮影切替部618を介してBカメラ604に対し、撮影指示を行い、Bカメラ604を用いてAカメラ602で撮像した対象物と同じ対象物の画像を撮影してステップS706に移行する。   In step S <b> 705, the object detection unit 611 issues a shooting instruction to the B camera 604 via the shooting switching unit 618, and takes an image of the same object as that captured by the A camera 602 using the B camera 604. Then, the process proceeds to step S706.

ステップS706では、Aカメラ602とBカメラ604で撮影した画像を撮影切替部618から物体検出部611に出力されることにより物体検出部611は画像を取得して、ステップS707に移行する。   In step S706, the image picked up by the A camera 602 and the B camera 604 is output from the photographing switching unit 618 to the object detecting unit 611, whereby the object detecting unit 611 acquires the image, and the process proceeds to step S707.

ステップS707では、物体検出部611は、撮影切替部618から取得した画像から、Aカメラ602とBカメラ604の画像に基づき、対象物までの距離と方向を算出し、現在位置から対象物までの距離と方向から、規定内の距離範囲内にあり、かつ、規定内の方向範囲内になる対象物を同一の物体の集合として1つの対象物情報とし、対象物の集合の中心点を検出した対象物までの距離と方向として算出する。   In step S707, the object detection unit 611 calculates the distance and direction to the target object based on the images of the A camera 602 and the B camera 604 from the image acquired from the shooting switching unit 618, and the current position to the target object. From the distance and direction, the objects within the specified distance range and within the specified direction range are set as one object information as the same object set, and the center point of the set of objects is detected. Calculated as the distance and direction to the object.

なお、これら距離と方向の算出により物体検出部611は、対象物の位置を算出している。   Note that the object detection unit 611 calculates the position of the target object by calculating the distance and direction.

次に、図9示すように障害物検出装置600は、対象物情報取得に使用したカメラを使用した物体認識のための画像取得を行う。   Next, as illustrated in FIG. 9, the obstacle detection apparatus 600 performs image acquisition for object recognition using the camera used to acquire the target object information.

まず、図8で示した処理により算出することによって取得した対象物までの距離と方向の対象物情報を用いて、物体検出部611は、対象物の位置(方向、距離)を算出しており(ステップS800)、次いで、ステップS801では、カメラ設定算出部112が、物体検出部611から入力された対象物までの距離と方向とより、対象物毎に、物体認識部116での物体認識に使用する画像サイズに合わせて、対象物までの距離に基づきズーム設定値を算出し、さらに、ズーム設定値と対象物までの距離からレンズの焦点位置を調整するためのレンズ焦点の設定値を算出する。さらに、対象物の方向に基づき、カメラの向きの設定値を算出してステップS802に移行する。   First, the object detection unit 611 calculates the position (direction, distance) of the object using the object information of the distance to the object and the direction acquired by the calculation shown in FIG. (Step S800) Next, in step S801, the camera setting calculation unit 112 performs object recognition in the object recognition unit 116 for each target based on the distance and direction to the target input from the object detection unit 611. Calculates the zoom setting value based on the distance to the object according to the image size to be used, and further calculates the lens focus setting value for adjusting the focal position of the lens from the zoom setting value and the distance to the object. To do. Further, based on the direction of the object, a setting value for the camera orientation is calculated, and the process proceeds to step S802.

ステップS802では、撮影順序算出部113が、カメラ設定算出部112から入力された対象物毎に算出したカメラのズーム設定値やレンズ焦点の設定値やカメラの向きの設定値、あるいは、対象物までの距離や方向から、カメラの設定変更が最小になる順序を計算し、対象物の撮影順序を算出してステップS803に移行する。   In step S <b> 802, the shooting order calculation unit 113 calculates the camera zoom setting value, the lens focus setting value, the camera orientation setting value, or the target object calculated for each object input from the camera setting calculation unit 112. The order in which the camera setting change is minimized is calculated from the distance and the direction, and the shooting order of the object is calculated, and the process proceeds to step S803.

なお、ステップS802におけるカメラの設定変更を最小とする順序の算出は、最短経路探索法を適用することで、容易に算出することができる。例えば、ズーム設定の変更量が最小になる順序での算出が可能であり、また、ズーム設定とレンズの焦点設定とレンズの方向設定のそれぞれに要する時間から、カメラの設定変更にかかる時間が最小になる撮影順序の算出が可能である。   The calculation of the order that minimizes the camera setting change in step S802 can be easily performed by applying the shortest path search method. For example, it is possible to calculate in the order in which the amount of zoom setting change is minimized, and the time required for camera setting change is minimized from the time required for zoom setting, lens focus setting, and lens direction setting. It is possible to calculate the shooting order.

ステップS803では、カメラ制御部614は、撮影順序算出部113で算出した撮影順序に基づき、カメラ毎に撮影する対象物の振り分けを行い、撮影するカメラを決定して、ステップS804に移行する。   In step S803, the camera control unit 614 sorts objects to be photographed for each camera based on the photographing order calculated by the photographing order calculation unit 113, determines the camera to be photographed, and proceeds to step S804.

ステップS804では、カメラ制御部614が、撮影切替部618に対し、カメラ制御の入力元をカメラ制御部614に設定し、Aカメラ602、Bカメラ604で撮影した画像の出力先を画像取得部615に設定する。   In step S804, the camera control unit 614 sets the camera control input source to the camera control unit 614 with respect to the shooting switching unit 618, and sets the output destination of the images shot by the A camera 602 and the B camera 604 to the image acquisition unit 615. Set to.

ステップS805〜ステップS808の処理及びステップS809〜ステップS812の処理は、それぞれ複数のカメラ(Aカメラ602、Bカメラ604)毎における撮影順序及び設定されたカメラ設定に基づいて対象物の撮像処理を説明する。   The processing of step S805 to step S808 and the processing of step S809 to step S812 explain the imaging processing of the object based on the shooting order and the set camera settings for each of the plurality of cameras (A camera 602, B camera 604). To do.

すなわち、ステップS805では、カメラ制御部614が、撮影切替部618を介して、Aカメラ602に対し、算出された撮影順序に従って、対象物のカメラ設定に基づいて、ズーム設定とレンズの焦点設定とレンズの方向設定を行いステップS806に移行する。   That is, in step S805, the camera control unit 614 performs zoom setting and lens focus setting on the A camera 602 via the shooting switching unit 618 based on the camera setting of the object according to the calculated shooting order. The direction of the lens is set and the process proceeds to step S806.

ステップS806では、カメラ制御部614が、撮影切替部618を介したAカメラ602の設定終了後に、Aカメラ602に対して設定した内容での撮影指示を行い、Aカメラ602で対象物の画像を撮影してステップS807に移行する。   In step S806, the camera control unit 614 instructs the A camera 602 to shoot with the set contents after the setting of the A camera 602 via the shooting switching unit 618, and the A camera 602 displays an image of the object. The photograph is taken and the process proceeds to step S807.

ステップS807では、画像取得部615が、Aカメラ602で撮影した対象物の画像を取得するとともにカメラ制御部614から対象物に該当する対象物までの距離と方向を取得して、取得した対象物の画像と対象物に該当する対象物までの距離と方向の対応付けを行いステップS808に移行する。なお、ステップS807において画像取得部615により対象物までの距離と方向対応付けられた対象物の画像情報は物体認識が完了するまで保存される。   In step S807, the image acquisition unit 615 acquires the image of the object captured by the A camera 602, acquires the distance and direction from the camera control unit 614 to the object corresponding to the object, and acquires the acquired object. The distance and direction to the target object corresponding to the target object are associated with each other, and the process proceeds to step S808. In step S807, the image information of the target object that is associated with the distance to the target object by the image acquisition unit 615 is stored until the object recognition is completed.

ステップS808では、画像取得部615は、撮影切替部618を介して、Aカメラ602から入力される画像と、カメラ制御部から入力される対象物までの距離と方向とを用いて、全対象物の撮影完了可否の判定を行う。   In step S808, the image acquisition unit 615 uses the image input from the A camera 602 and the distance and direction to the target input from the camera control unit via the shooting switching unit 618, and uses all the objects. It is determined whether or not shooting is complete.

ステップS808において、全対象物の撮影が終了していなければステップS805に戻り、ステップS805からステップS808までの処理を繰り返し実行して、次の対象物の撮影を行い、全対象物の撮影が終了していれば、対象物の撮影を終了する。   In step S808, if the shooting of all objects has not been completed, the process returns to step S805, the processes from step S805 to step S808 are repeatedly executed, the next object is shot, and the shooting of all objects is completed. If so, the shooting of the object is terminated.

一方、Bカメラ604における撮像処理として、ステップS809では、カメラ制御部614が、撮影切替部618を介して、Bカメラ604に対し、算出された撮影順序に従って、対象物のカメラ設定に基づいて、ズーム設定とレンズの焦点設定とレンズの方向設定を行いステップS810に移行する。   On the other hand, as an imaging process in the B camera 604, in step S 809, the camera control unit 614 sends the B camera 604 to the B camera 604 via the shooting switching unit 618 based on the camera setting of the target object. The zoom setting, lens focus setting, and lens direction setting are performed, and the process proceeds to step S810.

ステップS810では、カメラ制御部614が、撮影切替部618を介したBカメラ604の設定終了後に、撮影切替部618を介して、Bカメラ604に対して設定した内容での撮影指示を行い、撮影切替部618を介して、Bカメラ604で対象物の画像を撮影してステップS811に移行する。   In step S <b> 810, the camera control unit 614 instructs the B camera 604 to shoot with the set content after the setting of the B camera 604 via the shooting switching unit 618 is completed, and performs shooting. An image of the object is captured by the B camera 604 via the switching unit 618, and the process proceeds to step S811.

ステップS811では、画像取得部615が、撮影切替部618を介して、Bカメラ604で撮影した対象物の画像を取得するとともにカメラ制御部614から対象物に該当する対象物までの距離と方向を取得して、取得した対象物の画像と対象物に該当する対象物までの距離と方向の対応付けを行いステップS812に移行する。なお、ステップS811において画像取得部615により対象物までの距離と方向対応付けられた対象物の画像情報は物体認識が完了するまで保存される。   In step S811, the image acquisition unit 615 acquires an image of the object photographed by the B camera 604 via the photographing switching unit 618 and determines the distance and direction from the camera control unit 614 to the object corresponding to the object. The acquired image of the object is associated with the distance to the object corresponding to the object and the direction, and the process proceeds to step S812. Note that in step S811, the image acquisition unit 615 stores the image information of the target associated with the distance to the target and the direction until the object recognition is completed.

ステップS812では、画像取得部615は、撮影切替部618を介して、Bカメラ604から入力される画像と、カメラ制御部から入力される対象物までの距離と方向とを用いて、全対象物の撮影完了可否の判定を行う。   In step S812, the image acquisition unit 615 uses the image input from the B camera 604 and the distance and direction to the object input from the camera control unit via the shooting switching unit 618, and uses all the objects. It is determined whether or not shooting is complete.

ステップS812において、全対象物の撮影が終了していなければステップS809に戻り、ステップS809からステップS812までの処理を繰り返し実行して、次の対象物の撮影を行い、全対象物の撮影が終了していれば、対象物の撮影を終了する。   In step S812, if the shooting of all objects has not been completed, the process returns to step S809, the processes from step S809 to step S812 are repeatedly executed, the next object is shot, and the shooting of all objects is completed. If so, the shooting of the object is terminated.

このようにして、障害物検出装置600は、複数のカメラ(Aカメラ602、Bカメラ604)により取得した対象物に対応する対象物の全画像を、算出された撮像順序にしたがって複数のカメラ(Aカメラ602、Bカメラ604)により取得する。これら取得した画像すべては、加工することなく、物体認識部116にて認識できる画像サイズで取得される。   In this way, the obstacle detection apparatus 600 converts all the images of the objects corresponding to the objects acquired by the plurality of cameras (A camera 602, B camera 604) into a plurality of cameras ( A camera 602 and B camera 604). All of these acquired images are acquired with an image size that can be recognized by the object recognition unit 116 without being processed.

この障害物検出装置600は、対象物までの距離と方向を算出するための前記対象物の撮像と前記対象物の識別のための前記対象物の撮像とを行う複数のカメラ602、604と、複数のカメラ602、604による対象物までの距離と方向を算出するための撮像と対象物の識別のための撮像とを切り替える撮影切替部618とを備える。   The obstacle detection apparatus 600 includes a plurality of cameras 602 and 604 that perform imaging of the object for calculating the distance and direction to the object and imaging of the object for identification of the object. An imaging switching unit 618 that switches between imaging for calculating the distance and direction to the object by the plurality of cameras 602 and 604 and imaging for identifying the object is provided.

この撮影切替部618の切替によって、物体検出部611は、Aカメラ602、Bカメラ604の視差を用いて対象物の方向と距離を算出して対象物の位置と方向を検出し、カメラ制御部614は、Aカメラ602、Bカメラ604を用いて対象物の識別のための対象物の画像を撮像する。   By switching the photographing switching unit 618, the object detection unit 611 detects the position and direction of the target object by calculating the direction and distance of the target object using the parallax of the A camera 602 and the B camera 604, and the camera control unit 614 captures an image of the object for identifying the object using the A camera 602 and the B camera 604.

つまり、障害物検出装置600では、カメラを複数備え、対象物までの距離と方向を画像から検出するために画像を撮影するためのカメラ602、604と、対象物の識別するための画像を撮影するカメラを共通で使用する。   That is, the obstacle detection apparatus 600 includes a plurality of cameras, and the cameras 602 and 604 for capturing an image to detect the distance and direction to the object from the image and the image for identifying the object are captured. Use a common camera.

これにより、撮影用カメラの共有化によるコストの低下、および、物体識別の精度向上と処理時間の短縮、および、処理プロセッサの必要性能の低下によるコスト低下、さらに、カメラへの撮影負荷の低減による故障率の削減と撮影時間の短縮を可能にすることができる。   As a result, the cost is reduced by sharing the camera for shooting, the accuracy of object identification is improved and the processing time is reduced, the cost is reduced due to the reduction in the required performance of the processing processor, and the shooting load on the camera is reduced. It is possible to reduce the failure rate and the shooting time.

なお、本実施の形態3の障害物検出装置600が備える複数のカメラをAカメラ602とBカメラ604としたが、これらAカメラ602及びBカメラ604に替えて、同様の機能の複数の撮像部を備える複眼カメラを用いても良い。   In addition, although the several camera with which the obstacle detection apparatus 600 of this Embodiment 3 is provided is A camera 602 and B camera 604, it replaces with these A camera 602 and B camera 604, and several imaging part of the same function. You may use a compound eye camera provided with.

本発明における障害物検出装置は上記各実施の形態に限定されず、種々変更して実施することが可能である。   The obstacle detection apparatus according to the present invention is not limited to the above embodiments, and can be implemented with various modifications.

本発明に係る障害物検出装置は、車両に搭載されて、走行方向の対象物を障害物であるかを識別する障害物検出装置に搭載することが可能であり、これにより上記と同様の作用効果を有する障害物検出装置を提供することができる。   The obstacle detection device according to the present invention can be mounted on an obstacle detection device that is mounted on a vehicle and identifies whether an object in the traveling direction is an obstacle, and thus has the same effect as described above. An obstacle detection device having an effect can be provided.

なお、ここでは、本発明をハードウェアで構成する場合を例にとって説明したが、本発明をソフトウェアで実現することも可能である。例えば、本発明に係る走行情報取得方法のアルゴリズムをプログラム言語によって記述し、このプログラムをメモリに記憶しておいて情報処理手段によって実行させることにより、本発明に係る装置と同様の機能を実現することができる。   Here, the case where the present invention is configured by hardware has been described as an example, but the present invention can also be realized by software. For example, a function similar to that of the apparatus according to the present invention is realized by describing the algorithm of the travel information acquisition method according to the present invention in a program language, storing the program in a memory, and causing the information processing means to execute the algorithm. be able to.

本発明に係る走行環境情報取得装置は、物体識別の精度向上と処理時間の短縮、および、処理プロセッサの必要性能の低下によるコスト低下化を図る効果を有し、自動車などの移動体に搭載されて、レーダや画像を用いて移動方向の障害物を検出する障害物検出装置として有用である。   The travel environment information acquisition device according to the present invention has the effect of improving the accuracy of object identification, shortening the processing time, and reducing the cost due to the reduction in the required performance of the processing processor, and is mounted on a moving body such as an automobile. Therefore, it is useful as an obstacle detection device that detects an obstacle in the moving direction using a radar or an image.

本発明の実施の形態1に係る走行環境情報取得装置を適用した障害物検出装置の構成を示すブロック図The block diagram which shows the structure of the obstruction detection apparatus to which the driving environment information acquisition apparatus which concerns on Embodiment 1 of this invention is applied. 本発明の実施の形態1における障害物検出装置の動作を説明するためのフローチャートThe flowchart for demonstrating operation | movement of the obstruction detection apparatus in Embodiment 1 of this invention. 本発明の実施の形態1における障害物検出装置の動作を説明するためのフローチャートThe flowchart for demonstrating operation | movement of the obstruction detection apparatus in Embodiment 1 of this invention. 本実施の形態1の障害物検出装置が行う対象物の検出処理の概要を説明する概念図The conceptual diagram explaining the outline | summary of the detection process of the target object which the obstacle detection apparatus of this Embodiment 1 performs. 本発明の実施の形態2に係る走行環境情報取得装置を適用した障害物検出装置の構成を示すブロック図The block diagram which shows the structure of the obstruction detection apparatus to which the driving environment information acquisition apparatus which concerns on Embodiment 2 of this invention is applied. 本発明の実施の形態2における障害物検出装置の動作を説明するためのフローチャートThe flowchart for demonstrating operation | movement of the obstruction detection apparatus in Embodiment 2 of this invention. 本発明の実施の形態3に係る走行環境情報取得装置を適用した障害物検出装置の構成を示すブロック図The block diagram which shows the structure of the obstruction detection apparatus to which the driving environment information acquisition apparatus which concerns on Embodiment 3 of this invention is applied. 本発明の実施の形態3における障害物検出装置の動作を説明するためのフローチャートThe flowchart for demonstrating operation | movement of the obstruction detection apparatus in Embodiment 3 of this invention. 本発明の実施の形態3における障害物検出装置の動作を説明するためのフローチャートThe flowchart for demonstrating operation | movement of the obstruction detection apparatus in Embodiment 3 of this invention. 走行車両と対象物の位置関係を示す図The figure which shows the positional relationship of a traveling vehicle and a target object 図10の位置関係を用いて、従来の方式による自車両と対象物の位置関係から画像内の対象物範囲特定方法を示す概念図FIG. 10 is a conceptual diagram illustrating a method for specifying an object range in an image based on the positional relationship between the vehicle and the object according to the conventional method, using the positional relationship of FIG. 従来の方式における自車両と対象物の位置関係から画像内の対象物画像の抽出方法を示す概念図The conceptual diagram which shows the extraction method of the target object image in the image from the positional relationship of the own vehicle and a target object in the conventional system

符号の説明Explanation of symbols

100、400、600 障害物検出装置
102 物体検出センサ
104 カメラ
111、611 物体検出部(物体検出手段)
112 カメラ設定算出部
113 撮影順序算出部(撮像順序算出手段)
114、414、614 カメラ制御部(カメラ制御手段)
115、615 画像取得部(画像取得手段)
116 物体認識部
117 危険度判定部
118 通知部
402 第1カメラ
404 第2カメラ
602 Aカメラ
604 Bカメラ
618 撮影切替部(撮像切替手段)
100, 400, 600 Obstacle detection device 102 Object detection sensor 104 Camera 111, 611 Object detection unit (object detection means)
112 camera setting calculation unit 113 imaging order calculation unit (imaging order calculation unit)
114, 414, 614 Camera control unit (camera control means)
115, 615 Image acquisition unit (image acquisition means)
116 Object recognition unit 117 Risk determination unit 118 Notification unit 402 First camera 404 Second camera 602 A camera 604 B camera 618 Shooting switching unit (imaging switching unit)

Claims (7)

移動体に搭載され、前記移動体の移動方向において対象物の画像を用いて前記対象物を走行環境情報として取得する走行環境情報取得装置であって、
前記移動体の移動方向にある前記対象物の位置と方向を検出する物体検出手段と、
前記対象物の位置と方向から、対象物の種類毎に予め設定された対象物認識可能な画像サイズで撮像できるレンズの向き、レンズの焦点及びズームの設定からなるカメラ設定を算出するカメラ設定算出手段と、
カメラを制御して前記対象物毎に算出された前記カメラ設定で前記対象物の撮像を行うカメラ制御手段と、
算出された前記カメラ設定に基づいて前記カメラで撮像した対象物の画像を取得する画像取得手段と、
を備えることを特徴とする走行環境情報取得装置。
A traveling environment information acquisition device that is mounted on a moving object and acquires the object as traveling environment information using an image of the object in the moving direction of the moving object,
Object detection means for detecting the position and direction of the object in the moving direction of the moving body;
Camera setting calculation that calculates camera settings including lens orientation, lens focus, and zoom settings that can be captured with an object-recognizable image size set in advance for each object type from the position and direction of the object Means,
Camera control means for controlling the camera to image the object with the camera settings calculated for each object;
Image acquisition means for acquiring an image of an object imaged by the camera based on the calculated camera setting;
A travel environment information acquisition device comprising:
撮像された対象物画像と設定された前記カメラ設定を用いて、前記対象物の種類を判定するとともに、前記対象物の種類と距離と方向から、前記対象物の危険度を判定する物体認識手段と、
前記物体認識手段で判定した前記対象物の危険度に対応した危険通知を行う危険通知手段と、
を更に備えることを特徴とする請求項1記載の走行環境情報取得装置。
An object recognition unit that determines the type of the target using the captured target image and the set camera setting, and determines the risk of the target from the type, distance, and direction of the target When,
A danger notification means for performing a danger notification corresponding to the danger level of the object determined by the object recognition means;
The travel environment information acquisition device according to claim 1, further comprising:
前記物体検出手段により複数の前記対象物が検出され、検出した全ての対象物を撮像する場合に、
前記カメラ設定算出手段により算出された前記複数の対象物毎のカメラ設定に基づいて、レンズの向きの変更量、レンズの焦点を合せるレンズ移動量及びズーム設定するレンズ移動量が最小となる前記複数の対象物の撮像順序を算出する撮像順序算出手段を更に備えることを特徴とする請求項1記載の走行環境情報取得装置。
When the plurality of objects are detected by the object detection means and all detected objects are imaged,
Based on the camera settings for each of the plurality of objects calculated by the camera setting calculation means, the amount of change in lens orientation, the amount of lens movement for focusing the lens, and the amount of lens movement for zoom setting are minimized. The travel environment information acquisition apparatus according to claim 1, further comprising an imaging order calculation unit that calculates an imaging order of the target object.
前記対象物を撮像する複数のカメラを備え、
前記カメラ制御手段は、前記撮像順序算出手段により算出された撮像順序を、前記複数のカメラ毎に割り当てて、前記複数のカメラをそれぞれ用いて、前記撮像順序で撮像される対象物に対するカメラ設定で対象物の撮像を行うことを特徴とする請求項1記載の走行環境情報取得装置。
Comprising a plurality of cameras for imaging the object;
The camera control means assigns the imaging order calculated by the imaging order calculation means to each of the plurality of cameras, and sets the camera for an object to be imaged in the imaging order using each of the plurality of cameras. The traveling environment information acquisition apparatus according to claim 1, wherein the object is imaged.
前記複数のカメラは、それぞれ撮像距離が異なり、
前記カメラ制御手段は、前記複数のカメラの撮像距離に基づいて、前記複数のカメラに前記撮像順序を割り当てることを特徴とする請求項4記載の走行環境情報取得装置。
The plurality of cameras have different imaging distances,
The travel environment information acquisition apparatus according to claim 4, wherein the camera control unit assigns the imaging order to the plurality of cameras based on imaging distances of the plurality of cameras.
前記対象物までの距離と方向を算出するための前記対象物の撮像と、前記対象物の識別のための前記対象物の撮像とを行う複数のカメラと、
前記複数のカメラによる前記対象物までの距離と方向を算出するための撮像と、前記対象物の識別のための撮像とを切り替える撮像切替部とを備え、
前記撮像切替部の切替によって、
前記物体検出手段は、前記複数のカメラの視差を用いて対象物の方向と距離を算出して前記対象物の位置と方向を検出し、
前記カメラ制御手段は、前記複数のカメラを用いて前記対象物の識別のための対象物の画像を撮像することを特徴とする請求項1記載の走行環境情報取得装置。
A plurality of cameras that perform imaging of the object for calculating the distance and direction to the object and imaging of the object for identification of the object;
An imaging switching unit that switches between imaging for calculating the distance and direction to the object by the plurality of cameras and imaging for identifying the object;
By switching the imaging switching unit,
The object detection means detects the position and direction of the object by calculating the direction and distance of the object using the parallax of the plurality of cameras,
The travel environment information acquisition apparatus according to claim 1, wherein the camera control unit captures an image of an object for identifying the object using the plurality of cameras.
移動体に搭載され、前記移動体の移動方向において対象物の画像を用いて前記対象物を走行環境情報として取得する走行環境情報取得方法であって、
前記移動体の移動方向にある前記対象物の位置と方向を検出する物体検出ステップと、
前記対象物の位置と方向から、対象物の種類毎に予め設定された対象物認識可能な画像サイズで撮像できるレンズの向き、レンズの焦点及びズームの設定からなるカメラ設定を算出するカメラ設定算出ステップと、
カメラを制御して、前記カメラ設定で前記対象物の撮像を行うカメラ制御ステップと、
算出された前記カメラ設定に基づいて前記カメラで撮像した対象物の画像を取得する画像取得ステップと、
を備えることを特徴とする走行環境情報取得方法。
A traveling environment information acquisition method that is mounted on a moving object and acquires the object as traveling environment information using an image of the object in the moving direction of the moving object,
An object detection step of detecting a position and a direction of the object in a moving direction of the moving body;
Camera setting calculation that calculates camera settings including lens orientation, lens focus, and zoom settings that can be captured with an object-recognizable image size set in advance for each object type from the position and direction of the object Steps,
A camera control step of controlling the camera and imaging the object with the camera settings;
An image acquisition step of acquiring an image of an object imaged by the camera based on the calculated camera setting;
A driving environment information acquisition method comprising:
JP2006236568A 2006-08-31 2006-08-31 Apparatus for acquiring travel environment information Pending JP2008060988A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006236568A JP2008060988A (en) 2006-08-31 2006-08-31 Apparatus for acquiring travel environment information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006236568A JP2008060988A (en) 2006-08-31 2006-08-31 Apparatus for acquiring travel environment information

Publications (1)

Publication Number Publication Date
JP2008060988A true JP2008060988A (en) 2008-03-13

Family

ID=39243219

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006236568A Pending JP2008060988A (en) 2006-08-31 2006-08-31 Apparatus for acquiring travel environment information

Country Status (1)

Country Link
JP (1) JP2008060988A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2930658A1 (en) 2014-03-25 2015-10-14 Panasonic Intellectual Property Corporation of America Image-capturing device for moving body
JP2018515945A (en) * 2015-03-27 2018-06-14 インテル・コーポレーション Technology for controlling user access to image sensors in camera devices
WO2019142523A1 (en) * 2018-01-19 2019-07-25 コベルコ建機株式会社 Tip attachment discrimination device
CN110576867A (en) * 2018-06-08 2019-12-17 铃木株式会社 Vehicle driving support device
WO2022113432A1 (en) * 2020-11-24 2022-06-02 株式会社Jvcケンウッド Vehicle-surroundings monitoring device and vehicle-surroundings monitoring method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2930658A1 (en) 2014-03-25 2015-10-14 Panasonic Intellectual Property Corporation of America Image-capturing device for moving body
US9398226B2 (en) 2014-03-25 2016-07-19 Panasonic Intellectual Property Corporation Of America Image-capturing device for moving body
JP2018515945A (en) * 2015-03-27 2018-06-14 インテル・コーポレーション Technology for controlling user access to image sensors in camera devices
WO2019142523A1 (en) * 2018-01-19 2019-07-25 コベルコ建機株式会社 Tip attachment discrimination device
JP2019125314A (en) * 2018-01-19 2019-07-25 コベルコ建機株式会社 Tip attachment discrimination device
CN111587448A (en) * 2018-01-19 2020-08-25 神钢建机株式会社 Remote accessory device identification apparatus
JP7114907B2 (en) 2018-01-19 2022-08-09 コベルコ建機株式会社 Tip attachment discriminator
CN110576867A (en) * 2018-06-08 2019-12-17 铃木株式会社 Vehicle driving support device
WO2022113432A1 (en) * 2020-11-24 2022-06-02 株式会社Jvcケンウッド Vehicle-surroundings monitoring device and vehicle-surroundings monitoring method

Similar Documents

Publication Publication Date Title
EP3168823B1 (en) Traffic signal detection device and traffic signal detection method
JP4622001B2 (en) Road lane marking detection apparatus and road lane marking detection method
JP6407626B2 (en) Object recognition device and vehicle control system
JP5663352B2 (en) Image processing apparatus, image processing method, and image processing program
WO2014084121A1 (en) On-vehicle control device
US11029150B2 (en) Object distance detection device
JP6660751B2 (en) Imaging device
JP6722051B2 (en) Object detection device and object detection method
JP4807733B2 (en) Outside environment recognition device
WO2017104574A1 (en) Image processing device, object recognition device, apparatus control system, image processing method and program
JP2007280132A (en) Travel guide obstacle detector, and controller for vehicle
JP2008060988A (en) Apparatus for acquiring travel environment information
JP6677474B2 (en) Perimeter recognition device
JP2020187474A (en) Traveling lane recognition device, traveling lane recognition method and program
JP2000293693A (en) Obstacle detecting method and device
JP6899673B2 (en) Object distance detector
JP5434277B2 (en) Driving support device and driving support method
CN113646607A (en) Object position detection device, travel control system, and travel control method
JP2007310591A (en) Image processor and parking space determination method
JP6891082B2 (en) Object distance detector
JP2020109559A (en) Traffic signal recognition method and traffic signal recognition device
JP5973843B2 (en) Outside environment recognition device and outside environment recognition method
JP7120835B2 (en) Image processing device
JP5866238B2 (en) Outside environment recognition device and outside environment recognition method
JP6564682B2 (en) Object detection device, object detection method, and object detection program

Legal Events

Date Code Title Description
A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20080806