JP2020053950A - Vehicle stereo camera device - Google Patents

Vehicle stereo camera device Download PDF

Info

Publication number
JP2020053950A
JP2020053950A JP2018184743A JP2018184743A JP2020053950A JP 2020053950 A JP2020053950 A JP 2020053950A JP 2018184743 A JP2018184743 A JP 2018184743A JP 2018184743 A JP2018184743 A JP 2018184743A JP 2020053950 A JP2020053950 A JP 2020053950A
Authority
JP
Japan
Prior art keywords
stereo
vehicle
camera
distance
stereo camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018184743A
Other languages
Japanese (ja)
Other versions
JP7165012B2 (en
Inventor
啓輔 茂木
Keisuke Motegi
啓輔 茂木
雅俊 皆川
Masatoshi Minakawa
雅俊 皆川
礁太 吉村
Shota Yoshimura
礁太 吉村
一輝 ▲高▼▲橋▼
一輝 ▲高▼▲橋▼
Kazuki Takahashi
輝 由川
Teru Yukawa
輝 由川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Priority to JP2018184743A priority Critical patent/JP7165012B2/en
Publication of JP2020053950A publication Critical patent/JP2020053950A/en
Application granted granted Critical
Publication of JP7165012B2 publication Critical patent/JP7165012B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)

Abstract

To make it possible to reduce a load required for image processing when obtaining distance information to an object on the basis of each stereo image captured by a short/middle distance stereo camera and a long distance stereo camera.SOLUTION: If a defect is detected in one of stereo images captured by a short/medium distance stereo camera 22a and a long distance stereo camera 22b (S24), only a normal stereo image is transmitted (S28, S29). If no defect is detected in both stereo images (S23), after splitting both stereo images with an overlapping common imaging area, in-focus stereo images are integrated to generate one image (S26) and transmitted (S27).SELECTED DRAWING: Figure 6

Description

本発明は、近中距離用ステレオカメラで撮像したステレオ画像と、遠距離用ステレオカメラで撮像したステレオ画像とを、走行情報に基づいて選択するようにした車両用ステレオカメラ装置に関する。   The present invention relates to a vehicular stereo camera device that selects a stereo image captured by a near-medium distance stereo camera and a stereo image captured by a long distance stereo camera based on travel information.

車両に左右一対のステレオカメラを搭載し、このステレオカメラにより自車両前方の走行環境を撮像することで、先行車や各種障害物を認識すると共に、自車両と対象物との距離を計測するステレオカメラ装置が知られている。   A stereo camera with a pair of left and right stereo cameras mounted on the vehicle, which recognizes the preceding vehicle and various obstacles and measures the distance between the vehicle and the target object by capturing the running environment ahead of the vehicle. Camera devices are known.

又、特許文献1(特開平11−39596号公報)には、車両に近距離用ステレオカメラと、このステレオカメラの基線長よりも長い基線長を有する遠距離用ステレオカメラとを搭載し、両ステレオカメラで取得した走行環境情報に基づき、常時、近距離から遠距離までの広い範囲で対象物を認識すると共に、自車両との距離を求めるようにした技術が開示されている。   Patent Document 1 (Japanese Patent Application Laid-Open No. 11-39596) discloses that a vehicle is equipped with a short-distance stereo camera and a long-distance stereo camera having a base line length longer than the base line length of the stereo camera. There is disclosed a technology that always recognizes an object in a wide range from a short distance to a long distance based on traveling environment information acquired by a stereo camera, and obtains a distance from a host vehicle.

特開平11−39596号公報JP-A-11-39596 特開2018−86913号公報JP 2018-86913 A

上述した文献に開示されている技術では、遠距離用ステレオカメラと近距離用ステレオカメラとで撮像したステレオ画像に基づいて、対象物の認識、及び対象物までの距離情報を各々取得している。   In the technology disclosed in the above-mentioned document, recognition of an object and distance information to the object are obtained based on stereo images captured by a long-distance stereo camera and a short-distance stereo camera. .

そのため、前方走行環境を認識するに際しては、重複する対象物のデータを整理して統合する処理が必要となり、画像処理に大きな負担がかかる不都合がある。   Therefore, when recognizing the forward running environment, a process of organizing and integrating data of overlapping objects is required, and there is a disadvantage that a heavy load is imposed on image processing.

又、当該文献に開示されている技術では、遠距離用ステレオカメラが車室内の上部に配設されているため、長い基線長を確保することが難く、自車両から遠方の対象物までの距離を、視差を利用してより正確に求めるには限界がある。   Further, in the technology disclosed in the document, since the long distance stereo camera is disposed in the upper part of the vehicle interior, it is difficult to secure a long base line length, and the distance from the own vehicle to a distant target object is difficult. There is a limit in obtaining more accurately using parallax.

例えば特許文献2(特開2018−86913号公報)には、ステレオカメラを構成する一対のカメラを各々ヘッドランプに配置した技術が開示されている。この文献に開示されている技術によれば、基線長を車両のほぼ最大幅で確保できると共に、ステレオカメラが車体前部に配置させることができるため、より遠方の対象物を比較的長い視差で補足することができる。   For example, Patent Literature 2 (Japanese Unexamined Patent Application Publication No. 2018-86913) discloses a technique in which a pair of cameras constituting a stereo camera are arranged on respective headlamps. According to the technology disclosed in this document, the base line length can be secured at almost the maximum width of the vehicle, and the stereo camera can be arranged at the front of the vehicle body. Can be supplemented.

しかし、この特許文献2に開示されているステレオカメラを、上述した特許文献1に開示されている遠距離用ステレオカメラとして適用させた場合であっても、画像処理の負担を軽減させることはできない。   However, even when the stereo camera disclosed in Patent Literature 2 is applied as the long-distance stereo camera disclosed in Patent Literature 1, the burden of image processing cannot be reduced. .

本発明は、上記事情に鑑み、近中距離用ステレオカメラと遠距離用ステレオカメラとで撮像した各ステレオ画像に基づいて対象物までの距離情報を求めるに際し、画像処理に要する負担を軽減することのできる車両用ステレオカメラ装置を提供することを目的とする。   The present invention has been made in view of the above circumstances, and reduces a load required for image processing when obtaining distance information to an object based on each stereo image captured by a near-medium distance stereo camera and a long distance stereo camera. It is an object of the present invention to provide a stereo camera device for a vehicle that can be used.

本発明は、自車両の車室内に所定基線長を有して車幅方向の左右に配設された一対のカメラを有する近中距離用ステレオカメラと、前記自車両前部の車幅方向の左右に設けられた一対のヘッドランプに各々配設されたカメラを有する遠距離用ステレオカメラと、前記自車両の走行情報を検出する走行情報取得手段とを有し、前記各ステレオカメラで撮像したステレオ画像に基づいて前記自車両前方の距離画像を生成する車両用ステレオカメラ装置において、前記走行情報取得手段で検出した走行情報に基づき前記近中距離用ステレオカメラで撮像するステレオ画像と前記遠距離用ステレオカメラで撮像するステレオ画像とを統合して送信するか、何れか一方のステレオ画像を選択して送信するかを判定するステレオ画像選択手段を更に備える。   The present invention provides a near-medium distance stereo camera having a pair of cameras disposed at the left and right sides in the vehicle width direction with a predetermined base line length in a vehicle interior of the vehicle, and a vehicle width direction of the front portion of the vehicle. A long-distance stereo camera having cameras respectively disposed on a pair of head lamps provided on the left and right, and travel information acquisition means for detecting travel information of the own vehicle, and imaged by each of the stereo cameras In the vehicle stereo camera device for generating the distance image in front of the host vehicle based on the stereo image, the stereo image captured by the short-to-medium distance stereo camera based on the travel information detected by the travel information acquisition means and the long distance Stereo image selecting means for determining whether to integrate and transmit a stereo image captured by a stereo camera for use or to select and transmit any one of the stereo images

本発明によれば、走行情報に応じて、近中距離用ステレオカメラで撮像するステレオ画像と遠距離用ステレオカメラで撮像するステレオ画像とを統合して送信し、或いは、何れか一方のステレオ画像を選択して送信するようにしたので、近中距離用ステレオカメラと遠距離用ステレオカメラとで撮像した各ステレオ画像に基づいて対象物までの距離情報を求めるに際し、画像処理に要する負担を軽減させることができる。   According to the present invention, a stereo image captured by a near-medium distance stereo camera and a stereo image captured by a long distance stereo camera are integrated and transmitted according to the traveling information, or one of the stereo images Is selected and transmitted, reducing the load required for image processing when obtaining distance information to the object based on each stereo image captured by the near-medium distance stereo camera and the long distance stereo camera. Can be done.

車両用ステレオカメラ装置を備える運転支援システムの構成を示す機能ブロック図Functional block diagram showing the configuration of a driving support system including a vehicle stereo camera device 2組のステレオカメラ装置を搭載する車両の正面図Front view of a vehicle equipped with two sets of stereo camera devices (a)は近中距離用ステレオカメラで先行車を補足した状態を示す俯瞰図、(b)は遠距離用ステレオカメラで先行車を補足した状態を示す俯瞰図(A) is an overhead view showing a state in which a preceding vehicle is supplemented by a near-medium distance stereo camera, and (b) is an overhead view showing a state in which a preceding vehicle is supplemented by a long distance stereo camera. カメラ異常検出処理ルーチンを示すフローチャート(その1)Flowchart showing camera abnormality detection processing routine (part 1) カメラ異常検出処理ルーチンを示すフローチャート(その2)Flowchart showing camera abnormality detection processing routine (part 2) ステレオ画像選択処理ルーチンを示すフローチャートFlow chart showing a stereo image selection processing routine 近中距離用ステレオ画像のみにより走行環境を認識する態様と、近中距離用ステレオ画像と遠距離用ステレオ画像とを統合して走行環境を認識する態様とを例示した図表A diagram illustrating a mode in which the driving environment is recognized only by the near-medium distance stereo image and a mode in which the driving environment is recognized by integrating the near-middle distance stereo image and the long distance stereo image. 近中距離ステレオカメラで近方の先行車を撮像した画像の説明図Explanatory drawing of an image of a nearby preceding car captured by a near-medium distance stereo camera (a)は近中距離ステレオカメラで遠方の先行車を撮像した画像の説明図、(b)は遠距離用ステレオカメラで遠方の先行車を撮像した画像の説明図(A) is an explanatory diagram of an image of a distant preceding vehicle captured by a near-medium distance stereo camera, and (b) is an explanatory diagram of an image of a distant preceding vehicle captured by a long distance stereo camera. 近中距離用ステレオ画像と遠距離用ステレオ画像とを1つの画像上に統合した状態を示す説明図Explanatory diagram showing a state in which a near-medium distance stereo image and a long distance stereo image are integrated on one image.

以下、図面に基づいて本発明の一実施形態を説明する。図1に示す運転支援システムは、自車両M(図2参照)に搭載されている。この運転支援システム1は、自車位置を検出するロケータユニット11、自車両M前方の走行環境を認識するステレオカメラ装置21を有している。このロケータユニット11、及びステレオカメラ装置21は一方が不調を来した場合には、他方のユニットで運転支援を一時的に継続させる冗長系が構築されている。又、運転支援システム1は、ロケータユニット11とステレオカメラ装置21とで現在走行中の道路形状が同一か否かを常時監視し、同一の場合に運転支援を継続させる。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings. The driving support system shown in FIG. 1 is mounted on a host vehicle M (see FIG. 2). The driving support system 1 includes a locator unit 11 for detecting the position of the host vehicle, and a stereo camera device 21 for recognizing a running environment ahead of the host vehicle M. When one of the locator unit 11 and the stereo camera device 21 becomes out of order, a redundant system is constructed in which the other unit temporarily continues driving assistance. In addition, the driving support system 1 constantly monitors whether the locator unit 11 and the stereo camera device 21 have the same road shape on which the vehicle is currently traveling, and continues driving support if the road shapes are the same.

ロケータユニット11は道路地図上の自車両Mの位置(自車位置)を推定すると共に、この自車位置の前方の道路地図データを取得する。一方、ステレオカメラ装置21は自車両Mが走行している車線(自車走行車線)の左右を区画する区画線の中央の道路曲率を求めると共に、この左右区画線の中央を基準とする自車両Mの車幅方向の横位置偏差を検出する。更に、このステレオカメラ装置21は、自車両Mの前方の先行車P1,P2、歩行者や二輪車(自転車、自動二輪車)等の移動体を含む立体物、自車走行車線の左右を区画する区画線、道路標識、信号現示(点灯色)等を認識する。   The locator unit 11 estimates the position of the own vehicle M on the road map (own vehicle position) and acquires road map data ahead of the own vehicle position. On the other hand, the stereo camera device 21 calculates the road curvature at the center of the lane marking the left and right of the lane in which the host vehicle M is traveling (own lane), and uses the center of the host vehicle based on the center of the left and right lane markings. The lateral position deviation of M in the vehicle width direction is detected. Further, the stereo camera device 21 is configured to partition the preceding vehicles P1 and P2 in front of the vehicle M, a three-dimensional object including a moving object such as a pedestrian or a motorcycle (a bicycle or a motorcycle), and the left and right of the vehicle traveling lane. Recognize lines, road signs, signal indications (lighting colors), and the like.

ロケータユニット11は、地図ロケータ演算部12と記憶手段としての高精度道路地図データベース16とを有している。この地図ロケータ演算部12、後述する前方走行環境認識部26、及び自動運転制御ユニット27は、CPU,RAM,ROM、不揮発性記憶部等を備える周知のマイクロコンピュータ、及びその周辺機器で構成されており、ROMにはCPUで実行するプログラムやデータテーブル等の固定データ等が予め記憶されている。   The locator unit 11 has a map locator calculation unit 12 and a high-precision road map database 16 as storage means. The map locator operation unit 12, a forward traveling environment recognition unit 26, and an automatic operation control unit 27, which will be described later, are configured by a well-known microcomputer including a CPU, a RAM, a ROM, a nonvolatile storage unit, and peripheral devices thereof. The ROM stores in advance programs executed by the CPU, fixed data such as data tables, and the like.

この地図ロケータ演算部12の入力側に、GNSS(Global Navigation Satellite System / 全球測位衛星システム)受信機13、及び走行情報取得手段に含まれる走行状態検出手段としての自律走行センサ14が接続されている。GNSS受信機13は複数の測位衛星から発信される測位信号を受信する。又、自律走行センサ14は、トンネル内走行等GNSS衛生からの受信感度が低く測位信号を有効に受信することのできない環境において、自律走行を可能にするもので、車速センサ、ヨーレートセンサ、及び前後加速度センサ等で構成されている。すなわち、地図ロケータ演算部12は、車速センサで検出した車速、ヨーレートセンサで検出したヨーレート(ヨー角速度)、及び前後加速度センサで検出した前後加速度等に基づき移動距離と方位からローカライゼーションを行う。   On the input side of the map locator calculation unit 12, a GNSS (Global Navigation Satellite System) receiver 13 and an autonomous traveling sensor 14 as traveling state detecting means included in traveling information acquiring means are connected. . The GNSS receiver 13 receives positioning signals transmitted from a plurality of positioning satellites. The autonomous traveling sensor 14 enables autonomous traveling in an environment such as traveling in a tunnel where reception sensitivity from the GNSS sanitation is low and a positioning signal cannot be received effectively. The vehicle speed sensor, the yaw rate sensor, and the front and rear It is composed of an acceleration sensor and the like. That is, the map locator calculation unit 12 performs localization from the moving distance and the azimuth based on the vehicle speed detected by the vehicle speed sensor, the yaw rate (yaw angular speed) detected by the yaw rate sensor, the longitudinal acceleration detected by the longitudinal acceleration sensor, and the like.

この地図ロケータ演算部12は、自車位置を推定する機能として自車位置推定演算部12a、推定した自車位置を道路地図上にマップマッチングして自車両Mの現在地を特定し、その周辺の環境情報を含む道路地図情報を取得する地図情報取得部12b、自車両Mの目標とする進行路(目標進行路)を設定する目標進行路設定演算部12cを備えている。   The map locator calculating unit 12 has a function of estimating the position of the own vehicle, the own vehicle position estimating calculating unit 12a, performing map matching of the estimated own vehicle position on a road map, specifying the current position of the own vehicle M, The vehicle includes a map information acquisition unit 12b that acquires road map information including environmental information, and a target travel path setting calculation unit 12c that sets a target travel path (target travel path) of the vehicle M.

又、高精度道路地図データベース16はHDD等の大容量記憶媒体であり、高精度な周知の道路地図情報(ローカルダイナミックマップ)が記憶されている。この高精度道路地図情報は、基盤とする最下層の静的情報階層上に、自動走行をサポートするために必要な付加的地図情報が重畳された階層構造をなしている。   The high-precision road map database 16 is a large-capacity storage medium such as an HDD, and stores high-precision well-known road map information (local dynamic map). This high-precision road map information has a hierarchical structure in which additional map information necessary to support automatic driving is superimposed on the lowest static information layer as a base.

上述した地図情報取得部12bは、この高精度道路地図データベース16に格納されている道路地図情報から現在地及び前方の道路地図情報を取得する。この道路地図情報には周辺環境情報が含まれている。この周辺環境情報としては、道路の種別(一般道路、高速道路等)、道路形状、左右区画線、道路標識、停止線、交差点、信号機等の静的な位置情報のみならず、渋滞情報や事故或いは工事による通行規制等の動的な位置情報も含まれている。従って、この地図情報取得部12bは、本発明の走行情報取得手段に含まれる走行環境情報取得手段としての機能を有している。   The above-described map information acquisition unit 12b acquires the current location and the road map information ahead from the road map information stored in the high-precision road map database 16. This road map information includes surrounding environment information. The surrounding environment information includes not only static type information such as road types (general roads, expressways, etc.), road shapes, left and right lane markings, road signs, stop lines, intersections, traffic signals, but also traffic congestion information and accidents. Alternatively, dynamic position information such as traffic regulation by construction is also included. Therefore, the map information acquiring unit 12b has a function as a traveling environment information acquiring unit included in the traveling information acquiring unit of the present invention.

そして、例えば運転者が自動運転に際してセットした目的地に基づき、上述した自車位置推定演算部12aで推定した自車位置(現在地)から目的地までのルート地図情報を、この道路地図情報から取得し、取得したルート地図情報(ルート地図上の車線データ及びその周辺情報)を自車位置推定演算部12aへ送信する。   Then, for example, based on the destination set by the driver during automatic driving, the route map information from the own vehicle position (current position) estimated by the above-described own vehicle position estimation calculation unit 12a to the destination is obtained from this road map information. Then, the obtained route map information (the lane data on the route map and its surrounding information) is transmitted to the own vehicle position estimation calculation unit 12a.

自車位置推定演算部12aは、GNSS受信機13で受信した測位信号に基づき自車両Mの位置座標を取得し、この位置座標をルート地図情報上にマップマッチングして、道路地図上の自車位置(現在地)を推定すると共に、自車走行車線を特定し、ルート地図情報に記憶されている当該走行車線の道路形状を取得し、逐次記憶させる。   The own vehicle position estimation calculation unit 12a acquires the position coordinates of the own vehicle M based on the positioning signal received by the GNSS receiver 13, performs map matching on the position coordinates on the route map information, and obtains the own vehicle on the road map. The position (current location) is estimated, the traveling lane of the own vehicle is specified, the road shape of the traveling lane stored in the route map information is acquired, and is sequentially stored.

更に、自車位置推定演算部12aは、トンネル内走行等のようにGNSS受信機13の感度低下により測位衛星からの有効な測位信号を受信することができない環境では、自律航法に切換え、自律走行センサ14によりローカライゼーションを行う。   Further, in an environment in which a valid positioning signal from a positioning satellite cannot be received due to a decrease in the sensitivity of the GNSS receiver 13 such as traveling in a tunnel, the own vehicle position estimation calculation unit 12a switches to autonomous navigation and performs autonomous traveling. Localization is performed by the sensor 14.

目標進行路設定演算部12cは、先ず、地図情報取得部12bでマップマッチングした現在位置を基準に自車両Mを区画線に沿って自動走行させるための目標進行路を設定する。又、運転者が目的地を入力している場合は、現在地と目的地とを結ぶ走行ルートに沿って目標進行路が設定される。この目標進行路は、自車両Mの前方、数百メートル〜数キロ先まで設定され、走行時において逐次更新される。この目標進行路設定演算部12cで設定した目標進行路は自動運転制御ユニット27で読込まれる。   First, the target travel path setting calculation unit 12c sets a target travel path for automatically moving the own vehicle M along the lane markings based on the current position subjected to map matching by the map information acquisition unit 12b. When the driver has input a destination, a target traveling route is set along a traveling route connecting the current position and the destination. The target traveling path is set in a range of several hundred meters to several kilometers ahead of the own vehicle M, and is sequentially updated during traveling. The target travel path set by the target travel path setting calculation unit 12c is read by the automatic operation control unit 27.

一方、ステレオカメラ装置21は、自車両Mの前方を撮像する撮像手段としてのカメラ部22、画像処理ユニット(IPU)23、カメラ部22の異常を検出する、カメラ異常検出手段としてのカメラ異常検出部24、ステレオ画像選択手段としてのステレオ画像選択部25、及び走行環境認識手段としての前方走行環境認識部26を備えている。カメラ部22は、近中距離用ステレオカメラ22aと遠距離用ステレオカメラ22bとを有している。   On the other hand, the stereo camera device 21 detects an abnormality of the camera unit 22, an image processing unit (IPU) 23, and an abnormality of the camera unit 22, which detects an abnormality of the camera unit 22. The vehicle includes a unit 24, a stereo image selecting unit 25 as a stereo image selecting unit, and a forward running environment recognizing unit 26 as a running environment recognizing unit. The camera section 22 has a near-medium distance stereo camera 22a and a long distance stereo camera 22b.

又、自動運転制御ユニット27は、入力側に地図ロケータ演算部12、ステレオカメラ装置21の前方走行環境認識部26が接続されている。更に、この自動運転制御ユニット27の出力側に、自車両Mを目標進行路に沿って走行させる操舵制御部31、強制ブレーキにより自車両Mを減速させるブレーキ制御部32、自車両Mの車速を制御する加減速制御部33、及び警報装置34が接続されている。   The automatic driving control unit 27 is connected to the map locator calculation unit 12 and the front running environment recognition unit 26 of the stereo camera device 21 on the input side. Further, on the output side of the automatic driving control unit 27, a steering control unit 31 for causing the own vehicle M to travel along the target traveling path, a brake control unit 32 for decelerating the own vehicle M by forced braking, and a vehicle speed of the own vehicle M An acceleration / deceleration control unit 33 for controlling and an alarm device 34 are connected.

自動運転制御ユニット27は、操舵制御部31、ブレーキ制御部32、加減速制御部33を所定に制御して、GNSS受信機13で受信した自車位置を示す測位信号に基づき、自車両Mを目標進行路設定演算部12cで設定した道路地図上の目標進行路に沿って自動走行させる。その際、前方走行環境認識部26で認識した前方走行環境に基づき、周知の追従車間距離制御(ACC:Adaptive Cruise Control)、及び車線維持制御(ALK:Active Lane Keep)を行い、先行車が検出された場合は先行車に追従し、先行車が検出されない場合は制限速度内で走行させる。更に、自車両Mの直前を横切ろうとする立体物(歩行者、二輪車等)を検出した場合は、ブレーキ制御部32を作動させて自車両Mを停車させる。   The automatic driving control unit 27 controls the steering control unit 31, the brake control unit 32, and the acceleration / deceleration control unit 33 in a predetermined manner, and based on the positioning signal indicating the vehicle position received by the GNSS receiver 13, detects the vehicle M. The vehicle automatically travels along the target travel route on the road map set by the target travel route setting calculation unit 12c. At that time, based on the forward traveling environment recognized by the forward traveling environment recognition unit 26, known following adaptive cruise control (ACC) and lane keeping control (ALK: Active Lane Keep) are performed, and the preceding vehicle is detected. If the preceding vehicle is detected, the vehicle follows the preceding vehicle. If no preceding vehicle is detected, the vehicle is driven within the speed limit. Further, when a three-dimensional object (pedestrian, two-wheeled vehicle, or the like) that is going to cross immediately before the own vehicle M is detected, the brake control unit 32 is operated to stop the own vehicle M.

又、図2に示すように、上述したステレオカメラ装置21に設けられているカメラ部22の近中距離用ステレオカメラ22aは、メインカメラ22aaとサブカメラ22abとを有している。この両カメラ22aa,22abは、車室内Mrの前部のフロントガラスに近接する上部であって、車幅方向中央を挟んで左右対称な位置に通常の基線長Ws(例えば、300〜400[mm])を有して配置されている。更に、この一対のカメラ22aa,22abは広角レンズを用いて比較的広い視野で近中距離の撮像領域(例えば、5〜100[m])の鮮明なステレオ画像が取得できるように設定されている。尚、本実施形態のステレオ画像とは、一対のカメラで撮像した左右画像のうち距離画像を取得できる撮像領域を云う。   As shown in FIG. 2, the near / medium distance stereo camera 22a of the camera section 22 provided in the above-described stereo camera device 21 has a main camera 22aa and a sub camera 22ab. The two cameras 22aa and 22ab are located at an upper portion close to the front windshield at the front of the cabin Mr and at a position symmetrical with respect to the center in the vehicle width direction with respect to the normal base line length Ws (for example, 300 to 400 [mm]). ]). Further, the pair of cameras 22aa and 22ab are set such that a wide-angle lens can be used to acquire a clear stereo image of an imaging area (for example, 5 to 100 [m]) at a near and middle distance with a relatively wide field of view. . Note that the stereo image of the present embodiment refers to an imaging area in which a distance image can be obtained from the left and right images captured by a pair of cameras.

一方、遠距離用ステレオカメラ22bは、メインカメラ22baとサブカメラ22bbとを有している。図2に示すように、この各カメラ22ba,22bbは、自車両M前部の車幅方向における左右両側に配置されている一対のヘッドランプMh内に配設されている。より具体的には、両カメラ22ba,22bbはハイビーム及びロービームの配光に支障を来さない位置であって、車幅中央を挟んで対称、且つ、両カメラ22ba,22bbの中心を結ぶ線が水平となる位置に配置されている。   On the other hand, the long-distance stereo camera 22b has a main camera 22ba and a sub camera 22bb. As shown in FIG. 2, the cameras 22ba and 22bb are disposed in a pair of headlamps Mh disposed on the left and right sides in the vehicle width direction at the front of the host vehicle M. More specifically, the two cameras 22ba and 22bb are positions that do not interfere with the light distribution of the high beam and the low beam, and are symmetrical with respect to the center of the vehicle width, and a line connecting the centers of the two cameras 22ba and 22bb. It is arranged in a horizontal position.

この両カメラ22ba,22bbがヘッドランプMhに配置されているため、遠距離用ステレオカメラ22bの基線長Wlは車幅に対してほぼ最大長が確保される。更に、各カメラ22ba,22bbには望遠レンズが取付けられている。従って、この遠距離用ステレオカメラ22bでは、比較的遠方の撮像領域Ll1〜Ll2(例えば、近方距離Ll1=80[m],遠方距離Ll2=200[m])の鮮明なステレオ画像を取得することができると共に、高い精度の距離画像を得ることができる。   Since the two cameras 22ba and 22bb are arranged on the headlamp Mh, the base line length Wl of the long-distance stereo camera 22b is substantially maximum with respect to the vehicle width. Further, a telephoto lens is attached to each of the cameras 22ba and 22bb. Therefore, the long-distance stereo camera 22b acquires a clear stereo image of a relatively distant imaging region L11 to L12 (for example, a near distance L11 = 80 [m] and a far distance L12 = 200 [m]). And a highly accurate distance image can be obtained.

尚、図3に示すように、近中距離用ステレオカメラ22aと遠距離用ステレオカメラ22bとの視野は、それほど大きく相違しているものではなく、従って、近中距離用ステレオカメラ22a、或いは遠距離用ステレオカメラ22bの一方で取得したステレオ画像に失陥が検出された場合、他方で取得したステレオ画像で、失陥が検出された側のステレオ画像の撮像範囲をある程度カバーすることは可能である。   As shown in FIG. 3, the visual fields of the near-medium distance stereo camera 22a and the long distance stereo camera 22b are not so different from each other. When a defect is detected in the stereo image acquired on one side of the distance stereo camera 22b, the stereo image acquired on the other side can cover the imaging range of the stereo image on the side where the defect is detected to some extent. is there.

又、図8、図9(a)に示すように、近中距離用ステレオカメラ22aで撮像したステレオ画像は、自車両Mの近方では、充分にピントが合っているため、高い精度の距離画像を取得することができる。しかし、自車両Mから比較的離れた距離から先はピントが合わずボケているため高い精度の距離画像を得ることはできない。   Further, as shown in FIGS. 8 and 9A, the stereo image captured by the near-medium distance stereo camera 22a is sufficiently focused near the own vehicle M, so that a highly accurate distance is obtained. Images can be acquired. However, since a point relatively out of the vehicle M is out of focus and blurred, a highly accurate distance image cannot be obtained.

一方、図9(b)に示すように、遠距離用ステレオカメラ22bで撮像したステレオ画像は、自車両Mの直前付近のピントが充分に合っておらずボケるため、高い精度の距離画像を得ることはできない。しかし、遠方では、充分にピントが合っているため高い精度の距離画像を得ることができる。   On the other hand, as shown in FIG. 9B, the stereo image captured by the long-distance stereo camera 22b is out of focus because the area immediately in front of the own vehicle M is not sufficiently focused, and thus a high-accuracy distance image is obtained. You can't get it. However, in a distant place, the focus is sufficiently focused, so that a high-accuracy distance image can be obtained.

本実施形態では、近中距離用ステレオカメラ22aでピントの合った鮮明なステレオ画像を得ることのできる遠方の撮像領域と遠距離用ステレオカメラ22bでピントの合った鮮明なステレオ画像を得ることのできる近方の撮像領域とは重なっている。例えば、図3に示すように、近中距離用ステレオカメラ22aにて鮮明なステレオ画像を得ることのできる遠方距離をLs(例えば、100[m])、遠距離用ステレオカメラ22bにて鮮明なステレオ画像を得ることのできる近方距離をLl1(例えば、80[m])とした場合、近方距離Ll1と遠方距離Lsの間が重複している。   In the present embodiment, a distant imaging region in which a clear stereo image in focus can be obtained with the near-medium distance stereo camera 22a and a clear stereo image in focus with the long distance stereo camera 22b can be obtained. It overlaps with the imaging area as close as possible. For example, as shown in FIG. 3, Ls (for example, 100 [m]) is a distant distance at which a clear stereo image can be obtained by the near-medium distance stereo camera 22a, and a clear distance is obtained by the long distance stereo camera 22b. When the short distance at which a stereo image can be obtained is L11 (for example, 80 [m]), the short distance L11 and the long distance Ls overlap.

図8、図9に示すように、ステレオ画像選択部25は、両ステレオカメラ22a,22bで撮像したステレオ画像に失陥が検出されてない場合、両ステレオ画像を、ピントが合っている共通の撮像領域(Ll1〜Lsの間)に設定した、一つの画像上で対応する水平ラインLdで分割する。そして、分割した両ステレオ画像のピントが合っている側の画像を統合する。これにより、一つの画面上おいて近中距離と遠距離との双方で鮮明なステレオ画像を得ることができる。   As shown in FIGS. 8 and 9, when no stereo image is detected by the stereo cameras 22 a and 22 b, the stereo image selecting unit 25 compares the stereo images with a common in-focus image. The image is divided by a corresponding horizontal line Ld on one image set in the imaging region (between L11 and Ls). Then, the in-focus images of the two divided stereo images are integrated. As a result, clear stereo images can be obtained at both near and middle distances and long distances on one screen.

上述したステレオ画像の失陥はカメラ異常検出部24で検出される。カメラ異常検出部24は、具体的には、図4、図5に示すカメラ異常検出処理ルーチンに従ってステレオ画像の失陥を検出する。尚、失陥の原因としては、各カメラ22aa,22ab,22ba,22bb自体の故障や不調以外に、フロントガラスやヘッドランプMhのレンズカバーに雨滴、雪、泥はね、鳥の糞、虫等が付着して汚れた場合、各カメラのレンズが汚れた場合等が考えられる。   The above-described stereo image defect is detected by the camera abnormality detection unit 24. More specifically, the camera abnormality detection unit 24 detects a stereo image defect according to the camera abnormality detection processing routine shown in FIGS. The causes of the failure include, besides failures or malfunctions of the cameras 22aa, 22ab, 22ba, 22bb themselves, raindrops, snow, mud splashes, bird droppings, insects on the windshield or the lens cover of the headlamp Mh. Can be considered, or the lens of each camera becomes dirty.

このルーチンでは、先ず、ステップS1で、近中距離用ステレオカメラ22aで撮像し、IPU23にて所定に画像処理したステレオ画像(以下、「近中距離用ステレオ画像」と称する)を読込む。又、ステップS2で、遠距離用ステレオカメラ22bで撮像し、IPU23にて所定に画像処理したステレオ画像(以下、「遠距離用ステレオ画像」と称する)を読込む。そして、ステップS3へ進み、各ステレオ画像に対してステレオマッチング処理を行う。このステレオマッチング処理は周知であるため、ここでの説明は省略する。   In this routine, first, in step S1, a stereo image (hereinafter, referred to as a “near-medium distance stereo image”) captured by the near-medium distance stereo camera 22a and subjected to predetermined image processing by the IPU 23 is read. Also, in step S2, a stereo image (hereinafter, referred to as a “long-distance stereo image”) captured by the long-distance stereo camera 22b and subjected to predetermined image processing by the IPU 23 is read. Then, the process proceeds to step S3, where a stereo matching process is performed on each stereo image. Since this stereo matching process is well known, a description thereof will be omitted.

その後、ステップS4へ進み、各ステレオ画像のマッチング処理において、左右画像で対応する区画の画像に不一致画像があるか否か、すなわち失陥があるか否かを調べる。そして、不一致画像が検出されない場合は、正常(失陥なし)と判定し、ステップS5へ進み、失陥検出フラグFをクリアして(F←0)、ルーチンを抜ける。   Thereafter, the process proceeds to step S4, and in the matching processing of each stereo image, it is checked whether or not there is a mismatch image between the images of the corresponding sections in the left and right images, that is, whether or not there is a failure. If no mismatch image is detected, it is determined that the image is normal (no failure), the process proceeds to step S5, the failure detection flag F is cleared (F ← 0), and the routine exits.

一方、ステップS4で、不一致画像が検出された場合は失陥ありと判定し、ステップS6へ分岐すると両ステレオ画像が失陥しているか否かを調べる。そして、両ステレオ画像が失陥していると判定した場合は、ステップS7へ分岐し、画像エラーの信号を送信してルーチンを抜ける。   On the other hand, if a mismatched image is detected in step S4, it is determined that there is a defect, and the process branches to step S6 to check whether both stereo images are defective. If it is determined that both stereo images have failed, the process branches to step S7, transmits an image error signal, and exits the routine.

又、一方のステレオ画像が失陥している場合は、ステップS8へ進み、何れのステレオ画像が失陥しているかを調べる。そして、遠距離用ステレオ画像が失陥している場合は、ステップS9へ進み、失陥検出フラグFを1にセットして(F←1)ルーチンを抜ける。又、近中距離用ステレオ画像が失陥している場合は、ステップS10へ分岐し、失陥検出フラグFを2にセットして(F←2)、ルーチンを抜ける。   If one of the stereo images has failed, the process proceeds to step S8 to check which stereo image has failed. If the long-distance stereo image has failed, the process proceeds to step S9, where the failure detection flag F is set to 1 (F ← 1), and the process exits. If the near-medium distance stereo image has failed, the process branches to step S10, sets the failure detection flag F to 2 (F ← 2), and exits the routine.

この画像エラー信号、及び失陥検出フラグFの値は、ステレオ画像選択部25で読込まれる。このステレオ画像選択部25は、図6に示すステレオ画像選択処理ルーチンに従って、前方認識を行う際に採用するステレオ画像を選択する。   The image error signal and the value of the failure detection flag F are read by the stereo image selection unit 25. The stereo image selection unit 25 selects a stereo image to be used when performing forward recognition according to a stereo image selection processing routine shown in FIG.

このルーチンでは、先ず、ステップS21で、カメラ異常検出部24からの画像エラー信号の有無を調べる。そして、画像エラー信号を受信した場合は、ステップS22へ分岐し、画像送信を中断(HALT)して、ルーチンを抜ける。又、画像エラー信号を受信していない場合はステップS23へ進み、失陥検出フラグFの値を調べる。   In this routine, first, in step S21, the presence or absence of an image error signal from the camera abnormality detection unit 24 is checked. If an image error signal is received, the process branches to step S22, interrupts image transmission (HALT), and exits the routine. If no image error signal has been received, the process proceeds to step S23 to check the value of the failure detection flag F.

そして、F=1、又はF=2の異常の場合は、ステップS24へ分岐する。又、正常(F=0)の場合はステップS25へ進む。ステップS24では、何れのステレオ画像が失陥しているかを調べ、F=1の遠距離用ステレオ画像が失陥している場合は、ステップS28へ進む。又、F=2の近中距離用ステレオ画像が失陥している場合は、ステップS29へ進む。   If the abnormality is F = 1 or F = 2, the process branches to step S24. If it is normal (F = 0), the process proceeds to step S25. In step S24, it is checked which stereo image has failed. If the long-distance stereo image of F = 1 has failed, the process proceeds to step S28. If the near-medium distance stereo image of F = 2 has failed, the process proceeds to step S29.

又、ステップS23からステップS25へ進むと、自車両M前方の走行環境を調べる。走行環境情報としては、本実施形態では、自車両Mの近方に、前方を遮る立体物(先行車P1,二輪車、横切ろうとしている歩行者等)が存在しているか否かを例示する。近方に立体物が存在しているか否かは、自車両Mから立体物までの距離を測定する必要はないため、例えば、近中距離用ステレオカメラ22aのメインカメラ22aaで撮像した画像に基づいて調べる。そして、近方に立体物が存在しない場合はステップS26へ進む。又、近方に、前方を遮る立体物が検出された場合はステップS28へ分岐する。   When the process proceeds from step S23 to step S25, the traveling environment ahead of the host vehicle M is checked. In the present embodiment, the traveling environment information exemplifies whether a three-dimensional object (preceding vehicle P1, two-wheeled vehicle, pedestrian trying to cross, etc.) exists in the vicinity of the own vehicle M, or not. . It is not necessary to measure the distance from the host vehicle M to the three-dimensional object because the three-dimensional object exists in the vicinity. For example, it is determined based on the image captured by the main camera 22aa of the near-medium distance stereo camera 22a. To find out. If there is no three-dimensional object in the vicinity, the process proceeds to step S26. If a three-dimensional object blocking the front is detected in the vicinity, the process branches to step S28.

尚、他の走行環境情報としては、道路地図情報等から取得したカーブ曲率がある。そして、このカーブ曲率に基づき、曲率が大きい場合は、ステップS28へ分岐させるようにしても良い。又、ステップS25において、自車両Mの走行状態情報として車速を検出し、この車速が低中速(例えば、40[Km/h])以下の場合は、ステップS28へ分岐させるようにしても良い。   The other travel environment information includes a curve curvature obtained from road map information or the like. If the curvature is large based on the curve curvature, the process may branch to step S28. In step S25, the vehicle speed is detected as the traveling state information of the host vehicle M. If the vehicle speed is low or medium speed (for example, 40 [Km / h]) or less, the process may branch to step S28. .

ステップS26へ進むと、近中距離用ステレオ画像と遠距離用ステレオ画像とを、図8、図9(b)に示すように水平ラインLdで分割し、図10に示すように、画像下側の近中距離ステレオ画像と画像上側の遠距離用ステレオ画像とを統合する。各ステレオ画像を撮像するステレオカメラ22a,22bは車両に固定されており、且つ、焦点距離も固定であるため、水平ラインLdは両ステレオカメラ22a,22bの撮像面において特定することができる。従って、この撮像面の水平ラインLdに対応する位置において画像を分割すれば、容易に統合させることができる。その後、ステップS27へ進み、統合したステレオ画像を送信してルーチンを抜ける。   In step S26, the near-medium distance stereo image and the long distance stereo image are divided by the horizontal line Ld as shown in FIGS. 8 and 9 (b), and as shown in FIG. Is integrated with the near-medium distance stereo image and the long distance stereo image above the image. Since the stereo cameras 22a and 22b that capture each stereo image are fixed to the vehicle and have a fixed focal length, the horizontal line Ld can be specified on the imaging surfaces of the stereo cameras 22a and 22b. Therefore, if the image is divided at a position corresponding to the horizontal line Ld on the imaging surface, the images can be easily integrated. Thereafter, the process proceeds to step S27, where the integrated stereo image is transmitted, and the process exits the routine.

近中距離用ステレオ画像と遠距離用ステレオ画像との双方に失陥が検出されない場合、この両ステレオ画像を予め設定されている水平ラインLdで分割し、分割した両ステレオ画像のピントが合っている側の画像を統合するようにしたので、一つの画面上において近中距離と遠距離との双方で鮮明なステレオ画像を得ることができる。又、近中距離用ステレオ画像と遠距離用ステレオ画像とにおいて、重複した画像処理が不要となり、その分、処理に要する負担を軽減することができる。   If no defect is detected in both the near-medium distance stereo image and the long distance stereo image, the two stereo images are divided by a preset horizontal line Ld, and the divided two stereo images are focused. Since the images on the side where the user is present are integrated, clear stereo images can be obtained on one screen at both near and medium distances and at a long distance. Further, in the near-medium distance stereo image and the long distance stereo image, redundant image processing becomes unnecessary, and the load required for the processing can be reduced accordingly.

一方、ステップS24、或いはステップS25からステップS28へ進むと、近中距離用ステレオ画像のみを送信してルーチンを抜ける。ステップS25で近方に立体物が検出された場合、ステップS28へ進み、近中距離用ステレオ画像のみを送信するようにしたので、画像処理に要する負担が軽減されるばかりでなく、側方から自車両Mの前方を横切ろうとする立体物(歩行者、二輪車等)を早期に検出することができる。   On the other hand, when the process proceeds from step S24 or step S25 to step S28, only the near-medium distance stereo image is transmitted, and the process exits the routine. When a three-dimensional object is detected in the vicinity in step S25, the process proceeds to step S28, in which only the stereo image for the near and middle distance is transmitted, so that not only the load required for image processing is reduced, but also from the side. A three-dimensional object (pedestrian, two-wheeled vehicle, etc.) trying to cross the front of the host vehicle M can be detected early.

又、ステップS24からステップS29へ分岐すると、遠距離用ステレオ画像のみを送信してルーチンを抜ける。   When the flow branches from step S24 to step S29, only the long-distance stereo image is transmitted, and the routine exits.

ステレオ画像選択部25で選択したステレオ画像は、前方走行環境認識部26で読込まれる。前方走行環境認識部26は、読込んだステレオ画像からその視差に基づき距離画像を生成し、この距離画像に基づいて両画像中の同一対象物を認識すると共に、その距離データ(自車両Mから対象物までの距離)を、三角測量の原理を利用して算出し、これらを前方走行環境情報(立体物、左右区画線、信号現示等)として認識する。   The stereo image selected by the stereo image selection unit 25 is read by the forward traveling environment recognition unit 26. The forward running environment recognition unit 26 generates a distance image from the read stereo image based on the parallax, recognizes the same target object in both images based on the distance image, and stores the distance data (from the own vehicle M). The distance to the object is calculated using the principle of triangulation, and these are recognized as forward traveling environment information (three-dimensional object, left / right lane marking, signal display, etc.).

この場合、近中距離用ステレオカメラ22aのステレオ画像と遠距離用ステレオカメラ22bのステレオ画像との双方が共に正常で、且つ、近方に前方を遮る立体物(先行車P1、歩行者、二輪車)等が検出されない場合は、図10に示すように、近中距離用ステレオ画像と遠距離用ステレオ画像とが一つの画像上に統合されたステレオ画像に基づいて、対象物までの距離情報を取得することになる。   In this case, both the stereo image of the near-medium distance stereo camera 22a and the stereo image of the long distance stereo camera 22b are both normal, and a three-dimensional object that blocks the front in the near direction (preceding vehicle P1, pedestrian, motorcycle, etc.) ) And the like are not detected, as shown in FIG. 10, distance information to the object is determined based on a stereo image in which the near-middle distance stereo image and the long distance stereo image are integrated on one image. You will get.

その結果、図7に示すように、自車両Mの走行において、遠方に立体物が検出されている場合であっても、車両近傍から遠方までの距離測定に適した鮮明なステレオ画像を得ることができ、遠方の立体物(先行車、歩行者、二輪車等)との画像を高い精度で生成することができる。更に、走行車線の左右を区画する区画線の距離データは近方から遠方まで正確に算出することができる。加えて、道路標識や信号現示(点灯色)の距離データは近方、遠方に拘わらず正確に算出することができる。   As a result, as shown in FIG. 7, even when a three-dimensional object is detected in a distant place while the host vehicle M is running, a clear stereo image suitable for distance measurement from the vicinity of the vehicle to the distant place is obtained. It is possible to generate an image with a distant three-dimensional object (preceding vehicle, pedestrian, motorcycle, etc.) with high accuracy. Further, the distance data of the lane markings that separate the left and right of the traveling lane can be accurately calculated from near to far. In addition, the distance data of a road sign or signal indication (lighting color) can be accurately calculated regardless of whether the distance is near or far.

又、自車両Mの近方を遮る立体物が検出された場合は、近中距離用ステレオ画像に基づいて距離画像が生成される。近中距離用ステレオカメラ22aは広角レンズを用いて比較的広い視野に設定されているため、例えば、低中速走行において自車両Mの前方を横切る歩行者や二輪車等の移動体を素早く、且つ正確に検出することができる。   Further, when a three-dimensional object that blocks the vicinity of the vehicle M is detected, a distance image is generated based on the near-medium distance stereo image. Since the near-medium distance stereo camera 22a is set to have a relatively wide field of view using a wide-angle lens, for example, a mobile object such as a pedestrian or a two-wheeled vehicle that crosses in front of the vehicle M in low-medium-speed traveling, and It can be detected accurately.

更に、両ステレオカメラ22a,22bのステレオ画像の一方に失陥が検出された場合は、正常な他方のステレオ画像のみで距離画像を生成するようにしている。上述したように、両ステレオカメラ22a,22bの撮像領域は一部が重複しており、従って、一方のステレオ画像に失陥が生じた場合には、他方の正常なステレオ画像である程度代用することができる。そのため、後述する自動運転制御ユニット27において自動運転がいきなり解除されてしまうことがなく、失陥が継続した場合には、運転者に対して安全に運転を引き継がせることができる。   Further, when a defect is detected in one of the stereo images of the two stereo cameras 22a and 22b, a distance image is generated only with the other normal stereo image. As described above, the imaging areas of the two stereo cameras 22a and 22b partially overlap each other. Therefore, when a failure occurs in one stereo image, the other normal stereo image should be substituted to some extent. Can be. Therefore, the automatic operation is not suddenly canceled in the automatic operation control unit 27 described later, and when the failure continues, the driver can safely take over the operation.

自動運転制御ユニット27は、前方走行環境認識部26で認識した前方走行環境情報に基づき、自車両Mを左右区画線の中央に沿って走行させるべく操舵制御部31へ制御信号を送信する。又、直前を走行する先行車P1を認識した場合は、当該先行車P1に対して所定車間距離を開けて走行させるべく、ブレーキ制御部32及び加減速制御部33へ制御信号を送信する。更に、ステレオカメラ装置21から画像エラー信号が出力された場合は、自動運転を解除する旨を警報装置34から運転者に報知して、運転者に運転を引き継がせた後、自動運転を解除する。又、一方のステレオ画像の失陥が検出された場合も、警報装置34からその旨を運転者に報知し、運転支援の継続が困難になった場合には運転者に運転を引き継がせることができるように準備させる。   The automatic driving control unit 27 transmits a control signal to the steering control unit 31 based on the forward traveling environment information recognized by the forward traveling environment recognizing unit 26 to cause the own vehicle M to travel along the center of the left and right lane markings. When the preceding vehicle P1 traveling immediately before is recognized, a control signal is transmitted to the brake control unit 32 and the acceleration / deceleration control unit 33 so as to allow the preceding vehicle P1 to travel with a predetermined inter-vehicle distance. Further, when an image error signal is output from the stereo camera device 21, the driver is notified from the alarm device 34 that automatic driving is to be canceled, and after the driver takes over the driving, the automatic driving is canceled. . Also, when a failure of one stereo image is detected, the driver is notified from the alarm device 34 to that effect, and when it becomes difficult to continue driving support, the driver can take over the driving. Prepare to be able to.

このように、本実施形態では、近中距離用ステレオカメラ22aと遠距離用ステレオカメラ22bとで撮像した各ステレオ画像に基づいて対象物までの距離情報を求めるに際し、両ステレオ画像のピントの合っている領域を、予め設定した水平ラインLdで分割した後、一つの画像上に統合するようにしたので、重複部分を画像処理する必要がなく、その分、処理に要する負担を軽減することができる。   As described above, in the present embodiment, when obtaining the distance information to the object based on the stereo images captured by the near and middle distance stereo camera 22a and the long distance stereo camera 22b, the focus of both stereo images is adjusted. Is divided by a preset horizontal line Ld and then integrated on one image, so that it is not necessary to perform image processing on the overlapped portion, thereby reducing the processing load. it can.

又、近中距離用ステレオカメラ22aと遠距離用ステレオカメラ22bとの一方で撮像したステレオ画像に失陥が検出された場合、他方の正常なステレオ画像で前方走行環境を認識するようにしたので、自動運転がいきなり解除されることがなく、更に、そのときの走行状態が著しく損なわれることもない。その結果、運転支援制御、運転支援を良好に継続させることができる。更に、運転支援が困難と判断された場合であっても、運転者に運転をスムーズに引き継がせることが可能となり、運転者に与える違和感を軽減させることができる。   In addition, when a failure is detected in a stereo image captured by one of the near-medium distance stereo camera 22a and the long distance stereo camera 22b, the other normal stereo image recognizes the front running environment. In addition, the automatic driving is not suddenly canceled, and the running state at that time is not significantly impaired. As a result, the driving support control and the driving support can be favorably continued. Furthermore, even when it is determined that driving assistance is difficult, it is possible for the driver to smoothly take over the driving, and it is possible to reduce the uncomfortable feeling given to the driver.

又、遠距離用ステレオカメラ22bのメインカメラ22baとサブカメラ22bbとをヘッドランプMhに配置したので、車幅に対して、ほぼ最大の基線長を確保することができ、遠方の距離画像を高い精度で取得することができる。更に、この各カメラ22ba,22bbをヘッドランプMh内の車体フレームに固定することができるため、高い寸法精度で固定することができる。加えて、ヘッドランプMh内はレンズカバーで保護されているため、各カメラ22ba,22bbの外装構造を簡素化することができる。   In addition, since the main camera 22ba and the sub camera 22bb of the long distance stereo camera 22b are arranged on the head lamp Mh, a substantially maximum base line length can be secured with respect to the vehicle width, and the distance image at a long distance can be increased. Can be obtained with precision. Further, since each of the cameras 22ba, 22bb can be fixed to the body frame in the headlamp Mh, it can be fixed with high dimensional accuracy. In addition, since the inside of the head lamp Mh is protected by the lens cover, the exterior structure of each camera 22ba, 22bb can be simplified.

尚、本発明は、上述した実施形態に限るものではなく、例えば、ステップS28において、近中距離用ステレオ画像を送信するに際し、遠距離用ステレオカメラ22bの正常な方で撮像した画像を単眼画像として同時に送信するようにしても良い。同様に、ステップS29において、遠距離用ステレオ画像を送信するに際し、近中距離用ステレオカメラ22aの正常な方で撮像した単眼画像を同時に送信するようにしても良い。   Note that the present invention is not limited to the above-described embodiment. For example, in step S28, when transmitting a near-medium distance stereo image, an image captured by a normal one of the long distance stereo camera 22b is converted to a monocular image. May be transmitted at the same time. Similarly, in step S29, when transmitting a long-distance stereo image, a single-lens image captured by a normal one of the near-medium distance stereo camera 22a may be transmitted at the same time.

1…運転支援システム、
11…ロケータユニット、
12…地図ロケータ演算部、
12a…自車位置推定演算部、
12b…地図情報取得部、
12c…目標進行路設定演算部、
13…GNSS受信機、
14…自律走行センサ、
16…高精度道路地図データベース、
21…ステレオカメラ装置、
22…カメラ部、
22a…近中距離用ステレオカメラ、
22aa,22ba…メインカメラ、
22ab,22bb…サブカメラ、
22b…遠距離用ステレオカメラ、
24…カメラ異常検出部、
25…ステレオ画像選択部、
26…前方走行環境認識部、
27…自動運転制御ユニット、
31…操舵制御部、
32…ブレーキ制御部、
33…加減速制御部、
34…警報装置、
F…失陥検出フラグ、
Ld…水平ライン、
Ll1…近方距離、
Ls,Ll2…遠方距離、
M…自車両、
Mh…ヘッドランプ、
Mr…車室内、
P1,P2…先行車、
Wl,Ws…基線長
1: driving support system,
11 Locator unit,
12 ... Map locator calculation unit
12a: own-vehicle position estimation calculation unit,
12b: map information acquisition unit,
12c: target traveling route setting calculation unit
13 ... GNSS receiver,
14 ... autonomous traveling sensor,
16 High precision road map database
21… Stereo camera device,
22 ... Camera part,
22a: near and middle distance stereo camera,
22aa, 22ba ... main camera,
22ab, 22bb ... sub camera,
22b ... long distance stereo camera,
24: Camera abnormality detection unit
25 ... Stereo image selection unit
26: Forward driving environment recognition unit
27 ... automatic operation control unit,
31 ... steering control unit,
32 ... Brake control unit,
33 ... Acceleration / deceleration control unit
34 ... alarm device,
F: Failure detection flag
Ld: horizontal line,
L11: short distance,
Ls, L12 ... distant distance,
M: own vehicle,
Mh ... headlamp,
Mr ... inside the car,
P1, P2 ... preceding car,
Wl, Ws: Base line length

Claims (6)

自車両の車室内に所定基線長を有して車幅方向の左右に配設された一対のカメラを有する近中距離用ステレオカメラと、
前記自車両前部の車幅方向の左右に設けられた一対のヘッドランプに各々配設されたカメラを有する遠距離用ステレオカメラと、
前記自車両の走行情報を検出する走行情報取得手段と
を有し、前記各ステレオカメラで撮像したステレオ画像に基づいて前記自車両前方の距離画像を生成する車両用ステレオカメラ装置において、
前記走行情報取得手段で検出した走行情報に基づき前記近中距離用ステレオカメラで撮像するステレオ画像と前記遠距離用ステレオカメラで撮像するステレオ画像とを統合して送信するか、何れか一方のステレオ画像を選択して送信するかを判定するステレオ画像選択手段を更に備える
ことを特徴とする車両用ステレオカメラ装置。
A near-to-medium distance stereo camera having a pair of cameras disposed at the left and right sides in the vehicle width direction with a predetermined base line length in the cabin of the vehicle,
A long-distance stereo camera having cameras respectively disposed on a pair of headlamps provided on the left and right sides in the vehicle width direction of the host vehicle,
In the vehicle stereo camera device having a traveling information acquisition unit that detects the traveling information of the own vehicle, and generating a distance image in front of the own vehicle based on a stereo image captured by each of the stereo cameras,
Based on the travel information detected by the travel information acquisition means, a stereo image captured by the near-medium distance stereo camera and a stereo image captured by the long distance stereo camera are integrated and transmitted. A stereo camera device for a vehicle, further comprising a stereo image selecting means for determining whether to select and transmit an image.
前記近中距離用ステレオカメラで撮像したステレオ画像と前記遠距離用ステレオカメラで撮像したステレオ画像とを、個別にステレオマッチング処理し、一方のステレオ画像が失陥しているか否かを調べるカメラ異常検出手段を更に有し、
前記ステレオ画像選択手段は、前記カメラ異常検出手段において前記近中距離用ステレオカメラで撮像したステレオ画像と前記遠距離用ステレオカメラで撮像したステレオ画像との一方に失陥が検出された場合、他方のステレオ画像を選択する
ことを特徴とする請求項1記載の車両用ステレオカメラ装置。
A camera abnormality for individually performing stereo matching processing on a stereo image captured by the near-medium distance stereo camera and a stereo image captured by the long-distance stereo camera, and checking whether or not one stereo image is lost Further comprising detecting means,
The stereo image selecting means, when the camera abnormality detecting means detects a defect in one of a stereo image captured by the near-medium distance stereo camera and a stereo image captured by the long distance stereo camera, the other The vehicle stereo camera device according to claim 1, wherein the stereo image of (1) is selected.
前記ステレオ画像選択手段は、前記カメラ異常検出手段において前記近中距離用ステレオカメラで撮像したステレオ画像と前記遠距離用ステレオカメラで撮像したステレオ画像との一方に失陥が検出された場合、他方のステレオ画像と一方のステレオ画像の内の正常な単眼画像とを選択する
ことを特徴とする請求項2記載の車両用ステレオカメラ装置。
The stereo image selecting means, when the camera abnormality detecting means detects a defect in one of a stereo image captured by the near-medium distance stereo camera and a stereo image captured by the long distance stereo camera, the other 3. The stereo camera device for a vehicle according to claim 2, wherein the stereo image of (1) and a normal monocular image of one of the stereo images are selected.
前記ステレオ画像選択手段は、前記カメラ異常検出手段において前記近中距離用ステレオカメラで撮像したステレオ画像と前記遠距離用ステレオカメラで撮像したステレオ画像との双方が正常と判定した場合、前記両ステレオ画像を重複する共通の撮像領域で分割した後、分割されたピントの合っている側の前記各ステレオ画像を一つの画像上で統合する
ことを特徴とする請求項2或いは3に記載の車両用ステレオカメラ装置。
The stereo image selecting means, when the camera abnormality detection means determines that both the stereo image captured by the near-medium distance stereo camera and the stereo image captured by the long distance stereo camera are normal, the two stereo 4. The vehicle according to claim 2, wherein after the image is divided by the overlapping common imaging region, the divided stereo images on the side in focus are integrated on one image. 5. Stereo camera device.
前記ステレオ画像選択手段は、前記カメラ異常検出手段において前記近中距離用ステレオカメラで撮像したステレオ画像と前記遠距離用ステレオカメラで撮像したステレオ画像との双方が正常と判定した場合であっても、前方を遮る立体物が検出され、或いは車速が中低車速の場合は、前記近中距離用ステレオカメラで撮像したステレオ画像のみを選択する
ことを特徴とする請求項1〜4の何れか1項に記載の車両用ステレオカメラ装置。
The stereo image selecting unit may be configured such that the camera abnormality detecting unit determines that both the stereo image captured by the short-to-medium distance stereo camera and the stereo image captured by the long-distance stereo camera are normal. 5. The method according to claim 1, wherein when a three-dimensional object obstructing the front is detected, or when the vehicle speed is a medium to low vehicle speed, only a stereo image captured by the near-medium distance stereo camera is selected. Item 3. The vehicle stereo camera device according to item 1.
前記近中距離用ステレオカメラの撮像領域が前記遠距離用ステレオカメラの撮像領域よりも広角に設定されている
ことを特徴とする請求項1〜5の何れか1項に記載の車両用ステレオカメラ装置。
The vehicle stereo camera according to any one of claims 1 to 5, wherein an imaging area of the near-medium distance stereo camera is set to be wider than an imaging area of the long distance stereo camera. apparatus.
JP2018184743A 2018-09-28 2018-09-28 Vehicle stereo camera device Active JP7165012B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018184743A JP7165012B2 (en) 2018-09-28 2018-09-28 Vehicle stereo camera device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018184743A JP7165012B2 (en) 2018-09-28 2018-09-28 Vehicle stereo camera device

Publications (2)

Publication Number Publication Date
JP2020053950A true JP2020053950A (en) 2020-04-02
JP7165012B2 JP7165012B2 (en) 2022-11-02

Family

ID=69997730

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018184743A Active JP7165012B2 (en) 2018-09-28 2018-09-28 Vehicle stereo camera device

Country Status (1)

Country Link
JP (1) JP7165012B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021123234A (en) * 2020-02-05 2021-08-30 マツダ株式会社 Vehicle control system
KR20230052480A (en) * 2021-10-13 2023-04-20 삼성전기주식회사 Multi-stereo camera apparatus
US11772575B2 (en) 2020-06-02 2023-10-03 Subaru Corporation In-vehicle camera device and vehicle

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05265547A (en) * 1992-03-23 1993-10-15 Fuji Heavy Ind Ltd On-vehicle outside monitoring device
JPH1139596A (en) * 1997-07-17 1999-02-12 Fuji Heavy Ind Ltd Outside monitoring device
JP2006054503A (en) * 2004-08-09 2006-02-23 Olympus Corp Image generation method and apparatus
JP2010271143A (en) * 2009-05-20 2010-12-02 Ricoh Co Ltd Imaging device, distance measuring device, exterior monitoring device, and imaging method
JP2014074632A (en) * 2012-10-03 2014-04-24 Isuzu Motors Ltd Calibration apparatus of in-vehicle stereo camera and calibration method
JP2019517091A (en) * 2016-06-08 2019-06-20 アマゾン テクノロジーズ インコーポレイテッド Imaging device selectively paired for stereoscopic image

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05265547A (en) * 1992-03-23 1993-10-15 Fuji Heavy Ind Ltd On-vehicle outside monitoring device
JPH1139596A (en) * 1997-07-17 1999-02-12 Fuji Heavy Ind Ltd Outside monitoring device
JP2006054503A (en) * 2004-08-09 2006-02-23 Olympus Corp Image generation method and apparatus
JP2010271143A (en) * 2009-05-20 2010-12-02 Ricoh Co Ltd Imaging device, distance measuring device, exterior monitoring device, and imaging method
JP2014074632A (en) * 2012-10-03 2014-04-24 Isuzu Motors Ltd Calibration apparatus of in-vehicle stereo camera and calibration method
JP2019517091A (en) * 2016-06-08 2019-06-20 アマゾン テクノロジーズ インコーポレイテッド Imaging device selectively paired for stereoscopic image

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021123234A (en) * 2020-02-05 2021-08-30 マツダ株式会社 Vehicle control system
US11772575B2 (en) 2020-06-02 2023-10-03 Subaru Corporation In-vehicle camera device and vehicle
KR20230052480A (en) * 2021-10-13 2023-04-20 삼성전기주식회사 Multi-stereo camera apparatus
KR102561947B1 (en) 2021-10-13 2023-08-01 삼성전기주식회사 Multi-stereo camera apparatus

Also Published As

Publication number Publication date
JP7165012B2 (en) 2022-11-02

Similar Documents

Publication Publication Date Title
US10964217B2 (en) Travel control method and travel control apparatus
US8384781B2 (en) Stereo camera device
KR20200036038A (en) Position error correction method and position error correction device for driving assistance vehicles
US11269333B2 (en) Automatic drive assist apparatus
US11204608B2 (en) Vehicle traveling control apparatus
JP2016172531A (en) Vehicle control device
JP7401978B2 (en) Intersection start determination device
US11538335B2 (en) Traffic control system for automatic driving vehicle
US11608059B2 (en) Method and apparatus for method for real time lateral control and steering actuation assessment
JP6364869B2 (en) Driving assistance device
JP7165012B2 (en) Vehicle stereo camera device
US20200302793A1 (en) Traffic control system
US11335195B2 (en) Traffic control system
JP2022117882A (en) Automatic drive assisting system
US11983011B2 (en) Vehicle driving assist system
US11345366B2 (en) In-vehicle processing device
AU2019210682B2 (en) Probe information processing apparatus
KR101544797B1 (en) Apparatus and method for estimating relative position of vehicle to vehicle
JP2023054084A (en) Vehicle stereo camera device
JP6996882B2 (en) Map data structure of data for autonomous driving support system, autonomous driving support method, and autonomous driving
JP7202123B2 (en) Vehicle stereo camera device
JP7202120B2 (en) Driving support device
JP2021033667A (en) Map data generation method
CN111273653A (en) Automatic driving device
JP2023019038A (en) Driving support device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210825

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210825

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220927

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221021

R150 Certificate of patent or registration of utility model

Ref document number: 7165012

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150