JP7202123B2 - Vehicle stereo camera device - Google Patents

Vehicle stereo camera device Download PDF

Info

Publication number
JP7202123B2
JP7202123B2 JP2018184742A JP2018184742A JP7202123B2 JP 7202123 B2 JP7202123 B2 JP 7202123B2 JP 2018184742 A JP2018184742 A JP 2018184742A JP 2018184742 A JP2018184742 A JP 2018184742A JP 7202123 B2 JP7202123 B2 JP 7202123B2
Authority
JP
Japan
Prior art keywords
camera
cameras
vehicle
pair
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018184742A
Other languages
Japanese (ja)
Other versions
JP2020052018A (en
Inventor
礁太 吉村
雅俊 皆川
輝 由川
啓輔 茂木
一輝 ▲高▼▲橋▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Priority to JP2018184742A priority Critical patent/JP7202123B2/en
Publication of JP2020052018A publication Critical patent/JP2020052018A/en
Application granted granted Critical
Publication of JP7202123B2 publication Critical patent/JP7202123B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、複数のカメラから2つのカメラを選択してステレオ画像を得るようにした車両用ステレオカメラ装置に関する。 The present invention relates to a vehicle stereo camera device that selects two cameras from a plurality of cameras to obtain a stereo image.

車両に左右一対のステレオカメラを搭載し、このステレオカメラにより自車両前方の走行環境を撮像することで、先行車や各種障害物を認識すると共に、自車両と対象物との距離を計測するステレオカメラ装置が知られている。 A stereo camera equipped with a pair of left and right stereo cameras on the vehicle that captures images of the driving environment in front of the vehicle, thereby recognizing preceding vehicles and various obstacles and measuring the distance between the vehicle and the target. Camera devices are known.

又、特許文献1(特開平11-39596号公報)には、車両に遠距離用ステレオカメラと近距離用ステレオカメラとを搭載し、両ステレオカメラで取得した走行環境情報に基づき、常時、近距離から遠距離までの広い範囲で対象物を認識すると共に、自車両との距離を求めるようにした技術が開示されている。 Further, in Patent Document 1 (Japanese Patent Application Laid-Open No. 11-39596), a vehicle is equipped with a long-distance stereo camera and a short-distance stereo camera, and based on the driving environment information acquired by both stereo cameras, a near-field image is constantly detected. A technique has been disclosed for recognizing an object in a wide range from a long distance to a long distance and determining the distance to the own vehicle.

又、特許文献2(特開2013-61317号公報)には、3台のカメラを所定間隔で配設し、低速の場合は基線長の最も短い2台のカメラを選択し、中速の場合は中間の基線長を有する2台のカメラを選択し、高速のときは最も基線長の長い2台のカメラを選択して、ステレオ画像を得るようにした技術が開示されている。 In addition, in Patent Document 2 (Japanese Patent Application Laid-Open No. 2013-61317), three cameras are arranged at a predetermined interval, and two cameras with the shortest baseline length are selected at low speed, and at medium speed discloses a technique for obtaining a stereo image by selecting two cameras having intermediate baseline lengths and selecting two cameras having the longest baseline lengths at high speed.

特開平11-39596号公報JP-A-11-39596 特開2013-61317号公報JP 2013-61317 A

ところで、車両の走行環境は、晴天のみならず雨天、積雪等の悪天候もあり、フロントガラスには雨滴、雪等が付着する。又、晴天であっても泥はね、鳥の糞等の付着でフロントガラスが汚れる場合がある。上述した各特許文献に記載されているように、各カメラがフロントガラスの車室側に配置されており、フロントガラスの汚れによりカメラの視界が妨げられた場合、当該カメラによる画像は失陥する。又、カメラレンズが汚れている場合も視界が妨げられるため画像が失陥する。更に、カメラ自体の不調によっても画像の失陥は生じる。 By the way, the driving environment of a vehicle is not only fine weather, but also bad weather such as rain and snow, and raindrops, snow, etc. adhere to the windshield. In addition, even if the weather is fine, the windshield may become dirty due to splashes of mud, bird droppings, and the like. As described in each of the above-mentioned patent documents, each camera is arranged on the vehicle interior side of the windshield, and if the view of the camera is obstructed by dirt on the windshield, the image obtained by the camera will be corrupted. . Also, if the camera lens is dirty, the image will be corrupted because the field of vision will be obstructed. In addition, image defects can also occur due to malfunctions in the camera itself.

一対のカメラによってステレオ画像を取得している場合、一方のカメラの画像が失陥すると、他方のカメラでは画像が取得されており、対象物を認識することができたとしても、対象物までの距離を計測することのできるステレオ画像を取得することができなくなる。 When a stereo image is acquired by a pair of cameras, if the image of one camera fails, the image of the other camera is acquired, and even if the object can be recognized, the distance to the object cannot be achieved. It becomes impossible to acquire a stereo image from which distance can be measured.

その結果、ステレオ画像に基づいて、周知の追従車間距離制御(ACC:Adaptive Cruise Control)、及び車線維持制御(ALK:Active Lane Keep)等の運転支援制御を行っている場合は、一方のカメラによる画像が失陥することで運転支援が解除されてしまう。又、自動運転において、地図ロケータと車載カメラとで冗長系が構成されている場合、一方のカメラ画像の失陥によって冗長性が確保できなくなるため、自動運転が解除されてしまう。 As a result, based on the stereo image, when performing driving support control such as well-known following distance control (ACC: Adaptive Cruise Control) and lane keeping control (ALK: Active Lane Keep), one camera Driving support is canceled due to image failure. Also, in automatic driving, if a redundant system is configured with a map locator and an in-vehicle camera, redundancy cannot be ensured due to a defect in the image of one of the cameras, so automatic driving is canceled.

一方のカメラの失陥によって運転支援制御や自動運転が直ちに解除されてしまうことは、運転者を慌てさせることとなるばかりでなく、運転者に違和感を与えてしまう不都合がある。 Immediate cancellation of driving support control or automatic driving due to the failure of one camera not only makes the driver panic, but also gives the driver a sense of discomfort.

例えば、特許文献1に開示されているように、遠距離用ステレオカメラと近距離用ステレオカメラとが備えられており、一方のステレオカメラの片側のカメラ画像が失陥した場合には、他方のステレオカメラによって失陥したステレオカメラを代用することも考えられる。 For example, as disclosed in Patent Document 1, a long-distance stereo camera and a short-distance stereo camera are provided. It is also conceivable to substitute a stereo camera that has failed with a stereo camera.

しかし、近距離用ステレオカメラの機能を遠距離用ステレオカメラで代用した場合、低速、中速での走行において充分な対応を図ることができない。逆に、遠距離用ステレオカメラの機能を近距離用ステレオカメラで代用した場合、高速での走行において充分な対応を図ることができない不具合がある。 However, when the function of the short-range stereo camera is substituted by the long-range stereo camera, it is not possible to adequately cope with running at low and medium speeds. Conversely, if the function of the long-distance stereo camera is substituted with the short-distance stereo camera, there is a problem that it is not possible to sufficiently cope with high-speed running.

本発明は、上記事情に鑑み、少なくとも4台のカメラの1台が失陥した際に、他のカメラでそれを代用しても、走行状態を著しく損なうことがなく、運転支援制御や自動運転を継続させ、或いは運転者に運転をスムーズに引き継がせることが可能で、運転者に与える違和感を軽減させることのできる車両用ステレオカメラ装置を提供することを目的とする。 In view of the above circumstances, the present invention provides a method for driving support control and automatic driving without significantly impairing the driving state even if at least one of the four cameras fails, even if it is substituted with another camera. To provide a vehicular stereo camera device capable of continuing driving or allowing a driver to smoothly take over the driving, and capable of reducing discomfort given to the driver.

本発明は、自車両の走行情報を取得する走行情報取得手段と、前記自車両に所定基線長で配置されて前記自車両の外方を撮像する、少なくとも遠距離用の一対のカメラと近距離用の一対のカメラを有する撮像手段と、前記走行情報取得手段で取得した前記走行情報に基づき、前記撮像手段の前記遠距離用の一対のカメラと前記近距離用の一対のカメラとの一方を選択し、選択した該一対のカメラによる撮像領域のステレオ画像を取得するカメラ画像選択手段と、前記カメラ画像選択手段で選択した前記遠距離用の一対のカメラと前記近距離用の一対のカメラとの一方からのステレオ画像に基づいて前記自車両の外方の走行環境を認識する走行環境認識手段とを有する車両用ステレオカメラ装置において、前記カメラ画像選択手段は、選択した前記一対のカメラから取得したステレオ画像をステレオマッチング処理して画像が失陥しているか否かを調べるカメラ失陥判定手段と、前記カメラ失陥判定手段で画像が失陥していると判定した場合、選択したのは前記遠距離用の一対のカメラか前記近距離用の一対のカメラかを調べ、該遠距離用の一対のカメラの一方が失陥していると判定した場合は失陥しているカメラに対する代替カメラを、選択した前記一対のカメラ以外のカメラから選択し該代替カメラと前記一対のカメラ内の正常なカメラとによる代替撮像領域のステレオ画像を取得し、前記近距離用の一対のカメラの一方が失陥していると判定した場合は該近距離用の一対のカメラの正常なカメラにより撮像した画像を単眼画像として取得する代替画像取得手段とを備える。 The present invention includes a driving information acquiring means for acquiring driving information of the own vehicle , a pair of cameras for at least a long distance and a short distance , which are arranged on the own vehicle at a predetermined base line length and capture an image of the outside of the own vehicle. and one of the pair of long-distance cameras and the pair of short-distance cameras of the imaging means based on the travel information acquired by the travel information acquisition device. and acquires a stereo image of the imaging area by the selected pair of cameras, and the pair of long-distance cameras and the pair of short-distance cameras selected by the camera image selection means and driving environment recognition means for recognizing the driving environment outside the vehicle based on a stereo image from one of the pair of cameras, wherein the camera image selection means selects from the selected pair of cameras camera failure determination means for performing stereo matching processing on the acquired stereo image to check whether the image is defective; and if the camera failure determination means determines that the image is defective, the selected checks whether it is the pair of long-distance cameras or the pair of short-distance cameras, and if it is determined that one of the pair of long-distance cameras is defective, A substitute camera is selected from cameras other than the selected pair of cameras, a stereo image of a substitute imaging area is acquired by the substitute camera and a normal camera in the pair of cameras, and the pair of cameras for close range is acquired. a substitute image obtaining means for obtaining, as a monocular image, an image captured by a normal camera of the pair of short-range cameras when it is determined that one of the cameras is defective .

本発明によれば、少なくとも遠距離用の一対のカメラと近距離用の一対のカメラとの一方を選択し、選択した一対のカメラから取得したステレオ画像をステレオマッチング処理して画像が失陥しているか否かを調べ、画像が失陥していると判定した場合、選択したのは遠距離用の一対のカメラか近距離用の一対のカメラかを調べ、遠距離用の一対のカメラの一方が失陥していると判定した場合は失陥しているカメラに対する代替カメラを、選択した一対のカメラ以外のカメラから選択し、この代替カメラと一対のカメラ内の正常なカメラとによる代替撮像領域のステレオ画像を取得するようにしたので、失陥したカメラを他のカメラでそれを代用しても、走行状態を著しく損なうことがなく、運転支援制御、自動運転を継続させ、或いは運転者に運転をスムーズに引き継がせることが可能となる。その結果、運転者に与える違和感を軽減させることができる。 According to the present invention, at least one of a pair of long-distance cameras and a pair of short-distance cameras is selected, and stereo matching processing is performed on stereo images acquired from the selected pair of cameras to correct image defects. If it is determined that the image is defective, it is checked whether the long-range camera pair or the short-range camera pair has been selected. If one of the cameras is determined to be defective, a substitute camera for the malfunctioning camera is selected from cameras other than the selected pair of cameras, and this substitute camera is substituted by a normal camera in the pair of cameras. Since stereo images of the imaging area are acquired, even if a camera that has failed is replaced with another camera, the driving state is not significantly impaired, and driving support control, automatic driving can be continued, or driving can be performed. It is possible to allow the driver to take over the driving smoothly. As a result, the discomfort given to the driver can be reduced.

車両用ステレオカメラ装置を備える自動運転支援システムの構成を示す機能ブロック図Functional block diagram showing the configuration of an automatic driving support system equipped with a vehicle stereo camera device ステレオカメラ装置を搭載する車両の正面図Front view of a vehicle equipped with a stereo camera device カメラ画像選択処理ルーチンを示すフローチャート(その1)Flowchart showing camera image selection processing routine (part 1) カメラ画像選択処理ルーチンを示すフローチャート(その2)Flowchart showing camera image selection processing routine (Part 2) ステレオ画像の取得領域を示す俯瞰図Bird's-eye view showing acquisition area of stereo image 4台のカメラの組合わせによるステレオ画像の取得領域を示す説明図Explanatory diagram showing acquisition areas of stereo images by a combination of four cameras 両端のカメラを用いて遠距離領域のステレオ画像を取得する状態を示す説明図Explanatory drawing showing a state in which a stereo image of a long-distance area is acquired using cameras at both ends. 左端のカメラと中央右側のカメラとを用いて中距離左領域のステレオ画像を取得する状態を示す説明図Explanatory diagram showing a state in which a stereo image of a middle-distance left region is acquired using the camera on the left end and the camera on the right side of the center. 右端のカメラと中央左側のカメラとを用いて中距離右領域のステレオ画像を取得する状態を示す説明図Explanatory diagram showing a state in which a stereo image of the middle-range right region is acquired using the camera on the right end and the camera on the left side of the center. 左端のカメラと中央左側のカメラとを用いて近距離左領域のステレオ画像を取得する状態を示す説明図Explanatory diagram showing a state in which a stereo image of the near-field left region is acquired using the leftmost camera and the center left camera. 中央左右のカメラを用いて近距離中央領域のステレオ画像を取得する状態を示す説明図Explanatory diagram showing a state in which a stereo image of the near-field central region is acquired using the cameras on the left and right of the center. 右端のカメラと中央右側のカメラとを用いて近距離右領域のステレオ画像を取得する状態を示す説明図Explanatory diagram showing a state in which a stereo image of the near-field right region is acquired using the rightmost camera and the center right camera. ステレオ画像を取得する前方認識領域と使用するカメラの組合わせを示す図表A diagram showing the combination of the front recognition area for acquiring stereo images and the camera to be used 特定のカメラが失陥した場合に代用する前方認識領域、及び代替単眼カメラの組合わせを示す図表A chart showing combinations of forward recognition areas and alternative monocular cameras to be substituted when a specific camera fails 失陥したステレオ画像の撮像領域と失陥したカメラを特定するために取得するステレオ画像の撮像領域との関係を示す図表Graph showing the relationship between the imaging area of the defective stereo image and the imaging area of the stereo image acquired to identify the defective camera

以下、図面に基づいて本発明の一実施形態を説明する。図1に示す自動運転支援システムは、自車両M(図2参照)に搭載されている。この自動運転支援システム1は、自車位置を検出するロケータユニット11、自車両M前方の走行環境を認識するステレオカメラ装置21を有している。このロケータユニット11、及びステレオカメラ装置21は一方が不調を来した場合には、他方のユニットで自動運転支援を一時的に継続させる冗長系が構築されている。又、自動運転支援システム1は、ロケータユニット11とステレオカメラ装置21とで現在走行中の道路形状が同一か否かを常時監視し、同一の場合に自動運転支援を継続させる。 An embodiment of the present invention will be described below based on the drawings. The automatic driving support system shown in FIG. 1 is installed in the host vehicle M (see FIG. 2). This automatic driving support system 1 has a locator unit 11 for detecting the position of the vehicle and a stereo camera device 21 for recognizing the driving environment in front of the vehicle. If one of the locator unit 11 and the stereo camera device 21 malfunctions, a redundant system is constructed in which the other unit temporarily continues automatic driving assistance. In addition, the automatic driving support system 1 constantly monitors whether the shape of the road on which the vehicle is currently traveling is the same between the locator unit 11 and the stereo camera device 21, and if they are the same, the automatic driving support is continued.

ロケータユニット11は道路地図上の自車両Mの位置(自車位置)を推定すると共に、この自車位置の前方の道路地図データを取得する。一方、ステレオカメラ装置21は自車両Mの走行車線の左右を区画する区画線の中央の道路曲率を求めると共に、この左右区画線の中央を基準とする自車両Mの車幅方向の横位置偏差を検出する。更に、このステレオカメラ装置21は、自車両Mの前方の先行車、直前を横切ろうとする歩行者や二輪車(自転車、自動二輪車)等の移動体を含む立体物、信号現示(点灯色)、道路標識等を認識する。 The locator unit 11 estimates the position of the own vehicle M on the road map (own vehicle position) and acquires road map data ahead of the own vehicle position. On the other hand, the stereo camera device 21 obtains the road curvature at the center of the demarcation line that divides the left and right lanes of the vehicle M, and the lateral position deviation of the vehicle M in the vehicle width direction with the center of the left and right demarcation line as a reference. to detect Furthermore, the stereo camera device 21 can detect three-dimensional objects including a preceding vehicle in front of the own vehicle M, pedestrians and two-wheeled vehicles (bicycles, motorcycles) trying to cross in front of the vehicle M, and signal appearance (lighting color). , road signs, etc.

ロケータユニット11は、地図ロケータ演算部12と記憶手段としての高精度道路地図データベース16とを有している。この地図ロケータ演算部12、後述する前方走行環境認識部25、及び自動運転制御ユニット26は、CPU,RAM,ROM、不揮発性記憶部等を備える周知のマイクロコンピュータ、及びその周辺機器で構成されており、ROMにはCPUで実行するプログラムやデータテーブル等の固定データ等が予め記憶されている。 The locator unit 11 has a map locator calculator 12 and a high precision road map database 16 as storage means. The map locator calculation unit 12, the forward running environment recognition unit 25, and the automatic driving control unit 26, which will be described later, are composed of a well-known microcomputer equipped with a CPU, RAM, ROM, nonvolatile memory, etc., and peripheral devices thereof. In the ROM, programs to be executed by the CPU and fixed data such as data tables are stored in advance.

この地図ロケータ演算部12の入力側に、GNSS(Global Navigation Satellite System / 全球測位衛星システム)受信機13、及び自律走行センサ14が接続されている。GNSS受信機13は複数の測位衛星から発信される測位信号を受信する。又、自律走行センサ14は、トンネル内走行等GNSS衛生からの受信感度が低く測位信号を有効に受信することのできない環境において、自律走行を可能にするもので、車速センサ、ヨーレートセンサ、及び前後加速度センサ等で構成されている。すなわち、地図ロケータ演算部12は、車速センサで検出した車速、ヨーレートセンサで検出したヨーレート(ヨー角速度)、及び前後加速度センサで検出した前後加速度等に基づき移動距離と方位からローカライゼーションを行う。 A GNSS (Global Navigation Satellite System) receiver 13 and an autonomous travel sensor 14 are connected to the input side of the map locator calculation unit 12 . The GNSS receiver 13 receives positioning signals transmitted from a plurality of positioning satellites. In addition, the autonomous traveling sensor 14 enables autonomous traveling in an environment where the reception sensitivity from the GNSS satellite is low and the positioning signal cannot be effectively received, such as traveling in a tunnel. It consists of an acceleration sensor and the like. That is, the map locator calculation unit 12 performs localization based on the movement distance and direction based on the vehicle speed detected by the vehicle speed sensor, the yaw rate (yaw angular velocity) detected by the yaw rate sensor, and the longitudinal acceleration detected by the longitudinal acceleration sensor.

この地図ロケータ演算部12は、自車位置を推定する機能として自車位置推定演算部12a、推定した自車位置を道路地図上にマップマッチングして自車両Mの現在地を特定し、その周辺の環境情報を含む道路地図情報を取得する地図情報取得部12b、自車両Mの目標とする進行路(目標進行路)を設定する目標進行路設定演算部12cを備えている。 The map locator calculation unit 12 has a function of estimating the position of the vehicle, which is a vehicle position estimation calculation unit 12a. A map information acquisition unit 12b that acquires road map information including environmental information, and a target travel route setting calculation unit 12c that sets a target travel route (target travel route) of the own vehicle M are provided.

又、高精度道路地図データベース16はHDD等の大容量記憶媒体であり、高精度な周知の道路地図情報(ローカルダイナミックマップ)が記憶されている。この高精度道路地図情報は、基盤とする最下層の静的情報階層上に、自動走行をサポートするために必要な付加的地図情報が重畳された階層構造をなしている。 The high-precision road map database 16 is a large-capacity storage medium such as an HDD, and stores high-precision well-known road map information (local dynamic map). This high-precision road map information has a hierarchical structure in which additional map information necessary to support automatic driving is superimposed on the static information layer of the lowest layer as a base.

上述した地図情報取得部12bは、この高精度道路地図データベース16に格納されている道路地図情報から現在地及び前方の道路地図情報を取得する。この道路地図情報には周辺環境情報が含まれている。この周辺環境情報としては、道路の種別(一般道路、高速道路等)、道路形状、左右区画線、道路標識、停止線、交差点、信号機等の静的な位置情報のみならず、渋滞情報や事故或いは工事による通行規制等の動的な位置情報も含まれている。 The map information acquisition unit 12b described above acquires the current location and road map information ahead from the road map information stored in the high-precision road map database 16. FIG. This road map information includes surrounding environment information. This surrounding environment information includes not only static location information such as road types (general roads, expressways, etc.), road shapes, left and right division lines, road signs, stop lines, intersections, and traffic lights, but also congestion information and accident information. Alternatively, dynamic position information such as traffic restrictions due to construction work is also included.

そして、例えば運転者が自動運転に際してセットした目的地に基づき、上述した自車位置推定演算部12aで推定した自車位置(現在地)から目的地までのルート地図情報を、この道路地図情報から取得し、取得したルート地図情報(ルート地図上の車線データ及びその周辺情報)を自車位置推定演算部12aへ送信する。 Then, for example, based on the destination set by the driver during automatic driving, the route map information from the vehicle position (current location) estimated by the vehicle position estimation calculation unit 12a to the destination is obtained from the road map information. Then, the acquired route map information (lane data on the route map and its surrounding information) is transmitted to the own vehicle position estimation calculation unit 12a.

自車位置推定演算部12aは、GNSS受信機13で受信した測位信号に基づき自車両Mの位置座標を取得し、この位置座標をルート地図情報上にマップマッチングして、道路地図上の自車位置(現在地)を推定すると共に走行車線を特定し、ルート地図情報に記憶されている走行車線の道路形状を取得し、逐次記憶させる。 The own vehicle position estimation calculation unit 12a acquires the position coordinates of the own vehicle M based on the positioning signal received by the GNSS receiver 13, map-matches the position coordinates on the route map information, and displays the position coordinates of the own vehicle on the road map. The position (current location) is estimated, the driving lane is specified, and the road shape of the driving lane stored in the route map information is acquired and stored sequentially.

更に、自車位置推定演算部12aは、トンネル内走行等のようにGNSS受信機13の感度低下により測位衛星からの有効な測位信号を受信することができない環境では、自律航法に切換え、自律走行センサ14によりローカライゼーションを行う。 Furthermore, the vehicle position estimation calculation unit 12a switches to autonomous navigation in an environment in which it is not possible to receive an effective positioning signal from the positioning satellite due to a decrease in the sensitivity of the GNSS receiver 13, such as when traveling in a tunnel. Localization is performed by the sensor 14 .

目標進行路設定演算部12cは、先ず、地図情報取得部12bでマップマッチングした現在位置を基準に自車両Mを区画線に沿って自動走行させるための目標進行路を設定する。又、運転者が目的地を入力している場合は、現在地と目的地とを結ぶ走行ルートに沿って目標進行路が設定される。この目標進行路は、自車両Mの前方、数百メートル~数キロ先まで設定され、走行時において逐次更新される。この目標進行路設定演算部12cで設定した目標進行路は車両制御ユニット26で読込まれる。 The target travel route setting calculation unit 12c first sets a target travel route for automatically driving the own vehicle M along the lane markings based on the current position map-matched by the map information acquisition unit 12b. Also, when the driver inputs the destination, the target travel route is set along the travel route connecting the current location and the destination. This target traveling route is set from several hundred meters to several kilometers in front of the host vehicle M, and is updated as the vehicle travels. The vehicle control unit 26 reads the target traveling route set by the target traveling route setting calculation section 12c.

一方、ステレオカメラ装置21は、自車両Mの前方を撮像する撮像手段としてのカメラ部22、画像処理ユニット(IPU)23、カメラ画像選択手段としてのカメラ画像選択部24、及び走行環境認識手段としての前方走行環境認識部25を備えている。カメラ部22は、同一仕様の第1~第4カメラ22a~22dを備えており、図2に示すように、自車両Mの車室内前部のフロントガラスに近接する上部であって横方向同列の位置に固定されている。ここで、第2カメラ22b,第3カメラ22cで近距離用ステレオカメラが構成されており、又、第1カメラ22a,第4カメラ22dで遠距離用ステレオカメラが構成されている。 On the other hand, the stereo camera device 21 includes a camera section 22 as imaging means for imaging the front of the vehicle M, an image processing unit (IPU) 23, a camera image selection section 24 as camera image selection means, and a driving environment recognition means. is provided with a forward traveling environment recognition unit 25 of The camera unit 22 includes first to fourth cameras 22a to 22d of the same specifications, and as shown in FIG. position. Here, the second camera 22b and the third camera 22c constitute a short distance stereo camera, and the first camera 22a and the fourth camera 22d constitute a long distance stereo camera.

第2カメラ22bと第3カメラ22cとは車幅方向中央を挟んで左右対称な位置に配設されており、近距離基線長Lsは比較的近距離のステレオ画像(図5の撮像領域V)を取得できる値に設定されている。尚、本実施形態のステレオ画像とは、一対のカメラで撮像した左右画像のうち距離画像を取得できる領域を云う。 The second camera 22b and the third camera 22c are arranged at symmetrical positions with respect to the center in the vehicle width direction, and the short distance baseline length Ls is a relatively short distance stereo image (imaging area V in FIG. 5). is set to a value that can be obtained. Note that the stereo image in the present embodiment refers to an area from which a distance image can be obtained in the left and right images captured by a pair of cameras.

一方、第1カメラ22aと第4カメラ22dは、車幅方向中央を挟んで運転席側と助手席側の比較的離間した左右対称な位置に配設され、遠距離のステレオ画像(図5の撮像領域I)を取得できる遠距離基線長Llに設定されている。そして、この各カメラ22a~22dで撮像した画像がIPU23で所定に画像処理されて、カメラ画像選択部24へ出力される。距離を計測するために取得するステレオ画像は、近距離用ステレオカメラ22b,22c、遠距離用ステレオカメラ22a,22dの組合わせに限定されず、第1~第4カメラ22a~22dの中から一対のカメラの画像を選択することで任意に取得することができる。 On the other hand, the first camera 22a and the fourth camera 22d are arranged at symmetrical positions on the driver's seat side and the passenger's seat side with the center in the width direction of the vehicle interposed therebetween. It is set to the long-distance baseline length Ll that can acquire the imaging region I). Images picked up by the respective cameras 22 a to 22 d are subjected to predetermined image processing by the IPU 23 and output to the camera image selection section 24 . The stereo image acquired for measuring the distance is not limited to the combination of the short-range stereo cameras 22b, 22c and the long-range stereo cameras 22a, 22d. can be acquired arbitrarily by selecting the image of the camera.

カメラ画像選択部24は、IPU23から送信される各カメラ22a~22dで撮像した画像の中から、自車両Mの走行状態、及び走行環境に基づき、ステレオ画像による距離の計測を必要とする前方認識領域に対応する一対のカメラを特定する。そして、この一対のカメラで撮像した画像(ステレオ画像)を前方走行環境認識部25へ送信する。 The camera image selection unit 24 selects the images captured by the cameras 22a to 22d transmitted from the IPU 23, based on the driving state and driving environment of the own vehicle M, and the front recognition that requires distance measurement with stereo images. Identify a pair of cameras that correspond to the region. Then, the image (stereo image) captured by the pair of cameras is transmitted to the forward running environment recognition section 25 .

前方走行環境認識部25は、カメラ画像選択部24から送信されたステレオ画像(一対のカメラで撮像した画像)に基づき、左右区画線、自車両Mが走行する進行路(自車進行路)の道路形状、自車両Mの前方を走行する先行車の有無、自車両Mの直前を横切ろうとする歩行者や二輪車(自転車、自動二輪車)等の移動体を含む立体物、信号現示(点灯色)、道路標識等を認識する。そして、カメラの焦点距離、カメラ間の基線長、同一対象物の視差から、三角測量の原理を用いて当該対象物までの距離を算出する。尚、ステレオ画像に基づく対象物の認識、及び当該対象物までの距離の求め方は既に知られている技術であるため、ここでの詳細な説明は省略する。 Based on the stereo images (images captured by a pair of cameras) transmitted from the camera image selection unit 24, the forward traveling environment recognition unit 25 recognizes the left and right partition lines and the traveling route of the own vehicle M (own vehicle traveling route). Road shape, presence or absence of a preceding vehicle traveling in front of own vehicle M, three-dimensional objects including moving objects such as pedestrians and two-wheeled vehicles (bicycles, motorcycles) trying to cross in front of own vehicle M, signal appearance (lighting) color), road signs, etc. Then, from the focal length of the cameras, the baseline length between the cameras, and the parallax of the same object, the distance to the object is calculated using the principle of triangulation. Since the recognition of the object based on the stereo image and the method of obtaining the distance to the object are already known techniques, detailed description thereof will be omitted here.

自動運転制御ユニット26は、入力側に地図ロケータ演算部12の目標進行路設定演算部12c、ステレオカメラ装置21の前方走行環境認識部25が接続されている。又、この自動運転制御ユニット26の出力側に、自車両Mを目標進行路に沿って走行させる操舵制御部31、強制ブレーキにより自車両Mを減速させるブレーキ制御部32、自車両Mの車速を制御する加減速制御部33、及び警報装置34が接続されている。 The input side of the automatic driving control unit 26 is connected to the target travel route setting calculation section 12c of the map locator calculation section 12 and the forward traveling environment recognition section 25 of the stereo camera device 21 . Further, on the output side of the automatic driving control unit 26, there are a steering control unit 31 for driving the own vehicle M along the target travel route, a brake control unit 32 for decelerating the own vehicle M by forced braking, and a vehicle speed control unit 32 for controlling the speed of the own vehicle M. An acceleration/deceleration control unit 33 for control and an alarm device 34 are connected.

自動運転制御ユニット26は、操舵制御部31、ブレーキ制御部32、加減速制御部33を所定に制御して、GNSS受信機13で受信した自車位置を示す測位信号に基づき、自車両Mを目標進行路設定演算部12cで設定した道路地図上の目標進行路に沿って自動走行させる。その際、前方走行環境認識部25で認識した前方走行環境に基づき、周知の追従車間距離制御(ACC:Adaptive Cruise Control)、及び車線維持制御(ALK:Active Lane Keep)を行い、先行車が検出された場合は先行車に追従し、先行車が検出されない場合は制限速度内で走行させる。更に、自車両Mの直前を横切ろうとする移動体を検出した場合は、ブレーキ制御部32を作動させて自車両Mを停車させる。 The automatic driving control unit 26 controls the steering control unit 31, the brake control unit 32, and the acceleration/deceleration control unit 33 in a predetermined manner, and controls the own vehicle M based on the positioning signal indicating the own vehicle position received by the GNSS receiver 13. The vehicle is automatically driven along the target travel route on the road map set by the target travel route setting calculation unit 12c. At that time, based on the forward running environment recognized by the forward running environment recognition unit 25, well-known following vehicle distance control (ACC: Adaptive Cruise Control) and lane keeping control (ALK: Active Lane Keep) are performed, and the preceding vehicle is detected. If detected, the vehicle will follow the preceding vehicle, and if the preceding vehicle is not detected, the vehicle will run within the speed limit. Furthermore, when a moving object that is about to cross in front of the own vehicle M is detected, the brake control unit 32 is operated to stop the own vehicle M.

ところで、図6に示すように、カメラ部22の第1~第4カメラ22a~22dの組合わせによって、第1撮像領域~第6撮像領域のステレオ画像(距離画像)を得ることができる。尚、選択する一対のカメラとステレオ画像により得られる前方撮像領域との関係を図13に示す。 By the way, as shown in FIG. 6, by combining the first to fourth cameras 22a to 22d of the camera section 22, stereo images (distance images) of the first to sixth imaging regions can be obtained. FIG. 13 shows the relationship between the selected pair of cameras and the front imaging area obtained from the stereo image.

そして、基線長を短くすれば近距離の対象物までの距離を精度良く求めることができる。基線長を長くすれば遠距離の対象物までの距離を精度良く求めることができる。 If the baseline length is shortened, the distance to a short-distance object can be obtained with high accuracy. If the baseline length is lengthened, the distance to a distant object can be obtained with high accuracy.

従って、図7に示すように、最も長い遠距離基線長Llを有する第1カメラ22aと第2カメラ22dとによる第1撮像領域Iは、高速道路での高速走行時における遠距離の立体物の検出や、直進路が続く一般道路での区画線の検出等に適している。 Therefore, as shown in FIG. 7, the first imaging area I by the first camera 22a and the second camera 22d having the longest long-distance base line length Ll is an image of a long-distance three-dimensional object during high-speed driving on an expressway. It is suitable for detection and detection of lane markings on general roads with straight roads.

又、図8に示すように、第1カメラ22aと第3カメラ22cとによる第2撮像領域IIは、自車両Mの左側にやや偏倚した中距離での対象物を精度良く検出することができるため、左カーブ走行中における区画線の検出に適している。一方、図9に示すように、第2カメラ22bと第4カメラ22dとによる第3撮像領域IIIは、自車両Mの右側にやや偏倚した中距離での対象物を精度良く検出することができるため、右カーブ走行中における区画線の検出に適している。 Further, as shown in FIG. 8, the second imaging area II formed by the first camera 22a and the third camera 22c can accurately detect an object at a medium distance slightly deviated to the left side of the own vehicle M. Therefore, it is suitable for detecting lane markings while driving on a left curve. On the other hand, as shown in FIG. 9, the third imaging area III by the second camera 22b and the fourth camera 22d can accurately detect an object at a medium distance slightly deviated to the right side of the own vehicle M. Therefore, it is suitable for detecting lane markings while driving on a right curve.

更に、図10に示すように、第1カメラ22aと第2カメラ22bとによる第4撮像領域IVは、自車両Mの左側にやや偏倚した近距離での対象物を精度良く検出することができる。そのため、一般道路を低速走行している際、或いは停車状態から発進するに際し、左方向から自車両Mの直前を横切ろうとする移動体(歩行者、二輪車等)の検出に適している。 Further, as shown in FIG. 10, the fourth imaging area IV formed by the first camera 22a and the second camera 22b can accurately detect an object at a short distance slightly deviated to the left side of the own vehicle M. . Therefore, it is suitable for detecting moving bodies (pedestrians, two-wheeled vehicles, etc.) that try to cross in front of the own vehicle M from the left when traveling at low speed on a general road or starting from a stopped state.

又、図11に示すように、最も短い近距離基線長Lsを有する第2カメラ22bと第3カメラ22cとによる第5撮像領域Vは、通常走行時における近距離の立体物、区画線等の検出に適している。更に、図12に示すように、第3カメラ22cと第4カメラ22dとによる第6撮像領域VIは、自車両Mの右側にやや偏倚した近距離での対象物を精度良く検出することができる。そのため、一般道路を低速走行している際、或いは停車状態から発進するに際し、右方向から自車両Mの直前を横切ろうとする移動体(歩行者、二輪車等)の検出に適している。 Further, as shown in FIG. 11, the fifth imaging region V by the second camera 22b and the third camera 22c having the shortest short-distance base line length Ls is a short-distance three-dimensional object, lane markings, etc. during normal running. Suitable for detection. Further, as shown in FIG. 12, the sixth imaging area VI formed by the third camera 22c and the fourth camera 22d can accurately detect an object at a short distance slightly deviated to the right side of the host vehicle M. . Therefore, it is suitable for detecting moving objects (pedestrians, two-wheeled vehicles, etc.) that try to cross in front of the own vehicle M from the right direction when traveling at low speed on a general road or starting from a stopped state.

ところで、本実施形態のようにカメラ部22がフロントガラスの車室内側に近接した状態で配置されている場合、フロントガラスに雨滴、雪、泥はね、鳥の糞等が付着して汚れた場合、各カメラ22a~22dの視界が妨げられる。一対のカメラで撮像した画像から対象物までの距離を算出しようとする場合、一方のカメラの視界が妨げられると、対象物までの距離を求めることはできない。同様に、一方のカメラが不調となった場合も対象物までの距離を求めることはできない。 By the way, when the camera unit 22 is arranged close to the inside of the vehicle interior of the windshield as in the present embodiment, raindrops, snow, mud splashes, bird droppings, etc. adhere to the windshield and make it dirty. In this case, the field of view of each camera 22a-22d is obstructed. When trying to calculate the distance to an object from images captured by a pair of cameras, if the field of view of one camera is obstructed, the distance to the object cannot be calculated. Likewise, if one camera fails, the distance to the object cannot be determined.

そのため、上述したカメラ画像選択部24は、視界の妨げにより、或いは不調によりカメラの画像が失陥した場合、先ず、失陥しているカメラを特定し、これに対応する代替カメラを選択し、正常なカメラと代替カメラとで撮像された画像を前方走行環境認識部25へ出力する。 Therefore, when the image of the camera is damaged due to the obstruction of the field of view or due to malfunction, the camera image selection unit 24 described above first identifies the defective camera, selects the corresponding substitute camera, The images captured by the normal camera and the substitute camera are output to the forward running environment recognition section 25 .

カメラ画像選択部24によるカメラ画像選択処理は、具体的には、図3、図4に示すカメラ画像選択処理ルーチンに従って実行される。このルーチンでは、先ず、ステップS1,S2で、自車両Mの走行情報を取得する。すなわち、ステップS1では、自車両Mの走行状態情報を読込む。走行状態情報は自律走行センサ14を構成する車速センサで検出した車速、ヨーレートセンサで検出したヨーレート(ヨー角速度)、及び前後加速度センサで検出した前後加速度である。 Specifically, camera image selection processing by the camera image selection unit 24 is executed according to a camera image selection processing routine shown in FIGS. In this routine, first, the travel information of the own vehicle M is acquired in steps S1 and S2. That is, in step S1, the running state information of own vehicle M is read. The traveling state information is the vehicle speed detected by the vehicle speed sensor constituting the autonomous traveling sensor 14, the yaw rate (yaw angular velocity) detected by the yaw rate sensor, and the longitudinal acceleration detected by the longitudinal acceleration sensor.

又、ステップS2では、地図ロケータ演算部12の地図情報取得部12bで取得した自車両Mの現在地周辺、及び前方周辺の周辺環境情報を読込む。この周辺環境情報には、上述したように静的な位置情報と動的な位置情報とが含まれている。従って、自律走行センサ14及び地図ロケータ演算部12は、本発明の走行情報取得手段としての機能を備えている。 Further, in step S2, the surrounding environment information around the current location of the host vehicle M acquired by the map information acquiring section 12b of the map locator computing section 12 and around the front is read. This surrounding environment information includes static position information and dynamic position information as described above. Therefore, the autonomous travel sensor 14 and the map locator calculation unit 12 have the function of travel information acquisition means of the present invention.

そして、ステップS3で、自車両Mの走行状態情報、及び自車両Mが走行している道路及びその周辺の環境情報に基づき、必要なステレオ画像を取得する撮像領域を選択する。例えば、周辺環境情報で高速道路の走行と判定され渋滞情報もなく、車速が高速(例えば、80[Km/h]以上)の場合は、最も長い遠距離基線長Llの遠距離用ステレオカメラ22a,22dによる第1撮像領域I(図5、図7)を選択する。一方、高速道路を走行中であっても、車速が中低速(例えば、10~40[Km/h]程度)のノロノロ運転、或いは直前の先行車Pを追従走行している場合は、最も短い近距離基線長Lsの近距離用ステレオカメラ22b,22cによる第5撮像領域(図5、図11参照)を選択する。尚、他の好適な例は既述したので省略する。 Then, in step S3, based on the driving state information of the own vehicle M and the environment information of the road on which the own vehicle M is traveling and its surroundings, an imaging area for acquiring the required stereo image is selected. For example, when it is determined that the vehicle is traveling on a highway in the surrounding environment information, there is no traffic information, and the vehicle speed is high (e.g., 80 [Km/h] or more), the long-distance stereo camera 22a with the longest long-distance baseline length Ll , 22d (FIGS. 5, 7). On the other hand, even when traveling on a highway, the shortest is when the vehicle speed is medium to low speed (for example, about 10 to 40 [Km/h]), or when following the preceding vehicle P immediately before. A fifth imaging region (see FIGS. 5 and 11) by the short-range stereo cameras 22b and 22c having the short-range baseline length Ls is selected. Since other preferred examples have already been described, they are omitted.

このように、走行状態、及び走行環境に応じて、第1~第4カメラ22a~22d中から2つのカメラを選択することで、図6~図12に示すように第1~第6撮像領域I~VIにてステレオ画像を得ることができる。尚、上述したステップS3では、自車両Mの走行状態情報と周辺の環境情報との一方に基づいて撮像領域を選択するようにしても良い。 In this way, by selecting two cameras from among the first to fourth cameras 22a to 22d according to the driving state and the driving environment, the first to sixth imaging regions are shown in FIGS. Stereo images can be obtained at I-VI. In step S3 described above, the imaging region may be selected based on one of the driving state information of the own vehicle M and the surrounding environment information.

その後、ステップS4へ進み、選択した撮像領域に対応する一対のカメラで撮像したステレオ画像を取得し、ステップS5へ進み、ステレオ画像のステレオマッチング処理を行う。このステレオマッチング処理は周知であるため、ここでの説明は省略する。 After that, the process proceeds to step S4 to obtain a stereo image captured by a pair of cameras corresponding to the selected imaging area, and the process proceeds to step S5 to perform stereo matching processing of the stereo image. Since this stereo matching processing is well known, the description thereof is omitted here.

その後、ステップS6へ進み、ステレオ画像のマッチング処理において、左右画像で対応する区画の画像に不一致画像があるか否かを調べる。尚、ステップS5,S6での処理が、本発明のカメラ失陥判定手段に対応している。 After that, in step S6, it is checked whether or not there is a non-matching image in the image of the corresponding section in the left and right images in the stereo image matching process. It should be noted that the processing in steps S5 and S6 corresponds to the camera failure determination means of the present invention.

そして、不一致画像が検出されない場合は、正常と判定し、ステップS7へ進み、今回のステレオ画像を前方走行環境認識部25へ送信してルーチンを抜ける。一方、ステップS6において不一致画像が検出された場合は失陥と判定し、ステップS8へジャンプする。 If no non-matching image is detected, it is determined to be normal, the process proceeds to step S7, the current stereo image is transmitted to the forward running environment recognition section 25, and the routine exits. On the other hand, if a non-matching image is detected in step S6, it is determined as a failure, and the process jumps to step S8.

ステップS8へ進むと失陥しているカメラを特定する。ステレオカメラ(一対のカメラ)では、カメラ自体の故障であれば、カメラ画像選択部24に画像信号が送信されないため、故障しているカメラを簡単に特定することができる。しかし、フロントガラスやカメラレンズの汚れ等により一部がマスクされた状態で撮像された場合、或いはフロントガラスに付着した雨滴によりボヤけた状態で撮像された場合、両カメラで撮像したステレオ画像を比較しても、何れのカメラに失陥が発生しているかを判別することができない。 Proceeding to step S8, the defective camera is identified. In the case of a stereo camera (a pair of cameras), if the camera itself is out of order, no image signal is sent to the camera image selection unit 24, so the malfunctioning camera can be easily identified. However, if the image is partially masked due to dirt on the windshield or camera lens, or if the image is blurred due to raindrops adhering to the windshield, the stereo images captured by both cameras will be compared. However, it is not possible to determine which camera is defective.

従って、ステップS8では、上述のステップS3で選択したカメラを含む他の組合わせを、一対ずつ選択し、それぞれに対して上述のステップS5と同様にステレオマッチングし、失陥しているカメラを特定する。すなわち、図13に示すように、第1カメラ22aが失陥した場合、第1、第2、第4撮像領域I,II,IVのステレオ画像を取得することができない。第2カメラ22bが失陥した場合、第3~第5撮像領域III~Vのステレオ画像を取得することができない。第3カメラ22cが失陥した場合、第2、第5、第6撮像領域II,V,VIのステレオ画像を取得することができない。又、第4カメラ22dが失陥した場合、第1、第3、第6撮像領域I,III,VIのステレオ画像を取得することができない。 Therefore, in step S8, other combinations including the camera selected in step S3 are selected one by one, stereo matching is performed on each pair in the same manner as in step S5, and the defective camera is identified. do. That is, as shown in FIG. 13, when the first camera 22a fails, the stereo images of the first, second and fourth imaging areas I, II and IV cannot be obtained. If the second camera 22b fails, stereo images of the third to fifth imaging areas III to V cannot be acquired. If the third camera 22c fails, the stereo images of the second, fifth and sixth imaging areas II, V and VI cannot be obtained. Also, if the fourth camera 22d fails, the stereo images of the first, third and sixth imaging areas I, III and VI cannot be acquired.

そのため、一対のカメラによるステレオ画像に失陥を検出した場合、先ず、この一対のカメラの一方と他カメラとの組合わせからステレオ画像を個別に取得する。そして、取得した各ステレオ画像に対してステレオマッチング処理を行い、何れの一対のカメラ(ステレオカメラ)で不一致画像が検出されたかを調べることで、失陥しているカメラを特定する。この場合、遠距離よりも近距離の画像の方が鮮明であるため、なるべく近距離側の撮像領域の組合わせを選択する。 Therefore, when a defect is detected in a stereo image by a pair of cameras, first, a stereo image is individually obtained from a combination of one of the pair of cameras and the other camera. Then, stereo matching processing is performed on each of the acquired stereo images, and by checking in which pair of cameras (stereo cameras) the inconsistent image is detected, the defective camera is specified. In this case, since an image at a short distance is clearer than an image at a long distance, a combination of imaging areas on the short distance side is selected as much as possible.

具体的な組合わせを図15に示す。すなわち、第1撮像領域Iのステレオ画像が失陥した場合は、第4、第6撮像領域IV,VIのステレオ画像を取得してステレオマッチング処理を行い、第1,第4カメラ22a,22dの何れが失陥したかを特定する。又、第2撮像領域IIのステレオ画像が失陥した場合は、第4、第5撮像領域IV,Vのステレオ画像を取得してステレオマッチング処理を行い、第1,第3カメラ22a,22cの何れが失陥したかを特定する。更に、第3撮像領域IIIのステレオ画像が失陥した場合は、第5、第6撮像領域V,VIのステレオ画像を取得してステレオマッチング処理を行い、第2、第4カメラ22b,22dの何れが失陥したかを特定する。 A specific combination is shown in FIG. That is, when the stereo image of the first imaging area I is defective, the stereo images of the fourth and sixth imaging areas IV and VI are acquired and stereo matching processing is performed, and the images of the first and fourth cameras 22a and 22d are obtained. Identify what went wrong. Further, when the stereo image of the second imaging area II is defective, the stereo images of the fourth and fifth imaging areas IV and V are acquired and stereo matching processing is performed, and the images of the first and third cameras 22a and 22c are obtained. Identify what went wrong. Furthermore, when the stereo image of the third imaging region III is defective, the stereo images of the fifth and sixth imaging regions V and VI are acquired and stereo matching processing is performed, and the images of the second and fourth cameras 22b and 22d are obtained. Identify what went wrong.

一方、第4撮像領域IVのステレオ画像が失陥した場合は、第2、第5撮像領域II,Vのステレオ画像を取得してステレオマッチング処理を行い、第1、第2カメラ22a,22bの何れが失陥したかを特定する。更に、第5撮像領域Vのステレオ画像が失陥した場合は、第4、第6撮像領域IV,VIのステレオ画像を取得してステレオマッチング処理を行い、第2、第3カメラ22b,22cの何れが失陥したかを特定する。又、第6撮像領域VIのステレオ画像が失陥した場合は、第3、第5撮像領域III,Vのステレオ画像を取得してステレオマッチング処理を行い、第3、第4カメラ22c,22dの何れが失陥したかを特定する。 On the other hand, when the stereo image of the fourth imaging area IV is defective, the stereo images of the second and fifth imaging areas II and V are acquired and stereo matching processing is performed, and the images of the first and second cameras 22a and 22b are obtained. Identify what went wrong. Furthermore, when the stereo image of the fifth imaging region V is defective, the stereo images of the fourth and sixth imaging regions IV and VI are acquired and stereo matching processing is performed, and the images of the second and third cameras 22b and 22c Identify what went wrong. Further, when the stereo image of the sixth imaging area VI is defective, the stereo images of the third and fifth imaging areas III and V are acquired and stereo matching processing is performed, and the images of the third and fourth cameras 22c and 22d are obtained. Identify what went wrong.

そして、ステップS8において失陥したカメラを特定した後、ステップS9へ進み、失陥したカメラに代えて適用するカメラによる代替撮像領域、及び代替単眼カメラを設定する。図14に示すように、正常時の撮像領域にて使用する一対のカメラの一方が失陥した場合、遠距離側の第1~第3撮像領域I~IIIでは当該撮像領域に最も近い撮像領域を代替撮像領域として選択する。これに対し、近距離側の第4~第6撮像領域IV~VIを撮像するカメラが失陥した場合、代替撮像領域では、直前の先行車や自車両Mの直前を横切ろうとする移動体(歩行者、二輪車等)までの距離を認識することができなくなる。 Then, after identifying the failed camera in step S8, the process proceeds to step S9 to set a substitute imaging area and a substitute monocular camera by a camera to be applied in place of the failed camera. As shown in FIG. 14, when one of the pair of cameras used in the normal imaging area fails, the first to third imaging areas I to III on the long-distance side are closest to the imaging area. is selected as the alternative imaging region. On the other hand, if the camera that captures the fourth to sixth imaging areas IV to VI on the short distance side fails, the alternative imaging area will be replaced by a moving object that is about to cross the immediately preceding preceding vehicle or the own vehicle M. (Pedestrians, motorcycles, etc.) will not be able to recognize the distance.

そのため、第4~第6撮像領域IV~VIにおいて、一方のカメラが失陥した場合は処理を中断(HALT)させるようにしても良いが、以下の説明では、失陥していない側のカメラを代替単眼カメラとして選択する態様で説明する。従って、この場合、送信する画像は単眼画像となる。 Therefore, in the fourth to sixth imaging areas IV to VI, if one of the cameras fails, the process may be interrupted (HALT). is selected as an alternative monocular camera. Therefore, in this case, the image to be transmitted is a monocular image.

[第1撮像領域I]
第1カメラ22aが失陥した場合、第1撮像領域Iに最も近く、且つ第4カメラ22dを使用する第3撮像領域IIIを代替撮像領域として選択する。又、第4カメラ22dが失陥した場合は、第1撮像領域Iに最も近く、且つ第1カメラ22aを使用する第2撮像領域IIを代替撮像領域として選択する。
[First imaging area I]
If the first camera 22a fails, the third imaging area III closest to the first imaging area I and using the fourth camera 22d is selected as an alternative imaging area. Also, if the fourth camera 22d fails, the second imaging area II closest to the first imaging area I and using the first camera 22a is selected as an alternative imaging area.

[第2撮像領域II]
第1カメラ22aが失陥した場合、第2撮像領域IIに最も近く、且つ第3カメラ22cを使用する第5撮像領域Vを代替撮像領域として選択する。又、第3カメラ22cが失陥した場合は、第2撮像領域IIに最も近く、且つ第1カメラ22aを使用する第4撮像領域IVを代替撮像領域として選択する。
[Second imaging area II]
If the first camera 22a fails, the fifth imaging area V closest to the second imaging area II and using the third camera 22c is selected as an alternative imaging area. Also, when the third camera 22c fails, the fourth imaging area IV closest to the second imaging area II and using the first camera 22a is selected as an alternative imaging area.

[第3撮像領域III]
第2カメラ22bが失陥した場合、第3撮像領域IIIに最も近く、且つ第4カメラ22dを使用する第4撮像領域IVを代替撮像領域として選択する。又、第4カメラ22dが失陥した場合は、第3撮像領域IIIに最も近く、且つ第2カメラ22bを使用する第5撮像領域Vを代替撮像領域として選択する。
[Third imaging area III]
If the second camera 22b fails, the fourth imaging area IV closest to the third imaging area III and using the fourth camera 22d is selected as an alternative imaging area. Also, if the fourth camera 22d fails, the fifth imaging area V closest to the third imaging area III and using the second camera 22b is selected as an alternative imaging area.

[第4撮像領域IV]
第1カメラ22aが失陥した場合、正常な第2カメラ22bを代替単眼カメラとして選択する。逆に、第2カメラ22bが失陥した場合は、第1カメラ22aを代替単眼カメラとして選択する。
[Fourth imaging area IV]
If the first camera 22a fails, the normal second camera 22b is selected as a substitute monocular camera. Conversely, if the second camera 22b fails, the first camera 22a is selected as an alternative monocular camera.

[第5撮像領域V]
第2カメラ22bが失陥した場合、正常な第3カメラ22cを代替単眼カメラとして選択する。逆に、第3カメラ22cが失陥した場合は、第2カメラ22bを代替単眼カメラとして選択する。
[Fifth imaging area V]
If the second camera 22b fails, the normal third camera 22c is selected as a substitute monocular camera. Conversely, if the third camera 22c fails, the second camera 22b is selected as an alternative monocular camera.

[第6撮像領域VI]
第3カメラ22cが失陥した場合、正常な第4カメラ22dを代替単眼カメラとして選択する。逆に、第4カメラ22dが失陥した場合は、第3カメラ22cを代替単眼カメラとして選択する。
[Sixth imaging area VI]
If the third camera 22c fails, the normal fourth camera 22d is selected as an alternative monocular camera. Conversely, if the fourth camera 22d fails, the third camera 22c is selected as an alternative monocular camera.

次いで、ステップS10ヘ進み、選択したのは代替撮像領域か代替単眼カメラかを調べ、代替撮像領域の場合はステップS11へ進む。又、代替単眼カメラの場合はステップS12へジャンプする。 Next, the process proceeds to step S10 to check whether the selected alternative imaging area or an alternative monocular camera is selected. If the alternative imaging area is selected, the process advances to step S11. Also, in the case of the alternative monocular camera, the process jumps to step S12.

ステップS11へ進むと、選択した代替撮像領域に対応する一対のカメラで撮像したステレオ画像を取得してステップS13へ進む。又、ステップS12へ進むと、選択した代替の単眼カメラで撮像した単眼画像を取得してステップS13へ進む。尚、ステップS8~S12での処理が、本発明の代替画像取得手段に対応している。 When proceeding to step S11, a stereo image captured by a pair of cameras corresponding to the selected alternative imaging area is acquired, and the process proceeds to step S13. Further, when proceeding to step S12, a monocular image captured by the selected alternative monocular camera is acquired, and the process proceeds to step S13. It should be noted that the processing in steps S8 to S12 corresponds to the substitute image obtaining means of the present invention.

その後、ステップS11或いはステップS12からステップS13へ進むと、今回のステレオ画像、或いは単眼画像を、失陥したステレオ画像に代えて前方走行環境認識部25へ送信してルーチンを抜ける。尚、カメラの失陥が一時的なものであれば、当該失陥が回復した場合、ステップS6からステップS7へ進み、ステップS4で取得したステレオ画像を送信する。 After that, when proceeding from step S11 or step S12 to step S13, the current stereo image or monocular image is sent to the forward running environment recognition unit 25 in place of the defective stereo image, and the routine is exited. If the malfunction of the camera is temporary, when the malfunction is recovered, the process proceeds from step S6 to step S7, and the stereo image acquired in step S4 is transmitted.

前方走行環境認識部25は、カメラ画像選択部24から送信されたステレオ画像、或いは単眼画像を読込む。そして、ステレオ画像からその視差に基づいて両画像中の同一対象物を認識すると共に、その距離データ(自車両Mから対象物までの距離)を、三角測量の原理を利用して算出し、これらを前方走行環境情報として認識する。一方、単眼画像からは対象物を認識すると共に、今回認識した対象物と、前回の演算時に認識した同一対象物との大きさの変化から当該対象物までの距離を算出し、これらを前方走行環境情報として認識する。 The forward traveling environment recognition unit 25 reads the stereo image or the monocular image transmitted from the camera image selection unit 24 . Then, the same object in both images is recognized based on the parallax from the stereo image, and the distance data (the distance from the own vehicle M to the object) is calculated using the principle of triangulation. is recognized as forward running environment information. On the other hand, in addition to recognizing the object from the monocular image, the distance to the object is calculated from the change in size between the object recognized this time and the same object recognized in the previous calculation, and these are then moved forward. Recognize as environmental information.

自動運転制御ユニット26は、前方走行環境認識部25で認識した前方走行環境情報に基づき、自車両Mを左右区画線の中央に沿って走行させるべく操舵制御部31へ制御信号を送信する。又、直前を走行する先行車Pを認識した場合は、当該先行車Pに対して所定車間距離を開けて走行させるべく、ブレーキ制御部32及び加減速制御部33へ制御信号を送信する。 Based on the forward running environment information recognized by the forward running environment recognition unit 25, the automatic driving control unit 26 transmits a control signal to the steering control unit 31 so that the host vehicle M runs along the center of the left and right lane markings. Further, when the preceding vehicle P traveling immediately ahead is recognized, a control signal is transmitted to the brake control section 32 and the acceleration/deceleration control section 33 so as to allow the preceding vehicle P to travel with a predetermined inter-vehicle distance.

又、ステレオカメラ装置21のカメラ画像選択部24においてカメラの失陥が検出された場合は、警報装置34からその旨を運転者に報知し、自動運転支援の継続が困難になった場合には運転者に運転を引き継がせることができるように準備させる。又、失陥が回復した場合には、その旨を運転者に報知する。 In addition, when camera failure is detected by the camera image selection unit 24 of the stereo camera device 21, the warning device 34 notifies the driver to that effect, and when it becomes difficult to continue automatic driving support, Prepare the driver to take over driving. In addition, when the failure is recovered, the driver is notified of this fact.

このように、本実施形態では、4台のカメラ22a~22d中、1台のカメラが失陥したことにより、当該カメラを含む一対のカメラで撮像する特定の撮像領域のステレオ画像に基づく対象物までの距離情報が継続的に継続できなくなった場合であっても、正常なカメラを含む最も近い撮像領域を代替撮像領域として設定し、この代替撮像領域で撮像したステレオ画像に基づいて前方走行環境を認識するようにしたので、失陥したカメラを他のカメラで代用しても走行状態を著しく損なうことがなく、運転支援制御、自動運転支援を継続させることができる。これにより、自動運転支援が困難と判断された場合であっても、運転者に運転をスムーズに引き継がせることが可能となり、運転者に与える違和感を軽減させることができる。 As described above, in the present embodiment, when one of the four cameras 22a to 22d fails, an object based on a stereo image of a specific imaging area captured by a pair of cameras including the camera is detected. Even if the distance information to the vehicle cannot be continuously maintained, the closest imaging area including a normal camera is set as an alternative imaging area, and the forward driving environment is based on the stereo image captured in this alternative imaging area. Therefore, even if the camera that has failed is replaced with another camera, the driving state is not significantly impaired, and driving support control and automatic driving support can be continued. As a result, even if it is determined that automatic driving assistance is difficult, the driver can smoothly take over the driving, and the sense of discomfort given to the driver can be reduced.

又、一対のカメラの何れが失陥しているかを、当該一対のカメラの一方を含む他の撮像領域を撮像したステレオ画像に基づいて特定するようにしたので、走行中に失陥しているカメラを特定することができる。従って、自車両Mを停車させて失陥したカメラを調べる必要がなく高い利便性を得ることができる。更に、走行中に失陥から回復した場合は自動運転支援を継続させることができるため、より高い利便性を得ることができる。 Further, which one of the pair of cameras is defective is specified based on the stereo image obtained by capturing the other imaging area including one of the pair of cameras, so that the malfunction occurs during running. A camera can be identified. Therefore, it is not necessary to stop the own vehicle M to check the failed camera, and high convenience can be obtained. Furthermore, since the automatic driving support can be continued when the failure is recovered during driving, higher convenience can be obtained.

尚、本発明は、上述した実施形態に限るものではなく、例えばカメラ部22は5台以上のカメラで構成されていても良く、それらの中の一対のカメラの組合わせにより、撮像領域を設定するようにしても良い。又、カメラ部22は自車両Mの前方のみならず、後方を含む外方の走行環境を撮像するものであれば良い。従って、カメラ部22を自車両Mのリヤガラスの室内側に配置して後方の走行環境を撮像しても良く、この場合、前方走行環境認識部25は、後方走行環境認識部25と読み替えて適用する。 The present invention is not limited to the above-described embodiment. For example, the camera section 22 may be composed of five or more cameras, and the imaging area is set by combining a pair of cameras among them. You can make it work. Further, the camera unit 22 may take images of not only the front of the own vehicle M but also the outside traveling environment including the rear. Therefore, the camera unit 22 may be arranged on the indoor side of the rear glass of the vehicle M to capture the rear running environment. do.

1…自動運転支援システム、
11…ロケータユニット、
12…地図ロケータ演算部、
12a…自車位置推定演算部、
12b…地図情報取得部、
12c…目標進行路設定演算部、
13…GNSS受信機、
14…自律走行センサ、
16…高精度道路地図データベース、
21…ステレオカメラ装置、
22…カメラ部、
22a~22d…第1~第4カメラ、
24…カメラ画像選択部、
25…前方走行環境認識部、
26…自動運転制御ユニット、
26…車両制御ユニット、
26…自動運転制御ユニット、
31…操舵制御部、
32…ブレーキ制御部、
33…加減速制御部、
34…警報装置、
Ll…遠距離基線長、
Ls…近距離基線長、
M…自車両、
P…先行車、
I~VI…第1~第6撮像領域
1... automatic driving support system,
11... Locator unit,
12 ... map locator calculation unit,
12a ... own vehicle position estimation calculation unit,
12b ... map information acquisition unit,
12c ... target course setting calculation unit,
13 ... GNSS receiver,
14... Autonomous traveling sensor,
16... high-precision road map database,
21... Stereo camera device,
22... camera section,
22a to 22d... first to fourth cameras,
24... Camera image selection unit,
25 ... forward running environment recognition unit,
26 ... automatic operation control unit,
26... vehicle control unit,
26 ... automatic operation control unit,
31 ... steering control section,
32 ... brake control section,
33 Acceleration/deceleration control unit,
34 ... alarm device,
Ll: long-distance baseline length,
Ls: short-range baseline length,
M... own vehicle,
P... Leading vehicle,
I to VI: 1st to 6th imaging areas

Claims (6)

自車両の走行情報を取得する走行情報取得手段と、
前記自車両に所定基線長で配置されて前記自車両の外方を撮像する、少なくとも遠距離用の一対のカメラと近距離用の一対のカメラを有する撮像手段と、
前記走行情報取得手段で取得した前記走行情報に基づき、前記撮像手段の前記遠距離用の一対のカメラと前記近距離用の一対のカメラとの一方を選択し、選択した該一対のカメラによる撮像領域のステレオ画像を取得するカメラ画像選択手段と、
前記カメラ画像選択手段で選択した前記遠距離用の一対のカメラと前記近距離用の一対のカメラとの一方からのステレオ画像に基づいて前記自車両の外方の走行環境を認識する走行環境認識手段と
を有する車両用ステレオカメラ装置において、
前記カメラ画像選択手段は、
選択した前記一対のカメラから取得したステレオ画像をステレオマッチング処理して画像が失陥しているか否かを調べるカメラ失陥判定手段と、
前記カメラ失陥判定手段で画像が失陥していると判定した場合、選択したのは前記遠距離用の一対のカメラか前記近距離用の一対のカメラかを調べ、該遠距離用の一対のカメラの一方が失陥していると判定した場合は失陥しているカメラに対する代替カメラを、選択した前記一対のカメラ以外のカメラから選択し該代替カメラと前記一対のカメラ内の正常なカメラとによる代替撮像領域のステレオ画像を取得し、前記近距離用の一対のカメラの一方が失陥していると判定した場合は該近距離用の一対のカメラの正常なカメラにより撮像した画像を単眼画像として取得する代替画像取得手段と
を備えることを特徴とする車両用ステレオカメラ装置。
a travel information acquiring means for acquiring travel information of the own vehicle;
an imaging means having at least a pair of long-distance cameras and a pair of short-distance cameras arranged on the own vehicle at a predetermined base line length to pick up images of the outside of the own vehicle;
One of the pair of long-distance cameras and the pair of short-distance cameras of the imaging means is selected based on the travel information acquired by the travel information acquisition means, and an image is captured by the selected pair of cameras. camera image selection means for acquiring stereo images of a region;
Driving environment recognition for recognizing the driving environment outside the own vehicle based on a stereo image from one of the pair of long-distance cameras and the pair of short-distance cameras selected by the camera image selection means. In a vehicle stereo camera device having means,
The camera image selection means is
camera failure determination means for performing stereo matching processing on the stereo images acquired from the selected pair of cameras to determine whether or not the images are defective;
When the camera defect determination means determines that the image is defective, it is checked whether the pair of cameras for long distance or the pair of cameras for short distance has been selected, and the pair of cameras for long distance is checked. When it is determined that one of the cameras is defective, a substitute camera for the malfunctioning camera is selected from cameras other than the selected pair of cameras, and the normal state of the substitute camera and the pair of cameras is determined. When it is determined that one of the pair of short-distance cameras is defective, the image is taken by the normal camera of the pair of short-distance cameras. A stereo camera device for a vehicle, comprising a substitute image acquiring means for acquiring an image as a monocular image .
前記走行情報取得手段で取得する前記走行情報は、前記自車両の走行状態情報であることを特徴とする請求項1記載の車両用ステレオカメラ装置。 2. The vehicle stereo camera apparatus according to claim 1, wherein the running information acquired by the running information acquiring means is running state information of the own vehicle. 前記走行情報取得手段で取得する前記走行情報は、前記自車両周辺の環境情報である
ことを特徴とする請求項1記載の車両用ステレオカメラ装置。
2. The vehicle stereo camera apparatus according to claim 1, wherein the traveling information acquired by the traveling information acquiring means is environment information around the own vehicle.
前記走行情報取得手段で取得する前記走行情報は、前記自車両の走行状態情報と前記自車両周辺の環境情報との双方である
ことを特徴とする請求項1記載の車両用ステレオカメラ装置。
2. The vehicle stereo camera device according to claim 1, wherein the running information acquired by said running information acquiring means is both the running state information of said own vehicle and the environment information around said own vehicle.
前記代替画像取得手段は、前記カメラ失陥判定手段で画像が失陥していると判定した場合、選択した前記一対のカメラが別々に含まれる他の組合わせを新たに一対ずつ選択し、該各一対のカメラから取得したステレオ画像をそれぞれステレオマッチング処理して画像が失陥しているカメラを特定する
ことを特徴とする請求項1~4の何れか1項に記載の車両用ステレオカメラ装置。
When the camera failure determination means determines that the image is defective, the substitute image acquisition means newly selects another pair of combinations separately including the selected pair of cameras. 4. The vehicle stereo according to any one of claims 1 to 4, wherein the stereo images obtained from each pair of cameras are subjected to stereo matching processing to identify the camera with the image defect. camera equipment.
前記代替画像取得手段は、前記撮像領域に最も近い撮像領域を前記代替撮像領域として設定する
ことを特徴とする請求項1~5の何れか1項に記載の車両用ステレオカメラ装置。
6. The vehicle stereo camera apparatus according to claim 1, wherein the alternative image acquisition means sets an imaging area closest to the imaging area as the alternative imaging area.
JP2018184742A 2018-09-28 2018-09-28 Vehicle stereo camera device Active JP7202123B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018184742A JP7202123B2 (en) 2018-09-28 2018-09-28 Vehicle stereo camera device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018184742A JP7202123B2 (en) 2018-09-28 2018-09-28 Vehicle stereo camera device

Publications (2)

Publication Number Publication Date
JP2020052018A JP2020052018A (en) 2020-04-02
JP7202123B2 true JP7202123B2 (en) 2023-01-11

Family

ID=69996799

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018184742A Active JP7202123B2 (en) 2018-09-28 2018-09-28 Vehicle stereo camera device

Country Status (1)

Country Link
JP (1) JP7202123B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102499116B1 (en) * 2021-06-28 2023-02-16 경희대학교 산학협력단 Apparatus and method for adjusting the angle of a mirror camera of a vehicle

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008196891A (en) 2007-02-09 2008-08-28 Mitsubishi Precision Co Ltd Multi-eye camera
JP2018115878A (en) 2017-01-16 2018-07-26 キヤノン株式会社 Measuring apparatus, system and product manufacturing method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07225892A (en) * 1994-02-09 1995-08-22 Fuji Heavy Ind Ltd Vehicle traveling controller
JPH11108660A (en) * 1997-10-03 1999-04-23 Kansei Corp Equipment for detecting distance

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008196891A (en) 2007-02-09 2008-08-28 Mitsubishi Precision Co Ltd Multi-eye camera
JP2018115878A (en) 2017-01-16 2018-07-26 キヤノン株式会社 Measuring apparatus, system and product manufacturing method

Also Published As

Publication number Publication date
JP2020052018A (en) 2020-04-02

Similar Documents

Publication Publication Date Title
KR101901024B1 (en) Map update determination system
JP6443545B2 (en) Parking lot mapping system
US10964217B2 (en) Travel control method and travel control apparatus
CN110632917A (en) Automatic driving assistance system
WO2010035781A1 (en) Lane determining device and navigation system
JP2011013039A (en) Lane determination device and navigation system
US11498584B2 (en) Intersection start judgment device
CN102673560A (en) Method for recognizing turn-off maneuver and driver assistance system
US11538335B2 (en) Traffic control system for automatic driving vehicle
US20140244157A1 (en) Vehicle navigation system and method
US11928871B2 (en) Vehicle position estimation device and traveling position estimation method
US20200302793A1 (en) Traffic control system
JP4876147B2 (en) Lane judgment device and navigation system
US20230236037A1 (en) Systems and methods for common speed mapping and navigation
US20230106644A1 (en) Systems and methods for detecting vehicle wheel slips
CN110998685A (en) Travel obstacle detection device and vehicle navigation system
JP7165012B2 (en) Vehicle stereo camera device
US11335195B2 (en) Traffic control system
JP2017003395A (en) Vehicle positioning system
JP2022117882A (en) Automatic drive assisting system
US20220256082A1 (en) Traveling environment recognition apparatus
JP7202123B2 (en) Vehicle stereo camera device
JP2023054084A (en) Vehicle stereo camera device
AU2019210682C1 (en) Probe information processing apparatus
US20220348199A1 (en) Apparatus and method for assisting driving of vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210825

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210825

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221223

R150 Certificate of patent or registration of utility model

Ref document number: 7202123

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150