JP7202123B2 - Vehicle stereo camera device - Google Patents
Vehicle stereo camera device Download PDFInfo
- Publication number
- JP7202123B2 JP7202123B2 JP2018184742A JP2018184742A JP7202123B2 JP 7202123 B2 JP7202123 B2 JP 7202123B2 JP 2018184742 A JP2018184742 A JP 2018184742A JP 2018184742 A JP2018184742 A JP 2018184742A JP 7202123 B2 JP7202123 B2 JP 7202123B2
- Authority
- JP
- Japan
- Prior art keywords
- camera
- cameras
- vehicle
- pair
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、複数のカメラから2つのカメラを選択してステレオ画像を得るようにした車両用ステレオカメラ装置に関する。 The present invention relates to a vehicle stereo camera device that selects two cameras from a plurality of cameras to obtain a stereo image.
車両に左右一対のステレオカメラを搭載し、このステレオカメラにより自車両前方の走行環境を撮像することで、先行車や各種障害物を認識すると共に、自車両と対象物との距離を計測するステレオカメラ装置が知られている。 A stereo camera equipped with a pair of left and right stereo cameras on the vehicle that captures images of the driving environment in front of the vehicle, thereby recognizing preceding vehicles and various obstacles and measuring the distance between the vehicle and the target. Camera devices are known.
又、特許文献1(特開平11-39596号公報)には、車両に遠距離用ステレオカメラと近距離用ステレオカメラとを搭載し、両ステレオカメラで取得した走行環境情報に基づき、常時、近距離から遠距離までの広い範囲で対象物を認識すると共に、自車両との距離を求めるようにした技術が開示されている。 Further, in Patent Document 1 (Japanese Patent Application Laid-Open No. 11-39596), a vehicle is equipped with a long-distance stereo camera and a short-distance stereo camera, and based on the driving environment information acquired by both stereo cameras, a near-field image is constantly detected. A technique has been disclosed for recognizing an object in a wide range from a long distance to a long distance and determining the distance to the own vehicle.
又、特許文献2(特開2013-61317号公報)には、3台のカメラを所定間隔で配設し、低速の場合は基線長の最も短い2台のカメラを選択し、中速の場合は中間の基線長を有する2台のカメラを選択し、高速のときは最も基線長の長い2台のカメラを選択して、ステレオ画像を得るようにした技術が開示されている。 In addition, in Patent Document 2 (Japanese Patent Application Laid-Open No. 2013-61317), three cameras are arranged at a predetermined interval, and two cameras with the shortest baseline length are selected at low speed, and at medium speed discloses a technique for obtaining a stereo image by selecting two cameras having intermediate baseline lengths and selecting two cameras having the longest baseline lengths at high speed.
ところで、車両の走行環境は、晴天のみならず雨天、積雪等の悪天候もあり、フロントガラスには雨滴、雪等が付着する。又、晴天であっても泥はね、鳥の糞等の付着でフロントガラスが汚れる場合がある。上述した各特許文献に記載されているように、各カメラがフロントガラスの車室側に配置されており、フロントガラスの汚れによりカメラの視界が妨げられた場合、当該カメラによる画像は失陥する。又、カメラレンズが汚れている場合も視界が妨げられるため画像が失陥する。更に、カメラ自体の不調によっても画像の失陥は生じる。 By the way, the driving environment of a vehicle is not only fine weather, but also bad weather such as rain and snow, and raindrops, snow, etc. adhere to the windshield. In addition, even if the weather is fine, the windshield may become dirty due to splashes of mud, bird droppings, and the like. As described in each of the above-mentioned patent documents, each camera is arranged on the vehicle interior side of the windshield, and if the view of the camera is obstructed by dirt on the windshield, the image obtained by the camera will be corrupted. . Also, if the camera lens is dirty, the image will be corrupted because the field of vision will be obstructed. In addition, image defects can also occur due to malfunctions in the camera itself.
一対のカメラによってステレオ画像を取得している場合、一方のカメラの画像が失陥すると、他方のカメラでは画像が取得されており、対象物を認識することができたとしても、対象物までの距離を計測することのできるステレオ画像を取得することができなくなる。 When a stereo image is acquired by a pair of cameras, if the image of one camera fails, the image of the other camera is acquired, and even if the object can be recognized, the distance to the object cannot be achieved. It becomes impossible to acquire a stereo image from which distance can be measured.
その結果、ステレオ画像に基づいて、周知の追従車間距離制御(ACC:Adaptive Cruise Control)、及び車線維持制御(ALK:Active Lane Keep)等の運転支援制御を行っている場合は、一方のカメラによる画像が失陥することで運転支援が解除されてしまう。又、自動運転において、地図ロケータと車載カメラとで冗長系が構成されている場合、一方のカメラ画像の失陥によって冗長性が確保できなくなるため、自動運転が解除されてしまう。 As a result, based on the stereo image, when performing driving support control such as well-known following distance control (ACC: Adaptive Cruise Control) and lane keeping control (ALK: Active Lane Keep), one camera Driving support is canceled due to image failure. Also, in automatic driving, if a redundant system is configured with a map locator and an in-vehicle camera, redundancy cannot be ensured due to a defect in the image of one of the cameras, so automatic driving is canceled.
一方のカメラの失陥によって運転支援制御や自動運転が直ちに解除されてしまうことは、運転者を慌てさせることとなるばかりでなく、運転者に違和感を与えてしまう不都合がある。 Immediate cancellation of driving support control or automatic driving due to the failure of one camera not only makes the driver panic, but also gives the driver a sense of discomfort.
例えば、特許文献1に開示されているように、遠距離用ステレオカメラと近距離用ステレオカメラとが備えられており、一方のステレオカメラの片側のカメラ画像が失陥した場合には、他方のステレオカメラによって失陥したステレオカメラを代用することも考えられる。
For example, as disclosed in
しかし、近距離用ステレオカメラの機能を遠距離用ステレオカメラで代用した場合、低速、中速での走行において充分な対応を図ることができない。逆に、遠距離用ステレオカメラの機能を近距離用ステレオカメラで代用した場合、高速での走行において充分な対応を図ることができない不具合がある。 However, when the function of the short-range stereo camera is substituted by the long-range stereo camera, it is not possible to adequately cope with running at low and medium speeds. Conversely, if the function of the long-distance stereo camera is substituted with the short-distance stereo camera, there is a problem that it is not possible to sufficiently cope with high-speed running.
本発明は、上記事情に鑑み、少なくとも4台のカメラの1台が失陥した際に、他のカメラでそれを代用しても、走行状態を著しく損なうことがなく、運転支援制御や自動運転を継続させ、或いは運転者に運転をスムーズに引き継がせることが可能で、運転者に与える違和感を軽減させることのできる車両用ステレオカメラ装置を提供することを目的とする。 In view of the above circumstances, the present invention provides a method for driving support control and automatic driving without significantly impairing the driving state even if at least one of the four cameras fails, even if it is substituted with another camera. To provide a vehicular stereo camera device capable of continuing driving or allowing a driver to smoothly take over the driving, and capable of reducing discomfort given to the driver.
本発明は、自車両の走行情報を取得する走行情報取得手段と、前記自車両に所定基線長で配置されて前記自車両の外方を撮像する、少なくとも遠距離用の一対のカメラと近距離用の一対のカメラとを有する撮像手段と、前記走行情報取得手段で取得した前記走行情報に基づき、前記撮像手段の前記遠距離用の一対のカメラと前記近距離用の一対のカメラとの一方を選択し、選択した該一対のカメラによる撮像領域のステレオ画像を取得するカメラ画像選択手段と、前記カメラ画像選択手段で選択した前記遠距離用の一対のカメラと前記近距離用の一対のカメラとの一方からのステレオ画像に基づいて前記自車両の外方の走行環境を認識する走行環境認識手段とを有する車両用ステレオカメラ装置において、前記カメラ画像選択手段は、選択した前記一対のカメラから取得したステレオ画像をステレオマッチング処理して画像が失陥しているか否かを調べるカメラ失陥判定手段と、前記カメラ失陥判定手段で画像が失陥していると判定した場合、選択したのは前記遠距離用の一対のカメラか前記近距離用の一対のカメラかを調べ、該遠距離用の一対のカメラの一方が失陥していると判定した場合は失陥しているカメラに対する代替カメラを、選択した前記一対のカメラ以外のカメラから選択して該代替カメラと前記一対のカメラ内の正常なカメラとによる代替撮像領域のステレオ画像を取得し、前記近距離用の一対のカメラの一方が失陥していると判定した場合は該近距離用の一対のカメラの正常なカメラにより撮像した画像を単眼画像として取得する代替画像取得手段とを備える。 The present invention includes a driving information acquiring means for acquiring driving information of the own vehicle , a pair of cameras for at least a long distance and a short distance , which are arranged on the own vehicle at a predetermined base line length and capture an image of the outside of the own vehicle. and one of the pair of long-distance cameras and the pair of short-distance cameras of the imaging means based on the travel information acquired by the travel information acquisition device. and acquires a stereo image of the imaging area by the selected pair of cameras, and the pair of long-distance cameras and the pair of short-distance cameras selected by the camera image selection means and driving environment recognition means for recognizing the driving environment outside the vehicle based on a stereo image from one of the pair of cameras, wherein the camera image selection means selects from the selected pair of cameras camera failure determination means for performing stereo matching processing on the acquired stereo image to check whether the image is defective; and if the camera failure determination means determines that the image is defective, the selected checks whether it is the pair of long-distance cameras or the pair of short-distance cameras, and if it is determined that one of the pair of long-distance cameras is defective, A substitute camera is selected from cameras other than the selected pair of cameras, a stereo image of a substitute imaging area is acquired by the substitute camera and a normal camera in the pair of cameras, and the pair of cameras for close range is acquired. a substitute image obtaining means for obtaining, as a monocular image, an image captured by a normal camera of the pair of short-range cameras when it is determined that one of the cameras is defective .
本発明によれば、少なくとも遠距離用の一対のカメラと近距離用の一対のカメラとの一方を選択し、選択した一対のカメラから取得したステレオ画像をステレオマッチング処理して画像が失陥しているか否かを調べ、画像が失陥していると判定した場合、選択したのは遠距離用の一対のカメラか近距離用の一対のカメラかを調べ、遠距離用の一対のカメラの一方が失陥していると判定した場合は失陥しているカメラに対する代替カメラを、選択した一対のカメラ以外のカメラから選択し、この代替カメラと一対のカメラ内の正常なカメラとによる代替撮像領域のステレオ画像を取得するようにしたので、失陥したカメラを他のカメラでそれを代用しても、走行状態を著しく損なうことがなく、運転支援制御、自動運転を継続させ、或いは運転者に運転をスムーズに引き継がせることが可能となる。その結果、運転者に与える違和感を軽減させることができる。 According to the present invention, at least one of a pair of long-distance cameras and a pair of short-distance cameras is selected, and stereo matching processing is performed on stereo images acquired from the selected pair of cameras to correct image defects. If it is determined that the image is defective, it is checked whether the long-range camera pair or the short-range camera pair has been selected. If one of the cameras is determined to be defective, a substitute camera for the malfunctioning camera is selected from cameras other than the selected pair of cameras, and this substitute camera is substituted by a normal camera in the pair of cameras. Since stereo images of the imaging area are acquired, even if a camera that has failed is replaced with another camera, the driving state is not significantly impaired, and driving support control, automatic driving can be continued, or driving can be performed. It is possible to allow the driver to take over the driving smoothly. As a result, the discomfort given to the driver can be reduced.
以下、図面に基づいて本発明の一実施形態を説明する。図1に示す自動運転支援システムは、自車両M(図2参照)に搭載されている。この自動運転支援システム1は、自車位置を検出するロケータユニット11、自車両M前方の走行環境を認識するステレオカメラ装置21を有している。このロケータユニット11、及びステレオカメラ装置21は一方が不調を来した場合には、他方のユニットで自動運転支援を一時的に継続させる冗長系が構築されている。又、自動運転支援システム1は、ロケータユニット11とステレオカメラ装置21とで現在走行中の道路形状が同一か否かを常時監視し、同一の場合に自動運転支援を継続させる。
An embodiment of the present invention will be described below based on the drawings. The automatic driving support system shown in FIG. 1 is installed in the host vehicle M (see FIG. 2). This automatic
ロケータユニット11は道路地図上の自車両Mの位置(自車位置)を推定すると共に、この自車位置の前方の道路地図データを取得する。一方、ステレオカメラ装置21は自車両Mの走行車線の左右を区画する区画線の中央の道路曲率を求めると共に、この左右区画線の中央を基準とする自車両Mの車幅方向の横位置偏差を検出する。更に、このステレオカメラ装置21は、自車両Mの前方の先行車、直前を横切ろうとする歩行者や二輪車(自転車、自動二輪車)等の移動体を含む立体物、信号現示(点灯色)、道路標識等を認識する。
The
ロケータユニット11は、地図ロケータ演算部12と記憶手段としての高精度道路地図データベース16とを有している。この地図ロケータ演算部12、後述する前方走行環境認識部25、及び自動運転制御ユニット26は、CPU,RAM,ROM、不揮発性記憶部等を備える周知のマイクロコンピュータ、及びその周辺機器で構成されており、ROMにはCPUで実行するプログラムやデータテーブル等の固定データ等が予め記憶されている。
The
この地図ロケータ演算部12の入力側に、GNSS(Global Navigation Satellite System / 全球測位衛星システム)受信機13、及び自律走行センサ14が接続されている。GNSS受信機13は複数の測位衛星から発信される測位信号を受信する。又、自律走行センサ14は、トンネル内走行等GNSS衛生からの受信感度が低く測位信号を有効に受信することのできない環境において、自律走行を可能にするもので、車速センサ、ヨーレートセンサ、及び前後加速度センサ等で構成されている。すなわち、地図ロケータ演算部12は、車速センサで検出した車速、ヨーレートセンサで検出したヨーレート(ヨー角速度)、及び前後加速度センサで検出した前後加速度等に基づき移動距離と方位からローカライゼーションを行う。
A GNSS (Global Navigation Satellite System)
この地図ロケータ演算部12は、自車位置を推定する機能として自車位置推定演算部12a、推定した自車位置を道路地図上にマップマッチングして自車両Mの現在地を特定し、その周辺の環境情報を含む道路地図情報を取得する地図情報取得部12b、自車両Mの目標とする進行路(目標進行路)を設定する目標進行路設定演算部12cを備えている。
The map
又、高精度道路地図データベース16はHDD等の大容量記憶媒体であり、高精度な周知の道路地図情報(ローカルダイナミックマップ)が記憶されている。この高精度道路地図情報は、基盤とする最下層の静的情報階層上に、自動走行をサポートするために必要な付加的地図情報が重畳された階層構造をなしている。
The high-precision
上述した地図情報取得部12bは、この高精度道路地図データベース16に格納されている道路地図情報から現在地及び前方の道路地図情報を取得する。この道路地図情報には周辺環境情報が含まれている。この周辺環境情報としては、道路の種別(一般道路、高速道路等)、道路形状、左右区画線、道路標識、停止線、交差点、信号機等の静的な位置情報のみならず、渋滞情報や事故或いは工事による通行規制等の動的な位置情報も含まれている。
The map
そして、例えば運転者が自動運転に際してセットした目的地に基づき、上述した自車位置推定演算部12aで推定した自車位置(現在地)から目的地までのルート地図情報を、この道路地図情報から取得し、取得したルート地図情報(ルート地図上の車線データ及びその周辺情報)を自車位置推定演算部12aへ送信する。
Then, for example, based on the destination set by the driver during automatic driving, the route map information from the vehicle position (current location) estimated by the vehicle position
自車位置推定演算部12aは、GNSS受信機13で受信した測位信号に基づき自車両Mの位置座標を取得し、この位置座標をルート地図情報上にマップマッチングして、道路地図上の自車位置(現在地)を推定すると共に走行車線を特定し、ルート地図情報に記憶されている走行車線の道路形状を取得し、逐次記憶させる。
The own vehicle position
更に、自車位置推定演算部12aは、トンネル内走行等のようにGNSS受信機13の感度低下により測位衛星からの有効な測位信号を受信することができない環境では、自律航法に切換え、自律走行センサ14によりローカライゼーションを行う。
Furthermore, the vehicle position
目標進行路設定演算部12cは、先ず、地図情報取得部12bでマップマッチングした現在位置を基準に自車両Mを区画線に沿って自動走行させるための目標進行路を設定する。又、運転者が目的地を入力している場合は、現在地と目的地とを結ぶ走行ルートに沿って目標進行路が設定される。この目標進行路は、自車両Mの前方、数百メートル~数キロ先まで設定され、走行時において逐次更新される。この目標進行路設定演算部12cで設定した目標進行路は車両制御ユニット26で読込まれる。
The target travel route setting
一方、ステレオカメラ装置21は、自車両Mの前方を撮像する撮像手段としてのカメラ部22、画像処理ユニット(IPU)23、カメラ画像選択手段としてのカメラ画像選択部24、及び走行環境認識手段としての前方走行環境認識部25を備えている。カメラ部22は、同一仕様の第1~第4カメラ22a~22dを備えており、図2に示すように、自車両Mの車室内前部のフロントガラスに近接する上部であって横方向同列の位置に固定されている。ここで、第2カメラ22b,第3カメラ22cで近距離用ステレオカメラが構成されており、又、第1カメラ22a,第4カメラ22dで遠距離用ステレオカメラが構成されている。
On the other hand, the
第2カメラ22bと第3カメラ22cとは車幅方向中央を挟んで左右対称な位置に配設されており、近距離基線長Lsは比較的近距離のステレオ画像(図5の撮像領域V)を取得できる値に設定されている。尚、本実施形態のステレオ画像とは、一対のカメラで撮像した左右画像のうち距離画像を取得できる領域を云う。
The
一方、第1カメラ22aと第4カメラ22dは、車幅方向中央を挟んで運転席側と助手席側の比較的離間した左右対称な位置に配設され、遠距離のステレオ画像(図5の撮像領域I)を取得できる遠距離基線長Llに設定されている。そして、この各カメラ22a~22dで撮像した画像がIPU23で所定に画像処理されて、カメラ画像選択部24へ出力される。距離を計測するために取得するステレオ画像は、近距離用ステレオカメラ22b,22c、遠距離用ステレオカメラ22a,22dの組合わせに限定されず、第1~第4カメラ22a~22dの中から一対のカメラの画像を選択することで任意に取得することができる。
On the other hand, the
カメラ画像選択部24は、IPU23から送信される各カメラ22a~22dで撮像した画像の中から、自車両Mの走行状態、及び走行環境に基づき、ステレオ画像による距離の計測を必要とする前方認識領域に対応する一対のカメラを特定する。そして、この一対のカメラで撮像した画像(ステレオ画像)を前方走行環境認識部25へ送信する。
The camera
前方走行環境認識部25は、カメラ画像選択部24から送信されたステレオ画像(一対のカメラで撮像した画像)に基づき、左右区画線、自車両Mが走行する進行路(自車進行路)の道路形状、自車両Mの前方を走行する先行車の有無、自車両Mの直前を横切ろうとする歩行者や二輪車(自転車、自動二輪車)等の移動体を含む立体物、信号現示(点灯色)、道路標識等を認識する。そして、カメラの焦点距離、カメラ間の基線長、同一対象物の視差から、三角測量の原理を用いて当該対象物までの距離を算出する。尚、ステレオ画像に基づく対象物の認識、及び当該対象物までの距離の求め方は既に知られている技術であるため、ここでの詳細な説明は省略する。
Based on the stereo images (images captured by a pair of cameras) transmitted from the camera
自動運転制御ユニット26は、入力側に地図ロケータ演算部12の目標進行路設定演算部12c、ステレオカメラ装置21の前方走行環境認識部25が接続されている。又、この自動運転制御ユニット26の出力側に、自車両Mを目標進行路に沿って走行させる操舵制御部31、強制ブレーキにより自車両Mを減速させるブレーキ制御部32、自車両Mの車速を制御する加減速制御部33、及び警報装置34が接続されている。
The input side of the automatic
自動運転制御ユニット26は、操舵制御部31、ブレーキ制御部32、加減速制御部33を所定に制御して、GNSS受信機13で受信した自車位置を示す測位信号に基づき、自車両Mを目標進行路設定演算部12cで設定した道路地図上の目標進行路に沿って自動走行させる。その際、前方走行環境認識部25で認識した前方走行環境に基づき、周知の追従車間距離制御(ACC:Adaptive Cruise Control)、及び車線維持制御(ALK:Active Lane Keep)を行い、先行車が検出された場合は先行車に追従し、先行車が検出されない場合は制限速度内で走行させる。更に、自車両Mの直前を横切ろうとする移動体を検出した場合は、ブレーキ制御部32を作動させて自車両Mを停車させる。
The automatic
ところで、図6に示すように、カメラ部22の第1~第4カメラ22a~22dの組合わせによって、第1撮像領域~第6撮像領域のステレオ画像(距離画像)を得ることができる。尚、選択する一対のカメラとステレオ画像により得られる前方撮像領域との関係を図13に示す。
By the way, as shown in FIG. 6, by combining the first to
そして、基線長を短くすれば近距離の対象物までの距離を精度良く求めることができる。基線長を長くすれば遠距離の対象物までの距離を精度良く求めることができる。 If the baseline length is shortened, the distance to a short-distance object can be obtained with high accuracy. If the baseline length is lengthened, the distance to a distant object can be obtained with high accuracy.
従って、図7に示すように、最も長い遠距離基線長Llを有する第1カメラ22aと第2カメラ22dとによる第1撮像領域Iは、高速道路での高速走行時における遠距離の立体物の検出や、直進路が続く一般道路での区画線の検出等に適している。
Therefore, as shown in FIG. 7, the first imaging area I by the
又、図8に示すように、第1カメラ22aと第3カメラ22cとによる第2撮像領域IIは、自車両Mの左側にやや偏倚した中距離での対象物を精度良く検出することができるため、左カーブ走行中における区画線の検出に適している。一方、図9に示すように、第2カメラ22bと第4カメラ22dとによる第3撮像領域IIIは、自車両Mの右側にやや偏倚した中距離での対象物を精度良く検出することができるため、右カーブ走行中における区画線の検出に適している。
Further, as shown in FIG. 8, the second imaging area II formed by the
更に、図10に示すように、第1カメラ22aと第2カメラ22bとによる第4撮像領域IVは、自車両Mの左側にやや偏倚した近距離での対象物を精度良く検出することができる。そのため、一般道路を低速走行している際、或いは停車状態から発進するに際し、左方向から自車両Mの直前を横切ろうとする移動体(歩行者、二輪車等)の検出に適している。
Further, as shown in FIG. 10, the fourth imaging area IV formed by the
又、図11に示すように、最も短い近距離基線長Lsを有する第2カメラ22bと第3カメラ22cとによる第5撮像領域Vは、通常走行時における近距離の立体物、区画線等の検出に適している。更に、図12に示すように、第3カメラ22cと第4カメラ22dとによる第6撮像領域VIは、自車両Mの右側にやや偏倚した近距離での対象物を精度良く検出することができる。そのため、一般道路を低速走行している際、或いは停車状態から発進するに際し、右方向から自車両Mの直前を横切ろうとする移動体(歩行者、二輪車等)の検出に適している。
Further, as shown in FIG. 11, the fifth imaging region V by the
ところで、本実施形態のようにカメラ部22がフロントガラスの車室内側に近接した状態で配置されている場合、フロントガラスに雨滴、雪、泥はね、鳥の糞等が付着して汚れた場合、各カメラ22a~22dの視界が妨げられる。一対のカメラで撮像した画像から対象物までの距離を算出しようとする場合、一方のカメラの視界が妨げられると、対象物までの距離を求めることはできない。同様に、一方のカメラが不調となった場合も対象物までの距離を求めることはできない。
By the way, when the
そのため、上述したカメラ画像選択部24は、視界の妨げにより、或いは不調によりカメラの画像が失陥した場合、先ず、失陥しているカメラを特定し、これに対応する代替カメラを選択し、正常なカメラと代替カメラとで撮像された画像を前方走行環境認識部25へ出力する。
Therefore, when the image of the camera is damaged due to the obstruction of the field of view or due to malfunction, the camera
カメラ画像選択部24によるカメラ画像選択処理は、具体的には、図3、図4に示すカメラ画像選択処理ルーチンに従って実行される。このルーチンでは、先ず、ステップS1,S2で、自車両Mの走行情報を取得する。すなわち、ステップS1では、自車両Mの走行状態情報を読込む。走行状態情報は自律走行センサ14を構成する車速センサで検出した車速、ヨーレートセンサで検出したヨーレート(ヨー角速度)、及び前後加速度センサで検出した前後加速度である。
Specifically, camera image selection processing by the camera
又、ステップS2では、地図ロケータ演算部12の地図情報取得部12bで取得した自車両Mの現在地周辺、及び前方周辺の周辺環境情報を読込む。この周辺環境情報には、上述したように静的な位置情報と動的な位置情報とが含まれている。従って、自律走行センサ14及び地図ロケータ演算部12は、本発明の走行情報取得手段としての機能を備えている。
Further, in step S2, the surrounding environment information around the current location of the host vehicle M acquired by the map
そして、ステップS3で、自車両Mの走行状態情報、及び自車両Mが走行している道路及びその周辺の環境情報に基づき、必要なステレオ画像を取得する撮像領域を選択する。例えば、周辺環境情報で高速道路の走行と判定され渋滞情報もなく、車速が高速(例えば、80[Km/h]以上)の場合は、最も長い遠距離基線長Llの遠距離用ステレオカメラ22a,22dによる第1撮像領域I(図5、図7)を選択する。一方、高速道路を走行中であっても、車速が中低速(例えば、10~40[Km/h]程度)のノロノロ運転、或いは直前の先行車Pを追従走行している場合は、最も短い近距離基線長Lsの近距離用ステレオカメラ22b,22cによる第5撮像領域(図5、図11参照)を選択する。尚、他の好適な例は既述したので省略する。
Then, in step S3, based on the driving state information of the own vehicle M and the environment information of the road on which the own vehicle M is traveling and its surroundings, an imaging area for acquiring the required stereo image is selected. For example, when it is determined that the vehicle is traveling on a highway in the surrounding environment information, there is no traffic information, and the vehicle speed is high (e.g., 80 [Km/h] or more), the long-
このように、走行状態、及び走行環境に応じて、第1~第4カメラ22a~22d中から2つのカメラを選択することで、図6~図12に示すように第1~第6撮像領域I~VIにてステレオ画像を得ることができる。尚、上述したステップS3では、自車両Mの走行状態情報と周辺の環境情報との一方に基づいて撮像領域を選択するようにしても良い。
In this way, by selecting two cameras from among the first to
その後、ステップS4へ進み、選択した撮像領域に対応する一対のカメラで撮像したステレオ画像を取得し、ステップS5へ進み、ステレオ画像のステレオマッチング処理を行う。このステレオマッチング処理は周知であるため、ここでの説明は省略する。 After that, the process proceeds to step S4 to obtain a stereo image captured by a pair of cameras corresponding to the selected imaging area, and the process proceeds to step S5 to perform stereo matching processing of the stereo image. Since this stereo matching processing is well known, the description thereof is omitted here.
その後、ステップS6へ進み、ステレオ画像のマッチング処理において、左右画像で対応する区画の画像に不一致画像があるか否かを調べる。尚、ステップS5,S6での処理が、本発明のカメラ失陥判定手段に対応している。 After that, in step S6, it is checked whether or not there is a non-matching image in the image of the corresponding section in the left and right images in the stereo image matching process. It should be noted that the processing in steps S5 and S6 corresponds to the camera failure determination means of the present invention.
そして、不一致画像が検出されない場合は、正常と判定し、ステップS7へ進み、今回のステレオ画像を前方走行環境認識部25へ送信してルーチンを抜ける。一方、ステップS6において不一致画像が検出された場合は失陥と判定し、ステップS8へジャンプする。
If no non-matching image is detected, it is determined to be normal, the process proceeds to step S7, the current stereo image is transmitted to the forward running
ステップS8へ進むと失陥しているカメラを特定する。ステレオカメラ(一対のカメラ)では、カメラ自体の故障であれば、カメラ画像選択部24に画像信号が送信されないため、故障しているカメラを簡単に特定することができる。しかし、フロントガラスやカメラレンズの汚れ等により一部がマスクされた状態で撮像された場合、或いはフロントガラスに付着した雨滴によりボヤけた状態で撮像された場合、両カメラで撮像したステレオ画像を比較しても、何れのカメラに失陥が発生しているかを判別することができない。
Proceeding to step S8, the defective camera is identified. In the case of a stereo camera (a pair of cameras), if the camera itself is out of order, no image signal is sent to the camera
従って、ステップS8では、上述のステップS3で選択したカメラを含む他の組合わせを、一対ずつ選択し、それぞれに対して上述のステップS5と同様にステレオマッチングし、失陥しているカメラを特定する。すなわち、図13に示すように、第1カメラ22aが失陥した場合、第1、第2、第4撮像領域I,II,IVのステレオ画像を取得することができない。第2カメラ22bが失陥した場合、第3~第5撮像領域III~Vのステレオ画像を取得することができない。第3カメラ22cが失陥した場合、第2、第5、第6撮像領域II,V,VIのステレオ画像を取得することができない。又、第4カメラ22dが失陥した場合、第1、第3、第6撮像領域I,III,VIのステレオ画像を取得することができない。
Therefore, in step S8, other combinations including the camera selected in step S3 are selected one by one, stereo matching is performed on each pair in the same manner as in step S5, and the defective camera is identified. do. That is, as shown in FIG. 13, when the
そのため、一対のカメラによるステレオ画像に失陥を検出した場合、先ず、この一対のカメラの一方と他カメラとの組合わせからステレオ画像を個別に取得する。そして、取得した各ステレオ画像に対してステレオマッチング処理を行い、何れの一対のカメラ(ステレオカメラ)で不一致画像が検出されたかを調べることで、失陥しているカメラを特定する。この場合、遠距離よりも近距離の画像の方が鮮明であるため、なるべく近距離側の撮像領域の組合わせを選択する。 Therefore, when a defect is detected in a stereo image by a pair of cameras, first, a stereo image is individually obtained from a combination of one of the pair of cameras and the other camera. Then, stereo matching processing is performed on each of the acquired stereo images, and by checking in which pair of cameras (stereo cameras) the inconsistent image is detected, the defective camera is specified. In this case, since an image at a short distance is clearer than an image at a long distance, a combination of imaging areas on the short distance side is selected as much as possible.
具体的な組合わせを図15に示す。すなわち、第1撮像領域Iのステレオ画像が失陥した場合は、第4、第6撮像領域IV,VIのステレオ画像を取得してステレオマッチング処理を行い、第1,第4カメラ22a,22dの何れが失陥したかを特定する。又、第2撮像領域IIのステレオ画像が失陥した場合は、第4、第5撮像領域IV,Vのステレオ画像を取得してステレオマッチング処理を行い、第1,第3カメラ22a,22cの何れが失陥したかを特定する。更に、第3撮像領域IIIのステレオ画像が失陥した場合は、第5、第6撮像領域V,VIのステレオ画像を取得してステレオマッチング処理を行い、第2、第4カメラ22b,22dの何れが失陥したかを特定する。
A specific combination is shown in FIG. That is, when the stereo image of the first imaging area I is defective, the stereo images of the fourth and sixth imaging areas IV and VI are acquired and stereo matching processing is performed, and the images of the first and
一方、第4撮像領域IVのステレオ画像が失陥した場合は、第2、第5撮像領域II,Vのステレオ画像を取得してステレオマッチング処理を行い、第1、第2カメラ22a,22bの何れが失陥したかを特定する。更に、第5撮像領域Vのステレオ画像が失陥した場合は、第4、第6撮像領域IV,VIのステレオ画像を取得してステレオマッチング処理を行い、第2、第3カメラ22b,22cの何れが失陥したかを特定する。又、第6撮像領域VIのステレオ画像が失陥した場合は、第3、第5撮像領域III,Vのステレオ画像を取得してステレオマッチング処理を行い、第3、第4カメラ22c,22dの何れが失陥したかを特定する。
On the other hand, when the stereo image of the fourth imaging area IV is defective, the stereo images of the second and fifth imaging areas II and V are acquired and stereo matching processing is performed, and the images of the first and
そして、ステップS8において失陥したカメラを特定した後、ステップS9へ進み、失陥したカメラに代えて適用するカメラによる代替撮像領域、及び代替単眼カメラを設定する。図14に示すように、正常時の撮像領域にて使用する一対のカメラの一方が失陥した場合、遠距離側の第1~第3撮像領域I~IIIでは当該撮像領域に最も近い撮像領域を代替撮像領域として選択する。これに対し、近距離側の第4~第6撮像領域IV~VIを撮像するカメラが失陥した場合、代替撮像領域では、直前の先行車や自車両Mの直前を横切ろうとする移動体(歩行者、二輪車等)までの距離を認識することができなくなる。 Then, after identifying the failed camera in step S8, the process proceeds to step S9 to set a substitute imaging area and a substitute monocular camera by a camera to be applied in place of the failed camera. As shown in FIG. 14, when one of the pair of cameras used in the normal imaging area fails, the first to third imaging areas I to III on the long-distance side are closest to the imaging area. is selected as the alternative imaging region. On the other hand, if the camera that captures the fourth to sixth imaging areas IV to VI on the short distance side fails, the alternative imaging area will be replaced by a moving object that is about to cross the immediately preceding preceding vehicle or the own vehicle M. (Pedestrians, motorcycles, etc.) will not be able to recognize the distance.
そのため、第4~第6撮像領域IV~VIにおいて、一方のカメラが失陥した場合は処理を中断(HALT)させるようにしても良いが、以下の説明では、失陥していない側のカメラを代替単眼カメラとして選択する態様で説明する。従って、この場合、送信する画像は単眼画像となる。 Therefore, in the fourth to sixth imaging areas IV to VI, if one of the cameras fails, the process may be interrupted (HALT). is selected as an alternative monocular camera. Therefore, in this case, the image to be transmitted is a monocular image.
[第1撮像領域I]
第1カメラ22aが失陥した場合、第1撮像領域Iに最も近く、且つ第4カメラ22dを使用する第3撮像領域IIIを代替撮像領域として選択する。又、第4カメラ22dが失陥した場合は、第1撮像領域Iに最も近く、且つ第1カメラ22aを使用する第2撮像領域IIを代替撮像領域として選択する。
[First imaging area I]
If the
[第2撮像領域II]
第1カメラ22aが失陥した場合、第2撮像領域IIに最も近く、且つ第3カメラ22cを使用する第5撮像領域Vを代替撮像領域として選択する。又、第3カメラ22cが失陥した場合は、第2撮像領域IIに最も近く、且つ第1カメラ22aを使用する第4撮像領域IVを代替撮像領域として選択する。
[Second imaging area II]
If the
[第3撮像領域III]
第2カメラ22bが失陥した場合、第3撮像領域IIIに最も近く、且つ第4カメラ22dを使用する第4撮像領域IVを代替撮像領域として選択する。又、第4カメラ22dが失陥した場合は、第3撮像領域IIIに最も近く、且つ第2カメラ22bを使用する第5撮像領域Vを代替撮像領域として選択する。
[Third imaging area III]
If the
[第4撮像領域IV]
第1カメラ22aが失陥した場合、正常な第2カメラ22bを代替単眼カメラとして選択する。逆に、第2カメラ22bが失陥した場合は、第1カメラ22aを代替単眼カメラとして選択する。
[Fourth imaging area IV]
If the
[第5撮像領域V]
第2カメラ22bが失陥した場合、正常な第3カメラ22cを代替単眼カメラとして選択する。逆に、第3カメラ22cが失陥した場合は、第2カメラ22bを代替単眼カメラとして選択する。
[Fifth imaging area V]
If the
[第6撮像領域VI]
第3カメラ22cが失陥した場合、正常な第4カメラ22dを代替単眼カメラとして選択する。逆に、第4カメラ22dが失陥した場合は、第3カメラ22cを代替単眼カメラとして選択する。
[Sixth imaging area VI]
If the
次いで、ステップS10ヘ進み、選択したのは代替撮像領域か代替単眼カメラかを調べ、代替撮像領域の場合はステップS11へ進む。又、代替単眼カメラの場合はステップS12へジャンプする。 Next, the process proceeds to step S10 to check whether the selected alternative imaging area or an alternative monocular camera is selected. If the alternative imaging area is selected, the process advances to step S11. Also, in the case of the alternative monocular camera, the process jumps to step S12.
ステップS11へ進むと、選択した代替撮像領域に対応する一対のカメラで撮像したステレオ画像を取得してステップS13へ進む。又、ステップS12へ進むと、選択した代替の単眼カメラで撮像した単眼画像を取得してステップS13へ進む。尚、ステップS8~S12での処理が、本発明の代替画像取得手段に対応している。 When proceeding to step S11, a stereo image captured by a pair of cameras corresponding to the selected alternative imaging area is acquired, and the process proceeds to step S13. Further, when proceeding to step S12, a monocular image captured by the selected alternative monocular camera is acquired, and the process proceeds to step S13. It should be noted that the processing in steps S8 to S12 corresponds to the substitute image obtaining means of the present invention.
その後、ステップS11或いはステップS12からステップS13へ進むと、今回のステレオ画像、或いは単眼画像を、失陥したステレオ画像に代えて前方走行環境認識部25へ送信してルーチンを抜ける。尚、カメラの失陥が一時的なものであれば、当該失陥が回復した場合、ステップS6からステップS7へ進み、ステップS4で取得したステレオ画像を送信する。
After that, when proceeding from step S11 or step S12 to step S13, the current stereo image or monocular image is sent to the forward running
前方走行環境認識部25は、カメラ画像選択部24から送信されたステレオ画像、或いは単眼画像を読込む。そして、ステレオ画像からその視差に基づいて両画像中の同一対象物を認識すると共に、その距離データ(自車両Mから対象物までの距離)を、三角測量の原理を利用して算出し、これらを前方走行環境情報として認識する。一方、単眼画像からは対象物を認識すると共に、今回認識した対象物と、前回の演算時に認識した同一対象物との大きさの変化から当該対象物までの距離を算出し、これらを前方走行環境情報として認識する。
The forward traveling
自動運転制御ユニット26は、前方走行環境認識部25で認識した前方走行環境情報に基づき、自車両Mを左右区画線の中央に沿って走行させるべく操舵制御部31へ制御信号を送信する。又、直前を走行する先行車Pを認識した場合は、当該先行車Pに対して所定車間距離を開けて走行させるべく、ブレーキ制御部32及び加減速制御部33へ制御信号を送信する。
Based on the forward running environment information recognized by the forward running
又、ステレオカメラ装置21のカメラ画像選択部24においてカメラの失陥が検出された場合は、警報装置34からその旨を運転者に報知し、自動運転支援の継続が困難になった場合には運転者に運転を引き継がせることができるように準備させる。又、失陥が回復した場合には、その旨を運転者に報知する。
In addition, when camera failure is detected by the camera
このように、本実施形態では、4台のカメラ22a~22d中、1台のカメラが失陥したことにより、当該カメラを含む一対のカメラで撮像する特定の撮像領域のステレオ画像に基づく対象物までの距離情報が継続的に継続できなくなった場合であっても、正常なカメラを含む最も近い撮像領域を代替撮像領域として設定し、この代替撮像領域で撮像したステレオ画像に基づいて前方走行環境を認識するようにしたので、失陥したカメラを他のカメラで代用しても走行状態を著しく損なうことがなく、運転支援制御、自動運転支援を継続させることができる。これにより、自動運転支援が困難と判断された場合であっても、運転者に運転をスムーズに引き継がせることが可能となり、運転者に与える違和感を軽減させることができる。
As described above, in the present embodiment, when one of the four
又、一対のカメラの何れが失陥しているかを、当該一対のカメラの一方を含む他の撮像領域を撮像したステレオ画像に基づいて特定するようにしたので、走行中に失陥しているカメラを特定することができる。従って、自車両Mを停車させて失陥したカメラを調べる必要がなく高い利便性を得ることができる。更に、走行中に失陥から回復した場合は自動運転支援を継続させることができるため、より高い利便性を得ることができる。 Further, which one of the pair of cameras is defective is specified based on the stereo image obtained by capturing the other imaging area including one of the pair of cameras, so that the malfunction occurs during running. A camera can be identified. Therefore, it is not necessary to stop the own vehicle M to check the failed camera, and high convenience can be obtained. Furthermore, since the automatic driving support can be continued when the failure is recovered during driving, higher convenience can be obtained.
尚、本発明は、上述した実施形態に限るものではなく、例えばカメラ部22は5台以上のカメラで構成されていても良く、それらの中の一対のカメラの組合わせにより、撮像領域を設定するようにしても良い。又、カメラ部22は自車両Mの前方のみならず、後方を含む外方の走行環境を撮像するものであれば良い。従って、カメラ部22を自車両Mのリヤガラスの室内側に配置して後方の走行環境を撮像しても良く、この場合、前方走行環境認識部25は、後方走行環境認識部25と読み替えて適用する。
The present invention is not limited to the above-described embodiment. For example, the
1…自動運転支援システム、
11…ロケータユニット、
12…地図ロケータ演算部、
12a…自車位置推定演算部、
12b…地図情報取得部、
12c…目標進行路設定演算部、
13…GNSS受信機、
14…自律走行センサ、
16…高精度道路地図データベース、
21…ステレオカメラ装置、
22…カメラ部、
22a~22d…第1~第4カメラ、
24…カメラ画像選択部、
25…前方走行環境認識部、
26…自動運転制御ユニット、
26…車両制御ユニット、
26…自動運転制御ユニット、
31…操舵制御部、
32…ブレーキ制御部、
33…加減速制御部、
34…警報装置、
Ll…遠距離基線長、
Ls…近距離基線長、
M…自車両、
P…先行車、
I~VI…第1~第6撮像領域
1... automatic driving support system,
11... Locator unit,
12 ... map locator calculation unit,
12a ... own vehicle position estimation calculation unit,
12b ... map information acquisition unit,
12c ... target course setting calculation unit,
13 ... GNSS receiver,
14... Autonomous traveling sensor,
16... high-precision road map database,
21... Stereo camera device,
22... camera section,
22a to 22d... first to fourth cameras,
24... Camera image selection unit,
25 ... forward running environment recognition unit,
26 ... automatic operation control unit,
26... vehicle control unit,
26 ... automatic operation control unit,
31 ... steering control section,
32 ... brake control section,
33 Acceleration/deceleration control unit,
34 ... alarm device,
Ll: long-distance baseline length,
Ls: short-range baseline length,
M... own vehicle,
P... Leading vehicle,
I to VI: 1st to 6th imaging areas
Claims (6)
前記自車両に所定基線長で配置されて前記自車両の外方を撮像する、少なくとも遠距離用の一対のカメラと近距離用の一対のカメラとを有する撮像手段と、
前記走行情報取得手段で取得した前記走行情報に基づき、前記撮像手段の前記遠距離用の一対のカメラと前記近距離用の一対のカメラとの一方を選択し、選択した該一対のカメラによる撮像領域のステレオ画像を取得するカメラ画像選択手段と、
前記カメラ画像選択手段で選択した前記遠距離用の一対のカメラと前記近距離用の一対のカメラとの一方からのステレオ画像に基づいて前記自車両の外方の走行環境を認識する走行環境認識手段と
を有する車両用ステレオカメラ装置において、
前記カメラ画像選択手段は、
選択した前記一対のカメラから取得したステレオ画像をステレオマッチング処理して画像が失陥しているか否かを調べるカメラ失陥判定手段と、
前記カメラ失陥判定手段で画像が失陥していると判定した場合、選択したのは前記遠距離用の一対のカメラか前記近距離用の一対のカメラかを調べ、該遠距離用の一対のカメラの一方が失陥していると判定した場合は失陥しているカメラに対する代替カメラを、選択した前記一対のカメラ以外のカメラから選択して該代替カメラと前記一対のカメラ内の正常なカメラとによる代替撮像領域のステレオ画像を取得し、前記近距離用の一対のカメラの一方が失陥していると判定した場合は該近距離用の一対のカメラの正常なカメラにより撮像した画像を単眼画像として取得する代替画像取得手段と
を備えることを特徴とする車両用ステレオカメラ装置。 a travel information acquiring means for acquiring travel information of the own vehicle;
an imaging means having at least a pair of long-distance cameras and a pair of short-distance cameras arranged on the own vehicle at a predetermined base line length to pick up images of the outside of the own vehicle;
One of the pair of long-distance cameras and the pair of short-distance cameras of the imaging means is selected based on the travel information acquired by the travel information acquisition means, and an image is captured by the selected pair of cameras. camera image selection means for acquiring stereo images of a region;
Driving environment recognition for recognizing the driving environment outside the own vehicle based on a stereo image from one of the pair of long-distance cameras and the pair of short-distance cameras selected by the camera image selection means. In a vehicle stereo camera device having means,
The camera image selection means is
camera failure determination means for performing stereo matching processing on the stereo images acquired from the selected pair of cameras to determine whether or not the images are defective;
When the camera defect determination means determines that the image is defective, it is checked whether the pair of cameras for long distance or the pair of cameras for short distance has been selected, and the pair of cameras for long distance is checked. When it is determined that one of the cameras is defective, a substitute camera for the malfunctioning camera is selected from cameras other than the selected pair of cameras, and the normal state of the substitute camera and the pair of cameras is determined. When it is determined that one of the pair of short-distance cameras is defective, the image is taken by the normal camera of the pair of short-distance cameras. A stereo camera device for a vehicle, comprising a substitute image acquiring means for acquiring an image as a monocular image .
ことを特徴とする請求項1記載の車両用ステレオカメラ装置。 2. The vehicle stereo camera apparatus according to claim 1, wherein the traveling information acquired by the traveling information acquiring means is environment information around the own vehicle.
ことを特徴とする請求項1記載の車両用ステレオカメラ装置。 2. The vehicle stereo camera device according to claim 1, wherein the running information acquired by said running information acquiring means is both the running state information of said own vehicle and the environment information around said own vehicle.
ことを特徴とする請求項1~4の何れか1項に記載の車両用ステレオカメラ装置。 When the camera failure determination means determines that the image is defective, the substitute image acquisition means newly selects another pair of combinations separately including the selected pair of cameras. 4. The vehicle stereo according to any one of claims 1 to 4, wherein the stereo images obtained from each pair of cameras are subjected to stereo matching processing to identify the camera with the image defect. camera equipment.
ことを特徴とする請求項1~5の何れか1項に記載の車両用ステレオカメラ装置。 6. The vehicle stereo camera apparatus according to claim 1, wherein the alternative image acquisition means sets an imaging area closest to the imaging area as the alternative imaging area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018184742A JP7202123B2 (en) | 2018-09-28 | 2018-09-28 | Vehicle stereo camera device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018184742A JP7202123B2 (en) | 2018-09-28 | 2018-09-28 | Vehicle stereo camera device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020052018A JP2020052018A (en) | 2020-04-02 |
JP7202123B2 true JP7202123B2 (en) | 2023-01-11 |
Family
ID=69996799
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018184742A Active JP7202123B2 (en) | 2018-09-28 | 2018-09-28 | Vehicle stereo camera device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7202123B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102499116B1 (en) * | 2021-06-28 | 2023-02-16 | 경희대학교 산학협력단 | Apparatus and method for adjusting the angle of a mirror camera of a vehicle |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008196891A (en) | 2007-02-09 | 2008-08-28 | Mitsubishi Precision Co Ltd | Multi-eye camera |
JP2018115878A (en) | 2017-01-16 | 2018-07-26 | キヤノン株式会社 | Measuring apparatus, system and product manufacturing method |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07225892A (en) * | 1994-02-09 | 1995-08-22 | Fuji Heavy Ind Ltd | Vehicle traveling controller |
JPH11108660A (en) * | 1997-10-03 | 1999-04-23 | Kansei Corp | Equipment for detecting distance |
-
2018
- 2018-09-28 JP JP2018184742A patent/JP7202123B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008196891A (en) | 2007-02-09 | 2008-08-28 | Mitsubishi Precision Co Ltd | Multi-eye camera |
JP2018115878A (en) | 2017-01-16 | 2018-07-26 | キヤノン株式会社 | Measuring apparatus, system and product manufacturing method |
Also Published As
Publication number | Publication date |
---|---|
JP2020052018A (en) | 2020-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101901024B1 (en) | Map update determination system | |
JP6443545B2 (en) | Parking lot mapping system | |
US10964217B2 (en) | Travel control method and travel control apparatus | |
CN110632917A (en) | Automatic driving assistance system | |
WO2010035781A1 (en) | Lane determining device and navigation system | |
JP2011013039A (en) | Lane determination device and navigation system | |
US11498584B2 (en) | Intersection start judgment device | |
CN102673560A (en) | Method for recognizing turn-off maneuver and driver assistance system | |
US11538335B2 (en) | Traffic control system for automatic driving vehicle | |
US20140244157A1 (en) | Vehicle navigation system and method | |
US11928871B2 (en) | Vehicle position estimation device and traveling position estimation method | |
US20200302793A1 (en) | Traffic control system | |
JP4876147B2 (en) | Lane judgment device and navigation system | |
US20230236037A1 (en) | Systems and methods for common speed mapping and navigation | |
US20230106644A1 (en) | Systems and methods for detecting vehicle wheel slips | |
CN110998685A (en) | Travel obstacle detection device and vehicle navigation system | |
JP7165012B2 (en) | Vehicle stereo camera device | |
US11335195B2 (en) | Traffic control system | |
JP2017003395A (en) | Vehicle positioning system | |
JP2022117882A (en) | Automatic drive assisting system | |
US20220256082A1 (en) | Traveling environment recognition apparatus | |
JP7202123B2 (en) | Vehicle stereo camera device | |
JP2023054084A (en) | Vehicle stereo camera device | |
AU2019210682C1 (en) | Probe information processing apparatus | |
US20220348199A1 (en) | Apparatus and method for assisting driving of vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210825 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20210825 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220615 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220628 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220824 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221223 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7202123 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |