JP2022110706A - Vehicle Environment Recognition Method and Vehicle Environment Recognition Device - Google Patents
Vehicle Environment Recognition Method and Vehicle Environment Recognition Device Download PDFInfo
- Publication number
- JP2022110706A JP2022110706A JP2021006277A JP2021006277A JP2022110706A JP 2022110706 A JP2022110706 A JP 2022110706A JP 2021006277 A JP2021006277 A JP 2021006277A JP 2021006277 A JP2021006277 A JP 2021006277A JP 2022110706 A JP2022110706 A JP 2022110706A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- super
- image
- controller
- environment recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 230000006870 function Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 7
- 230000010365 information processing Effects 0.000 description 4
- 238000004590 computer program Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Images
Abstract
Description
本発明は、車両用環境認識方法及び車両用環境認識装置に関する。 The present invention relates to a vehicle environment recognition method and a vehicle environment recognition device.
従来より、車両のナンバープレートをカメラで撮像して認識する発明が知られている(特許文献1)。特許文献1に記載された発明は識別媒体の領域が予め設定された領域内に位置すると判定された場合に超解像処理を行いナンバープレートを認識する。 Conventionally, there has been known an invention in which a license plate of a vehicle is imaged by a camera and recognized (Patent Document 1). The invention described in Patent Document 1 performs super-resolution processing and recognizes a license plate when it is determined that the area of the identification medium is located within a preset area.
しかしながら、特許文献1に記載された発明のような特定の領域に超解像領域を設定する方法では適切な超解像領域を設定することができないおそれがある。 However, there is a possibility that an appropriate super-resolution area cannot be set with the method of setting a super-resolution area in a specific area, such as the invention described in Patent Document 1.
本発明は、上記問題に鑑みて成されたものであり、その目的は、超解像処理を行う領域を適切に設定することが可能となる車両用環境認識方法及び車両用環境認識装置を提供することである。 The present invention has been made in view of the above problems, and its object is to provide a vehicular environment recognition method and a vehicular environment recognition device capable of appropriately setting an area to be subjected to super-resolution processing. It is to be.
本発明の一態様に係る車両用環境認識方法は、自車両の進行方向を推定し、推定された自車両の進行方向に基づいて複数の画像のそれぞれに対して画像上で所定の領域を設定し、設定された領域における画像上の移動量に基づいて、複数の画像の位置合わせを行い、位置合わせが行われた複数の画像を用いて超解像処理を行い、カメラによって撮像された画像の解像度を超える超解像画像を生成し、超解像画像に基づいて道路構造物を認識する。 A vehicle environment recognition method according to an aspect of the present invention estimates a traveling direction of a vehicle, and sets a predetermined region on each of a plurality of images based on the estimated traveling direction of the vehicle. Then, a plurality of images are aligned based on the amount of movement on the image in the set area, super-resolution processing is performed using the aligned images, and an image captured by the camera A super-resolution image exceeding the resolution of is generated, and road structures are recognized based on the super-resolution image.
本発明によれば、超解像処理を行う領域を適切に設定することが可能となる。 According to the present invention, it is possible to appropriately set an area for super-resolution processing.
以下、本発明の実施形態について、図面を参照して説明する。図面の記載において同一部分には同一符号を付して説明を省略する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the description of the drawings, the same parts are denoted by the same reference numerals, and the description thereof is omitted.
図1を参照して車両用環境認識装置1の構成例を説明する。図1に示すように、車両用環境認識装置1は、カメラ10と、ヨーレートセンサ11と、GPS受信機12と、ナビゲーション装置13と、コントローラ20と、ステアリングアクチュエータ14と、アクセルペダルアクチュエータ15と、ブレーキアクチュエータ16を備える。
A configuration example of a vehicle environment recognition device 1 will be described with reference to FIG. As shown in FIG. 1, the vehicle environment recognition device 1 includes a
車両用環境認識装置1は自動運転機能を有する車両に搭載されてもよく、自動運転機能を有しない車両に搭載されてもよい。また、車両用環境認識装置1は自動運転と手動運転とを切り替えることが可能な車両に搭載されてもよい。また、自動運転機能は操舵制御、制動力制御、駆動力制御などの車両制御機能のうちの一部の機能のみを自動的に制御して運転者の運転を支援する運転支援機能であってもよい。本実施形態では車両用環境認識装置1は自動運転機能を有する車両に搭載されるものとして説明する。 The vehicular environment recognition device 1 may be installed in a vehicle having an automatic driving function, or may be installed in a vehicle without an automatic driving function. Further, the vehicle environment recognition device 1 may be installed in a vehicle capable of switching between automatic driving and manual driving. In addition, even if the automatic driving function is a driving support function that automatically controls only a part of the vehicle control functions such as steering control, braking force control, and driving force control to assist the driver's driving. good. In this embodiment, the vehicular environment recognition device 1 is assumed to be installed in a vehicle having an automatic driving function.
カメラ10はCCD(charge-coupled device)、CMOS(complementary metal oxide semiconductor)などの撮像素子を有する。カメラ10の設置場所は特に限定されないが、一例としてカメラ10は自車両の前方、側方、後方に設置される。カメラ10は所定の周期(例えば10msec程度の短周期)で自車両の周囲を連続的に撮像する。つまりカメラ10は異なるタイミングで撮像した複数の画像を取得する。カメラ10は自車両の周囲に存在する物体(歩行者、自転車、バイク、他車両など)、及び自車両の前方の情報(区画線、信号機、標識、横断歩道、交差点など)を検出する。カメラ10によって撮像された画像はコントローラ20に出力される。
The
ヨーレートセンサ11は自車両のヨーレート(旋回方向への回転角の変化速度)を検出する。ヨーレートセンサ11は検出したヨーレートをコントローラ20に出力する。
The
GPS受信機12は、人工衛星からの電波を受信することにより、地上における自車両の位置情報を検出する。GPS受信機12が検出する自車両の位置情報には、緯度情報、及び経度情報が含まれる。なお、自車両の位置情報を検出する方法はGPS受信機12に限定されない。例えばオドメトリと呼ばれる方法を用いて位置を推定してもよい。オドメトリとは、自車両の回転角、回転角速度に応じて自車両の移動量及びと移動方向を求めることにより、自車両の位置を推定する方法である。GPS受信機12は検出した位置情報をコントローラ20に出力する。
The
コントローラ20は、CPU(中央処理装置)、メモリ、及び入出力部を備える汎用のマイクロコンピュータである。マイクロコンピュータには、車両用環境認識装置1として機能させるためのコンピュータプログラムがインストールされている。コンピュータプログラムを実行することにより、マイクロコンピュータは車両用環境認識装置1が備える複数の情報処理回路として機能する。なおここでは、ソフトウェアによって車両用環境認識装置1が備える複数の情報処理回路を実現する例を示すが、もちろん以下に示す各情報処理を実行するための専用のハードウェアを用意して情報処理回路を構成することも可能である。また複数の情報処理回路を個別のハードウェアにより構成してもよい。コントローラ20は、複数の情報処理回路の一例として、領域設定部21と、画像シフト部22と、超解像処理部23と、道路構造物認識部24と、車両制御部25を備える。
The
領域設定部21は、ヨーレートセンサ11から取得したヨーレートを用いて自車両の進行方向を推定し、推定した自車両の進行方向に基づいて超解像処理を行う領域を設定する。本実施形態において、超解像処理を行う領域はカメラ10によって撮像された画像の一部である。なお後述するように自車両の進行方向を推定する方法はヨーレートを用いた方法に限定されない。
The
画像シフト部22は画像間の移動量を算出し、算出した移動量の分だけ画像を移動させて位置合わせを行う。画像の移動量とは2つの画像間の移動量である。このような移動量算出にはSSD(Sum of Squared Difference)、SAD(Sum of Absolute Difference)、ZNCC(Zero-mean Normalized Cross-Correlation)などが用いられる。具体的には画像シフト部22は探索範囲内で上下左右方向に1画素ずつずらして類似度を算出し、もっとも類似度が高い場所へ移動した量を移動量として算出する。2つの画像を比較するためには基準となる画像が必要となる。基準となる画像の抽出方法の一例として、超解像処理を行うため必要な画像枚数をN枚とした場合、N枚の画像のうち撮像された時間がもっとも早い画像が基準となる画像として抽出される。
The
超解像処理部23は、画像シフト部22によって位置合わせが行われた画像を用いて超解像処理を行い、高解像度を有する画像を生成する。超解像処理とは、複数の画像を参照して解像度の高い画像を生成する技術である。超解像処理によってカメラ10によって撮像された画像の解像度を超える画像が生成される。なお、超解像処理は既に公に知られた周知の技術であるためここでは詳述しない。超解像処理部23によって生成された画像は道路構造物認識部24に出力される。
The
道路構造物認識部24は超解像処理部23から入力された画像を用いて道路構造物を認識する。本実施形態において道路構造物とは静止した物体と定義される。具体的には道路構造物には車線、停止線、横断歩道、矢印などの路面標示、路側帯、縁石、標識、信号機などの構造物が含まれる。道路構造物の認識方法の一例として各画素がどのような物体なのかを認識するSementic Segmentationが用いられる。道路構造物認識部24は認識結果を車両制御部25に出力する。
The road
車両制御部25は道路構造物認識部24によって認識された道路構造物を用いてステアリングアクチュエータ14、アクセルペダルアクチュエータ15、及びブレーキアクチュエータ16を制御し、ナビゲーション装置13に入力された目的地まで自車両を自動的に走行させる。
The
本実施形態において、GPS受信機12及びナビゲーション装置13は、自車両に搭載されていなくてもよい。ユーザが所持する携帯端末(例えばスマートフォン)を自車両の機能に連携させることができれば、携帯端末がGPS受信機12及びナビゲーション装置13の代替として機能する。
In this embodiment, the
次に図2を参照して超解像処理を行う領域の設定方法の一例を説明する。 Next, an example of a method for setting an area to be subjected to super-resolution processing will be described with reference to FIG.
図2に示すシーンは、3車線道路において左側車線を自車両が直進走行しているシーンである。図2に示す画像30は、カメラ10によって撮像された自車両前方の光景である。図2に示すシーンにおいて領域設定部21は自車両の進行方向を推定する。自車両の進行方向を推定する方法の一例として、ヨーレートが用いられる。図2に示すように自車両が直進走行しているとき、ヨーレートはゼロ、あるいはゼロとみなせるほど小さい値である。よってヨーレートがゼロ、あるいはゼロとみなせるほど小さい値であると判断されたとき、領域設定部21は自車両の進行方向は直進方向であると推定することが可能となる。
The scene shown in FIG. 2 is a scene in which the vehicle is traveling straight in the left lane on a three-lane road. An
自車両の進行方向を推定する方法はヨーレートを用いる方法に限定されない。例えば、走行区分線が用いられてもよい。図2に示すように自車両が直進走行しているとき、走行区分線も直線となる。よって走行区分線が直線と判断されたとき、領域設定部21は自車両の進行方向は直進方向であると推定してもよい。なお走行区分線は周知の画像処理によって検出される。
The method of estimating the traveling direction of the own vehicle is not limited to the method using the yaw rate. For example, lane markings may be used. As shown in FIG. 2, when the vehicle is traveling straight, the lane markings are also straight. Therefore, when the traffic lane marking is determined to be a straight line, the
その他として、ステアリングホイールの回転角度が用いられてもよい。図2に示すように自車両が直進走行しているとき、ステアリングホイールの回転角度はゼロ、あるいはゼロとみなせるほど小さい値である。よってステアリングホイールの回転角度がゼロ、あるいはゼロとみなせるほど小さい値であると判断されたとき、領域設定部21は自車両の進行方向は直進方向であると推定してもよい。
Alternatively, the rotation angle of the steering wheel may be used. As shown in FIG. 2, when the host vehicle is running straight, the rotation angle of the steering wheel is zero or a small value that can be regarded as zero. Therefore, when it is determined that the rotation angle of the steering wheel is zero or a value so small as to be regarded as zero, the
また、自車両が将来走行する走行軌道を設定し、設定した走行軌道に沿って走行するように自車両が制御される自動走行車両である場合には、設定された走行軌道から自車両の進行方向を推定することができる。あるいは、ナビゲーション装置などによって自車両の現在位置から目的地までの走行経路が探索されている場合には、探索された走行経路に基づいて自車両の進行方向を推定することができる。 In addition, if the vehicle is an automated driving vehicle that sets a travel trajectory on which the vehicle will travel in the future and is controlled to travel along the set travel trajectory, the vehicle will proceed from the set travel trajectory. Direction can be estimated. Alternatively, when a travel route from the current position of the vehicle to the destination is searched for by a navigation device or the like, the travel direction of the own vehicle can be estimated based on the searched travel route.
領域設定部21は自車両の進行方向を推定した後、推定した自車両の進行方向に基づいて超解像処理を行う画像上の領域を設定する。図2に示す符号41が超解像処理を行う領域である。図2に示すように、自車両の進行方向が直進方向と推定されたとき、領域設定部21は画像30において自車両の進行方向の一部を領域41として設定する。領域41は自車両から見て遠方に対応する画像上の領域であり、かつ自車両が走行する車線上に対応する画像上の領域でもある。ただし後述するように領域設定部21によって設定される領域は自車両が走行する車線上に対応する画像上の領域のみに限定されない。また領域41は画像30の上半分の範囲に設定されてもよい。なお、以下では特に断りが無い限り、「領域」とは画像上の領域を意味し、例えば「車線上の領域」とは画像上において車線上に対応した領域を意味する。
After estimating the traveling direction of the own vehicle, the
領域41が設定された後、画像シフト部22は異なるタイミングで撮像された複数の画像を用いて領域41に対して位置合わせを行う。超解像処理部23は、画像シフト部22によって位置合わせが行われた画像を用いて超解像処理を行い、高解像度を有する画像を生成する。超解像処理によって領域41が鮮明となる。このように本実施形態によれば自車両の進行方向に基づいて超解像処理を行う領域41が設定されるため、自車両の走行にとって適切な位置に超解像処理を行う領域を設定することが可能となる。
After the
次に図3を参照して超解像処理を行う領域の設定方法の他の例を説明する。 Next, another example of a method for setting an area to be subjected to super-resolution processing will be described with reference to FIG.
図3に示すシーンは、図2に示すシーンの続きであって、自車両が左側車線から中央車線へ車線変更するシーンである。この場合、領域設定部21はヨーレートを用いて自車両の進行方向が左側車線から中央車線への向かう方向と推定する。なお車線変更を行う際のヨーレートは予め実験、シミュレーションによって求められており、記憶装置(不図示)に格納されている。領域設定部21は記憶装置を参照して走行中に検出されたヨーレートと一致、あるいはほぼ一致するヨーレートを検出する。そして領域設定部21は検出結果に基づいて自車両の進行方向を推定する。
The scene shown in FIG. 3 is a continuation of the scene shown in FIG. 2, and is a scene in which the host vehicle changes lanes from the left lane to the center lane. In this case, the
記憶装置には自車両が左方向に車線変更するときのヨーレートだけでなく、自車両が右方向に車線変更するときのヨーレートも格納されている。さらに記憶装置には自車両が左折するときのヨーレート、自車両が右折するときのヨーレートも格納されている。 The storage device stores not only the yaw rate when the host vehicle changes lanes to the left, but also the yaw rate when the host vehicle changes lanes to the right. The storage device also stores the yaw rate when the vehicle turns left and the yaw rate when the vehicle turns right.
図3に示すシーンにおいて自車両の進行方向が左側車線から中央車線への向かう方向と推定されたとき、領域設定部21は中央車線上に領域41を設定する。
In the scene shown in FIG. 3, when the traveling direction of the own vehicle is estimated to be from the left lane to the center lane, the
次に図4を参照して超解像処理を行う領域の設定方法のさらに他の例を説明する。 Next, still another example of a method of setting an area for super-resolution processing will be described with reference to FIG.
図4に示すシーンは自車両が左折するシーンである。図4に示す画像31は、カメラ10によって撮像された自車両から見て左方向の光景である。この場合、領域設定部21はヨーレートを用いて自車両の進行方向が左方向と推定する。上述したように自車両が左折するときのヨーレートも予め判明しているため、領域設定部21はこれを参照すればよい。あるいは領域設定部21は走行区分線を用いて自車両の進行方向が左方向と推定してもよい。図4に示す走行区分線の一部は所定の曲率で曲がっている。このような走行区分線を用いることにより領域設定部21は自車両の進行方向が左方向と推定することが可能となる。自車両の進行方向が左方向と推定されたとき、領域設定部21は将来自車両が走行する車線上に領域42を設定する。
The scene shown in FIG. 4 is a scene in which the own vehicle turns left. An
なお図4に示すように領域設定部21は領域42を設定する際、領域43~44を設定してもよい。領域43~44は自車両が走行する車線の対向車線上に設定される領域である。領域43~44も領域42と同様に超解像処理を行う領域である。このように超解像処理を行う領域を対向車線まで広げることにより、自車両の走行に影響を与える可能性がある障害物(例えば対向車両)の認識精度が向上する。なお領域42のみが設定されてもよい。
As shown in FIG. 4, the
次に図5を参照して超解像処理を行う領域の設定方法のさらに他の例を説明する。 Next, still another example of the method of setting the area for super-resolution processing will be described with reference to FIG.
図5に示すシーンは自車両が交差点を走行するシーンである。図5に示す画像32は、カメラ10によって撮像された自車両前方の光景である。図5に示すシーンにおいて自車両の進行方向は直進方向である。領域設定部21は図2で説明した方法と同じ方法で自車両の進行方向を推定する。自車両の進行方向が直進方向と推定されたとき、領域設定部21は自車両が走行する車線上に領域45を設定する。領域45は、交差点の先において自車両が走行する車線(領域45で示される右側の車線)だけでなく、自車両が走行する車線に隣接する車線(領域45で示される左側の車線)も含む。ただし領域45はこれに限定されない。領域45は交差点の先において自車両が走行する車線のみを含む範囲でもよい。
The scene shown in FIG. 5 is a scene in which the own vehicle runs through an intersection. An
本実施形態では自車両の進行方向に基づいて超解像処理を行う領域を設定すると説明した。これに加えて図5に示すように横断歩道が画像32に含まれる場合、領域設定部21は画像上の横断歩道を超解像処理を行う領域46,47として設定してもよい。また図6に示すように画像32に交差点が含まれる場合、領域45を自車両から見て左右方向に相当する方向に拡げてもよい。拡げる範囲は特に限定されないが、走行車線、対向車線、及びこれらの車線以外の部分(例えば歩道)を含むように拡げてもよい。また図7に示すように左右方向に相当する方向に拡げた領域は複数領域に分割されてもよい。図7に示す例では4つの領域(領域48~51)に分割されている。領域48は歩道を含み、領域49は自車両が走行する車線を含み、領域50~51は対向車線を含む。超解像処理を行う場合、対象となる領域における物体の動きは同じあるいは類似することが好ましい。そこで走行車線、対向車線、及び歩道といった分類で領域をそれぞれ設定することにより精度の高い超解像処理が実現しうる。なお画像32に交差点が含まれるか否か、換言すれば自車両が交差点を走行するか否かについて、コントローラ20は、GPS受信機12から取得した自車両の位置情報とナビゲーション装置13に格納されている地図データベースとを参照することにより判断することが可能である。あるいは画像処理によって自車両が交差点を走行するか否か判断されてもよい。
In the present embodiment, it has been described that the region for super-resolution processing is set based on the traveling direction of the host vehicle. In addition to this, when a pedestrian crossing is included in the
次に、図8のフローチャートを参照して、車両用環境認識装置1の一動作例を説明する。 Next, an operation example of the vehicle environment recognition device 1 will be described with reference to the flowchart of FIG.
ステップS101において、自車両に搭載されたカメラ10によって自車両の周囲が異なるタイミングで撮像される。処理はステップS103に進みコントローラ20はヨーレートセンサ11から自車両のヨーレートを取得する。またコントローラ20はGPS受信機12から自車両の位置情報を取得する。
In step S101, the surroundings of the own vehicle are imaged at different timings by the
処理はステップS105に進み、領域設定部21は主にヨーレートセンサ11から自車両のヨーレートに基づいて自車両の進行方向を推定する。ただし上述したとおり、自車両の進行方向を推定する方法はヨーレートを用いる方法に限定されない。領域設定部21は複数の画像のそれぞれに対して、推定された自車両の進行方向に基づいて超解像処理を行う領域を設定する。
The process proceeds to step S<b>105 , and the
処理はステップS107に進み、画像シフト部22は異なるタイミングで撮像された複数の画像を用いて領域に対して位置合わせを行う。処理はステップS109に進み、超解像処理部23は画像シフト部22によって位置合わせが行われた画像を用いて超解像処理を行い、高解像度を有する画像を生成する。処理はステップS111に進み、超解像処理部23によって生成された画像は道路構造物認識部24に出力される。
The process advances to step S107, and the
処理はステップS113に進み、道路構造物認識部24は超解像処理部23から入力された画像を用いて道路構造物を認識する。処理はステップS115に進み、車両制御部25は道路構造物認識部24によって認識された道路構造物を用いてステアリングアクチュエータ14、アクセルペダルアクチュエータ15、及びブレーキアクチュエータ16を制御する。
The process proceeds to step S<b>113 , and the road
(作用効果)
以上説明したように、本実施形態に係る車両用環境認識装置1によれば、以下の作用効果が得られる。
(Effect)
As described above, according to the vehicle environment recognition device 1 according to the present embodiment, the following effects can be obtained.
車両用環境認識装置1は自車両の周囲を異なるタイミングで複数回撮像するカメラ10と、カメラ10によって異なるタイミングで撮像された複数の画像を処理するコントローラ20とを備える。コントローラ20は自車両の進行方向を推定し、推定された自車両の進行方向に基づいて複数の画像のそれぞれに対して画像上で所定の領域を設定する。コントローラ20は設定された領域における画像上の移動量に基づいて複数の画像の位置合わせを行う。コントローラ20は位置合わせが行われた複数の画像を用いて超解像処理を行い、カメラ10によって撮像された画像の解像度を超える超解像画像を生成する。そしてコントローラ20は超解像画像に基づいて道路構造物を認識する。本実施形態によれば自車両の進行方向に基づいて超解像処理を行う領域が設定されるため、自車両の走行にとって適切な位置に超解像処理を行う領域を設定することが可能となる。
The vehicular environment recognition device 1 includes a
また、自車両が交差点を走行すると判断された場合、コントローラ20は超解像処理を行う領域を自車両から見て左右方向に相当する方向に拡げる。これにより自車両の走行に影響を与える可能性がある障害物(例えば対向車両)を含む範囲に超解像処理を行う領域を設定することが可能となる。
Further, when it is determined that the vehicle is traveling through an intersection, the
さらにコントローラ20は画像上の横断歩道の位置に超解像処理を行う領域を設定してもよい。これにより自車両の走行に影響を与える可能性がある障害物(例えば歩行者)を含む範囲に超解像処理を行う領域を設定することが可能となる。
Furthermore, the
またコントローラ20は拡げられた領域を複数に分割してもよい。超解像処理を行う場合、対象となる領域における物体の動きは同じあるいは類似することが好ましい。そこで動きが同じあるいは類似する物体が含まれるように領域を分割することにより精度の高い超解像処理が実現しうる。
Also, the
コントローラ20は自車両のヨーレートを検出するヨーレートセンサ11から取得したヨーレート、あるいは、画像から取得された走行区分線に関する情報に基づいて自車両の進行方向を推定する。このように推定された自車両の進行方向に基づいて超解像処理を行う領域が設定されるため、自車両の走行にとって適切な位置に超解像処理を行う領域を設定することが可能となる。
The
上述の実施形態に記載される各機能は、1または複数の処理回路により実装され得る。処理回路は、電気回路を含む処理装置等のプログラムされた処理装置を含む。処理回路は、また、記載された機能を実行するようにアレンジされた特定用途向け集積回路(ASIC)や回路部品等の装置を含む。 Each function described in the above embodiments may be implemented by one or more processing circuits. Processing circuitry includes programmed processing devices, such as processing devices that include electrical circuitry. Processing circuitry also includes devices such as application specific integrated circuits (ASICs) and circuit components arranged to perform the described functions.
上記のように、本発明の実施形態を記載したが、この開示の一部をなす論述及び図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。 While embodiments of the present invention have been described above, the discussion and drawings forming part of this disclosure should not be construed as limiting the invention. Various alternative embodiments, implementations and operational techniques will become apparent to those skilled in the art from this disclosure.
1 車両用環境認識装置
10 カメラ
11 ヨーレートセンサ
12 GPS受信機
13 ナビゲーション装置
14 ステアリングアクチュエータ
15 アクセルペダルアクチュエータ
16 ブレーキアクチュエータ
20 コントローラ
21 領域設定部
22 画像シフト部
23 超解像処理部
24 道路構造物認識部
25 車両制御部
1 vehicle
Claims (6)
前記コントローラは、
前記自車両の進行方向を推定し、
推定された前記自車両の進行方向に基づいて前記複数の画像のそれぞれに対して画像上で所定の領域を設定し、
設定された前記領域における画像上の移動量に基づいて、前記複数の画像の位置合わせを行い、
前記位置合わせが行われた複数の画像を用いて超解像処理を行い、前記カメラによって撮像された画像の解像度を超える超解像画像を生成し、
前記超解像画像に基づいて道路構造物を認識する
ことを特徴とする車両用環境認識方法。 A vehicular environment recognition method comprising: a camera that captures multiple images of the surroundings of the vehicle at different timings; and a controller that processes the multiple images captured by the camera at different timings,
The controller is
estimating the traveling direction of the own vehicle;
setting a predetermined area on each of the plurality of images based on the estimated traveling direction of the own vehicle;
aligning the plurality of images based on the amount of movement on the image in the set area;
Performing super-resolution processing using the aligned images to generate a super-resolution image exceeding the resolution of the image captured by the camera,
A vehicle environment recognition method, wherein a road structure is recognized based on the super-resolution image.
ことを特徴とする請求項1に記載の車両用環境認識方法。 2. The environment recognition method for a vehicle according to claim 1, wherein, when it is determined that said vehicle will run through an intersection, said controller expands said area in a direction corresponding to a horizontal direction as viewed from said vehicle.
ことを特徴とする請求項2に記載の車両用環境認識方法。 3. The vehicle environment recognition method according to claim 2, wherein the controller sets the region at a position of a pedestrian crossing on the image.
ことを特徴とする請求項2または3に記載の車両用環境認識方法。 4. The vehicle environment recognition method according to claim 2, wherein the controller divides the expanded area into a plurality of areas.
ことを特徴とする請求項1~4のいずれか1項に記載の車両用環境認識方法。 The controller estimates the direction of travel of the vehicle based on the yaw rate obtained from a sensor that detects the yaw rate of the vehicle, or information on traffic lane markings obtained from the image. Item 5. The vehicle environment recognition method according to any one of Items 1 to 4.
前記カメラによって異なるタイミングで撮像された複数の画像を処理するコントローラとを備え、
前記コントローラは、
前記自車両の進行方向を推定し、
推定された前記自車両の進行方向に基づいて前記複数の画像のそれぞれに対して画像上で所定の領域を設定し、
設定された前記領域における画像上の移動量に基づいて、前記複数の画像の位置合わせを行い、
前記位置合わせが行われた複数の画像を用いて超解像処理を行い、前記カメラによって撮像された画像の解像度を超える超解像画像を生成し、
前記超解像画像に基づいて道路構造物を認識する
ことを特徴とする車両用環境認識装置。 a camera that captures multiple images of the surroundings of the vehicle at different times;
A controller that processes a plurality of images captured at different timings by the camera,
The controller is
estimating the traveling direction of the own vehicle;
setting a predetermined area on each of the plurality of images based on the estimated traveling direction of the own vehicle;
aligning the plurality of images based on the amount of movement on the image in the set area;
Performing super-resolution processing using the aligned images to generate a super-resolution image exceeding the resolution of the image captured by the camera,
An environment recognition device for a vehicle, wherein a road structure is recognized based on the super-resolution image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021006277A JP2022110706A (en) | 2021-01-19 | 2021-01-19 | Vehicle Environment Recognition Method and Vehicle Environment Recognition Device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021006277A JP2022110706A (en) | 2021-01-19 | 2021-01-19 | Vehicle Environment Recognition Method and Vehicle Environment Recognition Device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022110706A true JP2022110706A (en) | 2022-07-29 |
Family
ID=82575351
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021006277A Pending JP2022110706A (en) | 2021-01-19 | 2021-01-19 | Vehicle Environment Recognition Method and Vehicle Environment Recognition Device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022110706A (en) |
-
2021
- 2021-01-19 JP JP2021006277A patent/JP2022110706A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109313856B (en) | Object detection method and object detection device | |
US10831205B2 (en) | Route determination device, vehicle control device, route determination method, and storage medium | |
JP6451844B2 (en) | Vehicle position determination device and vehicle position determination method | |
CN109328376B (en) | Object tracking method and object tracking device | |
CN110622226A (en) | Method and device for predicting operation of travel assistance device | |
JP7222799B2 (en) | ROAD TYPE DETERMINATION DEVICE AND DRIVING ASSIST DEVICE | |
JP6574224B2 (en) | Vehicle control apparatus, vehicle, vehicle control method, and program | |
JP2017009553A (en) | Vehicle location determination device and vehicle location determination method | |
Dickmann et al. | Present research activities and future requirements on automotive radar from a car manufacturer´ s point of view | |
JP6488913B2 (en) | Vehicle position determination device and vehicle position determination method | |
CN114973644B (en) | Road information generating device | |
JP2022110706A (en) | Vehicle Environment Recognition Method and Vehicle Environment Recognition Device | |
CN114987529A (en) | Map generation device | |
JP7259939B2 (en) | Behavior prediction method, behavior prediction device, and vehicle control device | |
JP7149171B2 (en) | Object recognition method and object recognition device | |
US20220254056A1 (en) | Distance calculation apparatus and vehicle position estimation apparatus | |
JP7236279B2 (en) | Driving support method and driving support device | |
JP7323716B2 (en) | Image processing device and image processing method | |
US20240020989A1 (en) | Vehicle assist method and vehicle assist device | |
US20220291015A1 (en) | Map generation apparatus and vehicle position recognition apparatus | |
JP6837948B2 (en) | Vehicle control devices, vehicles, vehicle control methods and programs | |
JP2023151308A (en) | Preceding vehicle determination method and preceding vehicle determination device | |
CN114987528A (en) | Map generation device | |
JP2022150534A (en) | Travelling control device | |
JP2022138524A (en) | Travel support method and travel support device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231107 |