JP2022110706A - Vehicle Environment Recognition Method and Vehicle Environment Recognition Device - Google Patents

Vehicle Environment Recognition Method and Vehicle Environment Recognition Device Download PDF

Info

Publication number
JP2022110706A
JP2022110706A JP2021006277A JP2021006277A JP2022110706A JP 2022110706 A JP2022110706 A JP 2022110706A JP 2021006277 A JP2021006277 A JP 2021006277A JP 2021006277 A JP2021006277 A JP 2021006277A JP 2022110706 A JP2022110706 A JP 2022110706A
Authority
JP
Japan
Prior art keywords
vehicle
super
image
controller
environment recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021006277A
Other languages
Japanese (ja)
Inventor
トンミ ケラネン
Keranen Tommi
宏 佐藤
Hiroshi Sato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Nissan Motor Co Ltd
Original Assignee
Renault SAS
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS, Nissan Motor Co Ltd filed Critical Renault SAS
Priority to JP2021006277A priority Critical patent/JP2022110706A/en
Publication of JP2022110706A publication Critical patent/JP2022110706A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a vehicle environment recognition method and a vehicle environment recognition device capable of appropriately setting a region to which super-resolution processing is applied.SOLUTION: A vehicle environment recognition device 1 comprises: a camera 10 which images a periphery of a self vehicle a plurality of times in different timing; and a controller 20 for processing a plurality of images captured by the camera 10 in the different timing. The controller 20 estimates a travel direction of the self vehicle and sets a predetermined region on the image for each of the plurality of images on the basis of the estimated travel direction of the self vehicle. The controller 20 aligns the plurality of images on the basis of a moving amount on the image in the set region. The controller 20 performs super-resolution processing using the plurality of aligned images and generates a super-resolution image exceeding resolutions of the images captured by the camera 10. The controller 20 then recognizes a road structure on the basis of the super-resolution image.SELECTED DRAWING: Figure 1

Description

本発明は、車両用環境認識方法及び車両用環境認識装置に関する。 The present invention relates to a vehicle environment recognition method and a vehicle environment recognition device.

従来より、車両のナンバープレートをカメラで撮像して認識する発明が知られている(特許文献1)。特許文献1に記載された発明は識別媒体の領域が予め設定された領域内に位置すると判定された場合に超解像処理を行いナンバープレートを認識する。 Conventionally, there has been known an invention in which a license plate of a vehicle is imaged by a camera and recognized (Patent Document 1). The invention described in Patent Document 1 performs super-resolution processing and recognizes a license plate when it is determined that the area of the identification medium is located within a preset area.

米国特許出願公開第2018/0189590号明細書U.S. Patent Application Publication No. 2018/0189590

しかしながら、特許文献1に記載された発明のような特定の領域に超解像領域を設定する方法では適切な超解像領域を設定することができないおそれがある。 However, there is a possibility that an appropriate super-resolution area cannot be set with the method of setting a super-resolution area in a specific area, such as the invention described in Patent Document 1.

本発明は、上記問題に鑑みて成されたものであり、その目的は、超解像処理を行う領域を適切に設定することが可能となる車両用環境認識方法及び車両用環境認識装置を提供することである。 The present invention has been made in view of the above problems, and its object is to provide a vehicular environment recognition method and a vehicular environment recognition device capable of appropriately setting an area to be subjected to super-resolution processing. It is to be.

本発明の一態様に係る車両用環境認識方法は、自車両の進行方向を推定し、推定された自車両の進行方向に基づいて複数の画像のそれぞれに対して画像上で所定の領域を設定し、設定された領域における画像上の移動量に基づいて、複数の画像の位置合わせを行い、位置合わせが行われた複数の画像を用いて超解像処理を行い、カメラによって撮像された画像の解像度を超える超解像画像を生成し、超解像画像に基づいて道路構造物を認識する。 A vehicle environment recognition method according to an aspect of the present invention estimates a traveling direction of a vehicle, and sets a predetermined region on each of a plurality of images based on the estimated traveling direction of the vehicle. Then, a plurality of images are aligned based on the amount of movement on the image in the set area, super-resolution processing is performed using the aligned images, and an image captured by the camera A super-resolution image exceeding the resolution of is generated, and road structures are recognized based on the super-resolution image.

本発明によれば、超解像処理を行う領域を適切に設定することが可能となる。 According to the present invention, it is possible to appropriately set an area for super-resolution processing.

図1は、本発明の実施形態に係る車両用環境認識装置1の構成図である。FIG. 1 is a configuration diagram of a vehicle environment recognition device 1 according to an embodiment of the present invention. 図2は、超解像処理を行う領域の設定方法の一例を説明する図である。FIG. 2 is a diagram illustrating an example of a method of setting an area for super-resolution processing. 図3は、超解像処理を行う領域の設定方法の他の例を説明する図である。FIG. 3 is a diagram illustrating another example of a method of setting an area for super-resolution processing. 図4は、超解像処理を行う領域の設定方法のさらに他の例を説明する図である。FIG. 4 is a diagram illustrating still another example of a method of setting an area for super-resolution processing. 図5は、超解像処理を行う領域の設定方法のさらに他の例を説明する図である。FIG. 5 is a diagram illustrating still another example of a method of setting an area for super-resolution processing. 図6は、超解像処理を行う領域の設定方法のさらに他の例を説明する図である。FIG. 6 is a diagram illustrating still another example of a method of setting an area for super-resolution processing. 図7は、超解像処理を行う領域の設定方法のさらに他の例を説明する図である。FIG. 7 is a diagram for explaining still another example of a method of setting an area for super-resolution processing. 図8は、車両用環境認識装置1の一動作例を説明するフローチャートである。FIG. 8 is a flowchart for explaining an operation example of the vehicle environment recognition device 1 .

以下、本発明の実施形態について、図面を参照して説明する。図面の記載において同一部分には同一符号を付して説明を省略する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the description of the drawings, the same parts are denoted by the same reference numerals, and the description thereof is omitted.

図1を参照して車両用環境認識装置1の構成例を説明する。図1に示すように、車両用環境認識装置1は、カメラ10と、ヨーレートセンサ11と、GPS受信機12と、ナビゲーション装置13と、コントローラ20と、ステアリングアクチュエータ14と、アクセルペダルアクチュエータ15と、ブレーキアクチュエータ16を備える。 A configuration example of a vehicle environment recognition device 1 will be described with reference to FIG. As shown in FIG. 1, the vehicle environment recognition device 1 includes a camera 10, a yaw rate sensor 11, a GPS receiver 12, a navigation device 13, a controller 20, a steering actuator 14, an accelerator pedal actuator 15, A brake actuator 16 is provided.

車両用環境認識装置1は自動運転機能を有する車両に搭載されてもよく、自動運転機能を有しない車両に搭載されてもよい。また、車両用環境認識装置1は自動運転と手動運転とを切り替えることが可能な車両に搭載されてもよい。また、自動運転機能は操舵制御、制動力制御、駆動力制御などの車両制御機能のうちの一部の機能のみを自動的に制御して運転者の運転を支援する運転支援機能であってもよい。本実施形態では車両用環境認識装置1は自動運転機能を有する車両に搭載されるものとして説明する。 The vehicular environment recognition device 1 may be installed in a vehicle having an automatic driving function, or may be installed in a vehicle without an automatic driving function. Further, the vehicle environment recognition device 1 may be installed in a vehicle capable of switching between automatic driving and manual driving. In addition, even if the automatic driving function is a driving support function that automatically controls only a part of the vehicle control functions such as steering control, braking force control, and driving force control to assist the driver's driving. good. In this embodiment, the vehicular environment recognition device 1 is assumed to be installed in a vehicle having an automatic driving function.

カメラ10はCCD(charge-coupled device)、CMOS(complementary metal oxide semiconductor)などの撮像素子を有する。カメラ10の設置場所は特に限定されないが、一例としてカメラ10は自車両の前方、側方、後方に設置される。カメラ10は所定の周期(例えば10msec程度の短周期)で自車両の周囲を連続的に撮像する。つまりカメラ10は異なるタイミングで撮像した複数の画像を取得する。カメラ10は自車両の周囲に存在する物体(歩行者、自転車、バイク、他車両など)、及び自車両の前方の情報(区画線、信号機、標識、横断歩道、交差点など)を検出する。カメラ10によって撮像された画像はコントローラ20に出力される。 The camera 10 has an imaging device such as a CCD (charge-coupled device) or a CMOS (complementary metal oxide semiconductor). Although the installation location of the camera 10 is not particularly limited, as an example, the camera 10 is installed in front of, on the side of, and behind the own vehicle. The camera 10 continuously images the surroundings of the own vehicle at a predetermined cycle (for example, a short cycle of about 10 msec). That is, the camera 10 acquires a plurality of images captured at different timings. The camera 10 detects objects (pedestrians, bicycles, motorcycles, other vehicles, etc.) existing around the own vehicle and information (laning lines, traffic lights, signs, pedestrian crossings, intersections, etc.) ahead of the own vehicle. Images captured by the camera 10 are output to the controller 20 .

ヨーレートセンサ11は自車両のヨーレート(旋回方向への回転角の変化速度)を検出する。ヨーレートセンサ11は検出したヨーレートをコントローラ20に出力する。 The yaw rate sensor 11 detects the yaw rate of the host vehicle (speed of change in rotation angle in the turning direction). The yaw rate sensor 11 outputs the detected yaw rate to the controller 20 .

GPS受信機12は、人工衛星からの電波を受信することにより、地上における自車両の位置情報を検出する。GPS受信機12が検出する自車両の位置情報には、緯度情報、及び経度情報が含まれる。なお、自車両の位置情報を検出する方法はGPS受信機12に限定されない。例えばオドメトリと呼ばれる方法を用いて位置を推定してもよい。オドメトリとは、自車両の回転角、回転角速度に応じて自車両の移動量及びと移動方向を求めることにより、自車両の位置を推定する方法である。GPS受信機12は検出した位置情報をコントローラ20に出力する。 The GPS receiver 12 detects positional information of the own vehicle on the ground by receiving radio waves from artificial satellites. The position information of the host vehicle detected by the GPS receiver 12 includes latitude information and longitude information. It should be noted that the method of detecting the position information of the own vehicle is not limited to the GPS receiver 12 . For example, the position may be estimated using a method called odometry. Odometry is a method of estimating the position of the own vehicle by obtaining the movement amount and the movement direction of the own vehicle according to the rotation angle and rotation angular velocity of the own vehicle. The GPS receiver 12 outputs the detected positional information to the controller 20 .

コントローラ20は、CPU(中央処理装置)、メモリ、及び入出力部を備える汎用のマイクロコンピュータである。マイクロコンピュータには、車両用環境認識装置1として機能させるためのコンピュータプログラムがインストールされている。コンピュータプログラムを実行することにより、マイクロコンピュータは車両用環境認識装置1が備える複数の情報処理回路として機能する。なおここでは、ソフトウェアによって車両用環境認識装置1が備える複数の情報処理回路を実現する例を示すが、もちろん以下に示す各情報処理を実行するための専用のハードウェアを用意して情報処理回路を構成することも可能である。また複数の情報処理回路を個別のハードウェアにより構成してもよい。コントローラ20は、複数の情報処理回路の一例として、領域設定部21と、画像シフト部22と、超解像処理部23と、道路構造物認識部24と、車両制御部25を備える。 The controller 20 is a general-purpose microcomputer having a CPU (Central Processing Unit), memory, and an input/output unit. A computer program is installed in the microcomputer to function as the vehicle environment recognition device 1 . By executing the computer program, the microcomputer functions as a plurality of information processing circuits included in the vehicle environment recognition device 1 . Here, an example of realizing a plurality of information processing circuits provided in the environment recognition device 1 for a vehicle by software is shown. It is also possible to configure Also, a plurality of information processing circuits may be configured by individual hardware. The controller 20 includes an area setting section 21, an image shift section 22, a super-resolution processing section 23, a road structure recognition section 24, and a vehicle control section 25 as an example of a plurality of information processing circuits.

領域設定部21は、ヨーレートセンサ11から取得したヨーレートを用いて自車両の進行方向を推定し、推定した自車両の進行方向に基づいて超解像処理を行う領域を設定する。本実施形態において、超解像処理を行う領域はカメラ10によって撮像された画像の一部である。なお後述するように自車両の進行方向を推定する方法はヨーレートを用いた方法に限定されない。 The region setting unit 21 estimates the traveling direction of the vehicle using the yaw rate obtained from the yaw rate sensor 11, and sets a region for super-resolution processing based on the estimated traveling direction of the vehicle. In this embodiment, the area on which super-resolution processing is performed is part of the image captured by the camera 10 . As will be described later, the method of estimating the traveling direction of the host vehicle is not limited to the method using the yaw rate.

画像シフト部22は画像間の移動量を算出し、算出した移動量の分だけ画像を移動させて位置合わせを行う。画像の移動量とは2つの画像間の移動量である。このような移動量算出にはSSD(Sum of Squared Difference)、SAD(Sum of Absolute Difference)、ZNCC(Zero-mean Normalized Cross-Correlation)などが用いられる。具体的には画像シフト部22は探索範囲内で上下左右方向に1画素ずつずらして類似度を算出し、もっとも類似度が高い場所へ移動した量を移動量として算出する。2つの画像を比較するためには基準となる画像が必要となる。基準となる画像の抽出方法の一例として、超解像処理を行うため必要な画像枚数をN枚とした場合、N枚の画像のうち撮像された時間がもっとも早い画像が基準となる画像として抽出される。 The image shift unit 22 calculates the amount of movement between images, and positions the images by moving the images by the calculated amount of movement. The amount of image movement is the amount of movement between two images. SSD (Sum of Squared Difference), SAD (Sum of Absolute Difference), ZNCC (Zero-mean Normalized Cross-Correlation), and the like are used for such movement amount calculation. Specifically, the image shifter 22 calculates the degree of similarity by shifting one pixel each in the vertical and horizontal directions within the search range, and calculates the amount of movement to the location with the highest degree of similarity as the amount of movement. A reference image is required to compare two images. As an example of a method for extracting a reference image, if the number of images required for super-resolution processing is N, the image that was captured the earliest among the N images is extracted as the reference image. be done.

超解像処理部23は、画像シフト部22によって位置合わせが行われた画像を用いて超解像処理を行い、高解像度を有する画像を生成する。超解像処理とは、複数の画像を参照して解像度の高い画像を生成する技術である。超解像処理によってカメラ10によって撮像された画像の解像度を超える画像が生成される。なお、超解像処理は既に公に知られた周知の技術であるためここでは詳述しない。超解像処理部23によって生成された画像は道路構造物認識部24に出力される。 The super-resolution processing unit 23 performs super-resolution processing using the image aligned by the image shift unit 22 to generate an image with high resolution. Super-resolution processing is a technique for generating a high-resolution image by referring to a plurality of images. An image exceeding the resolution of the image captured by the camera 10 is generated by super-resolution processing. Note that super-resolution processing is a well-known technique that has already been publicly known, and therefore will not be described in detail here. The image generated by the super-resolution processing section 23 is output to the road structure recognition section 24 .

道路構造物認識部24は超解像処理部23から入力された画像を用いて道路構造物を認識する。本実施形態において道路構造物とは静止した物体と定義される。具体的には道路構造物には車線、停止線、横断歩道、矢印などの路面標示、路側帯、縁石、標識、信号機などの構造物が含まれる。道路構造物の認識方法の一例として各画素がどのような物体なのかを認識するSementic Segmentationが用いられる。道路構造物認識部24は認識結果を車両制御部25に出力する。 The road structure recognition unit 24 uses the image input from the super-resolution processing unit 23 to recognize road structures. A road structure in this embodiment is defined as a stationary object. Specifically, road structures include structures such as lanes, stop lines, pedestrian crossings, road markings such as arrows, roadside strips, curbs, signs, and traffic lights. As an example of a road structure recognition method, sementic segmentation is used to recognize what kind of object each pixel is. The road structure recognition section 24 outputs the recognition result to the vehicle control section 25 .

車両制御部25は道路構造物認識部24によって認識された道路構造物を用いてステアリングアクチュエータ14、アクセルペダルアクチュエータ15、及びブレーキアクチュエータ16を制御し、ナビゲーション装置13に入力された目的地まで自車両を自動的に走行させる。 The vehicle control unit 25 controls the steering actuator 14, the accelerator pedal actuator 15, and the brake actuator 16 using the road structure recognized by the road structure recognition unit 24, and drives the vehicle to the destination input to the navigation device 13. run automatically.

本実施形態において、GPS受信機12及びナビゲーション装置13は、自車両に搭載されていなくてもよい。ユーザが所持する携帯端末(例えばスマートフォン)を自車両の機能に連携させることができれば、携帯端末がGPS受信機12及びナビゲーション装置13の代替として機能する。 In this embodiment, the GPS receiver 12 and the navigation device 13 may not be mounted on the own vehicle. If the mobile terminal (for example, smart phone) owned by the user can be linked to the function of the own vehicle, the mobile terminal will function as a substitute for the GPS receiver 12 and the navigation device 13 .

次に図2を参照して超解像処理を行う領域の設定方法の一例を説明する。 Next, an example of a method for setting an area to be subjected to super-resolution processing will be described with reference to FIG.

図2に示すシーンは、3車線道路において左側車線を自車両が直進走行しているシーンである。図2に示す画像30は、カメラ10によって撮像された自車両前方の光景である。図2に示すシーンにおいて領域設定部21は自車両の進行方向を推定する。自車両の進行方向を推定する方法の一例として、ヨーレートが用いられる。図2に示すように自車両が直進走行しているとき、ヨーレートはゼロ、あるいはゼロとみなせるほど小さい値である。よってヨーレートがゼロ、あるいはゼロとみなせるほど小さい値であると判断されたとき、領域設定部21は自車両の進行方向は直進方向であると推定することが可能となる。 The scene shown in FIG. 2 is a scene in which the vehicle is traveling straight in the left lane on a three-lane road. An image 30 shown in FIG. 2 is a scene in front of the vehicle captured by the camera 10 . In the scene shown in FIG. 2, the region setting unit 21 estimates the traveling direction of the own vehicle. A yaw rate is used as an example of a method of estimating the traveling direction of the host vehicle. As shown in FIG. 2, when the vehicle is traveling straight ahead, the yaw rate is zero or a value so small that it can be regarded as zero. Therefore, when it is determined that the yaw rate is zero or a value so small as to be regarded as zero, the region setting unit 21 can estimate that the vehicle is traveling straight ahead.

自車両の進行方向を推定する方法はヨーレートを用いる方法に限定されない。例えば、走行区分線が用いられてもよい。図2に示すように自車両が直進走行しているとき、走行区分線も直線となる。よって走行区分線が直線と判断されたとき、領域設定部21は自車両の進行方向は直進方向であると推定してもよい。なお走行区分線は周知の画像処理によって検出される。 The method of estimating the traveling direction of the own vehicle is not limited to the method using the yaw rate. For example, lane markings may be used. As shown in FIG. 2, when the vehicle is traveling straight, the lane markings are also straight. Therefore, when the traffic lane marking is determined to be a straight line, the area setting unit 21 may estimate that the vehicle is traveling straight ahead. The lane markings are detected by well-known image processing.

その他として、ステアリングホイールの回転角度が用いられてもよい。図2に示すように自車両が直進走行しているとき、ステアリングホイールの回転角度はゼロ、あるいはゼロとみなせるほど小さい値である。よってステアリングホイールの回転角度がゼロ、あるいはゼロとみなせるほど小さい値であると判断されたとき、領域設定部21は自車両の進行方向は直進方向であると推定してもよい。 Alternatively, the rotation angle of the steering wheel may be used. As shown in FIG. 2, when the host vehicle is running straight, the rotation angle of the steering wheel is zero or a small value that can be regarded as zero. Therefore, when it is determined that the rotation angle of the steering wheel is zero or a value so small as to be regarded as zero, the region setting unit 21 may estimate that the vehicle is traveling straight ahead.

また、自車両が将来走行する走行軌道を設定し、設定した走行軌道に沿って走行するように自車両が制御される自動走行車両である場合には、設定された走行軌道から自車両の進行方向を推定することができる。あるいは、ナビゲーション装置などによって自車両の現在位置から目的地までの走行経路が探索されている場合には、探索された走行経路に基づいて自車両の進行方向を推定することができる。 In addition, if the vehicle is an automated driving vehicle that sets a travel trajectory on which the vehicle will travel in the future and is controlled to travel along the set travel trajectory, the vehicle will proceed from the set travel trajectory. Direction can be estimated. Alternatively, when a travel route from the current position of the vehicle to the destination is searched for by a navigation device or the like, the travel direction of the own vehicle can be estimated based on the searched travel route.

領域設定部21は自車両の進行方向を推定した後、推定した自車両の進行方向に基づいて超解像処理を行う画像上の領域を設定する。図2に示す符号41が超解像処理を行う領域である。図2に示すように、自車両の進行方向が直進方向と推定されたとき、領域設定部21は画像30において自車両の進行方向の一部を領域41として設定する。領域41は自車両から見て遠方に対応する画像上の領域であり、かつ自車両が走行する車線上に対応する画像上の領域でもある。ただし後述するように領域設定部21によって設定される領域は自車両が走行する車線上に対応する画像上の領域のみに限定されない。また領域41は画像30の上半分の範囲に設定されてもよい。なお、以下では特に断りが無い限り、「領域」とは画像上の領域を意味し、例えば「車線上の領域」とは画像上において車線上に対応した領域を意味する。 After estimating the traveling direction of the own vehicle, the area setting unit 21 sets an area on the image for super-resolution processing based on the estimated traveling direction of the own vehicle. Reference numeral 41 shown in FIG. 2 is an area where super-resolution processing is performed. As shown in FIG. 2 , when the traveling direction of the own vehicle is estimated to be straight ahead, the area setting unit 21 sets a part of the traveling direction of the own vehicle as an area 41 in the image 30 . A region 41 is a region on the image corresponding to a distance from the vehicle, and is also a region on the image corresponding to the lane on which the vehicle is traveling. However, as will be described later, the area set by the area setting unit 21 is not limited to only the area on the image corresponding to the lane on which the host vehicle travels. Also, the area 41 may be set in the upper half range of the image 30 . In the following, unless otherwise specified, the term "region" means a region on the image, and for example, the term "region on the lane" means a region on the image corresponding to the lane.

領域41が設定された後、画像シフト部22は異なるタイミングで撮像された複数の画像を用いて領域41に対して位置合わせを行う。超解像処理部23は、画像シフト部22によって位置合わせが行われた画像を用いて超解像処理を行い、高解像度を有する画像を生成する。超解像処理によって領域41が鮮明となる。このように本実施形態によれば自車両の進行方向に基づいて超解像処理を行う領域41が設定されるため、自車両の走行にとって適切な位置に超解像処理を行う領域を設定することが可能となる。 After the area 41 is set, the image shifter 22 performs alignment with respect to the area 41 using a plurality of images captured at different timings. The super-resolution processing unit 23 performs super-resolution processing using the image aligned by the image shift unit 22 to generate an image with high resolution. The area 41 becomes clear by the super-resolution processing. As described above, according to the present embodiment, the region 41 for performing super-resolution processing is set based on the traveling direction of the vehicle. becomes possible.

次に図3を参照して超解像処理を行う領域の設定方法の他の例を説明する。 Next, another example of a method for setting an area to be subjected to super-resolution processing will be described with reference to FIG.

図3に示すシーンは、図2に示すシーンの続きであって、自車両が左側車線から中央車線へ車線変更するシーンである。この場合、領域設定部21はヨーレートを用いて自車両の進行方向が左側車線から中央車線への向かう方向と推定する。なお車線変更を行う際のヨーレートは予め実験、シミュレーションによって求められており、記憶装置(不図示)に格納されている。領域設定部21は記憶装置を参照して走行中に検出されたヨーレートと一致、あるいはほぼ一致するヨーレートを検出する。そして領域設定部21は検出結果に基づいて自車両の進行方向を推定する。 The scene shown in FIG. 3 is a continuation of the scene shown in FIG. 2, and is a scene in which the host vehicle changes lanes from the left lane to the center lane. In this case, the region setting unit 21 uses the yaw rate to estimate that the traveling direction of the vehicle is from the left lane to the center lane. Note that the yaw rate for changing lanes is obtained in advance through experiments and simulations, and is stored in a storage device (not shown). The region setting unit 21 refers to the storage device and detects a yaw rate that matches or substantially matches the yaw rate detected during running. Then, the region setting unit 21 estimates the traveling direction of the own vehicle based on the detection result.

記憶装置には自車両が左方向に車線変更するときのヨーレートだけでなく、自車両が右方向に車線変更するときのヨーレートも格納されている。さらに記憶装置には自車両が左折するときのヨーレート、自車両が右折するときのヨーレートも格納されている。 The storage device stores not only the yaw rate when the host vehicle changes lanes to the left, but also the yaw rate when the host vehicle changes lanes to the right. The storage device also stores the yaw rate when the vehicle turns left and the yaw rate when the vehicle turns right.

図3に示すシーンにおいて自車両の進行方向が左側車線から中央車線への向かう方向と推定されたとき、領域設定部21は中央車線上に領域41を設定する。 In the scene shown in FIG. 3, when the traveling direction of the own vehicle is estimated to be from the left lane to the center lane, the area setting unit 21 sets an area 41 on the center lane.

次に図4を参照して超解像処理を行う領域の設定方法のさらに他の例を説明する。 Next, still another example of a method of setting an area for super-resolution processing will be described with reference to FIG.

図4に示すシーンは自車両が左折するシーンである。図4に示す画像31は、カメラ10によって撮像された自車両から見て左方向の光景である。この場合、領域設定部21はヨーレートを用いて自車両の進行方向が左方向と推定する。上述したように自車両が左折するときのヨーレートも予め判明しているため、領域設定部21はこれを参照すればよい。あるいは領域設定部21は走行区分線を用いて自車両の進行方向が左方向と推定してもよい。図4に示す走行区分線の一部は所定の曲率で曲がっている。このような走行区分線を用いることにより領域設定部21は自車両の進行方向が左方向と推定することが可能となる。自車両の進行方向が左方向と推定されたとき、領域設定部21は将来自車両が走行する車線上に領域42を設定する。 The scene shown in FIG. 4 is a scene in which the own vehicle turns left. An image 31 shown in FIG. 4 is a scene in the left direction as seen from the own vehicle captured by the camera 10 . In this case, the region setting unit 21 uses the yaw rate to estimate that the traveling direction of the host vehicle is the left direction. As described above, the yaw rate at which the host vehicle makes a left turn is known in advance, so the area setting unit 21 can refer to this. Alternatively, the region setting unit 21 may use the lane markings to estimate that the traveling direction of the own vehicle is the left direction. A part of the traffic lane marking shown in FIG. 4 is curved with a predetermined curvature. By using such traffic lane markings, the area setting unit 21 can estimate that the traveling direction of the own vehicle is the left direction. When the traveling direction of the own vehicle is estimated to be the left direction, the area setting unit 21 sets an area 42 on the lane along which the own vehicle will travel in the future.

なお図4に示すように領域設定部21は領域42を設定する際、領域43~44を設定してもよい。領域43~44は自車両が走行する車線の対向車線上に設定される領域である。領域43~44も領域42と同様に超解像処理を行う領域である。このように超解像処理を行う領域を対向車線まで広げることにより、自車両の走行に影響を与える可能性がある障害物(例えば対向車両)の認識精度が向上する。なお領域42のみが設定されてもよい。 As shown in FIG. 4, the area setting unit 21 may set areas 43 to 44 when setting the area 42 . Areas 43 and 44 are areas set on the opposite lane of the lane on which the vehicle is traveling. Regions 43 to 44 are also regions where super-resolution processing is performed, like region 42 . By extending the area where the super-resolution processing is performed to the oncoming lane in this way, the accuracy of recognizing an obstacle (for example, an oncoming vehicle) that may affect the running of the own vehicle is improved. Note that only the area 42 may be set.

次に図5を参照して超解像処理を行う領域の設定方法のさらに他の例を説明する。 Next, still another example of the method of setting the area for super-resolution processing will be described with reference to FIG.

図5に示すシーンは自車両が交差点を走行するシーンである。図5に示す画像32は、カメラ10によって撮像された自車両前方の光景である。図5に示すシーンにおいて自車両の進行方向は直進方向である。領域設定部21は図2で説明した方法と同じ方法で自車両の進行方向を推定する。自車両の進行方向が直進方向と推定されたとき、領域設定部21は自車両が走行する車線上に領域45を設定する。領域45は、交差点の先において自車両が走行する車線(領域45で示される右側の車線)だけでなく、自車両が走行する車線に隣接する車線(領域45で示される左側の車線)も含む。ただし領域45はこれに限定されない。領域45は交差点の先において自車両が走行する車線のみを含む範囲でもよい。 The scene shown in FIG. 5 is a scene in which the own vehicle runs through an intersection. An image 32 shown in FIG. 5 is a scene in front of the vehicle captured by the camera 10 . In the scene shown in FIG. 5, the traveling direction of the own vehicle is straight ahead. The region setting unit 21 estimates the traveling direction of the own vehicle by the same method as the method described with reference to FIG. When the traveling direction of the own vehicle is estimated to be straight ahead, the area setting unit 21 sets an area 45 on the lane in which the own vehicle travels. The area 45 includes not only the lane in which the vehicle is traveling beyond the intersection (the right lane indicated by the area 45), but also the lane adjacent to the lane in which the own vehicle is traveling (the left lane indicated by the area 45). . However, the area 45 is not limited to this. The area 45 may be a range that includes only the lane in which the vehicle is traveling beyond the intersection.

本実施形態では自車両の進行方向に基づいて超解像処理を行う領域を設定すると説明した。これに加えて図5に示すように横断歩道が画像32に含まれる場合、領域設定部21は画像上の横断歩道を超解像処理を行う領域46,47として設定してもよい。また図6に示すように画像32に交差点が含まれる場合、領域45を自車両から見て左右方向に相当する方向に拡げてもよい。拡げる範囲は特に限定されないが、走行車線、対向車線、及びこれらの車線以外の部分(例えば歩道)を含むように拡げてもよい。また図7に示すように左右方向に相当する方向に拡げた領域は複数領域に分割されてもよい。図7に示す例では4つの領域(領域48~51)に分割されている。領域48は歩道を含み、領域49は自車両が走行する車線を含み、領域50~51は対向車線を含む。超解像処理を行う場合、対象となる領域における物体の動きは同じあるいは類似することが好ましい。そこで走行車線、対向車線、及び歩道といった分類で領域をそれぞれ設定することにより精度の高い超解像処理が実現しうる。なお画像32に交差点が含まれるか否か、換言すれば自車両が交差点を走行するか否かについて、コントローラ20は、GPS受信機12から取得した自車両の位置情報とナビゲーション装置13に格納されている地図データベースとを参照することにより判断することが可能である。あるいは画像処理によって自車両が交差点を走行するか否か判断されてもよい。 In the present embodiment, it has been described that the region for super-resolution processing is set based on the traveling direction of the host vehicle. In addition to this, when a pedestrian crossing is included in the image 32 as shown in FIG. 5, the region setting unit 21 may set the pedestrian crossing on the image as regions 46 and 47 for super-resolution processing. Further, when an intersection is included in the image 32 as shown in FIG. 6, the area 45 may be expanded in a direction corresponding to the horizontal direction as seen from the host vehicle. The range to be expanded is not particularly limited, but may be expanded to include the driving lane, oncoming lanes, and portions other than these lanes (for example, sidewalks). Further, as shown in FIG. 7, the area expanded in the direction corresponding to the horizontal direction may be divided into a plurality of areas. In the example shown in FIG. 7, it is divided into four areas (areas 48 to 51). Region 48 contains the sidewalk, region 49 contains the lane in which the vehicle is traveling, and regions 50-51 contain the oncoming lanes. When super-resolution processing is performed, it is preferable that the movements of objects in the regions of interest are the same or similar. Therefore, highly accurate super-resolution processing can be realized by setting areas according to the classification of the driving lane, the oncoming lane, and the sidewalk. The controller 20 determines whether or not the image 32 includes an intersection, in other words, whether or not the vehicle is traveling through an intersection. It is possible to make a determination by referring to the map database that is available. Alternatively, image processing may be used to determine whether or not the vehicle is traveling through an intersection.

次に、図8のフローチャートを参照して、車両用環境認識装置1の一動作例を説明する。 Next, an operation example of the vehicle environment recognition device 1 will be described with reference to the flowchart of FIG.

ステップS101において、自車両に搭載されたカメラ10によって自車両の周囲が異なるタイミングで撮像される。処理はステップS103に進みコントローラ20はヨーレートセンサ11から自車両のヨーレートを取得する。またコントローラ20はGPS受信機12から自車両の位置情報を取得する。 In step S101, the surroundings of the own vehicle are imaged at different timings by the camera 10 mounted on the own vehicle. The process proceeds to step S<b>103 and the controller 20 acquires the yaw rate of the host vehicle from the yaw rate sensor 11 . Also, the controller 20 acquires position information of the own vehicle from the GPS receiver 12 .

処理はステップS105に進み、領域設定部21は主にヨーレートセンサ11から自車両のヨーレートに基づいて自車両の進行方向を推定する。ただし上述したとおり、自車両の進行方向を推定する方法はヨーレートを用いる方法に限定されない。領域設定部21は複数の画像のそれぞれに対して、推定された自車両の進行方向に基づいて超解像処理を行う領域を設定する。 The process proceeds to step S<b>105 , and the area setting unit 21 estimates the traveling direction of the vehicle mainly based on the yaw rate of the vehicle from the yaw rate sensor 11 . However, as described above, the method of estimating the traveling direction of the own vehicle is not limited to the method using the yaw rate. The region setting unit 21 sets a region for performing super-resolution processing on each of the plurality of images based on the estimated traveling direction of the own vehicle.

処理はステップS107に進み、画像シフト部22は異なるタイミングで撮像された複数の画像を用いて領域に対して位置合わせを行う。処理はステップS109に進み、超解像処理部23は画像シフト部22によって位置合わせが行われた画像を用いて超解像処理を行い、高解像度を有する画像を生成する。処理はステップS111に進み、超解像処理部23によって生成された画像は道路構造物認識部24に出力される。 The process advances to step S107, and the image shifter 22 aligns the regions using a plurality of images captured at different timings. The process proceeds to step S109, and the super-resolution processing unit 23 performs super-resolution processing using the image aligned by the image shift unit 22 to generate a high-resolution image. The process proceeds to step S<b>111 , and the image generated by the super-resolution processing unit 23 is output to the road structure recognition unit 24 .

処理はステップS113に進み、道路構造物認識部24は超解像処理部23から入力された画像を用いて道路構造物を認識する。処理はステップS115に進み、車両制御部25は道路構造物認識部24によって認識された道路構造物を用いてステアリングアクチュエータ14、アクセルペダルアクチュエータ15、及びブレーキアクチュエータ16を制御する。 The process proceeds to step S<b>113 , and the road structure recognition unit 24 uses the image input from the super-resolution processing unit 23 to recognize road structures. The process proceeds to step S115, and the vehicle control unit 25 controls the steering actuator 14, the accelerator pedal actuator 15, and the brake actuator 16 using the road structure recognized by the road structure recognition unit 24. FIG.

(作用効果)
以上説明したように、本実施形態に係る車両用環境認識装置1によれば、以下の作用効果が得られる。
(Effect)
As described above, according to the vehicle environment recognition device 1 according to the present embodiment, the following effects can be obtained.

車両用環境認識装置1は自車両の周囲を異なるタイミングで複数回撮像するカメラ10と、カメラ10によって異なるタイミングで撮像された複数の画像を処理するコントローラ20とを備える。コントローラ20は自車両の進行方向を推定し、推定された自車両の進行方向に基づいて複数の画像のそれぞれに対して画像上で所定の領域を設定する。コントローラ20は設定された領域における画像上の移動量に基づいて複数の画像の位置合わせを行う。コントローラ20は位置合わせが行われた複数の画像を用いて超解像処理を行い、カメラ10によって撮像された画像の解像度を超える超解像画像を生成する。そしてコントローラ20は超解像画像に基づいて道路構造物を認識する。本実施形態によれば自車両の進行方向に基づいて超解像処理を行う領域が設定されるため、自車両の走行にとって適切な位置に超解像処理を行う領域を設定することが可能となる。 The vehicular environment recognition device 1 includes a camera 10 that captures multiple images of the surroundings of the vehicle at different timings, and a controller 20 that processes the multiple images captured by the camera 10 at different timings. The controller 20 estimates the traveling direction of the own vehicle, and sets a predetermined area on each of the plurality of images based on the estimated traveling direction of the own vehicle. The controller 20 aligns a plurality of images based on the amount of movement on the images in the set area. The controller 20 performs super-resolution processing using the aligned images to generate a super-resolution image that exceeds the resolution of the image captured by the camera 10 . The controller 20 then recognizes road structures based on the super-resolution image. According to the present embodiment, the area for performing super-resolution processing is set based on the traveling direction of the own vehicle, so it is possible to set the area for performing super-resolution processing at a position appropriate for the running of the own vehicle. Become.

また、自車両が交差点を走行すると判断された場合、コントローラ20は超解像処理を行う領域を自車両から見て左右方向に相当する方向に拡げる。これにより自車両の走行に影響を与える可能性がある障害物(例えば対向車両)を含む範囲に超解像処理を行う領域を設定することが可能となる。 Further, when it is determined that the vehicle is traveling through an intersection, the controller 20 expands the area for super-resolution processing in a direction corresponding to the left-right direction when viewed from the vehicle. As a result, it becomes possible to set a region for which super-resolution processing is performed within a range that includes an obstacle (for example, an oncoming vehicle) that may affect the traveling of the own vehicle.

さらにコントローラ20は画像上の横断歩道の位置に超解像処理を行う領域を設定してもよい。これにより自車両の走行に影響を与える可能性がある障害物(例えば歩行者)を含む範囲に超解像処理を行う領域を設定することが可能となる。 Furthermore, the controller 20 may set a region for super-resolution processing at the position of the pedestrian crossing on the image. As a result, it becomes possible to set a region for which super-resolution processing is performed within a range that includes obstacles (for example, pedestrians) that may affect the running of the own vehicle.

またコントローラ20は拡げられた領域を複数に分割してもよい。超解像処理を行う場合、対象となる領域における物体の動きは同じあるいは類似することが好ましい。そこで動きが同じあるいは類似する物体が含まれるように領域を分割することにより精度の高い超解像処理が実現しうる。 Also, the controller 20 may divide the expanded area into a plurality of areas. When super-resolution processing is performed, it is preferable that the movements of objects in the regions of interest are the same or similar. Therefore, by dividing the area so that objects with the same or similar movements are included, highly accurate super-resolution processing can be realized.

コントローラ20は自車両のヨーレートを検出するヨーレートセンサ11から取得したヨーレート、あるいは、画像から取得された走行区分線に関する情報に基づいて自車両の進行方向を推定する。このように推定された自車両の進行方向に基づいて超解像処理を行う領域が設定されるため、自車両の走行にとって適切な位置に超解像処理を行う領域を設定することが可能となる。 The controller 20 estimates the traveling direction of the vehicle based on the yaw rate obtained from the yaw rate sensor 11 that detects the yaw rate of the vehicle, or the information on the traffic lane marking obtained from the image. Since the area for super-resolution processing is set based on the traveling direction of the own vehicle estimated in this way, it is possible to set the area for super-resolution processing at a position appropriate for the running of the own vehicle. Become.

上述の実施形態に記載される各機能は、1または複数の処理回路により実装され得る。処理回路は、電気回路を含む処理装置等のプログラムされた処理装置を含む。処理回路は、また、記載された機能を実行するようにアレンジされた特定用途向け集積回路(ASIC)や回路部品等の装置を含む。 Each function described in the above embodiments may be implemented by one or more processing circuits. Processing circuitry includes programmed processing devices, such as processing devices that include electrical circuitry. Processing circuitry also includes devices such as application specific integrated circuits (ASICs) and circuit components arranged to perform the described functions.

上記のように、本発明の実施形態を記載したが、この開示の一部をなす論述及び図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。 While embodiments of the present invention have been described above, the discussion and drawings forming part of this disclosure should not be construed as limiting the invention. Various alternative embodiments, implementations and operational techniques will become apparent to those skilled in the art from this disclosure.

1 車両用環境認識装置
10 カメラ
11 ヨーレートセンサ
12 GPS受信機
13 ナビゲーション装置
14 ステアリングアクチュエータ
15 アクセルペダルアクチュエータ
16 ブレーキアクチュエータ
20 コントローラ
21 領域設定部
22 画像シフト部
23 超解像処理部
24 道路構造物認識部
25 車両制御部
1 vehicle environment recognition device 10 camera 11 yaw rate sensor 12 GPS receiver 13 navigation device 14 steering actuator 15 accelerator pedal actuator 16 brake actuator 20 controller 21 region setting unit 22 image shift unit 23 super-resolution processing unit 24 road structure recognition unit 25 vehicle control unit

Claims (6)

自車両の周囲を異なるタイミングで複数回撮像するカメラと、前記カメラによって異なるタイミングで撮像された複数の画像を処理するコントローラとを備える車両用環境認識方法であって、
前記コントローラは、
前記自車両の進行方向を推定し、
推定された前記自車両の進行方向に基づいて前記複数の画像のそれぞれに対して画像上で所定の領域を設定し、
設定された前記領域における画像上の移動量に基づいて、前記複数の画像の位置合わせを行い、
前記位置合わせが行われた複数の画像を用いて超解像処理を行い、前記カメラによって撮像された画像の解像度を超える超解像画像を生成し、
前記超解像画像に基づいて道路構造物を認識する
ことを特徴とする車両用環境認識方法。
A vehicular environment recognition method comprising: a camera that captures multiple images of the surroundings of the vehicle at different timings; and a controller that processes the multiple images captured by the camera at different timings,
The controller is
estimating the traveling direction of the own vehicle;
setting a predetermined area on each of the plurality of images based on the estimated traveling direction of the own vehicle;
aligning the plurality of images based on the amount of movement on the image in the set area;
Performing super-resolution processing using the aligned images to generate a super-resolution image exceeding the resolution of the image captured by the camera,
A vehicle environment recognition method, wherein a road structure is recognized based on the super-resolution image.
前記自車両が交差点を走行すると判断された場合、前記コントローラは前記領域を前記自車両から見て左右方向に相当する方向に拡げる
ことを特徴とする請求項1に記載の車両用環境認識方法。
2. The environment recognition method for a vehicle according to claim 1, wherein, when it is determined that said vehicle will run through an intersection, said controller expands said area in a direction corresponding to a horizontal direction as viewed from said vehicle.
前記コントローラは前記画像上の横断歩道の位置に前記領域を設定する
ことを特徴とする請求項2に記載の車両用環境認識方法。
3. The vehicle environment recognition method according to claim 2, wherein the controller sets the region at a position of a pedestrian crossing on the image.
前記コントローラは、拡げられた領域を複数領域に分割する
ことを特徴とする請求項2または3に記載の車両用環境認識方法。
4. The vehicle environment recognition method according to claim 2, wherein the controller divides the expanded area into a plurality of areas.
前記コントローラは、前記自車両のヨーレートを検出するセンサから取得した前記ヨーレート、あるいは、前記画像から取得された走行区分線に関する情報に基づいて前記自車両の進行方向を推定する
ことを特徴とする請求項1~4のいずれか1項に記載の車両用環境認識方法。
The controller estimates the direction of travel of the vehicle based on the yaw rate obtained from a sensor that detects the yaw rate of the vehicle, or information on traffic lane markings obtained from the image. Item 5. The vehicle environment recognition method according to any one of Items 1 to 4.
自車両の周囲を異なるタイミングで複数回撮像するカメラと、
前記カメラによって異なるタイミングで撮像された複数の画像を処理するコントローラとを備え、
前記コントローラは、
前記自車両の進行方向を推定し、
推定された前記自車両の進行方向に基づいて前記複数の画像のそれぞれに対して画像上で所定の領域を設定し、
設定された前記領域における画像上の移動量に基づいて、前記複数の画像の位置合わせを行い、
前記位置合わせが行われた複数の画像を用いて超解像処理を行い、前記カメラによって撮像された画像の解像度を超える超解像画像を生成し、
前記超解像画像に基づいて道路構造物を認識する
ことを特徴とする車両用環境認識装置。
a camera that captures multiple images of the surroundings of the vehicle at different times;
A controller that processes a plurality of images captured at different timings by the camera,
The controller is
estimating the traveling direction of the own vehicle;
setting a predetermined area on each of the plurality of images based on the estimated traveling direction of the own vehicle;
aligning the plurality of images based on the amount of movement on the image in the set area;
Performing super-resolution processing using the aligned images to generate a super-resolution image exceeding the resolution of the image captured by the camera,
An environment recognition device for a vehicle, wherein a road structure is recognized based on the super-resolution image.
JP2021006277A 2021-01-19 2021-01-19 Vehicle Environment Recognition Method and Vehicle Environment Recognition Device Pending JP2022110706A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021006277A JP2022110706A (en) 2021-01-19 2021-01-19 Vehicle Environment Recognition Method and Vehicle Environment Recognition Device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021006277A JP2022110706A (en) 2021-01-19 2021-01-19 Vehicle Environment Recognition Method and Vehicle Environment Recognition Device

Publications (1)

Publication Number Publication Date
JP2022110706A true JP2022110706A (en) 2022-07-29

Family

ID=82575351

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021006277A Pending JP2022110706A (en) 2021-01-19 2021-01-19 Vehicle Environment Recognition Method and Vehicle Environment Recognition Device

Country Status (1)

Country Link
JP (1) JP2022110706A (en)

Similar Documents

Publication Publication Date Title
CN109313856B (en) Object detection method and object detection device
US10831205B2 (en) Route determination device, vehicle control device, route determination method, and storage medium
JP6451844B2 (en) Vehicle position determination device and vehicle position determination method
CN109328376B (en) Object tracking method and object tracking device
CN110622226A (en) Method and device for predicting operation of travel assistance device
JP7222799B2 (en) ROAD TYPE DETERMINATION DEVICE AND DRIVING ASSIST DEVICE
JP6574224B2 (en) Vehicle control apparatus, vehicle, vehicle control method, and program
JP2017009553A (en) Vehicle location determination device and vehicle location determination method
Dickmann et al. Present research activities and future requirements on automotive radar from a car manufacturer´ s point of view
JP6488913B2 (en) Vehicle position determination device and vehicle position determination method
CN114973644B (en) Road information generating device
JP2022110706A (en) Vehicle Environment Recognition Method and Vehicle Environment Recognition Device
CN114987529A (en) Map generation device
JP7259939B2 (en) Behavior prediction method, behavior prediction device, and vehicle control device
JP7149171B2 (en) Object recognition method and object recognition device
US20220254056A1 (en) Distance calculation apparatus and vehicle position estimation apparatus
JP7236279B2 (en) Driving support method and driving support device
JP7323716B2 (en) Image processing device and image processing method
US20240020989A1 (en) Vehicle assist method and vehicle assist device
US20220291015A1 (en) Map generation apparatus and vehicle position recognition apparatus
JP6837948B2 (en) Vehicle control devices, vehicles, vehicle control methods and programs
JP2023151308A (en) Preceding vehicle determination method and preceding vehicle determination device
CN114987528A (en) Map generation device
JP2022150534A (en) Travelling control device
JP2022138524A (en) Travel support method and travel support device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231107