JP2021047120A - Recognition device, control system, recognition method and program - Google Patents
Recognition device, control system, recognition method and program Download PDFInfo
- Publication number
- JP2021047120A JP2021047120A JP2019170735A JP2019170735A JP2021047120A JP 2021047120 A JP2021047120 A JP 2021047120A JP 2019170735 A JP2019170735 A JP 2019170735A JP 2019170735 A JP2019170735 A JP 2019170735A JP 2021047120 A JP2021047120 A JP 2021047120A
- Authority
- JP
- Japan
- Prior art keywords
- recognition
- image
- recognition device
- vehicle
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
Description
本発明は、認識装置、制御システム、認識方法、及びプログラムに関する。 The present invention relates to a recognition device, a control system, a recognition method, and a program.
従来、距離センサ等の検出部が周囲を検出した検出結果に基づいて、検出部の認識範囲を情報から俯瞰した俯瞰図を生成する技術が開示されている(例えば、特許文献1参照)。 Conventionally, a technique for generating a bird's-eye view of the recognition range of a detection unit from information based on a detection result in which a detection unit such as a distance sensor detects the surroundings has been disclosed (see, for example, Patent Document 1).
しかしながら、従来の技術では、俯瞰図以外の画像を生成することまでは困難であった。 However, with the conventional technology, it has been difficult to generate an image other than a bird's-eye view.
本発明は、このような事情を考慮してなされたものであり、検出部の検出結果に基づいて、移動体の認識処理に用いられやすい画像を生成することができる認識装置、制御システム、認識方法、及びプログラムを提供することを目的の一つとする。 The present invention has been made in consideration of such circumstances, and is a recognition device, a control system, and a recognition capable of generating an image that can be easily used for recognition processing of a moving object based on the detection result of the detection unit. One of the purposes is to provide methods and programs.
この発明に係る認識装置、制御システム、認識方法、及びプログラムは、以下の構成を採用した。
(1)この発明の一態様の認識装置は、移動体に搭載される認識装置であって、上下方向および左右方向に関して前記認識装置を射出中心として異なる角度に電磁波を照射し、反射波を検出することで距離を検出する検出部と、前記検出部の検出結果に基づいて、前記移動体からの水平方向を上下基準として電磁波の照射方向ごとに画素を割り当てた二次元画像を生成する生成部と、を備えるものである。
The recognition device, control system, recognition method, and program according to the present invention have the following configurations.
(1) The recognition device according to one aspect of the present invention is a recognition device mounted on a moving body, and detects reflected waves by irradiating electromagnetic waves at different angles with the recognition device as an emission center in the vertical direction and the horizontal direction. A detection unit that detects the distance by doing so, and a generation unit that generates a two-dimensional image in which pixels are assigned to each electromagnetic wave irradiation direction with the horizontal direction from the moving body as a vertical reference based on the detection result of the detection unit. And.
(2)の態様は、上記(1)の態様に係る認識装置において、前記検出部は、ライダーであるものである。 The aspect (2) is that in the recognition device according to the aspect (1) above, the detection unit is a rider.
(3)の態様は、上記(2)の態様に係る認識装置において、前記生成部は、前記ライダーの検出結果から得られる距離および前記反射波の強度を前記画素のデータ要素とした前記二次元画像を生成するものである。 The aspect (3) is the recognition device according to the aspect (2), wherein the generation unit uses the distance obtained from the detection result of the rider and the intensity of the reflected wave as data elements of the pixel. It produces an image.
(4)の態様は、上記(3)の態様に係る認識装置において、前記二次元画像に対して画像認識処理を行い、前記二次元画像内の物標を認識する認識部を更に備えるものである。 In the aspect (4), the recognition device according to the above aspect (3) further includes a recognition unit that performs image recognition processing on the two-dimensional image and recognizes a target in the two-dimensional image. is there.
(5)の態様は、上記(4)の態様に係る認識装置において、前記認識部は、前記画像認識処理を、学習済み画像認識モデルを用いて行い、前記学習済み画像認識モデルは、移動体の周辺画像を用いて機械学習され、前記二次元画像内の物標と、前記物標までの距離を出力するものである。 In the recognition device according to the aspect (4), the recognition unit performs the image recognition process using the trained image recognition model, and the trained image recognition model is a moving body. Machine learning is performed using the peripheral image of the above, and the target in the two-dimensional image and the distance to the target are output.
(6)この発明の他の態様の制御システムは、上記(1)から(5)の何れかの態様に係る認識装置と、前記二次元画像に基づいて前記移動体の制御を行う制御装置と、を備えるものである。 (6) The control system of another aspect of the present invention includes a recognition device according to any one of the above (1) to (5) and a control device that controls the moving body based on the two-dimensional image. , Is provided.
(7)この発明の他の態様の認識方法は、移動体に搭載される認識装置のコンピュータが、上下方向および左右方向に関して前記認識装置を射出中心として異なる角度に電磁波を照射し、反射波を検出することで距離を検出し、検出結果に基づいて、前記移動体からの水平方向を上下基準として電磁波の照射方向ごとに画素を割り当てた二次元画像を生成するものである。 (7) In the recognition method of another aspect of the present invention, the computer of the recognition device mounted on the moving body irradiates electromagnetic waves at different angles with the recognition device as the emission center in the vertical direction and the horizontal direction to emit reflected waves. By detecting the distance, the distance is detected, and based on the detection result, a two-dimensional image in which pixels are assigned to each irradiation direction of the electromagnetic wave is generated with the horizontal direction from the moving body as a vertical reference.
(8)この発明の他の態様のプログラムは、移動体に搭載される認識装置のコンピュータに、 上下方向および左右方向に関して前記認識装置を射出中心として異なる角度に電磁波を照射させ、反射波を検出することで距離を検出させ、検出結果に基づいて、前記移動体からの水平方向を上下基準として電磁波の照射方向ごとに画素を割り当てた二次元画像を生成させるものである。 (8) In the program of another aspect of the present invention, the computer of the recognition device mounted on the moving body is irradiated with electromagnetic waves at different angles with the recognition device as the emission center in the vertical direction and the horizontal direction, and the reflected wave is detected. By doing so, the distance is detected, and based on the detection result, a two-dimensional image in which pixels are assigned to each irradiation direction of the electromagnetic wave is generated with the horizontal direction from the moving body as a vertical reference.
(1)〜(8)によれば、認識部の認識結果に基づいて、移動体の認識処理に用いられやすい画像を生成することができる。 According to (1) to (8), it is possible to generate an image that is easy to be used for the recognition process of the moving object based on the recognition result of the recognition unit.
(6)によれば、画像に基づいて車両を制御することができる。 According to (6), the vehicle can be controlled based on the image.
以下、図面を参照し、本発明の認識装置、制御システム、認識方法、及びプログラムの実施形態について説明する。 Hereinafter, embodiments of the recognition device, control system, recognition method, and program of the present invention will be described with reference to the drawings.
<実施形態>
図1は、認識装置を利用する車両システム1の構成等を示す図である。本図に示す車両システム1の構成は、車両Mに搭載される。車両システム1は、例えば、カメラ310と、レーダ装置312と、ライダー(Light Detection and Ranging)314と、物体認識装置316と、通信装置320と、HMI(Human Machine Interface)330と、車両センサ340と、ナビゲーション装置350と、MPU(Map Positioning Unit)360と、運転操作子380と、自動運転制御装置400と、走行駆動力出力装置500と、ブレーキ装置510と、ステアリング装置520とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。
<Embodiment>
FIG. 1 is a diagram showing a configuration and the like of a vehicle system 1 that uses a recognition device. The configuration of the vehicle system 1 shown in this figure is mounted on the vehicle M. The vehicle system 1 includes, for example, a
なお、図1に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。図1に示す構成のうち、物体認識装置316が、「認識装置」の一例である。
The configuration shown in FIG. 1 is merely an example, and a part of the configuration may be omitted or another configuration may be added. Among the configurations shown in FIG. 1, the
カメラ310は、車両Mの周辺(特に前方または後方)を撮像可能な任意の位置に設置される。例えば、カメラ310は、フロントウインドシールドの上部に設置される。カメラ310は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を備えるデジタルカメラであり、所定周期で繰り返し車両Mの周辺を撮像する。
The
レーダ装置312は、車両Mの周辺にミリ波などの電波を放射すると共に、物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。レーダ装置312は、車両Mの任意の箇所に取り付けられる。
The
ライダー314は、車両Mの任意の方向を見渡すことができる位置に取り付けられる。図2は、ライダー314の説明に用いられる図である。図2において、ライダー314は車両Mの前端部における道路面からの高さがhの位置に取り付けられている。高さhは、例えば数十[cm]程度である。
The
ライダー314は、電磁波を照射して反射波を検出し、照射から検出までの時間を測定することで物標の輪郭までの距離を検出する。ライダー314は、電磁波の照射方向を、仰角または俯角(上下方向の照射方向)と、方位角(水平方向の照射方向)との双方について変更可能である。ライダー314は、例えば、上下方向の照射方向を固定して水平方向の照射方向を変えながらスキャンを行い、次いで上下方向の照射方向を変更し、変更した角度で上下方向の照射方向を固定して水平方向の照射方向を変えながらスキャンを行う、という動作を繰り返し行う。以下、上下方向の照射方向のことを「レイヤ」と称し、レイヤを固定して水平方向の照射方向を変えながら行う一回のスキャンのことを「サイクル」と称し、水平方向の照射方向のことを「アジマス」と称する。レイヤは、例えばL1〜Liまで有限数で設定される(iは自然数)。レイヤの変更は、例えば、前回のサイクルで照射した電磁波が今回のサイクルにおける検知に干渉しないように、L0→L4→L2→L5→L1…というように角度に関して不連続に行われる。なお、これに限らず、レイヤの変更が角度に関して連続的に行われても構わない。
The
なお、ライダー314は、電磁波を照射する照射部を複数備え、複数の照射部が縦方向に配置される場合には、上下方向の照射方向の変更を行わずに、各照射部が各レイヤの照射を行うものであってもよい。また、ライダー314は、複数の照射部が横方向に配置される場合には、水平方向の照射方向の変更を行わずに、各照射部が各アジマスの照射を行うものであってもよい。
The
ライダー314は、例えば、{レイヤ、アジマス、距離、検出した反射波の強度}を含むデータセットを物体認識装置316に出力する。物体認識装置316は、車両Mにおける任意の箇所に設置される。以下、図2に示す通り、物体認識装置316が車両Mの上部に設置されるものとする。
The
図1に戻り、物体認識装置316は、カメラ310、レーダ装置312、およびライダー314のうち一部または全部による検出結果に対してセンサフュージョン処理を行って、物標の位置、種類、速度などを認識する。図3は、物体認識装置316の構成の一例を示す図である。物体認識装置316は、例えば、取得部316Aと、画像生成部316Bと、出力部316Cとを備える。これらの機能部は、それぞれ、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD−ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体(非一過性の記憶媒体)がドライブ装置に装着されることで物体認識装置316のHDDやフラッシュメモリにインストールされてもよい。
Returning to FIG. 1, the
取得部316Aは、カメラ310によって生成された画像を取得し、レーダ装置312の検出結果を取得し、ライダー314からデータセットを取得する。図4は、カメラ310が生成した画像(以下、カメラ画像IMC)の一例を示す図である。図4の例において、カメラ310フロントウインドシールドの上部などに取り付けられている。図4のカメラ画像IMCのうち、範囲AR1と、範囲AR2とには、車両Mの周辺に存在する他車両がそれぞれ示され、範囲AR3には、横断歩道が示される。
The
図5は、ライダー314のデータセットの内容を模式的に示す図である。図5は、図4と同じ位置に車両Mが存在する場合に、ライダー314の出力から認識される三次元の反射点分布を示している。図5において、反射点の色の相違は、反射率の違い(つまり、反射波の強度の相違)を示す。ここで、道路上に描画または埋設された道路標示の反射波の強度と、道路面の反射波の強度とでは、道路標示の方が反射波の強度が高い場合がある。これは、道路標示が、道路面に白線や黄線の実線または破線の態様で描画されているためである。道路標示は、例えば、ボッツドッツやキャッツアイの態様で道路に埋設されたりした道路区画線、或いは道路面に描画された法定速度や横断歩道や横断歩道予告等である。図5において、図4に示すカメラ画像IMCの範囲AR1〜AR2と対応する実空間の範囲のデータセットには、他車両を示すデータであり、反射波の強度が高い点群のデータが含まれ、範囲AR2と対応する実空間の範囲のデータセットには、横断歩道の白線を示すデータであり、反射波の強度が高い点群のデータが含まれる。
FIG. 5 is a diagram schematically showing the contents of the data set of the
図2に戻り、画像生成部316Bは、取得部316Aによって取得されたデータセットに基づいて、電磁波の照射方向ごとに画素を割り当てた二次元画像を生成する。画像生成部316Bが二次元画像を生成する処理の詳細については、後述する。出力部316Cは、カメラ310によって生成された画像、レーダ装置312の検出結果、ライダー314から取得したデータセット、画像生成部316Bによって生成された二次元画像を自動運転制御装置400に出力する。
Returning to FIG. 2, the
画像生成部316Bは、取得部316Aによって取得されたデータセットに基づいて、電磁波の照射方向ごとに画素を割り当てた二次元画像を生成する。図6は、画像生成部316Bの二次元画像を生成する処理の説明に用いる図である。以下、画像生成部316Bが生成する二次元画像をライダー画像IMLと記載する。まず、画像生成部316Bは、取得部316Aによって取得されたデータセットのうち、上下方向の一部、又は全部の範囲(図示する所定範囲θ1)のデータセットであって、且つ水平方向の一部、又は全部の範囲(図示する所定範囲θ2)のデータセットを抽出する。この所定範囲θ1、及び所定範囲θ2は、例えば、カメラ画像IMCの画角と合致する範囲である。
The
次に、画像生成部316Bは、抽出したデータセットを、ライダー画像IMLを構成する画素のデータ要素としてそれぞれ対応付ける。以下、ライダー画像IMLのデータ要素が、ライダー画像IMLを構成する画素の画素値であるものとする。また、以下、取得部316Aによって取得されたデータセットのうち、特定のデータセットを示す場合には、データセットDxyと記載する。また、ライダー画像IMLを構成する画素のうち、特定の画素を示す場合には、画素Pxyと記載する。添え字のx、及びyは、自然数であり、xは、レイヤを示し、yは、アジマスを示す。図6において、画像生成部316Bが抽出したデータセットは、レイヤ[1]〜レイヤ[m]のm[個]のレイヤに係るデータセットであり、且つアジマス[1]〜[n]のn[個]のアジマスに係るデータセットである。画像生成部316Bは、例えば、抽出されたデータセットのうち、データセットD11、D12、…、Dmnを、カメラ画像IMCの画素P11、P12、…、Pmnとして対応付ける。
Next, the
ここで、画像生成部316Bは、レイヤの変更方向、及びアジマスの変更方向と、画素Pの並び順とが対応するように、データセットをライダー画像IMLに対応付けて変換する。例えば、図6では、レイヤの変更方向が上方から下方であり、且つアジマスの変更方向がライダー314から向かって右から左であるため、画像生成部316Bは、画素P11、P21、…、Pm1の並びが上方から下方になるように、且つ画素P11、P12、…、P1nの並びが右から左になるようにカメラ画像IMCを変換する。
Here, the
従来のいわゆるLider画像は、カメラから見たような空間画像として形成される。その結果、従来のいわゆるLider画像には、Liderが電磁波を照射していない部分が画像の一部を占めることとなる。これに対し、画像生成部316Bは、レイヤに対応する反射点のみを画像の要素(画素)としているので、ライダー画像IMLの生成に際して、従来のいわゆるLider画像の生成に係る処理よりも、処理負荷を低減することができる。
The conventional so-called Lider image is formed as a spatial image as seen from a camera. As a result, in the conventional so-called lidar image, the portion where the lidar does not irradiate the electromagnetic wave occupies a part of the image. On the other hand, since the
なお、画像生成部316Bは、ライダー314の検出範囲と、カメラ310の撮像範囲とが互いに異なることに伴い、カメラ画像IMCの画角と、ライダー画像IMLの画角とが合致しない場合には、ライダー画像IMLの一部、又は全部を画像変換(例えば、拡大、縮小等)して画角が合致するように調整してもよい。また、図6に示す例では、ライダー画像IMLの画素Pがいずれも同一であるものとして説明したが、これに限られない。画像生成部316Bは、例えば、データセットの検出位置と、ライダー画像IMLの画素の対応づけに伴うゆがみに応じてライダー画像IMLの画素Pの大きさを異なる大きさにそれぞれ変更してもよい。
In the
図7は、ライダー画像IMLの一例を示す図である。画像生成部316Bは、例えば、電磁波を反射した物標までの距離を画素Pの青の画素値(階調)として示し、反射波の強度を画素Pの緑の画素値(階調)として示すように、ライダー画像IMLを変換する。図7において、青の領域はドットの領域によって示され、緑の領域は斜線の領域によって示される。まず、画像生成部316Bは、データセットに含まれる電磁波を反射した物標までの距離に基づいて、上限値から下限値までの距離を、0から所定の階調(例えば、0〜255)として変換する。この場合、物体認識装置316は、下限値より短い距離を階調の最大値(この場合、「255」)とし、上限値より長い距離を階調の最小値(この場合「0」)とする。これにより、画像生成部316Bは、電磁波を反射した物標までの距離が青の濃淡によって示され、且つ車両Mから近い物標ほど鮮明な青となるように、ライダー画像IMLを変換する。また、画像生成部316Bは、データセットに含まれる反射波の強度に基づいて、上限値から下限値までの反射波の強度を、所定の階調から0として変換する。この場合、画像生成部316Bは、下限値より低い強度を階調の最小値(この場合「0」)とし、上限値より高い強度を階調の最大値(この場合「255」)とする。これにより、画像生成部316Bは、電磁波を反射した物標の反射率が緑の濃淡によって示され、且つ反射の強度が高い物標ほど鮮明な緑となるように、ライダー画像IMLを変換する。
FIG. 7 is a diagram showing an example of a rider image IML. For example, the
なお、電磁波を反射した物標までの距離、及び物標が反射した反射波の強度にそれぞれ対応付けられる色の態様は、一例であってこれに限られず、他の色が対応付けられていてもよい。また、ライダー画像IMLは、電磁波を反射した物標までの距離、又は物標が反射した反射波の強度の一方を示す画像であってもよい。 The color mode associated with the distance to the target reflecting the electromagnetic wave and the intensity of the reflected wave reflected by the target is not limited to this as an example, and other colors are associated with each other. May be good. Further, the rider image IML may be an image showing either the distance to the target that reflected the electromagnetic wave or the intensity of the reflected wave reflected by the target.
図1に戻り、通信装置320は、例えば、車両Mの周辺に存在する他車両と通信したり、無線基地局を介して各種サーバ装置と通信したりする。HMI330は、車両Mの乗員に対して各種情報を提示すると共に、乗員による入力操作を受け付ける。HMI30は、各種表示装置、スピーカ、ブザー、タッチパネル、スイッチ、キーなどを含む。車両センサ340は、車両Mの速度を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、車両Mの向きを検出する方位センサ等を含む。
Returning to FIG. 1, the
ナビゲーション装置350は、例えば、GNSS(Global Navigation Satellite System)受信機351と、ナビHMI352と、経路決定部353とを備える。ナビゲーション装置350は、HDDやフラッシュメモリなどの記憶装置に第1地図情報354を保持している。GNSS受信機351は、GNSS衛星から受信した信号に基づいて、車両Mの位置を特定する。車両Mの位置は、車両センサ340の出力を利用したINS(Inertial Navigation System)によって特定または補完されてもよい。ナビHMI352は、表示装置、スピーカ、タッチパネル、キーなどを含む。経路決定部353は、例えば、GNSS受信機351により特定された車両Mの位置(或いは入力された任意の位置)から、ナビHMI352を用いて乗員により入力された目的地までの経路(以下、地図上経路)を、第1地図情報354を参照して決定する。地図上経路は、MPU360に出力される。ナビゲーション装置350は、地図上経路に基づいて、ナビHMI352を用いた経路案内を行ってもよい。ナビゲーション装置350は、例えば、乗員の保有するスマートフォンやタブレット端末等の端末装置の機能によって実現されてもよい。ナビゲーション装置350は、通信装置320を介してナビゲーションサーバに現在位置と目的地を送信し、ナビゲーションサーバから地図上経路と同等の経路を取得してもよい。
The
MPU360は、例えば、推奨車線決定部361を含み、HDDやフラッシュメモリなどの記憶装置に第2地図情報362を保持している。推奨車線決定部361は、ナビゲーション装置350から提供された地図上経路を複数のブロックに分割し(例えば、車両M進行方向に関して100[m]毎に分割し)、第2地図情報362を参照してブロックごとに推奨車線を決定する。推奨車線決定部361は、地図上経路に分岐箇所が存在する場合、車両Mが、分岐先に進行するための合理的な経路を走行できるように、推奨車線を決定する。第2地図情報362は、第1地図情報354よりも高精度な地図情報である。
The
運転操作子380は、例えば、アクセルペダル、ブレーキペダル、シフトレバー、ステアリングホイール、異形ステア、ジョイスティックその他の操作子を含む。運転操作子380には、操作量あるいは操作の有無を検出するセンサが取り付けられており、その検出結果は、自動運転制御装置400、もしくは、走行駆動力出力装置500、ブレーキ装置510、およびステアリング装置520のうち一部または全部に出力される。
The
自動運転制御装置400は、例えば、第1制御部420と、第2制御部460と、記憶部470とを備える。第1制御部420と第2制御部460は、それぞれ、例えば、CPUなどのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPUなどのハードウェア(回路部を含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予め記憶部470等のHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD−ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体(非一過性の記憶媒体)がドライブ装置に装着されることで自動運転制御装置400のHDDやフラッシュメモリにインストールされてもよい。記憶部470には、プログラムのほか、第1学習済みモデル472、及び第2学習済みモデル474が記憶される。第1学習済みモデル472、及び第2学習済みモデル474の詳細については、後述する。
The automatic
第1制御部420は、例えば、認識部430と、行動計画生成部440とを備える。第1制御部420は、例えば、AI(Artificial Intelligence;人工知能)による機能と、予め与えられたモデルによる機能とを並行して実現する。例えば、「交差点を認識する」機能は、ディープラーニング等による交差点の認識と、予め与えられた条件(パターンマッチング可能な信号、道路標示などがある)に基づく認識とが並行して実行され、双方に対してスコア付けして総合的に評価することで実現されてよい。これによって、自動運転の信頼性が担保される。
The
認識部430は、カメラ310、レーダ装置312、およびライダー314から物体認識装置316を介して入力された情報に基づいて、車両Mの周辺にある物体の位置、および速度、加速度等の状態を認識する。物体の位置は、例えば、車両Mの代表点(重心や駆動軸中心など)を原点とした絶対座標上の位置として認識され、制御に使用される。物体の位置は、その物体の重心やコーナー等の代表点で表されてもよいし、表現された領域で表されてもよい。物体の「状態」とは、物体の加速度やジャーク、あるいは「行動状態」(例えば車線変更をしている、またはしようとしているか否か)を含んでもよい。
The
また、認識部430は、例えば、車両Mが走行している車線(走行車線)を認識する。例えば、認識部430は、第2地図情報362から得られる道路区画線のパターン(例えば実線と破線の配列)と、カメラ310によって生成されたカメラ画像IMCから認識される車両Mの周辺の道路区画線のパターンとを比較することで、走行車線を認識する。なお、認識部430は、道路区画線に限らず、道路区画線や路肩、縁石、中央分離帯、ガードレールなどを含む走路境界(道路境界)を認識することで、走行車線を認識してもよい。この認識において、ナビゲーション装置350から取得される車両Mの位置やINSによる処理結果が加味されてもよい。また、認識部430は、一時停止線、障害物、赤信号、料金所、その他の道路事象を認識する。
Further, the
認識部430は、走行車線を認識する際に、走行車線に対する車両Mの位置や姿勢を認識する。認識部430は、例えば、車両Mの基準点の車線中央からの乖離、および車両Mの進行方向の車線中央を連ねた線に対してなす角度を、走行車線に対する車両Mの相対位置および姿勢として認識してもよい。これに代えて、認識部430は、走行車線のいずれかの側端部(道路区画線または道路境界)に対する車両Mの基準点の位置などを、走行車線に対する車両Mの相対位置として認識してもよい。
When recognizing the traveling lane, the
なお、認識部430は、カメラ画像IMCやライダー画像IMLと、学習済みモデルとを用いて、車両Mの周辺にある物体の位置、および速度、加速度等の状態や、車両Mが走行している車線(走行車線)を認識してもよい。図8は、認識部430の認識処理の説明に用いられる図である。認識部430は、物体認識装置316から取得したカメラ画像IMCを、第1学習済みモデル472に入力し、車両Mの周辺にある物体の位置、および速度、加速度等の状態や、車両Mが走行している車線(走行車線)を示す第1結果を取得する。また、認識部430は、物体認識装置316から取得したライダー画像IMLを、第2学習済みモデル474に入力し、車両Mの周辺にある物体の位置、および速度、加速度等の状態や、車両Mが走行している車線(走行車線)を示す第2結果を取得する。
The
第1学習済みモデル472は、例えば、これまでに取得されたカメラ画像IMCに対して、当該カメラ画像IMCに示される他車両や道路標示等がタグ付けられた(アノテーションされた)教師データを用いて機械学習された学習済みモデルである。また、第2学習済みモデル474は、例えば、第1学習済みモデル472、又は第1学習済みモデル472の学習段階のモデルを、これまでに取得されたライダー画像IMLに対して、当該ライダー画像IMLに示される他車両や道路標示等がタグ付けられた(アノテーションされた)教師データを用いて更に機械学習した学習済みモデルである。第2学習済みモデル474は、例えば、「学習済み画像認識モデル」の一例であり、カメラ画像IMCは、「移動体の周辺画像」の一例である。
The first trained
なお、第2学習済みモデル474は、ライダー画像IMLに対して、当該ライダー画像IMLに示される物標および物標までの距離等がタグ付けられた(アノテーションされた)教師データを用いて機械学習した学習済みモデルであってもよい。この場合、認識部430は、第2学習済みモデル474にライダー画像IMLを入力し、第2結果を取得することにより、物標を認識する。
The second trained
以下、認識部430は、第1結果と、第2結果とをセンサフュージョン処理し、車両Mの周辺にある物体の位置、および速度、加速度等の状態や、車両Mが走行している車線(走行車線)を認識ものとする。認識部430が、ライダー画像IMLを第2学習済みモデル474に入力して第2結果を取得することは、「二次元画像に対し画像認識処理を行う」ことの一例である。
Hereinafter, the
なお、認識部430は、カメラ310の検出結果や、ライダー314の検出結果の状態に応じて、第1結果、又は第2結果の一方を用いて認識処理を行ってもよい。例えば、認識部430は、車両Mが存在する位置の天候によってカメラ310が車両Mの周囲を適切に撮像できない場合には、第2結果のみを用いて、又は第1結果よりも第2結果を重視して(重み付けして)認識処理を行ってもよい。また、認識部430は、車両Mの周囲に電磁波の反射率の高い物標が存在し、ライダー314が反射波を適切に検出できない場合には、第1結果のみを用いて、又は第2結果よりも第1結果を重視して(重み付けして)認識処理を行ってもよい。
The
図1に戻り、行動計画生成部440は、原則的には推奨車線決定部361により決定された推奨車線を走行し、更に、認識部430の認識結果に基づいて車両Mの周辺状況に対応できるように、車両Mが自動的に(運転者の操作に依らずに)将来走行する目標軌道を生成する。目標軌道は、例えば、速度要素を含んでいる。例えば、目標軌道は、車両Mの到達すべき地点(軌道点)を順に並べたものとして表現される。軌道点は、道なり距離で所定の走行距離(例えば数[m]程度)ごとの車両Mの到達すべき地点であり、それとは別に、所定のサンプリング時間(例えば0コンマ数[sec]程度)ごとの目標速度および目標加速度が、目標軌道の一部として生成される。また、軌道点は、所定のサンプリング時間ごとの、そのサンプリング時刻における車両Mの到達すべき位置であってもよい。この場合、目標速度や目標加速度の情報は軌道点の間隔で表現される。
Returning to FIG. 1, the action
行動計画生成部440は、目標軌道を生成するにあたり、自動運転のイベントを設定してよい。自動運転のイベントには、定速走行イベント、低速追従走行イベント、車線変更イベント、分岐イベント、合流イベント、テイクオーバーイベントなどがある。行動計画生成部440は、起動させたイベントに応じた目標軌道を生成する。
The action
第2制御部460は、行動計画生成部440によって生成された目標軌道を、予定の時刻通りに車両Mが通過するように、走行駆動力出力装置500、ブレーキ装置510、およびステアリング装置520を制御する。
The
[動作フロー]
図9は、物体認識装置316の処理の流れの一例を示すフローチャートである。まず、取得部316Aは、カメラ310からカメラ画像IMCを取得し、レーダ装置312から検出結果を取得し、ライダー314からデータセットを取得する(ステップS100)。画像生成部316Bは、取得部316Aによって取得されたデータセットに基づいて、データセットをライダー画像IMLに変換する(ステップS102)。出力部316Cは、取得部316Aによって取得された各種データと、ライダー画像IMLとを自動運転制御装置400に出力する(ステップS104)。
[Operation flow]
FIG. 9 is a flowchart showing an example of the processing flow of the
図10は、第1制御部420、及び第2制御部460の処理の流れの一例を示すフローチャートである。まず、認識部430は、物体認識装置316から取得したカメラ画像IMCを第1学習済みモデル472に入力し、第1結果を取得する(ステップS200)。次に、認識部430は、物体認識装置316から取得したライダー画像IMLを第2学習済みモデル474に入力し、第2結果を取得する(ステップS202)。次に、認識部430は、第1結果と、第2結果とをセンサフュージョン処理し、車両Mの周辺にある物体の位置、および速度、加速度等の状態や、車両Mが走行している車線(走行車線)を認識する(ステップS204)。次に、行動計画生成部440は、原則的には推奨車線決定部361により決定された推奨車線を走行し、更に、認識部430の認識結果に基づいて車両Mの周辺状況に対応できるように、車両Mが自動的に(運転者の操作に依らずに)将来走行する目標軌道を生成する(ステップS206)。次に、第2制御部460は、行動計画生成部440によって生成された目標軌道を、予定の時刻通りに車両Mが通過するように、駆動系の機器(つまり、走行駆動力出力装置500、ブレーキ装置510、およびステアリング装置520)を制御する(ステップS208)。
FIG. 10 is a flowchart showing an example of the processing flow of the
[実施形態のまとめ]
以上説明したように、本実施形態の車両システム1において、物体認識装置316は、検出部(この場合、ライダー314)の検出結果に基づいて、移動体(この場合、車両M)の認識処理に用いられやすいライダー画像IMLを生成することができ、カメラ画像IMCのみを用いる場合に比して精度良く車両Mの周囲の物標を認識することができる。
[Summary of Embodiment]
As described above, in the vehicle system 1 of the present embodiment, the
ここで、データセットに示される{レイヤ、アジマス、距離、検出した反射波の強度}等の値に基づいて、車両Mの周囲の物標を認識する処理は、カメラ画像IMCを用いて車両Mの周囲の物標を認識する処理に比して複雑な処理である場合がある。また、カメラ画像IMCを用いて車両Mの周囲の物標を認識する処理は、カメラ画像IMCを用いた機械学習によって学習された学習済みモデル(この場合、第1学習済みモデル472)によって簡便に実行できる場合がある。画像生成部316Bは、カメラ画像IMCの画角に合致するようにライダー画像IMLを生成するため、第1学習済みモデル472、又は第1学習済みモデル472の学習段階のモデルを、ライダー画像IMLを用いて車両Mの周囲の物標を認識する処理に用いられる学習済みモデル(この場合、第2学習済みモデル474)として、或いは第2学習済みモデル474の学習に流用することができる。これにより、本実施形態の車両システム1は、データセット(ライダー画像IML)に基づく認識処理を、第2学習済みモデル474を用いて簡便に行うことができる。また、本実施形態の車両システム1は、第2学習済みモデル474の学習段階に係る処理を、第1学習済みモデル472を流用することにより簡便に行うことができる。
Here, the process of recognizing the target around the vehicle M based on the values such as {layer, azimuth, distance, detected reflected wave intensity} shown in the data set is performed by using the camera image IMC to recognize the vehicle M. It may be a complicated process compared to the process of recognizing the target around. Further, the process of recognizing the target around the vehicle M using the camera image IMC is easily performed by the trained model (in this case, the first trained model 472) learned by machine learning using the camera image IMC. It may be possible to do it. In order to generate the rider image IML so as to match the angle of view of the camera image IMC, the
また、本実施形態の行動計画生成部440は、認識部430の認識結果に基づいて、行動計画を生成し、第2制御部460は、行動計画生成部440が生成した行動計画に基づいて車両Mの速度または操舵を制御することができる。これにより、本実施形態の車両システム1は、カメラ画像IMCのみに基づく認識処理に比して、より精度良く車両Mの周辺を認識しつつ、車両Mを制御することができる。
Further, the action
[物体認識装置316の機能を認識部430が備える構成について]
なお、物体認識装置316は、カメラ310、レーダ装置312、およびライダー314の検出結果をそのまま自動運転制御装置400に出力するものであってもよい。この場合、物体認識装置316において実行される処理は、認識部430が行う。また、物体認識装置316は省略されてもよく、この場合、カメラ310、レーダ装置312、およびライダー314が検出結果をそのまま自動運転制御装置400に出力してもよい。
[About the configuration in which the
The
[ハードウェア構成]
図11は、実施形態の自動運転制御装置400のハードウェア構成の一例を示す図である。図示するように、自動運転制御装置400は、通信コントローラ100−1、CPU100−2、ワーキングメモリとして使用されるRAM(Random Access Memory)100−3、ブートプログラムなどを格納するROM(Read Only Memory)100−4、フラッシュメモリやHDD(Hard Disk Drive)などの記憶装置100−5、ドライブ装置100−6などが、内部バスあるいは専用通信線によって相互に接続された構成となっている。通信コントローラ100−1は、自動運転制御装置400以外の構成要素との通信を行う。記憶装置100−5には、CPU100−2が実行するプログラム100−5aが格納されている。このプログラムは、DMA(Direct Memory Access)コントローラ(不図示)などによってRAM100−3に展開されて、CPU100−2によって実行される。これによって、認識部430、行動計画生成部440、および第2制御部460のうち一部または全部が実現される。
[Hardware configuration]
FIG. 11 is a diagram showing an example of the hardware configuration of the automatic
上記説明した実施形態は、以下のように表現することができる。
プログラムを記憶した記憶装置と、
ハードウェアプロセッサと、を備え、
前記ハードウェアプロセッサが前記記憶装置に記憶されたプログラムを実行することにより、
上下方向および左右方向に関して前記認識装置を射出中心として異なる角度に電磁波を照射し、
反射波を検出し、
検出結果に基づいて、前記移動体からの水平方向を上下基準として電磁波の照射方向ごとに画素を割り当てた二次元画像を生成する、
ように構成されている、認識装置。
The embodiment described above can be expressed as follows.
A storage device that stores programs and
With a hardware processor,
When the hardware processor executes a program stored in the storage device,
Electromagnetic waves are irradiated at different angles with the recognition device as the emission center in the vertical and horizontal directions.
Detects reflected waves and
Based on the detection result, a two-dimensional image in which pixels are assigned to each electromagnetic wave irradiation direction is generated with the horizontal direction from the moving body as a vertical reference.
A recognition device that is configured to.
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 Although the embodiments for carrying out the present invention have been described above using the embodiments, the present invention is not limited to these embodiments, and various modifications and substitutions are made without departing from the gist of the present invention. Can be added.
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 Although the embodiments for carrying out the present invention have been described above using the embodiments, the present invention is not limited to these embodiments, and various modifications and substitutions are made without departing from the gist of the present invention. Can be added.
1…車両システム、310…カメラ、312…レーダ装置、314…ライダー、316…物体認識装置、316A…取得部、316B…画像生成部、316C…出力部、320…通信装置、340…車両センサ、350…ナビゲーション装置、351…GNSS受信機、352…ナビHMI、353…経路決定部、354…第1地図情報、361…推奨車線決定部、362…第2地図情報、380…運転操作子、400…自動運転制御装置、420…第1制御部、430…認識部、440…行動計画生成部、460…第2制御部、470…記憶部、472…第1学習済みモデル、474…第2学習済みモデル、500…走行駆動力出力装置、510…ブレーキ装置、520…ステアリング装置、IMC…カメラ画像、IML…ライダー画像、M…車両、θ1…所定範囲、θ2…所定範囲 1 ... Vehicle system, 310 ... Camera, 312 ... Radar device, 314 ... Rider, 316 ... Object recognition device, 316A ... Acquisition unit, 316B ... Image generation unit, 316C ... Output unit, 320 ... Communication device, 340 ... Vehicle sensor, 350 ... Navigation device, 351 ... GNSS receiver, 352 ... Navi HMI, 353 ... Route determination unit, 354 ... First map information, 361 ... Recommended lane determination unit, 362 ... Second map information, 380 ... Driving operator, 400 ... Automatic operation control device, 420 ... First control unit, 430 ... Recognition unit, 440 ... Action plan generation unit, 460 ... Second control unit, 470 ... Storage unit, 472 ... First trained model, 474 ... Second learning Completed model, 500 ... Driving driving force output device, 510 ... Brake device, 520 ... Steering device, IMC ... Camera image, IML ... Rider image, M ... Vehicle, θ1 ... Predetermined range, θ2 ... Predetermined range
Claims (8)
上下方向および左右方向に関して前記認識装置を射出中心として異なる角度に電磁波を照射し、反射波を検出することで距離を検出する検出部と、
前記検出部の検出結果に基づいて、前記移動体からの水平方向を上下基準として電磁波の照射方向ごとに画素を割り当てた二次元画像を生成する生成部と、
を備える認識装置。 It is a recognition device mounted on a moving body.
A detection unit that detects the distance by irradiating electromagnetic waves at different angles with the recognition device as the emission center in the vertical and horizontal directions and detecting the reflected wave.
Based on the detection result of the detection unit, a generation unit that generates a two-dimensional image in which pixels are assigned to each electromagnetic wave irradiation direction with the horizontal direction from the moving body as a vertical reference.
A recognition device equipped with.
請求項1に記載の認識装置。 The detector is a rider.
The recognition device according to claim 1.
請求項2に記載の認識装置。 The generation unit generates the two-dimensional image in which the distance obtained from the detection result of the rider and the intensity of the reflected wave are used as data elements of the pixel.
The recognition device according to claim 2.
請求項3に記載の認識装置。 An image recognition process is performed on the two-dimensional image, and a recognition unit that recognizes a target in the two-dimensional image is further provided.
The recognition device according to claim 3.
前記学習済み画像認識モデルは、移動体の周辺画像を用いて機械学習され、前記二次元画像内の物標と、前記物標までの距離を出力する、
請求項4に記載の認識装置。 The recognition unit performs the image recognition process using the trained image recognition model.
The trained image recognition model is machine-learned using a peripheral image of a moving body, and outputs a target in the two-dimensional image and a distance to the target.
The recognition device according to claim 4.
前記二次元画像に基づいて前記移動体の制御を行う制御装置と、
を備える制御システム。 The recognition device according to any one of claims 1 to 5.
A control device that controls the moving body based on the two-dimensional image, and
Control system with.
上下方向および左右方向に関して前記認識装置を射出中心として異なる角度に電磁波を照射し、
反射波を検出することで距離を検出し、
検出結果に基づいて、前記移動体からの水平方向を上下基準として電磁波の照射方向ごとに画素を割り当てた二次元画像を生成する、
認識方法。 The computer of the recognition device mounted on the mobile body
Electromagnetic waves are irradiated at different angles with the recognition device as the emission center in the vertical and horizontal directions.
Detect the distance by detecting the reflected wave,
Based on the detection result, a two-dimensional image in which pixels are assigned to each electromagnetic wave irradiation direction is generated with the horizontal direction from the moving body as a vertical reference.
Recognition method.
上下方向および左右方向に関して前記認識装置を射出中心として異なる角度に電磁波を照射させ、
反射波を検出することで距離を検出させ、
検出結果に基づいて、前記移動体からの水平方向を上下基準として電磁波の照射方向ごとに画素を割り当てた二次元画像を生成させる、
プログラム。 To the computer of the recognition device mounted on the mobile body
Electromagnetic waves are irradiated at different angles with the recognition device as the emission center in the vertical and horizontal directions.
The distance is detected by detecting the reflected wave,
Based on the detection result, a two-dimensional image in which pixels are assigned to each electromagnetic wave irradiation direction is generated with the horizontal direction from the moving body as a vertical reference.
program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019170735A JP2021047120A (en) | 2019-09-19 | 2019-09-19 | Recognition device, control system, recognition method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019170735A JP2021047120A (en) | 2019-09-19 | 2019-09-19 | Recognition device, control system, recognition method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021047120A true JP2021047120A (en) | 2021-03-25 |
Family
ID=74876609
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019170735A Pending JP2021047120A (en) | 2019-09-19 | 2019-09-19 | Recognition device, control system, recognition method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021047120A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022097426A1 (en) * | 2020-11-04 | 2022-05-12 | 株式会社日立製作所 | Status determination device, status determination system, and status determination method |
-
2019
- 2019-09-19 JP JP2019170735A patent/JP2021047120A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022097426A1 (en) * | 2020-11-04 | 2022-05-12 | 株式会社日立製作所 | Status determination device, status determination system, and status determination method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108572663B (en) | Target tracking | |
JP6663406B2 (en) | Vehicle control device, vehicle control method, and program | |
US20200026282A1 (en) | Lane/object detection and tracking perception system for autonomous vehicles | |
US11548443B2 (en) | Display system, display method, and program for indicating a peripheral situation of a vehicle | |
US11370420B2 (en) | Vehicle control device, vehicle control method, and storage medium | |
CN111094096A (en) | Vehicle control device, vehicle control method, and program | |
US10974722B2 (en) | Vehicle control apparatus, vehicle control method, and storage medium | |
JP2021068016A (en) | Vehicle controller, vehicle control method and program | |
JP6965152B2 (en) | Vehicle control devices, vehicle control methods, and programs | |
JP2020160496A (en) | Vehicle control device, vehicle control method, and program | |
JP2021047120A (en) | Recognition device, control system, recognition method and program | |
JP6839642B2 (en) | Vehicle control devices, vehicle control methods, and programs | |
JP2021064056A (en) | Zebra zone recognition device, vehicle control device, zebra zone recognition method, and program | |
JP2021068014A (en) | Vehicle controller, vehicle control method and program | |
JP7028838B2 (en) | Peripheral recognition device, peripheral recognition method, and program | |
JP7419085B2 (en) | Recognition device, recognition system, method, and program | |
JP7083768B2 (en) | Recognition device, vehicle control device, recognition method, and program | |
JP2019049811A (en) | Vehicle control device, vehicle control method, and program | |
JP2021160399A (en) | Vehicle control device, vehicle control method, and program | |
CN112613335A (en) | Identification device, identification method, and storage medium | |
JP2021050927A (en) | Recognition device, vehicle control device, recognition method, and program | |
JP7503921B2 (en) | Vehicle control device, vehicle control method, and program | |
JP7160730B2 (en) | VEHICLE SYSTEM, VEHICLE SYSTEM CONTROL METHOD, AND PROGRAM | |
US20230234609A1 (en) | Control device, control method, and storage medium | |
JP2019048513A (en) | Vehicle control device, vehicle control method, and program |