JP2021047120A - Recognition device, control system, recognition method and program - Google Patents

Recognition device, control system, recognition method and program Download PDF

Info

Publication number
JP2021047120A
JP2021047120A JP2019170735A JP2019170735A JP2021047120A JP 2021047120 A JP2021047120 A JP 2021047120A JP 2019170735 A JP2019170735 A JP 2019170735A JP 2019170735 A JP2019170735 A JP 2019170735A JP 2021047120 A JP2021047120 A JP 2021047120A
Authority
JP
Japan
Prior art keywords
recognition
image
recognition device
vehicle
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019170735A
Other languages
Japanese (ja)
Inventor
和馬 小原
Kazuma Ohara
和馬 小原
涼至 若山
Ryoji Wakayama
涼至 若山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2019170735A priority Critical patent/JP2021047120A/en
Publication of JP2021047120A publication Critical patent/JP2021047120A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

To provide a recognition device, a control system, a recognition method and a program, capable of generating an image that is easily used for recognition processing of a moving body based on a detection result of a detection unit.SOLUTION: A recognition device is mounted on a moving body, and comprises: a detection unit that emits electromagnetic waves at different angles with the recognition device as an emission center in vertical and horizontal directions and detects the reflected waves, to detect a distance; and a generation unit that generates a two-dimensional image in which pixels are assigned to an emission direction of each electromagnetic wave with the horizontal direction from the moving body as a vertical reference, based on the detection result of the detection unit.SELECTED DRAWING: Figure 1

Description

本発明は、認識装置、制御システム、認識方法、及びプログラムに関する。 The present invention relates to a recognition device, a control system, a recognition method, and a program.

従来、距離センサ等の検出部が周囲を検出した検出結果に基づいて、検出部の認識範囲を情報から俯瞰した俯瞰図を生成する技術が開示されている(例えば、特許文献1参照)。 Conventionally, a technique for generating a bird's-eye view of the recognition range of a detection unit from information based on a detection result in which a detection unit such as a distance sensor detects the surroundings has been disclosed (see, for example, Patent Document 1).

特開2014−194729号公報Japanese Unexamined Patent Publication No. 2014-194729

しかしながら、従来の技術では、俯瞰図以外の画像を生成することまでは困難であった。 However, with the conventional technology, it has been difficult to generate an image other than a bird's-eye view.

本発明は、このような事情を考慮してなされたものであり、検出部の検出結果に基づいて、移動体の認識処理に用いられやすい画像を生成することができる認識装置、制御システム、認識方法、及びプログラムを提供することを目的の一つとする。 The present invention has been made in consideration of such circumstances, and is a recognition device, a control system, and a recognition capable of generating an image that can be easily used for recognition processing of a moving object based on the detection result of the detection unit. One of the purposes is to provide methods and programs.

この発明に係る認識装置、制御システム、認識方法、及びプログラムは、以下の構成を採用した。
(1)この発明の一態様の認識装置は、移動体に搭載される認識装置であって、上下方向および左右方向に関して前記認識装置を射出中心として異なる角度に電磁波を照射し、反射波を検出することで距離を検出する検出部と、前記検出部の検出結果に基づいて、前記移動体からの水平方向を上下基準として電磁波の照射方向ごとに画素を割り当てた二次元画像を生成する生成部と、を備えるものである。
The recognition device, control system, recognition method, and program according to the present invention have the following configurations.
(1) The recognition device according to one aspect of the present invention is a recognition device mounted on a moving body, and detects reflected waves by irradiating electromagnetic waves at different angles with the recognition device as an emission center in the vertical direction and the horizontal direction. A detection unit that detects the distance by doing so, and a generation unit that generates a two-dimensional image in which pixels are assigned to each electromagnetic wave irradiation direction with the horizontal direction from the moving body as a vertical reference based on the detection result of the detection unit. And.

(2)の態様は、上記(1)の態様に係る認識装置において、前記検出部は、ライダーであるものである。 The aspect (2) is that in the recognition device according to the aspect (1) above, the detection unit is a rider.

(3)の態様は、上記(2)の態様に係る認識装置において、前記生成部は、前記ライダーの検出結果から得られる距離および前記反射波の強度を前記画素のデータ要素とした前記二次元画像を生成するものである。 The aspect (3) is the recognition device according to the aspect (2), wherein the generation unit uses the distance obtained from the detection result of the rider and the intensity of the reflected wave as data elements of the pixel. It produces an image.

(4)の態様は、上記(3)の態様に係る認識装置において、前記二次元画像に対して画像認識処理を行い、前記二次元画像内の物標を認識する認識部を更に備えるものである。 In the aspect (4), the recognition device according to the above aspect (3) further includes a recognition unit that performs image recognition processing on the two-dimensional image and recognizes a target in the two-dimensional image. is there.

(5)の態様は、上記(4)の態様に係る認識装置において、前記認識部は、前記画像認識処理を、学習済み画像認識モデルを用いて行い、前記学習済み画像認識モデルは、移動体の周辺画像を用いて機械学習され、前記二次元画像内の物標と、前記物標までの距離を出力するものである。 In the recognition device according to the aspect (4), the recognition unit performs the image recognition process using the trained image recognition model, and the trained image recognition model is a moving body. Machine learning is performed using the peripheral image of the above, and the target in the two-dimensional image and the distance to the target are output.

(6)この発明の他の態様の制御システムは、上記(1)から(5)の何れかの態様に係る認識装置と、前記二次元画像に基づいて前記移動体の制御を行う制御装置と、を備えるものである。 (6) The control system of another aspect of the present invention includes a recognition device according to any one of the above (1) to (5) and a control device that controls the moving body based on the two-dimensional image. , Is provided.

(7)この発明の他の態様の認識方法は、移動体に搭載される認識装置のコンピュータが、上下方向および左右方向に関して前記認識装置を射出中心として異なる角度に電磁波を照射し、反射波を検出することで距離を検出し、検出結果に基づいて、前記移動体からの水平方向を上下基準として電磁波の照射方向ごとに画素を割り当てた二次元画像を生成するものである。 (7) In the recognition method of another aspect of the present invention, the computer of the recognition device mounted on the moving body irradiates electromagnetic waves at different angles with the recognition device as the emission center in the vertical direction and the horizontal direction to emit reflected waves. By detecting the distance, the distance is detected, and based on the detection result, a two-dimensional image in which pixels are assigned to each irradiation direction of the electromagnetic wave is generated with the horizontal direction from the moving body as a vertical reference.

(8)この発明の他の態様のプログラムは、移動体に搭載される認識装置のコンピュータに、 上下方向および左右方向に関して前記認識装置を射出中心として異なる角度に電磁波を照射させ、反射波を検出することで距離を検出させ、検出結果に基づいて、前記移動体からの水平方向を上下基準として電磁波の照射方向ごとに画素を割り当てた二次元画像を生成させるものである。 (8) In the program of another aspect of the present invention, the computer of the recognition device mounted on the moving body is irradiated with electromagnetic waves at different angles with the recognition device as the emission center in the vertical direction and the horizontal direction, and the reflected wave is detected. By doing so, the distance is detected, and based on the detection result, a two-dimensional image in which pixels are assigned to each irradiation direction of the electromagnetic wave is generated with the horizontal direction from the moving body as a vertical reference.

(1)〜(8)によれば、認識部の認識結果に基づいて、移動体の認識処理に用いられやすい画像を生成することができる。 According to (1) to (8), it is possible to generate an image that is easy to be used for the recognition process of the moving object based on the recognition result of the recognition unit.

(6)によれば、画像に基づいて車両を制御することができる。 According to (6), the vehicle can be controlled based on the image.

認識装置を利用する車両システム1の構成等を示す図である。It is a figure which shows the structure of the vehicle system 1 which uses the recognition device. ライダー314の説明に用いられる図である。It is a figure used for the explanation of a rider 314. 物体認識装置316の構成の一例を示す図である。It is a figure which shows an example of the structure of the object recognition device 316. カメラ画像IMCの一例を示す図である。It is a figure which shows an example of a camera image IMC. ライダー314のデータセットの内容を模式的に示す図である。It is a figure which shows typically the contents of the data set of a rider 314. 画像生成部316Bの二次元画像を生成する処理の説明に用いる図である。It is a figure used for the explanation of the process of generating the 2D image of the image generation part 316B. ライダー画像IMLの一例を示す図である。It is a figure which shows an example of a rider image IML. 認識部430の認識処理の説明に用いられる図である。It is a figure used for the explanation of the recognition process of the recognition unit 430. 物体認識装置316の処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the processing flow of the object recognition apparatus 316. 第1制御部420、及び第2制御部460の処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the processing flow of the 1st control unit 420, and the 2nd control unit 460. 実施形態の自動運転制御装置400のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware composition of the automatic operation control device 400 of embodiment.

以下、図面を参照し、本発明の認識装置、制御システム、認識方法、及びプログラムの実施形態について説明する。 Hereinafter, embodiments of the recognition device, control system, recognition method, and program of the present invention will be described with reference to the drawings.

<実施形態>
図1は、認識装置を利用する車両システム1の構成等を示す図である。本図に示す車両システム1の構成は、車両Mに搭載される。車両システム1は、例えば、カメラ310と、レーダ装置312と、ライダー(Light Detection and Ranging)314と、物体認識装置316と、通信装置320と、HMI(Human Machine Interface)330と、車両センサ340と、ナビゲーション装置350と、MPU(Map Positioning Unit)360と、運転操作子380と、自動運転制御装置400と、走行駆動力出力装置500と、ブレーキ装置510と、ステアリング装置520とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。
<Embodiment>
FIG. 1 is a diagram showing a configuration and the like of a vehicle system 1 that uses a recognition device. The configuration of the vehicle system 1 shown in this figure is mounted on the vehicle M. The vehicle system 1 includes, for example, a camera 310, a radar device 312, a rider (Light Detection and Ranging) 314, an object recognition device 316, a communication device 320, an HMI (Human Machine Interface) 330, and a vehicle sensor 340. , A navigation device 350, an MPU (Map Positioning Unit) 360, a driving operator 380, an automatic driving control device 400, a traveling driving force output device 500, a braking device 510, and a steering device 520. These devices and devices are connected to each other by a multiplex communication line such as a CAN (Controller Area Network) communication line, a serial communication line, a wireless communication network, or the like.

なお、図1に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。図1に示す構成のうち、物体認識装置316が、「認識装置」の一例である。 The configuration shown in FIG. 1 is merely an example, and a part of the configuration may be omitted or another configuration may be added. Among the configurations shown in FIG. 1, the object recognition device 316 is an example of the “recognition device”.

カメラ310は、車両Mの周辺(特に前方または後方)を撮像可能な任意の位置に設置される。例えば、カメラ310は、フロントウインドシールドの上部に設置される。カメラ310は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を備えるデジタルカメラであり、所定周期で繰り返し車両Mの周辺を撮像する。 The camera 310 is installed at an arbitrary position capable of capturing an image of the periphery of the vehicle M (particularly forward or rear). For example, the camera 310 is installed above the front windshield. The camera 310 is a digital camera including an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), and repeatedly images the periphery of the vehicle M at a predetermined cycle.

レーダ装置312は、車両Mの周辺にミリ波などの電波を放射すると共に、物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。レーダ装置312は、車両Mの任意の箇所に取り付けられる。 The radar device 312 radiates radio waves such as millimeter waves around the vehicle M and detects radio waves (reflected waves) reflected by the object to at least detect the position (distance and orientation) of the object. The radar device 312 is attached to an arbitrary position on the vehicle M.

ライダー314は、車両Mの任意の方向を見渡すことができる位置に取り付けられる。図2は、ライダー314の説明に用いられる図である。図2において、ライダー314は車両Mの前端部における道路面からの高さがhの位置に取り付けられている。高さhは、例えば数十[cm]程度である。 The rider 314 is mounted at a position overlooking any direction of the vehicle M. FIG. 2 is a diagram used to explain the rider 314. In FIG. 2, the rider 314 is attached at a position where the height from the road surface at the front end of the vehicle M is h. The height h is, for example, about several tens [cm].

ライダー314は、電磁波を照射して反射波を検出し、照射から検出までの時間を測定することで物標の輪郭までの距離を検出する。ライダー314は、電磁波の照射方向を、仰角または俯角(上下方向の照射方向)と、方位角(水平方向の照射方向)との双方について変更可能である。ライダー314は、例えば、上下方向の照射方向を固定して水平方向の照射方向を変えながらスキャンを行い、次いで上下方向の照射方向を変更し、変更した角度で上下方向の照射方向を固定して水平方向の照射方向を変えながらスキャンを行う、という動作を繰り返し行う。以下、上下方向の照射方向のことを「レイヤ」と称し、レイヤを固定して水平方向の照射方向を変えながら行う一回のスキャンのことを「サイクル」と称し、水平方向の照射方向のことを「アジマス」と称する。レイヤは、例えばL1〜Liまで有限数で設定される(iは自然数)。レイヤの変更は、例えば、前回のサイクルで照射した電磁波が今回のサイクルにおける検知に干渉しないように、L0→L4→L2→L5→L1…というように角度に関して不連続に行われる。なお、これに限らず、レイヤの変更が角度に関して連続的に行われても構わない。 The rider 314 irradiates an electromagnetic wave to detect a reflected wave, and measures the time from the irradiation to the detection to detect the distance to the contour of the target. The rider 314 can change the irradiation direction of the electromagnetic wave for both the elevation angle or the depression angle (the irradiation direction in the vertical direction) and the azimuth angle (the irradiation direction in the horizontal direction). For example, the rider 314 scans while fixing the irradiation direction in the vertical direction and changing the irradiation direction in the horizontal direction, then changes the irradiation direction in the vertical direction, and fixes the irradiation direction in the vertical direction at the changed angle. The operation of scanning while changing the irradiation direction in the horizontal direction is repeated. Hereinafter, the vertical irradiation direction is referred to as a "layer", and one scan performed while fixing the layer and changing the horizontal irradiation direction is referred to as a "cycle", and is the horizontal irradiation direction. Is called "azimuth". The layers are set to, for example, L1 to Li with a finite number (i is a natural number). The layer change is performed discontinuously with respect to the angle, for example, L0 → L4 → L2 → L5 → L1 ... So that the electromagnetic wave irradiated in the previous cycle does not interfere with the detection in this cycle. Not limited to this, the layer may be changed continuously with respect to the angle.

なお、ライダー314は、電磁波を照射する照射部を複数備え、複数の照射部が縦方向に配置される場合には、上下方向の照射方向の変更を行わずに、各照射部が各レイヤの照射を行うものであってもよい。また、ライダー314は、複数の照射部が横方向に配置される場合には、水平方向の照射方向の変更を行わずに、各照射部が各アジマスの照射を行うものであってもよい。 The rider 314 is provided with a plurality of irradiation units for irradiating electromagnetic waves, and when a plurality of irradiation units are arranged in the vertical direction, each irradiation unit is of each layer without changing the irradiation direction in the vertical direction. It may be the one that irradiates. Further, in the rider 314, when a plurality of irradiation units are arranged in the horizontal direction, each irradiation unit may irradiate each azimuth without changing the irradiation direction in the horizontal direction.

ライダー314は、例えば、{レイヤ、アジマス、距離、検出した反射波の強度}を含むデータセットを物体認識装置316に出力する。物体認識装置316は、車両Mにおける任意の箇所に設置される。以下、図2に示す通り、物体認識装置316が車両Mの上部に設置されるものとする。 The rider 314 outputs a data set including, for example, {layer, azimuth, distance, intensity of detected reflected wave} to the object recognition device 316. The object recognition device 316 is installed at an arbitrary position in the vehicle M. Hereinafter, as shown in FIG. 2, it is assumed that the object recognition device 316 is installed on the upper part of the vehicle M.

図1に戻り、物体認識装置316は、カメラ310、レーダ装置312、およびライダー314のうち一部または全部による検出結果に対してセンサフュージョン処理を行って、物標の位置、種類、速度などを認識する。図3は、物体認識装置316の構成の一例を示す図である。物体認識装置316は、例えば、取得部316Aと、画像生成部316Bと、出力部316Cとを備える。これらの機能部は、それぞれ、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD−ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体(非一過性の記憶媒体)がドライブ装置に装着されることで物体認識装置316のHDDやフラッシュメモリにインストールされてもよい。 Returning to FIG. 1, the object recognition device 316 performs sensor fusion processing on the detection results of a part or all of the camera 310, the radar device 312, and the rider 314 to determine the position, type, speed, and the like of the target. recognize. FIG. 3 is a diagram showing an example of the configuration of the object recognition device 316. The object recognition device 316 includes, for example, an acquisition unit 316A, an image generation unit 316B, and an output unit 316C. Each of these functional units is realized by executing a program (software) by a hardware processor such as a CPU (Central Processing Unit). Some or all of these components are hardware such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), GPU (Graphics Processing Unit), etc. It may be realized by (including circuits), or it may be realized by the cooperation of software and hardware. The program may be stored in advance in a storage device (a storage device including a non-transient storage medium) such as an HDD (Hard Disk Drive) or a flash memory, or a removable storage device such as a DVD or a CD-ROM. It is stored in a medium, and the storage medium (non-transient storage medium) may be attached to the drive device and installed in the HDD or flash memory of the object recognition device 316.

取得部316Aは、カメラ310によって生成された画像を取得し、レーダ装置312の検出結果を取得し、ライダー314からデータセットを取得する。図4は、カメラ310が生成した画像(以下、カメラ画像IMC)の一例を示す図である。図4の例において、カメラ310フロントウインドシールドの上部などに取り付けられている。図4のカメラ画像IMCのうち、範囲AR1と、範囲AR2とには、車両Mの周辺に存在する他車両がそれぞれ示され、範囲AR3には、横断歩道が示される。 The acquisition unit 316A acquires the image generated by the camera 310, acquires the detection result of the radar device 312, and acquires the data set from the rider 314. FIG. 4 is a diagram showing an example of an image generated by the camera 310 (hereinafter, camera image IMC). In the example of FIG. 4, the camera 310 is attached to the upper part of the front windshield. In the camera image IMC of FIG. 4, the range AR1 and the range AR2 show other vehicles existing around the vehicle M, respectively, and the range AR3 shows a pedestrian crossing.

図5は、ライダー314のデータセットの内容を模式的に示す図である。図5は、図4と同じ位置に車両Mが存在する場合に、ライダー314の出力から認識される三次元の反射点分布を示している。図5において、反射点の色の相違は、反射率の違い(つまり、反射波の強度の相違)を示す。ここで、道路上に描画または埋設された道路標示の反射波の強度と、道路面の反射波の強度とでは、道路標示の方が反射波の強度が高い場合がある。これは、道路標示が、道路面に白線や黄線の実線または破線の態様で描画されているためである。道路標示は、例えば、ボッツドッツやキャッツアイの態様で道路に埋設されたりした道路区画線、或いは道路面に描画された法定速度や横断歩道や横断歩道予告等である。図5において、図4に示すカメラ画像IMCの範囲AR1〜AR2と対応する実空間の範囲のデータセットには、他車両を示すデータであり、反射波の強度が高い点群のデータが含まれ、範囲AR2と対応する実空間の範囲のデータセットには、横断歩道の白線を示すデータであり、反射波の強度が高い点群のデータが含まれる。 FIG. 5 is a diagram schematically showing the contents of the data set of the rider 314. FIG. 5 shows a three-dimensional reflection point distribution recognized from the output of the rider 314 when the vehicle M is present at the same position as in FIG. In FIG. 5, the difference in the color of the reflection point indicates the difference in reflectance (that is, the difference in the intensity of the reflected wave). Here, in terms of the intensity of the reflected wave of the road marking drawn or buried on the road and the intensity of the reflected wave on the road surface, the road marking may have a higher intensity of the reflected wave. This is because the road markings are drawn on the road surface in the form of solid lines or broken lines of white lines and yellow lines. Road markings are, for example, road markings buried in roads in the manner of Bot's Dots or Cat's Eye, legal speeds drawn on the road surface, pedestrian crossings, pedestrian crossing notices, and the like. In FIG. 5, the data set in the real space range corresponding to the range AR1 to AR2 of the camera image IMC shown in FIG. 4 includes data indicating another vehicle and data of a point cloud having a high reflected wave intensity. , The data set of the real space range corresponding to the range AR2 includes the data indicating the white line of the crosswalk and the data of the point cloud having a high intensity of the reflected wave.

図2に戻り、画像生成部316Bは、取得部316Aによって取得されたデータセットに基づいて、電磁波の照射方向ごとに画素を割り当てた二次元画像を生成する。画像生成部316Bが二次元画像を生成する処理の詳細については、後述する。出力部316Cは、カメラ310によって生成された画像、レーダ装置312の検出結果、ライダー314から取得したデータセット、画像生成部316Bによって生成された二次元画像を自動運転制御装置400に出力する。 Returning to FIG. 2, the image generation unit 316B generates a two-dimensional image in which pixels are assigned for each electromagnetic wave irradiation direction based on the data set acquired by the acquisition unit 316A. Details of the process by which the image generation unit 316B generates a two-dimensional image will be described later. The output unit 316C outputs the image generated by the camera 310, the detection result of the radar device 312, the data set acquired from the rider 314, and the two-dimensional image generated by the image generation unit 316B to the automatic operation control device 400.

画像生成部316Bは、取得部316Aによって取得されたデータセットに基づいて、電磁波の照射方向ごとに画素を割り当てた二次元画像を生成する。図6は、画像生成部316Bの二次元画像を生成する処理の説明に用いる図である。以下、画像生成部316Bが生成する二次元画像をライダー画像IMLと記載する。まず、画像生成部316Bは、取得部316Aによって取得されたデータセットのうち、上下方向の一部、又は全部の範囲(図示する所定範囲θ1)のデータセットであって、且つ水平方向の一部、又は全部の範囲(図示する所定範囲θ2)のデータセットを抽出する。この所定範囲θ1、及び所定範囲θ2は、例えば、カメラ画像IMCの画角と合致する範囲である。 The image generation unit 316B generates a two-dimensional image in which pixels are assigned for each electromagnetic wave irradiation direction based on the data set acquired by the acquisition unit 316A. FIG. 6 is a diagram used for explaining a process of generating a two-dimensional image of the image generation unit 316B. Hereinafter, the two-dimensional image generated by the image generation unit 316B will be referred to as a rider image IML. First, the image generation unit 316B is a data set of a part or the whole range (a predetermined range θ1 shown in the drawing) of the data set acquired by the acquisition unit 316A, and is a part in the horizontal direction. , Or the data set of the entire range (predetermined range θ2 shown) is extracted. The predetermined range θ1 and the predetermined range θ2 are, for example, ranges that match the angle of view of the camera image IMC.

次に、画像生成部316Bは、抽出したデータセットを、ライダー画像IMLを構成する画素のデータ要素としてそれぞれ対応付ける。以下、ライダー画像IMLのデータ要素が、ライダー画像IMLを構成する画素の画素値であるものとする。また、以下、取得部316Aによって取得されたデータセットのうち、特定のデータセットを示す場合には、データセットDxyと記載する。また、ライダー画像IMLを構成する画素のうち、特定の画素を示す場合には、画素Pxyと記載する。添え字のx、及びyは、自然数であり、xは、レイヤを示し、yは、アジマスを示す。図6において、画像生成部316Bが抽出したデータセットは、レイヤ[1]〜レイヤ[m]のm[個]のレイヤに係るデータセットであり、且つアジマス[1]〜[n]のn[個]のアジマスに係るデータセットである。画像生成部316Bは、例えば、抽出されたデータセットのうち、データセットD11、D12、…、Dmnを、カメラ画像IMCの画素P11、P12、…、Pmnとして対応付ける。 Next, the image generation unit 316B associates the extracted data sets with the data elements of the pixels constituting the rider image IML. Hereinafter, it is assumed that the data element of the rider image IML is the pixel value of the pixels constituting the rider image IML. Further, hereinafter, when a specific data set is shown among the data sets acquired by the acquisition unit 316A, it is described as the data set Dxy. Further, when a specific pixel is shown among the pixels constituting the rider image IML, it is described as pixel Pxy. The subscripts x and y are natural numbers, x indicates a layer, and y indicates an azimuth. In FIG. 6, the data set extracted by the image generation unit 316B is a data set related to m [pieces] of layers [1] to [m], and n [n [1] to [n] of azimus [1] to [n]. This is a data set related to hydrangea. The image generation unit 316B associates the extracted data sets with the data sets D11, D12, ..., Dmn as the pixels P11, P12, ..., Pmn of the camera image IMC, for example.

ここで、画像生成部316Bは、レイヤの変更方向、及びアジマスの変更方向と、画素Pの並び順とが対応するように、データセットをライダー画像IMLに対応付けて変換する。例えば、図6では、レイヤの変更方向が上方から下方であり、且つアジマスの変更方向がライダー314から向かって右から左であるため、画像生成部316Bは、画素P11、P21、…、Pm1の並びが上方から下方になるように、且つ画素P11、P12、…、P1nの並びが右から左になるようにカメラ画像IMCを変換する。 Here, the image generation unit 316B converts the data set in association with the rider image IML so that the layer change direction and the azimuth change direction correspond to the arrangement order of the pixels P. For example, in FIG. 6, since the layer change direction is from top to bottom and the azimuth change direction is from right to left with respect to the rider 314, the image generation unit 316B has pixels P11, P21, ..., Pm1. The camera image IMC is converted so that the arrangement is from top to bottom and the arrangement of pixels P11, P12, ..., P1n is from right to left.

従来のいわゆるLider画像は、カメラから見たような空間画像として形成される。その結果、従来のいわゆるLider画像には、Liderが電磁波を照射していない部分が画像の一部を占めることとなる。これに対し、画像生成部316Bは、レイヤに対応する反射点のみを画像の要素(画素)としているので、ライダー画像IMLの生成に際して、従来のいわゆるLider画像の生成に係る処理よりも、処理負荷を低減することができる。 The conventional so-called Lider image is formed as a spatial image as seen from a camera. As a result, in the conventional so-called lidar image, the portion where the lidar does not irradiate the electromagnetic wave occupies a part of the image. On the other hand, since the image generation unit 316B uses only the reflection points corresponding to the layers as image elements (pixels), the processing load is higher than the conventional processing related to the generation of the so-called Layer image when generating the rider image IML. Can be reduced.

なお、画像生成部316Bは、ライダー314の検出範囲と、カメラ310の撮像範囲とが互いに異なることに伴い、カメラ画像IMCの画角と、ライダー画像IMLの画角とが合致しない場合には、ライダー画像IMLの一部、又は全部を画像変換(例えば、拡大、縮小等)して画角が合致するように調整してもよい。また、図6に示す例では、ライダー画像IMLの画素Pがいずれも同一であるものとして説明したが、これに限られない。画像生成部316Bは、例えば、データセットの検出位置と、ライダー画像IMLの画素の対応づけに伴うゆがみに応じてライダー画像IMLの画素Pの大きさを異なる大きさにそれぞれ変更してもよい。 In the image generation unit 316B, when the detection range of the rider 314 and the imaging range of the camera 310 are different from each other and the angle of view of the camera image IMC and the angle of view of the rider image IML do not match, A part or all of the rider image IML may be image-converted (for example, enlarged, reduced, etc.) and adjusted so that the angles of view match. Further, in the example shown in FIG. 6, it has been described that the pixels P of the rider image IML are all the same, but the present invention is not limited to this. The image generation unit 316B may change the size of the pixel P of the rider image IML to a different size according to, for example, the detection position of the data set and the distortion caused by the association of the pixels of the rider image IML.

図7は、ライダー画像IMLの一例を示す図である。画像生成部316Bは、例えば、電磁波を反射した物標までの距離を画素Pの青の画素値(階調)として示し、反射波の強度を画素Pの緑の画素値(階調)として示すように、ライダー画像IMLを変換する。図7において、青の領域はドットの領域によって示され、緑の領域は斜線の領域によって示される。まず、画像生成部316Bは、データセットに含まれる電磁波を反射した物標までの距離に基づいて、上限値から下限値までの距離を、0から所定の階調(例えば、0〜255)として変換する。この場合、物体認識装置316は、下限値より短い距離を階調の最大値(この場合、「255」)とし、上限値より長い距離を階調の最小値(この場合「0」)とする。これにより、画像生成部316Bは、電磁波を反射した物標までの距離が青の濃淡によって示され、且つ車両Mから近い物標ほど鮮明な青となるように、ライダー画像IMLを変換する。また、画像生成部316Bは、データセットに含まれる反射波の強度に基づいて、上限値から下限値までの反射波の強度を、所定の階調から0として変換する。この場合、画像生成部316Bは、下限値より低い強度を階調の最小値(この場合「0」)とし、上限値より高い強度を階調の最大値(この場合「255」)とする。これにより、画像生成部316Bは、電磁波を反射した物標の反射率が緑の濃淡によって示され、且つ反射の強度が高い物標ほど鮮明な緑となるように、ライダー画像IMLを変換する。 FIG. 7 is a diagram showing an example of a rider image IML. For example, the image generation unit 316B shows the distance to the target reflecting the electromagnetic wave as the blue pixel value (gradation) of the pixel P, and the intensity of the reflected wave as the green pixel value (gradation) of the pixel P. To convert the rider image IML. In FIG. 7, the blue region is indicated by the dot region and the green region is indicated by the shaded region. First, the image generation unit 316B sets the distance from the upper limit value to the lower limit value from 0 to a predetermined gradation (for example, 0 to 255) based on the distance to the target reflecting the electromagnetic wave included in the data set. Convert. In this case, the object recognition device 316 sets a distance shorter than the lower limit value as the maximum value of gradation (“255” in this case) and a distance longer than the upper limit value as the minimum value of gradation (“0” in this case). .. As a result, the image generation unit 316B converts the rider image IML so that the distance to the target that reflects the electromagnetic wave is indicated by the shade of blue, and the target closer to the vehicle M becomes clearer blue. Further, the image generation unit 316B converts the intensity of the reflected wave from the upper limit value to the lower limit value from a predetermined gradation to 0 based on the intensity of the reflected wave included in the data set. In this case, the image generation unit 316B sets the intensity lower than the lower limit value as the minimum value of the gradation (“0” in this case) and the intensity higher than the upper limit value as the maximum value of the gradation (“255” in this case). As a result, the image generation unit 316B converts the rider image IML so that the reflectance of the target that reflects the electromagnetic wave is indicated by the shade of green, and the higher the reflection intensity of the target, the clearer the green.

なお、電磁波を反射した物標までの距離、及び物標が反射した反射波の強度にそれぞれ対応付けられる色の態様は、一例であってこれに限られず、他の色が対応付けられていてもよい。また、ライダー画像IMLは、電磁波を反射した物標までの距離、又は物標が反射した反射波の強度の一方を示す画像であってもよい。 The color mode associated with the distance to the target reflecting the electromagnetic wave and the intensity of the reflected wave reflected by the target is not limited to this as an example, and other colors are associated with each other. May be good. Further, the rider image IML may be an image showing either the distance to the target that reflected the electromagnetic wave or the intensity of the reflected wave reflected by the target.

図1に戻り、通信装置320は、例えば、車両Mの周辺に存在する他車両と通信したり、無線基地局を介して各種サーバ装置と通信したりする。HMI330は、車両Mの乗員に対して各種情報を提示すると共に、乗員による入力操作を受け付ける。HMI30は、各種表示装置、スピーカ、ブザー、タッチパネル、スイッチ、キーなどを含む。車両センサ340は、車両Mの速度を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、車両Mの向きを検出する方位センサ等を含む。 Returning to FIG. 1, the communication device 320 communicates with other vehicles existing in the vicinity of the vehicle M, or communicates with various server devices via a radio base station, for example. The HMI 330 presents various information to the occupant of the vehicle M and accepts input operations by the occupant. The HMI 30 includes various display devices, speakers, buzzers, touch panels, switches, keys and the like. The vehicle sensor 340 includes a vehicle speed sensor that detects the speed of the vehicle M, an acceleration sensor that detects the acceleration, a yaw rate sensor that detects the angular velocity around the vertical axis, an orientation sensor that detects the direction of the vehicle M, and the like.

ナビゲーション装置350は、例えば、GNSS(Global Navigation Satellite System)受信機351と、ナビHMI352と、経路決定部353とを備える。ナビゲーション装置350は、HDDやフラッシュメモリなどの記憶装置に第1地図情報354を保持している。GNSS受信機351は、GNSS衛星から受信した信号に基づいて、車両Mの位置を特定する。車両Mの位置は、車両センサ340の出力を利用したINS(Inertial Navigation System)によって特定または補完されてもよい。ナビHMI352は、表示装置、スピーカ、タッチパネル、キーなどを含む。経路決定部353は、例えば、GNSS受信機351により特定された車両Mの位置(或いは入力された任意の位置)から、ナビHMI352を用いて乗員により入力された目的地までの経路(以下、地図上経路)を、第1地図情報354を参照して決定する。地図上経路は、MPU360に出力される。ナビゲーション装置350は、地図上経路に基づいて、ナビHMI352を用いた経路案内を行ってもよい。ナビゲーション装置350は、例えば、乗員の保有するスマートフォンやタブレット端末等の端末装置の機能によって実現されてもよい。ナビゲーション装置350は、通信装置320を介してナビゲーションサーバに現在位置と目的地を送信し、ナビゲーションサーバから地図上経路と同等の経路を取得してもよい。 The navigation device 350 includes, for example, a GNSS (Global Navigation Satellite System) receiver 351, a navigation HMI 352, and a routing unit 353. The navigation device 350 holds the first map information 354 in a storage device such as an HDD or a flash memory. The GNSS receiver 351 identifies the position of the vehicle M based on the signal received from the GNSS satellite. The position of the vehicle M may be specified or complemented by an INS (Inertial Navigation System) using the output of the vehicle sensor 340. The navigation HMI352 includes a display device, a speaker, a touch panel, keys, and the like. The route determination unit 353 uses, for example, a route from the position of the vehicle M specified by the GNSS receiver 351 (or an arbitrary position input) to the destination input by the occupant using the navigation HMI352 (hereinafter, a map). The upper route) is determined with reference to the first map information 354. The route on the map is output to MPU360. The navigation device 350 may provide route guidance using the navigation HMI352 based on the route on the map. The navigation device 350 may be realized by, for example, the function of a terminal device such as a smartphone or a tablet terminal owned by an occupant. The navigation device 350 may transmit the current position and the destination to the navigation server via the communication device 320, and may acquire a route equivalent to the route on the map from the navigation server.

MPU360は、例えば、推奨車線決定部361を含み、HDDやフラッシュメモリなどの記憶装置に第2地図情報362を保持している。推奨車線決定部361は、ナビゲーション装置350から提供された地図上経路を複数のブロックに分割し(例えば、車両M進行方向に関して100[m]毎に分割し)、第2地図情報362を参照してブロックごとに推奨車線を決定する。推奨車線決定部361は、地図上経路に分岐箇所が存在する場合、車両Mが、分岐先に進行するための合理的な経路を走行できるように、推奨車線を決定する。第2地図情報362は、第1地図情報354よりも高精度な地図情報である。 The MPU 360 includes, for example, a recommended lane determination unit 361, and holds the second map information 362 in a storage device such as an HDD or a flash memory. The recommended lane determination unit 361 divides the route on the map provided by the navigation device 350 into a plurality of blocks (for example, divides the route into 100 [m] units with respect to the vehicle M traveling direction), and refers to the second map information 362. Determine the recommended lane for each block. When a branch point exists on the route on the map, the recommended lane determination unit 361 determines the recommended lane so that the vehicle M can travel on a reasonable route to proceed to the branch destination. The second map information 362 is map information with higher accuracy than the first map information 354.

運転操作子380は、例えば、アクセルペダル、ブレーキペダル、シフトレバー、ステアリングホイール、異形ステア、ジョイスティックその他の操作子を含む。運転操作子380には、操作量あるいは操作の有無を検出するセンサが取り付けられており、その検出結果は、自動運転制御装置400、もしくは、走行駆動力出力装置500、ブレーキ装置510、およびステアリング装置520のうち一部または全部に出力される。 The driver control 380 includes, for example, an accelerator pedal, a brake pedal, a shift lever, a steering wheel, a deformed steering wheel, a joystick and other controls. A sensor for detecting the amount of operation or the presence or absence of operation is attached to the operation operator 380, and the detection result is the automatic operation control device 400, or the traveling driving force output device 500, the brake device 510, and the steering device. It is output to a part or all of 520.

自動運転制御装置400は、例えば、第1制御部420と、第2制御部460と、記憶部470とを備える。第1制御部420と第2制御部460は、それぞれ、例えば、CPUなどのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPUなどのハードウェア(回路部を含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予め記憶部470等のHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD−ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体(非一過性の記憶媒体)がドライブ装置に装着されることで自動運転制御装置400のHDDやフラッシュメモリにインストールされてもよい。記憶部470には、プログラムのほか、第1学習済みモデル472、及び第2学習済みモデル474が記憶される。第1学習済みモデル472、及び第2学習済みモデル474の詳細については、後述する。 The automatic operation control device 400 includes, for example, a first control unit 420, a second control unit 460, and a storage unit 470. The first control unit 420 and the second control unit 460 are realized by, for example, a hardware processor such as a CPU executing a program (software), respectively. Some or all of these components may be realized by hardware (including circuit parts) such as LSI, ASIC, FPGA, GPU, or may be realized by collaboration between software and hardware. .. The program may be stored in advance in a storage device such as an HDD such as a storage unit 470 or a flash memory (a storage device including a non-transient storage medium), or a removable storage such as a DVD or a CD-ROM. It is stored in a medium, and may be installed in the HDD or flash memory of the automatic operation control device 400 by mounting the storage medium (non-transient storage medium) in the drive device. In addition to the program, the storage unit 470 stores the first trained model 472 and the second trained model 474. Details of the first trained model 472 and the second trained model 474 will be described later.

第1制御部420は、例えば、認識部430と、行動計画生成部440とを備える。第1制御部420は、例えば、AI(Artificial Intelligence;人工知能)による機能と、予め与えられたモデルによる機能とを並行して実現する。例えば、「交差点を認識する」機能は、ディープラーニング等による交差点の認識と、予め与えられた条件(パターンマッチング可能な信号、道路標示などがある)に基づく認識とが並行して実行され、双方に対してスコア付けして総合的に評価することで実現されてよい。これによって、自動運転の信頼性が担保される。 The first control unit 420 includes, for example, a recognition unit 430 and an action plan generation unit 440. The first control unit 420, for example, realizes a function by AI (Artificial Intelligence) and a function by a model given in advance in parallel. For example, the function of "recognizing an intersection" is executed in parallel with the recognition of an intersection by deep learning or the like and the recognition based on predetermined conditions (there are signals that can be pattern matched, road markings, etc.), and both are executed. It may be realized by scoring and comprehensively evaluating. This ensures the reliability of autonomous driving.

認識部430は、カメラ310、レーダ装置312、およびライダー314から物体認識装置316を介して入力された情報に基づいて、車両Mの周辺にある物体の位置、および速度、加速度等の状態を認識する。物体の位置は、例えば、車両Mの代表点(重心や駆動軸中心など)を原点とした絶対座標上の位置として認識され、制御に使用される。物体の位置は、その物体の重心やコーナー等の代表点で表されてもよいし、表現された領域で表されてもよい。物体の「状態」とは、物体の加速度やジャーク、あるいは「行動状態」(例えば車線変更をしている、またはしようとしているか否か)を含んでもよい。 The recognition unit 430 recognizes the position, speed, acceleration, and other states of objects around the vehicle M based on the information input from the camera 310, the radar device 312, and the rider 314 via the object recognition device 316. To do. The position of the object is recognized as, for example, a position on absolute coordinates with the representative point of the vehicle M (center of gravity, center of drive axis, etc.) as the origin, and is used for control. The position of the object may be represented by a representative point such as the center of gravity or a corner of the object, or may be represented by a represented area. The "state" of an object may include acceleration or jerk of the object, or "behavioral state" (eg, whether or not the vehicle is changing lanes or is about to change lanes).

また、認識部430は、例えば、車両Mが走行している車線(走行車線)を認識する。例えば、認識部430は、第2地図情報362から得られる道路区画線のパターン(例えば実線と破線の配列)と、カメラ310によって生成されたカメラ画像IMCから認識される車両Mの周辺の道路区画線のパターンとを比較することで、走行車線を認識する。なお、認識部430は、道路区画線に限らず、道路区画線や路肩、縁石、中央分離帯、ガードレールなどを含む走路境界(道路境界)を認識することで、走行車線を認識してもよい。この認識において、ナビゲーション装置350から取得される車両Mの位置やINSによる処理結果が加味されてもよい。また、認識部430は、一時停止線、障害物、赤信号、料金所、その他の道路事象を認識する。 Further, the recognition unit 430 recognizes, for example, the lane (traveling lane) in which the vehicle M is traveling. For example, the recognition unit 430 has a road division line pattern (for example, an arrangement of a solid line and a broken line) obtained from the second map information 362 and a road division around the vehicle M recognized from the camera image IMC generated by the camera 310. By comparing with the line pattern, the traveling lane is recognized. The recognition unit 430 may recognize the traveling lane by recognizing not only the road marking line but also the running road boundary (road boundary) including the road marking line, the shoulder, the curb, the median strip, the guardrail, and the like. .. In this recognition, the position of the vehicle M acquired from the navigation device 350 and the processing result by the INS may be added. The recognition unit 430 also recognizes pause lines, obstacles, red lights, tollhouses, and other road events.

認識部430は、走行車線を認識する際に、走行車線に対する車両Mの位置や姿勢を認識する。認識部430は、例えば、車両Mの基準点の車線中央からの乖離、および車両Mの進行方向の車線中央を連ねた線に対してなす角度を、走行車線に対する車両Mの相対位置および姿勢として認識してもよい。これに代えて、認識部430は、走行車線のいずれかの側端部(道路区画線または道路境界)に対する車両Mの基準点の位置などを、走行車線に対する車両Mの相対位置として認識してもよい。 When recognizing the traveling lane, the recognition unit 430 recognizes the position and posture of the vehicle M with respect to the traveling lane. For example, the recognition unit 430 sets the deviation of the reference point of the vehicle M from the center of the lane and the angle formed by the center of the lane in the traveling direction of the vehicle M as the relative position and attitude of the vehicle M with respect to the traveling lane. You may recognize it. Instead, the recognition unit 430 recognizes the position of the reference point of the vehicle M with respect to any side end portion (road division line or road boundary) of the traveling lane as the relative position of the vehicle M with respect to the traveling lane. May be good.

なお、認識部430は、カメラ画像IMCやライダー画像IMLと、学習済みモデルとを用いて、車両Mの周辺にある物体の位置、および速度、加速度等の状態や、車両Mが走行している車線(走行車線)を認識してもよい。図8は、認識部430の認識処理の説明に用いられる図である。認識部430は、物体認識装置316から取得したカメラ画像IMCを、第1学習済みモデル472に入力し、車両Mの周辺にある物体の位置、および速度、加速度等の状態や、車両Mが走行している車線(走行車線)を示す第1結果を取得する。また、認識部430は、物体認識装置316から取得したライダー画像IMLを、第2学習済みモデル474に入力し、車両Mの周辺にある物体の位置、および速度、加速度等の状態や、車両Mが走行している車線(走行車線)を示す第2結果を取得する。 The recognition unit 430 uses the camera image IMC, the rider image IML, and the trained model to determine the position, speed, acceleration, and other states of objects around the vehicle M, and the vehicle M is traveling. The lane (driving lane) may be recognized. FIG. 8 is a diagram used for explaining the recognition process of the recognition unit 430. The recognition unit 430 inputs the camera image IMC acquired from the object recognition device 316 into the first trained model 472, and sets the position, speed, acceleration, and the like of the object around the vehicle M, and the vehicle M travels. Acquire the first result indicating the lane in which the vehicle is driving (driving lane). Further, the recognition unit 430 inputs the rider image IML acquired from the object recognition device 316 into the second trained model 474, and sets the position, speed, acceleration, and the like of the object around the vehicle M, and the vehicle M. Acquires the second result indicating the lane in which the vehicle is traveling (traveling lane).

第1学習済みモデル472は、例えば、これまでに取得されたカメラ画像IMCに対して、当該カメラ画像IMCに示される他車両や道路標示等がタグ付けられた(アノテーションされた)教師データを用いて機械学習された学習済みモデルである。また、第2学習済みモデル474は、例えば、第1学習済みモデル472、又は第1学習済みモデル472の学習段階のモデルを、これまでに取得されたライダー画像IMLに対して、当該ライダー画像IMLに示される他車両や道路標示等がタグ付けられた(アノテーションされた)教師データを用いて更に機械学習した学習済みモデルである。第2学習済みモデル474は、例えば、「学習済み画像認識モデル」の一例であり、カメラ画像IMCは、「移動体の周辺画像」の一例である。 The first trained model 472 uses, for example, teacher data in which other vehicles and road markings shown in the camera image IMC are tagged (annotated) with respect to the camera image IMC acquired so far. It is a trained model that has been machine-learned. Further, the second trained model 474 is, for example, a model of the learning stage of the first trained model 472 or the first trained model 472 with respect to the rider image IML acquired so far. This is a trained model further machine-learned using teacher data tagged (annotated) with other vehicles and road markings shown in. The second trained model 474 is, for example, an example of a “trained image recognition model”, and the camera image IMC is an example of a “peripheral image of a moving body”.

なお、第2学習済みモデル474は、ライダー画像IMLに対して、当該ライダー画像IMLに示される物標および物標までの距離等がタグ付けられた(アノテーションされた)教師データを用いて機械学習した学習済みモデルであってもよい。この場合、認識部430は、第2学習済みモデル474にライダー画像IMLを入力し、第2結果を取得することにより、物標を認識する。 The second trained model 474 is machine-learned using the teacher data tagged (annotated) with the target and the distance to the target shown in the rider image IML with respect to the rider image IML. It may be a trained model. In this case, the recognition unit 430 recognizes the target by inputting the rider image IML into the second trained model 474 and acquiring the second result.

以下、認識部430は、第1結果と、第2結果とをセンサフュージョン処理し、車両Mの周辺にある物体の位置、および速度、加速度等の状態や、車両Mが走行している車線(走行車線)を認識ものとする。認識部430が、ライダー画像IMLを第2学習済みモデル474に入力して第2結果を取得することは、「二次元画像に対し画像認識処理を行う」ことの一例である。 Hereinafter, the recognition unit 430 performs sensor fusion processing on the first result and the second result, and determines the position of an object around the vehicle M, the state of speed, acceleration, etc., and the lane in which the vehicle M is traveling ( The driving lane) shall be recognized. The recognition unit 430 inputting the rider image IML into the second trained model 474 and acquiring the second result is an example of "performing an image recognition process on a two-dimensional image".

なお、認識部430は、カメラ310の検出結果や、ライダー314の検出結果の状態に応じて、第1結果、又は第2結果の一方を用いて認識処理を行ってもよい。例えば、認識部430は、車両Mが存在する位置の天候によってカメラ310が車両Mの周囲を適切に撮像できない場合には、第2結果のみを用いて、又は第1結果よりも第2結果を重視して(重み付けして)認識処理を行ってもよい。また、認識部430は、車両Mの周囲に電磁波の反射率の高い物標が存在し、ライダー314が反射波を適切に検出できない場合には、第1結果のみを用いて、又は第2結果よりも第1結果を重視して(重み付けして)認識処理を行ってもよい。 The recognition unit 430 may perform the recognition process using either the first result or the second result depending on the state of the detection result of the camera 310 and the detection result of the rider 314. For example, when the camera 310 cannot properly image the surroundings of the vehicle M due to the weather at the position where the vehicle M exists, the recognition unit 430 uses only the second result or obtains the second result rather than the first result. The recognition process may be performed with emphasis (weighting). Further, when the recognition unit 430 has a target having a high reflectance of electromagnetic waves around the vehicle M and the rider 314 cannot appropriately detect the reflected wave, the recognition unit 430 uses only the first result or the second result. The recognition process may be performed with more emphasis (weighting) on the first result than.

図1に戻り、行動計画生成部440は、原則的には推奨車線決定部361により決定された推奨車線を走行し、更に、認識部430の認識結果に基づいて車両Mの周辺状況に対応できるように、車両Mが自動的に(運転者の操作に依らずに)将来走行する目標軌道を生成する。目標軌道は、例えば、速度要素を含んでいる。例えば、目標軌道は、車両Mの到達すべき地点(軌道点)を順に並べたものとして表現される。軌道点は、道なり距離で所定の走行距離(例えば数[m]程度)ごとの車両Mの到達すべき地点であり、それとは別に、所定のサンプリング時間(例えば0コンマ数[sec]程度)ごとの目標速度および目標加速度が、目標軌道の一部として生成される。また、軌道点は、所定のサンプリング時間ごとの、そのサンプリング時刻における車両Mの到達すべき位置であってもよい。この場合、目標速度や目標加速度の情報は軌道点の間隔で表現される。 Returning to FIG. 1, the action plan generation unit 440 can, in principle, drive in the recommended lane determined by the recommended lane determination unit 361, and can respond to the surrounding conditions of the vehicle M based on the recognition result of the recognition unit 430. As such, the vehicle M automatically generates a target track for future travel (independent of the driver's operation). The target trajectory includes, for example, a velocity element. For example, the target track is expressed as a sequence of points (track points) to be reached by the vehicle M. The track point is a point to be reached by the vehicle M for each predetermined mileage (for example, about several [m]) along the road, and separately, a predetermined sampling time (for example, about 0 comma [sec]). A target velocity and a target acceleration for each are generated as part of the target trajectory. Further, the track point may be a position to be reached by the vehicle M at the sampling time for each predetermined sampling time. In this case, the information of the target velocity and the target acceleration is expressed by the interval of the orbital points.

行動計画生成部440は、目標軌道を生成するにあたり、自動運転のイベントを設定してよい。自動運転のイベントには、定速走行イベント、低速追従走行イベント、車線変更イベント、分岐イベント、合流イベント、テイクオーバーイベントなどがある。行動計画生成部440は、起動させたイベントに応じた目標軌道を生成する。 The action plan generation unit 440 may set an event for automatic driving when generating a target trajectory. Autonomous driving events include constant speed driving events, low speed following driving events, lane change events, branching events, merging events, takeover events, and the like. The action plan generation unit 440 generates a target trajectory according to the activated event.

第2制御部460は、行動計画生成部440によって生成された目標軌道を、予定の時刻通りに車両Mが通過するように、走行駆動力出力装置500、ブレーキ装置510、およびステアリング装置520を制御する。 The second control unit 460 controls the traveling driving force output device 500, the brake device 510, and the steering device 520 so that the vehicle M passes the target trajectory generated by the action plan generation unit 440 at the scheduled time. To do.

[動作フロー]
図9は、物体認識装置316の処理の流れの一例を示すフローチャートである。まず、取得部316Aは、カメラ310からカメラ画像IMCを取得し、レーダ装置312から検出結果を取得し、ライダー314からデータセットを取得する(ステップS100)。画像生成部316Bは、取得部316Aによって取得されたデータセットに基づいて、データセットをライダー画像IMLに変換する(ステップS102)。出力部316Cは、取得部316Aによって取得された各種データと、ライダー画像IMLとを自動運転制御装置400に出力する(ステップS104)。
[Operation flow]
FIG. 9 is a flowchart showing an example of the processing flow of the object recognition device 316. First, the acquisition unit 316A acquires the camera image IMC from the camera 310, acquires the detection result from the radar device 312, and acquires the data set from the rider 314 (step S100). The image generation unit 316B converts the data set into a rider image IML based on the data set acquired by the acquisition unit 316A (step S102). The output unit 316C outputs various data acquired by the acquisition unit 316A and the rider image IML to the automatic operation control device 400 (step S104).

図10は、第1制御部420、及び第2制御部460の処理の流れの一例を示すフローチャートである。まず、認識部430は、物体認識装置316から取得したカメラ画像IMCを第1学習済みモデル472に入力し、第1結果を取得する(ステップS200)。次に、認識部430は、物体認識装置316から取得したライダー画像IMLを第2学習済みモデル474に入力し、第2結果を取得する(ステップS202)。次に、認識部430は、第1結果と、第2結果とをセンサフュージョン処理し、車両Mの周辺にある物体の位置、および速度、加速度等の状態や、車両Mが走行している車線(走行車線)を認識する(ステップS204)。次に、行動計画生成部440は、原則的には推奨車線決定部361により決定された推奨車線を走行し、更に、認識部430の認識結果に基づいて車両Mの周辺状況に対応できるように、車両Mが自動的に(運転者の操作に依らずに)将来走行する目標軌道を生成する(ステップS206)。次に、第2制御部460は、行動計画生成部440によって生成された目標軌道を、予定の時刻通りに車両Mが通過するように、駆動系の機器(つまり、走行駆動力出力装置500、ブレーキ装置510、およびステアリング装置520)を制御する(ステップS208)。 FIG. 10 is a flowchart showing an example of the processing flow of the first control unit 420 and the second control unit 460. First, the recognition unit 430 inputs the camera image IMC acquired from the object recognition device 316 into the first trained model 472 and acquires the first result (step S200). Next, the recognition unit 430 inputs the rider image IML acquired from the object recognition device 316 into the second trained model 474, and acquires the second result (step S202). Next, the recognition unit 430 performs sensor fusion processing on the first result and the second result, and determines the position, speed, acceleration, and other states of objects around the vehicle M, and the lane in which the vehicle M is traveling. Recognize (traveling lane) (step S204). Next, the action plan generation unit 440, in principle, travels in the recommended lane determined by the recommended lane determination unit 361, and further, can respond to the surrounding situation of the vehicle M based on the recognition result of the recognition unit 430. , The vehicle M automatically generates a target track to be driven in the future (independent of the driver's operation) (step S206). Next, the second control unit 460 uses the drive system device (that is, the traveling driving force output device 500, so that the vehicle M passes the target trajectory generated by the action plan generation unit 440 at the scheduled time. The brake device 510 and the steering device 520) are controlled (step S208).

[実施形態のまとめ]
以上説明したように、本実施形態の車両システム1において、物体認識装置316は、検出部(この場合、ライダー314)の検出結果に基づいて、移動体(この場合、車両M)の認識処理に用いられやすいライダー画像IMLを生成することができ、カメラ画像IMCのみを用いる場合に比して精度良く車両Mの周囲の物標を認識することができる。
[Summary of Embodiment]
As described above, in the vehicle system 1 of the present embodiment, the object recognition device 316 performs the recognition process of the moving body (in this case, the vehicle M) based on the detection result of the detection unit (in this case, the rider 314). The rider image IML that is easy to use can be generated, and the target around the vehicle M can be recognized more accurately than when only the camera image IMC is used.

ここで、データセットに示される{レイヤ、アジマス、距離、検出した反射波の強度}等の値に基づいて、車両Mの周囲の物標を認識する処理は、カメラ画像IMCを用いて車両Mの周囲の物標を認識する処理に比して複雑な処理である場合がある。また、カメラ画像IMCを用いて車両Mの周囲の物標を認識する処理は、カメラ画像IMCを用いた機械学習によって学習された学習済みモデル(この場合、第1学習済みモデル472)によって簡便に実行できる場合がある。画像生成部316Bは、カメラ画像IMCの画角に合致するようにライダー画像IMLを生成するため、第1学習済みモデル472、又は第1学習済みモデル472の学習段階のモデルを、ライダー画像IMLを用いて車両Mの周囲の物標を認識する処理に用いられる学習済みモデル(この場合、第2学習済みモデル474)として、或いは第2学習済みモデル474の学習に流用することができる。これにより、本実施形態の車両システム1は、データセット(ライダー画像IML)に基づく認識処理を、第2学習済みモデル474を用いて簡便に行うことができる。また、本実施形態の車両システム1は、第2学習済みモデル474の学習段階に係る処理を、第1学習済みモデル472を流用することにより簡便に行うことができる。 Here, the process of recognizing the target around the vehicle M based on the values such as {layer, azimuth, distance, detected reflected wave intensity} shown in the data set is performed by using the camera image IMC to recognize the vehicle M. It may be a complicated process compared to the process of recognizing the target around. Further, the process of recognizing the target around the vehicle M using the camera image IMC is easily performed by the trained model (in this case, the first trained model 472) learned by machine learning using the camera image IMC. It may be possible to do it. In order to generate the rider image IML so as to match the angle of view of the camera image IMC, the image generation unit 316B uses the first trained model 472 or the learning stage model of the first trained model 472 as the rider image IML. It can be used as a trained model (in this case, the second trained model 474) used for the process of recognizing the target around the vehicle M, or can be diverted to the training of the second trained model 474. Thereby, the vehicle system 1 of the present embodiment can easily perform the recognition process based on the data set (rider image IML) by using the second trained model 474. Further, the vehicle system 1 of the present embodiment can easily perform the processing related to the learning stage of the second trained model 474 by diverting the first trained model 472.

また、本実施形態の行動計画生成部440は、認識部430の認識結果に基づいて、行動計画を生成し、第2制御部460は、行動計画生成部440が生成した行動計画に基づいて車両Mの速度または操舵を制御することができる。これにより、本実施形態の車両システム1は、カメラ画像IMCのみに基づく認識処理に比して、より精度良く車両Mの周辺を認識しつつ、車両Mを制御することができる。 Further, the action plan generation unit 440 of the present embodiment generates an action plan based on the recognition result of the recognition unit 430, and the second control unit 460 uses the vehicle based on the action plan generated by the action plan generation unit 440. The speed or steering of M can be controlled. As a result, the vehicle system 1 of the present embodiment can control the vehicle M while recognizing the periphery of the vehicle M with higher accuracy than the recognition process based only on the camera image IMC.

[物体認識装置316の機能を認識部430が備える構成について]
なお、物体認識装置316は、カメラ310、レーダ装置312、およびライダー314の検出結果をそのまま自動運転制御装置400に出力するものであってもよい。この場合、物体認識装置316において実行される処理は、認識部430が行う。また、物体認識装置316は省略されてもよく、この場合、カメラ310、レーダ装置312、およびライダー314が検出結果をそのまま自動運転制御装置400に出力してもよい。
[About the configuration in which the recognition unit 430 has the functions of the object recognition device 316]
The object recognition device 316 may output the detection results of the camera 310, the radar device 312, and the rider 314 to the automatic driving control device 400 as they are. In this case, the processing executed by the object recognition device 316 is performed by the recognition unit 430. Further, the object recognition device 316 may be omitted. In this case, the camera 310, the radar device 312, and the rider 314 may output the detection result as it is to the automatic driving control device 400.

[ハードウェア構成]
図11は、実施形態の自動運転制御装置400のハードウェア構成の一例を示す図である。図示するように、自動運転制御装置400は、通信コントローラ100−1、CPU100−2、ワーキングメモリとして使用されるRAM(Random Access Memory)100−3、ブートプログラムなどを格納するROM(Read Only Memory)100−4、フラッシュメモリやHDD(Hard Disk Drive)などの記憶装置100−5、ドライブ装置100−6などが、内部バスあるいは専用通信線によって相互に接続された構成となっている。通信コントローラ100−1は、自動運転制御装置400以外の構成要素との通信を行う。記憶装置100−5には、CPU100−2が実行するプログラム100−5aが格納されている。このプログラムは、DMA(Direct Memory Access)コントローラ(不図示)などによってRAM100−3に展開されて、CPU100−2によって実行される。これによって、認識部430、行動計画生成部440、および第2制御部460のうち一部または全部が実現される。
[Hardware configuration]
FIG. 11 is a diagram showing an example of the hardware configuration of the automatic operation control device 400 of the embodiment. As shown in the figure, the automatic operation control device 400 includes a communication controller 100-1, a CPU 100-2, a RAM (Random Access Memory) 100-3 used as a working memory, a ROM (Read Only Memory) for storing a boot program, and the like. The configuration is such that 100-4, a storage device 100-5 such as a flash memory or an HDD (Hard Disk Drive), a drive device 100-6, and the like are connected to each other by an internal bus or a dedicated communication line. The communication controller 100-1 communicates with a component other than the automatic operation control device 400. The storage device 100-5 stores a program 100-5a executed by the CPU 100-2. This program is expanded into RAM 100-3 by a DMA (Direct Memory Access) controller (not shown) or the like, and is executed by CPU 100-2. As a result, a part or all of the recognition unit 430, the action plan generation unit 440, and the second control unit 460 are realized.

上記説明した実施形態は、以下のように表現することができる。
プログラムを記憶した記憶装置と、
ハードウェアプロセッサと、を備え、
前記ハードウェアプロセッサが前記記憶装置に記憶されたプログラムを実行することにより、
上下方向および左右方向に関して前記認識装置を射出中心として異なる角度に電磁波を照射し、
反射波を検出し、
検出結果に基づいて、前記移動体からの水平方向を上下基準として電磁波の照射方向ごとに画素を割り当てた二次元画像を生成する、
ように構成されている、認識装置。
The embodiment described above can be expressed as follows.
A storage device that stores programs and
With a hardware processor,
When the hardware processor executes a program stored in the storage device,
Electromagnetic waves are irradiated at different angles with the recognition device as the emission center in the vertical and horizontal directions.
Detects reflected waves and
Based on the detection result, a two-dimensional image in which pixels are assigned to each electromagnetic wave irradiation direction is generated with the horizontal direction from the moving body as a vertical reference.
A recognition device that is configured to.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 Although the embodiments for carrying out the present invention have been described above using the embodiments, the present invention is not limited to these embodiments, and various modifications and substitutions are made without departing from the gist of the present invention. Can be added.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 Although the embodiments for carrying out the present invention have been described above using the embodiments, the present invention is not limited to these embodiments, and various modifications and substitutions are made without departing from the gist of the present invention. Can be added.

1…車両システム、310…カメラ、312…レーダ装置、314…ライダー、316…物体認識装置、316A…取得部、316B…画像生成部、316C…出力部、320…通信装置、340…車両センサ、350…ナビゲーション装置、351…GNSS受信機、352…ナビHMI、353…経路決定部、354…第1地図情報、361…推奨車線決定部、362…第2地図情報、380…運転操作子、400…自動運転制御装置、420…第1制御部、430…認識部、440…行動計画生成部、460…第2制御部、470…記憶部、472…第1学習済みモデル、474…第2学習済みモデル、500…走行駆動力出力装置、510…ブレーキ装置、520…ステアリング装置、IMC…カメラ画像、IML…ライダー画像、M…車両、θ1…所定範囲、θ2…所定範囲 1 ... Vehicle system, 310 ... Camera, 312 ... Radar device, 314 ... Rider, 316 ... Object recognition device, 316A ... Acquisition unit, 316B ... Image generation unit, 316C ... Output unit, 320 ... Communication device, 340 ... Vehicle sensor, 350 ... Navigation device, 351 ... GNSS receiver, 352 ... Navi HMI, 353 ... Route determination unit, 354 ... First map information, 361 ... Recommended lane determination unit, 362 ... Second map information, 380 ... Driving operator, 400 ... Automatic operation control device, 420 ... First control unit, 430 ... Recognition unit, 440 ... Action plan generation unit, 460 ... Second control unit, 470 ... Storage unit, 472 ... First trained model, 474 ... Second learning Completed model, 500 ... Driving driving force output device, 510 ... Brake device, 520 ... Steering device, IMC ... Camera image, IML ... Rider image, M ... Vehicle, θ1 ... Predetermined range, θ2 ... Predetermined range

Claims (8)

移動体に搭載される認識装置であって、
上下方向および左右方向に関して前記認識装置を射出中心として異なる角度に電磁波を照射し、反射波を検出することで距離を検出する検出部と、
前記検出部の検出結果に基づいて、前記移動体からの水平方向を上下基準として電磁波の照射方向ごとに画素を割り当てた二次元画像を生成する生成部と、
を備える認識装置。
It is a recognition device mounted on a moving body.
A detection unit that detects the distance by irradiating electromagnetic waves at different angles with the recognition device as the emission center in the vertical and horizontal directions and detecting the reflected wave.
Based on the detection result of the detection unit, a generation unit that generates a two-dimensional image in which pixels are assigned to each electromagnetic wave irradiation direction with the horizontal direction from the moving body as a vertical reference.
A recognition device equipped with.
前記検出部は、ライダーである、
請求項1に記載の認識装置。
The detector is a rider.
The recognition device according to claim 1.
前記生成部は、前記ライダーの検出結果から得られる距離および前記反射波の強度を前記画素のデータ要素とした前記二次元画像を生成する、
請求項2に記載の認識装置。
The generation unit generates the two-dimensional image in which the distance obtained from the detection result of the rider and the intensity of the reflected wave are used as data elements of the pixel.
The recognition device according to claim 2.
前記二次元画像に対して画像認識処理を行い、前記二次元画像内の物標を認識する認識部を更に備える、
請求項3に記載の認識装置。
An image recognition process is performed on the two-dimensional image, and a recognition unit that recognizes a target in the two-dimensional image is further provided.
The recognition device according to claim 3.
前記認識部は、前記画像認識処理を、学習済み画像認識モデルを用いて行い、
前記学習済み画像認識モデルは、移動体の周辺画像を用いて機械学習され、前記二次元画像内の物標と、前記物標までの距離を出力する、
請求項4に記載の認識装置。
The recognition unit performs the image recognition process using the trained image recognition model.
The trained image recognition model is machine-learned using a peripheral image of a moving body, and outputs a target in the two-dimensional image and a distance to the target.
The recognition device according to claim 4.
請求項1から5のうちいずれか一項に記載の認識装置と、
前記二次元画像に基づいて前記移動体の制御を行う制御装置と、
を備える制御システム。
The recognition device according to any one of claims 1 to 5.
A control device that controls the moving body based on the two-dimensional image, and
Control system with.
移動体に搭載される認識装置のコンピュータが、
上下方向および左右方向に関して前記認識装置を射出中心として異なる角度に電磁波を照射し、
反射波を検出することで距離を検出し、
検出結果に基づいて、前記移動体からの水平方向を上下基準として電磁波の照射方向ごとに画素を割り当てた二次元画像を生成する、
認識方法。
The computer of the recognition device mounted on the mobile body
Electromagnetic waves are irradiated at different angles with the recognition device as the emission center in the vertical and horizontal directions.
Detect the distance by detecting the reflected wave,
Based on the detection result, a two-dimensional image in which pixels are assigned to each electromagnetic wave irradiation direction is generated with the horizontal direction from the moving body as a vertical reference.
Recognition method.
移動体に搭載される認識装置のコンピュータに、
上下方向および左右方向に関して前記認識装置を射出中心として異なる角度に電磁波を照射させ、
反射波を検出することで距離を検出させ、
検出結果に基づいて、前記移動体からの水平方向を上下基準として電磁波の照射方向ごとに画素を割り当てた二次元画像を生成させる、
プログラム。
To the computer of the recognition device mounted on the mobile body
Electromagnetic waves are irradiated at different angles with the recognition device as the emission center in the vertical and horizontal directions.
The distance is detected by detecting the reflected wave,
Based on the detection result, a two-dimensional image in which pixels are assigned to each electromagnetic wave irradiation direction is generated with the horizontal direction from the moving body as a vertical reference.
program.
JP2019170735A 2019-09-19 2019-09-19 Recognition device, control system, recognition method and program Pending JP2021047120A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019170735A JP2021047120A (en) 2019-09-19 2019-09-19 Recognition device, control system, recognition method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019170735A JP2021047120A (en) 2019-09-19 2019-09-19 Recognition device, control system, recognition method and program

Publications (1)

Publication Number Publication Date
JP2021047120A true JP2021047120A (en) 2021-03-25

Family

ID=74876609

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019170735A Pending JP2021047120A (en) 2019-09-19 2019-09-19 Recognition device, control system, recognition method and program

Country Status (1)

Country Link
JP (1) JP2021047120A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022097426A1 (en) * 2020-11-04 2022-05-12 株式会社日立製作所 Status determination device, status determination system, and status determination method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022097426A1 (en) * 2020-11-04 2022-05-12 株式会社日立製作所 Status determination device, status determination system, and status determination method

Similar Documents

Publication Publication Date Title
CN108572663B (en) Target tracking
JP6663406B2 (en) Vehicle control device, vehicle control method, and program
US20200026282A1 (en) Lane/object detection and tracking perception system for autonomous vehicles
US11548443B2 (en) Display system, display method, and program for indicating a peripheral situation of a vehicle
US11370420B2 (en) Vehicle control device, vehicle control method, and storage medium
CN111094096A (en) Vehicle control device, vehicle control method, and program
US10974722B2 (en) Vehicle control apparatus, vehicle control method, and storage medium
JP2021068016A (en) Vehicle controller, vehicle control method and program
JP6965152B2 (en) Vehicle control devices, vehicle control methods, and programs
JP2020160496A (en) Vehicle control device, vehicle control method, and program
JP2021047120A (en) Recognition device, control system, recognition method and program
JP6839642B2 (en) Vehicle control devices, vehicle control methods, and programs
JP2021064056A (en) Zebra zone recognition device, vehicle control device, zebra zone recognition method, and program
JP2021068014A (en) Vehicle controller, vehicle control method and program
JP7028838B2 (en) Peripheral recognition device, peripheral recognition method, and program
JP7419085B2 (en) Recognition device, recognition system, method, and program
JP7083768B2 (en) Recognition device, vehicle control device, recognition method, and program
JP2019049811A (en) Vehicle control device, vehicle control method, and program
JP2021160399A (en) Vehicle control device, vehicle control method, and program
CN112613335A (en) Identification device, identification method, and storage medium
JP2021050927A (en) Recognition device, vehicle control device, recognition method, and program
JP7503921B2 (en) Vehicle control device, vehicle control method, and program
JP7160730B2 (en) VEHICLE SYSTEM, VEHICLE SYSTEM CONTROL METHOD, AND PROGRAM
US20230234609A1 (en) Control device, control method, and storage medium
JP2019048513A (en) Vehicle control device, vehicle control method, and program