JP2021068423A - Future behavior estimation device, vehicle control device, future behavior estimation method, and program - Google Patents

Future behavior estimation device, vehicle control device, future behavior estimation method, and program Download PDF

Info

Publication number
JP2021068423A
JP2021068423A JP2020141958A JP2020141958A JP2021068423A JP 2021068423 A JP2021068423 A JP 2021068423A JP 2020141958 A JP2020141958 A JP 2020141958A JP 2020141958 A JP2020141958 A JP 2020141958A JP 2021068423 A JP2021068423 A JP 2021068423A
Authority
JP
Japan
Prior art keywords
traffic participants
goal
force
traffic
future behavior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020141958A
Other languages
Japanese (ja)
Other versions
JP7466407B2 (en
Inventor
ジョヴィン ディサ
Dsa Jovin
ジョヴィン ディサ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to US17/068,846 priority Critical patent/US11756418B2/en
Priority to CN202011099712.5A priority patent/CN112686421B/en
Publication of JP2021068423A publication Critical patent/JP2021068423A/en
Application granted granted Critical
Publication of JP7466407B2 publication Critical patent/JP7466407B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)

Abstract

To provide a future behavior estimation device, vehicle control device, future behavior estimation method, and program capable of performing prediction corresponding to an actual traffic scene.SOLUTION: A future behavior estimation device includes: an object position recognition section for recognizing positions of a plurality of traffic participants; a temporary goal determination section for determining temporary goals at which each one of the plurality of traffic participants is to arrive based on a recognition result of the object position recognition section; and a simulation section for simulating movement processes of each one of the plurality of traffic participants toward temporary goals determined by the temporary goal determination section with the use of movement models in order to estimate a future behavior of each one of the plurality of traffic participants.SELECTED DRAWING: Figure 2

Description

本発明は、将来行動推定装置、車両制御装置、将来行動推定方法、およびプログラムに関する。 The present invention relates to a future behavior estimation device, a vehicle control device, a future behavior estimation method, and a program.

従来、道路に存在する歩行者や自転車などの将来の行動(移動)を推定することについいて研究が進められている(例えば、非特許文献1〜5)。 Conventionally, research has been carried out on estimating future behavior (movement) of pedestrians and bicycles existing on the road (for example, Non-Patent Documents 1 to 5).

D. Helbing and P. Molnar, “Social Force Model for Pedestrian Dynamics”, 20 May 1998.D. Helbing and P. Molnar, “Social Force Model for Pedestrian Dynamics”, 20 May 1998. G. Arechavaleta and J. Laumond, “The nonholonomic nature of human locomotion: a modeling study”, February 2001.G. Arechavaleta and J. Laumond, “The nonholonomic nature of human locomotion: a modeling study”, February 2001. K. Mombaur and A. Truong, “From human to humanoid locomotion-An inverse optimal control approach From human to humanoid locomotion - an inverse optimal”,31 December, 2009.K. Mombaur and A. Truong, “From human to humanoid locomotion-An inverse optimal control approach From human to humanoid locomotion --an inverse optimal”, 31 December, 2009. M. Luber, J. A. Stork, G. D. Tipaldi, and K. O. Arras, “People tracking with human motion predictions from social forces,” Proc. - IEEE Int. Conf. Robot. Autom., pp. 464-469, 2010.M. Luber, J. A. Stork, G. D. Tipaldi, and K. O. Arras, “People tracking with human motion predictions from social forces,” Proc. --IEEE Int. Conf. Robot. Autom., Pp. 464-469, 2010. F. Farina, D. Fontanelli, A. Garulli, A. Giannitrapani, and D. Prattichizzo, “When Helbing Meets Laumond: The Headed Social Force Model.” 12-14 December, 2016.F. Farina, D. Fontanelli, A. Garulli, A. Giannitrapani, and D. Prattichizzo, “When Helbing Meets Laumond: The Headed Social Force Model.” 12-14 December, 2016.

非特許文献1に記載の技術は、歩行者のゴール(目的地)などが既知の情報として与えられることを前提として推定を行うものであり、実際の交通場面に即した予測を行うことができない場合があった。 The technique described in Non-Patent Document 1 makes an estimation on the premise that a pedestrian's goal (destination) is given as known information, and cannot make a prediction according to an actual traffic scene. There was a case.

本発明は、このような事情を考慮してなされたものであり、実際の交通場面に即した予測を行うことが可能な将来行動推定装置、車両制御装置、将来行動推定方法、およびプログラムを提供することを目的の一つとする。 The present invention has been made in consideration of such circumstances, and provides a future behavior estimation device, a vehicle control device, a future behavior estimation method, and a program capable of making a prediction according to an actual traffic scene. One of the purposes is to do.

この発明に係る将来行動推定装置、車両制御装置、将来行動推定方法、およびプログラムは、以下の構成を採用した。
(1):この発明の一態様に係る将来行動推定装置は、複数の交通参加者の位置を認識する物体位置認識部と、前記物体位置認識部の認識結果に基づいて、前記複数の交通参加者のそれぞれが将来に到達しようとする仮ゴールを決定する仮ゴール決定部と、前記複数の交通参加者のそれぞれの将来の行動を推定するために、移動モデルを用いて、前記複数の交通参加者のそれぞれが前記仮ゴール決定部により決定された仮ゴールに向かう移動過程をシミュレートするシミュレート部と、を備えるものである。
The future behavior estimation device, the vehicle control device, the future behavior estimation method, and the program according to the present invention have adopted the following configurations.
(1): The future behavior estimation device according to one aspect of the present invention includes an object position recognition unit that recognizes the positions of a plurality of traffic participants, and the plurality of traffic participation based on the recognition results of the object position recognition unit. A tentative goal determination unit that determines a tentative goal for each person to reach the future, and the plurality of traffic participants using a movement model in order to estimate the future behavior of each of the plurality of traffic participants. Each of the persons is provided with a simulation unit that simulates the movement process toward the temporary goal determined by the temporary goal determination unit.

(2):上記(1)の態様において、前記仮ゴール決定部は、前記複数の交通参加者のそれぞれについて、前記物体位置認識部により認識された前記複数の交通参加者の位置の履歴と、道路構造を示す情報とに基づいて、複数の仮ゴール候補を設定し、前記交通参加者が前記複数の仮ゴール候補のそれぞれに向かうシミュレーションを行った結果と、前記交通参加者の姿勢に基づく移動方向との乖離を求め、乖離が最も小さかった仮ゴール候補を、前記仮ゴールとして決定するものである。 (2): In the aspect of the above (1), the provisional goal determination unit includes, for each of the plurality of traffic participants, a history of the positions of the plurality of traffic participants recognized by the object position recognition unit, and a history of the positions of the plurality of traffic participants. A plurality of provisional goal candidates are set based on the information indicating the road structure, the result of simulating the traffic participant toward each of the plurality of provisional goal candidates, and the movement based on the posture of the traffic participant. The tentative goal candidate with the smallest divergence is determined as the tentative goal by seeking the divergence from the direction.

(3):上記(1)または(2)の態様において、前記移動モデルは、前記複数の交通参加者のそれぞれに作用する仮想的な力を反映させて、将来の各ステップにおける前記交通参加者の移動過程をシミュレートするものであり、前記複数の交通参加者の周辺環境に基づいて前記仮想的な力を推定する力推定部を更に備えるものである。 (3): In the aspect of (1) or (2) above, the movement model reflects the virtual force acting on each of the plurality of traffic participants, and the traffic participants in each future step. It simulates the movement process of the vehicle, and further includes a force estimation unit that estimates the virtual force based on the surrounding environment of the plurality of traffic participants.

(4):上記(3)の態様において、前記力推定部は、前記複数の交通参加者のそれぞれに前記仮想的な力を及ぼす影響因子は、それぞれの交通参加者の正面方向を中心とした扇形の範囲に存在する影響因子に限定され、範囲から外れる影響因子は力を及ぼさないものとして、前記仮想的な力を推定するものである。 (4): In the aspect of (3) above, in the force estimation unit, the influencing factor that exerts the virtual force on each of the plurality of traffic participants is centered on the front direction of each traffic participant. It is limited to the influencing factors existing in the fan-shaped range, and the influencing factors outside the range are assumed to exert no force, and the virtual force is estimated.

(5):上記(3)または(4)の態様において、前記力推定部が推定する仮想的な力は、前記交通参加者自身が希望速度で移動しようとして加減速するための力を含み、前記交通参加者の過去の位置の履歴に基づいて前記希望速度を推定する希望速度推定部を更に備えるものである。 (5): In the aspect of (3) or (4) above, the virtual force estimated by the force estimation unit includes a force for the traffic participant himself to accelerate or decelerate in an attempt to move at a desired speed. It further includes a desired speed estimation unit that estimates the desired speed based on the history of the past positions of the traffic participants.

(6):上記(3)から(5)のうちいずれかの態様において、前記力推定部が推定する仮想的な力は、前記交通参加者の間で互いに反発し合う力を含み、前記力推定部は、前記複数の交通参加者のうちグループを形成している交通参加者を推定し、同じグループに属すると推定される交通参加者の間では、前記互いに反発し合う力を、同じグループに属すると推定されない交通参加者の間に比して小さくするものである。 (6): In any one of the above (3) to (5), the virtual force estimated by the force estimation unit includes a force that repels each other among the traffic participants, and the force. The estimation unit estimates the traffic participants forming a group among the plurality of traffic participants, and among the traffic participants presumed to belong to the same group, the repulsive forces against each other are exerted in the same group. It is smaller than among traffic participants who are not presumed to belong to.

(7):本発明の他の態様に係る車両制御装置は、上記(1)から(6)のうちいずれかの態様の将来行動推定装置と、前記将来行動推定装置により推定される前記複数の交通参加者のそれぞれの将来の行動に基づいて、車両の走行制御を行う運転制御部と、を備えるものである。 (7): The vehicle control device according to another aspect of the present invention includes the future behavior estimation device according to any one of (1) to (6) above, and the plurality of vehicle control devices estimated by the future behavior estimation device. It is provided with a driving control unit that controls the running of the vehicle based on the future behavior of each of the traffic participants.

(8):本発明の他の態様に係る将来行動推定方法は、コンピュータを用いて実行される将来行動推定方法であって、複数の交通参加者の位置を認識することと、前記認識の結果に基づいて、前記複数の交通参加者のそれぞれが将来に到達しようとする仮ゴールを決定することと、前記複数の交通参加者のそれぞれの将来の行動を推定するために、移動モデルを用いて、前記複数の交通参加者のそれぞれが前記決定された仮ゴールに向かう移動過程をシミュレートすることと、を備えるものである。 (8): The future behavior estimation method according to another aspect of the present invention is a future behavior estimation method executed by using a computer, and recognizes the positions of a plurality of traffic participants and the result of the recognition. Based on, a movement model is used to determine a tentative goal for each of the plurality of traffic participants to reach in the future and to estimate the future behavior of each of the plurality of traffic participants. , Each of the plurality of traffic participants simulates the movement process toward the determined tentative goal.

(9):本発明の他の態様に係るプログラムは、コンピュータに、複数の交通参加者の位置を認識することと、前記認識の結果に基づいて、前記複数の交通参加者のそれぞれが将来に到達しようとする仮ゴールを決定することと、前記複数の交通参加者のそれぞれの将来の行動を推定するために、移動モデルを用いて、前記複数の交通参加者のそれぞれが前記決定された仮ゴールに向かう移動過程をシミュレートすることと、を実行させるものである。 (9): In the program according to another aspect of the present invention, the computer recognizes the positions of a plurality of traffic participants, and based on the result of the recognition, each of the plurality of traffic participants will be in the future. In order to determine the tentative goal to be reached and to estimate the future behavior of each of the plurality of traffic participants, each of the plurality of traffic participants is said to have been determined tentatively using a movement model. It simulates the process of moving toward the goal and executes it.

(10):本発明の他の態様に係る記憶媒体は、コンピュータに、複数の交通参加者の位置を認識することと、前記認識の結果に基づいて、前記複数の交通参加者のそれぞれが将来に到達しようとする仮ゴールを決定することと、前記複数の交通参加者のそれぞれの将来の行動を推定するために、移動モデルを用いて、前記複数の交通参加者のそれぞれが前記仮ゴール決定部により決定された仮ゴールに向かう移動過程をシミュレートすることと、を実行させるプログラムを記憶した非一時的記憶媒体である。 (10): In the storage medium according to another aspect of the present invention, the computer recognizes the positions of a plurality of traffic participants, and based on the result of the recognition, each of the plurality of traffic participants will be in the future. Each of the plurality of traffic participants determines the tentative goal using a movement model in order to determine the tentative goal to reach and to estimate the future behavior of each of the plurality of traffic participants. It is a non-temporary storage medium that stores a program that simulates the movement process toward a temporary goal determined by the department and executes it.

上記(1)〜(10)の態様によれば、実際の交通場面に即した予測を行うことができる。 According to the above aspects (1) to (10), it is possible to make a prediction according to an actual traffic scene.

実施形態に係る将来行動推定装置および車両制御装置を利用した車両システム1の構成図である。It is a block diagram of the vehicle system 1 using the future behavior estimation device and the vehicle control device which concerns on embodiment. 第1制御部120および第2制御部180の機能構成図である。It is a functional block diagram of the 1st control unit 120 and the 2nd control unit 180. 交通参加者監視部140が認識する自車両Mの周囲の状況を模式的に示す図である。It is a figure which shows typically the situation around the own vehicle M recognized by the traffic participant monitoring unit 140. 仮ゴール選択部142Bによる処理の内容について説明するための図である。It is a figure for demonstrating the content of processing by a tentative goal selection part 142B. 希望速度推定部144による処理について説明するための図である。It is a figure for demonstrating the processing by a desired speed estimation unit 144. ローカルフレームの力を求める処理について説明するための図である。It is a figure for demonstrating the process which obtains the force of a local frame. 自動運転制御装置100により実行される処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the process executed by the automatic operation control device 100. 実施形態の自動運転制御装置100のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware composition of the automatic operation control device 100 of an embodiment.

以下、図面を参照し、本発明の将来行動推定装置、車両制御装置、将来行動推定方法、およびプログラムの実施形態について説明する。 Hereinafter, the future behavior estimation device, the vehicle control device, the future behavior estimation method, and the embodiment of the program of the present invention will be described with reference to the drawings.

[全体構成]
図1は、実施形態に係る将来行動推定装置および車両制御装置を利用した車両システム1の構成図である。車両システム1が搭載される車両は、例えば、二輪や三輪、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジンなどの内燃機関、電動機、或いはこれらの組み合わせである。電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。
[overall structure]
FIG. 1 is a configuration diagram of a vehicle system 1 using a future behavior estimation device and a vehicle control device according to an embodiment. The vehicle on which the vehicle system 1 is mounted is, for example, a vehicle such as two wheels, three wheels, or four wheels, and the drive source thereof is an internal combustion engine such as a diesel engine or a gasoline engine, an electric motor, or a combination thereof. The electric motor operates by using the electric power generated by the generator connected to the internal combustion engine or the electric power generated by the secondary battery or the fuel cell.

車両システム1は、例えば、カメラ10と、レーダ装置12と、LIDAR(Light Detection and Ranging)14と、物体認識装置16と、通信装置20と、HMI(Human Machine Interface)30と、車両センサ40と、ナビゲーション装置50と、MPU(Map Positioning Unit)60と、運転操作子80と、自動運転制御装置100と、走行駆動力出力装置200と、ブレーキ装置210と、ステアリング装置220とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図1に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。 The vehicle system 1 includes, for example, a camera 10, a radar device 12, a LIDAR (Light Detection and Ranging) 14, an object recognition device 16, a communication device 20, an HMI (Human Machine Interface) 30, and a vehicle sensor 40. , A navigation device 50, an MPU (Map Positioning Unit) 60, a driving operator 80, an automatic driving control device 100, a traveling driving force output device 200, a braking device 210, and a steering device 220. These devices and devices are connected to each other by a multiplex communication line such as a CAN (Controller Area Network) communication line, a serial communication line, a wireless communication network, or the like. The configuration shown in FIG. 1 is merely an example, and a part of the configuration may be omitted or another configuration may be added.

カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ10は、車両システム1が搭載される車両(以下、自車両M)の任意の箇所に取り付けられる。前方を撮像する場合、カメラ10は、フロントウインドシールド上部やルームミラー裏面等に取り付けられる。カメラ10は、例えば、周期的に繰り返し自車両Mの周辺を撮像する。カメラ10は、ステレオカメラであってもよい。 The camera 10 is, for example, a digital camera using a solid-state image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). The camera 10 is attached to an arbitrary position of the vehicle on which the vehicle system 1 is mounted (hereinafter, the own vehicle M). When photographing the front, the camera 10 is attached to the upper part of the front windshield, the back surface of the rearview mirror, and the like. The camera 10 periodically and repeatedly images the periphery of the own vehicle M, for example. The camera 10 may be a stereo camera.

レーダ装置12は、自車両Mの周辺にミリ波などの電波を放射すると共に、物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。レーダ装置12は、自車両Mの任意の箇所に取り付けられる。レーダ装置12は、FM−CW(Frequency Modulated Continuous Wave)方式によって物体の位置および速度を検出してもよい。 The radar device 12 radiates radio waves such as millimeter waves around the own vehicle M, and detects radio waves (reflected waves) reflected by the object to detect at least the position (distance and orientation) of the object. The radar device 12 is attached to an arbitrary position of the own vehicle M. The radar device 12 may detect the position and velocity of the object by the FM-CW (Frequency Modulated Continuous Wave) method.

LIDAR14は、自車両Mの周辺に光(或いは光に近い波長の電磁波)を照射し、散乱光を測定する。LIDAR14は、発光から受光までの時間に基づいて、対象までの距離を検出する。照射される光は、例えば、パルス状のレーザー光である。LIDAR14は、自車両Mの任意の箇所に取り付けられる。 The LIDAR 14 irradiates the periphery of the own vehicle M with light (or an electromagnetic wave having a wavelength close to that of light) and measures the scattered light. The LIDAR 14 detects the distance to the target based on the time from light emission to light reception. The emitted light is, for example, a pulsed laser beam. The LIDAR 14 is attached to an arbitrary position on the own vehicle M.

物体認識装置16は、カメラ10、レーダ装置12、およびLIDAR14のうち一部または全部による検出結果に対してセンサフュージョン処理を行って、物体の位置、種類、速度などを認識する。物体認識装置16は、認識結果を自動運転制御装置100に出力する。物体認識装置16は、カメラ10、レーダ装置12、およびLIDAR14の検出結果をそのまま自動運転制御装置100に出力してよい。車両システム1から物体認識装置16が省略されてもよい。 The object recognition device 16 performs sensor fusion processing on the detection results of a part or all of the camera 10, the radar device 12, and the LIDAR 14, and recognizes the position, type, speed, and the like of the object. The object recognition device 16 outputs the recognition result to the automatic operation control device 100. The object recognition device 16 may output the detection results of the camera 10, the radar device 12, and the LIDAR 14 to the automatic driving control device 100 as they are. The object recognition device 16 may be omitted from the vehicle system 1.

通信装置20は、例えば、セルラー網やWi−Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)などを利用して、自車両Mの周辺に存在する他車両と通信し、或いは無線基地局を介して各種サーバ装置と通信する。 The communication device 20 communicates with another vehicle existing in the vicinity of the own vehicle M by using, for example, a cellular network, a Wi-Fi network, Bluetooth (registered trademark), DSRC (Dedicated Short Range Communication), or wirelessly. Communicates with various server devices via the base station.

HMI30は、自車両Mの乗員に対して各種情報を提示すると共に、乗員による入力操作を受け付ける。HMI30は、各種表示装置、スピーカ、ブザー、タッチパネル、スイッチ、キーなどを含む。 The HMI 30 presents various information to the occupants of the own vehicle M and accepts input operations by the occupants. The HMI 30 includes various display devices, speakers, buzzers, touch panels, switches, keys and the like.

車両センサ40は、自車両Mの速度を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、自車両Mの向きを検出する方位センサ等を含む。 The vehicle sensor 40 includes a vehicle speed sensor that detects the speed of the own vehicle M, an acceleration sensor that detects the acceleration, a yaw rate sensor that detects the angular velocity around the vertical axis, an orientation sensor that detects the direction of the own vehicle M, and the like.

ナビゲーション装置50は、例えば、GNSS(Global Navigation Satellite System)受信機51と、ナビHMI52と、経路決定部53とを備える。ナビゲーション装置50は、HDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置に第1地図情報54を保持している。GNSS受信機51は、GNSS衛星から受信した信号に基づいて、自車両Mの位置を特定する。自車両Mの位置は、車両センサ40の出力を利用したINS(Inertial Navigation System)によって特定または補完されてもよい。ナビHMI52は、表示装置、スピーカ、タッチパネル、キーなどを含む。ナビHMI52は、前述したHMI30と一部または全部が共通化されてもよい。経路決定部53は、例えば、GNSS受信機51により特定された自車両Mの位置(或いは入力された任意の位置)から、ナビHMI52を用いて乗員により入力された目的地までの経路(以下、地図上経路)を、第1地図情報54を参照して決定する。第1地図情報54は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。第1地図情報54は、道路の曲率やPOI(Point Of Interest)情報などを含んでもよい。地図上経路は、MPU60に出力される。ナビゲーション装置50は、地図上経路に基づいて、ナビHMI52を用いた経路案内を行ってもよい。ナビゲーション装置50は、例えば、乗員の保有するスマートフォンやタブレット端末等の端末装置の機能によって実現されてもよい。ナビゲーション装置50は、通信装置20を介してナビゲーションサーバに現在位置と目的地を送信し、ナビゲーションサーバから地図上経路と同等の経路を取得してもよい。 The navigation device 50 includes, for example, a GNSS (Global Navigation Satellite System) receiver 51, a navigation HMI 52, and a routing unit 53. The navigation device 50 holds the first map information 54 in a storage device such as an HDD (Hard Disk Drive) or a flash memory. The GNSS receiver 51 identifies the position of the own vehicle M based on the signal received from the GNSS satellite. The position of the own vehicle M may be specified or complemented by an INS (Inertial Navigation System) using the output of the vehicle sensor 40. The navigation HMI 52 includes a display device, a speaker, a touch panel, keys, and the like. The navigation HMI 52 may be partially or wholly shared with the above-mentioned HMI 30. The route determination unit 53, for example, has a route from the position of the own vehicle M (or an arbitrary position input) specified by the GNSS receiver 51 to the destination input by the occupant using the navigation HMI 52 (hereinafter, hereafter). The route on the map) is determined with reference to the first map information 54. The first map information 54 is, for example, information in which a road shape is expressed by a link indicating a road and a node connected by the link. The first map information 54 may include road curvature, POI (Point Of Interest) information, and the like. The route on the map is output to MPU60. The navigation device 50 may provide route guidance using the navigation HMI 52 based on the route on the map. The navigation device 50 may be realized by, for example, the function of a terminal device such as a smartphone or a tablet terminal owned by an occupant. The navigation device 50 may transmit the current position and the destination to the navigation server via the communication device 20 and acquire a route equivalent to the route on the map from the navigation server.

MPU60は、例えば、推奨車線決定部61を含み、HDDやフラッシュメモリなどの記憶装置に第2地図情報62を保持している。推奨車線決定部61は、ナビゲーション装置50から提供された地図上経路を複数のブロックに分割し(例えば、車両進行方向に関して100[m]毎に分割し)、第2地図情報62を参照してブロックごとに推奨車線を決定する。推奨車線決定部61は、左から何番目の車線を走行するといった決定を行う。推奨車線決定部61は、地図上経路に分岐箇所が存在する場合、自車両Mが、分岐先に進行するための合理的な経路を走行できるように、推奨車線を決定する。 The MPU 60 includes, for example, a recommended lane determination unit 61, and holds the second map information 62 in a storage device such as an HDD or a flash memory. The recommended lane determination unit 61 divides the route on the map provided by the navigation device 50 into a plurality of blocks (for example, divides the route every 100 [m] with respect to the vehicle traveling direction), and refers to the second map information 62. Determine the recommended lane for each block. The recommended lane determination unit 61 determines which lane to drive from the left. When a branch point exists on the route on the map, the recommended lane determination unit 61 determines the recommended lane so that the own vehicle M can travel on a reasonable route to proceed to the branch destination.

第2地図情報62は、第1地図情報54よりも高精度な地図情報である。第2地図情報62は、例えば、車線の中央の情報あるいは車線の境界の情報等を含んでいる。また、第2地図情報62には、道路情報、交通規制情報、住所情報(住所・郵便番号)、施設情報、電話番号情報などが含まれてよい。第2地図情報62は、通信装置20が他装置と通信することにより、随時、アップデートされてよい。 The second map information 62 is more accurate map information than the first map information 54. The second map information 62 includes, for example, information on the center of the lane, information on the boundary of the lane, and the like. Further, the second map information 62 may include road information, traffic regulation information, address information (address / zip code), facility information, telephone number information, and the like. The second map information 62 may be updated at any time by the communication device 20 communicating with another device.

運転操作子80は、例えば、アクセルペダル、ブレーキペダル、シフトレバー、ステアリングホイール、異形ステア、ジョイスティックその他の操作子を含む。運転操作子80には、操作量あるいは操作の有無を検出するセンサが取り付けられており、その検出結果は、自動運転制御装置100、もしくは、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220のうち一部または全部に出力される。 The driving controller 80 includes, for example, an accelerator pedal, a brake pedal, a shift lever, a steering wheel, a deformed steering wheel, a joystick, and other controls. A sensor for detecting the amount of operation or the presence or absence of operation is attached to the operation operator 80, and the detection result is the automatic operation control device 100, or the traveling driving force output device 200, the brake device 210, and the steering device. It is output to a part or all of 220.

自動運転制御装置100は、例えば、第1制御部120と、第2制御部180とを備える。第1制御部120と第2制御部180は、それぞれ、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予め自動運転制御装置100のHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD−ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体(非一過性の記憶媒体)がドライブ装置に装置に装着されることで自動運転制御装置100のHDDやフラッシュメモリにインストールされてもよい。 The automatic operation control device 100 includes, for example, a first control unit 120 and a second control unit 180. The first control unit 120 and the second control unit 180 are each realized by executing a program (software) by a hardware processor such as a CPU (Central Processing Unit). In addition, some or all of these components are hardware (circuits) such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), and GPU (Graphics Processing Unit). It may be realized by the part; including circuitry), or it may be realized by the cooperation of software and hardware. The program may be stored in advance in a storage device (a storage device including a non-transient storage medium) such as an HDD or a flash memory of the automatic operation control device 100, or is removable such as a DVD or a CD-ROM. It is stored in a storage medium, and the storage medium (non-transient storage medium) may be installed in the HDD or flash memory of the automatic operation control device 100 by being attached to the device in the drive device.

図2は、第1制御部120および第2制御部180の機能構成図である。第1制御部120は、例えば、認識部130と、行動計画生成部160とを備える。第1制御部120は、例えば、AI(Artificial Intelligence;人工知能)による機能と、予め与えられたモデルによる機能とを並行して実現する。例えば、「交差点を認識する」機能は、ディープラーニング等による交差点の認識と、予め与えられた条件(パターンマッチング可能な信号、道路標示などがある)に基づく認識とが並行して実行され、双方に対してスコア付けして総合的に評価することで実現されてよい。これによって、自動運転の信頼性が担保される。行動計画生成部160と第2制御部180とを合わせたものが、「運転制御部」の一例である。 FIG. 2 is a functional configuration diagram of the first control unit 120 and the second control unit 180. The first control unit 120 includes, for example, a recognition unit 130 and an action plan generation unit 160. The first control unit 120, for example, realizes a function by AI (Artificial Intelligence) and a function by a model given in advance in parallel. For example, the function of "recognizing an intersection" is executed in parallel with the recognition of an intersection by deep learning or the like and the recognition based on predetermined conditions (there are signals that can be pattern matched, road markings, etc.), and both are executed. It may be realized by scoring and comprehensively evaluating. This ensures the reliability of autonomous driving. A combination of the action plan generation unit 160 and the second control unit 180 is an example of the “operation control unit”.

認識部130は、例えば、自車位置認識部132と、物体位置認識部134と、交通参加者監視部140とを備える。物体位置認識部134と交通参加者監視部140とを合わせたものが、「将来行動推定装置」の一例である。 The recognition unit 130 includes, for example, a vehicle position recognition unit 132, an object position recognition unit 134, and a traffic participant monitoring unit 140. A combination of the object position recognition unit 134 and the traffic participant monitoring unit 140 is an example of the "future behavior estimation device".

自車位置認識部132は、カメラ10、レーダ装置12、およびLIDAR14から物体認識装置16を介して入力された情報に基づいて、自車両Mが走行している車線(走行車線)と、走行車線に対する自車両Mの位置とを認識する。例えば、自車位置認識部132は、第2地図情報62から得られる道路区画線のパターン(例えば実線と破線の配列)と、カメラ10によって撮像された画像から認識される自車両Mの周辺の道路区画線のパターンとを比較することで、走行車線を認識する。なお、自車位置認識部132は、道路区画線に限らず、道路区画線や路肩、縁石、中央分離帯、ガードレールなどを含む走路境界(道路境界)を認識することで、走行車線を認識してもよい。この認識において、ナビゲーション装置50から取得される自車両Mの位置やINSによる処理結果が加味されてもよい。 The own vehicle position recognition unit 132 has a lane (traveling lane) in which the own vehicle M is traveling and a traveling lane based on the information input from the camera 10, the radar device 12, and the LIDAR 14 via the object recognition device 16. Recognizes the position of the own vehicle M with respect to. For example, the own vehicle position recognition unit 132 around the own vehicle M recognized from the pattern of the road marking line (for example, the arrangement of the solid line and the broken line) obtained from the second map information 62 and the image captured by the camera 10. The driving lane is recognized by comparing with the pattern of the road marking line. The own vehicle position recognition unit 132 recognizes the traveling lane by recognizing not only the road lane marking but also the lane marking (road boundary) including the road lane marking, the shoulder, the curb, the median strip, the guardrail, and the like. You may. In this recognition, the position of the own vehicle M acquired from the navigation device 50 and the processing result by the INS may be added.

自車位置認識部132は、走行車線に対する自車両Mの位置や姿勢を認識する。自車位置認識部132は、例えば、自車両Mの基準点(例えば重心や後輪軸中心など)の走行車線の中央部からの乖離、および自車両Mの進行方向が、走行車線の中央部を連ねた線に対してなす角度を、走行車線に対する自車両Mの相対位置および姿勢として認識してもよい。これに代えて、自車位置認識部132は、走行車線のいずれかの側端部(道路区画線または道路境界)に対する自車両Mの基準点の位置などを、走行車線に対する自車両Mの相対位置として認識してもよい。 The own vehicle position recognition unit 132 recognizes the position and posture of the own vehicle M with respect to the traveling lane. In the own vehicle position recognition unit 132, for example, the deviation of the reference point of the own vehicle M (for example, the center of gravity and the center of the rear wheel axis) from the central portion of the traveling lane, and the traveling direction of the own vehicle M are such that the central portion of the traveling lane is determined. The angle formed with respect to the connected lanes may be recognized as the relative position and orientation of the own vehicle M with respect to the traveling lane. Instead, the own vehicle position recognition unit 132 sets the position of the reference point of the own vehicle M with respect to any side end portion (road lane marking line or road boundary) of the traveling lane, and the like relative to the traveling lane. It may be recognized as a position.

物体位置認識部134は、カメラ10、レーダ装置12、およびLIDAR14から物体認識装置16を介して入力された情報に基づいて、カルマンフィルタなどの処理を行うことで、自車両Mの周辺にある物体の位置、種類、速度、加速度等を認識する。物体の位置は、例えば、自車両Mの代表点(重心や駆動軸中心など)を原点とした絶対座標上の位置として認識され、制御に使用される。物体の位置は、その物体の重心やコーナー等の代表点で表されてもよいし、表現された領域で表されてもよい。物体の「状態」とは、物体の加速度やジャーク、あるいは「行動状態」(例えば車線変更をしている、またはしようとしているか否か)を含んでもよい。物体の種類とは、歩行者、自転車、車両、障害物といったものに分類される。物体のうち、歩行者、或いは歩行者と自転車を含めたものを「交通参加者」と称する。従って、物体位置認識部134は、交通参加者を含む物体の位置などを認識するものである。 The object position recognition unit 134 performs processing such as a Kalman filter based on the information input from the camera 10, the radar device 12, and the LIDAR 14 via the object recognition device 16, thereby causing the object in the vicinity of the own vehicle M to be processed. Recognize position, type, velocity, acceleration, etc. The position of the object is recognized as, for example, a position on absolute coordinates with the representative point (center of gravity, center of drive axis, etc.) of the own vehicle M as the origin, and is used for control. The position of the object may be represented by a representative point such as the center of gravity or a corner of the object, or may be represented by a represented area. The "state" of an object may include acceleration or jerk of the object, or "behavioral state" (eg, whether or not the vehicle is changing lanes or is about to change lanes). The types of objects are classified into pedestrians, bicycles, vehicles, obstacles, and the like. Among the objects, those including pedestrians or pedestrians and bicycles are referred to as "traffic participants". Therefore, the object position recognition unit 134 recognizes the position of an object including a traffic participant.

交通参加者監視部140は、物体認識部により認識された交通参加者の行動を監視する。交通参加者監視部140の構成および動作については後述する。 The traffic participant monitoring unit 140 monitors the behavior of the traffic participant recognized by the object recognition unit. The configuration and operation of the traffic participant monitoring unit 140 will be described later.

行動計画生成部160は、原則的には推奨車線決定部61により決定された推奨車線を走行し、更に、自車両Mの周辺状況に対応できるように、自車両Mが自動的に(運転者の操作に依らずに)将来走行する目標軌道を生成する。「自車両Mの周辺状況に対応できるように」とは、交通参加者の将来の位置に対してなるべく接近しないうように目標軌道を生成することを含む。目標軌道は、例えば、速度要素を含む。例えば、目標軌道は、自車両Mの到達すべき地点(軌道点)を順に並べたものとして表現される。軌道点は、道なり距離で所定の走行距離(例えば数[m]程度)ごとの自車両Mの到達すべき地点であり、それとは別に、所定のサンプリング時間(例えば0コンマ数[sec]程度)ごとの目標速度および目標加速度が、目標軌道の一部として生成される。また、軌道点は、所定のサンプリング時間ごとの、そのサンプリング時刻における自車両Mの到達すべき位置であってもよい。この場合、目標速度や目標加速度の情報は軌道点の間隔で表現される。 In principle, the action plan generation unit 160 travels in the recommended lane determined by the recommended lane determination unit 61, and the own vehicle M automatically (driver) so as to be able to respond to the surrounding conditions of the own vehicle M. Generate a target track to run in the future (regardless of the operation of). "To be able to respond to the surrounding conditions of the own vehicle M" includes generating a target trajectory so as not to approach the future position of the traffic participant as much as possible. The target trajectory includes, for example, a velocity element. For example, the target track is expressed as a sequence of points (track points) to be reached by the own vehicle M. The track point is a point to be reached by the own vehicle M for each predetermined mileage (for example, about several [m]) along the road, and separately, for a predetermined sampling time (for example, about 0 comma [sec]). ) Target velocity and target acceleration are generated as part of the target trajectory. Further, the track point may be a position to be reached by the own vehicle M at the sampling time for each predetermined sampling time. In this case, the information of the target velocity and the target acceleration is expressed by the interval of the orbital points.

第2制御部180は、行動計画生成部160によって生成された目標軌道を、予定の時刻通りに自車両Mが通過するように、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220を制御する。 The second control unit 180 sets the traveling driving force output device 200, the braking device 210, and the steering device 220 so that the own vehicle M passes the target trajectory generated by the action plan generation unit 160 at the scheduled time. Control.

第2制御部180は、例えば、取得部182と、速度制御部184と、操舵制御部186とを備える。取得部182は、行動計画生成部160により生成された目標軌道(軌道点)の情報を取得し、メモリ(不図示)に記憶させる。速度制御部184は、メモリに記憶された目標軌道に付随する速度要素に基づいて、走行駆動力出力装置200またはブレーキ装置210を制御する。操舵制御部186は、メモリに記憶された目標軌道の曲がり具合に応じて、ステアリング装置220を制御する。速度制御部184および操舵制御部186の処理は、例えば、フィードフォワード制御とフィードバック制御との組み合わせにより実現される。一例として、操舵制御部186は、自車両Mの前方の道路の曲率に応じたフィードフォワード制御と、目標軌道からの乖離に基づくフィードバック制御とを組み合わせて実行する。 The second control unit 180 includes, for example, an acquisition unit 182, a speed control unit 184, and a steering control unit 186. The acquisition unit 182 acquires the information of the target trajectory (orbit point) generated by the action plan generation unit 160 and stores it in a memory (not shown). The speed control unit 184 controls the traveling driving force output device 200 or the braking device 210 based on the speed element associated with the target trajectory stored in the memory. The steering control unit 186 controls the steering device 220 according to the degree of bending of the target trajectory stored in the memory. The processing of the speed control unit 184 and the steering control unit 186 is realized by, for example, a combination of feedforward control and feedback control. As an example, the steering control unit 186 executes a combination of feedforward control according to the curvature of the road in front of the own vehicle M and feedback control based on the deviation from the target trajectory.

走行駆動力出力装置200は、車両が走行するための走行駆動力(トルク)を駆動輪に出力する。走行駆動力出力装置200は、例えば、内燃機関、電動機、および変速機などの組み合わせと、これらを制御するECU(Electronic Control Unit)とを備える。ECUは、第2制御部180から入力される情報、或いは運転操作子80から入力される情報に従って、上記の構成を制御する。 The traveling driving force output device 200 outputs a traveling driving force (torque) for traveling the vehicle to the drive wheels. The traveling driving force output device 200 includes, for example, a combination of an internal combustion engine, an electric motor, a transmission, and the like, and an ECU (Electronic Control Unit) that controls them. The ECU controls the above configuration according to the information input from the second control unit 180 or the information input from the operation operator 80.

ブレーキ装置210は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、第2制御部180から入力される情報、或いは運転操作子80から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。ブレーキ装置210は、運転操作子80に含まれるブレーキペダルの操作によって発生させた油圧を、マスターシリンダを介してシリンダに伝達する機構をバックアップとして備えてよい。なお、ブレーキ装置210は、上記説明した構成に限らず、第2制御部180から入力される情報に従ってアクチュエータを制御して、マスターシリンダの油圧をシリンダに伝達する電子制御式油圧ブレーキ装置であってもよい。 The brake device 210 includes, for example, a brake caliper, a cylinder that transmits flood pressure to the brake caliper, an electric motor that generates flood pressure in the cylinder, and a brake ECU. The brake ECU controls the electric motor according to the information input from the second control unit 180 or the information input from the operation operator 80 so that the brake torque corresponding to the braking operation is output to each wheel. The brake device 210 may include, as a backup, a mechanism for transmitting the oil pressure generated by the operation of the brake pedal included in the operation operator 80 to the cylinder via the master cylinder. The brake device 210 is not limited to the configuration described above, and is an electronically controlled hydraulic brake device that controls an actuator according to information input from the second control unit 180 to transmit the oil pressure of the master cylinder to the cylinder. May be good.

ステアリング装置220は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、第2制御部180から入力される情報、或いは運転操作子80から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。 The steering device 220 includes, for example, a steering ECU and an electric motor. The electric motor, for example, applies a force to the rack and pinion mechanism to change the direction of the steering wheel. The steering ECU drives the electric motor according to the information input from the second control unit 180 or the information input from the driving operator 80 to change the direction of the steering wheel.

[将来行動の推定]
以下、交通参加者監視部140による処理の内容について説明する。図3は、交通参加者監視部140が認識する自車両Mの周囲の状況を模式的に示す図である。図示するように、交通参加者監視部140が認識する自車両Mの周囲の状況には、例えば、歩道SW、車道RW、横断歩道CR、建物FC(具体的にはその壁面、入口など)、障害物OBなどが存在する。交通参加者監視部140は、それらが地上座標系などの座標系に占める範囲を認識する。また、交通参加者監視部140は、物体位置認識部134の認識結果に基づいて、複数の交通参加者TPの位置を時系列で認識する。交通参加者監視部140は、これらの認識の結果に基づいて以下に説明する処理を行う。
[Estimation of future behavior]
The contents of the processing by the traffic participant monitoring unit 140 will be described below. FIG. 3 is a diagram schematically showing a situation around the own vehicle M recognized by the traffic participant monitoring unit 140. As shown in the figure, the conditions around the own vehicle M recognized by the traffic participant monitoring unit 140 include, for example, sidewalk SW, roadway RW, pedestrian crossing CR, building FC (specifically, its wall surface, entrance, etc.). There are obstacles such as OB. The traffic participant monitoring unit 140 recognizes the range they occupy in a coordinate system such as a horizontal coordinate system. Further, the traffic participant monitoring unit 140 recognizes the positions of the plurality of traffic participant TPs in time series based on the recognition result of the object position recognition unit 134. The traffic participant monitoring unit 140 performs the processing described below based on the results of these recognitions.

交通参加者監視部140は、例えば、仮ゴール決定部142と、希望速度推定部144と、力推定部146と、シミュレート部148とを備える。 The traffic participant monitoring unit 140 includes, for example, a provisional goal determination unit 142, a desired speed estimation unit 144, a force estimation unit 146, and a simulation unit 148.

仮ゴール決定部142は、複数の交通参加者TPのそれぞれが将来に到達しようとする目的地である仮ゴールを決定する。仮ゴールの設定は、時間の経過と共に繰り返し行われる。仮ゴールはやがて、本ゴールに近づいていくものである。仮ゴールは、第1期間T1(例えば4[sec])後に到達すると予測される地点である。仮ゴールは、各予測ステップにおいて更新される。 The provisional goal determination unit 142 determines a provisional goal, which is a destination for each of the plurality of traffic participant TPs to reach in the future. Temporary goal setting is repeated over time. The tentative goal will eventually approach the main goal. The tentative goal is a point that is predicted to be reached after the first period T1 (for example, 4 [sec]). The tentative goal is updated at each prediction step.

仮ゴール決定部142は、例えば、仮ゴール候補設定部142Aと、仮ゴール選択部142Bとを備える。 The provisional goal determination unit 142 includes, for example, a provisional goal candidate setting unit 142A and a provisional goal selection unit 142B.

仮ゴール候補設定部142Aは、現在から第2期間T2(例えば2[sec])遡った時点からの交通参加者TPの位置の履歴と、カメラ10、レーダ装置12、およびLIDAR14から物体認識装置16を介して入力された情報や地図情報に基づいて認識される道路構造に関する情報とに基づいて、m−1個の仮ゴール候補Gpc(p)(p=1〜m−1)を設定する。例えば、仮ゴール候補設定部142Aは、(1)交通参加者TPが歩道SWを移動し続ける、(2)交通参加者TPが横断歩道CRを渡る、(3)交通参加者TPが最寄りの施設FCに向かう、といった予め想定されているシナリオに基づいて仮ゴール候補Gpc(k)を決定する。例えば、仮ゴール候補設定部142Aは、離散的選択モデル(各選択には一時的な目標の選択が含まれている)に基づいて仮ゴール候補Gpc(k)を決定する。この離散的選択モデルは、自車両Mが交差点にいる、横断歩道がある、商店街にいる、といった内容で分類される運転シーンに基づいて、あらかじめ決められた可能性のある選択のセット(一時的な目標の候補)を定義するものである。仮ゴール候補設定部142Aは、物体位置認識部134により認識された歩道、横断歩道、交差点などの存在と、MPU60によって認識されるフリーウェイや商店街等の位置とに基づいて、どの離散集合(シナリオ)を選択するかを決定する。図の例では、仮ゴール候補設定部142Aは、(1)のシナリオに基づいて、交通参加者TPの現在の移動方向の先である歩道SWの一地点を仮ゴール候補Gpc(1)とし、(2)のシナリオに基づいて、交通参加者TPが存在する側と反対側の歩道SWと横断歩道CRの交点を仮ゴール候補Gpc(2)とし、(3)のシナリオに基づいて、施設FCの入口を仮ゴール候補Gpc(3)とする。なお、交通参加者TPが現に横断歩道CRを渡っている場合、シナリオとして上記(2)または(4)引き返す、の2つが選択されてよい。 The provisional goal candidate setting unit 142A has a history of the position of the traffic participant TP from the time when the second period T2 (for example, 2 [sec]) is traced back from the present, and the object recognition device 16 from the camera 10, the radar device 12, and the LIDAR 14. Based on the information input via the above and the information on the road structure recognized based on the map information, m-1 provisional goal candidates Gpc (p) (p = 1 to m-1) are set. For example, in the provisional goal candidate setting unit 142A, (1) the traffic participant TP keeps moving on the sidewalk SW, (2) the traffic participant TP crosses the pedestrian crossing CR, and (3) the traffic participant TP is the nearest facility. The provisional goal candidate Gpc (k) is determined based on a presumed scenario such as going to FC. For example, the provisional goal candidate setting unit 142A determines the provisional goal candidate Gpc (k) based on a discrete selection model (each selection includes a temporary goal selection). This discrete selection model is a set of possible selections (temporary) based on driving scenes classified by the content such as the vehicle M is at an intersection, has a pedestrian crossing, or is in a shopping district. Candidates for goals) are defined. The provisional goal candidate setting unit 142A is based on the existence of sidewalks, pedestrian crossings, intersections, etc. recognized by the object position recognition unit 134, and the positions of freeways, shopping streets, etc. recognized by the MPU 60, which discrete set (scenario). ) Is selected. In the example of the figure, the provisional goal candidate setting unit 142A sets one point of the sidewalk SW, which is ahead of the current movement direction of the traffic participant TP, as the provisional goal candidate Gpc (1) based on the scenario of (1). Based on the scenario of (2), the intersection of the sidewalk SW and the pedestrian crossing CR on the side opposite to the side where the traffic participant TP exists is set as the provisional goal candidate Gpc (2), and based on the scenario of (3), the facility FC Let the entrance of the tentative goal candidate Gpc (3). When the traffic participant TP is actually crossing the pedestrian crossing CR, the above two scenarios (2) or (4) turning back may be selected.

更に、仮ゴール候補設定部142Aは、物体位置認識部134におけるカルマンフィルタ処理の予測結果を外挿して、交通参加者が現在の移動方向を継続すると仮定して、他の仮ゴール候補Gpc(m)を設定する。これによって、仮ゴール候補設定部142Aは、計m個の仮ゴール候補Gpc(p)を設定する。 Further, the provisional goal candidate setting unit 142A extrapolates the prediction result of the Kalman filter processing in the object position recognition unit 134, and assumes that the traffic participant continues the current movement direction, and another provisional goal candidate Gpc (m). To set. As a result, the provisional goal candidate setting unit 142A sets a total of m provisional goal candidate Gpc (p).

仮ゴール選択部142Bは、交通参加者TPの意図する移動方向θを計算し、移動方向θを用いて参照ゴール位置Grefを求める。移動方向θは、式(1)によって求められる。式中、w1、w2、w3、w4は係数である。これらの係数は固定値であってもよいし、随時、機械学習などによって更新されてもよい。例えば、仮ゴール選択部142Bは、カメラ10により撮像された画像を、上体の向きおよび顔向きを導出する学習済みモデルに入力することで、上体の向きおよび顔向きの情報を取得する。これに代えて、仮ゴール選択部142Bは、カメラ10により撮像された画像に対して何らかのルールベースの処理を行うことで、上体の向きおよび顔向きの情報を取得してもよい。例えば、仮ゴール選択部142Bは、鼻梁などの特徴箇所が顔領域に占める位置の偏りと、黒目の位置等に基づく視線の向きとを入力パラメータとする演算を行って、顔向きを計算してもよい。認識速度ベクトルは、物体位置認識部134により認識される情報である。道路構造による影響は、例えば、上体の向き、顔向き、および認識速度ベクトルが横断歩道や歩道から逸脱する方向に向かっているような場合に、その成分を打ち消すための補正項である。 The provisional goal selection unit 142B calculates the movement direction θ intended by the traffic participant TP, and obtains the reference goal position Gref using the movement direction θ. The moving direction θ is obtained by the equation (1). In the formula, w1, w2, w3, and w4 are coefficients. These coefficients may be fixed values or may be updated at any time by machine learning or the like. For example, the temporary goal selection unit 142B acquires information on the orientation and face orientation of the upper body by inputting the image captured by the camera 10 into the trained model that derives the orientation and face orientation of the upper body. Instead, the temporary goal selection unit 142B may acquire information on the orientation of the upper body and the orientation of the face by performing some rule-based processing on the image captured by the camera 10. For example, the temporary goal selection unit 142B calculates the face orientation by performing calculations using the bias of the position occupied by the featured portion such as the bridge of the nose in the face region and the direction of the line of sight based on the position of the black eye as input parameters. May be good. The recognition speed vector is information recognized by the object position recognition unit 134. The effect of the road structure is, for example, a correction term for canceling the component when the orientation of the upper body, the orientation of the face, and the recognition speed vector are directed in the direction deviating from the pedestrian crossing or the sidewalk.

移動方向θ=w1×(上体の向き)+w2×(顔向き)+w3×(認識速度ベクトル)+w4×(道路構造による影響) …(1) Movement direction θ = w1 × (direction of upper body) + w2 × (direction of face) + w3 × (recognition speed vector) + w4 × (effect of road structure)… (1)

上記に代えて、仮ゴール選択部142Bは、上体の向き、顔向き、認識速度ベクトル、道路構造による影響などを入力すると、移動方向θを出力するモデルに対して、上体の向き、顔向き、認識速度ベクトル、道路構造による影響などを入力することで、移動方向θを取得してもよい。 Instead of the above, the temporary goal selection unit 142B inputs the orientation of the upper body, the orientation of the face, the recognition speed vector, the influence of the road structure, etc., and the orientation of the upper body and the face with respect to the model that outputs the movement direction θ. The moving direction θ may be acquired by inputting the direction, the recognition speed vector, the influence of the road structure, and the like.

仮ゴール選択部142Bは、移動方向θに向かって所定の速度で第1期間T1の間、交通参加者TPが移動すると仮定して参照ゴール位置Grefを求める。例えば、所定サイクル(例えば2サイクル)前に取得された交通参加者TPの速度が所定速度として使用される。そして、仮ゴール選択部142Bは、それぞれの仮ゴール候補Gpc(p)を移動シミュレーションモデルに入力し、将来の第1期間T1の間の複数時点における交通参加者TPの推定位置を求める。移動シミュレーションモデルとは、例えば、後述するシミュレート部148が実行するシミュレーションに使用されるモデルと同じものである。そして、仮ゴール選択部142Bは、交通参加者TPの現在の位置から参照ゴール位置Grefまでを直線あるいは道路構造に応じた曲線、折れ線などで結んだ基準線と、仮ゴール候補Gpc(p)ごとの複数時点における交通参加者TPの推定位置とを比較し、乖離が最も小さかった仮ゴール候補Gpc(p)を、仮ゴールGpに決定する。図4は、仮ゴール選択部142Bによる処理の内容について説明するための図である。例えば、仮ゴール選択部142Bは、基準線と、仮ゴール候補Gpc(p)ごとに計算した複数時点(例えば1〜u)における交通参加者TPの推定位置P〜Pとの距離を二乗した値の合計(二乗和)Σq=1 が最も小さかった仮ゴール候補Gpc(p)を、仮ゴールGpに決定する。 The provisional goal selection unit 142B obtains the reference goal position Greff on the assumption that the traffic participant TP moves in the movement direction θ at a predetermined speed during the first period T1. For example, the speed of the traffic participant TP acquired before a predetermined cycle (for example, two cycles) is used as the predetermined speed. Then, the provisional goal selection unit 142B inputs each provisional goal candidate Gpc (p) into the movement simulation model, and obtains the estimated position of the traffic participant TP at a plurality of time points during the first period T1 in the future. The movement simulation model is, for example, the same as the model used for the simulation executed by the simulation unit 148, which will be described later. Then, the provisional goal selection unit 142B connects the current position of the traffic participant TP to the reference goal position Gref with a straight line, a curve corresponding to the road structure, a polygonal line, or the like, and each provisional goal candidate Gpc (p). The provisional goal candidate Gpc (p) having the smallest deviation is determined as the provisional goal Gp by comparing with the estimated positions of the traffic participant TPs at a plurality of time points. FIG. 4 is a diagram for explaining the content of processing by the provisional goal selection unit 142B. For example, the provisional goal selection unit 142B squares the distance between the reference line and the estimated positions P1 to Pu of the traffic participant TP at a plurality of time points (for example, 1 to u) calculated for each provisional goal candidate Gpc (p). total (sum of squares) Σ q = 1 u d q is the smallest was provisional goal candidates Gpc (p) of the value, determined in the provisional goal Gp.

上記に代えて、仮ゴール決定部142は、自車両Mの周辺状況をコンテキスト情報として用い、SVM(Support Vector Machine)モデルや多変量回帰分析の手法によるモデルを用いて、交通参加者TPの仮ゴールGpを決定してもよい。このモデルは、実際の交通局面で収集された交通参加者TPの行動に基づいて学習される。コンテキスト情報とは、例えば、横断歩道と交通参加者TPとの距離、道路構造物の影響、車両との位置関係、交通参加者TPの頭部の動きなどである。 Instead of the above, the tentative goal determination unit 142 uses the surrounding situation of the own vehicle M as context information, and uses the SVM (Support Vector Machine) model and the model by the method of multivariate regression analysis to tentatively use the traffic participant TP. The goal Gp may be determined. This model is learned based on the behavior of the traffic participant TP collected in the actual traffic phase. The context information includes, for example, the distance between the pedestrian crossing and the traffic participant TP, the influence of the road structure, the positional relationship with the vehicle, the movement of the head of the traffic participant TP, and the like.

希望速度推定部144は、交通参加者TPの過去の位置の履歴を用いて、交通参加者TPiの希望速度ベクトル→vi0を推定する。以下、「→」はベクトルを示すものとする。また、物体位置認識部134が認識しているi番目の交通参加者TPを交通参加者TPiと称する。iは交通参加者TPの識別情報である。希望速度の大きさvi0を求めるため、希望速度推定部144は、過去の第3期間T3(例えば2[sec])分の複数のステップにおける速度の重み付き移動平均を求める。図5は、希望速度推定部144による処理について説明するための図である。希望速度推定部144は、例えば、第3期間T3の終端に近い(現在に近い)第4期間T4(例えば0.5[sec])の重みを、それ以外の期間に比して大きくしてもよい。希望速度推定部144は、希望速度ベクトル→vi0の方向を、交通参加者TPiの現在の位置から仮ゴールGPiに向かう方向とする。 The desired speed estimation unit 144 estimates the desired speed vector → vi0 of the traffic participant TPi by using the history of the past position of the traffic participant TP. Hereinafter, "→" indicates a vector. Further, the i-th traffic participant TP recognized by the object position recognition unit 134 is referred to as a traffic participant TPi. i is the identification information of the traffic participant TP. In order to obtain the magnitude vi0 of the desired speed, the desired speed estimation unit 144 obtains a weighted moving average of the speeds in a plurality of steps for the past third period T3 (for example, 2 [sec]). FIG. 5 is a diagram for explaining processing by the desired speed estimation unit 144. The desired velocity estimation unit 144 increases, for example, the weight of the fourth period T4 (for example, 0.5 [sec]) near the end of the third period T3 (close to the present) as compared with the other periods. May be good. The desired speed estimation unit 144 sets the direction of the desired speed vector → vi0 as the direction from the current position of the traffic participant TPi toward the provisional goal GPi.

力推定部146は、複数の交通参加者TPのそれぞれに作用する仮想的な力を、複数の交通参加者TPの周辺環境に基づいて推定する。力推定部146は、例えば、交通参加者TPごとに、自身から受ける力、互いに作用を及ぼす力、および物体から及ぼされる力を推定する。なお、これらの力は推定対象となる仮想的な力である。力推定部146は、自発力F1i、社会力F2i、物理力F3iをそれぞれ推定し、それらを合計して交通参加者TPiに作用する力(以下、「仮想的な」を省略する)を求める。以下、数式を用いて力推定部146が行う演算、処理の内容を説明する。式(2)は、力推定部146が交通参加者TPについて計算する力を示すものである。式(2)において、ベクトルを示す「→」を省略している。式中、kは交通参加者TPi以外の交通参加者TPと、車両、障害物、壁、横断状態(車道を横断中であるという事実)、歩道境界を含むものであり(以下、これらを影響因子と称する)、n個存在するものとしている。力推定部146は、交通参加者TPiに力を及ぼす影響因子は交通参加者TPiの正面方向を中心とした扇形の範囲に存在する影響因子に限定され、範囲から外れる影響因子は力を及ぼさないものとして以下の計算を行う。式(2)におけるFmotivationは自発力であり、Fpedestrianは影響因子である歩行者から及ぼされる力であり、Fvehicleは影響因子である車両から及ぼされる力であり、Fobstacleは影響因子である障害物から及ぼされる力であり、Fwallは影響因子である壁から及ぼされる力であり、Fcrosswalkは影響因子である横断状態から及ぼされる力であり、Fsidewalkは影響因子である歩道境界から及ぼされる力である。 The force estimation unit 146 estimates a virtual force acting on each of the plurality of traffic participant TPs based on the surrounding environment of the plurality of traffic participant TPs. The force estimation unit 146 estimates, for example, the force received from itself, the force acting on each other, and the force exerted by an object for each traffic participant TP. These forces are virtual forces to be estimated. The force estimation unit 146 estimates the spontaneous force F1i, the social force F2i, and the physical force F3i, and totals them to obtain the force acting on the traffic participant TPi (hereinafter, "virtual" is omitted). Hereinafter, the contents of the calculation and processing performed by the force estimation unit 146 using mathematical formulas will be described. Equation (2) shows the force calculated by the force estimation unit 146 for the traffic participant TP. In the equation (2), the “→” indicating the vector is omitted. In the formula, k includes traffic participant TPs other than traffic participant TPi, vehicles, obstacles, walls, crossing conditions (the fact that they are crossing the roadway), and sidewalk boundaries (hereinafter, these are affected). It is assumed that there are n (referred to as factors). In the force estimation unit 146, the influencing factors that exert a force on the traffic participant TPi are limited to the influencing factors existing in the fan-shaped range centered on the front direction of the traffic participant TPi, and the influencing factors outside the range do not exert the force. Assuming that, the following calculation is performed. In equation (2), F motivation is a spontaneous force, F pedestrian is a force exerted by a pedestrian who is an influencing factor, F vehicle is a force exerted by a vehicle which is an influencing factor, and F obstacle is an influencing factor. F wall is the force exerted by an obstacle, F wall is the force exerted by the wall which is the influencing factor, F crosswalk is the force exerted by the crossing state which is the influencing factor, and F sidewalk is the force exerted by the sidewalk boundary which is the influencing factor. It is the power that comes from.

Figure 2021068423
Figure 2021068423

自発力F1iは、交通参加者TPiが希望速度で移動するために交通参加者TPiが自分自身に対して作用させる力である。力推定部146は、希望速度ベクトル→vi0に基づいて自発力F1iを算出する。自発力F1iは、希望速度ベクトル→vi0で移動しようとする結果、交通参加者TPiが加減速することを力の次元で表したものである。自発力→F1iは、例えば式(3)で表される。式中、→viは、交通参加者TPiの現在の速度ベクトルであり、τは、速度ベクトル→viを希望速度ベクトル→vi0に合わせるのに要する時間である。 The spontaneous force F1i is a force that the traffic participant TPi acts on itself in order for the traffic participant TPi to move at a desired speed. The force estimation unit 146 calculates the spontaneous force F1i based on the desired velocity vector → vi0. The spontaneous force F1i expresses in the dimension of force that the traffic participant TPi accelerates or decelerates as a result of trying to move with the desired speed vector → vi0. Spontaneous force → F1i is expressed by, for example, equation (3). In the equation, → vi is the current velocity vector of the traffic participant TPi, and τ is the time required to match the velocity vector → vi with the desired velocity vector → vi0.

F1(Fmotivation)=(1/τ)・(→vi0−→vi) …(3) F1 (F motivation ) = (1 / τ) ・ (→ vi0− → vi)… (3)

社会力F2iと物理力F3iのそれぞれは、影響因子から及ぼされる反発力、圧迫力、摩擦力の3成分の和(あるいは加重和)を求めることで推定される。 Each of the social force F2i and the physical force F3i is estimated by obtaining the sum (or weighted sum) of the three components of the repulsive force, the compressive force, and the frictional force exerted by the influential factors.

式(2)のうちFk pedestrianは、k番目の影響因子である歩行者から及ぼされる力でありFk wallは、k番目の影響因子である壁から及ぼされる力であり、Fk obstacleはk番目の影響因子である障害物から及ぼされる力である。これらは、式(4)で表される。式中、repulsionが反発力、compressionが圧迫力、frictionが摩擦力をそれぞれ表している。 In equation (2), F k pedestrian is the force exerted by the pedestrian, which is the kth influencing factor, F k wall is the force exerted by the wall, which is the kth influencing factor, and F k obstacle is the force exerted. It is the force exerted by the obstacle, which is the kth influencing factor. These are represented by the equation (4). In the formula, repulsion represents the repulsive force, compression represents the compression force, and friction represents the frictional force.

Figure 2021068423
Figure 2021068423

k pedestrianの各項は、式(5)で表される。式中、Aped、Bped、Cped、Kpedは、実験等により得られた適合値である。rikは、交通参加者TPiと影響因子kとのそれぞれに対して予め設定される私的空間の半径の和である。私的空間とは、その中に他者が入り込むのを回避するように交通参加者TPが振る舞う空間である。影響因子が交通参加者でない場合、疑似的に私的空間が設定される。dikは、交通参加者TPiと影響因子kとの間のユークリッド距離である。nikは式(6)で表され、tikは式(7)で表される。式(7)における(1)はx要素を、(2)はy要素をそれぞれ示す。Φは、交通参加者TPiと影響因子kの移動方向(速度ベクトルの方向)の差分の角度である。また、dvikは交通参加者TPiの速度ベクトルと影響因子kの速度ベクトルとの差分ベクトルである。Fk pedestrianの各項は、マイナスになる場合はゼロに置換されてよい。Bpedは、Exp関数によって生成される力のマグニチュードの係数である。まず、各要素の社会力によって生成される力の最小値・最大値を定め、Bpedを調整することにより、rik−dikの変化に対する社会力の変化率をコントロールすることができる。なお式(8)、(9)においてもBpedは同様に作用する。 Each term of F k pedestrian is expressed by the formula (5). In the formula, Aped, Bped, Cped, and Kped are conforming values obtained by experiments and the like. r ik is the sum of the radii of the private space preset for each of the traffic participant TPi and the influencing factor k. The private space is a space in which the traffic participant TP behaves so as to prevent others from entering the space. If the influencing factor is not a traffic participant, a pseudo private space is set. dik is the Euclidean distance between the traffic participant TPi and the influencing factor k. n ik is represented by the formula (6), and tic is represented by the formula (7). In equation (7), (1) represents an x element and (2) represents a y element. Φ is the angle of the difference between the traffic participant TPi and the influencing factor k in the moving direction (direction of the velocity vector). Further, dv ik is a difference vector between the speed vector of the traffic participant TPi and the speed vector of the influencing factor k. Each term of F k pedestrian may be replaced with zero if it becomes negative. Bped is a coefficient of magnitude of force generated by the Exp function. First, define the minimum and maximum values of the force generated by the social forces of each element, by adjusting the Bped, it is possible to control the rate of change in society force with respect to a change in r ik -d ik. In addition, Bped acts in the same manner in equations (8) and (9).

Figure 2021068423
Figure 2021068423

式(5)におけるApedに関して、力推定部146は、交通参加者TPiと影響因子k(この場合は他の交通参加者)がグループを形成しているか否かを予め推定しておき、同じグループに属すると推定される交通参加者の間では、同じグループに属すると推定されない交通参加者の間に比して、値を小さくしてもよい(ゼロ近辺、或いはマイナスにしてもよい)。グループを形成している交通参加者同士は、距離が一定の距離以内である状態を維持して移動することが多いからである。力推定部146は、二人の交通参加者の過去の一定期間における位置が所定範囲内に収まり、且つ一定期間における移動方向(速度ベクトルの方向)の差が閾値未満である場合に、その二人の交通参加者はグループを形成していると推定する、三人以上の場合も同様に、波及的に推定を行ってよい。 Regarding Aped in the equation (5), the force estimation unit 146 estimates in advance whether or not the traffic participant TPi and the influencing factor k (in this case, other traffic participants) form a group, and the same group. The value may be smaller (near zero or even negative) among traffic participants presumed to belong to the same group as compared to those not presumed to belong to the same group. This is because the traffic participants forming a group often move while maintaining a state in which the distance is within a certain distance. The force estimation unit 146 is used when the positions of the two traffic participants in the past fixed period are within the predetermined range and the difference in the moving direction (velocity vector direction) in the fixed period is less than the threshold value. It is presumed that human traffic participants form a group, and in the case of three or more people, a ripple estimation may be made in the same manner.

自転車に関しては、歩行者として扱い、Fk pedestrianに含めてよい。但し、私的空間の半径を歩行者の1.5倍とする。 Bicycles may be treated as pedestrians and included in the F k pedestrian. However, the radius of the private space shall be 1.5 times that of a pedestrian.

k obstacleの各項は、式(8)で表される。式中、Aobs、Cobs、Kobsは、実験等により得られた適合値である。Fk obstacleの各項は、マイナスになる場合はゼロに置換されてよい。 Each term of F k obstacle is represented by the equation (8). In the formula, Aobs, Cobs, and Kobs are conforming values obtained by experiments and the like. Each term of F k obstacle may be replaced with zero if it becomes negative.

Figure 2021068423
Figure 2021068423

k wallの各項は、式(9)で表される。式中、Awall、Cwall、Kwallは、実験等により得られた適合値である。Fk wallの各項は、マイナスになる場合はゼロに置換されてよい。壁についてのnikやtikを求める際に、力推定部146は、例えば、外挿によって求められる交通参加者TPiの移動先と交差する点を基準とすればよい。 Each term of F k wall is represented by the equation (9). In the formula, Awall, Cwall, and Kwall are conforming values obtained by experiments and the like. Each term of F k wall may be replaced with zero if it becomes negative. When obtaining the n ik and t ik for walls, the force estimating section 146, for example, the point of intersection to move the traffic participants TPi obtained by extrapolation may be used as the reference.

Figure 2021068423
Figure 2021068423

k sidewalkは、k番目の影響因子である壁から及ぼされる力である。Fk sidewalkは、式(10)で表される。式中、Ksideは、実験等により得られた適合値である。nskは、交通参加者TPiを歩道内に収めるために移動すべき方向の単位ベクトルである。dsafe_sは、歩道の境界が縁石やガードレールなどの物理的な境界で示されていない場合に設定されるクリアランス分の距離である。Fk crossswalkは、k番目の影響因子である横断状態から及ぼされる力である。Fk crossswalkは、式(11)で表される。式中、Kcrossは、実験等により得られた適合値である。nckは、交通参加者TPiの位置から近い方の歩道に向かう単位ベクトルである。dsafe_cは、横断歩道の境界が縁石やガードレールなどの物理的な境界で示されていない場合に設定されるクリアランス分の距離である。Fk vehicleは、k番目の影響因子である車両から及ぼされる力である。Fk vehicleは、式(12)で表される。但し、式(12)が適用されるのは移動している車両であり、駐車または停車している車両は障害物として扱われ、式(8)が適用される。式中、nkcarは、交通参加者TPiが車道に居る場合に、交通参加者の位置から近い方の歩道に向かう単位ベクトルである。TTCは、time to collsion すなわち交通参加者の位置を車道に射影した位置と車両の位置との間で計算した衝突時間である。hはTTCを正規化するためのパラメータであり、想定されるTTCの最大値に設定される。hはデータ解析とシミュレーションを繰り返すことによって実験的に求められるパラメータ(ユーザ設定パラメータ)である。 The F k sidewalk is the force exerted from the wall, which is the kth influencing factor. The F k sidewalk is represented by the equation (10). In the formula, K side is a conforming value obtained by an experiment or the like. n sk is a unit vector of the direction in which the traffic participant TPi should be moved in order to fit in the sidewalk. d safe_s is the clearance distance set when the boundary of the sidewalk is not indicated by a physical boundary such as a curb or a guardrail. F k crossswalk is the force exerted from the kth influential factor, the crossing state. F k crosss walk is represented by the equation (11). In the formula, K cross is a conforming value obtained by an experiment or the like. n ck is a unit vector from the position of the traffic participant TPi toward the sidewalk closer to it. d safe_c is the clearance distance set when the boundary of the pedestrian crossing is not indicated by a physical boundary such as a curb or a guardrail. F k vehicle is the force exerted by the vehicle, which is the kth influencing factor. The F k vehicle is represented by the equation (12). However, the formula (12) is applied to a moving vehicle, and a parked or stopped vehicle is treated as an obstacle, and the formula (8) is applied. In the formula, n kcar is a unit vector toward the sidewalk closer to the position of the traffic participant when the traffic participant TPi is on the roadway. TTC is a time to collsion, that is, a collision time calculated between the position of a traffic participant projected on the roadway and the position of the vehicle. h is a parameter for normalizing the TTC, and is set to the maximum value of the assumed TTC. h is a parameter (user-set parameter) experimentally obtained by repeating data analysis and simulation.

Figure 2021068423
Figure 2021068423

このようにして仮ゴールGp、希望速度→vi0、および各種の力が求められると、シミュレート部148が、物体位置認識部134が認識している全ての交通参加者および車両について、仮ゴールGp、希望速度→vi0、および各種の力を移動モデルに入力することで、将来の第1期間T1の間の複数ステップ(時点)における位置をシミュレーションによって求める。第2期間T2の間、仮ゴールGpおよび希望速度→vi0は固定される。第2期間T2が経過すると、シミュレート部148は、仮ゴール候補設定部142Aおよび仮ゴール選択部142Bと同様に仮ゴールGpを選択し、仮ゴールGpに向かって移動する前提で交通参加者の移動をシミュレートする。このシミュレーションにおいて交通参加者は、何ら力が作用しなければ最短経路で仮ゴールGpに向かって移動し、力が作用している場合は、例えば、仮ゴールGpに向かう方向と力の方向とを、力の大きさに応じた比率で合成した方向に向かって移動する。すなわち、シミュレート部148は、複数の交通参加者のそれぞれの将来の行動を推定するために、移動モデルを用いて、複数の交通参加者のそれぞれが仮ゴール決定部142により決定された仮ゴールGpに向かう移動過程をシミュレートする。移動モデルは、例えば非特許文献2に記載のヒューマンロコモーションモデルである。これに限らず、移動モデルは、上記の入力情報に基づいて将来の複数時点における位置をシミュレーションによって推定するものであれば、任意のモデルであってよい。この際に、シミュレート部148は、他者の接近による力の作用する方向をそのまま交通参加者に作用させるのではなく、ローカルフレームの力に変換して演算を行ってもよい。図6は、ローカルフレームの力を求める処理について説明するための図である。図中、→viは交通参加者TPiの速度ベクトルであり、→vkは影響因子kの速度ベクトルであり、→Fは影響因子kが交通参加者TPiに及ぼす力である。この場合、→viと→Fが略反対方向を向いているため、シミュレート部148は、力→Fをそのまま交通参加者TPiに作用させるのではなく、力→Fに対して回り込む方向(例えば図中、→Fk*)に修正してもよい。こうすれば、交通参加者が不自然に行ったり来たりするようなシミュレーション結果が出るのを抑制することができる。 When the provisional goal Gp, the desired speed → vi0, and various forces are obtained in this way, the simulation unit 148 determines the provisional goal Gp for all the traffic participants and vehicles recognized by the object position recognition unit 134. , Desired velocity → vi0, and various forces are input to the movement model, and the position at a plurality of steps (time points) during the first period T1 in the future is obtained by simulation. During the second period T2, the provisional goal Gp and the desired speed → vi0 are fixed. When the second period T2 elapses, the simulation unit 148 selects the provisional goal Gp in the same manner as the provisional goal candidate setting unit 142A and the provisional goal selection unit 142B, and the traffic participants assume that they move toward the provisional goal Gp. Simulate movement. In this simulation, the traffic participant moves toward the temporary goal Gp by the shortest path if no force is applied, and if the force is applied, for example, the direction toward the temporary goal Gp and the direction of the force. , Moves in the combined direction at a ratio according to the magnitude of the force. That is, the simulation unit 148 uses a movement model to estimate the future behavior of each of the plurality of traffic participants, and each of the plurality of traffic participants has a provisional goal determined by the provisional goal determination unit 142. Simulate the process of movement toward Gp. The moving model is, for example, the human locomotion model described in Non-Patent Document 2. Not limited to this, the movement model may be any model as long as it estimates the position at a plurality of future time points by simulation based on the above input information. At this time, the simulation unit 148 may perform the calculation by converting the direction in which the force acting due to the approach of another person acts on the traffic participant as it is, but converting it into the force of the local frame. FIG. 6 is a diagram for explaining a process of obtaining the force of the local frame. In the figure, → vi is the velocity vector of the traffic participant TPi, → vk is the velocity vector of the influencing factor k, and → F k is the force exerted by the influencing factor k on the traffic participant TPi. In this case, since → vi and → F k are oriented in substantially opposite directions, the simulation unit 148 wraps around the force → F k instead of acting the force → F k as it is on the traffic participant TPi. It may be corrected in the direction (for example, → Fk * in the figure). In this way, it is possible to suppress the simulation result that the traffic participants come and go unnaturally.

図7は、自動運転制御装置100により実行される処理の流れの一例を示すフローチャートである。本フローチャートでは、交通参加者の将来行動予測の部分に着目し、自車位置認識などの処理について説明を省略する。 FIG. 7 is a flowchart showing an example of the flow of processing executed by the automatic operation control device 100. In this flowchart, attention is paid to the part of predicting future behavior of traffic participants, and the description of processing such as own vehicle position recognition is omitted.

まず、物体位置認識部134が、交通参加者を含む物体の位置を認識する(ステップS100)。 First, the object position recognition unit 134 recognizes the position of an object including a traffic participant (step S100).

次に、仮ゴール決定部142および希望速度推定部144が、ステップS102〜S108の処理を交通参加者ごとに実行する(ステップS102)。まず、仮ゴール候補設定部142Aが仮ゴール候補Gpc(p)を設定し、仮ゴール選択部142Bが仮ゴール候補Gpc(p)ごとにシミュレーションを実施する(ステップS104)。仮ゴール選択部142Bは、参照ゴール位置Grefまでの経路との乖離の最も小さかったGpc(p)を仮ゴールとして選択する(ステップS106)。また、希望速度推定部144が希望速度を推定する(ステップS108)。 Next, the provisional goal determination unit 142 and the desired speed estimation unit 144 execute the processes of steps S102 to S108 for each traffic participant (step S102). First, the provisional goal candidate setting unit 142A sets the provisional goal candidate Gpc (p), and the provisional goal selection unit 142B executes a simulation for each provisional goal candidate Gpc (p) (step S104). The provisional goal selection unit 142B selects Gpc (p) having the smallest deviation from the route to the reference goal position Gref as the provisional goal (step S106). Further, the desired speed estimation unit 144 estimates the desired speed (step S108).

次に、力推定部146が、ステップS100で認識された現在位置、または次のステップS112で求められた将来位置に基づいて、交通参加者ごとに作用する力を推定する(ステップS110)。シミュレート部148は、移動モデルを用いて仮ゴールGpおよび力に基づくシミュレートを行い、1サイクル後の交通参加者の将来位置を求める(ステップS112)。交通参加者監視部140は、ステップS110およびS112の処理を所定サイクル数、実行したか否かを判定する(ステップS114)。所定サイクル数、実行していないと判定された場合、ステップS110に処理が戻される。所定サイクル数、実行したと判定された場合、行動計画生成部160が、交通参加者等の現在位置および将来位置に基づいて車両制御を行う(ステップS116)。例えば、行動計画生成部160は、自車両Mの将来の行動を決定する際に、将来の時点における交通参加者等の位置を中心としたリスク領域を設定し、リスク領域への接近を抑制した目標軌道を生成する。 Next, the force estimation unit 146 estimates the force acting on each traffic participant based on the current position recognized in step S100 or the future position obtained in the next step S112 (step S110). The simulation unit 148 performs a simulation based on the provisional goal Gp and the force using the movement model, and obtains the future position of the traffic participant after one cycle (step S112). The traffic participant monitoring unit 140 determines whether or not the processes of steps S110 and S112 have been executed for a predetermined number of cycles (step S114). If it is determined that the process has not been executed for a predetermined number of cycles, the process is returned to step S110. When it is determined that the action plan has been executed for a predetermined number of cycles, the action plan generation unit 160 controls the vehicle based on the current position and the future position of the traffic participants and the like (step S116). For example, when determining the future action of the own vehicle M, the action plan generation unit 160 sets a risk area centered on the position of a traffic participant or the like at a future time point, and suppresses the approach to the risk area. Generate a target trajectory.

[ハードウェア構成]
図8は、実施形態の自動運転制御装置100のハードウェア構成の一例を示す図である。図示するように、自動運転制御装置100は、通信コントローラ100−1、CPU100−2、ワーキングメモリとして使用されるRAM(Random Access Memory)100−3、ブートプログラムなどを格納するROM(Read Only Memory)100−4、フラッシュメモリやHDD(Hard Disk Drive)などの記憶装置100−5、ドライブ装置100−6などが、内部バスあるいは専用通信線によって相互に接続された構成となっている。通信コントローラ100−1は、自動運転制御装置100以外の構成要素との通信を行う。記憶装置100−5には、CPU100−2が実行するプログラム100−5aが格納されている。このプログラムは、DMA(Direct Memory Access)コントローラ(不図示)などによってRAM100−3に展開されて、CPU100−2によって実行される。これによって、認識部130、行動計画生成部160、第2制御部180のうち一部または全部が実現される。
[Hardware configuration]
FIG. 8 is a diagram showing an example of the hardware configuration of the automatic operation control device 100 of the embodiment. As shown in the figure, the automatic operation control device 100 includes a communication controller 100-1, a CPU 100-2, a RAM (Random Access Memory) 100-3 used as a working memory, a ROM (Read Only Memory) for storing a boot program, and the like. The configuration is such that 100-4, a storage device 100-5 such as a flash memory or an HDD (Hard Disk Drive), a drive device 100-6, and the like are connected to each other by an internal bus or a dedicated communication line. The communication controller 100-1 communicates with a component other than the automatic operation control device 100. The storage device 100-5 stores a program 100-5a executed by the CPU 100-2. This program is expanded into RAM 100-3 by a DMA (Direct Memory Access) controller (not shown) or the like, and is executed by CPU 100-2. As a result, a part or all of the recognition unit 130, the action plan generation unit 160, and the second control unit 180 is realized.

以上説明した実施形態によれば、複数の交通参加者の位置を認識する物体位置認識部(134)と、物体位置認識部の認識結果に基づいて、複数の交通参加者のそれぞれが将来に到達しようとする仮ゴールを決定する仮ゴール決定部(142)と、複数の交通参加者のそれぞれの将来の行動を推定するために、移動モデルを用いて、複数の交通参加者のそれぞれが仮ゴール決定部により決定された仮ゴールに向かう移動過程をシミュレートするシミュレート部(148)と、を備えることにより、実際の交通場面に即した予測を行うことができる。 According to the embodiment described above, each of the plurality of traffic participants reaches the future based on the recognition result of the object position recognition unit (134) that recognizes the positions of the plurality of traffic participants and the object position recognition unit. A tentative goal determination unit (142) that determines the tentative goal to be attempted, and a movement model are used to estimate the future behavior of each of the plurality of traffic participants, and each of the plurality of traffic participants has a tentative goal. By providing a simulation unit (148) that simulates the movement process toward the temporary goal determined by the determination unit, it is possible to make a prediction according to an actual traffic scene.

上記説明した実施形態は、以下のように表現することができる。
プログラムを記憶した記憶装置と、
ハードウェアプロセッサと、を備え、
前記ハードウェアプロセッサが前記記憶装置に記憶されたプログラムを実行することにより、
複数の交通参加者の位置を認識し、
前記認識の結果に基づいて、前記複数の交通参加者のそれぞれが将来に到達しようとする仮ゴールを決定し、
前記複数の交通参加者のそれぞれの将来の行動を推定するために、移動モデルを用いて、前記複数の交通参加者のそれぞれが前記仮ゴール決定部により決定された仮ゴールに向かう移動過程をシミュレートする、
ように構成されている、将来行動推定装置。
The embodiment described above can be expressed as follows.
A storage device that stores programs and
With a hardware processor,
When the hardware processor executes a program stored in the storage device,
Recognize the location of multiple traffic participants and
Based on the result of the recognition, each of the plurality of traffic participants determines a tentative goal to reach in the future.
In order to estimate the future behavior of each of the plurality of traffic participants, a movement model is used to simulate the movement process of each of the plurality of traffic participants toward the provisional goal determined by the provisional goal determination unit. To
A future behavior estimator configured to.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 Although the embodiments for carrying out the present invention have been described above using the embodiments, the present invention is not limited to these embodiments, and various modifications and substitutions are made without departing from the gist of the present invention. Can be added.

1 車両システム
10 カメラ
12 レーダ装置
14 LIDAR
16 物体認識装置
100 自動運転制御装置
120 第1制御部
130 認識部
132 自車位置認識部
134 物体位置認識部
140 交通参加者監視部
142 仮ゴール決定部
142A 仮ゴール候補設定部
142B 仮ゴール選択部
144 希望速度推定部
146 力推定部
148 シミュレート部
160 行動計画生成部
180 第2制御部
1 Vehicle system 10 Camera 12 Radar device 14 LIDAR
16 Object recognition device 100 Automatic operation control device 120 First control unit 130 Recognition unit 132 Own vehicle position recognition unit 134 Object position recognition unit 140 Traffic participant monitoring unit 142 Temporary goal determination unit 142A Temporary goal candidate setting unit 142B Temporary goal selection unit 144 Desired speed estimation unit 146 Force estimation unit 148 Simulation unit 160 Action plan generation unit 180 Second control unit

Claims (9)

複数の交通参加者の位置を認識する物体位置認識部と、
前記物体位置認識部の認識結果に基づいて、前記複数の交通参加者のそれぞれが将来に到達しようとする仮ゴールを決定する仮ゴール決定部と、
前記複数の交通参加者のそれぞれの将来の行動を推定するために、移動モデルを用いて、前記複数の交通参加者のそれぞれが前記仮ゴール決定部により決定された仮ゴールに向かう移動過程をシミュレートするシミュレート部と、
を備える将来行動推定装置。
An object position recognition unit that recognizes the positions of multiple traffic participants,
Based on the recognition result of the object position recognition unit, the provisional goal determination unit, which determines the provisional goal that each of the plurality of traffic participants intends to reach in the future,
In order to estimate the future behavior of each of the plurality of traffic participants, a movement model is used to simulate the movement process of each of the plurality of traffic participants toward the provisional goal determined by the provisional goal determination unit. The simulation part to be operated and
A future behavior estimation device equipped with.
前記仮ゴール決定部は、前記複数の交通参加者のそれぞれについて、
前記物体位置認識部により認識された前記複数の交通参加者の位置の履歴と、道路構造を示す情報とに基づいて、複数の仮ゴール候補を設定し、
前記交通参加者が前記複数の仮ゴール候補のそれぞれに向かうシミュレーションを行った結果と、前記交通参加者の姿勢に基づく移動方向との乖離を求め、乖離が最も小さかった仮ゴール候補を、前記仮ゴールとして決定する、
請求項1記載の将来行動推定装置。
The provisional goal determination unit determines each of the plurality of traffic participants.
A plurality of provisional goal candidates are set based on the history of the positions of the plurality of traffic participants recognized by the object position recognition unit and the information indicating the road structure.
The deviation between the result of the simulation in which the traffic participant heads for each of the plurality of provisional goal candidates and the movement direction based on the posture of the traffic participant is obtained, and the provisional goal candidate having the smallest deviation is selected as the provisional goal candidate. Determine as a goal,
The future behavior estimation device according to claim 1.
前記移動モデルは、前記複数の交通参加者のそれぞれに作用する仮想的な力を反映させて、将来の各ステップにおける前記交通参加者の移動過程をシミュレートするものであり、
前記複数の交通参加者の周辺環境に基づいて前記仮想的な力を推定する力推定部を更に備える、
請求項1または2記載の将来行動推定装置。
The movement model simulates the movement process of the traffic participants in each future step by reflecting the virtual force acting on each of the plurality of traffic participants.
A force estimation unit that estimates the virtual force based on the surrounding environment of the plurality of traffic participants is further provided.
The future behavior estimation device according to claim 1 or 2.
前記力推定部は、前記複数の交通参加者のそれぞれに前記仮想的な力を及ぼす影響因子は、それぞれの交通参加者の正面方向を中心とした扇形の範囲に存在する影響因子に限定され、範囲から外れる影響因子は力を及ぼさないものとして、前記仮想的な力を推定する、
請求項3記載の将来行動推定装置。
In the force estimation unit, the influencing factors that exert the virtual force on each of the plurality of traffic participants are limited to the influencing factors existing in a fan-shaped range centered on the front direction of each traffic participant. The hypothetical force is estimated assuming that the influencing factors outside the range do not exert the force.
The future behavior estimation device according to claim 3.
前記力推定部が推定する仮想的な力は、前記交通参加者自身が希望速度で移動しようとして加減速するための力を含み、
前記交通参加者の過去の位置の履歴に基づいて前記希望速度を推定する希望速度推定部を更に備える、
請求項3または4記載の将来行動推定装置。
The virtual force estimated by the force estimation unit includes a force for the traffic participant himself to accelerate or decelerate in an attempt to move at a desired speed.
Further provided is a desired speed estimation unit that estimates the desired speed based on the history of the past positions of the traffic participants.
The future behavior estimation device according to claim 3 or 4.
前記力推定部が推定する仮想的な力は、前記交通参加者の間で互いに反発し合う力を含み、
前記力推定部は、前記複数の交通参加者のうちグループを形成している交通参加者を推定し、同じグループに属すると推定される交通参加者の間では、前記互いに反発し合う力を、同じグループに属すると推定されない交通参加者の間に比して小さくする、
請求項3から5のうちいずれか1項記載の将来行動推定装置。
The virtual force estimated by the force estimation unit includes a force that repels each other among the traffic participants.
The force estimation unit estimates the traffic participants forming a group among the plurality of traffic participants, and among the traffic participants presumed to belong to the same group, the forces that repel each other are exerted. Smaller than among traffic participants who are not presumed to belong to the same group,
The future behavior estimation device according to any one of claims 3 to 5.
請求項1から6のうちいずれか1項記載の将来行動推定装置と、
前記将来行動推定装置により推定される前記複数の交通参加者のそれぞれの将来の行動に基づいて、車両の走行制御を行う運転制御部と、
を備える車両制御装置。
The future behavior estimation device according to any one of claims 1 to 6 and
A driving control unit that controls the running of the vehicle based on the future behavior of each of the plurality of traffic participants estimated by the future behavior estimation device.
Vehicle control device.
コンピュータを用いて実行される将来行動推定方法であって、
複数の交通参加者の位置を認識することと、
前記認識の結果に基づいて、前記複数の交通参加者のそれぞれが将来に到達しようとする仮ゴールを決定することと、
前記複数の交通参加者のそれぞれの将来の行動を推定するために、移動モデルを用いて、前記複数の交通参加者のそれぞれが前記決定された仮ゴールに向かう移動過程をシミュレートすることと、
を備える将来行動推定方法。
A method of estimating future behavior that is executed using a computer.
Recognizing the location of multiple traffic participants and
Based on the result of the recognition, each of the plurality of traffic participants decides a tentative goal to reach in the future.
In order to estimate the future behavior of each of the plurality of traffic participants, a movement model is used to simulate the movement process of each of the plurality of traffic participants toward the determined tentative goal.
Future behavior estimation method.
コンピュータに、
複数の交通参加者の位置を認識することと、
前記認識の結果に基づいて、前記複数の交通参加者のそれぞれが将来に到達しようとする仮ゴールを決定することと、
前記複数の交通参加者のそれぞれの将来の行動を推定するために、移動モデルを用いて、前記複数の交通参加者のそれぞれが前記決定された仮ゴールに向かう移動過程をシミュレートすることと、
を実行させるプログラム。
On the computer
Recognizing the location of multiple traffic participants and
Based on the result of the recognition, each of the plurality of traffic participants decides a tentative goal to reach in the future.
In order to estimate the future behavior of each of the plurality of traffic participants, a movement model is used to simulate the movement process of each of the plurality of traffic participants toward the determined tentative goal.
A program that executes.
JP2020141958A 2019-10-18 2020-08-25 FUTURE BEHAVIOR ESTIMATION DEVICE, VEHICLE CONTROL DEVICE, FUTURE BEHAVIOR ESTIMATION METHOD, AND PROGRAM Active JP7466407B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/068,846 US11756418B2 (en) 2019-10-18 2020-10-13 Device, method, and storage medium
CN202011099712.5A CN112686421B (en) 2019-10-18 2020-10-14 Future behavior estimating device, future behavior estimating method, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019191026 2019-10-18
JP2019191026 2019-10-18

Publications (2)

Publication Number Publication Date
JP2021068423A true JP2021068423A (en) 2021-04-30
JP7466407B2 JP7466407B2 (en) 2024-04-12

Family

ID=75637386

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020141958A Active JP7466407B2 (en) 2019-10-18 2020-08-25 FUTURE BEHAVIOR ESTIMATION DEVICE, VEHICLE CONTROL DEVICE, FUTURE BEHAVIOR ESTIMATION METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP7466407B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113830103A (en) * 2021-09-23 2021-12-24 岚图汽车科技有限公司 Vehicle transverse control method and device, storage medium and electronic equipment
WO2022264962A1 (en) * 2021-06-16 2022-12-22 株式会社デンソー Behavior prediction system, behavior prediction device, behavior prediction method, and behavior prediction program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6429368B2 (en) 2013-08-02 2018-11-28 本田技研工業株式会社 Inter-vehicle communication system and method
JP2017165156A (en) 2016-03-14 2017-09-21 本田技研工業株式会社 Vehicle control system, vehicle control method and vehicle control program
JP2018124663A (en) 2017-01-30 2018-08-09 日立オートモティブシステムズ株式会社 Mobile object predictor
JPWO2019106789A1 (en) 2017-11-30 2019-12-12 三菱電機株式会社 Processing apparatus and processing method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022264962A1 (en) * 2021-06-16 2022-12-22 株式会社デンソー Behavior prediction system, behavior prediction device, behavior prediction method, and behavior prediction program
CN113830103A (en) * 2021-09-23 2021-12-24 岚图汽车科技有限公司 Vehicle transverse control method and device, storage medium and electronic equipment
CN113830103B (en) * 2021-09-23 2023-06-13 岚图汽车科技有限公司 Vehicle transverse control method and device, storage medium and electronic equipment

Also Published As

Publication number Publication date
JP7466407B2 (en) 2024-04-12

Similar Documents

Publication Publication Date Title
US11126186B2 (en) Systems and methods for predicting the trajectory of a road agent external to a vehicle
JP6793845B2 (en) Vehicle control devices, vehicle control methods, and programs
JP6823512B2 (en) Route determination device, vehicle control device, route determination method, and program
JP6768974B2 (en) Vehicle control devices, vehicle control methods, and programs
JP6601696B2 (en) Prediction device, prediction method, and program
JP7048456B2 (en) Learning devices, learning methods, and programs
JP6859239B2 (en) Vehicle control devices, vehicle control methods, and programs
CN113460077B (en) Moving object control device, moving object control method, and storage medium
JP7100998B2 (en) Vehicle controls, vehicle control methods, and programs
JP7048455B2 (en) Learning equipment, simulation systems, learning methods, and programs
CN111094096A (en) Vehicle control device, vehicle control method, and program
JP2021068016A (en) Vehicle controller, vehicle control method and program
JP2020147139A (en) Vehicle control device, vehicle control method, and program
JP2020185946A (en) Vehicle control device, vehicle control method, and program
JP7444680B2 (en) Mobile object control device, mobile object control method, and program
JP7466407B2 (en) FUTURE BEHAVIOR ESTIMATION DEVICE, VEHICLE CONTROL DEVICE, FUTURE BEHAVIOR ESTIMATION METHOD, AND PROGRAM
CN112686421B (en) Future behavior estimating device, future behavior estimating method, and storage medium
JP2021068015A (en) Vehicle control device, vehicle control method, and program
JP2021160531A (en) Vehicle control device, vehicle control method, and program
JP2021068014A (en) Vehicle controller, vehicle control method and program
JP6921692B2 (en) Vehicle control devices, vehicle control methods, and programs
JP7232166B2 (en) Prediction device, vehicle system, prediction method, and program
JP2021160533A (en) Vehicle control device, vehicle control method, and program
JP2021003971A (en) Vehicle control device, vehicle control method and program
JPWO2019163813A1 (en) Vehicle control systems, vehicle control methods, and programs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231010

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240402