JPWO2019106789A1 - Processing apparatus and processing method - Google Patents

Processing apparatus and processing method Download PDF

Info

Publication number
JPWO2019106789A1
JPWO2019106789A1 JP2018520211A JP2018520211A JPWO2019106789A1 JP WO2019106789 A1 JPWO2019106789 A1 JP WO2019106789A1 JP 2018520211 A JP2018520211 A JP 2018520211A JP 2018520211 A JP2018520211 A JP 2018520211A JP WO2019106789 A1 JPWO2019106789 A1 JP WO2019106789A1
Authority
JP
Japan
Prior art keywords
vehicle
person
surrounding
moving image
behavior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018520211A
Other languages
Japanese (ja)
Inventor
利貞 毬山
利貞 毬山
貴之 井對
貴之 井對
佳 太田
佳 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2019106789A1 publication Critical patent/JPWO2019106789A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Abstract

自車の周辺の動画像を撮像するカメラ1の動画像を記憶するメモリ12と、記憶された動画像から自車の経路を決定するための処理を行う処理部13とを備え、処理部は、動画像の一時点を用いて行動予測を決定するために一時点よりも過去の区間から周辺車両と人物のカテゴリを識別し、識別された周辺車両と人物のカテゴリに応じて自車、周辺車両と人物の行動予測を決定することで、事前にカテゴライズされた周辺車両、人物に応じた行動ルールを用いて行動予測されるため、より確からしい予測をおこなうことができる。The camera 1 includes a memory 12 that stores a moving image of the camera 1 that captures a moving image around the own vehicle, and a processing unit 13 that performs processing for determining a route of the own vehicle from the stored moving images. In order to determine the behavior prediction using one point of the moving image, the categories of the surrounding vehicles and the person are identified from the section earlier than the temporary point, and the own vehicle and the surroundings are determined according to the identified surrounding vehicle and the category of the person. By determining the behavior prediction of the vehicle and the person, the behavior is predicted using the behavior rules according to the surrounding vehicles and the person categorized in advance, so that more reliable prediction can be performed.

Description

この発明は自動運転または自動運転支援に資する処理装置及び処理方法に関するものである。   The present invention relates to a processing apparatus and a processing method that contribute to automatic driving or automatic driving support.

自車両の操作に応じて自車両の挙動を予測する自車モデル、所定の位置関係を満たす車両の挙動に応じて他車両の挙動を予測する他車モデル、を組み合わせることで、自車両の行動の影響を受けて自車両および周囲の他車両からなる車群に生じる未来の挙動を複数予測することによって、現在時刻から未来時刻までの一連の推奨操作を提示している。(特許文献1参照)   By combining the own vehicle model that predicts the behavior of the own vehicle according to the operation of the own vehicle and the other vehicle model that predicts the behavior of the other vehicle according to the behavior of the vehicle that satisfies the predetermined positional relationship, A series of recommended operations from the current time to the future time is presented by predicting a plurality of future behaviors that occur in the vehicle group consisting of the host vehicle and other surrounding vehicles under the influence of the vehicle. (See Patent Document 1)

走行車の自動走行化では人との共存が大きな課題である。例えば自動車の自動運転の場合には、周辺ドライバーの特性によって同じ運動制御を行った場合でも、結果が異なる状況が考えられる。一例をあげると、高速道路の走行中に車線変更のため方向指示ウィンカーを出した場合、変更先の車線の後方を走行する自動車の挙動はドライバーの個体差によって大きく異なる。フォークリフトとAGVが混在するような配送センターにおいても、同様の現象は発生する。このような人と自動台車が混在する環境下において、最適な自動運転を実現するためには、周辺の人が操作する物体・人自体の行動を予見するような機構が必要になる。先行文献1においては、ある時点からの複数の予測をおこなうものの、もっとも確からしい予測と異なると判別するまでにはタイムラグが存在することとなり、また、確からしい予測と異なる確率は小さくない。   Coexistence with people is a major issue in the automatic driving of vehicles. For example, in the case of automatic driving of a car, even if the same motion control is performed according to the characteristics of the peripheral driver, there may be situations where the results are different. As an example, when a direction indicator winker is issued to change lanes while driving on an expressway, the behavior of an automobile traveling behind the lane to be changed varies greatly depending on individual differences of drivers. The same phenomenon occurs in distribution centers where forklifts and AGVs coexist. In order to realize optimum automatic driving in such an environment where people and automatic trolleys coexist, a mechanism for predicting the behavior of objects / people themselves operated by surrounding people is required. In the prior art document 1, although a plurality of predictions from a certain point in time are performed, there is a time lag until it is determined that the prediction is different from the most likely prediction, and the probability that the prediction is different from the certain prediction is not small.

特開2003−228800号公報JP 2003-228800 A

本発明は上記の課題を解決するためになされたものであって、より確からしい予測をおこなうことを目的とする。   The present invention has been made to solve the above-described problems, and an object of the present invention is to make a more reliable prediction.

この発明に係る処理装置は、自車の周辺の動画像を撮像するカメラの動画像を記憶するメモリと、記憶された動画像から自車の経路を決定するための処理を行う処理部とを備え、処理部は、動画像の一時点を用いて行動予測を決定するために一時点よりも過去の区間から周辺車両と人物のカテゴリを識別し、識別された周辺車両と人物のカテゴリに応じて自車、周辺車両と人物の行動予測を決定する。   The processing device according to the present invention includes a memory that stores a moving image of a camera that captures a moving image around the own vehicle, and a processing unit that performs a process for determining the route of the own vehicle from the stored moving image. The processing unit identifies a category of the surrounding vehicle and the person from the section past the temporary point in order to determine a behavior prediction using a point in time of the moving image, and according to the identified category of the surrounding vehicle and the person To determine the behavior prediction of the vehicle, surrounding vehicles and people.

この発明によれば、識別された周辺車両と人物のカテゴリに応じて自車、周辺車両と人物の行動予測を決定することで、事前にカテゴライズされた周辺車両、人物に応じた行動ルールを用いて行動予測されるため、より確からしい予測をおこなうことができる。   According to this invention, by determining the behavior prediction of the own vehicle, the surrounding vehicle and the person according to the identified surrounding vehicle and the category of the person, the behavior rule corresponding to the surrounding vehicle and the person categorized in advance is used. Therefore, a more reliable prediction can be made.

実施の形態1における処理装置のハードウエア構成図。FIG. 2 is a hardware configuration diagram of the processing apparatus according to the first embodiment. 実施の形態1の処理部のフローチャート。3 is a flowchart of a processing unit according to the first embodiment. 図2のフローチャートの補足説明図。FIG. 3 is a supplementary explanatory diagram of the flowchart of FIG. 2. 実施の形態1における白線検知のためのテンプレートの一例。An example of the template for the white line detection in Embodiment 1. FIG. 実施の形態1における俯瞰図の一例。3 is an example of an overhead view in Embodiment 1. FIG. 実施の形態1におけるシミュレーション結果、車線変更を行った例。The simulation result in Embodiment 1, the example which performed lane change. 実施の形態1におけるシミュレーション結果、車線変更を行わなかった例。The simulation result in Embodiment 1, the example which did not perform lane change. CNNを用いてシミュレーションを行う際の自車、周辺車両、人物の状態Stを画像で示す例。The example which shows the state St of the own vehicle at the time of performing a simulation using CNN, a surrounding vehicle, and a person with an image. 実施の形態1におけるCNNを用いてシミュレーションを行った出力図の例。An example of an output diagram in which a simulation is performed using the CNN in the first embodiment. 図9から所定のフレーム後の画像。The image after a predetermined frame from FIG.

実施の形態1.
自車(自動車、AGV、自走フォークリフト等)を制御する上で、人との共存は重要な要素である。本発明では、人、人の操作する自動車やフォークリフト、自転車などの人が操作する走行物体(周辺車両)と、制御対象である自車が共存する環境下において、人との親和性が高く効率のよい自車の制御を開発すること目標としている。その実現のため、周辺の人も含む移動体の動作特性を推定し、その動作特性と自車の方向指示表示や移動方向などの動作との相互作用をシミュレーションし、その結果予測される将来の状況を検討することにより、各時刻における最も適切な制御方法を実現する。
以下、この発明の実施の形態について説明する。
Embodiment 1 FIG.
Coexistence with people is an important factor in controlling a vehicle (automobile, AGV, self-propelled forklift, etc.). According to the present invention, human compatibility and efficiency are improved in an environment in which a person, a vehicle operated by a person, a forklift, a bicycle, or other traveling object (peripheral vehicle) operated by the person and the vehicle to be controlled coexist. The goal is to develop a good vehicle control. To achieve this, we estimate the operating characteristics of moving objects, including those in the vicinity, and simulate the interaction between the operating characteristics and the movement of the vehicle's direction indication display and moving direction. By examining the situation, the most appropriate control method at each time is realized.
Embodiments of the present invention will be described below.

実施の形態1においては、自動車、AGV、自走フォークリフトのように動力を用いて自走する走行台車である自車に対して、センサを用いて周辺環境を認識し、周辺に共存する人が操作する走行台車である周辺車両(自動二輪、自転車も含)の操作、と人の動きの相互作用を考慮しながら、自車あるいはシステム全体の効率をあげるための自車の制御を実現することを目的とし、周辺車両を観測することで、各車両の動作カテゴリを推定し、そのカテゴリに基づいて最適な自車の車両制御を実現し、周辺車両に対して、走行カテゴリ分けを行い、そのカテゴリに基づいて予測を行う。その際に、自車の制御パターンを数種類用意し、それぞれの予測結果を比較し、将来にもっともよい状況になる制御パターンを選択することについて説明する。一例として自動車の例で説明する。   In the first embodiment, with respect to the own vehicle that is a traveling cart that self-propels using power such as an automobile, an AGV, and a self-propelled forklift, a person who coexists in the vicinity recognizes the surrounding environment using a sensor. Realize the control of the vehicle or the entire system to improve the efficiency of the entire system, taking into account the interaction between the movement of the surrounding vehicles (including motorcycles and bicycles) and the movement of people, which is the traveling carriage to be operated By observing surrounding vehicles, the operation category of each vehicle is estimated, optimal vehicle control of the own vehicle is realized based on the category, and traveling categories are classified for surrounding vehicles. Make predictions based on categories. At that time, a description will be given of preparing several types of control patterns of the own vehicle, comparing the respective prediction results, and selecting the control pattern that provides the best situation in the future. An example of an automobile will be described as an example.

図1は、実施の形態1における処理装置のハードウエア構成図である。
構成を説明する。自車にはカメラ1を有している。カメラ1は、基本的には前方、側方、後方が撮像可能なように設置されている。そのため、カメラ1は自車に複数台設置されることで前方、側方、後方が撮像可能となるようにしてもよいし、一台で前方、側方、後方が撮像可能となる機能を有してもよい。
距離センサ2は、周辺車両と自車との距離を計測できる装置を持つ。すなわち、前方、側方、後方について周辺車両と自車との距離を計測できる機能を有する。方式としては、レーザやミリ波等を用いたものが一般的である。尚、距離を算出する上では、ステレオタイプのカメラでも機能上は賄えるため、カメラ1の複数台の設置によって周辺移動体と自車との距離を計測が可能となれば、ハードウエアとしての距離センサ2は不要となる。
FIG. 1 is a hardware configuration diagram of the processing apparatus according to the first embodiment.
The configuration will be described. The own vehicle has a camera 1. The camera 1 is basically installed so that the front, side, and back can be imaged. Therefore, a plurality of cameras 1 may be installed in the vehicle so that the front, side, and rear can be imaged, and the front, side, and rear can be imaged with one camera. May be.
The distance sensor 2 has a device that can measure the distance between the surrounding vehicle and the own vehicle. That is, it has a function of measuring the distance between the surrounding vehicle and the host vehicle for the front, the side, and the rear. As a method, a method using a laser, a millimeter wave, or the like is common. In calculating the distance, even a stereo-type camera can cover the function, so if it is possible to measure the distance between the surrounding moving body and the vehicle by installing multiple cameras 1, the distance as hardware The sensor 2 becomes unnecessary.

車速センサ3は自車の車速を計測するセンサ3である。一般的には、自動車のエンジンやモータ、駆動軸の回転などから車速を計測する場合が多いが、これもカメラ1の機能及び設置方法によっては車速センサ3の機能を賄えるため、その場合は、ハードウエアとしての車速センサ3は不要となる。
ヨーレートセンサ4は、自車の車両の鉛直軸回りの回転角速度(ヨーレート)、を検出するためのセンサである。これもカメラ1の機能(動画が撮影されフレームごとの動きベクトルの差分を計測すること)によってはヨーレートセンサ4の機能を賄えるため、その場合は、ハードウエアとしてのヨーレートセンサ4は不要となる。
The vehicle speed sensor 3 is a sensor 3 that measures the vehicle speed of the host vehicle. In general, the vehicle speed is often measured from the rotation of the engine and motor of the automobile, the drive shaft, etc., but this also provides the function of the vehicle speed sensor 3 depending on the function of the camera 1 and the installation method. The vehicle speed sensor 3 as hardware is not necessary.
The yaw rate sensor 4 is a sensor for detecting a rotational angular velocity (yaw rate) around the vertical axis of the vehicle of the host vehicle. Also in this case, the function of the yaw rate sensor 4 can be provided by the function of the camera 1 (moving images are taken and the difference of motion vectors for each frame is measured). In this case, the yaw rate sensor 4 as hardware is not necessary.

舵角センサ5は、自車のハンドルの回転角度を計測するためのセンサで、このセンサの値によって、自車の回転速度を算出することができる。
アクセル/ブレーキセンサ6は、自車のアクセル開度及びブレーキ開度の情報を計測するためのものである。人が運転する場合はアクセルセンサとブレーキセンサが別々に搭載される場合が多い。ここでは将来的な自動運転を想定し、自動車の加速度、減速度を計測するという観点から説明する。また、ブレーキ開度がある場合は、自車のテールランプが発光する。
The rudder angle sensor 5 is a sensor for measuring the rotation angle of the steering wheel of the own vehicle, and the rotation speed of the own vehicle can be calculated from the value of this sensor.
The accelerator / brake sensor 6 is for measuring information on the accelerator opening and the brake opening of the host vehicle. When a person drives, an accelerator sensor and a brake sensor are often mounted separately. Here, a description will be given from the viewpoint of measuring the acceleration and deceleration of a car assuming future automatic driving. When there is a brake opening, the tail lamp of the own vehicle emits light.

ドライバスイッチ7は、自車が周辺車両や人に対して情報を与えるための機器(方向指示器、ハザードランプ、前方ライト)のスイッチに該当する。   The driver switch 7 corresponds to a switch of a device (direction indicator, hazard lamp, front light) for the vehicle to give information to surrounding vehicles and people.

上記で説明したカメラ1、センサ2〜6及びドライバスイッチ7の情報を処理装置10の入力インターフェース11がまずその情報を受信するとともに、メモリ12に送出する。処理部13は、メモリ12の情報をもとに処理を行い、最終的には自車が今後走行するベース経路を選定し、出力インターフェース14を経由して出力される。出力された情報に基づいて、自車は、自動運転のためにハンドル、アクセル、ブレーキ、ドライバスイッチ類を制御する、もしくは半自動運転等のためにドライバにそのベース経路を画像表示装置等(図示しない)を経由して提示する。
尚、処理回路は、処理回路がハードウエアである場合、処理回路は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、または、これらを組み合わせたものが該当する。
さらに、この処理回路は内部で処理することを目的に記載しているが、全てまたは一部を通信回線を経由したクラウド側で処理し、結果を通信回線を経由して受信するように構成してもよい。
The information of the camera 1, the sensors 2 to 6, and the driver switch 7 described above is first received by the input interface 11 of the processing device 10 and sent to the memory 12. The processing unit 13 performs processing based on information in the memory 12, finally selects a base route on which the vehicle will travel in the future, and outputs it via the output interface 14. Based on the output information, the vehicle controls the steering wheel, accelerator, brake, driver switches for automatic driving, or the base route to the driver for semi-automatic driving, etc. (not shown) ) To present.
When the processing circuit is hardware, the processing circuit is, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC, an FPGA, or a combination thereof. Is applicable.
Furthermore, although this processing circuit is described for the purpose of processing inside, it is configured so that all or part of the processing circuit is processed on the cloud side via the communication line and the result is received via the communication line. May be.

次に図1の処理部13が行う処理について説明する。
図2は実施の形態1の処理部のフローチャートである。図3は図2のフローチャートの補足説明図である。
S201において、カメラ1を用いて自車周辺の所定のフレームレートをもつ動画を所定の時間(例えば数秒〜数十秒程度)撮影する。その際にカメラ1以外の距離センサ2、車速センサ3、ヨーレートセンサ4、舵角センサ5、アクセル/ブレーキセンサ6、ドライバスイッチ7のデータを取得してもよい。このステップの動画の撮影の際に自車が何かしらのアクション、すなわち、ハンドル、アクセル、ブレーキ、ドライバスイッチ類をドライバが制御、または自動で制御した情報(以下、自車制御情報とする)と、その後数秒〜数十秒程度のカメラ1、距離センサ2、車速センサ3、ヨーレートセンサ4、舵角センサ5、アクセル/ブレーキセンサ6、ドライバスイッチ7のデータを取得しておくとよい。理由は後述する。
Next, processing performed by the processing unit 13 in FIG. 1 will be described.
FIG. 2 is a flowchart of the processing unit according to the first embodiment. FIG. 3 is a supplementary explanatory diagram of the flowchart of FIG.
In S201, the camera 1 is used to photograph a moving image having a predetermined frame rate around the vehicle for a predetermined time (for example, about several seconds to several tens of seconds). At that time, data of the distance sensor 2, vehicle speed sensor 3, yaw rate sensor 4, rudder angle sensor 5, accelerator / brake sensor 6, and driver switch 7 other than the camera 1 may be acquired. When the video of this step is shot, the vehicle controls some action, that is, information that the driver controls or automatically controls the steering wheel, accelerator, brake, and driver switches (hereinafter referred to as vehicle control information), Thereafter, data of the camera 1, the distance sensor 2, the vehicle speed sensor 3, the yaw rate sensor 4, the steering angle sensor 5, the accelerator / brake sensor 6, and the driver switch 7 may be acquired for several seconds to several tens of seconds. The reason will be described later.

ステップS202において、障害物、車線、周辺車両、人物の特定を行う。
障害物の検出は、例えば距離センサ2を用いて近接する障害物を検出する。例えば複数のレーザ光を自車の一部の方向または全周囲方向に照射することで得てもよいし、カメラ1の画像から計測できるベクトルの推移情報などから検出することができる。または、図示していないが、ナビゲーションシステム等に用いられているマップ画像などからもステップS201の入力信号処理情報として取得し用いることができる。また、道路脇の段差、ガードレールや信号等についてはカメラ画像に対するテンプレートマッチングを行うことでもよい。
In step S202, an obstacle, a lane, a surrounding vehicle, and a person are specified.
The obstacle is detected by detecting a nearby obstacle using the distance sensor 2, for example. For example, it may be obtained by irradiating a plurality of laser beams in a part of the vehicle or all around the vehicle, or it can be detected from vector transition information that can be measured from the image of the camera 1. Alternatively, although not shown, it can be acquired and used as input signal processing information in step S201 from a map image or the like used in a navigation system or the like. Further, template matching with respect to camera images may be performed for roadside steps, guardrails, signals, and the like.

車線の検出は、カメラ1の画像から白線を検知することで検知できる。また、例えば、図4は実施の形態1における白線検知のためのテンプレートの一例を示しており、図3の(a)から(e)に示すようなテンプレートとカメラ画像のマッチングを行うことで行われる。マッチングに際しては、カメラ画像をカメラ1の位置に基づいて上から見たテンプレートに合うよう変形してからマッチングするか、テンプレートをカメラ画像に合うよう変形しておこなうか、いずれかの処理を行う必要がある。テンプレートの代わりに上記で説明したマップ画像等をもちいてもよい。   The lane can be detected by detecting a white line from the image of the camera 1. Further, for example, FIG. 4 shows an example of a template for white line detection in the first embodiment, which is performed by matching the template and the camera image as shown in FIGS. Is called. When matching, it is necessary to perform either processing after deforming the camera image so as to match the template viewed from above based on the position of the camera 1 or by deforming the template so as to match the camera image. There is. The map image described above may be used instead of the template.

周辺車両の検出は、主にカメラ1または距離センサ2、またはその両方にて行われる。
カメラの場合は、エッジ検出を行った後、比較的近距離の場合はオプティカルフロー(画像の一部についてのフレーム単位の動きベクトル)を用いて検出する方法などがある。 しかし、100メートル以上前方の場合はオプティカルフローが有効ではない場合もあり、カメラがとらえる100メートル以上先の道路上の領域は小さいため、画素の変化を抽出しやすいDoG(Difference of Gaussian)フィルタ等をもちいてエッジを抽出し、100メートル以上先の道路上の領域のみテンプレートマッチングを行うことで検出する方法を用いてもよい。上記は100メートル以上と記載したが、オプティカルフローでとらえられる周辺車両の先方側の限界と連動してもよい。
The detection of surrounding vehicles is mainly performed by the camera 1 or the distance sensor 2 or both.
In the case of a camera, after performing edge detection, there is a method of detecting by using an optical flow (a motion vector in a frame unit for a part of an image) in a relatively short distance. However, the optical flow may not be effective in front of 100 meters or more, and the DoG (Difference of Gaussian) filter that easily extracts pixel changes is small because the area on the road beyond 100 meters that the camera can capture is small. A method may be used in which edges are extracted by using and template matching is performed only on an area on a road 100 meters or more ahead. Although the above is described as 100 meters or more, it may be linked with the limit on the front side of the surrounding vehicle that can be captured by the optical flow.

人物の特定については、カメラ1の画像から例えば道路上(道路脇の段差または白線、ガードレールの内側と認識されるエリア)と認識されるエリアについてテンプレートレートマッチングを行う手法等がある。   For example, there is a method of performing template rate matching on an area recognized from the image of the camera 1 on the road (an area recognized as a step or white line on the road or the inside of the guard rail) from the image of the camera 1.

次にステップS203において、検出された周辺車両、人物の属性の特定を行う。
周辺車両、人物の属性の特定とは、その周辺車両、人物の振る舞いをカテゴライズするもので、例えば、周辺車両の場合だと、カテゴリA:乱暴な車、カテゴリB:一般的な車、カテゴリC:穏やかな車などがあげられる。これらのカテゴリはあくまで命名ラベルであり、それぞれのカテゴリに対して、車両最高速度、車両の加速度、車間距離、車線変更頻度などの車の特性を特定できる数値パラメータが紐ついている。人物の場合、走っていると推定される速度の場合もしくは子供と推定される場合は道路への飛び出しや信号無視可能性が高いとしてカテゴリAにカテゴライズされる。他の場合は道路への飛び出しや信号無視可能性が小さいとしてカテゴリBにカテゴライズされる。
さらに、周辺車両の検出後、俯瞰画像へ投影する前に、車両の画像情報、特徴量、及び直近の動作からも、車両の属性の特定することができる。画像情報以外に入力する特徴量として「車種」、「車体色」、「ナンバープレート」などがあげられるが、システムの構成によってはこれらを使用しなくても問題ない。
Next, in step S203, the attributes of the detected surrounding vehicle and person are specified.
The identification of the attributes of surrounding vehicles and persons categorizes the behavior of the surrounding vehicles and persons. For example, in the case of surrounding vehicles, Category A: Rough car, Category B: General car, Category C : A gentle car. These categories are merely naming labels, and numerical parameters capable of specifying vehicle characteristics such as the maximum vehicle speed, vehicle acceleration, inter-vehicle distance, and lane change frequency are associated with each category. In the case of a person, if the speed is estimated to be running or if the person is estimated to be a child, the person is categorized as category A because the possibility of jumping out on the road or ignoring the signal is high. In other cases, it is categorized as category B because the possibility of jumping out on the road or ignoring the signal is small.
Furthermore, after detecting the surrounding vehicle and before projecting it onto the bird's-eye view image, the attribute of the vehicle can be specified from the image information of the vehicle, the feature amount, and the latest operation. “Features”, “vehicle color”, “number plate”, and the like can be given as feature quantities to be input in addition to image information, but there is no problem even if these are not used depending on the system configuration.

この周辺車両の振る舞いをカテゴライズするために、直近の挙動情報(動画)を使用する。一つの求め方として、CNN(Convolutional Neural Network)とRNN(Recurent Neural Network)を組合わせた手法が一般的にあげられる。CNNは主に、テンプレートマッチングなどの画像認識に向いており、まず周辺車両への特定に用いられる。次にRNNは時系列データの扱う時系列分析を得意としている。したがって、CNNとRNNを組み合わせることで、動画によって得られた各フレームごとの静止画を入力することでまずS202の周辺車両を認識し、動画(例えば5秒)を観測することで、より精度よく周辺車両の振る舞いをカテゴライズすることができる。例えば、周辺車両が自車よりも速度差が大きくまたは車線変更が多い場合はカテゴリA:乱暴な車にカテゴライズされやすくその逆はカテゴリC:穏やかな車とされる、などがある。   In order to categorize the behavior of the surrounding vehicles, the latest behavior information (moving image) is used. As one method of obtaining, there is generally a technique combining CNN (Convolutional Neural Network) and RNN (Recurent Neural Network). CNN is mainly suitable for image recognition such as template matching, and is first used for identification to surrounding vehicles. Next, RNN is good at time series analysis that handles time series data. Therefore, by combining CNN and RNN, by inputting the still image for each frame obtained by the moving image, first, the surrounding vehicle in S202 is recognized, and the moving image (for example, 5 seconds) is observed more accurately. The behavior of surrounding vehicles can be categorized. For example, when the surrounding vehicle has a larger speed difference or more lane changes than the own vehicle, Category A: it is easy to be categorized as a rough car, and vice versa, Category C: a calm car.

上記と同様の方法で二輪車(周辺車両に属する)、自転車(周辺車両に属する)、人などもそれぞれのカテゴリを用意し、周辺に存在する移動体についてカテゴリ化することができる。これらでは、例えば、歩道での速度や蛇行の大小もカテゴリを左右する要素となりえる。   In the same way as described above, two-wheeled vehicles (belonging to surrounding vehicles), bicycles (belonging to surrounding vehicles), people, and the like can also prepare respective categories and categorize moving objects existing in the vicinity. In these, for example, the speed on the sidewalk and the size of the meander can be factors that determine the category.

次にS204において俯瞰図を生成する。
図5は実施の形態1における俯瞰図の一例である。二車線の両側には壁があり、左後方に自車がある。自車からみて右側方及び前方に周辺車両があり、共に前方(図の上側方向)に向いて走行している。
俯瞰図は、ステップS202及びステップS203で処理された情報に基づいて、カメラ画像をベースにカメラ1の位置に基づいて上から見た画像に合うよう変形することで作成されている。
Next, an overhead view is generated in S204.
FIG. 5 is an example of an overhead view in the first embodiment. There are walls on both sides of the two lanes, and the vehicle is on the left rear. There are surrounding vehicles on the right side and the front side when viewed from the own vehicle, and both are traveling forward (upward in the figure).
The bird's-eye view is created based on the information processed in steps S202 and S203 by deforming the camera image based on the position of the camera 1 to fit the image viewed from above.

次にS205においてステップS204に基づいて作成された俯瞰図に基づいてシミュレーションを実施し、報酬量Qを算出する。
シミュレーションは、特定された障害物、車線、周辺車両(位置、ベクトル、加速度ベクトル)、人物(位置、ベクトル、加速度ベクトル)と、自車の制御情報と、シミュレーションに用いるモデルに基づいて障害物、車線、周辺車両(位置、ベクトル、加速度ベクトル)、人物(位置、ベクトル、加速度ベクトル)の将来の位置がシミュレーションされる。ニューラルネットワークでシミュレーションする場合は、例えば、特定のフレームの障害物、車線、周辺車両(位置、ベクトル、加速度ベクトル)、人物(位置、ベクトル、加速度ベクトル)を入力層とし、次フレームの障害物、車線、周辺車両(位置、ベクトル、加速度ベクトル)、人物(位置、ベクトル、加速度ベクトル)が出力層となる。
Next, in S205, a simulation is performed based on the overhead view created based on step S204, and the reward amount Q is calculated.
The simulation is based on the identified obstacle, lane, surrounding vehicle (position, vector, acceleration vector), person (position, vector, acceleration vector), own vehicle control information, and the model used for the simulation, Future positions of lanes, surrounding vehicles (position, vector, acceleration vector), and person (position, vector, acceleration vector) are simulated. When simulating with a neural network, for example, an obstacle of a specific frame, a lane, a surrounding vehicle (position, vector, acceleration vector), a person (position, vector, acceleration vector) as an input layer, an obstacle of the next frame, Lanes, surrounding vehicles (position, vector, acceleration vector), and person (position, vector, acceleration vector) are output layers.

図3に示されるように、シミュレーションを開始するフレームの状態St(障害物、車線、周辺車両、人物、自車制御情報)に対し行動a(周辺車両、人物、自車制御情報)を与えることで次フレーム(所定のフレーム後のフレームも含)の俯瞰図を生成し、次フレームの状態St+1(障害物、車線、周辺車両、人物と、自車制御情報)とする。これを数秒から数十秒繰り返す。さらにこの繰り返しを行動ルールの数だけ行う。行動ルールには、自車制御情報のみ変化をあたえる場合もあれば、周辺車両や人物の行動が変化する(周辺車両であれば、加速、減速、車線変更、人物であれば横断歩道の飛び出し、すいている道路での横断等)場合、その両方の場合も含む。
例えばシミュレーションされた二例について図6、図7に示す。図6は実施の形態1におけるシミュレーション結果、車線変更を行った例を示し、図7は実施の形態1におけるシミュレーション結果、車線変更を行わなかった例を示している。
As shown in FIG. 3, the action a (peripheral vehicle, person, own vehicle control information) is given to the state St (obstacle, lane, surrounding vehicle, person, own vehicle control information) of the frame for starting the simulation. Then, an overhead view of the next frame (including a frame after a predetermined frame) is generated, and the state of the next frame is St + 1 (obstacle, lane, surrounding vehicle, person, and own vehicle control information). This is repeated for several seconds to several tens of seconds. Furthermore, this repetition is performed for the number of action rules. The behavior rule may change only the own vehicle control information, or the behavior of surrounding vehicles or people changes (according to surrounding vehicles, acceleration, deceleration, lane change, if a person jumps out of a pedestrian crossing, In the case of crossing on a busy road, etc.) both cases are included.
For example, two simulated examples are shown in FIGS. FIG. 6 shows an example in which the simulation result and lane change are made in the first embodiment, and FIG. 7 shows an example in which the lane change is not made and the simulation result in the first embodiment.

図6は、左から(a)〜(d)までしめされており、これは(a)を基準とした所定のフレーム数ごとの推移を示している。
図7は、左から(a)〜(d)までしめされており、これは(a)を基準とした所定のフレーム数ごとの推移を示している。
FIG. 6 shows (a) to (d) from the left, and this shows the transition for each predetermined number of frames with reference to (a).
FIG. 7 shows from (a) to (d) from the left, and this shows a transition for each predetermined number of frames with reference to (a).

シミュレーションの行動ルールは可能な限り多く行う必要があるが、動画ベースで撮影された情報に基づく、すなわち自車に対する相対速度をもった状態Stであるため自車、周辺車両、人物の動きに制約が生まれ、行動ルールの数を少なくすることができる。   Although it is necessary to perform as many simulation action rules as possible, it is based on information captured on a moving image basis, that is, a state St having a relative speed with respect to the own vehicle, and is thus restricted to the movement of the own vehicle, surrounding vehicles, and people. Is born, and the number of action rules can be reduced.

また、状態Stのうち、周辺車両、人物については、その振る舞いをステップS203において事前にカテゴライズしている。したがって、ルールの条件についてはそのカテゴライズに沿った行動ルールに絞ることも可能である。あらかじめ、周辺車両(加速、減速、車線変更)がカテゴライズされることでよりよい行動ルールで予測することでき、予測精度を向上させることができる。   In addition, in the state St, the behavior of surrounding vehicles and persons is categorized in advance in step S203. Therefore, the rule conditions can be narrowed down to action rules in accordance with the categorization. By predicting the surrounding vehicles (acceleration, deceleration, lane change) in advance, it is possible to predict with better action rules, and to improve the prediction accuracy.

さらに、シミュレーションを開始するフレームの状態St(障害物、車線、周辺車両、人物と、自車制御情報)のタイミングも、行動ルールを少なくし、後述する行動予測をするうえで重要な要素である。すなわち、もっとも予測が難しいのは、自車制御情報に変化があった、例えばウィンカーをだしたり、ブレーキを踏んだり、アクセルを踏んだり、車線変更を開始したりした(周辺車両や人に対して情報を発信した)際に、周辺車両、人物の行動がもっともらしい行動をとらないケースが少なくない。という点である。
さらに、自車制御情報に変化があってから少なくとも1秒程度経過した時点をシミュレーションを開始するフレームの状態Stとすることで、周辺車両(加速、減速、車線変更)、人物(横断歩道の飛び出し、すいている道路での横断等)の初動を観測でき、その初動にそってカテゴライズされた行動ルールに絞る、といったことも可能である。
Furthermore, the timing of the frame state St (obstacles, lanes, surrounding vehicles, people, and own vehicle control information) at which the simulation is started is also an important factor in reducing behavior rules and predicting behavior described later. . In other words, the most difficult thing to predict is that there has been a change in the vehicle control information, for example, a blinker, a brake, an accelerator, or a lane change is started (for neighboring vehicles and people). When sending information), there are many cases in which the behavior of surrounding vehicles and people does not take plausible behavior. That is the point.
In addition, by setting at least 1 second after the vehicle control information has changed as the frame state St for starting the simulation, the surrounding vehicle (acceleration, deceleration, lane change), person (jumping on the pedestrian crossing) It is also possible to observe the initial motion of a crossing on a road, etc., and to narrow down the action rules categorized according to the initial motion.

また、上記のシミュレーションを行う上で、自車、周辺車両、人物の制御方法を決定する必要がある。この手法として、事前に用意したルールを用いる場合以外にも、CNNなどを用いて制御を決定することも考えられる。その実現方法として、例えば、すべての画像をCNNの入力として与え、自車制御情報を出力とするやり方が考えられる。   Further, in performing the above simulation, it is necessary to determine a control method for the own vehicle, surrounding vehicles, and persons. In addition to the case where rules prepared in advance are used as this method, it is conceivable to determine control using CNN or the like. As an implementation method, for example, a method in which all images are given as CNN inputs and the vehicle control information is output can be considered.

また、上記に記載したようにルールの決定の際だけではなく、上記のシミュレーション自体をCNNを用いて行ってもよい。CNNの第一層目の入力チャネルとして、事前処理として図8に示すように明示的に画像を抽出し入力する手法も考えらえる。図8はCNNを用いてシミュレーションを行う際の自車、周辺車両、人物の状態Stを画像で示す例である。   Further, as described above, the simulation itself may be performed using the CNN in addition to the rule determination. As an input channel of the first layer of CNN, a method of explicitly extracting and inputting an image as shown in FIG. FIG. 8 shows an example of the state St of the host vehicle, surrounding vehicles, and persons when performing a simulation using CNN.

左上側に、左矢印と右矢印の両方によって示されるハザードランプをつけて止まった周辺車両が示されている。周辺車両は、右側前方ドアが開閉しており、そのことを示す右側前方からの右斜め後方への線が描かれている。左上側周辺車両の右側に丸側で示された人物が検出されており、丸のなかの5は時速5キロで進んでいることを示している。また丸の下側に2本、車両後方への矢印がしめされており、例えば右側は方向、左側は加速度ベクトルを示している。すなわち、この丸と検出される人物は、時速5キロで車両後方側に加速しながら進んでいることを示している。   On the upper left side, a surrounding vehicle that has stopped with a hazard lamp indicated by both the left and right arrows is shown. In the surrounding vehicle, the right front door is opened and closed, and a line from the right front to the right diagonal rear is drawn to indicate that. A person indicated by a round side is detected on the right side of the left upper peripheral vehicle, and 5 in the circle indicates that the vehicle is moving at 5 km / h. In addition, two arrows on the lower side of the circle indicate the rearward direction of the vehicle. For example, the right side indicates a direction and the left side indicates an acceleration vector. That is, the person detected as a circle indicates that the person is moving while accelerating toward the vehicle rear side at a speed of 5 km / h.

また、下側に示される自車は同様に右矢印によって示される方向指示が示されるとともに、時速20キロで右前方方向に進むともに、右後方への加速度ベクトルが示されている。すなわち、自車は右側にハンドルを切りつつ時速20キロからさらに減速されることが示されている。さらに自車の左側に右矢印がついており、これが、レーンチェンジしていることを示している。
右上側の周辺車両は、時速40キロで下側を進行方向としてさらに進行方向側へ加速していることが示されている。
このような入力処理を行うことにより、CNNの処理の見える化(運転支援化)が期待できる。計算コストとの兼ね合いを見ながら、二つの手法の組合せあるいは、片方の選択を行うことが可能である。
Similarly, the host vehicle shown on the lower side shows a direction indication indicated by a right arrow, and also proceeds to the right front direction at a speed of 20 km / h, and also shows an acceleration vector to the right rear. That is, it is shown that the own vehicle is further decelerated from 20 km / h with the steering wheel turned to the right. In addition, there is a right arrow on the left side of the vehicle, which indicates that the lane has changed.
It is shown that the surrounding vehicle on the upper right side accelerates further in the traveling direction side with the lower side as the traveling direction at 40 km / h.
By performing such input processing, visualization of CNN processing (driving support) can be expected. It is possible to select a combination of the two methods or one of them while looking at the balance with the calculation cost.

CNNの入力層に入力された画像の出力層もまた入力層と同様の画像として出力することができる。図9は実施の形態1におけるCNNを用いてシミュレーションを行った出力図の例である。図9に示している内容は図8のものと同じである。
図9には、自車から見た対向車や壁の反対側に形成された死角が形成されている。明示的に入力することも可能である。これは、CNNへ入力画像に対するフィルタ画像として死角画像情報を入力することで出力画像として形成させることができ、後述する報酬量Qを計算する際に、死角画像情報を考慮した経路(距離が近い場合は速度が小さい)に対して高い報酬量を与える等を行うことができる。
死角画像情報は自車、周辺車両、人物の位置に応じて変動する。図10は、図9から所定のフレーム後の画像である。したがって、所定のフレーム後の画像に対応した死角画像情報を明示的に入れることもできる。
The output layer of the image input to the input layer of the CNN can also be output as an image similar to the input layer. FIG. 9 is an example of an output diagram in which a simulation is performed using the CNN in the first embodiment. The contents shown in FIG. 9 are the same as those in FIG.
In FIG. 9, blind spots formed on the oncoming vehicle and the opposite side of the wall as seen from the own vehicle are formed. It is also possible to enter it explicitly. This can be formed as an output image by inputting blind spot image information as a filter image with respect to the input image to the CNN. When calculating a reward amount Q described later, a route (distance close to the blind spot image information) is considered. If the speed is small), a high reward amount can be given.
The blind spot image information varies depending on the position of the own vehicle, the surrounding vehicle, and the person. FIG. 10 shows an image after a predetermined frame from FIG. Therefore, blind spot image information corresponding to an image after a predetermined frame can be explicitly entered.

決定された各ルールに対するシミュレーションについて各ルールごとの報酬量Qを算出する。
この評価値の算出方法には様々な手法が考えられる。例えば、移動量を報酬量とする考え方や、他車との車間距離を基に安全性を報酬量とする考え方、またはその両方の合計値などが考えられる。上述したように死角画像情報を考慮した経路(距離が近い場合は速度が小さい)に対して高い報酬量を与えることも考えられる。また報酬量とは別に、シミュレーション完了時刻(今回の例では例えば5秒後の自車周辺状況)環境を評価し、それまでの報酬量と環境評価値との合計値を評価指数と考えることもできる。また、別の実現手法として、人の操作ログが正解であることを前提として報酬量を計算する手法なども考えられる(逆強化学習)。上記の手法のうち、動作パターンを評価できるのであれば、どのような方法を用いても構わない。
A reward amount Q for each rule is calculated for the simulation for each determined rule.
Various methods can be considered as a method of calculating the evaluation value. For example, an idea of using the amount of movement as a reward amount, an idea of using safety as a reward amount based on the inter-vehicle distance from other vehicles, or a total value of both may be considered. As described above, it is also conceivable to give a high reward amount to a route that takes into account the blind spot image information (the speed is small when the distance is short). Separately from the reward amount, the simulation completion time (in this example, for example, the situation around the vehicle after 5 seconds) is evaluated, and the total of the reward amount and the environmental evaluation value up to that time can be considered as the evaluation index. it can. As another realization method, a method of calculating a reward amount on the assumption that a person's operation log is correct may be considered (reverse reinforcement learning). Of the above methods, any method may be used as long as the operation pattern can be evaluated.

図2のステップS206において報酬量Qから行動予測を決定する。
各ルールから最も高い報酬量Qとなるシミュレーション結果である行動予測を暫定的なベース経路として設定する。
In step S206 of FIG. 2, the behavior prediction is determined from the reward amount Q.
Action prediction, which is a simulation result with the highest reward amount Q from each rule, is set as a provisional base route.

ステップS207において、暫定的なベース経路に対し、入力情報からダイレクトに別のCNN情報予測器に入れ、行動を生成する経路も持たせる。すなわち、カメラ1を用いて自車周辺の所定のフレームレートをもつ所定の時間(例えば数秒〜数十秒程度)の動画、距離センサ2、車速センサ3、ヨーレートセンサ4、舵角センサ5、アクセル/ブレーキセンサ6、ドライバスイッチ7のデータを直接CNNを含むニューラルネットの入力層に入力し、出力層に自車制御情報を含んだ経路情報を出力する。   In step S207, the provisional base route is directly input from the input information to another CNN information predictor to have a route for generating an action. That is, a moving image of a predetermined time (for example, about several seconds to several tens of seconds) having a predetermined frame rate around the own vehicle using the camera 1, a distance sensor 2, a vehicle speed sensor 3, a yaw rate sensor 4, a rudder angle sensor 5, an accelerator / The data of the brake sensor 6 and the driver switch 7 are directly input to the input layer of the neural network including CNN, and the route information including the vehicle control information is output to the output layer.

今まで説明したステップS202〜ステップS206から出力された暫定的なベース経路は、モデルを作り込んでいるため、想定されている環境ではか精度よく動作することが期待できるが、ごく限られた、設計者が想定していない状況では、システムを作り込んだがゆえに動作しない可能性もある。そこで、そのような状況では、これらの事前処理を一切行わず、CNNを含むニューラルネットに入力できるデータ形式で入力し、出力である自車制御情報を含んだ経路情報をそのまま用いることで、自動運転の制御に対する安全性の向上を図ることができる。ステップS202〜ステップS206の各処理において、何らかのエラー、もしくは判定のための最低限度の閾値等をこえることが出来なかった場合には、ステップS207のみを用いて出力された経路情報をベース経路として出力する。また、何らかのエラー、もしくは判定のための最低限度の閾値等をこえることがなければ、ステップS202〜ステップS206から出力された暫定的なベース経路をベース経路として決定する。   Since the provisional base route output from Step S202 to Step S206 described so far has built a model, it can be expected to operate with high accuracy in the assumed environment. In a situation that the designer does not assume, it may not work because the system is built. Therefore, in such a situation, without performing any of these pre-processing, it is input in a data format that can be input to a neural network including CNN, and the route information including the own vehicle control information that is output is used as it is. It is possible to improve safety with respect to operation control. In each process of step S202 to step S206, if any error or the minimum threshold value for determination cannot be exceeded, the route information output using only step S207 is output as the base route. To do. Further, if there is no error or the minimum threshold value for determination is exceeded, the provisional base route output from step S202 to step S206 is determined as the base route.

本実施の形態の特徴は、シミュレーションする時点より前の時間の動画を用いて周辺車両、人物のカテゴライズを実施しシミュレーションを行うことである。特に自車から操作情報を提供した一秒後に周辺車両、人物の挙動を見てからシミュレーションを行うことで、より精度よくベース経路を選定できる。   The feature of this embodiment is that the simulation is performed by categorizing surrounding vehicles and persons using a moving image of time before the simulation time point. In particular, the base route can be selected with higher accuracy by performing simulation after looking at the behavior of surrounding vehicles and persons one second after the operation information is provided from the own vehicle.

したがって、実施の形態1において、自車の周辺の動画像を撮像するカメラ1の動画像を記憶するメモリ12と、記憶された動画像から自車の経路を決定するための処理を行う処理部13とを備え、処理部は、動画像の一時点を用いて行動予測を決定するために一時点よりも過去の区間から周辺車両と人物のカテゴリを識別し、識別された周辺車両と人物のカテゴリに応じて自車、周辺車両と人物の行動予測を決定することで、事前にカテゴライズされた周辺車両、人物に応じた行動ルールを用いて行動予測されるため、より確からしい予測をおこなうことができる。   Therefore, in the first embodiment, the memory 12 that stores the moving image of the camera 1 that captures the moving image around the own vehicle, and the processing unit that performs the process for determining the route of the own vehicle from the stored moving image. 13, the processing unit identifies the category of the surrounding vehicle and the person from the section past the temporary point in order to determine the behavior prediction using one time point of the moving image, and the identified surrounding vehicle and the person By predicting the behavior of the vehicle, surrounding vehicles, and people according to the category, the behavior is predicted using behavior rules according to the surrounding vehicles and people that are categorized in advance. Can do.

さらに過去の区間終了より所定時間後に、前記過去の区間中に自車から周辺車両や人物に対して発信された情報と、識別された周辺車両と人物のカテゴリに応じて自車、周辺車両と人物の行動予測を決定することで、事前にカテゴライズされた周辺車両、人物と、その発信された情報に応じた初動と初動に応じた行動ルールを用いて行動予測されるため、より確からしい予測をおこなうことができる。   Further, after a predetermined time from the end of the past section, information transmitted from the own vehicle to the surrounding vehicle or person during the past section, and the own vehicle and the surrounding vehicle according to the identified surrounding vehicle and person category By determining the person's behavior prediction, the behavior is predicted using the pre-categorized surrounding vehicle and person, the initial action according to the transmitted information and the action rule according to the initial action, so a more probable prediction Can be done.

また、動画像の区間から周辺車両と人物のカテゴリを分類する際に画像認識と時系列分析を用いてカテゴリを分類することで、より精度よく周辺車両の振る舞いをカテゴライズすることができる。さらに画像認識にはCNNを、時系列分析にはRNNを用いることができる。   Further, by classifying the categories of the surrounding vehicle and the person from the moving image section using image recognition and time series analysis, it is possible to categorize the behavior of the surrounding vehicle with higher accuracy. Furthermore, CNN can be used for image recognition, and RNN can be used for time series analysis.

また、行動予測を行うための行動ルールについても事前にカテゴライズされた周辺車両、人物と、自車から発信された情報に応じた初動とに応じた行動ルールに限定することができ、行動予測されるまでの処理時間を短くすることができる。   In addition, the behavior rules for performing behavior prediction can be limited to behavior rules according to pre-categorized surrounding vehicles and persons, and initial actions according to information transmitted from the vehicle. It is possible to shorten the processing time until the process is completed.

また、行動ルールごとの行動予測についてニューラルネットを用いて予測するために、入力層を自車、周辺車両、人物の動きについて状態の情報を付加した画像とし、出力層も予測された自車、周辺車両、人物の動きについて状態の情報を付加した画像とすることで、処理の見える化または運転支援化を図ることができる。   In addition, in order to predict behavior prediction for each behavior rule using a neural network, the input layer is an image with state information added to the own vehicle, surrounding vehicles, and the movement of the person, and the output layer is also predicted by the own vehicle, By making an image to which information on the state of surrounding vehicles and people's movements is added, processing can be visualized or driving assistance can be achieved.

また、行動ルールごとの行動予測についてニューラルネットを用いて入力層を自車、周辺車両、人物の動きについて状態の情報を付加した画像に自車からの死角情報を付加することで、より精度よく行動予測をすることができる。   In addition, the neural network is used to predict behavior for each behavior rule, and the blind spot information from the own vehicle is added to the image with the information about the state of the movement of the own vehicle, surrounding vehicles, and people. Can predict behavior.

上記によって最も評価値の高い行動予測が選択されるが、その結果に基づいて制御を開始した際に、周辺車両の挙動が大きくことなる状況が考えられる。例えば、図6の制御を選択した場合、右ウィンカーを出した時点で、予測では周辺車両は速度を維持する状況であったが、実際には初動を観測した後に、図7のように右車線の車が加速をしはじめたとする。このような、予測と実際の挙動が周辺車両の挙動によって変化に対応するため、所定周期でステップS201〜S207までを回し、周辺車両のカテゴリを変更させ、カテゴリに合わせた行動予測を行う必要がある。そのため、予測値と実際の挙動とを常にチェックするような機構を入れる。そして、特にS202においてリアルタイムに障害物、車線、周辺車両、人物、自車制御情報を認識する機能を有しておけば、ステップS203からの周辺車両、人物の属性の特定の変更も即時に変更することが可能である。   Although the action prediction with the highest evaluation value is selected as described above, when the control is started based on the result, there may be a situation in which the behavior of the surrounding vehicle is greatly different. For example, when the control of FIG. 6 is selected, when the right turn signal is issued, the surrounding vehicle maintains the speed in the prediction, but after actually observing the initial movement, the right lane as shown in FIG. Suppose your car started to accelerate. Since such prediction and actual behavior correspond to changes depending on the behavior of surrounding vehicles, it is necessary to rotate steps S201 to S207 in a predetermined cycle, change the category of surrounding vehicles, and perform behavior prediction according to the category. is there. Therefore, a mechanism that always checks the predicted value and the actual behavior is included. And if it has a function of recognizing obstacles, lanes, surrounding vehicles, people, and own vehicle control information in real time in S202, the specific change of the attributes of surrounding vehicles and people from step S203 is also changed immediately. Is possible.

何らかのエラー、もしくは判定のための最低限度の閾値等をこえることが出来なかった場合で、これらの事前処理を一切行わず、CNNを含むニューラルネットに入力できるデータ形式で入力し、出力である自車制御情報を含んだ経路情報をそのまま用いるケースというのは、以下のようなことが考えられる。本実施の形態の特徴は、シミュレーションする時点より前の時間の動画を用いて周辺車両、人物のカテゴライズを実施しシミュレーションを行うことである。特に自車から操作情報を提供した例えば約一秒後以降に周辺車両、人物の挙動を見てからシミュレーションを行うことで、より精度よくベース経路を選定できるというメリットがある一方で、周辺車両や人物の飛び出しでは例えば約一秒以上待っていては適切な制御が間に合わないというデメリットも想定される。したがって自車の前方に認識される障害物、周辺車両または人のいずれかであって、自車との速度差が大きいと認識される場合は、ステップS201から直接ステップS207を出力された経路情報をベース経路として出力する。   If any error or the minimum threshold value for judgment cannot be exceeded, the data is input in the data format that can be input to the neural network including CNN without any preprocessing, and the output is The case where the route information including the vehicle control information is used as it is can be considered as follows. The feature of this embodiment is that the simulation is performed by categorizing surrounding vehicles and persons using a moving image of time before the simulation time point. In particular, there is a merit that the base route can be selected more accurately by performing simulation after seeing the behavior of surrounding vehicles and people, for example, after about 1 second after providing operation information from the own vehicle, For example, there is a demerit that proper control is not in time if the person jumps out, for example, after waiting for about one second or more. Therefore, when the obstacle is recognized in front of the own vehicle, the surrounding vehicle, or the person and it is recognized that the speed difference from the own vehicle is large, the route information output directly from step S201 to step S207. Is output as the base route.

したがって、自車の周辺の動画像を撮像するカメラ1の動画像を記憶する記憶部と、記憶された動画像から自車の経路を決定するための処理を行う処理部13とを備え、処理部は、動画像の区間から周辺車両と人物のカテゴリを識別する区間を有し、識別された周辺車両と人物のカテゴリに応じて自車、周辺車両と人物の行動予測を決定するプロセスよりも早く行動予測を決定できるプロセスを持つことで、周辺車両や人物の飛び出しなどにも適切に行動予測を出力することができる。
Accordingly, a storage unit that stores a moving image of the camera 1 that captures a moving image around the host vehicle and a processing unit 13 that performs a process for determining the route of the host vehicle from the stored moving image are provided. The section has a section for identifying the category of the surrounding vehicle and the person from the section of the moving image, and the process of determining the behavior prediction of the own vehicle, the surrounding vehicle and the person according to the identified surrounding vehicle and the category of the person. By having a process that can quickly determine the behavior prediction, it is possible to appropriately output the behavior prediction even when a surrounding vehicle or a person jumps out.

1:カメラ
2:距離センサ
3:車速センサ、
4:ヨーレートセンサ、
5:舵角センサ
6:アクセル/ブレーキセンサ
7:ドライバスイッチ
10:処理装置
11:入力インターフェース
12:メモリ
13:処理部
14:出力インターフェース
301:入出力インターフェース
1: Camera 2: Distance sensor 3: Vehicle speed sensor,
4: Yaw rate sensor
5: Rudder angle sensor 6: Accelerator / brake sensor 7: Driver switch 10: Processing device 11: Input interface 12: Memory 13: Processing unit 14: Output interface 301: Input / output interface

この発明に係る処理装置は、自車の周辺の動画像を撮像するカメラの動画像を記憶するメモリと、記憶された動画像から自車の経路を決定するための処理を行う処理部とを備え、処理部は、動画像の一時点を用いて行動予測を決定するために一時点よりも過去の区間から周辺車両と人物各々の速度を用いた振る舞いのカテゴリを識別し、識別された周辺車両と人物のカテゴリに応じて自車、周辺車両と人物の行動予測を決定する。 The processing device according to the present invention includes a memory that stores a moving image of a camera that captures a moving image around the own vehicle, and a processing unit that performs a process for determining the route of the own vehicle from the stored moving image. The processing unit identifies a category of behavior using the speed of each of the surrounding vehicle and the person from the section past the temporary point in order to determine a behavior prediction using a point in time of the moving image, and identifies the surrounding Depending on the category of the vehicle and the person, the behavior prediction of the own vehicle, the surrounding vehicles and the person is determined.

この発明に係る処理装置は、自車の周辺の動画像を撮像するカメラの動画像を記憶するメモリと、記憶された動画像から自車の経路を決定するための処理を行う処理部とを備え、処理部は、動画像の一時点を用いて行動予測を決定するために一時点よりも過去の区間から周辺車両と人物各々の速度を用いた振る舞いのカテゴリを識別し、識別された周辺車両と人物のカテゴリに応じて自車、周辺車両と人物の行動予測を決定する、第1のプロセスと、前記第1のプロセスよりも早く行動予測を決定できるとともに、前記動画像から直接ニューラルネットワークを用いて行動予測を決定する第2のプロセス処理を有し、前記自車との速度差が大きい場合に第2のプロセス処理を選択するThe processing device according to the present invention includes a memory that stores a moving image of a camera that captures a moving image around the own vehicle, and a processing unit that performs a process for determining the route of the own vehicle from the stored moving image. The processing unit identifies a category of behavior using the speed of each of the surrounding vehicle and the person from the section past the temporary point in order to determine a behavior prediction using a point in time of the moving image, and identifies the surrounding A first process for determining the behavior prediction of the own vehicle, the surrounding vehicles and the person according to the category of the vehicle and the person, the behavior prediction can be determined earlier than the first process, and a neural network directly from the moving image The second process processing is selected when the behavior prediction is determined using the, and when the speed difference from the own vehicle is large .

Claims (8)

自車の周辺の動画像を撮像するカメラの動画像を記憶するメモリと、記憶された前記動画像から自車の経路を決定するための処理を行う処理部とを備え、処理部は、前記動画像の一時点を用いて行動予測を決定するために前記一時点よりも過去の区間から周辺車両と人物のカテゴリを識別し、識別された前記周辺車両と前記人物のカテゴリに応じて自車、前記周辺車両と前記人物の行動予測を決定する、処理装置。   A memory that stores a moving image of a camera that captures a moving image around the own vehicle, and a processing unit that performs a process for determining the route of the own vehicle from the stored moving image, In order to determine a behavior prediction using a point in time of a moving image, a category of a surrounding vehicle and a person is identified from a section before the temporary point, and the own vehicle is determined according to the identified surrounding vehicle and the category of the person A processing device for determining behavior predictions of the surrounding vehicle and the person. 前記処理部は前記過去の区間の終了より所定時間後に、前記過去の区間中に前記自車から前記周辺車両や前記人物に対して発信された情報と、識別された前記周辺車両と前記人物のカテゴリに応じて前記自車、前記周辺車両と前記人物の行動予測を決定する、請求項1に記載の処理装置。   The processing unit, after a predetermined time from the end of the past section, information transmitted from the own vehicle to the surrounding vehicle and the person during the past section, and the identified surrounding vehicle and the person The processing device according to claim 1, wherein behavior prediction of the own vehicle, the surrounding vehicle, and the person is determined according to a category. 前記処理部は、前記動画像の区間から前記周辺車両と前記人物のカテゴリを分類する際に画像認識と時系列分析を用いてカテゴリを分類する、請求項1または2に記載の処理装置。   The processing device according to claim 1, wherein the processing unit classifies the category using image recognition and time series analysis when classifying the category of the surrounding vehicle and the person from the section of the moving image. 前記処理部は、行動予測を行うための行動ルールについても事前にカテゴライズされた前記周辺車両、前記人物と、前記自車から発信された情報に応じた初動と、に応じた行動ルールに限定する、請求項1乃至3のいずれかに記載の処理装置。   The processing unit also limits action rules for predicting actions to action rules according to the surrounding vehicle, the person, and the initial action according to information transmitted from the own vehicle. The processing apparatus according to claim 1. 前記処理部は、前記行動ルールごとの行動予測についてニューラルネットを用いて予測するために、入力層を前記自車、前記周辺車両、前記人物の動きについて状態の情報を付加した画像とし、出力層も予測された前記自車、前記周辺車両、前記人物の動きについて状態の情報を付加した画像とする、請求項4に記載の処理装置。   In order to predict behavior prediction for each behavior rule using a neural network, the processing unit uses the input layer as an image to which state information is added regarding the movement of the host vehicle, the surrounding vehicle, and the person, and an output layer The processing apparatus according to claim 4, wherein a state information is added to the predicted movement of the host vehicle, the surrounding vehicle, and the person. 前記処理部は、前記行動ルールごとの前記行動予測についてニューラルネットを用いて入力層を自車、周辺車両、人物の動きについて状態の情報を付加した画像に前記自車からの死角情報を付加する、請求項5に記載の処理装置。   The processing unit adds blind spot information from the own vehicle to an image in which information on the state of the movement of the own vehicle, surrounding vehicles, and people is added to the input layer using a neural network for the behavior prediction for each behavior rule. The processing apparatus according to claim 5. 請求項1に記載の行動予測を決定するプロセスよりも早く行動予測を決定できるプロセスを持つ、請求項1乃至6のいずれかに記載の処理装置。   The processing apparatus according to claim 1, further comprising a process capable of determining the behavior prediction earlier than the process of determining the behavior prediction according to claim 1. 自車の周辺の動画像を撮像するカメラの動画像を記憶し、
記憶された前記動画像から自車の経路を決定するための処理を行う処理方法であって、 前記動画像の一時点を用いて行動予測を決定するために前記一時点よりも過去の区間から周辺車両と人物のカテゴリを識別し、識別された前記周辺車両と前記人物のカテゴリに応じて自車、前記周辺車両と前記人物の行動予測を決定する、前記処理方法。
Stores the moving image of the camera that captures the moving image around the vehicle,
A processing method for performing a process for determining a route of the own vehicle from the stored moving image, wherein a motion prediction is determined using a point in time of the moving image from a section earlier than the temporary point. The processing method of identifying a category of a surrounding vehicle and a person, and determining a behavior prediction of the own vehicle, the surrounding vehicle and the person according to the identified category of the surrounding vehicle and the person.
JP2018520211A 2017-11-30 2017-11-30 Processing apparatus and processing method Pending JPWO2019106789A1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/043052 WO2019106789A1 (en) 2017-11-30 2017-11-30 Processing device and processing method

Publications (1)

Publication Number Publication Date
JPWO2019106789A1 true JPWO2019106789A1 (en) 2019-12-12

Family

ID=66663873

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018520211A Pending JPWO2019106789A1 (en) 2017-11-30 2017-11-30 Processing apparatus and processing method

Country Status (2)

Country Link
JP (1) JPWO2019106789A1 (en)
WO (1) WO2019106789A1 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021033403A (en) * 2019-08-19 2021-03-01 矢崎エナジーシステム株式会社 On-vehicle unit and work vehicle operation support system
US11608083B2 (en) * 2019-09-18 2023-03-21 Honda Motor Co., Ltd. System and method for providing cooperation-aware lane change control in dense traffic
US11577757B2 (en) * 2019-11-01 2023-02-14 Honda Motor Co., Ltd. System and method for future forecasting using action priors
KR102297578B1 (en) * 2019-11-12 2021-09-03 건국대학교 산학협력단 Method of controlling autonomous driving of moving object and apparatuses performing the same
JP7234970B2 (en) * 2020-02-17 2023-03-08 株式会社デンソー Vehicle behavior generation device, vehicle behavior generation method, and vehicle behavior generation program
JP7347252B2 (en) * 2020-02-17 2023-09-20 株式会社デンソー Vehicle behavior evaluation device, vehicle behavior evaluation method, and vehicle behavior evaluation program
JP7115502B2 (en) * 2020-03-23 2022-08-09 トヨタ自動車株式会社 Object state identification device, object state identification method, computer program for object state identification, and control device
CN114511978B (en) * 2021-12-27 2024-02-20 浙江华锐捷技术有限公司 Intrusion early warning method, device, vehicle and computer readable storage medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007069806A (en) * 2005-09-08 2007-03-22 Clarion Co Ltd Obstacle detecting device for vehicle
JP2009051430A (en) * 2007-08-28 2009-03-12 Fuji Heavy Ind Ltd Running support system
JP2009053925A (en) * 2007-08-27 2009-03-12 Toyota Motor Corp Behavior prediction device
JP2009271758A (en) * 2008-05-08 2009-11-19 Denso Corp Image-recognizing device
WO2015122406A1 (en) * 2014-02-13 2015-08-20 三菱電機株式会社 Communication device, operation assistance device, and operation assistance system
JP2017162438A (en) * 2016-03-11 2017-09-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Danger prediction method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9381916B1 (en) * 2012-02-06 2016-07-05 Google Inc. System and method for predicting behaviors of detected objects through environment representation
JP6481520B2 (en) * 2015-06-05 2019-03-13 トヨタ自動車株式会社 Vehicle collision avoidance support device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007069806A (en) * 2005-09-08 2007-03-22 Clarion Co Ltd Obstacle detecting device for vehicle
JP2009053925A (en) * 2007-08-27 2009-03-12 Toyota Motor Corp Behavior prediction device
JP2009051430A (en) * 2007-08-28 2009-03-12 Fuji Heavy Ind Ltd Running support system
JP2009271758A (en) * 2008-05-08 2009-11-19 Denso Corp Image-recognizing device
WO2015122406A1 (en) * 2014-02-13 2015-08-20 三菱電機株式会社 Communication device, operation assistance device, and operation assistance system
JP2017162438A (en) * 2016-03-11 2017-09-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Danger prediction method

Also Published As

Publication number Publication date
WO2019106789A1 (en) 2019-06-06

Similar Documents

Publication Publication Date Title
JPWO2019106789A1 (en) Processing apparatus and processing method
US11164016B2 (en) Object detection and property determination for autonomous vehicles
CN110362077B (en) Unmanned vehicle emergency hedge decision making system, method and medium
US9708004B2 (en) Method for assisting a driver in driving an ego vehicle and corresponding driver assistance system
CN110692094B (en) Vehicle control apparatus and method for control of autonomous vehicle
CN112789481A (en) Trajectory prediction for top-down scenarios
CN110843789B (en) Vehicle lane change intention prediction method based on time sequence convolution network
US20220105959A1 (en) Methods and systems for predicting actions of an object by an autonomous vehicle to determine feasible paths through a conflicted area
US11300961B2 (en) Vehicle control apparatus and method for controlling automated driving vehicle
JP2019106049A (en) Vehicle control device, risk map generation device, and program
CN109421712B (en) Vehicle control device, vehicle control method, and storage medium
US20210394749A1 (en) Arithmetic operation device for vehicle
US11615702B2 (en) Determining vehicle path
US20210237737A1 (en) Method for Determining a Lane Change Indication of a Vehicle
CN112977473A (en) Method and system for predicting moving obstacle exiting from crossroad
WO2023024542A1 (en) Vehicle decision-making planning method and apparatus, and device and medium
US11718290B2 (en) Methods and systems for safe out-of-lane driving
US20210300350A1 (en) Vehicle control device, vehicle control method, and storing medium
US20220057795A1 (en) Drive control device, drive control method, and computer program product
US11663913B2 (en) Neural network with lane aggregation for lane selection prediction of moving objects during autonomous driving
CN113525413A (en) Vehicle control device, vehicle control method, and storage medium
CN110712644B (en) Driving assistance system and method
JP7400914B1 (en) automatic driving device
US20230053243A1 (en) Hybrid Performance Critic for Planning Module's Parameter Tuning in Autonomous Driving Vehicles
EP4145420A1 (en) Hierarchical processing of traffic signal face states

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180419

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180419

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180419

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181225

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190625