JP2023161248A - Moving object control method - Google Patents

Moving object control method Download PDF

Info

Publication number
JP2023161248A
JP2023161248A JP2022071497A JP2022071497A JP2023161248A JP 2023161248 A JP2023161248 A JP 2023161248A JP 2022071497 A JP2022071497 A JP 2022071497A JP 2022071497 A JP2022071497 A JP 2022071497A JP 2023161248 A JP2023161248 A JP 2023161248A
Authority
JP
Japan
Prior art keywords
vehicle
image processing
risk
risk level
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022071497A
Other languages
Japanese (ja)
Inventor
啓司 海田
Keiji Kaida
崇彦 平沢
Takahiko Hirasawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2022071497A priority Critical patent/JP2023161248A/en
Publication of JP2023161248A publication Critical patent/JP2023161248A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)

Abstract

To restrain power consumption when controlling automatic operation of a moving object.SOLUTION: An image captured by a camera mounted on a moving object is acquired and automatic operation of the moving object is controlled based on a result of image processing on the image. A risk level representing a degree of risk for the moving object during automatic operation is obtained based on at least one of the number of objects in a risk determination range around the moving object and a distance between the moving object and each objects in the risk determination range. A frequency of image processing when the risk level is low is set lower than a frequency of image processing when the risk level is high.SELECTED DRAWING: Figure 2

Description

本開示は、カメラを備える移動体を制御する技術に関する。 The present disclosure relates to a technique for controlling a moving object including a camera.

特許文献1は、自動運転車両に搭載される周辺認識装置として利用される情報処理装置を開示している。情報処理装置は、遠方領域に関する遠方情報を取得し、遠方情報を用いた遠方情報処理を行う。また、情報処理装置は、近傍領域に関する近傍情報を取得し、近傍情報を用いた近傍情報処理を行う。更に、情報処理装置は、遠方情報処理と近傍情報処理に割り当てられるリソースの大きさを、遠方情報処理と近傍情報処理の優先度に応じて変更する。 Patent Document 1 discloses an information processing device used as a peripheral recognition device installed in an autonomous vehicle. The information processing device acquires far-field information regarding a far-field area and performs far-field information processing using the far-field information. Further, the information processing device acquires neighborhood information regarding a neighborhood area, and performs neighborhood information processing using the neighborhood information. Further, the information processing device changes the size of resources allocated to far information processing and nearby information processing, depending on the priorities of far information processing and near information processing.

特開2017-151541号公報Japanese Patent Application Publication No. 2017-151541

車両やロボット等の移動体の自動運転においては、移動体に搭載されたカメラが利用される。より詳細には、カメラによって撮像される画像に対して画像処理が行われ、画像処理の結果に基づいて移動体の自動運転が制御される。但し、必要以上に画像処理が実行されると、自動運転制御における電力消費が不必要に増大する。 In the automatic operation of mobile objects such as vehicles and robots, cameras mounted on the mobile objects are used. More specifically, image processing is performed on the image captured by the camera, and automatic operation of the mobile object is controlled based on the result of the image processing. However, if image processing is executed more than necessary, power consumption in automatic driving control increases unnecessarily.

本開示の1つの目的は、移動体の自動運転を制御する際の電力消費を抑制することができる技術を提供することにある。 One objective of the present disclosure is to provide a technique that can suppress power consumption when controlling automatic operation of a mobile body.

第1の観点は、カメラを備える移動体を制御する移動体制御方法に関連する。
移動体制御方法は、
カメラによって撮像される画像を取得し、画像に対する画像処理の結果に基づいて移動体の自動運転を制御することと、
移動体の周囲のリスク判定範囲内の物体の数、及び、移動体とリスク判定範囲内の物体との間の距離のうち少なくとも一方に基づいて、自動運転中の移動体に対するリスクの度合いを表すリスクレベルを取得することと、
リスクレベルが低い場合の画像処理の頻度を、リスクレベルが高い場合の画像処理の頻度よりも低く設定することと
を含む。
The first aspect relates to a mobile body control method for controlling a mobile body equipped with a camera.
The mobile object control method is
Obtaining an image captured by a camera and controlling automatic operation of a mobile object based on the results of image processing on the image;
Represents the degree of risk to a moving object during automated driving based on at least one of the number of objects within the risk judgment range around the moving object and the distance between the moving object and the objects within the risk judgment range. Obtaining the risk level and
This includes setting the frequency of image processing when the risk level is low to be lower than the frequency of image processing when the risk level is high.

第2の観点は、カメラを備える移動体を制御する移動体制御システムに関連する。
移動体制御システムは、1又は複数のプロセッサを備える。
1又は複数のプロセッサは、
カメラによって撮像される画像を取得し、画像に対する画像処理の結果に基づいて移動体の自動運転を制御し、
移動体の周囲のリスク判定範囲内の物体の数、及び、移動体とリスク判定範囲内の物体との間の距離のうち少なくとも一方に基づいて、自動運転中の移動体に対するリスクの度合いを表すリスクレベルを取得し、
リスクレベルが低い場合の画像処理の頻度を、リスクレベルが高い場合の画像処理の頻度よりも低く設定する。
The second aspect relates to a mobile object control system that controls a mobile object equipped with a camera.
A mobile control system includes one or more processors.
The one or more processors are:
Obtain an image captured by a camera, control the automatic operation of a mobile object based on the results of image processing on the image,
Represents the degree of risk to a moving object during automated driving based on at least one of the number of objects within the risk judgment range around the moving object and the distance between the moving object and the objects within the risk judgment range. Get the risk level,
The frequency of image processing when the risk level is low is set lower than the frequency of image processing when the risk level is high.

本開示によれば、自動運転制御における画像処理の頻度は、一律ではなく、動的に設定される。より詳細には、自動運転中の移動体に対するリスクの度合いを表すリスクレベルが取得される。そして、リスクレベルが低い場合の画像処理の頻度は、リスクレベルが高い場合の画像処理の頻度よりも低くなるように設定される。リスクレベルが高い環境では、画像処理が高頻度に実行されるため、自動運転の安全性が適切に確保される。一方、リスクレベルが低い環境では、画像処理が抑えられるため、電力消費が抑制される。つまり、必要以上に画像処理が実行されないため、画像処理に起因する電力消費が抑制される。このように、本開示によれば、自動運転の安全性と電力消費の抑制を両立することが可能となる。 According to the present disclosure, the frequency of image processing in automatic driving control is not set uniformly but dynamically. More specifically, a risk level representing the degree of risk to the moving object during automatic driving is acquired. The frequency of image processing when the risk level is low is set to be lower than the frequency of image processing when the risk level is high. In environments with a high risk level, image processing is performed frequently, ensuring the safety of automated driving. On the other hand, in an environment with a low risk level, image processing is suppressed, which reduces power consumption. In other words, since image processing is not executed more than necessary, power consumption due to image processing is suppressed. As described above, according to the present disclosure, it is possible to achieve both safety of automatic driving and suppression of power consumption.

実施の形態に係る車両制御システムの概要を説明するための概念図である。FIG. 1 is a conceptual diagram for explaining an overview of a vehicle control system according to an embodiment. 実施の形態に係るリスクレベルと画像処理の実行頻度との間の関係の一例を示す図である。FIG. 3 is a diagram illustrating an example of the relationship between the risk level and the frequency of execution of image processing according to the embodiment. 実施の形態に係るリスクレベルと画像処理の実行頻度との間の関係の他の例を示す図である。FIG. 7 is a diagram showing another example of the relationship between the risk level and the frequency of execution of image processing according to the embodiment. 実施の形態に係るリスクレベルの一例を説明するための概念図である。It is a conceptual diagram for explaining an example of the risk level concerning an embodiment. 実施の形態に係るリスクレベルの他の例を説明するための概念図である。FIG. 7 is a conceptual diagram for explaining another example of the risk level according to the embodiment. 実施の形態に係る車両制御システムの構成例を示すブロック図である。1 is a block diagram showing a configuration example of a vehicle control system according to an embodiment. 実施の形態に係る運転環境情報の例を示すブロック図である。It is a block diagram showing an example of driving environment information concerning an embodiment. 実施の形態に係る画像処理頻度の動的設定に関連する処理を示すフローチャートである。7 is a flowchart illustrating processing related to dynamic setting of image processing frequency according to the embodiment.

添付図面を参照して、本開示の実施の形態を説明する。 Embodiments of the present disclosure will be described with reference to the accompanying drawings.

1.車両制御システムの概要
移動体の制御について考える。移動体としては、車両、ロボット、等が例示される。ロボットとしては、物流ロボット、配達ロボット、作業ロボット、等が例示される。一例として、以下の説明においては、移動体が車両である場合について考える。一般化する場合には、以下の説明における「車両」を「移動体」で読み替えるものとする。
1. Overview of vehicle control system Let's consider the control of moving objects. Examples of the moving object include a vehicle, a robot, and the like. Examples of robots include logistics robots, delivery robots, work robots, and the like. As an example, in the following description, a case will be considered in which the moving object is a vehicle. For generalization, "vehicle" in the following description shall be replaced with "mobile object".

図1は、本実施の形態に係る車両制御システム10の概要を説明するための概念図である。車両制御システム10は、車両1を制御する。典型的には、車両制御システム10は、車両1に搭載されている。あるいは、車両制御システム10の少なくとも一部は、車両1の外部の外部装置に配置され、リモートで車両1を制御してもよい。 FIG. 1 is a conceptual diagram for explaining an overview of a vehicle control system 10 according to the present embodiment. Vehicle control system 10 controls vehicle 1 . Typically, the vehicle control system 10 is mounted on the vehicle 1. Alternatively, at least a portion of the vehicle control system 10 may be placed in an external device outside the vehicle 1 to remotely control the vehicle 1.

特に、車両制御システム10は、車両1の自動運転を制御する。ここで、自動運転とは、車両1の操舵、加速、及び減速の少なくとも一つを、ドライバの操作から独立して自動的に行うことを意味する。例えば、自動運転として、ドライバが必ずしも100%運転に集中しなくてもよいことを前提としたもの(いわゆるレベル3以上の自動運転)を想定している。 In particular, the vehicle control system 10 controls automatic driving of the vehicle 1. Here, automatic operation means that at least one of steering, acceleration, and deceleration of the vehicle 1 is automatically performed independently of the driver's operation. For example, we assume that automatic driving is based on the premise that the driver does not necessarily have to concentrate 100% on driving (so-called automatic driving at level 3 or higher).

車両1には、車両1の周囲の状況を撮像する1又は複数のカメラC(以下、単に「カメラC」と呼ぶ)が搭載されている。車両制御システム10は、車両1に搭載されたカメラCによって撮像される画像を取得し、取得した画像に対して画像処理を行う。例えば、車両制御システム10は、機械学習により得られた画像認識AI(Artificial Intelligence)を利用して画像を解析し、車両1の周囲の物体OBJを認識、識別する。物体OBJとしては、歩行者、自転車、他車両、路側構造物、障害物、等が例示される。そして、車両制御システム10は、画像処理の結果に基づいて、車両1の自動運転を制御する。例えば、車両制御システム10は、画像処理によって認識された物体OBJとの位置関係に基づいて、走行プランや目標トラジェクトリを生成する。 The vehicle 1 is equipped with one or more cameras C (hereinafter simply referred to as "cameras C") that capture images of the surroundings of the vehicle 1. The vehicle control system 10 acquires an image captured by a camera C mounted on the vehicle 1, and performs image processing on the acquired image. For example, the vehicle control system 10 analyzes images using image recognition AI (Artificial Intelligence) obtained through machine learning, and recognizes and identifies objects OBJ around the vehicle 1. Examples of objects OBJ include pedestrians, bicycles, other vehicles, roadside structures, and obstacles. The vehicle control system 10 then controls automatic driving of the vehicle 1 based on the result of the image processing. For example, the vehicle control system 10 generates a driving plan and a target trajectory based on the positional relationship with the object OBJ recognized through image processing.

但し、必要以上に画像処理が実行されると、自動運転制御における電力消費が不必要に増大する。例えば、車両1に対するリスクが極めて低い状況においても画像処理を常時実行することは過剰であり、電力消費の不必要な増大を招く。そこで、本実施の形態は、車両1の自動運転を制御する際の電力消費を抑制することができる技術を提案する。 However, if image processing is executed more than necessary, power consumption in automatic driving control increases unnecessarily. For example, even in situations where the risk to the vehicle 1 is extremely low, constantly executing image processing is excessive and leads to an unnecessary increase in power consumption. Therefore, the present embodiment proposes a technique that can suppress power consumption when controlling automatic driving of the vehicle 1.

本実施の形態によれば、車両制御システム10は、自動運転中の車両1に対するリスクの度合いを表す「リスクレベルRL」を取得する。車両1に対するリスクの度合いは、車両1の周囲の物体OBJの数や相対距離に依存すると考えられる。そこで、車両制御システム10は、車両1に搭載された認識センサを用いて、車両1の周囲のリスク判定範囲RNG内の物体OBJを認識する。認識センサは、カメラC、LIDAR(Laser Imaging Detection and Ranging)、レーダ、のうち少なくとも一つを含む。リスク判定範囲RNGは、一定範囲であってもよいし、状況に応じてサイズが変動してもよい。例えば、車両1の速度が高くなるにつれて、リスク判定範囲RNGが拡大してもよい。車両制御システム10は、リスク判定範囲RNG内の物体OBJの数、及び、車両1とリスク判定範囲RNG内の物体OBJとの間の距離のうち少なくとも一方に基づいて、リスクレベルRLを取得する。尚、リスクレベルRLの設定方法の具体例は後述される。 According to the present embodiment, the vehicle control system 10 acquires a "risk level RL" representing the degree of risk to the vehicle 1 during automatic driving. The degree of risk to the vehicle 1 is considered to depend on the number and relative distances of objects OBJ around the vehicle 1. Therefore, the vehicle control system 10 uses a recognition sensor mounted on the vehicle 1 to recognize the object OBJ within the risk determination range RNG around the vehicle 1. The recognition sensor includes at least one of a camera C, LIDAR (Laser Imaging Detection and Ranging), and radar. The risk determination range RNG may be a fixed range or may vary in size depending on the situation. For example, the risk determination range RNG may expand as the speed of the vehicle 1 increases. The vehicle control system 10 acquires the risk level RL based on at least one of the number of objects OBJ within the risk determination range RNG and the distance between the vehicle 1 and the objects OBJ within the risk determination range RNG. Note that a specific example of the method for setting the risk level RL will be described later.

そして、車両制御システム10は、リスクレベルRLに応じて、自動運転制御における画像処理の実行頻度FRを動的に変更する。より詳細には、車両制御システム10は、リスクレベルRLが比較的低い場合の画像処理の実行頻度FRを、リスクレベルRLが比較的高い場合の画像処理の実行頻度FRよりも低く設定する。例えば、画像処理の実行頻度FRは、0.1秒に1回、1秒に1回、等に設定される。 Then, the vehicle control system 10 dynamically changes the execution frequency FR of image processing in automatic driving control according to the risk level RL. More specifically, the vehicle control system 10 sets the image processing execution frequency FR when the risk level RL is relatively low than the image processing execution frequency FR when the risk level RL is relatively high. For example, the execution frequency FR of image processing is set to once every 0.1 seconds, once every second, etc.

図2及び図3は、リスクレベルRLと画像処理の実行頻度FRとの間の関係の例を示す図である。図2に示される例では、リスクレベルRLが高くなるにつれて、画像処理の実行頻度FRが単調に増加する。図3に示される例では、リスクレベルRLと画像処理の実行頻度FRは段階的に変化する。いずれの場合であっても、リスクレベルRLが比較的低い場合の画像処理の実行頻度FRは、リスクレベルRLが比較的高い場合の画像処理の実行頻度FRよりも低くなるように設定される。 FIGS. 2 and 3 are diagrams showing examples of the relationship between the risk level RL and the image processing execution frequency FR. In the example shown in FIG. 2, as the risk level RL becomes higher, the image processing execution frequency FR increases monotonically. In the example shown in FIG. 3, the risk level RL and the image processing execution frequency FR change in stages. In either case, the image processing execution frequency FR when the risk level RL is relatively low is set to be lower than the image processing execution frequency FR when the risk level RL is relatively high.

<効果>
以上に説明されたように、本実施の形態によれば、自動運転制御における画像処理の実行頻度FRは、一律ではなく、動的に設定される。より詳細には、自動運転中の車両1に対するリスクの度合いを表すリスクレベルRLが取得される。そして、リスクレベルRLが低い場合の画像処理の実行頻度FRは、リスクレベルRLが高い場合の画像処理の実行頻度FRよりも低くなるように設定される。リスクレベルRLが高い環境では、画像処理が高頻度に実行されるため、自動運転の安全性が適切に確保される。一方、リスクレベルRLが低い環境では、画像処理が抑えられるため、電力消費が抑制される。つまり、必要以上に画像処理が実行されないため、画像処理に起因する電力消費が抑制される。このように、本実施の形態によれば、自動運転の安全性と電力消費の抑制を両立することが可能となる。
<Effect>
As explained above, according to the present embodiment, the execution frequency FR of image processing in automatic driving control is not uniformly set but dynamically set. More specifically, a risk level RL representing the degree of risk to the vehicle 1 during automatic driving is acquired. The image processing execution frequency FR when the risk level RL is low is set to be lower than the image processing execution frequency FR when the risk level RL is high. In an environment where the risk level RL is high, image processing is performed frequently, so the safety of automatic driving is appropriately ensured. On the other hand, in an environment where the risk level RL is low, image processing is suppressed, so power consumption is suppressed. In other words, since image processing is not executed more than necessary, power consumption due to image processing is suppressed. In this way, according to the present embodiment, it is possible to achieve both safety of automatic driving and suppression of power consumption.

2.リスクレベルの設定例
以下、リスクレベルRLの様々な設定例を説明する。
2. Setting Examples of Risk Level Various setting examples of the risk level RL will be explained below.

2-1.第1の例
第1の例では、リスクレベルRLは、車両1の周囲のリスク判定範囲RNG内の物体OBJの数に基づいて設定される。より詳細には、リスク判定範囲RNG中の物体OBJの数が増加するにつれて、リスクレベルRLは高くなるように設定される。
2-1. First Example In the first example, the risk level RL is set based on the number of objects OBJ within the risk determination range RNG around the vehicle 1. More specifically, the risk level RL is set to become higher as the number of objects OBJ in the risk determination range RNG increases.

2-2.第2の例
第2の例では、リスクレベルRLは、リスク判定範囲RNG内の物体OBJと車両1との間の相対距離に基づいて設定される。より詳細には、相対距離が小さくなるにつれて、リスクレベルRLは高くなるように設定される。例えば、車両1に最も近い物体OBJに関するリスクレベルRLが代表値として用いられる。他の例として、物体OBJ毎に算出されるリスクレベルRLの総和が用いられてもよい。
2-2. Second Example In the second example, the risk level RL is set based on the relative distance between the object OBJ and the vehicle 1 within the risk determination range RNG. More specifically, the risk level RL is set to become higher as the relative distance becomes smaller. For example, the risk level RL regarding the object OBJ closest to the vehicle 1 is used as the representative value. As another example, the sum of risk levels RL calculated for each object OBJ may be used.

2-3.第3の例
図4及び図5は、第3の例を説明するための概念図である。第3の例では、リスク判定範囲RNGは、車両1により近い第1リスク判定範囲RNG-Aと、第1リスク判定範囲RNG-Aの周囲の第2リスク判定範囲RNG-Bに区分けされる。第1リスク判定範囲RNG-Aに物体OBJが存在する場合、リスクレベルRLは「高」に設定される。第1リスク判定範囲RNG-Aに物体OBJは存在しないが、第2リスク判定範囲RNG-Bに物体OBJが存在する場合、リスクレベルRLは「中」に設定される。第1リスク判定範囲RNG-Aにも第2リスク判定範囲RNG-Bにも物体OBJが存在しない場合、リスクレベルRLは「中」に設定される。リスク判定範囲RNGの区分数が3以上である場合も同様である。
2-3. Third Example FIGS. 4 and 5 are conceptual diagrams for explaining the third example. In the third example, the risk determination range RNG is divided into a first risk determination range RNG-A closer to the vehicle 1 and a second risk determination range RNG-B surrounding the first risk determination range RNG-A. If object OBJ exists in the first risk determination range RNG-A, the risk level RL is set to "high". If the object OBJ does not exist in the first risk determination range RNG-A, but the object OBJ exists in the second risk determination range RNG-B, the risk level RL is set to "medium". If the object OBJ does not exist in either the first risk determination range RNG-A or the second risk determination range RNG-B, the risk level RL is set to "medium". The same applies when the number of divisions in the risk determination range RNG is three or more.

3.車両制御システムの例
3-1.構成例
図6は、本実施の形態に係る車両制御システム10の構成例を示すブロック図である。車両制御システム10は、認識センサ20、位置センサ30、車両状態センサ40、走行装置50、及び制御装置100を含んでいる。
3. Example of vehicle control system 3-1. Configuration Example FIG. 6 is a block diagram showing a configuration example of the vehicle control system 10 according to the present embodiment. The vehicle control system 10 includes a recognition sensor 20, a position sensor 30, a vehicle condition sensor 40, a traveling device 50, and a control device 100.

認識センサ20は、車両1の周囲の状況を認識(検出)する。認識センサ20は、車両1の周囲の状況を撮像するカメラCを含んでいる。認識センサ20は、LIDAR(Laser Imaging Detection and Ranging)、レーダ、等を含んでいてもよい。 The recognition sensor 20 recognizes (detects) the situation around the vehicle 1 . The recognition sensor 20 includes a camera C that captures images of the surroundings of the vehicle 1. The recognition sensor 20 may include LIDAR (Laser Imaging Detection and Ranging), radar, or the like.

位置センサ30は、車両1の位置及び方位を検出する。位置センサ30としては、GPS(Global Positioning System)センサが例示される。 The position sensor 30 detects the position and orientation of the vehicle 1. As the position sensor 30, a GPS (Global Positioning System) sensor is exemplified.

車両状態センサ40は、車両1の状態を検出する。例えば、車両状態センサ40は、速度センサ、加速度センサ、ヨーレートセンサ、舵角センサ、等を含んでいる。 Vehicle condition sensor 40 detects the condition of vehicle 1. For example, the vehicle condition sensor 40 includes a speed sensor, an acceleration sensor, a yaw rate sensor, a steering angle sensor, and the like.

走行装置50は、操舵装置、駆動装置、及び制動装置を含んでいる。操舵装置は、車輪を転舵する。例えば、操舵装置は、パワーステアリング(EPS: Electric Power Steering)装置を含んでいる。駆動装置は、駆動力を発生させる動力源である。駆動装置としては、エンジン、電動機、インホイールモータ、等が例示される。制動装置は、制動力を発生させる。 Travel device 50 includes a steering device, a drive device, and a braking device. The steering device steers the wheels. For example, the steering device includes a power steering (EPS: Electric Power Steering) device. The drive device is a power source that generates driving force. Examples of the drive device include an engine, an electric motor, an in-wheel motor, and the like. The braking device generates braking force.

制御装置100は、車両1を制御する。制御装置100は、1又は複数のプロセッサ110(以下、単にプロセッサ110と呼ぶ)と1又は複数の記憶装置120(以下、単に記憶装置120と呼ぶ)を含んでいる。プロセッサ110は、各種処理を実行する。例えば、プロセッサ110は、CPU(Central Processing Unit)を含んでいる。記憶装置120は、各種情報を格納する。記憶装置120としては、揮発性メモリ、不揮発性メモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、等が例示される。制御装置100は、1又は複数のECU(Electronic Control Unit)を含んでいてもよい。制御装置100の一部は、車両1の外部の情報処理装置であってもよい。その場合、制御装置100の一部は、車両1と通信を行い、車両1をリモートで制御する。 Control device 100 controls vehicle 1 . The control device 100 includes one or more processors 110 (hereinafter simply referred to as processors 110) and one or more storage devices 120 (hereinafter simply referred to as storage devices 120). Processor 110 executes various processes. For example, processor 110 includes a CPU (Central Processing Unit). The storage device 120 stores various information. Examples of the storage device 120 include volatile memory, nonvolatile memory, HDD (Hard Disk Drive), SSD (Solid State Drive), and the like. Control device 100 may include one or more ECUs (Electronic Control Units). A part of the control device 100 may be an information processing device outside the vehicle 1. In that case, part of the control device 100 communicates with the vehicle 1 and remotely controls the vehicle 1.

車両制御プログラムPROGは、車両1を制御するためのコンピュータプログラムである。プロセッサ110が車両制御プログラムPROGを実行することにより、制御装置100による各種処理が実現される。車両制御プログラムPROGは、記憶装置120に格納される。あるいは、車両制御プログラムPROGは、コンピュータ読み取り可能な記録媒体に記録されてもよい。 The vehicle control program PROG is a computer program for controlling the vehicle 1. Various processes by the control device 100 are realized by the processor 110 executing the vehicle control program PROG. Vehicle control program PROG is stored in storage device 120. Alternatively, the vehicle control program PROG may be recorded on a computer-readable recording medium.

3-2.運転環境情報
制御装置100は、車両1の運転環境を示す運転環境情報200を取得する。運転環境情報200は、記憶装置120に格納される。
3-2. Driving Environment Information The control device 100 acquires driving environment information 200 indicating the driving environment of the vehicle 1. Driving environment information 200 is stored in storage device 120.

図7は、運転環境情報200の例を示すブロック図である。運転環境情報200は、地図情報210、周辺状況情報220、位置情報230、及び車両状態情報240を含んでいる。 FIG. 7 is a block diagram illustrating an example of driving environment information 200. The driving environment information 200 includes map information 210, surrounding situation information 220, position information 230, and vehicle status information 240.

地図情報210は、一般的なナビゲーション地図を含む。地図情報210は、レーン配置や道路形状を示していてもよい。地図情報210は、構造物、ランドマーク、等の位置情報を含んでいてもよい。制御装置100は、地図データベースから、必要なエリアの地図情報210を取得する。 Map information 210 includes a general navigation map. The map information 210 may indicate lane arrangement and road shape. The map information 210 may include location information of structures, landmarks, and the like. The control device 100 acquires map information 210 of the required area from the map database.

周辺状況情報220は、車両1の周囲の状況を示す情報である。制御装置100は、認識センサ20を用いて車両1の周囲の状況を認識し、周辺状況情報220を取得する。例えば、周辺状況情報220は、カメラCによって撮像される画像221を含む。他の例として、周辺状況情報220は、LIDARによって得られる点群情報を含む。 The surrounding situation information 220 is information indicating the surrounding situation of the vehicle 1. Control device 100 recognizes the surrounding situation of vehicle 1 using recognition sensor 20 and acquires surrounding situation information 220. For example, the surrounding situation information 220 includes an image 221 captured by the camera C. As another example, the surrounding situation information 220 includes point cloud information obtained by LIDAR.

周辺状況情報220は、更に、車両1の周囲の物体OBJに関する物体情報222を含んでいる。物体OBJとしては、歩行者、自転車、他車両(先行車両、後続車両、並走車両、駐車車両、等)、路側構造物、障害物、ランドマーク、等が例示される。物体情報222は、車両1に対する物体OBJの相対位置及び相対速度を示す。例えば、カメラCによって得られた画像221を解析することによって、物体OBJを認識、識別し、その物体OBJの相対位置を算出することができる。例えば、制御装置100は、機械学習により得られた画像認識AIを利用して、画像221の中の物体OBJを認識、識別する。また、LIDARによって得られた点群情報に基づいて、物体OBJを認識し、その物体OBJの相対位置と相対速度を取得することもできる。 The surrounding situation information 220 further includes object information 222 regarding objects OBJ around the vehicle 1. Examples of objects OBJ include pedestrians, bicycles, other vehicles (preceding vehicles, following vehicles, parallel vehicles, parked vehicles, etc.), roadside structures, obstacles, landmarks, and the like. Object information 222 indicates the relative position and relative speed of object OBJ with respect to vehicle 1. For example, by analyzing the image 221 obtained by the camera C, it is possible to recognize and identify the object OBJ and calculate the relative position of the object OBJ. For example, the control device 100 recognizes and identifies the object OBJ in the image 221 using image recognition AI obtained through machine learning. Furthermore, it is also possible to recognize the object OBJ and obtain the relative position and relative velocity of the object OBJ based on the point cloud information obtained by LIDAR.

位置情報230は、車両1の現在位置を示す情報である。制御装置100は、位置センサ30による検出結果から位置情報230を取得する。また、制御装置100は、物体情報222と地図情報210を利用した周知の自己位置推定処理(Localization)により、高精度な位置情報230を取得してもよい。 The position information 230 is information indicating the current position of the vehicle 1. The control device 100 acquires position information 230 from the detection result by the position sensor 30. Further, the control device 100 may acquire highly accurate position information 230 through well-known self-position estimation processing (localization) using the object information 222 and the map information 210.

車両状態情報240は、車両1の状態を示す情報であり、車速、加速度、ヨーレート、操舵角、等を含む。制御装置100は、車両状態センサ40から車両状態情報240を取得する。 The vehicle status information 240 is information indicating the status of the vehicle 1, and includes vehicle speed, acceleration, yaw rate, steering angle, and the like. Control device 100 acquires vehicle state information 240 from vehicle state sensor 40 .

3-3.車両走行制御
制御装置100は、車両1の走行を制御する「車両走行制御」を実行する。車両走行制御は、操舵制御、加速制御、及び減速制御を含む。制御装置100は、走行装置50を制御することによって車両走行制御を実行する。具体的には、制御装置100は、操舵装置を制御することによって操舵制御を実行する。また、制御装置100は、駆動装置を制御することによって加速制御を実行する。また、制御装置100は、制動装置を制御することによって減速制御を実行する。
3-3. Vehicle Travel Control The control device 100 executes “vehicle travel control” that controls the travel of the vehicle 1. Vehicle travel control includes steering control, acceleration control, and deceleration control. Control device 100 executes vehicle travel control by controlling travel device 50 . Specifically, the control device 100 executes steering control by controlling a steering device. Further, the control device 100 executes acceleration control by controlling the drive device. Furthermore, the control device 100 executes deceleration control by controlling a braking device.

3-4.自動運転制御
また、制御装置100は、運転環境情報200に基づいて自動運転制御を行う。より詳細には、制御装置100は、運転環境情報200に基づいて、車両1の走行プランを生成する。走行プランは、現在の走行車線を維持する、車線変更を行う、右左折を行う、障害物を回避する、等が例示される。更に、制御装置100は、運転環境情報200に基づいて、車両1が走行プランに従って走行するために必要な目標トラジェクトリを生成する。目標トラジェクトリは、目標位置及び目標速度を含んでいる。そして、制御装置100は、車両1が目標トラジェクトリに追従するように車両走行制御を行う。
3-4. Automatic Driving Control The control device 100 also performs automatic driving control based on the driving environment information 200. More specifically, control device 100 generates a driving plan for vehicle 1 based on driving environment information 200. Examples of the driving plan include maintaining the current driving lane, changing lanes, turning left and right, and avoiding obstacles. Further, the control device 100 generates a target trajectory necessary for the vehicle 1 to travel according to the travel plan based on the driving environment information 200. The target trajectory includes a target position and a target velocity. Then, the control device 100 performs vehicle travel control so that the vehicle 1 follows the target trajectory.

3-5.画像処理頻度の動的設定
自動運転制御において、カメラCによって撮像される画像221に対する画像処理の結果が用いられる。例えば、画像221を解析することによって車両1の周囲の物体OBJが認識され、上述の物体情報222が取得される。そして、物体情報222に基づいて、車両1の自動運転における走行プランや目標トラジェクトリが生成される。制御装置100は、自動運転制御における画像処理の実行頻度FRを、車両1の周囲の状況に応じて動的に設定する。
3-5. Dynamic Setting of Image Processing Frequency In automatic driving control, the results of image processing on the image 221 captured by camera C are used. For example, by analyzing the image 221, the object OBJ around the vehicle 1 is recognized, and the above-mentioned object information 222 is acquired. Then, based on the object information 222, a travel plan and a target trajectory for automatic driving of the vehicle 1 are generated. Control device 100 dynamically sets execution frequency FR of image processing in automatic driving control according to the surrounding situation of vehicle 1.

図8は、本実施の形態に係る画像処理頻度の動的設定に関連する処理を示すフローチャートである。 FIG. 8 is a flowchart showing processing related to dynamic setting of image processing frequency according to the present embodiment.

ステップS110において、制御装置100は、認識センサ20による認識結果に基づいて上述の物体情報222を取得する。そして、制御装置100は、物体情報222に基づいて、車両1に対するリスクの度合いを表すリスクレベルRLを取得する。リスクレベルRLの設定例は、上記セクション2おいて説明された通りである。 In step S110, the control device 100 acquires the above-mentioned object information 222 based on the recognition result by the recognition sensor 20. Then, the control device 100 obtains a risk level RL representing the degree of risk to the vehicle 1 based on the object information 222. An example of setting the risk level RL is as described in Section 2 above.

ステップS120において、制御装置100は、リスクレベルRLに応じて、画像処理の実行頻度FRを動的に設定する。より詳細には、制御装置100は、リスクレベルRLが比較的低い場合の画像処理の実行頻度FRを、リスクレベルRLが比較的高い場合の画像処理の実行頻度FRよりも低く設定する(図2、図3参照)。例えば、画像処理の実行頻度FRは、0.1秒に1回、1秒に1回、等に設定される。 In step S120, the control device 100 dynamically sets the image processing execution frequency FR according to the risk level RL. More specifically, the control device 100 sets the image processing execution frequency FR when the risk level RL is relatively low to be lower than the image processing execution frequency FR when the risk level RL is relatively high (FIG. , see Figure 3). For example, the execution frequency FR of image processing is set to once every 0.1 seconds, once every second, etc.

1 車両
10 車両制御システム
20 認識センサ
100 制御装置
110 プロセッサ
120 記憶装置
200 運転環境情報
220 周辺状況情報
221 画像
222 物体情報
C カメラ
OBJ 物体
RL リスクレベル
RNG リスク判定範囲
RNG-A 第1リスク判定範囲
RNG-B 第2リスク判定範囲
1 Vehicle 10 Vehicle control system 20 Recognition sensor 100 Control device 110 Processor 120 Storage device 200 Driving environment information 220 Surrounding situation information 221 Image 222 Object information C Camera OBJ Object RL Risk level RNG Risk judgment range RNG-A First risk judgment range RNG -B Second risk judgment range

Claims (1)

カメラを備える移動体を制御する移動体制御方法であって、
前記カメラによって撮像される画像を取得し、前記画像に対する画像処理の結果に基づいて前記移動体の自動運転を制御することと、
前記移動体の周囲のリスク判定範囲内の物体の数、及び、前記移動体と前記リスク判定範囲内の前記物体との間の距離のうち少なくとも一方に基づいて、前記自動運転中の前記移動体に対するリスクの度合いを表すリスクレベルを取得することと、
前記リスクレベルが低い場合の前記画像処理の頻度を、前記リスクレベルが高い場合の前記画像処理の頻度よりも低く設定することと
を含む
移動体制御方法。
A mobile body control method for controlling a mobile body equipped with a camera, the method comprising:
acquiring an image captured by the camera, and controlling automatic operation of the mobile body based on a result of image processing on the image;
The mobile body during automatic driving is determined based on at least one of the number of objects within the risk determination range around the mobile body and the distance between the mobile body and the objects within the risk determination range. obtaining a risk level representing the degree of risk to
A mobile object control method, comprising: setting the frequency of the image processing when the risk level is low to be lower than the frequency of the image processing when the risk level is high.
JP2022071497A 2022-04-25 2022-04-25 Moving object control method Pending JP2023161248A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022071497A JP2023161248A (en) 2022-04-25 2022-04-25 Moving object control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022071497A JP2023161248A (en) 2022-04-25 2022-04-25 Moving object control method

Publications (1)

Publication Number Publication Date
JP2023161248A true JP2023161248A (en) 2023-11-07

Family

ID=88650033

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022071497A Pending JP2023161248A (en) 2022-04-25 2022-04-25 Moving object control method

Country Status (1)

Country Link
JP (1) JP2023161248A (en)

Similar Documents

Publication Publication Date Title
JP6878493B2 (en) Pitch angle correction method used for autonomous vehicles (ADV)
JP7001628B2 (en) Planning of parking tracks for self-driving vehicles
US11042157B2 (en) Lane/object detection and tracking perception system for autonomous vehicles
CN108089571B (en) Method and system for predicting vehicle traffic behavior of unmanned vehicles to make driving decisions
JP6984232B2 (en) Autonomous driving device
CN108688660B (en) Operating range determining device
US10325163B2 (en) Vehicle vision
JP7156924B2 (en) Lane boundary setting device, lane boundary setting method
JP6808775B2 (en) Object tracking using multiple queues
JP7259716B2 (en) Vehicle control system and vehicle control method
KR102331000B1 (en) Method and computing device for specifying traffic light of interest in autonomous driving system
US11328602B2 (en) System and method for navigation with external display
WO2019207639A1 (en) Action selection device, action selection program, and action selection method
CN112660153A (en) Vehicle control system
JP6658968B2 (en) Driving support method and driving support device
US20200307625A1 (en) Automated driving system
JP2023161248A (en) Moving object control method
CN112660155B (en) Vehicle control system
US20220289185A1 (en) Vehicle controller and method for controlling vehicle
US20220309625A1 (en) Control device and control method for mobile object, storage medium, and vehicle
JP2020086489A (en) White line position estimation device and white line position estimation method
GB2599309A (en) Vehicle control system and method
US20220177007A1 (en) Vehicle control system
US10919569B2 (en) Vehicle control system
JP7540450B2 (en) Driving assistance method and driving assistance system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240612