JP2023069374A - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP2023069374A
JP2023069374A JP2021181168A JP2021181168A JP2023069374A JP 2023069374 A JP2023069374 A JP 2023069374A JP 2021181168 A JP2021181168 A JP 2021181168A JP 2021181168 A JP2021181168 A JP 2021181168A JP 2023069374 A JP2023069374 A JP 2023069374A
Authority
JP
Japan
Prior art keywords
information
visibility
feature point
radar
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021181168A
Other languages
Japanese (ja)
Inventor
淳 吉澤
Atsushi Yoshizawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Priority to JP2021181168A priority Critical patent/JP2023069374A/en
Priority to PCT/JP2022/036903 priority patent/WO2023079881A1/en
Publication of JP2023069374A publication Critical patent/JP2023069374A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

To suggest an information processing device, an information processing method, and a program which can raise accuracy of self-position estimation by appropriately coordinating a camera and a radar.SOLUTION: An information processing device comprises: a visibility range calculation unit; and a radar parameter determination unit. The visibility range calculation unit extracts visibility range information from image data of a camera. The radar parameter determination unit determines an operation parameter for controlling an effective positioning range of a radar on the basis of the visibility range information.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、情報処理方法およびプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program.

IMU(Inertial Measurement Unit)を用いた自立航法は、GNSS(Global Navigation Satellite System)の電波が届きにくいトンネルの中などで補完的に用いられる。しかし、IMUによる自立航法では、GNSSの動作不良時間が長時間に及ぶ場合に、IMUによる位置の推定誤差が蓄積される懸念がある。そのため、IMUよる補助のほかに、さらに追加的な外部センシング手段が望まれている。 Self-contained navigation using an IMU (Inertial Measurement Unit) is used complementarily in tunnels where it is difficult for GNSS (Global Navigation Satellite System) radio waves to reach. However, in self-contained navigation using an IMU, there is a concern that position estimation errors by the IMU may accumulate when the GNSS malfunctions for a long period of time. Therefore, additional external sensing means are desired in addition to the assistance provided by the IMU.

特開2010-091356号公報JP 2010-091356 A 特開2014-075026号公報JP 2014-075026 A

補助センシング手段の有力候補として、カメラやレーダの利用が考えられる。しかし、カメラやレーダにはそれぞれ一長一短があり、状況によってセンシングの効果が落ちる場合がある。例えば、カメラのような光学的手段においては、雨、霧、雪、強い光などの極端な環境条件のとき性能が劣化する懸念がある。レーダでは、マルチパスによって偽像が生じ易く、物体の方位を精度よく検出することも難しい。特許文献2では、カメラとレーダを組み合わせた自己位置推定の手法が提案されているが、特許文献2の手法は、電力消費を低減することを目的とするものであり、自己位置推定の精度を高めるものではない。 Cameras and radar can be considered as strong candidates for auxiliary sensing means. However, cameras and radars each have advantages and disadvantages, and depending on the situation, the sensing effect may be reduced. For example, optical means such as cameras are concerned about performance degradation in extreme environmental conditions such as rain, fog, snow, and strong light. With radar, false images are likely to occur due to multipath, and it is difficult to accurately detect the azimuth of an object. Patent Document 2 proposes a self-position estimation method that combines a camera and a radar. It's not something you raise.

そこで、本開示では、カメラとレーダを適切に連携させて自己位置推定の精度を高めることが可能な情報処理装置、情報処理方法およびプログラムを提案する。 Therefore, the present disclosure proposes an information processing device, an information processing method, and a program capable of appropriately linking a camera and a radar to improve the accuracy of self-position estimation.

本開示によれば、カメラの画像データから視程情報を抽出する視程計算部と、前記視程情報に基づいて、レーダの有効測位範囲を制御する動作パラメータを決定するレーダパラメータ決定部と、を有する情報処理装置が提供される。また、本開示によれば、前記情報処理装置の情報処理がコンピュータにより実行される情報処理方法、ならびに、前記情報処理装置の情報処理をコンピュータに実現させるプログラムが提供される。 According to the present disclosure, information including a visibility calculation unit that extracts visibility information from camera image data, and a radar parameter determination unit that determines operation parameters for controlling the effective positioning range of the radar based on the visibility information A processing device is provided. Further, according to the present disclosure, there are provided an information processing method in which the information processing of the information processing device is executed by a computer, and a program for causing the computer to implement the information processing of the information processing device.

補助センシング機構の概要を説明する図である。It is a figure explaining the outline|summary of an auxiliary sensing mechanism. 車両制御システムの構成例を示すブロック図である。1 is a block diagram showing a configuration example of a vehicle control system; FIG. 外部認識センサによるセンシング領域の例を示す図である。FIG. 4 is a diagram showing an example of a sensing area by an external recognition sensor; 従来の車両制御システムの概略図である。1 is a schematic diagram of a conventional vehicle control system; FIG. 従来システムを改良した本開示の車両制御システムの概略図である。1 is a schematic diagram of a vehicle control system of the present disclosure that is an improvement over conventional systems; FIG. 画像信号処理部の構成例を示す図である。It is a figure which shows the structural example of an image signal processing part. レーダ信号処理部の構成例を示す図である。It is a figure which shows the structural example of a radar signal processing part. 視程情報に基づくレーダの動作制御を行うための情報処理の一例を示すフローチャートである。4 is a flow chart showing an example of information processing for controlling radar operation based on visibility information. 第1変形例に係る車両制御システムの概略図である。FIG. 5 is a schematic diagram of a vehicle control system according to a first modified example; 第2変形例に係る車両制御システムの概略図である。FIG. 11 is a schematic diagram of a vehicle control system according to a second modified example;

以下に、本開示の実施形態について図面に基づいて詳細に説明する。以下の各実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。 Embodiments of the present disclosure will be described in detail below with reference to the drawings. In each of the following embodiments, the same parts are denoted by the same reference numerals, and overlapping descriptions are omitted.

なお、説明は以下の順序で行われる。
[1.補助センシング機構の概要]
[2.車両制御システムの構成例]
[3.外部認識センサのセンシング領域]
[4.補助センシング方法]
[4-1.従来の車両制御システム]
[4-2.改良された車両制御システム]
[4-2-1.画像信号処理部]
[4-2-2.レーダ信号処理部]
[4-3.情報処理方法]
[4-4.変形例1]
[4-5.変形例2]
[5.効果]
The description will be given in the following order.
[1. Outline of auxiliary sensing mechanism]
[2. Configuration example of vehicle control system]
[3. Sensing area of external recognition sensor]
[4. Auxiliary Sensing Method]
[4-1. Conventional vehicle control system]
[4-2. Improved vehicle control system]
[4-2-1. Image signal processing unit]
[4-2-2. Radar signal processor]
[4-3. Information processing method]
[4-4. Modification 1]
[4-5. Modification 2]
[5. effect]

[1.補助センシング機構の概要]
図1は、補助センシング機構の概要を説明する図である。
[1. Outline of auxiliary sensing mechanism]
FIG. 1 is a diagram for explaining the outline of the auxiliary sensing mechanism.

車両1は、GNSS91およびIMU92などのセンシング情報に基づいて運転支援を行う車両制御システム11を有する。車両制御システム11は、各種情報を処理する情報処理装置である。車両1は、カメラ51およびレーダ52を組み合わせた補助センシング機構を有する。補助センシング機構は、GNSS91およびIMU92による位置検出を補助するために用いられる。 The vehicle 1 has a vehicle control system 11 that assists driving based on sensing information such as GNSS 91 and IMU 92 . The vehicle control system 11 is an information processing device that processes various types of information. Vehicle 1 has an auxiliary sensing mechanism that combines camera 51 and radar 52 . Auxiliary sensing mechanisms are used to aid position detection by GNSS 91 and IMU 92 .

GNSS91は、近年、運転支援、自動運転を実現するうえで不可欠な技術となっている。GNSS91では、一般に、複数の衛星からの電波を受信することで、各衛星と車両1との距離を計算し、地上にある車両の3次元的な位置を算出する。しかしながら、GNSS91においては、上空にある衛星からの電波を用いるため、遮蔽物による電波の減衰や多重反射による信号品質の低下が問題になることがある。その結果、特定の状況においては著しく性能が損なわれ、場合によっては、車両位置が特定できなくなる問題を生じる。例えば、トンネルや、高層ビルに囲まれた街路においては、しばしば、GNSS91が所定の動作を行えなくなることが知られている。 In recent years, GNSS91 has become an indispensable technology for realizing driving support and automatic driving. The GNSS 91 generally receives radio waves from a plurality of satellites, calculates the distance between each satellite and the vehicle 1, and calculates the three-dimensional position of the vehicle on the ground. However, since the GNSS 91 uses radio waves from satellites in the sky, there is a problem that radio waves are attenuated by shielding objects and signal quality is degraded due to multiple reflections. As a result, performance is severely compromised in certain situations, and in some cases, the vehicle cannot be located. For example, it is known that tunnels and streets surrounded by tall buildings often prevent the GNSS 91 from performing certain operations.

このようなGNSS91の問題に対して、従来、IMU92を用いた自立航法が広く用いられている。自立航法によれば、GNSS91による位置検出ができない場合には、IMU92によって得た車体の加速度や回転量などを用い、車両の移動量を算出する。こうすることで、GNSS91の動作不能区間を補うことが可能となり、GNSS91の受信ができないという問題は、一定程度、緩和される。 Conventionally, self-contained navigation using an IMU 92 has been widely used to deal with such problems of the GNSS 91 . According to the self-contained navigation, when the position cannot be detected by the GNSS 91, the amount of movement of the vehicle is calculated using the acceleration and rotation amount of the vehicle body obtained by the IMU 92. By carrying out like this, it becomes possible to compensate for the inoperable area of GNSS91, and the problem that GNSS91 cannot be received is mitigated to some extent.

しかしながら、IMU92による自立航法では、GNSS91の動作不良時間が長時間に及ぶ場合、IMU92による位置の推定誤差が蓄積される懸念がある。このため、車両位置の検出精度を常に一定程度以上の水準に保つためには、IMU92よる補助のほかに、さらに追加的な外部センシング手段が望まれる。 However, in self-contained navigation by the IMU 92, there is a concern that position estimation errors by the IMU 92 may be accumulated when the GNSS 91 malfunctions for a long period of time. For this reason, in order to always maintain the detection accuracy of the vehicle position at a certain level or higher, an additional external sensing means is desired in addition to the assistance provided by the IMU 92 .

このような、さらなる補助センシング手段の有力候補として、車載カメラが挙げられる。カメラ51による画像情報は、極めて分解能が高く、極めて多くの路上情報の獲得を可能とする。したがって、GNSS91とIMU92による自立航法に対する追加的なセンシング手段として極めて有効な手段であると考えられる。例えば、カメラ51によって得られる周囲の画像情報から、特定の既知の箇所までの距離を推定し、車両1の位置を推定する結果をGNSS91およびIMU92の位置推定結果に組み入れることで、車両1のさらなる位置精度の向上を図ることができる。 A vehicle-mounted camera is a strong candidate for such additional auxiliary sensing means. The image information obtained by the camera 51 has extremely high resolution, making it possible to acquire an extremely large amount of road information. Therefore, it is thought that it is a very effective means as an additional sensing means with respect to self-contained navigation by GNSS91 and IMU92. For example, from the surrounding image information obtained by the camera 51, by estimating the distance to a specific known location and incorporating the results of estimating the position of the vehicle 1 into the position estimation results of the GNSS 91 and the IMU 92, the further It is possible to improve the position accuracy.

特許文献1には、GNSS91が利用できない場合に、周辺を撮影したカメラ画像を用いて、サーバが画像の特徴量から位置を特定する方法が開示されている。 Patent Literature 1 discloses a method in which a server identifies a position from a feature amount of an image using a camera image of the surroundings when GNSS 91 cannot be used.

しかしながら、一般に、カメラ51は、雨、霧、雪および強い光などの特定の極端な環境下では、得られる画像の品質が大幅に劣化する問題があることが知られている。また、一般に、カメラ51は、極めて高い空間分解性能を持つ優れた手段であるが、遠方においてまで、高い精度によって距離および速度を測定することは難しい。このように、GNSS91とIMU92による自立航法に対するカメラ51による補助センシングにおいて、カメラ51が不得意とする特定のケースにおいては、なお、一層の改善が望まれる。 However, it is generally known that the camera 51 suffers from severe deterioration in the quality of the resulting image under certain extreme environments such as rain, fog, snow and strong light. Also, in general, the camera 51 is an excellent means with extremely high spatial resolution performance, but it is difficult to measure distance and velocity with high accuracy even at long distances. Thus, in the specific cases in which the camera 51 is weak in assisted sensing by the camera 51 for self-contained navigation by the GNSS 91 and the IMU 92, further improvements are still desired.

一方、このような、カメラ51の不得意とする環境条件に対して高い耐性を有するセンシング手段としてレーダ52が知られている。しかしながら、レーダ52をカメラ51の補助センシング手段として用いるには、レーダ固有の問題に新たに直面する。例えば、レーダ52では、マルチパスによって偽像を生じ易い。あるいは、レーダ52は、遠方の物体までの距離や、速度を計測することには適しているが、物体の方位を精度よく検出することは難しい。 On the other hand, a radar 52 is known as a sensing means having a high resistance to such environmental conditions that the camera 51 is not good at. However, using the radar 52 as an auxiliary sensing means for the camera 51 presents new problems unique to radar. For example, the radar 52 is prone to artifacts due to multipath. Alternatively, the radar 52 is suitable for measuring the distance and speed to a distant object, but it is difficult to accurately detect the azimuth of the object.

カメラ51とレーダ52の協調によるセンシングについては、特許文献2に開示がある。特許文献2の手法では、車両が停止中あるいは所定速度以下の場合、周辺の照度が検出され、周辺照度が所定以上の場合、カメラの信頼度が高いとし、レーダの動作が停止される。また、周辺照度が所定未満のときは、カメラの信頼度が低いとし、カメラの動作が停止される。これにより、センシングにおける電力消費が低減される。しかしながら、特許文献2では、カメラの画像情報に基づいてレーダの動作条件を適応的に可変とすることで、GNSS91を補助する方法については述べられていない。 Cooperative sensing by the camera 51 and the radar 52 is disclosed in Patent Document 2. In the method of Patent Document 2, when the vehicle is stopped or at a speed below a predetermined speed, the illuminance of the surrounding area is detected, and when the surrounding illuminance is above a predetermined amount, the reliability of the camera is determined to be high, and the operation of the radar is stopped. Also, when the ambient illumination is less than the predetermined level, the reliability of the camera is determined to be low, and the operation of the camera is stopped. This reduces power consumption in sensing. However, Patent Literature 2 does not describe a method of assisting the GNSS 91 by adaptively varying the operating conditions of the radar based on the image information of the camera.

本発明は上述の事情に鑑みてなされたものである。本開示の車両制御システム11は、カメラ51で撮影された画像からカメラ51の有効測位範囲を算出する。有効測位範囲は、カメラによって測位精度が保証できる範囲を意味する。有効測位範囲は、例えば、視程(Visibility)に基づいて規定される。 The present invention has been made in view of the above circumstances. The vehicle control system 11 of the present disclosure calculates the effective positioning range of the camera 51 from the image captured by the camera 51 . The effective positioning range means a range in which positioning accuracy can be guaranteed by the camera. The effective positioning range is defined based on visibility, for example.

視程は、肉眼で物体がはっきりと確認できる最大の距離を意味する。視程の計測方法としては、WMO(世界気象機関)などで定義された公知の方法を用いることができる。視程の情報は、距離として提示されてもよいし、視界をスケーリングして得られたレベルの情報として提示されてもよい。例えば、カメラ51の視界が遮られない状態では視程のレベルを5とし、深い霧が立ち込めた状態では視程のレベルを1とするなどが考えられる。補助センシング機構は、カメラ51の画像データから抽出された視程の情報(視程情報)に基づき、レーダ52に与える最適な動作パラメータを変更する。 Visibility refers to the maximum distance at which an object can be clearly seen with the naked eye. As a visibility measurement method, a known method defined by the WMO (World Meteorological Organization) or the like can be used. Visibility information may be presented as distance, or may be presented as level information obtained by scaling the visibility. For example, it is conceivable to set the visibility level to 5 when the field of view of the camera 51 is not obstructed, and to set the visibility level to 1 when there is thick fog. The auxiliary sensing mechanism changes the optimum operating parameters to be given to the radar 52 based on visibility information (visibility information) extracted from the image data of the camera 51 .

デフォルト(通常)の環境条件においては、カメラ51の画像データから得られる視程の値は、レーダ52の動作パラメータを遠距離で精度良くセンシングすることができる値として設定される。一方、環境が、「霧」や「逆光」の場合には、カメラ51の画像データから得られる信頼できる距離測定範囲は大きく減少する。そのため、視程の値もそれに伴い変動する。このとき、レーダ52には、減少した視程の値に対応する、近距離において精度良く動作することのできる動作パラメータが付与される。 Under default (normal) environmental conditions, the visibility value obtained from the image data of the camera 51 is set as a value that enables accurate sensing of the operating parameters of the radar 52 at a long distance. On the other hand, when the environment is "foggy" or "backlit", the reliable distance measurement range obtained from the image data of the camera 51 is greatly reduced. Therefore, the visibility value also varies accordingly. The radar 52 is then given operating parameters that correspond to the reduced visibility value and allow it to operate accurately at close range.

具体的には、レーダ52の動作パラメータの調整は、レーダ52が用いる送信FMCW信号における、チャープ帯域幅、チャープ時間幅、チャープ送信間隔などのパラメータを変更することにより行われる。本開示では、例えば、動作パラメータとしてチャープ信号周波数帯域幅が視程情報に基づいて決定される。視程の値が小さければ、レーダ52の動作パラメータは近距離で最適なパラメータにチューニングされる。視程の値が大きければ、レーダ52の動作パラメータは遠距離で最適なパラメータにチューニングされる。 Specifically, the operating parameters of radar 52 are adjusted by changing parameters such as chirp bandwidth, chirp duration, and chirp transmission interval in the transmitted FMCW signal used by radar 52 . In this disclosure, for example, chirp signal frequency bandwidth as an operating parameter is determined based on visibility information. If the visibility value is small, the operating parameters of radar 52 are tuned to optimum parameters at close range. If the visibility value is large, the operating parameters of radar 52 are tuned to optimum parameters at long range.

本開示では、レーダ52の動作パラメータが視程情報に基づいて可変に制御される。そのため、動作パラメータを適応的に制御可能な1以上のレーダ52が必要である。このようなレーダ52は後付けで車両に設置されてもよいし、車両1に搭載済みのレーダ52を設計変更して本開示用のレーダ52として利用してもよい。図1の例では、本開示用のレーダ52が車両1の前方に後付けで搭載されている。 In the present disclosure, the operating parameters of radar 52 are variably controlled based on visibility information. Therefore, there is a need for one or more radars 52 whose operating parameters can be adaptively controlled. Such a radar 52 may be installed in the vehicle as a retrofit, or the radar 52 already installed in the vehicle 1 may be modified in design and used as the radar 52 for the present disclosure. In the example of FIG. 1 , the radar 52 for use in the present disclosure is retrofitted to the front of the vehicle 1 .

以上は、カメラ51とレーダ52がそれぞれ1つの場合における動作を述べたものだが、1つのカメラ51に対し複数のレーダ52が存在する場合にも、同様の処理が可能である。複数のレーダ52が存在する場合には、カメラ51の画像データから得られた視程情報に基づいてレーダ52ごとに最適な動作パラメータが設定される。 The above describes the operation in the case where there is one camera 51 and one radar 52 , but similar processing is possible even when there are a plurality of radars 52 for one camera 51 . When a plurality of radars 52 are present, optimum operating parameters are set for each radar 52 based on visibility information obtained from image data of the camera 51 .

このような視程情報に加えて、本開示の車両制御システム11では、カメラ51から得た画像情報から、レーダ52により測位を行うべき方位を決定しレーダ52に伝達することができる。こうすることで、レーダ52は、システムに指示された方位で最適になるように、送信・受信のビームBMを調整し、センシングを行うことができる。 In addition to such visibility information, the vehicle control system 11 of the present disclosure can determine the direction in which positioning should be performed by the radar 52 from image information obtained from the camera 51 and transmit the direction to the radar 52 . By doing so, the radar 52 can adjust the transmission/reception beam BM so as to be optimal in the direction indicated by the system, and perform sensing.

この際、レーダ52で検出される物体の像を再びカメラ51にフィードバックし、カメラ51で取得した画像情報と比較し、レーダ52の偽像となりうる像を排除したうえで、カメラ51から得られる特徴点までの距離をレーダ52から得られる距離を用いてマッピングすることができる。これにより、カメラ51の不得意とする環境における動作の信頼性が向上する。 At this time, the image of the object detected by the radar 52 is fed back to the camera 51 again, compared with the image information acquired by the camera 51, and after eliminating the image that may be a false image of the radar 52, the image is obtained from the camera 51. Distances to feature points can be mapped using distances obtained from radar 52 . This improves the reliability of operation in environments in which the camera 51 is not good.

[2.車両制御システムの構成例]
図2は、車両制御システム11の構成例を示すブロック図である。
[2. Configuration example of vehicle control system]
FIG. 2 is a block diagram showing a configuration example of the vehicle control system 11. As shown in FIG.

車両制御システム11は、車両1に設けられ、車両1の走行支援及び自動運転に関わる処理を行う。 The vehicle control system 11 is provided in the vehicle 1 and performs processing related to driving support and automatic driving of the vehicle 1 .

車両制御システム11は、車両制御ECU(Electronic Control Unit)21、通信部22、地図情報蓄積部23、位置情報取得部24、外部認識センサ25、車内センサ26、車両センサ27、記憶部28、走行支援・自動運転制御部29、DMS(Driver Monitoring System)30、HMI(Human Machine Interface)31、及び、車両制御部32を備える。 The vehicle control system 11 includes a vehicle control ECU (Electronic Control Unit) 21, a communication unit 22, a map information storage unit 23, a position information acquisition unit 24, an external recognition sensor 25, an in-vehicle sensor 26, a vehicle sensor 27, a storage unit 28, a driving A support/automatic driving control unit 29 , a DMS (Driver Monitoring System) 30 , an HMI (Human Machine Interface) 31 , and a vehicle control unit 32 are provided.

車両制御ECU21、通信部22、地図情報蓄積部23、位置情報取得部24、外部認識センサ25、車内センサ26、車両センサ27、記憶部28、走行支援・自動運転制御部29、ドライバモニタリングシステム(DMS)30、ヒューマンマシンインタフェース(HMI)31、及び、車両制御部32は、通信ネットワーク41を介して相互に通信可能に接続されている。 Vehicle control ECU 21, communication unit 22, map information storage unit 23, position information acquisition unit 24, external recognition sensor 25, in-vehicle sensor 26, vehicle sensor 27, storage unit 28, driving support/automatic driving control unit 29, driver monitoring system ( DMS) 30 , human machine interface (HMI) 31 , and vehicle control unit 32 are connected via a communication network 41 so as to be able to communicate with each other.

通信ネットワーク41は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)、FlexRay(登録商標)、イーサネット(登録商標)といったディジタル双方向通信の規格に準拠した車載通信ネットワークやバス等により構成される。通信ネットワーク41は、伝送されるデータの種類によって使い分けられてもよい。例えば、車両制御に関するデータに対してCANが適用され、大容量データに対してイーサネットが適用されるようにしてもよい。 The communication network 41 is, for example, a CAN (Controller Area Network), a LIN (Local Interconnect Network), a LAN (Local Area Network), a FlexRay (registered trademark), an Ethernet (registered trademark), and other digital two-way communication standards. It is composed of a communication network, a bus, and the like. The communication network 41 may be used properly depending on the type of data to be transmitted. For example, CAN may be applied to data related to vehicle control, and Ethernet may be applied to large-capacity data.

なお、車両制御システム11の各部は、通信ネットワーク41を介さずに、例えば近距離無線通信(NFC(Near Field Communication))やBluetooth(登録商標)といった比較的近距離での通信を想定した無線通信を用いて直接的に接続される場合もある。 It should be noted that each unit of the vehicle control system 11 performs wireless communication assuming relatively short-range communication, such as near field communication (NFC) or Bluetooth (registered trademark), without going through the communication network 41. may be connected directly using

なお、以下、車両制御システム11の各部が、通信ネットワーク41を介して通信を行う場合、通信ネットワーク41の記載を省略するものとする。例えば、車両制御ECU21と通信部22が通信ネットワーク41を介して通信を行う場合、単に車両制御ECU21と通信部22とが通信を行うと記載する。 In addition, hereinafter, when each part of the vehicle control system 11 communicates via the communication network 41, the description of the communication network 41 shall be omitted. For example, when the vehicle control ECU 21 and the communication unit 22 communicate via the communication network 41, it is simply described that the vehicle control ECU 21 and the communication unit 22 communicate.

車両制御ECU21は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)といった各種のプロセッサにより構成される。車両制御ECU21は、車両制御システム11全体又は一部の機能の制御を行う。 The vehicle control ECU 21 is composed of various processors such as a CPU (Central Processing Unit) and an MPU (Micro Processing Unit). The vehicle control ECU 21 controls the functions of the entire vehicle control system 11 or a part thereof.

通信部22は、車内及び車外の様々な機器、他の車両、サーバ、基地局等と通信を行い、各種のデータの送受信を行う。このとき、通信部22は、複数の通信方式を用いて通信を行うことができる。 The communication unit 22 communicates with various devices inside and outside the vehicle, other vehicles, servers, base stations, etc., and transmits and receives various data. At this time, the communication unit 22 can perform communication using a plurality of communication methods.

通信部22が実行可能な車外との通信について、概略的に説明する。通信部22は、例えば、5G(第5世代移動通信システム)、LTE(Long Term Evolution)、DSRC(Dedicated Short Range Communications)等の無線通信方式により、基地局又はアクセスポイントを介して、外部ネットワーク上に存在するサーバ(以下、外部のサーバと呼ぶ)等と通信を行う。通信部22が通信を行う外部ネットワークは、例えば、インターネット、クラウドネットワーク、又は、事業者固有のネットワーク等である。通信部22が外部ネットワークに対して行う通信方式は、所定以上の通信速度、且つ、所定以上の距離間でディジタル双方向通信が可能な無線通信方式であれば、特に限定されない。 Communication with the outside of the vehicle that can be performed by the communication unit 22 will be described schematically. The communication unit 22 is, for example, 5G (fifth generation mobile communication system), LTE (Long Term Evolution), DSRC (Dedicated Short Range Communications), etc., via a base station or an access point, by a wireless communication method such as on an external network. communicates with a server (hereinafter referred to as an external server) located in the The external network with which the communication unit 22 communicates is, for example, the Internet, a cloud network, or a provider's own network. The communication method that the communication unit 22 performs with the external network is not particularly limited as long as it is a wireless communication method that enables digital two-way communication at a communication speed of a predetermined value or more and a distance of a predetermined value or more.

また例えば、通信部22は、P2P(Peer To Peer)技術を用いて、自車の近傍に存在する端末と通信を行うことができる。自車の近傍に存在する端末は、例えば、歩行者や自転車等の比較的低速で移動する移動体が装着する端末、店舗等に位置が固定されて設置される端末、又は、MTC(Machine Type Communication)端末である。さらに、通信部22は、V2X通信を行うこともできる。V2X通信とは、例えば、他の車両との間の車-車間(Vehicle to Vehicle)通信、路側器等との間の路車間(Vehicle to Infrastructure)通信、家との間(Vehicle to Home)の通信、及び、歩行者が所持する端末等との間の歩車間(Vehicle to Pedestrian)通信等の、自車と他との通信をいう。 Further, for example, the communication unit 22 can communicate with a terminal existing in the vicinity of the vehicle using P2P (Peer To Peer) technology. The terminals existing near the own vehicle are, for example, terminals worn by mobile bodies such as pedestrians and bicycles that move at a relatively low speed, terminals installed at fixed locations such as shops, or MTC (Machine Type Communication) terminal. Furthermore, the communication unit 22 can also perform V2X communication. V2X communication includes, for example, vehicle-to-vehicle communication with other vehicles, vehicle-to-infrastructure communication with roadside equipment, etc., and vehicle-to-home communication. communication, and communication between a vehicle and others, such as vehicle-to-pedestrian communication with a terminal or the like possessed by a pedestrian.

通信部22は、例えば、車両制御システム11の動作を制御するソフトウエアを更新するためのプログラムを外部から受信することができる(Over The Air)。通信部22は、さらに、地図情報、交通情報、車両1の周囲の情報等を外部から受信することができる。また例えば、通信部22は、車両1に関する情報や、車両1の周囲の情報等を外部に送信することができる。通信部22が外部に送信する車両1に関する情報としては、例えば、車両1の状態を示すデータ、認識部73による認識結果等がある。さらに例えば、通信部22は、eコール等の車両緊急通報システムに対応した通信を行う。 The communication unit 22 can receive, for example, a program for updating software that controls the operation of the vehicle control system 11 from the outside (Over The Air). The communication unit 22 can also receive map information, traffic information, information around the vehicle 1, and the like from the outside. Further, for example, the communication unit 22 can transmit information about the vehicle 1, information about the surroundings of the vehicle 1, and the like to the outside. The information about the vehicle 1 that the communication unit 22 transmits to the outside includes, for example, data indicating the state of the vehicle 1, recognition results by the recognition unit 73, and the like. Furthermore, for example, the communication unit 22 performs communication corresponding to a vehicle emergency call system such as e-call.

例えば、通信部22は、電波ビーコン、光ビーコン、FM多重放送等の道路交通情報通信システム(VICS(Vehicle Information and Communication System)(登録商標))により送信される電磁波を受信する。 For example, the communication unit 22 receives electromagnetic waves transmitted by a vehicle information and communication system (VICS (registered trademark)) such as radio wave beacons, optical beacons, and FM multiplex broadcasting.

通信部22が実行可能な車内との通信について、概略的に説明する。通信部22は、例えば無線通信を用いて、車内の各機器と通信を行うことができる。通信部22は、例えば、無線LAN、Bluetooth、NFC、WUSB(Wireless USB)といった、無線通信により所定以上の通信速度でディジタル双方向通信が可能な通信方式により、車内の機器と無線通信を行うことができる。これに限らず、通信部22は、有線通信を用いて車内の各機器と通信を行うこともできる。例えば、通信部22は、図示しない接続端子に接続されるケーブルを介した有線通信により、車内の各機器と通信を行うことができる。通信部22は、例えば、USB(Universal Serial Bus)、HDMI(High-Definition Multimedia Interface)(登録商標)、MHL(Mobile High-definition Link)といった、有線通信により所定以上の通信速度でディジタル双方向通信が可能な通信方式により、車内の各機器と通信を行うことができる。 Communication with the inside of the vehicle that can be performed by the communication unit 22 will be described schematically. The communication unit 22 can communicate with each device in the vehicle using, for example, wireless communication. The communication unit 22 performs wireless communication with devices in the vehicle using a communication method such as wireless LAN, Bluetooth, NFC, and WUSB (Wireless USB) that enables digital two-way communication at a communication speed higher than a predetermined value. can be done. Not limited to this, the communication unit 22 can also communicate with each device in the vehicle using wired communication. For example, the communication unit 22 can communicate with each device in the vehicle by wired communication via a cable connected to a connection terminal (not shown). The communication unit 22 performs digital two-way communication at a communication speed equal to or higher than a predetermined speed by wired communication such as USB (Universal Serial Bus), HDMI (High-Definition Multimedia Interface) (registered trademark), and MHL (Mobile High-definition Link). can communicate with each device in the vehicle.

ここで、車内の機器とは、例えば、車内において通信ネットワーク41に接続されていない機器を指す。車内の機器としては、例えば、運転者等の搭乗者PAが所持するモバイル機器やウェアラブル機器、車内に持ち込まれ一時的に設置される情報機器等が想定される。 Here, the in-vehicle device refers to, for example, a device in the vehicle that is not connected to the communication network 41 . Examples of in-vehicle devices include mobile devices and wearable devices possessed by passengers PA such as drivers, information devices brought into the vehicle and temporarily installed, and the like.

地図情報蓄積部23は、外部から取得した地図及び車両1で作成した地図の一方又は両方を蓄積する。例えば、地図情報蓄積部23は、3次元の高精度地図、高精度地図より精度が低く、広いエリアをカバーするグローバルマップ等を蓄積する。 The map information accumulation unit 23 accumulates one or both of an externally acquired map and a map created by the vehicle 1 . For example, the map information accumulation unit 23 accumulates a three-dimensional high-precision map, a global map covering a wide area, and the like, which is lower in accuracy than the high-precision map.

高精度地図は、例えば、ダイナミックマップ、ポイントクラウドマップ、ベクターマップ等である。ダイナミックマップは、例えば、動的情報、準動的情報、準静的情報、静的情報の4層からなる地図であり、外部のサーバ等から車両1に提供される。ポイントクラウドマップは、ポイントクラウド(点群データ)により構成される地図である。ベクターマップは、例えば、車線や信号機の位置といった交通情報等をポイントクラウドマップに対応付け、ADAS(Advanced Driver Assistance System)やAD(Autonomous Driving)に適合させた地図である。 High-precision maps are, for example, dynamic maps, point cloud maps, vector maps, and the like. The dynamic map is, for example, a map consisting of four layers of dynamic information, quasi-dynamic information, quasi-static information, and static information, and is provided to the vehicle 1 from an external server or the like. A point cloud map is a map composed of a point cloud (point cloud data). A vector map is, for example, a map adapted to ADAS (Advanced Driver Assistance System) and AD (Autonomous Driving) by associating traffic information such as lane and traffic signal positions with a point cloud map.

ポイントクラウドマップ及びベクターマップは、例えば、外部のサーバ等から提供されてもよいし、カメラ51、レーダ52、LiDAR53等によるセンシング結果に基づいて、後述するローカルマップとのマッチングを行うための地図として車両1で作成され、地図情報蓄積部23に蓄積されてもよい。また、外部のサーバ等から高精度地図が提供される場合、通信容量を削減するため、車両1がこれから走行する計画経路に関する、例えば数百メートル四方の地図データが外部のサーバ等から取得される。 The point cloud map and the vector map, for example, may be provided from an external server or the like, and based on the sensing results of the camera 51, radar 52, LiDAR 53, etc., as a map for matching with a local map described later. It may be created by the vehicle 1 and stored in the map information storage unit 23 . Further, when a high-precision map is provided from an external server or the like, in order to reduce the communication capacity, map data of, for example, several hundred meters square, regarding the planned route that the vehicle 1 will travel from now on, is acquired from the external server or the like. .

位置情報取得部24は、GNSS91(Global Navigation Satellite System)衛星からGNSS信号を受信し、車両1の位置情報を取得する。取得した位置情報は、走行支援・自動運転制御部29に供給される。なお、位置情報取得部24は、GNSS信号を用いた方式に限定されず、例えば、ビーコンを用いて位置情報を取得してもよい。 The position information acquisition unit 24 receives GNSS signals from GNSS91 (Global Navigation Satellite System) satellites and acquires position information of the vehicle 1 . The acquired position information is supplied to the driving support/automatic driving control unit 29 . Note that the location information acquisition unit 24 is not limited to the method using GNSS signals, and may acquire location information using beacons, for example.

外部認識センサ25は、車両1の外部の状況の認識に用いられる各種のセンサを備え、各センサからのセンサデータを車両制御システム11の各部に供給する。外部認識センサ25が備えるセンサの種類や数は任意である。 The external recognition sensor 25 includes various sensors used for recognizing external conditions of the vehicle 1 and supplies sensor data from each sensor to each part of the vehicle control system 11 . The type and number of sensors included in the external recognition sensor 25 are arbitrary.

例えば、外部認識センサ25は、カメラ51、レーダ52、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)53、及び、超音波センサ54を備える。これに限らず、外部認識センサ25は、カメラ51、レーダ52、LiDAR53、及び、超音波センサ54のうち1種類以上のセンサを備える構成でもよい。カメラ51、レーダ52、LiDAR53、及び、超音波センサ54の数は、現実的に車両1に設置可能な数であれば特に限定されない。また、外部認識センサ25が備えるセンサの種類は、この例に限定されず、外部認識センサ25は、他の種類のセンサを備えてもよい。外部認識センサ25が備える各センサのセンシング領域の例は、後述する。 For example, the external recognition sensor 25 includes a camera 51 , a radar 52 , a LiDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) 53 , and an ultrasonic sensor 54 . The configuration is not limited to this, and the external recognition sensor 25 may be configured to include one or more types of sensors among the camera 51 , radar 52 , LiDAR 53 , and ultrasonic sensor 54 . The numbers of cameras 51 , radars 52 , LiDARs 53 , and ultrasonic sensors 54 are not particularly limited as long as they are realistically installable in the vehicle 1 . Moreover, the type of sensor provided in the external recognition sensor 25 is not limited to this example, and the external recognition sensor 25 may be provided with other types of sensors. An example of the sensing area of each sensor included in the external recognition sensor 25 will be described later.

なお、カメラ51の撮影方式は、特に限定されない。例えば、測距が可能な撮影方式であるToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラといった各種の撮影方式のカメラを、必要に応じてカメラ51に適用することができる。これに限らず、カメラ51は、測距に関わらずに、単に撮影画像を取得するためのものであってもよい。 Note that the imaging method of the camera 51 is not particularly limited. For example, cameras of various types such as a ToF (Time Of Flight) camera, a stereo camera, a monocular camera, and an infrared camera, which are capable of distance measurement, can be applied to the camera 51 as necessary. The camera 51 is not limited to this, and may simply acquire a photographed image regardless of distance measurement.

また、例えば、外部認識センサ25は、車両1に対する環境を検出するための環境センサを備えることができる。環境センサは、天候、気象、明るさ等の環境を検出するためのセンサであって、例えば、雨滴センサ、霧センサ、日照センサ、雪センサ、照度センサ等の各種センサを含むことができる。 Also, for example, the external recognition sensor 25 can include an environment sensor for detecting the environment with respect to the vehicle 1 . The environment sensor is a sensor for detecting the environment such as weather, climate, brightness, etc., and can include various sensors such as raindrop sensors, fog sensors, sunshine sensors, snow sensors, and illuminance sensors.

さらに、例えば、外部認識センサ25は、車両1の周囲の音や音源の位置の検出等に用いられるマイクロフォンを備える。 Furthermore, for example, the external recognition sensor 25 includes a microphone used for detecting sounds around the vehicle 1 and the position of a sound source.

車内センサ26は、車内の情報を検出するための各種のセンサを備え、各センサからのセンサデータを車両制御システム11の各部に供給する。車内センサ26が備える各種センサの種類や数は、現実的に車両1に設置可能な種類や数であれば特に限定されない。 The in-vehicle sensor 26 includes various sensors for detecting information inside the vehicle, and supplies sensor data from each sensor to each section of the vehicle control system 11 . The types and number of various sensors included in the in-vehicle sensor 26 are not particularly limited as long as they are the types and number that can be realistically installed in the vehicle 1 .

例えば、車内センサ26は、カメラ、レーダ、着座センサ、ステアリングホイールセンサ、マイクロフォンおよび生体センサのうち1種類以上のセンサを備えることができる。車内センサ26が備えるカメラとしては、例えば、ToFカメラ、ステレオカメラ、単眼カメラおよび赤外線カメラといった、測距可能な各種の撮影方式のカメラを用いることができる。これに限らず、車内センサ26が備えるカメラは、測距に関わらずに、単に撮影画像を取得するためのものであってもよい。車内センサ26が備える生体センサは、例えば、シートやステアリングホイール等に設けられ、運転者等の搭乗者の各種の生体情報を検出する。 For example, in-vehicle sensors 26 may comprise one or more of cameras, radar, seat sensors, steering wheel sensors, microphones, and biometric sensors. As the camera provided in the in-vehicle sensor 26, for example, cameras of various shooting methods capable of distance measurement, such as a ToF camera, a stereo camera, a monocular camera, and an infrared camera, can be used. The camera included in the in-vehicle sensor 26 is not limited to this, and may simply acquire a photographed image regardless of distance measurement. The biosensors included in the in-vehicle sensor 26 are provided, for example, on a seat, a steering wheel, or the like, and detect various biometric information of a passenger such as a driver.

車両センサ27は、車両1の状態を検出するための各種のセンサを備え、各センサからのセンサデータを車両制御システム11の各部に供給する。車両センサ27が備える各種センサの種類や数は、現実的に車両1に設置可能な種類や数であれば特に限定されない。 The vehicle sensor 27 includes various sensors for detecting the state of the vehicle 1 and supplies sensor data from each sensor to each section of the vehicle control system 11 . The types and number of various sensors included in the vehicle sensor 27 are not particularly limited as long as the types and number are practically installable in the vehicle 1 .

例えば、車両センサ27は、速度センサ、加速度センサ、角速度センサ(ジャイロセンサ)、及び、それらを統合した慣性計測装置(IMU(Inertial Measurement Unit))を備える。例えば、車両センサ27は、ステアリングホイールの操舵角を検出する操舵角センサ、ヨーレートセンサ、アクセルペダルの操作量を検出するアクセルセンサ、及び、ブレーキペダルの操作量を検出するブレーキセンサを備える。例えば、車両センサ27は、エンジンやモータの回転数を検出する回転センサ、タイヤの空気圧を検出する空気圧センサ、タイヤのスリップ率を検出するスリップ率センサ、及び、車輪の回転速度を検出する車輪速センサを備える。例えば、車両センサ27は、バッテリの残量及び温度を検出するバッテリセンサ、並びに、外部からの衝撃を検出する衝撃センサを備える。車両センサ27は、運転ステータスDSを検出するセンサを備える。 For example, the vehicle sensor 27 includes a speed sensor, an acceleration sensor, an angular velocity sensor (gyro sensor), and an inertial measurement unit (IMU) integrating them. For example, the vehicle sensor 27 includes a steering angle sensor that detects the steering angle of the steering wheel, a yaw rate sensor, an accelerator sensor that detects the amount of operation of the accelerator pedal, and a brake sensor that detects the amount of operation of the brake pedal. For example, the vehicle sensor 27 includes a rotation sensor that detects the number of rotations of an engine or a motor, an air pressure sensor that detects tire air pressure, a slip rate sensor that detects a tire slip rate, and a wheel speed sensor that detects the rotational speed of a wheel. A sensor is provided. For example, the vehicle sensor 27 includes a battery sensor that detects the remaining battery level and temperature, and an impact sensor that detects external impact. Vehicle sensor 27 includes a sensor that detects driving status DS.

記憶部28は、不揮発性の記憶媒体及び揮発性の記憶媒体のうち少なくとも一方を含み、データやプログラムを記憶する。記憶部28は、例えばEEPROM(Electrically Erasable Programmable Read Only Memory)及びRAM(Random Access Memory)として用いられ、記憶媒体としては、HDD(Hard Disc Drive)といった磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、及び、光磁気記憶デバイスを適用することができる。記憶部28は、車両制御システム11の各部が用いる各種プログラムやデータを記憶する。例えば、記憶部28は、EDR(Event Data Recorder)やDSSAD(Data Storage System for Automated Driving)を備え、事故等のイベントの前後の車両1の情報や車内センサ26によって取得された情報を記憶する。 The storage unit 28 includes at least one of a nonvolatile storage medium and a volatile storage medium, and stores data and programs. The storage unit 28 is used, for example, as an EEPROM (Electrically Erasable Programmable Read Only Memory) and a RAM (Random Access Memory). And a magneto-optical storage device can be applied. The storage unit 28 stores various programs and data used by each unit of the vehicle control system 11 . For example, the storage unit 28 includes an EDR (Event Data Recorder) and a DSSAD (Data Storage System for Automated Driving), and stores information on the vehicle 1 before and after an event such as an accident and information acquired by the in-vehicle sensor 26 .

走行支援・自動運転制御部29は、車両1の走行支援及び自動運転の制御を行う。例えば、走行支援・自動運転制御部29は、分析部61、行動計画部62、及び、動作制御部63を備える。 The driving support/automatic driving control unit 29 controls driving support and automatic driving of the vehicle 1 . For example, the driving support/automatic driving control unit 29 includes an analysis unit 61 , an action planning unit 62 and an operation control unit 63 .

分析部61は、車両1及び周囲の状況の分析処理を行う。分析部61は、自己位置推定部71、センサフュージョン部72、及び、認識部73を備える。 The analysis unit 61 analyzes the vehicle 1 and its surroundings. The analysis unit 61 includes a self-position estimation unit 71 , a sensor fusion unit 72 and a recognition unit 73 .

自己位置推定部71は、外部認識センサ25からのセンサデータ、及び、地図情報蓄積部23に蓄積されている高精度地図に基づいて、車両1の自己位置を推定する。例えば、自己位置推定部71は、外部認識センサ25からのセンサデータに基づいてローカルマップを生成し、ローカルマップと高精度地図とのマッチングを行うことにより、車両1の自己位置を推定する。車両1の位置は、例えば、後輪対車軸の中心が基準とされる。 The self-position estimation unit 71 estimates the self-position of the vehicle 1 based on the sensor data from the external recognition sensor 25 and the high-precision map accumulated in the map information accumulation unit 23 . For example, the self-position estimation unit 71 generates a local map based on sensor data from the external recognition sensor 25, and estimates the self-position of the vehicle 1 by matching the local map and the high-precision map. The position of the vehicle 1 is based on, for example, the center of the rear wheel versus axle.

ローカルマップは、例えば、SLAM(Simultaneous Localization and Mapping)等の技術を用いて作成される3次元の高精度地図、占有格子地図(Occupancy Grid Map)等である。3次元の高精度地図は、例えば、上述したポイントクラウドマップ等である。占有格子地図は、車両1の周囲の3次元又は2次元の空間を所定の大きさのグリッド(格子)に分割し、グリッド単位で物体の占有状態を示す地図である。物体の占有状態は、例えば、物体の有無や存在確率により示される。ローカルマップは、例えば、認識部73による車両1の外部の状況の検出処理及び認識処理にも用いられる。 The local map is, for example, a three-dimensional high-precision map created using a technique such as SLAM (Simultaneous Localization and Mapping), an occupancy grid map, or the like. The three-dimensional high-precision map is, for example, the point cloud map described above. The occupancy grid map is a map that divides the three-dimensional or two-dimensional space around the vehicle 1 into grids (lattice) of a predetermined size and shows the occupancy state of objects in grid units. The occupancy state of an object is indicated, for example, by the presence or absence of the object and the existence probability. The local map is also used, for example, by the recognizing unit 73 for detection processing and recognition processing of the situation outside the vehicle 1 .

なお、自己位置推定部71は、位置情報取得部24により取得される位置情報、及び、車両センサ27からのセンサデータに基づいて、車両1の自己位置を推定してもよい。 The self-position estimation unit 71 may estimate the self-position of the vehicle 1 based on the position information acquired by the position information acquisition unit 24 and sensor data from the vehicle sensor 27 .

センサフュージョン部72は、複数の異なる種類のセンサデータ(例えば、カメラ51から供給される画像データ、及び、レーダ52から供給されるセンサデータ)を組み合わせて、新たな情報を得るセンサフュージョン処理を行う。異なる種類のセンサデータを組合せる方法としては、統合、融合、連合等がある。 The sensor fusion unit 72 combines a plurality of different types of sensor data (for example, image data supplied from the camera 51 and sensor data supplied from the radar 52) to perform sensor fusion processing to obtain new information. . Methods for combining different types of sensor data include integration, fusion, federation, and the like.

認識部73は、車両1の外部の状況の検出を行う検出処理、及び、車両1の外部の状況の認識を行う認識処理を実行する。 The recognition unit 73 executes a detection process for detecting the situation outside the vehicle 1 and a recognition process for recognizing the situation outside the vehicle 1 .

例えば、認識部73は、外部認識センサ25からの情報、自己位置推定部71からの情報、センサフュージョン部72からの情報等に基づいて、車両1の外部の状況の検出処理及び認識処理を行う。 For example, the recognition unit 73 performs detection processing and recognition processing of the situation outside the vehicle 1 based on information from the external recognition sensor 25, information from the self-position estimation unit 71, information from the sensor fusion unit 72, and the like. .

具体的には、例えば、認識部73は、車両1の周囲の物体の検出処理及び認識処理等を行う。物体の検出処理とは、例えば、物体の有無、大きさ、形、位置、動き等を検出する処理である。物体の認識処理とは、例えば、物体の種類等の属性を認識したり、特定の物体を識別したりする処理である。ただし、検出処理と認識処理とは、必ずしも明確に分かれるものではなく、重複する場合がある。 Specifically, for example, the recognition unit 73 performs detection processing, recognition processing, and the like of objects around the vehicle 1 . Object detection processing is, for example, processing for detecting the presence or absence, size, shape, position, movement, and the like of an object. Object recognition processing is, for example, processing for recognizing an attribute such as the type of an object or identifying a specific object. However, detection processing and recognition processing are not always clearly separated, and may overlap.

例えば、認識部73は、レーダ52又はLiDAR53等によるセンサデータに基づくポイントクラウドを点群の塊毎に分類するクラスタリングを行うことにより、車両1の周囲の物体を検出する。これにより、車両1の周囲の物体の有無、大きさ、形状、位置が検出される。 For example, the recognition unit 73 detects objects around the vehicle 1 by clustering the point cloud based on sensor data obtained by the radar 52 or the LiDAR 53 or the like for each cluster of point groups. As a result, presence/absence, size, shape, and position of objects around the vehicle 1 are detected.

例えば、認識部73は、クラスタリングにより分類された点群の塊の動きを追従するトラッキングを行うことにより、車両1の周囲の物体の動きを検出する。これにより、車両1の周囲の物体の速度及び進行方向(移動ベクトル)が検出される。 For example, the recognition unit 73 detects the motion of objects around the vehicle 1 by performing tracking that follows the motion of the cluster of points classified by clustering. As a result, the speed and traveling direction (movement vector) of the object around the vehicle 1 are detected.

例えば、認識部73は、カメラ51から供給される画像データに基づいて、車両、人、自転車、障害物、構造物、道路、信号機、交通標識、道路標示等を検出又は認識する。また、認識部73は、セマンティックセグメンテーション等の認識処理を行うことにより、車両1の周囲の物体の種類を認識してもよい。 For example, the recognition unit 73 detects or recognizes vehicles, people, bicycles, obstacles, structures, roads, traffic lights, traffic signs, road markings, etc. based on the image data supplied from the camera 51 . Further, the recognition unit 73 may recognize types of objects around the vehicle 1 by performing recognition processing such as semantic segmentation.

例えば、認識部73は、地図情報蓄積部23に蓄積されている地図、自己位置推定部71による自己位置の推定結果、及び、認識部73による車両1の周囲の物体の認識結果に基づいて、車両1の周囲の交通ルールの認識処理を行うことができる。認識部73は、この処理により、信号機の位置及び状態、交通標識及び道路標示の内容、交通規制の内容、並びに、走行可能な車線等を認識することができる。 For example, the recognition unit 73, based on the map accumulated in the map information accumulation unit 23, the estimation result of the self-position by the self-position estimation unit 71, and the recognition result of the object around the vehicle 1 by the recognition unit 73, Recognition processing of traffic rules around the vehicle 1 can be performed. Through this processing, the recognition unit 73 can recognize the position and state of traffic lights, the content of traffic signs and road markings, the content of traffic restrictions, the lanes in which the vehicle can travel, and the like.

例えば、認識部73は、車両1の周囲の環境の認識処理を行うことができる。認識部73が認識対象とする周囲の環境としては、歩行者および周辺車両の有無、天候、気温、湿度、明るさ、及び、路面の状態等が想定される。 For example, the recognition unit 73 can perform recognition processing of the environment around the vehicle 1 . Surrounding environments to be recognized by the recognizing unit 73 include presence/absence of pedestrians and surrounding vehicles, weather, temperature, humidity, brightness, road surface conditions, and the like.

行動計画部62は、車両1の行動計画を作成する。例えば、行動計画部62は、経路計画、経路追従の処理を行うことにより、行動計画を作成する。 The action plan section 62 creates an action plan for the vehicle 1 . For example, the action planning unit 62 creates an action plan by performing route planning and route following processing.

なお、経路計画(Global path planning)とは、スタートからゴールまでの大まかな経路を計画する処理である。この経路計画には、軌道計画と言われ、計画した経路において、車両1の運動特性を考慮して、車両1の近傍で安全かつ滑らかに進行することが可能な軌道生成(Local path planning)を行う処理も含まれる。 Note that global path planning is a process of planning a rough route from the start to the goal. This route planning is called trajectory planning, and includes trajectory generation (local path planning) that allows safe and smooth progress in the vicinity of the vehicle 1 in the planned route, taking into consideration the motion characteristics of the vehicle 1. It also includes the processing to be performed.

経路追従とは、経路計画により計画された経路を計画された時間内で安全かつ正確に走行するための動作を計画する処理である。行動計画部62は、例えば、この経路追従の処理の結果に基づき、車両1の目標速度と目標角速度を計算することができる。 Route following is a process of planning actions for safely and accurately traveling a route planned by route planning within a planned time. The action planning unit 62 can, for example, calculate the target speed and target angular speed of the vehicle 1 based on the result of this route following processing.

動作制御部63は、行動計画部62により作成された行動計画を実現するために、車両1の動作を制御する。 The motion control section 63 controls the motion of the vehicle 1 in order to implement the action plan created by the action planning section 62 .

例えば、動作制御部63は、後述する車両制御部32に含まれる、ステアリング制御部81、ブレーキ制御部82、及び、駆動制御部83を制御して、軌道計画により計算された軌道を車両1が進行するように、加減速制御及び方向制御を行う。例えば、動作制御部63は、衝突回避又は衝撃緩和、追従走行、車速維持走行、自車の衝突警告、自車のレーン逸脱警告等のADASの機能実現を目的とした協調制御を行う。例えば、動作制御部63は、運転者の操作によらずに自律的に走行する自動運転等を目的とした協調制御を行う。 For example, the operation control unit 63 controls a steering control unit 81, a brake control unit 82, and a drive control unit 83 included in the vehicle control unit 32, which will be described later, so that the vehicle 1 can control the trajectory calculated by the trajectory plan. Acceleration/deceleration control and direction control are performed so as to advance. For example, the operation control unit 63 performs coordinated control aimed at realizing ADAS functions such as collision avoidance or shock mitigation, follow-up driving, vehicle speed maintenance driving, vehicle collision warning, and vehicle lane departure warning. For example, the operation control unit 63 performs cooperative control aimed at automatic driving in which the vehicle autonomously travels without depending on the operation of the driver.

DMS30は、車内センサ26からのセンサデータ、及び、後述するHMI31に入力される入力データ等に基づいて、運転者の認証処理、及び、運転者の状態の認識処理等を行う。認識対象となる運転者の状態としては、例えば、体調、覚醒度、集中度、疲労度、視線方向、酩酊度、運転操作、姿勢等が想定される。 The DMS 30 performs driver authentication processing, driver state recognition processing, and the like based on sensor data from the in-vehicle sensor 26 and input data input to the HMI 31, which will be described later. As the state of the driver to be recognized, for example, physical condition, wakefulness, concentration, fatigue, gaze direction, drunkenness, driving operation, posture, etc. are assumed.

なお、DMS30が、運転者以外の搭乗者の認証処理、及び、当該搭乗者の状態の認識処理を行うようにしてもよい。また、例えば、DMS30が、車内センサ26からのセンサデータに基づいて、車内の状況の認識処理を行うようにしてもよい。認識対象となる車内の状況としては、例えば、気温、湿度、明るさ、臭い等が想定される。 It should be noted that the DMS 30 may perform authentication processing for passengers other than the driver and processing for recognizing the state of the passenger. Further, for example, the DMS 30 may perform recognition processing of the situation inside the vehicle based on the sensor data from the sensor 26 inside the vehicle. Conditions inside the vehicle to be recognized include temperature, humidity, brightness, smell, and the like, for example.

HMI31は、各種のデータや指示等の入力と、各種のデータの、運転者を含む搭乗者への提示を行う。 The HMI 31 inputs various data and instructions, and presents various data to passengers including the driver.

HMI31によるデータの入力について、概略的に説明する。HMI31は、人がデータを入力するための入力デバイスを備える。HMI31は、入力デバイスにより入力されたデータや指示等に基づいて入力信号を生成し、車両制御システム11の各部に供給する。HMI31は、入力デバイスとして、例えばタッチパネル、ボタン、スイッチ、及び、レバーといった操作子を備える。これに限らず、HMI31は、音声やジェスチャ等により手動操作以外の方法で情報を入力可能な入力デバイスをさらに備えてもよい。さらに、HMI31は、例えば、赤外線又は電波を利用したリモートコントロール装置や、車両制御システム11の操作に対応したモバイル機器又はウェアラブル機器等の外部接続機器を入力デバイスとして用いてもよい。 Data input by the HMI 31 will be schematically described. The HMI 31 comprises an input device for human input of data. The HMI 31 generates an input signal based on data, instructions, etc. input from an input device, and supplies the input signal to each section of the vehicle control system 11 . The HMI 31 includes operators such as a touch panel, buttons, switches, and levers as input devices. The HMI 31 is not limited to this, and may further include an input device capable of inputting information by a method other than manual operation using voice, gestures, or the like. Furthermore, the HMI 31 may use, as an input device, a remote control device using infrared rays or radio waves, or an external connection device such as a mobile device or wearable device corresponding to the operation of the vehicle control system 11 .

HMI31によるデータの提示について、概略的に説明する。HMI31は、搭乗者又は車外に対する視覚情報、聴覚情報、及び、触覚情報の生成を行う。また、HMI31は、生成された各情報の出力、出力内容、出力タイミング及び出力方法等を制御する出力制御を行う。HMI31は、視覚情報として、例えば、操作画面、車両1の状態表示、警告表示、車両1の周囲の状況を示すモニタ画像等の画像や光により示される情報(コンテンツ)を生成及び出力する。また、HMI31は、聴覚情報として、例えば、音声ガイダンス、警告音、警告メッセージ等の音により示される情報を生成及び出力する。さらに、HMI31は、触覚情報として、例えば、力、振動、動き等により搭乗者の触覚に与えられる情報を生成及び出力する。 The presentation of data by HMI 31 will be described schematically. The HMI 31 generates visual information, auditory information, and tactile information for the passenger or outside the vehicle. In addition, the HMI 31 performs output control for controlling the output, output content, output timing, output method, and the like of each generated information. The HMI 31 generates and outputs visual information such as an operation screen, a status display of the vehicle 1, a warning display, and information (contents) indicated by an image or light such as a monitor image showing the situation around the vehicle 1. The HMI 31 also generates and outputs information indicated by sounds such as voice guidance, warning sounds, warning messages, etc., as auditory information. Furthermore, the HMI 31 generates and outputs, as tactile information, information given to the passenger's tactile sense by force, vibration, movement, or the like.

HMI31が視覚情報を出力する出力デバイスとしては、例えば、自身が画像を表示することで視覚情報を提示する表示装置や、画像を投影することで視覚情報を提示するプロジェクタ装置を適用することができる。なお、表示装置は、通常のディスプレイを有する表示装置以外にも、例えば、ヘッドアップディスプレイ、透過型ディスプレイ、AR(Augmented Reality)機能を備えるウエアラブルデバイスといった、搭乗者の視界内に視覚情報を表示する装置であってもよい。また、HMI31は、車両1に設けられるナビゲーション装置、インストルメントパネル、CMS(Camera Monitoring System)、電子ミラー、ランプ等が有する表示デバイスを、視覚情報を出力する出力デバイスとして用いることも可能である。 As an output device from which the HMI 31 outputs visual information, for example, a display device that presents visual information by displaying an image by itself or a projector device that presents visual information by projecting an image can be applied. . In addition to the display device having a normal display, the display device is, for example, a head-up display, a transmissive display, a wearable device with an AR (Augmented Reality) function, etc., which displays visual information within the field of view of the passenger. It may be a device. The HMI 31 can also use a display device provided in the vehicle 1 such as a navigation device, an instrument panel, a CMS (Camera Monitoring System), an electronic mirror, a lamp, etc., as an output device for outputting visual information.

HMI31が聴覚情報を出力する出力デバイスとしては、例えば、オーディオスピーカ、ヘッドホン、イヤホンを適用することができる。 As an output device from which the HMI 31 outputs auditory information, for example, audio speakers, headphones, and earphones can be applied.

HMI31が触覚情報を出力する出力デバイスとしては、例えば、ハプティクス技術を用いたハプティクス素子を適用することができる。ハプティクス素子は、例えば、ステアリングホイール、シートといった、車両1の搭乗者が接触する部分に設けられる。 As an output device for the HMI 31 to output tactile information, for example, a haptic element using haptic technology can be applied. A haptic element is provided at a portion of the vehicle 1 that is in contact with a passenger, such as a steering wheel or a seat.

車両制御部32は、車両1の各部の制御を行う。車両制御部32は、ステアリング制御部81、ブレーキ制御部82、駆動制御部83、ボディ系制御部84、ライト制御部85、及び、ホーン制御部86を備える。 The vehicle control section 32 controls each section of the vehicle 1 . The vehicle control section 32 includes a steering control section 81 , a brake control section 82 , a drive control section 83 , a body system control section 84 , a light control section 85 and a horn control section 86 .

ステアリング制御部81は、車両1のステアリングシステムの状態の検出及び制御等を行う。ステアリングシステムは、例えば、ステアリングホイール等を備えるステアリング機構、電動パワーステアリング等を備える。ステアリング制御部81は、例えば、ステアリングシステムの制御を行うステアリングECU、ステアリングシステムの駆動を行うアクチュエータ等を備える。 The steering control unit 81 detects and controls the state of the steering system of the vehicle 1 . The steering system includes, for example, a steering mechanism including a steering wheel, an electric power steering, and the like. The steering control unit 81 includes, for example, a steering ECU that controls the steering system, an actuator that drives the steering system, and the like.

ブレーキ制御部82は、車両1のブレーキシステムの状態の検出及び制御等を行う。ブレーキシステムは、例えば、ブレーキペダル等を含むブレーキ機構、ABS(Antilock Brake System)、回生ブレーキ機構等を備える。ブレーキ制御部82は、例えば、ブレーキシステムの制御を行うブレーキECU、ブレーキシステムの駆動を行うアクチュエータ等を備える。 The brake control unit 82 detects and controls the state of the brake system of the vehicle 1 . The brake system includes, for example, a brake mechanism including a brake pedal, an ABS (Antilock Brake System), a regenerative brake mechanism, and the like. The brake control unit 82 includes, for example, a brake ECU that controls the brake system, an actuator that drives the brake system, and the like.

駆動制御部83は、車両1の駆動システムの状態の検出及び制御等を行う。駆動システムは、例えば、アクセルペダル、内燃機関又は駆動用モータ等の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構等を備える。駆動制御部83は、例えば、駆動システムの制御を行う駆動ECU、駆動システムの駆動を行うアクチュエータ等を備える。 The drive control unit 83 detects and controls the state of the drive system of the vehicle 1 . The drive system includes, for example, an accelerator pedal, a driving force generator for generating driving force such as an internal combustion engine or a driving motor, and a driving force transmission mechanism for transmitting the driving force to the wheels. The drive control unit 83 includes, for example, a drive ECU that controls the drive system, an actuator that drives the drive system, and the like.

ボディ系制御部84は、車両1のボディ系システムの状態の検出及び制御等を行う。ボディ系システムは、例えば、キーレスエントリシステム、スマートキーシステム、パワーウインドウ装置、パワーシート、空調装置、エアバッグ、シートベルト、シフトレバー等を備える。ボディ系制御部84は、例えば、ボディ系システムの制御を行うボディ系ECU、ボディ系システムの駆動を行うアクチュエータ等を備える。 The body system control unit 84 detects and controls the state of the body system of the vehicle 1 . The body system includes, for example, a keyless entry system, smart key system, power window device, power seat, air conditioner, air bag, seat belt, shift lever, and the like. The body system control unit 84 includes, for example, a body system ECU that controls the body system, an actuator that drives the body system, and the like.

ライト制御部85は、車両1の各種のライトの状態の検出及び制御等を行う。制御対象となるライトとしては、例えば、ヘッドライト、バックライト、フォグライト、ターンシグナル、ブレーキライト、プロジェクション、バンパーの表示等が想定される。ライト制御部85は、ライトの制御を行うライトECU、ライトの駆動を行うアクチュエータ等を備える。 The light control unit 85 detects and controls the states of various lights of the vehicle 1 . Lights to be controlled include, for example, headlights, backlights, fog lights, turn signals, brake lights, projections, bumper displays, and the like. The light control unit 85 includes a light ECU that controls the light, an actuator that drives the light, and the like.

ホーン制御部86は、車両1のカーホーンの状態の検出及び制御等を行う。ホーン制御部86は、例えば、カーホーンの制御を行うホーンECU、カーホーンの駆動を行うアクチュエータ等を備える。 The horn control unit 86 detects and controls the state of the car horn of the vehicle 1 . The horn control unit 86 includes, for example, a horn ECU for controlling the car horn, an actuator for driving the car horn, and the like.

[3.外部認識センサのセンシング領域]
図3は、外部認識センサ25のカメラ51、レーダ52、LiDAR53、及び、超音波センサ54等によるセンシング領域の例を示す図である。なお、図3は、車両1を上面から見た様子を模式的に示している。符号が正しい向きで表示されるような姿勢で図3を見た場合、左端側が車両1の前端(フロント)側であり、右端側が車両1の後端(リア)側となっている。
[3. Sensing area of external recognition sensor]
FIG. 3 is a diagram showing an example of sensing areas by the camera 51, the radar 52, the LiDAR 53, the ultrasonic sensor 54, etc. of the external recognition sensor 25. As shown in FIG. Note that FIG. 3 schematically shows a state in which the vehicle 1 is viewed from above. 3, the left side is the front end (front) of the vehicle 1, and the right end is the rear end (rear) of the vehicle 1, when viewing FIG.

センシング領域101F及びセンシング領域101Bは、超音波センサ54のセンシング領域の例を示している。センシング領域101Fは、複数の超音波センサ54によって車両1の前端周辺をカバーしている。センシング領域101Bは、複数の超音波センサ54によって車両1の後端周辺をカバーしている。 A sensing region 101F and a sensing region 101B are examples of sensing regions of the ultrasonic sensor 54 . The sensing area 101</b>F covers the periphery of the front end of the vehicle 1 with a plurality of ultrasonic sensors 54 . The sensing area 101B covers the periphery of the rear end of the vehicle 1 with a plurality of ultrasonic sensors 54 .

センシング領域101F及びセンシング領域101Bにおけるセンシング結果は、例えば、車両1の駐車支援等に用いられる。 The sensing results in the sensing area 101F and the sensing area 101B are used for parking assistance of the vehicle 1, for example.

センシング領域102F乃至センシング領域102Bは、短距離又は中距離用のレーダ52のセンシング領域の例を示している。センシング領域102Fは、車両1の前方において、センシング領域101Fより遠い位置までカバーしている。センシング領域102Bは、車両1の後方において、センシング領域101Bより遠い位置までカバーしている。センシング領域102Lは、車両1の左側面の後方の周辺をカバーしている。センシング領域102Rは、車両1の右側面の後方の周辺をカバーしている。 Sensing areas 102F to 102B are examples of sensing areas of the radar 52 for short or medium range. The sensing area 102F covers the front of the vehicle 1 to a position farther than the sensing area 101F. The sensing area 102B covers the rear of the vehicle 1 to a position farther than the sensing area 101B. The sensing area 102L covers the rear periphery of the left side surface of the vehicle 1 . The sensing area 102R covers the rear periphery of the right side surface of the vehicle 1 .

センシング領域102Fにおけるセンシング結果は、例えば、車両1の前方に存在する車両や歩行者等の検出等に用いられる。センシング領域102Bにおけるセンシング結果は、例えば、車両1の後方の衝突防止機能等に用いられる。センシング領域102L及びセンシング領域102Rにおけるセンシング結果は、例えば、車両1の側方の死角における物体の検出等に用いられる。 The sensing result in the sensing area 102F is used, for example, to detect a vehicle, a pedestrian, or the like existing in front of the vehicle 1, or the like. The sensing result in the sensing area 102B is used for the rear collision prevention function of the vehicle 1, for example. The sensing results in the sensing area 102L and the sensing area 102R are used, for example, to detect an object in a blind spot on the side of the vehicle 1, or the like.

センシング領域103F乃至センシング領域103Bは、カメラ51によるセンシング領域の例を示している。センシング領域103Fは、車両1の前方において、センシング領域102Fより遠い位置までカバーしている。センシング領域103Bは、車両1の後方において、センシング領域102Bより遠い位置までカバーしている。センシング領域103Lは、車両1の左側面の周辺をカバーしている。センシング領域103Rは、車両1の右側面の周辺をカバーしている。 Sensing areas 103</b>F to 103</b>B are examples of sensing areas by the camera 51 . The sensing area 103F covers the front of the vehicle 1 to a position farther than the sensing area 102F. The sensing area 103B covers the rear of the vehicle 1 to a position farther than the sensing area 102B. The sensing area 103L covers the periphery of the left side surface of the vehicle 1 . The sensing area 103R covers the periphery of the right side surface of the vehicle 1 .

センシング領域103Fにおけるセンシング結果は、例えば、信号機や交通標識の認識、車線逸脱防止支援システム、自動ヘッドライト制御システムに用いることができる。センシング領域103Bにおけるセンシング結果は、例えば、駐車支援、及び、サラウンドビューシステムに用いることができる。センシング領域103L及びセンシング領域103Rにおけるセンシング結果は、例えば、サラウンドビューシステムに用いることができる。 The sensing results in the sensing area 103F can be used, for example, in recognition of traffic lights and traffic signs, lane departure prevention support systems, and automatic headlight control systems. A sensing result in the sensing area 103B can be used for parking assistance and a surround view system, for example. Sensing results in the sensing area 103L and the sensing area 103R can be used, for example, in a surround view system.

センシング領域104は、LiDAR53のセンシング領域の例を示している。センシング領域104は、車両1の前方において、センシング領域103Fより遠い位置までカバーしている。一方、センシング領域104は、センシング領域103Fより左右方向の範囲が狭くなっている。 A sensing area 104 shows an example of the sensing area of the LiDAR 53 . The sensing area 104 covers the front of the vehicle 1 to a position farther than the sensing area 103F. On the other hand, the sensing area 104 has a narrower lateral range than the sensing area 103F.

センシング領域104におけるセンシング結果は、例えば、周辺車両等の物体検出に用いられる。 Sensing results in the sensing area 104 are used, for example, to detect objects such as surrounding vehicles.

センシング領域105は、長距離用のレーダ52のセンシング領域の例を示している。
センシング領域105は、車両1の前方において、センシング領域104より遠い位置までカバーしている。一方、センシング領域105は、センシング領域104より左右方向の範囲が狭くなっている。
A sensing area 105 is an example of a sensing area of the long-range radar 52 .
The sensing area 105 covers the front of the vehicle 1 to a position farther than the sensing area 104 . On the other hand, the sensing area 105 has a narrower lateral range than the sensing area 104 .

センシング領域105におけるセンシング結果は、例えば、ACC(Adaptive Cruise Control)、緊急ブレーキ、衝突回避等に用いられる。 The sensing result in the sensing area 105 is used, for example, for ACC (Adaptive Cruise Control), emergency braking, collision avoidance, and the like.

なお、外部認識センサ25が含むカメラ51、レーダ52、LiDAR53、及び、超音波センサ54の各センサのセンシング領域は、図3以外に各種の構成をとってもよい。具体的には、超音波センサ54が車両1の側方もセンシングするようにしてもよいし、LiDAR53が車両1の後方をセンシングするようにしてもよい。また、各センサの設置位置は、上述した各例に限定されない。また、各センサの数は、1つでもよいし、複数であってもよい。 The sensing regions of the camera 51, the radar 52, the LiDAR 53, and the ultrasonic sensor 54 included in the external recognition sensor 25 may have various configurations other than those shown in FIG. Specifically, the ultrasonic sensor 54 may also sense the sides of the vehicle 1 , and the LiDAR 53 may sense the rear of the vehicle 1 . Moreover, the installation position of each sensor is not limited to each example mentioned above. Also, the number of each sensor may be one or plural.

[4.補助センシング方法]
[4-1.従来の車両制御システム]
以下、従来との比較に基づいて、本開示の補助センシング方法について説明する。図4は、従来の車両制御システム19の概略図である。
[4. Auxiliary Sensing Method]
[4-1. Conventional vehicle control system]
The auxiliary sensing method of the present disclosure will be described below based on a comparison with the conventional method. FIG. 4 is a schematic diagram of a conventional vehicle control system 19. As shown in FIG.

従来の車両制御システム19は、カメラ51とレーダ52のデータを並列に処理する。例えば、データ処理部200は、画像信号処理部201およびレーダ信号処理部202を用いて、それぞれカメラ51およびレーダ52のデータから物体の特徴点を抽出する。データ処理部200は、カメラ51およびレーダ52のデータから抽出された特徴点を、画像特徴点データベース203およびレーダ特徴点データベース204と照合する。 A conventional vehicle control system 19 processes camera 51 and radar 52 data in parallel. For example, the data processing unit 200 uses the image signal processing unit 201 and the radar signal processing unit 202 to extract feature points of the object from the data of the camera 51 and the radar 52, respectively. The data processing unit 200 collates the feature points extracted from the data of the camera 51 and the radar 52 with the image feature point database 203 and the radar feature point database 204 .

画像特徴点データベース203には、過去の画像データから抽出された特徴点のデータが蓄積されている。レーダ特徴点データベース204には、過去のレーダ52の計測データから抽出された特徴点のデータが蓄積されている。データ処理部200は、カメラ51の画像データから抽出された特徴点群を画像特徴点データベース203と照合することにより、カメラ51の位置を推定する。データ処理部200は、レーダ52の計測データから抽出された特徴点群をレーダ特徴点データベース204と照合することにより、レーダ52の位置を推定する。特徴点群を用いた自己位置の推定手法としては、公知の方法が採用される。例えば、特許文献1には、画像データから特徴点を抽出し、位置の推定を行う方法について記されている。 The image feature point database 203 stores feature point data extracted from past image data. In the radar feature point database 204, data of feature points extracted from past measurement data of the radar 52 are accumulated. The data processing unit 200 estimates the position of the camera 51 by matching the feature point group extracted from the image data of the camera 51 with the image feature point database 203 . The data processing unit 200 estimates the position of the radar 52 by collating the feature point group extracted from the measurement data of the radar 52 with the radar feature point database 204 . A known method is adopted as a method of estimating the self-position using the feature point group. For example, Patent Literature 1 describes a method of extracting feature points from image data and estimating their positions.

データ処理部200は、カメラ位置の推定情報とレーダ位置の推定情報とをデータ統合部210に出力する。データ統合部210は、GNSS91やIMU92由来の自立航法データに対し、カメラ51およびレーダ52の位置情報のデータを統合する。その際、データ統合部210は、適宜、地図データベース95を参照することで、さらに位置情報の妥当性の確認を行ってもよい。データ統合部210は、例えばカルマンフィルタなどの処理、あるいは、任意の信号処理により信号の統合を行い、位置情報を出力する。 The data processing unit 200 outputs the camera position estimation information and the radar position estimation information to the data integration unit 210 . The data integration unit 210 integrates position information data of the camera 51 and the radar 52 with self-contained navigation data derived from the GNSS 91 and the IMU 92 . At this time, the data integration unit 210 may refer to the map database 95 as appropriate to further confirm the validity of the position information. The data integration unit 210 integrates signals by, for example, Kalman filter processing or arbitrary signal processing, and outputs position information.

[4-2.改良された車両制御システム]
図5は、従来システムを改良した本開示の車両制御システム11の概略図である。
[4-2. Improved vehicle control system]
FIG. 5 is a schematic diagram of the vehicle control system 11 of the present disclosure, which is an improvement over the conventional system.

本開示の車両制御システム11は、カメラ51から抽出された特徴点群の情報と、レーダ52のデータから抽出された特徴点群の情報とを統合する。車両制御システム11は、統合によって得られた高精度な特徴点情報を用いて自己位置推定を行う。特徴点情報の生成処理はデータ処理部300によって行われる。特徴点情報に基づく自己位置の推定処理はデータ統合部310によって行われる。例えば、データ処理部300はセンサフュージョン部72を含む。データ統合部310は自己位置推定部71を含む。 The vehicle control system 11 of the present disclosure integrates information on the feature point group extracted from the camera 51 and information on the feature point group extracted from the data of the radar 52 . The vehicle control system 11 performs self-position estimation using highly accurate feature point information obtained by integration. The process of generating feature point information is performed by the data processing unit 300 . The data integration unit 310 performs self-location estimation processing based on feature point information. For example, data processing section 300 includes sensor fusion section 72 . Data integrating section 310 includes self-position estimating section 71 .

データ処理部300は、画像信号処理部301、レーダ信号処理部302および補助センサ位置情報生成部303を有する。画像信号処理部301は、カメラ51の画像データから特徴点情報を抽出する。特徴点情報は、撮影画像に含まれる各特徴点の位置に関する情報を含む。また、画像信号処理部301は、画像データから視程情報を抽出し、視程情報に基づいてレーダ52の動作パラメータを決定する。画像信号処理部301は、レーダ52の動作パラメータを調整することにより、レーダ52の測位方向(特徴点方位)および有効測位範囲(ビームBMの向きおよび形状)を制御する。レーダ52の動作パラメータの調整は、駆動制御部83によって行われる。 The data processing section 300 has an image signal processing section 301 , a radar signal processing section 302 and an auxiliary sensor position information generating section 303 . The image signal processing unit 301 extracts feature point information from the image data of the camera 51 . The feature point information includes information on the position of each feature point included in the captured image. The image signal processing unit 301 also extracts visibility information from the image data, and determines operating parameters of the radar 52 based on the visibility information. The image signal processing unit 301 controls the positioning direction (feature point orientation) and the effective positioning range (direction and shape of the beam BM) of the radar 52 by adjusting the operating parameters of the radar 52 . Adjustment of the operating parameters of the radar 52 is performed by the drive control section 83 .

レーダ52の有効測位範囲は、レーダ52の最大測位距離によって規定される。最大測位距離は、レーダ52によって測位精度が保証される最大の距離を意味する。レーダ52の最大測位距離は、カメラ51の画像データから算出される視程よりも若干大きい値に設定される。視程が短ければレーダ52の最大測位距離も短く設定される。視程が長ければレーダ52の最大測位距離も長く設定される。例えば、最大測位距離は、画像データから得られる視程よりも5メートル以上10メートル以下だけ大きい値に設定される。 The effective positioning range of the radar 52 is defined by the maximum positioning distance of the radar 52 . The maximum positioning distance means the maximum distance for which positioning accuracy is guaranteed by the radar 52 . The maximum positioning distance of the radar 52 is set to a value slightly larger than the visibility calculated from the image data of the camera 51 . If the visibility is short, the maximum positioning distance of the radar 52 is also set short. If the visibility is long, the maximum positioning distance of the radar 52 is also set long. For example, the maximum positioning distance is set to a value that is 5 meters or more and 10 meters or less than the visibility obtained from the image data.

レーダ信号処理部302は、レーダ52で計測されたセンサデータから各特徴点までの距離(特徴点距離)を抽出する。画像信号処理部301は、カメラ51の画像データから抽出された各特徴点の位置に関する情報と、レーダ信号処理部302から取得した各特徴点までの距離に関する情報と、を統合する。これにより、画像信号処理部301は、画像データに基づいて生成された特徴点情報の精度を高める。 The radar signal processing unit 302 extracts the distance to each feature point (feature point distance) from the sensor data measured by the radar 52 . The image signal processing unit 301 integrates information regarding the position of each feature point extracted from the image data of the camera 51 and information regarding the distance to each feature point obtained from the radar signal processing unit 302 . Thereby, the image signal processing unit 301 increases the accuracy of the feature point information generated based on the image data.

補助センサ位置情報生成部303は、統合処理によって精度が高められた特徴点情報に基づいて自己位置推定を行う。例えば、車両制御システム11(記憶部28)には、過去の画像データから抽出された特徴点のデータを蓄積した画像特徴点データベースCDが記憶されている。補助センサ位置情報生成部303は、統合処理後の特徴点情報を画像特徴点データベースCDと照合してカメラ51の位置を推定する。補助センサ位置情報生成部303は、カメラ51の位置を示す補助センサ位置情報を生成し、データ統合部310に供給する。データ統合部310は、補助センサ位置情報をGNSS91およびIMU92から得られる自立航法データと統合し、最終的な車両1の位置情報を生成する。 The auxiliary sensor position information generation unit 303 performs self-position estimation based on the feature point information whose accuracy has been improved by the integration process. For example, the vehicle control system 11 (storage unit 28) stores an image feature point database CD in which data of feature points extracted from past image data are accumulated. The auxiliary sensor position information generator 303 estimates the position of the camera 51 by collating the feature point information after the integration processing with the image feature point database CD. The auxiliary sensor position information generation unit 303 generates auxiliary sensor position information indicating the position of the camera 51 and supplies it to the data integration unit 310 . The data integration unit 310 integrates the auxiliary sensor position information with self-contained navigation data obtained from the GNSS 91 and the IMU 92 to generate final position information of the vehicle 1 .

本開示の手法が従来と異なる点は、レーダ処理がカメラ処理に付随する処理構造となっている点である。したがって、本開示の車両制御システム11では、レーダ信号処理部302で処理された情報は、画像信号処理部301を介して間接的に提供される。 The method of the present disclosure differs from the conventional method in that the radar processing is a processing structure that accompanies the camera processing. Therefore, in the vehicle control system 11 of the present disclosure, information processed by the radar signal processing section 302 is provided indirectly via the image signal processing section 301 .

[4-2-1.画像信号処理部]
図6は、画像信号処理部301の構成例を示す図である。
[4-2-1. Image signal processing unit]
FIG. 6 is a diagram showing a configuration example of the image signal processing unit 301. As shown in FIG.

画像信号処理部301は、視程計算部311、特徴点抽出部312および特徴点情報更新部313を有する。入力は、カメラ51から供給される画像データである。 The image signal processing unit 301 has a visibility calculation unit 311 , a feature point extraction unit 312 and a feature point information update unit 313 . The input is image data supplied from the camera 51 .

視程計算部311は、カメラ51の画像データから視程情報を抽出する。視程情報は、肉眼で物体がはっきりと認識できる最大距離(視程)に関する情報を含む。霧、雨および雪などのように視程の値が方位によらずに均一である場合には、視程情報は、方位に依存しない平均的な視程の情報を含む。西日や逆光などの影響で視程の値が方位によってばらつく場合には、視程情報は、方位ごとの視程の値(視程分布)に関する情報を含む。視程分布に偏りがあるか否かは、予め設定された許容基準に基づいて判定される。 The visibility calculator 311 extracts visibility information from the image data of the camera 51 . Visibility information includes information about the maximum distance (visibility) at which an object can be clearly recognized by the naked eye. If the visibility value is uniform regardless of direction, such as fog, rain, and snow, the visibility information includes average visibility information that is independent of direction. If the visibility value varies depending on the azimuth due to the influence of the late afternoon sun, backlight, or the like, the visibility information includes information about the visibility value (visibility distribution) for each azimuth. Whether or not the visibility distribution is biased is determined based on a preset allowable criterion.

視程計算部311は、多層あるいは深層ニューラルネットワークを用いて構成されることが想定される。視程計算部311は、撮影シーンと視程との関係を学習させた多層あるいは深層ニューラルネットワークを用いて視程情報を抽出する。あらかじめ雨、霧および逆光などの画像のシーンをニューラルネットワークに学習させておくことで、高いレスポンスで入力画像に対する視程情報を得ることができる。 It is assumed that the visibility calculator 311 is configured using a multilayer or deep neural network. The visibility calculation unit 311 extracts visibility information using a multi-layer or deep neural network that has learned the relationship between the shooting scene and visibility. By having the neural network learn image scenes such as rain, fog, and backlight in advance, it is possible to obtain visibility information for the input image with high response.

学習には、多数の画像が用いられ、特定の環境条件に対して精度良く視程の値が求められる。例えば、すぐ先が見通せないくらい深い霧が立ち込めている状況に対して視程=1が割り当てられる。一方、カメラ51の視界が損なわれない通常の晴天に対しては、視程=5が割り当てられる。このように、カメラ51で得られている視界をスケーリングすることで、レーダ信号処理部302のパラメータ設定が段階的に変更可能となっている。 A large number of images are used for learning, and the visibility value is determined with high accuracy for specific environmental conditions. For example, a visibility of 1 is assigned to a situation in which the fog is so thick that one cannot see directly ahead. On the other hand, visibility=5 is assigned to normally clear weather where the field of view of the camera 51 is not impaired. By scaling the field of view obtained by the camera 51 in this way, the parameter setting of the radar signal processing unit 302 can be changed stepwise.

特徴点抽出部312は、画像データから複数の特徴点を抽出する。特徴点抽出部312は、画像データから抽出された各特徴点の位置に基づいて特徴点情報を生成し、特徴点情報更新部313に供給する。特徴点の抽出は、例えば、SfM(Structure from Motion)やSuperPointなどの、画像の特徴量を分析するアルゴリズムや、それらを発展させたアルゴリズムを用いて行われる。 A feature point extraction unit 312 extracts a plurality of feature points from image data. The feature point extraction unit 312 generates feature point information based on the position of each feature point extracted from the image data, and supplies the feature point information update unit 313 with the feature point information. Extraction of feature points is performed using, for example, algorithms such as SfM (Structure from Motion) and SuperPoint, which analyze image feature quantities, and algorithms developed from these algorithms.

SfMでは、画像取得、特徴点抽出・対応付け、カメラ位置姿勢推定および3次元地図生成などのステップを経て自己位置の推定が行われる。例えば、下記非特許文献AにSfMの一例の記載がある。 In SfM, self-position estimation is performed through steps such as image acquisition, feature point extraction/association, camera position/orientation estimation, and 3D map generation. For example, Non-Patent Document A below describes an example of SfM.

[非特許文献A]写真測量とリモートセンシング、55巻、3号 [Non-Patent Document A] Photogrammetry and Remote Sensing, Vol. 55, No. 3

SuperPointは、カメラを用いた自己位置の推定手段として、ディープラーニングを用いる。SuperPointでは、あらかじめ画像センサの絶対姿勢と、その姿勢において撮影される画像との関係がディープラーニングにより学習される。学習済みモデルに姿勢推定の対象となる画像を入力すると、画像センサの絶対位置や姿勢が推定される。例えば、下記非特許文献BにSuperPointの一例の記載がある。 SuperPoint uses deep learning as means for estimating self-location using a camera. In SuperPoint, deep learning is used to learn in advance the relationship between the absolute orientation of the image sensor and the image captured in that orientation. When an image for orientation estimation is input to the trained model, the absolute position and orientation of the image sensor are estimated. For example, Non-Patent Document B below describes an example of SuperPoint.

[非特許文献B]Workshop on Deep Learning for Visual SLAM,2018,“SuperPoint:Self-supervised interest point detection and description” [Non-Patent Literature B] Workshop on Deep Learning for Visual SLAM, 2018, "SuperPoint: Self-supervised interest point detection and description"

特徴点抽出部312は、視程情報に基づいて、レーダ52で詳細にセンシングすべき方位を特徴点方位として検出する。特徴点方位は、デフォルトでは車両1の進行方向の前方である。視程分布が許容基準を満たす場合には、特徴点抽出部312は、デフォルトの方位を特徴点方位として検出する。視程分布に許容基準を超える偏りがある場合には、特徴点抽出部312は、視程分布から視程が最も短い方位を特徴点方位として抽出する。 The feature point extracting unit 312 detects, as the feature point azimuth, the direction to be sensed in detail by the radar 52 based on the visibility information. The feature point azimuth is forward in the traveling direction of the vehicle 1 by default. If the visibility distribution satisfies the acceptance criteria, the feature point extraction unit 312 detects the default orientation as the feature point orientation. If the visibility distribution is biased beyond the permissible standard, the feature point extraction unit 312 extracts the orientation with the shortest visibility from the visibility distribution as the feature point orientation.

特徴点情報更新部313は、視程情報に基づいて各特徴点の位置の信頼性(正確性)を判定する。例えば、特徴点情報更新部313は、カメラ51の画像データから得られた特徴点の位置が、視程情報から算出されるカメラ51の有効測位範囲を超える位置に存在する場合には、位置の正確性は低いと推定する。この場合、特徴点情報更新部313は、不正確と推定された特徴点の位置を、レーダ信号処理部302から得られる特徴点までの距離に基づいて補正する。 The feature point information updating unit 313 determines the reliability (accuracy) of the position of each feature point based on the visibility information. For example, when the position of the feature point obtained from the image data of the camera 51 exists at a position that exceeds the effective positioning range of the camera 51 calculated from the visibility information, the feature point information updating unit 313 determines whether the position is accurate. presumed to be low. In this case, the feature point information updating unit 313 corrects the position of the feature point estimated to be inaccurate based on the distance to the feature point obtained from the radar signal processing unit 302 .

例えば、特徴点情報更新部313は、不正確と推定された特徴点の位置を特徴点の方位と特徴点までの距離に分解する。特徴点情報更新部313は、特徴点の方位を変更せずに、特徴点までの距離を、レーダ信号処理部302から得られる特徴点までの距離により置き換える。これにより、特徴点情報更新部313はカメラ51の画像データから得られる特徴点情報を精度の高いものに更新する。補助センサ位置情報生成部303は、更新後の特徴点情報を画像特徴点データベースCDと照合して、カメラ51の位置を示す補助センサ位置情報を生成する。 For example, the feature point information updating unit 313 decomposes the position of the feature point estimated to be inaccurate into the orientation of the feature point and the distance to the feature point. The feature point information updating unit 313 replaces the distance to the feature point with the distance to the feature point obtained from the radar signal processing unit 302 without changing the direction of the feature point. As a result, the feature point information updating unit 313 updates the feature point information obtained from the image data of the camera 51 with high accuracy. The auxiliary sensor position information generation unit 303 collates the updated feature point information with the image feature point database CD to generate auxiliary sensor position information indicating the position of the camera 51 .

[4-2-2.レーダ信号処理部]
図7は、レーダ信号処理部302の構成例を示す図である。
[4-2-2. Radar signal processor]
FIG. 7 is a diagram showing a configuration example of the radar signal processing unit 302. As shown in FIG.

レーダ信号処理部302は、レーダパラメータ決定部321および特徴点距離計算部322を有する。レーダパラメータ決定部321は、視程情報に基づいてレーダ52の測位方向および有効測位範囲を制御する動作パラメータを決定する。レーダ52は、動作パラメータによって規定される測位方向(特徴点方位)および有効測位範囲にある特徴点について距離の測定を行う。動作パラメータは、レーダ52の距離分解能などを制御するためのパラメータを含む。特徴点距離計算部322は動作パラメータに基づいてレーダ52の計測データを解析する。 The radar signal processing unit 302 has a radar parameter determination unit 321 and a feature point distance calculation unit 322 . The radar parameter determination unit 321 determines operation parameters for controlling the positioning direction and effective positioning range of the radar 52 based on the visibility information. The radar 52 performs distance measurements for feature points in the positioning direction (feature point azimuth) defined by the operating parameters and the effective positioning range. The operating parameters include parameters for controlling the range resolution of the radar 52 and the like. The feature point distance calculator 322 analyzes the measurement data of the radar 52 based on the operating parameters.

レーダ52の動作パラメータは、視程の値が小さければ、近距離で最適なパラメータにチューニングされる。視程の値が大きければ、レーダ52の動作パラメータは、より遠距離に合わせてチューニングされる。例えば、FMCWレーダの最大測位距離Rmaxは、一般に下記式(1)のように与えられる。 The operating parameters of the radar 52 are tuned to optimum parameters at close range if the visibility value is small. If the visibility value is large, the operating parameters of radar 52 are tuned for greater range. For example, the maximum positioning distance R max of FMCW radar is generally given by the following formula (1).

Figure 2023069374000002
Figure 2023069374000002

式(1)において、「c」は光速を示す。「Tchirp」はチャープ信号時間幅を示す。「BW」はチャープ信号周波数帯域幅を示す。「f」はIF信号のサンプリング周波数を示す。 In equation (1), "c" indicates the speed of light. “T chirp ” indicates the chirp signal time width. "BW" indicates the chirp signal frequency bandwidth. “f S ” indicates the sampling frequency of the IF signal.

FMCWレーダでは、距離分解能ΔRは、一般に下記式(2)のように与えられる。 In the FMCW radar, the range resolution ΔR is generally given by Equation (2) below.

Figure 2023069374000003
Figure 2023069374000003

したがって、最大測位距離Rmaxを大きくするには、チャープ信号時間幅Tchirpまたはサンプリング周波数fを大きくするか、あるいは、チャープ信号周波数帯域幅BWを小さくする必要がある。 Therefore, in order to increase the maximum positioning distance Rmax , it is necessary to increase the chirp signal time width Tchirp or the sampling frequency fS , or decrease the chirp signal frequency bandwidth BW.

ここで、チャープ信号時間幅Tchirpをあまり大きくすると、検出できる最大の速度が小さくなる問題がある。そのため、チャープ信号時間幅Tchirpはあまり大きくすることができない。また、サンプリング周波数fはビート信号をサンプリングするA/Dコンバータの動作周波数に対応している。そのため、サンプリング周波数fを大きくすると、回路コストが増大する懸念がある。したがって、最大測位距離Rmaxを大きくするには、チャープ信号周波数帯域幅BWを小さい値に設定することが望ましい。しかし、この場合、同時に距離分解能ΔRが増大してしまうというデメリットがある。 Here, if the chirp signal time width T chirp is too large, there is a problem that the maximum speed that can be detected becomes small. Therefore, the chirp signal time width T chirp cannot be made very large. Also, the sampling frequency fS corresponds to the operating frequency of the A/D converter that samples the beat signal. Therefore, if the sampling frequency fS is increased, there is a concern that the circuit cost will increase. Therefore, in order to increase the maximum positioning distance Rmax , it is desirable to set the chirp signal frequency bandwidth BW to a small value. However, in this case, there is a demerit that the range resolution ΔR increases at the same time.

このように、レーダ52の動作パラメータの選択に際しては、レーダ52の最大測位距離Rmaxと距離分解能ΔRとの間にトレードオフが存在する。しかしながら、本開示の方法では、カメラ51での測位が有効な限界距離以上の領域においてレーダ52による補助的な測位が行われる。そして、限界距離は、画像信号処理部301により決定される視程情報を参照して決定される。したがって、レーダ信号処理部302は、限界距離を超えた領域をカバーする最大のチャープ信号周波数帯域幅BWを設定することで、最良の距離分解能ΔRを得ることができる。 Thus, in choosing the operating parameters of radar 52, there is a trade-off between the maximum positioning range Rmax of radar 52 and the range resolution .DELTA.R. However, in the method of the present disclosure, auxiliary positioning is performed by the radar 52 in an area equal to or greater than the effective limit distance for positioning by the camera 51 . The limit distance is determined with reference to visibility information determined by the image signal processing unit 301 . Therefore, the radar signal processing unit 302 can obtain the best range resolution ΔR by setting the maximum chirp signal frequency bandwidth BW that covers the range exceeding the limit distance.

特徴点距離計算部322は、レーダ52の計測結果に基づいて各特徴点までの距離を算出し、特徴点情報更新部313に供給する。特徴点情報更新部313は画像データから抽出された特徴点情報と各特徴点までの距離の情報とを統合して特徴点情報を更新する。特徴点距離計算部322では、レーダ52から入力されるビート信号をA/D変換したのち、各特徴点までの距離を算出する。例えば、特徴点距離計算部322は、入力信号にFFTを施し、そのスペクトラムのピーク値から特徴点までの距離を推定する。 The feature point distance calculator 322 calculates the distance to each feature point based on the measurement result of the radar 52 and supplies the feature point information updater 313 with the calculated distance. A feature point information updating unit 313 integrates the feature point information extracted from the image data and the distance information to each feature point to update the feature point information. The feature point distance calculator 322 A/D-converts the beat signal input from the radar 52, and then calculates the distance to each feature point. For example, the feature point distance calculator 322 performs FFT on the input signal and estimates the distance from the peak value of the spectrum to the feature point.

上述のように、レーダ信号処理部302は、画像信号処理部301より与えられる特徴点方位を参照し、特徴点までの距離情報を画像信号処理部301にフィードバックする。このようなカメラ51とレーダ52の協調動作により、従来よりも精度の高い測定が可能となる。例えば、カメラ51によるセンシングでは十分な測定精度が望めないときにレーダ52による補助的測定を行い、その結果をカメラ51の特徴点の情報と融合することで、高精度なカメラ51の特徴点の測位データが得られる。 As described above, the radar signal processing unit 302 refers to the feature point azimuth given from the image signal processing unit 301 and feeds back distance information to the feature point to the image signal processing unit 301 . Such coordinated operation of the camera 51 and the radar 52 enables measurement with higher precision than in the past. For example, when sufficient measurement accuracy cannot be expected from sensing by the camera 51, supplementary measurement is performed by the radar 52, and the result is fused with information on the feature points of the camera 51, thereby obtaining high-precision feature points of the camera 51. Positioning data is obtained.

[4-3.情報処理方法]
図8は、視程情報に基づくレーダ52の動作制御を行うための情報処理の一例を示すフローチャートである。
[4-3. Information processing method]
FIG. 8 is a flowchart showing an example of information processing for controlling the operation of the radar 52 based on visibility information.

視程計算部311は、カメラ51の画像データから視程情報を抽出する(ステップS1)。特徴点抽出部312は、視程情報から抽出される視程分布に許容基準を超える偏りがあるか否かを判定する(ステップS2)。例えば、視程の値が所定値以下である領域を低視程領域とし、低視程領域における視程のばらつきの大きさが予め設定された範囲に収まる場合には、視程は均一である、すなわち、視程分布は許容基準を満たすと判定される。低視程領域における視程のばらつきが予め設定された範囲に収まらない場合には、視程は不均一である、すなわち、視程分布に許容基準を超える偏りがあると判定される。 The visibility calculator 311 extracts visibility information from the image data of the camera 51 (step S1). The feature point extraction unit 312 determines whether or not the visibility distribution extracted from the visibility information has a bias exceeding the allowable standard (step S2). For example, an area in which the visibility value is equal to or less than a predetermined value is defined as a low visibility area, and if the magnitude of variation in visibility in the low visibility area falls within a preset range, the visibility is uniform, that is, the visibility distribution. is determined to meet the acceptance criteria. If the visibility variation in the low visibility region does not fall within a preset range, it is determined that the visibility is uneven, that is, the visibility distribution is biased beyond the allowable standard.

視程情報から抽出される視程分布が許容基準を満たす場合には(ステップS2:Yes)、レーダパラメータ決定部321は、視程分布から算出される平均的な視程に基づいてレーダ52の動作パラメータを決定する(ステップS3)。平均的な視程とは、例えば、低視程領域における平均的な視程の値を意味する。補助センサ位置情報生成部303は、カメラ51の画像データに含まれる全ての特徴点の特徴点情報を用いて補助センサ位置情報を生成する。 If the visibility distribution extracted from the visibility information satisfies the permissible criteria (step S2: Yes), the radar parameter determining unit 321 determines the operating parameters of the radar 52 based on the average visibility calculated from the visibility distribution. (step S3). The average visibility means, for example, an average visibility value in a low visibility region. The auxiliary sensor position information generation unit 303 generates auxiliary sensor position information using feature point information of all feature points included in the image data of the camera 51 .

視程情報から抽出される視程分布に許容基準を超える偏りがある場合には(ステップS2:No)、特徴点抽出部312は、視程分布から視程が最も短い方位を特徴点方位として抽出する(ステップS4)。レーダパラメータ決定部321は、レーダ52の検出範囲を特徴点方位に応じた範囲に設定し(ステップS5)、特徴点方位の視程に基づいてレーダ52の動作パラメータを決定する(ステップS6)。補助センサ位置情報生成部303は、カメラ51の画像データに含まれる複数の特徴点のうち、特徴点方位に存在する1以上の特徴点の特徴点情報を選択的に用いて補助センサ位置情報を生成する。 If the visibility distribution extracted from the visibility information is biased beyond the permissible standard (step S2: No), the feature point extraction unit 312 extracts the orientation with the shortest visibility from the visibility distribution as the feature point orientation (step S4). The radar parameter determination unit 321 sets the detection range of the radar 52 to a range corresponding to the feature point azimuth (step S5), and determines the operation parameter of the radar 52 based on the visibility of the feature point azimuth (step S6). The auxiliary sensor position information generation unit 303 selectively uses the feature point information of one or more feature points existing in the feature point azimuth among the plurality of feature points included in the image data of the camera 51 to generate the auxiliary sensor position information. Generate.

[4-4.変形例1]
図9は、第1変形例に係る車両制御システム11Aの概略図である。
[4-4. Modification 1]
FIG. 9 is a schematic diagram of a vehicle control system 11A according to a first modified example.

本変形例と図5に示した構成例との相違点は、補助センサ位置情報生成部340および画像特徴点データベースCDが外部サーバに設けられている点である。データ処理部330は、補助センサ位置情報生成部340と通信を行う通信装置331を有する。 The difference between this modified example and the configuration example shown in FIG. 5 is that the auxiliary sensor position information generator 340 and the image feature point database CD are provided in an external server. The data processing section 330 has a communication device 331 that communicates with the auxiliary sensor position information generating section 340 .

画像信号処理部301は、通信装置331を介して特徴点情報を補助センサ位置情報生成部340に供給する。補助センサ位置情報生成部340は、特徴点情報を画像特徴点データベースCDと照合して補助センサ位置情報を生成し、通信装置331を介してデータ処理部330に供給する。この構成では、負荷の大きい処理や容量の大きいデータが高性能な外部サーバに移管されている。そのため、車両1の構成が簡素化される。 The image signal processing unit 301 supplies feature point information to the auxiliary sensor position information generating unit 340 via the communication device 331 . The auxiliary sensor position information generation unit 340 generates auxiliary sensor position information by comparing the feature point information with the image feature point database CD, and supplies the auxiliary sensor position information to the data processing unit 330 via the communication device 331 . In this configuration, heavy-load processing and large-capacity data are transferred to a high-performance external server. Therefore, the configuration of the vehicle 1 is simplified.

[4-5.変形例2]
図10は、第2変形例に係る車両制御システム11Bの概略図である。
[4-5. Modification 2]
FIG. 10 is a schematic diagram of a vehicle control system 11B according to a second modification.

本変形例と図5に示した構成例との相違点は、センシング領域が異なる複数のレーダ52の動作パラメータが視程情報に基づいて独立に制御される点である。駆動制御部83は、各レーダ52に対応した複数のレーダ制御部97を有する。レーダ信号処理部302は、レーダ選択部323を有する。 The difference between this modification and the configuration example shown in FIG. 5 is that the operating parameters of the plurality of radars 52 with different sensing regions are independently controlled based on the visibility information. The drive control section 83 has a plurality of radar control sections 97 corresponding to each radar 52 . The radar signal processing unit 302 has a radar selection unit 323 .

レーダ選択部323は、レーダパラメータ決定部321から動作パラメータに関する情報を取得する。また、レーダ選択部323は、特徴点抽出部312から特徴点方位に関する情報を取得する。レーダ選択部323は、取得した動作パラメータを、特徴点方位に対応したセンシング領域を持つレーダ52に対して選択的に付与する。レーダ制御部97は、付与された動作パラメータを用いてレーダ52を駆動し、物体の検出を行う。補助センサ位置情報生成部303は、特徴点方位に存在する1以上の特徴点の特徴点情報を選択的に用いて補助センサ位置情報を生成する。 The radar selection unit 323 acquires information about operation parameters from the radar parameter determination unit 321 . Also, the radar selection unit 323 acquires information about the feature point orientation from the feature point extraction unit 312 . The radar selection unit 323 selectively gives the acquired operation parameter to the radar 52 having a sensing region corresponding to the feature point orientation. The radar control unit 97 drives the radar 52 using the given operation parameters to detect an object. The auxiliary sensor position information generation unit 303 selectively uses feature point information of one or more feature points existing in the feature point orientation to generate auxiliary sensor position information.

[5.効果]
車両制御システム11は、視程計算部311およびレーダパラメータ決定部321を有する。視程計算部311は、カメラ51の画像データから視程情報を抽出する。レーダパラメータ決定部321は、視程情報に基づいてレーダ52の有効測位範囲を制御する動作パラメータを決定する。本開示の情報処理方法は、車両制御システム11の処理がコンピュータにより実行される。本開示のプログラムは、車両制御システム11の処理をコンピュータに実現させる。
[5. effect]
The vehicle control system 11 has a visibility calculator 311 and a radar parameter determiner 321 . The visibility calculator 311 extracts visibility information from the image data of the camera 51 . The radar parameter determination unit 321 determines operation parameters for controlling the effective positioning range of the radar 52 based on the visibility information. In the information processing method of the present disclosure, the processing of the vehicle control system 11 is executed by a computer. The program of the present disclosure causes the computer to implement the processing of the vehicle control system 11 .

この構成によれば、レーダ52の有効測位範囲がカメラ51の有効測位範囲に基づいて調整される。そのため、カメラ51とレーダ52を適切に連携させて自己位置推定の精度を高めることができる。 According to this configuration, the effective positioning range of the radar 52 is adjusted based on the effective positioning range of the camera 51 . Therefore, the camera 51 and the radar 52 can be appropriately linked to improve the accuracy of self-position estimation.

車両制御システム11は、特徴点抽出部312、特徴点距離計算部322および特徴点情報更新部313を有する。特徴点抽出部312は、画像データから複数の特徴点を抽出する。特徴点距離計算部322は、レーダ52の計測結果に基づいて各特徴点までの距離を算出する。特徴点情報更新部313は、画像データから抽出された各特徴点の位置に関する特徴点情報と各特徴点までの距離の情報とを統合して特徴点情報を更新する。 The vehicle control system 11 has a feature point extractor 312 , a feature point distance calculator 322 and a feature point information updater 313 . A feature point extraction unit 312 extracts a plurality of feature points from image data. The feature point distance calculator 322 calculates the distance to each feature point based on the measurement result of the radar 52 . The feature point information update unit 313 integrates the feature point information regarding the position of each feature point extracted from the image data and the distance information to each feature point to update the feature point information.

この構成によれば、センサフュージョンによって精度の高い特徴点情報が得られる。 According to this configuration, highly accurate feature point information can be obtained by sensor fusion.

車両制御システム11は、補助センサ位置情報生成部303を有する。補助センサ位置情報生成部303は、更新後の特徴点情報を画像特徴点データベースCDに照合して、カメラ51の位置を示す補助センサ位置情報を生成する。 The vehicle control system 11 has an auxiliary sensor position information generator 303 . The auxiliary sensor position information generation unit 303 collates the updated feature point information with the image feature point database CD to generate auxiliary sensor position information indicating the position of the camera 51 .

この構成によれば、更新後の特徴点情報に基づいて精度の高い補助センサ位置情報が得られる。レーダ52の計測結果とカメラ51の計測結果を個別に特徴点データベースと照合する場合に比べて、照合の回数が1回で済む。そのため、演算の負荷が低減される。 According to this configuration, highly accurate auxiliary sensor position information can be obtained based on the updated feature point information. Compared to the case where the measurement result of the radar 52 and the measurement result of the camera 51 are individually compared with the feature point database, the number of times of comparison is only one. Therefore, the computational load is reduced.

車両制御システム11は、データ統合部310を有する。データ統合部310は、補助センサ位置情報を自立航法データと統合して位置情報を生成する。 The vehicle control system 11 has a data integration section 310 . The data integration unit 310 integrates the auxiliary sensor position information with the self-contained navigation data to generate position information.

この構成によれば、センサフュージョンによって精度の高い位置情報が生成される。 According to this configuration, highly accurate position information is generated by sensor fusion.

特徴点抽出部312は、視程情報から抽出される視程分布に許容基準を超える偏りがある場合には、視程分布から視程が最も短い方位を特徴点方位として抽出する。レーダパラメータ決定部321は、特徴点方位の視程に基づいて動作パラメータを決定する。補助センサ位置情報生成部303は、画像データに含まれる複数の特徴点のうち、特徴点方位に存在する1以上の特徴点の特徴点情報を選択的に用いて補助センサ位置情報を生成する。 If the visibility distribution extracted from the visibility information is biased beyond the permissible standard, the feature point extraction unit 312 extracts the orientation with the shortest visibility from the visibility distribution as the feature point orientation. The radar parameter determination unit 321 determines operation parameters based on the visibility of the feature point azimuth. The auxiliary sensor position information generation unit 303 selectively uses the feature point information of one or more feature points existing in the feature point azimuth among the plurality of feature points included in the image data to generate the auxiliary sensor position information.

この構成によれば、視程分布に基づいて最適化された特定のレーダ52の計測結果のみを用いて精度の高い補助センサ位置情報を生成することができる。 According to this configuration, highly accurate auxiliary sensor position information can be generated using only the measurement result of the specific radar 52 optimized based on the visibility distribution.

車両制御システム11は、レーダ選択部323を有する。レーダ選択部323は、動作パラメータを、特徴点方位に対応したセンシング領域を持つレーダ52に対して選択的に付与する。 The vehicle control system 11 has a radar selector 323 . The radar selection unit 323 selectively provides operation parameters to the radar 52 having a sensing region corresponding to the feature point orientation.

この構成によれば、必要なレーダ52の動作パラメータのみを選択的に調整することができる。 This configuration allows selective adjustment of only the necessary operating parameters of the radar 52 .

レーダパラメータ決定部321は、視程情報から抽出される視程分布が許容基準を満たす場合には、視程分布から算出される平均的な視程に基づいて動作パラメータを決定する。 If the visibility distribution extracted from the visibility information satisfies the permissible criteria, the radar parameter determination unit 321 determines the operating parameters based on the average visibility calculated from the visibility distribution.

この構成によれば、複雑な演算を行うことなく、簡易に適切な動作パラメータが取得される。 According to this configuration, an appropriate operating parameter can be obtained easily without performing complicated calculations.

レーダパラメータ決定部321は、動作パラメータとしてチャープ信号周波数帯域幅BWを視程情報に基づいて決定する。 The radar parameter determination unit 321 determines the chirp signal frequency bandwidth BW as an operating parameter based on the visibility information.

この構成によれば、レーダ52の有効測位範囲に応じた適切な距離分解能ΔRでレーダ52の計測が行われる。 According to this configuration, the radar 52 performs measurement with an appropriate range resolution ΔR according to the effective positioning range of the radar 52 .

視程計算部311は、撮影シーンと視程との関係を学習させた多層あるいは深層ニューラルネットワークを用いて視程情報を抽出する。 The visibility calculation unit 311 extracts visibility information using a multi-layer or deep neural network that has learned the relationship between the shooting scene and visibility.

この構成によれば、高いレスポンスで入力画像に対する視程情報が得られる。 According to this configuration, visibility information for the input image can be obtained with high response.

なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。 Note that the effects described in this specification are merely examples and are not limited, and other effects may be provided.

[付記]
なお、本技術は以下のような構成も採ることができる。
(1)
カメラの画像データから視程情報を抽出する視程計算部と、
前記視程情報に基づいてレーダの有効測位範囲を制御する動作パラメータを決定するレーダパラメータ決定部と、
を有する情報処理装置。
(2)
前記画像データから複数の特徴点を抽出する特徴点抽出部と、
前記レーダの計測結果に基づいて各特徴点までの距離を算出する特徴点距離計算部と、
前記画像データから抽出された各特徴点の位置に関する特徴点情報と各特徴点までの距離の情報とを統合して前記特徴点情報を更新する特徴点情報更新部と、
を有する上記(1)に記載の情報処理装置。
(3)
更新後の前記特徴点情報を画像特徴点データベースに照合して前記カメラの位置を示す補助センサ位置情報を生成する補助センサ位置情報生成部を有する、
上記(2)に記載の情報処理装置。
(4)
前記補助センサ位置情報を自立航法データと統合して位置情報を生成するデータ統合部を有する、
上記(3)に記載の情報処理装置。
(5)
前記特徴点抽出部は、前記視程情報から抽出される視程分布に許容基準を超える偏りがある場合には、前記視程分布から視程が最も短い方位を特徴点方位として抽出し、
前記レーダパラメータ決定部は、前記特徴点方位の前記視程に基づいて前記動作パラメータを決定し、
前記補助センサ位置情報生成部は、前記画像データに含まれる前記複数の特徴点のうち、前記特徴点方位に存在する1以上の特徴点の特徴点情報を選択的に用いて前記補助センサ位置情報を生成する、
上記(4)に記載の情報処理装置。
(6)
前記動作パラメータを、前記特徴点方位に対応したセンシング領域を持つレーダに対して選択的に付与するレーダ選択部を有する、
上記(5)に記載の情報処理装置。
(7)
前記レーダパラメータ決定部は、前記視程情報から抽出される視程分布が許容基準を満たす場合には、前記視程分布から算出される平均的な視程に基づいて前記動作パラメータを決定する、
上記(1)ないし(6)のいずれか1つに記載の情報処理装置。
(8)
前記レーダパラメータ決定部は、前記動作パラメータとしてチャープ信号周波数帯域幅を前記視程情報に基づいて決定する、
上記(1)ないし(7)のいずれか1つに記載の情報処理装置。
(9)
前記視程計算部は、撮影シーンと視程との関係を学習させた多層あるいは深層ニューラルネットワークを用いて前記視程情報を抽出する、
上記(1)ないし(8)のいずれか1つに記載の情報処理装置。
(10)
カメラの画像データから視程情報を抽出し、
前記視程情報に基づいてレーダの有効測位範囲を制御する動作パラメータを決定する、
ことを有する、コンピュータにより実行される情報処理方法。
(11)
カメラの画像データから視程情報を抽出し、
前記視程情報に基づいてレーダの有効測位範囲を制御する動作パラメータを決定する、
ことをコンピュータに実現させるプログラム。
[Appendix]
Note that the present technology can also adopt the following configuration.
(1)
a visibility calculation unit that extracts visibility information from the image data of the camera;
a radar parameter determination unit that determines an operation parameter for controlling the effective positioning range of the radar based on the visibility information;
Information processing device having
(2)
a feature point extraction unit that extracts a plurality of feature points from the image data;
a feature point distance calculation unit that calculates the distance to each feature point based on the measurement result of the radar;
a feature point information updating unit that updates the feature point information by integrating feature point information regarding the position of each feature point extracted from the image data and information on the distance to each feature point;
The information processing apparatus according to (1) above.
(3)
an auxiliary sensor position information generation unit that generates auxiliary sensor position information indicating the position of the camera by comparing the updated feature point information with an image feature point database;
The information processing apparatus according to (2) above.
(4)
a data integration unit that integrates the auxiliary sensor position information with self-contained navigation data to generate position information;
The information processing apparatus according to (3) above.
(5)
When the visibility distribution extracted from the visibility information has a deviation exceeding an allowable standard, the feature point extracting unit extracts an orientation with the shortest visibility from the visibility distribution as a feature point orientation,
The radar parameter determination unit determines the operating parameter based on the visibility of the feature point orientation,
The auxiliary sensor position information generation unit selectively generates the auxiliary sensor position information by selectively using feature point information of one or more feature points existing in the feature point orientation among the plurality of feature points included in the image data. to generate
The information processing apparatus according to (4) above.
(6)
a radar selection unit that selectively applies the operation parameter to a radar having a sensing area corresponding to the feature point orientation;
The information processing apparatus according to (5) above.
(7)
When the visibility distribution extracted from the visibility information satisfies an allowable criterion, the radar parameter determination unit determines the operating parameter based on an average visibility calculated from the visibility distribution.
The information processing apparatus according to any one of (1) to (6) above.
(8)
The radar parameter determination unit determines a chirp signal frequency bandwidth as the operating parameter based on the visibility information.
The information processing apparatus according to any one of (1) to (7) above.
(9)
The visibility calculation unit extracts the visibility information using a multilayer or deep neural network that has learned the relationship between the shooting scene and the visibility.
The information processing apparatus according to any one of (1) to (8) above.
(10)
Extract visibility information from camera image data,
Determining operating parameters that control the effective positioning range of the radar based on the visibility information;
A computer-implemented information processing method, comprising:
(11)
Extract visibility information from camera image data,
Determining operating parameters that control the effective positioning range of the radar based on the visibility information;
A program that makes a computer do something.

11 車両制御システム(情報処理装置)
51 カメラ
52 レーダ
303,340 補助センサ位置情報生成部
310 データ統合部
311 視程計算部
312 特徴点抽出部
313 特徴点情報更新部
321 レーダパラメータ決定部
322 特徴点距離計算部
323 レーダ選択部
CD 画像特徴点データベース
11 vehicle control system (information processing device)
51 Camera 52 Radar 303, 340 Auxiliary sensor position information generation unit 310 Data integration unit 311 Visibility calculation unit 312 Feature point extraction unit 313 Feature point information update unit 321 Radar parameter determination unit 322 Feature point distance calculation unit 323 Radar selection unit CD Image features point database

Claims (11)

カメラの画像データから視程情報を抽出する視程計算部と、
前記視程情報に基づいてレーダの有効測位範囲を制御する動作パラメータを決定するレーダパラメータ決定部と、
を有する情報処理装置。
a visibility calculation unit that extracts visibility information from the image data of the camera;
a radar parameter determination unit that determines an operation parameter for controlling the effective positioning range of the radar based on the visibility information;
Information processing device having
前記画像データから複数の特徴点を抽出する特徴点抽出部と、
前記レーダの計測結果に基づいて各特徴点までの距離を算出する特徴点距離計算部と、
前記画像データから抽出された各特徴点の位置に関する特徴点情報と各特徴点までの距離の情報とを統合して前記特徴点情報を更新する特徴点情報更新部と、
を有する請求項1に記載の情報処理装置。
a feature point extraction unit that extracts a plurality of feature points from the image data;
a feature point distance calculation unit that calculates the distance to each feature point based on the measurement result of the radar;
a feature point information updating unit that updates the feature point information by integrating feature point information regarding the position of each feature point extracted from the image data and information on the distance to each feature point;
The information processing apparatus according to claim 1, comprising:
更新後の前記特徴点情報を画像特徴点データベースと照合して、前記カメラの位置を示す補助センサ位置情報を生成する補助センサ位置情報生成部を有する、
請求項2に記載の情報処理装置。
an auxiliary sensor position information generating unit that compares the updated feature point information with an image feature point database to generate auxiliary sensor position information indicating the position of the camera;
The information processing apparatus according to claim 2.
前記補助センサ位置情報を自立航法データと統合して位置情報を生成するデータ統合部を有する、
請求項3に記載の情報処理装置。
a data integration unit that integrates the auxiliary sensor position information with self-contained navigation data to generate position information;
The information processing apparatus according to claim 3.
前記特徴点抽出部は、前記視程情報から抽出される視程分布に許容基準を超える偏りがある場合には、前記視程分布から視程が最も短い方位を特徴点方位として抽出し、
前記レーダパラメータ決定部は、前記特徴点方位の前記視程に基づいて前記動作パラメータを決定し、
前記補助センサ位置情報生成部は、前記画像データに含まれる前記複数の特徴点のうち、前記特徴点方位に存在する1以上の特徴点の特徴点情報を選択的に用いて前記補助センサ位置情報を生成する、
請求項4に記載の情報処理装置。
When the visibility distribution extracted from the visibility information has a deviation exceeding an allowable standard, the feature point extracting unit extracts an orientation with the shortest visibility from the visibility distribution as a feature point orientation,
The radar parameter determination unit determines the operating parameter based on the visibility of the feature point orientation,
The auxiliary sensor position information generation unit selectively generates the auxiliary sensor position information by selectively using feature point information of one or more feature points existing in the feature point orientation among the plurality of feature points included in the image data. to generate
The information processing apparatus according to claim 4.
前記動作パラメータを、前記特徴点方位に対応したセンシング領域を持つレーダに対して選択的に付与するレーダ選択部を有する、
請求項5に記載の情報処理装置。
a radar selection unit that selectively applies the operation parameter to a radar having a sensing area corresponding to the feature point orientation;
The information processing device according to claim 5 .
前記レーダパラメータ決定部は、前記視程情報から抽出される視程分布が許容基準を満たす場合には、前記視程分布から算出される平均的な視程に基づいて前記動作パラメータを決定する、
請求項1に記載の情報処理装置。
When the visibility distribution extracted from the visibility information satisfies an allowable criterion, the radar parameter determination unit determines the operating parameter based on an average visibility calculated from the visibility distribution.
The information processing device according to claim 1 .
前記レーダパラメータ決定部は、前記動作パラメータとしてチャープ信号周波数帯域幅を前記視程情報に基づいて決定する、
請求項1に記載の情報処理装置。
The radar parameter determination unit determines a chirp signal frequency bandwidth as the operating parameter based on the visibility information.
The information processing device according to claim 1 .
前記視程計算部は、撮影シーンと視程との関係を学習させた多層あるいは深層ニューラルネットワークを用いて前記視程情報を抽出する、
請求項1に記載の情報処理装置。
The visibility calculation unit extracts the visibility information using a multilayer or deep neural network that has learned the relationship between the shooting scene and the visibility.
The information processing device according to claim 1 .
カメラの画像データから視程情報を抽出し、
前記視程情報に基づいてレーダの有効測位範囲を制御する動作パラメータを決定する、
ことを有する、コンピュータにより実行される情報処理方法。
Extract visibility information from camera image data,
Determining operating parameters that control the effective positioning range of the radar based on the visibility information;
A computer-implemented information processing method, comprising:
カメラの画像データから視程情報を抽出し、
前記視程情報に基づいてレーダの有効測位範囲を制御する動作パラメータを決定する、
ことをコンピュータに実現させるプログラム。
Extract visibility information from camera image data,
Determining operating parameters that control the effective positioning range of the radar based on the visibility information;
A program that makes a computer do something.
JP2021181168A 2021-11-05 2021-11-05 Information processing device, information processing method, and program Pending JP2023069374A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021181168A JP2023069374A (en) 2021-11-05 2021-11-05 Information processing device, information processing method, and program
PCT/JP2022/036903 WO2023079881A1 (en) 2021-11-05 2022-10-03 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021181168A JP2023069374A (en) 2021-11-05 2021-11-05 Information processing device, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2023069374A true JP2023069374A (en) 2023-05-18

Family

ID=86241429

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021181168A Pending JP2023069374A (en) 2021-11-05 2021-11-05 Information processing device, information processing method, and program

Country Status (2)

Country Link
JP (1) JP2023069374A (en)
WO (1) WO2023079881A1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7471045B2 (en) * 2017-03-10 2024-04-19 ソニーグループ株式会社 Information processing device and information processing method
JP7019503B2 (en) * 2018-04-25 2022-02-15 日立Astemo株式会社 Electronic control device, calculation method
WO2020230694A1 (en) * 2019-05-16 2020-11-19 ソニー株式会社 Mobile body

Also Published As

Publication number Publication date
WO2023079881A1 (en) 2023-05-11

Similar Documents

Publication Publication Date Title
US11531354B2 (en) Image processing apparatus and image processing method
JP7374098B2 (en) Information processing device, information processing method, computer program, information processing system, and mobile device
US20210224617A1 (en) Information processing device, information processing method, computer program, and mobile device
US20230230368A1 (en) Information processing apparatus, information processing method, and program
US20240054793A1 (en) Information processing device, information processing method, and program
US20220383749A1 (en) Signal processing device, signal processing method, program, and mobile device
WO2022158185A1 (en) Information processing device, information processing method, program, and moving device
US20220277556A1 (en) Information processing device, information processing method, and program
CN115668285A (en) Information processing device, information processing method, information processing system, and program
WO2023153083A1 (en) Information processing device, information processing method, information processing program, and moving device
WO2023079881A1 (en) Information processing device, information processing method, and program
WO2024024471A1 (en) Information processing device, information processing method, and information processing system
WO2024009829A1 (en) Information processing device, information processing method, and vehicle control system
WO2023054090A1 (en) Recognition processing device, recognition processing method, and recognition processing system
WO2023149089A1 (en) Learning device, learning method, and learning program
WO2023021756A1 (en) Information processing system, information processing device, and information processing method
WO2023063145A1 (en) Information processing device, information processing method, and information processing program
WO2024048180A1 (en) Information processing device, information processing method, and vehicle control system
WO2023032276A1 (en) Information processing device, information processing method, and mobile device
US20230377108A1 (en) Information processing apparatus, information processing method, and program
WO2023074419A1 (en) Information processing device, information processing method, and information processing system
WO2023053718A1 (en) Information processing device, information processing method, learning device, learning method, and computer program
WO2023145460A1 (en) Vibration detection system and vibration detection method
US20240019539A1 (en) Information processing device, information processing method, and information processing system
WO2023162497A1 (en) Image-processing device, image-processing method, and image-processing program