JP2023069374A - Information processing device, information processing method, and program - Google Patents
Information processing device, information processing method, and program Download PDFInfo
- Publication number
- JP2023069374A JP2023069374A JP2021181168A JP2021181168A JP2023069374A JP 2023069374 A JP2023069374 A JP 2023069374A JP 2021181168 A JP2021181168 A JP 2021181168A JP 2021181168 A JP2021181168 A JP 2021181168A JP 2023069374 A JP2023069374 A JP 2023069374A
- Authority
- JP
- Japan
- Prior art keywords
- information
- visibility
- feature point
- radar
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Traffic Control Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
Description
本発明は、情報処理装置、情報処理方法およびプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program.
IMU(Inertial Measurement Unit)を用いた自立航法は、GNSS(Global Navigation Satellite System)の電波が届きにくいトンネルの中などで補完的に用いられる。しかし、IMUによる自立航法では、GNSSの動作不良時間が長時間に及ぶ場合に、IMUによる位置の推定誤差が蓄積される懸念がある。そのため、IMUよる補助のほかに、さらに追加的な外部センシング手段が望まれている。 Self-contained navigation using an IMU (Inertial Measurement Unit) is used complementarily in tunnels where it is difficult for GNSS (Global Navigation Satellite System) radio waves to reach. However, in self-contained navigation using an IMU, there is a concern that position estimation errors by the IMU may accumulate when the GNSS malfunctions for a long period of time. Therefore, additional external sensing means are desired in addition to the assistance provided by the IMU.
補助センシング手段の有力候補として、カメラやレーダの利用が考えられる。しかし、カメラやレーダにはそれぞれ一長一短があり、状況によってセンシングの効果が落ちる場合がある。例えば、カメラのような光学的手段においては、雨、霧、雪、強い光などの極端な環境条件のとき性能が劣化する懸念がある。レーダでは、マルチパスによって偽像が生じ易く、物体の方位を精度よく検出することも難しい。特許文献2では、カメラとレーダを組み合わせた自己位置推定の手法が提案されているが、特許文献2の手法は、電力消費を低減することを目的とするものであり、自己位置推定の精度を高めるものではない。 Cameras and radar can be considered as strong candidates for auxiliary sensing means. However, cameras and radars each have advantages and disadvantages, and depending on the situation, the sensing effect may be reduced. For example, optical means such as cameras are concerned about performance degradation in extreme environmental conditions such as rain, fog, snow, and strong light. With radar, false images are likely to occur due to multipath, and it is difficult to accurately detect the azimuth of an object. Patent Document 2 proposes a self-position estimation method that combines a camera and a radar. It's not something you raise.
そこで、本開示では、カメラとレーダを適切に連携させて自己位置推定の精度を高めることが可能な情報処理装置、情報処理方法およびプログラムを提案する。 Therefore, the present disclosure proposes an information processing device, an information processing method, and a program capable of appropriately linking a camera and a radar to improve the accuracy of self-position estimation.
本開示によれば、カメラの画像データから視程情報を抽出する視程計算部と、前記視程情報に基づいて、レーダの有効測位範囲を制御する動作パラメータを決定するレーダパラメータ決定部と、を有する情報処理装置が提供される。また、本開示によれば、前記情報処理装置の情報処理がコンピュータにより実行される情報処理方法、ならびに、前記情報処理装置の情報処理をコンピュータに実現させるプログラムが提供される。 According to the present disclosure, information including a visibility calculation unit that extracts visibility information from camera image data, and a radar parameter determination unit that determines operation parameters for controlling the effective positioning range of the radar based on the visibility information A processing device is provided. Further, according to the present disclosure, there are provided an information processing method in which the information processing of the information processing device is executed by a computer, and a program for causing the computer to implement the information processing of the information processing device.
以下に、本開示の実施形態について図面に基づいて詳細に説明する。以下の各実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。 Embodiments of the present disclosure will be described in detail below with reference to the drawings. In each of the following embodiments, the same parts are denoted by the same reference numerals, and overlapping descriptions are omitted.
なお、説明は以下の順序で行われる。
[1.補助センシング機構の概要]
[2.車両制御システムの構成例]
[3.外部認識センサのセンシング領域]
[4.補助センシング方法]
[4-1.従来の車両制御システム]
[4-2.改良された車両制御システム]
[4-2-1.画像信号処理部]
[4-2-2.レーダ信号処理部]
[4-3.情報処理方法]
[4-4.変形例1]
[4-5.変形例2]
[5.効果]
The description will be given in the following order.
[1. Outline of auxiliary sensing mechanism]
[2. Configuration example of vehicle control system]
[3. Sensing area of external recognition sensor]
[4. Auxiliary Sensing Method]
[4-1. Conventional vehicle control system]
[4-2. Improved vehicle control system]
[4-2-1. Image signal processing unit]
[4-2-2. Radar signal processor]
[4-3. Information processing method]
[4-4. Modification 1]
[4-5. Modification 2]
[5. effect]
[1.補助センシング機構の概要]
図1は、補助センシング機構の概要を説明する図である。
[1. Outline of auxiliary sensing mechanism]
FIG. 1 is a diagram for explaining the outline of the auxiliary sensing mechanism.
車両1は、GNSS91およびIMU92などのセンシング情報に基づいて運転支援を行う車両制御システム11を有する。車両制御システム11は、各種情報を処理する情報処理装置である。車両1は、カメラ51およびレーダ52を組み合わせた補助センシング機構を有する。補助センシング機構は、GNSS91およびIMU92による位置検出を補助するために用いられる。
The vehicle 1 has a
GNSS91は、近年、運転支援、自動運転を実現するうえで不可欠な技術となっている。GNSS91では、一般に、複数の衛星からの電波を受信することで、各衛星と車両1との距離を計算し、地上にある車両の3次元的な位置を算出する。しかしながら、GNSS91においては、上空にある衛星からの電波を用いるため、遮蔽物による電波の減衰や多重反射による信号品質の低下が問題になることがある。その結果、特定の状況においては著しく性能が損なわれ、場合によっては、車両位置が特定できなくなる問題を生じる。例えば、トンネルや、高層ビルに囲まれた街路においては、しばしば、GNSS91が所定の動作を行えなくなることが知られている。 In recent years, GNSS91 has become an indispensable technology for realizing driving support and automatic driving. The GNSS 91 generally receives radio waves from a plurality of satellites, calculates the distance between each satellite and the vehicle 1, and calculates the three-dimensional position of the vehicle on the ground. However, since the GNSS 91 uses radio waves from satellites in the sky, there is a problem that radio waves are attenuated by shielding objects and signal quality is degraded due to multiple reflections. As a result, performance is severely compromised in certain situations, and in some cases, the vehicle cannot be located. For example, it is known that tunnels and streets surrounded by tall buildings often prevent the GNSS 91 from performing certain operations.
このようなGNSS91の問題に対して、従来、IMU92を用いた自立航法が広く用いられている。自立航法によれば、GNSS91による位置検出ができない場合には、IMU92によって得た車体の加速度や回転量などを用い、車両の移動量を算出する。こうすることで、GNSS91の動作不能区間を補うことが可能となり、GNSS91の受信ができないという問題は、一定程度、緩和される。 Conventionally, self-contained navigation using an IMU 92 has been widely used to deal with such problems of the GNSS 91 . According to the self-contained navigation, when the position cannot be detected by the GNSS 91, the amount of movement of the vehicle is calculated using the acceleration and rotation amount of the vehicle body obtained by the IMU 92. By carrying out like this, it becomes possible to compensate for the inoperable area of GNSS91, and the problem that GNSS91 cannot be received is mitigated to some extent.
しかしながら、IMU92による自立航法では、GNSS91の動作不良時間が長時間に及ぶ場合、IMU92による位置の推定誤差が蓄積される懸念がある。このため、車両位置の検出精度を常に一定程度以上の水準に保つためには、IMU92よる補助のほかに、さらに追加的な外部センシング手段が望まれる。
However, in self-contained navigation by the IMU 92, there is a concern that position estimation errors by the IMU 92 may be accumulated when the
このような、さらなる補助センシング手段の有力候補として、車載カメラが挙げられる。カメラ51による画像情報は、極めて分解能が高く、極めて多くの路上情報の獲得を可能とする。したがって、GNSS91とIMU92による自立航法に対する追加的なセンシング手段として極めて有効な手段であると考えられる。例えば、カメラ51によって得られる周囲の画像情報から、特定の既知の箇所までの距離を推定し、車両1の位置を推定する結果をGNSS91およびIMU92の位置推定結果に組み入れることで、車両1のさらなる位置精度の向上を図ることができる。
A vehicle-mounted camera is a strong candidate for such additional auxiliary sensing means. The image information obtained by the
特許文献1には、GNSS91が利用できない場合に、周辺を撮影したカメラ画像を用いて、サーバが画像の特徴量から位置を特定する方法が開示されている。
Patent Literature 1 discloses a method in which a server identifies a position from a feature amount of an image using a camera image of the surroundings when
しかしながら、一般に、カメラ51は、雨、霧、雪および強い光などの特定の極端な環境下では、得られる画像の品質が大幅に劣化する問題があることが知られている。また、一般に、カメラ51は、極めて高い空間分解性能を持つ優れた手段であるが、遠方においてまで、高い精度によって距離および速度を測定することは難しい。このように、GNSS91とIMU92による自立航法に対するカメラ51による補助センシングにおいて、カメラ51が不得意とする特定のケースにおいては、なお、一層の改善が望まれる。
However, it is generally known that the
一方、このような、カメラ51の不得意とする環境条件に対して高い耐性を有するセンシング手段としてレーダ52が知られている。しかしながら、レーダ52をカメラ51の補助センシング手段として用いるには、レーダ固有の問題に新たに直面する。例えば、レーダ52では、マルチパスによって偽像を生じ易い。あるいは、レーダ52は、遠方の物体までの距離や、速度を計測することには適しているが、物体の方位を精度よく検出することは難しい。
On the other hand, a
カメラ51とレーダ52の協調によるセンシングについては、特許文献2に開示がある。特許文献2の手法では、車両が停止中あるいは所定速度以下の場合、周辺の照度が検出され、周辺照度が所定以上の場合、カメラの信頼度が高いとし、レーダの動作が停止される。また、周辺照度が所定未満のときは、カメラの信頼度が低いとし、カメラの動作が停止される。これにより、センシングにおける電力消費が低減される。しかしながら、特許文献2では、カメラの画像情報に基づいてレーダの動作条件を適応的に可変とすることで、GNSS91を補助する方法については述べられていない。
Cooperative sensing by the
本発明は上述の事情に鑑みてなされたものである。本開示の車両制御システム11は、カメラ51で撮影された画像からカメラ51の有効測位範囲を算出する。有効測位範囲は、カメラによって測位精度が保証できる範囲を意味する。有効測位範囲は、例えば、視程(Visibility)に基づいて規定される。
The present invention has been made in view of the above circumstances. The
視程は、肉眼で物体がはっきりと確認できる最大の距離を意味する。視程の計測方法としては、WMO(世界気象機関)などで定義された公知の方法を用いることができる。視程の情報は、距離として提示されてもよいし、視界をスケーリングして得られたレベルの情報として提示されてもよい。例えば、カメラ51の視界が遮られない状態では視程のレベルを5とし、深い霧が立ち込めた状態では視程のレベルを1とするなどが考えられる。補助センシング機構は、カメラ51の画像データから抽出された視程の情報(視程情報)に基づき、レーダ52に与える最適な動作パラメータを変更する。
Visibility refers to the maximum distance at which an object can be clearly seen with the naked eye. As a visibility measurement method, a known method defined by the WMO (World Meteorological Organization) or the like can be used. Visibility information may be presented as distance, or may be presented as level information obtained by scaling the visibility. For example, it is conceivable to set the visibility level to 5 when the field of view of the
デフォルト(通常)の環境条件においては、カメラ51の画像データから得られる視程の値は、レーダ52の動作パラメータを遠距離で精度良くセンシングすることができる値として設定される。一方、環境が、「霧」や「逆光」の場合には、カメラ51の画像データから得られる信頼できる距離測定範囲は大きく減少する。そのため、視程の値もそれに伴い変動する。このとき、レーダ52には、減少した視程の値に対応する、近距離において精度良く動作することのできる動作パラメータが付与される。
Under default (normal) environmental conditions, the visibility value obtained from the image data of the
具体的には、レーダ52の動作パラメータの調整は、レーダ52が用いる送信FMCW信号における、チャープ帯域幅、チャープ時間幅、チャープ送信間隔などのパラメータを変更することにより行われる。本開示では、例えば、動作パラメータとしてチャープ信号周波数帯域幅が視程情報に基づいて決定される。視程の値が小さければ、レーダ52の動作パラメータは近距離で最適なパラメータにチューニングされる。視程の値が大きければ、レーダ52の動作パラメータは遠距離で最適なパラメータにチューニングされる。
Specifically, the operating parameters of
本開示では、レーダ52の動作パラメータが視程情報に基づいて可変に制御される。そのため、動作パラメータを適応的に制御可能な1以上のレーダ52が必要である。このようなレーダ52は後付けで車両に設置されてもよいし、車両1に搭載済みのレーダ52を設計変更して本開示用のレーダ52として利用してもよい。図1の例では、本開示用のレーダ52が車両1の前方に後付けで搭載されている。
In the present disclosure, the operating parameters of
以上は、カメラ51とレーダ52がそれぞれ1つの場合における動作を述べたものだが、1つのカメラ51に対し複数のレーダ52が存在する場合にも、同様の処理が可能である。複数のレーダ52が存在する場合には、カメラ51の画像データから得られた視程情報に基づいてレーダ52ごとに最適な動作パラメータが設定される。
The above describes the operation in the case where there is one
このような視程情報に加えて、本開示の車両制御システム11では、カメラ51から得た画像情報から、レーダ52により測位を行うべき方位を決定しレーダ52に伝達することができる。こうすることで、レーダ52は、システムに指示された方位で最適になるように、送信・受信のビームBMを調整し、センシングを行うことができる。
In addition to such visibility information, the
この際、レーダ52で検出される物体の像を再びカメラ51にフィードバックし、カメラ51で取得した画像情報と比較し、レーダ52の偽像となりうる像を排除したうえで、カメラ51から得られる特徴点までの距離をレーダ52から得られる距離を用いてマッピングすることができる。これにより、カメラ51の不得意とする環境における動作の信頼性が向上する。
At this time, the image of the object detected by the
[2.車両制御システムの構成例]
図2は、車両制御システム11の構成例を示すブロック図である。
[2. Configuration example of vehicle control system]
FIG. 2 is a block diagram showing a configuration example of the
車両制御システム11は、車両1に設けられ、車両1の走行支援及び自動運転に関わる処理を行う。
The
車両制御システム11は、車両制御ECU(Electronic Control Unit)21、通信部22、地図情報蓄積部23、位置情報取得部24、外部認識センサ25、車内センサ26、車両センサ27、記憶部28、走行支援・自動運転制御部29、DMS(Driver Monitoring System)30、HMI(Human Machine Interface)31、及び、車両制御部32を備える。
The
車両制御ECU21、通信部22、地図情報蓄積部23、位置情報取得部24、外部認識センサ25、車内センサ26、車両センサ27、記憶部28、走行支援・自動運転制御部29、ドライバモニタリングシステム(DMS)30、ヒューマンマシンインタフェース(HMI)31、及び、車両制御部32は、通信ネットワーク41を介して相互に通信可能に接続されている。
通信ネットワーク41は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)、FlexRay(登録商標)、イーサネット(登録商標)といったディジタル双方向通信の規格に準拠した車載通信ネットワークやバス等により構成される。通信ネットワーク41は、伝送されるデータの種類によって使い分けられてもよい。例えば、車両制御に関するデータに対してCANが適用され、大容量データに対してイーサネットが適用されるようにしてもよい。
The
なお、車両制御システム11の各部は、通信ネットワーク41を介さずに、例えば近距離無線通信(NFC(Near Field Communication))やBluetooth(登録商標)といった比較的近距離での通信を想定した無線通信を用いて直接的に接続される場合もある。
It should be noted that each unit of the
なお、以下、車両制御システム11の各部が、通信ネットワーク41を介して通信を行う場合、通信ネットワーク41の記載を省略するものとする。例えば、車両制御ECU21と通信部22が通信ネットワーク41を介して通信を行う場合、単に車両制御ECU21と通信部22とが通信を行うと記載する。
In addition, hereinafter, when each part of the
車両制御ECU21は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)といった各種のプロセッサにより構成される。車両制御ECU21は、車両制御システム11全体又は一部の機能の制御を行う。
The
通信部22は、車内及び車外の様々な機器、他の車両、サーバ、基地局等と通信を行い、各種のデータの送受信を行う。このとき、通信部22は、複数の通信方式を用いて通信を行うことができる。
The
通信部22が実行可能な車外との通信について、概略的に説明する。通信部22は、例えば、5G(第5世代移動通信システム)、LTE(Long Term Evolution)、DSRC(Dedicated Short Range Communications)等の無線通信方式により、基地局又はアクセスポイントを介して、外部ネットワーク上に存在するサーバ(以下、外部のサーバと呼ぶ)等と通信を行う。通信部22が通信を行う外部ネットワークは、例えば、インターネット、クラウドネットワーク、又は、事業者固有のネットワーク等である。通信部22が外部ネットワークに対して行う通信方式は、所定以上の通信速度、且つ、所定以上の距離間でディジタル双方向通信が可能な無線通信方式であれば、特に限定されない。
Communication with the outside of the vehicle that can be performed by the
また例えば、通信部22は、P2P(Peer To Peer)技術を用いて、自車の近傍に存在する端末と通信を行うことができる。自車の近傍に存在する端末は、例えば、歩行者や自転車等の比較的低速で移動する移動体が装着する端末、店舗等に位置が固定されて設置される端末、又は、MTC(Machine Type Communication)端末である。さらに、通信部22は、V2X通信を行うこともできる。V2X通信とは、例えば、他の車両との間の車-車間(Vehicle to Vehicle)通信、路側器等との間の路車間(Vehicle to Infrastructure)通信、家との間(Vehicle to Home)の通信、及び、歩行者が所持する端末等との間の歩車間(Vehicle to Pedestrian)通信等の、自車と他との通信をいう。
Further, for example, the
通信部22は、例えば、車両制御システム11の動作を制御するソフトウエアを更新するためのプログラムを外部から受信することができる(Over The Air)。通信部22は、さらに、地図情報、交通情報、車両1の周囲の情報等を外部から受信することができる。また例えば、通信部22は、車両1に関する情報や、車両1の周囲の情報等を外部に送信することができる。通信部22が外部に送信する車両1に関する情報としては、例えば、車両1の状態を示すデータ、認識部73による認識結果等がある。さらに例えば、通信部22は、eコール等の車両緊急通報システムに対応した通信を行う。
The
例えば、通信部22は、電波ビーコン、光ビーコン、FM多重放送等の道路交通情報通信システム(VICS(Vehicle Information and Communication System)(登録商標))により送信される電磁波を受信する。
For example, the
通信部22が実行可能な車内との通信について、概略的に説明する。通信部22は、例えば無線通信を用いて、車内の各機器と通信を行うことができる。通信部22は、例えば、無線LAN、Bluetooth、NFC、WUSB(Wireless USB)といった、無線通信により所定以上の通信速度でディジタル双方向通信が可能な通信方式により、車内の機器と無線通信を行うことができる。これに限らず、通信部22は、有線通信を用いて車内の各機器と通信を行うこともできる。例えば、通信部22は、図示しない接続端子に接続されるケーブルを介した有線通信により、車内の各機器と通信を行うことができる。通信部22は、例えば、USB(Universal Serial Bus)、HDMI(High-Definition Multimedia Interface)(登録商標)、MHL(Mobile High-definition Link)といった、有線通信により所定以上の通信速度でディジタル双方向通信が可能な通信方式により、車内の各機器と通信を行うことができる。
Communication with the inside of the vehicle that can be performed by the
ここで、車内の機器とは、例えば、車内において通信ネットワーク41に接続されていない機器を指す。車内の機器としては、例えば、運転者等の搭乗者PAが所持するモバイル機器やウェアラブル機器、車内に持ち込まれ一時的に設置される情報機器等が想定される。
Here, the in-vehicle device refers to, for example, a device in the vehicle that is not connected to the
地図情報蓄積部23は、外部から取得した地図及び車両1で作成した地図の一方又は両方を蓄積する。例えば、地図情報蓄積部23は、3次元の高精度地図、高精度地図より精度が低く、広いエリアをカバーするグローバルマップ等を蓄積する。
The map
高精度地図は、例えば、ダイナミックマップ、ポイントクラウドマップ、ベクターマップ等である。ダイナミックマップは、例えば、動的情報、準動的情報、準静的情報、静的情報の4層からなる地図であり、外部のサーバ等から車両1に提供される。ポイントクラウドマップは、ポイントクラウド(点群データ)により構成される地図である。ベクターマップは、例えば、車線や信号機の位置といった交通情報等をポイントクラウドマップに対応付け、ADAS(Advanced Driver Assistance System)やAD(Autonomous Driving)に適合させた地図である。 High-precision maps are, for example, dynamic maps, point cloud maps, vector maps, and the like. The dynamic map is, for example, a map consisting of four layers of dynamic information, quasi-dynamic information, quasi-static information, and static information, and is provided to the vehicle 1 from an external server or the like. A point cloud map is a map composed of a point cloud (point cloud data). A vector map is, for example, a map adapted to ADAS (Advanced Driver Assistance System) and AD (Autonomous Driving) by associating traffic information such as lane and traffic signal positions with a point cloud map.
ポイントクラウドマップ及びベクターマップは、例えば、外部のサーバ等から提供されてもよいし、カメラ51、レーダ52、LiDAR53等によるセンシング結果に基づいて、後述するローカルマップとのマッチングを行うための地図として車両1で作成され、地図情報蓄積部23に蓄積されてもよい。また、外部のサーバ等から高精度地図が提供される場合、通信容量を削減するため、車両1がこれから走行する計画経路に関する、例えば数百メートル四方の地図データが外部のサーバ等から取得される。
The point cloud map and the vector map, for example, may be provided from an external server or the like, and based on the sensing results of the
位置情報取得部24は、GNSS91(Global Navigation Satellite System)衛星からGNSS信号を受信し、車両1の位置情報を取得する。取得した位置情報は、走行支援・自動運転制御部29に供給される。なお、位置情報取得部24は、GNSS信号を用いた方式に限定されず、例えば、ビーコンを用いて位置情報を取得してもよい。
The position
外部認識センサ25は、車両1の外部の状況の認識に用いられる各種のセンサを備え、各センサからのセンサデータを車両制御システム11の各部に供給する。外部認識センサ25が備えるセンサの種類や数は任意である。
The external recognition sensor 25 includes various sensors used for recognizing external conditions of the vehicle 1 and supplies sensor data from each sensor to each part of the
例えば、外部認識センサ25は、カメラ51、レーダ52、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)53、及び、超音波センサ54を備える。これに限らず、外部認識センサ25は、カメラ51、レーダ52、LiDAR53、及び、超音波センサ54のうち1種類以上のセンサを備える構成でもよい。カメラ51、レーダ52、LiDAR53、及び、超音波センサ54の数は、現実的に車両1に設置可能な数であれば特に限定されない。また、外部認識センサ25が備えるセンサの種類は、この例に限定されず、外部認識センサ25は、他の種類のセンサを備えてもよい。外部認識センサ25が備える各センサのセンシング領域の例は、後述する。
For example, the external recognition sensor 25 includes a
なお、カメラ51の撮影方式は、特に限定されない。例えば、測距が可能な撮影方式であるToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラといった各種の撮影方式のカメラを、必要に応じてカメラ51に適用することができる。これに限らず、カメラ51は、測距に関わらずに、単に撮影画像を取得するためのものであってもよい。
Note that the imaging method of the
また、例えば、外部認識センサ25は、車両1に対する環境を検出するための環境センサを備えることができる。環境センサは、天候、気象、明るさ等の環境を検出するためのセンサであって、例えば、雨滴センサ、霧センサ、日照センサ、雪センサ、照度センサ等の各種センサを含むことができる。 Also, for example, the external recognition sensor 25 can include an environment sensor for detecting the environment with respect to the vehicle 1 . The environment sensor is a sensor for detecting the environment such as weather, climate, brightness, etc., and can include various sensors such as raindrop sensors, fog sensors, sunshine sensors, snow sensors, and illuminance sensors.
さらに、例えば、外部認識センサ25は、車両1の周囲の音や音源の位置の検出等に用いられるマイクロフォンを備える。 Furthermore, for example, the external recognition sensor 25 includes a microphone used for detecting sounds around the vehicle 1 and the position of a sound source.
車内センサ26は、車内の情報を検出するための各種のセンサを備え、各センサからのセンサデータを車両制御システム11の各部に供給する。車内センサ26が備える各種センサの種類や数は、現実的に車両1に設置可能な種類や数であれば特に限定されない。
The in-vehicle sensor 26 includes various sensors for detecting information inside the vehicle, and supplies sensor data from each sensor to each section of the
例えば、車内センサ26は、カメラ、レーダ、着座センサ、ステアリングホイールセンサ、マイクロフォンおよび生体センサのうち1種類以上のセンサを備えることができる。車内センサ26が備えるカメラとしては、例えば、ToFカメラ、ステレオカメラ、単眼カメラおよび赤外線カメラといった、測距可能な各種の撮影方式のカメラを用いることができる。これに限らず、車内センサ26が備えるカメラは、測距に関わらずに、単に撮影画像を取得するためのものであってもよい。車内センサ26が備える生体センサは、例えば、シートやステアリングホイール等に設けられ、運転者等の搭乗者の各種の生体情報を検出する。 For example, in-vehicle sensors 26 may comprise one or more of cameras, radar, seat sensors, steering wheel sensors, microphones, and biometric sensors. As the camera provided in the in-vehicle sensor 26, for example, cameras of various shooting methods capable of distance measurement, such as a ToF camera, a stereo camera, a monocular camera, and an infrared camera, can be used. The camera included in the in-vehicle sensor 26 is not limited to this, and may simply acquire a photographed image regardless of distance measurement. The biosensors included in the in-vehicle sensor 26 are provided, for example, on a seat, a steering wheel, or the like, and detect various biometric information of a passenger such as a driver.
車両センサ27は、車両1の状態を検出するための各種のセンサを備え、各センサからのセンサデータを車両制御システム11の各部に供給する。車両センサ27が備える各種センサの種類や数は、現実的に車両1に設置可能な種類や数であれば特に限定されない。
The
例えば、車両センサ27は、速度センサ、加速度センサ、角速度センサ(ジャイロセンサ)、及び、それらを統合した慣性計測装置(IMU(Inertial Measurement Unit))を備える。例えば、車両センサ27は、ステアリングホイールの操舵角を検出する操舵角センサ、ヨーレートセンサ、アクセルペダルの操作量を検出するアクセルセンサ、及び、ブレーキペダルの操作量を検出するブレーキセンサを備える。例えば、車両センサ27は、エンジンやモータの回転数を検出する回転センサ、タイヤの空気圧を検出する空気圧センサ、タイヤのスリップ率を検出するスリップ率センサ、及び、車輪の回転速度を検出する車輪速センサを備える。例えば、車両センサ27は、バッテリの残量及び温度を検出するバッテリセンサ、並びに、外部からの衝撃を検出する衝撃センサを備える。車両センサ27は、運転ステータスDSを検出するセンサを備える。
For example, the
記憶部28は、不揮発性の記憶媒体及び揮発性の記憶媒体のうち少なくとも一方を含み、データやプログラムを記憶する。記憶部28は、例えばEEPROM(Electrically Erasable Programmable Read Only Memory)及びRAM(Random Access Memory)として用いられ、記憶媒体としては、HDD(Hard Disc Drive)といった磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、及び、光磁気記憶デバイスを適用することができる。記憶部28は、車両制御システム11の各部が用いる各種プログラムやデータを記憶する。例えば、記憶部28は、EDR(Event Data Recorder)やDSSAD(Data Storage System for Automated Driving)を備え、事故等のイベントの前後の車両1の情報や車内センサ26によって取得された情報を記憶する。
The storage unit 28 includes at least one of a nonvolatile storage medium and a volatile storage medium, and stores data and programs. The storage unit 28 is used, for example, as an EEPROM (Electrically Erasable Programmable Read Only Memory) and a RAM (Random Access Memory). And a magneto-optical storage device can be applied. The storage unit 28 stores various programs and data used by each unit of the
走行支援・自動運転制御部29は、車両1の走行支援及び自動運転の制御を行う。例えば、走行支援・自動運転制御部29は、分析部61、行動計画部62、及び、動作制御部63を備える。
The driving support/automatic driving control unit 29 controls driving support and automatic driving of the vehicle 1 . For example, the driving support/automatic driving control unit 29 includes an
分析部61は、車両1及び周囲の状況の分析処理を行う。分析部61は、自己位置推定部71、センサフュージョン部72、及び、認識部73を備える。
The
自己位置推定部71は、外部認識センサ25からのセンサデータ、及び、地図情報蓄積部23に蓄積されている高精度地図に基づいて、車両1の自己位置を推定する。例えば、自己位置推定部71は、外部認識センサ25からのセンサデータに基づいてローカルマップを生成し、ローカルマップと高精度地図とのマッチングを行うことにより、車両1の自己位置を推定する。車両1の位置は、例えば、後輪対車軸の中心が基準とされる。
The self-
ローカルマップは、例えば、SLAM(Simultaneous Localization and Mapping)等の技術を用いて作成される3次元の高精度地図、占有格子地図(Occupancy Grid Map)等である。3次元の高精度地図は、例えば、上述したポイントクラウドマップ等である。占有格子地図は、車両1の周囲の3次元又は2次元の空間を所定の大きさのグリッド(格子)に分割し、グリッド単位で物体の占有状態を示す地図である。物体の占有状態は、例えば、物体の有無や存在確率により示される。ローカルマップは、例えば、認識部73による車両1の外部の状況の検出処理及び認識処理にも用いられる。
The local map is, for example, a three-dimensional high-precision map created using a technique such as SLAM (Simultaneous Localization and Mapping), an occupancy grid map, or the like. The three-dimensional high-precision map is, for example, the point cloud map described above. The occupancy grid map is a map that divides the three-dimensional or two-dimensional space around the vehicle 1 into grids (lattice) of a predetermined size and shows the occupancy state of objects in grid units. The occupancy state of an object is indicated, for example, by the presence or absence of the object and the existence probability. The local map is also used, for example, by the recognizing
なお、自己位置推定部71は、位置情報取得部24により取得される位置情報、及び、車両センサ27からのセンサデータに基づいて、車両1の自己位置を推定してもよい。
The self-
センサフュージョン部72は、複数の異なる種類のセンサデータ(例えば、カメラ51から供給される画像データ、及び、レーダ52から供給されるセンサデータ)を組み合わせて、新たな情報を得るセンサフュージョン処理を行う。異なる種類のセンサデータを組合せる方法としては、統合、融合、連合等がある。
The
認識部73は、車両1の外部の状況の検出を行う検出処理、及び、車両1の外部の状況の認識を行う認識処理を実行する。
The
例えば、認識部73は、外部認識センサ25からの情報、自己位置推定部71からの情報、センサフュージョン部72からの情報等に基づいて、車両1の外部の状況の検出処理及び認識処理を行う。
For example, the
具体的には、例えば、認識部73は、車両1の周囲の物体の検出処理及び認識処理等を行う。物体の検出処理とは、例えば、物体の有無、大きさ、形、位置、動き等を検出する処理である。物体の認識処理とは、例えば、物体の種類等の属性を認識したり、特定の物体を識別したりする処理である。ただし、検出処理と認識処理とは、必ずしも明確に分かれるものではなく、重複する場合がある。
Specifically, for example, the
例えば、認識部73は、レーダ52又はLiDAR53等によるセンサデータに基づくポイントクラウドを点群の塊毎に分類するクラスタリングを行うことにより、車両1の周囲の物体を検出する。これにより、車両1の周囲の物体の有無、大きさ、形状、位置が検出される。
For example, the
例えば、認識部73は、クラスタリングにより分類された点群の塊の動きを追従するトラッキングを行うことにより、車両1の周囲の物体の動きを検出する。これにより、車両1の周囲の物体の速度及び進行方向(移動ベクトル)が検出される。
For example, the
例えば、認識部73は、カメラ51から供給される画像データに基づいて、車両、人、自転車、障害物、構造物、道路、信号機、交通標識、道路標示等を検出又は認識する。また、認識部73は、セマンティックセグメンテーション等の認識処理を行うことにより、車両1の周囲の物体の種類を認識してもよい。
For example, the
例えば、認識部73は、地図情報蓄積部23に蓄積されている地図、自己位置推定部71による自己位置の推定結果、及び、認識部73による車両1の周囲の物体の認識結果に基づいて、車両1の周囲の交通ルールの認識処理を行うことができる。認識部73は、この処理により、信号機の位置及び状態、交通標識及び道路標示の内容、交通規制の内容、並びに、走行可能な車線等を認識することができる。
For example, the
例えば、認識部73は、車両1の周囲の環境の認識処理を行うことができる。認識部73が認識対象とする周囲の環境としては、歩行者および周辺車両の有無、天候、気温、湿度、明るさ、及び、路面の状態等が想定される。
For example, the
行動計画部62は、車両1の行動計画を作成する。例えば、行動計画部62は、経路計画、経路追従の処理を行うことにより、行動計画を作成する。 The action plan section 62 creates an action plan for the vehicle 1 . For example, the action planning unit 62 creates an action plan by performing route planning and route following processing.
なお、経路計画(Global path planning)とは、スタートからゴールまでの大まかな経路を計画する処理である。この経路計画には、軌道計画と言われ、計画した経路において、車両1の運動特性を考慮して、車両1の近傍で安全かつ滑らかに進行することが可能な軌道生成(Local path planning)を行う処理も含まれる。 Note that global path planning is a process of planning a rough route from the start to the goal. This route planning is called trajectory planning, and includes trajectory generation (local path planning) that allows safe and smooth progress in the vicinity of the vehicle 1 in the planned route, taking into consideration the motion characteristics of the vehicle 1. It also includes the processing to be performed.
経路追従とは、経路計画により計画された経路を計画された時間内で安全かつ正確に走行するための動作を計画する処理である。行動計画部62は、例えば、この経路追従の処理の結果に基づき、車両1の目標速度と目標角速度を計算することができる。 Route following is a process of planning actions for safely and accurately traveling a route planned by route planning within a planned time. The action planning unit 62 can, for example, calculate the target speed and target angular speed of the vehicle 1 based on the result of this route following processing.
動作制御部63は、行動計画部62により作成された行動計画を実現するために、車両1の動作を制御する。 The motion control section 63 controls the motion of the vehicle 1 in order to implement the action plan created by the action planning section 62 .
例えば、動作制御部63は、後述する車両制御部32に含まれる、ステアリング制御部81、ブレーキ制御部82、及び、駆動制御部83を制御して、軌道計画により計算された軌道を車両1が進行するように、加減速制御及び方向制御を行う。例えば、動作制御部63は、衝突回避又は衝撃緩和、追従走行、車速維持走行、自車の衝突警告、自車のレーン逸脱警告等のADASの機能実現を目的とした協調制御を行う。例えば、動作制御部63は、運転者の操作によらずに自律的に走行する自動運転等を目的とした協調制御を行う。
For example, the operation control unit 63 controls a
DMS30は、車内センサ26からのセンサデータ、及び、後述するHMI31に入力される入力データ等に基づいて、運転者の認証処理、及び、運転者の状態の認識処理等を行う。認識対象となる運転者の状態としては、例えば、体調、覚醒度、集中度、疲労度、視線方向、酩酊度、運転操作、姿勢等が想定される。 The DMS 30 performs driver authentication processing, driver state recognition processing, and the like based on sensor data from the in-vehicle sensor 26 and input data input to the HMI 31, which will be described later. As the state of the driver to be recognized, for example, physical condition, wakefulness, concentration, fatigue, gaze direction, drunkenness, driving operation, posture, etc. are assumed.
なお、DMS30が、運転者以外の搭乗者の認証処理、及び、当該搭乗者の状態の認識処理を行うようにしてもよい。また、例えば、DMS30が、車内センサ26からのセンサデータに基づいて、車内の状況の認識処理を行うようにしてもよい。認識対象となる車内の状況としては、例えば、気温、湿度、明るさ、臭い等が想定される。 It should be noted that the DMS 30 may perform authentication processing for passengers other than the driver and processing for recognizing the state of the passenger. Further, for example, the DMS 30 may perform recognition processing of the situation inside the vehicle based on the sensor data from the sensor 26 inside the vehicle. Conditions inside the vehicle to be recognized include temperature, humidity, brightness, smell, and the like, for example.
HMI31は、各種のデータや指示等の入力と、各種のデータの、運転者を含む搭乗者への提示を行う。 The HMI 31 inputs various data and instructions, and presents various data to passengers including the driver.
HMI31によるデータの入力について、概略的に説明する。HMI31は、人がデータを入力するための入力デバイスを備える。HMI31は、入力デバイスにより入力されたデータや指示等に基づいて入力信号を生成し、車両制御システム11の各部に供給する。HMI31は、入力デバイスとして、例えばタッチパネル、ボタン、スイッチ、及び、レバーといった操作子を備える。これに限らず、HMI31は、音声やジェスチャ等により手動操作以外の方法で情報を入力可能な入力デバイスをさらに備えてもよい。さらに、HMI31は、例えば、赤外線又は電波を利用したリモートコントロール装置や、車両制御システム11の操作に対応したモバイル機器又はウェアラブル機器等の外部接続機器を入力デバイスとして用いてもよい。
Data input by the HMI 31 will be schematically described. The HMI 31 comprises an input device for human input of data. The HMI 31 generates an input signal based on data, instructions, etc. input from an input device, and supplies the input signal to each section of the
HMI31によるデータの提示について、概略的に説明する。HMI31は、搭乗者又は車外に対する視覚情報、聴覚情報、及び、触覚情報の生成を行う。また、HMI31は、生成された各情報の出力、出力内容、出力タイミング及び出力方法等を制御する出力制御を行う。HMI31は、視覚情報として、例えば、操作画面、車両1の状態表示、警告表示、車両1の周囲の状況を示すモニタ画像等の画像や光により示される情報(コンテンツ)を生成及び出力する。また、HMI31は、聴覚情報として、例えば、音声ガイダンス、警告音、警告メッセージ等の音により示される情報を生成及び出力する。さらに、HMI31は、触覚情報として、例えば、力、振動、動き等により搭乗者の触覚に与えられる情報を生成及び出力する。 The presentation of data by HMI 31 will be described schematically. The HMI 31 generates visual information, auditory information, and tactile information for the passenger or outside the vehicle. In addition, the HMI 31 performs output control for controlling the output, output content, output timing, output method, and the like of each generated information. The HMI 31 generates and outputs visual information such as an operation screen, a status display of the vehicle 1, a warning display, and information (contents) indicated by an image or light such as a monitor image showing the situation around the vehicle 1. The HMI 31 also generates and outputs information indicated by sounds such as voice guidance, warning sounds, warning messages, etc., as auditory information. Furthermore, the HMI 31 generates and outputs, as tactile information, information given to the passenger's tactile sense by force, vibration, movement, or the like.
HMI31が視覚情報を出力する出力デバイスとしては、例えば、自身が画像を表示することで視覚情報を提示する表示装置や、画像を投影することで視覚情報を提示するプロジェクタ装置を適用することができる。なお、表示装置は、通常のディスプレイを有する表示装置以外にも、例えば、ヘッドアップディスプレイ、透過型ディスプレイ、AR(Augmented Reality)機能を備えるウエアラブルデバイスといった、搭乗者の視界内に視覚情報を表示する装置であってもよい。また、HMI31は、車両1に設けられるナビゲーション装置、インストルメントパネル、CMS(Camera Monitoring System)、電子ミラー、ランプ等が有する表示デバイスを、視覚情報を出力する出力デバイスとして用いることも可能である。 As an output device from which the HMI 31 outputs visual information, for example, a display device that presents visual information by displaying an image by itself or a projector device that presents visual information by projecting an image can be applied. . In addition to the display device having a normal display, the display device is, for example, a head-up display, a transmissive display, a wearable device with an AR (Augmented Reality) function, etc., which displays visual information within the field of view of the passenger. It may be a device. The HMI 31 can also use a display device provided in the vehicle 1 such as a navigation device, an instrument panel, a CMS (Camera Monitoring System), an electronic mirror, a lamp, etc., as an output device for outputting visual information.
HMI31が聴覚情報を出力する出力デバイスとしては、例えば、オーディオスピーカ、ヘッドホン、イヤホンを適用することができる。 As an output device from which the HMI 31 outputs auditory information, for example, audio speakers, headphones, and earphones can be applied.
HMI31が触覚情報を出力する出力デバイスとしては、例えば、ハプティクス技術を用いたハプティクス素子を適用することができる。ハプティクス素子は、例えば、ステアリングホイール、シートといった、車両1の搭乗者が接触する部分に設けられる。 As an output device for the HMI 31 to output tactile information, for example, a haptic element using haptic technology can be applied. A haptic element is provided at a portion of the vehicle 1 that is in contact with a passenger, such as a steering wheel or a seat.
車両制御部32は、車両1の各部の制御を行う。車両制御部32は、ステアリング制御部81、ブレーキ制御部82、駆動制御部83、ボディ系制御部84、ライト制御部85、及び、ホーン制御部86を備える。
The vehicle control section 32 controls each section of the vehicle 1 . The vehicle control section 32 includes a
ステアリング制御部81は、車両1のステアリングシステムの状態の検出及び制御等を行う。ステアリングシステムは、例えば、ステアリングホイール等を備えるステアリング機構、電動パワーステアリング等を備える。ステアリング制御部81は、例えば、ステアリングシステムの制御を行うステアリングECU、ステアリングシステムの駆動を行うアクチュエータ等を備える。
The
ブレーキ制御部82は、車両1のブレーキシステムの状態の検出及び制御等を行う。ブレーキシステムは、例えば、ブレーキペダル等を含むブレーキ機構、ABS(Antilock Brake System)、回生ブレーキ機構等を備える。ブレーキ制御部82は、例えば、ブレーキシステムの制御を行うブレーキECU、ブレーキシステムの駆動を行うアクチュエータ等を備える。
The
駆動制御部83は、車両1の駆動システムの状態の検出及び制御等を行う。駆動システムは、例えば、アクセルペダル、内燃機関又は駆動用モータ等の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構等を備える。駆動制御部83は、例えば、駆動システムの制御を行う駆動ECU、駆動システムの駆動を行うアクチュエータ等を備える。
The
ボディ系制御部84は、車両1のボディ系システムの状態の検出及び制御等を行う。ボディ系システムは、例えば、キーレスエントリシステム、スマートキーシステム、パワーウインドウ装置、パワーシート、空調装置、エアバッグ、シートベルト、シフトレバー等を備える。ボディ系制御部84は、例えば、ボディ系システムの制御を行うボディ系ECU、ボディ系システムの駆動を行うアクチュエータ等を備える。 The body system control unit 84 detects and controls the state of the body system of the vehicle 1 . The body system includes, for example, a keyless entry system, smart key system, power window device, power seat, air conditioner, air bag, seat belt, shift lever, and the like. The body system control unit 84 includes, for example, a body system ECU that controls the body system, an actuator that drives the body system, and the like.
ライト制御部85は、車両1の各種のライトの状態の検出及び制御等を行う。制御対象となるライトとしては、例えば、ヘッドライト、バックライト、フォグライト、ターンシグナル、ブレーキライト、プロジェクション、バンパーの表示等が想定される。ライト制御部85は、ライトの制御を行うライトECU、ライトの駆動を行うアクチュエータ等を備える。
The
ホーン制御部86は、車両1のカーホーンの状態の検出及び制御等を行う。ホーン制御部86は、例えば、カーホーンの制御を行うホーンECU、カーホーンの駆動を行うアクチュエータ等を備える。 The horn control unit 86 detects and controls the state of the car horn of the vehicle 1 . The horn control unit 86 includes, for example, a horn ECU for controlling the car horn, an actuator for driving the car horn, and the like.
[3.外部認識センサのセンシング領域]
図3は、外部認識センサ25のカメラ51、レーダ52、LiDAR53、及び、超音波センサ54等によるセンシング領域の例を示す図である。なお、図3は、車両1を上面から見た様子を模式的に示している。符号が正しい向きで表示されるような姿勢で図3を見た場合、左端側が車両1の前端(フロント)側であり、右端側が車両1の後端(リア)側となっている。
[3. Sensing area of external recognition sensor]
FIG. 3 is a diagram showing an example of sensing areas by the
センシング領域101F及びセンシング領域101Bは、超音波センサ54のセンシング領域の例を示している。センシング領域101Fは、複数の超音波センサ54によって車両1の前端周辺をカバーしている。センシング領域101Bは、複数の超音波センサ54によって車両1の後端周辺をカバーしている。
A
センシング領域101F及びセンシング領域101Bにおけるセンシング結果は、例えば、車両1の駐車支援等に用いられる。
The sensing results in the
センシング領域102F乃至センシング領域102Bは、短距離又は中距離用のレーダ52のセンシング領域の例を示している。センシング領域102Fは、車両1の前方において、センシング領域101Fより遠い位置までカバーしている。センシング領域102Bは、車両1の後方において、センシング領域101Bより遠い位置までカバーしている。センシング領域102Lは、車両1の左側面の後方の周辺をカバーしている。センシング領域102Rは、車両1の右側面の後方の周辺をカバーしている。
センシング領域102Fにおけるセンシング結果は、例えば、車両1の前方に存在する車両や歩行者等の検出等に用いられる。センシング領域102Bにおけるセンシング結果は、例えば、車両1の後方の衝突防止機能等に用いられる。センシング領域102L及びセンシング領域102Rにおけるセンシング結果は、例えば、車両1の側方の死角における物体の検出等に用いられる。
The sensing result in the
センシング領域103F乃至センシング領域103Bは、カメラ51によるセンシング領域の例を示している。センシング領域103Fは、車両1の前方において、センシング領域102Fより遠い位置までカバーしている。センシング領域103Bは、車両1の後方において、センシング領域102Bより遠い位置までカバーしている。センシング領域103Lは、車両1の左側面の周辺をカバーしている。センシング領域103Rは、車両1の右側面の周辺をカバーしている。
Sensing areas 103</b>F to 103</b>B are examples of sensing areas by the
センシング領域103Fにおけるセンシング結果は、例えば、信号機や交通標識の認識、車線逸脱防止支援システム、自動ヘッドライト制御システムに用いることができる。センシング領域103Bにおけるセンシング結果は、例えば、駐車支援、及び、サラウンドビューシステムに用いることができる。センシング領域103L及びセンシング領域103Rにおけるセンシング結果は、例えば、サラウンドビューシステムに用いることができる。
The sensing results in the
センシング領域104は、LiDAR53のセンシング領域の例を示している。センシング領域104は、車両1の前方において、センシング領域103Fより遠い位置までカバーしている。一方、センシング領域104は、センシング領域103Fより左右方向の範囲が狭くなっている。
A
センシング領域104におけるセンシング結果は、例えば、周辺車両等の物体検出に用いられる。
Sensing results in the
センシング領域105は、長距離用のレーダ52のセンシング領域の例を示している。
センシング領域105は、車両1の前方において、センシング領域104より遠い位置までカバーしている。一方、センシング領域105は、センシング領域104より左右方向の範囲が狭くなっている。
A
The
センシング領域105におけるセンシング結果は、例えば、ACC(Adaptive Cruise Control)、緊急ブレーキ、衝突回避等に用いられる。
The sensing result in the
なお、外部認識センサ25が含むカメラ51、レーダ52、LiDAR53、及び、超音波センサ54の各センサのセンシング領域は、図3以外に各種の構成をとってもよい。具体的には、超音波センサ54が車両1の側方もセンシングするようにしてもよいし、LiDAR53が車両1の後方をセンシングするようにしてもよい。また、各センサの設置位置は、上述した各例に限定されない。また、各センサの数は、1つでもよいし、複数であってもよい。
The sensing regions of the
[4.補助センシング方法]
[4-1.従来の車両制御システム]
以下、従来との比較に基づいて、本開示の補助センシング方法について説明する。図4は、従来の車両制御システム19の概略図である。
[4. Auxiliary Sensing Method]
[4-1. Conventional vehicle control system]
The auxiliary sensing method of the present disclosure will be described below based on a comparison with the conventional method. FIG. 4 is a schematic diagram of a conventional
従来の車両制御システム19は、カメラ51とレーダ52のデータを並列に処理する。例えば、データ処理部200は、画像信号処理部201およびレーダ信号処理部202を用いて、それぞれカメラ51およびレーダ52のデータから物体の特徴点を抽出する。データ処理部200は、カメラ51およびレーダ52のデータから抽出された特徴点を、画像特徴点データベース203およびレーダ特徴点データベース204と照合する。
A conventional
画像特徴点データベース203には、過去の画像データから抽出された特徴点のデータが蓄積されている。レーダ特徴点データベース204には、過去のレーダ52の計測データから抽出された特徴点のデータが蓄積されている。データ処理部200は、カメラ51の画像データから抽出された特徴点群を画像特徴点データベース203と照合することにより、カメラ51の位置を推定する。データ処理部200は、レーダ52の計測データから抽出された特徴点群をレーダ特徴点データベース204と照合することにより、レーダ52の位置を推定する。特徴点群を用いた自己位置の推定手法としては、公知の方法が採用される。例えば、特許文献1には、画像データから特徴点を抽出し、位置の推定を行う方法について記されている。
The image
データ処理部200は、カメラ位置の推定情報とレーダ位置の推定情報とをデータ統合部210に出力する。データ統合部210は、GNSS91やIMU92由来の自立航法データに対し、カメラ51およびレーダ52の位置情報のデータを統合する。その際、データ統合部210は、適宜、地図データベース95を参照することで、さらに位置情報の妥当性の確認を行ってもよい。データ統合部210は、例えばカルマンフィルタなどの処理、あるいは、任意の信号処理により信号の統合を行い、位置情報を出力する。
The
[4-2.改良された車両制御システム]
図5は、従来システムを改良した本開示の車両制御システム11の概略図である。
[4-2. Improved vehicle control system]
FIG. 5 is a schematic diagram of the
本開示の車両制御システム11は、カメラ51から抽出された特徴点群の情報と、レーダ52のデータから抽出された特徴点群の情報とを統合する。車両制御システム11は、統合によって得られた高精度な特徴点情報を用いて自己位置推定を行う。特徴点情報の生成処理はデータ処理部300によって行われる。特徴点情報に基づく自己位置の推定処理はデータ統合部310によって行われる。例えば、データ処理部300はセンサフュージョン部72を含む。データ統合部310は自己位置推定部71を含む。
The
データ処理部300は、画像信号処理部301、レーダ信号処理部302および補助センサ位置情報生成部303を有する。画像信号処理部301は、カメラ51の画像データから特徴点情報を抽出する。特徴点情報は、撮影画像に含まれる各特徴点の位置に関する情報を含む。また、画像信号処理部301は、画像データから視程情報を抽出し、視程情報に基づいてレーダ52の動作パラメータを決定する。画像信号処理部301は、レーダ52の動作パラメータを調整することにより、レーダ52の測位方向(特徴点方位)および有効測位範囲(ビームBMの向きおよび形状)を制御する。レーダ52の動作パラメータの調整は、駆動制御部83によって行われる。
The
レーダ52の有効測位範囲は、レーダ52の最大測位距離によって規定される。最大測位距離は、レーダ52によって測位精度が保証される最大の距離を意味する。レーダ52の最大測位距離は、カメラ51の画像データから算出される視程よりも若干大きい値に設定される。視程が短ければレーダ52の最大測位距離も短く設定される。視程が長ければレーダ52の最大測位距離も長く設定される。例えば、最大測位距離は、画像データから得られる視程よりも5メートル以上10メートル以下だけ大きい値に設定される。
The effective positioning range of the
レーダ信号処理部302は、レーダ52で計測されたセンサデータから各特徴点までの距離(特徴点距離)を抽出する。画像信号処理部301は、カメラ51の画像データから抽出された各特徴点の位置に関する情報と、レーダ信号処理部302から取得した各特徴点までの距離に関する情報と、を統合する。これにより、画像信号処理部301は、画像データに基づいて生成された特徴点情報の精度を高める。
The radar
補助センサ位置情報生成部303は、統合処理によって精度が高められた特徴点情報に基づいて自己位置推定を行う。例えば、車両制御システム11(記憶部28)には、過去の画像データから抽出された特徴点のデータを蓄積した画像特徴点データベースCDが記憶されている。補助センサ位置情報生成部303は、統合処理後の特徴点情報を画像特徴点データベースCDと照合してカメラ51の位置を推定する。補助センサ位置情報生成部303は、カメラ51の位置を示す補助センサ位置情報を生成し、データ統合部310に供給する。データ統合部310は、補助センサ位置情報をGNSS91およびIMU92から得られる自立航法データと統合し、最終的な車両1の位置情報を生成する。
The auxiliary sensor position
本開示の手法が従来と異なる点は、レーダ処理がカメラ処理に付随する処理構造となっている点である。したがって、本開示の車両制御システム11では、レーダ信号処理部302で処理された情報は、画像信号処理部301を介して間接的に提供される。
The method of the present disclosure differs from the conventional method in that the radar processing is a processing structure that accompanies the camera processing. Therefore, in the
[4-2-1.画像信号処理部]
図6は、画像信号処理部301の構成例を示す図である。
[4-2-1. Image signal processing unit]
FIG. 6 is a diagram showing a configuration example of the image signal processing unit 301. As shown in FIG.
画像信号処理部301は、視程計算部311、特徴点抽出部312および特徴点情報更新部313を有する。入力は、カメラ51から供給される画像データである。
The image signal processing unit 301 has a visibility calculation unit 311 , a feature point extraction unit 312 and a feature point information update unit 313 . The input is image data supplied from the
視程計算部311は、カメラ51の画像データから視程情報を抽出する。視程情報は、肉眼で物体がはっきりと認識できる最大距離(視程)に関する情報を含む。霧、雨および雪などのように視程の値が方位によらずに均一である場合には、視程情報は、方位に依存しない平均的な視程の情報を含む。西日や逆光などの影響で視程の値が方位によってばらつく場合には、視程情報は、方位ごとの視程の値(視程分布)に関する情報を含む。視程分布に偏りがあるか否かは、予め設定された許容基準に基づいて判定される。
The visibility calculator 311 extracts visibility information from the image data of the
視程計算部311は、多層あるいは深層ニューラルネットワークを用いて構成されることが想定される。視程計算部311は、撮影シーンと視程との関係を学習させた多層あるいは深層ニューラルネットワークを用いて視程情報を抽出する。あらかじめ雨、霧および逆光などの画像のシーンをニューラルネットワークに学習させておくことで、高いレスポンスで入力画像に対する視程情報を得ることができる。 It is assumed that the visibility calculator 311 is configured using a multilayer or deep neural network. The visibility calculation unit 311 extracts visibility information using a multi-layer or deep neural network that has learned the relationship between the shooting scene and visibility. By having the neural network learn image scenes such as rain, fog, and backlight in advance, it is possible to obtain visibility information for the input image with high response.
学習には、多数の画像が用いられ、特定の環境条件に対して精度良く視程の値が求められる。例えば、すぐ先が見通せないくらい深い霧が立ち込めている状況に対して視程=1が割り当てられる。一方、カメラ51の視界が損なわれない通常の晴天に対しては、視程=5が割り当てられる。このように、カメラ51で得られている視界をスケーリングすることで、レーダ信号処理部302のパラメータ設定が段階的に変更可能となっている。
A large number of images are used for learning, and the visibility value is determined with high accuracy for specific environmental conditions. For example, a visibility of 1 is assigned to a situation in which the fog is so thick that one cannot see directly ahead. On the other hand, visibility=5 is assigned to normally clear weather where the field of view of the
特徴点抽出部312は、画像データから複数の特徴点を抽出する。特徴点抽出部312は、画像データから抽出された各特徴点の位置に基づいて特徴点情報を生成し、特徴点情報更新部313に供給する。特徴点の抽出は、例えば、SfM(Structure from Motion)やSuperPointなどの、画像の特徴量を分析するアルゴリズムや、それらを発展させたアルゴリズムを用いて行われる。 A feature point extraction unit 312 extracts a plurality of feature points from image data. The feature point extraction unit 312 generates feature point information based on the position of each feature point extracted from the image data, and supplies the feature point information update unit 313 with the feature point information. Extraction of feature points is performed using, for example, algorithms such as SfM (Structure from Motion) and SuperPoint, which analyze image feature quantities, and algorithms developed from these algorithms.
SfMでは、画像取得、特徴点抽出・対応付け、カメラ位置姿勢推定および3次元地図生成などのステップを経て自己位置の推定が行われる。例えば、下記非特許文献AにSfMの一例の記載がある。 In SfM, self-position estimation is performed through steps such as image acquisition, feature point extraction/association, camera position/orientation estimation, and 3D map generation. For example, Non-Patent Document A below describes an example of SfM.
[非特許文献A]写真測量とリモートセンシング、55巻、3号 [Non-Patent Document A] Photogrammetry and Remote Sensing, Vol. 55, No. 3
SuperPointは、カメラを用いた自己位置の推定手段として、ディープラーニングを用いる。SuperPointでは、あらかじめ画像センサの絶対姿勢と、その姿勢において撮影される画像との関係がディープラーニングにより学習される。学習済みモデルに姿勢推定の対象となる画像を入力すると、画像センサの絶対位置や姿勢が推定される。例えば、下記非特許文献BにSuperPointの一例の記載がある。 SuperPoint uses deep learning as means for estimating self-location using a camera. In SuperPoint, deep learning is used to learn in advance the relationship between the absolute orientation of the image sensor and the image captured in that orientation. When an image for orientation estimation is input to the trained model, the absolute position and orientation of the image sensor are estimated. For example, Non-Patent Document B below describes an example of SuperPoint.
[非特許文献B]Workshop on Deep Learning for Visual SLAM,2018,“SuperPoint:Self-supervised interest point detection and description” [Non-Patent Literature B] Workshop on Deep Learning for Visual SLAM, 2018, "SuperPoint: Self-supervised interest point detection and description"
特徴点抽出部312は、視程情報に基づいて、レーダ52で詳細にセンシングすべき方位を特徴点方位として検出する。特徴点方位は、デフォルトでは車両1の進行方向の前方である。視程分布が許容基準を満たす場合には、特徴点抽出部312は、デフォルトの方位を特徴点方位として検出する。視程分布に許容基準を超える偏りがある場合には、特徴点抽出部312は、視程分布から視程が最も短い方位を特徴点方位として抽出する。
The feature point extracting unit 312 detects, as the feature point azimuth, the direction to be sensed in detail by the
特徴点情報更新部313は、視程情報に基づいて各特徴点の位置の信頼性(正確性)を判定する。例えば、特徴点情報更新部313は、カメラ51の画像データから得られた特徴点の位置が、視程情報から算出されるカメラ51の有効測位範囲を超える位置に存在する場合には、位置の正確性は低いと推定する。この場合、特徴点情報更新部313は、不正確と推定された特徴点の位置を、レーダ信号処理部302から得られる特徴点までの距離に基づいて補正する。
The feature point information updating unit 313 determines the reliability (accuracy) of the position of each feature point based on the visibility information. For example, when the position of the feature point obtained from the image data of the
例えば、特徴点情報更新部313は、不正確と推定された特徴点の位置を特徴点の方位と特徴点までの距離に分解する。特徴点情報更新部313は、特徴点の方位を変更せずに、特徴点までの距離を、レーダ信号処理部302から得られる特徴点までの距離により置き換える。これにより、特徴点情報更新部313はカメラ51の画像データから得られる特徴点情報を精度の高いものに更新する。補助センサ位置情報生成部303は、更新後の特徴点情報を画像特徴点データベースCDと照合して、カメラ51の位置を示す補助センサ位置情報を生成する。
For example, the feature point information updating unit 313 decomposes the position of the feature point estimated to be inaccurate into the orientation of the feature point and the distance to the feature point. The feature point information updating unit 313 replaces the distance to the feature point with the distance to the feature point obtained from the radar
[4-2-2.レーダ信号処理部]
図7は、レーダ信号処理部302の構成例を示す図である。
[4-2-2. Radar signal processor]
FIG. 7 is a diagram showing a configuration example of the radar
レーダ信号処理部302は、レーダパラメータ決定部321および特徴点距離計算部322を有する。レーダパラメータ決定部321は、視程情報に基づいてレーダ52の測位方向および有効測位範囲を制御する動作パラメータを決定する。レーダ52は、動作パラメータによって規定される測位方向(特徴点方位)および有効測位範囲にある特徴点について距離の測定を行う。動作パラメータは、レーダ52の距離分解能などを制御するためのパラメータを含む。特徴点距離計算部322は動作パラメータに基づいてレーダ52の計測データを解析する。
The radar
レーダ52の動作パラメータは、視程の値が小さければ、近距離で最適なパラメータにチューニングされる。視程の値が大きければ、レーダ52の動作パラメータは、より遠距離に合わせてチューニングされる。例えば、FMCWレーダの最大測位距離Rmaxは、一般に下記式(1)のように与えられる。
The operating parameters of the
式(1)において、「c」は光速を示す。「Tchirp」はチャープ信号時間幅を示す。「BW」はチャープ信号周波数帯域幅を示す。「fS」はIF信号のサンプリング周波数を示す。 In equation (1), "c" indicates the speed of light. “T chirp ” indicates the chirp signal time width. "BW" indicates the chirp signal frequency bandwidth. “f S ” indicates the sampling frequency of the IF signal.
FMCWレーダでは、距離分解能ΔRは、一般に下記式(2)のように与えられる。 In the FMCW radar, the range resolution ΔR is generally given by Equation (2) below.
したがって、最大測位距離Rmaxを大きくするには、チャープ信号時間幅Tchirpまたはサンプリング周波数fSを大きくするか、あるいは、チャープ信号周波数帯域幅BWを小さくする必要がある。 Therefore, in order to increase the maximum positioning distance Rmax , it is necessary to increase the chirp signal time width Tchirp or the sampling frequency fS , or decrease the chirp signal frequency bandwidth BW.
ここで、チャープ信号時間幅Tchirpをあまり大きくすると、検出できる最大の速度が小さくなる問題がある。そのため、チャープ信号時間幅Tchirpはあまり大きくすることができない。また、サンプリング周波数fSはビート信号をサンプリングするA/Dコンバータの動作周波数に対応している。そのため、サンプリング周波数fSを大きくすると、回路コストが増大する懸念がある。したがって、最大測位距離Rmaxを大きくするには、チャープ信号周波数帯域幅BWを小さい値に設定することが望ましい。しかし、この場合、同時に距離分解能ΔRが増大してしまうというデメリットがある。 Here, if the chirp signal time width T chirp is too large, there is a problem that the maximum speed that can be detected becomes small. Therefore, the chirp signal time width T chirp cannot be made very large. Also, the sampling frequency fS corresponds to the operating frequency of the A/D converter that samples the beat signal. Therefore, if the sampling frequency fS is increased, there is a concern that the circuit cost will increase. Therefore, in order to increase the maximum positioning distance Rmax , it is desirable to set the chirp signal frequency bandwidth BW to a small value. However, in this case, there is a demerit that the range resolution ΔR increases at the same time.
このように、レーダ52の動作パラメータの選択に際しては、レーダ52の最大測位距離Rmaxと距離分解能ΔRとの間にトレードオフが存在する。しかしながら、本開示の方法では、カメラ51での測位が有効な限界距離以上の領域においてレーダ52による補助的な測位が行われる。そして、限界距離は、画像信号処理部301により決定される視程情報を参照して決定される。したがって、レーダ信号処理部302は、限界距離を超えた領域をカバーする最大のチャープ信号周波数帯域幅BWを設定することで、最良の距離分解能ΔRを得ることができる。
Thus, in choosing the operating parameters of
特徴点距離計算部322は、レーダ52の計測結果に基づいて各特徴点までの距離を算出し、特徴点情報更新部313に供給する。特徴点情報更新部313は画像データから抽出された特徴点情報と各特徴点までの距離の情報とを統合して特徴点情報を更新する。特徴点距離計算部322では、レーダ52から入力されるビート信号をA/D変換したのち、各特徴点までの距離を算出する。例えば、特徴点距離計算部322は、入力信号にFFTを施し、そのスペクトラムのピーク値から特徴点までの距離を推定する。
The feature
上述のように、レーダ信号処理部302は、画像信号処理部301より与えられる特徴点方位を参照し、特徴点までの距離情報を画像信号処理部301にフィードバックする。このようなカメラ51とレーダ52の協調動作により、従来よりも精度の高い測定が可能となる。例えば、カメラ51によるセンシングでは十分な測定精度が望めないときにレーダ52による補助的測定を行い、その結果をカメラ51の特徴点の情報と融合することで、高精度なカメラ51の特徴点の測位データが得られる。
As described above, the radar
[4-3.情報処理方法]
図8は、視程情報に基づくレーダ52の動作制御を行うための情報処理の一例を示すフローチャートである。
[4-3. Information processing method]
FIG. 8 is a flowchart showing an example of information processing for controlling the operation of the
視程計算部311は、カメラ51の画像データから視程情報を抽出する(ステップS1)。特徴点抽出部312は、視程情報から抽出される視程分布に許容基準を超える偏りがあるか否かを判定する(ステップS2)。例えば、視程の値が所定値以下である領域を低視程領域とし、低視程領域における視程のばらつきの大きさが予め設定された範囲に収まる場合には、視程は均一である、すなわち、視程分布は許容基準を満たすと判定される。低視程領域における視程のばらつきが予め設定された範囲に収まらない場合には、視程は不均一である、すなわち、視程分布に許容基準を超える偏りがあると判定される。 The visibility calculator 311 extracts visibility information from the image data of the camera 51 (step S1). The feature point extraction unit 312 determines whether or not the visibility distribution extracted from the visibility information has a bias exceeding the allowable standard (step S2). For example, an area in which the visibility value is equal to or less than a predetermined value is defined as a low visibility area, and if the magnitude of variation in visibility in the low visibility area falls within a preset range, the visibility is uniform, that is, the visibility distribution. is determined to meet the acceptance criteria. If the visibility variation in the low visibility region does not fall within a preset range, it is determined that the visibility is uneven, that is, the visibility distribution is biased beyond the allowable standard.
視程情報から抽出される視程分布が許容基準を満たす場合には(ステップS2:Yes)、レーダパラメータ決定部321は、視程分布から算出される平均的な視程に基づいてレーダ52の動作パラメータを決定する(ステップS3)。平均的な視程とは、例えば、低視程領域における平均的な視程の値を意味する。補助センサ位置情報生成部303は、カメラ51の画像データに含まれる全ての特徴点の特徴点情報を用いて補助センサ位置情報を生成する。
If the visibility distribution extracted from the visibility information satisfies the permissible criteria (step S2: Yes), the radar
視程情報から抽出される視程分布に許容基準を超える偏りがある場合には(ステップS2:No)、特徴点抽出部312は、視程分布から視程が最も短い方位を特徴点方位として抽出する(ステップS4)。レーダパラメータ決定部321は、レーダ52の検出範囲を特徴点方位に応じた範囲に設定し(ステップS5)、特徴点方位の視程に基づいてレーダ52の動作パラメータを決定する(ステップS6)。補助センサ位置情報生成部303は、カメラ51の画像データに含まれる複数の特徴点のうち、特徴点方位に存在する1以上の特徴点の特徴点情報を選択的に用いて補助センサ位置情報を生成する。
If the visibility distribution extracted from the visibility information is biased beyond the permissible standard (step S2: No), the feature point extraction unit 312 extracts the orientation with the shortest visibility from the visibility distribution as the feature point orientation (step S4). The radar
[4-4.変形例1]
図9は、第1変形例に係る車両制御システム11Aの概略図である。
[4-4. Modification 1]
FIG. 9 is a schematic diagram of a
本変形例と図5に示した構成例との相違点は、補助センサ位置情報生成部340および画像特徴点データベースCDが外部サーバに設けられている点である。データ処理部330は、補助センサ位置情報生成部340と通信を行う通信装置331を有する。
The difference between this modified example and the configuration example shown in FIG. 5 is that the auxiliary sensor
画像信号処理部301は、通信装置331を介して特徴点情報を補助センサ位置情報生成部340に供給する。補助センサ位置情報生成部340は、特徴点情報を画像特徴点データベースCDと照合して補助センサ位置情報を生成し、通信装置331を介してデータ処理部330に供給する。この構成では、負荷の大きい処理や容量の大きいデータが高性能な外部サーバに移管されている。そのため、車両1の構成が簡素化される。
The image signal processing unit 301 supplies feature point information to the auxiliary sensor position
[4-5.変形例2]
図10は、第2変形例に係る車両制御システム11Bの概略図である。
[4-5. Modification 2]
FIG. 10 is a schematic diagram of a
本変形例と図5に示した構成例との相違点は、センシング領域が異なる複数のレーダ52の動作パラメータが視程情報に基づいて独立に制御される点である。駆動制御部83は、各レーダ52に対応した複数のレーダ制御部97を有する。レーダ信号処理部302は、レーダ選択部323を有する。
The difference between this modification and the configuration example shown in FIG. 5 is that the operating parameters of the plurality of
レーダ選択部323は、レーダパラメータ決定部321から動作パラメータに関する情報を取得する。また、レーダ選択部323は、特徴点抽出部312から特徴点方位に関する情報を取得する。レーダ選択部323は、取得した動作パラメータを、特徴点方位に対応したセンシング領域を持つレーダ52に対して選択的に付与する。レーダ制御部97は、付与された動作パラメータを用いてレーダ52を駆動し、物体の検出を行う。補助センサ位置情報生成部303は、特徴点方位に存在する1以上の特徴点の特徴点情報を選択的に用いて補助センサ位置情報を生成する。
The
[5.効果]
車両制御システム11は、視程計算部311およびレーダパラメータ決定部321を有する。視程計算部311は、カメラ51の画像データから視程情報を抽出する。レーダパラメータ決定部321は、視程情報に基づいてレーダ52の有効測位範囲を制御する動作パラメータを決定する。本開示の情報処理方法は、車両制御システム11の処理がコンピュータにより実行される。本開示のプログラムは、車両制御システム11の処理をコンピュータに実現させる。
[5. effect]
The
この構成によれば、レーダ52の有効測位範囲がカメラ51の有効測位範囲に基づいて調整される。そのため、カメラ51とレーダ52を適切に連携させて自己位置推定の精度を高めることができる。
According to this configuration, the effective positioning range of the
車両制御システム11は、特徴点抽出部312、特徴点距離計算部322および特徴点情報更新部313を有する。特徴点抽出部312は、画像データから複数の特徴点を抽出する。特徴点距離計算部322は、レーダ52の計測結果に基づいて各特徴点までの距離を算出する。特徴点情報更新部313は、画像データから抽出された各特徴点の位置に関する特徴点情報と各特徴点までの距離の情報とを統合して特徴点情報を更新する。
The
この構成によれば、センサフュージョンによって精度の高い特徴点情報が得られる。 According to this configuration, highly accurate feature point information can be obtained by sensor fusion.
車両制御システム11は、補助センサ位置情報生成部303を有する。補助センサ位置情報生成部303は、更新後の特徴点情報を画像特徴点データベースCDに照合して、カメラ51の位置を示す補助センサ位置情報を生成する。
The
この構成によれば、更新後の特徴点情報に基づいて精度の高い補助センサ位置情報が得られる。レーダ52の計測結果とカメラ51の計測結果を個別に特徴点データベースと照合する場合に比べて、照合の回数が1回で済む。そのため、演算の負荷が低減される。
According to this configuration, highly accurate auxiliary sensor position information can be obtained based on the updated feature point information. Compared to the case where the measurement result of the
車両制御システム11は、データ統合部310を有する。データ統合部310は、補助センサ位置情報を自立航法データと統合して位置情報を生成する。
The
この構成によれば、センサフュージョンによって精度の高い位置情報が生成される。 According to this configuration, highly accurate position information is generated by sensor fusion.
特徴点抽出部312は、視程情報から抽出される視程分布に許容基準を超える偏りがある場合には、視程分布から視程が最も短い方位を特徴点方位として抽出する。レーダパラメータ決定部321は、特徴点方位の視程に基づいて動作パラメータを決定する。補助センサ位置情報生成部303は、画像データに含まれる複数の特徴点のうち、特徴点方位に存在する1以上の特徴点の特徴点情報を選択的に用いて補助センサ位置情報を生成する。
If the visibility distribution extracted from the visibility information is biased beyond the permissible standard, the feature point extraction unit 312 extracts the orientation with the shortest visibility from the visibility distribution as the feature point orientation. The radar
この構成によれば、視程分布に基づいて最適化された特定のレーダ52の計測結果のみを用いて精度の高い補助センサ位置情報を生成することができる。
According to this configuration, highly accurate auxiliary sensor position information can be generated using only the measurement result of the
車両制御システム11は、レーダ選択部323を有する。レーダ選択部323は、動作パラメータを、特徴点方位に対応したセンシング領域を持つレーダ52に対して選択的に付与する。
The
この構成によれば、必要なレーダ52の動作パラメータのみを選択的に調整することができる。
This configuration allows selective adjustment of only the necessary operating parameters of the
レーダパラメータ決定部321は、視程情報から抽出される視程分布が許容基準を満たす場合には、視程分布から算出される平均的な視程に基づいて動作パラメータを決定する。
If the visibility distribution extracted from the visibility information satisfies the permissible criteria, the radar
この構成によれば、複雑な演算を行うことなく、簡易に適切な動作パラメータが取得される。 According to this configuration, an appropriate operating parameter can be obtained easily without performing complicated calculations.
レーダパラメータ決定部321は、動作パラメータとしてチャープ信号周波数帯域幅BWを視程情報に基づいて決定する。
The radar
この構成によれば、レーダ52の有効測位範囲に応じた適切な距離分解能ΔRでレーダ52の計測が行われる。
According to this configuration, the
視程計算部311は、撮影シーンと視程との関係を学習させた多層あるいは深層ニューラルネットワークを用いて視程情報を抽出する。 The visibility calculation unit 311 extracts visibility information using a multi-layer or deep neural network that has learned the relationship between the shooting scene and visibility.
この構成によれば、高いレスポンスで入力画像に対する視程情報が得られる。 According to this configuration, visibility information for the input image can be obtained with high response.
なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。 Note that the effects described in this specification are merely examples and are not limited, and other effects may be provided.
[付記]
なお、本技術は以下のような構成も採ることができる。
(1)
カメラの画像データから視程情報を抽出する視程計算部と、
前記視程情報に基づいてレーダの有効測位範囲を制御する動作パラメータを決定するレーダパラメータ決定部と、
を有する情報処理装置。
(2)
前記画像データから複数の特徴点を抽出する特徴点抽出部と、
前記レーダの計測結果に基づいて各特徴点までの距離を算出する特徴点距離計算部と、
前記画像データから抽出された各特徴点の位置に関する特徴点情報と各特徴点までの距離の情報とを統合して前記特徴点情報を更新する特徴点情報更新部と、
を有する上記(1)に記載の情報処理装置。
(3)
更新後の前記特徴点情報を画像特徴点データベースに照合して前記カメラの位置を示す補助センサ位置情報を生成する補助センサ位置情報生成部を有する、
上記(2)に記載の情報処理装置。
(4)
前記補助センサ位置情報を自立航法データと統合して位置情報を生成するデータ統合部を有する、
上記(3)に記載の情報処理装置。
(5)
前記特徴点抽出部は、前記視程情報から抽出される視程分布に許容基準を超える偏りがある場合には、前記視程分布から視程が最も短い方位を特徴点方位として抽出し、
前記レーダパラメータ決定部は、前記特徴点方位の前記視程に基づいて前記動作パラメータを決定し、
前記補助センサ位置情報生成部は、前記画像データに含まれる前記複数の特徴点のうち、前記特徴点方位に存在する1以上の特徴点の特徴点情報を選択的に用いて前記補助センサ位置情報を生成する、
上記(4)に記載の情報処理装置。
(6)
前記動作パラメータを、前記特徴点方位に対応したセンシング領域を持つレーダに対して選択的に付与するレーダ選択部を有する、
上記(5)に記載の情報処理装置。
(7)
前記レーダパラメータ決定部は、前記視程情報から抽出される視程分布が許容基準を満たす場合には、前記視程分布から算出される平均的な視程に基づいて前記動作パラメータを決定する、
上記(1)ないし(6)のいずれか1つに記載の情報処理装置。
(8)
前記レーダパラメータ決定部は、前記動作パラメータとしてチャープ信号周波数帯域幅を前記視程情報に基づいて決定する、
上記(1)ないし(7)のいずれか1つに記載の情報処理装置。
(9)
前記視程計算部は、撮影シーンと視程との関係を学習させた多層あるいは深層ニューラルネットワークを用いて前記視程情報を抽出する、
上記(1)ないし(8)のいずれか1つに記載の情報処理装置。
(10)
カメラの画像データから視程情報を抽出し、
前記視程情報に基づいてレーダの有効測位範囲を制御する動作パラメータを決定する、
ことを有する、コンピュータにより実行される情報処理方法。
(11)
カメラの画像データから視程情報を抽出し、
前記視程情報に基づいてレーダの有効測位範囲を制御する動作パラメータを決定する、
ことをコンピュータに実現させるプログラム。
[Appendix]
Note that the present technology can also adopt the following configuration.
(1)
a visibility calculation unit that extracts visibility information from the image data of the camera;
a radar parameter determination unit that determines an operation parameter for controlling the effective positioning range of the radar based on the visibility information;
Information processing device having
(2)
a feature point extraction unit that extracts a plurality of feature points from the image data;
a feature point distance calculation unit that calculates the distance to each feature point based on the measurement result of the radar;
a feature point information updating unit that updates the feature point information by integrating feature point information regarding the position of each feature point extracted from the image data and information on the distance to each feature point;
The information processing apparatus according to (1) above.
(3)
an auxiliary sensor position information generation unit that generates auxiliary sensor position information indicating the position of the camera by comparing the updated feature point information with an image feature point database;
The information processing apparatus according to (2) above.
(4)
a data integration unit that integrates the auxiliary sensor position information with self-contained navigation data to generate position information;
The information processing apparatus according to (3) above.
(5)
When the visibility distribution extracted from the visibility information has a deviation exceeding an allowable standard, the feature point extracting unit extracts an orientation with the shortest visibility from the visibility distribution as a feature point orientation,
The radar parameter determination unit determines the operating parameter based on the visibility of the feature point orientation,
The auxiliary sensor position information generation unit selectively generates the auxiliary sensor position information by selectively using feature point information of one or more feature points existing in the feature point orientation among the plurality of feature points included in the image data. to generate
The information processing apparatus according to (4) above.
(6)
a radar selection unit that selectively applies the operation parameter to a radar having a sensing area corresponding to the feature point orientation;
The information processing apparatus according to (5) above.
(7)
When the visibility distribution extracted from the visibility information satisfies an allowable criterion, the radar parameter determination unit determines the operating parameter based on an average visibility calculated from the visibility distribution.
The information processing apparatus according to any one of (1) to (6) above.
(8)
The radar parameter determination unit determines a chirp signal frequency bandwidth as the operating parameter based on the visibility information.
The information processing apparatus according to any one of (1) to (7) above.
(9)
The visibility calculation unit extracts the visibility information using a multilayer or deep neural network that has learned the relationship between the shooting scene and the visibility.
The information processing apparatus according to any one of (1) to (8) above.
(10)
Extract visibility information from camera image data,
Determining operating parameters that control the effective positioning range of the radar based on the visibility information;
A computer-implemented information processing method, comprising:
(11)
Extract visibility information from camera image data,
Determining operating parameters that control the effective positioning range of the radar based on the visibility information;
A program that makes a computer do something.
11 車両制御システム(情報処理装置)
51 カメラ
52 レーダ
303,340 補助センサ位置情報生成部
310 データ統合部
311 視程計算部
312 特徴点抽出部
313 特徴点情報更新部
321 レーダパラメータ決定部
322 特徴点距離計算部
323 レーダ選択部
CD 画像特徴点データベース
11 vehicle control system (information processing device)
51
Claims (11)
前記視程情報に基づいてレーダの有効測位範囲を制御する動作パラメータを決定するレーダパラメータ決定部と、
を有する情報処理装置。 a visibility calculation unit that extracts visibility information from the image data of the camera;
a radar parameter determination unit that determines an operation parameter for controlling the effective positioning range of the radar based on the visibility information;
Information processing device having
前記レーダの計測結果に基づいて各特徴点までの距離を算出する特徴点距離計算部と、
前記画像データから抽出された各特徴点の位置に関する特徴点情報と各特徴点までの距離の情報とを統合して前記特徴点情報を更新する特徴点情報更新部と、
を有する請求項1に記載の情報処理装置。 a feature point extraction unit that extracts a plurality of feature points from the image data;
a feature point distance calculation unit that calculates the distance to each feature point based on the measurement result of the radar;
a feature point information updating unit that updates the feature point information by integrating feature point information regarding the position of each feature point extracted from the image data and information on the distance to each feature point;
The information processing apparatus according to claim 1, comprising:
請求項2に記載の情報処理装置。 an auxiliary sensor position information generating unit that compares the updated feature point information with an image feature point database to generate auxiliary sensor position information indicating the position of the camera;
The information processing apparatus according to claim 2.
請求項3に記載の情報処理装置。 a data integration unit that integrates the auxiliary sensor position information with self-contained navigation data to generate position information;
The information processing apparatus according to claim 3.
前記レーダパラメータ決定部は、前記特徴点方位の前記視程に基づいて前記動作パラメータを決定し、
前記補助センサ位置情報生成部は、前記画像データに含まれる前記複数の特徴点のうち、前記特徴点方位に存在する1以上の特徴点の特徴点情報を選択的に用いて前記補助センサ位置情報を生成する、
請求項4に記載の情報処理装置。 When the visibility distribution extracted from the visibility information has a deviation exceeding an allowable standard, the feature point extracting unit extracts an orientation with the shortest visibility from the visibility distribution as a feature point orientation,
The radar parameter determination unit determines the operating parameter based on the visibility of the feature point orientation,
The auxiliary sensor position information generation unit selectively generates the auxiliary sensor position information by selectively using feature point information of one or more feature points existing in the feature point orientation among the plurality of feature points included in the image data. to generate
The information processing apparatus according to claim 4.
請求項5に記載の情報処理装置。 a radar selection unit that selectively applies the operation parameter to a radar having a sensing area corresponding to the feature point orientation;
The information processing device according to claim 5 .
請求項1に記載の情報処理装置。 When the visibility distribution extracted from the visibility information satisfies an allowable criterion, the radar parameter determination unit determines the operating parameter based on an average visibility calculated from the visibility distribution.
The information processing device according to claim 1 .
請求項1に記載の情報処理装置。 The radar parameter determination unit determines a chirp signal frequency bandwidth as the operating parameter based on the visibility information.
The information processing device according to claim 1 .
請求項1に記載の情報処理装置。 The visibility calculation unit extracts the visibility information using a multilayer or deep neural network that has learned the relationship between the shooting scene and the visibility.
The information processing device according to claim 1 .
前記視程情報に基づいてレーダの有効測位範囲を制御する動作パラメータを決定する、
ことを有する、コンピュータにより実行される情報処理方法。 Extract visibility information from camera image data,
Determining operating parameters that control the effective positioning range of the radar based on the visibility information;
A computer-implemented information processing method, comprising:
前記視程情報に基づいてレーダの有効測位範囲を制御する動作パラメータを決定する、
ことをコンピュータに実現させるプログラム。 Extract visibility information from camera image data,
Determining operating parameters that control the effective positioning range of the radar based on the visibility information;
A program that makes a computer do something.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021181168A JP2023069374A (en) | 2021-11-05 | 2021-11-05 | Information processing device, information processing method, and program |
PCT/JP2022/036903 WO2023079881A1 (en) | 2021-11-05 | 2022-10-03 | Information processing device, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021181168A JP2023069374A (en) | 2021-11-05 | 2021-11-05 | Information processing device, information processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023069374A true JP2023069374A (en) | 2023-05-18 |
Family
ID=86241429
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021181168A Pending JP2023069374A (en) | 2021-11-05 | 2021-11-05 | Information processing device, information processing method, and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2023069374A (en) |
WO (1) | WO2023079881A1 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7471045B2 (en) * | 2017-03-10 | 2024-04-19 | ソニーグループ株式会社 | Information processing device and information processing method |
JP7019503B2 (en) * | 2018-04-25 | 2022-02-15 | 日立Astemo株式会社 | Electronic control device, calculation method |
WO2020230694A1 (en) * | 2019-05-16 | 2020-11-19 | ソニー株式会社 | Mobile body |
-
2021
- 2021-11-05 JP JP2021181168A patent/JP2023069374A/en active Pending
-
2022
- 2022-10-03 WO PCT/JP2022/036903 patent/WO2023079881A1/en unknown
Also Published As
Publication number | Publication date |
---|---|
WO2023079881A1 (en) | 2023-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11531354B2 (en) | Image processing apparatus and image processing method | |
JP7374098B2 (en) | Information processing device, information processing method, computer program, information processing system, and mobile device | |
US20210224617A1 (en) | Information processing device, information processing method, computer program, and mobile device | |
US20230230368A1 (en) | Information processing apparatus, information processing method, and program | |
US20240054793A1 (en) | Information processing device, information processing method, and program | |
US20220383749A1 (en) | Signal processing device, signal processing method, program, and mobile device | |
WO2022158185A1 (en) | Information processing device, information processing method, program, and moving device | |
US20220277556A1 (en) | Information processing device, information processing method, and program | |
CN115668285A (en) | Information processing device, information processing method, information processing system, and program | |
WO2023153083A1 (en) | Information processing device, information processing method, information processing program, and moving device | |
WO2023079881A1 (en) | Information processing device, information processing method, and program | |
WO2024024471A1 (en) | Information processing device, information processing method, and information processing system | |
WO2024009829A1 (en) | Information processing device, information processing method, and vehicle control system | |
WO2023054090A1 (en) | Recognition processing device, recognition processing method, and recognition processing system | |
WO2023149089A1 (en) | Learning device, learning method, and learning program | |
WO2023021756A1 (en) | Information processing system, information processing device, and information processing method | |
WO2023063145A1 (en) | Information processing device, information processing method, and information processing program | |
WO2024048180A1 (en) | Information processing device, information processing method, and vehicle control system | |
WO2023032276A1 (en) | Information processing device, information processing method, and mobile device | |
US20230377108A1 (en) | Information processing apparatus, information processing method, and program | |
WO2023074419A1 (en) | Information processing device, information processing method, and information processing system | |
WO2023053718A1 (en) | Information processing device, information processing method, learning device, learning method, and computer program | |
WO2023145460A1 (en) | Vibration detection system and vibration detection method | |
US20240019539A1 (en) | Information processing device, information processing method, and information processing system | |
WO2023162497A1 (en) | Image-processing device, image-processing method, and image-processing program |