WO2023021756A1 - Information processing system, information processing device, and information processing method - Google Patents

Information processing system, information processing device, and information processing method Download PDF

Info

Publication number
WO2023021756A1
WO2023021756A1 PCT/JP2022/010256 JP2022010256W WO2023021756A1 WO 2023021756 A1 WO2023021756 A1 WO 2023021756A1 JP 2022010256 W JP2022010256 W JP 2022010256W WO 2023021756 A1 WO2023021756 A1 WO 2023021756A1
Authority
WO
WIPO (PCT)
Prior art keywords
reflection point
distance
radar
unit
information processing
Prior art date
Application number
PCT/JP2022/010256
Other languages
French (fr)
Japanese (ja)
Inventor
大輔 松尾
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2023021756A1 publication Critical patent/WO2023021756A1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Abstract

An information processing system according to one embodiment of the present technology comprises a plurality of radar devices, an information processing device, and an output device. The information processing device has a distance calculation unit and a processing unit. The distance calculation unit uses at least one of the plurality of radar devices to calculate a distance to an object. The processing unit carries out a process in which the plurality of radar devices detect different reflection points of an object when the distance to the object is less than a prescribed threshold, and in which a digital radar signal of the plurality of radar devices is synthesized to detect common reflection points of objects when the distance to the objects is not less than the prescribed threshold. The output device has an output unit that outputs reflection point information pertaining to a reflection point on the basis of the detection process of the processing unit.

Description

情報処理システム、情報処理装置、及び情報処理方法Information processing system, information processing device, and information processing method
 本技術は、レーダ装置等に適用可能な情報処理システム、情報処理装置、及び情報処理方法に関する。 The present technology relates to an information processing system, an information processing device, and an information processing method applicable to radar devices and the like.
 特許文献1には、物標上の反射点の検出位置及び反射点からの反射波の受信信号強度に基づいて、物標の一部が存在する部分領域を推定し、推定した1以上の部分領域を元に物標の占有領域を推定するレーダ装置が記載される。これにより、物標の占有領域を良好に推定することが図られている(特許文献1の明細書段落[0040]~[0051]図6等)。 In Patent Document 1, based on the detected position of the reflection point on the target and the received signal intensity of the reflected wave from the reflection point, a partial area where a part of the target exists is estimated, and the estimated one or more parts A radar device that estimates the occupied area of a target based on the area is described. As a result, the occupied area of the target can be estimated satisfactorily (paragraphs [0040] to [0051] in FIG. 6 of Patent Document 1, etc.).
特開2020-3336号公報JP-A-2020-3336
 このような、レーダ装置の物体検出において、高精度な物体検出を実現することが可能な技術が求められている。 There is a demand for a technology that can achieve highly accurate object detection in such object detection by radar equipment.
 以上のような事情に鑑み、本技術の目的は、高精度な物体検出を実現することが可能な情報処理システム、情報処理装置、及び情報処理方法を提供することにある。 In view of the circumstances as described above, an object of the present technology is to provide an information processing system, an information processing apparatus, and an information processing method capable of realizing highly accurate object detection.
 上記目的を達成するため、本技術の一形態に係る情報処理システムは、複数のレーダ装置と、情報処理装置と、出力装置とを具備する。
 前記情報処理装置は、距離算出部と処理部とを有する。
 前記距離算出部は、前記複数のレーダ装置のうちの少なくとも1つを用いて、物体までの距離を算出する。
 前記処理部は、前記物体までの距離が所定の閾値未満である場合、前記複数のレーダ装置の各々が前記物体の異なる反射点を検出し、前記物体までの距離が前記所定の閾値以上である場合、前記複数のレーダ装置のデジタルレーダ信号を合成することにより前記物体の共通の反射点を検出する処理を実行する。
 前記出力装置は、前記処理部の検出処理に基づいて、前記反射点に関する反射点情報を出力する出力部を有する。
To achieve the above object, an information processing system according to one aspect of the present technology includes a plurality of radar devices, an information processing device, and an output device.
The information processing device has a distance calculation unit and a processing unit.
The distance calculator calculates a distance to an object using at least one of the plurality of radar devices.
The processing unit detects, when the distance to the object is less than a predetermined threshold, each of the plurality of radar devices detects a different reflection point of the object, and the distance to the object is greater than or equal to the predetermined threshold. In this case, a process of detecting a common reflection point of the object is executed by synthesizing the digital radar signals of the plurality of radar devices.
The output device has an output unit that outputs reflection point information about the reflection point based on the detection processing of the processing unit.
 この情報処理システムでは、複数のレーダ装置から物体までの距離が算出され、前記物体までの距離が所定の閾値未満である場合、前記複数のレーダ装置の各々が前記物体の異なる反射点を検出し、前記物体までの距離が所定の閾値以上である場合、前記複数のレーダ装置のデジタルレーダ信号を合成して大開口アレーアンテナを形成することにより前記物体の共通の反射点を検出する処理が実行される。これにより、高精度な物体検出を実現することが可能となる。 In this information processing system, distances from a plurality of radar devices to an object are calculated, and when the distance to the object is less than a predetermined threshold, each of the plurality of radar devices detects a different reflection point of the object. and detecting a common reflection point of the object by synthesizing the digital radar signals of the plurality of radar devices to form a large-aperture array antenna when the distance to the object is equal to or greater than a predetermined threshold. be done. This makes it possible to achieve highly accurate object detection.
 前記情報処理装置は、前記物体までの距離が前記所定の閾値未満である場合、前記物体に関するレーダ信号に基づいて、前記異なる反射点の各々の反射点情報を推定する第1の推定部を有してもよい。この場合、前記出力装置は、前記物体までの距離が前記所定の閾値以上である場合、前記物体に関するレーダ信号に基づいて、前記共通の反射点の反射点情報を推定する第2の推定部を有してもよい。 The information processing device has a first estimating unit that estimates reflection point information of each of the different reflection points based on a radar signal related to the object when the distance to the object is less than the predetermined threshold. You may In this case, the output device includes a second estimating unit that estimates reflection point information of the common reflection point based on the radar signal related to the object when the distance to the object is equal to or greater than the predetermined threshold. may have.
 前記反射点情報は、距離、速度、又は方向の少なくとも1つを含んでもよい。 The reflection point information may include at least one of distance, speed, or direction.
 前記所定の閾値は、前記複数のレーダ装置の配置される位置関係に基づいて決定されることを含んでもよい。 The predetermined threshold may be determined based on the positional relationship of the plurality of radar devices.
 前記情報処理装置は、前記第1の推定部における前記反射点情報の第1の推定結果及び前記第2の推定部における前記反射点情報の第2の推定結果に基づいて、前記複数のレーダ装置の各々が前記物体の異なる反射点を検出する処理、又は前記複数のレーダ装置のデジタルレーダ信号を合成することにより前記物体の共通の反射点を検出する処理に切り替える切替部を有してもよい。 The information processing device, based on a first estimation result of the reflection point information by the first estimation unit and a second estimation result of the reflection point information by the second estimation unit, the plurality of radar devices Each of may have a switching unit for switching to processing for detecting different reflection points of the object, or processing for detecting a common reflection point of the object by synthesizing digital radar signals of the plurality of radar devices. .
 前記切替部は、前記第2の推定結果により異なる角度に複数の物体が検出された場合、前記複数のレーダ装置のデジタルレーダ信号を合成することにより前記物体の共通の反射点を検出する処理に切り替えてもよい。 When a plurality of objects are detected at different angles according to the second estimation result, the switching unit detects a common reflection point of the object by synthesizing the digital radar signals of the plurality of radar devices. You can switch.
 前記切替部は、前記第1の推定結果による前記反射点の検出数より前記第2の推定結果による前記反射点の検出数が多い場合、前記複数のレーダ装置のデジタルレーダ信号を合成することにより前記物体の共通の反射点を検出する処理に切り替えてもよい。 When the number of reflection points detected by the second estimation result is larger than the number of reflection points detected by the first estimation result, the switching unit synthesizes the digital radar signals of the plurality of radar devices. The process may be switched to detect a common reflection point of the object.
 前記切替部は、前記第1の推定結果により前記反射点が近接している場合、前記反射点の距離及び速度に基づいて、前記複数のレーダ装置の各々が前記物体の異なる反射点を検出する処理、又は前記複数のレーダ装置のデジタルレーダ信号を合成することにより前記物体の共通の反射点を検出する処理に切り替えてもよい。 The switching unit causes each of the plurality of radar devices to detect a different reflection point of the object based on the distance and speed of the reflection point when the reflection point is close according to the first estimation result. processing, or processing for detecting a common reflection point of the object by synthesizing the digital radar signals of the plurality of radar devices.
 前記処理部は、前記物体までの距離が前記所定の閾値未満である場合、前記第1の推定部により推定された前記反射点情報を第1のネットワークを介して前記出力部へと出力し、前記物体までの距離が前記所定の閾値以上である場合、前記物体に関するレーダ信号を第2のネットワークを介して前記第2の推定部に出力してもよい。 When the distance to the object is less than the predetermined threshold, the processing unit outputs the reflection point information estimated by the first estimation unit to the output unit via a first network, A radar signal related to the object may be output to the second estimator via a second network when the distance to the object is equal to or greater than the predetermined threshold.
 本技術の一形態に係る情報処理装置は、距離算出部と、処理部とを有する。
 前記距離算出部は、前記複数のレーダ装置のうちの少なくとも1つを用いて、物体までの距離を算出する。
 前記処理部は、前記物体までの距離が所定の閾値未満である場合、前記複数のレーダ装置の各々が前記物体の異なる反射点を検出し、前記物体までの距離が前記所定の閾値以上である場合、前記複数のレーダ装置のデジタルレーダ信号を合成することにより前記物体の共通の反射点を検出する処理を実行する。
An information processing device according to an aspect of the present technology includes a distance calculation unit and a processing unit.
The distance calculator calculates a distance to an object using at least one of the plurality of radar devices.
The processing unit detects, when the distance to the object is less than a predetermined threshold, each of the plurality of radar devices detects a different reflection point of the object, and the distance to the object is greater than or equal to the predetermined threshold. In this case, a process of detecting a common reflection point of the object is executed by synthesizing the digital radar signals of the plurality of radar devices.
 本技術の一形態に係る情報処理方法は、コンピュータシステムが実行する情報処理方法であって、複数のレーダ装置のうちの少なくとも1つを用いて、物体までの距離を算出することを含む。
 前記物体までの距離が所定の閾値未満である場合、前記複数のレーダ装置の各々が前記物体の異なる反射点を検出し、前記物体までの距離が前記所定の閾値以上である場合、前記複数のレーダ装置のデジタルレーダ信号を合成することにより前記物体の共通の反射点を検出する処理が実行される。
An information processing method according to an embodiment of the present technology is an information processing method executed by a computer system, and includes calculating a distance to an object using at least one of a plurality of radar devices.
When the distance to the object is less than a predetermined threshold, each of the plurality of radar devices detects a different reflection point of the object, and when the distance to the object is greater than or equal to the predetermined threshold, the plurality of A process of detecting a common reflection point of the object is performed by synthesizing the digital radar signals of the radar equipment.
情報処理システムの概要を模式的に示す図である。It is a figure which shows the outline|summary of an information processing system typically. 情報処理システムの構成例を示すブロック図である。1 is a block diagram showing a configuration example of an information processing system; FIG. 検出処理部の構成例を示すブロック図である。It is a block diagram which shows the structural example of a detection process part. デジタルレーダ信号からピーク検出が行われるまでを示す模式図である。FIG. 10 is a schematic diagram showing a process from a digital radar signal to peak detection; FCM方式の場合のチャープ信号を示すグラフである。4 is a graph showing a chirp signal in the case of the FCM method; 複数のレーダ装置を用いて近距離及び遠距離の物体検出を行う場合の模式図である。It is a schematic diagram in the case of performing short-distance and long-distance object detection using a plurality of radar devices. 検出処理部の動作を示すフローチャートである。4 is a flow chart showing the operation of a detection processing unit; 本技術が適用される情報処理システムの一例である車両制御システムの構成例を示すブロック図である。1 is a block diagram showing a configuration example of a vehicle control system, which is an example of an information processing system to which the present technology is applied; FIG. 図8の外部認識センサのカメラ、レーダ装置、LiDAR、及び、超音波センサ等によるセンシング領域の例を示す図である。FIG. 9 is a diagram showing an example of sensing areas by the camera, radar device, LiDAR, ultrasonic sensor, etc. of the external recognition sensor in FIG. 8 ; 検出処理部のハードウェア構成例を示すブロック図である。It is a block diagram which shows the hardware structural example of a detection process part.
 以下、本技術に係る実施形態を、図面を参照しながら説明する。 Hereinafter, embodiments according to the present technology will be described with reference to the drawings.
 図1は、本技術に係る情報処理システムの概要を模式的に示す図である。 FIG. 1 is a diagram schematically showing an overview of an information processing system according to the present technology.
 図1に示すように、情報処理システム100は、複数のレーダ装置10を有する。例えば、複数のレーダ装置10は、自動車、ドローン、及び自律移動ロボット等の移動体に搭載される。すなわち、情報処理システム100は、障害物の認識、周辺環境のマップ生成、周辺の移動体の追尾等に適用可能である。これに限定されず、交差点等に複数のレーダ装置が設置され、交通量の観測や危険予知等の交通監視に適用されてもよい。 As shown in FIG. 1, the information processing system 100 has a plurality of radar devices 10. For example, the plurality of radar devices 10 are mounted on mobile objects such as automobiles, drones, and autonomous mobile robots. That is, the information processing system 100 can be applied to recognition of obstacles, map generation of the surrounding environment, tracking of surrounding moving objects, and the like. The present invention is not limited to this, and a plurality of radar devices may be installed at an intersection or the like, and applied to traffic monitoring such as traffic volume observation and danger prediction.
 複数のレーダ装置10は、送信信号を生成し、送信波として空間に放射する。また複数のレーダ装置10は、物体1の反射点2で反射した送信波を反射波として受信する。なお、複数のレーダ装置の設置される位置関係や数は限定されない。 A plurality of radar devices 10 generate transmission signals and radiate them into space as transmission waves. Further, the plural radar devices 10 receive the transmission wave reflected by the reflection point 2 of the object 1 as a reflected wave. Note that the positional relationship and the number of installed radar devices are not limited.
 情報処理システム100は、物体1との距離に基づいて、反射点2の検出処理を切り替える。本実施形態では、物体1との距離が近い場合、複数のレーダ装置10の各々が物体1の異なる反射点を検出する。例えば、図1の左図では、レーダ装置10A、10B、及び10Cの各々により、物体の反射点2A、2B、及び2Cの反射波が受信される。 The information processing system 100 switches detection processing for the reflection point 2 based on the distance to the object 1 . In this embodiment, when the distance to the object 1 is short, each of the plurality of radar devices 10 detects different reflection points of the object 1 . For example, in the left diagram of FIG. 1, reflected waves from reflection points 2A, 2B, and 2C of objects are received by radar devices 10A, 10B, and 10C, respectively.
 また図1の右図に示すように、物体1との距離が遠い場合、複数のレーダ装置10のデジタルレーダ信号を合成することにより1つのレーダ装置として、物体1の反射点3の検出処理が行われる。 Further, as shown in the right diagram of FIG. 1, when the distance from the object 1 is long, the detection processing of the reflection point 3 of the object 1 can be performed as one radar device by synthesizing the digital radar signals of a plurality of radar devices 10. done.
 すなわち、物体1との距離が近い場合、複数のレーダ装置10の各々による検出処理により反射点が多く検出されることで、反射点に関する反射点情報を多く得ることができる。また物体1との距離が遠い場合、複数のレーダ装置10のデジタルレーダ信号を合成することにより大開口アレーアンテナを形成し、1つのレーダ装置として検出処理を行うことで、大開口による高分解能で反射点情報を得ることができる。 That is, when the distance to the object 1 is short, many reflection points are detected by the detection processing by each of the plurality of radar devices 10, so that it is possible to obtain a large amount of reflection point information about the reflection points. When the distance from the object 1 is long, a large aperture array antenna is formed by synthesizing the digital radar signals of a plurality of radar devices 10, and detection processing is performed as one radar device. Reflection point information can be obtained.
 反射点情報とは、反射点の距離、速度、及び方向を含む。例えば、物体1からの反射による反射波がレーダ装置の受信アンテナに受信されるまでの距離、レーダ装置を搭載する移動体と物体1との相対速度、レーダ装置を搭載する移動体の進む方向に対して物体1が存在する角度等が含まれてもよい。 Reflection point information includes the distance, speed, and direction of the reflection point. For example, the distance until the reflected wave from the object 1 is received by the receiving antenna of the radar device, the relative speed between the object 1 and the moving body equipped with the radar device, the direction in which the moving body equipped with the radar device moves On the other hand, the angle at which the object 1 exists may be included.
 なお、複数のレーダ装置10を合成する手法は限定されず、複数のレーダ装置10の高精度同期による合成開口、複数のレーダ装置10間の位相誤差を補正した合成、複数のレーダ装置10のアレーアンテナ相関行列を平均した合成等が用いられてもよい。 Note that the method of synthesizing a plurality of radar devices 10 is not limited, and includes a synthetic aperture obtained by high-precision synchronization of a plurality of radar devices 10, a synthesis method in which a phase error between a plurality of radar devices 10 is corrected, an array of a plurality of radar devices 10. A combination of averaged antenna correlation matrices, etc. may be used.
 図2は、情報処理システム100の構成例を示すブロック図である。 FIG. 2 is a block diagram showing a configuration example of the information processing system 100. As shown in FIG.
 図2に示すように、情報処理システム100は、複数のレーダ装置10、ネットワーク30、及び出力装置40を有する。なお本実施形態では、2台のレーダ装置における物体検出を例として説明する。また2台のレーダ装置を区別する際は第1のレーダ装置、第2のレーダ装置と記載する。 As shown in FIG. 2, the information processing system 100 has a plurality of radar devices 10, a network 30, and an output device 40. Note that in this embodiment, object detection by two radar devices will be described as an example. When distinguishing two radar devices, they are described as a first radar device and a second radar device.
 レーダ装置10は、無線信号送信部11、無線信号受信部12、復調部13、A/D変換部14、及び検出処理部20を有する。 The radar device 10 has a radio signal transmission section 11 , a radio signal reception section 12 , a demodulation section 13 , an A/D conversion section 14 and a detection processing section 20 .
 無線信号送信部11は、送信信号を生成して送信波として空間に放射する。例えば、FCM(Fast Chirp Modulation)方式のレーダ装置の場合、周波数が直線状に変化するチャープ信号を高速に繰り返す送信信号が生成される。また無線信号送信部11は、送信信号を復調部13へと出力する。 The radio signal transmission unit 11 generates a transmission signal and radiates it into space as a transmission wave. For example, in the case of an FCM (Fast Chirp Modulation) type radar apparatus, a transmission signal is generated in which a chirp signal whose frequency changes linearly is repeated at high speed. Also, the radio signal transmitter 11 outputs the transmission signal to the demodulator 13 .
 無線信号受信部12は、物体で反射した送信波を反射波として受信して受信信号を復調部13へと出力する。例えば、無線信号受信部12は、反射波を単一もしくは複数のアンテナを用いて受信する。 The radio signal receiving section 12 receives the transmission wave reflected by the object as a reflected wave and outputs the received signal to the demodulation section 13 . For example, the radio signal receiving unit 12 receives reflected waves using a single or multiple antennas.
 復調部13は、受信信号を送信信号で復調して復調信号をA/D変換部14へと出力する。本実施形態では、復調部13は、受信信号及び送信信号に基づいて、反射点の位置や速度情報を含むレーダ信号を生成する。FCM方式の場合、受信信号及び送信信号をミキシングして差分周波数を含むレーダ信号を得る。またレーダ信号の周波数は、反射点とレーダ装置10との距離に比例する。繰り返しチャープ間での位相変化量は、反射点とレーダ装置10との間の相対速度に比例する。 The demodulator 13 demodulates the received signal with the transmitted signal and outputs the demodulated signal to the A/D converter 14 . In this embodiment, the demodulator 13 generates a radar signal including the position and velocity information of the reflection point based on the received signal and the transmitted signal. In the case of the FCM system, the received signal and the transmitted signal are mixed to obtain a radar signal containing the difference frequency. Also, the frequency of the radar signal is proportional to the distance between the reflection point and the radar device 10 . The amount of phase change between repetitive chirps is proportional to the relative velocity between the reflection point and the radar device 10 .
 A/D変換部14は、復調信号をデジタル値に変換し、デジタルレーダ信号を検出処理部20へと出力する。本実施形態では、A/D変換部14は、復調信号のサンプリング及び量子化を行い、デジタルレーダ信号を生成する。なおレーダ方式によっては、送信信号及び受信信号を先にA/D変換部14においてデジタル信号化した上で、復調部13によりデジタルレーダ信号が生成されてもよい。 The A/D converter 14 converts the demodulated signal into a digital value and outputs the digital radar signal to the detection processor 20 . In this embodiment, the A/D converter 14 samples and quantizes the demodulated signal to generate a digital radar signal. Depending on the radar system, the transmission signal and the reception signal may be converted into digital signals by the A/D converter 14 first, and then the digital radar signal may be generated by the demodulator 13 .
 検出処理部20は、物体の反射点の検出処理をレーダ装置10で行うか、出力装置40で行うかを判定する。具体的な構成は図3を用いて説明する。 The detection processing unit 20 determines whether the radar device 10 or the output device 40 performs the detection processing of the reflection point of the object. A specific configuration will be described with reference to FIG.
 本実施形態では、検出処理部20は、物体との距離が所定の閾値未満の場合、反射点の検出処理をレーダ装置10で行う。すなわち、検出処理部20は、物体との距離が所定の閾値未満の場合、反射点情報を第1のネットワーク31を介して出力装置40に出力する。 In this embodiment, the detection processing unit 20 performs reflection point detection processing in the radar device 10 when the distance to the object is less than a predetermined threshold. That is, the detection processing unit 20 outputs the reflection point information to the output device 40 via the first network 31 when the distance to the object is less than a predetermined threshold.
 また検出処理部20は、物体との距離が所定の閾値以上の場合、反射点の検出処理を出力装置40で行われるようにする。具体的には、検出処理部20は、入力されたデジタルレーダ信号から反射点の距離及び速度に相当する成分が抽出された抽出レーダ信号を生成し、その抽出レーダ信号を第2のネットワーク32を介して出力装置40に出力する。 Also, the detection processing unit 20 causes the output device 40 to perform the reflection point detection processing when the distance to the object is equal to or greater than a predetermined threshold. Specifically, the detection processing unit 20 generates an extracted radar signal in which components corresponding to the distance and speed of the reflection point are extracted from the input digital radar signal, and transmits the extracted radar signal to the second network 32. output to the output device 40 via.
 ネットワーク30は、複数のレーダ装置10から出力される反射点情報及び抽出レーダ信号を出力装置40へ伝送する。本実施形態では、ネットワーク30は、複数のレーダ装置10から反射点情報を出力装置40へ伝送する第1のネットワーク31と、複数のレーダ装置10から抽出レーダ信号を出力装置40へ伝送する第2のネットワーク32を有する。 The network 30 transmits reflection point information and extracted radar signals output from the plurality of radar devices 10 to the output device 40 . In this embodiment, the network 30 includes a first network 31 that transmits reflection point information from the plurality of radar devices 10 to the output device 40 and a second network 31 that transmits extracted radar signals from the plurality of radar devices 10 to the output device 40 . network 32 .
 出力装置40は、統合検出処理部41及び反射点情報出力部42を有する。 The output device 40 has an integrated detection processing unit 41 and a reflection point information output unit 42 .
 統合検出処理部41は、複数のレーダ装置10から出力される抽出レーダ信号に基づいて、反射点の検出処理を行う。本実施形態では、統合検出処理部41は、抽出レーダ信号に基づいて、反射点の存在する方向を推定し、反射点情報を反射点情報出力部に出力する。 The integrated detection processing unit 41 performs reflection point detection processing based on the extracted radar signals output from the plurality of radar devices 10 . In this embodiment, the integrated detection processing unit 41 estimates the direction in which the reflection point exists based on the extracted radar signal, and outputs reflection point information to the reflection point information output unit.
 反射点情報出力部42は、複数のレーダ装置10及び統合検出処理部41から反射点情報を受信し、外部に出力する。 The reflection point information output unit 42 receives reflection point information from a plurality of radar devices 10 and the integrated detection processing unit 41 and outputs it to the outside.
 図3は、検出処理部20の構成例を示すブロック図である。 FIG. 3 is a block diagram showing a configuration example of the detection processing unit 20. As shown in FIG.
 図3に示すように、検出処理部20は、距離分布算出部21、速度分布算出部22、ピーク検出処理部23、信号抽出部24、検出処理切替部25、及び方向推定処理部26を有する。 As shown in FIG. 3, the detection processing unit 20 has a distance distribution calculation unit 21, a speed distribution calculation unit 22, a peak detection processing unit 23, a signal extraction unit 24, a detection processing switching unit 25, and a direction estimation processing unit 26. .
 検出処理部20は、例えばCPUやGPU、DSP等のプロセッサ、ROMやRAM等のメモリ、HDD等の記憶デバイス等、コンピュータの構成に必要なハードウェアを有する(図10参照)。例えばCPUがROM等に予め記録されている本技術に係るプログラムをRAMにロードして実行することにより、本技術に係る情報処理方法が実行される。 The detection processing unit 20 has hardware necessary for configuring a computer, such as processors such as CPU, GPU, and DSP, memories such as ROM and RAM, and storage devices such as HDD (see FIG. 10). For example, the information processing method according to the present technology is executed by the CPU loading a program according to the present technology pre-recorded in the ROM or the like into the RAM and executing the program.
 例えばPC等の任意のコンピュータにより、検出処理部20を実現することが可能である。もちろんFPGA、ASIC等のハードウェアが用いられてもよい。 For example, the detection processing unit 20 can be realized by any computer such as a PC. Of course, hardware such as FPGA and ASIC may be used.
 本実施形態では、CPUが所定のプログラムを実行することで、機能ブロックとしての検出処理切替部が構成される。もちろん機能ブロックを実現するために、IC(集積回路)等の専用のハードウェアが用いられてもよい。 In this embodiment, the detection processing switching unit as a functional block is configured by the CPU executing a predetermined program. Of course, dedicated hardware such as an IC (integrated circuit) may be used to implement the functional blocks.
 プログラムは、例えば種々の記録媒体を介して検出処理部20にインストールされる。あるいは、インターネット等を介してプログラムのインストールが実行されてもよい。 The program is installed in the detection processing unit 20 via various recording media, for example. Alternatively, program installation may be performed via the Internet or the like.
 プログラムが記録される記録媒体の種類等は限定されず、コンピュータが読み取り可能な任意の記録媒体が用いられてよい。例えば、コンピュータが読み取り可能な非一過性の任意の記憶媒体が用いられてよい。 The type of recording medium on which the program is recorded is not limited, and any computer-readable recording medium may be used. For example, any computer-readable non-transitory storage medium may be used.
 距離分布算出部21は、A/D変換部14から出力されるデジタルレーダ信号を距離スペクトルに変換する。本実施形態では、変換された距離スペクトルは、速度分布算出部22に供給される。 The distance distribution calculator 21 converts the digital radar signal output from the A/D converter 14 into a distance spectrum. In this embodiment, the converted distance spectrum is supplied to the velocity distribution calculator 22 .
 図4は、デジタルレーダ信号からピーク検出が行われるまでを示す模式図である。図4Aは、復調されたデジタルレーダ信号を示すグラフである。図4Bは、距離スペクトルを示すグラフである。図4Cは、距離及び速度スペクトルを示すグラフである。 FIG. 4 is a schematic diagram showing the steps from digital radar signals to peak detection. FIG. 4A is a graph showing a demodulated digital radar signal. FIG. 4B is a graph showing the distance spectrum. FIG. 4C is a graph showing distance and velocity spectra.
 図4A及び図4Bでは、横軸を時間、縦軸は周波数である。なお、図4A及び図4Bでは、簡略化のために供給されたデジタルレーダ信号1~Lが記載されている。すなわち、各枠に、図5に示すようなチャープ信号の送受信に基づいて生成されたデジタルレーダ信号が表示されるものとする。 4A and 4B, the horizontal axis is time and the vertical axis is frequency. 4A and 4B, the supplied digital radar signals 1 to L are shown for simplification. That is, it is assumed that each frame displays a digital radar signal generated based on the transmission and reception of chirp signals as shown in FIG.
 図5は、FCM方式の場合のチャープ信号を示すグラフである。図5Aに示すグラフは、横軸が時間、縦軸がRF周波数を示す。また図5Bに示すグラフは、横軸が時間、縦軸が振幅を示す。 FIG. 5 is a graph showing chirp signals in the case of the FCM method. In the graph shown in FIG. 5A, the horizontal axis indicates time and the vertical axis indicates RF frequency. In the graph shown in FIG. 5B, the horizontal axis indicates time and the vertical axis indicates amplitude.
 例えば、FCM方式のレーダ装置の場合、デジタルレーダ信号の周波数がレーダ装置と反射点との距離に比例することから、各チャープに対応するデジタルレーダ信号内のサンプルに対してフーリエ変換によって距離スペクトルを得ることができる。 For example, in the case of an FCM radar system, the frequency of the digital radar signal is proportional to the distance between the radar system and the reflection point. Obtainable.
 速度分布算出部22は、距離スペクトルを距離及び速度スペクトルに変換する。本実施形態では、変換された距離及び速度スペクトルは、ピーク検出処理部23及び信号抽出部24に供給される。 The velocity distribution calculator 22 converts the distance spectrum into a distance and velocity spectrum. In this embodiment, the transformed distance and velocity spectra are supplied to the peak detection processing section 23 and the signal extraction section 24 .
 FCM方式のレーダ装置の場合、図4Bに示すように、繰り返し送信した各チャープ信号に対応する距離スペクトルをチャープ送信タイミング系列に並べ、チャープ送信タイミング方向にFFT(Fast Fourier Transform)をすることで距離及び速度スペクトルを得ることができる。 In the case of FCM radar equipment, as shown in FIG. 4B, the distance spectrum corresponding to each chirp signal repeatedly transmitted is arranged in a chirp transmission timing sequence, and FFT (Fast Fourier Transform) is performed in the direction of the chirp transmission timing. and velocity spectra can be obtained.
 ピーク検出処理部23は、距離及び速度スペクトルの電力ピークを検出することで反射点の検出を行う。本実施形態では、検出された反射点の距離及び速度の情報は信号抽出部24に供給される。 The peak detection processing unit 23 detects reflection points by detecting power peaks in the distance and velocity spectra. In this embodiment, information on the distance and speed of the detected reflection point is supplied to the signal extractor 24 .
 反射点は、距離及び速度スペクトル上の電力強度が大きい距離及び速度に存在する。図4Cに示すグラフは、横軸が距離、縦軸が速度を示す。図4に示すように、例えばピーク検出処理部23は、複素信号である距離及び速度スペクトルの各距離と各速度とにおいて複素信号の絶対値の2乗、すなわち電力レベルを計算した上で、CFAR(Constant false alarm rate)検出処理等により電力レベルのピーク位置を検出する。 Reflection points exist at distances and velocities where the power intensity on the distance and velocity spectrum is large. In the graph shown in FIG. 4C, the horizontal axis indicates distance and the vertical axis indicates speed. As shown in FIG. 4, for example, the peak detection processing unit 23 calculates the square of the absolute value of the complex signal at each distance and each speed of the distance and velocity spectrum, which is a complex signal, that is, the power level, and then calculates the CFAR (Constant false alarm rate) The power level peak position is detected by detection processing or the like.
 信号抽出部24は、距離及び速度スペクトルのうち、反射点の距離及び速度に相当する成分を抽出する。なお信号抽出部24は、無線信号送信部11又は無線信号受信部12が複数のアンテナを用いる場合は、複数の距離及び速度スペクトルが生成されるため、ある距離及び速度において複数の複素信号を抽出する。本実施形態では、信号抽出部24は、抽出レーダ信号を検出処理切替部25に供給する。 The signal extraction unit 24 extracts components corresponding to the distance and velocity of the reflection point from the distance and velocity spectrum. In addition, when the radio signal transmission unit 11 or the radio signal reception unit 12 uses a plurality of antennas, the signal extraction unit 24 generates a plurality of distance and speed spectra, so that a plurality of complex signals are extracted at a certain distance and speed. do. In this embodiment, the signal extraction unit 24 supplies the extracted radar signal to the detection processing switching unit 25 .
 検出処理切替部25は、抽出レーダ信号を予め定められた基準に従って方向推定処理部26又は出力装置40に出力する。本実施形態では、検出処理切替部25は、物体が所定の閾値未満か否かに基づいて、検出処理を切り替える。 The detection processing switching unit 25 outputs the extracted radar signal to the direction estimation processing unit 26 or the output device 40 according to a predetermined standard. In this embodiment, the detection process switching unit 25 switches the detection process based on whether the object is less than a predetermined threshold.
 図6は、複数のレーダ装置を用いて近距離及び遠距離の物体検出を行う場合の模式図である。図6Aは、近距離の物体検出を行う場合の模式図である。図6Bは、遠距離の物体検出を行う場合の模式図である。 FIG. 6 is a schematic diagram of a case where short-range and long-range object detection is performed using a plurality of radar devices. FIG. 6A is a schematic diagram for detecting an object at a short distance. FIG. 6B is a schematic diagram when long-distance object detection is performed.
 図6Aに示すように、物体6と第1のレーダ装置16及び第2のレーダ装置17との距離が近い場合、各々のレーダ装置において同一物体6の異なる反射点(7及び8)からの反射波が観測される可能性がある。この場合、各々のレーダ装置においてデジタルレーダ信号に対して各々の反射点の検出処理が行われる。この反射点の反射点情報が集約されることで物体6の異なる複数の反射点7及び8の情報を得ることができる。すなわち、物体占有領域の推定に有用な情報を得ることができる。 As shown in FIG. 6A, when the distance between the object 6 and the first radar device 16 and the second radar device 17 is short, reflections from different reflection points (7 and 8) of the same object 6 in each radar device Waves may be observed. In this case, detection processing of each reflection point is performed on the digital radar signal in each radar device. Information on a plurality of different reflection points 7 and 8 of the object 6 can be obtained by aggregating the reflection point information of the reflection points. That is, it is possible to obtain useful information for estimating the object occupied area.
 図6Bに示すように、物体6と第1のレーダ装置16及び第2のレーダ装置17との距離が遠い場合、各々のレーダ装置において物体6の同一反射点9からの反射波が観測される可能性がある。この場合、各々のレーダ装置の反射点情報は同一の反射点を示すこととなるため、反射点情報を集約しても異なる複数の反射点情報を得ることができない。 As shown in FIG. 6B, when the distance between the object 6 and the first radar device 16 and the second radar device 17 is long, reflected waves from the same reflection point 9 of the object 6 are observed in each radar device. there is a possibility. In this case, since the reflection point information of each radar device indicates the same reflection point, a plurality of different reflection point information cannot be obtained even if the reflection point information is aggregated.
 本実施形態では、物体6と第1のレーダ装置16及び第2のレーダ装置17との距離が遠い場合(複数のレーダ装置で同一反射点9からの反射波を観測している場合)、各々のレーダ装置のデジタルレーダ信号を集約してから反射点9の検出処理が行われることで、検出精度の向上が可能となる。 In this embodiment, when the distance between the object 6 and the first radar device 16 and the second radar device 17 is long (when a plurality of radar devices observe the reflected wave from the same reflection point 9), each Detection accuracy can be improved by collecting the digital radar signals of the radar devices and then performing the detection processing of the reflection point 9 .
 特に、複数のレーダ装置間の高精度の位相同期が確保されている場合、複数のレーダ装置10を単一のアレーアンテナと見立てたコヒーレント処理により高精度かつ高分解能の方向推定処理が可能となる。 In particular, when high-precision phase synchronization is ensured between a plurality of radar devices, coherent processing in which the plurality of radar devices 10 are regarded as a single array antenna enables highly accurate and high-resolution direction estimation processing. .
 方向推定処理部26は、抽出レーダ信号から反射点の存在する方向を推定する。すなわち、方向推定処理部26は、反射点の距離、速度、及び方向を含む反射点情報を生成し、出力装置40に出力する。 The direction estimation processing unit 26 estimates the direction in which the reflection point exists from the extracted radar signal. That is, the direction estimation processing unit 26 generates reflection point information including the distance, speed, and direction of the reflection point, and outputs the reflection point information to the output device 40 .
 なお、本実施形態において、検出処理部20は、複数のレーダ装置のうちの少なくとも1つを用いて、物体までの距離を算出する距離算出部と、物体までの距離が所定の閾値未満である場合、複数のレーダ装置の各々が物体の異なる反射点を検出し、物体までの距離が所定の閾値以上である場合、複数のレーダ装置のデジタルレーダ信号を合成することにより物体の共通の反射点を検出する処理を実行する処理部とを具備する情報処理装置に相当する。
 なお、本実施形態において、距離分布算出部21は、複数のレーダ装置のうちの少なくとも1つを用いて、物体までの距離を算出する距離算出部に相当する。
 なお、本実施形態において、検出処理切替部25は、第1の推定部における反射点情報の第1の推定結果及び第2の推定部における反射点情報の第2の推定結果に基づいて、複数のレーダ装置の各々が物体の異なる反射点を検出する処理、又は複数のレーダ装置のデジタルレーダ信号を合成することにより物体の共通の反射点を検出する処理に切り替える切替部に相当する。
 なお、本実施形態において、方向推定処理部26は、物体までの距離が所定の閾値未満である場合、物体に関するレーダ信号に基づいて、異なる反射点の各々の反射点情報を推定する第1の推定部に相当する。
 なお、本実施形態において、出力装置40は、処理部の検出処理に基づいて、反射点に関する反射点情報を出力する出力部を有する出力装置に相当する。
 なお、本実施形態において、統合検出処理部41は、物体までの距離が前記所定の閾値以上である場合、物体に関するレーダ信号に基づいて、共通の反射点の反射点情報を推定する第2の推定部に相当する。
In the present embodiment, the detection processing unit 20 includes a distance calculation unit that calculates the distance to an object using at least one of a plurality of radar devices, and a distance calculation unit that calculates the distance to the object. In this case, each of the plurality of radar devices detects a different reflection point of the object, and if the distance to the object is equal to or greater than a predetermined threshold, the digital radar signals of the plurality of radar devices are combined to detect a common reflection point of the object. It corresponds to an information processing apparatus including a processing unit that executes a process of detecting .
In this embodiment, the distance distribution calculator 21 corresponds to a distance calculator that calculates the distance to an object using at least one of a plurality of radar devices.
Note that in the present embodiment, the detection processing switching unit 25 performs a plurality of Each of the radar devices corresponds to a switching unit for switching to processing for detecting different reflection points on an object or processing for detecting a common reflection point on an object by synthesizing digital radar signals from a plurality of radar devices.
In this embodiment, when the distance to the object is less than a predetermined threshold, the direction estimation processing unit 26 estimates reflection point information for each of the different reflection points based on the radar signal related to the object. It corresponds to the estimation part.
In the present embodiment, the output device 40 corresponds to an output device having an output section that outputs reflection point information regarding reflection points based on the detection processing of the processing section.
In the present embodiment, when the distance to the object is equal to or greater than the predetermined threshold, the integrated detection processing unit 41 performs a second process for estimating reflection point information of a common reflection point based on radar signals related to the object. It corresponds to the estimation part.
 図7は、検出処理部20の動作を示すフローチャートである。 FIG. 7 is a flowchart showing the operation of the detection processing unit 20. FIG.
 図7に示すように、距離分布算出部21によりデジタルレーダ信号が取得され(ステップ101)、距離スペクトルが算出される(ステップ102)。 As shown in FIG. 7, the distance distribution calculator 21 acquires a digital radar signal (step 101) and calculates a distance spectrum (step 102).
 速度分布算出部22により、距離スペクトルから距離及び速度スペクトルが算出される(ステップ103)。 A distance and speed spectrum are calculated from the distance spectrum by the speed distribution calculation unit 22 (step 103).
 ピーク検出処理部23により、反射点の距離及び速度を求めるためピークが検出される(ステップ104)。典型的にステップ104では、複数のピークが検出される。すなわち、検出されたピーク毎にステップ105~ステップ111の処理が実行される。 A peak is detected by the peak detection processing unit 23 to obtain the distance and speed of the reflection point (step 104). Typically at step 104, multiple peaks are detected. That is, the processing of steps 105 to 111 is executed for each detected peak.
 信号抽出部24により、距離及び速度スペクトルのうちピーク位置に対応する距離及び速度の複素信号が抽出される(ステップ106)。 The signal extraction unit 24 extracts a complex signal of distance and velocity corresponding to the peak position in the distance and velocity spectrum (step 106).
 検出処理切替部25により、反射点の方向推定処理がレーダ装置10又は出力装置40にて行うかが判定される(ステップ107)。本実施形態では、検出処理切替部25は、物体からレーダ装置までの距離が、所定の閾値Rth未満か否かに基づいて処理を切り替える。 The detection processing switching unit 25 determines whether the reflection point direction estimation processing is performed by the radar device 10 or the output device 40 (step 107). In this embodiment, the detection processing switching unit 25 switches processing based on whether or not the distance from the object to the radar device is less than a predetermined threshold value Rth.
 反射点のピークの存在する距離が閾値Rth以上の場合(ステップ107のYES)、抽出レーダ信号が出力装置40に送信される(ステップ108)。すなわち、反射点の方向推定処理が統合検出処理部41によって実行される。 If the distance at which the reflection point peak exists is equal to or greater than the threshold value Rth (YES in step 107), the extracted radar signal is transmitted to the output device 40 (step 108). That is, the direction estimation processing of the reflection point is executed by the integrated detection processing section 41 .
 反射点のピークの存在する距離が閾値Rth未満の場合(ステップ107のNO)、抽出レーダ信号が方向推定処理部26に送信される。方向推定処理部26により、抽出レーダ信号に基づいて、反射点の方向推定処理が行われる(ステップ109)。具体的には、方向推定処理部26は、複数のアンテナに対応した複素信号間の位相差情報を利用し、デジタルビームフォーミング法やMUSIC(Multiple Signal Classification)といった到来方向推定アルゴリズムによって反射点の存在する方向を推定する。 If the distance at which the reflection point peak exists is less than the threshold value Rth (NO in step 107), the extracted radar signal is transmitted to the direction estimation processing unit 26. The direction estimation processing unit 26 performs direction estimation processing of the reflection point based on the extracted radar signal (step 109). Specifically, the direction estimation processing unit 26 utilizes phase difference information between complex signals corresponding to a plurality of antennas, and uses a direction-of-arrival estimation algorithm such as a digital beamforming method or MUSIC (Multiple Signal Classification) to estimate the existence of a reflection point. Estimate direction.
 所定の閾値Rthを設定する方法は限定されず、任意の方法により設定されてもよい。例えば、レーダ装置の設置幅に所定の係数を乗じる等のレーダ装置の設置幅に基づいて設定されてもよい。 The method for setting the predetermined threshold Rth is not limited, and may be set by any method. For example, it may be set based on the installation width of the radar device, such as by multiplying the installation width of the radar device by a predetermined coefficient.
 また物体との距離以外にも検出処理が切り替えられてもよい。例えば、出力装置40の統合検出処理部41の方向推定処理の結果により、異なる角度に複数の物体が検出された場合、反射点の方向推定処理が出力装置40にて行われてもよい。 Also, the detection process may be switched to other than the distance to the object. For example, when a plurality of objects are detected at different angles as a result of the direction estimation processing of the integrated detection processing unit 41 of the output device 40 , the output device 40 may perform the direction estimation processing of the reflection point.
 また例えば、方向推定処理部26の方向推定による各レーダ装置の反射点の検出数の平均値よりも、統合検出処理部41による方向推定による反射点の検出数の方が多い場合に、反射点の方向推定処理が出力装置40にて行われてもよい。例えば図1では、図1左図では反射点が6個でレーダ装置の数が3なので検出数の平均値は2、図1右図では反射点が2個なので検出数の平均値は2となる。この場合、お互いの平均値が同数のため、反射点の方向推定処理が方向推定処理部26にて行われてもよい。 Further, for example, when the number of reflection points detected by the direction estimation by the integrated detection processing unit 41 is larger than the average value of the number of reflection points detected by each radar device by the direction estimation by the direction estimation processing unit 26, the reflection point may be performed by the output device 40 . For example, in FIG. 1, the average number of detections is 2 because there are 6 reflection points and 3 radar devices in the left diagram of FIG. Become. In this case, since the average values are the same, the direction estimation processing unit 26 may perform the direction estimation processing of the reflection point.
 これ以外にも、Rthについてオーバーラップ領域Rth1<R(物体との距離)<Rth2が設定され、その設定に基づいて検出処理が切り替えられてもよい。また例えば、方向推定処理部26の検出結果から、距離(Δd)及び速度(Δv)が近接する反射点の組み合わせが存在する場合、同一の反射点を観測している可能性があると判断され、その反射点の組み合わせに応じて検出処理が切り替えられてもよい。すなわち、所定の距離の閾値(Dth)及びΔd、所定の速度の閾値(Vth)及びΔvの大小関係に基づいて、検出処理が切り替えられてもよい。また例えば、複数のレーダ装置の全ての検出領域において検出処理を切り替える旨の制御が実行されてもよい。 In addition to this, overlap region Rth1<R (distance to object)<Rth2 may be set for Rth, and detection processing may be switched based on the setting. Further, for example, when there is a combination of reflection points having close distances (Δd) and velocities (Δv) from the detection result of the direction estimation processing unit 26, it is determined that the same reflection point may be observed. , the detection process may be switched according to the combination of the reflection points. That is, the detection process may be switched based on the magnitude relationship between the predetermined distance threshold (Dth) and Δd and the predetermined speed threshold (Vth) and Δv. Further, for example, control may be executed to switch detection processing in all detection areas of a plurality of radar devices.
 方向推定処理部26により、反射点情報が出力装置40に送信される(ステップ110)。ステップ108及びステップ110により、反射点情報が反射点情報出力部42に供給される。 The direction estimation processing unit 26 transmits the reflection point information to the output device 40 (step 110). Reflection point information is supplied to the reflection point information output unit 42 through steps 108 and 110 .
 以上、本実施形態に係る情報処理システム100は、複数のレーダ装置10から物体1までの距離が算出され、物体1までの距離が所定の閾値Rth未満である場合、複数のレーダ装置10の各々が物体1の異なる反射点2を検出し、物体1までの距離が所定の閾値Rth以上である場合、複数のレーダ装置10のデジタルレーダ信号を合成することにより物体1の共通の反射点3を検出する処理が実行される。これにより、高精度な物体検出を実現することが可能となる。 As described above, in the information processing system 100 according to the present embodiment, the distances from the plurality of radar devices 10 to the object 1 are calculated, and when the distance to the object 1 is less than the predetermined threshold value Rth, each of the plurality of radar devices 10 detects different reflection points 2 of the object 1, and the distance to the object 1 is equal to or greater than a predetermined threshold value Rth, the common reflection point 3 of the object 1 is detected by synthesizing the digital radar signals of a plurality of radar devices 10. Processing to detect is performed. This makes it possible to achieve highly accurate object detection.
 従来、移動体に複数のレーダ装置を搭載することで監視精度を向上することが図られていた。しかし、物体検出において物体が遠方にある場合、複数のレーダ装置のいずれも物体の同一箇所からの反射点を観測してしまい、反射点情報を集約しても推定精度を向上させることが難しい。 Conventionally, it was attempted to improve the monitoring accuracy by installing multiple radar devices on mobile objects. However, when an object is far away in object detection, all of the plurality of radar devices observe the reflection point from the same point on the object, and it is difficult to improve the estimation accuracy even if the reflection point information is aggregated.
 本技術では、物体が近距離にある場合、複数のレーダ装置の各々が同一物体の異なる反射点を検出することで精度を向上させ、物体が遠距離にある場合、複数のレーダ装置を統合させることで物体の位置を高精度に検出することが可能である。また反射点の検出処理をレーダ装置と出力装置とで分担させることで、レーダ装置内の信号処理負荷を軽減させることが可能となる。さらに、レーダ装置の小型化及び低コスト化が可能となる。またレーダ装置にてレーダ信号を抽出した上で出力装置に送信することで、レーダ装置及び出力装置間のネットワークの必要スループットの緩和が可能となる。 With this technology, when an object is at a short distance, each of multiple radar devices detects a different reflection point of the same object to improve accuracy, and when an object is at a long distance, multiple radar devices are integrated. Therefore, it is possible to detect the position of the object with high accuracy. Further, by sharing the reflection point detection processing between the radar device and the output device, it is possible to reduce the signal processing load in the radar device. Furthermore, it is possible to reduce the size and cost of the radar device. Further, by extracting the radar signal by the radar device and transmitting it to the output device, it is possible to relax the necessary throughput of the network between the radar device and the output device.
 <その他の実施形態>
 本技術は、以上説明した実施形態に限定されず、他の種々の実施形態を実現することができる。
<Other embodiments>
The present technology is not limited to the embodiments described above, and various other embodiments can be implemented.
 上記の実施形態では、検出処理切替部25により、反射点の方向推定処理をレーダ装置10の方向推定処理部26又は出力装置40の統合検出処理部41が実行するかが決定された。これに限定されず、方向推定処理以外の処理、例えば、距離スペクトルの算出、距離及び速度スペクトルの算出、又はピーク検出等の反射点の検出処理を構成する他の要素に関してもレーダ装置10又は出力装置40で切り替えられてもよい。 In the above embodiment, the detection processing switching unit 25 determines whether the direction estimation processing unit 26 of the radar device 10 or the integrated detection processing unit 41 of the output device 40 executes the reflection point direction estimation processing. Not limited to this, processing other than direction estimation processing, for example, calculation of distance spectrum, calculation of distance and speed spectrum, or other elements constituting reflection point detection processing such as peak detection, radar device 10 or output It may be switched by device 40 .
 上記の実施形態では、物体との距離に基づいて、反射点の方向推定処理が切り替えられた。これに限定されず、他の条件に基づいて方向推定処理が切り替えられてもよい。例えば、レーダ装置により近距離測定用の送信波と遠距離測定用の送信波とが交互に送信され、近距離測定用の送信波に対応するデジタルレーダ信号の反射点検出処理がレーダ装置により実行され、遠距離測定用の送信波に対応するデジタルレーダ信号の反射点検出処理が出力装置により実行されてもよい。 In the above embodiment, the direction estimation process of the reflection point is switched based on the distance to the object. Without being limited to this, the direction estimation process may be switched based on other conditions. For example, a radar device alternately transmits a transmission wave for short-range measurement and a transmission wave for long-range measurement, and the radar device executes reflection point detection processing of a digital radar signal corresponding to the transmission wave for short-range measurement. and a reflection point detection process of a digital radar signal corresponding to a transmission wave for long-distance measurement may be performed by the output device.
 上記の実施形態では、複数のレーダ装置10が移動体や交差点等の固定された場所に配置された。図8では、複数のレーダ装置10が車両に搭載された際のブロック図の例が記載される。すなわち、情報処理システム100が車両50及び車両制御システム51に適用された場合を示す。 In the above embodiment, a plurality of radar devices 10 are arranged at fixed locations such as moving bodies and intersections. FIG. 8 shows an example of a block diagram when a plurality of radar devices 10 are mounted on a vehicle. That is, a case where the information processing system 100 is applied to a vehicle 50 and a vehicle control system 51 is shown.
 [車両制御システムの構成例]
 図8は、本技術が適用される情報処理システムの一例である車両制御システム51の構成例を示すブロック図である。
[Configuration example of vehicle control system]
FIG. 8 is a block diagram showing a configuration example of a vehicle control system 51, which is an example of an information processing system to which the present technology is applied.
 車両制御システム51は、車両50に設けられ、車両50の走行支援及び自動運転に関わる処理を行う。 The vehicle control system 51 is provided in the vehicle 50 and performs processing related to driving support and automatic driving of the vehicle 50 .
 車両制御システム51は、車両制御ECU(Electronic Control Unit)52、通信部53、地図情報蓄積部54、位置情報取得部55、外部認識センサ56、車内センサ57、車両センサ58、記憶部59、走行支援・自動運転制御部60、DMS(Driver Monitoring System)61、HMI(Human Machine Interface)62、及び、車両制御部63を備える。 The vehicle control system 51 includes a vehicle control ECU (Electronic Control Unit) 52, a communication unit 53, a map information accumulation unit 54, a position information acquisition unit 55, an external recognition sensor 56, an in-vehicle sensor 57, a vehicle sensor 58, a storage unit 59, a travel Assistance/automatic driving control unit 60 , DMS (Driver Monitoring System) 61 , HMI (Human Machine Interface) 62 , and vehicle control unit 63 .
 車両制御ECU52、通信部53、地図情報蓄積部54、位置情報取得部55、外部認識センサ56、車内センサ57、車両センサ58、記憶部59、走行支援・自動運転制御部60、ドライバモニタリングシステム(DMS)61、ヒューマンマシーンインタフェース(HMI)62、及び、車両制御部63は、通信ネットワーク64を介して相互に通信可能に接続されている。
 通信ネットワーク64は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)、FlexRay(登録商標)、イーサネット(登録商標)といったデジタル双方向通信の規格に準拠した車載通信ネットワークやバス等により構成される。通信ネットワーク64は、伝送されるデータの種類によって使い分けられてもよい。例えば、車両制御に関するデータに対してCANが適用され、大容量データに対してイーサネットが適用されるようにしてもよい。なお、車両制御システム51の各部は、通信ネットワーク64を介さずに、例えば近距離無線通信(NFC(Near Field Communication))やBluetooth(登録商標)といった比較的近距離での通信を想定した無線通信を用いて直接的に接続される場合もある。
Vehicle control ECU 52, communication unit 53, map information accumulation unit 54, position information acquisition unit 55, external recognition sensor 56, vehicle interior sensor 57, vehicle sensor 58, storage unit 59, driving support/automatic driving control unit 60, driver monitoring system ( DMS) 61 , human machine interface (HMI) 62 , and vehicle control unit 63 are connected via a communication network 64 so as to be able to communicate with each other.
The communication network 64 is, for example, a CAN (Controller Area Network), a LIN (Local Interconnect Network), a LAN (Local Area Network), a FlexRay (registered trademark), or an in-vehicle communication network conforming to a digital two-way communication standard such as Ethernet (registered trademark). It is composed of a communication network, a bus, and the like. The communication network 64 may be used properly depending on the type of data to be transmitted. For example, CAN may be applied to data related to vehicle control, and Ethernet may be applied to large-capacity data. Note that each unit of the vehicle control system 51 performs wireless communication assuming relatively short-range communication such as near field communication (NFC) or Bluetooth (registered trademark), for example, without going through the communication network 64. may be connected directly using
 なお、以下、車両制御システム51の各部が、通信ネットワーク64を介して通信を行う場合、通信ネットワーク64の記載を省略するものとする。例えば、車両制御ECU52と通信部53とが通信ネットワーク64を介して通信を行う場合、単に車両制御ECU52と通信部53とが通信を行うと記載する。 In addition, hereinafter, when each part of the vehicle control system 51 communicates via the communication network 64, the description of the communication network 64 is omitted. For example, when the vehicle control ECU 52 and the communication unit 53 communicate via the communication network 64, it is simply described that the vehicle control ECU 52 and the communication unit 53 communicate.
 車両制御ECU52は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)といった各種のプロセッサにより構成される。車両制御ECU52は、車両制御システム51全体又は一部の機能の制御を行う。 The vehicle control ECU 52 is composed of various processors such as a CPU (Central Processing Unit) and an MPU (Micro Processing Unit). The vehicle control ECU 52 controls the functions of the entire vehicle control system 51 or a part thereof.
 通信部53は、車内及び車外の様々な機器、他の車両、サーバ、基地局等と通信を行い、各種のデータの送受信を行う。このとき、通信部53は、複数の通信方式を用いて通信を行うことができる。 The communication unit 53 communicates with various devices inside and outside the vehicle, other vehicles, servers, base stations, etc., and transmits and receives various data. At this time, the communication unit 53 can perform communication using a plurality of communication methods.
 通信部53が実行可能な車外との通信について、概略的に説明する。通信部53は、例えば、5G(第5世代移動通信システム)、LTE(Long Term Evolution)、DSRC(Dedicated Short Range Communications)等の無線通信方式により、基地局又はアクセスポイントを介して、外部ネットワーク上に存在するサーバ(以下、外部のサーバと呼ぶ)等と通信を行う。通信部53が通信を行う外部ネットワークは、例えば、インターネット、クラウドネットワーク、又は、事業者固有のネットワーク等である。通信部53が外部ネットワークに対して行う通信方式は、所定以上の通信速度、且つ、所定以上の距離間でデジタル双方向通信が可能な無線通信方式であれば、特に限定されない。 The communication with the outside of the vehicle that can be performed by the communication unit 53 will be described schematically. The communication unit 53 is, for example, 5G (5th generation mobile communication system), LTE (Long Term Evolution), DSRC (Dedicated Short Range Communications), etc., by a wireless communication method, via a base station or an access point, on an external network communicates with a server (hereinafter referred to as an external server) located in the The external network with which the communication unit 53 communicates is, for example, the Internet, a cloud network, or a provider's own network. The communication method performed by the communication unit 53 with respect to the external network is not particularly limited as long as it is a wireless communication method that enables digital two-way communication at a communication speed of a predetermined value or more and a distance of a predetermined value or more.
 また例えば、通信部53は、P2P(Peer To Peer)技術を用いて、自車の近傍に存在する端末と通信を行うことができる。自車の近傍に存在する端末は、例えば、歩行者や自転車等の比較的低速で移動する移動体が装着する端末、店舗等に位置が固定されて設置される端末、又は、MTC(Machine Type Communication)端末である。さらに、通信部53は、V2X通信を行うこともできる。V2X通信とは、例えば、他の車両との間の車車間(Vehicle to Vehicle)通信、路側器等との間の路車間(Vehicle to Infrastructure)通信、家との間(Vehicle to Home)の通信、及び、歩行者が所持する端末等との間の歩車間(Vehicle to Pedestrian)通信等の、自車と他との通信をいう。 Also, for example, the communication unit 53 can communicate with terminals existing in the vicinity of the own vehicle using P2P (Peer To Peer) technology. Terminals in the vicinity of one's own vehicle are, for example, terminals worn by pedestrians, bicycles, and other moving objects that move at relatively low speeds, terminals installed at fixed locations in stores, etc., or MTC (Machine Type Communication) terminal. Furthermore, the communication unit 53 can also perform V2X communication. V2X communication includes, for example, vehicle-to-vehicle communication with other vehicles, vehicle-to-infrastructure communication with roadside equipment, etc., and vehicle-to-home communication , and communication between the vehicle and others, such as vehicle-to-pedestrian communication with a terminal or the like possessed by a pedestrian.
 通信部53は、例えば、車両制御システム51の動作を制御するソフトウェアを更新するためのプログラムを外部から受信することができる(Over The Air)。通信部53は、さらに、地図情報、交通情報、車両50の周囲の情報等を外部から受信することができる。また例えば、通信部53は、車両50に関する情報や、車両50の周囲の情報等を外部に送信することができる。通信部53が外部に送信する車両50に関する情報としては、例えば、車両50の状態を示すデータ、認識部74による認識結果等がある。さらに例えば、通信部53は、eコール等の車両緊急通報システムに対応した通信を行う。 For example, the communication unit 53 can receive from the outside a program for updating the software that controls the operation of the vehicle control system 51 (Over The Air). The communication unit 53 can also receive map information, traffic information, information around the vehicle 50, and the like from the outside. Further, for example, the communication unit 53 can transmit information about the vehicle 50, information about the surroundings of the vehicle 50, and the like to the outside. The information about the vehicle 50 that the communication unit 53 transmits to the outside includes, for example, data indicating the state of the vehicle 50, recognition results by the recognition unit 74, and the like. Further, for example, the communication unit 53 performs communication corresponding to a vehicle emergency notification system such as e-call.
 例えば、通信部53は、電波ビーコン、光ビーコン、FM多重放送等の道路交通情報通信システム(VICS(Vehicle Information and Communication System)(登録商標))により送信される電磁波を受信する。 For example, the communication unit 53 receives electromagnetic waves transmitted by a road traffic information communication system (VICS (Vehicle Information and Communication System) (registered trademark)) such as radio wave beacons, optical beacons, and FM multiplex broadcasting.
 通信部53が実行可能な車内との通信について、概略的に説明する。通信部53は、例えば無線通信を用いて、車内の各機器と通信を行うことができる。通信部53は、例えば、無線LAN、Bluetooth、NFC、WUSB(Wireless USB)といった、無線通信により所定以上の通信速度でデジタル双方向通信が可能な通信方式により、車内の機器と無線通信を行うことができる。これに限らず、通信部53は、有線通信を用いて車内の各機器と通信を行うこともできる。例えば、通信部53は、図示しない接続端子に接続されるケーブルを介した有線通信により、車内の各機器と通信を行うことができる。
 通信部53は、例えば、USB(Universal Serial Bus)、HDMI(High-Definition Multimedia Interface)(登録商標)、MHL(Mobile High-definition Link)といった、有線通信により所定以上の通信速度でデジタル双方向通信が可能な通信方式により、車内の各機器と通信を行うことができる。
Communication with the inside of the vehicle that can be performed by the communication unit 53 will be described schematically. The communication unit 53 can communicate with each device in the vehicle using, for example, wireless communication. The communication unit 53 performs wireless communication with devices in the vehicle by a communication method such as wireless LAN, Bluetooth, NFC, and WUSB (Wireless USB), which enables digital two-way communication at a communication speed higher than a predetermined value. can be done. Not limited to this, the communication unit 53 can also communicate with each device in the vehicle using wired communication. For example, the communication unit 53 can communicate with each device in the vehicle by wired communication via a cable connected to a connection terminal (not shown).
The communication unit 53 performs digital two-way communication at a predetermined communication speed or higher by wired communication such as USB (Universal Serial Bus), HDMI (High-Definition Multimedia Interface) (registered trademark), and MHL (Mobile High-definition Link). can communicate with each device in the vehicle.
 ここで、車内の機器とは、例えば、車内において通信ネットワーク64に接続されていない機器を指す。車内の機器としては、例えば、運転者等の搭乗者が所持するモバイル機器やウェアラブル機器、車内に持ち込まれ一時的に設置される情報機器等が想定される。 Here, equipment in the vehicle refers to equipment not connected to the communication network 64 in the vehicle, for example. Examples of in-vehicle devices include mobile devices and wearable devices possessed by passengers such as drivers, information devices that are brought into the vehicle and temporarily installed, and the like.
 地図情報蓄積部54は、外部から取得した地図及び車両50で作成した地図の一方又は両方を蓄積する。例えば、地図情報蓄積部54は、3次元の高精度地図、高精度地図より精度が低く、広いエリアをカバーするグローバルマップ等を蓄積する。 The map information accumulation unit 54 accumulates one or both of a map obtained from the outside and a map created by the vehicle 50. For example, the map information accumulation unit 54 accumulates a three-dimensional high-precision map, a global map covering a wide area, and the like, which is lower in accuracy than the high-precision map.
 高精度地図は、例えば、ダイナミックマップ、ポイントクラウドマップ、ベクターマップ等である。ダイナミックマップは、例えば、動的情報、準動的情報、準静的情報、静的情報の4層からなる地図であり、外部のサーバ等から車両50に提供される。ポイントクラウドマップは、ポイントクラウド(点群データ)により構成される地図である。ベクターマップは、例えば、車線や信号機の位置といった交通情報等をポイントクラウドマップに対応付け、ADAS(Advanced Driver Assistance System)やAD(Autonomous Driving)に適合させた地図である。 High-precision maps are, for example, dynamic maps, point cloud maps, vector maps, etc. The dynamic map is, for example, a map consisting of four layers of dynamic information, semi-dynamic information, semi-static information, and static information, and is provided to the vehicle 50 from an external server or the like. A point cloud map is a map composed of a point cloud (point cloud data). A vector map is, for example, a map adapted to ADAS (Advanced Driver Assistance System) and AD (Autonomous Driving) by associating traffic information such as lane and traffic signal positions with a point cloud map.
 ポイントクラウドマップ及びベクターマップは、例えば、外部のサーバ等から提供されてもよいし、カメラ65、レーダ装置66、LiDAR67等によるセンシング結果に基づいて、後述するローカルマップとのマッチングを行うための地図として車両50で作成され、地図情報蓄積部54に蓄積されてもよい。また、外部のサーバ等から高精度地図が提供される場合、通信容量を削減するため、車両50がこれから走行する計画経路に関する、例えば数百メートル四方の地図データが外部のサーバ等から取得される。 The point cloud map and vector map, for example, may be provided from an external server or the like, or a map for matching with a local map to be described later based on sensing results from the camera 65, radar device 66, LiDAR 67, etc. may be created in the vehicle 50 and stored in the map information storage unit 54 . Further, when a high-precision map is provided from an external server or the like, in order to reduce the communication capacity, map data of, for example, several hundred meters square regarding the planned route on which the vehicle 50 will travel from now on is acquired from the external server or the like. .
 位置情報取得部55は、GNSS(Global Navigation Satellite System)衛星からGNSS信号を受信し、車両50の位置情報を取得する。取得した位置情報は、走行支援・自動運転制御部60に供給される。なお、位置情報取得部55は、GNSS信号を用いた方式に限定されず、例えば、ビーコンを用いて位置情報を取得してもよい。 The position information acquisition unit 55 receives GNSS signals from GNSS (Global Navigation Satellite System) satellites and acquires position information of the vehicle 50 . The acquired position information is supplied to the driving support/automatic driving control unit 60 . In addition, the position information acquisition unit 55 is not limited to the method using the GNSS signal, and may acquire the position information using a beacon, for example.
 外部認識センサ56は、車両50の外部の状況の認識に用いられる各種のセンサを備え、各センサからのセンサデータを車両制御システム51の各部に供給する。外部認識センサ56が備えるセンサの種類や数は任意である。 The external recognition sensor 56 includes various sensors used for recognizing situations outside the vehicle 50 , and supplies sensor data from each sensor to each part of the vehicle control system 51 . The type and number of sensors included in the external recognition sensor 56 are arbitrary.
 例えば、外部認識センサ56は、カメラ65、レーダ装置66、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)67、及び、超音波センサ68を備える。これに限らず、外部認識センサ56は、カメラ65、レーダ装置66、LiDAR67、及び、超音波センサ68のうち1種類以上のセンサを備える構成でもよい。カメラ65、レーダ装置66、LiDAR67、及び、超音波センサ68の数は、現実的に車両50に設置可能な数であれば特に限定されない。また、外部認識センサ56が備えるセンサの種類は、この例に限定されず、外部認識センサ56は、他の種類のセンサを備えてもよい。外部認識センサ56が備える各センサのセンシング領域の例は、後述する。 For example, the external recognition sensor 56 includes a camera 65, a radar device 66, a LiDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) 67, and an ultrasonic sensor 68. Not limited to this, the external recognition sensor 56 may be configured to include one or more types of sensors among the camera 65 , the radar device 66 , the LiDAR 67 , and the ultrasonic sensor 68 . The number of cameras 65 , radar devices 66 , LiDARs 67 , and ultrasonic sensors 68 is not particularly limited as long as it is a number that can be realistically installed on the vehicle 50 . Further, the type of sensor provided by the external recognition sensor 56 is not limited to this example, and the external recognition sensor 56 may be provided with other types of sensors. An example of the sensing area of each sensor included in the external recognition sensor 56 will be described later.
 なお、カメラ65の撮影方式は、特に限定されない。例えば、測距が可能な撮影方式であるToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラといった各種の撮影方式のカメラを、必要に応じてカメラ65に適用することができる。これに限らず、カメラ65は、測距に関わらずに、単に撮影画像を取得するためのものであってもよい。 The imaging method of the camera 65 is not particularly limited. For example, cameras of various types such as a ToF (Time Of Flight) camera, a stereo camera, a monocular camera, and an infrared camera, which are capable of distance measurement, can be applied to the camera 65 as necessary. The camera 65 is not limited to this, and may simply acquire a photographed image regardless of distance measurement.
 また、例えば、外部認識センサ56は、車両50に対する環境を検出するための環境センサを備えることができる。環境センサは、天候、気象、明るさ等の環境を検出するためのセンサであって、例えば、雨滴センサ、霧センサ、日照センサ、雪センサ、照度センサ等の各種センサを含むことができる。 Also, for example, the external recognition sensor 56 can include an environment sensor for detecting the environment with respect to the vehicle 50. The environment sensor is a sensor for detecting the environment such as weather, climate, brightness, etc., and can include various sensors such as raindrop sensors, fog sensors, sunshine sensors, snow sensors, and illuminance sensors.
 さらに、例えば、外部認識センサ56は、車両50の周囲の音や音源の位置の検出等に用いられるマイクロフォンを備える。 Furthermore, for example, the external recognition sensor 56 includes a microphone used for detecting sounds around the vehicle 50 and the position of the sound source.
 車内センサ57は、車内の情報を検出するための各種のセンサを備え、各センサからのセンサデータを車両制御システム51の各部に供給する。車内センサ57が備える各種センサの種類や数は、現実的に車両50に設置可能な種類や数であれば特に限定されない。 The in-vehicle sensor 57 includes various sensors for detecting information inside the vehicle, and supplies sensor data from each sensor to each part of the vehicle control system 51 . The types and number of various sensors included in the in-vehicle sensor 57 are not particularly limited as long as they are the types and number that can be installed in the vehicle 50 in practice.
 例えば、車内センサ57は、カメラ、レーダ装置、着座センサ、ステアリングホイールセンサ、マイクロフォン、生体センサのうち1種類以上のセンサを備えることができる。車内センサ57が備えるカメラとしては、例えば、ToFカメラ、ステレオカメラ、単眼カメラ、赤外線カメラといった、測距可能な各種の撮影方式のカメラを用いることができる。これに限らず、車内センサ57が備えるカメラは、測距に関わらずに、単に撮影画像を取得するためのものであってもよい。車内センサ57が備える生体センサは、例えば、シートやステアリングホイール等に設けられ、運転者等の搭乗者の各種の生体情報を検出する。 For example, the in-vehicle sensor 57 can include one or more sensors among cameras, radar devices, seating sensors, steering wheel sensors, microphones, and biosensors. As the camera provided in the in-vehicle sensor 57, for example, cameras of various shooting methods capable of distance measurement, such as a ToF camera, a stereo camera, a monocular camera, and an infrared camera, can be used. Not limited to this, the camera provided in the vehicle interior sensor 57 may simply acquire a captured image regardless of distance measurement. The biosensors included in the in-vehicle sensor 57 are provided, for example, on a seat, a steering wheel, or the like, and detect various biometric information of a passenger such as a driver.
 車両センサ58は、車両50の状態を検出するための各種のセンサを備え、各センサからのセンサデータを車両制御システム51の各部に供給する。車両センサ58が備える各種センサの種類や数は、現実的に車両50に設置可能な種類や数であれば特に限定されない。 The vehicle sensor 58 includes various sensors for detecting the state of the vehicle 50, and supplies sensor data from each sensor to each part of the vehicle control system 51. The types and number of various sensors included in the vehicle sensor 58 are not particularly limited as long as the types and number are practically installable in the vehicle 50 .
 例えば、車両センサ58は、速度センサ、加速度センサ、角速度センサ(ジャイロセンサ)、及び、それらを統合した慣性計測装置(IMU(Inertial Measurement Unit))を備える。例えば、車両センサ58は、ステアリングホイールの操舵角を検出する操舵角センサ、ヨーレートセンサ、アクセルペダルの操作量を検出するアクセルセンサ、及び、ブレーキペダルの操作量を検出するブレーキセンサを備える。例えば、車両センサ58は、エンジンやモータの回転数を検出する回転センサ、タイヤの空気圧を検出する空気圧センサ、タイヤのスリップ率を検出するスリップ率センサ、及び、車輪の回転速度を検出する車輪速センサを備える。例えば、車両センサ58は、バッテリの残量及び温度を検出するバッテリセンサ、並びに、外部からの衝撃を検出する衝撃センサを備える。 For example, the vehicle sensor 58 includes a speed sensor, an acceleration sensor, an angular velocity sensor (gyro sensor), and an inertial measurement unit (IMU (Inertial Measurement Unit)) integrating them. For example, the vehicle sensor 58 includes a steering angle sensor that detects the steering angle of the steering wheel, a yaw rate sensor, an accelerator sensor that detects the amount of operation of the accelerator pedal, and a brake sensor that detects the amount of operation of the brake pedal. For example, the vehicle sensor 58 includes a rotation sensor that detects the number of revolutions of an engine or a motor, an air pressure sensor that detects tire air pressure, a slip rate sensor that detects a tire slip rate, and a wheel speed sensor that detects the rotational speed of a wheel. A sensor is provided. For example, the vehicle sensor 58 includes a battery sensor that detects the remaining battery level and temperature, and an impact sensor that detects external impact.
 記憶部59は、不揮発性の記憶媒体及び揮発性の記憶媒体のうち少なくとも一方を含み、データやプログラムを記憶する。記憶部59は、例えばEEPROM(Electrically Erasable Programmable Read Only Memory)及びRAM(Random Access Memory)として用いられ、記憶媒体としては、HDD(Hard Disc Drive)といった磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、及び、光磁気記憶デバイスを適用することができる。記憶部59は、車両制御システム51の各部が用いる各種プログラムやデータを記憶する。例えば、記憶部59は、EDR(Event Data Recorder)やDSSAD(Data Storage System for Automated Driving)を備え、事故等のイベントの前後の車両50の情報や車内センサ57によって取得された情報を記憶する。 The storage unit 59 includes at least one of a nonvolatile storage medium and a volatile storage medium, and stores data and programs. The storage unit 59 is used as, for example, EEPROM (Electrically Erasable Programmable Read Only Memory) and RAM (Random Access Memory), and storage media include magnetic storage devices such as HDD (Hard Disc Drive), semiconductor storage devices, optical storage devices, And a magneto-optical storage device can be applied. The storage unit 59 stores various programs and data used by each unit of the vehicle control system 51 . For example, the storage unit 59 includes an EDR (Event Data Recorder) and a DSSAD (Data Storage System for Automated Driving), and stores information on the vehicle 50 before and after an event such as an accident and information acquired by the in-vehicle sensor 57.
 走行支援・自動運転制御部60は、車両50の走行支援及び自動運転の制御を行う。例えば、走行支援・自動運転制御部60は、分析部69、行動計画部70、及び、動作制御部71を備える。 The driving support/automatic driving control unit 60 controls driving support and automatic driving of the vehicle 50 . For example, the driving support/automatic driving control unit 60 includes an analysis unit 69 , an action planning unit 70 and an operation control unit 71 .
 分析部69は、車両50及び周囲の状況の分析処理を行う。分析部69は、自己位置推定部72、センサフュージョン部73、及び、認識部74を備える。 The analysis unit 69 analyzes the vehicle 50 and its surroundings. The analysis unit 69 includes a self-position estimation unit 72 , a sensor fusion unit 73 and a recognition unit 74 .
 自己位置推定部72は、外部認識センサ56からのセンサデータ、及び、地図情報蓄積部54に蓄積されている高精度地図に基づいて、車両50の自己位置を推定する。例えば、自己位置推定部72は、外部認識センサ56からのセンサデータに基づいてローカルマップを生成し、ローカルマップと高精度地図とのマッチングを行うことにより、車両50の自己位置を推定する。車両50の位置は、例えば、後輪対車軸の中心が基準とされる。 The self-position estimation unit 72 estimates the self-position of the vehicle 50 based on the sensor data from the external recognition sensor 56 and the high-precision map accumulated in the map information accumulation unit 54. For example, the self-position estimation unit 72 generates a local map based on sensor data from the external recognition sensor 56, and estimates the self-position of the vehicle 50 by matching the local map and the high-precision map. The position of the vehicle 50 is based on, for example, the center of the rear wheels versus the axle.
 ローカルマップは、例えば、SLAM(Simultaneous Localization and Mapping)等の技術を用いて作成される3次元の高精度地図、占有格子地図(Occupancy Grid Map)等である。3次元の高精度地図は、例えば、上述したポイントクラウドマップ等である。占有格子地図は、車両50の周囲の3次元又は2次元の空間を所定の大きさのグリッド(格子)に分割し、グリッド単位で物体の占有状態を示す地図である。物体の占有状態は、例えば、物体の有無や存在確率により示される。ローカルマップは、例えば、認識部74による車両50の外部の状況の検出処理及び認識処理にも用いられる。 A local map is, for example, a three-dimensional high-precision map created using techniques such as SLAM (Simultaneous Localization and Mapping), an occupancy grid map, or the like. The three-dimensional high-precision map is, for example, the point cloud map described above. The occupancy grid map is a map that divides the three-dimensional or two-dimensional space around the vehicle 50 into grids (lattice) of a predetermined size and shows the occupancy state of objects in grid units. The occupancy state of an object is indicated, for example, by the presence or absence of the object and the existence probability. The local map is also used, for example, by the recognizing unit 74 for detecting and recognizing the situation outside the vehicle 50 .
 なお、自己位置推定部72は、位置情報取得部55により取得される位置情報、及び、車両センサ58からのセンサデータに基づいて、車両50の自己位置を推定してもよい。 The self-position estimation unit 72 may estimate the self-position of the vehicle 50 based on the position information acquired by the position information acquisition unit 55 and the sensor data from the vehicle sensor 58.
 センサフュージョン部73は、複数の異なる種類のセンサデータ(例えば、カメラ65から供給される画像データ、及び、レーダ装置66から供給されるセンサデータ)を組み合わせて、新たな情報を得るセンサフュージョン処理を行う。異なる種類のセンサデータを組合せる方法としては、統合、融合、連合等がある。 The sensor fusion unit 73 combines a plurality of different types of sensor data (for example, image data supplied from the camera 65 and sensor data supplied from the radar device 66) to perform sensor fusion processing to obtain new information. conduct. Methods for combining different types of sensor data include integration, fusion, federation, and the like.
 認識部74は、車両50の外部の状況の検出を行う検出処理、及び、車両50の外部の状況の認識を行う認識処理を実行する。 The recognition unit 74 executes a detection process for detecting the situation outside the vehicle 50 and a recognition process for recognizing the situation outside the vehicle 50 .
 例えば、認識部74は、外部認識センサ56からの情報、自己位置推定部72からの情報、センサフュージョン部73からの情報等に基づいて、車両50の外部の状況の検出処理及び認識処理を行う。 For example, the recognition unit 74 performs detection processing and recognition processing of the situation outside the vehicle 50 based on information from the external recognition sensor 56, information from the self-position estimation unit 72, information from the sensor fusion unit 73, and the like. .
 具体的には、例えば、認識部74は、車両50の周囲の物体の検出処理及び認識処理等を行う。物体の検出処理とは、例えば、物体の有無、大きさ、形、位置、動き等を検出する処理である。物体の認識処理とは、例えば、物体の種類等の属性を認識したり、特定の物体を識別したりする処理である。ただし、検出処理と認識処理とは、必ずしも明確に分かれるものではなく、重複する場合がある。 Specifically, for example, the recognition unit 74 performs detection processing and recognition processing of objects around the vehicle 50 . Object detection processing is, for example, processing for detecting the presence or absence, size, shape, position, movement, and the like of an object. Object recognition processing is, for example, processing for recognizing an attribute such as the type of an object or identifying a specific object. However, detection processing and recognition processing are not always clearly separated, and may overlap.
 例えば、認識部74は、レーダ装置66又はLiDAR67等によるセンサデータに基づくポイントクラウドを点群の塊毎に分類するクラスタリングを行うことにより、車両50の周囲の物体を検出する。これにより、車両50の周囲の物体の有無、大きさ、形状、位置が検出される。 For example, the recognition unit 74 detects objects around the vehicle 50 by clustering the point cloud based on sensor data from the radar device 66 or the LiDAR 67 or the like for each group of point groups. As a result, presence/absence, size, shape, and position of objects around the vehicle 50 are detected.
 例えば、認識部74は、クラスタリングにより分類された点群の塊の動きを追従するトラッキングを行うことにより、車両50の周囲の物体の動きを検出する。これにより、車両50の周囲の物体の速度及び進行方向(移動ベクトル)が検出される。 For example, the recognizing unit 74 detects the movement of objects around the vehicle 50 by performing tracking that follows the movement of the masses of point groups classified by clustering. As a result, the speed and traveling direction (movement vector) of objects around the vehicle 50 are detected.
 例えば、認識部74は、カメラ65から供給される画像データに基づいて、車両、人、自転車、障害物、構造物、道路、信号機、交通標識、道路標示等を検出又は認識する。また、認識部74は、セマンティックセグメンテーション等の認識処理を行うことにより、車両50の周囲の物体の種類を認識してもよい。 For example, the recognition unit 74 detects or recognizes vehicles, people, bicycles, obstacles, structures, roads, traffic lights, traffic signs, road markings, etc. based on image data supplied from the camera 65 . The recognition unit 74 may also recognize types of objects around the vehicle 50 by performing recognition processing such as semantic segmentation.
 例えば、認識部74は、地図情報蓄積部54に蓄積されている地図、自己位置推定部72による自己位置の推定結果、及び、認識部74による車両50の周囲の物体の認識結果に基づいて、車両50の周囲の交通ルールの認識処理を行うことができる。認識部74は、この処理により、信号機の位置及び状態、交通標識及び道路標示の内容、交通規制の内容、並びに、走行可能な車線等を認識することができる。 For example, the recognizing unit 74, based on the map accumulated in the map information accumulating unit 54, the estimation result of the self-position by the self-position estimating unit 72, and the recognition result of the object around the vehicle 50 by the recognizing unit 74, Recognition processing of traffic rules around the vehicle 50 can be performed. Through this processing, the recognizing unit 74 can recognize the position and state of traffic lights, the content of traffic signs and road markings, the content of traffic regulations, the lanes in which the vehicle can travel, and the like.
 例えば、認識部74は、車両50の周囲の環境の認識処理を行うことができる。認識部74が認識対象とする周囲の環境としては、天候、気温、湿度、明るさ、及び、路面の状態等が想定される。 For example, the recognition unit 74 can perform recognition processing of the environment around the vehicle 50 . Weather, temperature, humidity, brightness, road conditions, and the like are assumed as the surrounding environment to be recognized by the recognition unit 74 .
 行動計画部70は、車両50の行動計画を作成する。例えば、行動計画部70は、経路計画、経路追従の処理を行うことにより、行動計画を作成する。 The action plan unit 70 creates an action plan for the vehicle 50. For example, the action planning unit 70 creates an action plan by performing route planning and route following processing.
 なお、経路計画(Global path planning)とは、スタートからゴールまでの大まかな経路を計画する処理である。この経路計画には、軌道計画と言われ、計画した経路において、車両50の運動特性を考慮して、車両50の近傍で安全かつ滑らかに進行することが可能な軌道生成(Local path planning)を行う処理も含まれる。 It should be noted that global path planning is the process of planning a rough path from the start to the goal. This route planning is referred to as trajectory planning, and in the planned route, trajectory generation (local path planning) that can proceed safely and smoothly in the vicinity of the vehicle 50 in consideration of the motion characteristics of the vehicle 50 is performed. It also includes the processing to be performed.
 経路追従とは、経路計画により計画された経路を計画された時間内で安全かつ正確に走行するための動作を計画する処理である。行動計画部70は、例えば、この経路追従の処理の結果に基づき、車両50の目標速度と目標角速度を計算することができる。  Route following is the process of planning actions to safely and accurately travel the route planned by route planning within the planned time. The action planning unit 70 can, for example, calculate the target speed and target angular speed of the vehicle 50 based on the result of this route following processing.
 動作制御部71は、行動計画部70により作成された行動計画を実現するために、車両50の動作を制御する。 The motion control unit 71 controls the motion of the vehicle 50 in order to implement the action plan created by the action planning unit 70.
 例えば、動作制御部71は、後述する車両制御部63に含まれる、ステアリング制御部81、ブレーキ制御部82、及び、駆動制御部83を制御して、軌道計画により計算された軌道を車両50が進行するように、加減速制御及び方向制御を行う。例えば、動作制御部71は、衝突回避又は衝撃緩和、追従走行、車速維持走行、自車の衝突警告、自車のレーン逸脱警告等のADASの機能実現を目的とした協調制御を行う。例えば、動作制御部71は、運転者の操作によらずに自律的に走行する自動運転等を目的とした協調制御を行う。 For example, the operation control unit 71 controls the steering control unit 81, the brake control unit 82, and the drive control unit 83 included in the vehicle control unit 63, which will be described later, so that the vehicle 50 can control the trajectory calculated by the trajectory plan. Acceleration/deceleration control and direction control are performed so as to advance. For example, the operation control unit 71 performs cooperative control aimed at realizing functions of ADAS such as collision avoidance or shock mitigation, follow-up driving, vehicle speed maintenance driving, collision warning of own vehicle, and lane departure warning of own vehicle. For example, the operation control unit 71 performs cooperative control aimed at automatic driving in which the vehicle autonomously travels without depending on the operation of the driver.
 DMS61は、車内センサ57からのセンサデータ、及び、後述するHMI62に入力される入力データ等に基づいて、運転者の認証処理、及び、運転者の状態の認識処理等を行う。認識対象となる運転者の状態としては、例えば、体調、覚醒度、集中度、疲労度、視線方向、酩酊度、運転操作、姿勢等が想定される。 The DMS 61 performs driver authentication processing, driver state recognition processing, etc., based on sensor data from the in-vehicle sensor 57 and input data input to the HMI 62, which will be described later. As the state of the driver to be recognized, for example, physical condition, wakefulness, concentration, fatigue, gaze direction, drunkenness, driving operation, posture, etc. are assumed.
 なお、DMS61が、運転者以外の搭乗者の認証処理、及び、当該搭乗者の状態の認識処理を行うようにしてもよい。また、例えば、DMS61が、車内センサ57からのセンサデータに基づいて、車内の状況の認識処理を行うようにしてもよい。認識対象となる車内の状況としては、例えば、気温、湿度、明るさ、臭い等が想定される。 It should be noted that the DMS 61 may perform authentication processing for passengers other than the driver and processing for recognizing the state of the passenger. Further, for example, the DMS 61 may perform the process of recognizing the situation inside the vehicle based on the sensor data from the sensor 57 inside the vehicle. Conditions inside the vehicle to be recognized include temperature, humidity, brightness, smell, and the like, for example.
 HMI62は、各種のデータや指示等の入力と、各種のデータの運転者等への提示を行う。 The HMI 62 inputs various data, instructions, etc., and presents various data to the driver.
 HMI62によるデータの入力について、概略的に説明する。HMI62は、人がデータを入力するための入力デバイスを備える。HMI62は、入力デバイスにより入力されたデータや指示等に基づいて入力信号を生成し、車両制御システム51の各部に供給する。HMI62は、入力デバイスとして、例えばタッチパネル、ボタン、スイッチ、及び、レバーといった操作子を備える。これに限らず、HMI62は、音声やジェスチャ等により手動操作以外の方法で情報を入力可能な入力デバイスをさらに備えてもよい。
 さらに、HMI62は、例えば、赤外線又は電波を利用したリモートコントロール装置や、車両制御システム51の操作に対応したモバイル機器又はウェアラブル機器等の外部接続機器を入力デバイスとして用いてもよい。
Input of data by HMI 62 will be described schematically. The HMI 62 includes input devices for human input of data. The HMI 62 generates an input signal based on data, instructions, etc. input from an input device, and supplies the input signal to each section of the vehicle control system 51 . The HMI 62 includes operators such as touch panels, buttons, switches, and levers as input devices. The HMI 62 is not limited to this, and may further include an input device capable of inputting information by a method other than manual operation using voice, gestures, or the like.
Furthermore, the HMI 62 may use, as an input device, a remote control device using infrared rays or radio waves, or an external connection device such as a mobile device or wearable device corresponding to the operation of the vehicle control system 51 .
 HMI62によるデータの提示について、概略的に説明する。HMI62は、搭乗者又は車外に対する視覚情報、聴覚情報、及び、触覚情報の生成を行う。また、HMI62は、生成された各情報の出力、出力内容、出力タイミング及び出力方法等を制御する出力制御を行う。HMI62は、視覚情報として、例えば、操作画面、車両50の状態表示、警告表示、車両50の周囲の状況を示すモニタ画像等の画像や光により示される情報を生成及び出力する。また、HMI62は、聴覚情報として、例えば、音声ガイダンス、警告音、警告メッセージ等の音により示される情報を生成及び出力する。さらに、HMI62は、触覚情報として、例えば、力、振動、動き等により搭乗者の触覚に与えられる情報を生成及び出力する。 The presentation of data by the HMI 62 will be briefly explained. The HMI 62 generates visual, auditory, and tactile information for passengers or outside the vehicle. In addition, the HMI 62 performs output control for controlling the output, output content, output timing, output method, and the like of each generated information. The HMI 62 generates and outputs visual information such as an operation screen, a status display of the vehicle 50, a warning display, a monitor image showing the surroundings of the vehicle 50, and information indicated by light and images. The HMI 62 also generates and outputs information indicated by sounds such as voice guidance, warning sounds, warning messages, etc., as auditory information. Furthermore, the HMI 62 generates and outputs, as tactile information, information given to the passenger's tactile sense by force, vibration, movement, or the like.
 HMI62が視覚情報を出力する出力デバイスとしては、例えば、自身が画像を表示することで視覚情報を提示する表示装置や、画像を投影することで視覚情報を提示するプロジェクタ装置を適用することができる。なお、表示装置は、通常のディスプレイを有する表示装置以外にも、例えば、ヘッドアップディスプレイ、透過型ディスプレイ、AR(Augmented Reality)機能を備えるウエアラブルデバイスといった、搭乗者の視界内に視覚情報を表示する装置であってもよい。また、HMI62は、車両50に設けられるナビゲーション装置、インストルメントパネル、CMS(Camera Monitoring System)、電子ミラー、ランプ等が有する表示デバイスを、視覚情報を出力する出力デバイスとして用いることも可能である。 As an output device from which the HMI 62 outputs visual information, for example, a display device that presents visual information by displaying an image by itself or a projector device that presents visual information by projecting an image can be applied. . In addition to the display device having a normal display, the display device displays visual information within the passenger's field of view, such as a head-up display, a transmissive display, and a wearable device with an AR (Augmented Reality) function. It may be a device. In addition, the HMI 62 can use a display device provided in the vehicle 50 such as a navigation device, an instrument panel, a CMS (Camera Monitoring System), an electronic mirror, a lamp, etc., as an output device for outputting visual information.
 HMI62が聴覚情報を出力する出力デバイスとしては、例えば、オーディオスピーカ、ヘッドホン、イヤホンを適用することができる。 Audio speakers, headphones, and earphones, for example, can be applied as output devices for the HMI 62 to output auditory information.
 HMI62が触覚情報を出力する出力デバイスとしては、例えば、ハプティクス技術を用いたハプティクス素子を適用することができる。ハプティクス素子は、例えば、ステアリングホイール、シートといった、車両50の搭乗者が接触する部分に設けられる。 As an output device for the HMI 62 to output tactile information, for example, a haptic element using haptic technology can be applied. A haptic element is provided at a portion of the vehicle 50 that is in contact with a passenger, such as a steering wheel or a seat.
 車両制御部63は、車両50の各部の制御を行う。車両制御部63は、ステアリング制御部81、ブレーキ制御部82、駆動制御部83、ボディ系制御部84、ライト制御部85、及び、ホーン制御部86を備える。 The vehicle control unit 63 controls each unit of the vehicle 50 . The vehicle control section 63 includes a steering control section 81 , a brake control section 82 , a drive control section 83 , a body system control section 84 , a light control section 85 and a horn control section 86 .
 ステアリング制御部81は、車両50のステアリングシステムの状態の検出及び制御等を行う。ステアリングシステムは、例えば、ステアリングホイール等を備えるステアリング機構、電動パワーステアリング等を備える。ステアリング制御部81は、例えば、ステアリングシステムの制御を行うステアリングECU、ステアリングシステムの駆動を行うアクチュエータ等を備える。 The steering control unit 81 detects and controls the state of the steering system of the vehicle 50 . The steering system includes, for example, a steering mechanism including a steering wheel, an electric power steering, and the like. The steering control unit 81 includes, for example, a steering ECU that controls the steering system, an actuator that drives the steering system, and the like.
 ブレーキ制御部82は、車両50のブレーキシステムの状態の検出及び制御等を行う。ブレーキシステムは、例えば、ブレーキペダル等を含むブレーキ機構、ABS(Antilock Brake System)、回生ブレーキ機構等を備える。ブレーキ制御部82は、例えば、ブレーキシステムの制御を行うブレーキECU、ブレーキシステムの駆動を行うアクチュエータ等を備える。 The brake control unit 82 detects and controls the state of the brake system of the vehicle 50 . The brake system includes, for example, a brake mechanism including a brake pedal, an ABS (Antilock Brake System), a regenerative brake mechanism, and the like. The brake control unit 82 includes, for example, a brake ECU that controls the brake system, an actuator that drives the brake system, and the like.
 駆動制御部83は、車両50の駆動システムの状態の検出及び制御等を行う。駆動システムは、例えば、アクセルペダル、内燃機関又は駆動用モータ等の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構等を備える。駆動制御部83は、例えば、駆動システムの制御を行う駆動ECU、駆動システムの駆動を行うアクチュエータ等を備える。 The drive control unit 83 detects and controls the state of the drive system of the vehicle 50 . The drive system includes, for example, an accelerator pedal, a driving force generator for generating driving force such as an internal combustion engine or a driving motor, and a driving force transmission mechanism for transmitting the driving force to the wheels. The drive control unit 83 includes, for example, a drive ECU that controls the drive system, an actuator that drives the drive system, and the like.
 ボディ系制御部84は、車両50のボディ系システムの状態の検出及び制御等を行う。ボディ系システムは、例えば、キーレスエントリシステム、スマートキーシステム、パワーウインドウ装置、パワーシート、空調装置、エアバッグ、シートベルト、シフトレバー等を備える。ボディ系制御部84は、例えば、ボディ系システムの制御を行うボディ系ECU、ボディ系システムの駆動を行うアクチュエータ等を備える。 The body system control unit 84 detects and controls the state of the body system of the vehicle 50 . The body system includes, for example, a keyless entry system, smart key system, power window device, power seat, air conditioner, air bag, seat belt, shift lever, and the like. The body system control unit 84 includes, for example, a body system ECU that controls the body system, an actuator that drives the body system, and the like.
 ライト制御部85は、車両50の各種のライトの状態の検出及び制御等を行う。制御対象となるライトとしては、例えば、ヘッドライト、バックライト、フォグライト、ターンシグナル、ブレーキライト、プロジェクション、バンパーの表示等が想定される。ライト制御部85は、ライトの制御を行うライトECU、ライトの駆動を行うアクチュエータ等を備える。 The light control unit 85 detects and controls the states of various lights of the vehicle 50 . Lights to be controlled include, for example, headlights, backlights, fog lights, turn signals, brake lights, projections, bumper displays, and the like. The light control unit 85 includes a light ECU that controls the light, an actuator that drives the light, and the like.
 ホーン制御部86は、車両50のカーホーンの状態の検出及び制御等を行う。ホーン制御部86は、例えば、カーホーンの制御を行うホーンECU、カーホーンの駆動を行うアクチュエータ等を備える。 The horn control unit 86 detects and controls the state of the car horn of the vehicle 50 . The horn control unit 86 includes, for example, a horn ECU for controlling the car horn, an actuator for driving the car horn, and the like.
 図9は、図8の外部認識センサ56のカメラ65、レーダ装置66、LiDAR67、及び、超音波センサ68等によるセンシング領域の例を示す図である。なお、図9において、車両50を上面から見た様子が模式的に示され、左端側が車両50の前端(フロント)側であり、右端側が車両50の後端(リア)側となっている。 FIG. 9 is a diagram showing an example of sensing areas by the camera 65, the radar device 66, the LiDAR 67, the ultrasonic sensor 68, etc. of the external recognition sensor 56 in FIG. 9 schematically shows the vehicle 50 viewed from above, the left end side being the front end (front) side of the vehicle 50, and the right end side being the rear end (rear) side of the vehicle 50.
 センシング領域101F及びセンシング領域101Bは、超音波センサ68のセンシング領域の例を示している。センシング領域101Fは、複数の超音波センサ68によって車両50の前端周辺をカバーしている。センシング領域101Bは、複数の超音波センサ68によって車両50の後端周辺をカバーしている。 A sensing area 101F and a sensing area 101B show examples of sensing areas of the ultrasonic sensor 68. The sensing area 101</b>F covers the periphery of the front end of the vehicle 50 with a plurality of ultrasonic sensors 68 . The sensing area 101B covers the periphery of the rear end of the vehicle 50 with a plurality of ultrasonic sensors 68 .
 センシング領域101F及びセンシング領域101Bにおけるセンシング結果は、例えば、車両50の駐車支援等に用いられる。 The sensing results in the sensing area 101F and the sensing area 101B are used, for example, for parking assistance of the vehicle 50, and the like.
 センシング領域102F乃至センシング領域102Bは、短距離又は中距離用のレーダ装置66のセンシング領域の例を示している。センシング領域102Fは、車両50の前方において、センシング領域101Fより遠い位置までカバーしている。センシング領域102Bは、車両50の後方において、センシング領域101Bより遠い位置までカバーしている。センシング領域102Lは、車両50の左側面の後方の周辺をカバーしている。センシング領域102Rは、車両50の右側面の後方の周辺をカバーしている。 Sensing areas 102F to 102B are examples of sensing areas of the radar device 66 for short or medium range. The sensing area 102F covers the front of the vehicle 50 to a position farther than the sensing area 101F. Sensing area 102B covers the rear of vehicle 50 to a position farther than sensing area 101B. The sensing area 102L covers the rear periphery of the left side surface of the vehicle 50 . The sensing area 102R covers the rear periphery of the right side surface of the vehicle 50 .
 センシング領域102Fにおけるセンシング結果は、例えば、車両50の前方に存在する車両や歩行者等の検出等に用いられる。センシング領域102Bにおけるセンシング結果は、例えば、車両50の後方の衝突防止機能等に用いられる。センシング領域102L及びセンシング領域102Rにおけるセンシング結果は、例えば、車両50の側方の死角における物体の検出等に用いられる。 The sensing result in the sensing area 102F is used, for example, to detect vehicles, pedestrians, etc. existing in front of the vehicle 50. The sensing result in the sensing area 102B is used, for example, for the rear collision prevention function of the vehicle 50 or the like. The sensing results in sensing area 102L and sensing area 102R are used, for example, for detecting an object in a blind spot on the side of vehicle 50, or the like.
 センシング領域103F乃至センシング領域103Bは、カメラ65によるセンシング領域の例を示している。センシング領域103Fは、車両50の前方において、センシング領域102Fより遠い位置までカバーしている。センシング領域103Bは、車両50の後方において、センシング領域102Bより遠い位置までカバーしている。センシング領域103Lは、車両50の左側面の周辺をカバーしている。センシング領域103Rは、車両50の右側面の周辺をカバーしている。 Sensing areas 103F to 103B show examples of sensing areas by the camera 65. The sensing area 103F covers the front of the vehicle 50 to a position farther than the sensing area 102F. Sensing area 103B covers the rear of vehicle 50 to a position farther than sensing area 102B. The sensing area 103L covers the periphery of the left side surface of the vehicle 50 . The sensing area 103R covers the periphery of the right side surface of the vehicle 50 .
 センシング領域103Fにおけるセンシング結果は、例えば、信号機や交通標識の認識、車線逸脱防止支援システム、自動ヘッドライト制御システムに用いることができる。センシング領域103Bにおけるセンシング結果は、例えば、駐車支援、及び、サラウンドビューシステムに用いることができる。センシング領域103L及びセンシング領域103Rにおけるセンシング結果は、例えば、サラウンドビューシステムに用いることができる。 The sensing results in the sensing area 103F can be used, for example, for recognition of traffic lights and traffic signs, lane departure prevention support systems, and automatic headlight control systems. A sensing result in the sensing area 103B can be used for parking assistance and a surround view system, for example. Sensing results in the sensing area 103L and the sensing area 103R can be used, for example, in a surround view system.
 センシング領域104は、LiDAR67のセンシング領域の例を示している。センシング領域104は、車両50の前方において、センシング領域103Fより遠い位置までカバーしている。一方、センシング領域104は、センシング領域103Fより左右方向の範囲が狭くなっている。 The sensing area 104 shows an example of the sensing area of the LiDAR67. The sensing area 104 covers the front of the vehicle 50 to a position farther than the sensing area 103F. On the other hand, the sensing area 104 has a narrower lateral range than the sensing area 103F.
 センシング領域104におけるセンシング結果は、例えば、周辺車両等の物体検出に用いられる。 The sensing results in the sensing area 104 are used, for example, to detect objects such as surrounding vehicles.
 センシング領域105は、長距離用のレーダ装置66のセンシング領域の例を示している。センシング領域105は、車両50の前方において、センシング領域104より遠い位置までカバーしている。一方、センシング領域105は、センシング領域104より左右方向の範囲が狭くなっている。 A sensing area 105 shows an example of a sensing area of the long-range radar device 66 . Sensing area 105 covers the front of vehicle 50 to a position farther than sensing area 104 . On the other hand, the sensing area 105 has a narrower lateral range than the sensing area 104 .
 センシング領域105におけるセンシング結果は、例えば、ACC(Adaptive Cruise Control)、緊急ブレーキ、衝突回避等に用いられる。 The sensing results in the sensing area 105 are used, for example, for ACC (Adaptive Cruise Control), emergency braking, and collision avoidance.
 なお、外部認識センサ56が含むカメラ65、レーダ装置66、LiDAR67、及び、超音波センサ68の各センサのセンシング領域は、図9以外に各種の構成をとってもよい。具体的には、超音波センサ68が車両50の側方もセンシングするようにしてもよいし、LiDAR67が車両50の後方をセンシングするようにしてもよい。また、各センサの設置位置は、上述した各例に限定されない。また、各センサの数は、1つでもよいし、複数であってもよい。 The sensing regions of the cameras 65, the radar device 66, the LiDAR 67, and the ultrasonic sensors 68 included in the external recognition sensor 56 may have various configurations other than those shown in FIG. Specifically, the ultrasonic sensor 68 may also sense the sides of the vehicle 50 , and the LiDAR 67 may sense the rear of the vehicle 50 . Moreover, the installation position of each sensor is not limited to each example mentioned above. Also, the number of each sensor may be one or plural.
 図10は、検出処理部20のハードウェア構成例を示すブロック図である。 FIG. 10 is a block diagram showing a hardware configuration example of the detection processing unit 20. As shown in FIG.
 検出処理部20は、CPU201、ROM202、RAM203、入出力インタフェース205、及びこれらを互いに接続するバス204を備える。入出力インタフェース205には、表示部206、入力部207、記憶部208、通信部209、及びドライブ部210等が接続される。 The detection processing unit 20 includes a CPU 201, a ROM 202, a RAM 203, an input/output interface 205, and a bus 204 that connects these to each other. A display unit 206, an input unit 207, a storage unit 208, a communication unit 209, a drive unit 210, and the like are connected to the input/output interface 205. FIG.
 表示部206は、例えば液晶、EL等を用いた表示デバイスである。入力部207は、例えばキーボード、ポインティングデバイス、タッチパネル、その他の操作装置である。入力部207がタッチパネルを含む場合、そのタッチパネルは表示部206と一体となり得る。 The display unit 206 is, for example, a display device using liquid crystal, EL, or the like. The input unit 207 is, for example, a keyboard, pointing device, touch panel, or other operating device. When input unit 207 includes a touch panel, the touch panel can be integrated with display unit 206 .
 記憶部208は、不揮発性の記憶デバイスであり、例えばHDD、フラッシュメモリ、その他の固体メモリである。ドライブ部210は、例えば光学記録媒体、磁気記録テープ等、リムーバブルの記録媒体211を駆動することが可能なデバイスである。 The storage unit 208 is a non-volatile storage device, such as an HDD, flash memory, or other solid-state memory. The drive unit 210 is a device capable of driving a removable recording medium 211 such as an optical recording medium or a magnetic recording tape.
 通信部209は、LAN、WAN等に接続可能な、他のデバイスと通信するためのモデム、ルータ、その他の通信機器である。通信部209は、有線及び無線のどちらを利用して通信するものであってもよい。通信部209は、検出処理部20とは、別体で使用される場合が多い。 The communication unit 209 is a modem, router, and other communication equipment for communicating with other devices that can be connected to a LAN, WAN, or the like. The communication unit 209 may use either wired or wireless communication. The communication unit 209 is often used separately from the detection processing unit 20 .
 上記のようなハードウェア構成を有する検出処理部20による情報処理は、記憶部208またはROM202等に記憶されたソフトウェアと、検出処理部20のハードウェア資源との協働により実現される。具体的には、ROM202等に記憶された、ソフトウェアを構成するプログラムをRAM203にロードして実行することにより、本技術に係る情報処理方法が実現される。 Information processing by the detection processing unit 20 having the hardware configuration as described above is realized by cooperation between software stored in the storage unit 208 or the ROM 202 or the like and hardware resources of the detection processing unit 20 . Specifically, the information processing method according to the present technology is realized by loading a program constituting software stored in the ROM 202 or the like into the RAM 203 and executing the program.
 プログラムは、例えば記録媒体211を介して検出処理部20にインストールされる。あるいは、グローバルネットワーク等を介してプログラムが検出処理部20にインストールされてもよい。その他、コンピュータ読み取り可能な非一過性の任意の記憶媒体が用いられてよい。 The program is installed in the detection processing unit 20 via the recording medium 211, for example. Alternatively, the program may be installed in the detection processing unit 20 via a global network or the like. In addition, any computer-readable non-transitory storage medium may be used.
 通信端末に搭載されたコンピュータとネットワーク等を介して通信可能な他のコンピュータとが連動することにより本技術に係る情報処理方法、及びプログラムが実行され、本技術に係る検出処理切替部が構築されてもよい。 An information processing method and a program according to the present technology are executed by linking a computer installed in a communication terminal with another computer that can communicate via a network or the like, and a detection processing switching unit according to the present technology is constructed. may
 すなわち本技術に係る情報処理システム、情報処理装置、及び情報処理方法は、単体のコンピュータにより構成されたコンピュータシステムのみならず、複数のコンピュータが連動して動作するコンピュータシステムにおいても実行可能である。なお、本開示において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれもシステムである。 That is, the information processing system, information processing apparatus, and information processing method according to the present technology can be executed not only in a computer system configured by a single computer, but also in a computer system in which a plurality of computers work together. In the present disclosure, a system means a set of multiple components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Therefore, a plurality of devices housed in separate housings and connected via a network, and a single device housing a plurality of modules within a single housing, are both systems.
 コンピュータシステムによる本技術に係る情報処理システム、情報処理装置、及び情報処理方法の実行は、例えば、距離スペクトルの算出、ピークの検出、及び検出処理の切替等が、単体のコンピュータにより実行される場合、及び各処理が異なるコンピュータにより実行される場合の両方を含む。また所定のコンピュータによる各処理の実行は、当該処理の一部又は全部を他のコンピュータに実行させその結果を取得することを含む。 Execution of the information processing system, information processing apparatus, and information processing method according to the present technology by a computer system is, for example, a case where calculation of a distance spectrum, detection of a peak, switching of detection processing, and the like are executed by a single computer. , and when each process is executed by a different computer. Execution of each process by a predetermined computer includes causing another computer to execute part or all of the process and obtaining the result.
 すなわち本技術に係る情報処理システム、情報処理装置、及び情報処理方法は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成にも適用することが可能である。 That is, the information processing system, information processing device, and information processing method according to the present technology can be applied to a configuration of cloud computing in which a single function is shared by a plurality of devices via a network and processed jointly. is.
 各図面を参照して説明した距離分布算出部、検出処理切替部、方向推定処理部等の各構成、通信システムの制御フロー等はあくまで一実施形態であり、本技術の趣旨を逸脱しない範囲で、任意に変形可能である。すなわち本技術を実施するための他の任意の構成やアルゴリズム等が採用されてよい。 Each configuration of the distance distribution calculation unit, the detection processing switching unit, the direction estimation processing unit, and the like, the control flow of the communication system, and the like, which have been described with reference to the drawings, are merely one embodiment, and are within the scope of the present technology. , can be arbitrarily transformed. That is, any other configuration, algorithm, or the like for implementing the present technology may be employed.
 なお、本開示中に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。上記の複数の効果の記載は、それらの効果が必ずしも同時に発揮されるということを意味しているのではない。条件等により、少なくとも上記した効果のいずれかが得られることを意味しており、もちろん本開示中に記載されていない効果が発揮される可能性もある。 It should be noted that the effects described in the present disclosure are merely examples and are not limited, and other effects may also occur. The above description of multiple effects does not necessarily mean that those effects are exhibited simultaneously. It means that at least one of the above-described effects can be obtained depending on the conditions, etc., and of course, effects not described in the present disclosure may also be exhibited.
 以上説明した各形態の特徴部分のうち、少なくとも2つの特徴部分を組み合わせることも可能である。すなわち各実施形態で説明した種々の特徴部分は、各実施形態の区別なく、任意に組み合わされてもよい。 It is also possible to combine at least two of the characteristic portions of each form described above. That is, various characteristic portions described in each embodiment may be combined arbitrarily without distinguishing between each embodiment.
 なお、本技術は以下のような構成も採ることができる。
(1)
 複数のレーダ装置と、
  前記複数のレーダ装置のうちの少なくとも1つを用いて、物体までの距離を算出する距離算出部と、
  前記物体までの距離が所定の閾値未満である場合、前記複数のレーダ装置の各々が前記物体の異なる反射点を検出し、前記物体までの距離が前記所定の閾値以上である場合、前記複数のレーダ装置のデジタルレーダ信号を合成することにより前記物体の共通の反射点を検出する処理を実行する処理部と
 を具備する情報処理装置と、
 前記処理部の検出処理に基づいて、前記反射点に関する反射点情報を出力する出力部を有する出力装置と
 を具備する情報処理システム。
(2)(1)に記載の情報処理システムであって、
 前記情報処理装置は、前記物体までの距離が前記所定の閾値未満である場合、前記物体に関するレーダ信号に基づいて、前記異なる反射点の各々の反射点情報を推定する第1の推定部を有し、
 前記出力装置は、前記物体までの距離が前記所定の閾値以上である場合、前記物体に関するレーダ信号に基づいて、前記共通の反射点の反射点情報を推定する第2の推定部を有する
 情報処理システム。
(3)(1)に記載の情報処理システムであって、
 前記反射点情報は、距離、速度、又は方向の少なくとも1つを含む
 情報処理システム。
(4)(1)に記載の情報処理システムであって、
 前記所定の閾値は、前記複数のレーダ装置の配置される位置関係に基づいて決定されることを含む
 情報処理システム。
(5)(2)に記載の情報処理システムであって、
 前記情報処理装置は、前記第1の推定部における前記反射点情報の第1の推定結果及び前記第2の推定部における前記反射点情報の第2の推定結果に基づいて、前記複数のレーダ装置の各々が前記物体の異なる反射点を検出する処理、又は前記複数のレーダ装置のデジタルレーダ信号を合成することにより前記物体の共通の反射点を検出する処理に切り替える切替部を有する
 情報処理システム。
(6)(5)に記載の情報処理システムであって、
 前記切替部は、前記第2の推定結果により異なる角度に複数の物体が検出された場合、前記複数のレーダ装置のデジタルレーダ信号を合成することにより前記物体の共通の反射点を検出する処理に切り替える
 情報処理システム。
(7)(5)に記載の情報処理システムであって、
 前記切替部は、前記第1の推定結果による前記反射点の検出数より前記第2の推定結果による前記反射点の検出数が多い場合、前記複数のレーダ装置のデジタルレーダ信号を合成することにより前記物体の共通の反射点を検出する処理に切り替える
 情報処理システム。
(8)(5)に記載の情報処理システムであって、
 前記切替部は、前記第1の推定結果により前記反射点が近接している場合、前記反射点の距離及び速度に基づいて、前記複数のレーダ装置の各々が前記物体の異なる反射点を検出する処理、又は前記複数のレーダ装置のデジタルレーダ信号を合成することにより前記物体の共通の反射点を検出する処理に切り替える
 情報処理システム。
(9)(2)に記載の情報処理システムであって、
 前記処理部は、前記物体までの距離が前記所定の閾値未満である場合、前記第1の推定部により推定された前記反射点情報を第1のネットワークを介して前記出力部へと出力し、前記物体までの距離が前記所定の閾値以上である場合、前記物体に関するレーダ信号を第2のネットワークを介して前記第2の推定部に出力する
 情報処理システム。
(10)
 複数のレーダ装置のうちの少なくとも1つを用いて、物体までの距離を算出する距離算出部と、
 前記物体までの距離が所定の閾値未満である場合、前記複数のレーダ装置の各々が前記物体の異なる反射点を検出し、前記物体までの距離が前記所定の閾値以上である場合、前記複数のレーダ装置のデジタルレーダ信号を合成することにより前記物体の共通の反射点を検出する処理を実行する処理部と
 を具備する情報処理装置。
(11)
 複数のレーダ装置のうちの少なくとも1つを用いて、物体までの距離を算出し、
 前記物体までの距離が所定の閾値未満である場合、前記複数のレーダ装置の各々が前記物体の異なる反射点を検出し、前記物体までの距離が前記所定の閾値以上である場合、前記複数のレーダ装置のデジタルレーダ信号を合成することにより前記物体の共通の反射点を検出する処理を実行する
 ことをコンピュータシステムが実行する情報処理方法。
Note that the present technology can also adopt the following configuration.
(1)
a plurality of radar devices;
a distance calculation unit that calculates a distance to an object using at least one of the plurality of radar devices;
When the distance to the object is less than a predetermined threshold, each of the plurality of radar devices detects a different reflection point of the object, and when the distance to the object is greater than or equal to the predetermined threshold, the plurality of a processing unit that performs processing for detecting a common reflection point of the object by synthesizing digital radar signals of the radar device; and an information processing device comprising:
An information processing system comprising: an output device having an output unit that outputs reflection point information about the reflection point based on the detection processing of the processing unit.
(2) The information processing system according to (1),
The information processing device has a first estimating unit that estimates reflection point information of each of the different reflection points based on a radar signal related to the object when the distance to the object is less than the predetermined threshold. death,
The output device has a second estimator that estimates reflection point information of the common reflection point based on the radar signal related to the object when the distance to the object is equal to or greater than the predetermined threshold. system.
(3) The information processing system according to (1),
The information processing system, wherein the reflection point information includes at least one of distance, speed, and direction.
(4) The information processing system according to (1),
The information processing system, wherein the predetermined threshold is determined based on the positional relationship of the plurality of radar devices.
(5) The information processing system according to (2),
The information processing device, based on a first estimation result of the reflection point information by the first estimation unit and a second estimation result of the reflection point information by the second estimation unit, the plurality of radar devices has a switching unit for switching to processing for detecting different reflection points of the object or processing for detecting a common reflection point of the object by synthesizing digital radar signals of the plurality of radar devices.
(6) The information processing system according to (5),
When a plurality of objects are detected at different angles according to the second estimation result, the switching unit detects a common reflection point of the object by synthesizing the digital radar signals of the plurality of radar devices. Switch information processing system.
(7) The information processing system according to (5),
When the number of reflection points detected by the second estimation result is larger than the number of reflection points detected by the first estimation result, the switching unit synthesizes the digital radar signals of the plurality of radar devices. An information processing system that switches to processing for detecting a common reflection point of the object.
(8) The information processing system according to (5),
The switching unit causes each of the plurality of radar devices to detect a different reflection point of the object based on the distance and speed of the reflection point when the reflection point is close according to the first estimation result. processing, or switching to processing for detecting a common reflection point of the object by synthesizing digital radar signals of the plurality of radar devices.
(9) The information processing system according to (2),
When the distance to the object is less than the predetermined threshold, the processing unit outputs the reflection point information estimated by the first estimation unit to the output unit via a first network, An information processing system that outputs a radar signal related to the object to the second estimation unit via a second network when the distance to the object is equal to or greater than the predetermined threshold.
(10)
a distance calculation unit that calculates a distance to an object using at least one of a plurality of radar devices;
When the distance to the object is less than a predetermined threshold, each of the plurality of radar devices detects a different reflection point of the object, and when the distance to the object is greater than or equal to the predetermined threshold, the plurality of and a processing unit that detects a common reflection point of the object by synthesizing digital radar signals of radar devices.
(11)
Using at least one of a plurality of radar devices to calculate the distance to the object,
When the distance to the object is less than a predetermined threshold, each of the plurality of radar devices detects a different reflection point of the object, and when the distance to the object is greater than or equal to the predetermined threshold, the plurality of An information processing method in which a computer system performs a process of detecting a common reflection point of said object by synthesizing digital radar signals of radar equipment.
 10…複数のレーダ装置
 20…検出処理部
 25…検出処理切替部
 26…方向推定処理部
 40…出力装置
 41…統合検出処理部
 100…情報処理システム
DESCRIPTION OF SYMBOLS 10... Plurality of radar apparatuses 20... Detection process part 25... Detection process switching part 26... Direction estimation process part 40... Output device 41... Integrated detection process part 100... Information processing system

Claims (11)

  1.  複数のレーダ装置と、
      前記複数のレーダ装置のうちの少なくとも1つを用いて、物体までの距離を算出する距離算出部と、
      前記物体までの距離が所定の閾値未満である場合、前記複数のレーダ装置の各々が前記物体の異なる反射点を検出し、前記物体までの距離が前記所定の閾値以上である場合、前記複数のレーダ装置のデジタルレーダ信号を合成することにより前記物体の共通の反射点を検出する処理を実行する処理部と
     を具備する情報処理装置と、
     前記処理部の検出処理に基づいて、前記反射点に関する反射点情報を出力する出力部を有する出力装置と
     を具備する情報処理システム。
    a plurality of radar devices;
    a distance calculation unit that calculates a distance to an object using at least one of the plurality of radar devices;
    When the distance to the object is less than a predetermined threshold, each of the plurality of radar devices detects a different reflection point of the object, and when the distance to the object is greater than or equal to the predetermined threshold, the plurality of a processing unit that performs processing for detecting a common reflection point of the object by synthesizing digital radar signals of the radar device; and an information processing device comprising:
    An information processing system comprising: an output device having an output unit that outputs reflection point information about the reflection point based on the detection processing of the processing unit.
  2.  請求項1に記載の情報処理システムであって、
     前記情報処理装置は、前記物体までの距離が前記所定の閾値未満である場合、前記物体に関するレーダ信号に基づいて、前記異なる反射点の各々の反射点情報を推定する第1の推定部を有し、
     前記出力装置は、前記物体までの距離が前記所定の閾値以上である場合、前記物体に関するレーダ信号に基づいて、前記共通の反射点の反射点情報を推定する第2の推定部を有する
     情報処理システム。
    The information processing system according to claim 1,
    The information processing device has a first estimating unit that estimates reflection point information of each of the different reflection points based on a radar signal related to the object when the distance to the object is less than the predetermined threshold. death,
    The output device has a second estimator that estimates reflection point information of the common reflection point based on the radar signal related to the object when the distance to the object is equal to or greater than the predetermined threshold. system.
  3.  請求項1に記載の情報処理システムであって、
     前記反射点情報は、距離、速度、又は方向の少なくとも1つを含む
     情報処理システム。
    The information processing system according to claim 1,
    The information processing system, wherein the reflection point information includes at least one of distance, speed, and direction.
  4.  請求項1に記載の情報処理システムであって、
     前記所定の閾値は、前記複数のレーダ装置の配置される位置関係に基づいて決定されることを含む
     情報処理システム。
    The information processing system according to claim 1,
    The information processing system, wherein the predetermined threshold is determined based on the positional relationship of the plurality of radar devices.
  5.  請求項2に記載の情報処理システムであって、
     前記情報処理装置は、前記第1の推定部における前記反射点情報の第1の推定結果及び前記第2の推定部における前記反射点情報の第2の推定結果に基づいて、前記複数のレーダ装置の各々が前記物体の異なる反射点を検出する処理、又は前記複数のレーダ装置のデジタルレーダ信号を合成することにより前記物体の共通の反射点を検出する処理に切り替える切替部を有する
     情報処理システム。
    The information processing system according to claim 2,
    The information processing device, based on a first estimation result of the reflection point information by the first estimation unit and a second estimation result of the reflection point information by the second estimation unit, the plurality of radar devices has a switching unit for switching to processing for detecting different reflection points of the object or processing for detecting a common reflection point of the object by synthesizing digital radar signals of the plurality of radar devices.
  6.  請求項5に記載の情報処理システムであって、
     前記切替部は、前記第2の推定結果により異なる角度に複数の物体が検出された場合、前記複数のレーダ装置のデジタルレーダ信号を合成することにより前記物体の共通の反射点を検出する処理に切り替える
     情報処理システム。
    The information processing system according to claim 5,
    When a plurality of objects are detected at different angles according to the second estimation result, the switching unit detects a common reflection point of the object by synthesizing the digital radar signals of the plurality of radar devices. Switch information processing system.
  7.  請求項5に記載の情報処理システムであって、
     前記切替部は、前記第1の推定結果による前記反射点の検出数より前記第2の推定結果による前記反射点の検出数が多い場合、前記複数のレーダ装置のデジタルレーダ信号を合成することにより前記物体の共通の反射点を検出する処理に切り替える
     情報処理システム。
    The information processing system according to claim 5,
    When the number of reflection points detected by the second estimation result is larger than the number of reflection points detected by the first estimation result, the switching unit synthesizes the digital radar signals of the plurality of radar devices. An information processing system that switches to processing for detecting a common reflection point of the object.
  8.  請求項5に記載の情報処理システムであって、
     前記切替部は、前記第1の推定結果により前記反射点が近接している場合、前記反射点の距離及び速度に基づいて、前記複数のレーダ装置の各々が前記物体の異なる反射点を検出する処理、又は前記複数のレーダ装置のデジタルレーダ信号を合成することにより前記物体の共通の反射点を検出する処理に切り替える
     情報処理システム。
    The information processing system according to claim 5,
    The switching unit causes each of the plurality of radar devices to detect a different reflection point of the object based on the distance and speed of the reflection point when the reflection point is close according to the first estimation result. processing, or switching to processing for detecting a common reflection point of the object by synthesizing digital radar signals of the plurality of radar devices.
  9.  請求項2に記載の情報処理システムであって、
     前記処理部は、前記物体までの距離が前記所定の閾値未満である場合、前記第1の推定部により推定された前記反射点情報を第1のネットワークを介して前記出力部へと出力し、前記物体までの距離が前記所定の閾値以上である場合、前記物体に関するレーダ信号を第2のネットワークを介して前記第2の推定部に出力する
     情報処理システム。
    The information processing system according to claim 2,
    When the distance to the object is less than the predetermined threshold, the processing unit outputs the reflection point information estimated by the first estimation unit to the output unit via a first network, An information processing system that outputs a radar signal related to the object to the second estimation unit via a second network when the distance to the object is equal to or greater than the predetermined threshold.
  10.  複数のレーダ装置のうちの少なくとも1つを用いて、物体までの距離を算出する距離算出部と、
     前記物体までの距離が所定の閾値未満である場合、前記複数のレーダ装置の各々が前記物体の異なる反射点を検出し、前記物体までの距離が前記所定の閾値以上である場合、前記複数のレーダ装置のデジタルレーダ信号を合成することにより前記物体の共通の反射点を検出する処理を実行する処理部と
     を具備する情報処理装置。
    a distance calculation unit that calculates a distance to an object using at least one of a plurality of radar devices;
    When the distance to the object is less than a predetermined threshold, each of the plurality of radar devices detects a different reflection point of the object, and when the distance to the object is greater than or equal to the predetermined threshold, the plurality of and a processing unit that detects a common reflection point of the object by synthesizing digital radar signals of radar devices.
  11.  複数のレーダ装置のうちの少なくとも1つを用いて、物体までの距離を算出し、
     前記物体までの距離が所定の閾値未満である場合、前記複数のレーダ装置の各々が前記物体の異なる反射点を検出し、前記物体までの距離が前記所定の閾値以上である場合、前記複数のレーダ装置のデジタルレーダ信号を合成することにより前記物体の共通の反射点を検出する処理を実行する
     ことをコンピュータシステムが実行する情報処理方法。
    Using at least one of a plurality of radar devices to calculate the distance to the object,
    When the distance to the object is less than a predetermined threshold, each of the plurality of radar devices detects a different reflection point of the object, and when the distance to the object is greater than or equal to the predetermined threshold, the plurality of An information processing method in which a computer system performs a process of detecting a common reflection point of said object by synthesizing digital radar signals of radar equipment.
PCT/JP2022/010256 2021-08-19 2022-03-09 Information processing system, information processing device, and information processing method WO2023021756A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021134268 2021-08-19
JP2021-134268 2021-08-19

Publications (1)

Publication Number Publication Date
WO2023021756A1 true WO2023021756A1 (en) 2023-02-23

Family

ID=85240380

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/010256 WO2023021756A1 (en) 2021-08-19 2022-03-09 Information processing system, information processing device, and information processing method

Country Status (1)

Country Link
WO (1) WO2023021756A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08201529A (en) * 1995-01-23 1996-08-09 Mitsubishi Heavy Ind Ltd Forward monitoring apparatus of shield machine
JP2007508545A (en) * 2003-10-10 2007-04-05 レイセオン・カンパニー Multiple radar combination for enhanced range, radar sensitivity and angular accuracy
JP2017072519A (en) * 2015-10-08 2017-04-13 株式会社ヨコオ Radar device
JP2018059895A (en) * 2016-09-29 2018-04-12 パナソニック株式会社 Multi-radar system
US20200300965A1 (en) * 2019-03-18 2020-09-24 Nxp Usa, Inc. Distributed Aperture Automotive Radar System

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08201529A (en) * 1995-01-23 1996-08-09 Mitsubishi Heavy Ind Ltd Forward monitoring apparatus of shield machine
JP2007508545A (en) * 2003-10-10 2007-04-05 レイセオン・カンパニー Multiple radar combination for enhanced range, radar sensitivity and angular accuracy
JP2017072519A (en) * 2015-10-08 2017-04-13 株式会社ヨコオ Radar device
JP2018059895A (en) * 2016-09-29 2018-04-12 パナソニック株式会社 Multi-radar system
US20200300965A1 (en) * 2019-03-18 2020-09-24 Nxp Usa, Inc. Distributed Aperture Automotive Radar System

Similar Documents

Publication Publication Date Title
JP7374098B2 (en) Information processing device, information processing method, computer program, information processing system, and mobile device
US20230230368A1 (en) Information processing apparatus, information processing method, and program
WO2023153083A1 (en) Information processing device, information processing method, information processing program, and moving device
US20240069564A1 (en) Information processing device, information processing method, program, and mobile apparatus
WO2022004423A1 (en) Information processing device, information processing method, and program
WO2023021756A1 (en) Information processing system, information processing device, and information processing method
US20240019539A1 (en) Information processing device, information processing method, and information processing system
WO2022239348A1 (en) Radar device, signal processing method, and program
US20240012108A1 (en) Information processing apparatus, information processing method, and program
WO2023074419A1 (en) Information processing device, information processing method, and information processing system
WO2023063145A1 (en) Information processing device, information processing method, and information processing program
WO2024024471A1 (en) Information processing device, information processing method, and information processing system
WO2023145460A1 (en) Vibration detection system and vibration detection method
WO2023149076A1 (en) Speed detection device, information processing device, and information processing method
WO2023162497A1 (en) Image-processing device, image-processing method, and image-processing program
WO2023054090A1 (en) Recognition processing device, recognition processing method, and recognition processing system
US20230267746A1 (en) Information processing device, information processing method, and program
WO2022264512A1 (en) Light source control device, light source control method, and range-finding device
WO2023084910A1 (en) Speed detection device, information processing device, and information processing method
WO2023149089A1 (en) Learning device, learning method, and learning program
WO2022264511A1 (en) Distance measurement device and distance measurement method
US20230206596A1 (en) Information processing device, information processing method, and program
WO2023068116A1 (en) On-vehicle communication device, terminal device, communication method, information processing method, and communication system
WO2023079881A1 (en) Information processing device, information processing method, and program
US20220172484A1 (en) Information processing method, program, and information processing apparatus

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22858081

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE