JP2023128778A - Information processing device, control method, program and storage medium - Google Patents

Information processing device, control method, program and storage medium Download PDF

Info

Publication number
JP2023128778A
JP2023128778A JP2022033366A JP2022033366A JP2023128778A JP 2023128778 A JP2023128778 A JP 2023128778A JP 2022033366 A JP2022033366 A JP 2022033366A JP 2022033366 A JP2022033366 A JP 2022033366A JP 2023128778 A JP2023128778 A JP 2023128778A
Authority
JP
Japan
Prior art keywords
height
position information
estimating
information
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022033366A
Other languages
Japanese (ja)
Inventor
誠 倉橋
Makoto Kurahashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Pioneer Smart Sensing Innovations Corp
Original Assignee
Pioneer Electronic Corp
Pioneer Smart Sensing Innovations Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp, Pioneer Smart Sensing Innovations Corp filed Critical Pioneer Electronic Corp
Priority to JP2022033366A priority Critical patent/JP2023128778A/en
Publication of JP2023128778A publication Critical patent/JP2023128778A/en
Pending legal-status Critical Current

Links

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

To suitably estimate the height of a reference surface.SOLUTION: A controller 13 of an information processing device 1 mainly includes acquisition means, measurement means, and estimation means. The acquisition means acquires measurement data outputted by a measurement device. The measurement means acquires position information including a height direction of an object existing within a visual field range of the measurement device on the basis of the measurement data. The estimation means estimates the height of a reference surface within the visual field range on the basis of the position information.SELECTED DRAWING: Figure 6

Description

本開示は、計測したデータの処理に関する。 The present disclosure relates to processing of measured data.

従来から、被検出空間にレーザ光のパルスを照射し、その反射光のレベルに基づいて、被検出空間内の対象物を検出するレーザレーダ装置が知られている。例えば、特許文献1には、繰り返し出射される光パルスの出射方向(走査方向)を適切に制御することにより周辺空間を走査し、その戻り光を観測することにより、周辺に存在する物体に関する情報である距離、反射率などの情報を表す点群データを生成するライダが開示されている。また、特許文献2には、点群データに基づき、物体を囲む物体枠を検出し、時系列での物体枠の対応付けにより物体の追跡処理を行う技術が開示されている。また、特許文献3には、背景データを取得する際に距離値が得られなかった位置について仮想的な地面を想定し、背景データを補間する技術が開示されている。 2. Description of the Related Art Conventionally, a laser radar device has been known that irradiates a detection space with a pulse of laser light and detects an object within the detection space based on the level of the reflected light. For example, Patent Document 1 discloses that by appropriately controlling the emission direction (scanning direction) of repeatedly emitted light pulses, the surrounding space is scanned, and by observing the returned light, information about objects existing in the surroundings is obtained. A lidar is disclosed that generates point cloud data representing information such as distance and reflectance. Further, Patent Document 2 discloses a technology that detects an object frame surrounding an object based on point cloud data and performs tracking processing of the object by associating the object frames in time series. Further, Patent Document 3 discloses a technique for interpolating background data by assuming a virtual ground for a position for which a distance value is not obtained when acquiring background data.

特開2018-009831号公報JP2018-009831A 特開2020-042800号公報JP2020-042800A 特開2019-045199号公報JP 2019-045199 Publication

ライダなどの計測装置を地面などの基準面に向けて設置した場合、基準面の計測データを取得できる範囲が計測装置の近場に限られ、それ以遠の基準面のデータが得られず基準面の高さを把握することができないといった問題があった。 When a measurement device such as a lidar is installed facing a reference surface such as the ground, the range in which measurement data on the reference surface can be obtained is limited to the area near the measurement device, and data on the reference surface beyond that cannot be obtained and the reference surface There was a problem in that it was not possible to determine the height of the

本開示は、上記のような課題を解決するためになされたものであり、基準面の高さを好適に推定することが可能な情報処理装置を提供することを主な目的とする。 The present disclosure has been made to solve the above-mentioned problems, and its main purpose is to provide an information processing device that can suitably estimate the height of a reference plane.

請求項に記載の発明は、
計測装置が出力する計測データを取得する取得手段と、
前記計測データに基づき、前記計測装置の視野範囲内に存在する物体の高さ方向を含む位置情報を取得する計測手段と、
前記位置情報に基づき、前記視野範囲内での基準面の高さを推定する推定手段と、
を備える情報処理装置である。
The claimed invention is:
an acquisition means for acquiring measurement data output by the measurement device;
a measuring means for acquiring positional information including a height direction of an object existing within a visual field of the measuring device based on the measurement data;
Estimating means for estimating the height of the reference plane within the visual field based on the position information;
An information processing device comprising:

また、請求項に記載の発明は、
コンピュータが、
計測装置が出力する計測データを取得し、
前記計測データに基づき、前記計測装置の視野範囲内に存在する物体の高さ方向を含む位置情報を取得し、
前記位置情報に基づき、前記視野範囲内での基準面の高さを推定する、
制御方法である。
In addition, the claimed invention is
The computer is
Obtain the measurement data output by the measurement device,
Based on the measurement data, obtain position information including the height direction of an object existing within the field of view of the measurement device;
estimating the height of the reference plane within the field of view based on the position information;
This is a control method.

また、請求項に記載の発明は、
計測装置が出力する計測データを取得し、
前記計測データに基づき、前記計測装置の視野範囲内に存在する物体の高さ方向を含む位置情報を取得し、
前記位置情報に基づき、前記視野範囲内での基準面の高さを推定する処理をコンピュータに実行させるプログラムである。
In addition, the claimed invention is
Obtain the measurement data output by the measurement device,
Based on the measurement data, obtain position information including the height direction of an object existing within the field of view of the measurement device;
This is a program that causes a computer to execute a process of estimating the height of a reference plane within the field of view based on the position information.

実施例に係るライダユニットの概略構成である。1 is a schematic configuration of a rider unit according to an embodiment. 道路上の車両を計測するライダの設置例を示す。An example of installing lidar to measure vehicles on the road is shown. 情報処理装置のハードウェア構成の一例を示すブロック構成図である。1 is a block configuration diagram showing an example of a hardware configuration of an information processing device. FIG. 視野範囲を真上から見た2次元空間上において、仮想的に設定したグリッドと、追跡物体の移動軌跡とを示している。A virtually set grid and a moving trajectory of a tracked object are shown in a two-dimensional space viewed from directly above the field of view. あるグリッドマスに対する下端高ヒストグラムを示す。Shows the bottom height histogram for a certain grid mass. 情報処理装置の処理手順を示すフローチャートの一例である。It is an example of a flowchart showing a processing procedure of an information processing device.

本発明の好適な実施形態によれば、情報処理装置は、計測装置が出力する計測データを取得する取得手段と、前記計測データに基づき、前記計測装置の視野範囲内に存在する物体の高さ方向を含む位置情報を取得する計測手段と、前記位置情報に基づき、前記視野範囲内での基準面の高さを推定する推定手段と、を備える。情報処理装置は、この態様により、計測装置の視野範囲内での基準面の高さを的確に推定することができる。 According to a preferred embodiment of the present invention, the information processing device includes an acquisition unit that acquires measurement data output from a measurement device, and a height of an object existing within a field of view of the measurement device based on the measurement data. The apparatus includes a measuring means for acquiring positional information including a direction, and an estimating means for estimating the height of the reference plane within the visual field based on the positional information. With this aspect, the information processing device can accurately estimate the height of the reference plane within the field of view of the measuring device.

上記情報処理装置の一態様では、前記計測手段は、前記物体の下端位置を示す前記位置情報を取得し、前記推定手段は、前記位置情報が示す前記下端位置の高さに基づき、前記基準面の高さを推定する。この態様によれば、情報処理装置は、計測した物体の下端位置の高さに基づいて基準面の高さを的確に推定することができる。 In one aspect of the information processing device, the measuring means acquires the positional information indicating the lower end position of the object, and the estimating means calculates the height of the lower end position from the reference surface based on the height of the lower end position indicated by the positional information. Estimate the height of. According to this aspect, the information processing device can accurately estimate the height of the reference plane based on the measured height of the lower end position of the object.

上記情報処理装置の他の一態様では、前記計測手段は、複数の前記物体に対する前記位置情報を取得し、前記推定手段は、前記視野範囲内において水平面上の仮想的なグリッドを設定し、前記グリッドのマスごとに振り分けた前記位置情報に基づき、前記マスごとに前記基準面の高さを推定する。この態様により、情報処理装置は、通過した物体の位置情報に基づいて通過位置での基準面の高さを的確に推定することができる。 In another aspect of the information processing device, the measuring means acquires the position information for the plurality of objects, and the estimating means sets a virtual grid on a horizontal plane within the field of view, and the estimating means sets a virtual grid on a horizontal plane within the field of view, and The height of the reference plane is estimated for each grid based on the position information distributed to each grid grid. With this aspect, the information processing device can accurately estimate the height of the reference plane at the passing position based on the position information of the passing object.

上記情報処理装置の他の一態様では、前記推定手段は、前記マスごとに前記位置情報が示す前記高さ方向の位置を集計したヒストグラムを生成し、当該ヒストグラムにおける前記高さ方向の位置の最低値又は最頻値の少なくとも一方に基づき、前記マスごとに前記基準面の高さを推定する。この態様により、情報処理装置は、マスごとの基準面の高さを的確に推定することができる。 In another aspect of the information processing device, the estimation means generates a histogram in which the positions in the height direction indicated by the position information are aggregated for each square, and the lowest position in the height direction in the histogram. The height of the reference plane is estimated for each square based on at least one of the value and the mode. With this aspect, the information processing device can accurately estimate the height of the reference plane for each square.

上記情報処理装置の他の一態様では、前記計測手段は、前記物体の追跡を行い、追跡した前記物体の時系列での前記位置情報を生成する。好適な例では、前記推定手段は、前記追跡を行った時間長に基づき、前記基準面の高さの推定に用いる前記位置情報を選定する。この態様により、情報処理装置は、追跡した物体の位置情報に基づいて、基準面の高さを的確に推定することができる。 In another aspect of the information processing device, the measuring means tracks the object and generates the position information of the tracked object in time series. In a preferred example, the estimating means selects the position information to be used for estimating the height of the reference plane based on the length of time during which the tracking was performed. With this aspect, the information processing device can accurately estimate the height of the reference plane based on the position information of the tracked object.

上記情報処理装置の他の一態様では、前記推定手段は、前記物体の種類に基づき、前記基準面の高さの推定に用いる前記位置情報を選定する。この態様により、情報処理装置は、安定的に計測される傾向がある物体の位置情報を選定し、基準面の高さを的確に推定することができる。 In another aspect of the information processing device, the estimating means selects the position information to be used for estimating the height of the reference plane based on the type of the object. With this aspect, the information processing device can select position information of an object that tends to be measured stably and accurately estimate the height of the reference plane.

上記情報処理装置の他の一態様では、前記推定手段は、前記物体を遮る他物体の存否に基づき、前記物体の前記位置情報を前記基準面の高さの推定に用いるか否か決定する。この態様により、情報処理装置は、他の物体による遮蔽なく計測された物体の位置情報に基づき、基準面の高さを的確に推定することができる。 In another aspect of the information processing device, the estimating means determines whether or not the position information of the object is used to estimate the height of the reference plane based on the presence or absence of another object that blocks the object. With this aspect, the information processing device can accurately estimate the height of the reference plane based on the position information of the object measured without being blocked by other objects.

上記情報処理装置の他の一態様では、前記計測手段は、前記物体のモデル情報に基づき、前記物体を表す前記計測データを補間し、補間後の前記物体のデータに基づき、前記位置情報を生成する。この態様により、情報処理装置は、他の物体により遮蔽されて計測された物体についても正確な位置情報を生成し、基準面の高さを的確に推定することができる。 In another aspect of the information processing device, the measuring means interpolates the measurement data representing the object based on model information of the object, and generates the position information based on the interpolated data of the object. do. With this aspect, the information processing device can generate accurate position information even for objects that are measured while being blocked by other objects, and can accurately estimate the height of the reference plane.

本発明の他の好適な実施形態によれば、コンピュータが実行する制御方法であって、コンピュータが、計測装置が出力する計測データを取得し、前記計測データに基づき、前記計測装置の視野範囲内に存在する物体の高さ方向を含む位置情報を取得し、前記位置情報に基づき、前記視野範囲内での基準面の高さを推定する。コンピュータは、この制御方法を実行することで、計測装置の視野範囲内での基準面の高さを的確に推定することができる。 According to another preferred embodiment of the present invention, there is provided a control method executed by a computer, in which the computer acquires measurement data output from a measurement device, and based on the measurement data, determines whether the measurement data is within the field of view of the measurement device. positional information including a height direction of an object existing in the field of view is acquired, and the height of the reference plane within the field of view is estimated based on the positional information. By executing this control method, the computer can accurately estimate the height of the reference plane within the visual field of the measuring device.

本発明の他の好適な実施形態によれば、計測装置が出力する計測データを取得し、前記計測データに基づき、前記計測装置の視野範囲内に存在する物体の高さ方向を含む位置情報を取得し、前記位置情報に基づき、前記視野範囲内での基準面の高さを推定する処理をコンピュータに実行させるプログラムである。コンピュータは、このプログラムを実行することで、計測装置の視野範囲内での基準面の高さを的確に推定することができる。好適には、上記プログラムは、記憶媒体に記憶される。 According to another preferred embodiment of the present invention, measurement data output by a measurement device is acquired, and based on the measurement data, position information including the height direction of an object existing within the field of view of the measurement device is obtained. This is a program that causes a computer to execute a process of estimating the height of a reference plane within the field of view based on the acquired position information. By executing this program, the computer can accurately estimate the height of the reference plane within the field of view of the measuring device. Preferably, the program is stored on a storage medium.

以下、図面を参照して本発明の好適な実施例について説明する。 Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.

(1)ライダユニットの概要
図1は、実施例に係るライダユニット100の概略構成である。ライダユニット100は、センサ群2が生成するデータに関する処理を行う情報処理装置1と、ライダ(Lidar:Light Detection and Ranging、または、Laser Illuminated Detection And Ranging)3を少なくとも含むセンサ群2と、を有する。ライダユニット100は、屋内又は屋外において設置され、時系列での物体の追跡結果に基づき地面の高さ(「地面高」とも呼ぶ。)を正確に推定する。図2は、ライダ3の設置例を示す。図2に示すライダ3は、ライダ3が測距可能な範囲である視野範囲「Rv」を有し、視野範囲Rv内に存在する物体(図2では車両と歩行者)を時系列において計測する。
(1) Overview of lidar unit
FIG. 1 shows a schematic configuration of a rider unit 100 according to an embodiment. The lidar unit 100 includes an information processing device 1 that performs processing related to data generated by the sensor group 2, and a sensor group 2 that includes at least a lidar (Light Detection and Ranging or Laser Illuminated Detection and Ranging) 3. . The lidar unit 100 is installed indoors or outdoors, and accurately estimates the height of the ground (also referred to as "ground height") based on the results of tracking objects in time series. FIG. 2 shows an example of how the rider 3 is installed. The lidar 3 shown in FIG. 2 has a viewing range "Rv" which is a range in which the lidar 3 can measure distances, and measures objects (vehicles and pedestrians in FIG. 2) existing within the viewing range Rv in chronological order. .

情報処理装置1は、センサ群2と有線又は無線により電気的に接続し、センサ群2に含まれる各種センサが出力するデータの処理を行う。本実施例では、情報処理装置1は、ライダ3が出力する点群データに基づき、物体を追跡する処理及び追跡結果に基づく地面高の推定処理を行う。情報処理装置1は、例えば、ライダ3と共に収容体に収容された状態で固定設置される。なお、情報処理装置1は、ライダ3の電子制御装置としてライダ3と一体になって設けられてもよく、ライダ3とデータ通信可能であってライダ3と離れた位置に設けられてもよい。 The information processing device 1 is electrically connected to the sensor group 2 by wire or wirelessly, and processes data output by various sensors included in the sensor group 2. In this embodiment, the information processing device 1 performs a process of tracking an object based on point cloud data output by the lidar 3 and a process of estimating the ground height based on the tracking result. The information processing device 1 is fixedly installed, for example, in a state where it is housed in a housing together with the rider 3. Note that the information processing device 1 may be provided integrally with the rider 3 as an electronic control device for the rider 3, or may be provided at a position remote from the rider 3 while being capable of data communication with the rider 3.

ライダ3は、水平方向および垂直方向の所定の角度範囲に対して角度を変えながら赤外線レーザであるパルスレーザを出射することで、外界に存在する物体までの距離を離散的に計測する。この場合、ライダ3は、照射方向(即ち走査方向)を変えながらレーザ光を照射する照射部と、照射したレーザ光の反射光(散乱光)を受光する受光部と、受光部が出力する受光信号に基づくデータを出力する出力部とを有する。そして、ライダ3は、ライダ3を基準点として、パルスレーザが照射された物体までの距離(計測距離)及び反射光の受光強度(反射強度値)を計測方向(即ちパルスレーザの出射方向)ごとに示した点群データを生成する。この場合、ライダ3は、パルスレーザを出射してから受光部が反射光を検出するまでの時間を、光の飛行時間(Time of Flight)として算出し、算出した飛行時間に応じた計測距離を求める。以後では、視野範囲Rv全体への1回分の計測により得られる点群データを、1フレーム分の点群データとする。 The lidar 3 discretely measures the distance to an object in the outside world by emitting a pulsed laser, which is an infrared laser, while changing the angle within a predetermined angular range in the horizontal and vertical directions. In this case, the lidar 3 includes an irradiation section that irradiates laser light while changing the irradiation direction (i.e., scanning direction), a light receiving section that receives reflected light (scattered light) of the irradiated laser light, and a light receiving section that receives the light output from the light receiving section. and an output section that outputs data based on the signal. Then, using the lidar 3 as a reference point, the lidar 3 measures the distance to the object irradiated with the pulsed laser (measurement distance) and the received intensity of the reflected light (reflection intensity value) for each measurement direction (that is, the emission direction of the pulsed laser). Generate the point cloud data shown in . In this case, the lidar 3 calculates the time from when the pulse laser is emitted until the light receiving unit detects the reflected light as the time of flight of light, and calculates the measured distance according to the calculated flight time. demand. Hereinafter, point cloud data obtained by one measurement over the entire viewing range Rv will be referred to as point cloud data for one frame.

ここで、点群データは、各計測方向を画素とし、各計測方向での計測距離及び反射強度値を画素値とする画像とみなすことができる。この場合、画素の縦方向の並びにおいて仰俯角におけるパルスレーザの出射方向が異なり、画素の横方向の並びにおいて水平角におけるパルスレーザの出射方向が異なる。そして、各画素に対し、対応する出射方向及び計測距離の組に基づき、ライダ3を基準とする3次元座標系での座標値が求められる。以後では、この座標値を(x,y,z)と表記し、x座標及びy座標の組が水平方向の位置を表し、z座標が高さ方向の位置を表すものとする。 Here, the point cloud data can be regarded as an image in which each measurement direction is a pixel, and the measurement distance and reflection intensity value in each measurement direction are pixel values. In this case, the emission direction of the pulsed laser at the elevation/depression angle differs in the vertical arrangement of the pixels, and the emission direction of the pulsed laser at the horizontal angle differs in the horizontal arrangement of the pixels. Then, for each pixel, a coordinate value in a three-dimensional coordinate system with the lidar 3 as a reference is determined based on the corresponding pair of emission direction and measurement distance. Hereinafter, these coordinate values will be expressed as (x, y, z), where the set of x and y coordinates represents the position in the horizontal direction, and the z coordinate represents the position in the height direction.

なお、ライダ3は、上述したスキャン型のライダに限らず、2次元アレイ状のセンサの視野にレーザ光を拡散照射することによって3次元データを生成するフラッシュ型のライダであってもよい。以後では、照射部から出射されたパルスレーザが照射されることにより計測された点(及びその計測データ)を、「被計測点」とも呼ぶ。ライダ3は、本発明における「計測装置」の一例である。 Note that the lidar 3 is not limited to the above-mentioned scan type lidar, but may be a flash type lidar that generates three-dimensional data by diffusing laser light into the field of view of a two-dimensional array of sensors. Hereinafter, the point measured by being irradiated with the pulsed laser emitted from the irradiation unit (and its measurement data) will also be referred to as a "point to be measured." The rider 3 is an example of a "measuring device" in the present invention.

センサ群2には、ライダ3に加え、種々の外界センサ又は/及び内界センサが含まれてもよい。例えば、センサ群2は、位置情報の生成に必要なGNSS(Global Navigation Satellite System)受信機等を含んでもよい。 In addition to the rider 3, the sensor group 2 may include various external sensors and/or internal sensors. For example, the sensor group 2 may include a GNSS (Global Navigation Satellite System) receiver, etc. necessary for generating position information.

(2)情報処理装置の構成
図3は、情報処理装置1のハードウェア構成の一例を示すブロック図である。情報処理装置1は、主に、インターフェース11と、メモリ12と、コントローラ13と、を有する。これらの各要素は、バスラインを介して相互に接続されている。
(2) Configuration of information processing device
FIG. 3 is a block diagram showing an example of the hardware configuration of the information processing device 1. As shown in FIG. The information processing device 1 mainly includes an interface 11, a memory 12, and a controller 13. Each of these elements is interconnected via a bus line.

インターフェース11は、情報処理装置1と外部装置とのデータの授受に関するインターフェース動作を行う。本実施例では、インターフェース11は、ライダ3などのセンサ群2から出力データを取得し、コントローラ13へ供給する。インターフェース11は、無線通信を行うためのネットワークアダプタなどのワイヤレスインターフェースであってもよく、ケーブル等により外部装置と接続するためのハードウェアインターフェースであってもよい。また、インターフェース11は、入力装置、表示装置、音出力装置等の種々の周辺装置とのインターフェース動作を行ってもよい。 The interface 11 performs interface operations related to data exchange between the information processing device 1 and external devices. In this embodiment, the interface 11 acquires output data from the sensor group 2 such as the rider 3 and supplies it to the controller 13. The interface 11 may be a wireless interface such as a network adapter for wireless communication, or may be a hardware interface for connecting to an external device via a cable or the like. Further, the interface 11 may perform interface operations with various peripheral devices such as an input device, a display device, and a sound output device.

メモリ12は、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスクドライブ、フラッシュメモリなどの各種の揮発性メモリ及び不揮発性メモリにより構成される。メモリ12は、コントローラ13が所定の処理を実行するためのプログラムが記憶される。なお、コントローラ13が実行するプログラムは、メモリ12以外の記憶媒体に記憶されてもよい。 The memory 12 includes various types of volatile memory and nonvolatile memory, such as RAM (Random Access Memory), ROM (Read Only Memory), hard disk drive, and flash memory. The memory 12 stores programs for the controller 13 to execute predetermined processes. Note that the program executed by the controller 13 may be stored in a storage medium other than the memory 12.

また、メモリ12は、コントローラ13が所定の処理を実行するために必要な情報を記憶する。例えば、本実施例において、メモリ12は、追跡履歴情報ITRを記憶している。追跡履歴情報ITRは、物体の追跡結果の履歴を示す情報であり、フレーム周期ごとに更新される。例えば、追跡履歴情報ITRには、追跡対象となった物体(「追跡物体」とも呼ぶ。)の検出時刻を示す時刻情報と、追跡物体の識別情報(「追跡物体ID」とも呼ぶ。)と、追跡物体の分類(クラス)情報と、追跡物体の検出位置を示す位置情報と、を含むレコードが記録されている。ここで、異なる処理時刻において同一の追跡物体が存在する場合には、追跡物体は同一の追跡物体IDにより管理される。また、上述の位置情報には、追跡物体の下端位置の座標情報(即ち、下端位置を示すx、y、zの各座標値)が少なくとも含まれている。 Furthermore, the memory 12 stores information necessary for the controller 13 to execute predetermined processing. For example, in this embodiment, the memory 12 stores tracking history information ITR. The tracking history information ITR is information indicating the history of object tracking results, and is updated every frame period. For example, the tracking history information ITR includes time information indicating the detection time of an object to be tracked (also called a "tracked object"), identification information of the tracked object (also called a "tracked object ID"), A record is recorded that includes classification (class) information of the tracked object and position information indicating the detected position of the tracked object. Here, if the same tracked object exists at different processing times, the tracked objects are managed by the same tracked object ID. Further, the above-mentioned position information includes at least coordinate information of the lower end position of the tracked object (that is, x, y, and z coordinate values indicating the lower end position).

その他、メモリ12には、物体追跡処理及び地面高推定処理に必要な任意の情報が含まれてもよい。例えば、メモリ12には、追跡物体となり得る物体のモデルを示す物体モデル情報が含まれてもよい。一般に、他の物体による遮蔽(オクルージョン)等に起因して物体の一部しかライダ3により検出されない場合がある。この場合、コントローラ13は、物体モデル情報に基づきライダ3が出力する追跡物体の点群データを補間することで、追跡物体の全体領域を表すデータを生成し、生成した全体領域を表すデータに基づき、追跡物体の下端位置を示す検出位置情報を生成する。 In addition, the memory 12 may include any information necessary for object tracking processing and ground height estimation processing. For example, memory 12 may include object model information indicating a model of an object that can be a tracked object. Generally, there are cases where only a portion of an object is detected by the lidar 3 due to occlusion by other objects. In this case, the controller 13 generates data representing the entire area of the tracking object by interpolating the point cloud data of the tracking object output by the lidar 3 based on the object model information, and based on the data representing the generated overall area. , generates detected position information indicating the lower end position of the tracked object.

コントローラ13は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、TPU(Tensor Processing Unit)などの1又は複数のプロセッサを含み、情報処理装置1の全体を制御する。この場合、コントローラ13は、メモリ12等に記憶されたプログラムを実行することで、後述する種々の処理を実行する。コントローラ13は、機能的には、セグメント検出部15と、追跡部16と、地面高推定部17と、を有する。 The controller 13 includes one or more processors such as a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and a TPU (Tensor Processing Unit), and controls the entire information processing device 1 . In this case, the controller 13 executes various processes described below by executing programs stored in the memory 12 and the like. Functionally, the controller 13 includes a segment detection section 15, a tracking section 16, and a ground height estimating section 17.

セグメント検出部15は、現処理時刻に対応するフレーム周期において生成された点群データから、互いに隣接するデータのまとまり(「セグメント」とも呼ぶ。)を抽出し、抽出したセグメントから物体を表すと推定されるセグメント(「物体セグメント」とも呼ぶ。)を検出する。 The segment detection unit 15 extracts groups of mutually adjacent data (also referred to as "segments") from the point cloud data generated in the frame period corresponding to the current processing time, and estimates that the extracted segments represent an object. (also referred to as "object segment").

この場合、セグメント検出部15は、例えば、ユーグリッド距離クラスタリングなどの任意のクラスタリング技術に基づき点群データから特定される被計測点のクラスタを、物体セグメントとして抽出する。そして、セグメント検出部15は、抽出した物体セグメントの各々の分類を行うことで、抽出した物体セグメントの各々のクラスを決定する。ここでのクラスは、例えば、車両(自転車を含む)、歩行者、標識などの、ライダ3により検出される可能性がある物体の種類である。この場合、セグメント検出部15は、例えば、セグメントの大きさ又は/及び形状に基づき、上述の分類を行う。この場合、クラスごとの大きさ又は/及び形状に関する事前情報が予めメモリ12等に記憶されており、セグメント検出部15は、当該事前情報を参照することで、各物体セグメントの大きさ又は/及び形状に基づく分類を行う。なお、セグメント検出部15は、深層学習(ニューラルネットワーク)に基づき学習された物体検出モデルを用いて物体セグメントの検出及び分類を行ってもよい。この場合、物体検出モデルは、例えば、インスタンスセグメンテーションに基づくモデルであり、所定のテンソル形式により表された点群データが入力された場合に、物体セグメントの検出結果及び分類されたクラスを出力するように予め学習される。 In this case, the segment detection unit 15 extracts, as an object segment, a cluster of measured points specified from the point cloud data based on an arbitrary clustering technique such as Eugridian distance clustering. Then, the segment detection unit 15 determines the class of each extracted object segment by classifying each of the extracted object segments. The classes here are the types of objects that may be detected by the rider 3, such as vehicles (including bicycles), pedestrians, and signs. In this case, the segment detection unit 15 performs the above-mentioned classification based on, for example, the size and/or shape of the segments. In this case, prior information regarding the size and/or shape of each class is stored in advance in the memory 12 or the like, and the segment detection unit 15 determines the size and/or shape of each object segment by referring to the prior information. Performs classification based on shape. Note that the segment detection unit 15 may detect and classify object segments using an object detection model learned based on deep learning (neural network). In this case, the object detection model is, for example, a model based on instance segmentation, which outputs object segment detection results and classified classes when point cloud data expressed in a predetermined tensor format is input. is learned in advance.

追跡部16は、時系列の物体セグメントに基づき、物体追跡を行う。この場合、追跡部16は、時系列の物体セグメントと任意の物体追跡(トラッキング)モデルとを用い、連続するフレーム周期において検出された物体セグメントが同一の物体を表すか否かの判定等を行う。具体的には、追跡部16は、過去の処理時刻に検出された追跡物体と現処理時刻に検出された物体セグメントが表す物体とが同一物であるか否かを、分類の同一性、及び、過去の検出位置から物体追跡モデルにより予測された追跡物体の予測位置と現処理時刻での物体セグメントに基づく検出位置との誤差等に基づき判定する。なお、物体追跡モデルは、カルマンフィルタに基づくモデルであってもよく、深層学習に基づくモデルであってもよい。この場合、追跡部16は、物体セグメントから代表点を決定し、代表点を基にトラッキングを行ってもよい。この場合の代表点は、物体セグメントの重心位置であってもよく、物体の特定部分に対応する被計測点であってもよい。他の例では、追跡部16は、物体セグメントに対してバウンディングボックスを設定し、バウンディングボックスを基にトラッキングを行ってもよい。 The tracking unit 16 performs object tracking based on time-series object segments. In this case, the tracking unit 16 uses time-series object segments and an arbitrary object tracking model to determine whether or not object segments detected in consecutive frame periods represent the same object. . Specifically, the tracking unit 16 determines whether the tracked object detected at the past processing time and the object represented by the object segment detected at the current processing time are the same object based on the sameness of classification and , the determination is made based on the error between the predicted position of the tracked object predicted by the object tracking model from the past detected position and the detected position based on the object segment at the current processing time. Note that the object tracking model may be a model based on a Kalman filter or may be a model based on deep learning. In this case, the tracking unit 16 may determine a representative point from the object segment and perform tracking based on the representative point. The representative point in this case may be the center of gravity position of the object segment, or may be a measured point corresponding to a specific part of the object. In another example, the tracking unit 16 may set a bounding box for the object segment and perform tracking based on the bounding box.

また、追跡部16は、フレーム周期ごとの各処理時刻での追跡結果に基づき追跡履歴情報ITRを更新する。この場合、追跡部16は、例えば、現処理時刻での点群データにおいて検出された物体セグメントごとに、時刻情報と、追跡物体IDと、分類(クラス)情報と、位置情報と、を含むレコードを追跡履歴情報ITRに追加する。この場合、追跡部16は、時系列において追跡が成功した追跡物体(即ち、過去時刻に検出した追跡物体と同一であるとみなした追跡物体)の追跡物体IDを、時系列において同一のIDに定める。なお、追跡履歴情報ITRのレコードは、処理時刻ごとに生成される代わりに、追跡物体ごとに1つのレコードが生成されてもよい。この場合、追跡履歴情報ITRのレコードには、追跡物体の位置(下端位置を含む)を示す時系列データが位置情報として含まれる。 Further, the tracking unit 16 updates the tracking history information ITR based on the tracking results at each processing time for each frame period. In this case, the tracking unit 16 creates a record including, for example, time information, a tracked object ID, classification (class) information, and position information for each object segment detected in the point cloud data at the current processing time. is added to the tracking history information ITR. In this case, the tracking unit 16 changes the tracked object ID of the tracked object that was successfully tracked in the time series (that is, the tracked object deemed to be the same as the tracked object detected at a past time) to the same ID in the time series. stipulate. Note that instead of generating a record of the tracking history information ITR for each processing time, one record may be generated for each tracked object. In this case, the record of the tracking history information ITR includes time-series data indicating the position of the tracked object (including the lower end position) as position information.

地面高推定部17は、地面高を推定するタイミングとなった場合に、追跡履歴情報ITRに基づき、視野範囲Rv内での地面高を推定する。この場合、地面高推定部17は、視野範囲Rvを真上から見た2次元空間とみなし、当該2次元空間を各次元において所定間隔ごとにメッシュした仮想的なグリッドを定義する。そして、地面高推定部17は、グリッドのマス(「グリッドマス」とも呼ぶ。)ごとに、追跡履歴情報ITRに基づく追跡物体の下限位置の高さを集計したヒストグラムを生成し、当該ヒストグラムに基づきグリッドマスごとに地面高を推定する。地面高推定部17の処理の詳細については後述する。 The ground height estimating unit 17 estimates the ground height within the visual field Rv based on the tracking history information ITR when it is time to estimate the ground height. In this case, the ground height estimating unit 17 regards the viewing range Rv as a two-dimensional space viewed from directly above, and defines a virtual grid in which the two-dimensional space is meshed at predetermined intervals in each dimension. Then, the ground height estimating unit 17 generates a histogram that totals the height of the lower limit position of the tracked object based on the tracking history information ITR for each square of the grid (also referred to as "grid mass"), and based on the histogram. Estimate the ground height for each grid mass. Details of the processing by the ground height estimation unit 17 will be described later.

そして、コントローラ13は、「取得手段」、「計測手段」、「推定手段」及びプログラムを実行するコンピュータ等として機能する。 The controller 13 functions as an "obtaining means", "measuring means", "estimating means", a computer that executes a program, and the like.

なお、コントローラ13が実行する処理は、プログラムによるソフトウェアで実現することに限ることなく、ハードウェア、ファームウェア、及びソフトウェアのうちのいずれかの組み合わせ等により実現してもよい。また、コントローラ13が実行する処理は、例えばFPGA(Field-Programmable Gate Array)又はマイコン等の、ユーザがプログラミング可能な集積回路を用いて実現してもよい。この場合、この集積回路を用いて、コントローラ13が本実施例において実行するプログラムを実現してもよい。 Note that the processing executed by the controller 13 is not limited to being implemented by software based on a program, but may be implemented by a combination of hardware, firmware, and software. Further, the processing executed by the controller 13 may be realized using a user-programmable integrated circuit such as an FPGA (Field-Programmable Gate Array) or a microcomputer. In this case, this integrated circuit may be used to realize the program that the controller 13 executes in this embodiment.

(3)地面高の推定
次に、地面高推定部17による地面高の推定方法について具体的に説明する。
(3) Estimation of ground height
Next, a method for estimating the ground height by the ground height estimating section 17 will be specifically explained.

図4は、視野範囲Rvを真上から見た2次元空間上において、仮想的に設定したグリッドと、追跡物体の処理時刻ごとの通過位置とを示している。図4では、ある一つの追跡物体が通過したと判定されるグリッドマスを塗りつぶしている。ここで、2次元空間は、x座標及びy座標から構成される空間となる。 FIG. 4 shows a virtually set grid and the passing position of the tracked object at each processing time in a two-dimensional space viewed from directly above the visual field Rv. In FIG. 4, grid cells that are determined to have been passed by a certain tracking object are filled in. Here, the two-dimensional space is a space composed of x and y coordinates.

地面高推定部17は、追跡履歴情報ITRに含まれる位置情報に基づき、追跡部16が追跡した追跡物体が時系列において存在したグリッドマスを認識する。そして、地面高推定部17は、追跡履歴情報ITRの位置情報を、グリッドマスに振り分けて、それぞれヒストグラムに加算する。このヒストグラムは、グリッドマスごとに通過した追跡物体の下端位置の高さ(「下端高」とも呼ぶ。)を集計したヒストグラム(「下端高ヒストグラム」とも呼ぶ。)である。なお、下端高は、z座標に相当する。例えば、図4の例では、塗りつぶされた計6個のグリッドマスについて、図4に示される追跡物体に対応する追跡履歴情報ITRの位置情報が振り分けられ、下端高ヒストグラムに足しこまれる。そして、地面高推定部17は、追跡履歴情報ITRに登録されている全ての追跡物体の各々について、上述の処理を行い、下端高ヒストグラムを更新する。なお、例えば、1m四方のグリッドマスを、歩行者が1秒かけて通過した場合、ライダ3が24fpsの場合には、24個の位置情報が対象のグリッドマスに対応付けられることになる。その場合、24個のデータを下端高ヒストグラムに足しこんでもよく、24個の平均値を下端高ヒストグラムに足しこんでもよい。 The ground height estimating unit 17 recognizes the grid mass in which the tracked object tracked by the tracking unit 16 existed in time series based on the position information included in the tracking history information ITR. Then, the ground height estimating unit 17 distributes the position information of the tracking history information ITR into grid cells and adds them to the histogram. This histogram is a histogram (also called a "lower end height histogram") that is a summation of the heights of the lower end positions of the tracked objects (also called "lower end heights") that have passed for each grid square. Note that the lower end height corresponds to the z coordinate. For example, in the example of FIG. 4, the position information of the tracking history information ITR corresponding to the tracked object shown in FIG. 4 is distributed for a total of six filled-in grid cells, and added to the lower end height histogram. Then, the ground height estimating unit 17 performs the above-described processing for each of all the tracked objects registered in the tracking history information ITR, and updates the lower end height histogram. For example, if a pedestrian passes through a 1 m square grid mass in 1 second, and the rider 3 is running at 24 fps, 24 pieces of position information will be associated with the target grid mass. In that case, 24 pieces of data may be added to the lower end height histogram, or 24 average values may be added to the lower end height histogram.

図5は、追跡履歴情報ITRに基づき生成された、あるグリッドマスに対する下端高ヒストグラムを示す。ここでは、地面高推定部17は、下端高に対して所定幅のビンの幅を設け、対象のグリッドマスを通った追跡物体の下端位置のビン毎の頻度を集計する。 FIG. 5 shows a lower end height histogram for a certain grid mass, which is generated based on the tracking history information ITR. Here, the ground height estimating unit 17 sets a bin width of a predetermined width with respect to the lower end height, and totals the frequency of the lower end position of the tracked object passing through the target grid mass for each bin.

そして、多数の追跡物体の下端高を集計することで、下端高ヒストグラムは、追跡物体の下端高と地面高との関係が反映された分布を表すものとなる。具体的には、最も多くの場合、追跡物体の下端は、地面に接していることから、下端高は、地面高を表す頻度が最も多いと考えられる。一方、追跡物体の他の物体による遮蔽(オクルージョン)により、追跡物体の下端をライダ3が計測できない場合も発生し、このような場合には、下端高は地面高とはならず、地面高よりも高い位置を示すものとなる。また、エラーを除き、地面高よりも低い位置を表す下端高は計測されない。 By summing up the lower end heights of a large number of tracked objects, the lower end height histogram represents a distribution that reflects the relationship between the lower end heights of the tracked objects and the ground height. Specifically, since the lower end of the tracked object is in contact with the ground in most cases, it is thought that the lower end height most frequently represents the ground height. On the other hand, the lidar 3 may not be able to measure the lower end of the tracked object due to occlusion of the tracked object by another object. In such cases, the lower end height will not be the ground height, but will be higher than the ground height. It also indicates a high position. Furthermore, except for errors, the lower end height representing a position lower than the ground level is not measured.

以上を勘案し、地面高推定部17は、下端高ヒストグラムにおける最頻値又は最低値の少なくともいずれかに基づいて、地面高を表す下端高のビンを推定する。図5の例では、下端高「H0」のビン(即ちH0を中央値とするビン)が最頻値かつ最低値となっている。従って、地面高推定部17は、下端高H0が対象のグリッドマスにおける地面高であると推定する。これにより、地面高推定部17は、グリッドマスごとの地面高を高精度に推定することができる。 Taking the above into consideration, the ground height estimating unit 17 estimates the bottom height bin representing the ground height based on at least one of the mode or the lowest value in the bottom height histogram. In the example of FIG. 5, the bin with the lower end height "H0" (that is, the bin with H0 as the median value) is the mode and the lowest value. Therefore, the ground height estimating unit 17 estimates that the lower end height H0 is the ground height in the target grid mass. Thereby, the ground height estimating unit 17 can estimate the ground height for each grid mass with high accuracy.

ここで、本実施例の効果について補足説明する。自動車などの物体は、高さは変化せず、常に地面に接して移動する。また、一般に、ライダ3の点群データから地面点を取得できる範囲よりも遠くまで、検知可能な自動車が多数存在する。また、歩行者は、自動車に比べて、速度が急に変わったり、人同士が接近したりするため、追跡が難しく、しゃがんだり飛び跳ねたりして形状が変化する可能性もある。一方、多数のデータを集めれば、直立して地面に接して移動するケースが多い。以上を勘案し、地面高推定部17は、追跡部16による複数物体の追跡結果に基づき、グリッドマスごとの下端高ヒストグラムを生成し、統計的に地面高を推定する。 Here, the effects of this embodiment will be supplementarily explained. Objects such as cars do not change in height and always move in contact with the ground. In general, there are many vehicles that can be detected farther than the range in which ground points can be acquired from the point cloud data of the lidar 3. Furthermore, compared to cars, pedestrians are difficult to track because their speed changes suddenly and people approach each other, and their shape may change as they crouch or jump. On the other hand, if a large amount of data is collected, there are many cases where the robot stands upright and moves while touching the ground. Taking the above into consideration, the ground height estimating unit 17 generates a lower end height histogram for each grid mass based on the tracking results of the plurality of objects by the tracking unit 16, and statistically estimates the ground height.

ここで、地面高の推定方法に関するバリエーションについて説明する。 Here, variations regarding the ground height estimation method will be explained.

下端高ヒストグラムにおける最低値に基づき地面高を推定する場合、誤差等に対応するため、地面高推定部17は、集計対象となる下端高のうち、最低値となる所定個数分の下端高を除外するとよい。この場合、地面高推定部17は、除外後の下端高における最低値を、地面高であると推定する。 When estimating the ground height based on the lowest value in the lower end height histogram, the ground height estimation unit 17 excludes a predetermined number of lower end heights having the lowest value from among the lower end heights to be aggregated in order to deal with errors etc. It's good to do that. In this case, the ground height estimating unit 17 estimates the lowest value among the lower end heights after exclusion to be the ground height.

また、地面高推定部17は、グリッドマスごとに地面高を推定後、各グリッドマスの推定された地面高について、隣接グリッドマスの推定された地面高との平均値を補正後の地面高とする補正処理を行ってもよい。これにより、平滑化された地面高を取得することができる。 Further, after estimating the ground height for each grid mass, the ground height estimating unit 17 calculates the average value of the estimated ground height of each grid mass with the estimated ground height of the adjacent grid mass as the corrected ground height. Correction processing may also be performed. This makes it possible to obtain a smoothed ground height.

また、地面高推定部17は、下端高ヒストグラムを生成する前処理として、追跡履歴情報ITRに登録された追跡物体ごとに、時系列での位置情報が示す追跡物体の下端位置を時間方向に平均化する(例えば移動平均を算出する)ことで平滑化してもよい。この場合、地面高推定部17は、追跡物体ごとに追跡履歴情報ITRの位置情報を抽出し、抽出した位置情報が示す追跡物体の時系列の下端位置を、移動平均等の統計処理により平滑化し、平滑化後の値に補正する。その後、地面高推定部17は、各追跡物体の平滑化後の下端位置に基づき、追跡物体が通ったグリッドマスの特定と、グリッドマスごとの下端高ヒストグラムの生成及び地面高の推定とを順に行う。 In addition, as pre-processing to generate a lower end height histogram, the ground height estimation unit 17 averages the lower end position of the tracked object indicated by the time series position information in the time direction for each tracked object registered in the tracking history information ITR. It may be smoothed by calculating the moving average (for example, calculating a moving average). In this case, the ground height estimation unit 17 extracts position information from the tracking history information ITR for each tracked object, and smoothes the bottom position of the tracked object in the time series indicated by the extracted position information by statistical processing such as a moving average. , correct to the value after smoothing. Thereafter, the ground height estimation unit 17 sequentially identifies the grid square through which the tracked object passed, generates a bottom height histogram for each grid square, and estimates the ground height based on the smoothed bottom position of each tracked object. conduct.

また、地面高推定部17は、追跡部16による追跡物体の追跡結果に基づいて、地面高の推定に用いる追跡履歴情報ITRの位置情報を選定してもよい。 Further, the ground height estimating unit 17 may select the position information of the tracking history information ITR used for estimating the ground height based on the tracking result of the tracked object by the tracking unit 16.

第1の例では、地面高推定部17は、所定のクラスに属する追跡物体の追跡結果に基づいて、地面高の推定を行う。この場合、地面高推定部17は、追跡履歴情報ITRに含まれる追跡物体の分類情報に基づき、所定のクラス(例えば自動車)に属する追跡物体の位置情報を抽出する。そして、地面高推定部17は、抽出した位置情報からグリッドマスごとの下端高ヒストグラムを生成し、地面高を推定する。一般に、自動車の場合には、安定的追跡が期待できる一方、歩行者については遮蔽等により追跡が安定しないという問題がある。従って、地面高推定部17は、追跡が安定するクラス(例えば自動車)の追跡結果を用いることで、高精度な地面高を推定することが可能となる。 In the first example, the ground height estimation unit 17 estimates the ground height based on the tracking result of a tracked object belonging to a predetermined class. In this case, the ground height estimation unit 17 extracts position information of a tracked object belonging to a predetermined class (for example, a car) based on the classification information of the tracked object included in the tracking history information ITR. Then, the ground height estimating unit 17 generates a lower end height histogram for each grid cell from the extracted position information, and estimates the ground height. Generally, in the case of automobiles, stable tracking can be expected, but there is a problem in that tracking of pedestrians is unstable due to occlusion and the like. Therefore, the ground height estimating unit 17 can estimate the ground height with high accuracy by using the tracking results of a class (for example, a car) in which tracking is stable.

第2の例では、地面高推定部17は、分類情報を用いる代わりに、又はこれに加えて、所定時間長以上追跡できた追跡物体の追跡結果に基づいて、地面高の推定を行ってもよい。この場合、地面高推定部17は、追跡履歴情報ITRに基づき各追跡物体の追跡時間長を算出し、追跡時間長が所定時間長以上となる追跡物体の位置情報を抽出する。そして、地面高推定部17は、抽出した位置情報に基づき、グリッドマスごとの下端高ヒストグラムを生成し、地面高を推定する。これによっても、地面高推定部17は、安定的に追跡できた追跡対象の追跡結果を用いて、高精度な地面高を推定することが可能となる。 In the second example, the ground height estimating unit 17 may estimate the ground height based on the tracking results of the tracked object that has been tracked for a predetermined period of time or more instead of or in addition to using the classification information. good. In this case, the ground height estimation unit 17 calculates the tracking time length of each tracked object based on the tracking history information ITR, and extracts the position information of the tracked object whose tracking time length is equal to or longer than a predetermined time length. Then, the ground height estimating unit 17 generates a lower end height histogram for each grid cell based on the extracted position information, and estimates the ground height. This also allows the ground height estimating unit 17 to estimate the ground height with high accuracy using the tracking results of the tracked object that has been stably tracked.

また、地面高推定部17は、渋滞の道路、人の多い繁華街の歩行者等の場合には、遮蔽対策として、追跡物体の手間に他の物体が存在しない場合の追跡結果に基づいて、地面高の推定を行ってもよい。この場合、例えば、地面高推定部17は、追跡履歴情報ITRに基づき、処理時刻ごとに、追跡物体とライダ3との間における他物体の存否を判定し、他物体が存在しない追跡物体の位置情報を抽出する。そして、地面高推定部17は、抽出した位置情報に基づき、グリッドマスごとの下端高ヒストグラムを生成し、地面高を推定する。 In addition, in the case of a congested road, a pedestrian in a crowded downtown area, etc., the ground height estimating unit 17 uses the following as a shielding measure, based on the tracking results when there are no other objects in the distance of the tracked object. Ground height may also be estimated. In this case, for example, the ground height estimating unit 17 determines the presence or absence of another object between the tracked object and the rider 3 at each processing time based on the tracking history information ITR, and locates the tracked object where no other object exists. Extract information. Then, the ground height estimating unit 17 generates a lower end height histogram for each grid cell based on the extracted position information, and estimates the ground height.

このように、地面高推定部17は、追跡物体を遮る他物体の存否に基づき、追跡物体の追跡結果を地面高の推定に用いるか否か決定する。これによっても、地面高推定部17は、渋滞の道路、人の多い繁華街の歩行者等を追跡物体とする場合においても、遮蔽が発生していない追跡物体の追跡結果を用いて、高精度な地面高を推定することが可能となる。 In this way, the ground height estimating unit 17 determines whether or not the tracking result of the tracked object is used for estimating the ground height, based on the presence or absence of another object that blocks the tracked object. With this, even when the tracked object is a congested road, pedestrians in a crowded downtown area, etc., the ground height estimating unit 17 can use the tracking result of the tracked object that is not occluded to achieve high accuracy. It becomes possible to estimate the ground height.

また、追跡部16は、追跡履歴情報ITRの更新において、物体モデル情報に基づき物体セグメントを補間することで、より正確な追跡物体の下端位置を表す位置情報を生成してもよい。この場合、追跡部16は、対象の物体セグメントの分類(クラス)に対応する物体モデル情報を参照し、当該物体セグメントを物体モデル情報が示す物体モデルにより補間し、追跡物体の全体領域を表すデータを生成する。そして、追跡部16は、当該データに基づき特定される追跡物体の下端位置を表す位置情報を、追跡履歴情報ITRに登録する。これにより、追跡部16は、追跡物体が他物体により遮蔽された場合であっても、追跡物体の正確な下端位置を表す位置情報を生成することが可能となる。 Further, in updating the tracking history information ITR, the tracking unit 16 may generate position information representing a more accurate lower end position of the tracked object by interpolating object segments based on the object model information. In this case, the tracking unit 16 refers to object model information corresponding to the classification (class) of the target object segment, interpolates the object segment with the object model indicated by the object model information, and generates data representing the entire area of the tracked object. generate. Then, the tracking unit 16 registers position information representing the lower end position of the tracked object specified based on the data in the tracking history information ITR. Thereby, the tracking unit 16 can generate position information representing the accurate lower end position of the tracked object even if the tracked object is blocked by another object.

(4)処理フロー
図6は、情報処理装置1が実行する地面高の推定処理の手順を示すフローチャートの一例である。情報処理装置1は、このフローチャートの処理を繰り返し実行する。
(4) Processing flow
FIG. 6 is an example of a flowchart showing the procedure of the ground height estimation process executed by the information processing device 1. The information processing device 1 repeatedly executes the process of this flowchart.

まず、情報処理装置1のコントローラ13は、ライダ3が計測する点群データを、インターフェース11を介して取得する(ステップS11)。そして、コントローラ13は、ステップS11で取得された点群データに基づき、物体セグメントの検出及び各物体セグメントが表す物体の分類を行う(ステップS12)。 First, the controller 13 of the information processing device 1 acquires point cloud data measured by the lidar 3 via the interface 11 (step S11). Then, the controller 13 detects object segments and classifies objects represented by each object segment based on the point cloud data acquired in step S11 (step S12).

次に、コントローラ13は、物体追跡及び追跡履歴情報ITRの更新を行う(ステップS13)。これにより、コントローラ13は、ステップS12で検出した物体セグメントごとに、検出時刻情報と、追跡物体IDと、分類情報と、下端位置を少なくとも示す位置情報と、を含むレコードを生成し、生成したレコードを追跡履歴情報ITRに追加する。 Next, the controller 13 tracks the object and updates the tracking history information ITR (step S13). As a result, the controller 13 generates a record including detection time information, tracked object ID, classification information, and position information indicating at least the bottom position for each object segment detected in step S12, and records the generated record. is added to the tracking history information ITR.

次に、コントローラ13は、地面高の推定タイミングであるか否か判定する(ステップS14)。例えば、コントローラ13は、予め定めた地面高の推定開始条件が満たされたときに、地面高の推定タイミングであると判定する。推定開始条件は、例えば、追跡履歴情報ITRに含まれる位置情報の数が所定数以上であることを定めた条件であってもよく、推定を行う日時を定めた条件であってもよく、インターフェース11等から推定開始要求があった場合に推定を開始することを定めた条件であってもよい。そして、地面高の推定タイミングではない場合(ステップS14;No)、コントローラ13は、ステップS11へ処理を戻し、追跡履歴情報ITRの更新処理を行う。 Next, the controller 13 determines whether it is time to estimate the ground height (step S14). For example, the controller 13 determines that it is time to estimate the ground height when a predetermined ground height estimation start condition is met. The estimation start condition may be, for example, a condition that stipulates that the number of location information included in the tracking history information ITR is greater than or equal to a predetermined number, or may be a condition that stipulates the date and time at which the estimation is to be performed. The condition may be such that estimation is started when there is a request to start estimation from 11 or the like. If it is not the timing to estimate the ground height (step S14; No), the controller 13 returns the process to step S11 and performs the update process of the tracking history information ITR.

一方、地面高の推定タイミングである場合(ステップS14;Yes)、コントローラ13は、追跡履歴情報ITRに基づき、2次元空間のグリッドマスごとの下端高ヒストグラムを生成する(ステップS15)。この場合、例えば、コントローラ13は、上述したように、追跡時間、追跡物体のクラス、手前側の物体の存否等に基づいて、下端高ヒストグラムにおいて集計する追跡履歴情報ITRの位置情報の選定などを行ってもよい。 On the other hand, if it is the timing to estimate the ground height (step S14; Yes), the controller 13 generates a lower end height histogram for each grid mass in the two-dimensional space based on the tracking history information ITR (step S15). In this case, for example, as described above, the controller 13 selects the position information of the tracking history information ITR to be aggregated in the lower end height histogram based on the tracking time, the class of the tracked object, the presence or absence of the object on the near side, etc. You may go.

そして、コントローラ13は、グリッドマスごとに地面高を推定する(ステップS16)。この場合、コントローラ13は、例えば、下端高ヒストグラムの最低値又は最頻値の少なくとも一方に基づき、地面高を表す下端高ヒストグラムのビンを特定する。また、例えば、コントローラ13は、上述したように、隣接するグリッドマスの地面高に基づいて、地面高の平滑化処理などを行ってもよい。 Then, the controller 13 estimates the ground height for each grid mass (step S16). In this case, the controller 13 identifies the bin of the lower end height histogram representing the ground height, for example, based on at least one of the lowest value or the mode of the lower end height histogram. Further, for example, as described above, the controller 13 may perform a ground height smoothing process based on the ground heights of adjacent grid masses.

(5)変形例
情報処理装置1は、地面高を推定する代わりに、人や物の通路となる任意の面(「基準面」とも呼ぶ。)の高さを推定してもよい。
(5) Modification example
Instead of estimating the ground height, the information processing device 1 may estimate the height of an arbitrary surface (also referred to as a "reference surface") that serves as a path for people or objects.

この場合の基準面には、階段、エスカレータ、フロアなどの人工物の表面も含まれる。従って、ライダ3は、屋外に設置されてもよく、屋内に設置されてもよい。そして、情報処理装置1は、ライダ3が生成する点群データに基づき物体の追跡処理を行うことで追跡履歴情報ITRを生成する。そして、情報処理装置1は、基準面の高さの推定タイミングにおいて、追跡履歴情報ITRに基づく水平面上のグリッドマスごとの下端高ヒストグラムを生成し、下端高ヒストグラムの最低値又は最頻値に基づき、基準面の高さをグリッドマスごとに推定する。この態様によっても、情報処理装置1は、ライダ3の視野範囲Rv内の基準面の高さを好適に推定することができる。 The reference plane in this case also includes the surfaces of man-made objects such as stairs, escalators, and floors. Therefore, the rider 3 may be installed outdoors or indoors. Then, the information processing device 1 generates tracking history information ITR by performing object tracking processing based on the point cloud data generated by the lidar 3. Then, at the timing of estimating the height of the reference plane, the information processing device 1 generates a lower end height histogram for each grid mass on the horizontal plane based on the tracking history information ITR, and based on the lowest value or the mode of the lower end height histogram. , estimate the height of the reference plane for each grid mass. With this aspect as well, the information processing device 1 can suitably estimate the height of the reference plane within the visual field Rv of the rider 3.

以上説明したように、本実施例に係る情報処理装置1のコントローラ13は、主に、取得手段と、計測手段と、推定手段と、を備える。取得手段は、計測装置が出力する計測データを取得する。計測手段は、計測データに基づき、計測装置の視野範囲内に存在する物体の高さ方向を含む位置情報を取得する。推定手段は、位置情報に基づき、視野範囲内での基準面の高さを推定する。この態様により、情報処理装置1は、計測装置の視野範囲内の基準面の高さを高精度に推定することができる。 As explained above, the controller 13 of the information processing device 1 according to the present embodiment mainly includes an acquisition means, a measurement means, and an estimation means. The acquisition means acquires measurement data output by the measurement device. The measuring means acquires position information including a height direction of an object existing within a visual field of the measuring device based on the measurement data. The estimating means estimates the height of the reference plane within the visual field based on the position information. With this aspect, the information processing device 1 can estimate the height of the reference plane within the visual field of the measuring device with high accuracy.

なお、上述した実施例において、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(Non-transitory computer readable medium)を用いて格納され、コンピュータであるコントローラ等に供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記憶媒体(Tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記憶媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記憶媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory)を含む。 In the embodiments described above, the program can be stored using various types of non-transitory computer readable media and supplied to a computer, such as a controller. Non-transitory computer-readable media include various types of tangible storage media. Examples of non-transitory computer-readable media include magnetic storage media (eg, flexible disks, magnetic tape, hard disk drives), magneto-optical storage media (eg, magneto-optical disks), CD-ROMs (Read Only Memory), CD-Rs, Includes CD-R/W, semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, and RAM (Random Access Memory).

以上、実施例を参照して本願発明を説明したが、本願発明は上記実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。すなわち、本願発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。また、引用した上記の特許文献及び非特許文献等の各開示は、本書に引用をもって繰り込むものとする。 Although the present invention has been described above with reference to Examples, the present invention is not limited to the above-mentioned Examples. The configuration and details of the present invention can be modified in various ways that can be understood by those skilled in the art within the scope of the present invention. That is, it goes without saying that the present invention includes the entire disclosure including the claims and various modifications and modifications that a person skilled in the art would be able to make in accordance with the technical idea. Furthermore, the disclosures of the cited patent documents, non-patent documents, etc. mentioned above are incorporated into this document by reference.

1 情報処理装置
2 センサ群
3 ライダ
100 ライダユニット
1 Information processing device 2 Sensor group 3 Lidar 100 Lidar unit

Claims (12)

計測装置が出力する計測データを取得する取得手段と、
前記計測データに基づき、前記計測装置の視野範囲内に存在する物体の高さ方向を含む位置情報を取得する計測手段と、
前記位置情報に基づき、前記視野範囲内での基準面の高さを推定する推定手段と、
を備える情報処理装置。
an acquisition means for acquiring measurement data output by the measurement device;
a measuring means for acquiring positional information including a height direction of an object existing within a visual field of the measuring device based on the measurement data;
Estimating means for estimating the height of the reference plane within the visual field based on the position information;
An information processing device comprising:
前記計測手段は、前記物体の下端位置を示す前記位置情報を取得し、
前記推定手段は、前記位置情報が示す前記下端位置の高さに基づき、前記基準面の高さを推定する、請求項1に記載の情報処理装置。
The measuring means acquires the position information indicating the lower end position of the object,
The information processing apparatus according to claim 1, wherein the estimating means estimates the height of the reference plane based on the height of the lower end position indicated by the position information.
前記計測手段は、複数の前記物体に対する前記位置情報を取得し、
前記推定手段は、前記視野範囲内において水平面上の仮想的なグリッドを設定し、前記グリッドのマスごとに振り分けた前記位置情報に基づき、前記マスごとに前記基準面の高さを推定する、請求項1または2に記載の情報処理装置。
The measuring means acquires the position information with respect to the plurality of objects,
The estimating means sets a virtual grid on a horizontal plane within the field of view, and estimates the height of the reference plane for each square based on the position information distributed to each square of the grid. The information processing device according to item 1 or 2.
前記推定手段は、前記マスごとに前記位置情報が示す前記高さ方向の位置を集計したヒストグラムを生成し、当該ヒストグラムにおける前記高さ方向の位置の最低値又は最頻値の少なくとも一方に基づき、前記マスごとに前記基準面の高さを推定する、請求項3に記載の情報処理装置。 The estimating means generates a histogram that aggregates the positions in the height direction indicated by the position information for each square, and based on at least one of the lowest value or the mode of the positions in the height direction in the histogram, The information processing device according to claim 3, wherein the height of the reference plane is estimated for each of the squares. 前記計測手段は、前記物体の追跡を行い、追跡した前記物体の時系列での前記位置情報を生成する、請求項1~4のいずれか一項に記載の情報処理装置。 The information processing device according to claim 1, wherein the measuring means tracks the object and generates the position information of the tracked object in time series. 前記推定手段は、前記追跡を行った時間長に基づき、前記基準面の高さの推定に用いる前記位置情報を選定する、請求項5に記載の情報処理装置。 The information processing apparatus according to claim 5, wherein the estimating means selects the position information to be used for estimating the height of the reference plane based on the length of time during which the tracking was performed. 前記推定手段は、前記物体の種類に基づき、前記基準面の高さの推定に用いる前記位置情報を選定する、請求項1~6のいずれか一項に記載の情報処理装置。 7. The information processing apparatus according to claim 1, wherein the estimating means selects the position information to be used for estimating the height of the reference plane based on the type of the object. 前記推定手段は、前記物体を遮る他物体の存否に基づき、前記物体の前記位置情報を前記基準面の高さの推定に用いるか否か決定する、請求項1~7のいずれか一項に記載の情報処理装置。 According to any one of claims 1 to 7, the estimating means determines whether or not the position information of the object is used to estimate the height of the reference plane based on the presence or absence of another object that blocks the object. The information processing device described. 前記計測手段は、前記物体のモデル情報に基づき、前記物体を表す前記計測データを補間し、補間後の前記物体のデータに基づき、前記位置情報を生成する、請求項1~8のいずれか一項に記載の情報処理装置。 The measuring means interpolates the measurement data representing the object based on model information of the object, and generates the position information based on the interpolated data of the object. The information processing device described in section. コンピュータが、
計測装置が出力する計測データを取得し、
前記計測データに基づき、前記計測装置の視野範囲内に存在する物体の高さ方向を含む位置情報を取得し、
前記位置情報に基づき、前記視野範囲内での基準面の高さを推定する、
制御方法。
The computer is
Obtain the measurement data output by the measurement device,
Based on the measurement data, obtain position information including the height direction of an object existing within the field of view of the measurement device;
estimating the height of the reference plane within the field of view based on the position information;
Control method.
計測装置が出力する計測データを取得し、
前記計測データに基づき、前記計測装置の視野範囲内に存在する物体の高さ方向を含む位置情報を取得し、
前記位置情報に基づき、前記視野範囲内での基準面の高さを推定する処理をコンピュータに実行させるプログラム。
Obtain the measurement data output by the measurement device,
Based on the measurement data, obtain position information including the height direction of an object existing within the field of view of the measurement device;
A program that causes a computer to execute a process of estimating the height of a reference plane within the field of view based on the position information.
請求項11に記載のプログラムを記憶した記憶媒体。 A storage medium storing the program according to claim 11.
JP2022033366A 2022-03-04 2022-03-04 Information processing device, control method, program and storage medium Pending JP2023128778A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022033366A JP2023128778A (en) 2022-03-04 2022-03-04 Information processing device, control method, program and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022033366A JP2023128778A (en) 2022-03-04 2022-03-04 Information processing device, control method, program and storage medium

Publications (1)

Publication Number Publication Date
JP2023128778A true JP2023128778A (en) 2023-09-14

Family

ID=87972543

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022033366A Pending JP2023128778A (en) 2022-03-04 2022-03-04 Information processing device, control method, program and storage medium

Country Status (1)

Country Link
JP (1) JP2023128778A (en)

Similar Documents

Publication Publication Date Title
US10710579B2 (en) Collision prediction system
JP6696697B2 (en) Information processing device, vehicle, information processing method, and program
JP5822255B2 (en) Object identification device and program
JP5820774B2 (en) Road boundary estimation apparatus and program
US8976999B2 (en) Vehicle detection apparatus
JP2023523243A (en) Obstacle detection method and apparatus, computer device, and computer program
CN108509820B (en) Obstacle segmentation method and device, computer equipment and readable medium
CN110286389B (en) Grid management method for obstacle identification
Guo et al. Graph-based 2D road representation of 3D point clouds for intelligent vehicles
US11093762B2 (en) Method for validation of obstacle candidate
CN110865393A (en) Positioning method and system based on laser radar, storage medium and processor
CN109635816B (en) Lane line generation method, apparatus, device, and storage medium
CN110471086B (en) Radar fault detection system and method
JP4102885B2 (en) Parked vehicle detection method and parked vehicle detection system
JP7232946B2 (en) Information processing device, information processing method and program
JP2013140515A (en) Solid object detection device and program
JP2013148356A (en) Vehicle position calculation device
CN112541938A (en) Pedestrian speed measuring method, system, medium and computing device
CN114494075A (en) Obstacle identification method based on three-dimensional point cloud, electronic device and storage medium
JP2023128778A (en) Information processing device, control method, program and storage medium
JP3740531B2 (en) Parked vehicle detection method, detection system, and parked vehicle detection device
JP7226553B2 (en) Information processing device, data generation method, and program
WO2023171672A1 (en) Information processing device, control method, program, and storage medium
JP2013148354A (en) Vehicle position calculation device
Bichsel et al. Low-obstacle detection using stereo vision