WO2018020680A1 - 測定装置、測定方法、及び、プログラム - Google Patents

測定装置、測定方法、及び、プログラム Download PDF

Info

Publication number
WO2018020680A1
WO2018020680A1 PCT/JP2016/072409 JP2016072409W WO2018020680A1 WO 2018020680 A1 WO2018020680 A1 WO 2018020680A1 JP 2016072409 W JP2016072409 W JP 2016072409W WO 2018020680 A1 WO2018020680 A1 WO 2018020680A1
Authority
WO
WIPO (PCT)
Prior art keywords
time
moving body
feature
speed
area
Prior art date
Application number
PCT/JP2016/072409
Other languages
English (en)
French (fr)
Inventor
加藤 正浩
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Priority to EP16910583.0A priority Critical patent/EP3493177B1/en
Priority to JP2018529335A priority patent/JPWO2018020680A1/ja
Priority to PCT/JP2016/072409 priority patent/WO2018020680A1/ja
Priority to US16/321,550 priority patent/US11016499B2/en
Publication of WO2018020680A1 publication Critical patent/WO2018020680A1/ja
Priority to JP2021041527A priority patent/JP2021096265A/ja
Priority to JP2023096798A priority patent/JP7487388B2/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • G01S17/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/052Detecting movement of traffic to be counted or controlled with provision for determining speed or overspeed
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/11Complex mathematical operations for solving equations, e.g. nonlinear equations, general mathematical optimization problems

Definitions

  • the present invention relates to a technique for measuring the speed of a moving object.
  • An object of this invention is to provide the measuring apparatus which can calculate the speed of a moving body by the scan in 1 period with respect to one feature.
  • the invention according to claim 1 is a measuring apparatus, wherein a distance from a moving body to a partial area of one feature and an angle formed by a direction of the partial area viewed from the moving body and a traveling direction of the moving body.
  • a first acquisition unit for acquiring the first region which is the partial region at the first time and the second region which is the partial region different from the first region at the second time, and a length including the width of the feature A second acquisition unit that acquires information, and a speed calculation unit that calculates the speed of the moving body from the first time to the second time based on the acquisition results of the first acquisition unit and the second acquisition unit. It is characterized by providing.
  • the invention according to claim 5 is a measuring method executed by a measuring apparatus, wherein the distance from the moving body to a partial area of one feature, the direction of the partial area viewed from the moving body, and the moving body
  • the speed of the moving body from the first time to the second time is calculated.
  • a speed calculation step is a speed calculation step.
  • the invention according to claim 6 is a program executed by a measuring apparatus including a computer, and a distance from a moving body to a partial area of one feature, a direction of the partial area viewed from the moving body, and the movement
  • a first acquisition unit that acquires an angle formed by a body traveling direction with respect to a first region that is the partial region at a first time and a second region that is the partial region different from the first region at a second time;
  • the speed of the moving body from the first time to the second time is calculated based on the acquisition results of the second acquisition unit that acquires length information including the width of the feature, the first acquisition unit, and the second acquisition unit.
  • the computer is caused to function as a speed calculation unit.
  • a mode that a feature is detected by LiDAR when a vehicle moves is shown. It is a figure explaining the detection coordinate of the feature in the detection time of a feature. It is an example of calculation of the amount of movement of vehicles in the detection time of a feature. An example in which the vehicle body speed is calculated when the width of the sign as a feature is known is shown. An example in which a plurality of horizontal data rows having different heights are acquired from one marker is shown. The structure of the measuring apparatus which concerns on an Example is shown. It is a flowchart of a vehicle body speed calculation process.
  • the measuring device has a distance from a moving body to a partial area of one feature and an angle formed by a direction of the partial area viewed from the moving body and a traveling direction of the moving body.
  • Length information including a first acquisition unit that acquires the first region that is the partial region at the first time and the second region that is the partial region different from the first region at the second time, and the width of the feature
  • a speed calculation unit that calculates the speed of the moving body from the first time to the second time based on the acquisition results of the first acquisition unit and the second acquisition unit.
  • the measuring apparatus is configured to determine a distance from a moving body to a partial area of one feature and an angle formed by a direction of the partial area viewed from the moving body and a traveling direction of the moving body, at the first time. And the second region which is the partial region different from the first region at the second time.
  • the measuring device acquires length information including the width of the feature. Then, the measurement device calculates the speed of the moving body at the second time from the first time based on the acquisition results of the first acquisition unit and the second acquisition unit. This makes it possible to calculate the speed of the moving object by scanning one feature with respect to one cycle.
  • One aspect of the measurement apparatus calculates a first coordinate which is a coordinate of the first region around the position of the moving body based on the distance and the angle with respect to the first region, and the second A coordinate calculation unit that calculates a second coordinate that is a coordinate of the second region around the position of the moving body based on the distance and the angle with respect to the region; and the speed calculation unit includes the first coordinate and The speed of the moving body is calculated based on the second coordinates, the width of the feature, and the time from the first time to the second time.
  • the speed of the moving body is calculated using the first coordinates corresponding to the first region of the feature and the second coordinates corresponding to the second region.
  • the first coordinate is (x 1 , y 1 )
  • the second coordinate is (x n , y n )
  • the feature width is W
  • the first time is ⁇ T
  • Another aspect of the above-described measuring apparatus is an average speed obtained by averaging the speeds of the moving bodies calculated by the speed calculation unit for a plurality of different combinations of the first area and the second area for the one feature.
  • An average speed calculation unit is provided. In this aspect, it is possible to increase the accuracy by calculating the speed of the moving body for each of a plurality of combinations of the first region and the second region for one feature and averaging them.
  • the measurement method executed by the measurement apparatus includes a distance from a moving body to a partial area of one feature, a direction when the partial area is viewed from the moving body, and a traveling direction of the moving body.
  • this method it is possible to calculate the speed of the moving object by scanning one feature for one cycle.
  • a program executed by a measuring apparatus including a computer includes a distance from a moving body to a partial area of one feature, a direction of the partial area viewed from the moving body, and the movement.
  • a first acquisition unit that acquires an angle formed by a body traveling direction with respect to a first region that is the partial region at a first time and a second region that is the partial region different from the first region at a second time;
  • the speed of the moving body from the first time to the second time is calculated based on the acquisition results of the second acquisition unit that acquires length information including the width of the feature, the first acquisition unit, and the second acquisition unit.
  • the computer is caused to function as a speed calculation unit.
  • the above measurement apparatus can be realized by executing this program on a computer. This program can be stored in a storage medium and handled.
  • FIG. 1A shows how the vehicle moves while one feature is detected by LiDAR.
  • the vehicle is in the position P 1
  • the vehicle is moving to the position P n.
  • FIG. 1B is a diagram in which the coordinates (r, ⁇ ) of points on the feature detected by LiDAR in the example of FIG. 1A are converted to (x, y) coordinates with the vehicle position as the origin. Indicates. Since the distance and direction to the feature change as the vehicle moves, the plane of the feature becomes distorted. As a result, the center (or centroid) coordinates of the feature and the normal vector are shifted.
  • the scan period of the horizontal scan type LiDAR is T [s]
  • the speed at which the beam moves is r ⁇ [m / s].
  • the time ⁇ T for detecting (scanning) the road sign is as follows.
  • the road sign measurement time estimated in the above consideration is about several ms, and it can be considered that there is almost no change in the vehicle speed or yaw rate within that time.
  • the yaw rate can be approximated to a constant value. Therefore, the detected coordinates of the feature are obtained using a constant vehicle speed and yaw rate.
  • ⁇ x k and ⁇ y k can be expressed as follows.
  • the yaw rate value is normally 10 tens [deg / s] or less.
  • the vehicle speed can be a large value, but the yaw rate value is not a large value. In other words, this is due to the unique nature of automobile motion, where the turning speed is not large compared to the translation speed.
  • the shape and width of the target feature are known in advance by referring to the advanced map information.
  • the feature is a planar road sign that is not damaged or deformed and that the width is W [m].
  • the first of the feature detection data corresponds to the left end of the road sign
  • the last of the detection data corresponds to the right end of the road sign.
  • the distance between the left end point (x 1 , y 1 ) and the right end point (x ′ n , y ′ n ) of the road sign is W.
  • the vehicle body speed V can be obtained by the following equation (7).
  • the width W of the target feature, the coordinates of the left end point when the feature is detected (hereinafter referred to as “left end coordinates”) (x 1 , y 1 ), and the coordinates of the right end point (Hereinafter referred to as “right end coordinates”) (x ′ n , y ′ n ) and the detection time ⁇ T that is the time interval between the two points can be used to calculate the vehicle speed V.
  • the speed calculated here is an instantaneous speed because it is calculated during the feature detection during one scan by LiDAR. Therefore, even when the vehicle is accelerating or decelerating, the instantaneous speed can be obtained.
  • the speed change for each scan cycle can also be calculated, so that the acceleration of the moving object can also be grasped.
  • the left end and the right end of the road sign are examples of the partial area in the present invention
  • the left end is an example of the first area of the present invention
  • the right end is an example of the second area of the present invention.
  • the time when the left end of the road sign is detected by the LiDAR 12 is an example of the first time of the present invention
  • the time of detecting the right end is an example of the second time of the present invention.
  • the left end coordinate is an example of the first coordinate of the present invention
  • the right end coordinate is an example of the second coordinate of the present invention.
  • the horizontal width is usually the same even if the height position changes, so the same calculation is performed for several horizontal data rows.
  • the accuracy of the calculated vehicle body speed V can be increased.
  • a type of LiDAR that scans a plurality of lines in the vertical direction
  • the average speed V ave can be obtained by dividing the total of the m vehicle body speeds V calculated by the equation (7) by m.
  • FIG. 6 shows a configuration of the measuring apparatus according to the example.
  • the measuring device 10 includes an advanced map DB 11, a LiDAR 12, and a calculation unit 13.
  • the advanced map DB 11 stores advanced map information for each feature.
  • the advanced map information includes the position of the feature on the map and attribute information including the shape and width of the feature.
  • the advanced map DB 11 may be provided in a server or the like instead of being provided inside the measurement apparatus 10, and the measurement apparatus 10 may be configured to access the advanced map DB 11 via the server by communication.
  • the LiDAR 12 measures the distance r to the target feature and the angle ⁇ between the direction of the feature viewed from the vehicle and the traveling direction of the vehicle, and supplies the measured value to the calculation unit 13. In addition, the LiDAR 12 measures a time during which the feature is scanned from the left end to the right end, that is, a detection time ⁇ T, and supplies the measured time ⁇ T to the calculation unit 13.
  • the calculation unit 13 acquires the shape and the width W of the target feature from the advanced map DB 11. Moreover, the calculating part 13 acquires the above-mentioned distance r and angle (theta) from LiDAR12, and calculates the coordinate of the feature centering on the own vehicle position based on these. Then, the calculation unit 13 calculates the left end coordinates (x 1 , y 1 ) and right end coordinates (x n , y n ) of the calculated feature coordinates, the detection time ⁇ T, and the feature width W. Using this, the vehicle body speed V is calculated by the aforementioned equation (7). When a plurality of lateral data rows having different heights can be acquired for the same feature as illustrated in FIG. 5, the arithmetic unit 13 calculates a plurality of vehicle body speeds V calculated based on the respective lateral data. Are averaged to calculate the above average speed V ave .
  • LiDAR 12 is an example of the first acquisition unit of the present invention
  • the calculation unit 13 is an example of the second acquisition unit, the speed calculation unit, the coordinate calculation unit, and the average speed calculation unit of the present invention.
  • FIG. 7 is a flowchart of the vehicle body speed calculation process. This process is realized by a computer constituting the calculation unit 13 of the measurement apparatus 10 executing a program prepared in advance. Note that this flowchart is an example of processing for calculating the above-described average speed V ave .
  • the calculation unit 13 selects a feature A, which is a planar road sign existing in the vicinity of the host vehicle, from the advanced map information stored in the advanced map DB 11 (step S11). Next, the calculation unit 13 acquires the shape and width W of the feature A from the advanced map information (step S12). Next, the calculation unit 13 acquires the distance r from the vehicle position to the feature A and the angle ⁇ between the direction of the feature A viewed from the vehicle position and the traveling direction of the vehicle from the LiDAR 12 (step S13). ).
  • the calculation unit 13 acquires the number m of data strings having different heights when the LiDAR 12 scans the feature A from the LiDAR 12 (step S14).
  • the computing unit 13 converts the distance r and the angle ⁇ into coordinates (x, y) centered on the vehicle position (step S15).
  • the calculation unit 13 acquires a detection time ⁇ T from the left end coordinate to the right end coordinate when the LiDAR 12 detects the feature A from the LiDAR 12 (step S16).
  • the calculation unit 13 uses the left end coordinates (x 1 , y 1 ) and right end coordinates (x n , y n ) of the feature A, the detection time ⁇ T, and the feature width W as described above.
  • the vehicle body speed V is calculated by equation (7) (step S17). Further, the calculation unit 13 obtains an average speed V ave by averaging the vehicle body speeds V for m horizontal data strings (step S18). Then, the process ends.
  • the present invention can be used for an apparatus mounted on a moving body.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

測定装置は、移動体から一の地物の部分領域までの距離及び前記部分領域を前記移動体からみた方向と前記移動体の進行方向とがなす角度を、第1時刻における前記部分領域である第1領域及び第2時刻における前記第1領域と異なる前記部分領域である第2領域について取得する。また、測定装置は、前記地物の幅を含む長さ情報を取得する。そして、測定装置は、前記第1取得部及び前記第2取得部の取得結果に基づき前記第1時刻から前記第2時刻における移動体の速度を算出する。

Description

測定装置、測定方法、及び、プログラム
 本発明は、移動体の速度を測定する技術に関する。
 LiDAR(Light Detection And Ranging)等の測定装置により、周辺物体との距離及び相対速度を測定し、その結果から自車両の速度を推定する手法が知られている(例えば特許文献1参照)。
特開2014-89686号公報
 特許文献1に記載の手法では、車と周辺物体の複数グループについて相対速度を取得し、その中で一番信頼度の高いデータを採用している。このため、センサによる複数回のスキャンが必要となり、また、対象のグループ数が減ると精度が低下するという課題がある。
 本発明が解決しようとする課題としては、上記のものが例として挙げられる。本発明は、1つの地物に対する1周期中のスキャンにより移動体の速度を算出することが可能な測定装置を提供することを目的とする。
 請求項1に記載の発明は、測定装置であって、移動体から一の地物の部分領域までの距離及び前記部分領域を前記移動体からみた方向と前記移動体の進行方向とがなす角度を、第1時刻における前記部分領域である第1領域及び第2時刻における前記第1領域と異なる前記部分領域である第2領域について取得する第1取得部と、前記地物の幅を含む長さ情報を取得する第2取得部と、前記第1取得部及び前記第2取得部の取得結果に基づき前記第1時刻から前記第2時刻における移動体の速度を算出する速度算出部と、を備えることを特徴とする。
 請求項5に記載の発明は、測定装置により実行される測定方法であって、移動体から一の地物の部分領域までの距離及び前記部分領域を前記移動体からみた方向と前記移動体の進行方向とがなす角度を、第1時刻における前記部分領域である第1領域及び第2時刻における前記第1領域と異なる前記部分領域である第2領域について取得する第1取得工程と、前記地物の幅を含む長さ情報を取得する第2取得工程と、前記第1取得工程及び前記第2取得工程の取得結果に基づき前記第1時刻から前記第2時刻における移動体の速度を算出する速度算出工程と、を備えることを特徴とする。
 請求項6に記載の発明は、コンピュータを備える測定装置によって実行されるプログラムであって、移動体から一の地物の部分領域までの距離及び前記部分領域を前記移動体からみた方向と前記移動体の進行方向とがなす角度を、第1時刻における前記部分領域である第1領域及び第2時刻における前記第1領域と異なる前記部分領域である第2領域について取得する第1取得部、前記地物の幅を含む長さ情報を取得する第2取得部、前記第1取得部及び前記第2取得部の取得結果に基づき前記第1時刻から前記第2時刻における移動体の速度を算出する速度算出部、として前記コンピュータを機能させることを特徴とする。
車両が移動する場合にLiDARにより地物を検出する様子を示す。 地物の検出時間における地物の検出座標を説明する図である。 地物の検出時間における車両の移動量の計算例である。 地物である標識の横幅が既知の場合に車体速度を計算する例を示す。 1つの標識から高さの異なる複数の横データ列を取得する例を示す。 実施例に係る測定装置の構成を示す。 車体速度算出処理のフローチャートである。
 本発明の好適な実施形態では、測定装置は、移動体から一の地物の部分領域までの距離及び前記部分領域を前記移動体からみた方向と前記移動体の進行方向とがなす角度を、第1時刻における前記部分領域である第1領域及び第2時刻における前記第1領域と異なる前記部分領域である第2領域について取得する第1取得部と、前記地物の幅を含む長さ情報を取得する第2取得部と、前記第1取得部及び前記第2取得部の取得結果に基づき前記第1時刻から前記第2時刻における移動体の速度を算出する速度算出部と、を備える。
 上記の測定装置は、移動体から一の地物の部分領域までの距離及び前記部分領域を前記移動体からみた方向と前記移動体の進行方向とがなす角度を、第1時刻における前記部分領域である第1領域及び第2時刻における前記第1領域と異なる前記部分領域である第2領域について取得する。また、測定装置は、前記地物の幅を含む長さ情報を取得する。そして、測定装置は、前記第1取得部及び前記第2取得部の取得結果に基づき前記第1時刻から前記第2時刻における移動体の速度を算出する。これにより、1つの地物に対する1周期中のスキャンにより移動体の速度を算出することが可能となる。
 上記の測定装置の一態様は、前記第1領域についての前記距離及び前記角度に基づき前記移動体の位置を中心とした前記第1領域の座標である第1座標を算出するとともに、前記第2領域についての前記距離及び前記角度に基づき前記移動体の位置を中心とした前記第2領域の座標である第2座標を算出する座標算出部を備え、前記速度算出部は、前記第1座標と、前記第2座標と、前記地物の幅と、前記第1時刻から前記第2時刻までの時間とに基づき前記移動体の速度を算出する。この態様では、地物の第1領域に対応する第1座標と、第2領域に対応する第2座標を利用して、移動体の速度を算出する。
 好適な例では、前記第1座標を(x,y)、前記第2座標を(x,y)、前記地物の幅をW、前記第1時刻から前記第2時刻までの時間をΔTとしたとき、前記速度算出部は、
Figure JPOXMLDOC01-appb-M000002
により前記移動体の速度Vを算出する。
 上記の測定装置の他の一態様は、前記一の地物について、前記第1領域と前記第2領域の異なる複数の組み合わせについて前記速度算出部が算出した前記移動体の速度を平均した平均速度を算出する平均速度算出部を備える。この態様では、一の地物についての第1領域及び第2領域の複数の組み合わせ毎に移動体の速度を算出し、それらを平均化することにより精度を高めることができる。
 本発明の他の実施形態では、測定装置により実行される測定方法は、移動体から一の地物の部分領域までの距離及び前記部分領域を前記移動体からみた方向と前記移動体の進行方向とがなす角度を、第1時刻における前記部分領域である第1領域及び第2時刻における前記第1領域と異なる前記部分領域である第2領域について取得する第1取得工程と、前記地物の幅を含む長さ情報を取得する第2取得工程と、前記第1取得工程及び前記第2取得工程の取得結果に基づき前記第1時刻から前記第2時刻における移動体の速度を算出する速度算出工程と、を備える。この方法によっても、1つの地物に対する1周期中のスキャンにより移動体の速度を算出することが可能となる。
 本発明の他の好適な実施形態では、コンピュータを備える測定装置によって実行されるプログラムは、移動体から一の地物の部分領域までの距離及び前記部分領域を前記移動体からみた方向と前記移動体の進行方向とがなす角度を、第1時刻における前記部分領域である第1領域及び第2時刻における前記第1領域と異なる前記部分領域である第2領域について取得する第1取得部、前記地物の幅を含む長さ情報を取得する第2取得部、前記第1取得部及び前記第2取得部の取得結果に基づき前記第1時刻から前記第2時刻における移動体の速度を算出する速度算出部、として前記コンピュータを機能させる。このプログラムをコンピュータで実行することにより上記の測定装置の実現することができる。このプログラムは記憶媒体に記憶して取り扱うことができる。
 以下、図面を参照して本発明の好適な実施例について説明する。
 [原理説明]
 水平方向にスキャンするタイプのLiDARの場合、対象とする地物の左端と右端を検出する時刻が異なるので、その時間内に車両自身が移動すると、検出の基準位置と基準方位が異なることになる。図1(A)は、LiDARにより1つの地物を検出する間に車両が移動する様子を示す。地物の左端を検出するときには車両は位置Pにあり、地物の右端を検出するときには車両は位置Pに移動している。
 図1(B)は、図1(A)の例においてLiDARで検出した地物上の点の座標(r、θ)を、車両の位置を原点とした(x,y)座標に変換したものを示す。車両の移動に伴って地物までの距離と方向が変化するため、地物の平面が歪んだものとなってしまう。その結果、地物の中心(又は重心)座標と法線ベクトルとがずれてしまう。
 図2(A)に示すように、水平スキャン型のLiDARのスキャン周期がT[s]の場合、スキャン角周波数ω[rad/s]は、ω=2π/Tとなり、r[m]先でのビームが移動する速度はrω[m/s]となる。そこに幅W[m]の道路標識があった場合、その道路標識を検出(スキャン)する時間ΔTは以下となる。
Figure JPOXMLDOC01-appb-M000003
 つまり、図2(A)のようにLiDARのスキャンが時計回りであるとすると、道路標識の左端と右端の検出にΔTの時間差があることになる。仮に、LiDARのスキャン周期が100[ms]の場合、10[m]先の60[cm]幅の道路標識をビームが検出する時間は、式(1)にT=0.1、r=10、W=0.6を代入して、ΔT=0.955[ms]と求められる。車両の速度が100[km/h]の時を想定すると、ΔT=0.955[ms]の間に、車両は2.65[cm]進むことになる。また、仮に道路標識がもっと近く、2[m]先の位置にあるとすると、r=2を代入して、ΔT=4.775[ms]となり、車両は13.26[cm]進むことになる。
 従って、車両の速度が速いほど、また対象の地物が近いほど、地物の検出時間内における車両の移動距離が長くなる。
 上記の考察で見積もりした道路標識の計測時間は数ms程度であり、その時間内では車両の速度やヨーレートの変化はほぼ無いとみなすことができるので、道路標識を計測する時間内では車両速度とヨーレートは一定値と近似できる。よって、一定の車両速度とヨーレートの値を用いて地物の検出座標を求めてみる。
 例えば、図2(B)において、P点で計測した地物の座標を、P点の座標系を用いた値に変換する。そのため、座標の回転角度と移動ベクトルを求めて座標変換を行う。順番としては、まずP点において破線で示す座標軸へと座標を回転させ、その後、x方向とy方向の位置の差分(Δx,Δy)を加算する。
 まず、P点で計測した距離rと角度θから、以下のようにP点を原点とするxy座標系の値(x,y)が得られているものとする。
Figure JPOXMLDOC01-appb-M000004
ヨーレートΨ_dot(t)が一定という前提があるため、P点からP点までのΔt間の方向の変化量Ψは次式となる。
Figure JPOXMLDOC01-appb-M000005
 また、仮想的な中心点Oからの回転半径Rを想定すると、
Figure JPOXMLDOC01-appb-M000006
となるため、ΔxとΔyは以下のように表すことができる。
Figure JPOXMLDOC01-appb-M000007
よって、P点で計測する地物の座標は、P点を基準位置にすると、以下で計算される。
Figure JPOXMLDOC01-appb-M000008
 ここで、地物の検出時間ΔT=4.775[ms]の場合に、どのくらい車体が移動するかを式(3)、(4)を用いて計算した結果を図3に示す。なお、通常の走行においては、ヨーレート値は10数[deg/s]以下が普通である。
 図3に示す結果から、ヨーレートが大きくても、横方向の移動量は非常に少ないことがわかる。また、縦方向の移動距離は、ヨーレートΨ_dot(t)によらず、車体速度Vのみに関係することがわかる。この理由は、ΔTの値が小さいため、Ψ_dot(t)ΔTの値も小さく、Ψ_dot(t)=90[deg/s]の場合でも、Ψ_dot(t)ΔT=0.43[deg/s]程度にしかならず、Ψ_dot(t)ΔT=0[deg/s]の直進走行とほとんど変わらないからである。これは、回転半径Rが大きな円における短い円弧に相当する。従って、ΔTが小さいときは、ヨーレートΨ_dot(t)=0とみなすことができる。即ち、地物座標は、式(5)を簡略化した以下の式(6)で示すことができる。
Figure JPOXMLDOC01-appb-M000009
なお、これが言えるのは、車体速度は大きな値に成り得るが、ヨーレート値は大きな値とならないからである。つまり並進速度に比べると旋回速度が大きくない自動車運動の特有の性質のためである。
 ここで、高度化地図情報を参照することにより、対象とする地物の形状と横幅が予め判っているとする。例えば、対象とする地物を参照した結果、その地物が破損や変形のない平面形状の道路標識であり、横幅がW[m]であることが事前に把握できているとする。この場合、地物の検出データの最初は道路標識の左端に対応し、検出データの最後は道路標識の右端に対応する。
 この関係を利用すると、道路標識の左端の点(x,y)と右端の点(x’,y’)の間の距離はWであるため、
Figure JPOXMLDOC01-appb-M000010
となる。これに式(6)を代入して
Figure JPOXMLDOC01-appb-M000011
となる。よって、
Figure JPOXMLDOC01-appb-M000012
が得られる。従って、以下の式(7)により車体速度Vを求めることができる。
Figure JPOXMLDOC01-appb-M000013
 即ち、対象とする地物の横幅Wと、その地物を検出した際の左端の点の座標(以下、「左端座標」と呼ぶ。)(x,y)と、右端の点の座標(以下、「右端座標」と呼ぶ。)(x’,y’)と、その2点の時間間隔である検出時間ΔTを用いて、車体速度Vを計算することができる。ここで算出される速度は、LiDARによる1回のスキャン中の地物検出の間に計算されるため、瞬時的な速度である。従って、車両が加速中や減速中であっても、その瞬間の速度を求めることが可能となる。LiDARの次のスキャンにおいて同様の速度計算を行うことで、スキャン周期ごとの速度変化も算出できるため、移動体の加速度を把握することもできる。
 なお、上記の道路標識の左端及び右端は本発明における部分領域の一例であり、左端は本発明の第1領域の一例であり、右端は本発明の第2領域の一例である。また、LiDAR12により道路標識の左端を検出する時刻は本発明の第1時刻の一例であり、右端を検出する時刻は本発明の第2時刻の一例である。さらに、左端座標は本発明の第1座標の一例であり、右端座標は本発明の第2座標の一例である。
 次に、図4を参照して、上記の式(7)による数値計算例を示す。いま、車両がV=100[km/h]、ヨーレートΨ_dot(t)=-90[deg/s]で走行し、横幅W=60[cm]の平面形状の道路標識を検出したとする。自車位置を中心とした座標における地物の検出座標は、道路標識の左端座標が(1.60,1.20)、右端座標が(2.0085,0.90)であった。また、道路標識の左端から右端までの検出時間ΔTは4.0[ms]であった。この検出結果を基に、式(7)を用いて車体速度Vを算出する。
 式(7)に、x=1.60、y=1.20、x=2.0085、y=0.90、ΔT=0.004、W=0.6を代入すると、V=100[km/h]が得られる。よって、真値と同じ速度が算出された。
 但し、この数値計算例においては、LiDARの計測精度の誤差が極めて少ないものとしている。実際には、LiDARの計測精度は1cm程度であるため、検出される右端座標はx=2.01となる。この値を用いて計算しなおすと、V=98.7[km/h]となり、誤差が大きくなる。
 しかし、四角形状の道路標識の場合は、図5に例示するように通常は高さ位置が変わっても横幅は同じであるため、いくつかの高さの横データ列に対して同じ計算を行い、その平均をとることで、算出される車体速度Vの精度を上げることができる。例えば、垂直方向に複数ラインをスキャンするタイプのLiDARであれば、図5に示すように、同一の道路標識についてm本の横データ列が取得できた場合には、各横データ列に基づいて式(7)により算出されたm個の車体速度Vの合計をmで除算して平均速度Vaveを求めることができる。
 [装置構成]
 図6は、実施例に係る測定装置の構成を示す。測定装置10は、高度化地図DB11と、LiDAR12と、演算部13とを備える。高度化地図DB11は、地物毎に高度化地図情報を記憶している。高度化地図情報は、地図上におけるその地物の位置と、その地物の形状及び横幅を含む属性情報とを含む。なお、高度化地図DB11を測定装置10の内部に設ける代わりにサーバなどに設け、測定装置10が通信によりサーバ経由で高度化地図DB11にアクセスするように構成してもよい。
 LiDAR12は、対象となる地物までの距離rと、車両から見た地物の方向と車両の進行方向とのなす角度θとを測定し、演算部13へ供給する。また、LiDAR12は、地物の左端から右端までスキャンする間の時間、即ち検出時間ΔTを計測し、演算部13へ供給する。
 演算部13は、高度化地図DB11から、対象となる地物の形状及び横幅Wを取得する。また、演算部13は、LiDAR12から前述の距離r及び角度θを取得し、これらに基づいて自車位置を中心とした地物の座標を算出する。そして、演算部13は、算出された地物の座標のうちの左端座標(x,y)及び右端座標(x,y)と、検出時間ΔTと、地物の幅Wとを用いて、前述の式(7)により車体速度Vを算出する。また、同一の地物について、図5に例示するように高さの異なる複数の横データ列が取得できた場合には、演算部13は、各横データに基づいて算出した複数の車体速度Vを平均化して上記の平均速度Vaveを算出する。
 上記の構成において、LiDAR12は本発明の第1取得部の一例であり、演算部13は本発明の第2取得部、速度算出部、座標算出部及び平均速度算出部の一例である。
 [車体速度算出処理]
 次に、測定装置10により行われる車体速度算出処理について説明する。図7は、車体速度算出処理のフローチャートである。この処理は、測定装置10の演算部13を構成するコンピュータが、予め用意されたプログラムを実行することにより実現される。なお、このフローチャートは、前述の平均速度Vaveを算出する処理の例である。
 まず、演算部13は、高度化地図DB11に記憶された高度化地図情報から、自車付近に存在する平面形状の道路標識である地物Aを選択する(ステップS11)。次に、演算部13は、高度化地図情報から地物Aの形状と横幅Wを取得する(ステップS12)。次に、演算部13は、自車位置から地物Aまでの距離r、及び、自車位置から見た地物Aの方向と車両の進行方向との角度θをLiDAR12から取得する(ステップS13)。
 次に、演算部13は、LiDAR12が地物Aをスキャンした際の高さ違いのデータ列の本数mをLiDAR12から取得する(ステップS14)。次に、演算部13は、距離rと角度θを、自車位置を中心とした座標(x,y)に変換する(ステップS15)。次に、演算部13は、LiDAR12が地物Aを検出した際の左端座標から右端座標までの検出時間ΔTをLiDAR12から取得する(ステップS16)。
 次に、演算部13は、地物Aの左端座標(x,y)及び右端座標(x,y)と、検出時間ΔTと、地物の幅Wとを用いて、前述の式(7)により車体速度Vを算出する(ステップS17)。さらに、演算部13は、m本の横データ列分の車体速度Vを平均化して平均速度Vaveを求める(ステップS18)。そして、処理は終了する。
 本発明は、移動体に搭載する装置に利用することができる。
 10 測定装置
 11 高度化地図データベース
 12 LiDAR
 14 演算部

Claims (7)

  1.  移動体から一の地物の部分領域までの距離及び前記部分領域を前記移動体からみた方向と前記移動体の進行方向とがなす角度を、第1時刻における前記部分領域である第1領域及び第2時刻における前記第1領域と異なる前記部分領域である第2領域について取得する第1取得部と、
     前記地物の幅を含む長さ情報を取得する第2取得部と、
     前記第1取得部及び前記第2取得部の取得結果に基づき前記第1時刻から前記第2時刻における移動体の速度を算出する速度算出部と、
     を備えることを特徴とする測定装置。
  2.  前記第1領域についての前記距離及び前記角度に基づき前記移動体の位置を中心とした前記第1領域の座標である第1座標を算出するとともに、前記第2領域についての前記距離及び前記角度に基づき前記移動体の位置を中心とした前記第2領域の座標である第2座標を算出する座標算出部を備え、
     前記速度算出部は、前記第1座標と、前記第2座標と、前記地物の幅と、前記第1時刻から前記第2時刻までの時間とに基づき前記移動体の速度を算出することを特徴とする請求項1に記載の測定装置。
  3.  前記第1座標を(x,y)、前記第2座標を(x,y)、前記地物の幅をW、前記第1時刻から前記第2時刻までの時間をΔTとしたとき、前記速度算出部は、
    Figure JPOXMLDOC01-appb-M000001
    により前記移動体の速度Vを算出することを特徴とする請求項2に記載の測定装置。
  4.  前記一の地物について、前記第1領域と前記第2領域の異なる複数の組み合わせについて前記速度算出部が算出した前記移動体の速度を平均した平均速度を算出する平均速度算出部を備えることを特徴とする請求項1乃至3のいずれか一項に記載の測定装置。
  5.  測定装置により実行される測定方法であって、
     移動体から一の地物の部分領域までの距離及び前記部分領域を前記移動体からみた方向と前記移動体の進行方向とがなす角度を、第1時刻における前記部分領域である第1領域及び第2時刻における前記第1領域と異なる前記部分領域である第2領域について取得する第1取得工程と、
     前記地物の幅を含む長さ情報を取得する第2取得工程と、
     前記第1取得工程及び前記第2取得工程の取得結果に基づき前記第1時刻から前記第2時刻における移動体の速度を算出する速度算出工程と、
     を備えることを特徴とする測定方法。
  6.  コンピュータを備える測定装置によって実行されるプログラムであって、
     移動体から一の地物の部分領域までの距離及び前記部分領域を前記移動体からみた方向と前記移動体の進行方向とがなす角度を、第1時刻における前記部分領域である第1領域及び第2時刻における前記第1領域と異なる前記部分領域である第2領域について取得する第1取得部、
     前記地物の幅を含む長さ情報を取得する第2取得部、
     前記第1取得部及び前記第2取得部の取得結果に基づき前記第1時刻から前記第2時刻における移動体の速度を算出する速度算出部、
     として前記コンピュータを機能させることを特徴とするプログラム。
  7.  請求項6に記載のプログラムを記憶した記憶媒体。
PCT/JP2016/072409 2016-07-29 2016-07-29 測定装置、測定方法、及び、プログラム WO2018020680A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
EP16910583.0A EP3493177B1 (en) 2016-07-29 2016-07-29 Measurement device, measurement method, and program
JP2018529335A JPWO2018020680A1 (ja) 2016-07-29 2016-07-29 測定装置、測定方法、及び、プログラム
PCT/JP2016/072409 WO2018020680A1 (ja) 2016-07-29 2016-07-29 測定装置、測定方法、及び、プログラム
US16/321,550 US11016499B2 (en) 2016-07-29 2016-07-29 Measurement device, measurement method and program
JP2021041527A JP2021096265A (ja) 2016-07-29 2021-03-15 測定装置、測定方法、及び、プログラム
JP2023096798A JP7487388B2 (ja) 2016-07-29 2023-06-13 測定装置、測定方法、及び、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/072409 WO2018020680A1 (ja) 2016-07-29 2016-07-29 測定装置、測定方法、及び、プログラム

Publications (1)

Publication Number Publication Date
WO2018020680A1 true WO2018020680A1 (ja) 2018-02-01

Family

ID=61015891

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/072409 WO2018020680A1 (ja) 2016-07-29 2016-07-29 測定装置、測定方法、及び、プログラム

Country Status (4)

Country Link
US (1) US11016499B2 (ja)
EP (1) EP3493177B1 (ja)
JP (3) JPWO2018020680A1 (ja)
WO (1) WO2018020680A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111246639A (zh) * 2020-03-12 2020-06-05 王永东 微波雷达路灯的照明方法、装置及存储介质
CN111986472A (zh) * 2019-05-22 2020-11-24 阿里巴巴集团控股有限公司 车辆速度确定方法及车辆
CN113260293A (zh) * 2018-12-20 2021-08-13 尚科宁家运营有限公司 具有用于估计机器人清洁器的速度的距离传感器的机器人清洁器

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020085062A1 (ja) * 2018-10-24 2020-04-30 パイオニア株式会社 計測精度算出装置、自己位置推定装置、制御方法、プログラム及び記憶媒体
CN109849930B (zh) * 2018-12-29 2020-08-04 百度在线网络技术(北京)有限公司 自动驾驶汽车的相邻车辆的速度计算方法和装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006160116A (ja) * 2004-12-08 2006-06-22 Toyota Central Res & Dev Lab Inc 車両運動推定装置及び移動体検出装置
US20100017128A1 (en) * 2007-06-05 2010-01-21 Gm Global Technology Operations, Inc. Radar, Lidar and camera enhanced methods for vehicle dynamics estimation
JP2014089686A (ja) 2012-10-30 2014-05-15 Hyundai Motor Company Co Ltd 車速度推定装置及び方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4650079B2 (ja) 2004-11-30 2011-03-16 日産自動車株式会社 物体検出装置、および方法
JP4459162B2 (ja) * 2005-12-06 2010-04-28 池上通信機株式会社 速度計測装置、方法及びプログラム
JP2007257305A (ja) * 2006-03-23 2007-10-04 Honda Motor Co Ltd 車外認識装置
JP5141969B2 (ja) * 2007-09-27 2013-02-13 アイシン・エィ・ダブリュ株式会社 画像認識装置及び画像認識プログラム、並びにそれを用いた地点情報収集装置及びナビゲーション装置
JP2009223845A (ja) * 2008-03-19 2009-10-01 Hitachi Ltd 車載通信装置
US20090299633A1 (en) * 2008-05-29 2009-12-03 Delphi Technologies, Inc. Vehicle Pre-Impact Sensing System Having Terrain Normalization
JP5473304B2 (ja) * 2008-12-02 2014-04-16 三菱電機株式会社 遠隔地画像表示装置、遠隔操縦装置、車両制御装置、遠隔操縦システム、遠隔操縦方法、遠隔操縦プログラム、車両制御プログラム、遠隔地画像表示方法、遠隔地画像表示プログラム
DE102012203037A1 (de) * 2012-02-28 2013-08-29 Continental Automotive Gmbh Verfahren zur Ermittlung der Geschwindigkeit und/oder Position eines Fahrzeuges
US20130322697A1 (en) * 2012-05-31 2013-12-05 Hexagon Technology Center Gmbh Speed Calculation of a Moving Object based on Image Data
DE112013005948T5 (de) 2012-12-12 2015-10-01 Honda Motor Co., Ltd. Parkplatzdetektor
JP6290009B2 (ja) * 2014-06-06 2018-03-07 日立オートモティブシステムズ株式会社 障害物情報管理装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006160116A (ja) * 2004-12-08 2006-06-22 Toyota Central Res & Dev Lab Inc 車両運動推定装置及び移動体検出装置
US20100017128A1 (en) * 2007-06-05 2010-01-21 Gm Global Technology Operations, Inc. Radar, Lidar and camera enhanced methods for vehicle dynamics estimation
JP2014089686A (ja) 2012-10-30 2014-05-15 Hyundai Motor Company Co Ltd 車速度推定装置及び方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113260293A (zh) * 2018-12-20 2021-08-13 尚科宁家运营有限公司 具有用于估计机器人清洁器的速度的距离传感器的机器人清洁器
CN111986472A (zh) * 2019-05-22 2020-11-24 阿里巴巴集团控股有限公司 车辆速度确定方法及车辆
CN111246639A (zh) * 2020-03-12 2020-06-05 王永东 微波雷达路灯的照明方法、装置及存储介质
CN111246639B (zh) * 2020-03-12 2022-11-11 王永东 微波雷达路灯的照明方法、装置及存储介质

Also Published As

Publication number Publication date
EP3493177B1 (en) 2022-09-07
EP3493177A1 (en) 2019-06-05
US11016499B2 (en) 2021-05-25
JP2023115057A (ja) 2023-08-18
JPWO2018020680A1 (ja) 2019-05-16
EP3493177A4 (en) 2020-04-08
US20190163200A1 (en) 2019-05-30
JP7487388B2 (ja) 2024-05-20
JP2021096265A (ja) 2021-06-24

Similar Documents

Publication Publication Date Title
JP7487388B2 (ja) 測定装置、測定方法、及び、プログラム
JP5746695B2 (ja) 車両の進行路推定装置
JP2019526781A (ja) 車両環境検知システム用に向上された物体検出及び運動状態推定
US20130332112A1 (en) State estimation device
EP3549056A1 (en) Information processing device, imaging device, apparatus control system, movable body, information processing method, and computer program product
JP6546548B2 (ja) 衝突判定装置、衝突判定方法、およびプログラム
JP6075168B2 (ja) 車両用物体検出装置
JP4850531B2 (ja) 車載レーダ装置
JP2016045767A (ja) 運動量推定装置及びプログラム
WO2017109978A1 (ja) 距離推定装置、距離推定方法及びプログラム
JP5490633B2 (ja) 車両の進行路推定装置
JP2023099851A (ja) 測定装置、測定方法およびプログラム
JP6707627B2 (ja) 測定装置、測定方法、及び、プログラム
WO2017168588A1 (ja) 測定装置、測定方法、及び、プログラム
JP2005172590A (ja) 前方物体検出装置及び前方物体検出方法
WO2017109973A1 (ja) 距離推定装置、距離推定方法及びプログラム
JP2017181195A (ja) 測定装置、測定方法、及び、プログラム
EP3879810A1 (en) Imaging device
WO2018212284A1 (ja) 測定装置、測定方法およびプログラム
WO2018100971A1 (en) Information processing device, imaging device, apparatus control system, movable body, information processing method, and computer program product
JP2019052955A (ja) 測定装置、測定方法、及び、プログラム
WO2021166893A1 (ja) 物標認識装置
JP2012237624A (ja) 物体検出装置
JP6925428B2 (ja) 測定装置、測定方法、及び、プログラム
JP2020201062A (ja) 物体認識装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16910583

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018529335

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2016910583

Country of ref document: EP

Effective date: 20190228