WO2019151106A1 - 周辺情報処理方法 - Google Patents

周辺情報処理方法 Download PDF

Info

Publication number
WO2019151106A1
WO2019151106A1 PCT/JP2019/002285 JP2019002285W WO2019151106A1 WO 2019151106 A1 WO2019151106 A1 WO 2019151106A1 JP 2019002285 W JP2019002285 W JP 2019002285W WO 2019151106 A1 WO2019151106 A1 WO 2019151106A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
feature
peripheral information
peripheral
post
Prior art date
Application number
PCT/JP2019/002285
Other languages
English (en)
French (fr)
Inventor
克巳 天野
令司 松本
岳 青木
和紀 小山
高橋 哲也
難波田 逸平
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Priority to US16/965,288 priority Critical patent/US20210072392A1/en
Priority to JP2019569062A priority patent/JP6947853B2/ja
Priority to EP19746813.5A priority patent/EP3748291A4/en
Publication of WO2019151106A1 publication Critical patent/WO2019151106A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/003Transmission of data between radar, sonar or lidar systems and remote stations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9316Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles combined with communication equipment with other vehicles or with base stations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves

Definitions

  • the present invention relates to a peripheral information processing method.
  • a moving body such as a vehicle may be provided with a sensor for recognizing an object existing around the moving body.
  • a moving body one having a plurality of laser radars as sensors has been proposed (see, for example, Patent Document 1).
  • a road feature is recognized as a surrounding object by scanning a laser beam.
  • Information obtained about the periphery of a moving body (measurement vehicle) by a method as described in Patent Document 1 is stored in a storage unit such as an external server, and this information may be used for driving support. That is, each moving body (traveling vehicle) recognizes a surrounding object by a sensor and can check the current position of the moving body by collating with information acquired from the storage unit. However, even if an object located around the moving body is static, information to be acquired may change depending on the environment at the time of measurement. At this time, there is a possibility that the information stored in advance and the newly acquired information are flawed, and there is a possibility that the current position is estimated.
  • an example of the subject of the present invention is to provide a peripheral information processing method that can improve the estimation accuracy of the current position of the moving object.
  • the peripheral information processing method provides the peripheral information related to an object existing around the moving body by means of a sensor arranged on the moving body. Based on the attribute of the feature included in the feature data, the feature data acquisition step of acquiring the feature data including the information related to the feature information, the feature data acquisition step of acquiring the feature data, and at least the relevant information And a generation step of generating post-removal information obtained by removing the translucent part information relating to the translucent part of the feature.
  • a peripheral information processing method includes a peripheral information acquisition step of acquiring peripheral information related to an object existing in the vicinity of the moving body by a sensor arranged on the moving body, and information on the attributes of the feature. Based on the feature data acquisition process for acquiring the feature data to be included and the attribute of the feature included in the feature data, the post-removal information is obtained by removing at least the translucent part information about the translucent part of the feature from the surrounding information. Generating step.
  • the translucent portion information is removed from the peripheral information to generate post-removal information, and each mobile body (for example, traveling) is used using the post-removal information.
  • the current position of the vehicle) can be estimated. Since the transmissivity of the translucent part changes depending on the environment such as external brightness, the information to be acquired (corresponding to the translucent part itself) when acquiring information by optically detecting an object. Information and information corresponding to an object located in the back of the translucent part as viewed from the sensor may change. The estimation accuracy can be improved by not using the information about the translucent part whose acquired information can change.
  • the translucent part in this embodiment means the whole translucent member provided in the movement path
  • the glass member which comprises the whole is included.
  • the material of the translucent portion is not limited to glass, and may be a resin such as an acrylic resin.
  • the attribute of a feature indicates, for example, if the feature is a building, indicates whether it is a house or a store, and if the feature is a store, indicates the business type. If the store's business type is, for example, a food retailer (supermarket, convenience store, etc.) or a store with a showroom (clothes store, car dealer, etc.), the building has a translucent part. There is a high possibility. Thus, based on the attribute of the feature, it can be determined whether or not the feature has a translucent part, the ratio of the translucent part in the wall surface of the building, and the like. Further, when the feature is a house, it may be determined that the building is likely to have a translucent portion on the south-facing wall surface.
  • the position of the translucent part can be determined based on the attribute of the feature having the translucent part, it is only necessary to remove the translucent part information in the generation process, and the position of the translucent part cannot be determined. For example, information on the entire feature (that is, information including translucent part information) may be removed.
  • the peripheral information processing method preferably further includes a transmission step of externally transmitting the information after removal.
  • the post-removal information can be transmitted to a storage unit such as an external server and stored as a database.
  • a peripheral information processing method includes a peripheral information acquisition step of acquiring peripheral information related to an object existing around the mobile body from a mobile body in which a sensor is arranged, and feature data. And a generation step of generating post-removal information by removing at least the translucent part information related to the translucent part of the feature based on the attribute of the feature to be removed.
  • the current position of the mobile object is estimated by removing at least the light transmitting portion information from the peripheral information and generating post-removal information, as in the above embodiment.
  • the estimation accuracy of can be improved.
  • point cloud information may be acquired as peripheral information.
  • map creation step of creating or updating map data based on the post-removal information.
  • the driving support system 1 includes a measurement vehicle 10 as a moving body, an external server 20 as a storage unit, and a plurality of traveling vehicles 30 as moving bodies. .
  • information is collected by the measurement vehicle 10, the collected information is stored in the external server 20, and the current position is estimated using the information of the external server 20 in the traveling vehicle 30. .
  • the measurement vehicle 10 is provided with an information acquisition device 11 that acquires information about a feature (an on-route feature located on the route of the vehicle and a neighboring feature located on the periphery of the road) as an object. Yes.
  • the information acquisition device 11 includes a sensor 12, an input / output unit 13, and a control unit 14.
  • the measurement vehicle 10 is provided with a current position acquisition unit 15 so that the current position can be acquired.
  • the current position acquisition unit 15 is exemplified by a GPS reception unit that receives radio waves transmitted from a plurality of GPS (Global Positioning System) satellites as is well known.
  • GPS Global Positioning System
  • the sensor 12 includes a projection unit that projects an electromagnetic wave, and a reception unit that receives a reflected wave of the electromagnetic wave from an irradiation target (an object existing around the measurement vehicle 10).
  • the sensor 12 may be an optical sensor (so-called LIDAR; “Laser”, “Imaging”, “Detection”, and “Ranging”) that projects light and receives reflected light from an irradiation object.
  • LIDAR optical sensor
  • the sensor 12 acquires peripheral information regarding an object existing around the measurement vehicle 10 as point cloud information.
  • the senor 12 scans the electromagnetic wave, and acquires point cloud information represented by three variables of a horizontal scanning angle ⁇ , a vertical scanning angle ⁇ , and a distance r at which an object is detected.
  • the information acquisition device 11 may also have an auxiliary sensor such as a camera.
  • An appropriate number of sensors 12 may be provided at appropriate positions of the measurement vehicle 10.
  • the sensor 12 may be provided on the front side and the rear side of the measurement vehicle 10.
  • the input / output unit 13 includes a circuit, an antenna, and the like for communicating with a network such as the Internet or a public line, and communicates with the external server 20 to transmit / receive information.
  • the control unit 14 is configured by a CPU (Central Processing Unit) having a memory such as a RAM (Random Access Memory) or a ROM (Read Only Memory), for example.
  • the control unit 14 controls the information acquisition apparatus 11 as will be described later.
  • the information acquired by the sensor 12 is processed, and the processed information is externally transmitted by the input / output unit 13.
  • the external server 20 includes a storage unit body 21, an input / output unit 22, and a control unit 23.
  • the external server 20 can communicate with the information acquisition device 11 and the traveling vehicle 30 via a network such as the Internet, for example, and acquires information from the information acquisition device 11 and the traveling vehicle 30 using the network. .
  • the acquisition of the external server 20 information is not limited to the above-described form.
  • an operator or the like may manually move information from the information acquisition device 11 to the external server 20 without using a network. Good.
  • transmission / reception of information with the information acquisition device 11 and the traveling vehicle 30 and the external server 20 will be described as being transmitted / received via a network. However, as described above, all are limited to this embodiment. Instead, the information may be exchanged manually by the operator.
  • the storage unit body 21 is composed of, for example, a hard disk or a nonvolatile memory, stores map data, and is read and written by control from the control unit 23.
  • This map data includes feature data
  • the feature data includes attributes of each feature.
  • the feature attribute indicates, for example, a store or a store when the feature is a building. In particular, when the feature is a store, the business condition is also shown.
  • the storage unit main body 21 may store map data and feature data separately because of the data structure of the storage.
  • the input / output unit 22 includes a circuit, an antenna, and the like for communicating with a network such as the Internet or a public line, and communicates with the information acquisition device 11 and the traveling vehicle 30 to transmit and receive information.
  • the control unit 23 is composed of a CPU having a memory such as a RAM or a ROM, for example, and governs overall control of the external server 20.
  • the traveling vehicle 30 is provided with a position estimation terminal 31 for estimating the current position.
  • the position estimation terminal 31 is used in combination with a current position acquisition unit (GPS reception unit) 35 provided in the traveling vehicle 30.
  • the position estimation terminal 31 includes a sensor 32, an input / output unit 33, and a control unit 34.
  • the sensor 32 includes a projection unit that projects electromagnetic waves, and a reception unit that receives reflected waves of electromagnetic waves from an irradiation object (an object existing around the traveling vehicle 30).
  • the sensor 32 may be an optical sensor that projects light and receives reflected light from an irradiation object.
  • An appropriate number of sensors 32 may be provided at appropriate positions of the traveling vehicle 30, and may be provided, for example, at each of the four corners when the traveling vehicle 30 is viewed from above.
  • the input / output unit 33 includes a circuit, an antenna, and the like for communicating with a network such as the Internet or a public line, and communicates with the external server 20 to transmit / receive information. Note that the input / output unit 33 may only receive information from the external server 20. Note that reception of information from the external server 20 is not limited to the above-described form. For example, an operator or the like manually moves information from the external server device 20 to the position estimation terminal 31 without using a network. It may be.
  • the control unit 34 is constituted by a CPU having a memory such as a RAM or a ROM, for example, and governs overall control of the position estimation terminal 31.
  • the information acquisition device 11 collects information
  • the external server 20 stores the collected information
  • the position estimation terminal 31 estimates the current position using the information of the external server 20. Details of each method will be described individually.
  • step S1 peripheral information acquisition step
  • the control unit 14 causes the sensor 12 to acquire peripheral information regarding an object existing in the vicinity thereof at an appropriate time interval (step S1, peripheral information acquisition step). That is, the sensor 12 is made to acquire point cloud information.
  • step S2 acquires feature data from the external server 20 by the input / output unit 13 (step S2, feature data acquisition step).
  • step S2 may be omitted by acquiring feature data from the external server 20 in advance and storing it in the information acquisition device 11.
  • the control unit 14 detects a feature included in the acquisition range of the peripheral information from the acquired feature data (step S3), and the feature estimated to have a translucent part based on the attribute of the feature is detected. It is determined whether or not it exists (step S4).
  • the features presumed to have a translucent portion are, for example, retail stores (supermarkets, convenience stores, etc.) such as foods and stores (clothes stores, car dealers, etc.) having showrooms.
  • step S4 a plurality of features presumed to have a translucent part may be specified.
  • Step S4 When there is a feature estimated to have a translucent part (Y in step S4), the control unit 14 removes a point cloud corresponding to the entire feature from the point cloud information acquired by the sensor 12. Information after removal is generated (step S5). That is, the point cloud at the position where this feature exists is deleted. This post-removal information is referred to as post-processing information. Steps S3 to S5 as described above are the generation process.
  • step S6 when there is no feature estimated to have a translucent part (N in step S4), the control unit 14 uses the point cloud information acquired by the sensor 12 as post-processing information (step S6). After steps S5 and S6, the control unit 14 transmits post-processing information to the external server 20 by the input / output unit 13 (step S7, transmission process). Moreover, the control part 14 also transmits the present position information of the measurement vehicle 10 in step S7. After step S7, the process returns to step S1 again, and the control unit 14 repeats these steps.
  • the external server 20 receives the post-processing information transmitted in the transmission step (step S7) by the input / output unit 22.
  • the control unit 23 creates map data based on the post-processing information (map creation process). If map data is already stored in the storage unit main body 21, the map data may be updated when post-processing information is received.
  • the position estimation terminal 31 acquires map data from the external server 20 at a predetermined timing by the input / output unit 33. Further, information about the rough current position of the traveling vehicle 30 is acquired from the current position acquisition unit 35. Further, the position estimation terminal 31 receives reflected light from the feature by the sensor 32, and compares the distance to the feature with the feature information included in the map data acquired from the external server 20, A detailed current position of the traveling vehicle 30 is estimated.
  • the point cloud corresponding to the entire feature having the translucent part is removed from the point cloud information, so that the sensor 32 depends on the surface of the translucent part. Even if the reflected light or the reflected light from the object located behind the translucent part is received, this information is not used to estimate the current position. In addition, since the point group is not removed for the feature that does not have the translucent portion, when the sensor 32 receives the reflected light from the feature, this information is used for estimation of the current position.
  • the current position of the traveling vehicle 30 using this post-removal information can be estimated. At this time, it is possible to improve the estimation accuracy by not using the information about the translucent part whose acquired information can change.
  • the control part 14 provided in the measurement vehicle 10 performs the periphery information processing including a periphery information acquisition process, a feature data acquisition process, a production
  • the control unit 23 provided in the external server 20 may execute peripheral information processing including a peripheral information acquisition step, a feature data acquisition step, and a generation step.
  • control unit 14 of the information acquisition device 11 may transmit the peripheral information acquired by the sensor 12 to the external server 20 without processing.
  • the control unit 23 of the external server 20 acquires the peripheral information by the input / output unit 22 (peripheral information acquisition process), acquires the feature data from the storage unit body 21 (feature data acquisition process), and transmits the transparent information from the peripheral information. After-removal information from which the optical part information has been removed is generated (generation process).
  • the generation process may be the same as that in the above embodiment.
  • the information about the translucent part whose acquired information can be changed is not used for the estimation of the current position.
  • the estimation accuracy can be improved.
  • control part 23 of the external server 20 shall perform the map creation process which produces or updates map data based on post-removal information
  • the control part 14 of the information acquisition apparatus 11 performs a map. You may perform a creation process. That is, the information acquisition apparatus 11 may create or update map data and transmit this map data to the external server 20.
  • the transmission process is included in the peripheral information processing executed by the control unit 14, but the transmission process may not be included.
  • the information acquisition device 11 may include a storage unit that stores post-processing information, and data may be transferred from the storage unit to the external server 20 after the measurement vehicle 10 travels in a predetermined area.
  • the position of a translucent part can be judged based on the attribute. In some cases, only the translucent information may be removed.
  • the translucent part information means information indicating the position of the translucent part on the feature (a point group at this position in the embodiment). If it does in this way, parts other than the translucent part in a feature can be used for estimation of the current position of the traveling vehicle 30.
  • the senor 12 shall acquire point cloud information as surrounding information, and shall remove the point cloud corresponding to the feature which has a translucent part from this point cloud information, and shall generate post-removal information.
  • the method of acquiring information by the sensor is not limited to this.
  • the sensor may acquire image information as peripheral information.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Instructional Devices (AREA)

Abstract

移動体の現在位置の推定精度を向上させることができる周辺情報処理方法を提供する。周辺情報取得工程においてセンサ(12)によって周辺情報を取得し、生成工程において、透光部情報を含む地物の情報を周辺情報から除去して除去後情報を生成することにより、この除去後情報を用いて走行車両(30)の現在位置を推定することできる。このとき、取得情報が変化し得る透光部についての情報を用いないことで、推定精度を向上させることができる。

Description

周辺情報処理方法
 本発明は、周辺情報処理方法に関する。
 一般に、車両等の移動体には、その周囲に存在する物体を認識するためのセンサが設けられることがある。このような移動体として、センサとしてのレーザレーダが複数設けられたものが提案されている(例えば、特許文献1参照)。特許文献1に記載された移動体では、レーザ光を走査することによって、周辺の物体として道路地物を認識するようになっている。
特開2011-196916号公報
 特許文献1に記載されたような方法で移動体(計測車両)周辺について得られた情報が外部サーバ等の記憶部に記憶され、この情報が運転支援に用いられることがある。即ち、各々の移動体(走行車両)がセンサによって周辺の物体を認識するとともに、記憶部から取得した情報と照合することにより、その移動体の現在位置を推定することができる。しかしながら、移動体の周辺に位置する物体は、静的なものであっても、測定時の環境によって取得する情報が変化する場合がある。このとき、予め記憶された情報と、新たに取得する情報と、に齟齬が生じ、現在位置の推定に不具合が生じる可能性があった。
 したがって、本発明の課題は、移動体の現在位置の推定精度を向上させることができる周辺情報処理方法を提供することが一例として挙げられる。
 前述した課題を解決し目的を達成するために、請求項1に記載の本発明の周辺情報処理方法は、移動体に配置されたセンサによって、当該移動体の周辺に存在する物体に関する周辺情報を取得する周辺情報取得工程と、地物の属性に関する情報を含む地物データを取得する地物データ取得工程と、前記地物データに含まれる前記地物の属性に基づき、前記周辺情報から少なくとも当該地物が有する透光部に関する透光部情報を除去した除去後情報を生成する生成工程と、を含むことを特徴としている。
本発明の実施例に係る運転支援システムの概略を示すブロック図である。 本発明の実施例に係る運転支援システムの情報取得装置が実行する周辺情報処理の一例を示すフローチャートである。
 以下、本発明の実施形態を説明する。本発明の実施形態に係る周辺情報処理方法は、移動体に配置されたセンサによって、この移動体の周辺に存在する物体に関する周辺情報を取得する周辺情報取得工程と、地物の属性に関する情報を含む地物データを取得する地物データ取得工程と、地物データに含まれる地物の属性に基づき、周辺情報から少なくともこの地物が有する透光部に関する透光部情報を除去した除去後情報を生成する生成工程と、を含む。
 このような本実施形態の周辺情報処理方法によれば、周辺情報から少なくとも透光部情報を除去して除去後情報を生成することにより、この除去後情報を用いて各々の移動体(例えば走行車両)の現在位置を推定することできる。透光部は、外部の明るさ等の環境によって反射率や透過率等が変化するため、光学的に物体を検知して情報を取得する場合に、取得する情報(透光部自体に相当する情報、及び、センサから見て透光部の奥に位置する物体に相当する情報)が変化することがある。取得情報が変化し得る透光部についての情報を用いないことで、推定精度を向上させることができる。
 尚、本実施形態における透光部とは、移動体の移動経路及びその周辺に位置する建物等に設けられた透光性の部材全般を意味し、例えば、建物の窓ガラスや、建物の壁全体を構成するガラス部材を含む。また、透光部の材質はガラスに限定されず、アクリル樹脂等の樹脂であってもよい。
 また、地物の属性とは、例えば、その地物が建物である場合には、住宅であるのか店舗を示すとともに、地物が店舗である場合には、その業態も示すものである。店舗の業態が、例えば食品等の小売店(スーパーマーケット、コンビニエンスストア等)である場合や、ショールームを有する販売店(洋服店、カーディーラー等)である場合、その建物は透光部を有している可能性が高い。このように、地物の属性に基づき、その地物が透光部を有しているか否かや、建物の壁面に占める透光部の割合等を判断することができる。また、地物が住宅である場合、その建物は南向きの壁面に透光部を有している可能性が高いと判断してもよい。
 透光部を有する地物について、その属性に基づいて透光部の位置を判断できる場合には、生成工程において、透光部情報のみを除去すればよく、透光部の位置を判断できない場合には、その地物全体に関する情報(即ち透光部情報を含む情報)を除去すればよい。
 周辺情報処理方法は、除去後情報を外部送信する送信工程をさらに含むことが好ましい。これにより、除去後情報を外部サーバ等の記憶部に送信し、データベースとして記憶させることができる。
 本発明の他の実施形態に係る周辺情報処理方法は、センサが配置された移動体から、この移動体の周辺に存在する物体に関する周辺情報を取得する周辺情報取得工程と、地物データに含まれる地物の属性に基づき、周辺情報から少なくとも、この地物が有する透光部に関する透光部情報を除去し、除去後情報を生成する生成工程と、を含む。
 このような本実施形態の周辺情報処理方法によれば、前記実施形態と同様に、周辺情報から少なくとも透光部情報を除去して除去後情報を生成することにより、移動体の現在位置の推定の推定精度を向上させることができる。
 周辺情報取得工程において、周辺情報として点群情報を取得してもよい。また、除去後情報に基づいて地図データを作成または更新する地図作成工程をさらに含むことが好ましい。
 以下、本発明の実施例について具体的に説明する。本実施例の運転支援システム1は、図1に示すように、移動体としての計測車両10と、記憶部としての外部サーバ20と、移動体としての複数の走行車両30と、により構成される。運転支援システム1では、計測車両10によって情報を収集するとともに、収集した情報を外部サーバ20に記憶し、走行車両30において外部サーバ20の情報を利用して現在位置を推定するようになっている。
 計測車両10には、物体としての地物(車両の経路上に位置する経路上地物、及び、道路の周辺に位置する周辺地物)についての情報を取得する情報取得装置11が設けられている。情報取得装置11は、センサ12と、入出力部13と、制御部14と、を備える。また、計測車両10には、現在位置取得部15が設けられ、現在位置を取得可能となっている。現在位置取得部15としては、公知であるように複数のGPS(Global Positioning System)衛星から発信される電波を受信するGPS受信部が例示される。
 センサ12は、電磁波を投射する投射部と、照射対象物(計測車両10の周辺に存在する物体)による電磁波の反射波を受光する受信部と、を有する。例えば、センサ12は、光を投射して照射対象物による反射光を受光する光センサ(いわゆるLIDAR; Laser Imaging Detection and Ranging)であればよい。センサ12は、計測車両10の周辺に存在する物体に関する周辺情報を、点群情報として取得する。
 即ち、センサ12は、電磁波を走査し、水平方向の走査角度θと、上下方向の走査角度φと、物体が検出される距離rと、の3変数によって表される点群情報を取得する。尚、情報取得装置11は、カメラ等の補助的なセンサも有していてもよい。センサ12は、計測車両10の適宜な位置に適宜な個数だけ設けられていればよい。例えば、センサ12が計測車両10の前方側及び後方側に設けられていればよい。
 入出力部13は、インターネットや公衆回線等のネットワークと通信するための回路やアンテナ等から構成され、外部サーバ20と通信して情報を送受信する。
 制御部14は、例えばRAM(Random Access Memory)やROM(Read Only Memory)などのメモリを備えたCPU(Central Processing Unit)で構成され、情報取得装置11の全体制御を司り、後述するように、センサ12が取得した情報について処理を行うとともに、処理後の情報を入出力部13によって外部送信する。
 外部サーバ20は、記憶部本体21と、入出力部22と、制御部23と、を備える。外部サーバ20は、例えば、インターネット等のネットワークを介して情報取得装置11および走行車両30と通信可能となっており、当該ネットワークを利用して、情報取得装置11や走行車両30から情報を取得する。なお、外部サーバ20情報の取得については、上述の形態に限定されず、例えば、ネットワークを利用せずに、オペレータ等が手動で情報取得装置11から外部サーバ20に情報を移動させるようにしてもよい。以降の説明では、情報取得装置11および走行車両30と、外部サーバ20との情報の授受は、ネットワークを介して送受信するものとして説明するが、上述の通りいずれについても本形態に限定されるものではなく、情報の授受はオペレータの手動によるものであってもよい。
 記憶部本体21は、例えばハードディスクや不揮発性メモリなどで構成され、地図データを記憶し、制御部23からの制御により読み書きがなされる。この地図データには地物データが含まれており、地物データには、各々の地物の属性が含まれている。地物の属性とは、例えば、その地物が建物である場合には、住宅であるのか店舗を示すものである。特に地物が店舗である場合には、その業態も示すものである。尚、記憶部本体21は、その記憶のデータ構造上、地図データと地物データとを別個に記憶するようにしてもよい。
 入出力部22は、インターネットや公衆回線等のネットワークと通信するための回路やアンテナ等から構成され、情報取得装置11および走行車両30と通信して情報を送受信する。
 制御部23は、例えばRAMやROMなどのメモリを備えたCPUで構成され、外部サーバ20の全体制御を司る。
 走行車両30には、現在位置を推定するための位置推定端末31が設けられている。尚、位置推定端末31は、その走行車両30に設けられた現在位置取得部(GPS受信部)35と併せて用いられる。位置推定端末31は、センサ32と、入出力部33と、制御部34と、を備える。
 センサ32は、電磁波を投射する投射部と、照射対象物(走行車両30の周辺に存在する物体)による電磁波の反射波を受光する受信部と、を有する。例えば、センサ32は、光を投射して照射対象物による反射光を受光する光センサが例示される。センサ32は、走行車両30の適宜な位置に適宜な個数だけ設けられていればよく、例えば、走行車両30を上方視した際の四隅のそれぞれに設けられていればよい。
 入出力部33は、インターネットや公衆回線等のネットワークと通信するための回路やアンテナ等から構成され、外部サーバ20と通信して情報を送受信する。尚、入出力部33は外部サーバ20から情報の受信のみを行うものであってもよい。なお、外部サーバ20からの情報の受信については、上述の形態に限定されず、例えば、ネットワークを利用せずに、オペレータ等が手動で外部サーバ装置20から位置推定端末31に情報を移動させるようにしてもよい。
 制御部34は、例えばRAMやROMなどのメモリを備えたCPUで構成され、位置推定端末31の全体制御を司る。
 以上のような運転支援システム1において、情報取得装置11が情報を収集し、収集した情報を外部サーバ20が記憶し、位置推定端末31が外部サーバ20の情報を利用して現在位置を推定する各方法の詳細について個別に説明する。
[情報取得装置による情報収集]
 情報取得装置11が実行する周辺情報処理の一例について、図2を参照して説明する。計測車両10が道路を走行する際に、制御部14は周辺情報処理を実行する。まず、制御部14は、その周辺に存在する物体に関する周辺情報を、適宜な時間間隔でセンサ12に取得させる(ステップS1、周辺情報取得工程)。即ち、センサ12に点群情報を取得させる。
 次に、制御部14は、入出力部13によって外部サーバ20から地物データを取得する(ステップS2、地物データ取得工程)。尚、予め外部サーバ20から地物データを取得するとともに情報取得装置11に記憶しておくことにより、ステップS2を省略してもよい。制御部14は、取得した地物データのうち、周辺情報の取得範囲に含まれる地物を検出し(ステップS3)、地物の属性に基づき、透光部を有すると推定される地物が存在するか否かを判定する(ステップS4)。透光部を有すると推定される地物とは、例えば食品等の小売店(スーパーマーケット、コンビニエンスストア等)やショールームを有する販売店(洋服店、カーディーラー等)である。尚、ステップS4では、透光部を有すると推定される地物を複数特定してもよい。
 透光部を有すると推定される地物が存在する場合(ステップS4でY)、制御部14は、センサ12によって取得した点群情報から、この地物全体に相当する点群を除去して除去後情報を生成する(ステップS5)。即ち、この地物が存在する位置の点群を消去する。この除去後情報を処理後情報とする。以上のようなステップS3~S5が生成工程となる。
 一方、透光部を有すると推定される地物が存在しない場合(ステップS4でN)、制御部14は、センサ12によって取得した点群情報を処理後情報とする(ステップS6)。ステップS5、S6の後、制御部14は、処理後情報を入出力部13によって外部サーバ20に送信する(ステップS7、送信工程)。また、制御部14は、ステップS7において、計測車両10の現在位置情報も併せて送信する。ステップS7の後、再びステップS1に戻り、制御部14はこれらの工程を繰り返す。
[外部サーバによる情報の記憶]
 外部サーバ20は、上記の送信工程(ステップS7)によって送信された処理後情報を入出力部22によって受信する。制御部23は、この処理後情報に基づいて地図データを作成する(地図作成工程)。尚、記憶部本体21に既に地図データが記憶されている場合には、処理後情報を受信した際にこの地図データを更新すればよい。
[位置推定端末による現在位置の推定]
 位置推定端末31は、入出力部33によって所定のタイミングで外部サーバ20から地図データを取得する。また、現在位置取得部35からその走行車両30の大まかな現在位置についての情報を取得する。さらに、位置推定端末31は、センサ32によって地物による反射光を受光し、この地物までの距離と、外部サーバ20から取得した地図データに含まれる地物情報と、を照らし合わせることにより、走行車両30の詳細な現在位置を推定する。
 このとき、上記の生成工程(ステップS3~S5)において、透光部を有する地物全体に相当する点群が点群情報から除去されていることから、センサ32が、透光部の表面による反射光や、透光部の奥に位置する物体による反射光を受光しても、この情報は現在位置の推定には用いられない。尚、透光部を有していない地物に関しては点群が除去されないことから、センサ32がこの地物による反射光を受光した場合には、この情報は現在位置の推定に用いられる。
 上記の構成により、センサ12によって取得した周辺情報から、透光部情報を含む地物の情報を除去して除去後情報を生成することにより、この除去後情報を用いて走行車両30の現在位置を推定することできる。このとき、取得情報が変化し得る透光部についての情報を用いないことで、推定精度を向上させることができる。
 なお、本発明は、前記実施例に限定されるものではなく、本発明の目的が達成できる他の構成等を含み、以下に示すような変形等も本発明に含まれる。
 例えば、前記実施例では、計測車両10に設けられた制御部14が、周辺情報取得工程と、地物データ取得工程と、生成工程と、送信工程と、を含む周辺情報処理を実行するものとしたが、外部サーバ20に設けられた制御部23が、周辺情報取得工程と、地物データ取得工程と、生成工程と、を含む周辺情報処理を実行してもよい。
 即ち、情報取得装置11の制御部14が、センサ12が取得した周辺情報を処理せずに外部サーバ20に送信してもよい。外部サーバ20の制御部23は、入出力部22によってこの周辺情報を取得し(周辺情報取得工程)、記憶部本体21から地物データを取得し(地物データ取得工程)、周辺情報から透光部情報を除去した除去後情報を生成する(生成工程)。尚、生成工程は前記実施例と同様であればよい。
 このように外部サーバ20の制御部23が周辺情報処理を実行する構成においても、前記実施例と同様に、取得情報が変化し得る透光部についての情報を現在位置の推定に用いないことで、推定精度を向上させることができる。
 また、前記実施例では、除去後情報に基づいて地図データを作成または更新する地図作成工程を、外部サーバ20の制御部23が実行するものとしたが、情報取得装置11の制御部14が地図作成工程を実行してもよい。即ち、情報取得装置11が地図データを作成または更新し、この地図データを外部サーバ20に送信してもよい。
 また、前記実施例では、制御部14が実行する周辺情報処理に送信工程が含まれるものとしたが、送信工程は含まれなくてもよい。例えば、情報取得装置11が処理後情報を記憶する記憶部を備え、計測車両10が所定のエリアを走行した後、記憶部から外部サーバ20にデータを移してもよい。
 また、前記実施例では、生成工程において透光部情報を含む地物の情報を除去するものとしたが、透光部を有する地物について、その属性に基づいて透光部の位置を判断できる場合には、透光部情報のみを除去してもよい。この場合、透光部情報とは、地物における透光部の位置を示す情報(前記実施例においてはこの位置の点群)を意味する。このようにすれば、地物における透光部以外の部分を、走行車両30の現在位置の推定に用いることができる。
 また、前記実施例では、センサ12が周辺情報として点群情報を取得し、この点群情報から透光部を有する地物に対応する点群を除去して除去後情報を生成するものとしたが、センサによる情報の取得方法はこれに限定されない。例えば、センサは周辺情報として画像情報を取得するものであってもよい。
 その他、本発明を実施するための最良の構成、方法などは、以上の記載で開示されているが、本発明は、これに限定されるものではない。すなわち、本発明は、主に特定の実施例に関して特に図示され、且つ、説明されているが、本発明の技術的思想および目的の範囲から逸脱することなく、以上述べた実施例に対し、形状、材質、数量、その他の詳細な構成において、当業者が様々な変形を加えることができるものである。従って、上記に開示した形状、材質などを限定した記載は、本発明の理解を容易にするために例示的に記載したものであり、本発明を限定するものではないから、それらの形状、材質などの限定の一部、もしくは全部の限定を外した部材の名称での記載は、本発明に含まれるものである。
 10    計測車両(移動体)
 12    センサ

Claims (5)

  1.  移動体に配置されたセンサによって、当該移動体の周辺に存在する物体に関する周辺情報を取得する周辺情報取得工程と、
     地物の属性に関する情報を含む地物データを取得する地物データ取得工程と、
     前記地物データに含まれる前記地物の属性に基づき、前記周辺情報から少なくとも当該地物が有する透光部に関する透光部情報を除去した除去後情報を生成する生成工程と、を含むことを特徴とする周辺情報処理方法。
  2.  前記除去後情報を外部送信する送信工程をさらに含むことを特徴とする請求項1に記載の周辺情報処理方法。
  3.  センサが配置された移動体から、当該移動体の周辺に存在する物体に関する周辺情報を取得する周辺情報取得工程と、
     前記地物データに含まれる前記地物の属性に基づき、前記周辺情報から少なくとも、当該地物が有する透光部に関する透光部情報を除去し、除去後情報を生成する生成工程と、を含むことを特徴とする周辺情報処理方法。
  4.  前記周辺情報取得工程において、前記周辺情報として点群情報を取得することを特徴とする請求項1又は3に記載の周辺情報処理方法。
  5.  前記除去後情報に基づいて地図データを作成または更新する地図作成工程をさらに含むことを特徴とする請求項1又は3に記載の周辺情報処理方法。
PCT/JP2019/002285 2018-01-31 2019-01-24 周辺情報処理方法 WO2019151106A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/965,288 US20210072392A1 (en) 2018-01-31 2019-01-24 Method for processing surrounding information
JP2019569062A JP6947853B2 (ja) 2018-01-31 2019-01-24 周辺情報処理方法
EP19746813.5A EP3748291A4 (en) 2018-01-31 2019-01-24 METHOD FOR PROCESSING PERIPHERAL INFORMATION

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018015315 2018-01-31
JP2018-015315 2018-01-31

Publications (1)

Publication Number Publication Date
WO2019151106A1 true WO2019151106A1 (ja) 2019-08-08

Family

ID=67478171

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/002285 WO2019151106A1 (ja) 2018-01-31 2019-01-24 周辺情報処理方法

Country Status (4)

Country Link
US (1) US20210072392A1 (ja)
EP (1) EP3748291A4 (ja)
JP (2) JP6947853B2 (ja)
WO (1) WO2019151106A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW202332292A (zh) * 2022-01-03 2023-08-01 美商高通公司 用於射頻(rf)測距輔助定位和地圖產生的系統和方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011196916A (ja) 2010-03-23 2011-10-06 Mitsubishi Electric Corp 計測車両、道路地物計測システム
WO2012141235A1 (ja) * 2011-04-13 2012-10-18 株式会社トプコン 三次元点群位置データ処理装置、三次元点群位置データ処理システム、三次元点群位置データ処理方法およびプログラム
WO2017208396A1 (ja) * 2016-06-01 2017-12-07 パイオニア株式会社 地物データ構造、記憶媒体、情報処理装置及び検出装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8126642B2 (en) * 2008-10-24 2012-02-28 Gray & Company, Inc. Control and systems for autonomously driven vehicles
US20110160919A1 (en) * 2009-12-30 2011-06-30 Orr David C Mobile fluid delivery control system and method
JP6354120B2 (ja) * 2013-05-21 2018-07-11 株式会社デンソー 道路情報送信装置、地図生成装置、道路情報収集システム
US9841763B1 (en) * 2015-12-16 2017-12-12 Uber Technologies, Inc. Predictive sensor array configuration system for an autonomous vehicle
KR102373926B1 (ko) * 2016-02-05 2022-03-14 삼성전자주식회사 이동체 및 이동체의 위치 인식 방법
JP6685836B2 (ja) * 2016-05-30 2020-04-22 株式会社東芝 情報処理装置、および、情報処理方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011196916A (ja) 2010-03-23 2011-10-06 Mitsubishi Electric Corp 計測車両、道路地物計測システム
WO2012141235A1 (ja) * 2011-04-13 2012-10-18 株式会社トプコン 三次元点群位置データ処理装置、三次元点群位置データ処理システム、三次元点群位置データ処理方法およびプログラム
WO2017208396A1 (ja) * 2016-06-01 2017-12-07 パイオニア株式会社 地物データ構造、記憶媒体、情報処理装置及び検出装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3748291A4

Also Published As

Publication number Publication date
JPWO2019151106A1 (ja) 2021-01-07
US20210072392A1 (en) 2021-03-11
EP3748291A4 (en) 2021-10-27
JP6947853B2 (ja) 2021-10-13
EP3748291A1 (en) 2020-12-09
JP2022003334A (ja) 2022-01-11

Similar Documents

Publication Publication Date Title
CN107305126B (zh) 记录介质、环境地图的制作系统和方法及更新系统和方法
CN115803781B (zh) 用于生成与对象相关联的鸟瞰图边界框的方法和系统
CN104035071B (zh) 融合雷达/摄像机物体数据和LiDAR扫描点的方法和装置
CN110795984A (zh) 信息处理方法、信息处理装置及程序记录介质
US10527730B2 (en) Object detection system
JP2016156973A (ja) 地図データ記憶装置、制御方法、プログラム及び記憶媒体
CN107850450A (zh) 用于生成及使用定位参考数据的方法及系统
JP7155284B2 (ja) 計測精度算出装置、自己位置推定装置、制御方法、プログラム及び記憶媒体
US10977816B2 (en) Image processing apparatus, image processing program, and driving assistance system
CN114829971A (zh) 一种激光雷达的标定方法、装置及存储介质
CN114765972A (zh) 用于示出车辆的周围环境模型的显示方法、计算机程序、控制器和车辆
Buck et al. Generic 3D obstacle detection for AGVs using time-of-flight cameras
US11834065B2 (en) System, method, and computer program product for detecting road marking points from LiDAR data
WO2019151106A1 (ja) 周辺情報処理方法
JP2023068009A (ja) 地図情報作成方法
WO2019151107A1 (ja) 周辺情報処理方法
WO2019151104A1 (ja) 周辺情報処理方法
CN115792867A (zh) 激光雷达仿真方法和装置
US20230168688A1 (en) Sequential mapping and localization (smal) for navigation
WO2019151108A1 (ja) 周辺情報処理方法
WO2019151105A1 (ja) 周辺情報処理方法
US20240210539A1 (en) Method and Device for Recognizing a Decalibration of a Lidar System
CN118050736A (zh) 联合检测方法、装置、终端设备以及存储介质
WO2019151109A1 (ja) 路面情報取得方法
CN117723053A (zh) 强化学习式多传感器融合导航方法、装置及电子设备

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19746813

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019569062

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019746813

Country of ref document: EP

Effective date: 20200831