WO2019151108A1 - 周辺情報処理方法 - Google Patents

周辺情報処理方法 Download PDF

Info

Publication number
WO2019151108A1
WO2019151108A1 PCT/JP2019/002287 JP2019002287W WO2019151108A1 WO 2019151108 A1 WO2019151108 A1 WO 2019151108A1 JP 2019002287 W JP2019002287 W JP 2019002287W WO 2019151108 A1 WO2019151108 A1 WO 2019151108A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
vegetation
removal
sensor
peripheral
Prior art date
Application number
PCT/JP2019/002287
Other languages
English (en)
French (fr)
Inventor
岳 青木
和紀 小山
令司 松本
克巳 天野
高橋 哲也
難波田 逸平
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Publication of WO2019151108A1 publication Critical patent/WO2019151108A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C7/00Tracing profiles
    • G01C7/02Tracing profiles of land surfaces
    • G01C7/04Tracing profiles of land surfaces involving a vehicle which moves along the profile to be traced
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids

Definitions

  • the present invention relates to a peripheral information processing method.
  • a moving body such as a vehicle may be provided with a sensor for recognizing an object existing around the moving body.
  • a moving body one having a plurality of laser radars as sensors has been proposed (see, for example, Patent Document 1).
  • a road feature is recognized as a surrounding object by scanning a laser beam.
  • Information obtained about the periphery of a moving body (measurement vehicle) by a method as described in Patent Document 1 is stored in a storage unit such as an external server, and this information may be used for driving support. That is, each moving body (traveling vehicle) recognizes a surrounding object by a sensor and can check the current position of the moving body by collating with information acquired from the storage unit.
  • the shape of the object located around the moving body may change with time even if it is static. At this time, the information stored in advance and the newly acquired information may be wrinkled. That is, even if an object whose shape changes is detected, it is difficult to use it for estimating the current position, and unnecessary information is processed.
  • the information stored in the storage unit may be updated based on the difference from the information stored in advance. In this case as well, even if information is updated on an object whose shape or the like is likely to change, it is difficult to use it for estimation of the current position as described above. Therefore, unnecessary information is processed even when information is updated.
  • an example of the subject of the present invention is to provide a peripheral information processing method that can omit unnecessary processing.
  • the peripheral information processing method provides the peripheral information related to an object existing around the moving body by means of a sensor arranged on the moving body.
  • the peripheral information processing method includes an acquisition step of acquiring peripheral information regarding an object existing around the moving body by a sensor disposed on the moving body, and vegetation corresponding to vegetation among the peripheral information.
  • a detection step for detecting information a first generation step for generating post-removal information in which at least part of the vegetation information is removed from the peripheral information, and removal history information indicating that at least part of the vegetation information has been removed from the peripheral information
  • a peripheral information processing method of the present embodiment by removing at least a part of the vegetation information from the peripheral information to generate post-removal information, and generating removal history information indicating that it has been removed, Unnecessary processing can be omitted in each moving body (for example, a traveling vehicle, hereinafter referred to as “terminal-side moving body”) that uses post-removal information.
  • a traveling vehicle hereinafter referred to as “terminal-side moving body” that uses post-removal information.
  • the vegetation part corresponding to the removed vegetation information is not used for estimating the current position. Therefore, it is not necessary to detect this vegetation part by a sensor disposed on the terminal side moving body. Since the removal history information is generated, detection of this vegetation portion by the sensor can be omitted.
  • the stored information may be updated based on the difference from the previously stored information.
  • the sensor of the terminal-side moving body receives reflected light from the vegetation part corresponding to the removed vegetation information, there is a difference between the information after removal and the information acquired by the sensor. Does not need to update information. Since the removal history information is generated, detection of this vegetation portion by the sensor can be omitted. Moreover, even if it detects with this sensor about this vegetation part, the information update based on a difference can be abbreviate
  • the vegetation in this embodiment means the movement path
  • the peripheral information processing method preferably further includes a transmission step of externally transmitting post-removal information and removal history information.
  • post-removal information and removal history information can be transmitted to a storage unit such as an external server and stored as a database.
  • the peripheral information processing method corresponds to an acquisition step of acquiring peripheral information about an object existing around the moving body from a moving body in which a sensor is arranged, and vegetation among the peripheral information.
  • a detection step for detecting vegetation information to be performed a first generation step for generating post-removal information by removing at least part of the vegetation information from the peripheral information, and removal indicating that at least part of the vegetation information has been removed from the peripheral information
  • a second generation step of generating history information A detection step for detecting vegetation information to be performed.
  • unnecessary processing can be omitted by generating not only post-removal information but also removal history information, as in the above-described embodiment.
  • the peripheral information processing method further includes a map creation step of creating or updating map data based on the post-removal information and the removal history information.
  • the peripheral information processing method acquires post-removal information from which vegetation information corresponding to vegetation has been removed from feature information regarding the feature, and removal history information indicating that the vegetation information has been removed. And a processing step of performing a predetermined process on the basis of information on the feature recognized by the sensor arranged on the moving body, post-removal information, and removal history information.
  • unnecessary processing as described above can be omitted by performing predetermined processing based on not only post-removal information but also removal history information.
  • the current position of the moving body may be estimated, or the information stored in the external storage unit may be updated.
  • the driving support system 1 includes a measurement vehicle 10 as a moving body, an external server 20 as a storage unit, and a plurality of traveling vehicles 30 as moving bodies. .
  • information is collected by the measurement vehicle 10, the collected information is stored in the external server 20, and the current position is estimated using the information of the external server 20 in the traveling vehicle 30. .
  • the measurement vehicle 10 is provided with an information acquisition device 11 that acquires information about a feature (an on-route feature located on the route of the vehicle and a neighboring feature located on the periphery of the road) as an object. Yes.
  • the information acquisition device 11 includes a sensor 12, an input / output unit 13, and a control unit 14.
  • the measurement vehicle 10 is provided with a current position acquisition unit 15 so that the current position can be acquired.
  • the current position acquisition unit 15 is exemplified by a GPS reception unit that receives radio waves transmitted from a plurality of GPS (Global Positioning System) satellites as is well known.
  • GPS Global Positioning System
  • the sensor 12 includes a first sensor 12A for recognizing the distance to the object and the shape of the object in detail, and a plurality of second sensors 12B capable of recognizing the color and shape of the object.
  • the first sensor 12A includes a projection unit that projects an electromagnetic wave, and a reception unit that receives a reflected wave of the electromagnetic wave from an irradiation object (an object existing around the measurement vehicle 10).
  • the first sensor 12A may be an optical sensor that projects light and receives reflected light from an irradiation object (so-called LIDAR; Laser Imaging Detection and Ranging).
  • LIDAR Laser Imaging Detection and Ranging
  • the first sensor 12 ⁇ / b> A acquires peripheral information regarding an object existing around the measurement vehicle 10 as point cloud information. That is, the first sensor 12A scans electromagnetic waves, and acquires point cloud information represented by three variables: a horizontal scanning angle ⁇ , a vertical scanning angle ⁇ , and a distance r at which an object is detected. To do.
  • the plurality of second sensors 12B include at least one sensor provided with a filter and one sensor provided with no filter, and each sensor may be a camera, for example.
  • the filter cuts a predetermined wavelength. Examples of the predetermined wavelength include those corresponding to pigments (for example, chlorophyll, carotenoid, anthocyanin) possessed by vegetation.
  • the wavelength cut by the filter may be changed according to the season or region. That is, the wavelength cut by the filter may be changed in response to the color of the vegetation leaf changing according to the climate.
  • the first sensor 12 ⁇ / b> A and the second sensor 12 ⁇ / b> B may be provided in an appropriate number at an appropriate position of the measurement vehicle 10.
  • the first sensor 12 ⁇ / b> A may be provided on the front side and the rear side of the measurement vehicle 10
  • the second sensor 12 ⁇ / b> B may be provided on the rear side of the measurement vehicle 10.
  • the range in which the first sensor 12A acquires information and the range in which the second sensor 12B acquires information have a common part, and the object included in the information acquired by the first sensor 12A, An object included in the information acquired by the two sensors 12B is associated with the object.
  • the input / output unit 13 includes a circuit, an antenna, and the like for communicating with a network such as the Internet or a public line, and communicates with the external server 20 to transmit / receive information.
  • the input / output unit 13 may only transmit information to the external server 20.
  • the control unit 14 is configured by a CPU (Central Processing Unit) having a memory such as a RAM (Random Access Memory) or a ROM (Read Only Memory), for example.
  • the control unit 14 controls the information acquisition apparatus 11 as will be described later.
  • the information acquired by the sensor 12 is processed, and the processed information is externally transmitted by the input / output unit 13.
  • the external server 20 includes a storage unit body 21, an input / output unit 22, and a control unit 23.
  • the external server 20 can communicate with the information acquisition device 11 and the traveling vehicle 30 via a network such as the Internet, for example, and acquires information from the information acquisition device 11 and the traveling vehicle 30 using the network. .
  • the acquisition of the external server 20 information is not limited to the above-described form.
  • an operator or the like may manually move information from the information acquisition device 11 to the external server 20 without using a network. Good.
  • transmission / reception of information with the information acquisition device 11 and the traveling vehicle 30 and the external server 20 will be described as being transmitted / received via a network. However, as described above, all are limited to this embodiment. Instead, the information may be exchanged manually by the operator.
  • the storage unit body 21 is composed of, for example, a hard disk or a nonvolatile memory, stores map data, and is read and written by control from the control unit 23.
  • This map data includes feature information
  • the feature information includes information related to objects around the measurement vehicle 10 acquired by the sensor 12 of the information acquisition device 11.
  • the storage unit main body 21 may store map data and feature information separately due to the data structure of the storage.
  • the input / output unit 22 includes a circuit, an antenna, and the like for communicating with a network such as the Internet or a public line, and communicates with the information acquisition device 11 and the traveling vehicle 30 to transmit and receive information.
  • the control unit 23 is composed of a CPU having a memory such as a RAM or a ROM, for example, and governs overall control of the external server 20.
  • the traveling vehicle 30 is provided with a position estimation terminal 31 for estimating the current position.
  • the position estimation terminal 31 is used in combination with a current position acquisition unit (GPS reception unit) 35 provided in the traveling vehicle 30.
  • the position estimation terminal 31 includes a sensor 32, an input / output unit 33, and a control unit 34.
  • the sensor 32 includes a projection unit that projects electromagnetic waves, and a reception unit that receives reflected waves of electromagnetic waves from an irradiation object (an object existing around the traveling vehicle 30).
  • the sensor 32 may be an optical sensor that projects light and receives reflected light from an irradiation object.
  • An appropriate number of sensors 32 may be provided at appropriate positions of the traveling vehicle 30, and may be provided, for example, at each of the four corners when the traveling vehicle 30 is viewed from above.
  • the input / output unit 33 includes a circuit, an antenna, and the like for communicating with a network such as the Internet or a public line, and communicates with the external server 20 to transmit / receive information. Note that the input / output unit 33 may only receive information from the external server 20. Note that reception of information from the external server 20 is not limited to the above-described form. For example, an operator or the like manually moves information from the external server device 20 to the position estimation terminal 31 without using a network. It may be.
  • the control unit 34 is constituted by a CPU having a memory such as a RAM or a ROM, for example, and governs overall control of the position estimation terminal 31.
  • the information acquisition device 11 collects information
  • the external server 20 stores the collected information
  • the position estimation terminal 31 estimates the current position using the information of the external server 20. Details of each method will be described individually.
  • the control unit 14 performs peripheral information processing.
  • the control unit 14 causes the sensor 12 to acquire peripheral information regarding an object existing in the vicinity thereof at an appropriate time interval (step S1, acquisition step). That is, the first sensor 12A is made to acquire point cloud information, and the second sensor 12B is made to acquire image information.
  • the control unit 14 determines whether or not the acquired peripheral information includes vegetation information corresponding to vegetation (step S2). As described above, when the plurality of second sensors 12B include a filter provided and a filter not provided, vegetation (particularly a leaf portion) is based on the difference between these image information. Can be detected. Therefore, in step S2, the control unit 14 detects vegetation information, and this process is a detection process.
  • the control unit 14 When vegetation information corresponding to vegetation is included in the peripheral information (Y in step S2), the control unit 14 includes, in the vegetation information, information corresponding to leaves, information corresponding to branches, and information corresponding to trunks. Are discriminated (step S3). Information corresponding to a leaf may be detected based on the difference in image information as described above. Further, an object having such a leaf can be recognized as vegetation, and a portion having a thickness greater than or equal to a predetermined value is determined as a trunk, and a portion having a thickness less than a predetermined value is determined as a stem Can be determined as a branch.
  • the trunk and the branch may be distinguished on the basis of the inclination angle with respect to the vertical direction, and the portion that extends from the ground along the vertical direction (within a predetermined inclination angle) is the trunk, and the portion that is inclined with respect to the vertical direction is It may be a branch.
  • control unit 14 removes the point cloud corresponding to the leaf and the point cloud corresponding to the branch from the point cloud information acquired by the first sensor 12A, and removes the point cloud corresponding to the trunk.
  • Information is generated (step S4, first generation step). That is, the point cloud at the position where the leaf exists and the point cloud at the position where the branch exists are deleted.
  • the control unit 14 generates removal history information indicating that a point group corresponding to a leaf and a point group corresponding to a branch have been removed from the point group information acquired by the first sensor 12A (step S5).
  • the removal history information may be included in the point cloud information by providing the point cloud information with a fourth variable indicating whether or not it has been removed.
  • the removal history information may be data independent of the point cloud information. For example, a range in which the point group is removed at least for the scanning angles ⁇ and ⁇ among the three variables of the scanning angles ⁇ and ⁇ and the distance r at which the object is detected may be used as the removal history information.
  • the post-removal information and the removal history information as described above are used as post-processing information.
  • step S6 when vegetation information corresponding to vegetation is not included in the peripheral information (N in step S2), the control unit 14 uses the point cloud information acquired by the first sensor 12A as post-processing information (step S6). After steps S5 and S6, the control unit 14 transmits post-processing information to the external server 20 by the input / output unit 13 (step S7, transmission process). Moreover, the control part 14 also transmits the present position information of the measurement vehicle 10 in step S7. After step S7, the process returns to step S1 again, and the control unit 14 repeats these steps.
  • the external server 20 receives the post-processing information transmitted in the transmission step (step S7) by the input / output unit 22.
  • the control unit 23 creates map data based on the post-processing information (map creation process). If map data is already stored in the storage unit main body 21, the map data may be updated when post-processing information is received.
  • the position estimation terminal 31 acquires map data from the external server 20 at a predetermined timing by the input / output unit 33. Further, information about the rough current position of the traveling vehicle 30 is acquired from the current position acquisition unit 35. Further, the position estimation terminal 31 receives reflected light from the feature by the sensor 32, and compares the distance to the feature with the feature information included in the map data acquired from the external server 20, A detailed current position of the traveling vehicle 30 is estimated (processing step).
  • the control unit 34 of the position estimation terminal 31 does not project the electromagnetic wave on the sensor 32 in the range indicated by the removal history information. That is, the object is not detected by the sensor 32 at the position where the leaf and the trunk exist in the vegetation. On the other hand, an object is detected by the sensor 32 at a position where a trunk exists or a feature other than vegetation exists, and the obtained information is used to estimate the current position of the traveling vehicle 30.
  • a part of the vegetation information is removed from the surrounding information to generate post-removal information, and generation of removal history information indicating that it has been removed, thereby omitting unnecessary processing in the traveling vehicle 30.
  • the position estimation terminal 31 of the traveling vehicle 30 estimates the current position, detection of the vegetation part corresponding to the removed vegetation information (part that is not used for estimation of the current position) may be omitted. it can.
  • the position estimation terminal 31 mounted in the traveling vehicle 30 is the processing process, and the present of the traveling vehicle 30 is based on the information regarding the feature recognized by the sensor 32, information after removal, and removal history information.
  • the processing performed in the processing step is not limited to the estimation of the current position.
  • the traveling vehicle 30 may update the information (map data) of the external server 20 based on the difference from the information acquired from the external server 20 by newly acquiring information about the feature by the sensor 32.
  • the sensor 32 since the sensor 32 receives the reflected light from the vegetation part corresponding to the removed point cloud, there is a difference between the information after removal and the information acquired by the sensor 32. There is no need to update. Since the removal history information is generated, detection of the vegetation portion by the sensor 32 can be omitted. Moreover, even if it detects by this sensor about this vegetation part, the information update based on a difference can be abbreviate
  • an alarm or the like may be generated in the vehicle interior.
  • the detected object may be movable such as a pedestrian or a bicycle, and may alert the passenger by an alarm or the like.
  • the sensor 32 detects a vegetation portion corresponding to the removed point cloud, it is not necessary to generate an alarm or the like.
  • an alarm or the like can be omitted for this vegetation portion. That is, generation of an alarm or the like when an object is detected by the sensor 32 is exemplified as another process performed in the processing step.
  • control part 14 provided in the measurement vehicle 10 performs peripheral information processing including an acquisition process, a detection process, a 1st production
  • control unit 23 provided in the external server 20 may execute peripheral information processing including an acquisition process, a detection process, a first generation process, and a second generation process.
  • control unit 14 of the information acquisition device 11 may transmit the peripheral information acquired by the sensor 12 to the external server 20 without processing.
  • the control unit 23 of the external server 20 acquires this peripheral information by the input / output unit 22 (acquisition process), detects vegetation information corresponding to vegetation from the peripheral information (detection process), and at least vegetation information from the peripheral information.
  • Information after removal from which a part has been removed is generated (first generation process), and removal history information indicating that at least part of the vegetation information has been removed from the peripheral information is generated (second generation process).
  • generation process should just be the same as that of the said Example.
  • control part 23 of the external server 20 shall perform the map preparation process which produces or updates map data based on post-removal information and removal history information, control of the information acquisition apparatus 11 is performed.
  • the unit 14 may execute the map creation process. That is, the information acquisition apparatus 11 may create or update map data and transmit this map data to the external server 20.
  • the transmission process is included in the peripheral information processing executed by the control unit 14, but the transmission process may not be included.
  • the information acquisition device 11 may include a storage unit that stores post-processing information and removal history information, and after the measurement vehicle 10 travels in a predetermined area, data may be transferred from the storage unit to the external server 20.
  • the information corresponding to the leaves and the information corresponding to the branches are removed from the vegetation information, and the information corresponding to the trunk is left and the post-removal information and the removal history information are generated.
  • the method of removal is not limited to this.
  • the post-removal information may be generated by removing only the information corresponding to the leaves from the vegetation information.
  • a threshold value may be set for the thickness of the trunk, and information on the trunk having a thickness equal to or smaller than the threshold value may be removed from the vegetation information.
  • all of the vegetation information may be removed from the peripheral information to generate post-removal information and removal history information.
  • the 1st sensor 12A acquires point cloud information as surrounding information
  • vegetation is detected based on the information which several 2nd sensors 12B acquired, and one vegetation information is obtained from this point cloud information.
  • the post-removal information and the removal history information are generated by removing the point group corresponding to the part, but the information acquisition method by the sensor is not limited to this.
  • a vegetation may be detected based on a difference between these acquired information using a sensor that transmits and receives electromagnetic waves with wavelengths that are easily absorbed by pigments that the vegetation has, and a sensor that transmits and receives electromagnetic waves with wavelengths that are difficult to absorb. .
  • the removal history information indicates that a part of the vegetation information is simply removed from the point cloud information, but other information may be included.
  • the removal history information may include reliability information when used for estimating the current position. Since vegetation changes in shape and the like over time, reliability is low when used for estimating the current position. However, when there are few features that can be used for estimating the current position in the surrounding area, vegetation may also be used for estimating the current position. Therefore, the removal history information may include information indicating that an object with low reliability exists, and may be used as appropriate in estimating the current position.
  • information regarding the season and region may be included in the removal history information. That is, the vegetation may be used for estimating the current position when the leaf does not fall, and the vegetation may not be used for estimating the current position when the leaf falls.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)

Abstract

不要な処理を省略することができる周辺情報処理方法を提供する。周辺情報から植生情報の一部を除去して除去後情報を生成するとともに、除去したことを示す除去履歴情報を生成することにより、走行車両(30)において不要な処理を省略することができる。即ち、走行車両(30)の位置推定端末(31)が現在位置を推定する際、除去された植生情報に対応する植生部分(現在位置の推定に用いられない部分)について、センサ(32)による検出を省略することができる。

Description

周辺情報処理方法
 本発明は、周辺情報処理方法に関する。
 一般に、車両等の移動体には、その周囲に存在する物体を認識するためのセンサが設けられることがある。このような移動体として、センサとしてのレーザレーダが複数設けられたものが提案されている(例えば、特許文献1参照)。特許文献1に記載された移動体では、レーザ光を走査することによって、周辺の物体として道路地物を認識するようになっている。
特開2011-196916号公報
 特許文献1に記載されたような方法で移動体(計測車両)周辺について得られた情報が外部サーバ等の記憶部に記憶され、この情報が運転支援に用いられることがある。即ち、各々の移動体(走行車両)がセンサによって周辺の物体を認識するとともに、記憶部から取得した情報と照合することにより、その移動体の現在位置を推定することができる。しかしながら、移動体の周辺に位置する物体は、静的なものであっても形状等が経時変化する場合がある。このとき、予め記憶された情報と、新たに取得する情報と、に齟齬が生じる可能性があった。即ち、形状変化する物体を検出しても現在位置の推定には利用しにくく、不要な情報の処理がなされていた。
 また、運転支援を受ける移動体が新たに情報を取得することにより、予め記憶された情報との差分に基づき、記憶部に記憶された情報を更新することもある。この場合も、形状等が形状変化しやすい物体について情報を更新しても、上記のように現在位置の推定には利用しにくい。従って、情報の更新時においても不要な情報の処理がなされていた。
 したがって、本発明の課題は、不要な処理を省略することができる周辺情報処理方法を提供することが一例として挙げられる。
 前述した課題を解決し目的を達成するために、請求項1に記載の本発明の周辺情報処理方法は、移動体に配置されたセンサによって、当該移動体の周辺に存在する物体に関する周辺情報を取得する取得工程と、前記周辺情報のうち植生に相当する植生情報を検出する検出工程と、前記周辺情報から前記植生情報の少なくとも一部を除去した除去後情報を生成する第1生成工程と、前記周辺情報から前記植生情報の少なくとも一部を除去したことを示す除去履歴情報を生成する第2生成工程と、を含むことを特徴としている。
本発明の実施例に係る運転支援システムの概略を示すブロック図である。 本発明の実施例に係る運転支援システムの情報取得装置が実行する周辺情報処理の一例を示すフローチャートである。
 以下、本発明の実施形態を説明する。本発明の実施形態に係る周辺情報処理方法は、移動体に配置されたセンサによって、この移動体の周辺に存在する物体に関する周辺情報を取得する取得工程と、周辺情報のうち植生に相当する植生情報を検出する検出工程と、周辺情報から植生情報の少なくとも一部を除去した除去後情報を生成する第1生成工程と、周辺情報から植生情報の少なくとも一部を除去したことを示す除去履歴情報を生成する第2生成工程と、を含む。
 このような本実施形態の周辺情報処理方法によれば、周辺情報から植生情報の少なくとも一部を除去して除去後情報を生成するとともに、除去したことを示す除去履歴情報を生成することにより、除去後情報を用いる各々の移動体(例えば走行車両であり、以下「端末側移動体」とする)において、不要な処理を省略することができる。
 例えば、端末側移動体において除去後情報を用いて現在位置を推定する場合、除去された植生情報に対応する植生部分は、現在位置の推定には用いられない。従って、この植生部分については、端末側移動体に配置されたセンサによって検出する必要がない。除去履歴情報が生成されていることにより、この植生部分についてセンサによる検出を省略することができる。
 また、端末側移動体がセンサによって新たに地物についての情報を取得することにより、予め記憶された情報との差分に基づき、記憶された情報を更新することがある。このとき、端末側移動体のセンサは、除去された植生情報に対応する植生部分による反射光を受光するため、除去後情報と、センサが取得する情報と、に差分が生じるが、この差分については情報を更新する必要がない。除去履歴情報が生成されていることにより、この植生部分についてセンサによる検出を省略することができる。また、この植生部分についてセンサによる検出を行ったとしても、差分に基づく情報更新を省略することができる。
 尚、本実施形態における植生とは、移動体の移動経路及びその周辺に位置する植物全般を意味し、例えば、街路樹や生垣、垣根等を含むものとする。また、例えば色に基づいて移動体周辺の物体が植生であるか否かを判断すればよい。
 周辺情報処理方法は、除去後情報及び除去履歴情報を外部送信する送信工程をさらに含むことが好ましい。これにより、除去後情報及び除去履歴情報を外部サーバ等の記憶部に送信し、データベースとして記憶させることができる。
 本発明の他の実施形態に係る周辺情報処理方法は、センサが配置された移動体から、この移動体の周辺に存在する物体に関する周辺情報を取得する取得工程と、周辺情報のうち植生に相当する植生情報を検出する検出工程と、周辺情報から植生情報の少なくとも一部を除去した除去後情報を生成する第1生成工程と、周辺情報から植生情報の少なくとも一部を除去したことを示す除去履歴情報を生成する第2生成工程と、を含む。
 このような本実施形態の周辺情報処理方法によれば、前記実施形態と同様に、除去後情報だけでなく除去履歴情報も生成することにより、不要な処理を省略することができる。
 周辺情報処理方法は、除去後情報及び除去履歴情報に基づいて地図データを作成または更新する地図作成工程をさらに含むことが好ましい。
 本発明の他の実施形態に係る周辺情報処理方法は、地物に関する地物情報から植生に相当する植生情報が除去された除去後情報、及び、除去したことを示す除去履歴情報を取得する取得工程と、移動体に配置されたセンサによって認識された地物に関する情報、除去後情報及び除去履歴情報に基づいて所定の処理を行う処理工程と、を含む。
 処理工程において、除去後情報だけでなく除去履歴情報にも基づいて所定の処理を行うことにより、上記のように不要な処理を省略することができる。
 処理工程において、移動体の現在位置を推定してもよいし、外部の記憶部に記憶された情報を更新してもよい。
 以下、本発明の実施例について具体的に説明する。本実施例の運転支援システム1は、図1に示すように、移動体としての計測車両10と、記憶部としての外部サーバ20と、移動体としての複数の走行車両30と、により構成される。運転支援システム1では、計測車両10によって情報を収集するとともに、収集した情報を外部サーバ20に記憶し、走行車両30において外部サーバ20の情報を利用して現在位置を推定するようになっている。
 計測車両10には、物体としての地物(車両の経路上に位置する経路上地物、及び、道路の周辺に位置する周辺地物)についての情報を取得する情報取得装置11が設けられている。情報取得装置11は、センサ12と、入出力部13と、制御部14と、を備える。また、計測車両10には、現在位置取得部15が設けられ、現在位置を取得可能となっている。現在位置取得部15としては、公知であるように複数のGPS(Global Positioning System)衛星から発信される電波を受信するGPS受信部が例示される。
 センサ12は、対象物との距離および対象物の形状を詳細に認識するための第1センサ12Aと、対象物の色および形状を認識可能な複数の第2センサ12Bと、を有する。
 第1センサ12Aは、電磁波を投射する投射部と、照射対象物(計測車両10の周辺に存在する物体)による電磁波の反射波を受光する受信部と、を有する。例えば、第1センサ12Aは、光を投射して照射対象物による反射光を受光する光センサ(いわゆるLIDAR; Laser Imaging Detection and Ranging)であればよい。第1センサ12Aは、計測車両10の周辺に存在する物体に関する周辺情報を、点群情報として取得する。即ち、第1センサ12Aは、電磁波を走査し、水平方向の走査角度θと、上下方向の走査角度φと、物体が検出される距離rと、の3変数によって表される点群情報を取得する。
 複数の第2センサ12Bは、フィルタが設けられたものと、フィルタが設けられないものと、を少なくとも1つずつ含み、各センサは例えばカメラであればよい。フィルタは、所定波長をカットするものである。この所定波長は、植生が有する色素(例えばクロロフィル、カルテノイド、アントシアニン)に対応したものが例示される。また、フィルタがカットする波長を、季節や地域に応じて変化させてもよい。即ち、植生の葉の色が気候により変化するのに対応して、フィルタがカットする波長を変化させてもよい。
 第1センサ12A及び第2センサ12Bは、計測車両10の適宜な位置に適宜な個数だけ設けられていればよい。例えば、第1センサ12Aが計測車両10の前方側及び後方側に設けられ、第2センサ12Bが計測車両10の後方側に設けられていればよい。また、第1センサ12Aが情報を取得する範囲と、第2センサ12Bが情報を取得する範囲と、は共通部分を有しており、第1センサ12Aが取得した情報に含まれる物体と、第2センサ12Bが取得した情報に含まれる物体と、が対応付けられるようになっている。
 入出力部13は、インターネットや公衆回線等のネットワークと通信するための回路やアンテナ等から構成され、外部サーバ20と通信して情報を送受信する。尚、入出力部13は外部サーバ20に対して情報の送信のみを行うものであってもよい。
 制御部14は、例えばRAM(Random Access Memory)やROM(Read Only Memory)などのメモリを備えたCPU(Central Processing Unit)で構成され、情報取得装置11の全体制御を司り、後述するように、センサ12が取得した情報について処理を行うとともに、処理後の情報を入出力部13によって外部送信する。
 外部サーバ20は、記憶部本体21と、入出力部22と、制御部23と、を備える。外部サーバ20は、例えば、インターネット等のネットワークを介して情報取得装置11および走行車両30と通信可能となっており、当該ネットワークを利用して、情報取得装置11や走行車両30から情報を取得する。なお、外部サーバ20情報の取得については、上述の形態に限定されず、例えば、ネットワークを利用せずに、オペレータ等が手動で情報取得装置11から外部サーバ20に情報を移動させるようにしてもよい。以降の説明では、情報取得装置11および走行車両30と、外部サーバ20との情報の授受は、ネットワークを介して送受信するものとして説明するが、上述の通りいずれについても本形態に限定されるものではなく、情報の授受はオペレータの手動によるものであってもよい。
 記憶部本体21は、例えばハードディスクや不揮発性メモリなどで構成され、地図データを記憶し、制御部23からの制御により読み書きがなされる。この地図データには地物情報が含まれており、地物情報には、情報取得装置11のセンサ12によって取得された計測車両10周辺の物体に関する情報が含まれる。尚、記憶部本体21は、その記憶のデータ構造上、地図データと地物情報とを別個に記憶するようにしてもよい。
 入出力部22は、インターネットや公衆回線等のネットワークと通信するための回路やアンテナ等から構成され、情報取得装置11および走行車両30と通信して情報を送受信する。
 制御部23は、例えばRAMやROMなどのメモリを備えたCPUで構成され、外部サーバ20の全体制御を司る。
 走行車両30には、現在位置を推定するための位置推定端末31が設けられている。尚、位置推定端末31は、その走行車両30に設けられた現在位置取得部(GPS受信部)35と併せて用いられる。位置推定端末31は、センサ32と、入出力部33と、制御部34と、を備える。
 センサ32は、電磁波を投射する投射部と、照射対象物(走行車両30の周辺に存在する物体)による電磁波の反射波を受光する受信部と、を有する。例えば、センサ32は、光を投射して照射対象物による反射光を受光する光センサが例示される。センサ32は、走行車両30の適宜な位置に適宜な個数だけ設けられていればよく、例えば、走行車両30を上方視した際の四隅のそれぞれに設けられていればよい。
 入出力部33は、インターネットや公衆回線等のネットワークと通信するための回路やアンテナ等から構成され、外部サーバ20と通信して情報を送受信する。尚、入出力部33は外部サーバ20から情報の受信のみを行うものであってもよい。なお、外部サーバ20からの情報の受信については、上述の形態に限定されず、例えば、ネットワークを利用せずに、オペレータ等が手動で外部サーバ装置20から位置推定端末31に情報を移動させるようにしてもよい。
 制御部34は、例えばRAMやROMなどのメモリを備えたCPUで構成され、位置推定端末31の全体制御を司る。
 以上のような運転支援システム1において、情報取得装置11が情報を収集し、収集した情報を外部サーバ20が記憶し、位置推定端末31が外部サーバ20の情報を利用して現在位置を推定する各方法の詳細について個別に説明する。
[情報取得装置による情報収集]
 情報取得装置11が実行する周辺情報処理の一例について、図2を参照して説明する。計測車両10が道路を走行する際に、制御部14は周辺情報処理を実行する。まず、制御部14は、その周辺に存在する物体に関する周辺情報を、適宜な時間間隔でセンサ12に取得させる(ステップS1、取得工程)。即ち、第1センサ12Aに点群情報を取得させるとともに、第2センサ12Bに画像情報を取得させる。
 次に、制御部14は、取得した周辺情報に、植生に相当する植生情報が含まれるか否かを判断する(ステップS2)。上記のように、複数の第2センサ12Bが、フィルタが設けられたものと、フィルタが設けられないものと、を含むことにより、これらの画像情報の差分に基づき、植生(特に葉の部分)を検出することができる。従って、ステップS2では、制御部14が植生情報を検出しており、この工程が検出工程となる。
 植生に相当する植生情報が周辺情報に含まれる場合(ステップS2でY)、制御部14は、その植生情報において、葉に相当する情報と、枝に相当する情報と、幹に相当する情報と、を判別する(ステップS3)。葉に相当する情報は、上記のように画像情報の差分に基づき検出すればよい。また、このような葉を有する物体を植生と認識することができ、この物体における棒状の部分について、所定値以上の太さを有する部分を幹と判断し、所定値未満の太さを有する部分を枝と判断すればよい。また、鉛直方向に対する傾斜角度に基づいて幹と枝とを区別してもよく、地面から鉛直方向に沿って(所定の傾斜角度以内で)延びる部分を幹とし、鉛直方向に対して傾斜した部分を枝としてもよい。
 次に、制御部14は、第1センサ12Aによって取得した点群情報から葉に相当する点群と、枝に相当する点群と、を除去し、幹に相当する点群を残して除去後情報を生成する(ステップS4、第1生成工程)。即ち、葉が存在する位置の点群および枝が存在する位置の点群を消去する。
 さらに、制御部14は、第1センサ12Aによって取得した点群情報から、葉に相当する点群と、枝に相当する点群と、を除去したことを示す除去履歴情報を生成する(ステップS5、第2生成工程)。例えば除去されたか否かを示す第4の変数を点群情報に持たせることにより、除去履歴情報を点群情報に含めてもよい。また、除去履歴情報を点群情報とは独立のデータとしてもよい。例えば、走査角度θ、φ及び物体が検出される距離rの3変数のうち、少なくとも走査角度θ、φについて、点群が除去された範囲を除去履歴情報としてもよい。上記のような除去後情報及び除去履歴情報を処理後情報とする。
 一方、植生に相当する植生情報が周辺情報に含まれない場合(ステップS2でN)、制御部14は、第1センサ12Aによって取得した点群情報を処理後情報とする(ステップS6)。ステップS5、S6の後、制御部14は、処理後情報を入出力部13によって外部サーバ20に送信する(ステップS7、送信工程)。また、制御部14は、ステップS7において、計測車両10の現在位置情報も併せて送信する。ステップS7の後、再びステップS1に戻り、制御部14はこれらの工程を繰り返す。
[外部サーバによる情報の記憶]
 外部サーバ20は、上記の送信工程(ステップS7)によって送信された処理後情報を入出力部22によって受信する。制御部23は、この処理後情報に基づいて地図データを作成する(地図作成工程)。尚、記憶部本体21に既に地図データが記憶されている場合には、処理後情報を受信した際にこの地図データを更新すればよい。
[位置推定端末による現在位置の推定]
 位置推定端末31は、入出力部33によって所定のタイミングで外部サーバ20から地図データを取得する。また、現在位置取得部35からその走行車両30の大まかな現在位置についての情報を取得する。さらに、位置推定端末31は、センサ32によって地物による反射光を受光し、この地物までの距離と、外部サーバ20から取得した地図データに含まれる地物情報と、を照らし合わせることにより、走行車両30の詳細な現在位置を推定する(処理工程)。
 このとき、位置推定端末31の制御部34は、除去履歴情報によって示される範囲については、センサ32に電磁波を投射させない。即ち、植生のうち葉及び幹が存在する位置については、センサ32による物体の検出を行わない。一方、幹が存在する位置や、植生以外の地物が存在する位置についてはセンサ32による物体の検出を行い、得られた情報を走行車両30の現在位置の推定に用いる。
 上記の構成により、周辺情報から植生情報の一部を除去して除去後情報を生成するとともに、除去したことを示す除去履歴情報を生成することにより、走行車両30において不要な処理を省略することができる。即ち、走行車両30の位置推定端末31が現在位置を推定する際、除去された植生情報に対応する植生部分(現在位置の推定に用いられない部分)について、センサ32による検出を省略することができる。
 なお、本発明は、前記実施例に限定されるものではなく、本発明の目的が達成できる他の構成等を含み、以下に示すような変形等も本発明に含まれる。
 例えば、前記実施例では、走行車両30に搭載された位置推定端末31が、処理工程として、センサ32によって認識された地物に関する情報、除去後情報及び除去履歴情報に基づいて走行車両30の現在位置を推定するものとしたが、処理工程において行われる処理は、現在位置の推定に限定されない。
 走行車両30は、センサ32によって新たに地物についての情報を取得することにより、外部サーバ20から取得した情報との差分に基づき、外部サーバ20の情報(地図データ)を更新することがある。このとき、センサ32は、除去された点群に対応する植生部分による反射光を受光するため、除去後情報と、センサ32が取得する情報と、に差分が生じるが、この差分については情報を更新する必要がない。除去履歴情報が生成されていることにより、この植生部分についてセンサ32による検出を省略することができる。また、この植生部分についてセンサ32による検出を行ったとしても、差分に基づく情報更新を省略することができる。即ち、処理工程において行われる他の処理として、差分に基づく情報の更新が例示される。
 また、走行車両30のセンサ32によって、外部サーバ20から取得した地図データに含まれる地物以外の物体が検出された場合、車室内に警報等を発生することがある。即ち、この検出された物体は、例えば歩行者や自転車等の移動可能なものである可能性があり、警報等によって搭乗者に注意喚起することがある。このとき、センサ32が、除去された点群に対応する植生部分を検出したとしても、警報等を発生する必要がない。除去履歴情報が生成されていることにより、この植生部分について警報等を省略することができる。即ち、処理工程において行われる他の処理として、センサ32により物体を検出した際の警報等の発生が例示される。
 また、前記実施例では、計測車両10に設けられた制御部14が、取得工程と、検出工程と、第1生成工程と、第2生成工程と、送信工程と、を含む周辺情報処理を実行するものとしたが、外部サーバ20に設けられた制御部23が、取得工程と、検出工程と、第1生成工程と、第2生成工程と、を含む周辺情報処理を実行してもよい。
 即ち、情報取得装置11の制御部14が、センサ12が取得した周辺情報を処理せずに外部サーバ20に送信してもよい。外部サーバ20の制御部23は、入出力部22によってこの周辺情報を取得し(取得工程)、周辺情報のうち植生に相当する植生情報を検出し(検出工程)、周辺情報から植生情報の少なくとも一部を除去した除去後情報を生成し(第1生成工程)、周辺情報から植生情報の少なくとも一部を除去したことを示す除去履歴情報を生成する(第2生成工程)。尚、検出工程、第1生成工程及び第2生成工程は、前記実施例と同様であればよい。
 このように外部サーバ20の制御部23が周辺情報処理を実行する構成においても、前記実施例と同様に、除去後情報だけでなく除去履歴情報も生成することにより、不要な処理を省略することができる。
 また、前記実施例では、除去後情報及び除去履歴情報に基づいて地図データを作成または更新する地図作成工程を、外部サーバ20の制御部23が実行するものとしたが、情報取得装置11の制御部14が地図作成工程を実行してもよい。即ち、情報取得装置11が地図データを作成または更新し、この地図データを外部サーバ20に送信してもよい。
 また、前記実施例では、制御部14が実行する周辺情報処理に送信工程が含まれるものとしたが、送信工程は含まれなくてもよい。例えば、情報取得装置11が処理後情報及び除去履歴情報を記憶する記憶部を備え、計測車両10が所定のエリアを走行した後、記憶部から外部サーバ20にデータを移してもよい。
 また、前記実施例では、植生情報のうち、葉に相当する情報および枝に相当する情報を除去するとともに幹に相当する情報を残して除去後情報及び除去履歴情報を生成するものとしたが、除去の仕方はこれに限定されない。例えば、植生情報のうち葉に相当する情報のみを除去して除去後情報を生成してもよい。また、幹の太さについて閾値を設定しておき、閾値以下の太さを有する幹についての情報を、植生情報から除去してもよい。また、周辺情報から植生情報の全部を除去して除去後情報及び除去履歴情報を生成してもよい。
 また、前記実施例では、第1センサ12Aが周辺情報として点群情報を取得するとともに、複数の第2センサ12Bが取得した情報に基づいて植生を検出し、この点群情報から植生情報の一部に対応する点群を除去して除去後情報及び除去履歴情報を生成するものとしたが、センサによる情報の取得方法はこれに限定されない。例えば、植生が有する色素によって吸収されやすい波長の電磁波を送受信するセンサと、吸収されにくい波長の電磁波を送受信するセンサと、を用い、これらの取得情報の差分に基づいて植生を検出してもよい。
 また、前記実施例では、除去履歴情報は、点群情報から植生情報の一部を単に除去したことを示すものとしたが、他の情報も含んでいてもよい。
 例えば、除去履歴情報に、現在位置の推定に用いる際の信頼度の情報を含めてもよい。植生は、形状等が経時変化するものであるため、現在位置の推定に用いる場合には信頼度が低い。しかしながら、その周囲に現在位置の推定に用いることができる地物が少ない場合には、植生も現在位置の推定に用いてもよい。そこで、除去履歴情報に、信頼度の低い物体が存在しているという情報を含め、現在位置の推定において適宜に利用してもよい。
 また、除去履歴情報に、季節や地域についての情報を含めてもよい。即ち、葉が落葉しない時期においては植生を現在位置の推定に用い、落葉する時期には植生を現在位置の推定に用いないようにしてもよい。
 その他、本発明を実施するための最良の構成、方法などは、以上の記載で開示されているが、本発明は、これに限定されるものではない。すなわち、本発明は、主に特定の実施例に関して特に図示され、且つ、説明されているが、本発明の技術的思想および目的の範囲から逸脱することなく、以上述べた実施例に対し、形状、材質、数量、その他の詳細な構成において、当業者が様々な変形を加えることができるものである。従って、上記に開示した形状、材質などを限定した記載は、本発明の理解を容易にするために例示的に記載したものであり、本発明を限定するものではないから、それらの形状、材質などの限定の一部、もしくは全部の限定を外した部材の名称での記載は、本発明に含まれるものである。
 10    計測車両(移動体)
 12    センサ
 30    走行車両(移動体)
 32    センサ

Claims (6)

  1.  移動体に配置されたセンサによって、当該移動体の周辺に存在する物体に関する周辺情報を取得する取得工程と、
     前記周辺情報のうち植生に相当する植生情報を検出する検出工程と、
     前記周辺情報から前記植生情報の少なくとも一部を除去した除去後情報を生成する第1生成工程と、
     前記周辺情報から前記植生情報の少なくとも一部を除去したことを示す除去履歴情報を生成する第2生成工程と、を含むことを特徴とする周辺情報処理方法。
  2.  前記除去後情報及び前記除去履歴情報を外部送信する送信工程をさらに含むことを特徴とする請求項1に記載の周辺情報処理方法。
  3.  センサが配置された移動体から、当該移動体の周辺に存在する物体に関する周辺情報を取得する取得工程と、
     前記周辺情報のうち植生に相当する植生情報を検出する検出工程と、
     前記周辺情報から前記植生情報の少なくとも一部を除去した除去後情報を生成する第1生成工程と、
     前記周辺情報から前記植生情報の少なくとも一部を除去したことを示す除去履歴情報を生成する第2生成工程と、を含むことを特徴とする周辺情報処理方法。
  4.  前記除去後情報及び前記除去履歴情報に基づいて地図データを作成または更新する地図作成工程をさらに含むことを特徴とする請求項1又は3に記載の周辺情報処理方法。
  5.  地物に関する地物情報から植生に相当する植生情報が除去された除去後情報、及び、除去したことを示す除去履歴情報を取得する取得工程と、
     移動体に配置されたセンサによって認識された地物に関する情報、前記除去後情報及び前記除去履歴情報に基づいて所定の処理を行う処理工程と、を含むことを特徴とする情報処理方法。
  6.  前記処理工程において、前記移動体の現在位置を推定することを特徴とする請求項5に記載の情報処理方法。
PCT/JP2019/002287 2018-01-31 2019-01-24 周辺情報処理方法 WO2019151108A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018015317 2018-01-31
JP2018-015317 2018-07-11

Publications (1)

Publication Number Publication Date
WO2019151108A1 true WO2019151108A1 (ja) 2019-08-08

Family

ID=67478163

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/002287 WO2019151108A1 (ja) 2018-01-31 2019-01-24 周辺情報処理方法

Country Status (1)

Country Link
WO (1) WO2019151108A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011013803A (ja) * 2009-06-30 2011-01-20 Ihi Corp 周囲形状検出装置、自律移動装置、移動体の操縦補助装置、周囲形状検出方法、自律移動装置の制御方法及び移動体の操縦補助方法
US20160377698A1 (en) * 2015-06-25 2016-12-29 Appropolis Inc. System and a method for tracking mobile objects using cameras and tag devices
JP2017083477A (ja) * 2017-02-07 2017-05-18 パイオニア株式会社 表示制御方法、プログラムおよび表示装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011013803A (ja) * 2009-06-30 2011-01-20 Ihi Corp 周囲形状検出装置、自律移動装置、移動体の操縦補助装置、周囲形状検出方法、自律移動装置の制御方法及び移動体の操縦補助方法
US20160377698A1 (en) * 2015-06-25 2016-12-29 Appropolis Inc. System and a method for tracking mobile objects using cameras and tag devices
JP2017083477A (ja) * 2017-02-07 2017-05-18 パイオニア株式会社 表示制御方法、プログラムおよび表示装置

Similar Documents

Publication Publication Date Title
CN109215083B (zh) 车载传感器的外部参数标定的方法和设备
CN107305126B (zh) 记录介质、环境地图的制作系统和方法及更新系统和方法
WO2022007198A1 (en) Method and system for generating bird's eye view bounding box associated with object
US10620317B1 (en) Lidar-based high definition map generation
US11815897B2 (en) Method and system for generating an importance occupancy grid map
CN109307869B (zh) 用于增加激光雷达探测器的视场的设备和照明装置
US11156717B2 (en) Method and apparatus crosstalk and multipath noise reduction in a LIDAR system
CN108761474A (zh) 用于具有高处理增益的脉冲重复序列的方法和装置
CN109387857B (zh) 激光雷达系统中的跨网段检测方法和设备
CN110795984A (zh) 信息处理方法、信息处理装置及程序记录介质
US10591923B2 (en) Method and apparatus for parallel illumination by a VCSEL array
US20190041865A1 (en) Method and Apparatus for Parallel Acquisition in Lidar Array
US20190086513A1 (en) Method and apparatus for frame rate boosting in lidar array
US20180372874A1 (en) Apparatus for mechanical scanning scheme for lidar illuminator
US11035679B2 (en) Localization technique
JP2021518558A (ja) 物体の材料組成を識別するための方法およびシステム
WO2019151108A1 (ja) 周辺情報処理方法
WO2019151105A1 (ja) 周辺情報処理方法
JP2023068009A (ja) 地図情報作成方法
JP6947853B2 (ja) 周辺情報処理方法
EP4264327A1 (en) System, method, and computer program product for detecting road marking points from lidar data
WO2019151107A1 (ja) 周辺情報処理方法
CN113936058A (zh) 基于车辆的数据获取
WO2019151104A1 (ja) 周辺情報処理方法
EP4206738A1 (en) Method and a server for updating a map representation

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19747337

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19747337

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP