WO2019151107A1 - 周辺情報処理方法 - Google Patents

周辺情報処理方法 Download PDF

Info

Publication number
WO2019151107A1
WO2019151107A1 PCT/JP2019/002286 JP2019002286W WO2019151107A1 WO 2019151107 A1 WO2019151107 A1 WO 2019151107A1 JP 2019002286 W JP2019002286 W JP 2019002286W WO 2019151107 A1 WO2019151107 A1 WO 2019151107A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
removal
peripheral
feature
translucent part
Prior art date
Application number
PCT/JP2019/002286
Other languages
English (en)
French (fr)
Inventor
克巳 天野
令司 松本
岳 青木
和紀 小山
高橋 哲也
難波田 逸平
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Publication of WO2019151107A1 publication Critical patent/WO2019151107A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C7/00Tracing profiles
    • G01C7/02Tracing profiles of land surfaces
    • G01C7/04Tracing profiles of land surfaces involving a vehicle which moves along the profile to be traced

Definitions

  • the present invention relates to a peripheral information processing method.
  • a moving body such as a vehicle may be provided with a sensor for recognizing an object existing around the moving body.
  • a moving body one having a plurality of laser radars as sensors has been proposed (see, for example, Patent Document 1).
  • a road feature is recognized as a surrounding object by scanning a laser beam.
  • Information obtained about the periphery of a moving body (measurement vehicle) by a method as described in Patent Document 1 is stored in a storage unit such as an external server, and this information may be used for driving support. That is, each moving body (traveling vehicle) recognizes a surrounding object by a sensor and can check the current position of the moving body by collating with information acquired from the storage unit.
  • a storage unit such as an external server
  • information to be acquired may change depending on the environment at the time of measurement. At this time, there is a possibility that the information stored in advance and the newly acquired information are flawed, and there is a possibility that the current position is estimated. That is, even if an object whose acquired information changes is detected, it is difficult to use it for estimating the current position, and unnecessary information is processed.
  • the information stored in the storage unit may be updated based on the difference from the information stored in advance. In this case as well, even if the information is updated for an object whose acquired information is likely to change, it is difficult to use it for estimating the current position as described above. Therefore, unnecessary information is processed even when information is updated.
  • an example of the subject of the present invention is to provide a peripheral information processing method that can omit unnecessary processing.
  • the peripheral information processing method provides the peripheral information related to an object existing around the moving body by means of a sensor arranged on the moving body.
  • a second generation step of generating removal history information indicating that the translucent part information has been removed from the peripheral information is provided.
  • FIG. 1 is a block diagram illustrating an outline of a driving support system according to a first embodiment of the present invention.
  • FIG. It is a flowchart which shows an example of the periphery information processing which the information acquisition apparatus of the driving assistance system which concerns on 1st Example of this invention performs. It is a flowchart which shows an example of the periphery information processing which the information acquisition apparatus of the driving assistance system which concerns on 2nd Example of this invention performs.
  • the peripheral information processing method corresponds to an acquisition step of acquiring peripheral information about an object existing around the moving body by a sensor disposed on the moving body, and corresponds to a translucent portion of the peripheral information.
  • a detection process for detecting translucent part information, a first generation process for generating post-removal information from which at least the translucent part information has been removed from the peripheral information, and a removal history indicating that the translucent part information has been removed from the peripheral information A second generation step of generating information.
  • the translucent part information is removed from the peripheral information to generate post-removal information, and the removal history information indicating the removal is generated, thereby removing the information.
  • Unnecessary processing can be omitted in each moving body (for example, a traveling vehicle, hereinafter referred to as a “terminal-side moving body”) that uses post information.
  • the translucent part corresponding to the removed translucent part information is not used for estimating the current position. Therefore, it is not necessary to detect this translucent part with the sensor arrange
  • the stored information may be updated based on the difference from the previously stored information.
  • the sensor of the terminal-side moving body receives the reflected light from the translucent part corresponding to the removed translucent part information, there is a difference between the information after removal and the information acquired by the sensor. There is no need to update the information for this difference. Since the removal history information is generated, detection of the light transmitting part by the sensor can be omitted. Moreover, even if it detects with this sensor about this translucent part, the information update based on a difference can be abbreviate
  • the translucent part in this embodiment means the whole translucent member provided in the movement path
  • the glass member which comprises the whole is included.
  • the material of the translucent portion is not limited to glass, and may be a resin such as an acrylic resin.
  • a peripheral information processing method relates to a peripheral information acquisition step of acquiring peripheral information related to an object existing around the moving body by a sensor disposed on the moving body, and to an attribute of the feature Based on the feature data acquisition process for acquiring feature data including information and the attribute of the feature included in the feature data, at least the translucent part information on the translucent part of the feature is removed from the surrounding information.
  • unnecessary processing can be omitted by generating not only post-removal information but also removal history information, as in the above-described embodiment.
  • the attribute of a feature indicates, for example, if the feature is a building, it indicates a house or a store, and if the feature is a store, indicates the business condition. If the store's business type is, for example, a food retailer (supermarket, convenience store, etc.) or a store with a showroom (clothes store, car dealer, etc.), the building has a translucent part. There is a high possibility. Thus, based on the attribute of the feature, it can be determined whether or not the feature has a translucent part, the ratio of the translucent part in the wall surface of the building, and the like. Further, when the feature is a house, it may be determined that the building is likely to have a translucent portion on the south-facing wall surface.
  • the position of the translucent part can be determined based on the attribute of the feature having the translucent part, only the translucent part information needs to be removed in the first generation step, and the position of the translucent part is determined. If this is not possible, information relating to the entire feature (that is, information including translucent part information) may be removed.
  • the peripheral information processing method preferably further includes a transmission step of externally transmitting post-removal information and removal history information.
  • the post-removal information can be transmitted to a storage unit such as an external server and stored as a database.
  • a peripheral information processing method includes an acquisition step of acquiring peripheral information about an object existing around the moving body from a moving body in which a sensor is arranged, and a translucent portion of the peripheral information It shows that the translucent part information is removed from the detection process for detecting the translucent part information corresponding to the above, the first generation process for generating post-removal information by removing at least the translucent part information from the peripheral information, and A second generation step of generating removal history information.
  • unnecessary processing can be omitted by generating not only post-removal information but also removal history information, as in the above-described embodiment.
  • a peripheral information processing method includes a peripheral information acquisition step of acquiring peripheral information related to an object existing around the mobile body from a mobile body in which a sensor is arranged, and feature data.
  • the first generation step of removing at least the translucent part information on the translucent part of the feature and generating post-removal information from the peripheral information based on the attribute of the feature to be obtained, and the translucent part information from the peripheral information
  • a second generation step of generating removal history information indicating removal.
  • unnecessary processing can be omitted by generating not only post-removal information but also removal history information, as in the above-described embodiment.
  • the peripheral information processing method further includes a map creation step of creating or updating map data based on the post-removal information and the removal history information.
  • the information processing method acquires post-removal information from which at least the light-transmitting portion information corresponding to the light-transmitting portion has been removed from the feature information regarding the feature, and removal history information indicating that it has been removed. And a processing step of performing a predetermined process based on information on the feature recognized by the sensor arranged on the moving body, post-removal information, and removal history information.
  • unnecessary processing as described above can be omitted by performing predetermined processing based on not only post-removal information but also removal history information.
  • the current position of the moving body may be estimated, or the information stored in the external storage unit may be updated.
  • the driving support system 1 includes a measurement vehicle 10 as a moving body, an external server 20 as a storage unit, and a plurality of traveling vehicles 30 as moving bodies. .
  • information is collected by the measurement vehicle 10, the collected information is stored in the external server 20, and the current position is estimated using the information of the external server 20 in the traveling vehicle 30. .
  • the measurement vehicle 10 is provided with an information acquisition device 11 that acquires information about a feature (an on-route feature located on the route of the vehicle and a neighboring feature located on the periphery of the road) as an object. Yes.
  • the information acquisition device 11 includes a sensor 12, an input / output unit 13, and a control unit 14.
  • the measurement vehicle 10 is provided with a current position acquisition unit 15 so that the current position can be acquired.
  • the current position acquisition unit 15 is exemplified by a GPS reception unit that receives radio waves transmitted from a plurality of GPS (Global Positioning System) satellites as is well known.
  • GPS Global Positioning System
  • the sensor 12 includes a first sensor 12A for recognizing the distance to the object and the shape of the object in detail, and a plurality of second sensors 12B capable of recognizing the shape of the object.
  • the first sensor 12A includes a projection unit that projects an electromagnetic wave, and a reception unit that receives a reflected wave of the electromagnetic wave from an irradiation object (an object existing around the measurement vehicle 10).
  • the first sensor 12A may be an optical sensor that projects light and receives reflected light from an irradiation object (so-called LIDAR; Laser Imaging Detection and Ranging).
  • LIDAR Laser Imaging Detection and Ranging
  • the first sensor 12 ⁇ / b> A acquires peripheral information regarding an object existing around the measurement vehicle 10 as point cloud information. That is, the first sensor 12A scans electromagnetic waves, and acquires point cloud information represented by three variables: a horizontal scanning angle ⁇ , a vertical scanning angle ⁇ , and a distance r at which an object is detected. To do.
  • the plurality of second sensors 12B include at least one each provided with a polarizing filter and one not provided with a polarizing filter, and each sensor may be a camera, for example.
  • each sensor may be a camera, for example.
  • the translucent part means all translucent members provided in the moving route of the measuring vehicle 10 and buildings located around it, for example, the window glass of the building or the entire wall of the building Including a glass member.
  • the material of the translucent portion is not limited to glass, and may be a resin such as an acrylic resin.
  • the first sensor 12 ⁇ / b> A and the second sensor 12 ⁇ / b> B may be provided in an appropriate number at an appropriate position of the measurement vehicle 10.
  • the first sensor 12 ⁇ / b> A may be provided on the front side and the rear side of the measurement vehicle 10
  • the second sensor 12 ⁇ / b> B may be provided on the rear side of the measurement vehicle 10.
  • the range in which the first sensor 12A acquires information and the range in which the second sensor 12B acquires information have a common part, and the object included in the information acquired by the first sensor 12A, An object included in the information acquired by the two sensors 12B is associated with the object.
  • the input / output unit 13 includes a circuit, an antenna, and the like for communicating with a network such as the Internet or a public line, and communicates with the external server 20 to transmit / receive information.
  • the input / output unit 13 may only transmit information to the external server 20.
  • the control unit 14 is configured by a CPU (Central Processing Unit) having a memory such as a RAM (Random Access Memory) or a ROM (Read Only Memory), for example.
  • the control unit 14 controls the information acquisition apparatus 11 as will be described later.
  • the information acquired by the sensor 12 is processed, and the processed information is externally transmitted by the input / output unit 13.
  • the external server 20 includes a storage unit body 21, an input / output unit 22, and a control unit 23.
  • the external server 20 can communicate with the information acquisition device 11 and the traveling vehicle 30 via a network such as the Internet, for example, and acquires information from the information acquisition device 11 and the traveling vehicle 30 using the network. .
  • the acquisition of the external server 20 information is not limited to the above-described form.
  • an operator or the like may manually move information from the information acquisition device 11 to the external server 20 without using a network. Good.
  • transmission / reception of information with the information acquisition device 11 and the traveling vehicle 30 and the external server 20 will be described as being transmitted / received via a network. However, as described above, all are limited to this embodiment. Instead, the information may be exchanged manually by the operator.
  • the storage unit body 21 is composed of, for example, a hard disk or a nonvolatile memory, stores map data, and is read and written by control from the control unit 23.
  • This map data includes feature information
  • the feature information includes information related to objects around the measurement vehicle 10 acquired by the sensor 12 of the information acquisition device 11.
  • the storage unit main body 21 may store map data and feature information separately due to the data structure of the storage.
  • the input / output unit 22 includes a circuit, an antenna, and the like for communicating with a network such as the Internet or a public line, and communicates with the information acquisition device 11 and the traveling vehicle 30 to transmit and receive information.
  • the control unit 23 is composed of a CPU having a memory such as a RAM or a ROM, for example, and governs overall control of the external server 20.
  • the traveling vehicle 30 is provided with a position estimation terminal 31 for estimating the current position.
  • the position estimation terminal 31 is used in combination with a current position acquisition unit (GPS reception unit) 35 provided in the traveling vehicle 30.
  • the position estimation terminal 31 includes a sensor 32, an input / output unit 33, and a control unit 34.
  • the sensor 32 includes a projection unit that projects electromagnetic waves, and a reception unit that receives reflected waves of electromagnetic waves from an irradiation object (an object existing around the traveling vehicle 30).
  • the sensor 32 may be an optical sensor that projects light and receives reflected light from an irradiation object.
  • An appropriate number of sensors 32 may be provided at appropriate positions of the traveling vehicle 30, and may be provided, for example, at each of the four corners when the traveling vehicle 30 is viewed from above.
  • the input / output unit 33 includes a circuit, an antenna, and the like for communicating with a network such as the Internet or a public line, and communicates with the external server 20 to transmit / receive information. Note that the input / output unit 33 may only receive information from the external server 20. Note that reception of information from the external server 20 is not limited to the above-described form. For example, an operator or the like manually moves information from the external server device 20 to the position estimation terminal 31 without using a network. It may be.
  • the control unit 34 is constituted by a CPU having a memory such as a RAM or a ROM, for example, and governs overall control of the position estimation terminal 31.
  • the information acquisition device 11 collects information
  • the external server 20 stores the collected information
  • the position estimation terminal 31 estimates the current position using the information of the external server 20. Details of each method will be described individually.
  • the control unit 14 performs peripheral information processing.
  • the control unit 14 causes the sensor 12 to acquire peripheral information regarding an object existing in the vicinity thereof at an appropriate time interval (step S1, acquisition step). That is, the first sensor 12A is made to acquire point cloud information, and the second sensor 12B is made to acquire image information.
  • the control unit 14 determines whether or not the acquired peripheral information includes translucent part information corresponding to the translucent part (step S2).
  • the plurality of second sensors 12B include the one provided with the polarizing filter and the one not provided with the polarizing filter, so that the translucent portion is detected based on the difference between the image information. can do. Therefore, in step S2, the control unit 14 detects the translucent part information, and this process is a detection process.
  • step S3 If the translucent part information corresponding to the translucent part is included in the peripheral information (Y in step S2), the control unit 14 removes the point group corresponding to the translucent part from the point group information acquired by the first sensor 12A.
  • post-removal information is generated (step S3, first generation process). That is, it is assumed that the point cloud at the position where the translucent portion exists is erased, and nothing is present at the position of the translucent portion and behind it as viewed from the sensor 12.
  • the point group (structure information) corresponding to this structure is not removed, and after the removal Structure information is left in the information.
  • the control unit 14 generates removal history information indicating that the point group corresponding to the translucent unit has been removed from the point group information acquired by the first sensor 12A (step S4, second generation step).
  • the removal history information may be included in the point cloud information by providing the point cloud information with a fourth variable indicating whether or not it has been removed.
  • the removal history information may be data independent of the point cloud information. For example, a range in which the point group is removed at least for the scanning angles ⁇ and ⁇ among the three variables of the scanning angles ⁇ and ⁇ and the distance r at which the object is detected may be used as the removal history information.
  • the post-removal information and the removal history information as described above are used as post-processing information.
  • Step S2 when the translucent part information corresponding to the translucent part is not included in the peripheral information (N in Step S2), the control unit 14 uses the point cloud information acquired by the first sensor 12A as post-processing information (Step S2). S5). After steps S3 and S4, the control unit 14 transmits post-processing information to the external server 20 by the input / output unit 13 (step S6, transmission process). Moreover, the control part 14 also transmits the present position information of the measurement vehicle 10 in step S6. After step S6, the process returns to step S1, and the control unit 14 repeats these steps.
  • the external server 20 receives the post-processing information transmitted in the transmission step (step S6) by the input / output unit 22.
  • the control unit 23 creates map data based on the post-processing information (map creation process). If map data is already stored in the storage unit main body 21, the map data may be updated when post-processing information is received.
  • the position estimation terminal 31 acquires map data from the external server 20 at a predetermined timing by the input / output unit 33. Further, information about the rough current position of the traveling vehicle 30 is acquired from the current position acquisition unit 35. Further, the position estimation terminal 31 receives reflected light from the feature by the sensor 32, and compares the distance to the feature with the feature information included in the map data acquired from the external server 20, A detailed current position of the traveling vehicle 30 is estimated (processing step).
  • the control unit 34 of the position estimation terminal 31 does not project the electromagnetic wave on the sensor 32 in the range indicated by the removal history information. That is, the object is not detected by the sensor 32 at the position where the light transmitting portion exists. On the other hand, an object is detected by the sensor 32 at a position where there is no translucent part, and the obtained information is used to estimate the current position of the traveling vehicle 30.
  • At least the translucent part information is removed from the peripheral information to generate post-removal information, and unnecessary history processing is omitted in the traveling vehicle 30 by generating removal history information indicating that it has been removed.
  • unnecessary history processing is omitted in the traveling vehicle 30 by generating removal history information indicating that it has been removed.
  • the information acquisition device 11 collects information
  • the external server 20 stores the collected information
  • the position estimation terminal 31 stores the information of the external server 20. Use to estimate the current position.
  • the sensor 12 may not have the second sensor 12B.
  • the storage unit body 21 of the external server 20 stores feature data, and the feature data includes attributes of each feature.
  • the feature attribute indicates, for example, a store or a store when the feature is a building. In particular, when the feature is a store, the business condition is also shown.
  • step S11 peripheral information acquisition step
  • the control unit 14 causes the sensor 12 to acquire peripheral information about an object existing in the vicinity thereof at an appropriate time interval (step S11, peripheral information acquisition step). That is, the sensor 12 is made to acquire point cloud information.
  • step S12 feature data acquisition step
  • step S12 may be omitted by acquiring feature data from the external server 20 in advance and storing it in the information acquisition device 11.
  • the control unit 14 detects a feature included in the acquisition range of the peripheral information from the acquired feature data (step S13), and the feature estimated to have a translucent part based on the attribute of the feature is detected. It is determined whether or not it exists (step S14).
  • the features presumed to have a translucent portion are, for example, retail stores (supermarkets, convenience stores, etc.) such as foods and stores (clothes stores, car dealers, etc.) having showrooms.
  • step S14 a plurality of features presumed to have a translucent part may be specified.
  • Step S14 When there is a feature estimated to have a translucent part (Y in step S14), the control unit 14 removes a point cloud corresponding to the entire feature from the point cloud information acquired by the sensor 12. Information after removal is generated (step S15). That is, the point cloud at the position where this feature exists is deleted. Steps S13 to S15 as described above are the first generation process.
  • the control unit 14 generates removal history information indicating that the point group corresponding to the feature having the translucent part has been removed from the point group information acquired by the first sensor 12A (step S16, second generation).
  • the removal history information may be included in the point cloud information by providing the point cloud information with a fourth variable indicating whether or not it has been removed.
  • the removal history information may be data independent of the point cloud information. For example, a range in which the point group is removed at least for the scanning angles ⁇ and ⁇ among the three variables of the scanning angles ⁇ and ⁇ and the distance r at which the object is detected may be used as the removal history information.
  • the post-removal information and the removal history information as described above are used as post-processing information.
  • step S14 when there is no feature estimated to have a translucent part (N in step S14), the control unit 14 uses the point cloud information acquired by the sensor 12 as post-processing information (step S17). After steps S16 and S17, the control unit 14 transmits post-processing information to the external server 20 through the input / output unit 13 (step S18, transmission process). Moreover, the control part 14 also transmits the present position information of the measurement vehicle 10 in step S18. After step S18 Returning to step S11 again, the control unit 14 repeats these steps.
  • the external server 20 receives the post-processing information transmitted in the transmission step (step S18) by the input / output unit 22.
  • the control unit 23 creates map data based on the post-processing information (map creation process). If map data is already stored in the storage unit main body 21, the map data may be updated when post-processing information is received.
  • the position estimation terminal 31 acquires map data from the external server 20 at a predetermined timing by the input / output unit 33. Further, information about the rough current position of the traveling vehicle 30 is acquired from the current position acquisition unit 35. Further, the position estimation terminal 31 receives reflected light from the feature by the sensor 32, and compares the distance to the feature with the feature information included in the map data acquired from the external server 20, A detailed current position of the traveling vehicle 30 is estimated (processing step).
  • the control unit 34 of the position estimation terminal 31 does not project the electromagnetic wave on the sensor 32 in the range indicated by the removal history information. That is, the object is not detected by the sensor 32 at the position where the feature having the translucent portion exists. On the other hand, an object is detected by the sensor 32 at a position where there is no feature having a translucent part, and the obtained information is used to estimate the current position of the traveling vehicle 30.
  • step 30 unnecessary processing can be omitted.
  • the present invention is not limited to the first embodiment or the second embodiment, and includes other configurations that can achieve the object of the present invention. included.
  • the position estimation terminal 31 mounted on the traveling vehicle 30 has, as processing steps, information related to features recognized by the sensor 32, post-removal information, and removal history information.
  • the process performed in the processing step is not limited to the estimation of the current position.
  • the traveling vehicle 30 may update the information (map data) of the external server 20 based on the difference from the information acquired from the external server 20 by newly acquiring information about the feature by the sensor 32.
  • the sensor 32 since the sensor 32 receives the reflected light from the translucent part (or the feature having the translucent part) corresponding to the removed point group, the post-removal information, the information acquired by the sensor 32, However, there is no need to update information about this difference. Since the removal history information is generated, the detection by the sensor 32 can be omitted for this translucent part (or the feature having the translucent part). Moreover, even if it detects by this sensor 32 about this translucent part (or terrestrial object which has this translucent part), the information update based on a difference can be abbreviate
  • an alarm or the like may be generated in the vehicle interior.
  • the detected object may be movable such as a pedestrian or a bicycle, and may alert the passenger by an alarm or the like.
  • the sensor 32 detects a light transmitting part (or a feature having the light transmitting part) corresponding to the removed point group, it is not necessary to generate an alarm or the like. Since the removal history information is generated, an alarm or the like can be omitted for the light transmitting part (or the feature having the light transmitting part). That is, generation of an alarm or the like when an object is detected by the sensor 32 is exemplified as another process performed in the processing step.
  • the control part 14 provided in the measurement vehicle 10 is peripheral information processing including an acquisition process, a detection process, a 1st production
  • the control unit 23 provided in the external server 20 executes peripheral information processing including the acquisition process, the detection process, the first generation process, and the second generation process. Good.
  • control unit 14 of the information acquisition device 11 may transmit the peripheral information acquired by the sensor 12 to the external server 20 without processing.
  • the control unit 23 of the external server 20 acquires the peripheral information by the input / output unit 22 (acquisition process), detects the translucent part information corresponding to the translucent part from the peripheral information (detection process), and determines from the peripheral information.
  • the post-removal information from which the translucent part information has been removed is generated (first generation process), and removal history information indicating that the translucent part information has been removed from the peripheral information is generated (second generation process).
  • the detection process, the first generation process, and the second generation process may be the same as those in the first embodiment.
  • control part 14 provided in the measurement vehicle 10 is a surrounding information acquisition process, a feature data acquisition process, a 1st production
  • the control unit 23 provided in the external server 20 includes a peripheral information acquisition step, a feature data acquisition step, a first generation step, a second generation step, Peripheral information processing including
  • control unit 14 of the information acquisition device 11 may transmit the peripheral information acquired by the sensor 12 to the external server 20 without processing.
  • the control unit 23 of the external server 20 acquires the peripheral information by the input / output unit 22 (peripheral information acquisition process), acquires the feature data from the storage unit body 21 (feature data acquisition process), and transmits the transparent information from the peripheral information.
  • generation process After-removal information from which the optical part information has been removed is generated (generation process), and removal history information indicating that the translucent part information has been removed from the peripheral information is generated (second generation process).
  • the first generation process and the second generation process may be the same as those in the second embodiment.
  • the control part 23 of the external server 20 shall perform the map creation process which produces or updates map data based on post-removal information and removal history information.
  • the control part 14 of the information acquisition apparatus 11 may perform a map creation process. That is, the information acquisition apparatus 11 may create or update map data and transmit this map data to the external server 20.
  • the transmission process is included in the peripheral information processing executed by the control unit 14, but the transmission process may not be included.
  • the information acquisition device 11 may include a storage unit that stores post-processing information and removal history information, and after the measurement vehicle 10 travels in a predetermined area, data may be transferred from the storage unit to the external server 20.
  • the translucent part information is detected in the detection process and the translucent part information is removed in the first generation process.
  • other information may be removed in the first generation process.
  • Good For example, in the detection process, building information corresponding to a building having a translucent part is detected from the peripheral information, and in the generation process, the building information (information including the translucent part information) is removed from the peripheral information, and the post-removal information May be generated.
  • the translucent part information means information indicating the position of the translucent part in the feature (a point group at this position in the second embodiment). If it does in this way, parts other than the translucent part in a feature can be used for estimation of the current position of the traveling vehicle 30.
  • the first sensor 12A acquires the point cloud information as the peripheral information, and the translucent part is detected based on the information acquired by the plurality of second sensors 12B.
  • the post-removal information is generated by removing the point group corresponding to the light transmitting portion information
  • the method of acquiring information by the sensor is not limited to this.
  • the peripheral information may be acquired by the second sensor 12B, and the translucent part may be detected based on the information acquired by the second sensor 12B.
  • the removal history information indicates that at least the translucent portion information is simply removed from the point cloud information, but may include other information. .
  • the removal history information may include reliability information when used for estimating the current position. Since the acquired information varies depending on the environment, the translucent part has low reliability when used for estimating the current position. However, if there are few features that can be used to estimate the current position around the area, the translucent part may also be used to estimate the current position. Therefore, the removal history information may include information indicating that an object with low reliability exists, and may be used as appropriate in estimating the current position.
  • information about time may be included in the removal history information. For example, since the reflectance of electromagnetic waves (light) projected by the sensor 32 of the traveling vehicle 30 tends to be high at night, the translucent part is used for estimating the current position after sunset, and the translucent part is estimated before sunset. The light part may not be used for estimation of the current position.

Abstract

不要な処理を省略することができる周辺情報処理方法を提供する。周辺情報から少なくとも透光部情報を除去して除去後情報を生成するとともに、除去したことを示す除去履歴情報を生成することにより、走行車両(30)において不要な処理を省略することができる。即ち、走行車両(30)の位置推定端末(31)が現在位置を推定する際、除去された透光部情報に対応する透光部(現在位置の推定に用いられない部分)について、センサ(32)による検出を省略することができる。

Description

周辺情報処理方法
 本発明は、周辺情報処理方法に関する。
 一般に、車両等の移動体には、その周囲に存在する物体を認識するためのセンサが設けられることがある。このような移動体として、センサとしてのレーザレーダが複数設けられたものが提案されている(例えば、特許文献1参照)。特許文献1に記載された移動体では、レーザ光を走査することによって、周辺の物体として道路地物を認識するようになっている。
特開2011-196916号公報
 特許文献1に記載されたような方法で移動体(計測車両)周辺について得られた情報が外部サーバ等の記憶部に記憶され、この情報が運転支援に用いられることがある。即ち、各々の移動体(走行車両)がセンサによって周辺の物体を認識するとともに、記憶部から取得した情報と照合することにより、その移動体の現在位置を推定することができる。しかしながら、移動体の周辺に位置する物体は、静的なものであっても、測定時の環境によって取得する情報が変化する場合がある。このとき、予め記憶された情報と、新たに取得する情報と、に齟齬が生じ、現在位置の推定に不具合が生じる可能性があった。即ち、取得情報が変化する物体を検出しても現在位置の推定には利用しにくく、不要な情報の処理がなされていた。
 また、運転支援を受ける移動体が新たに情報を取得することにより、予め記憶された情報との差分に基づき、記憶部に記憶された情報を更新することもある。この場合も、取得情報が変化しやすい物体について情報を更新しても、上記のように現在位置の推定には利用しにくい。従って、情報の更新時においても不要な情報の処理がなされていた。
 したがって、本発明の課題は、不要な処理を省略することができる周辺情報処理方法を提供することが一例として挙げられる。
 前述した課題を解決し目的を達成するために、請求項1に記載の本発明の周辺情報処理方法は、移動体に配置されたセンサによって、当該移動体の周辺に存在する物体に関する周辺情報を取得する取得工程と、前記周辺情報のうち透光部に相当する透光部情報を検出する検出工程と、前記周辺情報から少なくとも前記透光部情報を除去した除去後情報を生成する第1生成工程と、前記周辺情報から前記透光部情報を除去したことを示す除去履歴情報を生成する第2生成工程と、を含むことを特徴としている。
本発明の第1実施例に係る運転支援システムの概略を示すブロック図である。 本発明の第1実施例に係る運転支援システムの情報取得装置が実行する周辺情報処理の一例を示すフローチャートである。 本発明の第2実施例に係る運転支援システムの情報取得装置が実行する周辺情報処理の一例を示すフローチャートである。
 以下、本発明の実施形態を説明する。本発明の実施形態に係る周辺情報処理方法は、移動体に配置されたセンサによって、この移動体の周辺に存在する物体に関する周辺情報を取得する取得工程と、周辺情報のうち透光部に相当する透光部情報を検出する検出工程と、周辺情報から少なくとも透光部情報を除去した除去後情報を生成する第1生成工程と、周辺情報から透光部情報を除去したことを示す除去履歴情報を生成する第2生成工程と、を含む。
 このような本実施形態の周辺情報処理方法によれば、周辺情報から少なくとも透光部情報を除去して除去後情報を生成するとともに、除去したことを示す除去履歴情報を生成することにより、除去後情報を用いる各々の移動体(例えば走行車両であり、以下「端末側移動体」とする)において、不要な処理を省略することができる。
 例えば、端末側移動体において除去後情報を用いて現在位置を推定する場合、除去された透光部情報に対応する透光部は、現在位置の推定には用いられない。従って、この透光部については、端末側移動体に配置されたセンサによって検出する必要がない。除去履歴情報が生成されていることにより、この透光部についてセンサによる検出を省略することができる。
 また、端末側移動体がセンサによって新たに地物についての情報を取得することにより、予め記憶された情報との差分に基づき、記憶された情報を更新することがある。このとき、端末側移動体のセンサは、除去された透光部情報に対応する透光部による反射光を受光するため、除去後情報と、センサが取得する情報と、に差分が生じるが、この差分については情報を更新する必要がない。除去履歴情報が生成されていることにより、この透光部についてセンサによる検出を省略することができる。また、この透光部についてセンサによる検出を行ったとしても、差分に基づく情報更新を省略することができる。
 尚、本実施形態における透光部とは、移動体の移動経路及びその周辺に位置する建物等に設けられた透光性の部材全般を意味し、例えば、建物の窓ガラスや、建物の壁全体を構成するガラス部材を含む。また、透光部の材質はガラスに限定されず、アクリル樹脂等の樹脂であってもよい。
 本発明の他の実施形態に係る周辺情報処理方法は、移動体に配置されたセンサによって、この移動体の周辺に存在する物体に関する周辺情報を取得する周辺情報取得工程と、地物の属性に関する情報を含む地物データを取得する地物データ取得工程と、地物データに含まれる地物の属性に基づき、周辺情報から少なくとも、この地物が有する透光部に関する透光部情報を除去し、除去後情報を生成する第1生成工程と、周辺情報から透光部情報を除去したことを示す除去履歴情報を生成する第2生成工程と、を含む。
 このような本実施形態の周辺情報処理方法によれば、前記実施形態と同様に、除去後情報だけでなく除去履歴情報も生成することにより、不要な処理を省略することができる。
 尚、地物の属性とは、例えば、その地物が建物である場合には、住宅であるのか店舗を示すとともに、地物が店舗である場合には、その業態も示すものである。店舗の業態が、例えば食品等の小売店(スーパーマーケット、コンビニエンスストア等)である場合や、ショールームを有する販売店(洋服店、カーディーラー等)である場合、その建物は透光部を有している可能性が高い。このように、地物の属性に基づき、その地物が透光部を有しているか否かや、建物の壁面に占める透光部の割合等を判断することができる。また、地物が住宅である場合、その建物は南向きの壁面に透光部を有している可能性が高いと判断してもよい。
 透光部を有する地物について、その属性に基づいて透光部の位置を判断できる場合には、第1生成工程において、透光部情報のみを除去すればよく、透光部の位置を判断できない場合には、その地物全体に関する情報(即ち透光部情報を含む情報)を除去すればよい。
 周辺情報処理方法は、除去後情報及び除去履歴情報を外部送信する送信工程をさらに含むことが好ましい。これにより、除去後情報を外部サーバ等の記憶部に送信し、データベースとして記憶させることができる。
 本発明の他の実施形態に係る周辺情報処理方法は、センサが配置された移動体から、この移動体の周辺に存在する物体に関する周辺情報を取得する取得工程と、周辺情報のうち透光部に相当する透光部情報を検出する検出工程と、周辺情報から少なくとも透光部情報を除去した除去後情報を生成する第1生成工程と、周辺情報から透光部情報を除去したことを示す除去履歴情報を生成する第2生成工程と、を含む。
 このような本実施形態の周辺情報処理方法によれば、前記実施形態と同様に、除去後情報だけでなく除去履歴情報も生成することにより、不要な処理を省略することができる。
 本発明の他の実施形態に係る周辺情報処理方法は、センサが配置された移動体から、この移動体の周辺に存在する物体に関する周辺情報を取得する周辺情報取得工程と、地物データに含まれる地物の属性に基づき、周辺情報から少なくとも、この地物が有する透光部に関する透光部情報を除去し、除去後情報を生成する第1生成工程と、周辺情報から透光部情報を除去したことを示す除去履歴情報を生成する第2生成工程と、を含む。
 このような本実施形態の周辺情報処理方法によれば、前記実施形態と同様に、除去後情報だけでなく除去履歴情報も生成することにより、不要な処理を省略することができる。
 周辺情報処理方法は、除去後情報及び除去履歴情報に基づいて地図データを作成または更新する地図作成工程をさらに含むことが好ましい。
 本発明の実施形態に係る情報処理方法は、地物に関する地物情報から少なくとも透光部に相当する透光部情報が除去された除去後情報、及び、除去したことを示す除去履歴情報を取得する取得工程と、移動体に配置されたセンサによって認識された地物に関する情報、除去後情報及び除去履歴情報に基づいて所定の処理を行う処理工程と、を含む。
 処理工程において、除去後情報だけでなく除去履歴情報にも基づいて所定の処理を行うことにより、上記のように不要な処理を省略することができる。
 処理工程において、移動体の現在位置を推定してもよいし、外部の記憶部に記憶された情報を更新してもよい。
[第1実施例]
 以下、本発明の第1実施例について具体的に説明する。本実施例の運転支援システム1は、図1に示すように、移動体としての計測車両10と、記憶部としての外部サーバ20と、移動体としての複数の走行車両30と、により構成される。運転支援システム1では、計測車両10によって情報を収集するとともに、収集した情報を外部サーバ20に記憶し、走行車両30において外部サーバ20の情報を利用して現在位置を推定するようになっている。
 計測車両10には、物体としての地物(車両の経路上に位置する経路上地物、及び、道路の周辺に位置する周辺地物)についての情報を取得する情報取得装置11が設けられている。情報取得装置11は、センサ12と、入出力部13と、制御部14と、を備える。また、計測車両10には、現在位置取得部15が設けられ、現在位置を取得可能となっている。現在位置取得部15としては、公知であるように複数のGPS(Global Positioning System)衛星から発信される電波を受信するGPS受信部が例示される。
 センサ12は、対象物との距離および対象物の形状を詳細に認識するための第1センサ12Aと、対象物の形状を認識可能な複数の第2センサ12Bと、を有する。
 第1センサ12Aは、電磁波を投射する投射部と、照射対象物(計測車両10の周辺に存在する物体)による電磁波の反射波を受光する受信部と、を有する。例えば、第1センサ12Aは、光を投射して照射対象物による反射光を受光する光センサ(いわゆるLIDAR; Laser Imaging Detection and Ranging)であればよい。第1センサ12Aは、計測車両10の周辺に存在する物体に関する周辺情報を、点群情報として取得する。即ち、第1センサ12Aは、電磁波を走査し、水平方向の走査角度θと、上下方向の走査角度φと、物体が検出される距離rと、の3変数によって表される点群情報を取得する。
 複数の第2センサ12Bは、偏光フィルタが設けられたものと、偏光フィルタが設けられないものと、を少なくとも1つずつ含み、各センサは例えばカメラであればよい。偏光フィルタが設けられたセンサによって取得される画像と、偏光フィルタが設けられないセンサによって取得される画像と、では、センサから見て透光部の奥に位置する物体について差分が生じる。尚、透光部とは、計測車両10の移動経路及びその周辺に位置する建物等に設けられた透光性の部材全般を意味し、例えば、建物の窓ガラスや、建物の壁全体を構成するガラス部材を含む。また、透光部の材質はガラスに限定されず、アクリル樹脂等の樹脂であってもよい。
 第1センサ12A及び第2センサ12Bは、計測車両10の適宜な位置に適宜な個数だけ設けられていればよい。例えば、第1センサ12Aが計測車両10の前方側及び後方側に設けられ、第2センサ12Bが計測車両10の後方側に設けられていればよい。また、第1センサ12Aが情報を取得する範囲と、第2センサ12Bが情報を取得する範囲と、は共通部分を有しており、第1センサ12Aが取得した情報に含まれる物体と、第2センサ12Bが取得した情報に含まれる物体と、が対応付けられるようになっている。
 入出力部13は、インターネットや公衆回線等のネットワークと通信するための回路やアンテナ等から構成され、外部サーバ20と通信して情報を送受信する。尚、入出力部13は外部サーバ20に対して情報の送信のみを行うものであってもよい。
 制御部14は、例えばRAM(Random Access Memory)やROM(Read Only Memory)などのメモリを備えたCPU(Central Processing Unit)で構成され、情報取得装置11の全体制御を司り、後述するように、センサ12が取得した情報について処理を行うとともに、処理後の情報を入出力部13によって外部送信する。
 外部サーバ20は、記憶部本体21と、入出力部22と、制御部23と、を備える。外部サーバ20は、例えば、インターネット等のネットワークを介して情報取得装置11および走行車両30と通信可能となっており、当該ネットワークを利用して、情報取得装置11や走行車両30から情報を取得する。なお、外部サーバ20情報の取得については、上述の形態に限定されず、例えば、ネットワークを利用せずに、オペレータ等が手動で情報取得装置11から外部サーバ20に情報を移動させるようにしてもよい。以降の説明では、情報取得装置11および走行車両30と、外部サーバ20との情報の授受は、ネットワークを介して送受信するものとして説明するが、上述の通りいずれについても本形態に限定されるものではなく、情報の授受はオペレータの手動によるものであってもよい。
 記憶部本体21は、例えばハードディスクや不揮発性メモリなどで構成され、地図データを記憶し、制御部23からの制御により読み書きがなされる。この地図データには地物情報が含まれており、地物情報には、情報取得装置11のセンサ12によって取得された計測車両10周辺の物体に関する情報が含まれる。尚、記憶部本体21は、その記憶のデータ構造上、地図データと地物情報とを別個に記憶するようにしてもよい。
 入出力部22は、インターネットや公衆回線等のネットワークと通信するための回路やアンテナ等から構成され、情報取得装置11および走行車両30と通信して情報を送受信する。
 制御部23は、例えばRAMやROMなどのメモリを備えたCPUで構成され、外部サーバ20の全体制御を司る。
 走行車両30には、現在位置を推定するための位置推定端末31が設けられている。尚、位置推定端末31は、その走行車両30に設けられた現在位置取得部(GPS受信部)35と併せて用いられる。位置推定端末31は、センサ32と、入出力部33と、制御部34と、を備える。
 センサ32は、電磁波を投射する投射部と、照射対象物(走行車両30の周辺に存在する物体)による電磁波の反射波を受光する受信部と、を有する。例えば、センサ32は、光を投射して照射対象物による反射光を受光する光センサが例示される。センサ32は、走行車両30の適宜な位置に適宜な個数だけ設けられていればよく、例えば、走行車両30を上方視した際の四隅のそれぞれに設けられていればよい。
 入出力部33は、インターネットや公衆回線等のネットワークと通信するための回路やアンテナ等から構成され、外部サーバ20と通信して情報を送受信する。尚、入出力部33は外部サーバ20から情報の受信のみを行うものであってもよい。なお、外部サーバ20からの情報の受信については、上述の形態に限定されず、例えば、ネットワークを利用せずに、オペレータ等が手動で外部サーバ装置20から位置推定端末31に情報を移動させるようにしてもよい。
 制御部34は、例えばRAMやROMなどのメモリを備えたCPUで構成され、位置推定端末31の全体制御を司る。
 以上のような運転支援システム1において、情報取得装置11が情報を収集し、収集した情報を外部サーバ20が記憶し、位置推定端末31が外部サーバ20の情報を利用して現在位置を推定する各方法の詳細について個別に説明する。
[情報取得装置による情報収集]
 情報取得装置11が実行する周辺情報処理の一例について、図2を参照して説明する。計測車両10が道路を走行する際に、制御部14は周辺情報処理を実行する。まず、制御部14は、その周辺に存在する物体に関する周辺情報を、適宜な時間間隔でセンサ12に取得させる(ステップS1、取得工程)。即ち、第1センサ12Aに点群情報を取得させるとともに、第2センサ12Bに画像情報を取得させる。
 次に、制御部14は、取得した周辺情報に、透光部に相当する透光部情報が含まれるか否かを判断する(ステップS2)。上記のように、複数の第2センサ12Bが、偏光フィルタが設けられたものと、偏光フィルタが設けられないものと、を含むことにより、これらの画像情報の差分に基づき、透光部を検出することができる。従って、ステップS2では、制御部14が透光部情報を検出しており、この工程が検出工程となる。
 透光部に相当する透光部情報が周辺情報に含まれる場合(ステップS2でY)、制御部14は、第1センサ12Aによって取得した点群情報から透光部に相当する点群を除去して除去後情報を生成する(ステップS3、第1生成工程)。即ち、透光部が存在する位置の点群を消去し、センサ12から見て透光部の位置およびその奥には何も存在しないものとする。このとき、透光部を有する建物が、透光部以外の構造物(外壁、柱等)を有する場合には、この構造物に相当する点群(構造物情報)は除去されず、除去後情報に構造物情報が残される。
 さらに、制御部14は、第1センサ12Aによって取得した点群情報から、透光部に相当する点群を除去したことを示す除去履歴情報を生成する(ステップS4、第2生成工程)。例えば除去されたか否かを示す第4の変数を点群情報に持たせることにより、除去履歴情報を点群情報に含めてもよい。また、除去履歴情報を点群情報とは独立のデータとしてもよい。例えば、走査角度θ、φ及び物体が検出される距離rの3変数のうち、少なくとも走査角度θ、φについて、点群が除去された範囲を除去履歴情報としてもよい。上記のような除去後情報及び除去履歴情報を処理後情報とする。
 一方、透光部に相当する透光部情報が周辺情報に含まれない場合(ステップS2でN)、制御部14は、第1センサ12Aによって取得した点群情報を処理後情報とする(ステップS5)。ステップS3、S4の後、制御部14は、処理後情報を入出力部13によって外部サーバ20に送信する(ステップS6、送信工程)。また、制御部14は、ステップS6において、計測車両10の現在位置情報も併せて送信する。ステップS6の後、再びステップS1に戻り、制御部14はこれらの工程を繰り返す。
[外部サーバによる情報の記憶]
 外部サーバ20は、上記の送信工程(ステップS6)によって送信された処理後情報を入出力部22によって受信する。制御部23は、この処理後情報に基づいて地図データを作成する(地図作成工程)。尚、記憶部本体21に既に地図データが記憶されている場合には、処理後情報を受信した際にこの地図データを更新すればよい。
[位置推定端末による現在位置の推定]
 位置推定端末31は、入出力部33によって所定のタイミングで外部サーバ20から地図データを取得する。また、現在位置取得部35からその走行車両30の大まかな現在位置についての情報を取得する。さらに、位置推定端末31は、センサ32によって地物による反射光を受光し、この地物までの距離と、外部サーバ20から取得した地図データに含まれる地物情報と、を照らし合わせることにより、走行車両30の詳細な現在位置を推定する(処理工程)。
 このとき、位置推定端末31の制御部34は、除去履歴情報によって示される範囲については、センサ32に電磁波を投射させない。即ち、透光部が存在する位置については、センサ32による物体の検出を行わない。一方、透光部が存在しない位置についてはセンサ32による物体の検出を行い、得られた情報を走行車両30の現在位置の推定に用いる。
 上記の構成により、周辺情報から少なくとも透光部情報を除去して除去後情報を生成するとともに、除去したことを示す除去履歴情報を生成することにより、走行車両30において不要な処理を省略することができる。即ち、走行車両30の位置推定端末31が現在位置を推定する際、除去された透光部情報に対応する透光部(現在位置の推定に用いられない部分)について、センサ32による検出を省略することができる。
[第2実施例]
 第2実施例の運転支援システム1では、以下に説明するように、情報取得装置11が情報を収集し、収集した情報を外部サーバ20が記憶し、位置推定端末31が外部サーバ20の情報を利用して現在位置を推定する。尚、本実施例の運転支援システム1では、センサ12は第2センサ12Bを有していなくてもよい。また、外部サーバ20の記憶部本体21は地物データを記憶しており、この地物データには、各々の地物の属性が含まれている。地物の属性とは、例えば、その地物が建物である場合には、住宅であるのか店舗を示すものである。特に地物が店舗である場合には、その業態も示すものである。
[情報取得装置による情報収集]
 情報取得装置11が実行する周辺情報処理の一例について、図3を参照して説明する。計測車両10が道路を走行する際に、制御部14は周辺情報処理を実行する。まず、制御部14は、その周辺に存在する物体に関する周辺情報を、適宜な時間間隔でセンサ12に取得させる(ステップS11、周辺情報取得工程)。即ち、センサ12に点群情報を取得させる。
 次に、制御部14は、入出力部13によって外部サーバ20から地物データを取得する(ステップS12、地物データ取得工程)。尚、予め外部サーバ20から地物データを取得するとともに情報取得装置11に記憶しておくことにより、ステップS12を省略してもよい。制御部14は、取得した地物データのうち、周辺情報の取得範囲に含まれる地物を検出し(ステップS13)、地物の属性に基づき、透光部を有すると推定される地物が存在するか否かを判定する(ステップS14)。透光部を有すると推定される地物とは、例えば食品等の小売店(スーパーマーケット、コンビニエンスストア等)やショールームを有する販売店(洋服店、カーディーラー等)である。尚、ステップS14では、透光部を有すると推定される地物を複数特定してもよい。
 透光部を有すると推定される地物が存在する場合(ステップS14でY)、制御部14は、センサ12によって取得した点群情報から、この地物全体に相当する点群を除去して除去後情報を生成する(ステップS15)。即ち、この地物が存在する位置の点群を消去する。以上のようなステップS13~S15が第1生成工程となる。
 さらに、制御部14は、第1センサ12Aによって取得した点群情報から、透光部を有する地物に相当する点群を除去したことを示す除去履歴情報を生成する(ステップS16、第2生成工程)。例えば除去されたか否かを示す第4の変数を点群情報に持たせることにより、除去履歴情報を点群情報に含めてもよい。また、除去履歴情報を点群情報とは独立のデータとしてもよい。例えば、走査角度θ、φ及び物体が検出される距離rの3変数のうち、少なくとも走査角度θ、φについて、点群が除去された範囲を除去履歴情報としてもよい。上記のような除去後情報及び除去履歴情報を処理後情報とする。
 一方、透光部を有すると推定される地物が存在しない場合(ステップS14でN)、制御部14は、センサ12によって取得した点群情報を処理後情報とする(ステップS17)。ステップS16、S17の後、制御部14は、処理後情報を入出力部13によって外部サーバ20に送信する(ステップS18、送信工程)。また、制御部14は、ステップS18において、計測車両10の現在位置情報も併せて送信する。ステップS18の後、
再びステップS11に戻り、制御部14はこれらの工程を繰り返す。
[外部サーバによる情報の記憶]
 外部サーバ20は、上記の送信工程(ステップS18)によって送信された処理後情報を入出力部22によって受信する。制御部23は、この処理後情報に基づいて地図データを作成する(地図作成工程)。尚、記憶部本体21に既に地図データが記憶されている場合には、処理後情報を受信した際にこの地図データを更新すればよい。
[位置推定端末による現在位置の推定]
 位置推定端末31は、入出力部33によって所定のタイミングで外部サーバ20から地図データを取得する。また、現在位置取得部35からその走行車両30の大まかな現在位置についての情報を取得する。さらに、位置推定端末31は、センサ32によって地物による反射光を受光し、この地物までの距離と、外部サーバ20から取得した地図データに含まれる地物情報と、を照らし合わせることにより、走行車両30の詳細な現在位置を推定する(処理工程)。
 このとき、位置推定端末31の制御部34は、除去履歴情報によって示される範囲については、センサ32に電磁波を投射させない。即ち、透光部を有する地物が存在する位置については、センサ32による物体の検出を行わない。一方、透光部を有する地物が存在しない位置についてはセンサ32による物体の検出を行い、得られた情報を走行車両30の現在位置の推定に用いる。
 上記の構成により、前記第1実施例と同様に、周辺情報から少なくとも透光部情報を除去して除去後情報を生成するとともに、除去したことを示す除去履歴情報を生成することにより、走行車両30において不要な処理を省略することができる。
 なお、本発明は、前記第1実施例又は前記第2実施例に限定されるものではなく、本発明の目的が達成できる他の構成等を含み、以下に示すような変形等も本発明に含まれる。
 例えば、前記第1実施例及び前記第2実施例では、走行車両30に搭載された位置推定端末31が、処理工程として、センサ32によって認識された地物に関する情報、除去後情報及び除去履歴情報に基づいて走行車両30の現在位置を推定するものとしたが、処理工程において行われる処理は、現在位置の推定に限定されない。
 走行車両30は、センサ32によって新たに地物についての情報を取得することにより、外部サーバ20から取得した情報との差分に基づき、外部サーバ20の情報(地図データ)を更新することがある。このとき、センサ32は、除去された点群に対応する透光部(又はこの透光部を有する地物)による反射光を受光するため、除去後情報と、センサ32が取得する情報と、に差分が生じるが、この差分については情報を更新する必要がない。除去履歴情報が生成されていることにより、この透光部(又はこの透光部を有する地物)についてセンサ32による検出を省略することができる。また、この透光部(又はこの透光部を有する地物)についてセンサ32による検出を行ったとしても、差分に基づく情報更新を省略することができる。即ち、処理工程において行われる他の処理として、差分に基づく情報の更新が例示される。
 また、走行車両30のセンサ32によって、外部サーバ20から取得した地図データに含まれる地物以外の物体が検出された場合、車室内に警報等を発生することがある。即ち、この検出された物体は、例えば歩行者や自転車等の移動可能なものである可能性があり、警報等によって搭乗者に注意喚起することがある。このとき、センサ32が、除去された点群に対応する透光部(又はこの透光部を有する地物)を検出したとしても、警報等を発生する必要がない。除去履歴情報が生成されていることにより、この透光部(又はこの透光部を有する地物)について警報等を省略することができる。即ち、処理工程において行われる他の処理として、センサ32により物体を検出した際の警報等の発生が例示される。
 また、前記第1実施例では、計測車両10に設けられた制御部14が、取得工程と、検出工程と、第1生成工程と、第2生成工程と、送信工程と、を含む周辺情報処理を実行するものとしたが、外部サーバ20に設けられた制御部23が、取得工程と、検出工程と、第1生成工程と、第2生成工程と、を含む周辺情報処理を実行してもよい。
 即ち、情報取得装置11の制御部14が、センサ12が取得した周辺情報を処理せずに外部サーバ20に送信してもよい。外部サーバ20の制御部23は、入出力部22によってこの周辺情報を取得し(取得工程)、周辺情報のうち透光部に相当する透光部情報を検出し(検出工程)、周辺情報から透光部情報を除去した除去後情報を生成し(第1生成工程)、周辺情報から透光部情報を除去したことを示す除去履歴情報を生成する(第2生成工程)。尚、検出工程、第1生成工程及び第2生成工程は、前記第1実施例と同様であればよい。
 このように外部サーバ20の制御部23が周辺情報処理を実行する構成においても、前記第1実施例と同様に、除去後情報だけでなく除去履歴情報も生成することにより、不要な処理を省略することができる。
 また、前記第2実施例では、計測車両10に設けられた制御部14が、周辺情報取得工程と、地物データ取得工程と、第1生成工程と、第2生成工程と、送信工程と、を含む周辺情報処理を実行するものとしたが、外部サーバ20に設けられた制御部23が、周辺情報取得工程と、地物データ取得工程と、第1生成工程と、第2生成工程と、を含む周辺情報処理を実行してもよい。
 即ち、情報取得装置11の制御部14が、センサ12が取得した周辺情報を処理せずに外部サーバ20に送信してもよい。外部サーバ20の制御部23は、入出力部22によってこの周辺情報を取得し(周辺情報取得工程)、記憶部本体21から地物データを取得し(地物データ取得工程)、周辺情報から透光部情報を除去した除去後情報を生成し(生成工程)、周辺情報から透光部情報を除去したことを示す除去履歴情報を生成する(第2生成工程)。尚、第1生成工程及び第2生成工程は前記第2実施例と同様であればよい。
 このように外部サーバ20の制御部23が周辺情報処理を実行する構成においても、前記第2実施例と同様に、除去後情報だけでなく除去履歴情報も生成することにより、不要な処理を省略することができる。
 また、前記第1実施例及び前記第2実施例では、除去後情報及び除去履歴情報に基づいて地図データを作成または更新する地図作成工程を、外部サーバ20の制御部23が実行するものとしたが、情報取得装置11の制御部14が地図作成工程を実行してもよい。即ち、情報取得装置11が地図データを作成または更新し、この地図データを外部サーバ20に送信してもよい。
 また、前記第1実施例及び前記第2実施例では、制御部14が実行する周辺情報処理に送信工程が含まれるものとしたが、送信工程は含まれなくてもよい。例えば、情報取得装置11が処理後情報及び除去履歴情報を記憶する記憶部を備え、計測車両10が所定のエリアを走行した後、記憶部から外部サーバ20にデータを移してもよい。
 また、前記第1実施例では、検出工程において透光部情報を検出するとともに第1生成工程において透光部情報を除去するものとしたが、第1生成工程において他の情報も除去してもよい。例えば、検出工程において、周辺情報のうち透光部を有する建物に相当する建物情報を検出し、生成工程において、周辺情報から建物情報(透光部情報を含む情報)を除去して除去後情報を生成してもよい。
 また、前記第2実施例では、第1生成工程において透光部情報を含む地物の情報を除去するものとしたが、透光部を有する地物について、その属性に基づいて透光部の位置を判断できる場合には、透光部情報のみを除去してもよい。この場合、透光部情報とは、地物における透光部の位置を示す情報(前記第2実施例においてはこの位置の点群)を意味する。このようにすれば、地物における透光部以外の部分を、走行車両30の現在位置の推定に用いることができる。
 また、前記第1実施例では、第1センサ12Aが周辺情報として点群情報を取得するとともに、複数の第2センサ12Bが取得した情報に基づいて透光部を検出し、この点群情報から透光部情報に対応する点群を除去して除去後情報を生成するものとしたが、センサによる情報の取得方法はこれに限定されない。例えば、第2センサ12Bによって周辺情報を取得するとともに、第2センサ12Bが取得した情報に基づいて透光部を検出してもよい。
 また、前記第1実施例及び前記第2実施例では、除去履歴情報は、点群情報から少なくとも透光部情報を単に除去したことを示すものとしたが、他の情報も含んでいてもよい。
 例えば、除去履歴情報に、現在位置の推定に用いる際の信頼度の情報を含めてもよい。透光部は、環境によって取得情報が変化するものであるため、現在位置の推定に用いる場合には信頼度が低い。しかしながら、その周囲に現在位置の推定に用いることができる地物が少ない場合には、透光部も現在位置の推定に用いてもよい。そこで、除去履歴情報に、信頼度の低い物体が存在しているという情報を含め、現在位置の推定において適宜に利用してもよい。
 また、除去履歴情報に、時刻についての情報を含めてもよい。例えば、夜間であれば走行車両30のセンサ32が投射した電磁波(光)の反射率が高くなりやすいことから、日没後には透光部を現在位置の推定に用い、日没前には透光部を現在位置の推定に用いないようにしてもよい。
 その他、本発明を実施するための最良の構成、方法などは、以上の記載で開示されているが、本発明は、これに限定されるものではない。すなわち、本発明は、主に特定の実施例に関して特に図示され、且つ、説明されているが、本発明の技術的思想および目的の範囲から逸脱することなく、以上述べた実施例に対し、形状、材質、数量、その他の詳細な構成において、当業者が様々な変形を加えることができるものである。従って、上記に開示した形状、材質などを限定した記載は、本発明の理解を容易にするために例示的に記載したものであり、本発明を限定するものではないから、それらの形状、材質などの限定の一部、もしくは全部の限定を外した部材の名称での記載は、本発明に含まれるものである。
 10    計測車両(移動体)
 12    センサ

Claims (8)

  1.  移動体に配置されたセンサによって、当該移動体の周辺に存在する物体に関する周辺情報を取得する取得工程と、
     前記周辺情報のうち透光部に相当する透光部情報を検出する検出工程と、
     前記周辺情報から少なくとも前記透光部情報を除去した除去後情報を生成する第1生成工程と、
     前記周辺情報から前記透光部情報を除去したことを示す除去履歴情報を生成する第2生成工程と、を含むことを特徴とする周辺情報処理方法。
  2.  移動体に配置されたセンサによって、当該移動体の周辺に存在する物体に関する周辺情報を取得する周辺情報取得工程と、
     地物の属性に関する情報を含む地物データを取得する地物データ取得工程と、
     前記地物データに含まれる前記地物の属性に基づき、前記周辺情報から少なくとも、当該地物が有する透光部に関する透光部情報を除去し、除去後情報を生成する第1生成工程と、
     前記周辺情報から前記透光部情報を除去したことを示す除去履歴情報を生成する第2生成工程と、を含むことを特徴とする周辺情報処理方法。
  3.  前記除去後情報及び前記除去履歴情報を外部送信する送信工程をさらに含むことを特徴とする請求項1又は2に記載の周辺情報処理方法。
  4.  センサが配置された移動体から、当該移動体の周辺に存在する物体に関する周辺情報を取得する取得工程と、
     前記周辺情報のうち透光部に相当する透光部情報を検出する検出工程と、
     前記周辺情報から少なくとも前記透光部情報を除去した除去後情報を生成する第1生成工程と、
     前記周辺情報から前記透光部情報を除去したことを示す除去履歴情報を生成する第2生成工程と、を含むことを特徴とする周辺情報処理方法。
  5.  センサが配置された移動体から、当該移動体の周辺に存在する物体に関する周辺情報を取得する周辺情報取得工程と、
     前記地物データに含まれる前記地物の属性に基づき、前記周辺情報から少なくとも、当該地物が有する透光部に関する透光部情報を除去し、除去後情報を生成する第1生成工程と、
     前記周辺情報から前記透光部情報を除去したことを示す除去履歴情報を生成する第2生成工程と、を含むことを特徴とする周辺情報処理方法。
  6.  前記除去後情報及び前記除去履歴情報に基づいて地図データを作成または更新する地図作成工程をさらに含むことを特徴とする請求項1、2、4又は5に記載の周辺情報処理方法。
  7.  地物に関する地物情報から少なくとも透光部に相当する透光部情報が除去された除去後情報、及び、除去したことを示す除去履歴情報を取得する取得工程と、
     移動体に配置されたセンサによって認識された地物に関する情報、前記除去後情報及び前記除去履歴情報に基づいて所定の処理を行う処理工程と、を含むことを特徴とする情報処理方法。
  8.  前記処理工程において、前記移動体の現在位置を推定することを特徴とする請求項7に記載の情報処理方法。
PCT/JP2019/002286 2018-01-31 2019-01-24 周辺情報処理方法 WO2019151107A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018015316 2018-01-31
JP2018-015316 2018-01-31

Publications (1)

Publication Number Publication Date
WO2019151107A1 true WO2019151107A1 (ja) 2019-08-08

Family

ID=67478178

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/002286 WO2019151107A1 (ja) 2018-01-31 2019-01-24 周辺情報処理方法

Country Status (1)

Country Link
WO (1) WO2019151107A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012141235A1 (ja) * 2011-04-13 2012-10-18 株式会社トプコン 三次元点群位置データ処理装置、三次元点群位置データ処理システム、三次元点群位置データ処理方法およびプログラム
WO2015079533A1 (ja) * 2013-11-28 2015-06-04 パイオニア株式会社 検出装置、検出方法、検出プログラム及び記録媒体
WO2017208396A1 (ja) * 2016-06-01 2017-12-07 パイオニア株式会社 地物データ構造、記憶媒体、情報処理装置及び検出装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012141235A1 (ja) * 2011-04-13 2012-10-18 株式会社トプコン 三次元点群位置データ処理装置、三次元点群位置データ処理システム、三次元点群位置データ処理方法およびプログラム
WO2015079533A1 (ja) * 2013-11-28 2015-06-04 パイオニア株式会社 検出装置、検出方法、検出プログラム及び記録媒体
WO2017208396A1 (ja) * 2016-06-01 2017-12-07 パイオニア株式会社 地物データ構造、記憶媒体、情報処理装置及び検出装置

Similar Documents

Publication Publication Date Title
CN107305126B (zh) 记录介质、环境地图的制作系统和方法及更新系统和方法
US20210293963A1 (en) Apparatus for acquiring 3-dimensional maps of a scene
CN109212543B (zh) 用于自主车辆操作的校准验证方法
JP7082545B2 (ja) 情報処理方法、情報処理装置およびプログラム
Stiller et al. Multisensor obstacle detection and tracking
US9129523B2 (en) Method and system for obstacle detection for vehicles using planar sensor data
US10527730B2 (en) Object detection system
US20180154901A1 (en) Method and system for localizing a vehicle
WO2019026715A1 (ja) 制御装置、および制御方法、プログラム、並びに移動体
US10977816B2 (en) Image processing apparatus, image processing program, and driving assistance system
JP4475015B2 (ja) 車両周辺監視装置及び車両周辺監視方法
EP3705385A1 (en) Method and unit for autonomous parking of a vehicle
WO2019151106A1 (ja) 周辺情報処理方法
WO2019151107A1 (ja) 周辺情報処理方法
JP2023068009A (ja) 地図情報作成方法
US11834065B2 (en) System, method, and computer program product for detecting road marking points from LiDAR data
WO2019151104A1 (ja) 周辺情報処理方法
CN117716312A (zh) 用于解决自主车辆的雷达系统的层次模糊性的方法、系统和计算机程序产品
JP4506299B2 (ja) 車両周辺監視装置
WO2019151108A1 (ja) 周辺情報処理方法
US20230037900A1 (en) Device and Method for Determining Objects Around a Vehicle
WO2020170835A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
WO2019151105A1 (ja) 周辺情報処理方法
KR20230075898A (ko) 다중플랫폼 및 다중센서 융합에 의한 데이터 수집 방법
WO2019151109A1 (ja) 路面情報取得方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19747223

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19747223

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP