WO2019031373A1 - 地物データ構造 - Google Patents

地物データ構造 Download PDF

Info

Publication number
WO2019031373A1
WO2019031373A1 PCT/JP2018/028974 JP2018028974W WO2019031373A1 WO 2019031373 A1 WO2019031373 A1 WO 2019031373A1 JP 2018028974 W JP2018028974 W JP 2018028974W WO 2019031373 A1 WO2019031373 A1 WO 2019031373A1
Authority
WO
WIPO (PCT)
Prior art keywords
feature
information
feature data
sensor
position information
Prior art date
Application number
PCT/JP2018/028974
Other languages
English (en)
French (fr)
Inventor
克巳 天野
令司 松本
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Priority to EP18844780.9A priority Critical patent/EP3667232A4/en
Priority to JP2019535150A priority patent/JPWO2019031373A1/ja
Priority to US16/637,681 priority patent/US20210149052A1/en
Publication of WO2019031373A1 publication Critical patent/WO2019031373A1/ja
Priority to JP2022134693A priority patent/JP2022173203A/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3815Road data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3848Data obtained from both position sensors and additional sensors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3863Structures of map data
    • G01C21/387Organisation of map data, e.g. version management or database structures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C7/00Tracing profiles
    • G01C7/02Tracing profiles of land surfaces
    • G01C7/04Tracing profiles of land surfaces involving a vehicle which moves along the profile to be traced
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging

Definitions

  • the present invention relates to a feature data structure indicating features.
  • a mobile body such as a vehicle may be provided with a sensor for recognizing a feature or another mobile body located on the moving path or around the path.
  • a mobile body one provided with a plurality of laser radars as sensors has been proposed (see, for example, Patent Document 1).
  • road features are measured by scanning laser light.
  • the subject of this invention is mentioned as an example in providing the terrestrial feature data structure which can suppress the sensing leak about a specific terrestrial feature.
  • the feature data structure of the present invention is a feature data structure indicating a feature, and the above ground by a sensor arranged on a mobile body. It is characterized in that it includes recognized information on a recognizable range in which an object can be recognized.
  • the feature data transmission method of the present invention indicates a feature and includes recognized information on a recognizable range in which the feature can be recognized by a sensor disposed on a mobile body.
  • the position information obtaining step of obtaining position information of the moving object on which the sensor is mounted and the position information obtained by the position information obtaining unit
  • a transmitting step of transmitting the feature data to a located mobile body.
  • a feature data structure according to an embodiment of the present invention is a feature data structure indicating a feature, and is recognized information on a recognizable range in which the feature can be recognized by a sensor disposed on a mobile object. including.
  • the appropriate control unit determines whether or not the mobile unit on which the sensor is disposed is located within the recognizable range. Based on this A sensor can sense a feature. In other words, it is possible to make the sensor acquire current information of the feature (for example, information indicating the shape of the feature, the presence or absence of the feature, and the like). In addition, when the movable body in which the sensor is disposed is located in the recognizable range, the sensor can reliably sense the feature having the feature data structure, and the sensing leakage of the feature is suppressed. be able to.
  • the control unit of the mobile unit may determine whether the mobile unit is located within the recognizable range, or the controller of the device outside the mobile unit may determine.
  • the to-be-recognized information preferably includes distance information on the distance from the position of the feature to the position of the sensor or the moving object, which enables the sensor to recognize the feature.
  • the feature can be sensed by the sensor based on the distance information, and the sensing leak of the feature can be suppressed.
  • a feature data structure is a feature data structure indicating a feature, and permission information for permitting sensing of a feature by a sensor disposed on a mobile object to be permitted or not permitted. including.
  • the feature data structure of the present embodiment it is possible to permit the sensor disposed in the mobile unit to sense only the feature requiring the sensing. Thereby, the sensing leak about a specific feature can be suppressed while reducing the amount of information acquired by the sensor.
  • the permission information for performing the execution permission or the non-permission of the sensing may be unique to the feature or may include a plurality of pieces of information that differ depending on the conditions.
  • the feature data structure indicating a predetermined feature may include permission information for always permitting or not permitting sensing execution, or a spatial condition (for example, within the above-mentioned recognizable range by the sensor) Depending on whether or not it is located, permission information for permitting or not performing sensing execution may be included.
  • permission information may be included to permit or not to perform sensing depending on temporal conditions (for example, a time zone or season in one day), or to permit or not to perform sensing according to weather conditions. It may contain permission information.
  • the control unit controls the sensor based on the permission information to be permitted or disallowed included in the feature data. can do. By doing this, it is possible to switch the sensing state of the sensor in accordance with the above-described spatial condition, temporal condition, and the like. In other words, the sensing by the sensor can be performed only when the sensing by the sensor is possible.
  • the moving object acquires or stores the feature data structure to determine whether the condition is satisfied or not by the moving object.
  • the storage device outside the mobile unit may store the feature data structure, so that the storage device determines whether the condition is satisfied or not, and outputs a signal of permission to execute or non-permission to the mobile unit.
  • a method of creating map data according to an embodiment of the present invention is a method of creating map data including the feature data structure as described above. According to the map data creating method of the present embodiment, by creating such map data including the feature data structure as described above, it is possible to specify the feature data structure by using such map data. It is possible to suppress the sensing leak of the feature of
  • a storage device is a storage device that stores feature data indicating a feature, and the feature data is an object that can be recognized by a sensor disposed on a moving body. It includes recognized information on the recognizable range. According to the storage device of the present embodiment, it is possible to suppress a sensing leak for a specific feature by storing feature data including recognition information.
  • the storage device preferably includes a transmission unit that transmits feature data to the mobile unit in which the sensor is disposed. Thereby, in the mobile that has received the feature data, it is possible to determine whether the mobile is positioned within the recognizable range, and to determine whether or not to perform sensing.
  • the storage device further includes a position information acquisition unit that acquires position information of the mobile object in which the sensor is disposed, and the transmission unit is a mobile object located around the feature based on the position information acquired by the position information acquisition unit.
  • feature data is sent to the By this, when feature data is transmitted in advance to the moving object located around the feature (within a range wider than the recognizable range) and the moving object approaches the feature further and falls within the recognizable range
  • the sensor can sense a feature and can further suppress sensing leakage. Further, by transmitting feature data as necessary, it is possible to reduce the total transmission data size as compared with the method of sending all feature data in advance.
  • a feature data transmission method indicates feature and also includes feature data including recognition information on a recognizable range in which the feature can be recognized by a sensor disposed on a mobile body On the moving object located around the feature based on the storing step of storing the position information obtaining step of obtaining the position information of the moving object on which the sensor is disposed, and the position information obtaining unit Transmitting the data.
  • the feature data transmission method of the present embodiment as described above, it is possible to suppress the sensing leak of a specific feature in the mobile body that has received the feature data.
  • it may be a feature data transmission program that causes a computer to execute the feature data transmission method described above.
  • the computer can be used to suppress the sensing leak for a specific feature.
  • the feature data transmission program described above may be stored in a computer readable recording medium. By doing this, it is possible to distribute the program alone as well as incorporating the program into the device, and to easily upgrade the version.
  • the sensor control device 1 is disposed in a vehicle 100 as a moving object, and as shown in FIG. 1, a communication unit 2, a current position acquisition unit 3, a control unit 4, and a storage unit 5. Equipped with In the present embodiment, as shown in FIGS. 2 and 3, a total of four sensors 20A to 20D are provided on each of the front, rear, left, and right of the vehicle 100.
  • the vehicle 100 may be a measurement vehicle for the purpose of collecting road information and current information about a feature, or may be a general vehicle for the purpose of passenger movement, passenger transportation, and transportation. Good.
  • the sensor control device 1 communicates with the storage device (external server) 300.
  • the external server 300 includes a storage unit main body 301, a communication unit 302, and a control unit 303.
  • the sensors 20A to 20D each have a projection unit that projects an electromagnetic wave, and a reception unit that receives a reflected wave of the electromagnetic wave from the irradiation target (a ground object to be described later). These sensors may be light sensors (so-called LIDAR; Laser Imaging Detection and Ranging) that project light and receive light reflected by the object to be irradiated.
  • LIDAR Laser Imaging Detection and Ranging
  • the sensors 20A to 20D will be described as being constituted by light sensors.
  • the longest recognition distance L means a distance such that the reflected light has an intensity that can be recognized by the light receiving unit when the irradiated laser light is reflected by the object and reaches the light receiving unit.
  • each of the sensors 20A to 20D has an angle range ⁇ in a direction in which the laser beam can be irradiated in the horizontal plane and an angle range ⁇ in a direction in which the laser beam can be irradiated in the vertical direction. . Therefore, the recognizable range of each of the sensors 20A to 20D is determined by the fan shape determined by the longest recognition distance L and the angle range ⁇ in plan view, and by the longest recognition distance L and the angle range ⁇ in front view and side view It forms a fan-shaped area.
  • the longest recognition distance L and the angle ranges ⁇ and ⁇ as described above are stored in the storage unit 5 as a database. That is, as the sensor information on the sensors 20A to 20D, the storage unit 5 stores recognizable range information on a range in which each sensor can obtain current information of the feature (a range in which the sensor can recognize the feature). There is.
  • the sensors 20A to 20D may have different performances, and the storage unit 5 stores sensor information for each of the sensors 20A to 20D.
  • the storage unit 5 also stores detailed recognition range information on the proximity recognition range in the recognizable range and the normal recognition range outside the proximity recognition range in the recognizable range as sensor information.
  • the approach recognition range is a range determined in consideration of the influence on the human body, and may be appropriately set according to the performance of the sensors 20A to 20D.
  • An example of the sensor information stored in the storage unit 5 as described above is shown in Table 1.
  • control unit 4 may perform control to continuously change the recognition sensitivity of each of the sensors 20A to 20D. Alternatively, control may be performed to simply turn on and off each of the sensors 20A to 20D.
  • the recognition sensitivity refers to the number of measurements when scanning a predetermined scan range (the number of times the projection unit emits laser light per unit time), and the energy consumed per measurement (the projection unit irradiates It is determined by the intensity of the laser beam and the like. That is, the recognition sensitivity is higher as the number of measurements (the number of laser beam irradiations) in a predetermined scan range is larger, and the recognition sensitivity is higher as the consumption energy per one measurement (intensity of laser light to be irradiated) is larger.
  • the communication unit 2 includes a circuit, an antenna, and the like for communicating with a network such as the Internet or a public line, and communicates with the external server 300 to transmit and receive information.
  • the communication unit 2 acquires map information and feature information on features from the external server 300.
  • the acquisition timing from the server 300 may be before the start of traveling of the vehicle or may be during traveling.
  • the acquired map information and feature information may be stored in the storage unit 5.
  • the feature information includes feature position information and the like regarding the position of the feature.
  • the communication unit 2 outputs current information of the features acquired by the sensors 20A to 20D to the outside as described later, and functions as an external output unit.
  • the feature is a concept including all natural or artificial objects present on the ground.
  • features include path features located on the vehicle's path (i.e., the road) and peripheral features located on the periphery of the road.
  • the route top feature a road sign, a traffic light, a guardrail, a footbridge, etc. may be mentioned, and the road itself is also included. That is, characters and figures drawn on the road surface, and the shape of the road (road width and curvature) are also included in the route features.
  • examples of the peripheral features include buildings (houses, stores) and billboards located along the road.
  • feature information is information related to the above-mentioned feature.
  • Examples of information included in the feature information include feature position information (including position information indicating feature absence due to removal of feature) indicating the position of the feature, an image or video obtained by photographing the feature in advance And feature point information indicating features such as the shape of the feature obtained by analyzing and change point information in which changes such as the shape of the feature in the secular change of the feature and the like are recorded. That is, by using the sensor, it is possible to acquire (collect) current information of the feature, and thereby, besides recognizing the feature itself, it is possible to recognize the change of the feature, the absence of the feature, etc. It becomes possible.
  • the sensors 20A to 20D are sensors capable of acquiring current information of a feature by recognizing (detecting and detecting) the feature described above.
  • the recognition of the features by the sensors 20A to 20D means not only the recognition of the features of the features, the recognition of the features such as the recognition of the surface of the features, etc., but also the change of the features and the removal of the features. It also includes the recognition of what has been done. For example, when the sensors 20A to 20D recognize a road sign as a feature, a figure written on the road sign may be recognized, or a surface state (such as peeling or discoloration of a paint) may be recognized. In addition, it may be recognized that the orientation of the sign has changed, or that the sign that should have been present (previously present) has been removed.
  • the current position acquisition unit 3 is a GPS reception unit, and receives electric waves transmitted from a plurality of GPS (Global Positioning System) satellites as known, and obtains current position information of the vehicle 100.
  • GPS Global Positioning System
  • a GPS receiving unit disposed in a vehicle as a part of the navigation device may be used as the current position acquisition unit 3.
  • the positions of the sensors 20A to 20D may be the same as the current position of the vehicle, or may be calculated based on the current position information of the vehicle and the information on the mounting location (arrangement location) on the vehicle. Information on the attachment location may be stored in advance in a memory or the like.
  • the current position acquisition unit 3 may function as a current position information acquisition unit by using the acquired current position information of the vehicle 100 as the current position information of the sensors 20A to 20D as it is, or the acquired current of the vehicle 100 The position information may be appropriately corrected, and the current position information acquisition unit may function as the current position information of the sensors 20A to 20D.
  • the feature information acquired by the communication unit 2 from the external server 300 includes feature position information.
  • the control unit 4 determines the distance between the feature and the sensors 20A to 20D based on the feature position information included in the feature information acquired by the communication unit 2 and the current position information acquired by the current position acquisition unit 3. calculate. Note that the position of a feature estimated using the distance between the sensors 20A to 20D and the feature, which is calculated using the output signals of the sensors 20A to 20D and the current position information obtained by the current position obtaining unit 3, If a deviation occurs between the position information and the feature position information included in the feature information, the present position information may be calibrated using the amount of deviation.
  • the control unit 4 includes, for example, a central processing unit (CPU) including a memory such as a random access memory (RAM) or a read only memory (ROM), and controls the entire sensor control device 1.
  • CPU central processing unit
  • RAM random access memory
  • ROM read only memory
  • the control unit 4 also acquires sensor information of the sensors 20A to 20D from the storage unit 5, and also functions as a second acquisition unit.
  • the storage unit 5 includes, for example, a hard disk and a non-volatile memory, and is necessary for sensor information of the sensors 20A to 20D, map information and feature information acquired from the external server 300, a control program of the control unit 4, and various calculations. Formulas and tables are stored, and reading and writing are performed under the control of the control unit 4.
  • the storage unit main body 301 of the external server 300 is configured of, for example, a hard disk, nonvolatile memory, and the like, stores the map information and feature information described above, and is read and written under control of the control unit 303.
  • the storage unit main body 301 may separately store the map information and the feature information as described above due to the data structure of the storage, or may be integrated with the map information (that is, the feature information May be stored as in the map information.
  • sensor control device 1 when acquiring sensor data as mentioned above, sensor control device 1 does not necessarily need to acquire this from external server 300, and may pre-install packaged feature data. .
  • map data may be acquired when a feature data transmission process described later is executed.
  • Feature information stored in the storage unit main body 301 includes feature data.
  • the feature data includes at least one of recognized information on a recognizable range where the sensor can recognize the feature and permission information on permission or non-permission of sensing by the sensor. It has a data structure (feature data structure).
  • the recognizable range indicates a range in which it is predicted that the feature can be recognized when the sensor is in the recognizable range.
  • the recognizable range is set according to, for example, the size of the feature, the shape of the feature, the position of the feature (for example, the height from the ground), the reflectance of the feature to electromagnetic waves (for example, light), etc. .
  • the recognition information may include at least information on the longest distance.
  • a circular two-dimensional area within the longest distance centering on the feature may be set as a recognizable range, or a spherical three-dimensional area within the longest distance centering on the feature should be recognized It may be a possible range.
  • the to-be-recognizable range is not limited to a circle or a sphere, and may be a shape in which a circle or a sphere is changed according to the shape of a feature.
  • a recognizable range may be set only on the road side, and may be a semicircular or hemispherical recognizable range.
  • a recognizable range may be set only on the front side to be a semicircular or hemispherical recognizable range.
  • the recognition information may be one information or a plurality of information for each feature.
  • the range in which the sensor can recognize a feature varies depending on the type and specifications of the assumed sensor. Therefore, the feature data may have a plurality of pieces of to-be-recognized information indicating different to-be-recognized ranges depending on the type and specifications of the sensor.
  • the permission information is information indicating whether to allow the sensor to recognize the feature information.
  • An example of the permission information is information for permitting execution of sensing when the vehicle 100 (or the sensors 20A to 20D) is located within the recognizable range, and for disallowing execution of sensing when not located.
  • Such feature data structure is created by the time of execution of the second sensor control process described later, and is stored in the storage unit main body 301 as a part of map information or feature information (storage step).
  • the feature data structure does not have to be created for all features, but may be created for features that are to be preferentially measured by the sensors 20A to 20D (ie, having a high degree of importance).
  • the estimation accuracy may be improved using information on the result of the sensor sensing a surrounding feature.
  • the result of sensing road signs placed at appropriate intervals on the road may be used. Therefore, it is desirable to configure the feature data structure indicating the road signs preferentially to other features as described above.
  • a method of determining the degree of importance of a feature it may be determined according to the purpose of sensing. For example, in the case of sensing for the purpose of acquiring road information, the importance of the route upper feature such as a sign or a traffic light is increased, and in the case of sensing for the purpose of acquiring facility information in the vicinity of the road There are methods such as increasing the importance of surrounding features such as houses, stores) and billboards. It is possible to determine the importance of features by other methods.
  • the communication unit 302 includes a circuit, an antenna, and the like for communicating with a network such as the Internet or a public network, and communicates with the communication unit 2 of the sensor control device 1 provided in each of the plurality of vehicles 100 to transmit and receive information.
  • the external server 300 is configured to acquire the current position information acquired by the sensor control device 1 by the current position acquisition unit 3 through communication between the communication unit 302 and the communication unit 2. Therefore, the communication unit 302 functions as a position information acquisition unit that acquires position information of the vehicle 100 in which the sensors 20A to 20D are disposed.
  • the external server 300 transmits feature data to the sensor control device 1 as described later by communication between the communication unit 302 and the communication unit 2. Therefore, the communication unit 302 functions as a transmitting unit that transmits feature data to the vehicle 100 in which the sensors 20A to 20D are disposed.
  • the control unit 303 includes, for example, a central processing unit (CPU) including a memory such as a random access memory (RAM) or a read only memory (ROM), and controls the entire external server 300.
  • CPU central processing unit
  • RAM random access memory
  • ROM read only memory
  • the procedure in which the control unit 4 executes the sensor control process shown in FIG. 4 will be described. While the vehicle is traveling, the control unit 4 executes the sensor control process at an appropriate timing (for example, each time a predetermined time elapses or every time the vehicle travels a predetermined distance).
  • the sensor control process may be performed independently for each of the sensors 20A to 20D.
  • the control unit 4 acquires current position information of the vehicle by the current position acquisition unit 3 (step S1).
  • the control unit 4 exists around the current position from feature information stored in the storage unit 5 (that is, feature information acquired and stored in advance from the external server 300 as described later).
  • step S2 feature information indicating a feature to be predicted is extracted, and feature position information included in the feature information is acquired.
  • the control unit 4 extracts feature absence information indicating that the feature has been removed and the like as feature information around the current position, and the feature location information (feature exists) (Information on the position where the user is not) may be acquired.
  • the control unit 4 determines the relative position between the position indicated by the feature position information and the position of the sensor based on the feature position information and the current position information (the distance between the position indicated by the feature position information and the position of the sensor ) Is calculated (step S3, first acquisition step).
  • the control unit 4 acquires the recognizable range information and the detailed recognition range information from the storage unit 5 (step S4, second acquisition step).
  • control unit 4 determines whether the position indicated by the feature position information is located within the recognizable range (step S5). When the position indicated by the feature position information is out of the recognizable range (N in step S5), the control unit 4 operates the sensors 20A to 20D in the low sensitivity state to acquire sensor acquisition information (step S6). , Control process).
  • the control unit 4 determines whether the position indicated by the feature position information is located within the normal recognition range Is determined (step S7).
  • the control unit 4 operates the sensors 20A to 20D in the first high sensitivity state to acquire sensor acquisition information (Ste S8, control step).
  • the control unit 4 sets the sensors 20A to 20D to the second high sensitivity.
  • the sensor acquisition information is acquired by operating in the state (step S9, control step).
  • the control unit 4 holds the sensor acquisition information acquired in steps S6, S8 and S9 as it is in the recording device provided in the sensor control device 1, or causes the communication unit 2 to transmit it to the external server 300 (step S10), the sensor control process ends.
  • the sensor acquisition information is held in the storage device, the sensor acquisition information is collectively uploaded to the external server after the end of traveling.
  • the horizontal axis represents the distance (relative distance) between the sensors 20A to 20D and the feature
  • the vertical axis represents the recognition sensitivity of the sensors 20A to 20D
  • the first control example is indicated by a solid line.
  • a control example is shown by a broken line
  • a third control example is shown by an alternate long and short dashed line
  • a fourth control example is shown by an alternate long and two short dashed line.
  • the recognition sensitivity is substantially constant in each of the first high sensitivity state, the second high sensitivity state, and the low sensitivity state, and is not 0 in the low sensitivity state (that is, sensor 20A). ⁇ 20D is working). Also, the recognition sensitivity in the first high sensitivity state and the second high sensitivity state is higher than the recognition sensitivity in the low sensitivity state, and the recognition sensitivity in the first high sensitivity state is higher than the recognition sensitivity in the second high sensitivity state. ing.
  • the recognition sensitivity increases as the relative distance decreases in the first high sensitivity state, decreases as the relative distance decreases in the second high sensitivity state, and becomes zero in the low sensitivity state. Further, in the first high sensitivity state and the second high sensitivity state, the graph of the recognition sensitivity is curved upward.
  • the recognition sensitivity increases stepwise (discontinuously) as the relative distance decreases in the first high sensitivity state, is substantially constant in the second high sensitivity state, and is 0 in the low sensitivity state. It has become.
  • the recognition sensitivity may be changed or substantially constant according to the relative distance in each sensitivity state. Further, when the recognition sensitivity changes in accordance with the relative distance, the mode of the change may be set arbitrarily. Furthermore, in the low sensitivity state, the recognition sensitivity may be 0 and the sensors 20A to 20D may be turned off (do not operate), or the recognition sensitivity may not be 0 and the sensors 20A to 20D may operate. Further, the shape of the graph in each control example may be a straight line, a curve, or a multidimensional polynomial other than the shape shown in FIG.
  • the control unit 303 of the external server 300 executes the feature data transmission process illustrated in FIG. 6 . While the external server 300 is in operation, the control unit 303 always executes feature data transmission processing to all corresponding sensor control devices 1.
  • the control unit 303 acquires current position information of the vehicle 100 in which the sensors 20A to 20D are arranged (step S21, position information acquiring step).
  • the control unit 303 determines whether a feature exists around the vehicle 100 (step S22). As a specific example of the determination, the control unit 303 determines whether or not there is feature position information included in a predetermined range from the position indicated by the current position information of the vehicle 100 acquired in step S21.
  • the predetermined range refers to a range wider than the recognizable range of the feature. That is, when the predetermined range and the recognizable range are circular (or spherical), the radius of the circle (or sphere) formed by the predetermined range is the circle formed by the recognizable range. It means longer than the radius of (or sphere).
  • the determination may be made based on only the current position of the vehicle 100, or based on the moving direction of the vehicle 100. For example, even when the position indicated by the feature position information of certain feature information is included in a predetermined range from the current position of the vehicle 100, the vehicle 100 is moved away from the feature In this case, it may be determined that the feature is not located around the vehicle 100.
  • the control unit 303 controls the feature data of the feature existing around the vehicle 100 stored in the storage unit main body 301 as the sensor control device 1 (Step S23, transmission step), and the process returns to step S21 again.
  • the control unit 303 returns to step S21 again.
  • the sensor control device 1 can acquire current information by sensing the target specific feature.
  • the control unit 4 of the sensor control device 1 determines the sensors 20A to 20D by determining based on the feature data, for example, in steps S5 to S9 of the sensor control process described above. It just works. That is, the control unit 4 may operate the sensors 20A to 20D based on the current position information and the recognition information or permission information included in the acquired feature data.
  • step S31 the control unit 4 acquires current position information of the vehicle by the current position acquisition unit 3
  • step S32 the control unit 4 acquires the recognized information of the feature from the external server 300
  • step S33 the recognition information of the feature may be acquired by executing step S23 in the feature data transmission process.
  • step S33 the control unit 4 determines whether the vehicle is located within the recognizable range.
  • the control unit 4 When the vehicle is positioned within the recognizable range (Y in step S33), the control unit 4 operates the sensors 20A to 20D in the first state (for example, the high sensitivity state described above). On the other hand, when the vehicle is positioned outside the recognizable range (N in step S33), the control unit 4 operates the sensors 20A to 20D in the second state (for example, the low sensitivity state described above).
  • the control unit 4 holds the sensor acquisition information acquired in steps S34 and S35 as it is in the recording device provided in the sensor control device 1 or causes the communication unit 2 to transmit it to the external server 300 (step S36) ,
  • the second sensor control process ends.
  • the sensor acquisition information is held in the storage device, the sensor acquisition information is collectively uploaded to the external server after the end of traveling.
  • the feature data stored in the external server 300 has a data structure including recognized information on a recognizable range in which the features can be recognized by the sensors 20A to 20D.
  • the control unit 4 can determine whether the vehicle 100 is positioned within the recognizable range, and based on this, can cause the sensors 20A to 20D to sense feature information.
  • the sensor can reliably cause the sensor to sense the feature having the feature data structure, and such a feature data structure is provided. It is possible to suppress the sensing leak for a specific feature.
  • sensing can be performed based on the permission information as the feature data has a data structure including permission information on permission or non-permission of sensing by the sensors 20A to 20D.
  • the vehicle 100 located around the feature by transmitting feature data in advance to the vehicle 100 located around the feature, if the vehicle 100 approaches the feature further and enters the recognizable range, the feature information is sensed by the sensors 20A to 20D. Sensing leakage can be further suppressed. Further, by transmitting feature data as necessary, it is possible to reduce the total transmission data size as compared with the method of sending all feature data in advance.
  • the present invention is not limited to the above-described embodiment, but includes other configurations and the like that can achieve the object of the present invention, and the following modifications and the like are also included in the present invention.
  • the external server 300 acquires the position information of the vehicle 100 and transmits feature data to the vehicle 100 located around the feature in the above embodiment
  • the ground data is obtained regardless of the position of the vehicle 100
  • Object data may be transmitted. That is, a plurality of feature data may be periodically transmitted from external server 300 to vehicle 100. At this time, all the stored feature data may be transmitted collectively, or feature data in a specific area (for example, an area including a point registered as a home in the navigation system mounted on the vehicle 100) May be sent together.
  • the external server 300 may not transmit feature data to the vehicle 100. That is, while the external server 300 acquires the positional information on the vehicle 100, the control unit 303 determines whether the vehicle 100 is located within the recognizable range, and the execution of sensing by the sensors 20A to 20D is permitted or not permitted. Signals may be sent to the vehicle 100 only.
  • the feature data has a data structure including permission information on permission or non-permission of sensing by the sensors 20A to 20D.
  • the control unit 4 of the vehicle 100 may make the determination. That is, the sensing may be performed or not performed by determining whether the vehicle 100 receives only the information to be recognized and the control unit 4 determines whether the vehicle 100 itself is in the range to be recognized.
  • the content of feature data may be variable. That is, when a certain feature is sensed multiple times and sufficient information is collected, the importance of the feature decreases. Therefore, feature data may be deleted for this feature. Also, if there is a feature that has not been sensed for a long time, feature data may be created for this feature.
  • control unit switches the execution permission or non-permission of sensing based on the permission information.
  • the feature data may include a plurality of permission information to permit or not to perform sensing depending on conditions such as spatial information, temporal conditions, weather conditions, etc. (That is, it is not necessary to switch execution permission or non-permission according to the conditions described above).
  • the shutter may be closed outside business hours, which may make it difficult to obtain information on the store's appearance. Therefore, in the feature data indicating a store, permission information may be included to permit execution of sensing within business hours and to discontinue execution outside business hours.
  • the road surface is a feature
  • the road surface condition may change depending on rainfall, snowfall, temperature, and the like. Therefore, in the feature data indicating the road surface, it is permitted to execute sensing if the weather can change the road surface condition, and include permission information to disallow execution if the weather does not change the road surface condition. It is also good.
  • feature data indicating important features such as road signs may always include permission information for permitting sensing execution.
  • Useful information can be obtained even if features such as public buildings, bronze statues, lighthouses in navigation, etc. and sensing do not need to be changed in appearance and the information does not need to be newly collected even if time passes.
  • feature data indicating features that are not present (the sensing result is not stable) (for example, trees having different leaf growth depending on the season, etc.)
  • permission information may be included to always disable sensing execution.
  • the sensor control apparatus 1 which communicates with the external server 300 shall be arrange
  • the mobile which communicates with the external server 300 may be a ship, an aircraft, etc.
  • the feature to be recognized by the sensor may be any suitable one according to the route of the moving body communicating with the external server 300.
  • sensors 20A to 20D are light sensors in the above embodiment, the invention is not limited to this, and the sensors may use sound waves or electromagnetic waves.
  • External server storage device
  • Communication unit transmission unit
  • 20A to 20D Sensor 100 Vehicle (mobile)

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Navigation (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Instructional Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

地物についてのセンシング漏れを抑制することができる地物データ構造を提供する。外部サーバ(300)に記憶された地物データが、センサ(20A)~(20D)によって地物が認識可能となるような被認識可能範囲についての被認識情報を含んだデータ構造を有することで、車両(100)が被認識可能範囲内に位置するか否かを制御部4が判断することができ、これに基づいてセンサ(20A)~(20D)にセンシングをさせることができる。このような地物データ構造を有する特定の地物についてのセンシング漏れを抑制することができる。

Description

地物データ構造
 本発明は、地物を示す地物データ構造に関する。
 一般に、車両等の移動体には、移動経路上または経路周辺に位置する地物や他の移動体を認識するためのセンサが設けられることがある。このような移動体として、センサとしてのレーザレーダが複数設けられたものが提案されている(例えば、特許文献1参照)。特許文献1に記載された移動体では、レーザ光を走査することによって道路地物を計測するようになっている。
特開2011-196916号公報
 しかしながら、移動体の移動時には、移動体から見て地物が次々と周囲を通過することとなり、特許文献1に記載されたようなレーザレーダを備えた移動体において、走行時に常に道路地物を計測しようとすると、計測データのデータサイズが膨大となってしまう。このとき、センシング精度や計測頻度を低下させればデータサイズを小さくすることができるものの、重要な地物についてのセンシング漏れが生じてしまう可能性がある。
 したがって、本発明の課題は、特定の地物についてのセンシング漏れを抑制することができる地物データ構造を提供することが一例として挙げられる。
 前述した課題を解決し目的を達成するために、請求項1に記載の本発明の地物データ構造は、地物を示す地物データ構造であって、移動体に配置されたセンサによって前記地物が認識可能となるような被認識可能範囲に関する被認識情報を含むことを特徴としている。
 請求項8に記載の本発明の地物データ送信方法は、地物を示すとともに、移動体に配置されたセンサによって前記地物が認識可能となるような被認識可能範囲に関する被認識情報を含む地物データを記憶する記憶工程と、前記センサが搭載された移動体の位置情報を取得する位置情報取得工程と、前記位置情報取得部によって取得した前記位置情報に基づき、前記地物の周辺に位置する移動体に前記地物データを送信する送信工程と、を含むことを特徴としている。
本発明の実施例に係るセンサ制御装置および該センサ制御装置と通信する外部サーバと、の概略を示すブロック図である。 前記センサ制御装置が移動体に搭載された様子を示す平面図である。 前記センサ制御装置が移動体に搭載された様子を示す側面図である。 前記センサ制御装置が実行するセンサ制御処理の手順の一例を示すフローチャートである。 前記センサ制御装置によって制御されるセンサの感度を示すグラフである。 外部サーバが実行する地物データ送信処理の手順の一例を示すフローチャートである。 前記センサ制御装置が実行する第2のセンサ制御処理の手順の一例を示すフローチャートである。
 以下、本発明の実施形態を説明する。本発明の実施形態に係る地物データ構造は、地物を示す地物データ構造であって、移動体に配置されたセンサによって地物が認識可能となるような被認識可能範囲に関する被認識情報を含む。
 このような本実施形態の地物データ構造によれば、センサが配置された移動体が被認識可能範囲内に位置するか否かを適宜な制御部によって判断することができ、これに基づいてセンサに地物をセンシングさせることができる。言い換えれば、センサに当該地物の現在情報(例えば、地物の形状や、地物の有無等を示す情報)を取得させることができる。また、センサが配置された移動体が被認識可能範囲に位置した際に、当該地物データ構造を有した地物をセンサに確実にセンシングさせることができ、地物についてのセンシング漏れを抑制することができる。移動体が被認識可能範囲内に位置するか否かは、移動体の制御部が判断してもよいし、移動体外部の機器の制御部が判断してもよい。
 被認識情報は、地物をセンサが認識可能となる、地物の位置からセンサの位置又は移動体までの距離に関する距離情報を含むことが好ましい。これにより、距離情報に基づいてセンサに地物をセンシングさせることができ、地物についてのセンシング漏れを抑制することができる。
 本発明の他の実施形態に係る地物データ構造は、地物を示す地物データ構造であって、移動体に配置されたセンサによる地物のセンシングを実行許可または実行不許可とする許可情報を含む。このような本実施形態の地物データ構造によれば、センシングが必要な地物についてのみ、移動体に配置されたセンサに対しセンシングを許可することができる。これにより、センサが取得する情報量を削減しつつ、特定の地物についてのセンシング漏れを抑制することができる。尚、センシングを実行許可または実行不許可とする許可情報は、地物に固有のものであってもよいし、条件によって異なる複数の情報を含んでいてもよい。即ち、所定の地物を示す地物データ構造については、常にセンシング実行許可または不許可とする許可情報を含んでいてもよいし、空間的な条件(例えばセンサが上記の被認識可能範囲内に位置するか否か)に応じてセンシング実行許可または不許可とする許可情報を含んでいてもよい。また、時間的な条件(例えば一日における時間帯や季節)に応じてセンシング実行許可または不許可とする許可情報を含んでいてもよいし、天候条件に応じてセンシング実行許可または不許可とする許可情報を含んでいてもてもよい。このような地物データ構造を有する地物データを移動体が取得(受信)することにより、当該地物データに含まれる実行許可または不許可とする許可情報に基づいて、制御部はセンサを制御することができる。こうすることで、上述した空間的な条件や時間的な条件等に応じて、センサのセンシングの状態を切り換えることが可能となる。言い換えれば、センサによるセンシングが可能な条件のときのみ、センサによるセンシングを実行させることができる。
 また、上記のように許可情報が所定の条件に基づいて実行許可または不許可とする場合、移動体が地物データ構造を取得または記憶することにより、当該条件を満たすか否かを移動体において判断してもよいし、移動体外部の記憶装置が地物データ構造を記憶することにより、当該条件を満たすか否かを記憶装置が判断し、実行許可または不許可の信号を移動体に出力してもよい。
 本発明の実施形態に係る地図データの作成方法は、上記のような地物データ構造を含む地図データを作成する方法である。このような本実施形態の地図データ作成方法によれば、上記のような地物データ構造を含む地図データを作成することにより、このような地図データを用いることで、地物データ構造を有する特定の地物についてのセンシング漏れを抑制することができる。
 本発明の実施形態に係る記憶装置は、地物を示す地物データを記憶する記憶装置であって、地物データは、移動体に配置されたセンサによって地物が認識可能となるような被認識可能範囲に関する被認識情報を含む。このような本実施形態の記憶装置によれば、被認識情報を含む地物データを記憶することにより、特定の地物についてのセンシング漏れを抑制することができる。
 記憶装置は、センサが配置された移動体に対し、地物データを送信する送信部を備えることが好ましい。これにより、地物データを受信した移動体において、この移動体が被認識可能範囲内に位置するかを判断し、センシングするか否かを決定することができる。
 記憶装置は、センサが配置された移動体の位置情報を取得する位置情報取得部をさらに備え、送信部は、位置情報取得部によって取得した位置情報に基づき、地物の周辺に位置する移動体に地物データを送信することが好ましい。これにより、地物の周辺(被認識可能範囲よりも広い範囲内)に位置する移動体に前もって地物データを送信し、移動体がさらに地物に接近して被認識可能範囲内に入ったらセンサに地物をセンシングさせることができ、センシング漏れをさらに抑制することができる。また、地物データを必要に応じて送信することにより、全ての地物データを予め送信する方法と比較して、合計の送信データサイズを小さくすることができる。
 本発明の実施形態に係る地物データ送信方法は、地物を示すとともに、移動体に配置されたセンサによって地物が認識可能となるような被認識可能範囲に関する被認識情報を含む地物データを記憶する記憶工程と、センサが配置された移動体の位置情報を取得する位置情報取得工程と、位置情報取得部によって取得した位置情報に基づき、地物の周辺に位置する移動体に地物データを送信する送信工程と、を含む。このような本実施形態の地物データ送信方法によれば、上記のように、地物データを受信した移動体において特定の地物についてのセンシング漏れを抑制することができる。
 また、上述した地物データ送信方法をコンピュータにより実行させる地物データ送信プログラムとしてもよい。このようにすることにより、コンピュータを用いて、特定の地物についてのセンシング漏れを抑制することができる。
 また、上述した地物データ送信プログラムをコンピュータ読み取り可能な記録媒体に格納してもよい。このようにすることにより、当該プログラムを機器に組み込む以外に単体でも流通させることができ、バージョンアップ等も容易に行える。
 以下、本発明の実施例について具体的に説明する。センサ制御装置1は、移動体としての車両100に配置されるものであって、図1に示すように、通信部2と、現在位置取得部3と、制御部4と、記憶部5と、を備える。本実施形態では、図2、3に示すように、車両100の前後左右のそれぞれに計4つのセンサ20A~20Dが設けられている。尚、車両100は、道路情報や地物に関する現在情報を収集することを目的とする計測車両であってもよいし、搭乗者の移動や旅客輸送、運送を目的とした一般車両であってもよい。
 センサ制御装置1は、記憶装置(外部サーバ)300と通信する。外部サーバ300は、記憶部本体301と、通信部302と、制御部303と、を有する。
 センサ20A~20Dは、電磁波を投射する投射部と、照射対象物(後述する地物)による電磁波の反射波を受光する受信部と、を有する。これらのセンサは、光を投射して照射対象物による反射光を受光する光センサ(いわゆるLIDAR; Laser Imaging Detection and Ranging)であってもよい。以下、センサ20A~20Dが光センサで構成されているものとして説明する。センサ20A~20Dから出力される出力信号を処理することで、レーザ光を投射する方向、且つ、レーザ光の強度等に応じた最長認識距離Lよりも近くに位置する対象物を認識することが可能となる。尚、最長認識距離Lとは、照射したレーザ光が対象物によって反射され受光部に到達した際に、この反射光が、受光部が認識可能な強度を有するような距離を意味する。さらに、センサ20A~20Dは、センサ毎に水平面内においてレーザ光を照射可能な方向の角度範囲θと、鉛直方向においてレーザ光を照射可能な方向の角度範囲φと、をペアで有している。従って、センサ20A~20Dのそれぞれの認識可能範囲は、平面視において、最長認識距離Lと角度範囲θとによって定まる扇形状、正面視および側面視において、最長認識距離Lと角度範囲φとによって定まる扇形状の領域を成す。
 上記のような最長認識距離Lと角度範囲θ、φとは、データベースとして記憶部5に記憶されている。即ち、記憶部5には、センサ20A~20Dに関するセンサ情報として、各センサが地物の現在情報を取得可能な範囲(センサが地物を認識可能な範囲)に関する認識可能範囲情報が記憶されている。尚、センサ20A~20Dは、互いに異なる性能を有していてもよく、記憶部5には、センサ20A~20Dのそれぞれについてセンサ情報が記憶されている。
 さらに、記憶部5には、センサ情報として、認識可能範囲における接近認識範囲と、認識可能範囲における接近認識範囲の外側の通常認識範囲と、に関する詳細認識範囲情報も記憶する。接近認識範囲とは、人体への影響を考慮して決定される範囲であり、センサ20A~20Dの性能に応じて適宜に設定されていればよい。このように記憶部5に記憶されるセンサ情報の一例を表1に示す。
Figure JPOXMLDOC01-appb-T000001
 ここで、制御部4は、センサ20A~20Dのそれぞれの認識感度を連続的に変化させる制御を行ってもよい。或いは、センサ20A~20Dのそれぞれを単にオンオフする制御を行ってもよい。尚、認識感度とは、所定のスキャン範囲をスキャンする際の測定回数(単位時間当たりに投射部がとレーザ光を照射する回数)や、一回の測定あたりの消費エネルギー(投射部が照射するレーザ光の強度)等で決まる。即ち、所定のスキャン範囲における測定回数(レーザ光の照射回数)が多いほど認識感度が高く、一回の測定あたりの消費エネルギー(照射するレーザ光の強度)が大きいほど認識感度が高い。
 通信部2は、インターネットや公衆回線等のネットワークと通信するための回路やアンテナ等から構成され、外部サーバ300と通信して情報を送受信する。通信部2は、外部サーバ300から地図情報および地物に関する地物情報を取得する。サーバ300からの取得タイミングは、車両の走行開始前であってもよいし、走行中であってもよい。取得した地図情報および地物情報は記憶部5に記憶すればよい。この地物情報には地物の位置に関する地物位置情報等が含まれている。また、通信部2は、後述するようにセンサ20A~20Dによって取得した地物の現在情報を外部に出力し、外部出力部として機能する。
 ここで、地物とは、地上に存在する天然または人工のあらゆる物体を含む概念である。地物の例としては、車両の経路(即ち道路)上に位置する経路上地物と、道路の周辺に位置する周辺地物と、が含まれる。経路上地物の例としては、道路標識や信号機、ガードレール、歩道橋等が挙げられ、道路そのものも含まれる。即ち、路面に描写された文字や図形、及び、道路の形状(道幅や曲率)も経路上地物に含まれる。また、周辺地物の例としては、道路に沿って位置する建築物(住宅、店舗)や看板が挙げられる。また、地物情報とは、上述の地物に関連する情報である。地物情報に含まれる情報の例としては、地物の位置を示す地物位置情報(地物の撤去に伴う地物不在を示す位置情報も含む)、事前に地物を撮影した画像や映像を解析することで得られた地物の形状等の特徴を示す特徴点情報、地物の経年変化等における地物の形状等の変化を記録した変化点情報、などが挙げられる。すなわち、センサを利用することによって、地物の現在情報を取得(収集)することが可能となり、これにより地物そのものを認識することの他、地物の変化や地物不在等の認識等も可能となる。
 センサ20A~20Dは、上述した地物を認識(検知、検出)することで地物の現在情報を取得可能なセンサである。センサ20A~20Dによる地物の認識とは、地物の外形の認識、地物の表面の認識等の地物が存在することの認識のみならず、地物の変化や、当該地物が撤去されたこと等の認識も含まれる。例えばセンサ20A~20Dが地物としての道路標識を認識する場合、道路標識に記された図形を認識してもよいし、表面状態(塗装の剥がれや色褪せ等)を認識してもよい。また、標識の向きが変化していることや、あるはずの(過去に存在していた)標識が撤去されていること等の状態を認識してもよい。
 現在位置取得部3は、GPS受信部であって、公知であるように複数のGPS(Global Positioning System)衛星から発信される電波を受信して、車両100の現在位置情報を求めるものである。尚、ナビゲーション装置の一部として車両に配置されたGPS受信部を現在位置取得部3として利用すればよい。尚、センサ20A~20Dの位置は、車両の現在位置と同じとしてもよいし、車両の現在位置情報と車両における取付箇所(配置箇所)に関する情報とに基づいて算出してもよい。取付箇所に関する情報は、予めメモリ等に記憶させておくようにしてもよい。即ち、現在位置取得部3は、取得した車両100の現在位置情報をそのままセンサ20A~20Dの現在位置情報とすることで現在位置情報取得部として機能してもよいし、取得した車両100の現在位置情報を適宜に補正し、センサ20A~20Dの現在位置情報することで現在位置情報取得部として機能してもよい。
 通信部2が外部サーバ300から取得する地物情報には、地物位置情報が含まれている。制御部4は、通信部2が取得した地物情報に含まれる地物位置情報と、現在位置取得部3が取得した現在位置情報と、に基づいて地物とセンサ20A~20Dとの距離を算出する。尚、センサ20A~20Dの出力信号と現在位置取得部3が取得した現在位置情報を用いて算出された、センサ20A~20Dと地物との距離を用いて推定される地物の位置と、地物情報に含まれる地物位置情報と、の間にずれが生じている場合には、当該ずれ量を用いて現在位置情報を較正するようにしてもよい。
 制御部4は、例えばRAM(Random Access Memory)やROM(Read Only Memory)などのメモリを備えたCPU(Central Processing Unit)で構成され、センサ制御装置1の全体制御を司る。また、制御部4は、記憶部5からセンサ20A~20Dのセンサ情報を取得し、第2取得部としても機能する。
 記憶部5は、例えばハードディスクや不揮発性メモリなどで構成され、センサ20A~20Dのセンサ情報や、外部サーバ300から取得した地図情報及び地物情報、制御部4の制御プログラム、各種演算に必要な数式及びテーブルを記憶し、制御部4からの制御により読み書きがなされる。
 外部サーバ300の記憶部本体301は、例えばハードディスクや不揮発性メモリなどで構成され、上述した地図情報及び地物情報を記憶し、制御部303からの制御により読み書きがなされる。尚、記憶部本体301は、その記憶のデータ構造上、上記のように地図情報と地物情報とを別個に記憶するようにしてもよいし、地図情報と一体的に(即ち、地物情報が地図情報に含まれるように)記憶するようにしてもよい。また、尚、センサ制御装置1は、上記のように地図データを取得する際、必ずしもこれを外部サーバ300から取得する必要はなく、パッケージ化された地物データをプリインストールしておいてもよい。また、後述する地物データ送信処理が実行された際に、地図データを取得してもよい。
 記憶部本体301に記憶される地物情報には、地物データが含まれる。この地物データは、センサによって地物が認識可能となるような被認識可能範囲についての被認識情報と、センサによるセンシングの実行許可または不許可についての許可情報と、との少なくとも一方を含んだデータ構造(地物データ構造)を有している。被認識可能範囲は、センサが当該認識可能範囲にある場合に、当該地物を認識可能になると予測される範囲を示すものである。被認識可能範囲は、例えば、地物の大きさや、地物の形状、地物の位置(例えば地面からの高さ)、地物の電磁波(例えば光)に対する反射率等に応じて設定される。尚、被認識情報は、少なくとも最長距離についての情報を含んでいればよい。即ち、地物を中心とする最長距離内の円状の二次元的な領域を被認識可能範囲としてもよいし、地物を中心とする最長距離内の球状の三次元的な領域を被認識可能範囲としてもよい。なお、被認識可能範囲は、円状又は球状に限定されるものではなく、地物の形状に応じて円又は球を変化させた形状であってもよい。また、最長距離だけでなく、地物の配置に応じて被認識可能範囲を設定してもよい。例えば、道路に沿って配置された地物については、道路側にのみ被認識可能範囲を設定し、半円状又は半球状の被認識可能範囲としてもよい。また、看板等の表裏がある地物については、表面側にのみ被認識可能範囲を設定し、半円状又は半球状の被認識可能範囲としてもよい。また、被認識情報は、地物ごとに一つの情報であってもよいし、複数の情報としてもよい。例えば、想定されるセンサの種類やスペックによって、当該センサが地物を認識可能になる範囲は異なる。このため、地物データは、センサの種類やスペックによって異なる被認識範囲を示す複数の被認識情報を有することとしてもよい。
 許可情報とは、センサに対しその地物情報の認識を許可するか否かを示す情報である。許可情報の一例は、被認識可能範囲に車両100(又はセンサ20A~20D)が位置する場合にセンシングを実行許可し、位置しない場合にセンシングを実行不許可とする情報である。このような地物データ構造は、後述する第2のセンサ制御処理の実行時までに作成され、地図情報又は地物情報の一部として記憶部本体301に記憶される(記憶工程)。尚、地物データ構造は、全ての地物について作成されている必要はなく、センサ20A~20Dによって優先的に測定したい(即ち重要度が高い)地物について作成されるものでもよい。例えば、センサが配置された移動体が、自己位置推定を行なう際に、当該センサが周囲の地物をセンシングした結果の情報を用いて、当該推定精度を向上させる場合がある。この場合は、道路にある適度な間隔で配置されている道路標識をセンシングした結果が用いられることがある。したがって、他の地物に対して優先的に道路標識を示す地物データ構造は上述のように構成しておくことが望ましい。
 地物の重要度を決める方法の一例として、センシング目的によって決定するようにしてもよい。例えば、道路情報の取得を目的としてセンシングする場合には、標識や信号機等の経路上地物の重要度を高くし、道路周辺の施設情報の取得を目的としてセンシングする場合には、建築物(住宅、店舗)や看板等の周辺地物の重要度を高くする等の方法がある。その他の方法でも地物の重要度を決めることは可能である。
 通信部302は、インターネットや公衆回線等のネットワークと通信するための回路やアンテナ等から構成され、複数の車両100のそれぞれに設けられたセンサ制御装置1の通信部2と通信して情報を送受信する。このとき、外部サーバ300は、通信部302と通信部2との通信により、現在位置取得部3によってセンサ制御装置1が取得した現在位置情報を取得するようになっている。従って、通信部302が、センサ20A~20Dが配置された車両100の位置情報を取得する位置情報取得部として機能する。
 また、外部サーバ300は、通信部302と通信部2との通信により、後述するようにセンサ制御装置1に対して地物データを送信する。従って、通信部302が、センサ20A~20Dが配置された車両100に対して地物データを送信する送信部として機能する。
 制御部303は、例えばRAM(Random Access Memory)やROM(Read Only Memory)などのメモリを備えたCPU(Central Processing Unit)で構成され、外部サーバ300の全体制御を司る。
 ここで、制御部4が図4に示すセンサ制御処理を実行する手順について説明する。車両の走行中、適宜なタイミング(例えば所定の時間が経過する毎や、車両が所定距離だけ走行する毎)に制御部4がセンサ制御処理を実行する。尚、センサ制御処理は、センサ20A~20Dのそれぞれについて独立に実行されればよい。センサ制御処理において、まず制御部4は、現在位置取得部3によって車両の現在位置情報を取得する(ステップS1)。次いで、制御部4は、記憶部5に記憶された地物情報(即ち、後述のように、外部サーバ300から事前に取得して記憶させておいた地物情報)から、現在位置周辺に存在すると予測される地物を示す地物情報を抽出し、当該地物情報に含まれる地物位置情報を取得する(ステップS2)。ここで、制御部4は、ステップS2において、現在位置周辺の地物情報として、地物が撤去されたこと等を示す地物不存在の情報を抽出し、地物位置情報(地物が存在しない位置の情報)を取得するようにしてもよい。次いで、制御部4は、地物位置情報と現在位置情報とに基づいて、地物位置情報が示す位置とセンサの位置との相対位置(地物位置情報が示す位置とセンサの位置との距離)を算出する(ステップS3、第1取得工程)。次いで、制御部4は、記憶部5から認識可能範囲情報および詳細認識範囲情報を取得する(ステップS4、第2取得工程)。
 次に、制御部4は、算出した相対位置に基づき、地物位置情報によって示される位置が認識可能範囲内に位置するか否かを判定する(ステップS5)。地物位置情報によって示される位置が認識可能範囲外に位置する場合(ステップS5でN)、制御部4は、センサ20A~20Dを低感度状態で動作させてセンサ取得情報を取得する(ステップS6、制御工程)。
 一方、地物位置情報によって示される位置が認識可能範囲内に位置する場合(ステップS5でY)、制御部4は、地物位置情報によって示される位置が通常認識範囲内に位置するか否かを判定する(ステップS7)。地物位置情報によって示される位置が通常認識範囲内に位置する場合(ステップS7でY)、制御部4は、センサ20A~20Dを第1高感度状態で動作させてセンサ取得情報を取得する(ステップS8、制御工程)。一方、地物位置情報によって示される位置が通常認識範囲外に位置する(即ち接近認識範囲内に位置する)場合(ステップS7でN)、制御部4は、センサ20A~20Dを第2高感度状態で動作させてセンサ取得情報を取得する(ステップS9、制御工程)。
 制御部4は、ステップS6、S8、S9において取得したセンサ取得情報を、センサ制御装置1に設けられた記録装置内にそのまま保持するか、もしくは、通信部2によって外部サーバ300に送信させ(ステップS10)、センサ制御処理を終了する。センサ取得情報を記憶装置内に保持する場合は、走行終了後にセンサ取得情報を外部サーバに一括アップロードする。
 ここで、上記の高感度状態および低感度状態の具体例について図5に基づいて説明する。図5のグラフは、横軸がセンサ20A~20Dと地物との距離(相対距離)であり、縦軸がセンサ20A~20Dの認識感度であり、第1制御例を実線で示し、第2制御例を破線で示し、第3制御例を一点鎖線で示し、第4制御例を二点鎖線で示す。尚、図5では、地物情報と感度状態との関係を、距離のみについて示しているが、レーザ光を照射可能な方向の角度範囲内に、地物位置情報によって示される位置が位置していることを前提としている。
 まず、第1制御例では、認識感度は、第1高感度状態、第2高感度状態および低感度状態のそれぞれにおいて略一定となっており、且つ、低感度状態において0ではない(即ちセンサ20A~20Dが動作している)。また、第1高感度状態および第2高感度状態における認識感度は、低感度状態における認識感度よりも高く、第1高感度状態における認識感度は、第2高感度状態における認識感度よりも高くなっている。
 第2制御例では、認識感度は、第1高感度状態において、相対距離が小さくなるほど高くなり、第2高感度状態において、相対距離が小さくなるほど低くなり、低感度状態において0となっている。また、第1高感度状態および第2高感度状態において、認識感度のグラフは上向きに凸の曲線状となっている。
 第3制御例では、認識感度は、第1高感度状態において、相対距離が小さくなるほど段階的に(不連続的に)高くなり、第2高感度状態において略一定であり、低感度状態において0となっている。
 以上の第1~第3制御例に示したように、各感度状態において認識感度が相対距離に応じて変化してもよいし略一定であってもよい。また、認識感度が相対距離に応じて変化する場合、その変化の態様は任意に設定されればよい。さらに、低感度状態において、認識感度が0となりセンサ20A~20Dがオフ(動作しない)となってもよいし、認識感度が0とはならずセンサ20A~20Dが動作してもよい。また、各制御例におけるグラフの形状は、図5で示した形状以外の直線、曲線、または多次元多項式であってもよい。
 次に、外部サーバ300の制御部303が図6に示す地物データ送信処理を実行する手順について説明する。制御部303は、外部サーバ300の稼働中、対応する全てのセンサ制御装置1に対し、常に地物データ送信処理を実行する。まず、制御部303は、センサ20A~20Dが配置された車両100の現在位置情報を取得する(ステップS21、位置情報取得工程)。次いで、制御部303は、車両100の周辺に地物が存在するか否かを判定する(ステップS22)。当該判定の具体例としては、制御部303は、ステップS21で取得した車両100の現在位置情報が示す位置から所定の範囲内に含まれる地物位置情報が存在するか否かを判定する。ここで、「所定の範囲内」とは、その地物の被認識可能範囲よりも広い範囲を指す。即ち、所定の範囲及び被認識可能範囲を円(又は球)状であるとした場合には、所定の範囲が形成する円(又は球)の半径の方が、被認識可能範囲が構成する円(又は球)の半径よりも長いことを意味する。また、ステップS22では、車両100の現在位置のみに基づいて判定してもよいし、車両100の移動方向にも基づいて判定してもよい。例えば、とある地物情報の地物位置情報が示す位置が車両100の現在位置から所定の範囲内に含まれる場合であっても、車両100が当該地物からと遠ざかるように移動している際には、当該地物の車両100の周辺に位置しないと判定してもよい。
 車両100の周辺に地物が存在する場合(ステップS22でY)、制御部303は、記憶部本体301に記憶された、車両100の周辺に存在する地物の地物データをセンサ制御装置1に送信し(ステップS23、送信工程)、再びステップS21に戻る。一方、車両100の周辺に地物が存在しない場合(ステップS22でN)、制御部303は再びステップS21に戻る。このように、地物データがセンサ制御装置1に送信されることにより、センサ制御装置1は、対象とする特定の地物についてセンシングして現在情報を取得することが可能となる。センサ制御装置1の制御部4は、外部サーバ300から地物データを取得した場合、例えば上記のセンサ制御処理のステップS5~S9において、地物データに基づいて判定することによりセンサ20A~20Dを動作させればよい。即ち、制御部4は、現在位置情報と、取得した地物データに含まれる被認識情報又は許可情報と、に基づいてセンサ20A~20Dを動作させればよい。
 上記のように外部サーバ300から地物データを取得した場合に制御部4がセンサ20A~20Dを制御する第2のセンサ制御処理の手順の一例を図7に示す。第2のセンサ制御処理において、まず制御部4は、現在位置取得部3によって車両の現在位置情報を取得する(ステップS31)。次いで、制御部4は、外部サーバ300から地物の被認識情報を取得する(ステップS32)。ステップS32では、上記の地物データ送信処理におけるステップS23が実行されることにより、地物の被認識情報を取得すればよい。次に、制御部4は、その車両が被認識可能範囲内に位置するか否かを判定する(ステップS33)。車両が被認識可能範囲内に位置する場合(ステップS33でY)、制御部4は、センサ20A~20Dを第1の状態(例えば上記の高感度状態)で動作させる。一方、車両が被認識可能範囲外に位置する場合(ステップS33でN)、制御部4は、センサ20A~20Dを第2の状態(例えば上記の低感度状態)で動作させる。
 制御部4は、ステップS34、S35において取得したセンサ取得情報を、センサ制御装置1に設けられた記録装置内にそのまま保持するか、もしくは、通信部2によって外部サーバ300に送信させ(ステップS36)、第2のセンサ制御処理を終了する。センサ取得情報を記憶装置内に保持する場合は、走行終了後にセンサ取得情報を外部サーバに一括アップロードする。
 上記の構成により、外部サーバ300に記憶された地物データが、センサ20A~20Dによって地物が認識可能となるような被認識可能範囲についての被認識情報を含んだデータ構造を有することで、車両100が被認識可能範囲内に位置するか否かを制御部4が判断することができ、これに基づいてセンサ20A~20Dに地物情報をセンシングさせることができる。また、センサが配置された移動体が被認識可能範囲に位置した際に、当該地物データ構造を有した地物をセンサに確実にセンシングさせることができ、このような地物データ構造を有する特定の地物についてのセンシング漏れを抑制することができる。
 さらに、地物データが、センサ20A~20Dによるセンシングの実行許可または不許可についての許可情報を含んだデータ構造を有することで、許可情報に基づいてセンシングを実行させることができる。
 また、地物の周辺に位置する車両100に前もって地物データを送信することにより、車両100がさらに地物に接近して被認識可能範囲内に入ったらセンサ20A~20Dに地物情報をセンシングさせることができ、センシング漏れをさらに抑制することができる。また、地物データを必要に応じて送信することにより、全ての地物データを予め送信する方法と比較して、合計の送信データサイズを小さくすることができる。
 なお、本発明は、前記実施例に限定されるものではなく、本発明の目的が達成できる他の構成等を含み、以下に示すような変形等も本発明に含まれる。
 例えば、前記実施例では、外部サーバ300が、車両100の位置情報を取得し、地物の周辺に位置する車両100に地物データを送信するものとしたが、車両100の位置に関わらず地物データを送信してもよい。即ち、外部サーバ300から車両100に対して定期的に複数の地物データを送信するようにしてもよい。このとき、記憶された全ての地物データをまとめて送信してもよいし、特定のエリア(例えば車両100に搭載されたナビゲーションシステムにおいて自宅として登録された地点を含むエリア)内の地物データをまとめて送信してもよい。
 また、外部サーバ300は車両100に対して地物データを送信しなくてもよい。即ち、外部サーバ300が車両100の位置情報を取得するとともに、制御部303によって車両100が被認識可能範囲内に位置するか否かを判定し、センサ20A~20Dによるセンシングの実行許可または不許可についての信号のみを車両100に対して送信してもよい。
 また、前記実施例では、地物データが、センサ20A~20Dによるセンシングの実行許可または不許可についての許可情報を含んだデータ構造を有するものとしたが、センシングを実行するか否かについては、車両100の制御部4が判断してもよい。即ち、車両100が被認識情報のみを受信し、制御部4が、車両100自身が被認識可能範囲に入ったか否かを判定することにより、センシングを実行または不実行としてもよい。
 また、前記実施例では、特定の地物が、被認識情報を含む地物データを有するものとしたが、地物データの内容は可変なものであってもよい。即ち、ある地物が複数回センシングされ、充分な情報が収集された場合には、この地物の重要度が低下する。そこで、この地物について地物データを削除してもよい。また、長期間センシングされていない地物がある場合、この地物について地物データを作成してもよい。
 また、前記実施例では、許可情報に基づいて、制御部がセンシングの実行許可または不許可を切り換えるものとした。地物データには、空間的な情報や時間的な条件、天候条件等の条件に応じてセンシング実行許可または不許可とする複数の許可情報が含まれていてもよいし、地物に固有のもの(即ち上述の条件によって実行許可または不許可を切り換える必要がない)であってもよい。
 例えば、店舗を地物とする場合、営業時間外にシャッターが閉じられてしまうことにより、店舗の外観の情報が得られにくくなってしまうことがある。そこで、店舗を示す地物データにおいては、営業時間内にはセンシングを実行許可し、営業時間外には実行不許可とするような許可情報を含むようにしてもよい。また、路面を地物とする場合、降雨や降雪、気温等によっては路面状態が変化することがある。そこで、路面を示す地物データにおいては、路面状態が変化し得る天候であればセンシングを実行許可し、路面状態が変化しないような天候であれば実行不許可とするような許可情報を含むようにしてもよい。また、道路標識のように重要な地物を示す地物データは、常にセンシング実行許可とする許可情報を含むようにしてもよい。時間が経過しても外観等が変化しにくく新たに情報を集める必要がないような地物(例えば、公共建築物、銅像、航路における灯台等)や、センシングしても有用な情報が得られない(センシング結果が安定しない)ような地物(例えば、季節によって葉の茂り方が異なる樹木等)を示す地物データについては、常にセンシング実行不許可とする許可情報を含むようにしてもよい。
 また、前記実施例では、外部サーバ300と通信するセンサ制御装置1が移動体としての車両に配置されるものとしたが、外部サーバ300と通信する移動体は、船舶や航空機等であってもよく、センサの認識対象である地物は、外部サーバ300と通信する移動体の経路に応じた適宜なものであればよい。
 また、前記実施例では、センサ20A~20Dが光センサであるものとしたが、これに限定されず音波や電磁波を用いたものであってもよい。
 その他、本発明を実施するための最良の構成、方法などは、以上の記載で開示されているが、本発明は、これに限定されるものではない。すなわち、本発明は、主に特定の実施例に関して特に図示され、且つ、説明されているが、本発明の技術的思想および目的の範囲から逸脱することなく、以上述べた実施例に対し、形状、材質、数量、その他の詳細な構成において、当業者が様々な変形を加えることができるものである。従って、上記に開示した形状、材質などを限定した記載は、本発明の理解を容易にするために例示的に記載したものであり、本発明を限定するものではないから、それらの形状、材質などの限定の一部、もしくは全部の限定を外した部材の名称での記載は、本発明に含まれるものである。
 300             外部サーバ(記憶装置)
 302             通信部(送信部)
 20A~20D     センサ
 100             車両(移動体)

Claims (10)

  1.  地物を示す地物データ構造であって、
     移動体に配置されたセンサによって前記地物が認識可能となるような被認識可能範囲に関する被認識情報を含むことを特徴とする地物データ構造。
  2.  前記被認識情報は、前記地物を前記センサが認識可能となる、前記地物の位置から前記センサの位置又は前記移動体までの距離に関する距離情報を含むことを特徴とする請求項1に記載の地物データ構造。
  3.  請求項1に記載の地物データ構造を含む地図データを作成することを特徴とする地図データ作成方法。
  4.  地物を示す地物データを記憶する記憶装置であって、
     前記地物データは、移動体に配置されたセンサによって前記地物が認識可能となるような被認識可能範囲に関する被認識情報を含むことを特徴とする記憶装置。
  5.  前記センサが配置された移動体に対し、前記地物データを送信する送信部を備えることを特徴とする請求項4に記載の記憶装置。
  6.  前記センサが配置された移動体の位置情報を取得する位置情報取得部をさらに備え、
     前記送信部は、前記位置情報取得部によって取得した前記位置情報に基づき、前記地物の周辺に位置する移動体に前記地物データを送信することを特徴とする請求項5に記載の記憶装置。
  7.  地物を示す地物データ構造であって、
     移動体に配置されたセンサによる前記地物のセンシングを実行許可または実行不許可とする許可情報を含むことを特徴とする地物データ構造。
  8.  地物を示すとともに、移動体に配置されたセンサによって前記地物が認識可能となるような被認識可能範囲に関する被認識情報を含む地物データを記憶する記憶工程と、
     前記センサが配置された移動体の位置情報を取得する位置情報取得工程と、
     前記位置情報取得部によって取得した前記位置情報に基づき、前記地物の周辺に位置する移動体に前記地物データを送信する送信工程と、を含むことを特徴とする地物データ送信方法。
  9.  請求項8に記載の地物データ送信方法を、コンピュータにより実行させることを特徴とする地物データ送信プログラム。
  10.  請求項9に記載の地物データ送信プログラムを格納したことを特徴とするコンピュータ読み取り可能な記録媒体。
PCT/JP2018/028974 2017-08-09 2018-08-02 地物データ構造 WO2019031373A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP18844780.9A EP3667232A4 (en) 2017-08-09 2018-08-02 DATA STRUCTURE OF A COUNTRY FEATURE
JP2019535150A JPWO2019031373A1 (ja) 2017-08-09 2018-08-02 地物データ構造
US16/637,681 US20210149052A1 (en) 2017-08-09 2018-08-02 Planimetric Feature Data Structure
JP2022134693A JP2022173203A (ja) 2017-08-09 2022-08-26 地物データ作成方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-154122 2017-08-09
JP2017154122 2017-08-09

Publications (1)

Publication Number Publication Date
WO2019031373A1 true WO2019031373A1 (ja) 2019-02-14

Family

ID=65271221

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/028974 WO2019031373A1 (ja) 2017-08-09 2018-08-02 地物データ構造

Country Status (4)

Country Link
US (1) US20210149052A1 (ja)
EP (1) EP3667232A4 (ja)
JP (2) JPWO2019031373A1 (ja)
WO (1) WO2019031373A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3054042B1 (fr) * 2016-07-12 2018-08-17 Rockwell Collins France Procede et dispositif de determination d'une zone geographique operationnelle observee par un capteur

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60209191A (ja) * 1984-03-31 1985-10-21 Nissan Motor Co Ltd 車両用レ−ダ装置
JPH10311730A (ja) * 1997-05-09 1998-11-24 Toyota Motor Corp 通信機器制御装置
JP2011196916A (ja) 2010-03-23 2011-10-06 Mitsubishi Electric Corp 計測車両、道路地物計測システム
JP2014173956A (ja) * 2013-03-07 2014-09-22 Aisin Aw Co Ltd 経路案内装置、及び経路案内プログラム
US20150260530A1 (en) * 2014-03-11 2015-09-17 Volvo Car Corporation Method and system for determining a position of a vehicle
JP2016068654A (ja) * 2014-09-29 2016-05-09 三菱電機株式会社 車両用照射制御システムおよび画像照射の制御方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH103117A (ja) * 1996-06-17 1998-01-06 Kyocera Corp 情報選択表示装置を備えたカメラ
JP2004045051A (ja) * 2002-07-08 2004-02-12 Matsushita Electric Ind Co Ltd 情報処理装置および情報処理システム
JP4437556B2 (ja) * 2007-03-30 2010-03-24 アイシン・エィ・ダブリュ株式会社 地物情報収集装置及び地物情報収集方法
JP5557472B2 (ja) * 2009-05-21 2014-07-23 三菱電機株式会社 道路レーンデータ生成装置、道路レーンデータ生成方法および道路レーンデータ生成プログラム
JP2011027594A (ja) * 2009-07-27 2011-02-10 Toyota Infotechnology Center Co Ltd 地図データ検証システム
US20140379254A1 (en) * 2009-08-25 2014-12-25 Tomtom Global Content B.V. Positioning system and method for use in a vehicle navigation system
JP5798150B2 (ja) * 2013-05-30 2015-10-21 本田技研工業株式会社 物体検出装置
DE102014220687A1 (de) * 2014-10-13 2016-04-14 Continental Automotive Gmbh Kommunikationsvorrichtung für ein Fahrzeug und Verfahren zum Kommunizieren
JP6399100B2 (ja) * 2014-10-22 2018-10-03 日産自動車株式会社 走行経路演算装置
US10267908B2 (en) * 2015-10-21 2019-04-23 Waymo Llc Methods and systems for clearing sensor occlusions

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60209191A (ja) * 1984-03-31 1985-10-21 Nissan Motor Co Ltd 車両用レ−ダ装置
JPH10311730A (ja) * 1997-05-09 1998-11-24 Toyota Motor Corp 通信機器制御装置
JP2011196916A (ja) 2010-03-23 2011-10-06 Mitsubishi Electric Corp 計測車両、道路地物計測システム
JP2014173956A (ja) * 2013-03-07 2014-09-22 Aisin Aw Co Ltd 経路案内装置、及び経路案内プログラム
US20150260530A1 (en) * 2014-03-11 2015-09-17 Volvo Car Corporation Method and system for determining a position of a vehicle
JP2016068654A (ja) * 2014-09-29 2016-05-09 三菱電機株式会社 車両用照射制御システムおよび画像照射の制御方法

Also Published As

Publication number Publication date
JPWO2019031373A1 (ja) 2020-07-16
JP2022173203A (ja) 2022-11-18
EP3667232A4 (en) 2021-05-05
US20210149052A1 (en) 2021-05-20
EP3667232A1 (en) 2020-06-17

Similar Documents

Publication Publication Date Title
JP7297017B2 (ja) オンボードセンサの外部パラメータを較正する方法及び装置、並びに関連する車両
EP3077845B1 (en) System and methods for scanning with integrated radar detection and image capture
EP3077847B1 (en) System and methods for data point detection and spatial modeling
US11960028B2 (en) Determining specular reflectivity characteristics using LiDAR
JP2023111952A (ja) センサ制御装置
CN110888146B (zh) 自主交通工具计算系统、光检测和测距校准系统及其方法
CN112513679B (zh) 一种目标识别的方法和装置
EP4137846A1 (en) High-precision map generation method, localization method, and device
JP6054435B2 (ja) 強化された撮像システム
US11256013B2 (en) Dynamic matrix filter for vehicle image sensor
JP6745169B2 (ja) レーザ計測システム及びレーザ計測方法
CN111090106A (zh) 一种大气能见度测量系统、方法及装置
JP2016156676A (ja) レーザ計測システム、反射ターゲット体及びレーザ計測方法
CN116547562A (zh) 点云滤噪方法、系统和可移动平台
JP2022173203A (ja) 地物データ作成方法
CN114026410A (zh) 点云着色方法、点云着色系统和计算机存储介质
CN116635746A (zh) 用于从lidar数据检测道路标记点的系统、方法和计算机程序产品
CN111542828A (zh) 线状物识别方法及装置、系统和计算机存储介质
CN114102577A (zh) 一种机器人及应用于机器人的定位方法
FI128030B (fi) Menetelmä koealan puiden paikantamiseksi ja mittaamiseksi
JP7452349B2 (ja) 交通用検知装置および交通用検知方法
Zhao et al. Crowdsourced Geospatial Intelligence: Constructing 3D Urban Maps with Satellitic Radiance Fields
Hou Detection of Invisible/Occluded Vehicles Using Passive RFIDs
JP2022149417A (ja) インフラ用電波レーダ、インフラ用電波レーダのデータ補正方法、補正用データ生成装置、補正用データ生成方法、及びコンピュータプログラム
JP2024136946A (ja) レーダ装置、プログラム、及び、レーダ装置制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18844780

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019535150

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018844780

Country of ref document: EP

Effective date: 20200309