WO2019124278A1 - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
WO2019124278A1
WO2019124278A1 PCT/JP2018/046193 JP2018046193W WO2019124278A1 WO 2019124278 A1 WO2019124278 A1 WO 2019124278A1 JP 2018046193 W JP2018046193 W JP 2018046193W WO 2019124278 A1 WO2019124278 A1 WO 2019124278A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
reference line
detection
line
feature
Prior art date
Application number
PCT/JP2018/046193
Other languages
English (en)
French (fr)
Inventor
加藤 正浩
良樹 轡
淑子 加藤
一聡 田中
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Publication of WO2019124278A1 publication Critical patent/WO2019124278A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/114Yaw movement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the present invention relates to an information processing apparatus that performs predetermined processing based on a detection result of a detection unit that detects a feature around a moving object.
  • an automatic travel system grasps the situation by recognizing an object present around the vehicle, generates an optimal target track, and controls the vehicle to travel along the target track. Do. At this time, if the self-position estimation accuracy of the vehicle is poor, there is a possibility that the actual traveling track deviates from the target track, which reduces the safety of automatic traveling. Accurate self-positioning is one of the important factors to ensure the safety of automatic driving.
  • the self-position estimation in the conventional car navigation system often uses GNSS (Global Navigation Satellite System). Therefore, there is a problem that the accuracy is deteriorated in an environment where multiple paths such as an unreceivable place such as in a tunnel or a valley of a building are frequent.
  • GNSS Global Navigation Satellite System
  • a so-called dead reckoning technique that estimates the vehicle position based on the traveling state of the vehicle (for example, the vehicle speed and the yaw rate). Then, in order to improve the estimation accuracy of the vehicle position by dead reckoning, it is necessary to accurately acquire the traveling state of the vehicle such as the above-described vehicle speed.
  • Patent Document 1 As a technique for acquiring the yaw rate with high accuracy, for example, Patent Document 1 can be mentioned.
  • Patent Document 1 describes that the yaw rate is accurately estimated by using the lateral movement amount LM of the fixed object F detected by the front object detection sensor 31.
  • the yaw rate in the present specification indicates the amount of change in yaw angle per unit time.
  • the fixed object F is, for example, a utility pole or a guardrail.
  • the installation interval of the utility pole is wide, it may not be possible to calculate the opportunity to estimate the yaw rate.
  • the guardrail may be blocked by a vehicle traveling in the next lane, an oncoming vehicle, or the like, which may make it impossible to estimate the yaw rate. Therefore, in the method based on Patent Document 1, there are cases in which the opportunity to calculate the yaw rate is limited.
  • One of the problems to be solved by the present invention is to increase the calculation rate of the yaw rate as described above.
  • the invention according to claim 1 made in order to solve the above-mentioned problems continuously detects the detection result of the detection unit for detecting a feature having continuity along the traveling path around the moving body at predetermined time intervals.
  • a first acquisition unit that acquires the information
  • a recognition unit that recognizes the reference line of the feature based on the detection result based on a predetermined rule
  • a setting unit that sets the direction of the reference line, and the reference at the first time
  • a detection unit for detecting a feature having continuity along the traveling path around the moving body, and a detection result of the detection unit continuously at predetermined time intervals.
  • a first acquisition unit to acquire, a recognition unit that recognizes a reference line of the feature based on a predetermined rule from the detection result, a setting unit that sets the direction of the reference line, and the reference line at a first time
  • a calculating unit that calculates a yaw angle change amount of the moving body based on the moving direction of the moving body, the direction of the reference line, the moving direction of the moving body with respect to the reference line at a second time, and the direction of the reference line , And is characterized by.
  • the invention according to claim 8 is an information processing method executed by an information processing apparatus that performs a predetermined process based on a detection result of a detection unit that detects a feature around the moving body,
  • An acquisition process for continuously acquiring detection results of a detection unit for detecting a feature having continuity along a traveling path around a moving object at predetermined time intervals, and the ground based on a predetermined rule from the detection results
  • a recognition step of recognizing a reference line of an object, a setting step of setting an orientation of the reference line, a moving direction of the movable body with respect to the reference line at a first time and an orientation of the reference line, and the second time Calculating the yaw angle change amount of the moving body based on the moving direction of the moving body with respect to the reference line and the direction of the reference line.
  • the invention according to claim 9 is characterized in that the information processing method according to claim 8 is executed by a computer.
  • the first acquisition unit detects the detection result of the detection unit that detects the feature having continuity along the traveling path around the moving object at predetermined time intervals. Continuously acquiring, the recognition unit recognizes the reference line of the feature from the detection result based on a predetermined rule, and the setting unit sets the direction of the reference line. Then, the calculation unit changes the yaw angle of the moving body based on the moving direction of the moving body relative to the reference line at the first time and the direction of the reference line, and the moving direction of the moving body relative to the reference line at the second time and the direction of the reference line Calculate the quantity.
  • the image processing apparatus may further include an evaluation unit that evaluates the detection accuracy of the reference line, and the calculation unit may calculate the yaw angle change amount when the evaluation result of the detection accuracy is a predetermined value or more. By doing this, it is possible to calculate the yaw rate only when the reference line detection accuracy is high. Therefore, the calculation accuracy of the yaw rate can be enhanced.
  • the evaluation unit is at least one of the number of samples of the feature detection included in the detection result of the feature in the predetermined detection area moving together with the movable body and an error between a value indicated by each sample and a predetermined reference value. It may be evaluated based on By doing this, for example, when the number of samples is insufficient, it can be evaluated that the required detection accuracy can not be obtained. Alternatively, it can be evaluated that the required detection accuracy can not be obtained when the reference value and the error are large.
  • the feature may be a boundary that divides a lane in which the moving body travels
  • the calculating unit may calculate a yaw angle change amount when the moving body performs an operation that causes a yaw angle.
  • the second acquisition unit may acquire information output from the gyro sensor, and the correction unit may correct the information output from the gyro sensor based on the yaw angle change amount calculated by the calculation unit. Good. By doing this, it becomes possible to correct the detection value of the gyro sensor with the calculation value of the calculation unit. Therefore, the accuracy of the detection value of the gyro sensor can be enhanced.
  • the reference line may be the center line of the feature. By doing this, it is possible to accurately detect the reference line of the feature.
  • the detection apparatus concerning one Embodiment of this invention is equipped with the detection part which detects the terrestrial feature around a mobile.
  • a 1st acquisition part acquires continuously a detection result of a detection part which detects a terrestrial feature which has continuity along a runway around a mobile object by a predetermined time interval, and a recognition part detects a detection result
  • the reference line of the feature is recognized based on a predetermined rule, and the setting unit sets the direction of the reference line.
  • the calculation unit changes the yaw angle of the moving body based on the moving direction of the moving body relative to the reference line at the first time and the direction of the reference line, and the moving direction of the moving body relative to the reference line at the second time and the direction of the reference line Calculate the quantity.
  • a detection result of the detection unit for detecting a feature having continuity along the traveling path around the moving object is detected at predetermined time intervals.
  • the recognition step the reference line of the feature is recognized from the detection result based on a predetermined rule, and in the setting step, the direction of the reference line is set.
  • the calculation step the yaw angle change of the moving body based on the moving direction of the moving body with respect to the reference line at the first time and the direction of the reference line and the moving direction of the moving body with respect to the reference line at the second time and the direction of the reference line Calculate the quantity.
  • an information processing program that causes a computer to execute the above-described information processing method may be used. By doing this, it is possible to calculate the yaw rate based on the direction of the reference line of the feature and the moving direction of the moving body using a computer. And if it is a feature which has continuity along a running path to a feature, since it is not necessary to be a fixed thing indicated in patent documents 1, calculation frequency of yaw rate can be raised.
  • FIGS. 1 to 7 An information processing apparatus according to a first embodiment of the present invention will be described with reference to FIGS. 1 to 7.
  • the information processing apparatus according to the present embodiment is included in the detection device 1 and moves together with a vehicle as a moving body.
  • the detection device 1 includes a sensor group 11, a storage unit 12, a control unit 15, and an output unit 16.
  • the sensor group 11 includes a lidar 21, a vehicle speed sensor 22, an acceleration sensor 23, a gyro sensor 24, an inclination sensor 25, a temperature sensor 26, and a GPS receiver 27.
  • the lidar 21 as a detection unit emits laser light in a pulse shape to discretely measure the distance to an object present in the outside world.
  • the lidar 21 outputs a point cloud of measurement points indicated by a combination of the distance to the object from which the laser light is reflected and the emission angle of the laser light.
  • the lidar 21 is used to detect features present around the vehicle.
  • a feature is a concept that includes all natural or artificial objects present on the ground. Examples of features include path features located on the vehicle's path (i.e., the road) and peripheral features located on the periphery of the road.
  • the route top feature a road sign, a traffic light, a guardrail, a footbridge, etc. may be mentioned, and the road itself is also included. That is, characters and figures drawn on the road surface, and the shape of the road (road width and curvature) are also included in the route features.
  • examples of the peripheral features include buildings (houses, stores) and billboards located along the road.
  • the vehicle speed sensor 22 measures a pulse (also referred to as an “axle rotation pulse”) formed of a pulse signal generated along with the rotation of a wheel of the vehicle to detect the vehicle speed.
  • the acceleration sensor 23 detects an acceleration in the traveling direction of the vehicle.
  • the gyro sensor 24 detects the yaw rate of the vehicle when changing the direction of the vehicle.
  • the tilt sensor 25 detects a tilt angle (also referred to as a "slope angle”) in the pitch direction with respect to the horizontal plane of the vehicle.
  • the temperature sensor 26 detects the temperature around the gyro sensor 24.
  • a GPS (Global Positioning System) receiver 27 detects an absolute position of the vehicle by receiving radio waves including positioning data from a plurality of GPS satellites. The output of each sensor of the sensor group 11 is supplied to the control unit 15.
  • the storage unit 12 stores an information processing program executed by the control unit 15, information required for the control unit 15 to execute a predetermined process, and the like.
  • the storage unit 12 stores a map database (DB) 10 including road data and feature information.
  • map DB10 may be updated regularly.
  • the control unit 15 receives partial map information related to the area to which the vehicle position belongs from an external server device that manages map information via a communication unit (not shown), and causes the map DB 10 to reflect it.
  • a server device that can communicate with the detection device 1 may store the map DB 10.
  • the control unit 15 communicates with an external server device to acquire necessary feature information and the like from the map DB 10.
  • the output unit 16 outputs, for example, information such as the yaw rate calculated by the control unit 15 to a control device for automatic driving, and other in-vehicle devices such as a meter.
  • the control unit 15 includes a CPU (Central Processing Unit) or the like that executes a program, and controls the entire detection device 1.
  • the control unit 15 includes an acquisition unit 15a, a recognition unit 15b, a setting unit 15c, a calculation unit 15d, and an evaluation unit 15e.
  • the control unit 15 calculates the yaw rate of the vehicle based on the features detected by the rider 21.
  • the acquisition unit 15a continuously acquires detection results in a window, which will be described later, among detection results of the features detected by the lidar 21 at predetermined time intervals.
  • the recognition unit 15b recognizes a reference line of the feature based on a predetermined rule described later from the detection result.
  • the reference line will be described later.
  • the direction of the reference line is set inside.
  • the calculating unit 15d moves the vehicle relative to the reference line at the first time, which is a specific time during traveling of the vehicle, and the direction of the reference line with respect to the reference line, and the vehicle at the second time, which is different from the first time.
  • the yaw rate of the vehicle is calculated based on the direction and the direction of the reference line.
  • the evaluation unit 15 e evaluates the detection accuracy of a white line center line (reference line) described later.
  • control part 15 functions as an information processor concerning this example among detection devices 1 of composition of having mentioned above.
  • the boundary line (so-called white line) that divides the lane is used as a feature. Since the white line is coated with a retroreflective material, the reflection intensity is high and detection by the lidar 21 is easy.
  • a white line is demonstrated as a terrestrial feature in a present Example, it will not be specifically limited if it is a terrestrial feature which has continuity along traveling roads, such as a lane boundary line other than a white line and a guardrail.
  • the detection of the white line in the present embodiment will be described.
  • FIG. 2 it is assumed that the vehicle C is traveling from left to right in the figure.
  • the rider 21L is installed on the left side of the front of the vehicle C, and the rider 21R is installed on the right side of the front of the vehicle C in the same manner.
  • a window W which is a rectangular area is set in the detection range A.
  • the window W is set at a position where the white line D1 and the white line D2 can be easily detected in the detection range A.
  • This window W is a detection area which moves with the moving body in the present embodiment.
  • the rider 21 installed in front of the vehicle C will be described, but the rider installed behind the vehicle C may be used. Furthermore, only one of the riders 21L and 21R may be used.
  • the lidar 21 in this embodiment scans an object by emitting pulsed light sequentially from one side to the other side in the horizontal direction. Therefore, as shown in the upper part of FIG. 2 and FIG. 3, the scan locus is linear when viewed from above. Therefore, the acquiring unit 15a acquires information from the lidar 21 at intervals of the scanned lines. That is, the acquisition unit 15a continuously acquires the detection result of the feature at predetermined time intervals.
  • a beam scanning in the horizontal direction is vertically moved up and down to obtain a plurality of lines, or a plurality of optical systems scanning in the horizontal direction are vertically arranged to obtain a plurality of lines There is. It is known that the scan interval of such a type of rider spreads with increasing distance from the vehicle C (see also FIG. 3). This is because the angle between the rider 21 and the feature (road surface) becomes shallower as it goes away from the vehicle C.
  • the reference line defines the direction of the white line (feature) in the window W, and is used to compare with the moving direction of the vehicle C in calculating the yaw rate of the vehicle C described later.
  • the white line D1 can be recognized by detecting a portion (high reflection intensity) in the window W where the reflection intensity is high. For example, a portion having a reflection intensity equal to or higher than a predetermined threshold may be regarded as a white line.
  • the center point of the high reflection strength portion in the line of each scan is determined, the equation of the straight line passing each center point is determined by, for example, the least square method, and the straight line represented by the equation obtained is set as the white line center line.
  • the white line center line L is obtained by the equation passing through the central points c1 to c10 by the least squares method.
  • the center line of the white line is calculated in the present embodiment, it is not limited to the center line.
  • the line may be determined by the method of least squares based on the end of the white line, that is, the end point where the white line is detected in the form of a scan line. That is, in the present embodiment, the reference line (white line center line) is recognized with the least squares method as a predetermined rule. Then, the direction represented by the calculated white line center line is set in the setting unit 15 c.
  • the white line center line L is used to calculate the yaw rate of the vehicle C, the accuracy of the white line center line L may also affect the yaw rate accuracy. Therefore, the detection accuracy of the white line center line L is calculated by the following evaluation index.
  • the first evaluation index is whether or not the number of scan lines of a predetermined number or more can be detected in the range of the window W. For example, as shown in the middle of FIG. 3, when only a part of the end of the white line D1 can be detected, the number of center points (the number of samples) is small and the accuracy of the white line center line L obtained by the least squares method is not high. There is a case.
  • the evaluation index b in this case is expressed by the following equation (1), assuming that the number of lines measured by the lidar 21L or the lidar 21R is N L and the expected number of lines is N M.
  • the second of the evaluation indexes is whether the line width of the high reflection intensity portion is approximately equal to the target white line width. For example, as shown in the lower part of FIG. 3, when the coating of the white line D1 is deteriorated, the width of the white line D1 changes, so the position (the value indicated by the sample) of the center point of the white line is the original center position (reference value) There are cases where the accuracy of the white line center line L determined by the method of least squares may not be high because there are many cases of deviation (the error is large).
  • the evaluation index c of case, lidar 21L or lidar 21R linewidth measured in W L, when the original line width is W M represented by the following equation (2). Note that the original line width may be included in, for example, the map DB 10.
  • the white line D1 is a straight line, and the angle between the vehicle C and the white line D1 is changed due to a change in lane, left turn, or the like.
  • the white line center line L is determined by the method described above, and the direction is specified from the equation indicating the white line center line L.
  • an angle difference (yaw angle change) ⁇ between the white line center line L and the direction in which the vehicle C is directed is determined.
  • the yaw rate change ⁇ obtained by the equation (3) is divided by the time difference ⁇ t obtained by the equation (4) to calculate the yaw rate ⁇ _dot (see the equation (5)).
  • the yaw rate (the amount of change in the yaw angle per unit time) of the vehicle C (mobile body) is calculated based on the change in the moving direction of the vehicle C (mobile body) with respect to the (reference line).
  • the vehicle C gradually separates from the white line D1.
  • the position of the window W is adjusted from the vehicle position so that a portion having a large reflection intensity is included in the window W. This adjustment can be performed based on, for example, the steering angle of the vehicle C or a value detected by the gyro sensor 24.
  • the yaw rate detected by the gyro sensor 24 is known to have sensitivity and offset (see FIG. 5). Therefore, assuming that the yaw rate detected by the gyro sensor 24 is ⁇ [t], the sensitivity coefficient is A, and the offset coefficient is B, the true yaw rate ⁇ _dot is expressed by the following equation (6).
  • sensitivity coefficient A and offset coefficient B can be obtained by the least squares method or the like. Therefore, the yaw rate detected by the gyro sensor 24 can be corrected using the sensitivity coefficient A and the offset coefficient B which are obtained.
  • step S101 the acquisition unit 15a reads white line information in the vicinity of the vehicle position from the map DB 10.
  • the white line information includes information on the width of the white line used to obtain the evaluation index of the white line center line L described above.
  • step S101 it is determined whether the white line indicated by the read white line information or the white line recognized by the recognition unit 15b is a continuous section of a straight line. The following steps are not performed if it is not a section following the straight line. Whether the section is a continuation of a straight line may include white line information including information indicating the straight section.
  • step S102 the recognition unit 15b performs white line detection processing in which a portion with high reflection intensity is detected by the lidar 21 as a white line
  • step S103 the evaluation unit 15e calculates the equations (1) and (2).
  • the evaluation indexes b and c are calculated by the equation). In this flowchart, although both of the evaluation indexes b and c are calculated and evaluated, only one of them may be used.
  • step S104 the evaluation unit 15e determines whether both of the evaluation indexes b and c are larger than a predetermined value. If one of the evaluation indexes b and c is smaller than the predetermined value (in the case of No), the process returns to step S101. If both evaluation indexes b and c are larger than the predetermined value (in the case of Yes), the evaluation unit 15e is performed in step S105. However, it is determined that yaw rate calculation using a white line is possible.
  • step S106 the calculation unit 15d determines whether the steering angle of the vehicle C has changed. If the steering angle does not change, the process returns to step S101. If the steering angle changes, in step S107, the calculating unit 15d calculates the yaw rate according to the equations (3) to (5). The yaw rate calculation process will be described with reference to the flowchart of FIG. 7 described later. Then, in step S108, the sensitivity and the offset of the gyro sensor 24 are calculated (corrected) by the above-mentioned equation (7). In step S106, it may be determined whether or not the lane has been changed.
  • the sensitivity coefficient A and the offset coefficient B are appropriately corrected, and the accuracy of the yaw rate detected by the gyro sensor 24 can be improved.
  • step S107 the yaw rate calculation process (step S107) will be described with reference to the flowchart of FIG. This flowchart is mainly executed by the calculation unit 15d.
  • step S201 the recognition unit 15b performs a white line detection process of detecting a portion with high reflection intensity as a white line based on the information acquired by the acquisition unit 15a from the lidar 21, and in step S202, the evaluation unit 15e
  • the evaluation indexes b and c are calculated by the equations (1) and (2) described above. That is, the acquisition unit 15a functions as a first acquisition unit.
  • step S203 the evaluation unit 15e determines whether both of the evaluation indexes b and c are larger than a predetermined value. If one of the evaluation indexes b and c is smaller than the predetermined value (in the case of No), the process returns to the step S201, and if both the evaluation indexes b and c are larger than the predetermined value (in the case of Yes) Then, the equation of the white line center line L is determined using the least squares method from the center point of each scan line.
  • steps S201 to S203 perform the same operation as steps S102 to S104, steps S102 to S104 determine whether the white line read in step S101 is a white line suitable for calculating the yaw rate.
  • the steering angle changes to calculate .DELTA..theta.
  • step S205 the calculation unit 15d obtains an angle difference ⁇ between the direction of the vehicle (vehicle C) and the white line center line L, and in step S206, the calculation unit 15d calculates the previous time according to equation (3).
  • the difference with ⁇ is taken to determine the yaw angle change ⁇ .
  • step S207 the calculation unit 15d obtains the time difference ⁇ t (k) from the previous scan time by equation (4), and in step S208, the calculation unit 15d calculates the yaw rate ⁇ _dot (k) by equation (5). calculate.
  • the control unit 15 detects the detection result of the rider 21L for detecting the white line D1, which is a feature having continuity along the traveling path around the vehicle C, by the acquiring unit 15a at predetermined time intervals.
  • the recognition unit 15 b recognizes the white line center line L from the detection result based on a predetermined rule, and the calculation unit 15 d specifies the direction of the white line center line L. Then, the calculation unit 15 d calculates the moving direction of the vehicle C with respect to the white line center line L at the first time (t (k)) and the direction of the white line center line L, and the white line center line L at the second time (t (k + 1)).
  • the yaw rate of the vehicle C is calculated based on the moving direction of the vehicle C and the direction of the white line center line L with respect to. By doing this, it is possible to calculate the yaw rate based on the direction of the white line center line L of the white line D1 at two times and the moving direction of the vehicle C.
  • the feature is a white line which is a boundary that divides the lane in which the vehicle C travels, and the calculation unit 15 d calculates the yaw rate when the steering angle of the vehicle C changes.
  • the yaw rate based on the demarcation line that divides the lanes such as the white line on the road. Since many boundaries such as white lines exist on the road and are less likely to be blocked by other vehicles and the like, it is possible to increase the yaw rate calculation frequency.
  • the evaluation unit 15e calculates evaluation indices b and c of the white line center line L, and the calculation unit 15d calculates the yaw rate when the evaluation indices b and c are equal to or greater than a predetermined value. By doing this, it is possible to calculate the yaw rate only when the values (detection accuracy) of the evaluation indexes b and c of the white line center line L are high. Therefore, the calculation accuracy of the yaw rate can be improved.
  • the evaluation unit 15e performs evaluation based on the number of lines in which the white line D1 is detected in the window moving together with the vehicle C and the difference between the width of each line and the original line width. By doing this, it can be evaluated that the required detection accuracy can not be obtained, for example, when the number of lines is insufficient. Alternatively, when the error between the width of each line and the original line width is large, it can be evaluated that the required detection accuracy can not be obtained.
  • the acquiring unit 15a acquires the yaw rate output from the gyro sensor 24, and the calculating unit 15d corrects the yaw rate output from the gyro sensor 24 based on the yaw rate calculated by itself. By doing this, it becomes possible to correct the yaw rate detected by the gyro sensor 24 by the yaw rate calculated by the calculation unit 15 d. Therefore, the accuracy of the detection value (yaw rate) of the gyro sensor 24 can be improved.
  • FIGS. 8 to 10 a detection apparatus and an information processing apparatus according to a second embodiment of the present invention will be described with reference to FIGS. 8 to 10.
  • the same parts as those of the first embodiment described above are designated by the same reference numerals and the description thereof will be omitted.
  • the present embodiment is the same as the configuration in FIG. 1 except that the white line D1 may not be a straight line.
  • a method of calculating the yaw rate of the vehicle C in the present embodiment will be described with reference to FIG.
  • the road is not straight but curved by a curve or the like. In this case, as the vehicle C tries to turn along the road, the steering wheel is steered and the yaw angle changes.
  • the direction ⁇ of the white line is stored in advance in the map DB 10, and when the yaw rate is calculated, the direction ⁇ ⁇ of the white line in the detection portion is acquired from the map DB 10 and set in the setting unit 15c.
  • the direction ⁇ of the white line is information indicating the direction of the white line D1 with respect to, for example, a predetermined direction on the map, and is added to the information of the white line D1 in the map DB 10 at predetermined intervals of the white line D1.
  • the direction ⁇ of the white line is not limited to a predetermined interval, and may be added when there is a change in the direction (when there is a change of a predetermined amount or more), or a value indicating the direction as information indicating the direction ⁇ of the white line Instead of etc., a curve or the like may be added. Alternatively, the coordinates of the point sequence may be added at predetermined intervals along the center of the white line. In this case, it is possible to read the white line information corresponding to the window portion, connect the points, obtain the equation of the curve, and calculate the direction.
  • an angle difference ⁇ between the white line center line L and the direction in which the vehicle C is directed is determined at time t (k ⁇ 1), time t (k) and time t (k + 1). Then, the yaw angle change ⁇ is obtained from the difference between ⁇ of the previous time and the direction ⁇ of the white line at the previous time (change in the direction of the white line reference line L) (see equation (8)) .
  • the yaw rate change ⁇ obtained by the equation (8) is divided by the time difference ⁇ t obtained by the equation (9) to calculate the yaw rate ⁇ _dot (see the equation (10)).
  • step S301 it is determined whether the traveling road is curved. Although it can be judged from map information whether it curves or not, it may be judged by the steering angle of vehicles C or the like. If the vehicle is not curved (in the case of No), the process waits in this step, and if it is curved (in the case of Yes), the acquisition unit 15a reads white line information near the vehicle position from the map DB 10 in step S302.
  • the white line information includes information on the width of the white line used to obtain the evaluation index of the white line center line L described above.
  • step S303 the recognition unit 15b performs white line detection processing in which a portion with high reflection intensity is detected by the lidar 21 as a white line
  • step S304 the evaluation unit 15e has been described in the first embodiment.
  • the evaluation indexes b and c are calculated by the equation and the equation (2).
  • step S305 the evaluation unit 15e determines whether both of the evaluation indexes b and c are larger than a predetermined value. If one of the evaluation indices b and c is smaller than the predetermined value (No), the process returns to step S302. If both evaluation indices b and c are larger than the predetermined value (Yes), the evaluation unit 15e is performed in step S306. However, it is determined that yaw rate calculation using a white line is possible.
  • step S307 the calculation unit 15d calculates the yaw rate by the equations (8) to (10) described above.
  • the yaw rate calculation process will be described with reference to the flowchart of FIG. 10 described later.
  • step S308 the calculation unit 15d calculates the sensitivity coefficient A and the offset coefficient B according to the equation (7) described in the first embodiment.
  • step S307 the yaw rate calculation process (step S307) will be described with reference to the flowchart of FIG. This flowchart is mainly executed by the calculation unit 15d.
  • step S401 the recognition unit 15b performs white line detection processing in which a portion with high reflection intensity is detected by the lidar 21 as a white line, and in step S402, the evaluation unit 15e explained in the first embodiment (1
  • the evaluation indexes b and c are calculated by the equation (2) and the equation (2).
  • step S403 the evaluation unit 15e determines whether both of the evaluation indexes b and c are larger than a predetermined value. If one of the evaluation indexes b and c is smaller than the predetermined value (in the case of No), the process returns to the step S401, and if both the evaluation indexes b and c are larger than the predetermined value (in the case of Yes) Then, the equation of the white line center line L is determined using the least squares method from the center point of each scan line. Steps S401 to S403 perform the same operations as steps S303 to S305, but steps S303 to S305 determine whether the white line read in step S302 is a white line suitable for calculating the yaw rate.
  • steps S401 to S403 the steering angle is changed to calculate .DELTA..theta.
  • step S405 the calculation unit 15d determines an angle difference ⁇ between the direction of the vehicle (vehicle C) and the white line center line L, and in step S406, the acquisition unit 15a refers to the map DB 10 to detect a portion Read (acquire) the direction ⁇ of the white line of.
  • step S407 the calculation unit 15d obtains the difference between the difference between ⁇ of the previous time and ⁇ of the previous time according to equation (8) to obtain the yaw angle change ⁇
  • step S408 the calculation unit 15d
  • the time difference ⁇ t (k) from the previous scan time is obtained by the equation (9).
  • step S409 the calculation unit 15d calculates the yaw rate ⁇ _dot (k) according to equation (10).
  • step S301 it is determined in step S301 whether or not the traveling road is curved.
  • the traveling road may not be curved.
  • the fact that the traveling path is not curved means that ⁇ (k) ⁇ (k ⁇ 1) in equation (8) becomes zero. This indicates that the formula is the same as the formula (3) of the first embodiment, and it can be said that the first embodiment is substantially included in the present embodiment. Therefore, step S301 can be omitted.
  • the control unit 15 detects the detection result of the rider 21L for detecting the white line D1, which is a feature having continuity along the traveling path around the vehicle C, by the acquiring unit 15a at predetermined time intervals.
  • the recognition unit 15 b recognizes the white line center line L from the detection result based on a predetermined rule, and the calculation unit 15 d acquires the direction ⁇ of the white line from the map DB 10.
  • the calculating unit 15d then calculates the moving direction of the vehicle C with respect to the white line center line L at the first time (t (k)) and the direction ⁇ of the white line, and the vehicle with respect to the white line center line L at the second time (t (k + 1)).
  • the yaw rate of the vehicle C is calculated based on the movement direction of C and the direction ⁇ of the white line. By doing this, the yaw rate can be calculated based on the direction of the white line center line L of the white line D1 and the moving direction of the vehicle C even if the traveling road is curved.
  • the yaw rate can be calculated based on the respective features and the accuracy can be improved by the averaging process.
  • weighted averaging may be mentioned. By doing this, averaging according to each precision is performed, and it becomes possible to further improve the yaw rate.
  • the present invention is not limited to the above embodiment. That is, those skilled in the art can carry out various modifications without departing from the gist of the present invention in accordance with conventionally known findings. As long as the configuration of the information processing apparatus of the present invention is provided even by such a modification, it is of course included in the scope of the present invention.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

ヨーレートの算出頻度の向上させることができる情報処理装置を提供する。制御部(15)は、取得部(15a)が、車両Cの周辺の走行路上に沿った連続性を有する地物である白線D1を検出するライダ(21L)の検出結果を、所定時間間隔で連続的に取得し、認識部(15b)が、検出結果から所定の規則に基づいて白線中心線Lを認識し、算出部(15d)が、白線の向きΦを地図DB(10)から取得する。そして、算出部(15d)が、第1時刻(t(k))における白線中心線Lに対する車両Cの移動方向及び白線の向きΦと、第2時刻(t(k+1))における白線中心線Lに対する車両Cの移動方向及び白線の向きΦとに基づいて車両Cのヨーレートを算出する。

Description

情報処理装置
 本発明は、移動体の周辺の地物を検出する検出部の検出結果に基づいて所定の処理を行う情報処理装置に関する。
 例えば、近年開発が進められている自動走行システムは、車両周辺に存在する物体の認識による状況把握を行い、最適な目標軌道を生成し、その目標軌道に沿って走行するように車両の制御を行う。この時、もし車両の自己位置推定精度が悪いと、実走行軌道が目標軌道から逸脱する可能性が生じ自動走行の安全性を低下させてしまう。自動走行の安全性を確保するためには、精度の良い自己位置推定は重要な要素のひとつである。
 従来のカーナビゲーションシステムにおける自己位置推定はGNSS(Global Navigation Satellite System)を用いることが多い。そのため、トンネル内などの受信不能な場所やビルの谷間などのマルチパスが多発する環境下では精度が悪化するという問題があった。
 そこで、車両の走行状態(例えば車両速度及びヨーレート)に基づいて車両位置を推定するいわゆるデッドレコニング技術が知られている。そして、デッドレコニングによる車両位置の推定精度を向上させるためには、上記した車両速度等の車両の走行状態を精度良く取得する必要がある。
 ヨーレートを精度良く取得する技術としては、例えば特許文献1が挙げられる。特許文献1は、前方物体検知センサ31により検知された固定物Fの横移動量LMを用いることにより、ヨーレートを正確に推定することが記載されている。ここで、本明細書におけるヨーレートとは、単位時間当たりのヨー角の変化量を示すものとする。
特開2012‐66777号公報
 特許文献1の発明により、ヨーレートの正確な推定値を用いてジャイロセンサを補正することができるが、特許文献1に記載の発明においては、固定物Fとしては、例えば電柱やガードレールである。電柱はその設置間隔が広かったりすると、ヨーレートを推定する機会が少なくなるか算出できない場合がある。また、ガードレールは、例えば複数車線の道路を走行しているときに、隣の車線を走行する車両や対向車等に遮られてヨーレートの推定ができなくなる場合がある。したがって、特許文献1が前提としている方法では、ヨーレートの算出機会が限られる場合があった。
 本発明が解決しようとする課題としては、上述したようなヨーレートの算出頻度を高めることが一例として挙げられる。
 上記課題を解決するためになされた請求項1に記載の発明は、移動体の周辺の、走行路上に沿った連続性を有する地物を検出する検出部の検出結果を、所定時間間隔で連続的に取得する第1取得部と、前記検出結果から所定の規則に基づき前記地物の基準線を認識する認識部と、前記基準線の向きを設定する設定部と、第1時刻における前記基準線に対する前記移動体の移動方向及び前記基準線の向きと、第2時刻における前記基準線に対する前記移動体の移動方向及び前記基準線の向きに基づき前記移動体のヨー角変化量を算出する算出部と、を備えることを特徴としている。
 また、請求項7に記載の発明は、移動体の周辺の、走行路上に沿った連続性を有する地物を検出する検出部と、前記検出部の検出結果を、所定時間間隔で連続的に取得する第1取得部と、前記検出結果から所定の規則に基づき前記地物の基準線を認識する認識部と、前記基準線の向きを設定する設定部と、第1時刻における前記基準線に対する前記移動体の移動方向及び前記基準線の向きと、第2時刻における前記基準線に対する前記移動体の移動方向及び前記基準線の向きに基づき前記移動体のヨー角変化量を算出する算出部と、を備えることを特徴としている。
 また、請求項8に記載の発明は、移動体の周辺の、地物を検出する検出部の検出結果に基づいて所定の処理を行う情報処理装置で実行される情報処理方法であって、前記移動体の周辺の走行路上に沿った連続性を有する地物を検出する検出部の検出結果を、所定時間間隔で連続的に取得する取得工程と、前記検出結果から所定の規則に基づき前記地物の基準線を認識する認識工程と、前記基準線の向きを設定する設定工程と、第1時刻における前記基準線に対する前記移動体の移動方向及び前記基準線の向きと、第2時刻における前記基準線に対する前記移動体の移動方向及び前記基準線の向きに基づき前記移動体のヨー角変化量を算出する算出工程と、を含むことを特徴としている。
 また、請求項9に記載の発明は、請求項8に記載の情報処理方法を、コンピュータにより実行させることを特徴としている。
本発明の第1の実施例にかかる情報処理装置を有する検出装置の構成である。 図1に示された検出装置の白線の検出について説明図である。 図1に示された制御部における白線の中心線算出についての説明図である。 図1に示された制御部におけるヨーレート算出方法についての説明図である。 図1に示されたジャイロセンサにおける検出ヨーレートと真のヨーレートとの関係を示したグラフである。 図1に示された制御部のジャイロセンサの補正処理のフローチャートである。 図6に示されたヨーレート算出処理のフローチャートである。 本発明の第2の実施例にかかる制御部におけるヨーレート算出方法についての説明図である。 本発明の第2の実施例にかかる制御部ジャイロセンサの補正処理のフローチャートである。 図9に示されたヨーレート算出処理のフローチャートである。
 以下、本発明の一実施形態にかかる情報処理装置を説明する。本発明の一実施形態にかかる情報処理装置は、第1取得部が、移動体の周辺の、走行路上に沿った連続性を有する地物を検出する検出部の検出結果を、所定時間間隔で連続的に取得し、認識部が、検出結果から所定の規則に基づき地物の基準線を認識し、設定部が、基準線の向きを設定する。そして、算出部が、第1時刻における基準線に対する移動体の移動方向及び基準線の向きと、第2時刻における基準線に対する移動体の移動方向及び基準線の向きに基づき移動体のヨー角変化量を算出する。このようにすることにより、2つの時刻の地物の基準線の向きと移動体の移動方向に基づいてヨーレートを算出することができる。そして、地物には走行路上に沿った連続性を有する地物であれば、特許文献1に記載されている固定物でなくてもよいので、ヨーレートの算出頻度を高めることができる。
 また、基準線の検出精度を評価する評価部を更に有し、算出部は、検出精度の評価結果が所定以上であった場合にヨー角変化量を算出してもよい。このようにすることにより、基準線の検出精度が高い場合にのみヨーレートを算出することができる。そのため、ヨーレートの算出精度を高めることができる。
 また、評価部は、移動体とともに移動する所定検出領域内における地物の検出結果に含まれる当該地物検出のサンプル数及び各サンプルが示す値と所定の基準値との誤差のうち少なくともいずれかに基づいて評価してもよい。このようにすることにより、例えばサンプル数が十分にない場合は必要とする検出精度が得られないと評価することができる。あるいは、基準値と誤差が大きい場合は必要とする検出精度が得られないと評価することができる。
 また、地物は、前記移動体が走行する車線を区切る境界線であって、算出部は、移動体がヨー角度が生じる動作を行った場合のヨー角変化量を算出してもよい。このようにすることにより、道路上の白線等の車線を区切る境界線に基づいてヨーレートを算出することができる。白線等の境界線は、道路上に多く存在し、また、他の車両等に遮られることも少ないため、ヨーレートの算出頻度を高めることができる。
 また、ジャイロセンサから出力された情報を取得する第2取得部と、算出部で算出されたヨー角変化量に基づいてジャイロセンサから出力された情報を補正する補正部と、を更に備えてもよい。このようにすることにより、ジャイロセンサの検出値を算出部の算出値により補正することが可能となる。したがって、ジャイロセンサの検出値の精度を高めることができる。
 また、基準線は、地物の中心線であってもよい。このようにすることにより、地物の基準線を精度良く検出することができる。
 また、本発明の一実施形態にかかる検出装置は、移動体の周辺の地物を検出する検出部を備えている。そして、第1取得部が、移動体の周辺の走行路上に沿った連続性を有する地物を検出する検出部の検出結果を、所定時間間隔で連続的に取得し、認識部が、検出結果から所定の規則に基づき地物の基準線を認識し、設定部が、基準線の向きを設定する。そして、算出部が、第1時刻における基準線に対する移動体の移動方向及び基準線の向きと、第2時刻における基準線に対する移動体の移動方向及び基準線の向きに基づき移動体のヨー角変化量を算出する。このようにすることにより、2つの時刻の地物の基準線の向きと移動体の移動方向に基づいてヨーレートを算出することができる。そして、地物には走行路上に沿った連続性を有する地物であれば、特許文献1に記載されている固定物でなくてもよいので、ヨーレートの算出頻度を高めることができる。
 また、本発明の一実施形態にかかる情報処理方法は、第1取得工程で、移動体の周辺の走行路上に沿った連続性を有する地物を検出する検出部の検出結果を、所定時間間隔で連続的に取得し、認識工程で、検出結果から所定の規則に基づき地物の基準線を認識し、設定工程で、基準線の向きを設定する。そして、算出工程で、第1時刻における基準線に対する移動体の移動方向及び基準線の向きと、第2時刻における基準線に対する移動体の移動方向及び基準線の向きに基づき移動体のヨー角変化量を算出する。このようにすることにより、2つの時刻の地物の基準線の向きと移動体の移動方向に基づいてヨー角変化量(ヨーレート)を算出することができる。そして、地物には走行路上に沿った連続性を有する地物であれば、特許文献1に記載されている固定物でなくてもよいので、ヨーレートの算出頻度を高めることができる。
 また、上述した情報処理方法をコンピュータにより実行させる情報処理プログラムとしてもよい。このようにすることにより、コンピュータを用いて、地物の基準線の向きと移動体の移動方向に基づいてヨーレートを算出することができる。そして、地物には走行路上に沿った連続性を有する地物であれば、特許文献1に記載されている固定物でなくてもよいので、ヨーレートの算出頻度を高めることができる。
 本発明の第1の実施例にかかる情報処理装置を図1~図7を参照して説明する。本実施例にかかる情報処理装置は検出装置1に含まれ、移動体としての車両と共に移動する。
 本実施形態にかかる検出装置1の概略ブロック構成を図1に示す。検出装置1は、センサ群11と、記憶部12と、制御部15と、出力部16と、を備えている。
 センサ群11は、ライダ21と、車速センサ22と、加速度センサ23と、ジャイロセンサ24と、傾斜センサ25と、温度センサ26と、GPS受信機27と、を備えている。
 検出部としてのライダ21は、パルス状にレーザ光を出射することで、外界に存在する物体までの距離を離散的に測定する。ライダ21は、レーザ光が反射された物体までの距離と、当該レーザ光の出射角度との組により示された計測点の点群を出力する。本実施例では、ライダ21は、車両の周辺に存在する地物の検出に用いられる。地物とは、地上に存在する天然または人工のあらゆる物体を含む概念である。地物の例としては、車両の経路(即ち道路)上に位置する経路上地物と、道路の周辺に位置する周辺地物と、が含まれる。経路上地物の例としては、道路標識や信号機、ガードレール、歩道橋等が挙げられ、道路そのものも含まれる。即ち、路面に描写された文字や図形、及び、道路の形状(道幅や曲率)も経路上地物に含まれる。また、周辺地物の例としては、道路に沿って位置する建築物(住宅、店舗)や看板等が挙げられる。
 車速センサ22は、車両の車輪の回転に伴って発生されているパルス信号からなるパルス(「車軸回転パルス」とも呼ぶ。)を計測し、車速を検出する。加速度センサ23は、車両の進行方向における加速度を検出する。ジャイロセンサ24は、車両の方向変換時における車両のヨーレートを検出する。傾斜センサ25は、車両の水平面に対するピッチ方向での傾斜角(「勾配角」とも呼ぶ。)を検出する。温度センサ26は、ジャイロセンサ24の周辺での温度を検出する。GPS(Global Positioning System)受信機27は、複数のGPS衛星から、測位用データを含む電波を受信することで、車両の絶対的な位置を検出する。センサ群11の各センサの出力は、制御部15に供給される。
 記憶部12は、制御部15が実行する情報処理プログラムや、制御部15が所定の処理を実行するのに必要な情報等を記憶する。本実施例では、記憶部12は、道路データ及び地物の情報を含む地図データベース(DB)10を記憶する。なお、地図DB10は、定期的に更新されてもよい。この場合、例えば、制御部15は、図示しない通信部を介し、地図情報を管理する外部のサーバ装置から、自車位置が属するエリアに関する部分地図情報を受信し、地図DB10に反映させる。なお、記憶部12が地図DB10を記憶する代わりに、検出装置1と通信可能なサーバ装置が地図DB10を記憶してもよい。この場合、制御部15は、外部のサーバ装置と通信を行うことにより、地図DB10から必要な地物の情報等を取得する。
 出力部16は、例えば、制御部15で算出されたヨーレート等の情報を、自動運転の制御装置や、メータ等の他の車載機器に出力する。
 制御部15は、プログラムを実行するCPU(Central Processing Unit)などを含み、検出装置1の全体を制御する。制御部15は、取得部15aと、認識部15bと、設定部15cと、算出部15dと、評価部15eと、を備えている。本実施例では、制御部15は、ライダ21で検出された地物に基づいて車両のヨーレートを算出する。
 取得部15aは、ライダ21が検出した地物の検出結果のうち、後述するウィンドウにおける検出結果を所定時間間隔で連続的に取得する。
 認識部15bは、検出結果から後述する所定の規則に基づいて地物の基準線を認識する。基準線については後述する。
 設定部15cは、基準線の向きが内部に設定される。
 算出部15dは、車両走行中の特定の時刻である第1時刻における基準線に対する車両の移動方向及び基準線の向きと、第1時刻と異なる時刻である第2時刻における基準線に対する車両の移動方向及び基準線の向きに基づいて車両のヨーレートを算出する。
 評価部15eは、後述する白線中心線(基準線)の検出精度を評価する。
 そして、上述した構成の検出装置1のうち制御部15が本実施例にかかる情報処理装置として機能する。
 次に、上述した構成の検出装置1の制御部15(情報処理装置)におけるヨーレート検出の方法について説明する。以下の説明では地物として車線を区切る境界線(いわゆる白線)を利用して行う。白線は再帰性反射材が塗布されているため、反射強度が高くライダ21による検出が容易である。なお、本実施例では地物として白線で説明するが、白線以外の車線境界線やガードレール等の走行路上に沿った連続性を有する地物であれば特に限定されない。
 本実施例における白線の検出について説明する。図2において車両Cは、図中左から右へ向かって走行しているとする。そして、車両Cの前方部左側にはライダ21Lが設置され、同様に車両Cの前方部右側にはライダ21Rが設置されている。
 そして、ライダ21L、21Rの検出範囲をAとすると、その検出範囲Aに矩形状の領域であるウィンドウWが設定される。このウィンドウWは、検出範囲Aの中で白線D1及び白線D2が検出し易い位置に設定される。このウィンドウWが本実施例における移動体とともに移動する検出領域となる。なお、本実施例では、車両Cの前方に設置したライダ21により説明するが、車両Cの後方に設置したライダであってもよい。さらに、ライダ21L、21Rのいずれかのみであってもよい。
 次に、ライダ21のスキャン間隔について説明する。本実施例におけるライダ21は、水平方向の一方から他方に沿って順次パルス光を発光することにより物体をスキャンする。そのため、図2の上段や図3に示したように、上から見るとスキャン軌跡がライン状になる。したがって、取得部15aは、このスキャンされたラインの間隔でライダ21から情報を取得する。即ち、取得部15aは、地物の検出結果を、所定の時間間隔で連続的に取得している。
 また、一般的なライダとして、水平方向にスキャンするビームを垂直方向に上下動させて複数のラインを得るものや、水平方向にスキャンする光学系を垂直方向に複数個並べて複数のラインを得るものがある。このようなタイプのライダのスキャン間隔は、車両Cからみて離れるにしたがって広がることが知られている(図3も参照)。これは、ライダ21と地物(路面)との角度が車両Cからみて離れるにしたがって浅くなるためである。
 次に、白線の基準線としての中心線の算出方法(認識方法)と、中心線の検出精度の算出方法について図3を参照して説明する。この基準線は、ウィンドウW内における白線(地物)の向きを規定し、後述する車両Cのヨーレートの算出の際に車両Cの移動方向と比較するために用いられるものである。
 白線D1は、ウィンドウW内の反射強度の高い部分(高反射強度)を検出することで認識することができる。例えば所定閾値以上の反射強度がある部分を白線と見做せばよい。このとき各スキャンのラインにおける高反射強度部分の中心点を求め、各中心点を通る直線の式を例えば最小二乗法で求め、求められた式で表される直線を白線中心線とする。例えば図3の上段の場合は、中心点c1~c10を通る式を最小二乗法で求めたものが白線中心線Lとなる。なお、本実施例では、白線の中心線を算出しているが中心線に限らない。例えば、白線の端部、即ちスキャンのライン状で白線が検出された最も端の点に基づいて最小二乗法で線を求めてもよい。即ち、本実施例においては、最小二乗法を所定の規則として基準線(白線中心線)を認識している。そして、算出された白線中心線で表される向きが設定部15cに設定される。
 次に、白線中心線Lの検出精度の算出方法について説明する。白線中心線Lは、車両Cのヨーレート算出に用いられるため、白線中心線Lの精度が低いとヨーレートの精度にも影響を及ぼすことがある。そこで、以下のような評価指標により白線中心線Lの検出精度を算出する。
 評価指標の1つ目は、ウィンドウWの範囲で所定以上のスキャンのライン数が検出できているかである。例えば図3中段に示すように、白線D1の端部等の一部しか検出できない場合は、中心点の数(サンプル数)が少ないため最小二乗法で求めた白線中心線Lの精度が高くない場合がある。この場合の評価指標bは、ライダ21Lまたはライダ21Rで計測したライン数をN、期待されるライン数をNとすると次の(1)式により表される。
Figure JPOXMLDOC01-appb-M000001
 評価指標の2つ目は、高反射強度部分のラインの幅が対象とする白線幅にほぼ等しいかである。例えば図3下段に示すように、白線D1の塗装が劣化している場合は、白線D1の幅が変化するため白線の中心点の位置(サンプルが示す値)が本来の中心位置(基準値)からずれることが多い(誤差が大きい)ため最小二乗法で求めた白線中心線Lの精度が高くない場合がある。この場合の評価指標cは、ライダ21Lまたはライダ21Rで計測したライン幅をW、本来のライン幅をWとすると次の(2)式により表される。なお、本来のライン幅は、例えば地図DB10に含めればよい。
Figure JPOXMLDOC01-appb-M000002
 そして、上述した2つの評価指標b、cに基づいてヨーレートの算出の可否を決定する。詳細は後述するフローチャートで説明する。
 次に、車両Cのヨーレート算出方法について図4を参照して説明する。本実施例では、白線D1が直線であって、車両Cが車線変更や右左折等により白線D1との角度が変化する場合である。まず、上述した方法で白線中心線Lを求め、この白線中心線Lを示す式から向きを特定する。そして、その白線中心線Lと車両Cが向いている方向との角度差(ヨー角度変化)ΔΨを求める。
 図4の場合、時刻t(k-1)、時刻t(k)、時刻t(k+1)と、時刻t毎に白線中心線Lと車両Cの向いている方向(移動方向)の角度差Δθを求める。そして、前の時刻のΔθとの差分を取り、ヨー角度変化ΔΨを求める((3)式を参照)。なお、本実施例の場合、白線D1は直線を前提としているので白線中心線Lの向きは同じであり変化が無いため、(3)式でヨー角度変化ΔΨが求まることとなる。
Figure JPOXMLDOC01-appb-M000003
 次に、Δθを求めた2つの時刻の時間差Δtを求める((4)式を参照)。
Figure JPOXMLDOC01-appb-M000004
 そして、(3)式で求めたヨー角度変化ΔΨを(4)式で求めた時間差Δtで除算してヨーレートΨ_dotを算出する((5)式を参照)。
Figure JPOXMLDOC01-appb-M000005
 即ち、時刻t(k-1)(第1時刻)における白線中心線L(基準線)に対する車両C(移動体)の移動方向と、時刻t(k)(第2時刻)における白線中心線L(基準線)に対する車両C(移動体)の移動方向の変化分に基づいて車両C(移動体)のヨーレート(単位時間当たりのヨー角の変化量)を算出する。
 なお、図4では、白線D1から車両Cが徐々に離れていくが、この場合、自車位置からウィンドウWの位置を調整し、反射強度が大きい部分がウィンドウWに含まれるようにする。この調整は、例えば車両Cの操舵角やジャイロセンサ24が検出した値に基づいて行うことができる。
 次に、上述したようにして求めたヨーレートを用いてジャイロセンサ24で検出される値(ヨーレート)を補正する方法について説明する。
 ジャイロセンサ24で検出されるヨーレートは、感度とオフセットを持つことが知られている(図5を参照)。したがって、真のヨーレートΨ_dotは、ジャイロセンサ24で検出されたヨーレートをω[t]、感度係数をA、オフセット係数をBとすると、以下の(6)式で表される。
Figure JPOXMLDOC01-appb-M000006
 (5)式で算出されたヨーレートは、真のヨーレートと見做せるので、y[t]=Ψ_dot[t]、x[t]=ω[t]とすると、(6)式は(7)式で示した1次式で表すことができる。
Figure JPOXMLDOC01-appb-M000007
 したがって、x[t]とy[t]の複数データがあれば、逐次最小二乗法等により感度係数A、オフセット係数Bを求めることができる。よって、求めた感度係数A、オフセット係数Bを用いてジャイロセンサ24で検出されたヨーレートを補正することができる。
 上述したジャイロセンサ24の補正処理を図6のフローチャートを参照して説明する。このフローチャートは制御部15で実行される。まず、ステップS101において、取得部15aが、地図DB10から自車位置近辺の白線情報を読み取る。この白線情報には、上述した白線中心線Lの評価指標を求めるために用いる白線の幅の情報が含まれる。そして、ステップS101においては、読み取った白線情報の示す白線や認識部15bが認識した白線が直線の続く区間であるか判断する。直線の続く区間でない場合は以下のステップを実行しない。直線の続く区間であるかは、白線情報に直線区間を示す情報を含ませるようにすればよい。
 次に、ステップS102において、認識部15bが、ライダ21により反射強度が高い部分を白線として検出する白線検出処理を行って、ステップS103において、評価部15eが、上述した(1)式及び(2)式により評価指標b、cを算出する。なお、本フローチャートでは評価指標b、cの両方を算出して評価するが、いずれか一方のみであってもよい。
 次に、ステップS104において、評価部15eが、評価指標b、cが共に所定値よりも大きいか否か判断する。評価指標b、cのいずれかが所定値より小さい場合(Noの場合)はステップS101に戻り、評価指標b、cが共に所定値より大きい場合(Yesの場合)はステップS105において、評価部15eが、白線を利用したヨーレート算出が可能と判断する。
 次に、ステップS106において、算出部15dが、車両Cの操舵角が変化したか否かを判断する。操舵角が変化しない場合はステップS101に戻り、操舵角が変化した場合はステップS107において、算出部15dが、上述した(3)式~(5)式によりヨーレートを算出する。ヨーレート算出処理については後述する図7のフローチャートで説明する。そして、ステップS108において、上述した(7)式によりジャイロセンサ24の感度とオフセットの算出(補正)をする。なお、ステップS106では、車線変更したか否かで判断してもよい。
 したがって、図6のフローチャートを繰り返すことで、感度係数A、オフセット係数Bが適宜補正されて、ジャイロセンサ24で検出されるヨーレートの精度を向上させることができる。
 次に、ヨーレート算出処理(ステップS107)について図7のフローチャートを参照して説明する。このフローチャートは主に算出部15dで実行される。
 まず、ステップS201において、認識部15bが、ライダ21から取得部15aが取得した情報に基づいて反射強度が高い部分を白線として検出する白線検出処理を行って、ステップS202において、評価部15eが、上述した(1)式及び(2)式により評価指標b、cを算出する。即ち、取得部15aが第1取得部として機能する。
 次に、ステップS203において、評価部15eが、評価指標b、cが共に所定値よりも大きいか否か判断する。評価指標b、cのいずれかが所定値より小さい場合(Noの場合)はステップS201に戻り、評価指標b、cが共に所定値より大きい場合(Yesの場合)はステップS204において、上述したように、各スキャンのラインの中心点から最小二乗法を用いて白線中心線Lの式を求める。なお、ステップS201~S203は、ステップS102~S104と同じ動作を行っているが、ステップS102~S104は、ステップS101で読み出した白線がヨーレートの算出に適した白線が否かを判断しているのに対して、ステップS201~S203は、操舵角が変化してΔθを算出するそれぞれの時刻(図4のt(k-1)、t(k)、t(k+1))における白線の利用の適否を判断している。即ち、評価部15eによって検出精度が所定以上であった場合はヨーレートを算出する。
 次に、ステップS205において、算出部15dが、自車(車両C)の向きと白線中心線Lとの角度差Δθを求め、ステップS206において、算出部15dが、(3)式により前時刻のΔθとの差分を取り、ヨー角度変化ΔΨを求める。
 次に、ステップS207において、算出部15dが、(4)式により前回スキャン時刻からの時間差Δt(k)を求め、ステップS208において、算出部15dが、(5)式によりヨーレートΨ_dot(k)を算出する。
 本実施例によれば、制御部15は、取得部15aが、車両Cの周辺の走行路上に沿った連続性を有する地物である白線D1を検出するライダ21Lの検出結果を、所定時間間隔で連続的に取得し、認識部15bが、検出結果から所定の規則に基づいて白線中心線Lを認識し、算出部15dが、白線中心線Lの向きを特定する。そして、算出部15dが、第1時刻(t(k))における白線中心線Lに対する車両Cの移動方向及び白線中心線Lの向きと、第2時刻(t(k+1))における白線中心線Lに対する車両Cの移動方向及び白線中心線Lの向きに基づいて車両Cのヨーレートを算出する。このようにすることにより、2つの時刻の白線D1の白線中心線Lの向きと車両Cの移動方向に基づいてヨーレートを算出することができる。
 また、地物は、車両Cが走行する車線を区切る境界線である白線であって、算出部15dは、車両Cの操舵角が変化した場合のヨーレートを算出している。このようにすることにより、道路上の白線等の車線を区切る境界線に基づいてヨーレートを算出することができる。白線等の境界線は、道路上に多く存在し、また、他の車両等に遮られることも少ないため、ヨーレートの算出頻度を高めることができる。
 また、白線中心線Lの評価指標b、cを算出する評価部15eを有し、算出部15dは、評価指標b、cが所定以上であった場合はヨーレートを算出している。このようにすることにより、白線中心線Lの評価指標b、cの値(検出精度)が高い場合にのみヨーレートを算出することができる。そのため、ヨーレートの算出精度を向上させることができる。
 また、評価部15eは、車両Cとともに移動するウィンドウ内における白線D1を検出したライン数及び各ラインの幅と本来のラインの幅との誤差に基づいて評価している。このようにすることにより、例えばライン数が十分にない場合は必要とする検出精度が得られないと評価することができる。あるいは、各ラインの幅と本来のラインの幅との誤差が大きい場合は必要とする検出精度が得られないと評価することができる。
 また、取得部15aがジャイロセンサ24から出力されたヨーレートを取得し、算出部15dは、自身で算出されたヨーレートに基づいてジャイロセンサ24から出力されたヨーレートを補正している。このようにすることにより、ジャイロセンサ24が検出したヨーレートを算出部15dで算出されたヨーレートにより補正することが可能となる。したがって、ジャイロセンサ24の検出値(ヨーレート)の精度を向上させることができる。
 次に、本発明の第2の実施例にかかる検出装置及び情報処理装置を図8~図10を参照して説明する。なお、前述した第1の実施例と同一部分には、同一符号を付して説明を省略する。
 本実施例は、構成は図1と同様であるが、白線D1が直線でなくてもよい点が異なる。本実施例における車両Cのヨーレート算出方法について図8を参照して説明する。本実施例は、上述したように道路が直線でなくカーブ等により曲がっている状態である。この場合、車両Cは道路に沿って曲がろうとするため、ハンドルが操舵されヨー角が変化する。
 なお、本実施例では、白線の向きΦを地図DB10に予め格納し、ヨーレート算出時には検出部分の白線の向きΦを地図DB10から取得し設定部15cに設定される。この白線の向きΦとは、白線D1の例えば地図上の所定方向に対する向きを示す情報であり、白線D1の所定間隔毎に地図DB10における白線D1の情報に付加されている。白線の向きΦは、所定間隔に限らず、向きに変化がある場合(所定以上の変化がある場合)に付加するようにしてもよいし、白線の向きΦを示す情報として、向きを示す値等に代えて曲線等を表す式で付加するようにしてもよい。あるいは、白線の中心に沿って所定間隔で点列の座標を付加してもよい。この場合は、ウィンドウ部分に相当する白線情報を読み取り、各点をつないで曲線の式を求めて向きを算出することができる。
 図8の場合、時刻t(k-1)、時刻t(k)、時刻t(k+1)と、時刻t毎に白線中心線Lと車両Cの向いている方向の角度差Δθを求める。そして、前の時刻のΔθとの差分と、前の時刻の白線の向きΦとの差分(白線基準線Lの向きの変化分)から、ヨー角度変化ΔΨを求める((8)式を参照)。
Figure JPOXMLDOC01-appb-M000008
 次に、Δθを求めた2つの時刻の時間差Δtを求める((9)式を参照)。
Figure JPOXMLDOC01-appb-M000009
 そして、(8)式で求めたヨー角度変化ΔΨを(9)式で求めた時間差Δtで除算してヨーレートΨ_dotを算出する((10)式を参照)。
Figure JPOXMLDOC01-appb-M000010
 本実施例におけるジャイロセンサ24の補正処理を図9のフローチャートを参照して説明する。このフローチャートは制御部15で実行される。まず、ステップS301において、走行路がカーブしているか否かを判断する。カーブしているか否かは、地図情報から判断できるが、あるいは車両Cの操舵角等により判断してもよい。カーブしていない場合(Noの場合)は本ステップで待機し、カーブしている場合(Yesの場合)はステップS302において、取得部15aが、地図DB10から自車位置近辺の白線情報を読み取る。この白線情報には、上述した白線中心線Lの評価指標を求めるために用いる白線の幅の情報が含まれる。
 次に、ステップS303において、認識部15bが、ライダ21により反射強度が高い部分を白線として検出する白線検出処理を行って、ステップS304において、評価部15eが、第1の実施例で説明した(1)式及び(2)式により評価指標b、cを算出する。
 次に、ステップS305において、評価部15eが、評価指標b、cが共に所定値よりも大きいか否か判断する。評価指標b、cのいずれかが所定値より小さい場合(Noの場合)はステップS302に戻り、評価指標b、cが共に所定値より大きい場合(Yesの場合)はステップS306において、評価部15eが、白線を利用したヨーレート算出が可能と判断する。
 次に、ステップS307において、算出部15dが、上述した(8)式~(10)式によりヨーレートを算出する。ヨーレート算出処理については後述する図10のフローチャートで説明する。そして、ステップS308において、算出部15dが、第1の実施例で説明した(7)式により感度係数A、オフセット係数Bの算出をする。
 次に、ヨーレート算出処理(ステップS307)について図10のフローチャートを参照して説明する。このフローチャートは主に算出部15dで実行される。
 まず、ステップS401において、認識部15bが、ライダ21により反射強度が高い部分を白線として検出する白線検出処理を行って、ステップS402において、評価部15eが、第1の実施例で説明した(1)式及び(2)式により評価指標b、cを算出する。
 次に、ステップS403において、評価部15eが、評価指標b、cが共に所定値よりも大きいか否か判断する。評価指標b、cのいずれかが所定値より小さい場合(Noの場合)はステップS401に戻り、評価指標b、cが共に所定値より大きい場合(Yesの場合)はステップS404において、上述したように、各スキャンのラインの中心点から最小二乗法を用いて白線中心線Lの式を求める。なお、ステップS401~S403は、ステップS303~S305と同じ動作を行っているが、ステップS303~S305は、ステップS302で読み出した白線がヨーレートの算出に適した白線が否かを判断しているのに対して、ステップS401~S403は、操舵角が変化してΔθを算出するそれぞれの時刻(図8のt(k-1)、t(k)、t(k+1))における白線の利用の適否を判断している。
 次に、ステップS405において、算出部15dが、自車(車両C)の向きと白線中心線Lとの角度差Δθを求め、ステップS406において、取得部15aが、地図DB10を参照して検出部分の白線の向きΦを読み取る(取得する)。
 次に、ステップS407において、算出部15dが、(8)式により前時刻のΔθとの差分と、前時刻のΦとの差分を取り、ヨー角度変化ΔΨを求め、ステップS408において、算出部15dが、(9)式により前回スキャン時刻からの時間差Δt(k)を求める。そして、ステップS409において、算出部15dが、(10)式によりヨーレートΨ_dot(k)を算出する。
 なお、図9に示したフローチャートでは、ステップS301で走行路がカーブしているか否かを判断していたが、本実施例は走行路がカーブしていなくてもよい。走行路がカーブしていないということは、(8)式のΦ(k)-Φ(k-1)がゼロになることを意味する。これは、第1の実施例の(3)式と同じ式であることを示すものであり、実質的に本実施例で第1の実施例も包含しているといえる。したがって、ステップS301は省略することができる。
 本実施例によれば、制御部15は、取得部15aが、車両Cの周辺の走行路上に沿った連続性を有する地物である白線D1を検出するライダ21Lの検出結果を、所定時間間隔で連続的に取得し、認識部15bが、検出結果から所定の規則に基づいて白線中心線Lを認識し、算出部15dが、白線の向きΦを地図DB10から取得する。そして、算出部15dが、第1時刻(t(k))における白線中心線Lに対する車両Cの移動方向及び白線の向きΦと、第2時刻(t(k+1))における白線中心線Lに対する車両Cの移動方向及び白線の向きΦとに基づいて車両Cのヨーレートを算出する。このようにすることにより、走行路がカーブしていても白線D1の白線中心線Lの向きと車両Cの移動方向に基づいてヨーレートを算出することができる。
 なお、上述した実施例において、複数の白線等の地物が検出された場合は、それぞれの地物に基づいてヨーレートを算出して平均化処理によって精度を向上させることができる。この平均化処理としては重み付け平均を行うことが挙げられる。このようにすることにより、それぞれの精度に応じた平均化が行われ、ヨーレートのさらなる高精度化が可能となる。例えば、M個のヨーレートが算出された場合、重み付け値をwとすると次の(11)式で算出できる。その場合、w=b×cとする。あるいは、bとcの平均値を用いてもよい。
Figure JPOXMLDOC01-appb-M000011
 また、本発明は上記実施例に限定されるものではない。即ち、当業者は、従来公知の知見に従い、本発明の骨子を逸脱しない範囲で種々変形して実施することができる。かかる変形によってもなお本発明の情報処理装置の構成を具備する限り、勿論、本発明の範疇に含まれるものである。
  1 検出装置
  15   制御部(情報処理装置)
  15a  取得部(第1取得部、第2取得部)
  15b  認識部
  15c  設定部
  15d  算出部(補正部)
  15e  評価部
  21   ライダ(検出部)
  S201 ライダによる白線検出処理(検出工程)
  S204 白線中心線の式を求める(認識工程、設定工程)
  S205 自車の向きと白線中心線の角度差を求める(算出工程)
  S206 ヨー角度変化を求める(算出工程)
  S207 時間差を求める(算出工程)
  S208 ヨーレート算出(算出工程)

Claims (9)

  1.  移動体の周辺の、走行路上に沿った連続性を有する地物を検出する検出部の検出結果を、所定時間間隔で連続的に取得する第1取得部と、
     前記検出結果から所定の規則に基づき前記地物の基準線を認識する認識部と、
     前記基準線の向きを設定する設定部と、
     第1時刻における前記基準線に対する前記移動体の移動方向及び前記基準線の向きと、第2時刻における前記基準線に対する前記移動体の移動方向及び前記基準線の向きに基づき前記移動体のヨー角変化量を算出する算出部と、
    を備えることを特徴とする情報処理装置。
  2.  前記基準線の検出精度を評価する評価部を更に有し、
     前記算出部は、前記検出精度の評価結果が所定以上であった場合は前記ヨー角変化量を算出する、
    ことを特徴とする請求項1に記載の情報処理装置。
  3.  前記評価部は、前記移動体とともに移動する所定検出領域内における前記地物の検出結果に含まれる当該地物検出のサンプル数及び各サンプルが示す値と所定の基準値との誤差のうち少なくともいずれかに基づいて評価することを特徴とする請求項2に記載の情報処理装置。
  4.  前記地物は、前記移動体が走行する車線を区切る境界線であって、
     前記算出部は、前記移動体がヨー角度が生じる動作を行った場合のヨー角変化量を算出する、
    ことを特徴とする請求項1から3のうちいずれか一項に記載の情報処理装置。
  5.  ジャイロセンサから出力された情報を取得する第2取得部と、
     前記算出部で算出されたヨー角変化量に基づいて前記ジャイロセンサから出力された情報を補正する補正部と、
    を更に備えることを特徴とする請求項1から4のうちいずれか一項に記載の情報処理装置。
  6.  前記基準線は、前記地物の中心線であることを特徴とする請求項1から5のうちいずれか一項に記載の情報処理装置。
  7.  移動体の周辺の、走行路上に沿った連続性を有する地物を検出する検出部と、
     前記検出部の検出結果を、所定時間間隔で連続的に取得する第1取得部と、
     前記検出結果から所定の規則に基づき前記地物の基準線を認識する認識部と、
     前記基準線の向きを設定する設定部と、
     第1時刻における前記基準線に対する前記移動体の移動方向及び前記基準線の向きと、第2時刻における前記基準線に対する前記移動体の移動方向及び前記基準線の向きに基づき前記移動体のヨー角変化量を算出する算出部と、
    を備えることを特徴とする検出装置。
  8.  移動体の周辺の、地物を検出する検出部の検出結果に基づいて所定の処理を行う情報処理装置で実行される情報処理方法であって、
     前記移動体の周辺の走行路上に沿った連続性を有する地物を検出する検出部の検出結果を、所定時間間隔で連続的に取得する取得工程と、
     前記検出結果から所定の規則に基づき前記地物の基準線を認識する認識工程と、
     前記基準線の向きを設定する設定工程と、
     第1時刻における前記基準線に対する前記移動体の移動方向及び前記基準線の向きと、第2時刻における前記基準線に対する前記移動体の移動方向及び前記基準線の向きに基づき前記移動体のヨー角変化量を算出する算出工程と、
    を含むことを特徴とする情報処理方法。
  9.  請求項8に記載の情報処理方法を、コンピュータにより実行させることを特徴とする情報処理プログラム。
PCT/JP2018/046193 2017-12-19 2018-12-14 情報処理装置 WO2019124278A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017242745 2017-12-19
JP2017-242745 2017-12-19

Publications (1)

Publication Number Publication Date
WO2019124278A1 true WO2019124278A1 (ja) 2019-06-27

Family

ID=66993432

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/046193 WO2019124278A1 (ja) 2017-12-19 2018-12-14 情報処理装置

Country Status (1)

Country Link
WO (1) WO2019124278A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1191609A (ja) * 1997-09-24 1999-04-06 Nissan Motor Co Ltd 車両の自動操舵装置
JP2001092970A (ja) * 1999-09-22 2001-04-06 Fuji Heavy Ind Ltd 車線認識装置
JP2012066777A (ja) * 2010-09-27 2012-04-05 Mazda Motor Corp ヨーレートのずれ検出装置
JP2014106683A (ja) * 2012-11-27 2014-06-09 Aisin Aw Co Ltd 道路勾配記録システム、道路勾配記録方法、道路勾配記録プログラム、運転支援システム、運転支援方法および運転支援プログラム。
JP2016133838A (ja) * 2015-01-15 2016-07-25 トヨタ自動車株式会社 複合線判定装置及び複合線判定方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1191609A (ja) * 1997-09-24 1999-04-06 Nissan Motor Co Ltd 車両の自動操舵装置
JP2001092970A (ja) * 1999-09-22 2001-04-06 Fuji Heavy Ind Ltd 車線認識装置
JP2012066777A (ja) * 2010-09-27 2012-04-05 Mazda Motor Corp ヨーレートのずれ検出装置
JP2014106683A (ja) * 2012-11-27 2014-06-09 Aisin Aw Co Ltd 道路勾配記録システム、道路勾配記録方法、道路勾配記録プログラム、運転支援システム、運転支援方法および運転支援プログラム。
JP2016133838A (ja) * 2015-01-15 2016-07-25 トヨタ自動車株式会社 複合線判定装置及び複合線判定方法

Similar Documents

Publication Publication Date Title
KR101750186B1 (ko) 차량 위치 추정 기기 및 차량 위치 추정 방법
CN109416256B (zh) 行驶车道推定系统
US10401503B2 (en) Location estimation device
WO2018181974A1 (ja) 判定装置、判定方法、及び、プログラム
JP6806891B2 (ja) 情報処理装置、制御方法、プログラム及び記憶媒体
JP7155284B2 (ja) 計測精度算出装置、自己位置推定装置、制御方法、プログラム及び記憶媒体
JP2020032986A (ja) 姿勢推定装置、制御方法、プログラム及び記憶媒体
US20230243657A1 (en) Vehicle control device and host vehicle position estimation method
WO2018212294A1 (ja) 自己位置推定装置、制御方法、プログラム及び記憶媒体
JP2023075184A (ja) 出力装置、制御方法、プログラム及び記憶媒体
WO2021112074A1 (ja) 情報処理装置、制御方法、プログラム及び記憶媒体
JP6968877B2 (ja) 自己位置推定装置、制御方法、プログラム及び記憶媒体
JP2023164553A (ja) 位置推定装置、推定装置、制御方法、プログラム及び記憶媒体
JP2023078138A (ja) 出力装置、制御方法、プログラム及び記憶媒体
WO2018212302A1 (ja) 自己位置推定装置、制御方法、プログラム及び記憶媒体
WO2019124278A1 (ja) 情報処理装置
WO2019124279A1 (ja) 情報処理装置
JP6604052B2 (ja) 走路境界推定装置及び走路境界推定方法
WO2018212290A1 (ja) 情報処理装置、制御方法、プログラム及び記憶媒体
JP6923750B2 (ja) 自己位置推定装置、自己位置推定方法、プログラム及び記憶媒体
US20240053440A1 (en) Self-position estimation device, self-position estimation method, program, and recording medium
WO2019124277A1 (ja) 情報処理装置
JP2019039767A (ja) 位置推定装置および自動運転システム
WO2020045057A1 (ja) 姿勢推定装置、制御方法、プログラム及び記憶媒体
JP2023151307A (ja) 走路推定方法及び走路推定装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18890954

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18890954

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP