WO2018235304A1 - 障害物検知装置、車両、および、障害物検知システム - Google Patents

障害物検知装置、車両、および、障害物検知システム Download PDF

Info

Publication number
WO2018235304A1
WO2018235304A1 PCT/JP2017/024524 JP2017024524W WO2018235304A1 WO 2018235304 A1 WO2018235304 A1 WO 2018235304A1 JP 2017024524 W JP2017024524 W JP 2017024524W WO 2018235304 A1 WO2018235304 A1 WO 2018235304A1
Authority
WO
WIPO (PCT)
Prior art keywords
obstacle
vehicle
unit
mirror image
obstacle detection
Prior art date
Application number
PCT/JP2017/024524
Other languages
English (en)
French (fr)
Inventor
寛和 藤本
Original Assignee
株式会社ショーワ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ショーワ filed Critical 株式会社ショーワ
Priority to CN201780090795.1A priority Critical patent/CN110622229A/zh
Priority to DE112017007672.2T priority patent/DE112017007672T5/de
Publication of WO2018235304A1 publication Critical patent/WO2018235304A1/ja
Priority to US16/681,507 priority patent/US20200079367A1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/164Centralised systems, e.g. external to vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle for navigation systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/18Braking system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/20Steering systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Definitions

  • the present invention relates to an obstacle detection device, a vehicle, and an obstacle detection system.
  • Patent Document 1 discloses a technique for automatically recognizing a close object reflected on a curve mirror.
  • an obstacle detection device comprises an acquisition unit for acquiring an in-mirror image reflected on a curve mirror, and an estimation unit for estimating the position of an obstacle with reference to the in-mirror image Is equipped.
  • FIG. 1 is a view showing a schematic configuration of a vehicle according to a first embodiment of the present invention.
  • FIG. 2 is a block diagram showing a schematic configuration of an ECU according to Embodiment 1 of the present invention. It is a block diagram showing a schematic structure of an obstacle detection part concerning Embodiment 1 of the present invention. It is a figure which shows an example of the image in a mirror reflected to the curve mirror which concerns on Embodiment 1 of this invention. It is a schematic diagram for demonstrating the matching process which concerns on Embodiment 1 of this invention. It is a flowchart which shows the flow of the obstacle detection process which concerns on Embodiment 1 of this invention.
  • FIG. 1 is a view showing a schematic configuration of a vehicle 900 according to the present embodiment.
  • a vehicle 900 includes a suspension system (suspension) 100, a vehicle body 200, wheels 300, tires 310, a steering member 410, a steering shaft 420, a torque sensor 430, a steering angle sensor 440, a torque applying unit 460, and a rack.
  • a pinion mechanism 470, a rack shaft 480, an engine 500, an electronic control unit (ECU) (control unit) 600, a power generation device 700, and a battery 800 are provided.
  • ECU electronice control unit
  • the wheel 300 on which the tire 310 is mounted is suspended on the vehicle body 200 by a suspension system 100. Since the vehicle 900 is a four-wheeled vehicle, four suspension devices 100, four wheels 300 and four tires 310 are provided.
  • the tires and wheels of the left front wheel, the right front wheel, the left rear wheel and the right rear wheel are respectively the tire 310A and the wheel 300A, the tire 310B and the wheel 300B, the tire 310C and the wheel 300C, the tire 310D and the wheel It is also called 300D.
  • the configurations attached to the left front wheel, the right front wheel, the left rear wheel, and the right rear wheel will be represented by reference symbols “A”, “B”, “C” and “D”. There is.
  • the suspension system 100 includes a hydraulic shock absorber, an upper arm and a lower arm.
  • the hydraulic shock absorber also includes a solenoid valve that is a solenoid valve that adjusts the damping force generated by the hydraulic shock absorber.
  • the hydraulic shock absorber may use a solenoid valve other than the solenoid valve as the solenoid valve for adjusting the damping force.
  • a solenoid valve using an electromagnetic fluid may be provided as the solenoid valve.
  • a power generation device 700 is attached to the engine 500, and the power generated by the power generation device 700 is accumulated in the battery 800.
  • engine 500 is configured to be able to control the number of revolutions according to the vehicle speed control amount supplied from ECU 600.
  • a steering member 410 operated by the driver is connected to one end of a steering shaft 420 so as to transmit torque, and the other end of the steering shaft 420 is connected to a rack and pinion mechanism 470.
  • the rack and pinion mechanism 470 is a mechanism for converting the rotation around the axis of the steering shaft 420 into displacement along the axial direction of the rack axis 480.
  • the wheels 300A and 300B are steered via the tie rods and knuckle arms.
  • the torque sensor 430 detects the steering torque applied to the steering shaft 420, in other words, the steering torque applied to the steering member 410, and provides the ECU 600 with a torque sensor signal indicating the detection result. More specifically, torque sensor 430 detects the torsion of a torsion bar provided in steering shaft 420, and outputs the detection result as a torque sensor signal.
  • a known sensor such as a Hall IC, an MR element, or a magnetostrictive torque sensor may be used.
  • the steering angle sensor 440 detects the steering angle of the steering member 410, and provides the detection result to the ECU 600.
  • the torque application unit 460 applies an assist torque or a reaction torque according to the steering control amount supplied from the ECU 600 to the steering shaft 420.
  • the torque application unit 460 includes a motor that generates an assist torque or a reaction torque according to a steering control amount, and a torque transmission mechanism that transmits the torque generated by the motor to the steering shaft 420.
  • control amount a current value, a duty ratio, an attenuation factor, an attenuation ratio etc. are mentioned as a specific example of the "control amount" in this specification.
  • the steering member 410, the steering shaft 420, the torque sensor 430, the steering angle sensor 440, the torque applying unit 460, the rack and pinion mechanism 470, the rack shaft 480, and the ECU 600 constitute a steering device according to the present embodiment.
  • to connect in a torque transmittable manner refers to being connected so that the rotation of one member causes the rotation of the other member, and, for example, one member and the other member Is integrally formed, the other member is fixed directly or indirectly to one member, and one member and the other member are interlocked via a joint member or the like At least including the case where it is connected.
  • the steering device in which the steering member 410 to the rack shaft 480 are always mechanically connected has been described as an example, but this does not limit the present embodiment, and the steering according to the present embodiment
  • the device may be, for example, a steer-by-wire steering device.
  • the matters described below in the present specification can also be applied to a steer-by-wire steering apparatus.
  • the vehicle 900 is provided with a wheel speed sensor 320 provided for each wheel 300 to detect the wheel speed of each wheel 300, a lateral G sensor 330 for detecting a lateral acceleration of the vehicle 900, and a longitudinal acceleration of the vehicle 900 Front-rear G sensor 340, a yaw rate sensor 350 for detecting the yaw rate of the vehicle 900, an engine torque sensor 510 for detecting the torque generated by the engine 500, an engine speed sensor 520 for detecting the number of rotations of the engine 500, and a brake device A brake pressure sensor 530 is provided to detect the pressure applied to the brake fluid.
  • the information output from these various sensors is supplied to the ECU 600 via a controller area network (CAN) 370.
  • CAN controller area network
  • the vehicle 900 specifies the current position of the vehicle 900, receives a GPS (Global Positioning System) sensor 550 that outputs current position information indicating the current position, and receives a user input regarding the destination, and indicates the destination A user input acceptance unit 560 for outputting the ground information is provided, and the current position information and the destination information are also supplied to the ECU 600 via the CAN 370.
  • the vehicle 900 may further include a route information presentation unit that visually or aurally presents a route indicated by route information generated by an obstacle detection unit 610, which will be described later, to the user.
  • Vehicle 900 also includes a camera 570 for capturing an image of the periphery of vehicle 900 including the front at predetermined time intervals.
  • the predetermined time interval does not limit the present embodiment, but as an example, the camera 570 performs imaging 15 times per second.
  • the captured image captured by the camera 570 is supplied to the ECU 600 via the CAN 370.
  • the vehicle 900 is an ABS (Antilock Brake System) that is a system for preventing wheel lock at the time of braking, TCS (Traction Control System) that suppresses idling of the wheel at the time of acceleration, etc.
  • the vehicle includes a brake apparatus capable of controlling VSA (Vehicle Stability Assist), which is a vehicle behavior stabilization control system having an automatic brake function for yaw moment control at the time of turning and a brake assist function.
  • VSA Vehicle Stability Assist
  • ABS, TCS, and VSA compare the wheel speed determined according to the estimated vehicle speed with the wheel speed detected by the wheel speed sensor 320, and the values of these two wheel speeds are predetermined values. If there is a difference, it is determined that the vehicle is in the slip state.
  • the ABS, TCS, and VSA stabilize the behavior of the vehicle 900 by performing optimal brake control and traction control according to the traveling state of the vehicle 900 through such processing.
  • the brake device provided in the vehicle 900 is configured to be able to perform a braking operation according to the vehicle speed control amount supplied from the ECU 600.
  • the ECU 600 centrally controls various electronic devices provided in the vehicle 900.
  • the ECU 600 controls the magnitude of the assist torque or the reaction torque to be applied to the steering shaft 420 by adjusting the steering control amount supplied to the torque application unit 460.
  • FIG. 2 is a diagram showing a schematic configuration of the ECU 600. As shown in FIG.
  • the ECU 600 includes an obstacle detection unit (obstacle detection device) 610, a steering control unit 630, a suspension control unit 650, and a vehicle speed control unit 670.
  • an obstacle detection unit obstacle detection device
  • a steering control unit 630 a steering control unit 630
  • a suspension control unit 650 a suspension control unit 650
  • a vehicle speed control unit 670 a vehicle speed control unit 670.
  • the obstacle detection unit 610 refers to an image captured by the camera 570 to make an estimation regarding the presence and the position of the obstacle.
  • the estimation result regarding the obstacle by the obstacle detection unit 610 is supplied to at least one of the steering control unit 630, the suspension control unit 650, and the vehicle speed control unit 670.
  • the steering control unit 630 refers to at least one of various sensor detection results included in the CAN 370 and the estimation results supplied from the obstacle detection unit 610, and the magnitude of the steering control amount supplied to the torque application unit 460. Decide.
  • the suspension control unit 650 refers to at least one of various sensor detection results included in the CAN 370 and / or estimation results supplied from the obstacle detection unit 610, and uses a solenoid valve included in the hydraulic shock absorber included in the suspension apparatus 100. The amount of suspension control to be supplied is determined.
  • the vehicle speed control unit 670 refers to at least one of various sensor detection results included in the CAN 370 and / or estimation results supplied from the obstacle detection unit 610, and the magnitude of the vehicle speed control amount supplied to the engine 500 and the brake device Decide.
  • the obstacle detection unit 610, the steering control unit 630, the suspension control unit 650, and the vehicle speed control unit 670 may be implemented as separate ECUs. In such a configuration, the obstacle detection unit 610, the steering control unit 630, the suspension control unit 650, and the vehicle speed control unit 670 communicate with each other using communication means, as described in this specification. Control is realized.
  • FIG. 3 is a block diagram showing the configuration of the obstacle detection unit 610.
  • the obstacle detection unit 610 includes an in-mirror image extraction unit 611, an in-mirror image acquisition unit (acquisition unit) 612, an obstacle estimation unit (estimation unit) 613, and a map data storage unit 620. ing.
  • the map data storage unit 620 stores map data 4200 which is referred to in order to estimate the presence and the position of an obstacle.
  • the in-mirror image extraction unit 611 extracts the in-mirror image from the image captured by the camera 570 acquired via the CAN 370. Specific extraction processing of the in-mirror image by the in-mirror image extraction unit 611 will be described later.
  • the in-mirror image acquisition unit 612 acquires the in-mirror image extracted by the in-mirror image extraction unit 611, and supplies the acquired in-mirror image to the feature point extraction unit 614.
  • the obstacle estimating unit 613 refers to the in-mirror image acquired by the in-mirror image acquiring unit 612 to estimate the presence or absence and the position of the obstacle.
  • the obstacle estimation unit 613 includes a feature point extraction unit 614 and a matching unit 615.
  • the feature point extraction unit 614 extracts feature points from the in-mirror image supplied by the in-mirror image acquisition unit 612, and supplies the feature points to the matching unit 615. Specific extraction processing of the feature points of the in-mirror image by the feature point extraction unit 614 will be described later.
  • the matching unit 615 compares the feature points included in the in-mirror image extracted by the feature point extraction unit 614 with the feature points included in the map data acquired from the map data storage unit 620 and determines the feature points included in the in-mirror image Processing (matching processing) with the feature points included in the map data.
  • the matching unit 615 also outputs an estimation result on an obstacle including the result of the matching process. The specific matching process by the matching unit 615 will be described later.
  • the obstacle estimation unit 613 corrects the position of the obstacle by comparing the one or more feature points extracted by the feature point extraction unit 614 with the map data 4200. (Image extraction processing in mirror) Subsequently, with reference to FIG. 4, the extraction process of the in-mirror image by the in-mirror image extraction unit 611 will be specifically described.
  • FIG. 4 shows an example of an image 4000 captured by the camera 570.
  • a curve mirror 4010 is shown.
  • the in-mirror image extraction unit 611 extracts the in-mirror image 4012 of the curve mirror 4010, for example, by performing the following processes 1 to 4.
  • the feature point extraction unit 614 applies pre-processing to the in-mirror image 4012 to generate a pre-processed in-mirror image 4100.
  • this pre-processing does not limit the present embodiment, for example, processing for removing unnecessary background by applying a hue filter, processing for clarifying an edge by applying an edge emphasizing filter, etc. May be included.
  • the above-described pre-processing is not essential, and the in-mirror image 4012 may be used as it is as the pre-processed in-mirror image 4100.
  • an obstacle 4001, a road sign 4002, a lane boundary line 4003, and an obstacle 4101 corresponding to roadway outer lines 4004 to 4005, a road sign 4102, lane boundaries 4103, and roadway outer lines 4104 to 4105 are included.
  • the feature point extraction unit 614 performs filtering on the preprocessed mirror image 4100 to extract one or more feature points from the preprocessed mirror image 4100.
  • the specific form of the filter processing for extracting feature points does not specify this embodiment, but for example, various filters such as Sobel filter, Gaussian filter, and Laplacian filter are used in combination. be able to.
  • the feature point extraction unit 614 may be configured to calculate the feature amount with reference to the extracted feature points. Examples of specific feature point extraction processing and feature amount calculation processing by the feature point extraction unit 614 include the following methods. However, these do not limit the present embodiment.
  • the feature point extraction unit 614 when performing feature point extraction processing using SIFT, first, the feature point extraction unit 614 applies a Gaussian filter to the preprocessed mirror image 4100 to perform averaging processing. Subsequently, the feature point extraction unit 614 extracts feature points by applying a second derivative to the image data after the averaging process.
  • the feature point extraction unit 614 selects the direction (direction in which the brightness gradient becomes the largest) with the largest change in brightness from the change in brightness around the extracted feature points. Information is detected, and information indicating the detected direction is associated with the feature point. Next, the feature point extraction unit 614 calculates a feature amount with reference to the direction of the feature point.
  • the number of feature points extracted by the feature point extraction unit 614 is preferably plural. Since the feature point extracting unit 614 extracts a plurality of feature points, the accuracy of the matching process described later can be improved, so that the position of the obstacle can be corrected more accurately. In (d) of FIG.
  • the feature point extraction unit 614 is a feature point 4302, a feature point from the road sign 4102, the lane boundary 4103, and the roadway outer line 4104 included in the preprocessed mirror image 4100, respectively.
  • An example in the case of extracting 4303 and feature points 4304 is shown.
  • the feature point extraction unit 614 detects an obstacle 4101 in the preprocessed mirror image 4100, and specifies the position of the detected obstacle 4101.
  • the obstacle 4101 can be detected by the feature point extraction process described above.
  • the position of the obstacle 4101 is specified, for example, by specifying the coordinates of the obstacle 4101 in the preprocessed mirror image 4100 or specifying the relative coordinates from each of the extracted one or more feature points It is done by doing.
  • the feature point extraction unit 614 similarly applies the feature point extraction processing to the map data 4200 illustrated in (c) of FIG. 5, extracts one or more feature points from the map data 4200, and extracts the features The feature is calculated with reference to the point.
  • the feature point extraction unit 614 includes feature points 4312 and feature points from the road sign 4202 included in the map data 4200, the lane boundary 4203, and the roadway outer line 4204, respectively.
  • An example in the case of extracting 4313 and feature points 4314 is shown.
  • the matching unit 615 calculates a feature amount calculated with reference to one or more feature points extracted from the preprocessed mirror image 4100 and a feature calculated with reference to one or more feature points extracted from the map data 4200.
  • the matching process is performed using the quantity.
  • the matching unit 615 applies at least one of rotation processing, enlargement processing, reduction processing, and translation processing to the preprocessed mirror image 4100 including one or more feature points.
  • the matching process may be performed by maximizing.
  • This processing is, for example, an index indicating the deviation between the position of each of one or more feature points included in the preprocessed mirror image 4100 and the position of each of one or more feature points included in the map data 4200. It is done by minimizing. Here, if some of the feature points included in the preprocessed mirror image are excessively shifted, the excessively shifted point may be ignored to minimize the index indicating the shift.
  • the matching unit 615 associates the position of each object included in the preprocessed mirror image 4100 with the position of each object included in the map data 4200 by performing the above-described matching process. Further, in the above-described matching process, a matching parameter which is a parameter used to correspond feature points is specified.
  • the matching parameter may include, by way of example, parameters related to at least one of the above-described rotation processing, enlargement processing, reduction processing, and translation processing.
  • the case of matching 4314 with each other is schematically shown.
  • the feature point 4302 is associated with the feature point 4312
  • the feature point 4303 is associated with the feature point 4313
  • the feature point 4304 is associated with the feature point 4314.
  • the matching unit 615 also estimates the position of the obstacle 4101 included in the preprocessed mirror image 4100 in the map data 4200.
  • the estimation of the position of the obstacle in the map data 4200 is performed by converting the position of the obstacle 4101 in the preprocessed mirror image 4100 using the above-described matching parameters.
  • the matching unit 615 is configured to associate feature points (for example, 95% or more) of a predetermined ratio or more among feature points extracted from the preprocessed mirror image 4100 with feature points included in the map data 4200. It is estimated that no obstacle exists in the preprocessed mirror image 4100.
  • the matching unit 615 outputs information on the presence or absence and the position of the obstacle in the map data 4200 as an estimation result on the obstacle.
  • the matching unit 615 sets the position of the obstacle 4101 included in the preprocessed mirror image 4100 as the position of the obstacle 4301 in the map data 4200.
  • the matching unit 615 outputs information including the position of the obstacle 4301 in the map data 4200 as an estimation result of the obstacle.
  • distortion of the in-mirror image 4012 is also eliminated by the above-described matching process.
  • the above-described matching process also corrects the displacement of the position of the obstacle due to the distortion of the in-mirror image 4012.
  • distortion of the in-mirror image 4012 is distortion due to the mirror surface of the curve mirror 4010 not being a plane
  • the in-mirror image 4012 is a curve mirror 4010.
  • the like in other words, distortion due to the mounting angle of the curve mirror 4010) or the like may be included.
  • the matching processing by the matching unit 615 is expressed as processing for correcting the position of the obstacle by comparing one or more feature points extracted from the in-mirror image 4012 with the map data 4200. It can also be done. (Flow of obstacle detection processing) Subsequently, with reference to FIG. 6, a flow of estimation processing of presence / absence of an obstacle and a position by the obstacle detection unit 610 will be described.
  • FIG. 6 is a flowchart showing a flow of estimation processing of presence / absence and position of an obstacle by the obstacle detection unit 610.
  • Step S100 First, in step S100, the camera 570 provided in the vehicle 900 captures the surroundings of the vehicle 900 including the front. Data indicating a captured image is supplied to the obstacle detection unit 610 via the CAN 370.
  • Step S101 Subsequently, in step S101, the in-mirror image extraction unit 611 extracts the in-mirror image from the captured image.
  • the extraction processing of the in-mirror image has been described above, and thus the description thereof is omitted here.
  • Step S102 Subsequently, in step S102, the in-mirror image acquisition unit 612 acquires the in-mirror image extracted in step S101. Then, the acquired in-mirror image is supplied to the feature point extraction unit 614.
  • step S103 the feature point extraction unit 614 extracts one or more feature points from the in-mirror image and the map data.
  • the feature point extraction process has been described above, and thus the description thereof is omitted here.
  • step S104 the matching unit 615 matches the feature points extracted from the in-mirror image with the feature points of the map data.
  • the feature point matching process has been described above and thus will not be described here.
  • step S105 the matching unit 615 estimates the presence or absence and the position of an obstacle in the map data 4200.
  • the specific processing for estimating the presence or absence of the obstacle and the position has been described above, and thus the description thereof is omitted here.
  • step S106 the matching unit 615 supplies the estimation result regarding the presence or absence and position of the obstacle estimated in step S106 to the steering control unit 630, the suspension control unit 650, and the vehicle speed control unit 670.
  • the obstacle detection unit 610 may be configured to output the estimation result after performing each process of steps S100 to S105 described above a plurality of times.
  • the obstacle estimation unit 613 may be configured to estimate the position of the obstacle with reference to a plurality of in-mirror images having different imaging times, or a plurality of in-mirror images having different imaging positions. The presence or absence and the position of the obstacle may be estimated with reference to FIG.
  • the position of the obstacle can be estimated with reference to a plurality of in-mirror images at different imaging locations, so that the estimation accuracy of the position of the obstacle can be improved.
  • each process of steps S100 to S105 multiple times, it is possible to refer to a plurality of in-mirror images different in imaging time, so that when the obstacle is a moving object, The moving direction and the moving speed of the obstacle can also be estimated.
  • the obstacle detection unit 610 also outputs the movement direction and movement speed of the obstacle estimated in this way, in the estimation result.
  • the obstacle detection unit 610 further refers to the steering information which is information related to the steering of the steering member 410.
  • the position of the obstacle, the moving direction of the obstacle, and the moving speed of the obstacle may be estimated. With such a configuration, estimation accuracy can be further improved.
  • control examples 1 and 2 of the vehicle 900 by the ECU 600 with reference to the estimation result by the obstacle detection unit 610 will be described.
  • the ECU 600 may perform control combining the first control example and the second control example.
  • Control example 1 If the ECU 600 determines that the position of the obstacle indicated by the result of estimation by the obstacle detection unit 610 is a dangerous position, the ECU 600 stops the vehicle 900. More specifically, the vehicle speed control unit 670 refers to the estimation result by the obstacle detection unit 610, and determines whether the position of the obstacle indicated by the estimation result is a dangerous position. If it is determined that the position is dangerous, the vehicle speed control unit 670 stops the vehicle 900 by changing the vehicle speed control amount. The suspension control unit 650 also adjusts the suspension control amount so that the vehicle 900 can stop more stably.
  • the vehicle speed control unit 670 may change the vehicle speed control amount with further reference to current position information indicating the current position of the vehicle 900. Thereby, the accuracy of vehicle control can be improved.
  • the ECU 600 controls the vehicle 900 to avoid the obstacle. More specifically, the steering control unit 630 refers to the estimation result by the obstacle detection unit 610, and determines whether the position of the obstacle indicated by the estimation result is a dangerous position. If it is determined that the position is dangerous, the steering control unit 630 controls the vehicle 900 to avoid an obstacle by changing the steering control amount. Also, the suspension control unit 650 adjusts the suspension control amount so that the vehicle 900 can avoid obstacles more stably.
  • the steering control unit 630 may change the steering control amount with further reference to current position information indicating the current position of the vehicle 900. Thereby, the accuracy of vehicle control can be improved.
  • FIG. 7 is a diagram showing a main configuration of a vehicle system (obstacle detection system) 2000 according to the present embodiment.
  • Vehicle system 2000 includes vehicle 900 and server 1000.
  • Vehicle 900 includes an ECU 600a that controls vehicle 900, and a transmission / reception unit 910 that exchanges data between server 1000 and vehicle 900.
  • the server 1000 includes a control unit 1200 including an obstacle detection unit 610, and a transmission / reception unit 1100 that exchanges data between the server 1000 and the vehicle 900.
  • the server 1000 includes the obstacle detection unit 610, and performs in-mirror image extraction processing, feature point extraction processing, matching processing, and estimation processing of presence / absence and position of the obstacle described in the first embodiment.
  • the estimation result is transmitted from the server 1000 to the vehicle 900.
  • FIG. 8 is a sequence diagram of obstacle detection by the vehicle system 2000 according to the present embodiment.
  • Step S110 As in step S100 of the first embodiment, in step S110, the camera 570 provided in the vehicle 900 captures an image of the surroundings of the vehicle 900 including the front. Data indicating a captured image is supplied to the transmission / reception unit 910 via the CAN 370.
  • step S111 Subsequently, in step S111, the transmitting and receiving unit 910 sends the captured image to the transmitting and receiving unit 1100 of the server 1000.
  • Step S112 the transmission / reception unit 1100 receives the captured image sent by the transmission / reception unit 910 in step S111. Then, the acquired captured image is supplied to the obstacle detection unit 610.
  • Step S113 Subsequently, in step S113, the obstacle detection unit 610 performs in-mirror image extraction processing.
  • the specific content of the in-mirror image extraction processing is the same as that of the first embodiment.
  • Step S114 Subsequently, in step S114, the obstacle detection unit 610 performs in-mirror image acquisition processing.
  • the specific content of the in-mirror image acquisition processing is the same as that of the first embodiment.
  • Step S115 Subsequently, in step S115, the obstacle detection unit 610 performs feature point extraction processing.
  • the specific content of the feature point extraction process is the same as that of the first embodiment.
  • step S116 the obstacle detection unit 610 performs a matching process.
  • the specific content of the matching process is the same as that of the first embodiment.
  • step S117 the obstacle detection unit 610 performs an estimation process of the presence and the position of the obstacle.
  • the specific process of estimating the presence or absence of the obstacle and the position is the same as that of the first embodiment.
  • Step S118 Subsequently, in step S118, the matching unit 615 of the obstacle detection unit 610 supplies the estimation result regarding the presence or absence and position of the obstacle estimated in step S117 to the transmission / reception unit 1100.
  • Step S119 Subsequently, in step S119, the transmission / reception unit 1100 sends the estimation result to the transmission / reception unit 910 of the vehicle 900.
  • Step S120 Subsequently, in step S120, the transmission / reception unit 910 of the vehicle 900 receives the estimation result from the transmission / reception unit 1100. Transmission / reception unit 910 supplies the estimation result to ECU 600a.
  • step S121 the ECU 600a performs vehicle control according to the estimation result as described in the first embodiment with reference to the estimation result.
  • the in-mirror image extraction process, the feature point extraction process, the matching process, and the process of estimating the presence / absence of an obstacle and the position are performed in the server 1000, so the ECU 600a can be realized with a relatively simple configuration. Further, since the ECU 600a does not have to hold map data, the memory load in the ECU 600a is reduced.
  • FIG. 9 is a view showing the main configuration of a vehicle system (obstacle detection system) 3000 according to the present embodiment.
  • Vehicle system 3000 includes vehicle 900 and server 1000.
  • the vehicle 900 includes an ECU 600 b that controls the vehicle 900 and a transmission / reception unit 910.
  • the ECU 600 b includes an obstacle detection unit 610 a, a steering control unit 630, a suspension control unit 650, and a vehicle speed control unit 670.
  • the server 1000 includes a control unit 1200 b including an obstacle detection unit 610 b, and a transmission / reception unit 1100.
  • the vehicle 900 and the server 1000 are respectively provided with obstacle detection units 610a and 610b, and each process by the obstacle detection unit 610 described in the first embodiment is obstacle detection in the present embodiment.
  • Distributed processing is performed by units 610a and 610b.
  • the vehicle 900 performs the in-mirror image extraction process and the feature point extraction process described in the first embodiment, transmits data of feature points to the server 1000, and the server 1000 receives the received feature points.
  • a configuration will be described in which the matching process described in the first embodiment and the process of estimating the presence / absence of an obstacle and the position are performed using data, and the estimation result is transmitted to the vehicle 900.
  • FIG. 10 is a sequence diagram of obstacle detection by the vehicle system 3000 according to the present embodiment.
  • Step S130 First, in step S130, the camera 570 provided in the vehicle 900 captures the surroundings of the vehicle 900 including the front. Data indicating a captured image is supplied to the obstacle detection unit 610a via the CAN 370.
  • Step S131 Subsequently, in step S131, the obstacle detection unit 610a performs in-mirror image extraction processing.
  • the specific content of the in-mirror image extraction processing is the same as that of the first embodiment.
  • Step S132 Subsequently, in step S132, the obstacle detection unit 610a performs in-mirror image acquisition processing.
  • the specific content of the in-mirror image acquisition processing is the same as that of the first embodiment.
  • step S133 the obstacle detection unit 610a extracts one or more feature points from the in-mirror image.
  • the feature point extraction process has been described above, and thus the description thereof is omitted here.
  • the obstacle detection unit 610a supplies data indicating the extracted feature points to the transmission / reception unit 910.
  • Step S134 Subsequently, in step S134, the transmitting and receiving unit 910 sends data indicating the feature points extracted in step 133 to the transmitting and receiving unit 1100 of the server 1000.
  • step S135 the transmission / reception unit 1100 receives data indicating the feature points supplied from the transmission / reception unit 910.
  • the transmission / reception unit 1100 supplies data indicating the feature points to the obstacle detection unit 610b.
  • Step S136 the obstacle detection unit 610b performs a matching process.
  • the feature points of the map data used for the matching process may be extracted by the obstacle detection unit 610a or may be extracted by the obstacle detection unit 610b.
  • the specific contents of the matching process are the same as in the first embodiment.
  • step S137 the obstacle detection unit 610b performs an estimation process of the presence and the position of the obstacle.
  • the specific content of the presence / absence of an obstacle and the estimation processing of the position is the same as that of the first embodiment.
  • Step S138 the obstacle detection unit 610b supplies the estimation result regarding the presence or absence and the position of the obstacle estimated in step S137 to the transmission / reception unit 1100.
  • Step S139 Subsequently, in step S139, the transmission / reception unit 1100 sends the estimation result to the transmission / reception unit 910 included in the vehicle 900.
  • step S140 the transmission and reception unit 910 receives the estimation result from the transmission and reception unit 1100.
  • the transmission and reception unit 910 supplies the estimation result to the ECU 600b.
  • step S141 the ECU 600b performs vehicle control according to the estimation result as described in the first embodiment with reference to the estimation result.
  • the matching process and the process of estimating the presence or absence of an obstacle and the position thereof are performed by the server 1000, so the ECU 600b can be realized with a relatively simple configuration.
  • the ECU 600b since it is not essential that the ECU 600b holds map data, it is possible to set a memory load in the ECU 600b.
  • the distributed processing described in the present embodiment is merely an example, and does not limit the invention described in the present specification.
  • the in-mirror image acquisition unit 612, the obstacle estimation unit 613, and the feature point extraction unit 614 are provided on the vehicle 900 side, and the in-mirror image acquisition process, the obstacle detection process, and The configuration may be such that one or a combination of feature point extraction processing is performed on the vehicle 900 side.
  • Embodiment 4 In the above-described Embodiments 1 to 3, although the estimation result regarding the obstacle referring to the captured image captured in the vehicle 900 has been described as an example of the configuration used in the vehicle 900, this limits the invention described in the present specification. It is not something to do.
  • the estimation result regarding the obstacle based on the captured image captured by the vehicle 900 may be supplied to another vehicle.
  • a server configured to be able to communicate with a plurality of vehicles.
  • server 1000 described in the second embodiment is configured to be communicable with one or more vehicles other than vehicle 900, and a captured image captured by vehicle 900 is referred to
  • the estimated result on the obstacle (information on the position of the obstacle) estimated by the ECU 600 may be recorded, and the recorded estimated result may be transmitted to one or more vehicles other than the vehicle 900.
  • the vehicle receiving the estimation result may be configured to perform vehicle control according to the estimation result, and the vehicle receiving the estimation result refers to the estimation result to find the position of the obstacle. May be estimated, and vehicle control may be performed according to the estimation result.
  • the estimation result can be used more effectively.
  • Control blocks described as the ECUs 600, 600a, 600b, and the control units 1200, 1200b (particularly, the obstacle detection units 610, 610a, 610b, the steering control unit 630, the suspension control unit 650, the vehicle speed control unit 670) It may be realized by a logic circuit (hardware) formed in a chip or the like, or may be realized by software using a CPU (Central Processing Unit).
  • a logic circuit hardware
  • CPU Central Processing Unit
  • the ECUs 600, 600a, 600b, and the control units 1200, 1200b are CPUs that execute instructions of programs that are software implementing the respective functions, and the programs and various data are recorded readable by a computer (or CPU).
  • a ROM (Read Only Memory) or a storage device (these are referred to as a "recording medium"), a RAM (Random Access Memory) for developing the program, and the like are provided.
  • the object of the present invention is achieved by the computer (or CPU) reading the program from the recording medium and executing the program.
  • the recording medium a “non-transitory tangible medium”, for example, a tape, a disk, a card, a semiconductor memory, a programmable logic circuit or the like can be used.
  • the program may be supplied to the computer via any transmission medium (communication network, broadcast wave, etc.) capable of transmitting the program.
  • the present invention can also be realized in the form of a data signal embedded in a carrier wave, in which the program is embodied by

Abstract

ECU(600)は、カーブミラーに映ったミラー内画像を取得するミラー内画像取得部(612)と、前記ミラー内画像を参照して、障害物の位置を推定する障害物推定部(613)とを備えている。

Description

障害物検知装置、車両、および、障害物検知システム
 本発明は、障害物検知装置、車両、および、障害物検知システムに関する。
 車両の周囲に存在する障害物を検知する技術が知られている。このような技術は、例えば、自走運転技術に適用される。また、特許文献1には、カーブミラーに映った近接物体を自動的に認識する技術が開示されている。
日本国公開特許公報「特開2010-122821号公報(2010年6月3日公開)」
 ところで、障害物を検知する技術において、カーブミラーに映った障害物であっても精度よく推定できることが好ましい。
 かかる目的のもと、本発明に係る障害物検知装置は、カーブミラーに映ったミラー内画像を取得する取得部と、前記ミラー内画像を参照して、障害物の位置を推定する推定部とを備えている。
 本発明によれば、カーブミラーに映った障害物を精度よく推定することができる。
本発明の実施形態1に係る車両の概略構成を示す図である。 本発明の実施形態1に係るECUの概略構成を示すブロック図である。 本発明の実施形態1に係る障害物検知部の概略構成を示すブロック図である。 本発明の実施形態1に係るカーブミラーに映ったミラー内画像の一例を示す図である。 本発明の実施形態1に係るマッチング処理を説明するための模式図である。 本発明の実施形態1に係る障害物検知処理の流れを示すフローチャートである。 本発明の実施形態2に係る車両システムの概略構成を示す図である。 本発明の実施形態2に係る障害物検知処理の流れを示すシーケンス図である。 本発明の実施形態3に係る車両システムの概略構成を示す図である。 本発明の実施形態3に係る障害物検知処理の流れを示すシーケンス図である。
 〔実施形態1〕
 以下、本発明の実施形態1について、詳細に説明する。
 (車両900の構成)
 図1は、本実施形態に係る車両900の概略構成を示す図である。図1に示すように、車両900は、懸架装置(サスペンション)100、車体200、車輪300、タイヤ310、操舵部材410、ステアリングシャフト420、トルクセンサ430、舵角センサ440、トルク印加部460、ラックピニオン機構470、ラック軸480、エンジン500、ECU(Electronic Control Unit)(制御部)600、発電装置700およびバッテリ800を備えている。
 タイヤ310が装着された車輪300は、懸架装置100によって車体200に懸架されている。車両900は、四輪車であるため、懸架装置100、車輪300およびタイヤ310については、それぞれ4つ設けられている。
 なお、左側の前輪、右側の前輪、左側の後輪および右側の後輪のタイヤ及び車輪をそれぞれ、タイヤ310A及び車輪300A、タイヤ310B及び車輪300B、タイヤ310C及び車輪300C、並びに、タイヤ310D及び車輪300Dとも称する。以下、同様に、左側の前輪、右側の前輪、左側の後輪および右側の後輪にそれぞれ付随した構成を、符号「A」「B」「C」及び「D」を付して表現することがある。
 懸架装置100は、油圧緩衝装置、アッパーアーム及びロアーアームを備えている。また、油圧緩衝装置は、当該油圧緩衝装置が発生させる減衰力を調整する電磁弁であるソレノイドバルブを備えている。ただし、これは本実施形態を限定するものではなく、油圧緩衝装置は、減衰力を調整する電磁弁として、ソレノイドバルブ以外の電磁弁を用いてもよい。例えば、上記電磁弁として、電磁流体(磁性流体)を利用した電磁弁を備える構成としてもよい。
 エンジン500には、発電装置700が付設されており、発電装置700によって生成された電力がバッテリ800に蓄積される。また、エンジン500は、ECU600から供給される車速制御量に応じて回転数を制御可能に構成されている。
 運転者の操作する操舵部材410は、ステアリングシャフト420の一端に対してトルク伝達可能に接続されており、ステアリングシャフト420の他端は、ラックピニオン機構470に接続されている。
 ラックピニオン機構470は、ステアリングシャフト420の軸周りの回転を、ラック軸480の軸方向に沿った変位に変換するための機構である。ラック軸480が軸方向に変位すると、タイロッド及びナックルアームを介して車輪300A及び車輪300Bが転舵される。
 トルクセンサ430は、ステアリングシャフト420に印加される操舵トルク、換言すれば、操舵部材410に印加される操舵トルクを検出し、検出結果を示すトルクセンサ信号をECU600に提供する。より具体的には、トルクセンサ430は、ステアリングシャフト420に内設されたトーションバーの捩れを検出し、検出結果をトルクセンサ信号として出力する。なお、トルクセンサ430として、ホールIC,MR素子、磁歪式トルクセンサなどの周知のセンサを用いてもよい。
 舵角センサ440は、操舵部材410の舵角を検出し、検出結果をECU600に提供する。
 トルク印加部460は、ECU600から供給されるステアリング制御量に応じたアシストトルク又は反力トルクを、ステアリングシャフト420に印加する。トルク印加部460は、ステアリング制御量に応じたアシストトルク又は反力トルクを発生させるモータと、当該モータが発生させたトルクをステアリングシャフト420に伝達するトルク伝達機構とを備えている。
 なお、本明細書における「制御量」の具体例として、電流値、デューティー比、減衰率、減衰比等が挙げられる。
 操舵部材410、ステアリングシャフト420、トルクセンサ430、舵角センサ440、トルク印加部460、ラックピニオン機構470、ラック軸480、及びECU600は、本実施形態に係るステアリング装置を構成する。
 なお、上述の説明において「トルク伝達可能に接続」とは、一方の部材の回転に伴い他方の部材の回転が生じるように接続されていることを指し、例えば、一方の部材と他方の部材とが一体的に成形されている場合、一方の部材に対して他方の部材が直接的又は間接的に固定されている場合、及び、一方の部材と他方の部材とが継手部材等を介して連動するよう接続されている場合を少なくとも含む。
 また、上記の例では、操舵部材410からラック軸480までが常時機械的に接続されたステアリング装置を例に挙げたが、これは本実施形態を限定するものではなく、本実施形態に係るステアリング装置は、例えばステア・バイ・ワイヤ方式のステアリング装置であってもよい。ステア・バイ・ワイヤ方式のステアリング装置に対しても本明細書において以下に説明する事項を適用することができる。
 また、車両900は、車輪300毎に設けられ各車輪300の車輪速を検出する車輪速センサ320、車両900の横方向の加速度を検出する横Gセンサ330、車両900の前後方向の加速度を検出する前後Gセンサ340、車両900のヨーレートを検出するヨーレートセンサ350、エンジン500が発生させるトルクを検出するエンジントルクセンサ510、エンジン500の回転数を検出するエンジン回転数センサ520、及びブレーキ装置が有するブレーキ液に印加される圧力を検出するブレーキ圧センサ530を備えている。これらの各種センサから出力される情報は、CAN(Controller Area Network)370を介してECU600に供給される。
 また、車両900は、車両900の現在位置を特定し、当該現在位置を示す現在位置情報を出力するGPS(Global Positioning System)センサ550と、目的地に関するユーザ入力を受け付け、当該目的地を示す目的地情報を出力するユーザ入力受付部560とを備えており、現在位置情報及び目的地情報も、CAN370を介してECU600に供給される。また、車両900は、後述する障害物検知部610が生成した経路情報の示す経路をユーザに対して視覚的又は聴覚的に提示する経路情報提示部を更に備える構成としてもよい。
 また、車両900は、前方を含む車両900の周囲を所定の時間間隔毎に撮像するためのカメラ570を備えている。当該所定の時間間隔は本実施形態を限定するものではないが、一例として、カメラ570は1秒間に15回の撮像を行う。カメラ570によって撮像された撮像画像は、CAN370を介してECU600に供給される。
 また、図示は省略するが、車両900は、ブレーキ時の車輪ロックを防ぐためのシステムであるABS(Antilock Brake System)、加速時等における車輪の空転を抑制するTCS(Traction Control System)、及び、旋回時のヨーモーメント制御やブレーキアシスト機能等のための自動ブレーキ機能を備えた車両挙動安定化制御システムであるVSA(Vehicle Stability Assist)制御可能なブレーキ装置を備えている。
 ここで、ABS、TCS、及びVSAは、推定した車体速に応じて定まる車輪速と、車輪速センサ320によって検出された車輪速とを比較し、これら2つの車輪速の値が、所定の値以上相違している場合にスリップ状態であると判定する。ABS、TCS、及びVSAは、このような処理を通じて、車両900の走行状態に応じて最適なブレーキ制御やトラクション制御を行うことにより、車両900の挙動の安定化を図るものである。
 車両900が備えるブレーキ装置は、ECU600から供給される車速制御量に応じて、ブレーキ動作を行うことができるよう構成されている。
 ECU600は、車両900が備える各種の電子機器を統括制御する。例えば、ECU600は、トルク印加部460に供給するステアリング制御量を調整することにより、ステアリングシャフト420に印加するアシストトルク又は反力トルクの大きさを制御する。
 また、ECU600は、懸架装置100に含まれる油圧緩衝装置が備えるソレノイドバルブに対して、サスペンション制御量を供給することによって当該ソレノイドバルブの開閉を制御する。この制御を可能とするために、ECU600からソレノイドバルブへ駆動電力を供給する電力線が配されている。
 (ECU600)
 以下では、参照する図面を替えて、ECU600について具体的に説明する。図2は、ECU600の概略構成を示す図である。
 図2に示すように、ECU600は、障害物検知部(障害物検知装置)610、ステアリング制御部630、サスペンション制御部650、及び車速制御部670を備えている。
 障害物検知部610は、カメラ570による撮像画像を参照して、障害物の有無及び位置に関する推定を行う。障害物検知部610による障害物に関する推定結果は、ステアリング制御部630、サスペンション制御部650、及び車速制御部670の少なくとも何れかに供給される。
 ステアリング制御部630は、CAN370に含まれる各種のセンサ検出結果、及び、障害物検知部610から供給される推定結果の少なくとも何れかを参照し、トルク印加部460に供給するステアリング制御量の大きさを決定する。
 なお、本明細書において「~を参照して」との表現には、「~を用いて」「~を考慮して」「~に依存して」などの意味が含まれ得る。
 サスペンション制御部650は、CAN370に含まれる各種のセンサ検出結果、及び障害物検知部610から供給される推定結果の少なくとも何れかを参照し、懸架装置100に含まれる油圧緩衝装置が備えるソレノイドバルブに対して供給するサスペンション制御量の大きさを決定する。
 車速制御部670は、CAN370に含まれる各種のセンサ検出結果、及び障害物検知部610から供給される推定結果の少なくとも何れかを参照し、エンジン500及びブレーキ装置に供給する車速制御量の大きさを決定する。
 なお、障害物検知部610、ステアリング制御部630、サスペンション制御部650、及び車速制御部670は、それぞれ別々のECUとして実現される構成であってもよい。このような構成の場合、障害物検知部610と、ステアリング制御部630、サスペンション制御部650、及び車速制御部670とが通信手段を用いて相互に通信を行うことにより、本明細書に記載の制御が実現される。
 (障害物検知部)
 続いて、図3を参照して、障害物検知部610についてより具体的に説明する。図3は、障害物検知部610の構成を示すブロック図である。図3に示すように、障害物検知部610は、ミラー内画像抽出部611、ミラー内画像取得部(取得部)612、障害物推定部(推定部)613、及び地図データ格納部620を備えている。地図データ格納部620には、障害物の有無及び位置を推定するために参照される地図データ4200が格納されている。
 ミラー内画像抽出部611は、CAN370を介して取得したカメラ570による撮像画像から、ミラー内画像を抽出する。ミラー内画像抽出部611によるミラー内画像の具体的抽出処理については、後述する。
 ミラー内画像取得部612は、ミラー内画像抽出部611が抽出したミラー内画像を取得し、取得したミラー内画像を、特徴点抽出部614に供給する。
 障害物推定部613は、ミラー内画像取得部612が取得したミラー内画像を参照して、障害物の有無及び位置を推定する。障害物推定部613は、特徴点抽出部614、及びマッチング部615を備えている。
 特徴点抽出部614は、ミラー内画像取得部612が供給したミラー内画像から、特徴点を抽出し、マッチング部615に供給する。特徴点抽出部614によるミラー内画像の特徴点の具体的抽出処理については、後述する。
 マッチング部615は、特徴点抽出部614が抽出したミラー内画像に含まれる特徴点を、地図データ格納部620から取得した地図データに含まれる特徴点と比較し、ミラー内画像に含まれる特徴点と地図データに含まれる特徴点との対応付け処理(マッチング処理)を行う。また、マッチング部615は、マッチング処理の結果を含む障害物に関する推定結果を出力する。なお、マッチング部615による具体的なマッチング処理については、後述する。
 障害物推定部613は、特徴点抽出部614が抽出した1又は複数の特徴点と、地図データ4200とを比較することによって、障害物の位置を補正する。
 (ミラー内画像抽出処理)
 続いて、図4を参照して、ミラー内画像抽出部611によるミラー内画像の抽出処理について具体的に説明する。
 図4は、カメラ570による撮像画像4000の一例を示している。撮像画像4000内には、カーブミラー4010が映っている。
 ミラー内画像抽出部611は、例えば、以下の処理1~4を行うことによってカーブミラー4010のミラー内画像4012を抽出する。
 (処理1)
 撮像画像4000に対して色相フィルタによる色相制限処理を適用することにより、撮像画像4000から不要な背景を削除する。
 (処理2)
 撮像画像4000に対してエッジ検出処理及びハフ変換処理を適用することにより、カーブミラーの外縁を検出し、カーブミラーの候補を検出する。
 (処理3)
 検出したカーブミラーの候補が複数存在する場合には、各候補の彩度、明度、形状等に関するスコアを算出し、当該スコアに応じて、カーブミラー4010を特定する。
 (処理4)
 特定したカーブミラー4010の外縁4011によって囲まれる画像を、ミラー内画像4012として抽出する。
 (特徴点抽出処理)
 次に、図5の(a)~(d)を参照して、特徴点抽出部614による特徴点抽出処理について具体的に説明する。まず、図5の(a)に示す例では、ミラー内画像4012内に、障害物4001(図5の(a)の例では車両)、道路標識4002、車線境界線(センターライン)4003、車道外側線(サイドライン)4004~4005が映り込んでいる。
 特徴点抽出部614は、まず、ミラー内画像4012に対して、前処理を適用することによって前処理済ミラー内画像4100を生成する。この前処理は、本実施形態を限定するものではないが、例えば、色相フィルタを適用することによる不要な背景を削除する処理、及びエッジ強調フィルタを適用することによるエッジを明確化する処理などを含み得る。なお、上述の前処理は必須ではなく、ミラー内画像4012をそのまま前処理済ミラー内画像4100として用いてもよい。
 図5の(b)に示すように、前処理済ミラー内画像4100には、障害物4001、道路標識4002、車線境界線4003、及び車道外側線4004~4005に対応する障害物4101、道路標識4102、車線境界線4103、及び車道外側線4104~4105が含まれている。
 続いて、特徴点抽出部614は、前処理済ミラー内画像4100に対して、フィルタ処理を施すことによって前処理済ミラー内画像4100から1又は複数の特徴点を抽出する。ここで、特徴点を抽出するためのフィルタ処理の具体的な形式は本実施形態を特定するものではないが、例えば、ソーベルフィルタ、ガウシアンフィルタ、及びラプラシアンフィルタなどの各種のフィルタを組み合わせて用いることができる。また、特徴点抽出部614は、抽出した特徴点を参照して、特徴量を算出する構成としてもよい。
 特徴点抽出部614による具体的な特徴点抽出処理及び特徴量算出処理として例えば以下の手法が挙げられる。ただし、これらは本実施形態を限定するものではない。
 ・MSER(Maximally Stable Extermal Regions)
 ・FAST(Features from Accelerated Segment Test)
 ・Harris point、ORB(Oriented-BRIEF)
 ・SIFT(Scale-Invariant Feature Transform)
 ・SURF(Speed-Up Robust Features)
 なお、ORB、SIFT、およびSURFでは、特徴点の抽出に加えて、特徴量の算出まで行うことができる。一方、MSER、FAST、およびHarris pointを用いる場合は、例えば、特徴点の抽出を行った後、ORB、SIFT、およびSURFなどを用いて特徴量の算出を行えばよい。
 一例として、SIFTを用いて特徴点抽出処理を行う場合、特徴点抽出部614は、まず、前処理済ミラー内画像4100にガウシアンフィルタを適用して、平均化処理を行う。続いて特徴点抽出部614は、平均化処理後の画像データに対して二次微分を適用することにより特徴点を抽出する。
 また、一例としてSIFTを用いて特徴量算出処理を行う場合、特徴点抽出部614は、抽出した特徴点の周囲の輝度変化から、最も輝度変化が大きい向き(輝度勾配が最大となる向き)を検出し、検出した向きを示す情報を当該特徴点に関連付ける。次に、特徴点抽出部614は、当該特徴点の向きを参照して特徴量を算出する。
 なお、特徴点抽出部614が抽出する特徴点の数は、複数であることが好ましい。特徴点抽出部614が複数の特徴点を抽出することにより、後述するマッチング処理の精度を向上させることができるので、障害物の位置をより精度よく補正することができる。
 図5の(d)には、特徴点抽出部614が、前処理済ミラー内画像4100に含まれる道路標識4102、車線境界線4103、及び車道外側線4104から、それぞれ、特徴点4302、特徴点4303、及び特徴点4304を抽出した場合の例が示されている。
 また、特徴点抽出部614は、前処理済ミラー内画像4100における障害物4101を検出し、検出した障害物4101の位置を特定する。障害物4101の検出は、上述した特徴点抽出処理により行うことができる。また、障害物4101の位置の特定は、例えば、前処理済ミラー内画像4100における障害物4101の座標を特定することにより、又は、抽出した1又は複数の特徴点のそれぞれからの相対座標を特定することにより行われる。
 特徴点抽出部614は、図5の(c)に例示した地図データ4200に対しても同様に特徴点抽出処理を適用し、地図データ4200から1又は複数の特徴点を抽出し、抽出した特徴点を参照して特徴量を算出する。
 図5の(c)~(d)には、特徴点抽出部614が、地図データ4200に含まれる道路標識4202、車線境界線4203、及び車道外側線4204から、それぞれ、特徴点4312、特徴点4313、及び特徴点4314を抽出した場合の例が示されている。
 (マッチング処理)
 マッチング部615は、前処理済ミラー内画像4100から抽出した1又は複数の特徴点を参照して算出した特徴量と、地図データ4200から抽出した1又は複数の特徴点を参照して算出した特徴量とを用いてマッチング処理を行う。
 なお、マッチング部615は、1又は複数の特徴点を含む前処理済ミラー内画像4100に対して、回転処理、拡大処理、縮小処理、及び平行移動処理の少なくとも何れかを適用することによって、前処理済ミラー内画像4100に含まれる1又は複数の特徴点を参照して算出した特徴量と、地図データ4200に含まれる1又は複数の特徴点を参照して算出した特徴量との一致度を最大化させることによりマッチング処理を行う構成としてもよい。この処理は、例えば、前処理済ミラー内画像4100に含まれる1又は複数の特徴点のそれぞれの位置と、地図データ4200に含まれる1又は複数の特徴点のそれぞれの位置とのずれを表す指標を最小化することによって行われる。ここで、前処理済ミラー内画像に含まれる特徴点の一部が過剰にずれている場合には、その過剰にずれている点を無視してずれを表す指標を最小化してもよい。
 マッチング部615は、上述のマッチング処理を行うことによって、前処理済ミラー内画像4100に含まれる各物体の位置と、地図データ4200に含まれる各物体の位置とを対応付ける。また、上述のマッチング処理において、特徴点同士を対応付けるために用いたパラメータであるマッチングパラメータが特定される。ここで、マッチングパラメータは、一例として、上述した回転処理、拡大処理、縮小処理、及び平行移動処理の少なくとも何れかに関するパラメータを含み得る。
 図5の(d)には、前処理済ミラー内画像4100に含まれる特徴点4302、特徴点4303、及び特徴点4304と、地図データ4200に含まれる特徴点4312、特徴点4313、及び特徴点4314とをそれぞれマッチングする場合が模式的に示されている。図5の(d)に示すように、特徴点4302が特徴点4312に対応付けられ、特徴点4303が特徴点4313に対応付けられ、特徴点4304が特徴点4314に対応付けられる。
 また、マッチング部615は、前処理済ミラー内画像4100に含まれる障害物4101の、地図データ4200内における位置を推定する。地図データ4200内における障害物の位置の推定は、障害物4101の前処理済ミラー内画像4100における位置を、上述したマッチングパラメータを用いて変換することによって行われる。
 また、マッチング部615は、前処理済ミラー内画像4100から抽出した特徴点のうち、所定の割合以上の特徴点(例えば95%以上)が、地図データ4200に含まれる特徴点に対応付けられる場合、前処理済ミラー内画像4100には障害物が存在しないと推定する。
 マッチング部615は、地図データ4200内における障害物の有無及び位置に関する情報を、障害物に関する推定結果として出力する。
 図5の(a)~(d)に示す例では、マッチング部615は、前処理済ミラー内画像4100に含まれる障害物4101の位置を、地図データ4200内において障害物4301として示した位置に特定しており、マッチング部615は、地図データ4200内における障害物4301の位置を含む情報を、当該障害物に関する推定結果として出力する。
 なお、上述のマッチング処理により、ミラー内画像4012の歪みも解消される。換言すれば、上述のマッチング処理により、ミラー内画像4012の歪みに起因した障害物の位置のずれも補正される。ここで、当該ミラー内画像4012の歪みには、カーブミラー4010の鏡面が平面ではないことに起因した歪み、カーブミラー4010の鏡面のサイズに起因した歪み、及び、ミラー内画像4012がカーブミラー4010を正面視した画像ではないことに起因する歪み(換言すればカーブミラー4010の取り付け角に起因した歪み)等が含まれ得る。
 したがって、マッチング部615によるマッチング処理は、ミラー内画像4012から抽出された1又は複数の特徴点と、地図データ4200とを比較することによって、前記障害物の位置を補正する処理であると表現することもできる。
 (障害物検知処理の流れ)
 続いて、図6を参照して、障害物検知部610による障害物の有無及び位置の推定処理の流れについて説明する。図6は、障害物検知部610による障害物の有無及び位置の推定処理の流れを示すフローチャートである。
 (ステップS100)
 まず、ステップS100において、車両900に備えられたカメラ570が、前方を含む車両900の周囲を撮像する。撮像画像を示すデータはCAN370を介して障害物検知部610に供給される。
 (ステップS101)
 続いて、ステップS101において、ミラー内画像抽出部611が、撮像画像から、ミラー内画像を抽出する。ミラー内画像の抽出処理については上述したためここでは説明を省略する。
 (ステップS102)
 続いて、ステップS102において、ミラー内画像取得部612が、ステップS101において抽出されたミラー内画像を取得する。そして取得したミラー内画像を特徴点抽出部614に供給する。
 (ステップS103)
 続いて、ステップS103において、特徴点抽出部614が、ミラー内画像および地図データから、それぞれ1又は複数の特徴点を抽出する。特徴点の抽出処理については上述したためここでは説明を省略する。
 (ステップS104)
 続いて、ステップS104において、マッチング部615が、ミラー内画像から抽出した特徴点と、地図データの特徴点とをマッチングする。特徴点のマッチング処理については上述したためここでは説明を省略する。
 (ステップS105)
 続いて、ステップS105において、マッチング部615は、地図データ4200内における障害物の有無及び位置を推定する。具体的な障害物の有無及び位置の推定処理については上述したためここでは説明を省略する。
 (ステップS106)
 続いて、ステップS106において、マッチング部615は、ステップS106にて推定した障害物の有無及び位置に関する推定結果を、ステアリング制御部630、サスペンション制御部650、及び車速制御部670に供給する。
 障害物検知部610は、上述したステップS100~S105の各処理を複数回実行したうえで、推定結果を出力する構成としてもよい。換言すれば、障害物推定部613は、撮像時刻が互いに異なる複数のミラー内画像を参照して、前記障害物の位置を推定する構成としてもよいし、撮像位置が互いに異なる複数のミラー内画像を参照して、前記障害物の有無及び位置を推定する構成としてもよい。
 ステップS100~S105の各処理を複数回実行することにより、撮像場所が互いに異なる複数のミラー内画像を参照して障害物の位置を推定するので、障害物の位置の推定精度を高めることができる。
 また、ステップS100~S105の各処理を複数回実行することにより、撮像時刻が互いに異なる複数のミラー内画像を参照することができるので、障害物が移動中の物体である場合、当該障害物の移動方向、及び当該障害物の移動の速さを推定することもできる。障害物検知部610は、このようにして推定した障害物の移動方向、及び移動の速さも上記推定結果に含めて出力する。
 なお、上述の説明において、一枚のミラー内画像に、特徴点と障害物とが同時に映っている必要はない。車両900及び障害物の少なくとも何れかが移動している間、複数の撮像画像を撮像し、これら複数の撮像画像を参照した障害物の推定処理を行うことにより、カーブミラーに映り込み得るより広い範囲における特徴点をより多く抽出し、障害物についての推定処理に用いることができるので、推定精度の向上を図ることができる。
 また、障害物検知部610は、障害物の位置、障害物の移動方向、障害物の移動の速さを推定する処理において、操舵部材410の操舵に関する情報である操舵情報を更に参照して、障害物の位置、障害物の移動方向、障害物の移動の速さを推定する構成としてもよい。このような構成とすることにより、推定精度を更に向上させることができる。
 <推定結果に応じた車両制御>
 以下では、障害物検知部610による推定結果を参照したECU600による車両900の制御例1~2について説明する。ECU600は制御例1と制御例2とを組み合わせた制御を行ってもよい。
 (制御例1)
 ECU600は、障害物検知部610による推定結果が示す障害物の位置が危険な位置であると判定した場合、車両900を停車させる。より具体的には、車速制御部670は、障害物検知部610による推定結果を参照し、当該推定結果が示す障害物の位置が危険な位置であるか否かを判定する。危険な位置であると判定した場合、車速制御部670は、車速制御量を変更することにより車両900を停車させる。また、サスペンション制御部650は、車両900がより安定的に停車できるようサスペンション制御量を調整する。
 なお、車速制御部670は、車両900の現在位置を示す現在位置情報を更に参照して、車速制御量を変更してもよい。これにより、車両制御の精度を向上させることができる。
 (制御例2)
 ECU600は、障害物検知部610による推定結果が示す障害物の位置が危険な位置であると判定した場合、当該障害物を回避するよう車両900を制御する。より具体的には、ステアリング制御部630は、障害物検知部610による推定結果を参照し、当該推定結果が示す障害物の位置が危険な位置であるか否かを判定する。危険な位置であると判定した場合、ステアリング制御部630は、ステアリング制御量を変更することにより車両900が障害物を回避するよう制御する。また、また、サスペンション制御部650は、車両900がより安定的に障害物を回避できるようサスペンション制御量を調整する。
 なお、ステアリング制御部630は、車両900の現在位置を示す現在位置情報を更に参照して、ステアリング制御量を変更してもよい。これにより、車両制御の精度を向上させることができる。
 〔実施形態2〕
 以下、参照する図面を替えて、本発明の実施形態2について、詳細に説明する。以下の説明では、上記実施形態において既に説明した部材については同じ参照符号を付して説明を省略し、上記実施形態とは異なる点について説明を行う。
 図7は、本実施形態に係る車両システム(障害物検知システム)2000の要部構成を示す図である。車両システム2000は、車両900とサーバ1000とを有する。車両900は、車両900を制御するECU600aと、サーバ1000と車両900との間のデータのやり取りを行う送受信部910とを備えている。
 サーバ1000は、障害物検知部610を備えた制御部1200と、サーバ1000と車両900との間のデータのやり取りを行う送受信部1100とを備えている。本実施形態においては、サーバ1000が障害物検知部610を備え、実施形態1において説明したミラー内画像抽出処理、特徴点抽出処理、マッチング処理、並びに、障害物の有無及び位置の推定処理を行い、推定結果がサーバ1000から車両900に送信される構成である。
 図8は、本実施形態に係る車両システム2000による障害物検知のシーケンス図である。
 (ステップS110)
 実施形態1のステップS100と同様、ステップS110において、車両900に備えられたカメラ570が、前方を含む車両900の周囲を撮像する。撮像画像を示すデータはCAN370を介して送受信部910に供給される。
 (ステップS111)
 続いて、ステップS111において、送受信部910が、撮像画像を、サーバ1000の送受信部1100に送る。
 (ステップS112)
 続いて、ステップS112において、送受信部1100が、ステップS111において、送受信部910が送った撮像画像を受け取る。そして取得した撮像画像を障害物検知部610に供給する。
 (ステップS113)
 続いて、ステップS113において、障害物検知部610がミラー内画像抽出処理を行う。ミラー内画像抽出処理の具体的な内容は実施形態1と同様である。
 (ステップS114)
 続いて、ステップS114において、障害物検知部610がミラー内画像取得処理を行う。ミラー内画像取得処理の具体的な内容は実施形態1と同様である。
 (ステップS115)
 続いて、ステップS115において、障害物検知部610が特徴点抽出処理を行う。特徴点抽出処理の具体的な内容は実施形態1と同様である。
 (ステップS116)
 続いて、ステップS116において、障害物検知部610がマッチング処理を行う。マッチング処理の具体的な内容は実施形態1と同様である。
 (ステップS117)
 続いて、ステップS117において、障害物検知部610が障害物の有無及び位置の推定処理を行う。具体的な障害物の有無及び位置の推定処理は実施形態1と同様である。
 (ステップS118)
 続いて、ステップS118において、障害物検知部610のマッチング部615は、ステップS117にて推定した障害物の有無及び位置に関する推定結果を、送受信部1100に供給する。
 (ステップS119)
 続いて、ステップS119において、送受信部1100が、推定結果を車両900の送受信部910に送る。
 (ステップS120)
 続いて、ステップS120において、車両900の送受信部910が、推定結果を送受信部1100から受け取る。送受信部910は、推定結果をECU600aに供給する。
 (ステップS121)
 続いて、ステップS121において、ECU600aは、推定結果を参照して、実施形態1において説明したように推定結果に応じた車両制御を行う。
 本実施形態では、ミラー内画像抽出処理、特徴点抽出処理、マッチング処理、並びに、障害物の有無及び位置の推定処理がサーバ1000において行われるため、ECU600aを比較的簡易な構成によって実現できる。また、ECU600aが地図データを保持しなくてもよいのでECU600aにおけるメモリ負荷が低減される。
 〔実施形態3〕
 以下、参照する図面を替えて、本発明の実施形態3について、詳細に説明する。以下の説明では、上記実施形態において既に説明した部材については同じ参照符号を付して説明を省略し、上記実施形態とは異なる点について説明を行う。
 図9は、本実施形態に係る車両システム(障害物検知システム)3000の要部構成を示す図である。車両システム3000は、車両900とサーバ1000とを有する。車両900は、車両900を制御するECU600b及び送受信部910を備えており、ECU600bは、障害物検知部610a、ステアリング制御部630、サスペンション制御部650、及び車速制御部670を備えている。
 サーバ1000は、障害物検知部610bを備えた制御部1200bと、送受信部1100とを備えている。
 本実施形態においては、車両900及びサーバ1000が、それぞれ障害物検知部610a及び610bを備えており、実施形態1において説明した障害物検知部610による各処理が、本実施形態では、障害物検知部610a及び610bによって分散処理される。
 一例として、以下では、車両900が、実施形態1において説明したミラー内画像抽出処理、及び特徴点抽出処理を行い、特徴点のデータをサーバ1000に送信し、サーバ1000が、受け取った特徴点のデータを用いて、実施形態1において説明したマッチング処理、及び障害物の有無及び位置の推定処理を行い、推定結果を車両900に送信する構成について説明する。
 図10は、本実施形態に係る車両システム3000による障害物検知のシーケンス図である。
 (ステップS130)
 まず、ステップS130において、車両900に備えられたカメラ570が、前方を含む車両900の周囲を撮像する。撮像画像を示すデータはCAN370を介して障害物検知部610aに供給される。
 (ステップS131)
 続いて、ステップS131において、障害物検知部610aがミラー内画像抽出処理を行う。ミラー内画像抽出処理の具体的な内容は実施形態1と同様である。
 (ステップS132)
 続いて、ステップS132において、障害物検知部610aがミラー内画像取得処理を行う。ミラー内画像取得処理の具体的な内容は実施形態1と同様である。
 (ステップS133)
 続いて、ステップS133において、障害物検知部610aが、ミラー内画像から1又は複数の特徴点を抽出する。特徴点の抽出処理については上述したためここでは説明を省略する。障害物検知部610aは、抽出した特徴点を示すデータを、送受信部910に供給する。
 (ステップS134)
 続いて、ステップS134において、送受信部910は、サーバ1000の送受信部1100に、ステップ133にて抽出した特徴点を示すデータを送る。
 (ステップS135)
 続いて、ステップS135において、送受信部1100は、送受信部910から供給された特徴点を示すデータを受け取る。送受信部1100は、特徴点を示すデータを、障害物検知部610bに供給する。
 (ステップS136)
 続いて、ステップS136において、障害物検知部610bがマッチング処理を行う。ここで、マッチング処理に用いられる地図データの特徴点は、障害物検知部610aによって抽出されたものでもよいし、障害物検知部610bによって抽出されたものでもよい。また、マッチング処理の具体的な内容は実施形態1と同様である。
 (ステップS137)
 続いて、ステップS137において、障害物検知部610bが障害物の有無及び位置の推定処理を行う。障害物の有無及び位置の推定処理の具体的な内容は実施形態1と同様である。
 (ステップS138)
 続いて、ステップS138において、障害物検知部610bは、ステップS137にて推定した障害物の有無及び位置に関する推定結果を、送受信部1100に供給する。
 (ステップS139)
 続いて、ステップS139において、送受信部1100は、推定結果を車両900が備える送受信部910に送る。
 (ステップS140)
 続いて、ステップS140において、送受信部910は、送受信部1100から、推定結果を受け取る。送受信部910は、推定結果をECU600bに供給する。
 (ステップS141)
 続いて、ステップS141において、ECU600bは、推定結果を参照して、実施形態1において説明したように推定結果に応じた車両制御を行う。
 本実施形態では、マッチング処理、並びに、障害物の有無及び位置の推定処理がサーバ1000において行われるため、ECU600bを比較的簡易な構成によって実現できる。また、ECU600bが地図データを保持することは必須ではないのでECU600bにおけるメモリ負荷を図ることもできる。
 なお、本実施形態において説明した分散処理はあくまで一例であり、本明細書に記載の発明を限定するものではない。例えば、ミラー内画像取得部612、障害物推定部613、及び特徴点抽出部614の何れか又はそれらの組み合わせを、車両900側に設ける構成とし、ミラー内画像取得処理、障害物検知処理、及び特徴点抽出処理の何れか又はそれらの組み合わせを車両900側で行う構成としてもよい。
 〔実施形態4〕
 上述の実施形態1~3では、車両900において撮像された撮像画像を参照した障害物に関する推定結果を、車両900で用いる構成を例に挙げたが、これは本明細書に記載の発明を限定するものではない。
 例えば、実施形態1~3は、車両900において撮像された撮像画像を参照した障害物に関する推定結果を、他の車両に供給する構成としてもよい。このような構成は、例えば、複数の車両と通信可能に構成されているサーバを用いることによって可能となる。より具体的な例を挙げれば、実施形態2において説明したサーバ1000を、車両900以外の1又は複数の車両とも通信可能に構成しておき、車両900にて撮像された撮像画像を参照してECU600にて推定した障害物に関する推定結果(障害物の位置に関する情報)を記録し、記録した推定結果を車両900以外の1又は複数の車両に送信する構成としてもよい。また、推定結果を受信した車両は、当該推定結果に応じた車両制御を行うように構成されていてもよいし、推定結果を受信した車両が、当該推定結果を参照して当該障害物の位置を推定し、当該推定結果に応じて車両制御を行うように構成されていてもよい。
 このように、推定結果を複数の車両で共有することにより、推定結果をより有効に活用することができる。
 〔ソフトウェアによる実現例〕
 ECU600、600a、600b、制御部1200、1200bとして記載した制御ブロック(特に、障害物検知部610、610a、610b、ステアリング制御部630、サスペンション制御部650、車速制御部670)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
 後者の場合、ECU600、600a、600b、制御部1200、1200bは、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
 本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
 600 ECU(制御部)
 610 障害物検知部
 612 ミラー内画像取得部(取得部)
 613 障害物推定部(推定部)
 630 ステアリング制御部
 650 サスペンション制御部
 670 車速制御部
 900 車両

Claims (12)

  1.  カーブミラーに映ったミラー内画像を取得する取得部と、
     前記ミラー内画像を参照して、障害物の位置を推定する推定部と、
    を備えていることを特徴とする障害物検知装置。
  2.  前記推定部は、前記ミラー内画像から抽出された1又は複数の特徴点と、地図データとを比較することによって、前記障害物の位置を補正する請求項1に記載の障害物検知装置。
  3.  前記推定部は、複数の前記特徴点を用いて、前記障害物の位置を補正する請求項2に記載の障害物検知装置。
  4.  前記推定部は、撮像時刻が互いに異なる、複数の前記ミラー内画像を参照して、前記障害物の位置を推定する請求項1から3の何れか1項に記載の障害物検知装置。
  5.  前記推定部は、前記障害物の移動速度及び移動方向の少なくとも何れかをも推定する請求項4に記載の障害物検知装置。
  6.  前記推定部は、撮像位置が互いに異なる、複数の前記ミラー内画像を参照して、前記障害物の位置を推定する請求項1から5の何れか1項に記載の障害物検知装置。
  7.  前記推定部は、他の車両が備える障害物検知装置から取得した前記障害物の位置に関する情報を参照して、前記障害物の位置を推定する請求項1から6の何れか1項に記載の障害物検知装置。
  8.  請求項1から7の何れか1項に記載の障害物検知装置を備えた車両。
  9.  制御部を備え、
     前記制御部は、前記障害物が危険な位置にあると判定した場合には、当該車両を停車させる請求項8に記載の車両。
  10.  制御部を備え、
     前記制御部は、前記障害物が危険な位置にあると判定した場合には、前記障害物を回避するように当該車両を制御する請求項8に記載の車両。
  11.  カーブミラーに映ったミラー内画像を取得する取得部と、
     前記ミラー内画像から1又は複数の特徴点を抽出する抽出部と、
     前記抽出部によって抽出された1又は複数の特徴点と、地図データとを比較することによって、障害物の位置を推定する推定部と、
    を備えている障害物検知システム。
  12.  複数の車両と通信可能なサーバを備え、
     前記サーバは、複数の車両から得られた前記障害物の位置に関する情報を記録し、複数の車両に対して、前記障害物の位置に関する情報を送信する請求項11に記載の障害物検知システム。
PCT/JP2017/024524 2017-06-22 2017-07-04 障害物検知装置、車両、および、障害物検知システム WO2018235304A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201780090795.1A CN110622229A (zh) 2017-06-22 2017-07-04 障碍物探测装置、车辆、以及障碍物探测系统
DE112017007672.2T DE112017007672T5 (de) 2017-06-22 2017-07-04 Hinderniserkennungsvorrichtung, Fahrzeug und Hinderniserfassungssystem
US16/681,507 US20200079367A1 (en) 2017-06-22 2019-11-12 Obstacle sensing device, vehicle, and obstacle sensing system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-122578 2017-06-22
JP2017122578A JP6271068B1 (ja) 2017-06-22 2017-06-22 障害物検知装置、車両、および、障害物検知システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/681,507 Continuation US20200079367A1 (en) 2017-06-22 2019-11-12 Obstacle sensing device, vehicle, and obstacle sensing system

Publications (1)

Publication Number Publication Date
WO2018235304A1 true WO2018235304A1 (ja) 2018-12-27

Family

ID=61074839

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/024524 WO2018235304A1 (ja) 2017-06-22 2017-07-04 障害物検知装置、車両、および、障害物検知システム

Country Status (5)

Country Link
US (1) US20200079367A1 (ja)
JP (1) JP6271068B1 (ja)
CN (1) CN110622229A (ja)
DE (1) DE112017007672T5 (ja)
WO (1) WO2018235304A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110379178A (zh) * 2019-07-25 2019-10-25 电子科技大学 基于毫米波雷达成像的无人驾驶汽车智能泊车方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7181589B2 (ja) * 2018-11-26 2022-12-01 国立大学法人 筑波大学 映像処理システム及び映像処理装置
KR20200119419A (ko) * 2019-03-29 2020-10-20 삼성전자주식회사 차량의 주행을 보조하는 전자 장치 및 방법
CN112506189A (zh) * 2020-11-19 2021-03-16 深圳优地科技有限公司 一种控制机器人移动的方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0757182A (ja) * 1993-08-19 1995-03-03 Mazda Motor Corp 車両の安全装置
JP2009211624A (ja) * 2008-03-06 2009-09-17 Aisin Aw Co Ltd 運転支援装置、運転支援方法及びコンピュータプログラム
JP2014050100A (ja) * 2012-09-01 2014-03-17 Honda Motor Co Ltd 車両周辺監視装置
JP2016130896A (ja) * 2015-01-13 2016-07-21 株式会社デンソー 障害物識別装置、及び障害物識別システム
JP2017102861A (ja) * 2015-12-04 2017-06-08 トヨタ自動車株式会社 物体認識装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3645196B2 (ja) * 2001-02-09 2005-05-11 松下電器産業株式会社 画像合成装置
JP2006199055A (ja) * 2005-01-18 2006-08-03 Advics:Kk 車両用走行支援装置
JP4321543B2 (ja) * 2006-04-12 2009-08-26 トヨタ自動車株式会社 車両周辺監視装置
WO2009107199A1 (ja) * 2008-02-26 2009-09-03 富士通株式会社 画像処理装置、画像処理方法、画像処理プログラム及び車載端末
JP2010122821A (ja) 2008-11-18 2010-06-03 Fujitsu Ten Ltd 車両運転支援装置
JP2013200819A (ja) * 2012-03-26 2013-10-03 Hitachi Consumer Electronics Co Ltd 画像受信表示装置
JP2015138384A (ja) * 2014-01-22 2015-07-30 株式会社デンソー 接近車両検出システム
CN204440666U (zh) * 2015-03-09 2015-07-01 浙江海洋学院 一种路口转角处具有提示功能的探测装置
US10417504B2 (en) * 2015-09-23 2019-09-17 Intel Corporation Smart mirror mechanism
US9881219B2 (en) * 2015-10-07 2018-01-30 Ford Global Technologies, Llc Self-recognition of autonomous vehicles in mirrored or reflective surfaces

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0757182A (ja) * 1993-08-19 1995-03-03 Mazda Motor Corp 車両の安全装置
JP2009211624A (ja) * 2008-03-06 2009-09-17 Aisin Aw Co Ltd 運転支援装置、運転支援方法及びコンピュータプログラム
JP2014050100A (ja) * 2012-09-01 2014-03-17 Honda Motor Co Ltd 車両周辺監視装置
JP2016130896A (ja) * 2015-01-13 2016-07-21 株式会社デンソー 障害物識別装置、及び障害物識別システム
JP2017102861A (ja) * 2015-12-04 2017-06-08 トヨタ自動車株式会社 物体認識装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110379178A (zh) * 2019-07-25 2019-10-25 电子科技大学 基于毫米波雷达成像的无人驾驶汽车智能泊车方法

Also Published As

Publication number Publication date
JP2019008485A (ja) 2019-01-17
JP6271068B1 (ja) 2018-01-31
DE112017007672T5 (de) 2020-06-10
CN110622229A (zh) 2019-12-27
US20200079367A1 (en) 2020-03-12

Similar Documents

Publication Publication Date Title
JP6271068B1 (ja) 障害物検知装置、車両、および、障害物検知システム
CN106428209B (zh) 转向辅助装置
US20160107645A1 (en) Departure prevention support apparatus
US9610975B1 (en) Hitch angle detection for trailer backup assist system
CN103635947B (zh) 车辆驾驶辅助装置
US9798953B2 (en) Template matching solution for locating trailer hitch point
US8280586B2 (en) Determination of the actual yaw angle and the actual slip angle of a land vehicle
JP5255988B2 (ja) 操舵支援装置
CN106845332B (zh) 利用轮胎旁溅的基于视觉的潮湿路面状况检测
CN107093180B (zh) 使用轮胎向后飞溅的基于视觉的潮湿路面状况检测
US8520954B2 (en) Apparatus for detecting lane-marking on road
US10430672B2 (en) Hitch assist system with trailer height estimation and hitch coupler identification
CN111247051B (zh) 控制装置和转向装置
CN111417994A (zh) 控制摩托车的行为的控制装置和控制方法
US10363874B2 (en) Hitch assist system with hitch coupler identification feature and hitch coupler height estimation
CN112770959B (zh) 转向控制装置、转向控制方法以及转向控制系统
US11667277B2 (en) Driving assistance control apparatus and method for vehicle, and driving assistance system for vehicle
JP5386132B2 (ja) 操舵支援装置
US11295429B2 (en) Imaging abnormality diagnosis device
US8364341B2 (en) Method for controlling a driver assistance system
US11654961B2 (en) Steering assistance control apparatus
JP7265372B2 (ja) ステアリング制御装置、ステアリング装置、及び車両
US11679767B2 (en) Method and device for vehicle control
US11772648B2 (en) Lane keep assistance based on rate of departure
JP5376040B2 (ja) 路面摩擦係数推定装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17914216

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17914216

Country of ref document: EP

Kind code of ref document: A1