WO2017056385A1 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
WO2017056385A1
WO2017056385A1 PCT/JP2016/003885 JP2016003885W WO2017056385A1 WO 2017056385 A1 WO2017056385 A1 WO 2017056385A1 JP 2016003885 W JP2016003885 W JP 2016003885W WO 2017056385 A1 WO2017056385 A1 WO 2017056385A1
Authority
WO
WIPO (PCT)
Prior art keywords
information processing
possibility
target object
road surface
processing apparatus
Prior art date
Application number
PCT/JP2016/003885
Other languages
English (en)
French (fr)
Inventor
卓 青木
健人 赤間
小柳津 秀紀
康孝 平澤
雄飛 近藤
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP16850568.3A priority Critical patent/EP3358547A4/en
Priority to US15/760,412 priority patent/US10692379B2/en
Publication of WO2017056385A1 publication Critical patent/WO2017056385A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • B60W40/064Degree of grip
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/40Coefficient of friction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4026Cycles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Definitions

  • the present technology relates to an information processing apparatus, an information processing method, and a program for alerting a driver when driving a car, for example.
  • Patent Document 1 it is determined whether a bicycle traveling in front of the host vehicle is likely to fall over based on weather information and road information read from a database. When the bicycle in front is likely to fall down, a warning to that effect is given to the driver (paragraphs [0043]-[0049] etc. in the specification of Patent Document 1).
  • Patent Document 2 describes a determination device that can determine a road surface state (dry road / snow road / wet road, etc.) based on reflected light from a road surface detected by a road surface sensor.
  • the road surface state is determined based on the signal intensity of the reflected light in addition to the reflection intensity of the horizontal polarization component and the vertical polarization component of the reflected light. This makes it possible to accurately determine the road surface condition and notify the driver (paragraphs [0007] [0024]-[0032], etc., in the specification of Patent Document 2).
  • JP 2009-122854 A Japanese Patent Laid-Open No. 11-230898
  • an object of the present technology is to provide an information processing apparatus, an information processing method, and a program capable of providing effective information and calling attention.
  • an information processing apparatus includes a detection unit, an estimation unit, and a determination unit.
  • the detection unit detects a target object from the input image.
  • the estimation unit estimates a posture of the detected target object.
  • the determination unit determines the possibility that the target object slips based on the estimated posture.
  • This information processing apparatus can determine with high accuracy the possibility that the target object will slide based on the estimated posture. As a result, it is possible to alert the driver by providing effective information for preventing an accident or the like to the driver.
  • the detection unit may be able to detect a pedestrian from the input image.
  • the determination unit may determine the possibility of the pedestrian slipping based on the estimated posture of the pedestrian. This makes it possible to prevent, for example, a contact accident with a pedestrian who has slipped and falls.
  • the detection unit may be able to detect a motorcycle and its driver from the input image.
  • the estimation unit may estimate at least the driver's posture.
  • the determination unit may determine the possibility that the two-wheeled vehicle slips based on the estimated posture of the driver. As a result, it is possible to prevent, for example, a contact accident with a motorcycle that has slipped and falls and its driver.
  • the estimation unit may estimate a posture of the motorcycle.
  • the determination unit may determine the possibility that the two-wheeled vehicle slips based on the estimated postures of the two-wheeled vehicle and the driver. Thereby, the possibility that the two-wheeled vehicle slips can be determined with high accuracy.
  • the determination unit calculates a feature point related to the target object based on the estimated posture and a contact point between the target object and a road surface of the straight line connecting the feature point and the contact point.
  • the possibility of sliding may be determined based on the angle with respect to. As a result, the possibility that the target object slips can be determined with high accuracy.
  • the feature point may be a barycentric point of the target object. By using the barycentric point, the possibility of the target object slipping can be determined with high accuracy.
  • the detection unit may be able to detect a motorcycle and its driver from the input image.
  • the determination unit may calculate the center of gravity of the driver or the center of gravity of the two-wheeled vehicle and the driver as the feature point.
  • the information processing apparatus may further include an acquisition unit that acquires road surface information related to a road surface state.
  • the determination unit may determine the possibility of sliding based on the acquired road surface information. As a result, the possibility that the target object slips can be determined with high accuracy.
  • the determination unit may determine the slipperiness of a road surface based on the acquired road surface information, and may determine the possibility of slipping based on the determined slipperiness. As a result, the possibility that the target object slips can be determined with high accuracy.
  • the road surface information may include an inclination angle of the road surface.
  • the determination unit may calculate an angle of the straight line with respect to the road surface based on an inclination angle of the road surface.
  • the estimation unit may estimate a skeleton of the detected target object. Thereby, the posture of the target object can be estimated with high accuracy.
  • the information processing device is mounted on a mobile device, and further generates risk avoidance information for avoiding a risk related to the operation of the mobile device based on the determined possibility of slipping. May be provided. This makes it possible to alert the driver of the mobile device and prevent contact accidents with pedestrians and the like.
  • the output unit may output an image that can identify the target object that is determined to have a high possibility of slipping. Accordingly, for example, it is possible to pay attention to a pedestrian or the like who slips and falls, and a contact accident or the like can be prevented.
  • the output unit may output an image including a dangerous area set for the target object determined to have a high possibility of slipping. Thereby, for example, the driver can easily grasp a safe route or the like.
  • An information processing method is an information processing method executed by a computer, and includes detecting a target object from an input image.
  • the detected posture of the target object is estimated.
  • the possibility of the target object slipping is determined based on the estimated posture.
  • a program causes a computer to execute the following steps. Detecting a target object from the input image; Estimating the posture of the detected target object; Determining a possibility that the target object will slide based on the estimated posture;
  • FIG. 1 is an external view illustrating a configuration example of an automobile as an example of a mobile device on which a danger avoidance device according to a first embodiment is mounted. It is a block diagram which shows the structural example of the motor vehicle shown in FIG. It is a block diagram which shows the functional structural example of a danger avoidance apparatus. It is a figure for demonstrating an example of skeleton estimation. It is a flowchart which shows an example of determination operation
  • FIG. 1 is an external view illustrating a configuration example of an automobile as an example of a mobile device on which the danger avoidance device according to the first embodiment of the present technology is mounted.
  • FIG. 2 is a block diagram thereof.
  • the automobile 100 includes a distance sensor 10, a front camera 11, and an in-vehicle shooting camera 12.
  • the automobile 100 includes a steering device 15, a braking device 16, a vehicle body acceleration device 17, a steering angle sensor 20, a wheel speed sensor 21, a brake switch 22, an accelerator sensor 23, a control unit 30, and a display device 35.
  • a danger avoidance device 40 is included in the automobile 100.
  • the distance sensor 10 is installed, for example, in the approximate center of the front portion of the automobile 100, and detects information related to the distance between the automobile 100 and an object existing in the moving direction thereof.
  • the distance sensor 10 is composed of various sensors using, for example, a millimeter wave radar or an infrared laser.
  • the front camera 11 is installed, for example, in the cabin or roof portion of the automobile 100, and photographs the front view of the automobile 100 at a predetermined frame rate. A photographed image photographed by the front camera 11 is output to the danger avoidance device 40 via the control unit 30, and the possibility of slipping of the target object existing in front of the host vehicle is determined.
  • the front camera 11 is composed of an image sensor such as a CMOS or a CCD, for example.
  • a pedestrian 2, a bicycle 3 and a driver 4 thereof will be described as examples of the target object 1.
  • the present technology can also be applied to drivers of other two-wheeled vehicles such as motorcycles and automatic tricycles.
  • the in-vehicle camera 12 is installed in the cabin of the automobile 100, and images the interior of the cabin at a predetermined frame rate. For example, the presence / absence of a passenger and the boarding position of the passenger can be determined based on the image captured by the in-vehicle camera 12.
  • the distance sensor 10, the front camera 11, and the in-vehicle camera 12 are configured so that their outputs are supplied to the danger avoidance device 40 instead of being supplied to the control unit 30 as shown in FIG. 2. Also good.
  • Steering device 15 is typically composed of a power steering device, and transmits the steering operation of the driver to the steering wheel.
  • the braking device 16 includes a brake operating device attached to each wheel and a hydraulic circuit for operating them, and controls the braking force of each wheel.
  • the vehicle body acceleration device 17 includes a throttle valve, a fuel injection device, and the like, and controls the rotational acceleration of the drive wheels.
  • the control unit 30 controls the operation of each mechanism mounted on the automobile 100.
  • the control unit 30 controls braking, steering, acceleration, and the like of the automobile 100 based on the operation of the steering wheel and the accelerator by the driver.
  • the control unit 30 detects the steering amount and the steering direction based on the output of the steering angle sensor 20 that detects the driver's steering operation, and controls the steering device 15.
  • control unit 30 calculates the vehicle body speed of the vehicle based on the output of the wheel speed sensor 21 installed on all or some of the wheels, and the braking device 16 so as to prevent the wheels from being locked (slip). To control. Furthermore, the control unit 30 controls the vehicle body acceleration device 17 based on the output of the accelerator sensor 23 that detects the driver's accelerator pedal operation amount.
  • the brake switch 22 is for detecting a driver's brake operation (depressing the brake pedal) and is referred to during ABS control or the like.
  • the control unit 30 may coordinately control a plurality of these units as well as individually controlling the steering device 15, the braking device 16, and the vehicle body acceleration device 17. As a result, the vehicle 100 can be controlled to a desired posture during steering (turning), braking, acceleration, and the like.
  • control unit 30 is configured to be able to control the steering device 15, the braking device 16, and the vehicle body acceleration device 17 irrespective of the various operations of the driver described above.
  • the automobile 100 may have an automatic driving function, and in this case, the control unit 30 mainly controls each device based on the output of each sensor or camera.
  • the display device 35 has a display unit using, for example, liquid crystal or EL (Electro-Luminescence), and displays map information, navigation information, and the like on the display unit.
  • the display device 35 displays a danger avoidance image output from the danger avoidance device 35.
  • a car navigation device is typically used.
  • an apparatus that displays an AR (Augmented Reality) image at a predetermined position such as a windshield may be used.
  • the danger avoidance device 40 detects the target object 1 from the image photographed by the front camera 11 and calculates the possibility that the target object 1 slides on the road surface, as will be described in detail later.
  • the possibility that the target object 1 slides is a possibility that a portion in contact with the road surface of the target object 1 will slide along the road surface. That is, the danger avoidance device 40 can calculate the possibility that the pedestrian 2 will slide his / her foot and the possibility that the wheel of the bicycle 3 will slip.
  • the danger avoidance device 40 corresponds to the information processing device according to the present embodiment, and includes hardware necessary for a computer such as a CPU, a RAM, and a ROM.
  • the risk avoiding method (information processing method) according to the present technology is executed when the CPU loads a program according to the present technology pre-recorded in the ROM to the RAM and executes the program.
  • the specific configuration of the danger avoidance device 40 is not limited, and a device such as PLD (Programmable Logic Device) such as FPGA (Field Programmable Gate Array) or other ASIC (Application Specific Integrated Circuit) may be used. Further, the danger avoidance device 40 may be configured as a part of the control unit 30.
  • PLD Programmable Logic Device
  • FPGA Field Programmable Gate Array
  • ASIC Application Specific Integrated Circuit
  • FIG. 3 is a block diagram illustrating a functional configuration example of the danger avoidance device 40.
  • the danger avoidance device 40 includes an image acquisition unit 41, an object detection unit 42, a posture estimation unit 43, a possibility determination unit 44, and a warning output unit 45.
  • each functional block is configured by the CPU of the danger avoidance device 40 executing a predetermined program.
  • the image acquisition unit 41 acquires an image captured by the front camera 11 (hereinafter, this image is referred to as an input image).
  • the object detection unit 42 detects the pedestrian 2, the bicycle 3, and the driver 4 from the input image.
  • the detection of the pedestrian 2 or the bicycle 3 may be performed by any image analysis technique such as template matching or image scanning.
  • the posture estimation unit 43 estimates the detected postures of the pedestrian 2 and the driver 4.
  • the posture estimation unit 43 includes a parts estimation unit 46 and a skeleton detection unit 47. That is, in this embodiment, the posture is determined based on the positions of the skeletons of the pedestrian 2 and the driver 4.
  • FIG. 4 is a diagram for explaining an example of skeleton estimation.
  • the skeletons of the pedestrian 2 and the driver 4 are represented by the white circle 50 in FIG. 4, the line 51 connecting the white circle 50, and the head 52.
  • the center of gravity 55 of each of the pedestrian 2 and the driver 4 and the grounding point 56 of the pedestrian 2 and the bicycle 3 with respect to the road surface R are illustrated. These points are used in determining the possibility of slipping.
  • Skeletal estimation is also called bone estimation or skeleton estimation, and can be performed using a well-known technique. An example of this will be described with reference to the pedestrian 2.
  • a model of a skeleton to be calculated that is, a model such as the position and number of white circles 50 shown in FIG. 4 and a line 51 connecting them is set in advance.
  • the model of the skeleton is typically set according to the actual skeleton of the human body.For example, a plurality of main parts such as the head, thigh, and waist are set, and white circles are set at the center of gravity of the part and joints between the parts. 50 is set. A line 51 connecting the white circles 50 is set based on the position of the part.
  • the part estimation unit 46 calculates the position of each part set above for the pedestrian 2 in the input image based on the image (partial image) of the pedestrian 2 in the input image. For example, an image of each part in various postures is stored as a template image. By matching the template image and the image of the pedestrian 2, the position of each part of the pedestrian 2 can be calculated.
  • the white circle 50, the line 51, and the head 52 are set by the skeleton detection unit 47 based on the calculated position of each part, and the skeleton of the pedestrian 2 is detected.
  • a depth sensor is mounted on the front part of the automobile 100, and the position of each part is estimated using parameters obtained by machine learning based on the depth image (distance image) of the pedestrian 2 obtained by the depth sensor. It is also possible. For example, one pixel in the image of the pedestrian 2 is selected, and depth information (distance information) of a predetermined area including the pixel is acquired. Based on this depth information, it is determined which part contains the selected pixel by using the above parameters. The position of each part of the pedestrian 2 can be calculated by executing the same process for each pixel in the image of the pedestrian 2. Thereby, the skeleton of the pedestrian 2 is estimated.
  • RGB information of the pixel may be used. That is, based on the RGB information around the selected pixel, it is possible to determine a part including the selected pixel using parameters obtained by machine learning.
  • the skeleton estimation may be executed by any technique such as a method using a stereo camera. The skeleton of the driver 4 of the bicycle 3 can be estimated in the same manner.
  • the possibility determination unit 44 determines the possibility of the pedestrian 2 and the bicycle 3 slipping from the estimated posture, that is, the skeleton shown in FIG.
  • the possibility of slipping is determined based on the posture of the driver 4.
  • the bicycle 3 and the driver 4 as the target object 1 may be described by describing only one of the bicycle 3 and the driver 4.
  • the posture of the bicycle 3 and its driving 4 may be described as the posture of the bicycle 3.
  • the warning output unit 45 outputs danger avoidance information for avoiding dangers related to the driving of the automobile 100 based on the determined possibility of slipping. Typically, when the pedestrian 2 and the bicycle 3 slip and fall, information for avoiding that the automobile 100 contacts the pedestrian 2, the bicycle 3 and the driver 4 is output. .
  • the danger avoidance information is output by, for example, an image or sound.
  • FIG. 5 is a flowchart illustrating an example of a determination operation for the possibility of slipping.
  • the pedestrian 2 and the bicycle 3 are detected by the object detection unit 42 (step 101).
  • the posture estimation unit 43 estimates the postures of the pedestrian 2 and the bicycle 3 (step 102).
  • the possibility determination unit 44 determines the possibility of slipping based on the estimated posture.
  • the possibility of slipping is determined by paying attention to the lateral force acting on the ground contact point 56.
  • the road surface R is regarded as spreading in the horizontal direction. Accordingly, the lateral force acting on the ground contact point 56 is a horizontal force.
  • FIG. 6 is a diagram for explaining an example of a method of determining the possibility of slipping.
  • the centroid point 55 of the pedestrian 2 is calculated as a feature point related to the pedestrian 2 (step 103).
  • the coordinates (x ave , y ave ) of the barycentric point 55 are calculated by the following equations.
  • N Number of set parts
  • Wi Mass of each part (xi, yi): Position coordinates of each part
  • the mass Wi and the total mass W of each part are set in advance. For example, the average mass of each part of the human body is used. Note that the mass of each part may be stored separately for males, females, adults, children, and the like. For example, the type of the pedestrian 2 is determined from the input image, and the mass of each corresponding part is read out.
  • the position coordinates of each part are calculated based on the position of the part estimated by posture estimation, and typically the position of the center of gravity of each part is used.
  • the position coordinates of each part may be calculated based on the position coordinates of the white circle 51 representing the skeleton.
  • the center point of the white circle 51 of the joint part at both ends of the part may be used as the position coordinate of the part.
  • a contact point with the road surface R of the pedestrian 2, that is, a grounding point 56 (coordinates (x ground , y ground )) is calculated (step 104).
  • the lowest point of the estimated skeleton is calculated as the contact point 56.
  • the determination of the possibility of slipping is executed for the pedestrian 2 having only one foot on the road surface R.
  • the center point of each ground contact point of both feet may be anew as the ground contact point 56 of the pedestrian 2, and the possibility of slipping when standing on both feet may be determined.
  • the lowest point of the wheel of the bicycle 3 is the ground point 56 (see FIG. 4).
  • the lowest point can be calculated based on, for example, an image of the bicycle 3 detected from the input image.
  • the horizontal direction (x-axis direction) force F hor and the vertical direction (Y-axis direction) force F vir acting on the ground contact point 56 are calculated by the following equations.
  • the angle ⁇ is calculated by the following equation using the coordinates (x ave , y ave ) of the center point 55 and the coordinates (x ground , y ground ) of the ground point 56.
  • F hor / F vir is calculated as a force ratio as shown in the following equation (step 105).
  • the force ratio is larger than the threshold (Yes in Step 106)
  • the force ratio is smaller than the threshold value (No in Step 106)
  • the threshold value is set by verifying an actually slippery posture in various road surface conditions such as a dry road, a snowy road, and a wet road. An average value of values calculated in each road surface state may be used, or a calculated value in the most slippery road surface state may be used.
  • a static friction coefficient or a dynamic friction coefficient in each road surface state may be referred to.
  • the threshold value calculation method may be arbitrarily set.
  • the threshold value can be calculated by machine learning or the like based on data obtained by experiments or simulations.
  • different threshold values may be set depending on whether the determination target of the possibility of slipping is a pedestrian or a bicycle. For example, different threshold values may be calculated by paying attention to a difference in average moving speed, a difference in height of the center of gravity, a difference in total weight, and the like.
  • the possibility of slipping can be determined. That is, the possibility of sliding based on the angle ⁇ with respect to the vertical direction of the straight line L connecting the center of gravity 55 and the ground contact point 56 can be determined.
  • a step-by-step evaluation may be performed on the possibility of sliding. That is, the possibility of slipping may be determined in multiple stages, such as very low possibility, low, normal, high, and very high.
  • FIG. 7 is a diagram illustrating an example of a danger avoidance image serving as danger avoidance information output by the warning output unit 45.
  • the danger avoidance image 60 is an image that can identify the pedestrian 2 and the bicycle 3 that are determined to have at least a high possibility of slipping.
  • the type of each target object 1 (pedestrian 2 / bicycle 3), the possibility of sliding, the danger area 61 set for each target object 1, and the danger avoidance route 62 are displayed.
  • the dangerous area 61 is an area where the pedestrian 2 or the like may move when the pedestrian 2 or the bicycle 3 slips and falls.
  • the size of the dangerous area 61 is set in advance for each pedestrian 2 and bicycle 3, and the dangerous area 61 is set around the pedestrian 2 and the like.
  • the dangerous area 61 may be dynamically set based on the moving direction and moving speed of the pedestrian 2 and the bicycle 3.
  • the danger area 61 is displayed for the pedestrian 2 who is less likely to slip, but the danger area 61 may be displayed only for the target object 1 that is highly likely to slip.
  • the danger avoidance route 62 is an image showing a route for avoiding the dangerous area 61 set for each target object 1.
  • the predicted route of the host vehicle is calculated from the current traveling operation of the host vehicle, and the danger avoidance route 62 is calculated based on the predicted route.
  • the danger avoidance route 62 may be calculated based on a route set in advance based on navigation information or the like.
  • road information, map information, and the like may be used as appropriate.
  • the driver of the automobile 100 can be alerted to the pedestrian 2 and the like who are likely to slip and fall down. It is possible to prevent contact accidents and the like. Further, the danger area 61 and the danger avoidance route 62 are displayed, so that the driver can easily grasp the safe route and the like. Note that the possibility of slipping of each target object 1, the danger avoidance route 62, and the like may be notified to the driver by voice.
  • the possibility that the pedestrian 2 and the bicycle 3 will slide can be determined with high accuracy based on the estimated posture. Accordingly, it is possible to alert the driver of the automobile 100 by providing effective danger avoidance information for preventing an accident or the like. As a result, it is possible to prevent a contact accident with the pedestrian 2 and the driver 4 of the bicycle 3 who have slipped and fallen.
  • the posture of the target object not only the posture of the target object but also road surface information related to the road surface state is used to determine the possibility of the target object slipping.
  • the road surface information is acquired from a road surface sensor installed in an automobile on which the danger avoidance device is mounted.
  • the road surface sensor is installed, for example, below the front part of an automobile.
  • a polarization camera is used as the road surface sensor, and a horizontal polarization image and a vertical polarization image of the road surface are generated.
  • the generated horizontal polarization image and vertical polarization image are output to the danger avoidance device, and the road surface state is detected based on the intensity of each polarization image.
  • a dry road is detected as a slippery road surface state.
  • wet roads and snow roads are detected as slippery road surface conditions. That is, in this embodiment, three types of road surface conditions can be detected, and when any road surface state is not detected, it is determined that the road surface state is unknown.
  • the kind of road surface state which can be detected is not limited, For example, a frozen state etc. may be detected. Alternatively, a substance (material, material) constituting the road surface such as asphalt or soil may be detected.
  • the method for detecting the road surface state is not limited.
  • the road surface state may be detected based on color information of a captured image obtained by photographing the road surface.
  • a depth sensor, a stereo camera, etc. may be used.
  • FIG. 8 is a block diagram showing a functional configuration example of the danger avoidance device.
  • FIG. 9 is a flowchart illustrating an example of an operation for determining the possibility of slipping.
  • the danger avoidance device 240 includes an attitude determination unit 246, a polarization image acquisition unit 247, a road surface state detection unit 248, and a road surface determination unit 249.
  • the posture determination unit 246 determines whether or not the target object has a slippery posture (step 201). This determination is performed based on the estimated posture of the target object. Specifically, a process substantially similar to the process of FIG. 5 described in the first embodiment is performed.
  • step 107 in FIG. 5 When it is determined in step 107 in FIG. 5 that the possibility of slipping is high, the target object is determined to be in a slippery posture. If it is determined in step 108 in FIG. 5 that the possibility of slipping is low, it is determined that the target object is not in a slippery posture.
  • FIG. 10 is a flowchart illustrating an example of determination of slipperiness on a road surface.
  • the polarization image acquisition unit 247 acquires a horizontal polarization image and a vertical polarization image of the road surface.
  • the road surface state detection unit 248 detects the road surface state based on the intensity of each polarization image (step 301).
  • the polarization image acquisition unit 247 and the road surface state detection unit 248 correspond to the acquisition unit according to the present embodiment.
  • the road surface determination unit 249 determines whether or not the road surface is slippery. Specifically, it is determined whether or not the road surface state is a dry road (step 302), and if Yes, it is determined that the road surface is difficult to slip (step 303).
  • Step 304 it is determined whether or not the road surface state is one of a snow road and a wet road.
  • the road surface state is a snow road or a wet road
  • it is determined that the road surface is slippery step 305. If the road surface condition does not correspond to either a snow road or a wet road, it is determined that the road surface condition is unknown (step 306).
  • the possibility determination unit 244 determines the final possibility of the target object to slide (step 203 in FIG. 9).
  • FIG. 11 is a flowchart showing an example of a final determination operation for the possibility of slipping.
  • Step 404 it is determined whether both the road surface state and the posture are difficult to slip. That is, it is determined whether or not the road surface is slippery and the grip is not slippery. When both the road surface state and the posture are difficult to slip (Yes in Step 403), it is determined that the possibility of the target object slipping is low (Step 404).
  • both the road surface state and the posture are not slippery, that is, if at least one of the road surface state and the posture is slippery (No in step 403), it is determined that the target object is highly likely to slip (step). 405).
  • the determination process shown in FIG. 11 may be executed based on table information as shown in FIG. Further, as illustrated in the table information of FIG. 12, the possibility of the target object slipping may be evaluated step by step according to the combination of the slipperiness of the road surface and the slipperiness of the posture. In the example shown in FIG. 12, when both the road surface state and the posture are slippery, it is determined that the possibility of slipping is very high.
  • the possibility of the target object slipping is determined based on the slipperiness of both the posture of the target object and the road surface state. This makes it possible to determine with high accuracy the possibility that the target object will slide.
  • the road surface state may be displayed in addition to the possibility of slipping or the danger area.
  • FIG. 13 is a block diagram illustrating a functional configuration example of a danger avoidance apparatus according to another embodiment.
  • the threshold value setting unit 349 reads and sets the threshold value according to the road surface condition. For example, as in the table information shown in FIG. 14, a high threshold is set for the dry road and a slightly lower threshold is set for the wet road. A low threshold is set for the snowy road. That is, in the present embodiment, the threshold is dynamically set according to the road surface state detected by the road surface state detection 348. As each threshold value, for example, a value calculated statistically for each road surface state or a value calculated by machine learning or the like is used.
  • FIG. 15 is a flowchart illustrating an example of an operation for determining the possibility of slipping according to the present embodiment.
  • Steps 501 to 505 are substantially the same as steps 101 to 105 shown in FIG.
  • Step 507 When the road surface state is not unknown (No in Step 506), the possibility of the target object slipping is determined based on the threshold value corresponding to the road surface state (Steps 508, 509, and 510).
  • the possibility of slipping of the target object can be determined with high accuracy, and effective information for preventing a collision accident or the like is given to the driver of the car. Can be provided.
  • FIG. 16 is a diagram for explaining another embodiment of posture estimation of the bicycle 3 and the driver 4 thereof.
  • the skeleton may be detected not only for the driver 4 but also for the bicycle 3.
  • a plurality of parts are set in advance for the bicycle 3, and the position of each part of the bicycle 3 is estimated based on the input image.
  • the same technique as the skeleton estimation of the pedestrian 2 and the driver 4 may be used.
  • a white circle 51 and a line 52 set in advance corresponding to each part are set. Thereby, the posture of the bicycle 3 can be estimated. Based on the estimated postures of the bicycle 3 and the driver 4, the overall postures of the bicycle 3 and the driver 4 can be estimated with high accuracy.
  • the center of gravity 95 of the bicycle 3 and the driver 4 as a whole is calculated. Further, based on the skeleton of the bicycle 3, the lowest point is detected as a contact point 56 with the road surface R. The possibility of slipping with high accuracy can be determined based on the barycentric point 95 and the ground contact point 56. Further, the steering amount of the bundle is estimated based on the white circles 51a to 51e of the wheel portion of the bicycle 3, and when the steering amount is large, it may be determined that the possibility of slipping is high. By estimating the posture of the bicycle 3 even if it is shifted, the determination accuracy of the possibility of slipping is improved.
  • Information on the inclination angle of the road surface is calculated from, for example, a photographed image photographed by a front camera.
  • information on the inclination angle may be acquired based on a polarization image or a depth image of a road surface acquired by a polarization camera, a depth sensor, or the like.
  • information on the inclination angle of the road surface where a pedestrian or the like in front of the person is present may be acquired from current location information acquired by GPS or the like, map information, road traffic information, or the like.
  • Several types of inclination angle patterns may be prepared in advance, and the closest inclination angle may be selected from the patterns.
  • the center of gravity of the target object was calculated as a feature point for determining the possibility of slipping.
  • the feature point is not limited to this, and the center of gravity of the head or waist may be used as the feature point.
  • a parameter different from the angle of the straight line connecting the feature point and the contact point to the road surface may be used.
  • the possibility of slipping may be determined based on the positional relationship of each part.
  • the possibility of slipping by machine learning or the like may be determined using an image (partial image) or the like of the target object as an input.
  • the possibility of slipping of the target object existing on the left and right or the rear of the car may be determined based on the captured images taken by the left and right side cameras and the rear camera.
  • a system including various cameras and sensors such as a front camera, a vehicle including a braking device and a steering device, and a danger avoidance device according to the present technology correspond to an embodiment of a risk avoidance system according to the present technology.
  • a front camera a vehicle including a braking device and a steering device
  • a danger avoidance device correspond to an embodiment of a risk avoidance system according to the present technology.
  • This technology can be applied not only to automobiles, but also to various mobile devices such as motorcycles and tricycles, and also to various technical fields such as simulation devices and games. Moreover, this technique is applicable not only to the case where it is applied to a mobile device, but also to a monitoring system or the like. For example, it is possible to determine the possibility of a pedestrian walking on a bridge or a platform of a station and the like and notify the person or the surrounding people.
  • this technique can also take the following structures.
  • a detection unit that detects a target object from an input image;
  • An estimation unit for estimating the posture of the detected target object;
  • An information processing apparatus comprising: a determination unit that determines the possibility that the target object slides based on the estimated posture.
  • the detection unit can detect a pedestrian from the input image, The determination unit determines the possibility that the pedestrian slides based on the estimated posture of the pedestrian.
  • the information processing apparatus according to (1) or (2), The detection unit can detect a motorcycle and its driver from the input image, The estimating unit estimates at least the posture of the driver;
  • the determination unit determines a possibility that the two-wheeled vehicle slips based on the estimated posture of the driver.
  • the information processing apparatus estimates the posture of the motorcycle, The determination unit determines a possibility that the two-wheeled vehicle slides based on the estimated postures of the two-wheeled vehicle and the driver.
  • the information processing apparatus calculates a feature point related to the target object based on the estimated posture and a contact point between the target object and a road surface of the straight line connecting the feature point and the contact point.
  • An information processing apparatus that determines the possibility of slipping based on an angle with respect to.
  • the feature point is a center of gravity of the target object.
  • the information processing apparatus can detect a motorcycle and its driver from the input image, The determination unit calculates the center of gravity of the driver or the center of gravity of the motorcycle and the driver as a whole as the feature point.
  • the information processing apparatus according to any one of (1) to (7), It has an acquisition unit that acquires road surface information related to the road surface condition, The determination unit determines the possibility of sliding based on the acquired road surface information.
  • the determination unit determines the slipperiness of a road surface based on the acquired road surface information, and determines the possibility of slipping based on the determined slipperiness.
  • the information processing apparatus according to (8) or (9),
  • the road surface information includes an inclination angle of the road surface,
  • the determination unit calculates an angle of the straight line with respect to the road surface based on an inclination angle of the road surface.
  • the information processing apparatus estimates the skeleton of the detected target object.
  • the information processing apparatus is mounted on a mobile device, and further generates risk avoidance information for avoiding a risk related to the operation of the mobile device based on the determined possibility of slipping.
  • An information processing apparatus including an output unit that outputs the information.
  • the information processing apparatus (13) The information processing apparatus according to (12), The output unit outputs an image capable of identifying the target object determined to have a high possibility of slipping. (14) The information processing apparatus according to (12) or (13), The output unit outputs an image including a dangerous area set for the target object determined to have a high possibility of slipping.
  • R Road surface L: Straight line connecting the center of gravity and the ground point 1 ... Target object 2 ... Pedestrian 3 ... Bicycle 4 ... Bicycle driver 40, 240, 340 ... Danger avoidance device 41 ... Image acquisition unit 42 ... Object detection unit 43 ... Posture estimation unit 44, 244 ... Possibility determination unit 45 ... Warning output unit 55, 95 ... Center of gravity 56 ... Grounding point 60 ... Danger avoidance image 61 ... Danger area 62 ... Danger avoidance route 100 ... Automobile 246 ... Posture determination unit 247 ... Polarized image acquisition unit 248, 348 ... Road surface state detection unit 249 ... Road surface determination unit 349 ... Threshold setting unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Geometry (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

本技術の一形態に係る情報処理装置は、検出部と、推定部と、判定部とを具備する。前記検出部は、入力画像から対象物体を検出する。前記推定部は、前記検出された対象物体の姿勢を推定する。前記判定部は、前記推定された姿勢をもとに前記対象物体が滑る可能性を判定する。

Description

情報処理装置、情報処理方法、及びプログラム
 本技術は、例えば自動車の運転時等において、運転者への注意喚起を行う情報処理装置、情報処理方法、及びプログラムに関する。
 自動緊急ブレーキや衝突回避システムなどの、緊急時の事故回避技術が一般的になってきている。また事故を回避するために運転者等に注意を喚起するシステムも開発されている。例えば特許文献1には、データベースから読み出された天気情報や道路情報をもとに、自車の前方を走行する自転車が転倒しやすいか否かが判定される。前方の自転車が転倒しやすい場合には、運転者にその旨の警告が行われる(特許文献1の明細書段落[0043]-[0049]等)。
 また特許文献2には、路面センサにより検出された路面からの反射光をもとに、路面状態(乾燥路/雪道/ウェット路等)を判定可能な判定装置について記載されている。この判定装置では、反射光の水平偏光成分及び垂直偏光成分の反射強度に加え、反射光の信号強度に基づいて、路面状態が判定されている。これにより路面状態を正確に判定して、運転者に知らせることが可能となっている(特許文献2の明細書段落[0007][0024]-[0032]等)。
特開2009-122854号公報 特開平11-230898号公報
 このように事故等を未然に防ぐための有効な情報を運転者等に提供して、注意喚起を行うことが可能な技術が求められている。
 以上のような事情に鑑み、本技術の目的は、有効な情報を提供して注意喚起を行うことが可能となる情報処理装置、情報処理方法、及びプログラムを提供することにある。
 上記目的を達成するため、本技術の一形態に係る情報処理装置は、検出部と、推定部と、判定部とを具備する。
 前記検出部は、入力画像から対象物体を検出する。
 前記推定部は、前記検出された対象物体の姿勢を推定する。
 前記判定部は、前記推定された姿勢をもとに前記対象物体が滑る可能性を判定する。
 この情報処理装置では、推定された姿勢をもとに対象物体が滑る可能性を高精度に判定することができる。この結果、事故等を防止するための有効な情報を運転者等に提供して注意を喚起することが可能となる。
 前記検出部は、前記入力画像から歩行者を検出可能であってもよい。この場合、前記判定部は、推定された前記歩行者の姿勢をもとに、前記歩行者が滑る可能性を判定してもよい。
 これにより例えば滑って転倒した歩行者との接触事故等を未然に防止することが可能となる。
 前記検出部は、前記入力画像から二輪車及びその運転者を検出可能であってもよい。この場合、前記推定部は、少なくとも前記運転者の姿勢を推定してもよい。また前記判定部は、前記推定された前記運転者の姿勢をもとに、前記二輪車が滑る可能性を判定してもよい。
 これにより例えば滑って転倒した二輪車及びその運転者との接触事故等を未然に防止することが可能となる。
 前記推定部は、前記二輪車の姿勢を推定してもよい。この場合、前記判定部は、前記推定された前記二輪車及び前記運転者の各々の姿勢をもとに、前記二輪車が滑る可能性を判定してもよい。
 これにより二輪車が滑る可能性を高精度に判定することができる。
 前記判定部は、前記推定された姿勢をもとに前記対象物体に関する特徴点と、前記対象物体の路面との接触点とを算出し、前記特徴点と前記接触点とを結ぶ直線の前記路面に対する角度をもとに、前記滑る可能性を判定してもよい。
 これにより対象物体が滑る可能性を高精度に判定することができる。
 前記特徴点は、前記対象物体の重心点であってもよい。
 重心点を用いることで対象物体が滑る可能性を高精度に判定することができる。
 前記検出部は、前記入力画像から二輪車及びその運転者を検出可能であってもよい。この場合、前記判定部は、前記特徴点として、前記運転者の重心点、又は前記二輪車及びその運転者の全体の重心点を算出してもよい。
 前記情報処理装置は、さらに、路面状態に関する路面情報を取得する取得部を具備してもよい。この場合、前記判定部は、前記取得された路面情報をもとに、前記滑る可能性を判定してもよい。
 これにより対象物体が滑る可能性を高精度に判定することができる。
 前記判定部は、前記取得された路面情報をもとに路面の滑りやすさを判定し、前記判定された滑りやすさをもとに、前記滑る可能性を判定してもよい。
 これにより対象物体が滑る可能性を高精度に判定することができる。
 前記路面情報は、前記路面の傾斜角度を含んでもよい。この場合、前記判定部は、前記路面の傾斜角度をもとに、前記直線の前記路面に対する角度を算出してもよい。
 これにより対象物体が滑る可能性を高精度に判定することができる。
 前記推定部は、前記検出された対象物体の骨格を推定してもよい。
 これにより対象物体の姿勢を高精度に推定することができる。
 前記情報処理装置は、移動体装置に搭載されるものであり、さらに、前記判定された滑る可能性をもとに、前記移動体装置の運転に関する危険を回避するための危険回避情報を生成して出力する出力部を具備してもよい。
 これにより移動体装置の運転者に注意を喚起することが可能となり、歩行者等との接触事故等を防止することができる。
 前記出力部は、前記滑る可能性が高いと判定された前記対象物体を識別可能な画像を出力してもよい。
 これにより例えば滑って転倒してしまう歩行者等に対して注意を向けさせることが可能となり、接触事故等を防止することが可能となる。
 前記出力部は、前記滑る可能性が高いと判定された前記対象物体に設定される危険領域を含む画像を出力してもよい。
 これにより例えば運転者は安全な経路等を容易に把握することが可能となる。
 本技術の一形態に係る情報処理方法は、コンピュータにより実行される情報処理方法であって、入力画像から対象物体を検出することを含む。
 前記検出された対象物体の姿勢が推定される。
 前記推定された姿勢をもとに前記対象物体が滑る可能性が判定される。
 本技術の一形態に係るプログラムは、コンピュータに以下のステップを実行させる。
 入力画像から対象物体を検出するステップ。
 前記検出された対象物体の姿勢を推定するステップ。
 前記推定された姿勢をもとに前記対象物体が滑る可能性を判定するステップ。
 以上のように、本技術によれば、有効な情報を提供して注意喚起を行うことが可能となる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
第1の実施形態に係る危険回避装置を搭載する移動体装置の一例としての自動車の構成例を示す外観図である。 図1に示す自動車の構成例を示すブロック図である。 危険回避装置の機能的な構成例を示すブロック図である。 骨格推定の一例を説明するための図である。 滑る可能性の判定動作の一例を示すフローチャートである。 滑る可能性の判定方法の一例を説明するための図である。 警告出力部により出力される危険回避画像の一例を示す図である。 第2の実施形態に係る危険回避装置の機能的な構成例を示すブロック図である。 第2の実施形態に係る滑る可能性の判定動作の一例を示すフローチャートである。 路面の滑りやすさ判定の一例を示すフローチャートである。 最終的な滑る可能性の判定動作の一例を示すフローチャートである。 図11に示す処理の際に参照可能なテーブル情報の一例である。 他の実施形態に係る危険回避装置の機能的な構成例を示すブロック図である。 路面状態と閾値との関係を示すテーブル情報の一例である。 他の実施形態に係る滑る可能性の判定動作の一例を示すフローチャートである。 自転車及びその運転者の姿勢推定の他の実施形態を説明するための図である。
 以下、本技術に係る実施形態を、図面を参照しながら説明する。
 <第1の実施形態>
 [自動車の構成]
 図1は、本技術の第1の実施形態に係る危険回避装置を搭載する移動体装置の一例としての自動車の構成例を示す外観図である。図2はそのブロック図である。
 図1に示すように、自動車100は、距離センサ10、フロントカメラ11、及び車内撮影カメラ12を有する。また図2に示すように、自動車100は、操舵装置15、制動装置16、車体加速装置17、舵角センサ20、車輪速センサ21、ブレーキスイッチ22、アクセルセンサ23、制御部30、表示装置35、及び危険回避装置40を有する。
 距離センサ10は、例えば自動車100のフロント部の略中央に設置され、自動車100とその移動方向に存在する物体との距離に関する情報を検出する。距離センサ10は、例えばミリ波レーダや赤外線レーザ等を用いた種々のセンサで構成される。
 フロントカメラ11は、例えば自動車100のキャビンまたはルーフ部に設置され、自動車100の前方視野を所定のフレームレートで撮影する。フロントカメラ11で撮影された撮影画像は制御部30を介して危険回避装置40へ出力され、自車の前方に存在する対象物体の滑る可能性が判定される。フロントカメラ11は、例えば、CMOSやCCD等のイメージセンサで構成される。
 図1に示すように、本実施形態では、対象物体1として、歩行者2と、自転車3及びその運転者4とを例に挙げて説明を行う。その他、バイク等の他の二輪車や自動三輪車等の運転者に対しても本技術は適用可能である。
 車内撮影カメラ12は、自動車100のキャビンに設置され、キャビン内部の様子を所定のフレームレートで撮影する。車内撮影カメラ12により撮影された画像により、例えば同乗者の有無やその乗車位置等が判定可能である。
 なお距離センサ10、フロントカメラ11及び車内撮影カメラ12は、それらの出力が図2に示すように制御部30へ供給される構成に代えて、危険回避装置40へ供給されるように構成されてもよい。
 操舵装置15は、典型的にはパワーステアリング装置で構成され、運転者のハンドル操作を操舵輪へ伝達する。制動装置16は、各車輪に取り付けられたブレーキ作動装置及びこれらを作動させる油圧回路を含み、各車輪の制動力を制御する。車体加速装置17は、スロットルバルブや燃料噴射装置等を含み、駆動輪の回転加速度を制御する。
 制御部30は、自動車100に搭載された各機構の動作を制御する。例えば制御部30は、運転者によるハンドルやアクセル等の操作をもとに、自動車100の制動、操舵、及び加速等を制御する。例えば制御部30は、運転者のハンドル操作を検出する舵角センサ20の出力に基づき、操舵量及び操舵方向を検出し、操舵装置15を制御する。
 また制御部30は、全車輪又は一部の車輪に設置された車輪速センサ21の出力に基づき、車両の車体速度を算出するとともに、車輪のロック(スリップ)が防止されるように制動装置16を制御する。さらに制御部30は、運転者のアクセルペダル操作量を検出するアクセルセンサ23の出力に基づき、車体加速装置17を制御する。
 ブレーキスイッチ22は、運転者のブレーキ操作(ブレーキペダルの踏み込み)を検出するためのもので、ABS制御等の際に参照される。
 制御部30は、操舵装置15、制動装置16、及び車体加速装置17を個別に制御する場合は勿論、これらの複数を協調制御してもよい。これにより、操舵(旋回)時、制動時、加速時等において、自動車100を所望とする姿勢に制御することが可能となる。
 また制御部30は、上述した運転者の各種操作とは無関係に、操舵装置15、制動装置16、及び車体加速装置17を制御することが可能に構成される。例えば、自動車100は自動運転機能を備えていてもよく、この場合、上記各センサやカメラの出力に基づき、制御部30が主体的に上記各装置を制御する。
 表示装置35は、例えば液晶やEL(Electro-Luminescence)等を用いた表示部を有し、地図情報やナビゲーション情報等を表示部に表示する。また表示装置35は、危険回避装置35から出力される危険回避画像を表示する。表示装置35としては、典型的には、カーナビゲーション装置が用いられる。またフロントガラス等の所定の位置に、AR(Augmented Reality:拡張現実)画像を表示させる装置が用いられてもよい。
 危険回避装置40は、後に詳しく説明するように、フロントカメラ11により撮影された画像から対象物体1を検出し、当該対象物体1が路面に対して滑る可能性を算出する。対象物体1の滑る可能性とは、対象物体1の路面に接触している部分が、路面に沿って滑ってしまう可能性である。すなわち危険回避装置40により、歩行者2が足を滑らせてしまう可能性や、自転車3の車輪が滑ってしまう可能性を算出することが可能である。
 危険回避装置40は、本実施形態に係る情報処理装置に相当し、例えばCPU、RAM、及びROM等のコンピュータに必要なハードウェアを有する。CPUがROMに予め記録されている本技術に係るプログラムをRAMにロードして実行することにより、本技術に係る危険回避方法(情報処理方法)が実行される。
 危険回避装置40の具体的な構成は限定されず、例えばFPGA(Field Programmable Gate Array)等のPLD(Programmable Logic Device)、その他ASIC(Application Specific Integrated Circuit)等のデバイスが用いられてもよい。また危険回避装置40は、制御部30の一部として構成されてもよい。
 図3は、危険回避装置40の機能的な構成例を示すブロック図である。危険回避装置40は、画像取得部41、物体検出部42、姿勢推定部43、及び可能性判定部44、及び警告出力部45を有する。例えば危険回避装置40のCPUが所定のプログラムを実行することで、各機能ブロックが構成される。
 画像取得部41は、フロントカメラ11により撮影された画像を取得する(以下、当該画像を入力画像と記載する)。物体検出部42は、入力画像から歩行者2と、自転車3及びその運転者4とをそれぞれ検出する。歩行者2や自転車3の検出は、テンプレートマッチングや画像スキャニング等の、任意の画像解析技術により実行されてよい。
 姿勢推定部43は、検出された歩行者2及び運転者4の姿勢を推定する。姿勢推定部43は、パーツ推定部46及び骨格検出部47を有する。すなわち本実施形態では、歩行者2及び運転者4の骨格の位置をもとに姿勢が判定される。
 図4は、骨格推定の一例を説明するための図である。図4中の白丸50、これを結ぶ線51、及び頭部52により、歩行者2及び運転者4の各々の骨格が表現される。図4では、歩行者2及び運転者4の各々の重心点55と、路面Rに対する歩行者2及び自転車3の接地点56とが図示されている。これらの点は、滑る可能性を判定する際に用いられる。
 骨格推定は、ボーン推定やスケルトン推定ともいわれ、周知の技術を用いて実行可能である。その一例を歩行者2を参照して説明すると、まず算出したい骨格のモデル、すなわち図4に示す白丸50の位置や数、それらを結ぶ線51等のモデルが予め設定される。
 骨格のモデルは、典型的には、人体の実際の骨格に準じて設定され、例えば頭、太もも、腰等の複数の主要パーツが設定され、当該パーツの重心点やパーツ間の関節部に白丸50が設定される。またパーツの位置に基づいて、白丸50を結ぶ線51が設定される。
 パーツ推定部46により、入力画像内の歩行者2の画像(部分画像)をもとに、入力画像内の歩行者2について、上記で設定された各パーツの位置が算出される。例えば種々の姿勢における各パーツの画像がテンプレート画像として記憶される。これらテンプレート画像と歩行者2の画像とをマッチングすることで、歩行者2の各パーツの位置を算出可能である。
 骨格検出部47により、算出された各パーツの位置をもとに、白丸50、線51、及び頭部52が設定されて、歩行者2の骨格が検出される。
 なお自動車100のフロント部にデプスセンサを搭載し、デプスセンサにより得られた歩行者2のデプス画像(距離画像)をもとに、機械学習で得られたパラメータを用いて、各パーツの位置を推定することも可能である。例えば歩行者2の画像内の画素が1つ選択され、当該画素を含む所定の領域のデプス情報(距離情報)が取得される。このデプス情報をもとに、上記パラメータを用いて、選択された画素がどのパーツに含まれるかが判定される。歩行者2の画像内の各画素について同じ処理が実行されることで、歩行者2の各パーツの位置を算出可能である。これにより歩行者2の骨格が推定される。
 デプス情報に代えて、画素のRGB情報が用いられてもよい。すなわち選択された画素の周囲のRGB情報をもとに、機械学習で得られたパラメータを用いて、選択画素が含まれるパーツを判定することが可能である。その他、ステレオカメラを用いた方法等、任意の技術により骨格推定が実行されてよい。なお自転車3の運転者4の骨格も同様に推定可能である。
 可能性判定部44は、推定された姿勢、すなわち図4に示す骨格から、歩行者2及び自転車3が滑る可能性を判定する。特に本実施形態では、対象物体1として検出された自転車3及びその運転者4については、運転者4の姿勢をもとに滑る可能性が判定される。以下、対象物体1としての自転車3及びその運転者4のことを、自転車3及び運転者4の一方のみを記載して説明する場合がある。例えば自転車3及びその運転4の姿勢のことを、自転車3の姿勢と記載する場合がある。
 警告出力部45は、判定された滑る可能性をもとに、自動車100の運転に関する危険を回避するための危険回避情報を出力する。典型的には、歩行者2及び自転車3が滑って転倒した場合に、自動車100が当該歩行者2や、自転車3及びその運転者4と接触してしまうことを回避するための情報を出力する。危険回避情報は、例えば画像や音声等により出力される。
 [滑る可能性の判定動作]
 図5は、滑る可能性の判定動作の一例を示すフローチャートである。まず物体検出部42により、歩行者2及び自転車3がそれぞれ検出される(ステップ101)。次に姿勢推定部43により、歩行者2及び自転車3の各々の姿勢が推定される(ステップ102)。続いて可能性判定部44により、推定された姿勢をもとにした滑る可能性の判定が実行される。
 例えば姿勢が傾いていると、路面Rとの接地点56に、路面Rに沿った横方向の力が加わり滑る可能性が出てくる。従って接地点56に作用する横方向の力に着目して滑る可能性が判定される。後述するように、本実施形態では、路面Rは水平方向に広がっているとみなされる。従って接地点56に作用する横方向の力とは、水平方向の力となる。
 図6は、滑る可能性の判定方法の一例を説明するための図である。まず歩行者2に関する特徴点として、歩行者2の重心点55が算出される(ステップ103)。重心点55の座標(xave,yave)は、以下の式により算出される。
Figure JPOXMLDOC01-appb-M000001
 なおパラメータは以下の通りである。
 N…設定されたパーツの数
 Wi…各パーツの質量
 (xi,yi)…各パーツの位置座標
 W…歩行者の総質量(=W1+・・・・+WN
 各パーツの質量Wi、及び総質量Wは、予め設定されている。例えば人体の各パーツの平均的な質量が用いられる。なお男性、女性、成人、子供等を区別して、各パーツの質量がそれぞれ記憶されていてもよい。例えば入力画像から歩行者2の種別が判定され、該当する各パーツの質量が読み出される。
 各パーツの位置座標は、姿勢推定により推定されたパーツの位置をもとに算出され、典型的には、各パーツの重心点の位置が用いられる。なお骨格を表す白丸51の位置座標をもとに、各パーツの位置座標が算出されてもよい。例えばパーツの両端の関節部分の白丸51の中心点が、当該パーツの位置座標として用いられてもよい。
 歩行者2の路面Rとの接触点、すなわち接地点56(座標(xground,yground))が算出される(ステップ104)。本実施形態では、推定された骨格の最下点が接地点56として算出される。また路面Rは水平方向(x軸方向)に広がっているとして、滑る可能性が判定される。
 なお本実施形態では、両足が路面Rに付いている場合には、滑らないと判定される。従って滑る可能性の判定は、片足のみが路面Rについている歩行者2に対して実行される。これに代えて、例えば両足の各々の接地点の中心点を、改めて歩行者2の接地点56として、両足で立っている場合の滑る可能性が判定されてもよい。
 なお自転車3の運転者4については、自転車3の車輪の最下点が、接地点56となる(図4参照)。当該最下点は、例えば入力画像から検出された自転車3の画像をもとに算出することが可能である。
 接地点56に作用する水平方向(x軸方向)の力Fhor、及び垂直方向(Y軸方向)の力Fvirが、以下の式により算出される。
Figure JPOXMLDOC01-appb-M000002
 Gを重力加速度、重心点55に作用する垂直方向の力Fとすると、F=WGとなる。この力Fの、重心点55と接地点56とを結ぶ直線Lの延在方向に作用する成分力をF1とすると、F1=WGcosθとなる。この力F1の水平/垂直方向の成分力が、上記の力Fhor及び力Fvirとなる。
 角度θは、中心点55の座標(xave,yave)及び接地点56の座標(xground,yground)を用いて以下の式により算出される。
Figure JPOXMLDOC01-appb-M000003
 一般的に水平面上に静止している物体に水平方向の力を作用させた場合に、物体が動き出す条件は、当該力が、垂直抗力×静止摩擦係数よりも大きくなることである。すなわち水平方向の力/垂直抗力が静止摩擦係数よりも大きくなることが条件となる。この点に着目して、本実施形態では、以下の式に示すように、力の比としてFhor/Fvirが算出される(ステップ105)。
Figure JPOXMLDOC01-appb-M000004
 算出された力の比=tanθが、所定の閾値よりも大きいか否か判定される(ステップ106)。力の比が閾値よりも大きい場合には(ステップ106のYes)、歩行者2及び自転車3は、滑る可能性が高いと判定される(ステップ107)。力の比が閾値よりも小さい場合には(ステップ106のNo)、歩行者2及び自転車3は、滑る可能性が低いと判定される(ステップ108)。
 閾値は、例えば乾燥路、雪道、ウェット路等の種々の路面状態において、実際に滑りやすい姿勢を検証して、設定される。各路面状態において算出される値の平均値が用いられてもよいし、最も滑りやすい路面状態での算出値が用いられてもよい。閾値の算出に、各路面状態における静止摩擦係数や動摩擦係数が参照されてもよい。その他、閾値の算出方法は任意に設定されてよい。例えば実験やシミュレーションにより得られたデータに基づいて、機械学習等により閾値を算出することも可能である。
 また滑る可能性の判定対象が、歩行者である場合と、自転車である場合とで、互いに異なる閾値が設定されてもよい。例えば平均移動速度の違い、重心点の高さの違い、総重量の違い等に着目して、異なる閾値がそれぞれ算出されてもよい。
 力の比=tanθからもわかるように、角度θが算出されれば、滑る可能性は判定可能である。すなわち重心点55と接地点56とを結ぶ直線Lの垂直方向に対する角度θをもとに滑る可能性は判定可能である。ここで重心点55と接地点56とを結ぶ直線Lの路面Rに対する角度をθ'とすると、θ'=π-θとなる。従って当該角度θ'を算出することでも、滑る可能性を判定することが可能である。
 対象物体1の重心点55と接地点56とに着目することで、対象物体1の滑る可能性を高精度に判定することが可能である。なお滑る可能性について、段階的な評価が行われてもよい。すなわち可能性が非常に低い、低い、普通、高い、非常に高い等の複数の段階で、滑る可能性が判定されてもよい。
 図7は、警告出力部45により出力される危険回避情報としての危険回避画像の一例を示す図である。危険回避画像60は、少なくとも滑る可能性が高いと判定された歩行者2や自転車3を識別可能な画像である。図7に示す例では、各対象物体1の種別(歩行者2/自転車3)、滑る可能性の高低、各対象物体1に設定される危険領域61、及び危険回避経路62が表示される。
 危険領域61は、歩行者2や自転車3が滑って転倒した場合に、当該歩行者2等が移動してくる可能性のある領域である。例えば歩行者2及び自転車3ごとに危険領域61のサイズが予め設定しており、歩行者2等を中心に当該危険領域61が設定される。あるいは、歩行者2や自転車3の移動方向や移動速度をもとに、動的に危険領域61が設定されてもよい。なお図7に示す例では、滑る可能性が低い歩行者2についても危険領域61が表示されているが、滑る可能性が高い対象物体1のみに危険領域61が表示されてもよい。
 危険回避経路62は、各対象物体1に設定された危険領域61を回避するルートを示す画像である。例えば自車の現状の走行動作から自車の予測経路が算出され、当該予測経路を基準として危険回避経路62が算出される。あるいは例えばナビゲーション情報等をもとに予め設定されていた経路を基準として、危険回避経路62が算出されてもよい。また道路情報や地図情報等が適宜利用されてもよい。
 危険回避画像60が表示されることで、自動車100の運転者に対して、滑って転倒してしまう可能性の高い歩行者2等に注意を向けさせることが可能となり、転倒した歩行者2等との接触事故等を防止することが可能となる。また危険領域61や危険回避経路62が表示されることで、運転者は、安全な経路等を容易に把握することが可能となる。なお各対象物体1の滑る可能性や危険回避経路62等が、音声により運転者に報知されてもよい。
 以上、本実施形態に係る危険回避装置40では、推定された姿勢をもとに歩行者2及び自転車3が滑る可能性を高精度に判定することができる。これにより事故等を防止するための有効な危険回避情報を自動車100の運転者等に提供して注意を喚起することが可能となる。この結果、滑って転倒した歩行者2や自転車3の運転者4との接触事故等を未然に防止することができる。
 <第2の実施形態>
 本技術の第2の実施形態に係る危険回避装置について説明する。これ以降の説明では、上記の実施形態で説明した自動車100及び危険回避装置40における構成及び作用と同様な部分については、その説明を省略又は簡略化する。
 本実施形態では、対象物体の姿勢のみならず、路面状態に関する路面情報も利用して、対象物体が滑る可能性が判定される。路面情報は、危険回避装置が搭載される自動車に設置された路面センサから取得される。
 路面センサは、例えば自動車のフロント部の下方に設置される。本実施形態では、路面センサとして偏光カメラが用いられ、路面の水平偏光画像及び垂直偏光画像が生成される。生成された水平偏光画像及び垂直偏光画像は、危険回避装置に出力され、各偏光画像の強度をもとに路面状態が検出される。
 本実施形態では、滑りにくい路面状態として、乾燥路が検出される。また滑りやすい路面状態として、ウェット路及び雪路が検出される。すなわち本実施形態では、3種類の路面状態が検出可能であり、いずれかの路面状態が検出されない場合には路面状態は不明と判定される。なお検出可能な路面状態の種類は限定されず、例えば凍結状態等が検出されてもよい。あるいはアスファルト、土等の、路面を構成する物質(材料、素材)が検出されてもよい。
 路面状態を検出する方法は限定されず、例えば路面を撮影した撮影画像の色情報をもとに路面状態が検出されてもよい。あるいはデプスセンサやステレオカメラ等が用いられてもよい。
 図8は、危険回避装置の機能的な構成例を示すブロック図である。図9は、滑る可能性の判定動作の一例を示すフローチャートである。本実施形態に係る危険回避装置240は、姿勢判定部246、偏光画像取得部247、路面状態検出部248、及び路面判定部249を有する。
 まず姿勢判定部246により、対象物体が滑りやすい姿勢か否かが判定される(ステップ201)。この判定は、推定された対象物体の姿勢をもとに実行され、具体的には、第1の実施形態で説明した図5の処理と略同様の処理が実行される。
 図5のステップ107にて滑る可能性が高いと判定された場合には、対象物体は滑りやすい姿勢であると判定される。図5のステップ108にて滑る可能性が低いと判定された場合には、対象物体は滑りやすい姿勢ではないと判定される。
 次に路面の滑りやすさが判定される(ステップ202)。図10は、路面の滑りやすさ判定の一例を示すフローチャートである。偏光画像取得部247により路面の水平偏光画像及び垂直偏光画像が取得される。そして路面状態検出部248により、各偏光画像の強度をもとに路面状態が検出される(ステップ301)。偏光画像取得部247及び路面状態検出部248は、本実施形態に係る取得部に相当する。
 路面判定部249により、路面が滑りやすいが否か判定される。具体的には、路面状態が乾燥路か否か判定され(ステップ302)、Yesの場合には、路面は滑りにくいと判定される(ステップ303)。
 路面状態が乾燥路ではない場合には(ステップ302のNo)、路面状態が雪路及びウェット路のいずれか一方であるか否かが判定される(ステップ304)。路面状態が雪路かウェット路である場合には、路面は滑りやすいと判定される(ステップ305)。路面状態が雪路及びウェット路のいずれにも該当しない場合には、路面状態は不明と判定される(ステップ306)。
 姿勢の滑りやすさと、路面の滑りやすさとをもとに、可能性判定部244により、対象物体の最終的な滑る可能性が判定される(図9のステップ203)。
 図11は、最終的な滑る可能性の判定動作の一例を示すフローチャートである。まず路面状態が不明か否か判定され(ステップ401)、Yesの場合には滑る可能性は不明と判定される(ステップ402)。あるいは、第1の実施形態と略同様に、姿勢の滑りやすさがそのまま最終的な滑る可能性として判定されてもよい。
 路面状態が不明でない場合は(ステップ401のNo)、路面状態及び姿勢の両方とも滑りにくいか否かが判定される。すなわち滑りにくい路面かつ滑りにくい姿勢であるか否かが判定される(ステップ403)。路面状態及び姿勢の両方とも滑りにくい場合には(ステップ403のYes)、対象物体の滑る可能性は低いと判定される(ステップ404)。
 路面状態及び姿勢の両方ともが滑りにくい場合に該当しない、すなわち路面状態及び姿勢の少なくとも一方が滑りやすい場合には(ステップ403のNo)、対象物体は滑る可能性が高いと判定される(ステップ405)。
 図11に示す判定処理は、図12に示すようなテーブル情報をもとに実行されてもよい。また図12のテーブル情報内に例示すように、路面の滑りやすさ及び姿勢の滑りやすさの組み合わせに応じて、対象物体の滑る可能性が段階的に評価されてもよい。図12に示す例では、路面状態及び姿勢がともに滑りやすい場合には、滑る可能性が非常に高いと判定される。
 以上本実施形態に係る危険回避装置240では、対象物体の姿勢及び路面状態の両方の滑りやすさをもとに、対象物体の滑る可能性が判定される。これにより対象物体が滑る可能性を高精度に判定することが可能となる。本実施形態に係る危険回避画像として、滑る可能性や危険領域に加えて路面状態が表示されてもよい。
 <その他の実施形態>
 本技術は、以上説明した実施形態に限定されず、他の種々の実施形態を実現することができる。
 図13は、他の実施形態に係る危険回避装置の機能的な構成例を示すブロック図である。本危険回避装置340では、閾値設定部349により、路面状態に応じた閾値が読み出されて設定される。例えば図14に示すテーブル情報のように、乾燥路には高い閾値が設定され、ウェット路にはやや低い閾値が設定される。また雪路には低い閾値が設定される。すなわち本実施形態では、路面状態検出348により検出された路面状態に応じて動的に閾値が設定される。なお各閾値は、例えば各路面状態に対して統計的に算出された値、あるいは機械学習等により算出された値が使用される。
 図15は、本実施形態に係る滑る可能性の判定動作の一例を示すフローチャートである。ステップ501からステップ505までは、図5に示すステップ101からステップ105までと略同様である。ステップ505にて力の比=Fhor/Fvir=tanθが算出されると、路面状態が不明か否か判定され(ステップ506)、Yesの場合には滑る可能性は不明と判定される(ステップ507)。路面状態が不明でない場合は(ステップ506のNo)、路面状態に応じた閾値をもとに、対象物体の滑る可能性が判定される(ステップ508、509、及び510)
 このように路面状態に応じて閾値を動的に設定することで、対象物体の滑る可能性を高精度に判定することができ、衝突事故等を防ぐための有効な情報を自動車の運転者に提供することができる。
 図16は、自転車3及びその運転者4の姿勢推定の他の実施形態を説明するための図である。図16に示すように、運転者4のみならず自転車3についても骨格が検出されてよい。例えば自転車3について予め複数のパーツが設定され、入力画像をもとに、自転車3の各パーツの位置が推定される。その際には、歩行者2や運転者4等の骨格推定と同様な技術が用いられてよい。
 自転車3の各パーツの位置が推定されれば、各パーツに対応して予め設定された白丸51及び線52が設定される。これにより自転車3の姿勢を推定することができる。推定された自転車3及び運転者4の各々の姿勢をもとに、自転車3及びその運転者4の全体の姿勢が高精度に推定可能となる。
 滑る可能性の判定においては、自転車3及びその運転者4の全体の重心点95が算出される。また自転車3の骨格をもとに、その最下点が路面Rとの接地点56として検出される。これら重心点95及び接地点56をもとに、高精度に滑る可能性を判定することができる。また自転車3の車輪部分の白丸51a-51eをもとに、バンドルの操舵量が推定され、操舵量が大きい場合には滑る可能性が高いと判定されてもよい。ずれにせよ自転車3の姿勢も合わせて推定することで、滑る可能性の判定精度は向上する。
 上記では、対象物体の滑る可能性の判定において、路面が水平歩行に広がっているとされた。これに代えて、対象物体が立っている実際の路面の傾斜角度の情報が、路面情報として取得されて滑る可能性の判定に用いられてもよい。
 路面の傾斜角度の情報は、例えばフロントカメラにより撮影された撮影画像から算出される。あるいは偏光カメラやデプスセンサ等により取得された路面の偏光画像やデプス画像等をもとに、傾斜角度の情報が取得されてもよい。あるいはGPS等により取得した現在地情報、及び地図情報や道路交通情報等から、目の前の歩行者等がいる路面の傾斜角度の情報が取得されてもよい。予め傾斜角度のパターンが何種類か準備され、そのうちから最も近い傾斜角度が選択されてもよい。
 取得された傾斜角度の情報を用いて、例えば図6に示す重心点55と接地点56とを結ぶ直線Lの垂直方向に対する角度θ、あるいは重心点55と接地点56とを結ぶ直線Lの路面Rに対する角度θ'が適宜算出される。これらの角度を用いて、傾斜している路面Rに対して、対象物体が滑る可能性を高精度に判定することが可能となる。
 上記では、滑る可能性を判定するための特徴点として、対象物体の重心点が算出された。これに限定されず、特徴点として、頭部や腰部の重心点が用いられてもよい。
 姿勢をもとにした滑る可能性の判定基準として、特徴点と接触点とを結ぶ直線の路面に対する角度とは異なるパラメータが用いられてもよい。例えば各パーツの位置関係等に基づいて、滑る可能性が判定されてもよい。また対象物体の画像(部分画像)等を入力として、機械学習等により滑る可能性が判定されてもよい。
 左右のサイドカメラやリアカメラ等により撮影された撮影画像をもとに、自動車の左右や後方に存在する対象物体の滑る可能性が判定されてもよい。
 フロントカメラ等の各種カメラやセンサ、制動装置や操舵装置を含む自動車、及び本技術に係る危険回避装置を含むシステムは、本技術に係る危険回避システムの一実施形態に相当する。もちろんこれらの構成に限定されるわけではない。
 本技術は、自動車ばかりでなく、二輪車や自動三輪車等の種々の移動体装置に適用可能であり、またそれらのシミュレーション装置やゲームなどの様々な技術分野にも適用可能である。また本技術は、移動体装置に適用される場合にのみならず、監視システム等にも適用可能である。例えば橋の上や駅のホーム等を歩く歩行者等の滑る可能性を判定して、本人や周囲の人に報知するといったことも可能である。
 以上説明した本技術に係る特徴部分のうち、少なくとも2つの特徴部分を組み合わせることも可能である。すなわち各実施形態で説明した種々の特徴部分は、各実施形態の区別なく、任意に組み合わされてもよい。また上記で記載した種々の効果は、あくまで例示であって限定されるものではなく、また他の効果が発揮されてもよい。
 なお、本技術は以下のような構成も採ることができる。
(1)入力画像から対象物体を検出する検出部と、
 前記検出された対象物体の姿勢を推定する推定部と、
 前記推定された姿勢をもとに前記対象物体が滑る可能性を判定する判定部と
 を具備する情報処理装置。
(2)(1)に記載の情報処理装置であって、
 前記検出部は、前記入力画像から歩行者を検出可能であり、
 前記判定部は、推定された前記歩行者の姿勢をもとに、前記歩行者が滑る可能性を判定する
 情報処理装置。
(3)(1)又は(2)に記載の情報処理装置であって、
 前記検出部は、前記入力画像から二輪車及びその運転者を検出可能であり、
 前記推定部は、少なくとも前記運転者の姿勢を推定し、
 前記判定部は、前記推定された前記運転者の姿勢をもとに、前記二輪車が滑る可能性を判定する
 情報処理装置。
(4)(3)に記載の情報処理装置であって、
 前記推定部は、前記二輪車の姿勢を推定し、
 前記判定部は、前記推定された前記二輪車及び前記運転者の各々の姿勢をもとに、前記二輪車が滑る可能性を判定する
 情報処理装置。
(5)(1)から(4)のうちいずれか1つに記載の情報処理装置であって、
 前記判定部は、前記推定された姿勢をもとに前記対象物体に関する特徴点と、前記対象物体の路面との接触点とを算出し、前記特徴点と前記接触点とを結ぶ直線の前記路面に対する角度をもとに、前記滑る可能性を判定する
 情報処理装置。
(6)(5)に記載の情報処理装置であって、
 前記特徴点は、前記対象物体の重心点である
 情報処理装置。
(7)(5)に記載の情報処理装置であって、
 前記検出部は、前記入力画像から二輪車及びその運転者を検出可能であり、
 前記判定部は、前記特徴点として、前記運転者の重心点、又は前記二輪車及びその運転者の全体の重心点を算出する
 情報処理装置。
(8)(1)から(7)のうちいずれか1つに記載の情報処理装置であって、さらに、
 路面状態に関する路面情報を取得する取得部を具備し、
 前記判定部は、前記取得された路面情報をもとに、前記滑る可能性を判定する
 情報処理装置。
(9)(8)に記載の情報処理装置であって、
 前記判定部は、前記取得された路面情報をもとに路面の滑りやすさを判定し、前記判定された滑りやすさをもとに、前記滑る可能性を判定する
 情報処理装置。
(10)(8)又は(9)に記載の情報処理装置であって、
 前記路面情報は、前記路面の傾斜角度を含み、
 前記判定部は、前記路面の傾斜角度をもとに、前記直線の前記路面に対する角度を算出する
 情報処理装置。
(11)(1)から(10)のうちいずれか1つに記載の情報処理装置であって、
 前記推定部は、前記検出された対象物体の骨格を推定する
 情報処理装置。
(12)(1)から(11)のうちいずれか1つに記載の情報処理装置であって、
 前記情報処理装置は、移動体装置に搭載されるものであり、さらに、前記判定された滑る可能性をもとに、前記移動体装置の運転に関する危険を回避するための危険回避情報を生成して出力する出力部を具備する
 情報処理装置。
(13)(12)に記載の情報処理装置であって、
 前記出力部は、前記滑る可能性が高いと判定された前記対象物体を識別可能な画像を出力する
 情報処理装置。
(14)(12)又は(13)に記載の情報処理装置であって、
 前記出力部は、前記滑る可能性が高いと判定された前記対象物体に設定される危険領域を含む画像を出力する
 情報処理装置。
 R…路面
 L…重心点と接地点とを結ぶ直線
 1…対象物体
 2…歩行者
 3…自転車
 4…自転車の運転者
 40、240、340…危険回避装置
 41…画像取得部
 42…物体検出部
 43…姿勢推定部
 44、244…可能性判定部
 45…警告出力部
 55、95…重心点
 56…接地点
 60…危険回避画像
 61…危険領域
 62…危険回避経路
 100…自動車
 246…姿勢判定部
 247…偏光画像取得部
 248、348…路面状態検出部
 249…路面判定部
 349…閾値設定部

Claims (16)

  1.  入力画像から対象物体を検出する検出部と、
     前記検出された対象物体の姿勢を推定する推定部と、
     前記推定された姿勢をもとに前記対象物体が滑る可能性を判定する判定部と
     を具備する情報処理装置。
  2.  請求項1に記載の情報処理装置であって、
     前記検出部は、前記入力画像から歩行者を検出可能であり、
     前記判定部は、推定された前記歩行者の姿勢をもとに、前記歩行者が滑る可能性を判定する
     情報処理装置。
  3.  請求項1に記載の情報処理装置であって、
     前記検出部は、前記入力画像から二輪車及びその運転者を検出可能であり、
     前記推定部は、少なくとも前記運転者の姿勢を推定し、
     前記判定部は、前記推定された前記運転者の姿勢をもとに、前記二輪車が滑る可能性を判定する
     情報処理装置。
  4.  請求項3に記載の情報処理装置であって、
     前記推定部は、前記二輪車の姿勢を推定し、
     前記判定部は、前記推定された前記二輪車及び前記運転者の各々の姿勢をもとに、前記二輪車が滑る可能性を判定する
     情報処理装置。
  5.  請求項1に記載の情報処理装置であって、
     前記判定部は、前記推定された姿勢をもとに前記対象物体に関する特徴点と、前記対象物体の路面との接触点とを算出し、前記特徴点と前記接触点とを結ぶ直線の前記路面に対する角度をもとに、前記滑る可能性を判定する
     情報処理装置。
  6.  請求項5に記載の情報処理装置であって、
     前記特徴点は、前記対象物体の重心点である
     情報処理装置。
  7.  請求項5に記載の情報処理装置であって、
     前記検出部は、前記入力画像から二輪車及びその運転者を検出可能であり、
     前記判定部は、前記特徴点として、前記運転者の重心点、又は前記二輪車及びその運転者の全体の重心点を算出する
     情報処理装置。
  8.  請求項1に記載の情報処理装置であって、さらに、
     路面状態に関する路面情報を取得する取得部を具備し、
     前記判定部は、前記取得された路面情報をもとに、前記滑る可能性を判定する
     情報処理装置。
  9.  請求項8に記載の情報処理装置であって、
     前記判定部は、前記取得された路面情報をもとに路面の滑りやすさを判定し、前記判定された滑りやすさをもとに、前記滑る可能性を判定する
     情報処理装置。
  10.  請求項8に記載の情報処理装置であって、
     前記路面情報は、前記路面の傾斜角度を含み、
     前記判定部は、前記路面の傾斜角度をもとに、前記直線の前記路面に対する角度を算出する
     情報処理装置。
  11.  請求項1に記載の情報処理装置であって、
     前記推定部は、前記検出された対象物体の骨格を推定する
     情報処理装置。
  12.  請求項1に記載の情報処理装置であって、
     前記情報処理装置は、移動体装置に搭載されるものであり、さらに、前記判定された滑る可能性をもとに、前記移動体装置の運転に関する危険を回避するための危険回避情報を生成して出力する出力部を具備する
     情報処理装置。
  13.  請求項12に記載の情報処理装置であって、
     前記出力部は、前記滑る可能性が高いと判定された前記対象物体を識別可能な画像を出力する
     情報処理装置。
  14.  請求項12に記載の情報処理装置であって、
     前記出力部は、前記滑る可能性が高いと判定された前記対象物体に設定される危険領域を含む画像を出力する
     情報処理装置。
  15.  入力画像から対象物体を検出し、
     前記検出された対象物体の姿勢を推定し、
     前記推定された姿勢をもとに前記対象物体が滑る可能性を判定する
     ことをコンピュータが実行する情報処理方法。
  16.  入力画像から対象物体を検出するステップと、
     前記検出された対象物体の姿勢を推定するステップと、
     前記推定された姿勢をもとに前記対象物体が滑る可能性を判定するステップと
     をコンピュータに実行させるプログラム。
PCT/JP2016/003885 2015-09-29 2016-08-26 情報処理装置、情報処理方法、及びプログラム WO2017056385A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP16850568.3A EP3358547A4 (en) 2015-09-29 2016-08-26 INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND PROGRAM
US15/760,412 US10692379B2 (en) 2015-09-29 2016-08-26 Image processing device and image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015191190 2015-09-29
JP2015-191190 2015-09-29

Publications (1)

Publication Number Publication Date
WO2017056385A1 true WO2017056385A1 (ja) 2017-04-06

Family

ID=58422943

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/003885 WO2017056385A1 (ja) 2015-09-29 2016-08-26 情報処理装置、情報処理方法、及びプログラム

Country Status (3)

Country Link
US (1) US10692379B2 (ja)
EP (1) EP3358547A4 (ja)
WO (1) WO2017056385A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110261867A (zh) * 2018-03-12 2019-09-20 松下知识产权经营株式会社 跟踪装置和跟踪方法
JP7488376B2 (ja) 2020-06-24 2024-05-21 ヒューマニシング オートノミー リミテッド マイクロモビリティユーザーのリスクを判断するための外観と動きに基づくモデル

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220083786A1 (en) 2019-01-17 2022-03-17 Jungo Connectivity Ltd. Method and system for monitoring a person using infrared and visible light
US11851060B2 (en) 2020-03-15 2023-12-26 Ron Zass Controlling vehicles in response to windows
JP7348874B2 (ja) * 2020-04-06 2023-09-21 トヨタ自動車株式会社 傾斜角検出装置及び制御装置
JP7380449B2 (ja) * 2020-06-30 2023-11-15 トヨタ自動車株式会社 判定装置及びプログラム

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005242914A (ja) * 2004-02-27 2005-09-08 Sumitomo Electric Ind Ltd 人間認識システム及び画像処理装置
WO2007088859A1 (ja) * 2006-02-01 2007-08-09 Pioneer Corporation 路面状況判断装置、経路探索装置、位置設定装置、路面状況判断方法、経路探索方法、位置設定方法、プログラムおよび記録媒体
JP2007279808A (ja) * 2006-04-03 2007-10-25 Honda Motor Co Ltd 車両周辺監視装置
JP2009122854A (ja) * 2007-11-13 2009-06-04 Aisin Aw Co Ltd 注意喚起システム及びプログラム
JP2010072839A (ja) * 2008-09-17 2010-04-02 Toyota Motor Corp 衝突予測装置
JP2013232080A (ja) * 2012-04-27 2013-11-14 Denso Corp 対象物識別装置
JP2014067269A (ja) * 2012-09-26 2014-04-17 Denso Corp 検出装置
WO2016092650A1 (ja) * 2014-12-10 2016-06-16 三菱電機株式会社 画像処理装置及び車載表示システム及び表示装置及び画像処理方法及び画像処理プログラム
WO2016098238A1 (ja) * 2014-12-19 2016-06-23 株式会社日立製作所 走行制御装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3582570B2 (ja) 1998-02-10 2004-10-27 三菱自動車工業株式会社 路面状態判別装置
JP4760715B2 (ja) * 2004-12-28 2011-08-31 株式会社豊田中央研究所 車両運動制御装置
US7613324B2 (en) * 2005-06-24 2009-11-03 ObjectVideo, Inc Detection of change in posture in video
US7671725B2 (en) 2006-03-24 2010-03-02 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus, vehicle surroundings monitoring method, and vehicle surroundings monitoring program
US8965050B2 (en) * 2010-08-31 2015-02-24 Omron Corporation Behavior analysis device
CN103907146A (zh) * 2011-09-20 2014-07-02 丰田自动车株式会社 行人行动预测装置以及行人行动预测方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005242914A (ja) * 2004-02-27 2005-09-08 Sumitomo Electric Ind Ltd 人間認識システム及び画像処理装置
WO2007088859A1 (ja) * 2006-02-01 2007-08-09 Pioneer Corporation 路面状況判断装置、経路探索装置、位置設定装置、路面状況判断方法、経路探索方法、位置設定方法、プログラムおよび記録媒体
JP2007279808A (ja) * 2006-04-03 2007-10-25 Honda Motor Co Ltd 車両周辺監視装置
JP2009122854A (ja) * 2007-11-13 2009-06-04 Aisin Aw Co Ltd 注意喚起システム及びプログラム
JP2010072839A (ja) * 2008-09-17 2010-04-02 Toyota Motor Corp 衝突予測装置
JP2013232080A (ja) * 2012-04-27 2013-11-14 Denso Corp 対象物識別装置
JP2014067269A (ja) * 2012-09-26 2014-04-17 Denso Corp 検出装置
WO2016092650A1 (ja) * 2014-12-10 2016-06-16 三菱電機株式会社 画像処理装置及び車載表示システム及び表示装置及び画像処理方法及び画像処理プログラム
WO2016098238A1 (ja) * 2014-12-19 2016-06-23 株式会社日立製作所 走行制御装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3358547A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110261867A (zh) * 2018-03-12 2019-09-20 松下知识产权经营株式会社 跟踪装置和跟踪方法
JP7488376B2 (ja) 2020-06-24 2024-05-21 ヒューマニシング オートノミー リミテッド マイクロモビリティユーザーのリスクを判断するための外観と動きに基づくモデル

Also Published As

Publication number Publication date
US20180268700A1 (en) 2018-09-20
EP3358547A1 (en) 2018-08-08
US10692379B2 (en) 2020-06-23
EP3358547A4 (en) 2019-05-08

Similar Documents

Publication Publication Date Title
US20210166007A1 (en) Information processing apparatus, information processing method, and program
WO2017056385A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US9116784B2 (en) System and method for preventing vehicle from rolling over in curved lane
US10131276B2 (en) Vehicle sightline guidance apparatus
JP2018195301A (ja) 制御装置及び制御方法
US20180326992A1 (en) Driver monitoring apparatus and driver monitoring method
US10878253B2 (en) Periphery monitoring device
US8538629B2 (en) Bottleneck light and method of assisting a driver in steering a vehicle
JP5039765B2 (ja) 車両制御装置
US11981323B2 (en) Drive assistance device for saddle type vehicle
US20140176714A1 (en) Collision prevention warning method and device capable of tracking moving object
US20170330463A1 (en) Driving support apparatus and driving support method
CN110588623B (zh) 一种基于神经网络的大型汽车安全驾驶方法及系统
KR102239992B1 (ko) 차량 충돌 경고 방법 및 장치
JP6722400B2 (ja) 車両の運転支援装置
US11772614B2 (en) Drive assistance device for saddle type vehicle
JP5516988B2 (ja) 駐車支援装置
WO2017056381A1 (ja) 被害低減装置、被害低減方法、及びプログラム
US11679834B2 (en) Driving assistance device for saddle type vehicle
JPWO2019142312A1 (ja) 車両制御装置、それを有する車両、および制御方法
JP2019064301A (ja) 車両の制御装置及び車両の制御方法
WO2018212090A1 (ja) 制御装置及び制御方法
US11974061B2 (en) Display processing device, display processing method, and recording medium
JP2005284799A (ja) 歩行者検出装置
JP5946349B2 (ja) ドライビングシミュレータ

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16850568

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15760412

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2016850568

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: JP