WO2020189156A1 - 情報処理装置と情報処理方法および移動制御装置と移動制御方法 - Google Patents

情報処理装置と情報処理方法および移動制御装置と移動制御方法 Download PDF

Info

Publication number
WO2020189156A1
WO2020189156A1 PCT/JP2020/006446 JP2020006446W WO2020189156A1 WO 2020189156 A1 WO2020189156 A1 WO 2020189156A1 JP 2020006446 W JP2020006446 W JP 2020006446W WO 2020189156 A1 WO2020189156 A1 WO 2020189156A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
acceleration
moving body
passenger
allowable
Prior art date
Application number
PCT/JP2020/006446
Other languages
English (en)
French (fr)
Inventor
竜太 佐藤
卓 青木
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2021507115A priority Critical patent/JP7380674B2/ja
Priority to EP20773995.4A priority patent/EP3943342A4/en
Priority to US17/593,047 priority patent/US20220185278A1/en
Priority to CN202080020631.3A priority patent/CN113557174A/zh
Publication of WO2020189156A1 publication Critical patent/WO2020189156A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/143Speed control
    • B60W30/146Speed limiting
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0098Details of control systems ensuring comfort, safety or stability not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0011Planning or execution of driving tasks involving control alternatives for a single driving scenario, e.g. planning several paths to avoid obstacles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • B60W60/0016Planning or execution of driving tasks specially adapted for safety of the vehicle or its occupants
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • G01C21/343Calculating itineraries, i.e. routes leading from a starting point to a series of categorical destinations using a global route restraint, round trips, touristic trips
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/593Recognising seat occupancy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0881Seat occupation; Driver or passenger presence
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0019Control system elements or transfer functions
    • B60W2050/0026Lookup tables or parameter maps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2300/00Indexing codes relating to the type of vehicle
    • B60W2300/10Buses
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/01Occupants other than the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/10Accelerator pedal position
    • B60W2540/103Accelerator thresholds, e.g. kickdown
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/223Posture, e.g. hand, foot, or seat position, turned or inclined
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/227Position in the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/10Longitudinal speed
    • B60W2720/106Longitudinal acceleration

Definitions

  • This technology makes it possible to improve the safety of passengers on moving objects with respect to information processing devices and information processing methods, and movement control devices and movement control methods.
  • Patent Document 1 describes that the passenger's riding state and the running state of the vehicle are grasped, and the safety of the passenger is notified based on the riding state and the running state.
  • Patent Document 1 notifies the danger with images and sounds, safety cannot be ensured unless the passenger takes an action corresponding to the notification.
  • the purpose of this technology is to provide an information processing device and an information processing method, and a movement control device and a movement control method that can improve the safety of the passenger regardless of the safety notification.
  • the information processing device includes an allowable acceleration setting unit that sets an allowable acceleration in the moving body based on the boarding state of the passenger in the moving body.
  • the permissible acceleration setting unit detects the boarding state of the occupant, for example, based on the captured image of the occupant in the moving body.
  • the posture of the occupant for example, the opening width of the foot, the arrangement angle of the foot with respect to the moving direction of the moving body, the posture holding state of the occupant, and the like are detected.
  • the boarding state the position of the occupant in the moving body and the time change of the boarding state may be used. Based on such a boarding state, an acceptable acceleration is set using a conversion table showing the relationship between the boarding state and the allowable acceleration.
  • the conversion table a conversion table according to the movement status of the moving body is used.
  • the conversion table according to the movement path of the moving body may be used, or the conversion table may be switched according to the change in the movement situation.
  • the allowable acceleration setting unit the allowable acceleration determined for each passenger is integrated to set the allowable acceleration in the moving body.
  • the second aspect of this technology is The information processing method includes setting the allowable acceleration of the moving body by the allowable acceleration setting unit based on the boarding state of the passenger in the moving body.
  • the third aspect of this technology is An allowable acceleration setting unit that sets an allowable acceleration in the moving body based on the boarding state of the passenger in the moving body
  • the movement control device includes a control unit that controls the movement of the moving body so as not to exceed the allowable acceleration set by the allowable acceleration setting unit.
  • the permissible acceleration setting unit allows the moving body based on the boarding state of the passenger in the moving body, for example, the boarding state of the passenger detected based on the captured image obtained by imaging the passenger in the moving body.
  • the possible acceleration is set.
  • movement control of the moving body for example, setting of a movement path is performed so as not to exceed the allowable acceleration set by the allowable acceleration setting unit.
  • the candidate route having the smallest acceleration or the candidate route having the smallest difference from the allowable acceleration is set as the movement route, with the route not exceeding the allowable acceleration as the candidate route. If there is no path that does not exceed the permissible acceleration, the path with the smallest acceleration is set as the movement path.
  • the fourth aspect of this technology is Based on the boarding state of the passenger in the moving body, the allowable acceleration of the moving body is set by the allowable acceleration setting unit, and
  • the movement control method includes performing movement control of the moving body by the control unit so as not to exceed the allowable acceleration set by the allowable acceleration setting unit.
  • FIG. 1 illustrates the configuration of an information processing device.
  • the information processing device 10 includes not only the allowable acceleration setting unit 40 for setting the allowable acceleration of the moving body, but also the imaging unit 20 for imaging the occupant in order to detect the boarding state of the occupant in the moving body, and the imaging unit 20.
  • the boarding state detection unit 30 for detecting the boarding state of the occupant is provided based on the image acquired in the above, the information processing device of the present technology is composed of only the allowable acceleration setting unit 40. May be good.
  • the image pickup unit 20 includes an image pickup lens that forms an image of the subject optical image on the image pickup surface of the image pickup element, CMOS (Complementary Metal Oxide Semiconductor), CCD (Charge Coupled Device), and the like that generate an image signal according to the optical image by performing photoelectric conversion. It also has an image sensor, an image signal processing unit that performs camera signal processing on the image signal generated by the image sensor, and generates an image signal indicating an image taken with good image quality.
  • the imaging unit 20 generates an image signal of an captured image indicating a passenger of a moving body and outputs the image signal to the boarding state detection unit 30.
  • the boarding state detection unit 30 uses the image signal generated by the image pickup unit 20 to detect the boarding state of the passengers included in the captured image for each passenger.
  • the boarding state detection unit 30 collates, for example, the feature points extracted from the captured image with the shape of the object defined by the model data, and thereby, the posture of the passenger or the posture of the passenger and the posture of the passenger in the moving body. Detect the position as boarding status.
  • the boarding state detection unit 30 may detect a gripping state of a handrail, a strap, or the like as a boarding state.
  • the boarding state detection unit 30 may detect the boarding state of the occupant based on the captured image by using machine learning or the like.
  • the boarding state detection unit 30 outputs the detection result of the boarding state to the allowable acceleration setting unit 40.
  • the boarding state is detected not only by the image generated by the imaging unit 20 but also by using various sensors or the like.
  • the permissible acceleration setting unit 40 sets the permissible acceleration of the moving body based on the boarding state detected by the boarding state detection unit 30. For example, the permissible acceleration for each passenger in the moving body is determined, and the permissible acceleration determined for each passenger (hereinafter referred to as "individual permissible acceleration") is integrated to set the permissible acceleration for the moving body.
  • the configuration and operation of the allowable acceleration setting unit 40 will be described in each embodiment described later.
  • FIG. 2 is a flowchart illustrating the operation of the information processing device.
  • the information processing device 10 performs an image acquisition process.
  • the information processing device 10 acquires an image of the passenger of the moving body and proceeds to step ST2.
  • step ST2 the information processing device 10 performs boarding state detection processing.
  • the information processing device 10 detects the boarding state of each occupant based on the captured image acquired in step ST1 and proceeds to step ST3.
  • step ST3 the information processing device 10 performs individual permissible acceleration determination processing.
  • the information processing device 10 determines the individual permissible acceleration for each passenger based on the boarding state detected in step ST2, and proceeds to step ST4.
  • step ST4 the information processing device 10 performs individual permissible acceleration integration processing.
  • the information processing device 10 integrates the individual permissible accelerations determined for each passenger in step ST3 to set the permissible accelerations for moving objects.
  • FIG. 3 illustrates the configuration of the first embodiment of the information processing apparatus.
  • the information processing device 10 includes an imaging unit 20, a boarding state detection unit 30, and an allowable acceleration setting unit 40-1. Further, the permissible acceleration setting unit 40-1 has a conversion table storage unit 41, an individual permissible acceleration determination unit 45, and an individual permissible acceleration integration unit 48.
  • the conversion table storage unit 41 stores a conversion table showing the permissible acceleration based on the boarding state. For example, a conversion table showing the permissible acceleration corresponding to the parameter value is stored in the boarding state detected by the boarding state detection unit 30 for each passenger as a parameter.
  • the individual permissible acceleration determination unit 45 determines the individual permissible acceleration corresponding to the detection result of the boarding state for each passenger based on the conversion table stored in the conversion table storage unit 41.
  • the individual permissible acceleration determination unit 45 outputs the determination result of the individual permissible acceleration for each passenger to the individual permissible acceleration integration unit 48.
  • the individual permissible acceleration integration unit 48 integrates the individual permissible accelerations determined for each passenger by the individual permissible acceleration determination unit 45, and sets the individual permissible acceleration with the smallest acceleration for each direction as the moving body permissible acceleration.
  • FIG. 4 is a flowchart illustrating the operation of the first embodiment. The flowchart shows the individual permissible acceleration determination process in FIG.
  • step ST11 the allowable acceleration setting unit acquires the boarding state detection result.
  • the permissible acceleration setting unit 40-1 acquires detection information indicating the boarding state detected for each passenger by the boarding state detection unit 30, and proceeds to step ST12.
  • step ST12 the allowable acceleration setting unit selects the passenger to be judged.
  • the permissible acceleration setting unit 40-1 selects a passenger whose individual permissible acceleration has not been determined as a determination target passenger, and proceeds to step ST13.
  • step ST13 the allowable acceleration setting unit performs the allowable acceleration determination process.
  • the permissible acceleration setting unit 40-1 determines the individual permissible acceleration according to the boarding state of the passenger to be determined by using the conversion table stored in the conversion table storage unit 41, and proceeds to step ST14.
  • step ST14 the permissible acceleration setting unit determines whether the determination process for each passenger has been completed.
  • the permissible acceleration setting unit 40-1 proceeds to step ST15 when there are passengers for whom the individual permissible acceleration has not been determined, and determines the determination process when the individual permissible acceleration has been determined for all the passengers. To finish.
  • step ST15 the allowable acceleration setting unit updates the passengers to be judged.
  • the permissible acceleration setting unit 40-1 returns to step ST13 with the passenger whose individual permissible acceleration has not been determined as a new determination target passenger.
  • the permissible acceleration setting unit 40-1 sets the permissible acceleration of the moving body by integrating the individual permissible accelerations determined for each passenger by the processes from step ST11 to step ST15. For example, the permissible acceleration setting unit 40-1 selects the smallest acceleration for each direction from the individual permissible accelerations determined for each passenger and sets the permissible acceleration for the moving body.
  • FIG. 5 shows an operation example of the first embodiment.
  • the conversion table storage unit 41 stores a conversion table showing the permissible acceleration with respect to the opening width and the arrangement angle of the passenger's legs.
  • FIG. 5 illustrates an input image acquired by imaging a passenger with the imaging unit 20.
  • the boarding state detection unit 30 detects the feature points of the passenger Ha from the input image and estimates the posture of the passenger Ha based on the detection result.
  • FIG. 5B shows an input image and a posture estimation result.
  • the boarding state detection unit 30 detects the foot positions PL and PR of the occupant Ha as shown in FIG. 5C based on the posture estimation result.
  • the individual permissible acceleration determination unit 45 determines the width (interval) W of the foot positions PL and PR shown in FIG. 5 (d) and the arrangement of the feet with respect to the moving direction DRfb of the moving body.
  • the angle ⁇ is calculated and used as a parameter value.
  • the individual permissible acceleration determination unit 45 acquires the individual permissible acceleration corresponding to the parameter value (width W, angle ⁇ ) of the passenger Ha by using the conversion table shown in FIG. 5 (e). For example, when the angle ⁇ is 90 degrees, it is unstable with respect to the acceleration of the movement direction DRfb, and when the width W becomes wide, it is stable with respect to the acceleration with respect to the foot placement direction.
  • the allowable acceleration of the DRlr is determined to be a large acceleration.
  • the inside of the black circle is the allowable acceleration.
  • the individual permissible acceleration determination unit 45 performs the determination processing of the individual permissible acceleration for each passenger in this way, and the individual permissible acceleration integration unit 48 performs the integration processing of the individual permissible acceleration determined for each passenger in each direction.
  • the smallest individual permissible acceleration is set to the moving body permissible acceleration.
  • FIG. 6 shows another operation example of the first embodiment.
  • the boarding state of the occupant is the position of the occupant, for example, the position of the occupant in the moving body, specifically, the distance from an obstacle (for example, a step) in the moving body, and the position in the moving body.
  • the distance from the support for example, the handrail
  • the conversion table stored in the conversion table storage unit 41 shows the permissible acceleration with respect to the distance between the foot arrangement angle and the obstacle with respect to the moving direction of the moving body and the distance to the support.
  • FIG. 6 illustrates an input image acquired by imaging a passenger with the imaging unit 20.
  • the boarding state detection unit 30 detects the feature points of the passenger Hb from the input image and estimates the posture of the passenger Hb based on the detection result.
  • FIG. 6B shows an input image and a posture estimation result. Based on the posture estimation result, the boarding state detection unit 30 calculates the angle ⁇ of the foot arrangement with respect to the moving direction DRfb of the moving body, the distance Ra to the step, and the distance Rb to the handrail as shown in FIG. 6 (c). To do. As shown in FIG.
  • the boarding state detection unit 30 uses the object indicated by the distance, the distance to the object, and the angle ⁇ of the foot arrangement with respect to the movement direction DRfb as parameters. Further, the individual permissible acceleration determination unit 45 uses the conversion table shown in FIG. 6 (e) to correspond to the parameter values of the passenger Hb (the object indicated by the distance, the distance Ra, Rb to the object, the angle ⁇ ,). Acquire the individual permissible acceleration.
  • the distance Rb to the support portion (handrail or the like) is short, the support portion can be easily used to support the body. Therefore, when the distance Rb is shorter than the threshold value Rbth, the permissible acceleration determined based on the distance Rb may be used in preference to the permissible acceleration determined based on the angle ⁇ and the distance Ra.
  • the allowable moving body acceleration is set according to the posture state of the passenger, so that the passenger Will be able to improve the safety of.
  • Second Embodiment> Next, a second embodiment will be described.
  • the posture and position as the boarding state but also the surrounding environment state of the occupant and the posture holding state of the occupant, for example, the speed change of the moving body by gripping the handrail, the strap, etc.
  • a case of detecting whether or not the posture can be maintained even if it occurs will be described.
  • FIG. 7 illustrates the configuration of the second embodiment of the information processing apparatus.
  • the information processing device 10 includes an imaging unit 20, a boarding state detection unit 30, and an allowable acceleration setting unit 40-2. Further, the permissible acceleration setting unit 40-2 has a conversion table storage unit 41, an individual permissible acceleration determination unit 45, an individual permissible acceleration adjustment unit 47, and an individual permissible acceleration integration unit 48.
  • the conversion table storage unit 41 stores a conversion table showing the permissible acceleration based on the boarding state. For example, a conversion table showing the permissible acceleration corresponding to the parameter value is stored in the boarding state detected by the boarding state detection unit 30 for each passenger as a parameter.
  • the individual permissible acceleration determination unit 45 determines the individual permissible acceleration corresponding to the detection result of the boarding state for each passenger based on the conversion table stored in the conversion table storage unit 41.
  • the individual permissible acceleration determination unit 45 outputs the determination result of the individual permissible acceleration for each passenger to the individual permissible acceleration adjustment unit 47.
  • the individual permissible acceleration adjustment unit 47 adjusts the individual permissible acceleration for each passenger determined by the individual permissible acceleration determination unit 45 according to the posture holding state of the passenger. For example, a passenger holding a handrail, strap, or the like can cope with a larger acceleration. Therefore, the individual permissible acceleration adjustment unit 47 adjusts the individual permissible acceleration using, for example, a correction coefficient set in advance according to the posture holding state, and outputs the adjusted individual permissible acceleration to the individual permissible acceleration integration unit 48. To do.
  • the individual permissible acceleration integration unit 48 performs the integration processing of the individual permissible acceleration supplied from the individual permissible acceleration adjustment unit 47, and sets the individual permissible acceleration with the smallest acceleration for each direction as the moving body permissible acceleration.
  • FIG. 8 is a flowchart illustrating the operation of the second embodiment. The flowchart shows the allowable acceleration setting process in FIG.
  • step ST21 the allowable acceleration setting unit acquires the boarding state detection result.
  • the permissible acceleration setting unit 40-2 acquires the detection information indicating the boarding state detected for each passenger by the boarding state detection unit 30, and proceeds to step ST22.
  • step ST22 the allowable acceleration setting unit selects the passenger to be judged.
  • the permissible acceleration setting unit 40-2 selects a passenger whose individual permissible acceleration has not been determined as a determination target passenger, and proceeds to step ST23.
  • step ST23 the allowable acceleration setting unit performs the allowable acceleration determination process.
  • the permissible acceleration setting unit 40-2 determines the individual permissible acceleration according to the boarding state of the passenger to be determined by using the conversion table stored in the conversion table storage unit 41, and proceeds to step ST24.
  • step ST24 the allowable acceleration setting unit determines whether or not the determination process for each passenger has been completed.
  • the permissible acceleration setting unit 40-2 proceeds to step ST25 when there are passengers for whom the individual permissible acceleration has not been determined, and step ST26 when the individual permissible acceleration has been determined for all the passengers. Proceed to.
  • step ST25 the allowable acceleration setting unit updates the passengers to be judged.
  • the permissible acceleration setting unit 40-2 selects a passenger whose individual permissible acceleration has not been determined as a new determination target passenger, and returns to step ST23.
  • the permissible acceleration setting unit When proceeding from step ST24 to step ST26, the permissible acceleration setting unit performs individual permissible acceleration adjustment processing.
  • the permissible acceleration setting unit 40-2 adjusts the individual permissible acceleration set for each occupant by the processing up to step ST25 according to the posture holding state of the occupant. For example, the permissible acceleration setting unit 40-2 ends the individual permissible acceleration determination process by increasing the individual permissible acceleration corresponding to the passenger holding the handrail, the strap, or the like.
  • the permissible acceleration setting unit 40-2 sets the permissible acceleration of the moving body by integrating the individual permissible accelerations determined for each passenger by the processes from step ST21 to step ST26. For example, the permissible acceleration setting unit 40-2 selects the smallest acceleration for each direction from the individual permissible accelerations set for each passenger and sets the permissible acceleration for the moving body.
  • the safety of the passenger can be improved as in the first embodiment. Further, it becomes possible to set an acceptable acceleration in consideration of not only the position and posture of the passenger but also the posture holding state, and it is possible to prevent the acceleration from being restricted more than necessary.
  • FIG. 9 illustrates the configuration of the third embodiment of the information processing apparatus.
  • the information processing device 10 includes an imaging unit 20, a boarding state detection unit 30, and an allowable acceleration setting unit 40-3.
  • the permissible acceleration setting unit 40-3 has a conversion table storage unit 41, a state information storage unit 42, a conversion table correction unit 43, an individual permissible acceleration determination unit 45, and an individual permissible acceleration integration unit 48.
  • the conversion table storage unit 41 stores a conversion table showing the permissible acceleration based on the boarding state. For example, a conversion table showing the permissible acceleration corresponding to the parameter value is stored in the boarding state detected by the boarding state detection unit 30 for each passenger as a parameter.
  • the state information storage unit 42 stores the detection result of the boarding state detection unit 30.
  • the conversion table correction unit 43 converts according to the time change of the boarding state based on the boarding state detection result supplied from the boarding state detection unit 30 and the past boarding state detection result stored in the state information storage unit 42. Correct the table. For example, when the position or posture of the occupant changes more than a predetermined value, the conversion table is corrected so that the allowable acceleration determined according to the parameter value becomes a small acceleration.
  • the individual permissible acceleration determination unit 45 determines the individual permissible acceleration corresponding to the detection result of the boarding state for each passenger based on the conversion table corrected by the conversion table correction unit 43.
  • the individual permissible acceleration determination unit 45 outputs the determination result of the individual permissible acceleration for each passenger to the individual permissible acceleration integration unit 48.
  • the individual permissible acceleration integration unit 48 integrates the individual permissible acceleration supplied from the individual permissible acceleration determination unit 45, and sets the individual permissible acceleration with the smallest acceleration for each direction as the moving body permissible acceleration.
  • FIG. 10 is a flowchart illustrating the operation of the third embodiment.
  • the flowchart shows the allowable acceleration setting process in FIG.
  • step ST31 the allowable acceleration setting unit acquires the boarding state detection result.
  • the permissible acceleration setting unit 40-3 acquires the detection information indicating the boarding state detected for each passenger by the boarding state detection unit 30, and proceeds to step ST32.
  • step ST32 the allowable acceleration setting unit selects the passenger to be judged.
  • the permissible acceleration setting unit 40-3 selects a passenger whose individual permissible acceleration has not been determined as the determination target passenger, and proceeds to step ST33.
  • step ST33 the permissible acceleration setting unit detects the time change of the boarding state.
  • the permissible acceleration setting unit 40-3 detects the time change of the boarding state based on the boarding state detection result acquired in step ST31 and the boarding state detection result acquired in the past, and proceeds to step ST34.
  • step ST34 the allowable acceleration setting unit performs conversion table correction processing.
  • the permissible acceleration setting unit 40-3 corrects the conversion table based on the time change of the boarding state detected in step ST33.
  • the permissible acceleration setting unit 40-3 is a conversion table so that, for example, when the position or posture of the occupant changes more than a predetermined value, the permissible acceleration determined according to the parameter value becomes smaller. Is corrected and the process proceeds to step ST35.
  • step ST35 the allowable acceleration setting unit performs the allowable acceleration determination process.
  • the permissible acceleration setting unit 40-3 determines the individual permissible acceleration according to the boarding state of the passenger to be determined by using the conversion table corrected in step ST34, and proceeds to step ST36.
  • step ST36 the permissible acceleration setting unit determines whether the determination process for each passenger has been completed.
  • the permissible acceleration setting unit 40-3 proceeds to step ST37 when there is a passenger whose individual permissible acceleration has not been determined, and when the individual permissible acceleration has been determined for all the passengers, the individual permissible acceleration is individually permissible.
  • the acceleration determination process ends.
  • step ST37 the allowable acceleration setting unit updates the passengers to be judged.
  • the permissible acceleration setting unit 40-3 selects a passenger whose individual permissible acceleration has not been determined as a new determination target passenger, and returns to step ST33.
  • the permissible acceleration setting unit 40-3 sets the permissible acceleration of the moving body by integrating the individual permissible accelerations determined for each passenger by the processes from step ST31 to step ST37. For example, the permissible acceleration setting unit 40-3 selects the smallest acceleration for each direction from the individual permissible accelerations determined for each passenger and sets the permissible acceleration for the moving body.
  • FIG. 11 shows an operation example of the third embodiment.
  • FIG. 11A exemplifies a conversion table stored in the conversion table storage unit 41.
  • FIG. 11B exemplifies the time change of the boarding state. From the time point t0 to the time point t1, for example, the foot position changes from the position PL0 to the position PL1 more than a predetermined value due to the change in acceleration. ing.
  • the conversion table correction unit 43 corrects the conversion table so that the change in the boarding state is suppressed, and the allowable acceleration is smaller than that of the conversion table shown in FIG. 11 (a) (c). Correct to the conversion table shown in. Therefore, when the change in the boarding state is large with the passage of time, the permissible acceleration is reduced, and the safety of the occupant can be improved.
  • FIG. 12 shows the configuration of the fourth embodiment of the information processing apparatus. Illustrate.
  • the information processing device 10 includes an imaging unit 20, a boarding state detection unit 30, and an allowable acceleration setting unit 40-4. Further, the permissible acceleration setting unit 40-4 has a conversion table storage unit 41, a conversion table selection unit 44, an individual permissible acceleration determination unit 45, and an individual permissible acceleration integration unit 48.
  • the conversion table storage unit 41 stores a conversion table showing the permissible acceleration based on the boarding state. For example, a conversion table showing the permissible acceleration corresponding to the parameter value is stored in the boarding state detected by the boarding state detection unit 30 for each passenger as a parameter.
  • the conversion table selection unit 44 is supplied with movement status information indicating the movement status of the moving body. At least either static information or dynamic information is used as the movement status information. As the static information, for example, information indicating the route of the moving body or the like is used. Further, as the dynamic information, for example, information indicating at least one of the operating status and operating time of the moving body, the shaking frequency of the moving body, the weather, the congestion status in the vehicle, and the traffic congestion status of the vehicle is used.
  • the conversion table selection unit 44 acquires a conversion table according to the movement status of the moving body from the conversion table storage unit 41 and outputs it to the individual allowable acceleration determination unit 45. For example, the conversion table selection unit 44 outputs the conversion table according to the movement path of the moving body to the individual allowable acceleration determination unit 45. In addition, the conversion table selection unit 44 switches the conversion table according to changes in operating conditions, weather, and the like.
  • the individual permissible acceleration determination unit 45 determines the individual permissible acceleration corresponding to the detection result of the boarding state for each passenger based on the conversion table supplied from the conversion table selection unit 44.
  • the individual permissible acceleration determination unit 45 outputs the determination result of the individual permissible acceleration for each passenger to the individual permissible acceleration integration unit 48.
  • the individual permissible acceleration integration unit 48 integrates the individual permissible acceleration supplied from the individual permissible acceleration adjustment unit 47, and sets the individual permissible acceleration with the smallest acceleration in each direction as the moving body permissible acceleration.
  • FIG. 13 is a flowchart illustrating the operation of the fourth embodiment. The flowchart shows the allowable acceleration setting process in FIG.
  • step ST41 the allowable acceleration setting unit acquires the boarding state detection result.
  • the permissible acceleration setting unit 40-4 acquires the detection information indicating the boarding state detected for each passenger by the boarding state detection unit 30, and proceeds to step ST42.
  • step ST42 the allowable acceleration setting unit acquires the movement status information.
  • the permissible acceleration setting unit 40-4 acquires movement status information indicating at least one of the movement path and movement environment of the moving body from the outside, and proceeds to step ST43.
  • step ST43 the allowable acceleration setting unit determines whether the conversion table needs to be changed.
  • the permissible acceleration setting unit 40-4 determines whether or not the conversion table needs to be changed based on the movement status information acquired in step ST42, and if it determines that the conversion table needs to be changed, proceeds to step ST44 and proceeds to step ST44. If it is determined that the change is not necessary, the process proceeds to step ST45.
  • step ST44 the allowable acceleration setting unit changes the conversion table.
  • the permissible acceleration setting unit 40-4 selects a conversion table according to the movement status information acquired in step ST42 from the conversion table stored in the conversion table storage unit 41, and proceeds to step ST45.
  • step ST45 the allowable acceleration setting unit selects the passenger to be judged.
  • the permissible acceleration setting unit 40-4 selects a passenger whose individual permissible acceleration has not been determined as a determination target passenger, and proceeds to step ST46.
  • step ST46 the allowable acceleration setting unit performs the allowable acceleration determination process.
  • the permissible acceleration setting unit 40-4 determines the individual permissible acceleration according to the boarding state of the passenger to be determined by using the conversion table stored in the conversion table storage unit 41, and proceeds to step ST47.
  • step ST47 the permissible acceleration setting unit determines whether the determination process for each passenger has been completed.
  • the permissible acceleration setting unit 40-4 proceeds to step ST48 when there is a passenger whose individual permissible acceleration has not been determined, and when the individual permissible acceleration has been determined for all the passengers, the individual permissible acceleration is individually permissible.
  • the acceleration determination process ends.
  • step ST48 the allowable acceleration setting unit updates the passengers to be judged.
  • the permissible acceleration setting unit 40-4 selects a passenger whose individual permissible acceleration has not been determined as a new determination target passenger, and returns to step ST46.
  • the permissible acceleration setting unit 40-4 sets the permissible acceleration of the moving body by integrating the individual permissible accelerations determined for each passenger by the processes from step ST41 to step ST48. For example, the permissible acceleration setting unit 40-4 selects the smallest acceleration for each direction from the individual permissible accelerations determined for each passenger and sets the permissible acceleration for the moving body.
  • the allowable acceleration of the moving body is set according to not only the boarding state of the passenger but also the moving state of the moving body, so that the safety can be further improved.
  • the allowable moving body acceleration is set based on the boarding state of the passenger in the moving body, and in the movement control device, the allowable moving body acceleration set in the information processing device is not exceeded. Controls the movement of the moving body.
  • FIG. 14 illustrates the configuration of the movement control device.
  • the movement control device 15 not only the control unit 50 that performs movement control with the allowable acceleration of the moving body set by the allowable acceleration setting unit 40, but also the passenger is imaged in order to detect the boarding state of the occupant in the moving body.
  • the image pickup unit 20 and the boarding state detection unit 30 for detecting the boarding state of the occupant based on the image acquired by the image pickup unit 20 are provided, the movement control device of the present technology controls. It may be composed of only a part 50.
  • the image pickup unit 20 includes an image pickup lens that forms an image of the subject optical image on the image pickup surface of the image pickup element, CMOS (Complementary Metal Oxide Semiconductor), CCD (Charge Coupled Device), and the like that generate an image signal according to the optical image by performing photoelectric conversion. It also has an image sensor, an image signal processing unit that performs camera signal processing on the image signal generated by the image sensor, and generates an image signal indicating an image taken with good image quality.
  • the imaging unit 20 generates an image signal of an captured image indicating a passenger of a moving body and outputs the image signal to the boarding state detection unit 30.
  • the boarding state detection unit 30 uses the image signal generated by the image pickup unit 20 to detect the boarding state of the passengers included in the captured image for each passenger.
  • the boarding state detection unit 30 collates, for example, the feature points extracted from the captured image with the shape of the object defined by the model data, and thereby, the posture of the passenger or the posture of the passenger and the posture of the passenger in the moving body. Detect the position as boarding status. Further, the boarding state detection unit 30 may detect the boarding state of the occupant based on the captured image by using machine learning or the like.
  • the boarding state detection unit 30 outputs the detection result of the boarding state to the allowable acceleration setting unit 40.
  • the permissible acceleration setting unit 40 sets the permissible acceleration of the moving body based on the boarding state detected by the boarding state detection unit 30. As described above, the permissible acceleration setting unit 40 determines the permissible acceleration for each passenger in the moving body, integrates the individual permissible accelerations determined for each passenger, and sets and controls the permissible acceleration for the moving body. Output to unit 50.
  • the control unit 50 performs the operation of the moving body, for example, the selection or change of the moving path, based on the moving body allowable acceleration set by the allowable acceleration setting unit 40.
  • the configuration and operation of the control unit 50 will be described in each embodiment.
  • FIG. 15 is a flowchart illustrating the operation of the movement control device.
  • the movement control device performs an image acquisition process.
  • the movement control device 15 acquires an image of the passenger of the moving body and proceeds to step ST52.
  • step ST52 the movement control device 15 performs boarding state detection processing.
  • the movement control device 15 determines the boarding state of the passengers for each passenger based on the captured image acquired in step ST51, and proceeds to step ST53.
  • step ST53 the information processing device 10 performs individual allowable acceleration determination processing.
  • the information processing device 10 determines the individual permissible acceleration for each passenger based on the boarding state detected in step ST52, and proceeds to step ST54.
  • step ST54 the information processing device 10 performs individual permissible acceleration integration processing.
  • the information processing device 10 integrates the individual permissible accelerations determined for each passenger in step ST53, sets the permissible acceleration of the moving body, and proceeds to step ST55.
  • step ST55 the movement control device 15 performs the movement control process.
  • the movement control device 15 performs movement control of the moving body based on the moving body allowable acceleration set in step ST53.
  • FIG. 16 illustrates the configuration of the embodiment of the control unit.
  • the control unit 50 of the movement control device 15 has an acceleration determination unit 51 and a route planning unit 52.
  • the acceleration determination unit 51 acquires acceleration information for each route (hereinafter referred to as “path acceleration information”) from the route planning unit 52, and determines a portion exceeding the allowable acceleration of the moving body set by the allowable acceleration setting unit 40. , The determination result is output to the route planning unit 52.
  • the path acceleration information is information indicating the acceleration on the path when the moving body moves on the path.
  • the route planning unit 52 has route acceleration information for each route of the moving body.
  • the route planning unit 52 supplies the route acceleration information to the acceleration determination unit 51, and based on the determination result supplied from the acceleration determination unit 51, the route does not exceed the moving body allowable acceleration, or the route does not exceed the moving body allowable acceleration. If there is no, the path with the smallest difference from the allowable acceleration of the moving body is set as the moving path of the moving body.
  • FIG. 17 is a flowchart illustrating the operation of the embodiment. The flowchart shows the movement control process in FIG.
  • step ST61 the control unit acquires the allowable acceleration of the moving body.
  • the control unit 50 acquires the permissible acceleration of the moving body set by the permissible acceleration setting unit 40 and proceeds to step ST62.
  • step ST62 the control unit acquires the route acceleration information for each route.
  • the acceleration determination unit 51 of the control unit 50 acquires the route acceleration information for each route from the route planning unit 52 and proceeds to step ST63.
  • step ST63 the control unit selects a route.
  • the acceleration determination unit 51 of the control unit 50 selects the route on which the route acceleration information is shown and proceeds to step ST64.
  • step ST64 the control unit determines whether or not the allowable acceleration of the moving body is exceeded.
  • the acceleration determination unit 51 of the control unit 50 determines whether or not the allowable acceleration of the moving body is exceeded while moving the selected route based on the route acceleration information of the route selected in step ST63. If the acceleration determination unit 51 determines that the path acceleration does not exceed the allowable acceleration of the moving body, the process proceeds to step ST65. If it is determined that the value is exceeded, the process proceeds to step ST66.
  • step ST65 the control unit sets the selected route as a candidate route.
  • the acceleration determination unit 51 of the control unit 50 sets a route that does not exceed the allowable acceleration of the moving body as a candidate route, and proceeds to step ST67.
  • step ST66 the control unit sets the selected route as a non-candidate route.
  • the acceleration determination unit 51 of the control unit 50 sets a path exceeding the allowable acceleration of the moving body as a non-candidate route and proceeds to step ST67.
  • step ST67 the control unit determines whether the route determination is completed.
  • the acceleration determination unit 51 of the control unit 50 determines that the route determination has ended and proceeds to step ST69 to determine the candidate route or the non-candidate route. If there is a route for which is not performed, it is determined that the route determination is not completed, and the process proceeds to step ST68.
  • step ST68 the control unit selects a new route.
  • the acceleration determination unit 51 of the control unit 50 newly selects a route for which the candidate route or the non-candidate route has not been determined, and returns to step ST64.
  • step ST69 the control unit determines whether there is a candidate route.
  • the route planning unit 52 of the control unit 50 proceeds to step ST70 when it determines that there is a candidate route, and proceeds to step ST71 when it determines that there is no candidate route.
  • step ST70 the control unit selects a movement route from the candidate routes.
  • the route planning unit 52 of the control unit 50 selects the candidate route having the minimum route acceleration as the movement route based on the route acceleration of each candidate route. Further, if the route planning unit 52 selects the candidate route having the smallest difference between the route acceleration and the allowable moving body acceleration as the moving route based on the path acceleration and the allowable moving body acceleration of each candidate route, the acceleration of the moving body can be increased. It is possible to prevent it from being over-restricted.
  • the route planning unit 52 selects a movement route and proceeds to step ST72.
  • step ST71 the control unit selects a movement route from non-candidate routes.
  • the route planning unit 52 of the control unit 50 selects the non-candidate route having the minimum route acceleration as the movement route based on the route acceleration of each non-candidate route, and proceeds to step ST72.
  • step ST72 the control unit outputs the movement route.
  • the route planning unit 52 of the control unit 50 notifies the outside of the movement route set in step ST70 or step ST71. Further, the route planning unit 52 may output the movement route identification information together with the movement route so that it is possible to identify whether the movement route is a candidate route or a non-candidate route together with the movement route.
  • the movement control can be performed by suppressing the acceleration of the moving body rather than the path acceleration.
  • FIG. 18 illustrates a route selection operation based on a set allowable acceleration, and shows a case where the bus MTa avoids the bicycle MTb traveling in front.
  • the allowable acceleration of the left-right DRlr is smaller than the allowable acceleration of the moving direction DRfb, which is the front-back direction
  • the avoidance operation that limits the acceleration of the left-right DRlr, for example, the left-right direction as shown in the path CSa. Decelerate and follow the bicycle without causing any movement.
  • the avoidance operation that limits the acceleration of the DRfb in the moving direction (front-back direction), for example, the path CSb
  • the avoidance operation change course without accelerating or decelerating and use the next lane to avoid the bicycle.
  • the allowable acceleration of the moving direction (front-back direction) DRfb and the left-right direction DRlr is large, the avoidance operation is performed without limiting the acceleration of the moving direction (front-back direction) DRfb and the left-right direction DRlr.
  • the route CSc change the course while accelerating and use the adjacent lane to avoid the bicycle.
  • the avoidance operation as described above is performed, and when the route is a non-candidate route, the avoidance operation is performed earlier than the above-mentioned avoidance operation. May be performed to suppress the acceleration of the DRfb in the moving direction (front-back direction) and the DRlr in the left-right direction.
  • the allowable moving body acceleration is set based on the boarding state of the passenger in the moving body and the movement control of the moving body is performed so as not to exceed the set allowable moving body acceleration, the passenger You will be able to select and move on a safe and optimal route in consideration of your boarding condition.
  • the information processing device described above is not limited to the configuration of each embodiment, and may be a configuration in which the embodiments are combined.
  • the permissible acceleration setting unit 40 in the movement control device may be any embodiment of the above-mentioned information processing device as long as the permissible acceleration of the moving body can be set, or may be configured by combining the embodiments. ..
  • the conversion table may be switched according to the holding state of the occupant, or the individually permissible acceleration may be adjusted according to the moving state of the moving body.
  • control unit 50 in the above-described moving body control system illustrates the case where the route is selected so as not to exceed the moving body allowable acceleration
  • the control unit 50 prevents the moving body from exceeding the moving body allowable acceleration.
  • Speed control, steering control, and the like may be performed.
  • the process shown in FIGS. 2 and 15 is not limited to the case where the image is acquired and the setting of the allowable moving body acceleration is completed before the next image is acquired, and the setting of the allowable moving body acceleration is completed.
  • the acquisition of the next captured image may be started before that.
  • FIG. 19 is a block diagram showing a configuration example of a schematic function of a vehicle control system 100, which is an example of a moving body control system to which the present technology can be applied.
  • a vehicle provided with the vehicle control system 100 is distinguished from other vehicles, it is referred to as a own vehicle or a own vehicle.
  • the vehicle control system 100 includes an input unit 101, a data acquisition unit 102, a communication unit 103, an in-vehicle device 104, an output control unit 105, an output unit 106, a drive system control unit 107, a drive system system 108, a body system control unit 109, and a body. It includes a system system 110, a storage unit 111, and an automatic operation control unit 112.
  • the input unit 101, the data acquisition unit 102, the communication unit 103, the output control unit 105, the drive system control unit 107, the body system control unit 109, the storage unit 111, and the automatic operation control unit 112 are connected via the communication network 121. They are interconnected.
  • the communication network 121 is, for example, from an in-vehicle communication network or bus that conforms to any standard such as CAN (Controller Area Network), LIN (Local Interconnect Network), LAN (Local Area Network), or FlexRay (registered trademark). Become. In addition, each part of the vehicle control system 100 may be directly connected without going through the communication network 121.
  • CAN Controller Area Network
  • LIN Local Interconnect Network
  • LAN Local Area Network
  • FlexRay registered trademark
  • the description of the communication network 121 shall be omitted.
  • the input unit 101 and the automatic operation control unit 112 communicate with each other via the communication network 121, it is described that the input unit 101 and the automatic operation control unit 112 simply communicate with each other.
  • the input unit 101 includes a device used by the passenger to input various data, instructions, and the like.
  • the input unit 101 includes an operation device such as a touch panel, a button, a microphone, a switch, and a lever, and an operation device capable of inputting by a method other than manual operation by voice or gesture.
  • the input unit 101 may be a remote control device using infrared rays or other radio waves, or an externally connected device such as a mobile device or a wearable device corresponding to the operation of the vehicle control system 100.
  • the input unit 101 generates an input signal based on data, instructions, and the like input by the passenger, and supplies the input signal to each unit of the vehicle control system 100.
  • the data acquisition unit 102 includes various sensors and the like that acquire data used for processing of the vehicle control system 100, and supplies the acquired data to each unit of the vehicle control system 100.
  • the data acquisition unit 102 includes various sensors for detecting the state of the own vehicle and the like.
  • the data acquisition unit 102 includes a gyro sensor, an acceleration sensor, an inertial measurement unit (IMU), an accelerator pedal operation amount, a brake pedal operation amount, a steering wheel steering angle, and an engine speed. It is equipped with a sensor or the like for detecting the rotation speed of the motor or the rotation speed of the wheels.
  • IMU inertial measurement unit
  • the data acquisition unit 102 includes various sensors for detecting information outside the own vehicle.
  • the data acquisition unit 102 includes an imaging device such as a ToF (TimeOfFlight) camera, a stereo camera, a monocular camera, an infrared camera, and other cameras.
  • the data acquisition unit 102 includes an environment sensor for detecting the weather, the weather, and the like, and a surrounding information detection sensor for detecting an object around the own vehicle.
  • the environmental sensor includes, for example, a raindrop sensor, a fog sensor, a sunshine sensor, a snow sensor, and the like.
  • the ambient information detection sensor includes, for example, an ultrasonic sensor, a radar, LiDAR (Light Detection and Ringing, Laser Imaging Detection and Ringing), a sonar, and the like.
  • the data acquisition unit 102 includes various sensors for detecting the current position of the own vehicle.
  • the data acquisition unit 102 includes a GNSS receiver or the like that receives a GNSS signal from a GNSS (Global Navigation Satellite System) satellite.
  • GNSS Global Navigation Satellite System
  • the data acquisition unit 102 includes various sensors for detecting information in the vehicle.
  • the data acquisition unit 102 includes an imaging device that images the driver, a biosensor that detects the driver's biological information, a microphone that collects sound in the vehicle interior, and the like.
  • the biosensor is provided on, for example, the seat surface or the steering wheel, and detects the biometric information of the passenger sitting on the seat or the driver holding the steering wheel.
  • the communication unit 103 communicates with the in-vehicle device 104 and various devices, servers, base stations, etc. outside the vehicle, transmits data supplied from each unit of the vehicle control system 100, and transmits the received data to the vehicle control system. It is supplied to each part of 100.
  • the communication protocol supported by the communication unit 103 is not particularly limited, and the communication unit 103 can also support a plurality of types of communication protocols.
  • the communication unit 103 is a wireless LAN. , Bluetooth (registered trademark), NFC (Near Field Communication), WUSB (Wireless USB), etc. to wirelessly communicate with the in-vehicle device 104.
  • the communication unit 103 uses USB (Universal Serial Bus), HDMI (registered trademark) (High-Definition Multimedia Interface), or MHL () via a connection terminal (and a cable if necessary) (not shown). Wired communication is performed with the in-vehicle device 104 by Mobile High-definition Link) or the like.
  • USB Universal Serial Bus
  • HDMI registered trademark
  • MHL Multimedia Interface
  • Wired communication is performed with the in-vehicle device 104 by Mobile High-definition Link) or the like.
  • the communication unit 103 is connected to a device (for example, an application server or a control server) existing on an external network (for example, the Internet, a cloud network or a network peculiar to a business operator) via a base station or an access point. Communicate. Further, for example, the communication unit 103 uses P2P (Peer To Peer) technology to connect with a terminal (for example, a pedestrian or store terminal, or an MTC (Machine Type Communication) terminal) existing in the vicinity of the own vehicle. Communicate.
  • a device for example, an application server or a control server
  • an external network for example, the Internet, a cloud network or a network peculiar to a business operator
  • the communication unit 103 uses P2P (Peer To Peer) technology to connect with a terminal (for example, a pedestrian or store terminal, or an MTC (Machine Type Communication) terminal) existing in the vicinity of the own vehicle. Communicate.
  • P2P Peer To Peer
  • a terminal for example, a pedestrian or
  • the communication unit 103 includes vehicle-to-vehicle (Vehicle to Vehicle) communication, road-to-vehicle (Vehicle to Infrastructure) communication, vehicle-to-house (Vehicle to Home) communication, and pedestrian-to-vehicle (Vehicle to Pedestrian) communication. ) Perform V2X communication such as communication. Further, for example, the communication unit 103 is provided with a beacon receiving unit, receives radio waves or electromagnetic waves transmitted from a radio station or the like installed on the road, and acquires information such as the current position, traffic congestion, traffic regulation, or required time. To do.
  • the in-vehicle device 104 includes, for example, a mobile device or a wearable device owned by a passenger, an information device carried in or attached to the own vehicle, a navigation device for searching a route to an arbitrary destination, and the like.
  • the output control unit 105 controls the output of various information to the passengers of the own vehicle or the outside of the vehicle.
  • the output control unit 105 generates an output signal including at least one of visual information (for example, image data) and auditory information (for example, audio data) and supplies it to the output unit 106 to supply the output unit 105.
  • the output control unit 105 synthesizes image data captured by different imaging devices of the data acquisition unit 102 to generate a bird's-eye view image, a panoramic image, or the like, and outputs an output signal including the generated image. It is supplied to the output unit 106.
  • the output control unit 105 generates voice data including a warning sound or a warning message for dangers such as collision, contact, and entry into a danger zone, and outputs an output signal including the generated voice data to the output unit 106.
  • Supply for example, the output control unit 105 generates voice data including a warning sound or a warning message for dangers such as collision,
  • the output unit 106 is provided with a device capable of outputting visual information or auditory information to the passengers of the own vehicle or the outside of the vehicle.
  • the output unit 106 includes a display device, an instrument panel, an audio speaker, headphones, a wearable device such as a spectacle-type display worn by a passenger, a projector, a lamp, and the like.
  • the display device included in the output unit 106 displays visual information in the driver's field of view, such as a head-up display, a transmissive display, and a device having an AR (Augmented Reality) display function, in addition to the device having a normal display. It may be a display device.
  • the drive system control unit 107 controls the drive system system 108 by generating various control signals and supplying them to the drive system system 108. Further, the drive system control unit 107 supplies control signals to each unit other than the drive system system 108 as necessary, and notifies the control state of the drive system system 108.
  • the drive system system 108 includes various devices related to the drive system of the own vehicle.
  • the drive system system 108 includes a drive force generator for generating a drive force of an internal combustion engine or a drive motor, a drive force transmission mechanism for transmitting the drive force to the wheels, a steering mechanism for adjusting the steering angle, and the like. It is equipped with a braking device that generates braking force, ABS (Antilock Brake System), ESC (Electronic Stability Control), an electric power steering device, and the like.
  • the body system control unit 109 controls the body system 110 by generating various control signals and supplying them to the body system 110. Further, the body system control unit 109 supplies control signals to each unit other than the body system 110 as necessary, and notifies the control state of the body system 110.
  • the body system 110 includes various body devices equipped on the vehicle body.
  • the body system 110 includes a keyless entry system, a smart key system, a power window device, a power seat, a steering wheel, an air conditioner, and various lamps (for example, headlamps, back lamps, brake lamps, winkers, fog lamps, etc.).
  • various lamps for example, headlamps, back lamps, brake lamps, winkers, fog lamps, etc.
  • the storage unit 111 includes, for example, a magnetic storage device such as a ROM (Read Only Memory), a RAM (Random Access Memory), an HDD (Hard Disc Drive), a semiconductor storage device, an optical storage device, an optical magnetic storage device, and the like. ..
  • the storage unit 111 stores various programs, data, and the like used by each unit of the vehicle control system 100.
  • the storage unit 111 contains map data such as a three-dimensional high-precision map such as a dynamic map, a global map that is less accurate than the high-precision map and covers a wide area, and a local map that includes information around the own vehicle.
  • map data such as a three-dimensional high-precision map such as a dynamic map, a global map that is less accurate than the high-precision map and covers a wide area, and a local map that includes information around the own vehicle.
  • the automatic driving control unit 112 controls automatic driving such as autonomous driving or driving support. Specifically, for example, the automatic driving control unit 112 issues collision avoidance or impact mitigation of the own vehicle, follow-up running based on the inter-vehicle distance, vehicle speed maintenance running, collision warning of the own vehicle, lane deviation warning of the own vehicle, and the like. Coordinated control is performed for the purpose of realizing the functions of ADAS (Advanced Driver Assistance System) including. Further, for example, the automatic driving control unit 112 performs cooperative control for the purpose of automatic driving that autonomously travels without depending on the operation of the driver.
  • the automatic operation control unit 112 includes a detection unit 131, a self-position estimation unit 132, a situation analysis unit 133, a planning unit 134, and an operation control unit 135.
  • the detection unit 131 detects various types of information necessary for controlling automatic operation.
  • the detection unit 131 includes an outside information detection unit 141, an inside information detection unit 142, and a vehicle state detection unit 143.
  • the vehicle outside information detection unit 141 performs detection processing of information outside the own vehicle based on data or signals from each unit of the vehicle control system 100. For example, the vehicle outside information detection unit 141 performs detection processing, recognition processing, tracking processing, and distance detection processing for an object around the own vehicle. Objects to be detected include, for example, vehicles, people, obstacles, structures, roads, traffic lights, traffic signs, road markings, and the like. Further, for example, the vehicle outside information detection unit 141 performs detection processing of the environment around the own vehicle. The surrounding environment to be detected includes, for example, weather, temperature, humidity, brightness, road surface condition, and the like.
  • the vehicle outside information detection unit 141 outputs data indicating the result of the detection process to the self-position estimation unit 132, the map analysis unit 151 of the situation analysis unit 133, the traffic rule recognition unit 152, the situation recognition unit 153, and the operation control unit 135. It is supplied to the emergency situation avoidance unit 171 and the like.
  • the in-vehicle information detection unit 142 performs in-vehicle information detection processing based on data or signals from each unit of the vehicle control system 100.
  • the vehicle interior information detection unit 142 performs driver authentication processing and recognition processing, driver status detection processing, passenger detection processing, vehicle interior environment detection processing, and the like.
  • the state of the driver to be detected includes, for example, physical condition, alertness, concentration, fatigue, gaze direction, and the like.
  • the environment inside the vehicle to be detected includes, for example, temperature, humidity, brightness, odor, and the like.
  • the in-vehicle information detection unit 142 supplies data indicating the result of the detection process to the situation recognition unit 153 of the situation analysis unit 133, the emergency situation avoidance unit 171 of the operation control unit 135, and the like.
  • the vehicle state detection unit 143 performs the state detection process of the own vehicle based on the data or signals from each part of the vehicle control system 100.
  • the states of the own vehicle to be detected include, for example, speed, acceleration, steering angle, presence / absence and content of abnormality, driving operation state, power seat position / tilt, door lock state, and other in-vehicle devices. The state etc. are included.
  • the vehicle state detection unit 143 supplies data indicating the result of the detection process to the situation recognition unit 153 of the situation analysis unit 133, the emergency situation avoidance unit 171 of the operation control unit 135, and the like.
  • the self-position estimation unit 132 estimates the position and attitude of the own vehicle based on data or signals from each unit of the vehicle control system 100 such as the vehicle exterior information detection unit 141 and the situation recognition unit 153 of the situation analysis unit 133. Perform processing. In addition, the self-position estimation unit 132 generates a local map (hereinafter, referred to as a self-position estimation map) used for self-position estimation, if necessary.
  • the map for self-position estimation is, for example, a highly accurate map using a technique such as SLAM (Simultaneous Localization and Mapping).
  • the self-position estimation unit 132 supplies data indicating the result of the estimation process to the map analysis unit 151, the traffic rule recognition unit 152, the situation recognition unit 153, and the like of the situation analysis unit 133. Further, the self-position estimation unit 132 stores the self-position estimation map in the storage unit 111.
  • the situation analysis unit 133 analyzes the situation of the own vehicle and the surroundings.
  • the situation analysis unit 133 includes a map analysis unit 151, a traffic rule recognition unit 152, a situation recognition unit 153, and a situation prediction unit 154.
  • the map analysis unit 151 uses data or signals from each unit of the vehicle control system 100 such as the self-position estimation unit 132 and the vehicle exterior information detection unit 141 as necessary, and the map analysis unit 151 of various maps stored in the storage unit 111. Perform analysis processing and build a map containing information necessary for automatic operation processing.
  • the map analysis unit 151 applies the constructed map to the traffic rule recognition unit 152, the situation recognition unit 153, the situation prediction unit 154, the route planning unit 161 of the planning unit 134, the action planning unit 162, the operation planning unit 163, and the like. Supply to.
  • the traffic rule recognition unit 152 determines the traffic rules around the vehicle based on data or signals from each unit of the vehicle control system 100 such as the self-position estimation unit 132, the vehicle outside information detection unit 141, and the map analysis unit 151. Perform recognition processing. By this recognition process, for example, the position and state of the signal around the own vehicle, the content of the traffic regulation around the own vehicle, the lane in which the vehicle can travel, and the like are recognized.
  • the traffic rule recognition unit 152 supplies data indicating the result of the recognition process to the situation prediction unit 154 and the like.
  • the situation recognition unit 153 can be used for data or signals from each unit of the vehicle control system 100 such as the self-position estimation unit 132, the vehicle exterior information detection unit 141, the vehicle interior information detection unit 142, the vehicle condition detection unit 143, and the map analysis unit 151. Based on this, the situation recognition process related to the own vehicle is performed. For example, the situational awareness unit 153 performs recognition processing such as the situation of the own vehicle, the situation around the own vehicle, and the situation of the driver of the own vehicle. In addition, the situational awareness unit 153 generates a local map (hereinafter, referred to as a situational awareness map) used for recognizing the situation around the own vehicle, if necessary.
  • the situational awareness map is, for example, an occupied grid map (OccupancyGridMap).
  • the status of the own vehicle to be recognized includes, for example, the position, posture, movement (for example, speed, acceleration, moving direction, etc.) of the own vehicle, and the presence / absence and contents of an abnormality.
  • the surrounding conditions of the vehicle to be recognized include, for example, the type and position of surrounding stationary objects, the type, position and movement of surrounding animals (for example, speed, acceleration, moving direction, etc.), and the surrounding roads.
  • the composition and road surface condition, as well as the surrounding weather, temperature, humidity, brightness, etc. are included.
  • the state of the driver to be recognized includes, for example, physical condition, alertness, concentration, fatigue, eye movement, driving operation, and the like.
  • the situational awareness unit 153 supplies data indicating the result of the recognition process (including a situational awareness map, if necessary) to the self-position estimation unit 132, the situation prediction unit 154, and the like. Further, the situational awareness unit 153 stores the situational awareness map in the storage unit 111.
  • the situation prediction unit 154 performs a situation prediction process related to the own vehicle based on data or signals from each part of the vehicle control system 100 such as the map analysis unit 151, the traffic rule recognition unit 152, and the situation recognition unit 153. For example, the situation prediction unit 154 performs prediction processing such as the situation of the own vehicle, the situation around the own vehicle, and the situation of the driver.
  • the situation of the own vehicle to be predicted includes, for example, the behavior of the own vehicle, the occurrence of an abnormality, the mileage, and the like.
  • the situation around the own vehicle to be predicted includes, for example, the behavior of the animal body around the own vehicle, the change in the signal state, the change in the environment such as the weather, and the like.
  • the driver's situation to be predicted includes, for example, the driver's behavior and physical condition.
  • the situational awareness unit 154 together with the data from the traffic rule recognition unit 152 and the situational awareness unit 153, provides data indicating the result of the prediction processing to the route planning unit 161, the action planning unit 162, and the operation planning unit 163 of the planning unit 134. And so on.
  • the route planning unit 161 plans a route to the destination based on data or signals from each unit of the vehicle control system 100 such as the map analysis unit 151 and the situation prediction unit 154. For example, the route planning unit 161 sets a route from the current position to the specified destination based on the global map. Further, for example, the route planning unit 161 appropriately changes the route based on the conditions of traffic congestion, accidents, traffic restrictions, construction, etc., and the physical condition of the driver. The route planning unit 161 supplies data indicating the planned route to the action planning unit 162 and the like.
  • the action planning unit 162 safely sets the route planned by the route planning unit 161 within the planned time based on the data or signals from each unit of the vehicle control system 100 such as the map analysis unit 151 and the situation prediction unit 154. Plan your vehicle's actions to drive. For example, the action planning unit 162 plans starting, stopping, traveling direction (for example, forward, backward, left turn, right turn, change of direction, etc.), traveling lane, traveling speed, overtaking, and the like.
  • the action planning unit 162 supplies data indicating the planned behavior of the own vehicle to the operation planning unit 163 and the like.
  • the action planning unit 163 is data from each unit of the vehicle control system 100 such as the map analysis unit 151 and the situation prediction unit 154.
  • the operation of the own vehicle for realizing the action planned by the action planning unit 162 is planned.
  • the motion planning unit 163 plans acceleration, deceleration, traveling track, and the like.
  • the motion planning unit 163 supplies data indicating the planned operation of the own vehicle to the acceleration / deceleration control unit 172 and the direction control unit 173 of the motion control unit 135.
  • the motion control unit 135 controls the motion of the own vehicle.
  • the operation control unit 135 includes an emergency situation avoidance unit 171, an acceleration / deceleration control unit 172, and a direction control unit 173.
  • the emergency situation avoidance unit 171 may collide, contact, enter a danger zone, have a driver abnormality, or cause a vehicle. Performs emergency detection processing such as abnormalities.
  • the emergency situation avoidance unit 171 detects the occurrence of an emergency situation, it plans the operation of the own vehicle to avoid an emergency situation such as a sudden stop or a sharp turn.
  • the emergency situation avoidance unit 171 supplies data indicating the planned operation of the own vehicle to the acceleration / deceleration control unit 172, the direction control unit 173, and the like.
  • the acceleration / deceleration control unit 172 performs acceleration / deceleration control for realizing the operation of the own vehicle planned by the motion planning unit 163 or the emergency situation avoidance unit 171.
  • the acceleration / deceleration control unit 172 calculates a control target value of a driving force generator or a braking device for realizing a planned acceleration, deceleration, or sudden stop, and drives a control command indicating the calculated control target value. It is supplied to the system control unit 107.
  • the direction control unit 173 performs direction control for realizing the operation of the own vehicle planned by the motion planning unit 163 or the emergency situation avoidance unit 171. For example, the direction control unit 173 calculates the control target value of the steering mechanism for realizing the traveling track or the sharp turn planned by the motion planning unit 163 or the emergency situation avoidance unit 171 and controls to indicate the calculated control target value. The command is supplied to the drive system control unit 107.
  • the in-vehicle information detection unit 142 of the detection unit 131 takes an image of the inside of the vehicle and detects the boarding state of the occupant based on the obtained image or the like.
  • the in-vehicle information detection unit 142 outputs the detection result to the situation analysis unit 133.
  • the situation analysis unit 133 sets the allowable acceleration of the moving body based on the detection result of the boarding state. Further, the situation analysis unit 133 may select or switch the conversion table according to the situation of the own vehicle and the surroundings, and set the allowable acceleration of the moving body.
  • the situation analysis unit 133 outputs the set allowable moving body acceleration to the planning unit 134.
  • the planning unit 134 sets the path having the smallest difference from the permissible acceleration of the moving body as the moving path of the moving body when there is no path not exceeding the permissible acceleration of the moving body or a path not exceeding the permissible acceleration of the moving body.
  • the operation control unit 135 performs acceleration / deceleration control and direction control so as to move along the route set by the planning unit 134. In this way, by performing acceleration / deceleration control and direction control according to the boarding state of the passenger, the safety of the passenger can be improved.
  • the series of processes described in the specification can be executed by hardware, software, or a composite configuration of both.
  • the program that records the processing sequence is installed in the memory in the computer embedded in the dedicated hardware and executed.
  • the program can be recorded in advance on a hard disk as a recording medium, an SSD (Solid State Drive), or a ROM (Read Only Memory).
  • the program is a flexible disk, CD-ROM (Compact Disc Read Only Memory), MO (Magneto optical) disk, DVD (Digital Versatile Disc), BD (Blu-Ray Disc (registered trademark)), magnetic disk, semiconductor memory card. It can be temporarily or permanently stored (recorded) in a removable recording medium such as.
  • a removable recording medium can be provided as so-called package software.
  • the program may be transferred from the download site to the computer wirelessly or by wire via a network such as LAN (Local Area Network) or the Internet.
  • the computer can receive the program transferred in this way and install it on a recording medium such as a built-in hard disk.
  • the information processing device of the present technology can have the following configuration.
  • the allowable acceleration setting unit uses the posture of the passenger as the boarding state of the passenger.
  • the allowable acceleration setting unit uses the opening width of the legs and the arrangement angle of the legs with respect to the moving direction of the moving body as the posture of the passenger.
  • the allowable acceleration setting unit uses the posture holding state of the passenger as the posture of the passenger.
  • the permissible acceleration setting unit according to any one of (1) to (4), wherein the permissible acceleration setting unit sets the permissible acceleration by using the position of the passenger in the moving body as the boarding state of the passenger.
  • Information processing device (6) The information processing device according to any one of (1) to (5), wherein the allowable acceleration setting unit sets the allowable acceleration based on a time change of the boarding state of the passenger.
  • the permissible acceleration setting unit sets the permissible acceleration according to any one of (1) to (6) by using a conversion table showing the relationship between the boarding state of the passenger and the permissible acceleration.
  • the information processing apparatus uses a conversion table according to the movement state of the moving body as the conversion table.
  • the information processing device uses a conversion table according to the movement path of the moving body.
  • the information processing device uses a conversion table according to a change in the movement state of the moving body.
  • the permissible acceleration setting unit determines the permissible acceleration for each passenger in the moving body, integrates the permissible acceleration determined for each passenger, and sets the permissible acceleration in the moving body.
  • the information processing apparatus according to any one of (1) to (10).
  • (12) An imaging unit that images a passenger in the moving body, The information processing device according to any one of (1) to (11), further comprising a boarding state detection unit that detects the boarding state of the passenger based on the captured image acquired by the imaging unit.
  • the movement control device of the present technology can have the following configurations.
  • An allowable acceleration setting unit that sets an allowable acceleration in the moving body based on the boarding state of the passenger in the moving body.
  • a movement control device including a control unit that controls the movement of the moving body so as not to exceed the allowable acceleration set by the allowable acceleration setting unit.
  • the control unit includes a route planning unit that sets a movement route of the moving body.
  • the route planning unit sets a candidate route having the smallest acceleration or a candidate route having the smallest difference from the allowable acceleration as a candidate route in the movement route (2).
  • the movement control device according to (2) or (3), wherein the route planning unit sets the route having the smallest acceleration as the movement route when there is no route that does not exceed the allowable acceleration.
  • An imaging unit that captures images of passengers in the moving body, and The movement control device according to any one of (1) to (4), further including a boarding state detection unit that detects the boarding state of the passenger based on the captured image acquired by the imaging unit.
  • the present technology may be the following program.
  • a program that executes the acceleration control unit of a moving body on a computer A program that causes the computer to execute a procedure for setting an allowable acceleration in the moving body based on the boarding state of the passenger in the moving body.
  • a program that executes the movement control of a moving body on a computer A procedure for setting an allowable acceleration in the moving body based on the boarding state of the passenger in the moving body, and A program for causing the computer to execute a procedure for controlling the movement of the moving body so as not to exceed the set allowable acceleration.

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

撮像部20は、移動体における搭乗者を撮像する。搭乗状態検出部30は、撮像部20で取得された撮像画像に基づき、搭乗者の搭乗状態を検出する。許容加速度設定部40は、搭乗状態検出部30で検出された搭乗者の搭乗状態、例えば搭乗者の足の開き幅や移動体の移動方向に対する足の配置角度等に基づき、搭乗者毎に個別許容加速度を設定する。さらに車両の各同乗者について設定された個別許容加速度を統合して、移動体について許容可能な加速度を設定する。搭乗者の搭乗状態に応じて移動体の許容加速度が設定されるので、搭乗者に危険が及ぶような加速度で移動体の移動が行われることがなく、搭乗者の安全性を向上できるようになる。

Description

情報処理装置と情報処理方法および移動制御装置と移動制御方法
 この技術は、情報処理装置と情報処理方法および移動制御装置と移動制御方法に関し、移動体の搭乗者の安全性を向上できるようにする。
 従来、バス等のように着席又は起立した状態の乗客の輸送を目的とする移動体では、運転者がミラーやモニタを用いて乗客の安全を確認しながら移動体の運行を行っている。しかし、着席していない乗客あるいは手すりやつり革等に掴まっていない乗客は、移動体の動きによって転倒等を生じるおそれがある。そこで、特許文献1では、乗客の乗車状態と車両の走行状態を把握して、乗車状態及び走行状態に基づき乗客の安全に関する報知を行うことが記載されている。
特開2016-062414号公報
 ところで、特許文献1は画像や音で危険を報知するものであるため、搭乗者が報知に対応した行動を取らないと安全性を確保できない。
 そこで、この技術では、安全に関する報知によらず搭乗者の安全性を向上できる情報処理装置と情報処理方法および移動制御装置と移動制御方法を提供することを目的とする。
 この技術の第1の側面は、
 移動体における搭乗者の搭乗状態に基づき、前記移動体で許容可能な加速度を設定する許容加速度設定部を備える情報処理装置にある。
 この技術において、許容加速度設定部では、例えば移動体における搭乗者を撮像した撮像画像に基づき、搭乗者の搭乗状態が検出される。搭乗状態の検出では、搭乗者の姿勢例えば足の開き幅と移動体の移動方向に対する足の配置角度、搭乗者の姿勢保持状態等が検出される。また、搭乗状態として移動体内における搭乗者の位置や搭乗状態の時間変化が用いられてもよい。このような搭乗状態に基づき、搭乗状態と許容可能な加速度の関係を示す変換テーブルを用いて許容可能な加速度が設定される。変換テーブルは、移動体の移動状況に応じた変換テーブルが用いられる。また、移動体の移動経路に応じた変換テーブルを用いてもよく、移動状況の変化に応じて変換テーブルを切り替えてもよい。また、許容加速度設定部では、搭乗者毎に判定された許容加速度を統合して、移動体で許容可能な加速度が設定される。
 この技術の第2の側面は、
 移動体における搭乗者の搭乗状態に基づき、前記移動体で許容可能な加速度を許容加速度設定部で設定すること
を含む情報処理方法にある。
 この技術の第3の側面は、
 移動体における搭乗者の搭乗状態に基づき、前記移動体で許容可能な加速度を設定する許容加速度設定部と、
 前記許容加速度設定部で設定された許容加速度を超えないように前記移動体の移動制御を行う制御部と
を備える移動制御装置にある。
 この技術において、許容加速度設定部では、移動体における搭乗者の搭乗状態、例えば移動体における搭乗者を撮像して得られた撮像画像に基づき検出した搭乗者の搭乗状態に基づき、移動体で許容可能な加速度が設定される。制御部では、許容加速度設定部で設定された許容加速度を超えないように移動体の移動制御、例えば移動経路の設定が行われる。移動経路の設定では、許容加速度を超えない経路を候補経路として、加速度が最も小さい候補経路または許容加速度との差が最も少ない候補経路が移動経路に設定される。また、許容加速度を超えない経路がない場合、加速度が最も小さい経路が移動経路に設定される。
 この技術の第4の側面は、
 移動体における搭乗者の搭乗状態に基づき、前記移動体で許容可能な加速度を許容加速度設定部で設定することと、
 前記許容加速度設定部で設定された許容加速度を超えないように制御部で前記移動体の移動制御を行うことと
を含む移動制御方法にある。
情報処理装置の構成を例示した図である。 情報処理装置の動作を例示したフローチャートである。 情報処理装置の第1の実施の形態の構成を例示した図である。 第1の実施の形態の動作を例示したフローチャートである。 第1の実施の形態の動作例を示した図である。 第1の実施の形態の他の動作例を示した図である。 情報処理装置の第2の実施の形態の構成を例示した図である。 第2の実施の形態の動作を例示したフローチャートである。 情報処理装置の第3の実施の形態の構成を例示した図である。 第3の実施の形態の動作を例示したフローチャートである。 第3の実施の形態の動作例を示した図である。 情報処理装置の第4の実施の形態の構成を例示した図である。 第4の実施の形態の動作を例示したフローチャートである。 移動制御装置の構成を例示した図である。 移動制御装置の動作を例示したフローチャートである。 制御部の実施の形態の構成を例示した図である。 実施の形態の動作を例示したフローチャートである。 経路選択動作を例示した図である。 車両制御システムの概略的な機能の構成例を示す図である。
 以下、本技術を実施するための形態について説明する。なお、説明は以下の順序で行う。
 1.情報処理装置について
  1-1.第1の実施の形態
  1-2.第2の実施の形態
  1-3.第3の実施の形態
  1-4.第4の実施の形態
 2.移動制御装置について
  2-1.制御部の構成と動作
 3.他の実施の形態について
 4.応用例
 <1.情報処理装置について>
 本技術の情報処理装置では、移動体における搭乗者の搭乗状態に基づき、移動体で許容可能な加速度(以下「移動体許容加速度」という)を設定する。図1は、情報処理装置の構成を例示している。なお、情報処理装置10は、移動体許容加速度を設定する許容加速度設定部40だけでなく、移動体における搭乗者の搭乗状態を検出するために搭乗者を撮像する撮像部20と、撮像部20で取得された画像に基づき搭乗者の搭乗状態を検出する搭乗状態検出部30が設けられている場合を示しているが、本技術の情報処理装置は、許容加速度設定部40のみで構成されてもよい。
 撮像部20は、被写体光学像を撮像素子の撮像面に結像させる撮像レンズ、光電変換を行い光学像に応じた画像信号を生成するCMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge Coupled Device)等の撮像素子、および撮像素子で生成された画像信号に対してカメラ信号処理を行い、良好な画質の撮像画像を示す画像信号を生成する画像信号処理部等を有している。撮像部20は、移動体の搭乗者を示す撮像画像の画像信号を生成して搭乗状態検出部30へ出力する。
 搭乗状態検出部30は、撮像部20で生成された画像信号を用いて、撮像画像に含まれる搭乗者の搭乗状態を搭乗者毎に検出する。搭乗状態検出部30は、例えば撮像画像から抽出した特徴点等を、モデルデータによって定義されるオブジェクトの形状等と照合することで、搭乗者の姿勢あるいは搭乗者の姿勢と移動体における搭乗者の位置を搭乗状態として検出する。また、搭乗状態検出部30は、搭乗状態として手すりやつり革等の把持状態を検出してもよい。さらに、搭乗状態検出部30は、機械学習等を用いて搭乗者の搭乗状態を撮像画像に基づいて検出してもよい。搭乗状態検出部30は搭乗状態の検出結果を許容加速度設定部40へ出力する。なお、搭乗状態の検出は撮像部20で生成された画像に限らず各種センサ等を用いて検出してもよい。
 許容加速度設定部40は、搭乗状態検出部30で検出された搭乗状態に基づき移動体許容加速度を設定する。例えば、移動体における搭乗者毎に許容加速度を判定して、搭乗者毎に判定した許容加速度(以下「個別許容加速度」という)を統合して、移動体許容加速度を設定する。なお、許容加速度設定部40の構成および動作については、後述する各実施の形態で説明する。
 図2は、情報処理装置の動作を例示したフローチャートである。ステップST1で情報処理装置10は画像取得処理を行う。情報処理装置10は、移動体の搭乗者の撮像画像を取得してステップST2に進む。
 ステップST2で情報処理装置10は搭乗状態検出処理を行う。情報処理装置10は、ステップST1で取得された撮像画像に基づき搭乗者の搭乗状態を搭乗者毎に検出してステップST3に進む。
 ステップST3で情報処理装置10は個別許容加速度判定処理を行う。情報処理装置10は、ステップST2で検出された搭乗状態に基づき個別許容加速度を搭乗者毎に判定してステップST4に進む。
 ステップST4で情報処理装置10は個別許容加速度統合処理を行う。情報処理装置10は、ステップST3で搭乗者毎に判定した個別許容加速度を統合して、移動体許容加速度を設定する。
 <1-1.第1の実施の形態>
 図3は、情報処理装置の第1の実施の形態の構成を例示している。情報処理装置10は撮像部20と搭乗状態検出部30および許容加速度設定部40-1を有している。また許容加速度設定部40-1は、変換テーブル記憶部41と個別許容加速度判定部45および個別許容加速度統合部48を有している。
 変換テーブル記憶部41には、搭乗状態に基づいた許容加速度を示す変換テーブルが記憶されている。例えば、搭乗状態検出部30で搭乗者毎に検出された搭乗状態をパラメータとして、パラメータ値に対応する許容加速度を示す変換テーブルが記憶されている。
 個別許容加速度判定部45は、変換テーブル記憶部41に記憶されている変換テーブルに基づき、搭乗状態の検出結果に対応する個別許容加速度を搭乗者毎に判定する。個別許容加速度判定部45は、搭乗者毎の個別許容加速度の判定結果を個別許容加速度統合部48へ出力する。
 個別許容加速度統合部48は、個別許容加速度判定部45で搭乗者毎に判定された個別許容加速度の統合処理を行い、方向毎に最も加速度が小さい個別許容加速度を移動体許容加速度に設定する。
 図4は第1の実施の形態の動作を例示したフローチャートである。なお、フローチャートは、図2における個別許容加速度判定処理を示している。
 ステップST11で許容加速度設定部は搭乗状態検出結果を取得する。許容加速度設定部40-1は、搭乗状態検出部30で搭乗者毎に検出された搭乗状態を示す検出情報を取得してステップST12に進む。
 ステップST12で許容加速度設定部は判定対象搭乗者を選択する。許容加速度設定部40-1は個別許容加速度が判定されていない搭乗者を判定対象搭乗者として選択してステップST13に進む。
 ステップST13で許容加速度設定部は許容加速度判定処理を行う。許容加速度設定部40-1は、変換テーブル記憶部41に記憶されている変換テーブルを用いて、判定対象搭乗者の搭乗状態に応じた個別許容加速度を判定してステップST14に進む。
 ステップST14で許容加速度設定部は各搭乗者の判定処理が完了したか判別する。許容加速度設定部40-1は、個別許容加速度の判定が行われていない搭乗者がいる場合はステップST15に進み、全ての搭乗者について個別許容加速度の判定が行われている場合には判定処理を終了する。
 ステップST15で許容加速度設定部は判定対象搭乗者を更新する。許容加速度設定部40-1は、個別許容加速度の判定が行われていない搭乗者を新たな判定対象搭乗者としてステップST13に戻る。
 その後、許容加速度設定部40-1は、ステップST11からステップST15までの処理によって搭乗者毎に判定された個別許容加速度を統合して、移動体許容加速度を設定する。例えば、許容加速度設定部40-1は、搭乗者毎に判定された個別許容加速度から最も小さい加速度を方向毎に選択して、移動体許容加速度に設定する。
 図5は、第1の実施の形態の動作例を示している。この動作例では、搭乗者の搭乗状態として、搭乗者の姿勢、例えば搭乗者の足の開き幅と移動体の移動方向に対する足の配置の角度を用いる場合を例示している。この場合、変換テーブル記憶部41には、搭乗者の足の開き幅と配置角度に対する許容加速度を示す変換テーブルが記憶されている。
 図5の(a)は、撮像部20で搭乗者を撮像して取得された入力画像を例示している。搭乗状態検出部30は、入力画像から搭乗者Haの特徴点検出等を行い、検出結果に基づき搭乗者Haの姿勢を推定する。なお、図5の(b)は、入力画像と姿勢推定結果を示している。搭乗状態検出部30は、姿勢推定結果に基づいて図5の(c)に示すように、搭乗者Haの足位置PL,PRを検出する。個別許容加速度判定部45は、検出した足位置PL,PRに基づき、図5の(d)に示す足位置PL,PRの幅(間隔)Wと、移動体の移動方向DRfbに対する足の配置の角度θを算出してパラメータ値とする。さらに、個別許容加速度判定部45は、図5の(e)に示す変換テーブルを用いて、搭乗者Haのパラメータ値(幅W,角度θ)に対応する個別許容加速度を取得する。例えば角度θが90度であるときは、移動方向DRfbの加速度に対して不安定であり、幅Wが広くなると足の配置方向に対する加速度に対して安定することから、移動方向DRfbに対して直交する方向DRlrの許容加速度は大きい加速度と判別される。なお、図5の(e)および後述する図6,図11,図18では、黒丸内が許容加速度である。
 個別許容加速度判定部45は、このように個別許容加速度の判定処理を搭乗者毎に行い、個別許容加速度統合部48は、搭乗者毎に判定された個別許容加速度の統合処理を行い、方向毎に、最も小さい個別許容加速度を移動体許容加速度に設定する。
 図6は、第1の実施の形態の他の動作例を示している。他の動作例では、搭乗者の搭乗状態として搭乗者の位置、例えば移動体内における搭乗者の位置、具体的には移動体内の障害物(例えば段差)からの距離、移動体内に設けられている支持体(例えば手すり)からの距離をさらに用いる場合を例示している。この場合、変換テーブル記憶部41に記憶された変換テーブルでは、移動体の移動方向に対する足の配置角度と障害物との距離、および支持体までの距離に対する許容加速度が示されている。
 図6の(a)は、撮像部20で搭乗者を撮像して取得された入力画像を例示している。搭乗状態検出部30は、入力画像から搭乗者Hbの特徴点検出等を行い、検出結果に基づき搭乗者Hbの姿勢を推定する。なお、図6の(b)は、入力画像と姿勢推定結果を示している。搭乗状態検出部30は、姿勢推定結果に基づいて移動体の移動方向DRfbに対する足の配置の角度θと図6の(c)に示すように段差までの距離Raおよび手すりまでの距離Rbを算出する。搭乗状態検出部30は、図6の(d)に示すように、距離が示す対象と、対象までの距離および移動方向DRfbに対する足の配置の角度θをパラメータとする。さらに、個別許容加速度判定部45は、図6の(e)に示す変換テーブルを用いて、搭乗者Hbのパラメータ値(距離が示す対象、対象までの距離Ra,Rb、角度θ、)に対応する個別許容加速度を取得する。なお、支持部(手すり等)までの距離Rbが短い場合は、容易に支持部を利用して身体を支えることが可能となる。したがって、距離Rbが閾値Rbthよりも短い場合、角度θと距離Raに基づいて判定した許容加速度よりも、距離Rbに基づいて判定した許容加速度を優先して用いるようにしてもよい。
 このような処理を行えば、移動体で行われた安全に関する報知に対応した行動を搭乗者が取らない場合でも、搭乗者の姿勢状態に応じて移動体許容加速度が設定されるので、搭乗者の安全性を向上できるようになる。
 <1-2.第2の実施の形態>
 次に、第2の実施の形態について説明する。第2の実施の形態では、搭乗状態として姿勢や位置だけでなく、搭乗者の周辺環境状態や搭乗者の姿勢保持状態、例えば手すりやつり革等を把持しており移動体の速度変化等が生じても姿勢を保持できる状態であるかを検出する場合について説明する。
 図7は、情報処理装置の第2の実施の形態の構成を例示している。情報処理装置10は撮像部20と搭乗状態検出部30および許容加速度設定部40-2を有している。また許容加速度設定部40-2は、変換テーブル記憶部41と個別許容加速度判定部45と個別許容加速度調整部47および個別許容加速度統合部48を有している。
 変換テーブル記憶部41には、搭乗状態に基づいた許容加速度を示す変換テーブルが記憶されている。例えば、搭乗状態検出部30で搭乗者毎に検出された搭乗状態をパラメータとして、パラメータ値に対応する許容加速度を示す変換テーブルが記憶されている。
 個別許容加速度判定部45は、変換テーブル記憶部41に記憶されている変換テーブルに基づき、搭乗状態の検出結果に対応する個別許容加速度を搭乗者毎に判定する。個別許容加速度判定部45は、搭乗者毎の個別許容加速度の判定結果を個別許容加速度調整部47へ出力する。
 個別許容加速度調整部47は、個別許容加速度判定部45で判定された搭乗者毎の個別許容加速度を、搭乗者の姿勢保持状態に応じて調整する。例えば、手すりやつり革等を把持している搭乗者は、より大きな加速度に対応可能である。したがって、個別許容加速度調整部47は、例えば姿勢保持状態に応じて予め設定されている補正係数を用いて個別許容加速度の調整を行い、調整後の個別許容加速度を個別許容加速度統合部48へ出力する。
 個別許容加速度統合部48は、個別許容加速度調整部47から供給された個別許容加速度の統合処理を行い、方向毎に最も加速度が小さい個別許容加速度を移動体許容加速度に設定する。
 図8は第2の実施の形態の動作を例示したフローチャートである。なお、フローチャートは、図2における許容加速度設定処理を示している。
 ステップST21で許容加速度設定部は搭乗状態検出結果を取得する。許容加速度設定部40-2は、搭乗状態検出部30で搭乗者毎に検出された搭乗状態を示す検出情報を取得してステップST22に進む。
 ステップST22で許容加速度設定部は判定対象搭乗者を選択する。許容加速度設定部40-2は個別許容加速度が判定されていない搭乗者を判定対象搭乗者として選択してステップST23に進む。
 ステップST23で許容加速度設定部は許容加速度判定処理を行う。許容加速度設定部40-2は、変換テーブル記憶部41に記憶されている変換テーブルを用いて、判定対象搭乗者の搭乗状態に応じた個別許容加速度を判定してステップST24に進む。
 ステップST24で許容加速度設定部は各搭乗者の判定処理が完了したか判別する。許容加速度設定部40-2は、個別許容加速度の判定が行われていない搭乗者がいる場合はステップST25に進み、全ての搭乗者について個別許容加速度の判定が行われている場合にはステップST26に進む。
 ステップST25で許容加速度設定部は判定対象搭乗者を更新する。許容加速度設定部40-2は、個別許容加速度の判定が行われていない搭乗者を新たな判定対象搭乗者として選択してステップST23に戻る。
 ステップST24からステップST26に進むと、許容加速度設定部は個別許容加速度調整処理を行う。許容加速度設定部40-2は、ステップST25までの処理によって搭乗者毎に設定された個別許容加速度を、搭乗者の姿勢保持状態に応じて調整する。例えば、許容加速度設定部40-2は、例えば手すりやつり革等を把持している搭乗者に対応する個別許容加速度を大きくして個別許容加速度判定処理を終了する。
 その後、許容加速度設定部40-2は、ステップST21からステップST26までの処理によって搭乗者毎に判定された個別許容加速度を統合して、移動体許容加速度を設定する。例えば、許容加速度設定部40-2は、搭乗者毎に設定された個別許容加速度から最も小さい加速度を方向毎に選択して、移動体許容加速度に設定する。
 このような処理を行えば、第1の実施の形態と同様に、搭乗者の安全性を向上できるようになる。さらに、搭乗者の位置や姿勢だけでなく、姿勢保持状態を考慮して許容可能な加速度を設定できるようになり、必要以上に加速度が制限されてしまうことを防止できる。
 <1-3.第3の実施の形態>
 次に、第3の実施の形態について説明する。第3の実施の形態では、搭乗状態の検出結果だけでなく、許容可能な加速度の時間変化を利用する場合について説明する
 図9は、情報処理装置の第3の実施の形態の構成を例示している。情報処理装置10は撮像部20と搭乗状態検出部30および許容加速度設定部40-3を有している。また許容加速度設定部40-3は、変換テーブル記憶部41と状態情報記憶部42と変換テーブル補正部43、個別許容加速度判定部45および個別許容加速度統合部48を有している。
 変換テーブル記憶部41には、搭乗状態に基づいた許容加速度を示す変換テーブルが記憶されている。例えば、搭乗状態検出部30で搭乗者毎に検出された搭乗状態をパラメータとして、パラメータ値に対応する許容加速度を示す変換テーブルが記憶されている。
 状態情報記憶部42には搭乗状態検出部30の検出結果が記憶される。変換テーブル補正部43は、搭乗状態検出部30から供給された搭乗状態検出結果と、状態情報記憶部42に記憶されている過去の搭乗状態検出結果に基づき、搭乗状態の時間変化に応じて変換テーブルを補正する。例えば、搭乗者の位置や姿勢が所定よりも大きな変化を生じた場合、パラメータ値に応じて判定される許容加速度が小さい加速度となるように変換テーブルを補正する。
 個別許容加速度判定部45は、変換テーブル補正部43で補正された変換テーブルに基づき、搭乗状態の検出結果に対応する個別許容加速度を搭乗者毎に判定する。個別許容加速度判定部45は、搭乗者毎の個別許容加速度の判定結果を個別許容加速度統合部48へ出力する。
 個別許容加速度統合部48は、個別許容加速度判定部45から供給された個別許容加速度の統合処理を行い、方向毎に最も加速度が小さい個別許容加速度を移動体許容加速度に設定する。
 図10は第3の実施の形態の動作を例示したフローチャートである。なお、フローチャートは、図2における許容加速度設定処理を示している。
 ステップST31で許容加速度設定部は搭乗状態検出結果を取得する。許容加速度設定部40-3は、搭乗状態検出部30で搭乗者毎に検出された搭乗状態を示す検出情報を取得してステップST32に進む。
 ステップST32で許容加速度設定部は判定対象搭乗者を選択する。許容加速度設定部40-3は個別許容加速度が判定されていない搭乗者を判定対象搭乗者として選択してステップST33に進む。
 ステップST33で許容加速度設定部は搭乗状態の時間変化を検出する。許容加速度設定部40-3は、ステップST31で取得された搭乗状態検出結果と、過去に取得されている搭乗状態の検出結果に基づき、搭乗状態の時間変化を検出してステップST34に進む。
 ステップST34で許容加速度設定部は変換テーブル補正処理を行う。許容加速度設定部40-3は、ステップST33で検出された搭乗状態の時間変化に基づき変換テーブルを補正する。許容加速度設定部40-3は、例えば搭乗者の位置や姿勢が所定よりも大きな変化を生じるようになった場合には、パラメータ値に応じて判定される許容加速度が小さくなるように、変換テーブルを補正してステップST35に進む。
 ステップST35で許容加速度設定部は許容加速度判定処理を行う。許容加速度設定部40-3は、ステップST34で補正された変換テーブルを用いて、判定対象搭乗者の搭乗状態に応じた個別許容加速度を判定してステップST36に進む。
 ステップST36で許容加速度設定部は各搭乗者の判定処理が完了したか判別する。許容加速度設定部40-3は、個別許容加速度の判定が行われていない搭乗者がいる場合はステップST37に進み、全ての搭乗者について個別許容加速度の判定が行われている場合には個別許容加速度判定処理を終了する。
 ステップST37で許容加速度設定部は判定対象搭乗者を更新する。許容加速度設定部40-3は、個別許容加速度の判定が行われていない搭乗者を新たな判定対象搭乗者として選択してステップST33に戻る。
 その後、許容加速度設定部40-3は、ステップST31からステップST37までの処理によって搭乗者毎に判定された個別許容加速度を統合して、移動体許容加速度を設定する。例えば、許容加速度設定部40-3は、搭乗者毎に判定された個別許容加速度から最も小さい加速度を方向毎に選択して、移動体許容加速度に設定する。
 図11は、第3の実施の形態の動作例を示している。図11の(a)は変換テーブル記憶部41に記憶されている変換テーブルを例示している。図11の(b)は、搭乗状態の時間変化を例示しており、時点t0から時点t1になると、例えば加速度が変化したために足位置が位置PL0から位置PL1に、所定よりも大きい変化を生じている。この場合、変換テーブル補正部43は、搭乗状態の変化が抑えられるように、変換テーブルの補正を行い、図11の(a)に示す変換テーブルに比べて許容加速度が小さい図11の(c)に示す変換テーブルに補正する。したがって、時間経過時に搭乗状態の変化が大きい場合には、許容加速度が小さくされて、搭乗者の安全性を向上できるようになる。
 <1-4.第4の実施の形態>
 次に、第4の実施の形態について説明する。第4の実施の形態では、移動体の移動状況に応じた変換テーブルを用いて、許容可能な加速度を設定する場合について説明する
 図12は、情報処理装置の第4の実施の形態の構成を例示している。情報処理装置10は撮像部20と搭乗状態検出部30および許容加速度設定部40-4を有している。また許容加速度設定部40-4は、変換テーブル記憶部41と変換テーブル選択部44と個別許容加速度判定部45および個別許容加速度統合部48を有している。
 変換テーブル記憶部41には、搭乗状態に基づいた許容加速度を示す変換テーブルが記憶されている。例えば、搭乗状態検出部30で搭乗者毎に検出された搭乗状態をパラメータとして、パラメータ値に対応する許容加速度を示す変換テーブルが記憶されている。
 変換テーブル選択部44には、移動体の移動状況を示す移動状況情報が供給されている。移動状況情報としては、静的情報あるいは動的情報の少なくともいずれかを用いる。静的情報としては、例えば移動体の経路を示す情報等を用いる。また、動的情報としては、例えば移動体の運行状況や運行時間、移動体の揺れ頻度、天候、車内混雑状況、車両の渋滞状況の少なくともいずれかを示す情報等を用いる。
 変換テーブル選択部44は、移動体の移動状況に応じた変換テーブルを変換テーブル記憶部41から取得して個別許容加速度判定部45へ出力する。例えば、変換テーブル選択部44は、移動体の移動経路に応じた変換テーブルを個別許容加速度判定部45へ出力する。また、変換テーブル選択部44は、運行状況や天候等の変化に応じて変換テーブルを切り替える。
 個別許容加速度判定部45は、変換テーブル選択部44から供給された変換テーブルに基づき、搭乗状態の検出結果に対応する個別許容加速度を搭乗者毎に判定する。個別許容加速度判定部45は、搭乗者毎の個別許容加速度の判定結果を個別許容加速度統合部48へ出力する。
 個別許容加速度統合部48は、個別許容加速度調整部47から供給された個別許容加速度の統合処理を行い、方向毎に最も加速度が小さい個別許容加速度を移動体許容加速度に設定する。
 図13は第4の実施の形態の動作を例示したフローチャートである。なお、フローチャートは、図2における許容加速度設定処理を示している。
 ステップST41で許容加速度設定部は搭乗状態検出結果を取得する。許容加速度設定部40-4は、搭乗状態検出部30で搭乗者毎に検出された搭乗状態を示す検出情報を取得してステップST42に進む。
 ステップST42で許容加速度設定部は移動状況情報を取得する。許容加速度設定部40-4は、移動体の移動経路や移動環境等の少なくともいずれかを示す移動状況情報を外部から取得してステップST43に進む。
 ステップST43で許容加速度設定部は変換テーブルの変更が必要か判別する。許容加速度設定部40-4は、ステップST42で取得した移動状況情報に基づき、変換テーブルの変更が必要か判別して、変換テーブルの変更が必要と判別した場合はステップST44に進み、変換テーブルの変更が必要ないと判別した場合はステップST45に進む。
 ステップST44で許容加速度設定部は変換テーブルの変更を行う。許容加速度設定部40-4は、変換テーブル記憶部41に記憶されている変換テーブルからステップST42で取得した移動状況情報に応じた変換テーブルを選択してステップST45に進む。
 ステップST45で許容加速度設定部は判定対象搭乗者を選択する。許容加速度設定部40-4は個別許容加速度が判定されていない搭乗者を判定対象搭乗者として選択してステップST46に進む。
 ステップST46で許容加速度設定部は許容加速度判定処理を行う。許容加速度設定部40-4は、変換テーブル記憶部41に記憶されている変換テーブルを用いて、判定対象搭乗者の搭乗状態に応じた個別許容加速度を判定してステップST47に進む。
 ステップST47で許容加速度設定部は各搭乗者の判定処理が完了したか判別する。許容加速度設定部40-4は、個別許容加速度の判定が行われていない搭乗者がいる場合はステップST48に進み、全ての搭乗者について個別許容加速度の判定が行われている場合には個別許容加速度判定処理を終了する。
 ステップST48で許容加速度設定部は判定対象搭乗者を更新する。許容加速度設定部40-4は、個別許容加速度の判定が行われていない搭乗者を新たな判定対象搭乗者として選択してステップST46に戻る。
 その後、許容加速度設定部40-4は、ステップST41からステップST48までの処理によって搭乗者毎に判定された個別許容加速度を統合して、移動体許容加速度を設定する。例えば、許容加速度設定部40-4は、搭乗者毎に判定された個別許容加速度から最も小さい加速度を方向毎に選択して、移動体許容加速度に設定する。
 このような処理を行えば、搭乗者の搭乗状態だけでなく移動体の移動状況に応じて移動体許容加速度が設定されるのでさらに安全性を向上できるようになる。
 <2.移動制御装置について>
 次に、本技術の情報処理装置を用いた移動制御装置について説明する。上述したように、情報処理装置では、移動体における搭乗者の搭乗状態に基づき、移動体許容加速度を設定して、移動制御装置では情報処理装置で設定された移動体許容加速度を超えないように移動体の移動制御を行う。
 図14は、移動制御装置の構成を例示している。なお、移動制御装置15では、許容加速度設定部40で設定された移動体許容加速度で移動制御を行う制御部50だけでなく、移動体における搭乗者の搭乗状態を検出するために搭乗者を撮像する撮像部20と、撮像部20で取得された画像に基づき搭乗者の搭乗状態を検出する搭乗状態検出部30が設けられている場合を示しているが、本技術の移動制御装置は、制御部50のみで構成されてもよい。
 撮像部20は、被写体光学像を撮像素子の撮像面に結像させる撮像レンズ、光電変換を行い光学像に応じた画像信号を生成するCMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge Coupled Device)等の撮像素子、および撮像素子で生成された画像信号に対してカメラ信号処理を行い、良好な画質の撮像画像を示す画像信号を生成する画像信号処理部等を有している。撮像部20は、移動体の搭乗者を示す撮像画像の画像信号を生成して搭乗状態検出部30へ出力する。
 搭乗状態検出部30は、撮像部20で生成された画像信号を用いて、撮像画像に含まれる搭乗者の搭乗状態を搭乗者毎に検出する。搭乗状態検出部30は、例えば撮像画像から抽出した特徴点等を、モデルデータによって定義されるオブジェクトの形状等と照合することで、搭乗者の姿勢あるいは搭乗者の姿勢と移動体における搭乗者の位置を搭乗状態として検出する。また、搭乗状態検出部30は、機械学習等を用いて搭乗者の搭乗状態を撮像画像に基づいて検出してもよい。搭乗状態検出部30は搭乗状態の検出結果を許容加速度設定部40へ出力する。
 許容加速度設定部40は、搭乗状態検出部30で検出された搭乗状態に基づき移動体許容加速度を設定する。許容加速度設定部40は、上述したように、例えば移動体における搭乗者毎に許容加速度を判定して、搭乗者毎に判定した個別許容加速度を統合して、移動体許容加速度を設定して制御部50へ出力する。
 制御部50は、許容加速度設定部40で設定された移動体許容加速度に基づいて移動体の動作、例えば移動経路の選択や変更を行う。なお、制御部50の構成および動作は各実施の形態で説明する。
 図15は、移動制御装置の動作を例示したフローチャートである。ステップST51で移動制御装置は画像取得処理を行う。移動制御装置15は、移動体の搭乗者の撮像画像を取得してステップST52に進む。
 ステップST52で移動制御装置15は搭乗状態検出処理を行う。移動制御装置15は、ステップST51で取得された撮像画像に基づき搭乗者の搭乗状態を搭乗者毎に判定してステップST53に進む。
 ステップST53で情報処理装置10は個別許容加速度判定処理を行う。情報処理装置10は、ステップST52で検出された搭乗状態に基づき個別許容加速度を搭乗者毎に判定してステップST54に進む。
 ステップST54で情報処理装置10は個別許容加速度統合処理を行う。情報処理装置10は、ステップST53で搭乗者毎に判定した個別許容加速度を統合して、移動体許容加速度を設定してステップST55に進む。
 ステップST55で移動制御装置15は移動制御処理を行う。移動制御装置15は、移動体の移動制御をステップST53で設定された移動体許容加速度に基づいて行う。
 <2-1.制御部の構成と動作>
 図16は、制御部の実施の形態の構成を例示している。移動制御装置15の制御部50は、加速度判定部51と経路計画部52を有している。
 加速度判定部51は、経路計画部52から経路毎の加速度情報(以下「経路加速度情報」という)を取得して、許容加速度設定部40で設定された移動体許容加速度を超える箇所の判定を行い、判定結果を経路計画部52へ出力する。なお、経路加速度情報は、移動体が経路を移動したときの経路上の加速度を示す情報である。
 経路計画部52は、移動体の経路毎の経路加速度情報を有している。経路計画部52は、経路加速度情報を加速度判定部51に供給して、加速度判定部51から供給された判定結果に基づき、移動体許容加速度を超えない経路、あるいは移動体許容加速度を超えない経路がない場合には移動体許容加速度との差が最も少ない経路を移動体の移動経路に設定する。
 図17は実施の形態の動作を例示したフローチャートである。なお、フローチャートは、図15における移動制御処理を示している。
 ステップST61で制御部は移動体許容加速度を取得する。制御部50は、許容加速度設定部40で設定された移動体許容加速を取得してステップST62に進む。
 ステップST62で制御部は経路毎の経路加速度情報を取得する。制御部50の加速度判定部51は、経路計画部52から経路毎の経路加速度情報を取得してステップST63に進む。
 ステップST63で制御部は経路を選択する。制御部50の加速度判定部51は経路加速度情報が示されている経路を選択してステップST64に進む。
 ステップST64で制御部は移動体許容加速度を超えないか判別する。制御部50の加速度判定部51は、ステップST63で選択した経路の経路加速度情報に基づき、選択した経路を移動中に移動体許容加速度を超えないか判別する。加速度判定部51は、経路加速度が移動体許容加速度を超えないと判別した場合はステップST65に進み。超えると判別した場合にはステップST66に進む。
 ステップST65で制御部は選択されている経路を候補経路に設定する。制御部50の加速度判定部51は、移動体許容加速度を超えない経路を候補経路に設定してステップST67に進む。
 ステップST66で制御部は選択されている経路を非候補経路に設定する。制御部50の加速度判定部51は、移動体許容加速度を超える経路を非候補経路に設定してステップST67に進む。
 ステップST67で制御部は経路判定の終了であるか判別する。制御部50の加速度判定部51は、各経路が候補経路または非候補経路のいずれかに判定されている場合、経路判定の終了と判別してステップST69に進み、候補経路または非候補経路の判定が行われていない経路がある場合、経路判定の終了でないと判別してステップST68に進む。
 ステップST68で制御部は新たな経路を選択する。制御部50の加速度判定部51は、候補経路または非候補経路の判定が行われていない経路を新たに選択してステップST64に戻る。
 ステップST69で制御部は候補経路があるか判別する。制御部50の経路計画部52は、候補経路があると判別した場合にステップST70に進み、候補経路がないと判別した場合にステップST71に進む。
 ステップST70で制御部は候補経路から移動経路を選択する。制御部50の経路計画部52は、各候補経路の経路加速度に基づき、経路加速度が最小である候補経路を移動経路として選択する。また、経路計画部52は、各候補経路の経路加速度と移動体許容加速度に基づき、経路加速度と移動体許容加速度との差が最も少ない候補経路を移動経路として選択すれば、移動体の加速度が制限されすぎてしまうことを防ぐことができる。経路計画部52は、移動経路を選択してステップST72に進む。
 ステップST71で制御部は非候補経路から移動経路を選択する。制御部50の経路計画部52は、各非候補経路の経路加速度に基づき、経路加速度が最小である非候補経路を移動経路として選択してステップST72に進む。
 ステップST72で制御部は移動経路を出力する。制御部50の経路計画部52は、ステップST70またはステップST71で設定された移動経路を外部へ通知する。また、経路計画部52は、移動経路と共に、移動経路が候補経路と非候補経路のいずれであるかを識別可能とする移動経路識別情報を移動経路と共に出力するようにしてもよい。
 このような処理を行えば、搭乗者の安全性を確保できる経路を自動的に選択できるようになる。また、移動経路識別情報に基づき移動経路が非候補経路であることが示された場合、経路加速度よりも移動体の加速度を抑えて移動制御を行うことができる。
 図18は、設定された許容加速度に基づいた経路選択動作を例示しており、バスMTaが前方を走行している自転車MTbを回避する場合を示している。左右方向DRlrの許容加速度が前後方向である移動方向DRfbの許容加速度に比べて小さい移動体許容加速度ACaである場合、左右方向DRlrの加速度を制限した回避動作、例えば経路CSaに示すように左右方向の移動を生じさせることなく減速して自転車に追従する。また、移動方向(前後方向)DRfbの許容加速度が左右方向DRlrの許容加速度よりも小さい移動体許容加速度ACbである場合、移動方向(前後方向)DRfbの加速度を制限した回避動作、例えば経路CSbに示すように加減速を行うことなく進路を変更して隣の車線を使用して自転車を回避する。さらに、移動方向(前後方向)DRfbと左右方向DRlrの許容加速度が大きい移動体許容加速度ACcである場合、移動方向(前後方向)DRfbと左右方向DRlrの加速度を制限することなく回避動作を行い、例えば経路CScに示すように加速しながら進路を変更して隣の車線を使用して自転車を回避する。
 また、移動経路識別情報に基づき、経路CSa~経路CScが候補経路である場合には、上述のような回避動作を行い、非候補経路である場合は、上述の回避動作よりも早期に回避動作を行い、移動方向(前後方向)DRfbと左右方向DRlrの加速度を抑えるようにしてもよい。
 このように、移動体における搭乗者の搭乗状態に基づき、移動体許容加速度を設定して、設定された移動体許容加速度を超えないように移動体の移動制御を行うようにすれば、搭乗者の搭乗状態を考慮して安全かつ最適な経路を選択して移動できるようになる。
 <3.他の実施の形態について>
 上述した情報処理装置は、各実施の形態の構成に限られるものではなく、実施の形態を組み合わせた構成としてもよい。また、移動制御装置における許容加速度設定部40は、移動体許容加速度を設定できれば、上述の情報処理装置のいずれの実施の形態であってもよく、実施の形態を組み合わせた構成であってもよい。例えば、搭乗者の保持状態に応じて変換テーブルを切り替えてもよく、移動体の移動状況に応じて個別許容可能加速度を調整してもよい。
 また、上述の移動体制御システムにおける制御部50は、移動体許容加速度を超えないように経路を選択する場合を例示したが、制御部50では、移動体が移動体許容加速度を超えないように速度制御や操舵制御等を行うようにしてもよい。
 さらに、図2や図15に示す処理は、撮像画を取得して移動体許容加速度の設定が完了してから次の撮像画を取得する場合に限らず、移動体許容加速度の設定が完了する前に次の撮像画の取得等を開始するようにしてもよい。
 <4.応用例>
 次に、移動制御装置の応用例について説明する。図19は、本技術が適用され得る移動体制御システムの一例である車両制御システム100の概略的な機能の構成例を示すブロック図である。
 なお、以下、車両制御システム100が設けられている車両を他の車両と区別する場合、自車又は自車両と称する。
 車両制御システム100は、入力部101、データ取得部102、通信部103、車内機器104、出力制御部105、出力部106、駆動系制御部107、駆動系システム108、ボディ系制御部109、ボディ系システム110、記憶部111、及び、自動運転制御部112を備える。入力部101、データ取得部102、通信部103、出力制御部105、駆動系制御部107、ボディ系制御部109、記憶部111、及び、自動運転制御部112は、通信ネットワーク121を介して、相互に接続されている。通信ネットワーク121は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)、又は、FlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークやバス等からなる。なお、車両制御システム100の各部は、通信ネットワーク121を介さずに、直接接続される場合もある。
 なお、以下、車両制御システム100の各部が、通信ネットワーク121を介して通信を行う場合、通信ネットワーク121の記載を省略するものとする。例えば、入力部101と自動運転制御部112が、通信ネットワーク121を介して通信を行う場合、単に入力部101と自動運転制御部112が通信を行うと記載する。
 入力部101は、搭乗者が各種のデータや指示等の入力に用いる装置を備える。例えば、入力部101は、タッチパネル、ボタン、マイクロフォン、スイッチ、及び、レバー等の操作デバイス、並びに、音声やジェスチャ等により手動操作以外の方法で入力可能な操作デバイス等を備える。また、例えば、入力部101は、赤外線若しくはその他の電波を利用したリモートコントロール装置、又は、車両制御システム100の操作に対応したモバイル機器若しくはウェアラブル機器等の外部接続機器であってもよい。入力部101は、搭乗者により入力されたデータや指示等に基づいて入力信号を生成し、車両制御システム100の各部に供給する。
 データ取得部102は、車両制御システム100の処理に用いるデータを取得する各種のセンサ等を備え、取得したデータを、車両制御システム100の各部に供給する。
 例えば、データ取得部102は、自車の状態等を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、ジャイロセンサ、加速度センサ、慣性計測装置(IMU)、及び、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数、モータ回転数、若しくは、車輪の回転速度等を検出するためのセンサ等を備える。
 また、例えば、データ取得部102は、自車の外部の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ、及び、その他のカメラ等の撮像装置を備える。また、例えば、データ取得部102は、天候又は気象等を検出するための環境センサ、及び、自車の周囲の物体を検出するための周囲情報検出センサを備える。環境センサは、例えば、雨滴センサ、霧センサ、日照センサ、雪センサ等からなる。周囲情報検出センサは、例えば、超音波センサ、レーダ、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ソナー等からなる。
 さらに、例えば、データ取得部102は、自車の現在位置を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、GNSS(Global Navigation Satellite System)衛星からのGNSS信号を受信するGNSS受信機等を備える。
 また、例えば、データ取得部102は、車内の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、運転者を撮像する撮像装置、運転者の生体情報を検出する生体センサ、及び、車室内の音声を集音するマイクロフォン等を備える。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座っている搭乗者又はステアリングホイールを握っている運転者の生体情報を検出する。
 通信部103は、車内機器104、並びに、車外の様々な機器、サーバ、基地局等と通信を行い、車両制御システム100の各部から供給されるデータを送信したり、受信したデータを車両制御システム100の各部に供給したりする。なお、通信部103がサポートする通信プロトコルは、特に限定されるものではなく、また、通信部103が、複数の種類の通信プロトコルをサポートすることも可能である
 例えば、通信部103は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)、又は、WUSB(Wireless USB)等により、車内機器104と無線通信を行う。また、例えば、通信部103は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface)、又は、MHL(Mobile High-definition Link)等により、車内機器104と有線通信を行う。
 さらに、例えば、通信部103は、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)との通信を行う。また、例えば、通信部103は、P2P(Peer To Peer)技術を用いて、自車の近傍に存在する端末(例えば、歩行者若しくは店舗の端末、又は、MTC(Machine Type Communication)端末)との通信を行う。さらに、例えば、通信部103は、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、自車と家との間(Vehicle to Home)の通信、及び、歩車間(Vehicle to Pedestrian)通信等のV2X通信を行う。また、例えば、通信部103は、ビーコン受信部を備え、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行規制又は所要時間等の情報を取得する。
 車内機器104は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、自車に搬入され若しくは取り付けられる情報機器、及び、任意の目的地までの経路探索を行うナビゲーション装置等を含む。
 出力制御部105は、自車の搭乗者又は車外に対する各種の情報の出力を制御する。例えば、出力制御部105は、視覚情報(例えば、画像データ)及び聴覚情報(例えば、音声データ)のうちの少なくとも1つを含む出力信号を生成し、出力部106に供給することにより、出力部106からの視覚情報及び聴覚情報の出力を制御する。具体的には、例えば、出力制御部105は、データ取得部102の異なる撮像装置により撮像された画像データを合成して、俯瞰画像又はパノラマ画像等を生成し、生成した画像を含む出力信号を出力部106に供給する。また、例えば、出力制御部105は、衝突、接触、危険地帯への進入等の危険に対する警告音又は警告メッセージ等を含む音声データを生成し、生成した音声データを含む出力信号を出力部106に供給する。
 出力部106は、自車の搭乗者又は車外に対して、視覚情報又は聴覚情報を出力することが可能な装置を備える。例えば、出力部106は、表示装置、インストルメントパネル、オーディオスピーカ、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ、ランプ等を備える。出力部106が備える表示装置は、通常のディスプレイを有する装置以外にも、例えば、ヘッドアップディスプレイ、透過型ディスプレイ、AR(Augmented Reality)表示機能を有する装置等の運転者の視野内に視覚情報を表示する装置であってもよい。
 駆動系制御部107は、各種の制御信号を生成し、駆動系システム108に供給することにより、駆動系システム108の制御を行う。また、駆動系制御部107は、必要に応じて、駆動系システム108以外の各部に制御信号を供給し、駆動系システム108の制御状態の通知等を行う。
 駆動系システム108は、自車の駆動系に関わる各種の装置を備える。例えば、駆動系システム108は、内燃機関又は駆動用モータ等の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、舵角を調節するステアリング機構、制動力を発生させる制動装置、ABS(Antilock Brake System)、ESC(Electronic Stability Control)、並びに、電動パワーステアリング装置等を備える。
 ボディ系制御部109は、各種の制御信号を生成し、ボディ系システム110に供給することにより、ボディ系システム110の制御を行う。また、ボディ系制御部109は、必要に応じて、ボディ系システム110以外の各部に制御信号を供給し、ボディ系システム110の制御状態の通知等を行う。
 ボディ系システム110は、車体に装備されたボディ系の各種の装置を備える。例えば、ボディ系システム110は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、パワーシート、ステアリングホイール、空調装置、及び、各種ランプ(例えば、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカ、フォグランプ等)等を備える。
 記憶部111は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、及び、光磁気記憶デバイス等を備える。記憶部111は、車両制御システム100の各部が用いる各種プログラムやデータ等を記憶する。例えば、記憶部111は、ダイナミックマップ等の3次元の高精度地図、高精度地図より精度が低く、広いエリアをカバーするグローバルマップ、及び、自車の周囲の情報を含むローカルマップ等の地図データを記憶する。
 自動運転制御部112は、自律走行又は運転支援等の自動運転に関する制御を行う。具体的には、例えば、自動運転制御部112は、自車の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、自車の衝突警告、又は、自車のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行う。また、例えば、自動運転制御部112は、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行う。自動運転制御部112は、検出部131、自己位置推定部132、状況分析部133、計画部134、及び、動作制御部135を備える。
 検出部131は、自動運転の制御に必要な各種の情報の検出を行う。検出部131は、車外情報検出部141、車内情報検出部142、及び、車両状態検出部143を備える。
 車外情報検出部141は、車両制御システム100の各部からのデータ又は信号に基づいて、自車の外部の情報の検出処理を行う。例えば、車外情報検出部141は、自車の周囲の物体の検出処理、認識処理、及び、追跡処理、並びに、物体までの距離の検出処理を行う。検出対象となる物体には、例えば、車両、人、障害物、構造物、道路、信号機、交通標識、道路標示等が含まれる。また、例えば、車外情報検出部141は、自車の周囲の環境の検出処理を行う。検出対象となる周囲の環境には、例えば、天候、気温、湿度、明るさ、及び、路面の状態等が含まれる。車外情報検出部141は、検出処理の結果を示すデータを自己位置推定部132、状況分析部133のマップ解析部151、交通ルール認識部152、及び、状況認識部153、並びに、動作制御部135の緊急事態回避部171等に供給する。
 車内情報検出部142は、車両制御システム100の各部からのデータ又は信号に基づいて、車内の情報の検出処理を行う。例えば、車内情報検出部142は、運転者の認証処理及び認識処理、運転者の状態の検出処理、搭乗者の検出処理、及び、車内の環境の検出処理等を行う。検出対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線方向等が含まれる。検出対象となる車内の環境には、例えば、気温、湿度、明るさ、臭い等が含まれる。車内情報検出部142は、検出処理の結果を示すデータを状況分析部133の状況認識部153、及び、動作制御部135の緊急事態回避部171等に供給する。
 車両状態検出部143は、車両制御システム100の各部からのデータ又は信号に基づいて、自車の状態の検出処理を行う。検出対象となる自車の状態には、例えば、速度、加速度、舵角、異常の有無及び内容、運転操作の状態、パワーシートの位置及び傾き、ドアロックの状態、並びに、その他の車載機器の状態等が含まれる。車両状態検出部143は、検出処理の結果を示すデータを状況分析部133の状況認識部153、及び、動作制御部135の緊急事態回避部171等に供給する。
 自己位置推定部132は、車外情報検出部141、及び、状況分析部133の状況認識部153等の車両制御システム100の各部からのデータ又は信号に基づいて、自車の位置及び姿勢等の推定処理を行う。また、自己位置推定部132は、必要に応じて、自己位置の推定に用いるローカルマップ(以下、自己位置推定用マップと称する)を生成する。自己位置推定用マップは、例えば、SLAM(Simultaneous Localization and Mapping)等の技術を用いた高精度なマップとされる。自己位置推定部132は、推定処理の結果を示すデータを状況分析部133のマップ解析部151、交通ルール認識部152、及び、状況認識部153等に供給する。また、自己位置推定部132は、自己位置推定用マップを記憶部111に記憶させる。
 状況分析部133は、自車及び周囲の状況の分析処理を行う。状況分析部133は、マップ解析部151、交通ルール認識部152、状況認識部153、及び、状況予測部154を備える。
 マップ解析部151は、自己位置推定部132及び車外情報検出部141等の車両制御システム100の各部からのデータ又は信号を必要に応じて用いながら、記憶部111に記憶されている各種のマップの解析処理を行い、自動運転の処理に必要な情報を含むマップを構築する。マップ解析部151は、構築したマップを、交通ルール認識部152、状況認識部153、状況予測部154、並びに、計画部134のルート計画部161、行動計画部162、及び、動作計画部163等に供給する。
 交通ルール認識部152は、自己位置推定部132、車外情報検出部141、及び、マップ解析部151等の車両制御システム100の各部からのデータ又は信号に基づいて、自車の周囲の交通ルールの認識処理を行う。この認識処理により、例えば、自車の周囲の信号の位置及び状態、自車の周囲の交通規制の内容、並びに、走行可能な車線等が認識される。交通ルール認識部152は、認識処理の結果を示すデータを状況予測部154等に供給する。
 状況認識部153は、自己位置推定部132、車外情報検出部141、車内情報検出部142、車両状態検出部143、及び、マップ解析部151等の車両制御システム100の各部からのデータ又は信号に基づいて、自車に関する状況の認識処理を行う。例えば、状況認識部153は、自車の状況、自車の周囲の状況、及び、自車の運転者の状況等の認識処理を行う。また、状況認識部153は、必要に応じて、自車の周囲の状況の認識に用いるローカルマップ(以下、状況認識用マップと称する)を生成する。状況認識用マップは、例えば、占有格子地図(Occupancy Grid Map)とされる。
 認識対象となる自車の状況には、例えば、自車の位置、姿勢、動き(例えば、速度、加速度、移動方向等)、並びに、異常の有無及び内容等が含まれる。認識対象となる自車の周囲の状況には、例えば、周囲の静止物体の種類及び位置、周囲の動物体の種類、位置及び動き(例えば、速度、加速度、移動方向等)、周囲の道路の構成及び路面の状態、並びに、周囲の天候、気温、湿度、及び、明るさ等が含まれる。認識対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線の動き、並びに、運転操作等が含まれる。
 状況認識部153は、認識処理の結果を示すデータ(必要に応じて、状況認識用マップを含む)を自己位置推定部132及び状況予測部154等に供給する。また、状況認識部153は、状況認識用マップを記憶部111に記憶させる。
 状況予測部154は、マップ解析部151、交通ルール認識部152及び状況認識部153等の車両制御システム100の各部からのデータ又は信号に基づいて、自車に関する状況の予測処理を行う。例えば、状況予測部154は、自車の状況、自車の周囲の状況、及び、運転者の状況等の予測処理を行う。
 予測対象となる自車の状況には、例えば、自車の挙動、異常の発生、及び、走行可能距離等が含まれる。予測対象となる自車の周囲の状況には、例えば、自車の周囲の動物体の挙動、信号の状態の変化、及び、天候等の環境の変化等が含まれる。予測対象となる運転者の状況には、例えば、運転者の挙動及び体調等が含まれる。
 状況予測部154は、予測処理の結果を示すデータを、交通ルール認識部152及び状況認識部153からのデータとともに、計画部134のルート計画部161、行動計画部162、及び、動作計画部163等に供給する。
 ルート計画部161は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、目的地までのルートを計画する。例えば、ルート計画部161は、グローバルマップに基づいて、現在位置から指定された目的地までのルートを設定する。また、例えば、ルート計画部161は、渋滞、事故、通行規制、工事等の状況、及び、運転者の体調等に基づいて、適宜ルートを変更する。ルート計画部161は、計画したルートを示すデータを行動計画部162等に供給する。
 行動計画部162は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、ルート計画部161により計画されたルートを計画された時間内で安全に走行するための自車の行動を計画する。例えば、行動計画部162は、発進、停止、進行方向(例えば、前進、後退、左折、右折、方向転換等)、走行車線、走行速度、及び、追い越し等の計画を行う。行動計画部162は、計画した自車の行動を示すデータを動作計画部163等に供給する
 動作計画部163は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、行動計画部162により計画された行動を実現するための自車の動作を計画する。例えば、動作計画部163は、加速、減速、及び、走行軌道等の計画を行う。動作計画部163は、計画した自車の動作を示すデータを、動作制御部135の加減速制御部172及び方向制御部173等に供給する。
 動作制御部135は、自車の動作の制御を行う。動作制御部135は、緊急事態回避部171、加減速制御部172、及び、方向制御部173を備える。
 緊急事態回避部171は、車外情報検出部141、車内情報検出部142、及び、車両状態検出部143の検出結果に基づいて、衝突、接触、危険地帯への進入、運転者の異常、車両の異常等の緊急事態の検出処理を行う。緊急事態回避部171は、緊急事態の発生を検出した場合、急停車や急旋回等の緊急事態を回避するための自車の動作を計画する。緊急事態回避部171は、計画した自車の動作を示すデータを加減速制御部172及び方向制御部173等に供給する。
 加減速制御部172は、動作計画部163又は緊急事態回避部171により計画された自車の動作を実現するための加減速制御を行う。例えば、加減速制御部172は、計画された加速、減速、又は、急停車を実現するための駆動力発生装置又は制動装置の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部107に供給する。
 方向制御部173は、動作計画部163又は緊急事態回避部171により計画された自車の動作を実現するための方向制御を行う。例えば、方向制御部173は、動作計画部163又は緊急事態回避部171により計画された走行軌道又は急旋回を実現するためのステアリング機構の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部107に供給する。
 以上のような車両制御システム100において、検出部131の車内情報検出部142は車内の撮像等を行い、得られた画像等に基づいて搭乗者の搭乗状態を検出する。車内情報検出部142は検出結果を状況分析部133へ出力する。状況分析部133は、搭乗状態の検出結果に基づき移動体許容加速度を設定する。また、状況分析部133は、自車及び周囲の状況に応じて変換テーブルの選択あるいは切り替えを行い、移動体許容加速度を設定してもよい。状況分析部133は、設定した移動体許容加速度を計画部134へ出力する。計画部134は、移動体許容加速度を超えない経路、あるいは移動体許容加速度を超えない経路がない場合には移動体許容加速度との差が最も少ない経路を移動体の移動経路に設定する。動作制御部135は、計画部134で設定された経路を移動するように、加減速制御や方向制御を行う。このように、搭乗者の搭乗状態に応じて加減速制御や方向制御を行うことで、搭乗者の安全性を向上できるようになる。
 明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させる。または、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。
 例えば、プログラムは記録媒体としてのハードディスクやSSD(Solid State Drive)、ROM(Read Only Memory)に予め記録しておくことができる。あるいは、プログラムはフレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto optical)ディスク,DVD(Digital Versatile Disc)、BD(Blu-Ray Disc(登録商標))、磁気ディスク、半導体メモリカード等のリムーバブル記録媒体に、一時的または永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
 また、プログラムは、リムーバブル記録媒体からコンピュータにインストールする他、ダウンロードサイトからLAN(Local Area Network)やインターネット等のネットワークを介して、コンピュータに無線または有線で転送してもよい。コンピュータでは、そのようにして転送されてくるプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
 なお、本明細書に記載した効果はあくまで例示であって限定されるものではなく、記載されていない付加的な効果があってもよい。また、本技術は、上述した技術の実施の形態に限定して解釈されるべきではない。この技術の実施の形態は、例示という形態で本技術を開示しており、本技術の要旨を逸脱しない範囲で当業者が実施の形態の修正や代用をなし得ることは自明である。すなわち、本技術の要旨を判断するためには、請求の範囲を参酌すべきである。
 また、本技術の情報処理装置は以下のような構成も取ることができる。
 (1) 移動体における搭乗者の搭乗状態に基づき、前記移動体で許容可能な加速度を設定する許容加速度設定部
を備える情報処理装置。
 (2) 前記許容加速度設定部は、前記搭乗者の搭乗状態として前記搭乗者の姿勢を用いる(1)に記載の情報処理装置。
 (3) 前記許容加速度設定部は、前記搭乗者の姿勢として足の開き幅と前記移動体の移動方向に対する足の配置角度を用いる(2)に記載の情報処理装置。
 (4) 前記許容加速度設定部は、前記搭乗者の姿勢として前記搭乗者の姿勢保持状態を用いる(2)または(3)に記載の情報処理装置。
 (5) 前記許容加速度設定部は、前記搭乗者の搭乗状態として前記移動体における前記搭乗者の位置を用いて前記許容可能な加速度を設定する(1)乃至(4)のいずれかに記載の情報処理装置。
 (6) 前記許容加速度設定部は、前記搭乗者の搭乗状態の時間変化に基づいて前記許容可能な加速度を設定する(1)乃至(5)のいずれかに記載の情報処理装置。
 (7) 前記許容加速度設定部は、前記搭乗者の搭乗状態と前記許容可能な加速度の関係を示す変換テーブルを用いて前記許容可能な加速度を設定する(1)乃至(6)のいずれかに記載の情報処理装置。
 (8) 前記許容加速度設定部は、前記変換テーブルとして前記移動体の移動状況に応じた変換テーブルを用いる(7)に記載の情報処理装置。
 (9) 前記許容加速度設定部は、前記移動体の移動経路に応じた変換テーブルを用いる(8)に記載の情報処理装置。
 (10) 前記許容加速度設定部は、前記移動体の移動状況の変化に応じて前記変換テーブルを切り替える(8)に記載の情報処理装置。
 (11) 前記許容加速度設定部は、前記移動体における搭乗者毎に許容加速度を判定して、前記搭乗者毎に判定した許容加速度を統合して、前記移動体で許容可能な加速度を設定する(1)乃至(10)のいずれかに記載の情報処理装置。
 (12) 前記移動体における搭乗者を撮像する撮像部と、
 前記撮像部で取得された撮像画像に基づき、前記搭乗者の搭乗状態を検出する搭乗状態検出部をさらに備える(1)乃至(11)のいずれかに記載の情報処理装置。
 また、本技術の移動制御装置は以下のような構成も取ることができる。
 (1) 移動体における搭乗者の搭乗状態に基づき、前記移動体で許容可能な加速度を設定する許容加速度設定部と、
 前記許容加速度設定部で設定された許容加速度を超えないように前記移動体の移動制御を行う制御部と
を備える移動制御装置。
 (2) 前記制御部は、前記移動体の移動経路を設定する経路計画部を備え、
 前記経路計画部は、前記許容加速度に応じて移動経路を設定する(1)に記載の移動制御装置。
 (3) 前記経路計画部は、前記許容加速度を超えない経路を候補経路として、加速度が最も小さい候補経路または前記許容加速度との差が最も少ない候補経路を前記移動経路に設定する(2)に記載の移動制御装置。
 (4) 前記経路計画部は、前記許容加速度を超えない経路がない場合、加速度が最も小さい経路を前記移動経路に設定する(2)または(3)に記載の移動制御装置。
 (5) 前記移動体における搭乗者を撮像する撮像部と、
 前記撮像部で取得された撮像画像に基づき、前記搭乗者の搭乗状態を検出する搭乗状態検出部とをさらに備える(1)乃至(4)のいずれかに記載の移動制御装置。
 また、本技術は以下のようなプログラムであってもよい。
 (1) 移動体の加速度制御部をコンピュータで実行させるプログラムであって、
 前記移動体における搭乗者の搭乗状態に基づき、前記移動体で許容可能な加速度を設定する手順
を前記コンピュータで実行させるプログラム。
 (2) 移動体の移動制御をコンピュータで実行させるプログラムであって、
 前記移動体における搭乗者の搭乗状態に基づき、前記移動体で許容可能な加速度を設定する手順と、
 前記設定された許容加速度を超えないように前記移動体の移動制御を行う手順と
を前記コンピュータで実行させるプログラム。
 10・・・情報処理装置
 15・・・移動制御装置
 20・・・撮像部
 30・・・搭乗状態検出部
 40,40-1,40-2,40-3,40-4・・・許容加速度設定部
 41・・・変換テーブル記憶部
 42・・・状態情報記憶部
 43・・・変換テーブル補正部
 44・・・変換テーブル選択部
 45・・・個別許容加速度判定部
 47・・・個別許容加速度調整部
 48・・・個別許容加速度統合部
 50・・・制御部
 51・・・加速度判定部
 52・・・経路計画部

Claims (19)

  1.  移動体における搭乗者の搭乗状態に基づき、前記移動体で許容可能な加速度を設定する許容加速度設定部
    を備える情報処理装置。
  2.  前記許容加速度設定部は、前記搭乗者の搭乗状態として前記搭乗者の姿勢を用いる
    請求項1に記載の情報処理装置。
  3.  前記許容加速度設定部は、前記搭乗者の姿勢として足の開き幅と前記移動体の移動方向に対する足の配置角度を用いる
    請求項2に記載の情報処理装置。
  4.  前記許容加速度設定部は、前記搭乗者の姿勢として前記搭乗者の姿勢保持状態を用いる
    請求項2に記載の情報処理装置。
  5.  前記許容加速度設定部は、前記搭乗者の搭乗状態として前記移動体における前記搭乗者の位置を用いて前記許容可能な加速度を設定する
    請求項1に記載の情報処理装置。
  6.  前記許容加速度設定部は、前記搭乗者の搭乗状態の時間変化に基づいて前記許容可能な加速度を設定する
    請求項1に記載の情報処理装置。
  7.  前記許容加速度設定部は、前記搭乗者の搭乗状態と前記許容可能な加速度の関係を示す変換テーブルを用いて前記許容可能な加速度を設定する
    請求項1に記載の情報処理装置。
  8.  前記許容加速度設定部は、前記変換テーブルとして前記移動体の移動状況に応じた変換テーブルを用いる
    請求項7に記載の情報処理装置。
  9.  前記許容加速度設定部は、前記移動体の移動経路に応じた変換テーブルを用いる
    請求項8に記載の情報処理装置。
  10.  前記許容加速度設定部は、前記移動体の移動状況の変化に応じて前記変換テーブルを切り替える
    請求項8に記載の情報処理装置。
  11.  前記許容加速度設定部は、前記移動体における搭乗者毎に許容加速度を判定して、前記搭乗者毎に判定した許容加速度を統合して、前記移動体で許容可能な加速度を設定する
    請求項1に記載の情報処理装置。
  12.  前記移動体における搭乗者を撮像する撮像部と、
     前記撮像部で取得された撮像画像に基づき、前記搭乗者の搭乗状態を検出する搭乗状態検出部をさらに備える
    請求項1に記載の情報処理装置。
  13.  移動体における搭乗者の搭乗状態に基づき、前記移動体で許容可能な加速度を許容加速度設定部で設定することと
    を含む情報処理方法。
  14.  移動体における搭乗者の搭乗状態に基づき、前記移動体で許容可能な加速度を設定する許容加速度設定部と、
     前記許容加速度設定部で設定された許容加速度を超えないように前記移動体の移動制御を行う制御部と
    を備える移動制御装置。
  15.  前記制御部は、前記移動体の移動経路を設定する経路計画部を備え、
     前記経路計画部は、前記許容加速度に応じて移動経路を設定する
    請求項14に記載の移動制御装置。
  16.  前記経路計画部は、前記許容加速度を超えない経路を候補経路として、加速度が最も小さい候補経路または前記許容加速度との差が最も少ない候補経路を前記移動経路に設定する
    請求項15に記載の移動制御装置。
  17.  前記経路計画部は、前記許容加速度を超えない経路がない場合、加速度が最も小さい経路を前記移動経路に設定する
    請求項15に記載の移動制御装置。
  18.  前記移動体における搭乗者を撮像する撮像部と、
     前記撮像部で取得された撮像画像に基づき、前記搭乗者の搭乗状態を検出する搭乗状態検出部をさらに備える
    請求項14に記載の移動制御装置。
  19.  移動体における搭乗者の搭乗状態に基づき、前記移動体で許容可能な加速度を許容加速度設定部で設定することと、
     前記許容加速度設定部で設定された許容加速度を超えないように制御部で前記移動体の移動制御を行うこと
    を含む移動制御方法。
PCT/JP2020/006446 2019-03-20 2020-02-19 情報処理装置と情報処理方法および移動制御装置と移動制御方法 WO2020189156A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021507115A JP7380674B2 (ja) 2019-03-20 2020-02-19 情報処理装置と情報処理方法および移動制御装置と移動制御方法
EP20773995.4A EP3943342A4 (en) 2019-03-20 2020-02-19 INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, MOTION CONTROL DEVICE AND MOTION CONTROL METHOD
US17/593,047 US20220185278A1 (en) 2019-03-20 2020-02-19 Information processing apparatus, information processing method, movement control apparatus, and movement control method
CN202080020631.3A CN113557174A (zh) 2019-03-20 2020-02-19 信息处理装置、信息处理方法、移动控制装置和移动控制方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019052450 2019-03-20
JP2019-052450 2019-03-20

Publications (1)

Publication Number Publication Date
WO2020189156A1 true WO2020189156A1 (ja) 2020-09-24

Family

ID=72520199

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/006446 WO2020189156A1 (ja) 2019-03-20 2020-02-19 情報処理装置と情報処理方法および移動制御装置と移動制御方法

Country Status (5)

Country Link
US (1) US20220185278A1 (ja)
EP (1) EP3943342A4 (ja)
JP (1) JP7380674B2 (ja)
CN (1) CN113557174A (ja)
WO (1) WO2020189156A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6976142B2 (ja) * 2017-11-09 2021-12-08 日立Astemo株式会社 車両運動制御装置、その方法、そのプログラム、及びそのシステム、並びに、目標軌道生成装置、その方法、そのプログラム、及びそのシステム
JP7371588B2 (ja) * 2020-08-24 2023-10-31 トヨタ自動車株式会社 車両安全装置
KR20220026656A (ko) * 2020-08-25 2022-03-07 현대모비스 주식회사 차량의 주행 제어 시스템 및 방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002170188A (ja) * 2000-12-04 2002-06-14 Nissan Diesel Motor Co Ltd 車両の運行状況記録装置
JP2008120271A (ja) * 2006-11-13 2008-05-29 Toyota Motor Corp 自動運転車両
JP2014044523A (ja) * 2012-08-24 2014-03-13 Yazaki Energy System Corp ドライブレコーダ
JP2015145849A (ja) * 2014-02-04 2015-08-13 アイシン・エィ・ダブリュ株式会社 ナビゲーション装置、ナビゲーション方法及びプログラム
JP2017021651A (ja) * 2015-07-13 2017-01-26 株式会社デンソー 車両制御装置
JP2017146744A (ja) * 2016-02-16 2017-08-24 株式会社デンソー ドライバ状態判定装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5519093B2 (ja) 2006-08-03 2014-06-11 トヨタ自動車株式会社 走行装置及び走行装置の制動制御方法
SE1351223A1 (sv) * 2013-10-16 2015-04-17 Scania Cv Ab Förfarande och system för framförande av ett fordon
JP2016062414A (ja) * 2014-09-19 2016-04-25 クラリオン株式会社 車内監視装置及び車内監視システム
JP2017020859A (ja) 2015-07-09 2017-01-26 三菱電機株式会社 ナビゲーション装置
SE539618C2 (en) * 2016-02-19 2017-10-17 Scania Cv Ab System and method for driving assistance of a vehicle capable of transporting a plurality of passengers
JP2017169981A (ja) 2016-03-25 2017-09-28 トヨタ自動車株式会社 立ち乗り型移動装置
JP6848533B2 (ja) 2017-03-02 2021-03-24 株式会社デンソー 車両の走行制御システム
US10692371B1 (en) * 2017-06-20 2020-06-23 Uatc, Llc Systems and methods for changing autonomous vehicle operations based on user profiles
US10829110B2 (en) * 2017-10-26 2020-11-10 Robert Bosch Gmbh Method and device for adapting a driving behavior of a semi, highly or fully automated vehicle
JP7000150B2 (ja) * 2017-12-27 2022-01-19 トヨタ自動車株式会社 車両の制御システム
CN111133448A (zh) * 2018-02-09 2020-05-08 辉达公司 使用安全到达时间控制自动驾驶车辆
US20200081611A1 (en) * 2018-09-10 2020-03-12 Here Global B.V. Method and apparatus for providing a user reaction user interface for generating a passenger-based driving profile
DE102018007432A1 (de) * 2018-09-20 2019-02-28 Daimler Ag Verfahren zum Betrieb eines Omnibusses
JP7155985B2 (ja) * 2018-12-13 2022-10-19 トヨタ自動車株式会社 車両及び乗員輸送システム
JP7418268B2 (ja) * 2019-05-10 2024-01-19 株式会社アイシン 車両内転倒防止装置および転倒防止情報提供装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002170188A (ja) * 2000-12-04 2002-06-14 Nissan Diesel Motor Co Ltd 車両の運行状況記録装置
JP2008120271A (ja) * 2006-11-13 2008-05-29 Toyota Motor Corp 自動運転車両
JP2014044523A (ja) * 2012-08-24 2014-03-13 Yazaki Energy System Corp ドライブレコーダ
JP2015145849A (ja) * 2014-02-04 2015-08-13 アイシン・エィ・ダブリュ株式会社 ナビゲーション装置、ナビゲーション方法及びプログラム
JP2017021651A (ja) * 2015-07-13 2017-01-26 株式会社デンソー 車両制御装置
JP2017146744A (ja) * 2016-02-16 2017-08-24 株式会社デンソー ドライバ状態判定装置

Also Published As

Publication number Publication date
EP3943342A1 (en) 2022-01-26
CN113557174A (zh) 2021-10-26
EP3943342A4 (en) 2022-09-07
US20220185278A1 (en) 2022-06-16
JP7380674B2 (ja) 2023-11-15
JPWO2020189156A1 (ja) 2020-09-24

Similar Documents

Publication Publication Date Title
KR102533860B1 (ko) 화상 처리 장치 및 화상 처리 방법
US11501461B2 (en) Controller, control method, and program
WO2020189156A1 (ja) 情報処理装置と情報処理方法および移動制御装置と移動制御方法
JP7382327B2 (ja) 情報処理装置、移動体、情報処理方法及びプログラム
US11377101B2 (en) Information processing apparatus, information processing method, and vehicle
JPWO2019077999A1 (ja) 撮像装置、画像処理装置、及び、画像処理方法
US11815887B2 (en) Vehicle control device, vehicle control method, vehicle, information processing device, information processing method, and program
WO2020054240A1 (ja) 情報処理装置及び情報処理方法、撮像装置、移動体装置、並びにコンピュータプログラム
JP7257737B2 (ja) 情報処理装置、自己位置推定方法、及び、プログラム
WO2020100585A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム
JPWO2019039281A1 (ja) 情報処理装置、情報処理方法、プログラム、及び、移動体
US20220017093A1 (en) Vehicle control device, vehicle control method, program, and vehicle
WO2019131116A1 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
JPWO2019073795A1 (ja) 情報処理装置、自己位置推定方法、プログラム、及び、移動体
JPWO2019039280A1 (ja) 情報処理装置、情報処理方法、プログラム、及び、車両
US20230186651A1 (en) Control device, projection system, control method, and program
JP7318656B2 (ja) 画像処理装置と画像処理方法およびプログラム
WO2024009829A1 (ja) 情報処理装置、情報処理方法および車両制御システム
WO2023068116A1 (ja) 車載通信装置、端末装置、通信方法、情報処理方法及び通信システム
WO2021006287A1 (ja) 異常検出装置と異常検出方法およびプログラムと情報処理システム
WO2023171401A1 (ja) 信号処理装置、信号処理方法、および記録媒体
WO2022024569A1 (ja) 情報処理装置と情報処理方法およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20773995

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021507115

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020773995

Country of ref document: EP

Effective date: 20211020