WO2021153262A1 - 移動装置用シート、シート制御装置、及び、シート制御方法 - Google Patents

移動装置用シート、シート制御装置、及び、シート制御方法 Download PDF

Info

Publication number
WO2021153262A1
WO2021153262A1 PCT/JP2021/001160 JP2021001160W WO2021153262A1 WO 2021153262 A1 WO2021153262 A1 WO 2021153262A1 JP 2021001160 W JP2021001160 W JP 2021001160W WO 2021153262 A1 WO2021153262 A1 WO 2021153262A1
Authority
WO
WIPO (PCT)
Prior art keywords
seat
contact portion
unit
hardness
adjusting
Prior art date
Application number
PCT/JP2021/001160
Other languages
English (en)
French (fr)
Inventor
敏廣 平尾
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Priority to EP21748206.6A priority Critical patent/EP4098151A4/en
Priority to KR1020227023716A priority patent/KR20220127251A/ko
Priority to CN202180010479.5A priority patent/CN115003552A/zh
Priority to JP2021574622A priority patent/JPWO2021153262A1/ja
Priority to US17/759,381 priority patent/US20230077600A1/en
Publication of WO2021153262A1 publication Critical patent/WO2021153262A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/90Details or parts not otherwise provided for
    • B60N2/914Hydro-pneumatic adjustments of the shape
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47CCHAIRS; SOFAS; BEDS
    • A47C7/00Parts, details, or accessories of chairs or stools
    • A47C7/02Seat parts
    • A47C7/14Seat parts of adjustable shape; elastically mounted ; adaptable to a user contour or ergonomic seating positions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/002Seats provided with an occupancy detection means mounted therein or thereon
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/02Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles the seat or part thereof being movable, e.g. adjustable
    • B60N2/0224Non-manual adjustments, e.g. with electrical operation
    • B60N2/02246Electric motors therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/02Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles the seat or part thereof being movable, e.g. adjustable
    • B60N2/0224Non-manual adjustments, e.g. with electrical operation
    • B60N2/0244Non-manual adjustments, e.g. with electrical operation with logic circuits
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/02Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles the seat or part thereof being movable, e.g. adjustable
    • B60N2/0224Non-manual adjustments, e.g. with electrical operation
    • B60N2/0244Non-manual adjustments, e.g. with electrical operation with logic circuits
    • B60N2/026Non-manual adjustments, e.g. with electrical operation with logic circuits varying hardness or support of upholstery, e.g. for tuning seat comfort when driving curved roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/02Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles the seat or part thereof being movable, e.g. adjustable
    • B60N2/0224Non-manual adjustments, e.g. with electrical operation
    • B60N2/0244Non-manual adjustments, e.g. with electrical operation with logic circuits
    • B60N2/0268Non-manual adjustments, e.g. with electrical operation with logic circuits using sensors or detectors for adapting the seat or seat part, e.g. to the position of an occupant
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/90Details or parts not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/90Details or parts not otherwise provided for
    • B60N2/976Details or parts not otherwise provided for massaging systems

Definitions

  • the present technology relates to a seat for a mobile device, a seat control device, and a seat control method, and more particularly to a seat for a mobile device, a seat control device, and a seat control method for improving comfort.
  • a plurality of pressure sensors are provided on the support surface of the pad member of the seat cushion, and a plurality of linear actuators are arranged in the front-rear direction, and each actuator is controlled according to the pressure distribution of the seat cushion to obtain a desired region. It has been proposed to adjust the hardness (see, for example, Patent Document 2).
  • Patent Documents 1 and 2 require a large number of air cells, actuators, sensors, and the like. Therefore, the number of parts increases, the configuration and manufacturing process become complicated, and the cost of the sheet increases.
  • This technology was made in view of such a situation, and it is possible to improve the comfort of the seat by a simple configuration.
  • the moving device seat on the first side surface of the present technology includes a first adjusting portion for adjusting the hardness of the left buttock contact portion including a portion of the seat surface where the user's left buttock is expected to contact, and the seat surface.
  • a second adjusting unit for adjusting the hardness of the right buttock contact portion including the portion where the user's right buttock portion is expected to come into contact is provided.
  • the seat control device on the second aspect of the present technology is based on at least one of a user's state, a state of the moving device, a situation inside the moving device, and a situation outside the moving device.
  • the seat control method of the second aspect of the present technology is based on at least one of a user's state, a state of the moving device, a situation inside the moving device, and a situation outside the moving device.
  • the hardness of the left buttock contact portion including the portion where the user's left buttock is expected to come into contact with the seat surface is adjusted, and the user's right buttock portion comes into contact with the seat surface.
  • the hardness of the right buttock contact part including the part to be touched is adjusted.
  • the seat for the mobile device is based on at least one of the state of the user, the state of the mobile device, the situation inside the mobile device, and the situation outside the mobile device.
  • the hardness of the left buttock contact portion including the portion of the seating surface where the user's left buttock is expected to come into contact and the hardness of the right buttock contact portion including the portion where the user's right buttock is expected to come into contact are individually controlled. Will be done.
  • FIG. 1 is a block diagram showing a configuration example of a vehicle control system 11 which is an example of a mobile device control system to which the present technology is applied.
  • the vehicle control system 11 is provided in the vehicle 1 and performs processing related to driving support and automatic driving of the vehicle 1.
  • the vehicle control system 11 includes a processor 21, a communication unit 22, a map information storage unit 23, a GNSS (Global Navigation Satellite System) receiving unit 24, an external recognition sensor 25, an in-vehicle sensor 26, a vehicle sensor 27, a recording unit 28, and a driving support system. It includes an automatic driving control unit 29, a DMS (Driver Monitoring System) 30, an HMI (Human Machine Interface) 31, and a vehicle control unit 32.
  • a processor 21 includes a processor 21, a communication unit 22, a map information storage unit 23, a GNSS (Global Navigation Satellite System) receiving unit 24, an external recognition sensor 25, an in-vehicle sensor 26, a vehicle sensor 27, a recording unit 28, and a driving support system. It includes an automatic driving control unit 29, a DMS (Driver Monitoring System) 30, an HMI (Human Machine Interface) 31, and a vehicle control unit 32.
  • DMS Driver Monitoring System
  • HMI Human Machine Interface
  • the communication network 41 is an in-vehicle communication network that conforms to any standard such as CAN (Controller Area Network), LIN (Local Interconnect Network), LAN (Local Area Network), FlexRay (registered trademark), and Ethernet (registered trademark). It is composed of networks and buses.
  • CAN Controller Area Network
  • LIN Local Interconnect Network
  • LAN Local Area Network
  • FlexRay registered trademark
  • Ethernet registered trademark
  • the description of the communication network 41 shall be omitted.
  • the processor 21 and the communication unit 22 communicate with each other via the communication network 41, it is described that the processor 21 and the communication unit 22 simply communicate with each other.
  • the processor 21 is composed of various processors such as a CPU (Central Processing Unit), an MPU (Micro Processing Unit), and an ECU (Electronic Control Unit), for example.
  • the processor 21 controls the entire vehicle control system 11.
  • the communication unit 22 communicates with various devices inside and outside the vehicle, other vehicles, servers, base stations, etc., and transmits and receives various data.
  • the communication unit 22 receives from the outside a program for updating the software for controlling the operation of the vehicle control system 11, map information, traffic information, information around the vehicle 1, and the like. ..
  • the communication unit 22 transmits information about the vehicle 1 (for example, data indicating the state of the vehicle 1, recognition result by the recognition unit 73, etc.), information around the vehicle 1, and the like to the outside.
  • the communication unit 22 performs communication corresponding to a vehicle emergency call system such as eCall.
  • the communication method of the communication unit 22 is not particularly limited. Moreover, a plurality of communication methods may be used.
  • the communication unit 22 wirelessly communicates with the equipment inside the vehicle by a communication method such as wireless LAN, Bluetooth, NFC, WUSB (Wireless USB).
  • a communication method such as wireless LAN, Bluetooth, NFC, WUSB (Wireless USB).
  • the communication unit 22 uses USB (Universal Serial Bus), HDMI (High-Definition Multimedia Interface, registered trademark), or MHL (Mobile High-) via a connection terminal (and a cable if necessary) (not shown).
  • Wired communication is performed with the equipment in the vehicle by a communication method such as definitionLink).
  • the device in the vehicle is, for example, a device that is not connected to the communication network 41 in the vehicle.
  • mobile devices and wearable devices possessed by passengers such as drivers, information devices brought into the vehicle and temporarily installed, and the like are assumed.
  • the communication unit 22 is a base station using a wireless communication system such as 4G (4th generation mobile communication system), 5G (5th generation mobile communication system), LTE (Long Term Evolution), DSRC (Dedicated Short Range Communications), etc.
  • a wireless communication system such as 4G (4th generation mobile communication system), 5G (5th generation mobile communication system), LTE (Long Term Evolution), DSRC (Dedicated Short Range Communications), etc.
  • it communicates with a server or the like existing on an external network (for example, the Internet, a cloud network, or a network peculiar to a business operator) via an access point.
  • an external network for example, the Internet, a cloud network, or a network peculiar to a business operator
  • the communication unit 22 uses P2P (Peer To Peer) technology to communicate with a terminal (for example, a pedestrian or store terminal, or an MTC (Machine Type Communication) terminal) existing in the vicinity of the own vehicle. ..
  • a terminal for example, a pedestrian or store terminal, or an MTC (Machine Type Communication) terminal
  • the communication unit 22 performs V2X communication.
  • V2X communication is, for example, vehicle-to-vehicle (Vehicle to Vehicle) communication with other vehicles, road-to-vehicle (Vehicle to Infrastructure) communication with roadside equipment, and home (Vehicle to Home) communication.
  • And pedestrian-to-vehicle (Vehicle to Pedestrian) communication with terminals owned by pedestrians.
  • the communication unit 22 receives electromagnetic waves transmitted by a vehicle information and communication system (VICS (Vehicle Information and Communication System), a registered trademark) such as a radio wave beacon, an optical beacon, and FM multiplex broadcasting.
  • VICS Vehicle Information and Communication System
  • a radio wave beacon such as a radio wave beacon, an optical beacon, and FM multiplex broadcasting.
  • the map information storage unit 23 stores the map acquired from the outside and the map created by the vehicle 1.
  • the map information storage unit 23 stores a three-dimensional high-precision map, a global map that is less accurate than the high-precision map and covers a wide area, and the like.
  • High-precision maps include, for example, dynamic maps, point cloud maps, vector maps (also referred to as ADAS (Advanced Driver Assistance System) maps), and the like.
  • the dynamic map is, for example, a map composed of four layers of dynamic information, quasi-dynamic information, quasi-static information, and static information, and is provided from an external server or the like.
  • the point cloud map is a map composed of point clouds (point cloud data).
  • a vector map is a map in which information such as lanes and signal positions is associated with a point cloud map.
  • the point cloud map and the vector map may be provided from, for example, an external server or the like, and the vehicle 1 is used as a map for matching with a local map described later based on the sensing result by the radar 52, LiDAR 53, or the like.
  • map information storage unit 23 It may be created and stored in the map information storage unit 23. Further, when a high-precision map is provided from an external server or the like, in order to reduce the communication capacity, map data of, for example, several hundred meters square, relating to the planned route on which the vehicle 1 will travel from now on is acquired from the server or the like.
  • the GNSS receiving unit 24 receives the GNSS signal from the GNSS satellite and supplies it to the traveling support / automatic driving control unit 29.
  • the external recognition sensor 25 includes various sensors used for recognizing the external situation of the vehicle 1, and supplies sensor data from each sensor to each part of the vehicle control system 11.
  • the type and number of sensors included in the external recognition sensor 25 are arbitrary.
  • the external recognition sensor 25 includes a camera 51, a radar 52, a LiDAR (Light Detection and Ringing, Laser Imaging Detection and Ringing) 53, and an ultrasonic sensor 54.
  • the number of cameras 51, radar 52, LiDAR 53, and ultrasonic sensors 54 is arbitrary, and examples of sensing regions of each sensor will be described later.
  • the camera 51 for example, a camera of an arbitrary shooting method such as a ToF (TimeOfFlight) camera, a stereo camera, a monocular camera, an infrared camera, etc. is used as needed.
  • ToF TimeOfFlight
  • stereo camera stereo camera
  • monocular camera stereo camera
  • infrared camera etc.
  • the external recognition sensor 25 includes an environmental sensor for detecting weather, weather, brightness, and the like.
  • the environmental sensor includes, for example, a raindrop sensor, a fog sensor, a sunshine sensor, a snow sensor, an illuminance sensor, and the like.
  • the external recognition sensor 25 includes a microphone used for detecting the position of the sound and the sound source around the vehicle 1.
  • the in-vehicle sensor 26 includes various sensors for detecting information in the vehicle, and supplies sensor data from each sensor to each part of the vehicle control system 11.
  • the type and number of sensors included in the in-vehicle sensor 26 are arbitrary.
  • the in-vehicle sensor 26 includes a camera, a radar, a seating sensor, a steering wheel sensor, a microphone, a biological sensor, and the like.
  • the camera for example, a camera of any shooting method such as a ToF camera, a stereo camera, a monocular camera, and an infrared camera can be used.
  • the biosensor is provided on, for example, a seat, a stelling wheel, or the like, and detects various biometric information of a passenger such as a driver.
  • the vehicle sensor 27 includes various sensors for detecting the state of the vehicle 1, and supplies sensor data from each sensor to each part of the vehicle control system 11.
  • the type and number of sensors included in the vehicle sensor 27 are arbitrary.
  • the vehicle sensor 27 includes a speed sensor, an acceleration sensor, an angular velocity sensor (gyro sensor), and an inertial measurement unit (IMU (Inertial Measurement Unit)).
  • the vehicle sensor 27 includes a steering angle sensor that detects the steering angle of the steering wheel, a yaw rate sensor, an accelerator sensor that detects the operation amount of the accelerator pedal, and a brake sensor that detects the operation amount of the brake pedal.
  • the vehicle sensor 27 includes a rotation sensor that detects the rotation speed of an engine or a motor, an air pressure sensor that detects tire pressure, a slip ratio sensor that detects tire slip ratio, and a wheel speed that detects wheel rotation speed. Equipped with a sensor.
  • the vehicle sensor 27 includes a battery sensor that detects the remaining amount and temperature of the battery, and an impact sensor that detects an external impact.
  • the recording unit 28 includes, for example, a magnetic storage device such as a ROM (Read Only Memory), a RAM (Random Access Memory), and an HDD (Hard Disc Drive), a semiconductor storage device, an optical storage device, an optical magnetic storage device, and the like. ..
  • the recording unit 28 records various programs, data, and the like used by each unit of the vehicle control system 11.
  • the recording unit 28 records a rosbag file including messages sent and received by the ROS (Robot Operating System) in which an application program related to automatic driving operates.
  • the recording unit 28 includes an EDR (EventDataRecorder) and a DSSAD (DataStorageSystem for Automated Driving), and records information on the vehicle 1 before and after an event such as an accident.
  • EDR EventDataRecorder
  • DSSAD DataStorageSystem for Automated Driving
  • the driving support / automatic driving control unit 29 controls the driving support and automatic driving of the vehicle 1.
  • the driving support / automatic driving control unit 29 includes an analysis unit 61, an action planning unit 62, and an operation control unit 63.
  • the analysis unit 61 analyzes the vehicle 1 and the surrounding conditions.
  • the analysis unit 61 includes a self-position estimation unit 71, a sensor fusion unit 72, and a recognition unit 73.
  • the self-position estimation unit 71 estimates the self-position of the vehicle 1 based on the sensor data from the external recognition sensor 25 and the high-precision map stored in the map information storage unit 23. For example, the self-position estimation unit 71 estimates the self-position of the vehicle 1 by generating a local map based on the sensor data from the external recognition sensor 25 and matching the local map with the high-precision map. The position of the vehicle 1 is based on, for example, the center of the rear wheel-to-axle.
  • the local map is, for example, a three-dimensional high-precision map created by using a technique such as SLAM (Simultaneous Localization and Mapping), an occupied grid map (Occupancy Grid Map), or the like.
  • the three-dimensional high-precision map is, for example, the point cloud map described above.
  • the occupied grid map is a map that divides a three-dimensional or two-dimensional space around the vehicle 1 into grids (grids) of a predetermined size and shows the occupied state of an object in grid units.
  • the occupied state of an object is indicated by, for example, the presence or absence of the object and the existence probability.
  • the local map is also used, for example, in the detection process and the recognition process of the external situation of the vehicle 1 by the recognition unit 73.
  • the self-position estimation unit 71 may estimate the self-position of the vehicle 1 based on the GNSS signal and the sensor data from the vehicle sensor 27.
  • the sensor fusion unit 72 performs a sensor fusion process for obtaining new information by combining a plurality of different types of sensor data (for example, image data supplied from the camera 51 and sensor data supplied from the radar 52). .. Methods for combining different types of sensor data include integration, fusion, and association.
  • the recognition unit 73 performs detection processing and recognition processing of the external situation of the vehicle 1.
  • the recognition unit 73 performs detection processing and recognition processing of the external situation of the vehicle 1 based on the information from the external recognition sensor 25, the information from the self-position estimation unit 71, the information from the sensor fusion unit 72, and the like. ..
  • the recognition unit 73 performs detection processing, recognition processing, and the like of objects around the vehicle 1.
  • the object detection process is, for example, a process of detecting the presence / absence, size, shape, position, movement, etc. of an object.
  • the object recognition process is, for example, a process of recognizing an attribute such as an object type or identifying a specific object.
  • the detection process and the recognition process are not always clearly separated and may overlap.
  • the recognition unit 73 detects an object around the vehicle 1 by performing clustering that classifies the point cloud based on sensor data such as LiDAR or radar for each point cloud block. As a result, the presence / absence, size, shape, and position of an object around the vehicle 1 are detected.
  • the recognition unit 73 detects the movement of an object around the vehicle 1 by performing tracking that follows the movement of a mass of point clouds classified by clustering. As a result, the velocity and the traveling direction (movement vector) of the object around the vehicle 1 are detected.
  • the recognition unit 73 recognizes the type of an object around the vehicle 1 by performing an object recognition process such as semantic segmentation on the image data supplied from the camera 51.
  • the object to be detected or recognized is assumed to be, for example, a vehicle, a person, a bicycle, an obstacle, a structure, a road, a traffic light, a traffic sign, a road sign, or the like.
  • the recognition unit 73 recognizes the traffic rules around the vehicle 1 based on the map stored in the map information storage unit 23, the estimation result of the self-position, and the recognition result of the objects around the vehicle 1. I do.
  • this processing for example, the position and state of a signal, the contents of traffic signs and road markings, the contents of traffic regulations, the lanes in which the vehicle can travel, and the like are recognized.
  • the recognition unit 73 performs recognition processing of the environment around the vehicle 1.
  • the surrounding environment to be recognized for example, weather, temperature, humidity, brightness, road surface condition, and the like are assumed.
  • the action planning unit 62 creates an action plan for the vehicle 1. For example, the action planning unit 62 creates an action plan by performing route planning and route tracking processing.
  • route planning is a process of planning a rough route from the start to the goal.
  • This route plan is called a track plan, and in the route planned by the route plan, a track generation (Local) capable of safely and smoothly traveling in the vicinity of the vehicle 1 in consideration of the motion characteristics of the vehicle 1 is taken into consideration.
  • the processing of path planning is also included.
  • Route tracking is a process of planning an operation for safely and accurately traveling on a route planned by route planning within a planned time. For example, the target speed and the target angular velocity of the vehicle 1 are calculated.
  • the motion control unit 63 controls the motion of the vehicle 1 in order to realize the action plan created by the action plan unit 62.
  • the motion control unit 63 controls the steering control unit 81, the brake control unit 82, and the drive control unit 83 so that the vehicle 1 travels on the track calculated by the track plan in acceleration / deceleration control and direction. Take control.
  • the motion control unit 63 performs coordinated control for the purpose of realizing ADAS functions such as collision avoidance or impact mitigation, follow-up running, vehicle speed maintenance running, collision warning of own vehicle, and lane deviation warning of own vehicle.
  • the motion control unit 63 performs coordinated control for the purpose of automatic driving or the like in which the vehicle autonomously travels without being operated by the driver.
  • the DMS 30 performs driver authentication processing, driver status recognition processing, and the like based on the sensor data from the in-vehicle sensor 26 and the input data input to the HMI 31.
  • As the state of the driver to be recognized for example, physical condition, alertness, concentration, fatigue, line-of-sight direction, drunkenness, driving operation, posture, and the like are assumed.
  • the DMS 30 may perform authentication processing for passengers other than the driver and recognition processing for the state of the passenger. Further, for example, the DMS 30 may perform the recognition processing of the situation inside the vehicle based on the sensor data from the sensor 26 in the vehicle. As the situation inside the vehicle to be recognized, for example, temperature, humidity, brightness, odor, etc. are assumed.
  • the HMI 31 is used for inputting various data and instructions, generates an input signal based on the input data and instructions, and supplies the input signal to each part of the vehicle control system 11.
  • the HMI 31 includes an operation device such as a touch panel, a button, a microphone, a switch, and a lever, and an operation device that can be input by a method other than manual operation by voice or gesture.
  • the HMI 31 may be, for example, a remote control device using infrared rays or other radio waves, or an externally connected device such as a mobile device or a wearable device that supports the operation of the vehicle control system 11.
  • the HMI 31 performs output control that controls the generation and output of visual information, auditory information, and tactile information for the passenger or the outside of the vehicle, as well as the output content, output timing, output method, and the like.
  • the visual information is, for example, information indicated by an image such as an operation screen, a state display of the vehicle 1, a warning display, a monitor image showing the surrounding situation of the vehicle 1, or light.
  • Auditory information is, for example, information indicated by voice such as guidance, a warning sound, and a warning message.
  • the tactile information is information given to the passenger's tactile sensation by, for example, force, vibration, movement, or the like.
  • a display device As a device that outputs visual information, for example, a display device, a projector, a navigation device, an instrument panel, a CMS (Camera Monitoring System), an electronic mirror, a lamp, or the like is assumed.
  • the display device is a device that displays visual information in the passenger's field of view, such as a head-up display, a transmissive display, and a wearable device having an AR (Augmented Reality) function, in addition to a device having a normal display. You may.
  • an audio speaker for example, an audio speaker, headphones, earphones, etc. are assumed.
  • a haptics element using haptics technology or the like As a device that outputs tactile information, for example, a haptics element using haptics technology or the like is assumed.
  • the haptic element is provided on, for example, a steering wheel, a seat, or the like.
  • the vehicle control unit 32 controls each part of the vehicle 1.
  • the vehicle control unit 32 includes a steering control unit 81, a brake control unit 82, a drive control unit 83, a body system control unit 84, a light control unit 85, and a horn control unit 86.
  • the steering control unit 81 detects and controls the state of the steering system of the vehicle 1.
  • the steering system includes, for example, a steering mechanism including a steering wheel and the like, electric power steering and the like.
  • the steering control unit 81 includes, for example, a control unit such as an ECU that controls the steering system, an actuator that drives the steering system, and the like.
  • the brake control unit 82 detects and controls the state of the brake system of the vehicle 1.
  • the brake system includes, for example, a brake mechanism including a brake pedal and the like, ABS (Antilock Brake System) and the like.
  • the brake control unit 82 includes, for example, a control unit such as an ECU that controls the brake system, an actuator that drives the brake system, and the like.
  • the drive control unit 83 detects and controls the state of the drive system of the vehicle 1.
  • the drive system includes, for example, a drive force generator for generating a drive force of an accelerator pedal, an internal combustion engine, a drive motor, or the like, a drive force transmission mechanism for transmitting the drive force to the wheels, and the like.
  • the drive control unit 83 includes, for example, a control unit such as an ECU that controls the drive system, an actuator that drives the drive system, and the like.
  • the body system control unit 84 detects and controls the state of the body system of the vehicle 1.
  • the body system includes, for example, a keyless entry system, a smart key system, a power window device, a power seat, an air conditioner, an airbag, a seat belt, a shift lever, and the like.
  • the body system control unit 84 includes, for example, a control unit such as an ECU that controls the body system, an actuator that drives the body system, and the like.
  • the light control unit 85 detects and controls the states of various lights of the vehicle 1. As the lights to be controlled, for example, headlights, backlights, fog lights, turn signals, brake lights, projections, bumper displays and the like are assumed.
  • the light control unit 85 includes a control unit such as an ECU that controls the light, an actuator that drives the light, and the like.
  • the horn control unit 86 detects and controls the state of the car horn of the vehicle 1.
  • the horn control unit 86 includes, for example, a control unit such as an ECU that controls the car horn, an actuator that drives the car horn, and the like.
  • FIG. 2 is a diagram showing an example of a sensing region by a camera 51, a radar 52, a LiDAR 53, and an ultrasonic sensor 54 of the external recognition sensor 25 of FIG.
  • the sensing area 101F and the sensing area 101B show an example of the sensing area of the ultrasonic sensor 54.
  • the sensing area 101F covers the vicinity of the front end of the vehicle 1.
  • the sensing region 101B covers the periphery of the rear end of the vehicle 1.
  • the sensing results in the sensing area 101F and the sensing area 101B are used, for example, for parking support of the vehicle 1.
  • the sensing area 102F to the sensing area 102B show an example of the sensing area of the radar 52 for a short distance or a medium distance.
  • the sensing area 102F covers a position farther than the sensing area 101F in front of the vehicle 1.
  • the sensing region 102B covers the rear of the vehicle 1 to a position farther than the sensing region 101B.
  • the sensing area 102L covers the rear periphery of the left side surface of the vehicle 1.
  • the sensing region 102R covers the rear periphery of the right side surface of the vehicle 1.
  • the sensing result in the sensing area 102F is used, for example, for detecting a vehicle, a pedestrian, or the like existing in front of the vehicle 1.
  • the sensing result in the sensing area 102B is used, for example, for a collision prevention function behind the vehicle 1.
  • the sensing results in the sensing area 102L and the sensing area 102R are used, for example, for detecting an object in a blind spot on the side of the vehicle 1.
  • the sensing area 103F to the sensing area 103B show an example of the sensing area by the camera 51.
  • the sensing area 103F covers a position farther than the sensing area 102F in front of the vehicle 1.
  • the sensing region 103B covers the rear of the vehicle 1 to a position farther than the sensing region 102B.
  • the sensing area 103L covers the periphery of the left side surface of the vehicle 1.
  • the sensing region 103R covers the periphery of the right side surface of the vehicle 1.
  • the sensing result in the sensing area 103F is used, for example, for recognition of traffic lights and traffic signs, lane departure prevention support system, and the like.
  • the sensing result in the sensing area 103B is used, for example, for parking assistance, a surround view system, and the like.
  • the sensing results in the sensing area 103L and the sensing area 103R are used, for example, in a surround view system or the like.
  • the sensing area 104 shows an example of the sensing area of LiDAR53.
  • the sensing area 104 covers a position farther than the sensing area 103F in front of the vehicle 1.
  • the sensing area 104 has a narrower range in the left-right direction than the sensing area 103F.
  • the sensing result in the sensing area 104 is used, for example, for emergency braking, collision avoidance, pedestrian detection, and the like.
  • the sensing area 105 shows an example of the sensing area of the radar 52 for a long distance.
  • the sensing region 105 covers a position farther than the sensing region 104 in front of the vehicle 1.
  • the sensing area 105 has a narrower range in the left-right direction than the sensing area 104.
  • the sensing result in the sensing region 105 is used for, for example, ACC (Adaptive Cruise Control) or the like.
  • each sensor may have various configurations other than those shown in FIG. Specifically, the ultrasonic sensor 54 may also sense the side of the vehicle 1, or the LiDAR 53 may sense the rear of the vehicle 1.
  • FIG. 3 schematically shows the configuration of the entire sheet 201.
  • a of FIG. 3 is a plan view of the seat 201
  • B of FIG. 3 is a front view of the seat 201
  • C of FIG. 3 is a left side view of the seat 201.
  • the seat 201 is used, for example, in the driver's seat, passenger seat, rear seat, etc. of vehicle 1.
  • the seat 201 includes a seat cushion 211, a seat back 212, and a headrest 213.
  • the seat cushion 211 serves as a seating surface for the seat 201 and is a portion on which the user sits.
  • the seat cushion 211 is gently inclined downward from the front to the rear, and the portion of the seated user in contact with the buttocks is lower than the portion in contact with the thighs. Further, the left and right end portions of the seat cushion 211 project upward from the central portion.
  • the seat back 212 is a part that serves as a backrest for the seated user.
  • the seat back 212 is gently inclined rearward from the lower direction to the upper direction. Further, the left and right end portions of the seat back 212 project forward from the central portion.
  • the posture (seating position) of the user can be stabilized.
  • the headrest 213 is a portion that supports the seated user's head and protects the user's head and neck.
  • the seat 201 includes a frame 221 which is a skeleton of the seat, and an adjusting unit 222L and an adjusting unit 222R.
  • a frame 221, a support member 231 and an adjusting portion 222L and an adjusting portion 222R, a pad 232, and a skin 233 are laminated in this order from the bottom.
  • the pad 232 is an elastic elastic member, and is made of, for example, polyurethane foam.
  • the upper surface of the pad 232 has substantially the same shape as the seating surface of the seat 201.
  • the pad 232 supports the buttocks and thighs of the seated user and absorbs shocks and vibrations applied from the outside.
  • the adjusting unit 222 when it is not necessary to distinguish the adjusting unit 222L and the adjusting unit 222R individually, it is simply referred to as the adjusting unit 222.
  • the adjusting unit 222L includes an air lumbar 251L and a plate 252L.
  • the air lumbar 251L becomes large, hard, and less likely to be deformed. As a result, the left buttock contact portion of the seat cushion 211 becomes hard.
  • the air lumbar 251L becomes small, soft, and easily deformed. As a result, the left buttock contact portion of the seat cushion 211 becomes soft.
  • the DMS 30 determines whether or not the driver is seated based on the image data of capturing the direction of the driver's seat.
  • the seat control unit 301 may control the balance of the left and right hardness of the seat cushion 211 based on the steering angle of the vehicle 1 or the rotation angle of the steering wheel, for example, instead of the lateral acceleration.
  • the seat control unit 301 softens each adjustment unit 222 before the vertical vibration occurs, and the vertical vibration occurs. After finishing, the hardness of each adjusting unit 222 is restored. This reduces the vertical vibration applied to the driver.
  • the relationship between the amount of change in the load applied to each adjusting unit 222 and the amount of change in the vertical position of the driver's line of sight is evaluated in advance, and data showing the relationship between the two is recorded in advance. It is stored in the part 28. Then, the seat control unit 301 estimates the amount of change in the vertical position of the driver's line of sight based on this data.
  • the position of the driver's line of sight in the vertical direction is stable regardless of the change in the hardness of the seat surface of the seat 201, and the comfort is improved.
  • step S5 the seat control unit 301 controls the hardness of the seat 201 so as to stimulate the driver.
  • step S4 determines that the driver's drowsiness is not detected. If it is determined in step S4 that the driver's drowsiness is not detected, the process of step S5 is skipped and the process proceeds to step S6.
  • the method of detecting driver fatigue is not particularly limited.
  • the DMS 30 detects driver fatigue based on an image of the driver.
  • step S7 the seat control unit 301 controls the hardness of the seat 201 so as to reduce the fatigue of the driver.
  • the DMS 30 notifies the seat control unit 301 that the driver's fatigue has been detected.
  • the seat control unit 301 controls, for example, the drive unit 322 to adjust the hardness of each adjustment unit 222 so that the seat cushion 211 has a hardness that reduces driver fatigue. Further, for example, the seat control unit 301 controls the drive unit 322 to alternately and rhythmically change the hardness of the adjustment unit 222L and the adjustment unit 222R to give a massage effect to the driver.
  • the method of determining the posture of the driver is not particularly limited.
  • the DMS 30 determines whether or not the driver's posture is bad based on the image of the driver.
  • the DMS 30 detects the difference in load on the left buttock contact portion and the right buttock contact portion of the seat cushion 211 based on the sensor data indicating the load on each adjustment unit 222 supplied from the sensor unit 323. This difference corresponds to the deviation of the position of the center of gravity of the driver.
  • the DMS 30 determines that the driver's posture is poor (the driver's left-right balance is poor) when the difference between the detected loads is equal to or greater than a predetermined threshold value.
  • step S9 the seat control unit 301 controls the hardness of the seat 201 so as to improve the posture of the driver.
  • the DMS 30 notifies the seat control unit 301 that the driver's posture is bad.
  • the seat control unit 301 controls, for example, the drive unit 322 to adjust the hardness of each adjustment unit 222 so that the posture of the driver is improved.
  • the seat control unit 301 controls the drive unit 322 to adjust the hardness of the adjustment unit 222L and the adjustment unit 222R so that the loads on the left buttock contact portion and the right buttock contact portion of the seat cushion 211 are substantially equal. adjust.
  • step S10 the DMS 30 or the vehicle control unit 32 determines whether or not the driver leaves the seat. If it is determined that the driver leaves the seat, the process proceeds to step S11.
  • the method of determining whether or not the driver leaves the seat is not particularly limited.
  • the body system control unit 84 of the vehicle control unit 32 unlocks the door of the driver's seat of the vehicle 1 when the power of the vehicle 1 is turned off when the driver is sitting in the driver's seat.
  • the door of the driver's seat of the vehicle 1 is opened, it is determined that the driver leaves the seat.
  • Each adjusting unit 222 may be hardened according to the movement.
  • step S12 the seat control unit 301 stops controlling the hardness of the seat according to the state of the vehicle 1 and the inside and outside of the vehicle.
  • step S1 After that, the process returns to step S1, and the processes after step S1 are executed.
  • step S10 determines whether the driver does not leave the seat. If it is determined in step S10 that the driver does not leave the seat, the process returns to step S4, and the processes of steps S4 to S10 are repeatedly executed until it is determined in step S10 that the driver does not leave the seat. Will be done.
  • the driver can adjust the hardness of each adjusting unit 222 by inputting an instruction using the HMI 31.
  • the hardness of the seat surface of the seat 201 can be appropriately adjusted, and the comfort of the user is improved.
  • the number of parts is reduced, and the configuration and manufacturing process are simplified.
  • the cost of the seat 201 can be suppressed, and the process of controlling the hardness of the seat surface of the seat 201 becomes simple.
  • FIG. 8 shows an example in which the drive unit 322 is provided on the seat 201, but for example, it can be provided outside the seat 201. Further, for example, the seat control unit 301 can be provided on the seat 201. In this case, for example, the seat control unit 301 and the communication unit 321 may be integrated.
  • the seat control unit 301 can be provided on a server or the like outside the vehicle 1. Specifically, for example, it is possible to transmit various sensor data and the like to the outside and control the hardness of the sheet 201 from the outside.
  • each adjustment unit 222 may be provided with a pressure gauge instead of the load gauge.
  • a bag-shaped member filled with gas for example, a bag-shaped member filled with a liquid such as water can be used.
  • FIG. 10 is a block diagram showing a configuration example of computer hardware that executes the above-mentioned series of processes programmatically.
  • An input / output interface 1005 is further connected to the bus 1004.
  • An input unit 1006, an output unit 1007, a recording unit 1008, a communication unit 1009, and a drive 1010 are connected to the input / output interface 1005.
  • the input unit 1006 includes an input switch, a button, a microphone, an image sensor, and the like.
  • the output unit 1007 includes a display, a speaker, and the like.
  • the recording unit 1008 includes a hard disk, a non-volatile memory, and the like.
  • the communication unit 1009 includes a network interface and the like.
  • the drive 1010 drives a removable medium 1011 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the program executed by the computer 1000 can be recorded and provided on the removable media 1011 as a package media or the like, for example.
  • the program can also be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the recording unit 1008 via the input / output interface 1005 by mounting the removable media 1011 in the drive 1010. Further, the program can be received by the communication unit 1009 via a wired or wireless transmission medium and installed in the recording unit 1008. In addition, the program can be pre-installed in the ROM 1002 or the recording unit 1008.
  • the program executed by the computer may be a program that is processed in chronological order according to the order described in this specification, or may be a program that is processed in parallel or at a necessary timing such as when a call is made. It may be a program in which processing is performed.
  • the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Therefore, a plurality of devices housed in separate housings and connected via a network, and a device in which a plurality of modules are housed in one housing are both systems. ..
  • the embodiment of the present technology is not limited to the above-described embodiment, and various changes can be made without departing from the gist of the present technology.
  • this technology can have a cloud computing configuration in which one function is shared by a plurality of devices via a network and jointly processed.
  • one step includes a plurality of processes
  • the plurality of processes included in the one step can be executed by one device or shared by a plurality of devices.
  • the present technology can also have the following configurations.
  • An elastic member that supports the user's buttocks A support member that supports the elastic member below the elastic member and suppresses downward deformation of the elastic member is provided.
  • the first adjusting portion is provided between the elastic member and the supporting member below the left buttock contact portion.
  • the moving device sheet according to (1) wherein the second adjusting portion is provided between the elastic member and the supporting member below the right buttock contact portion.
  • the first adjusting unit is A first bag-shaped member whose hardness can be adjusted by the filling amount of gas or liquid, and Below the left buttock contact portion, a first plate-shaped member fixed to the upper surface of the first bag-shaped member is provided.
  • the second adjusting unit is A second bag-shaped member whose hardness can be adjusted according to the filling amount of gas or liquid.
  • the moving device sheet according to (2) further comprising a second plate-shaped member fixed to the upper surface of the second bag-shaped member below the right buttock contact portion.
  • the moving device seat according to (5) wherein the driving unit drives the first adjusting unit and the second adjusting unit according to the control signal.
  • the moving device seat according to (5) further comprising a seat control unit that individually controls the hardness of the first adjusting unit and the second adjusting unit by controlling the driving unit.
  • the seat control unit hardens the buttock contacting portion of the left buttock contacting portion and the right buttock contacting portion in the direction opposite to the turning direction of the moving device.
  • the seat control device according to (9) or (10) above.
  • (12) The seat control according to any one of (9) to (11) above, wherein the seat control unit softens the left buttock contact portion and the right buttock contact portion when vertical vibration of the moving device is predicted.
  • Device (13) The seat control device according to any one of (9) to (12), wherein the seat control unit controls the hardness of the left buttock contact portion and the right buttock contact portion based on the operation mode of the moving device. ..
  • the seat control unit gradually softens the left buttock contact portion and the right buttock contact portion after the user is seated, and before the user leaves the seat, the left buttock contact portion and the right buttock contact portion.
  • the seat control device according to any one of (9) to (16) above.
  • the seat control unit is described in any one of (9) to (17) above, in which the hardness of the left buttock contact portion and the right buttock contact portion is changed according to the content being reproduced in the moving device.
  • Seat control device (19)
  • the seat control unit controls a driving unit that individually drives a first adjusting unit that adjusts the hardness of the left buttock contact portion and a second adjusting unit that adjusts the hardness of the right buttock contact portion.
  • the seat control device according to any one of (9) to (18) above. (20) Based on at least one of the user's condition, the condition of the mobile device, the condition inside the mobile device, and the condition outside the mobile device, the left buttock of the user is placed on the seating surface of the seat for the mobile device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Seats For Vehicles (AREA)
  • Traffic Control Systems (AREA)
  • Selective Calling Equipment (AREA)

Abstract

本技術は、シンプルな構成により、シートの快適性を向上させることができるようにする移動装置用シート、シート制御装置、及び、シート制御方法に関する。 移動装置用シートは、座面においてユーザの左臀部が接触すると想定される部分を含む左臀部接触部の硬さを調整する左調整部と、前記座面において前記ユーザの右臀部が接触すると想定される部分を含む右臀部接触部の硬さを調整する右調整部とを備える。本技術は、例えば、自動運転の制御を行うシステムに適用することができる。

Description

移動装置用シート、シート制御装置、及び、シート制御方法
 本技術は、移動装置用シート、シート制御装置、及び、シート制御方法に関し、特に、快適性を向上させるようにした移動装置用シート、シート制御装置、及び、シート制御方法に関する。
 従来、ユーザの体型や姿勢に合わせて硬さを調整できるようにした車両用のシートが提案されている。
 例えば、シートクッションとシートバックに15個のエアセルを設け、各エアセルに設けられた静電容量センサからの出力信号に基づいてユーザの体格を判断し、エアセルの空気を出し入れすることにより、体格に応じてシート形状及び硬さを調整することが提案されている(例えば、特許文献1参照)。
 例えば、シートクッションのパッド部材の支持面に複数の圧力センサを設けるとともに、複数の線状のアクチュエータを前後方向に並べ、シートクッションの圧力分布に応じて、各アクチュエータを制御し、所望の領域の硬さを調整することが提案されている(例えば、特許文献2参照)。
特開2009-119230号公報 特開2018-165135号公報
 しかしながら、特許文献1及び2に記載されているシートは、多数のエアセル、アクチュエータ、センサ等が必要である。そのため、部品点数が増え、構成及び製造工程が複雑化し、シートのコストが上昇する。
 本技術は、このような状況に鑑みてなされたものであり、シンプルな構成により、シートの快適性を向上させることができるようにするものである。
 本技術の第1の側面の移動装置用シートは、座面においてユーザの左臀部が接触すると想定される部分を含む左臀部接触部の硬さを調整する第1の調整部と、前記座面において前記ユーザの右臀部が接触すると想定される部分を含む右臀部接触部の硬さを調整する第2の調整部とを備える。
 本技術の第2の側面のシート制御装置は、ユーザの状態、移動装置の状態、前記移動装置内の状況、及び、前記移動装置の外部の状況のうち少なくとも1つに基づいて、前記移動装置用のシートの座面において前記ユーザの左臀部が接触すると想定される部分を含む左臀部接触部、及び、前記ユーザの右臀部が接触すると想定される部分を含む右臀部接触部の硬さを個別に制御するシート制御部を備える。
 本技術の第2の側面のシート制御方法は、ユーザの状態、移動装置の状態、前記移動装置内の状況、及び、前記移動装置の外部の状況のうち少なくとも1つに基づいて、前記移動装置用のシートの座面において前記ユーザの左臀部が接触すると想定される部分を含む左臀部接触部、及び、前記ユーザの右臀部が接触すると想定される部分を含む右臀部接触部の硬さを個別に制御する。
 本技術の第1の側面においては、座面においてユーザの左臀部が接触すると想定される部分を含む左臀部接触部の硬さが調整され、前記座面において前記ユーザの右臀部が接触すると想定される部分を含む右臀部接触部の硬さが調整される。
 本技術の第2の側面においては、ユーザの状態、移動装置の状態、前記移動装置内の状況、及び、前記移動装置の外部の状況のうち少なくとも1つに基づいて、前記移動装置用のシートの座面において前記ユーザの左臀部が接触すると想定される部分を含む左臀部接触部、及び、前記ユーザの右臀部が接触すると想定される部分を含む右臀部接触部の硬さが個別に制御される。
車両制御システムの構成例を示すブロック図である。 センシング領域の例を示す図である。 本技術を適用したシートの構成例を示す模式図である。 シートクッションの内部構成例を示す模式図である。 シートクッションの内部構成例を示す模式図である。 左調整部の第1の実施の形態を示す模式図である。 左調整部の第2の実施の形態を示す模式図である。 シートの座面の硬さを制御するシステムの構成例を示すブロック図である。 シート制御処理を説明するためのフローチャートである。 コンピュータの構成例を示すブロック図である。
 以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
 1.車両制御システムの構成例
 2.実施の形態
 3.変形例
 4.その他
 <<1.車両制御システムの構成例>>
 図1は、本技術が適用される移動装置制御システムの一例である車両制御システム11の構成例を示すブロック図である。
 車両制御システム11は、車両1に設けられ、車両1の走行支援及び自動運転に関わる処理を行う。
 車両制御システム11は、プロセッサ21、通信部22、地図情報蓄積部23、GNSS(Global Navigation Satellite System)受信部24、外部認識センサ25、車内センサ26、車両センサ27、記録部28、走行支援・自動運転制御部29、DMS(Driver Monitoring System)30、HMI(Human Machine Interface)31、及び、車両制御部32を備える。
 プロセッサ21、通信部22、地図情報蓄積部23、GNSS受信部24、外部認識センサ25、車内センサ26、車両センサ27、記録部28、走行支援・自動運転制御部29、ドライバモニタリングシステム(DMS)30、ヒューマンマシーンインタフェース(HMI)31、及び、車両制御部32は、通信ネットワーク41を介して相互に接続されている。通信ネットワーク41は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)、FlexRay(登録商標)、イーサネット(登録商標)等の任意の規格に準拠した車載通信ネットワークやバス等により構成される。なお、車両制御システム11の各部は、通信ネットワーク41を介さずに、例えば、近距離無線通信(NFC(Near Field Communication))やBluetooth(登録商標)等により直接接続される場合もある。
 なお、以下、車両制御システム11の各部が、通信ネットワーク41を介して通信を行う場合、通信ネットワーク41の記載を省略するものとする。例えば、プロセッサ21と通信部22が通信ネットワーク41を介して通信を行う場合、単にプロセッサ21と通信部22とが通信を行うと記載する。
 プロセッサ21は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、ECU(Electronic Control Unit )等の各種のプロセッサにより構成される。プロセッサ21は、車両制御システム11全体の制御を行う。
 通信部22は、車内及び車外の様々な機器、他の車両、サーバ、基地局等と通信を行い、各種のデータの送受信を行う。車外との通信としては、例えば、通信部22は、車両制御システム11の動作を制御するソフトウエアを更新するためのプログラム、地図情報、交通情報、車両1の周囲の情報等を外部から受信する。例えば、通信部22は、車両1に関する情報(例えば、車両1の状態を示すデータ、認識部73による認識結果等)、車両1の周囲の情報等を外部に送信する。例えば、通信部22は、eコール等の車両緊急通報システムに対応した通信を行う。
 なお、通信部22の通信方式は特に限定されない。また、複数の通信方式が用いられてもよい。
 車内との通信としては、例えば、通信部22は、無線LAN、Bluetooth、NFC、WUSB(Wireless USB)等の通信方式により、車内の機器と無線通信を行う。例えば、通信部22は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(High-Definition Multimedia Interface、登録商標)、又は、MHL(Mobile High-definition Link)等の通信方式により、車内の機器と有線通信を行う。
 ここで、車内の機器とは、例えば、車内において通信ネットワーク41に接続されていない機器である。例えば、運転者等の搭乗者が所持するモバイル機器やウェアラブル機器、車内に持ち込まれ一時的に設置される情報機器等が想定される。
 例えば、通信部22は、4G(第4世代移動通信システム)、5G(第5世代移動通信システム)、LTE(Long Term Evolution)、DSRC(Dedicated Short Range Communications)等の無線通信方式により、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク、又は、事業者固有のネットワーク)上に存在するサーバ等と通信を行う。
 例えば、通信部22は、P2P(Peer To Peer)技術を用いて、自車の近傍に存在する端末(例えば、歩行者若しくは店舗の端末、又は、MTC(Machine Type Communication)端末)と通信を行う。例えば、通信部22は、V2X通信を行う。V2X通信とは、例えば、他の車両との間の車車間(Vehicle to Vehicle)通信、路側器等との間の路車間(Vehicle to Infrastructure)通信、家との間(Vehicle to Home)の通信、及び、歩行者が所持する端末等との間の歩車間(Vehicle to Pedestrian)通信等である。
 例えば、通信部22は、電波ビーコン、光ビーコン、FM多重放送等の道路交通情報通信システム(VICS(Vehicle Information and Communication System)、登録商標)により送信される電磁波を受信する。
 地図情報蓄積部23は、外部から取得した地図及び車両1で作成した地図を蓄積する。例えば、地図情報蓄積部23は、3次元の高精度地図、高精度地図より精度が低く、広いエリアをカバーするグローバルマップ等を蓄積する。
 高精度地図は、例えば、ダイナミックマップ、ポイントクラウドマップ、ベクターマップ(ADAS(Advanced Driver Assistance System)マップともいう)等である。ダイナミックマップは、例えば、動的情報、準動的情報、準静的情報、静的情報の4層からなる地図であり、外部のサーバ等から提供される。ポイントクラウドマップは、ポイントクラウド(点群データ)により構成される地図である。ベクターマップは、車線や信号の位置等の情報をポイントクラウドマップに対応付けた地図である。ポイントクラウドマップ及びベクターマップは、例えば、外部のサーバ等から提供されてもよいし、レーダ52、LiDAR53等によるセンシング結果に基づいて、後述するローカルマップとのマッチングを行うための地図として車両1で作成され、地図情報蓄積部23に蓄積されてもよい。また、外部のサーバ等から高精度地図が提供される場合、通信容量を削減するため、車両1がこれから走行する計画経路に関する、例えば数百メートル四方の地図データがサーバ等から取得される。
 GNSS受信部24は、GNSS衛星からGNSS信号を受信し、走行支援・自動運転制御部29に供給する。
 外部認識センサ25は、車両1の外部の状況の認識に用いられる各種のセンサを備え、各センサからのセンサデータを車両制御システム11の各部に供給する。外部認識センサ25が備えるセンサの種類や数は任意である。
 例えば、外部認識センサ25は、カメラ51、レーダ52、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)53、及び、超音波センサ54を備える。カメラ51、レーダ52、LiDAR53、及び、超音波センサ54の数は任意であり、各センサのセンシング領域の例は後述する。
 なお、カメラ51には、例えば、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ等の任意の撮影方式のカメラが、必要に応じて用いられる。
 また、例えば、外部認識センサ25は、天候、気象、明るさ等を検出するための環境センサを備える。環境センサは、例えば、雨滴センサ、霧センサ、日照センサ、雪センサ、照度センサ等を備える。
 さらに、例えば、外部認識センサ25は、車両1の周囲の音や音源の位置の検出等に用いられるマイクロフォンを備える。
 車内センサ26は、車内の情報を検出するための各種のセンサを備え、各センサからのセンサデータを車両制御システム11の各部に供給する。車内センサ26が備えるセンサの種類や数は任意である。
 例えば、車内センサ26は、カメラ、レーダ、着座センサ、ステアリングホイールセンサ、マイクロフォン、生体センサ等を備える。カメラには、例えば、ToFカメラ、ステレオカメラ、単眼カメラ、赤外線カメラ等の任意の撮影方式のカメラを用いることができる。生体センサは、例えば、シートやステリングホイール等に設けられ、運転者等の搭乗者の各種の生体情報を検出する。
 車両センサ27は、車両1の状態を検出するための各種のセンサを備え、各センサからのセンサデータを車両制御システム11の各部に供給する。車両センサ27が備えるセンサの種類や数は任意である。
 例えば、車両センサ27は、速度センサ、加速度センサ、角速度センサ(ジャイロセンサ)、及び、慣性計測装置(IMU(Inertial Measurement Unit))を備える。例えば、車両センサ27は、ステアリングホイールの操舵角を検出する操舵角センサ、ヨーレートセンサ、アクセルペダルの操作量を検出するアクセルセンサ、及び、ブレーキペダルの操作量を検出するブレーキセンサを備える。例えば、車両センサ27は、エンジンやモータの回転数を検出する回転センサ、タイヤの空気圧を検出する空気圧センサ、タイヤのスリップ率を検出するスリップ率センサ、及び、車輪の回転速度を検出する車輪速センサを備える。例えば、車両センサ27は、バッテリの残量及び温度を検出するバッテリセンサ、及び、外部からの衝撃を検出する衝撃センサを備える。
 記録部28は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、及び、光磁気記憶デバイス等を備える。記録部28は、車両制御システム11の各部が用いる各種プログラムやデータ等を記録する。例えば、記録部28は、自動運転に関わるアプリケーションプログラムが動作するROS(Robot Operating System)で送受信されるメッセージを含むrosbagファイルを記録する。例えば、記録部28は、EDR(Event Data Recorder)やDSSAD(Data Storage System for Automated Driving)を備え、事故等のイベントの前後の車両1の情報を記録する。
 走行支援・自動運転制御部29は、車両1の走行支援及び自動運転の制御を行う。例えば、走行支援・自動運転制御部29は、分析部61、行動計画部62、及び、動作制御部63を備える。
 分析部61は、車両1及び周囲の状況の分析処理を行う。分析部61は、自己位置推定部71、センサフュージョン部72、及び、認識部73を備える。
 自己位置推定部71は、外部認識センサ25からのセンサデータ、及び、地図情報蓄積部23に蓄積されている高精度地図に基づいて、車両1の自己位置を推定する。例えば、自己位置推定部71は、外部認識センサ25からのセンサデータに基づいてローカルマップを生成し、ローカルマップと高精度地図とのマッチングを行うことにより、車両1の自己位置を推定する。車両1の位置は、例えば、後輪対車軸の中心が基準とされる。
 ローカルマップは、例えば、SLAM(Simultaneous Localization and Mapping)等の技術を用いて作成される3次元の高精度地図、占有格子地図(Occupancy Grid Map)等である。3次元の高精度地図は、例えば、上述したポイントクラウドマップ等である。占有格子地図は、車両1の周囲の3次元又は2次元の空間を所定の大きさのグリッド(格子)に分割し、グリッド単位で物体の占有状態を示す地図である。物体の占有状態は、例えば、物体の有無や存在確率により示される。ローカルマップは、例えば、認識部73による車両1の外部の状況の検出処理及び認識処理にも用いられる。
 なお、自己位置推定部71は、GNSS信号、及び、車両センサ27からのセンサデータに基づいて、車両1の自己位置を推定してもよい。
 センサフュージョン部72は、複数の異なる種類のセンサデータ(例えば、カメラ51から供給される画像データ、及び、レーダ52から供給されるセンサデータ)を組み合わせて、新たな情報を得るセンサフュージョン処理を行う。異なる種類のセンサデータを組合せる方法としては、統合、融合、連合等がある。
 認識部73は、車両1の外部の状況の検出処理及び認識処理を行う。
 例えば、認識部73は、外部認識センサ25からの情報、自己位置推定部71からの情報、センサフュージョン部72からの情報等に基づいて、車両1の外部の状況の検出処理及び認識処理を行う。
 具体的には、例えば、認識部73は、車両1の周囲の物体の検出処理及び認識処理等を行う。物体の検出処理とは、例えば、物体の有無、大きさ、形、位置、動き等を検出する処理である。物体の認識処理とは、例えば、物体の種類等の属性を認識したり、特定の物体を識別したりする処理である。ただし、検出処理と認識処理とは、必ずしも明確に分かれるものではなく、重複する場合がある。
 例えば、認識部73は、LiDAR又はレーダ等のセンサデータに基づくポイントクラウドを点群の塊毎に分類するクラスタリングを行うことにより、車両1の周囲の物体を検出する。これにより、車両1の周囲の物体の有無、大きさ、形状、位置が検出される。
 例えば、認識部73は、クラスタリングにより分類された点群の塊の動きを追従するトラッキングを行うことにより、車両1の周囲の物体の動きを検出する。これにより、車両1の周囲の物体の速度及び進行方向(移動ベクトル)が検出される。
 例えば、認識部73は、カメラ51から供給される画像データに対してセマンティックセグメンテーション等の物体認識処理を行うことにより、車両1の周囲の物体の種類を認識する。
 なお、検出又は認識対象となる物体としては、例えば、車両、人、自転車、障害物、構造物、道路、信号機、交通標識、道路標示等が想定される。
 例えば、認識部73は、地図情報蓄積部23に蓄積されている地図、自己位置の推定結果、及び、車両1の周囲の物体の認識結果に基づいて、車両1の周囲の交通ルールの認識処理を行う。この処理により、例えば、信号の位置及び状態、交通標識及び道路標示の内容、交通規制の内容、並びに、走行可能な車線等が認識される。
 例えば、認識部73は、車両1の周囲の環境の認識処理を行う。認識対象となる周囲の環境としては、例えば、天候、気温、湿度、明るさ、及び、路面の状態等が想定される。
 行動計画部62は、車両1の行動計画を作成する。例えば、行動計画部62は、経路計画、経路追従の処理を行うことにより、行動計画を作成する。
 なお、経路計画(Global path planning)とは、スタートからゴールまでの大まかな経路を計画する処理である。この経路計画には、軌道計画と言われ、経路計画で計画された経路において、車両1の運動特性を考慮して、車両1の近傍で安全かつ滑らかに進行することが可能な軌道生成(Local path planning)の処理も含まれる。
 経路追従とは、経路計画により計画した経路を計画された時間内で安全かつ正確に走行するための動作を計画する処理である。例えば、車両1の目標速度と目標角速度が計算される。
 動作制御部63は、行動計画部62により作成された行動計画を実現するために、車両1の動作を制御する。
 例えば、動作制御部63は、ステアリング制御部81、ブレーキ制御部82、及び、駆動制御部83を制御して、軌道計画により計算された軌道を車両1が進行するように、加減速制御及び方向制御を行う。例えば、動作制御部63は、衝突回避あるいは衝撃緩和、追従走行、車速維持走行、自車の衝突警告、自車のレーン逸脱警告等のADASの機能実現を目的とした協調制御を行う。例えば、動作制御部63は、運転者の操作によらずに自律的に走行する自動運転等を目的とした協調制御を行う。
 DMS30は、車内センサ26からのセンサデータ、及び、HMI31に入力される入力データ等に基づいて、運転者の認証処理、及び、運転者の状態の認識処理等を行う。認識対象となる運転者の状態としては、例えば、体調、覚醒度、集中度、疲労度、視線方向、酩酊度、運転操作、姿勢等が想定される。
 なお、DMS30が、運転者以外の搭乗者の認証処理、及び、当該搭乗者の状態の認識処理を行うようにしてもよい。また、例えば、DMS30が、車内センサ26からのセンサデータに基づいて、車内の状況の認識処理を行うようにしてもよい。認識対象となる車内の状況としては、例えば、気温、湿度、明るさ、臭い等が想定される。
 HMI31は、各種のデータや指示等の入力に用いられ、入力されたデータや指示等に基づいて入力信号を生成し、車両制御システム11の各部に供給する。例えば、HMI31は、タッチパネル、ボタン、マイクロフォン、スイッチ、及び、レバー等の操作デバイス、並びに、音声やジェスチャ等により手動操作以外の方法で入力可能な操作デバイス等を備える。なお、HMI31は、例えば、赤外線若しくはその他の電波を利用したリモートコントロール装置、又は、車両制御システム11の操作に対応したモバイル機器若しくはウェアラブル機器等の外部接続機器であってもよい。
 また、HMI31は、搭乗者又は車外に対する視覚情報、聴覚情報、及び、触覚情報の生成及び出力、並びに、出力内容、出力タイミング、出力方法等を制御する出力制御を行う。視覚情報は、例えば、操作画面、車両1の状態表示、警告表示、車両1の周囲の状況を示すモニタ画像等の画像や光により示される情報である。聴覚情報は、例えば、ガイダンス、警告音、警告メッセージ等の音声により示される情報である。触覚情報は、例えば、力、振動、動き等により搭乗者の触覚に与えられる情報である。
 視覚情報を出力するデバイスとしては、例えば、表示装置、プロジェクタ、ナビゲーション装置、インストルメントパネル、CMS(Camera Monitoring System)、電子ミラー、ランプ等が想定される。表示装置は、通常のディスプレイを有する装置以外にも、例えば、ヘッドアップディスプレイ、透過型ディスプレイ、AR(Augmented Reality)機能を備えるウエアラブルデバイス等の搭乗者の視界内に視覚情報を表示する装置であってもよい。
 聴覚情報を出力するデバイスとしては、例えば、オーディオスピーカ、ヘッドホン、イヤホン等が想定される。
 触覚情報を出力するデバイスとしては、例えば、ハプティクス技術を用いたハプティクス素子等が想定される。ハプティクス素子は、例えば、ステアリングホイール、シート等に設けられる。
 車両制御部32は、車両1の各部の制御を行う。車両制御部32は、ステアリング制御部81、ブレーキ制御部82、駆動制御部83、ボディ系制御部84、ライト制御部85、及び、ホーン制御部86を備える。
 ステアリング制御部81は、車両1のステアリングシステムの状態の検出及び制御等を行う。ステアリングシステムは、例えば、ステアリングホイール等を備えるステアリング機構、電動パワーステアリング等を備える。ステアリング制御部81は、例えば、ステアリングシステムの制御を行うECU等の制御ユニット、ステアリングシステムの駆動を行うアクチュエータ等を備える。
 ブレーキ制御部82は、車両1のブレーキシステムの状態の検出及び制御等を行う。ブレーキシステムは、例えば、ブレーキペダル等を含むブレーキ機構、ABS(Antilock Brake System)等を備える。ブレーキ制御部82は、例えば、ブレーキシステムの制御を行うECU等の制御ユニット、ブレーキシステムの駆動を行うアクチュエータ等を備える。
 駆動制御部83は、車両1の駆動システムの状態の検出及び制御等を行う。駆動システムは、例えば、アクセルペダル、内燃機関又は駆動用モータ等の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構等を備える。駆動制御部83は、例えば、駆動システムの制御を行うECU等の制御ユニット、駆動システムの駆動を行うアクチュエータ等を備える。
 ボディ系制御部84は、車両1のボディ系システムの状態の検出及び制御等を行う。ボディ系システムは、例えば、キーレスエントリシステム、スマートキーシステム、パワーウインドウ装置、パワーシート、空調装置、エアバッグ、シートベルト、シフトレバー等を備える。ボディ系制御部84は、例えば、ボディ系システムの制御を行うECU等の制御ユニット、ボディ系システムの駆動を行うアクチュエータ等を備える。
 ライト制御部85は、車両1の各種のライトの状態の検出及び制御等を行う。制御対象となるライトとしては、例えば、ヘッドライト、バックライト、フォグライト、ターンシグナル、ブレーキライト、プロジェクション、バンパーの表示等が想定される。ライト制御部85は、ライトの制御を行うECU等の制御ユニット、ライトの駆動を行うアクチュエータ等を備える。
 ホーン制御部86は、車両1のカーホーンの状態の検出及び制御等を行う。ホーン制御部86は、例えば、カーホーンの制御を行うECU等の制御ユニット、カーホーンの駆動を行うアクチュエータ等を備える。
 図2は、図1の外部認識センサ25のカメラ51、レーダ52、LiDAR53、及び、超音波センサ54によるセンシング領域の例を示す図である。
 センシング領域101F及びセンシング領域101Bは、超音波センサ54のセンシング領域の例を示している。センシング領域101Fは、車両1の前端周辺をカバーしている。センシング領域101Bは、車両1の後端周辺をカバーしている。
 センシング領域101F及びセンシング領域101Bにおけるセンシング結果は、例えば、車両1の駐車支援等に用いられる。
 センシング領域102F乃至センシング領域102Bは、短距離又は中距離用のレーダ52のセンシング領域の例を示している。センシング領域102Fは、車両1の前方において、センシング領域101Fより遠い位置までカバーしている。センシング領域102Bは、車両1の後方において、センシング領域101Bより遠い位置までカバーしている。センシング領域102Lは、車両1の左側面の後方の周辺をカバーしている。センシング領域102Rは、車両1の右側面の後方の周辺をカバーしている。
 センシング領域102Fにおけるセンシング結果は、例えば、車両1の前方に存在する車両や歩行者等の検出等に用いられる。センシング領域102Bにおけるセンシング結果は、例えば、車両1の後方の衝突防止機能等に用いられる。センシング領域102L及びセンシング領域102Rにおけるセンシング結果は、例えば、車両1の側方の死角における物体の検出等に用いられる。
 センシング領域103F乃至センシング領域103Bは、カメラ51によるセンシング領域の例を示している。センシング領域103Fは、車両1の前方において、センシング領域102Fより遠い位置までカバーしている。センシング領域103Bは、車両1の後方において、センシング領域102Bより遠い位置までカバーしている。センシング領域103Lは、車両1の左側面の周辺をカバーしている。センシング領域103Rは、車両1の右側面の周辺をカバーしている。
 センシング領域103Fにおけるセンシング結果は、例えば、信号機や交通標識の認識、車線逸脱防止支援システム等に用いられる。センシング領域103Bにおけるセンシング結果は、例えば、駐車支援、及び、サラウンドビューシステム等に用いられる。センシング領域103L及びセンシング領域103Rにおけるセンシング結果は、例えば、サラウンドビューシステム等に用いられる。
 センシング領域104は、LiDAR53のセンシング領域の例を示している。センシング領域104は、車両1の前方において、センシング領域103Fより遠い位置までカバーしている。一方、センシング領域104は、センシング領域103Fより左右方向の範囲が狭くなっている。
 センシング領域104におけるセンシング結果は、例えば、緊急ブレーキ、衝突回避、歩行者検出等に用いられる。
 センシング領域105は、長距離用のレーダ52のセンシング領域の例を示している。センシング領域105は、車両1の前方において、センシング領域104より遠い位置までカバーしている。一方、センシング領域105は、センシング領域104より左右方向の範囲が狭くなっている。
 センシング領域105におけるセンシング結果は、例えば、ACC(Adaptive Cruise Control)等に用いられる。
 なお、各センサのセンシング領域は、図2以外に各種の構成をとってもよい。具体的には、超音波センサ54が車両1の側方もセンシングするようにしてもよいし、LiDAR53が車両1の後方をセンシングするようにしてもよい。
 <<2.実施の形態>>
 次に、図3乃至図9を参照して、本技術の実施の形態について説明する。
  <シート201の構成例>
 まず、図3乃至図7を参照して、本技術を適用したシート201の構成例について説明する。
 図3は、シート201全体の構成を模式的に示している。図3のAは、シート201の平面図であり、図3のBは、シート201の正面図であり、図3のCは、シート201の左側面図である。
 シート201は、例えば、車両1の運転席、助手席、後部座席等に用いられる。シート201は、シートクッション211、シートバック212、及び、ヘッドレスト213を備える。
 シートクッション211は、シート201の座面となり、ユーザが着座する部分である。シートクッション211は、前方から後方にかけて緩やかに下方向に傾斜しており、着座したユーザの臀部が接触する部分が、大腿部が接触する部分より低くなっている。また、シートクッション211の左右の端部は、中央部より上方向に突出している。
 シートバック212は、着座したユーザの背もたれとなる部分である。シートバック212は、下方向から上方向にかけて緩やかに後方に傾斜している。また、シートバック212の左右の端部は、中央部より前方向に突出している。
 これらのシートクッション211及びシートバック212の特徴により、ユーザの姿勢(着座位置)を安定させることができる。
 ヘッドレスト213は、着座したユーザの頭部を支持し、ユーザの頭部や首を保護する部分である。
 また、シート201には、シートの骨格となるフレーム221、及び、調整部222L及び調整部222Rが内蔵されている。
 調整部222Lは、シートクッション211の表面(すなわち、シート201の座面)において、着座したユーザの左臀部が接触すると想定される部分を含む左臀部接触部と、フレーム221との間に配置されている。後述するように、調整部222Lは、シートクッション211の左臀部接触部の硬さを調整する。
 調整部222Rは、シートクッション211の表面(シート201の座面)において、着座したユーザの右臀部が接触すると想定される部分を含む右臀部接触部と、フレーム221との間に配置されている。後述するように、調整部222Rは、シートクッション211の右臀部接触部の硬さを調整する。
  <シートクッション211の構成例>
 次に、図4及び図5を参照して、シートクッション211の構成例について説明する。
 図4は、シートクッション211を正面から見た場合の内部構造の模式図である。図5は、シートクッション211を左側から見た場合の内部構造の模式図である。
 シートクッション211の内部には、フレーム221、支持部材231、調整部222L及び調整部222R、パッド232、及び、表皮233が、下から順に積層されている。
 支持部材231は、例えば、パッド232の下方において、フレーム221との間に隙間を空けて配置されている。支持部材231は、金属製のネット又は不織布等により構成され、パッド232より弾性率が高く、変形しにくい。支持部材231は、パッド232を支持するとともに、ユーザが着座したときのパッド232の下方向への過度な変形を抑制する。
 パッド232は、弾力性のある弾性部材であり、例えば、ポリウレタンフォームからなる。パッド232の上面は、シート201の座面と略同じ形状である。パッド232は、着座したユーザの臀部及び大腿部を支持するともに、外部から加わる衝撃や振動を吸収する。
 表皮233は、例えば、革、人工皮革、又は、布等の所定の素材からなる。表皮233は、パッド232の表面を覆い、保護する。
 調整部222Lは、シートクッション211の左臀部接触部の下方において、支持部材231とパッド232の間に設けられている。調整部222Lは、硬さを調整することができ、調整部222Lの硬さを調整することにより、シートクッション211の左臀部接触部の硬さが調整される。
 調整部222Rは、シートクッション211の右臀部接触部の下方において、支持部材231とパッド232の間に設けられている。調整部222Rは、硬さを調整することができ、調整部222Rの硬さを調整することにより、シートクッション211の右臀部接触部の硬さが調整される。
 なお、以下、調整部222L及び調整部222Rを個々に区別する必要がない場合、単に調整部222と称する。
  <調整部222Lの構成例>
 次に、図6及び図7を参照して、調整部222Lの構成例について説明する。
   <調整部222Lの第1の実施の形態>
 図6は、調整部222Lの第1の実施の形態を模式的に示している。
 この例では、調整部222Lは、エアランバー251L及びプレート252Lを備える。
 エアランバー251Lは、空気の出し入れ及び保持が可能な袋状の部材である。エアランバー251Lは、空気の充填量により、形状及び硬さ(弾性率)を調整可能である。
 プレート252Lは、金属又はプラスチック等からなり、形状が変化しにくい板状の部材である。プレート252Lは、シートクッション211の左臀部接触部の下方において、エアランバー251Lの上面に貼付され、固定されている。従って、プレート252Lは、パッド232及び表皮233を介して、シート201に着座したユーザの左臀部を支える。
 例えば、エアランバー251Lの空気の充填量を増やすことにより、エアランバー251Lが大きく、硬く、かつ、変形しにくくなる。これにより、シートクッション211の左臀部接触部が硬くなる。一方、エアランバー251Lの空気の充填量を減らすことにより、エアランバー251Lが小さく、柔らかく、かつ、変形しやすくなる。これにより、シートクッション211の左臀部接触部が柔らかくなる。
 ここで、プレート252Lの形状は、エアランバー251Lの形状変化によりほとんど変化しない。従って、エアランバー251Lの形状(大きさ)が変化したとき、プレート252Lの働きにより、シートクッション211の左臀部接触部の硬さが略一様に変化する。なお、プレート252Lの上方にはパッド232が設けられているため、ユーザがプレート252Lの硬さを直接感じることはない。
 また、シートクッション211の左臀部接触部より前のユーザの大腿部が接触する部分の硬さは、ほとんど変化しない。従って、ユーザの大腿部付近の血流を阻害し、ユーザに不快感を与えることが防止される。
   <調整部222Lの第2の実施の形態>
 図7は、調整部222Lの第2の実施の形態を模式的に示している。
 この例では、調整部222Lは、バンド271L、固定部材272L、及び、巻取り部材273Lを備える。
 バンド271Lは、可撓性を有するシート状の部材であり、例えば、布からなる。バンド271Lの前端は、固定部材272Lにより固定され、後端は、巻取り部材273Lにより巻き取り可能に支持されている。
 固定部材272Lは、シートクッション211の左臀部接触部の前端より少し前の位置の下方に設けられる。巻取り部材273Lは、シートクッション211の左臀部接触部の後端より少し後ろの位置の下方に設けられる。また、固定部材272Lと巻取り部材273Lとは、略同じ高さに設けられる。
 従って、バンド271Lは、シートクッション211の左臀部接触部の下方において、略水平に面状に広がり、パッド232及び表皮233を介して、シート201に着座したユーザの左臀部を支える。また、バンド271Lの表面の硬さ(弾性率)が略一様になる。
 また、固定部材272Lと巻取り部材273Lは、バンド271Lを面方向に引っ張る力を調整する調整機構を構成する。具体的には、巻取り部材273Lは、図示せぬアクチュエータにより、長手方向(左右方向)の軸を中心にして、前後方向に回転する。
 巻取り部材273Lが後ろ方向に回転すると、バンド271Lの前端が固定部材272Lにより固定されたまま、後方が巻き取られ、バンド271Lを面方向に引っ張る力が強くなる。これにより、バンド271Lが硬く、変形しにくくなり(弾性率が高くなり)、シートクッション211の左臀部接触部が硬くなる。
 一方、巻取り部材273Lが前方向に回転すると、バンド271Lの前端が固定部材272Lにより固定されたまま、後方が繰り出され、バンド271Lを面方向に引っ張る力が弱くなる。これにより、バンド271Lが柔らかく、変形しやすくなり(弾性率が低くなり)、シートクッション211の左臀部接触部が柔らかくなる。
 また、上述したように、バンド271Lの表面の硬さが略一様になるため、巻取り部材273Lによりバンド271Lを巻き取ったり、繰り出したりすることにより、シートクッション211の左臀部接触部の硬さが一様に変化するようになる。
 さらに、シートクッション211の左臀部接触部より前のユーザの大腿部が接触する部分の硬さは、ほとんど変化しない。従って、ユーザの大腿部付近の血流を阻害し、ユーザに不快感を与えることが防止される。
 なお、調整部222Rも、図6又は図7の調整部222Lと同様の構成を備えており、その説明及び図示は省略する。また、以下、調整部222Rを構成する各部の符号の末尾に、Lの代わりにRの文字を付加するものとする。
  <シート201の座面の硬さを制御するシステムの構成例>
 図8は、シート201の座面の硬さ(シートクッション211の硬さ)を制御するシステムの構成例を示している。
 このシステムは、シート制御部301を備える。また、シート201は、上述した構成に加えて、通信部321、駆動部322、及び、センサ部323を備える。
 シート制御部301は、例えば、図1のボディ系制御部84の一部を構成する。シート制御部301は、例えば、シート201の座面の硬さ、すなわち、シートクッション211の硬さの制御を行う。
 例えば、シート制御部301は、シート201のセンサ部323が備える各センサから出力されるセンサデータをシート201から取得する。シート制御部301は、車両1の外部の状況の検出処理及び認識処理の結果を示す情報を認識部73(図1)から取得する。シート制御部301は、車両1の動作の制御に関する情報を動作制御部63(図1)から取得する。シート制御部301は、運転者の状態の認識処理の結果を示す情報をDMS30(図1)から取得する。シート制御部301は、各種のデータや指示等に基づく入力信号をHMI31(図1)から取得する。
 シート制御部301は、取得した各種の情報、データ、信号等に基づいて、調整部222L及び調整部222Rの硬さを制御するための制御信号を生成し、シート201に送信する。
 また、シート制御部301は、取得した各種の情報、データ、信号等に基づいて、例えば、図示せぬアクチュエータ等により構成される駆動部を制御することにより、シート201全体の上下方向の位置を制御する。
 通信部321は、所定の通信方式(例えば、CAN)により、シート制御部301を含む車両1の各部と通信を行い、各種の情報、データ、信号等(例えば、上述したセンサデータ、制御信号等)の授受を行う。
 駆動部322は、シート制御部301からの制御信号に従って、調整部222L及び調整部222Rを個別に駆動することにより、調整部222L及び調整部222Rの硬さを個別に調整する。
 例えば、調整部222L及び調整部222Rが図6の構成を備える場合、駆動部322は、エアランバー251L及びエアランバー251Rの空気の出し入れを制御する装置を備える。そして、駆動部322は、エアランバー251L及びエアランバー251Rの空気の出し入れを制御することにより、調整部222L及び調整部222Rの硬さを調整する。これにより、シート201の座面の硬さ、より具体的には、シートクッション211の左臀部接触部及び右臀部接触部の硬さが個別に調整される。
 例えば、調整部222L及び調整部222Rが、図7の構成を備える場合、駆動部322は、巻取り部材273L及び巻取り部材273Rを回転させるアクチュエータ等を備える。そして、駆動部322は、巻取り部材273L及び巻取り部材273Rの回転を個別に制御することにより、バンド271L及びバンド271Rの硬さを個別に調整する。これにより、シート201の座面の硬さ、より具体的には、シートクッション211の左臀部接触部及び右臀部接触部の硬さが個別に調整される。
 センサ部323は、例えば、図1の車内センサ26の一部を構成し、各種のセンサを備える。センサ部323は、各センサからのセンサデータを通信部321に供給する。
 例えば、調整部222L及び調整部222Rが図6の構成を備える場合、センサ部323は、荷重計を備える。荷重計は、例えば、調整部222Lのプレート252Lの上面、及び、調整部222Rのプレート252Rの上面にそれぞれ設けられる。各荷重計は、プレート252L又はプレート252Rにかかる荷重をそれぞれ検出し、検出結果を示すセンサデータを通信部321に供給する。
 例えば、調整部222L及び調整部222Rが図7の構成を備える場合、センサ部323は、荷重計を備える。荷重計は、例えば、調整部222Lのバンド271Lの上面、及び、調整部222Rのバンド271Rの上面にそれぞれ設けられる。各荷重計は、バンド271L又はバンド271Rにかかる荷重をそれぞれ検出し、検出結果を示すセンサデータを通信部321に供給する。
  <シート制御処理>
 次に、図9のフローチャートを参照して、車両1により実行されるシート制御処理について説明する。
 なお、以下、主に運転席のシート201の制御を行う場合の例について説明する。また、以下、運転席に着座するユーザを運転者と称する。
 ステップS1において、DMS30は、運転者が直座したか否かを判定する。この処理は、運転者が着座したと判定されるまで所定のタイミングで繰り返し実行され、運転者が着座したと判定された場合、処理はステップS2に進む。
 なお、運転者が着座したか否かの判定方法は、特に限定されない。
 例えば、DMS30は、運転席の方向を撮影する画像データに基づいて、運転者が着座したか否かを判定する。
 例えば、DMS30は、運転席のシート201のセンサ部323からのセンサデータにより検出される各調整部222への荷重に基づいて、運転者が着座したか否かを判定する。
 例えば、DMS30は、運転者が所有する車両1のキーやスマートフォン等と通信部22との間の近距離無線通信の状況に基づき、車両1のキーやスマートフォン等の接近の検出処理を行った結果に基づいて、運転者が着座したか否かを判定する。
 ステップS2において、シート制御部301は、シート201を徐々に柔らかくする。
 例えば、運転席のシート201の各調整部222は、運転者の着座前において、最も硬い状態に設定され、運転席のシート201の座面が最も高い位置に設定されている。そして、シート制御部301は、駆動部322を制御して、各調整部222を所定の硬さまで徐々に柔らかくする。
 これにより、運転者が楽にシート201に着座することができるとともに、着座後に迅速に快適な状態を運転者に提供することが可能になる。
 なお、着座後に設定するシート201の硬さは、固定されていてもよいし、可変であってもよい。設定する硬さが可変である場合、例えば、運転者等が好みの硬さに設定できるようにしてもよいし、学習処理により運転者の好みの硬さを学習し、学習した硬さに設定されるようにしてもよい。
 また、運転者が着座するときに、例えば、シート201全体が下方向に移動し、シート201の座面(シートクッション211)が下方向に移動する場合、シート201の座面の下方向の移動に合わせて、各調整部222を柔らかくするようにしてもよい。
 ステップS3において、シート制御部301は、車両1の状態及び車内外(車両1の内部及び外部)の状況に応じたシート201の硬さの制御を開始する。
 例えば、シート制御部301は、動作制御部63又はHMI31から車両の運転モードを示す情報を取得し、運転モードに基づいて、各調整部222の硬さを制御する処理を開始する。
 例えば、シート制御部301は、運転モードがスピーディな走りを優先する走行モードに設定されている場合、各調整部222を硬めに設定する。一方、シート制御部301は、運転モードが車内の快適さを優先する走行モードに設定されている場合、各調整部222を柔らかめに設定する。これにより、運転者が、運転モードの変化を体感しやすくなる。
 例えば、シート制御部301は、運転モードが自動運転モードに設定されている場合、各調整部222を柔らかくする。すなわち、自動運転が行われている場合、運転者のドライビングポジションを安定させる必要がないため、運転者の座り心地が優先され、シートクッション211の左臀部接触部及び右臀部接触部が柔らかくされる。
 また、例えば、シート制御部301は、車両センサ27により検出される車両1に作用する横加速度(横G)に基づいて、左右の調整部222の硬さを制御し、シートクッション211の左右の硬さのバランスを制御する処理を開始する。
 例えば、シート制御部301は、横加速度が所定の閾値以上の場合、横加速度が作用する方向と逆方向、すなわち、車両1のヨー方向の旋回方向と逆方向の調整部222を硬くし、横加速度が閾値未満になった後、調整部222の硬さを元に戻す。これにより、例えば、車両1が右回りに旋回している場合、シートクッション211の左臀部接触部が右臀部接触部より硬くなる。逆に、車両1が左回りに旋回している場合、シートクッション211の右臀部接触部が左臀部接触部より硬くなる。その結果、運転者が横加速度に対向して姿勢を維持することが容易になり、運転者の疲労度が軽減される。
 なお、例えば、シートバックの左右にエアランバーを設けて、横加速度に基づいてシートバックの左右の硬さのバランスを制御する車両が存在する。しかし、この場合、横加速度があまり大きくなく、運転者の体の動きがあまり大きくないとき、運転者の体がエアランバーに接触しないため、効果が得られなくなる。
 これに対して、車両1においては、横加速度に関わらず、運転者の体が常時接触しているシートクッション211の左臀部接触部及び右臀部接触部の硬さのバランスが制御される。従って、横加速度の大きさに関わらず、常に効果が得られるようになる。
 なお、シート制御部301は、例えば、横加速度の代わりに、車両1の操舵角又はステアリングホイールの回転角に基づいて、シートクッション211の左右の硬さのバランスを制御するようにしてもよい。
 さらに、例えば、シート制御部301は、車両1のヨー方向の旋回を予測した結果に基づいて、左右の調整部222の硬さを制御し、シートクッション211の左右の硬さのバランスを制御する処理を開始する。
 例えば、認識部73は、車両1のヨー方向の旋回を予測した場合、旋回半径(R)及び車両1の速度に基づいて、旋回時に車両1に作用する横加速度を推定する。そして、シート制御部301は、推定された横加速度に基づいて、車両1が旋回を開始する前から、上述した方法により、シートクッション211の左右の硬さのバランスを徐々に制御する。例えば、車両1の右回りの旋回が予測された場合、旋回方向とは逆方向のシートクッション211の左臀部接触部が徐々に硬くされる。例えば、車両1の左回りの旋回が予測された場合、旋回方向とは逆方向のシートクッション211の右臀部接触部が徐々に硬くされる。その結果、運転者が車両1の旋回に対向して姿勢を維持することが容易になり、運転者の疲労度が軽減される。
 なお、車両1のヨー方向の旋回を予測方法は、特に限定されない。例えば、認識部73は、車両1の前方を撮影した画像データに基づいて、車両1の前方の道路の状況(例えば、カーブの有無等)を認識することにより、車両1のヨー方向の旋回を予測する。例えば、認識部73は、外部のサーバ等から提供される地図情報、車両1の現在位置、及び、行動計画部62により作成された経路計画等に基づいて、車両1のヨー方向の旋回を予測する。
 また、例えば、シート制御部301は、車両1の前方において車両1が上下方向の振動を予測した結果に基づいて、シート201の座面の硬さを制御する処理を開始する。
 例えば、認識部73が、車両1の上下方向の振動の発生を予測した場合、シート制御部301は、上下方向の振動が発生する前に、各調整部222を柔らかくし、上下方向の振動が終了した後に、各調整部222の硬さを元に戻す。これにより、運転者に加わる上下方向の振動が軽減される。
 なお、車両1の上下方向の振動の予測方法は、特に限定されない。例えば、認識部73は、車両1の前方を撮影した画像データに基づいて、段差等の振動要因を事前に認識することにより、車両1の上下方向の振動を予測する。例えば、認識部73は、外部のサーバ等から提供される、路面情報(例えば、路面の粗さ、うねり等)を含む地図情報、車両1の現在位置、及び、行動計画部62により作成された経路計画等に基づいて、振動要因を事前に認識することにより、車両1の上下方向の振動を予測する。
 また、例えば、シート制御部301は、車両1内で再生されているコンテンツ(例えば、映像、音楽等)に合わせて、シート201の座面の硬さを制御する処理を開始する。
 例えば、シート制御部301は、再生中の音楽のリズムに合わせて、各調整部222の硬さを変化させる。例えば、シート制御部301は、左右のスピーカから出力される音の差異に基づいて、左右の調整部222の硬さのバランスを変化させる。
 これにより、運転者のコンテンツ体験が向上する。
 さらに、例えば、シート制御部301は、シート201の座面(各調整部222)の硬さの変化に合わせて、運転者の視線の上下方向の位置を調整する処理を開始する。
 具体的には、少なくとも一方の調整部222の硬さが変化すると、運転者の臀部の位置が上下方向に移動するため、運転者の視線の位置も上下方向に移動する。シート制御部301は、この運転者の視線の上下方向の位置の変動を抑制するために、例えば、図示せぬ駆動部を制御して、運転者の視線の上下方向の位置の変動を相殺するように、シート201全体を上下方向に移動させる。
 例えば、シート制御部301は、DMS30により検出される運転者の視線(又は頭部)の上下方向の位置に基づいて、シート201全体を上下方向に移動させる。
 例えば、シート制御部301は、運転席のシート201のセンサ部323からのセンサデータにより検出される各調整部222への荷重の変化量に基づいて、運転者の視線の上下方向の位置の変化量を推定する。そして、シート制御部301は、推定した変化量を相殺するように、シート201全体を上下方向に移動させる。
 なお、この場合、例えば、各調整部222にかかる荷重の変化量と運転者の視線の上下方向の位置の変化量との関係は、事前に評価され、両者の関係を示すデータが、予め記録部28に記憶される。そして、シート制御部301は、このデータに基づいて、運転者の視線の上下方向の位置の変化量を推定する。
 これにより、シート201の座面の硬さの変化に関わらず、運転者の視線の上下方向の位置が安定し、快適性が向上する。
 なお、例えば、少なくとも一方の調整部222の硬さが変化した場合に、運転者の視線の上下方向の位置を調整するようにしてもよいし、両方の調整部222の硬さが変化した場合のみ、運転者の視線の上下方向の位置を調整するようにしてもよい。
 また、例えば、運転者の視線の上下方向の位置の調整機能のオン/オフを切り替えることができるようにしてもよい。
 ステップS4において、DMS30は、運転者の眠気を検知したか否かを判定する。運転者の眠気を検知したと判定された場合、処理はステップS5に進む。
 なお、運転者の眠気の検知方法は、特に限定されない。
 例えば、DMS30は、運転者を撮影した画像に基づいて、運転者の眠気を検知する。
 ステップS5において、シート制御部301は、運転者に刺激を与えるように、シート201の硬さを制御する。
 具体的には、DMS30は、運転者の眠気を検知したことをシート制御部301に通知する。
 シート制御部301は、例えば、駆動部322を制御して、調整部222Lと調整部222Rの硬さを交互に大きく変化させる。これにより、運転者の左臀部及び右臀部に交互に不自然な刺激が与えられ、運転者の体が左右に揺すぶられ、運転者の眠気を覚ます効果が得られる。
 その後、処理はステップS6に進む。
 一方、ステップS4において、運転者の眠気を検知していないと判定された場合、ステップS5の処理はスキップされ、処理はステップS6に進む。
 ステップS6において、DMS30は、運転者の疲れを検知したか否かを判定する。運転者の疲れを検知したと判定された場合、処理はステップS7に進む。
 なお、運転者の疲れの検知方法は、特に限定されない。
 例えば、DMS30は、運転者を撮影した画像に基づいて、運転者の疲れを検知する。
 ステップS7において、シート制御部301は、運転者の疲れを軽減するように、シート201の硬さを制御する。
 具体的には、DMS30は、運転者の疲れを検知したことをシート制御部301に通知する。
 シート制御部301は、例えば、駆動部322を制御して、シートクッション211が運転者の疲労を軽減する硬さになるように、各調整部222の硬さを調整する。また、例えば、シート制御部301は、駆動部322を制御して、調整部222Lと調整部222Rの硬さを交互にリズミカルに変化させることにより、運転者にマッサージ効果を与える。
 その後、処理はステップS8に進む。
 一方、ステップS6において、運転者の疲れを検知していないと判定された場合、ステップS7の処理はスキップされ、処理はステップS8に進む。
 ステップS8において、DMS30は、運転者の姿勢が悪いか否かを判定する。運転者の姿勢が悪いと判定された場合、処理はステップS9に進む。
 なお、運転者の姿勢の判定方法は、特に限定されない。
 例えば、DMS30は、運転者を撮影した画像に基づいて、運転者の姿勢が悪いか否かを判定する。
 例えば、DMS30は、センサ部323から供給される各調整部222への荷重を示すセンサデータに基づいて、シートクッション211の左臀部接触部及び右臀部接触部への荷重の差を検出する。この差は、運転者の重心位置の偏差に対応する。DMS30は、検出した荷重の差が所定の閾値以上である場合、運転者の姿勢が悪い(運転者の体の左右のバランスが悪い)と判定する。
 ステップS9において、シート制御部301は、運転者の姿勢を改善するように、シート201の硬さを制御する。
 具体的には、DMS30は、運転者の姿勢が悪いことをシート制御部301に通知する。
 シート制御部301は、例えば、駆動部322を制御して、運転者の姿勢が改善するように、各調整部222の硬さを調整する。例えば、シート制御部301は、駆動部322を制御して、シートクッション211の左臀部接触部及び右臀部接触部への荷重が略等しくなるように、調整部222L及び調整部222Rの硬さを調整する。
 これにより、運転者の重心が理想的な位置に移動し、その結果、運転者の姿勢が改善され、運転者の疲労が軽減される。
 その後、処理はステップS10に進む。
 一方、ステップS8において、運転者の姿勢が悪くないと判定された場合、ステップS9の処理はスキップされ、処理はステップS10に進む。
 ステップS10において、DMS30又は車両制御部32は、運転者が離席するか否かを判定する。運転者が離席すると判定された場合、処理はステップS11に進む。
 なお、運転者が離席するか否かの判定方法は、特に限定されない。
 例えば、DMS30は、運転席の方向を撮影する画像データに基づいて、運転者が離席するか否かを判定する。
 例えば、車両制御部32のボディ系制御部84は、運転者が運転席に座っている場合に、車両1のパワーがオフされたとき、車両1の運転席のドアのロックが解錠されたとき、又は、車両1の運転席のドアが開けられたとき、運転者が離席すると判定する。
 ステップS11において、シート制御部301は、シート201を徐々に硬くする。具体的には、シート制御部301は、駆動部322を制御して、各調整部222を最も硬い状態になるように徐々に変化させる。これにより、シートクッション211が徐々に硬くなり、運転者が車両1から降りる際に上体を起こす力が支援される。
 なお、運転者が離席するときに、例えば、シート201全体が上方向に移動し、シート201の座面(シートクッション211)が上方向に移動する場合、シート201の座面の上方向の移動に合わせて、各調整部222を硬くするようにしてもよい。
 ステップS12において、シート制御部301は、車両1の状態及び車内外に応じたシートの硬さの制御を停止する。
 その後、処理はステップS1に戻り、ステップS1以降の処理が実行される。
 一方、ステップS10において、運転者が離席しないと判定された場合、処理はステップS4に戻り、ステップS10において、運転者が離席すると判定されるまで、ステップS4乃至ステップS10の処理が繰り返し実行される。
 なお、上記の処理中に、例えば、運転者がHMI31を用いて指示を入力することにより、各調整部222の硬さを調整することが可能である。
 また、以上の説明では、運転席のシート201の硬さを制御する例を示したが、車両1の他のシート201の硬さも同様の処理により制御することが可能である。
 以上のようにして、シート201の左臀部接触及び右臀部接触部の2カ所の硬さのみを制御するシンプルな構成により、ユーザの状態、車両1の状態、及び、車内外の状況に基づいて、シート201の座面の硬さを適切に調整することができ、ユーザの快適性が向上する。
 また、部品点数が抑制され、構成及び製造工程が簡素化される。その結果、シート201のコストを抑制することができ、シート201の座面の硬さを制御する処理がシンプルになる。
 <<3.変形例>>
 以下、上述した本技術の実施の形態の変形例について説明する。
 図8において、駆動部322をシート201に設ける例を示したが、例えば、シート201の外に設けることも可能である。また、例えば、シート制御部301をシート201に設けることも可能である。この場合、例えば、シート制御部301と通信部321を一体化するようにしてもよい。
 さらに、例えば、シート制御部301を車両1の外部のサーバ等に設けることも可能である。具体的には、例えば、各種のセンサデータ等を外部に送信し、外部からシート201の硬さを制御することも可能である。
 例えば、各調整部222のセンサ部323に、荷重計の代わりに圧力計を設けることも可能である。
 例えば、図6のエアランバー251の代わりに、すなわち、気体を充填する袋状の部材の代わりに、例えば、水等の液体を充填する袋状の部材を用いることも可能である。
 例えば、センサ部323から供給される各調整部222への荷重を示すセンサデータに基づいて、ユーザの体重の変化を評価するようにすることが可能である。
 また、本技術は、例えば、上述した車両以外の移動装置、特に、各ユーザに個別にシートが設けられている移動装置のシート、及び、そのシートの硬さの制御処理にも適用することができる。本技術を適用可能な移動装置の例としては、例えば、パーソナルモビリティ、飛行機、ヘリコプター、列車、船舶、建設機械、農業機械(トラクター)等が想定される。
 <<4.その他>>
  <コンピュータの構成例>
 上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
 図10は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
 コンピュータ1000において、CPU(Central Processing Unit)1001,ROM(Read Only Memory)1002,RAM(Random Access Memory)1003は、バス1004により相互に接続されている。
 バス1004には、さらに、入出力インタフェース1005が接続されている。入出力インタフェース1005には、入力部1006、出力部1007、記録部1008、通信部1009、及びドライブ1010が接続されている。
 入力部1006は、入力スイッチ、ボタン、マイクロフォン、撮像素子などよりなる。出力部1007は、ディスプレイ、スピーカなどよりなる。記録部1008は、ハードディスクや不揮発性のメモリなどよりなる。通信部1009は、ネットワークインタフェースなどよりなる。ドライブ1010は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア1011を駆動する。
 以上のように構成されるコンピュータ1000では、CPU1001が、例えば、記録部1008に記録されているプログラムを、入出力インタフェース1005及びバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ1000(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア1011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 コンピュータ1000では、プログラムは、リムーバブルメディア1011をドライブ1010に装着することにより、入出力インタフェース1005を介して、記録部1008にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部1009で受信し、記録部1008にインストールすることができる。その他、プログラムは、ROM1002や記録部1008に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
 さらに、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
  <構成の組み合わせ例>
 本技術は、以下のような構成をとることもできる。
(1)
 座面においてユーザの左臀部が接触すると想定される部分を含む左臀部接触部の硬さを調整する第1の調整部と、
 前記座面において前記ユーザの右臀部が接触すると想定される部分を含む右臀部接触部の硬さを調整する第2の調整部と
 を備える移動装置用シート。
(2)
 前記ユーザの臀部を支持する弾性部材と、
 前記弾性部材の下方において前記弾性部材を支持するとともに、前記弾性部材の下方向への変形を抑制する支持部材と
 を備え、
 前記第1の調整部は、前記左臀部接触部の下方において、前記弾性部材と前記支持部材との間に設けられ、
 前記第2の調整部は、前記右臀部接触部の下方において、前記弾性部材と前記支持部材との間に設けられている
 前記(1)に記載の移動装置用シート。
(3)
 前記第1の調整部は、
  気体又は液体の充填量により硬さを調整可能な第1の袋状の部材と、
  前記左臀部接触部の下方において、前記第1の袋状の部材の上面に固定されている第1の板状の部材と
 を備え、
 前記第2の調整部は、
  気体又は液体の充填量により硬さを調整可能な第2の袋状の部材と、
  前記右臀部接触部の下方において、前記第2の袋状の部材の上面に固定されている第2の板状の部材と
 を備える
 前記(2)に記載の移動装置用シート。
(4)
 前記第1の調整部は、
  前記左臀部接触部の下方において略水平に面状に広がり、可撓性を有する第1のシート状の部材と、
  前記第1のシート状の部材を面方向に引っ張る力を調整する第1の調整機構と
 を備え、
 前記第2の調整部は、
  前記右臀部接触部の下方において略水平に面状に広がり、可撓性を有する第2のシート状の部材と、
  前記第2のシート状の部材を面方向に引っ張る力を調整する第2の調整機構と
 を備える
 前記(2)に記載の移動装置用シート。
(5)
 前記第1の調整部及び前記第2の調整部を個別に駆動し、前記第1の調整部及び前記第2の調整部の硬さを個別に調整する駆動部を
 さらに備える前記(1)乃至(4)のいずれかに記載の移動装置用シート。
(6)
 外部から制御信号を受信する通信部を
 さらに備え、
 前記駆動部は、前記制御信号に従って、前記第1の調整部及び前記第2の調整部を駆動する
 前記(5)に記載の移動装置用シート。
(7)
 前記駆動部を制御することにより、前記第1の調整部及び前記第2の調整部の硬さを個別に制御するシート制御部を
 さらに備える前記(5)に記載の移動装置用シート。
(8)
 前記座面において前記左臀部接触部及び前記右臀部接触部のみの硬さを調整可能である
 前記(1)乃至(7)のいずれかに記載の移動装置用シート。
(9)
 ユーザの状態、移動装置の状態、前記移動装置内の状況、及び、前記移動装置の外部の状況のうち少なくとも1つに基づいて、前記移動装置用のシートの座面において前記ユーザの左臀部が接触すると想定される部分を含む左臀部接触部、及び、前記ユーザの右臀部が接触すると想定される部分を含む右臀部接触部の硬さを個別に制御するシート制御部を
 備えるシート制御装置。
(10)
 前記シート制御部は、前記左臀部接触部及び前記右臀部接触部のうち、前記移動装置に作用する横加速度の方向と逆方向の臀部接触部を硬くする
 前記(9)に記載のシート制御装置。
(11)
 前記シート制御部は、前記移動装置のヨー方向の旋回が予測された場合、前記左臀部接触部及び前記右臀部接触部のうち、前記移動装置が旋回する方向と逆方向の臀部接触部を硬くする
 前記(9)又は(10)に記載のシート制御装置。
(12)
 前記シート制御部は、前記移動装置の上下方向の振動が予測された場合、前記左臀部接触部及び前記右臀部接触部を柔らかくする
 前記(9)乃至(11)のいずれかに記載のシート制御装置。
(13)
 前記シート制御部は、前記移動装置の運転モードに基づいて、前記左臀部接触部及び前記右臀部接触部の硬さを制御する
 前記(9)乃至(12)のいずれかに記載のシート制御装置。
(14)
 前記シート制御部は、前記移動装置の自動運転中に、前記左臀部接触部及び前記右臀部接触部を柔らかくする
 前記(13)に記載のシート制御装置。
(15)
 前記シート制御部は、前記ユーザの眠気又は疲れが検知された場合、前記左臀部接触部及び前記右臀部接触部の硬さを変化させる
 前記(9)乃至(14)のいずれかに記載のシート制御装置。
(16)
 前記シート制御部は、前記ユーザの姿勢に基づいて、前記左臀部接触部及び前記右臀部接触部の硬さのバランスを制御する
 前記(9)乃至(15)のいずれかに記載のシート制御装置。
(17)
 前記シート制御部は、前記ユーザが着座した後、前記左臀部接触部及び前記右臀部接触部を徐々に柔らかくし、前記ユーザが離席する前に、前記左臀部接触部及び前記右臀部接触部を徐々に硬くする
 前記(9)乃至(16)のいずれかに記載のシート制御装置。
(18)
 前記シート制御部は、前記移動装置内で再生されているコンテンツに合わせて、前記左臀部接触部及び前記右臀部接触部の硬さを変化させる
 前記(9)乃至(17)のいずれかに記載のシート制御装置。
(19)
 前記シート制御部は、前記左臀部接触部の硬さを調整する第1の調整部、及び、前記右臀部接触部の硬さを調整する第2の調整部を個別に駆動する駆動部を制御する
 前記(9)乃至(18)のいずれかに記載のシート制御装置。
(20)
 ユーザの状態、移動装置の状態、前記移動装置内の状況、及び、前記移動装置の外部の状況のうち少なくとも1つに基づいて、前記移動装置用のシートの座面において前記ユーザの左臀部が接触すると想定される部分を含む左臀部接触部、及び、前記ユーザの右臀部が接触すると想定される部分を含む右臀部接触部の硬さを個別に制御する
 シート制御方法。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
 1 車両, 11 車両制御システム, 30 DMS, 31 HMI, 62 行動計画部, 63 動作制御部, 71 自己位置推定部, 73 認識部, 84 ボディ系制御部, 201 シート, 211 シートクッション, 221 フレーム, 222L,222R 調整部, 231 支持部材, 232 パッド, 233 表皮, 251L,251R エアランバー, 252L,252R プレート, 271L,271R バンド, 272L,272R 固定部材, 273L,273R 巻取り部材, 301 シート制御部, 321 通信部, 322 駆動部, 323 センサ部

Claims (20)

  1.  座面においてユーザの左臀部が接触すると想定される部分を含む左臀部接触部の硬さを調整する第1の調整部と、
     前記座面において前記ユーザの右臀部が接触すると想定される部分を含む右臀部接触部の硬さを調整する第2の調整部と
     を備える移動装置用シート。
  2.  前記ユーザの臀部を支持する弾性部材と、
     前記弾性部材の下方において前記弾性部材を支持するとともに、前記弾性部材の下方向への変形を抑制する支持部材と
     を備え、
     前記第1の調整部は、前記左臀部接触部の下方において、前記弾性部材と前記支持部材との間に設けられ、
     前記第2の調整部は、前記右臀部接触部の下方において、前記弾性部材と前記支持部材との間に設けられている
     請求項1に記載の移動装置用シート。
  3.  前記第1の調整部は、
      気体又は液体の充填量により硬さを調整可能な第1の袋状の部材と、
      前記左臀部接触部の下方において、前記第1の袋状の部材の上面に固定されている第1の板状の部材と
     を備え、
     前記第2の調整部は、
      気体又は液体の充填量により硬さを調整可能な第2の袋状の部材と、
      前記右臀部接触部の下方において、前記第2の袋状の部材の上面に固定されている第2の板状の部材と
     を備える
     請求項2に記載の移動装置用シート。
  4.  前記第1の調整部は、
      前記左臀部接触部の下方において略水平に面状に広がり、可撓性を有する第1のシート状の部材と、
      前記第1のシート状の部材を面方向に引っ張る力を調整する第1の調整機構と
     を備え、
     前記第2の調整部は、
      前記右臀部接触部の下方において略水平に面状に広がり、可撓性を有する第2のシート状の部材と、
      前記第2のシート状の部材を面方向に引っ張る力を調整する第2の調整機構と
     を備える
     請求項2に記載の移動装置用シート。
  5.  前記第1の調整部及び前記第2の調整部を個別に駆動し、前記第1の調整部及び前記第2の調整部の硬さを個別に調整する駆動部を
     さらに備える請求項1に記載の移動装置用シート。
  6.  外部から制御信号を受信する通信部を
     さらに備え、
     前記駆動部は、前記制御信号に従って、前記第1の調整部及び前記第2の調整部を駆動する
     請求項5に記載の移動装置用シート。
  7.  前記駆動部を制御することにより、前記第1の調整部及び前記第2の調整部の硬さを個別に制御するシート制御部を
     さらに備える請求項5に記載の移動装置用シート。
  8.  前記座面において前記左臀部接触部及び前記右臀部接触部のみの硬さを調整可能である
     請求項1に記載の移動装置用シート。
  9.  ユーザの状態、移動装置の状態、前記移動装置内の状況、及び、前記移動装置の外部の状況のうち少なくとも1つに基づいて、前記移動装置用のシートの座面において前記ユーザの左臀部が接触すると想定される部分を含む左臀部接触部、及び、前記ユーザの右臀部が接触すると想定される部分を含む右臀部接触部の硬さを個別に制御するシート制御部を
     備えるシート制御装置。
  10.  前記シート制御部は、前記左臀部接触部及び前記右臀部接触部のうち、前記移動装置に作用する横加速度の方向と逆方向の臀部接触部を硬くする
     請求項9に記載のシート制御装置。
  11.  前記シート制御部は、前記移動装置のヨー方向の旋回が予測された場合、前記左臀部接触部及び前記右臀部接触部のうち、前記移動装置が旋回する方向と逆方向の臀部接触部を硬くする
     請求項9に記載のシート制御装置。
  12.  前記シート制御部は、前記移動装置の上下方向の振動が予測された場合、前記左臀部接触部及び前記右臀部接触部を柔らかくする
     請求項9に記載のシート制御装置。
  13.  前記シート制御部は、前記移動装置の運転モードに基づいて、前記左臀部接触部及び前記右臀部接触部の硬さを制御する
     請求項9に記載のシート制御装置。
  14.  前記シート制御部は、前記移動装置の自動運転中に、前記左臀部接触部及び前記右臀部接触部を柔らかくする
     請求項13に記載のシート制御装置。
  15.  前記シート制御部は、前記ユーザの眠気又は疲れが検知された場合、前記左臀部接触部及び前記右臀部接触部の硬さを変化させる
     請求項9に記載のシート制御装置。
  16.  前記シート制御部は、前記ユーザの姿勢に基づいて、前記左臀部接触部及び前記右臀部接触部の硬さのバランスを制御する
     請求項9に記載のシート制御装置。
  17.  前記シート制御部は、前記ユーザが着座した後、前記左臀部接触部及び前記右臀部接触部を徐々に柔らかくし、前記ユーザが離席する前に、前記左臀部接触部及び前記右臀部接触部を徐々に硬くする
     請求項9に記載のシート制御装置。
  18.  前記シート制御部は、前記移動装置内で再生されているコンテンツに合わせて、前記左臀部接触部及び前記右臀部接触部の硬さを変化させる
     請求項9に記載のシート制御装置。
  19.  前記シート制御部は、前記左臀部接触部の硬さを調整する第1の調整部、及び、前記右臀部接触部の硬さを調整する第2の調整部を個別に駆動する駆動部を制御する
     請求項9に記載のシート制御装置。
  20.  ユーザの状態、移動装置の状態、前記移動装置内の状況、及び、前記移動装置の外部の状況のうち少なくとも1つに基づいて、前記移動装置用のシートの座面において前記ユーザの左臀部が接触すると想定される部分を含む左臀部接触部、及び、前記ユーザの右臀部が接触すると想定される部分を含む右臀部接触部の硬さを個別に制御する
     シート制御方法。
PCT/JP2021/001160 2020-01-30 2021-01-15 移動装置用シート、シート制御装置、及び、シート制御方法 WO2021153262A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP21748206.6A EP4098151A4 (en) 2020-01-30 2021-01-15 SEAT FOR A MOBILE DEVICE, SEAT CONTROL DEVICE AND SEAT CONTROL METHOD
KR1020227023716A KR20220127251A (ko) 2020-01-30 2021-01-15 이동 장치용 시트, 시트 제어 장치 및 시트 제어 방법
CN202180010479.5A CN115003552A (zh) 2020-01-30 2021-01-15 移动设备用座椅、座椅控制设备和座椅控制方法
JP2021574622A JPWO2021153262A1 (ja) 2020-01-30 2021-01-15
US17/759,381 US20230077600A1 (en) 2020-01-30 2021-01-15 Seat for moving device, seat control device, and seat control method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-013884 2020-01-30
JP2020013884 2020-01-30

Publications (1)

Publication Number Publication Date
WO2021153262A1 true WO2021153262A1 (ja) 2021-08-05

Family

ID=77078862

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/001160 WO2021153262A1 (ja) 2020-01-30 2021-01-15 移動装置用シート、シート制御装置、及び、シート制御方法

Country Status (6)

Country Link
US (1) US20230077600A1 (ja)
EP (1) EP4098151A4 (ja)
JP (1) JPWO2021153262A1 (ja)
KR (1) KR20220127251A (ja)
CN (1) CN115003552A (ja)
WO (1) WO2021153262A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0677592U (ja) * 1993-04-21 1994-11-01 天龍工業株式会社 乗物用座席のエアクッション
JP2009119230A (ja) 2007-10-23 2009-06-04 T S Tec Kk シート
JP2017132364A (ja) * 2016-01-28 2017-08-03 トヨタ自動車株式会社 乗物用シート装置
JP2018095015A (ja) * 2016-12-09 2018-06-21 トヨタ自動車株式会社 車両用シート
JP2018103850A (ja) * 2016-12-27 2018-07-05 トヨタ紡織株式会社 乗物用シート
JP2018165135A (ja) 2017-03-28 2018-10-25 テイ・エス テック株式会社 乗物用シート
WO2019116685A1 (ja) * 2017-12-14 2019-06-20 株式会社ブリヂストン シートパッド、車両用シート、車両用シートの制御方法、及び、シートパッドの製造方法
JP2019209933A (ja) * 2018-06-08 2019-12-12 トヨタ紡織株式会社 乗物用シート

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013220551B4 (de) * 2013-10-11 2018-06-14 Conti Temic Microelectronic Gmbh Verfahren und Vorrichtung zur Adaption der Körperabstützung einer in einem Fahrzeugsitz sitzenden Person sowie Fahrzeug umfassend einen Fahrzeugsitz und eine Vorrichtung zur Adaption der Körperabstützung einer in dem Fahrzeugsitz sitzenden Person

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0677592U (ja) * 1993-04-21 1994-11-01 天龍工業株式会社 乗物用座席のエアクッション
JP2009119230A (ja) 2007-10-23 2009-06-04 T S Tec Kk シート
JP2017132364A (ja) * 2016-01-28 2017-08-03 トヨタ自動車株式会社 乗物用シート装置
JP2018095015A (ja) * 2016-12-09 2018-06-21 トヨタ自動車株式会社 車両用シート
JP2018103850A (ja) * 2016-12-27 2018-07-05 トヨタ紡織株式会社 乗物用シート
JP2018165135A (ja) 2017-03-28 2018-10-25 テイ・エス テック株式会社 乗物用シート
WO2019116685A1 (ja) * 2017-12-14 2019-06-20 株式会社ブリヂストン シートパッド、車両用シート、車両用シートの制御方法、及び、シートパッドの製造方法
JP2019209933A (ja) * 2018-06-08 2019-12-12 トヨタ紡織株式会社 乗物用シート

Also Published As

Publication number Publication date
CN115003552A (zh) 2022-09-02
EP4098151A4 (en) 2023-10-04
US20230077600A1 (en) 2023-03-16
EP4098151A1 (en) 2022-12-07
JPWO2021153262A1 (ja) 2021-08-05
KR20220127251A (ko) 2022-09-19

Similar Documents

Publication Publication Date Title
JP7197621B2 (ja) 車体運動および乗員体験を制御するための方法およびシステム
JP6773046B2 (ja) 運転支援装置及び運転支援方法、並びに移動体
JP6773040B2 (ja) 情報処理システム、および情報処理システムの情報処理方法、情報処理装置、並びにプログラム
US10457179B1 (en) Immersive vehicle seats
US20210114553A1 (en) Passenger State Modulation System For Passenger Vehicles Based On Prediction And Preemptive Control
US11491903B2 (en) System and method for alleviating sensory conflict in a vehicle
CN111386210A (zh) 用于减轻晕动病症状的系统和方法
CN111837175B (zh) 图像显示系统、信息处理装置、信息处理方法、程序和移动体
WO2020100585A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム
WO2019131116A1 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
JPWO2020026825A1 (ja) 情報処理装置、情報処理方法、プログラム、及び、移動体
US20210006926A1 (en) Electronic device, method and computer program
JP2020075586A (ja) 運転支援方法及び運転支援装置
WO2021153262A1 (ja) 移動装置用シート、シート制御装置、及び、シート制御方法
WO2024009829A1 (ja) 情報処理装置、情報処理方法および車両制御システム
WO2024038759A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
WO2023032276A1 (ja) 情報処理装置、情報処理方法、及び、移動装置
WO2024062976A1 (ja) 情報処理装置及び情報処理方法
WO2022145286A1 (ja) 情報処理装置、情報処理方法、プログラム、移動装置、及び、情報処理システム
WO2023171401A1 (ja) 信号処理装置、信号処理方法、および記録媒体
WO2024024471A1 (ja) 情報処理装置、情報処理方法、及び、情報処理システム
WO2024024470A1 (ja) 空調制御装置、空調制御方法、及び、プログラム
WO2022113772A1 (ja) 情報処理装置、情報処理方法、及び、情報処理システム
WO2024043053A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
WO2024048180A1 (ja) 情報処理装置、情報処理方法および車両制御システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21748206

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021574622

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021748206

Country of ref document: EP

Effective date: 20220830