WO2021124894A1 - シートシステム - Google Patents

シートシステム Download PDF

Info

Publication number
WO2021124894A1
WO2021124894A1 PCT/JP2020/044841 JP2020044841W WO2021124894A1 WO 2021124894 A1 WO2021124894 A1 WO 2021124894A1 JP 2020044841 W JP2020044841 W JP 2020044841W WO 2021124894 A1 WO2021124894 A1 WO 2021124894A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
seat
input
output
control device
Prior art date
Application number
PCT/JP2020/044841
Other languages
English (en)
French (fr)
Inventor
裕之 郭
晃 三好
Original Assignee
テイ・エス テック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テイ・エス テック株式会社 filed Critical テイ・エス テック株式会社
Priority to JP2021565450A priority Critical patent/JPWO2021124894A1/ja
Priority to CN202080083425.7A priority patent/CN114746304A/zh
Priority to US17/785,272 priority patent/US11845362B2/en
Publication of WO2021124894A1 publication Critical patent/WO2021124894A1/ja
Priority to US18/501,110 priority patent/US20240059191A1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/002Seats provided with an occupancy detection means mounted therein or thereon
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/02Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles the seat or part thereof being movable, e.g. adjustable
    • B60N2/0224Non-manual adjustments, e.g. with electrical operation
    • B60N2/0226User interfaces specially adapted for seat adjustment
    • B60N2/0228Hand-activated mechanical switches
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/90Details or parts not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q3/00Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors
    • B60Q3/20Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors for lighting specific fittings of passenger or driving compartments; mounted on specific fittings of passenger or driving compartments
    • B60Q3/233Seats; Arm rests; Head rests
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q3/00Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors
    • B60Q3/70Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors characterised by the purpose
    • B60Q3/74Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors characterised by the purpose for overall compartment lighting; for overall compartment lighting in combination with specific lighting, e.g. room lamps with reading lamps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q3/00Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors
    • B60Q3/80Circuits; Control arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling

Definitions

  • This disclosure relates to a seat system including a seatable seat.
  • a seat that can provide a more comfortable environment for the driver and a control system for the surrounding environment (hereinafter referred to as a seat system) have been developed.
  • the seats provided in the vehicle are required to have added value such as not boring the user who is a seated person and eliminating the lack of exercise of the user.
  • a seat system has been developed that encourages the user to move the body (for example, Patent Document 1).
  • the seat system of Patent Document 1 includes a seat body in which a user can sit, a sensor for detecting the movement of the user, and an application terminal capable of executing a game application.
  • a game application When the game application is started, a signal or a character is displayed on the application terminal, and the user is required to move his / her body according to the signal or the movement of the character.
  • the sensor When the user moves the body, the movement of the body is detected by the sensor, and the degree of matching between the signal or the movement of the character and the movement of the user's body is displayed on the screen of the application terminal.
  • the user can know the degree of matching between the movement performed by himself / herself and the movement of the signal or the character only by the display of the application terminal. Therefore, the user needs to look carefully at the application terminal while the game application is running, and it is difficult for the user to move his / her body freely.
  • the seat body (5) on which the user can be seated and the seat body (5) or the periphery of the seat body (5) In order to solve the above problems, in the seat system (1,300, A, B), the seat body (5) on which the user can be seated and the seat body (5) or the periphery of the seat body (5).
  • At least one of light, sound, and vibration is output from the output device according to the movement of the user's body, so that the user's surrounding environment can be changed.
  • the output device includes a speaker (202) and the predetermined output is configured to have a sound having a predetermined pitch.
  • the senor forms a sensor group arranged in each of at least two members selected from the members constituting the seat system (1, 300, A, B), and each of the sensor groups. It is good that different instrument sounds are assigned to.
  • the musical instrument sound corresponding to the touch operation is output, so that the user can easily feel as if he / she is playing various musical instruments by performing the touch operation.
  • the seat body (5) is connected to the seat cushion (12) on which the user sits and the seat back (12), which is arranged behind the back of the user.
  • At least one of the sensors includes the upper surface of the seat cushion (12), the front surface of the seat back (11), the back surface of the seat back (11) of the front seat body, the armrest, the ottoman, and the headrest (11). 10), the floor (3) defining the floor of the passenger compartment (2), the steering wheel (42), the doors (15, 16), the instrument panel (20), the pillars (60) or the built-in table (43). It is preferable that the member is provided on any one of the above-mentioned members including.
  • the number of sensors that perform touch operations can be increased, and the degree of freedom in using the seat system increases.
  • the seat system (1,300, A, B) is mounted on the vehicle (M), and the vehicle (M) is communicably connected to the control device (70).
  • the control device (70) includes the information acquisition device (79), and the control device (70) acquires at least one information related to the environment surrounding the vehicle (M) from the environment information acquisition device (79), and the acquired information is used. Based on this, it is configured to change the output of the output device.
  • the seat system (1,300, A, B) is communicably connected to the control device (70), and a biosensor for collating the user and the control device (70).
  • the control device (70) can store user information about the user, and the input / output by the user includes an input / output terminal (76) that is communicably connected to the user and receives an input from the user.
  • the sheet system (1,300, A, B) is based on the input to the terminal (76) or the biometric information from the biosensor, and the user information about the user stored in advance in the control device (70).
  • the output from the speaker (202) is performed based on the user information.
  • the seat system (1, 300, A, B) includes an input / output terminal (76) that is communicably connected to the control device (70) and accepts input from the user.
  • the control device (70) has the other control device (70) in order to link the output from the output device with the output from the output device of another seat system (1, 300, A, B). It should be configured to be able to communicate with.
  • each of the regions where the sensor is provided is locally hardened.
  • the load can be effectively input to the sensor, so that the sensor can detect the touch operation more reliably.
  • a seat body on which the user can be seated and a touch operation provided on the seat body or a structure arranged around the seat body and seated on the seat body are performed.
  • the configuration including the control device at least one of light, sound, and vibration is output from the output device according to the movement of the user's body, so that the user's surrounding environment can be changed.
  • the output device includes a speaker and the predetermined output is a sound having a predetermined pitch
  • the sound having a pitch corresponding to the touch operation of the user is output. It is possible to encourage the body to move.
  • the sensors form a sensor group arranged in each of at least two members selected from the members constituting the seat system, and different musical instrument sounds are assigned to each of the sensor groups. For example, since the musical instrument sound corresponding to the touch operation is output, the user can easily feel as if he / she is playing various musical instruments by performing the touch operation.
  • the seat body includes a seat cushion on which the user sits and a seat back connected to the seat cushion and arranged behind the user's back, and at least one of the sensors is on the upper surface of the seat cushion.
  • the front of the seat back, the back of the seat back of the front seat body, the armrests, the Ottoman, the headrests, the floor defining the floor of the passenger compartment, the steering wheels, the doors, the instrument panels, the pillars or the above-mentioned members including the built-in table. According to the configuration provided in any one of the above, the number of sensors that perform touch operations can be increased, and the degree of freedom in using the seat system is increased.
  • the seat system is mounted on the vehicle, the vehicle includes an environmental information acquisition device communicably connected to the control device, and the control device relates to the environment surrounding the vehicle from the environmental information acquisition device.
  • the control device relates to the environment surrounding the vehicle from the environmental information acquisition device.
  • the seat system is communicably connected to the control device and has a biosensor for collating the user, and an input / output terminal communicably connected to the control device and accepting input from the user.
  • the control device can store user information about the user, and is based on the input to the input / output terminal by the user or the biometric information from the biosensor, and the user information about the user stored in advance in the control device.
  • the output from the speaker is performed based on the input to the input / output terminal by the user who executed the identification or the user information about the user stored in advance in the control device. For example, it becomes possible to select music that suits the user's taste, and the use of the seat system can be made more comfortable.
  • the seat system includes an input / output terminal that is communicably connected to the control device and accepts input from the user, and the control device outputs the output from the output device to the output device of another seat system.
  • the configuration that can communicate with other control devices in order to link with the output from, you can enjoy the game using the seat system with other users who are using other seat systems. it can.
  • the load can be effectively input to the sensor, so that the touch operation can be performed more reliably by the sensor. Can be detected.
  • FIG. 1 Perspective view of the passenger compartment of a vehicle equipped with a seat system Perspective view of the seat body Sectional view in the area where the sensor of the seat body is provided
  • FIG. 1 shows the sound output processing of the seat system which concerns on this invention.
  • a table showing the instrument names and note names assigned to the sensors A table showing user information according to the second embodiment
  • the figure which shows the setting process executed by the control device which concerns on 2nd Embodiment The figure which shows the interlocking method of the seat system which concerns on 3rd Embodiment
  • the seat system 1 is provided in a vehicle M such as an automobile.
  • a pair of left and right front seat main bodies 5A constituting the first row, a pair of left and right mid seat main bodies 5B forming the second row, and a rear seat main body 5C forming the third row And include.
  • the left and right mid-seat main bodies 5B are arranged behind the corresponding front seat main bodies 5A, respectively, and the front seat main body 5A and the mid-seat main body 5B are arranged so as to be arranged side by side in the front-rear direction.
  • the rear seat main body 5C extends to the left and right behind the left and right mid seat main bodies 5B, and serves as a bench seat forming a seating area for two people.
  • Each seat body 5 has a seat cushion 12 provided on the floor 3 of the passenger compartment 2, a seat back 11 connected to the rear portion of the seat cushion 12, and a headrest 10 provided on the upper side of the seat back 11.
  • the seat cushion 12 is a seating portion that supports the seated user from below the buttocks and thighs, and the seating surface 13 is formed on the upper surface thereof.
  • the seat back 11 is a backrest portion that supports the back portion of the seated user from behind.
  • the vehicle M is provided with a front door 15 on the outside of the front seat body 5A and a rear door 16 on the outside of the mid-seat body 5B.
  • Door trims 17 and 18, respectively, are coupled to the inner side surfaces of the front door 15 and the rear door 16.
  • Rear side trims 19 are provided on the wall surfaces defining the vehicle interior 2 on the outside of the rear seat body 5C.
  • An instrument panel 20 is provided in front of the front seat body 5A. The instrument panel 20 is located in front of the front seat body 5A constituting the driver's seat and in front of the front seat body 5A constituting the passenger seat, and is contacted by the user seated in the driver's seat and the user seated in the passenger seat. It is placed in a possible position.
  • the seat system 1 is applied to any or a plurality of seats provided in the vehicle M.
  • the seat system 1 is applied to the front seat main body 5A on the left side (that is, the passenger seat. See FIG. 2; hereinafter, only referred to as the seat main body 5A) will be described in detail.
  • the front-back, up-down, left-right directions will be determined with reference to the user seated on the seat body 5A, and the description will be given.
  • the seat system 1 includes a seat body 5A, a plurality of sensors, an output device, and a control device 70.
  • the sensors are arranged in the seat body 5 and the structure provided around the seat body 5, respectively.
  • Each sensor has a touch area corresponding to the surface of the member on which it is placed.
  • Each sensor detects a user's touch operation on the touch area, or detects a load input of a predetermined value or more to the touch area.
  • the sensor may be a capacitance type sensor that detects a touch operation from the user as a change in capacitance, or may be a membrane switch or the like.
  • each sensor detects a load input of a predetermined value or more, that is, a pressure, to the corresponding touch area.
  • sensors are provided on the headrest 10, the seat back 11, and the seat cushion 12 of the seat body 5, respectively.
  • the sensors provided on the headrest 10 are respectively arranged between the pad member 21 constituting the headrest 10 and the skin material 22 covering the pad member 21.
  • the sensors provided on the seat back 11 are respectively arranged between the pad member 21 constituting the seat back 11 and the skin material 22 covering the pad member 21.
  • the sensors provided on the seat cushion 12 are also arranged between the pad member 21 constituting the seat cushion 12 and the skin material 22 covering the pad member 21.
  • the pad member 21 is formed of a flexible resin material such as urethane foam.
  • the skin material 22 is made of, for example, woven fabric, leather, or synthetic leather.
  • the pad member 21 is configured so that the portion located on the back side of each sensor is less likely to be deformed than the other portions. As a result, each region of the seat body 5 where the sensor is provided is locally hardened.
  • the pad member 21 includes a first pad member 23 located on the back side of each sensor and a second pad member 24 surrounding the first pad member 23.
  • the elastic modulus of the material constituting the first pad member 23 is higher than that of the material constituting the second pad member 24, and the first pad member 23 is less likely to be deformed by the load from the surface than the second pad member 24.
  • the sensor is less likely to move to the back side due to the pressing from the front side to the back side of the seat body 5, as compared with the case where the portion of the pad member 21 located on the back side of the sensor is formed by the second pad member 24. Therefore, the load can be effectively input to the sensor, and the touch operation can be detected more reliably by the sensor.
  • the sensors provided on the seat back 11 are arranged so as to form a group along the upper front surface of the seat back 11. More specifically, the sensors provided on the seat back 11 are arranged side by side on the upper front surface of the seat back 11 so as to form a pair on the left and right.
  • the set of sensors provided on the seat back 11 will be referred to as a back sensor group 101.
  • the back sensor group 101 includes two pairs of left and right sensors arranged one above the other.
  • the sensor located at the upper left is referred to as a sensor 101a
  • the sensor located at the upper right is referred to as 101b
  • the sensor located at the lower left is referred to as a sensor 101c
  • the sensor located at the lower right is referred to as 101d.
  • the touch area of the upper left sensor 101a is set in the upper left part of the front surface of the seat back 11
  • the touch area of the upper right sensor 101b is set in the upper right part of the front surface of the seat back 11.
  • the touch area of the lower left sensor 101c is set in the lower left front of the seat back 11, and the touch area of the lower right sensor 101d is set in the lower right of the front of the seat back 11.
  • the sensors provided on the seat cushion 12 are also arranged so as to form a group along the upper surface of the seat cushion 12. More specifically, the sensors provided on the seat cushion 12 are arranged side by side on the upper surface of the seat cushion 12 so as to form a pair on the left and right.
  • the set of sensors provided on the seat cushion 12 will be referred to as a cushion sensor group 102.
  • the cushion sensor group 102 includes two pairs of left and right sensors arranged in the front-rear direction.
  • the sensor located at the upper left (rear left) is the sensor 102a
  • the sensor located at the upper right (rear right) is 102b
  • the sensor located at the lower left (front left) is the sensor 102c, lower right.
  • Let 102d be the sensor located (front right).
  • the touch area of the sensor 102a on the upper left (rear left) is set on the upper left (rear left) part of the front surface of the seat cushion 12
  • the touch area of the sensor 102b on the upper right (rear right) is the upper right (rear right) part of the front surface of the seat cushion 12. Is set to.
  • the touch area of the lower left (front left) sensor 102c is set in the lower left (front left) part of the front of the seat cushion 12, and the touch area of the sensor 102d in the lower right (front right) is the lower right (front right) part of the front of the seat cushion 12. Is set to.
  • the senor is provided only on the seat body 5A, but the present invention is not limited to this embodiment.
  • the sensor may be provided on the door trims 17 and 18, which are structures provided around the seat body 5, and on the instrument panel 20.
  • the touch areas of the sensors provided on the door trims 17 and 18 are set on the inner side surfaces of the door trims 17 and 18, respectively.
  • the sensors are provided on the seat body 5, the door trims 17, 18 and the instrument panel 20, but the present invention is not limited to this embodiment, and the sensor is provided around the seat body 5. It may be provided in the structure.
  • the sensor may be provided on the rear side trim 19.
  • the touch region 57S of the sensor may be set on the inner surface of the rear side trim 19.
  • the sensor may also be provided on the instrument panel 20.
  • the touch area 58S of the sensor may be set on the inner surface of the vehicle.
  • the sensor may be provided on the roof 40 (ceiling). At this time, the touch area of the sensor may be set on the inner surface of the roof 40.
  • the sensor may be provided on the pillar 60 constituting the window column. At this time, the touch region 61S of the sensor may be set on the inner surface of the window pillar.
  • the sensor may be further provided on the steering wheel 42 or the table 43 provided on the seat back 11.
  • the touch areas 58S, 59S, and 61S may be set at positions that can be touched by a user seated on any of the seat bodies 5.
  • the corresponding ID is assigned to each sensor included in the seat system to distinguish them. As shown in FIG. 4, the IDs may be set so that it can be easily determined which member each corresponding sensor is provided with.
  • the output device includes a speaker 202A provided on the door trim 17 of the left and right front doors 15.
  • the output device may include speakers 202B provided on the door trims 18 of the left and right rear doors 16.
  • the output device may include speakers 202C provided on the left and right rear side trims 19.
  • the speakers 202A (202B, 202C) are coupled to the vehicle outer side surfaces of the corresponding door trims 17 (18, 19), respectively, and are connected to the control device 70 via a predetermined signal line.
  • the speakers 202A (202B, 202C) are devices that output sound toward the inside of the vehicle interior 2, and are controlled by the control device 70.
  • the output device includes the speaker 202, but is not limited to this embodiment, and the output device outputs at least one of sound, light, and vibration based on the signal from the control device 70. It suffices to include one or more devices.
  • the output device is provided on the roof 40 (ceiling) that defines the upper surface of the vehicle interior 2, and a plurality of interior lights 41 that are lights that illuminate the inside of the vehicle interior 2 based on a signal from the control device 70. May include.
  • the interior light 41 is provided above the front of the corresponding seat body 5. More specifically, the output device is provided above the front of the front seat body 5A, the interior light 41A, the interior light 41B provided above the front of the mid seat body 5B, and the front upper part of the rear seat body 5C. It may be any one of the interior lights 41C.
  • the output device may also include a vibration device 45 that is housed inside the seat body 5 and transmits vibrations to the seated user.
  • the vibration device 45 may be provided on either the seat cushion 12 or the seat back 11, and is a known device that transmits vibration to a seated person seated on the corresponding seat body 5 based on a signal from the control device 70. There may be.
  • the control device 70 is an electronic control unit (ECU) composed of a so-called microcomputer, and includes a ROM, a RAM, peripheral circuits, an input / output interface, and the like.
  • ECU electronice control unit
  • the control device 70 is communicably connected to each of the sensors and the output device. When a signal indicating that the pressure is detected is input from the sensor, the control device 70 controls the output device based on the signal to output the corresponding output (sound in the present embodiment).
  • the control device 70 has a determination unit 71, a processing unit 72, a storage unit 73, and an output unit 74 as functional units.
  • the determination unit 71, the processing unit 72, and the output unit 74 are each composed of software executed by the control device 70.
  • the processing performed by the control device 70 will be described with reference to FIGS. 4 and 5.
  • the determination unit 71 determines the sensor in which the touch operation is detected and outputs the ID corresponding to the sensor in which the touch operation is detected to the processing unit 72. ..
  • the storage unit 73 holds a sound table 75 (FIG. 5) in which musical instrument names and sound names corresponding to the IDs of the sensors are recorded. More specifically, the sound table 75 records the ID corresponding to the sensor and the corresponding musical instrument name and sound name. However, the note name here means the pitch of do, re, mi, etc.
  • the musical instrument names corresponding to the sensors are set for each member in which the sensor is provided.
  • the instrument names corresponding to the sensors provided on the seat back 11, that is, the sensors 101a to 101d of the back sensor group 101 of the seat back 11, are set to "piano", respectively.
  • the names of the musical instruments corresponding to the sensors provided on the seat cushion 12, that is, the sensors 102a to 102d belonging to the cushion sensor group 102 are set to "violin", respectively.
  • the names of the musical instruments corresponding to the sensors are determined for each member provided, and each constitutes a group that produces the same musical instrument sound.
  • Musical instrument sounds are set for each group, and musical instruments corresponding to sensors belonging to different groups are set to be different from each other.
  • the note names of the sensors included in each group are set to be different.
  • the sensor 101a constituting the back sensor group 101 is set to the sound of the musical instrument name "piano" with the sound name "do”
  • the sensor 101b is set to the sound of the musical instrument sound "piano" with the sound name "re”.
  • the sound of the musical instrument sound "piano" with the sound name "mi” is set for 101c
  • the sound of the musical instrument sound "piano” with the sound name "fa” is set for the sensor 101d.
  • the sensor 102a constituting the cushion sensor group 102 is set to the sound of the musical instrument name "violin” with the sound name "do", and the sensor 102b is set to the sound of the musical instrument sound “violin” with the sound name "re”.
  • the sensor 102c is set to the sound of the musical instrument sound “violin” with the sound name "mi”, and the sensor 102d is set to the sound of the musical instrument sound "violin” with the sound name "fa”.
  • the storage unit 73 further holds sound data 83 corresponding to each sound name of each musical instrument recorded in the sound table 75.
  • the processing unit 72 When the processing unit 72 acquires the ID of the sensor determined by the determination unit 71, the processing unit 72 refers to the sound table 75 held in the storage unit 73, and acquires the musical instrument name and the sound name corresponding to the ID of the sensor. After that, the processing unit 72 acquires the sound data 83 corresponding to the musical instrument name and the sound name from the storage unit 73, and outputs the acquired sound data 83 to the output unit 74.
  • the output unit 74 converts the input sound data 83 and outputs the sound corresponding to the speaker 202.
  • the determination unit 71 determines that the input signal is from the sensor 101a, and outputs the ID corresponding to the sensor 101a to the processing unit 72.
  • the processing unit 72 refers to the sound table 75 held in the storage unit 73 based on the input ID, and acquires the sound name “do” of the corresponding musical instrument name “piano”. After that, the processing unit 72 outputs the sound data 83 of the musical instrument name “piano” sound name “do” from the storage unit 73 to the output unit 74.
  • the output unit 74 receives the sound data 83 from the processing unit 72, converts the sound data 83, and outputs the sound corresponding to the speaker 202. As a result, a guitar sound with a pitch of "do" is output from the speaker.
  • the piano sound with the pitch of the piano sound "re" is output from the speaker 202.
  • the instrument sound and the note name are set for each sensor, and the user needs to move his / her body in order to make a different sound, so that the user can be encouraged to move his / her body.
  • each member forms a group. It is good that they are arranged so as to.
  • the names of musical instruments corresponding to the sensors are also determined for each member provided, and each group (that is, a group) that produces the same musical instrument sound is formed.
  • a corresponding ID is assigned. The ID may be set so that it can be easily determined which member the corresponding sensor is provided in.
  • the control device 70 acquires the position of the seat on which the user is seated by, for example, a seat sensor provided on the seat body 5, and the user is seated. It is preferable to selectively turn on / off the interior light 41 located above the front of the seat.
  • the interior light 41 can selectively emit light of a plurality of colors, and for example, it is preferable that the interior light 41 includes a multicolor light emitting LED element.
  • the control device 70 may change the color of each sensor in which the touch operation is detected to cause the interior light 41 to emit light. Further, the control device 70 may make the interior light 41 emit light by changing the color for each member provided with the sensor in which the touch operation is detected. That is, the sensors may form a sensor group that outputs the same light color for each member provided.
  • the control device 70 acquires the position of the seat on which the user is seated by, for example, a seat sensor provided on the seat body 5, and the seat on which the user is seated. It is preferable to vibrate the vibration device 45 provided in the above.
  • the vibration device 45 may output vibration of a constant frequency with a predetermined amplitude, and the control device 70 makes at least one of the frequency and the amplitude different for each sensor in which the touch operation is detected from the vibration device 45. Vibration may be output. Further, the frequency and amplitude of the vibration output from the vibration device 45 may be determined for each member of the sensor in which the touch operation is detected. That is, the sensors may form a sensor group that outputs the same vibration frequency and amplitude.
  • the seat system 300 communicates with the biosensor, the input / output terminal 76 communicably connected to the control device 70, the control device 70, and the outside. It differs in that it includes a possible environmental information acquisition device 79. Further, in the second embodiment, the storage unit 73 is input to the user collation table 81 in which the user name and the biometric information of the user are input, the user information table 80 in which the user information is input, and the user information table 80. Further holds music data 82 about music. Further, the present embodiment is different in that the control device 70 executes a game application using the seat system.
  • the biosensor acquires biometric information to identify the user. More specifically, the biometric information acquired by the biosensor acquires information that can identify the user with respect to at least one of the user's fingerprint, iris retina, and face.
  • the biosensor is the fingerprint sensor 77 mounted on the input / output terminal 76 as shown in FIG.
  • the input / output terminal 76 is provided with a touch panel, receives input from the user, and appropriately outputs the input result to the control device 70.
  • the touch panel functions as a display unit 78 for displaying information and also as an input unit for receiving input by contact from the user.
  • the input / output terminal 76 may be a tablet, a car navigation system, or the like, and in the present embodiment, it is a so-called smartphone as shown in FIG.
  • the environmental information acquisition device 79 acquires information related to the seat body 5 or the surrounding environment of the seat body 5. This information means information related to the outdoor temperature and weather when the seat body 5 is provided indoors.
  • the seat body 5 is mounted on the vehicle M, and the environmental information acquisition device 79 includes information on the vehicle speed, information on obstacles approaching the vehicle M, traffic information around the vehicle M, and Acquire at least one of the weather information around the vehicle M.
  • the environmental information acquisition device 79 receives a signal from the artificial satellite via the GPS receiver and acquires the position information of the vehicle M on which the seat system 300 is mounted. After that, the environmental information acquisition device 79 communicates with the outside via the network based on the acquired position information, acquires weather information, traffic information, etc. around the vehicle M, and transmits them to the processing unit 72.
  • the user name, the genre corresponding to the user name, the song name, the tempo, and the musical instrument name are input to the user information table 80.
  • the tempo is input in the user information table 80 as the beat change degree (for example, fast, slow, etc.) set as standard for the song corresponding to the song title.
  • the biometric information acquired by the biometric information sensor and the corresponding user name are input to the user collation table 81 and are stored in the storage unit 73.
  • control device 70 When the control device 70 receives a predetermined input from the input / output terminal 76, the control device 70 instructs the user to input to the touch sensor in time with the music, and executes a game application that urges the user to move his / her body.
  • the control device 70 executes the game application the application execution process is performed based on the flowchart shown in FIG. Hereinafter, the process will be described with reference to FIG. 7.
  • the control device 70 performs the setting process in the first step of the application execution process.
  • the control device 7 acquires user information from the input / output terminal 76 and the biosensor, and sets various information necessary for executing the game.
  • Various information includes a song title, a tempo, and a musical instrument name.
  • the control device 70 executes the game process.
  • the input / output terminal 76 receives an input as to whether or not to start the game.
  • the control device 70 outputs music from the speaker based on the song title and tempo set in the setting process, and starts the game.
  • the control device 70 acquires the timing at which the touch operation is performed by the sensor, and at the same time, the musical instrument name described in the user information table 80 set in the setting process is used based on the method described in the first embodiment. The corresponding output sound is output from the speaker 202.
  • the control device 70 may change the tempo of the music output from the speaker 202 based on the information acquired from the environment information acquisition device 79 during the game processing. For example, the control device 70 slows down the tempo of music when the outside air temperature around the vehicle M is equal to or higher than a predetermined threshold value, and speeds up the tempo of music when the outside air temperature is equal to or lower than a predetermined threshold value. As a result, the amount of exercise of the user can be adjusted according to the outside air temperature. Further, the control device 70 may acquire the vehicle speed from the environmental information acquisition device 79 and change the tempo according to the vehicle speed.
  • the control device 70 may change the volume output from the speaker based on the information acquired from the environment information acquisition device 79 during the game processing. For example, when the control device 70 detects that an obstacle is close by the environmental information acquisition device 79, the output from the speaker may be stopped or the loudness of the sound may be made smaller than a predetermined threshold value. As a result, the user can detect by sound that the vehicle M is close to the obstacle.
  • control device 70 may acquire time information, and when the time zone is nighttime or early morning, the volume generated from the speaker 202 may be reduced so that the volume is considered for passengers. Further, the control device 70 may acquire the vehicle speed from the environmental information acquisition device 79 and make the volume generated from the speaker 202 louder when the vehicle speed is equal to or more than a predetermined value and less than when the vehicle speed is less than a predetermined value. .. As a result, it is possible to prevent the user from becoming difficult to hear the sound due to the noise during the vehicle traveling.
  • the control device 70 executes the result display process.
  • the control device 70 calculates the degree of coincidence with respect to the timing of the touch operation detected by the sensor during the game processing. After that, the control device 70 displays the degree of coincidence on the display unit 78 of the input / output terminal 76.
  • step ST1 the processing unit 72 displays a screen notifying the user to input to the fingerprint sensor 77 on the display unit 78 of the input / output terminal 76, and inputs from the fingerprint sensor 77. Accept.
  • step ST2 is executed.
  • step ST2 the processing unit 72 determines whether or not there is a user name corresponding to the input biometric information in the user collation table 81 held in the storage unit 73, and if the user name can be searched, step ST5 is performed. If the search cannot be performed, step ST3 is executed.
  • step ST3 the processing unit 72 adds the biometric information input in step ST1 to the user information table 80 held in the storage unit 73.
  • step ST4 is executed.
  • step ST4 the processing unit 72 displays an input field for a user's favorite music genre and song name and an input completion button through the display unit 78 of the input / output terminal 76 in order to register user information other than biometric information. Accepts user information other than biometric information from the user.
  • the processing unit 72 displays a selection field on the display unit 78 of the input / output terminal 76 for accepting a selection of whether to make the tempo faster or slower than the tempo suitable for each song.
  • the processing unit 72 may select a musical instrument name suitable for the genre input by the user and display it on the display unit 78 of the input / output terminal 76.
  • the processing unit 72 may display an input field for receiving a change input of the musical instrument from the user on the display unit 78 of the input / output terminal 76.
  • step ST5 the processing unit 72 refers to the user information table 80 and acquires the genre, song name, tempo, and musical instrument name corresponding to the searched user name. After that, the processing unit 72 displays on the display unit 78 of the input / output terminal 76, and then step ST6 is executed.
  • step ST6 the processing unit 72 receives through the display unit 78 whether or not the genre, song name, tempo, and musical instrument name displayed on the display unit 78 of the input / output terminal 76 need to be changed.
  • the processing unit 72 executes step ST7 when it is input that the change is necessary, and ends the setting process when it is input that the change is unnecessary.
  • the processing unit 72 changes and inputs the items of the user's favorite music genre, song name, tempo, and musical instrument name, displays them on the display unit 78 of the input / output terminal 76, and displays the user through the display unit 78. Accepts the change input from and executes step ST8.
  • step ST8 the processing unit 72 displays a change input completion button on the display unit 78 of the input / output terminal 76, and receives an input to the effect that all the change inputs by the user have been completed.
  • the control device 70 completes the setting process when the change input completion button is pressed by the user.
  • the processing unit 72 After the setting process is completed, the processing unit 72 outputs the music data 82 corresponding to the music input to the user information table 80 of the user to the output unit 74.
  • the output unit 74 outputs the input music data 82 from the speaker 202, and the control device 70 executes the game processing.
  • the display unit 78 of the input / output terminal 76 displays a screen instructing the user to touch the fingerprint sensor 77 with a finger.
  • the detected biometric information is output to the processing unit 72 (ST1).
  • the processing unit 72 refers to the user collation table 81 and acquires the user name corresponding to the input biometric information. After that, the processing unit 72 determines whether or not the acquired user name is registered in the user information table 80 (ST2). When the user name is registered, the user information is displayed on the display unit 78 of the input / output terminal 76 (ST5), and the necessity of the change is accepted (ST6). The user confirms the user information displayed on the display unit 78 of the input / output terminal 76, and inputs whether or not the change is necessary.
  • the user information input acceptance screen is displayed on the display unit 78 of the input / output terminal 76, and the accepted information and the biometric information are displayed in the user information table. 80 and the user collation table 81 are added (ST3, ST4).
  • the user When the user inputs that the user information displayed on the display unit 78 of the input / output terminal 76 needs to be changed, the user inputs the change of the user information to the display unit 78 of the input / output terminal 76 (ST7). ..
  • the change input of the user information When the change input of the user information is completed, the user presses the change input complete button displayed on the display unit 78 of the input / output terminal 76 (ST8). In this way, the music, tempo, and instrument name to be output are set, and the setting process is completed.
  • the user can use the user information corresponding to the input biometric information by inputting the biometric information.
  • This user information is information registered in advance in the control device 70, and is information related to music output from the speaker during game processing, and can be appropriately changed by a user input operation. As a result, the user can play the game according to the music that suits the user's taste without newly inputting the user information each time.
  • the control device 70 outputs music from the speaker 202 and instructs the user to input the music to the touch sensor in time with the music. This can encourage the user to move their body. Further, during the game processing, the control device 70 acquires information about the environment surrounding the seat system 300 from the environment information acquisition device 79. The control device 70 changes the tempo and volume of the music output by the speaker 202 based on the acquired information. As a result, the user can enjoy the game using the seat system in a more comfortable environment.
  • the output from the output device is linked with the output from the output device of the other seat system B, as compared with the seat systems 1 and 300 according to the first embodiment and the second embodiment.
  • the seat systems A and B are different in that they are configured to be able to communicate with each other through the input / output terminal 76. Since the other configurations of the third embodiment are the same as those of the first embodiment and the second embodiment, the description thereof will be omitted.
  • the input / output terminal 76A in the present embodiment is required to be communicably connected not only to the control device 70 but also to the input / output terminal 76B of another seat system B.
  • the processing unit 72 displays the input field of the ID of another sheet system on the display unit 78A of the input / output terminal 76A together with the start button.
  • the input / output terminal 76A starts the process necessary for executing the interlocking between the seat systems shown in FIG.
  • the input / output terminal 76A of the seat system A transmits an interlocking permission request to the input / output terminal 76B of another seat system B having the input ID.
  • the input / output terminal 76B of the seat system B notifies the user that the interlocking permission request has been received from the other seat system A.
  • the notification on the input / output terminal 76 including the notification may be performed via the display on the display unit 78 of the input / output terminal 76 or the sound output from the speaker 202 of the input / output terminal 76.
  • the input / output terminal 76B of the seat system B transmits the interlocking permission to the input / output terminal 76A of the seat system A.
  • the input / output terminal 76A of the seat system A notifies the user that the interlocking permission has been received from the other seat system B.
  • the input / output terminal 76B of the seat system B transmits the interlocking disapproval to the input / output terminal 76A of the seat system A.
  • the input / output terminal 76A of the seat system A may notify the user that the interlocking disapproval has been received from the seat system B.
  • the input / output terminal 76A of the seat system A refers to the song title entered in the user information table 80 of the user using the seat system A after notifying that the interlocking permission has been received.
  • the input / output terminal 76A of the seat system A transmits a permission request (music permission request) for outputting the music of the referenced song title during the game processing to the input / output terminal 76B of the seat system B.
  • the input / output terminal 76A of the seat system A notifies the user that the permission request (music permission request) for the music output during the game processing has been received from the other seat system A.
  • the input / output terminal 76B of the seat system B When the input / output terminal 76B of the seat system B receives the permission input for the music, the input / output terminal 76B of the seat system B transmits the permission (music permission) for the music to the input / output terminal 76A of the seat system A. ..
  • the input / output terminal 76A of the seat system A that has received the permission (music permission) for the music output during the game processing notifies the user that the permission for the music has been received from the other seat system B.
  • the input / output terminal 76A of the seat system A When the input / output terminal 76B of the seat system B transmits a disapproval of the selected music, the input / output terminal 76A of the seat system A notifies the user who received the disapproval of the music. At this time, the input / output terminal 76A of the sheet system A may instruct the user through the display unit 78A to select a song name different from the previously selected song name. At this time, the input / output terminal 76A of the sheet system A may refer to the user information table 80 held by the storage unit 73 and display all the song titles input to the user information table 80 on the display unit 78A.
  • the input / output terminal 76A of the sheet system A receives a notification that the notification of permission (music permission) for music has been received, and then receives a tempo selection input from the user through the display unit 78A regarding the tempo of the music to be output.
  • the input / output terminal 76A of the sheet system A transmits the input result of the tempo selection to the input / output terminal 76B of the sheet system B.
  • the input / output terminal 76B of the seat system B notifies the user that the input / output terminal 76A of the other seat system A has input the tempo selection of music.
  • the input / output terminal 76B of the sheet system B accepts a tempo selection input from the user through the display unit 78B regarding the tempo of the music to be output.
  • the input / output terminal 76B of the sheet system B transmits the input result of the tempo selection to the input / output terminal 76A of the sheet system A.
  • the input / output terminal 76A of the seat system A notifies the user that the input / output terminal 76B of the other seat system B has input the tempo selection of music.
  • the input / output terminal 76A of the seat system A transmits a permission request for starting the game processing to the input / output terminal 76B of the seat system B.
  • the input / output terminal 76B of the seat system B notifies the user that the game processing start permission request has been received from the input / output terminal 76A of the other seat system A.
  • the input / output terminal 76B of the seat system B receives an input from the user through the display unit 78B regarding the game processing start permission.
  • the input / output terminal 76B of the seat system B transmits the game processing start permission to the input / output terminal 76A of the seat system A. In response to this, the game processing is started in the seat system A and the seat system B.
  • the user of the seat system A Before music is started in the setting process required for executing the game application, the user of the seat system A inputs the ID (sheet_B) of another seat system B desired to be linked to the input / output terminal 76A.
  • the user of the seat system B recognizes that the interlocking permission request has been made from another seat system A by the notification of the input / output terminal 76B.
  • the user of the seat system B inputs the interlocking permission or the interlocking disapproval to the input / output terminal 76B.
  • the user of the seat system B When the user of the seat system B inputs the interlocking permission, the user of the seat system A receives a notification that the interlocking permission has been input by the user of the seat system B through the input / output terminal 76A. After that, the user of the seat system B receives a notification of a permission request (music permission request) for the song title of the output music from the seat system A via the input / output terminal 76A. The user of the sheet system B inputs permission or disapproval for the music title to the input / output terminal 76B.
  • a permission request music permission request
  • the user of the seat system A When the user of the seat system B inputs the interlocking disapproval, the user of the seat system A receives a notification that the interlocking disapproval has been input by the user of the seat system B through the input / output terminal 76A. As a result, the user of the seat system A recognizes that the interlocking of the outputs of the seat system A and the seat system B is not executed.
  • the user of the seat system B When the user of the seat system B inputs the permission (music permission) for the music output, the user of the seat system A receives the permission (music permission) for the music output by the user of the seat system B through the input / output terminal 76A. You will be notified that it has been entered. In response to this, the user of the seat system A selects the tempo for the output music and inputs it to the input / output terminal 76A (tempo selection). The user of the seat system B receives a notification through the input / output terminal 76B that the user of the seat system A has input the tempo. In response to this, the user of the seat system B also inputs the tempo of the output music to the input / output terminal 76B (tempo selection).
  • the user of the seat system A When the user of the seat system B inputs the disapproval of the output music, the user of the seat system A receives a notification that the disapproval of the music output from the input / output terminal 76A is input.
  • the user of the sheet system A selects another song name from the song names displayed on the display unit 78A of the input / output terminal 76A, and inputs the song name to the input / output terminal 76A again.
  • the user of the seat system B selects the tempo of the music and inputs it to the input / output terminal 76B
  • the user of the seat system A receives a notification that the tempo of the music has been input by the user of the seat system B through the input / output terminal 76A. ..
  • the user of the seat system A inputs the game processing start request to the input / output terminal 76A.
  • the user of the seat system B receives a notification that the game processing start permission request has been input through the input / output terminal 76B.
  • the user of the seat system B inputs the game processing start permission to the input / output terminal 76B.
  • the control device 70 executes the result display process.
  • the control device 70 simultaneously displays both the determination results of the sheet systems A and B in which the outputs from the output devices are linked to each other on the display unit 78 of the respective input / output terminals 76.
  • the control device 70 may display the determination result after waiting for the game processing of all the seat systems to be interlocked to be completed. As a result, the results of the users of the seat systems A and B playing the game with the same music can be confirmed with each other.
  • the seat system in which the output from the output device is linked is only the seat system A and the seat system B, but the present invention is not limited to this.
  • the present invention is not limited to the above embodiment and can be widely modified and implemented.
  • the sound, light, and vibration output from the output device in response to the touch operation on the sensor may be output in combination with each other. This makes it possible to increase the repertoire of outputs from the output device.
  • control device 70 detects an abnormality in the sensor, the output of the output device may be limited. This makes it possible to prevent the sensor from malfunctioning.
  • the output device is a speaker
  • the speakers are provided on the door trim 17 of the left and right front doors 15 and on the left and right rear side trims 19, but the present invention is not limited to this.
  • the speaker may be arranged in a member provided with a corresponding sensor group that outputs a sound in response to a touch operation.
  • the sensor group that performs the touch operation and the speaker that outputs the sound can be arranged on the same member, and the sense of presence in the use of the seat system can be enhanced.
  • the seat system 300 may further include a thermometer that is communicably connected to the control device 70 and measures the user's body temperature and a pulse rate monitor that measures the pulse.
  • the control device 70 may adjust the sound output from the speaker by acquiring information on the body temperature and pulse rate of the user who uses the seat system. For example, when the user's body temperature or pulse rate is equal to or higher than the threshold value, it is preferable to output sounds or music smaller than the threshold value. This makes it possible to output from the speaker according to the physical condition of the user.
  • the speaker of the seat system B interlocks with the same sound as the sound output from the speaker of the seat system A. It may be output.
  • control device 70 may be able to change the response time from the input of the touch operation to the generation of the sound.
  • each control device 70 sets the response times to be different from each other, so that each user can make a time difference in the sound generated by his / her own touch operation. Can be identified by.
  • the seat systems cooperate to generate sound from the speaker at the same time, and each user is instructed to input a touch operation at the same time.
  • the control device 70 may acquire the response time. After that, the control device 70 acquires the difference in response time by communicating with each other, corrects the timing of the touch operation so as to compensate for the difference in response time in the result display processing, and matches with the music. Should be calculated. This makes it possible to perform scoring according to the user's age, gender, and physical characteristics.
  • the plurality of seat systems generate sounds from the speakers, and each user is instructed to input a touch operation, so that each control device 70 receives a load at the time of pressing during the touch operation of each user. Pressing load) may be acquired.
  • the control device 70 may execute the game process by changing a predetermined value of the pressing load required for detecting the sensor based on the acquired pressing load. As a result, the game can be enjoyed according to the user's age, gender, and physical characteristics.
  • the seat system generates a sound from the speaker and instructs the user to input a touch operation to the sensors provided on a plurality of different members, so that the control device 70 presses the user during the touch operation.
  • the load at the time may be acquired.
  • the control device 70 may execute the game process by changing a predetermined value of the pressing load required for detecting the sensors provided on different members based on the acquired pressing load.
  • Seat system according to the first embodiment 5 Seat body 5A: Front seat body (front seat body) 5B: Mid-seat body (rear seat body) 10: Headrest 11: Seat back 12: Seat cushion 15: Front door 16: Rear door 21: Pad member 22: Skin material 23: First pad member 24: Second pad member 41: Interior light 45: Vibration device 70: Control device 72: Processing unit 73: Storage unit 74: Output unit 75: Sound table 76: Input / output terminal 77: Fingerprint sensor 78: Display unit 79: Environmental information acquisition device 80: User information table 81: User verification table 82: Music data 83: Sound data 101 : Back sensor group 102: Seat sensor group 202: Speaker 300: Seat system according to the second embodiment

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Transportation (AREA)
  • Human Computer Interaction (AREA)
  • Seats For Vehicles (AREA)

Abstract

【課題】ユーザの身体の動きに合わせて、照明等を含むユーザの周辺環境を変更することのできるシートシステムを提供する。 【解決手段】シートシステム(1)であって、ユーザが着座可能なシート本体(5)と、シート本体(5)又はシート本体(5)の周囲に配置された構造体に設けられ、シート本体(5)に着座したユーザによるタッチ操作を検出する複数のセンサと、音、光、及び振動の少なくとも1つの出力を行う出力装置と、センサがタッチ操作を検出したときに、対応する所定の出力を出力装置から発生するよう出力装置を制御する制御装置(70)とを有する構成とする。

Description

シートシステム
 本開示は、着座可能なシートを含むシートシステムに関する。
 自律走行が可能な自動運転車では、自律走行時に運転者が運転操作を行うことを要しないため、運転者の身体が自由になる時間がもたらされる。そのため、運転者により快適な環境を提供することのできるシートや、その周辺環境の制御システム(以下、シートシステム)が開発されている。
 車両に設けられるシートには、着座者であるユーザを退屈させない、また、ユーザの運動不足を解消させる等の付加価値を有するシートが求められるようになっている。このような付加価値をシートに付与させるべく、身体を動かすようにユーザに促すシートシステムが開発されている(例えば、特許文献1)。
 特許文献1のシートシステムは、ユーザが着座可能なシート本体と、ユーザの動きを検出するセンサと、ゲームアプリケーションが実行可能なアプリケーション端末とを含む。ゲームアプリケーションが開始されると、アプリケーション端末には、合図やキャラクタが表示され、ユーザはその合図やキャラクタの動きに合わせて身体を動かすように求められる。ユーザが身体を動かすと、その身体の動きはセンサによって検知され、合図やキャラクタの動きとユーザの身体の動きとの合致度がアプリケーション端末の画面に表示される。
特開2020-175808号公報
 特許文献1に記載のシートシステムでは、ユーザは自らが行った動作と合図やキャラクタの動きとの合致度をアプリケーション端末の表示によってのみ知ることができる。そのため、ユーザは、ゲームアプリケーションが実行されている間、アプリケーション端末を注意深く見る必要があり、身体を自由に動かすことが難しい。
 エンターテインメント性を高めるため、ユーザの身体の動きに合わせて、照明等のユーザの周辺環境を変更し、その合致度をユーザにより強く通知することが考えられる。しかしながら、特許文献1に記載されたシートシステムでは、ユーザへの通知はアプリケーション端末の画面でのみ行われるため、ユーザへの通知手段が限定されるという問題があった。
 本発明は、以上の背景を鑑み、ユーザの身体の動きに合わせて、照明等を含むユーザの周辺環境を変更することのできるシートシステムを提供することを課題とする。
 上記課題を解決するために、シートシステム(1、300、A、B)であって、ユーザが着座可能なシート本体(5)と、前記シート本体(5)又は前記シート本体(5)の周囲に配置された構造体に設けられ、前記シート本体(5)に着座した前記ユーザによるタッチ操作を検出する複数のセンサと、音、光、及び振動の少なくとも1つの出力を行う出力装置と、前記センサがタッチ操作を検出したときに、対応する所定の出力を前記出力装置から発生するよう前記出力装置を制御する制御装置(70)とを有することを特徴とする。
 この構成によれば、ユーザの身体の動きに合わせて、出力装置から光、音、及び振動の少なくとも一つが出力されるため、ユーザの周辺環境を変更することができる。
 また、上記の態様において、前記出力装置はスピーカ(202)を含み、前記所定の出力が、所定の音高の音となるよう構成されているとよい。
 この構成によれば、タッチ操作に応じた音高の音が出力されるため、ユーザにより身体を動かすように促すことが可能となる。
 また、上記の態様において前記センサが、前記シートシステム(1、300、A、B)を構成する部材から選ばれた少なくとも2つの部材のそれぞれに配置されたセンサ群をなし、前記センサ群のそれぞれに異なる楽器音が割り当てられているとよい。
 この構成によれば、タッチ操作に応じた楽器音が出力されるため、ユーザがタッチ操作を行うことにより、簡易に様々な楽器を演奏しているような気分を味わうことができる。
 また、上記の態様において、前記シート本体(5)は、前記ユーザが着座するシートクッション(12)と、前記シートクッション(12)に接続され、前記ユーザの背中の後方に配置されたシートバック(11)とを含み、前記センサの少なくとも1つが、前記シートクッション(12)の上面、前記シートバック(11)の前面、前席シート本体のシートバック(11)の背面、アームレスト、オットマン、ヘッドレスト(10)、車室(2)の床面を画定するフロア(3)、ステアリングホイール(42)、ドア(15、16)、インストルメントパネル(20)、ピラー(60)または備え付けのテーブル(43)を含む前記部材のいずれか1つに設けられているとよい。
 この構成によれば、タッチ操作を行うセンサの数を増やすことができ、シートシステムの利用における自由度が増す。
 また、上記の態様において、前記シートシステム(1、300、A、B)は車両(M)に搭載されており、前記車両(M)は前記制御装置(70)と通信可能に接続された環境情報取得装置(79)を含み、前記制御装置(70)は、前記環境情報取得装置(79)から前記車両(M)を取り巻く環境に係る少なくとも1つの情報を取得し、前記取得した前記情報に基づいて前記出力装置の前記出力を変化させるよう構成されている。
 この構成によれば、センサからシートシステムが搭載された車両を取り巻く環境に関する情報を取得することによって、シートシステム利用時の車両の安全性を高めたり、ユーザの身体的負担を軽減したりすることが可能となり、シートシステムの利用を快適にすることができる。
 また、上記の態様において、前記シートシステムは(1、300、A、B)、前記制御装置(70)と通信可能に接続され、前記ユーザを照合するための生体センサと、前記制御装置(70)と通信可能に接続され、前記ユーザからの入力を受け付ける入出力端末(76)とを含み、前記制御装置(70)は、前記ユーザに関するユーザ情報を記憶可能であり、前記ユーザによる前記入出力端末(76)への前記入力または前記生体センサからの生体情報、及び前記制御装置(70)に予め記憶された前記ユーザに関する前記ユーザ情報に基づいて、前記シートシステム(1、300、A、B)を使用する前記ユーザの特定を実行した後で、前記特定が実行された前記ユーザによる前記入出力端末(76)への前記入力または前記制御装置(70)にあらかじめ記憶された前記ユーザに関する前記ユーザ情報に基づいて、前記スピーカ(202)からの前記出力を行うよう構成されているとよい。
 この構成によれば、ユーザの好みに合った音楽を選択することが可能となり、シートシステムの利用をより快適にすることができる。
 また、上記の態様において、前記シートシステム(1、300、A、B)は前記制御装置(70)と通信可能に接続され、前記ユーザからの入力を受け付ける入出力端末(76)とを含み、前記制御装置(70)は前記出力装置からの前記出力を、他のシートシステム(1、300、A、B)の前記出力装置からの前記出力と連動させるべく、他の前記制御装置(70)と通信可能に構成されているとよい。
 この構成によれば、他のシートシステムを利用している他のユーザと一緒にシートシステムを利用したゲームを楽しむことができる。
 また、上記の態様において、前記センサが設けられた領域のそれぞれが局部的に硬質にされているとよい。
 この構成によればセンサに効果的に荷重入力を行うことができるため、センサによってより確実にタッチ操作を検出することができる。
 上記課題を解決するために、シートシステムであって、ユーザが着座可能なシート本体と、シート本体又はシート本体の周囲に配置された構造体に設けられ、シート本体に着座したユーザによるタッチ操作を検出する複数のセンサと、音、光、及び振動の少なくとも1つの出力を行う出力装置と、センサがタッチ操作を検出したときに、対応する所定の出力を出力装置から発生するよう出力装置を制御する制御装置とを有する構成によれば、ユーザの身体の動きに合わせて、出力装置から光、音、振動の少なくとも一つが出力されるため、ユーザの周辺環境を変更することができる。
 また、上記の態様において、出力装置はスピーカを含み、所定の出力が、所定の音高の音となる構成によれば、ユーザのタッチ操作に応じた音高の音が出力されるため、ユーザにより身体を動かすように促すことが可能となる。
 また、上記の態様においてセンサが、シートシステムを構成する部材から選ばれた少なくとも2つの部材のそれぞれに配置されたセンサ群をなし、センサ群のそれぞれに異なる楽器音が割り当てられている構成によれば、タッチ操作に応じた楽器音が出力されるため、ユーザがタッチ操作を行うことにより、簡易に様々な楽器を演奏しているような気分を味わうことができる。
 また、上記の態様において、シート本体は、ユーザが着座するシートクッションと、シートクッションに接続され、ユーザの背中の後方に配置されたシートバックとを含み、センサの少なくとも1つが、シートクッションの上面、シートバックの前面、前席シート本体のシートバックの背面、アームレスト、オットマン、ヘッドレスト、車室の床面を画定するフロア、ステアリングホイール、ドア、インストルメントパネル、ピラーまたは備え付けのテーブルを含む前記部材のいずれか1つに設けられている構成によれば、タッチ操作を行うセンサの数を増やすことができ、シートシステムの利用における自由度が増す。
 また、上記の態様において、シートシステムは車両に搭載されており、車両は制御装置と通信可能に接続された環境情報取得装置を含み、制御装置は、環境情報取得装置から車両を取り巻く環境に係る少なくとも1つの情報を取得し、取得した情報に基づいて出力装置の出力を変化させる構成によれば、センサからシートシステムが搭載された車両を取り巻く環境に関する情報を取得することによって、シートシステム利用時の車両の安全性を高めたり、ユーザの身体的負担を軽減したりすることが可能となる。これにより、シートシステムの利用を快適にすることができる。
 また、上記の態様において、シートシステムは、制御装置と通信可能に接続され、ユーザを照合するための生体センサと、制御装置と通信可能に接続され、ユーザからの入力を受け付ける入出力端末とを含み、制御装置は、ユーザに関するユーザ情報を記憶可能であり、ユーザによる入出力端末への入力または生体センサからの生体情報、及び制御装置に予め記憶されたユーザに関するユーザ情報に基づいて、シートシステムを使用するユーザの特定を実行した後で、特定が実行されたユーザによる入出力端末への入力または制御装置にあらかじめ記憶されたユーザに関するユーザ情報に基づいて、スピーカからの出力を行う構成によれば、ユーザの好みに合った音楽を選択することが可能となり、シートシステムの利用をより快適にすることができる。
  また、上記の態様において、シートシステムは制御装置と通信可能に接続され、ユーザからの入力を受け付ける入出力端末とを含み、制御装置は前記出力装置からの出力を、他のシートシステムの出力装置からの出力と連動させるべく、他の制御装置と通信可能でとなっている構成によれば、他のシートシステムを利用している他のユーザと一緒にシートシステムを利用したゲームを楽しむことができる。
 また、上記の態様において、センサが設けられた領域のそれぞれが局部的に硬質にされている構成によれば、センサに効果的に荷重入力を行うことができるため、センサによってより確実にタッチ操作を検出することができる。
シートシステムを搭載した車両の車室の斜視図 シート本体の斜視図 シート本体のセンサが設けられた領域における断面図 本発明に係るシートシステムの音出力処理を示す図 センサに割り当てられた楽器名と音名を示すテーブル 第2実施形態に係るユーザ情報を示すテーブル 第2実施形態に係る制御装置がゲームアプリケーションを実行する手順を示す図 第2実施形態に係る制御装置が実行する設定処理を示す図 第3実施形態に係るシートシステムの連動方法を示す図
 以下、図面を参照して、本発明に係るシートシステム1の実施形態を説明する。
<<第1実施形態>>
 図1に示すように、シートシステム1は自動車等の車両Mに設けられる。本実施形態の車両Mには、1列目を構成する左右一組のフロントシート本体5Aと、2列目を構成する左右一組のミッドシート本体5Bと、3列目を構成するリアシート本体5Cとを含む。左右のミッドシート本体5Bはそれぞれ、対応するフロントシート本体5Aの後方に配置され、フロントシート本体5Aとミッドシート本体5Bとは前後に並ぶように配置されている。本実施形態では、リアシート本体5Cは左右のミッドシート本体5Bの後方において左右に延在し、2人分の着座領域を構成するベンチシートとなっている。
 各シート本体5は、車室2のフロア3に設けられたシートクッション12と、シートクッション12の後部に結合されたシートバック11と、シートバック11の上側に設けられたヘッドレスト10とを有する。シートクッション12は着座したユーザを臀部及び大腿部を下方から支持する着席部であり、その上面に着座面13を構成している。シートバック11は着座したユーザの背部を後方から支持する背もたれ部である。
 図1に示すように、車両Mにはフロントシート本体5Aの車外側にフロントドア15が設けられ、ミッドシート本体5Bの車外側にリアドア16が設けられている。フロントドア15、及びリアドア16の車内側の側面にはそれぞれドアトリム17、18が結合されている。リアシート本体5Cの車外側において、車室2を画定する壁面にはそれぞれリアサイドトリム19が設けられている。また、フロントシート本体5Aの前方正面には、インストルメントパネル20が設けられている。インストルメントパネル20は運転席を構成するフロントシート本体5Aの前方、且つ助手席を構成するフロントシート本体5Aの前方に位置し、運転席に着座したユーザ、及び助手席に着座したユーザそれぞれから接触可能な位置に配置されている。
 シートシステム1は、車両Mに設けられたいずれか、又は、複数のシートに適用される。以下、シートシステム1が左側のフロントシート本体5A(すなわち助手席。図2参照。以下、シート本体5Aとのみ記載する)に適用された例について、詳細に説明する。以下、シート本体5Aに着座したユーザを基準として、前後上下左右の各方向を定めて、説明を行う。
 図1に示すように、シートシステム1は、シート本体5Aと、複数のセンサと、出力装置と、制御装置70とを含む。
 センサはシート本体5、及び、シート本体5の周辺に設けられた構造体にそれぞれ配置されている。センサにはそれぞれ自らが配置された部材の表面に対応するタッチ領域が設定されている。センサはそれぞれそのタッチ領域へのユーザのタッチ操作を検出するか、又は、そのタッチ領域への所定値以上の荷重入力を検出する。センサは、ユーザからのタッチ操作を静電容量の変化として検出する静電容量型のものであってよく、また、メンブレンスイッチ等であってもよい。本実施形態では、センサはそれぞれ対応するタッチ領域への所定値以上の荷重入力、すなわち押圧を検出する。
 図2に示すように、センサはシート本体5のヘッドレスト10、シートバック11、及びシートクッション12にそれぞれ設けられている。ヘッドレスト10に設けられたセンサはそれぞれ、ヘッドレスト10を構成するパッド部材21と、パッド部材21を覆う表皮材22との間に配置されている。シートバック11に設けられたセンサはそれぞれ、シートバック11を構成するパッド部材21と、パッド部材21を覆う表皮材22との間に配置されている。シートクッション12に設けられたセンサもそれぞれ、シートクッション12を構成するパッド部材21と、パッド部材21を覆う表皮材22との間に配置されている。
 パッド部材21は、例えば発泡ウレタン等の可撓性を有する樹脂材料から形成されている。表皮材22は、例えば織布や皮革、合成皮革から形成されている。
 図3に示すように、パッド部材21は各センサの裏側に位置する部分において他の部分よりも変形し難くなるように構成されている。これにより、シート本体5のセンサが設けられた領域のそれぞれが局部的に硬質にされている。
 本実施形態では、図3に示すように、パッド部材21は各センサの裏側に位置する第1パッド部材23と、第1パッド部材23を取り囲む第2パッド部材24とを含む。第1パッド部材23を構成する材料の弾性係数は第2パッド部材24を構成する材料よりも高く、第1パッド部材23は第2パッド部材24に比べて表面からの加重によって変形し難い。これにより、パッド部材21のセンサの裏側に位置する部分が第2パッド部材24によって構成されている場合に比べて、シート本体5の表側から裏側に向かう押圧によってセンサが裏側に移動し難くなる。よって、センサに効果的に荷重入力を行うことができ、センサによってより確実にタッチ操作を検出することができる。
 シートバック11に設けられたセンサは、シートバック11の上部前面に沿って群をなすように配置されている。より具体的には、シートバック11に設けられたセンサは、シートバック11の上部前面において、左右に対をなすように上下に並んで配置されている。以下、シートバック11に設けられたセンサの集合を、バックセンサ群101と記載する。
 本実施形態では、バックセンサ群101は、上下に配置された左右2対のセンサを含む。以下、図2に示すように、左上に位置するセンサをセンサ101a、右上に位置するセンサを101bとし、左下に位置するセンサをセンサ101c、右下に位置するセンサを101dとする。左上のセンサ101aのタッチ領域はシートバック11の前面左上部に設定され、右上のセンサ101bのタッチ領域はシートバック11の前面右上部に設定されている。左下のセンサ101cのタッチ領域はシートバック11の前面左下部に設定され、右下のセンサ101dのタッチ領域はシートバック11の前面右下部に設定されている。
 シートクッション12に設けられたセンサもまた、シートクッション12の上面に沿って群をなすように配置されている。より具体的には、シートクッション12に設けられたセンサは、シートクッション12の上面において、左右に対をなすように前後に並んで配置されている。以下、シートクッション12に設けられたセンサの集合を、クッションセンサ群102と記載する。
 本実施形態では、クッションセンサ群102は、前後に配置された左右2対のセンサを含む。以下、図2に示すように、左上(左後部)に位置するセンサをセンサ102a、右上(右後部)に位置するセンサを102bとし、左下(左前部)に位置するセンサをセンサ102c、右下(右前部)に位置するセンサを102dとする。左上(左後部)のセンサ102aのタッチ領域はシートクッション12の前面左上(左後)部に設定され、右上(右後部)のセンサ102bのタッチ領域はシートクッション12の前面右上(右後)部に設定されている。左下(左前部)のセンサ102cのタッチ領域はシートクッション12の前面左下(左前)部に設定され、右下(右前部)のセンサ102dのタッチ領域はシートクッション12の前面右下(右前)部に設定されている。
 本実施形態では、センサはシート本体5Aにのみ設けられているが、この態様には限定されない。例えば、センサは、シート本体5の周辺に設けられた構造体であるドアトリム17、18と、インストルメントパネル20とに設けられていてもよい。ドアトリム17、18に設けられたセンサのタッチ領域はそれぞれ、ドアトリム17、18それぞれの車内側の側面に設定されている。
 本実施形態では、センサはシート本体5、ドアトリム17、18及びインストルメントパネル20に設けられていたが、この態様には限定されず、センサは、シート本体5の周辺に設けられたその他のいかなる構造体に設けられていてもよい。例えば、図1に示すように、センサはリアサイドトリム19に設けられてもよい。このとき、センサのタッチ領域57Sはリアサイドトリム19の車内側の面に設定されるとよい。センサはまたインストルメントパネル20に設けられてもよい。このとき、センサのタッチ領域58Sは車内側の面に設定されるとよい。センサは、ルーフ40(天井)に設けられていてもよい。このとき、センサのタッチ領域は、ルーフ40の車内側の面に設定されるとよい。また、センサは窓柱を構成するピラー60に設けられてもよい。このとき、センサのタッチ領域61Sは窓柱の車内側の面に設定されているとよい。
 センサは更に、ステアリングホイール42、又は、シートバック11に備え付けられたテーブル43に設けられていてもよい。そのとき、タッチ領域58S、59S、61Sはそれぞれ、いずれかのシート本体5に着座したユーザから接触(タッチ)可能な位置に設定されているとよい。
 シートシステムに含まれるセンサにはそれぞれを区別するため、対応するIDが付与されている。図4に示すように、IDはそれぞれ対応するセンサがどの部材に設けられているかを容易に判別できるよう設定されているとよい。
 出力装置は左右のフロントドア15のドアトリム17に設けられたスピーカ202Aを含む。但し、この態様には限定されず、出力装置は左右のリアドア16のドアトリム18に設けられたスピーカ202Bを含んでいてもよい。また、出力装置は左右のリアサイドトリム19に設けられたスピーカ202Cを含んでいてもよい。スピーカ202A(202B、202C)はそれぞれ対応するドアトリム17(18、19)の車外側の側面に結合され、所定の信号線を介して、制御装置70に接続されている。スピーカ202A(202B、202C)は車室2の内部に向けて音を出力する装置であって、制御装置70によって制御される。
 本実施形態では、出力装置はスピーカ202を含んでいたが、この態様には限定されず、出力装置は制御装置70からの信号に基づいて、音、光、及び振動の少なくとも一つの出力を行うデバイスを1以上含んでいればよい。
 より具体的には、出力装置は車室2の上面を画定するルーフ40(天井)に設けられ、制御装置70からの信号に基づいて車室2の内部を照らす照明である複数の室内灯41を含んでいてもよい。このとき、室内灯41は対応するシート本体5の前上方に設けられていることが好ましい。より具体的には、出力装置は、フロントシート本体5Aの前上方に設けられた室内灯41A、ミッドシート本体5Bの前上方に設けられた室内灯41B、リアシート本体5Cの前上方に設けられた室内灯41Cのいずれか1つであってもよい。
 出力装置はまた、シート本体5の内部に収容され、着座したユーザに振動を伝えるための振動デバイス45を含んでいてもよい。振動デバイス45は、シートクッション12やシートバック11のいずれに設けられていてもよく、制御装置70からの信号に基づいて、対応するシート本体5に着座する着座者に振動を伝える公知のデバイスであってもよい。
 制御装置70はいわゆるマイクロコンピュータによって構成された電子制御ユニット(ECU)であって、ROM、RAM、周辺回路、入出力インタフェース等を備える。
 制御装置70は、センサそれぞれと、出力装置とに通信可能に接続されている。制御装置70は、センサから押圧が検出された旨の信号が入力されると、その信号に基づいて出力装置を制御し対応する出力(本実施形態では、音)を行わせる。このような制御を行うため、制御装置70は、機能部として、判定部71、処理部72、記憶部73及び出力部74を有する。判定部71、処理部72、及び出力部74はそれぞれ、制御装置70によって実行されるソフトウエアによって構成されている。以下、制御装置70が行う処理について、図4及び図5を参照して説明する。
 判定部71は、タッチ操作が検出された旨の信号が入力されると、タッチ操作が検出されたセンサを判別して、タッチ操作が検出されたセンサに対応するIDを処理部72に出力する。
 記憶部73は、センサのIDそれぞれに対応する楽器名と、音名とが記録された音テーブル75(図5)を保持している。より具体的には、音テーブル75には、センサに対応するIDと、対応する楽器名及び音名とが記録されている。但し、ここでいう音名とは、ド、レ、ミ、等の音高を意味している。
 図5に示すように、本実施形態では、センサに対応する楽器名は、それぞれセンサが設けられた部材ごとに設定されている。例えば、シートバック11に設けられたセンサ、すなわち、シートバック11のバックセンサ群101のセンサ101a~101dに対応する楽器名はそれぞれ「ピアノ」に設定されている。また、シートクッション12に設けられたセンサ、すなわち、クッションセンサ群102に属するセンサ102a~102dに対応する楽器名はそれぞれ「ヴァイオリン」に設定されている。
 このように、センサに対応する楽器名はそれぞれ設けられる部材ごとに定められ、それぞれ同じ楽器音を出す群を構成する。楽器音はそれぞれ群ごとに定められ、異なる群に属するセンサに対応する楽器は互いに異なるように設定されている。また、各群に含まれるセンサの音名はそれぞれ異なるように設定されている。例えば、バックセンサ群101を構成するセンサ101aは楽器名「ピアノ」の音名「ド」の音が設定され、センサ101bは楽器音「ピアノ」の音名「レ」の音が設定され、センサ101cは楽器音「ピアノ」の音名「ミ」の音が設定され、センサ101dは楽器音「ピアノ」の音名「ファ」の音が設定されている。
 同様に、クッションセンサ群102を構成するセンサ102aは楽器名「ヴァイオリン」の音名「ド」の音が設定され、センサ102bは楽器音「ヴァイオリン」の音名「レ」の音が設定され、センサ102cは楽器音「ヴァイオリン」の音名「ミ」の音が設定され、センサ102dは楽器音「ヴァイオリン」の音名「ファ」の音が設定されている。
 記憶部73には更に、音テーブル75に記されたそれぞれの楽器のそれぞれの音名に対応する音データ83を保持している。
 処理部72は、判定部71によって判定されたセンサのIDを取得すると、記憶部73に保持されている音テーブル75を参照し、センサのIDに対応する楽器名及び音名とを取得する。その後、処理部72は記憶部73から楽器名及び音名に対応する音データ83を取得し、取得した音データ83を出力部74に出力する。
 出力部74は、入力された音データ83を変換して、スピーカ202に対応する音を出力させる。
 次に、このように構成したシートシステム1の動作、及び、効果について説明する。
 図4に示すように、ユーザがシートバック11に設けられたセンサ101aを押圧すると、センサから判定部71へ信号が出力される。判別部は、入力された信号がセンサ101aからのものであると判別し、センサ101aに対応するIDを処理部72へ出力する。
 処理部72は、入力されたIDに基づいて、記憶部73に保持されている音テーブル75を参照して、対応する楽器名「ピアノ」の音名「ド」を取得する。その後、処理部72は、記憶部73から楽器名「ピアノ」の音名「ド」の音データ83を出力部74へ出力する。
 出力部74は、処理部72からの音データ83を受け付けて、音データ83を変換し、スピーカ202に対応する音を出力させる。これにより、スピーカから「ド」の音高のギター音が出力される。
 ユーザがシートバック11に設けられたセンサ101bを押圧すると、スピーカ202からピアノ音の「レ」の音高のピアノ音が出力される。このように、センサごとに楽器音と音名とが設定されており、ユーザは違う音を出すために身体を動かす必要があるため、ユーザに身体を動かすように促すことができる。
 ユーザが別の部材であるシートクッション12に設けられたセンサ102aにタッチ操作を行った場合はヴァイオリンの「ド」の音高の音が出力される。これにより、ユーザにタッチ操作に応じて様々な楽器音を演奏することのできる空間を提供することができる。
 上記実施例ではセンサがシート本体5にのみ設けられている例について説明したが、センサはシート本体5の周辺に設けられた構造体に設けられている場合においても、部材ごとにそれぞれ群をなすように配置されているとよい。このとき、センサに対応する楽器名もそれぞれ設けられる部材ごとに定められ、それぞれ同じ楽器音を出すグループ(すなわち、群)を構成する。また、シート本体5の周辺に設けられた構造体に含まれるセンサにもそれぞれを区別するため、対応するIDが付与されている。IDはそれぞれ対応するセンサがどの部材に設けられているかを容易に判別できるように設定されているとよい。
 本実施形態において、出力装置が複数の室内灯41を含む場合には、制御装置70は例えば、シート本体5に設けられたシートセンサによってユーザが着座したシートの位置を取得し、ユーザが着座したシートの前上方に位置する室内灯41を選択的に点灯・消灯させるとよい。
 室内灯41は複数の色の光を選択的に放つことができるとよく、例えば、多色発光LED素子を含むものであるとよい。このとき、制御装置70は、タッチ操作が検出されたセンサごとに、色を変えて室内灯41を発光させるとよい。また、制御装置70は、タッチ操作が検出されたセンサが設けられた部材ごとに、色を変えて室内灯41を発光させてもよい。すなわち、センサは設けられた部材ごとにそれぞれ同じ光の色を出力するセンサ群を構成していてもよい。
 本実施形態において、出力装置が振動デバイス45を含む場合には、制御装置70は、例えば、シート本体5に設けられたシートセンサによってユーザが着座したシートの位置を取得し、ユーザが着座したシートに設けられた振動デバイス45を振動させるとよい。振動デバイス45は一定の周波数の振動を所定の振幅で出力するものであってよく、制御装置70は、タッチ操作が検出されたセンサごとに周波数及び振幅の少なくとも一方を異ならせて振動デバイス45から振動を出力させてもよい。また、振動デバイス45から出力される振動の周波数、振幅が、タッチ操作が検出されたセンサの部材ごとに定められていてもよい。すなわち、センサは、それぞれ同じ振動の周波数及び振幅を出力するセンサ群を構成していてもよい。
<<第2実施形態>>
 第2実施形態に係るシートシステム300は第1実施形態に係るシートシステム1に比べて、生体センサと、制御装置70と通信可能に接続された入出力端末76と、制御装置70及び外部と通信可能な環境情報取得装置79とを含む点で異なる。また、第2実施形態において、記憶部73は、ユーザ名及びユーザの生体情報が入力されたユーザ照合テーブル81と、ユーザ情報が入力されたユーザ情報テーブル80と、ユーザ情報テーブル80に入力された音楽についての音楽データ82とを更に保持する。また、本実施形態においては、制御装置70がシートシステムを利用したゲームアプリケーションを実行する点で異なる。
 生体センサはユーザを特定するための生体情報を取得する。より具体的には、生体センサによって取得される生体情報はユーザの指紋、虹彩網膜、及び、顔の少なくとも一つに関し、ユーザを特定することのできる情報を取得する。本実施形態では、生体センサは、図3に示すような、入出力端末76に搭載された指紋センサ77である。
 入出力端末76は、タッチパネルを備え、ユーザからの入力を受け付け、入力結果を制御装置70へ適宜出力する。タッチパネルは情報を表示する表示部78として機能するとともに、ユーザからの接触による入力を受け付ける入力部として機能する。入出力端末76は、タブレット、カーナビゲーションシステムなどであってよく、本実施形態においては、図3に示すようないわゆるスマートフォンである。
 環境情報取得装置79は、シート本体5、又は、シート本体5の周辺環境に係る情報を取得する。この情報とは、シート本体5が屋内に設けられている場合には、屋外の気温や天候に係る情報を意味する。本実施形態においては、シート本体5は車両Mに搭載されており、環境情報取得装置79は、車両速度に関する情報、車両Mに接近する障害物に関する情報、車両Mの周辺の交通情報、及び、車両Mの周辺の気象情報の少なくとも一つを取得する。具体的には、環境情報取得装置79はGPS受信機を介して人工衛星からの信号を受信し、シートシステム300が搭載された車両Mの位置情報を取得する。その後、環境情報取得装置79は取得した位置情報に基づいてネットワークを介して外部と通信し、車両Mの周辺の気象情報、交通情報などを取得して処理部72へ送信する。
 ユーザ情報テーブル80には、図6に示すように、ユーザ名、ユーザ名に対応するジャンル、曲名、テンポ、及び、楽器名が入力されている。本実施形態では、図6に示すように、テンポはユーザ情報テーブル80において、曲名に対応する曲に標準的に設定された拍の変更度合い(例えば、速い、遅い等)として入力されている。ユーザ照合テーブル81には、生体情報センサによって取得される生体情報と、対応するユーザ名とが入力され、記憶部73に保持されている。
 制御装置70は入出力端末76から所定の入力を受け付けると、ユーザに音楽に合わせて、タッチセンサに入力するように指示を行い、ユーザに身体を動かすように促すゲームアプリケーションを実行する。制御装置70がゲームアプリケーションを実行すると、図7に示すフローチャートに基づいて、アプリケーション実行処理を行う。以下、図7に基づいて、その処理について説明する。
 図7に示すように、制御装置70はアプリケーション実行処理の最初のステップにおいて、設定処理を行う。設定処理において、制御装置7は入出力端末76及び生体センサからユーザの情報を取得し、ゲームの実行に必要な各種情報を設定する。各種情報には、曲名、テンポ、及び、楽器名が含まれる。
 設定処理が完了すると、制御装置70はゲーム処理を実行する。ゲーム処理において、制御装置70はゲーム処理を開始すると、入出力端末76においてゲームを開始するか否かの入力を受け付ける。ゲームを開始する旨の入力が入力されると、制御装置70は設定処理で設定された曲名、テンポに基づきスピーカから音楽を出力させて、ゲームをスタートする。このとき、制御装置70はセンサによってタッチ操作が行われたタイミングを取得するとともに、第1実施形態に記載した方法に基づいて、設定処理で設定されたユーザ情報テーブル80に記載された楽器名に対応する出力音をスピーカ202から出力させる。
 制御装置70はゲーム処理中、環境情報取得装置79から取得した情報に基づき、スピーカ202から出力する音楽のテンポを変更するとよい。例えば、制御装置70は、車両M周辺の外気温が所定の閾値以上である場合には音楽のテンポを遅くし、外気温が所定の閾値以下である場合には音楽のテンポを速くする。これにより、外気温に応じてユーザの運動量を調節することができる。また、制御装置70は、環境情報取得装置79から車速を取得し、車速に応じてテンポを変更するようにしてもよい。
 制御装置70はゲーム処理中、環境情報取得装置79から取得した情報に基づき、スピーカから出力する音量を変更してもよい。例えば、制御装置70は環境情報取得装置79によって障害物が近接していることを検知したときには、スピーカからの出力を停止するか、又は、音の大きさを所定の閾値よりも小さくするとよい。これにより、ユーザは車両Mが障害物に近接していることを音によって察知することができる。
 その他、制御装置70は時刻情報を取得し、時間帯が夜間や早朝の場合は、同乗者に配慮した音量となるように、スピーカ202から発生する音量を小さくしてもよい。また、制御装置70は、環境情報取得装置79から車速を取得し、車速が所定値以上であるときに、未満であるときに比べて、スピーカ202から発生する音量を大きくするようにしてもよい。これにより、ユーザが、車両走行時の騒音によって音が聞き取りにくくなることが防止できる。
 曲が終了すると、制御装置70は結果表示処理を実行する。制御装置70は、結果表示処理において、ゲーム処理中にセンサが検出したタッチ操作のタイミングに対する一致度を算出する。その後、制御装置70は、入出力端末76の表示部78に一致度を表示する。
 以下では、制御装置70が行う設定処理について、図4、図7及び図8を参照して説明する。
 図8に示すように、処理部72は、ステップST1において、入出力端末76の表示部78に、指紋センサ77に入力を行うようユーザに通知する画面を表示し、指紋センサ77にからの入力を受け付ける。受付が完了すると、ステップST2を実行する。
 処理部72はステップST2において、記憶部73に保持されているユーザ照合テーブル81に、入力された生体情報に対応するユーザ名の有無を判定し、ユーザ名が検索できた場合にはステップST5を、検索できなかった場合にはステップST3を実行する。
 処理部72はステップST3において、記憶部73に保持されたユーザ情報テーブル80に、ステップST1において入力された生体情報を追加する。追加が完了すると、ステップST4を実行する。
 処理部72はステップST4において、生体情報以外のユーザ情報の登録を行うべく、入出力端末76の表示部78を通じてユーザの好きな音楽のジャンル及び曲名の入力欄と、入力完了ボタンを表示し、ユーザから生体情報以外のユーザ情報を受け付ける。このとき、処理部72は、入出力端末76の表示部78に、それぞれの曲に適したテンポよりも速くするか、又は、遅くするかの選択を受け付ける選択欄を表示する。また、処理部72は、ユーザから入力されたジャンルに適した楽器名を選択して、入出力端末76の表示部78に表示するとよい。更に、処理部72は、入出力端末76の表示部78に、ユーザから楽器の変更入力を受け付ける入力欄を表示してもよい。入力完了ボタンへの入力を検知すると、処理部72はステップST5を実行する。
 処理部72は、ステップST5において、ユーザ情報テーブル80を参照し、検索されたユーザ名に対応するジャンル、曲名、テンポ、楽器名を取得する。その後、処理部72は入出力端末76の表示部78に表示し、その後、ステップST6を実行する。
 処理部72は、ステップST6において、入出力端末76の表示部78に表示したジャンル、曲名、テンポ、楽器名についての変更要否を、表示部78を通じて受け付ける。処理部72は、変更が必要である旨の入力がされた場合はステップST7を実行し、変更が不要である旨の入力がされた場合は設定処理を終了する。
 処理部72は、ST7において、当該ユーザの好きな音楽のジャンル、曲名、テンポ、楽器名の項目を変更入力可能な状態にして入出力端末76の表示部78へ表示し、表示部78を通じてユーザからの変更入力を受け付け、ステップST8を実行する。
 処理部72は、ステップST8において、入出力端末76の表示部78に変更入力完了ボタンを表示し、ユーザによるすべての変更入力が完了した旨の入力を受け付ける。制御装置70は、ユーザによって変更入力完了ボタンが押圧されたら、設定処理を完了する。
 処理部72は、設定処理の完了後、当該ユーザのユーザ情報テーブル80に入力された音楽に対応する音楽データ82を出力部74に出力する。出力部74は、入力された音楽データ82をスピーカ202から出力し、制御装置70によりゲーム処理を実行する。
 次に、本実施形態におけるシートシステム300の動作であって、特に、設定処理におけるシートシステムの動作について説明する。
 設定処理が開始されると、入出力端末76の表示部78にはユーザに指紋センサ77へ指を接触させるよう指示する画面が表示される。これにより、ユーザは生体センサに自身の指を接触させると、検出された生体情報が処理部72へ出力される(ST1)。処理部72は、ユーザ照合テーブル81を参照し、入力された生体情報に対応するユーザ名を取得する。その後、処理部72は取得されたユーザ名がユーザ情報テーブル80に登録されているか否かを判定する(ST2)。ユーザ名が登録されている場合には入出力端末76の表示部78にユーザ情報を表示し(ST5)、変更の要否を受け付ける(ST6)。ユーザは入出力端末76の表示部78に表示されたユーザ情報を確認し、変更の要否を入力する。
 ユーザ名がユーザ情報テーブル80に登録されていない場合には、入出力端末76の表示部78にはユーザ情報の入力受付画面が表示され、受け付けられた情報と、生体情報とが、ユーザ情報テーブル80と、ユーザ照合テーブル81とに追加される(ST3、ST4)。
 ユーザは、入出力端末76の表示部78に表示されたユーザ情報について変更を必要とする旨の入力をした場合は、入出力端末76の表示部78へユーザ情報の変更入力を行う(ST7)。ユーザは、ユーザ情報の変更入力が完了したら、入出力端末76の表示部78に表示されている変更入力完了ボタンを押圧する(ST8)。このようにして、出力すべき音楽、テンポ、及び楽器名が設定されて、設定処理が終了する。
 次に、本実施形態に係るシートシステム300の効果について説明する。制御装置70により実行されるゲームアプリケーションの設定処理において、ユーザは、生体情報を入力することにより、入力した生体情報に対応するユーザ情報を使用することができる。このユーザ情報は、制御装置70に予め登録された情報であって、ゲーム処理中にスピーカから出力される音楽に関する情報であり、ユーザの入力操作により、適宜変更が可能である。これにより、ユーザは、毎回新規にユーザ情報を入力することなく、ユーザの好みに合った音楽に合わせてゲームを行うことが可能となる。
 ゲーム処理中において、制御装置70は、スピーカ202から音楽を出力し、ユーザに対し、音楽に合わせてタッチセンサに入力するように指示を行う。これにより、ユーザに身体を動かすように促すことができる。また、ゲーム処理中において、制御装置70は、環境情報取得装置79からシートシステム300を取り巻く環境に関する情報を取得する。制御装置70は、取得した情報に基づいてスピーカ202が出力する音楽のテンポや音量を変更する。これにより、ユーザは、より快適な環境でシートシステムを利用したゲームを楽しむことができる。
<<第3実施形態>>
 第3実施形態に係るシートシステムAは第1実施形態及び第2実施形態に係るシートシステム1、300に比べて、出力装置からの出力が、他のシートシステムBの出力装置からの出力と連動し、各シートシステムA、Bが入出力端末76を通じて互いに通信可能に構成されている点で異なる。第3実施形態のその他の構成については、第1実施形態及び第2実施形態と同様であるため、説明を省略する。なお、本実施形態における入出力端末76Aは、制御装置70のみでなく、他のシートシステムBが有する入出力端末76Bと通信可能に接続されていることを要する。
 以下に、シートシステムAのゲームアプリケーション実行中における出力装置からの出力を、他のシートシステムBと連動させるのに必要な処理について、図9を参照して説明する。
 ゲームアプリケーション実行に必要な設定処理の完了後、処理部72は入出力端末76Aの表示部78Aに、スタートボタンと併せて他のシートシステムのIDの入力欄を表示する。入出力端末76Aは、入力欄に他のシートシステムBのID(sheet_B)が入力されると、図9に示すシートシステム間の連動の実行に必要な処理を開始する。シートシステムAの入出力端末76Aは、入力されたIDを有する他のシートシステムBの入出力端末76Bに対し、連動許可要求を送信する。これを受け、シートシステムBの入出力端末76Bは、他のシートシステムAから連動許可要求を受信したことをユーザに通知する。当該通知を含む入出力端末76での通知は、入出力端末76の表示部78への表示や、入出力端末76が有するスピーカ202から出力される音を介して行われるとよい。
 シートシステムBの入出力端末76Bへ連動許可が入力されると、シートシステムBの入出力端末76Bは、シートシステムAの入出力端末76Aへ連動許可を送信する。これを受け、シートシステムAの入出力端末76Aは、他のシートシステムBから連動許可を受信したことをユーザに通知する。
 なお、シートシステムBの入出力端末76Bに連動不許可が入力された場合、シートシステムBの入出力端末76BはシートシステムAの入出力端末76Aへ連動不許可を送信する。これを受け、シートシステムAの入出力端末76Aは、ユーザにシートシステムBから連動不許可を受信したことを通知するとよい。
 シートシステムAの入出力端末76Aは、連動許可を受信した旨の通知を行った後、シートシステムAを使用しているユーザのユーザ情報テーブル80に入力された曲名を参照する。シートシステムAの入出力端末76Aは、参照した曲名の音楽がゲーム処理中に出力されることについての許可要求(音楽許可要求)をシートシステムBの入出力端末76Bに対して送信する。これを受け、シートシステムAの入出力端末76Aは、他のシートシステムAからゲーム処理中に出力される音楽についての許可要求(音楽許可要求)を受信したことをユーザに通知する。シートシステムBの入出力端末76Bに当該音楽に対する許可入力がされると、シートシステムBの入出力端末76Bは、シートシステムAの入出力端末76Aへ当該音楽についての許可(音楽許可)を送信する。
 ゲーム処理中に出力される音楽についての許可(音楽許可)を受信したシートシステムAの入出力端末76Aは、他のシートシステムBから音楽についての許可を受信したことを、ユーザに通知する。
 なお、シートシステムBの入出力端末76Bが選択された音楽に対する不許可を送信した場合、シートシステムAの入出力端末76Aは音楽に対する不許可を受信したユーザに通知する。このとき、シートシステムAの入出力端末76Aは、先に選択した曲名とは別の曲名を選択するよう、表示部78Aを通じてユーザに指示するとよい。このとき、シートシステムAの入出力端末76Aは、記憶部73の保持するユーザ情報テーブル80を参照し、ユーザ情報テーブル80に入力されたすべての曲名を表示部78Aに表示してもよい。
 シートシステムAの入出力端末76Aは、音楽に対する許可(音楽許可)の通知を受信した旨の通知を行った後、出力させる音楽のテンポについて、表示部78Aを通じてユーザからテンポ選択の入力を受け付ける。シートシステムAの入出力端末76Aはテンポ選択の入力結果をシートシステムBの入出力端末76Bへ送信する。これを受け、シートシステムBの入出力端末76Bは、他のシートシステムAの入出力端末76Aにおいて音楽のテンポ選択の入力がされたことをユーザに通知する。その後、シートシステムBの入出力端末76Bは、出力させる音楽のテンポについて、表示部78Bを通じてユーザからテンポ選択の入力を受け付ける。シートシステムBの入出力端末76Bはテンポ選択の入力結果をシートシステムAの入出力端末76Aへ送信する。その後、シートシステムAの入出力端末76Aは、他のシートシステムBの入出力端末76Bにおいて音楽のテンポ選択の入力がされたことをユーザに通知する。
 その後、シートシステムAの入出力端末76Aは、シートシステムBの入出力端末76Bへゲーム処理開始についての許可要求を送信する。これを受け、シートシステムBの入出力端末76Bは、他のシートシステムAの入出力端末76Aからゲーム処理開始許可要求を受信したことをユーザに通知する。その後、シートシステムBの入出力端末76Bは、ゲーム処理開始許可について、表示部78Bを通じてユーザからの入力を受け付ける。ゲーム処理開始許可の入力がされると、シートシステムBの入出力端末76Bは、シートシステムAの入出力端末76Aへゲーム処理開始許可を送信する。これを受け、シートシステムA及びシートシステムBにおいてゲーム処理が開始される。
 ここからは、本実施形態におけるシートシステムA及びシートシステムBの動作について説明する。
 ゲームアプリケーションの実行に必要な設定処理において音楽が開始される前、シートシステムAのユーザは、入出力端末76Aに、連動を希望する他のシートシステムBのID(sheet_B)を入力する。
 シートシステムBのユーザは、他のシートシステムAから連動許可要求があったことを入出力端末76Bの通知によって認識する。シートシステムBのユーザは、連動許可または連動不許可を入出力端末76Bに入力する。
 シートシステムBのユーザが連動許可を入力した場合、シートシステムAのユーザは入出力端末76Aを通じてシートシステムBのユーザにより連動許可が入力された旨の通知を受ける。その後、シートシステムBのユーザは、シートシステムAから入出力端末76Aを介し、出力される音楽の曲名に対する許可要求(音楽許可要求)の通知を受ける。シートシステムBのユーザは、音楽の曲名に対する許可または不許可を入出力端末76Bに入力する。
 なお、シートシステムBのユーザが連動不許可を入力した場合、シートシステムAのユーザは、入出力端末76Aを通じてシートシステムBのユーザにより連動不許可が入力された旨の通知を受ける。これにより、シートシステムAのユーザはシートシステムAとシートシステムBの出力の連動が実行されないことを認識する。
 シートシステムBのユーザが出力される音楽に対する許可(音楽許可)を入力した場合、シートシステムAのユーザは、入出力端末76Aを通じてシートシステムBのユーザにより出力される音楽に対する許可(音楽許可)が入力された旨の通知を受ける。これを受け、シートシステムAのユーザは出力される音楽についてのテンポを選択し、入出力端末76Aに入力する(テンポ選択)。シートシステムBのユーザは入出力端末76Bを通じて、シートシステムAのユーザがテンポを入力した旨の通知を受ける。これを受け、シートシステムBのユーザも出力される音楽についてのテンポを入出力端末76Bに入力する(テンポ選択)。
 なお、シートシステムBのユーザが出力される音楽に対する不許可を入力した場合、シートシステムAのユーザは入出力端末76Aから出力される音楽に対する不許可が入力された旨の通知を受ける。ここで、シートシステムAのユーザは、入出力端末76Aの表示部78Aに表示された曲名の中から別の曲名を選択し、入出力端末76Aに再度入力する。
 シートシステムBのユーザが音楽のテンポを選択し、入出力端末76Bに入力すると、シートシステムAのユーザは入出力端末76Aを通じてシートシステムBのユーザにより音楽のテンポが入力された旨の通知を受ける。その後、シートシステムAのユーザは、入出力端末76Aにゲーム処理開始要求を入力する。その後、シートシステムBのユーザは、入出力端末76Bを通じてゲーム処理開始許可要求が入力された旨の通知を受ける。これを受け、シートシステムBのユーザは入出力端末76Bへゲーム処理開始許可を入力する。
 シートシステムBのユーザによりゲーム処理開始許可が入力されると、シートシステムA及びBのユーザは同時にゲームアプリケーションを開始する。
 ゲーム処理が終了すると、制御装置70は、結果表示処理を実行する。本実施形態の結果表示処理において、制御装置70は、出力装置からの出力を互いに連動させたシートシステムA及びBの判定結果の両方をそれぞれの入出力端末76の表示部78に同時に表示する。制御装置70は、連動が行われているすべてのシートシステムのゲーム処理が終了するのを待ってから判定結果を表示するとよい。これにより、シートシステムA及びBのユーザが同じ音楽でゲームを行った結果を互いに確認することができる。
 上記の態様では、出力装置からの出力が連動するシートシステムはシートシステムAとシートシステムBのみであったが、これに限定されない。例えば、出力装置からの出力が互いに連動する3以上のシートシステムであってもよい。
 以上で、具体的実施形態の説明を終えるが、本発明は上記実施形態に限定されることなく幅広く変形実施することができる。例えば、実施形態1において、センサへのタッチ操作に応じて出力装置から出力される音、光、及び振動は、互いに組み合わせて出力するようにしてもよい。これにより、出力装置からの出力のレパートリーを増やすことができる。
 また、制御装置70は、センサの異常を検出した場合、出力装置の出力を制限するとよい。これにより、センサの誤動作を防止することができる。
 また、出力装置がスピーカである場合、周囲の騒音を打ち消すためのノイズキャンセリング機能を有しているとよい。また、スピーカは左右のフロントドア15のドアトリム17に設けられたスピーカと、左右のリアサイドトリム19に設けられているとしたが、これに限定されない。例えば、スピーカは、タッチ操作に応じて音が出力される対応するセンサ群が設けられている部材内にそれぞれ配置されていてもよい。これにより、タッチ操作を行うセンサ群と音が出力されるスピーカを同一部材に配置することができ、シートシステムの利用における臨場感を高めることができる。
 実施形態2において、シートシステム300はさらに、制御装置70と通信可能に接続され、ユーザの体温を計測する体温計や脈拍を計測する脈拍計を含むとよい。制御装置70は、シートシステムを利用するユーザの体温や脈拍数に関する情報を取得することにより、スピーカから出力される音を調節するとよい。例えば、ユーザの体温や脈拍数が閾値以上の時は、閾値よりも小さな音や音楽を出力するとよい。これにより、ユーザの体調に合わせてスピーカからの出力を行うことが可能となる。
 また、実施形態3のゲーム処理中において、シートシステムAのユーザによってセンサへのタッチ操作がなされると、シートシステムBのスピーカは、シートシステムAのスピーカ出力される音と同じ音を連動して出力するようにしてもよい。
 また、第3実施形態のシートシステムにおいて、タッチ操作が入力されてから音が発生するまでの応答時間を制御装置70が変更可能であってもよい。これにより、複数のシートシステムが同じ車両に設けられている場合に、それぞれの制御装置70が応答時間を互いに異なるように設定することで、それぞれのユーザが自分のタッチ操作によって発生した音を時間差によって識別することができる。
 また、設定処理において、複数のシートシステムが同じ車両に設けられているときには、シートシステムが協働して同時にスピーカから音を発生させ、各ユーザに同時にタッチ操作の入力を指示することによって、それぞれの制御装置70が応答時間を取得してもよい。その後、制御装置70は、互いに通信することによって、応答時間の差を取得し、結果表示処理において、応答時間の差を補填するように、タッチ操作のタイミングを補正して、音楽との合致度を算出するとよい。これにより、ユーザの年齢や、性別、身体的な特徴に合った採点を行うことが可能となる。
 また、設定処理において、複数のシートシステムがそれぞれスピーカから音を発生させ、各ユーザにタッチ操作の入力を指示することによって、それぞれの制御装置70が各ユーザのタッチ操作時の押圧時の荷重(押圧荷重)を取得してもよい。その後、制御装置70は、取得した押圧荷重に基づき、センサの検出に必要な押圧荷重の所定値を変更してゲーム処理を実行するとよい。これにより、ユーザの年齢や、性別、身体的な特徴に合わせてゲームを楽しむことができる。
 また、設定処理において、シートシステムがスピーカから音を発生させ、ユーザに複数の異なる部材に設けられたセンサへのタッチ操作の入力を指示することによって、制御装置70がユーザのタッチ操作時の押圧時の荷重(押圧荷重)を取得してもよい。その後、制御装置70は、取得した押圧荷重に基づき、異なる部材に設けられたセンサの検出に必要な押圧荷重の所定値を変更して、ゲーム処理を実行するとよい。これにより、センサが設けられた領域の部材に違いがあっても、効率的にセンサによる検出を行うことができる。
1    :第1実施形態に係るシートシステム
5    :シート本体
5A   :フロントシート本体(前席シート本体)
5B   :ミッドシート本体(後席シート本体)
10   :ヘッドレスト
11   :シートバック
12   :シートクッション
15   :フロントドア
16   :リアドア
21   :パッド部材
22   :表皮材
23   :第1パッド部材
24   :第2パッド部材
41   :室内灯
45   :振動デバイス
70   :制御装置
72   :処理部 
73   :記憶部
74   :出力部
75   :音テーブル
76   :入出力端末
77   :指紋センサ
78   :表示部
79   :環境情報取得装置
80   :ユーザ情報テーブル
81   :ユーザ照合テーブル
82   :音楽データ
83   :音データ
101   :バックセンサ群
102   :シートセンサ群
202   :スピーカ
300   :第2実施形態に係るシートシステム

Claims (8)

  1.  シートシステムであって、
     ユーザが着座可能なシート本体と、
     前記シート本体又は前記シート本体の周囲に配置された構造体に設けられ、前記シート本体に着座した前記ユーザによるタッチ操作を検出する複数のセンサと、
     音、光、及び振動の少なくとも1つの出力を行う出力装置と、
     前記センサがタッチ操作を検出したときに、対応する所定の出力を前記出力装置から発生するよう前記出力装置を制御する制御装置とを有するシートシステム。
  2.  前記出力装置はスピーカを含み、
     前記所定の出力が、所定の音高の音である請求項1に記載のシートシステム。
  3.  前記センサが、前記シートシステムを構成する部材から選ばれた少なくとも2つの部材のそれぞれに配置されたセンサ群をなし、前記センサ群のそれぞれに異なる楽器音が割り当てられている請求項2に記載のシートシステム。
  4.  前記シート本体は、前記ユーザが着座するシートクッションと、前記シートクッションに接続され、前記ユーザの背中の後方に配置されたシートバックとを含み、
     前記センサの少なくとも1つが、前記シートクッションの上面、前記シートバックの前面、前席シート本体のシートバックの背面、アームレスト、オットマン、ヘッドレスト、車室の床面を画定するフロア、ステアリングホイール、ドア、インストルメントパネル、ピラーまたは備え付けのテーブルを含む前記部材のいずれか1つに設けられている請求項1に記載のシートシステム。
  5.  前記シートシステムは車両に搭載されており、
     前記車両は前記制御装置と通信可能に接続された環境情報取得装置を含み、
     前記制御装置は、前記環境情報取得装置から前記車両を取り巻く環境に係る少なくとも1つの情報を取得し、取得した前記情報に基づいて前記出力装置の前記出力を変化させるよう構成されている請求項2に記載のシートシステム。
  6.  前記シートシステムは、
     前記制御装置と通信可能に接続され、前記ユーザを照合するための生体センサと、
     前記制御装置と通信可能に接続され、前記ユーザからの入力を受け付ける入出力端末とを含み、
     前記制御装置は、前記ユーザに関するユーザ情報を記憶可能であり、前記ユーザによる前記入出力端末への前記入力または前記生体センサからの生体情報、及び前記制御装置に予め記憶された前記ユーザに関する前記ユーザ情報に基づいて、前記シートシステムを使用する前記ユーザの特定を実行した後で、前記特定が実行された前記ユーザによる前記入出力端末への前記入力または前記制御装置にあらかじめ記憶された前記ユーザに関する前記ユーザ情報に基づいて、
    前記スピーカからの前記出力を行うよう構成されている請求項2に記載のシートシステム。
  7.  前記シートシステムは前記制御装置と通信可能に接続され、前記ユーザからの入力を受け付ける入出力端末とを含み、
     前記制御装置は前記出力装置からの前記出力を、他のシートシステムの前記出力装置からの前記出力と連動させるべく、他の前記制御装置と通信可能に構成されている、請求項1~請求項4のいずれか1つの項に記載のシートシステム。
  8.  前記センサが設けられた領域のそれぞれが局部的に硬質にされている請求項1に記載のシートシステム。
PCT/JP2020/044841 2019-12-20 2020-12-02 シートシステム WO2021124894A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021565450A JPWO2021124894A1 (ja) 2019-12-20 2020-12-02
CN202080083425.7A CN114746304A (zh) 2019-12-20 2020-12-02 座椅系统
US17/785,272 US11845362B2 (en) 2019-12-20 2020-12-02 Seat system with output by touch operation of sensors
US18/501,110 US20240059191A1 (en) 2019-12-20 2023-11-03 Seat system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201962951647P 2019-12-20 2019-12-20
US62/951,647 2019-12-20

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US17/785,272 A-371-Of-International US11845362B2 (en) 2019-12-20 2020-12-02 Seat system with output by touch operation of sensors
US18/501,110 Continuation US20240059191A1 (en) 2019-12-20 2023-11-03 Seat system

Publications (1)

Publication Number Publication Date
WO2021124894A1 true WO2021124894A1 (ja) 2021-06-24

Family

ID=76478717

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/044841 WO2021124894A1 (ja) 2019-12-20 2020-12-02 シートシステム

Country Status (4)

Country Link
US (2) US11845362B2 (ja)
JP (1) JPWO2021124894A1 (ja)
CN (1) CN114746304A (ja)
WO (1) WO2021124894A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11760246B2 (en) * 2022-01-13 2023-09-19 Toyota Research Institute, Inc. Systems and methods for improving the adjustment of a vehicle headrest
US11858395B2 (en) * 2022-01-13 2024-01-02 Toyota Research Institute, Inc. Systems and methods for improving the adjustment of a vehicle headrest using gestures

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0313993A (ja) * 1989-06-13 1991-01-22 Ii P R Japan:Kk カーミュージックシンセサイザー
JP2013147161A (ja) * 2012-01-19 2013-08-01 Toyota Motor Corp 車両用シート及び車両用シート装置
WO2017038486A1 (ja) * 2015-08-28 2017-03-09 修一 田山 自動車ユーザ情報管理システム
WO2018012589A1 (ja) * 2016-07-13 2018-01-18 ヤマハ株式会社 楽器を用いた音響システム、楽器を用いた音響方法、音響機器、及び音響システム
JP2018142841A (ja) * 2017-02-28 2018-09-13 アルパイン株式会社 コミュニケーションシステム
US20190135199A1 (en) * 2016-07-11 2019-05-09 Shanghai Yanfeng Jinqiao Automotive Trim System Co. Ltd. Vehicle interior component
JP2019125958A (ja) * 2018-01-18 2019-07-25 トヨタ自動車株式会社 車両用エンターテイメント装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6044386A (ja) 1983-08-23 1985-03-09 Teijin Ltd 記録シ−ト
US20050052426A1 (en) * 2003-09-08 2005-03-10 Hagermoser E. Scott Vehicle touch input device and methods of making same
US10464476B1 (en) * 2016-06-29 2019-11-05 Apple Inc. Lighting systems of vehicle seats
JP7348474B2 (ja) 2019-04-19 2023-09-21 テイ・エス テック株式会社 シートシステム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0313993A (ja) * 1989-06-13 1991-01-22 Ii P R Japan:Kk カーミュージックシンセサイザー
JP2013147161A (ja) * 2012-01-19 2013-08-01 Toyota Motor Corp 車両用シート及び車両用シート装置
WO2017038486A1 (ja) * 2015-08-28 2017-03-09 修一 田山 自動車ユーザ情報管理システム
US20190135199A1 (en) * 2016-07-11 2019-05-09 Shanghai Yanfeng Jinqiao Automotive Trim System Co. Ltd. Vehicle interior component
WO2018012589A1 (ja) * 2016-07-13 2018-01-18 ヤマハ株式会社 楽器を用いた音響システム、楽器を用いた音響方法、音響機器、及び音響システム
JP2018142841A (ja) * 2017-02-28 2018-09-13 アルパイン株式会社 コミュニケーションシステム
JP2019125958A (ja) * 2018-01-18 2019-07-25 トヨタ自動車株式会社 車両用エンターテイメント装置

Also Published As

Publication number Publication date
US20220371474A1 (en) 2022-11-24
US20240059191A1 (en) 2024-02-22
JPWO2021124894A1 (ja) 2021-06-24
CN114746304A (zh) 2022-07-12
US11845362B2 (en) 2023-12-19

Similar Documents

Publication Publication Date Title
US10974646B2 (en) Method for operating a motor vehicle and motor vehicle
US20240059191A1 (en) Seat system
US8185380B2 (en) Apparatus for providing information for vehicle
JP5586827B2 (ja) シート
US20150081133A1 (en) Gesture-based system enabling children to control some vehicle functions in a vehicle
US20190001879A1 (en) Smart functional leather for steering wheel and dash board
JP2014167438A (ja) 情報通知装置
JP5045302B2 (ja) 自動車用情報提供装置
JP2008074313A (ja) ドライビングポジション調整システム
CN112092704A (zh) 用于自动驾驶车辆的娱乐装置
CN111201161B (zh) 用于控制车辆功能的方法
US20230339368A1 (en) Seat experience system
CN112752675A (zh) 用于操作座椅系统的方法、座椅系统和运输工具
JP2023160908A (ja) シートシステム
JP2023160909A (ja) シートシステム
JP7377615B2 (ja) 車両の非接触操作装置、および車両
US20220194264A1 (en) Seat system
JP2021123301A (ja) 車室内照明システム
JP7348471B2 (ja) シートシステム
JP7495595B2 (ja) サービス提供装置
JP7304184B2 (ja) 車両の非接触操作装置、および車両
CN211684939U (zh) 具有控制功能的车辆内饰件及包括该车辆内饰件的车辆
JP2022041858A (ja) 車内システム
JP2021128615A (ja) サービス提供装置
CN107783647A (zh) 柔性屏输入设备及信息娱乐系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20903466

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021565450

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20903466

Country of ref document: EP

Kind code of ref document: A1