WO2013111409A1 - 電子機器 - Google Patents

電子機器 Download PDF

Info

Publication number
WO2013111409A1
WO2013111409A1 PCT/JP2012/078148 JP2012078148W WO2013111409A1 WO 2013111409 A1 WO2013111409 A1 WO 2013111409A1 JP 2012078148 W JP2012078148 W JP 2012078148W WO 2013111409 A1 WO2013111409 A1 WO 2013111409A1
Authority
WO
WIPO (PCT)
Prior art keywords
space
evaluation
user
sensor
electronic apparatus
Prior art date
Application number
PCT/JP2012/078148
Other languages
English (en)
French (fr)
Inventor
田中淳史
石田久美子
宮越徹
齋藤チオリ
小川倫代
関口政一
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Publication of WO2013111409A1 publication Critical patent/WO2013111409A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6893Cars
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61DBODY DETAILS OR KINDS OF RAILWAY VEHICLES
    • B61D37/00Other furniture or furnishings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/02Operational features
    • A61B2560/0242Operational features adapted to measure environmental factors, e.g. temperature, pollution
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • A61B5/015By temperature mapping of body part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/021Measuring pressure in heart or blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/1032Determining colour for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/1455Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters
    • A61B5/14551Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters for measuring blood gases
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/42Detecting, measuring or recording for evaluating the gastrointestinal, the endocrine or the exocrine systems
    • A61B5/4261Evaluating exocrine secretion production
    • A61B5/4266Evaluating exocrine secretion production sweat secretion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6843Monitoring or controlling sensor contact pressure

Definitions

  • the present invention relates to an electronic device.
  • Patent Document 1 An apparatus for controlling a device by determining a psychological state from a user's physiological index and user's report information has been proposed (for example, Patent Document 1).
  • the present invention has been made in view of the above-described problems, and an object thereof is to provide an easy-to-use electronic device.
  • An electronic apparatus includes at least one of an acquisition device that acquires a change in a user's biological information from a biological sensor in a space where a plurality of users can exist, and a detection related to the space and an object that forms the space.
  • a detection device that performs the evaluation, and an evaluation device that performs at least one of the evaluation related to the space and the evaluation related to the object forming the space based on the acquisition result of the acquisition device and the detection result of the detection device. It is an electronic device.
  • the object forming the space may be a movable moving device.
  • the evaluation device may perform evaluation of at least one of the entire mobile device and a part of the mobile device.
  • the said evaluation apparatus is good also as evaluating the said moving apparatus according to the movement area of the said moving apparatus.
  • the electronic device may include a control device that controls the moving device based on an evaluation result of the evaluation device.
  • the control device may control a part of the moving device.
  • the detection device may include a speed sensor that detects a speed of the moving device.
  • the detection device may include a vibration sensor that detects vibration of the moving device.
  • the detection device may include an environmental sensor that detects an environment in the space.
  • the said detection apparatus is good also as including the volume meter which detects the magnitude
  • the biometric sensor has a contact portion that contacts the user, the acquisition device acquires an output of the contact portion, and the evaluation device receives an output from the contact portion. It is good also as performing the said evaluation based on the information regarding the presence or absence of the said user obtained.
  • the biological sensor includes a first contact unit that detects a user in a first posture and a second contact unit that detects a user in a second posture different from the first posture, and the acquisition The apparatus may obtain outputs of the first and second contact portions, and the evaluation device may perform the evaluation based on a user posture obtained from the outputs of the first and second contact portions.
  • the electronic device of the present invention may include a congestion detection device that detects the degree of congestion in the space.
  • the congestion detection apparatus may include an imaging unit that captures an image of the space from above.
  • the congestion detection apparatus includes a storage unit that stores image data of an object associated with the user, an imaging unit that images the inside of the space, and a result obtained by the imaging unit and the image data The degree of congestion in the space may be detected based on the above.
  • the imaging unit may image the inside of the space from above, and the image data of the object accompanying the user may be image data of the object viewed from above.
  • the electronic device of the present invention is different from the acquisition device that acquires the biological information of the user from the biological sensor, the identification device that identifies the user, and the identification device based on the identification result of the identification device. And a transmission device that transmits the acquisition result of the acquisition device to the terminal device.
  • the present invention has an effect that it is possible to provide a user-friendly electronic device.
  • the user evaluation system 100 of the present embodiment can be applied to evaluation of passenger satisfaction / dissatisfaction (discomfort) on vehicles such as trains, buses and airplanes.
  • dissatisfaction discomfort
  • a case where the user evaluation system 100 is applied to a train will be described in detail.
  • FIG. 1 shows a part of the vehicle 200 in which the user evaluation system 100 is mounted.
  • FIG. 2 is a block diagram showing the configuration of the user evaluation system 100.
  • the user evaluation system 100 includes an information input / output unit 10, a gesture detection unit 20, a biological sensor unit 30, and a control unit 40 as shown in FIG.
  • an information input / output unit 10 includes an information input / output unit 10, a gesture detection unit 20, a biological sensor unit 30, and a control unit 40 as shown in FIG.
  • a control unit 40 as shown in FIG.
  • the information input / output unit 10 is provided on a ceiling portion in the vehicle 200. As illustrated in FIG. 2, the information input / output unit 10 includes an imaging unit 11, a speaker 12, a microphone 13, and a vehicle sensor 14.
  • the imaging unit 11 includes an imaging lens, an imaging element such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS), a control circuit that controls the imaging element, and the like. For example, the head of the passenger is imaged.
  • the image captured by the imaging unit 11 is transmitted to the CPU 43, and the CPU 43 calculates the degree of congestion in the vehicle using the image.
  • the speaker 12 is a speaker for making in-car announcements, and outputs sound according to instructions from the CPU 43.
  • the microphone 13 collects voice and noise in the vehicle, and outputs the collected voice and noise level (dB) to the CPU 43.
  • a voice recognition unit that performs voice recognition using a voice recognition dictionary may be provided in the control unit 40, and the voice collected by the microphone 13 may be recognized by the voice recognition unit.
  • the vehicle sensor 14 includes a thermometer, a hygrometer, a vibration sensor, a speedometer, an accelerometer, a GPS module, and the like.
  • the thermometer and the hygrometer detect the temperature and humidity in the vehicle 200.
  • position a thermometer and a hygrometer can be set arbitrarily.
  • the thermometer and the hygrometer may be separate, but a thermohygrometer in which the thermometer and the hygrometer are integrated may be used.
  • the vibration sensor detects the vibration of the vehicle caused by the train running, stopping, etc., and the acceleration sensor is used to measure the vibration acceleration, and the gyro sensor is used to measure the vibration angle. It is done.
  • the speedometer and accelerometer detect the speed and acceleration of the train.
  • the GPS module detects the position (latitude, longitude) of the train. Note that only one GPS module may be provided for one train.
  • a plurality of information input / output units 10 can be provided according to the size in the vehicle, the imaging range of the imaging unit 11 (the angle of view of the photographing lens), and the sound collection range of the microphone 13. Further, the imaging unit 11, the speaker 12, and the microphone 13 are not necessarily integrated. Further, the number of the imaging unit 11, the speaker 12, and the microphone 13 can be determined according to the performance of each device.
  • the information input / output unit 10 includes a driving device (for example, a voice coil motor) for adjusting the positions and directions of the imaging unit 11, the speaker 12, and the microphone 13 (imaging direction, audio output direction, and sound collection direction). May be provided.
  • a driving device for example, a voice coil motor
  • the gesture detection unit 20 detects an action performed by a passenger (such as holding a strap and swinging poorly), and includes a piezoelectric sensor 21 and a pressure sensor 22.
  • the gesture detection unit 20 of the present embodiment does not detect the gesture by having the passenger make a specific gesture, but detects an action that the passenger has performed according to the situation in the vehicle 200 as a gesture. . That is, the passenger does not need to memorize a specific gesture in order to express his intention.
  • the piezoelectric sensor 21 is provided on the floor 220 in the vehicle 200 as shown in FIG.
  • the piezoelectric sensor 21 has a piezo element, and electrically detects vibration by converting an externally applied force into a voltage by a piezoelectric effect.
  • the detection result of the piezoelectric sensor 21 is output to the CPU 43. Note that by dividing the piezoelectric sensor 21 and arranging a plurality of the piezoelectric sensors 21 on the floor 220, it is possible to recognize at which position in the vehicle 200 the vibration is detected.
  • the pressure sensor 22 a sensor using a strain sensor, a sensor that detects pressure from a change in capacitance, and the like can be adopted. As shown in FIG. 1, the pressure sensor 22 is provided on a strap 50 or a handrail 230. Yes. The detection result of the pressure sensor 22 is output to the CPU 43.
  • the CPU 43 can estimate the number of people gripped by the strap 50 and the handrail 230 from the output of the pressure sensor 22, and use the estimation result to determine the degree of congestion (boarding rate) in the vehicle. Can be estimated. Further, the CPU 43 can determine from the output of the pressure sensor 22 whether or not the passenger is gripping unusually (such as squeezing a strap or handrail), and use the determination result. Thus, it can be estimated whether the passenger feels stress.
  • the imaging unit 11 is provided on the ceiling of the vehicle 200 from the viewpoint of protecting the privacy of the passenger.
  • the present invention is not limited to this, and the imaging unit 11 is provided at a position where the passenger's face can be imaged. It is good.
  • the CPU 43 may recognize a passenger's facial expression (a painful facial expression, a facial expression with a beard between the eyebrows, etc.) in the image captured by the imaging unit 11 as a gesture.
  • images relating to facial expressions are stored in the flash memory 41 in advance, and the CPU 43 may recognize the facial expressions of the passengers by pattern matching using the images relating to the facial expressions.
  • the biological sensor unit 30 is a sensor group that detects biological information of passengers, and is provided on the strap 50, the handrail 230, the chair 210, and the like.
  • the biological sensor unit 30 detects biological information such as a passenger's heart rate, blood oxygen concentration, blood pressure, and the like, and includes an LED 31, a photodiode 32, a sweat sensor 33, and a pressure sensor 35.
  • FIG. 3 shows a strap 50 provided with an LED 31, a photodiode 32, and a sweat sensor 33.
  • the LED 31, the photodiode 32, and the sweat sensor 33 are provided on the handrail portion 50 a of the strap 50.
  • a plurality of LEDs 31 and photodiodes 32 are alternately arranged on the handrail portion 50 a, and two (one pair) sweating sensors 33 are provided so as to sandwich the LED 31 and the photodiode 32.
  • the LED 31 and the photodiode 32 detect the heart rate and the blood oxygen concentration by receiving light reflected by the photodiode 32 when the light emitted from the LED 31 is applied to the finger.
  • the sweat sensor 33 measures the impedance of the hand with a plurality of electrodes and detects the amount of sweat.
  • positioning of LED31, the photodiode 32, and the perspiration sensor 33 can be set suitably.
  • the above-described pressure sensor 22 is also provided on the handrail portion 50a of the strap 50.
  • the CPU 43 may emit the LED 31 only while the pressure sensor 22 detects that the passenger is caught on the strap. By doing in this way, useless light emission by LED31 can be suppressed.
  • a part of the biosensor 30 and the pressure sensor 22 are arranged close to each other. However, they may be provided separately, or these may be formed as one unit.
  • the LED 31, the photodiode 32, the sweat sensor 33, and the pressure sensor 22 provided on the strap 50 have been described.
  • the LED 31, the photodiode 32, the sweat sensor 33, and the pressure sensor are also used for the handrail 230. 22 is provided.
  • the arrangement and number of sensors provided on the handrail 230 can be set as appropriate.
  • the pressure sensor 35 is a semiconductor sensor, a vibration type pressure sensor using a piezoelectric element, or the like, and is a sensor for detecting the internal pressure of the fluid bag 34 provided in the chair (seat) 210 in the vehicle 200.
  • the fluid bag 34 is a gas bag filled with air, and is provided inside the chair 210 so as to contact the tailbone or the sciatic bone. When the passenger sits on the chair 210, the fluid bag 34 is pressed by the passenger's tailbone or sciatic bone.
  • biological information such as respiration and heartbeat can be acquired by detecting the internal pressure with the pressure sensor 35. .
  • the detection of biological information using the fluid bag 34 is described in, for example, Japanese Patent No. 3906649 (Japanese Patent Laid-Open No. 2002-345768).
  • the CPU 43 can also detect whether a passenger is sitting on the chair 210 from the output of the pressure sensor 35.
  • the control unit 40 includes a flash memory 41, an interface unit 42, and a CPU 43.
  • the flash memory 41 is a non-volatile memory, and stores various programs, an unpleasant reason determination table (FIG. 7), an unpleasant cause determination table (FIG. 9), and the like which will be described later.
  • the flash memory 41 stores a vehicle log (FIG. 5), a sensor log (FIG. 6), a vehicle sensor log (FIG. 8), an evaluation log (FIG. 10), an evaluation table (FIG. 11), and the like which will be described later.
  • the interface unit 42 transmits a control signal to the controlled device 60 using wireless, wired, near field communication, or the like.
  • the controlled device 60 includes devices such as a display unit, an air conditioner, and a speaker installed in the vehicle 200.
  • the CPU 43 controls the entire user evaluation system 100, and controls the controlled device 60 based on outputs from the information input / output unit 10, the gesture detection unit 20, and the biological sensor unit 30, and passenger satisfaction ⁇ Evaluate the degree of dissatisfaction (discomfort).
  • step S10 the CPU 43 detects the degree of congestion of the train.
  • the CPU 43 counts the number of people standing, the number of people sitting, the number of strollers and wheelchairs, the strap 50, It is assumed that a log of the output of the pressure sensor 22 provided on the handrail 230 is taken.
  • the number of people standing can be detected from the number of passenger heads included in the image captured by the imaging unit 11.
  • the number of people sitting can be detected from the output of the pressure sensor 35. Note that the number of passengers sitting in the image captured by the imaging unit 11 may be included.
  • a value obtained by subtracting the number of seated persons from the number of passengers included in the image captured by the image capturing unit 11 may be the number of standing persons.
  • the number of strollers and wheelchairs is detected, for example, by storing reference image data of strollers and wheelchairs in the flash memory 41 and comparing the reference images with images captured by the imaging unit 11.
  • the CPU43 detects the congestion degree in each vehicle based on the in-vehicle log shown in FIG. 5 mentioned above.
  • the CPU 43 detects the degree of congestion by performing a predetermined calculation (such as a weighting calculation) using each value of the in-vehicle log.
  • the degree of congestion is expressed by ranks such as “very crowded”, “crowded”, “very vacant”.
  • the present invention is not limited to this, and the degree of congestion may be expressed by a numerical value such as a congestion rate (transportation personnel / transportation power ⁇ 100 (%)).
  • the CPU 43 obtains the degree of congestion for each vehicle in step S10. As a result, if there is a relatively free vehicle, the display unit included in the speaker 12 or the controlled device 60 installed in the crowded vehicle. It is good also as notifying via that.
  • step S ⁇ b> 12 the CPU 43 acquires the biological information of the passenger by the biological sensor unit 30 and acquires the behavior information of the passenger by the gesture detection unit 20.
  • the CPU 43 detects the biological information of the person standing by using the LED 31, the photodiode 32, and the sweat sensor 33 provided on the strap 50 and the handrail 230 every predetermined time, and the person who is sitting Is detected using a pressure sensor 35 provided on the chair 210.
  • the CPU 43 detects the action information (gesture) of the person standing by the piezoelectric sensor 21 and the pressure sensor 22 every predetermined time, and the action information (gesture) of the person sitting is piezoelectric every predetermined time. It is detected by the sensor 21. In addition, CPU43 acquires from the GPS module also about the position of a train for every predetermined time.
  • FIG. 6 shows a sensor log that summarizes the values detected in step S12.
  • the sensor log of FIG. 6 includes “time”, “vehicle NO.”, “Piezoelectric sensor 21 (detection result)”, “pressure sensor 22 (detection result)”, and “biological sensor 30 (detection result)”. “Vehicle position” and “Evaluation” are recorded.
  • the “biological sensor 30 (detection result)” includes various values such as heart rate and blood oxygen concentration.
  • step S14 the CPU 43 analyzes the state of the passenger based on the information detected in step S12.
  • the CPU 43 uses the values of the piezoelectric sensor 21, the pressure sensor 22, and the biological sensor 30 in the sensor log of FIG. 6 to evaluate the standing person (whether it is unpleasant) and the sitting person (whether it is uncomfortable). Is recorded in the “evaluation” column of the sensor log in FIG. Whether passengers are uncomfortable is determined in advance by experiment or simulation by predicting what value is output from each sensor when it feels uncomfortable and how the value of each sensor changes. And evaluate based on this.
  • the CPU 43 analyzes the cause of discomfort using the discomfort reason determination table shown in FIG. Specifically, the CPU 43 determines the reason for discomfort based on the evaluation of standing and sitting people, temperature / humidity, and whether the evaluation is for some vehicles or for all vehicles (evaluation range). Analyze.
  • the CPU 43 analyzes based on FIG. 7 that the passenger feels uncomfortable because the temperature and humidity are high.
  • the CPU 43 refers to the degree of congestion in the in-vehicle log in FIG. Then, when the congestion degree at the same time of the in-vehicle log of FIG. 5 is “congested” or “very crowded”, the CPU 43 feels uncomfortable due to the congestion based on FIG. Analyze it.
  • the CPU 43 tends to have the same tendency in all vehicles based on the sensor log in FIG. It is determined whether other vehicles have the same tendency. Then, the CPU 43 analyzes that the passenger feels uncomfortable due to dissatisfaction with driving when there is a similar tendency in all the vehicles based on FIG. If it is analyzed that the passenger feels uncomfortable due to dissatisfaction with driving, the vehicle data at this point is also analyzed. Specifically, as shown in FIG. 8, the CPU 43 keeps a log of measurement values of the vibration sensor, speedometer, and accelerometer of the vehicle sensor 14 every predetermined time. Analyze driving problems such as sudden braking, sudden start, or excessive speed on the curve.
  • the analysis according to the value of the vehicle sensor 14 is performed based on the dissatisfaction cause determination table shown in FIG. For example, there is a difference in the timing at which each vehicle swings on a curve. Therefore, the CPU 43 may analyze the cause of dissatisfaction in consideration of the deviation. If the cause of discomfort is due to humidity or temperature, the discomfort will continue for several minutes or more, but the cause of discomfort will be a few seconds, so passengers will suddenly feel discomfort for a few seconds. If it is, it may be analyzed that it is caused by driving.
  • the CPU 43 may feel uncomfortable for the passengers because of noise or fighting. Analyze that there is. Then, the CPU 43 checks how much dB the sound collected by the microphone 13 installed in the vehicle is, and if the sound is louder than the past noise data (For example, in the case of about 90 dB or more), it is analyzed that the passenger feels uncomfortable due to noise. Note that the CPU 43 may analyze that the passenger of the specific vehicle feels uncomfortable when the output of the microphone 13 of the specific vehicle is larger than that of the other vehicle.
  • the speaker 12 is at that timing even if there is no new information.
  • Information may also be provided to passengers by a display device (not shown).
  • the CPU 43 records the analysis result of step S14 in the column of cause of discomfort in the evaluation log in FIG.
  • the evaluation log in FIG. 10 is obtained by adding a “discomfort cause” column to the sensor log in FIG.
  • step S ⁇ b> 16 the CPU 43 determines whether or not the controlled device 60 needs to be controlled as a result of the analysis in step S ⁇ b> 14. When judgment here is affirmed, it transfers to step S18.
  • the CPU 43 controls the controlled device 60 based on the analysis result. For example, when the passenger feels uncomfortable with respect to temperature / humidity, the CPU 43 controls the air-conditioning equipment that is the controlled equipment 60 to control at least one of temperature / humidity.
  • the display unit or the speaker 12 that is the controlled device 60 is used to deal with a large shake, sudden start, or sudden stop. You may apologize.
  • the CPU 43 determines from the display unit or the speaker 12 that is the controlled device 60 provided in the vehicle. You may display or announce a message such as “Please notify your local microphone if there is anything”.
  • step S18 When the process of step S18 is completed as described above, the process proceeds to step S20. Moreover, also when the judgment of step S16 is denied, it transfers to step S20.
  • step S20 the CPU 43 determines whether it has arrived at the next station.
  • the CPU 43 determines whether or not it has arrived at the next station. If the determination here is negative, that is, if it has not arrived at the next station, the process returns to step S12, and monitoring of the state in the vehicle until it arrives at the next station is continued (processing of steps S12 to S20). Repeat judgment). On the other hand, if the determination in step S20 is affirmative, that is, if the next station is reached, the process proceeds to step S22.
  • step S22 the CPU 43 obtains a passenger's evaluation for the driving of the driver in one section based on the cause of discomfort (see FIG. 10) obtained by repeating steps S12 to S20. In this case, an evaluation result as shown in FIG. 11 can be obtained.
  • the evaluation regarding driving and the environment in the vehicle is performed based on the biological information of the passenger and the behavior (gesture) of the passenger, the evaluation of many passengers can be obtained almost in real time. For this reason, it can reduce receiving excessive evaluation and a claim later.
  • step S24 the CPU 43 determines whether the arriving station is an end station. If the determination is negative, the process returns to step S10 and the above-described processing is repeated. On the other hand, if the determination in step S24 is affirmative, that is, if it arrives at the terminal station, all the processes in FIG. 4 are terminated.
  • step S22 the evaluation process in step S22 is performed every time the station arrives.
  • the present invention is not limited to this, and the evaluation process may be executed collectively at the end of the day.
  • the in-vehicle log (FIG. 5), the sensor log (FIG. 6), the vehicle sensor log (FIG. 8), and the evaluation log (FIG. 10) are recorded. 7) and the unpleasant cause determination table (FIG. 9) are used to evaluate the vehicle 200.
  • the present invention is not limited to this, and each log or each table may be changed as appropriate according to the type of sensor or the like.
  • the CPU 43 acquires a change in the biological information of the user from the biological sensor unit 30 and the gesture detection unit 20 in the vehicle 200 in which a plurality of users can exist. Since the evaluation regarding the vehicle 200 is performed based on the detection result of the information input / output unit 10 that performs the detection regarding the vehicle 200, the evaluation regarding the vehicle 200 is appropriately performed according to the user's biometric information, the gesture, the situation in the vehicle, and the like. be able to. Thereby, the user evaluation system 100 that is easy to use can be provided.
  • vehicle 200 appropriate assessments can be made.
  • the vehicle 200 is evaluated for every station, the driving
  • the CPU 43 controls the controlled device 60 based on the evaluation result, the environment in the vehicle 200 can be controlled so as to improve the user's evaluation.
  • the piezoelectric sensor 21, the pressure sensor 22, and the pressure sensor 35 are provided in the vehicle 200, and the CPU 43 is based on information (congestion information or the like) regarding the presence or absence of a user obtained from these outputs.
  • the vehicle 200 is evaluated. Therefore, it is possible to evaluate the appropriate vehicle 200 in consideration of information related to the presence or absence of the user (congestion information or the like).
  • CPU43 is based on these detection results, Appropriate evaluation in the vehicle can be performed.
  • the user evaluation system 100 of the present embodiment includes an imaging unit 11 that images the inside of the vehicle 200 from above.
  • CPU43 can grasp
  • reference image data of an object (stroller, wheelchair, etc.) associated with the user is stored in the flash memory 41, and the CPU 43 stores the reference image data and the image captured by the imaging unit 11. Based on this, the degree of congestion in the vehicle 200 is detected. Thereby, the congestion situation in the vehicle 200 can be grasped appropriately.
  • the biometric sensor unit 30 of the above embodiment may include an infrared camera.
  • the infrared camera can be provided integrally with the information input / output unit 10 on the ceiling of the vehicle 200 or the like.
  • the infrared camera detects an infrared emission energy amount emitted from a passenger and calculates a temperature from the energy amount, and can detect a wide range of surface temperature distributions.
  • the CPU 43 may determine and analyze the degree of congestion, whether passengers are comfortable, and the like based on the information on the surface temperature of the person obtained from the infrared camera.
  • the user evaluation system 100 may be applied in a hospital, a movie theater, a theater, or the like.
  • the user evaluation system 100 is installed in a waiting room (first space or first room).
  • the living body sensor unit 30 and the pressure sensor 22 are provided on a chair or a handrail in a waiting room
  • the piezoelectric sensor 31 is provided on the floor
  • the information input / output unit 10 is provided on the ceiling.
  • the CPU 43 estimates the patient's emotions (for example, they are dissatisfied after waiting for a long time, the temperature in the room is high) and the patient's physical condition (such as feeling sick and suffering). It becomes possible.
  • the correlation table is stored in the flash memory 41, the fluid bag 34 is provided in the chair, and the heart rate is detected by the pressure sensor 35, thereby detecting the degree of asthma attack (severe and mild). it can.
  • the biosensor unit 30 may include the above-described infrared camera to detect the heat generation state of the patient.
  • the hospital staff can listen to the patient or change the order of the examination. It becomes like this. Also in this case, based on the description in Japanese Patent Application No. 2010-259529 (Japanese Patent Laid-Open No. 2012-113369) mentioned above, for example, the patient's head is imaged at the reception of the hospital, and then the patient is imaged by the imaging unit 11 By tracking this, it is possible to identify patients who are not in good health or are dissatisfied.
  • the user evaluation system 100 is provided with a timer function to measure the waiting time of each patient after the reception and the examination time, and by storing the measurement result in the flash memory 41, the waiting time of the patient can be reduced. It is possible to digitize or notify the expected waiting time.
  • the speaker 12 may call attention.
  • a living body sensor unit 30 and a pressure sensor 22 are provided on a movie viewing chair, an armrest of the chair, etc., a piezoelectric sensor 31 is provided on the floor, and an information input / output unit 10 is provided on the ceiling.
  • CPU43 can grasp

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Developmental Disabilities (AREA)
  • Child & Adolescent Psychology (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Educational Technology (AREA)
  • Mechanical Engineering (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

 複数のユーザが存在できる空間内において、ユーザの生体情報の変化を生体センサ(30)から取得する取得装置(43)と、前記空間に関する検出及び前記空間を形成する物体(200)に関する検出の少なくとも一方を行う検出装置(10,20)と、前記取得装置の取得結果と、前記検出装置の検出結果とに基づいて、前記空間内に関する評価及び前記空間を形成する物体に関する評価の少なくとも一方を行う評価装置(43)と、を備えた使い勝手のよい電子機器を提供する。

Description

電子機器
 本発明は、電子機器に関する。
 ユーザの生理指標とユーザの申告情報とから心理状態を判定して、機器の制御を行う装置が提案されている(例えば、特許文献1)。
特開2008-497号公報
 しかしながら、従来の装置では、ユーザが申告操作をしなければならず、使い勝手がよい装置とはいえなかった。
 本発明は上記の課題に鑑みてなされたものであり、使い勝手のよい電子機器を提供することを目的とする。
 本発明の電子機器は、複数のユーザが存在できる空間内において、ユーザの生体情報の変化を生体センサから取得する取得装置と、前記空間に関する検出及び前記空間を形成する物体に関する検出の少なくとも一方を行う検出装置と、前記取得装置の取得結果と、前記検出装置の検出結果とに基づいて、前記空間内に関する評価及び前記空間を形成する物体に関する評価の少なくとも一方を行う評価装置と、を備えた電子機器である。
 この場合において、前記空間を形成する物体は、移動可能な移動装置であってもよい。この場合、前記評価装置は、前記移動装置全体と、前記移動装置の一部の少なくとも一方の評価を行うこととしてもよい。また、前記評価装置は、前記移動装置の移動区間に応じて前記移動装置の評価を行うこととしてもよい。更に、電子機器は、前記評価装置の評価結果に基づいて、前記移動装置を制御する制御装置を備えていてもよい。この場合、前記制御装置は、前記移動装置の一部の制御を行うこととしてもよい。また、前記検出装置は、前記移動装置の速度を検出する速度センサを含むこととしてもよい。また、前記検出装置は、前記移動装置の振動を検出する振動センサを含むこととしてもよい。
 本発明の電子機器では、前記検出装置は、前記空間内の環境を検出する環境センサを含むこととしてもよい。また、前記検出装置は、前記空間内の音の大きさを検出する音量計を含むこととしてもよい。
 また、本発明の電子機器では、前記生体センサは、前記ユーザと接触する接触部を有し、前記取得装置は、前記接触部の出力を取得し、前記評価装置は、前記接触部の出力から得られる前記ユーザの有無に関する情報に基づいて前記評価を行うこととしてもよい。また、前記生体センサは、第1の姿勢のユーザを検出する第1接触部と、前記第1の姿勢とは異なる第2の姿勢のユーザを検出する第2接触部とを有し、前記取得装置は、前記第1、第2接触部の出力を取得し、前記評価装置は、前記第1、第2接触部の出力から得られるユーザの姿勢に基づいて前記評価を行うこととしてもよい。
 また、本発明の電子機器では、前記空間内の混雑具合を検出する混雑検出装置を備えていてもよい。この場合、前記混雑検出装置は、前記空間内を上方から撮像する撮像部を有していてもよい。また、前記混雑検出装置は、前記ユーザに付随する物体の画像データを記憶する記憶部と、前記空間内を撮像する撮像部と、を有し、前記撮像部が撮像した結果と、前記画像データとに基づいて前記空間内の混雑具合を検出することとしてもよい。この場合、前記撮像部は、前記空間内を上方から撮像し、前記ユーザに付随する物体の画像データは、前記物体を上方から見た状態の画像データであることとしてもよい。
 また、本発明の電子機器は、ユーザの生体情報を生体センサから取得する取得装置と、前記取得装置とは異なり、前記ユーザを特定する特定装置と、前記特定装置の特定結果に基づいて、前記取得装置の取得結果を端末機器に送信する送信装置と、を備えている。
 本発明は、使い勝手のよい電子機器を提供することができるという効果を奏する。
一実施形態に係るユーザ評価システムが搭載された車両内の一部の状態を示す図である。 ユーザ評価システムの構成を示すブロック図である。 LED、フォトダイオード、発汗センサが設けられたつり革を示す図である。 ユーザ評価システムのCPUによる処理を示すフローチャートである。 車両内ログを示す図である。 センサログを示す図である。 不快理由判定テーブルを示す図である。 車両センサログを示す図である。 不満原因判定テーブルを示す図である。 評価ログを示す図である。 評価表を示す図である。
 以下、一実施形態に係るユーザ評価システム100について、図1~図11に基づいて、詳細に説明する。本実施形態のユーザ評価システム100は、電車、バスや飛行機などの乗り物での乗客の満足度・不満度(不快度)などの評価に適用することができる。以下、ユーザ評価システム100を電車において適用した場合について、詳細に説明する。
 図1には、ユーザ評価システム100が搭載された車両200内の一部の状態が示されている。また、図2には、ユーザ評価システム100の構成がブロック図にて示されている。
 ユーザ評価システム100は、図2に示すように、情報入出力部10、ジェスチャー検出部20、生体センサ部30、制御部40を有している。以下、各部について詳細に説明する。
(情報入出力部10)
 情報入出力部10は、図1に示すように、車両200内の天井部に設けられている。この情報入出力部10は、図2に示すように、撮像部11と、スピーカ12と、マイク13と、車両センサ14と、を有する。
 撮像部11は、撮影レンズ、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、及び撮像素子を制御する制御回路などを有しており、車両200内の天井からの撮像により、例えば乗客の頭部を撮像する。撮像部11により撮像された画像は、CPU43に送信され、CPU43では当該画像を用いて車両内の混雑具合を算出したりする。
 スピーカ12は、車内アナウンスを行うためのスピーカであり、CPU43の指示に応じた音声を出力する。
 マイク13は、車内の音声や騒音を集音して、集音した音声や騒音の大きさ(dB)をCPU43に対して出力するものである。なお、制御部40に、音声認識辞書を用いた音声認識を行う音声認識部を設け、当該音声認識部により、マイク13が集音した音声を認識するようにしてもよい。
 車両センサ14は、温度計、湿度計、振動センサ、速度計、加速度計、及びGPSモジュールなどを有する。温度計及び湿度計は、車両200内の温度や湿度を検出する。なお、温度計と湿度計とを配置する位置や数は任意に設定することができる。また、温度計と湿度計は別体であってもよいが、温度計と湿度計とを一体とした温湿度計を用いることとしてもよい。振動センサは、電車が走行、停止等することで生じる車両の振動を検出するものであり、振動加速度を測定する場合には加速度センサが用いられ、振動角度を測定する場合にはジャイロセンサが用いられる。速度計及び加速度計は、電車の速度及び加速度を検出する。GPSモジュールは、電車の位置(緯度、経度)を検出するものである。なお、GPSモジュールは、電車1台に対して、1つのみ設けることとしてもよい。
 なお、情報入出力部10は、車内の広さ、撮像部11の撮像範囲(撮影レンズの画角)、マイク13の集音範囲に応じて複数設けることができる。また、撮像部11、スピーカ12、マイク13は必ずしも一体とする必要はない。また、撮像部11、スピーカ12、マイク13の数についても、各装置の性能に応じて決定することができる。なお、撮像部11を複数設ける場合には、その撮像範囲の一部が重複するようにそれぞれの撮像部11を配置することが好ましい。撮像範囲を重複させることにより、移動する乗客の頭を追跡することができるからである。撮像範囲を重複して頭を追跡することは、本願出願人が先に出願した特願2010-259529号明細書(特開2012-113369号公報)に記載されている。
 なお、情報入出力部10には、撮像部11、スピーカ12、マイク13のそれぞれの位置や方向(撮像方向、音声出力方向、集音方向)を調節するための駆動装置(例えばボイスコイルモータ)を設けるようにしてもよい。
(ジェスチャー検出部20)
 ジェスチャー検出部20は、乗客が行った行動(つり革を強く握る、貧乏揺すりをするなど)を検出するものであり、圧電センサ21と、圧力センサ22と、を有する。本実施形態のジェスチャー検出部20は、乗客に特定のジェスチャーをしてもらい、そのジェスチャーを検出するというのではなく、車両200内の状況に応じて乗客が行ってしまった行動をジェスチャーとして検出する。すなわち、乗客は意思表示をするために特定のジェスチャーを覚えるなどする必要がない。
 圧電センサ21は、図1に示すように、車両200内の床220に設けられている。圧電センサ21は、ピエゾ素子を有し、外部から与えられた力を圧電効果により電圧に変換することで、振動を電気的に検出するものである。圧電センサ21の検出結果は、CPU43に対して出力される。なお、圧電センサ21を分割して床220に複数配置することで、車両200内のどの位置において振動が検出されたかを認識することができる。
 圧力センサ22は、歪センサを用いたものや、静電容量の変化から圧力を検出するものなどを採用することができ、図1に示すように、つり革50や手すり230などに設けられている。圧力センサ22の検出結果は、CPU43に対して出力される。
 CPU43では、圧力センサ22の出力の有無からつり革50や手すり230に掴まっている人の人数を推定することができ、また、当該推定結果を利用することで車内の混雑具合(乗車率)を推定することができる。また、CPU43は、圧力センサ22の出力から、乗客がつり革や手すりを強く握るなどの通常と異なる握り方(ジェスチャー)をしているかどうかを判別することができ、当該判別結果を利用することで、乗客がストレスを感じているかどうかを推定することができる。
 なお、本実施形態では、乗客のプライバシーを保護する観点から撮像部11を車両200の天井部に設けることとしたが、これに限らず、乗客の顔を撮像できる位置に撮像部11を設けることとしてもよい。この場合、CPU43は、撮像部11により撮像された画像中の乗客の表情(苦しい表情、眉間に皺を寄せた表情など)をジェスチャーとして認識するようにしてもよい。かかる場合には、表情に関する画像を予めフラッシュメモリ41に格納しておき、CPU43は、当該表情に関する画像を用いたパターンマッチング等により、乗客の表情を認識するようにすればよい。
(生体センサ部30)
 生体センサ部30は、乗客の生体情報を検出するセンサ群であり、つり革50、手すり230、椅子210などに設けられている。生体センサ部30は、乗客の心拍数、血中酸素濃度、血圧などの生体情報を検出するものであり、LED31、フォトダイオード32、発汗センサ33、圧力センサ35を有する。
 図3には、LED31、フォトダイオード32、発汗センサ33が設けられたつり革50が示されている。この図3に示すように、LED31、フォトダイオード32、発汗センサ33は、つり革50の手すり部分50aに設けられている。LED31とフォトダイオード32は、手すり部分50aに交互に複数配置され、発汗センサ33は、LED31とフォトダイオード32とを挟むように2つ(1対)設けられている。
 LED31とフォトダイオード32は、LED31の照射する光を指に当てたときに反射する光をフォトダイオード32で受光することにより心拍数や血中酸素濃度を検出する。発汗センサ33は、複数の電極により手のインピーダンスを測定して、発汗量を検出する。なお、LED31、フォトダイオード32、発汗センサ33の数や配置は適宜設定することができる。なお、つり革50の手すり部分50aには、前述した圧力センサ22も設けられている。CPU43は、圧力センサ22により乗客がつり革につかまっていることを検出している間だけLED31を発光するようにしてもよい。このようにすることで、LED31による無駄な発光を抑制することができる。
 なお、本実施形態においては、図3に示すように生体センサ30の一部と、圧力センサ22を近接配置したが、別々に設けてもよく、また、これらを一つのユニットとしてもよい。
 なお、上記においては、つり革50に設けられたLED31、フォトダイオード32、発汗センサ33、及び圧力センサ22について説明したが、手すり230にも、LED31、フォトダイオード32、発汗センサ33、及び圧力センサ22は設けられる。これら手すり230に設けられる各センサの配置や数は、適宜設定することが可能である。
 圧力センサ35は、半導体センサや、圧電素子を用いた振動型の圧力センサなどであり、車両200内の椅子(座席)210内部に設けられた流体袋34の内圧を検出するセンサである。流体袋34は、一例として、空気が充填された気体袋であり、尾てい骨あるいは坐骨に接するように椅子210内部に設けられている。椅子210に乗客が座ると、乗客の尾てい骨あるいは坐骨により流体袋34が圧迫された状態となる。この場合、動脈の脈拍が流体袋34に伝わることで、流体袋34の内圧が変化するため、圧力センサ35において当該内圧を検出することで、呼吸や心拍等の生体情報を取得することができる。なお、流体袋34を用いた生体情報の検出については、例えば特許第3906649号(特開2002-345768号公報)に記載されている。
 なお、CPU43は、圧力センサ35の出力から、椅子210に乗客が座っているかどうかを検出することもできる。
(制御部40)
 制御部40は、フラッシュメモリ41、インタフェース部42、CPU43を有している。
 フラッシュメモリ41は、不揮発性のメモリであり、各種プログラムや、後述する不快理由判定テーブル(図7)、不快原因判定テーブル(図9)、などが記憶されている。また、フラッシュメモリ41には、後述する車両内ログ(図5)、センサログ(図6)、車両センサログ(図8)、評価ログ(図10)、評価表(図11)などが記録される。
 インタフェース部42は、無線、有線、近距離通信などを用いて、被制御機器60に対する制御信号を送信するものである。ここで、被制御機器60には、車両200に設置された表示部や空調機器、スピーカなどの機器が含まれる。
 CPU43は、ユーザ評価システム100全体を制御するものであり、情報入出力部10、ジェスチャー検出部20、生体センサ部30からの出力に基づき、被制御機器60の制御を行ったり、乗客の満足度・不満度(不快度)に関する評価を行ったりするものである。
 次に、上記のように構成されるユーザ評価システム100のCPU43の処理について、図4のフローチャートに沿って、詳細に説明する。なお、図4のフローチャートは、ある駅において電車の扉が閉まったことをトリガーとして開始されるものとする。
 図4のフローチャートでは、まず、ステップS10において、CPU43が電車の混雑具合を検出する。ここで、CPU43は、図5の車両内ログに示すように、車両毎、所定時間毎に、立っている人の数や、座っている人の数、ベビーカーや車椅子の数、つり革50や手すり230に設けられた圧力センサ22の出力のログをとっているものとする。例えば、立っている人の数は、撮像部11が撮像した画像中に含まれる乗客の頭の数から検出することができる。また、座っている人の数は、圧力センサ35の出力から検出することができる。なお、撮像部11が撮像した画像中に座っている乗客の頭の数が含まれてしまう場合もある。このような場合には、撮像部11が撮像した画像中に含まれる乗客の頭の数から座っている人の数を差し引いた値を、立っている人の数とすればよい。ベビーカーや車椅子の数は、例えば、フラッシュメモリ41にベビーカーや車椅子の参照画像のデータを記憶しておき、当該参照画像と撮像部11が撮像した画像とを比較することで、検出する。
 CPU43は、上述した図5に示す車両内ログに基づいて、各車両における混雑具合を検出する。この混雑具合の検出においては、CPU43は、車両内ログの各値を用いた所定の演算(重み付け演算など)を行うことで、混雑具合を検出する。なお、図5では、混雑具合を「非常に混雑」、「混雑」、「非常に空いている」などのランクにて表現している。ただし、これに限られるものではなく、混雑具合を混雑率(輸送人員÷輸送力×100(%))などの数値で表現してもよい。
 なお、CPU43は、ステップS10において車両毎に混雑具合を求めた結果、比較的空いている車両がある場合には、混んでいる車両に設置されたスピーカ12や被制御機器60に含まれる表示部を介して、その旨を報知することとしてもよい。
 次いで、ステップS12では、CPU43が、生体センサ部30により乗客の生体情報を取得するとともに、ジェスチャー検出部20により乗客の行動情報を取得する。
 この場合、CPU43は、立っている人の生体情報を、所定時間毎に、つり革50や手すり230に設けられたLED31、フォトダイオード32、発汗センサ33を用いて検出するとともに、座っている人の生体情報を椅子210に設けられた圧力センサ35を用いて検出する。
 また、CPU43は、立っている人の行動情報(ジェスチャー)を、所定時間毎に圧電センサ21、圧力センサ22により検出するとともに、座っている人の行動情報(ジェスチャー)を、所定時間毎に圧電センサ21により検出する。なお、CPU43は、電車の位置についても、所定時間毎にGPSモジュールから取得する。
 図6には、ステップS12で検出された値を纏めたセンサログが示されている。この図6のセンサログには、「時刻」、「車両NO.」、「圧電センサ21(の検出結果)」、「圧力センサ22(の検出結果)」、「生体センサ30(の検出結果)」、「車両位置」、「評価」が記録されている。なお、「生体センサ30(の検出結果)」には、心拍数や血中酸素濃度など種々の値が含まれる。
 次いで、ステップS14では、CPU43は、ステップS12で検出した情報に基づいて、乗客の様子を分析する。
 ここでは、CPU43は、図6のセンサログの圧電センサ21、圧力センサ22、生体センサ30の各値を用いて、立っている人の評価(不快かどうか)と座っている人の評価(不快かどうか)を判断し、図6のセンサログの「評価」の欄に記録する。なお、乗客が不快かどうかは、実験やシミュレーションにより、不快に感じているときに各センサからどのような値が出力されるか、各センサの値がどのように変化するかを予め予測しておき、これに基づいて、評価する。
 そして、CPU43は、図7に示す不快理由判定テーブルを用いて、不快理由を分析する。具体的には、CPU43は、立っている人と座っている人の評価、温度・湿度、及び評価が一部の車両のものか全車両共通かどうか(評価範囲)、に基づいて、不快理由を分析する。
 例えば、立っている人も座っている人も不快と感じているとする。この場合に、車両内の温度・湿度がともに規定よりも高い場合には、CPU43は、図7に基づいて、乗客は温度・湿度が高いために不快に感じていると分析する。
 また、立っている人のみが不快と感じている場合には、車両内の混雑が原因である可能性があるとして、CPU43は、図5の車両内ログの混雑具合を参照する。そして、CPU43は、図5の車両内ログの同時刻における混雑具合が「混雑」や「非常に混雑」であった場合には、図7に基づいて、乗客は混雑のために不快に感じていると分析する。
 また、立っている人も座っている人も不快であるが、温度・湿度は適度であった場合には、CPU43は、図6のセンサログに基づいて、全車両で同様の傾向にあるのか、他の車両には同様の傾向が無いのかを判断する。そして、CPU43は、図7に基づいて、全車両で同様の傾向があった場合には、乗客は運転に対する不満のため、不快に感じていると分析する。なお、運転に対する不満のため、乗客が不快に感じていると分析された場合には、この時点における車両のデータについても分析する。具体的には、CPU43は、図8に示すように、車両センサ14の振動センサ、速度計、加速度計の計測値のログを所定時間毎にとっているので、これらの値に基づいて、運転士が、急ブレーキをしたのか、急発進をしたのか、カーブにおける速度超過であるのか、など、運転における問題点を分析する。この場合、一例として、図9に示す不満原因判定テーブルに基づいて、車両センサ14の値に応じた分析を行う。なお、例えば、カーブにおいて各車両に揺れが生じるタイミングには、ずれがある。したがって、CPU43は、当該ずれを考慮して、不満原因の分析をするようにしてもよい。なお、不快の原因が湿度・温度に起因する場合は、数分以上継続して不快な状態が続くが、運転に起因するものは数秒程度であるので、乗客が数秒程度急激に不快に感じている場合は運転に起因すると分析してもよい。
 一方、立っている人も座っている人も不快な車両が、他には無いような場合には、CPU43は、乗客の出す騒音や喧嘩などのために乗客が不快に感じている可能性があると分析する。そして、CPU43は、車両内に設置されたマイク13が集音した音の大きさが何dBかを確認し、当該音の大きさが、過去の騒音データと比較して大きな音であった場合(例えば90dB程度以上の場合)には、騒音によって乗客が不快に感じていると分析する。なお、CPU43は、他の車両と比較して、特定の車両のマイク13の出力が大きい場合に、当該特定の車両の乗客が騒音を不快に感じていると分析してもよい。
 なお、電車が緊急停止信号などにより停車している間に、生体センサ30の出力などから乗客がイライラしていることが検出された場合には、新たな情報がないとしてもそのタイミングでスピーカ12や不図示の表示装置により乗客に対して情報提供するようにしてもよい。
 なお、CPU43は、ステップS14の分析結果を、図10の評価ログの不快原因の欄に記録する。なお、図10の評価ログは、図6のセンサログに「不快原因」の欄を追加したものである。
 図4に戻り、CPU43は、次のステップS16において、ステップS14の分析の結果、被制御機器60の制御が必要であるか否かを判断する。ここでの判断が肯定された場合には、ステップS18に移行する。ステップS18に移行した場合には、CPU43は、分析結果に基づいて、被制御機器60の制御を実施する。例えば、乗客が温度・湿度に対して不快と感じている場合には、CPU43は、被制御機器60である空調機器を制御して、温度・湿度の少なくとも一方の制御を行う。
 また、ある車両の乗客が騒音を不快に感じているような場合には、当該車両に設けられた被制御機器60である表示部に“お静かに願います”と表示する。なお、CPU43は、スピーカ12により“お静かに願います”とアナウンスしてもよい。この場合、フラッシュメモリ41に記憶されている音声データによりアナウンスすることが好ましい。これは、車掌等が口頭で注意すると、乗客の感情を逆なでしてしまうおそれがあるからである。
 また、運転士の技量に対して乗客が不快と感じているような場合には、被制御機器60である表示部やスピーカ12を用いて、大きな揺れや、急発進、急停車があったことに対するお詫びをしてもよい。
 また、分析の結果、乗客が不快に感じているにもかかわらず、原因が特定できなかった場合には、CPU43は、車両に設けられた被制御機器60である表示部やスピーカ12から、“何かありましたら、お近くのマイクに向かってお知らせください”などのメッセージを表示又はアナウンスしてもよい。
 上記のようにしてステップS18の処理が終了すると、ステップS20に移行する。また、ステップS16の判断が否定された場合にも、ステップS20に移行する。
 ステップS20では、CPU43は、次の駅に到着したかどうかの判断を行う。ここでは、図6のセンサログに常時記録されている車両位置(車両センサ14に含まれるGPSモジュールで検出)に基づいて、CPU43は、次の駅に到着したかどうかの判断を行う。ここでの判断が否定された場合、すなわち、次の駅に到着していなければステップS12に戻り、次の駅に到着するまでの車内の様子のモニターを継続する(ステップS12~S20の処理・判断を繰り返す)。一方、ステップS20の判断が肯定された場合、すなわち、次の駅に到着した場合には、ステップS22に移行する。
 ステップS22では、CPU43は、ステップS12からステップS20の繰り返しにより得られた不快原因(図10参照)に基づいて、一つの区間における運転士の運転に対する乗客の評価を求める。この場合、図11に示すような評価結果を得ることができる。本実施形態によれば、乗客の生体情報や、乗客の行動(ジェスチャー)に基づいて運転や車内の環境に関する評価を行っているので、多くの乗客の評価をほぼリアルタイムで入手することができる。このため、後から過度な評価やクレイムを受けたりすることを低減することができる。
 次いで、ステップS24では、CPU43は、到着した駅が終着駅かどうかの判断を行う。ここでの判断が否定された場合には、ステップS10に戻り、上述した処理を繰返し行う。一方、ステップS24の判断が肯定された場合、すなわち、終着駅に到着した場合には、図4の全処理を終了する。
 なお、上記においては、駅に到着するたびにステップS22の評価の処理を行うこととしたが、これに限らず、評価の処理を、1日の終わりなどに纏めて実行することとしてもよい。
 なお、上記実施形態では、車両内ログ(図5)、センサログ(図6)、車両センサログ(図8)、評価ログ(図10)を記録するとともに、当該各ログと、不快理由判定テーブル(図7)及び不快原因判定テーブル(図9)を用いて、車両200に関する評価を行うこととした。しかしながら、これに限られるものではなく、センサの種別等に応じて、各ログや各テーブルを適宜変更することとしてもよい。
 以上、詳細に説明したように、本実施形態によると、CPU43が、複数のユーザが存在できる車両200内においてユーザの生体情報の変化を生体センサ部30、ジェスチャー検出部20から取得した結果と、車両200に関する検出を行う情報入出力部10の検出結果とに基づいて、車両200に関する評価を行うので、ユーザの生体情報やジェスチャー、車両内の状況などに応じて車両200に関する評価を適切に行うことができる。これにより、使い勝手のよいユーザ評価システム100を提供することができる。
 また、本実施形態では、車両200の一部のユーザが不快に感じている場合や車両200全体のユーザが不快に感じている場合など、を検出することができるので、これに基づいて、車両200の適切な評価を行うことができる。また、本実施形態では、車両200を駅間毎に評価しているので、駅間毎の車両200の運転状態(車両内の環境や、運転士の運転技量等)を評価することができる。また、本実施形態では、CPU43は、評価結果に基づいて、被制御機器60を制御することとしているので、ユーザの評価を改善するように車両200内の環境等を制御することができる。
 また、本実施形態では、車両200内に圧電センサ21、圧力センサ22、圧力センサ35が設けられており、CPU43は、これらの出力から得られるユーザの有無に関する情報(混雑情報など)に基づいて車両200の評価を行う。したがって、ユーザの有無に関する情報(混雑情報など)を考慮した適切な車両200の評価を行うことができる。また、本実施形態では、圧電センサ21及び圧力センサ22が立っているユーザを検出し、圧力センサ35が椅子210に座っているユーザを検出するので、CPU43は、これらの検出結果に基づいて、適切に車両内の評価を行うことができる。
 また、本実施形態のユーザ評価システム100は、車両200内を上方から撮像する撮像部11を有している。これにより、CPU43は、ユーザのプライバシーを保護しつつ、撮像部11により撮像された画像に基づいて、車両200内の混雑具合を把握することができる。また、本実施形態では、ユーザに付随する物体(ベビーカーや車椅子など)の参照画像のデータをフラッシュメモリ41に記憶しており、CPU43は、参照画像のデータと撮像部11により撮像された画像とに基づいて車両200内の混雑具合を検出する。これにより、車両200内の混雑状況を適切に把握することができる。
 なお、上記実施形態の生体センサ部30には、赤外線カメラが含まれていてもよい。赤外線カメラは、情報入出力部10と一体的に、車両200の天井部などに設けることができる。赤外線カメラは、乗客から出ている赤外線放出エネルギー量を検出して、当該エネルギー量から温度を算出するものであり、広い範囲の表面温度の分布を検出することができる。この場合、CPU43は、赤外線カメラから得られる人の表面温度の情報に基づいて、混雑具合や、乗客が快適かどうかなどを判断・分析してもよい。
 なお、上記実施形態では、乗り物内においてユーザ評価システム100を適用した場合について説明したが、これに限られるものではない。例えば、病院や映画館・劇場などにおいてユーザ評価システム100を適用することとしてもよい。例えば、病院においては、待合室(第1空間もしくは第1室)にユーザ評価システム100を設置するものとする。この場合、待合室の椅子や手すりなどに生体センサ部30や圧力センサ22を設け、床に圧電センサ31を設け、天井に情報入出力部10を設けることとする。このようにすることで、CPU43は、患者の感情(長時間待たされて不満に思っている、室内の温度が高いなど)や、患者の体調(気分が悪くなり苦しんでいるなど)を推測することが可能となる。特開2004-49389号に記載されているように、喘息の症状と心拍数には相関関係がある。このため、フラッシュメモリ41にこの相関関係のテーブルを記憶し、椅子に流体袋34を設け、圧力センサ35により心拍数を検出することにより、喘息の発作具合(重度、軽度)を検出することができる。なお、生体センサ部30には上述の赤外線カメラを含ませて、患者の発熱状態を検出するようにしてもよい。また、CPU43が、推測結果に基づいて、不満、不快な患者の位置等を表示装置に表示すれば、病院スタッフは、当該患者に話を聞いたり、診察の順番を変更したりすることができるようになる。この場合も、先に挙げた特願2010-259529号明細書(特開2012-113369号公報)の記載に基づき、例えば病院の受付で患者の頭を撮像して、その後、撮像部11により患者を追尾するようにすれば、体調が特にすぐれない患者や不満を持っている患者を特定することができる。この場合、生体センサ部30により検出した患者の症状をインターフェース部42により診察室(第2空間もしくは第2室)にある医師の端末機器(パーソナルコンピュータ、タブレット端末など)に送信しておけば、診療時間の短縮や、症状の説明を簡略にすることができる。更に、ユーザ評価システム100にタイマー機能を持たせて、受付後からの各患者の待ち時間や、診察時間を計時して、この計時結果をフラッシュメモリ41に記憶させることにより、患者の待ち時間を数値化したり、予想待ち時間を報知したりすることができる。
 また、車両の実施例で記載したように、混雑のため患者が立っておりその時間が長い場合や、体調が特にすぐれない患者が立っている場合には、その患者に優先して座ってもらうようにしてもよい。更に、車両の実施例で記載したように、ある患者が騒々しいときには、スピーカ12により注意を促すようにしてもよい。
 また、映画館・劇場においては、映画観賞用の椅子や椅子の肘掛部分などに生体センサ部30や圧力センサ22を設け、床に圧電センサ31を設け、天井に情報入出力部10を設けることとする。このようにすることで、CPU43は、映画や芝居の進行に関連して、客がどのような感情を抱いたのかを把握することができ、作り手が意図した場面で意図したとおりの客の反応(ドキドキして心拍数が上がる)があったかどうかを知ることができる。また、映画館・劇場の場所(席)による反応の違い(前の席の客は反応したが、後ろの席の客はあまり反応しなかったなど)を知ることができる。このように、把握結果を利用することで、映画・劇場の客観的な評価を行うことが可能となる。
 なお、これまでの説明で引用した全ての公報の開示を援用して本明細書の記載の一部とする。
 上述した実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。
  10 情報入出力部
  11 撮像部
  13 マイク
  14 車両センサ
  20 ジェスチャー検出部
  21 圧電センサ
  22 圧力センサ
  30 生体センサ部
  34 流体袋
  35 圧力センサ
  41 フラッシュメモリ
  43 CPU
  100 ユーザ評価システム
  200 車両

Claims (18)

  1.  複数のユーザが存在できる空間内において、ユーザの生体情報の変化を生体センサから取得する取得装置と、
     前記空間に関する検出及び前記空間を形成する物体に関する検出の少なくとも一方を行う検出装置と、
     前記取得装置の取得結果と、前記検出装置の検出結果とに基づいて、前記空間内に関する評価及び前記空間を形成する物体に関する評価の少なくとも一方を行う評価装置と、を備えたことを特徴とする電子機器。
  2.  前記空間を形成する物体は、移動可能な移動装置であることを特徴とする請求項1記載の電子機器。
  3.  前記評価装置は、前記移動装置全体と、前記移動装置の一部の少なくとも一方の評価を行うことを特徴とする請求項2記載の電子機器。
  4.  前記評価装置は、前記移動装置の移動区間に応じて前記移動装置の評価を行うことを特徴とする請求項2又は3記載の電子機器。
  5.  前記評価装置の評価結果に基づいて、前記移動装置を制御する制御装置を備えたことを特徴とする請求項2~4のいずれか一項に記載の電子機器。
  6.  前記制御装置は、前記移動装置の一部の制御を行うことを特徴とする請求項5記載の電子機器。
  7.  前記検出装置は、前記移動装置の速度を検出する速度センサを含むことを特徴とする請求項2~6のいずれか一項に記載の電子機器。
  8.  前記検出装置は、前記移動装置の振動を検出する振動センサを含むことを特徴とする請求項2~7のいずれか一項に記載の電子機器。
  9.  前記検出装置は、前記空間内の環境を検出する環境センサを含むことを特徴とする請求項1~8のいずれか一項に記載の電子機器。
  10.  前記検出装置は、前記空間内の音の大きさを検出する音量計を含むことを特徴とする請求項1~9のいずれか一項に記載の電子機器。
  11.  前記生体センサは、前記ユーザと接触する接触部を有し、
     前記取得装置は、前記接触部の出力を取得し、
     前記評価装置は、前記接触部の出力から得られる前記ユーザの有無に関する情報に基づいて前記評価を行うことを特徴とする請求項1~10のいずれか一項に記載の電子機器。
  12.  前記生体センサは、第1の姿勢のユーザを検出する第1接触部と、前記第1の姿勢とは異なる第2の姿勢のユーザを検出する第2接触部とを有し、
     前記取得装置は、前記第1、第2接触部の出力を取得し、
     前記評価装置は、前記第1、第2接触部の出力から得られるユーザの姿勢に基づいて前記評価を行うことを特徴とする請求項1~10のいずれか一項に記載の電子機器。
  13.  前記空間内の混雑具合を検出する混雑検出装置を備えたことを特徴とする請求項1~12のいずれか一項に記載の電子機器。
  14.  前記混雑検出装置は、前記空間内を上方から撮像する撮像部を有することを特徴とする請求項13記載の電子機器。
  15.  前記混雑検出装置は、前記ユーザに付随する物体の画像データを記憶する記憶部と、前記空間内を撮像する撮像部と、を有し、
     前記撮像部が撮像した結果と、前記画像データとに基づいて前記空間内の混雑具合を検出することを特徴とする請求項13記載の電子機器。
  16.  前記撮像部は、前記空間内を上方から撮像し、
     前記ユーザに付随する物体の画像データは、前記物体を上方から見た状態の画像データであることを特徴とする請求項15記載の電子機器。
  17.  ユーザの生体情報を生体センサから取得する取得装置と、
     前記取得装置とは異なり、前記ユーザを特定する特定装置と、
     前記特定装置の特定結果に基づいて、前記取得装置の取得結果を端末機器に送信する送信装置と、を備えたことを特徴とする電子機器。
  18.  前記ユーザが前記生体センサの設けられた第1空間にいる時間と、前記ユーザが前記第1空間とは異なる第2空間にいる時間とを計時する計時装置を備えたことを特徴とする請求項17記載の電子機器。
     
PCT/JP2012/078148 2012-01-23 2012-10-31 電子機器 WO2013111409A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012011245 2012-01-23
JP2012-011245 2012-01-23

Publications (1)

Publication Number Publication Date
WO2013111409A1 true WO2013111409A1 (ja) 2013-08-01

Family

ID=48873151

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/078148 WO2013111409A1 (ja) 2012-01-23 2012-10-31 電子機器

Country Status (2)

Country Link
JP (2) JPWO2013111409A1 (ja)
WO (1) WO2013111409A1 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105147273A (zh) * 2015-06-15 2015-12-16 北京鹏泰互动广告有限公司 一种电子把手及互动方法
WO2016061362A3 (en) * 2014-10-15 2016-06-16 Eccrine Systems, Inc. Sweat sensing device communication security and compliance
WO2018025830A1 (ja) * 2016-08-03 2018-02-08 日本電気株式会社 避難誘導システムおよび避難誘導方法
WO2018189990A1 (ja) * 2017-04-11 2018-10-18 株式会社デンソー 車両用報知装置
JP2019066156A (ja) * 2017-10-05 2019-04-25 三菱電機株式会社 空気調和装置および鉄道車両用空気調和装置
US10405794B2 (en) 2016-07-19 2019-09-10 Eccrine Systems, Inc. Sweat conductivity, volumetric sweat rate, and galvanic skin response devices and applications
US10506968B2 (en) 2015-10-23 2019-12-17 Eccrine Systems, Inc. Devices capable of fluid sample concentration for extended sensing of analytes
US10646142B2 (en) 2015-06-29 2020-05-12 Eccrine Systems, Inc. Smart sweat stimulation and sensing devices
US10674946B2 (en) 2015-12-18 2020-06-09 Eccrine Systems, Inc. Sweat sensing devices with sensor abrasion protection
US10736565B2 (en) 2016-10-14 2020-08-11 Eccrine Systems, Inc. Sweat electrolyte loss monitoring devices
JP2021141389A (ja) * 2020-03-03 2021-09-16 株式会社エイビット 車両カメラ監視システム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11986301B2 (en) 2020-06-18 2024-05-21 Nec Corporation Information processing device, control method, and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08230672A (ja) * 1995-02-28 1996-09-10 Toshiba Corp 旅客案内装置
JP2005315802A (ja) * 2004-04-30 2005-11-10 Olympus Corp ユーザ支援装置
JP2009240661A (ja) * 2008-03-31 2009-10-22 Toyota Motor Corp 健康管理ネットワークシステム
JP2009302252A (ja) * 2008-06-12 2009-12-24 Nissan Motor Co Ltd 有機薄膜受光素子、有機薄膜受発光素子、有機薄膜受発光素子アレイ、これらを用いた脈拍センサ、およびこの脈拍センサを設けた車両

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08230672A (ja) * 1995-02-28 1996-09-10 Toshiba Corp 旅客案内装置
JP2005315802A (ja) * 2004-04-30 2005-11-10 Olympus Corp ユーザ支援装置
JP2009240661A (ja) * 2008-03-31 2009-10-22 Toyota Motor Corp 健康管理ネットワークシステム
JP2009302252A (ja) * 2008-06-12 2009-12-24 Nissan Motor Co Ltd 有機薄膜受光素子、有機薄膜受発光素子、有機薄膜受発光素子アレイ、これらを用いた脈拍センサ、およびこの脈拍センサを設けた車両

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016061362A3 (en) * 2014-10-15 2016-06-16 Eccrine Systems, Inc. Sweat sensing device communication security and compliance
US9867539B2 (en) 2014-10-15 2018-01-16 Eccrine Systems, Inc. Sweat sensing device communication security and compliance
US10201279B2 (en) 2014-10-15 2019-02-12 University Of Cincinnati, A University Of The State Of Ohio Sweat sensing device communication security and compliance
US10258262B2 (en) 2014-10-15 2019-04-16 University Of Cincinnati, A University Of The State Of Ohio Sweat sensing device communication security and compliance
CN105147273A (zh) * 2015-06-15 2015-12-16 北京鹏泰互动广告有限公司 一种电子把手及互动方法
US10646142B2 (en) 2015-06-29 2020-05-12 Eccrine Systems, Inc. Smart sweat stimulation and sensing devices
US10506968B2 (en) 2015-10-23 2019-12-17 Eccrine Systems, Inc. Devices capable of fluid sample concentration for extended sensing of analytes
US10674946B2 (en) 2015-12-18 2020-06-09 Eccrine Systems, Inc. Sweat sensing devices with sensor abrasion protection
US10405794B2 (en) 2016-07-19 2019-09-10 Eccrine Systems, Inc. Sweat conductivity, volumetric sweat rate, and galvanic skin response devices and applications
US10713930B2 (en) 2016-08-03 2020-07-14 Nec Corporation Evacuation guidance system and evacuation guidance method
JPWO2018025830A1 (ja) * 2016-08-03 2019-05-30 日本電気株式会社 避難誘導システムおよび避難誘導方法
US10535250B2 (en) 2016-08-03 2020-01-14 Nec Corporation Evacuation guidance system and evacuation guidance method
WO2018025830A1 (ja) * 2016-08-03 2018-02-08 日本電気株式会社 避難誘導システムおよび避難誘導方法
JP2021170369A (ja) * 2016-08-03 2021-10-28 日本電気株式会社 誘導システムおよび誘導方法
US10736565B2 (en) 2016-10-14 2020-08-11 Eccrine Systems, Inc. Sweat electrolyte loss monitoring devices
JP2018179704A (ja) * 2017-04-11 2018-11-15 株式会社デンソー 車両用報知装置
WO2018189990A1 (ja) * 2017-04-11 2018-10-18 株式会社デンソー 車両用報知装置
US11191468B2 (en) 2017-04-11 2021-12-07 Denso Corporation Vehicular notification apparatus
JP2019066156A (ja) * 2017-10-05 2019-04-25 三菱電機株式会社 空気調和装置および鉄道車両用空気調和装置
JP2021141389A (ja) * 2020-03-03 2021-09-16 株式会社エイビット 車両カメラ監視システム
JP7220915B2 (ja) 2020-03-03 2023-02-13 株式会社エイビット 車両カメラ監視システム

Also Published As

Publication number Publication date
JP2017205531A (ja) 2017-11-24
JPWO2013111409A1 (ja) 2015-05-11

Similar Documents

Publication Publication Date Title
JP2017205531A (ja) 電子機器
US10213147B2 (en) Method and systems for detecting from biometrics that person sitting in seat of vehicle requires medical attention and for providing medical attention to the person
JP6268193B2 (ja) 脈波測定装置、携帯機器、医療機器システム、及び生体情報コミュニケーションシステム
Haouij et al. AffectiveROAD system and database to assess driver's attention
JP4917373B2 (ja) 生体情報推定装置及びそれを搭載した電子機器
US11103144B2 (en) Method of measuring physiological parameter of subject in contactless manner
KR101849955B1 (ko) 스마트 미러를 활용한 요양 케어시스템
WO2017049958A1 (zh) 瘫倒监测和预防装置及其处理方法
JP6803299B2 (ja) システム及び方法
US11800996B2 (en) System and method of detecting falls of a subject using a wearable sensor
US20180194279A1 (en) Electronic apparatus, processing system, and processing program
KR20210062545A (ko) 운전 스케쥴 보조 방법
JP2006034576A (ja) 乗り物酔い対策装置および乗り物酔い対策方法
JP2016154759A (ja) 生体情報収集椅子及びこれを用いた乗り物並びに生体情報診断システム
Kim et al. Wireless biomedical signal monitoring device on wheelchair using noncontact electro-mechanical film sensor
JP7048709B2 (ja) システム及び方法
CN112089971B (zh) 坐姿检测方法、颈部按摩仪以及计算机可读存储介质
WO2015050088A1 (ja) 健康管理システム、及び健康管理方法
Kumar et al. Breath to speech communication with fall detection for elder/patient with take care analytics
US20200268300A1 (en) Systems and methods for predicting mood, emotion and behavior of non-recumbent subjects
Yamanaka et al. Assessing the communication attitude of the elderly using prosodic information and head motions
JP6078952B2 (ja) 電子機器
WO2023074727A1 (ja) 映像記録システム
Razak et al. Driver-centered pervasive application for heart rate measurement
Tivatansakul et al. The intelligent space for the elderly—Implementation of fall detection algorithm

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12866853

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013555124

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12866853

Country of ref document: EP

Kind code of ref document: A1