WO2013168705A1 - 携帯型電子機器 - Google Patents

携帯型電子機器 Download PDF

Info

Publication number
WO2013168705A1
WO2013168705A1 PCT/JP2013/062838 JP2013062838W WO2013168705A1 WO 2013168705 A1 WO2013168705 A1 WO 2013168705A1 JP 2013062838 W JP2013062838 W JP 2013062838W WO 2013168705 A1 WO2013168705 A1 WO 2013168705A1
Authority
WO
WIPO (PCT)
Prior art keywords
detection value
unit
vehicle
information
electronic device
Prior art date
Application number
PCT/JP2013/062838
Other languages
English (en)
French (fr)
Inventor
八木 健
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Publication of WO2013168705A1 publication Critical patent/WO2013168705A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/60Substation equipment, e.g. for use by subscribers including speech amplifiers
    • H04M1/6033Substation equipment, e.g. for use by subscribers including speech amplifiers for providing handsfree use or a loudspeaker mode in telephone sets
    • H04M1/6041Portable telephones adapted for handsfree use
    • H04M1/6075Portable telephones adapted for handsfree use adapted for handsfree use in a vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion

Definitions

  • the present invention relates to a portable electronic device.
  • This application claims priority based on Japanese Patent Application No. 2012-105919 filed on May 7, 2012, the contents of which are incorporated herein by reference.
  • Patent Document 1 a portable electronic device that can communicate with an external device is known (see, for example, Patent Document 1).
  • the portable display device disclosed in Patent Literature 1 acquires, for example, information (for example, timetable information) used for execution of predetermined processing (for example, warning image display) from the outside (for example, a server), and performs predetermined processing. And carry it in a predetermined place (for example, in a train).
  • information for example, timetable information
  • predetermined processing for example, warning image display
  • Patent Document 1 has portability, it fully utilizes the advantage of having portability such that processing is performed using the same type of information acquired at a plurality of locations. Absent.
  • the portable electronic device includes a biological sensor that detects biological information, a detection value storage unit that stores a biological detection value that is a detection value detected by the biological sensor, Vehicle information to be processed in the vehicle based on the living body detection value (current value) and the previous living body detection value (at least one past value) stored in the detection value storage unit.
  • a generating unit that generates the information for the vehicle generated by the generating unit; and a transmitting unit that transmits the information to the vehicle on board.
  • a portable electronic device includes an electronic device side motion sensor that detects movement of the portable electronic device, and a vehicle side motion detection value that is a detection value detected by a vehicle side motion sensor included in the vehicle.
  • an electronic device side motion detection value that is a detection value detected by the electronic device side motion sensor, and a detection that stores the vehicle side motion detection value received by the reception unit
  • a value storage unit and a generation unit that generates vehicle information to be processed in the vehicle based on the electronic device side motion detection value and the vehicle side motion detection value stored in the detection value storage unit during boarding With.
  • a portable electronic device includes a playback unit that plays back content, a content selection unit that selects content, and a playback history storage unit that stores playback history information of the content.
  • the unit stores the reproduction history information during at least one of boarding and non-riding, and the content selection unit is configured to play music based on the reproduction history information stored in the reproduction history storage unit during boarding. Select.
  • FIG. 4 is an example of information stored in a detection value storage unit 91.
  • 4 is an example of information stored in a detection value storage unit 91.
  • 4 is an example of information stored in a detection value storage unit 91.
  • 4 is an example of information stored in a detection value storage unit 91.
  • 4 is an example of information stored in a reproduction history storage unit 92.
  • 4 is an example of information stored in a reproduction history storage unit 92.
  • FIG. 2 is an example of a flowchart showing a flow of one process of the electronic device 1. It is an example of the flowchart which shows the flow of other processes of the electronic device. It is an example of the flowchart which shows the flow of other processes of the electronic device.
  • FIG. 1 is an example of a functional block diagram of an electronic device 1 according to an embodiment of the present invention.
  • 2A to 2D are examples of components of the detection unit 10, the processing unit 50, the output unit 60, and the storage unit 90 illustrated in FIG.
  • the electronic device 1 is a portable electronic device having a communication function.
  • the electronic device 1 includes a detection unit 10, an imaging unit 20, an instruction reception unit 30, a communication unit 40, a processing unit 50, an output unit 60, and a storage unit 90.
  • the detection unit 10 is a generic term for an acceleration sensor 11, a gyro sensor 12, a GPS 13, a heart rate monitor (pulse meter) 14, a thermometer 15, and the like.
  • the processing unit 50 is a generic name for an image analysis unit 51, a control information generation unit 52, a notification information generation unit 53, a content selection unit 54, an output control unit 55, and the like.
  • the output unit 60 is a generic term for a speaker 61, a display unit 62, a vibration unit 63, and the like, as shown in FIG. 2C.
  • the storage unit 90 is a generic term for a detection value storage unit 91, a reproduction history storage unit 92, a content storage unit 93, and the like.
  • the acceleration sensor 11 detects acceleration applied to the electronic device 1 (housing). Therefore, for example, when the user shakes the electronic device 1 or when, for example, the passenger car that brought the electronic device 1 accelerates or decelerates, the acceleration sensor 11 detects acceleration.
  • the gyro sensor 12 detects an angular velocity applied to the electronic device 1 (housing). Therefore, for example, when the user rotates the electronic device 1 or when, for example, the passenger car that brought the electronic device 1 spins, the gyro sensor 12 detects the angular velocity.
  • GPS 13 detects (positions) the position of electronic device 1 (housing). Therefore, for example, when the user carries the electronic device 1 and moves while walking, or for example, when the passenger car carrying the electronic device 1 moves, the detected value by the GPS 13 (location of the electronic device 1) changes.
  • each of the acceleration sensor 11, the gyro sensor 12, and the GPS 13 detect the movement of the electronic device 1 as described above, each of the acceleration sensor 11, the gyro sensor 12, and the GPS 13 (or the whole) is also referred to as a motion sensor.
  • the detection value output from the sensor is also referred to as a motion detection value.
  • a motion sensor included in the electronic device 1 is provided. Also referred to as an electronic device side motion sensor, the motion detection value output from the electronic device side motion sensor is also referred to as an electronic device side motion detection value.
  • the vehicle side motion detection value is received by the communication unit 40 (details will be described later).
  • the heart rate meter 14 measures a person's heart rate. For example, an electrode is provided in a part of the housing, a heartbeat is detected by the electrode, and a heart rate is measured from an interval between the heartbeats.
  • the thermometer 15 measures a human body temperature.
  • the thermometer 15 measures body temperature using a thermistor and an infrared detection circuit.
  • each (or the whole) of the heart rate meter 14 and the thermometer 15 is also referred to as a biological sensor, and a detection value (biological information) output from the biological sensor is also referred to as a biological detection value.
  • the detection value storage unit 91 stores detection values (biological detection values) detected by the biometric sensors (heart rate meter 14 and thermometer 15).
  • the detection value storage unit 91 stores a detection value (electronic device side motion detection value) detected by the electronic device side motion sensor.
  • the detection value storage unit 91 stores a motion detection value (vehicle side motion detection value) detected by the vehicle side motion sensor, that is, a motion detection value (vehicle side motion detection value) received by the communication unit 40. .
  • a specific example of information stored in the detected value storage unit 91 will be described later (see FIGS. 3A, 3B, and FIG. 4).
  • the reproduction history storage unit 92 stores reproduction history information of content (for example, music and images). Specifically, the reproduction history storage unit 92 stores at least reproduction history information during non-riding. A specific example of information stored in the reproduction history storage unit 92 will be described later (see FIGS. 5A and 5B). Whether the vehicle is on board or not on board is determined by, for example, the image analysis unit 51 (details will be described later).
  • the content storage unit 93 stores content.
  • the speaker 61 outputs various sounds (including sounds) according to the control of the output control unit 55. For example, the speaker 61 outputs (reproduces) the music according to the audio information generated by the output control unit 55 based on the music (music information) stored in the content storage unit 93. In addition, for example, the speaker 61 outputs the notification content by voice according to the voice information generated by the output control unit 55 based on the notification information generated by the notification information generation unit 53 (notification information for own device).
  • the display unit 62 displays various information according to the control of the output control unit 55. For example, the display unit 62 displays (reproduces) the image according to the display information generated by the output control unit 55 based on the image (image information) stored in the content storage unit 93. Further, for example, the display unit 62 displays the notification content according to the display information generated by the output control unit 55 based on the notification information generated by the notification information generation unit 53 (the notification information for the own device). Note that the display unit 62 also displays content other than the content (for example, a music designation receiving screen for accepting music designation).
  • the vibration unit 63 vibrates the housing according to the control of the output control unit 55.
  • the vibration unit 63 vibrates the housing in accordance with the vibration control information generated by the output control unit 55 based on the notification information (own device notification information) generated by the notification information generation unit 53.
  • An example of the vibration unit 22 is a vibration motor.
  • the speaker 61, the display unit 62, and the vibration unit 63 are driven (sound output, display, vibration) according to the notification information, and the speaker 61 and the display unit 62 reproduce content (sound output) as described above. ),
  • the speaker 61, the display unit 62, and the vibration unit 63 (or the whole) also function as a notification unit, and the speaker 61 and the display unit 62 also function as a playback unit.
  • the imaging unit 20 is, for example, a camera unit.
  • the imaging unit 20 images the subject or the surroundings according to an instruction (imaging instruction) received from the user via the instruction receiving unit 30 (more specifically, according to an imaging command from the processing unit 50 that acquired the imaging instruction).
  • the captured image is output to the processing unit 50.
  • the imaging unit 20 captures the subject or the surroundings without outputting an imaging instruction from the user, and outputs the captured image to the processing unit 50.
  • the imaging unit 20 captures an image of a subject or the surroundings when the biological sensor (heart rate meter 14 or thermometer 15) detects biological information or reproduces content, and outputs the captured image to the processing unit 50. .
  • the instruction receiving unit 30 receives various instructions (for example, an imaging instruction and a reproduction instruction). When receiving an instruction, the instruction receiving unit 30 outputs instruction information to the processing unit 50. Note that examples of the instruction receiving unit 30 include various buttons arranged on the housing and various buttons displayed on the display unit 62.
  • the image analysis unit 51 analyzes the captured image captured by the imaging unit 20. For example, the image analysis unit 51 analyzes (determines) whether one captured image is captured in a passenger car. For example, the image analysis unit 51 extracts the feature amount from the captured image acquired from the imaging unit 20 this time, and holds the reference feature amount (the feature amount extracted from the captured image obtained by capturing the passenger car interior for comparison) and By comparing, it is analyzed (determined) whether or not the captured image acquired this time is captured in the passenger car.
  • Determination of whether or not a captured image is captured in a passenger car is synonymous with determining whether or not the electronic device 1 is present in the vehicle. That is, the image analysis unit 51 functions as a determination unit that determines whether or not the electronic device 1 is present in the vehicle based on the captured image. Moreover, since the electronic device 1 is carried by the user and can move with the user, determining whether or not the electronic device 1 is present in the vehicle means that the electronic device 1 is always carried by the user. This is synonymous with determining whether or not the user is in a passenger car. That is, the image analysis unit 51 functions as a determination unit that determines whether the vehicle is on board or not.
  • the control information generation unit 52 generates vehicle information to be processed in the passenger car during the ride.
  • vehicle information is travel control information for controlling the travel of the passenger car, and device control information for controlling an operation of a device (for example, an air conditioner) included in the passenger car.
  • control information generation unit 52 detects the biological detection value (current biological detection value, current value) detected by the current detection unit 10 and the past stored in the detection value storage unit 91. Vehicle information is generated based on the detected biological detection value (biological detection value up to the previous time, at least one past value).
  • control information generation unit 52 converts the current biological detection value (current value) during boarding and the previous biological detection value (at least one past value) during non-boarding. Based on this, vehicle information is generated.
  • the control information generation unit 52 is the current biological detection value during boarding and the biological detection value up to the previous time, and is the biological detection value during boarding and non-boarding (that is, regardless of whether the boarding / non-boarding).
  • the vehicle information may be generated based on the previous living body detection value).
  • control information generation unit 52 may generate vehicle information using related information (medical chart information) acquired from a hospital (specifically, a family hospital). That is, the control information generation unit 52 may generate vehicle information based on the current biological detection value during boarding and related information (medical chart information), or the present biological detection value during boarding. The vehicle information may be generated based on the living body detection values stored in the detection value storage unit 91 up to the previous time and the related information.
  • the related information (medical chart information) is acquired by the communication unit 40, for example.
  • control information generation unit 52 may use a motion detection value (electronic device side motion detection value, in place of or in addition to the biological detection value (current biological detection value, previous biological detection value, related information) during boarding).
  • the vehicle information may be generated with reference to the vehicle side motion detection value). That is, the control information generation unit 52 may generate the vehicle information by comparing the electronic device side motion detection value stored in the detection value storage unit 91 with the vehicle side motion detection value.
  • the control information generation unit 52 that has generated the vehicle information outputs the generated vehicle information to the output control unit 55.
  • the notification information generation unit 53 generates notification information based on the current biological detection value and the previous biological detection value during boarding.
  • the notification information includes own device notification information notified by the notification unit (speaker 61, display unit 62, vibration unit 63) of the electronic device 1 and vehicle notification information notified by the notification unit provided in the passenger car. is there. That is, the notification information generation unit 53 generates notification information for the own device and / or notification information for the vehicle based on the current biological detection value and the previous biological detection value.
  • the notification information generation unit 53 may generate the notification information for the own device and / or the notification information for the vehicle using the related information acquired from the hospital.
  • the notification information generation unit 53 compares the electronic device side motion detection value stored in the detection value storage unit 91 with the vehicle side motion detection value during boarding, similarly to the control information generation unit 52, You may generate
  • the notification information generation unit 53 that has generated the notification information (the notification information for the own device / the notification information for the vehicle) outputs the generated notification information to the output control unit 55.
  • the content selection unit 54 selects content. For example, the content selection unit 54 selects content according to an instruction (playback instruction) received from the user via the instruction reception unit 30 while the music designation reception screen is displayed.
  • an instruction playback instruction
  • the content selection unit 54 selects content regardless of a reproduction instruction from the user.
  • the content selection unit 54 is stored in the reproduction history storage unit 92 when the music designation acceptance screen is displayed on the display unit 62 (or when the reproduction of one piece of music is finished) during the ride. The content is selected based on the playback history information.
  • the content selection unit 54 When the content selection unit 54 selects content according to the reproduction instruction, the content selection unit 54 reads out the content (entity) from the content storage unit 93 and outputs it to the output control unit 55. When the content selection unit 54 selects content based on the reproduction history information, the content selection unit 54 outputs the content ID of the content to the output control unit 55 as recommended content. In addition, when the content selection unit 54 selects content based on the reproduction history information, the content (substance) may be read from the content storage unit 93 and output to the output control unit 55 instead of the content ID. .
  • the output control unit 55 controls the speaker 61, the display unit 62, and the vibration unit 63. In addition, the output control unit 55 transmits various information to the communication unit 40.
  • (1. Information for vehicles) When acquiring the vehicle information from the control information generating unit 52, the output control unit 55 outputs the vehicle information to the communication unit 40.
  • (2. Information for own device) When the notification information for the device itself is acquired from the notification information generation unit 53, the output control unit 55 causes the speaker 61 to notify (sound output) the notification content. That is, the output control unit 55 generates audio information based on the notification information for the own device acquired from the notification information generation unit 53 and outputs the generated audio information to the speaker 61.
  • the output control unit 55 may notify (display) the notification content on the display unit 62 when the notification information for the device itself is acquired from the notification information generation unit 53. That is, the output control unit 55 may generate display information based on the notification information for the own device acquired from the notification information generation unit 53 and output the generated display information to the display unit 62.
  • the output control unit 55 notifies (vibrates) the notification content to the vibration unit 63 instead of or in addition to the speaker 61 or the display unit 62. Also good. That is, the output control unit 55 may generate vibration control information based on the notification information for the own device acquired from the notification information generation unit 53 and output the generated vibration control information to the vibration unit 63.
  • Vehicle notification information When the output control unit 55 acquires the vehicle notification information from the notification information generation unit 53, the output control unit 55 outputs the notification content to the communication unit 40.
  • Content (entity) When the output control unit 55 acquires the music (substance) from the content selection unit 54, the output control unit 55 generates audio information based on the music, outputs the generated audio information to the speaker 61, and reproduces the music on the speaker 61 ( Audio output).
  • the output control unit 55 acquires an image (entity) from the content selection unit 54, the output control unit 55 generates display information based on the image (image information), and outputs the generated display information to the display unit 62. The image is reproduced (displayed).
  • the output control unit 55 When the output control unit 55 acquires the content ID from the content selection unit 54, the output control unit 55 displays the content ID on the display unit 62. (6. Others) The output control unit 55 outputs screen information (for example, screen information of the music designation reception screen) to the display unit 62 and causes the display unit 62 to display various screens.
  • the screen information is stored in, for example, the storage unit 90 (screen information storage unit (not shown)).
  • the communication unit 40 communicates with the outside.
  • the electronic device 1 includes a connection unit, and when the electronic device 1 is connected to a passenger car (a connection unit included in the passenger car) by the connection unit, the communication unit 40 is connected to the connected passenger car. Send and receive various information.
  • the electronic device 1 may transmit and receive various types of information to and from the passenger car that has been on board by wireless communication.
  • the information transmitted by the communication unit 40 is, for example, vehicle information (travel control information, device control information) generated by the control information generation unit 52, vehicle notification information generated by the notification information generation unit 53, and the like.
  • the information received by the communication unit 40 is information (vehicle-side generation information) generated (or acquired) in the vehicle.
  • An example of the vehicle-side generation information is a motion detection value (vehicle-side motion detection value) detected by a motion sensor (vehicle-side motion sensor) included in the vehicle.
  • FIG. 3A, 3B, and 4 are examples of information stored in the detected value storage unit 91.
  • FIG. The detection value storage unit 91 stores the living body detection value as described above.
  • the detection value storage unit 91 stores the boarding / non-boarding classification and the biological detection value in association with the detection date and time.
  • the detection value storage unit 91 associates with the detection date “date 1” with the riding / non-riding classification “0 (non-riding)”, the heart rate “M ⁇ 1”, and the body temperature “T ⁇ ”. 1 ”is stored, and the boarding / non-boarding classification“ 1 (riding) ”, the heart rate“ M-2 ”, and the body temperature“ T-2 ”are stored in association with the detection date“ date 2 ”.
  • the information (value) stored in the boarding / non-boarding classification of FIG. 3A is the living body detection value detected when boarding or the living body detection value detected when boarding It is information which shows. Specifically, the determination result during / not riding by the determination unit (image analysis unit 51) is reflected (stored) in the riding / non-riding category.
  • the heart rate detected by the heart rate monitor 14 and the body temperature detected by the thermometer 15 are stored as the living body detection values, but the electronic device 1 is replaced with the heart rate monitor 14 (thermometer 15).
  • a biological detection value detected by the biological sensor X is stored instead of or in addition to the heart rate (body temperature).
  • FIG. 3A shows an example of the storage format of the living body detection values (heart rate, body temperature) when the heart rate and body temperature are measured at the same time, but the heart rate and body temperature are not necessarily measured at the same time.
  • the detection value storage unit 91 may store the living body detection value in the format shown in FIG. 3B.
  • the detection value storage unit 91 associates the detection date and time “date 3” with the boarding / non-boarding category “0 (non-riding)”, the detection value category “1 (heart rate)”, and the heart rate.
  • the number “M-3” is stored, and in association with the detection date “date 4”, the boarding / non-boarding classification “1 (riding)”, the detection value classification “1 (heart rate)”, and the heart rate “M-4” ”Is stored, and the boarding / non-boarding classification“ 1 (riding) ”, the detection value classification“ 2 (body temperature) ”, and the heart rate“ T-5 ”are stored in association with the detection date“ date 5 ”.
  • the information (value) stored in the detection value category shown in FIG. 3B is information indicating whether the living body detection value is a heart rate or a body temperature.
  • the detection value storage unit 91 stores a motion sensor (electronic device side motion detection value, vehicle side motion detection value) in addition to the living body detection value as described above.
  • the detection value storage unit 91 stores the electronic device side motion detection value and the vehicle side motion detection value that are detected at the same time in association with each other.
  • the detected value storage unit 91 stores the acceleration measurement values (X0 a ⁇ 1, Y0 a ⁇ 1, Z0 a ⁇ 1), which are the detected motion values on the electronic device side, all detected at the detection time 1.
  • ⁇ 1, Z1 a ⁇ 1) and angular velocity measurement values (X1 ⁇ - 1, Y1 ⁇ - 1, Z1 ⁇ - 1), which are vehicle side motion detection values, are stored in association with each other at the detection time 2.
  • Y0 ⁇ - 2, Z0 ⁇ - 2) and acceleration measurement values (X1 a -2, Y1 a -2) which are vehicle side motion detection values , Z1 a -2) and angular velocity measurement values (X1 ⁇ - 2, Y1 ⁇ - 2, Z1 ⁇ - 2), which are vehicle side motion detection values, are stored in association with each other.
  • the vehicle side motion detection value is received by the communication unit 40 and stored in the detection value storage unit 91 as described above.
  • the playback history storage unit 92 stores playback history information of content (for example, music, images) as described above.
  • the reproduction history storage unit 92 stores the boarding / non-boarding classification and the content ID in association with the reproduction date / time.
  • the playback history storage unit 92 stores the boarding / non-boarding classification “0 (non-boarding)” and the content ID “G012345” in association with the playback date “date 1”.
  • the boarding / non-boarding classification “1 (riding)” and the content ID “G098765” are stored in association with “date 2”.
  • the boarding / non-boarding classification in FIG. 5A is the same as the detection value storage unit 91.
  • the content ID is identification information for identifying the reproduced content.
  • the reproduction history storage unit 92 may further store additional information as shown in FIG. 5B.
  • An example of the additional information is a reproduction start location and a simultaneous viewer ID.
  • the reproduction start location is position information when the content is reproduced.
  • the GPS 13 may acquire position information at the time of disclosure of content reproduction and store it in the reproduction history storage unit 92 as additional information (reproduction start location), or the communication unit 40 (for example, functions as a wireless LAN communication).
  • the position information may be acquired from a nearby server and stored as additional information (reproduction start location) when content reproduction is disclosed.
  • the simultaneous viewer ID is identification information for identifying a person who simultaneously viewed the content.
  • the simultaneous viewer ID input via the instruction receiving unit 30 at the time of disclosure of content reproduction may be stored in the reproduction history storage unit 92 as additional information (simultaneous viewer ID), or the facial feature information and the user A user DB that holds an ID is held, and the image analysis unit 51 refers to the user DB when content reproduction is disclosed, identifies a nearby person (user ID), and additional information (simultaneous viewer ID) May be stored in the reproduction history storage unit 92.
  • the reproduction history storage unit 92 further associates the reproduction date and time “date and time 1” with the reproduction start location “K-1, I-1” and the simultaneous viewer ID “-(none)”. Is stored in association with the reproduction date and time “date 2”, and further, the reproduction start location “K-2, I-2” and the simultaneous viewer ID “U025” are stored.
  • FIG. 6 is an example of a flowchart showing one processing flow of the electronic device 1. Specifically, the flowchart shown in FIG. 6 represents a flow of processing for generating vehicle information based on the living body detection value. The flowchart shown in FIG. 6 starts at regular time intervals (periodically). It is assumed that the electronic device 1 is carried by the user A.
  • the biological sensors detect (measure) the biological information (heart rate, body temperature) of the user A (step S100).
  • the processing unit 50 (a processing request unit (not shown)) outputs a detection command to the biosensor, and the biosensor detects the biometric information of the user A according to the detection command.
  • the biological information (biological detection value) detected by the biological sensor is output to the image analysis unit 51 via a processing request unit (not shown).
  • the biometric sensor may always detect biometric information and output the latest (latest) biometric information detected immediately before the detection command to the processing unit 50.
  • the imaging unit 20 images the subject or the surroundings (step S110). For example, when the processing unit 50 (a processing request unit (not shown)) outputs a detection command to the biological sensor, the imaging unit 20 outputs an imaging command to the imaging unit 20. Take an image. The captured image captured by the imaging unit 20 is output to the image analysis unit 51 via a processing request unit (not shown).
  • the processing unit 50 a processing request unit (not shown)
  • the imaging unit 20 outputs an imaging command to the imaging unit 20.
  • the captured image captured by the imaging unit 20 is output to the image analysis unit 51 via a processing request unit (not shown).
  • the image analysis unit 51 determines whether or not the user A is on board based on the captured image captured in step S110 (step S120). For example, the image analysis unit 51 determines whether or not the user A is on board by extracting a feature amount from the captured image and comparing it with a reference feature amount that is held in advance.
  • step S120 when the image analysis unit 51 determines that the user A is not in the boarding (step S120: No), the image analysis unit 51 detects in step S100 together with information indicating that the user A is not in the boarding.
  • the biometric information thus obtained is stored in the detection value storage unit 91 (step S130). Specifically, the image analysis unit 51 writes the detection date and time (current date and time), the boarding / non-boarding classification “0 (non-boarding)”, and the living body detection values (heart rate and body temperature) in the detection value storage unit 91. And the process of the flowchart shown in FIG. 6 is complete
  • step S120 when the image analysis unit 51 determines that the user A is on board (step S120: Yes), the image analysis unit 51 acquires in step S100 together with information indicating that the user A is detected.
  • the biometric information thus obtained is stored in the detected value storage unit 91 (step S140). Specifically, the image analysis unit 51 writes the detection date and time (current date and time), the boarding / non-boarding classification “1 (riding)”, and the living body detection values (heart rate and body temperature) in the detection value storage unit 91.
  • the control information generation unit 52 determines whether or not the current biological information (the biological information detected in the current step S100 and stored in the step S140) is an abnormal value (step S150). . Specifically, the control information generating unit 52 refers to the detection value storage unit 91 and compares the current biological information with the previous biological information (biological information stored in the detection value storage unit 91 in the past). Then, it is determined whether or not the current biological information is an abnormal value. For example, the control information generation unit 52 compares the current biological information with the biological information that has not been ridden among the biological information up to the previous time (that is, the biological information that has not been ridden in the past). It is determined whether or not the information is an abnormal value.
  • the control information generation unit 52 also compares the biological information on board of the biological information up to the previous time (that is, compares the information with both of the past and non-riding biological information), and the current biological information is abnormal. It may be determined whether or not it is a value.
  • the control information generation unit 52 calculates the average value of past biological information (the past biological information during non-riding or the past biological information during riding and non-riding) and the current biological information. If the difference is greater than or equal to a predetermined threshold, it may be determined that the current biological information is an abnormal value.
  • the control information generation unit 52 may detect past biological information detected in the same time zone as the detection time of the current biological information (biological information during past non-boarding, or biological information during past boarding and non-boarding). If the difference between the average value of (information) and the current biological information is equal to or greater than a predetermined threshold, it may be determined that the current biological information is an abnormal value.
  • the control information generating unit 52 compares the current biological information with the biological information in the related information when generating the vehicle information using the related information (the medical record information) acquired from the hospital, or The current biological information, the past biological information, and the biological information in the related information may be compared to determine whether or not the current biological information is an abnormal value.
  • step S150 when the control information generation unit 52 determines that the current biological information is not an abnormal value (step S150: No), the process of the flowchart illustrated in FIG. 6 ends. Note that the processing of the flowchart shown in FIG. 6 starts again after a predetermined time has elapsed.
  • step S150 when the control information generation unit 52 determines that the current biological information is an abnormal value (step S150: Yes), the control information generation unit 52 performs vehicle information (travel control information, device control information). Is generated (step S160). For example, when the heart rate is an abnormal value, the control information generation unit 52 generates traveling control information that gradually decreases the speed. Moreover, when the body temperature is an abnormal value, the control information generation unit 52 may generate device control information for controlling the air conditioning device. The vehicle information generated by the control information generation unit 52 is output to the communication unit 40 via the output control unit 55.
  • step S160 the communication unit 40 transmits the vehicle information generated by the control information generation unit 52 in step S150 to the vehicle (step S170). And the process of the flowchart shown in FIG. 6 is complete
  • the aspect of the flowchart shown in FIG. 6 is an aspect in which a determination is made as to whether or not the user is in the vehicle based on the captured image each time biometric information is detected (that is, imaging is performed for one execution of the biometric information detection process).
  • the determination process based on the image is performed once during the boarding / non-boarding process
  • the processing timing of the biometric information detection process and the determination process during / non-boarding is not limited to the above.
  • the electronic device 1 may execute the determination process during boarding / non-boarding based on the captured image once for execution of the biometric information detection process n times (n is 2 or more).
  • FIG. 6 shows the flow of processing when generating vehicle information (travel control information, device control information) based on a living body detection value, but notification information ( The flow of processing when generating own device notification information / vehicle notification information) is the same.
  • step S160 in addition to the vehicle information generation processing by the control information generation unit 52, the notification information generation unit 53 generates the vehicle notification information. Good. Further, in the case where the notification information is generated instead of the vehicle information, in step S150, the notification information generation unit 53 replaces the control information generation unit 52 with respect to whether or not the current biological information is an abnormal value. In step S160, the notification information generation unit 53 may generate notification information instead of the vehicle information generation processing by the control information generation unit 52.
  • the vehicle notification information generated by the notification information generation unit 53 is output to the communication unit 40 via the output control unit 55.
  • the notification information for own device generated by the notification information generation unit 53 is output to the output unit 60 via the output control unit 55. Therefore, when there is an abnormality such as an increase in heart rate while riding, safety measures such as giving a warning by voice, screen display, or vibration can be taken.
  • FIG. 7 is an example of a flowchart showing another processing flow of the electronic device 1. Specifically, the flowchart shown in FIG. 7 represents a flow of processing for generating vehicle notification information based on the motion detection value.
  • the electronic device 1 is assumed to be in the vehicle.
  • the motion sensor (acceleration sensor 11, gyro sensor 12, GPS 13) included in the electronic device 1 detects the movement of the electronic device 1 (step S ⁇ b> 200). That is, the electronic device side motion sensor acquires the electronic device side motion detection value.
  • the processing unit 50 (a processing request unit (not shown)) outputs a detection command to the electronic device-side motion sensor, and the electronic device-side motion sensor detects the movement of the electronic device 1 according to the detection command.
  • the electronic device side motion detection value detected by the electronic device side motion sensor is output to a processing request unit (not shown). Note that the electronic device side motion sensor always detects the movement of the electronic device 1 and sends the latest (latest) electronic device side motion detection value detected immediately before the detection command to the processing unit 50. It may be output.
  • a processing request unit (not shown) stores the electronic device side motion detection value detected in step S200 in the detection value storage unit 91 (step S210).
  • the communication unit 40 receives the vehicle-side motion detection value detected by the vehicle-side motion sensor (step S220). For example, when the processing unit 50 (a processing request unit (not shown)) outputs a detection command to the electronic device-side motion sensor, the processing unit 50 outputs a reception command to the communication unit 40. A side movement detection value is received from the vehicle. The vehicle side motion detection value received by the communication unit 40 is output to a processing request unit (not shown). The communication unit 40 always receives the vehicle-side motion detection value from the vehicle, and outputs the latest (latest) vehicle-side motion detection value received immediately before the reception command to the processing unit 50. May be.
  • a processing request unit (not shown) stores the vehicle side motion detection value received in step S220 in the detection value storage unit 91 in association with the electronic device side motion detection value stored in step S210. (Step S230).
  • the notification information generation unit 53 determines whether the difference between the electronic device side motion detection value detected in step S200 and the vehicle side motion detection value received in step S220 is greater than or equal to a predetermined threshold. It is determined whether or not (step S240). That is, the notification information generation unit 53 refers to the detection value storage unit 91, compares the electronic device side motion detection value stored in step S210 with the vehicle side motion detection value stored in step S230, and compares the difference. Is greater than or equal to a predetermined threshold.
  • step S240 when the notification information generation unit 53 determines that the difference is not equal to or greater than the predetermined threshold (step S240: No), the process of the flowchart illustrated in FIG. 7 ends. Note that the processing of the flowchart shown in FIG. 7 is restarted as appropriate.
  • step S240 when the notification information generation unit 53 determines that the difference is equal to or greater than a predetermined threshold (step S240: Yes), the notification information generation unit 53 generates vehicle notification information (step S250). For example, when the difference between accelerations is equal to or greater than a predetermined threshold value for acceleration, the notification information generating unit 53 generates vehicle notification information (message) indicating that the vehicle acceleration sensor should be confirmed (gyro sensor or the like). The same applies to.
  • vehicle notification information generated by the notification information generation unit 53 is output to the communication unit 40 via the output control unit 55.
  • step S250 the communication unit 40 transmits the vehicle notification information generated by the notification information generation unit 53 in step S240 to the vehicle (step S260). And the process of the flowchart shown in FIG. 7 is complete
  • step S250 the notification information generation unit 53 may generate notification information for the own device.
  • the self-device notification information generated by the notification information generation unit 53 is output to the output unit 60 via the output control unit 55. Accordingly, the user can recognize the notification content by the sound, screen display, or vibration of the electronic device 1.
  • the flowchart shown in FIG. 7 represents the flow of processing when generating notification information based on the motion detection value
  • the vehicle information travel control information, device control information
  • the flow of processing when generating is the same.
  • control information generation unit 52 may generate the vehicle information in addition to the notification information generation processing by the notification information generation unit 53 in step S250. Further, in the case of generating vehicle information instead of the notification information, in step S240, the control information generation unit 52 instead of the notification information generation unit 53 determines whether the difference is equal to or greater than a predetermined threshold value. In step S250, in addition to the notification information generation processing by the notification information generation unit 53, the control information generation unit 52 may generate vehicle information.
  • FIG. 8 is an example of a flowchart showing another processing flow of the electronic device 1. Specifically, the flowchart shown in FIG. 8 represents a flow of processing for selecting music. The flowchart shown in FIG. 8 starts when the music designation reception screen is displayed on the display unit 62 (or when the reproduction of one music is finished). It is assumed that the electronic device 1 is carried by the user A.
  • the imaging unit 20 images the subject or the surroundings (step S300). For example, when the processing unit 50 (a processing request unit (not shown)) displays the music designation reception screen on the display unit 62 (or when the reproduction of one music is finished), the imaging unit 20 receives an imaging command. And the imaging unit 20 images the subject or the surroundings according to the imaging command. The captured image captured by the imaging unit 20 is output to the image analysis unit 51 via a processing request unit (not shown).
  • a processing request unit not shown
  • the image analysis unit 51 determines whether or not the user A is on the basis of the captured image captured in step S300 (step S310). For example, the image analysis unit 51 determines whether or not the user A is on board by extracting a feature amount from the captured image and comparing it with a reference feature amount that is held in advance.
  • step S310 when the image analysis unit 51 determines that the user A is not in the boarding (step S310: No), the instruction receiving unit 30 receives the designation of the reproduced music from the user (step S352). For example, the instruction receiving unit 30 receives the designation of the reproduced music from the user via the music designation receiving screen displayed on the display unit 62. When the music designation acceptance screen is not displayed on the display unit 62, the output control unit 55 causes the display unit 62 to display the music designation acceptance screen. The instruction receiving unit 30 outputs the music ID of the music designated as the reproduced music to the output control unit 55.
  • step S352 the output control unit 55 reads the music selected in step S352 from the content storage unit 93 and outputs it to the speaker 61, and the speaker 61 starts reproduction of the music (step S362).
  • step S362 the output control unit 55 stores, in the reproduction history, the music ID of the music selected in step S352 (that is, the music played by the speaker 61) together with the information indicating that the music was played while not riding.
  • the information is stored in the unit 92 (step S372).
  • the output control unit 55 writes the reproduction date and time (current date and time) and the boarding / non-boarding classification “0 (non-boarding)” in the reproduction history storage unit 92.
  • finished finished. Note that the processing of the flowchart shown in FIG. 8 starts again after the music is reproduced.
  • the communication unit 40 receives the vehicle-side motion detection value detected by the vehicle-side motion sensor.
  • the processing unit 50 a processing request unit (not shown)
  • the communication unit 40 receives the vehicle side motion detection value from the vehicle according to the reception command.
  • the vehicle-side motion detection value received by the communication unit 40 is output to the content selection unit 54 via a processing request unit (not shown).
  • the communication unit 40 always receives the vehicle-side motion detection value from the vehicle, and outputs the latest (latest) vehicle-side motion detection value received immediately before the reception command to the processing unit 50. May be.
  • the content selection unit 54 selects a recommended song (step S330). Specifically, the content selection unit 54 selects a recommended song based on the reproduction history information stored in the reproduction history storage unit 92 and the vehicle-side generation information received in step S320. The content selection unit 54 outputs the music ID of the selected recommended music to the output control unit 55.
  • the content selection unit 54 selects, as a recommended song, a song that has been played during the same time zone when the user is not in the vehicle.
  • the content selection unit 54 may select a music piece that has been played during the same time zone when not on boarding and that has not been played back at the time of boarding as a recommended music.
  • the content selection unit 54 may select the recommended music with reference to the additional information.
  • the content selection unit 54 refers to the additional information (reproduction start location), and is a music reproduced in the same time zone when not boarding, and is reproduced in the same area (with a predetermined distance from the current position).
  • Music that has started playing within the range may be selected as the recommended music.
  • the additional information (simultaneous viewer ID) may be referred to and the music viewed with the fellow passenger may be selected as the recommended music.
  • step S330 the output control unit 55 causes the display unit 62 to display information on the recommended song (for example, song name) on the song designation reception screen (step S340).
  • the instruction receiving unit 30 receives the designation of the reproduced music from the user (step S350).
  • the instruction accepting unit 30 accepts the designation of the playback music from the user via the music designation accepting screen (displaying the music name of the recommended music) displayed on the display unit 62.
  • the instruction receiving unit 30 outputs to the output control unit 55 the music ID of the music designated as the playback music (recommended music or music other than the recommended music).
  • step S350 the output control unit 55 reads the music selected in step S350 from the content storage unit 93 and outputs it to the speaker 61, and the speaker 61 starts playing the music (step S360).
  • the output control unit 55 may output the music to the audio of the vehicle instead of the speaker 61, and the audio of the vehicle may start playing the music.
  • step S360 the output control unit 55 stores, in the reproduction history storage unit 92, the music ID of the music reproduced in step S360, together with information indicating that the music has been reproduced while riding (step S370). Specifically, the output control unit 55 writes the reproduction date and time (current date and time) and the boarding / non-boarding classification “1 (boarding)” in the reproduction history storage unit 92. And the process of the flowchart shown in FIG. 8 is complete
  • the flowchart shown in FIG. 8 shows a flow of processing for selecting music as an example of content, but the same applies to the case of selecting other content (image (moving image, still image)). The same applies when selecting (for example, app).
  • the captured image is acquired every time the flowchart is started, but the captured image may be acquired every time the flowchart is started n times (n is 2 or more).
  • the content selection unit 54 represents a flow of processing when selecting a recommended song to be introduced (displayed) on the display unit 62, but the content selection unit 54 does not instruct the user. You may select the music to play.
  • the image processing determines whether the vehicle is on board or not on board, but the electronic device 1 is on board or not on board.
  • the determination of whether it is in the middle is not limited to the above determination method.
  • the electronic device 1 may determine whether it is on board or not on board by communicating with the vehicle.
  • the electronic device 1 includes a connection unit and the electronic device 1 receives some information from a passenger car (a connection unit included in the passenger car) by the connection unit, the electronic device 1 may determine that the vehicle is on board.
  • the electronic device 1 includes the content storage unit 93, but the electronic device 1 itself may not store the content.
  • the content may be acquired from an external storage (for example, an external server when not riding, or a storage unit in the vehicle when riding) and played back.
  • a program for executing each process of the electronic device 1 according to the embodiment of the present invention is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed. Accordingly, the above-described various processes related to each process of the electronic device 1 according to the embodiment of the present invention may be performed.
  • the “computer system” may include an OS and hardware such as peripheral devices. Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
  • the “computer-readable recording medium” refers to a floppy (registered trademark) disk, a magneto-optical disk, an SD card, a writable nonvolatile memory such as a flash memory, a portable medium such as a CD-ROM, and a computer system.
  • a built-in storage device such as a hard disk.
  • the “computer-readable recording medium” means a volatile memory (for example, DRAM (Dynamic DRAM) in a computer system that becomes a server or a client when a program is transmitted through a network such as the Internet or a communication line such as a telephone line. Random Access Memory)), etc., which hold programs for a certain period of time.
  • the program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium.
  • the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
  • the program may be for realizing a part of the functions described above. Furthermore, what can implement
  • the portable electronic device is detected by the biological sensor that detects biological information (biological parameter), the living body information storage unit that stores the detection value from the biological sensor, and the biological sensor in the vehicle.
  • a generating unit that generates predetermined information based on a current value (current value) of the biological information and at least one past value (previous value) stored in the biological information storage unit;
  • a transmission unit that transmits predetermined information to the vehicle.
  • the portable electronic device includes a main body, a first sensor that detects the movement of the main body, a first detection value from the first sensor, and a second sensor provided in the vehicle.
  • a storage unit that stores the second detection value, and a generation unit that generates predetermined information based on the first detection value and the second detection value stored in the storage unit.

Abstract

 携帯型電子機器(1)は、生体情報を検出する生体センサと、生体センサによって検出された検出値である生体検出値を記憶する検出値記憶部と、乗車中において、今回の生体検出値と、検出値記憶部に記憶されている前回迄の生体検出値とに基づいて、車両において処理される車両用情報を生成する生成部と、生成部によって生成された車両用情報を当該乗車中の車両に送信する送信部とを備える。

Description

携帯型電子機器
 本発明は、携帯型電子機器に関するものである。
 本願は、2012年5月7日に出願された日本国特願2012-105919号に基づき優先権を主張し、その内容をここに援用する。
 従来、外部装置と通信可能な可搬性を有する電子機器が知られている(例えば、特許文献1参照)。特許文献1に開示された携帯表示装置は、例えば、所定の処理(例えば、警告画像表示)の実行に用いる情報(例えば、時刻表情報)を外部(例えば、サーバ)から取得しておき、所定の実行場所(例えば、電車内)に携帯し、所定の処理を実行する。
日本国特開2009-136031号公報
 しかしながら、特許文献1に開示された携帯表示装置は、可搬性を有するものの、複数の場所にて取得した同種の情報を用いて処理を行うというような可搬性を有する利点を十分に活用していない。
 本発明の一態様の携帯型電子機器は、生体情報を検出する生体センサと、前記生体センサによって検出された検出値である生体検出値を記憶する検出値記憶部と、車両乗車中において、今回の前記生体検出値(現在値)と、前記検出値記憶部に記憶されている前回迄の前記生体検出値(少なくとも一つの過去値)とに基づいて、前記車両において処理される車両用情報を生成する生成部と、前記生成部によって生成された前記車両用情報を乗車中の前記車両に送信する送信部とを備える。
 本発明の他の態様の携帯型電子機器は、携帯型電子機器の動きを検出する電子機器側動きセンサと、車両が具備する車両側動きセンサによって検出された検出値である車両側動き検出値を当該車両から受信する受信部と、前記電子機器側動きセンサによって検出された検出値である電子機器側動き検出値、及び、前記受信部によって受信された前記車両側動き検出値を記憶する検出値記憶部と、乗車中において、前記検出値記憶部に記憶されている前記電子機器側動き検出値及び前記車両側動き検出値に基づいて、車両において処理される車両用情報を生成する生成部とを備える。
 本発明の他の態様の携帯型電子機器は、コンテンツを再生する再生部と、コンテンツを選択するコンテンツ選択部と、コンテンツの再生履歴情報を記憶する再生履歴記憶部とを備え、前記再生履歴記憶部は、乗車中及び非乗車中のうち少なくとも一方における前記再生履歴情報を記憶し、前記コンテンツ選択部は、乗車中において、前記再生履歴記憶部に記憶されている前記再生履歴情報に基づいて楽曲を選択する。
 本発明に係る態様によれば、可搬性を有する利点を十分に活用し、ユーザが欲する種々の情報を提供することができる。
本発明の一実施形態による電子機器1の機能ブロック図の一例である。 図1に示した検出部10の構成の一例である。 図1に示した処理部50の構成の一例である。 図1に示した出力部60の構成の一例である。 図1に示した記憶部90の構成の一例である。 検出値記憶部91に記憶される情報の一例である。 検出値記憶部91に記憶される情報の一例である。 検出値記憶部91に記憶される情報の一例である。 再生履歴記憶部92に記憶される情報の一例である。 再生履歴記憶部92に記憶される情報の一例である。 電子機器1の一の処理の流れを示すフローチャートの一例である。 電子機器1の他の処理の流れを示すフローチャートの一例である。 電子機器1の他の処理の流れを示すフローチャートの一例である。
 以下、図面を参照しながら本発明の実施形態について説明する。図1は、本発明の一実施形態による電子機器1の機能ブロック図の一例である。図2A~2Dはそれぞれ、図1に示した検出部10、処理部50、出力部60、記憶部90の構成要素の一例である。
 電子機器1は、通信機能を備える携帯型の電子機器である。電子機器1は、図1に示すように、検出部10、撮像部20、指示受付部30、通信部40、処理部50、出力部60、及び、記憶部90を備える。検出部10は、図2Aに示すように、加速度センサ11、ジャイロセンサ12、GPS13、心拍計(脈拍計)14、体温計15などの総称である。処理部50は、図2Bに示すように、画像解析部51、制御情報生成部52、報知情報生成部53、コンテンツ選択部54、出力制御部55などの総称である。出力部60は、図2Cに示すように、スピーカ61、表示部62、振動部63などの総称である。記憶部90は、図2Dに示すように、検出値記憶部91、再生履歴記憶部92、コンテンツ記憶部93などの総称である。
 加速度センサ11は、電子機器1(筐体)に加わる加速度を検出する。従って、例えば、ユーザが電子機器1を振った場合、また例えば、電子機器1を持ち込んだ乗用車が加減速した場合、加速度センサ11は、加速度を検出する。
 ジャイロセンサ12は、電子機器1(筐体)に加わる角速度を検出する。従って、例えば、ユーザが電子機器1を回転させた場合、また例えば、電子機器1を持ち込んだ乗用車がスピンした場合、ジャイロセンサ12は、角速度を検出する。
 GPS13は、電子機器1(筐体)の位置を検出する(測位する)。従って、例えば、ユーザが電子機器1を携帯し歩いて移動した場合、また例えば、電子機器1を持ち込んだ乗用車が移動した場合、GPS13による検出値(電子機器1の所在)は、変化する。
 加速度センサ11、ジャイロセンサ12及びGPS13は、上述の如く、電子機器1の動きを検出するため、以下、加速度センサ11、ジャイロセンサ12、GPS13の夫々(又は全体)を動きセンサとも称し、当該動きセンサから出力される検出値を動き検出値とも称する。
 また、通信相手の1つである乗用車が具備する動きセンサ(車両側動きセンサとも称する)及び動き検出値(車両側動き検出値とも称する)と区別するために、電子機器1が備える動きセンサを電子機器側動きセンサとも称し、電子機器側動きセンサから出力される動き検出値を電子機器側動き検出値とも称する。
 なお、車両側動き検出値は、通信部40によって受信される(詳細は後述)。
 心拍計14は、人の心拍数を計測する。例えば、筐体の一部に電極を備え、当該電極で心拍を検出し、心拍と心拍との間隔から心拍数を計測する。体温計15は、人の体温を計測する。例えば、体温計15は、サーミスタ、赤外線検知回路を用いて、体温を計測する。以下、心拍計14、体温計15の夫々(又は全体)を生体センサとも称し、当該生体センサから出力される検出値(生体情報)を生体検出値とも称する。
 検出値記憶部91は、生体センサ(心拍計14、体温計15)によって検出された検出値(生体検出値)を記憶する。また、検出値記憶部91は、電子機器側動きセンサによって検出された検出値(電子機器側動き検出値)を記憶する。また、検出値記憶部91は、車両側動きセンサによって検出された動き検出値(車両側動き検出値)、即ち、通信部40によって受信された動き検出値(車両側動き検出値)を記憶する。
 なお、検出値記憶部91に記憶される情報の具体例は後述する(図3A、3B及び図4参照)。
 再生履歴記憶部92は、コンテンツ(例えば、楽曲、画像)の再生履歴情報を記憶する。具体的には、再生履歴記憶部92は、少なくとも非乗車中における再生履歴情報を記憶する。
 なお、再生履歴記憶部92に記憶される情報の具体例は後述する(図5A及び5B参照)。
 また、乗車中であるか、非乗車中であるかは、例えば、画像解析部51によって判定される(詳細は後述)。
 コンテンツ記憶部93は、コンテンツを記憶する。
 スピーカ61は、出力制御部55の制御に従って、種々の音声(音を含む)を出力する。例えば、スピーカ61は、コンテンツ記憶部93に記憶されている楽曲(楽曲情報)に基づいて出力制御部55が生成した音声情報に従って当該楽曲を音声出力(再生)する。
 また例えば、スピーカ61は、報知情報生成部53が生成した報知情報(自機器用報知情報)に基づいて出力制御部55が生成した音声情報に従って当該報知内容を音声出力する。
 表示部62は、出力制御部55の制御に従って、種々の情報を表示する。例えば、表示部62は、コンテンツ記憶部93に記憶されている画像(画像情報)に基づいて出力制御部55が生成した表示情報に従って当該画像を表示(再生)する。また例えば、表示部62は、報知情報生成部53が生成した報知情報(自機器用報知情報)に基づいて出力制御部55が生成した表示情報に従って当該報知内容を表示する。なお、表示部62は、コンテンツ以外(例えば、楽曲の指定を受け付ける楽曲指定受付画面)も表示する。
 振動部63は、出力制御部55の制御に従って、筐体を振動させる。例えば、振動部63は、報知情報生成部53が生成した報知情報(自機器用報知情報)に基づいて出力制御部55が生成した振動制御情報に従って筐体を振動させる。なお、振動部22の一例は、振動モータである。
 スピーカ61、表示部62及び振動部63は、上述の如く、報知情報に従って駆動(音声出力、表示、振動)し、また、スピーカ61及び表示部62は、上述の如く、コンテンツを再生(音声出力、表示)するため、スピーカ61、表示部62、振動部63の夫々(又は全体)は報知部としても機能し、また、スピーカ61及び表示部62は再生部としても機能する。
 撮像部20は、例えば、カメラユニットである。撮像部20は、指示受付部30を介してユーザから受け付けた指示(撮像指示)に応じて(より詳細には、撮像指示を取得した処理部50からの撮像命令に従って)、被写体又は周囲を撮像し、撮像画像を処理部50に出力する。また、撮像部20は、ユーザからの撮像指示によらずに、被写体又は周囲を撮像し、撮像画像を処理部50に出力する。例えば、撮像部20は、生体センサ(心拍計14、体温計15)が生体情報を検出した場合、又は、コンテンツを再生した場合に、被写体又は周囲を撮像し、撮像画像を処理部50に出力する。
 指示受付部30は、種々の指示(例えば、撮像指示、再生指示)を受け付ける。指示受付部30は、指示を受け付けた場合、処理部50に指示情報を出力する。なお、指示受付部30の一例は、筐体に配置された種々のボタン、表示部62に表示された種々のボタンである。
 画像解析部51は、撮像部20によって撮像された撮像画像を解析する。例えば、画像解析部51は、一の撮像画像が乗用車内において撮像されたものであるか否かを解析(判定)する。例えば、画像解析部51は、今回撮像部20から取得した撮像画像から特徴量を抽出し、予め保持している基準特徴量(比較用として乗用車内を撮像した撮像画像から抽出した特徴量)と比較することで、今回取得した撮像画像が乗用車内において撮像されたものであるか否かを解析(判定)する。
 撮像画像が乗用車内において撮像されたものであるか否かを判定することは、当該電子機器1が車両内に存在するか否かを判定することと同義である。即ち、画像解析部51は、撮像画像に基づいて当該電子機器1が車両内に存在するか否かを判定する判定部として機能する。また、電子機器1は、ユーザに携帯されユーザとともに移動し得るものであるため、電子機器1が車両内に存在するか否かを判定することは、電子機器1がユーザに常に携帯されているという前提に立てば、ユーザが乗用車に乗車しているか否かを判定することと同義である。即ち、画像解析部51は、乗車中又は非乗車中を判定する判定部として機能する。
 制御情報生成部52は、乗車中において、当該乗車中の乗用車において処理される車両用情報を生成する。車両用情報の一例は、乗用車の走行を制御する走行制御情報、乗用車が具備する機器(例えば、空調機器)の動作を制御する機器制御情報である。
 具体的には、制御情報生成部52は、乗車中において、今回検出部10が検出した生体検出値(今回の生体検出値、現在値)と、検出値記憶部91に記憶されている過去に検出された生体検出値(前回迄の生体検出値、少なくとも一つの過去値)とに基づいて、車両用情報を生成する。
 より詳細には、制御情報生成部52は、乗車中における今回の生体検出値(現在値)と、前回迄の生体検出値であって非乗車中における生体検出値(少なくとも一つの過去値)に基づいて、車両用情報を生成する。
 また、制御情報生成部52は、乗車中における今回の生体検出値と、前回迄の生体検出値であって乗車中及び非乗車中における生体検出値(即ち、乗車中/非乗車中を問わず前回迄の生体検出値)に基づいて、車両用情報を生成してもよい。
 また、制御情報生成部52は、病院(具体的には、かかりつけの病院)から取得した関連情報(カルテ情報)を用いて車両用情報を生成してもよい。即ち、制御情報生成部52は、乗車中における今回の生体検出値と、関連情報(カルテ情報)とに基づいて、車両用情報を生成してもよいし、乗車中における今回の生体検出値と、検出値記憶部91に記憶されている前回迄の生体検出値と、関連情報とに基づいて、車両用情報を生成してもよい。なお、関連情報(カルテ情報)は、例えば、通信部40によって取得する。
 また、制御情報生成部52は、乗車中において、生体検出値(今回の生体検出値、前回迄の生体検出値、関連情報)に代えてまたは加えて動き検出値(電子機器側動き検出値、車両側動き検出値)を参照し、車両用情報を生成してもよい。つまり、制御情報生成部52は、検出値記憶部91に記憶されている電子機器側動き検出値と、車両側動き検出値とを比較して、車両用情報を生成してもよい。
 車両用情報を生成した制御情報生成部52は、生成した車両用情報を出力制御部55に出力する。
 報知情報生成部53は、乗車中において、今回の生体検出値と、前回迄の生体検出値とに基づいて報知情報を生成する。報知情報には、電子機器1の報知部(スピーカ61、表示部62、振動部63)によって報知される自機器用報知情報と、乗用車が具備する報知部によって報知される車両用報知情報とがある。つまり、報知情報生成部53は、今回の生体検出値と、前回迄の生体検出値とに基づいて自機器用報知情報又は/及び車両用報知情報を生成する。なお、報知情報生成部53は、制御情報生成部52と同様、病院から取得した関連情報を用いて自機器用報知情報又は/及び車両用報知情報を生成してもよい。
 また、報知情報生成部53は、制御情報生成部52と同様、乗車中において、検出値記憶部91に記憶されている電子機器側動き検出値と、車両側動き検出値とを比較して、報知情報(自機器用報知情報/車両用報知情報)を生成してもよい。
 報知情報(自機器用報知情報/車両用報知情報)を生成した報知情報生成部53は、生成した報知情報を出力制御部55に出力する。
 コンテンツ選択部54は、コンテンツを選択する。例えば、コンテンツ選択部54は、楽曲指定受付画面の表示中において、指示受付部30を介してユーザから受け付けた指示(再生指示)に応じてコンテンツを選択する。
 また、コンテンツ選択部54は、ユーザからの再生指示によらずに、コンテンツを選択する。例えば、コンテンツ選択部54は、乗車中において、楽曲指定受付画面が表示部62に表示されたときに(又は、一の楽曲の再生が終了したときに)、再生履歴記憶部92に記憶されている再生履歴情報に基づいてコンテンツを選択する。
 コンテンツ選択部54は、再生指示に応じてコンテンツを選択した場合、当該コンテンツ(実体)をコンテンツ記憶部93から読み出して出力制御部55に出力する。コンテンツ選択部54は、再生履歴情報に基づいてコンテンツを選択した場合、推薦コンテンツとして当該コンテンツのコンテンツIDを出力制御部55に出力する。また、コンテンツ選択部54は、再生履歴情報に基づいてコンテンツを選択した場合に、コンテンツIDに代えて、当該コンテンツ(実体)をコンテンツ記憶部93から読み出して出力制御部55に出力してもよい。
 出力制御部55は、スピーカ61、表示部62、振動部63を制御する。また、出力制御部55は、通信部40に種々の情報を送信する。
(1.車両用情報)
 出力制御部55は、制御情報生成部52から車両用情報を取得した場合、通信部40に当該車両用情報を出力する。
(2.自機器用報知情報)
 出力制御部55は、報知情報生成部53から自機器用報知情報を取得した場合、スピーカ61に当該報知内容を報知(音声出力)させる。即ち、出力制御部55は、報知情報生成部53から取得した自機器用報知情報に基づいて音声情報を生成し、生成した音声情報をスピーカ61に出力する。
 出力制御部55は、報知情報生成部53から自機器用報知情報を取得した場合に、表示部62に当該報知内容を報知(表示)させてもよい。即ち、出力制御部55は、報知情報生成部53から取得した自機器用報知情報に基づいて表示情報を生成し、生成した表示情報を表示部62に出力してもよい。
 出力制御部55は、報知情報生成部53から自機器用報知情報を取得した場合に、スピーカ61又は表示部62に代えて又は加えて、振動部63に当該報知内容を報知(振動)させてもよい。即ち、出力制御部55は、報知情報生成部53から取得した自機器用報知情報に基づいて振動制御情報を生成し、生成した振動制御情報を振動部63に出力してもよい。
(3.車両用報知情報)
 出力制御部55は、報知情報生成部53から車両用報知情報を取得した場合、通信部40に当該報知内容を出力する。
(4.コンテンツ(実体))
 出力制御部55は、コンテンツ選択部54から楽曲(実体)を取得した場合、当該楽曲に基づいて音声情報を生成し、生成した音声情報をスピーカ61に出力し、スピーカ61に当該楽曲を再生(音声出力)させる。
 出力制御部55は、コンテンツ選択部54から画像(実体)を取得した場合、当該画像(画像情報)に基づいて表示情報を生成し、生成した表示情報を表示部62に出力し、表示部62に当該画像を再生(表示)させる。
(5.コンテンツID)
 出力制御部55は、コンテンツ選択部54からコンテンツIDを取得した場合、当該コンテンツIDを表示部62に表示させる。
(6.その他)
 出力制御部55は、画面情報(例えば、楽曲指定受付画面の画面情報)を表示部62に出力し、表示部62に種々の画面を表示させる。なお、画面情報は、例えば、記憶部90(非図示の画面情報記憶部)に記憶されている。
 通信部40は、外部と通信する。例えば、電子機器1は、接続部を備え、当該接続部によって電子機器1が乗用車(乗用車が具備する接続部)と接続しているときに、通信部40は、接続中の乗用車との間で種々の情報を送受信する。電子機器1は、無線通信によって、乗車した乗用車との間で種々の情報を送受信してもよい。
 通信部40によって送信される情報は、例えば、制御情報生成部52によって生成された車両用情報(走行制御情報、機器制御情報)、報知情報生成部53によって生成された車両用報知情報などである。
 通信部40によって受信される情報は、車両において生成(又は取得)される情報(車両側生成情報)である。車両側生成情報の一例は、車両が具備する動きセンサ(車両側動きセンサ)によって検出された動き検出値(車両側動き検出値)である。
 図3A、3B及び図4は、検出値記憶部91に記憶される情報の一例である。
 検出値記憶部91は、上述の如く生体検出値を記憶する。例えば、検出値記憶部91は、図3Aに示すように、検出日時に対応付けて、乗車・非乗車区分、及び、生体検出値を記憶する。図3Aの例では、検出値記憶部91には、検出日時「日時1」に対応付けて、乗車・非乗車区分「0(非乗車)」、心拍数「M-1」及び体温「T-1」が記憶され、検出日時「日時2」に対応付けて、乗車・非乗車区分「1(乗車)」、心拍数「M-2」及び体温「T-2」が記憶されている。
 なお、図3Aの乗車・非乗車区分に記憶される情報(値)は、当該生体検出値が、乗車時に検出された生体検出値であるか、非乗車時に検出された生体検出値であるかを示す情報である。具体的には、判定部(画像解析部51)による乗車中/非乗車中の判定結果が、乗車・非乗車区分に反映(記憶)される。
 また、図3Aの例では、生体検出値として、心拍計14によって検出された心拍数、及び、体温計15によって検出された体温を記憶するが、電子機器1が心拍計14(体温計15)に代えて又は加えて、心拍計14(体温計15)以外の生体センサXを備える場合には、心拍数(体温)に代えて又は加えて、生体センサXによって検出される生体検出値を記憶する。
 なお、図3Aは、心拍数と体温とを同一時刻に測定する場合の生体検出値(心拍数、体温)の記憶形式の一例を示しているが、心拍数と体温とを必ずしも同一時刻に測定しない場合には、検出値記憶部91には、図3Bに示すような形式で生体検出値を記憶してもよい。図3Bの例では、検出値記憶部91には、検出日時「日時3」に対応付けて、乗車・非乗車区分「0(非乗車)」、検出値区分「1(心拍数)」及び心拍数「M-3」が記憶され、検出日時「日時4」に対応付けて、乗車・非乗車区分「1(乗車)」、検出値区分「1(心拍数)」及び心拍数「M-4」が記憶され、検出日時「日時5」に対応付けて、乗車・非乗車区分「1(乗車)」、検出値区分「2(体温)」及び心拍数「T-5」が記憶されている。なお、図3Bに示す検出値区分に記憶される情報(値)は、当該生体検出値が、心拍数であるか、体温であるかを示す情報である。
 また、検出値記憶部91は、上述の如く生体検出値に加え、動きセンサ(電子機器側動き検出値、車両側動き検出値)を記憶する。例えば、検出値記憶部91は、図4に示すように、同時刻に検出した、電子機器側動き検出値と車両側動き検出値とを対応付けて記憶する。図4の例では、検出値記憶部91には、何れも検出時刻1に検出された、電子機器側動き検出値である加速度測定値(X0-1、Y0-1、Z0-1)と、電子機器側動き検出値である角速度測定値(X0θ-1、Y0θ-1、Z0θ-1)と、車両側動き検出値である加速度測定値(X1-1、Y1-1、Z1-1)と、車両側動き検出値である角速度測定値(X1θ-1、Y1θ-1、Z1θ-1)とが対応付けて記憶され、何れも検出時刻2に検出された、電子機器側動き検出値である加速度測定値(X0-2、Y0-2、Z0-2)と、電子機器側動き検出値である角速度測定値(X0θ-2、Y0θ-2、Z0θ-2)と、車両側動き検出値である加速度測定値(X1-2、Y1-2、Z1-2)と、車両側動き検出値である角速度測定値(X1θ-2、Y1θ-2、Z1θ-2)とが対応付けて記憶されている。
 なお、車両側動き検出値は、上述の如く、通信部40によって受信され、検出値記憶部91に記憶される。
 図5A及び5Bは、再生履歴記憶部92に記憶される情報の一例である。再生履歴記憶部92は、上述の如くコンテンツ(例えば、楽曲、画像)の再生履歴情報を記憶する。例えば、再生履歴記憶部92は、図5Aに示すように、再生日時に対応付けて、乗車・非乗車区分、コンテンツIDを記憶する。図5Aの例では、再生履歴記憶部92には、再生日時「日時1」に対応付けて、乗車・非乗車区分「0(非乗車)」及びコンテンツID「G012345」が記憶され、再生日時「日時2」に対応付けて、乗車・非乗車区分「1(乗車)」及びコンテンツID「G098765」が記憶されている。
 図5Aの乗車・非乗車区分は、検出値記憶部91と同様である。コンテンツIDは、再生したコンテンツを識別する識別情報である。
 また例えば、再生履歴記憶部92は、図5Bに示すように、更に、付加情報を記憶してもよい。付加情報の一例は、再生開始場所、同時視聴者IDである。再生開始場所は、コンテンツを再生したときの位置情報である。例えば、GPS13が、コンテンツの再生開示時に位置情報を取得し、付加情報(再生開始場所)として再生履歴記憶部92に記憶してもよいし、通信部40(例えば、無線LANの通信として機能)が、コンテンツの再生開示時に近傍のサーバから位置情報を取得し付加情報(再生開始場所)として記憶してもよい。
 同時視聴者IDは、コンテンツを同時に視聴した者を識別する識別情報である。例えば、コンテンツの再生開示時に指示受付部30を介して入力された同時視聴者IDを付加情報(同時視聴者ID)として再生履歴記憶部92に記憶してもよいし、顔の特徴情報とユーザIDとを保持するユーザDBを保持しておき、コンテンツの再生開示時に画像解析部51が、当該ユーザDBを参照し、近傍の人間(ユーザID)を特定し、付加情報(同時視聴者ID)として再生履歴記憶部92に記憶してもよい。
 図5Bの例では、再生履歴記憶部92には、再生日時「日時1」に対応付けて、更に、再生開始場所「K-1,I-1」及び同時視聴者ID「-(無)」が記憶され、再生日時「日時2」に対応付けて、更に、再生開始場所「K-2,I-2」及び同時視聴者ID「U025」が記憶されている。
 図6は、電子機器1の一の処理の流れを示すフローチャートの一例である。具体的には、図6に示すフローチャートは、生体検出値を基に車両用情報を生成する処理の流れを表している。図6に示すフローチャートは、一定時間毎(定期的)に開始する。なお、電子機器1はユーザAによって携帯されているものとする。
 図6において、生体センサ(心拍計14、体温計15)は、ユーザAの生体情報(心拍数、体温)を検出(測定)する(ステップS100)。例えば、処理部50(非図示の処理要求部)が、生体センサに検出命令を出力し、当該検出命令に従って、生体センサがユーザAの生体情報を検出する。
 生体センサによって検出された生体情報(生体検出値)は、処理要求部(非図示)を介して、画像解析部51に出力される。なお、生体センサは、常時、生体情報を検出し、検出命令があったときに直前に検出していた直近(最新)の生体情報を処理部50に出力してもよい。
 ステップS100に続いて、撮像部20は、被写体又は周囲を撮像する(ステップS110)。例えば、処理部50(非図示の処理要求部)が、生体センサに検出命令を出力する際に、撮像部20に撮像命令を出力し、当該撮像命令に従って、撮像部20が、被写体又は周囲を撮像する。撮像部20によって撮像された撮像画像は、処理要求部(非図示)を介して、画像解析部51に出力される。
 ステップS110に続いて、画像解析部51(判定部)は、ステップS110において撮像された撮像画像に基づいて、ユーザAが乗車中であるか否かを判定する(ステップS120)。例えば、画像解析部51は、撮像画像から特徴量を抽出し、予め保持している基準特徴量と比較することで、ユーザAが乗車中であるか否かを判定する。
 ステップS120において、画像解析部51は、ユーザAが乗車中でないと判定した場合(ステップS120:No)、画像解析部51は、非乗車中に検出された旨を示す情報とともに、ステップS100において検出された生体情報を検出値記憶部91に記憶する(ステップS130)。具体的には、画像解析部51は、検出日時(現在日時)、乗車・非乗車区分「0(非乗車)」、生体検出値(心拍数及び体温)を、検出値記憶部91に書き込む。そして、図6に示すフローチャートの処理は終了する。なお、図6に示すフローチャートの処理は、一定時間経過後に、再度開始する。
 ステップS120において、画像解析部51は、ユーザAが乗車中であると判定した場合(ステップS120:Yes)、画像解析部51は、乗車中に検出された旨を示す情報とともに、ステップS100において取得した生体情報を検出値記憶部91に記憶する(ステップS140)。具体的には、画像解析部51は、検出日時(現在日時)、乗車・非乗車区分「1(乗車)」、生体検出値(心拍数及び体温)を検出値記憶部91に書き込む。
 ステップS140に続いて、制御情報生成部52は、今回の生体情報(今回のステップS100において検出され、ステップS140において記憶された生体情報)が異常値であるか否かを判断する(ステップS150)。具体的には、制御情報生成部52は、検出値記憶部91を参照し、今回の生体情報と、前回迄の生体情報(検出値記憶部91に過去に記憶された生体情報)とを比較し、今回の生体情報が異常値であるか否かを判断する。
 例えば、制御情報生成部52は、今回の生体情報と、前回迄の生体情報のうち非乗車中の生体情報とを比較(即ち、過去の非乗車中の生体情報と比較)し、今回の生体情報が異常値であるか否かを判断する。なお、制御情報生成部52は、前回迄の生体情報のうち乗車中の生体情報とも比較(即ち、過去の乗車中/非乗車中の両方の生体情報と比較)し、今回の生体情報が異常値であるか否かを判断してもよい。
 なお、制御情報生成部52は、例えば、過去の生体情報(過去の非乗車中の生体情報、又は、過去の乗車中及び非乗車中の生体情報)の平均値と、今回の生体情報との差が、所定の閾値以上である場合、今回の生体情報は異常値であると判断してもよい。
 また例えば、制御情報生成部52は、今回の生体情報の検出時刻と同じ時間帯に検出した過去の生体情報(過去の非乗車中の生体情報、又は、過去の乗車中及び非乗車中の生体情報)の平均値と、今回の生体情報との差が、所定の閾値以上である場合、今回の生体情報は異常値であると判断してもよい。
 なお、制御情報生成部52は、病院から取得した関連情報(カルテ情報)を用いて車両用情報を生成する場合には、今回の生体情報と関連情報内の生体情報とを比較し、又は、今回の生体情報と過去の生体情報と関連情報内の生体情報とを比較し、今回の生体情報が異常値であるか否かを判断してもよい。
 ステップS150において、制御情報生成部52は、今回の生体情報が異常値でないと判断した場合(ステップS150:No)、図6に示すフローチャートの処理は終了する。なお、図6に示すフローチャートの処理は、一定時間経過後に、再度開始する。
 ステップS150において、制御情報生成部52は、今回の生体情報が異常値であると判断した場合(ステップS150:Yes)、制御情報生成部52は、車両用情報(走行制御情報、機器制御情報)を生成する(ステップS160)。例えば、制御情報生成部52は、心拍数が異常値であった場合、速度を漸次低下させる走行制御情報を生成する。また、制御情報生成部52は、体温が異常値であった場合、空調機器を制御する機器制御情報を生成してもよい。制御情報生成部52によって生成された車両用情報は、出力制御部55を介して、通信部40に出力される。
 ステップS160に続いて、通信部40は、ステップS150において制御情報生成部52によって生成された車両用情報を車両に送信する(ステップS170)。そして、図6に示すフローチャートの処理は終了する。なお、図6に示すフローチャートの処理は、一定時間経過後に、再度開始する。
 図6に示すフローチャートによれば、例えば、乗車中に心拍数の増加などの異変があった場合に車を減速させるなどの安全対策を行うことができる。
 なお、図6に示すフローチャートの態様は、生体情報の検出の都度、撮像画像に基づいて乗車中/非乗車中の判断する態様(即ち、1回の生体情報の検出処理の実行に対し、撮像画像に基づく乗車中/非乗車中の判断処理を1回実行する態様)であるが、生体情報の検出処理、及び、乗車中/非乗車中の判断処理の処理タイミングは上記に限定されない。
 例えば、電子機器1は、n回(nは2以上)の生体情報の検出処理の実行に対し、撮像画像に基づく乗車中/非乗車中の判断処理を1回実行するようにしてもよい。
 なお、図6に示すフローチャートは、生体検出値を基に車両用情報(走行制御情報、機器制御情報)を生成する場合の処理の流れを表しているが、生体検出値を基に報知情報(自機器用報知情報/車両用報知情報)を生成する場合の処理の流れも同様である。
 車両用情報に加えて報知情報を生成する態様の場合には、ステップS160において、制御情報生成部52による車両用情報の生成処理に加え、報知情報生成部53が車両用報知情報を生成すればよい。また、車両用情報に代えて報知情報を生成する態様の場合には、ステップS150において、制御情報生成部52に代えて報知情報生成部53が、今回の生体情報が異常値であるか否かを判断し、ステップS160において、制御情報生成部52による車両用情報の生成処理に代えて、報知情報生成部53が報知情報を生成すればよい。
 報知情報生成部53によって生成された車両用報知情報は、出力制御部55を介して通信部40に出力される。また、報知情報生成部53によって生成された自機器用報知情報は、出力制御部55を介して出力部60に出力される。従って、乗車中に心拍数の増加などの異変があった場合に、音声、画面表示、振動によって、警告を与えるなどの安全対策を行うことができる。
 図7は、電子機器1の他の処理の流れを示すフローチャートの一例である。具体的には、図7に示すフローチャートは、動き検出値を基に車両用報知情報を生成する処理の流れを表している。なお、電子機器1は、車両内にあるものとする。
 図7において、電子機器1が備える動きセンサ(加速度センサ11、ジャイロセンサ12、GPS13)は、当該電子機器1の動きを検出する(ステップS200)。即ち、電子機器側動きセンサは、電子機器側動き検出値を取得する。例えば、処理部50(非図示の処理要求部)が、電子機器側動きセンサに検出命令を出力し、当該検出命令に従って、電子機器側動きセンサが、当該電子機器1の動きを検出する。
 電子機器側動きセンサによって検出された電子機器側動き検出値は、処理要求部(非図示)に出力される。なお、電子機器側動きセンサは、常時、当該電子機器1の動きを検出し、検出命令があったときに直前に検出していた直近(最新)の電子機器側動き検出値を処理部50に出力してもよい。
 ステップS200に続いて、非図示の処理要求部は、ステップS200において検出された電子機器側動き検出値を検出値記憶部91に記憶する(ステップS210)。
 ステップS210に続いて、通信部40は、車両側動きセンサによって検出された車両側動き検出値を受信する(ステップS220)。例えば、処理部50(非図示の処理要求部)が、電子機器側動きセンサに検出命令を出力する際に、通信部40に受信命令を出力し、当該受信命令に従って、通信部40が、車両側動き検出値を車両から受信する。通信部40によって受信された車両側動き検出値は、処理要求部(非図示)に出力される。なお、通信部40は、常時、車両側動き検出値を車両から受信し、受信命令があったときに直前に受信していた直近(最新)の車両側動き検出値を処理部50に出力してもよい。
 ステップS220に続いて、非図示の処理要求部は、ステップS210において記憶した電子機器側動き検出値に対応付けて、ステップS220において受信された車両側動き検出値を検出値記憶部91に記憶する(ステップS230)。
 ステップS230に続いて、報知情報生成部53は、ステップS200において検出された電子機器側動き検出値と、ステップS220において受信された車両側動き検出値との差が、所定の閾値以上であるか否かを判断する(ステップS240)。つまり、報知情報生成部53は、検出値記憶部91を参照し、ステップS210において記憶された電子機器側動き検出値と、ステップS230において記憶された車両側動き検出値とを比較し、上記差が、所定の閾値以上であるか否かを判断する。
 ステップS240において、報知情報生成部53は、上記差が所定の閾値以上でないと判断した場合(ステップS240:No)、図7に示すフローチャートの処理は終了する。なお、図7に示すフローチャートの処理は、適宜、再開する。
 ステップS240において、報知情報生成部53は、上記差が所定の閾値以上であると判断した場合(ステップS240:Yes)、報知情報生成部53は、車両用報知情報を生成する(ステップS250)。例えば、報知情報生成部53は、加速度同士の差が加速度用の所定の閾値以上であった場合、車両の加速度センサを確認すべき旨の車両用報知情報(メッセージ)を生成する(ジャイロセンサ等についても同様である)。報知情報生成部53によって生成された車両用報知情報は、出力制御部55を介して、通信部40に出力される。
 ステップS250に続いて、通信部40は、ステップS240において報知情報生成部53によって生成された車両用報知情報を車両に送信する(ステップS260)。そして、図7に示すフローチャートの処理は終了する。なお、図7に示すフローチャートの処理は、適宜、再開する。
 図7に示すフローチャートによれば、例えば、報知情報を見た(又は聞いた)ユーザが車両外にて電子機器1を動かせば、車両側動きセンサの精度に問題があるかどうかを確認することができる。つまり、一般に、車両に搭載された動きセンサの精度を客観的に確認することは困難であるが、車両外にて電子機器1を動かして、電子機器側動き検出値が妥当な値であることを確認できれば、車両側動きセンサの精度に問題があるということを客観的に確認することができる。
 なお、図7に示すフローチャートでは、車両用報知情報を生成する場合の処理の流れを表しているが、自機器用報知情報を生成する場合の流れも同様である。即ち、ステップS250において、報知情報生成部53は、自機器用報知情報を生成すればよい。なお、報知情報生成部53によって生成された自機器用報知情報は、出力制御部55を介して出力部60に出力される。従って、ユーザは、電子機器1の音声、画面表示又は振動によって報知内容を認識することができる。
 なお、図7に示すフローチャートは、動き検出値を基に報知情報を生成する場合の処理の流れを表しているが、動き検出値を基に車両用情報(走行制御情報、機器制御情報)を生成する場合の処理の流れも同様である。
 報知情報に加えて車両用情報を生成する態様の場合には、ステップS250において、報知情報生成部53による報知情報の生成処理に加え、制御情報生成部52が車両用情報を生成すればよい。また、報知情報に代えて車両用情報を生成する態様の場合には、ステップS240において、報知情報生成部53に代えて制御情報生成部52が、上記差が、所定の閾値以上であるか否かを判断し、ステップS250において、報知情報生成部53による報知情報の生成処理に加え、制御情報生成部52が車両用情報を生成すればよい。
 図8は、電子機器1の他の処理の流れを示すフローチャートの一例である。具体的には、図8に示すフローチャートは、楽曲を選択する処理の流れを表している。なお、図8に示すフローチャートは、楽曲指定受付画面が表示部62に表示されたときに(又は、一の楽曲の再生が終了したときに)に開始する。なお、電子機器1はユーザAによって携帯されているものとする。
 図8において、撮像部20は、被写体又は周囲を撮像する(ステップS300)。例えば、処理部50(非図示の処理要求部)が、楽曲指定受付画面が表示部62に表示されたときに(又は、一の楽曲の再生が終了したときに)、撮像部20に撮像命令を出力し、当該撮像命令に従って、撮像部20が、被写体又は周囲を撮像する。撮像部20によって撮像された撮像画像は、処理要求部(非図示)を介して、画像解析部51に出力される。
 ステップS300に続いて、画像解析部51(判定部)は、ステップS300において撮像された撮像画像に基づいて、ユーザAが乗車中であるか否かを判定する(ステップS310)。例えば、画像解析部51は、撮像画像から特徴量を抽出し、予め保持している基準特徴量と比較することで、ユーザAが乗車中であるか否かを判定する。
 ステップS310において、画像解析部51が、ユーザAが乗車中でないと判定した場合(ステップS310:No)、指示受付部30は、ユーザから再生楽曲の指定を受け付ける(ステップS352)。例えば、指示受付部30は、表示部62に表示された楽曲指定受付画面を介してユーザから再生楽曲の指定を受け付ける。なお、表示部62に楽曲指定受付画面が表示されていない場合には、出力制御部55は、表示部62に楽曲指定受付画面を表示させる。指示受付部30は、再生楽曲として指定された楽曲の楽曲IDを出力制御部55に出力する。
 ステップS352に続いて、出力制御部55は、ステップS352において選択された楽曲をコンテンツ記憶部93から読み出してスピーカ61に出力し、スピーカ61は、当該楽曲の再生を開始する(ステップS362)。
 ステップS362に続いて、出力制御部55は、非乗車中に再生された旨を示す情報とともに、ステップS352において選択された楽曲(即ち、スピーカ61によって再生された楽曲)の楽曲IDを再生履歴記憶部92に記憶する(ステップS372)。具体的には、出力制御部55は、再生日時(現在日時)、乗車・非乗車区分「0(非乗車)」を再生履歴記憶部92に書き込む。そして、図8に示すフローチャートの処理は終了する。なお、図8に示すフローチャートの処理は、楽曲の再生後に再度開始する。
 一方、ステップS310において、画像解析部51が、ユーザAが乗車中であると判定した場合(ステップS310:Yes)、通信部40は、車両側動きセンサによって検出された車両側動き検出値を受信する(ステップS320)。例えば、上記判断後、処理部50(非図示の処理要求部)が、通信部40に受信命令を出力し、当該受信命令に従って、通信部40が、車両側動き検出値を車両から受信する。通信部40によって受信された車両側動き検出値は、処理要求部(非図示)を介して、コンテンツ選択部54に出力される。なお、通信部40は、常時、車両側動き検出値を車両から受信し、受信命令があったときに直前に受信していた直近(最新)の車両側動き検出値を処理部50に出力してもよい。
 ステップS320に続いて、コンテンツ選択部54は、推薦楽曲を選択する(ステップS330)。具体的には、コンテンツ選択部54は、再生履歴記憶部92に記憶されている再生履歴情報と、ステップS320において受信された車両側生成情報とに基づいて、推薦楽曲を選択する。コンテンツ選択部54は、選択した推薦楽曲の楽曲IDを出力制御部55に出力する。
 なお、コンテンツ選択部54による推薦楽曲の選択方法は種々の方法が考えられる。例えば、コンテンツ選択部54は、非乗車時の同じ時間帯に再生した楽曲を推薦楽曲として選択する。また例えば、コンテンツ選択部54は、非乗車時の同じ時間帯に再生した楽曲であって、最近、乗車時に再生していない楽曲を推薦楽曲として選択してもよい。また例えば、コンテンツ選択部54は、付加情報を参照し、推薦楽曲として選択してもよい。例えば、コンテンツ選択部54は、付加情報(再生開始場所)を参照し、非乗車時の同じ時間帯に再生した楽曲であって、同一エリアにて再生された楽曲(現在位置から所定の距離の範囲内にて再生が開始された楽曲)を推薦楽曲として選択してもよい。また例えば、同乗者がいる場合(撮像画像から判定)に、付加情報(同時視聴者ID)を参照し、当該同乗者と一緒に視聴した楽曲を推薦楽曲として選択してもよい。
 ステップS330に続いて、出力制御部55は、表示部62に、楽曲指定受付画面において推薦楽曲の情報(例えば、楽曲名)を表示させる(ステップS340)。
 ステップS340に続いて、指示受付部30は、ユーザから再生楽曲の指定を受け付ける(ステップS350)。例えば、指示受付部30は、表示部62に表示された楽曲指定受付画面(推薦楽曲の楽曲名を表示中)を介してユーザから再生楽曲の指定を受け付ける。指示受付部30は、再生楽曲として指定された楽曲(推薦楽曲又は推薦楽曲以外の楽曲)の楽曲IDを出力制御部55に出力する。
 ステップS350に続いて、出力制御部55は、ステップS350において選択された楽曲をコンテンツ記憶部93から読み出してスピーカ61に出力し、スピーカ61は、当該楽曲の再生を開始する(ステップS360)。なお、出力制御部55は、スピーカ61に代えて、車両のオーディオに楽曲を出力し、車両のオーディオが、当該楽曲の再生を開始してもよい。
 ステップS360に続いて、出力制御部55は、乗車中に再生された旨を示す情報とともに、ステップS360において再生された楽曲の楽曲IDを再生履歴記憶部92に記憶する(ステップS370)。具体的には、出力制御部55は、再生日時(現在日時)、乗車・非乗車区分「1(乗車)」を再生履歴記憶部92に書き込む。そして、図8に示すフローチャートの処理は終了する。なお、図8に示すフローチャートの処理は、楽曲の再生後に再度開始する。
 図8に示すフローチャートによれば、車を運転していないときの再生履歴を考慮して、乗車中に選曲することができる。なお、図8に示すフローチャートは、コンテンツの一例として楽曲を選択する処理の流れを表しているが、他のコンテンツ(画像(動画、静止画)を選択する場合も同様である、また、コンテンツ以外(例えば、アプリ)を選択する場合も同様である。
 なお、図8に示すフローチャートによれば、フローチャートを開始する毎に撮像画像を取得するが、フローチャートをn回(nは2以上)開始する毎に撮像画像を取得してもよい。なお、フローチャートをn回(nは2以上)開始する毎に撮像画像を取得する場合には、直前に撮像していた直近(最新)の撮像画像を用いて乗車中/非乗車中の判断処理を実行してもよい。
 なお、図8に示すフローチャートでは、コンテンツ選択部54は表示部62において紹介(表示)する推薦楽曲を選択する場合の処理の流れを表しているが、コンテンツ選択部54は、ユーザの指示なしに再生する楽曲を選択してもよい。
 以上、電子機器1によれば、可搬性を有する利点を十分に活用し、車内において有益な情報を提供することができる。
 なお、上記説明では、画像処理(具体的には、画像解析部51)によって乗車中であるか非乗車中であるかを判定しているが、電子機器1は、乗車中であるか非乗車中であるかの判定は、上記判定方法に限定されない。例えば、電子機器1は車両と通信することによって乗車中であるか非乗車中であるかを判定してもよい。例えば、電子機器1が接続部を備え、当該接続部によって電子機器1が乗用車(乗用車が具備する接続部)から何らかの情報を受信した場合に、乗車中であると判定してもよい。
 なお、上記説明では、電子機器1は、コンテンツ記憶部93を備えるが、電子機器1自身がコンテンツを記憶していなくてもよい。例えば、外部のストレージ(例えば、非乗車時は外部のサーバ、乗車時は車両内の記憶部)からコンテンツを取得し、再生してもよい。
 なお、本発明の実施形態による電子機器1の各処理を実行するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、当該記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、本発明の実施形態による電子機器1の各処理に係る上述した種々の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フロッピー(登録商標)ディスク、光磁気ディスク、SDカード、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
 さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
 以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
 上記した実施形態において、携帯型電子機器は、生体情報(生体パラメータ)を検出する生体センサと、前記生体センサからの検出値を記憶する 生体情報記憶部と、車両内で前記生体センサで検出された前記生体情報の現在値(current value)と前記生体情報記憶部に記憶されている少なくとも1つの過去値(previous value)とに基づいて所定情報を生成する生成部と、前記生成部からの前記所定情報を前記車両に送信する送信部とを備える。
 また、上記した実施形態において、携帯型電子機器は、本体と、前記本体の動きを検出する第1センサと、前記第1センサからの第1検出値と、車両に設けられた第2センサからの第2検出値とを記憶する記憶部と、前記記憶部に記憶された前記第1検出値と前記第2検出値とに基づいて所定情報を生成する生成部と、を備える。
1…電子機器 10…検出部 11…加速度センサ 12…ジャイロセンサ 13…GPS 14…心拍計 15…体温計 20…撮像部 30…指示受付部 40…通信部(送信部、受信部) 50…処理部 51…画像解析部 52…制御情報生成部 53…報知情報生成部 54…コンテンツ選択部 55…出力制御部 90…記憶部 91…検出値記憶部 92…再生履歴記憶部 93…コンテンツ記憶部

Claims (13)

  1.  生体情報を検出する生体センサと、
     前記生体センサによって検出された検出値である生体検出値を記憶する検出値記憶部と、
     車両乗車中において、今回の前記生体検出値と、前記検出値記憶部に記憶されている前回迄の前記生体検出値とに基づいて、前記車両において処理される車両用情報を生成する生成部と、
     前記生成部によって生成された前記車両用情報を乗車中の前記車両に送信する送信部と
     を備える携帯型電子機器。
  2.  前記生成部は、
     乗車中における今回の前記生体検出値と、前記前回迄の前記生体検出値であって非乗車中における前記生体検出値とに基づいて、前記車両用情報を生成する
     請求項1に記載の携帯型電子機器。
  3.  前記生成部は、
     乗車中における今回の前記生体検出値と、前記前回迄の前記生体検出値であって乗車中及び非乗車中における前記生体検出値とに基づいて、前記車両用情報を生成する
     請求項1に記載の携帯型電子機器。
  4.  乗車中における今回の前記生体検出値と、前記前回迄の前記生体検出値の平均値とに基づいて、前記車両用情報を生成する
     請求項1乃至請求項3の何れか1項に記載の携帯型電子機器。
  5.  乗車中における今回の前記生体検出値と、前記前回迄の前記生体検出値の平均値との差が所定の閾値以上である場合に、前記車両用情報を生成する
     請求項4に記載の携帯型電子機器。
  6.  前記生成部は、
     前記車両用情報として、車両の走行を制御する走行制御情報、車両が具備する機器の動作を制御する機器制御情報の何れか1つ以上を生成する
     請求項1乃至請求項5の何れか1項に記載の携帯型電子機器。
  7.  報知部をさらに備え、
     前記生成部は、
     前記車両用情報に加え、今回の前記生体検出値と、前記検出値記憶部に記憶されている前回迄の前記生体検出値とに基づいて、前記報知部によって報知される報知情報を生成する
     請求項1乃至請求項6の何れか1項に記載の携帯型電子機器。
  8.  当該携帯型電子機器の動きを検出する電子機器側動きセンサと、
     車両が具備する車両側動きセンサによって検出された検出値である車両側動き検出値を当該車両から受信する受信部と
     をさらに備え、
     前記検出値記憶部は、
     前記電子機器側動きセンサによって検出された検出値である電子機器側動き検出値、及び、前記受信部によって受信された前記車両側動き検出値を記憶し、
     前記生成部は、
     乗車中において、前記検出値記憶部に記憶されている前記電子機器側動き検出値と、前記車両側動き検出値とを比較して、前記車両用情報を生成する
     請求項1乃至請求項7の何れか1項に記載の携帯型電子機器。
  9.  コンテンツを再生する再生部と、
     コンテンツを選択するコンテンツ選択部と、
     コンテンツの再生履歴情報を記憶する再生履歴記憶部と
     をさらに備え、
     前記再生履歴記憶部は、
     乗車中及び非乗車中のうち少なくとも一方における前記再生履歴情報を記憶し、
     前記コンテンツ選択部は、
     乗車中において、前記再生履歴記憶部に記憶されている前記再生履歴情報に基づいて楽曲を選択する
     請求項1乃至請求項8の何れか1項に記載の携帯型電子機器。
  10.  携帯型電子機器の動きを検出する電子機器側動きセンサと、
     車両が具備する車両側動きセンサによって検出された検出値である車両側動き検出値を当該車両から受信する受信部と、
     前記電子機器側動きセンサによって検出された検出値である電子機器側動き検出値、及び、前記受信部によって受信された前記車両側動き検出値を記憶する検出値記憶部と、
     乗車中において、前記検出値記憶部に記憶されている前記電子機器側動き検出値及び前記車両側動き検出値に基づいて、車両において処理される車両用情報を生成する生成部と
     を備える携帯型電子機器。
  11.  コンテンツを再生する再生部と、
     コンテンツを選択するコンテンツ選択部と、
     コンテンツの再生履歴情報を記憶する再生履歴記憶部と
     を備え、
     前記再生履歴記憶部は、
     乗車中及び非乗車中のうち少なくとも一方における前記再生履歴情報を記憶し、
     前記コンテンツ選択部は、
     乗車中において、前記再生履歴記憶部に記憶されている前記再生履歴情報に基づいて楽曲を選択する
     携帯型電子機器。
  12.  乗車中又は非乗車中を判定する判定部をさらに備え、
     前記判定部は、
     当該携帯型電子機器が車両内に存在するか否かを判定し、乗車中又は非乗車中を判定する
     請求項1乃至請求項11の何れか1項に記載の携帯型電子機器。
  13.  撮像部をさらに備え、
     前記判定部は、
     前記撮像部による撮像画像に基づいて、当該携帯型電子機器が車両内に存在するか否かを判定する請求項12に記載の携帯型電子機器。
PCT/JP2013/062838 2012-05-07 2013-05-07 携帯型電子機器 WO2013168705A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012105919 2012-05-07
JP2012-105919 2012-05-07

Publications (1)

Publication Number Publication Date
WO2013168705A1 true WO2013168705A1 (ja) 2013-11-14

Family

ID=49550740

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/062838 WO2013168705A1 (ja) 2012-05-07 2013-05-07 携帯型電子機器

Country Status (1)

Country Link
WO (1) WO2013168705A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007203913A (ja) * 2006-02-02 2007-08-16 Denso Corp 運転支援装置及び運転支援システム
JP2010081319A (ja) * 2008-09-26 2010-04-08 Kyocera Corp 携帯電子機器
JP2010148718A (ja) * 2008-12-25 2010-07-08 Honda Motor Co Ltd 生体情報検出システム
JP2011209644A (ja) * 2010-03-30 2011-10-20 Fujitsu Ten Ltd 楽曲配信システムおよび楽曲配信装置
JP2012185537A (ja) * 2011-03-03 2012-09-27 Data Tec:Kk 移動体に搭載される運行管理装置、携帯情報端末、運行管理サーバ、コンピュータプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007203913A (ja) * 2006-02-02 2007-08-16 Denso Corp 運転支援装置及び運転支援システム
JP2010081319A (ja) * 2008-09-26 2010-04-08 Kyocera Corp 携帯電子機器
JP2010148718A (ja) * 2008-12-25 2010-07-08 Honda Motor Co Ltd 生体情報検出システム
JP2011209644A (ja) * 2010-03-30 2011-10-20 Fujitsu Ten Ltd 楽曲配信システムおよび楽曲配信装置
JP2012185537A (ja) * 2011-03-03 2012-09-27 Data Tec:Kk 移動体に搭載される運行管理装置、携帯情報端末、運行管理サーバ、コンピュータプログラム

Similar Documents

Publication Publication Date Title
JP6577642B2 (ja) 自動車又は携帯電子装置を使用した能動的且つ自動的なパーソナルアシスタンスを提供するコンピュータベースの方法及びシステム
JP4332738B2 (ja) データ通信装置、データ通信方法およびデータ通信パケット
JP4516111B2 (ja) 画像編集装置、画像編集方法、画像編集プログラムおよびコンピュータに読み取り可能な記録媒体
JP6639444B2 (ja) 情報提供装置及び情報提供方法
JPH08140949A (ja) 運転精神状態検出装置
JP2012113609A (ja) データ記録装置、及び、データ記録方法
JP2022000960A (ja) 音出力装置
WO2013168705A1 (ja) 携帯型電子機器
KR102083466B1 (ko) 음악을 추천하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체
JP6387287B2 (ja) 不明事項解消処理システム
JP2009239346A (ja) 撮影装置
JP2019159045A (ja) 再生制御装置、再生システム、再生制御方法、および再生制御プログラム
JP2007195572A (ja) ゲーム装置、ゲームサーバ
JP6833322B2 (ja) 探索装置、探索方法、探索プログラム及び記録媒体、並びにナビゲーション装置
JP2018151862A (ja) 情報処理装置、情報処理方法及びプログラム
US11881065B2 (en) Information recording device, information recording method, and program for recording information
JP2021158587A (ja) データ生成装置、データ生成方法及びデータ生成プログラム、並びにデータ再生装置、データ再生方法及びデータ再生プログラム
JP2020167480A (ja) 映像提供システム、映像生成装置、コンピュータプログラム及び映像提供方法
JP2020201536A (ja) 情報処理装置、情報処理システム及び情報処理プログラム
JP2019061361A (ja) 電子機器、判定システム、判定方法及び判定プログラム
JP7360495B1 (ja) 生体状態誘導装置、生体状態誘導方法、及びプログラム
JP7096204B2 (ja) 降車駅情報提供システム及び降車駅情報提供方法
JP2019121314A (ja) 判定装置、情報記録装置、判定方法、及び判定用プログラム
JP6816247B2 (ja) 情報提供装置
JP6945939B2 (ja) フォトアルバム制作装置及びフォトアルバム制作プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13787297

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13787297

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP