WO2016088611A1 - 情報処理装置、情報処理方法及びコンピュータプログラム - Google Patents

情報処理装置、情報処理方法及びコンピュータプログラム Download PDF

Info

Publication number
WO2016088611A1
WO2016088611A1 PCT/JP2015/082980 JP2015082980W WO2016088611A1 WO 2016088611 A1 WO2016088611 A1 WO 2016088611A1 JP 2015082980 W JP2015082980 W JP 2015082980W WO 2016088611 A1 WO2016088611 A1 WO 2016088611A1
Authority
WO
WIPO (PCT)
Prior art keywords
frequency
unit
imaging
wearable device
information
Prior art date
Application number
PCT/JP2015/082980
Other languages
English (en)
French (fr)
Inventor
裕士 瀧本
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US15/529,566 priority Critical patent/US10373465B2/en
Publication of WO2016088611A1 publication Critical patent/WO2016088611A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/0202Child monitoring systems using a transmitter-receiver system carried by the parent and the child
    • G08B21/028Communication between parent and child units via remote transmission means, e.g. satellite network
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/0202Child monitoring systems using a transmitter-receiver system carried by the parent and the child
    • G08B21/0205Specific application combined with child monitoring using a transmitter-receiver system
    • G08B21/0208Combination with audio or video communication, e.g. combination with "baby phone" function
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/0202Child monitoring systems using a transmitter-receiver system carried by the parent and the child
    • G08B21/0269System arrangements wherein the object is to detect the exact location of child or item using a navigation satellite system, e.g. GPS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M11/00Telephonic communication systems specially adapted for combination with other electrical systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/10Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using wireless transmission systems

Definitions

  • the present disclosure relates to an information processing apparatus, an information processing method, and a computer program.
  • a new and improved information processing apparatus, information processing method, and computer program capable of appropriately notifying the current state of the carrier based on the result of determining whether or not the carrier is safe Propose.
  • an information processing apparatus comprising: a frequency determining unit that determines a processing frequency for recording information based on.
  • the computer obtains the determination result of the safety state of the user carrying the sensing unit that senses the surrounding environment, and the information based on the sensing based on the acquired determination result.
  • a computer program is provided for causing the processing frequency to be recorded to be executed.
  • a new and improved information processing apparatus and information capable of appropriately notifying the current state of the carrier based on the result of determining whether the carrier is safe or not A processing method and a computer program can be provided.
  • FIG. 2 is an explanatory diagram illustrating a configuration example of an information processing system 1 according to an embodiment of the present disclosure.
  • FIG. FIG. 3 is an explanatory diagram illustrating a detailed functional configuration example of each device configuring the information processing system 1 according to an embodiment of the present disclosure.
  • 4 is an explanatory diagram illustrating a functional configuration example of a control unit 140 included in the wearable device 100 according to an embodiment of the present disclosure.
  • FIG. 5 is a flowchart illustrating an operation example of the wearable device 100 according to an embodiment of the present disclosure.
  • 6 is an explanatory diagram illustrating an example of a user interface displayed on a display unit 210 of the mobile terminal 200.
  • FIG. 11 is an explanatory diagram illustrating another example of a user interface displayed on the display unit 210 of the mobile terminal 200.
  • FIG. 11 is an explanatory diagram illustrating another example of a user interface displayed on the display unit 210 of the mobile terminal 200. It is explanatory drawing which shows the hardware structural example.
  • wearable devices equipped with a camera for taking a life log are being commercialized.
  • a method of grasping the state of the child by causing the child to carry the wearable device and transmitting an image captured by the wearable device to a terminal held by the guardian is conceivable.
  • the wearable device periodically captures images and transmits the images, it becomes impossible for the guardian to determine which image is important when checking the images on the terminal.
  • the wearable device is regularly imaged and the image is transmitted, the battery of the wearable device will increase, and the battery may run out, making it impossible to capture an important scene.
  • the present disclosure has intensively studied a technique that can appropriately notify the current state of the carrier to other devices.
  • the present inventor has devised a technique capable of appropriately notifying other devices of the current state of the carrier based on the result of determining whether the carrier is safe.
  • FIG. 1 is an explanatory diagram illustrating a configuration example of an information processing system 1 according to an embodiment of the present disclosure.
  • FIG. 1 illustrates a wearable device 100 including an imaging device carried by a user 20, a mobile terminal 200 that receives information from the wearable device 100, and information between the wearable device 100 and the mobile terminal 200.
  • 1 is an overall configuration example of an information processing system 1 including a server device 300 that mediates transfer.
  • the wearable device 100 can be worn on, for example, the head or chest of the user 20 in order to capture the situation around the user 20. Further, the wearable device 100 may be attached to an object that the user 20 has, such as a hat, a school bag, a bag, or the like.
  • “mobile” can include both a case where the user 20 is directly worn on the body of the user 20 and a case where the user 20 is indirectly worn on the body of the user 20.
  • Wearable device 100 equipped with an imaging device carried by user 20 (especially a child) causes imaging device to capture an image when a predetermined condition is satisfied.
  • the wearable device 100 transmits information based on the captured image to the server device 300 via the Internet or other network 10.
  • the server device 300 transmits the information transmitted from the wearable device 100 to the mobile terminal 200.
  • the information processing system 1 has a configuration as illustrated in FIG. 1, and thus includes information including not only the position of the user 20 carrying the wearable device 100 but also the surrounding situation. Can be transmitted to the mobile terminal 200. Therefore, the user of the mobile terminal 200 (for example, a guardian of a child carrying the wearable device 100) can view the information transmitted from the wearable device 100 on the mobile terminal 200, so that where the user 20 is and what You can see if it is in a state.
  • the wearable device 100 determines whether the index indicating whether the user 20 is in a safe state exceeds a predetermined threshold as the predetermined condition, and based on the determination result, Determine the processing frequency for recording. In the present embodiment, the wearable device 100 determines an imaging frequency at which an imaging apparatus captures an image and records an imaging result as a processing frequency for recording information. In the present embodiment, the wearable device 100 transmits information including an image obtained as a result of the imaging process of the imaging device to the mobile terminal 200 via the server device 300 as a processing frequency for recording information. The notification frequency to be recorded in the mobile terminal 200 is determined.
  • an index indicating whether or not the user 20 is in a safe state is determined by, for example, whether or not the user 20 is in a safe place (for example, a school), whether or not the user 20 stays in the same place, etc. .
  • the wearable device 100 determines an index indicating whether or not the user 20 is in a safe state based on information obtained based on the current location and the current time of the wearable device 100.
  • safety level an index indicating whether or not the user 20 is in a safe state.
  • the determination of the processing frequency for recording information includes switching between not processing and processing, and determining the processing interval and the number of times in the processing state. , Both.
  • the wearable device 100 determines an imaging frequency at which an imaging device captures an image and records an imaging result as a processing frequency for recording information
  • the imaging processing function of the imaging device is switched on / off.
  • the wearable device 100 determines the above notification frequency as the processing frequency for recording information, the imaging processing interval is switched between the ON / OFF switching of the notification function and the notification function being ON. And the determination of the number of times.
  • imaging processing photoelectric conversion processing by an imager included in the imaging device, or recording processing in which the photoelectric conversion is performed on a memory or a local recording medium is included.
  • the wearable device 100 has been described as including an imaging apparatus.
  • the present disclosure is not limited to such an example, and the wearable device 100 is an apparatus different from the imaging apparatus, that is, the imaging apparatus.
  • the apparatus which has the function to determine the above-mentioned process frequency may be comprised as a separate apparatus.
  • the server device 300 may be configured to perform analysis processing of an image captured by the imaging device by the wearable device 100 in addition to mediating the exchange of information between the wearable device 100 and the portable terminal 200. good.
  • FIG. 2 is an explanatory diagram illustrating a detailed functional configuration example of each device configuring the information processing system 1 according to an embodiment of the present disclosure.
  • FIG. 2 is an explanatory diagram illustrating a detailed functional configuration example of each device configuring the information processing system 1 according to an embodiment of the present disclosure.
  • a detailed functional configuration example of each device configuring the information processing system 1 according to an embodiment of the present disclosure will be described with reference to FIG.
  • the wearable device 100 includes an imaging unit 110, a storage unit 120, a sensor unit 130, a control unit 140, a microphone 150, a communication unit 160, It is comprised including.
  • the imaging unit 110 includes a lens, an imaging element, and the like, and captures an image based on an instruction from the control unit 140.
  • the imaging unit 110 captures a still image or a moving image.
  • An image obtained by the imaging processing in the imaging unit 110 is stored in the storage unit 120 as necessary, or image processing is performed by the control unit 140.
  • An image obtained by the imaging process in the imaging unit 110 can be transmitted to the server device 300 by the communication unit 160.
  • the storage unit 120 may be configured by various storage media such as a ROM (Read Only Memory) and a RAM (Random Access Memory).
  • the storage unit 120 stores programs and various information for the operation of the wearable device 100.
  • the information stored in the wearable device 100 may include, for example, an image captured by the above-described imaging unit 110, sensing data output by the sensor unit 130 described later, and the like.
  • the program and various information stored in the storage unit 120 are read by the control unit 140 as needed.
  • the storage unit 120 of the wearable device 100 may store map information. By storing the map information in the storage unit 120, the control unit 140 described later can determine the safety level of the user 20 while collating the map information.
  • the sensor unit 130 outputs the sensing data to the control unit 140.
  • a sensing device that constitutes the sensor unit 130 for example, a camera that acquires a current camera information such as GPS (Global Positioning System), GLONASS (Global Navigation Satelite System), BDS (BeiDow Navigation Satelite System), or a camera with depth information, A sensation sensor, a microphone, or the like may be included. Therefore, the above-described imaging unit 110 may be included as a part of the sensor unit 130.
  • Such a sensing device detects acceleration, angular velocity, azimuth, illuminance, temperature, atmospheric pressure, etc. applied to the apparatus.
  • the various sensing devices can detect various information as information related to the user, for example, information indicating the user's movement or orientation.
  • the sensing device may include a sensor that detects biological information of the user such as pulse, sweat, brain wave, touch, smell, and taste.
  • the control unit 140 includes, for example, a CPU (Central Processing Unit), a ROM, a RAM, and the like, and controls the operation of the wearable device 100.
  • the control unit 140 may control the operation of the wearable device 100 by, for example, reading a computer program stored in the storage unit 120 and sequentially executing the computer program.
  • the control unit 140 determines whether an index (safety level) indicating whether the user 20 is in a safe state exceeds a predetermined threshold, and records information based on the determination result. Determine the processing frequency for.
  • the control unit 140 causes the imaging device to capture an image and determines an imaging frequency for recording an imaging result as a processing frequency for recording information.
  • the control unit 140 transmits information including an image obtained as a result of the imaging process of the imaging device to the mobile terminal 200 via the server device 300 as the processing frequency for recording information. The notification frequency to be recorded in the mobile terminal 200 is determined.
  • the microphone 150 collects sounds around the wearable device 100 and generates an audio signal.
  • the sound signal generated by the microphone 150 is stored in the storage unit 120 as necessary, or the sound processing is performed by the control unit 140.
  • An audio signal obtained by collecting sound from the microphone 150 can be transmitted to the server apparatus 300 by the communication unit 160.
  • the communication unit 160 executes communication processing with the outside.
  • the communication process executed by the communication unit 160 is not limited to a predetermined standard or protocol.
  • the communication unit 160 is configured to execute transmission / reception of various types of information with the server device 300 through the network 10.
  • the wearable device 100 includes a battery and operates by direct current power supplied from the battery.
  • the battery provided in the wearable device 100 may be a secondary battery that can be charged and discharged, or a primary battery that can only discharge DC power.
  • the mobile terminal 200 includes a display unit 210, an input unit 220, a storage unit 230, a control unit 240, and a communication unit 250. Is done.
  • the display unit 210 is a device configured with a display panel such as a liquid crystal display or an organic EL display, and displays various information such as characters and images.
  • the display unit 210 can display an image captured by the wearable device 100 using a predetermined GUI, as will be described later.
  • the display unit 210 may be provided with a touch panel, and an input operation may be received by touching the display unit 210 to the user. In that case, the display unit 210 can also function as an input unit 220 described later.
  • the input unit 220 is various input devices that accept input from a user, and may be configured with, for example, a keyboard, a mouse, a touch panel, and the like.
  • sensing devices can also function as the input unit 220.
  • a sensing device for example, a sensor such as GPS, GLONASS, and BDS, a camera, a camera with depth information, a human sensor, a microphone, and the like can be included.
  • Such a sensing device detects acceleration, angular velocity, azimuth, illuminance, temperature, atmospheric pressure, etc. applied to the apparatus.
  • the various sensing devices can detect various information as information related to the user, for example, information indicating the user's movement or orientation.
  • the sensing device may include a sensor that detects biological information of the user such as pulse, sweat, brain wave, touch, smell, and taste.
  • the storage unit 230 can be composed of various storage media such as ROM and RAM.
  • the storage unit 230 stores a program for operating the mobile terminal 200 and various information.
  • the storage unit 230 can store various information acquired by the wearable device 100 and transmitted from the server device 300.
  • the information acquired by the wearable device 100 and transmitted from the server device 300 is based on the image captured by the wearable device 100, the sound collected by the wearable device 100, or the sensing data acquired by the wearable device 100. Information etc. may be included.
  • the control unit 240 includes, for example, a CPU, a ROM, a RAM, and the like, and controls the operation of the mobile terminal 200.
  • the control unit 240 may control the operation of the mobile terminal 200 by reading out the computer program stored in the storage unit 230 and sequentially executing the computer program.
  • the control unit 240 controls the display of the GUI on the display unit 210, for example, and executes various processes for the input operation by the user input unit 220 on the GUI.
  • the communication unit 250 executes communication processing with the outside.
  • the communication process executed by the communication unit 250 is not limited to a predetermined standard or protocol.
  • the communication unit 250 is configured to transmit and receive various types of information to and from the server device 300 through the network 10.
  • the server apparatus 300 includes a storage unit 310, a communication unit 320, and a control unit 330.
  • the storage unit 310 can be composed of various storage media such as ROM and RAM.
  • the storage unit 310 stores a program for operating the server device 300 and various information.
  • the storage unit 310 can store various types of information acquired by the wearable device 100.
  • the information acquired by the wearable device 100 may include an image captured by the wearable device 100, sound collected by the wearable device 100, information based on sensing data acquired by the wearable device 100, and the like.
  • the communication unit 320 executes communication processing with the outside.
  • the communication process executed by the communication unit 320 is not limited to a predetermined standard or protocol.
  • the communication unit 320 is configured to transmit and receive various types of information to and from the wearable device 100 and the mobile terminal 200 through the network 10.
  • the control unit 330 includes, for example, a CPU, a ROM, a RAM, and the like, and controls the operation of the server device 300.
  • the control unit 330 may control the operation of the server device 300 by reading out the computer programs stored in the storage unit 310 and sequentially executing them.
  • FIG. 3 is an explanatory diagram illustrating a functional configuration example of the control unit 140 included in the wearable device 100 according to an embodiment of the present disclosure.
  • a functional configuration example of the control unit 140 will be described with reference to FIG.
  • control unit 140 includes a determination result acquisition unit 141, a processing frequency determination unit 142, an image processing unit 143, and a position detection processing unit 144.
  • the determination result acquisition unit 141 determines whether an index (safety level) indicating whether the user 20 carrying the wearable device 100 is in a safe state exceeds a predetermined threshold, and acquires the determination result. To do.
  • the processing frequency determination unit 142 determines whether the index (safety level) indicating whether the user 20 carrying the wearable device 100 acquired by the determination result acquisition unit 141 is in a safe state exceeds a predetermined threshold value. Based on the determination result, the processing frequency for recording the information acquired by the wearable device 100 is determined. In the present embodiment, the processing frequency determination unit 142 determines the imaging frequency at which the imaging device captures an image and records the imaging result as the processing frequency for recording the information acquired by the wearable device 100. In the present embodiment, the control unit 140 transmits information including an image obtained as a result of the imaging process of the imaging device to the mobile terminal 200 via the server device 300 as the processing frequency for recording information. The notification frequency to be recorded in the mobile terminal 200 is determined.
  • the determination result acquisition unit 141 obtains the safety level of the user 20 carrying the wearable device 100 based on the current position information of the wearable device 100 detected by, for example, the position detection processing unit 144 described later.
  • the safety degree is obtained based on the current position information of the wearable device 100, it may be collated with the map information stored in the storage unit 120. For example, if the user 20 who carries the wearable device 100 is an elementary school student, and the current position of the wearable device 100 is detected, the determination result acquisition unit 141 determines that the user 20 is in an elementary school where the elementary school attends. It is determined that the safety level is extremely high.
  • the processing frequency determination unit 142 reduces the processing frequency for recording the information acquired by the wearable device 100 based on the determination result acquired by the determination result acquisition unit 141, or turns off the processing function itself. I can do it.
  • the image processing unit 143 performs image processing on the image captured by the imaging unit 110.
  • Examples of the image processing on the image captured by the imaging unit 110 include image cutting (trimming) processing, recognition processing for recognizing a face and an object in the image, conversion processing for converting the size and resolution of the image, and the like. obtain.
  • the image processing unit 143 can determine whether the recognized face is a person registered in advance.
  • the image processing unit 143 can determine what the recognized object is.
  • the processing frequency determination unit 142 may determine the processing frequency based on the result of image processing by the image processing unit 143. The processing frequency determination processing based on the result of image processing by the processing frequency determination unit 142 will be described later.
  • the position detection processing unit 144 detects the current position of the wearable device 100.
  • the position detection processing unit 144 uses the sensing data acquired by the sensor unit 130 when detecting the current position of the wearable device 100.
  • Information on the current position of the wearable device 100 detected by the position detection processing unit 144 can be used for determination of the processing frequency by the processing frequency determination unit 142.
  • control unit 140 The functional configuration example of the control unit 140 has been described above with reference to FIG. Subsequently, an operation example of the wearable device 100 according to an embodiment of the present disclosure will be described.
  • FIG. 4 is a flowchart illustrating an operation example of the wearable device 100 according to an embodiment of the present disclosure.
  • FIG. 4 illustrates the operation of the wearable device 100 when determining the safety level of the user 20 carrying the wearable device 100 and determining the processing frequency for recording the information acquired by the wearable device 100. It is a flowchart which shows an example.
  • an operation example of the wearable device 100 according to an embodiment of the present disclosure will be described with reference to FIG.
  • the wearable device 100 first determines whether or not the user 20 carrying the wearable device 100 is in a safe state when determining the processing frequency for recording the information acquired by the wearable device 100 (step S101). For example, the determination result acquisition unit 141 executes the determination process in step S101.
  • step S101 A specific example of the determination process in step S101 will be described by taking as an example the case where the user 20 carrying the wearable device 100 is an elementary school student.
  • the wearable device 100 determines that the safety level of the user 20 is high when the user 20 is at school.
  • the wearable device 100 may determine whether or not the person is at school using the current position information obtained by the sensor unit 130 or the current time information. For example, if it is known in advance that a camera (security camera) for ensuring security is installed in a school, the wearable device 100 may determine that the safety level of the user 20 is higher.
  • the wearable device 100 determines that the safety level of the user 20 is low when the class ends and the user leaves the school.
  • the wearable device 100 may determine that the safety level of the user 20 is slightly high near the location of the public security camera.
  • the wearable device 100 is less secure. to decide. For example, although the user 20 is turning at an intersection determined every Wednesday at 17:30, the intersection does not reach the intersection even at 17:50 from the sensing data output by the sensor unit 130. If known, the wearable device 100 determines that the degree of safety of the user 20 is low.
  • the wearable device 100 determines the safety level from the current position information and the current time information obtained by the sensor unit 130. Is possible.
  • step S101 If it is determined in step S101 whether or not the user 20 carrying the wearable device 100 is in a safe state, the wearable device 100 subsequently determines the imaging frequency of the image by the imaging unit 110 based on the determination result (step S102). ). For example, the processing frequency determination unit 142 executes the imaging frequency determination processing in step S102.
  • the wearable device 100 determines the imaging frequency of the image by the imaging unit 110 at a very long interval such as once every 3 hours.
  • the image capturing unit 110 may not perform image capturing.
  • the wearable device 100 increases the imaging frequency of the image by the imaging unit 110 and is short, for example, once every 10 minutes. The interval may be determined.
  • the wearable device 100 captures an image by the imaging unit 110. May be set lower than when there is no public security camera nearby, for example, once every 20 minutes. As described above, the wearable device 100 can suppress the battery consumption of the wearable device 100 by reducing the frequency of image capturing by the image capturing unit 110 when the user 20 is near the location of the public security camera.
  • the wearable device 100 is worn when the user 20 wearing the wearable device 100 is in a small park and the location of the user 20 does not change greatly over a predetermined time.
  • 100 may determine the imaging frequency of the image by the imaging unit 110, for example, at a time longer than once every 10 minutes, for example, once every 20 minutes.
  • the wearable device 100 causes the image capturing unit 110 to capture an image based on the image capturing frequency determined in step S102.
  • the safety level of the user 20 is updated based on the captured image (step S103).
  • the wearable device 100 can grasp the situation around the user 20 by analyzing the image captured by the imaging unit 110 with the image processing unit 143. For example, when a person is captured in an image captured by the image capturing unit 110, the image processing unit 143 performs image analysis so that the wearable device 100 has a person around the user 20 or a person is present. You can figure out who is with you. If the person with the user 20 is found not to be a person registered in advance, the wearable device 100 can determine to increase the imaging frequency of the image (for example, to shorten the imaging interval).
  • step S ⁇ b> 103 when the image capturing unit 110 captures an image based on the determined image capturing frequency and updates the safety level of the user 20 based on the captured image, the wearable device 100 subsequently captures the updated safety level and image capturing. Based on the image, the imaging frequency and the notification frequency are determined (step S104). For example, the processing frequency determination unit 142 executes the notification frequency determination processing in step S104.
  • the wearable device 100 When the imaging frequency and the notification frequency are determined in step S104, the wearable device 100 subsequently captures an image based on the determined imaging frequency, updates the safety level based on the captured image, and determines in step S104. Notification is made based on the notification frequency (step S105). When notification is made based on the determined notification frequency, the wearable device 100 may return to the safety degree determination process in step S101.
  • wearable device 100 transmits information to server device 300 to notify portable terminal 200 that an unknown person is near user 20.
  • the wearable device 100 determines that the friend of the user 20 is the user 20. Information may be transmitted to the server device 300 to notify the terminal 200.
  • the wearable device 100 determines that the friend of the user 20 is no longer near the user 20. Information may be transmitted to the server device 300 to notify the terminal 200.
  • the wearable device 100 performs face recognition processing on the captured image, and if the same person is captured for a predetermined time (predetermined number of times) or more, the wearable device 100 indicates that the same person is near the user 20. Information may be transmitted to the server apparatus 300 to notify the server 200. Also, for example, the wearable device 100 performs face recognition processing on the captured image, and if it is known that an adult has approached the user 20, the wearable device 100 notifies the mobile terminal 200 that the adult is near the user 20. Therefore, the information may be transmitted to the server device 300.
  • the wearable device 100 has updated the safety level based on the captured image and determined the imaging frequency and the notification frequency. However, the wearable device 100 updates the safety level based on the information of the sensing data, The notification frequency may be determined.
  • the wearable device 100 captures the imaging frequency. And the notification frequency may be increased.
  • the wearable device 100 may determine from the captured image whether the road has a lot of traffic or a road with poor visibility. That is, the wearable device 100 may determine the imaging frequency and the notification frequency based on the content of the landscape included in the captured image. Further, if it is known that the current position of wearable device 100 is on a dark road from position information, an illuminance sensor, etc., wearable device 100 may increase the imaging frequency and the notification frequency.
  • the wearable device 100 may change the imaging frequency and the notification frequency depending on the time of day, the current weather, and the like.
  • the wearable device 100 obtains sensing data from the sensor unit 130 that it is estimated that a suspicious person is approaching from behind or the user 20 dropped the wearable device 100, the imaging frequency and the notification frequency are increased. Also good.
  • the wearable device 100 detects the imaging frequency. And the notification frequency may be increased.
  • the wearable device 100 increases the imaging frequency and the notification frequency. May be.
  • the wearable device 100 may increase the imaging frequency and the notification frequency if the user 20 knows that the user 20 has performed a different action from the schedule of the user 20 and the daily action of the user 20. For example, the wearable device 100 may increase the imaging frequency and the notification frequency if it is known that the user 20 has not passed during a time when the user 20 originally passes a predetermined position.
  • the wearable device 100 determines only the imaging frequency if the user 20 does not pass through the predetermined position even after the predetermined time has elapsed.
  • the wearable device 100 may further increase the imaging frequency and increase the notification frequency if the predetermined position does not pass even after a predetermined time has passed since the imaging frequency is increased.
  • the predetermined time may be changed by the user of the mobile terminal 200 that receives the notification.
  • the wearable device 100 may determine the processing frequency at the timing of getting on and off the vehicle if it is known from the sensing data from the sensor unit 130 that the user 20 has got on or off the vehicle. For example, the wearable device 100 may determine the processing frequency at a timing such as when the user 20 gets on a train or rides a bicycle.
  • the wearable device 100 may increase the processing frequency at the timing when it is found from the sensing data from the sensor unit 130 that the user 20 has removed the wearable device 100.
  • the wearable device 100 may determine to reduce the notification frequency when many of the same objects appear in the image captured by the imaging unit 110.
  • the wearable device 100 may check the remaining battery level of its own device, and may determine to reduce the processing frequency when the remaining amount has decreased below a predetermined amount. The wearable device 100 also checks the remaining battery level of the sensor unit 130 when the sensor unit 130 has its own battery, and decides to reduce the processing frequency when the sensor unit 130 is below a predetermined amount. May be.
  • the wearable device 100 may change the processing frequency according to the distance from the mobile terminal 200.
  • Wearable device 100 may estimate the distance from mobile terminal 200 based on, for example, the strength of a predetermined radio wave emitted from mobile terminal 200. For example, the wearable device 100 reduces the processing frequency when the mobile terminal 200 is close, but if the mobile terminal 200 is slightly away from the situation where the mobile terminal 200 is close, there is a possibility that the user 20 is lost. In such a case, the processing frequency is increased.
  • the user of the portable terminal 200 that has received the notification from the wearable device 100 confirms the notification content from the wearable device 100, and the processing frequency of the wearable device 100 according to the result of the confirmation May be changed.
  • the wearable device 100 when the wearable device 100 notifies that there is an unregistered person near the user 20 together with the image of the person, the user of the mobile terminal 200 indicates that there is no problem because the person is acquainted with the face.
  • the wearable device 100 reduces the processing frequency.
  • the wearable device 100 changes the processing frequency. Lower.
  • processing frequency in the wearable device 100 may be specified from the mobile terminal 200.
  • the server apparatus 300 may perform image storage, person or situation analysis and identification, and the like.
  • the processing frequency of the wearable device 100 is determined in combination with the information of the wearable device 100 carried by another user. Also good. For example, even if a person is not registered in the processing frequency of the wearable device 100 of a certain user 20, but the person is registered in the wearable device 100 of another user, Information registered in the user's wearable device 100 may be used.
  • the processing frequency of the wearable device 100 may be determined in combination with information on the wearable device 100 carried by another user near the user 20. For example, the server device 300 compares an image captured by the wearable device 100 of a certain user 20 with an image captured by the wearable device 100 carried by another user near the user 20, thereby The processing frequency of the wearable device 100 may be determined.
  • the wearable device 100 may determine the processing frequency of the wearable device 100 in cooperation with other devices.
  • the wearable device 100 increases the processing frequency when it is found that the image captured by the imaging unit 110 is different from the current position information acquired by the sensor unit 130. You may decide to.
  • the wearable device 100 increases the processing frequency when it is found that the image captured by the imaging unit 110 is different from the current position information acquired by the sensor unit 130, so that the wearable device 100 or the sensor unit 130 It becomes possible to notify the user of the portable terminal 200 that either one has been dropped.
  • the wearable device 100 may capture a moving image with the imaging unit 110.
  • the wearable device 100 may notify the mobile terminal 200 by streaming transmission of a moving image instead of a still image to the mobile terminal 200.
  • consumption of the battery of the wearable device 100 increases, and heat is generated as the processing load of the wearable device 100 increases.
  • the wearable device 100 may notify the mobile terminal 200 by transmitting a still image to the mobile terminal 200 while saving the moving image captured by the imaging unit 110 in the storage unit 120. And when the user of the portable terminal 200 designates, the portable terminal 200 may access the wearable device 100 and reproduce the moving image held in the wearable device 100.
  • the wearable device 100 divides and saves the moving image file so that the user of the mobile terminal 200 can efficiently play back the moving image. May be.
  • the wearable device 100 divides and stores a moving image file, thereby reducing the moving image file size and reducing the transfer time and the like.
  • FIG. 5 is an explanatory diagram illustrating an example of a user interface displayed on the display unit 210 of the mobile terminal 200.
  • FIG. 5 illustrates an example of a user interface in which an image captured by the wearable device 100 and a captured location are superimposed on a map.
  • the user interface shown in FIG. 5 also shows who is shown in the captured image. 5 indicates information including an image captured by the imaging unit 110 of the wearable device 100, a person appearing in the image, and the date and time when the image was captured. The information indicated by the symbol U1 is displayed so as to correspond to the place where the imaging process by the imaging unit 110 is performed.
  • the user interface displayed by the mobile terminal 200 can not only display the image as it is, but also display the image on the map to show where the image was taken. Moreover, it is good also as a user interface which can grasp
  • FIG. 6 and 7 are explanatory diagrams illustrating another example of the user interface displayed on the display unit 210 of the mobile terminal 200.
  • FIG. 6 and 7 are explanatory diagrams illustrating another example of the user interface displayed on the display unit 210 of the mobile terminal 200.
  • FIG. 6 and 7 are explanatory diagrams illustrating another example of the user interface displayed on the display unit 210 of the mobile terminal 200.
  • the reference symbol U2 of the user interface shown in FIG. 6 is an image captured by the imaging unit 110 of the wearable device 100.
  • the image indicated by the symbol U2 is displayed so as to correspond to the place where the imaging process by the imaging unit 110 is performed.
  • the symbol U3 of the user interface shown in FIG. 6 is an icon indicating who the user 20 wearing the wearable device 100 is with.
  • the symbol U4 of the user interface shown in FIG. 6 is an icon for displaying an image acquired by the wearable device 100 carried by the user 20 who is wearing the wearable device 100.
  • a reference symbol U5 of the user interface illustrated in FIG. 6 is a scroll bar that changes time. When a slide operation is performed by the user of the mobile terminal 200, information displayed on the display unit 210 changes.
  • FIG. 7 is an explanatory diagram illustrating an example in which information displayed on the display unit 210 is changed by an operation of the scroll bar indicated by the symbol U5 in FIG.
  • the scroll bar is operated on the left side, that is, in front of time, for example, the user 20 is just left the condominium at home, and there is no other user who is together.
  • the scroll bar is operated to the right, that is, later in time, for example, a state in which the user 20 moves to a park and is with a friend is displayed.
  • the user interface displayed on the mobile terminal 200 is not limited to such an example.
  • it may be displayed like an address book, centering on the face portion, when and who was meeting with whom.
  • the mobile terminal 200 may notify the user of notification of information from the wearable device 100 not only by such a user interface but also by voice.
  • the wearable device 100 Since the image other than the image transmitted from the wearable device 100 is recorded in the wearable device 100, the user of the mobile terminal 200 is wondering what other images are being captured. By accessing the wearable device 100 from, an image stored in the wearable device 100 and not transmitted to the mobile terminal 200 can be viewed on the mobile terminal 200.
  • the wearable device 100 may collect a plurality of images and send them to the mobile terminal 200 when a predetermined number of images are captured. For example, when 25 images are captured, the image may be transmitted to the mobile terminal 200 as one image in the form of a grid of 5 vertically and 5 horizontally.
  • the wearable device 100 may exclude images that have already been transmitted to the mobile terminal 200 when including a plurality of images into one, and may include images that have already been transmitted to the mobile terminal 200.
  • the wearable device 100 when the user 20 starts using the wearable device 100, the wearable device 100 first enters a mode in which the imaging unit 110 captures an image at a predetermined interval. When the user 20 uses the wearable device 100 for several days in that mode, the wearable device 100 can know what action the user 20 normally takes from the acquired image, position information, and the like. The user interface can indicate what action the user 20 is taking.
  • the user of the mobile terminal 200 can specify the place and time for changing the processing frequency of the wearable device 100 by operating the presented user interface.
  • Other information used when specifying the place and time for changing the processing frequency of the wearable device 100 is public (provided by a public institution) or social (notified by an unspecified user). It may be automatically discriminated by an image).
  • the user of the mobile terminal 200 can grasp the state of the user 20 wearing the wearable device 100 even at a place away from the user 20.
  • the wearable device 100 may change the amount of information notified to the mobile terminal 200 in addition to the processing frequency.
  • the wearable device 100 may change the resolution of the captured image, for example, and may use not only the captured image but also the sound collected by the microphone as information for notifying the mobile terminal 200,
  • biometric information can be acquired by the sensor unit 130, the biometric information may also be used as information to be notified to the mobile terminal 200.
  • the location where the images are captured by the plurality of wearable devices 100 may be automatically recognized by the server device 300 as a location with a low degree of safety, and the presence of such a location is indicated in the wearable device 100 or the portable terminal 200. You may be notified.
  • the wearable device 100 can determine to increase the processing frequency when the user 20 approaches the place. .
  • the wearable device 100 may select the server device 300 as a notification destination of information including an image captured by the imaging unit 110. For example, when the server device 300 is configured to perform analysis processing of an image captured by the wearable device 100 by the image capturing unit 110, the wearable device 100 transmits the image captured by the image capturing unit 110 to the server device 300. Then, the server device 300 analyzes the image. And wearable device 100 may acquire the analysis result in server apparatus 300, and may determine processing frequency from the analysis result.
  • the wearable device 100 and the mobile terminal 200 may cause the imaging device to capture an image based on the content of the user's utterance. For example, when the microphone 150 collects the sound of the user 20 of the wearable device 100 saying “What is this?”, The wearable device 100 may cause the imaging unit 110 to capture an image based on the content of the utterance. In addition, when the microphone of the mobile terminal 200 collects the sound of the user of the mobile terminal 200 receiving the notification from the wearable device 100 saying “What is this?”, The mobile terminal 200 captures an image of the wearable device 100. You may instruct.
  • the server device 300 may automatically analyze the image in the server device 300, but the user operating the server device 300 looks at the captured image, determines who is in the image, and determines the determination result. You may make it return to the wearable device 100.
  • FIG. 1 A block diagram
  • the wearable device 100 may include an input device such as a dedicated button for causing the imaging unit 110 to capture an image.
  • wearable device 100 may cause imaging unit 110 to capture an image and transmit the captured image to a notification destination. If the server apparatus 300 is set as the notification destination of the wearable device 100, the server apparatus 300 may analyze the image as described above and return the analysis result to the wearable device 100.
  • FIG. 8 is a block diagram illustrating a hardware configuration example of the wearable device 100 and the mobile terminal 200 according to the embodiment of the present disclosure.
  • Each of the above algorithms can be executed using, for example, the hardware configuration of the information processing apparatus shown in FIG. That is, the processing of each algorithm is realized by controlling the hardware shown in FIG. 8 using a computer program.
  • the form of the hardware shown in FIG. 8 is arbitrary, for example, a personal information terminal such as a personal computer, a mobile phone, a PHS, or a PDA, a game machine, a contact or non-contact IC chip, a contact or This includes contactless IC cards, speakers, televisions, monitors, wearable devices, or various information appliances.
  • a personal information terminal such as a personal computer, a mobile phone, a PHS, or a PDA
  • a game machine such as a personal computer, a mobile phone, a PHS, or a PDA
  • a contact or non-contact IC chip such as a contact or This includes contactless IC cards, speakers, televisions, monitors, wearable devices, or various information appliances.
  • PHS is an abbreviation for Personal Handy-phone System.
  • the PDA is an abbreviation for Personal Digital Assistant.
  • this hardware mainly includes a CPU 902, a ROM 904, a RAM 906, a host bus 908, and a bridge 910. Further, this hardware includes an external bus 912, an interface 914, an input unit 916, an output unit 918, a storage unit 920, a drive 922, a connection port 924, and a communication unit 926.
  • the CPU is an abbreviation for Central Processing Unit.
  • the ROM is an abbreviation for Read Only Memory.
  • the RAM is an abbreviation for Random Access Memory.
  • the CPU 902 functions as, for example, an arithmetic processing unit or a control unit, and controls the overall operation of each component or a part thereof based on various programs recorded in the ROM 904, the RAM 906, the storage unit 920, or the removable recording medium 928.
  • the ROM 904 is a means for storing a program read by the CPU 902, data used for calculation, and the like.
  • a program read by the CPU 902 various parameters that change as appropriate when the program is executed, and the like are temporarily or permanently stored.
  • a host bus 908 capable of high-speed data transmission.
  • the host bus 908 is connected to an external bus 912 having a relatively low data transmission speed via a bridge 910, for example.
  • a bridge 910 for example.
  • the input unit 916 for example, a mouse, a keyboard, a touch panel, a button, a switch, a lever, or the like is used.
  • a remote controller capable of transmitting a control signal using infrared rays or other radio waves may be used.
  • a display device such as a CRT, LCD, PDP, or ELD
  • an audio output device such as a speaker or a headphone, a printer, a mobile phone, or a facsimile, etc.
  • the above CRT is an abbreviation of Cathode Ray Tube.
  • the LCD is an abbreviation for Liquid Crystal Display.
  • the PDP is an abbreviation for Plasma Display Panel.
  • the above ELD is an abbreviation for Electro-Luminescence Display.
  • the storage unit 920 is a device for storing various data.
  • a magnetic storage device such as a hard disk drive (HDD), a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like is used.
  • HDD hard disk drive
  • the above HDD is an abbreviation for Hard Disk Drive.
  • the drive 922 is a device that reads information recorded on a removable recording medium 928 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, or writes information to the removable recording medium 928.
  • the removable recording medium 928 is, for example, a DVD medium, a Blu-ray medium, an HD DVD medium, various semiconductor storage media, or the like.
  • the removable recording medium 928 may be, for example, an IC card on which a non-contact type IC chip is mounted, an electronic device, or the like.
  • the above IC is an abbreviation for Integrated Circuit.
  • the connection port 924 is a port for connecting an external connection device 930 such as a USB port, an IEEE 1394 port, a SCSI, an RS-232C port, or an optical audio terminal.
  • the external connection device 930 is, for example, a printer, a portable music player, a digital camera, a digital video camera, or an IC recorder.
  • the USB is an abbreviation for Universal Serial Bus.
  • the SCSI is an abbreviation for Small Computer System Interface.
  • the communication unit 926 is a communication device for connecting to the network 932.
  • a wired or wireless LAN for example, a wired or wireless LAN, Bluetooth (registered trademark), or a WUSB communication card, an optical communication router, an ADSL router, or a contact Or a device for non-contact communication.
  • the network 932 connected to the communication unit 926 is configured by a wired or wireless network, such as the Internet, home LAN, infrared communication, visible light communication, broadcast, or satellite communication.
  • the above LAN is an abbreviation for Local Area Network.
  • the WUSB is an abbreviation for Wireless USB.
  • the above ADSL is an abbreviation for Asymmetric Digital Subscriber Line.
  • each component described above may be configured using a general-purpose member, or may be configured by hardware specialized for the function of each component. Such a configuration can be appropriately changed according to the technical level at the time of implementation.
  • the determination result as to whether or not the user is in a safe state is acquired, and the processing frequency for recording the acquired information is determined based on the acquired determination result.
  • a wearable device 100 for determining is provided.
  • the wearable device 100 first determines the imaging frequency with which the imaging unit 110 captures an image from the determination result of whether or not the user is in a safe state. Then, when the wearable device 100 according to an embodiment of the present disclosure causes the imaging unit 110 to capture images with the determined imaging frequency, the wearable device 100 further determines the imaging frequency from the image obtained by the imaging process, and sends information to the mobile terminal 200. Determine the notification frequency to notify.
  • the wearable device 100 can appropriately notify the current state of the portable person based on the result of determining whether the portable person is safe.
  • the wearable device 100 according to an embodiment of the present disclosure suppresses battery consumption to the minimum necessary by appropriately notifying the current state of the portable person based on the result of determining whether the portable person is safe. I can do it.
  • Wearable device 100 according to an embodiment of the present disclosure can greatly reduce the possibility that imaging and notification cannot be performed due to the battery being exhausted when imaging or notification is really necessary by minimizing battery consumption. It becomes possible to make it.
  • each step in the processing executed by each device in this specification does not necessarily have to be processed in chronological order in the order described as a sequence diagram or flowchart.
  • each step in the processing executed by each device may be processed in an order different from the order described as the flowchart, or may be processed in parallel.
  • each functional block shown in the functional block diagram used in the above description may be realized by a server device connected via a network such as the Internet.
  • the configuration of each functional block shown in the functional block diagram used in the above description may be realized by a single device or a system in which a plurality of devices cooperate.
  • a system in which a plurality of devices are linked may include, for example, a combination of a plurality of server devices, a combination of a server device and a terminal device, or the like.
  • a determination result acquisition unit that acquires a determination result of the safety state of the user carrying the sensing unit that senses the surrounding environment;
  • a frequency determining unit for determining a processing frequency for recording information based on the sensing based on the determination result acquired by the determination result acquiring unit;
  • An information processing apparatus comprising: (2) The sensing unit includes an imaging unit that captures an image; The information processing apparatus according to (1), wherein the frequency determination unit determines an imaging frequency at which the imaging unit captures an image as the processing frequency. (3) The information processing apparatus according to (2), wherein the frequency determination unit determines the imaging frequency based on a position of the sensing unit.
  • the information processing apparatus shortens the imaging frequency if a person included in an image captured by the imaging unit is a person who is not registered in advance.
  • the information processing apparatus determines the imaging frequency based on a landscape content included in an image captured by the imaging unit.
  • the information processing apparatus determines the imaging frequency based on a remaining battery level.
  • the sensing unit includes an imaging unit that captures an image;
  • the information processing device determines a communication frequency for communicating image information based on imaging of the imaging unit with another device as the processing frequency. .
  • Information processing system 10 Network 20: User 100: Wearable device 110: Imaging unit 120: Storage unit 130: Sensor unit 140: Control unit 141: Determination result acquisition unit 142: Processing frequency determination unit 143: Image processing unit 144: Position detection processing unit 150: microphone 160: communication unit 200: mobile terminal 210: display unit 220: input unit 230: storage unit 240: control unit 250: communication unit 300: server device 310: storage unit 320: communication unit 330: control Part

Abstract

【課題】携帯者が安全かどうかを判断した結果に基づいて携帯者の現在の状態を適切に通知することが可能な情報処理装置を提案する。 【解決手段】周囲の環境をセンシングするセンシング部を携帯するユーザの安全状態の判定結果を取得する判定結果取得部と、前記判定結果取得部が取得した前記判定結果に基づいて、前記センシングに基づく情報を記録するための処理頻度を決定する頻度決定部と、を備える、情報処理装置が提供される。

Description

情報処理装置、情報処理方法及びコンピュータプログラム
 本開示は、情報処理装置、情報処理方法及びコンピュータプログラムに関する。
 位置情報を用いたサービスが普及している。例えば、親が子供に測位機能を有する機器を持たせることにより、子供が現在どこにいるかを見守るためのサービスが提供されている(例えば特許文献1など参照)。
特開2009-246806号公報
 しかし、既存のサービスでは、子供に持たせた機器の位置情報を取得するだけであり、子供が現在どこにいるかを保護者が把握することは可能であるが、子供が現在どのような状態にあるのかを把握することは出来なかった。
 ライフログを取るためのカメラを備えたウェアラブルデバイスを子供に携帯させて、ウェアラブルデバイスが撮像した画像を保護者が持つ端末に送信させる方法も考えられるが、定期的に撮像させて画像を送信させると、保護者が端末で画像を確認する際にどの画像が重要なのか判断出来ず、またウェアラブルデバイスのバッテリの消費が増えていくことにもなる。
 そこで、本開示では、携帯者が安全かどうかを判断した結果に基づいて携帯者の現在の状態を適切に通知することが可能な、新規かつ改良された情報処理装置、情報処理方法及びコンピュータプログラムを提案する。
 本開示によれば、周囲の環境をセンシングするセンシング部を携帯するユーザの安全状態の判定結果を取得する判定結果取得部と、前記判定結果取得部が取得した前記判定結果に基づいて、前記センシングに基づく情報を記録するための処理頻度を決定する頻度決定部と、を備える、情報処理装置が提供される。
 また本開示によれば、周囲の環境をセンシングするセンシング部を携帯するユーザの安全状態の判定結果を取得することと、取得された前記判定結果に基づいて、前記センシングに基づく情報を記録するための処理頻度を決定することと、を含む、情報処理方法が提供される。
 また本開示によれば、コンピュータに、周囲の環境をセンシングするセンシング部を携帯するユーザの安全状態の判定結果を取得することと、取得された前記判定結果に基づいて、前記センシングに基づく情報を記録するための処理頻度を決定することと、を実行させる、コンピュータプログラムが提供される。
 以上説明したように本開示によれば、携帯者が安全かどうかを判断した結果に基づいて携帯者の現在の状態を適切に通知することが可能な、新規かつ改良された情報処理装置、情報処理方法及びコンピュータプログラムを提供することが出来る。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態に係る情報処理システム1の構成例を示す説明図である。 本開示の一実施形態に係る情報処理システム1を構成する各装置の、詳細な機能構成例を示す説明図である。 本開示の一実施形態に係るウェアラブルデバイス100に含まれる、制御部140の機能構成例を示す説明図である。 本開示の一実施形態に係るウェアラブルデバイス100の動作例を示す流れ図である。 携帯端末200の表示部210に表示されるユーザインタフェースの例を示す説明図である。 携帯端末200の表示部210に表示されるユーザインタフェースの別の例を示す説明図である。 携帯端末200の表示部210に表示されるユーザインタフェースの別の例を示す説明図である。 ハードウェア構成例を示す説明図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.本開示の一実施形態
  1.1.背景
  1.2.構成例
  1.3.動作例
 2.ハードウェア構成例
 3.まとめ
 <1.本開示の一実施形態>
 [1.1.背景]
 本開示の実施の形態について詳細に説明する前に、本開示の背景について説明する。
 上述したように、位置情報を用いたサービスが普及している。例えば親が子供に測位機能を有する機器を持たせることにより、子供が現在どこにいるかを見守るためのサービスが提供されている。
 しかし、既存のサービスでは、子供に持たせた機器の位置情報を取得するだけであり、子供が現在どこにいるかを保護者が把握することは可能であるが、どのような状態にあるのかを把握することは出来なかった。
 近年、ライフログを取るためのカメラを備えたウェアラブルデバイスが製品化されつつある。そのウェアラブルデバイスを子供に携帯させて、ウェアラブルデバイスが撮像した画像を保護者が持つ端末に送信させることで、子供の状態を把握する方法が考えられる。
 しかし、ウェアラブルデバイスに定期的に撮像させて画像を送信させると、保護者が端末で画像を確認する際にどの画像が重要なのか判断出来なくなってしまう。また、ウェアラブルデバイスに定期的に撮像させて画像を送信させると、ウェアラブルデバイスのバッテリの消費が増えていくことにもなり、バッテリが切れて肝心な場面の撮像が出来なくなることも考えられる。
 そこで本件開示者は、上述した内容に鑑みて、携帯者の現在の状態を適切に他の装置へ通知することが可能な技術について、鋭意検討を行った。その結果、本件開示者は、携帯者が安全かどうかを判断した結果に基づいて携帯者の現在の状態を適切に他の装置へ通知することが可能な技術を考案するに至った。
 以上、本開示の実施の形態の背景について説明した。続いて、本開示の実施の形態について説明する。
 [1.2.構成例]
 まず、本開示の一実施形態に係る情報処理システムの構成例について説明する。図1は、本開示の一実施形態に係る情報処理システム1の構成例を示す説明図である。
 図1に示したのは、ユーザ20に携帯された、撮像装置を備えるウェアラブルデバイス100と、ウェアラブルデバイス100から情報を受信する携帯端末200と、ウェアラブルデバイス100と携帯端末200との間の情報の授受を仲介するサーバ装置300と、を含んだ情報処理システム1の全体構成例である。ウェアラブルデバイス100は、ユーザ20の周囲の状況を撮像するために、例えばユーザ20の頭部や胸部等に装着され得る。またウェアラブルデバイス100は、ユーザ20が所持している物体、例えば帽子やランドセル、カバン等に装着されるものであっても良い。すなわち本実施形態において「携帯」とは、ユーザ20の身体に直接身に付けられる場合と、ユーザ20の身体に間接的に身に付けられる場合との双方を含みうるものとする。
 情報処理システム1の概要を説明する。ユーザ20(特に子供)に携帯された、撮像装置を備えるウェアラブルデバイス100は、所定の条件を満たした場合に撮像装置に画像を撮像させる。ウェアラブルデバイス100は、撮像した画像に基づいた情報を、インターネットその他のネットワーク10を介してサーバ装置300に送信する。サーバ装置300は、ウェアラブルデバイス100から送信された情報を携帯端末200へ送信する。
 本開示の一実施形態に係る情報処理システム1は、図1に示したような構成を有することで、ウェアラブルデバイス100が携帯されたユーザ20の位置のみならず、周囲の状況を含んだ情報を、携帯端末200へ送信することが出来る。従って、携帯端末200のユーザ(例えばウェアラブルデバイス100を携帯している子供の保護者)は、ウェアラブルデバイス100から送信される情報を携帯端末200で見ることで、ユーザ20がどこにいて、どのような状態にあるのかを把握することが出来る。
 本実施形態では、ウェアラブルデバイス100は、上記所定の条件として、ユーザ20が安全な状態にあるかどうかを示す指標が所定の閾値を超えているかどうかを判定し、その判定結果に基づいて、情報の記録のための処理頻度を決定する。本実施形態では、ウェアラブルデバイス100は、情報の記録のための処理頻度として、撮像装置に画像を撮像させて、撮像結果を記録する撮像頻度を決定する。また本実施形態では、ウェアラブルデバイス100は、情報の記録のための処理頻度として、撮像装置の撮像処理の結果として得られた画像を含んだ情報を、サーバ装置300を介して携帯端末200に送信し、携帯端末200に記録させる通知頻度を決定する。
 詳細は詳述するが、ユーザ20が安全な状態にあるかどうかを示す指標は、例えばユーザ20が安全な場所(例えば学校)にいるかどうか、同じ場所に居続けているかどうか、等で決定される。ウェアラブルデバイス100は、ウェアラブルデバイス100の現在地や現在時刻に基づいて得られる情報によって、ユーザ20が安全な状態にあるかどうかを示す指標を決定する。
 以下においては、ユーザ20が安全な状態にあるかどうかを示す指標のことを「安全度」とも称する。
 本実施形態では、情報の記録のための処理頻度の決定は、処理をしないことと処理をすることとの間の切り替えと、処理をしている状態で、その処理の間隔や回数の決定と、の両方を含むものとする。ウェアラブルデバイス100が、情報の記録のための処理頻度として、撮像装置に画像を撮像させて、撮像結果を記録する撮像頻度を決定する場合、その撮像装置での撮像処理機能のオン・オフの切り替えと、撮像処理機能がオンとなっている状態で、撮像処理の間隔や回数の決定と、の両方を含むものとする。ウェアラブルデバイス100が、情報の記録のための処理頻度として、上記の通知頻度を決定する場合、その通知機能のオン・オフの切り替えと、通知機能がオンとなっている状態で、撮像処理の間隔や回数の決定と、の両方を含むものとする。
 「撮像処理」と言う場合には、撮像装置に含まれるイメージャでの光電変換処理、または、光電変換されたものをメモリまたはローカルの記録媒体への記録処理が含まれるものとする。
 上記の説明では、ウェアラブルデバイス100は撮像装置を含むものとして説明したが、本開示は係る例に限定されるものではなく、ウェアラブルデバイス100は、撮像装置とは別の装置として、すなわち、撮像装置と、上述の処理頻度を決定する機能を有する装置とが、別々の装置として構成されていても良い。
 サーバ装置300は、ウェアラブルデバイス100と携帯端末200との間の情報の授受を仲介する他に、例えば、ウェアラブルデバイス100が撮像装置に撮像させた画像の解析処理等を行なうよう構成されていても良い。
 以上、図1を用いて本開示の一実施形態に係る情報処理システム1の構成例について説明した。続いて、本開示の一実施形態に係る情報処理システム1の詳細な機能構成例について説明する。
 図2は、本開示の一実施形態に係る情報処理システム1を構成する各装置の、詳細な機能構成例を示す説明図である。以下、図2を用いて本開示の一実施形態に係る情報処理システム1を構成する各装置の、詳細な機能構成例について説明する。
 図2に示したように、本開示の一実施形態に係るウェアラブルデバイス100は、撮像部110と、記憶部120と、センサ部130と、制御部140と、マイク150と、通信部160と、を含んで構成される。
 撮像部110は、レンズや撮像素子等を含み、制御部140からの指示に基づいて画像の撮像を行なう。撮像部110は、静止画像または動画像の撮像を行なう。撮像部110における撮像処理で得られる画像は、必要に応じて記憶部120に記憶されたり、制御部140によって画像処理が行われたりする。撮像部110における撮像処理で得られる画像は、通信部160によってサーバ装置300に送信され得る。
 記憶部120は、例えばROM(Read Only Memory)、RAM(Random Access Memory)等の様々な記憶媒体で構成され得る。記憶部120は、ウェアラブルデバイス100の動作のためのプログラムや各種情報を記憶する。ウェアラブルデバイス100が記憶する情報には、例えば、上述の撮像部110によって撮像された画像や、後述のセンサ部130が出力するセンシングデータなどが含まれ得る。記憶部120に記憶されているプログラムや各種情報は、制御部140によって随時読み出される。
 ウェアラブルデバイス100の記憶部120には、地図情報が記憶されていても良い。記憶部120に地図情報が記憶されることで、後述の制御部140は、地図情報を照合しながらユーザ20の安全度を決定することが出来る。
 センサ部130は、センシングデータを制御部140に出力する。センサ部130を構成するセンシングデバイスとして、例えばGPS(Global Positioning System)、GLONASS(Global Navigation Satellite System)、BDS(BeiDou Navigation Satellite System)等の現在位置を取得するセンサ、カメラ、深度情報付きカメラ、人感センサ、マイク等が含まれ得る。従って、センサ部130の一部として上述の撮像部110が含まれていても良い。
 このようなセンシングデバイスは、装置にかかる加速度や角速度、方位、照度、温度、気圧などを検出する。上記の各種センシングデバイスは、例えばセンシングデバイスを含む装置がユーザによって携帯または装着されている場合に、各種情報をユーザに関する情報、例えばユーザの運動や向きなどを示す情報として検出することができる。また、センシングデバイスは、他にも、脈拍、発汗、脳波、触覚、嗅覚、味覚など、ユーザの生体情報を検出するセンサを含んでもよい。
 制御部140は、例えばCPU(Central Processing Unit)、ROM、RAMなどで構成され、ウェアラブルデバイス100の動作を制御する。制御部140は、例えば記憶部120に記憶されているコンピュータプログラムを読みだして順次実行することで、ウェアラブルデバイス100の動作を制御してもよい。
 本実施形態では、制御部140は、ユーザ20が安全な状態にあるかどうかを示す指標(安全度)が所定の閾値を超えているかどうかを判定し、その判定結果に基づいて、情報の記録のための処理頻度を決定する。本実施形態では、制御部140は、情報の記録のための処理頻度として、撮像装置に画像を撮像させて、撮像結果を記録する撮像頻度を決定する。また本実施形態では、制御部140は、情報の記録のための処理頻度として、撮像装置の撮像処理の結果として得られた画像を含んだ情報を、サーバ装置300を介して携帯端末200に送信し、携帯端末200に記録させる通知頻度を決定する。
 マイク150は、ウェアラブルデバイス100の周囲の音を収音して音声信号を生成する。マイク150によって生成される音声信号は、必要に応じて記憶部120に記憶されたり、制御部140によって音声処理が行われたりする。マイク150における収音で得られる音声信号は、通信部160によってサーバ装置300に送信され得る。
 通信部160は、外部との間で通信処理を実行する。通信部160が実行する通信処理は所定の規格やプロトコルに限定されるものではない。本実施形態では、通信部160は、ネットワーク10を通じてサーバ装置300との間で各種情報の送受信を実行するよう構成されている。
 なお図2には図示していないが、ウェアラブルデバイス100はバッテリを備え、バッテリが供給する直流電力によって動作する。ウェアラブルデバイス100が備えるバッテリは、充放電可能な二次電池であってもよく、直流電力の放電のみが可能な一次電池であってもよい。
 図2に示したように、本開示の一実施形態に係る携帯端末200は、表示部210と、入力部220と、記憶部230と、制御部240と、通信部250と、を含んで構成される。
 表示部210は、液晶ディスプレイ、有機ELディスプレイ等のディスプレイパネルで構成され、文字、画像等の各種情報を表示するデバイスである。本実施形態では、表示部210は、後述するように、所定のGUIによって、ウェアラブルデバイス100で撮像された画像を表示することが出来る。なお表示部210にはタッチパネルが設けられていてもよく、表示部210をユーザに触らせることで入力操作を受け付けるようにしてもよい。その場合、表示部210は後述の入力部220としても機能し得る。
 入力部220は、ユーザからの入力を受け付ける各種インプットデバイスであり、例えばキーボード、マウス、タッチパネルなどで構成され得る。
 また各種センシングデバイスも入力部220として機能し得る。そのようなセンシングデバイスとして、例えばGPS、GLONASS、BDS等の現在位置を取得するセンサ、カメラ、深度情報付きカメラ、人感センサ、マイク等が含まれ得る。
 このようなセンシングデバイスは、装置にかかる加速度や角速度、方位、照度、温度、気圧などを検出する。上記の各種センシングデバイスは、例えばセンシングデバイスを含む装置がユーザによって携帯または装着されている場合に、各種情報をユーザに関する情報、例えばユーザの運動や向きなどを示す情報として検出することができる。また、センシングデバイスは、他にも、脈拍、発汗、脳波、触覚、嗅覚、味覚など、ユーザの生体情報を検出するセンサを含んでもよい。
 記憶部230は、例えばROM、RAM等の様々な記憶媒体で構成され得る。記憶部230は、携帯端末200の動作のためのプログラムや各種情報を記憶する。本実施形態では、記憶部230は、ウェアラブルデバイス100で取得され、サーバ装置300から送信された各種情報を記憶し得る。ウェアラブルデバイス100で取得され、サーバ装置300から送信される情報には、ウェアラブルデバイス100で撮像された画像や、ウェアラブルデバイス100で収音された音声、ウェアラブルデバイス100で取得されたセンシングデータに基づいた情報等が含まれ得る。
 制御部240は、例えばCPU、ROM、RAMなどで構成され、携帯端末200の動作を制御する。制御部240は、記憶部230に記憶されているコンピュータプログラムを読み出して順次実行することで、携帯端末200の動作を制御してもよい。本実施形態では、制御部240は、例えば表示部210へのGUIの表示を制御したり、GUIに対するユーザの入力部220による入力操作に対する各種処理を実行したりする。
 通信部250は、外部との間で通信処理を実行する。通信部250が実行する通信処理は所定の規格やプロトコルに限定されるものではない。本実施形態では、通信部250は、ネットワーク10を通じてサーバ装置300との間で各種情報の送受信を実行するよう構成されている。
 図2に示したように、本開示の一実施形態に係るサーバ装置300は、記憶部310と、通信部320と、制御部330と、を含んで構成される。
 記憶部310は、例えばROM、RAM等の様々な記憶媒体で構成され得る。記憶部310は、サーバ装置300の動作のためのプログラムや各種情報を記憶する。本実施形態では、記憶部310は、ウェアラブルデバイス100で取得された各種情報を記憶し得る。ウェアラブルデバイス100で取得される情報には、ウェアラブルデバイス100で撮像された画像や、ウェアラブルデバイス100で収音された音声、ウェアラブルデバイス100で取得されたセンシングデータに基づいた情報等が含まれ得る。
 通信部320は、外部との間で通信処理を実行する。通信部320が実行する通信処理は所定の規格やプロトコルに限定されるものではない。本実施形態では、通信部320は、ネットワーク10を通じてウェアラブルデバイス100や携帯端末200との間で各種情報の送受信を実行するよう構成されている。
 制御部330は、例えばCPU、ROM、RAMなどで構成され、サーバ装置300の動作を制御する。制御部330は、記憶部310に記憶されているコンピュータプログラムを読み出して順次実行することで、サーバ装置300の動作を制御してもよい。
 以上、図2を用いて本開示の一実施形態に係る情報処理システム1を構成する各装置の、詳細な機能構成例について説明した。続いて、図2に示したウェアラブルデバイス100に含まれる、制御部140の機能構成例について説明する。
 図3は、本開示の一実施形態に係るウェアラブルデバイス100に含まれる、制御部140の機能構成例を示す説明図である。以下、図3を用いて制御部140の機能構成例について説明する。
 図3に示したように、制御部140は、判定結果取得部141と、処理頻度決定部142と、画像処理部143と、位置検出処理部144と、を含んで構成される。
 判定結果取得部141は、ウェアラブルデバイス100を携帯しているユーザ20が安全な状態にあるかどうかを示す指標(安全度)が所定の閾値を超えているかどうかを判定し、その判定結果を取得する。
 処理頻度決定部142は、判定結果取得部141が取得した、ウェアラブルデバイス100を携帯しているユーザ20が安全な状態にあるかどうかを示す指標(安全度)が所定の閾値を超えているかどうかの判定結果に基づいて、ウェアラブルデバイス100が取得した情報の記録のための処理頻度を決定する。本実施形態では、処理頻度決定部142は、ウェアラブルデバイス100が取得した情報の記録のための処理頻度として、撮像装置に画像を撮像させて、撮像結果を記録する撮像頻度を決定する。また本実施形態では、制御部140は、情報の記録のための処理頻度として、撮像装置の撮像処理の結果として得られた画像を含んだ情報を、サーバ装置300を介して携帯端末200に送信し、携帯端末200に記録させる通知頻度を決定する。
 判定結果取得部141は、例えば後述の位置検出処理部144によって検出された、ウェアラブルデバイス100の現在位置の情報に基づいて、ウェアラブルデバイス100を携帯しているユーザ20の安全度を求める。ウェアラブルデバイス100の現在位置の情報に基づいて安全度を求める際には、記憶部120に記憶されている地図情報と照合してもよい。例えばウェアラブルデバイス100を携帯しているユーザ20が小学生であり、ウェアラブルデバイス100の現在位置を検出した結果、その小学生が通っている小学校にいることが分かれば、判定結果取得部141は、ユーザ20の安全度は極めて高いと判定する。
 そして処理頻度決定部142は、判定結果取得部141が取得した判定結果に基づいて、ウェアラブルデバイス100が取得した情報の記録のための処理頻度を低くしたり、または処理機能そのものをオフにしたりすることが出来る。
 画像処理部143は、撮像部110で撮像された画像に対する画像処理を実行する。撮像部110で撮像された画像に対する画像処理としては、例えば、画像の切り取り(トリミング)処理、画像中の顔や物体を認識する認識処理、画像のサイズや解像度を変換する変換処理などが含まれ得る。画像処理部143は、画像中の顔を認識する認識処理を行なう場合、認識した顔が予め登録された人物かどうかを判定し得る。また画像処理部143は、画像中の物体を認識する認識処理を行なう場合、認識した物体が何であるかを判定し得る。処理頻度決定部142は、画像処理部143による画像処理の結果に基づいて、処理頻度を決定しても良い。処理頻度決定部142による、画像処理の結果に基づいた処理頻度の決定処理については後述する。
 位置検出処理部144は、ウェアラブルデバイス100の現在位置を検出する。位置検出処理部144は、ウェアラブルデバイス100の現在位置を検出する際には、センサ部130で取得されたセンシングデータを用いる。位置検出処理部144が検出したウェアラブルデバイス100の現在位置の情報は、処理頻度決定部142による処理頻度の決定に用いられ得る。
 以上、図3を用いて制御部140の機能構成例について説明した。続いて、本開示の一実施形態に係るウェアラブルデバイス100の動作例について説明する。
 [1.3.動作例]
 図4は、本開示の一実施形態に係るウェアラブルデバイス100の動作例を示す流れ図である。図4に示したのは、ウェアラブルデバイス100が携帯されているユーザ20の安全度を判定し、ウェアラブルデバイス100が取得した情報の記録のための処理頻度を決定する際の、ウェアラブルデバイス100の動作例を示す流れ図である。以下、図4を用いて本開示の一実施形態に係るウェアラブルデバイス100の動作例について説明する。
 ウェアラブルデバイス100は、ウェアラブルデバイス100が取得した情報の記録のための処理頻度を決定する際に、まずウェアラブルデバイス100を携帯したユーザ20が安全な状態にいるかどうかを判定する(ステップS101)。このステップS101の判定処理は、例えば判定結果取得部141が実行する。
 上記ステップS101の判定処理の具体例について、ウェアラブルデバイス100が携帯されているユーザ20が小学生である場合を例に挙げて説明する。
 ユーザ20が小学生である場合、ウェアラブルデバイス100は、ユーザ20が学校にいるときはユーザ20の安全度が高いと判断する。ウェアラブルデバイス100は、センサ部130によって得られる現在位置の情報や、現在の時刻の情報を用いて学校にいるかどうかを判断してもよい。また、例えばセキュリティ確保のためのカメラ(セキュリティカメラ)が学校に設置されていることが予め分かっていれば、ウェアラブルデバイス100は、さらにユーザ20の安全度が高いと判断してもよい。
 また、ユーザ20が小学生である場合、ウェアラブルデバイス100は、授業が終わって学校から離れたときは、ユーザ20の安全度が低いと判断する。
 また、公共のセキュリティカメラの場所が予め分かっていれば、ウェアラブルデバイス100は、その公共のセキュリティカメラの場所の近くではユーザ20の安全度がやや高いと判断してもよい。
 また、センサ部130が出力するセンシングデータから、ウェアラブルデバイス100を身に付けたユーザ20が、普段と違う行動をとっていることが分かれば、ウェアラブルデバイス100は、ユーザ20の安全度が低いと判断する。例えば、ユーザ20は、毎週水曜日の17時30分に決まった交差点を曲がっているのに、センサ部130が出力するセンシングデータから、17時50分になってもその交差点に達していないことが分かれば、ウェアラブルデバイス100は、ユーザ20の安全度が低いと判断する。
 もちろん、上述したユーザ20の安全度の判断は一例に過ぎないことは言うまでもなく、ウェアラブルデバイス100は、センサ部130によって得られる現在位置の情報や現在時刻の情報などから、安全度を判断することが可能である。
 ステップS101で、ウェアラブルデバイス100を携帯したユーザ20が安全な状態にいるかどうかを判定すると、続いてウェアラブルデバイス100は、判定結果に基づいて、撮像部110による画像の撮像頻度を決定する(ステップS102)。ステップS102の撮像頻度の決定処理は、例えば処理頻度決定部142が実行する。
 例えば、ユーザ20が学校にいて、ユーザ20の安全度が高いと判断された場合、ウェアラブルデバイス100は、撮像部110による画像の撮像頻度を例えば3時間に1回等の非常に長い間隔に決定したり、または撮像部110による画像の撮像を行わないようにしたりしてもよい。また例えば、ユーザ20が学校を離れ、ユーザ20の安全度が低下したと判断された場合、ウェアラブルデバイス100は、撮像部110による画像の撮像頻度を上げて、例えば10分に1回等の短い間隔に決定してもよい。
 また例えば、ユーザ20が学校を離れても、公共のセキュリティカメラの場所の近くにいて、ユーザ20の安全度がやや高いと判断された場合、ウェアラブルデバイス100は、撮像部110による画像の撮像頻度を、公共のセキュリティカメラが近くに無い場合に比べて下げて、例えば20分に1回等の間隔に決定してもよい。このようにウェアラブルデバイス100は、ユーザ20が公共のセキュリティカメラの場所の近くにいる場合は撮像部110による画像の撮像頻度を下げることで、ウェアラブルデバイス100のバッテリの消費を抑えることが出来る。
 また例えば、ユーザ20が学校を離れても、ウェアラブルデバイス100を身に付けたユーザ20が狭い公園にいるなどして、ユーザ20の場所が所定の時間に渡って大きく変化しない場合は、ウェアラブルデバイス100は、撮像部110による画像の撮像頻度を、例えば上記の10分に1回よりも長い時間、例えば20分に1回等の間隔に決定してもよい。
 上記ステップS102で、撮像部110による画像の撮像頻度を決定すると、続いてウェアラブルデバイス100は、上記ステップS102で決定した撮像頻度に基づいて、撮像部110に画像を撮像させるとともに、撮像部110が撮像した画像に基づいてユーザ20の安全度を更新する(ステップS103)。
 ウェアラブルデバイス100は、撮像部110が撮像した画像を画像処理部143で解析することで、ユーザ20の周囲がどのような状況なのかを把握することが出来る。例えば、撮像部110が撮像した画像に人が写っている場合、画像処理部143で画像の解析が行われることで、ウェアラブルデバイス100は、ユーザ20の周囲に人がいるか、人がいる場合、一緒にいるのは誰であるのかを把握することが出来る。そして、ユーザ20と一緒にいる人物が、予め登録された人物でないことが分かれば、ウェアラブルデバイス100は、画像の撮像頻度を上げる(例えば撮像する間隔を短縮する)よう決定することが出来る。
 上記ステップS103で、決定した撮像頻度に基づいて撮像部110に画像を撮像させ、撮像画像に基づいてユーザ20の安全度を更新すると、続いてウェアラブルデバイス100は、更新された安全度、及び撮像画像に基づいて、撮像頻度及び通知頻度を決定する(ステップS104)。ステップS104の通知頻度の決定処理は、例えば処理頻度決定部142が実行する。
 そして上記ステップS104で撮像頻度及び通知頻度を決定すると、続いてウェアラブルデバイス100は、決定した撮像頻度に基づいて撮像して、撮像画像に基づいて安全度を更新するとともに、上記ステップS104で決定した通知頻度に基づいて通知する(ステップS105)。決定した通知頻度に基づいて通知すると、ウェアラブルデバイス100は、上記ステップS101の安全度の判定処理に戻っても良い。
 例えば、上記ステップS103において撮像画像の解析が行われた結果、ユーザ20と一緒にいる人物が、予め登録された人物で無く、その人物が単にすれ違ったのではなく、常にその人物が撮像画像に写っている場合、ウェアラブルデバイス100は、誰か知らない人がユーザ20の近くにいることを携帯端末200に通知するため、情報をサーバ装置300に送信する。
 例えば、上記ステップS103において撮像画像の解析が行われた結果、ユーザ20と一緒にいる人物が、予め登録された友人であることが分かれば、ウェアラブルデバイス100は、ユーザ20の友人がユーザ20の近くにいることを携帯端末200に通知するため、情報をサーバ装置300に送信してもよい。また、上記ステップS103において撮像画像の解析が行われた結果、予め登録された友人が撮像画像からいなくなれば、ウェアラブルデバイス100は、ユーザ20の友人がユーザ20の近くからいなくなったことを携帯端末200に通知するため、情報をサーバ装置300に送信してもよい。
 他にも、ウェアラブルデバイス100は、撮像画像に対して顔認識処理を行って、同じ人が所定時間(所定回数)以上写っている場合は、同じ人物がユーザ20の近くにいることを携帯端末200に通知するため、情報をサーバ装置300に送信してもよい。また例えば、ウェアラブルデバイス100は、撮像画像に対して顔認識処理を行って、ユーザ20の周囲に大人が近づいたことが分かれば、大人がユーザ20の近くにいることを携帯端末200に通知するため、情報をサーバ装置300に送信してもよい。
 ここまで、ウェアラブルデバイス100は撮像画像に基づいて安全度を更新して撮像頻度及び通知頻度を決定していたが、他にも、センシングデータの情報に基づいて安全度を更新して撮像頻度及び通知頻度を決定してもよい。
 例えば、ウェアラブルデバイス100の現在位置が、予め登録されている、車の交通量が多い道や、見通しの悪い道であることがセンシングデータの情報から分かった場合は、ウェアラブルデバイス100は、撮像頻度や通知頻度を上げても良い。なおウェアラブルデバイス100は、車の交通量が多い道や、見通しの悪い道であるかどうかについては、撮像画像から判定してもよい。すなわち、ウェアラブルデバイス100は、撮像画像に含まれる風景の内容に基づいて撮像頻度や通知頻度を決定してもよい。また、ウェアラブルデバイス100の現在位置が、位置情報や照度センサなどから暗い道にいることが分かれば、ウェアラブルデバイス100は、撮像頻度や通知頻度を上げても良い。またウェアラブルデバイス100は、時刻や現在の天気などによって撮像頻度、通知頻度を変化させても良い。
 またウェアラブルデバイス100は、後ろから不審者が近づいたり、またウェアラブルデバイス100をユーザ20が落としたりしたようなことが推測されるセンシングデータをセンサ部130から得ると、撮像頻度や通知頻度を上げても良い。
 例えば、センサ部130に加速度センサが含まれ、ユーザ20が後ろを振り向いたり、暴れたり、また急に走り出したことが推測されるセンシングデータをセンサ部130から得ると、ウェアラブルデバイス100は、撮像頻度や通知頻度を上げても良い。
 また例えば、車にぶつかったり、高いところから落下したりするなど、強い衝撃、落下を検知した場合に得られるセンシングデータをセンサ部130から得ると、ウェアラブルデバイス100は、撮像頻度や通知頻度を上げても良い。
 またウェアラブルデバイス100は、ユーザ20のスケジュールや、ユーザ20の毎日の行動から異なる行動をユーザ20が行ったことが分かれば、撮像頻度や通知頻度を上げても良い。例えば、所定の位置を本来通過する時間に、ユーザ20が通過しなかったことが分かれば、ウェアラブルデバイス100は、撮像頻度や通知頻度を上げても良い。
 なお、所定の位置を本来通過する時間に、ユーザ20が通過しなかった場合であっても、例えばユーザ20が友達と話しながら歩いている等の理由で遅れているだけかもしれない。従って、所定の位置を本来通過する時間にユーザ20が通過しなかった場合、その時間から所定の時間が経過してもなおその所定の位置を通過しなければ、ウェアラブルデバイス100は撮像頻度だけを上げて、撮像頻度を上げてからさらに所定の時間が経過してもなおその所定の位置を通過しなければ、ウェアラブルデバイス100は撮像頻度をさらに上げるとともに通知頻度を上げるようにしてもよい。この所定の時間は、通知を受ける携帯端末200のユーザによって変更出来るようにしてもよい、
 またウェアラブルデバイス100は、センサ部130からのセンシングデータによって、ユーザ20が乗り物に乗ったり、乗り物から降りたりしたことが分かれば、乗り物の乗降のタイミングで処理頻度を決定してもよい。例えばウェアラブルデバイス100は、ユーザ20が電車に乗った、自転車に乗った、等のタイミングで処理頻度を決定してもよい。
 またウェアラブルデバイス100は、センサ部130からのセンシングデータによって、ユーザ20がウェアラブルデバイス100を外したことが分かれば、そのタイミングで処理頻度を上げるようにしてもよい。
 またウェアラブルデバイス100は、撮像部110が撮像した画像に同じ物が数多く映っている場合は、通知頻度を下げるように決定してもよい。
 またウェアラブルデバイス100は、自装置のバッテリの残量を確認し、所定量以下に減っている場合は、処理頻度を下げるように決定してもよい。またウェアラブルデバイス100は、センサ部130が独自にバッテリを備えている場合は、センサ部130のバッテリの残量を確認し、所定量以下に減っている場合は、処理頻度を下げるように決定してもよい。
 またウェアラブルデバイス100は、携帯端末200との間の距離に応じて処理頻度を変化させても良い。ウェアラブルデバイス100は、携帯端末200との間の距離を、例えば携帯端末200から発せられる所定の電波の強度に基づいて推測してもよい。例えば、ウェアラブルデバイス100は、携帯端末200が近くにある場合は処理頻度を下げるが、携帯端末200が近くにいた状況から少し離れた場合は、ユーザ20が迷子になった可能性が考えられ、そのような場合には処理頻度を上げる。
 ウェアラブルデバイス100からの通知を受けた(サーバ装置300から通知を受信した)携帯端末200のユーザは、ウェアラブルデバイス100からの通知内容を確認し、その確認の結果に応じてウェアラブルデバイス100の処理頻度を変化させてもよい。
 例えば、ウェアラブルデバイス100が、ユーザ20の近くに登録されていない人物がいることを、その人物の画像と共に通知した場合に、携帯端末200のユーザが、その人物は顔見知りであるから問題無い旨をウェアラブルデバイス100に返答すると、ウェアラブルデバイス100は、処理頻度を下げる。
 また例えば、ユーザ20の行動が予定されたスケジュールと違っても、携帯端末200のユーザがそのことを把握してあるから問題無い旨をウェアラブルデバイス100に返答すると、ウェアラブルデバイス100は、処理頻度を下げる。
 なお、ウェアラブルデバイス100における処理頻度は、携帯端末200から指定されるようにしてもよい。
 ここまでの説明では、ウェアラブルデバイス100の処理頻度の決定のための処理はすべてウェアラブルデバイス100で行なう場合を示したが、ウェアラブルデバイス100の処理頻度の決定のための処理の一部またはすべてをサーバ装置300に移してもよい。すなわち、画像の保存や、人または状況の解析と識別などをサーバ装置300に行わせてもよい。
 ウェアラブルデバイス100の処理頻度の決定のための処理の一部またはすべてをサーバ装置300に移す場合、他のユーザが携帯するウェアラブルデバイス100の情報と組み合わせて、ウェアラブルデバイス100の処理頻度を決定してもよい。例えば、あるユーザ20のウェアラブルデバイス100の処理頻度には登録されていない人であっても、他のユーザのウェアラブルデバイス100にその人が登録されている場合は、サーバ装置300に、当該他のユーザのウェアラブルデバイス100に登録されている情報を利用してもよい。
 またサーバ装置300が処理頻度の決定を行なう場合、あるユーザ20の近くにいる他のユーザが携帯するウェアラブルデバイス100の情報と組み合わせて、ウェアラブルデバイス100の処理頻度を決定してもよい。例えばサーバ装置300は、あるユーザ20のウェアラブルデバイス100が撮像した画像と、当該ユーザ20の近くにいる他のユーザが携帯するウェアラブルデバイス100が撮像した画像とを比較することで、あるユーザ20のウェアラブルデバイス100の処理頻度の決定を行っても良い。
 またウェアラブルデバイス100は、他の装置との連携によってウェアラブルデバイス100の処理頻度を決定してもよい。
 またウェアラブルデバイス100は、撮像部110が分離出来る場合に、撮像部110が撮像した画像と、センサ部130が取得した現在位置の情報とが異なっていることが分かった場合、処理頻度を上げるように決定してもよい。ウェアラブルデバイス100は、撮像部110が撮像した画像と、センサ部130が取得した現在位置の情報とが異なっていることが分かった場合に処理頻度を上げることで、撮像部110またはセンサ部130のどちらかを落としたことを携帯端末200のユーザに通知することが可能になる。
 ウェアラブルデバイス100は、撮像部110で動画像を撮像してもよい。そしてウェアラブルデバイス100は、静止画像ではなく動画像を携帯端末200にストリーミング送信することで携帯端末200へ通知してもよい。しかし、動画像を撮像して、動画像を携帯端末200にストリーミング送信し続けることは、ウェアラブルデバイス100のバッテリの消費量が増加し、またウェアラブルデバイス100の処理負荷の増加に伴い熱も発生する。
 そこでウェアラブルデバイス100は、撮像部110で撮像した動画像は記憶部120に保存しつつ、携帯端末200には静止画を送信することで携帯端末200へ通知してもよい。そして、携帯端末200のユーザが指定した場合に、携帯端末200はウェアラブルデバイス100へアクセスして、ウェアラブルデバイス100に保持している動画像を再生するようにしても良い。ウェアラブルデバイス100に保持している動画像を携帯端末200で再生する場合に、携帯端末200のユーザが効率よく再生できるようにするために、ウェアラブルデバイス100は、動画像のファイルを分割して保存してもよい。ウェアラブルデバイス100は、動画像のファイルを分割して保存することで、動画像のファイルサイズを小さくし、転送にかかる時間などを減らすことができる。
 携帯端末200が表示するユーザインタフェース(UI)の例を示す。図5は、携帯端末200の表示部210に表示されるユーザインタフェースの例を示す説明図である。図5には、地図上に、ウェアラブルデバイス100が撮像した画像と、撮像した場所とを重畳させたユーザインタフェースの例が示されている。
 図5に示したユーザインタフェースには、撮像した画像に映っているのが誰なのかも、併せて示されている。図5の符号U1で示したのが、ウェアラブルデバイス100の撮像部110が撮像した画像、画像に映っている人物、及び画像が撮像された日時が含まれた情報である。符号U1に示した情報は、撮像部110による撮像処理が行われた場所に対応するように表示される。
 このように、携帯端末200が表示するユーザインタフェースは、画像をそのまま出すだけでなく、地図上に画像を表示させることで、どこで撮られた画像なのかを提示することができる。また携帯端末200に通知された理由も一緒に把握できるようなユーザインタフェースとしてもよい。
 図6及び図7は、携帯端末200の表示部210に表示されるユーザインタフェースの別の例を示す説明図である。
 図6に示したユーザインタフェースの符号U2は、ウェアラブルデバイス100の撮像部110が撮像した画像である。符号U2に示した画像は、撮像部110による撮像処理が行われた場所に対応するように表示される。図6に示したユーザインタフェースの符号U3は、ウェアラブルデバイス100を身に付けたユーザ20が誰と一緒にいるかを示すアイコンである。図6に示したユーザインタフェースの符号U4は、ウェアラブルデバイス100を身に付けたユーザ20と一緒にいるユーザが携帯しているウェアラブルデバイス100によって取得された画像を表示させるためのアイコンである。図6に示したユーザインタフェースの符号U5は、時間を変化させるスクロールバーであり、携帯端末200のユーザによってスライド操作が行われると、表示部210に表示する情報が変化する。
 図7は、図6の符号U5で示したスクロールバーの操作によって表示部210に表示される情報が変化する例を示す説明図である。スクロールバーが左の方、つまり時間的に前の方に操作されると、例えばユーザ20が自宅のマンションを出たばかりで一人であり、一緒にいる他のユーザはいない状態が表示されるが、スクロールバーが右の方、つまり時間的に後の方に操作されると、例えばユーザ20が公園に移動し、友達と一緒にいる状態が表示される。
 携帯端末200が表示するユーザインタフェースは係る例に限定されるものではない。例えば、いつどこで誰と会っていたかを、顔の部分を中心にアドレス帳のように表示するようにしてもよい。
 もちろん、携帯端末200は、このようなユーザインタフェースだけでなく、音声によってウェアラブルデバイス100からの情報の通知をユーザに知らせても良い。
 ウェアラブルデバイス100から送信された画像以外の画像はウェアラブルデバイス100に記録されているので、携帯端末200のユーザは、他にどんな画像が撮像されているのか気になった場合には、携帯端末200からウェアラブルデバイス100へアクセスすることで、ウェアラブルデバイス100に保存され、携帯端末200に送信されていない画像を携帯端末200で見ることができる。
 ウェアラブルデバイス100は、所定の枚数を撮像すると、複数の画像を1つにまとめて、携帯端末200に送信してもよい。例えば、25枚の画像を撮像すると、縦5枚、横5枚のグリッド状にした1枚の画像として、携帯端末200に送信してもよい。ウェアラブルデバイス100は、複数の画像を1つにまとめる際には、既に携帯端末200に送信した画像は除外してもよく、既に携帯端末200に送信した画像を含めても良い。
 ユースケース例として、例えばウェアラブルデバイス100の使用をユーザ20が開始すると、ウェアラブルデバイス100は、まずは所定の間隔で撮像部110に画像を撮像させるモードとなる。そのモードで数日間、ユーザ20がウェアラブルデバイス100を使用すると、ウェアラブルデバイス100は、取得した画像や位置情報などにより、ユーザ20が普段どのような行動をとっているかが分かり、また携帯端末200も、ユーザ20がどのような行動をとっているかをユーザインタフェースで提示することができる。
 従って、携帯端末200のユーザは、提示されたユーザインタフェースに対する操作を行って、ウェアラブルデバイス100の処理頻度を変化させる場所や時間を指定することができる。ウェアラブルデバイス100の処理頻度を変化させる場所や時間を指定する際に使用する情報は、他にもパブリックなもの(公共機関が提供するもの)や、ソーシャルなもの(不特定のユーザによって通報されたり、画像で自動判別されたりするもの)であってもよい。
 ウェアラブルデバイス100の処理頻度の変化によって、携帯端末200のユーザは、ウェアラブルデバイス100を身に付けたユーザ20の状態を、ユーザ20から離れた場所にいても把握することが出来る。
 ウェアラブルデバイス100は、処理頻度以外にも、携帯端末200へ通知する情報の量を変化させても良い。ウェアラブルデバイス100は、例えば、撮像された画像の解像度を変化させても良く、撮像された画像のみでなく、マイクで収音された音声も携帯端末200へ通知する情報として使用してもよく、またセンサ部130で生体情報が取得できる場合は、生体情報も携帯端末200へ通知する情報として使用してもよい。
 複数のユーザがウェアラブルデバイス100を持っており、それら複数のユーザが近い場所にいる場合、すべてのウェアラブルデバイス100が画像を撮像してサーバ装置300に送信するのは無駄である場合がある。従って、複数のユーザがウェアラブルデバイス100を持っており、それら複数のユーザが近い場所にいることが分かれば、ある1つのウェアラブルデバイス100のみが画像を撮像してサーバ装置300に送信してもよい。ある1つのウェアラブルデバイス100のみが画像を撮像してサーバ装置300に送信することで、それぞれのウェアラブルデバイス100のバッテリを節約できる。この場合、バッテリの残量が最も多いウェアラブルデバイス100のみが画像を撮像してサーバ装置300に送信してもよい。
 複数のウェアラブルデバイス100で画像が撮像される場所は、安全度が低い場所としてサーバ装置300が自動的に認識してもよく、そのような場所があることを、ウェアラブルデバイス100や携帯端末200に通知してもよい。複数のウェアラブルデバイス100で画像が撮像される場所の情報をサーバ装置300から受信することで、ウェアラブルデバイス100は、その場所にユーザ20が近づくと処理頻度を上げるように決定することが可能となる。
 ウェアラブルデバイス100は、撮像部110に撮像させた画像を含んだ情報の通知先として、サーバ装置300を選択してもよい。例えばサーバ装置300が、ウェアラブルデバイス100が撮像部110に撮像させた画像の解析処理等を行なうよう構成されている場合、ウェアラブルデバイス100は、撮像部110に撮像させた画像をサーバ装置300へ送信し、サーバ装置300で画像を解析させる。そしてウェアラブルデバイス100は、サーバ装置300での解析結果を取得し、その解析結果から処理頻度を決定してもよい。
 またウェアラブルデバイス100や携帯端末200は、ユーザの発話内容に基づいて撮像装置に画像を撮像させても良い。例えばウェアラブルデバイス100のユーザ20が「これなに?」と発話したのをマイク150が集音すると、ウェアラブルデバイス100は、その発話内容に基づいて撮像部110に画像を撮像させても良い。またウェアラブルデバイス100からの通知を受けた携帯端末200のユーザが「これなに?」と発話したのを携帯端末200のマイクが集音すると、携帯端末200は、ウェアラブルデバイス100に対して撮像を指示してもよい。
 なおサーバ装置300での画像の解析は、サーバ装置300が自動で行っても良いが、サーバ装置300を運用するユーザが撮像画像を見て、誰が写っているのかを判定し、その判定結果をウェアラブルデバイス100に返すようにしても良い。
 またウェアラブルデバイス100は、撮像部110に撮像させるための専用のボタン等の入力装置を備えていても良い。ウェアラブルデバイス100のユーザがその入力装置を操作すると、ウェアラブルデバイス100は、撮像部110に画像を撮像させて、その撮像画像を通知先に送信してもよい。ウェアラブルデバイス100の通知先としてサーバ装置300が設定されていれば、上述したようにサーバ装置300が画像の解析を行い、その解析の結果をウェアラブルデバイス100に返しても良い。
 <2.ハードウェア構成例>
 次に、図8を参照して、本開示の一実施形態にかかるウェアラブルデバイス100や携帯端末200のハードウェア構成について説明する。図8は、本開示の実施形態にかかるウェアラブルデバイス100や携帯端末200のハードウェア構成例を示すブロック図である。上記の各アルゴリズムは、例えば、図8に示す情報処理装置のハードウェア構成を用いて実行することが可能である。つまり、当該各アルゴリズムの処理は、コンピュータプログラムを用いて図8に示すハードウェアを制御することにより実現される。
 なお、この図8に示したハードウェアの形態は任意であり、例えば、パーソナルコンピュータ、携帯電話、PHS、PDA等の携帯情報端末、ゲーム機、接触式又は非接触式のICチップ、接触式又は非接触式のICカード、スピーカ、テレビ、モニタ、ウェアラブル機器、又は種々の情報家電がこれに含まれる。但し、上記のPHSは、Personal Handy-phone Systemの略である。また、上記のPDAは、Personal Digital Assistantの略である。
 図8に示すように、このハードウェアは、主に、CPU902と、ROM904と、RAM906と、ホストバス908と、ブリッジ910と、を有する。さらに、このハードウェアは、外部バス912と、インターフェース914と、入力部916と、出力部918と、記憶部920と、ドライブ922と、接続ポート924と、通信部926と、を有する。但し、上記のCPUは、Central Processing Unitの略である。また、上記のROMは、Read Only Memoryの略である。そして、上記のRAMは、Random Access Memoryの略である。
 CPU902は、例えば、演算処理装置又は制御装置として機能し、ROM904、RAM906、記憶部920、又はリムーバブル記録媒体928に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。ROM904は、CPU902に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM906には、例えば、CPU902に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
 これらの構成要素は、例えば、高速なデータ伝送が可能なホストバス908を介して相互に接続される。一方、ホストバス908は、例えば、ブリッジ910を介して比較的データ伝送速度が低速な外部バス912に接続される。また、入力部916としては、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力部916としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。
 出力部918としては、例えば、CRT、LCD、PDP、又はELD等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。但し、上記のCRTは、Cathode Ray Tubeの略である。また、上記のLCDは、Liquid Crystal Displayの略である。そして、上記のPDPは、Plasma DisplayPanelの略である。さらに、上記のELDは、Electro-Luminescence Displayの略である。
 記憶部920は、各種のデータを格納するための装置である。記憶部920としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。但し、上記のHDDは、Hard Disk Driveの略である。
 ドライブ922は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体928に記録された情報を読み出し、又はリムーバブル記録媒体928に情報を書き込む装置である。リムーバブル記録媒体928は、例えば、DVDメディア、Blu-rayメディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体928は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。但し、上記のICは、Integrated Circuitの略である。
 接続ポート924は、例えば、USBポート、IEEE1394ポート、SCSI、RS-232Cポート、又は光オーディオ端子等のような外部接続機器930を接続するためのポートである。外部接続機器930は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。但し、上記のUSBは、Universal Serial Busの略である。また、上記のSCSIは、Small Computer System Interfaceの略である。
 通信部926は、ネットワーク932に接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB用の通信カード、光通信用のルータ、ADSL用のルータ、又は接触又は非接触通信用のデバイス等である。また、通信部926に接続されるネットワーク932は、有線又は無線により接続されたネットワークにより構成され、例えば、インターネット、家庭内LAN、赤外線通信、可視光通信、放送、又は衛星通信等である。但し、上記のLANは、Local Area Networkの略である。また、上記のWUSBは、Wireless USBの略である。そして、上記のADSLは、Asymmetric Digital Subscriber Lineの略である。
 以上、ウェアラブルデバイス100や携帯端末200のハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。
 <3.まとめ>
 以上説明したように本開示の一実施形態によれば、ユーザが安全な状態にいるかどうかの判定結果を取得し、取得した判定結果に基づいて、取得された情報の記録のための処理頻度を決定するウェアラブルデバイス100が提供される。
 本開示の一実施形態に係るウェアラブルデバイス100は、ユーザが安全な状態にいるかどうかの判定結果から、まず撮像部110に画像を撮像させる撮像頻度を決定する。そして本開示の一実施形態に係るウェアラブルデバイス100は、決定した撮像頻度で撮像部110に撮像させると、その撮像処理により得られる画像から、さらに撮像頻度を決定するとともに、携帯端末200へ情報を通知する通知頻度を決定する。
 本開示の一実施形態に係るウェアラブルデバイス100は、携帯者が安全かどうかを判断した結果に基づいて携帯者の現在の状態を適切に通知することが可能になる。また本開示の一実施形態に係るウェアラブルデバイス100は、携帯者が安全かどうかを判断した結果に基づいて携帯者の現在の状態を適切に通知することで、バッテリの消費を必要最低限に抑えることが出来る。本開示の一実施形態に係るウェアラブルデバイス100は、バッテリの消費を必要最低限に抑えられることで、本当に撮像や通知が必要な場合にバッテリが無くなって撮像や通知が出来なくなる可能性を大きく低減させることが可能になる。
 本明細書の各装置が実行する処理における各ステップは、必ずしもシーケンス図またはフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、各装置が実行する処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
 また、各装置に内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上述した各装置の構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供されることが可能である。また、機能ブロック図で示したそれぞれの機能ブロックをハードウェアまたはハードウェア回路で構成することで、一連の処理をハードウェアまたはハードウェア回路で実現することもできる。
 また上述の説明で用いた機能ブロック図で示したそれぞれの機能ブロックの一部又は全部は、たとえばインターネット等のネットワークを介して接続されるサーバ装置で実現されてもよい。また上述の説明で用いた機能ブロック図で示したそれぞれの機能ブロックの構成は、単独の装置で実現されてもよく、複数の装置が連携するシステムで実現されても良い。複数の装置が連携するシステムには、例えば複数のサーバ装置の組み合わせ、サーバ装置と端末装置との組み合わせ等が含まれ得る。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 周囲の環境をセンシングするセンシング部を携帯するユーザの安全状態の判定結果を取得する判定結果取得部と、
 前記判定結果取得部が取得した前記判定結果に基づいて、前記センシングに基づく情報を記録するための処理頻度を決定する頻度決定部と、
を備える、情報処理装置。
(2)
 前記センシング部は、画像を撮像する撮像部を含み、
 前記頻度決定部は、前記処理頻度として前記撮像部が画像を撮像する撮像頻度を決定する、前記(1)に記載の情報処理装置。
(3)
 前記頻度決定部は、前記センシング部の位置に基づいて前記撮像頻度を決定する、前記(2)に記載の情報処理装置。
(4)
 前記頻度決定部は、前記センシング部を携帯するユーザのスケジュールに基づいて前記撮像頻度を決定する、前記(2)に記載の情報処理装置。
(5)
 前記頻度決定部は、前記センシング部が取得したセンシングデータに基づいて前記撮像頻度を決定する、前記(2)に記載の情報処理装置。
(6)
 前記頻度決定部は、前記撮像部に撮像された画像の内容に基づいて前記撮像頻度を決定する、前記(5)に記載の情報処理装置。
(7)
 前記頻度決定部は、前記撮像部に撮像された画像に含まれる人物に基づいて前記撮像頻度を決定する、前記(6)に記載の情報処理装置。
(8)
 前記頻度決定部は、前記撮像部に撮像された画像に含まれる人物が予め登録されていない人間であれば前記撮像頻度を短縮する、前記(7)に記載の情報処理装置。
(9)
 前記頻度決定部は、前記撮像部に撮像された画像に含まれる風景の内容に基づいて前記撮像頻度を決定する、前記(6)のいずれかに記載の情報処理装置。
(10)
 前記頻度決定部は、バッテリ残量に基づいて前記撮像頻度を決定する、前記(2)~(9)のいずれかにに記載の情報処理装置。
(11)
 前記センシング部は、画像を撮像する撮像部を含み、
 前記頻度決定部は、前記処理頻度として前記撮像部の撮像に基づく画像情報を他の装置と通信する通信頻度を決定する、前記(1)~(10)のいずれかにに記載の情報処理装置。
(12)
 前記頻度決定部は、前記センシング部が取得したセンシングデータに基づいて前記通信頻度を決定する、前記(11)に記載の情報処理装置。
(13)
 前記頻度決定部は、前記撮像部で撮像された画像の内容に基づいて前記通信頻度を決定する、前記(12)に記載の情報処理装置。
(14)
 前記頻度決定部は、前記判定結果取得部が取得した判定結果がより安全な状態を示すほど前記処理頻度が低くなるよう決定する、前記(1)~(13)のいずれかに記載の情報処理装置。
(15)
 前記センシング部がセンシングする対象は、位置情報である、前記(1)~(14)のいずれかに記載の情報処理装置。
(16)
 前記判定結果取得部は、前記センシング部がセンシングした位置情報に基づいて判定された安全状態を取得する、前記(15)に記載の情報処理装置。
(17)
 前記頻度決定部は、前記ユーザの周囲に存在する他のセンシング部がセンシングした情報に応じて前記処理頻度を決定する、前記(16)に記載の情報処理装置。
(18)
 前記センシング部がセンシングする対象は、前記ユーザの生体情報である、前記(1)~(17)のいずれかに記載の情報処理装置。
(19)
 ユーザが安全な状態にいるかどうかの判定結果を取得することと、
 取得された前記判定結果に基づいて、取得された情報の記録のための処理頻度を決定することと、
を含む、情報処理方法。
(20)
 コンピュータに、
 ユーザが安全な状態にいるかどうかの判定結果を取得することと、
 取得された前記判定結果に基づいて、取得された情報の記録のための処理頻度を決定することと、
を実行させる、コンピュータプログラム。
1   :情報処理システム
10  :ネットワーク
20  :ユーザ
100 :ウェアラブルデバイス
110 :撮像部
120 :記憶部
130 :センサ部
140 :制御部
141 :判定結果取得部
142 :処理頻度決定部
143 :画像処理部
144 :位置検出処理部
150 :マイク
160 :通信部
200 :携帯端末
210 :表示部
220 :入力部
230 :記憶部
240 :制御部
250 :通信部
300 :サーバ装置
310 :記憶部
320 :通信部
330 :制御部

Claims (20)

  1.  周囲の環境をセンシングするセンシング部を携帯するユーザの安全状態の判定結果を取得する判定結果取得部と、
     前記判定結果取得部が取得した前記判定結果に基づいて、前記センシングに基づく情報を記録するための処理頻度を決定する頻度決定部と、
    を備える、情報処理装置。
  2.  前記センシング部は、画像を撮像する撮像部を含み、
     前記頻度決定部は、前記処理頻度として前記撮像部が画像を撮像する撮像頻度を決定する、請求項1に記載の情報処理装置。
  3.  前記頻度決定部は、前記センシング部の位置に基づいて前記撮像頻度を決定する、請求項2に記載の情報処理装置。
  4.  前記頻度決定部は、前記センシング部を携帯するユーザのスケジュールに基づいて前記撮像頻度を決定する、請求項2に記載の情報処理装置。
  5.  前記頻度決定部は、前記センシング部が取得したセンシングデータに基づいて前記撮像頻度を決定する、請求項2に記載の情報処理装置。
  6.  前記頻度決定部は、前記撮像部に撮像された画像の内容に基づいて前記撮像頻度を決定する、請求項5に記載の情報処理装置。
  7.  前記頻度決定部は、前記撮像部に撮像された画像に含まれる人物に基づいて前記撮像頻度を決定する、請求項6に記載の情報処理装置。
  8.  前記頻度決定部は、前記撮像部に撮像された画像に含まれる人物が予め登録されていない人間であれば前記撮像頻度を短縮する、請求項7に記載の情報処理装置。
  9.  前記頻度決定部は、前記撮像部に撮像された画像に含まれる風景の内容に基づいて前記撮像頻度を決定する、請求項6に記載の情報処理装置。
  10.  前記頻度決定部は、バッテリ残量に基づいて前記撮像頻度を決定する、請求項2に記載の情報処理装置。
  11.  前記センシング部は、画像を撮像する撮像部を含み、
     前記頻度決定部は、前記処理頻度として前記撮像部の撮像に基づく画像情報を他の装置と通信する通信頻度を決定する、請求項1に記載の情報処理装置。
  12.  前記頻度決定部は、前記センシング部が取得したセンシングデータに基づいて前記通信頻度を決定する、請求項11に記載の情報処理装置。
  13.  前記頻度決定部は、前記撮像部で撮像された画像の内容に基づいて前記通信頻度を決定する、請求項12に記載の情報処理装置。
  14.  前記頻度決定部は、前記判定結果取得部が取得した判定結果がより安全な状態を示すほど前記処理頻度が低くなるよう決定する、請求項1に記載の情報処理装置。
  15.  前記センシング部がセンシングする対象は、位置情報である、請求項1に記載の情報処理装置。
  16.  前記判定結果取得部は、前記センシング部がセンシングした位置情報に基づいて判定された安全状態を取得する、請求項15に記載の情報処理装置。
  17.  前記頻度決定部は、前記ユーザの周囲に存在する他のセンシング部がセンシングした情報に応じて前記処理頻度を決定する、請求項16に記載の情報処理装置。
  18.  前記センシング部がセンシングする対象は、前記ユーザの生体情報である、請求項1に記載の情報処理装置。
  19.  周囲の環境をセンシングするセンシング部を携帯するユーザの安全状態の判定結果を取得することと、
     取得された前記判定結果に基づいて、前記センシングに基づく情報を記録するための処理頻度を決定することと、
    を含む、情報処理方法。
  20.  コンピュータに、
     周囲の環境をセンシングするセンシング部を携帯するユーザの安全状態の判定結果を取得することと、
     取得された前記判定結果に基づいて、前記センシングに基づく情報を記録するための処理頻度を決定することと、
    を実行させる、コンピュータプログラム。
PCT/JP2015/082980 2014-12-02 2015-11-25 情報処理装置、情報処理方法及びコンピュータプログラム WO2016088611A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/529,566 US10373465B2 (en) 2014-12-02 2015-11-25 Information processing device and information processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-244131 2014-12-02
JP2014244131A JP2016111393A (ja) 2014-12-02 2014-12-02 情報処理装置、情報処理方法及びコンピュータプログラム

Publications (1)

Publication Number Publication Date
WO2016088611A1 true WO2016088611A1 (ja) 2016-06-09

Family

ID=56091559

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/082980 WO2016088611A1 (ja) 2014-12-02 2015-11-25 情報処理装置、情報処理方法及びコンピュータプログラム

Country Status (3)

Country Link
US (1) US10373465B2 (ja)
JP (1) JP2016111393A (ja)
WO (1) WO2016088611A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105573495B (zh) * 2015-12-14 2020-06-23 联想(北京)有限公司 一种信息处理方法及穿戴式设备
JP2019083423A (ja) * 2017-10-31 2019-05-30 保則 濱本 監視用レコーダ及び監視システム
JP6977492B2 (ja) * 2017-11-13 2021-12-08 トヨタ自動車株式会社 救援システムおよび救援方法、ならびにそれに使用されるサーバおよびプログラム
JP6500139B1 (ja) * 2018-03-01 2019-04-10 和夫 金子 視覚支援装置
JPWO2020240772A1 (ja) * 2019-05-30 2020-12-03

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003274360A (ja) * 2002-03-14 2003-09-26 Sony Corp 撮像装置、撮像方法、撮像管理装置、撮像管理システム
JP2007074071A (ja) * 2005-09-05 2007-03-22 Megachips System Solutions Inc カメラ付きブザー
JP2009077064A (ja) * 2007-09-19 2009-04-09 Fujifilm Corp 監視方法および監視装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7456875B2 (en) * 2002-03-14 2008-11-25 Sony Corporation Image pickup apparatus and method, signal processing apparatus and method, and wearable signal processing apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003274360A (ja) * 2002-03-14 2003-09-26 Sony Corp 撮像装置、撮像方法、撮像管理装置、撮像管理システム
JP2007074071A (ja) * 2005-09-05 2007-03-22 Megachips System Solutions Inc カメラ付きブザー
JP2009077064A (ja) * 2007-09-19 2009-04-09 Fujifilm Corp 監視方法および監視装置

Also Published As

Publication number Publication date
JP2016111393A (ja) 2016-06-20
US10373465B2 (en) 2019-08-06
US20170316669A1 (en) 2017-11-02

Similar Documents

Publication Publication Date Title
WO2016088611A1 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
US11871328B2 (en) Method for identifying specific position on specific route and electronic device
JP6011833B1 (ja) ウェアラブルカメラシステム及び人物報知方法
CN110313190B (zh) 控制装置和方法
US20180160070A1 (en) Body camera
CN114463898B (zh) 一种快递取件提醒方法和装置
CN104506649B (zh) 通知消息推送方法及装置
US20180211507A1 (en) Information processing apparatus, information processing method, and program
CN104127301A (zh) 导盲智能眼镜及其导盲方法
EP3078326A1 (en) Information-processing apparatus, information-processing method, and program
JP6799779B2 (ja) 監視映像解析システム及び監視映像解析方法
EP3090533A1 (en) Domain aware camera system
KR20170094745A (ko) 영상 인코딩 방법 및 이를 지원하는 전자 장치
WO2018154902A1 (ja) 情報処理装置、情報処理方法、及びプログラム
CN107851129B (zh) 信息处理装置、信息处理方法和程序
WO2016158003A1 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
CN116546132B (zh) 网络识别方法、装置、移动终端及计算机可读存储介质
JP2015138534A (ja) 電子機器
JP5669302B2 (ja) 行動情報収集システム
CN113838478B (zh) 异常事件检测方法、装置和电子设备
CN107871376B (zh) 利用到无线设备的唤醒的cctv安防系统及方法
JP2014191463A (ja) 通知システム、通知方法及びコンピュータプログラム
US10397468B2 (en) Recorded image sharing system, method, and program
US10891846B2 (en) Information processing device, information processing method, and program
WO2015111264A1 (ja) 電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15866308

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15529566

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15866308

Country of ref document: EP

Kind code of ref document: A1