JP2016111393A - 情報処理装置、情報処理方法及びコンピュータプログラム - Google Patents

情報処理装置、情報処理方法及びコンピュータプログラム Download PDF

Info

Publication number
JP2016111393A
JP2016111393A JP2014244131A JP2014244131A JP2016111393A JP 2016111393 A JP2016111393 A JP 2016111393A JP 2014244131 A JP2014244131 A JP 2014244131A JP 2014244131 A JP2014244131 A JP 2014244131A JP 2016111393 A JP2016111393 A JP 2016111393A
Authority
JP
Japan
Prior art keywords
frequency
unit
imaging
wearable device
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014244131A
Other languages
English (en)
Inventor
裕士 瀧本
Yuji Takimoto
裕士 瀧本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2014244131A priority Critical patent/JP2016111393A/ja
Priority to PCT/JP2015/082980 priority patent/WO2016088611A1/ja
Priority to US15/529,566 priority patent/US10373465B2/en
Publication of JP2016111393A publication Critical patent/JP2016111393A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/0202Child monitoring systems using a transmitter-receiver system carried by the parent and the child
    • G08B21/028Communication between parent and child units via remote transmission means, e.g. satellite network
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/0202Child monitoring systems using a transmitter-receiver system carried by the parent and the child
    • G08B21/0205Specific application combined with child monitoring using a transmitter-receiver system
    • G08B21/0208Combination with audio or video communication, e.g. combination with "baby phone" function
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/0202Child monitoring systems using a transmitter-receiver system carried by the parent and the child
    • G08B21/0269System arrangements wherein the object is to detect the exact location of child or item using a navigation satellite system, e.g. GPS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M11/00Telephonic communication systems specially adapted for combination with other electrical systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/10Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using wireless transmission systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Alarm Systems (AREA)
  • Studio Devices (AREA)

Abstract

【課題】携帯者が安全かどうかを判断した結果に基づいて携帯者の現在の状態を適切に通知することが可能な情報処理装置を提供する。【解決手段】周囲の環境をセンシングするセンシング部を携帯するユーザの安全状態の判定結果を取得する判定結果取得部と、判定結果取得部が取得した判定結果に基づいて、センシングに基づく情報を記録するための処理頻度を決定する頻度決定部と、を備える。【選択図】図1

Description

本開示は、情報処理装置、情報処理方法及びコンピュータプログラムに関する。
位置情報を用いたサービスが普及している。例えば、親が子供に測位機能を有する機器を持たせることにより、子供が現在どこにいるかを見守るためのサービスが提供されている(例えば特許文献1など参照)。
特開2009−246806号公報
しかし、既存のサービスでは、子供に持たせた機器の位置情報を取得するだけであり、子供が現在どこにいるかを保護者が把握することは可能であるが、子供が現在どのような状態にあるのかを把握することは出来なかった。
ライフログを取るためのカメラを備えたウェアラブルデバイスを子供に携帯させて、ウェアラブルデバイスが撮像した画像を保護者が持つ端末に送信させる方法も考えられるが、定期的に撮像させて画像を送信させると、保護者が端末で画像を確認する際にどの画像が重要なのか判断出来ず、またウェアラブルデバイスのバッテリの消費が増えていくことにもなる。
そこで、本開示では、携帯者が安全かどうかを判断した結果に基づいて携帯者の現在の状態を適切に通知することが可能な、新規かつ改良された情報処理装置、情報処理方法及びコンピュータプログラムを提案する。
本開示によれば、周囲の環境をセンシングするセンシング部を携帯するユーザの安全状態の判定結果を取得する判定結果取得部と、前記判定結果取得部が取得した前記判定結果に基づいて、前記センシングに基づく情報を記録するための処理頻度を決定する頻度決定部と、を備える、情報処理装置が提供される。
また本開示によれば、周囲の環境をセンシングするセンシング部を携帯するユーザの安全状態の判定結果を取得することと、取得された前記判定結果に基づいて、前記センシングに基づく情報を記録するための処理頻度を決定することと、を含む、情報処理方法が提供される。
また本開示によれば、コンピュータに、周囲の環境をセンシングするセンシング部を携帯するユーザの安全状態の判定結果を取得することと、取得された前記判定結果に基づいて、前記センシングに基づく情報を記録するための処理頻度を決定することと、を実行させる、コンピュータプログラムが提供される。
以上説明したように本開示によれば、携帯者が安全かどうかを判断した結果に基づいて携帯者の現在の状態を適切に通知することが可能な、新規かつ改良された情報処理装置、情報処理方法及びコンピュータプログラムを提供することが出来る。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態に係る情報処理システム1の構成例を示す説明図である。 本開示の一実施形態に係る情報処理システム1を構成する各装置の、詳細な機能構成例を示す説明図である。 本開示の一実施形態に係るウェアラブルデバイス100に含まれる、制御部140の機能構成例を示す説明図である。 本開示の一実施形態に係るウェアラブルデバイス100の動作例を示す流れ図である。 携帯端末200の表示部210に表示されるユーザインタフェースの例を示す説明図である。 携帯端末200の表示部210に表示されるユーザインタフェースの別の例を示す説明図である。 携帯端末200の表示部210に表示されるユーザインタフェースの別の例を示す説明図である。 ハードウェア構成例を示す説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.本開示の一実施形態
1.1.背景
1.2.構成例
1.3.動作例
2.ハードウェア構成例
3.まとめ
<1.本開示の一実施形態>
[1.1.背景]
本開示の実施の形態について詳細に説明する前に、本開示の背景について説明する。
上述したように、位置情報を用いたサービスが普及している。例えば親が子供に測位機能を有する機器を持たせることにより、子供が現在どこにいるかを見守るためのサービスが提供されている。
しかし、既存のサービスでは、子供に持たせた機器の位置情報を取得するだけであり、子供が現在どこにいるかを保護者が把握することは可能であるが、どのような状態にあるのかを把握することは出来なかった。
近年、ライフログを取るためのカメラを備えたウェアラブルデバイスが製品化されつつある。そのウェアラブルデバイスを子供に携帯させて、ウェアラブルデバイスが撮像した画像を保護者が持つ端末に送信させることで、子供の状態を把握する方法が考えられる。
しかし、ウェアラブルデバイスに定期的に撮像させて画像を送信させると、保護者が端末で画像を確認する際にどの画像が重要なのか判断出来なくなってしまう。また、ウェアラブルデバイスに定期的に撮像させて画像を送信させると、ウェアラブルデバイスのバッテリの消費が増えていくことにもなり、バッテリが切れて肝心な場面の撮像が出来なくなることも考えられる。
そこで本件開示者は、上述した内容に鑑みて、携帯者の現在の状態を適切に他の装置へ通知することが可能な技術について、鋭意検討を行った。その結果、本件開示者は、携帯者が安全かどうかを判断した結果に基づいて携帯者の現在の状態を適切に他の装置へ通知することが可能な技術を考案するに至った。
以上、本開示の実施の形態の背景について説明した。続いて、本開示の実施の形態について説明する。
[1.2.構成例]
まず、本開示の一実施形態に係る情報処理システムの構成例について説明する。図1は、本開示の一実施形態に係る情報処理システム1の構成例を示す説明図である。
図1に示したのは、ユーザ20に携帯された、撮像装置を備えるウェアラブルデバイス100と、ウェアラブルデバイス100から情報を受信する携帯端末200と、ウェアラブルデバイス100と携帯端末200との間の情報の授受を仲介するサーバ装置300と、を含んだ情報処理システム1の全体構成例である。ウェアラブルデバイス100は、ユーザ20の周囲の状況を撮像するために、例えばユーザ20の頭部や胸部等に装着され得る。またウェアラブルデバイス100は、ユーザ20が所持している物体、例えば帽子やランドセル、カバン等に装着されるものであっても良い。すなわち本実施形態において「携帯」とは、ユーザ20の身体に直接身に付けられる場合と、ユーザ20の身体に間接的に身に付けられる場合との双方を含みうるものとする。
情報処理システム1の概要を説明する。ユーザ20(特に子供)に携帯された、撮像装置を備えるウェアラブルデバイス100は、所定の条件を満たした場合に撮像装置に画像を撮像させる。ウェアラブルデバイス100は、撮像した画像に基づいた情報を、インターネットその他のネットワーク10を介してサーバ装置300に送信する。サーバ装置300は、ウェアラブルデバイス100から送信された情報を携帯端末200へ送信する。
本開示の一実施形態に係る情報処理システム1は、図1に示したような構成を有することで、ウェアラブルデバイス100が携帯されたユーザ20の位置のみならず、周囲の状況を含んだ情報を、携帯端末200へ送信することが出来る。従って、携帯端末200のユーザ(例えばウェアラブルデバイス100を携帯している子供の保護者)は、ウェアラブルデバイス100から送信される情報を携帯端末200で見ることで、ユーザ20がどこにいて、どのような状態にあるのかを把握することが出来る。
本実施形態では、ウェアラブルデバイス100は、上記所定の条件として、ユーザ20が安全な状態にあるかどうかを示す指標が所定の閾値を超えているかどうかを判定し、その判定結果に基づいて、情報の記録のための処理頻度を決定する。本実施形態では、ウェアラブルデバイス100は、情報の記録のための処理頻度として、撮像装置に画像を撮像させて、撮像結果を記録する撮像頻度を決定する。また本実施形態では、ウェアラブルデバイス100は、情報の記録のための処理頻度として、撮像装置の撮像処理の結果として得られた画像を含んだ情報を、サーバ装置300を介して携帯端末200に送信し、携帯端末200に記録させる通知頻度を決定する。
詳細は詳述するが、ユーザ20が安全な状態にあるかどうかを示す指標は、例えばユーザ20が安全な場所(例えば学校)にいるかどうか、同じ場所に居続けているかどうか、等で決定される。ウェアラブルデバイス100は、ウェアラブルデバイス100の現在地や現在時刻に基づいて得られる情報によって、ユーザ20が安全な状態にあるかどうかを示す指標を決定する。
以下においては、ユーザ20が安全な状態にあるかどうかを示す指標のことを「安全度」とも称する。
本実施形態では、情報の記録のための処理頻度の決定は、処理をしないことと処理をすることとの間の切り替えと、処理をしている状態で、その処理の間隔や回数の決定と、の両方を含むものとする。ウェアラブルデバイス100が、情報の記録のための処理頻度として、撮像装置に画像を撮像させて、撮像結果を記録する撮像頻度を決定する場合、その撮像装置での撮像処理機能のオン・オフの切り替えと、撮像処理機能がオンとなっている状態で、撮像処理の間隔や回数の決定と、の両方を含むものとする。ウェアラブルデバイス100が、情報の記録のための処理頻度として、上記の通知頻度を決定する場合、その通知機能のオン・オフの切り替えと、通知機能がオンとなっている状態で、撮像処理の間隔や回数の決定と、の両方を含むものとする。
「撮像処理」と言う場合には、撮像装置に含まれるイメージャでの光電変換処理、または、光電変換されたものをメモリまたはローカルの記録媒体への記録処理が含まれるものとする。
上記の説明では、ウェアラブルデバイス100は撮像装置を含むものとして説明したが、本開示は係る例に限定されるものではなく、ウェアラブルデバイス100は、撮像装置とは別の装置として、すなわち、撮像装置と、上述の処理頻度を決定する機能を有する装置とが、別々の装置として構成されていても良い。
サーバ装置300は、ウェアラブルデバイス100と携帯端末200との間の情報の授受を仲介する他に、例えば、ウェアラブルデバイス100が撮像装置に撮像させた画像の解析処理等を行なうよう構成されていても良い。
以上、図1を用いて本開示の一実施形態に係る情報処理システム1の構成例について説明した。続いて、本開示の一実施形態に係る情報処理システム1の詳細な機能構成例について説明する。
図2は、本開示の一実施形態に係る情報処理システム1を構成する各装置の、詳細な機能構成例を示す説明図である。以下、図2を用いて本開示の一実施形態に係る情報処理システム1を構成する各装置の、詳細な機能構成例について説明する。
図2に示したように、本開示の一実施形態に係るウェアラブルデバイス100は、撮像部110と、記憶部120と、センサ部130と、制御部140と、マイク150と、通信部160と、を含んで構成される。
撮像部110は、レンズや撮像素子等を含み、制御部140からの指示に基づいて画像の撮像を行なう。撮像部110は、静止画像または動画像の撮像を行なう。撮像部110における撮像処理で得られる画像は、必要に応じて記憶部120に記憶されたり、制御部140によって画像処理が行われたりする。撮像部110における撮像処理で得られる画像は、通信部160によってサーバ装置300に送信され得る。
記憶部120は、例えばROM(Read Only Memory)、RAM(Random Access Memory)等の様々な記憶媒体で構成され得る。記憶部120は、ウェアラブルデバイス100の動作のためのプログラムや各種情報を記憶する。ウェアラブルデバイス100が記憶する情報には、例えば、上述の撮像部110によって撮像された画像や、後述のセンサ部130が出力するセンシングデータなどが含まれ得る。記憶部120に記憶されているプログラムや各種情報は、制御部140によって随時読み出される。
ウェアラブルデバイス100の記憶部120には、地図情報が記憶されていても良い。記憶部120に地図情報が記憶されることで、後述の制御部140は、地図情報を照合しながらユーザ20の安全度を決定することが出来る。
センサ部130は、センシングデータを制御部140に出力する。センサ部130を構成するセンシングデバイスとして、例えばGPS(Global Positioning System)、GLONASS(Global Navigation Satellite System)、BDS(BeiDou Navigation Satellite System)等の現在位置を取得するセンサ、カメラ、深度情報付きカメラ、人感センサ、マイク等が含まれ得る。従って、センサ部130の一部として上述の撮像部110が含まれていても良い。
このようなセンシングデバイスは、装置にかかる加速度や角速度、方位、照度、温度、気圧などを検出する。上記の各種センシングデバイスは、例えばセンシングデバイスを含む装置がユーザによって携帯または装着されている場合に、各種情報をユーザに関する情報、例えばユーザの運動や向きなどを示す情報として検出することができる。また、センシングデバイスは、他にも、脈拍、発汗、脳波、触覚、嗅覚、味覚など、ユーザの生体情報を検出するセンサを含んでもよい。
制御部140は、例えばCPU(Central Processing Unit)、ROM、RAMなどで構成され、ウェアラブルデバイス100の動作を制御する。制御部140は、例えば記憶部120に記憶されているコンピュータプログラムを読みだして順次実行することで、ウェアラブルデバイス100の動作を制御してもよい。
本実施形態では、制御部140は、ユーザ20が安全な状態にあるかどうかを示す指標(安全度)が所定の閾値を超えているかどうかを判定し、その判定結果に基づいて、情報の記録のための処理頻度を決定する。本実施形態では、制御部140は、情報の記録のための処理頻度として、撮像装置に画像を撮像させて、撮像結果を記録する撮像頻度を決定する。また本実施形態では、制御部140は、情報の記録のための処理頻度として、撮像装置の撮像処理の結果として得られた画像を含んだ情報を、サーバ装置300を介して携帯端末200に送信し、携帯端末200に記録させる通知頻度を決定する。
マイク150は、ウェアラブルデバイス100の周囲の音を収音して音声信号を生成する。マイク150によって生成される音声信号は、必要に応じて記憶部120に記憶されたり、制御部140によって音声処理が行われたりする。マイク150における収音で得られる音声信号は、通信部160によってサーバ装置300に送信され得る。
通信部160は、外部との間で通信処理を実行する。通信部160が実行する通信処理は所定の規格やプロトコルに限定されるものではない。本実施形態では、通信部160は、ネットワーク10を通じてサーバ装置300との間で各種情報の送受信を実行するよう構成されている。
なお図2には図示していないが、ウェアラブルデバイス100はバッテリを備え、バッテリが供給する直流電力によって動作する。ウェアラブルデバイス100が備えるバッテリは、充放電可能な二次電池であってもよく、直流電力の放電のみが可能な一次電池であってもよい。
図2に示したように、本開示の一実施形態に係る携帯端末200は、表示部210と、入力部220と、記憶部230と、制御部240と、通信部250と、を含んで構成される。
表示部210は、液晶ディスプレイ、有機ELディスプレイ等のディスプレイパネルで構成され、文字、画像等の各種情報を表示するデバイスである。本実施形態では、表示部210は、後述するように、所定のGUIによって、ウェアラブルデバイス100で撮像された画像を表示することが出来る。なお表示部210にはタッチパネルが設けられていてもよく、表示部210をユーザに触らせることで入力操作を受け付けるようにしてもよい。その場合、表示部210は後述の入力部220としても機能し得る。
入力部220は、ユーザからの入力を受け付ける各種インプットデバイスであり、例えばキーボード、マウス、タッチパネルなどで構成され得る。
また各種センシングデバイスも入力部220として機能し得る。そのようなセンシングデバイスとして、例えばGPS、GLONASS、BDS等の現在位置を取得するセンサ、カメラ、深度情報付きカメラ、人感センサ、マイク等が含まれ得る。
このようなセンシングデバイスは、装置にかかる加速度や角速度、方位、照度、温度、気圧などを検出する。上記の各種センシングデバイスは、例えばセンシングデバイスを含む装置がユーザによって携帯または装着されている場合に、各種情報をユーザに関する情報、例えばユーザの運動や向きなどを示す情報として検出することができる。また、センシングデバイスは、他にも、脈拍、発汗、脳波、触覚、嗅覚、味覚など、ユーザの生体情報を検出するセンサを含んでもよい。
記憶部230は、例えばROM、RAM等の様々な記憶媒体で構成され得る。記憶部230は、携帯端末200の動作のためのプログラムや各種情報を記憶する。本実施形態では、記憶部230は、ウェアラブルデバイス100で取得され、サーバ装置300から送信された各種情報を記憶し得る。ウェアラブルデバイス100で取得され、サーバ装置300から送信される情報には、ウェアラブルデバイス100で撮像された画像や、ウェアラブルデバイス100で収音された音声、ウェアラブルデバイス100で取得されたセンシングデータに基づいた情報等が含まれ得る。
制御部240は、例えばCPU、ROM、RAMなどで構成され、携帯端末200の動作を制御する。制御部240は、記憶部230に記憶されているコンピュータプログラムを読み出して順次実行することで、携帯端末200の動作を制御してもよい。本実施形態では、制御部240は、例えば表示部210へのGUIの表示を制御したり、GUIに対するユーザの入力部220による入力操作に対する各種処理を実行したりする。
通信部250は、外部との間で通信処理を実行する。通信部250が実行する通信処理は所定の規格やプロトコルに限定されるものではない。本実施形態では、通信部250は、ネットワーク10を通じてサーバ装置300との間で各種情報の送受信を実行するよう構成されている。
図2に示したように、本開示の一実施形態に係るサーバ装置300は、記憶部310と、通信部320と、制御部330と、を含んで構成される。
記憶部310は、例えばROM、RAM等の様々な記憶媒体で構成され得る。記憶部310は、サーバ装置300の動作のためのプログラムや各種情報を記憶する。本実施形態では、記憶部310は、ウェアラブルデバイス100で取得された各種情報を記憶し得る。ウェアラブルデバイス100で取得される情報には、ウェアラブルデバイス100で撮像された画像や、ウェアラブルデバイス100で収音された音声、ウェアラブルデバイス100で取得されたセンシングデータに基づいた情報等が含まれ得る。
通信部320は、外部との間で通信処理を実行する。通信部320が実行する通信処理は所定の規格やプロトコルに限定されるものではない。本実施形態では、通信部320は、ネットワーク10を通じてウェアラブルデバイス100や携帯端末200との間で各種情報の送受信を実行するよう構成されている。
制御部330は、例えばCPU、ROM、RAMなどで構成され、サーバ装置300の動作を制御する。制御部330は、記憶部310に記憶されているコンピュータプログラムを読み出して順次実行することで、サーバ装置300の動作を制御してもよい。
以上、図2を用いて本開示の一実施形態に係る情報処理システム1を構成する各装置の、詳細な機能構成例について説明した。続いて、図2に示したウェアラブルデバイス100に含まれる、制御部140の機能構成例について説明する。
図3は、本開示の一実施形態に係るウェアラブルデバイス100に含まれる、制御部140の機能構成例を示す説明図である。以下、図3を用いて制御部140の機能構成例について説明する。
図3に示したように、制御部140は、判定結果取得部141と、処理頻度決定部142と、画像処理部143と、位置検出処理部144と、を含んで構成される。
判定結果取得部141は、ウェアラブルデバイス100を携帯しているユーザ20が安全な状態にあるかどうかを示す指標(安全度)が所定の閾値を超えているかどうかを判定し、その判定結果を取得する。
処理頻度決定部142は、判定結果取得部141が取得した、ウェアラブルデバイス100を携帯しているユーザ20が安全な状態にあるかどうかを示す指標(安全度)が所定の閾値を超えているかどうかの判定結果に基づいて、ウェアラブルデバイス100が取得した情報の記録のための処理頻度を決定する。本実施形態では、処理頻度決定部142は、ウェアラブルデバイス100が取得した情報の記録のための処理頻度として、撮像装置に画像を撮像させて、撮像結果を記録する撮像頻度を決定する。また本実施形態では、制御部140は、情報の記録のための処理頻度として、撮像装置の撮像処理の結果として得られた画像を含んだ情報を、サーバ装置300を介して携帯端末200に送信し、携帯端末200に記録させる通知頻度を決定する。
判定結果取得部141は、例えば後述の位置検出処理部144によって検出された、ウェアラブルデバイス100の現在位置の情報に基づいて、ウェアラブルデバイス100を携帯しているユーザ20の安全度を求める。ウェアラブルデバイス100の現在位置の情報に基づいて安全度を求める際には、記憶部120に記憶されている地図情報と照合してもよい。例えばウェアラブルデバイス100を携帯しているユーザ20が小学生であり、ウェアラブルデバイス100の現在位置を検出した結果、その小学生が通っている小学校にいることが分かれば、判定結果取得部141は、ユーザ20の安全度は極めて高いと判定する。
そして処理頻度決定部142は、判定結果取得部141が取得した判定結果に基づいて、ウェアラブルデバイス100が取得した情報の記録のための処理頻度を低くしたり、または処理機能そのものをオフにしたりすることが出来る。
画像処理部143は、撮像部110で撮像された画像に対する画像処理を実行する。撮像部110で撮像された画像に対する画像処理としては、例えば、画像の切り取り(トリミング)処理、画像中の顔や物体を認識する認識処理、画像のサイズや解像度を変換する変換処理などが含まれ得る。画像処理部143は、画像中の顔を認識する認識処理を行なう場合、認識した顔が予め登録された人物かどうかを判定し得る。また画像処理部143は、画像中の物体を認識する認識処理を行なう場合、認識した物体が何であるかを判定し得る。処理頻度決定部142は、画像処理部143による画像処理の結果に基づいて、処理頻度を決定しても良い。処理頻度決定部142による、画像処理の結果に基づいた処理頻度の決定処理については後述する。
位置検出処理部144は、ウェアラブルデバイス100の現在位置を検出する。位置検出処理部144は、ウェアラブルデバイス100の現在位置を検出する際には、センサ部130で取得されたセンシングデータを用いる。位置検出処理部144が検出したウェアラブルデバイス100の現在位置の情報は、処理頻度決定部142による処理頻度の決定に用いられ得る。
以上、図3を用いて制御部140の機能構成例について説明した。続いて、本開示の一実施形態に係るウェアラブルデバイス100の動作例について説明する。
[1.3.動作例]
図4は、本開示の一実施形態に係るウェアラブルデバイス100の動作例を示す流れ図である。図4に示したのは、ウェアラブルデバイス100が携帯されているユーザ20の安全度を判定し、ウェアラブルデバイス100が取得した情報の記録のための処理頻度を決定する際の、ウェアラブルデバイス100の動作例を示す流れ図である。以下、図4を用いて本開示の一実施形態に係るウェアラブルデバイス100の動作例について説明する。
ウェアラブルデバイス100は、ウェアラブルデバイス100が取得した情報の記録のための処理頻度を決定する際に、まずウェアラブルデバイス100を携帯したユーザ20が安全な状態にいるかどうかを判定する(ステップS101)。このステップS101の判定処理は、例えば判定結果取得部141が実行する。
上記ステップS101の判定処理の具体例について、ウェアラブルデバイス100が携帯されているユーザ20が小学生である場合を例に挙げて説明する。
ユーザ20が小学生である場合、ウェアラブルデバイス100は、ユーザ20が学校にいるときはユーザ20の安全度が高いと判断する。ウェアラブルデバイス100は、センサ部130によって得られる現在位置の情報や、現在の時刻の情報を用いて学校にいるかどうかを判断してもよい。また、例えばセキュリティ確保のためのカメラ(セキュリティカメラ)が学校に設置されていることが予め分かっていれば、ウェアラブルデバイス100は、さらにユーザ20の安全度が高いと判断してもよい。
また、ユーザ20が小学生である場合、ウェアラブルデバイス100は、授業が終わって学校から離れたときは、ユーザ20の安全度が低いと判断する。
また、公共のセキュリティカメラの場所が予め分かっていれば、ウェアラブルデバイス100は、その公共のセキュリティカメラの場所の近くではユーザ20の安全度がやや高いと判断してもよい。
また、センサ部130が出力するセンシングデータから、ウェアラブルデバイス100を身に付けたユーザ20が、普段と違う行動をとっていることが分かれば、ウェアラブルデバイス100は、ユーザ20の安全度が低いと判断する。例えば、ユーザ20は、毎週水曜日の17時30分に決まった交差点を曲がっているのに、センサ部130が出力するセンシングデータから、17時50分になってもその交差点に達していないことが分かれば、ウェアラブルデバイス100は、ユーザ20の安全度が低いと判断する。
もちろん、上述したユーザ20の安全度の判断は一例に過ぎないことは言うまでもなく、ウェアラブルデバイス100は、センサ部130によって得られる現在位置の情報や現在時刻の情報などから、安全度を判断することが可能である。
ステップS101で、ウェアラブルデバイス100を携帯したユーザ20が安全な状態にいるかどうかを判定すると、続いてウェアラブルデバイス100は、判定結果に基づいて、撮像部110による画像の撮像頻度を決定する(ステップS102)。ステップS102の撮像頻度の決定処理は、例えば処理頻度決定部142が実行する。
例えば、ユーザ20が学校にいて、ユーザ20の安全度が高いと判断された場合、ウェアラブルデバイス100は、撮像部110による画像の撮像頻度を例えば3時間に1回等の非常に長い間隔に決定したり、または撮像部110による画像の撮像を行わないようにしたりしてもよい。また例えば、ユーザ20が学校を離れ、ユーザ20の安全度が低下したと判断された場合、ウェアラブルデバイス100は、撮像部110による画像の撮像頻度を上げて、例えば10分に1回等の短い間隔に決定してもよい。
また例えば、ユーザ20が学校を離れても、公共のセキュリティカメラの場所の近くにいて、ユーザ20の安全度がやや高いと判断された場合、ウェアラブルデバイス100は、撮像部110による画像の撮像頻度を、公共のセキュリティカメラが近くに無い場合に比べて下げて、例えば20分に1回等の間隔に決定してもよい。このようにウェアラブルデバイス100は、ユーザ20が公共のセキュリティカメラの場所の近くにいる場合は撮像部110による画像の撮像頻度を下げることで、ウェアラブルデバイス100のバッテリの消費を抑えることが出来る。
また例えば、ユーザ20が学校を離れても、ウェアラブルデバイス100を身に付けたユーザ20が狭い公園にいるなどして、ユーザ20の場所が所定の時間に渡って大きく変化しない場合は、ウェアラブルデバイス100は、撮像部110による画像の撮像頻度を、例えば上記の10分に1回よりも長い時間、例えば20分に1回等の間隔に決定してもよい。
上記ステップS102で、撮像部110による画像の撮像頻度を決定すると、続いてウェアラブルデバイス100は、上記ステップS102で決定した撮像頻度に基づいて、撮像部110に画像を撮像させるとともに、撮像部110が撮像した画像に基づいてユーザ20の安全度を更新する(ステップS103)。
ウェアラブルデバイス100は、撮像部110が撮像した画像を画像処理部143で解析することで、ユーザ20の周囲がどのような状況なのかを把握することが出来る。例えば、撮像部110が撮像した画像に人が写っている場合、画像処理部143で画像の解析が行われることで、ウェアラブルデバイス100は、ユーザ20の周囲に人がいるか、人がいる場合、一緒にいるのは誰であるのかを把握することが出来る。そして、ユーザ20と一緒にいる人物が、予め登録された人物でないことが分かれば、ウェアラブルデバイス100は、画像の撮像頻度を上げる(例えば撮像する間隔を短縮する)よう決定することが出来る。
上記ステップS103で、決定した撮像頻度に基づいて撮像部110に画像を撮像させ、撮像画像に基づいてユーザ20の安全度を更新すると、続いてウェアラブルデバイス100は、更新された安全度、及び撮像画像に基づいて、撮像頻度及び通知頻度を決定する(ステップS104)。ステップS104の通知頻度の決定処理は、例えば処理頻度決定部142が実行する。
そして上記ステップS104で撮像頻度及び通知頻度を決定すると、続いてウェアラブルデバイス100は、決定した撮像頻度に基づいて撮像して、撮像画像に基づいて安全度を更新するとともに、上記ステップS104で決定した通知頻度に基づいて通知する(ステップS105)。決定した通知頻度に基づいて通知すると、ウェアラブルデバイス100は、上記ステップS101の安全度の判定処理に戻っても良い。
例えば、上記ステップS103において撮像画像の解析が行われた結果、ユーザ20と一緒にいる人物が、予め登録された人物で無く、その人物が単にすれ違ったのではなく、常にその人物が撮像画像に写っている場合、ウェアラブルデバイス100は、誰か知らない人がユーザ20の近くにいることを携帯端末200に通知するため、情報をサーバ装置300に送信する。
例えば、上記ステップS103において撮像画像の解析が行われた結果、ユーザ20と一緒にいる人物が、予め登録された友人であることが分かれば、ウェアラブルデバイス100は、ユーザ20の友人がユーザ20の近くにいることを携帯端末200に通知するため、情報をサーバ装置300に送信してもよい。また、上記ステップS103において撮像画像の解析が行われた結果、予め登録された友人が撮像画像からいなくなれば、ウェアラブルデバイス100は、ユーザ20の友人がユーザ20の近くからいなくなったことを携帯端末200に通知するため、情報をサーバ装置300に送信してもよい。
他にも、ウェアラブルデバイス100は、撮像画像に対して顔認識処理を行って、同じ人が所定時間(所定回数)以上写っている場合は、同じ人物がユーザ20の近くにいることを携帯端末200に通知するため、情報をサーバ装置300に送信してもよい。また例えば、ウェアラブルデバイス100は、撮像画像に対して顔認識処理を行って、ユーザ20の周囲に大人が近づいたことが分かれば、大人がユーザ20の近くにいることを携帯端末200に通知するため、情報をサーバ装置300に送信してもよい。
ここまで、ウェアラブルデバイス100は撮像画像に基づいて安全度を更新して撮像頻度及び通知頻度を決定していたが、他にも、センシングデータの情報に基づいて安全度を更新して撮像頻度及び通知頻度を決定してもよい。
例えば、ウェアラブルデバイス100の現在位置が、予め登録されている、車の交通量が多い道や、見通しの悪い道であることがセンシングデータの情報から分かった場合は、ウェアラブルデバイス100は、撮像頻度や通知頻度を上げても良い。なおウェアラブルデバイス100は、車の交通量が多い道や、見通しの悪い道であるかどうかについては、撮像画像から判定してもよい。すなわち、ウェアラブルデバイス100は、撮像画像に含まれる風景の内容に基づいて撮像頻度や通知頻度を決定してもよい。また、ウェアラブルデバイス100の現在位置が、位置情報や照度センサなどから暗い道にいることが分かれば、ウェアラブルデバイス100は、撮像頻度や通知頻度を上げても良い。またウェアラブルデバイス100は、時刻や現在の天気などによって撮像頻度、通知頻度を変化させても良い。
またウェアラブルデバイス100は、後ろから不審者が近づいたり、またウェアラブルデバイス100をユーザ20が落としたりしたようなことが推測されるセンシングデータをセンサ部130から得ると、撮像頻度や通知頻度を上げても良い。
例えば、センサ部130に加速度センサが含まれ、ユーザ20が後ろを振り向いたり、暴れたり、また急に走り出したことが推測されるセンシングデータをセンサ部130から得ると、ウェアラブルデバイス100は、撮像頻度や通知頻度を上げても良い。
また例えば、車にぶつかったり、高いところから落下したりするなど、強い衝撃、落下を検知した場合に得られるセンシングデータをセンサ部130から得ると、ウェアラブルデバイス100は、撮像頻度や通知頻度を上げても良い。
またウェアラブルデバイス100は、ユーザ20のスケジュールや、ユーザ20の毎日の行動から異なる行動をユーザ20が行ったことが分かれば、撮像頻度や通知頻度を上げても良い。例えば、所定の位置を本来通過する時間に、ユーザ20が通過しなかったことが分かれば、ウェアラブルデバイス100は、撮像頻度や通知頻度を上げても良い。
なお、所定の位置を本来通過する時間に、ユーザ20が通過しなかった場合であっても、例えばユーザ20が友達と話しながら歩いている等の理由で遅れているだけかもしれない。従って、所定の位置を本来通過する時間にユーザ20が通過しなかった場合、その時間から所定の時間が経過してもなおその所定の位置を通過しなければ、ウェアラブルデバイス100は撮像頻度だけを上げて、撮像頻度を上げてからさらに所定の時間が経過してもなおその所定の位置を通過しなければ、ウェアラブルデバイス100は撮像頻度をさらに上げるとともに通知頻度を上げるようにしてもよい。この所定の時間は、通知を受ける携帯端末200のユーザによって変更出来るようにしてもよい、
またウェアラブルデバイス100は、センサ部130からのセンシングデータによって、ユーザ20が乗り物に乗ったり、乗り物から降りたりしたことが分かれば、乗り物の乗降のタイミングで処理頻度を決定してもよい。例えばウェアラブルデバイス100は、ユーザ20が電車に乗った、自転車に乗った、等のタイミングで処理頻度を決定してもよい。
またウェアラブルデバイス100は、センサ部130からのセンシングデータによって、ユーザ20がウェアラブルデバイス100を外したことが分かれば、そのタイミングで処理頻度を上げるようにしてもよい。
またウェアラブルデバイス100は、撮像部110が撮像した画像に同じ物が数多く映っている場合は、通知頻度を下げるように決定してもよい。
またウェアラブルデバイス100は、自装置のバッテリの残量を確認し、所定量以下に減っている場合は、処理頻度を下げるように決定してもよい。またウェアラブルデバイス100は、センサ部130が独自にバッテリを備えている場合は、センサ部130のバッテリの残量を確認し、所定量以下に減っている場合は、処理頻度を下げるように決定してもよい。
またウェアラブルデバイス100は、携帯端末200との間の距離に応じて処理頻度を変化させても良い。ウェアラブルデバイス100は、携帯端末200との間の距離を、例えば携帯端末200から発せられる所定の電波の強度に基づいて推測してもよい。例えば、ウェアラブルデバイス100は、携帯端末200が近くにある場合は処理頻度を下げるが、携帯端末200が近くにいた状況から少し離れた場合は、ユーザ20が迷子になった可能性が考えられ、そのような場合には処理頻度を上げる。
ウェアラブルデバイス100からの通知を受けた(サーバ装置300から通知を受信した)携帯端末200のユーザは、ウェアラブルデバイス100からの通知内容を確認し、その確認の結果に応じてウェアラブルデバイス100の処理頻度を変化させてもよい。
例えば、ウェアラブルデバイス100が、ユーザ20の近くに登録されていない人物がいることを、その人物の画像と共に通知した場合に、携帯端末200のユーザが、その人物は顔見知りであるから問題無い旨をウェアラブルデバイス100に返答すると、ウェアラブルデバイス100は、処理頻度を下げる。
また例えば、ユーザ20の行動が予定されたスケジュールと違っても、携帯端末200のユーザがそのことを把握してあるから問題無い旨をウェアラブルデバイス100に返答すると、ウェアラブルデバイス100は、処理頻度を下げる。
なお、ウェアラブルデバイス100における処理頻度は、携帯端末200から指定されるようにしてもよい。
ここまでの説明では、ウェアラブルデバイス100の処理頻度の決定のための処理はすべてウェアラブルデバイス100で行なう場合を示したが、ウェアラブルデバイス100の処理頻度の決定のための処理の一部またはすべてをサーバ装置300に移してもよい。すなわち、画像の保存や、人または状況の解析と識別などをサーバ装置300に行わせてもよい。
ウェアラブルデバイス100の処理頻度の決定のための処理の一部またはすべてをサーバ装置300に移す場合、他のユーザが携帯するウェアラブルデバイス100の情報と組み合わせて、ウェアラブルデバイス100の処理頻度を決定してもよい。例えば、あるユーザ20のウェアラブルデバイス100の処理頻度には登録されていない人であっても、他のユーザのウェアラブルデバイス100にその人が登録されている場合は、サーバ装置300に、当該他のユーザのウェアラブルデバイス100に登録されている情報を利用してもよい。
またサーバ装置300が処理頻度の決定を行なう場合、あるユーザ20の近くにいる他のユーザが携帯するウェアラブルデバイス100の情報と組み合わせて、ウェアラブルデバイス100の処理頻度を決定してもよい。例えばサーバ装置300は、あるユーザ20のウェアラブルデバイス100が撮像した画像と、当該ユーザ20の近くにいる他のユーザが携帯するウェアラブルデバイス100が撮像した画像とを比較することで、あるユーザ20のウェアラブルデバイス100の処理頻度の決定を行っても良い。
またウェアラブルデバイス100は、他の装置との連携によってウェアラブルデバイス100の処理頻度を決定してもよい。
またウェアラブルデバイス100は、撮像部110が分離出来る場合に、撮像部110が撮像した画像と、センサ部130が取得した現在位置の情報とが異なっていることが分かった場合、処理頻度を上げるように決定してもよい。ウェアラブルデバイス100は、撮像部110が撮像した画像と、センサ部130が取得した現在位置の情報とが異なっていることが分かった場合に処理頻度を上げることで、撮像部110またはセンサ部130のどちらかを落としたことを携帯端末200のユーザに通知することが可能になる。
ウェアラブルデバイス100は、撮像部110で動画像を撮像してもよい。そしてウェアラブルデバイス100は、静止画像ではなく動画像を携帯端末200にストリーミング送信することで携帯端末200へ通知してもよい。しかし、動画像を撮像して、動画像を携帯端末200にストリーミング送信し続けることは、ウェアラブルデバイス100のバッテリの消費量が増加し、またウェアラブルデバイス100の処理負荷の増加に伴い熱も発生する。
そこでウェアラブルデバイス100は、撮像部110で撮像した動画像は記憶部120に保存しつつ、携帯端末200には静止画を送信することで携帯端末200へ通知してもよい。そして、携帯端末200のユーザが指定した場合に、携帯端末200はウェアラブルデバイス100へアクセスして、ウェアラブルデバイス100に保持している動画像を再生するようにしても良い。ウェアラブルデバイス100に保持している動画像を携帯端末200で再生する場合に、携帯端末200のユーザが効率よく再生できるようにするために、ウェアラブルデバイス100は、動画像のファイルを分割して保存してもよい。ウェアラブルデバイス100は、動画像のファイルを分割して保存することで、動画像のファイルサイズを小さくし、転送にかかる時間などを減らすことができる。
携帯端末200が表示するユーザインタフェース(UI)の例を示す。図5は、携帯端末200の表示部210に表示されるユーザインタフェースの例を示す説明図である。図5には、地図上に、ウェアラブルデバイス100が撮像した画像と、撮像した場所とを重畳させたユーザインタフェースの例が示されている。
図5に示したユーザインタフェースには、撮像した画像に映っているのが誰なのかも、併せて示されている。図5の符号U1で示したのが、ウェアラブルデバイス100の撮像部110が撮像した画像、画像に映っている人物、及び画像が撮像された日時が含まれた情報である。符号U1に示した情報は、撮像部110による撮像処理が行われた場所に対応するように表示される。
このように、携帯端末200が表示するユーザインタフェースは、画像をそのまま出すだけでなく、地図上に画像を表示させることで、どこで撮られた画像なのかを提示することができる。また携帯端末200に通知された理由も一緒に把握できるようなユーザインタフェースとしてもよい。
図6及び図7は、携帯端末200の表示部210に表示されるユーザインタフェースの別の例を示す説明図である。
図6に示したユーザインタフェースの符号U2は、ウェアラブルデバイス100の撮像部110が撮像した画像である。符号U2に示した画像は、撮像部110による撮像処理が行われた場所に対応するように表示される。図6に示したユーザインタフェースの符号U3は、ウェアラブルデバイス100を身に付けたユーザ20が誰と一緒にいるかを示すアイコンである。図6に示したユーザインタフェースの符号U4は、ウェアラブルデバイス100を身に付けたユーザ20と一緒にいるユーザが携帯しているウェアラブルデバイス100によって取得された画像を表示させるためのアイコンである。図6に示したユーザインタフェースの符号U5は、時間を変化させるスクロールバーであり、携帯端末200のユーザによってスライド操作が行われると、表示部210に表示する情報が変化する。
図7は、図6の符号U5で示したスクロールバーの操作によって表示部210に表示される情報が変化する例を示す説明図である。スクロールバーが左の方、つまり時間的に前の方に操作されると、例えばユーザ20が自宅のマンションを出たばかりで一人であり、一緒にいる他のユーザはいない状態が表示されるが、スクロールバーが右の方、つまり時間的に後の方に操作されると、例えばユーザ20が公園に移動し、友達と一緒にいる状態が表示される。
携帯端末200が表示するユーザインタフェースは係る例に限定されるものではない。例えば、いつどこで誰と会っていたかを、顔の部分を中心にアドレス帳のように表示するようにしてもよい。
もちろん、携帯端末200は、このようなユーザインタフェースだけでなく、音声によってウェアラブルデバイス100からの情報の通知をユーザに知らせても良い。
ウェアラブルデバイス100から送信された画像以外の画像はウェアラブルデバイス100に記録されているので、携帯端末200のユーザは、他にどんな画像が撮像されているのか気になった場合には、携帯端末200からウェアラブルデバイス100へアクセスすることで、ウェアラブルデバイス100に保存され、携帯端末200に送信されていない画像を携帯端末200で見ることができる。
ウェアラブルデバイス100は、所定の枚数を撮像すると、複数の画像を1つにまとめて、携帯端末200に送信してもよい。例えば、25枚の画像を撮像すると、縦5枚、横5枚のグリッド状にした1枚の画像として、携帯端末200に送信してもよい。ウェアラブルデバイス100は、複数の画像を1つにまとめる際には、既に携帯端末200に送信した画像は除外してもよく、既に携帯端末200に送信した画像を含めても良い。
ユースケース例として、例えばウェアラブルデバイス100の使用をユーザ20が開始すると、ウェアラブルデバイス100は、まずは所定の間隔で撮像部110に画像を撮像させるモードとなる。そのモードで数日間、ユーザ20がウェアラブルデバイス100を使用すると、ウェアラブルデバイス100は、取得した画像や位置情報などにより、ユーザ20が普段どのような行動をとっているかが分かり、また携帯端末200も、ユーザ20がどのような行動をとっているかをユーザインタフェースで提示することができる。
従って、携帯端末200のユーザは、提示されたユーザインタフェースに対する操作を行って、ウェアラブルデバイス100の処理頻度を変化させる場所や時間を指定することができる。ウェアラブルデバイス100の処理頻度を変化させる場所や時間を指定する際に使用する情報は、他にもパブリックなもの(公共機関が提供するもの)や、ソーシャルなもの(不特定のユーザによって通報されたり、画像で自動判別されたりするもの)であってもよい。
ウェアラブルデバイス100の処理頻度の変化によって、携帯端末200のユーザは、ウェアラブルデバイス100を身に付けたユーザ20の状態を、ユーザ20から離れた場所にいても把握することが出来る。
ウェアラブルデバイス100は、処理頻度以外にも、携帯端末200へ通知する情報の量を変化させても良い。ウェアラブルデバイス100は、例えば、撮像された画像の解像度を変化させても良く、撮像された画像のみでなく、マイクで収音された音声も携帯端末200へ通知する情報として使用してもよく、またセンサ部130で生体情報が取得できる場合は、生体情報も携帯端末200へ通知する情報として使用してもよい。
複数のユーザがウェアラブルデバイス100を持っており、それら複数のユーザが近い場所にいる場合、すべてのウェアラブルデバイス100が画像を撮像してサーバ装置300に送信するのは無駄である場合がある。従って、複数のユーザがウェアラブルデバイス100を持っており、それら複数のユーザが近い場所にいることが分かれば、ある1つのウェアラブルデバイス100のみが画像を撮像してサーバ装置300に送信してもよい。ある1つのウェアラブルデバイス100のみが画像を撮像してサーバ装置300に送信することで、それぞれのウェアラブルデバイス100のバッテリを節約できる。この場合、バッテリの残量が最も多いウェアラブルデバイス100のみが画像を撮像してサーバ装置300に送信してもよい。
複数のウェアラブルデバイス100で画像が撮像される場所は、安全度が低い場所としてサーバ装置300が自動的に認識してもよく、そのような場所があることを、ウェアラブルデバイス100や携帯端末200に通知してもよい。複数のウェアラブルデバイス100で画像が撮像される場所の情報をサーバ装置300から受信することで、ウェアラブルデバイス100は、その場所にユーザ20が近づくと処理頻度を上げるように決定することが可能となる。
ウェアラブルデバイス100は、撮像部110に撮像させた画像を含んだ情報の通知先として、サーバ装置300を選択してもよい。例えばサーバ装置300が、ウェアラブルデバイス100が撮像部110に撮像させた画像の解析処理等を行なうよう構成されている場合、ウェアラブルデバイス100は、撮像部110に撮像させた画像をサーバ装置300へ送信し、サーバ装置300で画像を解析させる。そしてウェアラブルデバイス100は、サーバ装置300での解析結果を取得し、その解析結果から処理頻度を決定してもよい。
またウェアラブルデバイス100や携帯端末200は、ユーザの発話内容に基づいて撮像装置に画像を撮像させても良い。例えばウェアラブルデバイス100のユーザ20が「これなに?」と発話したのをマイク150が集音すると、ウェアラブルデバイス100は、その発話内容に基づいて撮像部110に画像を撮像させても良い。またウェアラブルデバイス100からの通知を受けた携帯端末200のユーザが「これなに?」と発話したのを携帯端末200のマイクが集音すると、携帯端末200は、ウェアラブルデバイス100に対して撮像を指示してもよい。
なおサーバ装置300での画像の解析は、サーバ装置300が自動で行っても良いが、サーバ装置300を運用するユーザが撮像画像を見て、誰が写っているのかを判定し、その判定結果をウェアラブルデバイス100に返すようにしても良い。
またウェアラブルデバイス100は、撮像部110に撮像させるための専用のボタン等の入力装置を備えていても良い。ウェアラブルデバイス100のユーザがその入力装置を操作すると、ウェアラブルデバイス100は、撮像部110に画像を撮像させて、その撮像画像を通知先に送信してもよい。ウェアラブルデバイス100の通知先としてサーバ装置300が設定されていれば、上述したようにサーバ装置300が画像の解析を行い、その解析の結果をウェアラブルデバイス100に返しても良い。
<2.ハードウェア構成例>
次に、図8を参照して、本開示の一実施形態にかかるウェアラブルデバイス100や携帯端末200のハードウェア構成について説明する。図8は、本開示の実施形態にかかるウェアラブルデバイス100や携帯端末200のハードウェア構成例を示すブロック図である。上記の各アルゴリズムは、例えば、図8に示す情報処理装置のハードウェア構成を用いて実行することが可能である。つまり、当該各アルゴリズムの処理は、コンピュータプログラムを用いて図8に示すハードウェアを制御することにより実現される。
なお、この図8に示したハードウェアの形態は任意であり、例えば、パーソナルコンピュータ、携帯電話、PHS、PDA等の携帯情報端末、ゲーム機、接触式又は非接触式のICチップ、接触式又は非接触式のICカード、スピーカ、テレビ、モニタ、ウェアラブル機器、又は種々の情報家電がこれに含まれる。但し、上記のPHSは、Personal Handy−phone Systemの略である。また、上記のPDAは、Personal Digital Assistantの略である。
図8に示すように、このハードウェアは、主に、CPU902と、ROM904と、RAM906と、ホストバス908と、ブリッジ910と、を有する。さらに、このハードウェアは、外部バス912と、インターフェース914と、入力部916と、出力部918と、記憶部920と、ドライブ922と、接続ポート924と、通信部926と、を有する。但し、上記のCPUは、Central Processing Unitの略である。また、上記のROMは、Read Only Memoryの略である。そして、上記のRAMは、Random Access Memoryの略である。
CPU902は、例えば、演算処理装置又は制御装置として機能し、ROM904、RAM906、記憶部920、又はリムーバブル記録媒体928に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。ROM904は、CPU902に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM906には、例えば、CPU902に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
これらの構成要素は、例えば、高速なデータ伝送が可能なホストバス908を介して相互に接続される。一方、ホストバス908は、例えば、ブリッジ910を介して比較的データ伝送速度が低速な外部バス912に接続される。また、入力部916としては、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力部916としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。
出力部918としては、例えば、CRT、LCD、PDP、又はELD等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。但し、上記のCRTは、Cathode Ray Tubeの略である。また、上記のLCDは、Liquid Crystal Displayの略である。そして、上記のPDPは、Plasma DisplayPanelの略である。さらに、上記のELDは、Electro−Luminescence Displayの略である。
記憶部920は、各種のデータを格納するための装置である。記憶部920としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。但し、上記のHDDは、Hard Disk Driveの略である。
ドライブ922は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体928に記録された情報を読み出し、又はリムーバブル記録媒体928に情報を書き込む装置である。リムーバブル記録媒体928は、例えば、DVDメディア、Blu−rayメディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体928は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。但し、上記のICは、Integrated Circuitの略である。
接続ポート924は、例えば、USBポート、IEEE1394ポート、SCSI、RS−232Cポート、又は光オーディオ端子等のような外部接続機器930を接続するためのポートである。外部接続機器930は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。但し、上記のUSBは、Universal Serial Busの略である。また、上記のSCSIは、Small Computer System Interfaceの略である。
通信部926は、ネットワーク932に接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB用の通信カード、光通信用のルータ、ADSL用のルータ、又は接触又は非接触通信用のデバイス等である。また、通信部926に接続されるネットワーク932は、有線又は無線により接続されたネットワークにより構成され、例えば、インターネット、家庭内LAN、赤外線通信、可視光通信、放送、又は衛星通信等である。但し、上記のLANは、Local Area Networkの略である。また、上記のWUSBは、Wireless USBの略である。そして、上記のADSLは、Asymmetric Digital Subscriber Lineの略である。
以上、ウェアラブルデバイス100や携帯端末200のハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。
<3.まとめ>
以上説明したように本開示の一実施形態によれば、ユーザが安全な状態にいるかどうかの判定結果を取得し、取得した判定結果に基づいて、取得された情報の記録のための処理頻度を決定するウェアラブルデバイス100が提供される。
本開示の一実施形態に係るウェアラブルデバイス100は、ユーザが安全な状態にいるかどうかの判定結果から、まず撮像部110に画像を撮像させる撮像頻度を決定する。そして本開示の一実施形態に係るウェアラブルデバイス100は、決定した撮像頻度で撮像部110に撮像させると、その撮像処理により得られる画像から、さらに撮像頻度を決定するとともに、携帯端末200へ情報を通知する通知頻度を決定する。
本開示の一実施形態に係るウェアラブルデバイス100は、携帯者が安全かどうかを判断した結果に基づいて携帯者の現在の状態を適切に通知することが可能になる。また本開示の一実施形態に係るウェアラブルデバイス100は、携帯者が安全かどうかを判断した結果に基づいて携帯者の現在の状態を適切に通知することで、バッテリの消費を必要最低限に抑えることが出来る。本開示の一実施形態に係るウェアラブルデバイス100は、バッテリの消費を必要最低限に抑えられることで、本当に撮像や通知が必要な場合にバッテリが無くなって撮像や通知が出来なくなる可能性を大きく低減させることが可能になる。
本明細書の各装置が実行する処理における各ステップは、必ずしもシーケンス図またはフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、各装置が実行する処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
また、各装置に内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上述した各装置の構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供されることが可能である。また、機能ブロック図で示したそれぞれの機能ブロックをハードウェアまたはハードウェア回路で構成することで、一連の処理をハードウェアまたはハードウェア回路で実現することもできる。
また上述の説明で用いた機能ブロック図で示したそれぞれの機能ブロックの一部又は全部は、たとえばインターネット等のネットワークを介して接続されるサーバ装置で実現されてもよい。また上述の説明で用いた機能ブロック図で示したそれぞれの機能ブロックの構成は、単独の装置で実現されてもよく、複数の装置が連携するシステムで実現されても良い。複数の装置が連携するシステムには、例えば複数のサーバ装置の組み合わせ、サーバ装置と端末装置との組み合わせ等が含まれ得る。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
周囲の環境をセンシングするセンシング部を携帯するユーザの安全状態の判定結果を取得する判定結果取得部と、
前記判定結果取得部が取得した前記判定結果に基づいて、前記センシングに基づく情報を記録するための処理頻度を決定する頻度決定部と、
を備える、情報処理装置。
(2)
前記センシング部は、画像を撮像する撮像部を含み、
前記頻度決定部は、前記処理頻度として前記撮像部が画像を撮像する撮像頻度を決定する、前記(1)に記載の情報処理装置。
(3)
前記頻度決定部は、前記センシング部の位置に基づいて前記撮像頻度を決定する、前記(2)に記載の情報処理装置。
(4)
前記頻度決定部は、前記センシング部を携帯するユーザのスケジュールに基づいて前記撮像頻度を決定する、前記(2)に記載の情報処理装置。
(5)
前記頻度決定部は、前記センシング部が取得したセンシングデータに基づいて前記撮像頻度を決定する、前記(2)に記載の情報処理装置。
(6)
前記頻度決定部は、前記撮像部に撮像された画像の内容に基づいて前記撮像頻度を決定する、前記(5)に記載の情報処理装置。
(7)
前記頻度決定部は、前記撮像部に撮像された画像に含まれる人物に基づいて前記撮像頻度を決定する、前記(6)に記載の情報処理装置。
(8)
前記頻度決定部は、前記撮像部に撮像された画像に含まれる人物が予め登録されていない人間であれば前記撮像頻度を短縮する、前記(7)に記載の情報処理装置。
(9)
前記頻度決定部は、前記撮像部に撮像された画像に含まれる風景の内容に基づいて前記撮像頻度を決定する、前記(6)のいずれかに記載の情報処理装置。
(10)
前記頻度決定部は、バッテリ残量に基づいて前記撮像頻度を決定する、前記(2)〜(9)のいずれかにに記載の情報処理装置。
(11)
前記センシング部は、画像を撮像する撮像部を含み、
前記頻度決定部は、前記処理頻度として前記撮像部の撮像に基づく画像情報を他の装置と通信する通信頻度を決定する、前記(1)〜(10)のいずれかにに記載の情報処理装置。
(12)
前記頻度決定部は、前記センシング部が取得したセンシングデータに基づいて前記通信頻度を決定する、前記(11)に記載の情報処理装置。
(13)
前記頻度決定部は、前記撮像部で撮像された画像の内容に基づいて前記通信頻度を決定する、前記(12)に記載の情報処理装置。
(14)
前記頻度決定部は、前記判定結果取得部が取得した判定結果がより安全な状態を示すほど前記処理頻度が低くなるよう決定する、前記(1)〜(13)のいずれかに記載の情報処理装置。
(15)
前記センシング部がセンシングする対象は、位置情報である、前記(1)〜(14)のいずれかに記載の情報処理装置。
(16)
前記判定結果取得部は、前記センシング部がセンシングした位置情報に基づいて判定された安全状態を取得する、前記(15)に記載の情報処理装置。
(17)
前記頻度決定部は、前記ユーザの周囲に存在する他のセンシング部がセンシングした情報に応じて前記処理頻度を決定する、前記(16)に記載の情報処理装置。
(18)
前記センシング部がセンシングする対象は、前記ユーザの生体情報である、前記(1)〜(17)のいずれかに記載の情報処理装置。
(19)
ユーザが安全な状態にいるかどうかの判定結果を取得することと、
取得された前記判定結果に基づいて、取得された情報の記録のための処理頻度を決定することと、
を含む、情報処理方法。
(20)
コンピュータに、
ユーザが安全な状態にいるかどうかの判定結果を取得することと、
取得された前記判定結果に基づいて、取得された情報の記録のための処理頻度を決定することと、
を実行させる、コンピュータプログラム。
1 :情報処理システム
10 :ネットワーク
20 :ユーザ
100 :ウェアラブルデバイス
110 :撮像部
120 :記憶部
130 :センサ部
140 :制御部
141 :判定結果取得部
142 :処理頻度決定部
143 :画像処理部
144 :位置検出処理部
150 :マイク
160 :通信部
200 :携帯端末
210 :表示部
220 :入力部
230 :記憶部
240 :制御部
250 :通信部
300 :サーバ装置
310 :記憶部
320 :通信部
330 :制御部

Claims (20)

  1. 周囲の環境をセンシングするセンシング部を携帯するユーザの安全状態の判定結果を取得する判定結果取得部と、
    前記判定結果取得部が取得した前記判定結果に基づいて、前記センシングに基づく情報を記録するための処理頻度を決定する頻度決定部と、
    を備える、情報処理装置。
  2. 前記センシング部は、画像を撮像する撮像部を含み、
    前記頻度決定部は、前記処理頻度として前記撮像部が画像を撮像する撮像頻度を決定する、請求項1に記載の情報処理装置。
  3. 前記頻度決定部は、前記センシング部の位置に基づいて前記撮像頻度を決定する、請求項2に記載の情報処理装置。
  4. 前記頻度決定部は、前記センシング部を携帯するユーザのスケジュールに基づいて前記撮像頻度を決定する、請求項2に記載の情報処理装置。
  5. 前記頻度決定部は、前記センシング部が取得したセンシングデータに基づいて前記撮像頻度を決定する、請求項2に記載の情報処理装置。
  6. 前記頻度決定部は、前記撮像部に撮像された画像の内容に基づいて前記撮像頻度を決定する、請求項5に記載の情報処理装置。
  7. 前記頻度決定部は、前記撮像部に撮像された画像に含まれる人物に基づいて前記撮像頻度を決定する、請求項6に記載の情報処理装置。
  8. 前記頻度決定部は、前記撮像部に撮像された画像に含まれる人物が予め登録されていない人間であれば前記撮像頻度を短縮する、請求項7に記載の情報処理装置。
  9. 前記頻度決定部は、前記撮像部に撮像された画像に含まれる風景の内容に基づいて前記撮像頻度を決定する、請求項6に記載の情報処理装置。
  10. 前記頻度決定部は、バッテリ残量に基づいて前記撮像頻度を決定する、請求項2に記載の情報処理装置。
  11. 前記センシング部は、画像を撮像する撮像部を含み、
    前記頻度決定部は、前記処理頻度として前記撮像部の撮像に基づく画像情報を他の装置と通信する通信頻度を決定する、請求項1に記載の情報処理装置。
  12. 前記頻度決定部は、前記センシング部が取得したセンシングデータに基づいて前記通信頻度を決定する、請求項11に記載の情報処理装置。
  13. 前記頻度決定部は、前記撮像部で撮像された画像の内容に基づいて前記通信頻度を決定する、請求項12に記載の情報処理装置。
  14. 前記頻度決定部は、前記判定結果取得部が取得した判定結果がより安全な状態を示すほど前記処理頻度が低くなるよう決定する、請求項1に記載の情報処理装置。
  15. 前記センシング部がセンシングする対象は、位置情報である、請求項1に記載の情報処理装置。
  16. 前記判定結果取得部は、前記センシング部がセンシングした位置情報に基づいて判定された安全状態を取得する、請求項15に記載の情報処理装置。
  17. 前記頻度決定部は、前記ユーザの周囲に存在する他のセンシング部がセンシングした情報に応じて前記処理頻度を決定する、請求項16に記載の情報処理装置。
  18. 前記センシング部がセンシングする対象は、前記ユーザの生体情報である、請求項1に記載の情報処理装置。
  19. 周囲の環境をセンシングするセンシング部を携帯するユーザの安全状態の判定結果を取得することと、
    取得された前記判定結果に基づいて、前記センシングに基づく情報を記録するための処理頻度を決定することと、
    を含む、情報処理方法。
  20. コンピュータに、
    周囲の環境をセンシングするセンシング部を携帯するユーザの安全状態の判定結果を取得することと、
    取得された前記判定結果に基づいて、前記センシングに基づく情報を記録するための処理頻度を決定することと、
    を実行させる、コンピュータプログラム。
JP2014244131A 2014-12-02 2014-12-02 情報処理装置、情報処理方法及びコンピュータプログラム Pending JP2016111393A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014244131A JP2016111393A (ja) 2014-12-02 2014-12-02 情報処理装置、情報処理方法及びコンピュータプログラム
PCT/JP2015/082980 WO2016088611A1 (ja) 2014-12-02 2015-11-25 情報処理装置、情報処理方法及びコンピュータプログラム
US15/529,566 US10373465B2 (en) 2014-12-02 2015-11-25 Information processing device and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014244131A JP2016111393A (ja) 2014-12-02 2014-12-02 情報処理装置、情報処理方法及びコンピュータプログラム

Publications (1)

Publication Number Publication Date
JP2016111393A true JP2016111393A (ja) 2016-06-20

Family

ID=56091559

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014244131A Pending JP2016111393A (ja) 2014-12-02 2014-12-02 情報処理装置、情報処理方法及びコンピュータプログラム

Country Status (3)

Country Link
US (1) US10373465B2 (ja)
JP (1) JP2016111393A (ja)
WO (1) WO2016088611A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019083423A (ja) * 2017-10-31 2019-05-30 保則 濱本 監視用レコーダ及び監視システム
JP2019091162A (ja) * 2017-11-13 2019-06-13 トヨタ自動車株式会社 救援システムおよび救援方法、ならびにそれに使用されるサーバおよびプログラム
JP2019152953A (ja) * 2018-03-01 2019-09-12 和夫 金子 視覚支援装置
WO2020240772A1 (ja) * 2019-05-30 2020-12-03 株式会社Mory 映像記録装置、遠隔監視システム、遠隔監視方法、及びプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105573495B (zh) * 2015-12-14 2020-06-23 联想(北京)有限公司 一种信息处理方法及穿戴式设备

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7456875B2 (en) * 2002-03-14 2008-11-25 Sony Corporation Image pickup apparatus and method, signal processing apparatus and method, and wearable signal processing apparatus
JP2003274360A (ja) 2002-03-14 2003-09-26 Sony Corp 撮像装置、撮像方法、撮像管理装置、撮像管理システム
JP2007074071A (ja) * 2005-09-05 2007-03-22 Megachips System Solutions Inc カメラ付きブザー
JP2009077064A (ja) * 2007-09-19 2009-04-09 Fujifilm Corp 監視方法および監視装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019083423A (ja) * 2017-10-31 2019-05-30 保則 濱本 監視用レコーダ及び監視システム
JP2019091162A (ja) * 2017-11-13 2019-06-13 トヨタ自動車株式会社 救援システムおよび救援方法、ならびにそれに使用されるサーバおよびプログラム
JP2019152953A (ja) * 2018-03-01 2019-09-12 和夫 金子 視覚支援装置
WO2020240772A1 (ja) * 2019-05-30 2020-12-03 株式会社Mory 映像記録装置、遠隔監視システム、遠隔監視方法、及びプログラム

Also Published As

Publication number Publication date
WO2016088611A1 (ja) 2016-06-09
US10373465B2 (en) 2019-08-06
US20170316669A1 (en) 2017-11-02

Similar Documents

Publication Publication Date Title
WO2016088611A1 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
US20180160070A1 (en) Body camera
CN110313190B (zh) 控制装置和方法
US10460587B2 (en) Information processing apparatus, information processing method, and program
CN104506649B (zh) 通知消息推送方法及装置
US9843899B2 (en) Information processing apparatus and method to organize devices
KR102496225B1 (ko) 영상 인코딩 방법 및 이를 지원하는 전자 장치
US20150189176A1 (en) Domain aware camera system
JP6799779B2 (ja) 監視映像解析システム及び監視映像解析方法
EP3078326A1 (en) Information-processing apparatus, information-processing method, and program
WO2018154902A1 (ja) 情報処理装置、情報処理方法、及びプログラム
CN107851129B (zh) 信息处理装置、信息处理方法和程序
WO2016158003A1 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
CN116546132B (zh) 网络识别方法、装置、移动终端及计算机可读存储介质
JP2015138534A (ja) 電子機器
JP5669302B2 (ja) 行動情報収集システム
CN113838478B (zh) 异常事件检测方法、装置和电子设备
CN107871376B (zh) 利用到无线设备的唤醒的cctv安防系统及方法
US10397468B2 (en) Recorded image sharing system, method, and program
US10891846B2 (en) Information processing device, information processing method, and program
US20180255171A1 (en) Method for managing a real time detection of a scene by a wireless communication apparatus
WO2015111264A1 (ja) 電子機器
WO2016075554A1 (en) Data recording method and data recording apparatus
JP2015138017A (ja) 電子機器
WO2015198672A1 (ja) 情報処理装置、情報処理方法およびプログラム