JP6256634B2 - ウェアラブルデバイス、ウェアラブルデバイスの制御方法、及びプログラム - Google Patents

ウェアラブルデバイス、ウェアラブルデバイスの制御方法、及びプログラム Download PDF

Info

Publication number
JP6256634B2
JP6256634B2 JP2017004015A JP2017004015A JP6256634B2 JP 6256634 B2 JP6256634 B2 JP 6256634B2 JP 2017004015 A JP2017004015 A JP 2017004015A JP 2017004015 A JP2017004015 A JP 2017004015A JP 6256634 B2 JP6256634 B2 JP 6256634B2
Authority
JP
Japan
Prior art keywords
user
unit
image
state
operation state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017004015A
Other languages
English (en)
Other versions
JP2017069984A (ja
Inventor
厚史 泉原
厚史 泉原
池田 卓郎
卓郎 池田
哲男 池田
哲男 池田
健太郎 木村
健太郎 木村
康之 古賀
康之 古賀
翼 塚原
翼 塚原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2017004015A priority Critical patent/JP6256634B2/ja
Publication of JP2017069984A publication Critical patent/JP2017069984A/ja
Application granted granted Critical
Publication of JP6256634B2 publication Critical patent/JP6256634B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)

Description

本開示は、ウェアラブルデバイス、ウェアラブルデバイスの制御方法、及びプログラムに関する。
近年、例えばデジタルカメラや、スマートフォンなど、撮像素子とともに、ジャイロスコープなどの様々なセンサを備える機器が各種開発されている。
例えば、特許文献1には、カムコーダによる撮影と同じタイミングで、カムコーダに内蔵されたセンサにより取得されたセンサデータに基づいて、カムコーダを持っているユーザの行動を認識し、そして、認識した行動結果を、撮影した画像と関連づけて記録する技術が開示されている。
特許第4289326号
しかしながら、上記従来技術では、ユーザの動作状態に応じて撮影部を適応的に制御することが望まれていた。
そこで、本開示では、ユーザの動作状態に応じて撮影部を適応的に制御することが可能な、新規かつ改良されたウェアラブルデバイス、ウェアラブルデバイスの制御方法、及びプログラムを提案する。
上記課題を解決するために、本開示のある観点によれば、ユーザが見ている景観を撮影する撮影部と、加速度センサと、ジャイロセンサと、前記加速度センサ及び前記ジャイロセンサの少なくとも一方の測定結果に基づいて、前記ユーザの第1の動作状態または第2の動作状態を認識する動作認識部と、前記第1の動作状態が認識された場合、前記撮影部の消費電力を第1の消費電力に制御し、前記第2の動作状態が認識された場合、前記撮影部の消費電力を前記第1の消費電力よりも小さい第2の消費電力に制御する撮影制御部と、を備える、ウェアラブルデバイスが提供される。
また、上記課題を解決するために、本開示の別の観点によれば、加速度センサ及びジャイロセンサの少なくとも一方の測定結果に基づいて、ユーザの第1の動作状態または第2の動作状態を認識することと、前記第1の動作状態が認識された場合、前記ユーザが見ている景観を撮影する撮影部の消費電力を第1の消費電力に制御することと、前記第2の動作状態が認識された場合、前記撮影部の消費電力を前記第1の消費電力よりも小さい第2の消費電力に制御することと、を含む、ウェアラブルデバイスの制御方法が提供される。
また、上記課題を解決するために、本開示の別の観点によれば、ウェアラブルデバイスを、加速度センサ及びジャイロセンサの少なくとも一方の測定結果に基づいて、ユーザの第1の動作状態または第2の動作状態を認識する動作認識部と、前記第1の動作状態が認識された場合、前記ユーザが見ている景観を撮影する撮影部の消費電力を第1の消費電力に制御し、前記第2の動作状態が認識された場合、前記撮影部の消費電力を前記第1の消費電力よりも小さい第2の消費電力に制御する撮影制御部、として機能させるための、プログラムが提供される。
以上説明したように本開示によれば、ユーザの動作状態に応じて撮影部を適応的に制御することができる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本開示の各実施形態に共通する情報処理システムの基本構成を示した説明図である。 同実施形態による情報処理装置10のハードウェア構成を示した説明図である。 本開示の第1の実施形態による情報処理装置10の構成を示した機能ブロック図である。 同実施形態による動作認識部102による動作認識の一例を示した説明図である。 同実施形態による動作認識部102による動作認識の一例を示した説明図である。 同実施形態による動作認識部102による動作認識の一例を示した説明図である。 同実施形態による動作認識部102による動作認識の一例を示した説明図である。 同実施形態による撮影制御部104による撮影制御の一例を示した説明図である。 同実施形態による撮影制御部104による撮影制御の一例を示した説明図である。 同実施形態による表示制御部108による表示制御の一例を示した説明図である。 同実施形態による動作を示したシーケンス図である。 本開示の第2の実施形態による情報処理装置10の構成を示した機能ブロック図である。 同実施形態による画像処理部110による画像処理の一例を示した説明図である。 同実施形態による画像処理部110による画像処理の一例を示した説明図である。 利用者が前方を見て、静止している状態を示した説明図である。 利用者が前方を見ながら、歩行している状態を示した説明図である。 同実施形態による画像処理部110による画像処理の一例を示した説明図である。 同実施形態による画像処理部110による画像処理の一例を示した説明図である。 利用者が下方を見て、静止している状態を示した説明図である。 同実施形態による画像処理部110による画像処理の一例を示した説明図である。 同実施形態による画像処理部110による画像処理の一例を示した説明図である。 同実施形態による画像処理部110による画像処理の一例を示した説明図である。 同実施形態による画像処理部110による画像処理の一例を示した説明図である。 同実施形態による動作を示したシーケンス図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、以下に示す項目順序に従って当該「発明を実施するための形態」を説明する。
1.背景
2.情報処理システムの基本構成
3.各実施形態の詳細な説明
3−1.第1の実施形態
3−2.第2の実施形態
4.変形例
<<1.背景>>
本開示は、一例として「3−1.第1の実施形態」〜「3−2.第2の実施形態」において詳細に説明するように、多様な形態で実施され得る。最初に、本開示の特徴を明確に示すために、本開示による情報処理装置を創作するに至った背景について説明する。
近年、イメージセンサを内蔵し、利用者が常時装着して使用するウェアラブルデバイスの開発が検討されている。このウェアラブルデバイスでは、例えば、付属のカメラにより撮影された画像に含まれる物体や人物などに対して常時認識を行い、そして、認識結果に基づいて、例えば利用者が見ている物体や人物などに関する情報を利用者に提供することなどが期待されている。
しかし、このようなサービスを実現するためには、下記のような課題がある。第1に、ウェアラブルデバイスをバッテリー駆動のモバイル機器として構成する場合には、利用者が身に付けるという特質上、質量を抑制する必要があり、そのため、ウェアラブルデバイスに備えられるバッテリーの容量が制約されるという課題がある。そのため、利用者が連続して使用可能な時間には制約がある。
第2に、利用者が身に付けるという特質上、撮影のタイミング次第では撮影者の動きに伴いぶれが発生する。このため、仮に常時カメラが起動して、自動的に撮影を行うようなサービスを想定した場合には、撮影画像に含まれるぶれにより環境認識が適切に行えず、認識の誤りや処理の遅延などが発生し得るという課題がある。また、被写体が移動する場合など、認識するための機会が非常に短時間である場合には、認識ができない可能性が高くなる。
第3に、通常、イメージセンサの出力から環境認識を行うとき、例えば任意の物体を特定したり、撮影場所や撮影者の姿勢を特定する場合には、別途、参照用のデータが大量に必要となる。このような参照用のデータをウェアラブルデバイスに記憶させることは困難であるので、参照用のデータを蓄えたサーバーに対して、撮影された画像を送信し、そして、サーバーに画像認識を行わせる方法が考えられる。しかし、例えば長時間撮影された動画像のデータのように、大量の画像データをサーバーへ送信し続けることは、現在の移動体通信環境における通信速度やバッテリ性能等を考えると現実的ではない。
そこで、上記事情を一着眼点にして本開示による情報処理装置10を創作するに至った。情報処理装置10は、利用者の動作状態に応じて、撮影のタイミングを適応的に制御することができる。また、情報処理装置10は、撮影された画像をサーバ20へ送信する場面において、通信量を適応的に減少させることができる。
<<2.情報処理システムの基本構成>>
次に、各実施形態において共通する情報処理システムの基本構成について図1を参照して説明する。図1に示したように、各実施形態による情報処理システムは、情報処理装置10、通信網12、およびサーバ20を含む。
<2−1.情報処理装置10>
情報処理装置10は、本開示による情報処理装置の一例である。情報処理装置10は、図1に示したように、例えばメガネ型のディスプレイを有する装置である。また、このディスプレイには、半透明なシースルー型のディスプレイを適用可能である。なお、シースルー型のディスプレイでは、利用者はディスプレイを介して、外部の環境を見ることが可能である。
この情報処理装置10は、例えば利用者の頭部に身に付けて、使用される。また、図1に示したように、情報処理装置10は、ディスプレイの周辺の位置において、後述するカメラ166を有する。利用者は、情報処理装置10を身に付けることにより、移動しながら、利用者が見ている景観をカメラ166により撮影することが可能である。
[2−1−1.ハードウェア構成]
なお、情報処理装置10は、例えば図2に示すようなハードウェア構成を有する。図2に示したように、情報処理装置10は、CPU(Central Processing Unit)150、ROM(Read Only Memory)152、RAM(Random Access Memory)154、内部バス156、インターフェース158、出力装置160、ストレージ装置162、通信装置164、カメラ166、位置情報測定装置168、加速度センサ170、ジャイロスコープ172、およびマイクロフォン174を備える。
(CPU150)
CPU150は、例えば各種処理回路などで構成され、情報処理装置10全体を制御する制御部100として機能する。また、CPU150は、情報処理装置10において、例えば、後述する動作認識部102、撮影制御部104、送信制御部106、表示制御部108、画像処理部110、顔領域検出部112、およびぶれ判断部114の各機能を実現する。
(ROM152)
ROM152は、CPU150が使用するプログラムや演算パラメータなどの制御用データなどを記憶する。
(RAM154)
RAM154は、例えば、CPU150により実行されるプログラムなどを一時的に記憶する。
(インターフェース158)
インターフェース158は、出力装置160、ストレージ装置162、通信装置164、カメラ166、位置情報測定装置168、加速度センサ170、ジャイロスコープ172、およびマイクロフォン174を、内部バス156と接続する。例えば出力装置160は、このインターフェース158および内部バス156を介して、CPU150などとの間でデータをやり取りする。
(出力装置160)
出力装置160は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)装置、OLED(Organic
Light Emitting Diode)装置およびランプなどの表示装置を含む。この表示装置は、カメラ166により撮像された画像や、CPU150により生成された画像などを表示する。
さらに、出力装置160は、スピーカーなどの音声出力装置を含む。この音声出力装置は、音声データ等を音声に変換して出力する。
(ストレージ装置162)
ストレージ装置162は、例えばCPU150が実行するプログラムや各種データを格納する、データ格納用の装置である。ストレージ装置162は、例えば、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置、または記憶媒体に記録されたデータを削除する削除装置などを含む。
(通信装置164)
通信装置164は、例えば公衆網やインターネットなどの通信網に接続するための通信デバイス等で構成された通信インターフェースである。また、通信装置164は、無線LAN対応通信装置、LTE(Long Term Evolution)対応通信装置、または有線による通信を行うワイヤー通信装置であってもよい。通信装置164は、例えば、後述する通信部120として機能する。
(カメラ166)
カメラ166は、外部の映像を、レンズを通して例えばCCD(Charge Coupled Device)やCMOS(Complementary
Metal Oxide Semiconductor)などの撮像素子に結像させ、静止画像又は動画像を撮影する機能を有する。
(位置情報測定装置168)
位置情報測定装置168は、例えばGPS(Global Positioning System)やGLONASS(Global Navigation Satellite System)などの測位衛星から測位信号を受信して、現在位置を測位する。また、位置情報測定装置168は、複数の基地局からWi-Fi電波(登録商標)を受信し、受信したWi-Fi電波の受信強度及び各基地局の位置に基づいて現在位置を測位する機能を有してもよい。また、位置情報測定装置168は、Bluetooth(登録商標)アクセスポイントとの間の通信に基づいて現在位置を測位する機能を有してもよい。なお、位置情報測定装置168は、後述する測定部122として機能する。
(加速度センサ170)
加速度センサ170は、情報処理装置10の加速度を測定する。加速度センサ170は、測定部122として機能する。
(ジャイロスコープ172)
ジャイロスコープ172は、情報処理装置10の角度または角速度を測定する。例えば、ジャイロスコープ172は、情報処理装置10に加わる慣性力、またはコリオリの力を検出することにより、情報処理装置10の角速度を測定する。なお、ジャイロスコープ172は、測定部122として機能する。
(マイクロフォン174)
マイクロフォン174は、外部の音声を集音する。マイクロフォン174は、測定部122として機能する。
なお、情報処理装置10のハードウェア構成は、上述した構成に限定されない。例えば、情報処理装置10は、ストレージ装置162、位置情報測定装置168、加速度センサ170、ジャイロスコープ172、またはマイクロフォン174のうちいずれか1以上を備えなくてもよい。
<2−2.通信網12>
通信網12は、通信網12に接続されている装置から送信される情報の無線、または有線の伝送路である。例えば、通信網12は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、通信網12は、IP-VPN(Internet Protocol-Virtual Private Network)などの専用回線網を含んでもよい。
<2−3.サーバ20>
サーバ20は、本開示における画像処理装置の一例である。サーバ20は、撮影画像に対して画像認識を行う機能を有する。また、サーバ20は、実世界における様々な情報を含む、複数の参照データを記憶部(図示省略)に記憶している。
このサーバ20は、例えば撮影画像が情報処理装置10から受信された場合には、まず、撮影画像に対して画像認識を行うことにより、撮影画像に含まれる物体や人物などを認識することが可能である。そして、サーバ20は、記憶部に記憶している複数の参照データから、認識された物体や人物などに関する情報である付加情報を抽出し、抽出した付加情報を情報処理装置10へ送信することが可能である。
このようなサーバ20の機能により、情報処理装置10を携帯する利用者は、実世界を移動しながら見かけた建物、商品、または人物などに関する詳細な情報をサーバ20から通知してもらうことが可能となる。また、サーバ20から受信された付加情報は、情報処理装置10の出力装置160から出力される映像、音声、またはバイブレーションの変化などにより、利用者は確認することができる。例えば、出力装置160は、表示画面に付加情報を重畳表示させたり、または、バイブレーションの鳴らし方を変化させることにより、情報の内容や所在方向などを利用者へ知らせることができる。
<<3.実施形態の詳細な説明>>
以上、各実施形態による情報処理システムの基本構成について説明した。続いて、各実施形態について詳細に説明する。
<3−1.第1の実施形態>
[3−1−1.情報処理装置10の構成]
まず、第1の実施形態による情報処理装置10の構成について詳細に説明する。図3は、第1の実施形態による情報処理装置10の構成を示した機能ブロック図である。図3に示したように、情報処理装置10は、制御部100、通信部120、測定部122、撮影部124、および表示部126を有する。
(3−1−1−1.制御部100)
制御部100は、情報処理装置10に内蔵されるCPU150、RAM154などのハードウェアを用いて、情報処理装置10の動作を全般的に制御する。また、図3に示したように、制御部100は、動作認識部102、撮影制御部104、送信制御部106、および表示制御部108を有する。
(3−1−1−2.動作認識部102)
動作認識部102は、後述する測定部122による測定結果に基づいて、利用者の動作状態を認識する。なお、測定部122は、本開示におけるセンサの一例である。また、動作状態は、例えば、利用者の移動状態、利用者の目視に関する状態、または、利用者の発声に関する状態を含む。以下、それぞれの状態に関する具体的な処理の内容について説明を行う。
‐認識例1(移動状態の認識)‐
例えば、動作認識部102は、測定部122による測定結果に基づいて、利用者の移動状態を認識することが可能である。なお、移動状態とは、例えば、利用者が歩行している状態、走っている状態、自転車に乗っている状態、自動車、電車、飛行機などの乗り物に乗っている状態、または利用者が椅子に座っている場合のような静止している状態などを示す。
ここで、図4を参照して、上記の機能についてより詳細に説明する。図4は、加速度センサ170による測定値を測定時刻と対応づけて示したグラフの例である。図4に示したように、時刻t1〜時刻t2の時間帯、時刻t2〜時刻t3の時間帯、時刻t3〜時刻t4の時間帯では、概ね同様な波形の、加速度の変化が測定されている。このような波形の、加速度の変化は、人間が歩行しているときの加速度の変化に近似している。このため、動作認識部102は、図4に示した加速度センサ170による測定結果に基づいて、時刻t1〜時刻t4の時間帯において、利用者が歩行状態にあることを認識する。
‐認識例2(目視に関する状態の認識)‐
また、認識例2として、動作認識部102は、測定部122による測定結果に基づいて、利用者の目視に関する状態を認識することが可能である。なお、目視に関する状態は、利用者がどのような態様で対象を見ているかを示す。例えば、目視に関する状態は、利用者が特定の物体や人物などを注目していること、利用者が周囲を見回していること、または、正面や上下左右のような、利用者が見ている方向などを示す。
より具体的には、動作認識部102は、ジャイロスコープ172により測定される、利用者の頭部の動きに基づいて、利用者の目視に関する状態を認識することが可能である。例えば、利用者の頭部の動きの速度が所定の値以下に低下したことがジャイロスコープ172により測定された場合には、動作認識部102は、利用者が注目していることを認識する。
ここで、図5または図6を参照して、上記の機能についてより詳細に説明する。図5は、加速度センサ170による測定値を測定時刻と対応づけて示したグラフの一例である。図5に示したグラフでは、時刻t1〜時刻t2の時間帯では加速度が大きく変動し、そして、時刻t2の後には、変化量が大幅に小さくなり、加速度の測定値がほぼ0になっている。図5に示したような波形の加速度の変化は、概ね時刻t2において、人間が何かを発見し、注目する際の頭部の加速度の変化に近似している。
また、図6は、ジャイロスコープ172による、利用者の頭部の角度の測定値を測定時刻と対応づけて示したグラフの一例である。図6に示したグラフでは、時刻t1〜時刻t2の時間帯では角度が大きく変動し、そして、時刻t2の後には、変化量が大幅に小さくなり、角度の測定値がほぼ一定の値になっている。図6に示したような波形の加速度の変化は、概ね時刻t2において、例えば人間が何かを発見し、注目する場合のように、利用者が頭部を動かした後に停止する動作時における頭部の加速度の変化に近似している。
このため、動作認識部102は、図5に示した加速度センサ170による測定結果および/または図6に示したジャイロスコープ172による測定結果に基づいて、時刻t2以後において、利用者は注目していることを認識する。なお、動作認識部102は、ジャイロスコープ172の代わりに、マイクロフォン174により検知される、風を切る音の大きさの変化に基づいて、利用者が頭部を動かした後に停止する動作を認識することも可能である。
また、図7は、ジャイロスコープ172による、利用者の頭部の角度の測定値を測定時刻と対応づけて示したグラフの別の例である。図7に示したグラフでは、測定期間全般において、角度がθ1〜θ2の間で緩やかに振動している。図7に示したような波形の角度の変化は、例えば人間が周囲を見回している、ぶらついている、または見下ろしているときにおける人間の頭部の加速度の変化に近似している。このため、動作認識部102は、図7に示した加速度センサ170による測定結果に基づいて、測定期間全般において、利用者が例えば周囲を見回していることを認識する。
‐認識例3(発声に関する状態の認識)‐
また、認識例3として、動作認識部102は、測定部122による測定結果に基づいて、利用者の発声に関する状態を認識することが可能である。なお、発声に関する状態は、例えば、利用者が他人と会話していること、利用者が黙っていること、または、利用者が発している声の大きさの程度などを示す。
例えば、動作認識部102は、マイクロフォン174による測定結果に基づいて、利用者が他人と会話していることを認識する。
(3−1−1−3.撮影制御部104)
撮影制御部104は、動作認識部102により認識された利用者の動作状態に基づいて、後述する撮影部124に撮影を行わせるタイミングを制御する。なお、本明細書では、以後、撮影制御部104が撮影部124に静止画像を撮影させる例を中心に説明する。この背景としては、本開示では、消費電力をできるだけ抑制することを目的とすることがある。但し、かかる例に限定されず、撮影制御部104は、撮影部124に動画像を撮影させてもよい。
‐制御例1(移動状態に基づいた制御)‐
より具体的には、撮影制御部104は、利用者が移動しているか否かに基づいて、撮影部124に撮影を行わせるタイミングを変化させることが可能である。例えば、撮影制御部104は、利用者が静止している場合には、撮影部124に撮影を行わせる頻度を利用者が移動している場合よりも小さくする。一般的に、利用者が静止している場合には、利用者が見ている景観の変化はあまり大きくないことが想定される。このため、この制御例によれば、例えば利用者が望まなかったり、利用者にとって価値が少ないと想定される画像が撮影されることを抑制することができる。
また、撮影制御部104は、利用者が移動を継続している場合には、所定の時間間隔で撮影部124に撮影を行わせる。ここで、図9を参照して、上記の機能についてより詳細に説明する。図9は、加速度センサ170による測定値を測定時刻と対応づけて示したグラフの一例である。なお、図9では、時刻t1〜時刻t7の時間帯では、図4に示した時刻t1〜時刻t2の時間帯における加速度の変化と同様の変化が連続して測定された結果を図示している。また、図9において、時刻tbと時刻tcとの間の時間長は、時刻taと時刻tbとの間の時間長と同じであることとする。
図9に示した時刻t1〜時刻t7の時間帯では、動作認識部102により、利用者が歩行状態にあると認識される。このため、撮影制御部104は、図9における例えば時刻ta、時刻tb、および時刻tcにおいて撮影を行わせるように、時刻taと時刻tbとの時間間隔で撮影部124に撮影を行わせる。
一般的に、利用者の歩行時や電車の乗車時には、利用者の目に入る周囲の景色は刻一刻と変化する。このため、制御例1によれば、動画像を撮影しなくても、利用者の移動による景色の変化を捉えた画像列を撮影することができる。従って、撮影部124による撮影枚数を抑制することができ、消費電力を抑制することができる。
‐制御例2(目視に関する状態に基づいた制御)‐
また、制御例2として、撮影制御部104は、動作認識部102により認識された利用者の目視に関する状態に基づいて、撮影部124に撮影を行わせるタイミングを変化させることが可能である。例えば、図5または図6に示した時刻t2の直後のように、利用者が注目していることが動作認識部102により認識された場合には、撮影制御部104は、撮影部124に撮影を行わせる。
この制御例2によれば、例えばデパートに陳列された商品、旅行地における建物や建造物、利用者が街中で見かけた人物などを利用者が注目した場合に、利用者が注目した対象を即時的かつ確実に撮影することができる。
なお、変形例として、利用者により頭部または首を動かす動作が認識された場合には、利用者が注目していると推定されるので、撮影制御部104は、利用者の頭部または首の動きに合わせて、撮影部124に連続的に撮影を行わせてもよい。この変形例によれば、撮影時において利用者がどのように注目したかという推移を記録することができるという効果がある。
‐制御例3(発声に関する状態に基づいた制御)‐
また、制御例3として、撮影制御部104は、動作認識部102により利用者が発声したことが認識された場合には、撮影部124に撮影を行わせることが可能である。この制御例3によれば、利用者が他人と会話している場合において、例えば利用者がシャッターを切ることなく、相手の人物を自動的に撮影することが可能である。
(3−1−1−4.送信制御部106)
送信制御部106は、例えば撮影部124により撮影された画像をサーバ20へ通信部120に送信させる。
(3−1−1−5.表示制御部108)
表示制御部108は、例えばサーバ20から受信される付加情報などの各種文字列や画像などを、後述する表示部126に表示させる。
ここで、図10を参照して、上記の機能についてより詳細に説明する。図10は、サーバ20から受信される付加情報が表示部126に表示される表示例を示した説明図である。図10の左図は、撮影部124により撮影された撮影画像の例(撮影画像30)である。また、図10の右図は、撮影画像30がサーバ20へ送信された後に、サーバ20から受信される付加情報が表示部126に表示される例(映像40)を示している。なお、図10に示した例では、撮影画像30に撮影されているデパート300に関しては、「セール中(10/1〜10/31)」という広告の付加情報を、また、駅302に関しては、「A線 X駅」という駅名を示す付加情報を、それぞれ情報処理装置10がサーバ20から受信した例を示している。
図10の右図に示したように、表示制御部108は、サーバ20から受信された付加情報を示す表示を映像40に重畳表示させる。なお、例えば表示部126がシースルー型ディスプレイにより構成される場合には、映像40は、利用者がディスプレイを介して、実際に見ている景観である。または、表示制御部108は、撮影画像30と同じ画像を映像40として表示してもよい。
(3−1−1−6.通信部120)
通信部120は、例えば無線通信により、通信網12に接続された各種装置との間で情報を送受信する。例えば、通信部120は、送信制御部106による制御に従って、撮影部124により撮影された画像をサーバ20へ送信する。また、通信部120は、上記の付加情報をサーバ20から受信する。
(3−1−1−7.測定部122)
測定部122は、例えば、位置情報測定装置168、加速度センサ170、ジャイロスコープ172、およびマイクロフォン174などから構成される。測定部122は、例えば、情報処理装置10の加速度、情報処理装置10の角度、または外部の音声を測定する。
なお、第1の実施形態では、測定部122は、基本的には常時測定していることを想定する。この理由としては、例えば、加速度センサ170などの各種センサによる電力消費量は常時起動していても、カメラ166の撮影による電力消費量よりも概ね小さいことが挙げられる。
(3−1−1−8.撮影部124)
撮影部124は、撮影制御部104による制御に従って、外部の静止画像または動画像を撮影する。
また、撮影部124は、例えば情報処理装置10に取り付けられたボタンなどの入力装置(図示省略)に対する利用者の指示に従って、外部の静止画像または動画像を撮影することも可能である。なお、本明細書では以後、撮影部124が、撮影制御部104による制御に従って画像を撮影する例を中心として説明を行う。
(3−1−1−9.表示部126)
表示部126は、表示制御部108による制御に従って、例えばサーバ20から受信される付加情報などの各種文字列や画像などを表示する。
なお、第1の実施形態による情報処理装置10の構成は、上述した構成に限定されない。例えば、測定部122は情報処理装置10に含まれず、他の装置に備えられてもよい。
[3−1−2.動作]
以上、第1の実施形態による構成について説明した。続いて、第1の実施形態による動作について説明する。
図11は、第1の実施形態による動作を示したシーケンス図である。図11に示したように、まず、情報処理装置10の測定部122は、例えば、情報処理装置10の加速度、情報処理装置10の角度、または外部の音声などを測定する(S101)。
続いて、動作認識部102は、S101で測定された測定結果に基づいて、利用者の動作状態を認識する(S102)。
続いて、撮影制御部104は、S102で認識された利用者の動作状態に基づいて、現在が撮影部124に撮影を行わせるタイミングであるか否かを判定する(S103)。撮影を行わせるタイミングではないと判定された場合には(S103:No)、情報処理装置10は、再びS101の動作を行う。
一方、撮影を行わせるタイミングであると判定された場合には(S103:Yes)、撮影制御部104は、例えば環境の明るさ等の情報に基づいて、撮影感度やシャッタースピードなどの各種カメラパラメータを適切な値に調整する(S104)。そして、撮影制御部104は、撮影部124に撮影を行わせる(S105)。
続いて、送信制御部106は、例えば撮影された画像に物体や人物などが撮影されているか否かなどの所定の条件に基づいて、S105で撮影された画像をサーバ20へ送信させるか否かを判定する(S106)。画像を送信させないと判定された場合には(S106:No)、情報処理装置10は、再びS101の動作を行う。
画像を送信させると判定された場合には(S106:Yes)、送信制御部106は、撮影された画像をサーバ20へ通信部120に送信させる(S107)。
続いて、サーバ20は、情報処理装置10から受信された画像に対して画像認識を行う(S108)。そして、サーバ20は、受信された画像から認識された物体や人物などに関する付加情報を、例えばサーバ20の記憶部に記憶されている大量の参照データから抽出する(S109)。その後、サーバ20は、抽出された付加情報を情報処理装置10へ送信する(S110)。
その後、情報処理装置10の表示制御部108は、サーバ20から受信された付加情報を表示部126に表示させる(S111)。
[3−1−3.効果]
以上、例えば図3、図11等を参照して説明したように、第1の実施形態による情報処理装置10は、測定部122による測定結果に基づいて、利用者の動作状態を認識し、そして、認識された動作状態に基づいて、撮影部124に撮影を行わせるタイミングを制御する。このため、利用者の動作状態に応じて、撮影のタイミングを適応的に制御することができる。
例えば、利用者が移動せずに静止していることが認識された場合には、情報処理装置10は、撮影部124に撮影を行わせる頻度を利用者が移動している場合よりも小さくする。一般的に、利用者が静止している場合には、利用者が見ている景観の変化はあまり大きくないことが想定される。このため、例えば利用者が望まなかったり、利用者にとって価値が少ないと想定される画像が撮影されることを大幅に抑制することができる。そして、撮影に伴う消費電力を抑制することができる。
<3−2.第2の実施形態>
以上、第1の実施形態について説明した。続いて、第2の実施形態について説明する。後述するように、第2の実施形態によれば、情報処理装置10は、サーバ20に送信する画像の情報量を減少させることにより、消費電力を削減することができる。
[3−2−1.情報処理装置10の構成]
まず、第2の実施形態による情報処理装置10の構成について詳細に説明する。図12は、第2の実施形態による情報処理装置10の構成を示した機能ブロック図である。図12に示したように、情報処理装置10は、第1の実施形態と比べて、新たに画像処理部110、顔領域検出部112、およびぶれ判断部114を有する。
(3−2−1−1.送信制御部107)
第2の実施形態による送信制御部107は、後述する画像処理部110により加工された画像をサーバ20へ通信部120に送信させることが可能である。より具体的には、送信制御部107は、撮影部124による撮影画像を基にして、画像処理部110により生成される、情報量が減少された画像をサーバ20へ送信させることが可能である。
詳細については後述するが、例えば、送信制御部107は、撮影された画像から画像処理部110により切り出された特定の領域の画像をサーバ20へ送信させる。または、送信制御部107は、撮影された画像から画像処理部110により解像度が減少された画像をサーバ20へ送信させる。または、送信制御部107は、撮影された画像から画像処理部110により切り出された、1以上の人物の顔領域の画像をサーバ20へ送信させる。
また、変形例として、後述するぶれ判断部114により、撮影された画像が閾値以上ぶれていると判断された場合には、送信制御部107は、撮影された画像をサーバ20へ送信させないことも可能である。
(3−2−1−2.画像処理部110)
画像処理部110は、撮影部124による撮影時において動作認識部102により認識された利用者の動作状態に基づいて、撮影部124により撮影された画像に対して情報量に関する加工を行う。より具体的には、画像処理部110は、撮影部124による撮影時において動作認識部102により認識された利用者の動作状態に応じた方法で、撮影された画像から情報量を減少させた画像を生成することが可能である。
‐加工例1(解像度の削減)‐
例えば、撮影時において動作認識部102により例えば利用者が見回していたり、俯いていたり、または仰向いていることが認識された場合には、画像処理部110は、撮影された画像から解像度が圧縮された画像を生成する。
ここで、図13を参照して、上記の機能についてより詳細に説明する。図13は、撮影された画像(撮影画像30)から解像度が圧縮された画像(加工画像50)が生成される生成例を示した説明図である。図13に示したように、例えば、画像処理部110は、解像度が640×480である撮影画像30から、解像度が320×240に圧縮された画像である加工画像50を生成する。
一般的に、利用者が見回していたり、俯いていたり、または仰向いている場合には、利用者は、通常よりも広角の領域を見ようとしていることが推定される。この加工例1によれば、撮影された画像の解像度を圧縮することにより、利用者が撮影しようとした撮影範囲を削減することなく、画像の情報量を減少させることができる。
‐加工例2(特定領域の切り出し)‐
また、加工例2として、撮影時において動作認識部102により利用者が注目していることが認識された場合には、画像処理部110は、撮影された画像から所定の領域を切り出した画像を生成することが可能である。
ここで、図14を参照して、上記の機能についてより詳細に説明する。図14は、撮影された画像(撮影画像30)から、撮影画像30における所定の領域が切り出された画像(加工画像50)が生成される生成例を示した説明図である。図14に示したように、例えば、画像処理部110は、解像度が640×480である撮影画像30から、撮影画像30の中央部分である解像度が320×240の領域を切り出した画像である加工画像50を生成する。なお、所定の領域の大きさは、例えば、サーバ20へ送信するための通信回線のビット幅の上限に応じて設定されてもよい。
‐加工例2a(歩行時における特定領域の切り出し)‐
また、撮影時において利用者が移動していることが動作認識部102により認識された場合には、画像処理部110は、撮影された画像から所定の領域を切り出した画像を生成することも可能である。
ここで、図15〜図18を参照して、上記の機能についてより詳細に説明する。図15は、利用者が前方を見て、静止している状態を示した説明図である。なお、図15では説明を簡単にするため、利用者が見ている領域である視領域32を平面で描いている。
また、図16は、利用者が前方を見ながら、歩行している状態を示した説明図である。一般的に、利用者が歩行している場合には静止時よりも視野が狭くなるので、図16に示したように、静止時における利用者の視領域32よりも狭い領域52を利用者は見ようとする傾向にある。
このため、撮影時において利用者が前方を見ながら、歩行していることが認識された場合には、例えば、画像処理部110は、図17に示したように、撮影された画像における、中心から所定の距離以内の領域を切り出した画像を生成してもよい。なお、図17では、撮影された画像(撮影画像30)における、中心から距離d1以内の領域を切り出した画像(加工画像50)の生成例を示している。この生成例によれば、撮影時において利用者が注目している物体や人物の画像を適切に切り出すことができ、また、画像の情報量を削減することができる。
あるいは、このような場合には、画像処理部110は、図18に示したように、撮影された画像における、中心から所定の距離以上離れた周辺領域を切り出した画像を生成してもよい。なお、図18では、撮影された画像(撮影画像30)における、中心から距離d1以上離れた周辺領域を切り出した画像(加工画像50)の生成例を示している。
この生成例によれば、撮影時において利用者が注目していなかった物体や人物の画像を抽出することができる。このため、切り出された画像がサーバ20へ送信され、そして、切り出された画像に関する付加情報がサーバ20から受信された場合には、利用者は、撮影時において気づかなかったり、意識が薄かった物体や人物の情報について知ることができるという利点がある。
‐加工例2b(俯き時における特定領域の切り出し)‐
また、撮影時において利用者が俯いていることが動作認識部102により認識された場合には、画像処理部110は、撮影された画像の下端から所定の距離以内の領域を、撮影された画像から切り出すことが可能である。
ここで、図19および図20を参照して、上記の機能についてより詳細に説明する。図19は、利用者が下方を見て、静止している状態を示した説明図である。図19に示したように、一般的に、利用者が頭部を曲げて下方を見ようとする場合には、利用者は、例えば眼球を下方へ向けることにより、眼球を正面に向けたときの視領域32よりも下方の領域52を見ようとする傾向にある。
このため、撮影時において利用者が俯いていることが動作認識部102により認識された場合には、画像処理部110は、図20に示したように、撮影された画像(撮影画像30)の下端から距離d2以内の領域を撮影画像30から切り出した画像(加工画像50)を生成してもよい。なお、距離d2の値としては、例えば予めユーザテストを行うことにより、適切な固定値を設定することが可能である。
‐加工例2c(仰向き時における特定領域の切り出し)‐
また、撮影時において利用者が仰向いていることが動作認識部102により認識された場合には、画像処理部110は、撮影された画像の上端から所定の距離以内の領域を撮影された画像から切り出すことが可能である。
ここで、図21を参照して、上記の機能についてより詳細に説明する。一般的に、利用者が頭部を曲げて上方を見ようとする場合には、利用者が俯く場合とは反対に、利用者は、眼球を上方へ向けることにより、眼球を正面に向けたときよりも上方の領域を見ようとする傾向にある。
このため、撮影時において利用者が仰向いていることが動作認識部102により認識された場合には、画像処理部110は、図21に示したように、撮影された画像(撮影画像30)の上端から距離d2以内の領域を撮影画像30から切り出した画像(加工画像50)を生成してもよい。
‐加工例3(人物の顔領域の切り出し)‐
また、加工例3として、図22または図23に示したように、後述する顔領域検出部112により、撮影された画像に含まれる人物の顔領域が検出された場合には、画像処理部110は、撮影された画像から、検出された顔領域を切り出した画像を生成することが可能である。
なお、図22に示したように、顔領域検出部112により、人物の顔の全体の領域が検出された場合には、画像処理部110は、撮影された画像から、検出された全体の顔の領域を切り出した画像を生成してもよい。また、図23に示したように、顔領域検出部112により、人物の顔の一部の領域が検出された場合には、画像処理部110は、撮影された画像から、検出された一部の顔の領域のみを切り出した画像を生成してもよい。
‐加工例4(ぶれの補正)‐
また、変形例として、後述するぶれ判断部114により撮影された画像が閾値以上ぶれていると判断された場合には、画像処理部110は、撮影時において動作認識部102により認識された利用者の動作状態に基づいて、撮影された画像に含まれるぶれを補正することも可能である。例えば、撮影時において利用者が歩行状態にあることが動作認識部102により認識された場合には、画像処理部110は、例えば予めストレージ装置162に記憶されている、歩行状態に応じたぶれの補正プログラムにより、撮影された画像を補正してもよい。
また、予め個々の利用者の動作の特徴が例えば情報処理装置10により把握されている場合には、画像処理部110は、例えば予めストレージ装置162に記憶されている、各利用者の動作の特徴に応じたぶれの補正プログラムにより、撮影された画像を補正してもよい。
また、画像処理部110は、撮影時において測定部122により測定される情報処理装置10の3次元空間における移動の変化量や、角度の変化量に応じて、撮影された画像に含まれるぶれを補正してもよい。
(3−2−1−3.顔領域検出部112)
顔領域検出部112は、撮影された画像に含まれる人物の顔領域を検出することが可能である。例えば、顔領域検出部112は、撮影された画像において、目、鼻、または顔の輪郭などの特徴点を抽出することにより、人物の顔領域を検出する。
(3−2−1−4.ぶれ判断部114)
ぶれ判断部114は、撮影された画像が閾値以上ぶれているか否かを判断する。例えば、ぶれ判断部114は、撮影時においてジャイロスコープ172により検出される角度の変化量の大きさに応じて、撮影された画像が閾値以上ぶれているか否かを判断する。なお、閾値は、例えば情報処理装置10の設計者もしくは利用者により設定される値であってもよい。
なお、他の構成要素の機能は、第1の実施形態と同様である。従って、ここでは説明を省略する。
[3−2−2.動作]
以上、第2の実施形態による構成について説明した。続いて、第2の実施形態による動作について説明する。
図24は、第2の実施形態による動作を示したシーケンス図である。なお、S201〜S205の動作は、図11に示した第1の実施形態による動作と同様であるので、説明を省略する。
S205の後、送信制御部107は、S205で撮影された画像をサーバ20へ送信させるか否かを判定する(S206)。例えば、ぶれ判断部114により、撮影された画像が閾値以上ぶれていると判断された場合には、送信制御部107は、撮影された画像をサーバ20へ送信させないことを判定する(S206:No)。一方、ぶれ判断部114により、撮影された画像のぶれが閾値未満であると判断された場合には、送信制御部107は、撮影された画像をサーバ20へ送信させることを判定する(S206:Yes)。
そして、撮影された画像をサーバ20へ送信させないと判定された場合には(S206:No)、情報処理装置10は、再びS201の動作を行う。
一方、撮影された画像をサーバ20へ送信させると判定された場合には(S206:Yes)、画像処理部110は、撮影部124による撮影時において動作認識部102により認識された利用者の動作状態に応じた方法で、撮影された画像から情報量を減少させた画像を生成する(S207)。例えば、顔領域検出部112により、撮影された画像において人物の顔領域が検出された場合には、画像処理部110は、撮影された画像から、検出された顔領域を切り出した画像を生成する。
続いて、送信制御部107は、S207で生成または加工された画像をサーバ20へ通信部120に送信させる(S208)。
なお、S208より後の動作は、図11に示した第1の実施形態によるS108〜S111の動作と概略同様であるので、説明を省略する。
[3−2−3.効果]
以上、例えば図12、図24等を参照して説明したように、第2の実施形態による情報処理装置10は、まず、測定部122による測定結果に基づいて、利用者の動作状態を認識する。そして、情報処理装置10は、撮影部124による撮影時において認識された利用者の動作状態に基づいて、撮影部124により撮影された画像に対して情報量に関する加工を行う。そして、情報処理装置10は、加工された画像をサーバ20へ送信させる。このため、情報処理装置10は、撮影された画像をサーバ20へ送信する場面において、通信量を適応的に減少させることができる。
例えば、情報処理装置10は、撮影時において利用者が見回している動作が認識された場合には、撮影された画像の解像度を圧縮し、そして、解像度を圧縮した画像をサーバ20へ送信する。または、情報処理装置10は、撮影時において利用者が注目している動作が認識された場合には、利用者が注目していると推定される領域を切り出し、そして、切り出した領域をサーバ20へ送信する。このため、撮影時における利用者の動作状態に応じて、適切な方法で画像の情報量を減少させることにより、通信量を適応的に減少させることができる。
また、情報処理装置10は、撮影された画像が閾値以上ぶれている場合には、当該画像をサーバ20へ送信しない。このように、情報処理装置10は、サーバ20において適切に画像認識を行うことが難しい画像をサーバ20へ送信しないので、通信量をさらに効率的に抑制することができる。
また、情報処理装置10は、基本的には、撮影された画像に人物の顔領域が有るか否かを検出することだけを行い、顔領域が検出された場合には、検出された顔領域の画像をサーバ20に送信する。そして、情報処理装置10は、検出された顔領域に対応する人物の特定をサーバ20に行わせ、特定された結果をサーバ20から受信する。このため、情報処理装置10は、撮影画像に含まれる人物の特定を計算量少なく行うことができ、消費電力を抑制できる。
<<3.変形例>>
なお、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、各実施形態による情報処理装置10は、図1に示したような、メガネ型のディスプレイを有する装置に限定されない。情報処理装置10は、腕時計型の装置、ネックストラップのように利用者が首に掛ける装置、ウェアラブルバッジのように、利用者の衣服に装着する装置、あるいはヘッドフォンのように、利用者の身体に装着する装置などとして構成してもよい。
また、上記の説明では、情報処理装置10が、例えば位置情報測定装置168や加速度センサ170などの各種センサを全て有する例について説明したが、かかる例に限定されない。位置情報測定装置168、加速度センサ170、ジャイロスコープ172、またはマイクロフォン174のうちいずれか1以上は、利用者が携帯可能な他の装置に備えられてもよい。例えば、加速度センサ170が他の装置に備えられ、かつ、利用者の腰付近に装着される場合には、利用者の歩行時における加速度をより精度高く測定できるという利点がある。
また、本開示の各実施形態によれば、CPU150、ROM152、およびRAM154などのハードウェアを、上述した情報処理装置10の各構成と同等の機能を発揮させるためのコンピュータプログラムも提供可能である。また、該コンピュータプログラムが記録された記録媒体も提供される。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
利用者が携帯するセンサの測定結果に基づいて、前記利用者の動作状態を認識する動作認識部と、
前記利用者が携帯する撮影部による撮影時において前記動作認識部により認識された前記利用者の動作状態に基づいて、前記撮影部により撮影された画像に対して情報量に関する加工を行う画像処理部と、
前記画像処理部により加工された画像を、画像認識を行うための画像処理装置へ送信させる送信制御部と、
を備える、情報処理装置。
(2)
前記画像処理部は、前記撮影部による撮影時において前記動作認識部により認識された前記利用者の動作状態に応じた方法で、前記撮影された画像から情報量を減少させた画像を生成し、
前記送信制御部は、前記情報量を減少させた画像を前記画像処理装置へ送信させる、前記(1)に記載の情報処理装置。
(3)
前記動作認識部は、前記センサにより測定される前記利用者の頭部の動きに基づいて、前記利用者の動作状態を認識する、前記(1)または(2)に記載の情報処理装置。
(4)
前記利用者の動作状態は、前記利用者の目視に関する状態を含み、
前記動作認識部は、前記センサにより前記利用者の頭部の動きが所定の範囲内であることが測定される場合には、前記利用者が見回していることを認識し、
前記画像処理部は、前記利用者が見回していることが認識された場合には、前記撮影された画像から解像度を減少させた画像を生成する、前記(3)に記載の情報処理装置。
(5)
前記動作認識部は、前記センサにより前記利用者の頭部の動きの速度が所定の値以下に低下したことが測定された場合には、前記利用者が注目していることを認識し、
前記画像処理部は、前記利用者が注目していることが認識された場合には、前記撮影された画像から所定の領域を切り出した画像を生成する、前記(3)または(4)に記載の情報処理装置。
(6)
前記利用者の動作状態は、前記利用者の移動状態を含み、
前記画像処理部は、前記撮影部による撮影時において前記利用者が移動していることが認識された場合には、前記撮影された画像から所定の領域を切り出した画像を生成する、前記(3)〜(5)のいずれか一項に記載の情報処理装置。
(7)
前記所定の領域は、前記撮影された画像における、中心から所定の距離以上離れた周辺領域である、前記(5)または(6)に記載の情報処理装置。
(8)
前記所定の領域は、前記撮影された画像における、中心から所定の距離以内の領域である、前記(5)または(6)に記載の情報処理装置。
(9)
前記情報処理装置は、前記撮影された画像に含まれる人物の顔領域を検出する顔領域検出部をさらに備え、
前記画像処理部は、前記撮影された画像から、前記顔領域検出部により検出された顔領域を切り出し、
前記送信制御部は、前記画像処理部により切り出された顔領域の画像を前記画像処理装置へ送信させる、前記(1)〜(4)のいずれか一項に記載の情報処理装置。
(10)
前記動作認識部は、前記センサにより前記利用者が俯いていることを認識し、
前記画像処理部は、前記利用者が俯いていることが認識された場合には、前記撮影された画像の下端から所定の距離以内の領域を前記撮影された画像から切り出し、
前記送信制御部は、前記画像処理部により切り出された領域の画像を前記画像処理装置へ送信させる、前記(3)または(4)に記載の情報処理装置。
(11)
前記動作認識部は、前記センサにより前記利用者が仰向いていることを認識し、
前記画像処理部は、前記利用者が仰向いていることが認識された場合には、前記撮影された画像の上端から所定の距離以内の領域を前記撮影された画像から切り出し、
前記送信制御部は、前記画像処理部により切り出された領域の画像を前記画像処理装置へ送信させる、前記(3)または(4)に記載の情報処理装置。
(12)
前記情報処理装置は、前記撮影された画像が閾値以上ぶれているか否かを判断するぶれ判断部をさらに備え、
前記送信制御部は、前記ぶれ判断部により前記撮影された画像が前記閾値以上ぶれていると判断された場合には、前記撮影された画像を前記画像処理装置へ送信させない、前記(1)〜(11)のいずれか一項に記載の情報処理装置。
(13)
前記情報処理装置は、前記撮影された画像が閾値以上ぶれているか否かを判断するぶれ判断部をさらに備え、
前記画像処理部は、前記ぶれ判断部により前記撮影された画像が前記閾値以上ぶれていると判断された場合には、前記動作認識部により認識された前記利用者の動作状態に基づいて、前記撮影された画像に含まれるぶれを補正する、前記(1)〜(11)のいずれか一項に記載の情報処理装置。
(14)
利用者が携帯するセンサの測定結果に基づいて、前記利用者の動作状態を認識することと、
前記利用者が携帯する撮影部による撮影時において認識された前記利用者の動作状態に基づいて、前記撮影部により撮影された画像に対して情報量に関する加工をプロセッサにより行うことと、
加工された画像を、画像認識を行うための画像処理装置へ送信させることと、
を備える、情報処理方法。
(15)
コンピュータを、
利用者が携帯するセンサの測定結果に基づいて、前記利用者の動作状態を認識する動作認識部と、
前記利用者が携帯する撮影部による撮影時において前記動作認識部により認識された前記利用者の動作状態に基づいて、前記撮影部により撮影された画像に対して情報量に関する加工を行う画像処理部と、
前記画像処理部により加工された画像を、画像認識を行うための画像処理装置へ送信させる送信制御部と、
として機能させるための、プログラム。
10 情報処理装置
12 通信網
20 サーバ
100、101 制御部
102 動作認識部
104 撮影制御部
106、107 送信制御部
108 表示制御部
110 画像処理部
112 顔領域検出部
114 ぶれ判断部
120 通信部
122 測定部
124 撮影部
126 表示部
150 CPU
152 ROM
154 RAM
156 内部バス
158 インターフェース
160 出力装置
162 ストレージ装置
164 通信装置
166 カメラ
168 位置情報測定装置
170 加速度センサ
172 ジャイロスコープ
174 マイクロフォン

Claims (9)

  1. ユーザが見ている景観を撮影する撮影部と、
    加速度センサと、
    ジャイロセンサと、
    前記加速度センサ及び前記ジャイロセンサの少なくとも一方の測定結果に基づいて、前記ユーザが見ている景観が変化する前記ユーザの第1の動作状態または、前記ユーザが見ている景観の変化が前記第1の動作状態よりも小さい前記ユーザの第2の動作状態を認識する動作認識部と、
    前記第1の動作状態が認識された場合、第1の頻度で撮影を行わせることにより前記撮影部の消費電力を第1の消費電力に制御し、前記第2の動作状態が認識された場合、前記第1の頻度よりも小さい第2の頻度で撮影を行わせることにより前記撮影部の消費電力を前記第1の消費電力よりも小さい第2の消費電力に制御する撮影制御部と、
    を備え
    前記動作認識部は、前記第1の動作状態として前記ユーザが周囲を見回す注目状態を認識し、前記第2の動作状態として前記注目状態よりも前記ユーザの頭部または首の動きの速度が小さい非注目状態を認識する、ウェアラブルデバイス。
  2. 前記動作認識部は、前記第1の動作状態として前記ユーザの移動状態をさらに認識し、前記第2の動作状態として、前記移動状態よりも移動量が小さい前記ユーザの非移動状態をさらに認識する、請求項に記載のウェアラブルデバイス。
  3. 前記撮影制御部は、前記移動状態が継続している場合には、所定の時間間隔で前記撮影部に撮影を行わせる、請求項に記載のウェアラブルデバイス。
  4. 前記撮影制御部は、前記注目状態において連続的に前記撮影部に撮影を行わせる、請求項1〜3のいずれか一項に記載のウェアラブルデバイス。
  5. 前記ウェアラブルデバイスは、
    撮影された景観の画像に所定のオブジェクトが含まれている場合に前記画像を画像認識部へ送信させ、前記所定のオブジェクトが含まれていない場合に前記画像を前記画像認識部へ送信させない送信制御部をさらに備える、請求項1〜のいずれか一項に記載のウェアラブルデバイス。
  6. ユーザが見ている景観を撮影する撮影部と、
    前記ユーザの頭部の動きを検出するジャイロセンサと、
    前記ジャイロセンサの測定結果に基づいて、前記ユーザの頭部の動きに関する第1の動作状態と、前記第1の動作状態よりも小さい前記ユーザの頭部の動きに関する第2の動作状態とを認識する動作認識部と、
    前記第1の動作状態が認識された場合、第1の頻度で撮影を行わせることにより前記撮影部の消費電力を第1の消費電力に制御し、前記第2の動作状態が認識された場合、前記第1の頻度よりも小さい第2の頻度で撮影を行わせることにより前記撮影部の消費電力を前記第1の消費電力よりも小さい第2の消費電力に制御する撮影制御部と、
    を備える、ウェアラブルデバイス。
  7. 前記動作認識部は、前記ジャイロセンサの測定結果が所定のパターンを示すか否かに基づいて、前記第1の動作状態または前記第2の動作状態を認識する、請求項6に記載のウェアラブルデバイス。
  8. 加速度センサ及びジャイロセンサの少なくとも一方の測定結果に基づいて、ユーザが見ている景観が変化する前記ユーザの第1の動作状態または、前記ユーザが見ている景観の変化が前記第1の動作状態よりも小さい前記ユーザの第2の動作状態を認識することと、
    前記第1の動作状態が認識された場合、前記ユーザが見ている景観を撮影する撮影部に第1の頻度で撮影を行わせることにより前記撮影部の消費電力を第1の消費電力に制御することと、
    前記第2の動作状態が認識された場合、前記第1の頻度よりも小さい第2の頻度で撮影を行わせることにより前記撮影部の消費電力を前記第1の消費電力よりも小さい第2の消費電力に制御することと、
    前記第1の動作状態として前記ユーザが周囲を見回す注目状態を認識することと、
    前記第2の動作状態として前記注目状態よりも前記ユーザの頭部または首の動きの速度が小さい非注目状態を認識することと、
    を含む、ウェアラブルデバイスの制御方法。
  9. ウェアラブルデバイスを、
    加速度センサ及びジャイロセンサの少なくとも一方の測定結果に基づいて、ユーザが見ている景観が変化する前記ユーザの第1の動作状態または、前記ユーザが見ている景観の変化が前記第1の動作状態よりも小さい前記ユーザの第2の動作状態を認識する動作認識部と、
    前記第1の動作状態が認識された場合、前記ユーザが見ている景観を撮影する撮影部に第1の頻度で撮影を行わせることにより前記撮影部の消費電力を第1の消費電力に制御し、前記第2の動作状態が認識された場合、前記第1の頻度よりも小さい第2の頻度で撮影を行わせることにより前記撮影部の消費電力を前記第1の消費電力よりも小さい第2の消費電力に制御する撮影制御部、
    として機能させるための、プログラムであって、
    前記動作認識部は、前記第1の動作状態として前記ユーザが周囲を見回す注目状態を認識し、前記第2の動作状態として前記注目状態よりも前記ユーザの頭部または首の動きの速度が小さい非注目状態を認識する、プログラム。
JP2017004015A 2017-01-13 2017-01-13 ウェアラブルデバイス、ウェアラブルデバイスの制御方法、及びプログラム Active JP6256634B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017004015A JP6256634B2 (ja) 2017-01-13 2017-01-13 ウェアラブルデバイス、ウェアラブルデバイスの制御方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017004015A JP6256634B2 (ja) 2017-01-13 2017-01-13 ウェアラブルデバイス、ウェアラブルデバイスの制御方法、及びプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013228074A Division JP6079566B2 (ja) 2013-11-01 2013-11-01 情報処理装置、情報処理方法、及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017234100A Division JP6414313B2 (ja) 2017-12-06 2017-12-06 携帯装置、携帯装置の制御方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2017069984A JP2017069984A (ja) 2017-04-06
JP6256634B2 true JP6256634B2 (ja) 2018-01-10

Family

ID=58495441

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017004015A Active JP6256634B2 (ja) 2017-01-13 2017-01-13 ウェアラブルデバイス、ウェアラブルデバイスの制御方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP6256634B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4027349A4 (en) * 2019-11-01 2022-11-09 TERUMO Kabushiki Kaisha IMAGE MANAGEMENT SYSTEM, WEARABLE DEVICE, IMAGE MANAGEMENT METHOD AND IMAGE MANAGEMENT PROGRAM

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4720358B2 (ja) * 2005-08-12 2011-07-13 ソニー株式会社 記録装置、記録方法
JP4734640B2 (ja) * 2006-02-10 2011-07-27 国立大学法人岐阜大学 仮想現実画像表示装置
JP2007228154A (ja) * 2006-02-22 2007-09-06 Matsushita Electric Ind Co Ltd 画像処理装置および画像処理方法
JP2010061265A (ja) * 2008-09-02 2010-03-18 Fujifilm Corp 人物検索登録システム
JP2012212989A (ja) * 2011-03-30 2012-11-01 Brother Ind Ltd 頭部搭載型カメラ及びヘッドマウントディスプレイ

Also Published As

Publication number Publication date
JP2017069984A (ja) 2017-04-06

Similar Documents

Publication Publication Date Title
JP6079566B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6123120B2 (ja) 拡張現実オブジェクトを発見するための方法および端末
US11016726B2 (en) Information processing apparatus and information processing method
WO2016016984A1 (ja) 撮像装置およびその被写体追尾方法
JP6476692B2 (ja) システム並びに装置、制御方法
JP6096654B2 (ja) 画像の記録方法、電子機器およびコンピュータ・プログラム
JP6638772B2 (ja) 撮像装置、画像記録方法及びプログラム
WO2017212958A1 (ja) 情報処理装置、情報処理方法、およびプログラム
CN112165575B (zh) 图像虚化处理方法及装置、存储介质和电子设备
CN109074125A (zh) 信息处理设备、控制方法和程序
JP2015089059A (ja) 情報処理装置、情報処理方法、及びプログラム
WO2015154359A1 (zh) 拍摄的实现方法及装置
JP2024071543A (ja) 情報処理装置、情報処理方法、及びプログラム
JP6256634B2 (ja) ウェアラブルデバイス、ウェアラブルデバイスの制御方法、及びプログラム
JP6414313B2 (ja) 携帯装置、携帯装置の制御方法、及びプログラム
US11523055B1 (en) Super resolution/super field of view (FOV) digital photography
JP6787072B2 (ja) 画像処理装置、解析システム、画像処理方法及びプログラム
JP2016082356A (ja) 電子機器およびプログラム
JP2018006797A (ja) 電子機器、電子機器システム、ウェアラブル機器、制御プログラム、静止画取得方法及びウェアラブル機器の動作方法
CN107872637B (zh) 图像重放装置、图像重放方法以及记录介质
JP7260673B2 (ja) 映像表示装置及び映像表示方法
JP5977697B2 (ja) 電子機器、および電子機器を制御するための方法
JP7188422B2 (ja) 画像処理装置、解析システム、画像処理方法及びプログラム
TWI617193B (zh) 主動式錄攝系統及其控制方法
CN113692599A (zh) 移动通信设备和应用服务器

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171012

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171120

R151 Written notification of patent or utility model registration

Ref document number: 6256634

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250