JP6402718B2 - 情報処理装置、制御方法およびプログラム - Google Patents

情報処理装置、制御方法およびプログラム Download PDF

Info

Publication number
JP6402718B2
JP6402718B2 JP2015546313A JP2015546313A JP6402718B2 JP 6402718 B2 JP6402718 B2 JP 6402718B2 JP 2015546313 A JP2015546313 A JP 2015546313A JP 2015546313 A JP2015546313 A JP 2015546313A JP 6402718 B2 JP6402718 B2 JP 6402718B2
Authority
JP
Japan
Prior art keywords
user
information processing
action
processing apparatus
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015546313A
Other languages
English (en)
Other versions
JPWO2015068440A1 (ja
Inventor
亜由美 加藤
亜由美 加藤
翼 塚原
翼 塚原
木村 淳
淳 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2015068440A1 publication Critical patent/JPWO2015068440A1/ja
Application granted granted Critical
Publication of JP6402718B2 publication Critical patent/JP6402718B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path

Description

本開示は、情報処理装置、制御方法およびプログラムに関する。
従来、携帯電話端末やスマートフォンを用いたユーザの行動認識では、携帯電話端末やスマートフォンに搭載された重力加速度を用いることが一般的であった。
例えば、下記特許文献1では、行動記録装置として携帯電話機やPDA、スマートフォン等の携帯端末等を用い、当該装置を保持するユーザの状況や行動をセンシングするセンサとしては、加速度センサ、ジャイロセンサ、磁気センサ等や緯度経度取得センサが用いられる。
特開2013−003649号公報
しかしながら、携帯電話端末やスマートフォン等を用いた場合、当該端末の保持の仕方や端末の使い方が一様に定まらないので、推定できるユーザの行動の種類は限られていた。また、同様の理由により、ユーザの行動の推定精度を向上させるために多くのセンサデータが必要とされた。
そこで、本開示では、頭部の動きに基づいてユーザの行動を推定することが可能な情報処理装置、制御方法およびプログラムを提案する。
本開示によれば、ユーザの頭部に装着され頭部の動きを検知する検知部により検知されたデータと、学習データに基づいて算出された行動特徴量とを比較し、前記ユーザの行動を推定する推定部と、前記推定部により推定された行動に応じた制御を行う制御部と、を備える、情報処理装置提案する。
本開示によれば、ユーザの頭部に装着され頭部の動きを検知する検知部により検知されたデータと、学習データに基づいて算出された行動特徴量とを比較し、前記ユーザの行動を推定するステップと、前記推定された行動に応じた制御を行うステップと、を含む、制御方法を提案する。
本開示によれば、コンピュータを、ユーザの頭部に装着され頭部の動きを検知する検知部により検知されたデータと、学習データに基づいて算出された行動特徴量とを比較し、前記ユーザの行動を推定する推定部と、前記推定部により推定された行動に応じた制御を行う制御部と、として機能させるための、プログラムを提案する。
以上説明したように本開示によれば、頭部の動きに基づいてユーザの行動を推定することが可能となる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態による行動推定システムの概要について説明するための図である。 本実施形態による情報処理装置の基本構成を示すブロック図である。 机に静止した状態でグラスを置く行動時の頭部の動きの検知データを示す図である。 食事中における咀嚼時の頭部の動きの検知データを示す図である。 会話中における頭部の動きの検知データを示す図である。 居眠り中における頭部の動きの検知データを示す図である。 歩行中における頭部の動きの検知データを示す図である。 本実施形態によるサーバの基本構成を示すブロック図である。 本実施形態による特徴量学習処理を示すフローチャートである。 本実施形態による基本的な行動推定処理を示すフローチャートである。 階段昇降時と推定された場合の表示制御の一例を示す図である。 人と会話していると推定された場合の表示画面例を示す図である。 表示位置の制御によりコミュニケーションを活性化する場合について説明するための図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、説明は以下の順序で行うものとする。
1.本開示の一実施形態による行動推定システムの概要
2.基本構成
2−1.情報処理装置の構成
2−2.サーバの構成
3.動作処理
3−1.特徴量学習処理
3−2.行動推定処理
4.出力制御
4−1.危険回避のための表示制御
4−2.コミュニケーションの活性化
4−3.アプリケーションへの応用
5.まとめ
<<1.本開示の一実施形態による行動推定システムの概要>>
まず、本開示の一実施形態による行動推定システムの概要について図1を参照して説明する。図1に示すように、本実施形態による行動推定システムは、ユーザの頭部に装着される情報処理装置1と、サーバ20とを含む。
情報処理装置1は、図1に示すような眼鏡型のHMD(Head Mounted Display)であって、例えば両側頭部にかけて延びる柄が両耳殻にかけられることでユーザに装着される。また、情報処理装置1(メガネ型HMD)は、装着状態において、ユーザの両眼の直前、即ち通常の眼鏡におけるレンズが位置する場所に、左眼用と右眼用の一対の表示部2a、2bが配置される構成となっている。以下、表示部2a、2bを区別する必要がない場合は両者を含めて表示部2と総称する。
表示部2には、例えば撮像レンズ4aで撮像された現実空間の撮像画像が表示されたり、現実空間の物体に重畳して見えるよう画像が表示されたりする。また、表示部2は透過型であってもよく、情報処理装置1により表示部2がスルー状態、即ち透明または半透明の状態とされることで、ユーザが情報処理装置1を眼鏡のように常時装着しても通常の生活には支障が生じない。
また、情報処理装置1には、ユーザに装着された状態でユーザの頭部の動きを検知するための重力加速度センサ6a、およびジャイロセンサ6bといった頭部センサ系が設けられている。なお頭部センサ系は、重力加速度センサ6a、およびジャイロセンサ6bに限定されず、例えば地磁気センサ等であってもよい。
さらに、情報処理装置1には、情報処理装置1を振動させる振動部7が搭載されている。
また、上述した撮像レンズ4aは、図1に示すように、ユーザに装着された状態で、ユーザが視認する方向を被写体方向として撮像するように、前方に向けて配置されている。
また、情報処理装置1には、装着状態でユーザの右耳孔および左耳孔に挿入できる一対のイヤホンスピーカ3a、3bが設けられる。また、右眼用の表示部2の右方と、左眼用の表示部2の左方に、外部音声を集音するマイクロホン5a、5bが配置される。
なお、図1に示す情報処理装置1の外観は一例であり、情報処理装置1をユーザが装着するための構造は多様に考えられる。情報処理装置1は、一般に眼鏡型、あるいは頭部装着型とされる装着ユニットで形成されればよく、少なくともユーザの頭部の動きを検知できればよい。
また、表示部2は、両眼に対応して一対設けられる他、片側の眼に対応して1つ設けられる構成でもよい。また、撮像レンズ4aは、図1に示す例では右眼側に前方に向けて配置されているが、左眼側に配置されてもよいし、両側に配置されてもよい。また、イヤホンスピーカ3a、3bは、左右のステレオスピーカとせずに、一方の耳にのみ装着するために1つ設けられるのみでもよい。また、マイクロホンも、マイクロホン5a、5bのうちの一方でもよい。さらに、マイクロホン5a、5b、またはイヤホンスピーカ3a、3bを備えない構成も考えられる。
また、情報処理装置1は、サーバ20と通信し、サーバ20とデータの送受信が可能である。
(背景)
ここで、従来の技術では、携帯電話端末やスマートフォン等に搭載された重力加速度や緯度経度取得センサ等を用いてユーザの行動認識を行っていたが、携帯電話端末やスマートフォン等の保持の仕方や端末の使い方は一様に定まらないので、推定できるユーザの行動の種類は限られていた。また、同様の理由により、ユーザの行動の推定精度を向上させるためには多くのセンサデータが必要であった。
また、従来の推定(認識)可能な行動の種類は、「歩行/走行、自動車移動、電車移動」といった人間の体幹を主として移動の速さデータに基づく行動と、「端末を見ている、置いている」等の端末の座標データに基づく行動の主に2パターンであった。また、認識した行動の利用方法としては、ライフログとしての記録や、アバターアプリケーションへの反映等であって、認識した行動に応じてユーザに対して何らかのフィードバックを行うものではなかった。
そこで、本実施形態では、所持位置が固定化される頭部ウェアラブルデバイス(例えば、メガネ型HMD)を用いて、ユーザの頭部の動きに基づいてユーザの行動を推定することで、従来では認識(推定)が困難であった行動もロバストに推定可能となる。具体的には、例えば、「人と話している」、「食事をしている」、「居眠りをしている」等の頭部の運動を伴う行動を推定することができる。
また、頭部ウェアラブルデバイスは頭部に常時一様に装着されるものであって、ユーザによって端末の所持の仕方や使い方が異なることは無いので、従来、スマートフォン端末等の所持の仕方がユーザによって異なることで、学習データが膨大になっていた問題を解決することができる。
さらに、推定した行動に応じて、ユーザに対してフィードバックを行うことで、日常的に頭部ウェラブルデバイスを装着して生活している際に発生する危険への対策や、コミュニケーションの活性化等を実現することができる。
以上、本開示の一実施形態による行動推定システムの概要について説明した。続いて、本開示による行動推定システムに含まれる情報処理装置1およびサーバ20の基本構成について順次説明する。
<<2.基本構成>>
<2−1.情報処理装置の構成>
図2は、本実施形態による情報処理装置1の基本構成を示すブロック図である。図2に示すように、情報処理装置1は、主制御部10、表示部2、音声出力部3、撮像部4、音声入力部5、頭部センサ系6、振動部7、通信部12、および記憶部14を有する。
(頭部センサ系)
頭部センサ系6は、情報処理装置1がユーザに装着された状態でユーザの頭部の動きを検知するための各種センサである。頭部センサ系6は、例えば重力加速度センサ6a、ジャイロセンサ6b、または地磁気センサ等により実現される。
(主制御部)
主制御部10は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、不揮発性メモリ、インターフェース部を備えたマイクロコンピュータにより構成され、情報処理装置1の各構成を制御する。
また、本実施形態による主制御部10は、図2に示すように、行動推定部110、および出力制御部120として機能する。行動推定部110は、ユーザの頭部に装着され頭部の動きを検知する頭部センサ系6により検知されたデータと、学習データに基づいて算出された行動特徴量とを比較し、ユーザの行動を推定する。学習データに基づいて算出された行動特徴量は、通信部12を介してサーバ20から取得してもよいし、記憶部14に予め格納されていてもよい。ここで、行動特徴量とは、例えば学習データに基づいて分析された強度、分散、または相関等の値である。また、学習データとは、教師データであってもよいし、多数のユーザに装着された各情報処理装置1から収集した頭部の動きの検知データであってもよい。
ここで、各行動時に頭部センサ系6により検知されるデータの一例について、図3〜図7を参照して説明する。いずれも、重力加速度センサ6aにより検知されるx軸の加速度(accX)、y軸の加速度(accY)、z軸の加速度(accZ)と、ジャイロセンサ6bにより検知されるx軸の角速度(gyrX)、y軸の角速度(gyrY)、z軸の角速度(gyrZ)が示される。
図3は、机に静止した状態でグラスを置く行動時の頭部の動きの検知データを示す図である。図3に示す動きが検知された場合、主制御部10の行動推定部110は、各行動の行動特徴量と比較し、机に静止した状態でグラスを置く行動時の行動特徴量と一致した場合、ユーザの行動を「机に静止した状態でグラスを置く行動」と推定することができる。
図4は、食事中における咀嚼時の頭部の動きの検知データを示す図である。図4に示す動きが検知された場合、主制御部10の行動推定部110は、各行動の行動特徴量と比較し、食事中における咀嚼時の行動特徴量と一致した場合、ユーザの行動を「食事中における咀嚼」と推定することができる。なお咀嚼時には、図4に示すように、周期的な細かい運動が検知され得る。
図5は、会話中における頭部の動きの検知データを示す図である。図5に示す動きが検知された場合、主制御部10の行動推定部110は、各行動の行動特徴量と比較し、会話中における頭部の動きの行動特徴量と一致した場合、ユーザの行動を「会話」と推定することができる。なお会話時には一般的に頷く動作が行われるために、図5に示すように、大きくやや周期的な運動が検知され得る。
図6は、居眠り中における頭部の動きの検知データを示す図である。図6に示す動きが検知された場合、主制御部10の行動推定部110は、各行動の行動特徴量と比較し、居眠り中における頭部の動きの行動特徴量と一致した場合、ユーザの行動を「居眠り」と推定することができる。なお居眠り中には、図6に示すように、細かな揺れはあるもののセンサの値の絶対値は200以下で留まる。
図7は、歩行中における頭部の動きの検知データを示す図である。図7に示す動きが検知された場合、主制御部10の行動推定部110は、各行動の行動特徴量と比較し、歩行中における頭部の動きの行動特徴量と一致した場合、ユーザの行動を「歩行」と推定することができる。なお歩行中には、図7に示すように、加速度および角速度ともに周期的な値が検出され得る。
以上、各行動時に頭部センサ系6により検知されるデータの一例について具体的に説明した。なお行動推定部110により推定され得る行動は、上述した例に限定されず、例えば階段の昇降や、走行、歩行等の行動も頭部の動きに基づいて推定され得る。
出力制御部120は、行動推定部110により推定された行動に応じた所定の制御を行うことで、危険回避やコミュニケーションの活性化等を実現する。所定の制御とは、例えば表示内容の制御、音声出力制御、振動制御、または所定アプリケーションの起動制御等である。
(通信部)
通信部12は、無線/有線により外部装置と接続し、データの送受信を行う機能を有する。本実施形態による通信部12は、サーバ20と接続し、例えば学習データに基づいて算出された行動特徴量を受信する。
(撮像部)
撮像部4は、撮像レンズ4a、絞り、ズームレンズ、及びフォーカスレンズ等により構成されるレンズ系と、レンズ系に対してフォーカス動作やズーム動作を行わせる駆動系と、レンズ系で得られる撮像光を光電変換して撮像信号を生成する固体撮像素子アレイ等とを有する。固体撮像素子アレイは、例えばCCD(Charge Coupled Device)センサアレイや、CMOS(Complementary Metal Oxide Semiconductor)センサアレイにより実現されてもよい。
撮像レンズ4aは、上述したように、情報処理装置1がユーザに装着された状態で、ユーザが視認する方向を被写体方向として撮像するように、前方に向けて配置されている。これにより、撮像部4は、ユーザと会話している相手の顔を撮像することが可能である。
(音声入力部)
音声入力部5は、図1に示したマイクロホン5a、5bと、そのマイクロホン5a、5bで得られた音声信号を増幅処理するマイクアンプ部やA/D変換器を有し、音声データを主制御部10に出力する。主制御部10では、音声入力部5で得られた音声データに対して、ノイズ除去、音源分離等の処理を行った上で音声認識を行うことで、ユーザによる音声入力を可能にする。また、主制御部10では、音声入力部5で得られた音声データに対して、ノイズ除去、音源分離等の処理を行った上で音声データを記憶部14に記憶させることで、録音を可能にする。
(表示部)
表示部2は、出力制御部120による制御に従って、画像データを表示する。また、表示部2は、上述したように、透過型の表示デバイスであってもよい。
(音声出力部)
音声出力部3は、図1に示した一対のイヤホンスピーカ3a、3bと、そのイヤホンスピーカ3a、3bに対するアンプ回路を有する。また、音声出力部3は、いわゆる骨伝導スピーカとして構成されてもよい。音声出力部3は、出力制御部120による制御に従って、音声信号データを出力(再生)する。
(振動部)
振動部7は、情報処理装置1を振動させる機能を有し、例えば偏心モータ、リニアバイブレータ、ピエゾ素子等により実現される。振動部7は、出力制御部120による制御に従って、情報処理装置1を振動させてユーザに注意を促すことが可能である。
(記憶部)
記憶部14は、主制御部10が各種処理を実行するためのプログラム等を記憶する。また、記憶部14は、頭部の動きの学習データに基づいて算出された行動特徴量を記憶していてもよい。
以上、情報処理装置1の構成について詳細に説明した。次に、サーバ20の基本構成について図8を参照して説明する。
<2−2.サーバの構成>
図8は、本実施形態によるサーバ20の基本構成を示すブロック図である。図8に示すように、サーバ20は、特徴量算出部26、通信部22、および教師データ記憶部24を有する。
(通信部)
通信部22は、外部装置と接続し、データの送受信を行う機能を有する。本実施形態による通信部22は、情報処理装置1と接続し、後述する特徴量算出部26により算出された各行動の特徴量を送信する。
(教師データ記憶部)
教師データ記憶部24は、頭部の動きにより推定し得る各行動の教師データを記憶する。
(特徴量算出部)
特徴量算出部26は、教師データ記憶部24に記憶されている各行動の頭部の動きを示す教師データ、または通信部22を介して多数のユーザが装着する情報処理装置1から収集した各行動時の頭部の動きの検知データ等の学習データに基づいて、各行動時の頭部の動きの特徴量を算出(学習)する。特徴量の算出(学習)方法については特に限定しないが、例えばSVM(Support Vector Machine)や決定木等が用いて分析してもよい。具体的には、特徴量算出部26は、例えば頭部の動きの検知データ(加速度や角速度等)の強度、分散、または相関等を分析して特徴量を学習する。
以上、本実施形態によるサーバ20の構成について説明した。続いて、本実施形態による行動推定システムの動作処理について図9〜図10に示すフローチャートを参照して説明する。
<<3.動作処理>>
<3−1.特徴量学習処理>
図9は、本実施形態による特徴量学習(算出)処理を示すフローチャートである。図9に示すように、まず、ステップS103において、サーバ20の特徴量算出部26は、教師データとなる各行動時のセンサ値(検知データ)を取得する。具体的には、例えば特徴量算出部26は、教師データ記憶部24から各行動時のセンサ値(検知データ)を抽出する。
次に、ステップS106において、特徴量算出部26は、教師データとなる各行動時のセンサ値に基づいて、特徴量を学習(算出)する。
続いて、ステップS109において、特徴量算出部26は、算出した特徴量を、ユーザの頭部に装着される情報処理装置1に出力(送信)する。また、特徴量算出部26は、算出した特徴量を、サーバ20が有する特徴量記憶部(不図示)に格納してもよい。いずれの場合も、特徴量算出部26は、情報処理装置1からの要求に応じて、各行動時の特徴量を送信する。
以上が、行動推定処理の前に行われる特徴量の学習処理である。
<3−2.行動推定処理>
図10は、本実施形態による基本的な行動推定処理を示すフローチャートである。図10に示すように、まず、ステップS203において、情報処理装置1の主制御部10は、ユーザの頭部に装着される情報処理装置1に搭載された頭部センサ系6から、各種センサ値(すなわち頭部の動き)を取得する。
次に、ステップS206において、行動推定部110は、取得した各種センサ値と、教師データの特徴量とを比較し、ユーザの行動を推定する。すなわち、行動推定部110は、リアルタイムで取得したユーザの頭部の動きが、どの行動の教師データに基づく特徴量と一致するか否かに応じて、ユーザの行動を推定する。なお、教師データの特徴量が学習できていない場合、行動推定部110は、多数の他ユーザの頭部の動きを検知した検知データを用いて各行動の特徴量を学習し(教師なし学習)、学習した特徴量に基づいて行動推定することも可能である。
そして、ステップS209において、出力制御部120は、行動推定部110により推定されたユーザの行動に応じた所定の出力制御を行う。所定の出力制御とは、例えば表示内容の制御、音声出力制御、振動制御、または所定アプリケーションの起動制御の少なくともいずれかである。出力制御部120は、推定された行動に応じた所定の出力制御を行うことで、日常的に頭部ウェラブルデバイスを装着して生活している際に発生する危険への対策や、コミュニケーションの活性化等を実現することができる。
以上、本実施形態による行動推定処理について具体的に説明した。次に、上記S209に示した所定の出力制御について、複数の具体例を挙げて説明する。
<<4.出力制御>
<4−1.危険回避のための表示制御>
例えば行動推定部110により「階段を昇降している」と推定された場合、出力制御部120は、ユーザの視界のうち足元を隠さないような表示制御を行い、危険回避を実現する。ここで、階段昇降時の表示制御の一例を図11に示す。
出力制御部120は、通常、知人からのメッセージを表示する際、透過型の表示部2を介してユーザが見ている視界に含まれる表示画面30において、図11上に示すように画面中央に表示する。
しかし階段の昇降時には足元と表示画面30に表示される文字とが重なって足元が見え難く危険であるので、出力制御部120は、例えば図11下の表示画面31に示すように、表示位置を上方に変更(また、必要であれば表示内容を簡略化した上で変更)することで、足元を隠さないような表示制御を行う。
また、出力制御部120は、行動推定部110により「走っている」と推定された場合、表示部2に表示する文字や画像等の大きさを通常時(歩行時)より縮小したり、表示内容を簡略化したりして表示面積を小さくすることで、ユーザの視界を遮らないよう表示制御して危険を回避する。
このように、リアルタイムで推定された行動に応じた表示制御により、日常的に透過型の頭部ウェラブルデバイスを装着して生活している際に発生する危険を回避することができる。
<4−2.コミュニケーションの活性化>
続いて、推定された行動に応じた出力制御によりコミュニケーションを活性化する場合の具体例について説明する。
まず、コミュニケーションの一例として、現実空間において実際に対話している行動が挙げられる。ここで、透過型の表示部2が搭載されたメガネ型HMDである情報処理装置1を装着して人と会話している場合のユーザの視界に含まれる表示画面例を図12に示す。
図12に示すように、人と会話している際に透過型の表示部2における表示画面32に表示されている情報の量が通常時のままの場合、表示されている情報が気になって対話している人物とのコミュニケーションが十分に図れないことが想定される。
そこで、出力制御部120は、行動推定部110により会話中と推定された場合、図12の表示画面33に示すように、表示する情報量を通常時よりも少なくする制御を行うことで、透過型ウェアラブルデバイスによって引き起こされる現実世界とのコミュニケーションの阻害を防ぐ。

具体的には、出力制御部120は、例えば新着メールの通知を行う際、通常時は図12左の表示画面32に示すように、新着件数、送信者、およびタイトル等を表示するが、会話中は図12右の表示画面33に示すように、「新着メール」の文字のみを表示する。または、アイコンのみの表示や、何の表示も行わないことで、現実世界のコミュニケーションの阻害を防ぐことができる。
以上、情報量の削減によりコミュニケーションを活性化する方法について述べたが、本実施形態はこれに限定されず、例えば情報の表示位置の制御によりコミュニケーションを活性化することも可能である。以下、図13を参照して具体的に説明する。
図13は、表示位置の制御によりコミュニケーションを活性化する場合について説明するための図である。図13左に示す例では、ユーザの視界に含まれる表示画面34に表示される情報の表示位置は定位置に制御される。この場合、対話している相手の顔が動いても、表示画面35に示すように、情報の表示位置は定位置から変更されない。このように、情報が常に定位置に表示されることで、ユーザは常に決まった位置に視線を向ければ必ず情報が得られるという安心感を得られる。
しかしながら、相手の顔の位置によっては表示情報と重なってコミュニケーションが取り難い場合が生じ得る。
そこで、他の方法として、会話している相手の顔の位置を認識し、相手の顔と重ならないように表示情報の表示位置を制御する方法が考え得る。相手の顔の位置は、例えば情報処理装置1に外側に向けて設けられた撮像レンズ4a(図1参照)を用いて撮像部4により撮像された撮像画像に基づいて認識される。
具体的には、まず、主制御部10は、行動推定部110により会話中と推定された場合、撮像部4による撮像を開始し、撮像画像に基づいて顔認識を行い、会話している相手の顔の位置を把握する。
次いで、出力制御部120は、撮像画像に基づいて認識された顔の位置に応じて、表示部2に表示する情報の表示位置が、ユーザが表示部2を介して見ている相手の顔に重ならないよう制御する。また、出力制御部120は、撮像部4により継続的に撮像される撮像画像に基づく相手の顔の位置の変化に応じて、情報の表示位置を変化させる。これにより、図13右の表示画面36、37に示すように、ユーザが会話をしている相手の顔の位置が変化した場合も、常に相手の顔と重ならないように情報の表示位置が制御されるので、コミュニケーションの活性化が実現する。
なお、以上説明したコミュニケーションの活性化では、実空間において対面する人物と会話している際の表示制御について説明したが、本実施形態はこれに限定されず、例えばユーザの注目対象が人物以外の場合にも同様に適用することが可能である。具体的には、行動推定部110により、ユーザがPCやスマートフォン等の端末を操作したり、TVを閲覧したりしていると推定された場合、出力制御部120は、情報量を少なくしたり、注目対象の端末やTVの画面を避けて情報を表示するよう制御したりする。
これにより、ユーザが日常的に頭部ウェアラブルデバイス(情報処理装置1)を装着して人物以外に注目して行動している場合も、ユーザの視界を遮らないよう表示制御することにより、情報処理装置1の利便性が向上する。
<4−3.アプリケーションへの応用>
また、本実施形態による出力制御部120は、推定された行動に応じて、所定のアプリケーションを起動する制御を行ってもよい。具体的には、例えば、行動推定部110により「居眠りをしている」と推定された場合、出力制御部120は、居眠り防止のアプリケーションを起動させる。かかるアプリケーションに従って、出力制御部120は、例えば振動部7をONし、ユーザに振動を与えることで起床を促すことができる。
そして、行動推定部110により、「起床した」との行動が推定された場合、出力制御部120は、振動部7をOFFし、居眠り防止のアプリケーションを終了させる。
また、予め居眠りが推定された場合に起動するアプリケーションは、上述した居眠り防止アプリケーションの他、例えば節電アプリケーションや、ビデオアプリケーション等であってもよい。
居眠りに応じて節電アプリケーションを起動した場合、出力制御部120は、表示部2の電源をOFFしたり、情報処理装置1の電源をスリープモードに移行させたり等の制御を行い、ユーザが居眠りしている間の消費電力を削減する。
また、居眠りに応じてビデオアプリケーションを起動した場合、出力制御部120は、撮像部4により周囲の様子を撮影し、また、音声入力部5により周囲の音声を録音することで、ユーザが居眠りしている間の周囲の状況を記録する。
以上説明したアプリケーションはいずれも居眠り行動が推定された場合に起動されるアプリケーションの一例であるが、どのアプリケーションを起動させるかは予めユーザが設定していてもよい。
また、推定される行動は「居眠り」に限定されず、例えば「食事中」と推定された場合、出力制御部120は、予め設定された健康管理アプリケーションを起動させてもよい。かかるアプリケーションに従って、出力制御部120は、例えば表示部2に「食べ過ぎ注意」等の通知を表示し、ユーザに警告を行うことができる。
また、健康管理アプリケーションが起動された場合、行動推定部110は、頭部の動きに基づいて咀嚼行動を推定し、出力制御部120は、咀嚼行動の回数をカウントして健康管理アプリケーションに咀嚼回数データを出力してもよい。
以上説明したように、本実施形態による出力制御部120は、推定された行動に応じて所定のアプリケーションを自動的に起動させ、情報処理装置1の利便性を向上させることができる。
<<5.まとめ>>
上述したように、本開示の実施形態による情報処理装置1は、ユーザの頭部に装着され、ユーザの頭部に特徴的な動きに基づいてユーザの行動をよりロバストに推定することができる。
また、頭部に装着される情報処理装置1は、人によって所持(装着)の仕方が異なることは無いので、複数のユーザに装着される各情報処理装置1において、教師データとなる各行動の動きに基づく特徴量を共通して利用することができる。また、これにより従来のスマートフォン等の人によって所持の仕方が異なる場合の膨大な学習データの問題を解決することができる。
さらに、本実施形態による情報処理装置1は、推定した行動に応じて、自動的に所定の出力制御を行うことで、日常的に頭部ウェラブルデバイスを装着して生活している際に発生する危険への対策や、コミュニケーションの活性化等を実現することができる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上述した情報処理装置1に内蔵されるCPU、ROM、およびRAM等のハードウェアに、情報処理装置1の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
また、上記実施形態は、教師データ記憶部24および特徴量算出部26がサーバ20に設けられ、行動推定部110および出力制御部120は情報処理装置1に設けられるものとしたが、本技術はかかる例に限定されない。例えば、これらの構成全てをサーバ20に設けてもよく、あるいは情報処理装置1に設けてもよい。
また、上記実施形態は、表示部2、頭部センサ系6、および主制御部10が、頭部に装着されるウェアラブルデバイス(情報処理装置1)に全て設けられるものとしたが、本技術はかかる例に限定されない。例えば、これらの構成のうち、表示部2および頭部センサ系6は頭部に装着されるウェアラブルデバイスに設けられ、主制御部10は、ユーザが所持するスマートフォンや携帯電話端末、PDA(Personal Digital Assistant)、タブレット端末等に設けられていてもよい。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、本技術は以下のような構成も取ることができる。
(1)
ユーザの頭部に装着され頭部の動きを検知する検知部により検知されたデータと、学習データに基づいて算出された行動特徴量とを比較し、前記ユーザの行動を推定する推定部と、
前記推定部により推定された行動に応じた制御を行う制御部と、
を備える、情報処理装置。
(2)
前記推定部は、前記検知されたデータと、予め教師データに基づいて算出された行動特徴量とを比較することで、前記ユーザの行動を推定する、前記(1)に記載の情報処理装置。
(3)
前記制御部は、前記推定された行動に応じた出力制御を行う、前記(1)または(2)に記載の情報処理装置。
(4)
前記出力制御は、表示内容の制御、音声出力制御、振動制御、または所定アプリケーションの起動制御の少なくともいずれかである、前記(3)に記載の情報処理装置。
(5)
前記行動特徴量は、学習データに基づいて分析された強度、分散、または相関の値である、前記(1)〜(4)のいずれか1項に記載の情報処理装置。
(6)
前記検知部は、ジャイロセンサ、加速度センサ、または地磁気センサの少なくともいずれかである、前記(1)〜(5)のいずれか1項に記載の情報処理装置。
(7)
前記情報処理装置は、
前記情報処理装置が前記ユーザの頭部に装着された際に、前記ユーザの眼前に配置される透過型の表示部をさらに備える、前記(1)〜(6)のいずれか1項に記載の情報処理装置。
(8)
前記制御部は、前記推定部により推定された行動に応じて、前記情報処理装置が前記ユーザの頭部に装着されるウェアラブルデバイスである場合に、前記ユーザの眼前に配置される透過型の表示部の表示内容を制御する、前記(1)〜(7)のいずれか1項に記載の情報処理装置。
(9)
前記制御部は、前記推定部により推定された行動に予め対応付けられたアプリケーションを起動するよう制御する、前記(1)〜(8)のいずれか1項に記載の情報処理装置。
(10)
ユーザの頭部に装着され頭部の動きを検知する検知部により検知されたデータと、学習データに基づいて算出された行動特徴量とを比較し、前記ユーザの行動を推定するステップと、
前記推定された行動に応じた制御を行うステップと、
を含む、制御方法。
(11)
コンピュータを、
ユーザの頭部に装着され頭部の動きを検知する検知部により検知されたデータと、学習データに基づいて算出された行動特徴量とを比較し、前記ユーザの行動を推定する推定部と、
前記推定部により推定された行動に応じた制御を行う制御部と、
として機能させるための、プログラム。
1 情報処理装置
2(2a、2b) 表示部
3 音声出力部
3a、3b イヤホンスピーカ
4 撮像部
4a 撮像レンズ
5 音声入力部
5a、5b マイクロホン
6 頭部センサ系
6a 重力加速度センサ
6b ジャイロセンサ
7 振動部
10 主制御部
110 行動推定部
120 出力制御部
12 通信部
14 記憶部
20 サーバ
22 通信部
24 教師データ記憶部
26 特徴量算出部

Claims (17)

  1. ユーザの頭部に装着され頭部の動きを検知する検知部により検知されたデータと、学習データに基づいて算出された行動特徴量とを比較し、前記ユーザの行動を推定する推定部と、
    前記推定部により推定された行動に応じた表示制御を行う制御部と、
    を備え、
    前記推定部は、前記検知部により検知された前記ユーザの頭部の動きが、所定の行動中に起こる頭部の特徴的な動きを示す行動特徴量と一致する場合、前記ユーザが対象に注目する行動中であると推定し、
    前記制御部は、前記推定部により前記ユーザが対象に注目する行動が推定された際、当該ユーザの眼前に位置する表示部に表示する情報の態様を制御する、情報処理装置。
  2. 前記制御部は、対象に注目する行動が推定された際、表示する情報の量を削減する制御を行う、請求項1に記載の情報処理装置。
  3. 前記制御部は、通知情報の内容は表示せず通知情報の存在有無を表示することで表示情報の量を削減する、請求項2に記載の情報処理装置。
  4. 前記制御部は、文字またはアイコンにより通知情報の存在を通知する、請求項3に記載の情報処理装置。
  5. 前記制御部は、対象に注目する行動が推定された際、情報の表示位置を制御する、請求項1〜4のいずれか1項に記載の情報処理装置。
  6. 前記制御部は、対象に注目する行動が推定された際、予め設定した固定位置に情報を表示するよう制御する、請求項5項に記載の情報処理装置。
  7. 前記制御部は、注目対象の位置に応じて情報の表示位置を制御する、請求項5項に記載の情報処理装置。
  8. 前記制御部は、前記注目対象を継続的に認識し、前記情報が重畳しないよう継続的に表示位置を制御する、請求項7に記載の情報処理装置。
  9. 前記ユーザが対象に注目する行動は、対話行動である、請求項2〜8のいずれか1項に記載の情報処理装置。
  10. 前記ユーザが対象に注目する行動は、対話行動であって、
    前記注目対象は、前記ユーザが対話する相手の顔である、請求項7または8に記載の情報処理装置。
  11. 前記注目対象は、前記ユーザが見ている表示画面である、請求項7または8に記載の情報処理装置。
  12. 前記注目対象は、前記ユーザが操作している情報処理端末である、請求項7または8に記載の情報処理装置。
  13. 前記検知部は、ジャイロセンサ、加速度センサ、または地磁気センサの少なくともいずれかである、請求項1〜12のいずれか1項に記載の情報処理装置。
  14. 前記推定部は、前記検知部により検知された前記ユーザの頭部の3軸方向の動きが、対話中の頷きによる頭部の特徴的な動きを示す行動特徴量と一致する場合、前記ユーザが対話中であると推定する、請求項13に記載の情報処理装置。
  15. 前記情報処理装置は、前記ユーザの頭部に装着される装置であって、
    前記ユーザの眼前に位置する透過型の表示部をさらに備える、請求項1〜14のいずれか1項に記載の情報処理装置。
  16. プロセッサが、
    ユーザの頭部に装着され頭部の動きを検知する検知部により検知されたデータと、学習データに基づいて算出された行動特徴量とを比較し、前記ユーザの行動を推定するステップと、
    前記推定された行動に応じた表示制御を行うステップと、
    を含み、
    前記推定するステップは、前記検知部により検知された前記ユーザの頭部の動きが、所定の行動中に起こる頭部の特徴的な動きを示す行動特徴量と一致する場合、前記ユーザが対象に注目する行動中であると推定し、
    前記表示制御を行うステップは、前記ユーザが対象に注目する行動が推定された際、当該ユーザの眼前に位置する表示部に表示する情報の態様を制御する、制御方法。
  17. コンピュータを、
    ユーザの頭部に装着され頭部の動きを検知する検知部により検知されたデータと、学習データに基づいて算出された行動特徴量とを比較し、前記ユーザの行動を推定する推定部と、
    前記推定部により推定された行動に応じた表示制御を行う制御部と、
    として機能させ、
    前記推定部は、前記検知部により検知された前記ユーザの頭部の動きが、所定の行動中に起こる頭部の特徴的な動きを示す行動特徴量と一致する場合、前記ユーザが対象に注目する行動中であると推定し、
    前記制御部は、前記推定部により前記ユーザが対象に注目する行動が推定された際、当該ユーザの眼前に位置する表示部に表示する情報の態様を制御する、プログラム。
JP2015546313A 2013-11-08 2014-08-05 情報処理装置、制御方法およびプログラム Active JP6402718B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013231711 2013-11-08
JP2013231711 2013-11-08
PCT/JP2014/070652 WO2015068440A1 (ja) 2013-11-08 2014-08-05 情報処理装置、制御方法およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2015068440A1 JPWO2015068440A1 (ja) 2017-03-09
JP6402718B2 true JP6402718B2 (ja) 2018-10-10

Family

ID=53041225

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015546313A Active JP6402718B2 (ja) 2013-11-08 2014-08-05 情報処理装置、制御方法およびプログラム

Country Status (4)

Country Link
US (1) US10359839B2 (ja)
EP (1) EP3067782B1 (ja)
JP (1) JP6402718B2 (ja)
WO (1) WO2015068440A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10973440B1 (en) * 2014-10-26 2021-04-13 David Martin Mobile control using gait velocity
JP6404196B2 (ja) * 2015-09-16 2018-10-10 グリー株式会社 仮想画像表示プログラム、仮想画像表示装置及び仮想画像表示方法
JP2017136142A (ja) * 2016-02-02 2017-08-10 セイコーエプソン株式会社 情報端末、動作評価システム、動作評価方法、動作評価プログラム、及び記録媒体
JP7074343B2 (ja) * 2016-09-08 2022-05-24 ソニーグループ株式会社 情報処理装置
US11183167B2 (en) 2017-03-24 2021-11-23 Sony Corporation Determining an output position of a subject in a notification based on attention acquisition difficulty
JP2019101811A (ja) * 2017-12-04 2019-06-24 富士通株式会社 処理プログラム、処理方法及び処理装置、並びに表示プログラム、表示方法及び表示制御装置
JP2021165864A (ja) * 2018-06-18 2021-10-14 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
JP7271909B2 (ja) * 2018-11-09 2023-05-12 セイコーエプソン株式会社 表示装置、及び、表示装置の制御方法
US20230009290A1 (en) * 2020-03-27 2023-01-12 Sony Group Corporation Display device and display method
JP7460279B2 (ja) 2020-07-09 2024-04-02 アルプスアルパイン株式会社 監視装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0944297A (ja) * 1995-07-25 1997-02-14 Canon Inc データ入力方法及びその装置
JPH09269889A (ja) * 1996-04-02 1997-10-14 Sharp Corp 対話装置
JP2006333355A (ja) 2005-05-30 2006-12-07 Toshiba Corp 携帯情報処理装置およびその操作方法
JP5036177B2 (ja) * 2005-12-12 2012-09-26 オリンパス株式会社 情報表示装置
JP2008067219A (ja) * 2006-09-08 2008-03-21 Sony Corp 撮像装置、撮像方法
JP5236423B2 (ja) * 2008-10-17 2013-07-17 Kddi株式会社 表示システム、表示方法およびプログラム
JP5481890B2 (ja) * 2009-03-12 2014-04-23 ブラザー工業株式会社 ヘッドマウントディスプレイ装置、画像制御方法および画像制御プログラム
US8964298B2 (en) * 2010-02-28 2015-02-24 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display
US20120206334A1 (en) * 2010-02-28 2012-08-16 Osterhout Group, Inc. Ar glasses with event and user action capture device control of external applications
JP5392157B2 (ja) 2010-03-19 2014-01-22 富士通株式会社 モーション判定装置、モーション判定方法、およびコンピュータプログラム
JP2012203128A (ja) * 2011-03-24 2012-10-22 Seiko Epson Corp 頭部装着型表示装置および頭部装着型表示装置の制御方法
US8911087B2 (en) * 2011-05-20 2014-12-16 Eyefluence, Inc. Systems and methods for measuring reactions of head, eyes, eyelids and pupils
JP6031735B2 (ja) 2011-06-13 2016-11-24 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
US8184070B1 (en) * 2011-07-06 2012-05-22 Google Inc. Method and system for selecting a user interface for a wearable computing device
JP5829097B2 (ja) 2011-10-25 2015-12-09 オリンパス株式会社 頭部装着型表示装置、プログラム及び画像処理システム
US9445172B2 (en) * 2012-08-02 2016-09-13 Ronald Pong Headphones with interactive display
US9507426B2 (en) * 2013-03-27 2016-11-29 Google Inc. Using the Z-axis in user interfaces for head mountable displays

Also Published As

Publication number Publication date
JPWO2015068440A1 (ja) 2017-03-09
EP3067782A1 (en) 2016-09-14
EP3067782A4 (en) 2017-07-26
EP3067782B1 (en) 2021-05-05
WO2015068440A1 (ja) 2015-05-14
US20160231808A1 (en) 2016-08-11
US10359839B2 (en) 2019-07-23

Similar Documents

Publication Publication Date Title
JP6402718B2 (ja) 情報処理装置、制御方法およびプログラム
US11153431B2 (en) Mobile terminal and method of operating the same
US20230333377A1 (en) Display System
JP6574937B2 (ja) 通信システム、制御方法、および記憶媒体
KR102316327B1 (ko) 가상 공간의 캡쳐 방법 및 그 전자장치
JP6361649B2 (ja) 情報処理装置、通知状態制御方法及びプログラム
WO2014156389A1 (ja) 情報処理装置、提示状態制御方法及びプログラム
US20150381885A1 (en) Glass-type terminal and method for controlling the same
US9529428B1 (en) Using head movement to adjust focus on content of a display
CN110326300B (zh) 信息处理设备、信息处理方法及计算机可读存储介质
US10721347B2 (en) Detecting patterns and behavior to prevent a mobile terminal drop event
JP6750697B2 (ja) 情報処理装置、情報処理方法及びプログラム
US11929087B2 (en) Systems and methods for selectively attenuating a voice
US10778826B1 (en) System to facilitate communication
JP6733662B2 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
US11328187B2 (en) Information processing apparatus and information processing method
KR20200031098A (ko) 정보 처리 장치, 정보 처리 방법 및 프로그램
JP2005173419A (ja) 手話解釈装置
WO2018155128A1 (ja) 表示装置、制御装置および車両
JP2021099538A (ja) 情報処理装置、情報処理方法およびプログラム
US20220311979A1 (en) Wearable apparatus for projecting information

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170622

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180508

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180702

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180814

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180827

R151 Written notification of patent or utility model registration

Ref document number: 6402718

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151