JP2017070602A - 情報処理方法、情報処理装置及びプログラム - Google Patents

情報処理方法、情報処理装置及びプログラム Download PDF

Info

Publication number
JP2017070602A
JP2017070602A JP2015200569A JP2015200569A JP2017070602A JP 2017070602 A JP2017070602 A JP 2017070602A JP 2015200569 A JP2015200569 A JP 2015200569A JP 2015200569 A JP2015200569 A JP 2015200569A JP 2017070602 A JP2017070602 A JP 2017070602A
Authority
JP
Japan
Prior art keywords
psychological
parameter
parameters
biological information
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015200569A
Other languages
English (en)
Other versions
JP6621133B2 (ja
JP2017070602A5 (ja
Inventor
一鷹 井上
Kazutaka Inoue
一鷹 井上
木村 正人
Masato Kimura
正人 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jin Co Ltd
Original Assignee
Jin Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jin Co Ltd filed Critical Jin Co Ltd
Priority to JP2015200569A priority Critical patent/JP6621133B2/ja
Publication of JP2017070602A publication Critical patent/JP2017070602A/ja
Publication of JP2017070602A5 publication Critical patent/JP2017070602A5/ja
Application granted granted Critical
Publication of JP6621133B2 publication Critical patent/JP6621133B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザ自身の心理状態がどのような状態にあるのかを直感的に把握させる。【解決手段】情報処理方法は、制御部を有するコンピュータが実行する情報処理方法であって、制御部は、変形可能な所定図形を形成する複数のオブジェクトの動く速度、各オブジェクトの位置関係の変化、及び所定図形の大きさの変化速度を示す各動きパラメータのうち、少なくとも2つの動きパラメータそれぞれに、心理パラメータを関連付けること、関連付けられた少なくとも2つの心理パラメータを取得すること、各心理パラメータが取得される度に、各心理パラメータの変動に基づいて各動きパラメータを更新すること、更新された各動きパラメータに基づく所定図形を画面に表示制御すること、を実行する。【選択図】図4

Description

本発明は、情報処理方法、情報処理装置及びプログラムに関する。
従来、心理検査データを表示する場合に、心理検査の回答結果の特徴あるいは類似性を色合い又は色の濃淡のパターンとして表示することが知られている(例えば、特許文献1参照)。
特開2008−148798号公報
しかしながら、従来技術の表示形態は、表示される色合いや濃淡を見たユーザが自分の心理状態がどのような状態にあるのかを直感的に把握することができるものではない。
そこで、開示技術は、ユーザ自身の心理状態がどのような状態にあるのかを直感的に把握させることを目的とする。
開示技術の一態様における情報処理方法は、制御部を有するコンピュータが実行する情報処理方法であって、前記制御部は、変形可能な所定図形を形成する複数のオブジェクトの動く速度、各オブジェクトの位置関係の変化、及び前記所定図形の大きさの変化速度を示す各動きパラメータのうち、少なくとも2つの動きパラメータそれぞれに、心理状態を示す心理パラメータを関連付けること、関連付けられた少なくとも2つの心理パラメータを取得すること、前記少なくとも2つの心理パラメータが取得される度に、各心理パラメータの変動に基づいて各動きパラメータを更新すること、更新された各動きパラメータに基づく前記所定図形を画面に表示制御すること、を実行する。
開示技術によれば、ユーザ自身の心理状態がどのような状態にあるのかを直感的に把握させることができる。
実施例における情報処理システムの一例を示す図である。 実施例における情報処理装置のハードウェア構成を示す概略構成図である。 実施例における処理装置の構成の一例を示すブロック図である。 実施例における情報処理装置の構成の一例を示す図である。 実施例における取得部の構成の一例を示すブロック図である。 実施例における表示制御部の構成の一例を示すブロック図である。 複数種類の生体情報のデータ例を示す図である。 各心理パラメータのデータ例を示す図である。 心理アプリケーションの表示画面の第1例を示す図である。 心理アプリケーションの表示画面の第2例を示す図である。 心理アプリケーションの表示画面の第3例を示す図である。 心理アプリケーションの表示画面の第4例を示す図である。 実施例におけるアプリケーションの全体処理の一例を示すフローチャートである。 実施例における取得処理の一例を示すフローチャートである。 実施例における表示制御処理の一例を示すフローチャートである。
以下、図面を参照して本発明の実施の形態を説明する。ただし、以下に説明する実施形態は、あくまでも例示であり、以下に明示しない種々の変形や技術の適用を排除する意図はない。即ち、本発明は、その趣旨を逸脱しない範囲で種々変形して実施することができる。また、以下の図面の記載において、同一または類似の部分には同一または類似の符号を付して表している。図面は模式的なものであり、必ずしも実際の寸法や比率等とは一致しない。図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることがある。
[実施例]
実施例では、加速度センサ及び角速度センサ、生体電極を搭載する対象として、アイウエアを例に挙げるが、これに限られない。図1は、実施例における情報処理システム1の一例を示す図である。図1に示す情報処理システム1は、外部装置10とアイウエア30とサーバ40を含み、外部装置10とアイウエア30とサーバ40は、ネットワークを介して接続され、データ通信可能になっている。
アイウエア30は、例えばテンプル部分に処理装置20を搭載する。処理装置20は、3軸加速度センサ及び3軸角速度センサ(6軸センサでもよい)を含む。また、アイウエア30は、一対のノーズパッド及びブリッジ部分にそれぞれ生体電極31、33、35を有する。アイウエア30に設けられる生体電極から取得される眼電位信号は、処理装置20に送信される。生体電極は、瞬目や視線移動等を検出するために設けられているが、画像処理により瞬目や視線移動等を検出する場合には、生体電極は設けられなくてもよい。
処理装置20は、センサ信号や眼電位信号等を外部装置10やサーバ40に送信する。処理装置20の設置位置は、必ずしもテンプルである必要はないが、アイウエア30が装着された際のバランスを考慮して位置決めされればよい。
外部装置10は、通信機能を有する情報処理装置である。例えば、外部装置10は、ユーザが所持する携帯電話及びスマートフォン等の携帯通信端末、パーソナルコンピュータ、タブレット端末等である。外部装置10は、処理装置20から受信したセンサ信号や眼電位信号等に基づいて、ユーザの心理状態を示す複数のオブジェクトから形成される所定図形を表示する。以下、外部装置10は、情報処理装置10と称して説明する。
サーバ40は、処理装置20からセンサ信号や眼電位信号等を取得し、記憶する。また、サーバ40は、必要に応じて外部装置10からのリクエストに応じ、センサ信号や眼電位信号等を外部装置10に送信する。また、サーバ40は、センサ信号や眼電位信号を用いて、所定基準に従って、心理状態を示す1又は複数種類の心理パラメータを算出してもよい。
<情報処理装置10のハードウェア構成>
図2は、実施例における情報処理装置10のハードウェア構成を示す概略構成図である。情報処理装置10の典型的な一例は、スマートフォンなどの携帯電話であるが、この他、ネットワークに無線又は有線接続可能な携帯端末、あるいはタブレット型端末のようなタッチパネルを搭載した電子機器など、ネットワークを使って通信しながらデータ処理しつつ画面表示可能な汎用機器なども実施形態における情報処理装置10に該当しうる。
実施形態における情報処理装置10は、例えば、図示しない矩形の薄形筐体を備え、その筐体の一方の面には、タッチパネル102が構成される。情報処理装置10では、各構成要素が主制御部150に接続されている。主制御部150は、例えばプロセッサである。
主制御部150には、移動体通信用アンテナ112、移動体通信部114、無線LAN通信用アンテナ116、無線LAN通信部118、記憶部120、スピーカ104、マイクロフォン106、ハードボタン108、ハードキー110及び6軸センサ111が接続されている。また、主制御部150には、さらに、タッチパネル102、カメラ130、及び外部インターフェース140が接続されている。外部インターフェース140は、音声出力端子142を含む。
タッチパネル102は、表示装置及び入力装置の両方の機能を備え、表示機能を担うディスプレイ(表示画面)102Aと、入力機能を担うタッチセンサ102Bとで構成される。ディスプレイ102Aは、例えば、液晶ディスプレイや有機EL(Electro Luminescence)ディスプレイなどの一般的な表示デバイスにより構成される。タッチセンサ102Bは、ディスプレイ102Aの上面に配置された接触操作を検知するための素子及びその上に積層された透明な操作面を備えて構成される。タッチセンサ102Bの接触検知方式としては、静電容量式、抵抗膜式(感圧式)、電磁誘導式など既知の方式のうちの任意の方式を採用することができる。
表示装置としてのタッチパネル102は、主制御部150によるプログラム122の実行により生成されるアプリケーションの画像を表示する。入力装置としてのタッチパネル102は、操作面に対して接触する接触物(プレイヤの指やスタイラスなどを含む。以下、「指」である場合を代表例として説明する。)の動作を検知することで、操作入力を受け付け、その接触位置の情報を主制御部150に与える。指の動作は、接触点の位置または領域を示す座標情報として検知され、座標情報は、例えば、タッチパネル102の短辺方向及び長辺方向の二軸上の座標値として表される。
記憶部120は、ユーザの心理状態を示すための各オブジェクトを表示制御する処理を実行するプログラム122を記憶する。この記憶部120は、外部装置10と別体であってもよく、例えば、SDカードやCD−RAM等の記録媒体であってもよい。
情報処理装置10は、移動体通信用アンテナ112や無線LAN通信用アンテナ116を通じてネットワークNに接続され、処理装置20やサーバ40との間でデータ通信をすることが可能である。
<処理装置20の構成>
図3は、実施例における処理装置20の構成の一例を示すブロック図である。図3に示すように、処理装置20は、処理部202、送信部204、6軸センサ206、及び電源部208を有する。また、各生体電極31、33、35は、例えば増幅部を介して電線を用いて処理部202に接続される。なお、処理装置20の各部は、一方のテンプルに設けられるのではなく、一対のテンプルに分散して設けられてもよい。
6軸センサ206は、3軸加速度センサ及び3軸角速度センサである。また、これらの各センサは別個に設けられてもよい。6軸センサ206は、検出したセンサ信号(又は検出データとも称す)を処理部202に出力する。
処理部202は、例えばプロセッサであり、6軸センサ206から得られるセンサ信号や、生体電極から得られる眼電位信号を必要に応じて処理し、送信部204に出力する。例えば、処理部202は、眼電位信号を用いて、瞬目に関する第1生体情報、視線移動に関する第2生体情報を算出する。
また、処理部202は、6軸センサ206からのセンサ信号を用いて、体動に関する第3生体情報を算出する。体動に関する情報は、例えば所定時間内における歩数を示す情報である。また、処理部202は、6軸センサ206から得られるセンサ信号を増幅等するだけでもよい。以下では、第1生体情報、第2生体情報、及び/又は第3生体情報について、処理部202により算出される例を用いて説明するが、情報処理装置10又はサーバ40により算出されてもよい。
送信部204は、処理部202によって処理された第1生体情報、第2生体情報及び/又は第3生体情報を含む各情報を情報処理装置10やサーバ40に送信する。例えば、送信部204は、Bluetooth(登録商標)及び無線LAN等の無線通信、又は有線通信によってセンサ信号又は各生体情報を情報処理装置10やサーバ40に送信する。電源部208は、処理部202、送信部204、6軸センサ206等に電力を供給する。
<情報処理装置10の構成>
次に、情報処理装置10の構成について説明する。図4は、実施例における情報処理装置10の構成の一例を示す図である。情報処理装置10は、記憶部302、通信部304、及び制御部306を有する。
記憶部302は、例えば、図2に示す記憶部120等により実現されうる。記憶部302は、実施例における心理状態を示す所定図形を表示するための処理を実行するアプリケーション(以下、心理アプリケーションとも称す。)に関するデータ等を記憶する。心理アプリケーションに関するデータは、例えば、処理装置20又はサーバ40から受信したデータや、画面に表示される画面情報等である。また、記憶部302は、所定図形を構成する、変形及び/又は移動可能な複数のオブジェクトの情報を記憶する。
通信部304は、例えば移動体通信部114や無線LAN通信部118等により実現されうる。通信部304は、例えば処理装置20又はサーバ40からデータを受信する。また、通信部304は、情報処理装置10において処理されたデータをサーバ40に送信したりしてもよい。すなわち、通信部304は、送信部と受信部としての機能を有する。
制御部306は、例えば主制御部150等により実現されうる。制御部306は、心理アプリケーションを実行する。実施例における心理アプリケーションは、1又は複数種類の生体情報に基づいて算出された各心理パラメータを取得し、各心理パラメータに関連付けられた各動きパラメータにより変形される所定図形を画面に表示する機能を有する。この機能を実現するため、制御部306は、関連付け部312、取得部314、及び表示制御部316を有する。
関連付け部312は、変形可能な所定図形を形成する複数のオブジェクトに対する少なくとも2つの動きパラメータに、この動きパラメータそれぞれを用いて表現可能な心理状態を示す心理パラメータを関連付ける。動きパラメータは、所定図形を形成する複数のオブジェクトの動く速さ、各オブジェクトの位置関係の変化、及び所定図形の大きさの変化速度を示す各動きパラメータを含む。
関連付けられる各心理パラメータは、エナジー(Energy)に関する第1心理パラメータと、フォーカス(Focus)又はコンセントレーション(Concentration)に関する第2心理パラメータと、カーム(Calm)に関する第3心理パラメータとを含む。
エナジーに関する第1心理パラメータは、例えば、ユーザの活力、元気、又は気力等を示すパラメータであり、瞬目や視線移動に関する生体情報及び体動に関する生体情報に基づいて算出される。フォーカスに関する第2心理パラメータは、例えば、ユーザの集中の度合、又は専念の度合等を示すパラメータであり、瞬目に関する生体情報に基づいて算出される。カームに関する第3心理パラメータは、例えば、ユーザの落ち着き度合、又は平静の度合等を示すパラメータであり、瞬目に関する生体情報に基づき算出される。
関連付け部312は、一度関連付けを行うと、以降、その関連付けの内容を用いてもよいし、ユーザ設定に応じて、適宜関連付けの内容を変更してもよい。
取得部314は、関連付け部312により関連付けられている各心理パラメータを取得する。取得部314は、サーバ40等により算出され、送信された各心理パラメータを取得したり、処理装置20等により送信された1又は複数種類の生体情報に基づいて、各心理パラメータを算出して取得したりしてもよい。取得部314の詳細は、図5を用いて後述する。
表示制御部316は、取得部314により各心理パラメータが取得される度に、この各心理パラメータの変動に基づいて各動きパラメータを更新し、更新した各動きパラメータに基づく所定図形を画面に表示制御する。例えば、表示制御部316は、それぞれの心理パラメータの変動に対応する動きを行うオブジェクト、又はこの変動に対応して変形するオブジェクトを画面に表示することで、所定図形全体を変形させる。表示制御部316の詳細は、図6を用いて後述する。
以上の処理によれば、各心理パラメータに応じてオブジェクトの位置や速度、図形全体の大きさが変更されるように、各オブジェクトから形成させる所定図形が表示されるので、ユーザ自身の心理状態がどのような状態にあるのかを直感的に容易に把握させることができる。
また、関連付け部312は、複数のオブジェクトの動く速さを示す第1動きパラメータに、第1心理パラメータを関連付け、各オブジェクトの位置関係の変化を示す第2動きパラメータに、第2心理パラメータを関連付け、所定図形の大きさの変化速度を示す第3動きパラメータに、第3心理パラメータを関連付けてもよい。
これにより、各オブジェクトの動きの激しさを用いてエナジーを示すため、動きが大きいほどエナジーが大きく、動きが小さいほどエナジーが小さいことをより直感的に表現することができる。また、各オブジェクトの位置関係の変化、例えば各オブジェクトの密度を用いてフォーカスを示すため、位置関係が変化し、各オブジェクトの密度が高いほどフォーカスが高く、密度が低いほどフォーカスが低いことをより直感的に表現することができる。また、所定図形の大きさの変化速度、例えば、図形サイズの変更の周期を用いてカームを示すため、変化速度が速いほど落ち着きがなく、変化速度が遅いほど落ち着きがあることをより直感的に表現することができる。以上より、ユーザの心理状態をより直感的に容易に把握させることができる。
≪取得部≫
次に、取得部314の詳細について説明する。図5は、実施例における取得部314の構成の一例を示すブロック図である。図5に示す取得部314は、生体情報取得部3142と、算出部3144とを含む。
生体情報取得部3142は、処理装置20又はサーバ40から、1又は複数種類の生体情報を取得する。例えば、生体情報取得部3142は、アイウエア30に設けられた生体電極から取得された眼電位信号に基づく、第1生体情報及び第2生体情報を取得し、アイウエア30に設けられた加速度センサから取得されたセンサ信号に基づく、第3生体情報を取得してもよい。また、瞬目や視線移動に関する生体情報は、眼の動きを撮像した画像を処理した装置から、取得されてもよい。
生体情報を取得するタイミングは、定期的でもよいし、情報処理装置10側から処理装置20又はサーバ40に取得要求を出した時でもよい。複数種類の生体情報は、瞬目に関する第1生体情報、視線移動に関する第2生体情報、及び体動に関する第3生体情報である。瞬目に関する第1生体情報は、瞬目回数や瞬目強度を含んでもよい。
算出部3144は、第1生体情報、第2生体情報、及び第3生体情報に基づいて第1心理パラメータを算出し、第1生体情報に基づいて第2心理パラメータを算出し、及び、第1生体情報に基づいて第3心理パラメータを算出する。
より具体的には、算出部3144は、所定時間内における、瞬目がまとまって行われた回数、視線移動の回数、所定歩以上歩いたか否かをパラメータとする関数に基づいて第1心理パラメータを算出する。また、算出部3144は、瞬目の回数を用いて第2心理パラメータを算出する。また、算出部3144は、瞬目の強度を用いて第3心理パラメータを算出する。
次に、第1〜第3心理パラメータの算出アルゴリズムの一例について説明する。まず、算出部3144は、第1〜第3心理パラメータそれぞれについて、第1ルールに基づき、1分単位で0〜2の値を算出し、第2ルールに基づき、60分単位で0〜100の値を算出する。まず、算出部3144は、以下の第1ルールに基づき、1分単位の得点を算出する。
・第1ルール
(第1心理パラメータ)
第1条件:1分間に所定歩以上歩いた
第2条件:横視線移動の回数が平均値+5以上である
第3条件:瞬目の群発の回数/瞬目の回数の比が平均値の2倍以上である(群発:所定時間内に所定回以上の瞬目があること)
エナジー(Energy)=(0.5(第1条件が肯定された後30分間)or0(第1条件が否定))
+(1(第2条件が肯定かつ第3条件が肯定)or0(第2条件が肯定かつ第3条件が肯定の場合以外))
(第2心理パラメータ)
フォーカス(Focus)=2(瞬目の回数が平均値の75%未満)or1(瞬目の回数が平均値の75%以上85%未満)or0(瞬目の回数が平均値の85%以上)
(第3心理パラメータ)
第4条件:瞬目の回数が平均値の75%以上125%以下である
第5条件:瞬目強度の最大と最小値との差が0であり、瞬目の強度最大/瞬目の強度最大の平均値≦0.8である
第6条件:瞬目の強度最大/瞬目の強度最大の平均値≦0.8であり、(瞬目の強度最大−瞬目の強度最小)/(瞬目の強度最大の平均−瞬目の強度最小の平均)≦0.75である
カーム(Calm)=(1(第4条件が肯定)or0(第4条件が否定))
+(1(第4条件が肯定又は第5条件が肯定)or0(第4条件が否定及び/又は第5条件が否定))
次に、算出部3144は、以下の第2ルールに基づき、60分単位で得点を算出する。
・第2ルール
1.評価時間(min)=Min(稼働時間,60)
2.合計点数=SUM(評価時間内の得点)
3.得点=Min(合計点数/評価時間*100,100)
また、算出部3144は、第1〜第3心理パラメータに基づいて、総合的な点数を算出することができる。総合的な点数を、以下では頭年齢と称す。頭年齢が低い(若い)ほど、ユーザが集中していることを示し、頭年齢が高いほど、ユーザが疲れていることを示す。算出部3144は、直近の60分間の各パラメータの得点を上記3により求め、以下の式により頭年齢を算出する。
頭年齢=((20+(100−Energyの得点)/2)+(20+(100−Focusの得点)/2)+(20+(100−Calmの得点)/2))/3
なお、上記算出例はあくまでも一例であって、算出部3144は、各心理パラメータが所定の関数等により定義されている場合、その関数等を用いて、パラメータ値を求めてもよい。
≪表示制御部≫
次に、表示制御部316の詳細について説明する。図6は、実施例における表示制御部316の構成の一例を示すブロック図である。図6に示す表示制御部316は、パラメータ更新部3162と、変形部3164とを含む。
パラメータ更新部3162は、取得部314(例えば算出部3144)により算出された第1〜第3心理パラメータを取得し、各心理パラメータに基づいて各動きパラメータを更新する。パラメータ更新部3162は、第1〜第3心理パラメータが取得される度に、各動きパラメータを更新する。
変形部3164は、画面に表示されている、複数のオブジェクトから形成される所定図形を、パラメータ更新部3162により更新された第1〜第3動きパラメータに基づいて変形する。これにより、第1〜第3心理パラメータが取得される度に、更新された第1〜第3動きパラメータに基づく変形後の所定図形が画面に表示されるため、ユーザは所定図形の変形具合を把握することで、自身の心理状態を直感的に把握することができる。
<データ例>
次に、実施例における心理アプリケーションに用いられる各種データの例について説明する。図7は、複数種類の生体情報のデータ例を示す図である。図7に示す例では、横軸に瞬目回数、瞬目強度、視線移動、及び体動が設定され、縦軸に単位時間(例えば1分)における時系列のデータが設定される。
瞬目回数は、所定時間(例えば、1分間)における瞬目の回数を表す。瞬目強度は、瞬目の強度を示し、所定時間(例えば、1分間)における瞬目の最大強度と、最小の強度とを含んでもよい。視線移動は、所定時間(例えば、1分間)における横方向の視線移動を検出した回数を表す。
各データは、処理装置20、サーバ40、及び情報処理装置10のいずれかにより算出されればよい。また、各データは、分散して各装置で算出されてもよい。例えば、瞬目回数、瞬目強度、及び視線移動については、処理装置20により算出され、体動の検出は、情報処理装置10により算出されてもよい。図7に示すデータは、例えば、記憶部302に記憶される。
図8は、各心理パラメータのデータ例を示す図である。図8に示す例では、横軸にエナジー、フォーカス、及びカーム(カルム)が設定され、縦軸に単位時間(例えば1分)における時系列のデータが設定される。
エナジー、フォーカス、及びカームは、例えば、上述した算出式により、単位時間(例えば、1分)ごとの得点(以下、中間値とも称す。)が記憶される。算出部3144は、直近の60分における各心理パラメータの中間値を用いて、各心理パラメータの合計得点(以下、最終値とも称す。)を求める。図8に示すデータは、例えば、記憶部302に記憶される。
<画面例>
次に、実施例における心理アプリケーションの画面例について説明する。図9は、心理アプリケーションの表示画面の第1例を示す図である。図9に示す画面には、例えば、複数のオブジェクトT10から形成される所定図形G10が表示される。図9に示す場合、各オブジェクトT10は、放射線状に配置された伸縮可能で移動可能な棒状のオブジェクトである。例えば、所定図形G10は、各オブジェクトT10から形成される円状の図形である。なお、実際の画面では、各オブジェクトT10が所定周期で円運動を行っているが、図9に示す画面は、その円運動のうちの一時点のものを示す画面である。
ここで、各オブジェクトT10は、所定図形G10の中心を中心として回転する円運動を行い、その速度は、第1心理パラメータの値によって決まる。例えば、第1心理パラメータの値が大きければ(例、活力が大きければ)、回転速度がより速くなる。
また、各オブジェクトT10は、回転しながら、お互いの位置関係や必要に応じてオブジェクトの長さを変化させ、密にしたり、疎にしたりすることができ、この疎密は、第2心理パラメータの値によって決まる。例えば、第2心理パラメータの値が大きければ(例、集中度合がより高ければ)、より各オブジェクトの位置関係が近づき密になるように配置され、オブジェクトの長さがより長くなる。
また、各オブジェクトT10は、円状の所定図形G10の中心に近づいたり離れたり周期的な運動を行う。つまり、所定図形G10のサイズが大きくなったり、小さくなったりする。この動きは、例えば、脈動をイメージしている。また、この周期的な変化の速度は、第3心理パラメータの値によって決まる。例えば、第3心理パラメータの値がより大きければ(例、落ち着き度合がより高ければ)、周期がより遅くなり、落ち着いている様子を表す。
また、所定図形G10の中心部分には、各心理パラメータを用いて算出される頭年齢A10が表示される。図9に示す例では、頭年齢A10は21歳である。
図9に示す例では、表示画面の下部に、第1心理パラメータ(Energy)P1、第2心理パラメータ(Focus)P2、第3心理パラメータ(Calm)P3が表示される。それぞれの心理パラメータは、スライドバーを用いて、各値V10、V12、V14が表示される。図9に示す例では、いずれの心理パラメータも値が高いため、頭年齢A10は、若い年齢(21歳)が表示される。
図10は、心理アプリケーションの表示画面の第2例を示す図である。図10に示す画面例は、例えば、ユーザがオフィス作業で長時間モニターを見たことにより、疲れている状態を示す図形G20が表示される。
図10に示すように、ユーザはオフィス作業をしていたため、第1心理パラメータP1の値V20は小さく、第2心理パラメータP2の値V22も小さい。また、第3心理パラメータP3の値V24は中間値以上である。
図10に示す各心理パラメータP1、P2、P3の各値に基づき、図形G20が形成され、表示される。第1心理パラメータP1の値V20が小さいことにより、図形G20の中心を中心とした回転運動の各オブジェクトT20の速度はより遅くなる。また、第2心理パラメータP2の値V22が小さいことにより、各オブジェクトT20の長さが短くなり、位置関係がより疎になる。また、第3心理パラメータP3の値V24は中間値以上であるため、サイズの変化速度は比較的遅い。
図10に示す例では、第1心理パラメータP1の値V20と、第2心理パラメータP2の値V22と、第3心理パラメータP3の値V24とが用いられ、算出された頭年齢A20「46歳」が画面に表示される。
図11は、心理アプリケーションの表示画面の第3例を示す図である。図11に示す画面例は、例えば、ユーザが運動後に、クリエイティブな作業に没頭している状態を示す図形G30が表示される。
図11に示すように、ユーザは運動後であるため、第1心理パラメータP1の値V30は大きく、ユーザは作業に没頭しているため、第2心理パラメータP2の値V32も大きく、第3心理パラメータP3の値V34も大きい。
図11に示す各心理パラメータP1、P2、P3の各値に基づき、図形G30が形成され、表示される。第1心理パラメータP1の値V30が大きいことにより、図形G30の中心を中心とした回転運動の各オブジェクトT30の速度はより速くなる。また、第2心理パラメータP2の値V32が大きいことにより、各オブジェクトT20の長さが長くなり、位置関係がより密になる。また、第3心理パラメータP3の値V34が大きいことにより、サイズの変化速度は遅い。
図11に示す例では、第1心理パラメータP1の値V30と、第2心理パラメータP2の値V32と、第3心理パラメータP3の値V34とが用いられ、算出された頭年齢A30「19歳」が画面に表示される。
図12は、心理アプリケーションの表示画面の第4例を示す図である。図12に示す画面例は、例えば、ユーザが結論の見えない会議に長時間参加していることにより、疲れきっている状態を示す図形G40が表示される。
図12に示すように、ユーザは長時間会議に参加しているため、第1心理パラメータP1の値V40は非常に小さく、ユーザは疲れ切っているため、第2心理パラメータP2の値V42も小さい。また、第3心理パラメータP3の値V44は中間値以上である。
図12に示す各心理パラメータP1、P2、P3の各値に基づき、図形G40が形成され、表示される。第1心理パラメータP1の値V40が非常に小さいことにより、図形G40の中心を中心とした回転運動の各オブジェクトT40の速度は非常により遅くなる。また、第2心理パラメータP2の値V42が非常に小さいことにより、各オブジェクトT40の長さが短くなり、位置関係がより疎になる。また、第3心理パラメータP3の値V44は中間値以上であるため、サイズの変化速度は比較的遅い。
図12に示す例では、第1心理パラメータP1の値V40と、第2心理パラメータP2の値V42と、第3心理パラメータP3の値V44とが用いられ、算出された頭年齢A20「58歳」が画面に表示される。
以上の画面が表示制御部316により表示されることで、ユーザは、所定図形の動きにより、自身の心理状態を容易に把握することができる。さらに、画面に頭年齢が表示されることで、数値を用いて、ユーザの心理状態を迅速に把握させることができる。
<動作>
次に、実施例における情報処理装置10の動作について説明する。図13は、実施例におけるアプリケーションの全体処理の一例を示すフローチャートである。
図13に示すステップS102で、関連付け部312は、複数のオブジェクトの動く速度、各オブジェクトの位置関係の変化、及び前記所定図形の大きさの変化速度を示す各動きパラメータのうち、少なくとも2つの動きパラメータに、これらの動きパラメータそれぞれを用いて表現可能な心理状態を示す心理パラメータを関連付ける。各動きパラメータは、変形可能な所定図形を形成する。この処理は、心理状態を示す図形を表示する前に事前に行われる処理である。この関連付けは、一度行われれば、その内容を記憶しておき、その内容が用いられればよい。
ステップS104で、取得部314は、1又は複数の生体情報に基づく、関連付けられた各心理パラメータを取得する。この取得処理は、図14を用いて説明する。
ステップS106で、表示制御部316は、少なくとも2つの心理パラメータが取得される度に、各心理パラメータの変動に基づいて変形する前記所定図形を画面に表示制御する。この表示制御処理は、図15を用いて説明する。
ステップS108で、制御部306は、このアプリケーションの終了が指示されたか否かを判定する。終了指示があれば(ステップS108−YES)、処理はステップS104に戻り、終了指示がなければ(ステップS108−ON)、処理は終了する。
図14は、実施例における取得処理の一例を示すフローチャートである。図14に示すステップS202で、生体情報取得部3142は、処理装置20又はサーバ40から1又は複数種類の生体情報を取得する。生体情報は、例えば、瞬目に関する生体情報や、体動に関する生体情報である。
ステップS204で、算出部3144は、取得された1又は複数種類の生体情報に基づいて、1又は複数種類の心理パラメータを算出する。実施例では、算出部3144は、エナジー、フォーカス、カームに関する各心理パラメータを、所定の算出式等を用いることで算出する。算出された各心理パラメータは、表示制御部316に出力される。
図15は、実施例における表示制御処理の一例を示すフローチャートである。図15に示すステップS302で、パラメータ更新部3162は、算出された各心理パラメータを取得し、取得した各心理パラメータに基づいて各動きパラメータを更新する。
ステップS304で、変形部3164は、パラメータ更新部3162により更新された各動きパラメータに基づいて、各オブジェクトの動きや位置関係や長さ等を決定し、決定された各オブジェクトを表示制御する。これにより、所定図形が変形する。
なお、図13〜15で説明した処理のフローに含まれる各処理ステップは、処理内容に矛盾を生じない範囲で、任意に順番を変更して又は並列に実行することができるとともに、各処理ステップ間に他のステップを追加してもよい。また、便宜上1ステップとして記載されているステップは、複数ステップに分けて実行することができる一方、便宜上複数ステップに分けて記載されているものは、1ステップとして把握することができる。
以上、実施例によれば、ユーザ自身の心理状態がどのような状態にあるのかを直感的に把握させることができる。
なお、実施例において、アイウエア30がメガネである場合について説明した。しかし、アイウエアはこれに限定されない。アイウエアは、眼に関連する装具であればよく、メガネ、サングラス、ゴーグル及びヘッドマウントディスプレイならびにこれらのフレームなどの顔面装着具又は頭部装着具であってよい。
また、実施例において、アイウエア30が生体電極を設けることを説明したが、上述したように、視線移動や瞬目に関する情報を画像処理を用いて取得可能であれば、生体電極は設けられなくてもよい。
なお、実施例において、算出部3144により算出された頭年齢が表示されることを説明したが、情報処理装置10のスピーカ104又は振動部(不図示)が、頭年齢が所定値以下又は未満の場合、算出された頭年齢をユーザに報知してもよい。これにより、ユーザは、自身が疲れていることを知ることができる。
なお、実施例において、アイウエア30に搭載された6軸センサ206からのセンサ信号を用いて説明したが、情報処理装置10に搭載された6軸センサ111からのセンサ信号を用いても、実施例において説明したアプリケーションを実行することが可能である。すなわち、6軸センサは頭部だけではなく、人体のいずれかの位置に装着されていればよい。
また、実施例において、生体情報として、瞬目や視線移動、体動を用いて説明したが、これら以外にも、心拍、脈拍等の生体情報を用いてもよい。また、心理パラメータとして、エナジー、フォーカス、カームを用いて説明したが、その他の心理状態をパラメータとして用いてもよい。
以上、本発明について実施例を用いて説明したが、本発明の技術的範囲は上記実施例に記載の範囲には限定されない。上記実施例に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
10 情報処理装置
20 処理装置
30 アイウエア
40 サーバ
302 記憶部
304 通信部
306 制御部
312 関連付け部
314 取得部
316 表示制御部

Claims (6)

  1. 制御部を有するコンピュータが実行する情報処理方法であって、
    前記制御部は、
    変形可能な所定図形を形成する複数のオブジェクトの動く速度、各オブジェクトの位置関係の変化、及び前記所定図形の大きさの変化速度を示す各動きパラメータのうち、少なくとも2つの動きパラメータそれぞれに、心理状態を示す心理パラメータを関連付けること、
    関連付けられた少なくとも2つの心理パラメータを取得すること、
    前記少なくとも2つの心理パラメータが取得される度に、各心理パラメータの変動に基づいて各動きパラメータを更新すること、
    更新された各動きパラメータに基づく前記所定図形を画面に表示制御すること、
    を実行する情報処理方法。
  2. 前記心理パラメータは、エナジーに関する第1心理パラメータと、フォーカスに関する第2心理パラメータと、カームに関する第3心理パラメータとを含み、
    前記関連付けることは、
    前記複数のオブジェクトの動く速度を示す第1動きパラメータに、前記第1心理パラメータを関連付け、前記各オブジェクトの位置関係の変化を示す第2動きパラメータに、前記第2心理パラメータを関連付け、前記所定図形の大きさの変化速度を示す第3動きパラメータに、前記第3心理パラメータを関連付ける、請求項1に記載の情報処理方法。
  3. 前記複数の生体情報は、瞬目に関する第1生体情報、視線移動に関する第2生体情報及び体動に関する第3生体情報であり、
    前記取得することは、
    前記第1生体情報、前記第2生体情報、及び前記第3生体情報に基づく前記第1心理パラメータを取得し、
    前記第1生体情報に基づく前記第2心理パラメータを取得し、及び
    前記第1生体情報に基づく前記第3心理パラメータを取得する、請求項2に記載の情報処理方法。
  4. 前記取得することは、
    アイウエアに設けられた生体電極から取得された眼電位信号に基づく、前記第1生体情報及び前記第2生体情報を取得し、
    前記アイウエアに設けられた加速度センサから取得されたセンサ信号に基づく、前記第3生体情報を取得し、
    取得された前記第1生体情報、前記第2生体情報、及び前記第3生体情報に基づき各心理パラメータを算出して取得する、請求項3に記載の情報処理方法。
  5. 変形可能な所定図形を形成する複数のオブジェクトの動く速度、各オブジェクトの位置関係の変化、及び前記所定図形の大きさの変化速度を示す各動きパラメータのうち、少なくとも2つの動きパラメータそれぞれに、心理状態を示す心理パラメータを関連付ける関連付け部と、
    前記関連付け部に関連付けられた少なくとも2つの心理パラメータを取得する取得部と、
    前記少なくとも2つの心理パラメータが取得される度に、各心理パラメータの変動に基づいて各動きパラメータを更新し、更新した各動きパラメータに基づく前記所定図形を画面に表示制御する表示制御部と、
    を有する情報処理装置。
  6. コンピュータに、
    変形可能な所定図形を形成する複数のオブジェクトの動く速度、各オブジェクトの位置関係の変化、及び前記所定図形の大きさの変化速度を示す各動きパラメータのうち、少なくとも2つの動きパラメータそれぞれに、心理状態を示す心理パラメータを関連付けること、
    関連付けられた少なくとも2つの心理パラメータを算出すること、
    前記少なくとも2つの心理パラメータが取得される度に、各心理パラメータの変動に基づいて各動きパラメータを更新し、
    更新された各動きパラメータに基づく前記所定図形を画面に表示制御すること、
    を実行させるプログラム。
JP2015200569A 2015-10-08 2015-10-08 情報処理方法、情報処理装置及びプログラム Active JP6621133B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015200569A JP6621133B2 (ja) 2015-10-08 2015-10-08 情報処理方法、情報処理装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015200569A JP6621133B2 (ja) 2015-10-08 2015-10-08 情報処理方法、情報処理装置及びプログラム

Publications (3)

Publication Number Publication Date
JP2017070602A true JP2017070602A (ja) 2017-04-13
JP2017070602A5 JP2017070602A5 (ja) 2018-11-15
JP6621133B2 JP6621133B2 (ja) 2019-12-18

Family

ID=58538871

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015200569A Active JP6621133B2 (ja) 2015-10-08 2015-10-08 情報処理方法、情報処理装置及びプログラム

Country Status (1)

Country Link
JP (1) JP6621133B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019031600A1 (ja) 2017-08-10 2019-02-14 ヤマハ発動機株式会社 ウェアラブルデバイス対応眼電位データ処理装置、それを備えた眼鏡型ウェアラブルデバイス、及びウェアラブルデバイス対応眼電位データ処理方法
JP2019082776A (ja) * 2017-10-30 2019-05-30 富士通株式会社 操作支援方法、操作支援プログラム及び頭部装着型表示装置
CN110070924A (zh) * 2018-01-23 2019-07-30 株式会社晶姿 信息处理装置及计算机可读存储介质
WO2022070415A1 (ja) * 2020-10-02 2022-04-07 マクセル株式会社 ヘッドマウントディスプレイ装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019031600A1 (ja) 2017-08-10 2019-02-14 ヤマハ発動機株式会社 ウェアラブルデバイス対応眼電位データ処理装置、それを備えた眼鏡型ウェアラブルデバイス、及びウェアラブルデバイス対応眼電位データ処理方法
JP2019082776A (ja) * 2017-10-30 2019-05-30 富士通株式会社 操作支援方法、操作支援プログラム及び頭部装着型表示装置
CN110070924A (zh) * 2018-01-23 2019-07-30 株式会社晶姿 信息处理装置及计算机可读存储介质
JP2019128736A (ja) * 2018-01-23 2019-08-01 株式会社ジンズ 情報処理装置及びプログラム
WO2022070415A1 (ja) * 2020-10-02 2022-04-07 マクセル株式会社 ヘッドマウントディスプレイ装置

Also Published As

Publication number Publication date
JP6621133B2 (ja) 2019-12-18

Similar Documents

Publication Publication Date Title
EP3291167B1 (en) Mobile device and method for changing content display of mobile device
US9459698B2 (en) Gesture based power management system and method
EP2836883B1 (en) Multi-segment wearable accessory
US10893830B2 (en) Electronic apparatus, system, and method for providing body posture health information
JP6621133B2 (ja) 情報処理方法、情報処理装置及びプログラム
EP2816320A1 (en) Presentation device and method for operating the device
KR20150092444A (ko) 촉감과 관절 저항감을 동시에 전달하는 무선 외골격 햅틱 인터페이스 장치 및 그 구성 방법
Ranck The wearable computing market: a global analysis
US20210068674A1 (en) Track user movements and biological responses in generating inputs for computer systems
WO2018155098A1 (ja) 情報処理方法、情報処理装置及びプログラム
WO2015030482A1 (ko) 웨어러블 디스플레이용 입력장치
WO2021246134A1 (ja) デバイス、制御方法及びプログラム
CN108920228B (zh) 一种控制指令输入方法和输入装置
US20240028129A1 (en) Systems for detecting in-air and surface gestures available for use in an artificial-reality environment using sensors at a wrist-wearable device, and methods of use thereof
US20240019938A1 (en) Systems for detecting gestures performed within activation-threshold distances of artificial-reality objects to cause operations at physical electronic devices, and methods of use thereof
JP6697300B2 (ja) 情報処理方法、プログラム及び情報処理装置
JP6706958B2 (ja) 情報処理方法、情報処理装置及びプログラム
WO2017130339A1 (ja) 情報処理方法、情報処理装置及びプログラム
JP6621134B2 (ja) 情報処理方法、情報処理装置及びプログラム
JP6067148B1 (ja) 情報処理方法、情報処理装置及びプログラム
JP2020052573A (ja) 表示装置、及び制御プログラム
US20230368478A1 (en) Head-Worn Wearable Device Providing Indications of Received and Monitored Sensor Data, and Methods and Systems of Use Thereof
EP4325343A1 (en) Navigating a user interface using in-air gestures detected via neuromuscular-signal sensors of a wearable device, and systems and methods of use thereof
JP6941715B2 (ja) 表示装置、表示プログラム、表示方法及び表示システム
JP2017070723A (ja) 情報処理方法、情報処理装置及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181003

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181003

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190418

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190612

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191114

R150 Certificate of patent or registration of utility model

Ref document number: 6621133

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250