JP2012185678A - 情報解析装置、表示端末、情報解析方法、および情報解析プログラム - Google Patents

情報解析装置、表示端末、情報解析方法、および情報解析プログラム Download PDF

Info

Publication number
JP2012185678A
JP2012185678A JP2011048339A JP2011048339A JP2012185678A JP 2012185678 A JP2012185678 A JP 2012185678A JP 2011048339 A JP2011048339 A JP 2011048339A JP 2011048339 A JP2011048339 A JP 2011048339A JP 2012185678 A JP2012185678 A JP 2012185678A
Authority
JP
Japan
Prior art keywords
point
display
user
information
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011048339A
Other languages
English (en)
Other versions
JP5401493B2 (ja
Inventor
Shigenori Sakamoto
茂紀 坂本
Masamitsu Momose
正光 百瀬
Takatoshi Kitano
孝俊 北野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Comware Corp
Original Assignee
NTT Comware Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Comware Corp filed Critical NTT Comware Corp
Priority to JP2011048339A priority Critical patent/JP5401493B2/ja
Publication of JP2012185678A publication Critical patent/JP2012185678A/ja
Application granted granted Critical
Publication of JP5401493B2 publication Critical patent/JP5401493B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【課題】タッチパネルに表示している表示内容においてユーザが操作時に注目していると推定される部分を示す情報を精度よく取得すること。
【解決手段】 表示画面に対して予め決められている上下左右方向にコンテンツの上下左右方向を合わせて表示するタッチパネルから、前記コンテンツを表示している表示画面上におけるユーザの操作を示す操作信号を入力する入力部と、
前記ユーザからの操作を受け付ける際に前記タッチパネルの画面上において前記ユーザの死角と推定される死角領域に対して予め決められた位置関係で区別される領域であって前記ユーザが操作時に注目していると推定される注視点領域を示す情報を、前記操作信号に基づき算出する注視点推定部とを備えることを特徴とする。
【選択図】図1

Description

本発明は、情報解析装置、情報解析方法、および、情報解析プログラム表示画像検索システムに関する。
表示端末に表示される電子ファイルをユーザが閲覧している場合、ユーザが注視しているディスプレイ画面内の一部分(以下注視点という)を推定するため、スクロールバーの位置とマウスの座標から電子ファイル上の閲覧箇所を特定し、表示範囲毎の滞留時間とマウスの反応からユーザの注視点を推定する方法が提案されている(例えば、特許文献1参照)。
特開2008−198171号公報
しかしながら、特許文献1の場合、滞留時間とマウスの反応から注視点の推定を行っていたため、クリック等のマウス操作の入力がない場合、滞留時間のみから注視点の推定を行わなければならない。このため、注視点の推定精度が低下してしまう問題があった。
また、タッチパネルディスプレイを用いる表示端末において表示した画像の注視点を推定する場合、マウス操作とタッチ操作では、操作入力により検出されるアイコンの座標と閲覧箇所との位置関係と、タッチ(指との接触位置)の座標と閲覧箇所の位置関係とが異なる。このため、特許文献1による注視点の推定をタッチパネル式の表示端末に適用することが困難であった。
本発明は、上記課題を解決するものであり、タッチパネルに表示している表示内容においてユーザが操作時に注目していると推定される部分を示す情報を精度よく取得するための情報解析装置、情報解析方法、および情報解析プログラムを提供することを目的とする。
この発明は上述した課題を解決するためになされたもので、本発明の一態様による情報解析装置は、コンテンツを表示するタッチパネルから、前記コンテンツを表示している表示画面上におけるユーザの操作を示す操作信号を入力する入力部と、前記ユーザからの操作を受け付ける際に前記タッチパネルの画面上において前記ユーザの死角と推定される死角領域と、ユーザからの操作を受け付ける領域である操作軌跡領域により区別される領域であって、前記ユーザが操作時に注目していると推定される前記コンテンツ上の注視点を示す情報を、前記操作信号が示す操作軌跡領域に基づき算出する注視点推定部とを備えることを特徴とする。
また、上述の情報解析装置は、前記タッチパネルを保持するユーザの手と前記タッチパネルを操作するユーザの手の組み合わせに応じて予め決められているユーザの操作状況を、前記操作信号に基づき判定する操作状況判定部をさらに備え、前記注視点推定部が、前記死角領域との位置関係が前記ユーザの操作状況に応じて予め決められている前記注視点領域を示す情報として、前記操作状況に応じて予め決められている注視点の位置を示す位置情報を算出することを特徴とする。
また、上述の情報解析装置は、前記注視点推定部が、前記タッチパネルの画面上において前記死角領域を除く領域の中央の点を、前記タッチパネル上における前記注視点領域を示す情報として算出することを特徴とする。
また、上述の情報解析装置は、前記注視点推定部が、前記タッチパネルに入力された線状の動きを示す線操作の位置を示す位置情報に基づき、当該線操作を示す複数の検出点のうち一の代表点と前記タッチパネルの上側の予め決められた基準点とを結ぶ直線上において、前記タッチパネルの画面上のX軸方向において前記基準点のX座標値と前記代表点のX座標値の差分の絶対値がx、前記タッチパネルの画面上のY軸方向において前記基準点のY座標値と前記代表点のY座標値の差分の絶対値がyであった場合、前記直線上において前記基準点から{(x+y)/2}の距離にある点を、前記タッチパネル上における前記注視点領域を示す情報として算出することを特徴とする。
この発明は上述した課題を解決するためになされたもので、本発明の一態様による表示端末は、前記タッチパネルと、上述の情報解析装置のうちいずれか一の情報解析装置を備えることを特徴とする。
この発明は上述した課題を解決するためになされたもので、本発明の一態様による情報解析方法は、コンテンツを表示するタッチパネルから、前記コンテンツを表示している表示画面上におけるユーザの操作を示す操作信号を入力する入力ステップと、前記ユーザからの操作を受け付ける際に前記タッチパネル上において前記ユーザの死角と推定される死角領域に対して予め決められた位置関係で区別される領域であって前記ユーザが操作時に注目していると推定される前記コンテンツ上の注視点領域を示す情報を、前記操作信号に基づき算出する注視点推定ステップと、を備えることを特徴とする。
この発明は上述した課題を解決するためになされたもので、本発明の一態様による情報解析プログラムは、コンピュータを、コンテンツを表示するタッチパネルから、前記コンテンツを表示している表示画面上におけるユーザの操作を示す操作信号を入力する入力手段、前記ユーザからの操作を受け付ける際に前記タッチパネル上において前記ユーザの死角と推定される死角領域に対して予め決められた位置関係で区別される領域であって前記ユーザが操作時に注目していると推定される前記コンテンツ上の注視点領域を示す情報を、前記操作信号に基づき算出する注視点推定手段として機能させるためのプログラムであることを特徴とする。
本発明によれば、タッチパネルに表示している表示内容においてユーザが操作時に注目していると推定される部分を示す情報を精度よく取得することができる。
本発明の実施形態に係る情報解析装置の構成の一例を示すブロック図である。 本発明の実施形態に係る操作状況を説明するための図である。 本発明の実施形態に係る情報解析方法の一例を説明するためのフローチャートである。 本発明の実施形態に係る操作入力部によって検出される情報について説明するための図である。 本発明の実施形態に係る操作状況推定処理フローの一例について説明するためのフローチャートである。 本発明の実施形態に係るディスプレイの分割領域の一例を示す図である。 本発明の実施形態に係る注視点領域解析処理フローの一例について説明するためのフローチャートである。 本発明の実施形態に係る注視点領域モデルテーブルの一例を示す図である。 本発明の実施形態に係る注視点領域モデルの一例について説明するための図である。 本発明の実施形態に係る注視点領域モデルのモデルAの一例について説明するための図である。 本発明の実施形態に係る注視点領域モデルのモデルBの一例について説明するための図である。 本発明の実施形態に係る注視点領域モデルのモデルCの一例について説明するための図である。 ディスプレイ上における注視点I(t,u)とコンテンツにおける注視点E(r,s)の対応関係の一例について説明するための図である。 ディスプレイに表示されている画像の表示倍率が変化した場合のコンテンツにおける表示画像領域の変化について説明するための図である。 ディスプレイに表示されている画像が移動した場合のコンテンツにおける表示画像領域の移動について説明するための図である。 本発明の実施形態に係る線軌跡情報と注視点領域情報の一例を示す図である。 本発明の具体的実施例において与えられる操作の内の一例を示す図である。 図17の操作に基づく操作ログの一例を示す図である。 図17の操作についてのディスプレイの分割領域の一例を示す図である。 本発明の実施形態に係る線軌跡情報の一例を示す図である。 本発明の実施形態に係る注視点領域情報の一例を示す図である。 本発明の実施形態に係る注視点の表示例を示す図である。 本発明の実施形態に係る表示端末の構成の変形例を示すブロック図である。
<第1実施形態>
以下、本発明の一実施形態による表示端末の一例について、図面を参照して詳細に説明する。図1は、本実施形態に係る表示端末100の機能ブロック図である。
図1に示す通り、表示端末100は、通信部101と、タッチパネル102と、制御部103と、情報解析装置200とを備える。この表示端末100は、ネットワークを介してサーバ300と接続されており、例えば、サーバ300からダウンロードしたコンテンツをタッチパネル102に表示する。なお、コンテンツとは、例えば、ユーザによって閲覧される画像であって、HPの閲覧画像や表示端末100によって表示可能なファイルの画像データである。本実施形態において、表示端末100は、サーバ300からダウンロードしたコンテンツを表示させる例について以下説明するが、本発明はこれに限定されず、内蔵する記憶部にコンテンツを予め保存しておき、記憶部から読み出したコンテンツを表示させるものであってもよい。また、本実施形態において、タッチパネル102にコンテンツとして、例えばWEBページを表示させる例を用いて以下説明するが、本発明はこれに限られず、例えば、テキストファイル等の情報であってもよい。
表示端末100は、タッチパネル102にコンテンツを表示している状態において、ユーザがタッチパネル102に与えた操作を示す情報を操作ログとして記録するとともに、この操作ログを解析する。これより、表示端末100は、コンテンツにおいてユーザが関心を示している注視点(あるいは注視点を含む一定の領域)の推定処理を行う。
通信部101は、ネットワークを介してサーバ300と接続し、サーバ300からコンテンツに関するコンテンツ情報をダウンロードし、制御部103に出力する。
タッチパネル102は、例えば液晶ディスプレイであるディスプレイ121と、このディスプレイ121の表示画面を操作するユーザからの操作指示を受け付け、この操作指示を示す操作入力情報を出力する操作入力部122とを含む。
この操作入力部122は、ディスプレイ121の画面を操作するユーザの指の接触位置を検出し、この接触位置をディスプレイ121の画面内における座標位置で示した位置情報を取得する。なお、このディスプレイ121の画面内における位置は、X軸とY軸で示す座標p(x,y)で表わす。
このディスプレイ121の画面内におけるユーザの指の接触する箇所を、以下、検出点という。なお、本実施形態において、ディスプレイ121を操作する操作手段がユーザの指である例を用いて以下説明するが、本発明はこれに限られず、タッチペン等の道具であってもよい。
本実施形態において、操作入力部122は、ユーザの指が接触する検出点の位置を検出すると、接触した時刻(操作時刻)とを示す情報と対応づけた操作入力情報を出力する。なお、操作入力情報について、図4を参照して、後に詳細に説明するが、この操作入力情報は、この他にも、操作時にディスプレイ121に表示されているコンテンツの表示領域や倍率を示す情報も含む。
また、操作入力部122は、ディスプレイ121の表示画面上を動く指の軌跡に応じて、ユーザの操作の種類を判定する。例えば、操作入力部122は、ユーザの操作を、タッチ(Touch)操作、スライド(Slide)操作、フリック(Flick)操作のうちいずれの操作であるかを判定することができる。
タッチ(Touch)操作とは、ユーザが、タッチパネル102の画面に指を接触させて移動させずにそのまま指をディスプレイ121の画面から離す動作である。操作入力部122は、一箇所の検出点を検出することにより、当該操作がタッチ操作であると判定する。
スライド(Slide)操作とは、ユーザが、タッチパネル102の画面に指を接触させたまま移動させる動作である。スライド操作により、ディスプレイ121に表示されている画像領域がスライド方向に応じて移動する。例えば、ディスプレイ121に表示されている画像を第1の方向にスライドした場合、コンテンツにおいて、表示されている画像の第2の方向(第1の方向と180度異なる方向)に存在する画像がディスプレイ121に表示される。
操作入力部122は、最初にタッチパネル102の画面に接触したときの検出点(以下、始点という)と、移動時における検出点(以下、中間点という)と、タッチパネル102の画面から指を離したときの検出点(以下、終点という)を検出することにより、当該操作がスライド操作であると判定する。
フリック(Flick)操作とは、ユーザが、タッチパネル102の画面を素早く払うように指を動かす動作、あるいは、指を接触させている状態から画面を素早く払うように指を動かす動作である。フリック操作により、例えば、ディスプレイ121に表示されているコンテンツのページ数を変更することができる。
なお、本実施形態において、操作の内容が1つの検出点で表わされる操作(例えば、タッチ)を、以下、点操作という。一方、操作の内容が2以上の検出点で表わされる操作(例えば、スライド、フリック)を、以下、線操作という。
制御部103は、コンテンツをタッチパネル102のディスプレイ121に表示させるとともに、情報解析装置200に対して、操作ログに基づき、注視点を推定する注視点推定処理を実行させるように制御する。
情報解析装置200は、記憶部201と、操作状況判定部202と、モデル設定部203と、注視点推定部204と、注視点表示制御部205とを備える。
記憶部201は、アプリ情報と、コンテンツ情報と、操作ログと、線操作軌跡情報と、操作状況判定情報と、モデル判定情報と、注視点推定モデル情報と、注視点領域情報と、端末情報と、を記憶する。
アプリ情報は、制御部103がコンテンツをタッチパネル102のディスプレイ121に表示させるとともに、情報解析装置200に注視点の推定処理を実行させるためのアプリケーションプログラムである。
コンテンツ情報は、例えば、コンテンツである画像やテキストを示すコンテンツデータと、コンテンツに関するプロパティ情報とを含む。プロパティ情報は、コンテンツデータのファイル名、ページサイズ(例えば、縦横比をピクセルで示したもの)、およびページ数を示す情報である。なお、ページ数とは、コンテンツデータが複数枚の画像で構成される場合に、各ページを示すページ番号である。
操作ログは、操作入力部122によって取得された検出点ごとに、操作の順番を示す操作番号と、操作の内容を示す操作名と、検出点が検出された時刻を示す操作時刻と、ディスプレイ121の画面内における検出点の位置(x,y)と、検出点が検出された際にディスプレイ121に表示されているコンテンツの表示倍率とが記載された情報である。
線操作軌跡情報は、操作ログのうち、線操作の検出点に対応する情報のみを含む情報である。
操作状況判定情報は、操作ログに基づき、タッチパネル102に操作ログの操作が与えられた際のユーザの操作状況を判定するための情報である。この操作状況判定情報は、例えば、タッチパネル102の画面サイズや、操作ログが示すディスプレイ121の画面上における操作の軌跡に応じて、ユーザの表示端末100の操作状況を判定する条件を規定する情報である。ユーザの操作状況は、表示端末100を持つ手が右手であるかあるいは左手であるか、および、タッチパネル102を操作する手が右手であるかあるいは左手であるかに応じて、予め決められている複数のパターンによって表わされる。
この操作状況は、例えば、ユーザが表示端末100を持っている手と、ユーザがタッチパネル102を操作する手の組み合わせに応じて、以下の4つのパターンが予め決められている。
パターンI.左手で持ち右手で操作
パターンII.右手で持ち左手で操作
パターンIII.右手で持ち右手で操作
パターンIV.左手で持ち左手で操作
なお、この操作状況のパターンI〜IVを、図2に示す。図2は、パターンI〜IVの一例を示す図である。図2(a)、(b)、(c)、(d)が、それぞれ、パターンI、II、III、IVの一例を示す。なお、図2(a)、(b)、(c)、(d)は、各ディスプレイ121の画面における操作の軌跡を示す。各操作軌跡には操作の順番を示す番号が割り当てられており、操作の軌跡の近傍に表示されている。
モデル判定情報は、操作状況に基づきディスプレイ121の画面上における注視点I(t,u)を算出するためのモデル(以下、注視点領域モデルと記す)を判定するための情報である。このモデル判定情報は、例えば、操作状況に応じた注視点領域モデルを対応付ける注視点領域モデルテーブルを含む情報である。
注視点推定モデル情報は、注視点領域モデルごと、コンテンツにおける注視点E(r,s)を算出するための演算式を含む情報である。
注視点領域情報は、情報解析装置200によって取得されたコンテンツにおける注視点E(r,s)を示す情報である。
端末情報は、表示端末100に関する情報であって、例えば、ディスプレイ121の画面サイズと解像度を示す情報である。
操作状況判定部202は、操作ログに基づき、記憶部201の操作状況判定情報を参照して、コンテンツを閲覧したユーザの操作状況として推定される操作状況を判定する。
モデル設定部203は、操作状況判定部202による判定結果に基づき、記憶部201のモデル判定情報を参照して、操作状況に応じた注視点領域モデルを判定する。
注視点推定部204は、モデル設定部203による判定結果に基づき、記憶部201の注視点推定モデル情報を参照して、注視点領域モデルに対応する演算式に従って、コンテンツにおける注視点E(r,s)を算出する。なお、本実施形態において、注視点推定部204は、注視点を示す情報として、コンテンツにおける注視点E(r,s)である点を示す注視点を示す情報を取得する例を以下説明する。しかし、本発明はこれに限られず、例えば、注視点を含む一定の領域を示す情報を注視点を示す情報として取得するものであってもよい。
注視点表示制御部205は、注視点推定部204によって算出されたコンテンツにおける注視点E(r,s)を示す情報をコンテンツに重畳して、ディスプレイ121に表示させる。
次に、図3を参照して、本実施形態に係る表示端末100の全体処理フローの一例について説明する。図3は、本実施形態に係る表示端末100の全体処理フローの一例について説明するためのフローチャートである。
(ステップST101)
図3に示す通り、表示端末100の制御部103は、記憶部201からアプリ情報を読み出し、コンテンツをタッチパネル102のディスプレイ121に表示させるとともに、情報解析装置200に注視点の推定処理を実行させるためのアプリケーションを起動させる。
(ステップST102)
そして、制御部103は、記憶部201から端末情報を読み出す。この端末情報には、ディスプレイ121の画面サイズおよび解像度を示す情報が含まれている。
(ステップST103)
次いで、制御部103は、記憶部201からコンテンツ情報を読み出し、コンテンツ情報に基づき、コンテンツをタッチパネル102のディスプレイ121に表示させる。
本実施形態において、制御部103は、コンテンツD1に対応するプロパティ情報を参照して、コンテンツD1のファイル名、ページサイズ(縦横比)、およびページ数を示す情報を取得する。制御部103は、取得したページサイズとページ数を示す情報、およびステップST102で取得した画面サイズおよび解像度を示す画面サイズ情報に基づき、ディスプレイ121の画面にあわせてコンテンツを表示させる。なお、制御部103が、ディスプレイ121の画面にあわせてコンテンツをどのように表示させるかについては、予め決められている。例えば、制御部103は、ディスプレイ121の画面の一辺の長さにあわせて、コンテンツを縮小して表示させるものであってもよく、コンテンツの一角をディスプレイ121の一角に合わせて表示倍率100%のコンテンツを表示させるものであってもよい。
なお、本実施形態において、制御部103は、コンテンツの原点をディスプレイ121の原点にあわせて表示する。
(ステップST104)
ここで、タッチパネル102の操作入力部122は、ステップST103において読み出されたコンテンツD1を表示している間に検出される全ての操作を示す操作入力情報を取得する。
(ステップST105)
ディスプレイ121に表示されているコンテンツの表示を終了する操作指示が、操作入力部122を介してユーザから入力されると、制御部103は、コンテンツD1の表示制御を終了させる。
(ステップST106)
そして、制御部103は、上述の通り、コンテンツD1を表示する処理を開始してから終了するまでに取得した操作入力情報に基づき、コンテンツD1に対応する操作ログを生成する。この制御部103は、生成した操作ログを、コンテンツD1のコンテンツ情報と対応付けて記憶部201に格納する。
(ステップST107)
次いで、操作状況判定部202は、記憶部201からコンテンツD1と対応付けられている操作ログを読み出す。そして、操作状況判定部202は、この操作ログに基づき、記憶部201の操作状況判定情報を参照して、コンテンツD1を表示している間におけるユーザの操作状況を判定する。なお、操作ログにおいて、複数のコンテンツに対応する操作ログが含まれている場合、操作状況判定部202は、コンテンツごとに、対応する操作ログを読み出す。
そして、操作状況判定部202は、これら操作状況を示す4つのパターンI〜IVから1つを、操作ログが示す操作状況と判定し、判定したパターンを示す操作状況推定情報を出力する。
(ステップST108)
そして、操作状況判定部202は、取得した操作状況推定情報を、モデル設定部203に出力する。
(ステップST109)
次いで、モデル設定部203は、操作状況判定部202から入力する操作状況推定情報に基づき、記憶部201のモデル判定情報を参照して、操作状況に応じた注視点領域モデルを判定する。このモデル設定部203は、判定した操作状況を示す操作状況情報を注視点推定部204に出力する。
注視点推定部204は、モデル設定部203から入力する操作状況情報に基づき、記憶部201の注視点推定モデル情報を参照して、注視点領域モデルに対応する演算式に従って、コンテンツにおける注視点E(r,s)を算出する。
(ステップST110)
この注視点推定部204は、算出したコンテンツにおける注視点E(r,s)を示す注視点領域情報を注視点表示制御部205に出力する。
注視点表示制御部205は、注視点推定部204から入力する注視点領域情報に基づき、コンテンツにおける注視点E(r,s)を示す情報をコンテンツに重畳して、ディスプレイ121に表示させる。
(ステップST111)
そして、表示端末100の制御部103は、起動中のアプリケーションを終了させる。
次に、操作入力に基づき操作ログを生成する手法の一例について、図4を参照しつつ説明する。例えば、コンテンツD1がディスプレイ121に表示されている状態において、2つのスライド操作が入力されたとする。
図4(a)に示す通り、ディスプレイ121の左上の頂点を原点(0,0)とし、原点から右向きをX軸、下向きをY軸として、ディスプレイ121の座標を示す。このディスプレイ121の画面の上下左右方向は、例えば、表示端末100に内蔵されている加速度センサーの検出結果に基づき、タッチパネル102の傾きに応じて制御部103によって決定される。例えば、タッチパネル102の画面の中心点と直行する仮想的な水平面に対して、鉛直上方側に位置される部分が画面の上方であって、鉛直下方側に位置される部分が画面の下方である。そして、ディスプレイ121の画面の上下方向に合わせて画面を見るユーザの右側がディスプレイ121の画面の右側であって、このユーザの左側がディスプレイ121の画面の左側である。
言い換えると、ディスプレイ121のY方向のうち、操作するユーザに近い方が画面の下方向、ユーザから遠い方が画面の上方向である。なお、ユーザの近いかあるいは遠いかについては、上述の加速度センサーによる検出結果に基づくタッチパネル102の傾きに応じて決められるものであってもよく、他の方法であってもよい。また、本実施形態において、ディスプレイ121の画面の座標において、X軸方向が画面の右方向、Y軸方向が画面の下方向であると予め決められている。よって、例えば、タッチパネル102が45度回転されたことに伴い、ディスプレイ121に表示されるコンテンツが45度回転される場合、ディスプレイ121の上下左右方向が45度回転される。つまり、ディスプレイ121の画面の座標における原点(0,0)は、常にディスプレイの画面の左上の頂点であって、ディスプレイ121の画面を見ているユーザ左上に存在する頂点である。
図4(a)は、タッチパネル102に与えられる2つのスライド操作“SL1”、“SL2”の一例を示す図である。
スライド操作“SL1”は、このディスプレイ102の画面上において接触させた指を、主にY軸のマイナス方向にスライドさせる動きである。スライド操作“SL2”は、このディスプレイ102の画面上において接触させた指を、主にX軸のマイナス方向にスライドさせる動きである。
この操作入力部122は、例えば、タッチパネル102上を移動する指の動きに応じて、複数の検出点ごとに、ユーザによって与えられる操作内容を示す操作入力情報を取得する。ここで、操作入力情報は、ユーザの指の動きに応じて検出される情報であって、ディスプレイ121における指の接触位置(検出点)を示す操作位置、検出点を検出した際の時刻を示す操作時刻、およびディスプレイ121に表示されているコンテンツの拡大縮小率を示す表示倍率を含む。
また、操作入力部122は、ディスプレイ121に表示されたコンテンツのページごとに閲覧時間を算出し、閲覧したページ数に当該ページを閲覧した閲覧時間を対応付けた閲覧情報を取得する。
そして、操作入力部122は、取得した操作入力情報と閲覧情報を制御部103に出力する。制御部103は、このコンテンツD1の表示が開始され終了するまでの間に取得された操作入力情報を、操作毎に区分するための情報と対応づけた操作ログを作成する。この操作ログは、例えば、操作順序を示す操作番号や操作名によって各操作を区分する情報と対応付けられた操作入力情報を含む。制御部103は、例えば、検出された検出点の位置や時刻を示す情報に基づき、操作の種類と、各操作を示す検出点のまとまりを決定し、操作順序と操作名を各検出点の操作入力情報に対して割り降る。
この操作ログの一例を図4(b)に示す。
図4(b)に示す通り、操作ログは、検出点ごとに割り降られた操作順序と操作名、および、検出点ごとの操作入力情報(操作時刻、操作位置、表示倍率)を含む。
操作入力部122は、例えば、スライド操作“SL1”,“SL2”を示す操作入力情報として、指がタッチパネル102の表面に接触した始点と、指がタッチパネルの表面から離れた終点と、始点が検出された時刻と終点が検出された時刻の間に検出された検出点である中間点について、それぞれディスプレイ121の画面上における位置情報を検出する。なお、操作入力部122は、検出点としては、一定の時間間隔毎に、指が接触している点を検出する。
例えば、操作入力部122は、スライド操作“SL1”の操作入力情報として、始点P11と、中間点P12,P13,P14,P15と、終点P16について、それぞれの操作時刻、操作位置、表示倍率を示す操作入力情報を取得する。また、操作入力部122は、スライド操作“SL2”の操作入力情報として、始点P31と、中間点P32と、終点P33について、それぞれの操作時刻、操作位置、表示倍率を示す操作入力情報を取得する。
また、操作入力部122は、ディスプレイ121に表示されたコンテンツのページごとの閲覧時間を示す閲覧情報を取得する。この閲覧情報の一例を図4(c)に示す。
図4(c)に示す通り、閲覧情報は、ディスプレイ121に表示されたコンテンツのページ番号に、当該ページを閲覧していた時間が対応付けられている。
操作入力部122は、例えば、ページが切り換えられる度に、各ページの閲覧時間を、例えば、以下の式(1)に従って算出する。
Figure 2012185678
なお、Tは、閲覧開始時刻であって、例えば、コンテンツのディスプレイ121に表示された時刻である。Tは、閲覧開始時刻Tからn回目のページ切り替えがなされた時刻までの時間である。WPは、n回目のページ切り替えにおいて表示されている画面の閲覧時間である。ただし、閲覧終了時のページの閲覧時間を求める場合は、閲覧終了時刻をTとする。
図4(c)に示す例において、閲覧開始時刻Tは、“01:21:43.934”である。図示の例では、この閲覧開始時刻Tから、4回のページ切り替えが実行されている。画面の閲覧順番は、1ページから2、3ページと順次閲覧した後、3ページから2ページに戻っている。
ここで、5回目のページ切り替えが時刻“01:22:50.100”に実行された場合、閲覧開始時刻Tは、以下の演算式により、算出される。
=01:21:43.934+10.674+15.125+5.121+10.456=01:22:25.310
よって、WPは、以下の演算式により、算出される。
WP=01:22:50.100−01:22:25.310=24.790
次に、図5を参照して、本実施形態に係る表示端末100の操作状況推定処理フローの一例について説明する。図5は、本実施形態に係る表示端末100の操作状況推定処理フローの一例について説明するためのフローチャートである。この操作状況推定処理は、図3に示すステップST107の処理である。
(ステップST201)
操作状況判定部202は、記憶部201から端末情報に含まれる画面サイズ情報を読み出す。
(ステップST202)
そして、操作状況判定部202は、読み出した画面サイズ情報が示す画面サイズが、予め決められている画面サイズ(例えば5インチ)以上であるか否かを判定する。なお、画面サイズが5インチ以上の端末は、平均的な手の大きさのユーザであれば片手で持ちながら操作することが困難であると予測される大きさの端末である。言い換えると、画面サイズが5インチ以上の端末は、その操作状況として、一方の手で端末を持ち、他方の手でタッチパネルを操作することが予測される。
(ステップST203)
読み出した画面サイズ情報が示す画面サイズが、予め決められている画面サイズ(例えば5インチ)未満である場合、操作状況判定部202は、操作ログ集中領域判定を行う。
具体的に説明すると、操作状況判定部202は、記憶部201から操作ログを読み出し、ディスプレイ121を分割する分割領域ごとに、各分割領域に含まれる検出点の数を算出する。この分割領域は、予め決められており、例えば、図6に示す通り、ディスプレイ121の画面を4等分割した各領域R1〜R4である。図6は、ディスプレイ121の分割領域の一例を示す図である。
図6に示す通り、ディスプレイ121は、例えば、j×k画素の解像度を有し、座標(x,y)は、ディスプレイ121の画素に対応している。つまり、ディスプレイ121の画面は、P01(j,0)、P02(0,0)、P03(0,k)、P04(j,k)の4つ頂点を有する矩形である。
分割領域R1は、P01(j,0)を含む領域である。分割領域R2は、P02(0,0)を含む領域である。分割領域R3は、P03(0,k)を含む領域である。分割領域R4は、P04(j,k)を含む領域である。
操作状況判定部202は、分割領域R1〜R4のそれぞれに含まれる検出点の集合をΩ1〜Ω4としたとき、各集合Ω1〜Ω4の要素数である各分割領域R1〜R4の検出点の数を算出する。この操作状況判定部202は、各分割領域R1〜R4に対応する集合Ω1〜Ω4の要素数ω1〜ω4の総数(ω1+ω2+ω3+ω4)に対する割合を、分割領域R1〜R4ごとに算出する。そして、操作状況判定部202は、算出した割合がそれぞれ予め決められている基準値以上であるか否かを判定する。例えば、操作状況判定部202は、分割領域R1については、{集合Ω1の要素数ω1/総数(ω1+ω2+ω3+ω4)}が基準値以上であるか否かを判定する。
操作状況判定部202は、総数に対する各集合Ω1〜Ω4の要素数ω1〜ω4の割合が、基準値以上であった場合、以下に示すような持ち方であると判定する。
ケース1.総数に対するΩ1の要素数の割合が、基準値より多い⇒パターンIIIの右手持ち右手操作
ケース2.総数に対するΩ2の要素数の割合が、基準値より多い⇒パターンIVの左手持ち左手操作
ケース3.総数に対するΩ3の要素数の割合が、基準値より多い⇒パターンIVの左手持ち左手操作
ケース4.総数に対するΩ4の要素数の割合が、基準値より多い⇒パターンIIIの右手持ち右手操作
ケース5.それ以外の場合⇒パターンIあるいはパターンIIの片手で持ち操作
この操作状況判定部202は、判定結果に基づき、ユーザの表示端末100の持ち方として推定されるパターンI〜IVのうち少なくとも1つのパターンを示す情報を、持ち方の推定結果として出力する。なお、操作状況判定部202は、ケース1〜4において総数に対する各集合の要素数の割合が基準値以上であるという判定結果を複数得た場合、判定結果に応じたパターンを示す推定結果を出力する。このとき、異なるパターンIIIとパターンIVを示す推定結果である場合もありえる。また、ケース1〜4のいずれにも該当しない場合、操作状況判定部202は、持ち方の推定結果として、パターンI、IIの両方の可能性があることを示す情報を出力する。
一方、ステップST202において、読み出した画面サイズ情報が示す画面サイズが、予め決められている画面サイズ(例えば5インチ)以上である場合、操作状況判定部202は、ユーザの表示端末の持ち方が、パターンIの左手で持ち右手操作であるか、あるいは、パターンIIの右手で持ち左手操作であると判定する。つまり、操作状況判定部202は、持ち方推の定結果として、パターンI、IIの両方の可能性があることを示す情報を出力する。
(ステップST204)
次いで、操作状況判定部202は、線操作に対応する操作ログに基づき、線操作の始点と終点を通る直線の傾きを示す傾き情報を算出する。
具体的に説明すると、操作状況判定部202は、記憶部201から操作ログから、スライドやフリック等の線操作の検出点のうち、始点と終点の位置を示す座標(x,y)を読み出す。つまり、操作状況判定部202は、操作名「Slide」あるいは「Flick」が対応付けられている検出点のうち、各操作の始点(x,y)と終点(x,y)を読み出す。
そして、操作状況判定部202は、下記の式(2)に従い、各操作の始点と終点を通る直線の傾きを算出する。
Figure 2012185678
操作状況判定部202は、操作ログに含まれる全ての線操作に対して、始点と終点を通る直線の傾きを算出する。
(ステップST205)
また、操作状況判定部202は、記憶部201の操作ログから、操作名「Slide」あるいは「Flick」と対応付けられている検出点(始点、中間点、終点を含む)の操作入力情報を読み出し、これらの情報を線操作軌跡情報として取得する。この操作状況判定部202は、取得した線操作軌跡情報を、記憶部201に格納する。
(ステップST206)
そして、操作状況判定部202は、持ち方推定処理において持ち手と操作の手が決定しているか否かを判定する。つまり、操作状況判定部202は、ステップST203において、パターンIIIあるいはパターンIVのいずれか一方を示す持ち方の推定結果が得られているか否か判定し、いずれか一方のみが得られている場合、持ち手と操作の手が確定していると判定する。
一方、ステップST202において、読み出した画面サイズ情報の示す画面サイズが、予め決められている画面サイズ(例えば5インチ)以上であると判定した場合、および、ステップST203において、パターンIIIおよびパターンIVの両方であることを示す持ち方の推定結果が得られている場合、操作状況判定部202は、持ち手と操作の手が確定していないと判定する。
(ステップST207)
持ち手と操作の手が確定していないと判定した場合、操作状況判定部202は、ステップST204において算出した全ての操作に対する傾き情報に基づき、傾きの値が正である「正の傾き」の操作の数と、傾きの値が負である「負の傾き」の操作の数の比率を算出する。そして、操作状況判定部202は、全ての操作の数に対して5割以上の操作の数を示す傾きを、線操作の傾き結果として取得し、この傾き結果に応じて、以下のようにユーザの操作する手を判定する。
ケース5.持ち方の推定結果がパターンIあるいはIIであって、傾き結果が負の傾き
⇒パターンIの左手で持ち右手で操作
ケース6.持ち方の推定結果がパターンIあるいはIIであって、傾き結果が正の傾き
⇒パターンIIの右手で持ち左手で操作
ケース7.持ち方の推定結果がパターンIIIあるいはIVであって、傾き結果が負の傾き
⇒パターンIの左手で持ち右手で操作
ケース8.持ち方の推定結果がパターンIIIあるいはIVであって、傾き結果が正の傾き
⇒パターンIIの右手で持ち左手で操作
(ステップST108)
そして、操作状況判定部202は、持ち方推定処理により持ち手と操作の手が確定している場合は、この持ち方の推定結果を示す操作状況推定情報を生成し、出力する。
一方、持ち方推定処理により持ち手と操作の手が確定していない場合、操作状況判定部202は、傾き結果に応じて判定されたユーザの操作する手の判定結果を示す操作状況推定情報を生成し、出力する。
次に、図7を参照して、本実施形態に係る表示端末100の注視点領域解析処理フローの一例について説明する。図7は、本実施形態に係る表示端末100の注視点領域解析処理フローの一例について説明するためのフローチャートである。この注視点領域解析処理は、図3に示すステップST109の処理である。
(ステップST301)
モデル設定部203は、操作状況判定部202から入力する操作情状況推定情報に基づき、記憶部201のモデル判定情報に含まれる注視点領域モデルテーブルを参照して、操作状況に対応する注視点領域モデルを決定する。この注視点領域モデルテーブルの一例について、図8を参照して説明する。図8は、この注視点領域モデルテーブルの一例を示す図である。
図8に示す通り、注視点領域モデルテーブルは、操作状況推定情報と注視点領域モデルとを対応付けるテーブルである。図示の通り、操作状況がパターンI、IIである場合、注視点領域モデルは、モデルAである。操作状況がパターンIIIである場合、注視点領域モデルは、モデルBである。操作状況がパターンIVである場合、注視点領域モデルは、モデルCである。
これら注視点領域モデルの一例について、図9を参照して説明する。
図9は、注視点領域モデルの一例について説明するための図である。なお、図9(a)〜9(c)は、それぞれ、モデルA〜Cについて説明するための図である。
図示の通り、注視点領域モデルは、それぞれ、ディスプレイ121の画面内における注視点領域Rα、操作軌跡領域Rβ、および死角領域Rγの位置関係が予め決められている。
操作軌跡領域Rβは、ユーザの操作が入力された領域である。この操作軌跡領域Rβは、ユーザの操作に使われる領域であるため、ユーザが関心を持って閲覧している領域ではないと決められている。
死角領域Rγは、操作軌跡領域Rβよりもユーザの手元側の領域である。この死角領域Rγは、操作時にユーザの手によって隠れてしまう領域であるため、ユーザが関心を持って閲覧している領域ではないと決められている。
注視点領域Rαは、ディスプレイ121の画面全体から操作軌跡領域Rβと死角領域Rγを除いた領域の一部である。この注視点領域Rαは、後述する注視点推定部204によって検出される注視点I(t,u)に基づき決められる領域であって、ディスプレイ121の画面全体から操作軌跡領域Rβと死角領域Rγを除いた領域における概ね中心部分である。
また、モデル判定情報には、注視点推定モデルのそれぞれに対して予め決められている注視点I(t,u)の算出手法を規定する注視点演算式を示す情報が含まれている。
以下、各注視点推定モデルの注視点演算式について、図10〜12を参照して説明する。
図10は、モデルAの注視点について説明するための図である。
図10に示す通り、ディスプレイ121に、スライド操作SL5が与えられたとする。このスライド操作SL5は、始点P51、中間点P52、P53、および終点P54の検出点によって表わされる。
操作軌跡領域Rβは、例えば、検出点P51〜P54を含む領域である。本実施形態において、モデルAの操作軌跡領域Rβは、検出点P51〜P54のうち、原点P02(0,0)から最も近い検出点のy座標値(yn)と、原点P02(0,0)から最も遠い検出点のy座標値(ym)によって規定される領域である。例えば、操作軌跡領域Rβは、4点β1(xβ1,y)、β2(xβ2,y)、β3(xβ1,y)、β4(xβ2,y)によって規定される長方形の領域である。
死角領域Rγは、この操作軌跡領域Rβよりもユーザの手元側の領域であって、Yがy以上(Y≧y)の領域から操作軌跡領域Rβを除いた領域である。
モデル設定部203は、検出点P51〜P54のうち、例えば、原点P02(0,0)に最も近い検出点P51を注視参照点F(x,y)として決定する。このモデル設定部203は、この注視参照点F(x,y)よりも上部の領域、つまり、ディスプレイ121の画面全体から操作軌跡領域Rβと死角領域Rγを除いた領域{(x,y)|(0≦x≦j,0≦y≦y}の中心点を、注視点I(t,u)と決定する。
言い換えると、モデル設定部203は、ディスプレイ121の画面内におけるYがy未満(Y<y)の領域の中心点を、以下の式(3)に従って算出する。
Figure 2012185678
この式(3)は、注視点領域モデルのモデルAに対応する注視点I(t,u)の演算式を示す注視点領域情報として、記憶部201に予め記憶されている。
なお、注視点領域Rαは、この注視点I(t,u)を中心とした予め決められた大きさの楕円領域である。
次に、図11を参照して、モデルBについて説明する。
図11は、モデルBの注視点について説明するための図である。
図11に示す通り、ディスプレイ121に、スライド操作SL6が与えられたとする。このスライド操作SL6は、始点P61、中間点P62、P63、および終点P64の検出点によって表わされる。
操作軌跡領域Rβは、例えば、検出点P61〜P64を含む領域である。本実施形態において、モデルBの操作軌跡領域Rβは、検出点P61〜P64のうち、原点P02(0,0)から最も近い検出点(x,y)よりもユーザの手前側の領域である。例えば、操作軌跡領域Rβは、原点P02(0,0)と検出点P62(x,y)を結ぶ線分gに直交し検出点P61〜P64を通る直線のうち、Y軸との交点のY座標の値が最大となる直線L601および最小となる直線L602と、原点P02(0,0)と検出点P62(x,y)を結ぶ線分gと平行し検出点P61〜P64を通る直線のうち、Y軸との交点のY座標の値が最大となる直線L603および最小となる直線L604によって囲まれる領域である。
死角領域Rγは、この操作軌跡領域Rβよりもユーザの手元側の領域であって、原点P02(0,0)から最も近い検出点P62(x,y)と原点P02(0,0)とを結ぶ線分gと直交し、検出点P62(x,y)を通る直線L605よりもP04(j,k)側の領域から操作軌跡領域Rβを除いた領域である。
モデル設定部203は、検出点P61〜P64のうち、例えば、原点P02(0,0)に最も近い検出点P62を注視参照点F(x,y)として検出する。このモデル設定部203は、この注視参照点F(x,y)と原点P02(0,0)とを結ぶ注視点直線g上に存在する注視点I(t,u)を、以下の式(4)に従って算出することができる。
Figure 2012185678
この注視点直線gは、以下の式(5)によって表わされる。
Figure 2012185678
つまり、モデル設定部203は、注視点直線g上において、原点P02(0,0)からx離れた点aと、原点P02(0,0)からy離れた点bの中央点を注視点I(t,u)として算出する。言い換えると、点aは、注視参照点F(x,y)のx座標点(x,0)を原点P02(0,0)中心に回転させて、注視点直線gと交わる点である。また、点bは、注視参照点F(x,y)のy座標点(0,y)を原点P02(0,0)中心に回転させて、注視点直線gと交わる点である。つまり、注視点I(t,u)は、注視点直線gにおいて、原点P02(0,0)から{(x+y)/2}の距離にある点である。
なお、タッチパネル102の画面上のX軸において基準点P02(0,0)のX座標値“0”と注視参照点F(x,y)のX座標値“x”の差分の絶対値をx(ここではx=x)とする。また、タッチパネル102の画面上のY軸において基準点P02(0,0)のY座標値“0”と注視参照点F(x,y)のY座標値“y”の差分の絶対値をy(ここではy=y)とする。この場合、注視点I(t,u)は、注視点直線g上において基準点P02(0,0)から{(x+y)/2}の距離にある点である。
上述の式(4)、(5)は、注視点領域モデルのモデルBに対応する注視点I(t,u)の演算式を示す注視点領域情報として、記憶部201に予め記憶されている。
なお、注視点領域Rαは、この注視点I(t,u)を中心とした予め決められた大きさの楕円領域である。
次に、図12を参照して、モデルCについて説明する。
図12は、モデルCの注視点について説明するための図である。
図12に示す通り、ディスプレイ121に、スライド操作SL7が与えられたとする。このスライド操作SL7は、始点P71、中間点P72、P73、および終点P74の検出点によって表わされる。
操作軌跡領域Rβは、例えば、検出点P71〜P74を含む領域である。本実施形態において、モデルCの操作軌跡領域Rβは、検出点P71〜P74のうち、P01(j,0)から最も近い検出点(x,y)よりもユーザの手前側の領域である。例えば、操作軌跡領域Rβは、P01(j,0)と検出点P71(x,y)を結ぶ線分gに直交し検出点P71〜P74を通る直線のうち、Y軸との交点のY座標の値が最大となる直線L701および最小となる直線L702と、P01(j,0)と検出点P71(x,y)を結ぶ線分gと平行し検出点P71〜P74を通る直線のうち、Y軸との交点のY座標の値が最大となる直線L703および最小となる直線L704によって囲まれる領域である。
死角領域Rγは、この操作軌跡領域Rβよりもユーザの手元側の領域であって、P01(j,0)から最も近い検出点P71(x,y)とP01(j,0)とを結ぶ線分hと直交し、検出点P71(x,y)を通る直線L705よりもP03(0,k)側の領域操作領域Rβ領域である。
モデル設定部203は、検出点P71〜P74のうち、例えば、P01(j,0)に最も近い検出点P71を注視参照点F(x,y)として検出する。このモデル設定部203は、この注視参照点F(x,y)とP01(j,0)を結ぶ注視点直線h上に存在する注視点I(t,u)を、以下の式(6)に従って算出することができる。
Figure 2012185678
この注視点直線hは、以下の式(7)によって表わされる。
Figure 2012185678
つまり、モデル設定部203は、注視点直線h上において、X軸点(j,0)から(j−x)離れた点aと、X軸点(j,0)からy離れた点bの中央点を注視点I(t,u)として算出する。言い換えると、点aは、注視参照点F(x,y)のx座標点(x,0)をP01(j,0)を中心に回転させて、注視点直線hと交わる点である。また、点bは、注視参照点F(x,y)のy座標点(0,y)をP01(j,0)中心に回転させて、注視点直線hと交わる点である。つまり、注視点I(t,u)は、注視点直線hおいて、P01(j,0)から{(j−x)+y)/2}の距離にある点である。
なお、タッチパネル102の画面上のX軸において基準点P01(j,0)のX座標値“j”と注視参照点F(x,y)のX座標値“x”の差分の絶対値をx(ここではx=j−x)とする。また、タッチパネル102の画面上のY軸において基準点P01(j,0)のY座標値“0”と注視参照点F(x,y)のY座標値“y”の差分の絶対値をy(ここではy=y)とする。この場合、注視点I(t,u)は、注視点直線h上において基準点P01(j,0)から{(x+y)/2}の距離にある点である。
この式(6)、(7)は、注視点領域モデルのモデルCに対応する注視点I(t,u)の演算式を示す注視点領域情報として、記憶部201に予め記憶されている。
なお、注視点領域Rαは、この注視点I(t,u)を中心とした予め決められた大きさの楕円領域である。
このモデルCは、モデルBをX軸方向の中心であるx=j/2の直線で線対称に左右を反転させたものである。よって、モデル設定部203は、モデルBの式(5)を用いて、モデルBでのディスプレイ上の注視点I´(t´,u´)を算出し、それを再度線対称に移動させることで、モデルCでのディスプレイ上の注視点I(t,u)を求めるものであってもよい。
次に、図7に戻って、注視点推定処理について説明する。
(ステップST302)
モデル設定部203は、上述の通り決定した注視点領域モデルを示す注視点推定モデル情報を注視点推定部204に出力する。
(ステップST303)
そして、注視点推定部204は、記憶部201から線操作軌跡情報を読み出す。
(ステップST304)
次いで、注視点推定部204は、モデル設定部203から入力した注視点推定モデル情報と、記憶部201から読み出した線操作軌跡情報に基づき、線操作毎に、コンテンツにおける注視点E(r,s)を算出する。
ここで、図13〜15を参照して、注視点領域モデルにおいて規定されている注視点I(t,u)と、コンテンツにおける注視点E(r,s)の対応関係について説明する。
図13は、注視点I(t,u)と注視点E(r,s)の対応関係の一例について説明するための図である。
図13に示す通り、コンテンツにおける表示基準点Q(v,w)は、ディスプレイ121に表示されているコンテンツにおけるディスプレイの原点P02(0,0)に対応する点である。つまり、コンテンツにおける表示基準点Q(v,w)から、x軸方向にjピクセル、y軸方向にkピクセルの画像が、ディスプレイ121に表示されている画像領域である。ここでは、コンテンツにおけるディスプレイ121に表示されている部分の画像領域を表示画像領域500と呼称する。
本実施形態において、コンテンツの表示を開始した最初の表示基準点Q(v,w)は、コンテンツの原点(画像の左上の頂点)に対応する座標であり、表示基準点Q(v,w)=(0,0)である。この基準点Q(v,w)を初期基準点という。
この表示画像領域500の画像の表示倍率が縮小された場合、図14に示す通り、コンテンツにおける表示基準点Q(v,w)は、表示基準点Qm+1(vm+1,wm+1)に移動する。なお、表示基準点Q(v,w)は、表示画像領域500の表示倍率がp倍であるときのコンテンツにおける表示基準点である。表示基準点Qm+1(vm+1,wm+1)は、表示画像領域500の表示倍率がp倍であるときのコンテンツにおける表示基準点である。なお、表示倍率は、p>pの関係である。この図14は、表示倍率がpからpへ変更された場合における、変更前の表示画像領域501と、変更後の表示画像領域502とを示す。
注視点推定部204は、注視点推定モデル情報の注視点領域モデルに基づき、記憶部201の注視点領域情報を参照して、各注視点領域モデルに対応するディスプレイ121の画面内における注視点I(t,u)を算出する。
そして、注視点推定部204は、線操作軌跡情報のある線操作の表示倍率情報が、一つ前の線操作の表示倍率値と異なる場合、線軌跡情報に含まれる線操作毎の表示倍率情報と算出した注視点I(t,u)を用いて、式(8)、(9)に従い、表示倍率変更後のコンテンツにおける注視点E(r,s)を算出する。
なお、注視点推定部204は、表示基準点Q(v,w)を算出する場合、初期基準点Q(v,w)から、操作後の表示基準点Q、Q、Q、・・・を、操作ログに基づき順次算出し、コンテンツにおける注視点E(r,s)を算出するための表示基準点Qm+1(vm+1,wm+1)を算出する。
Figure 2012185678
Figure 2012185678
式(8)において、jはディスプレイの解像度のx方向の値、kはディスプレイの解像度のy方向の値、pは変更前の表示倍率情報、pは変更後の表示倍率情報である。式(9)において、t,uは注視点領域モデルに基き注視点推定部204が算出したディスプレイ上の注視点I(t,u)のx,y座標値である。
表示画像領域501の画像を拡大する場合、ディスプレイ121で見えるコンテンツの範囲が狭くなる。つまり、コンテンツにおいて、変更前の表示画像領域501に比べて、変更後の表示画像領域502の方が狭い。一方、表示画像領域501の画像を縮小する場合、この逆で、ディスプレイ121で見えるコンテンツの範囲が広くなる。つまり、コンテンツにおいて、変更前の表示画像領域501に比べて、変更後の表示画像領域502の方が広い。
注視点推定部204は、拡縮を行う前の表示倍率pで表示されているディスプレイ121の中心に対応するコンテンツの座標(つまり、コンテンツの表示画像領域501における中心点)を求める。そして、注視点推定部204は、拡縮後の表示倍率pで表示されているディスプレイ121の中心(コンテンツの表示画像領域501における中心点)を基点として、拡縮後の表示倍率pで表示されている表示画像領域502のコンテンツにおける表示基準点Qm+1(vm+1,wm+1)を算出する。
ここでは、図14を参照して表示倍率が縮小された場合について説明したが、表示倍率が拡大された場合についても同様に、注視点推定部204は、式(8)、(9)に従って、表示倍率変更後のコンテンツにおける注視点E(r,s)を算出することができる。
また、表示画像領域500がコンテンツ上において移動した場合、図15に示す通り、コンテンツにおける表示基準点Q(v,w)は、表示基準点Qm+1(vm+1,wm+1)に移動する。なお、表示基準点Q(v,w)は、移動される前の表示画像領域503における表示基準点である。表示基準点Qm+1(vm+1,wm+1)は、移動した後の表示画像領域504における表示基準点である。この図15は、線操作によって移動する前の表示画像領域503と、線操作によって表示画像領域503がx方向にrx、y方向にry移動した後の表示画像領域504とを示す。
注視点推定部204は、注視点推定モデル情報の注視点領域モデルに基づき、記憶部201の注視点領域情報を参照して、各注視点領域モデルに対応するディスプレイ121の画面内における注視点I(t,u)を算出する。
そして、注視点推定部204は、線操作によって表示画像領域が移動している場合、線軌跡情報に含まれる線軌跡情報に含まれる線操作の操作点ごとに算出した注視点I(t,u)を用いて、式(10)、(11)に従い、表示倍率変更後のコンテンツにおける注視点E(r,s)を算出する。
Figure 2012185678
Figure 2012185678
式(10)において、rx,ryはそれぞれ線操作によるx軸、y軸の移動量を示す。式(11)において、pは表示倍率情報を示す。
(ステップST305)
注視点推定部204は、ステップST304における注視点E(r,s)の算出処理を、線操作毎に行う。つまり、一のコンテンツを表示した際に得られた操作ログに含まれる全てのスライド操作および全てのフリック操作に対して、それぞれ、注視点E(r,s)を算出する。
(ステップST306)
注視点推定部204は、式(8)、(9)を用いて算出した注視点E(r,s)、あるいは、式(10)、(11)を用いて算出した注視点E(r,s)を示す注視点領域情報を出力する。
これにより、注視点推定部204は、線軌跡情報に基づき、操作点毎に注視点E(r,s)を算出し、図16に示すような注視点領域情報を生成する。
図16は、本実施形態に係る線軌跡情報と注視点領域情報の一例を示す図である。図16に示す通り、注視点領域情報は、例えば、{操作時刻,コンテンツの閲覧ページ,注視点E(r,s),滞留時間,表示倍率}をこの順番で記載したデータ形式である。
<本実施形態における具体例>
次に、具体例を用いて、本実施形態に係る表示端末100についてより詳細に説明する。
表示端末100の記憶部201には、予め以下のような情報が記憶されている。
[コンテンツ情報]
コンテンツ情報に含まれるプロパティ情報
・ファイル名:test.doc
・ページサイズ:1440×2400(ピクセル)
・ページ数:3
[端末情報]
ディスプレイ121に関する情報
・画面サイズ:3.5インチ
・解像度:480×800
(ステップST101)
図3に示す通り、表示端末100の制御部103は、記憶部201からアプリ情報211を読み出し、操作軌跡情報を取得し、注視点を推定するためのアプリケーションを起動させる。
この制御部103は、例えば、操作軌跡情報を取得し、注視点を推定する指示を、操作入力部122を介してユーザから受け付けることにより、アプリケーションを起動させる。
次いで、制御部103は、記憶部201からコンテンツ情報を読み出し、例えば、コンテンツD1をタッチパネル102のディスプレイ121に表示させる。
(ステップST102)
そして、制御部103は、記憶部201から端末情報{画面サイズ:3.5インチ/解像度:480×800}を読み出す。
(ステップST103)
次いで、ユーザがコンテンツを参照するための操作を行ったことを検出すると、制御部103は、記憶部201からコンテンツ情報を読み出し、コンテンツ情報に含まれるプロパティ情報{ファイル名:test.doc/ページサイズ:1440×2400ピクセル/ページ数:3}と、記憶部201から読み出した端末情報{画面サイズ:3.5インチ/解像度:480×800}に基づき、ディスプレイ121の画面にあわせてコンテンツD1をタッチパネル102のディスプレイ121に表示させる。
(ステップST104)
ここで、タッチパネル102の操作入力部122は、ステップST103において読み出されたコンテンツD1を表示している間に検出される操作入力情報を取得する。
(ステップST105)
ディスプレイ121に表示されているコンテンツの表示を終了する指示が、操作入力部122を介してユーザから入力されると、制御部103は、コンテンツD1を表示する処理を終了する。
(ステップST106)
そして、制御部103は、上述の通り、コンテンツD1を表示する処理を開始してから終了するまでに取得した操作入力情報に基づき、コンテンツD1に対応する操作ログを生成して、記憶部201に格納する。この制御部103は、コンテンツD1のコンテンツ情報と操作ログとを対応付けて記憶部201に格納する。
例えば、コンテンツD1を表示している間に、図17に示すような操作が与えられたとする。
図17は、操作番号“1”〜“7”が割り当てられた7つの操作の軌跡を示す図である。なお、操作番号“1”、“3”、“4”、“5”、“7”は、スライド操作であって、線操作である。操作番号“2”、“6”は、タッチ操作であって、点操作である。
図18は、図17に示した操作を行ったときの操作ログの一部を示す図である。制御部103は、例えば、検出点P11〜P16,P21,P31〜P33のそれぞれに対応する操作ログを生成する。図示の通り、検出点P11〜P16は、操作番号“1”のスライド操作を示す検出点の集合である。このスライド操作“1”の次の操作は、操作番号“2”のタッチ操作であって、操作点P21である。このタッチ操作“2”の次の操作は、操作番号“3”のスライド操作である。検出点P31〜P33は、スライド操作“3”を示す検出点の集合である。
(ステップST107)
次いで、操作状況判定部202は、記憶部201からコンテンツD1に対応する操作ログを読み出す。操作状況判定部202は、この操作ログに基づき、記憶部201のモデル判定情報を参照して、コンテンツD1を表示している間におけるユーザの操作状況を判定する。
そして、操作状況判定部202は、以下の操作状況推定処理を行う。
(ステップST201)
操作状況判定部202は、記憶部201から端末情報に含まれる画面サイズを示めす情報を読み出す。
(ステップST202)
そして、操作状況判定部202は、読み出した画面サイズ情報が示す画面サイズが、予め決められている画面サイズ(例えば5インチ)以上であるか否かを判定する。上述の通り、記憶部201は、端末情報{画面サイズ:3.5インチ/解像度:480×800}を記憶している。
(ステップST203)
よって、操作状況判定部202は、ディスプレイ121の画面サイズが、予め決められている画面サイズ(5インチ)未満であると判定し、操作ログ集中領域判定を行う。
具体的に説明すると、操作状況判定部202は、記憶部201から操作ログを読み出し、ディスプレイ121の分割領域R1〜R4ごとに、各分割領域R1〜R4に含まれる検出点の数をそれぞれ算出する。
このディスプレイ121における分割領域R1〜R4の一例を図19に示す。
操作状況判定部202は、分割領域R1〜R4のそれぞれに含まれる検出点の集合をΩ1〜Ω4としたとき、各集合Ω1〜Ω4の要素数である各分割領域R1〜R4の検出点の数を算出する。この操作状況判定部202は、各分割領域R1〜R4に対応する集合Ω1〜Ω4の要素数ω1〜ω4の総数(ω1+ω2+ω3+ω4)に対する割合を、分割領域R1〜R4ごとに算出する。そして、操作状況判定部202は、算出した割合が予め決められている基準値以上であるか否かを判定する。
本実施形態において、操作状況判定部202は、総数に対する各集合Ω1〜Ω4の要素数ω1〜ω4の割合が、いずれも基準値未満である判定する。
よって、操作状況判定部202は、操作情報は、ケース5.{それ以外の場合⇒パターンIあるいはパターンIIの左手または右手で持ち、もう一方の手で操作}であると判定する。そして、操作状況判定部202は、判定結果に基づき、ユーザの表示端末100の持ち方の推定結果として、パターンIあるいはパターンIIを示す情報をモデル設定部203に出力する。
(ステップST204)
次いで、操作状況判定部202は、記憶部201に記憶されているコンテンツD1に対応する操作ログを参照して、操作名「Slide」あるいは「Flick」と対応付けられている検出点のうち、各操作の始点(x,y)と終点(x,y)を読み出す。
そして、操作状況判定部202は、上述の式(2)に従い、各操作の始点と終点を通る直線の傾きを算出する。なお、操作状況判定部202は、操作ログに含まれる全ての線操作であるスライド操作“1”、“3”、“4”、“5”、“7”について、始点と終点を通る直線の傾きを算出する。
このとき、タッチ操作“2”、“6”は点操作であるため、操作状況判定部202はこれに基づき傾きを算出しない。例えば、スライド操作“1”の始点P11(x,y)=(164.78333,284.3625)と終点P16(x,y)=(101.38333,301.3625)に基づき、傾き情報を算出する。
つまり、操作状況判定部202は、以下のような演算を行い、スライド操作“1”の傾きを算出する。
Figure 2012185678
同様にして、操作状況判定部202は、スライド操作“3”、“4”、“5”、“7”の傾きをそれぞれ算出する。
本実施形態において、スライド操作“1”、“3”、“4”、“5”、“7”の傾きは、全て「負の傾き」である。
(ステップST206)
次いで、操作状況判定部202は、持ち方推定処理において持ち手と操作の手が決定しているか否かを判定する。
上述の通り、操作状況判定部202は、ユーザの表示端末100の持ち方の推定結果として、パターンIあるいはパターンIIを示す情報を取得している。よって、操作状況判定部202は、持ち方推定処理において持ち方と操作の手が決定していないと判定する。
(ステップST207)
そして、操作状況判定部202は、ステップST204において算出した全ての操作に対する傾き情報に基づき、傾きの値が正である「正の傾き」の操作の数と、傾きの値が負である「負の傾き」の操作の数の比率を算出する。上述のとおり、スライド操作“1”、“3”、“4”、“5”、“7”の傾きは、全て「負の傾き」である。よって、操作状況判定部202は、ユーザの操作状況は、ケース5{持ち方の推定結果がパターンIあるいはIIであって、傾き結果が負の傾き⇒パターンIの左手で持ち右手で操作}であると判定する。
(ステップST108)
そして、操作状況判定部202は、傾き結果に応じて判定されたユーザの操作状況を示す操作状況推定情報を生成し、モデル設定部203に出力する。
(ステップST301)
次いで、モデル設定部203は、操作状況判定部202から入力する操作情状況推定情報に基づき、記憶部201のモデル判定情報に含まれる注視点領域モデルテーブルを参照して、操作状況に対応する注視点領域モデルを決定する。
上述の通り、操作情状況推定情報は、パターンIの左手で持ち右手で操作を示す情報である。よって、モデル設定部203は、注視点領域モデルとして、モデルAを決定する。
(ステップST302)
そして、モデル設定部203は、決定した注視点領域モデル{モデルA}を示す注視点推定モデル情報を注視点推定部204に出力する。
(ステップST303)
次いで、注視点推定部204は、記憶部201から線操作軌跡情報を読み出す。
(ステップST304)
そして、注視点推定部204の注視点推定部204は、モデル設定部203から入力する注視点推定モデル情報と、記憶部201から読み出した線軌跡情報に基づき、線操作毎に、コンテンツにおける注視点E(r,s)を算出する。この線軌跡情報の一例を図20に示す。
つまり、注視点推定部204は、注視点推定モデル情報の注視点領域モデル{モデルA}に基づき、記憶部201の注視点領域情報に含まれる式(3)を参照して、各注視点領域モデルに対応するディスプレイ121の画面内における注視点I(t,u)を算出する。つまり、注視点推定部204は、注視参照点F(x,y)よりも上部の領域{(x,y)|(0≦x≦480,0≦y≦y}の中心点である注視点I(240,y/2)を算出する。
注視点推定部204は、線操作軌跡情報から表示範囲毎の滞留時間を割り出す。
例えば、注視点推定部204は、以下の式(13)に従って、表示範囲ごとの滞留時間を算出する。
Figure 2012185678
なお、Tは、閲覧開始時刻であって、例えば、コンテンツのディスプレイ121に表示された時刻である。Tは最初の線操作の始点が検出された際の時刻(操作時刻)を、Tは最初の線操作の終点が検出された際の時刻(操作時刻)を示す。また、Tはl/2番目の線操作の始点が検出された際の時刻(操作時刻)を、Tl+1はl/2番目の線操作の終点が検出された際の時刻(操作時刻)を示す。
注視点推定部204は、線操作軌跡情報とコンテンツ情報よりコンテンツの表示範囲を割り出す。
例えば、注視点推定部204は、初期基準点Q(v,w)から、操作後の表示基準点Q、Q、Q、・・・を、操作ログに基づき順次算出し、コンテンツにおける注視点E(r,s)を算出するための表示基準点Qm+1(vm+1,wm+1)を算出する。
(ステップST305)
本実施形態において、スライド操作“1”、“3”、“4”、“5”、“7”により、表示画像領域500がコンテンツ上において移動している。よって、注視点推定部204は、線軌跡情報に含まれるスライド操作の操作点ごとに算出した注視点I(t,u)に基づき、式(10)、(11)に従い、表示倍率変更後のコンテンツにおける注視点E(r,s)を算出する。つまり、注視点推定部204は、注視点I(240,y/2)に基づき、スライド操作“1”のスライド後における検出点p12〜p16のそれぞれについて、スライド後のコンテンツにおける注視点E(r,s)を、以下の式(14)に従って算出する。
Figure 2012185678
例えば、スライド操作“1”に対応する注視参照点F(x,y)=(164.78333,284.3625)であった場合、注視点I(240,y/2)=(240,142.18125)である。例えば、スライド後の検出点p12に対応する表示基準点Qm+1(vm+1,wm+1)=(100,140)であり、かつ、表示倍率が100%であった場合、コンテンツにおける注視点E(r,s)=(340,282.18125)となる。
なお、注視点推定部204は、ステップST304における注視点E(r,s)の算出処理を、スライド操作“3”、“4”、“5”、“7”の操作点に対しても同様にして行い、線操作の全ての検出点についての注視点E(r,s)を算出する。
ページ切替にあたる操作の操作時間からどのページを見ているかを判別する。
コンテンツとの連動は、ディスプレイの原点(0,0)に対応するコンテンツの座標を表示基準点Q(v,w)、そのとき行われたスライド操作での移動距離のx方向をrx、y方向をry、拡縮情報をpとしたとき、移動後のディスプレイの原点に対応するコンテンツの表示基準点Qm+1(vm+1,wm+1)を、式(10)に従って算出する。
(ステップST306)
そして、注視点推定部204は、算出した注視点E(r,s)を示す注視点領域情報を注視点表示制御部205に出力する。この注視点領域情報の一例を図21に示す。
この注視点表示制御部205は、例えば、図22に示すように、コンテンツにおける注視点E(r,s)を表示することができる。図22は、コンテンツにおける注視点E(r,s)をコンテンツに重畳して表示した場合の一例を示す図である。
図22に示す通り、注視点表示制御部205は、操作ごとに算出された注視点E(r,s)を操作時刻の順に結ぶ注視点の変化の軌跡を、コンテンツに重畳して表示する。この注視点の変化の軌跡を示す画像を注視点軌跡画像という。
この場合、注視点表示制御部205は、注視点軌跡画像において、表示範囲ごとの滞留時間の長い部分については色を濃く、滞留時間が短い部分を薄く表示させることができる。また、注視点表示制御部205は、注視点軌跡画像において、ユーザが表示倍率を拡大させた部分について線を太く、縮小させた部分についての線は細く表示させることができる。
また、注視点表示制御部205は、通常読み進める方向にスクロールした場合、注視点軌跡画像を赤く、通常読み進める方向と逆の方向にスクロールした場合、注視点軌跡画像を青く表示することができる。なお、通常読み進める方向とは、例えば、コンテンツにおいて予め決められている上下方向の上から下に向かう方向である。
上述の通り、本実施形態に係る情報解析装置は、タッチパネルの画面上において、予め決められている注視点領域Rαと死角領域Rγの位置関係に従い、操作ごとにコンテンツにおける注視点E(r,s)を、操作ログに基づき算出している。このように、タッチパネルに表示さているコンテンツにおいてユーザが操作した位置に基づき注視点E(r,s)を算出することによって、タッチパネルに表示している表示内容においてユーザが操作時に注目していると推定される部分を示す情報を精度よく取得することができる。
また、本実施形態に係る情報解析装置は、操作状況を判定するとともに、操作状況に応じて予め決められている注視点領域Rαと死角領域Rγとの位置関係を規定しているモデルに基づき、コンテンツにおける注視点E(r,s)を算出している。これにより、ユーザが操作時に注目していると推定される部分を、操作状況に応じて絞り込むことができる。
このように、コンテンツにおける注視点E(r,s)を算出することにより、ユーザの閲覧状況を数値的に表わすことができる。このため、例えば、注視点E(r,s)の中中する場所や変化の軌跡等に基づき、コンテンツにおいてユーザが関心を持った部分を推定することができ、ユーザの好みに応じたコンテンツを提供する際に有益である。
<変形例>
本発明に係る情報解析装置200は、図1に示す通り、表示端末100に内蔵されているものに限られず、例えば、図23に示す通り、表示端末100と別の装置として構成されるものであってもよい。
この場合、表示端末1100は、通信部101を介して情報解析装置200と通信を行い、タッチパネル102の操作入力部122によって検出される操作入力情報を情報解析装置200に送信する。この情報解析装置200は、通信部206を介して表示端末1100と通信を行い、この操作入力情報を受信する。
なお、この情報解析装置200は、複数の表示端末1100と接続され、複数の表示端末1100から送信される操作入力情報に基づき、操作ログを解析してコンテンツにおける注視点E(r,s)を算出するものであってもよい。
また、図3、5、7に示す各ステップを実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、また、図1に示す情報解析装置200の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、検出対象物の形状情報の推定値を算出する処理を行ってもよい。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムに既に記録されているプログラムとの組合せで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
100・・・表示端末、101・・・通信部、102・・・タッチパネル、121・・・ディスプレイ、122・・・操作入力部、200・・・情報解析装置、201・・・記憶部、202・・・操作状況判定部、203・・・モデル設定部、204・・・注視点推定部、205・・・注視点表示制御部

Claims (7)

  1. コンテンツを表示するタッチパネルから、前記コンテンツを表示している表示画面上におけるユーザの操作を示す操作信号を入力する入力部と、
    前記ユーザからの操作を受け付ける際に前記タッチパネルの画面上において前記ユーザの死角と推定される死角領域と、ユーザからの操作を受け付ける領域である操作軌跡領域により区別される領域であって、前記ユーザが操作時に注目していると推定される前記コンテンツ上の注視点を示す情報を、前記操作信号が示す操作軌跡領域に基づき算出する注視点推定部と
    を備えることを特徴とする情報解析装置。
  2. 前記タッチパネルを保持するユーザの手と前記タッチパネルを操作するユーザの手の組み合わせに応じて予め決められているユーザの操作状況を、前記操作信号に基づき判定する操作状況判定部をさらに備え、
    前記注視点推定部は、
    前記死角領域との位置関係が前記ユーザの操作状況に応じて予め決められている前記注視点領域を示す情報として、前記操作状況に応じて予め決められている注視点の位置を示す位置情報を算出することを特徴とする請求項1に記載の情報解析装置。
  3. 前記注視点推定部は、
    前記タッチパネルの画面上において前記死角領域を除く領域の中央の点を、前記タッチパネル上における前記注視点領域を示す情報として算出することを特徴とする請求項1あるいは2に記載の情報解析装置。
  4. 前記注視点推定部は、
    前記タッチパネルに入力された線状の動きを示す線操作の位置を示す位置情報に基づき、当該線操作を示す複数の検出点のうち一の代表点と前記タッチパネルの上側の予め決められた基準点とを結ぶ直線上において、前記タッチパネルの画面上のX軸方向において前記基準点のX座標値と前記代表点のX座標値の差分の絶対値がx、前記タッチパネルの画面上のY軸方向において前記基準点のY座標値と前記代表点のY座標値の差分の絶対値がyであった場合、前記直線上において前記基準点から{(x+y)/2}の距離にある点を、前記タッチパネル上における前記注視点領域を示す情報として算出することを特徴とする請求項1から3のいずれか一項に記載の情報解析装置。
  5. 前記タッチパネルと、
    上述の請求項1から請求項4のうちいずれか一項に記載の情報解析装置を備える表示端末。
  6. コンテンツを表示するタッチパネルから、前記コンテンツを表示している表示画面上におけるユーザの操作を示す操作信号を入力する入力ステップと、
    前記ユーザからの操作を受け付ける際に前記タッチパネル上において前記ユーザの死角と推定される死角領域に対して予め決められた位置関係で区別される領域であって前記ユーザが操作時に注目していると推定される前記コンテンツ上の注視点領域を示す情報を、前記操作信号に基づき算出する注視点推定ステップと
    を備えることを特徴とする情報解析方法。
  7. コンピュータを、
    コンテンツを表示するタッチパネルから、前記コンテンツを表示している表示画面上におけるユーザの操作を示す操作信号を入力する入力手段、
    前記ユーザからの操作を受け付ける際に前記タッチパネル上において前記ユーザの死角と推定される死角領域に対して予め決められた位置関係で区別される領域であって前記ユーザが操作時に注目していると推定される前記コンテンツ上の注視点領域を示す情報を、前記操作信号に基づき算出する注視点推定手段
    として機能させるための情報解析プログラム。
JP2011048339A 2011-03-04 2011-03-04 情報解析装置、表示端末、情報解析方法、および情報解析プログラム Expired - Fee Related JP5401493B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011048339A JP5401493B2 (ja) 2011-03-04 2011-03-04 情報解析装置、表示端末、情報解析方法、および情報解析プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011048339A JP5401493B2 (ja) 2011-03-04 2011-03-04 情報解析装置、表示端末、情報解析方法、および情報解析プログラム

Publications (2)

Publication Number Publication Date
JP2012185678A true JP2012185678A (ja) 2012-09-27
JP5401493B2 JP5401493B2 (ja) 2014-01-29

Family

ID=47015719

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011048339A Expired - Fee Related JP5401493B2 (ja) 2011-03-04 2011-03-04 情報解析装置、表示端末、情報解析方法、および情報解析プログラム

Country Status (1)

Country Link
JP (1) JP5401493B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014149641A (ja) * 2013-01-31 2014-08-21 Ntt Comware Corp 情報処理装置、情報処理方法及びプログラム
JP2017027577A (ja) * 2016-04-06 2017-02-02 ヤフー株式会社 情報処理装置、情報処理方法、情報処理プログラムおよび配信装置
JP6348651B1 (ja) * 2017-11-20 2018-06-27 株式会社博報堂Dyホールディングス 広告条件決定装置及びコンピュータプログラム
US10366407B2 (en) 2015-07-27 2019-07-30 Yahoo Japan Corporation Information processing device, information processing method, non-transitory computer readable storage medium, and distribution device
JP2020035452A (ja) * 2019-09-30 2020-03-05 株式会社ワコム デジタルインクファイル生成方法、デジタルインクファイル生成装置、デジタルインクファイル再生方法、デジタルインクファイル再生装置、及びプログラム
WO2022160933A1 (en) * 2021-01-26 2022-08-04 Huawei Technologies Co.,Ltd. Systems and methods for gaze prediction on touch-enabled devices using touch interactions

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11289484A (ja) * 1998-04-06 1999-10-19 Fuji Photo Film Co Ltd モニタ付きカメラ
JP2009251719A (ja) * 2008-04-02 2009-10-29 Sharp Corp 表示装置
JP2009294725A (ja) * 2008-06-02 2009-12-17 Toshiba Corp 携帯端末
JP2009294984A (ja) * 2008-06-06 2009-12-17 Konica Minolta Holdings Inc 資料データ編集システム及び資料データ編集方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11289484A (ja) * 1998-04-06 1999-10-19 Fuji Photo Film Co Ltd モニタ付きカメラ
JP2009251719A (ja) * 2008-04-02 2009-10-29 Sharp Corp 表示装置
JP2009294725A (ja) * 2008-06-02 2009-12-17 Toshiba Corp 携帯端末
JP2009294984A (ja) * 2008-06-06 2009-12-17 Konica Minolta Holdings Inc 資料データ編集システム及び資料データ編集方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014149641A (ja) * 2013-01-31 2014-08-21 Ntt Comware Corp 情報処理装置、情報処理方法及びプログラム
US10366407B2 (en) 2015-07-27 2019-07-30 Yahoo Japan Corporation Information processing device, information processing method, non-transitory computer readable storage medium, and distribution device
JP2017027577A (ja) * 2016-04-06 2017-02-02 ヤフー株式会社 情報処理装置、情報処理方法、情報処理プログラムおよび配信装置
JP6348651B1 (ja) * 2017-11-20 2018-06-27 株式会社博報堂Dyホールディングス 広告条件決定装置及びコンピュータプログラム
JP2019008767A (ja) * 2017-11-20 2019-01-17 株式会社博報堂Dyホールディングス 広告条件決定装置及びコンピュータプログラム
JP2020035452A (ja) * 2019-09-30 2020-03-05 株式会社ワコム デジタルインクファイル生成方法、デジタルインクファイル生成装置、デジタルインクファイル再生方法、デジタルインクファイル再生装置、及びプログラム
WO2022160933A1 (en) * 2021-01-26 2022-08-04 Huawei Technologies Co.,Ltd. Systems and methods for gaze prediction on touch-enabled devices using touch interactions
US11474598B2 (en) 2021-01-26 2022-10-18 Huawei Technologies Co., Ltd. Systems and methods for gaze prediction on touch-enabled devices using touch interactions

Also Published As

Publication number Publication date
JP5401493B2 (ja) 2014-01-29

Similar Documents

Publication Publication Date Title
JP5401493B2 (ja) 情報解析装置、表示端末、情報解析方法、および情報解析プログラム
TWI579734B (zh) 3d視覺化技術
US9678606B2 (en) Method and device for determining a touch gesture
US20120154294A1 (en) Using movement of a computing device to enhance interpretation of input events produced when interacting with the computing device
US20110175831A1 (en) Information processing apparatus, input operation determination method, and input operation determination program
KR20080051459A (ko) 스크롤 처리 방법 및 장치
JP5160579B2 (ja) 表示装置及び画面表示方法
US8704782B2 (en) Electronic device, method for viewing desktop thereof, and computer-readable medium
JP2013003647A (ja) 情報処理装置及びプログラム
JP2011090532A (ja) 端末装置、機能実行方法、機能実行プログラム及び情報処理システム
JP5973679B2 (ja) アプリケーション・インタフェース移動の制御方法、その制御装置及び、端末デバイス、プログラム及び記録媒体
CN103941995B (zh) 信息处理装置、信息处理方法
CN106527915A (zh) 一种信息处理方法及电子设备
JPWO2015025345A1 (ja) 情報表示装置、情報表示方法および情報表示プログラム
JP2012174112A (ja) 画像表示装置、画像表示方法およびプログラム
CN104007920A (zh) 在电子测试装备上选择波形的方法
JP2012216127A (ja) ユーザインタフェース装置、表示装置による操作受付方法及びプログラム
CN103870179A (zh) 便携终端中触摸屏控制方法及装置
US10019087B2 (en) Touch input method and apparatus
KR20130124061A (ko) 공간상의 상호 작용을 이용한 단말의 제어 방법 및 그 단말
CN104025007A (zh) 检测第一和第二触摸以将数据文件与图形数据对象相关联
TWI405104B (zh) 利用觸碰感測輸入裝置來翻轉三維圖形物件之方法
Hachet et al. Tangimap-a tangible interface for visualization of large documents on handheld computers
KR20130124143A (ko) 공간상의 상호 작용을 이용한 단말의 제어 방법 및 그 단말
JP2015076068A (ja) 表示装置とその表示制御方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131028

R150 Certificate of patent or registration of utility model

Ref document number: 5401493

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees