JP5803910B2 - 領域推薦装置、領域推薦方法およびプログラム - Google Patents

領域推薦装置、領域推薦方法およびプログラム Download PDF

Info

Publication number
JP5803910B2
JP5803910B2 JP2012518292A JP2012518292A JP5803910B2 JP 5803910 B2 JP5803910 B2 JP 5803910B2 JP 2012518292 A JP2012518292 A JP 2012518292A JP 2012518292 A JP2012518292 A JP 2012518292A JP 5803910 B2 JP5803910 B2 JP 5803910B2
Authority
JP
Japan
Prior art keywords
area
screen
order
viewing
visual recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012518292A
Other languages
English (en)
Other versions
JPWO2011152149A1 (ja
Inventor
俊輔 鈴木
俊輔 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2012518292A priority Critical patent/JP5803910B2/ja
Publication of JPWO2011152149A1 publication Critical patent/JPWO2011152149A1/ja
Application granted granted Critical
Publication of JP5803910B2 publication Critical patent/JP5803910B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、画面上にオブジェクトを配置するに際して最適な領域を推薦する、領域推薦装置、領域推薦方法、及び記録媒体に関する。
最初に、本明細書で用いられる用語である「オブジェクト」と「領域」とについて説明する。本明細書において、「領域」とは、表示画面上の領域をいう。「オブジェクト」とは、「領域」の一部である。特に、「領域」とは、ユーザが入力機器を用いることによって行われる選択操作(例えば、マウスのクリック等)によって選択可能な領域をいう。具体的に、「オブジェクト」として、グラフィカルユーザインタフェースにおける、リンクが張られたテキストが配置された領域、ボタンが配置された領域等が挙げられる。
コンピュータの分野において、操作画面に、グラフィカルユーザインタフェース(以下「GUI(Graphical User Interface)」という。)を利用することが主流となっている。また、近年において、コンピュータだけでなく、携帯電話、デジタルカメラ等の電子機器の分野においても、GUIを用いたメニュー画面等を利用することが主流となっている。
そして、GUIにおいて、ユーザビリティの向上を図るため、GUIのユーザビリティを評価し、その分析結果を提示する様々な評価システムが提案されている。このような評価システムの一つとして、アイトラッキング分析によってGUIの操作者の視認情報を取得し、取得した視認情報に基づいて評価を行うシステムが挙げられる。アイトラッキング分析では、赤外線センサによって操作者の瞳孔の動きが読み取られ、操作者の視認位置とその順序とが視認情報として取得される。
こうしたアイトラッキング分析を用いた評価システムを利用することにより、GUIの設計者は、あるタスクを達成する上で操作者が選択するべきオブジェクト(以下「選択対象オブジェクト」という。)が視認される早さ、及び、視認される順序を、分析できる。そして、設計者は、分析結果に基づき、選択対象オブジェクトがより確実に選択されるために、「選択対象オブジェクトを、現在の位置から、より早く視認される位置に配置移動すべき」という指針を得ることができる。設計者は、この指針に基づいて、選択対象オブジェクトを配置移動し、GUIにおけるユーザビリティの向上を図る。
また、GUIのユーザビリティの向上を図るためのシステムも提案されている(特許文献1〜3参照)。特許文献1〜3に開示されたシステムは、操作者の操作履歴を取得し、取得した操作履歴に基づいて、画面上のオブジェクトの配置変更を実行する。特許文献1〜3に開示されたシステムは、GUIを評価するシステムではない。しかし、このシステムを利用することにより、操作者において、頻繁に選択するオブジェクトの操作が容易になる。よってこのシステムを利用することにより、GUIにおけるユーザビリティの向上が図られる。
特開2000−99236号公報 特開2007−316783号公報 特許第4059666号公報
ところで、GUIのユーザビリティの更なる向上を図るためには、操作者が選択対象オブジェクトを確実に選択する確率を高める必要がある。言い換えると、GUIのユーザビリティの更なる向上を図るためには、操作者が選択する可能性(以下「選択可能性」という。)の高い位置に、選択対象オブジェクトが配置される必要がある。しかしながら、上述の評価システムは、操作者の視認位置とその順序とを提示することができるが、視認順序の早い位置の中から、操作者が選択する可能性の高い位置を特定することが不可能である。このため、上述の評価システムにおいて、設計者が選択対象オブジェクトを選択可能性の高い位置に配置することは難しい。つまり、上述の評価システムにおいて、ユーザビィリティの更なる向上は困難である。以下に上述の点について詳細に説明する。
先ず、選択対象オブジェクト以外に、誤って頻繁に選択されていたオブジェクトが画面上にあったとする。このとき、たとえ選択対象オブジェクトが移動されても、その移動先が、誤って選択されていたオブジェクトの視認順序よりも後であるような視認順序に対応する位置であると、以下の問題が発生する。すなわち誤って選択されていたオブジェクトが依然選択されやすいままである。従って、この場合、選択対象オブジェクトは、選択可能性を効果的に向上させる位置に配置移動されたとはいえず、ユーザビリティの更なる向上は困難である。
例えば、携帯電話上で「アラームを設定する」というタスクが実行される場合を想定する。図14は、関連技術における携帯電話のメニュー画面の一例を示す図である。図14に示されているメニュー画面は、「アラームを設定する」というタスクの実行の課程で表示される画面である。また、図14において、A〜Iの矩形は、表示されているボタンを示している。各矩形によって区切られた領域は、各ボタンの配置位置を表している。更に、A〜Iの矩形の中央に配置された文字は、ボタンの名称である。
図14に示されるメニュー画面が表示された状態で、上述のタスクが実行される場合、操作者は、メニュー画面で「時計」ボタンを選択する必要がある。そして、上述の評価システムにより、図14に示されるメニュー画面における各ボタンの視認順序として、アルファベット順(A、B、C、・・・I)が特定されているとする。
設計者は、操作者が「時計」ボタンを早く視認して、これをより確実に選択するようにするためには、「時計」ボタンが、現在の矩形Hの位置よりも視認順序の早い矩形A〜Gのいずれかの位置に配置移動されるべきである、という指針を、視認順序から得る。そこで、設計者が、この指針に沿って、「時計」ボタンを、例えば、矩形Eの位置に配置移動したとする。
一方で、「設定」ボタンは、本来選択されるべきボタンではないが、一部の操作者は、このボタンを選択することでアラームを設定できると勘違いし、誤ってこのボタンを頻繁に選択しているとする。更に、図14に示されるように、「時計」ボタンの配置移動後であっても、矩形Eの位置よりも視認順序の早い位置に「設定」ボタンが配置されているとする。
この場合、矩形Eの位置に「時計」ボタンが移動されても、「時計」ボタンよりも「設定」ボタンが先に視認されるので、これまで誤って選択されている「設定」ボタンが、依然選択されやすいままである。つまり、このような場合、「時計」ボタンがEに配置移動されても、その選択可能性は効果的に高められず、ユーザビリティの更なる向上は困難な状態となる。
また、特許文献1〜3に開示されたシステムは、上述したように、操作者の操作履歴を取得する。よって、操作者が誤って頻繁に選択していたボタンは、優先順位が高いオブジェクトであると判断されてしまう。このことから、特許文献1〜3に開示されたシステムが用いられても、ユーザビリティの更なる向上は困難である。
本発明の目的の一例は、上述の問題を解消し、画面上において、操作者がオブジェクトを選択する可能性の高い位置を特定し、GUIにおけるユーザビリィティの向上を図り得る、領域推薦装置、領域推薦方法、及び記録媒体を提供することにある。
本発明の一側面における領域推薦装置は、画面上の領域における視認される順序に基づいて、対象となるオブジェクトが配置されている領域以外の領域のうち、前記視認される順序が設定基準を満たす領域を、高視認領域として特定する、視認性分析部と、前記画面上の各オブジェクトの選択される可能性に基づいて、前記高視認領域中に配置されているオブジェクトのうち、前記選択される可能性が設定基準を満たすオブジェクトを、高選択オブジェクトとして特定する、選択可能性分析部と、前記視認される順序に基づいて、前記高視認領域中の、前記高選択オブジェクトが配置されている領域以外の領域から、前記対象となるオブジェクトの配置に適した領域を、推薦領域として特定する、推薦領域特定部と、を備える。
また、本発明の一側面における領域推薦方法は、画面上の領域における視認される順序に基づいて、対象となるオブジェクトが配置されている領域以外の領域のうち、前記視認される順序が設定基準を満たす領域を、高視認領域として特定し、前記画面上の各オブジェクトの選択される可能性に基づいて、前記高視認領域中に配置されているオブジェクトのうち、前記選択される可能性が設定基準を満たすオブジェクトを、高選択オブジェクトとして特定し、前記視認される順序に基づいて、前記高視認領域中の、前記高選択オブジェクトが配置されている領域以外の領域から、前記対象となるオブジェクトの配置に適した領域を、推薦領域として特定する。
また、本発明の一側面における記録媒体は、コンピュータに、画面上の領域における視認される順序に基づいて、対象となるオブジェクトが配置されている領域以外の領域のうち、前記視認される順序が設定基準を満たす領域を、高視認領域として特定する処理と、前記画面上の各オブジェクトの選択される可能性に基づいて、前記高視認領域中に配置されているオブジェクトのうち、前記選択される可能性が設定基準を満たすオブジェクトを、高選択オブジェクトとして特定する処理と、前記視認される順序に基づいて、前記高視認領域中の、前記高選択オブジェクトが配置されている領域以外の領域から、前記対象となるオブジェクトの配置に適した領域を、推薦領域として特定する処理と、を実行させるプログラムを記録する。
本発明における領域推薦装置、領域推薦方法、及び記録媒体は、画面上において、操作者がオブジェクトを選択する可能性の高い位置を特定し、GUIにおけるユーザビリィティの向上を図ることができる。
図1は、本発明の実施の形態1における領域推薦装置の構成を示すブロック図である。 図2は、本発明の実施の形態1における領域推薦装置の動作を示すフロー図である。 図3は、本発明の実施の形態2における領域推薦装置の構成を示すブロック図である。 図4は、本発明の実施の形態2における領域推薦装置の動作を示すフロー図である。 図5は、本発明の実施の形態3における領域推薦装置の構成を示すブロック図である。 図6は、本発明の実施の形態3における領域推薦装置の動作を示すフロー図である。 図7は、本発明の実施の形態1〜3における領域推薦装置を構成するコンピュータの一例を示すブロック図である。 図8は、実施例1において表示装置が表示している操作画面の一例を示す図である。 図9は、実施例1で用いられる視認順序情報の一例を示している。 図10は、実施例1で用いられる選択可能性情報の一例を示している。 図11は、実施例1において推薦領域が表示された画面の一例を示す図である。 図12は、実施例2において計測されたオブジェクト毎の選択回数を示している。 図13は、実施例3において取得されたオブジェクト毎の視認順位を示している。 図14は、関連技術における携帯電話のメニュー画面の一例を示す図である。
(実施の形態1)
以下、本発明の実施の形態1における、領域推薦装置、領域推薦方法、プログラム、及び記録媒体について、図1及び図2を参照しながら説明する。最初に、図1を用いて、実施の形態1における領域推薦装置の構成について説明する。図1は、本発明の実施の形態1における領域推薦装置の構成を示すブロック図である。
図1に示される実施の形態1における領域推薦装置100は、情報処理装置10に接続されている。領域推薦装置100は、情報処理装置10が提供するGUIの画面上においてオブジェクトの配置に適切な領域を推薦する。また、情報処理装置10は、外部からの入力に応じて、各種のタスクを実行する装置であり、操作画面としてGUIが採用されている。情報処理装置10の具体例として、コンピュータ、携帯端末、デジタルカメラ、その他の電子機器等が挙げられる。
図1に示されるように、情報処理装置10は、入力部20と、演算処理部30と、出力部40と、表示装置50とを備えている。入力部20は、キーボード、タッチパネル、トラックボール、又はトラックパッド等の入力機器である。操作者は、入力部20を介して、表示装置50の画面50aに表示されるオブジェクトの選択等の操作を行うことができる。
操作者が、入力部20を介して画面50a上のオブジェクト(後述の図3参照)を選択すると、演算処理部30は、選択されたオブジェクトに連携しているタスクを実行する。具体的には、演算処理部30は、CPU(Central Processing Unit)によって構成されている。この場合、CPUが、選択されたタスクを実行するためのプログラムを読み出し、読み出したプログラムを実行すると、演算処理部30が構成される。そして、演算処理部30においてタスクが実行される。
また、演算処理部30は、GUIの操作画面、及びタスクの実行結果を示す画面等、各種画面を表示するためのデータを出力部40に出力する。出力部40は、演算処理部30からのデータに基づいて画像データを生成し、これを表示装置50に出力する。
例えば、情報処理装置10が携帯電話であるならば、情報処理装置10が実行するタスクとして、通話、電子メールについての処理、写真についての処理、音楽ファイルについての処理等が挙げられる。
また、図1に示されるように、領域推薦装置100は、視認性分析部101と、選択可能性分析部102と、推薦領域特定部103と、記憶部108とを備えている。視認性分析部101は、画面50a上の領域における視認される順序(以下「視認順序」という。)に基づいて、対象となるオブジェクトが配置されている領域以外の領域のうち、視認順序が設定基準を満たす領域を、高視認領域として特定する。
ここで、「対象となるオブジェクト」とは、推薦領域の特定の対象となるオブジェクトである。即ち、「対象となるオブジェクト」とは、タスクを達成する上で選択すべきオブジェクト(以下「選択対象オブジェクト」とする。)である。「視認順序」は、実際に操作者が外部から画面50aを視認した際における領域毎の順位、又は、予測された領域毎の順位等から求められる。
また、実施の形態1において、記憶部108は、予め、視認順序を特定する情報(以下「視認順序情報」という。)を格納している。視認性分析部101は、記憶部108から視認順序情報を取り出し、取り出した視認順序情報を用いて高視認領域を特定する。
選択可能性分析部102は、画面上の各オブジェクトの選択される可能性(以下「選択可能性」という。)に基づいて、高視認領域中に配置されているオブジェクトのうち、選択可能性が設定基準を満たすオブジェクトを、高選択オブジェクトとして特定する。「選択可能性」は、操作者におけるオブジェクトの選択履歴、オブジェクトに表示されたテキストとオブジェクトが連携するタスクとの関係、又は、オブジェクト毎に予測された選択確率等から求められる。
また、実施の形態1において、記憶部108は、予め、オブジェクト毎に、選択可能性を特定する情報(以下「選択可能性情報」という。)も格納している。選択可能性分析部102は、オブジェクト毎に、記憶部108から選択可能性情報を取り出し、取り出した選択可能性情報を用いて高選択オブジェクトを特定する。
推薦領域特定部103は、視認順序に基づいて、高視認領域中の、高選択オブジェクトが配置されている領域以外の領域から、選択対象オブジェクトの配置に適した領域を、推薦領域として特定する。そして、推薦領域を特定する情報(以下「推薦領域情報」という。)が、領域推薦装置100から情報処理装置10の演算処理部30へと出力される。その後、演算処理部30は、推薦領域情報を用いて、GUIの操作画面を再構築する。
このように、領域推薦装置100は、情報処理装置10が提供する画面50a上において、操作者がオブジェクトを選択する可能性の高い位置を特定できるので、情報処理装置10のGUIにおけるユーザビリィティの向上が図られることとなる。
次に、実施の形態1における領域推薦装置100の動作について図2を用いて具体的に説明する。図2は、本発明の実施の形態1における領域推薦装置100の動作を示すフロー図である。以下の説明においては、適宜図1を参酌する。また、実施の形態1では、領域推薦装置100が動作することによって、領域推薦方法が実施される。よって、実施の形態1における領域推薦方法の説明は、以下の領域推薦装置100の動作説明に代わる。
図2に示されるように、最初に、視認性分析部101は、記憶部108から視認順序情報を取得する。そして、視認性分析部101は、視認順序情報から特定される視認順序に基づいて、選択対象オブジェクトが配置されている領域以外の領域のうち、視認順序が設定基準を満たす領域(高視認領域)を特定する(ステップS101)。
実施の形態1では、ステップS101における視認順序の設定基準として、選択対象オブジェクトよりも視認順序が早いかどうかという基準が採用されうる。この場合、視認性分析部101は、選択対象オブジェクトが配置されている領域以外の領域の中から、選択対象オブジェクトよりも視認順序が早い領域を、高視認領域として特定する。
また、実施の形態1では、領域推薦装置100は、操作者によって画面が閲覧される度に、画面を構成する複数の部分それぞれ毎の視認順位を検出し、検出した各部分の視認順位から視認順序を求めることができる。具体的には、領域推薦装置100は、各部分について平均視認順位を求め、求めた各平均視認順位によって視認順序を構成することができる。更に、領域推薦装置100は、視認順序を、画面を構成する複数の部分それぞれ毎に予測された視認順位から求めることもできる。なお、画面を構成する複数の部分としては、画面上に配置された各オブジェクトが挙げられる。
次に、選択可能性分析部102は、記憶部108から、画面上の各オブジェクトの選択可能性情報を取得する。そして、選択可能性分析部102は、選択可能性情報から特定される各オブジェクトの選択可能性に基づいて、高視認領域中に配置されているオブジェクトのうち、選択可能性が設定基準を満たすオブジェクト(高選択オブジェクト)を特定する(ステップS102)。
実施の形態1では、ステップS102における選択可能性の設定基準として、選択対象オブジェクトよりも選択可能性が高いかどうかという基準が採用されうる。この場合、選択可能性分析部102は、選択対象オブジェクトよりも選択可能性が高いオブジェクトを、高選択オブジェクトとして特定する。
また、実施の形態1において、画面上の各オブジェクトの選択可能性は、例えば、画面の閲覧回数に対する当該オブジェクトが選択された回数の比率から求められうる。更に、画面上の各オブジェクトの選択可能性は、当該オブジェクトが連携するタスクの内容と、当該オブジェクトに表示されているテキストとの意味的な関連性から求められうる。
次に、推薦領域特定部103は、ステップS101で記憶部108から取得された視認順序情報に基づいて、高視認領域中の、高選択オブジェクトが配置されている領域以外の領域から、選択対象オブジェクトの配置に適した領域(推薦領域)を特定する(ステップS103)。
実施の形態1においては、推薦領域特定部103は、例えば、視認性分析部101と同様に、選択対象オブジェクトよりも視認順序が早いかどうかを基準にして、推薦領域を特定することができる。即ち、推薦領域特定部103は、高視認領域中の、高選択オブジェクトよりも視認順序が早い領域を、推薦領域として特定することができる。
また、実施の形態1においては、推薦領域特定部103は、複数個の推薦領域、又はオブジェクトを配置可能な位置を複数含む推薦領域を特定するのが好ましい。これは、オブジェクトの配置位置は、慣習、周辺オブジェクトとの関連性、といった視認順序以外の要素も考慮して決定される必要があり、単一の位置のみが推薦されても、実際には必ずしもその位置にオブジェクトが配置できるとは限らないからである。
その後、推薦領域特定部103は、ステップS103で特定した推薦領域を示す推薦領域情報を、情報処理装置10の演算処理部30に出力する(ステップS104)。ステップS104の実行により、領域推薦装置100における処理は終了する。その後、情報処理装置10においては、例えば、GUIの操作画面の再構築等が行われる。
また、実施の形態1においては、ステップS101で特定される高視認領域、及びステップS103で特定される推薦領域は、単なる領域ではなく、オブジェクトそのものであってもよい。即ち、この高視認領域、及び推薦領域は、選択対象オブジェクト以外のオブジェクト、または、そのオブジェクトが配置された領域、であっても良い。この場合、情報処理装置10は、選択対象オブジェクトの位置を、別のオブジェクトの位置と入れ替えて、GUIの操作画面の再構築を行う。
また、実施の形態1は、上述したように、ステップS101及びS103での判定基準として「視認順序が早いかどうか」を採用し、ステップS102での判定基準として「選択可能性が高いかどうか」を採用するのが好ましい。この場合、タスクを達成する上で操作者が選択すべきオブジェクトの現在位置よりも早く視認される領域から、選択可能性を効果的に向上させる領域が絞り込まれ、絞り込まれた領域が推薦領域として特定されることとなる。
更に、実施の形態1におけるプログラムは、コンピュータに、図2に示されるステップS101〜S104を実行させるプログラムであれば良い。このプログラムがコンピュータにインストールされ、実行されることによって、実施の形態1における領域推薦装置100と領域推薦方法とが実現される。また、この場合、コンピュータのCPUは、視認性分析部101、選択可能性分析部102、及び推薦領域特定部103として機能し、処理を行なう。更に、コンピュータの記憶装置、メモリ等が記憶部108として機能する。更に、実施の形態1におけるプログラムを記録した記録媒体は、上述のプログラムが記録された記録媒体であればよい。
(実施の形態2)
次に、本発明の実施の形態2における、領域推薦装置、領域推薦方法、及び記録媒体について、図1及び図2を参照しながら説明する。最初に、図3を用いて、実施の形態2における領域推薦装置の構成について説明する。図3は、本発明の実施の形態2における領域推薦装置の構成を示すブロック図である。
図3に示されるように、実施の形態2においては、領域推薦装置200は、実施の形態1における領域推薦装置100と異なり、計測部104と、選択可能性情報生成部105とを更に備えている。なお、これ以外の点については、領域推薦装置200は、実施の形態1における領域推薦装置100と同様に構成されている。以下、実施の形態1との相違点を中心に説明する。
計測部104は、表示装置50の画面50aを操作者が閲覧した回数(以下「閲覧回数」という。)と、画面上のオブジェクト毎の当該オブジェクトの選択された回数(以下「選択回数」という。)とを計測する。
選択可能性情報生成部105は、計測部104が計測した閲覧回数とオブジェクト毎の選択回数とに対して統計処理を行い、統計処理の結果に基づいて、オブジェクト毎の選択可能性情報を生成する。
このように、実施の形態2では、計測部104と選択可能性情報生成部105とによって、各オブジェクトの選択可能性情報が生成される。そして、選択可能性分析部102は、生成された選択可能性情報を用いて、高選択オブジェクトを特定する。
次に、実施の形態2における領域推薦装置200の動作について図4を用いて具体的に説明する。図4は、本発明の実施の形態2における領域推薦装置200の動作を示すフロー図である。以下の説明においては、適宜図3を参酌する。また、実施の形態2では、領域推薦装置200が動作することによって、領域推薦方法が実施される。よって、実施の形態2における領域推薦方法の説明は、以下の領域推薦装置200の動作説明に代わる。
図4に示されるように、先ず、計測部104は、閲覧回数と、画面上のオブジェクト毎の選択回数とを計測する(ステップS201)。実施の形態2では、計測部104は、情報処理装置10の演算処理部30にアクセスし、選択対象オブジェクトの領域推薦が求められるまで、ステップS201を繰り返し実行する。
次に、選択可能性情報生成部105は、ステップS201で計測された閲覧回数とオブジェクト毎の選択回数とに対して統計処理を行い、統計処理の結果に基づいて、オブジェクト毎の選択可能性情報を生成する(ステップS202)。
具体的には、選択可能性情報生成部105は、例えば、オブジェクト毎に、閲覧回数に対する当該オブジェクトが選択された回数の比率を求め、求めた比率を選択可能性情報とすることができる。
次に、視認性分析部101は、記憶部108から視認順序情報を取得し、取得した視認順序情報から特定される視認順序に基づいて、高視認領域を特定する(ステップS203)。ステップS203は、実施の形態1において図2に示されたステップS101と同様のステップである。
次に、選択可能性分析部102は、ステップS202で生成された選択可能性情報に基づいて、高選択オブジェクトを特定する(ステップS204)。ステップS204は、ステップS202で生成された選択可能性情報が用いられる点を除き、実施の形態1において図2に示されたステップS102と同様のステップである。
次に、推薦領域特定部103は、ステップS203で記憶部108から取得された視認順序情報に基づいて、高視認領域中の、高選択オブジェクトが配置されている領域以外の領域から、選択対象オブジェクトの配置に適した領域(推薦領域)を特定する(ステップS205)。ステップS205は、実施の形態1において図2に示したステップS103と同様のステップである。
その後、推薦領域特定部103は、ステップS205で特定された推薦領域(推薦領域情報)を、情報処理装置10の演算処理部30に出力する(ステップS206)。ステップS206は、実施の形態1において図2に示されたステップS104と同様のステップである。ステップS206の実行により、領域推薦装置200における処理は終了する。その後、情報処理装置10においては、例えば、GUIの操作画面の再構築等が行われる。
以上のように、実施の形態2において、計測部104及び選択可能性情報生成部105は、最新の選択可能性を示す選択可能性情報を取得することができる。そして、選択可能性分析部102は、この最新の選択可能性情報に基づいて高選択オブジェクトを特定できる。このため、実施の形態2によれば、推薦領域は、より適切なものとなり、情報処理装置10のGUIにおけるユーザビリィティの更なる向上が図られる。
また、実施の形態2におけるプログラムは、コンピュータに、図4に示されるステップS201〜S206を実行させるプログラムであれば良い。このプログラムがコンピュータにインストールされ、実行されることによって、実施の形態2における領域推薦装置200と領域推薦方法とが実現される。また、この場合、コンピュータのCPUは、視認性分析部101、選択可能性分析部102、推薦領域特定部103、計測部104、及び選択可能性情報生成部105として機能し、処理を行なう。更に、コンピュータの記憶装置、メモリ等が記憶部108として機能する。更に、実施の形態2におけるプログラムを記録した記録媒体は、上述のプログラムが記録された記録媒体であればよい。
(実施の形態3)
次に、本発明の実施の形態3における、領域推薦装置、領域推薦方法、及び記録媒体について、図5及び図6を参照しながら説明する。最初に、図5を用いて、実施の形態3における領域推薦装置の構成について説明する。図5は、本発明の実施の形態3における領域推薦装置の構成を示すブロック図である。
図5に示されるように、実施の形態3においては、領域推薦装置300は、実施の形態1における領域推薦装置100と異なり、視認順位取得部106と、視認順序情報生成部107とを備えている。なお、これ以外の点については、領域推薦装置300は、実施の形態1における領域推薦装置100と同様に構成されている。以下、実施の形態1との相違点を中心に説明する。
視認順位取得部106は、画面50aが閲覧される度に、各オブジェクトの視認順位を取得する。具体的には、視認順位取得部106は、操作者の瞳孔に照射された光の反射光を検知して、瞳孔の動きを検出する装置(アイトラッキング装置)を有している。視認順位取得部106は、操作者の瞳孔の動きから、各オブジェクトの視認順位を特定する。
視認順序情報生成部107は、視認順位取得部106が取得した各オブジェクトの視認順位に対して統計処理を行い、統計処理の結果に基づいて、画面上の領域における視認順序を求める。更に、視認順序情報生成部107は、視認順序を特定する視認順序情報を生成し、これを、視認性分析部101及び推薦領域特定部103に入力する。
このように、実施の形態3では、表示装置50の画面50aが閲覧される度に、各オブジェクトの視認順位が検出され、そして、オブジェクト毎に検出された視認順位から、視認順序が求められる。視認性分析部101及び推薦領域特定部103は、視認順序情報生成部107が生成した視認順序情報を用いて、処理を行う。
次に、実施の形態3における領域推薦装置300の動作について図6を用いて具体的に説明する。図6は、本発明の実施の形態3における領域推薦装置300の動作を示すフロー図である。以下の説明においては、適宜図5を参酌する。また、実施の形態3では、領域推薦装置300が動作することによって、領域推薦方法が実施される。よって、実施の形態3における領域推薦方法の説明は、以下の領域推薦装置300の動作説明に代わる。
図6に示されるように、先ず、視認順位取得部106は、画面50aが閲覧される度に、各オブジェクトの視認順位を取得する(ステップS301)。具体的には、視認順位取得部106は、それが有するアイトラッキング装置を動作させ、当該装置からの信号に基づき、各オブジェクトの視認順位を取得する。また、実施の形態3では、視認順位取得部106は、設定回数(例えば、100回等)の閲覧が終了するまで、ステップS301を繰り返し実行する。
次に、視認順序情報生成部107は、ステップS301で取得されたオブジェクト毎の視認順位に対して統計処理を行い、統計処理の結果に基づいて、視認順序情報を生成する(ステップS302)。具体的には、ステップS302では、視認順序情報生成部107は、オブジェクト毎に、平均視認順位を求め、求めた各オブジェクトの平均視認順位によって視認順序情報を構成する。
次に、視認性分析部101は、ステップS302で生成された視認順序情報に基づいて、高視認領域を特定する(ステップS303)。ステップS303は、ステップS302で生成された視認順序情報が用いられる点を除き、実施の形態1において図2に示されたステップS101と同様のステップである。
次に、選択可能性分析部102は、記憶部108から選択可能性情報を取得し、取得した選択可能性情報に基づいて、高選択オブジェクトを特定する(ステップS304)。ステップS304は、実施の形態1において図2に示されたステップS102と同様のステップである。
次に、推薦領域特定部103は、ステップS302で生成された視認順序情報に基づいて、高視認領域中の、高選択オブジェクトが配置されている領域以外の領域から、選択対象オブジェクトの配置に適した領域(推薦領域)を特定する(ステップS305)。ステップS305は、ステップS302で生成された視認順序情報が用いられる点を除き、実施の形態1において図2に示したステップS103と同様のステップである。
その後、推薦領域特定部103は、ステップS305で特定された推薦領域(推薦領域情報)を、情報処理装置10の演算処理部30に出力する(ステップS306)。ステップS306は、実施の形態1において図2に示されたステップS104と同様のステップである。ステップS306の実行により、領域推薦装置300における処理は終了する。その後、情報処理装置10においては、例えば、GUIの操作画面の再構築等が行われる。
以上のように、実施の形態3においては、視認順位取得部106及び視認順序情報生成部107は、画面上の領域における、最新の視認順序を示す視認順序情報を取得することができる。そして、視認性分析部101及び推薦領域特定部103は、この最新の視認順序情報に基づいて、高視認領域、及び推薦領域を特定できる。このため、実施の形態3によれば、推薦領域は、より適切なものとなり、情報処理装置10のGUIにおけるユーザビリィティの更なる向上が図られる。
また、実施の形態3におけるプログラムは、コンピュータに、図6に示されるステップS301〜S306を実行させるプログラムであれば良い。このプログラムがコンピュータにインストールされ、実行されることによって、実施の形態3における領域推薦装置300と領域推薦方法とが実現される。また、この場合、コンピュータのCPUは、視認性分析部101、選択可能性分析部102、推薦領域特定部103、視認順位取得部106(アイトラッキング装置以外の部分)、及び視認順序情報生成部107として機能し、処理を行なう。更に、コンピュータの記憶装置、メモリ等が記憶部108として機能する。更に、実施の形態3におけるプログラムを記録した記録媒体は、上述のプログラムが記録された記録媒体であればよい。
以上、実施の形態1〜実施の形態3を用いて、本発明を説明したが、本発明はこれらの実施の形態1〜3に限定されるものではない。例えば、本発明の情報処理装置は、実施の形態2に示した計測部104及び選択可能性情報生成部105と、実施の形態3に示した視認順位取得部106及び視認順序情報生成部107とを備えたものであっても良い。
また、実施の形態1〜3に示されるプログラムを実行するコンピュータの具体例としては、図7に示されるコンピュータが挙げられる。図7は、本発明の実施の形態1〜3における領域推薦装置を構築するコンピュータの一例を示すブロック図である。
図7に示されるように、コンピュータ110は、CPU111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。
CPU111は、記憶装置113に格納された、実施の形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。また、実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。
また、記憶装置113の具体例としては、ハードディスクの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。
データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。
記録媒体120の具体例としては、CF(Compact Flash)及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記憶媒体、又はCD−ROM(Compact Disk Read Only Memory)などの光学記憶媒体が挙げられる。
また、実施の形態1〜3では、領域推薦装置は、情報処理装置10とは別の装置であるが、例えば、領域推薦装置が、情報処理装置10の内部に構築されている態様であっても良い。この場合、領域推薦装置を構築するプログラムは、情報処理装置10として機能するコンピュータ、携帯端末、デジタルカメラ等に組み込まれ、そこで実行される。
以下、図8〜図11を参照しながら、実施の形態1における領域推薦装置及び領域推薦方法の具体的な実施例を説明する。また、以下においては、図1を参照しながら、図2に示したフロー図に沿って、領域推薦装置100の動作を説明する。実施例1において「オブジェクト」は、画面上の領域のうち、クリック等の選択操作が可能な領域を意味する。
図8は、実施例1において表示装置が表示している操作画面の一例を示す図である。図8に示されるように、実施例1では、画面50a上には、選択可能なオブジェクトA〜Iが配置及び表示されている。また、実施例1においては、ある特定のタスクを達成するために、操作者が、オブジェクトFを選択する必要があるとする。更に、実施例1では、視認順序情報、選択可能性情報、及び選択すべきオブジェクトを特定する情報は、ある特定のタスクについてのものであり、予め記憶部108に格納されている。
[ステップS101]
最初に、視認性分析部101は、記憶部108から、図9に示される視認順序情報を取得する。図9は、実施例1で用いられる視認順序情報の一例を示している。図9に示されるように、実施例1では、視認順序情報は、オブジェクト毎の平均視認順位で構成されている。領域推薦装置100は、予め、操作者が対象画面を訪問する度に、各オブジェクトの視認順位を取得し、視認順位の合計値を訪問回数で除算することによって、オブジェクト毎の平均視認順位を算出できる。更に、領域推薦装置100は、例えば、操作者の瞳孔に照射された光の反射光を検出して、瞳孔の動きを検出する装置(アイトラッキング装置)を用いて、視認順位を取得することができる。
また、実施例1では、視認順序情報は図9に示される例に限定されるものではない。例えば、領域推薦装置100は、操作者が対象画面を訪問する度に、各オブジェクトに視認順位に応じたスコアを付加しておき、このオブジェクト毎のスコアの合計値を、視認順序情報として用いることもできる。
更に、図9に示された例では、視認順序情報としては、実際の視認履歴から算出された値が用いられているが、実施例1において、視認順序情報は、これに限定されるものではない。例えば、視認順序情報は、対象画面に配置されたオブジェクト毎に予測された視認順位から求められていても良い。
また、図9に示された例では、視認順序情報は、オブジェクト毎の視認順位で構成されている。しかし、実施例1では、これに限定されるものではない。視認順序情報は、画面上のオブジェクトを構成していない領域についての視認順序によって構成されていても良い。
次に、視認性分析部101は、図9に示される視認順序情報、又は上述の他の視認順序情報を用いて、高視認領域を特定し、これを抽出する。具体的には、視認性分析部101は、図9に示される視認順序情報から、タスクを達成する上で選択すべきオブジェクトF(平均視認順序=5.67)よりも視認順序の早い、オブジェクトA〜Eを抽出する。そして、視認性分析部101は、これらオブジェクトA〜Fを特定するID情報を、選択可能性分析部102と推薦領域特定部103とに送信する。
実施例1では、視認性分析部101は、タスクを達成する上で選択すべきオブジェクト(選択対象オブジェクト)よりも平均視認順序が早くないオブジェクトも、高視認領域として特定することができる。つまり、視認性分析部101は、予め設定されている範囲内で平均視認順序が遅いオブジェクトも併せて、高視認領域として特定できる。例えば、平均視認順序が1.00以内であれば、選択対象オブジェクトよりも平均視認順序が遅いオブジェクトであっても、高視認領域として特定される、という条件が設定されていても良い。この場合、視認性分析部101は、オブジェクトFとの平均視認順序の差が0.34であるオブジェクトG(平均視認順序=6.01)も高視認領域として特定し、これを抽出する。
[ステップS102]
次に、選択可能性分析部102は、記憶部108から、図10に示される選択可能性情報を取得する。図10は、実施例1で用いられる選択可能性情報の一例を示している。図10に示されるように、実施例1では、選択可能性情報は、オブジェクト毎の、対象画面を操作者が閲覧した回数に対する、当該オブジェクトがクリック等によって選択された回数の比率、つまり、オブジェクト毎の選択確率によって構成されている。
また、実施例1では、選択可能性情報は、図10に示された例以外の情報であっても良い。例えば、選択可能性情報は、オブジェクト毎の、当該オブジェクトが連携するタスクの内容と、当該オブジェクトに表示されているテキストとの意味的な関連性(関連度)によって構成されていても良い。
次に、選択可能性分析部102は、ステップS101で視認性分析部101が送信したID情報から、オブジェクトA〜Eを特定する。そして、選択可能性分析部102は、図10に示される選択可能性情報を参照して、オブジェクトA〜Eから、高選択オブジェクトを特定する。具体的には、選択可能性分析部102は、選択対象オブジェクトF(選択確率=0.22)よりも選択確率が高い、オブジェクトD(選択確率=0.30)を特定し、これを抽出する。更に、選択可能性分析部102は、抽出したオブジェクトDを特定するID情報を、推薦領域特定部103に送信する。
また、実施例1では、選択可能性分析部102は、選択対象オブジェクトよりも選択可能性が大きくないオブジェクトも、高選択オブジェクトとして特定することができる。つまり、選択可能性分析部102は、予め設定されている範囲内で選択可能性が低いオブジェクトも併せて、高選択オブジェクトとして特定しても良い。例えば、選択確率が0.05以内であれば、選択対象オブジェクトよりも選択可能性が低いオブジェクトであっても、高選択オブジェクトとして特定される、という条件が設定されていても良い。この場合、選択可能性分析部102は、オブジェクトFとの選択確率の差が0.04であるオブジェクトC(0.18)も高選択オブジェクトとして特定し、これを抽出する。
更に、実施例1では、選択可能性分析部102は、選択可能性を表す値、例えば、選択確率が予め設定された閾値以上であることを条件とし、条件を満たす全てのオブジェクトを高選択オブジェクトとして特定することもできる。例えば、選択確率が0.15以上のオブジェクトが高選択オブジェクトとして抽出される、という条件が設定されていても良い。この場合、選択可能性分析部102は、オブジェクトC(選択確率=0.18)と、オブジェクトD(選択確率=0.25)とを高選択オブジェクトとして特定し、これらを抽出する。
[ステップS103]
次に、推薦領域特定部103は、ステップS102で選択可能性分析部102が送信したID情報から、高選択オブジェクトとしてオブジェクトDを特定する。そして、推薦領域特定部103は、図9に示される視認順序情報を用い、オブジェクトDよりも平均視認順序の早いオブジェクトを検索する。本実施例1では、オブジェクトA(平均視認順序=1.83)とオブジェクトB(平均視認順序=2.96)との平均視認順序が、オブジェクトD(平均視認順序=4.03)の平均視認順序よりも早くなっている。従って、推薦領域特定部103は、オブジェクトAとオブジェクトBとを推薦領域として特定し、これらを抽出する。
実施例1では、推薦領域特定部103は、高選択オブジェクトより平均視認順序が早くないオブジェクトを推薦領域として特定することもできる。つまり、推薦領域特定部103は、予め設定されている範囲内で平均視認順序が遅いオブジェクトも併せて、推薦領域として特定できる。例えば、平均視認順序が1.00以内であれば、高選択オブジェクトよりも平均視認順序が遅いオブジェクトであっても、推薦領域として特定されるという条件が設定されていても良い。この場合、推薦領域特定部103は、オブジェクトD(高選択オブジェクト)との平均視認順序の差が0.62であるオブジェクトC(平均視認順序=4.65)も推薦領域として特定し、これを抽出する。
また、実施例1では、推薦領域特定部103は、推薦領域として、画面上の選択可能なオブジェクト以外の領域を特定することもできる。つまり、推薦領域特定部103は、画面上の全ての領域の中から、選択可能性分析部102が特定した高選択オブジェクトよりも平均視認順序の早い領域を、推薦領域として抽出できる。
[ステップS104]
次に、推薦領域特定部103は、オブジェクトAとオブジェクトBとを特定するID情報を、情報処理装置10の演算処理部30に出力する(図1参照)。そして、実施例1では、図11に示されるように、情報処理装置10の演算処理部30は、出力部40を介して、画面50a上において、オブジェクトAとオブジェクトBとを強調して表示する。図11の例では、オブジェクトAが配置されている領域とオブジェクトBが配置されている領域とが、周囲の領域の色を反転させて得られる色に着色されている。図11は、実施例1において推薦領域が表示された画面の一例を示す図である。
なお、実施例1において、推薦領域を強調して表示するための手法は特に限定されるものではない。例えば、情報処理装置10は、推薦領域をグラフィカルに表示する代わりに、テキストによって表示することもできる。また、ステップS103の説明で述べたように、推薦領域特定部103が、選択可能なオブジェクト以外の領域を、推薦領域として特定した場合は、この選択可能なオブジェクト以外の領域が、画面50a上に強調されて表示される。
更に、実施例1では、画面50a上において推薦領域と共に、当該推薦領域に関する情報、例えば、視認順位、オブジェクトID等が表示されていても良い。この場合、GUIの設計者は、どのオブジェクトがどれくらい早く視認されているかを認識できるので、更なるユーザビリティの向上を図ることができる。
次に、図12を参照しながら、実施の形態2における領域推薦装置及び領域推薦方法の具体的な実施例を説明する。また、以下においては、図3を参照しながら、図4に示されたフロー図に沿って、領域推薦装置200の動作を説明する。更に、実施例2においても、実施例1と同様に、図8に示されたように、画面50a上に、選択可能なオブジェクトA〜Iが配置及び表示されているとする。また、ある特定のタスクを達成するために、操作者が、この画面上で、オブジェクトFを選択する必要があるとする。但し、本実施例2では、実施例1と異なり、視認順序情報のみが、予め記憶部108に格納されている。
[ステップS201]
最初に、計測部104は、情報処理装置10の演算処理部30(図3参照)にアクセスし、閲覧回数と、閲覧された際の画面上のオブジェクト毎の選択回数とを計測する。図12は、実施例2において計測されたオブジェクト毎の選択回数を示している。
[ステップS202]
次に、選択可能性情報生成部105は、ステップS201で計測した閲覧回数と選択回数とを用いて、オブジェクト毎に選択確率を算出する。なお、実施例2において算出される選択確率は、実施例1において図10に示された選択確率と同様のものであり、閲覧回数に対する選択回数の比率である。
[ステップS203〜S206]
その後、ステップS203〜S206が実行される。但し、ステップS203〜S206は、ステップS204において、ステップS201で算出された選択確率が用いられる以外は、実施例1で示されたステップS101〜S104と同様に実行される。
次に、図13を参照しながら、実施の形態3における領域推薦装置及び領域推薦方法の具体的な実施例を説明する。また、以下においては、図5を参照しながら、図6に示されたフロー図に沿って、領域推薦装置300の動作を説明する。更に、実施例3においても、実施例1と同様に、図8に示されたように、画面50a上に、選択可能なオブジェクトA〜Iが配置及び表示されているとする。また、ある特定のタスクを達成するために、操作者が、この画面上で、オブジェクトFを選択する必要があるとする。但し、実施例3では、実施例1と異なり、選択可能性情報のみが、予め記憶部108に格納されている。
[ステップS301]
最初に、視認順位取得部106は、操作者が画面を閲覧される度に、アイトラッキング装置(図示せず)を動作させて、各オブジェクトの視認順位を取得する。実施例3では、視認順位の取得回数は、100回に設定されている。図13は、実施例3において取得されたオブジェクト毎の視認順位を示している。図13において、試行1、試行2、・・・試行100は、各閲覧時を示しており、各縦列は閲覧時毎の各オブジェクトの視認順位を示している。
また、実施例3では、視認順位取得部106は、視認される前に他のオブジェクトが選択されてしまい、結果的に視認されなかったオブジェクトについても、順位を設定し、その順位を取得することができる。具体的には、視認順位取得部106は、視認されなかったオブジェクトの順位を、最後に視認されたオブジェクトの順位の次に設定することができる。なお、このような、視認されなかったオブジェクトへの視認順位の設定は、特に限定されるものではない。
更に、実施例3では、視認順位取得部106は、操作者による1回の画面の閲覧時に複数回視認されたオブジェクトが存在する場合は、当該オブジェクトの視認順位については、最初の視認順位を採用することができる。なお、このような、複数回視認されたオブジェクトへの視認順位の設定は、特に限定されるものではない。
[ステップS302]
次に、視認順序情報生成部107は、ステップS101で取得された全100回のオブジェクト毎の視認順位を用い、オブジェクト毎に平均視認順位を求める。そして、視認順序情報生成部107は、求めた各平均視認順位を合わせて視認順序情報を生成する。なお、実施例3において算出される平均視認順位は、実施例1において図9に示された平均視認順位と同様のものである。
また、実施例3では、視認順序情報生成部107は、平均視認順位以外の情報を用いて視認順序情報を生成することもできる。例えば、視認順序情報生成部107は、図13に示された各試行において、視認順位が1位から3位のオブジェクトに、それぞれ、10ポイント、5ポイント、2ポイントといったスコアを付加し、各オブジェクトの全試行における合計スコアを算出する。そして、視認順序情報生成部107は、各オブジェクトの合計スコアを合わせて、視認順序情報としても良い。
更に、上述の例では、上述したように、視認順位取得部106及び視認順序情報生成部107は、画面上の選択可能なオブジェクト毎の視認順序を扱っているが、実施例3は、これに限定されるものではない。実施例3では、視認順位取得部106及び視認順序情報生成部107は、画面上のオブジェクト以外の領域についての視認順序を扱っても良い。
本発明の効果の一つは、画面上において、操作者がオブジェクトを選択する可能性の高い位置を特定し、GUIにおけるユーザビリィティの向上を図ることができることにある。
この出願は、2010年6月3日に出願された日本出願特願2010−127512を基礎とする優先権を主張し、その開示のすべてをここに取り込む。
上述した実施の形態及び実施例の一部又は全部は、以下に記載する(付記1)〜(付記30)によって表現することができるが、以下の記載に限定されるものではない。
(付記1)
画面上の領域における視認される順序に基づいて、対象となるオブジェクトが配置されている領域以外の領域のうち、前記視認される順序が設定基準を満たす領域を、高視認領域として特定する、視認性分析部と、
前記画面上の各オブジェクトの選択される可能性に基づいて、前記高視認領域中に配置されているオブジェクトのうち、前記選択される可能性が設定基準を満たすオブジェクトを、高選択オブジェクトとして特定する、選択可能性分析部と、
前記視認される順序に基づいて、前記高視認領域中の、前記高選択オブジェクトが配置されている領域以外の領域から、前記対象となるオブジェクトの配置に適した領域を、推薦領域として特定する、推薦領域特定部と、を備えている、ことを特徴とする領域推薦装置。
(付記2)
前記選択可能性分析部が、前記対象となるオブジェクトよりも前記選択される可能性が高い、オブジェクトを、前記高選択オブジェクトとして特定する、付記1に記載の領域推薦装置。
(付記3)
前記視認性分析部が、前記対象となるオブジェクトよりも、前記視認される順序が早い領域を、前記高視認領域として特定し、
前記推薦領域特定部が、前記高視認領域中の、前記高選択オブジェクトが配置されている領域よりも、前記視認される順序が早い領域を、前記推薦領域として特定する、付記1または2に記載の領域推薦装置。
(付記4)
前記画面上の各オブジェクトの選択される可能性が、前記画面の閲覧回数に対する当該オブジェクトが選択された回数の比率から求められている、付記1〜3のいずれかに記載の領域推薦装置。
(付記5)
前記画面の閲覧回数、及び前記画面上のオブジェクト毎の当該オブジェクトの選択された回数を計測する、計測部と、
前記計測部が計測した、前記画面の閲覧回数及び前記画面上のオブジェクト毎の当該オブジェクトの選択された回数に対して統計処理を行い、前記統計処理の結果に基づいて、前記画面上の各オブジェクトの選択される可能性を特定するための情報を生成する、選択可能性情報生成部と、を更に備え、
前記選択可能性分析部が、前記選択情報生成部が生成した前記情報を用いて、前記高選択オブジェクトを特定する、付記4に記載の領域推薦装置。
(付記6)
前記画面上の各オブジェクトが、当該領域推薦装置の外部で実行されるタスクと連携し、
前記画面上の各オブジェクトの選択される可能性が、当該オブジェクトが連携するタスクの内容と、当該オブジェクトに表示されているテキストとの意味的な関連性から求められている、付記1〜3のいずれかに記載の領域推薦装置。
(付記7)
前記画面上の領域における視認される順序が、前記画面が閲覧される度に検出された、前記画面を構成する複数の部分それぞれ毎の視認順位から求められている、付記1から6のいずれかに記載の領域推薦装置。
(付記8)
前記画面上の領域における視認される順序が、前記画面を構成する複数の部分それぞれ毎に予測された視認順位から求められている、付記1から6のいずれかに記載の領域推薦装置。
(付記9)
前記画面が閲覧される度に、前記複数の部分それぞれの視認順位を取得する、視認順位取得部と、
前記視認順位取得部が取得した前記複数の部分それぞれの視認順位に対して統計処理を行い、前記統計処理の結果に基づいて、前記画面上の領域における視認される順序を特定するための情報を生成する、視認順序情報生成部と、を更に備え、
前記視認性分析部が、前記視認順序情報生成部が生成した前記情報を用いて、前記高視認領域を特定し、
前記推薦領域特定部が、前記視認順序情報生成部が生成した前記情報を用いて、前記推薦領域を特定する、付記7に記載の領域推薦装置。
(付記10)
前記視認性分析部が、前記高視認領域として、前記対象となるオブジェクト以外のオブジェクトを特定し、
前記推薦領域特定部が、前記高視認領域として特定されたオブジェクトの中から、前記推薦領域となるオブジェクトを特定する、付記1〜9のいずれかに記載の領域推薦装置。
(付記11)
(a)画面上の領域における視認される順序に基づいて、対象となるオブジェクトが配置されている領域以外の領域のうち、前記視認される順序が設定基準を満たす領域を、高視認領域として特定する、ステップと、
(b)前記画面上の各オブジェクトの選択される可能性に基づいて、前記高視認領域中に配置されているオブジェクトのうち、前記選択される可能性が設定基準を満たすオブジェクトを、高選択オブジェクトとして特定する、ステップと、
(c)前記視認される順序に基づいて、前記高視認領域中の、前記高選択オブジェクトが配置されている領域以外の領域から、前記対象となるオブジェクトの配置に適した領域を、推薦領域として特定する、ステップと、を有する、ことを特徴とする領域推薦方法。
(付記12)
前記(b)のステップにおいて、前記対象となるオブジェクトよりも前記選択される可能性が高い、オブジェクトを、前記高選択オブジェクトとして特定する、付記11に記載の領域推薦方法。
(付記13)
前記(a)のステップにおいて、前記対象となるオブジェクトよりも、前記視認される順序が早い領域を、前記高視認領域として特定し、
前記(c)のステップにおいて、前記高視認領域中の、前記高選択オブジェクトが配置されている領域よりも、前記視認される順序が早い領域を、前記推薦領域として特定する、付記11または12に記載の領域推薦方法。
(付記14)
前記画面上の各オブジェクトの選択される可能性が、前記画面の閲覧回数に対する当該オブジェクトが選択された回数の比率から求められている、付記11〜13のいずれかに記載の領域推薦方法。
(付記15)
(d)前記画面の閲覧回数、及び前記画面上のオブジェクト毎の当該オブジェクトの選択された回数を計測する、ステップと、
(e)前記(d)のステップで計測した、前記画面の閲覧回数及び前記画面上のオブジェクト毎の当該オブジェクトの選択された回数に対して統計処理を行い、前記統計処理の結果に基づいて、前記画面上の各オブジェクトの選択される可能性を特定するための情報を生成する、ステップと、を更に有し、
前記(b)のステップにおいて、前記(e)のステップで生成した前記情報を用いて、前記高選択オブジェクトを特定する、付記14に記載の領域推薦方法。
(付記16)
前記画面上の各オブジェクトが、当該領域推薦装置の外部で実行されるタスクと連携し、
前記画面上の各オブジェクトの選択される可能性が、当該オブジェクトが連携するタスクの内容と、当該オブジェクトに表示されているテキストとの意味的な関連性から求められている、付記11〜13のいずれかに記載の領域推薦方法。
(付記17)
前記画面上の領域における視認される順序が、前記画面が閲覧される度に検出された、前記画面を構成する複数の部分それぞれ毎の視認順位から求められている、付記11から16のいずれかに記載の領域推薦方法。
(付記18)
前記画面上の領域における視認される順序が、前記画面を構成する複数の部分それぞれ毎に予測された視認順位から求められている、付記11から16のいずれかに記載の領域推薦方法。
(付記19)
(f)前記画面が閲覧される度に、前記複数の部分それぞれの視認順位を取得する、ステップと、
(g)前記(f)のステップで取得した前記複数の部分それぞれの視認順位に対して統計処理を行い、前記統計処理の結果に基づいて、前記画面上の領域における視認される順序を特定するための情報を生成する、ステップと、を更に有し、
前記(a)のステップにおいて、前記(g)のステップで生成した前記情報を用いて、前記高視認領域を特定し、
前記(c)のステップにおいて、前記(g)のステップで生成した前記情報を用いて、前記推薦領域を特定する、付記17に記載の領域推薦方法。
(付記20)
前記(a)のステップで、前記高視認領域として、前記対象となるオブジェクト以外のオブジェクトを特定し、
前記(c)のステップで、前記高視認領域として特定されたオブジェクトの中から、前記推薦領域となるオブジェクトを特定する、付記11〜19のいずれかに記載の領域推薦方法。
(付記21)
コンピュータに、
(a)画面上の領域における視認される順序に基づいて、対象となるオブジェクトが配置されている領域以外の領域のうち、前記視認される順序が設定基準を満たす領域を、高視認領域として特定する、ステップと、
(b)前記画面上の各オブジェクトの選択される可能性に基づいて、前記高視認領域中に配置されているオブジェクトのうち、前記選択される可能性が設定基準を満たすオブジェクトを、高選択オブジェクトとして特定する、ステップと、
(c)前記視認される順序に基づいて、前記高視認領域中の、前記高選択オブジェクトが配置されている領域以外の領域から、前記対象となるオブジェクトの配置に適した領域を、推薦領域として特定する、ステップと、を実行させる、ことを特徴とするプログラム。
(付記22)
前記(b)のステップにおいて、前記対象となるオブジェクトよりも前記選択される可能性が高い、オブジェクトを、前記高選択オブジェクトとして特定する、付記21に記載のプログラム。
(付記23)
前記(a)のステップにおいて、前記対象となるオブジェクトよりも、前記視認される順序が早い領域を、前記高視認領域として特定し、
前記(c)のステップにおいて、前記高視認領域中の、前記高選択オブジェクトが配置されている領域よりも、前記視認される順序が早い領域を、前記推薦領域として特定する、付記21または22に記載のプログラム。
(付記24)
前記画面上の各オブジェクトの選択される可能性が、前記画面の閲覧回数に対する当該オブジェクトが選択された回数の比率から求められている、付記21〜23のいずれかに記載のプログラム。
(付記25)
前記コンピュータに、
(d)前記画面の閲覧回数、及び前記画面上のオブジェクト毎の当該オブジェクトの選択された回数を計測する、ステップと、
(e)前記(d)のステップで計測した、前記画面の閲覧回数及び前記画面上のオブジェクト毎の当該オブジェクトの選択された回数に対して統計処理を行い、前記統計処理の結果に基づいて、前記画面上の各オブジェクトの選択される可能性を特定するための情報を生成する、ステップと、を更に実行させ、
前記(b)のステップにおいて、前記(e)のステップで生成した前記情報を用いて、前記高選択オブジェクトを特定する、付記24に記載のプログラム。
(付記26)
前記画面上の各オブジェクトが、当該領域推薦装置の外部で実行されるタスクと連携し、
前記画面上の各オブジェクトの選択される可能性が、当該オブジェクトが連携するタスクの内容と、当該オブジェクトに表示されているテキストとの意味的な関連性から求められている、付記21〜23のいずれかに記載のプログラム。
(付記27)
前記画面上の領域における視認される順序が、前記画面が閲覧される度に検出された、前記画面を構成する複数の部分それぞれ毎の視認順位から求められている、付記21から26のいずれかに記載のプログラム。
(付記28)
前記画面上の領域における視認される順序が、前記画面を構成する複数の部分それぞれ毎に予測された視認順位から求められている、付記21から26のいずれかに記載のプログラム。
(付記29)
前記コンピュータに、
(f)前記画面が閲覧される度に、前記複数の部分それぞれの視認順位を取得する、ステップと、
(g)前記(f)のステップで取得した前記複数の部分それぞれの視認順位に対して統計処理を行い、前記統計処理の結果に基づいて、前記画面上の領域における視認される順序を特定するための情報を生成する、ステップと、を更に実行させ、
前記(a)のステップにおいて、前記(g)のステップで生成した前記情報を用いて、前記高視認領域を特定し、
前記(c)のステップにおいて、前記(g)のステップで生成した前記情報を用いて、前記推薦領域を特定する、付記27に記載のプログラム。
(付記30)
前記(a)のステップで、前記高視認領域として、前記対象となるオブジェクト以外のオブジェクトを特定し、
前記(c)のステップで、前記高視認領域として特定されたオブジェクトの中から、前記推薦領域となるオブジェクトを特定する、付記21〜29のいずれかに記載のプログラム。
本発明によれば、GUIの画面上において、操作者がオブジェクトを選択する可能性の高い位置を特定し、GUIにおけるユーザビリィティの向上を図ることができる。本発明は、例えば、システムのGUIの評価といった用途に適用できる。
10 情報処理装置
20 入力部
30 演算処理部
40 出力部
50 表示装置
50a 画面
100 領域推薦装置(実施の形態1)
101 視認性分析部
102 選択可能性分析部
103 推薦領域特定部
104 計測部
105 選択可能性情報生成部
106 視認順位取得部
107 視認順序情報生成部
108 記憶部
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス
200 領域推薦装置(実施の形態2)
300 領域推薦装置(実施の形態3)

Claims (10)

  1. 画面上の領域における視認される順序に基づいて、対象となるオブジェクトが配置されている領域以外の領域のうち、前記視認される順序が設定基準を満たす領域を、高視認領域として特定する、視認性分析部と、
    前記画面上の各オブジェクトの選択される可能性に基づいて、前記高視認領域中に配置されているオブジェクトのうち、前記選択される可能性が設定基準を満たすオブジェクトを、高選択オブジェクトとして特定する、選択可能性分析部と、
    前記視認される順序に基づいて、前記高視認領域中の、前記高選択オブジェクトが配置されている領域以外の領域から、前記対象となるオブジェクトの配置に適した領域を、推薦領域として特定する、推薦領域特定部と、を備える領域推薦装置。
  2. 前記選択可能性分析部は、前記選択される可能性が、前記対象となるオブジェクトよりも高いオブジェクトを、前記高選択オブジェクトとして特定する、請求項1に記載の領域推薦装置。
  3. 前記視認性分析部は、前記視認される順序が、前記対象となるオブジェクトよりも早い領域を、前記高視認領域として特定し、
    前記推薦領域特定部は、前記視認される順序が、前記高視認領域中の、前記高選択オブジェクトが配置されている領域よりも早い領域を、前記推薦領域として特定する、請求項1または2に記載の領域推薦装置。
  4. 前記画面上の各オブジェクトの選択される可能性が、前記画面の閲覧回数に対する当該オブジェクトが選択された回数の比率から求められている、請求項1〜3のいずれかに記載の領域推薦装置。
  5. 前記画面の閲覧回数、及び前記画面上のオブジェクト毎の当該オブジェクトの選択された回数を計測する、計測部と、
    前記画面の閲覧回数及び前記画面上のオブジェクト毎の当該オブジェクトの選択された回数に対して統計処理を行い、前記統計処理の結果に基づいて、前記画面上の各オブジェクトの選択される可能性を特定するための情報を生成する、選択可能性情報生成部と、を更に備え
    前記選択可能性分析部が、前記選択可能性情報生成部が生成した前記情報を用いて、前記高選択オブジェクトを特定する、請求項4に記載の領域推薦装置。
  6. 前記画面上の領域における視認される順序が、前記画面が閲覧される度に検出された、前記画面を構成する複数の部分それぞれ毎の視認順位から求められている、請求項1から5のいずれかに記載の領域推薦装置。
  7. 前記画面が閲覧される度に、前記複数の部分それぞれの視認順位を取得する、視認順位取得部と、
    前記視認順位取得部が取得した前記複数の部分それぞれの視認順位に対して統計処理を行い、前記統計処理の結果に基づいて、前記画面上の領域における視認される順序を特定するための情報を生成する、視認順序情報生成部と、を更に備え、
    前記視認性分析部が、前記視認順序情報生成部が生成した前記情報を用いて、前記高視認領域を特定し、
    前記推薦領域特定部は、前記視認順序情報生成部が生成した前記情報を用いて、前記推薦領域を特定する、請求項6に記載の領域推薦装置。
  8. 前記視認性分析部は、前記高視認領域として、前記対象となるオブジェクト以外のオブジェクトを特定し、
    前記推薦領域特定部は、前記高視認領域として特定されたオブジェクトの中から、前記推薦領域となるオブジェクトを特定する、請求項1〜7のいずれかに記載の領域推薦装置。
  9. 画面上の領域における視認される順序に基づいて、対象となるオブジェクトが配置されている領域以外の領域のうち、前記視認される順序が設定基準を満たす領域を、高視認領域として特定し、
    前記画面上の各オブジェクトの選択される可能性に基づいて、前記高視認領域中に配置されているオブジェクトのうち、前記選択される可能性が設定基準を満たすオブジェクトを、高選択オブジェクトとして特定し、
    前記視認される順序に基づいて、前記高視認領域中の、前記高選択オブジェクトが配置されている領域以外の領域から、前記対象となるオブジェクトの配置に適した領域を、推薦領域として特定する、領域推薦方法。
  10. コンピュータに、
    画面上の領域における視認される順序に基づいて、対象となるオブジェクトが配置されている領域以外の領域のうち、前記視認される順序が設定基準を満たす領域を、高視認領域として特定する処理と、
    前記画面上の各オブジェクトの選択される可能性に基づいて、前記高視認領域中に配置されているオブジェクトのうち、前記選択される可能性が設定基準を満たすオブジェクトを、高選択オブジェクトとして特定する処理と、
    前記視認される順序に基づいて、前記高視認領域中の、前記高選択オブジェクトが配置されている領域以外の領域から、前記対象となるオブジェクトの配置に適した領域を、推薦領域として特定する処理と、を実行させるプログラム
JP2012518292A 2010-06-03 2011-04-15 領域推薦装置、領域推薦方法およびプログラム Expired - Fee Related JP5803910B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012518292A JP5803910B2 (ja) 2010-06-03 2011-04-15 領域推薦装置、領域推薦方法およびプログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010127512 2010-06-03
JP2010127512 2010-06-03
PCT/JP2011/059884 WO2011152149A1 (ja) 2010-06-03 2011-04-15 領域推薦装置、領域推薦方法、及び記録媒体
JP2012518292A JP5803910B2 (ja) 2010-06-03 2011-04-15 領域推薦装置、領域推薦方法およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2011152149A1 JPWO2011152149A1 (ja) 2013-07-25
JP5803910B2 true JP5803910B2 (ja) 2015-11-04

Family

ID=45066533

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012518292A Expired - Fee Related JP5803910B2 (ja) 2010-06-03 2011-04-15 領域推薦装置、領域推薦方法およびプログラム

Country Status (3)

Country Link
US (1) US9158432B2 (ja)
JP (1) JP5803910B2 (ja)
WO (1) WO2011152149A1 (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103229174B (zh) * 2011-10-19 2016-12-14 松下电器(美国)知识产权公司 显示控制装置、集成电路以及显示控制方法
US9046917B2 (en) * 2012-05-17 2015-06-02 Sri International Device, method and system for monitoring, predicting, and accelerating interactions with a computing device
US9451162B2 (en) 2013-08-21 2016-09-20 Jaunt Inc. Camera array including camera modules
US11019258B2 (en) 2013-08-21 2021-05-25 Verizon Patent And Licensing Inc. Aggregating images and audio data to generate content
KR20150054413A (ko) * 2013-11-12 2015-05-20 삼성전자주식회사 시선 데이터에 따라 컨텐츠의 위치를 결정하는 전자 장치 및 방법
US9787799B2 (en) 2014-02-27 2017-10-10 Dropbox, Inc. Systems and methods for managing content items having multiple resolutions
US10885104B2 (en) * 2014-02-27 2021-01-05 Dropbox, Inc. Systems and methods for selecting content items to store and present locally on a user device
US9911454B2 (en) 2014-05-29 2018-03-06 Jaunt Inc. Camera array including camera modules
US10402852B2 (en) * 2014-07-24 2019-09-03 Google Llc Content item slot location suggestions
US10368011B2 (en) 2014-07-25 2019-07-30 Jaunt Inc. Camera array removing lens distortion
US11108971B2 (en) 2014-07-25 2021-08-31 Verzon Patent and Licensing Ine. Camera array removing lens distortion
US9774887B1 (en) 2016-09-19 2017-09-26 Jaunt Inc. Behavioral directional encoding of three-dimensional video
US10186301B1 (en) 2014-07-28 2019-01-22 Jaunt Inc. Camera array including camera modules
US10440398B2 (en) 2014-07-28 2019-10-08 Jaunt, Inc. Probabilistic model to compress images for three-dimensional video
US10701426B1 (en) 2014-07-28 2020-06-30 Verizon Patent And Licensing Inc. Virtual reality system including social graph
US9363569B1 (en) * 2014-07-28 2016-06-07 Jaunt Inc. Virtual reality system including social graph
US10198355B2 (en) 2015-10-29 2019-02-05 Dropbox, Inc. Proving a dynamic digital content cache
WO2017081942A1 (ja) * 2015-11-10 2017-05-18 シャープ株式会社 解析装置、解析装置の制御方法、制御プログラム、および記録媒体
US20170329397A1 (en) * 2016-05-12 2017-11-16 Rovi Guides, Inc. Systems and methods for navigating a media guidance application using gaze control
US11032535B2 (en) 2016-09-19 2021-06-08 Verizon Patent And Licensing Inc. Generating a three-dimensional preview of a three-dimensional video
US10681341B2 (en) 2016-09-19 2020-06-09 Verizon Patent And Licensing Inc. Using a sphere to reorient a location of a user in a three-dimensional virtual reality video
US11032536B2 (en) 2016-09-19 2021-06-08 Verizon Patent And Licensing Inc. Generating a three-dimensional preview from a two-dimensional selectable icon of a three-dimensional reality video
TWI642030B (zh) * 2017-08-09 2018-11-21 宏碁股份有限公司 視覺效用分析方法及相關眼球追蹤裝置與系統
RU2017129475A (ru) * 2017-08-18 2019-02-18 Общество С Ограниченной Ответственностью "Нейроленд" Система и способ для бесконтактного управления пользовательским интерфейсом
JP6983731B2 (ja) * 2018-07-19 2021-12-17 ヤフー株式会社 情報処理プログラム、情報処理方法、端末装置及び解析装置
US10983677B2 (en) 2018-11-16 2021-04-20 Dropbox, Inc. Prefetching digital thumbnails from remote servers to client devices based on a dynamic determination of file display criteria
US10694167B1 (en) 2018-12-12 2020-06-23 Verizon Patent And Licensing Inc. Camera array including camera modules

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008278252A (ja) * 2007-04-27 2008-11-13 Nec Saitama Ltd 通信装置および通信方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6317722B1 (en) * 1998-09-18 2001-11-13 Amazon.Com, Inc. Use of electronic shopping carts to generate personal recommendations
JP2000099236A (ja) 1998-09-22 2000-04-07 Victor Co Of Japan Ltd アイコンメニュー表示方法及び表示装置
JP2002132412A (ja) 2000-10-26 2002-05-10 Denso Corp 携帯電話のアイコンの表示方法
KR100377222B1 (ko) * 2000-12-27 2003-03-26 삼성전자주식회사 디스플레이 장치 및 osd 제어방법
JP4059666B2 (ja) 2001-12-12 2008-03-12 シャープ株式会社 情報処理装置およびその情報処理プログラムおよび前記プログラムを記録した記録媒体
US7278092B2 (en) * 2004-04-28 2007-10-02 Amplify, Llc System, method and apparatus for selecting, displaying, managing, tracking and transferring access to content of web pages and other sources
US20070067744A1 (en) * 2005-08-11 2007-03-22 Lane David M System and method for the anticipation and execution of icon selection in graphical user interfaces
US11004090B2 (en) * 2005-12-24 2021-05-11 Rich Media Club, Llc System and method for creation, distribution and tracking of advertising via electronic networks
US20100153836A1 (en) * 2008-12-16 2010-06-17 Rich Media Club, Llc Content rendering control system and method
JP4935186B2 (ja) 2006-05-24 2012-05-23 横河電機株式会社 表示画面制御装置および表示画面制御方法
US20080141149A1 (en) * 2006-12-07 2008-06-12 Microsoft Corporation Finger-based user interface for handheld devices
EP2126878A2 (en) * 2007-02-19 2009-12-02 Yissum Research Development Company of the Hebrew University of Jerusalem Personal text assistant
US8229780B2 (en) * 2007-07-30 2012-07-24 Silvercarrot, Inc. System and method for online lead generation
US8229915B1 (en) * 2007-10-08 2012-07-24 Google Inc. Content item arrangement
JP2009122862A (ja) * 2007-11-13 2009-06-04 Sharp Corp 操作パネル、および、それを備えた電気機器
JP2009251142A (ja) * 2008-04-03 2009-10-29 Seiko Epson Corp 電子popシステム、電子pop装置の表示制御方法およびプログラム
US8356247B2 (en) * 2008-12-16 2013-01-15 Rich Media Worldwide, Llc Content rendering control system and method
US8255827B2 (en) * 2009-01-26 2012-08-28 Microsoft Corporation Dynamic feature presentation based on vision detection
US8463731B2 (en) * 2010-02-17 2013-06-11 Google Inc. Translating user interaction with a touch screen into text
US8413052B2 (en) * 2010-02-17 2013-04-02 Yahoo! Inc. Bidded marketplace for applications
US8311279B2 (en) * 2010-02-23 2012-11-13 Fuji Xerox Co., Ltd. System and method for improved image analysis through gaze data feedback
US20110258581A1 (en) * 2010-04-14 2011-10-20 Wei-Han Hu Method for adjusting size of an icon and related handheld device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008278252A (ja) * 2007-04-27 2008-11-13 Nec Saitama Ltd 通信装置および通信方法

Also Published As

Publication number Publication date
US20130080974A1 (en) 2013-03-28
JPWO2011152149A1 (ja) 2013-07-25
US9158432B2 (en) 2015-10-13
WO2011152149A1 (ja) 2011-12-08

Similar Documents

Publication Publication Date Title
JP5803910B2 (ja) 領域推薦装置、領域推薦方法およびプログラム
US9703541B2 (en) Entity action suggestion on a mobile device
US9756140B2 (en) Tracking user behavior relative to a network page
US10936568B2 (en) Moving nodes in a tree structure
US9317257B2 (en) Folded views in development environment
EP2915031B1 (en) Apparatus and method for dynamic actions based on context
CN110651251A (zh) 用于自适应用户界面的系统和方法
US20140223381A1 (en) Invisible control
KR20110091379A (ko) 하이퍼링크 선택 방법 및 장치
JP2016508268A (ja) 個人専用リアル・タイム推奨システム
KR20140039209A (ko) 빠른 사이트 액세스 사용자 인터페이스를 갖춘 웹 브라우저
US8949858B2 (en) Augmenting user interface elements with information
US20140098053A1 (en) Electronic device, method for viewing desktop thereof, and computer-readable medium
CN104166553A (zh) 一种显示方法及电子设备
JP2009223767A (ja) 情報提示システム
KR20130102854A (ko) 검색 시스템 및 동작 방법
US11256407B2 (en) Searching method and apparatus thereof
US20120124091A1 (en) Application file system access
US20140007049A1 (en) Integrating diagnostic information in development environment
US9377935B2 (en) System and method for predicting preferred data representation
EP3018567A1 (en) User-interface review method, device, and program
US20150095810A1 (en) System and method for predicting preferred data representation
US20140181727A1 (en) Outputting Management Information Based on State of Managed Object
WO2016080969A1 (en) User interface overlay
JP2013114312A (ja) 検索システム、検索システムの制御方法、およびそのプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150817

R150 Certificate of patent or registration of utility model

Ref document number: 5803910

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees