JP2012022632A - 情報処理装置およびその制御方法 - Google Patents

情報処理装置およびその制御方法 Download PDF

Info

Publication number
JP2012022632A
JP2012022632A JP2010162100A JP2010162100A JP2012022632A JP 2012022632 A JP2012022632 A JP 2012022632A JP 2010162100 A JP2010162100 A JP 2010162100A JP 2010162100 A JP2010162100 A JP 2010162100A JP 2012022632 A JP2012022632 A JP 2012022632A
Authority
JP
Japan
Prior art keywords
line
sight
screen
selectable area
operator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010162100A
Other languages
English (en)
Other versions
JP2012022632A5 (ja
Inventor
Keiichi Yamamoto
圭一 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010162100A priority Critical patent/JP2012022632A/ja
Publication of JP2012022632A publication Critical patent/JP2012022632A/ja
Publication of JP2012022632A5 publication Critical patent/JP2012022632A5/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】 多数の選択候補となるオブジェクトがある場合などにおいても、効率良く、注目するオブジェクトを選択できるようにする。
【解決手段】 ディスプレイの画面に表示されたオブジェクト画像を選択する情報処理装置であって、操作者の視線を検出し、視線の先にある前記画面上の一部を特定する視線検出手段と、操作者の前記視線以外の部位が示す前記画面上の位置を特定する位置検出手段と、前記位置検出手段が検出した位置に相当するオブジェクト画像を、設定された選択基準に基づいて選択する選択手段とを備え、前記選択手段は、前記視線検出手段で特定された画面上の一部に表示されているオブジェクト画像が選択され易くなるように、前記選択基準を設定する。
【選択図】 図4

Description

本発明は、画面上に表示されたオブジェクト画像を操作するグラフィカルユーザインターフェースに関する。
近年、テーブル型のディスプレイなどが登場し、操作者は、このディスプレイにタッチするなどしてこのディスプレイ上に表示されたオブジェクト画像を操作することができる。
また、操作者の手が届かないところにあるオブジェクト画像を操作する技術として、指を差した方向にあるオブジェクトと、視線の方向にあるオブジェクトが一致している場合に、そのオブジェクトを選択するという技術が知られている。
特開2009−037434号公報
従来、操作者が注目するオブジェクト以外にも多数のオブジェクトがある場合などは、指を指すなどして注目するオブジェクトを特定することが困難であった。
本発明は上記従来例に鑑みてなされたものであり、多数の選択候補となるオブジェクトがある場合などにおいても、効率良く、注目するオブジェクトを選択できるようにすることを目的とする。
上記の目的を達成するために、請求項1に記載の情報処理装置によれば、ディスプレイの画面に表示されたオブジェクト画像を選択する情報処理装置であって、操作者の視線を検出し、視線の先にある前記画面上の一部を特定する視線検出手段と、操作者の前記視線以外の部位が示す前記画面上の位置を特定する位置検出手段と、前記位置検出手段が検出した位置に相当するオブジェクト画像を、設定された選択基準に基づいて選択する選択手段とを備え、前記選択手段は、前記視線検出手段で特定された画面上の一部に表示されているオブジェクト画像が選択され易くなるように、前記選択基準を設定することを特徴とする情報処理装置。
本発明によれば、多数の選択候補となるオブジェクトがある場合などにおいても、効率良く、注目するオブジェクトを選択できる。
情報処理装置のハードウェア構成を示すブロック図 情報処理装置の機能ブロック図 オブジェクトの位置および選択可能領域の関係を示す図 オブジェクトの位置と選択可能領域と画面との関係を示す図 オブジェクト選択処理の手順を示すフローチャート 選択可能領域変更処理の手順を示すフローチャート 選択可能領域の変更方法の一例を示す図 選択可能領域の変更方法の一例を示す図 選択可能領域変更処理の手順を示すフローチャート 選択可能領域の変更方法の一例を示す図 選択可能領域変更呼出処理の手順を示すフローチャート 選択可能領域変更呼出処理の手順を示すフローチャート システムの変形例を示す図
[第1実施形態]
本実施形態においては、視線位置に基づいて後述の選択可能領域を変更するものである。以下、図面を参照しながら具体例を説明する。
図1は、本実施形態に適用される情報処理装置100のハードウェア構成を示す図である。バス101は、後述する各処理部を接続するデータ線である。CPU102は、CPU(Central Processing Unit)であり、各種処理のための演算や論理判断などを行い、バス101に接続された各処理部を制御する。ROM(Read−Only Memory)103およびRAM(Random Access Memory)104は、種々のデータを記憶する。RAM104は、外部記憶装置などから読み込んだプログラムなども記憶する。記憶装置105は、本実施形態に係るデータやプログラムを記憶しておくためのハードディスクなどの記憶装置である。また、記憶装置105と同様の役割を果たすものとして、外部記憶装置106を用いてもよい。ここで、外部記憶装置106とは、例えば、メディア(記録媒体)と、当該メディアへのアクセスを実現するための外部記憶ドライブとで実現することができる。このようなメディアとしては、例えば、フレキシブルディスク(FD)、CD−ROM、DVD、USBメモリ、MO、フラッシュメモリ等が知られている。ROM103、RAM104を含む上記種々の記憶部は、CPU102が後述する各種処理に相当するプログラムを実行する際のプログラムコードを記憶するメモリあるいはワークメモリなどとして機能する。即ち、本実施形態において必要な情報の全ては、ROM103、RAM104や記憶装置105、外部記憶装置106のいずれかに記憶、保持される。
情報入力装置107は、外部装置からの情報を入力するための入力部である。具体例としては、マウス、トラックボール、タッチパネル等のポインティングデバイスによる入力部、その他、キーボードやボタン等の入力部が相当する。情報出力装置108は、情報処理装置100で処理した種々の情報を出力するための出力部である。例えば、この情報出力装置108は、後述する各オブジェクト画像を表示するためのディスプレイであっても良く、外部のディスプレイに表示対象となる画像データを出力する表示制御部であっても良い。本実施形態では、情報出力装置108がディスプレイそのものであり、上述した種々の記憶部の画像をディスプレイ108の画面上に表示しているものとして説明する。また、本実施形態では、ディスプレイ108の画面上に表示している各オブジェクト画像を、操作者からの指示に基づいて効率良く選択しようとするものであるため、既に表示されている各オブジェクト画像を如何にして選択するかに重点をおいて説明する。
図2は、情報処理装置100の機能構成を説明するための図である。以下、各機能について説明する。
選択可能領域設定部201は、画面上に表示されているオブジェクト画像(以下オブジェクトと呼ぶ)の表示位置を取得し、後述する選択可能領域を設定する。
図3(a)に、ディスプレイ108の画面400上に表示されているオブジェクトが4つある場合の、各オブジェクトの位置を示す。RAM104、記憶装置105、外部記憶装置106などには、図3(a)に示すような形で、各オブジェクト(401〜404)のそれぞれに対応する座標が記憶されている。選択可能領域設定部201は、この座標を示す座標情報を取得し、設定部201内に保持する。ここでは各オブジェクトが矩形画像である場合を例にとり、その矩形の上側(TOP)、下側(BOTTOM)、左側(LEFT)、右側(RIGHT)の座標を示す座標情報を取得、保持することとする。なお、座標軸の考え方としては、画面400の左上角の位置(画面の左上の黒丸)が縦方向に0ドット、横方向に0ドットであるとする。そして、その左上角から下方向にNドット移動すると縦方向にNドットの位置であるとし、同じく右方向にMドット移動すると横方向にMドットの位置であるとする。
図4(a)は、図3(a)に示された4つのオブジェクトを画面上に表示した様子を示す図である。この図では、ディスプレイ108の画面に相当する画面400に、4つのオブジェクト401〜404が表示されている。例えば、オブジェクトID=401に相当する矩形画像について言えば、TOPが縦方向に10ドットの位置、BOTTOMが縦方向に110ドットの位置、LEFTが横方向に10ドットの位置、RIGHTが横方向に110ドットの位置である。その座標の通りに表示された結果が、図4(a)に示すオブジェクト401である。
上記選択可能領域設定部201は、上記各オブジェクト401〜404の座標情報に基づいて、各オブジェクトを操作者による手(指)による指差しで選択することができる個々の選択可能領域405〜408を設定する。この選択可能領域は、操作者のオブジェクトを選択する際の選択基準となり、各オブジェクトに対応付けて画面上にマッピングした位置を示す位置情報に相当する。オブジェクト401に対応する選択可能領域が405であり、オブジェクト402に対応する選択可能領域が406であり、オブジェクト403に対応する選択可能領域が407であり、オブジェクト404に対応する選択可能領域が408である。
以下で説明する選択可能領域には、初期状態(または変更前)の選択可能領域(図3(b)、図4(b)に相当)と、変更後の選択可能領域(図3(c)、図4(c))が存在する。この変更は、操作者の視線(操作者が画面上の何処を見ているか)に基づいて実行されるものであり、操作者の視線が画面上に無ければこのような変更は行われない。
図3(b)は、上記変更が行われる前の選択可能領域405〜408の座標を示したものである。ここでは、各オブジェクト401〜404に対して、それぞれの選択可能領域405〜408の位置を示す座標が示されている。本実施形態では、オブジェクトが矩形画像である場合を説明しているので、選択可能領域も矩形領域になっている。選択可能領域の矩形の上側(TOP)、下側(BOTTOM)、左側(LEFT)、右側(RIGHT)の座標の表現方法は、上記図3(a)と同様である。ここでは、選択可能領域のそれぞれが、各オブジェクトのサイズより大きくなっているが、これは操作者の指差しによって、それぞれのオブジェクトが選択されやすくなることを理由としている。このようにすれば、2つのオブジェクトの間に向かって、操作者が指を指しても、いずれかのオブジェクトが選択されるであろう。
図4(b)は、上記図3(b)の選択可能領域405〜408の画面上の位置を示す図である。実際のディスプレイには、図4(a)が表示されているが、指差しにより各オブジェクトを選択できる選択可能領域は、それぞれ図示する領域405〜408である。
指示位置入力装置202は、上述した情報入力装置107の一部に相当する。指示位置入力装置202は、操作者の手(指)の指し示す位置(以下、指差し位置と呼ぶ)が画面上の何処に在るかを検出する。その方法は公知であるので詳細説明は省略するが、例えば2台のカメラを用いて撮影したステレオ画像から指差し位置を検出できる。その他、距離センサで画面から手までの距離を検出し、カメラで撮影した画像から指の方向を検出し、距離と方向から指差し位置を特定しても良い。また、本実施形態では「指差し」を行う物体を操作者の手として説明するが、操作者の手や指に限らず、操作者の他の部位であったり、操作者が保持する指示棒などであっても良い。
指示位置検出部203は、情報処理装置100から、指示位置入力装置202にて検出された指差し位置を取得する。そして、選択判定部204に指差し位置を出力する。
選択判定部204は、指示位置検出部203から受信した指差し位置に相当する選択可能領域を、図3(b)あるいは後述する図3(c)に示す選択可能領域から特定する。具体的には、図3(b)あるいは後述する図3(c)の選択可能領域のいずれかに指差し位置が含まれる選択可能領域を特定する。その結果、特定された選択可能領域に対応するオブジェクトIDを「選択されたオブジェクト」であると決定する。ここで決定されたオブジェクトIDは、後述する表示更新部205に通知される。
表示更新部205は、選択判定部204から通知されたオブジェクトIDに相当するオブジェクトが選択されたものとして、画面上に選択されたことを示す表示を行う。例えば、選択前に表示されていたオブジェクトに対し、選択後には、オブジェクトの色が反転するような表示に更新する。また例えば、オブジェクトの外枠となる境界部分に太線を付与するように表示を更新する。この結果、情報出力装置(ディスプレイ)108には、あるオブジェクトが選択されたことがわかる表示が行われる。
図5は、上記指示位置検出部203、選択判定部204、表示更新部205などによる、オブジェクト選択処理の手順を示すフローチャートである。まず、ステップ501では、指示位置検出部203によって、指差し位置を取得する。ステップS502では、選択判定部204によって、上記指差し位置に相当する選択可能領域を特定する。ステップS503で、上記指差し位置に相当する選択可能領域を特定できたと判定した場合には、ステップS504に進み、特定できない場合には、処理を終了する。ステップS504では、表示更新部205によって、特定された選択可能領域に対応するオブジェクトが選択されたことを示す表示更新を行わせる。
視線位置入力装置206は、上述した情報入力装置107の一部である。視線位置入力装置206は、視線の示す位置(以下、視線位置と呼ぶ)が画面上の何処に在るかを検出(視線検出)することができる。その方法は公知であるので詳細説明は省略するが、例えば2台のカメラを用いて撮影したステレオ画像から視線位置を検出できる。
視線位置検出部207は、情報処理装置100から、視線位置入力装置206で検出された視線位置を取得する。そして、選択可能領域変更部208に視線位置を通知される。
選択可能領域変更部208は、視線位置検出部207から通知された視線位置付近に存在するオブジェクトを特定する。具体的には、図3(a)に示すそれぞれオブジェクト(もしくはオブジェクトの一部)が、「視線位置に相当する座標から一定距離内(例えば視線位置を中心とした場合の円領域内)に含まれているかどうか」を判定する。その判定の結果、上記座標から一定領域内に含まれているオブジェクトを特定する。なお、ここで特定されるオブジェクトは、視線位置あるいはオブジェクトの密集状態によっては、1つである場合もあるし、2つ以上である場合もあるし、1つも存在しない場合もあるであろう。選択可能領域変更部208は、特定されたオブジェクトに基づいて、図3(b)の選択可能領域から、図3(c)の選択可能領域に変更する。
図3(c)は、上記変更後の選択可能領域を示したものである。ここでは、視線位置がオブジェクトID=401に相当するオブジェクトに当たっている場合、即ち、上記特定されたオブジェクトがオブジェクト401である場合を想定して説明する。本実施形態では、特定されたオブジェクト401の選択可能領域405を、縦方向、横方向にそれぞれ40ドットずつ大きくすることとする。これにより、「視線が当たっていない他のオブジェクトに対応する選択可能領域よりも、操作者に選択されやすい」という状態を作り出すことができる。なお、上記選択可能領域405を拡大してしまうと、他の選択可能領域と重なってしまうが、本実施形態では、それぞれの選択可能領域に選択される優先順位を持たせることとする。これにより、複数の選択可能領域が重なっていた場合であっても、優先順位が高い選択可能領域が選択されるようにする。ここでは、通常の選択可能領域である領域406、407、408の優先順位を第2位と設定することとし、上述したような変更を行った選択可能領域405については、優先順位を第1位と設定するものである。これにより、もし、操作者が、選択可能領域が重なっている位置(例えば領域405、406の重複部分)を指差ししたとしても、優先順位が高い選択可能領域(領域405)が選択される。
図4(c)は、上記図3(c)の選択可能領域405〜408の画面上の位置を示す図である。図4(b)の選択可能領域405に比べて、大きくなっているのが解かるであろう。
図6は、上記視線位置検出部207、選択可能領域変更部208などによる、選択可能領域変更処理の手順を示すフローチャートである。まず、ステップS601では、視線位置検出部207によって、視線位置を取得する。ステップS602では、選択可能領域変更部208によって、上記視線位置付近に存在するオブジェクトを特定する。ステップS603では、上記視線位置付近に存在する場合にはステップS604に進み、存在しない場合には、処理を終了する。ステップS604では、特定されたオブジェクトに基づいて、選択可能領域を変更する。この変更処理は、上述した通りである。
<オブジェクトが重なっている場合>
図7(a)は、ディスプレイ108の画面400上に表示されている複数のオブジェクトのうち、幾つかのオブジェクトが重なっている様子を示す。ここでは、オブジェクト401の背面にオブジェクト701が隠れてしまっている。このような場合において、操作者の視線が、オブジェクト401、701付近に当たった場合には、上述した考え方に基づいて、それら複数のオブジェクトのいずれもが、操作者にとって選択されやすいように表示するべきである。従って、このような場合には、選択可能領域変更部208は、図7(b)に示すように、オブジェクト401に対応する選択可能領域405を大きくするとともに、オブジェクト701に対応する選択可能領域702も十分に大きくなるように選択可能領域を変更する。特に、本実施形態では、オブジェクト401とオブジェクト701に対する選択のしやすさを同等にするために、図7(b)に示すように、選択可能領域405、702の両方を同じ面積(面積A)に制御することとする。
[第1実施形態の変形例]
以上の実施形態では、オブジェクトと選択可能範囲を矩形画像として説明したが、本発明はこれに限らない。例えば、オブジェクトや選択可能範囲の一部に、4角形以外の多角形画像を含んでいたり、曲線で構成された画像を含んでいても、本発明は適用可能であろう。このような場合には、上述した座標の定義の仕方も、公知の別の手法に置き換えて実行すれば良い。また、上記説明では、視線の位置に応じて、選択可能領域405は大きく変更するものの、実際に表示されているオブジェクト401を大きく表示することは無かった。しかしながら、操作者が視覚的に理解しやすくなる目的で、オブジェクト401そのものの表示サイズを大きく変更しても良い。なお、表示サイズを大きくしたオブジェクト401と、変更後の選択可能領域405のサイズを同じにするよう設計すれば、サイズ変更のための演算が共有でき、演算の負荷を減らせるであろう。また、選択可能領域の変更は、指示位置と視線位置が近い距離にある場合に限定しても良い。
以上のように、本実施形態によれば、ディスプレイの画面に表示されたオブジェクト画像を選択する情報処理装置において、操作者の視線を検出することによって、視線の先にある画面上の一部を特定する。そして、操作者の視線以外の部位(手)が示す画面上の位置を特定する。そして、視線の先にある画面上の一部に表示されているオブジェクト画像が選択され易くなるように、上記手による位置特定のための選択基準を設定する。これによれば、多数の選択候補となるオブジェクトがある場合などにおいても、効率良く、注目するオブジェクトを選択できる。
[第2実施形態]
以上の実施形態では、視線位置に当たっているオブジェクトの選択可能領域を大きくしていたが、本発明はこれに限らない。例えば、視線位置との距離に応じて、選択可能領域を段階的に大きくしても良いであろう。以下では、その一例を説明する。なお、本実施形態では、上述した情報処理装置100を壁面ディスプレイであるとして説明するが、基本的な構成は前述した図1、図2と同じであり、その点の詳細説明は省略する。以下では、第1実施形態と異なる選択可能領域の変更処理に重点をおいて説明する。
図8は、上述した情報処理装置100に相当する壁面ディスプレイ800の外観図である。また、壁面ディスプレイ800における画面801は、上述した情報出力装置108に相当する。図8において、画面801内には、大きさが等しい、写真等のオブジェクト画像を敷き詰めて表示している。情報入力装置107(指示位置入力装置202と視線位置入力装置206)に相当するカメラ803は、壁面ディスプレイ800の上部の左右に1つずつ設置されており、このカメラ803により上述したステレオ画像を撮影することができる。従って、カメラ803によって、上述した操作者の指差し位置と視線位置を検出できる。なお、本実施形態では、視線位置を検出していない状態では、各オブジェクトに対応する選択可能領域を、オブジェクトの表示領域と同じ領域に設定するものとする。
本実施形態おける選択可能領域変更部208は、視線位置検出部207によって検出した視線804から、その視線の先にあるディスプレイ800上の位置(視線位置)を取得する。そして、画面上に表示されている全てのオブジェクトについて、上記視線位置に応じた選択可能領域の調整を行う。ここでは、各オブジェクトと視線位置との間の距離を計算し、それぞれの距離に応じて、各オブジェクトに対応する選択可能領域の大きさ(元の領域からの変更倍率)を決定する。具体的には、上記距離が近いオブジェクトの選択可能領域ほど大きさ(元の領域からの変更倍率)を大きくし、上記距離が遠いオブジェクトの選択可能領域ほど大きさ(元の領域からの変更倍率)を小さくする。もし、倍率が1倍より大きい数値の場合は選択可能範囲が元の選択可能範囲(そのオブジェクトの表示領域)よりも大きくなり、倍率が1倍より小さい数値の場合は選択可能範囲が元の選択可能範囲(そのオブジェクトの表示領域)よりも小さくなる。
図9は、上記選択可能領域変更部208が行う選択可能領域変更処理の手順を示すフローチャートである。なお、上述した図5の手順と同等の工程がある場合には、同じ番号を付与している。ステップS501では、選択可能領域変更部208によって、操作者の視線位置を取得する。ステップS901では、画面801に表示中の全オブジェクトに関する情報(座標情報等)を取得する。ステップS902では、後述する「ループ回数」のパラメータを参照することにより、表示中の全オブジェクトに対して後述するステップS903〜S906を実行したか否かを判定する。全てのオブジェクトに対してステップS903〜S906の処理が終了していれば、処理を終了する。全てのオブジェクトに対してステップS903〜S906の処理が終了していなければ、未処理のオブジェクトの1つを処理対象のオブジェクトとして、ステップS903に進む。ステップS903では、処理対象となっているオブジェクトの位置(座標)と、ステップS501で取得した視線位置との間の距離を計算する。ステップS904では、計算された距離に基づいて、処理対象オブジェクトに対応する選択可能領域の大きさを変更するための倍率を計算する。ステップS905では、ステップS904で計算された倍率に基づいて、処理対象オブジェクトに対応する選択可能領域を変更する。ステップS906では、上記ステップS903〜S905までの処理回数を示す「ループ回数」のパラメータをインクリメントする。
以上の選択可能領域変更処理によって変更された選択可能領域は、図8の選択可能領域805に示すものになる。この図では、解りやすさのため、選択可能領域805を実際の画面801から離れた位置に表記しているが、実際には、その選択可能領域805は、画面801上にマッピングされているものである。図から解かるように、視線位置に存在するオブジェクト806に対応する選択可能領域807が一番大きくなるよう、選択可能領域807は元の2倍程度の倍率で拡大されている。また、オブジェクト806に近いオブジェクト群の選択可能領域も比較的倍率が高く設定されるため、それら選択可能領域は、元の領域より大きく、かつ2倍より小さい範囲で拡大される。その一方、オブジェクト806から遠いオブジェクト群の選択可能領域は比較的倍率が低く設定されるため、それら選択可能領域は、元の領域より小さくなるよう縮小される。そして、もし指示位置検出部203が指示位置808を検出した場合には、上記変更処理後の選択可能領域805と比較参照することによって、操作者が何れの選択可能領域を指差ししたかを特定する。そして、その特定された選択可能領域に対応するオブジェクトID(図8の場合にはオブジェクト806を示すID)を選択したものと判定することになる。ところで、距離に基づいて単純に倍率を計算しただけでは、オブジェクトの配置や視線位置によっては選択可能領域が画面からはみ出してしまうかもしれない。これを防ぐために、例えば、全選択可能領域に対する倍率を合計した数値が1倍になるように正規化するようにしても良いであろう。
以上のように、本実施形態によれば、ディスプレイの画面に表示されたオブジェクト画像を選択する情報処理装置において、操作者の視線を検出することによって、視線の先にある画面上の一部を特定する。そして、操作者の視線以外の部位(手)が示す画面上の位置を特定する。そして、視線の先にある画面上の一部に表示されているオブジェクト画像が選択され易くなるように、上記手による位置特定のための選択基準を設定する。これによれば、多数の選択候補となるオブジェクトがある場合などにおいても、効率良く、注目するオブジェクトを選択できる。
[視線が頻繁に変更される場合の対処例]
上記第1、第2の実施形態において、視線位置を操作者の注目するオブジェクトに向けたにも関わらず、そのあとに何らかの理由で視線を移動してしまうと、選択可能領域が不適切に再設定されてしまうであろう。これに対処するためには、視線位置が注目するオブジェクトに向いたと判断された後は、視線の移動を無視することが有効である。以下、その対処例を説明する。
図10は、操作者が視線位置を注目オブジェクトに向けたあとに、視線を移動してしまう一例を示す図である。なお、図10の各部は、基本的に図8と同じであるため、異なる部分のみ説明する。この図では、既に、視線位置が注目オブジェクト806に移動し、それに合わせて選択可能領域が変更されている。ここでは、注目オブジェクト806を選択するために、指差し方向808が画面端から移動していく途中段階を示している。このような時には、操作者は、無意識に現在の指差し方向808(オブジェクト1001付近)を見てしまうであろう。特に、現在の指指し方向に相当するオブジェクト1001に、色やマークを付与して表示したりすれば、その誤りの問題は顕著になるであろう。このような状態では、オブジェクト1001に相当する選択可能領域が選択されやすくなるように選択可能領域が再設定(変更)されてしまい、好ましくない。本実施形態では、これを防ぐために、「操作者の視線による注目オブジェクト付近への注視」が特定されたと一度判断し、それに応じた選択可能領域の変更がなされた後には、視線の移動を無視し、選択可能領域の変更を行わないようにする。
図11は、上記選択可能領域変更呼出処理の動作手順を示すフローチャートである。最初に簡単に説明すると、図11の動作手順は、上述した図6あるいは図9の「選択可能領域変更処理」を一部に含み、また、「選択可能領域変更処理」を行うか否かを制御する前後の動作を含む処理に相当する。まず、ステップS1101では、視線位置の移動検出を行う。具体的には、視線位置検出部207から通知された視線位置が、後述のステップS1106にて保持している視線位置から変更されているかどうかを判定する。なお、初回にこのステップS1101の処理を行う際は、保持している視線位置が存在しなくても必ず判定がYESとなるようにする。もしステップS1101において、視線位置に変更があったと判定された場合には、ステップS1102に進む。もし、視線位置に変更が無かったと判定された場合には、一連の処理を終了する。ステップS1102では、選択可能領域変更フラグがONであるかを判定する。この選択可能領域変更フラグとは、選択可能領域の変更処理が既に実行されたかどうかを判断するためのフラグである。このフラグがONの場合には、選択可能領域変更処理が既に実行されていることを示す。なお、このフラグの初期状態はOFFである。ステップS1102において、選択可能領域変更フラグがONだった場合には、一連の処理を終了する。これにより、もし視線位置に基づいて選択可能領域が1度でも変更されている場合には、次に視線位置が変更されたとしても2回目の選択可能領域の変更が行われないように制御されることになる。ステップS1102において、選択可能領域変更フラグがOFFだった場合には、ステップS1103に進む。ステップS1103では、上述した図6または図9にて示した選択可能領域変更処理を呼び出し、これを実行する。ステップS1104では、ステップS1103の処理内で、実際に選択可能領域を変更する処理が実行されたかどうかを判定する。このステップでは、何らかの理由で選択可能領域変更処理が実行されなかったことを考慮して、実際に変更処理が行われたか否かを確認するステップである。もし、選択可能領域変更処理が実行された場合には、ステップS1105に進む。もし選択可能領域変更処理が実行されなかった場合には、一連の処理を終了する。ステップS1105では、上述した選択可能領域変更フラグをONに変更する。これにより、次回、操作者の視線位置に変更があったとしても、ステップS1102における判定結果に基づいて、2度目の変更処理が行われずに済む。ステップS1106では、現在S1101において視線位置検出部207が検出していた視線位置を、次回の選択可能領域変更呼出処理のために、図1の何れかの記憶部に保持する。ここで保持された記憶位置は、次回のステップS1101における判定において、過去の視線位置として参照される。以上により、選択可能領域変更処理を所定の期間内において1回に限定できる。なお、ここで所定の期間をどの程度に設定するかは操作者の要望によって適宜設定が可能である。この所定の期間は、上述した視線可能領域変更フラグを所定の期間が過ぎた後に強制的にOFFにすることによって制御できるであろう。例えば、この強制的にOFFにするタイミングは、図5で示したようなオブジェクト選択処理が実行された後である。以下にその制御を行う一例を説明しておく。
図12は、操作者の視線位置が移動し、かつ移動先の位置で一定時間を経過すると、選択可能領域の変更が許可される制御を行う動作手順を示す図である。基本的には、図11に幾つかの判定処理を追加しただけであるので、ここではその差異のみ簡単に説明する。ステップS1201では、視線位置変更フラグをONとし、ステップS1202では、視線位置が変更された現在の時刻を示す時刻情報を保持する。これら視線位置変更フラグと時刻情報を参照すれば、この時刻から一定時間、選択可能領域変更処理が行なわれなかったことを判断できる。ステップS1203では、選択可能領域変更処理が実行されているので、視線位置変更フラグをOFFに戻す。ステップS1204では、ステップS1101で、「直前の視線位置からの変更が無かった」と判断された場合に実行される判断処理である。このステップS1204では、視線位置変更フラグがONであるかどうかを判定する。もし、視線位置変更フラグがONの場合は「以前の選択可能領域変更処理の後に、操作者の視線位置が変更されている」かつ「直前の視線位置からの変更が無かった(現在の視線位置を注視している)」と判断し、ステップS1205に進む。ステップS1204では、視線位置変更フラグがOFFの場合には、「以前の選択可能領域変更処理の後に、操作者の視線位置が変更されていない」という状態であるので、一連の処理を終了する。ステップS1205では、ステップS1202で以前に保持された時刻情報(現在注視している視線位置に変更した時刻を示す情報)に基づいて、「現在注視している視線位置に変更した時刻から一定時間を経過しているか否か」を判定する。もし、一定時間を経過している場合には、ステップS1103に進む。これにより、操作者の視線位置が移動し、かつ移動先の位置で一定時間を経過すると、選択可能領域の変更が実行される。また、操作者が視線を一瞬だけ移動したような場合には、これに反応して選択可能領域を変更するようなことは行わない。
[変形例]
なお、本発明は、上記各実施形態で説明したような、操作者の指差しによる選択を行うシステムに限らず、種々の選択方法に適用することができる。また、上記実施形態で例示したディスプレイ108(画面400や画面801)は、テーブル型のディスプレイなどであっても良い。例えば、本発明は、「テーブル型ディスプレイの画面上」に複数のオブジェクト画像を表示し、それらのオブジェクト画像を選択するための指示を、「操作者の手を上下に動かすこと」によって行っても良い。以下では、その一例を説明する。
図13は、テーブル型ディスプレイの画面上に表示された複数のオブジェクト画像を操作者の手を上下させることで選択するシステムを示したものである。なお、上記各実施形態で説明したような操作者の視線位置を検知する機能などは、この例においても同様に採用されているものとする。即ち、操作者の視線位置を特定する機能や、操作者の視線以外の部位が示す画面上の位置を特定する機能や、視線位置に相当するオブジェクト画像が選択され易くなるように、選択可能領域を設定することについては、上記各実施形態と何ら変わりは無い。図13において、テーブル型ディスプレイ1300の画面上には、複数のオブジェクト画像802が表示されている。このシステムでは、操作者がテーブル型ディスプレイ1300の脇に立ち、操作者の胴体を中心として所定の方向に手を伸ばす。そして、操作者がその手を上下に移動させることにより、手を伸ばした方向における複数のオブジェクト802の何れか1つを選択できる。より具体的には、手の高さを低く移動すると、操作者により近い位置に表示されたオブジェクトを選択することができ、手の高さを高くすると、操作者からより遠い位置に表示されたオブジェクトを選択することができる。ここで、視線位置を何も検出していない状態、即ち、選択可能領域変更処理が実行されていない状態の選択可能領域1302、1303は、図示するように、全てのオブジェクトに対応する選択可能領域に相当する角度が10°で、高さが5cm幅となっている。すなわち、操作者の視線を検出していない段階では、手の角度を左右に10°変更させることによって、選択候補となるオブジェクトを左右に1つずらすことができる。また、手の高さを上下に5cmずつ変更することによって、選択候補となるオブジェクトを前後に1つずらすことができる。これに対して、視線位置1301を検出した場合には、上述した各実施形態と同様に、その視線位置付近の各選択可能領域を大きくする処理が行われる。その結果、選択可能領域1302に示すように、視線位置付近の選択可能領域を選択するための角度には、元の角度より広い角度(15°)が割当てられる。また、選択可能領域1303に示すように、視線位置付近の選択可能領域を選択するための高さの幅には、元の幅より広い幅(8cm)が割当てられる。
なお、上述した各実施形態は、以下の処理を実行することによっても実現される。即ち、上記実施形態の各工程や機能を実現するソフトウェア(コンピュータプログラム)を、ネットワークや記憶媒体を介してシステムに供給し、そのシステムのコンピュータ(またはCPU等)が上記プログラムを読み込んで実行する処理である。上記コンピュータプログラムや、それを記憶したコンピュータ可読記憶媒体も本発明の範疇に含まれる。

Claims (6)

  1. ディスプレイの画面に表示されたオブジェクト画像を選択する情報処理装置であって、
    操作者の視線を検出し、視線の先にある前記画面上の一部を特定する視線検出手段と、
    操作者の前記視線以外の部位が示す前記画面上の位置を特定する位置検出手段と、
    前記位置検出手段が検出した位置に相当するオブジェクト画像を、設定された選択基準に基づいて選択する選択手段とを備え、
    前記選択手段は、前記視線検出手段で特定された画面上の一部に表示されているオブジェクト画像が選択され易くなるように、前記選択基準を設定することを特徴とする情報処理装置。
  2. 前記選択手段は、前記選択基準として、前記画面に表示されたオブジェクト画像のそれぞれに対応する画面上の位置を示す選択可能領域を設定しておき、前記位置検出手段が検出した位置に相当する前記選択可能領域を特定することにより、前記選択可能領域に対応するオブジェクト画像を選択したものとする請求項1に記載の情報処理装置。
  3. 前記選択手段は、前記視線検出手段で特定された画面上の一部に表示されているオブジェクト画像に対応する画面上の位置を示す選択可能領域を、他のオブジェクト画像よりも大きいサイズになるように変更することにより、前記オブジェクト画像が選択され易くすることを特徴とする請求項2に記載の情報処理装置。
  4. コンピュータに読み込み込ませ実行させることで、前記コンピュータを請求項1乃至3のいずれか1項に記載の表示制御装置として機能させるコンピュータプログラム。
  5. 請求項4に記載のコンピュータプログラムを記憶したことを特徴とするコンピュータ可読記憶媒体。
  6. ディスプレイの画面に表示されたオブジェクト画像を選択する情報処理装置の制御方法であって、
    視線検出手段によって、操作者の視線を検出し、視線の先にある前記画面上の一部を特定する視線検出工程と、
    位置検出手段によって、操作者の前記視線以外の部位が示す前記画面上の位置を特定する位置検出工程と、
    選択手段によって、前記位置検出工程で検出した位置に相当するオブジェクト画像を、設定された選択基準に基づいて選択する選択工程と、
    変更手段によって、前記視線検出工程で特定された画面上の一部に表示されているオブジェクト画像が選択され易くなるように、前記選択基準を設定する変更工程とを備えることを特徴とする制御方法。
JP2010162100A 2010-07-16 2010-07-16 情報処理装置およびその制御方法 Pending JP2012022632A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010162100A JP2012022632A (ja) 2010-07-16 2010-07-16 情報処理装置およびその制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010162100A JP2012022632A (ja) 2010-07-16 2010-07-16 情報処理装置およびその制御方法

Publications (2)

Publication Number Publication Date
JP2012022632A true JP2012022632A (ja) 2012-02-02
JP2012022632A5 JP2012022632A5 (ja) 2013-08-29

Family

ID=45776848

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010162100A Pending JP2012022632A (ja) 2010-07-16 2010-07-16 情報処理装置およびその制御方法

Country Status (1)

Country Link
JP (1) JP2012022632A (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014069428A1 (ja) * 2012-10-29 2014-05-08 京セラ株式会社 電子機器および視線入力方法
US20150199007A1 (en) * 2014-01-10 2015-07-16 Samsung Electronics Co., Ltd. Method and apparatus for processing inputs in an electronic device
JP2015141668A (ja) * 2014-01-30 2015-08-03 京セラドキュメントソリューションズ株式会社 電子機器及び操作画面表示プログラム
JP2016035631A (ja) * 2014-08-01 2016-03-17 株式会社Nttドコモ メニュー選択装置及びメニュー選択方法
JP2016103102A (ja) * 2014-11-27 2016-06-02 京セラ株式会社 携帯端末及び制御方法
JPWO2014188565A1 (ja) * 2013-05-23 2017-02-23 パイオニア株式会社 表示制御装置
US10198082B2 (en) 2015-07-31 2019-02-05 Kabushiki Kaisha Toshiba Position input device and position input method
JPWO2017169158A1 (ja) * 2016-03-29 2019-02-07 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JPWO2017187708A1 (ja) * 2016-04-26 2019-02-28 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
CN109426425A (zh) * 2017-09-05 2019-03-05 富士施乐株式会社 信息处理装置、图像形成装置以及存储介质
JP2020057441A (ja) * 2020-01-14 2020-04-09 パイオニア株式会社 操作装置、制御方法、プログラム及び記憶媒体

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02153415A (ja) * 1988-12-06 1990-06-13 Hitachi Ltd キーボード装置
JPH0651901A (ja) * 1992-06-29 1994-02-25 Nri & Ncc Co Ltd 視線認識によるコミュニケーション装置
JPH086708A (ja) * 1994-04-22 1996-01-12 Canon Inc 表示装置
JPH1124603A (ja) * 1997-07-04 1999-01-29 Sanyo Electric Co Ltd 情報表示装置及び情報収集装置
JP2000163196A (ja) * 1998-09-25 2000-06-16 Sanyo Electric Co Ltd ジェスチャ認識装置及びジェスチャ認識機能を有する指示認識装置
JP2000278626A (ja) * 1999-03-29 2000-10-06 Sanyo Electric Co Ltd マルチ画面音声出力制御装置
JP2002041234A (ja) * 2000-05-09 2002-02-08 Intel Corp 凝視の対象を検出する機能を有する微小表示システム
JP2002297283A (ja) * 2001-03-30 2002-10-11 Just Syst Corp ボタン制御方法およびボタン制御装置
JP2004213486A (ja) * 2003-01-07 2004-07-29 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム
JP2006516772A (ja) * 2003-01-23 2006-07-06 テングシェ,ヴィシュワス,ブイ. 視線追跡システム及び方法
JP2007213469A (ja) * 2006-02-13 2007-08-23 Saitama Univ 視線制御表示装置と表示方法
JP2009192737A (ja) * 2008-02-13 2009-08-27 Sony Corp 画像表示装置、画像表示方法、プログラム及び記録媒体
JP2009251658A (ja) * 2008-04-01 2009-10-29 Fujifilm Corp 携帯型電子装置及びその制御方法
JP2009545051A (ja) * 2006-07-28 2009-12-17 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 注視された商品の情報表示のための注視インタラクション

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02153415A (ja) * 1988-12-06 1990-06-13 Hitachi Ltd キーボード装置
JPH0651901A (ja) * 1992-06-29 1994-02-25 Nri & Ncc Co Ltd 視線認識によるコミュニケーション装置
JPH086708A (ja) * 1994-04-22 1996-01-12 Canon Inc 表示装置
JPH1124603A (ja) * 1997-07-04 1999-01-29 Sanyo Electric Co Ltd 情報表示装置及び情報収集装置
JP2000163196A (ja) * 1998-09-25 2000-06-16 Sanyo Electric Co Ltd ジェスチャ認識装置及びジェスチャ認識機能を有する指示認識装置
JP2000278626A (ja) * 1999-03-29 2000-10-06 Sanyo Electric Co Ltd マルチ画面音声出力制御装置
JP2002041234A (ja) * 2000-05-09 2002-02-08 Intel Corp 凝視の対象を検出する機能を有する微小表示システム
JP2002297283A (ja) * 2001-03-30 2002-10-11 Just Syst Corp ボタン制御方法およびボタン制御装置
JP2004213486A (ja) * 2003-01-07 2004-07-29 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム
JP2006516772A (ja) * 2003-01-23 2006-07-06 テングシェ,ヴィシュワス,ブイ. 視線追跡システム及び方法
JP2007213469A (ja) * 2006-02-13 2007-08-23 Saitama Univ 視線制御表示装置と表示方法
JP2009545051A (ja) * 2006-07-28 2009-12-17 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 注視された商品の情報表示のための注視インタラクション
JP2009192737A (ja) * 2008-02-13 2009-08-27 Sony Corp 画像表示装置、画像表示方法、プログラム及び記録媒体
JP2009251658A (ja) * 2008-04-01 2009-10-29 Fujifilm Corp 携帯型電子装置及びその制御方法

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014086063A (ja) * 2012-10-29 2014-05-12 Kyocera Corp 電子機器、視線入力プログラムおよび視線入力方法
WO2014069428A1 (ja) * 2012-10-29 2014-05-08 京セラ株式会社 電子機器および視線入力方法
JPWO2014188565A1 (ja) * 2013-05-23 2017-02-23 パイオニア株式会社 表示制御装置
US20150199007A1 (en) * 2014-01-10 2015-07-16 Samsung Electronics Co., Ltd. Method and apparatus for processing inputs in an electronic device
JP2015141668A (ja) * 2014-01-30 2015-08-03 京セラドキュメントソリューションズ株式会社 電子機器及び操作画面表示プログラム
JP2016035631A (ja) * 2014-08-01 2016-03-17 株式会社Nttドコモ メニュー選択装置及びメニュー選択方法
JP2016103102A (ja) * 2014-11-27 2016-06-02 京セラ株式会社 携帯端末及び制御方法
US10198082B2 (en) 2015-07-31 2019-02-05 Kabushiki Kaisha Toshiba Position input device and position input method
JPWO2017169158A1 (ja) * 2016-03-29 2019-02-07 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JPWO2017187708A1 (ja) * 2016-04-26 2019-02-28 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US11017257B2 (en) 2016-04-26 2021-05-25 Sony Corporation Information processing device, information processing method, and program
CN109426425A (zh) * 2017-09-05 2019-03-05 富士施乐株式会社 信息处理装置、图像形成装置以及存储介质
CN109426425B (zh) * 2017-09-05 2023-09-22 富士胶片商业创新有限公司 信息处理装置、图像形成装置以及存储介质
JP2020057441A (ja) * 2020-01-14 2020-04-09 パイオニア株式会社 操作装置、制御方法、プログラム及び記憶媒体

Similar Documents

Publication Publication Date Title
JP2012022632A (ja) 情報処理装置およびその制御方法
TWI534661B (zh) 畫像辨識裝置及操作判定方法以及電腦程式
JP2014127184A (ja) 情報処理装置および表示制御方法
US20150309584A1 (en) Input control device and method
US9544556B2 (en) Projection control apparatus and projection control method
US9323339B2 (en) Input device, input method and recording medium
US20140278088A1 (en) Navigation Device
KR102205283B1 (ko) 적어도 하나의 어플리케이션을 실행하는 전자 장치 및 그 제어 방법
JP4166767B2 (ja) 情報処理装置及びポインタの移動表示方法、プログラム並びに記録媒体
JP2011034216A (ja) 選択オブジェクト決定方法、オブジェクトの前後関係の決定方法及びその装置
CN109976614B (zh) 一种立体图形的标注方法、装置、设备及介质
JP2011134273A (ja) 情報処理装置、情報処理方法およびプログラム
US10768710B2 (en) Information processing device, information processing method, and program
JP2015138360A (ja) オブジェクト操作システム及びオブジェクト操作制御プログラム並びにオブジェクト操作制御方法
JP5134409B2 (ja) プレゼンテーションシステム
KR20140117979A (ko) 터치스크린을 이용한 항목 선택 방법 및 시스템
WO2015029222A1 (ja) 情報処理装置,表示制御プログラム及び表示制御方法
JP6197559B2 (ja) オブジェクト操作システム及びオブジェクト操作制御プログラム並びにオブジェクト操作制御方法
US8731824B1 (en) Navigation control for a touch screen user interface
KR20160015146A (ko) 웨어러블 디바이스 및 웨어러블 디바이스의 동작 방법
JP2010049318A (ja) 移動制御プログラム
KR101188871B1 (ko) 저시력인을 위한 터치스크린 장치 및 그 디스플레이 방법
JP2017215857A (ja) 表示装置、表示方法およびプログラム
JP2016114857A (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP2019101474A (ja) グループ化制御方法、グループ化制御プログラム、情報処理装置及び情報共有システム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130716

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130716

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140909

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150127