JP6062416B2 - 情報入力装置及び情報表示方法 - Google Patents

情報入力装置及び情報表示方法 Download PDF

Info

Publication number
JP6062416B2
JP6062416B2 JP2014501116A JP2014501116A JP6062416B2 JP 6062416 B2 JP6062416 B2 JP 6062416B2 JP 2014501116 A JP2014501116 A JP 2014501116A JP 2014501116 A JP2014501116 A JP 2014501116A JP 6062416 B2 JP6062416 B2 JP 6062416B2
Authority
JP
Japan
Prior art keywords
display screen
pointer
unit
mode
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014501116A
Other languages
English (en)
Other versions
JPWO2014034031A1 (ja
Inventor
浩靖 井本
浩靖 井本
知成 高橋
知成 高橋
山内 真樹
真樹 山内
良宏 小島
良宏 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Publication of JPWO2014034031A1 publication Critical patent/JPWO2014034031A1/ja
Application granted granted Critical
Publication of JP6062416B2 publication Critical patent/JP6062416B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、GUI(Graphical User Interface)を提供する情報入力装置及び情報表示方法に関し、特に、3次元空間における指示物の位置等に基づいて情報を入力する装置及び情報を表示する方法に関する。
近年、コンピュータ技術の発展と、情報端末の高機能化に伴い、様々なGUIが提案されている(例えば、特許文献1参照)。
特許文献1では、表示画面上のポインタとスクロール対象画像との位置関係が予め定められた関係になったときにポインタを操作することで、スクロール速度及び方向を制御する仮想感覚提示装置が提案されている。これによれば、仮想の皮膚感覚・力感覚や仮想の平衡感覚を、確実に提示することができる仮想感覚提示装置を提供されるというものである。
国際公開第2008/111245号
しかしながら、特許文献1の技術では、ユーザが操作するつもりがなくてポインタを移動させている場合であっても、偶然に、ポインタとスクロール対象画像との位置関係が予め定められた関係になったときには、スクロールが開始されてしまう。そのために、ユーザが意図しない機能が実行されてしまうという問題がある。
そこで、本発明は、上記課題に鑑みてなされたものであり、偶然のポインティング操作によってユーザが意図しない機器の機能が実行されてしまうことを回避した情報入力装置等を提供することを目的とする。
上記目的を達成するために、本発明に係る情報入力装置の一形態は、表示画面に表示された画像に対するユーザの指示を取得する情報入力装置であって、3次元空間における指示物の位置及び向きの少なくとも一方を検出する指示物検出部と、前記指示物検出部で検出された前記指示物の3次元空間における位置及び向きの少なくとも一方に対応させて、前記表示画面に表示するポインタの前記表示画面における位置を決定するポインタ位置決定部と、前記ポインタ位置決定部で決定された位置を示す位置情報の時系列を取得して保持する記憶部と、前記記憶部に記憶された時系列の位置情報を用いて、前記表示画面における予め定められた領域である第1特定領域を前記ポインタが通過したことを検出する第1通過検出部と、前記第1通過検出部によって前記通過が検出された場合に、前記ポインタが前記第1特定領域を通過したときの方向を判別する方向判別部と、前記方向判別部によって判別された方向に応じて、前記表示画面に表示されている画像を変更する第1画像変更部と、前記記憶部に記憶された時系列の位置情報を用いて、前記ポインタが前記表示画面上における繰り返し運動をしていることを検出する繰り返し検出部と、前記第1通過検出部によって前記通過が検出された後に、前記繰り返し検出部による検出を有効化する繰り返し検出有効化部と、前記繰り返し検出部によって有効な検出が行われた場合に、前記画像の変更を繰り返す第2画像変更部と、を備える。
また、上記目的を達成するために、本発明に係る情報表示方法の一形態は、コンピュータによって実行される情報表示方法であって、少なくとも一つのアイテムを表示画面に表示する表示ステップと、3次元空間における指示物の位置及び向きの少なくとも一方を検出することによって、ユーザからの指示を取得する指示取得ステップとを含み、前記表示ステップは、前記指示取得ステップで取得されたユーザの指示に従って前記少なくとも一つのアイテムの中から少なくとも一つのアイテムを選択する第1モードと、前記第1モードで選択された前記少なくとも一つのアイテムに対する表示変更を伴う処理を行う第2モードとを有し、前記指示取得ステップで取得されたユーザの指示が、前記表示画面に設定された少なくとも二つの領域の一つから他方への移動である場合に、前記第1モードから前記第2モード、又は、前記第2モードから第1モードに変更し、前記表示ステップは、少なくとも一つのアイテムをグループの要素とする、複数のグループを前記表示画面に表示し、前記第1モードでは、前記複数のグループのうちの第1グループに属するアイテムが選択可能であり、前記複数のグループのうちの第2グループに属するアイテムが選択不可能である
なお、以上の全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
本発明により、偶然のポインティング操作によってユーザが意図しない機器の機能が実行されてしまうことを回避した情報入力装置等が提供される。
これにより、ユーザの意図が確実に反映される操作性に優れたGUIが実現され、広く情報端末装置が普及してきた今日における本発明の実用的価値は極めて高い。
図1は、本発明の実施の形態における情報入力装置の外観図である。 図2は、同情報入力装置のハードウェア構成を示す図である。 図3は、同情報入力装置の機能ブロック図である。 図4は、同情報入力装置の動作を示すフローチャートである。 図5Aは、同情報入力装置の特徴的な動作(スクロール)の一例を説明する図である。 図5Bは、同情報入力装置の特徴的な動作(アイコンの選択動作)の一例を説明する図である。 図6は、本発明の実施例1における情報入力装置の機能ブロック図である。 図7は、同情報入力装置の動作を示すフローチャートである。 図8は、繰り返し運動の検出手順を示すユーザ・インタラクションの例を示す図である。 図9は、典型的な繰り返し運動のユーザ・インタラクションの例を示す図である。 図10は、往復運動による繰り返し運動のユーザ・インタラクションの例を示す図である。 図11は、同情報入力装置の動作のうち、繰り返し運動の終了に関する動作を示すフローチャートである。 図12Aは、図11に示される繰り返し運動の終了操作に関するユーザ・インタラクション(終了操作の直前)の例を示す図である。 図12Bは、図11に示される繰り返し運動の終了操作に関するユーザ・インタラクション(終了操作)の例を示す図である。 図13は、同情報入力装置の動作のうち、繰り返し運動の終了用のマーカである第2特定領域の位置の決定に関する動作を示すフローチャートである。 図14は、図13に示される第2特定領域の位置が異なる2つのケースにおけるユーザ・インタラクション例を示す図である。 図15は、繰り返し検出部による往復運動の検出ロジックを説明する図である。 図16は、繰り返し検出部による回転運動の検出ロジックを説明する図である。 図17は、本発明の実施例2における情報入力装置の機能ブロック図である。 図18は、同情報入力装置の基本動作を示すフローチャートである。 図19は、同情報入力装置の動作のうち、ポインタが予め定められた2つの方向を通過した場合における動作を示すフローチャートである。 図20は、同情報入力装置が備える方向決定部の基本動作を示すフローチャートである。 図21は、同情報入力装置が備える方向決定部動作のうち、主操作方向を考慮した動作を示すフローチャートである。 図22は、図19に示される動作に対応するユーザ・インタラクションの例を示す図である。 図23Aは、図20に示される動作(第1特定領域の位置・粗密に依存する動作)に対応するユーザ・インタラクションの例を示す図である。 図23Bは、図20に示される動作(第1特定領域の位置・粗密に依存する動作)に対応するユーザ・インタラクションの別の例を示す図である。 図24は、図20に示される動作(ユーザの手・指の姿勢に依存する動作)に対応するユーザ・インタラクションの例を示す図である。 図25は、図20に示される動作(ユーザの手・指の姿勢に依存する動作)の詳細手順を示す図である。 図26は、図21に示される動作(主操作方向の決定)に対応するユーザ・インタラクションの例を示す図である。 図27は、図21に示される動作(主操作方向に依存した動作)に対応するユーザ・インタラクションの例を示す図である。 図28は、本発明の実施例3における情報表示方法を示すフローチャートである。 図29は、図28に示された表示ステップにおける状態遷移を示す図である。 図30は、2つのモード間でのモード遷移の画面表示例を示す図である。 図31は、図28に示された表示ステップにおける状態遷移の別の一例を示す図である。 図32は、3つのモード間でのモード遷移の画面表示例を示す図である。
(本発明の概要)
上記目的を達成するために、本発明に係る情報入力装置の一形態は、表示画面に表示された画像に対するユーザの指示を取得する情報入力装置であって、3次元空間における指示物の位置及び向きの少なくとも一方を検出する指示物検出部と、前記指示物検出部で検出された前記指示物の3次元空間における位置及び向きの少なくとも一方に対応させて、前記表示画面に表示するポインタの前記表示画面における位置を決定するポインタ位置決定部と、前記ポインタ位置決定部で決定された位置を示す位置情報の時系列を取得して保持する記憶部と、前記記憶部に記憶された位置情報の時系列を用いて、前記表示画面における予め定められた領域である第1特定領域を前記ポインタが通過したことを検出する第1通過検出部と、前記第1通過検出部によって前記通過が検出された場合に、前記ポインタが前記第1特定領域を通過したときの方向を判別する方向判別部と、前記方向判別部によって判別された方向に応じて、前記表示画面に表示されている画像を変更する第1画像変更部とを備える。
これにより、ポインタが第1特定領域を通過した場合に、その通過した方向に応じて、アクションが決定されるので、従来技術のように偶然のポインティング操作によってユーザが意図しない機器の機能が実行されてしまうという不具合が回避される。つまり、ユーザは、ポインティング操作と選択操作とを連続的かつ確実な操作として行うことができる。
ここで、具体的には、前記第1特定領域は、前記表示画面に表示された少なくとも一本の線分であり、前記第1通過検出部は、前記ポインタが前記少なくとも一本の線分のうちの一本を交差するように通過したことを検出し、前記第1画像変更部は、前記方向判別部によって判別された方向に沿って、前記画像をスクロールさせてもよい。より詳しくは、前記第1特定領域は、前記表示画面に表示された、平行に配置された2本の線分であり、前記第1通過検出部は、前記ポインタが前記2本の線分のいずれかを交差するように通過したことを検出し、前記方向判別部は、前記方向として、前記2本の線分で挟まれた第1領域から、前記2本の線分のいずれを交差するように前記ポインタが移動したかを判別してもよい。これにより、通常のポインティング操作とスクロール操作とが明確に区別される。
また、前記第1特定領域は、前記表示画面に表示されたアイコンであり、前記第1画像変更部は、前記方向判別部によって判別された方向が予め定められた方向である場合に、前記アイコンを2以上の部分アイコンに分割するように、前記画像を変更してもよい。これにより、通常のポインティング操作とアイコンの選択操作とが明確に区別される。
また、さらに、前記記憶部に記憶された位置情報の時系列を用いて、前記ポインタが前記表示画面上における繰り返し運動をしていることを検出する繰り返し検出部と、前記繰り返し検出部による検出を無効化しておき、前記第1通過検出部によって前記通過が検出された後に、前記繰り返し検出部による検出を有効化する繰り返し検出有効化部と、前記繰り返し検出部によって有効な検出が行われた場合に、前記画像の変更を繰り返す第2画像変更部とを備えてもよい。これにより、ポインタが第1特定領域を通過した後は、再びポインタが第1特定領域を通過することを繰り返す必要がなく、所定の繰り返し操作が行われるだけで、ポインタが第1特定領域を通過することを繰り返すのと同様の結果が得られる。よって、ユーザは、簡易な操作で、かつ、確実に、繰り返し操作を行うことができ、ユーザの繰り返し操作の負担が軽減される。
なお、繰り返し運動の具体例としては、前記繰り返し運動は、前記ポインタが前記表示画面上で円を描くように移動すること、及び、前記ポインタが前記表示画面上で往復移動をすることの少なくとも一つを含んでもよい。
また、前記繰り返し検出部はさらに、前記繰り返し運動の終了を検出し、前記繰り返し検出有効化部はさらに、前記繰り返し検出部が前記繰り返し運動の終了を検出した場合に、前記繰り返し検出部による検出を無効化したり、さらに、前記記憶部に記憶された位置情報の時系列を用いて、前記表示画面における予め定められた第2特定領域を前記ポインタが通過したことを検出する第2通過検出部を備え、前記繰り返し検出有効化部はさらに、前記第2通過検出部が前記通過を検出した場合に、前記繰り返し検出部による検出を無効化したりしてもよい。このとき、前記第2通過検出部はさらに、前記ポインタが前記第2特定領域を通過したときの方向を判別し、前記繰り返し検出有効化部は、前記第2通過検出部が前記通過を検出し、かつ、前記第2通過検出部によって判別された方向が予め定められた方向である場合に、前記繰り返し検出部による検出を無効化してもよい。これにより、ユーザは、確実に、繰り返し運動を終了させることができる。
また、さらに、前記第2画像変更部による変更の程度に依存して、前記第2特定領域を変更する第3画像変更部を備えてもよい。具体的には、前記画像に対する前記繰り返し運動に対応する変更は、前記表示画面における前記画像のスクロール、及び、前記ポインタの移動であり、前記第3画像変更部は、前記画像のスクロール、及び、前記ポインタの移動における速度が大きいほど、前記第1特定領域から遠い位置に前記第2特定領域を配置することによって、前記第2特定領域の位置を示す画像を表示してもよい。これにより、繰り返し運動の検出を無効化する操作を行うための第2特定領域が表示されたり、その第2特定領域の表示位置が適応的に変更されたりするので、誤った操作をすることなく、確実に、繰り返し操作を終了させることができる。
また、さらに、前記第1特定領域の属性に依存して、前記ポインタが前記第1特定領域を通過すべき方向を決定する方向決定部を備え、前記第1画像変更部は、前記方向判別部で判別された方向が、前記方向決定部で決定された方向である場合に、前記画像を変更してもよい。これにより、第1特定領域を通過するポインタの通過方向が絞られるので、誤操作を抑制したり、操作性を向上したりすることが可能になる。
また、通過方向の適応的な例として、前記方向決定部は、前記第1特定領域が前記表示画面の枠を構成する辺に接して配置されている場合には、前記方向として、前記辺を横切る方向に決定したり、前記方向決定部は、前記第1特定領域が前記表示画面の枠を構成する辺に接して配置されている場合には、前記方向として、前記辺と平行な方向に決定したり、前記方向決定部は、複数の前記第1特定領域の密集度に依存して、前記方向を決定したりしてもよい。これにより、ユーザは、第1特定領域が複数配置されている場合に、それら複数の第1特定領域の中から確実に一つの第1特定領域だけを選択したり、それら複数の第1特定領域をまとめて選択したりすることが容易になる。
また、さらに、前記第1特定領域の属性に基づいて、前記画像に対するユーザの主操作方向を決定する主操作方向決定部を備え、前記方向決定部は、前記主操作方向決定部で決定された主操作方向を含まない範囲の方向から前記方向を決定してもよい。このとき、さらに、前記指示物検出部に対する前記表示画面の位置及び姿勢を検出する表示画面状態検出部を備え、前記主操作方向決定部は、前記表示画面状態検出部で検出された前記位置及び前記姿勢に依存して前記主操作方向を決定してもよい。これにより、主操作方向と選択操作の方向とが明確に区別され、例えば、複数の対象物を主操作方向にスクロールさせながら、それら複数の対象物から一つを選択するという操作が容易になる。
また、前記指示物検出部は、前記ユーザの手又は指の姿勢を検出し、前記方向決定部は、前記指示物検出部で検出された前記姿勢に依存して、前記方向を決定してもよい。これにより、ユーザは、手又は指を用いて、操作し易い方向で選択操作を行うことができる。
また、コンピュータによって実行される情報表示方法であって、少なくとも一つのアイテムを表示画面に表示する表示ステップと、3次元空間における指示物の位置及び向きの少なくとも一方を検出することによって、ユーザからの指示を取得する指示取得ステップとを含み、前記表示ステップは、前記指示取得ステップで取得されたユーザの指示に従って前記少なくとも一つのアイテムの中から少なくとも一つのアイテムを選択する第1モードと、前記第1モードで選択された前記少なくとも一つのアイテムに対する表示変更を伴う処理を行う第2モードとを有し、前記指示取得ステップで取得されたユーザの指示が、前記表示画面に設定された少なくとも二つの領域の一つから他方への移動である場合に、前記第1モードから前記第2モード、又は、前記第2モードから第1モードに変更してもよい。これにより、ユーザは、3次元空間における連続的な操作によって、対象物(アイテム)を選択する画面表示と、選択した対象物に対する処理を決定する画面表示との切り替えを行うことができる。また、2つの表示モードを遷移するだけで全ての操作をできるので、深く階層化されたメニュー等と比べ、操作が簡単であり、短時間で操作方法を習得できる。
ここで、前記少なくとも二つの領域は、前記表示画面に表示された線分によって区切られる二つの領域が含まれ、前記移動には、前記線分を超える移動が含まれてもよい。
また、第1モードの詳細として、前記表示ステップは、少なくとも一つのアイテムをグループとする、複数のグループを前記表示画面に表示し、前記第1モードでは、前記複数のグループのうちの第1グループが選択可能であり、前記複数のグループのうちの第2グループが選択不可能であってもよい。このとき、前記第1モードでは、前記指示取得ステップで取得されたユーザの指示が前記移動である場合に、前記第1グループに属していたアイテムが移動して前記第2グループに属するアイテムとなり、選択不可能になってもよい。
また、第2モードの詳細として、前記第2モードでは、前記第1モードで選択されたアイテムに対する前記処理に対応づけられたアイコンが前記表示画面に表示され、前記アイコンには、少なくとも二つの領域が対応づけられ、前記指示取得ステップで取得されたユーザの指示が、前記アイコンに対応づけられた少なくとも二つの領域の一つから他方への移動である場合に、前記アイコンに対応づけられた処理が実行されてもよい。このとき、前記アイコンは、当該アイコンに対応づけられたアイテムの属性に依存して、当該アイコンに対応づけられた処理が実行可能である状態、及び、実行不可能な状態をとってもよい。
また、前記表示ステップはさらに、メニューを表示する第3モードを有し、前記表示ステップは、前記指示取得ステップで取得されたユーザの指示が示すポインタの移動が第1パターンに属する場合に、元のモードである前記第1モード又は前記第2モードから前記第3モードに遷移し、前記指示取得ステップで取得されたユーザの指示が示すポインタの移動が第2パターンに属する場合に、前記第3モードから前記元のモードに遷移してもよい。このとき、前記指示取得ステップはさらに、3次元空間における前記指示物の個数を検出し、前記第1パターンと前記第2パターンとは、異なる個数の前記指示物を用いたユーザの指示であってもよい。これにより、第1モード及び第2モードの両方に共通するメニューを表示する第3モードが設けられるので、第1モード及び第2モードにおけるメニューが簡素化され、操作性が向上される。また、3つのモードについては、3つのモードのいずれからいずれにも遷移できるので、ユーザは、画面表示を切り替える際の煩わしいルールに拘束されることなく、所望の処理を完遂することができる。
なお、以上の全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
以下、本発明の一態様に係る情報入力装置及び情報表示方法について、図面を参照しながら具体的に説明する。
なお、以下で説明する実施の形態及び実施例は、いずれも本発明の一具体例を示すものである。以下の実施の形態及び実施例で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序、画面表示例などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態及び実施例における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
(実施の形態)
まず、後述する本発明の具体的な実施例1〜3に共通する情報入力装置10の構成及び基本機能について、本実施の形態で説明する。その後に、本実施の形態の具体例として、実施例1〜3を説明する。
本実施の形態は、カメラによって検出される3次元空間における指示物の位置及び向きの少なくとも一方を入力情報とするGUIを提供する情報入力装置であるが、このような3次元空間における位置等を入力情報とする情報入力装置では、マウス及びタッチパネルを用いた入力と異なり、「選択(あるいは、決定)」操作を行う直感的で直接的な操作が存在しない。特に、ポインティング(つまり、ポインタの移動)操作を行う場合には、ポインティング操作と選択操作とを連続的な操作として実装するには、何らかの工夫が必要とされる。
ここで、ユーザが特定のジェスチャをした場合に選択操作が行われたと認識することで、ポインティング操作と選択操作とを切り分ける手法が考えられる。たとえば、手のひらを一定時間、対象物に対して静止させるという特定のジェスチャをした場合に選択操作が行われたと認識することで、ポインティング操作と選択操作とを切り分ける手法が考えられる。しかしながら、このような手法では、指示物を移動させるポインティング操作中に対象物に対して指示物を静止させる必要があり、即時性に乏しく、快適な操作とはいえない。
また、手をぐるぐる回転させる、あるいは、手を前方に押し込む等の特定のジェスチャをした場合に選択操作が行われたと認識することも考えられる。しかしながら、このような手法では、ジェスチャの認識率、あるいは、奥行き方向の表示解像度に依存して操作が認識されるために、確実な操作が実現されない。
さらに、「決定!」と話す等の他のモーダルを用いて選択操作を認識する方法も考えられる。しかしながら、音声認識を用いる手法では、マイク等の装備のためにコストがかかり、かつ、音声認識率に依存するために確実な操作が実現されない。
そこで、本実施の形態では、ポインティング操作と選択操作とを連続的かつ確実な操作として実現した情報入力装置を説明する。
図1は、本発明の実施の形態における情報入力装置10の外観図である。ここには、ステレオカメラ12及び表示画面16が図示されている。ユーザは、指示物11(ここでは、ユーザの指)を、ステレオカメラ12の撮像範囲内で移動させることで、その指示物11の3次元空間における位置に対応して表示される表示画面16上のポインタを移動させることができる。これによって、ユーザと表示画面16に表示された画像との様々なインタラクションが実現される。
なお、指示物11は、ユーザの指に限られず、ユーザの手、腕、又は、ユーザが持っているペン等の物品であってもよい。
図2は、本実施の形態における情報入力装置10のハードウェア構成を示す図である。
この情報入力装置10は、表示画面16に表示された画像に対するユーザの指示を取得する装置であって、ステレオカメラ12、通信部14、表示画面16、入力部18及び制御部20を備える。
ステレオカメラ12は、少なくとも2台のカメラを有する撮像装置であり、3次元空間における指示物11の位置及び向きの少なくとも一方(本実施の形態では、位置及び向きの両方)を検出するためのセンサである。本実施の形態では、ステレオカメラ12は、一定のフレームレートで、指示物11を撮影し、得られた2枚の画像を通信部14に無線送信する。なお、本実施の形態では、このステレオカメラ12は、表示画面16等とは独立した装置であったが、表示画面16を備える装置内に内蔵されてもよい。たとえば、TVの表示画面を囲む枠体に設けられてもよい。
通信部14は、ステレオカメラ12から送られてくる画像を取得し、制御部20に送る無線通信インターフェース等である。
表示画面16は、ユーザに提示するための画像を表示する液晶等のディスプレイである。
入力部18は、電源を投入するためのボタン、リモコン等の入力装置である。なお、本実施の形態では、あらゆる指示がステレオカメラ12を通じて制御部20に与えられるので、この入力部18は、予備的な構成要素である。
制御部20は、ユーザとのインタラクションを実現する情報処理を実行するコンピュータであり、CPU22、ROM24、RAM26及び不揮発性メモリ28を有する。CPU22は、プログラムを実行するプロセッサである。ROM24は、プログラム及びデータを予め保持している読み取り専用メモリである。RAM26は、CPU22がプログラムを実行する際に使用されるワーキング用の一時記憶用メモリである。不揮発性メモリ28は、電源が投入されていないときでもデータを記憶できるハードディスク装置等の読み書き可能なメモリであり、プログラム及びデータを記憶している。
なお、情報入力装置10の必須のハードウェア構成としては、制御部20、より具体的には、プログラムを実行するコンピュータが備えられていればよい。本発明に係る情報入力装置は、典型的には、ソフトウェアによって実現されるからである。よって、他の周辺機器は、任意の構成要素であり、必要に応じて、本発明に係る情報入力装置として装備されればよい。また、ROM24及び不揮発性メモリ28は、いずれも不揮発性の記憶装置であり、いずれか一方だけが装備されればよい。
図3は、本実施の形態における情報入力装置10の機能ブロック図である。ここでは、図2に示されるハードウェア構成によって実現される情報入力装置10の機能的な構成が示されている。
この情報入力装置10は、機能的には、表示画面52に表示された画像に対するユーザの操作を取得する装置であって、指示物検出部42、ポインタ位置決定部44、記憶部46、第1通過検出部48、方向判別部50、表示制御部60a及び表示画面52を備える。なお、表示画面52は、図2の表示画面16に相当し、上述したように、必ずしも情報入力装置10に装備されている必要はない。
指示物検出部42は、3次元空間における指示物11の位置及び向きの少なくとも一方を検出する処理部であり、図2のステレオカメラ12、通信部14及び制御部20によって実現される。たとえば、指示物11として、人差し指だけを伸ばし、かつ、他の指を握った状態の片手であるとして予め定められている場合には、指示物検出部42は、同時に撮影された2枚の画像のそれぞれについて、人さし指を含む手の形状を認識し、各画像中の指示物11の位置及び向きから、画像マッチング等によって、ステレオカメラ12に内蔵された2台のカメラの3次元空間における位置及びカメラ間の距離を用いて、3次元空間における指示物11の位置及び向きを検出する。
ポインタ位置決定部44は、指示物検出部42で検出された3次元空間における指示物の位置及び向きの少なくとも一方に対応させて、表示画面52に表示するポインタの表示画面52における位置を決定する処理部であり、図2の制御部20によって実現される。たとえば、ポインタ位置決定部44は、3次元空間における指示物11の位置及び向きを利用する場合には、指示物11が、上記3次元空間内に予め設定された仮想の2次元操作面上のいずれの位置を指したかを特定し、その指した位置に対応する表示画面52における位置に特定形状(例えば、十字形状)、及び/又は、特定色(例えば、赤色)のポインタを表示する。あるいは、ポインタ位置決定部44は、3次元空間における指示物11の位置だけを利用する場合には、その3次元空間における位置が、予め設定された仮想の2次元操作面に投影された場合の2次元操作面における位置を特定し、特定した位置に対応する表示画面52における位置にポインタを表示する。あるいは、ポインタ位置決定部44は、3次元空間における指示物11の向きだけを利用する場合には、予め、指示物11の向きと表示画面52との対応関係を記憶しておき、検出された指示物11の向きに対応する表示画面52における位置にポインタを表示する。
記憶部46は、ポインタ位置決定部44で決定された位置を示す位置情報の時系列を取得して保持するメモリ等であり、図2のRAM26又は不揮発性メモリ28によって実現される。
第1通過検出部48は、記憶部46に記憶された位置情報の時系列を用いて、表示画面52における予め定められた領域である第1特定領域をポインタが通過したことを検出する処理部であり、図2の制御部20によって実現される。この第1特定領域は、単なるポインタの移動とは区別されるユーザの特別なジェスチャ操作の認識に用いられるマーカであり、表示画面52に表示されていてもよいし、表示画面52に表示されていなくてもよい(ユーザがその位置を予め知っていればよい)。
方向判別部50は、第1通過検出部48によって通過が検出された場合に、ポインタが第1特定領域を通過したときの方向を判別する処理部であり、図2の制御部20によって実現される。
表示制御部60aは、ユーザとのインタラクションの対象となる画像を表示画面52に表示する処理部であり、図2の制御部20によって実現される。この表示制御部60aは、第1画像変更部62を有する。第1画像変更部62は、方向判別部50によって判別された方向に応じて、表示画面52に表示されている画像を変更する処理部である。なお、表示制御部60aが有する機能のうち、第1画像変更部62を除く機能は、一般的な画像表示機能であり、表示画面52と同様に、情報入力装置10に装備されている必要はない。
ここで、第1特定領域は、例えば、表示画面52に表示された少なくとも一本の線分である。このときには、第1通過検出部48は、ポインタが少なくとも一本の線分のうちの一本を交差するように通過したことを検出する。そして、第1画像変更部62は、例えば、方向判別部50によって判別された方向に沿って、画像をスクロールさせる。
より具体的には、第1特定領域は、例えば、表示画面52に表示された、平行に配置された2本の線分である。このときには、第1通過検出部48は、ポインタが2本の線分のいずれかを交差するように通過したことを検出する。そして、方向判別部50は、その通過方向として、2本の線分で挟まれた第1領域から、2本の線分のいずれを交差するようにポインタが移動したかを判別する。そして、第1画像変更部62は、例えば、第1領域からポインタが通過した線分の方向に沿って、画像をスクロールさせる。
また、第1特定領域は、他の例として、表示画面52に表示されたアイコンである。このときには、第1画像変更部62は、方向判別部50によって判別された方向が予め定められた方向である場合に、アイコンを2以上の部分アイコンに分割するように、画像を変更する。これによって、ポインタがアイコンを通過したことを明確にユーザに伝えることができる。
次に、以上のように構成された本実施の形態における情報入力装置10の動作について説明する。
図4は、本実施の形態における情報入力装置10の動作を示すフローチャートである。図5A及び図5Bは、情報入力装置10の特徴的な動作(それぞれ、スクロール、アイコンの選択動作)の一例を説明する図である。
まず、指示物検出部42は、3次元空間における指示物11の位置及び向きの少なくとも一方(本実施の形態では、位置及び向きの両方)を検出する(S10)。
指示物検出部42によって指示物11の位置及び向きが検出されると、ポインタ位置決定部44は、指示物検出部42で検出された位置及び向きに対応させて、表示画面52に表示するポインタの表示画面52における位置を決定する(S12)。この指示物検出部42は、指示物11の検出を一定周期で繰り返し行うことで、ポインタの位置を示す位置情報の時系列を生成して記憶部46に格納する(S14)。
第1通過検出部48は、記憶部46に記憶された位置情報の時系列を用いて、表示画面52における予め定められた領域である第1特定領域をポインタが通過したか否かを判断する(S16)。通過が検出されない場合には(S16でNo)、上記ステップS10〜S16が繰り返される。
第1通過検出部48によって通過が検出されると(S16でYes)、方向判別部50は、そのポインタが第1特定領域を通過したときの方向を判別する(S18)。
そして、第1画像変更部62は、方向判別部50によって判別された方向に応じて、表示画面52に表示されている画像を変更する(S20)。
図5Aは、情報入力装置10によって提供されるGUIの一例であるスクロールの様子を示している。ここには、3つの写真101〜103が水平方向に並べられて表示画面52に表示されている。中央の写真102を示す画像には、第1特定領域の一例として、2本の線分105及び106がお互いに平行になるように、表示画面52の縦方向に配置されて表示されている。
本図では、ユーザが、指示物11を3次元空間内で移動させることで、2本の線分105及び106で挟まれた領域から、左に位置する線分105を横切るように、ポインタ108を移動した様子が示されている。このような操作が行われると、第1通過検出部48が、ポインタ108が線分105を通過したことを検出し、その検出に従って、方向判別部50は、第1特定領域である線分105を、ポインタ108が通過した方向を左方向と判定する。そして、方向判別部50での判定に従って、第1画像変更部62は、表示画面52に表示している画像(写真の並び)を、左方向に、一定量(例えば、1枚の写真分)だけ、スクロールする。
なお、本図に示される指示物11は、表示画面52をタッチするように図示されているが、これは理解を容易にするためであり、実際は、図1に示されるステレオカメラ12の撮影空間(3次元空間)内において移動される。以下、GUIの例示を示す図についても同様である。
また、本明細書では、表示画面52における「右(右側)」、「左(左側)」、「上(上方)」、「下(下方)」等の方向は、表示画面52に向かったときの方向を意味する。
このように、図5Aに示されるように、本実施の形態における情報入力装置10によれば、ユーザは、表示画面52に表示された2本の線分105及び106とポインタ108とを見ながら、ポインタを中央の領域から左の領域に移動させる操作を行うことで、左方向へのスクロール表示を開始することができる。よって、従来技術のように偶然のポインティング操作によってユーザが意図しない機器の機能が実行されてしまうという不具合が回避され、ユーザの意図が確実に反映される操作性に優れたGUIが実現される。
図5Bは、情報入力装置10によって提供されるGUIの一例であるアイコンの選択動作の様子を示している。ここには、図5Aに示された写真の並びを順に再生させるためのボタンを示すアイコン109が表示画面52に表示されている。このアイコン109は、第1特定領域の一例である。
本図では、ユーザが、指示物11を3次元空間内で移動させることで、アイコン109を、その上方から下方に向かって(アイコン109の上辺を横切り、続いて、下辺を横切るように)、ポインタを移動させた様子が示されている。このような操作が行われると、第1通過検出部48が、ポインタがアイコン109を通過したことを検出し、その検出に従って、方向判別部50は第1特定領域であるアイコン109を、ポインタ108が通過した方向を、上方から下方に向かう方向(アイコン109の上辺を横切り、続いて、下辺を横切る方向)、と判定する。そして、方向判別部50での判定結果に従って、第1画像変更部62は、それまで表示していたアイコン109を、2つの分割されたアイコン109a及び109bに置き換えて表示画面52に表示する。これにより、ユーザは、アイコン109を選択する操作(マウス操作におけるクリック、あるいは、タッチパネルにおけるタッチにあたる操作)ができたことを知る。
このように、図5Bに示されるように、本実施の形態における情報入力装置10によれば、ユーザは、表示画面52に表示されたアイコン109とポインタとを見ながら、アイコン109の上方から下方にポインタを通過させる操作をすることで、アイコン109を選択することができる。よって、従来技術のように偶然のポインティング操作によってユーザが意図しない機器の機能が実行されてしまうという不具合が回避され、ユーザの意図が確実に反映される操作性に優れたGUIが実現される。
なお、アイコン109が選択された後の動作は、制御部20等により、これらの写真を表示しているアプリケーションソフトウェアに依存した動作、例えば、中央に表示されている写真に対応付けられた写真集のスライドショーが開始される。
以上のように、本実施の形態における情報入力装置10によれば、表示画面52に表示された第1特定領域をポインタが通過したときの通過方向に依存して画像の変更が行われるので、従来技術のように偶然のポインティング操作によってユーザが意図しない機器の機能が実行されてしまうという不具合が回避される。
また、本実施の形態における情報入力装置10では、カメラによって検出される3次元空間における指示物11の位置等を入力情報とするにも拘わらず、「ポインタを特定の位置に移動すること」と、「機能の実行操作(決定操作の判別)」とを区別して行うことができる。つまり、本実施の形態によれば、表示画面52に表示された第1特定領域をポインタが所定の方向に通過したときに決定操作が行われたと判定されるので、ユーザは、表示画面52を見ながら、簡単に、マウスのクリック、あるいは、タッチパネルのタッチに相当する選択または決定操作をすることができる。
なお、本実施の形態において、第1通過検出部48は、記憶部46に記憶された位置情報の時系列を用いて、表示画面52における予め定められた領域である第1特定領域を、予め定められた値以上の速度、または、加速度でポインタが通過したことを検出する処理部であってもよい。このような構成にすると、ポインタが、第1特定領域を予め定められた速度または加速度以上で通過したときのみ、第1画像変更部62、表示画面52に表示されている画像を変更する。つまり、表示画面52に表示されている画像を変更するためには、ユーザは、第1特定領域に対し、指示物11を素早く動かす必要があり、偶然のポインティング操作によるユーザの意図しない誤動作の発生確率をより低くすることが可能となる。
(実施例1)
次に、上述した実施の形態の第1の具体例として、実施例1を説明する。
上述した実施の形態では、一つの決定操作に対して、一つのアクションが対応づけられている。たとえば、ポインタが線分を通過する1回のジェスチャ操作をすると、画面表示を一定量だけ、スクロールさせることができる。しかしながら、このようなアクションを繰り返させる場合には、線分に対し、ポインタを、常に同一方向に通過させる操作を繰り返す必要がある。即ち、ユーザは常に線分を意識して操作を行わなければならず、操作の負担が大きい。たとえば、左へのスクロールを繰り返す場合には、ユーザは、ポインタが線分をその右側から左側に通過するような操作を繰り返す必要がある。つまり、ユーザは、常に、線分の右側にポインタを意識して戻す必要があるので、操作の負担が非常に大きい。
そこで、本実施例1では、繰り返し操作の負担を軽減することができる、改良された情報入力装置を説明する。
図6は、本発明の実施例1における情報入力装置40aの機能ブロック図である。なお、この情報入力装置40aは、上述した実施の形態と同様に、図2に示されるハードウェア構成によって実現される装置である。この情報入力装置40aは、ポインタの繰り返し運動を検出する点に特徴を有する装置であり、機能的には、指示物検出部42、ポインタ位置決定部44、記憶部46、第1通過検出部48、方向判別部50、表示制御部60b、表示画面52、繰り返し処理部70及び第2通過検出部76を備える。なお、本実施例1における情報入力装置40aは、上述した実施の形態における情報入力装置10が備える構成要素に加えて、第2画像変更部64、第3画像変更部65、繰り返し処理部70及び第2通過検出部76を備える。以下、上述した実施の形態と異なる点を中心に説明する。
繰り返し処理部70は、表示画面52におけるポインタの繰り返し運動を検出する処理部であり、繰り返し検出有効化部72及び繰り返し検出部74を有する。
繰り返し検出部74は、記憶部46に記憶された位置情報の時系列を用いて、ポインタが表示画面52上における繰り返し運動をしていることを検出する処理部であり、図2の制御部20によって実現される。
繰り返し検出有効化部72は、繰り返し検出部74による検出を無効化しておき、第1通過検出部48によって通過が検出された後に、繰り返し検出部74による検出を有効化する処理部であり、図2の制御部20によって実現される。
表示制御部60bは、上述した実施の形態における第1画像変更部62に加えて、第2画像変更部64及び第3画像変更部65を有する。第2画像変更部64は、繰り返し検出部74によって有効な検出が行われた場合に、繰り返し操作に対応する画像の変更、例えば、画面スクロール等の画像の変更を繰り返す。第3画像変更部65は、第2画像変更部64による変更の程度に依存して、第2特定領域を変更する。
第2通過検出部76は、記憶部46に記憶された位置情報の時系列を用いて、表示画面52における予め定められた第2特定領域をポインタが通過したことを検出する処理部であり、図2の制御部20によって実現される。繰り返し検出有効化部72は、第2通過検出部76が通過を検出した場合に、繰り返し検出部74による検出を無効化する。この第2特定領域は、繰り返し運動を終了させるのに用いられるマーカであり、表示画面52に表示されていてもよいし、表示画面52に表示されていなくてもよい(ユーザがその位置を予め知っていればよい)。また、この第2特定領域は、用途としては、第1特定領域と異なるが、表示画面52における領域(位置及び形状)としては、第1特定領域と同じであってもよい。
なお、第2通過検出部76はさらに、ポインタが第2特定領域を通過したときの方向を判別してもよい。この場合には、繰り返し検出有効化部72は、第2通過検出部76が上記通過を検出し、かつ、第2通過検出部76によって判別された方向が予め定められた方向である場合に、繰り返し検出部74による検出を無効化する。
ここで、繰り返し運動には、具体例として、ポインタが表示画面52上で円を描くように移動すること(つまり、回転運動)、及び、ポインタが表示画面52上で往復移動をすること(つまり、往復運動)の少なくとも一つが含まれる。
また、画像の変更例として、第2画像変更部64は、方向判別部50で判別された方向に沿って、画像の変更を繰り返す。具体的には、第2画像変更部64は、画像の変更として、表示画面52における画像の一定量のスクロール、及び、ポインタの一定量の移動を行う。
ここで、繰り返し検出部74はさらに、繰り返し運動における表示画面52上でのポインタの移動量の大きさ(例えば、回転運動における円の半径、又は、往復運動における振幅)を検出する。そして、第2画像変更部64はさらに、繰り返し検出部74で検出された移動量が大きいほど、画像の変更における度合い(例えば、スクロールの粒度(移動する単位)又はスクロールの速度)を大きくする。
また、繰り返し検出部74はさらに、繰り返し運動の終了を検出する。たとえば、繰り返し検出部74は、ポインタの移動量が予め定められた値より小さくなった場合に、繰り返し運動が終了したと検出する。そして、繰り返し検出有効化部72は、繰り返し検出部74が繰り返し運動の終了を検出した場合に、繰り返し検出部74による検出を無効化する。
なお、第3画像変更部65は、第2画像変更部64による画像の変更の程度に依存して、第2特定領域を変更する。より詳しくは、第3画像変更部65は、第2画像変更部64による画像の変更の程度に依存して、第2特定領域を示す表示画面52における画像(例えば、線分)を変更する。具体的には、第3画像変更部65は、第2画像変更部64による画像の変更の程度に依存して、第2特定領域を示す表示画面における画像(例えば、線分)の位置を変更することによって、表示画面に表示される画像を変更する。ここで、画像に対する繰り返し運動に対応する画像の変更の一例は、表示画面52における画像のスクロール、及び、ポインタの移動である。そして、第3画像変更部65は、画像のスクロール、及び、ポインタの移動における速度が大きいほど、第1特定領域から遠い位置に第2特定領域を配置することによって、第2特定領域の位置を示す画像を表示する。これは、ユーザが繰り返し運動を早めようとすると、ユーザの操作がオーバーアクションになるので、意図せずに繰り返し運動を終了させるマーカである第2特定領域を超えてしまうような誤った操作が行われることを避けるためである。
次に、以上のように構成された本実施例における情報入力装置10の動作について説明する。
図7は、本実施例における情報入力装置40aの動作を示すフローチャートである。ここでは、情報入力装置40aによる繰り返し運動の検出手順が示されている。図8は、繰り返し運動の検出手順を示すユーザ・インタラクションの例を示す図である。
まず、繰り返し検出有効化部72は、繰り返し検出部74による検出を無効化しておき、第1通過検出部48によってポインタが第1特定領域を通過したか否かを判断する(S30)。この判断は、図8の(a)に示されるように、ポインタ108が第1特定領域(ここでは、線分105)を通過したと判断されるまで、繰り返される(S30でNo)。
ポインタが第1特定領域を通過したと判断されると、繰り返し検出有効化部72は、繰り返し検出部74による検出を有効化する。その結果、図8の(b)に示される回転運動、あるいは、図8の(c)に示される往復運動のように、ユーザが繰り返し、同一のアクションを行った場合には、そのことが、繰り返し検出部74によって検出される(S32)。
繰り返し検出部74によって有効な検出が行われると(S32でYes)、第2画像変更部64は、その繰り返し運動に対応するように、表示画面52に表示している画像の変更を繰り返す。たとえば、第2画像変更部64は、繰り返し運動がされている間、左方向への画像スクロールを繰り返す。
図9は、典型的な繰り返し運動のユーザ・インタラクションの例を示す図である。ユーザは、指示物11を3次元空間で移動させることで、ポインタ108が線分105をその右側から左側に通過するように、ポインタ108を移動させ、その後、線分105の左側の領域において、回転運動をする。すると、表示画面52に表示される画像は、左方向へのスクロールが繰り返される。
このように、本実施例では、一旦、ポインタが第1特定領域を通過した後は、再びポインタが第1特定領域を通過することを繰り返す必要がなく、所定の繰り返し操作が行われるだけで、ポインタが第1特定領域を通過することを繰り返すのと同様の結果が得られる。これにより、ユーザは、簡易な操作で、かつ、確実に、繰り返し操作を行うことができ、ユーザの繰り返し操作の負担が軽減される。
図10は、往復運動による繰り返し運動のユーザ・インタラクションの例を示す図である。図10の上段に示されたユーザ・インタラクションの例では、ユーザは、ポインタ108が線分105をその右側から左側(厳密には、2本の線分105及び106に挟まれた中央領域から線分105よりも左の領域)に通過する操作をした後に、往復運動をしている。この場合には、線分105の右側から左側への操作が繰り返されたとの同じ結果、つまり、左方向へのスクロール表示が行われる。
一方、図10の下段に示されたユーザ・インタラクションの例では、ユーザは、ポインタ108が線分106をその左側から右側(厳密には、2本の線分105及び106に挟まれた中央領域から線分106よりも右の領域)に通過する操作をした後に、往復運動をしている。この場合には、線分106の左側から右側への操作が繰り返されたとの同じ結果、つまり、右方向へのスクロール表示が行われる。
図11は、本実施例における情報入力装置40aの動作のうち、繰り返し運動の終了に関する動作を示すフローチャートである。図12A及び図12Bは、図11に示される繰り返し運動の終了操作に関するユーザ・インタラクションの例を示す図である。
繰り返し検出有効化部72は、繰り返し検出部74によって繰り返し運動の終了が検出されるか、又は、第2通過検出部76によってポインタが第2特定領域を通過したことが検出されるかを監視している(S40)。この監視は、いずれかが検出されるまで、繰り返される(S40でNo)。
なお、第2通過検出部76による通過の検出では、その通過の検出に加えて、ポインタが第2特定領域を通過したときの通過方向が予め定められた方向であることも検出されてもよい。たとえば、繰り返し運動が行われているときに、ポインタが第2特定領域をその左側から右側に通過した場合に、繰り返し運動が終了したと検出されてもよい。
その結果、繰り返し検出部74によって繰り返し運動の終了が検出されるか、又は、第2通過検出部76によってポインタが第2特定領域を通過したことが検出されると(S40でYes)、繰り返し検出有効化部72は、繰り返し検出部74による検出を無効化する(S42)。つまり、繰り返し検出有効化部72は、繰り返し検出部74による繰り返し運度の検出を停止させる。
具体的なユーザ・インタラクションの例として、いま、図12Aに示されるように、ユーザによるポインタの繰り返し運動によって表示画面52に並べて表示された画像の並びがスクロールしているとする。なお、ここでは、複数の楽曲のそれぞれに対応する画像110a、111a〜111c、112a〜112cが並べられ、複数の楽曲から構成されるアルバムごとに、対応する画像を囲む枠110、111及び112が表示されている。スクロールにおいては、繰り返し運動における表示画面52上でのポインタの移動量の大きさ(例えば、回転運動における円の半径、又は、往復運動における振幅)に依存して、スクロールの粒度が切り替えられる。たとえば、大きな繰り返し運動の場合には、表示画面52での表示は、アルバム単位でスクロールされ、一方、小さな繰り返し運動の場合には、一曲単位でスクロールされる。
なお、繰り返し運動の大きさは、繰り返し運動を継続している時間、または、繰り返し運動を行うための表示画面52上でのポインタの動きの速さ、などで定義しても良い。繰り返し運動を継続している時間が長い場合や、繰り返し運動を行うためのポインタの動きの速さが速い場合には、アルバム単位でスクロールされ、繰り返し運動を継続している時間が短い場合や、繰り返し運動を行うためのポインタの動きの速さが遅い場合には、一曲単位でスクロールされるようにしても良い。
図12Bは、図12Aに示されるスクロールが行われているときにユーザによって行われたインタラクションの例を示す図である。ここでは、スクロール中において、ユーザは、第2特定領域の一例である線分115を、その左側から右側にポインタ108を通過させる操作をしている。これにより、ポインタ108が第2特定領域を特定の方向に通過したことが検出され、繰り返し検出部74による検出が無効化され、スクロールが停止する。
図13は、本実施例における情報入力装置40aの動作のうち、繰り返し運動の終了用のマーカである第2特定領域の位置の決定に関する動作を示すフローチャートである。図14は、図13に示される第2特定領域の位置が異なる2つのケースにおけるユーザ・インタラクション例を示す図である。
第3画像変更部65は、画像のスクロールの速度(あるいは、ポインタの移動速度)を検出し(S50)、その速度に依存して、第2特定領域を配置する位置を移動させる(S52)。たとえば、第3画像変更部65は、画像のスクロールの速度(あるいは、ポインタの移動速度)が大きいほど、第1特定領域から遠い位置に第2特定領域を配置する。
このような動作の意義は、図14に示される通りである。つまり、このような動作の工夫がない場合には、図14の左図に示されるように、ユーザがスクロール速度を大きくしようとすると、ユーザの操作がオーバーアクションになり、例えば、往復運動における振幅が大きくなり、誤って、ポインタ108が第2特定領域(ここでは、線分115)を超えてしまう可能性がある。これに対して、本実施例では、図14の右図に示されるように、スクロールの速度が大きくなるに従って、第2特定領域(ここでは、線分115)の位置が第1特定領域(ここでは、線分105)から遠くなる。よって、スクロール速度を大きくしようとしてユーザがオーバーアクションをしても、誤ってポインタ108が第2特定領域(ここでは、線分115)を超えてしまう可能性が低くなる。
このように、繰り返し運動による画像の変更の程度に応じて、動的に第2特定領域の位置が変更され、誤操作が防止される。
以上のように、本実施例によれば、繰り返し操作を行う際、第1特定領域に対し、ポインタを通過させる操作を何度も繰り返すことなく、一回の通過操作の後に、簡単な回転操作や往復操作等の繰り返し操作を行うだけで、1回目に行った操作を連続して行ったことと同様の結果を得ることができ、繰り返し操作の負担を軽減することができる。また、繰り返し運動の検出を無効化する操作を行うための第2特定領域が表示されたり、その第2特定領域の表示位置が適応的に変更されたりするので、誤った操作をすることなく、確実に、繰り返し操作を終了させることもできる。
なお、繰り返し検出部74による往復運動の検出ロジックの一例は、図15に示される通りである。つまり、記憶部46に記憶された位置情報の時系列が示す位置の変化を示すカーブにおける全ての極値を特定し、特定した極値のうち、連続する2つの極値からその時点での周期を算出することで、周期の時間変化を特定する。その結果、周期が大きく変化していない(つまり、周期の時間変化が所定の範囲内である)場合には、往復運動が行われていると判定できる。たとえば、図15において、周期T1と周期T2とは大きく変化していないので、この時点では往復運動が継続していると検出でき、周期Tmでは大きく変化しているので、この時点で往復運動が終了したと検出できる。
また、繰り返し検出部74による回転運動の検出ロジックの一例は、図16に示される通りである。つまり、記憶部46に記憶された位置情報の時系列に基づいて、表示画面52のx軸方向の位置の変化を示すカーブと、表示画面52のy軸方向の位置の変化を示すカーブとを算出する。そして、両カーブに基づいて、周期Tと、両カーブの位相差とを算出する。その位相差が+T/4又は−T/4の近傍である場合に、回転運動が継続していると検出できる。
(実施例2)
次に、上述した実施の形態の第2の具体例として、実施例2を説明する。
上述した実施の形態では、ポインタが第1特定領域を通過したときに、その通過方向に依存してアクションが決定される。たとえば、線分をその右側から左側に横切るようにポインタが通過した場合には表示を左方向にスクロールさせ、線分をその左側から右側に横切るようにポインタが通過した場合には表示を右方向にスクロールさせた。しかしながら、第1特定領域をアイコンとし、ポインタがアイコンを通過したときに、アイコンが選択されるというアクションを定義した場合においては、線分と異なり、アイコンを横切る方向は様々な方向が存在するので、誤操作により、ユーザの意図しないアイコンの選択も起こり得る。
そこで、本実施例2では、アイコンの属性や表示画面の状態(表示画面の位置や姿勢)に基づいて、アイコンの選択が有効となるポインタの通過方向を絞ることで、誤操作を抑制したり、操作性を向上したりすることを可能にした、改良された情報入力装置を説明する。
なお、ここで、第1特定領域の属性、即ち、アイコンの属性とは、アイコンの粗密、表示画面52におけるアイコンの位置、複数のアイコンの配置方法などを示す。
図17は、本発明の実施例2における情報入力装置40bの機能ブロック図である。なお、この情報入力装置40bは、上述した実施の形態と同様に、図2に示されるハードウェア構成によって実現される装置である。この情報入力装置40bは、アイコンの選択操作におけるポインタの通過方向が様々な要因に応じて(あるいは、動的に)決定される点に特徴を有する装置であり、機能的には、指示物検出部42、ポインタ位置決定部44、記憶部46、第1通過検出部48、方向判別部50、表示制御部60c、表示画面52、表示画面状態検出部80及びポインティング可能領域決定部69を備える。表示制御部60cは、第1画像変更部62、方向決定部66及び主操作方向決定部68を有する。
なお、本実施例2における情報入力装置40bは、上述した実施の形態における情報入力装置10が備える構成要素に加えて、方向決定部66、主操作方向決定部68、表示画面状態検出部80及びポインティング可能領域決定部69を備える。以下、上述した実施の形態と異なる点を中心に説明する。
表示画面状態検出部80は、指示物検出部42に対する表示画面52の3次元空間における位置及び姿勢を検出する処理部であり、表示画面16に内蔵された3軸加速度センサ等によって実現される。
ポインティング可能領域決定部69は、表示画面52に表示するポインタの位置として指定可能な領域を決定する処理部であり、指示物検出部42における指示部の検出範囲に基づいて領域が決定される。
主操作方向決定部68は、第1特定領域であるアイコンの属性や表示画面52の状態に基づいて、画像に対するユーザの主操作方向を決定する処理部であり、図2の制御部20によって実現される。たとえば、この主操作方向決定部68は、表示画面状態検出部80で検出された表示画面52の位置及び姿勢に依存して主操作方向を決定する。
方向決定部66は、第1特定領域であるアイコンの属性に依存して、ポインタが第1特定領域を通過すべき方向を決定する処理部であり、図2の制御部20によって実現される。つまり、第1画像変更部62は、方向判別部50で判別された方向が、方向決定部66で決定された方向である場合に、有効な操作(ここでは、アイコンの選択操作)が行われたと判定し、表示画面52における画像を変更する。
より詳しくは、この方向決定部66は、有効な方向として、2つの方向、つまり、第1方向と、第1方向と異なる第2方向とを決定する。そして、第1画像変更部62は、方向判別部50で判別された方向が第1方向であり、その後に方向判別部50で判別された方向が第2方向である場合に、アイコンの選択操作が行われたと判定し、表示画面52における画像を変更する。さらに、第1画像変更部62は、方向判別部50で判別された方向が第1方向である場合に、アイコンの選択操作が行われたと判定し、表示画面52における画像を変更するが、その後に方向判別部50で判別された方向が第2方向である場合に、アイコンの選択操作がキャンセルされたと判定し、表示画面52における画像の変更をキャンセルする動作をしてもよい。なお、第1方向と第2方向とは、例えば、お互いに正反対の方向である。
また、各種状況に応じた動的な方向の決定例として、以下の態様がある。
つまり、一つの方向の決定例として、方向決定部66は、アイコンが表示画面52の枠を構成する辺に接して配置されている場合には、アイコンの選択操作の方向として、辺を横切る方向に決定する。つまり、第1特定領域を通過する方向のうち、第1特定領域が接する表示画面52の枠(辺)を横切る方向が有効な方向と決定されるので、常に表示画面52の外に向かう方向が有効な方向として決定される。
また、他の方向の決定例として、方向決定部66は、アイコンが表示画面52の枠を構成する辺に接して配置されている場合には、アイコンの選択操作の方向として、辺と平行な方向に決定する。つまり、第1特定領域を通過する方向のうち、第1特定領域が接する表示画面52の枠(辺)に平行な方向が有効な方向と決定される。これにより、表示画面52の外と内とを出入りするポインタの移動と区別して、アイコンの選択操作を検出することができる。
また、他の方向の決定例として、方向決定部66は、表示画面52における、ポインティング可能領域決定部69で決定されたポインティング可能領域に対し、アイコンがポインティング可能領域の枠を構成する辺に接して配置されている場合には、アイコンの選択方向として辺を横切る方向に決定する。つまり、アイコンを通過する方向のうち、アイコンが接するポインティング可能領域の枠(辺)を横切る方向が有効な方向と決定されるので、常にポインティング可能領域の外に向かう方向が有効な方向として決定される。
また、他の方向決定の例として、方向決定部66は、アイコンがポインティング可能領域の枠を構成する辺に接して配置されている場合には、アイコン選択操作の方向として、辺と平行な方向に決定する。つまり、アイコンを通過する方向のうち、アイコンが接するポインティング可能領域の枠(辺)に平行な方向が有効な方向として決定される。これにより、常にポインティング可能領域内でポインタの移動が可能な方向が有効な方向として決定される。なお、方向決定部66は、アイコンの属性、例えば、アイコンの粗密(つまり、表示画面における複数のアイコンの密集度)に依存して、アイコンの選択操作の方向を決定する機能も有する。
また、他の方向の決定例として、方向決定部66は、主操作方向決定部68で決定された主操作方向を含まない範囲の方向からアイコンの選択操作の方向を決定する。つまり、アイコンを通過する方向のうち、主操作方向決定部68で決定された主操作方向を含まない範囲の方向が有効な方向と決定される。これにより、スクロール指示等の主操作と区別して、アイコンが選択されたことが確実に検出される。たとえば、複数のアイコンを主操作方向にスクロールさせながら、それら複数のアイコンの中から一つを選択するという操作が容易になる。
また、他の方向の決定例として、方向決定部66は、指示物検出部42で検出された指示物11の姿勢に依存して、アイコンの選択操作の方向を決定する。たとえば、指示物11が指である場合には、指が指す方向と直交する方向が有効な方向と決定される。これにより、より操作し易い方向がアイコンを選択する場合のポインタの移動方向として決定され、操作性が向上される。
次に、以上のように構成された本実施例における情報入力装置40bの動作について、図18〜図21のフローチャート、及び、図22〜図26のユーザ・インタラクション例を示す図を用いて、説明する。
図18は、本実施例における情報入力装置40bの基本動作を示すフローチャートである。
方向決定部66は、第1特定領域であるアイコンの属性に依存して、ポインタが第1特定領域を通過すべき方向を決定する(S60)。
第1画像変更部62は、ユーザによるポインティング操作によってポインタがアイコンを通過し、その通過時におけるポインタの移動方向(つまり、方向判別部50で判別された方向)が、方向決定部66で決定された方向と同じであるか否かを判断する(S62)。この判断は、アイコンの通過時におけるポインタの移動方向が方向決定部66で決定された方向と同じであると判断されるまで、繰り返される(S62でNo)。
第1特定領域の通過時におけるポインタの移動方向が方向決定部66で決定された方向と同じであると判断した場合には(S62でYes)、第1画像変更部62は、有効な操作が行われたと判定し、表示画面52上の画像、即ち、アイコンの画像を変更する(S64)。
たとえば、ポインタが第1特定領域であるアイコンを通過し、その通過時におけるポインタの移動方向が方向決定部66で決定された方向と同じである場合に、そのアイコンが選択されたとみなし、図5Bに示されるように、それまで表示していたアイコン109を、2つの分割されたアイコン109a及び109bに置き換えて表示画面52に表示する。
これにより、ポインタがアイコンを所定の方向に通過したときにだけ、有効な操作と認識されるので、誤った操作によってポインタがアイコンを所定の方向以外の方向に通過した場合であっても、ユーザの意図しない誤操作として無視される。
図19は、本実施例における情報入力装置40bの動作のうち、ポインタが予め定められた2つの方向を通過した場合における動作を示すフローチャートである。
いま、方向決定部66により、ポインタが第1特定領域であるアイコンを通過すべき有効な方向として、2つの方向、つまり、第1方向及び第2方向が決定されているとする。たとえば、第1方向として、第1特定領域をその上方から下方に通過する方向と決定され、第2方向として、その正反対の方向、つまり、アイコンをその下方から上方に通過する方向と決定されているとする。
まず、第1画像変更部62は、ポインタがアイコンを通過したと第1通過検出部48で検出された場合に、方向判別部50で判別されたポインタの通過方向が第1方向であるか否かを判断する(S70)。この判断は、ポインタの通過方向が第1方向であると判断されるまで、繰り返される(S70でNo)。
ポインタの通過方向が第1方向であると判断した場合には(S70でYes)、第1画像変更部62は、続いて、ポインタがアイコンを通過したと第1通過検出部48で検出された場合に、方向判別部50で判別されたポインタの通過方向が第2方向であるか否かを判断する(S72)。この判断は、アイコンをポインタが再び通過する方向が第2方向であると判断されるまで、繰り返される(S70でNo)。なお、この第2方向の判断(S72)は、第1方向の通過(S70でYes)が検出されてから、予め定められた時間内だけで行われてもよい。つまり、第1方向の通過(S70でYes)が検出されてから、予め定められた時間内に第2方向の通過が検出されない場合には、当該フローがリセットされ、再び、第1方向の通過の検出(S70)が行われてもよい。
その結果、ポインタの通過方向が第2方向であると判断した場合には(S72でYes)、第1画像変更部62は、アイコンの選択操作が行われた判定し、表示画面52における画像を変更するか、あるいは、アイコンの選択操作がキャンセルされたと判定し、表示画面52における画像変更をしない(S74)。なお、画像の変更をするかしないかは、ユーザによる事前の設定によって定まる。
図22は、図19に示される動作に対応するユーザ・インタラクションの例を示す図である。ユーザは、アイコン118をその上方から下方に通過するようにポインタを移動させた後に、続いて、そのアイコン118をその下方から上方に通過するようにポインタを移動させる。これにより、事前の設定に応じて、アイコン118の選択を完了するか、あるいは、上方から下方へのポインタの移動によって暫定的に選択されたアイコン118の選択をキャンセルすることができる。
これにより、2つの異なる方向にポインタがアイコンを通過した場合にだけ、所定の操作が完了するので、1つの方向だけで操作が決定される場合に比べ、誤操作が防止される。
図20は、本実施例における情報入力装置40bが備える方向決定部66の基本動作を示すフローチャートである。
まず、方向決定部66によって、第1特定領域であるアイコンの属性、例えば、表示画面52におけるアイコンの位置、又は、複数のアイコンの粗密が検出される(S90)。あるいは、指示物検出部42によって、ユーザの手又は指等の指示物11の姿勢が検出される(S90)。なお、これら3種類のパラメータ(アイコンの位置、アイコンの粗密、指示物11の姿勢)のいずれを有効とするかは、ユーザによる事前の設定によって決定されている。そのときに、これら3種類のパラメータのうちの一つだけが有効になっていてもよいし、2つ以上のパラメータが有効になっていてもよい。
そして、方向決定部66は、検出されたアイコンの位置、アイコンの粗密、及び、指示物11の姿勢の少なくとも一つに依存して、そのアイコンをポインタが通過すべき方向(つまり、アイコンの選択操作の方向)を決定する(S92)。
たとえば、図23Aの(a)のユーザ・インタラクション例に示されるように、方向決定部66は、第1特定領域(アイコン122a〜122c)が表示画面52の枠を構成する辺に接して配置されている場合には、アイコン122a〜122cの選択操作の方向として、辺を横切る方向に決定する。これにより、常に表示画面52の外に向かう方向が有効な方向として決定されるので、複数のアイコンが表示画面52の枠(辺)に沿って並べられている場合に、誤ってそれら複数のアイコンの全てを横切るようにポインタが直線的に動いてしまった場合であっても、アイコンの選択操作として認識されないので、誤操作が防止される。
あるいは、図23Aの(b)のユーザ・インタラクション例に示されるように、方向決定部66は、第1特定領域(アイコン124a〜124c)が表示画面52の枠を構成する辺に接して配置されている場合には、アイコン124a〜124cの選択操作の方向として、辺と平行な方向に決定する。これにより、表示画面52の枠(辺)に沿う方向が有効な方向として決定されるので、複数のアイコンが表示画面52の枠の辺に沿って並べられている場合に、それら複数のアイコンの全てを横切るようにポインタを移動させることで、それら複数のアイコンの一括選択が容易になる。また、表示画面52の外と内とを出入りするポインタの移動と区別して、アイコンの選択操作を検出することができるため、誤操作が防止される。
あるいは、図23Aの(c)のユーザ・インタラクション例に示されるように、方向決定部66は、第1特定領域(アイコン120a〜120d)の粗密に依存して、アイコンの選択操作の方向を決定する。たとえば、アイコン120aのように、選択可能なアイコンが密集していない場合には、3つの方向を選択操作の方向として決定する。一方、アイコン120b〜120dのように、選択可能なアイコンが密集している場合には、それらのアイコンについて同一の一つの方向を選択操作の方向として決定する。これにより、アイコンが密集している場合には、アイコンの選択操作が限定されるので、誤って複数のアイコンを選択してしまう誤操作が回避される。
なお、アイコンが密集しているか否かは、例えば、予め定められた密集度の閾値(例えば、単位面積当たりのアイコンの個数)より大きいか小さいかで判断される。
あるいは、図23Bの(a)〜(c)のユーザ・インタラクション例に示されるように、方向決定部66は、表示画面52における、ポインティング可能領域決定部69で決定されたポインティング可能領域(図23Bの(a)参照)に対し、アイコンの選択操作の方向を決定する。図23Bの(c)に示されるように、第1特定領域(アイコン128a〜128b)がポインティング可能領域の枠を構成する辺に接して配置されている場合には、アイコンの選択操作の方向として、辺を横切る方向に決定する。これにより、常にポインティング可能領域の外に向かう方向が有効な方向として決定されるので、複数のアイコンがポインティング可能領域の枠(辺)に沿って並べられている場合に、誤ってそれら複数のアイコンの全てを横切るようにポインタが直線的に動いてしまった場合であっても、アイコンの選択操作として認識されないので、誤操作が防止される。また、図23Bの(b)に示されるように、第1特定領域(アイコン126a〜126b)がポインティング可能領域の枠を構成する辺に接して配置されている場合には、アイコンの選択操作の方向として、辺と平行な方向に決定することとしても良い。これにより、ポインティング可能領域内でポインタの移動が可能な方向が有効な方向として決定されるので、アイコン選択操作の操作性が向上する。
あるいは、図24の(a)〜(c)のユーザ・インタラクション例に示されるように、方向決定部66は、指示物検出部42で検出されたユーザの手又は指等の指示物11の姿勢に依存して、アイコンの選択操作の方向を決定する。たとえば、指示物11が指である場合には、指が指す方向と直交する方向が、アイコンの選択操作の方向と決定する。これにより、ユーザの手又は指等の向きを考慮して、ユーザが操作し易い方向がアイコンの選択操作の方向として決定されるので、操作性が向上されるとともに、誤操作が防止される。具体的には、図24の(a)に示されるように、指示物11であるユーザの指が表示画面52を指す方向に向いている場合には、指を鉛直方向に移動させる(あるいは、指又は手首を曲げる)ことで、アイコンを選択することができる。また、図24の(b)及び(c)に示されるように、指示物11であるユーザの指が表示画面52と並行する方向(例えば、地面を指す方向)に向いている場合には(図24の(b))、地平面と平行な方向(例えば、表示画面52の奥から手前への方向)に指を移動させる(あるいは、指又は手首を曲げる)ことで(図24の(c))、アイコンを選択することができる。
なお、ユーザの手又は指の姿勢に応じてアイコンの選択操作の方向を決定する場合には、図25の手順に示されるように、まず、指示物検出部42がユーザの手又は指の姿勢(向き)を認識し(図25の(a))、次に、方向決定部66が有する姿勢データベースを参照することで(図25の(b))、操作し易い方向をアイコンの選択操作の方向として決定する(図25の(c))。ここで、姿勢データベースとは、予め定められた指示物の姿勢と操作し易い方向との対応づけを示す情報である。
図21は、本実施例における情報入力装置40bが備える方向決定部66の動作のうち、主操作方向を考慮した動作を示すフローチャートである。
まず、表示画面状態検出部80は、指示物検出部42に対する表示画面52の位置及び姿勢を検出する(S80)。たとえば、表示画面52が鉛直方向に沿う方向に置かれているか(例として、表示画面52が机の上に立てて設置されているか)、あるいは、地平面と平行する方向に置かれているか(例として、表示画面52が机の上に寝かせて設置されているか)を検出する。
次に、主操作方向決定部68は、表示画面状態検出部80で検出された表示画面52の位置及び姿勢に依存して主操作方向を決定する(S82)。たとえば、表示画面52と平行な面における指示物11の動きを主操作方向と決定する。
そして、方向決定部66は、主操作方向決定部68で決定された主操作方向を含まない範囲の方向から、ポインタが第1特定領域であるアイコンを通過すべき方向、つまり、アイコンの選択操作の方向を決定する(S84)。たとえば、主操作方向と直交する方向をアイコンの選択操作の方向として決定する。
図26及び図27は、図21に示される動作に対応するユーザ・インタラクションの例を示す図である。
図26の(a)に示されるように、表示画面52が鉛直方向に沿う方向に置かれている(例えば、表示画面52が机の上に立てて設置されている)と表示画面状態検出部80によって検出された場合には、主操作方向決定部68は、表示画面52と平行な面(つまり、鉛直方向に沿った面)における指示物11の動きを主操作方向と決定する。
一方、図26の(b)に示されるように、表示画面52が地平面と平行する方向に置かれている(例えば、表示画面52が机の上に寝かせて設置されている)と表示画面状態検出部80によって検出された場合には、主操作方向決定部68は、表示画面52と平行な面(つまり、地平面に沿った面)における指示物11の動きを主操作方向と決定する。
そして、図27に示されるように、方向決定部66は、主操作方向決定部68で決定された主操作方向を含まない範囲の方向から、アイコンの選択操作の方向を決定する。たとえば、図27の(b)に示されるように、主操作方向が表示画面52の横方向である場合には、表示画面52の縦方向にポインタを動かすような指示物11の動きを、アイコンの選択操作の方向として決定し、一方、図27の(c)に示されるように、主操作方向が表示画面52の縦方向及び横方向である場合には、表示画面52の奥行き方向にポインタを動かすような指示物11の動きを、アイコンの選択操作の方向として決定する。
これにより、スクロール指示等の主操作と区別してアイコンの選択が確実に行われ、誤操作が防止される。
(実施例3)
次に、上述した実施の形態の第3の具体例として、実施例3を説明する。
上述した実施の形態では、ポインタを移動させるポインティング操作とアイコン等を選択する選択操作とを連続的かつ確実な操作として実現した情報入力装置が説明された。本実施例3では、その機能に加えて、3次元空間における連続的な操作によって、対象物(アイテム)を選択する画面表示と、選択した対象物に対する処理を決定する画面表示との切り替えができる情報表示方法を説明する。
本実施例3は、上述の実施の形態における情報入力装置10による表示機能(つまり、情報表示方法)に着目した実施例である。つまり、本実施例は、図2に示されるハードウェア構成及び図3に示される機能構成を備える情報入力装置10によって実現される情報表示方法の一つである。
図28は、本実施例における情報表示方法を示すフローチャートである。
本実施例では、情報入力装置10は、コンピュータによって実行される情報表示方法を実行する装置であり、基本的には、少なくとも一つのアイテムを表示画面52に表示する表示ステップ(S96)と、3次元空間における指示物の位置及び向きの少なくとも一方(本実施の形態では、位置及び向きの両方)を検出することによって、ユーザからの指示を取得する指示取得ステップ(S98)とを繰り返す。なお、ここでアイテムとは、例えば、アプリケーションを示すアイコンや、写真、動画等のコンテンツを示すサムネイル等を示す。
図29は、図28に示された表示ステップ(S96)における状態遷移を示す図である。
表示ステップ(S96)は、指示取得ステップで取得されたユーザの指示に従って少なくとも一つのアイテムの中から少なくとも一つのアイテムを選択する第1モード(S100)と、第1モードで選択された少なくとも一つのアイテムに対する表示変更を伴う処理を行う第2モード(S102)とを有する。つまり、表示ステップ(S96)では、情報入力装置10は、第1モード(S100)及び第2モード(S102)のいずれかの状態にある。
ここで、指示取得ステップ(S98)で取得されたユーザの指示が、表示画面52に設定された少なくとも二つの領域の一つから他方への移動である場合に、情報入力装置10は、第1モード(S100)から第2モード(S102)、又は、第2モード(S102)から第1モード(S100)に変更する。
なお、「少なくとも二つの領域」とは、表示画面52に表示された線分によって区切られる二つの領域が含まれてもよいし、表示画面52に表示されていない暗黙的な線分によって区切られる二つの領域が含まれてもよい。また、「少なくとも二つの領域」には、表示画面52の外の領域(仮想的に設定された領域)も含まれる。たとえば、「少なくとも二つの領域」には、表示画面52上の領域と、表示画面52外の領域とが含まれてもよい。また、「移動」には、そのような明示的又は暗黙的な線分を超える移動(例えば、上述の実施の形態における第1特定領域の通過)が含まれる。
なお、表示ステップ(S96)では、情報入力装置10は、少なくとも一つのアイテムをグループとする、複数のグループを表示画面52に表示する場合がある。この場合には、情報入力装置10は、第1モード(S100)では、複数のグループのうちの第1グループを選択可能に設定し、複数のグループのうちの第2グループを選択不可能に設定する。
このとき、第1モード(S100)では、指示取得ステップ(S98)で取得されたユーザの指示が移動である場合に、第1グループに属していたアイテムが移動して第2グループに属するアイテムとなり、選択不可能になる。
一方、第2モード(S102)では、第1モード(S100)で選択されたアイテムに対する処理に対応づけられたアイコンが表示画面52に表示され、アイコンには、少なくとも二つの領域が対応づけられ、指示取得ステップ(S98)で取得されたユーザの指示が、アイコンに対応づけられた少なくとも二つの領域の一つから他方への移動である場合に、アイコンに対応づけられた処理が実行される。
なお、アイコンは、当該アイコンに対応づけられたアイテムの属性に依存して、当該アイコンに対応づけられた処理が実行可能である状態、及び、実行不可能な状態をとり得る。
図30は、本実施例における2つのモード間でのモード遷移の画面表示例を示す図である。ここには、第1モードにおける画面表示例として、4つの画面表示130〜133が示され、第2モードにおける画面表示例として、3つの画面表示140〜142が示されている。
画面表示130は、処理対象となるアイテムをユーザの指示に従って選択する第1モードでの代表的な表示例であり、ここには、3つのアイテムが表示されている。なお、ここでは、横方向に並ぶアイテムのうち、中央に位置するアイテムが選択されるアイテムとなる。画面表示131は、画面表示130を詳細化した表示例であり、画面表示132及び133は、画面表示131がスクロールした後の表示例である。
画面表示140は、第1モードで選択されたアイテムに対する処理を行う第2モードでの代表的な表示例であり、ここには、第1モードで選択されたアイテム(横並びの中央に位置するアイテム)に対する4つの処理のそれぞれに対応する4つのアイコンが表示されている。画面表示141は、画面表示140における一つのアイコン(一つの処理に対応するアイコン)を示す図(選択操作を説明する図)であり、画面表示142は、一つのアイコンが選択され、そのアイコンに対応する処理が、第1モードで選択されたアイテムに対して実行されたときの表示例である。
いま、表示画面52に、第1モードの画面表示130が表示されているとする。この状態で、ユーザが、表示画面52に設定された少なくとも二つの領域の一つから他方へ(例えば、表示画面52上の領域から表示画面52外の領域へ)ポインタを移動させると、表示画面52での表示は、第1モードの画面表示130から第2モードの画面表示140に変わる。つまり、画面表示130において横並びにおける中央に位置するアイテムに対する4つの処理を示す4つのアイコンが表示される。
逆に、いま、表示画面52に第2モードの画面表示140が表示されている状態で、ユーザが、表示画面52に設定された少なくとも二つの領域の他方から一方へ(例えば、表示画面52外の領域から表示画面52内の領域へ)ポインタを移動させるか、あるいは、ポインタが表示画面52外に出たまま所定時間が経過すると、表示画面52での表示は、第2モードの画面表示140から第1モードの画面表示130に戻る。つまり、複数のアイテムから一つを選択できる画面表示に戻る。
ここで、第1モードにおいて、表示画面52に画面表示130が表示されている状態では、より詳しくは、表示画面52には、画面表示131に示されるように、表示画面52の中央に、2本の線分105及び106がお互いに平行になるように、表示画面52の縦方向に配置して表示される。この画面表示131に対するユーザ操作は、図5A等に示される上述した実施の形態の通りである。たとえば、ユーザが、2本の線分105及び106で挟まれた領域から、左に位置する線分105を横切るようにポインタ108を移動する操作をした場合には、画面表示132及び133に示されるように、1回の操作のたびに、左方向に1アイテム分だけ、スクロールして表示される。なお、この第1モードから第2モードに遷移した場合には、遷移の直前において、表示画面52における横並びの中央に位置するアイテムが選択されたことになる。
また、第2モードにおいて、表示画面52に画面表示140が表示されている状態において、ユーザは、画面表示141に示されるように、ポインタ108が、複数のアイコンから選択した一つのアイコンを通過するように、指示物11を操作することで、そのアイコンを選択することができる。これによって、第1モードで選択されたアイテムに対して、いま選択したアイコンに対応づけられた処理を実行することができる。たとえば、第1モードで選択されたアイテムが、動画のサムネイル画像であり、第2モードで選択されたアイコンが「再生」に対応するアイコンである場合には、表示画面52に、そのサムネイル画像に対応する動画が再生される。
このように、本実施例における情報表示方法によれば、ユーザは、表示画面52を見ながら、アイテムを選択できる第1モードと、選択したアイテムに対する処理を実行する第2モードとを切り替えながら、あらゆる処理を完遂することができる。よって、2つの表示モードを遷移するだけで全ての操作をできるので、深く階層化されたメニュー等と比べ、操作が簡単であり、短時間で操作方法を習得できる。
図31は、図28に示された表示ステップ(S96)における状態遷移の別の一例を示す図である。ここでは、表示ステップ(S96)には、第1モード(S100)及び第2モード(S102)に、さらに、メニューを表示する第3モード(S104)が設けられている。ここで、第3モード(S104)とは、例えば、詳細メニューとして予め定められたメニュー、第1モード(S100)及び第2モード(S102)に共通する指示のためのメニュー、表示画面52への電源をオフするためのメニュー、及び、ブラウザを含む予め定められたプログラムを立ち上げるためのメニューの少なくとも一つが含まれる。
3つのモード間の遷移については、情報入力装置10は、表示ステップ(S96)において、指示取得ステップ(S98)で取得されたユーザの指示が示すポインタの移動が第1パターンに属する場合に、元のモードである第1モード(S100)又は第2モード(S102)から第3モード(S104)に遷移し、一方、指示取得ステップ(S98)で取得されたユーザの指示が示すポインタの移動が第2パターンに属する場合に、第3モード(S104)から元のモードに遷移する。
ここで、第1パターンと第2パターンとは、例えば、異なる個数の指示物11を用いたユーザの指示である。例として、一本の指でのポインティング操作が第1パターンに属し、5本の指でのジェスチャ操作が第2パターンに属する。なお、3次元空間における指示物11の個数は、指示取得ステップ(S98)で検出される。
図32は、本実施例における3つのモード間でのモード遷移の画面表示例を示す図である。ここには、第1モードにおける画面表示例として画面表示130が示され、第2モードにおける画面表示例として画面表示140が示され、第3モードにおける画面表示例として画面表示150が示されている。
画面表示150は、メニューを表示する第3モードでの代表的な表示例であり、例えば、詳細メニュー、全体を通じて共通する操作(電源オフ、ブラウザを含むユーティリティ・ソフトウェアの起動)を指示できるグローバルメニューの表示等である。
ユーザは、第1パターンに属するポインタの移動、例えば、一本の指を左、または、右に素早く動かす操作をした場合に、モードである第1モード(S100)又は第2モード(S102)から第3モード(S104)に遷移し、一方、第2パターンに属するポインタの移動、例えば、5本の指を上、または、下に素早く動かす操作をした場合に、第3モード(S104)から元のモードである第1モード(S100)又は第2モード(S102)に遷移することができる。
このように、本実施例における情報表示方法によれば、ユーザは、表示画面52を見ながら、アイテムを選択できる第1モードと、選択したアイテムに対する処理を実行する第2モードと、第1モード及び第2モードに共通する操作ができる第3モードとを切り替えながら、あらゆる処理を完遂することができる。よって、3つの表示モードを遷移するだけで全ての操作をできるので、深く階層化されたメニュー等と比べ、操作が簡単であり、短時間で操作方法を習得できる。また、3つのモードについては、3つのモードのいずれからいずれにも遷移できるので、ユーザは、画面表示を切り替える際の煩わしいルールに拘束されることなく、所望の処理を完遂することができる。
なお、本実施例における情報表示方法は、図2及び図3に示される情報入力装置10によって実現されたが、本実施例に特化した装置である情報表示装置によって実現されてもよい。その情報表示装置は、図2における制御部20等で構成されるコンピュータと図2における表示画面16とを備える装置である。そして、そのコンピュータは、少なくとも一つのアイテムを表示画面に表示する表示ステップと、3次元空間における指示物の位置及び向きの少なくとも一方を検出することによってユーザからの指示を取得する指示取得ステップとを実行する。その表示ステップでは、コンピュータは、指示取得ステップで取得されたユーザの指示に従って少なくとも一つのアイテムの中から少なくとも一つのアイテムを選択する第1モードと、第1モードで選択された少なくとも一つのアイテムに対する表示変更を伴う処理を行う第2モードとを有し、指示取得ステップで取得されたユーザの指示が表示画面16に設定された少なくとも二つの領域の一つから他方への移動である場合に、第1モードから第2モード、又は、第2モードから第1モードに変更する。
これにより、本実施例における情報表示方法は、汎用のコンピュータによって実現され得る。
以上、本発明の一つまたは複数の態様に係る情報入力装置及び情報表示方法について、実施の形態及び実施例1〜3に基づいて説明したが、本発明は、これらの実施の形態及び実施例1〜3に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を上記実施の形態及び実施例1〜3に施したものや、異なる実施の形態及び実施例1〜3における構成要素を組み合わせて構築される形態も、本発明の一つまたは複数の態様の範囲内に含まれてもよい。
たとえば、上記実施の形態及び実施例1〜3において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
ここで、上述の実施の形態、実施例1及び実施例2における情報入力装置を実現するソフトウェアは、次のようなプログラムである。
すなわち、そのプログラムは、コンピュータに、以下の情報入力方法を構成する各ステップを実行させる。その情報入力方法は、表示画面に表示された画像に対するユーザの指示を取得する装置による情報入力方法であって、3次元空間における指示物の位置及び向きの少なくとも一方を検出する指示物検出ステップと、指示物検出ステップで検出された指示物の位置及び向きの少なくとも一方に対応させて表示画面に表示するポインタの表示画面における位置を決定するポインタ位置決定ステップと、ポインタ位置決定ステップで決定された位置を示す位置情報の時系列を取得して保持する記憶ステップと、記憶ステップで記憶された位置情報の時系列を用いて表示画面における予め定められた領域である第1特定領域をポインタが通過したことを検出する第1通過検出ステップと、第1通過検出ステップによって通過が検出された場合にポインタが第1特定領域を通過したときの方向を判別する方向判別ステップと、方向判別ステップによって判別された方向に応じて表示画面に表示されている画像を変更する第1画像変更ステップとを含む。
また、上記実施例3における情報表示方法を実現するソフトウェアは、次のようなプログラムである。
すなわち、そのプログラムは、コンピュータに、以下の情報表示方法を構成する各ステップを実行させる。その情報表示方法は、少なくとも一つのアイテムを表示画面に表示する表示ステップと、3次元空間における指示物の位置及び向きの少なくとも一方を検出することによってユーザからの指示を取得する指示取得ステップとを含み、表示ステップでは、指示取得ステップで取得されたユーザの指示に従って少なくとも一つのアイテムの中から少なくとも一つのアイテムを選択する第1モードと、第1モードで選択された少なくとも一つのアイテムに対する表示変更を伴う処理を行う第2モードとを有し、指示取得ステップで取得されたユーザの指示が表示画面に設定された少なくとも二つの領域の一つから他方への移動である場合に、第1モードから第2モード、又は、第2モードから第1モードに変更する。
また、上記の各装置を構成する構成要素の一部または全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。ROMには、コンピュータプログラムが記憶されている。マイクロプロセッサが、ROMからRAMにコンピュータプログラムをロードし、ロードしたコンピュータプログラムにしたがって演算等の動作することにより、システムLSIは、その機能を達成する。
また、上記の各装置を構成する構成要素の一部または全部は、各装置に脱着可能なICカードまたは単体のモジュールから構成されてもよい。ICカードまたはモジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。ICカードまたはモジュールには、上記の超多機能LSIが含まれてもよい。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、ICカードまたはモジュールは、その機能を達成する。このICカードまたはこのモジュールは、耐タンパ性を有してもよい。
また、本発明は、コンピュータプログラムまたはデジタル信号をコンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu−ray(登録商標) Disc)、半導体メモリなどに記録したもので実現してもよい。さらに、これらの記録媒体に記録されているデジタル信号で実現してもよい。
また、本発明に係るコンピュータプログラムまたはデジタル信号を、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送してもよい。
また、本発明は、プログラムまたはデジタル信号を記録媒体に記録して移送することにより、またはプログラムまたはデジタル信号を、ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。
また、上記実施の形態及び実施例において、各処理(各機能)は、単一の装置(システム)によって集中処理されることによって実現されてもよく、あるいは、複数の装置によって分散処理されることによって実現されてもよい。
本発明は、GUIを提供する情報入力装置及び情報表示方法として、例えば、TV、コンピュータディスプレイ、又は、タブレット端末等の表示画面を有する機器に備えられる情報入力装置又は情報表示方法を実現するソフトウェア及びハードウェアとして、利用できる。
10、40a、40b 情報入力装置
11 指示物
12 ステレオカメラ
14 通信部
16 表示画面
18 入力部
20 制御部
22 CPU
24 ROM
26 RAM
28 不揮発性メモリ
42 指示物検出部
44 ポインタ位置決定部
46 記憶部
48 第1通過検出部
50 方向判別部
52 表示画面
60a、60b、60c 表示制御部
62 第1画像変更部
64 第2画像変更部
65 第3画像変更部
66 方向決定部
68 主操作方向決定部
69 ポインティング可能領域決定部
70 繰り返し処理部
72 繰り返し検出有効化部
74 繰り返し検出部
76 第2通過検出部
80 表示画面状態検出部

Claims (28)

  1. 表示画面に表示された画像に対するユーザの指示を取得する情報入力装置であって、
    3次元空間における指示物の位置及び向きの少なくとも一方を検出する指示物検出部と、
    前記指示物検出部で検出された前記指示物の3次元空間における位置及び向きの少なくとも一方に対応させて、前記表示画面に表示するポインタの前記表示画面における位置を決定するポインタ位置決定部と、
    前記ポインタ位置決定部で決定された位置を示す位置情報の時系列を取得して保持する記憶部と、
    前記記憶部に記憶された時系列の位置情報を用いて、前記表示画面における予め定められた領域である第1特定領域を前記ポインタが通過したことを検出する第1通過検出部と、
    前記第1通過検出部によって前記通過が検出された場合に、前記ポインタが前記第1特定領域を通過したときの方向を判別する方向判別部と、
    前記方向判別部によって判別された方向に応じて、前記表示画面に表示されている画像を変更する第1画像変更部と
    前記記憶部に記憶された時系列の位置情報を用いて、前記ポインタが前記表示画面上における繰り返し運動をしていることを検出する繰り返し検出部と、
    前記第1通過検出部によって前記通過が検出された後に、前記繰り返し検出部による検出を有効化する繰り返し検出有効化部と、
    前記繰り返し検出部によって有効な検出が行われた場合に、前記画像の変更を繰り返す第2画像変更部と、
    を備える情報入力装置。
  2. 前記第1特定領域は、前記表示画面に表示された少なくとも一本の線分であり、
    前記第1通過検出部は、前記ポインタが前記少なくとも一本の線分のうちの一本を交差するように通過したことを検出し、
    前記第1画像変更部は、前記方向判別部によって判別された方向に沿って、前記画像をスクロールさせる
    請求項1記載の情報入力装置。
  3. 前記第1特定領域は、前記表示画面に表示された、平行に配置された2本の線分であり、
    前記第1通過検出部は、前記ポインタが前記2本の線分のいずれかを交差するように通過したことを検出し、
    前記方向判別部は、前記方向として、前記2本の線分で挟まれた第1領域から、前記2本の線分のいずれを交差するように前記ポインタが移動したかを判別する
    請求項1記載の情報入力装置。
  4. 前記第1特定領域は、前記表示画面に表示されたアイコンであり、
    前記第1画像変更部は、前記方向判別部によって判別された方向が予め定められた方向である場合に、前記アイコンを2以上の部分アイコンに分割するように、前記画像を変更する
    請求項1〜3のいずれか1項に記載の情報入力装置。
  5. 前記繰り返し運動は、前記ポインタが前記表示画面上で円を描くように移動すること、及び、前記ポインタが前記表示画面上で往復移動をすることの少なくとも一つを含む
    請求項記載の情報入力装置。
  6. 前記繰り返し検出部はさらに、前記繰り返し運動の終了を検出し、
    前記繰り返し検出有効化部はさらに、前記繰り返し検出部が前記繰り返し運動の終了を検出した場合に、前記繰り返し検出部による検出を無効化する
    請求項又は記載の情報入力装置。
  7. さらに、前記記憶部に記憶された時系列の位置情報を用いて、前記表示画面における予め定められた第2特定領域を前記ポインタが通過したことを検出する第2通過検出部を備え、
    前記繰り返し検出有効化部はさらに、前記第2通過検出部が前記通過を検出した場合に、前記繰り返し検出部による検出を無効化する
    請求項のいずれか1項に記載の情報入力装置。
  8. 前記第2通過検出部はさらに、前記ポインタが前記第2特定領域を通過したときの方向を判別し、
    前記繰り返し検出有効化部は、前記第2通過検出部が前記通過を検出し、かつ、前記第2通過検出部によって判別された方向が予め定められた方向である場合に、前記繰り返し検出部による検出を無効化する
    請求項記載の情報入力装置。
  9. さらに、前記第2画像変更部による変更の程度に依存して、前記第2特定領域を変更する第3画像変更部を備える
    請求項記載の情報入力装置。
  10. 前記画像に対する前記繰り返し運動に対応する変更は、前記表示画面における前記画像のスクロール、及び、前記ポインタの移動であり、
    前記第3画像変更部は、前記画像のスクロール、及び、前記ポインタの移動における速度が大きいほど、前記第1特定領域から遠い位置に前記第2特定領域を配置することによって、前記第2特定領域の位置を示す画像を表示する
    請求項記載の情報入力装置。
  11. さらに、前記第1特定領域の属性に依存して、前記ポインタが前記第1特定領域を通過すべき方向を決定する方向決定部を備え、
    前記第1画像変更部は、前記方向判別部で判別された方向が、前記方向決定部で決定された方向である場合に、前記画像を変更する
    請求項1〜10のいずれか1項に記載の情報入力装置。
  12. 前記方向決定部は、前記第1特定領域が前記表示画面の枠を構成する辺に接して配置されている場合には、前記方向として、前記辺を横切る方向に決定する
    請求項11記載の情報入力装置。
  13. 前記方向決定部は、前記第1特定領域が前記表示画面の枠を構成する辺に接して配置されている場合には、前記方向として、前記辺と平行な方向に決定する
    請求項11記載の情報入力装置。
  14. 前記方向決定部は、複数の前記第1特定領域の密集度に依存して、前記方向を決定する
    請求項1113のいずれか1項に記載の情報入力装置。
  15. さらに、前記第1特定領域の属性に基づいて、前記画像に対するユーザの主操作方向を決定する主操作方向決定部を備え、
    前記方向決定部は、前記主操作方向決定部で決定された主操作方向を含まない範囲の方向から前記方向を決定する
    請求項1114のいずれか1項に記載の情報入力装置。
  16. さらに、前記指示物検出部に対する前記表示画面の位置及び姿勢を検出する表示画面状態検出部を備え、
    前記主操作方向決定部は、前記表示画面状態検出部で検出された前記位置及び前記姿勢に依存して前記主操作方向を決定する
    請求項15記載の情報入力装置。
  17. 前記指示物検出部は、前記ユーザの手又は指の姿勢を検出し、
    前記方向決定部は、前記指示物検出部で検出された前記姿勢に依存して、前記方向を決定する
    請求項1116のいずれか1項に記載の情報入力装置。
  18. 表示画面に表示された画像に対するユーザの指示を取得する装置による情報入力方法であって、
    3次元空間における指示物の位置及び向きの少なくとも一方を検出する指示物検出ステップと、
    前記指示物検出ステップで検出された前記位置及び向きの少なくとも一方に対応させて、前記表示画面に表示するポインタの前記表示画面における位置を決定するポインタ位置決定ステップと、
    前記ポインタ位置決定ステップで決定された位置を示す位置情報の時系列を取得して保持する記憶ステップと、
    前記記憶ステップで記憶された時系列の位置情報を用いて、前記表示画面における予め定められた領域である第1特定領域を前記ポインタが通過したことを検出する第1通過検出ステップと、
    前記第1通過検出ステップによって前記通過が検出された場合に、前記ポインタが前記第1特定領域を通過したときの方向を判別する方向判別ステップと、
    前記方向判別ステップによって判別された方向に応じて、前記表示画面に表示されている画像を変更する第1画像変更ステップと
    前記記憶ステップで記憶された時系列の位置情報を用いて、前記ポインタが前記表示画面上における繰り返し運動をしていることを検出する繰り返し検出部ステップ、
    前記第1通過検出ステップによって前記通過が検出された後に、前記繰り返し検出ステップによる検出を有効化する繰り返し検出有効化ステップと、
    前記繰り返し検出ステップによって有効な検出が行われた場合に、前記画像の変更を繰り返す第2画像変更ステップと、
    を含む情報入力方法。
  19. 請求項18記載の情報入力方法に含まれるステップをコンピュータに実行させるプログラム。
  20. コンピュータによって実行される情報表示方法であって、
    少なくとも一つのアイテムを表示画面に表示する表示ステップと、
    3次元空間における指示物の位置及び向きの少なくとも一方を検出することによって、ユーザからの指示を取得する指示取得ステップとを含み、
    前記表示ステップは、
    前記指示取得ステップで取得されたユーザの指示に従って前記少なくとも一つのアイテムの中から少なくとも一つのアイテムを選択する第1モードと、前記第1モードで選択された前記少なくとも一つのアイテムに対する表示変更を伴う処理を行う第2モードとを有し、
    前記指示取得ステップで取得されたユーザの指示が、前記表示画面に設定された少なくとも二つの領域の一つから他方への移動である場合に、前記第1モードから前記第2モード、又は、前記第2モードから第1モードに変更し、
    前記表示ステップは、少なくとも一つのアイテムをグループの要素とする、複数のグループを前記表示画面に表示し、
    前記第1モードでは、前記複数のグループのうちの第1グループに属するアイテムが選択可能であり、前記複数のグループのうちの第2グループに属するアイテムが選択不可能である
    情報表示方法。
  21. 前記少なくとも二つの領域は、前記表示画面に表示された線分によって区切られる二つの領域が含まれ、
    前記移動には、前記線分を超える移動が含まれる
    請求項20記載の情報表示方法。
  22. 前記第1モードでは、前記指示取得ステップで取得されたユーザの指示が前記移動である場合に、前記第1グループに属していたアイテムが移動して前記第2グループに属するアイテムとなり、選択不可能になる
    請求項20記載の情報表示方法。
  23. 前記第2モードでは、
    前記第1モードで選択されたアイテムに対する前記処理に対応づけられたアイコンが前記表示画面に表示され、
    前記アイコンには、少なくとも二つの領域が対応づけられ、
    前記指示取得ステップで取得されたユーザの指示が、前記アイコンに対応づけられた少なくとも二つの領域の一つから他方への移動である場合に、前記アイコンに対応づけられた処理が実行される
    請求項2022のいずれか1項に記載の情報表示方法。
  24. 前記アイコンは、当該アイコンに対応づけられたアイテムの属性に依存して、当該アイコンに対応づけられた処理が実行可能である状態、及び、実行不可能な状態をとる
    請求項23記載の情報表示方法。
  25. 前記表示ステップはさらに、メニューを表示する第3モードを有し、
    前記表示ステップは、
    前記指示取得ステップで取得されたユーザの指示が示すポインタの移動が第1パターンに属する場合に、元のモードである前記第1モード又は前記第2モードから前記第3モードに遷移し、
    前記指示取得ステップで取得されたユーザの指示が示すポインタの移動が第2パターンに属する場合に、前記第3モードから前記元のモードに遷移する
    請求項2024のいずれか1項に記載の情報表示方法。
  26. 前記指示取得ステップはさらに、3次元空間における前記指示物の個数を検出し、
    前記第1パターンと前記第2パターンとは、異なる個数の前記指示物を用いたユーザの指示である
    請求項25記載の情報表示方法。
  27. 請求項20記載の情報表示方法に含まれるステップをコンピュータに実行させるプログラム。
  28. コンピュータと表示画面とを備える情報表示装置であって、
    前記コンピュータは、
    少なくとも一つのアイテムを表示画面に表示する表示ステップと、
    3次元空間における指示物の位置及び向きの少なくとも一方を検出することによって、ユーザからの指示を取得する指示取得ステップとを実行し、
    前記表示ステップは、
    前記指示取得ステップで取得されたユーザの指示に従って前記少なくとも一つのアイテムの中から少なくとも一つのアイテムを選択する第1モードと、前記第1モードで選択された前記少なくとも一つのアイテムに対する表示変更を伴う処理を行う第2モードとを有し、
    前記指示取得ステップで取得されたユーザの指示が、前記表示画面に設定された少なくとも二つの領域の一つから他方への移動である場合に、前記第1モードから前記第2モード、又は、前記第2モードから前記第1モードに変更し、
    前記表示ステップは、少なくとも一つのアイテムをグループの要素とする、複数のグループを前記表示画面に表示し、
    前記第1モードでは、前記複数のグループのうちの第1グループに属するアイテムが選択可能であり、前記複数のグループのうちの第2グループに属するアイテムが選択不可能である
    情報表示装置。
JP2014501116A 2012-08-30 2013-08-07 情報入力装置及び情報表示方法 Expired - Fee Related JP6062416B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012190622 2012-08-30
JP2012190622 2012-08-30
PCT/JP2013/004766 WO2014034031A1 (ja) 2012-08-30 2013-08-07 情報入力装置及び情報表示方法

Publications (2)

Publication Number Publication Date
JPWO2014034031A1 JPWO2014034031A1 (ja) 2016-08-08
JP6062416B2 true JP6062416B2 (ja) 2017-01-18

Family

ID=50182872

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014501116A Expired - Fee Related JP6062416B2 (ja) 2012-08-30 2013-08-07 情報入力装置及び情報表示方法

Country Status (4)

Country Link
US (1) US9798456B2 (ja)
EP (1) EP2891949A4 (ja)
JP (1) JP6062416B2 (ja)
WO (1) WO2014034031A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5664103B2 (ja) * 2010-10-08 2015-02-04 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US9372598B2 (en) * 2014-01-14 2016-06-21 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Reference-based circular scrolling menu
JP6447179B2 (ja) * 2015-01-28 2019-01-09 富士ゼロックス株式会社 情報入力システムおよび入力装置
JP6444345B2 (ja) * 2016-08-23 2018-12-26 株式会社コロプラ 仮想空間における入力を支援するための方法および装置ならびに当該方法をコンピュータに実行させるプログラム
CN106569549B (zh) * 2016-10-17 2023-04-07 广州第贰人类科技有限公司 一种基于液晶触摸屏的显示方法及装置
EP3783903A1 (en) 2018-04-27 2021-02-24 Spotify AB Media playback actions based on knob rotation
JP6730552B2 (ja) * 2018-05-14 2020-07-29 株式会社ユピテル 電子情報システム及びそのプログラム
US10936163B2 (en) 2018-07-17 2021-03-02 Methodical Mind, Llc. Graphical user interface system
WO2022191276A1 (ja) * 2021-03-10 2022-09-15 株式会社ネクステッジテクノロジー 操作入力装置、操作入力方法及びプログラム
US12050726B2 (en) 2022-02-03 2024-07-30 Samsung Electronics Co., Ltd. Augmented reality device for changing input mode and method thereof
WO2023149671A1 (ko) * 2022-02-03 2023-08-10 삼성전자 주식회사 입력 모드를 전환하는 증강 현실 장치 및 그 방법
JP2023172541A (ja) * 2022-05-24 2023-12-06 セイコーエプソン株式会社 表示方法および表示システム
EP4400959A1 (en) * 2023-01-12 2024-07-17 ameria AG Touchless user interface operating method based on an electronic device
WO2024149695A1 (en) * 2023-01-12 2024-07-18 Ameria Ag Touchless user interface operating method based on an electronic device
EP4400942A1 (en) * 2023-01-12 2024-07-17 ameria AG Touchless user interface control method, system, computer program and computer-readable medium

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3688361B2 (ja) * 1995-10-06 2005-08-24 富士通株式会社 表示制御装置
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7730401B2 (en) * 2001-05-16 2010-06-01 Synaptics Incorporated Touch screen with user interface enhancement
US20060256109A1 (en) * 2005-03-18 2006-11-16 Kristin Acker Interactive floorplan viewer
JP4575829B2 (ja) * 2005-03-30 2010-11-04 財団法人エヌエイチケイエンジニアリングサービス 表示画面上位置解析装置及び表示画面上位置解析プログラム
JP4445582B2 (ja) 2007-03-14 2010-04-07 独立行政法人科学技術振興機構 仮想感覚提示装置
KR101588036B1 (ko) * 2007-11-28 2016-01-25 코닌클리케 필립스 엔.브이. 감지 디바이스 및 방법
EP2169926B1 (en) * 2008-09-23 2018-01-03 Vodafone Holding GmbH Method and apparatus for providing access to data items
JP4752900B2 (ja) * 2008-11-19 2011-08-17 ソニー株式会社 画像処理装置、画像表示方法および画像表示プログラム
JP5182202B2 (ja) 2009-04-14 2013-04-17 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
KR101640463B1 (ko) * 2009-05-19 2016-07-18 삼성전자 주식회사 휴대 단말기의 운용 방법 및 이를 지원하는 휴대 단말기
JP5658500B2 (ja) * 2010-07-26 2015-01-28 キヤノン株式会社 情報処理装置及びその制御方法
JP5449074B2 (ja) 2010-07-27 2014-03-19 日本電信電話株式会社 情報入力装置
JP5675309B2 (ja) * 2010-12-07 2015-02-25 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、及び情報処理方法
KR101662726B1 (ko) * 2010-12-29 2016-10-14 삼성전자주식회사 전자 기기의 스크롤 방법 및 장치
JP5547139B2 (ja) * 2011-07-29 2014-07-09 株式会社東芝 認識装置、方法及びプログラム

Also Published As

Publication number Publication date
WO2014034031A1 (ja) 2014-03-06
EP2891949A1 (en) 2015-07-08
US9798456B2 (en) 2017-10-24
EP2891949A4 (en) 2015-09-16
US20140298261A1 (en) 2014-10-02
JPWO2014034031A1 (ja) 2016-08-08

Similar Documents

Publication Publication Date Title
JP6062416B2 (ja) 情報入力装置及び情報表示方法
CN105843491B (zh) 页面快速导航切换方法、装置及终端
US9836201B2 (en) Zoom-based gesture user interface
US9465437B2 (en) Method and apparatus for controlling screen by tracking head of user through camera module, and computer-readable recording medium therefor
US8810509B2 (en) Interfacing with a computing application using a multi-digit sensor
WO2011142317A1 (ja) ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体
KR100783552B1 (ko) 휴대 단말기의 입력 제어 방법 및 장치
US8839136B2 (en) Method of controlling virtual object or view point on two dimensional interactive display
JP6021335B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
US20160283054A1 (en) Map information display device, map information display method, and map information display program
EP2196891A2 (en) Device and method for providing a user interface
US20120026201A1 (en) Display control apparatus and display control method, display control program, and recording medium
JP2009140368A (ja) 入力装置、表示装置、入力方法、表示方法及びプログラム
JP2011134111A (ja) タッチパネル装置およびタッチパネル制御方法、プログラム、並びに記録媒体
JP6004693B2 (ja) 表示制御装置及びその制御方法
KR20130099186A (ko) 표시 장치, 유저 인터페이스 방법, 및 프로그램
KR20080095085A (ko) 회전 가능한 입력 수단을 이용한 사용자 인터페이스 방법및 장치
JP7335487B2 (ja) 入力装置
JP2015060303A (ja) 情報処理装置
JP5627314B2 (ja) 情報処理装置
JP2019023849A (ja) 入力制御方法、コンピュータ、および、プログラム
JP5595312B2 (ja) 表示装置、表示装置の制御方法、及びプログラム
KR101231105B1 (ko) 휴대기기의 ui를 위한 모션 센서 제어 시스템 및 그 방법
JP6362110B2 (ja) 表示制御装置、その制御方法、プログラム、及び記録媒体
JP2016015078A (ja) 表示制御装置、表示制御方法、及び、プログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161214

R150 Certificate of patent or registration of utility model

Ref document number: 6062416

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees