JP2011054117A - 情報処理装置、表示制御方法及び表示制御プログラム - Google Patents

情報処理装置、表示制御方法及び表示制御プログラム Download PDF

Info

Publication number
JP2011054117A
JP2011054117A JP2009204957A JP2009204957A JP2011054117A JP 2011054117 A JP2011054117 A JP 2011054117A JP 2009204957 A JP2009204957 A JP 2009204957A JP 2009204957 A JP2009204957 A JP 2009204957A JP 2011054117 A JP2011054117 A JP 2011054117A
Authority
JP
Japan
Prior art keywords
display
display information
operator
displayed
pointer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009204957A
Other languages
English (en)
Other versions
JP5343773B2 (ja
Inventor
Takuro Noda
卓郎 野田
Kazuyuki Yamamoto
一幸 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009204957A priority Critical patent/JP5343773B2/ja
Priority to US12/859,060 priority patent/US8687845B2/en
Priority to EP10174394.6A priority patent/EP2306272B1/en
Priority to BRPI1003250-9A priority patent/BRPI1003250A2/pt
Priority to CN201010266911.0A priority patent/CN102012780B/zh
Priority to RU2010136267/08A priority patent/RU2010136267A/ru
Publication of JP2011054117A publication Critical patent/JP2011054117A/ja
Application granted granted Critical
Publication of JP5343773B2 publication Critical patent/JP5343773B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

【課題】同時に操作する操作者の数に依らず良好な操作性が得られるようにする。
【解決手段】複数の操作者の各々の顔に対応する操作者アイコンUiと、複数の操作者の各々の手の動き応じて移動する複数のポインタPoを画像一覧画面130に表示させ、さらに複数の操作者の各々の顔と手の対応関係に基づき、操作者アイコンUiとポインタPoとの間を繋ぐ紐Stを表示させる。これにより、複数のポインタPoの各々を誰が操作しているのかを操作者に対して容易に認識させることができる。
【選択図】図4

Description

本発明は、情報処理装置、表示制御方法及び表示制御プログラムに関し、例えば、複数の操作者が同時に操作し得るGUI(Graphical User Interface)を実装する情報処理装置に適用して好適なものである。
現在、情報処理装置の多くに、GUIが実装されている。実際、このような情報処理装置では、例えば、操作者による操作に応じて画面上を移動するポインタを表示させ、このポインタで画面の任意の位置を指すことで、画面上に表示したアイコンなどを選択できるようになっている。
またポインタを画面上で移動させる為のポインティングデバイスとしては、マウスやタッチパッドが一般的であるが、モーションセンサにより空間での動きを検出してポインタを移動させるコントローラなども提案されている。例えば特許文献1参照。
ところで、このような情報処理装置の多くは、1つの画面に対して1人の操作者が操作することを想定したものである。
一方で、ゲーム機などの情報処理装置の中には、1つの画面に対して複数の操作者が同時に操作することを想定したものもあり、今後、このような情報処理装置が増えていくと予想される。
実際、このような情報処理装置では、1つの画面に対して操作者ごとに割り当てた複数のポインタを表示させ、各操作者がそれぞれ自分のポインタを操作して画面の任意の場所を指すことができるようになっている。
特開2009−157919公報
ところが、上述したように、1つの画面に対して複数のポインタを表示させると、どの操作者がどのポインタを操作しているのかがわかりにくく、1人の操作者が操作する場合と比して、操作性が低下するという問題があった。
本発明は以上の点を考慮してなされたもので、同時に操作する操作者の数に依らず良好な操作性を得ることのできる情報処理装置、表示制御方法及び表示制御プログラムを提案しようとするものである。
かかる課題を解決するため本発明においては、操作主体と、当該操作主体による指示とを対応付けて認識する認識部と、認識部が認識した操作主体を示す第1の表示情報と、操作主体による指示に応じて操作される第2の表示情報とを表示部に表示させ、さらに操作主体と当該操作主体による指示との対応関係に基づいて、当該第1の表示情報と当該第2の表示情報との関連性を示す関連情報を表示部に表示させる制御部とを設けるようにした。
これにより、操作主体(例えば操作者自身)による指示に応じて操作される第2の表示情報(例えばポインタ)が、どの操作主体により操作されているのかを、操作者に対して容易に認識させることができる。ゆえに、例えば、操作主体が複数存在して第2の表示情報が複数表示されるような場合であっても、第2の表示情報の各々がどの操作主体により操作されているのかを、操作者に対して容易に認識させることができる。
本発明によれば、操作主体による指示に応じて操作される第2の表示情報が、どの操作主体により操作されているのかを、操作者に対して容易に認識させることができる。ゆえに、例えば、操作主体が複数存在して第2の表示情報が複数表示されるような場合であっても、第2の表示情報の各々がどの操作主体により操作されているのかを、操作者に対して容易に認識させることができる。かくして、同時に操作する操作者の数に依らず良好な操作性を得ることのできる情報処理装置、表示制御方法及び表示制御プログラムを実現できる。
本実施の形態の概要となる情報処理装置の構成を示す略線図である。 本実施の形態の具体例となる多人数同時操作システムの構成を示す略線図である。 TV受像機及びステレオカメラのハードウェア構成を示すブロック図である。 画像一覧画面の構成を示す略線図である。 ミラーリングしたカメラ画像からの顔領域と手領域の検出の説明に供する略線図である。 顔領域の画像を操作者アイコンとして表示するときの表示例を示す略線図である。 手の位置にポインタを表示するときの表示例を示す略線図である。 紐を表示するときの表示例を示す略線図である。 紐の形状の変化の説明に供する略線図である。 ポインタのアニメーションを示す略線図である。 ポインタ表示処理手順を示すフローチャートである。 他の実施の形態における画像一覧画面の構成を示す略線図である。
以下、発明を実施するための最良の形態(以下実施の形態とする)について説明する。尚、説明は以下の順序で行う。
1.実施の形態
2.他の実施の形態
<1.実施の形態>
[1−1.実施の形態の概要]
まず、実施の形態の概要を説明する。因みに、この概要を説明した後、本実施の形態の具体例の説明に移る。
図1において1は、情報処理装置を示す。この情報処理装置1には、操作主体と当該操作主体による指示とを対応付けて認識する認識部2が設けられている。またこの情報処理装置1には、認識部2が認識した操作主体を示す第1の表示情報と、操作主体による指示に応じて操作される第2の表示情報とを表示部(図示せず)に表示させ、さらに操作主体と当該操作主体による指示との対応関係に基づいて、当該第1の表示情報と当該第2の表示情報との関連性を示す関連情報を表示部に表示させる制御部3が設けられている。
このような構成を有することで、情報処理装置1は、操作主体(例えば操作者自身)による指示に応じて操作される第2の表示情報(例えばポインタ)が、どの操作主体により操作されているのかを、操作者に対して容易に認識させることができる。ゆえに、例えば、操作主体が複数存在して第2の表示情報が複数表示されるような場合であっても、第2の表示情報の各々がどの操作主体により操作されているのかを、操作者に対して容易に認識させることができる。
より具体的には、制御部3は、例えば、第1の表示情報と上記第2の表示情報との間を繋ぐ線を関連情報として表示させる。さらにこの場合に、制御部3が、第2の表示情報の操作に応じて、関連情報としての線をたわませたり、太くしたりするようにしてもよい。
また制御部3が、第2の表示情報の操作が所定時間行われなかった場合に、第2の表示情報を非表示にするようにしてもよい。さらにこの場合に、制御部3が、第2の表示情報の操作が開始されたら、第2の表示情報を第1の表示情報の位置に表示させてから移動させ、操作が終了したら、第2の表示情報を第1の表示情報の位置に移動させてから非表示にするようにしてもよい。
さらに情報処理装置1にカメラ画像から操作主体としての操作者を検出する検出部4を設けるようにしてもよい。この場合、認識部2は、検出部4により検出された操作者の顔と当該操作者の手の動きとに基づき、操作者と当該操作者による指示とを対応付けて認識するようにする。さらにこの場合、制御部3は、検出部4により検出された操作者の顔画像を第1の表示情報として表示させ、当該操作者の手の動きに応じて第2の表示情報の表示位置を移動させるようにする。
さらにこの場合、制御部3が、検出部4により検出された操作者のカメラ画像内での位置と対応する位置に、第1の表示情報を表示させるようにしてもよい。
さらに認識部2が、操作主体としての外部機器と、当該外部機器からの入力信号とに基づき、外部機器と当該外部機器による指示とを対応付けて認識するようにしてもよい。
さらに認識部2が、ネットワークを介して指示を出す操作主体と、ネットワークを介さずに直接指示を出す操作主体とを認識するようにしてもよい。この場合、制御部3が、認識部2の認識結果に基づき、ネットワークを介して指示を出す操作主体に対応する第1の表示情報を第1の表示領域内に表示させ、ネットワークを介さずに直接指示を出す操作主体に対応する第1の表示情報を第2の表示領域内に表示させるようにする。
このような構成でなる情報処理装置1の具体例について、以下、詳しく説明する。
[1−2.実施の形態の具体例]
[1−2−1.多人数同時操作システムの構成]
次に、本実施の形態の具体例を説明する。図2において100は、同時に複数の操作者が操作することを想定した多人数同時操作システムを示す。
この多人数同時操作システム100は、テレビジョン受像機(これをTV受像機とも呼ぶ)101と、このTV受像機101に接続されたステレオカメラ102とで構成される。
ステレオカメラ102は、TV受像機101の上部に、TV受像機101の前方を向くようにして取り付けられ、TV受像機101の前方を撮像するようになっている。
ここで、ステレオカメラ102の撮像範囲内に、例えば、4人の操作者A〜Dがいるとする。このときTV受像機101は、ステレオカメラ102により撮像されたカメラ画像から検出した操作者A〜Dの手の動きをもとに、操作者A〜Dの各々による操作を認識して、この操作に応じて動作する。
このようにして、この多人数同時操作システム100では、TV受像機101に向かって操作者A〜Dが各々の手を動かすことで、操作者A〜Dの各々が同時にこのTV受像機101を操作できるようになっている。
またTV受像機101は、携帯端末103と無線通信することができ、この携帯端末103から送られてくるコマンドをもとに、操作者Eによる携帯端末103を介した操作を認識して、この操作に応じて動作する。尚、この携帯端末103は、TV受像機101のリモートコントロール機能を有する端末であるとする。
すなわち、この多人数同時操作システム100では、ステレオカメラ102の撮像範囲外からでも、操作者Eが携帯端末103を介して、撮像範囲内にいる他の操作者A〜Dと同様に且つ同時に、TV受像機101を操作できるようになっている。
[1−2−2.TV受像機及びステレオカメラのハードウェア構成]
次に、図3を用いて、TV受像機101及びステレオカメラ102のハードウェア構成について説明する。
TV受像機101は、外部インタフェース110を介して、ステレオカメラ102とケーブル接続され、また無線インタフェース111を介して携帯端末103と無線接続される。
このTV受像機101では、CPU112が各部を統括的に制御するようになっている。CPU112は、不揮発性メモリ113に書き込まれているプログラムをRAM114に展開してこれを読み込み、このプログラムに従って各種処理を行うと共に各部を制御する。
このTV受像機101は、上述したように、操作者の手の動きを検出して、これを操作として認識するようになっている。具体的に、TV受像機101のCPU112は、ステレオカメラ102を制御してステレオカメラ102の前方(すなわちTV受像機101の前方)を撮像させ、この結果得られるカメラ画像から例えば操作者A〜Dの各々の手の動きを検出する。そしてCPU112は、検出した手の動きから操作者A〜Dの各々による操作(ポインタ操作、ジェスチャ操作など)を認識して、この操作に応じた処理を行う。
またCPU112は、携帯端末103から送られてくるコマンドをもとに、操作者Eによる携帯端末103を介した操作を認識して、この操作に応じた処理を行うようにもなっている。
因みに、CPUは、Central Processing Unitの略、RAMは、Random Access Memoryの略である。
またこのTV受像機101は、テレビジョン放送(これをTV放送とも呼ぶ)出力機能を有している。実際、操作者による操作によりTV放送を出力するよう指示されると、TV受像機101は、外部のアンテナ115で受信されたTV放送信号をチューナ116に入力する。チューナ116は、CPU112の制御のもと、操作者による操作により指定されたチャンネルのTV放送信号を得て、これをTV放送信号処理部117に送る。
TV放送信号処理部117は、CPU112の制御のもと、TV放送信号に対して所定の信号処理を施すことにより、このTV放送信号から、番組の映像データと音声データとを得る。このうち映像データは、TV放送信号処理部117から表示処理部118に送られ、音声データは、TV放送信号処理部117から音声処理部119に送られる。
表示処理部118は、CPU112の制御のもと、映像データに対して所定の表示処理を施すことにより映像信号を得、これをディスプレイ120に送る。この結果、ディスプレイ120に、放送中の番組の映像が表示される。
一方、音声処理部119は、CPU112の制御のもと、音声データに対して所定の音声処理を施すことにより音声信号を得、これをスピーカ121に送る。この結果、スピーカ121から、放送中の番組の音声が出力される。
このようにしてTV受像機101は、TV放送を出力して、TV放送の番組をユーザに視聴させる。
さらにこのTV受像機101は、画像を一覧表示する機能を有している。実際、CPU112は、例えば、無線インタフェース111を介して無線接続されている携帯端末103などから受信した画像データを、不揮発性メモリ113に記憶させる。
そしてCPU112は、操作者による操作により画像を一覧表示するよう指示されると、不揮発性メモリ113から複数の画像データを読み出して、これを表示処理部118に送る。
表示処理部118は、CPU112の制御のもと、送られてきた複数の画像データをもとに画像一覧画面(詳しくは後述する)の画面データを生成して、この画面データに対して所定の表示処理を施すことにより画面信号を得、これをディスプレイ120に送る。この結果、ディスプレイ120に、画像一覧画面が表示される。
このようにしてTV受像機101は、画像一覧画面を表示して、画像の一覧をユーザに視認させる。尚、この画像一覧画面は、同時に複数の操作者が操作することを想定した画面であり、複数の操作者の各々が、任意の画像を選択できるようになっている。
一方、ステレオカメラ102は、撮像部122と外部インタフェース123とで構成され、この外部インタフェース123を介してTV受像機101と接続される。
撮像部122には、例えば左右方向に並べられた2台のカメラ122A及び122Bが設けられ、これら2台のカメラ122A及び122Bにより、前方の空間を立体的に撮像し得るようになっている。
実際、撮像部122は、TV受像機101の制御のもと、カメラ122A及び122Bの各々により前方を所定時間ごとに撮像して、この結果得られるカメラ画像データを順次外部インタフェース123を介してTV受像機101に送る。
尚、TV受像機101に送られるカメラ画像データには、カメラ122Aにより撮像されたカメラ画像データと、カメラ122Bにより撮像されたカメラ画像データとが含まれる。
TV受像機101では、ステレオカメラ102から送られてくるカメラ画像データをもとに、TV受像機101の前方にいる例えば操作者A〜Dの各々を認識する。
具体的にTV受像機101のCPU112は、ステレオカメラ102から送られてくるカメラ画像データに含まれる、例えばカメラ122Aにより撮像されたカメラ画像データに対して人物検出処理を行う。CPU112は、この人物検出処理により例えば操作者の顔と手を検出する。
顔の検出については、種々のアルゴリズムが知られている。例えば、カメラ画像から肌色領域とこの領域内の特徴量(目、口と思われる部分)とを抽出して、この特徴量の位置関係から肌色領域が顔であるか否かを判別するものがある。
CPU112は、このようなアルゴリズムを利用して、カメラ画像から顔となる領域(これを顔領域とも呼ぶ)を検出し、検出した顔領域ごとに、その座標(例えば顔領域の中心座標)を得る。
この座標は、例えば、カメラ画像の中心を原点として、左右方向の軸をX軸、上下方向の軸をY軸とするXY平面上の座標として表される。すなわち、この座標は、ステレオカメラ102の撮像範囲の中心を原点として、ステレオカメラ102から見た左右方向の軸をX軸、上下方向の軸をY軸とするXY平面上の座標と見なすことができる。このXY平面は、ディスプレイ120の表示面に対して並行な面でもある。
一方、手の検出についても、種々のアルゴリズムが知られている。例えば、カメラ画像から肌色領域とこの領域内の特徴量(例えば輪郭)とを抽出して、この特徴量と手の輪郭のテンプレート画像とのマッチング処理を行うことで、肌色領域が手であるか否かを判別するものがある。また、このとき、例えば、手の形状が異なる複数のテンプレート画像を用意して、各々のテンプレート画像とマッチング処理を行うことで、手の形状を判別することもできる。例えば、ジャンケンのグーのように握り締めた形状(これをグー形状とも呼ぶ)や、パーのように開いた形状(これをパー形状とも呼ぶ)を判別することができる。
CPU112は、このようなアルゴリズムを利用して、カメラ画像から手となる領域(これを手領域とも呼ぶ)を検出し、検出した手領域ごとに、その座標(例えば手領域の中心座標)を得る。
ここで、カメラ画像に例えば4人の操作者A〜Dが含まれているとすると、人物検出処理により4つの顔と8つの手の各々のXY平面上の座標が得られる。これによりCPU112は、ステレオカメラ102から見た、4つの顔と8つの手の上下左右方向の位置関係を認識することができる。
さらにCPU112は、カメラ122Aにより撮像されたカメラ画像データと、カメラ122Bにより撮像されたカメラ画像データとをもとに、ステレオ法により4つの顔及び8つの手の各々のステレオカメラ102からの距離を算出する。
ここで、ステレオカメラ102の位置を原点として、ステレオカメラ102から見た奥行き方向の軸をZ軸とすると、この距離は、Z軸上の点として表すことができる。
このようにして4つの顔と8つの手の各々のXY平面上の座標とZ軸上の点とを得ることで、4つの顔と8つの手の各々のXYZ空間上の座標が得られる。
これによりCPU112は、ステレオカメラ102から見た、4つの顔と8つの手の各々の上下左右方向及び奥行き方向の位置関係、すなわち3次元空間上の位置関係を認識することができる。
そしてCPU112は、これらの3次元空間上の位置関係に基づいて、顔と手の対応関係を判別する。すなわちCPU112は、どの顔とどの手が同一人物(すなわち操作者)のものであるかを判別する。具体的にCPU112は、例えば、3次元空間上で、顔からの距離がより近い2つの手を、同一人物のものと判別する。
この結果、4人の操作者A〜Dのそれぞれの顔と手(両手)とが対応付けられたことになる。その後も、CPU112は、ステレオカメラ102から所定時間ごとに送られてくるカメラ画像データから操作者A〜Dの各々の顔と手を検出することで、各々の顔と手の対応関係を保持しつつ、各々の手の動き(位置及び形状の変化)を検出する。
そしてCPU112は、このようにして検出した操作者A〜Dの各々の手(両手)の動きに基づいて、操作者A〜Dの各々による操作(ポインタ操作、ジェスチャ操作など)を個別に認識して、この操作に応じた処理を行う。
[1−2−3.画像一覧画面]
次に、TV受像機101のディスプレイ120に表示される画像一覧画面と、この画像一覧画面上での複数の操作者による操作について詳しく説明する。尚、ここでは、ステレオカメラ102で捉えた4人の操作者A〜Dと、携帯端末103を持つ操作者Eとの5人により操作される場合を例に説明する。またCPU112は、不揮発性メモリ113から読み出したプログラムにしたがって、この画像一覧画面130の表示制御を行う。
TV受像機101のCPU120は、操作者による操作により画像を一覧表示するよう指示されると、図4に示すように、画像一覧画面130をディスプレイ120に表示させる。
この画像一覧画面130は、上側3分の2の領域130Aと、下側3分の1の領域130Bとの2つの領域で構成されている。このうち上側3分の2の領域130Aには、不揮発性メモリ113から読み出された複数の画像データの各々に対応する画像アイコンPiが並べて表示される。以降、この領域130Aを、画像表示領域130Aとも呼ぶ。
また下側3分の1の領域130Bには、複数の操作者(例えば操作者A〜E)の各々に対応する操作者アイコンUi(UiA〜UiE)が横方向に並べて表示される。以降、この領域130Bを、操作者表示領域130Bとも呼ぶ。
ここで、ステレオカメラ102で捉えた4人の操作者A〜Dについては、カメラ画像から抽出された各々の顔画像が操作者アイコンUiA〜UiDとしてこの操作者表示領域130Bに表示される。一方、携帯端末103の操作者Eについては、顔画像の代わりに、携帯端末103の画像が操作者アイコンUiEとして表示される。
さらにこの画像一覧画面130には、操作者A〜Eの各々により操作される複数のポインタPo(PoA1、PoB1、PoB2、PoC1、PoC2、PoD1、PoE)が表示される。
ここで、ステレオカメラ102で捉えた4人の操作者A〜Dの各々に対応する操作者アイコンUiA〜UiDについては、カメラ画像内の左右方向における各々の顔の位置に対応する、操作者表示領域130B内の位置に表示される。
また、これら4人の操作者A〜Dの各々により操作されるポインタPoについては、カメラ画像内の上下左右方向における各々の手(両手)の位置に対応する、画像一覧画面130内の位置に表示されるようになっている。
具体的に、CPU112は、ステレオカメラ102で撮像されたカメラ画像の左右を反転(ミラーリング)させ、ディスプレイ120の解像度に変換する。
そのうえでCPU112は、カメラ画像から操作者A〜Dの各々の顔領域Faと手領域Hrを検出して(図5)、これらのカメラ画像内での座標を得る。この座標が、ディスプレイ120の画面内での座標に対応する。
さらにCPU112は、操作者A〜Dの各々の顔領域FaのY座標を、操作者表示領域130Bの上下方向の中心に固定して、このときの操作者A〜Dの各々の顔領域FaのX座標に対応する位置に操作者アイコンUiA〜UiDを表示させる(図6)。この結果、操作者表示領域130Bには、カメラ画像内での操作者A〜Dの各々の顔の位置に対応する位置に、操作者A〜Dの各々に対応する操作者アイコンUiA〜UiDが表示される。
つまり、操作者表示領域130Bには、TV受像機101の前方にいる操作者A〜Dの実際の顔の位置に対応するように、左から順に、操作者アイコンUiA、UiB、UiC、UiDが並べて表示される。
またCPU112は、操作者A〜Dの各々の手領域Hrの座標に対応する位置にポインタPoを表示させる(図7)。この結果、画像一覧画面130には、カメラ画像内での操作者A〜Dの各々の手の位置に対応する位置に、操作者A〜Dの各々により操作されるポインタPoが表示される。
つまり、画像一覧画面130には、TV受像機101の前方にいる例えば操作者Bの実際の左手の位置に対応する位置にポインタPoB1が表示され、実際の右手の位置に対応する位置にポインタPoB2が表示される。
さらにCPU112は、カメラ画像から操作者A〜Dの各々の手の位置の変化を検出して、検出した手の位置の変化に合わせてポインタPoを移動させる。
このように画像一覧画面130では、操作者A〜Dの各々が手を動かすことで、各々の手に対応するポインタPoを例えば所望の画像アイコンPi上に移動させることができるようになっている。
またCPU112は、ポインタPoが画像アイコンPi上に位置するとき、この画像アイコンPiの外周に枠Frを表示する(図4)ことでポインタPoにより画像アイコンPiを指定した状態であることをグラフィカルに示すようになっている。
さらにCPU112は、ポインタPoが画像アイコンPi上に位置している状態で、このポインタPoに対応する手の形状がパー形状からグー形状に変化したことを検出すると、このポインタPoで画像アイコンPiを選択した状態にする。
このとき、CPU112は、この画像アイコンPiを他の画像アイコンPiよりも大きく表示する(図4)ことで、選択した状態であることをグラフィカルに示すようになっている。
このように画像一覧画面130では、操作者A〜Dの各々がポインタPoを操作して所望の画像アイコンPiを選択できるようになっている。
またCPU112は、ポインタPoで画像アイコンPiを選択している状態のまま、このポインタPoに対応する手の位置が移動すると、ポインタPoと共にこの画像アイコンPiを移動させる。
さらにCPU112は、ポインタPoで画像アイコンPiを選択している状態で、ポインタPiに対応する手の形状がグー形状からパー形状に変化すると、この画像アイコンPiの選択を解除した状態にする。
このように画像一覧画面130では、操作者A〜Dの各々がポインタPoを操作して所望の画像アイコンPiをドラッグアンドドロップできるようにもなっている。
さらに、CPU112は、操作者A〜Dの各々の手の形状の変化に合わせて、ポインタPoの形状を変化させる。すなわちCPU112は、手の形状がグー形状である場合には、この手に対応するポインタPoの形状をグー形状にする一方で、手の形状がパー形状である場合には、この手に対応するポインタPoの形状をパー形状にする。
このようにしてCPU112は、操作者A〜Dの各々によるハンドジェスチャを、ポインタPoの形状によりグラフィカルに示すようになっている。
さらに画像一覧画面130には、操作者A〜Dの顔と手の対応関係に基づき、操作者A〜Dの各々の顔に対応する操作者アイコンUiA〜UiDと、操作者A〜Dの各々の手に対応するポインタPoとの間を繋ぐ紐Stが表示される。
具体的にCPU112は、上述したように、カメラ画像から操作者A〜Dの各々の顔と手の対応関係を判別する。そしてCPU112は、この対応関係に基づき、画像一覧画面130上に、操作者アイコンUiとポインタPoとの間を繋ぐ紐Stを表示させる(図8)。このときCPU112は、操作者アイコンUiの座標(例えば中心座標)とポインタPoの座標(例えば中心座標)とを結ぶ曲線を算出して、この曲線を紐Stとして表示させる。
尚、CPU112は、操作者アイコンUiの座標又はポインタPoの座標が変わるごとに曲線を算出し直すことで、ポインタPoが移動しようとも、常に操作者アイコンUiとポインタPoとの間を紐Stで繋ぐようになっている。
この結果、画像一覧画面130には、例えば、図4に示すように、操作者Bの顔に対応する操作者アイコンUiBと、操作者Bの左手に対応するポインタPoB1との間を繋ぐ紐StB1が表示される。またこの操作者アイコンUiBと、操作者Bの右手に対応するポインタPoB2との間を繋ぐ紐StB2が表示される。
こうすることで、この画像一覧画面130では、複数のポインタPoの各々が、操作者A〜Dのうちの誰に操作されているのかを、この画像一覧画面130を見ている人物(例えば操作者A〜E)に対して容易に認識させることができる。
またCPU112は、ポインタPoの形状がパー形状のときと、グー形状のときとで、紐Stの形状を変えるようにもなっている。
具体的に、CPU112は、図9に示すように、操作者アイコンUiの中心座標とポインタPoの中心座標とを結ぶ直線(実際は非表示)Liに対して弓なりの曲線Cuを算出する。ここで、ポインタPoの形状がパー形状のとき、CPU112は、図9(A)に示すように、直線Liとの距離が最も離れる頂点Pmが中央に位置する曲線Cuを算出して、これを紐Stとして表示させる。
これに対して、ポインタPoがグー形状のとき、CPU112は、パー形状のときよりも、頂点Pmが操作者アイコンUi寄りで且つ頂点Pmと直線Liとの距離が大きい曲線Cuを算出する。さらにCPU112は、この曲線Cuの太さをパー形状のときよりも太くして、紐Stとして表示させる。
すなわち、この画像一覧画面130では、紐Stを操作者の腕に見立て、ポインタPoがグー形状になったときに、操作者が腕にぐっと力を入れて折り曲げた感じを紐Stをたわませて太くすることでグラフィカルに示すようになっている。
こうすることで、この画像一覧画面130では、操作者が自分の手で画像を掴むような感覚で、ポインタPoにより画像アイコンPiを選択することができる。
さらにこの画像一覧画面130では、複数のポインタPoを常に表示したままにすると、画面が煩雑になる恐れがあるので、所定時間動きのないポインタPoについては、一時的に非表示にするようになっている。
具体的にCPU112は、操作者A〜Dの各々の手について、その動きが止まることにより対応するポインタPoの動きが止まると、カウントを開始する。そしてCPU112は、動きが止まってから所定時間経過したポインタPoについては、非表示にする。
このときCPU112は、動きのないポインタPoを単に非表示にするのではなく、図10(A)に示すように、このポインタPoが紐Stにより繋がっている操作者アイコンUiに引き込まれるようにアニメーションさせてから非表示にする。
その後、このポインタPoに対応する手が再び動かされたとする。するとCPU112は、このポインタPoを単に再表示するのではなく、図10(B)に示すように、このポインタPoを操作者アイコンUi近傍に表示させてから実際の手の位置に対応する位置まで引き出されるようにアニメーションさせる。
尚、CPU112は、ポインタPoを再表示する場合に限らず、例えば、ポインタPoを画面上に最初に表示する場合にも同様にアニメーションさせる。この場合、CPU112は、例えば、ポインタPoの各々を、対応する手の動きを検出するまでは非表示にして、手の動きを検出したら表示してアニメーションさせる。
こうすることで、この画像一覧画面130では、どの操作者によりどのポインタPoの操作が開始されたのかを、この画像一覧画面130を見ている人物(例えば操作者A〜E)に対して容易に認識させることができる。また画面上に複数のポインタPoが操作されていないにも係わらず表示されたままになる状況を回避することができる。
一方、携帯端末103に対応する操作者アイコンUiEについては、操作者表示領域130B内の例えば空き領域に表示される。さらに、この携帯端末103を介して操作されるポインタPoについては、携帯端末103から送られてくるコマンドに応じて移動するようになっている。
尚、ここでは、携帯端末103が、片手での操作を想定した操作部を有する端末であるとする。ゆえに、この携帯端末103で一度に操作できるポインタPoは1つとなる。したがって、画像一覧画面130上には、携帯端末103を介して操作し得るポインタPoとして、1つのポインタPoEのみが表示される。このポインタPoEについては、その形状が例えば矢印形状に固定であるとする。
そしてこの画像一覧画面130では、操作者A〜Dの各々と同様に、操作者Eが携帯端末103を介してポインタPoEを操作することで所望の画像アイコンPiを選択したり、ドラッグアンドドロップできるようになっている。
さらにこの画像一覧画面130には、操作者アイコンUiEとポインタPoEとの間を繋ぐ紐Stが表示されるようにもなっている。このときCPU112は、コマンドとこのコマンドを送ってきた携帯端末103との対応関係に基づき、操作者アイコンUiEとポインタPoEとの間を繋ぐ紐StEを表示させる。尚、この紐StEは、例えば、ステレオカメラ102で捉えた操作者A〜Dの操作者アイコンUiとポインタPoとの間を繋ぐ紐Stとは異なる形状(例えば点線)で表示される。
さらにこのポインタPoEについても、所定時間動きがない場合にアニメーションしながら非表示となり、再び動きがあるとアニメーションしながら再表示されるようになっている。
因みに、本実施の形態の概要で説明した情報処理装置1の認識部2、制御部3及び検出部4の具体的なハードウェアの例が上述したTV受像機101のCPU112である。また概要で説明した操作主体の具体例が、上述した操作者A〜D及び携帯端末103である。さらに概要で説明した操作主体を示す第1の表示情報の具体例が上述した操作者アイコンUiである。さらに概要で説明した操作主体による指示に応じて操作される第2の表示情報の具体例が上述したポインタPoである。さらに第1の表示情報と第2の表示情報との関連性を示す関連情報の具体例が上述した紐Stである。
[1−2−4.ポインタ表示処理手順]
ここで、ポインタPoの表示に係わる処理の手順(これをポインタ表示処理手順とも呼ぶ)について説明する。因みに、このポインタ表示処理手順は、TV受像機101のCPU112が、不揮発性メモリ113から読み出したプログラムに従って実行するポインタ表示処理の手順である。CPU112は、このポインタ表示処理を、ポインタPoごとに実行するようになっている。したがって、ここでは、或る1つのポインタPoに対して実行するポインタ表示処理について説明することとする。
CPU112は、例えば、操作者の操作により画像を一覧表示するよう指示されると、画像一覧画面130を表示させると共に、図11に示すポインタ表示処理手順RT1を開始して、ステップSP1に移る。
ステップSP1において、CPU112は、ポインタPoが現在表示中であるか否かを判別する。ここで、ポインタPoが現在非表示であることにより、否定結果を得ると、CPU112は、ステップSP2に移る。
ステップSP2においてCPU112は、このポインタPoに動きがあるか否かを判別する。ここで、肯定結果を得ると、このことは、このポインタPoに対応する手が動かされたことで、もしくは携帯端末103からコマンドが送られてくることで、ポインタPoが動かされたことを意味する。
このときCPU112は、ステップSP3に移る。ステップSP3においてCPU112は、このポインタPoの表示を開始する。このときCPU112は、このポインタPoが操作者アイコンUiから引き出されるようにアニメーションさせ、またこのポインタPoと操作者アイコンUiとを繋ぐ紐Stも表示させる。
このようにしてポインタPoを表示させた後、CPU112は、再びステップSP1に戻る。
これに対して、上述のステップSP2で否定結果を得ると、このことは、ポインタPoに動きがないことを意味する。このときCPU112は、ステップSP3の処理をスキップして、再びステップSP1に戻る。
また一方で、上述のステップSP1で肯定結果を得ると、このことは、ポインタPoが現在表示中であることを意味する。このときCPU112は、ステップSP4に移る。
ステップSP4においてCPU112は、このポインタPoに動きがあるか否かを判別する。ここで、このポインタPoに動きがないことにより、否定結果を得ると、CPU112は、ステップSP5に移る。
ステップSP5においてCPU112は、このポインタPoの動きが止まってから所定時間経過したか否かを判別する。ここで、また所定時間経過していないことにより、否定結果を得ると、CPU112は、再びステップSP4に戻る。
これに対して、ポインタPoの動きが止まってから所定時間経過したことにより、このステップSP5で肯定結果を得ると、CPU112は、ステップSP6に移る。ステップSP6においてCPU112は、このポインタPoの表示を終了して(すなわち非表示にして)、再びステップSP1に戻る。このときCPU112は、このポインタPoが操作者アイコンUiに引き込まれるようにアニメーションさせる。
また上述のステップSP4で、ポインタPoに動きがあることにより、肯定結果を得た場合には、CPU112は、ステップSP5、SP6の処理をスキップして、再びステップSP1に戻る。
このようなポインタ表示処理手順RT1にしたがって、CPU112は、ポインタPoの表示、非表示を制御するようになっている。
[1−2−5.動作及び効果]
以上の構成において、TV受像機101のCPU112は、ステレオカメラ102で撮像したカメラ画像から、TV受像機101の前方にいる操作者A〜Dの各々の顔と手を検出する。さらにCPU112は、操作者A〜Dの各々の顔と手の位置関係に基づき、どの顔とどの手が同一人物のものであるか、すなわち顔と手の対応関係を判別する。
そしてCPU112は、操作者A〜Dの各々の顔に対応する操作者アイコンUiA〜UiDと、操作者A〜Dの各々の手の動き応じて移動する複数のポインタPoA〜PoDを画像一覧画面130に表示させる。
さらにこのときCPU112は、判別した顔と手の対応関係に基づき、操作者A〜Eの各々の顔に対応する操作者アイコンUiA〜Dと、操作者A〜Eの各々の手に対応するポインタPoとの間を繋ぐ紐Stを画像一覧画面130に表示させる。
こうすることで、TV受像機101は、ポインタPoと操作者アイコンUiとの関連性、すなわち複数のポインタPoの各々を誰が操作しているのかを、画像一覧画面130を見ている人物(操作者)に対して容易に認識させることができる。
またCPU112は、TV受像機101に携帯端末103が接続されている場合、この携帯端末103に対応する操作者アイコンUiEを画像一覧画面130に表示させる。またこのときCPU112は、この携帯端末103から送られてくるコマンドに応じて移動するポインタPoEを画像一覧画面130に表示させる。
さらに、CPU112は、コマンドとこのコマンドを送ってきた携帯端末103との対応関係に基づき、携帯端末103に対応する操作者アイコンUiEと、携帯端末103を介して操作されるポインタPoEとの間を繋ぐ紐Stを表示させる。
こうすることで、TV受像機101は、ポインタPoEが携帯端末103を介して操作されていることを、画像一覧画面130を見ている人物(操作者)に対して容易に認識させることができる。
またこのように操作者アイコンUiとポインタPoとを繋ぐ紐Stを表示させることで、画像一覧画面130を見ている人物に対して、ポインタPoの動きを、ポインタPoと紐St全体の動きで捉えさせることができる。これにより、画像一覧画面130では、例えば、ポインタPoの動きが速くても、容易にポインタPoの動きを認識させることができる。
以上の構成によれば、TV受像機101は、ポインタPoと操作者アイコンUiとの関連性、すなわちポインタPoがどの操作者により操作されているのかを、操作者に対して容易に認識させることができる。ゆえに、操作者が複数存在してポインタPoが複数表示されるような場合であっても、ポインタPoの各々がどの操作者により操作されているのかを、操作者に対して容易に認識させることができる。かくして、同時に操作する操作者の数に依らず良好な操作性を得ることができる。
<2.他の実施の形態>
[2−1.他の実施の形態1]
尚、上述した実施の形態の具体例では、TV受像機101の近傍にいる操作者A〜Eが直接ディスプレイ120を見てTV受像機101を操作するようにした。これに限らず、遠方にいる操作者が、ネットワークを介して、TV受像機101を操作するようにしてもよい。
この場合、例えば、TV受像機101とステレオカメラ102を2セット用意する。そして、2台のTV受像機101をネットワークを介して接続する。尚、この場合、2台のTV受像機101の各々にはネットワークインタフェースが設けられているとする。
さらに、例えば、2台のTV受像機101の一方をホスト、他方をクライアントとして、ホストとなるTV受像機101に対して、操作者が直接、またはクライアントとなるTV受像機101を介して操作できるようにする。ここで、ホストとなるTV受像機101をホスト機器101、クライアントとなるTV受像機101をクライアント機器101とも呼ぶ。
このときホスト機器101のCPU112は、例えば、図12に示す画像一覧画面200をディスプレイ120に表示させる。
画像一覧画面200は、上側4分の1の領域200Aと、下側4分の1の領域200Bと、これらの間の領域200Cとの3つの領域で構成されている。このうち領域200Cは、ホスト機器101の不揮発性メモリ113から読み出された複数の画像データに対応する画像アイコンPiが並べて表示される。つまり、この領域200Cが、画像表示領域200Cとなる。
また下側4分の1の領域200Bには、ホスト側のステレオカメラ102で捉えた操作者A、C、Dの各々に対応する操作者アイコンUiA、UiC、UiDが横方向に並べて表示される。この領域200Bを、操作者表示領域200Bとも呼ぶ。
さらに上側4分の1の領域200Aには、クライアント側のステレオカメラ102で捉えた操作者E、Fの各々に対応する操作者アイコンUiE、UiFが横方向に並べて表示される。この領域200Aを、通信相手表示領域200Aとも呼ぶ。
尚、ホスト機器101のCPU112は、クライアント側のステレオカメラ102で撮像されたカメラ画像を、クライアント機器101から取得して、このカメラ画像から操作者E、Fの顔を検出して、操作者アイコンUiE、UiFを表示させる。
さらに画像一覧画面200には、ホスト側のカメラ画像から検出されたホスト側の操作者A、C、Dの各々の手に対応する位置にポインタPoが表示される。またクライアント側のカメラ画像から検出された操作者E、Fの各々の各々の手に対応する位置にポインタPoが表示される。
さらに画像一覧画面200には、ホスト側のカメラ画像と、クライアント側のカメラ画像とをもとに判別された操作者A、C、D、E、Fの各々の顔と手の対応関係に基づき、操作者アイコンUiとポインタPoとを繋ぐ紐Stが表示される。
そして、CPU112は、ホスト側のカメラ画像と、クライアント側のカメラ画像とをもとに、操作者A、C、D、E、Fの手の位置の変化を検出して、この変化に合わせてポインタPoを移動させる。
またCPU112は、この画像一覧画面200の画面データを、ネットワークインタフェースを介して、クライアント機器101に送ることで、クライアント機器101のディスプレイ120にも表示させる。
このようにすれば、クライアント側の操作者E、Fが、ネットワークを介して、ホスト側の操作者A、C、Dと同様にかつ同時に、画像一覧画面200上でポインタPoを操作できるようになる。
因みに、クライアント機器101に表示させる画像一覧画面200では、通信相手表示領域200Aにホスト側の操作者アイコンUiを表示させ、操作者表示領域200Bにクライアント側の操作者アイコンUiを表示させるようにしてもよい。
また、クライアント機器101は、必ずしもTV受像機101の構成を有する必要はなく、少なくとも、ディスプレイ120と、外部インタフェース110と、ネットワークインタフェースを有していればよい。
[2−2.他の実施の形態2]
また上述した実施の形態の具体例では、TV受像機101に対して、ステレオカメラ102が外部接続されるようにした。これに限らず、TV受像機101にステレオカメラ102を内蔵させるようにしてもよい。
またステレオカメラ102に限らず、赤外線カメラや通常の単眼カメラをTV受像機101に接続、もしくは内蔵させるようにしてもよい。因みに、単眼カメラの場合、奥行き方向の情報が欠落することになるので、顔と手の対応関係を判別する精度が低下するが、ステレオカメラと比して簡易な構成とすることができる。またステレオカメラ102の位置についても、ディスプレイ120の上部に限らず、下部に取り付けるなどしてもよい。
またステレオカメラ102の代わりに、複数のコントローラをTV受像機101に接続して、複数の操作者の各々がコントローラを介してTV受像機101を同時に操作するようにしてもよい。
この場合、TV受像機101のCPU112は、各々のコントローラからの入力信号をもとに操作される複数のポインタPoと、各々のコントローラに対応する操作者アイコンUiを、画像一覧画面130に表示させる。さらにCPU112は、コントローラからの入力信号と、この入力信号を入力したコントローラの対応関係に基づき、操作者アイコンUiとポインタPoとの間を繋ぐ紐Stを表示させる。
[2−3.他の実施の形態3]
さらに上述した実施の形態の具体例では、画像一覧画面130に本発明を適用した例について説明した。これに限らず、ポインタ操作し得る画面であれば、この他種々の画面に本発明を適用してもよく、また適用することができる。
例えば、複数の操作者の各々がポインタを操作してキャラクタを動かすようなゲーム画面に適用してもよい。
また第1の表示情報としての操作者アイコンUi、第2の表示情報としてのポインタPo、関連情報としての紐Stの各々についても、機能的な役割が変わらない範囲であれば、この他種々の情報に置き換えてもよい。例えば、ポインタPoを、カーソルに置き換えてもよい。
[2−4.他の実施の形態4]
さらに上述した実施の形態の具体例では、紐Stを曲線で表したが、ポインタPoと操作者アイコンUiとが繋がっていること、すなわちポインタPoと操作者アイコンUiとに関連性があることを示すことができれば、直線で表すようにしてもよい。
また、例えば、紐Stを点線で表すようにしてもよいし、数珠繋ぎにした複数の図形(円、三角形など)で紐Stを表すようにしてもよい。
さらに上述した実施の形態の具体例では、紐Stの表示色については言及していないが、例えば、ポインタPoと操作者アイコンUiと紐Stとの組ごとに、これらの表示色を変えるようにしてもよい。
こうすることで、操作者が、表示色からもポインタPoと操作者アイコンUiとの関連性を認識できるようになる。
またこのとき、ポインタPoにより指定された画像アイコンPiの外周に表示される枠Frの表示色を、このポインタPoと同一表示色にしてもよい。こうすることで、どの操作者がポインタPoで画像アイコンPiを指定しているのかを容易に認識できるようになる。
さらに上述した実施の形態の具体例では、ポインタPoの表示を終了するときに、ポインタPoが操作者アイコンPiに引き込まれるようにアニメーションさせ、また開始するときには操作者アイコンPiから飛び出てくるようにアニメーションさせるようにした。
ここで、例えば、飛び出てくるようにアニメーションさせるときに、ポインタPo、紐St、操作者アイコンUiを点滅表示させたり、これらを拡大表示したりして、強調表示するようにしてもよい。また引き込まれるようにアニメーションさせるときにも、同様に強調表示させるようにしてもよい。
さらに、ポインタPoが、グー形状のときと、パー形状のときとで、ポインタPo、紐St、操作者アイコンUiの表示形態を変えるようにしてもよい。例えば、グー形状のときには、これらを点滅表示させ、パー形状のときは通常表示するなどしてもよい。
さらに上述した実施の形態の具体例では、携帯端末103により操作されるポインタPoEについては、矢印形状に固定するようにして他のポインタPoと表示形態を変えたが、これに限らず、他のポインタPoと同一の表示形態としてもよい。
またこのポインタPoEと、携帯端末103に対応する操作者アイコンUiEとの間を繋ぐ紐StEについても、点線で表すようにして他の紐Stと表示形態を変えたが、これに限らず、他の紐Stと同一の表示形態としてもよい。
[2−5.他の実施の形態5]
さらに上述した実施の形態の具体例では、画像一覧画面130上で、ポインタPoの操作により、画像アイコンPiをドラッグアンドドロップできるようにした。ここで、画像一覧画面130上にごみ箱アイコンを表示させ、このごみ箱アイコンに画像アイコンPiがドラッグアンドドロップされたら、この画像アイコンPiに対応する画像データを、不揮発性メモリ113から消去するようにしてもよい。
また例えば、携帯端末103に対応する操作者アイコンUiEに画像アイコンPiがドラッグアンドドロップされたら、対応する画像データを携帯端末103に転送するようにしてもよい。
[2−6.他の実施の形態6]
さらに上述した実施の形態の具体例では、動きが止まってから所定時間経過したポインタPoについては、表示を終了する(すなわち非表示にする)ようにした。これに限らず、動いているかに依らず、常に表示させるようにしてもよい。
また上述した実施の形態の具体例では、ポインタPoが非表示のときにポインタPoの動きを検出したらポインタPoの表示を開始するようにした。このとき、ミラーリングしてディスプレイ120の解像度に変換したカメラ画像を、ディスプレイ120に一定時間表示するようにしてもよい。
この場合、例えば、画像一覧画面130を一定時間半透明にして、この背景にカメラ画像を表示させるようにしてもよいし、一定時間画像一覧画面130からカメラ画像に表示を切り替えてもよい。
このようにポインタPoの表示を開始するときに、このときのカメラ画像をディスプレイ120に表示するようにすれば、どの操作者のどの手の動きに応じてポインタPoの表示が開始されたのかを、操作者に対して容易に認識させることができる。
またこのようにカメラ画像を表示することで、ステレオカメラ102の撮像範囲、すなわち操作者の手の動きをTV受像機101が検出し得る範囲を操作者に認識させることもできる。
さらにカメラ画像から新たな人物を検出したときに、カメラ画像を表示するなどしてもよい。
因みに、カメラ画像からは単にステレオカメラ102の前方を通り過ぎた人物などが検出されてしまうことがある。そこで、例えば、カメラ画像から検出した人物が、所定時間カメラ画像内に留まった場合に、この人物を操作者と認識するようにしてもよい。
さらに、例えば、操作者による意図しないハンドジェスチャを排除する為に、例えば、手の動きを検出してから、一定時間経過した後に、この手に対応するポインタPoを表示するようにしてもよい。
[2−7.他の実施の形態7]
さらに上述した実施の形態の具体例では、画像一覧画面130の上側3分の2を画像表示領域130A、下側3分の1を操作者表示領域130Bとして、操作者表示領域130Bに操作者アイコンUiを表示させるようにした。
これに限らず、画像表示領域130Aと操作者表示領域130Bの位置及び大きさについては限定しない。例えば、上側4分の1を操作者表示領域130Bに、下側4分の3を画像表示領域130Aとして、操作者表示領域130Bに操作者アイコンUiを表示させるようにするなどしてもよい。また画像一覧画面130の画面全体を画像表示領域130Aとして、この画像表示領域130Aに画像アイコンPiと共に操作者アイコンUiを表示させるようにしてもよい。
この場合、CPU112は、左右を反転させディスプレイ120の解像度に変換したカメラ画像から、操作者A〜Dの各々の顔領域の座標を得る。そして、CPU112は、画像表示領域130A内の、操作者A〜Dの各々の顔領域の座標に対応する位置に、操作者アイコンUiA〜UiDを表示させる。
[2−8.他の実施の形態8]
さらに上述した実施の形態の具体例では、携帯端末103がステレオカメラ102の撮像範囲外に位置し、この携帯端末103に対応する操作者アイコンUiEを、操作者表示領域130B内の空き領域に表示するようにした。
ここで、例えば、携帯端末103がステレオカメラ102の撮像範囲内に位置しているとする。このとき、TV受像機101のCPU112は、カメラ画像からこの携帯端末103を検出して、カメラ画像内での位置を得る。さらにCPU112は、この携帯端末103の位置から見て所定範囲内で最も近い位置にある操作者の手を、この携帯端末103を操作する手と判別する。
このようにして、CPU112は、携帯端末103とこの携帯端末103を操作している操作者との対応関係を判別する。そしてCPU112は、この対応関係に基づき、例えば、携帯端末103に対応する操作者アイコンUiEを、この携帯端末103を操作している操作者に対応する操作者アイコンUiの近傍に表示させるようにする。具体的には、携帯端末103に対応する操作者アイコンUiEを、操作者アイコンUiに隣接させて、または一部が重なるように表示させる。
このようにステレオカメラ102で捉えた操作者のうちの携帯端末103を操作している操作者を判別できる場合には、この操作者に対応する操作者アイコンUiの近傍に、携帯端末103に対応する操作者アイコンUiEを表示させる。
[2−9.他の実施の形態9]
さらに上述した実施の形態の具体例では、情報処理装置としてのTV受像機101に、認識部、制御部、検出部としてのCPU112を設けるようにした。
本発明はこれに限らず、同様の機能を有するのであれば、上述したTV受像機101の各機能部(認識部、制御部、検出部)を、他の種々のハードウェアもしくはソフトウェアにより構成するようにしてもよい。
さらに上述した実施の形態の具体例では、TV受像機101とステレオカメラ102とで構成される多人数同時操作システム100に本発明を適用するようにした。これに限らず、同時に複数の操作者で操作し得るシステムであれば、この他種々のシステムに適用するようにしてもよく、また適用することができる。例えば、パーソナルコンピュータとディスプレイとステレオカメラとで構成されるシステムなどに適用するようにしてもよい。
[2−10.他の実施の形態10]
さらに上述した実施の形態の具体例では、各種処理を実行するためのプログラムを、TV受像機101の不揮発性メモリ113に書き込んでおくようにした。
これに限らず、このプログラムを例えば光ディスク、メモリカードなどの記録媒体に書き込んでおき、TV受像機101のCPU112が、この記憶媒体からプログラムを読み出すようにしてもよい。この場合、例えば、TV受像機101の外部インタフェース110に記録媒体のドライブを接続するようにする。
またTV受像機101に、ネットワークインタフェースを設けて、このプログラムを、ネットワークインタフェース経由でダウンロードして不揮発性メモリ113にインストールするようにしてもよい。
[2−11.他の実施の形態11]
さらに本発明は、上述した実施の形態の概要及び具体例と他の実施の形態とに限定されるものではない。すなわち本発明は、上述した実施の形態の概要及び具体例と他の実施の形態の一部または全部を任意に組み合わせた形態、もしくは一部を抽出した形態にもその適用範囲が及ぶものである。
さらに上述した実施の形態の概要及び具体例と他の実施の形態は一例であり、本発明の要旨を逸脱しない範囲であれば、この他、種々の形態に本発明を適用するようにしてもよく、また適用することができる。
本発明は、例えば、複数の操作者が同時に操作し得るGUIを実装する情報処理装置で広く利用することができる。
1……情報処理装置、2……認識部、3……制御部、4……検出部、100……多人数同時操作システム、101……TV受像機、102……ステレオカメラ、103……携帯端末、112……CPU、120……ディスプレイ、122……撮像部、130、200……画像一覧画面、130A、200A……画像表示領域、130B、200B……操作者表示領域、200C……通信相手表示領域、Pi……画像アイコン、Po……ポインタ、Ui……操作者アイコン、St……紐。

Claims (12)

  1. 操作主体と、当該操作主体による指示とを対応付けて認識する認識部と、
    上記認識部が認識した操作主体を示す第1の表示情報と、上記操作主体による指示に応じて操作される第2の表示情報とを表示部に表示させ、さらに操作主体と当該操作主体による指示との対応関係に基づいて、当該第1の表示情報と当該第2の表示情報との関連性を示す関連情報を上記表示部に表示させる制御部と
    を具える情報処理装置。
  2. 上記制御部は、
    上記第1の表示情報と上記第2の表示情報との間を繋ぐ線を上記関連情報として表示させる
    請求項1に記載の情報処理装置。
  3. 上記制御部は、
    上記第2の表示情報の操作に応じて、上記関連情報としての線をたわませる
    請求項2に記載の情報処理装置。
  4. 上記制御部は、
    上記第2の表示情報の操作に応じて、上記関連情報としての線を太くする
    請求項2に記載の情報処理装置。
  5. 上記制御部は、
    上記第2の表示情報の操作が所定時間行われなかった場合に、当該第2の表示情報を非表示にする
    請求項1に記載の情報処理装置。
  6. 上記制御部は、
    上記第2の表示情報の操作が開始されると当該第2の表示情報を上記第1の表示情報の位置に表示させてから移動させ、操作が終了すると当該第2の表示情報を上記第1の表示情報の位置に移動させてから非表示にする
    請求項5に記載の情報処理装置。
  7. さらにカメラ画像から上記操作主体としての操作者を検出する検出部を具え、
    上記認識部は、
    上記検出部により検出された操作者の顔と当該操作者の手の動きとに基づき、操作者と当該操作者による指示とを対応付けて認識し、
    上記制御部は、
    上記検出部により検出された操作者の顔画像を上記第1の表示情報として表示させ、当該操作者の手の動きに応じて上記第2の表示情報の表示位置を移動させる
    請求項2に記載の情報処理装置。
  8. 上記制御部は、
    上記検出部により検出された操作者の上記カメラ画像内での位置と対応する位置に、上記第1の表示情報を表示させる
    請求項7に記載の情報処理装置。
  9. 上記認識部は、
    上記操作主体としての外部機器と、当該外部機器からの入力信号とに基づき、外部機器と当該外部機器による指示とを対応付けて認識する
    請求項1に記載の情報処理装置。
  10. 上記認識部は、
    ネットワークを介して指示を出す操作主体と、ネットワークを介さずに直接指示を出す操作主体とを認識し、
    上記制御部は、
    上記認識部の認識結果に基づき、ネットワークを介して指示を出す操作主体に対応する第1の表示情報を第1の表示領域内に表示させ、ネットワークを介さずに直接指示を出す操作主体に対応する第1の表示情報を第2の表示領域内に表示させる
    請求項1に記載の情報処理装置。
  11. 情報処理装置が、
    操作主体と、当該操作主体による指示とを対応付けて認識し、
    認識した操作主体を示す第1の表示情報と、上記操作主体による指示に応じて操作される第2の表示情報とを表示部に表示させ、さらに操作主体と当該操作主体による指示との対応関係に基づいて、当該第1の表示情報と当該第2の表示情報との関連性を示す関連情報を上記表示部に表示させる
    表示制御方法。
  12. コンピュータに、
    操作主体と、当該操作主体による指示とを対応付けて認識する認識ステップと、
    上記認識ステップで認識した操作主体を示す第1の表示情報と、上記操作主体による指示に応じて操作される第2の表示情報とを表示部に表示させ、さらに操作主体と当該操作主体による指示との対応関係に基づいて、当該第1の表示情報と当該第2の表示情報との関連性を示す関連情報を上記表示部に表示させる表示ステップと
    を実行させるための表示制御プログラム。
JP2009204957A 2009-09-04 2009-09-04 情報処理装置、表示制御方法及び表示制御プログラム Expired - Fee Related JP5343773B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2009204957A JP5343773B2 (ja) 2009-09-04 2009-09-04 情報処理装置、表示制御方法及び表示制御プログラム
US12/859,060 US8687845B2 (en) 2009-09-04 2010-08-18 Information processing apparatus, method for controlling display, and program for controlling display
EP10174394.6A EP2306272B1 (en) 2009-09-04 2010-08-27 Information processing apparatus, method for controlling display and program for controlling display
BRPI1003250-9A BRPI1003250A2 (pt) 2009-09-04 2010-08-27 mÉtodo para administrar conteédo apresentado em um monitor, e, aparelho para administrar conteédo exibido em uma tela de exibiÇço
CN201010266911.0A CN102012780B (zh) 2009-09-04 2010-08-27 用于管理在显示器上呈现的内容的方法和设备
RU2010136267/08A RU2010136267A (ru) 2009-09-04 2010-08-27 Устройство для обработки информации, способ управления дисплеем и программа для управления дисплеем

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009204957A JP5343773B2 (ja) 2009-09-04 2009-09-04 情報処理装置、表示制御方法及び表示制御プログラム

Publications (2)

Publication Number Publication Date
JP2011054117A true JP2011054117A (ja) 2011-03-17
JP5343773B2 JP5343773B2 (ja) 2013-11-13

Family

ID=43242809

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009204957A Expired - Fee Related JP5343773B2 (ja) 2009-09-04 2009-09-04 情報処理装置、表示制御方法及び表示制御プログラム

Country Status (6)

Country Link
US (1) US8687845B2 (ja)
EP (1) EP2306272B1 (ja)
JP (1) JP5343773B2 (ja)
CN (1) CN102012780B (ja)
BR (1) BRPI1003250A2 (ja)
RU (1) RU2010136267A (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012244498A (ja) * 2011-05-20 2012-12-10 Sharp Corp 画像処理システム、画像処理装置、及び、指示受付装置
EP2533143A2 (en) 2011-06-07 2012-12-12 Sony Corporation Information processing apparatus, information processing method, and program
JP2013030140A (ja) * 2011-07-29 2013-02-07 Toshiba Corp 映像処理装置及び映像処理方法
JP2014153792A (ja) * 2013-02-06 2014-08-25 Mitsubishi Electric Corp 電子機器
JP2015135572A (ja) * 2014-01-16 2015-07-27 キヤノン株式会社 情報処理装置とその制御方法
JP2016513833A (ja) * 2013-03-04 2016-05-16 マイクロソフト テクノロジー ライセンシング,エルエルシー デバイスへの特定のオブジェクト位置の提供
WO2017047182A1 (ja) * 2015-09-18 2017-03-23 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2017068468A (ja) * 2015-09-29 2017-04-06 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US11693538B2 (en) 2012-12-17 2023-07-04 Interdigital Madison Patent Holdings, Sas Method for activating a mobile device in a network, and associated display device and system

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4804277B2 (ja) * 2006-08-30 2011-11-02 キヤノン株式会社 画像処理装置、携帯端末装置及び画像処理システム
JP5605725B2 (ja) * 2010-11-10 2014-10-15 日本電気株式会社 情報報知システム、情報報知方法、情報処理装置及びその制御方法と制御プログラム
US8847881B2 (en) 2011-11-18 2014-09-30 Sony Corporation Gesture and voice recognition for control of a device
CN103491848B (zh) * 2011-12-26 2015-10-07 奥林巴斯医疗株式会社 医疗用内窥镜系统
EP2613226A1 (en) * 2012-01-05 2013-07-10 Alcatel Lucent Initiating a logical connection between two devices using eye-gazing detection
US20140003674A1 (en) * 2012-06-27 2014-01-02 Christopher D. Coley Skin-Based User Recognition
KR20140020568A (ko) * 2012-08-09 2014-02-19 삼성전자주식회사 디스플레이 장치 및 이의 제어 방법
JP6011165B2 (ja) * 2012-08-31 2016-10-19 オムロン株式会社 ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム
KR101621524B1 (ko) * 2012-11-02 2016-05-31 삼성전자 주식회사 디스플레이장치 및 그 제어방법
SE536989C2 (sv) * 2013-01-22 2014-11-25 Crunchfish Ab Förbättrad återkoppling i ett beröringsfritt användargränssnitt
CN104461324B (zh) * 2013-09-16 2017-12-29 联想(北京)有限公司 一种信息处理方法以及电子设备
US20150139483A1 (en) * 2013-11-15 2015-05-21 David Shen Interactive Controls For Operating Devices and Systems
US10102423B2 (en) * 2016-06-30 2018-10-16 Snap Inc. Object modeling and replacement in a video stream
USD800780S1 (en) * 2016-10-21 2017-10-24 Microsoft Corporation Display screen with animated graphical user interface
USD803889S1 (en) * 2016-10-21 2017-11-28 Microsoft Corporation Display screen with animated graphical user interface
CN112817437A (zh) * 2019-11-15 2021-05-18 苹果公司 用于可变用途的经着色视觉标记

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63231487A (ja) * 1987-03-20 1988-09-27 株式会社東芝 十字カ−ソルの表示方法
JPH04328627A (ja) * 1991-04-30 1992-11-17 Nippon Telegr & Teleph Corp <Ntt> カーソル表示方法
JPH08279998A (ja) * 1995-04-07 1996-10-22 Fuji Facom Corp 共同作業支援用計算機システム
JPH09247638A (ja) * 1996-03-04 1997-09-19 Atsushi Matsushita テレビ会議システム
JPH10257151A (ja) * 1997-03-14 1998-09-25 Kokusai Electric Co Ltd 携帯電話機
JP2001157184A (ja) * 1999-11-22 2001-06-08 Hitachi Ltd 画面共有端末装置とその表示方法
WO2009042579A1 (en) * 2007-09-24 2009-04-02 Gesturetek, Inc. Enhanced interface for voice and video communications

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0657833A2 (en) * 1993-12-13 1995-06-14 International Business Machines Corporation Workstation conference pointer-user association mechanism
US6501515B1 (en) * 1998-10-13 2002-12-31 Sony Corporation Remote control system
JP3725460B2 (ja) * 2000-10-06 2005-12-14 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP2002259989A (ja) * 2001-03-02 2002-09-13 Gifu Prefecture ポインティングジェスチャ検出方法及びその装置
JP3926837B2 (ja) * 2004-06-04 2007-06-06 松下電器産業株式会社 表示制御方法および装置、プログラム、並びに携帯機器
US20060087510A1 (en) * 2004-09-01 2006-04-27 Nicoletta Adamo-Villani Device and method of keyboard input and uses thereof
CN101394500B (zh) * 2005-12-14 2010-11-17 日本胜利株式会社 电子设备及其控制方法
US7969418B2 (en) * 2006-11-30 2011-06-28 Cherif Atia Algreatly 3-D computer input device and method
JP4720738B2 (ja) * 2006-12-20 2011-07-13 日本ビクター株式会社 電子機器
CN101952818B (zh) * 2007-09-14 2016-05-25 智慧投资控股81有限责任公司 基于姿态的用户交互的处理
JP5228439B2 (ja) * 2007-10-22 2013-07-03 三菱電機株式会社 操作入力装置
US20090201249A1 (en) * 2007-12-07 2009-08-13 Sony Corporation Input apparatus, control apparatus, control system, and handheld apparatus
JP5412812B2 (ja) 2007-12-07 2014-02-12 ソニー株式会社 入力装置、制御装置、制御システム、及びハンドヘルド装置
US20100053151A1 (en) * 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63231487A (ja) * 1987-03-20 1988-09-27 株式会社東芝 十字カ−ソルの表示方法
JPH04328627A (ja) * 1991-04-30 1992-11-17 Nippon Telegr & Teleph Corp <Ntt> カーソル表示方法
JPH08279998A (ja) * 1995-04-07 1996-10-22 Fuji Facom Corp 共同作業支援用計算機システム
JPH09247638A (ja) * 1996-03-04 1997-09-19 Atsushi Matsushita テレビ会議システム
JPH10257151A (ja) * 1997-03-14 1998-09-25 Kokusai Electric Co Ltd 携帯電話機
JP2001157184A (ja) * 1999-11-22 2001-06-08 Hitachi Ltd 画面共有端末装置とその表示方法
WO2009042579A1 (en) * 2007-09-24 2009-04-02 Gesturetek, Inc. Enhanced interface for voice and video communications

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012244498A (ja) * 2011-05-20 2012-12-10 Sharp Corp 画像処理システム、画像処理装置、及び、指示受付装置
EP2533143A2 (en) 2011-06-07 2012-12-12 Sony Corporation Information processing apparatus, information processing method, and program
JP2013030140A (ja) * 2011-07-29 2013-02-07 Toshiba Corp 映像処理装置及び映像処理方法
US11693538B2 (en) 2012-12-17 2023-07-04 Interdigital Madison Patent Holdings, Sas Method for activating a mobile device in a network, and associated display device and system
JP2014153792A (ja) * 2013-02-06 2014-08-25 Mitsubishi Electric Corp 電子機器
JP2016513833A (ja) * 2013-03-04 2016-05-16 マイクロソフト テクノロジー ライセンシング,エルエルシー デバイスへの特定のオブジェクト位置の提供
US10139925B2 (en) 2013-03-04 2018-11-27 Microsoft Technology Licensing, Llc Causing specific location of an object provided to a device
JP2015135572A (ja) * 2014-01-16 2015-07-27 キヤノン株式会社 情報処理装置とその制御方法
WO2017047182A1 (ja) * 2015-09-18 2017-03-23 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US10564712B2 (en) 2015-09-18 2020-02-18 Sony Corporation Information processing device, information processing method, and program
JP2017068468A (ja) * 2015-09-29 2017-04-06 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
EP2306272A2 (en) 2011-04-06
CN102012780B (zh) 2014-01-15
US20110058711A1 (en) 2011-03-10
CN102012780A (zh) 2011-04-13
US8687845B2 (en) 2014-04-01
RU2010136267A (ru) 2012-03-10
EP2306272A3 (en) 2016-10-19
BRPI1003250A2 (pt) 2013-01-08
EP2306272B1 (en) 2020-01-22
JP5343773B2 (ja) 2013-11-13

Similar Documents

Publication Publication Date Title
JP5343773B2 (ja) 情報処理装置、表示制御方法及び表示制御プログラム
JP7297216B2 (ja) 拡張現実システムのためのタッチフリーインターフェース
US10678340B2 (en) System and method for providing user interface tools
JP6057396B2 (ja) 3次元ユーザインタフェース装置及び3次元操作処理方法
JP5936155B2 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
CN109739361B (zh) 基于眼睛跟踪的可见度提高方法和电子装置
JP5871345B2 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
JP5966510B2 (ja) 情報処理システム
JP5724543B2 (ja) 端末装置、オブジェクト制御方法及びプログラム
CN110456907A (zh) 虚拟画面的控制方法、装置、终端设备及存储介质
JP6392881B2 (ja) 応用素子の代替的グラフィック表示の事前の生成による入力に対する低レイテンシの視覚的応答およびグラフィック処理ユニットの入力処理
JP2024010181A (ja) 頭部装着型画像ディスプレイデバイスのための入力を提供するための方法および装置
US20160349972A1 (en) Data browse apparatus, data browse method, and storage medium
JPWO2010095204A1 (ja) インターフェース制御装置、及びその方法
KR20200040716A (ko) 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치
CN113498531A (zh) 头戴式信息处理装置以及头戴式显示系统
CN111240483B (zh) 操作控制方法、头戴式设备及介质
JP7279113B2 (ja) 画像処理装置、画像処理方法、コンピュータプログラム
KR102312601B1 (ko) 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치
US11449135B2 (en) Terminal apparatus and method for controlling terminal apparatus
JP7401245B2 (ja) 画像合成装置、画像合成装置の制御方法およびプログラム
JP5676959B2 (ja) 情報処理装置及びその制御方法
US20220375026A1 (en) Late warping to minimize latency of moving objects
KR20210125465A (ko) 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치
WO2022246384A1 (en) Late warping to minimize latency of moving objects

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120710

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130716

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130729

R151 Written notification of patent or utility model registration

Ref document number: 5343773

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees