JP2012018620A - 情報処理装置およびその制御方法 - Google Patents

情報処理装置およびその制御方法 Download PDF

Info

Publication number
JP2012018620A
JP2012018620A JP2010156925A JP2010156925A JP2012018620A JP 2012018620 A JP2012018620 A JP 2012018620A JP 2010156925 A JP2010156925 A JP 2010156925A JP 2010156925 A JP2010156925 A JP 2010156925A JP 2012018620 A JP2012018620 A JP 2012018620A
Authority
JP
Japan
Prior art keywords
hand
operator
display
size
shadow image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010156925A
Other languages
English (en)
Other versions
JP2012018620A5 (ja
JP5665396B2 (ja
Inventor
Kenichiro Nakagawa
賢一郎 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010156925A priority Critical patent/JP5665396B2/ja
Publication of JP2012018620A publication Critical patent/JP2012018620A/ja
Publication of JP2012018620A5 publication Critical patent/JP2012018620A5/ja
Application granted granted Critical
Publication of JP5665396B2 publication Critical patent/JP5665396B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】 操作者の手が届かないようなオブジェクト画像に対して種々の操作を行えるようにするユーザーインタフェースを提供する。
【解決手段】 ディスプレイに表示されたオブジェクト画像を操作する情報処理装置であって、操作者の手の位置および形状を検出する検出手段と、仮想光源および前記操作者の手の位置により定まる前記ディスプレイにおける位置に、前記仮想光源および前記操作者の手の位置により定まるサイズで、前記手の影に相当する仮想画像を表示させる表示制御手段と、前記手の位置および形状に基づいて、前記オブジェクト画像を選択する選択手段と、前記手の位置および形状に基づいて、前記選択中のオブジェクト画像を開放する開放手段とを備え、前記表示制御手段は、前記選択時および開放時の仮想画像のサイズに応じて、前記開放後の前記選択中のオブジェクト画像の表示状態を変更する。
【選択図】 図4

Description

本発明は、画面上に表示されたオブジェクト画像を操作するグラフィカルユーザインターフェースに関する。
近年、テーブル型のディスプレイなどが登場し、操作者は、このディスプレイにタッチするなどしてこのディスプレイ上に表示されたオブジェクト画像を操作することができる。
操作者の手が届かないところにあるオブジェクト画像を操作する技術として、仮想的な手の影などを用いて、オブジェクト画像を操作することが知られている。
Shoemaker,G.,Tang,A.and Booth,In Proc.of UIST ‘07,pp.53−56(2007)
特開2010−072840 特開2010−036731 特開2009−230168 特開2007−276615 特開2007−237986 特開2004−297766
従来、操作者の手の影を用いた操作は、あまり多く存在しない。例えば従来例では、操作者の手が届かないオブジェクト画像に自分の手の影を合わせることによって選択し、そのまま手の影を他の場所に移動して開放することにより、上記オブジェクト画像を移動することができる。しかしながら、上記オブジェクト画像を例えば拡大したりすることまではできない。
本発明は上記従来例に鑑みて成されたものであり、操作者の手が届かないようなオブジェクト画像に対して種々の操作を行えるようにするユーザーインタフェースを提供することを目的とする。
上記課題を解決するため、例えば請求項1に記載の情報処理装置によれば、ディスプレイに表示されたオブジェクト画像を操作する情報処理装置であって、操作者の手の位置および形状を検出する検出手段と、仮想光源および前記操作者の手の位置により定まる前記ディスプレイにおける位置に、前記仮想光源および前記操作者の手の位置により定まるサイズで、前記手の影に相当する仮想画像を表示させる表示制御手段と、前記手の位置および形状に基づいて、前記オブジェクト画像を選択する選択手段と、前記手の位置および形状に基づいて、前記選択中のオブジェクト画像を開放する開放手段とを備え、前記表示制御手段は、前記選択時および開放時の仮想画像のサイズに応じて、前記開放後の前記選択中のオブジェクト画像の表示状態を変更することを特徴とする。
以上の構成によれば、操作者の手が届かないようなオブジェクト画像に対して、単なるオブジェクト画像の選択、開放だけに限らず、種々の操作を行うことが可能となる。
ユーザインタフェース表示装置の機能構成図 ユーザインタフェース表示装置のフローチャート 手の影画像を生成する例を示す図 オブジェクト画像の拡大や縮小を行う様子を示す例 オブジェクト画像の拡大や縮小を行う様子を示す例 オブジェクト画像の配置を変更する様子を示す例 複数の操作者により操作する様子を説明する図 複数の操作者により操作する様子を説明する図 ユーザインタフェース表示装置のフローチャート
(実施形態1)
図1は、本発明に適用できる情報処理装置(以降では、ユーザインタフェース表示装置と呼ぶ)の機能構成図である。ユーザインタフェース表示装置101は、装置外部のディスプレイ102とカメラ103に接続している。ここでは、ユーザインタフェース表示装置101は、ディスプレイ102とカメラ103を装置内部に備えていないものとして説明するが、本発明はこれに限らない。例えば、ユーザインタフェース表示装置101は、ディスプレイ102を装置内部に備えていても良いし、カメラ103を装置内部に備えていても良い。
カメラ103は、操作者、特に操作者の手を撮影するものである。また、この手の位置や形状は、装置内部の手の位置・形状検出部105によって検出される。本実施形態では、カメラ103ではなく、手の位置・形状検出部105によって操作者の手の位置や形状の詳細を検出することとするが、本発明はこれに限らない。例えば、カメラ103が上記検出機能を備え、検出部105のほうは検出結果を示す情報だけを取得しても良いであろう。手の位置・形状検出部105で検出された手の位置を表す情報(位置情報)は、手の影画像生成部107に出力される。手の位置・形状検出部105で検出された手の形状を示す情報(形状情報)は、ハンドジェスチャ認識部106に送られる。ここでは、公知の技術により操作者の手の形状を認識し、操作者の指示がどのようなシステムコマンドであるかを認識するものとする。例えば、このジェスチャ認識が「選択状態」、「開放状態」を認識するべき場合には、手の形状は、上記2つの認識結果の何れかに対応付けられることになる。「選択状態」の手の形状とは、何かを掴んでいるような手の形状であり、「開放状態」の手の形状とは、「選択状態」以外の手の形状を設定しておく必要がある。ハンドジェスチャ認識部106で認識された操作者の手の形状は、オブジェクト操作部108に送られる。
手の影画像生成部107では、上記手の位置(位置情報)に応じ、操作者の手の影を模した仮想画像(以下、手の影画像と呼ぶ)を生成する。以下に、手の影画像を生成する例を示す。図3は、手の影画像を生成する例を示す図である。まず、ディスプレイ102(図3におけるディスプレイ303)に表示する手の影画像の位置を算出する。本実施形態では、手の影画像を生成するための基準となる仮想光源を設定する。この仮想光源301の位置は、XYZ座標として(A,B,C)とする。また、検出部105が検出する操作者の手の位置302は、XYZ座標として(a,b,c)であるとする。このとき、この2点を通る直線の方程式は、
(x−A)/(a−A)=(y−B)/(b−B)=(z−C)/(c−C) ...(1)
である。このときのxは、X軸上の変数、yはY軸上の変数、zはZ軸上の変数である。
ここで、ディスプレイ(303)の高さzをTcと置くと、上記式(1)は
(x−A)/(a−A)=(y−B)/(b−B)=(Tc−C)/(c−C) ...(2)
となる。そしてx、yの値を求めると、
x=(Tc−C)/(c−C)*(a−A)+A ...(3)
y=(Tc−C)/(c−C)*(b−B)+B ...(4)
となる。
以上から、仮想光源301から出た光が操作者の手を照らしたときの、ディスプレイ上の手の影画像304の座標は、
((Tc−C)/(c−C)*(a−A)+A,(Tc−C)/(c−C)*(b−B)+B,Tc) ...(5)
となる。
ここで、ディスプレイ303はテーブル型デバイスであることを想定しているので、ディスプレイ303上では、Z軸は考慮しなくても良い。よって、(5)の3次元座標からZ軸は無視して、
((Tc−C)/(c−C)*(a−A)+A,(Tc−C)/(c−C)*(b−B)+B) ...(6)
の2次元上の位置に手の影画像304を表示すれば良い。ディスプレイ303の高さをTcと、仮想光源の位置(A,B,C)については、設計時に予め決定することが可能である。よって、手の影画像304を表示するべき座標は、上述したような計算によって算出できるであろう。
手の影画像生成部107は、ディスプレイ上に投影する手の影画像304の大きさも決定する。手の影画像の大きさは、操作者の手の大きさを直径Mの球、仮想光源が面積0の点と仮定すると、
手の影の大きさ=M*仮想光源から手の影までの距離/仮想光源から手までの距離 ...(7)
となる。さらに、式(7)を展開すると、
手の影の大きさ=
M*(((Tc−C)/(c−C)*(a−A))^2+((Tc−C)/(c−C)*(b−B))^2+(C−Tc)^2)^0.5/((A−a)^2+(B−b)^2+(C−c)^2)^0.5=M*(Tc−C)/(c−C) ...(8)
となる。
仮に、仮想光源の位置が(300,0,200)であり、操作者の手の位置が(250,0,120)であり、テーブルの高さが70cm、操作者の手が直径10cmの球である場合を考える。このとき、高さ70cmのディスプレイ上に表示される手の影画像の座標は、式(5)により(X=218.75,Y=0、Z=70)となり、その手の影画像の大きさは、式(8)により直径16.25となる。
以上の方法によって、手の影画像生成部107は「手の影画像」を生成し、これをディスプレイ102上に表示させる。
オブジェクト操作部108は、ハンドジェスチャ認識部106で認識された認識結果と、手の影画像生成部107で生成された手の影画像に基づき、ディスプレイ102(図3ではディスプレイ303)上に表示されているオブジェクト画像の操作を行う。以下では、このオブジェクト画像をオブジェクトと呼ぶ。このオブジェクトとは、写真や動画や文書などのコンテンツであり、それらを画面上で変形あるいは移動できるような状態で表示している画像に相当する。例えば、ハンドジェスチャ認識部106によるジェスチャ認識結果として、操作者の手の形状が「選択状態」に変わったと判断された場合には、手の影画像の下にあるオブジェクトを選択状態にする。さらに、そのときの手の影画像の大きさも内部データとして保持しておく。一方、ジェスチャ認識結果として、操作者の手の形状が「開放状態」に変わったと判断された場合には、上記選択状態にあるオブジェクトを開放する。さらに、そのときの手の影画像の大きさと、選択状態に変化したときに保持しておいた手の影画像の大きさに応じて、開放時のオブジェクトを変換させる。ここで開放とは、次にそのオブジェクトが選択状態になるまで、現在表示されているディスプレイ上の位置への表示を継続することに相当する。また変換とは例えばオブジェクトの拡大や縮小に相当する。
ユーザインタフェース表示部104は、種々の表示制御機能を備えており、特に本実施形態では、ディスプレイ102上に表示されているオブジェクトに重ねるようにして、上述した手の影画像の表示を行う。
以上の各部の動作によって、オブジェクトの選択と開放だけでなく、手の影画像を拡大したり縮小したりすることができる。
図2は、ユーザインタフェース表示装置101の動作手順を示すフローチャートである。この装置101が起動すると、ステップS201以降の処理を開始する。ステップS201では、カメラ103および手の位置・形状検出部105によって、操作者の手の位置・形状を取得する。ステップS202では、手の影画像生成部107によって、上述したような方法を用いて、操作者の手の位置から手の影画像を生成する。ステップS203では、ユーザインタフェース表示部104およびディスプレイ102によって、以上で生成された手の影画像が表示される。ステップS204では、ハンドジェスチャ認識部106によって、操作者の手の形状(ハンドジェスチャ)を操作コマンドとして認識する。ステップS205では、操作コマンドが認識されたかどうか判定する。もし、特定の操作コマンドが認識された場合にはステップS206に進む。もし特定の操作コマンドが認識されない場合には、ステップS201からステップS205までの工程を繰り返す。ステップS206では、認識結果が「選択状態」に変わったかどうかを判定する。もし「選択状態」に変わったと判定された場合、ステップS207に進む。もし、認識結果が「選択状態」に変わっていないと判定された場合、ステップS209に進む。ステップS207では、内部変数SIZEに現在の手の影画像の大きさを代入する。ステップS208では、現在の手の影画像下にあるオブジェクトを選択状態に変える。ステップS209では、認識結果が「開放状態」に変わったかどうかを判定する。もし「開放状態」に変わった場合には、現在の手の影画像の大きさ、変数SIZEに保持された選択時の手の影画像の大きさ、現在の手の影画像の位置を用いて、これまで選択中であったオブジェクトを拡大あるいは縮小などして変換する。そして、この変換されたオブジェクトが、開放後にディスプレイ102に表示されるオブジェクトとなる。以上によって、オブジェクトの選択時および開放時の手の影画像(仮想画像)のサイズに応じて、開放後におけるオブジェクトの表示状態を変更する。
以上のように、本実施形態のユーザインタフェース表示装置を用いることにより、従来の手の影画像を用いたオブジェクトの操作に対して、手の影画像の大きさを利用して、細かい操作が可能となる。本実施形態のユーザインタフェース表示装置は、この手の影画像の大きさ制御に影のメタファを利用しているため、操作者は比較的容易にこの仕組みを理解することが可能となる。
<オブジェクト変換の例1>
以下では、操作者によって変動される「手の影画像の大きさ」を利用して、オブジェクトの拡大や縮小を行う例を説明する。図4は操作者401が「手の影画像の大きさ」を変動させている様子を横から見た図である。図5は上記図4と同じものをディスプレイの正面から見た図である。図4、図5において、同じものには同じ番号を与えている。更に、図4(a)および図5(a)は、操作者がオブジェクトの選択を行ったときの「選択状態」の様子を示し、図4(b)および図5(b)は、操作者がオブジェクトの開放を行ったときの「開放状態」の様子を示す。なお、図中のディスプレイ406は、以前に説明したディスプレイ303、ディスプレイ102と同じものであり、操作者401は、操作者305と同じである。
本実施形態のユーザインタフェース表示装置101は、操作者401の手403の位置と、仮想光源402の位置とに基づいて、手の影画像404を生成する。なお、手の影画像の作成方法は上述したとおりである。手の影画像404はディスプレイ406上に表示される。また、ディスプレイ406には、手の影画像404以外のオブジェクト405が表示されており、操作者の手を移動させ、手の影画像404を移動させることによって、これらのオブジェクトを操作することができる。
例えば、操作者401が手を移動させることでオブジェクト405に手の影画像404を移動させ、「手で何かを掴む動作」を行うジェスチャを行ったとする。この場合には、ユーザインタフェース表示装置101は、上述したように、上記ジェスチャが選択状態を指示する操作コマンドであると認識し、手の影画像が表示されている位置に表示されたオブジェクトを選択状態にする。そして、操作者401がその選択状態を保持したまま(即ち、「手で何かを掴んだ状態」を維持したまま)、操作者の手を仮想光源402のほうに近づける。上述した手の影画像の生成方法に基づけば、この近づけた状態の手407に相当する手の影画像408は、手の影画像404よりも大きく表示されることになる。
ここで、操作者401が「開放状態」に相当するジェスチャを行った場合には、ユーザインタフェース表示装置101は、「開放状態」と認識し、現在選択しているオブジェクトを開放する。本実施形態では、この開放が起こったときに、上記オブジェクトが選択状態になったときの手の影画像404の大きさと、開放状態になったときの手の影画像408の大きさの比率を計算する。言い換えれば、操作者401がオブジェクトを選択したときの手の影画像と、オブジェクトを開放したときの手の影画像の大きさの比率を計算する。この比率(開放時の手の影画像の大きさ/選択時の手の影画像の大きさ)によって、選択時と比べて、開放時のオブジェクトの大きさを決定する。この開放時のオブジェクトの大きさ(表示サイズ)は、例えば以下のようにして決定すれば良い。
開放時のオブジェクトの大きさ =
選択時のオブジェクトの大きさ*(開放時の手の影画像の大きさ/選択時の手の影画像の大きさ) ...(9)
なお、本実施形態では、開放時にオブジェクトの大きさを変更するものとするが、本発明はこれに限らない。例えば、装置101が、開放する候補となる手の影画像408の大きさをリアルタイムに検知できる計算能力がある場合を考える。このような場合には、開放前であっても、手の影画像408の大きさをリアルタイムに検知して、現在選択中のオブジェクト(開放候補であるオブジェクト)の大きさを適宜変更しても良いであろう。
以上によれば、操作者が、「手の影画像の表示位置をオブジェクトに合わせる」「何かを握るジェスチャを行う」「自分の手を仮想光源に近づけたり、遠ざけたりする」「上記ジェスチャをやめる」という簡単な動作で、オブジェクトの大きさも変更できる。
<オブジェクト変換の例2>
以下では、手の影画像の大きさを利用し、複数のオブジェクトの配置方法を制御する例を説明する。図6の(a)は、上述した「選択状態」に相当する様子を示す図であり、図6(b)は、上述した「開放状態」に相当する様子を示す図である。
図5と図6が異なる点は、図5では、手の影画像のサイズが変化すると、選択中のオブジェクトが拡大したり縮小したりする点に対して、図6では、手の影画像のサイズが変化すると、選択中の複数のオブジェクトの配置関係が変化する点である。なお、ディスプレイ603は上述したディスプレイ406と同様である。
例えば、操作者によって手の影画像601を移動させ、上述したジェスチャを入力することで複数のオブジェクト602を「選択状態」とする。次に、操作者は好きな様に手の影画像601を移動させる。このとき、操作者は自分の手を仮想光源から遠い位置に移動させることで手の影画像の大きさを小さく変更する。そして、このあと上述したジェスチャを入力することで「開放状態」とする。その結果、選択されていた複数のオブジェクトのそれぞれのサイズは変更されていないが、それら複数のオブジェクトが手の影画像の中央部分に集中的に配置された状態で表示される。即ち、選択中の複数のオブジェクトの配置関係を変化させる。
ここでは、選択時と開放時の手の影画像の大きさに応じて、選択中のオブジェクトの配置情報を変更してもよい。
S=開放時の手の影画像の大きさ/選択時の手の影画像の大きさ ...(10)
とし、個々のオブジェクトをオブジェクトAと(n=1、2、・・、Nの何れかとし、Nは選択中のオブジェクトの個数である)すると、
開放時のオブジェクトAのX座標 =
S*(オブジェクトAのX座標−選択時の手の影画像のX座標)
+開放時の手の影画像のX座標 ...(11)
開放時のオブジェクトAのY座標 =
S*(オブジェクトAのY座標−選択時の手の影画像のY座標)
+開放時の手の影画像のY座標 ...(12)
という式で算出される位置(X,Y)にそれぞれのオブジェクトAを配置するように、表示すれば良い。
以上によれば、操作者によって、選択時と開放時の手の影画像の大きさを変更することができ、それにより、各オブジェクトの配置を変更することができる。特に上記式11、12を用いた配置変更によれば、もともとのオブジェクトの配置関係をある程度保った状態で、開放時の手の影画像の領域に納まるように、それぞれのオブジェクトが再配置できる。
[変形例]
なお、以上の実施形態では、仮想光源の位置は予め設定していたが、本発明はこれに限らない。例えば、この仮想光源は、操作者の姿勢や、顔の向き、あるいは背の高さに応じて、適宜変更しても構わない。具体的には、本実施形態のユーザインタフェース表示装置101が操作者の頭頂部の位置を検出し、さらに操作者の顔の向きを取得できる機能を備える。そして、頭頂部の位置から顔の向きの反対方向に例えば50cmだけ移動した位置を仮想光源とする。このようにすれば、操作者の身長に合わせて適切な仮想光源が設定される。また、操作者が意図的に顔の向きを変更することによって、仮想光源の位置までもジェスチャ入力によって設定できることになる。
また、以上の実施形態は、複数の操作者によって操作されることも可能である。図7にその一例を示す。ここでは、複数の操作者701、702が存在する。そして、それぞれの仮想光源703、704を設定することによって、それぞれがオブジェクトに対して独立に操作が可能である。ただし、ディスプレイ上でどの操作者の手の影画像であるかが判別できるように、それぞれの操作者に相当する影画像は、異なる色で表示するものとする。具体的には、黒あるいはグレーで表示するのではなく、一方の操作者に対応する手の影画像はレッドとし、他方の操作者に対応する手の影画像はグリーンとすることにより、それぞれの手の影画像を識別可能となるであろう。さらに操作者が3人以上の場合には、レッド、グリーン、イエローなど出来るだけ別系色の色を採用すれば良いであろう。このようにすれば、万が一、手の影画像が重なった場合にも、その重なった領域まで認識できるであろう。
図8に、図7とは異なる幾つかの例も示す。例えば、複数の操作者によって操作される場合には、図8(a)のように、それぞれの手の影画像の周辺に、操作者のID801を表示することで、それぞれの操作者に対応する手の影画像を識別できる。また、図8(b)のように、それぞれの手の影画像を、その向きが判別できるような形状にしても良いであろう。手の影画像802には、手の影画像に指を表す画像が付随しているため、その手の影画像に対応する操作者の大まかな向きも識別できる。よって、操作者は、自分と同方向を向いている手の影画像を操作しているというように理解すれば良いであろう。また、上記方向を知るための別の方法として、図8(c)のように、手の影画像の代わりに、人体の影画像803を表示しても良いであろう。この人体の影画像803は、各操作者が向いている方向と同方向に頭部が存在する人体の形状を表示し、その人体の手の部分に上述した手の影画像に相当する部分を表示したものである。このようにすれば、各操作者が自分の体の方向と人体の影画像803の形状とを直感的に対比して、「自分の影画像が何れであるか」を正しく認識できる。
図9は、ユーザインタフェース表示装置101によって、上述した図8(b)の手の影画像802を表示する動作手順を示したものである。なお、図2と同じ処理に関しては同じ番号を付与し、詳細説明を省略するものとする。また、ここでは、ユーザインタフェース表示装置101が、ユーザインタフェース表示装置を操作している操作者が複数いることを検知した場合に、以下の動作手順を実行するものとする。まず、ステップS901では、変数Aに、最初に検知した操作者を設定する。例えば、変数Aに、最初に検知した操作者のID(操作者A)を代入する。次に、ステップS902では、その操作者Aの手の位置と形状を検知する。ステップS903では、その操作者Aが持つ仮想光源と検知した手の位置から手の影画像802を生成する。この手の影画像802は、操作者が、上下方向が理解できるような形状のものである。ステップS904では、手の影画像802をディスプレイに表示する。ステップS905では、ステップS902で取得した手の形状に基づいて、ハンドジェスチャの認識を行う。これ以降のハンドジェスチャの認識結果に基づく処理(ステップS206〜S210)は、図2で説明したものと同じである。ステップS907では、装置101が検知している全ての操作者のうち、操作者AとしてステップS902〜S906の処理をしていない操作者が居るかどうか判定する。もし未処理の操作者が残っている場合には、その操作者の1人を、次の操作者Aとして設定し、ステップS902以降の処理を繰り返す。以上の工程により、複数の操作者が居る場合であっても、それぞれの操作者の手の影画像あるいは人体の影画像をディスプレイ上に表示することができる。
なお、上述した各実施形態は、以下の処理を実行することによっても実現される。即ち、上記実施形態の各工程や機能を実現するソフトウェア(制御プログラム)を、ネットワークや記憶媒体を介してシステムに供給し、そのシステムのコンピュータ(またはCPU等)が上記プログラムを読み込んで実行する処理である。上記コンピュータプログラムや、それを記憶したコンピュータ可読記憶媒体も本発明の範疇に含まれる。

Claims (6)

  1. ディスプレイに表示されたオブジェクト画像を操作する情報処理装置であって、
    操作者の手の位置および形状を検出する検出手段と、
    仮想光源および前記操作者の手の位置により定まる前記ディスプレイにおける位置に、前記仮想光源および前記操作者の手の位置により定まるサイズで、前記手の影に相当する仮想画像を表示させる表示制御手段と、
    前記手の位置および形状に基づいて、前記オブジェクト画像を選択する選択手段と、
    前記手の位置および形状に基づいて、前記選択中のオブジェクト画像を開放する開放手段とを備え、
    前記表示制御手段は、前記選択時および開放時の仮想画像のサイズに応じて、前記開放後の前記選択中のオブジェクト画像の表示状態を変更することを特徴とする情報処理装置。
  2. 前記表示制御手段は、前記選択時および開放時の仮想画像のサイズの比率に応じて、前記開放後の前記選択中のオブジェクト画像の表示サイズを変更することを特徴とする請求項1に記載の情報処理装置。
  3. 前記選択手段によって複数のオブジェクト画像が選択された際、
    前記表示制御手段は、前記選択時および開放時の仮想画像のサイズの比率に応じて、前記開放後の前記選択中の複数のオブジェクト画像の配置関係を変更することを特徴とする請求項1に記載の情報処理装置。
  4. コンピュータに読み込み込ませ実行させることで、前記コンピュータを請求項1乃至3のいずれか1項に記載の表示制御装置として機能させるコンピュータプログラム。
  5. 請求項4に記載のコンピュータプログラムを記憶したことを特徴とするコンピュータ可読記憶媒体。
  6. ディスプレイに表示されたオブジェクト画像を操作する情報処理装置の制御方法であって、
    検出手段により、操作者の手の位置および形状を検出する検出工程と、
    表示制御手段により、仮想光源および前記操作者の手の位置により定まる前記ディスプレイにおける位置に、前記仮想光源および前記操作者の手の位置により定まるサイズで、前記手の影に相当する仮想画像を表示させる表示制御工程と、
    選択手段により、前記手の位置および形状に基づいて、前記オブジェクト画像を選択する選択工程と、
    開放手段により、前記手の位置および形状に基づいて、前記選択中のオブジェクト画像を開放する開放工程とを備え、
    前記表示制御手段は、前記選択時および開放時の仮想画像のサイズに応じて、前記開放後の前記選択中のオブジェクト画像の表示状態を変更することを特徴とする制御方法。
JP2010156925A 2010-07-09 2010-07-09 情報処理装置およびその制御方法 Expired - Fee Related JP5665396B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010156925A JP5665396B2 (ja) 2010-07-09 2010-07-09 情報処理装置およびその制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010156925A JP5665396B2 (ja) 2010-07-09 2010-07-09 情報処理装置およびその制御方法

Publications (3)

Publication Number Publication Date
JP2012018620A true JP2012018620A (ja) 2012-01-26
JP2012018620A5 JP2012018620A5 (ja) 2013-08-22
JP5665396B2 JP5665396B2 (ja) 2015-02-04

Family

ID=45603811

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010156925A Expired - Fee Related JP5665396B2 (ja) 2010-07-09 2010-07-09 情報処理装置およびその制御方法

Country Status (1)

Country Link
JP (1) JP5665396B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013175847A1 (ja) * 2012-05-22 2013-11-28 ソニー株式会社 画像処理装置、画像処理方法、及びプログラム
JP2014164755A (ja) * 2013-02-22 2014-09-08 Samsung Electronics Co Ltd センサを用いる近接動作認識装置及びその装置を用いた方法
JP2016167250A (ja) * 2015-03-09 2016-09-15 富士ゼロックス株式会社 操作イベントを検出する方法、システム及びプログラム
JP2017062650A (ja) * 2015-09-25 2017-03-30 セイコーエプソン株式会社 表示システム、表示装置、情報表示方法、及び、プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008505379A (ja) * 2004-06-29 2008-02-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3次元タッチ型インタラクションにおけるタッチダウン型フィードフォワード
WO2009111329A2 (en) * 2008-03-04 2009-09-11 Gesturetek, Inc. Enhanced gesture-based image manipulation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008505379A (ja) * 2004-06-29 2008-02-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3次元タッチ型インタラクションにおけるタッチダウン型フィードフォワード
WO2009111329A2 (en) * 2008-03-04 2009-09-11 Gesturetek, Inc. Enhanced gesture-based image manipulation
JP2011517357A (ja) * 2008-03-04 2011-06-02 ジェスチャー テック,インコーポレイテッド 改良されたジェスチャに基づく画像操作

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
GARTH SHOEMAKER: "Shadow reaching: a new perspective on interaction for large displays", UIST '07 PROCEEDINGS OF THE 20TH ANNUAL ACM SYMPOSIUM ON USER INTERFACE SOFTWARE AND TECHNOLOGY, JPN6014003295, 2007, US, pages 53 - 56, XP055241285, ISSN: 0002734122, DOI: 10.1145/1294211.1294221 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013175847A1 (ja) * 2012-05-22 2013-11-28 ソニー株式会社 画像処理装置、画像処理方法、及びプログラム
JPWO2013175847A1 (ja) * 2012-05-22 2016-01-12 ソニー株式会社 画像処理装置、画像処理方法、及びプログラム
US10360706B2 (en) 2012-05-22 2019-07-23 Sony Corporation Device method and program for adjusting a display state of a superimposed image
JP2014164755A (ja) * 2013-02-22 2014-09-08 Samsung Electronics Co Ltd センサを用いる近接動作認識装置及びその装置を用いた方法
JP2016167250A (ja) * 2015-03-09 2016-09-15 富士ゼロックス株式会社 操作イベントを検出する方法、システム及びプログラム
JP2017062650A (ja) * 2015-09-25 2017-03-30 セイコーエプソン株式会社 表示システム、表示装置、情報表示方法、及び、プログラム

Also Published As

Publication number Publication date
JP5665396B2 (ja) 2015-02-04

Similar Documents

Publication Publication Date Title
JP6159323B2 (ja) 情報処理方法及び情報処理装置
JP5802667B2 (ja) ジェスチャ入力装置およびジェスチャ入力方法
WO2016109409A1 (en) Virtual lasers for interacting with augmented reality environments
US20160012612A1 (en) Display control method and system
US10372229B2 (en) Information processing system, information processing apparatus, control method, and program
JP2008517368A (ja) 手を用いる3dレンダリングアプリケーション用システム
TWI403922B (zh) 徒手人機介面操作系統及其方法
JP6618276B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP2006209563A (ja) インターフェース装置
JP2004078977A (ja) インターフェイス装置
US10672187B2 (en) Information processing apparatus and information processing method for displaying virtual objects in a virtual space corresponding to real objects
JP2009140390A (ja) 指示デバイスおよび指紋認証半導体回路
JP2004246578A (ja) 自己画像表示を用いたインタフェース方法、装置、およびプログラム
CN108536273A (zh) 基于手势的人机菜单交互方法与系统
KR20140078853A (ko) 증강현실시스템 및 그 제어방법
US20120313968A1 (en) Image display system, information processing apparatus, display device, and image display method
JP5665396B2 (ja) 情報処理装置およびその制御方法
JP2012022458A (ja) 情報処理装置およびその制御方法
JP2005063225A (ja) 自己画像表示を用いたインタフェース方法、装置、ならびにプログラム
WO2020235035A1 (ja) ヘッドマウントディスプレイ
JP2006268212A (ja) 命令入力装置
KR101246304B1 (ko) 증강 현실 서비스 제공 시스템 및 방법
JP2010079848A (ja) 項目選択方法および装置
JP2007102415A (ja) 2つの入力モードを有する携帯端末、プログラム及び携帯端末への指令入力方法
JP5676959B2 (ja) 情報処理装置及びその制御方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130709

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130709

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141209

R151 Written notification of patent or utility model registration

Ref document number: 5665396

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees