JP2012194915A - 画像表示システム - Google Patents

画像表示システム Download PDF

Info

Publication number
JP2012194915A
JP2012194915A JP2011059802A JP2011059802A JP2012194915A JP 2012194915 A JP2012194915 A JP 2012194915A JP 2011059802 A JP2011059802 A JP 2011059802A JP 2011059802 A JP2011059802 A JP 2011059802A JP 2012194915 A JP2012194915 A JP 2012194915A
Authority
JP
Japan
Prior art keywords
image display
detected
image
display system
mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011059802A
Other languages
English (en)
Inventor
Rohina Atsuji
呂比奈 厚地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2011059802A priority Critical patent/JP2012194915A/ja
Publication of JP2012194915A publication Critical patent/JP2012194915A/ja
Withdrawn legal-status Critical Current

Links

Images

Abstract

【課題】空間に位置検出領域を備える表示装置において、同一の位置検出領域であっても複数の検出物体位置を検出することにより、検出された検出物体位置に対応した入力操作を実現する画像表示システムを提供する。
【解決手段】画像表示部と、被検出物の空間位置を検出する検出空間を形成させる位置検出装置と、前記被検出物の位置情報に対応する入力モードを選択し、前記入力モードに切り替える画像処理装置と、を含む画像表示システムであって、前記画像表示面にジェスチャーモードマークを表示させる第1の入力動作と、前記被検出物を前記画像表示面より離間させるホバリング動作の後、前記検出空間内に前記被検出物を配置させる第2の入力動作と、前記検出空間内において前記被検出物を移動させる第3の入力動作と、により前記画像表示面に表示された画像の一部もしくは全部を拡大、縮小または回転させる画像表示システム。
【選択図】図1

Description

本発明は、画像表示システムに関する。
従来の光学式タッチパネルに関して、位置検出装置の一方式として光学式が知られている。例えば、特許文献1には、電気光学装置の表示画面に重ねて使用される光学式タッチパネルが開示されている。しかし、特許文献1に開示された光学式タッチパネルでは、検出領域内に同時に複数の物体が配置された場合、それらの複数の物体を一つの物体として検出してしまう虞があった。
このような課題に対して、特許文献2においては、対象物体を検出する検出領域を分割し、分割された検出領域の各々において対象物体を検出することで、複数の検出物体を検出する光学式の位置検出装置が開示されている。
特開2004−303172号公報 特開2010−198548号公報
しかし、上述の特許文献2では、検出領域を分割することによって、分割された検出領域の各々に検出物体が位置した場合に、複数の検出物体を検出することを可能とするものであって、一つの検出領域内においては複数の検出物体を検出することは困難であった。
そこで、空間に位置検出領域を備える表示装置において、同一の位置検出領域であっても検出物体位置を複数検出することにより、検出された検出物体位置に対応した入力モードを実行させることを実現する画像表示システムを提供する。
本発明は、少なくとも上述の課題の一つを解決するように、下記の形態または適用例として実現され得る。
〔適用例1〕本適用例による画像表示システムは、画像表示部と、前記画像表示部の画像表示面に近接して被検出物の空間位置を検出する検出空間を形成させる位置検出装置と、前記位置検出装置からの前記被検出物の位置情報に対応する入力モードを選択し、前記入力モードに切り替える画像処理装置と、を含む画像表示システムであって、前記検出空間に所定時間以上、前記被検出物を静止させ、前記画像表示面にジェスチャーモードマークを表示させる第1の入力動作と、前記ジェスチャーモードマークが表示された後、前記被検出物を前記画像表示面より離間させるホバリング動作と、前記ホバリング動作の後、前記検出空間内に前記被検出物を配置させる第2の入力動作と、前記第2の入力動作の後、前記検出空間内において前記被検出物を移動させる第3の入力動作と、により前記画像表示面に表示された画像の一部もしくは全部を拡大、縮小または回転させることを特徴とする。
本適用例によれば、1個の被検出物に第1、第2、第3の入力動作を行わせることで、容易に対象画像の拡大、縮小、回転の操作ができる操作性の高いインターフェースを実現することができる。
〔適用例2〕上述の適用例において、前記ジェスチャーモードマークの位置から、前記第2の入力動作によって検出された前記被検出物の位置までの位置ベクトルと、前記第3の入力動作による前記被検出物の移動ベクトルと、を比較する比較部と、前記比較部の比較結果に基づいて、拡大、縮小、回転の入力モードを判定する判定部と、を備えることを特徴とする。
上述の適用例によれば、拡大、縮小、回転のモードを位置ベクトルの演算によって容易に導くことができる。
〔適用例3〕上述の適用例において、前記判定部は、前記比較部の比較結果が、前記位置ベクトルと前記移動ベクトルとが所定の角度範囲内で同方向であれば拡大モード、所定の角度範囲内で逆方向であれば縮小モード、所定の角度範囲外で異なる方向であれば回転モード、と判定することを特徴とする。
上述の適用例によれば、2つのベクトルの向きを比較するだけで、対象画像の拡大、縮小、回転を容易に判定することができる。
〔適用例4〕上述の適用例において、前記位置ベクトルの方向を正方向とし、前記位置ベクトルをa、前記移動ベクトルをb、とした場合、前記判定部は、前記画像を(a+b)/aの割合で前記画像を拡大または縮小することを特徴とする。
上述の適用例によれば、拡大率、縮小率を2つのベクトル量の比較で決定することができため、位置ベクトルaと移動ベクトルbの比、すなわちb/aを大きくするだけで高い拡大率、縮小率を得ることができる。言い換えると、位置ベクトルaを小さくすることで、移動ベクトルbを大きくしなくても所望の拡大率、縮小率を得ることができる。これにより、画像表示が小さい画像表示システムであっても、少ない動作で所望の拡大率、縮小率を得ることができる。
〔適用例5〕上述の適用例において、前記第1の動作の後、前記検出空間内に前記被検出物を所定時間内、静止させる第4の動作により、前記ジェスチャーモードマークの表示を消すことを特徴とする。
上述の適用例によれば、ジェスチャーモードの終了をオペレーター(操作者)が確実に確認することができる。
本実施形態に係る画像表示システムを示す,(a)は概略構成図、(b)は位置検出装置の説明概略図。 本実施形態に係る第1の入力動作に関するフローチャート。 本実施形態に係る位置検出装置における位置検出領域を説明する模式図。 本実施形態に係る第2の入力動作に関するフローチャート。 位置ベクトル、移動ベクトルを説明する模式図。 本実施形態に係る第3の入力動作に関するフローチャート。 本実施形態に係る第3の入力動作による動作モードを説明する模式図。 本実施形態に係る第4の入力動作に関するフローチャート。
以下、図面を参照して、本発明に係る実施形態を説明する。
(実施形態)
図1(a)は本実施形態に係る画像表示システムの全体構成を示す概略構成図である。本実施形態に係る画像表示システム100は、プロジェクターなどの画像投射装置10と、画像投射装置10に画像データを生成して送るコンピューターなどの画像処理装置20と、投射された画像を表示するスクリーン30と、を備える。スクリーン30には、本実施形態の画像表示システム100においては光学式位置検出装置40(以下、位置検出装置40)を備え、検出空間Vにおける被検出物F(以下、オブジェクトFという)の位置を検出する。
画像投射装置10からスクリーン30に投射された画像に対して、画像上の任意の位置を指し示す、例えば手指などのオブジェクトFが、位置検出装置40に備える検出用光源41a,41b,41c,41dから出射された光を反射し、受光ユニット42の受光強度に変化が生じる。この変化に対して所定の受光強度にするように検出用光源41a,41b,41c,41dからの出射される光の強度を調整する。この調整量によって位置検出処理装置43はオブジェクトFの投射画像に対する位置情報を演算する。位置検出処理装置43によって演算された位置情報は、画像処理装置20に送られ、画像データにおけるオブジェクトFの位置による所定の処理が画像処理装置20において実行され、生成された画像が画像投射装置10よりスクリーン30に投射される。本実施形態に係る画像表示システム100では、光学式位置検出方法を例示するが、これに限定されず磁気式位置検出装置であっても良い。
本実施形態に係る画像表示システム100に備える位置検出装置40の光学式位置検出方法を図1(b)により説明する。図1(b)に示すように、検出用光源41a,41b,41c,41dからは検出光が出射され、出射された検出光を受光ユニット42に備える受光部42aが受光し、受光強度を計測することにより検出領域V内のオブジェクトFの位置を検出する構成となっている。検出用光源41a,41b,41c,41dには、例えばLED(Light Emitting Diode)などを用い、検出用光源41a,41b,41c,41dを所定の発光パターンにより発光させる。
検出用光源41a,41bを発光させ、図示X軸方向に単調減少する光強度分布を形成する。また、検出用光源41a,41bと異なるタイミングで検出用光源41c,41dを発光させ、図示X軸方向に単調増加する光強度分布を形成する。この光強度分布にオブジェクトFが配置されると、検出用光源41a、41b又は検出用光源41c,41dからの検出光がオブジェクトFで反射し、反射光を受光ユニット42に備える受光部42aが受光する。このとき、X軸方向の光強度分布が形成されているため、オブジェクトFのX軸方向の位置に応じて受光部42aの受光強度が変化する。
検出用光源41b,41cを発光させ、図示Y軸方向に単調減少する光強度分布を形成する。また、検出用光源41b,41cと異なるタイミングで検出用光源41d,41aを発光させ、図示Y軸方向に単調増加する光強度分布を形成する。この光強度分布にオブジェクトFが配置されると、検出用光源41b、41c又は検出用光源41d,41aからの検出光がオブジェクトFで反射し、反射光を受光ユニット42に備える受光部42aが受光する。このとき、Y軸方向の光強度分布が形成されているため、オブジェクトFのY軸方向の位置に応じて受光部42aの受光強度が変化する。
このように、X軸方向ついて、二種類の光強度分布が形成され、それぞれの光強度分布において受光部42aは検出光の反射光を受光する。そして、それぞれの光強度分布における受光部42aの受光強度が等しくなるように検出用光源41a,41b,41c,41dの発光強度を調整する。また、Y軸方向についても、二種類の光強度分布が形成され、それぞれの光強度分布において受光部42aは検出光の反射光を受光する。そして、それぞれの光強度分布における受光部42aの受光強度が等しくなるように検出用光源41a、41b、41c、41dの発光強度を調整する。
検出用光源41a,41bと検出用光源41c,41dのそれぞれの調整量からオブジェクトFのX軸方向位置を演算し、検出用光源41b,41cと検出用光源41d,41aのそれぞれの調整量からオブジェクトFのY軸方向位置を演算することによって、オブジェクトFの位置を検出するものである。
また、検出用光源41a,41b,41c,41dを発光させ、Z軸方向に単調減少する光強度分布を形成したときの受光ユニット42に備える受光部42bの受光強度から、オブジェクトFのZ軸方向位置を検出する。
次に、本実施形態に係る画像表示システム100の動作を説明する。図2は画像表示システム100の動作を説明するフローチャートであって、第1の入力動作としてのジェスチャーモードを開始するまでの動作を示す。本明細書におけるジェスチャーモードとは、表示された画像の一部、もしくは全部を拡大、縮小、および回転させて表示する一連の動作モードを示している。図2に示すように、画像表示が実行され、ジェスチャーモードの入力が開始されるまで、本実施形態に係る画像表示システム100は待機(S11)状態となる。
次に、オブジェクトFがホバリング中であるかを判断する(S12)。ここで、「ホバリング」、および後述する「タッチ」について図3により説明する。図3に示すように、スクリーン30の画像表示面である画像投射面30a側に形成される位置検出領域Vは、タッチ領域Tとホバリング領域Hを備えている。画像投射面30aに近接する領域にタッチ領域Tが形成される。タッチ領域TにオブジェクトFが位置する、すなわち図示P位置にあるとき、画像表示システム100はタッチモードと認識し、オブジェクトFのタッチ位置に表示される画像に対応した処理を実行する。
タッチ領域Tを画像投射面30aとで挟むようにホバリング領域Hが形成される。ホバリング領域HにオブジェクトFが位置する、すなわち図示Q位置にあるとき、画像表示システム100はホバリングモードと認識し、オブジェクトFの位置検出、すなわち表示画像に対する位置を検出、演算する。この状態を、上述のS12におけるホバリング中という。さらに、ホバリング領域Hから画像投射面30aより離間する領域は位置検出不可領域Nであり、オブジェクトFが図示R位置にあり、画像表示システム100はオブジェクトFを認識しない状態にある。
S12において、ホバリング中(YES)と判断された場合、次のタッチ判定(S13)に移行する。なお、ホバリング中(NO)と判定された場合、すなわちオブジェクトFが位置検出不可領域Nにあるため待機(S11)に戻る。タッチ判定(S13)は、上述したオブジェクトFがタッチ領域Tにある図3のP位置にある状態かどうかを判定する。S13において、タッチ判定(YES)とされるとオブジェクトFが動作しているか判定するS14に移行する。なお、タッチ判定(S13)においてタッチ領域TにオブジェクトFが位置しない状態のNOと判定された場合、ホバリング状態を判定するS12に戻る。
オブジェクトFの動作を判定するS14は、後述するジェスチャーモードへ移行させるための起動入力する、いわゆる長押しを判定するステップとなる。すなわち、S14においてオブジェクトFが静止している状態であるかを判定する。S14においてNO、すなわち静止状態と判定されると、次の経過時間計測スタート(S15)に移行する。なお、オブジェクトFが静止状態ではなく動いている、すなわち判定がYESの場合には、ジェスチャーモード以外の操作、入力モードとしての直接操作モード(S101)に移行する。
上述のオブジェクトFの静止状態とは、完全にオブジェクトFが静止した状態、ということではなく所定の移動範囲内までの移動は静止状態と判定される。所定の移動範囲度は、投射される画像の種類や大きさ、あるいはスクリーンの大きさ、などにより適宜決定されるものである。なお、図3に示すようにタッチ領域Tがスクリーン30の画像投射面30aに接するように、あるいはオブジェクトFの大きさを超えない範囲での間隙で設けられている場合には、オブジェクトFを画像投射面30aに接触させて、オブジェクトFがほとんど動かない静止状態を得ることができる。
S15では、いわゆる長押し状態を決定する経過時間が設定されており、その既定時間の計測がスタートする。長押しの既定時間は、例えば2〜5秒程度の時間で適宜決定される。時間計測の経過はS16にて判定され、既定時間に達するまで(S16におけるNO判断)はS14まで戻り、オブジェクトFが静止状態であるかを同時に判定しながら時間計測する。
S16において、長押しの既定時間に達した(S16におけるYES)と判定された後、オブジェクトFの位置検出データによって静止位置Aの座標XA,YAを保持する(S17)。保持された座標Aに対応する位置に、ジェスチャーモードに対応させる画像が在るかを判断する(S18)。すなわち、拡大、縮小、回転させる画像が無ければ、ジェスチャーモードを実行しても画像なしの部分を拡大、縮小、回転させるだけになってしまうため、対象画像の存在を判断するステップとしてS18を備える。しかし、S18を備えなくても、単に拡大、縮小、回転される画像が無いだけであり、ジェスチャーモードを実行することは可能なため、S18を備えないフローチャートでも良い。
S18に画像が在る(YES)と判定されると、次にジェスチャーモードアイコンを座標Aに表示する。ジェスチャーモードアイコンの形状、形態には特に限定は無いが、ジェスチャーモードの開始を認識できるデザインであることが好ましい。これで、画像表示システム100はジェスチャーモードの操作が可能となる。
図4は、上述の図2に示すジェスチャーモードを開始するまでの動作の後、第2の入力動作としての、拡大、縮小、回転を実行させるための基準となるデータを取得する(以下、ジェスチャーモードaという)フローを示す。
図2に示すS19によってジェスチャーモードアイコンが表示された投射画像に対して、オブジェクトFがホバリング中であるか判定する(S21)。S21においてホバリング中であると判定(S21におけるYES判定)されると、タッチ判定(S22)に移行する。
S22においてオブジェクトFがタッチ状態と判定(S22においてYES判定)されると、次に位置検出されたオブジェクトFのタッチ位置の座標Bが保持される(S23)。なお、座標Bの保持位置を示すアイコンを画像表示してもよい。保持された座標Bと、図2に示したS17において保持された座標Aと、により座標Aを基点とする座標Bの位置ベクトル(AB)が計算される(S24)。計算された位置ベクトル(AB)の情報は、図1(a)に示す画像処理装置20に備える比較部20aに格納される。すなわち、図5に示すように、ジェスチャーモードアイコンが表示されている座標A(XA,YA)から、S23によって保持されたオブジェクトFのタッチ位置座標B(XB,YB)へ、距離α、角度θの位置ベクトル(AB)がS24において計算される。
位置ベクトル(AB)の距離αは、後述する拡大、縮小モードにおける拡大縮小率の基準長さとなる。また角度θは回転モードの回転方向あるいは回転角度の基準角度となる。このように基準となる位置ベクトル(AB)が算出されてジェスチャーモードaは終了し、次の第3の入力動作としての、拡大、縮小、回転モードの実行(以下、ジェスチャーモードbという)に移行する。なお、S21およびS22においてNOと判定された場合には、いずれもホバリング中の判定(S21)へ戻る。
図6はジェスチャーモードbのフローチャートを示す。図4に示すS23において座標Bが保持され、オブジェクトFはホバリング状態とするため、図6に示すように、ホバリング中であるかを判定する(S31)。ホバリング中と判定(S31においてYES判定)されると、タッチ判定(S32)に移行する。S32においてタッチ状態であると判定(S32においてYES判定)されると、オブジェクトFのタッチ位置座標C(XC,YC)が保持される(S33)。
S33において保持された座標Cと、図4に示したS23において保持された座標Bと、により座標Bを基点とする座標Cの移動ベクトル(BC)が計算される(S34)。すなわち、図5に示すように、S23において保持された座標B(XB,YB)から、S34によって保持されたオブジェクトFのタッチ位置座標C(XC,YC)へ、距離β、角度ηの移動ベクトル(BC)がS34において計算される。計算された移動ベクトル(BC)は図1(a)に示す画像処理装置20に備える比較部20aに格納される。次に、ホバリング中であるか判定する(S35)。S35においてホバリング中であると判定(S35においてYES判定)されると、ジェスチャーモードbの実行位置ではないと判断し、再度タッチ判定(S32)へ戻る。
S35においてホバリング中ではないと判定(S32においてNO判定)されると、ジェスチャーモードbを実行すると判断し、比較部20aは格納した位置ベクトル(AB)と移動ベクトル(BC)とを比較し、比較結果を画像処理装置20に備える判定部20bにより拡大、縮小、回転のいずれかであるかを判定し、実行する(S36)。図7を用いて、S36の実行モードの概要を説明する。
図7(a)は、拡大を実行させるモードを説明する図である。図7(a)に示すように、移動ベクトル(BC)が位置ベクトル(AB)の方向に対して両側に角度ζの範囲内にある場合、選択された画像Mを拡大する。角度ζは、後述する回転モードと判別するための識別範囲であり、人間がオブジェクトFを操作する状態において位置ベクトル(AB)の方向(角度θの方向)に感覚的に合わせられる程度の範囲を既定する。例えば角度ζを3〜10度に設定するのが適当である。また、位置ベクトル(AB)の長さαと、移動ベクトル(BC)の長さβから、画像Mは{(α+β)/α}倍の拡大率で拡大され、拡大画像M´を得ることができる。
図7(b)は、縮小を実行させるモードを説明する図である。図7(b)に示すように、移動ベクトル(BC)が位置ベクトル(AB)の方向の逆方向に対して角度ζの範囲内にある場合、選択された画像Mを縮小する。また、位置ベクトル(AB)の長さαと、移動ベクトル(BC)の長さβから、画像Mは{(α−β)/α}倍の縮小率で縮小され、縮小画像M´´を得ることができる。なお、位置ベクトル(AB)の方向を正(+)方向とすると、逆方向の移動ベクトル(BC)は負(−)方向となるので、移動ベクトル(BC)の長さβが負の値とすれば、画像Mは{(α+β)/α}倍の縮小率で縮小されると表すこともできる。
図7(c)は、回転を実行させるモードを説明する図である。図7(c)に示すように、移動ベクトル(BC)の方向が位置ベクトル(AB)の方向に対する角度ζの範囲外にある場合、対象画像mを回転させる。対象画像の回転方向は位置ベクトル(AB)の方向を基準として移動ベクトル(BC)の方向側、図7(c)の場合には位置ベクトル(AB)の向きに左方向に移動ベクトル(BC)が向いているので、画像mは左方向の反時計回りに回転され画像m´を形成する。
また画像mから画像m´への回転角度は、例えば位置ベクトル(AB)と移動ベクトル(BC)の角度差である(η−θ)の回転角度を与えてもよく、あるいは、図6に示すジェスチャーモードbを1回実行することであらかじめ設定した回転角度分を回転させることでもよい。
S36において、対象画像M,mを拡大、縮小、あるいは回転させ、第4の入力動作としての、ジェスチャーモードを終了させるモードのジェスチャーモードcに移行する。図8はジェスチャーモードcを説明するフローチャートである。図8に示すように、図6に示すS36において拡大、縮小、回転のモードを実行し、オブジェクトFをホバリングさせるとS41において、オブジェクトFがホバリング中であるかを判断する。オブジェクトFがホバリング中である(S41においてYES)と判断されると、次にオブジェクトFのタッチ判定(S42)に移行される。
S42においてオブジェクトFがタッチ状態にある(S42においてYES)と判定されると、次にオブジェクトFが動作しているか判断する(S43)。
S43においてオブジェクトFが動作している(S43においてNO)と判断されると、再度ジェスチャーモードbの実行に移行し、図6に示すフローチャートを実行する。しかし、S43においてオブジェクトFが動作していない(S43においてNO)と判断される、すなわちオブジェクトFが静止状態にあると判断されると、経過時間計測スタート(S44)に移行する。
S44では、いわゆる長押し状態を決定する経過時間が設定されており、その既定時間の計測がスタートする。長押しの既定時間は、例えば2〜5秒程度の時間で適宜決定される。時間計測の経過はS45にて判定され、既定時間に達するまで(S45におけるNO判断)はS43まで戻り、オブジェクトFが静止状態であるかを同時に判定しながら時間計測する。
S45において、長押しの既定時間に達した(S45におけるYES)と判定された後、図6に示すS36において拡大、縮小、回転された画像M´,M´´,m´を保持する(S46)。S46において対象画像M´,M´´,m´が保持されると、図2に示すS19において表示されたジェスチャーモードアイコンを投射画像より消去し(S47)、ジェスチャーモードは終了する。ジェスチャーモード終了後は、ジェスチャーモード以外の操作、入力モードとしての直接操作モード(S401)に移行する。
上述した本実施形態に係る画像表示システム100は、対象画像の拡大、縮小、回転を実行するジェスチャーモードへの移行が、オブジェクトFのタッチ領域において所定時間、静止させる、いわゆる長押し動作によって実行させるため、不用意な動作によってジェスチャーモードに切り換ることが防止できる。ジェスチャーモードへの移行を示すアイコンを表示することにより、オペレーター(操作者)は確実にジェスチャーモードへの切り替え、もしくはジェスチャーモード中であることが認識でき、誤操作を防止することができる。
さらに、従来の空間に位置検出領域を備える表示装置においては、複数のオブジェクト(被検出物)を1個のオブジェクトとして検出してしまうなど、インターフェースに、いわゆるマルチタッチによるジェスチャーモードの入力が困難であったが、本実施形態に係る画像表示システムでは、ジェスチャーモードへの入力開始と、ジェスチャーモードにおける拡大、縮小、回転などのモード選択を、オブジェクトのホバリングとタッチにより容易に実行することが可能となる。
上述の実施形態に係る画像表示システム100では、プロジェクターによって画像をスクリーンに投射し、スクリーン上において空間位置検出装置によりオブジェクト位置を検出する構成をせつめいしたが、この構成に限定されない。例えば、ディスプレーの画像表示面側に空間位置検出装置を備え、画像表示されるディスプレーにおいてジェスチャーモードを表示させる構成であっても良い。
10…画像投射装置、20…画像処理装置、30…スクリーン、40…位置検出装置、100…画像表示システム。

Claims (5)

  1. 画像表示部と、
    前記画像表示部の画像表示面に近接して被検出物の空間位置を検出する検出空間を形成させる位置検出装置と、
    前記位置検出装置からの前記被検出物の位置情報に対応する入力モードを選択し、前記入力モードに切り替える画像処理装置と、を含む画像表示システムであって、
    前記検出空間に所定時間以上、前記被検出物を静止させ、前記画像表示面にジェスチャーモードマークを表示させる第1の入力動作と、
    前記ジェスチャーモードマークが表示された後、前記被検出物を前記画像表示面より離間させるホバリング動作と、
    前記ホバリング動作の後、前記検出空間内に前記被検出物を配置させる第2の入力動作と、
    前記第2の入力動作の後、前記検出空間内において前記被検出物を移動させる第3の入力動作と、により前記画像表示面に表示された画像の一部もしくは全部を拡大、縮小または回転させる、
    ことを特徴とする画像表示システム。
  2. 前記ジェスチャーモードマークの位置から、前記第2の入力動作によって検出された前記被検出物の位置までの位置ベクトルと、
    前記第3の入力動作による前記被検出物の移動ベクトルと、を比較する比較部と、
    前記比較部の比較結果に基づいて、拡大、縮小、回転の入力モードを判定する判定部と、を備える、
    ことを特徴とする請求項1に記載の画像表示システム。
  3. 前記判定部は、前記比較部の比較結果が、前記位置ベクトルと前記移動ベクトルとが所定の角度範囲内で同方向であれば拡大モード、所定の角度範囲内で逆方向であれば縮小モード、所定の角度範囲外で異なる方向であれば回転モード、と判定する、
    ことを特徴とする請求項2に記載の画像表示システム。
  4. 前記位置ベクトルの方向を正方向とし、前記位置ベクトルをa、前記移動ベクトルをb、とした場合、
    前記判定部は、前記画像を(a+b)/aの割合で前記画像を拡大または縮小する、
    ことを特徴とする請求項2または3に記載の画像表示システム。
  5. 前記第1の動作の後、前記検出空間内に前記被検出物を所定時間内、静止させる第4の動作により、前記ジェスチャーモードマークの表示を消す、
    ことを特徴とする請求項1から4のいずれか一項に記載の画像表示システム。
JP2011059802A 2011-03-17 2011-03-17 画像表示システム Withdrawn JP2012194915A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011059802A JP2012194915A (ja) 2011-03-17 2011-03-17 画像表示システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011059802A JP2012194915A (ja) 2011-03-17 2011-03-17 画像表示システム

Publications (1)

Publication Number Publication Date
JP2012194915A true JP2012194915A (ja) 2012-10-11

Family

ID=47086711

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011059802A Withdrawn JP2012194915A (ja) 2011-03-17 2011-03-17 画像表示システム

Country Status (1)

Country Link
JP (1) JP2012194915A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016505188A (ja) * 2013-02-05 2016-02-18 クアルコム,インコーポレイテッド 3d物体検出によるシステムのエンゲージメントのための方法
JP2016161869A (ja) * 2015-03-04 2016-09-05 セイコーエプソン株式会社 表示装置及び表示制御方法
JP2016186656A (ja) * 2016-07-13 2016-10-27 日立マクセル株式会社 投射型映像表示装置
US9927923B2 (en) 2013-11-19 2018-03-27 Hitachi Maxell, Ltd. Projection-type video display device
JP2018057869A (ja) * 2017-01-16 2018-04-12 グリー株式会社 プログラム、制御方法、および情報処理装置
US10191554B2 (en) 2014-03-14 2019-01-29 Samsung Electronics Co., Ltd. Display apparatus and controlling method thereof
CN111033452A (zh) * 2017-09-04 2020-04-17 株式会社和冠 空间位置指示系统
US11253780B2 (en) 2016-09-30 2022-02-22 Gree, Inc. Game device having improved slide-operation-driven user interface

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9020A (en) * 1852-06-15 Improved machine for peaking sheet-metal tubes
WO2010030765A2 (en) * 2008-09-09 2010-03-18 Microsoft Corporation Temporally separate touch input
JP2010067178A (ja) * 2008-09-12 2010-03-25 Leading Edge Design:Kk 複数点入力可能な入力装置及び複数点入力による入力方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9020A (en) * 1852-06-15 Improved machine for peaking sheet-metal tubes
WO2010030765A2 (en) * 2008-09-09 2010-03-18 Microsoft Corporation Temporally separate touch input
JP2010067178A (ja) * 2008-09-12 2010-03-25 Leading Edge Design:Kk 複数点入力可能な入力装置及び複数点入力による入力方法

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016505188A (ja) * 2013-02-05 2016-02-18 クアルコム,インコーポレイテッド 3d物体検出によるシステムのエンゲージメントのための方法
US9927923B2 (en) 2013-11-19 2018-03-27 Hitachi Maxell, Ltd. Projection-type video display device
US10191594B2 (en) 2013-11-19 2019-01-29 Maxell, Ltd. Projection-type video display device
US10191554B2 (en) 2014-03-14 2019-01-29 Samsung Electronics Co., Ltd. Display apparatus and controlling method thereof
JP2016161869A (ja) * 2015-03-04 2016-09-05 セイコーエプソン株式会社 表示装置及び表示制御方法
WO2016139902A1 (ja) * 2015-03-04 2016-09-09 セイコーエプソン株式会社 表示装置及び表示制御方法
CN107430838A (zh) * 2015-03-04 2017-12-01 精工爱普生株式会社 显示装置和显示控制方法
JP2016186656A (ja) * 2016-07-13 2016-10-27 日立マクセル株式会社 投射型映像表示装置
US11253780B2 (en) 2016-09-30 2022-02-22 Gree, Inc. Game device having improved slide-operation-driven user interface
US11766611B2 (en) 2016-09-30 2023-09-26 Gree, Inc. Game device having improved slide-operation-driven user interface
JP2018057869A (ja) * 2017-01-16 2018-04-12 グリー株式会社 プログラム、制御方法、および情報処理装置
CN111033452A (zh) * 2017-09-04 2020-04-17 株式会社和冠 空间位置指示系统
CN111033452B (zh) * 2017-09-04 2024-04-09 株式会社和冠 空间位置指示系统

Similar Documents

Publication Publication Date Title
JP2012194915A (ja) 画像表示システム
US9606618B2 (en) Hand tracker for device with display
JP6105075B2 (ja) 投射型映像表示装置、操作検出装置及び投射型映像表示方法
JP5657293B2 (ja) ジェスチャ認識方法及び同方法を用いたタッチシステム
KR101453628B1 (ko) 사용자 인터페이스
RU2541852C2 (ru) Устройство и способ для управления пользовательским интерфейсом на основе движений
JP5552772B2 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
US8867791B2 (en) Gesture recognition method and interactive system using the same
JP5593802B2 (ja) 位置検出システム及びその制御方法、並びにプログラム
JP2010224764A (ja) タッチパネル式ディスプレイを持った携帯型ゲーム装置
US20100271307A1 (en) Optical touch system and operating method thereof
JP6477130B2 (ja) インタラクティブプロジェクター及びインタラクティブプロジェクションシステム
US9671881B2 (en) Electronic device, operation control method and recording medium
US20110193969A1 (en) Object-detecting system and method by use of non-coincident fields of light
JP2015141686A (ja) ポインティングデバイス、情報処理装置、情報処理システムおよびポインティングデバイスの制御方法
JPWO2015029222A1 (ja) 情報処理装置,表示制御プログラム及び表示制御方法
JP2016186670A (ja) インタラクティブプロジェクター及びインタラクティブプロジェクションシステム
WO2019073537A1 (ja) 表示制御装置、表示制御方法、表示制御プログラム、および、電子機器
JP2014155856A (ja) タッチパネル式ディスプレイを持った携帯型ゲーム装置
JP2014052817A (ja) 画像表示方法および画像表示装置
JP2010278806A (ja) 投写型表示装置及び画像歪み補正方法
JP5027084B2 (ja) 入力装置及び入力方法
JP2017083372A (ja) 表示装置及び表示方法
JP5140628B2 (ja) 電子ボードシステム及びプログラム
JP2019152987A (ja) タッチパッド装置及びディスプレイ表示制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141104

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20141218