JP2012208439A - 投影装置、投影方法及び投影プログラム - Google Patents
投影装置、投影方法及び投影プログラム Download PDFInfo
- Publication number
- JP2012208439A JP2012208439A JP2011075998A JP2011075998A JP2012208439A JP 2012208439 A JP2012208439 A JP 2012208439A JP 2011075998 A JP2011075998 A JP 2011075998A JP 2011075998 A JP2011075998 A JP 2011075998A JP 2012208439 A JP2012208439 A JP 2012208439A
- Authority
- JP
- Japan
- Prior art keywords
- projection
- unit
- hand
- video
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims description 30
- 238000001514 detection method Methods 0.000 claims abstract description 48
- 238000003384 imaging method Methods 0.000 claims description 32
- 230000008569 process Effects 0.000 claims description 13
- 238000010586 diagram Methods 0.000 description 22
- 230000004048 modification Effects 0.000 description 16
- 238000012986 modification Methods 0.000 description 16
- 239000003973 paint Substances 0.000 description 15
- 230000006870 function Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
- G03B17/48—Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
- G03B17/54—Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus with projector
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0486—Drag-and-drop
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
- H04N9/3185—Geometric adjustment, e.g. keystone or convergence
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3191—Testing thereof
- H04N9/3194—Testing thereof including sensor feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Abstract
【課題】投影部と被投影体との間に物体が存在する場合でも、良好な視認性が得られるようにする。
【解決手段】被投影体に主映像を投影する投影部2と、投影部と被投影体との間に存在する物体を検出する物体検出部3と、物体検出部3により検出された物体には主映像がそのまま投影されないよう当該主映像に対する処理を行う映像処理部4と、投影部を制御する制御部5とを設けるようにした。こうすることで、投影部と被投影体との間に存在する物体に主映像がそのまま表示されてしまうことを防止して、投影部と被投影体との間に存在する物体と容易に区別できる状態で主映像を被投影体に投影することができる。
【選択図】図1
【解決手段】被投影体に主映像を投影する投影部2と、投影部と被投影体との間に存在する物体を検出する物体検出部3と、物体検出部3により検出された物体には主映像がそのまま投影されないよう当該主映像に対する処理を行う映像処理部4と、投影部を制御する制御部5とを設けるようにした。こうすることで、投影部と被投影体との間に存在する物体に主映像がそのまま表示されてしまうことを防止して、投影部と被投影体との間に存在する物体と容易に区別できる状態で主映像を被投影体に投影することができる。
【選択図】図1
Description
本発明は、投影装置、投影方法及び投影プログラムに関し、例えば、スクリーンや壁などの被投影体に映像を投影するプロジェクタに適用して好適なものである。
従来、スクリーンや壁などの被投影体に映像を投影する投影装置としてプロジェクタが広く知られている(例えば特許文献1参照)。プロジェクタは、別途被投影体が必要となるが、小型で大画面を実現できることから、様々な分野で利用されている。
ここで、例えば、ユーザが、プロジェクタによってスクリーンに投影されている映像の任意の箇所を指し示そうとして、スクリーンの投影面上に手を置いたとする。すると、プロジェクタによってスクリーンに投影されている映像の一部が、この手の上に投影されることになる。
このとき、手の表面が凹凸を有していることから、手の上に投影されている部分の映像(例えば指の上に投影されている部分の映像)が見難くなる。一方で、このときスクリーンと手とに境界なく映像が投影されることから、映像と手を区別し難い。
このように、従来のプロジェクタでは、プロジェクタとスクリーンの投影面との間に手などの物体が存在する場合に、投影する映像及び物体に対する視認性が低下するという問題があった。
本発明は以上の点を考慮してなされたもので、投影部と被投影体との間に物体が存在する場合でも、良好な視認性が得られる投影装置、投影方法及び投影プログラムを提案しようとするものである。
かかる課題を解決するため本発明においては、被投影体に主映像を投影する投影部と、投影部と被投影体との間に存在する物体を検出する物体検出部と、物体検出部により検出された物体には主映像がそのまま投影されないよう当該主映像に対する処理を行う映像処理部と、投影部を制御する制御部とを設けるようにした。
こうすることで、投影部と被投影体との間に存在する物体に主映像がそのまま表示されてしまうことを防止して、投影部と被投影体との間に存在する物体と容易に区別できる状態で主映像を被投影体に投影することができる。
本発明によれば、投影部と被投影体との間に存在する物体に主映像がそのまま表示されてしまうことを防止して、投影部と被投影体との間に存在する物体と容易に区別できる状態で主映像を被投影体に投影することができる。かくして、投影部と被投影体との間に物体が存在する場合でも、良好な視認性が得られる投影装置、投影方法及び投影プログラムを実現することができる。
以下、発明を実施するための最良の形態(以下実施の形態とする)について説明する。尚、説明は以下の順序で行う。
1.実施の形態の概要
2.第1の実施の形態
3.第2の実施の形態
4.変形例
1.実施の形態の概要
2.第1の実施の形態
3.第2の実施の形態
4.変形例
<1.実施の形態の概要>
まず、実施の形態の概要を説明する。因みに、この概要を説明した後、本実施の形態の具体例である、第1の実施の形態、第2の実施の形態、変形例の説明に移る。
まず、実施の形態の概要を説明する。因みに、この概要を説明した後、本実施の形態の具体例である、第1の実施の形態、第2の実施の形態、変形例の説明に移る。
図1において1は、投影装置を示す。この投影装置1には、スクリーンなどの被投影体に主映像を投影する投影部2が設けられている。またこの投影装置1には、投影部2と被投影体との間に存在する物体を検出する物体検出部3が設けられている。さらにこの投影装置1には、物体検出部3により検出された物体には主映像がそのまま投影されないよう当該主映像に対する処理を行う映像処理部4と、投影部2を制御する制御部5とが設けられている。
このような構成により、投影装置1は、投影部2と被投影体との間に存在する物体に主映像がそのまま表示されてしまうことを防止して、投影部2と被投影体との間に存在する物体と容易に区別できる状態で主映像を被投影体に投影することができる。
具体的に、映像処理部4は、物体検出部3により検出された物体には主映像がそのまま投影されないよう、例えば、主映像から、検出された物体に投影される部分を切り取る処理を行う。そして制御部5は、物体に投影される部分が切り取られた主映像を被投影体に投影するよう投影部2を制御する。
また映像処理部4が、物体検出部3により検出された物体には主映像がそのまま投影されないよう、例えば、主映像の検出された物体に投影される部分を、他の部分よりも薄い色合いにする処理を行うようにしてもよい。このとき制御部5は、物体に投影される部分が他の部分よりも薄い色合いの主映像を被投影体に投影するよう投影部を制御する。
また物体検出部3は、例えば、被投影体を撮像して得られる映像と、被投影体に投影する主映像とを比較することで、投影部2と被投影体との間に存在する物体を検出する。
さらに物体検出部3が、例えば、被投影体を撮像して得られる映像を解析することで、投影部2と被投影体との間に存在する物体を検出するようにしてもよい。
さらに制御部5が、物体検出部3により検出された物体に、主映像とは異なる副映像を投影するよう投影部2を制御するようにしてもよい。
さらに物体検出部3が、投影部2と被投影体との間に存在する物体として、ユーザの手を検出するようにしてもよい。さらにこのとき制御部5が、物体検出部3により検出された手の甲に、副映像を投影するよう投影部を制御するようにしてもよい。
さらに物体検出部3が、投影部2と被投影体との間に存在するユーザの手の動きを検出し、制御部5が、物体検出部3により検出された手の動きに応じて、各種処理を実行するようにしてもよい。
具体的に、制御部5は、例えば、所定画面の映像を主映像として被投影体に投影するよう投影部2を制御し、物体検出部3により、所定画面に配置されているオブジェクトを操作するような手の動きが検出されると、当該オブジェクトの操作に対応する処理を実行する。
さらにこのとき制御部5が、物体検出部3により、所定画面に配置されているオブジェクトを操作するような手の動きが検出されると、当該オブジェクトの操作に対応する映像を副映像として、当該手の甲に投影するよう投影部を制御するようにしてもよい。
さらに制御部5が、物体検出部3により、手の甲に投影されている副映像をもう一方の手で操作するような手の動きが検出されると、当該副映像の操作に対応する処理を実行するようにしてもよい。
さらに制御部5が、所定画面の映像を主映像として被投影体に投影するよう投影部2を制御し、物体検出部3により、所定画面に配置されているオブジェクトを選択するような手の動きが検出され、さらに当該オブジェクトを選択している手に対してもう一方の手で所定のジェスチャ操作を行うような手の動きが検出されると、当該オブジェクトに対して当該ジェスチャ操作に対応する処理を実行するようにしてもよい。
このような構成でなる投影装置1の具体例について、以下、詳しく説明する。
<2.第1の実施の形態>
[2−1.映像投影システムの構成]
次に、本実施の形態の具体例について説明する。まず図2を用いて、映像投影システム100の構成について説明する。この映像投影システム100は、上述した投影装置1の具体例であるプロジェクタ装置101と、被投影体の具体例であるスクリーン102とで構成されている。
[2−1.映像投影システムの構成]
次に、本実施の形態の具体例について説明する。まず図2を用いて、映像投影システム100の構成について説明する。この映像投影システム100は、上述した投影装置1の具体例であるプロジェクタ装置101と、被投影体の具体例であるスクリーン102とで構成されている。
さらにこの映像投影システム100のプロジェクタ装置101は、パーソナルコンピュータ構成の本体部103と、当該本体部103にケーブル接続され、当該本体部103により制御されるプロジェクタ部104とで構成されている。
この映像投影システム100は、例えば机上に平らなスクリーン102が載置され、このスクリーン102の上方に、プロジェクタ装置100のプロジェクタ部104が投影レンズ104Aを下向きにして設置される。尚、机をスクリーン102の代わりに利用するなどしてもよい。
そして、この映像投影システム100では、スクリーン102の上方に設置されたプロジェクタ部104の投影レンズ104Aから、下方のスクリーン102の投影面102A上に映像が投影されることで、このスクリーン102に映像が表示されるようになっている。
またプロジェクタ装置101のプロジェクタ部104には、投影レンズ104Aの近傍に投影レンズ104Aと同じ向きの撮像レンズ104Bが設けられている。プロジェクタ装置101は、この撮像レンズ104Bを介してスクリーン102の投影面102Aを撮像する。
そしてプロジェクタ装置101は、投影レンズ104Aからスクリーン102の投影面102Aに投影している映像と、撮像レンズ104Bを介してスクリーン102の投影面102Aを撮像して得られた投影面102Aの映像との差分を取る。
この差分をもとに、プロジェクタ装置101は、スクリーン102の投影面102A上にスクリーン102とは別の物体(例えばユーザの指)が存在する場合に、この物体を投影面102Aとは区別して検出できるようになっている。
さらにプロジェクタ装置101は、このようにして物体を検出すると、スクリーン102に投影している映像の一部がそのままこの物体上に投影されないよう、投影する映像に対して映像処理を行う。尚、この映像処理について詳しくは後述する。
[2−2.プロジェクタ装置の構成]
次に、図3を用いて、プロジェクタ装置101の構成について詳しく説明する。プロジェクタ装置101は、上述したように、本体部103とプロジェクタ部104とで構成されている。
次に、図3を用いて、プロジェクタ装置101の構成について詳しく説明する。プロジェクタ装置101は、上述したように、本体部103とプロジェクタ部104とで構成されている。
本体部103には、CPU110と、不揮発性メモリ111と、RAM112と、映像処理部113と、外部接続I/F114と、ネットワークI/F115とが設けられている。一方、プロジェクタ部104には、投影レンズ104A、液晶パネル及びランプ(共に図示せず)などからなる投影部116と、撮像レンズ104B及び撮像素子(図示せず)などからなる撮像部117と、外部接続I/F118とが設けられている。
そして本体部103の外部接続I/F114と、プロジェクタ部104の外部接続I/F118とが、所定のケーブルを介して接続されている。
また本体部103は、ネットワークI/F115を介して外部のネットワーク(例えばインターネット)NTに接続されている。
このプロジェクタ装置101は、本体部103のCPU110が、不揮発性メモリ111に記憶されている各種プログラムをRAM112にロードして、このプログラムを実行することで全体を制御するようになっている。
実際、CPU110は、まずOS(Operating System)のデスクトップ画面の映像を投影するよう、各部を制御する。
具体的に、映像処理部113は、CPU110の制御のもと、デスクトップ画面の映像となる映像信号を生成する。この映像信号は、映像処理部113から、本体部103の外部接続I/F114とプロジェクタ部104の外部接続I/F118とを経由して、プロジェクタ部104の投影部116に送られる。
投影部116は、この映像信号に基づく映像(すなわちデスクトップ画面の映像)を生成し、これを投影レンズ104Aにより拡大してスクリーン102に投影する。
この結果、スクリーン102に、図4に示すデスクトップ画面200が表示される。
さらにこのとき、プロジェクタ部104の撮像部117は、CPU110の制御のもと、スクリーン102の投影面102Aを撮像する。撮像部117は、撮像結果として投影面102の映像を得、これを映像信号に変換する。この映像信号は、撮像部117から、プロジェクタ部104の外部接続I/F118と本体部103の外部接続I/F114とを経由して、本体部103の映像処理部113に送られる。
映像処理部113は、送られてきた映像信号(すなわち投影面102Aを撮像して得られた映像信号)と、投影面102Aに投影している映像信号との差分を取り、この結果をCPU110に送る。
CPU110は、この比較結果をもとに、スクリーン102の投影面102A上にスクリーン102とは別の物体が存在するかどうかを判別すると共に、物体が存在すると判別したときには、投影面102A上に存在する物体の領域を検出する。
実際、ユーザがスクリーン102の投影面102A上に手を置いているとする。このときCPU110は、投影面102Aに投影している映像と、投影面102Aを撮像して得られた映像との差分をもとに、この手の領域を検出することができる。
さらにCPU110は、撮像部117からこの手までの距離と、撮像部117から投影面102Aまでの距離とを測定するように撮像部117を制御する。
具体的に撮像部117は、被写体までの距離を測定できる測距センサを有し、この測距センサにより、手までの距離と、投影面102Aまでの距離とを測定する。
そしてCPU110は、撮像部117により測定された、撮像部117から手までの距離と、撮像部117から投影面102Aまでの距離との差分を取ることで、投影面102Aから手までの距離を算出する。
さらにCPU110は、手の領域の検出と投影面102Aから手までの距離の算出とを所定時間ごとに行うことで、投影面102A上での手の動きを3次元的に検出することができ、例えば、投影面102Aに対するタッチ(触る)、タップ(触って離す)、ドラッグ(なぞる)、フリック(払う)などのジェスチャ操作を検出することもできる。
尚、投影面102Aから手までの距離を高精度に測定することは難しいので、ここでは、CPU110が、投影面102Aから手までの距離が所定値未満である場合に、投影面102Aに手がタッチされていると判断するようになっている。
このようにして物体(ここでは手とする)を検出すると、CPU110は、図5(A)に示すように、投影しているデスクトップ画面200の映像から手の上に投影される部分を切り取った映像Pi1を生成するよう映像処理部113を制御する。
具体的に、映像処理部113は、手の輪郭を抽出し、投影しているデスクトップ画面200の映像から、手の輪郭の内側となる部分の映像を切り取る。
そしてCPU110は、このようにして生成した映像(すなわち手の上に表示されている部分を切り抜いたデスクトップ画面200の映像)Pi1を、投影部116からスクリーン102に投影させる。
すると、図5(B)に示すように、手の上には何も表示されないようにして、デスクトップ画像200の映像がスクリーン102の投影面102Aに表示される。
このように、プロジェクタ装置101は、投影面102A上に手が存在する場合に、この手の上にはデスクトップ画面200の映像を投影しないようになっている。
こうすることで、プロジェクタ装置101は、凹凸を有する手の上にデスクトップ画面200の映像の一部分が投影されてこの一部分が見づらくなってしまうことを防ぐことができると共に、手と容易に区別できる状態でデスクトップ画面200の映像を投影することができる。
さらにこうすることで、プロジェクタ装置101は、あたかもデスクトップ画面200上に手を置いているかのような感覚をユーザに与えることができる。
さらにこのプロジェクタ装置101では、投影されているデスクトップ画面200にタッチするような感覚で、デスクトップ画面200に対する各種操作入力を行うことができるようになっている。
ここで、デスクトップ画面200には、図4に示すように、各種アプリケーションに対応するアイコン200Aが複数配置されるようになっている。
このようなデスクトップ画面200が投影されている状態で、ユーザが、所望のアイコン200Aを指先で2回タッチするようなジェスチャ操作を投影面102A上で行ったとする。このとき、CPU110は、このようなジェスチャ操作が行われた旨を、検出した手の動きから認識する。
そしてCPU110は、このようなジェスチャ操作を、アイコン200Aに対応するアプリケーションを起動する操作として受け付け、このアプリケーションのプログラムを不揮発性メモリ111から読み出して実行することで、アプリケーションを起動する。
ここで、映像処理部113は、CPU110の制御のもと、アプリケーション画面の映像となる映像信号を生成する。そしてこの映像信号が、映像処理部113から、本体部103の外部接続I/F114とプロジェクタ部104の外部接続I/F118とを経由して、プロジェクタ部104の投影部116に送られる。
投影部116は、この映像信号に基づく映像(すなわちアプリケーション画面の映像)を生成し、これを投影レンズ104Aにより拡大してスクリーン102に投影する。
この結果、スクリーン102にアプリケーション画面が表示される。
プロジェクタ装置101では、このアプリケーション画面に対しても、デスクトップ画面200と同様、直接触るような感覚で、各種操作入力を行うことができるようになっている。
以下、アプリケーション画面に対する操作入力について、アプリケーションごとに詳しく説明する。
尚、ここでは、ワープロソフト、ペイントソフト、Webブラウザがアプリケーションとしてプロジェクタ装置101にインストールされているとする。
因みに、実施の形態の概要で説明した投影装置1の投影部2に対応するのが上述したプロジェクタ装置101の投影部116である。また投影装置1の物体検出部3に対応するのがプロジェクタ装置101のCPU110及び撮像部117である。さらに投影装置1の映像処理部4に対応するのがプロジェクタ装置101の映像処理部113である。さらに投影装置1の制御部5に対応するのがプロジェクタ装置101のCPU110である。
[2−3.アプリケーション画面に対する操作入力]
[2−3−1.ワープロ画面での操作入力]
まず、ワープロソフトのアプリケーション画面(ワープロ画面とも呼ぶ)に対する操作入力について説明する。
[2−3−1.ワープロ画面での操作入力]
まず、ワープロソフトのアプリケーション画面(ワープロ画面とも呼ぶ)に対する操作入力について説明する。
プロジェクタ装置101は、ワープロソフトを起動すると、図6に示すような、ワープロ画面201の映像をスクリーン102の投影面102Aに投影する。
このワープロ画面201は、入力された文字が表示されるテキスト表示領域201Aと、複数のキー画像kpで構成されるソフトウェアキーボードSkが表示されるキーボード表示領域201Bとで構成されている。
このようなワープロ画面201を投影する場合も、プロジェクタ装置101は、投影面102A上に存在する手の上にはワープロ画面201の映像を投影しないようになっている。
これにより、プロジェクタ装置101は、投影面102A上に手を置いたときに、あたかもワープロ画面201上に手を置いているかのような感覚をユーザに与えることができる。
このワープロ画面201では、キーボード表示領域201Bに表示されているソフトウェアキーボードSkを利用して文字入力を行うようになっている。
実際、図7に示すように、ユーザが、例えば文字「F」を入力しようと、この文字「F」に対応するキー画像kp(F)を右手の人差し指の指先でタッチするようなジェスチャ操作を、投影面102A上で行ったとする。この場合も、手の上にはワープロ画面201は表示されない。ゆえに、ユーザから見れば、タッチしている指先によってキー画像kp(F)の一部が隠れているように見える。
このとき、プロジェクタ装置101のCPU110は、検出した手の領域の形状から、右手の人差し指の指先の位置を特定する。そしてCPU110は、この位置と各キー画像kpの配置とをもとに、右手の人差し指によってキー画像kp(F)がタッチされたと認識する。
ここでCPU110は、投影面102A上に存在する手の表面で比較的平坦な部分となる手の甲に、人差し指でタッチされたキー画像kp(F)を表示するように、映像処理部113及び投影部116を制御する。
具体的に、映像処理部113は、キー画像kp(F)と、手の輪郭の内側となる部分を切り抜いたワープロ画面201の映像とを、手の輪郭の内側の手の甲となる部分にキー画像kp(F)が位置するよう合成して合成映像を生成する。そしてこの合成映像が、投影部116によって、スクリーン102に投影される。
尚、映像処理部113は、手の領域の形状(すなわち手の輪郭)をもとに、手の領域の内側で甲となる部分を推定するようになっている。
この結果、投影面102A上に存在する手の外側に、ワープロ画面201の映像が表示されると共に、投影面102A上に存在する手の甲にキー画像kp(F)が表示される。
こうすることで、プロジェクタ装置101は、キー画像kpを直接タッチするような感覚をユーザに与えつつ、現在どのキー画像kpをタッチしているのか(すなわち指先で隠れているキー画像kpはどれか)をユーザに容易に認識させることができる。
そしてプロジェクタ装置101は、この手の甲の部分に表示させたキー画像kp(F)が、もう一方の手の指先でタッチされると、入力文字を確定するようになっている。
実際、図8に示すように、ユーザが、右手でソフトウェアキーボードSkのキー画像kp(F)をタッチしたまま、この右手の甲に表示されているキー画像kp(F)を左手の人差し指の指先でタッチしたとする。
このときプロジェクタ装置101のCPU110は、検出した手の領域の形状から、右手の甲の位置と、左手の人差し指の指先の位置とを特定する。そしてCPU110は、これらの位置をもとに、右手の甲に表示されているキー画像kp(F)が左手でタッチされたと認識する。
ここでCPU110は、入力文字をキー画像kp(F)に対応する文字「F」に確定すると共に、この文字「F」を、ワープロ画面201の文字表示領域201A内に表示するように、映像処理部113及び投影部116を制御する。
この結果、図9に示すように、投影面102Aに投影されているワープロ画面201の文字表示領域201A内に文字「F」が表示される。
こうすることでプロジェクタ装置101では、タッチパネルのような操作感覚で、且つ確実に文字入力を行うことができる。
ここまで説明したように、プロジェクタ装置101は、ワープロソフト起動時、スクリーン102に投影されたワープロ画面201のソフトウェアキーボードSkを直接タッチするような操作感覚で、確実に文字入力を行うことができるようになっている。
[2−3−2.ペイント画面での操作入力]
次に、ペイントソフトのアプリケーション画面(ペイント画面とも呼ぶ)に対する操作入力について説明する。
次に、ペイントソフトのアプリケーション画面(ペイント画面とも呼ぶ)に対する操作入力について説明する。
プロジェクタ装置101は、ペイントソフトを起動すると、図10に示すような、ペイント画面202の映像をスクリーン102の投影面102Aに投影する。
このペイント画面202は、自由に線を描くことのできるキャンバス領域202Aと、線の色を指定する為のカラーパレット202Bとで構成されている。カラーパレット202Bは、各色に対応する複数のカラーボックスCbで構成される。
このようなペイント画面202を投影する場合も、プロジェクタ装置101は、投影面102A上に置かれた手の上にはペイント画面202の映像を投影しないようになっている。
このペイント画面202では、カラーパレット202Bから線の色を選択した後、キャンバス領域202A内をドラッグするようにして線を描くようになっている。
実際、図11に示すように、ユーザが、例えば赤色を選択しようと、カラーパレット202B内の赤色に対応するカラーボックスCb(R)を右手の人差し指の指先でタッチするようなジェスチャ操作を、投影面102A上で行ったとする。
このとき、プロジェクタ装置101のCPU110は、検出した手の領域の形状から、右手の人差し指の指先の位置を特定する。そしてCPU110は、この位置と各カラーボックスCbの配置とをもとに、右手の人差し指によってカラーボックスCb(R)がタッチされたと認識する。
ここでCPU110は、線の色を赤色に決定すると共に、投影面102A上に存在する手の甲に、人差し指でタッチされたカラーボックスCb(R)を表示するように、映像処理部113及び投影部116を制御する。
具体的に、映像処理部113は、カラーボックスCb(R)と、手の輪郭の内側となる部分を切り抜いたペイント画面202の映像とを、手の輪郭の内側の手の甲となる部分にカラーボックスCb(R)が位置するよう合成して合成映像を生成する。そしてこの合成映像が、投影部116によって、スクリーン102に投影される。
この結果、投影面102A上に存在する手の外側に、ペイント画面202の映像が表示され、投影面102A上に存在する手の甲にカラーボックスCb(R)が表示される。
こうすることで、プロジェクタ装置101は、カラーボックスCbを直接タッチするような感覚をユーザに与えつつ、現在どの色が選択されているのかをユーザに容易に認識させることができる。
尚、CPU110は、継続的に投影面102A上に存在する手の領域を検出していくことで、例えば、投影面102A上で手が移動しても、手の甲にカラーボックスCb(R)を表示させ続けるようになっている。
またこのペイント画面202では、再度、別の色のカラーボックスCbをタッチすることで、選択する色を変更することができるようにもなっている。
その後、図12に示すように、ユーザが、カラーボックスCb(R)が表示されている右手の人差し指の指先で、キャンバス領域202A内をドラッグするようなジェスチャ操作を、投影面102A上で行ったとする。
このときプロジェクタ装置101のCPU110は、検出した手の領域の形状から、右手の人差し指の指先の位置を特定する。そしてCPU110は、この位置をもとに、右手の人差し指の指先でキャンバス領域202A内がドラッグされていると認識する。
ここでCPU110は、キャンバス領域202A内に、ドラッグの軌跡に沿って現在選択されている色で線を描くように、映像処理部113及び投影部116を制御する。
この結果、投影面102A上に投影されているペイント画面202のキャンバス領域202A内に、ドラッグの軌跡に沿って現在選択されている色で線が描かれる。
ここまで説明したように、プロジェクタ装置101は、ペイントソフト起動時、スクリーン102に投影されたペイント画面202のキャンバス領域202A内を直接ドラッグするような操作感覚で、絵を描くことができるようになっている。
[2−3−3.Webブラウザ画面での操作入力]
次に、Webブラウザのアプリケーション画面(Webブラウザ画面とも呼ぶ)に対する操作入力について説明する。
次に、Webブラウザのアプリケーション画面(Webブラウザ画面とも呼ぶ)に対する操作入力について説明する。
プロジェクタ装置101は、Webブラウザを起動すると、図13に示すような、Webブラウザ画面203の映像をスクリーン102の投影面102Aに投影する。
このWebブラウザ画面203は、各種メニュー、ボタン、アドレス入力欄、検索キーワード入力欄などが配置されたツールバー203Aと、Webページのページ画像が表示されるページ表示領域203Bとで構成されている。
このようなWebブラウザ画面203を投影する場合も、プロジェクタ装置101は、投影面102A上に置かれた手の上にはWebブラウザ画面203の映像を投影しないようになっている。
このWebブラウザでは、ツールバー203Aの各種メニュー、ボタンをタッチすることで、各種メニュー、ボタンに応じた処理が実行されるようになっている。
実際、ユーザが、例えばホームページに設定されているWebページを閲覧しようと、ツールバー203A内のホームページボタンを右手の人差し指の指先でタッチするようなジェスチャ操作を、投影面102A上で行ったとする。
このとき、プロジェクタ装置101のCPU110は、検出した手の領域と動きから、ホームページボタンが右手の人差し指の指先でタッチされたと認識する。
ここでCPU110は、ネットワークI/F115を介して、ホームページに設定されているWebページのアドレスにアクセスして、このWebページのページデータを受信する。
そしてCPU110は、このページデータに基づくページ画像を、Webブラウザ画面203のページ表示領域203B内に表示するように、映像処理部113及び投影部116を制御する。
この結果、Webブラウザ画面203のページ表示領域203B内に、ホームページのページ画像が表示される。
ここで、図14に示すように、ユーザが、ページ表示領域203B内に表示されているページ画像内のハイパーリンクHLを右手の人差し指の指先でタッチするようなジェスチャ操作を、投影面102A上で行ったとする。
このとき、プロジェクタ装置101のCPU110は、検出した手の領域と動きから、ページ画像内のハイパーリンクHLが右手の人差し指の指先でタッチされたと認識する。
するとCPU110は、ネットワークI/F115を介して、ハイパーリンクHLが示すリンク先にアクセスして、このリンク先からページデータを受信する。
そしてCPU110は、このページデータに基づくページ画像(これをリンク先ページ画像とも呼ぶ)を手の甲に収まるよう縮小して、ハイパーリンクHLをタッチしている手の甲に投影するように、映像処理部113及び投影部116を制御する。
この結果、ハイパーリンクHLをタッチしている手の甲に、縮小されたリンク先ページ画像(これを縮小リンク先ページ画像とも呼ぶ)Spが表示される。
こうすることで、プロジェクタ装置101は、ページ表示領域203Bの表示内容をリンク先ページ画像に切り換える前に、リンク先のWebページがどのようなページなのかをユーザに確認させることができる。
そしてプロジェクタ装置101は、この手の甲の部分に表示させた縮小リンク先ページ画像Spが、もう一方の手の指先でタッチされると、ページ表示領域203Bの表示内容を、リンク先ページ画像に切り換えるようになっている。
具体的に、ユーザが、右手でハイパーリンクHLをタッチしたまま、右手の甲に表示されている縮小リンク先ページ画像Spを左手の人差し指の指先でタッチするように、左手の人差し指の指先を右手の甲の上に乗せたとする。
このときプロジェクタ装置101のCPU110は、検出した手の領域と動きから、右手の甲に表示されている縮小リンク先ページ画像Spが左手でタッチされたと認識する。
するとCPU110は、リンク先ページ画像を、ページ表示領域203B内に表示するように、映像処理部113及び投影部116を制御する。この結果、ページ表示領域203B内に、リンク先ページ画像が表示される。
このように、Webブラウザ画面203では、リンク先のWebページがどのようなページなのかをユーザに確認させてから、そのWebページをページ表示領域203Bに表示できるようになっている。
こうすることで、プロジェクタ装置101は、より確実にユーザが所望するWebページをユーザに閲覧させることができる。
さらにこのWebブラウザ画面203では、ページ表示領域203Bに表示されているページ画像内のテキスト上をドラッグすることで、テキストの所望部分をコピーできるようにもなっている。
実際、図15に示すように、ユーザが、ページ画像内のテキストの所望部分を右手の人差し指の指先でドラッグするようなジェスチャ操作を、投影面102A上で行ったとする。
このとき、プロジェクタ装置101のCPU110は、検出した手の領域と動きから、テキストの所望部分が右手の人差し指の指先でドラッグされたと認識する。
するとCPU110は、ドラッグされた所望部分を囲うコピー範囲を示す枠Frをページ画像上に表示するように映像処理部113及び投影部116を制御する。この結果、ページ画像上に、この枠Frが表示される。
またこのときCPU110は、ドラッグしている右手の甲に、枠Frで囲われた部分のテキストを投影するように映像処理部113及び投影部116を制御する。この結果、ドラッグしている右手の甲に、枠Frで囲われた部分のテキストが表示される。
こうすることで、プロジェクタ装置101は、テキスト上を直接ドラッグするような感覚をユーザに与えつつ、ドラッグにより現在テキストのどの部分がコピー範囲になっているのかをユーザに容易に認識させることができる。
その後、ユーザが、ドラッグしている指先を投影面102Aから離すことで、ドラッグを終了したとする。
このときCPU110は、検出した手の動きから、ドラッグが終了したと認識する。
するとCPU110は、このとき右手の甲に表示されている部分(すなわち枠Frで囲われている部分)をコピーする部分に決定して、この部分のテキストをクリップボードにコピーする。このようにして、テキストの所望部分がコピーされる。
ここで、CPU110は、テキストの所望部分をクリップボードにコピーした後も、後述する貼り付け操作が行われるまでは、この所望部分が右手の甲に表示され続けるように映像処理部113及び投影部116を制御するようになっている。
こうすることで、プロジェクタ装置101は、現在どのような情報がクリップボードにコピーされているのかをユーザに容易に認識させることができる。
また一方で、このWebブラウザ画面203では、ページ表示領域203Bに表示されているページ画像内の所望の画像を所定時間タッチし続けることで、この画像をコピーできるようにもなっている。
実際、図16に示すように、ユーザが、ページ画像内の所望の画像Piを右手の人差し指の指先で所定時間タッチし続けるようなジェスチャ操作を、投影面102A上で行ったとする。
このとき、プロジェクタ装置101のCPU110は、検出した手の領域と動きから、画像Piが右手の人差し指の指先で所定時間タッチされ続けたと認識する。
するとCPU110は、この画像Piをタッチしている右手の甲に、この画像Piを投影するように映像処理部113及び投影部116を制御する。この結果、画像Piをタッチしている右手の甲に、この画像Piが表示される。
またこれと共にCPU110は、この画像Piをクリップボードにコピーする。このようにして、所望の画像Piがコピーされる。
ここで、CPU110は、所望の画像Piをクリップボードにコピーした後も、後述する貼り付け操作が行われるまでは、この画像Piが右手の甲に表示され続けるように映像処理部113及び投影部116を制御するようになっている。
こうすることで、プロジェクタ装置101は、画像を直接タッチするような感覚で画像をコピーすることができ、さらに現在クリップボードにコピーしている画像をユーザに容易に認識させることができる。
さらにこのWebブラウザ画面203では、一方の手で、他方の手の甲に表示されている情報(すなわちクリップボードにコピーされているテキスト又は画像)を他方の手の指先にドラッグすることで、この情報を他方の手の指先で指し示している位置に貼り付けることができるようにもなっている。
実際、図17に示すように、ユーザが、右手の甲にテキストが表示されている状態で、ツールバー203Aの検索キーワード入力欄を、右手の人差し指の指先で指し示しているとする。そのうえでユーザが、左手の人差し指の指先で、右手の甲に表示されているテキストを右手の人差し指の指先にドラッグしたとする。
このとき、プロジェクタ装置101のCPU110は、検出した手の領域と動きから、右手の甲に表示されているテキストが、左手の人差し指の指先で、右手の人差し指の指先にドラッグされたと認識する。
するとCPU110は、右手の人差し指の指先で指し示されている検索キーワード入力欄に、右手の甲に表示されているテキスト(すなわちクリップボードにコピーされているテキスト)を表示するように映像処理部113及び投影部116を制御する。この結果、クリップボードにコピーされているテキストが、検索キーワード入力欄に表示される。このようにして、クリップボードにコピーされている情報が貼り付けられる。
こうすることで、プロジェクタ装置101は、クリップボードにコピーされている情報を直感的な操作で所望の位置に貼り付けることができる。
[2−4.処理手順]
次に、スクリーン102の投影面102A上に映像を投影するときに、プロジェクタ装置101により実行される処理の手順(これを投影処理手順とも呼ぶ)の概要について、図18に示すフローチャートを用いて説明する。
次に、スクリーン102の投影面102A上に映像を投影するときに、プロジェクタ装置101により実行される処理の手順(これを投影処理手順とも呼ぶ)の概要について、図18に示すフローチャートを用いて説明する。
尚、図18に示す投影処理手順RTは、プロジェクタ装置101のCPU110が、不揮発性メモリ111に格納されているプログラムにしたがって実行する処理の手順である。
CPU110は、例えば、プロジェクタ装置101の電源がオンされると、この投影処理手順RTを開始して、ステップSP1に移る。ステップSP1においてCPU110は、映像処理部113及び投影部116を制御して、スクリーン102の投影面102Aに、投影面102Aに表示すべき各種画面の映像(これを主映像とも呼ぶ)を投影し、次のステップSP2に移る。
ステップSP2においてCPU110は、投影部116から投影面102Aに投影している主映像と、撮像部117で投影面102A上を撮像した映像とを比較することで、撮像部117の視野内(すなわち投影面102A上)に、手などの物体が存在するか否かを判断する。
このステップSP2で否定結果を得ると、このことは、投影面102A上に何も存在していないことを意味する。このときCPU110は、そのまま投影面102Aに主映像を投影させ続け、再びステップSP1に戻る。
これに対して、ステップSP2で肯定結果を得ると、このことは、投影面102A上に手などの物体が存在することを意味する。このときCPU110は、ステップSP3に移る。
ステップSP3においてCPU110は、物体の領域を検出して、次のステップSP4に移る。CPU110は、検出した物体の領域外に主映像が表示されるように、検出した物体の領域内となる部分を切り抜いた主映像を、投影面102に投影させて、次のステップSP5に移る。
ステップSP5においてCPU110は、検出した物体の領域内に、主映像とは異なる映像(これを副映像とも呼ぶ)を投影するか否かを判断する。
このステップSP5で否定結果を得ると、このときCPU110は、再びステップSP1に戻る。
これに対してこのステップSP5で肯定結果を得ると、このことは、例えば、ソフトウェアキーボードSkを構成するキー画像kpが手でタッチされたことにより、CPU110が、この手の甲にキー画像kpを投影すると判断したことを意味する。このときCPU110は、ステップSP6に移る。
ステップSP6においてCPU110は、撮像部117から、プロジェクタ部104から物体までの距離と、プロジェクタ部104から投影面102Aまでの距離とを得、これらをもとに、手と投影面102Aとの中間の位置にピントを合わせるよう投影部116を制御する。
こうすることで、プロジェクタ装置101は、プロジェクタ部104からの距離が異なる物体と投影面102Aとの両方に、良好な画質で映像を投影することができる。
その後、CPU110は、次のステップSP7に移り、検出した物体の領域内で平坦な部分(例えば手の甲)に、副映像が表示されるように、主映像と副映像とを合成した映像を投影面102に投影させて、再びステップSP1に戻る。
このような投影処理手順RTにしたがって、プロジェクタ装置101は、スクリーン102の投影面102A上に映像を投影するようになっている。
[2−5.第1の実施の形態の動作及び効果]
以上の構成において、プロジェクタ装置101は、スクリーン102の投影面102Aに投影するデスクトップ画面200などの映像(主映像)と、スクリーン102の投影面102Aを撮像して得られる映像とを比較することで、投影面102A上にユーザの手が存在するか否かを判別する。
以上の構成において、プロジェクタ装置101は、スクリーン102の投影面102Aに投影するデスクトップ画面200などの映像(主映像)と、スクリーン102の投影面102Aを撮像して得られる映像とを比較することで、投影面102A上にユーザの手が存在するか否かを判別する。
ここで、ユーザの手が存在すると判別した場合、プロジェクタ装置101は、手の上には主映像が投影されないよう、手の領域内に投影される部分を切り取った主映像を、投影面102Aに投影する。
この結果、手の領域を除くように、スクリーン102の投影面102Aに主映像が表示される。
こうすることで、プロジェクタ装置101は、凹凸を有する手の領域内に主映像の一部分が投影されて、この一部分が見づらくなることを防ぐことができると共に、手と容易に区別できる状態で主映像をスクリーン102に投影することができる。
さらにプロジェクタ装置101は、必要に応じて、投影面102A上に存在する手の領域内で比較的平坦な部分となる手の甲に、主映像とは異なる映像(副映像)を投影する。
このように、プロジェクタ装置101は、手の甲の部分を、スクリーン102の投影面102Aとは別の表示領域として利用することで、主映像と副映像とを同時に且つ明確に切り分けてユーザに視認させるようなことができる。
以上の構成によれば、プロジェクタ装置101は、投影面102A上に存在する手の上に主映像が表示されてしまうことを防止して、投影面102A上に存在する手と容易に区別できるようにして主映像を投影面102Aに投影することができる。かくして、プロジェクタ装置101は、投影面102A上に手が存在する場合でも、良好な視認性を得ることができる。
<3.第2の実施の形態>
次に、第2の実施の形態について説明する。この第2の実施の形態では、デスクトップ画面200に配置されているアイコン200Aがタッチされると、このアイコン200Aのコンテキストメニューを、タッチしている手の甲に表示するようになっている。
次に、第2の実施の形態について説明する。この第2の実施の形態では、デスクトップ画面200に配置されているアイコン200Aがタッチされると、このアイコン200Aのコンテキストメニューを、タッチしている手の甲に表示するようになっている。
コンテキストメニューは、オプションメニュー、ショートカットメニューなどとも呼ばれ、「コピー」、「削除」、「アプリケーションの起動」など、アイコンに対して実行可能な処理の名称をリスト表示し、所望の処理を選択・実行できるようにしたメニューである。
尚、この第2の実施の形態の映像投影システムの構成については、第1の実施の形態と同様であるので、第1の実施の形態を参照とする。ゆえに、ここでは、デスクトップ画面200に対する操作入力についてのみ説明する。
まず、第1の実施の形態と同様、スクリーン102の投影面102Aに、各種アプリケーションに対応するアイコン200Aが複数配置されたデスクトップ画面200が投影されているとする。
ここで、図19に示すように、ユーザが、所望のアイコン200Aを右手の人差し指の指先でタッチするようなジェスチャ操作を投影面102A上で行ったとする。この場合も、第1の実施の形態と同様、手の上にはデスクトップ画面200は表示されない。
このとき、CPU110は、検出した手の領域の形状から、右手の人差し指の指先の位置を特定する。そしてCPU110は、この位置と各アイコン200Aの配置とをもとに、右手の人差し指によって任意のアイコン200Aがタッチされたと認識する。
ここでCPU110は、アイコン200Aをタッチしている右手の甲に、タッチされているアイコン200AのコンテキストメニューCmの映像を投影するように、映像処理部113及び投影部116を制御する。
具体的に、映像処理部113は、コンテキストメニューCmの映像と、手の輪郭の内側となる部分を切り取ったデスクトップ画面200の映像とを、手の甲となる部分にコンテキストメニューCmの映像が位置するよう合成して合成映像を生成する。そしてこの合成映像が、投影部116によって、スクリーン102に投影される。
この結果、投影面102A上に存在する手の外側に、デスクトップ画面200の映像が表示されると共に、投影面102A上に存在する手の甲にコンテキストメニューCmの映像が表示される。
このコンテキストメニューCmは、複数行のリストで構成され、タッチされたアイコン200Aに対して実行可能な処理の名称(「コピー」、「削除」、「アプリケーションの起動」など)が項目Cmiとして、各行に中央揃えで表示されるようになっている。
そしてプロジェクタ装置101は、図20に示すように、手の甲に表示されているコンテキストメニューCmの行の1つが、もう一方の手の指先でタッチされると、タッチされた行の項目Cmiに対応する処理を実行するようになっている。
具体的に、ユーザが、右手でアイコン200Aをタッチしたまま、この右手の甲に表示させているコンテキストメニューCmの行の1つを、左手の人差し指の指先でタッチしたとする。
このときプロジェクタ装置101のCPU110は、検出した手の領域の形状と動きから、右手の甲に表示させているコンテキストメニューCmの行の1つが左手でタッチされたと認識する。するとCPU110は、タッチされた行の項目Cmiに対応する処理を実行する。
このように、プロジェクタ装置101は、手の甲の部分を、スクリーン102の投影面102Aとは別の表示領域、すなわちコンテキストメニューCmを表示する表示領域として利用することで、デスクトップ画面200とコンテキストメニューCmとを同時に且つ明確に切り分けた状態でユーザに視認させることができる。
<4.変形例>
[4−1.変形例1]
尚、上述した第1の実施の形態では、Webブラウザ画面203のページ表示領域203Bに表示されている画像が所定時間タッチされ続けることに応じて、この画像をクリップボードにコピーするようにした。
[4−1.変形例1]
尚、上述した第1の実施の形態では、Webブラウザ画面203のページ表示領域203Bに表示されている画像が所定時間タッチされ続けることに応じて、この画像をクリップボードにコピーするようにした。
これに限らず、例えば、図21に示すように、右手の指先で画像をタッチしている状態で、左手の指先で右手の甲に「C」の文字を描くジェスチャ操作が行われることに応じて、この画像をクリップボードにコピーするようにしてもよい。
実際、ユーザが、ページ表示領域203Bに表示されている所望の画像を右手の人差し指の指先でタッチしている状態で、左手の人差し指の指先で右手の甲に「C」の文字を描くジェスチャ操作を行ったとする。
このとき、プロジェクタ装置101のCPU110は、検出した手の領域の形状と動きから、画像をタッチしている右手の甲に、左手の人差し指の指先で「C」の文字が描かれたと認識する。
するとCPU110は、画像をタッチしている右手の甲に、この画像を表示するように映像処理部113及び投影部116を制御する。この結果、画像をタッチしている右手の甲に、この画像が表示される。
またこれと共にCPU110は、この画像をクリップボードにコピーする。このようにして、所望の画像がコピーされる。
また画像に限らず、例えば、デスクトップ画面200に配置されているアイコン200Aが一方の手でタッチしている状態で、他方の手で一方の手の甲に「C」の文字を描くジェスチャ操作が行われることに応じて、このアイコン200Aをコピーするなどしてもよい。
またここでは、コピーに対応する操作を、手の甲に「C」の文字を描くジェスチャ操作としたが、コピーを容易に想到させるような操作であれば、この他種々の操作でもよい。
[4−2.変形例2]
また上述した第2の実施の形態では、アイコン200Aがタッチされると、タッチしている手の甲に、各行に中央揃えで項目Cmiが表示されるコンテキストメニューCmを投影するようにした。
また上述した第2の実施の形態では、アイコン200Aがタッチされると、タッチしている手の甲に、各行に中央揃えで項目Cmiが表示されるコンテキストメニューCmを投影するようにした。
ここで、アイコン200Aをタッチしている手が右手か左手かに応じて、コンテキストメニューCmの各行に表示される項目Cmiを、ユーザから見て右寄り、又は左寄りに表示させるようにしてもよい。
具体的に、CPU110は、検出した手の領域の形状から、アイコン200Aをタッチしている手が右手か左手かを特定する。そしてCPU110は、アイコン200Aをタッチしている手が右手であれば、図22に示すように、各行に右端揃えで項目Cmiが表示されるコンテキストメニューCmを、この右手の甲に投影させる。
こうすることで、プロジェクタ装置101では、右手の甲に投影されているコンテキストメニューCmの行の1つを、左手の指先でタッチしようとしたときに、指先と項目Cmiが重なって項目Cmiが見づらくなることを防止できる。
一方で、アイコン200Aをタッチしている手が左手であれば、プロジェクタ装置101のCPU110は、各行に左端揃えで項目Cmiが表示されるコンテキストメニューCmを、この左手の甲に投影させる。
こうすることで、プロジェクタ装置101では、左手の甲に表示されているコンテキストメニューCmの行の1つを、右手の指先でタッチしようとしたときに、指先と項目Cmiが重なって項目Cmiが見づらくなることを防止できる。
[4−3.変形例3]
さらに上述した第2の実施の形態では、デスクトップ画面200に配置されているアイコン200Aがタッチされると、このアイコン200AのコンテキストメニューCmを、タッチした手の甲に投影するようにした。
さらに上述した第2の実施の形態では、デスクトップ画面200に配置されているアイコン200Aがタッチされると、このアイコン200AのコンテキストメニューCmを、タッチした手の甲に投影するようにした。
これに限らず、図23に示すように、例えば、アイコン200Aがタッチされることに応じて、このアイコン200Aを、タッチした手の甲に投影するようにしてもよい。このときアイコン200Aだけでなく、アイコン200Aの名称も手の甲に投影するようにする。
実際、デスクトップ画面200Aには、各アイコン200Aの直下に、アイコン200Aの名称が表示されるようになっている。この名称は、デスクトップ画面200Aのレイアウトにもよるが、表示可能な文字数が決まっている。
ゆえに、アイコン200Aの名称が、この表示可能な文字数を超えている場合、超えている部分が省略された状態で表示されることになる。
そこで、通常、デスクトップ画面200上で各アイコン200A及び名称に割り当てられている領域よりも大きな領域となる手の甲にアイコン200A及び名称を表示させるときには、名称全体を表示させるようにする。
このようにすれば、容易に、所望のアイコン200Aの名称全体をユーザに確認させることができる。
さらにこのようにして手の甲に表示させているアイコン200Aが、もう一方の手でタッチされることに応じて、このアイコン200Aに対応するアプリケーションを起動するようにしてもよい。
尚、アイコン200A及び名称の手の甲への表示、及びアプリケーションの起動は、第1及び第2の実施の形態と同様、プロジェクタ装置101のCPU110の制御により実行される。
[4−4.変形例4]
さらに上述した第2の実施の形態では、アイコン200Aがタッチされると、タッチしている手の甲に、アイコン200Aに対して実行可能な処理の名称がリスト表示されるコンテキストメニューCmを投影するようにした。
さらに上述した第2の実施の形態では、アイコン200Aがタッチされると、タッチしている手の甲に、アイコン200Aに対して実行可能な処理の名称がリスト表示されるコンテキストメニューCmを投影するようにした。
これに限らず、アイコン200Aがタッチされることに応じて、アイコン200Aに関係するこの他種々のサブ情報を、アイコン200Aをタッチしている手の甲に表示させるようにしてもよい。
例えば、デスクトップ画面200に、楽曲の再生曲順を示すプレイリストに対応するアイコンが配置されているとする。ここで、このアイコンがタッチされると、CPU110は、タッチしている手の甲に、このアイコンに対応するプレイリストを投影する。
そして手の甲に投影しているプレイリストに記されている楽曲名の1つが、もう一方の手の指先でタッチされると、CPU110は、この楽曲名に対応する楽曲データを、例えば、不揮発性メモリ111から読み出して再生する。この結果得られる音声は、例えば、図示しない出力端子を介して出力される。
[4−5.変形例5]
さらに上述した第1及び第2の実施の形態では、投影面102A上に手などの物体が存在する場合に、この物体の領域内には、デスクトップ画面200やワープロ画面201などの主映像を投影しないようにした。
さらに上述した第1及び第2の実施の形態では、投影面102A上に手などの物体が存在する場合に、この物体の領域内には、デスクトップ画面200やワープロ画面201などの主映像を投影しないようにした。
これに限らず、物体の領域内には、例えば、物体の領域外よりも薄い色合いで主映像を投影するようにしてもよい。
このようにすると、半透明の物体が画面上に置かれているような感覚をユーザに与えることができる。
またこれに限らず、物体の領域内には、例えば、物体の領域外よりも低い解像度で主映像を投影するなどしてもよい。
このように、物体の領域内には、物体の領域外と比べて目立たないように映像処理された主映像を投影するようにしてもよい。
[4−6.変形例6]
さらに上述した第1及び第2の実施の形態では、投影面102A上に存在する手を検出して、この手の上に副映像を投影するようにした。
さらに上述した第1及び第2の実施の形態では、投影面102A上に存在する手を検出して、この手の上に副映像を投影するようにした。
これに限らず、例えば、投影面102A上にプラスチックなどの素材でなる板を置くようにして、この板の上にガジェットなどの副映像を投影するなどしてもよい。
この場合も、プロジェクタ装置101のCPU110は、手の場合と同様の方法で、この板を検出ことができる。
[4−7.変形例7]
さらに上述した第1及び第2の実施の形態では、種々のタッチ操作により、アプリケーション画面に配置された各種オブジェクト(アイコン、ソフトウェアキーボード、カラーパレット、ハイパーリンクなど)に対する操作入力を行うようにした。これに限らず、タッチ操作とは異なる操作で、各種操作入力を行うようにしてもよい。
さらに上述した第1及び第2の実施の形態では、種々のタッチ操作により、アプリケーション画面に配置された各種オブジェクト(アイコン、ソフトウェアキーボード、カラーパレット、ハイパーリンクなど)に対する操作入力を行うようにした。これに限らず、タッチ操作とは異なる操作で、各種操作入力を行うようにしてもよい。
具体的には、例えば、ユーザの指先が、デスクトップ画面200に配置されている所望のアイコン200A上に所定時間位置し続けたら、CPU110が、アイコン200Aを選択決定する操作が行われたと認識するようにしてもよい。
また例えば、ユーザの指先が、ワープロ画面201のソフトウェアキーボードSkの任意のキー画像kp上に移動した時点で、CPU110が、このキー画像kp上に位置する手の甲にキー画像kpを投影するようにしてもよい。
このようにすれば、手とスクリーン102の投影面102Aとの距離を算出しなくとも、アプリケーション画面に対する操作入力を実現でき、結果として、CPU110の処理負荷を低減することもできる。
[4−8.変形例8]
さらに上述した実施の形態では、スクリーン102の投影面102Aに投影している映像と、投影面102Aを撮像して得られた映像とを比較することで、投影面102A上に手などの物体が存在するかどうかを判別すると共に、存在する物体の領域を検出するようにした。
さらに上述した実施の形態では、スクリーン102の投影面102Aに投影している映像と、投影面102Aを撮像して得られた映像とを比較することで、投影面102A上に手などの物体が存在するかどうかを判別すると共に、存在する物体の領域を検出するようにした。
これに限らず、この他種々の方法で、投影面102A上に手などの物体が存在するかどうかを判別したり、存在する物体の領域を検出したりしてもよい。
例えば、既存の映像解析技術を利用して、投影面102Aを撮像して得られた映像を解析することで、投影面102A上に手などの物体が存在するかどうかを判別すると共に、存在する物体の領域を検出するようにしてもよい。
さらに例えば、プロジェクタ部104の投影面102Aと対向する面に、複数の測距用赤外線センサをアレイ状に設けるようにして、これら複数の赤外線センサの検出結果をもとに、投影面102A上に手などの物体が存在するかどうかを判別すると共に、存在する物体の領域を検出するようにしてもよい。
このようなアレイ状に配置された赤外線センサを利用することで、プロジェクタ部104から手までの距離と、プロジェクタ部104から投影面102Aまでの距離とを検出することができ、さらにこれらの距離と、手の平均的な厚さとをもとに、手と投影面102Aとの距離を算出するようなこともできる。
またこのようなアレイ状に配置された赤外線センサを利用することで、手の表面で比較手平坦な部分となる手の甲を一段と正確に検出することもできる。
尚、このような手の甲の検出についても、このような方法に限定するものではなく、この他種々の方法で検出するようにしてもよい。
さらに例えば、プロジェクタ部104の投影面102Aと対応する面に、2つのカメラで構成されるステレオカメラを設け、このステレオカメラで投影面102Aを撮像して得られた映像を解析することにで、投影面102A上に手などの物体が存在するかどうかを判別すると共に、存在する物体の形状を検出するようにしてもよい。
このようなステレオカメラを利用すれば、プロジェクタ部104から手までの距離と、プロジェクタ部104から投影面102Aまでの距離とを検出することができ、さらにこれらの距離と、手の平均的な厚さとをもとに、手と投影面102Aとの距離を算出することができる。
[4−9.変形例9]
さらに上述した第1及び第2の実施の形態では、本体部103とプロジェクタ部104とがケーブル接続されてなるセパレート型のプロジェクタ装置101に本発明を適用するようにした。
さらに上述した第1及び第2の実施の形態では、本体部103とプロジェクタ部104とがケーブル接続されてなるセパレート型のプロジェクタ装置101に本発明を適用するようにした。
これに限らず、例えば、プロジェクタ部104に本体部103の機能を内蔵させた一体型のプロジェクタ装置101に本発明を適用するようにしてもよい。
さらに上述した第1及び第2の実施の形態では、スクリーン102を机上に載置して、このスクリーン102に対して、スクリーン102の上方から映像を投影するタイプのプロジェクタ装置101に本発明を適用するようにした。
これに限らず、例えば、スクリーン102を壁に設置して、このスクリーン102に対して、スクリーン102の前方から映像を投影するタイプのプロジェクタ装置101に本発明を適用するようにしてもよい。
この場合、プロジェクタ装置101のCPU110は、スクリーン102の投影面102Aの前方に物体が存在するかどうかを検出することになる。
またこのようなタイプのプロジェクタ装置に限らず、この他種々のタイプのプロジェクタ装置に本発明を適用するようにしてもよい。
さらに上述した第1及び第2の実施の形態では、1つの投影部116により、主映像と副映像との2つの映像を投影するようにした。
これに限らず、例えば、投影部を2つ設けるようにして、一方の投影部で、主映像を投影し、他方の投影部で副映像を投影するようにしてもよい。
[4−10.他の実施の形態10]
さらに上述した第1及び第2の実施の形態では、投影装置としてのプロジェクタ装置101に、投影部としての投影部116と、物体検出部としての撮像部117と、映像処理部としての映像処理部113と、物体検出部及び制御部としてのCPU110とを設けるようにした。
さらに上述した第1及び第2の実施の形態では、投影装置としてのプロジェクタ装置101に、投影部としての投影部116と、物体検出部としての撮像部117と、映像処理部としての映像処理部113と、物体検出部及び制御部としてのCPU110とを設けるようにした。
本発明はこれに限らず、同様の機能を有するのであれば、上述したプロジェクタ装置101の各機能部(投影部、物体検出部、映像処理部、制御部)を、他の種々の構成で実現するようにしてもよい。
[4−11.他の実施の形態11]
さらに上述した第1及び第2の実施の形態では、各種処理を実行するためのプログラムを、本体部103の不揮発性メモリ111に書き込んでおくようにした。
さらに上述した第1及び第2の実施の形態では、各種処理を実行するためのプログラムを、本体部103の不揮発性メモリ111に書き込んでおくようにした。
これに限らず、例えば、本体部103に光ディスクやメモリカードといった記憶媒体のドライブを設け、CPU110が、ドライブを介して記憶媒体からプログラムを読み出して実行するようにしてもよい。またCPU110が、この記憶媒体から読み出したプログラムを、不揮発性メモリ111にインストールするようにしてもよい。さらにCPU110が、このプログラムを、ネットワークI/F1135介して、ネットワーク上の機器からダウンロードして、不揮発性メモリ111にインストールするなどしてもよい。
[4−12.他の実施の形態12]
さらに、本発明は、上述した第1及び第2の実施の形態と変形例とに限定されるものではない。すなわち本発明は、上述した第1及び第2の実施の形態と変形例の一部または全部を任意に組み合わせた形態、もしくは一部を抽出した形態にもその適用範囲が及ぶものである。
さらに、本発明は、上述した第1及び第2の実施の形態と変形例とに限定されるものではない。すなわち本発明は、上述した第1及び第2の実施の形態と変形例の一部または全部を任意に組み合わせた形態、もしくは一部を抽出した形態にもその適用範囲が及ぶものである。
本発明は、スクリーンに映像を投影するプロジェクタなどで広く利用することができる。
1……投影装置、2……投影部、3……物体検出部、4……映像処理部、5……制御部、100……映像投影システム、101……プロジェクタ装置、102……スクリーン、102A……投影面、110……CPU、113……映像処理部、116……投影部、117……撮像部。
Claims (15)
- 被投影体に主映像を投影する投影部と、
上記投影部と上記被投影体との間に存在する物体を検出する物体検出部と、
上記物体検出部により検出された物体には上記主映像がそのまま投影されないよう当該主映像に対する処理を行う映像処理部と、
上記投影部を制御する制御部と
を具える投影装置。 - 上記映像処理部は、
上記主映像から、上記物体検出部により検出された物体に投影される部分を切り取る処理を行い、
上記制御部は、
上記物体に投影される部分が切り取られた上記主映像を上記被投影体に投影するよう上記投影部を制御する
請求項1に記載の投影装置。 - 上記映像処理部は、
上記主映像の上記物体検出部により検出された物体に投影される部分を、他の部分よりも薄い色合いにする処理を行い、
上記制御部は、
上記物体に投影される部分が他の部分よりも薄い色合いの上記主映像を上記被投影体に投影するよう上記投影部を制御する
請求項1に記載の投影装置。 - 上記物体検出部は、
上記被投影体を撮像して得られる映像と、上記被投影体に投影する主映像とを比較することで、上記投影部と上記被投影体との間に存在する物体を検出する
請求項2に記載の投影装置。 - 上記物体検出部は、
上記被投影体を撮像して得られる映像を解析することで、上記投影部と上記被投影体との間に存在する物体を検出する
請求項2に記載の投影装置。 - 上記制御部は、
上記物体検出部により検出された物体に、上記主映像とは異なる副映像を投影するよう上記投影部を制御する
請求項4に記載の投影装置。 - 上記物体検出部は、
上記投影部と上記被投影体との間に存在する物体として、ユーザの手を検出する
請求項6に記載の投影装置。 - 上記制御部は、
上記物体検出部により検出された手の甲に、上記副映像を投影するよう上記投影部を制御する
請求項7に記載の投影装置。 - 上記物体検出部は、
上記投影部と上記被投影体との間に存在するユーザの手の動きを検出し、
上記制御部は、
上記物体検出部により検出された手の動きに応じて、各種処理を実行する
請求項8に記載の投影装置。 - 上記制御部は、
所定画面の映像を主映像として上記被投影体に投影するよう上記投影部を制御し、
上記物体検出部により、上記所定画面に配置されているオブジェクトを操作するような手の動きが検出されると、当該オブジェクトの操作に対応する処理を実行する
請求項9に記載の投影装置。 - 上記制御部は、
上記物体検出部により、上記所定画面に配置されているオブジェクトを操作するような手の動きが検出されると、当該オブジェクトの操作に対応する映像を副映像として、当該手の甲に投影するよう上記投影部を制御する
請求項10に記載の投影装置。 - 上記制御部は、
上記物体検出部により、上記手の甲に投影されている副映像を、もう一方の手で操作するような手の動きが検出されると、当該副映像の操作に対応する処理を実行する
請求項11に記載の投影装置。 - 上記制御部は、
所定画面の映像を主映像として上記被投影体に投影するよう上記投影部を制御し、
上記物体検出部により、上記所定画面に配置されているオブジェクトを選択するような手の動きが検出され、さらに当該オブジェクトを選択している手に対して、もう一方の手で所定のジェスチャ操作を行うような手の動きが検出されると、当該オブジェクトに対して当該ジェスチャ操作に対応する処理を実行する
請求項9に記載の投影装置。 - 制御部が、投影部を制御して被投影体に主映像を投影する投影ステップと、
物体検出部が、上記投影部と上記被投影体との間に存在する物体を検出する検出ステップと、
映像処理部が、上記検出ステップで検出された物体には上記主映像がそのまま投影されないよう、当該主映像に対する処理を行う処理ステップと
を具える投影方法。 - 投影装置に対し、
制御部が、投影部を制御して被投影体に主映像を投影する投影ステップと、
物体検出部が、上記投影部と上記被投影体との間に存在する物体を検出する検出ステップと、
映像処理部が、上記検出ステップで検出された物体には上記主映像がそのまま投影されないよう、当該主映像に対する処理を行う処理ステップと
を実行させるための投影プログラム。
Priority Applications (9)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011075998A JP2012208439A (ja) | 2011-03-30 | 2011-03-30 | 投影装置、投影方法及び投影プログラム |
CN201210079745.2A CN102740031B (zh) | 2011-03-30 | 2012-03-23 | 投影装置、投影方法和投影程序 |
US13/428,414 US9223443B2 (en) | 2011-03-30 | 2012-03-23 | Projection device, projection method and projection program |
US14/940,254 US9727173B2 (en) | 2011-03-30 | 2015-11-13 | Projection device, projection method, and projection program |
US15/629,059 US10120505B2 (en) | 2011-03-30 | 2017-06-21 | Projection and operation input detection device, method and program |
US16/146,132 US10459578B2 (en) | 2011-03-30 | 2018-09-28 | Projection device, projection method and projection program |
US16/578,530 US10860145B2 (en) | 2011-03-30 | 2019-09-23 | Projection device, projection method and projection program |
US17/095,852 US11797131B2 (en) | 2011-03-30 | 2020-11-12 | Apparatus and method for image output using hand gestures |
US18/369,467 US20240012521A1 (en) | 2011-03-30 | 2023-09-18 | Projection Device, Projection Method And Projection Program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011075998A JP2012208439A (ja) | 2011-03-30 | 2011-03-30 | 投影装置、投影方法及び投影プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012208439A true JP2012208439A (ja) | 2012-10-25 |
Family
ID=46965679
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011075998A Withdrawn JP2012208439A (ja) | 2011-03-30 | 2011-03-30 | 投影装置、投影方法及び投影プログラム |
Country Status (3)
Country | Link |
---|---|
US (7) | US9223443B2 (ja) |
JP (1) | JP2012208439A (ja) |
CN (1) | CN102740031B (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014095738A (ja) * | 2012-11-07 | 2014-05-22 | Nec Infrontia Corp | 兼用グラフィックユーザインターフェース装置、兼用方法及び兼用プログラム |
CN104698827A (zh) * | 2013-12-08 | 2015-06-10 | 崔允太 | 一种智能手表用屏幕 |
JP2015125670A (ja) * | 2013-12-27 | 2015-07-06 | 日立マクセル株式会社 | 画像投射装置 |
JP2016006484A (ja) * | 2014-05-29 | 2016-01-14 | パナソニックIpマネジメント株式会社 | プロジェクタシステム |
JP2019003683A (ja) * | 2014-06-03 | 2019-01-10 | グーグル エルエルシー | ウェアラブルデバイスを通じたレーダ型ジェスチャ認識 |
US10275938B2 (en) | 2015-02-27 | 2019-04-30 | Sony Corporation | Image processing apparatus and image processing method |
WO2019176594A1 (ja) * | 2018-03-16 | 2019-09-19 | 富士フイルム株式会社 | 投影制御装置、投影装置、投影制御方法、及び投影制御プログラム |
JP2020003754A (ja) * | 2018-07-02 | 2020-01-09 | カシオ計算機株式会社 | 投影装置、投影方法及びプログラム |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012208439A (ja) | 2011-03-30 | 2012-10-25 | Sony Corp | 投影装置、投影方法及び投影プログラム |
JP2013190671A (ja) * | 2012-03-14 | 2013-09-26 | Ricoh Co Ltd | 画像投影装置、明暗処理方法及びプログラム |
JPWO2014061310A1 (ja) * | 2012-10-16 | 2016-09-05 | 日本電気株式会社 | 表示物制御システム、表示物制御方法及びプログラム |
JP6044426B2 (ja) * | 2013-04-02 | 2016-12-14 | 富士通株式会社 | 情報操作表示システム、表示プログラム及び表示方法 |
JP6201379B2 (ja) * | 2013-04-02 | 2017-09-27 | 富士通株式会社 | 位置算出システム、位置算出プログラム、および、位置算出方法 |
DE102013007261A1 (de) | 2013-04-26 | 2014-10-30 | Volkswagen Aktiengesellschaft | Bedienvorrichtung zur Bedienung eines Gerätes, insbesondere zur Bedienung einer Funktion eines Kraftfahrzeuges |
DE102013208625A1 (de) * | 2013-05-10 | 2014-11-13 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Multiapertur-projektionsdisplay und einzelbilderzeuger für ein solches |
US9160993B1 (en) * | 2013-07-18 | 2015-10-13 | Amazon Technologies, Inc. | Using projection for visual recognition |
USD747344S1 (en) | 2013-08-02 | 2016-01-12 | Apple Inc. | Display screen with graphical user interface |
CN105204752B (zh) * | 2014-06-04 | 2018-08-03 | 北京大学深圳研究生院 | 投影式阅读中实现交互的方法和系统 |
KR101636460B1 (ko) * | 2014-11-05 | 2016-07-05 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
USD775185S1 (en) * | 2015-03-06 | 2016-12-27 | Apple Inc. | Display screen or portion thereof with graphical user interface |
WO2016157484A1 (ja) * | 2015-04-01 | 2016-10-06 | 三菱電機株式会社 | 作業指示システム |
WO2017056776A1 (ja) * | 2015-09-29 | 2017-04-06 | 富士フイルム株式会社 | 距離画像取得装置付きプロジェクタ装置及びプロジェクション方法 |
USD790575S1 (en) | 2016-06-12 | 2017-06-27 | Apple Inc. | Display screen or portion thereof with graphical user interface |
USD803888S1 (en) * | 2016-08-09 | 2017-11-28 | Xerox Corporation | Printer machine user interface screen with icon |
USD888723S1 (en) * | 2017-03-27 | 2020-06-30 | Samsung Electronics Co., Ltd. | Display screen or portion thereof with graphical user interface |
JP2019040003A (ja) * | 2017-08-24 | 2019-03-14 | セイコーエプソン株式会社 | プロジェクターおよびプロジェクターの制御方法 |
JP2019060963A (ja) * | 2017-09-25 | 2019-04-18 | ソニー株式会社 | 表示処理装置、表示処理方法及びプログラム |
US11194464B1 (en) | 2017-11-30 | 2021-12-07 | Amazon Technologies, Inc. | Display control using objects |
USD877174S1 (en) | 2018-06-03 | 2020-03-03 | Apple Inc. | Electronic device with graphical user interface |
CN112019825A (zh) * | 2020-08-13 | 2020-12-01 | 广景视睿科技(深圳)有限公司 | 一种投影方法和投影设备 |
KR102373961B1 (ko) * | 2021-09-10 | 2022-03-15 | (주)웅진씽크빅 | 독서 지원 장치 및 이를 이용한 사용자 입력 감지 방법 |
US11847256B2 (en) * | 2022-03-04 | 2023-12-19 | Humane, Inc. | Presenting and aligning laser projected virtual interfaces |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69430967T2 (de) * | 1993-04-30 | 2002-11-07 | Xerox Corp | Interaktives Kopiersystem |
US8300042B2 (en) * | 2001-06-05 | 2012-10-30 | Microsoft Corporation | Interactive video display system using strobed light |
US6984039B2 (en) * | 2003-12-01 | 2006-01-10 | Eastman Kodak Company | Laser projector having silhouette blanking for objects in the output light path |
WO2005069114A1 (ja) * | 2004-01-15 | 2005-07-28 | Vodafone K.K. | 移動体通信端末 |
JP2005338379A (ja) | 2004-05-26 | 2005-12-08 | Sony Corp | プロジェクタ |
WO2006070708A1 (ja) * | 2004-12-28 | 2006-07-06 | Brother Kogyo Kabushiki Kaisha | プロジェクタ |
JP4872482B2 (ja) * | 2006-06-23 | 2012-02-08 | 富士ゼロックス株式会社 | 遠隔支援装置、遠隔支援システム及び遠隔支援方法 |
US20080018591A1 (en) * | 2006-07-20 | 2008-01-24 | Arkady Pittel | User Interfacing |
CN201000620Y (zh) * | 2006-10-16 | 2008-01-02 | 北京威亚视讯科技有限公司 | 一种基于投影的触摸检测系统 |
JP4991458B2 (ja) * | 2007-09-04 | 2012-08-01 | キヤノン株式会社 | 画像表示装置及びその制御方法 |
JP2009250772A (ja) * | 2008-04-04 | 2009-10-29 | Sony Corp | 位置検出システム、位置検出方法、プログラム、物体判断システム、および物体判断方法 |
JP5277703B2 (ja) * | 2008-04-21 | 2013-08-28 | 株式会社リコー | 電子機器 |
US20090295712A1 (en) * | 2008-05-29 | 2009-12-03 | Sony Ericsson Mobile Communications Ab | Portable projector and method of operating a portable projector |
CN101650520A (zh) * | 2008-08-15 | 2010-02-17 | 索尼爱立信移动通讯有限公司 | 移动电话的可视激光触摸板和方法 |
CN101685342B (zh) * | 2008-09-26 | 2012-01-25 | 联想(北京)有限公司 | 一种动态虚拟键盘的实现方法及装置 |
KR20100039024A (ko) * | 2008-10-07 | 2010-04-15 | 엘지전자 주식회사 | 이동 단말기 및 이것의 디스플레이 제어 방법 |
US8290208B2 (en) * | 2009-01-12 | 2012-10-16 | Eastman Kodak Company | Enhanced safety during laser projection |
JP2010244484A (ja) * | 2009-04-10 | 2010-10-28 | Funai Electric Co Ltd | 画像表示装置、画像表示方法および画像表示プログラム |
JP5347673B2 (ja) * | 2009-04-14 | 2013-11-20 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
CN101667061A (zh) * | 2009-09-08 | 2010-03-10 | 广东工业大学 | 一种交互式投影的检测系统及其检测方法 |
US8896578B2 (en) * | 2010-05-03 | 2014-11-25 | Lg Electronics Inc. | Mobile terminal and method of controlling the same |
US8890803B2 (en) * | 2010-09-13 | 2014-11-18 | Samsung Electronics Co., Ltd. | Gesture control system |
JP5439347B2 (ja) * | 2010-12-06 | 2014-03-12 | 日立コンシューマエレクトロニクス株式会社 | 操作制御装置 |
JP2012208439A (ja) * | 2011-03-30 | 2012-10-25 | Sony Corp | 投影装置、投影方法及び投影プログラム |
-
2011
- 2011-03-30 JP JP2011075998A patent/JP2012208439A/ja not_active Withdrawn
-
2012
- 2012-03-23 US US13/428,414 patent/US9223443B2/en active Active
- 2012-03-23 CN CN201210079745.2A patent/CN102740031B/zh active Active
-
2015
- 2015-11-13 US US14/940,254 patent/US9727173B2/en active Active
-
2017
- 2017-06-21 US US15/629,059 patent/US10120505B2/en active Active
-
2018
- 2018-09-28 US US16/146,132 patent/US10459578B2/en active Active
-
2019
- 2019-09-23 US US16/578,530 patent/US10860145B2/en active Active
-
2020
- 2020-11-12 US US17/095,852 patent/US11797131B2/en active Active
-
2023
- 2023-09-18 US US18/369,467 patent/US20240012521A1/en active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014095738A (ja) * | 2012-11-07 | 2014-05-22 | Nec Infrontia Corp | 兼用グラフィックユーザインターフェース装置、兼用方法及び兼用プログラム |
CN104698827A (zh) * | 2013-12-08 | 2015-06-10 | 崔允太 | 一种智能手表用屏幕 |
JP2015125670A (ja) * | 2013-12-27 | 2015-07-06 | 日立マクセル株式会社 | 画像投射装置 |
JP2016006484A (ja) * | 2014-05-29 | 2016-01-14 | パナソニックIpマネジメント株式会社 | プロジェクタシステム |
JP2019003683A (ja) * | 2014-06-03 | 2019-01-10 | グーグル エルエルシー | ウェアラブルデバイスを通じたレーダ型ジェスチャ認識 |
US10275938B2 (en) | 2015-02-27 | 2019-04-30 | Sony Corporation | Image processing apparatus and image processing method |
WO2019176594A1 (ja) * | 2018-03-16 | 2019-09-19 | 富士フイルム株式会社 | 投影制御装置、投影装置、投影制御方法、及び投影制御プログラム |
JPWO2019176594A1 (ja) * | 2018-03-16 | 2021-02-04 | 富士フイルム株式会社 | 投影制御装置、投影装置、投影制御方法、及び投影制御プログラム |
JP2020003754A (ja) * | 2018-07-02 | 2020-01-09 | カシオ計算機株式会社 | 投影装置、投影方法及びプログラム |
US11252387B2 (en) | 2018-07-02 | 2022-02-15 | Casio Computer Co., Ltd | Projection apparatus, projection method and storage medium |
Also Published As
Publication number | Publication date |
---|---|
US9727173B2 (en) | 2017-08-08 |
US20120256824A1 (en) | 2012-10-11 |
US20170285876A1 (en) | 2017-10-05 |
US20190034034A1 (en) | 2019-01-31 |
US10860145B2 (en) | 2020-12-08 |
US10459578B2 (en) | 2019-10-29 |
US20240012521A1 (en) | 2024-01-11 |
CN102740031B (zh) | 2016-12-14 |
US20200019278A1 (en) | 2020-01-16 |
US11797131B2 (en) | 2023-10-24 |
CN102740031A (zh) | 2012-10-17 |
US10120505B2 (en) | 2018-11-06 |
US9223443B2 (en) | 2015-12-29 |
US20210064182A1 (en) | 2021-03-04 |
US20160070420A1 (en) | 2016-03-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11797131B2 (en) | Apparatus and method for image output using hand gestures | |
EP2715499B1 (en) | Invisible control | |
US10296206B2 (en) | Multi-finger touchpad gestures | |
US20160004373A1 (en) | Method for providing auxiliary information and touch control display apparatus using the same | |
TWI612467B (zh) | 行動裝置及其執行應用程式的方法 | |
US20110102336A1 (en) | User interface apparatus and method | |
US20120179969A1 (en) | Display apparatus and displaying method thereof | |
KR20100130671A (ko) | 터치 인터페이스에서 선택 영역의 제공 장치 및 그 방법 | |
BR112013006616B1 (pt) | aparelho e método para detectar objeto com base em proximidade da superfície de entrada, item de informação associado e de distância do objeto | |
JP6225911B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US20130127745A1 (en) | Method for Multiple Touch Control Virtual Objects and System thereof | |
CN114779977A (zh) | 界面显示方法、装置、电子设备及存储介质 | |
WO2023241563A1 (zh) | 数据处理方法和电子设备 | |
US10691293B2 (en) | Display device and computer-readable non-transitory recording medium with display control program stored thereon | |
JP2007066077A (ja) | Gui生成方法、gui生成装置、コンピュータプログラム及び記憶媒体 | |
JP6467889B2 (ja) | 携帯端末、及びその制御方法、プログラム | |
JP2015114799A (ja) | 情報処理装置、制御方法、プログラム及び記憶媒体 | |
JP6210664B2 (ja) | 情報処理装置とその制御方法、及びプログラムと記憶媒体 | |
TWI780663B (zh) | 互動式觸控系統的操作判斷方法 | |
KR101418922B1 (ko) | 복수 객체 제어 방법 및 장치 | |
JP5906713B2 (ja) | 表示装置、表示方法、プログラム | |
JP2018116605A (ja) | 表示制御装置及び表示制御方法 | |
JP2003330594A (ja) | カーソル自動移動方法及びその装置、コンピュータプログラム | |
JP2020173583A (ja) | 情報処理装置、情報処理方法、及び情報処理プログラム | |
JP2013131189A (ja) | 入力システム、入力方法、及び入力プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140603 |