JP5304848B2 - プロジェクタ - Google Patents

プロジェクタ Download PDF

Info

Publication number
JP5304848B2
JP5304848B2 JP2011121266A JP2011121266A JP5304848B2 JP 5304848 B2 JP5304848 B2 JP 5304848B2 JP 2011121266 A JP2011121266 A JP 2011121266A JP 2011121266 A JP2011121266 A JP 2011121266A JP 5304848 B2 JP5304848 B2 JP 5304848B2
Authority
JP
Japan
Prior art keywords
icon
projection
display
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011121266A
Other languages
English (en)
Other versions
JP2012104096A (ja
Inventor
静二 ▲高▼野
英範 栗林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011121266A priority Critical patent/JP5304848B2/ja
Priority to US13/251,732 priority patent/US10203594B2/en
Priority to CN201110312252.4A priority patent/CN102457730B/zh
Publication of JP2012104096A publication Critical patent/JP2012104096A/ja
Application granted granted Critical
Publication of JP5304848B2 publication Critical patent/JP5304848B2/ja
Priority to US16/227,657 priority patent/US20190121227A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/26Projecting separately subsidiary matter simultaneously with main image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • G06F3/0426Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/28Reflectors in projection beam

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Projection Apparatus (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、プロジェクタに関するものである。
投影面上に操作アイコンを投影する投影装置が知られている(例えば、特許文献1参照)。この投影装置は、投影画像上への指の進入方向に応じて操作アイコンの投影位置または投影方向を決定している。
特開2009−064109号公報
しかし、上述の投影装置においては、操作時に操作アイコンが手の影になり、操作が行い難い場合があった。
本発明の目的は、操作アイコンが見やすく良好に操作を行うことができるプロジェクタを提供することである。
本発明のプロジェクタは、画像データに基づく投影画像を投影面に対して投影する投影部と、前記投影画像を含む検出領域内に進入した指示部材または前記指示部材の影の進入方向を検出する検出部と、アイコンの画像データを記憶するアイコン記憶部と、前記投影画像の投影方向と前記検出部により検出した前記進入方向に基づいて、前記アイコンの表示形態を決定する決定部と、前記決定部により決定された前記アイコンの表示形態に基づいて前記アイコンを投影する投影制御部とを備えることを特徴とする。
また、本発明のプロジェクタは、画像データに基づく投影画像を投影面に対して投影する投影部と、アイコンの画像データを記憶するアイコン記憶部と、前記アイコンの表示位置を記憶する位置記憶部と、前記アイコンの表示位置に基づく前記投影部から前記表示位置までの距離により前記投影画像の投影方向に沿って表示される前記アイコンの表示形態を決定する決定部と、前記決定部により決定された前記アイコンの表示形態に基づいてそれぞれの前記アイコンを投影する投影制御部とを備えることを特徴とする。
また、本発明のプロジェクタは、画像データに基づく投影画像を投影面に対して投影する投影部と、前記投影画像を含む検出領域内に進入した指示部材の進入方向及び前記指示部材の影の進入方向を検出する検出部と、アイコンの画像データを記憶するアイコン記憶部と、前記投影画像の投影方向、前記検出部により検出した前記指示部材の進入方向及び前記指示部材の影の進入方向に基づいて、前記アイコンの表示形態を決定する決定部と、前記決定部により決定された前記アイコンの表示形態に基づいて前記アイコンを投影する投影制御部とを備えることを特徴とする。
本発明のプロジェクタによれば、操作アイコンが見やすく良好に操作を行うことができる。
第1の実施の形態に係るプロジェクタの投影状態及び撮影状態を示す斜視図である。 第1の実施の形態に係るプロジェクタの構成を示すブロック図である。 第1の実施の形態に係るプロジェクタにおける処理を示すフローチャートである。 第1の実施の形態に係るプロジェクタの投影状態及び撮影状態を示す正面図及び側面図である。 第1の実施の形態に係るプロジェクタの投影画像上における方向を示す図である。 第1の実施の形態に係るプロジェクタにより投影画像上に重畳して投影された操作アイコン及び手の進入方向を示す図である。 第1の実施の形態に係るプロジェクタにより投影画像上に重畳して投影された操作アイコン及び手の進入方向を示す図である。 第1の実施の形態に係るプロジェクタにより投影画像上に重畳して投影された操作アイコンを示す図である。 第1の実施の形態に係るプロジェクタにより投影画像上に重畳して投影された操作アイコンを示す図である。 第1の実施の形態に係るプロジェクタにより投影画像上に重畳して投影された操作アイコン及び指先の位置を示す図である。 第1の実施の形態に係るプロジェクタにおける撮影領域を示す図である。 第1の実施の形態に係るプロジェクタにおける撮影領域を示す図である。 第1の実施の形態に係るプロジェクタにより投影画像上に重畳して投影された操作アイコン及び手の進入方向を示す図である。 第1の実施の形態に係るプロジェクタにより投影画像上に重畳して投影された操作アイコンを示す図である。 第1の実施の形態に係るプロジェクタにより投影画像上に重畳して投影された操作アイコンを示す図である。 第1の実施の形態に係るプロジェクタにより投影画像上に重畳して投影された操作アイコンを示す図である。 第1の実施の形態に係るプロジェクタにより投影画像上に重畳して投影された操作アイコンを示す図である。 第2の実施の形態に係るプロジェクタの投影状態及び撮影状態を示す斜視図である。 第2の実施の形態に係るプロジェクタの構成を示すブロック図である。 第2の実施の形態に係るプロジェクタにおける処理を示すフローチャートである。 第2の実施の形態に係るプロジェクタの投影状態及び撮影状態を示す正面図及び側面図である。 第2の実施の形態に係るプロジェクタにより投影画像上に重畳して投影された操作アイコン及び手の影の進入方向を示す図である。 第2の実施の形態に係るプロジェクタにより投影画像上に重畳して投影された操作アイコン及び手の影の進入方向を示す図である。 第2の実施の形態に係るプロジェクタにより投影画像上に重畳して投影された操作アイコン及び手の影の進入方向を示す図である。 第2の実施の形態に係るプロジェクタにより投影画像上に重畳して投影された操作アイコンを示す図である。 第2の実施の形態に係るプロジェクタにより投影画像上に重畳して投影された操作アイコン及び手の影の進入方向を示す図である。 第2の実施の形態に係るプロジェクタにより投影画像上に重畳して投影された操作アイコンを示す図である。 第2の実施の形態に係るプロジェクタにより投影画像上に重畳して投影された操作アイコン及び手の影の進入方向を示す図である。 第2の実施の形態に係るプロジェクタにより投影画像上に重畳して投影された操作アイコン及び手の影の進入方向を示す図である。 第2の実施の形態に係るプロジェクタにより投影された投影画像及び手の影の進入方向を示す図である。
以下、図面を参照して本発明の第1の実施の形態に係るプロジェクタについて説明する。図1は、第1の実施の形態に係るプロジェクタ2の投影状態及び撮影状態を示す斜視図である。プロジェクタ2は金属やプラスチックからなる筐体4を備え、筐体4は机6等の上面である載置面Gに載置される。また、筐体4の前面には、載置面Gに対して投影画像8及び操作アイコン9の投影を行うための投影窓10、撮影領域11に進入し操作アイコン9を指示する手12等の指示部材を撮影するための撮影窓14が設けられている。
図2は、第1の実施の形態に係るプロジェクタのシステム構成を示すブロック図である。プロジェクタ2は、CPU20を備え、CPU20には、図示しない電源スイッチ等を備える操作部22、被写体を撮影するためのCCD等により構成される撮像素子を有するカメラ24、カメラ24により撮影された画像の画像データを記憶する画像記憶部26、撮影、投影等に関する設定、制御を行うためのプログラムを格納するプログラム記憶部30、投影する画像の画像データを記憶するメモリカード32、画像記憶部26やメモリカード32に記憶された画像データに基づく画像を投影する投影部34、撮影された画像に手12の形状が含まれているか否かの判定を行う手認識部36、手12が撮影領域11に進入した方向を検出する方向検出部38が接続されている。ここで、投影部34は、LED光源46の点灯及び消灯を行う電源制御部48、投影する画像を表示するLCOS50の表示制御を行う投影制御部52を備えている。
次に図3に示すフローチャートを参照して第1の実施の形態に係るプロジェクタ2における処理について説明する。まず、図4(a)に示すように筐体4が載置面Gに載置され、電源スイッチがオンされると、CPU20は、投影部34に投影開始の指示を行い、メモリカード32から画像データを読み出して、投影制御部52により画像データに基づく画像をLCOS50に表示する。また、電源制御部48は、投影開始の指示によりLED光源46を点灯し、図4(a)、(b)に示すように投影窓10から斜下方向に投影光を射出し、載置面G上に投影画像8を投影する(ステップS1)。
また、CPU20は、カメラ24により投影画像8を含む撮影領域11の撮影を開始する(ステップS2)。ここで、カメラ24による撮影は、動画撮影または、一定時間間隔での静止画撮影により行われ、カメラ24により撮影された画像の画像データは、画像記憶部26に記憶される。
次に、CPU20は、画像記憶部26から画像データを読み出し、手認識部36により画像データに基づく画像に手12の形状が含まれているか否かの判定を行う(ステップS3)。なお、画像データに基づく画像に手12の形状が含まれているか否かの判定は、画像データに基づく画像から手12の領域及び指先の位置をパターンマッチング等により検出することにより行う。
ここで、図5は、載置面Gに載置されたプロジェクタ2、載置面Gに投影された投影画像8を含む撮影領域11を上から見下ろした図である。この図5に示すように、投影方向に沿った方向において、投影画像8上のプロジェクタ2の筐体4に近い側を後側、筐体4から遠い側を前側とする。また、投影方向と直交する方向において、投影画像8上の右側を右側、左側を左側とする。
画像データに基づく画像に手12の形状が含まれていた場合(ステップS3:Yes)、CPU20は、方向検出部38により手12が図5に示す何れの方向から撮影領域11に進入したかを検出する(ステップS4)。一方、画像データに基づく画像に手12の形状が含まれていなかった場合(ステップS3:No)、CPU20は、手12が進入した方向について検出を行うことなくステップS1の処理に戻る。
次に、CPU20は、手12の進入方向が図5に示す前後方向と左右方向の何れの方向に属するかを判定し、判定結果に基づいて操作アイコン9のサイズ及び表示間隔を決定する(ステップS5)。例えば、手12が撮影領域11の右側又は左側から進入した場合、操作アイコン9のサイズを2cm×2cm、操作アイコン9同士の間隔を2cmのように決定する。また、手12が撮影領域11の前側又は後側から進入した場合、操作アイコン9のサイズを4cm×4cm、操作アイコン9同士の間隔を0.5cm等のように決定する。
次に、CPU20は、プログラム記憶部30から操作アイコン9の画像データを読み出し、投影部34に指示しステップS5で決定したサイズ及び表示間隔で操作アイコン9を投影画像8の手12が進入した側の縁部に沿って投影する(ステップS6)。例えば、図6に示すように、手12が右側から撮影領域11内に進入した場合、操作アイコン9をステップS5で決定したサイズ及び表示間隔で投影画像8の右側の縁部に沿って投影する。また、図7に示すように、手12が前側から撮影領域11内に進入した場合、操作アイコン9をステップS5で決定したサイズ及び表示間隔で投影画像8の前側の縁部に沿って投影する。
次に、CPU20は、操作アイコン9から指先までの距離が所定の距離以下であるか否かの判定を行う(ステップS7)。例えば、図8(a)に示すように、手12が前側(図5参照)から撮影領域11内に進入し、指先が「HOME」の操作アイコン9上に位置したとする。この場合、CPU20は、「HOME」の操作アイコン9の位置において、図8(b)に示す載置面Gから指先位置までの法線方向の距離Xを画像データに基づいて測定し、法線方向の距離Xが所定の距離以下であるか否かの判定を行う。ここで、所定の距離については操作者が任意に設定することができる。
法線方向の距離Xが所定の距離以下である場合(ステップS7:Yes)、CPU20は、指先の直下に位置する、例えば、「HOME」の操作アイコン9のサイズを大きなサイズに変更し、投影部34により、図8(a)に示すように大きなサイズの「HOME」の操作アイコン9を投影する(ステップS8)。一方、法線方向の距離Xが所定の距離を超える場合(ステップS7:No)、CPU20は、操作アイコン9のサイズを変更せずステップS1の処理に戻る。
ここで、カメラ24による撮影は動画撮影等により行われ、逐次法線方向の距離Xの測定が行われるため、図9に示すように法線方向の距離Xを所定の距離以下に保ったまま指先を操作アイコン9上でスライドさせると、指先の位置に伴って操作アイコン9のサイズが変更される。
次に、CPU20は、画像データから指先が載置面Gに接しているか否かの判定を行う(ステップS9)。例えば、図10(a)、(b)に示すように、「設定」のアイコン9上に位置する指先が載置面Gに接している場合(ステップS9:Yes)、CPU20は、投影部34に指示して、「設定」の操作アイコン9の内容に対応する、例えば、投影画像8の明るさを設定するための「設定画面」の画像を投影する(ステップS10)。一方、指先が載置面Gに接していない場合(ステップS9:No)、CPU20は、操作アイコン9の内容に対応する画像を投影することなくステップS1の処理に戻る。
この第1の実施の形態に係るプロジェクタ2によれば、手12の進入方向に対応して異なるサイズ及び表示間隔のアイコン9を投影するため、手12の影になる領域においても操作アイコン9が見やすく良好に操作を行うことができる。例えば、手12が撮影領域11の右側又は左側(図5参照)から進入すると操作アイコン9は投影画像8の右側又は左側の縁部に沿って投影される(図6参照)。このような場合、指先で指示した操作アイコン9よりも前側(図5参照)に位置する操作アイコン9は手12の影になるため、見やすさを優先して小さなサイズの操作アイコン9を広い間隔で投影画像8の右側又は左側の縁部に沿って投影する。一方、手12が撮影領域11の前側又は後側(図5参照)から進入すると操作アイコン9は投影画像8の前側又は後側の縁部に沿って投影される(図7参照)。このような場合、指示した操作アイコン9に隣接する操作アイコン9は手12の影にならないため操作性を優先して大きなサイズの操作アイコン9を狭い間隔で投影画像8の前側又は後側の縁部に沿って投影する。
なお、第1の実施の形態において、投影画像8の縁部から撮影領域11の縁部までの幅が縁部の方向によって異なるようにしてもよい。例えば、図11に示すように、Aの幅を、Bの幅よりも狭くしてもよい。また、図12に示すように、筐体4から遠くなるほど投影画像8の縁部から撮影領域11の縁部までの幅が狭くなるようにしてもよい。これにより、手12が撮影領域11の右側、左側又は後側(図5参照)から進入した場合、投影画像8上に手12の影が映る前に操作アイコン9を投影し、操作者が操作アイコン9の位置を早めに認識できるようにすることができる。また、手12の影になりにくい投影画像8の前側(図5参照)に位置する操作アイコン9は、手12が投影画像8上に進入する直前まで投影されないため、誤って載置面Gに手12を近づけた場合に操作アイコン9が投影されるような誤作動を防止することができる。なお、撮影領域11を元の状態としたまま(図10(a)等参照)、手認識部36が画像データに基づく画像に手12の形状が含まれているか否かを判定する領域を図11、12に示す撮影領域11のように変更してもよい。
また、第1の実施の形態においては、図6に示すように操作アイコン9を投影方向に沿って投影する場合、投影画像8上に投影される各々の操作アイコン9のサイズは均一であり、操作アイコン9同士の表示間隔は均等であるが、操作アイコン9のサイズ及び表示間隔が異なるようにしてもよい。例えば、ステップS5において、投影窓10からの距離に基づいて操作アイコン9のサイズ及び表示間隔を決定し、図13に示すように投影画像8の前側(図5参照)に大きなサイズの操作アイコン9を、後側に小さなサイズの操作アイコン9を投影し、前側になるほど表示間隔が狭くなるようにしてもよい。これにより、図14に示すように手12の影になる領域に位置する操作アイコン9を更に見やすくすることができる。
また、第1の実施の形態においては、図6に示すように操作アイコン9を投影方向に沿って投影する場合、手12が進入した側の投影画像8の縁部から操作アイコン9の投影位置までの距離は均一であるが、図15に示すように操作アイコン9の位置が投影窓10から遠くなるほど手12が進入した側の投影画像8の縁部から離れた位置に操作アイコン9を投影するようにしてもよい。これにより、投影画像8の後側に位置する操作アイコン9を指先で指示した場合、投影画像8の前側(図5参照)の操作アイコン9が手12の影にならないようにすることができる。また、この場合においても、前側(図5参照)になるほど操作アイコン9同士の表示間隔が狭くなるようにしてもよい。
また、第1の実施の形態においては、手認識部36において、画像データから手12の領域及び指先の位置を検出することにより画像データに基づく画像に手12の形状が含まれているか否かの判定を行っているが、指示棒等の領域及び先端位置を検出することにより画像データに基づく画像に指示棒等の形状が含まれているか否かの判定を行うようにしてもよい。これにより、手12以外の指示部材が撮影領域11に進入した場合であっても、操作アイコン9を投影画像8上に投影することができる。
また、指示棒等のような細い部材で操作アイコン9を指示する場合、操作アイコン9が指示棒等の影で見難くなることがない。このため、画像データに基づく画像に指示棒等の形状が含まれている場合には、図16に示すように、操作性を優先して操作アイコン9を指示棒等18の先端の位置の周囲に投影するようにしてもよい。また、操作アイコン9のサイズを小さなサイズに変更し、操作アイコン9同士の表示間隔を狭くして投影するようにしてもよい。これにより、投影画像8上に影が出にくい指示棒等18でプロジェクタ2を操作する場合には、指示棒等18を大きく移動させずに操作アイコン9を指示することができる。
また、第1の実施の形態においては、法線方向の距離X(図8(b)参照)が所定の距離以下である場合、指先の直下に位置する操作アイコン9を大きなサイズに変更しているが、図17に示すように投影画像8上に投影される全ての操作アイコン9を大きなサイズに変更してもよい。
また、第1の実施の形態においては、ステップS5において操作アイコン9のサイズ及び表示間隔を決定しているが、操作アイコン9のサイズまたは表示間隔のどちらか一方のみを決定するようにしてもよい。
また、第1の実施の形態においては、操作アイコン9を投影画像8上に重畳して投影する場合を例に説明しているが、プロジェクタ2が投影部34の他に操作アイコン9を投影する補助投影部を備え、補助投影部により投影画像8と異なる領域、例えば隣接する領域に操作アイコン9を投影するようにしてもよい。この場合、操作アイコン9が手12の影になることがないため、更に操作アイコン9が見やすく良好に操作を行うことができる。
また、この場合において、手12が撮影領域11に進入した方向(図5参照)に対応して異なるサイズ及び表示間隔のアイコン9を投影画像8に隣接する領域に投影するようにしてもよい。また、操作アイコン9を投影方向に沿って投影する場合において(図6参照)、投影画像8に隣接する領域の前側または後側(図5参照)に狭い間隔で大きなサイズの操作アイコン9を、左側または右側に広い間隔で小さなサイズの操作アイコン9を投影するようにしてもよい。また、操作アイコン9を投影方向に沿って投影する場合において(図6参照)、操作アイコン9の位置が投影窓10から遠くなるほど投影画像8に隣接する領域の縁部から離れた位置に操作アイコン9を投影するようにしてもよい。
また、画像データに指示棒等の形状が含まれている場合、操作アイコン9を投影画像8に隣接する領域において指示棒等18の先端に対応する位置の周囲に小さなサイズの操作アイコン9を狭い間隔で投影するようにしてもよい。また、指先が載置面Gに近づいたときに操作アイコン9のサイズを大きなサイズに変更してもよい。
また、投影画像8と操作アイコン9を一つの領域内に並べて投影するようにしてもよい。例えば、一つの領域を2分割し、一方の側に投影画像8を投影し他方の側に操作アイコン9を投影するようにしてもよい。
また、第1の実施の形態においては、机6の載置面Gに投影画像の投影を行っているが、投影画像は、壁や床など他の平面に投影してもよい。また、球のような曲面体や移動物体などに投影してもよい。
次に、第2の実施の形態に係るプロジェクタについて説明する。なお、第2の実施の形態に係るプロジェクタは、図18に示すように、プロジェクタ200の筐体4の前面において、投影窓10の下に手の影62を撮影するための撮影窓14を設けたものである。また、図19のブロック図に示すように、第1の実施の形態に係るプロジェクタ2において、撮影された画像に手の影62の形状が含まれているか否を判定する手の影認識部60を追加し、さらに、方向検出部38において手の影62が撮影領域11に進入した方向を検出する機能を追加したものである。従って、第1の実施の形態と同様の構成についての詳細な説明は省略し、異なる部分のみについて説明する。また、第1の実施の形態と同一の構成には同一の符号を付して説明する。
次に、図20に示すフローチャートを参照して第2の実施の形態に係るプロジェクタ200における処理について説明する。まず、図21(a)に示すように筐体4が載置面Gに載置され、電源スイッチがオンされると、CPU20は、図21(a)、(b)に示すように投影窓10から斜下方向に投影光を射出し、載置面G上に投影画像8を投影する(ステップS11)。
次に、CPU20は、カメラ24により投影画像8を含む撮影領域11の撮影を開始する(ステップS12)。ここで、カメラ24による撮影は、動画撮影または、一定時間間隔での静止画撮影により行われ、カメラ24により撮影された画像の画像データは、画像記憶部26に記憶される。
次に、CPU20は、画像記憶部26から画像データを読み出し、手の影認識部60により画像データに基づく画像に手の影62の形状が含まれているか否かの判定を行う(ステップS13)。ここで、画像データに基づく画像に手の影62の形状が含まれているか否かの判定は、画像データに基づく画像から手の影62になる領域及び手の影62になる領域において指先に相当する位置をパターンマッチング等により検出することにより行う。
画像データに基づく画像に手の影62の形状が含まれていた場合(ステップS13:Yes)、CPU20は、方向検出部38により手の影62が図5に示す何れの方向から撮影領域11に進入したかを検出する(ステップS14)。一方、画像データに基づく画像に手の影62の形状が含まれていなかった場合(ステップS13:No)、CPU20は、手の影62が進入した方向について検出を行うことなくステップS11の処理に戻る。
次に、CPU20は、手の影62の進入方向が図5に示す前後方向と左右方向の何れの方向に属するかを判定し、判定結果に基づいて操作アイコン9のサイズ及び表示間隔を決定する(ステップS15)。
次に、CPU20は、プログラム記憶部30から操作アイコン9の画像データを読み出し、投影部34に指示しステップS15で決定したサイズ及び表示間隔で操作アイコン9を投影画像8の手の影62が進入した側の縁部に沿って投影する(ステップS16)。例えば、図22に示すように、手の影62が右側から撮影領域11内に進入した場合、操作アイコン9をステップS15で決定したサイズ及び表示間隔で投影画像8の右側の縁部に沿って投影する。また、図23に示すように、手の影62が前側から撮影領域11内に進入した場合、操作アイコン9をステップS15で決定したサイズ及び表示間隔で投影画像8の前側の縁部に沿って投影する。
次に、CPU20は、手認識部36により画像データに基づく画像に手12の形状が含まれているか否かの判定を行う(ステップS17)。画像データに基づく画像に手12の形状が含まれていなかった場合(ステップS17:No)、ステップS11の処理に戻る。一方、画像データに基づく画像に手12の形状が含まれていた場合(ステップS17:Yes)、CPU20は、操作アイコン9から指先までの距離が所定の距離以下であるか否かの判定を行う(ステップS18)。
操作アイコン9から指先までの距離が所定の距離以下である場合(ステップS18:Yes)、CPU20は、指先の直下に位置する操作アイコン9のサイズを大きなサイズに変更し、投影部34により、大きなサイズの操作アイコン9を投影する(ステップS19)。一方、操作アイコン9から指先までの距離が所定の距離を超える場合(ステップS18:No)、CPU20は、操作アイコン9のサイズを変更せずステップS11の処理に戻る。
次に、CPU20は、画像データから指先が載置面Gに接しているか否かの判定を行う(ステップS20)。例えば、「設定」のアイコン9上に位置する指先が載置面Gに接している場合(図10(a)、(b)参照、ステップS20:Yes)、CPU20は、投影部34に指示して、「設定」の操作アイコン9の内容に対応する、投影画像8の明るさを設定するための「設定画面」の画像を投影する(ステップS21)。一方、指先が載置面Gに接していない場合(ステップS20:No)、CPU20は、操作アイコン9の内容に対応する画像を投影することなくステップS11の処理に戻る。
この第2の実施の形態に係るプロジェクタ200によれば、方向検出部38において手の影62が撮影領域11に進入した方向を検出するため、例えば、手12の位置(高さ)が載置面Gから離れており、手12が撮影領域11に進入していない場合であっても手の影62の進入方向に基づいてアイコン9を投影することができる。このため、アイコン9が早めに投影されることから、操作者は余裕を持って操作アイコン9を選択することができる。また、手の影62の進入方向に対応して異なるサイズ及び表示間隔のアイコン9を投影するため、第1の実施の形態と同様に、手12の影になる領域においても操作アイコン9が見やすく良好に操作を行うことができる。
なお、第2の実施の形態において、投影画像8の縁部から撮影領域11の縁部までの幅が縁部の方向によって異なるようにしてもよい。例えば、図11に示すように、Aの幅を、Bの幅よりも狭くしてもよい。また、図12に示すように、筐体4から遠くなるほど投影画像8の縁部から撮影領域11の縁部までの幅が狭くなるようにしてもよい。これにより、手の影62が撮影領域11の右側、左側又は後側(図5参照)から進入した場合、投影画像8上に手12の影が映る前に操作アイコン9を投影し、操作者が操作アイコン9の位置を早めに認識できるようにすることができる。また、手12の影になりにくい投影画像8の前側(図5参照)に位置する操作アイコン9は、手の影62が投影画像8上に進入する直前まで投影されないため、誤って載置面Gに手12を近づけた場合に操作アイコン9が投影されるような誤作動を防止することができる。なお、撮影領域11を元の状態としたまま(図10(a)等参照)、手の影認識部60が画像データに基づく画像に手の影62が含まれているか否かを判定する領域を図11、12に示す撮影領域11のように変更してもよい。
また、第2の実施の形態においては、図22に示すように操作アイコン9を投影方向に沿って投影する場合、投影画像8上に投影される各々の操作アイコン9のサイズは均一であり、操作アイコン9同士の表示間隔は均等であるが、操作アイコン9のサイズ及び表示間隔が異なるようにしてもよい。例えば、ステップS15において、投影窓10からの距離に基づいて操作アイコン9のサイズ及び表示間隔を決定し、図24に示すように投影画像8の前側(図5参照)に大きなサイズの操作アイコン9を、後側に小さなサイズの操作アイコン9を投影し、前側になるほど表示間隔が狭くなるようにしてもよい。これにより、図25に示すように手12の影になる領域に位置する操作アイコン9を更に見やすくすることができる。
また、第2の実施の形態において、図26に示すように操作アイコン9の位置が投影窓10から遠くなるほど手の影62が進入した側の投影画像8の縁部から離れた位置に操作アイコン9を投影するようにしてもよい。これにより、投影画像8の後側に位置する操作アイコン9を指先で指示した場合、投影画像8の前側(図5参照)の操作アイコン9が手12の影にならないようにすることができる。また、この場合においても、前側(図5参照)になるほど操作アイコン9同士の表示間隔が狭くなるようにしてもよい。
また、第2の実施の形態において、手の影認識部60により画像データに基づく画像に指示棒等の影が含まれているか否かの判定を行うようにしてもよい。これにより、手12以外の指示部材の影が撮影領域11に進入した場合であっても、操作アイコン9を投影画像8上に投影することができる。
また、指示棒等のような細い部材で操作アイコン9を指示する場合、操作アイコン9が指示棒等の影で見難くなることがない。このため、画像データに基づく画像に指示棒等の影が含まれている場合には、図27に示すように、操作性を優先して操作アイコン9を指示棒等の影19先端の位置の周囲に投影するようにしてもよい。また、操作アイコン9のサイズを小さなサイズに変更し、操作アイコン9同士の表示間隔を狭くして投影するようにしてもよい。これにより、投影画像8上に影が出にくい指示棒等18でプロジェクタ200を操作する場合には、指示棒等18を大きく移動させずに操作アイコン9を指示することができる。
また、第2の実施の形態においては、操作アイコン9を投影画像8上に重畳して投影する場合を例に説明しているが、プロジェクタ200が投影部34の他に操作アイコン9を投影する補助投影部を備え、補助投影部により投影画像8と異なる領域、例えば隣接する領域に操作アイコン9を投影するようにしてもよい。この場合、操作アイコン9が手12の影になることがないため、更に操作アイコン9が見やすく良好に操作を行うことができる。
また、この場合において、投影画像8と操作アイコン9を一つの領域内に並べて投影するようにしてもよい。例えば、一つの領域を2分割し、一方の側に投影画像8を投影し他方の側に操作アイコン9を投影するようにしてもよい。
また、第2の実施の形態において、撮影領域11の撮影を開始した後に(ステップS12)、手認識部36により画像データに手12の形状に対応する画像データが含まれているか否かの判定を行うようにしてもよい。ここで、画像データに手12の形状に対応する画像データが含まれていた場合、CPU20は、方向検出部38により手12が図5に示す何れの方向から撮影領域11に進入したかを検出し、進入方向が図5に示す前後方向と左右方向の何れの方向に属するかを判定する。そして、手12の進入方向を判定した後に、手の影認識部60により画像データに手の影62の形状に対応する画像データが含まれているか否かの判定を行うようにしてもよい(ステップS13)。これにより、CPU20は、図25に示すように、撮影領域11に手12が進入し、且つ撮影領域11に手の影62が進入した場合に操作アイコン9を投影することができる。なお、この場合、図28に示すように、撮影領域11に手の影62が進入していても手12が進入していなければ操作アイコン9は投影されないため、例えば、操作者が誤ってプロジェクタ200に手12を近づけた場合等に操作アイコン9が投影されるような誤作動を防止することができる。
また、この場合、撮影領域11に進入した手の影62の位置が、投影方向において手12の位置の延長線上に位置する場合にのみ操作アイコン9を投影するようにしてもよい。例えば、図29(a)に示すように、手12及び手の影12が撮影領域11に進入したとする。この場合において、図29(b)に示すように、手の影12の位置が投影方向において手12の位置の延長線上に位置していればアイコン9を投影する。一方、図30に示すように、手12と手の影62とが異なる方向から撮影領域11に進入したような場合、手の影62の位置は、投影方向において手12の位置の延長線上に位置しないため、操作アイコン9を投影しない。これにより、操作者以外の者が誤ってプロジェクタ200に手12を近づけ、投影光以外の照明光等に基づく手の影62が撮影領域11に進入した場合等(図30参照)において操作アイコン9が投影されるような誤作動を防止することができ、プロジェクタ200の操作性を向上させることができる。
2、200…プロジェクタ、4…筐体、6…机、8…投影画像、9…操作アイコン、10…投影窓、11…撮影領域、12…手、14…撮影窓、20…CPU、22…操作部、24…カメラ、26…画像記憶部、30…プログラム記憶部、32…メモリカード、34…投影部、36…手認識部、38…方向検出部、60…手の影認識部

Claims (16)

  1. 画像データに基づく投影画像を投影面に対して投影する投影部と、
    前記投影画像を含む検出領域内に進入した指示部材または前記指示部材の影の進入方向を検出する検出部と、
    アイコンの画像データを記憶するアイコン記憶部と、
    前記投影画像の投影方向と前記検出部により検出した前記進入方向に基づいて、前記アイコンの表示形態を決定する決定部と、
    前記決定部により決定された前記アイコンの表示形態に基づいて前記アイコンを投影する投影制御部と
    を備えることを特徴とするプロジェクタ。
  2. 前記決定部は、前記アイコンの表示形態として、前記アイコンの表示サイズ、前記アイコン同士の表示間隔、及び前記アイコンの表示位置のうちの少なくとも一つを決定することを特徴とする請求項1に記載のプロジェクタ。
  3. 前記検出部により検出した前記進入方向が前記投影方向に沿った方向と前記投影方向と交差する方向のどちらに属するかを判定する判定部を備え、
    前記決定部は、前記判定部による判定結果に基づいて前記アイコンの表示サイズ及び前記アイコン同士の表示間隔の少なくとも一方を決定することを特徴とする請求項に記載のプロジェクタ。
  4. 前記検出部において前記指示部材または前記指示部材の影の進入方向を検出する前記領域は、前記投影部からの距離が短いほど広いことを特徴とする請求項1〜3のいずれか一項に記載のプロジェクタ。
  5. 前記指示部材の形態または前記指示部材の影の形態を認識する形態認識部と、
    前記指示部材の形態または前記指示部材の影の形態に基づいて前記アイコンの表示サイズ、前記アイコン同士の表示間隔及び前記アイコンの表示位置のうちの少なくとも一つを変更する変更部と
    を備えることを特徴とする請求項のいずれか一項に記載のプロジェクタ。
  6. 画像データに基づく投影画像を投影面に対して投影する投影部と、
    アイコンの画像データを記憶するアイコン記憶部と、
    前記アイコンの表示位置を記憶する位置記憶部と、
    前記アイコンの表示位置に基づく前記投影部から前記表示位置までの距離により前記投影画像の投影方向に沿って表示される前記アイコンの表示形態を決定する決定部と、
    前記決定部により決定された前記アイコンの表示形態に基づいてそれぞれの前記アイコンを投影する投影制御部と
    を備えることを特徴とするプロジェクタ。
  7. 前記決定部は、前記アイコンの表示形態として、前記アイコンの表示サイズ及び前記アイコン同士の表示間隔の少なくとも一方を決定することを特徴とする請求項6に記載のプロジェクタ。
  8. 前記アイコンの表示サイズは前記投影部からの距離が長いほど大きいことを特徴とする請求項に記載のプロジェクタ。
  9. 前記アイコン同士の表示間隔は前記投影部からの距離が長いほど狭いことを特徴とする請求項またはに記載のプロジェクタ。
  10. 前記投影制御部は、前記アイコンを前記投影画像上に重畳して投影することを特徴とする請求項1〜のいずれか一項に記載のプロジェクタ。
  11. 前記投影制御部は、前記アイコンを前記投影画像と異なる領域に投影することを特徴とする請求項1〜のいずれか一項に記載のプロジェクタ。
  12. 前記投影面から前記指示部材までの法線方向の距離を測定する測定部と、
    前記指示部材が所定のアイコンの表示位置の上方に位置する場合において前記法線方向の距離が所定の距離以下である場合に前記所定のアイコンの表示サイズを変更するサイズ変更部と
    を備えることを特徴とする請求項10に記載のプロジェクタ。
  13. 前記サイズ変更部は、前記投影画像上に重畳して投影される全ての前記アイコンの表示サイズを変更することを特徴とする請求項12に記載のプロジェクタ。
  14. 画像データに基づく投影画像を投影面に対して投影する投影部と、
    前記投影画像を含む検出領域内に進入した指示部材の進入方向及び前記指示部材の影の進入方向を検出する検出部と、
    アイコンの画像データを記憶するアイコン記憶部と、
    前記投影画像の投影方向、前記検出部により検出した前記指示部材の進入方向及び前記指示部材の影の進入方向に基づいて、前記アイコンの表示形態を決定する決定部と、
    前記決定部により決定された前記アイコンの表示形態に基づいて前記アイコンを投影する投影制御部と
    を備えることを特徴とするプロジェクタ。
  15. 前記決定部は、前記アイコンの表示形態として、前記アイコンの表示サイズ、前記アイコン同士の表示間隔、及び前記アイコンの表示位置のうちの少なくとも一つを決定することを特徴とする請求項14に記載のプロジェクタ。
  16. 前記投影制御部は、前記指示部材の影の位置が前記投影方向において前記指示部材の位置の延長線上に位置する場合に前記アイコンを投影することを特徴とする請求項14または15に記載のプロジェクタ。
JP2011121266A 2010-10-14 2011-05-31 プロジェクタ Active JP5304848B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2011121266A JP5304848B2 (ja) 2010-10-14 2011-05-31 プロジェクタ
US13/251,732 US10203594B2 (en) 2010-10-14 2011-10-03 Projector
CN201110312252.4A CN102457730B (zh) 2010-10-14 2011-10-14 投影仪
US16/227,657 US20190121227A1 (en) 2010-10-14 2018-12-20 Projector

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010231075 2010-10-14
JP2010231075 2010-10-14
JP2011121266A JP5304848B2 (ja) 2010-10-14 2011-05-31 プロジェクタ

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2012278124A Division JP2013061680A (ja) 2010-10-14 2012-12-20 表示装置

Publications (2)

Publication Number Publication Date
JP2012104096A JP2012104096A (ja) 2012-05-31
JP5304848B2 true JP5304848B2 (ja) 2013-10-02

Family

ID=45972649

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011121266A Active JP5304848B2 (ja) 2010-10-14 2011-05-31 プロジェクタ

Country Status (3)

Country Link
US (2) US10203594B2 (ja)
JP (1) JP5304848B2 (ja)
CN (1) CN102457730B (ja)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013061680A (ja) * 2010-10-14 2013-04-04 Nikon Corp 表示装置
JP6000553B2 (ja) * 2012-01-24 2016-09-28 キヤノン株式会社 情報処理装置及びその制御方法
JP6135239B2 (ja) * 2012-05-18 2017-05-31 株式会社リコー 画像処理装置、画像処理プログラム、画像処理方法
JP5972692B2 (ja) * 2012-07-11 2016-08-17 株式会社Nttドコモ ユーザインタフェース装置、ユーザインタフェース方法及びプログラム
JP6167529B2 (ja) * 2013-01-16 2017-07-26 株式会社リコー 画像投影装置、画像投影システム、制御方法およびプログラム
WO2014176682A1 (en) 2013-05-01 2014-11-06 Lumo Play, Inc. Content generation for interactive video projection systems
JP5882270B2 (ja) * 2013-08-29 2016-03-09 東芝テック株式会社 情報処理装置、プログラム
JP6245938B2 (ja) * 2013-10-25 2017-12-13 キヤノン株式会社 情報処理装置とその制御方法、コンピュータプログラム、記憶媒体
US9927923B2 (en) 2013-11-19 2018-03-27 Hitachi Maxell, Ltd. Projection-type video display device
JP5974189B2 (ja) * 2013-12-19 2016-08-23 日立マクセル株式会社 投写型映像表示装置及び投写型映像表示方法
DE102014012516A1 (de) * 2014-01-20 2015-07-23 Beijing Lenovo Software Ltd. Informationsverarbeitungsverfahren und elektrische Vorrichtung
US9965038B2 (en) 2014-03-21 2018-05-08 Dell Products L.P. Context adaptable projected information handling system input environment
US10133355B2 (en) * 2014-03-21 2018-11-20 Dell Products L.P. Interactive projected information handling system support input and output devices
US9304599B2 (en) 2014-03-21 2016-04-05 Dell Products L.P. Gesture controlled adaptive projected information handling system input and output devices
JP6079695B2 (ja) * 2014-05-09 2017-02-15 コニカミノルタ株式会社 画像表示撮影システム、撮影装置、表示装置、画像の表示および撮影の方法、およびコンピュータープログラム
US9993733B2 (en) 2014-07-09 2018-06-12 Lumo Interactive Inc. Infrared reflective device interactive projection effect system
CN106462227A (zh) * 2014-08-07 2017-02-22 日立麦克赛尔株式会社 投影型影像显示装置及其控制方法
JP6381361B2 (ja) * 2014-08-20 2018-08-29 キヤノン株式会社 データ処理装置、データ処理システム、データ処理装置の制御方法、並びにプログラム
WO2016035231A1 (ja) * 2014-09-03 2016-03-10 パナソニックIpマネジメント株式会社 ユーザインターフェース装置およびプロジェクタ装置
US10620748B2 (en) * 2014-10-22 2020-04-14 Telefonaktiebolaget Lm Ericsson (Publ) Method and device for providing a touch-based user interface
CN107003716B (zh) * 2014-12-08 2019-08-23 麦克赛尔株式会社 投射型影像显示装置以及影像显示方法
CN107113950B (zh) * 2014-12-26 2019-07-02 麦克赛尔株式会社 照明装置
JP6604528B2 (ja) * 2015-01-09 2019-11-13 凸版印刷株式会社 画像処理装置及び画像処理システム
CN106556963A (zh) * 2015-09-24 2017-04-05 北京京东尚科信息技术有限公司 投影装置以及投影方法
JP2017146927A (ja) * 2016-02-19 2017-08-24 ソニーモバイルコミュニケーションズ株式会社 制御装置、制御方法及びプログラム
JP6607121B2 (ja) 2016-03-30 2019-11-20 セイコーエプソン株式会社 画像認識装置、画像認識方法および画像認識ユニット
JP6285980B2 (ja) * 2016-04-14 2018-02-28 株式会社ソニー・インタラクティブエンタテインメント 処理装置および投影画像生成方法
JP6844159B2 (ja) 2016-09-12 2021-03-17 セイコーエプソン株式会社 表示装置、及び、表示装置の制御方法
JP6822209B2 (ja) * 2017-02-24 2021-01-27 セイコーエプソン株式会社 プロジェクターおよびプロジェクターの制御方法
JP6996114B2 (ja) 2017-05-29 2022-01-17 セイコーエプソン株式会社 プロジェクターおよびプロジェクターの制御方法
JP6456551B1 (ja) * 2017-08-31 2019-01-23 三菱電機株式会社 光学機器制御装置、光学機器制御方法、及び光学機器制御プログラム
CN108509090B (zh) * 2018-03-26 2020-08-25 联想(北京)有限公司 一种投影控制方法和电子系统
JP7227020B2 (ja) * 2019-01-31 2023-02-21 住友重機械工業株式会社 射出成形機
JP7162813B1 (ja) 2022-03-04 2022-10-31 チームラボ株式会社 お絵描き用の表示制御システム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9513744B2 (en) * 1994-08-15 2016-12-06 Apple Inc. Control systems employing novel physical controls and touch screens
JPH10341487A (ja) * 1997-04-09 1998-12-22 Sony Corp 情報端末装置、情報処理方法、情報提供装置および方法、情報ネットワークシステム、並びに提供媒体
TWI227462B (en) * 2003-12-16 2005-02-01 Ind Tech Res Inst Projector device with virtual input element image
JP4351599B2 (ja) * 2004-09-03 2009-10-28 パナソニック株式会社 入力装置
JP4479962B2 (ja) 2005-02-25 2010-06-09 ソニー エリクソン モバイル コミュニケーションズ, エービー 入力処理プログラム、携帯端末装置、及び入力処理方法
JP2007011459A (ja) * 2005-06-28 2007-01-18 Konica Minolta Business Technologies Inc 画像形成装置
US7286062B2 (en) * 2005-06-29 2007-10-23 Honeywell International, Inc. Perspective view conformal traffic targets display
US7730422B2 (en) * 2006-01-25 2010-06-01 Microsoft Corporation Smart icon placement across desktop size changes
US8913003B2 (en) * 2006-07-17 2014-12-16 Thinkoptics, Inc. Free-space multi-dimensional absolute pointer using a projection marker system
JP2008197934A (ja) * 2007-02-14 2008-08-28 Calsonic Kansei Corp 操作者判別方法
JP4829855B2 (ja) * 2007-09-04 2011-12-07 キヤノン株式会社 画像投影装置及びその制御方法
JP4991458B2 (ja) * 2007-09-04 2012-08-01 キヤノン株式会社 画像表示装置及びその制御方法
JP2009284468A (ja) * 2008-04-23 2009-12-03 Sharp Corp 携帯情報端末、コンピュータ読取可能なプログラムおよび記録媒体
JP5258399B2 (ja) * 2008-06-06 2013-08-07 キヤノン株式会社 画像投影装置及びその制御方法
KR101526995B1 (ko) * 2008-10-15 2015-06-11 엘지전자 주식회사 이동 단말기 및 이것의 디스플레이 제어 방법
KR101537596B1 (ko) * 2008-10-15 2015-07-20 엘지전자 주식회사 이동 단말기 및 이것의 터치 인식 방법
CN102239465A (zh) 2008-12-04 2011-11-09 三菱电机株式会社 显示输入装置
JP2010224015A (ja) * 2009-03-19 2010-10-07 Sanyo Electric Co Ltd 投写型映像表示装置及び記載ボード及び投写映像システム
US8707195B2 (en) * 2010-06-07 2014-04-22 Apple Inc. Devices, methods, and graphical user interfaces for accessibility via a touch-sensitive surface

Also Published As

Publication number Publication date
JP2012104096A (ja) 2012-05-31
CN102457730A (zh) 2012-05-16
US20120098865A1 (en) 2012-04-26
CN102457730B (zh) 2017-04-19
US10203594B2 (en) 2019-02-12
US20190121227A1 (en) 2019-04-25

Similar Documents

Publication Publication Date Title
JP5304848B2 (ja) プロジェクタ
JP5434997B2 (ja) 画像表示装置
JP6075122B2 (ja) システム、画像投影装置、情報処理装置、情報処理方法およびプログラム
JP5258399B2 (ja) 画像投影装置及びその制御方法
JP4927021B2 (ja) 画像表示装置のカーソル制御装置及び制御方法、ならびに画像システム
JP2009158989A (ja) カメラ
JP6079695B2 (ja) 画像表示撮影システム、撮影装置、表示装置、画像の表示および撮影の方法、およびコンピュータープログラム
US20110063327A1 (en) Display and imager displaying and magnifying images on their screen
KR20110100582A (ko) 정보 처리 장치, 정보 처리 방법 및 프로그램
JP5817149B2 (ja) 投影装置
JP4190935B2 (ja) 携帯端末装置
JP2010117917A (ja) 動作検出装置および操作システム
US20220116543A1 (en) Following shoot method, gimbal control method, photographing apparatus, handheld gimbal and photographing system
JP2017073758A5 (ja)
JP2013061680A (ja) 表示装置
JP5740843B2 (ja) 電子機器
US11245835B2 (en) Electronic device
JP5316083B2 (ja) カメラ
JP2011176459A (ja) 画像表示装置
US9077883B2 (en) Information processing apparatus with vibration detection, control method therefor, and recording medium
JP2011035769A (ja) 撮影装置
JP7304539B2 (ja) 電子機器
JP5546308B2 (ja) 電子機器及びその制御方法、プログラム並びに記憶媒体
JP2012053366A (ja) 撮像装置およびプログラム
US10528188B2 (en) Operation input device and operation input method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121023

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130610

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5304848

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250