JP6372266B2 - 投射型表示装置および機能制御方法 - Google Patents

投射型表示装置および機能制御方法 Download PDF

Info

Publication number
JP6372266B2
JP6372266B2 JP2014182976A JP2014182976A JP6372266B2 JP 6372266 B2 JP6372266 B2 JP 6372266B2 JP 2014182976 A JP2014182976 A JP 2014182976A JP 2014182976 A JP2014182976 A JP 2014182976A JP 6372266 B2 JP6372266 B2 JP 6372266B2
Authority
JP
Japan
Prior art keywords
light
projection
display device
area
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014182976A
Other languages
English (en)
Other versions
JP2016057426A (ja
JP2016057426A5 (ja
Inventor
一賢 金田
一賢 金田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2014182976A priority Critical patent/JP6372266B2/ja
Priority to EP15767337.7A priority patent/EP3227766B1/en
Priority to US15/502,231 priority patent/US11054944B2/en
Priority to PCT/JP2015/004369 priority patent/WO2016038839A1/en
Priority to CN201580041613.2A priority patent/CN106716318B/zh
Publication of JP2016057426A publication Critical patent/JP2016057426A/ja
Publication of JP2016057426A5 publication Critical patent/JP2016057426A5/ja
Application granted granted Critical
Publication of JP6372266B2 publication Critical patent/JP6372266B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/48Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
    • G03B17/54Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus with projector
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1639Details related to the display arrangement, including those related to the mounting of the display in the housing the display being based on projection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/0202Constructional details or processes of manufacture of the input device
    • G06F3/0219Special purpose keyboards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3173Constructional details thereof wherein the projection device is specially adapted for enhanced portability
    • H04N9/3176Constructional details thereof wherein the projection device is specially adapted for enhanced portability wherein the projection device is incorporated in a camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • G09G2340/0471Vertical positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • G09G2340/0478Horizontal positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]

Description

本開示は、検出機能を有する投射型表示装置と、この投射型表示装置を用いた機能制御方法に関する。
近年、スマートフォンやタブレット端末等では、タッチパネルを用いることにより、画面に表示される映像のページ送りや拡大縮小を、人の直感に応じたポインティング操作で可能にしている。一方で、映像をスクリーン上に投影することにより表示を行う表示装置として、プロジェクタ(投射型表示装置)が古くから知られている。このプロジェクタに、タッチパネルのような検出機能を付加する技術が提案されている(例えば、特許文献1,2)。
特開2007−52218号公報 特開2003−44839号公報
特許文献1に記載のプロジェクタでは、投影光学系による映像投射と検出光学系による検出光の取り込みとが、1つの投射レンズを用いてなされ、映像を作り出すライトバルブと検出光を受光する撮像素子とが光学的に共役な位置に配置される。このような装置構成により、キャリブレーション等の煩雑な処理を行うことなく、物体の検出を精度良く行うことができる。シンプルな構成で、インタラクティブなデバイスを実現可能となる。
そのようなプロジェクタにおいて、ユーザによる操作性を向上することが可能な手法の実現が望まれている。
本開示はかかる問題点に鑑みてなされたもので、その目的は、ユーザによる操作性を向上することが可能な投射型表示装置および機能制御方法を提供することにある。
本開示の投射型表示装置は、照明部と、投射レンズと、照明部から供給された照明光を映像信号に基づいて変調して投射レンズへ向けて出射するライトバルブとを有する投影光学系と、ライトバルブと投射レンズとの間に配置され、入射光を第1および第2の偏光成分に分離すると共に、それぞれを互いに異なる方向に出射する偏光分離素子と、ライトバルブと光学的に共役な位置に配置された撮像素子を有する検出光学系と、投射レンズの下方に配置され、非可視光を出射する光源部とを備える。撮像素子には、映像信号に基づいて投射レンズから投射される投影面に平行に照射された非可視光に基づく光が、投射レンズと偏光分離素子とを介して入射され、撮像素子に入射される非可視光に基づく光は、光源部から出射された非可視光が投影面内に存在する指示物にあたり反射された光であり、撮像素子に入射される非可視光に基づく光により得られた撮像信号から、指示物の位置に基づく入力操作を検出すると共にその検出結果に応じて特定の機能を実行可能に構成されている。
本開示の機能制御方法は、投射レンズと、照明光を映像信号に基づいて変調して投射レンズへ向けて出射するライトバルブと、ライトバルブと投射レンズとの間に配置された偏光分離素子と、ライトバルブと光学的に共役な位置に配置されると共に非可視光を受光する撮像素子と、投射レンズの下方に配置され、非可視光を出射する光源部とを備えた光学系により撮像信号を取得し、撮像素子には、映像信号に基づいて投射レンズから投射される投影面に平行に照射された非可視光に基づく光が、投射レンズと偏光分離素子とを介して入射し、撮像素子に入射される非可視光に基づく光は、光源部から出射された非可視光が投影面内に存在する指示物にあたり反射された光であり、撮像信号から、指示物の位置に基づく入力操作の有無を判定し、その判定結果に基づいて特定の機能を実行するように制御するものである。
本開示の投射型表示装置および機能制御方法では、撮像素子がライトバルブと光学的に共役な位置に配置され、この撮像素子に、非可視光に基づく光(物体によって反射された非可視光の一部)が、投射レンズと偏光分離素子とを介して入射される。このようにして得られた撮像信号に基づき、投影エリアの周辺における特定の入力操作を検知して特定の機能を実行することができる。
本開示の投射型表示装置および機能制御方法によれば、撮像素子がライトバルブと光学的に共役な位置に配置され、この撮像素子に、非可視光に基づく光(物体によって反射された非可視光の一部)が、投射レンズと偏光分離素子とを介して入射されることで、非可視光に基づく撮像信号を得ることができる。この撮像信号に基づき、投影エリアの周辺における物体を検出して、特定の入力操作に基づく機能を実行することができる。これにより、投影エリア内に限らず、投影エリアの周辺部においても入力操作が可能となり、入力操作の自由度が高まる。よって、ユーザによる操作性を向上することができる。
尚、上記内容は本開示の一例である。本開示の効果は、上述したものに限らず、他の異なる効果であってもよいし、更に他の効果を含んでいてもよい。
本開示の一実施の形態に係る投射型表示装置の外観とその使用状態とを示す模式図である。 図1に示した投射型表示装置の機能構成を示すブロック図である。 図1の状態を側面からみた模式図である。 図1に示した近赤外光源部の構成例を示す図である。 シリンダアレイレンズの第1の構成例を示す斜視図である シリンダアレイレンズの第2の構成例を示す斜視図である。 図1に示した投射型表示装置の要部構成を示す図である。 偏光分離素子の一構成例を、入射光および出射光の状態と共に示す模式図である。 検出光取り込みのイメージを表す模式図である。 検出位置による取り込み角度の違いを説明するための模式図である。 検出光の反射点と仮想発光点との差分について説明するための模式図である。 反射点と仮想発光点との差分と取り込み角との関係を説明するための模式図である。 投射レンズのイメージサークルと、ライトバルブサイズおよび撮像素子サイズと共に示した模式図である。 エリア外検出チャンネルを使用する場合(フルサイズ表示の場合)を説明するための模式図である。 エリア内検出チャンネルを使用する場合(一部表示の場合)を説明するための模式図である。 図1に示した投射型表示装置の映像表示および物体検出の概念を模式的に示した図である。 エリア外検出チャンネルを使用する場合(フルサイズ表示の場合)の機能制御の手順を表すフロー図である。 エリア内検出チャンネルを使用する場合(一部表示の場合)の機能制御の手順を表すフロー図である。 機能制御例を説明するための模式図である。
以下、本開示の実施の形態について図面を参照して詳細に説明する。なお、説明は以下の順序で行う。
・実施の形態(投影エリア内外に特定の入力操作を検出するためのチャンネル領域を設けた投射型表示装置の例)
1.構成
2.作用,効果
<実施の形態>
[構成]
図1は、本開示の一実施の形態に係る投射型表示装置(投射型表示装置1)の外観とその使用状態とを表したものである。図2は投射型表示装置1の機能構成を表したものである。投射型表示装置1は、例えば卓上などのフラットな面の上に置かれた状態(あるいは壁面などに取り付けられた状態)で、装置の近傍に映像を投影するタイプ(いわゆる超短焦点型)のプロジェクタである。この投射型表示装置1は、また、映像表示と共に、物体検出をアクティブに行う機能を有している。詳細は後述するが、図1に示したように、映像が投射される投影エリアS11(ライトバルブサイズに対応する投影可能エリア)において、表示された映像を指(指示物71)でタッチする等、ユーザが何らかの動作を行うことで、所定の入力操作を行うことができるようになっている。
投射型表示装置1は、図2に示したように、照明部11と、ライトバルブ12と、撮像素子13と、縮小光学系14と、偏光分離素子15と、投射レンズ16と、信号処理部17と、機能制御部19とを備えている。これらのうち、例えば照明部11、ライトバルブ12および投射レンズ16により投影光学系10Aが構成され、例えば撮像素子13および縮小光学系14により検出光学系10Bが構成されている。なお、例えば照明部11、ライトバルブ12、撮像素子13、信号処理部17および機能制御部19は、システム制御部(図示せず)により所定のタイミングで駆動制御される。
この投射型表示装置1の外筐には、近赤外光源部40が設けられている。近赤外光源部40は、検出用の非可視光として近赤外光(NIR:Near infrared)を出射する光源部であり、投影面110の近傍の面に沿って近赤外光を照射するものである。換言すると、近赤外光源部40は、投影面110の近傍において、投影エリアS11を覆うように、近赤外光のバリア膜(検出用ライトプレーン110A)を張っている。検出用ライトプレーン110Aは、投射レンズ16を通る光軸の高さとは異なる、投影面110から所定の高さhにある面に形成されている(図3)。
一例としては、検出用ライトプレーン110Aは、例えば高さhが数mm〜数10mm程度の位置に、厚み(高さ方向における幅)が2〜3mmで,かつ面内方向において投影エリアS11をカバーするように形成される。通常、投影面110は平坦であるため、遮蔽物、あるいは指や指示棒などの何かしらの指示物71が無ければ、検出用ライトプレーン110Aは遮られることがない。つまり、投影面110をモニタしている撮像素子13に写ることはない。この状態で、指などを、投影面110に近接させるか、または、投影面110をタッチするなどの動作をすると、検出用ライトプレーン110Aの近赤外光が指によって遮られ、そのポイントで拡散反射する。指などにあたり反射した光は四方八方に向かうが、その一部が投射レンズ16の開口に取り込まれる。その反射光の一部は投射レンズ16と偏光分離素子15とを介して、撮像素子13上に到達する。この時、映像をつくるライトバルブ12と撮像素子13が光学的に共役の位置に配置されているため、投影面110上で点状に発生した輝点拡散ポイントは撮像素子13上で結像し、投影された映像に1:1にあたる位置で結像する。これにより、物体の位置検出が可能となる。また超短焦点タイプの場合は投射光が投影面110の近傍を通り、操作する人の体の一部が投射光を遮りにくいため、操作する際に画面が見やすいというメリットがある。
なお、近赤外光源部40は、図示したように、例えば投射型表示装置1の外筐の下方に設けられるが、投射型表示装置1に隣接していてもよいし、していなくともよい。投影エリアS11を覆うように検出用ライトプレーン110Aを張ることができれば、投射型表示装置1から離れた位置に設置されていてもよい。あるいは、近赤外光源部40は、投射型表示装置1の外筐(筐体)の内部に設けられていてもよい。本実施の形態では、近赤外光源部40は、後述する光学設計により、投影面110から比較的離れた高さに設けることが可能となり、投射型表示装置1と一体的にバンドルし易くなる。
この検出用ライトプレーン110Aにより、物体(指示物71)が投影面110に接触あるいは近接すると、近赤外光が指示物71によって反射(拡散反射)され、この反射光の一部が投射型表示装置1に検出光として取り込まれる仕組みである。
近赤外光源部40は、図4に示したように、例えば近赤外レーザ42と、コリメータレンズ43と、シリンダアレイレンズ44とを有している。シリンダアレイレンズ44を出射した近赤外光41により検出用ライトプレーン110Aが形成される。シリンダアレイレンズ44は、図5Aに示したように凸状のシリンダレンズが複数配列されたものである。シリンダアレイレンズ44は、投影面110に対して垂直な面にシリンダレンズの母線44Aを向けるように配置する。なお、凸状のシリンダアレイレンズ44に代えて、図5Bに示したように凹状のシリンダレンズが複数配列されたシリンダアレイレンズ45を用いてもよい。
照明部11は、照明光L1を、偏光分離素子15を介してライトバルブ12に向けて出射するものである。この照明部11は、照明光L1として可視光を出射するものであれば特に限定されないが、例えば青色レーザと、緑色レーザと、赤色レーザ(いずれも図示せず)とを含んで構成されている。
図2,図6〜図12Bを参照して、投射型表示装置1の要部構成について説明する。
(投影光学系10A)
ライトバルブ12は、例えばLCOS(Liquid Crystal On Silicon)等の反射型の液晶素子である。ライトバルブ12は、例えば照明光L1に含まれる第1の偏光成分(例えば、後述のs偏光成分Ls1)を映像データに基づいて変調するものである。ライトバルブ12によって変調された光は、偏光状態が回転されており、第2の偏光成分(例えば、後述のp偏光成分Lp1)となる。この変調光が、偏光分離素子15を介して投射レンズ16に向けて出射されるようになっている。なお、ライトバルブ12では、入射光(s偏光成分Ls1)をそのままの偏光状態で偏光分離素子15に戻すことで黒表示を行うことも可能である。このライトバルブ12の有効エリア(後述の矩形状A1)の面形状は、例えば矩形状である。
投射レンズ16は、ライトバルブ12から偏光分離素子15を介して入射された光(映像光L2)を、投影面110上に投射するものである。投射レンズ16は、スローレシオ(Throw Ratio)が例えば0.38以下の超短焦点レンズである。ここで、スローレシオとは、投射レンズ16から投影面110までの距離をL、投影エリアS11の幅をHとすると、L/Hで表される。この投射レンズ16には、図2および図6に示したように、変調光の進行方向とは逆方向から検出光(近赤外光La1)が入射されるようになっている。このように、本実施の形態では、検出光が、投影光学系10Aの投射レンズ16を介して取り込まれ、検出光学系10Bへ導かれる。また、詳細は後述するが、この投射レンズ16によるイメージサークルの径は、所定の範囲となるように設定されている。
(偏光分離素子15)
偏光分離素子15は、入射した光を第1の偏光成分(例えばs偏光成分)と第2の偏光成分(例えばp偏光成分)とに分離し、それぞれを互いに異なる方向に出射するものである。この偏光分離素子15は、例えば偏光ビームスプリッタ(PBS)からなり、第1の偏光成分を選択的に反射させる(偏光分離面150において反射させる)と共に、第2の偏光成分を選択的に透過させる(偏光分離面150を透過させる)ように構成されている。本実施の形態では、偏光分離素子15として偏光ビームスプリッタを用いる場合を例に挙げて説明するが、偏光分離素子15はこれに限らず、ワイヤーグリッドから構成されていてもよい。その場合には、偏光ビームスプリッタと特性が異なり、入射した光のうちの第1の偏光成分としてp偏光成分を選択的に反射し、第2の偏光成分としてs偏光成分を選択的に透過させることができる。
この偏光分離素子15は、図6に示したように、例えば4つの光学面(第1面15A,第2面15B,第3面15C,第4面15D)と、偏光分離面150とを有している。第1面15Aと第3面15Cとが一軸方向(図の左右方向)において向かい合って配置され、第2面15Bと第4面15Dとが一軸方向(図の上下方向)において向かい合って配置されている。このような構成において、第1面15Aに照明光L1が入射されるように構成され、第2面15Bに対向して、ライトバルブ12が配置されている。第3面15Cに対向して、検出光学系10Bが配置され、第4面15Dに対向して、投射レンズ16が配置されている。
図7に、偏光分離素子15の一構成例について示す。このように、偏光分離素子15は、第1面15Aから入射した照明光L1のうちの第1の偏光成分(s偏光成分Ls1)を反射して第2面15Bから出射する。一方、照明光L1のうちの第2の偏光成分(p偏光成分Lp1)を第3面15Cから出射する。また、第2面15Bから入射した光(ライトバルブ12による変調光)のうちの第2の偏光成分(p偏光成分Lp2)を第4面15Dから出射する。これにより、投影光学系10Aによる映像投射がなされるようになっている。この一方で、第4面15Dから入射した光(近赤外光La1)のうちの第1の偏光成分(s偏光成分Ls3)を反射して第3面15Cから出射する。このs偏光成分Ls3に基づく光が撮像素子13において受光される。これにより、撮像素子13において撮像信号D0が得られる。
(検出光学系10B)
撮像素子13は、ライトバルブ12と光学的に共役な位置に配置されている。より具体的には、ライトバルブ12が反射型の液晶素子である場合、映像を創り出す表示面(液晶面)と撮像素子13の撮像面とが光学的に共役な関係となるように配置されている。撮像素子13は、例えばCMOS(Complementary Metal-Oxide Semiconductor)やCCD(Charge Coupled Device)などの固体撮像素子により構成され、有効エリア(後述の矩形状A3)の面形状は、例えば矩形状である。本実施の形態では、詳細は後述するが、この撮像素子13のサイズが、投影エリアS11の周辺の領域をも受光対象とするように設計されている。
この撮像素子13を含む検出光学系10Bの一例としては、図6に示したように、例えば、共役面50の側から順に、可視光カットフィルタ17Aと、バンドパスフィルタ17Bと、縮小光学系14(リレーレンズ群14A,14B)と、偏光子18と、撮像素子13とが配置されたものが挙げられる。
可視光カットフィルタ17Aは、入射した光のうちの可視光成分を低減するものである。この可視光カットフィルタ17Aを備えることで、偏光分離素子15として偏光ビームスプリッタを用いたとしても、照明部11の光源をオフすることなく、撮像素子13に入射する照明光L1の多くをカットすることができる。これにより、ほぼ検出光のみを撮像素子13側に入射させることができ、S/N比を大きくして検出精度を上げることができる。なお、ここでは、1枚の可視光カットフィルタ17Aを配置したが、可視光カットフィルタの枚数はこれに限定されるものではなく、2枚以上であってもよい。また、共役面50と縮小光学系14との間の位置に配置したが、他の位置、例えば縮小光学系14と撮像素子13との間に配置してもよい。
バンドパスフィルタ17Bは、特定の波長(近赤外光)を選択的に透過し、他の波長を低減するものである。
偏光子18は、照明光L1に含まれる第2の偏光成分を低減させる光学部材である。ここで、上記のような偏光分離素子15では、照射光L1のうちの第2の偏光成分(例えばp偏光成分)を透過させることから、このp偏光成分が検出光学系10Bに入射し、撮像素子13で得られる撮像信号のS/N比に影響することがある。本実施の形態のように、偏光子18が配置されることにより、照明光L1に含まれる第2の偏光成分(例えばp偏光成分)がカットされ、S/N比を大きくすることができる。なお、偏光子18の位置は、図示したような縮小光学系14と撮像素子13との間の位置に限定されるものではなく、他の位置、例えば共役面50と縮小光学系14との間に配置してもよい。
縮小光学系14は、1または複数のリレーレンズ群(ここでは2つのリレーレンズ群14A,14B)から構成されている。リレーレンズ群14A,14Bはそれぞれ、正のパワーを有し、少なくとも1枚のレンズを含んで構成されている。リレーレンズ群14Bの焦点距離fiは、リレーレンズ群14Aの焦点距離fbよりも小さくなるように設定されている。例えば、2fi=fbとなる条件とし、リレーレンズ群14Aが、ライトバルブ12の共役面50から焦点距離fbの分だけ離れた位置に配置され、このリレーレンズ群14Aの位置から(fb+fi)の分だけ離れた位置にリレーレンズ群14Bが配置され、かつリレーレンズ群14Bから焦点距離fiの分だけ離れた位置に、撮像素子13が配置される。このようなリレーレンズ群14A,14Bの配置により、縮小光学系を実現しつつ、撮像素子13を共役面50に配置した場合と等価となる。つまり、ライトバルブ12との共役の位置関係を保ちつつ、撮像素子13のサイズをより小さくすることが可能となる。
このような縮小光学系14を用いた物体検出は、低コスト化に有利である。撮像素子13のコストは撮像素子13のサイズに大きく影響を受ける。プロジェクタを構成する上で、半導体部品である、ライトバルブ12および撮像素子13はコストウエイトが大きいことから、そのような部品の小型化によるコストメリットは大きい。また、リレー光学系により共役点を延長することで配置の自由度が増す、というメリットもある。例えば、部品間距離が生まれることで、間に反射ミラー等で折り曲げ光学系を実現することが可能となる。
(エリア外検出用のチャンネル設定)
本実施の形態では、投影面上において、投影エリアS11の周辺に物体検出の可能なエリア(第2の検出エリア)が形成される。この第2の検出エリアには、特定の入力操作に対応づけられたチャンネル領域(後述のチャンネル領域CH1a〜CH4a等)が割り当てられている。つまり、投影エリアS11の周辺(以下、「エリア外」と称する)における物体検出が可能であり、エリア外において特定の入力操作がなされると、その入力操作に対応づけられた機能が実行されるようになっている。なお、チャンネル領域ではなく、位置座標に特定の入力操作が割り当てられていてもよい。このエリア外検出による入力操作を実現するための具体的な構成について、以下に説明する。
まず、検出光の取り込みの概要について説明する。図8Aに模式的に示したように、投影面110に指などの指示物71が接触あるいは近接すると、投影面110の近傍に張られた検出用ライトプレーン110Aにおける近赤外光Laが、指示物71にあたり、四方八方に拡散反射する。これらの拡散反射された光(散乱光)の一部(近赤外光La1)が、投射レンズ16により集光された後、検出光学系10Bにおける射出瞳E1によって切り出される。
ここで、上記のように投射レンズ16を介して検出光学系10Bに取り込まれる近赤外光La1について、詳細に説明する。図8Bに示したように、投影面110上における物体の位置を検出する場合、その検出位置に応じて、近赤外光La1の取り込み角(検出光学系10Bの射出瞳E1へ入射する近赤外光La1と、投影面110とのなす角θ)が異なる。具体的には、最も射出瞳E1に近い位置P1では、射出瞳E1を下から見上げるようなかたちとなり、取り込み角θが最大となる。次いで、位置P2,P3とこの順に、射出瞳E1から離れ、取り込み角θが徐々に小さくなる。位置P4では射出瞳E1から最も遠くなり、取り込み角θも最小となる。
上記のように、検出位置の違いにより、射出瞳E1までの距離ないし取り込み角θが変化することがわかる。これらのパラメータの値自体は、投影エリアS11のサイズ、あるいは超短焦点型のレンズ設計等に応じて異なるものであるが、上述した検出位置の違いによる取り込み角θの相対的な大小関係は変わらないことから、この関係性を利用して、指示物71の位置を特定することが可能である。
次に、射出瞳E1に入射する近赤外光La1について、より詳細に検討する。図9に、指示物71付近の反射の様子を模式的に示す。なお、上図は位置P1における反射を、下図は位置P4における反射をそれぞれ示している。図9に示したように、検出用ライトプレーン110における近赤外光Laは、指示物71にあたり反射されるが、この際、次のような現象が生じる。即ち、本実施の形態では、射出瞳E1(投影レンズ16)からみた近赤外光La1は、実際に指示物71にあたった反射点(実照射点)Pa1,Pa2ではなく、あたかも、高さhの斜め成分だけ遠くにある投影面110上の点(仮想発光点Pb1,Pb2)から発光したように見える。つまり、実際の指示物71の位置に対応する反射点Pa1と、仮想発光点Pb1との間には差分t1が生じる。同様に、反射点Pa2と仮想発光点Pb2との間には、差分t2が生じる。また、この差分(検出位置の伸び分)は、検出位置、即ち取り込み角θの影響を受け、取り込み角θが小さいほど、より顕著なものとなる。ここでは、位置P4の取り込み角θが最小であるから、位置P4における差分t2が最大値をとる。なお、位置P1の取り込み角θは最大であるから、位置P1における差分t1は最小値をとる。
このため、投影エリアS11の全域において物体検出を可能にするためには、図10に示したように、投影エリアS11の端部から更に、上記差分に相当する幅tを考慮したエリア(エリアS12)が受光対象となるように、撮像素子13のサイズおよびイメージサークル(後述のイメージサークルC1)の径等が設計される。なお、幅tは、検出用ライトプレーン110Aの高さhと取り込み角θとを用いて表すことができる(t=h/tanθ)。
図11に、イメージサークルC1と、ライトバルブ12の有効エリアに対応する面形状(矩形状A1)と、撮像素子13の有効エリアに対応する面形状(矩形状A3)と、チャンネル領域(チャンネル領域CH1〜CH4)との位置関係の一例を示す。これらの矩形状A1,A3は、詳細には、投射レンズの略焦点距離の位置における面形状に対応する。一般に、「イメージサークル」とは、レンズを通過した光が結像する円形の範囲のことを示す。プロジェクタなどの投影系においては、ライトバルブの配置された位置で、ライトバルブの有効エリアが確保されるように設計される。即ち、投射レンズにおいて、ライトバルブの有効エリアから出射された光線の通過領域が確保されるように設計がなされる。一方、カメラ等の撮像系の場合は、撮像レンズにおいて、撮像素子の有効エリアに入射する光線の通過領域が確保されるように、設計がなされる。本実施の形態では、1つの投射レンズ16により、映像投射と、検出光(近赤外光)の取り込みとを行うことから、イメージサークル(イメージサークルC1)は、最も像高の高い部分を通過する光線が確保されるように設定されることが望ましい。
また、ここでは超短焦点型であることから、イメージサークルC1は、像高が一方向(ここでは、図11のY方向)に沿って大きくシフトした(オフセットした)光線の通過領域が確保されるように設計される。ここで、映像を投影するのみのプロジェクタの場合、ライトバルブ12の矩形状A1の一部の頂点に外接するようにイメージサークル(イメージサークルC100)が設計される。具体的には、イメージサークルC100は、矩形状A1において1つの長辺を共有する一対の頂点A11,A12に接するように設計される。矩形状A1に外接するようにイメージサークルC100を設計するのは、イメージサークルの径自体が非常に大きく、投射レンズのサイズが巨大なものであることから、特性維持の面においてもコストの面においても、径を最小限に抑えたいためである。
ところが、本実施の形態のように、投影光学系10Aと検出光学系10Bとにおいて投射レンズ16を共有する場合、反射点と仮想発光点との間に差分(伸び分)があることから、これを考慮して、イメージサークルC1が設計されることが望ましい。具体的には、イメージサークルC1は、上記差分を考慮したカバーエリアA2aを含む矩形状A2を包含するのがよい。投影エリアS11の角部(頂点部分)においても物体検出が可能になるためである。
投影エリアS11の周辺部に検出エリアを確保するために、撮像素子13の矩形状A3は、ライトバルブ12の矩形状A1よりも大きなサイズで設計されている。換言すると、撮像素子13の対角サイズが以下の条件式(1)を満たすように構成される。但し、d1をライトバルブ12の対角サイズ、d2を撮像素子13の対角サイズ、βを検出光学系の光学倍率(縮小光学系の場合はβ>1、拡大光学系の場合はβ<1、等倍光学系の場合はβ=1)とする。但し、本実施の形態では、検出光学系10Bが縮小光学系を有することから、このβは、縮小光学系14の縮小倍率であり、β>1とする。なお、対角サイズd1はライトバルブ12の有効エリアの対角サイズであり、対角サイズd2は、撮像素子13の有効エリアの対角サイズである。これにより、ライトバルブ12の矩形状A1の周辺に、エリア外検出用のチャンネル領域CH1〜CH4を割り当て可能となる。換言すると、イメージサークルC1は、矩形状A1,A2の周囲に空き領域を有しており、この空き領域に、チャンネル領域CH1〜CH4を割り当てることができる。また、撮像素子13の矩形状A3の頂点A31,A32が、イメージサークルC1に接するように構成されていてもよいし、矩形状A3の頂点A31,A32がイメージサークルC1の外周からはみ出すように構成されていてもよい。
d1<β×d2 ………(1)
チャンネル領域CH1〜CH4は、例えば矩形状A1の各辺に対向して設けられると共に、それぞれが矩形状A1の外周に沿って長手方向を有する矩形状の領域となっている。但し、このレイアウトはあくまでも一例である。チャンネル領域CH1〜CH4は、矩形状A1の外周よりも外側で、かつイメージサークルC1の外周よりも内側の領域に割り当てられていればよく、その個数、形状、位置などは特に限定されるものではない。また、矩形状A1の1つの辺に複数のチャンネル領域を割り当て、実行対象の機能を増やしていてもよい。あるいは逆に、チャンネル領域は矩形状A1の周辺に1つだけ設けられていてもよい。ここでは、矩形状A1の4辺に対向してチャンネル領域CH1〜CH4が割り当てられている場合を例に挙げて説明する。
図12Aに、そのようなチャンネル設定に基づく投影面110上のレイアウトの一例について示す。このように、投影面110には、上記のチャンネル領域CH1〜CH4に対応して、映像表示エリアS11aの周辺に、チャンネル領域CH1a〜CH4aが形成される。これらのチャンネル領域CH1a〜CH4aは、指や手で操作することを想定した場合、幅bが10mm以上であることが望ましい。また、幅bは、より望ましくは30mm以上であり、更に望ましくは50mm以上である。なお、この例は、投影エリアS11が映像表示エリアS11aと等しくなる表示(全画面表示,フルサイズ表示)を行う場合について示している。
これらのチャンネル領域CH1〜CH4(CH1a〜CH4a)を用いて、様々な機能を実行するための入力操作を設定することができる。実行対象の機能としては、特に限定されるものではないが、映像そのものの動きを伴わない機能であることが望ましい。一例としては、投射型表示装置1の電源のオン,オフの切り替え、音量調整、画面サイズ調整、ページ送り、スクロール、ウインドウ画面を開く/閉じる、前に戻る/先に進む等の様々なものが挙げられる。なお、表示された映像そのものを直接的に動かす機能(例えばフリックや拡大,縮小、ローテーションなど)は、通常通り投射映像上で行われることが望ましい。
実行対象の機能としては、また、表示されている映像、音楽、あるいはその他の画面情報を妨げないように操作を行いたい場合の各種機能であってもよい。
上記のような機能を実行するための入力操作としては、例えば、チャンネル領域CH1a〜CH4aのうちの少なくとも1つを用いた、様々なジェスチャーを設定することができる。例えば、チャンネル領域CH1a〜CH4aのうちのいずれかのチャンネル領域において、一定時間内に複数回にわたって、指(指示物71)などをタッチする操作(例えば2回タップ)が挙げられる。また、チャンネル領域CH1a〜CH4aのうちのいずれかのチャンネル領域において、一定時間にわたって連続的に指などが置かれる操作(例えば長押し)が挙げられる。更には、チャンネル領域CH1a〜CH4aのうちのいずれかのチャンネル領域をタッチした後、一定時間内に他のチャンネル領域をタッチする操作、あるいは、チャンネル領域CH1a〜CH4aのうちの異なる2以上のチャンネル領域において、同時にタッチする操作などが挙げられる。あるいは、これらのエリア外検出と、通常の投影エリアS11内での検出(以下、「エリア内検出」と称する)を組み合わせて設定されてもよい。例えば、チャンネル領域CH1a〜CH4aのうちのいずれかのチャンネル領域と、投影エリアS11内の選択的な領域とを同時にタッチする操作などが挙げられる。
このように、複数のチャンネル領域CH1a〜CH4aを設けると共に、入力操作として複数回のタッチ操作あるいは複数箇所でのタッチ操作を設定することで、誤操作(ユーザが意図しない操作)を抑制することができるため望ましい。1箇所あるいは1回のみのタッチ操作で機能を実行する設定では、誤って触れた場合などにも機能が実行され、誤作動が起こり易いためである。
上記のような入力操作および機能の具体例を以下に挙げる。即ち、例えば、チャンネル領域CH1a,CH2aを、一定時間内に検出信号が通過することで、投射型表示装置1のオンおよびオフを切り替える機能を実行する。また、チャンネル領域CH3にタッチしながらチャンネル領域CH4にタッチすると、音量を下げる機能を実行し、逆にチャンネル領域CH4にタッチしながらチャンネル領域CH3にタッチすると音量を上げる機能を実行する、などが挙げられる。入力操作および機能の他の例については、後述する。
また、ここでは、投影エリアS11の全域を映像表示領域S11aとする場合を例示したが、投影エリアS11の一部が映像表示領域S11aとなる(投影エリアS11の一部に映像が表示あるいは縮小表示される)場合もある。このような場合(一部表示の場合)には、例えば図12Bに示したように、投影面110の投影エリアS11内において、映像表示エリアS11aの周辺に、チャンネル領域CH1b〜CH4bが形成される。また、拡大または縮小の操作に応じてその比率が維持されるとよい。
信号処理部17は、撮像素子13による撮像信号に基づいて、例えば人の指やポインタ等の指示物(物体)71の特徴点の位置を、例えば投影面110上の投影エリアS11における座標に対応付けて検出するものである。特徴点の例としては、人の指の先端の形状、指の重心、手の重心などを用いることができる。また、指とスタイラスとでは、反射率の違いから撮像素子13における受光量が互いに異なる。このため、閾値の設定により、指示物71が、特定のものである場合(例えば指の場合)のみ、位置検出を行うようにしすることもできる。この信号処理部17は、そのような物体検出結果に基づいて、上記のような機能に対応づけられた特定の入力操作の有無を判定する。また、その判定結果D1は、図2に示したように、機能制御部19に出力される。
機能制御部19は、判定結果D1に基づいて、所定の機能を実行する制御を行うものである。
[作用,効果]
投射型表示装置1では、図13に示したように、ライトバルブ12に形成された映像情報V1を投射レンズ16によって、卓上などの投影面110上に投影し、投影画像V2として拡大表示する。この一方で、投射型表示装置1は、投影面110上における物体の位置、例えば人の指やポインタ等の指示物(物体)71の特徴点の位置Pt1を、撮像素子13から得られた撮像信号D0を用いて検出する。
ここで、本実施の形態では、投射レンズ16が、投影光学系10Aと検出光学系10Bとにおいて共有され、撮像素子13がライトバルブ12と光学的に共役の位置に配置されている。このため、投影エリアS11とほぼ同じエリアを検出エリア(第1の検出エリア)とする物体検出が可能となる。また、この光学的に共役な位置関係により、投影面110上における指示物71の特徴点の位置Pt1を投射レンズ16を介して投影画像V2に重ねてモニタすることが可能となる。また例えば、信号処理部17において、指示物71の形状を画像処理し、指示物71の特徴点の位置Pt1の座標を検出することで、投影画像V2のポインティング操作が可能となる。この際、投影エリアS11内の任意の座標位置が検出エリア内の座標位置に1対1で対応するので、撮像素子13側の検出位置Pt2の座標が指示物71の特徴点の位置Pt1の座標に対応する。即ち、キャリブレーション等の煩雑な信号処理を行うことなく、投影エリアS11内の位置と、検出エリア内の位置とを対応づけて物体を検出することができる。なお、指示物71は2以上であってもよく、例えば両手の指の先端の座標を検出することなども可能である。このようにして検出された指示物71の特徴点の位置を用いることで、プロジェクタの投影画像V2にあたかもタッチパネルが組み込まれているような直観的な操作が可能となる。
更に、図11に示したように、撮像素子13の矩形状A3が、ライトバルブ12の矩形状A1よりも大きく、かつイメージサークルC1の径が最適化されることにより、投影エリアS11の角部などの局所的な領域においても物体を検出し易くなり、投影エリアS11のほぼ全域において物体検出が可能となる。また、撮像素子13の矩形状A3が、その頂点A31,A32がイメージサークルC1に接するように、またはイメージサークルC1から一部はみ出すように設計されている。これにより、映像表示エリアS11a(例えば投影エリアS11)の周辺において入力操作(ジェスチャーによる入力操作)を行うことができる。そして、この入力操作に対応する機能が実行される。
上記のような物体検出および入力操作に基づく機能制御動作の流れを、図14Aに示す。このように、例えば、映像表示エリアS11aが投影エリアS11と同等の場合(図12Aに示したフルサイズ表示の場合)には、まず投影面110の投影エリアS11に映像をフルサイズ表示する(ステップS110)。この後、映像表示エリアS11a(投影エリアS11)の周辺(チャンネル領域CH1a〜CH4a)において、物体(指示物71)を検出する(ステップS111)。この物体検出結果に基づいて、特定の入力操作の有無を判定する(ステップS112)。そして、この判定結果に基づいて(特定の入力操作が検出された場合には)、その入力操作に対応づけられた機能を実行する(ステップS113)。
また、映像表示エリアS11aが投影エリアS11の一部である場合(図12Bに示した一部表示の場合)の機能制御動作の流れを、図14Bに示す。このように、一部表示の場合には、まず投影面110の投影エリアS11の一部に映像を表示する(ステップS114)。この後、映像表示エリアS11aの周辺(チャンネル領域CH1b〜CH4b)において、物体(指示物71)を検出する(ステップS115)。この物体検出結果に基づいて、特定の入力操作の有無を判定する(ステップS116)。そして、この判定結果に基づいて(特定の入力操作が検出された場合には)、その入力操作に対応づけられた機能を実行する(ステップS117)。
以下に、チャンネル領域CH1a〜CH4a(チャンネル領域CH1b〜CH4bも同様)を用いた入力操作とそれにより実行される機能の一例について説明する。
(機能制御例1)
ウインドウ画面のスタートボタン、閉じる(×)ボタン、ブラウザ閲覧時の上下スクロールバーなど、画面の外周あるいは角部に設けられた比較的細かい,狭い部位における操作を、その周辺に割り当てられたチャンネル領域CH1a〜CH4aを用いて行う。その模式図を図15に示す。画面内の狭小な操作部位(ボタン、スクロールなど)B11,B12,B13等を直接タッチして操作するよりも、チャンネル領域CH1a〜CH4aのうちの選択的な領域(本来の操作部位B11,B12,B13の近傍の領域)をタッチする方が操作し易く、またタッチ操作が画面情報の妨げになることもない。
(機能制御例2)
上記の入力操作の際に、更にチャンネル領域CH1a〜CH4aのうちの所定の領域を同時にタッチしている場合にのみ、機能を実行する。例えば、チャンネル領域CH3a(あるいはその一部)をタッチしながら、チャンネル領域CH4a(あるいはその一部)をタッチする操作を行った場合に、ウインドウ画面が閉じられる、などの機能を実行する。これにより、機能の誤作動を抑制することができる。
(機能制御例3)
映像、音楽あるいはその他の画面情報をタッチ操作により妨げられたくない場合の入力操作を、エリア外にて行い、例えば曲送り、シーク、音量調整などの機能を実行する。
(機能制御例4)
エリア外(投影エリアS11あるいは映像表示エリアS11aの周辺)にて映像表示エリアS11aの位置(投影位置)を動かすジェスチャーを行い、投影位置を調整する。例えば、机上に本やコップなどが置かれている場合、投影面110がフラットな面とならず、凹凸が生じる。そのような凹凸を生じる物が置かれている場合などに、エリア外での入力操作により、凹凸部分を回避して映像表示エリアS11aをフラットな面にシフトする機能を実行する。
(機能制御例5)
エリア外の選択的な複数の領域(例えば2つの辺または2つの隅)を同時にシークすることで、表示画面サイズを拡大あるいは縮小する機能を実行する。投影エリアS11内は、映像のポインティング操作の検出に割り当てられることから、エリア外での操作および複数箇所同時操作により、誤検出ないし誤作動を抑制することができる。
(機能制御例6)
投影エリアS11の周辺に置いた、スマートフォンやタブレットなど他の電子機器を検出し、例えば待ち受け画面のページアイコンを投影エリアS11に展開して、電子機器より大きな画面に、電子機器の映像を表示する機能を実行する。
(機能制御例7)
エリア外の選択的な領域を2回タップすることで、前画面表示に戻る機能を実行する。エリア内での2回タップは、通常のダブルクリック操作として認識されるが、エリア外では、2回タップに他の操作を割り当てることができる。
(機能制御例8)
エリア外の選択的な領域、例えば画面下のチャンネル領域CH2aを長押しすることにより、キーボードを表示する機能を実行する。
(機能制御例9)
いわゆるマルチタッチ検出(多点検出)に対応することも可能である。つまり複数の人が同時に操作した場合、あるいは複数の点を近づける、あるいは離す等の操作により表示映像の拡大あるいは縮小等を行うことができる。このマルチタッチ検出への適用はメリットでもあるが、誤検出となる場合もある。例えば、ユーザが投影面110の手前に座り、何らかの操作、例えば文字を書く、絵を書くなどの操作を行う場合、一般的に手の位置を固定するため、手の腹を画面に付けた状態でそのような操作を行うことが多い。指先と手の腹とを同時に検出してしまい、誤操作につながる。このような場合、指先と手の腹との特徴点の違いから信号処理によって指先の位置のみを選択的に検出することもできるが、次のような手法をとることが可能である。
即ち、手の腹が画面に触れた状態であっても、1点(指先)の位置を選択的に検出可能なモードへの切り替え操作をエリア外で行う。具体的には、エリア外での入力操作により、多点検出モードと、1点検出モードとを切り替える。このモード切り替えにより、多点検出と、1点のみを選択的に検出することを信号処理によって実現可能になる。例えば、1点検出モードにおいて、文字を書くという操作の場合、指先と手の腹との相対的な位置関係がほぼ変わらないことから、その位置関係に基づいて、指先に対応する部分のみを検出対象とし、手の腹の部分は検出対象外とするような、信号処理を行う。この結果、指先の検出精度が向上し、操作性の向上につながる。
以上のように、本実施の形態によれば、撮像素子13がライトバルブ12と光学的に共役な位置に配置され、この撮像素子13に、非可視光に基づく光(物体によって反射された近赤外光の一部)が、投射レンズ16と偏光分離素子15とを介して入射される。これにより、近赤外光La1に基づく撮像信号D0を得ることができる。この撮像信号D0に基づき、映像表示エリアS11aの周辺における物体を検出して特定の入力操作の有無を判定し、その判定結果に基づいて特定の機能を実行する。これにより、映像表示エリアS11a(例えば投影エリアS11)に限らず、映像の表示されていないエリアにおいても、機能を実行するための入力操作が可能となり、入力操作の自由度を高めることができる。よって、ユーザによる操作性を向上することができる。
なお、本開示は、上記実施の形態の説明に限定されず種々の変形実施が可能である。例えば、上記実施の形態では、ライトバルブ12と撮像素子13として、略同じアスペクト比を有するものを例に挙げたが、これらのライトバルブ12と撮像素子13とは、必ずしもアスペクト比が同じでなくともよい。
また、上記実施の形態では、本開示のライトバルブとして、反射型液晶素子を用いたが、これに限らず、他のライトバルブが用いられて構わない。例えば、ライトバルブとして、デジタルミラーデバイス(DMD)が用いられてもよい。この場合、ライトバルブが光の偏光特性を利用しないミラータイプとなるため、通常は偏光光学系を用いないが、上記実施の形態のように光路中に偏光ビームスプリッタなどの偏光分離素子が配された光学系に配置しても差し支えなく、DMDを用いた映像表示を実現することが可能となる。
更に、上記実施の形態では、本開示の投射型表示装置の一例として、いわゆる超短焦点型のものを例示したが、必ずしもこのタイプのものに限定される訳ではなく、その他のタイプのプロジェクタに広く適用可能である。なお、上記実施の形態等において説明した効果は一例であり、他の効果であってもよいし、更に他の効果を含んでいてもよい。
また例えば、本開示は以下のような構成を取ることができる。
(1)
照明部と、投射レンズと、前記照明部から供給された照明光を映像信号に基づいて変調して前記投射レンズへ向けて出射するライトバルブとを有する投影光学系と、
前記ライトバルブと前記投射レンズとの間に配置され、入射光を第1および第2の偏光成分に分離すると共に、それぞれを互いに異なる方向に出射する偏光分離素子と、
前記ライトバルブと光学的に共役な位置に配置された撮像素子を有する検出光学系と
を備え、
前記撮像素子には、投影面の近傍の面に沿って照射された非可視光に基づく光が、前記投射レンズと前記偏光分離素子とを介して入射され、かつ
前記投影面上の投影エリアの周辺において、入力操作を検出すると共にその検出結果に応じて特定の機能を実行可能に構成された
投射型表示装置。
(2)
前記投射レンズの略焦点距離の位置またはこれと光学的に共役の関係となる位置において、
前記ライトバルブの有効エリアに対応する面形状は、第1の矩形状であり、
前記撮像素子の有効エリアに対応する面形状は、前記第1の矩形状と中心位置が略同一で、かつ前記第1の矩形状よりも大きな第2の矩形状である
上記(1)に記載の投射型表示装置。
(3)
投影面上に、
前記投影エリアに対応する第1の検出エリアと、 前記投影エリアの周辺部に対応する第2の検出エリアと
を形成可能に構成された
上記(2)に記載の投射型表示装置。
(4)
前記第2の検出エリアは、それぞれが前記入力操作に対応づけられた1または複数のチャンネル領域または位置座標を有する
上記(3)に記載の投射型表示装置。
(5)
前記投影エリアの矩形状の4辺のそれぞれに対向して、前記チャンネル領域が1つ以上設けられている
上記(4)に記載の投射型表示装置。
(6)
前記複数のチャンネル領域のうちの1のチャンネル領域において、一定時間内に複数回にわたって物体が検出された場合に、前記機能を実行する
上記(4)または(5)に記載の投射型表示装置。
(7)
前記複数のチャンネル領域のうちの1のチャンネル領域において、一定時間にわたって連続的に物体が検出された場合に、前記機能を実行する
上記(4)または(5)に記載の投射型表示装置。
(8)
前記複数のチャンネル領域のうちの1のチャンネル領域において物体が検出された後、一定時間内に他のチャンネル領域において物体が検出された場合に、前記機能を実行する
上記(4)または(5)に記載の投射型表示装置。
(9)
前記複数のチャンネル領域のうちの異なる2以上のチャンネル領域において、同時に物体が検出された場合に、前記機能を実行する
上記(4)または(5)に記載の投射型表示装置。
(10)
前記複数のチャンネル領域のうちの1のチャンネル領域と、前記第1の検出エリア内の選択的な領域とにおいて同時に物体が検出された場合に、前記機能を実行する
上記(4)または(5)に記載の投射型表示装置。
(11)
前記第1の検出エリアは、前記投影エリアのうちの選択的な映像表示エリアの周辺に、それぞれが前記入力操作に対応づけられた1または複数のチャンネル領域を有する
上記(3)に記載の投射型表示装置。
(12)
前記投射レンズは、短焦点レンズである
上記(1)〜(11)のいずれかに記載の投射型表示装置。
(13)
前記非可視光を出射する光源部が外筐に設けられている
上記(1)〜(12)のいずれかに記載の投射型表示装置。
(14)
前記非可視光は、近赤外光である
上記(1)〜(13)のいずれかに記載の投射型表示装置。
(15)
前記偏光分離素子は、偏光ビームスプリッタである
上記(1)〜(14)のいずれかに記載の投射型表示装置。
(16)
前記ライトバルブは、反射型液晶表示素子である
上記(1)〜(15)のいずれかに記載の投射型表示装置。
(17)
前記偏光分離素子は、それぞれが光入射面または光出射面となる第1ないし第4の面を有すると共に、前記第1の面から入射した光のうちの前記第1の偏光成分を前記第2の面から出射し、前記第1の面から入射した光のうちの前記第2の偏光成分を前記第3の面から出射し、前記第2の面から入射した光のうちの前記第2の偏光成分を前記第4の面から出射し、かつ、前記第4の面から入射した光のうちの前記第1の偏光成分を前記第3の面から出射する、ように構成されている
上記(16)に記載の投射型表示装置。
(18)
前記投影光学系は、
前記照明部が、前記照明光を前記偏光分離素子の前記第1の面に向けて出射し、
前記ライトバルブが、前記照明光のうち、前記偏光分離素子の前記第2の面から出射した前記第1の偏光成分を変調し、その変調光を、前記偏光分離素子の前記第2の面に向けて出射し、
前記投射レンズが、前記変調光のうち、前記偏光分離素子の前記第4の面から出射した光を、前記投影面に向けて投射する、ように構成されている
上記(17)に記載の投射型表示装置。
(19)
前記検出光学系は
小光学系に、前記投射レンズと前記偏光分離素子の前記第4の面および前記第3の面とを介して物体検出用の光が入射され、
前記撮像素子に、前記縮小光学系から出射された光が入射する、ように構成されている
上記(18)に記載の投射型表示装置。
(20)
投射レンズと、照明光を映像信号に基づいて変調して前記投射レンズへ向けて出射するライトバルブと、前記ライトバルブと前記投射レンズとの間に配置された偏光分離素子と、前記ライトバルブと光学的に共役な位置に配置されると共に非可視光を受光する撮像素子とを備えた光学系により得られた撮像信号に基づき、投影エリアの周辺における特定の入力操作の有無を判定し、
その判定結果に基づいて特定の機能を実行するように制御する
機能制御方法。
1…投射型表示装置、12…ライトバルブ、13…撮像素子、14…縮小光学系、15…偏光分離素子、16…投射レンズ、17…信号処理部、17A…可視光カットフィルタ、17B…バンドパスフィルタ、18…偏光子、19…機能制御部、110…投影面、110A…検出用ライトプレーン、40…近赤外光光源部、A1,A3…有効エリア、C1,C100…イメージサークル、CH1〜CH4,CH1a〜CH4a,CH1b〜CH4b…チャンネル領域、E1…射出瞳、S11…投影エリア、S12…エリア、L1…照明光、La,La1…近赤外光、Lp1,Lp2,Lp3…P偏光成分、Ls1,Ls2,Ls3…S偏光成分、V1…投影画像、V2…映像情報。

Claims (20)

  1. 照明部と、投射レンズと、前記照明部から供給された照明光を映像信号に基づいて変調して前記投射レンズへ向けて出射するライトバルブとを有する投影光学系と、
    前記ライトバルブと前記投射レンズとの間に配置され、入射光を第1および第2の偏光成分に分離すると共に、それぞれを互いに異なる方向に出射する偏光分離素子と、
    前記ライトバルブと光学的に共役な位置に配置された撮像素子を有する検出光学系と
    前記投射レンズの下方に配置され、非可視光を出射する光源部と
    を備え、
    前記撮像素子には、前記映像信号に基づいて前記投射レンズから投射される投影面に平行に照射された前記非可視光に基づく光が、前記投射レンズと前記偏光分離素子とを介して入射され、
    前記撮像素子に入射される前記非可視光に基づく光は、前記光源部から出射された前記非可視光が前記投影面内に存在する指示物にあたり反射された光であり、
    前記撮像素子に入射される前記非可視光に基づく光により得られた撮像信号から、前記指示物の位置に基づく入力操作を検出すると共にその検出結果に応じて特定の機能を実行可能に構成された
    投射型表示装置。
  2. 前記投射レンズの略焦点距離の位置またはこれと光学的に共役の関係となる位置において、
    前記ライトバルブの有効エリアに対応する面形状は、第1の矩形状であり、
    前記撮像素子の有効エリアに対応する面形状は、前記第1の矩形状と中心位置が略同一で、かつ前記第1の矩形状よりも大きな第2の矩形状である
    請求項1に記載の投射型表示装置。
  3. 前記投影面上に、
    影エリアに対応する第1の検出エリアと、
    前記投影エリアの周辺部に対応する第2の検出エリアと
    を形成可能に構成された
    請求項2に記載の投射型表示装置。
  4. 前記第2の検出エリアは、それぞれが前記入力操作に対応づけられた1または複数のチャンネル領域または位置座標を有する
    請求項3に記載の投射型表示装置。
  5. 前記投影エリアの矩形状の4辺のそれぞれに対向して、前記チャンネル領域が1つ以上設けられている
    請求項4に記載の投射型表示装置。
  6. 前記複数のチャンネル領域のうちの1のチャンネル領域において、一定時間内に複数回にわたって物体が検出された場合に、前記機能を実行する
    請求項4または請求項5に記載の投射型表示装置。
  7. 前記複数のチャンネル領域のうちの1のチャンネル領域において、一定時間にわたって連続的に物体が検出された場合に、前記機能を実行する
    請求項4または請求項5に記載の投射型表示装置。
  8. 前記複数のチャンネル領域のうちの1のチャンネル領域において物体が検出された後、一定時間内に他のチャンネル領域において物体が検出された場合に、前記機能を実行する
    請求項4または請求項5に記載の投射型表示装置。
  9. 前記複数のチャンネル領域のうちの異なる2以上のチャンネル領域において、同時に物体が検出された場合に、前記機能を実行する
    請求項4または請求項5に記載の投射型表示装置。
  10. 前記複数のチャンネル領域のうちの1のチャンネル領域と、前記第1の検出エリア内の選択的な領域とにおいて同時に物体が検出された場合に、前記機能を実行する
    請求項4または請求項5に記載の投射型表示装置。
  11. 前記第1の検出エリアは、前記投影エリアのうちの選択的な映像表示エリアの周辺に、それぞれが前記入力操作に対応づけられた1または複数のチャンネル領域を有する
    請求項3に記載の投射型表示装置。
  12. 前記投射レンズは、短焦点レンズである
    請求項1ないし請求項11のいずれか1項に記載の投射型表示装置。
  13. 前記非可視光を出射する前記光源部が外筐に設けられている
    請求項1ないし請求項12のいずれか1項に記載の投射型表示装置。
  14. 前記非可視光は、近赤外光である
    請求項1ないし請求項13のいずれか1項に記載の投射型表示装置。
  15. 前記偏光分離素子は、偏光ビームスプリッタである
    請求項1ないし請求項14のいずれか1項に記載の投射型表示装置。
  16. 前記ライトバルブは、反射型液晶表示素子である
    請求項1ないし請求項15のいずれか1項に記載の投射型表示装置。
  17. 前記偏光分離素子は、それぞれが光入射面または光出射面となる第1ないし第4の面を有すると共に、前記第1の面から入射した光のうちの前記第1の偏光成分を前記第2の面から出射し、前記第1の面から入射した光のうちの前記第2の偏光成分を前記第3の面から出射し、前記第2の面から入射した光のうちの前記第2の偏光成分を前記第4の面から出射し、かつ、前記第4の面から入射した光のうちの前記第1の偏光成分を前記第3の面から出射する、ように構成されている
    請求項16に記載の投射型表示装置。
  18. 前記投影光学系は、
    前記照明部が、前記照明光を前記偏光分離素子の前記第1の面に向けて出射し、
    前記ライトバルブが、前記照明光のうち、前記偏光分離素子の前記第2の面から出射した前記第1の偏光成分を変調し、その変調光を、前記偏光分離素子の前記第2の面に向けて出射し、
    前記投射レンズが、前記変調光のうち、前記偏光分離素子の前記第4の面から出射した光を、前記投影面に向けて投射する、ように構成されている
    請求項17に記載の投射型表示装置。
  19. 前記検出光学系は、
    縮小光学系に、前記投射レンズと前記偏光分離素子の前記第4の面および前記第3の面とを介して物体検出用の光が入射され、
    前記撮像素子に、前記縮小光学系から出射された光が入射する、ように構成されている
    請求項18に記載の投射型表示装置。
  20. 投射レンズと、照明光を映像信号に基づいて変調して前記投射レンズへ向けて出射するライトバルブと、前記ライトバルブと前記投射レンズとの間に配置された偏光分離素子と、前記ライトバルブと光学的に共役な位置に配置されると共に非可視光を受光する撮像素子と、前記投射レンズの下方に配置され、非可視光を出射する光源部とを備えた光学系により撮像信号を取得し
    前記撮像素子には、前記映像信号に基づいて前記投射レンズから投射される投影面に平行に照射された前記非可視光に基づく光が、前記投射レンズと前記偏光分離素子とを介して入射し、
    前記撮像素子に入射される前記非可視光に基づく光は、前記光源部から出射された前記非可視光が前記投影面内に存在する指示物にあたり反射された光であり、
    前記撮像信号から、前記指示物の位置に基づく入力操作の有無を判定し、
    その判定結果に基づいて特定の機能を実行するように制御する
    機能制御方法。
JP2014182976A 2014-09-09 2014-09-09 投射型表示装置および機能制御方法 Active JP6372266B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2014182976A JP6372266B2 (ja) 2014-09-09 2014-09-09 投射型表示装置および機能制御方法
EP15767337.7A EP3227766B1 (en) 2014-09-09 2015-08-28 Projection display unit and function control method
US15/502,231 US11054944B2 (en) 2014-09-09 2015-08-28 Projection display unit and function control method
PCT/JP2015/004369 WO2016038839A1 (en) 2014-09-09 2015-08-28 Projection display unit and function control method
CN201580041613.2A CN106716318B (zh) 2014-09-09 2015-08-28 投影显示单元和功能控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014182976A JP6372266B2 (ja) 2014-09-09 2014-09-09 投射型表示装置および機能制御方法

Publications (3)

Publication Number Publication Date
JP2016057426A JP2016057426A (ja) 2016-04-21
JP2016057426A5 JP2016057426A5 (ja) 2017-03-16
JP6372266B2 true JP6372266B2 (ja) 2018-08-15

Family

ID=54151362

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014182976A Active JP6372266B2 (ja) 2014-09-09 2014-09-09 投射型表示装置および機能制御方法

Country Status (5)

Country Link
US (1) US11054944B2 (ja)
EP (1) EP3227766B1 (ja)
JP (1) JP6372266B2 (ja)
CN (1) CN106716318B (ja)
WO (1) WO2016038839A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11755152B2 (en) 2017-03-23 2023-09-12 Sony Corporation Projector with detection function for stabilizing intensity distribution of an irradiation beam

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110058476B (zh) * 2014-07-29 2022-05-27 索尼公司 投影型显示装置
JP6669068B2 (ja) * 2014-08-27 2020-03-18 ソニー株式会社 投射型表示装置
JP7143840B2 (ja) * 2017-03-23 2022-09-29 ソニーグループ株式会社 ビーム照射装置、および検出機能付きプロジェクタ
JP6972609B2 (ja) * 2017-03-28 2021-11-24 セイコーエプソン株式会社 光射出装置および画像表示システム
JP6919266B2 (ja) * 2017-03-28 2021-08-18 セイコーエプソン株式会社 光射出装置および画像表示システム
KR101941369B1 (ko) * 2017-06-24 2019-01-23 주식회사 카피모션 광학식 모션 트랙킹 센서
CN107562316B (zh) * 2017-08-29 2019-02-05 Oppo广东移动通信有限公司 界面展示方法、装置及终端
CN107577377A (zh) * 2017-09-26 2018-01-12 哈尔滨工业大学 基于视觉和红外技术的触摸信号采集装置
JP2019174513A (ja) * 2018-03-27 2019-10-10 セイコーエプソン株式会社 表示装置、及び、表示装置の制御方法
US11835696B2 (en) 2018-04-09 2023-12-05 Sony Corporation Optical system and projector
CN108762483B (zh) * 2018-04-16 2021-02-09 广景视睿科技(深圳)有限公司 一种互动投影仪及互动投影方法
JP7087828B2 (ja) * 2018-08-27 2022-06-21 セイコーエプソン株式会社 光学素子、光射出装置および画像表示システム
WO2020261850A1 (ja) * 2019-06-28 2020-12-30 富士フイルム株式会社 投影装置
CN111123625B (zh) * 2019-12-13 2021-05-18 成都极米科技股份有限公司 投影仪及投影方法
JP2022059236A (ja) * 2020-10-01 2022-04-13 セイコーエプソン株式会社 投写システム、および、什器
KR20220091195A (ko) * 2020-12-23 2022-06-30 현대모비스 주식회사 차량의 입력 장치 및 방법

Family Cites Families (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3278350B2 (ja) 1996-05-15 2002-04-30 シャープ株式会社 投影表示装置
JP3832132B2 (ja) * 1999-03-11 2006-10-11 セイコーエプソン株式会社 表示システム、及びプレゼンテーションシステム
JP4620909B2 (ja) 2001-07-26 2011-01-26 日東光学株式会社 画像入出力装置
US20030226968A1 (en) * 2002-06-10 2003-12-11 Steve Montellese Apparatus and method for inputting data
JP4175070B2 (ja) 2002-10-03 2008-11-05 セイコーエプソン株式会社 画像入出力装置、マンマシンインターフェイスシステムおよびプログラム
US6840627B2 (en) 2003-01-21 2005-01-11 Hewlett-Packard Development Company, L.P. Interactive display device
US20050168448A1 (en) * 2004-01-30 2005-08-04 Simpson Zachary B. Interactive touch-screen using infrared illuminators
JP2006065558A (ja) * 2004-08-26 2006-03-09 Canon Inc 入力表示装置
US8648805B2 (en) * 2004-11-05 2014-02-11 Ftm Computer Products Fingertip mouse and base
CN2802536Y (zh) * 2005-06-27 2006-08-02 广东威创日新电子有限公司 一种用于交互式投影显示的光学装置
JP2007052218A (ja) 2005-08-18 2007-03-01 Nikon Corp 撮像機能付きプロジェクタ
TWI292052B (en) 2006-05-09 2008-01-01 Young Optics Inc Optical projection and image detection apparatus
JP2008257125A (ja) 2007-04-09 2008-10-23 Seiko Epson Corp プロジェクションシステム、形状測定装置、および光学特性評価装置
JP2010538685A (ja) * 2007-07-17 2010-12-16 エクスプレイ・リミテッド 光学投影方法及びシステム
JP2009047819A (ja) 2007-08-17 2009-03-05 Sony Corp 偏光ビームスプリッタ、投写型光学装置、投写型表示装置
JP5277703B2 (ja) * 2008-04-21 2013-08-28 株式会社リコー 電子機器
US7738190B2 (en) 2008-09-27 2010-06-15 Meistream International Optical Ltd. Optical engine and wide angle projection lens module thereof
JP5199016B2 (ja) 2008-10-10 2013-05-15 富士フイルム株式会社 単板投写型表示装置
US8144269B2 (en) * 2009-01-08 2012-03-27 Micron Technology, Inc. Reflective LCOS displays utilizing novel polarizing beam splitters
CN101943843B (zh) 2009-05-22 2012-03-07 上海丽恒光微电子科技有限公司 集成微型显示投影及成像系统
JP5471266B2 (ja) * 2009-10-07 2014-04-16 セイコーエプソン株式会社 位置検出機能付き投射型表示装置
CN101776836B (zh) * 2009-12-28 2013-08-07 武汉全真光电科技有限公司 投影显示系统及桌面计算机
US9110495B2 (en) * 2010-02-03 2015-08-18 Microsoft Technology Licensing, Llc Combined surface user interface
JP2011209531A (ja) * 2010-03-30 2011-10-20 Seiko Epson Corp プロジェクター
US8434873B2 (en) 2010-03-31 2013-05-07 Hong Kong Applied Science and Technology Research Institute Company Limited Interactive projection device
KR20110121125A (ko) * 2010-04-30 2011-11-07 삼성전자주식회사 인터랙티브 디스플레이 장치 및 이의 동작 방법
US8542218B2 (en) * 2010-08-19 2013-09-24 Hyundai Motor Company Electronic switch apparatus for vehicle
JP5710929B2 (ja) 2010-10-08 2015-04-30 船井電機株式会社 プロジェクタ
GB2486445B (en) * 2010-12-14 2013-08-14 Epson Norway Res And Dev As Camera-based multi-touch interaction apparatus system and method
WO2012120958A1 (ja) 2011-03-04 2012-09-13 株式会社ニコン 投影装置
CN102156593B (zh) * 2011-04-13 2013-01-16 中国科学院深圳先进技术研究院 光学触摸屏及光学触摸屏的触摸定位方法
JP2012256000A (ja) * 2011-06-10 2012-12-27 Sanyo Electric Co Ltd 投写型映像表示装置
KR101773988B1 (ko) * 2011-07-29 2017-09-01 휴렛-팩커드 디벨롭먼트 컴퍼니, 엘.피. 시각적 계층화 시스템 및 시각적 계층화 방법
JP2013061598A (ja) * 2011-09-15 2013-04-04 Funai Electric Co Ltd プロジェクタおよびプロジェクタ機能を有する電子機器
JP2013120586A (ja) 2011-12-09 2013-06-17 Nikon Corp プロジェクタ
JP2013168922A (ja) 2012-01-18 2013-08-29 Sony Corp 投影型画像表示装置及び画像投影方法、並びにコンピューター・プログラム
US20140362052A1 (en) * 2012-01-20 2014-12-11 Light Blue Optics Ltd Touch Sensitive Image Display Devices
US9105211B2 (en) * 2012-03-13 2015-08-11 Samsung Electronics Co., Ltd Portable projector and image projecting method thereof
US20130257811A1 (en) * 2012-03-29 2013-10-03 Hitachi Solutions, Ltd. Interactive display device
JP2013228607A (ja) * 2012-04-26 2013-11-07 Sony Corp 表示装置および照明装置
JP5895703B2 (ja) * 2012-05-22 2016-03-30 ソニー株式会社 画像処理装置及び画像処理方法、並びにコンピューター・プログラム
US20130342458A1 (en) * 2012-06-23 2013-12-26 VillageTech Solutions Methods and systems for input to an interactive audiovisual device
US9317109B2 (en) * 2012-07-12 2016-04-19 Mep Tech, Inc. Interactive image projection accessory
JP2014081510A (ja) * 2012-10-17 2014-05-08 Sony Corp 表示装置
JP2014092715A (ja) * 2012-11-05 2014-05-19 Toshiba Corp 電子機器、情報処理方法及びプログラム
US20140267031A1 (en) * 2013-03-12 2014-09-18 Kenneth J. Huebner Spatially aware pointer for mobile appliances
US20160021351A1 (en) 2013-03-14 2016-01-21 Nittoh Kogaku K.K. Optical system and device having optical system
JP6128008B2 (ja) 2013-08-26 2017-05-17 ソニー株式会社 投射型表示装置
US10114512B2 (en) * 2013-09-30 2018-10-30 Hewlett-Packard Development Company, L.P. Projection system manager
JP6413236B2 (ja) * 2013-12-20 2018-10-31 セイコーエプソン株式会社 プロジェクター、プロジェクションシステム、及び、プロジェクターの制御方法
JP6303545B2 (ja) * 2014-01-29 2018-04-04 株式会社リコー 計測装置、投影装置、計測方法、及びプログラム
CN110058476B (zh) * 2014-07-29 2022-05-27 索尼公司 投影型显示装置
JP6669068B2 (ja) 2014-08-27 2020-03-18 ソニー株式会社 投射型表示装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11755152B2 (en) 2017-03-23 2023-09-12 Sony Corporation Projector with detection function for stabilizing intensity distribution of an irradiation beam

Also Published As

Publication number Publication date
US11054944B2 (en) 2021-07-06
WO2016038839A1 (en) 2016-03-17
JP2016057426A (ja) 2016-04-21
US20170228057A1 (en) 2017-08-10
CN106716318B (zh) 2020-03-03
CN106716318A (zh) 2017-05-24
EP3227766B1 (en) 2022-05-11
EP3227766A1 (en) 2017-10-11

Similar Documents

Publication Publication Date Title
JP6372266B2 (ja) 投射型表示装置および機能制御方法
JP6597615B2 (ja) 投射型表示装置
KR101410387B1 (ko) 프로젝션 디스플레이 시스템 및 테이블 컴퓨터
JP2016057426A5 (ja)
US10171780B2 (en) Lighting apparatus
US8775958B2 (en) Assigning Z-order to user interface elements
EP2740259A1 (en) Portable projection capture device
JP6597625B2 (ja) 投射型表示装置
US10805586B2 (en) Projection display unit with detection function
TWI470511B (zh) 雙模輸入裝置
JP6669068B2 (ja) 投射型表示装置
WO2018051886A1 (ja) 検出機能付き表示装置
US20170329459A1 (en) Projection display unit
JP4961891B2 (ja) 対話型リアープロジェクションテレビシステム
KR100978437B1 (ko) 멀티터치 제어시스템 및 제어방법
TWI611211B (zh) 用於可攜式裝置之頭戴式顯示器
JP2011186704A (ja) 位置検出ユニット及び位置検出システム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170206

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180619

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180702

R151 Written notification of patent or utility model registration

Ref document number: 6372266

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151