JP5971053B2 - 位置検出装置及び画像表示装置 - Google Patents

位置検出装置及び画像表示装置 Download PDF

Info

Publication number
JP5971053B2
JP5971053B2 JP2012206008A JP2012206008A JP5971053B2 JP 5971053 B2 JP5971053 B2 JP 5971053B2 JP 2012206008 A JP2012206008 A JP 2012206008A JP 2012206008 A JP2012206008 A JP 2012206008A JP 5971053 B2 JP5971053 B2 JP 5971053B2
Authority
JP
Japan
Prior art keywords
image
light receiving
light
laser light
lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012206008A
Other languages
English (en)
Other versions
JP2014059837A (ja
Inventor
智久 平井
智久 平井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Funai Electric Co Ltd
Original Assignee
Funai Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Funai Electric Co Ltd filed Critical Funai Electric Co Ltd
Priority to JP2012206008A priority Critical patent/JP5971053B2/ja
Priority to EP13184791.5A priority patent/EP2711809A3/en
Priority to US14/030,566 priority patent/US8902435B2/en
Priority to CN201310431855.5A priority patent/CN103677445A/zh
Publication of JP2014059837A publication Critical patent/JP2014059837A/ja
Application granted granted Critical
Publication of JP5971053B2 publication Critical patent/JP5971053B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/14Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • G02B26/10Scanning systems
    • G02B26/101Scanning systems with both horizontal and vertical deflecting means, e.g. raster or XY scanners
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/1006Beam splitting or combining systems for splitting or combining different wavelengths
    • G02B27/102Beam splitting or combining systems for splitting or combining different wavelengths for generating a colour image from monochromatic image signal sources
    • G02B27/104Beam splitting or combining systems for splitting or combining different wavelengths for generating a colour image from monochromatic image signal sources for use with scanning systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3129Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] scanning a light beam on the display screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/14Beam splitting or combining systems operating by reflection only
    • G02B27/141Beam splitting or combining systems operating by reflection only using dichroic mirrors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Position Input By Displaying (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、レーザ光により画像を投影する画像表示装置、及び、投影画像に対する指示物の位置を検出する装置に関する。
例えばレーザプロジェクタに代表されるように、レーザ光により画像を投影面に投影する画像表示装置が実用されているが、このような画像表示装置において、投影画像中のユーザが指差した位置を検出する技術が知られている。
特許文献1には、赤外線レーザからのビームをプロジェクタモジュールのMEMSミラーの一部で走査して、反射ミラーで設置面に平行とし、投影画像の所定箇所を指がタッチすると、指で反射された赤外線がビームスプリッタによってフォトダイオードに入射して、測距手段によりTOF法で指の距離が測定される電子機器が記載されている。
この電子機器では、投影画像の2次元平面内の指の位置を検出している。
特開2009−258569号公報
投影画像をタッチ操作面として用いるユーザインタフェースが開発されており、例えば、パーソナルコンピュータなどのユーザインタフェースに用いることで、投影画像中のアイコンをユーザが指などで指示すると、当該指示点を検出してアイコンが選択されたと認識して所定の処理を実行させるようにする。
しかしながら、投影画像の2次元平面内の指示点を検出することで当該平面内の位置及び移動を検出することは可能であるが、当該平面と垂直な方向での指示点を検出することはできなかった。すなわち、3次元空間における指示点を検出することができず、上記のようなユーザインタフェースに用いた場合、操作指示を認識することができるユーザ操作に限りがあった。
また、例えば、右目用の画像と左目用の画像とを投影して、これを見るユーザが3次元画像と認識する技術が開発されているが、このような3次元画像に対するユーザインタフェースに用いた場合、指示点を高さ方向で検出することができないため、十分なユーザインタフェースとして機能し得るものではない。
本発明は、上記従来の事情に鑑みなされたものであり、投影画像に対する指示物の3次元位置を検出することを目的としている。
本発明に係る位置検出装置は、レーザ光の走査により画像が投影される投影面に対して高さを違えて配置されて、投影画像中の一部を指示する指示物による反射レーザ光を受光する複数の受光部と、前記指示物による反射レーザ光を前記受光部に導くレンズと、前記投影面に対して平行な方向に延在して前記受光部と前記レンズとの間に配置され、前記受光部に導かれる反射レーザ光を前記投影面に対して直角方向で規制するマスキング部と、前記複数の受光部の検出結果に基づいて、前記指示物により指示された投影画像中の3次元位置を判定する判定部と、を備え、前記マスキング部は、その両端部が中央部より前記レンズ側へ近づいた湾曲形状である。
この位置検出装置では、指示棒などの器具やユーザの指などの指示物により投影画像中の一部が指示されると、走査タイミングと受光部による反射レーザ光の受光タイミングとり投影面に対して平行面での指示物の位置を検出できるとともに、これら受光部は投影面に対して高さを違えて配置されているので、判定部は、これら受光部の検出結果に基づいて、投影画像中の指示物により指示された位置を投影面に平行な面内及び投影面に直角な高さ方向で判定することができる。
そして、或る幅を有する投影画像に対して指示物が何処に位置するかによって、レンズにより受光部に導かれる反射レーザ光に収差が生ずる。例えば、レンズに導かれた反射レーザ光の受光部でのスポット径は、指示物が投影画像の中央部に位置した時より端に位置した時の方が大きくなるが、マスキング部が湾曲形状であることにより、投影面に直角な高さ方向での受光部の誤検出が防止される。
ここに、本発明では、前記マスキング部は、前記レンズから前記受光部に導かれる反射レーザ光のスポット径が一定となる位置を結んだ湾曲形状、または、前記レンズから前記受光部に導かれる反射レーザ光のスポットの点像強度分布のピークが最大となる位置を結んだ湾曲形状であるのが好ましく、このような湾曲形状により、上記反射レーザ光の収差に対して、反射レーザ光を効果的に規制して、受光部の誤検出をより確実に防止することができる。
本発明に係る画像表示装置は、上記の位置検出装置を備えたものである。
すなわち、この画像表示装置は、レーザ光を出力するレーザ光源部と、前記レーザ光源部から出力されたレーザ光を走査して画像を投影面上に投影する走査部と、前記投影面に対して高さを違えて配置されて、投影画像中の一部を指示する指示物による反射レーザ光を受光して当該指示物の投影面に対して平行面での位置を検出する複数の受光部と、前記指示物による反射レーザ光を前記受光部に導くレンズと、前記投影面に対して平行な方向に延在して前記受光部と前記レンズとの間に配置され、前記受光部に導かれる反射レーザ光を前記投影面に対して直角方向で規制するマスキング部と、前記複数の受光部の検出結果に基づいて、前記指示物により指示された投影画像中の3次元位置を判定する判定部と、を備え、前記マスキング部は、その両端部が中央部より前記レンズ側へ近づいた湾曲形状である。
本発明は3次元画像を投影する画像表示装置に適用することができ、このような画像表示装置は、例えば、右目用の画像と左目用の画像とを投影して、これを見るユーザが3次元画像と認識するようにするなど、公知の種々な技術により実現できる。
また、本発明は、例えばパーソナルコンピュータなどのユーザインタフェースに用いることができ、指示物の3次元位置を検出できることから、種々な所作によるユーザ操作を判定することができ、例えばユーザが指などで投影画像中のアイコンをドラッグ・ドロップ操作したことを複数の受光部の検出結果の組合せにより判定することができる。
また、本発明をユーザインタフェースに用いる場合には、判定部は、複数の受光部の検出結果の組合せにより、高さ方向に幅をもった領域で、投影画像に対する指示物によるユーザ操作を判定するのが好ましく、ユーザによる高さ方向への雑な操作によっても、所定の操作を判定することができる。
本発明では、走査部として、所定の走査を行なってレーザ光により画像を投影できる装置であれば走査ミラーなどの種々なものを用いることができるが、走査ミラーを用いる場合には、小型化、低消費電力化、処理の高速化などで有利なMEMS(Micro Electro Mechanical System)型の走査ミラーを用いるのが好ましい。
また、本発明を構成する判定部などの機能部は、電子部品を用いた回路構成とすることができる他、コンピュータハードウエアとソフトウエアを用いて、ソフトウエアをコンピュータハードウエアが実行することで構成される機能モジュールとして構成することができる。
本発明によると、投影画像に対する指示点の3次元位置を検出することができる。
本発明の一実施形態に係る画像表示装置の外観を示す斜視図である。 本発明の一実施形態に係る画像表示装置の要部の構成図である。 本発明の一実施形態に係る画像表示装置の作用を説明する図である。 本発明の一実施形態に係る画像表示装置の作用を説明する図である。 本発明の一実施形態に係る画像表示装置の受光部周辺の構造を示す断面図である。 本発明の一実施形態に係る画像表示装置の受光部周辺の構造を示す斜視面図である。 本発明の一実施形態に係る画像表示装置の受光部周辺の構造を示す平面面図である。 本発明の一実施形態に係る画像表示装置のマスキング部の作用を説明する図である。 本発明の一実施形態に係る画像表示装置のマスキング部の作用を説明する図である。 本発明の一実施形態に係る画像表示装置の受光部の作用を説明する図である。 本発明の一実施形態に係る画像表示装置の判定処理を説明する図である。 本発明の一実施形態に係る画像表示装置の応用例を説明する図である。 レンズによる収差を説明する図である。
図1には本発明の一実施形態の係るレーザプロジェクタ1を示してあり、このレーザプロジェクタは本発明の一実施形態に係る位置検出装置を内蔵している。
本例のレーザプロジェクタ1は、例えばテーブル100の上に設置されて、レーザ光の走査により投影される同じ画像を、スクリーンなどの投影面200に表示用の画像201として投影表示し、また、当該テーブルの上面などの投影面100に操作用の画像101として投影表示する。図示の例では、表示用画像201を投影する側と反対側に設けたプロジェクタ筐体の窓1aからレーザを照射して操作用画像101を投影する。
本例のレーザプロジェクタ1は、表示用の画像201をプレゼンテーション用に比較的大きなサイズで投影し、操作用の画像101をユーザがタッチ操作するユーザインタフェースとして比較的小さなサイズで投影している。
なお、以下に説明する例では、操作用画像101中のアイコンをユーザが指で指示操作することで、表示用画像201中のアイコンをユーザが指示操作したとして、例えば、当該アイコンをドラッグ・ドロップ操作により移動させる、別のファイルの画像を投影表示する、などといったような当該アイコンに対する操作に応じた所定の処理を実行する。
また、本例では、アイコンなどといった操作用画像101中の一部を指示する指先を指示物として、後述するような位置検出を行なうが、検出に必要なレーザ光を反射するものであれば、指示棒などの種々なものを用いることができる。なお、指示点をより明確に検出するために、指示物はその他の部分より反射率が高いことが好ましく、例えば、指であれば爪、指示棒であれば先端に設けた鏡面部を検出対象の指示物とするのが好ましい。
図示の例では、プロジェクタ筐体の脚部に高さを違えて設けた2つの窓1b、1cを通して、ユーザの指先で反射されたレーザ光がプロジェクタ筐体内に設けられた位置検出装置へ入射する。
このように同じ画像を表示用画像201と操作用画像101とに同時に表示する画像表示装置(レーザプロジェクタ)、プレゼンテーション以外の種々な用途に利用することができ、例えば、画像表示装置にパーソナルコンピュータのような情報処理機能を備えて、表示用画像201をディスプレイ画面とし、操作用画像101をユーザ操作の入力部とする利用ができる。
図2には、本例に係るレーザプロジェクタ1の要部の機能構成を示してあり、このレーザプロジェクタ1は、レーザ光源2a〜2cと、各種の光学素子3〜6と、走査ミラー7と、各種の駆動・制御ユニット8〜14と、レーザプロジェクタ1の設定などのユーザ操作を入力する操作部15と、2つの受光器16及び17とを主体に構成されている。
レーザプロジェクタ1は、赤(R)緑(G)青(B)の各色成分のレーザ光を合成した上で、この合成光を走査ミラー7により走査することで、入力映像信号に応じたカラー画像を表示用画像201及び操作用画像101として投影する。
なお、入力映像信号は、パーソナルコンピュータやメモリ装置等から入力される静止画像信号や動画像信号である。
それぞれのレーザ光源2a〜2cは、互いに色成分の異なるレーザ光を出力するレーザダイオード(LD)であり、レーザドライバ12から個別に供給される駆動電流によって互いに独立して駆動されて単色成分のレーザ光を出力する。これによって、レーザ光源2aからは青色成分(B)、レーザ光源2bからは緑色成分(G)、レーザ光源2cからは赤色成分(R)といったように、特定の波長の単色色成分レーザ光が出射される。
ダイクロイックミラー3、4は、特定波長のレーザ光のみを透過し、それ以外を反射することによって、レーザ光源2a〜2cから出射された各色成分のレーザ光を合成する。具体的には、レーザ光源2a、2bから出射された青色成分および緑色成分のレーザ光は、光路上流側のダイクロイックミラー3において合成された上で、光路下流側のダイクロイックミラー4に出射される。この出射された合成光は、ダイクロイックミラー4においてレーザ光源2cから出射された赤色成分のレーザ光と更に合成され、目標となる最終的なカラー合成光として出射される。
ダイクロイックミラー3、4で合成されたカラー合成光はレンズ5により集光されて、走査ミラー7に入射される。
走査ミラー7は、本例では、小型化、低消費電力化、処理の高速化などで有利なMEMS型の走査ミラーが用いられている。
走査ミラー7は、走査ミラー制御部9から駆動信号が入力される走査ミラードライバ8によって水平方向(X)及び垂直方向(Y)で走査変位され、自己に入射したカラー光を自己の振れ角に応じて反射して、当該カラー光による画素スポットpをスクリーン200上及びテーブル100上に水平及び垂直方向へ走査し、表示用画像201及び操作用画像101を投影表示する。
走査ミラー制御部9とレーザ制御部11には、映像処理部10から画像を投影する画素スポットpの走査位置に係る情報が入力され、走査位置毎のカラー画素が画素スポットpとして投影される。
これら表示用画像201及び操作用画像101を投影するカラー合成レーザ光は当該レーザプロジェクタの筐体に設けた窓(操作用画像101は窓1a、表示用画像201も同様な窓)から射出されるが、走査ミラー7からこれら窓に至る光路に光分岐器6が設けられている。
光分岐器6は、走査ミラー7で反射されたカラー合成レーザ光を反射・透過させて分岐し、これら分岐されたカラー合成レーザ光により表示用画像201と操作用画像101とを投影表示させる。
なお、本例では、光分岐器6としてダイクロイックミラーを用いている。
映像処理部10は、入力映像信号に基づいて、所定の時間間隔で映像データをレーザ制御部11に送信し、これにより、レーザ制御部11は所定の走査位置における画素情報を得る。
レーザ制御部11は、表示用画像201及び操作用画像101を投影するために、画素情報に基づいて投影範囲に画素スポットpを走査させる駆動電流信号をレーザドライバ12に出力して、レーザ光源2a〜2cの発光出力を制御する。
レーザドライバ12は、上記のレーザ制御部11による制御に基づいて、各レーザ光源2a〜2cを駆動して発光させる。
各レーザ光源2a〜2cは、レーザドライバ11から発振しきい値電流以上の電流が供給された場合にレーザ光を発光出力し、供給される電流値が大きくなるに従って出力(光量)の大きいレーザ光を出力する。また、各レーザ光源2a〜2cは、発振しきい値電流未満の電流が供給された場合には、レーザ光の出力を停止する。本例では、各レーザ光源2a〜2cにはレーザダイオード(LD)を用いている。
受光器16、17は、図1に示した2つの窓1c、1bに対応して、テーブル100の上面(操作用画像101)に対して高さを違えて配置されている。
本例では、受光器16は窓1cを通して操作用画像101と略同じ高さ或いは若干高い高さに臨んでおり、受光器17は窓1bを通して受光器16より少し高い高さに臨んでいる。
これら受光器16、17は、レーザ光を受光するフォトダイオードなどの受光素子を有しており、後述するように、ユーザの指先で反射されたレーザ光を受光する。
制御部13は、受光器16、17とともに位置検出装置の主体的な構成をなしており、ユーザが操作用画像の一部に対して指先で指示した位置(更には、位置の変化による走査動作)を判定する判定部14を有している。
制御部13には、受光器16、17から反射レーザ光を受光したことを通知する信号が入力され、また、走査ミラー制御部9とレーザ制御部11と同様に、映像処理部10から画像を投影する画素スポットpの走査位置に係る情報が入力される。
判定部14は、制御部13への入力に基づき、受光器16、17が反射レーザ光を受光したタイミングとその時の走査位置とから、操作用画像101(テーブル100)と平行な平面における反射位置を判定する。すなわち、操作用画像101と平行な平面におけるユーザの指先の2次元位置を判定する。
また、判定部14は、いずれの受光器16、17が反射レーザ光を受光したに基づいて、後述のように、操作用画像101の投影面100に対して直角方向(すなわち、高さ方向)の反射位置(ユーザの指先の位置)を判定する。
したがって、上記2次元位置と高さ位置とにより、判定部14は、操作用画像101中のアイコンなど指示したユーザの指先の3次元位置を判定する。
そして、制御部13は、判定部14の判定に応じて、例えばアイコンをドラッグ・ドロップ操作で移動させる態様の画像データを映像処理部10へ入力して、当該態様を表示用画像201及び操作用画像101に反映させる。
次に、受光器16、17の構造について、詳しく説明する。
図3に示すように、ユーザの指先が操作用画像101の一部を指示すると、窓1aから射出される投影用レーザ光(カラー合成レーザ光)は当該指先で反射され、反射レーザ光が窓1b、1cに入射する。
ユーザの指先が操作用画像101の何処の位置にあっても同様であり、ユーザの指先などといった指示物で乱反射されたレーザ光は、操作用画像101の中央部で反射された場合でも、操作用画像101の端部で反射された場合でも、同様に窓1b、1cに入射する。
更に、図4に示すように、ユーザの指先が操作用画像101の高さ方向(テーブル100の上面に対して直角方向)の位置にあっても同様であり、同図(a)に示すようにテーブル100の上面に位置する指先で反射されたレーザ光も、同図(b)に示すようにテーブル100の上面から上方に離れた所に位置する指先で反射されたレーザ光も、同様に窓1b、1cに入射する。
但し、同図(a)と同図(b)とでは、窓1b、1cに入射するレーザ光の角度が指先の高さ位置に応じて異なる。
受光器16、17は、図5に示すように、レーザプロジェクタ1に内蔵されるケース18に、窓1b、1cに対応して高さを違えて設けられている。
受光器16は、反射レーザ光の照射を検出する受光素子16aと、窓1cから入射した反射レーザ光を集光して受光素子16aに導くレンズ16bと、受光素子16aとレンズ16bとの間に配置されて受光素子16aの略下半部を覆う高さをもった板状のマスキング部材16cとを有している。
受光器17は、受光器16と同様であり、受光素子17aと、窓1bから入射した反射レーザ光を集光して受光素子17aに導くレンズ17bと、受光素子17aの略下半部を覆う高さをもった板状のマスキング部材17cとを有している。
マスキング部材16cと17cは同様な形状であり、操作用画像101の幅方向(X方向)に幅をもった受光素子16a、17aに対応して同方向に幅をもっている。
そして、図6〜図8に受光器16を代表して示すように、マスキング部材16cはその両端部が中央部よりレンズ16bへ近づいた湾曲形状であり、マスキング部材16cは受光素子16aへの入射角に応じて反射レーザ光を遮って光素子16aに照射されるのを規制する。
図8に示すように、テーブル100の上面(操作用画像101)と略同じ高さに位置するユーザの指先F11、F12で反射されたレーザ光L11、L12は、レンズ16bで集光されて受光素子16aの略上半部にスポットS11、S12として照射されるが、これより高い位置(高さh)に位置するユーザの指先F13、F14で反射されたレーザ光L13、L14は、レンズ16bで集光されて受光素子16aの略下半部にスポットS13、S14として照射される。
このようにレーザ光を反射する位置が高くなるに応じて受光素子16aへの照射位置が下になり、受光素子16aの略下半部に向けて照射される反射レーザ光はマスキング部材16cによって遮られる。
ここで、図13(a)に示すように、指示位置(反射位置)が画像の中央部P1にある場合と端P2にある場合とでは、同図(b)に示すように、レンズで集光されて受光素子(PD)に照射される光束のスポットは異なる。
これはレンズによる収差として知られるところであり、中央部P1からのスポットの径より、端P2からのスポットの径が大きくなる。
レンズ16bによって集光されて受光素子16aに照射される反射光についても同様な収差が生じて、例えば、図8に示すスポットS14のようにマスキング部材16cによって遮られるべきものが、収差によってスポット径が拡大して、全てが遮られずに受光素子16aで検出される誤検出が懸念させる。
これに対して、本例のマスキング部材16cは、上記のように湾曲した形状であるので、反射レーザ光(光束)のレンズ16bによる集光点、或いは、集光点に近いところで、当該反射レーザ光を遮ることができる。
したがって、収差によってレンズ16bで集光された反射レーザ光のスポット径が誤検出を生じさせる程に大きくなる前、すなわち、スポット径があまり大きくないところで、マスキング部材16cで反射レーザ光を遮ることで、誤検出を防止する。
マスキング部材16cは湾曲形状であれば、スポット径が大きくなる端部の反射レーザ光をスポット径が小さい内に遮ることができる。したがって、マスキング部材16cは、その両端部が中央部よりレンズ16b側へ近づいた形状であれば、種々な湾曲形状を採用することができる。
なお、マスキング部材16cの湾曲形状として好ましい形状は、レンズ16bと受光素子16aとの間で、中央から端までの反射レーザ光のスポット径が一定となる位置を結んだ湾曲形状であり、これにより、一定の幅(縁部の高さ)のマスキング部材16cによって反射レーザ光を遮ることができる。
また、マスキング部材16cの湾曲形状として好ましい他の形状は、図7に示すように、レンズ16bと受光素子16aとの間で、反射レーザ光のスポットの点像強度分布のピークが最大となる位置(すなわち、レンズ16bによる集光点)を結んだ湾曲形状であり、中央から端までの反射レーザ光をそれらのスポット径が最小なところでマスキング部材16cによって遮ることができる。
受光器17についても同様であり、そのマスキング部材17cはマスキング部材16cの湾曲形状である。
上記のような構成の2つの受光器16、17により、図9に示すように、レーザ光を反射するユーザの指先の高さ位置を3段階で検出することができる。
同図(a)に示すように、テーブル100の上面(操作用画像)と略同じ高さにある指先FAで反射されたレーザ光は、いずれのマスキング部材16c、17cによっても遮られることなく受光素子16aと17aとに照射され、両方の受光器16、17から受光通知信号が制御部13に入力される。
同図(b)に示すように、テーブル100の上面から少し高い位置にある指先FBで反射されたレーザ光は、マスキング部材17cでは遮られないが、マスキング部材16cでは遮られ、受光素子17aだけに照射され、受光器17だけから受光通知信号が制御部13に入力される。
同図(c)に示すように、テーブル100の上面から更に高い位置にある指先FCで反射されたレーザ光は、両方のマスキング部材16c、17cで遮られ、いずれの受光素子16a、17aにも照射されず、制御部13に受光器から受光通知信号が入力されない。
本例は、上記のような反射位置FA、FB、FCの高さ位置の違いに応じた受光器16、17の検出結果の組合せに基づいて、判定部14は下記のような判定を行なう。
なお、本例は、受光器を高さ方向に2つ設けて、3段階の高さ位置を判定できるようにしているが、受光器を高さ方向に3つ以上設けて、更に段数の高さ位置を判定できるようにすることができる。
図10には、図9に示した高さ位置に応じた反射レーザ光の検出・非検出の状態を示してある。
同図(a)に示すように、下段の受光器16と上段の受光器17とにより反射点(指先)の高さに応じた反射レーザ光が検出されるが、同図(b)に示すように、下段の受光器16はテーブル100の上面から少し高い位置までの指先からの反射を検出し、上段の受光器17は更に高い位置までの指先からの反射を検出する。
本例では、図11に示すように、下段の受光器16でマスキング部材16cにより反射レーザ光を検出できなくなるテーブル100の上面(0mm)からの高さを10mm、上段の受光器17もマスキング部材17cにより反射レーザ光を検出できなくなるテーブル100の上面(0mm)からの高さを30mmに設定してあり、判定部14には、受光器16、17が反射光を検出したか否かの検出結果の組合せと、これら高さ領域A、B、Cとが対応付けて設定されている。
すなわち、反射レーザ光を下段の受光器16と上段の受光器17が共に検出した状態はテーブル上面近傍の比較的低い領域A(0mm〜10mm)、反射レーザ光を下段の受光器16が非検出で且つ上段の受光器17が検出である状態はテーブル上面より少し高い領域B(10mm〜30mm)、反射レーザ光を下段の受光器16と上段の受光器17が共に非検出である状態はテーブル上面より更に高い領域C(30mm以上)として設定している。
判定部14は、指先の高さ位置をこのような領域として判定し、更に、上記のように投影画像の走査タイミングと反射タイミング(受光タイミング)とによりテーブル平面の2次元位置を判定することで、指先の3次元位置を判定する。
このように高さ領域を設定することにより、判定部14により、図12に示すようなドラッグ・ドロップ操作を容易に判定することができる。
テーブル面に投影された操作用画像101において、操作用画像中のアイコンを移動させて当該画像中の他の位置に置くドラッグ・ドロップ操作は、次のようにして判定部14が認識することができる。
テーブル面に投影された操作用画像101において、アイコン画像を指先でタッチ(すなわち、アイコンの画像部分のテーブル面をタッチ)して選択し、この指先を領域Aから領域Bに持ち上げ、そのまま横に移動させて操作用画像中の所望の位置を再びタッチする操作を行なうことで、判定部14はアイコンがドラッグ・ドロップ操作されたと判定して、制御部13が当該アイコン画像を上記再タッチされた位置に移動させる。
このように、本例は、操作用画像に対するタッチ操作によりドラッグ・ドロップ操作を実現するものであるが、これに限らず、他の操作を判定することに応用することができる。
また、本例では、高さを領域で判定していることにより、ユーザの操作に高さ方向の幅をもたせて、或る程度雑な操作によっても所期の操作を判定できるようにしているが、本発明は、高さを領域ではなく座標で判定してもよく、このようにすることで、2次元位置の判定と合わせて、高精度な3次元位置の判定が可能となる。
なお、上記の例では、マスキング部材を受光素子の略下半部を覆うように設けたが、これとは逆に、マスキング部材を受光素子の略上半部を覆うように設けてもよく、このような配置によっても、受光素子による反射光の誤検出を防止し、更に、反射光の検出結果に基づいて指示物の3次元位置を判定することができる。
また、上記の例では、2次元画像を投影したが、3次元画像を表示用画像や操作用画像として投影するようにしてもよく、3次元画像に対しても指示物の3次元位置を判定することができる。
また、上記の例では、カラー画像を表示用画像や操作用画像として投影したが、単色レーザ光による単色画像を投影するようにしてもよく、単色画像に対しても指示物の3次元位置を判定することができる。
また、上記の例では、表示用画像や操作用画像を投影するレーザ光を指示物に反射させて3次元位置を判定したが、画像投影用のレーザ光とは別に、赤外線レーザ光などの不可視レーザ光を画像投影用のレーザ光と共に走査投影し、当該不可視レーザ光の指示物による反射光により指示物の3次元位置を判定するようにしてもよい。
1:レーザプロジェクタ、 2a〜2c:レーザ光源、
3、4:ダイクロイックミラー、 5:レンズ、
6:分岐器、 7:走査ミラー、
8:走査ミラードライバ、 9:走査ミラー制御部、
10:映像処理部、 11:レーザ制御部、
12:レーザドライバ、 13:制御部、
14:判定部、 16、17:検出器、
16a、17a:受光素子、 16b、17b:レンズ、
16c、17c:マスキング部材、 100:テーブル、
101:操作用画像、 200スクリーン、
201:表示用画像、

Claims (7)

  1. レーザ光の走査により画像が投影される投影面に対して高さを違えて配置されて、投影画像中の一部を指示する指示物による反射レーザ光を受光する複数の受光部と、
    前記指示物による反射レーザ光を前記受光部に導くレンズと、
    前記投影面に対して平行な方向に延在して前記受光部と前記レンズとの間に配置され、前記受光部に導かれる反射レーザ光を前記投影面に対して直角な高さ方向で規制するマスキング部と、
    前記複数の受光部の検出結果に基づいて、前記指示物により指示された投影画像中の3次元位置を判定する判定部と、を備え、
    前記マスキング部は、その両端部が中央部より前記レンズ側へ近づいた湾曲形状であることを特徴とする位置検出装置。
  2. 請求項1に記載の位置検出装置において、
    前記マスキング部は、前記レンズから前記受光部に導かれる反射レーザ光のスポット径が一定となる位置を結んだ湾曲形状であることを特徴とする位置検出装置。
  3. 請求項1に記載の位置検出装置において、
    前記マスキング部は、前記レンズから前記受光部に導かれる反射レーザ光のスポットの点像強度分布のピークが最大となる位置を結んだ湾曲形状であることを特徴とする位置検出装置。
  4. レーザ光を出力するレーザ光源部と、
    前記レーザ光源部から出力されたレーザ光を走査して画像を投影面上に投影する走査部と、
    前記投影面に対して高さを違えて配置されて、投影画像中の一部を指示する指示物による反射レーザ光を受光する複数の受光部と、
    前記指示物による反射レーザ光を前記受光部に導くレンズと、
    前記投影面に対して平行な方向に延在して前記受光部と前記レンズとの間に配置され、前記受光部に導かれる反射レーザ光を前記投影面に対して直角な高さ方向で規制するマスキング部と、
    前記複数の受光部の検出結果に基づいて、前記指示物により指示された投影画像中の3次元位置を判定する判定部と、を備え、
    前記マスキング部は、その両端部が中央部より前記レンズ側へ近づいた湾曲形状であることを特徴とする画像表示装置。
  5. 請求項4に記載の画像表示装置において、
    3次元画像を投影することを特徴とする画像表示装置。
  6. 請求項4又は5に記載の画像表示装置において、
    前記判定部は、前記複数の受光部の検出結果の組合せにより、高さ方向に幅をもった領域で、投影画像に対する指示物によるユーザ操作を判定することを特徴とする画像表示装置。
  7. 請求項4乃至6のいずれか1項に記載の画像表示装置において、
    前記判定部は、前記複数の受光部の検出結果の組合せにより、投影画像中のアイコン画像に対する指示物によるドラッグ・ドロップ操作を判定することを特徴とする画像表示装置。
JP2012206008A 2012-09-19 2012-09-19 位置検出装置及び画像表示装置 Expired - Fee Related JP5971053B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2012206008A JP5971053B2 (ja) 2012-09-19 2012-09-19 位置検出装置及び画像表示装置
EP13184791.5A EP2711809A3 (en) 2012-09-19 2013-09-17 Position detection apparatus
US14/030,566 US8902435B2 (en) 2012-09-19 2013-09-18 Position detection apparatus and image display apparatus
CN201310431855.5A CN103677445A (zh) 2012-09-19 2013-09-22 位置检测装置和图像显示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012206008A JP5971053B2 (ja) 2012-09-19 2012-09-19 位置検出装置及び画像表示装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016138138A Division JP2016192799A (ja) 2016-07-13 2016-07-13 位置検出装置及び画像表示装置

Publications (2)

Publication Number Publication Date
JP2014059837A JP2014059837A (ja) 2014-04-03
JP5971053B2 true JP5971053B2 (ja) 2016-08-17

Family

ID=49230528

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012206008A Expired - Fee Related JP5971053B2 (ja) 2012-09-19 2012-09-19 位置検出装置及び画像表示装置

Country Status (4)

Country Link
US (1) US8902435B2 (ja)
EP (1) EP2711809A3 (ja)
JP (1) JP5971053B2 (ja)
CN (1) CN103677445A (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6160329B2 (ja) * 2013-07-24 2017-07-12 船井電機株式会社 プロジェクタ
JP5802247B2 (ja) * 2013-09-25 2015-10-28 株式会社東芝 情報処理装置
DE102014207959A1 (de) * 2014-04-28 2015-10-29 Robert Bosch Gmbh Programmierbare Bedienflächen
DE102014207920A1 (de) * 2014-04-28 2015-10-29 Robert Bosch Gmbh Elektrisches Gerät und Verfahren zum Betrieb eines elektrischen Geräts
DE102014207963A1 (de) * 2014-04-28 2015-10-29 Robert Bosch Gmbh Interaktives Menü
JP6314688B2 (ja) 2014-06-25 2018-04-25 船井電機株式会社 入力装置
EP3356918A1 (en) * 2015-09-29 2018-08-08 Telefonaktiebolaget LM Ericsson (publ) Touchscreen device and method thereof
JP2017106833A (ja) * 2015-12-10 2017-06-15 船井電機株式会社 測定装置
JP2017146927A (ja) 2016-02-19 2017-08-24 ソニーモバイルコミュニケーションズ株式会社 制御装置、制御方法及びプログラム
JP6803607B2 (ja) * 2016-11-16 2020-12-23 株式会社エアレックス リーク検査支援装置及びこれを用いたリーク検査方法
US10605924B2 (en) * 2017-08-02 2020-03-31 GM Global Technology Operations LLC Method and apparatus cross segment detection in a lidar system

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5525764A (en) * 1994-06-09 1996-06-11 Junkins; John L. Laser scanning graphic input system
KR100865598B1 (ko) * 2000-05-29 2008-10-27 브이케이비 인코포레이티드 수문자 조합 및 다른 데이터의 입력을 위한 가상 데이터입력 장치 및 방법
US7242388B2 (en) * 2001-01-08 2007-07-10 Vkb Inc. Data input device
GB2374266A (en) * 2001-04-04 2002-10-09 Matsushita Comm Ind Uk Ltd Virtual user interface device
EP1540641A2 (en) * 2002-06-26 2005-06-15 VKB Inc. Multifunctional integrated image sensor and application to virtual interface technology
US7677736B2 (en) * 2004-02-27 2010-03-16 Panasonic Corporation Illumination light source and two-dimensional image display using same
CN100407115C (zh) * 2005-06-10 2008-07-30 原相科技股份有限公司 具有遮光元件的光学指向装置
JP4904741B2 (ja) * 2005-08-09 2012-03-28 株式会社日立製作所 投射型映像表示装置および遮光方法
JP5214223B2 (ja) * 2007-11-15 2013-06-19 船井電機株式会社 プロジェクタ
JP5277703B2 (ja) * 2008-04-21 2013-08-28 株式会社リコー 電子機器
JP5396975B2 (ja) * 2009-04-01 2014-01-22 船井電機株式会社 画像表示装置
US20110267262A1 (en) * 2010-04-30 2011-11-03 Jacques Gollier Laser Scanning Projector Device for Interactive Screen Applications
JP5488306B2 (ja) * 2010-07-29 2014-05-14 船井電機株式会社 プロジェクタ
JP5710929B2 (ja) * 2010-10-08 2015-04-30 船井電機株式会社 プロジェクタ

Also Published As

Publication number Publication date
JP2014059837A (ja) 2014-04-03
US8902435B2 (en) 2014-12-02
US20140078516A1 (en) 2014-03-20
EP2711809A2 (en) 2014-03-26
EP2711809A3 (en) 2017-05-10
CN103677445A (zh) 2014-03-26

Similar Documents

Publication Publication Date Title
JP5971053B2 (ja) 位置検出装置及び画像表示装置
JP6822473B2 (ja) 表示装置
US7768505B2 (en) Indicated position recognizing apparatus and information input apparatus having same
EP2120455B1 (en) Electronics device having projector module
US9285477B1 (en) 3D depth point cloud from timing flight of 2D scanned light beam pulses
EP2846187B1 (en) Projection system with infrared monitoring
WO2012014690A1 (ja) プロジェクタ
EP3097467A2 (en) Interactive system
KR20140118085A (ko) 레이저 영상표시장치
EP2787731A2 (en) Image projection device and input object detection method
JP6102751B2 (ja) インターフェース装置およびインターフェース装置の駆動方法
US8791926B2 (en) Projection touch system for detecting and positioning object according to intensity different of fluorescent light beams and method thereof
JP6314688B2 (ja) 入力装置
US20160004385A1 (en) Input device
JP2014170136A (ja) プロジェクタおよびプロジェクタ機能を有する電子機器
JP2006350452A (ja) 撮影表示装置およびそのキャリブレーションデータ算出方法
KR101002072B1 (ko) 펄스 구동 방식의 투영 영상 터치 장치
US20170185157A1 (en) Object recognition device
JP2016192799A (ja) 位置検出装置及び画像表示装置
US10331274B2 (en) Light source device, electronic blackboard system, and method of controlling light source device
EP2787419A1 (en) Input device and input method
JP2014123170A (ja) 位置判定装置及び位置判定方法
JP6314686B2 (ja) 画像表示入力装置
US20160146592A1 (en) Spatial motion sensing device and spatial motion sensing method
JP6390736B2 (ja) 空間入力装置

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140723

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150604

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160614

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160627

R150 Certificate of patent or registration of utility model

Ref document number: 5971053

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees