JP6098386B2 - プロジェクタ - Google Patents

プロジェクタ Download PDF

Info

Publication number
JP6098386B2
JP6098386B2 JP2013127890A JP2013127890A JP6098386B2 JP 6098386 B2 JP6098386 B2 JP 6098386B2 JP 2013127890 A JP2013127890 A JP 2013127890A JP 2013127890 A JP2013127890 A JP 2013127890A JP 6098386 B2 JP6098386 B2 JP 6098386B2
Authority
JP
Japan
Prior art keywords
detection
light
unit
projection
reflected light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013127890A
Other languages
English (en)
Other versions
JP2015001729A (ja
Inventor
慎太郎 泉川
慎太郎 泉川
謙 西岡
謙 西岡
篤彦 近岡
篤彦 近岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Funai Electric Co Ltd
Original Assignee
Funai Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Funai Electric Co Ltd filed Critical Funai Electric Co Ltd
Priority to JP2013127890A priority Critical patent/JP6098386B2/ja
Priority to US14/291,734 priority patent/US9405407B2/en
Priority to EP14171094.7A priority patent/EP2816455B1/en
Publication of JP2015001729A publication Critical patent/JP2015001729A/ja
Application granted granted Critical
Publication of JP6098386B2 publication Critical patent/JP6098386B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/147Optical correction of image distortions, e.g. keystone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • G06F3/0423Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen using sweeping light beams, e.g. using rotating or vibrating mirror
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Signal Processing (AREA)
  • Position Input By Displaying (AREA)
  • Mechanical Optical Scanning Systems (AREA)
  • Projection Apparatus (AREA)

Description

本発明は、プロジェクタに関し、特に、タッチペンなどの検出対象物の位置を検出することのできるプロジェクタに関する。
従来、レーザ光を投影面に投影するプロジェクタが知られている(例えば、特許文献1参照)。プロジェクタは、例えば、赤色成分(R)の光を出力するレーザ光源、緑色成分(G)の光を出力するレーザ光源、及び青色成分(B)の光を出力するレーザ光源を備えており、これらのレーザ光源からそれぞれ出力する光を投影面に導くことにより、画像を投影面に投影している。例えば、画像を机の上の投影面に投影し、ユーザが把持するタッチペン又はユーザの指などの検出対象物が投影面に接触した場合に、レーザ光源から出力される光の検出対象物による反射光を検出することにより、検出対象物の位置が検出される。
特許第4872525号公報
しかしながら、従来のプロジェクタでは、検出対象物の位置を検出することはできるが検出対象物の傾き角度を算出することができない。検出対象物の傾き角度を算出することができれば、検出対象物を用いて、多様な情報を入力することができる。
本発明は、上述の課題を解決するためになされたものであり、投影面に接触する検出対象物の傾き角度を算出することができるプロジェクタを提供することを目的とする。
上記目的を達成するために、本発明の一態様に係るプロジェクタは、光を出力する光源と、前記光源が出力する前記光を投影面に対して斜め方向から走査することにより、前記投影面に画像を投影する投影部と、前記投影面に垂直な方向の予め定められた範囲内に光の検出範囲が制限された光検出部であって、前記投影部により走査された前記光の、検出対象物による反射光を検出する光検出部と、前記投影面上における前記検出対象物の位置と、前記光の副走査方向における前記反射光の検出回数とから、前記副走査方向における前記検出対象物の傾き角度を算出する傾き算出部とを備える。
検出対象物が投影面に対して垂直に位置している場合と、検出対象物が副走査方向において投影部から離れる方向に傾いている場合とを比較すると、後者の場合の方が、光検出部の検出範囲内において、より多くの走査本数分の光が検出対象物に当たることになる。このため、検出対象物が投影部から離れている方向に傾いているほど、副走査方向における反射光の検出回数が大きくなる。また、検出対象物が投影面に対して垂直に位置している場合と、検出対象物が副走査方向において投影部に近づく方向に傾いている場合とを比較すると、後者の場合の方が、光検出部の検出範囲内において、より少ない走査本数分の光が検出対象物に当たることになる。このため、検出対象物が投影部に近づく方向に傾いているほど、副走査方向における反射光の検出回数が小さくなる。よって、副走査方向における反射光の検出回数から検出対象物の傾き角度を算出することができる。なお、光は投影面に対して傾きを持って入射するため、検出対象物の傾き角度が同じであっても、検出対象物の位置が異なると反射光の検出回数が異なる。このため、反射光の検出回数のみならず、検出対象物の位置を用いることにより、検出対象物の傾き角度を正確に算出することができる。
例えば、前記光検出部は、前記検出対象物による前記反射光の検出として、光量が所定の閾値を超える前記反射光を検出しても良い。
この構成によると、反射光の光量から反射光を検出することができる。このため、1つの光検出器により反射光を検出することができる。
また、前記傾き算出部は、前記検出対象物の位置及び前記反射光の検出回数と、前記検出対象物の傾き角度との関係を示すデータテーブルを参照することにより、前記投影面上における前記検出対象物の位置と、前記副走査方向における前記反射光の検出回数とから、前記副走査方向における前記検出対象物の傾き角度を算出しても良い。
この構成によると、データテーブルを参照することにより、検出対象物の傾き角度を検出することができる。このため、単純な処理により検出対象物の傾き角度を算出することができる。
また、前記データテーブルは、前記投影面上における複数の領域の各々について、前記反射光の検出回数と、前記検出対象物の傾き角度との関係を示しており、前記傾き算出部は、前記データテーブルを参照することにより、前記投影面上における前記検出対象物の位置が属する前記投影面上の領域と、前記副走査方向における前記反射光の検出回数とから、前記副走査方向における前記検出対象物の傾き角度を算出しても良い。
この構成によると、データテーブルのデータサイズを小さくすることができる。
また、前記投影面の一部に傾き算出領域が設定されており、前記傾き算出部は、前記検出対象物が前記傾き算出領域内に位置する場合に、前記検出対象物の傾き角度を算出し、前記検出対象物が前記傾き算出領域外に位置する場合に、前記検出対象物の傾き角度を算出しなくても良い。
この構成によると、傾き角度を算出する場所を傾き算出領域内に限定することができる。
また、前記投影部は、前記光源が出力する前記光を、前記副走査方向であって、かつ前記投影面上で前記投影部から離れる方向に走査し、前記プロジェクタは、さらに、前記光検出部が最初に前記反射光を検出した時刻における、前記投影部による前記光の投影位置を前記検出対象物の位置として検出する位置検出部を備えても良い。
光を投影部から離れる方向に走査した場合には、投影面に最も近い位置から検出対象物に光が当たる。このため、最初に検出対象物の反射光を検出した時刻における光の投影位置を検出対象物の位置として検出することができる。
なお、本発明は、このような特徴的な処理部を備えるプロジェクタとして実現することができるだけでなく、プロジェクタに含まれる特徴的な処理部が実行する処理をステップとする傾き検出方法として実現することができる。また、プロジェクタに含まれる特徴的な処理部としてコンピュータを機能させるためのプログラムまたは傾き検出方法に含まれる特徴的なステップをコンピュータに実行させるプログラムとして実現することもできる。そして、そのようなプログラムを、CD−ROM(Compact Disc−Read Only Memory)等のコンピュータ読取可能な非一時的な記録媒体やインターネット等の通信ネットワークを介して流通させることができるのは、言うまでもない。
本発明によると、投影面に接触する検出対象物の傾き角度を検出することができる。
実施の形態1に係るプロジェクタの外観図である。 プロジェクタのハードウェア構成を示すブロック図である。 検出対象物の傾き角度の算出方法の原理を説明するための図である。 光検出部が検出する光量の変化を示すグラフである。 記憶部に記憶されているデータテーブルの一例を示す図である。 プロジェクタによる検出対象物の傾き角度の算出処理のフローチャートである。 検出対象物の操作例について説明するための図である。 実施の形態2に係るプロジェクタの記憶部に記憶されているデータテーブルの一例を示す図である。 実施の形態3に係るプロジェクタによる検出対象物の傾き角度の算出処理のフローチャートである。 検出対象物の操作例について説明するための図である。
以下、本発明の実施の形態について、図面を用いて詳細に説明する。なお、以下で説明する実施の形態は、いずれも本発明の好ましい一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。本発明は、特許請求の範囲によって特定される。よって、以下の実施の形態における構成要素のうち、独立請求項に記載されていない構成要素については、本発明の課題を達成するのに必ずしも必要ではないが、より好ましい形態を構成するものとして説明される。
(実施の形態1)
以下、実施の形態1に係るプロジェクタについて図面を参照しながら説明する。
<全体構成>
図1は、実施の形態1に係るプロジェクタの外観図である。
プロジェクタ1は、床面Fの一部である投影面A上でレーザ光Rを走査することにより、投影面Aに画像を投影する装置である。レーザ光Rは、出射口10aから出射し、ミラー21により反射され、投影面Aに導かれる。ユーザが、タッチペンなどの検出対象物Oを投影面Aに接触させると、レーザ光Rの検出対象物Oにおける反射光rが入射口10bからプロジェクタ1の内部に入射する。プロジェクタ1は、入射口10bから入射した反射光rに基づいて、検出対象物Oの投影面A上の位置及びy軸方向の傾きを検出する。検出対象物Oの位置及び傾きの検出方法については後述する。
図2は、プロジェクタ1のハードウェア構成を示すブロック図である。プロジェクタ1は、記憶部11と、CPU(Central Processing Unit)12と、画像データ処理部13と、レーザ駆動部14(赤色レーザ光駆動部14a、緑色レーザ光駆動部14b及び青色レーザ光駆動部14c)と、光源15(赤色レーザ光光源15a,緑色レーザ光光源15b及び青色レーザ光光源15c)と、レンズ16a〜16cと、ビームスプリッタ17a〜17cと、投影部30と、光検出部22と、インタフェース部23と、入力部24とを備える。
投影部30は、光源15が出力するレーザ光を投影面Aに対して斜め方向から走査することにより、投影面Aに画像を投影する。例えば、図1の矢印Sで示すように、プロジェクタ1に近い側から遠い側に向けてレーザ光Rを走査する。例えば、画像のサイズは、2000×1000画素であり、投影部30は、副走査方向に1000本のレーザ光Rを走査する。ここで、主走査方向および副走査方向について説明する。主走査方向とは、レーザ光Rの主となる走査方向であり、図1では、x方向がレーザ光Rの主走査方向となる。一方、副走査方向とは、主走査方向に直交する方向であり、図1では、y方向がレーザ光Rの副走査方向となる。
投影部30は、MEMS(Micro Electro Mechanical Systems)ミラー18と、アクチュエータ19と、ミラーサーボ部20と、ミラー21とを備える。
記憶部11は、投影面Aに投影する画像データの他、検出対象物Oの傾き角度を算出するために用いられる後述するデータテーブルを記憶している。
画像データ処理部13は、画像データに基づいて、各画素の画素値に対応した赤色レーザ光、緑色レーザ光及び青色レーザ光の駆動信号を生成する。
赤色レーザ光駆動部14aは、画像データ処理部13が生成した赤色レーザ光の駆動信号に基づいて、赤色レーザ光光源15aを駆動し、赤色レーザ光光源15aから赤色レーザ光を出射させる。緑色レーザ光駆動部14bは、画像データ処理部13が生成した緑色レーザ光の駆動信号に基づいて、緑色レーザ光光源15bを駆動し、緑色レーザ光光源15bから緑色レーザ光を出射させる。青色レーザ光駆動部14cは、画像データ処理部13が生成した青色レーザ光の駆動信号に基づいて、青色レーザ光光源15cを駆動し、青色レーザ光光源15cから青色レーザ光を出射させる。
レンズ16aは、赤色レーザ光光源15aとビームスプリッタ17aとの間の赤色レーザ光の光路上に配置される。レンズ16bは、緑色レーザ光光源15bとビームスプリッタ17bとの間の緑色レーザ光の光路上に配置される。レンズ16cは、青色レーザ光光源15cとビームスプリッタ17cとの間の青色レーザ光の光路上に配置される。
ビームスプリッタ17aは、レンズ16aを通過した赤色レーザ光の光路を変更し、ビームスプリッタ17bに導く。ビームスプリッタ17bは、レンズ16bを通過した緑色レーザ光の光路を変更するとともに、ビームスプリッタ17aから導かれた赤色レーザ光を通過させる。これにより、ビームスプリッタ17bは、赤色レーザ光及び緑色レーザ光を合成したレーザ光をビームスプリッタ17cに導く。ビームスプリッタ17cは、レンズ16cを通過した青色レーザ光の光路を変更するとともに、ビームスプリッタ17bから導かれた赤色レーザ光及び緑色レーザ光を合成したレーザ光を通過させる。これにより、ビームスプリッタ17cは、赤色レーザ光、緑色レーザ光及び青色レーザ光を合成したレーザ光RをMEMSミラー18に導く。レーザ光Rは、MEMSミラー18で反射され、出射口10aを通過した後、再度、ミラー21で反射され投影面Aに導かれる。
ミラーサーボ部20及びアクチュエータ19は、MEMSミラー18を駆動し、レーザ光Rを投影面A上で矢印Sの方向に高速に走査するようにMEMSミラー18の傾きを変更する。ミラーサーボ部20は、CPU12の指示に基づいて、アクチュエータ19を介してMEMSミラー18の傾きを制御する。レーザ光Rを投影面A上で矢印Sの方向に高速に走査することにより、投影面Aに画像を投影することができる。
光検出部22は、投影部30により走査されたレーザ光Rの、検出対象物Oによる反射光rを検出する。なお、光検出部22は、投影面Aに垂直な方向の予め定められた範囲内に光の検出範囲が制限されている。つまり、光検出部22は、入射口10bを通過した反射光rを受光するため、光検出部22が検出可能な反射光rの高さが制限されている。
CPU12は、検出対象物Oの位置検出及び傾き角度の算出を行う。CPU12は、プログラムを実行した際に、機能的に実現される処理部として、位置検出部121と、傾き算出部122とを備えている。
位置検出部121は、光検出部22が最初に反射光rを検出した時刻における、投影部30によるレーザ光Rの投影位置を検出対象物Oの位置として検出する。例えば、投影面Aの座標(x1,y1)の位置にレーザ光Rを投影している時に、光検出部22が反射光rを検出した場合には、座標(x1,y1)が検出対象物Oの位置として検出される。
傾き算出部122は、投影面A上における検出対象物Oの位置と、レーザ光Rの副走査方向における反射光rの検出回数とから、副走査方向における検出対象物Oの傾き角度を算出する。傾き角度の算出方法の原理については後述する。
インタフェース部23は、プロジェクタ1と外部の機器とを接続するためのものである。入力部24は、CPU12に対して指示を入力するための処理部である。
以上説明したプロジェクタ1の各構成部のうち、ミラー21以外は、筐体10の内部に収納されている。
<検出対象物Oの傾き角度の算出原理>
次に、傾き算出部122による検出対象物Oの傾き角度の算出方法の原理について説明する。図3の(a)は、投影面A上に垂直に検出対象物Oを配置したときのプロジェクタ1と検出対象物Oとの位置関係を示す図である。図3の(b)は、y軸正の方向に検出対象物Oを傾けたときのプロジェクタ1と検出対象物Oとの位置関係を示す図である。つまり、投影面Aと検出対象物Oとのなす角度θ´が90度未満である。図3の(c)は、y軸負の方向に検出対象物Oを傾けたときのプロジェクタ1と検出対象物Oとの位置関係を示す図である。つまり、投影面Aと検出対象物Oとのなす角度θ´´が90度よりも大きい。光検出部22による、投影面Aに垂直な方向の反射光rの検出範囲は、高さhに制限されている。レーザ光Rは、図1の矢印Sの方向に走査されるため、図3の左側から右側に向けて順次走査される。
図3の(a)において、n行目からn+e行目までのレーザ光Rが、検出範囲内で検出対象物Oによって反射され、光検出部22により、その反射光rが検出される。また、図3の(b)において、n行目からn+f行目までのレーザ光Rが、検出範囲内で検出対象物Oによって反射され、光検出部22により、その反射光rが検出される。さらに、図3の(c)において、n行目からn+d行目までのレーザ光Rが、検出範囲内で検出対象物Oによって反射され、光検出部22により、その反射光rが検出される。
図4の(a)〜(c)は、図3の(a)〜(c)の場合に、光検出部22が検出する光量の変化をそれぞれ示すグラフである。横軸は時間を示し、縦軸は検出光量を示している。光検出部22は、1垂直同期(Vsync)期間内において反射光rの光量を検出する。図4の(a)には、破線丸印部分を拡大した図を合わせて示している。この拡大図中には、水平同期信号(Hsync)も合わせて示している。検出範囲内でレーザ光Rが検出対象物Oに投影されている間、水平ラインごとに反射光rの光量が検出される。例えば、図3の(a)の場合には、n行目のレーザ光Rの走査開始時から、n+e行目のレーザ光Rの走査終了時までの間、(e+1)本のレーザ光Rが検出範囲内で検出対象物Oに投影されることになる。このため、(e+1)本の反射光rの光量が光検出部22により検出される。なお、光検出部22は、反射光rの検出として、光量が所定の閾値を超える反射光rを検出する。
図3の(a)と(b)とを比較した場合、(b)の方が、光検出部22の検出範囲内において、より多くの走査本数分の光が検出対象物に当たることになる。このため、(b)の方が、副走査方向における反射光rの検出回数が多くなる。よって、反射光rの検出時間も図4の(a)及び(b)に示すように、(b)の検出時間Ly´が(a)の検出時間Lyよりも長くなる。
一方、図3の(a)と(c)とを比較した場合、(c)の方が、光検出部22の検出範囲内において、より少ない走査本数分の光が検出対象物に当たることになる。このため、(c)の方が、副走査方向における反射光rの検出回数が少なくなる。よって、反射光rの検出時間も図4の(a)及び(c)に示すように、(c)の検出時間Ly´´が(a)の検出時間Lyよりも短くなる。
このように、検出対象物Oが投影部30から離れている方向(y軸正の方向)に傾いているほど、副走査方向における反射光rの検出回数が大きくなる。また、検出対象物Oが投影部30に近づく方向(y軸負の方向)に傾いているほど、副走査方向における反射光rの検出回数が小さくなる。よって、副走査方向における反射光rの検出回数から検出対象物Oの傾き角度を算出することができる。なお、レーザ光Rは投影面Aに対して傾きを持って入射するため、検出対象物Oの傾き角度が同じであっても、検出対象物Oの位置が異なると反射光rの検出回数が異なる。このため、反射光rの検出回数のみならず、検出対象物の位置を用いることにより、検出対象物の傾き角度を正確に算出することができる。
図5は、記憶部11に記憶されているデータテーブルの一例を示す図である。データテーブルは、投影面A上における検出対象物Oの位置と、反射光rの検出回数と、検出対象物Oの傾き角度との関係を示したデータである。例えば、投影面Aに投影された画像中の(0,0)の位置に検出対象物Oが接触しており、そのときの反射光rの検出回数が11回であった場合には、検出対象物Oのy軸方向の傾き角度はθ1であることが示されている。
<プロジェクタの実行する処理>
図6は、プロジェクタ1による検出対象物Oの傾き角度の算出処理のフローチャートである。
光検出部22は、反射光rを受光する(S1)。
位置検出部121は、1垂直同期期間内(1フレーム期間内)で最初に反射光rを検出した時刻において、投影部30が投影していたレーザ光Rの投影面A上における位置を、検出対象物Oの位置として検出する(S2)。
その後、傾き算出部122は、1フレーム期間内における反射光rの検出回数を算出する(S3)。
傾き算出部122は、記憶部11に記憶されているデータテーブル(図5)を参照することにより、S2で検出された検出対象物Oの位置と、S3で算出された反射光rの検出回数とから、検出対象物Oのy軸方向の傾き角度を算出する(S4)。
<検出対象物Oの操作例>
次に、検出対象物Oの操作例について説明する。例えば、図7に示す画像Aから画像Eまでの5つの画像101のうち、画像Aが投影面A上に表示されているとする。このとき、ユーザが検出対象物Oを投影面A上でy軸方向に傾けることにより、フリック操作と同様の操作を行うことができる。例えば、投影面Aで図7の上方向に検出対象物Oを傾けた場合には、画像データ処理部13は、画像Aに隣接する画像Bを生成し、投影部30は、画像Bを、画像Aの代わりに投影面A上に表示しても良い。
<効果>
以上説明したように、実施の形態1によると、検出対象物の傾き角度を正確に算出することができる。
また、データテーブルを参照することにより、検出対象物の傾き角度を検出することができるため、単純な処理により検出対象物の傾き角度を算出することができる。
(実施の形態2)
実施の形態1に係るプロジェクタ1が用いるデータテーブルは、図5に示すように、投影面Aに投影された画像の座標ごとに、反射光rの検出回数と検出対象物Oの傾き角度との関係を示していた。実施の形態2に係るプロジェクタ1は、使用するデータテーブルが実施の形態1と異なる。それ以外の構成は、実施の形態1と同様であるため、その詳細な説明は繰り返さない。
図8は、実施の形態2に係るプロジェクタ1の記憶部11に記憶されているデータテーブルの一例を示す図である。データテーブルは、投影面A上における複数の領域の各々について、反射光rの検出回数と、検出対象物Oの傾き角度との関係を示したデータである。例えば、投影面Aに投影された画像中の左上隅座標が(0,0)で右下隅座標が(99,99)の領域内に検出対象物Oが接触しており、そのときの反射光rの検出回数が11回であった場合には、検出対象物Oのy軸方向の傾き角度はθ1であることが示されている。
実施の形態1に係るプロジェクタ1による検出対象物Oの傾き角度の算出処理を図6に示したが、実施の形態2では、S4の処理で参照するデータテーブルが図8に示したものである点が異なる。つまり、傾き算出部122は、記憶部11に記憶されているデータテーブル(図8)を参照することにより、S2で検出された検出対象物Oの位置が属する投影面Aにおける領域と、S3で算出された反射光rの検出回数とから、検出対象物Oのy軸方向の傾き角度を算出する(S4)。
以上説明したように、実施の形態2によるとデータテーブルのデータサイズを、実施の形態1に比べて小さくすることができる。
(実施の形態3)
実施の形態1では、投影面Aのいずれの位置においても検出対象物Oの傾き角度を算出することとしたが、実施の形態3では、投影面A上の予め定められた領域内に検出対象物Oが接触している場合にのみ、検出対象物Oの傾き角度を算出する点が実施の形態1とは異なる。
以下では、実施の形態1と異なる箇所のみを説明し、実施の形態1と共通する箇所についての説明は繰り返さない。
例えば、図1に示すように投影面A上の一部に傾き算出領域Cが予め設定されているものとする。例えば、傾き算出領域Cは、投影面Aに投影される画像中で、左上隅座標が(100,850)で右下隅座標が(199,949)の領域として設定される。
傾き算出部122は、検出対象物Oが傾き算出領域C内に位置する場合に、検出対象物Oの傾き角度を算出し、検出対象物Oが傾き算出領域C外に位置する場合に、検出対象物Oの傾き角度を算出しない。
図9は、実施の形態3に係るプロジェクタ1による検出対象物Oの傾き角度の算出処理のフローチャートである。図9に示すフローチャートは、図6に示すフローチャートにS11の処理が加えられている。S1、S2、S3及びS4の処理は、実施の形態1で説明した通りであるため、その説明を繰り返さない。傾き算出部122は、位置検出処理(S2)で検出した検出対象物Oの位置が、傾き算出領域Cに含まれているか否かを判断する(S11)。
検出対象物Oが傾き算出領域C内に位置する場合には(S11でYES)、傾き算出部122は、S3及びS4の処理を実行することにより、検出対象物Oの傾き角度を算出する。検出対象物Oが傾き算出領域C外に位置する場合に(S11でNO)、傾き算出部122は、検出対象物Oの傾き角度を算出しない。
例えば、図10に示すように、傾き算出部122は、検出対象物Oが傾き算出領域C内に位置する場合に、検出対象物Oの傾き角度を算出し、検出対象物Oが傾き算出領域C外に位置する場合に、検出対象物Oの傾き角度を算出しない。これにより、傾き角度を算出する場所を傾き算出領域内に限定することができる。図10では、例えば、ユーザが傾き算出領域C内で検出対象物Oを前後に傾けることにより、検出対象物Oをジョイスティックのように用いることができる。
以上説明したように、実施の形態3によると、傾き角度を算出する場所を傾き算出領域内に限定することができる。
以上、本発明の実施の形態に係るプロジェクタについて説明したが、本発明は、この実施の形態に限定されるものではない。
例えば、実施の形態1〜3では、図1の矢印Sで示すようにプロジェクタ1に近い側から遠い側に向けてレーザ光Rを走査したが、プロジェクタ1から遠い側から近い側に向けてレーザ光Rを走査するようにしても良い。
また、上記のプロジェクタ1の記憶部11、CPU12、画像データ処理部13、インタフェース部23及び入力部24は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクドライブ、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムとして構成されても良い。RAMまたはハードディスクドライブには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、CPU12に含まれる位置検出部121及び傾き算出部122、並びに画像データ処理部13は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。
さらに、これらの処理部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしても良い。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。RAMには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、システムLSIは、その機能を達成する。
さらにまた、これらの処理部は、プロジェクタ1に脱着可能なICカードまたは単体のモジュールから構成されているとしても良い。ICカードまたはモジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。ICカードまたはモジュールは、上記の超多機能LSIを含むとしても良い。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、ICカードまたはモジュールは、その機能を達成する。このICカードまたはこのモジュールは、耐タンパ性を有するとしても良い。
また、本発明は、上記に示す方法であるとしても良い。また、本発明は、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしても良いし、上記コンピュータプログラムからなるデジタル信号であるとしても良い。
さらに、本発明は、上記コンピュータプログラムまたは上記デジタル信号をコンピュータ読み取り可能な非一時的な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu−ray(登録商標) Disc)、半導体メモリなどに記録したものとしても良い。また、これらの非一時的な記録媒体に記録されている上記デジタル信号であるとしても良い。
また、本発明は、上記コンピュータプログラムまたは上記デジタル信号を、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしても良い。
また、本発明は、マイクロプロセッサとメモリを備えたコンピュータシステムであって、上記メモリは、上記コンピュータプログラムを記憶しており、上記マイクロプロセッサは、上記コンピュータプログラムに従って動作するとしても良い。
また、上記プログラムまたは上記デジタル信号を上記非一時的な記録媒体に記録して移送することにより、または上記プログラムまたは上記デジタル信号を上記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしても良い。
さらに、上記実施の形態及び上記変形例をそれぞれ組み合わせるとしても良い。例えば、実施の形態3において、実施の形態2で示したデータテーブル(図8)を用いて検出対象物Oの傾き角度を算出しても良い。
本発明は、例えば、パーソナルコンピュータが出力する画像を投影面に投影するプロジェクタなどに適用できる。
1 プロジェクタ
10 筐体
10a 出射口
10b 入射口
11 記憶部
12 CPU
13 画像データ処理部
14 レーザ駆動部
14a 赤色レーザ光駆動部
14b 緑色レーザ光駆動部
14c 青色レーザ光駆動部
15 光源
15a 赤色レーザ光光源
15b 緑色レーザ光光源
15c 青色レーザ光光源
16a〜16c レンズ
17a〜17c ビームスプリッタ
18 MEMSミラー
19 アクチュエータ
20 ミラーサーボ部
21 ミラー
22 光検出部
23 インタフェース部
24 入力部
30 投影部
101 画像
121 位置検出部
122 傾き算出部

Claims (6)

  1. 光を出力する光源と、
    前記光源が出力する前記光を投影面に対して斜め方向から走査することにより、前記投影面に画像を投影する投影部と、
    前記投影面に垂直な方向の予め定められた範囲内に光の検出範囲が制限された光検出部であって、前記投影部により走査された前記光の、検出対象物による反射光を検出する光検出部と、
    前記投影面上における前記検出対象物の位置と、前記光の副走査方向における前記反射光の検出回数とから、前記副走査方向における前記検出対象物の傾き角度を算出する傾き算出部とを備える
    プロジェクタ。
  2. 前記光検出部は、前記検出対象物による前記反射光の検出として、光量が所定の閾値を超える前記反射光を検出する
    請求項1に記載のプロジェクタ。
  3. 前記傾き算出部は、前記検出対象物の位置及び前記反射光の検出回数と、前記検出対象物の傾き角度との関係を示すデータテーブルを参照することにより、前記投影面上における前記検出対象物の位置と、前記副走査方向における前記反射光の検出回数とから、前記副走査方向における前記検出対象物の傾き角度を算出する
    請求項1又は2に記載のプロジェクタ。
  4. 前記データテーブルは、前記投影面上における複数の領域の各々について、前記反射光の検出回数と、前記検出対象物の傾き角度との関係を示しており、
    前記傾き算出部は、前記データテーブルを参照することにより、前記投影面上における前記検出対象物の位置が属する前記投影面上の領域と、前記副走査方向における前記反射光の検出回数とから、前記副走査方向における前記検出対象物の傾き角度を算出する
    請求項3に記載のプロジェクタ。
  5. 前記投影面の一部に傾き算出領域が設定されており、
    前記傾き算出部は、前記検出対象物が前記傾き算出領域内に位置する場合に、前記検出対象物の傾き角度を算出し、前記検出対象物が前記傾き算出領域外に位置する場合に、前記検出対象物の傾き角度を算出しない
    請求項1〜4のいずれか1項に記載のプロジェクタ。
  6. 前記投影部は、前記光源が出力する前記光を、前記副走査方向であって、かつ前記投影面上で前記投影部から離れる方向に走査し、
    前記プロジェクタは、さらに、
    前記光検出部が最初に前記反射光を検出した時刻における、前記投影部による前記光の投影位置を前記検出対象物の位置として検出する位置検出部を備える
    請求項1〜5のいずれか1項に記載のプロジェクタ。
JP2013127890A 2013-06-18 2013-06-18 プロジェクタ Active JP6098386B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013127890A JP6098386B2 (ja) 2013-06-18 2013-06-18 プロジェクタ
US14/291,734 US9405407B2 (en) 2013-06-18 2014-05-30 Projector
EP14171094.7A EP2816455B1 (en) 2013-06-18 2014-06-04 Projector with photodetector for inclination calculation of an object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013127890A JP6098386B2 (ja) 2013-06-18 2013-06-18 プロジェクタ

Publications (2)

Publication Number Publication Date
JP2015001729A JP2015001729A (ja) 2015-01-05
JP6098386B2 true JP6098386B2 (ja) 2017-03-22

Family

ID=50842186

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013127890A Active JP6098386B2 (ja) 2013-06-18 2013-06-18 プロジェクタ

Country Status (3)

Country Link
US (1) US9405407B2 (ja)
EP (1) EP2816455B1 (ja)
JP (1) JP6098386B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102393297B1 (ko) * 2015-04-22 2022-05-02 삼성전자주식회사 전자기기 및 방법
CN109154868A (zh) * 2017-01-20 2019-01-04 深圳市金研微科技有限公司 一体式触控投影系统
CN112333435B (zh) * 2020-10-30 2023-02-28 歌尔科技有限公司 数据的调整方法、终端设备及计算机可读存储介质

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7826641B2 (en) 2004-01-30 2010-11-02 Electronic Scripting Products, Inc. Apparatus and method for determining an absolute pose of a manipulated object in a real three-dimensional environment with invariant features
US8542219B2 (en) * 2004-01-30 2013-09-24 Electronic Scripting Products, Inc. Processing pose data derived from the pose of an elongate object
US7961909B2 (en) * 2006-03-08 2011-06-14 Electronic Scripting Products, Inc. Computer interface employing a manipulated object with absolute pose detection component and a display
JP4872525B2 (ja) 2006-08-14 2012-02-08 カシオ計算機株式会社 プロジェクタ、プロジェクタの距離計測方法、プロジェクタの投影面傾き取得方法及びプログラム
US20080158547A1 (en) * 2006-12-29 2008-07-03 Lite-On Semiconductor Corporation Motion detecting device for sensing rotation and inclination variation information and method of using the same
JP5214223B2 (ja) * 2007-11-15 2013-06-19 船井電機株式会社 プロジェクタ
US20110267262A1 (en) 2010-04-30 2011-11-03 Jacques Gollier Laser Scanning Projector Device for Interactive Screen Applications
JP2013065061A (ja) * 2011-09-15 2013-04-11 Funai Electric Co Ltd プロジェクタ
CN103176592B (zh) * 2011-12-22 2015-09-30 光宝科技股份有限公司 虚拟投影输入系统及其输入检测方法
JP2014203212A (ja) * 2013-04-03 2014-10-27 船井電機株式会社 入力装置及び入力方法
JP6175913B2 (ja) * 2013-06-04 2017-08-09 船井電機株式会社 入力装置、入力システム及び入力方法

Also Published As

Publication number Publication date
US9405407B2 (en) 2016-08-02
EP2816455B1 (en) 2016-08-24
EP2816455A1 (en) 2014-12-24
US20140368754A1 (en) 2014-12-18
JP2015001729A (ja) 2015-01-05

Similar Documents

Publication Publication Date Title
US9033516B2 (en) Determining motion of projection device
US10642422B2 (en) Information processing apparatus, control method for the information processing apparatus, and storage medium
US20130070232A1 (en) Projector
US8902435B2 (en) Position detection apparatus and image display apparatus
JP2005322226A (ja) レーザスペックルパターンによって追跡面の動きを検出するためのデータ入力装置及びその方法
US20120044363A1 (en) Interaction control system, method for detecting motion of object, host apparatus and control method thereof
TWI520036B (zh) 物件偵測方法以及用於光學觸控系統的校正裝置
US20150054792A1 (en) Projector
US20150116276A1 (en) Projector
JP7453137B2 (ja) Pos端末装置および画像処理方法
CN108463793B (zh) 图像识别装置、图像识别方法以及图像识别单元
JP6098386B2 (ja) プロジェクタ
JP2016114963A (ja) 入力操作検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、及びプロジェクタシステム
JP6314688B2 (ja) 入力装置
JP6536350B2 (ja) 入力装置
JP2014202951A (ja) 画像投影装置、及び操作物検出方法
JP2016218893A (ja) 入力操作検出装置、画像表示装置、プロジェクタ装置、プロジェクタシステム、及び入力操作検出方法
JP2016021229A (ja) 入力装置
US20150185321A1 (en) Image Display Device
WO2012026180A1 (ja) 情報取得装置および物体検出装置
JP2015094828A (ja) 画像投影方法、情報入力装置及びプログラム
US10417485B2 (en) Method and module of gesture recognition
WO2019171635A1 (ja) 操作入力装置、操作入力方法、及びコンピュータ読み取り可能な記録媒体
JP6181778B2 (ja) オーバーヘッド型画像読取装置、画像処理方法、および、プログラム
JP2021197028A (ja) 位置検出方法、プロジェクターの制御方法、位置検出装置およびプロジェクター

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160315

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170206

R150 Certificate of patent or registration of utility model

Ref document number: 6098386

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150