JP2014145813A - プロジェクタ - Google Patents

プロジェクタ Download PDF

Info

Publication number
JP2014145813A
JP2014145813A JP2013012931A JP2013012931A JP2014145813A JP 2014145813 A JP2014145813 A JP 2014145813A JP 2013012931 A JP2013012931 A JP 2013012931A JP 2013012931 A JP2013012931 A JP 2013012931A JP 2014145813 A JP2014145813 A JP 2014145813A
Authority
JP
Japan
Prior art keywords
light
detection
image
light receiving
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013012931A
Other languages
English (en)
Inventor
Daisuke Yamagiwa
大祐 山際
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Funai Electric Co Ltd
Original Assignee
Funai Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Funai Electric Co Ltd filed Critical Funai Electric Co Ltd
Priority to JP2013012931A priority Critical patent/JP2014145813A/ja
Priority to US14/149,917 priority patent/US9335158B2/en
Priority to EP14151700.3A priority patent/EP2759916A3/en
Publication of JP2014145813A publication Critical patent/JP2014145813A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/14Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • G06F3/0423Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen using sweeping light beams, e.g. using rotating or vibrating mirror
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3129Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] scanning a light beam on the display screen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Mechanical Optical Scanning Systems (AREA)
  • Projection Apparatus (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Geophysics And Detection Of Objects (AREA)

Abstract

【課題】検出対象物の画像上の位置を取得するプロジェクタにおいて、投射面に投射する画像を大きくしようとする場合でも、小型化を図ることが可能なプロジェクタを提供する。
【解決手段】この発明によるプロジェクタ100では、レーザ光を出力するレーザ光発生部12と、レーザ光を走査する走査部14とを含み、画像を投影する投影装置1と、投影装置1と別個に設けられ、検出対象物5により反射されたレーザ光を受光する受光部21を含む光検知センサ2と、受光部21により受光したレーザ光の検出結果に基づいて、検出対象物5の画像4上の位置を取得するメインCPU11とを備える。
【選択図】図2

Description

この発明は、プロジェクタに関し、特に、投影装置を備えるプロジェクタに関する。
従来、投影装置を備えるプロジェクタが知られている(たとえば、特許文献1参照)。
上記特許文献1には、レーザ光により投射面に画像を投射する投射ユニット(投影装置)と、投射面近傍に投射面と平行に可視光を発する投光ユニットと、投光ユニットから発せられ、ユーザの指などで反射した反射光および投射した画像を撮像する可視カメラとを備えるプロジェクタが開示されている。このプロジェクタでは、可視カメラにより撮像した反射光に基づいて、投射した画像に対するユーザのタッチ位置を検出するように構成されている。また、このプロジェクタは、投射ユニット、投光ユニットおよび可視カメラが一体的に設けられている。
特開2012−108233号公報
しかしながら、上記特許文献1に記載のプロジェクタでは、投射面に投射する画像を大きくしようとする場合には、投射ユニットを投射面から離して配置する必要がある一方、投光ユニットは投射面近傍に配置する必要があるため、投影装置と投光ユニットとの間が離れる分だけプロジェクタが大きくなるという問題点がある。
この発明は、上記のような課題を解決するためになされたものであり、この発明の1つの目的は、検出対象物の画像上の位置を取得するプロジェクタにおいて、投射面に投射する画像を大きくしようとする場合でも、大型化するのを抑制することが可能なプロジェクタを提供することである。
この発明の一の局面によるプロジェクタは、レーザ光を出力するレーザ光発生部と、レーザ光を走査する走査部とを含み、画像を投影する投影装置と、投影装置と別個に設けられ、検出対象物により反射されたレーザ光を受光する受光部を含む光検知センサと、受光部により受光したレーザ光の検出結果に基づいて、検出対象物の画像上の位置を取得する制御部とを備える。
この一の局面によるプロジェクタでは、上記のように、画像を投影する投影装置と、レーザ光を受光する光検知センサとを別個に設けることによって、投射面に投射する画像を大きくしようとする場合に、投影装置を光検知センサから独立して投影面から離して配置し、光検知センサを投影面近傍に配置することができるので、投影装置を投射面から離すためにプロジェクタを大きくする必要がない。これにより、検出対象物の画像上の位置を取得するプロジェクタにおいて、投射面に投射する画像を大きくしようとする場合でも、プロジェクタが大型化するのを抑制することができる。
上記一の局面によるプロジェクタにおいて、好ましくは、制御部は、投影される画像の外周部近傍に検出光を投影させるとともに、受光部により検出光を受光した結果に基づいて、画像に対する受光部の受光範囲を取得するように構成されている。このように構成すれば、投影装置と、投影装置から出力されて検出対象物により反射されたレーザ光を受光する光検知センサとを別個に配置しても、取得した画像に対する受光部の受光範囲に基づいて、受光部の位置や向きを補正することができるので、受光部により検出対象物から反射されたレーザ光を確実に受光することができる。
この場合、好ましくは、制御部は、投影される画像の外周部近傍の外側に検出光を投影させるように構成されている。このように構成すれば、受光部が外周部近傍の外側の検出光を検出することにより、投影される画像全体を受光部の受光範囲に含めることができる。また、投影される画像の外側に検出光を投影させるので、画像内に検出光を投影させる場合と異なり、投影される画像が検出光の分だけ欠落することがない。
上記投影される画像の外周部近傍に検出光を投影させる構成において、好ましくは、投影される画像は、矩形形状を有し、制御部は、投影される矩形形状の画像の4つの角のうち少なくとも光検知センサに近い2つの角近傍に検出光を投影させるとともに、受光部により検出光を受光した結果に基づいて、画像に対する受光部の受光範囲を取得するように構成されている。このように構成すれば、受光部の受光範囲が扇状に広がる場合に、投影される矩形形状の画像の4つの角のうち検知センサに近い2つの角近傍の検出光を受光部が検出することにより、受光部の受光範囲に画像が含まれているか否かを容易に判断することができる。
この場合、好ましくは、制御部は、投影される矩形形状の画像の4つの角近傍に検出光を投影させるとともに、受光部により検出光を受光した結果に基づいて、画像に対する受光部の受光範囲を取得するように構成されている。このように構成すれば、投影される矩形形状の画像の4つの角近傍の検出光を受光部が検出することにより、画像に対する受光部の受光範囲をより精度よく取得することができる。
上記投影される画像の外周部近傍に検出光を投影させる構成において、好ましくは、光検知センサは、受光部の受光方向を変化させる駆動部をさらに含み、制御部は、受光部により検出光を受光した結果に基づいて、受光部の受光範囲が画像全体を含むように、駆動部により、受光部の受光方向を変化させるように構成されている。このように構成すれば、駆動部を駆動させることにより、容易に受光部の受光範囲が画像全体を含むようにすることができるので、ユーザによる受光部の位置や向きを補正する作業負担を軽減することができる。
上記投影される画像の外周部近傍に検出光を投影させる構成において、好ましくは、制御部は、受光部により検出光を受光した結果に基づいて、光検知センサを移動させる方向または位置をユーザに通知する制御を行うように構成されている。このように構成すれば、ユーザは、光検知センサの位置や方向を容易に補正することができるので、検出対象物により反射されたレーザ光を確実に受光することができる。
本発明によれば、上記のように、検出対象物の画像上の位置を取得するプロジェクタにおいて、投射面に投射する画像を大きくしようとする場合でも、プロジェクタの小型化を図ることができる。
本発明の第1実施形態によるプロジェクタの使用状態を示した模式図である。 本発明の第1実施形態によるプロジェクタの構成を示したブロック図である。 本発明の第1実施形態によるプロジェクタの使用状態を示した側面図である。 本発明の第1実施形態によるプロジェクタの検出光および受光部の受光範囲を説明するための図である。 本発明の第1実施形態によるプロジェクタの受光部の受光範囲を示した図である。 本発明の第1実施形態によるプロジェクタの投影する画像を大きくする場合の例を示した側面図である。 本発明の第1実施形態によるプロジェクタのメインCPUによるキャリブレーション処理を説明するためのフローチャートである。 本発明の第2実施形態によるプロジェクタの構成を示したブロック図である。 本発明の第2実施形態によるプロジェクタの検出光を説明するための図である。 本発明の第2実施形態によるプロジェクタの受光部の受光範囲の第1の例を示した図である。 本発明の第2実施形態によるプロジェクタの受光部の受光範囲の第2の例を示した図である。 本発明の第2実施形態によるプロジェクタのメインCPUによるキャリブレーション処理を説明するためのフローチャートである。 本発明の第1実施形態の変形例によるプロジェクタの検出光を説明するための図である。
以下、本発明を具体化した実施形態を図面に基づいて説明する。
(第1実施形態)
図1〜図6を参照して、本発明の第1実施形態によるプロジェクタ100の構成を説明する。
本発明の第1実施形態によるプロジェクタ100は、図1に示すように、投影装置1と、光検知センサ2とを備える。また、プロジェクタ100は、投影面3の上面に対して、画像4を投影するように構成されている。また、プロジェクタ100は、ユーザの指などの検出対象物5の画像4上の位置を取得するように構成されている。
投影装置1は、レーザ光を投射して画像4を投影面3に投影するように構成されている。また、投影装置1は、図1および図3に示すように、投影面3の上方(Z1方向)に配置されている。また、投影装置1は、光検知センサ2と別個に設けられている。つまり、投影装置1の投影面3に対するZ方向の距離が大きくなるように配置することにより、画像4の大きさを大きくすることができる。具体的には、図3に示すように、投影装置1を、投影面3に対するZ方向の距離をh1の位置に配置した場合、画像4のY方向の長さがL1となる。また、図6に示すように、投影装置1を、投影面3に対するZ方向の距離をh1より大きいh2の位置に配置した場合、画像4のY方向の長さがL1より大きいL2となる。また、画像4のX方向の長さも同様に大きくなる。これにより、画像4が大きく投影される。
また、投影装置1は、図2に示すように、メインCPU(Central Processing Unit)11と、レーザ光発生部12と、映像処理部13と、走査部14と、光学レンズ15と、通信部16とを備える。レーザ光発生部12は、レーザ光源12a、12bおよび12cと、光源制御部121と、LD(レーザダイオード)ドライバ122と、ビームスプリッタ123および124とを含む。走査部14は、ミラー制御部141と、ミラードライバ142と、MEMS(Micro Electro Mechanical System)ミラー143とを含む。なお、メインCPU11は、本発明の「制御部」の一例である。
メインCPU11は、プロジェクタ100の各部を制御するように構成されている。具体的には、メインCPU11は、映像処理部13を制御するように構成されている。また、メインCPU11は、通信部16を介して、光検知センサ2を制御するように構成されている。また、メインCPU11は、通信部16を介して、光検知センサ2の受光部21が受光したレーザ光の検出結果を取得するように構成されている。また、メインCPU11は、光検知センサ2の受光部21により受光したレーザ光の検出結果に基づいて、検出対象物5の画像4上の位置を取得するように構成されている。具体的には、メインCPU11は、検出対象物5により反射されたレーザ光を受光部21が検出した時間に基づいて、検出したレーザ光が画像4に対してどの位置を走査されているのかを特定して、検出対象物5の画像4に対応する位置を取得するように構成されている。
ここで、第1実施形態では、メインCPU11は、図4に示すように、投影される画像4の外周部近傍の外側に検出光4a、4b、4cおよび4dを投影させるように構成されている。具体的には、メインCPU11は、投影される矩形形状の画像4の4つの角近傍に検出光4a〜4dをそれぞれ投影させるように構成されている。つまり、メインCPU11は、投影される画像4の外周部近傍の外側の光検知センサ2に近い方(Y2方向)の左(X1方向)側に検出光4aを投影させ、投影される画像4の外周部近傍の外側の光検知センサ2に近い方(Y2方向)の右(X2方向)側に検出光4bを投影させる制御を行う。また、メインCPU11は、投影される画像4の外周部近傍の外側の光検知センサ2に遠い方(Y1方向)の左(X1方向)側に検出光4cを投影させ、投影される画像4の外周部近傍の外側の光検知センサ2に遠い方(Y1方向)の右(X2方向)側に検出光4dを投影させる制御を行う。また、メインCPU11は、赤色の可視のレーザ光により、検出光4a、4b、4cおよび4dを投影させるように構成されている。これにより、波長の長い赤色のレーザ光により検出光4a〜4dが投影面に投影されるので、検出光4a〜4dを受光部21により受光しやすくすることが可能である。
また、第1実施形態では、メインCPU11は、光検知センサ2の受光部21により検出光4a〜4dを受光したか否かの結果を取得するように構成されている。具体的には、メインCPU11は、検出光4a〜4dを投影した時間に対応する時間にレーザ光を受光したか否かに基づいて、検出光4a〜4dをそれぞれ受光したか否かの結果を取得するように構成されている。また、メインCPU11は、光検知センサ2の受光部21により検出光4a〜4dを受光した結果に基づいて、画像4に対する受光部21の受光範囲を取得するように構成されている。
なお、受光部21の受光範囲は、受光部21がレーザ光を受光することが可能な範囲であり、図4に示すように、受光部21の前方(Y1方向)で、左境界線2aと、右境界線2bとの間に挟まれる範囲である。また、メインCPU11は、図4に示すように、光検知センサ2の受光部21により4つの検出光4a〜4dの全てを受光した場合、受光部21の受光範囲に画像4全体が含まれていると判断する。また、メインCPU11は、図5に示す例のように、4つの検出光4a〜4dのうち1つでも受光していない検出光が有る場合(図5に示す例では、検出光4bが受光されない)、受光部21の受光範囲に画像4全体が含まれていないと判断する。
また、メインCPU11は、通信部16を介して光検知センサ2の駆動部23の駆動を制御して、受光部21の方向を変化させるように構成されている。具体的には、メインCPU11は、光検知センサ2の受光部21により検出光を受光した結果に基づいて、受光部21の受光範囲が画像4全体を含むように、光検知センサ2の駆動部23により、受光部21の受光方向を変化させる(回動させる)(後述するキャリブレーション処理)ように構成されている。また、メインCPU11は、光検知センサ2が、画像4に近すぎることに起因して、光検知センサ2に近い検出光4aおよび4bの両方を検知することができない場合に、駆動部23により受光部21を、一方の検出光4aまたは4bを受光する向きから、他方の検出光4aまたは4bを受光する向きに回動させる制御を行う。また、メインCPU11は、受光する向きを回動させる駆動部23の駆動量に基づいて、光検知センサ2に近い検出光4aおよび4bの両方を検知するための光検知センサ2と画像4との距離を算出するように構成されている。
レーザ光発生部12は、レーザ光を出力するように構成されている。具体的には、レーザ光源12aは、青色のレーザ光をビームスプリッタ123に反射させ、光学レンズ15を通過させてMEMSミラー143に照射するように構成されている。レーザ光源12bは、緑色のレーザ光をビームスプリッタ124に反射させ、ビームスプリッタ123および光学レンズ15を通過させてMEMSミラー143に照射するように構成されている。レーザ光源12cは、赤色のレーザ光をビームスプリッタ124、123およびレンズ15を通過させてMEMSミラー143に照射するように構成されている。光源制御部121は、映像処理部13による制御に基づいて、LDドライバ122を制御して、レーザ光源12a〜12cによるレーザ光の照射を制御するように構成されている。具体的には、光源制御部121は、MEMSミラー143が走査するタイミングに合せて画像4の各画素に対応する色のレーザ光をレーザ光源12a〜12cから照射させる制御を行うように構成されている。
映像処理部13は、外部から入力される映像信号に基づいて、映像の投影を制御するように構成されている。具体的には、映像処理部13は、外部から入力される映像信号に基づいて、ミラー制御部141を介して、MEMSミラー143の駆動を制御するとともに、光源制御部121を介して、レーザ光源12a〜12cによるレーザ光の照射を制御するように構成されている。
走査部14は、レーザ光を走査して画像4(図1参照)を投影面3に投影するように構成されている。具体的には、走査部14のミラー制御部141は、ミラードライバ142を制御して、MEMSミラー143を駆動するように構成されている。また、MEMSミラー143は、レーザ光源12a〜12cから照射されたレーザ光を走査して、画像4を投影面3に投影するように構成されている。また、MEMSミラー143は、画像4の水平方向および垂直方向の2軸に駆動してレーザ光を走査するように構成されている。
通信部16は、光検知センサ2の通信部22を介して、投影装置1および光検知センサ2間の信号を送受信するように構成されている。
光検知センサ2は、レーザ光を検知するように構成されている。また、光検知センサ2は、図1に示すように、投影装置1とは別個に、投影面3上に配置されている。また、光検知センサ2は、図2に示すように、受光部21と、通信部22と、駆動部23とを含む。
受光部21は、レーザ光を受光して検知するように構成されている。具体的には、受光部21は、検出対象物5により反射されたレーザ光を受光するように構成されている。また、受光部21は、投影面3に投影された検出光4a〜4dを受光して検知するように構成されている。また、受光部21は、受光部21の前方(Y1方向)に扇状に広がる受光範囲で光を受光することが可能に構成されている。また、受光部21は、通信部22を介して、受光結果を投影装置1のメインCPU11に出力するように構成されている。
通信部22は、投影装置1の通信部16を介して、投影装置1および光検知センサ2間の信号を送受信するように構成されている。駆動部23は、受光部21の受光方向を変化させるように構成されている。具体的には、駆動部23は、受光部21を投影面3と平行な面(XY平面)内で回動させるように構成されている。
次に、図7を参照して、第1実施形態のプロジェクタ100のメインCPU11によるキャリブレーション処理について説明する。この処理は、プロジェクタ100により画像4が投影されている場合に継続的に実行される。
図7のステップS1において、メインCPU11は、投影される画像4の外周部近傍に検出光4a、4b、4cおよび4d(図4参照)を投影させる制御を行う。また、メインCPU11は、画像4のフレームごとに常に検出光4a〜4dを投影させるように構成されている。メインCPU11は、ステップS2において、検出光4a〜4dを検出する。具体的には、メインCPU11は、光検知センサ2の受光部21による検出光4a〜4dの検知結果を取得して、検出光4a〜4dを検出する。
メインCPU11は、ステップS3において、検出光を4点検出したか否かを判断する。4点検出していれば、メインCPU11は、キャリブレーション処理を終了する。4点検出していなければ、ステップS4において、メインCPU11は、光検知センサ2の近くの検出光を2点検出したか否かを判断する。具体的には、メインCPU11は、検出光4aおよび4b(図4参照)の両方を検出したか否かを判断する。検出光4aおよび4bの両方を検出していれば、ステップS5に進み、検出光4aおよび4bの両方を検出していなければ、ステップS8に進む。
メインCPU11は、ステップS5において、光検知センサ2に対して遠くの右の検出光4d(図4参照)を検出したか否かを判断する。検出光4dを検出していれば、メインCPU11は、ステップS6に進み、駆動部23により受光部21を左に向ける制御を行う。つまり、メインCPU11は、現在検出している検出光4a、4bおよび4dに加えて、検出光4cも検出するように、受光部21を左に向ける。その後、ステップS2に戻る。検出光4dを検出していなければ、メインCPU11は、ステップS7に進み、駆動部23により受光部21を右に向ける制御を行う。つまり、メインCPU11は、現在検出している検出光4a、4bに加えて、検出光4dも検出するように、受光部21を右に向ける。その後、ステップS2に戻る。
ステップS4において検出光4aおよび4bの両方を検出していなければ、メインCPU11は、ステップS8において、光検知センサ2の近くの検出光を1点検出したか否かを判断する。つまり、メインCPU11は、検出光4aまたは4bのいずれかを検出したか否かを判断する。検出光4aまたは4bのいずれかを検出していれば、ステップS9に進み、検出光4aおよび4bのいずれも検出していなければ、ステップS10に進む。
メインCPU11は、ステップS9において、光検知センサ2に対して近くの右の検出光4bを検出したか否かを判断する。検出光4bを検出していれば、メインCPU11は、ステップS6に進み、駆動部23により受光部21を左に向ける制御を行う。つまり、メインCPU11は、現在検出している検出光4bに加えて、検出光4aも検出するように、受光部21を左に向ける。その後、ステップS2に戻る。検出光4bを検出していなければ、メインCPU11は、ステップS7に進み、駆動部23により受光部21を右に向ける制御を行う。つまり、メインCPU11は、現在検出している検出光4aに加えて、検出光4bも検出するように、受光部21を右に向ける。その後、ステップS2に戻る。
ステップS8において検出光4aおよび4bのいずれも検出していなければ、メインCPU11は、ステップS10において、光検知センサ2を画像4に対して遠ざける通知を画像4に表示する制御を行う。この際、メインCPU11は、遠ざける凡その距離を画像4に表示してもよい。その後、ステップS2に戻る。
第1実施形態では、上記のように、画像4を投影する投影装置1と、レーザ光を受光する光検知センサ2とを別個に設けることによって、投射面3に投射する画像4を大きくしようとする場合に、投影装置1を光検知センサ2から独立して投影面3から離して配置し、光検知センサ2を投影面3近傍に配置することができるので、投影装置1を投射面3から離すためにプロジェクタ100を大きくする必要がない。これにより、検出対象物5の画像4上の位置を取得するプロジェクタ100において、投射面3に投射する画像4を大きくしようとする場合でも、プロジェクタ100が大型化するのを抑制することができる。
また、第1実施形態では、上記のように、メインCPU11を、投影される画像4の外周部近傍に検出光4a〜4dを投影させるとともに、受光部21により検出光4a〜4dを受光した結果に基づいて、画像4に対する受光部21の受光範囲を取得するように構成する。これにより、投影装置1と、投影装置1から出力されて検出対象物5により反射されたレーザ光を受光する光検知センサ2とを別個に配置しても、取得した画像4に対する受光部21の受光範囲に基づいて、受光部21の位置や向きを補正することができるので、受光部21により検出対象物5から反射されたレーザ光を確実に受光することができる。
また、第1実施形態では、上記のように、メインCPU11を、投影される画像4の外周部近傍の外側に検出光4a〜4dを投影させるように構成する。これにより、受光部21が外周部近傍の外側の検出光4a〜4dを検出することにより、投影される画像4全体を受光部21の受光範囲に含めることができる。また、投影される画像4の外側に検出光4a〜4dを投影させるので、画像4内に検出光を投影させる場合と異なり、投影される画像4が検出光4a〜4dの分だけ欠落することがない。
また、第1実施形態では、上記のように、メインCPU11を、投影される矩形形状の画像4の4つの角近傍に検出光4a〜4dを投影させるとともに、受光部21により検出光4a〜4dを受光した結果に基づいて、画像4に対する受光部21の受光範囲を取得するように構成する。これにより、投影される矩形形状の画像4の4つの角近傍の検出光4a〜4dを受光部21が検出することにより、画像4に対する受光部21の受光範囲をより精度よく取得することができる。
また、第1実施形態では、上記のように、メインCPU11を、受光部21により検出光4a〜4dを受光した結果に基づいて、受光部21の受光範囲が画像4全体を含むように、駆動部23により、受光部21の受光方向を変化させるように構成する。これにより、駆動部23を駆動させることによって、容易に受光部21の受光範囲が画像4全体を含むようにすることができるので、ユーザによる受光部21の位置や向きを補正する作業負担を軽減することができる。
また、第1実施形態では、上記のように、メインCPU11を、受光部21により検出光4a〜4dを受光した結果に基づいて、光検知センサ2を移動させる位置をユーザに通知する制御を行うように構成する。これにより、ユーザは、光検知センサ2の位置を容易に補正することができるので、検出対象物5により反射されたレーザ光を確実に受光することができる。
(第2実施形態)
次に、図8〜図12を参照して、第2実施形態について説明する。この第2実施形態では、画像の外周部近傍の外側に4つの検出光を投影する構成の第1実施形態とは異なり、画像の外周部近傍の外側に2つの検出光を投影する例について説明する。
本発明の第2実施形態によるプロジェクタ200は、図8に示すように、投影装置1と、光検知センサ6とを備える。
ここで、第2実施形態では、メインCPU11は、図9に示すように、投影される画像4の外周部近傍の外側に2つの検出光4aおよび4bを投影させるように構成されている。具体的には、メインCPU11は、投影される画像4の外周部近傍の外側の光検知センサ6に近い方(Y2方向)の左(X1方向)側に検出光4aを投影させ、投影される画像4の外周部近傍の外側の光検知センサ6に近い方(Y2方向)の右(X2方向)側に検出光4bを投影させる制御を行う。
また、第2実施形態では、メインCPU11は、受光部21により検出光4aおよび4bを受光した結果に基づいて、光検知センサ6を移動させる方向または位置をユーザに通知する制御を行うように構成されている。たとえば、図10に示す例の場合において、メインCPU11は、受光部21により検出光を受光した結果、受光部21が左(X1方向)に向いていると判断した場合、光検知センサ6を右に向けるように通知するように構成されている。具体的には、メインCPU11は、「右に向けてください」という表示を画像4に投影するように構成されている。また、たとえば、図11に示す例の場合において、メインCPU11は、受光部21により検出光を受光した結果、受光部21が画像4に近いと判断した場合、光検知センサ6を画像4から遠ざけるように通知するように構成されている。具体的には、メインCPU11は、「遠ざけてください」という表示を画像4に投影するように構成されている。
光検知センサ6は、レーザ光を検知するように構成されている。また、光検知センサ6は、投影装置1とは別個に、投影面3上に配置されている。また、光検知センサ6は、図8に示すように、受光部21と、通信部22とを含む。つまり、第1実施形態と異なり、光検知センサ6は、駆動部を有していない。これにより、駆動部を有さない分、光検知センサ6のさらなる小型化を図ることが可能である。
次に、図12を参照して、第2実施形態のプロジェクタ200のメインCPU11によるキャリブレーション処理について説明する。この処理は、プロジェクタ200により画像4が投影されている場合に継続的に実行される。
図12のステップS21において、メインCPU11は、検出光2点を表示させる。具体的には、メインCPU11は、投影される画像4の外周部近傍に検出光4aおよび4b(図9参照)を投影させる制御を行う。メインCPU11は、ステップS22において、検出光4aおよび4bを検出する。具体的には、メインCPU11は、光検知センサ6の受光部21による検出光4aおよび4bの検知結果を取得して、検出光4aおよび4bを検出する。
メインCPU11は、ステップS23において、検出光を2点検出したか否かを判断する。2点検出していれば、メインCPU11は、キャリブレーション処理を終了する。2点検出していなければ、ステップS24において、メインCPU11は、検出光を1点検出したか否かを判断する。具体的には、メインCPU11は、検出光4aまたは4bのいずれかを検出したか否かを判断する。検出光4aまたは4bのいずれかを検出していれば、ステップS25に進み、検出光4aおよび4bのいずれも検出していなければ、ステップS28に進む。
メインCPU11は、ステップS25において、右の検出光4bを検出したか否かを判断する。検出光4bを検出していれば、メインCPU11は、ステップS26に進み、光検知センサ6を左へ向ける通知を画像4に表示する制御を行う。つまり、メインCPU11は、現在検出している検出光4bに加えて、検出光4aも検出するように、光検知センサ6(受光部21)を左に向けるようユーザに通知する。その後、ステップS22に戻る。検出光4bを検出していなければ、メインCPU11は、ステップS27に進み、光検知センサ6を右へ向ける通知を画像4に表示する(図10参照)制御を行う。つまり、メインCPU11は、現在検出している検出光4aに加えて、検出光4bも検出するように、光検知センサ6(受光部21)を右に向けるようユーザに通知する。その後、ステップS22に戻る。
ステップS24において検出光4aおよび4bのいずれも検出していなければ、メインCPU11は、ステップS28において、光検知センサ6を画像4に対して遠ざける通知を画像4に表示する(図11参照)制御を行う。その後、ステップS22に戻る。
なお、第2実施形態のその他の構成は、上記第1実施形態と同様である。
上記のように、第2実施形態の構成においても、上記第1実施形態と同様に、画像4を投影する投影装置1と、レーザ光を受光する光検知センサ6とを別個に設けることによって、検出対象物5の画像4上の位置を取得するプロジェクタ200において、投射面3に投射する画像4を大きくしようとする場合でも、プロジェクタ200の小型化を図ることができる。
さらに、第2実施形態では、上記のように、メインCPU11を、投影される矩形形状の画像4の4つの角のうち光検知センサ6に近い2つの角近傍に検出光4aおよび4bを投影させるとともに、受光部21により検出光4aおよび4bを受光した結果に基づいて、画像4に対する受光部21の受光範囲を取得するように構成する。これにより、受光部21の受光範囲が扇状に広がる場合に、投影される矩形形状の画像4の4つの角のうち検知センサ6に近い2つの角近傍の検出光4aおよび4bを受光部21が検出することにより、受光部21の受光範囲に画像4が含まれているか否かを容易に判断することができる。
また、第2実施形態では、上記のように、メインCPU11を、受光部21により検出光4aおよび4bを受光した結果に基づいて、光検知センサ6を移動させる方向または位置をユーザに通知する制御を行うように構成する。これにより、光検知センサ6の位置や方向を容易に補正することができるので、ユーザは、検出対象物5により反射されたレーザ光を確実に受光することができる。
なお、第2実施形態のその他の効果は、上記第1実施形態と同様である。
なお、今回開示された実施形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施形態の説明ではなく特許請求の範囲によって示され、さらに特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれる。
たとえば、上記第1および第2実施形態では、検出対象物としてユーザの指を用いる構成の例を示したが、本発明はこれに限られない。本発明では、検出対象物としてタッチペンやペンなどを用いてもよい。
また、上記第1および第2実施形態では、投影される画像の外周部近傍の外側に検出光を投影させる構成の例を示したが、本発明はこれに限られない。本発明では、図13に示す変形例のプロジェクタ300のように、投影される画像4の外周部近傍の内側に検出光4e、4f、4gおよび4hを投影する構成でもよい。また、投影される画像の外周部近傍の内側および外側の両方に検出光を投影する構成でもよい。
また、上記第1実施形態では、投影される矩形形状の画像の4つの角近傍に検出光を投影させる例を示し、上記第2実施形態では、投影される矩形形状の画像の4つの角のうち光検知センサに近い2つの角近傍に検出光を投影させる例を示したが、本発明はこれらに限られない。本発明では、投影される矩形形状の画像の4つの角のうち少なくとも光検知センサに近い2つの角近傍に検出光を投影させればよい。たとえば、光検知センサに近い2つの角近傍の検出光を含む合計3つの検出光または5つ以上の検出光を投影させてもよい。
また、上記第1および第2実施形態では、画像を投影する赤色のレーザ光を照射することにより検出光を投影する構成の例を示したが、本発明はこれに限られない。本発明では、赤外線レーザのような画像投影に寄与しない(非可視光の)検出専用のレーザ光により検出光を投影してもよい。また、赤色以外の緑色や青色のレーザ光を照射することにより検出光を投影してもよい。
また、上記第1および2実施形態では、制御部(メインCPU)がプロジェクタの投影装置に設けられている例を示したが、本発明はこれに限られない。本発明では、制御部が光検知センサに設けられていてもよいし、投影装置と光検知センサの両方に設けられていてもよい。また、制御部が投影装置および光検知センサとは別の装置に設けられていてもよい。
また、上記第1および第2実施形態では、投影装置と光検知センサとが離れた位置に配置されている例を示したが、本発明はこれに限られない。本発明では、投影装置と光検知センサとが別個に設けられていれば、投影装置を光検知センサの上に載置して配置してもよい。
また、上記第1および第2実施形態では、光検知センサを移動させる方向または位置を画像に表示して通知する構成の例を示したが、本発明はこれに限られない。本発明では、光検知センサを移動させる方向または位置を、別の表示部に表示して通知してもよいし、音声により通知してもよい。
また、上記第1および第2実施形態では、投影される画像が矩形形状を有する構成の例を示したが、本発明はこれに限られない。本発明では、投影される画像は矩形形状以外の形状を有していてもよい。たとえば、台形形状などでもよい。
また、上記第1および第2実施形態では、説明の便宜上、本発明の制御部(メインCPU)の処理を処理フローに沿って順番に処理を行うフロー駆動型のフローチャートを用いて説明したが、本発明はこれに限られない。本発明では、制御部の処理動作を、イベント単位で処理を実行するイベント駆動型(イベントドリブン型)の処理により行ってもよい。この場合、完全なイベント駆動型で行ってもよいし、イベント駆動およびフロー駆動を組み合わせて行ってもよい。
1 投影装置
2 光検知センサ
4 画像
4a、4b、4c、4d、4e、4f、4g、4h 検出光
5 検出対象物
11 メインCPU(制御部)
12 レーザ光発生部
14 走査部
21 受光部
23 駆動部
100、200、300 プロジェクタ

Claims (7)

  1. レーザ光を出力するレーザ光発生部と、前記レーザ光を走査する走査部とを含み、画像を投影する投影装置と、
    前記投影装置と別個に設けられ、検出対象物により反射された前記レーザ光を受光する受光部を含む光検知センサと、
    前記受光部により受光した前記レーザ光の検出結果に基づいて、前記検出対象物の前記画像上の位置を取得する制御部とを備える、プロジェクタ。
  2. 前記制御部は、投影される前記画像の外周部近傍に検出光を投影させるとともに、前記受光部により前記検出光を受光した結果に基づいて、前記画像に対する前記受光部の受光範囲を取得するように構成されている、請求項1に記載のプロジェクタ。
  3. 前記制御部は、投影される前記画像の外周部近傍の外側に前記検出光を投影させるように構成されている、請求項2に記載のプロジェクタ。
  4. 投影される前記画像は、矩形形状を有し、
    前記制御部は、投影される矩形形状の前記画像の4つの角のうち少なくとも前記光検知センサに近い2つの角近傍に前記検出光を投影させるとともに、前記受光部により前記検出光を受光した結果に基づいて、前記画像に対する前記受光部の受光範囲を取得するように構成されている、請求項2または3に記載のプロジェクタ。
  5. 前記制御部は、投影される矩形形状の前記画像の4つの角近傍に前記検出光を投影させるとともに、前記受光部により前記検出光を受光した結果に基づいて、前記画像に対する前記受光部の受光範囲を取得するように構成されている、請求項4に記載のプロジェクタ。
  6. 前記光検知センサは、前記受光部の受光方向を変化させる駆動部をさらに含み、
    前記制御部は、前記受光部により前記検出光を受光した結果に基づいて、前記受光部の受光範囲が前記画像全体を含むように、前記駆動部により、前記受光部の受光方向を変化させるように構成されている、請求項2〜5のいずれか1項に記載のプロジェクタ。
  7. 前記制御部は、前記受光部により前記検出光を受光した結果に基づいて、前記光検知センサを移動させる方向または位置をユーザに通知する制御を行うように構成されている、請求項2〜6のいずれか1項に記載のプロジェクタ。
JP2013012931A 2013-01-28 2013-01-28 プロジェクタ Pending JP2014145813A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013012931A JP2014145813A (ja) 2013-01-28 2013-01-28 プロジェクタ
US14/149,917 US9335158B2 (en) 2013-01-28 2014-01-08 Projector and projector system
EP14151700.3A EP2759916A3 (en) 2013-01-28 2014-01-20 Projector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013012931A JP2014145813A (ja) 2013-01-28 2013-01-28 プロジェクタ

Publications (1)

Publication Number Publication Date
JP2014145813A true JP2014145813A (ja) 2014-08-14

Family

ID=49955230

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013012931A Pending JP2014145813A (ja) 2013-01-28 2013-01-28 プロジェクタ

Country Status (3)

Country Link
US (1) US9335158B2 (ja)
EP (1) EP2759916A3 (ja)
JP (1) JP2014145813A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107085493A (zh) * 2016-02-16 2017-08-22 中强光电股份有限公司 触控式投影系统及其触控灵敏度的调整方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009123006A (ja) * 2007-11-15 2009-06-04 Funai Electric Co Ltd プロジェクタ
JP2009122482A (ja) * 2007-11-16 2009-06-04 Seiko Epson Corp プロジェクタ
JP2010243808A (ja) * 2009-04-07 2010-10-28 Funai Electric Co Ltd プロジェクタ
US20110243380A1 (en) * 2010-04-01 2011-10-06 Qualcomm Incorporated Computing device interface

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003017188A2 (de) * 2001-08-10 2003-02-27 Siemens Aktiengesellschaft Vorrichtung zur positionserkennung eines zeigeobjektes
US7559656B2 (en) * 2003-03-03 2009-07-14 Panasonic Corporation Projector system
US20120008103A1 (en) * 2006-10-06 2012-01-12 Iglobe Inc. Ray Casting for Coherent Light Internal Projection Systems
JP2009134217A (ja) * 2007-12-03 2009-06-18 Seiko Epson Corp プロジェクタ
JP4666060B2 (ja) * 2008-11-14 2011-04-06 富士ゼロックス株式会社 情報処理装置、情報処理システム及びプログラム
JP2011044978A (ja) 2009-08-24 2011-03-03 Fuji Xerox Co Ltd 撮影システム及び撮影装置
JP5521855B2 (ja) 2009-09-10 2014-06-18 株式会社リコー 投影画像領域検出装置
JP2012108233A (ja) 2010-11-16 2012-06-07 Nikon Corp 電子機器

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009123006A (ja) * 2007-11-15 2009-06-04 Funai Electric Co Ltd プロジェクタ
JP2009122482A (ja) * 2007-11-16 2009-06-04 Seiko Epson Corp プロジェクタ
JP2010243808A (ja) * 2009-04-07 2010-10-28 Funai Electric Co Ltd プロジェクタ
US20110243380A1 (en) * 2010-04-01 2011-10-06 Qualcomm Incorporated Computing device interface

Also Published As

Publication number Publication date
US20140211216A1 (en) 2014-07-31
US9335158B2 (en) 2016-05-10
EP2759916A3 (en) 2016-08-10
EP2759916A2 (en) 2014-07-30

Similar Documents

Publication Publication Date Title
US8038303B2 (en) Projection apparatus and optical ranging method
US9723281B2 (en) Projection apparatus for increasing pixel usage of an adjusted projection area, and projection method and program medium for the same
JP6231541B2 (ja) 画像投影装置
JP2010096574A (ja) レーザレーダ及びレーザレーダによる計測方法
JP2015111772A (ja) 投影装置
JP2014187531A (ja) 投影装置、投影方法及び投影プログラム
US20160156892A1 (en) Information processing device, image projecting system, and computer program
JP2014170149A (ja) プロジェクタ
JP2018164251A (ja) 画像表示装置およびその制御方法
JP2008225079A (ja) 画像表示システム及びボード
US20140246573A1 (en) Electronic device
JP2012018214A (ja) 投写型映像表示装置
JP2007065542A (ja) 画像投写装置
JP5245343B2 (ja) 画像表示装置
JP2010136263A (ja) ヘッドマウントディスプレイ
JP2014145813A (ja) プロジェクタ
JP6197322B2 (ja) 投影装置、画像出力装置、投影方法及び投影プログラム
JP5742379B2 (ja) 投影システムおよび投影方法
KR20150116617A (ko) 영상 왜곡 보정 방법 및 장치
JP6347126B2 (ja) プロジェクター、及び、プロジェクターの制御方法
JP2011069902A (ja) 画像表示装置
JP5125561B2 (ja) 投影装置及び投影制御方法
JP2015053734A (ja) プロジェクター、画像投写システムおよび画像投写方法
JP2014219738A (ja) プロジェクタ
JP2013238891A (ja) プロジェクター、画像投写システムおよび画像投写方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160927

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170509

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20171031