JP2014203212A - 入力装置及び入力方法 - Google Patents

入力装置及び入力方法 Download PDF

Info

Publication number
JP2014203212A
JP2014203212A JP2013077909A JP2013077909A JP2014203212A JP 2014203212 A JP2014203212 A JP 2014203212A JP 2013077909 A JP2013077909 A JP 2013077909A JP 2013077909 A JP2013077909 A JP 2013077909A JP 2014203212 A JP2014203212 A JP 2014203212A
Authority
JP
Japan
Prior art keywords
light
reflected
inclination
laser light
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013077909A
Other languages
English (en)
Inventor
慎太郎 泉川
Shintaro Izumikawa
慎太郎 泉川
謙 西岡
Ken Nishioka
謙 西岡
篤彦 近岡
Atsuhiko Chikaoka
篤彦 近岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Funai Electric Co Ltd
Original Assignee
Funai Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Funai Electric Co Ltd filed Critical Funai Electric Co Ltd
Priority to JP2013077909A priority Critical patent/JP2014203212A/ja
Priority to US14/217,772 priority patent/US20140300583A1/en
Priority to EP20140162046 priority patent/EP2787419A1/en
Publication of JP2014203212A publication Critical patent/JP2014203212A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • G06F3/0423Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen using sweeping light beams, e.g. using rotating or vibrating mirror
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C9/00Measuring inclination, e.g. by clinometers, by levels
    • G01C9/02Details
    • G01C9/06Electric or photoelectric indication or reading means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3129Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] scanning a light beam on the display screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/315Modulator illumination systems
    • H04N9/3161Modulator illumination systems using laser light sources
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • G02B26/10Scanning systems
    • G02B26/101Scanning systems with both horizontal and vertical deflecting means, e.g. raster or XY scanners

Abstract

【課題】レーザ光の行走査方向における投射領域上に位置する物体の傾きを検出することができる仮想的な入力インターフェースを実現する。【解決手段】入力装置は、光源と、レーザ光走査部と、光検出部と、傾き判断部と、を備える。光源はレーザ光を出射し、レーザ光走査部は被投射面上の投射領域に投射されるレーザ光を複数行走査する。光検出部は、投射領域の上方に位置する物体で反射されるレーザ光の反射光を検出する。傾き判断部は、光検出部が反射光を検出するタイミングの変化量に基づいて、レーザ光の行走査方向における被投射面に対する物体の傾きを判断する。【選択図】図1

Description

本発明は、入力装置及び入力方法に関する。
従来、たとえば特許文献1のようなVUI(Virtual User Interface)を用いた入力装置が知られている。このVUIは、投影画像に対してユーザが入力操作を行うことができる仮想的な入力インターフェースである。
たとえば特許文献1では、電子機器の設置面に投影画像を投影するプロジェクタモジュールと、フォトダイオードと、を備える電子機器を開示している。プロジェクタモジュールから設置面に走査レーザ光が投射される。この走査レーザ光は設置面の上方に位置するユーザの指などの物体で反射される。この反射光をフォトダイオードが検出することにより、投影画像に対する物体の位置を得ることができる。
特開2009−258569号公報
しかしながら、従来のVUIを用いた入力装置では、投影画像の被投射面に対する物体の傾きを検出することはできなかった。また、特許文献1においても、物体の傾きを検出する方法について何ら言及していない。
本発明は、このような状況を鑑みてなされたものであり、レーザ光の行走査方向における投射領域の上方に位置する物体の傾きを検出することができる仮想的な入力インターフェースを実現することができる入力装置及び入力方法を提供することを目的とする。
上記目的を達成するために、本発明の一の局面による入力装置は、レーザ光を出射する光源と、被投射面上の投射領域に投射されるレーザ光を複数行走査するレーザ光走査部と、投射領域の上方に位置する物体で反射されるレーザ光の反射光を検出する光検出部と、光検出部が反射光を検出するタイミングの変化量に基づいて、レーザ光の行走査方向における被投射面に対する物体の傾きを判断する傾き判断部と、を備える。
上記構成によれば、レーザ光走査部により複数行走査されるレーザ光が、被投射面上の投射領域に投射され、投射領域の上方に位置する物体で反射される。各反射光が光検出部により検出されるタイミングの変化量に基づいて、レーザ光の行走査方向における被投射面に対する物体の傾きが傾き判定部により判断される。従って、レーザ光の行走査方向における投射領域の上方に位置する物体の傾きを検出することができる仮想的な入力インターフェースを実現できる。
また、本発明の一の局面による入力装置では、傾き判断部は、レーザ光走査部により行走査される第1レーザ光が物体で反射された第1反射光が検出される第1タイミングと、第1レーザ光の以降に行走査される第2レーザ光が物体で反射された第2反射光が検出される第2タイミングとの変化量に基づいて、行走査方向における被投射面に対する物体の傾きを判断してもよい。
この構成によれば、物体で反射された第1及び第2レーザ光の各反射光が検出される各タイミングの変化量に基づいて、行走査方向における被投射面に対する物体の傾きを検出することができる。
また、本発明の一の局面に係る入力装置では、傾き判断部は、物体からの反射光が検出されるタイミングの変化量を複数判断し、複数の変化量に基づいて、行走査方向における被投射面に対する物体の傾きを判断してもよい。
この構成によれば、行走査方向における被投射面に対する物体の傾きをより精度良く算出することができる。
また、本発明の一の局面による入力装置は、VUI機能を有する投影装置であってもよい。
この構成によれば、VUI(Vertual User Interface)機能を有する投影装置を入力装置として用いることができる。
また、上記目的を達成するために、本発明の一の局面による入力方法は、レーザ光が出射されるステップと、被投射面上の投射領域に投射されるレーザ光が複数行走査されるステップと、投射領域の上方に位置する物体で反射されるレーザ光の反射光が検出されるステップと、反射光が検出されるタイミングの変化量に基づいて、レーザ光の行走査方向における被投射面に対する物体の傾きが判断されるステップと、を備える。
上記構成によれば、複数行走査されるレーザ光が、被投射面上の投射領域に投射され、投射領域の上方に位置する物体で反射される。各反射光が検出されるタイミングの変化量に基づいて、レーザ光の行走査方向における被投射面に対する物体の傾きが判断される。従って、レーザ光の行走査方向における投射領域の上方に位置する物体の傾きを検出することができる仮想的な入力インターフェースを実現できる。
本発明によれば、レーザ光の行走査方向における投射領域上に位置する物体の傾きを検出することができる仮想的な入力インターフェースを実現することができる入力装置及び入力方法を提供することができる。
プロジェクタの外観斜視図である。 プロジェクタの構成を示すブロック図である。 走査レーザ光の走査状態を説明するための平面図である。 行走査方向に傾いた物体で走査レーザ光が反射される状況を示す斜視図である。 行走査方向に傾いた物体をy方向から見た図である。 行走査方向に傾いた物体をx方向から見た図である。 行走査方向に傾いた物体からの反射光を検出する光検出部の光検出信号を示すグラフである。 直立する物体で走査レーザ光が反射される状況を示す斜視図である。 直立する物体をy方向から見た図である。 直立する物体をx方向から見た図である。 直立する物体からの反射光を検出する光検出部の光検出信号を示すグラフである。 物体の傾きを判断する方法をフリック入力に応用した例を示す図である。 物体の傾きを判断する方法をジョイスティック入力に応用した例を示す図である。
以下に、図面を参照して、本発明の実施形態を説明する。
プロジェクタ1は、VUI(Vertual User Interface)機能を有するレーザ光走査型の投影装置であり、且つ、VUI機能により入力装置として用いることが可能な電子機器である。なお、VUIは、被投射面Fに投影された投影画像(キーボードの画像など)に対してユーザが操作入力をおこなうことができる仮想的な入力インターフェースである。
図1は、プロジェクタの外観斜視図である。なお、以下では、図1に限らず、被投射面Fに投射される走査レーザ光Rの行走査方向をx方向とする。また、行走査方向に垂直な方向をy方向とする。x方向及びy方向は被投射面Fと平行である。また、被投射面Fの法線方向をz方向とする。x方向、y方向、及びz方向はそれぞれ直交する。
図1に示すように、レーザ光走査型のプロジェクタ1は、光出射面10aから出射される複数行の走査レーザ光Rを被投射面Fに投射することにより、被投射面F上の投射領域A内に所定の投影画像(たとえば静止画像、動画像など)を投影する。
また、投射領域Aの上方に物体O(たとえば、タッチペン、ユーザの指など)がある場合、走査レーザ光Rはこの物体Oで反射される。その反射光rはプロジェクタ1の光入射面10bに入射する。プロジェクタ1は、投射領域Aの上方に位置する物体Oで反射された走査レーザ光Rの反射光rの検出結果に基づいて、投射領域Aに対する物体Oの相対的な位置を検出する。
ここで、被投射面Fに対して物体Oが行走査方向(x方向)にθx(0°≦θx<90°)傾いている場合、走査レーザ光Rが物体Oで反射されるタイミングは何行目の走査レーザ光Rであるのかによって変化する。たとえば、後述するように、n行目(nは1以上の正の整数)の走査レーザ光Rnと(n+1)行目の走査レーザ光Rn+1とでは、物体Oで反射されるタイミングは異なる。そのため、物体Oからの反射光rがプロジェクタ1の光入射面10bに入射するタイミング及び反射光rの検出タイミングも、何行目の走査レーザ光Rの反射光rであるかに応じて変化する。プロジェクタ1は、このような物体Oからの反射光rの検出タイミングのずれ(変化量)に基づいて、被投射面Fに対する物体Oの行走査方向の傾きθxを検出する。なお、この物体Oの行走査方向の傾きθxを判断する方法については、後に詳述する。
次に、プロジェクタ1の構成について説明する。図2は、プロジェクタの構成を示すブロック図である。図2に示すように、プロジェクタ1は、筐体10と、記憶部11と、CPU12と、画像データ処理部13と、レーザ光駆動部14と、レーザダイオード15と、コリメータレンズ16a〜16cと、ビームスプリッタ17a〜17cと、を備えている。さらに、プロジェクタ1は、MEMSミラー18と、アクチュエータ19と、ミラーサーボ部20と、反射ミラー21と、光検出部22と、インターフェース部23と、入力部24と、を備えている。なお、以下では、レーザダイオードをLDと呼ぶ。また、レーザ光駆動部14は、赤色レーザ光駆動部14aと、緑色レーザ光駆動部14bと、青色レーザ光駆動部14cと、を含んで構成される。また、LD15は、赤色LD15aと、緑色LD15bと、青色LD15cと、を含んで構成される。
記憶部11は、不揮発性の記憶媒体であり、CPU12などにより用いられるプログラム及び制御情報を格納している。このほか、記憶部11は、たとえば投射領域Aに投影される投影画像の画像データなども格納している。なお、記憶部11は、図2ではCPU12とは別の構成部となっているが、この例に限定されず、CPU12に含まれていてもよい。
CPU12は、記憶部11に格納されたプログラム及び制御情報などを用いて、プロジェクタ1の各部を制御する制御部である。このCPU12は、位置判断部121と、傾き判断部122と、を有している。
位置判断部121は、光検出部22の検出結果に基づいて、投射領域Aに対する物体Oの相対的な位置を判断する。この相対的な位置は、たとえば物体Oで反射される走査レーザ光Rの反射光rを光検出部22が検出した結果に基づいて算出される。
傾き判断部122は、光検出部22が物体Oからの反射光rを検出するタイミングのずれ(変化量)に基づいて、走査レーザ光Rの行走査方向(x方向)における被投射面Fに対する物体Oの傾きθx(図1参照)を判断する。
画像データ処理部13は、CPU12から出力される画像データを赤色(R)、緑色(G)、青色(B)の3色のデータに変換する。変換された3色のデータはレーザ光駆動部14に出力される。
レーザ光駆動部14は、LD15の駆動制御を行う制御回路部である。赤色レーザ光駆動部14aは赤色LD15aの発光及び光出力などの駆動制御を行なう。緑色レーザ光駆動部14bは緑色LD15bの発光及び光出力などの駆動制御を行なう。青色レーザ光駆動部14cは青色LD15cの発光及び光出力などの駆動制御を行なう。
LD15は、可視光域の波長のレーザ光を出射する光源である。赤色LD15aは赤色レーザ光を出射する発光素子である。緑色LD15bは緑色レーザ光を出射する発光素子である。青色LD15cは青色レーザ光を出射する発光素子である。
MEMSミラー18は、LD15からコリメータレンズ16a〜16c及びビームスプリッタ17a〜17cを経て入射する各レーザ光を反射する光学反射素子である。アクチュエータ19は、MEMSミラー18を駆動して、各レーザ光の反射方向を2軸方向に変化させる駆動部である。ミラーサーボ部20は、CPU12から入力される制御信号に基づいて、アクチュエータ19によるMEMSミラー18の駆動を制御する駆動制御部である。なお、MEMSミラー18、アクチュエータ19、及びミラーサーボ部20は、被投射面Fに投射される走査レーザ光Rを複数行走査するレーザ光走査部の一例である。
反射ミラー21は、筐体10の外部に設けられたレーザ光反射部である。反射ミラー21は、筐体10に形成される光出射面10aを通過して筐体10の外部に出射される走査レーザ光Rを反射し、被投射面Fに導く。なお、反射ミラー21は、筐体10に対して可動に設けられており、走査レーザ光Rの光路から外すことも可能である。
図2に示すように、赤色LD15aから出射される赤色レーザ光は、コリメータレンズ16aにより平行光に変換され、ビームスプリッタ17aで反射される。反射された赤色レーザ光は、ビームスプリッタ17b、17cを透過して、MEMSミラー18に至る。また、緑色LD15bから出射される緑色レーザ光は、コリメータレンズ16bにより平行光に変換され、ビームスプリッタ17bで反射される。反射された緑色レーザ光は、ビームスプリッタ17cを透過して、MEMSミラー18に至る。また、青色LD15cから出射される青色レーザ光は、コリメータレンズ16cにより平行光に変換され、ビームスプリッタ17cで反射され、MEMSミラー18に至る。MEMSミラー18では、アクチュエータ19の駆動によって反射方向が変化することにより、各レーザ光が走査レーザ光Rとして反射される。この走査レーザ光Rは、光出射面10aを通過して筐体10の外部の反射ミラー21で反射され、被投射面Fに投射される。
また、光検出部22は、たとえば受光素子などを含んで構成され、筐体10に形成される光入射面10bを通過して入射する光を検出する。光検出部22は、たとえば、投射領域Aの上方に位置する物体Oで反射された走査レーザ光Rの反射光rなどを検出し、その検出結果に基づく光検出信号をCPU12に出力する。
インターフェース部23は外部装置と有線通信又は無線通信するための通信インターフェースである。入力部24は、ユーザの操作入力を受け付ける入力ユニットである。
次に、投射領域Aに投射される走査レーザ光Rの走査状態について説明する。図3は、走査レーザ光の走査状態を説明するための平面図である。図3に示すように、走査レーザ光Rは、全て同じ行走査時間T(後述する図5及び図7参照)で、投射領域Aの一方の端縁(たとえば図3の左端)から他方の端縁(たとえば図3の右端)に向かってx方向に行走査される。1行の行走査により、被投射面F上の投射領域A内に1行の走査線Raが投影される。また、各行の走査レーザ光Rは、投射領域Aのプロジェクタ1に近い側の端縁(たとえば図3の上端)からプロジェクタ1から遠い側の端縁(たとえば図3の下端)に向かって、y方向に所定の距離ずつずれて行走査される。これらの複数行の走査線Raが投影されることにより、投射領域Aに1フレームの投影画像が形成される。
次に、傾き判断部122が、投射領域Aの上方に位置する物体Oの行走査方向の傾きθxを判断する方法を説明する。
<物体Oが傾いている場合>
まず、投射領域Aの上方に位置する物体Oが、被投射面Fに対して行走査方向(x方向)にθx傾いている場合(すなわちθxが90°ではない場合)について説明する。図4Aは、行走査方向に傾いた物体で走査レーザ光が反射される状況を示す斜視図である。図4Bは、行走査方向に傾いた物体をy方向から見た図である。図4Cは、行走査方向に傾いた物体をx方向から見た図である。また、図5は、行走査方向に傾いた物体からの反射光を検出する光検出部の光検出信号を示すグラフである。なお、図5において、水平同期信号は1行分の走査レーザ光Rを行走査するために、CPU12から出力される制御信号である。水平同期信号がハイレベルHとなる期間Tは1行分の走査レーザ光Rの行走査時間を示している。また、t0は、水平同期信号がロウレベルLからハイレベルHとなる時点であり、1行分の走査レーザ光Rの行走査が開始される時点を示している。
図4A〜図4Cに示すように、n〜(n+2)行目(但し、nは1以上の正の整数)の走査レーザ光Rn〜Rn+2は、その行走査の途中で、物体Oの各反射開始点Pn、Pn+1、Pn+2にて反射される。なお、図4Bに示すように、各反射開始点Pn、Pn+1、Pn+2は、z方向に距離mずつ離れている。ここで、各反射開始点Pn、Pn+1、Pn+2のx方向の位置は異なるため、各反射開始点Pn、Pn+1、Pn+2で反射されるタイミングも異なる。たとえば、反射開始点Pn+1で反射されるタイミングは、反射開始点Pnで反射されるタイミングよりも遅くなる。また、反射開始点Pn+2で反射されるタイミングは、反射開始点Pn+1で反射されるタイミングよりも遅くなる。
そのため、図5に示すように、n〜(n+2)行目の反射光rn〜rn+2の光検出信号には、それぞれ異なる時点ta,tb,tcでピークが現れ始める。時点taで現れるピークは、物体Oの反射開始点Pnで反射されたn行目の走査レーザ光Rnの反射光rnの検出結果に対応している。時点tbで現れるピークは、物体Oの反射開始点Pn+1で反射された(n+1)行目の走査レーザ光Rn+1の反射光rn+1の検出結果に対応している。時点tcで現れるピークは、物体Oの反射開始点Pn+2で反射された(n+2)行目の走査レーザ光Rn+2の反射光rn+2の検出結果に対応している。
すなわち、光検出部22では、物体Oで反射される(n+1)行目の反射光rn+1は、n行目の反射光rnよりも(tb−ta)遅れたタイミングで検出される。また、物体Oで反射される(n+2)行目の反射光rn+2は、(n+1)行目の反射光rn+1よりも(tc−tb)遅れたタイミングで検出される。
傾き判断部122は、たとえば(n+1)行目の反射光rn+1での光検出信号における検出タイミングのずれ(tb−ta)に基づき、次の数式1を用いて、物体Oの行走査方向(x方向)の傾きθxを判断する。
θx=tan-1[m/{(Ln+1/T)*(tb−ta)}] (数式1)
但し、数式1において、mは反射開始点Pn及びPn+1の間隔(z方向の最短距離)を示している。Ln+1は、(n+1)行目の走査レーザ光Rn+1の行走査距離(すなわちx方向の投影距離)を示している。Tは、1行分の走査レーザ光Rの行走査時間(図5参照)を示している。
<物体Oが直立している場合>
次に、投射領域Aの上方に位置する物体Oが被投射面Fに対して直立している場合について説明する。この場合、被投射面Fに対する物体Oの行走査方向(x方向)の角度θxは90°となっている。図6Aは、直立する物体で走査レーザ光が反射される状況を示す斜視図である。図6Bは、直立する物体をy方向から見た図である。図6Cは、直立する物体をx方向から見た図である。また、図7は、直立する物体からの反射光を検出する光検出部の光検出信号を示すグラフである。なお、図7において、水平同期信号は1行分の走査レーザ光Rを行走査するために、CPU12から出力される制御信号である。水平同期信号がハイレベルとなる期間Tは1行分の走査レーザ光Rの行走査時間を示している。また、t0は水平同期信号がロウレベルLからハイレベルHになる時点であり、1行分の走査レーザ光Rの行走査が開始される時点を示している。
図6A〜図6Cに示すように、n〜(n+2)行目(但し、nは1以上の正の整数)の走査レーザ光Rn〜Rn+2は、その行走査の途中で物体Oの各反射開始点Qn、Qn+1、Qn+2にて反射される。図6Bに示すように、各反射開始点Qn、Qn+1、Qn+2は、z方向に距離mずつ離れている。ここで、物体Oは被投射面Fに対して直立しているため、各反射開始点Qn、Qn+1、Qn+2のx方向の位置はほぼ同じとなる。従って、各反射開始点Qn、Qn+1、Qn+2で反射されるタイミングもほぼ同じとなる。
よって、図7に示すように、n〜(n+2)行目の反射光rn〜rn+2の光検出信号には、ほぼ同じ時点trでピークが現れ始める。これらのピークは、物体Oの反射開始点Qn、Qn+1、Qn+2で反射されたn〜(n+2)行目の走査レーザ光Rn〜Rn+2の反射光rn〜rn+2の検出結果に対応している。
この場合、各光検出信号における検出タイミングのずれ(変化量)は0であるため、傾き判断部122は、上述の数式1に基づいて、行走査方向の物体Oの傾きθxを90°と判断する。
なお、上述の傾きθxを判断する方法では、1つの検出タイミングのずれ(変化量)に基づいて傾きθxを算出したが、傾きθxは複数の検出タイミングのずれに基づいて算出されることが望ましい。こうすれば、行走査方向の物体Oの傾きθxをより精度良く算出することができる。
また、上述の傾きθxを判断する方法では、n〜(n+2)行の反射光rn〜rn+2の検出が開始される時点ta〜tc(図5参照)及びtr(図7参照)で検出タイミングを求めているが、本発明の適用範囲はこの例示に限定されない。検出が終了する時点(図5及び図7にて各光検出信号のピークが消える時点)で検出タイミングを求めてもよい。或いは、検出開始から検出終了までの所定の時点(たとえばそれらの中間の時点)で検出タイミングを求めてもよい。
次に、本実施形態の応用例について説明する。図8Aは、物体の傾きを判断する方法をフリック入力に応用した例を示す図である。図8Aに示すように、投射領域Aには、「あ」を入力するためのキーを示す投影画像K1が投影されている。たとえば、タッチペンなどの物体Oを「あ」を示す投影キーK1の上に置き、さらに、物体Oをx方向(図8Aの左方向又は右方向)に傾ける。すると、「あ」を示す投影キーK1の左側に「い」、「う」を示す投影キーK2、K3が新たに投影され、右側に「え」、「お」を示す投影キーK4、K5が新たに投影される。
この状態において、ユーザが物体Oを入力したい投影キー(たとえば投影キーK2)の上に移動させると、たとえば、その投影キーが示す文字(たとえば「い」)が選択入力される。或いは、新たに投影キーK2〜K5が表示された状態において、物体Oの傾き方向及び傾きθxの大きさに応じて投影キーが選択されてもよい。なお、物体Oを移動させずにタッチペンを投射領域Aから離すと、「あ」を示す投影キーK1が選択入力される。
また、本実施形態の他の応用例について説明する。図8Bは、物体の傾きを判断する方法をジョイスティック入力に応用した例を示す図である。図8Bに示すように、投射領域AにはサークルSが表示されている。このサークルSの表示領域上に物体Oを置くと、物体Oを仮想的なジョイスティックとして機能させることができる。たとえば、物体Oを図8Bの左側に傾けると、傾きθxに応じた大きさの左入力操作が選択入力される。また、物体Oを図8Bの右側に傾けると、傾きθxに応じた大きさの右入力操作が選択入力される。
以上、本実施形態の一の局面によるプロジェクタ1は、LD15と、レーザ光走査部(たとえばMEMSミラー18、アクチュエータ19、及びミラーサーボ部20)と、光検出部22と、傾き判断部122と、を備える。LD15はレーザ光を出射し、レーザ光走査部は、被投射面F上の投射領域Aに投射されるレーザ光を複数行走査する。光検出部22は、投射領域Aの上方に位置する物体Oで反射される走査レーザ光Rの反射光rを検出する。傾き判断部122は、光検出部22が反射光rを検出するタイミング(たとえばta、tb、tc、trなど)の変化量に基づいて、走査レーザ光Rの行走査方向(x方向)における被投射面Fに対する物体Oの傾きθxを判断する。
このプロジェクタ1によれば、レーザ光走査部(たとえば反射ミラー21、アクチュエータ19、及びミラーサーボ部20)により複数行走査されるレーザ光が、被投射面F上の投射領域Aに投射され、投射領域Aの上方に位置する物体Oで反射される。各反射光rが光検出部22により検出されるタイミング(たとえばta、tb、tc、trなど)の変化量に基づいて、走査レーザ光Rの行走査方向(x方向)における被投射面Fに対する物体Oの傾きθxが傾き判定部122により判断される。従って、走査レーザ光Rの行走査方向(x方向)における投射領域Aの上方に位置する物体Oの傾きθxを検出することができる仮想的な入力インターフェースを実現できる。
また、本実施形態の一の局面によるプロジェクタ1では、傾き判断部122は、たとえば、タイミングtaと、タイミングtbとの変化量(ta−tb)に基づいて、行走査方向(x方向)における被投射面Fに対する物体Oの傾きθxを判断する。タイミングtaでは、レーザ光走査部(たとえば反射ミラー21、アクチュエータ19、及びミラーサーボ部20)により行走査されるn行目の走査レーザ光Rnが物体Oで反射された反射光rnが検出される。また、タイミングtbでは、n行目の走査レーザ光Rnの以降に行走査される(n+1)行目の走査レーザ光Rn+1が物体Oで反射された反射光rn+1が検出される。
こうすれば、各タイミングta、tbの変化量(tb−ta)に基づいて、行走査方向(x方向)における被投射面Fに対する物体Oの傾きθxを検出することができる。なお、各タイミングta、tbでは、物体Oで反射されたn行目及び(n+1)行目の走査レーザ光Rn、Rn+1の各反射光rn、rn+1が検出される。
また、本実施形態の一の局面によるプロジェクタ1では、傾き判断部122は、物体Oからの反射光rが検出されるタイミング(たとえばta、tb、tc、trなど)の変化量(たとえば(tb−ta)、(tc−tb)など)を複数判断する。そして、傾き判断部122は、複数の変化量に基づいて、行走査方向(x方向)における被投射面Fに対する物体Oの傾きθxを判断することが望ましい。
こうすれば、行走査方向(x方向)における被投射面Fに対する物体Oの傾きθxをより精度良く算出することができる。
また、本実施形態の一の局面によれば、VUI機能を有するプロジェクタ1は入力装置である。
こうすれば、VUI(Vertual User Interface)機能を有するプロジェクタ1を入力装置として用いることができる。
また、本実施形態の一の局面による物体Oの傾きθxの入力方法は、以下のステップを備える。まず、レーザ光が出射され、被投射面Fに投射されるレーザ光が複数行走査される。投射領域Aの上方に位置する物体Oで反射される走査レーザ光Rの反射光rが検出される。反射光rが検出されるタイミング(たとえばta,tb,tcなど)の変化量に基づいて、走査レーザ光Rの行走査方向(x方向)における被投射面Fに対する物体Oの傾きθxが判断される。
この入力方法によれば、複数行走査されるレーザ光が、被投射面F上の投射領域Aに投射され、投射領域Aの上方に位置する物体Oで反射される。各反射光rが検出されるタイミング(たとえばta、tb、tc、trなど)の変化量に基づいて、走査レーザ光Rの行走査方向(x方向)における被投射面Fに対する物体Oの傾きθxが判断される。従って、走査レーザ光Rの行走査方向(x方向)における投射領域Aの上方に位置する物体Oの傾きθxを検出することができる仮想的な入力インターフェースを実現できる。
以上、本発明の実施形態について説明した。なお、上述の実施形態は例示であり、その各構成要素や各処理の組み合わせに色々な変形が可能であり、本発明の範囲にあることは当業者に理解されるところである。
たとえば、上述の実施形態では、位置判断部121及び傾き判断部122は、CPU12の機能部として実現されているが、本発明の適用範囲はこの例示に限定されない。位置判断部121及び傾き判断部122はそれぞれ、CPU12とは別の電子回路部により実現されていてもよい。
また、上述の実施形態では、プロジェクタ1は反射ミラー21を備えているが、本発明の適用範囲はこの例示に限定されない。プロジェクタ1は反射ミラー21を備えていなくてもよい。この場合、光出射面10aから出射される走査レーザ光Rは直接に被投射面Fへと投射される。
また、上述の実施形態では、連続して行走査される2つの走査レーザ光Rの反射光r(たとえば反射光rn及びrn+1)に基づいて、物体Oの傾きθxを判断しているが、本発明の適用範囲はこの例に限定されない。ある行の走査レーザ光Rの反射光rと、その複数行後の走査レーザ光Rの反射光rとに基づいて傾きθxが判断されてもよい。たとえば、n及び(n+2)行目の反射光rn、rn+2での光検出信号における検出タイミングのずれ(tc−ta)に基づき、上述の数式1を用いて、物体Oの行走査方向(x方向)の傾きθxが判断されてもよい。なお、この場合には、反射開始点Pn及びPn+2の間隔2mと、(n+2)行目の走査レーザ光Rn+2の行走査距離Ln+2とが数式1に用いられることは言うまでもない。こうすれば、行走査方向(x方向)における被投射面Fに対する物体Oの傾きθxを、数式1を用いて、より精度良く算出することができる。
また、上述の実施形態では、LD15は可視光域の波長のレーザ光を出射するが、本発明の適用範囲はこの構成に限定されない。LD15は、可視光域以外の波長のレーザ光(たとえば、赤外光、紫外光など)を出射してもよい。
1 プロジェクタ
10 筐体
10a 光出射面
10b 光入射面
11 記憶部
12 CPU
121 位置判断部
122 傾き判断部
13 画像データ処理部
14 レーザ光駆動部
14a 赤色レーザ光駆動部
14b 緑色レーザ光駆動部
14c 青色レーザ光駆動部
15 レーザダイオード(LD)
15a 赤色LD
15b 緑色LD
15c 青色LD
16a〜16c コリメータレンズ
17a〜17c ビームスプリッタ
18 MEMSミラー
19 アクチュエータ
20 ミラーサーボ部
21 反射ミラー
22 光検出部
23 インターフェース部
24 入力部
F 被投射面
A 投射領域
O 物体
R 走査レーザ光
Ra 走査線
r 反射光

Claims (5)

  1. レーザ光を出射する光源と、
    被投射面上の投射領域に投射される前記レーザ光を複数行走査するレーザ光走査部と、
    前記投射領域の上方に位置する物体で反射される前記レーザ光の反射光を検出する光検出部と、
    前記光検出部が前記反射光を検出するタイミングの変化量に基づいて、前記レーザ光の行走査方向における前記被投射面に対する前記物体の傾きを判断する傾き判断部と、
    を備えることを特徴とする入力装置。
  2. 前記傾き判断部は、前記レーザ光走査部により行走査される第1レーザ光が前記物体で反射された第1反射光が検出される第1タイミングと、前記第1レーザ光の以降に行走査される第2レーザ光が前記物体で反射された第2反射光が検出される第2タイミングとの変化量に基づいて、前記行走査方向における前記被投射面に対する前記物体の傾きを判断することを特徴とする請求項1に記載の入力装置。
  3. 前記傾き判断部は、前記物体からの前記反射光が検出される前記タイミングの前記変化量を複数判断し、複数の前記変化量に基づいて、前記行走査方向における前記被投射面に対する前記物体の傾きを判断することを特徴とする請求項1または請求項2に記載の入力装置。
  4. VUI機能を有する投影装置であることを特徴とする請求項1〜請求項3のいずれかに記載の入力装置。
  5. レーザ光が出射されるステップと、
    被投射面上の投射領域に投射される前記レーザ光が複数行走査されるステップと、
    前記投射領域の上方に位置する物体で反射される前記レーザ光の反射光が検出されるステップと、
    前記反射光が検出されるタイミングの変化量に基づいて、前記レーザ光の行走査方向における前記被投射面に対する前記物体の傾きが判断されるステップと、
    を備えることを特徴とする入力方法。
JP2013077909A 2013-04-03 2013-04-03 入力装置及び入力方法 Pending JP2014203212A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013077909A JP2014203212A (ja) 2013-04-03 2013-04-03 入力装置及び入力方法
US14/217,772 US20140300583A1 (en) 2013-04-03 2014-03-18 Input device and input method
EP20140162046 EP2787419A1 (en) 2013-04-03 2014-03-27 Input device and input method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013077909A JP2014203212A (ja) 2013-04-03 2013-04-03 入力装置及び入力方法

Publications (1)

Publication Number Publication Date
JP2014203212A true JP2014203212A (ja) 2014-10-27

Family

ID=50486758

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013077909A Pending JP2014203212A (ja) 2013-04-03 2013-04-03 入力装置及び入力方法

Country Status (3)

Country Link
US (1) US20140300583A1 (ja)
EP (1) EP2787419A1 (ja)
JP (1) JP2014203212A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015001729A (ja) * 2013-06-18 2015-01-05 船井電機株式会社 プロジェクタ

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10650621B1 (en) 2016-09-13 2020-05-12 Iocurrents, Inc. Interfacing with a vehicular controller area network

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3114000C2 (de) * 1981-04-07 1983-04-28 Precitronic Gesellschaft für Feinmechanik und Electronic mbH, 2000 Hamburg Schießsimulations- und -übungsverfahren für ballistische Munition und bewegliche Ziele
US4520360A (en) * 1982-09-20 1985-05-28 General Signal Corporation Sensing vertical and horizontal visibility
US5786804A (en) * 1995-10-06 1998-07-28 Hewlett-Packard Company Method and system for tracking attitude
TW409183B (en) * 1997-06-25 2000-10-21 Hosokawa Micron Kk The method and the device for measuring the inclination angle of powder/grain material stack
JP4517601B2 (ja) * 2003-07-09 2010-08-04 ソニー株式会社 投射型画像表示装置
US7110100B2 (en) * 2003-11-04 2006-09-19 Electronic Scripting Products, Inc. Apparatus and method for determining an inclination of an elongate object contacting a plane surface
KR100791389B1 (ko) * 2006-12-26 2008-01-07 삼성전자주식회사 스트럭쳐드 라이트를 이용한 거리 측정 장치 및 방법
JP2009180821A (ja) * 2008-01-29 2009-08-13 Funai Electric Co Ltd レーザプロジェクタ
JP5277703B2 (ja) 2008-04-21 2013-08-28 株式会社リコー 電子機器
US20110267262A1 (en) * 2010-04-30 2011-11-03 Jacques Gollier Laser Scanning Projector Device for Interactive Screen Applications
US20120062518A1 (en) * 2010-09-09 2012-03-15 Light Blue Optics Ltd Touch Sensing Systems
JP2013065061A (ja) * 2011-09-15 2013-04-11 Funai Electric Co Ltd プロジェクタ

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015001729A (ja) * 2013-06-18 2015-01-05 船井電機株式会社 プロジェクタ

Also Published As

Publication number Publication date
US20140300583A1 (en) 2014-10-09
EP2787419A1 (en) 2014-10-08

Similar Documents

Publication Publication Date Title
JP5510155B2 (ja) プロジェクタ
US20130070232A1 (en) Projector
US20130127716A1 (en) Projector
US8184101B2 (en) Detecting touch on a surface via a scanning laser
JP5971053B2 (ja) 位置検出装置及び画像表示装置
US20150054792A1 (en) Projector
US10481739B2 (en) Optical steering of component wavelengths of a multi-wavelength beam to enable interactivity
JP2013061598A (ja) プロジェクタおよびプロジェクタ機能を有する電子機器
US20140300870A1 (en) Image projection device and input object detection method
US20150116276A1 (en) Projector
JP6102330B2 (ja) プロジェクタ
JP2014203212A (ja) 入力装置及び入力方法
US20150185321A1 (en) Image Display Device
JP6051551B2 (ja) 測距装置及び入力装置
US9405407B2 (en) Projector
US9606637B2 (en) Projector and electronic device having projector function
JP2014123170A (ja) 位置判定装置及び位置判定方法
US20140354599A1 (en) Manipulation input device, manipulation input system, and manipulation input method
JP6168174B2 (ja) プロジェクタ
JP2014120009A (ja) 位置判定装置及び入力装置
US20140354598A1 (en) Manipulation input device, manipulation input system, and manipulation input method
JP2016192799A (ja) 位置検出装置及び画像表示装置
JP2014120010A (ja) 入力装置及び画像表示装置
JP2014123167A (ja) 入力装置及び入力判定方法
JP2015025831A (ja) プロジェクタ

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20150323