JP7287222B2 - プロジェクター、及びプロジェクターの制御方法 - Google Patents

プロジェクター、及びプロジェクターの制御方法 Download PDF

Info

Publication number
JP7287222B2
JP7287222B2 JP2019178865A JP2019178865A JP7287222B2 JP 7287222 B2 JP7287222 B2 JP 7287222B2 JP 2019178865 A JP2019178865 A JP 2019178865A JP 2019178865 A JP2019178865 A JP 2019178865A JP 7287222 B2 JP7287222 B2 JP 7287222B2
Authority
JP
Japan
Prior art keywords
detection
light
projection surface
projection
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019178865A
Other languages
English (en)
Other versions
JP2021056747A5 (ja
JP2021056747A (ja
Inventor
尊洋 阿野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2019178865A priority Critical patent/JP7287222B2/ja
Priority to CN202011039925.9A priority patent/CN112578613B/zh
Priority to US17/036,585 priority patent/US11249594B2/en
Publication of JP2021056747A publication Critical patent/JP2021056747A/ja
Publication of JP2021056747A5 publication Critical patent/JP2021056747A5/ja
Application granted granted Critical
Publication of JP7287222B2 publication Critical patent/JP7287222B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/142Adjusting of projection optics
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/08Mirrors
    • G02B5/09Multifaceted or polygonal mirrors, e.g. polygonal scanning mirrors; Fresnel mirrors
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/48Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
    • G03B17/54Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus with projector
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/26Projecting separately subsidiary matter simultaneously with main image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、プロジェクター、及びプロジェクターの制御方法に関する。
従来、検出光を照射して、投射面に対する指示体の操作を検出するプロジェクターが知られている。このような指示体の操作を検出するプロジェクターでは、操作の検出精度を向上させる技術が提案されている。特許文献1は、指示体の操作を検出するタッチパネルを備え、タッチパネルの額縁近傍にユーザーの手が近接したことを検出し、額縁近傍へのユーザーの手の近接が検出されたタイミングで、タッチ検出領域を変更する操作入力装置を開示する。
特開2013-191109号公報
検出光を利用して指示体の操作を検出するプロジェクターでは、検出光の照射方向を、投射面に適した方向に調整していないと、指示体の操作を誤検出する場合があった。
上記課題を解決する一態様は、投射面に画像を投射する投射部と、前記投射面に対応する方向に検出光を照射する検出光照射部と、前記投射面に対する前記検出光の方向を調整する調整部と、前記検出光の反射光を検出することにより前記投射面に対する操作を検出する検出部と、前記反射光の検出状態が特定の状態に該当するか否かを判定し、判定結果に基づいて、前記調整部により前記検出光の方向を調整させる制御部と、を備えるプロジェクターである。
上記プロジェクターにおいて、前記検出光照射部は、前記検出光を前記投射面に沿う方向に照射し、前記検出部は、前記投射面に接触又は近接する指示体に反射する前記反射光を検出し、前記制御部は、前記調整部を制御して、前記反射光の検出状態が前記特定の状態に該当すると判定した場合に、前記投射面と前記検出光との角度を調整する構成であってもよい。
上記プロジェクターにおいて、前記制御部は、前記投射面と前記検出光との角度を調整した場合においても、前記反射光の検出状態が前記特定の状態に該当すると判定した場合に、前記投射面における画像の投射範囲を調整する構成であってもよい。
上記プロジェクターにおいて、前記制御部は、前記投射面における画像の投射範囲を調整にした場合においても、前記反射光の検出状態が前記特定の状態に該当すると判定した場合に、前記投射面に投射する画像を編集する構成であってもよい。
上記プロジェクターにおいて、前記制御部は、前記投射範囲の位置及びサイズのいずれか1以上を調整して、前記投射範囲を調整する構成であってもよい。
上記プロジェクターにおいて、前記制御部は、前記反射光の検出状態が前記特定の状態
に該当する判定した場合、前記投射面に対する前記検出光の方向を調整できるか否かを
判定し、前記検出光の方向を調整できないと判定した場合に、前記投射面における画像の
投射範囲を調整する構成であってもよい。

上記プロジェクターにおいて、前記制御部は、前記反射光の検出状態が前記特定の状態
に該当する判定した場合、前記投射面に対する前記検出光の方向を調整できるか否かを
判定し、前記検出光の方向を調整できないと判定した場合に、前記投射面に画像を投射す
る投射範囲の位置及びサイズのいずれか1以上を調整する構成であってもよい。

上記プロジェクターにおいて、前記制御部は、前記検出光の方向を調整できないと判定した場合に、前記投射面に投射する画像を編集する構成であってもよい。
上記課題を解決する別の一態様は、画像が投射される投射面に対応する方向に検出光を
照射し、前記検出光の反射光を検出することにより前記投射面に対する操作を検出し、前
記反射光の検出状態が特定の状態に該当するか否かを判定し、判定結果に基づき、前記投
射面に対する前記検出光の方向を調整する、プロジェクターの制御方法である。

上記プロジェクターの制御方法において、前記検出光を前記投射面に沿う方向に照射し
、前記投射面に接触又は近接する指示体に反射する前記反射光を検出し、前記反射光の検
出状態が前記特定の状態に該当すると判定した場合に、前記投射面と前記検出光との角度
を調整する構成であってもよい。

上記プロジェクターの制御方法において、前記投射面と前記検出光との角度を調整した場合においても、前記反射光の検出状態が前記特定の状態に該当すると判定した場合に、前記投射面における画像の投射範囲を調整する構成であってもよい。
上記プロジェクターの制御方法において、前記投射面における画像の投射範囲を調整にした場合においても、前記反射光の検出状態が前記特定の状態に該当すると判定した場合に、前記投射面に投射する画像を編集する構成であってもよい。
上記プロジェクターの制御方法において、前記投射範囲の位置及びサイズのいずれか1以上を調整して、前記投射範囲を調整する構成であってもよい。
上記プロジェクターの制御方法において、前記反射光の検出状態が前記特定の状態に該
当する判定した場合、前記投射面に対する前記検出光の方向を調整できるか否かを判定
し、前記検出光の方向を調整できないと判定した場合に、前記投射面における画像の投射
範囲を調整する構成であってもよい。

上記プロジェクターの制御方法において、前記反射光の検出状態が前記特定の状態に該
当する判定した場合、前記投射面に対する前記検出光の方向を調整できるか否かを判定
し、前記検出光の方向を調整できないと判定した場合に、前記投射面に画像を投射する投
射範囲の位置及びサイズのいずれか1以上を調整する構成であってもよい。

上記プロジェクターの制御方法において、前記検出光の方向を調整できないと判定した場合に、前記投射面に投射する画像を編集する構成であってもよい。
プロジェクターの構成図。 プロジェクターの設置状態を示す側面図。 プロジェクターの設置状態を示す側面図。 判定領域を示す図。 ホワイトボードのフレームに検出光が照射された状態を示す図。 表示画面の一例を示す図。 表示画面の一例を示す図。 投射領域のサイズを変更前と変更後の判定領域の位置を示す図。 プロジェクターの動作を示すフローチャート。
以下、本発明の実施形態について図面を参照しながら説明する。なお、図面において各部の寸法及び縮尺は、実際のものと異なる。また、以下に記載する実施の形態は、本発明の好適な具体例である。このため、以下で説明する本実施形態では、技術的に好ましい種々の限定が付されている。しかしながら、本発明の範囲は、以下の説明において特に本発明を限定する旨の記載がない限り、これらの形態に限られるものではない。
図1は、プロジェクター1の構成図である。
本実施形態のプロジェクター1は、インタラクティブ機能を備える。インタラクティブ機能とは、投射面上で操作される指示体の位置を検出し、検出結果に基づいて、指示体の位置や軌跡に対応した画像を表示させたり、表示させた画像を変更したりする機能である。指示体には、例えば、使用者の指や、ペン、指示棒等が利用される。以下では、指示体を投射面3に接触又は近接させながら行う操作をタッチ操作という。
プロジェクター1は、画像光PLを投射する画像投射部100と、タッチ操作の検出に用いる検出光Lを投射面3に対応する方向に照射する検出光照射部200とを備える。
画像投射部100及び検出光照射部200は、例えば、室内の天井や壁等に設置される。画像投射部100は、画像データに基づいて画像光PLを生成し、生成した画像光PLを、斜め下方向の投射面3に向けて投射する。後述する図2や図3には、投射面3がスクリーンである場合を示すが、投射面3は、室内の壁面や、ホワイトボード、黒板等を利用することができる。画像投射部100によって画像光PLが投射される投射面3の領域を投射領域PAという。投射領域PAは、本発明の「投射範囲」に対応する。画像投射部100は、投射面3内に収まるように画像光PLを投射する。
検出光照射部200は、投射面3の表面に沿って層状又はカーテン状の検出光Lを照射する。検出光照射部200が照射する検出光Lは、投射面3の全体をカバーする。検出光Lには、例えば、赤外光を利用できる。ここで、「層状」又は「カーテン状」とは、ほぼ一様な厚さの薄い空間形状を意味する。
図1には、画像投射部100と検出光照射部200とを別体で設けた場合を示すが、画像投射部100と検出光照射部200とがプロジェクター1の筐体内に収容され、一体化された構成であってもよい。
画像投射部100は、投射部110、リモコン受光部120、入力インターフェイス
30、画像処理部140、フレームメモリー145、撮像部150及び制御部160を備
える。以下では、インターフェイスを「I/F」と表記する。撮像部150は、後述する
撮像制御部181、位置検出部183とともに本発明の「検出部」の一例に対応する。

投射部110は、光源111、光変調装置113、光学ユニット115及び駆動回路117を備える。
光源111は、ハロゲンランプ、キセノンランプ、超高圧水銀ランプ等のランプ光源が使用される。また、光源111として、LED(Light Emitting Diode)やレーザー光源等の固体光源を用いてもよい。
光変調装置113は、光源111が発する光を変調して画像光PLを生成する光変調素子を備える。光変調素子には、例えば、透過型の液晶ライトバルブや、反射型の液晶ライトバルブ、デジタルミラーデバイス等を用いることができる。
光学ユニット115は、レンズやミラー等の光学素子を備え、光変調装置113により生成された画像光PLを拡大して投射面3に投射する。使用者は、画像光PLが投射面3で結像した画像を視認できる。
駆動回路117は、光源111、光変調装置113及び光学ユニット115を駆動する回路である。
駆動回路117は、制御部160から入力される制御信号に従い光源111の点灯又は消灯を制御する。また、駆動回路117は、光変調素子が液晶ライトバルブにより構成される場合、液晶を駆動するドライバー回路として機能する。具体的には、駆動回路117は、画像処理部140から入力された画像データに対応した画像を、光変調素子の液晶にフレーム単位で描画する。さらに、駆動回路117は、制御部160から入力される制御信号に従って光学ユニット115のレンズやミラーを駆動し、ズーム調整やフォーカス調整を行う。
リモコン受光部120は、不図示のリモコンから送信される赤外線信号を受光する。リモコン受光部120は、受光した赤外線信号に対応した操作信号を制御部160に出力する。操作信号は、操作されたリモコンのスイッチに対応した信号である。
入力I/F130は、外部装置との接続インターフェイスである。入力I/F130は、ケーブルを接続するコネクター、及び信号処理を行うインターフェイス回路を備える。入力I/F130は、接続された外部装置から供給される画像信号を受信する。画像データや同期信号が含まれる。入力I/F130は、受信した画像信号から画像データや同期信号を取り出し、取り出した画像データ及び同期信号を画像処理部140に出力し、同期信号を制御部160に出力する。画像処理部140は、入力された同期信号に同期して画像データの1フレームを処理し、処理した画像データを駆動回路117に出力する。また、制御部160は、入力された同期信号に同期してプロジェクター1の各部を制御する。1フレームとは、1画面分の画像が表示される期間である。また、画像データの1フレームとは、同期信号に含まれる垂直同期信号により規定される垂直走査期間に表示される画像データである。
画像処理部140は、入力された画像データをフレームメモリー145に展開する。フレームメモリー145は、例えば、SDRAM(Synchronous Dynamic Random Access Memory)により構成される。
画像処理部140は、フレームメモリー145に展開した画像データに対して画像処理を行う。画像処理部140が行う画像処理には、例えば、解像度変換処理又はリサイズ処理、歪曲収差の補正、形状補正処理、デジタルズーム処理、画像の色合いや輝度の調整等が含まれる。画像処理部140は、制御部160により指定された処理を実行し、必要に応じて、制御部160から入力されるパラメーターを使用して処理を行う。また、画像処理部140は、上記のうち複数の画像処理を組み合わせて実行することも勿論可能である。画像処理部140は、フレームメモリー145から画像データを読み出し、読み出した画像データを駆動回路117に出力する。
画像処理部140及びフレームメモリー145は、例えば、集積回路により構成される。集積回路には、LSI、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field-Programmable Gate Array)、SoC(System-on-a-chip)等が含まれる。また、集積回路の構成の一部にアナログ回路が含まれていてもよく、制御部160と集積回路とが組み合わされた構成であってもよい。
撮像部150は、例えば、レンズ等の光学系にて集光された光を電気信号に変換する撮像素子であるCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等を備えたカメラである。撮像部150は、検出光Lが、タッチ操作を行う指示体で反射した反射光を撮像可能な位置に配置される。また、撮像部150には、検出光Lの反射光を受光するための赤外線フィルターが取り付けられる。撮像部150は、画像投射部100と統合されたハードウェアとして構成される。撮像部150は、画像投射部100と統合されずに、有線又は無線によって画像投射部100と通信してもよい。
撮像部150は、投射面3の投射領域PAを含む範囲を撮像する。撮像部150は、所定のフレームレートで撮像を行って撮像画像を生成し、生成した撮像画像を制御部160に出力する。撮像画像には、指示体がタッチ操作を行う場合、検出光照射部200が照射する検出光Lによる指示体での反射光が検出される。
次に、検出光照射部200について説明する。検出光照射部200は、レーザー光源ユニット210と、調整部220とを備える。また、調整部220は、ドライバー回路221と、モーター223と、調整機構225とを備える。
レーザー光源ユニット210は、1又は複数のLD(Laser Diode)に、コリメーターレンズやパウエルレンズ等の光学部材が取り付けられたユニットであり、投射面3の表面全体に亘って層状又はカーテン状の検出光Lを射出する。投射面3と検出光Lとの間の距離は、小さい程、指示体の位置の検出精度は向上するが、検出光Lが投射面3に近づく程、誤検出の発生する可能性がある。投射面3と検出光Lとの間の距離は、例えば1mm~10mm、より好ましくは1mm~5mmの範囲の値に設定される。
ドライバー回路221は、モーター223を駆動する。モーター223は、例えば、正転及び逆転が可能なステッピングモーターを利用できる。モーター223が正回転又は逆回転することで調整機構225が動作し、レーザー光源ユニット210が照射する検出光Lの照射角度が調整される。これにより、検出光Lの投射面3に対する角度が変更される。
図2及び図3は、プロジェクター1の設置状態を示す側面図である。
図2及び図3に例示する画像投射部100及び検出光照射部200は、室内の天井Cに固定され、投射面3であるスクリーンは、壁Wに固定される。画像投射部100及び検出光照射部200は、投射面3に対して、前方および上方に設置される。画像投射部100及び検出光照射部200は、壁Wに設定されてもよい。本実施形態では、投射面3の前方である法線方向をZ軸方向、投射面3に沿う下方向をY軸方向、Z軸方向とY軸方向に垂直な方向をX軸方向とする。図2と図3は、検出光照射部200が、検出光Lを所定の角度で投射面3に沿って下方に照射することを示す。図2と図3とでは、検出光照射部200が照射する検出光Lの照射角度が異なる。図2は、検出光Lと、投射面3とのなす角度がθ1である場合を示し、図3には、検出光Lと投射面3とのなす角度がθ2である場合を示す。角度θ1は、角度θ2よりも大きい。
図2及び図3において、プロジェクター1や投射面3の寸法や縮尺は、実際のものとは大きく異なる。このため、図2や図3に示す角度θ1やθ2は、実際の角度よりも誇張して示されている。
検出光Lと投射面3とのなす角度がθ1である場合、検出光照射部200により照射された検出光Lは、図2に示す投射面3の下端Sに照射される。この状態において、モーター223を逆回転させることにより、検出光Lの照射角度が、投射面3から離れる方向に変更される。すなわち、モーター223を逆回転させることにより、検出光Lと投射面3とのなす角度がθ2に変更される。
また、検出光Lと投射面3とのなす角度がθ2である場合、検出光照射部200により照射された検出光Lは、投射面3を超えて、プロジェクター1を設置した壁面の位置Tに照射される。この状態において、モーター223を正回転させることにより、検出光Lの照射角度が、投射面3に近づく方向に変更される。すなわち、モーター223を正回転させることにより、検出光Lと投射面3とのなす角度がθ1に変更される。検出光Lの照射角度が変更されることで、検出光Lの照射範囲が変更され、タッチ操作を検出可能な範囲も変更される。
制御部160は、メモリー170及びプロセッサー180を備えるコンピューター装置である。メモリー170は、RAM(Random access memory)等の揮発性の記憶装置と、ROM(Read Only Memory)やフラッシュメモリー等の不揮発性の記憶装置とを備える。メモリー170は、プロセッサー180が実行する制御プログラム171を記憶する。制御プログラム171には、例えば、ファームウェアが含まれる。
プロセッサー180は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)により構成される演算処理装置である。プロセッサー180は、制御プログラム171を実行して画像投射部100の各部を制御する。プロセッサー180は、単一のプロセッサーにより構成してもよいし、複数のプロセッサーにより構成することも可能である。また、プロセッサー180は、メモリー170の一部又は全部や、その他の回路と統合されたSoC(System on Chip)により構成してもよい。また、プロセッサー180は、プログラムを実行するCPUと、所定の演算処理を実行するDSP(Digital Signal Processor)との組合せにより構成してもよい。さらに、プロセッサー180の機能の全てをハードウェアに実装した構成としてもよく、プログラマブルデバイスを用いて構成してもよい。
制御部160は、機能ブロックとして撮像制御部181、位置検出部183、誤検出判定部185、検出光制御部187及び表示制御部189を備える。これらの機能ブロックは、プロセッサー180が制御プログラム171に記述された命令セットを実行して、データの演算や制御を行うことにより実現される機能をブロックにより便宜的に示したものである。撮像制御部181及び位置検出部183は、撮像部150とともに本発明の「検出部」の一例に対応する。
撮像制御部181は、撮像部150に撮像を実行させる。撮像部150は、予め設定されたフレームレートで投射面3を含む範囲を撮像して撮像画像を生成する。撮像部150は、生成した撮像画像を制御部160に出力する。撮像制御部181は、撮像部150から入力された撮像画像をメモリー170に記憶させる。
位置検出部183は、メモリー170から撮像画像を読み出し、読み出した撮像画像から赤外光の像を検出して指示位置を検出する。この赤外光の像は、検出光Lが指示体で反射した反射光の像である。位置検出部183は、検出した赤外光の像のうち、予め設定された設定範囲内の大きさの像を、赤外光の像と判定する。また、位置検出部183は、大きさが設定範囲よりも小さい又は大きい像をノイズと判定する。
また、位置検出部183は、赤外光の像の検出結果に基づき、指示体による指示位置を検出する。投射領域PAに表示された表示画面50上の位置と、撮像部150が撮像した撮像画像上の位置とは、事前に行われるキャリブレーション処理によって対応づけがなされている。すなわち、撮像画像上の位置を特定することで、対応づけられた表示画面50上の位置が特定される。位置検出部183は、撮像画像から検出した赤外光の像の位置から表示画面50上の指示位置を特定する。後述の図6と図7に示すように、表示画面50とは、プロジェクター1が投射する画像光PLによって投射面3上に表示される画面である。表示画面50には、投射面3に対する指示体のタッチ操作によって描画された画像や、入力I/F130により入力された画像信号に基づく画像、メモリー170に予め記憶された画像データに基づく画像等が表示される。
ここで、撮像部150が生成した撮像画像のうち、位置検出部183が赤外光の像を検出する対象となる範囲を検出範囲DRという。本実施形態では、検出範囲DRは、投射領域PAと同一の範囲に設定されていると仮定して説明する。検出範囲DRを、投射領域PAと同一の範囲に設定する方法として、予め設定された画像パターンを有する画像光PLを投射面3に投射して撮像部150により投射面3を撮像する。そして、撮像部150が生成した撮像画像のうち、画像パターンが撮像された範囲を検出範囲DRとして設定することができる。
誤検出判定部185は、位置検出部183が検出した赤外光の像の検出状態が、特定の状態に該当するか否かを判定する。具体的には、誤検出判定部185は、位置検出部183が検出した赤外光の像の位置を、指示体が投射面3に接触又は近接した仮のタッチ位置とし、この検出された仮のタッチ位置が、ノイズ等に起因して誤検出したタッチ位置であるか否かを判定する。仮のタッチ位置を、仮タッチ位置と簡略化して表記する。誤検出判定部185は、判定結果に基づき、仮タッチ位置のうち、誤検出判定部185により誤検出と判定されなかった位置を、タッチ操作のタッチ位置と判定する。位置検出部183が検出した赤外光の像の検出位置が、タッチ操作のタッチ位置ではない場合が、特定の状態に相当する。誤検出判定部185は、タッチ操作のタッチ位置を表示制御部189に出力する。
図4は、判定領域10を示す図である。
判定領域10とは、予め設定された誤検出の頻度が高い領域であり、誤検出判定部185が、仮タッチ位置が誤検出であるか否かを判定する対象となる領域である。
誤検出判定部185は、判定領域10内の同一又は略同一の位置が、仮タッチ位置として予め設定された回数以上検出された場合、仮タッチ位置として検出された位置は、誤検出であると判定する。
判定領域10は、投射領域PAの下端、左端及び右端にそれぞれ設定される。また、判
定領域10は、投射領域PAの下端、左端及び右端の境界14から投射領域PAの内側に
所定の幅で設定される。図4には、投射領域PAの下端、左端及び右端に、それぞれ図4
に示す幅aの判定領域10を設定した場合を示すが、異なる幅で設定してもよい。

図5は、投射面3として、ホワイトボード11を利用した場合を示し、ホワイトボード11のフレーム12に検出光Lが照射された場合を示す図である。
ホワイトボード11の端部には、フレーム12が設けられている場合がある。このフレーム12に、検出光Lが照射されると、フレーム12で反射した検出光Lがホワイトボード11のボード部分13等に反射してタッチ操作の操作位置として誤検出される場合がある。ボード部分13とは、文字等が書かれる部分である。
誤検出判定部185は、例えば、判定領域10内の同一又は略同一の位置が、仮タッチ位置として予め設定された回数以上検出された場合、検出されたこれらの仮タッチ位置が誤検出に起因して検出されたものであると判定する。
また、操作者が、投射面3に手を押し当てて文字を書く場合、文字を書いたときの振動が投射面3に伝わり、投射面3が振動する場合がある。投射面3が振動すると、投射面3の下端等に検出光Lが照射され、投射面3に照射された検出光Lが、仮タッチ位置として検出される場合がある。
誤検出判定部185は、例えば、判定領域10と、判定領域10を除く検出範囲DRとの両方で、仮タッチ位置が検出された場合、判定領域10で検出された仮タッチ位置が誤検出であると判定する。
検出光制御部187は、検出光照射部200を制御する。
検出光制御部187は、レーザー光源ユニット210に制御信号を出力して、検出光Lのオンと、オフとを切り替える。例えば、レーザー光源ユニット210は、検出光制御部187から入力される制御信号の信号レベルがハイに立ち上がると、検出光Lを照射し、制御信号の信号レベルがローレベルに立ち下がると、検出光Lの照射を停止する。
また、検出光制御部187は、ドライバー回路221に駆動信号を出力してモーター223の駆動を制御する。モーター223が駆動して調整機構225が動作し、レーザー光源ユニット210が照射する検出光Lの照射角度が調整されることで、検出光Lの照射範囲が変更され、タッチ操作の検出範囲DRも変更される。
表示制御部189は、画像処理部140や、投射部110を制御して投射面3に画像光PLを投射させ、投射領域PAに表示画面50を表示させる。表示画面50には、指示体のタッチ操作によって描画された画像や、入力I/F130により入力された画像信号に基づく画像、メモリー170に予め記憶された画像データに基づく画像等が表示される。
ここで、誤検出判定部185が仮タッチ位置を誤検出と判定した場合の動作について説明する。
誤検出判定部185は、仮タッチ位置を誤検出と判定した場合、検出光制御部187に、検出光Lの照射角度を変更させる。例えば、図2に示すように、検出範囲DRの下端において、ホワイトボード11の端部のフレーム12に検出光Lが照射され、この検出光Lの反射光によって仮タッチ位置が誤検出されたと仮定する。この場合、検出光制御部187は、ドライバー回路221を駆動してモーター223を1ステップ、逆回転させる。これにより、検出光Lの照射角度が、投射面3から離れる方向に変更される。すなわち、検出光Lが、投射面3を超えた位置、例えば、図3に示す壁面の位置Tに照射されるようになる。誤検出判定部185及び検出光制御部187は、この処理を、タッチ操作の誤検出が検出されなくなるまで繰り返す。これにより、タッチ操作の誤検出を改善することができる。
また、プロジェクター1が、調整部220を具備しておらず、検出光Lの照射角度を調整できない機種である場合、投射面3に投射する画像を編集する。具体的には、表示画面50に表示される余白領域30の領域サイズを変更することで、タッチ操作の誤検出の改善を図る。余白領域30とは、この余白領域30においてタッチ操作が検出されても、プロジェクター1が何ら処理を行わない領域である。つまり、プロジェクター1は、この余白領域30に対するタッチ操作が検出されても、文字や図形を描画したり、タッチ操作に対応したアイコン20を選択する操作を行ったりしない。
図6及び図7は、表示画面50の一例を示す図である。
インタラクティブ機能を具備するプロジェクター1は、表示画面50の下端に、GUI(Graphical User Interface)領域25を表示させ、タッチ操作によりプロジェクター1に実行させる処理の切り替えを実現する。GUI領域25には、複数のアイコン20が表示される。アイコン20には、例えば、カメラアイコン20aや、拡大アイコン20b、ペンアイコン20c、消しゴムアイコン20d等が含まれる。
カメラアイコン20aは、表示画面50を撮像した撮像画像を生成し、表示画面50の情報を保存する処理をプロジェクター1に実行させるアイコンである。
拡大アイコン20bは、表示画面50に表示された図形や文字、画像を拡大させる処理をプロジェクター1に実行させるアイコンである。
ペンアイコン20cは、文字や図形、絵を投射面3に描画させる処理をプロジェクター1に実行させるアイコンである。
消しゴムアイコン20dは、ペンアイコン20cにより描画された文字や図形を消去する処理をプロジェクター1に実行させるアイコンである。
余白領域30は、GUI領域25より下側に設けられる。誤検出判定部185は、仮タッチ位置を誤検出と判定した場合、表示制御部189に、余白領域30の領域サイズを変更させる。具体的には、表示制御部189は、誤検出判定部185から余白領域30の領域サイズの変更が指示されると、余白領域30を、表示画面50の縦方向に拡大させる。図6は、余白領域30のサイズを変更する前の状態を示し、図7には、余白領域30のサイズを変更した後の状態を示す。図6及び図7に縦線のハッチングで示す範囲が余白領域30に対応する。また、図6及び図7に斜め線のハッチングで示す範囲が判定領域10に対応する。余白領域30のサイズ変更前は、表示画面50の縦方向における余白領域30の長さは、図6に示す長さAであったが、余白領域30のサイズ変更後は、表示画面50の縦方向における余白領域30の長さが、図7に示す長さBに変更される。長さBは、長さAよりも長く、余白領域30のサイズが表示画面50の縦方向に拡大されたことが分かる。
余白領域30には、アイコン等の画像が表示されず、何ら操作を受け付けない領域である。プロジェクター1は、この余白領域30において仮タッチ位置を検出しても、検出した仮タッチ位置を操作と認識しない。従って、誤った操作が入力される問題を改善することができる。
さらに、誤検出判定部185は、表示画面50にGUI領域25が表示されていない場合、投射面3における投射領域PAの位置及びサイズのいずれか1以上を調整する。例えば、誤検出判定部185は、表示制御部187に、投射領域PAの縮小を指示する。投射領域PAを縮小することで、投射領域PAの位置及びサイズが変更され、判定領域10の位置が変更される。また、投射面3における投射領域PAの位置を変更することで、仮タッチ位置が誤検出される問題を改善してもよい。
図8は、投射領域PAのサイズを縮小する前と後の判定領域10の位置を示す図である。
表示制御部189は、投射領域PAのサイズを縮小する前と後とで、表示画面50の上端の位置が変更されないようにする。すなわち、投射領域PAのサイズを縮小することで、表示画面50及び判定領域10が、投射面3の上方向、すなわち、プロジェクター1が設置された方向に移動する。表示画面50の下端が、投射面3の上方向に移動することで、判定領域10も表示画面50の移動に伴い、投射面3の上方向に移動する。投射領域PAのサイズを縮小する前の判定領域10の位置を、図8に異なる2方向の斜め線でハッチングしたクロスハッチングにより示す。また、投射領域PAのサイズを縮小した後の判定領域10の位置を、図8に1方向の斜め線のハッチングにより示す。判定領域10の位置が投射面3の上方向に移動することで、検出光Lが、投射面の下端に設けられたフレーム12等に照射され、仮タッチ位置が誤検出される問題を改善することができる。
図9は、プロジェクター1の動作を示すフローチャートである。
図9に示すフローチャートを参照しながらプロジェクター1の動作について説明する。
制御部160は、まず、インタラクティブ機能を選択する操作をリモコンにより受け付けたか否かを判定する(ステップS1)。制御部160は、インタラクティブ機能を選択する操作を受け付けていない場合(ステップS1/NO)、インタラクティブ機能を選択する操作を受け付けるまで、処理の開始を待機する。
制御部160は、インタラクティブ機能を選択する操作を受け付けた場合(ステップS1/YES)、検出光照射部200に検出光Lの照射を開始させる(ステップS2)。次に、制御部160は、撮像部150に撮像を実行させて撮像画像を取得する(ステップS3)。
制御部160は、取得した撮像画像を解析し、検出光Lが指示体により反射した反射光の像を検出して仮タッチ位置を検出する(ステップS4)。制御部160は、撮像画像から反射光の像を検出することができず、仮タッチ位置を検出できなかった場合(ステップS4/NO)、ステップS3に戻り、次の撮像画像を取得して反射光の像を検出する。
また、制御部160は、仮タッチ位置を検出した場合(ステップS4/YES)、検出した仮タッチ位置が誤検出であるか否かを判定する(ステップS5)。
例えば、制御部160は、判定領域10内の同一又は略同一の位置が、タッチ操作の操作位置として予め設定された回数以上検出された場合、これらの複数回検出された仮タッチ位置を誤検出と判定する。
制御部160は、検出した仮タッチ位置が誤検出ではない場合(ステップS5/NO)
、この仮タッチ位置をタッチ操作のタッチ位置と判定し、タッチ操作に対応した処理を実
行する(ステップS6)。例えば、制御部160は、タッチ操作によって選択されたアイ
コン20に対応した処理を実行する。その後、制御部160は、インタラクティブ機能を
終了させる操作を受け付けたか否かを判定する(ステップ7)。制御部160は、イン
タラクティブ機能を終了させる操作を受け付けた場合(ステップ7/YES)、このフ
ローを終了させる。また、制御部160は、インタラクティブ機能を終了させる操作を受
け付けていない場合(ステップ7/NO)、ステップS3の処理に戻り、撮像画像から
仮タッチ位置を再度、検出する。

また、制御部160は、検出した仮タッチ位置が誤検出である場合(ステップS5/YES)、検出光照射部200が検出光Lの照射角度を変更可能な調整部220を備えているか否かを判定する(ステップS8)。制御部160は、検出光照射部200が調整部220を備えていない場合(ステップS8/NO)、ステップS11の判定に移行する。
また、制御部160は、検出光照射部200が調整部220を備えている場合(ステップS8/YES)、検出光Lの照射角度が変更可能な角度範囲の上限値であるか否かを判定する(ステップS9)。制御部160は、検出光Lの照射角度が角度範囲の上限値である場合(ステップS9/YES)、ステップS11の判定に移行する。また、制御部160は、検出光Lの照射角度が角度範囲の上限値ではない場合(ステップS9/NO)、ドライバー回路221にモーター223を1ステップ駆動させ、1ステップに対応した角度だけ照射角度を変更させる(ステップS10)。その後、制御部160は、ステップS3の処理に戻り、撮像画像から仮タッチ位置を再度、検出する。
また、制御部160は、ステップS8の判定が否定判定の場合や、ステップS9の判定が肯定判定の場合、GUI領域25にアイコン20を表示しているか否かを判定する(ステップS11)。制御部160は、GUI領域25にアイコン20を表示していない場合(ステップS11/NO)、ステップS14の判定に移行する。
また、制御部160は、GUI領域25にアイコン20を表示している場合(ステップS11/YES)、余白領域30の領域サイズが、設定可能な最大であるか否かを判定する(ステップS12)。制御部160は、余白領域30の領域サイズが設定可能な最大である場合(ステップS12/YES)、ステップS14の判定に移行する。また、制御部160は、余白領域30の領域サイズが最大ではない場合(ステップS12/NO)、表示画面50を編集して、余白領域30の面積を予め設定されたサイズ分だけ増加させる(ステップS13)。
また、制御部160は、ステップS11の判定が否定判定の場合(ステップS11/NO)、又はステップS12の判定が肯定判定の場合(ステップS12/YES)、ステップS14の判定に移行する。制御部160は、投射領域PAのサイズが、設定可能な最小サイズであるか否かを判定する(ステップS14)。制御部160は、投射領域PAのサイズが最小サイズではない場合(ステップS14/NO)、投射領域PAのサイズを予め設定された1サイズ分だけ小さく変更する(ステップS15)。その後、制御部160は、ステップS3の処理に戻り、撮像画像から仮タッチ位置を再度、検出する。
また、制御部160は、投射領域PAのサイズが設定可能な最小サイズである場合(ステップS14/YES)、検出光照射部200をユーザーに手動で調整させる手動調整の案内画面を投射面3に表示させ(ステップS16)、この処理フローを終了させる。
上述したフローチャートでは、プロジェクター1が、調整部220を備えていない場合、又は、検出光Lの照射角度が角度範囲の上限値である場合に、余白領域30のサイズ調整が可能か否かを判定し、余白領域30のサイズ調整が可能であれば余白領域30のサイズ調整を行った。変形例として、プロジェクター1が調整部220を備えていない場合、又は、検出光Lの照射角度が角度範囲の上限値である場合に、投射領域PAのサイズ調整が可能であるか否かを判定してもよい。プロジェクター1は、投射領域PAのサイズ調整が可能である場合には、投射領域PAのサイズを縮小する調整を行う。さらに、投射領域PAのサイズ調整を行っても、仮タッチ位置が誤検出である場合に、余白領域30のサイズ調整を行ってもよい。
また、上述したフローチャートでは、余白領域30のサイズ調整を行った後、又は余白領域30のサイズ調整ができない場合に、投射領域PAのサイズ調整を行ったが、余白領域30のサイズ調整と、投射領域PAのサイズ調整とを両方行い、仮タッチ位置の誤検出を改善させてもよい。
以上説明したように本実施形態のプロジェクター1は、投射部110、レーザー光源ユニット210、調整部220、撮像部150及び制御部160を備える。
投射部110は、投射面3に画像を投射する。
レーザー光源ユニット210は、投射面3に対応する方向に検出光Lを照射する。
調整部220は、投射面3に対する検出光Lの方向を調整する。
制御部160は、位置検出部183、誤検出判定部185及び検出光制御部187を備える。位置検出部183は、撮像部150が撮像した撮像画像から検出光Lの反射光を検出して、投射面3に対するタッチ操作を検出する。誤検出判定部185は、反射光の検出状態が特定の状態に該当するか否かを判定する。検出光制御部187は、誤検出判定部185により反射光の検出状態が特定の状態に該当すると判定された場合に、調整部220を制御して検出光Lの方向を調整する。
例えば、検出光Lの反射光の検出が、タッチ操作の検出にならない場合を特定の状態に該当すると判定して、調整部220により検出光Lの方向を調整することで、タッチ操作の誤検出を改善することができる。
また、レーザー光源ユニット210は、検出光Lを投射面3に沿う方向に照射する。
位置検出部183は、投射面3に接触又は近接する指示体に反射する反射光を検出する。検出光制御部187は、調整部220を制御して、反射光の検出状態が特定の状態に該当すると判定した場合に、投射面3と検出光Lとの角度を調整する。
従って、投射面3と検出光Lとの角度が調整されるので、投射面3に沿う方向に照射される検出光Lの方向が変更され、タッチ操作の誤検出を改善することができる。
また、制御部160は、表示制御部189を備える。
表示制御部189は、検出光制御部187が投射面3と検出光Lとの角度を調整した場合においても、誤検出判定部185が反射光の検出状態が特定の状態に該当すると判定した場合に、投射面3における画像の投射範囲を調整する。
従って、投射面3と検出光Lとの角度を調整しても反射光の検出状態が改善されない場合に、投射面3における画像の投射範囲を調整することで、タッチ操作の誤検出を改善することができる。
表示制御部189は、投射面3における画像の投射範囲である投射領域PAを調整にした場合においても、反射光の検出状態が特定の状態に該当すると判定した場合に、投射面3に投射する画像を編集する。
従って、投射領域PAを調整しても反射光の検出状態が改善されない場合に、投射面3に投射する画像を編集することで、タッチ操作の誤検出を改善することができる。
また、表示制御部189は、投射領域PAの位置及びサイズのいずれか1以上を調整して、投射領域PAを調整する。
従って、画像の投射範囲である投射領域PAの調整が容易になる。
また、制御部160は、検出光Lの方向を調整できないと判定した場合に、投射面3に画像を投射する投射範囲の位置及びサイズのいずれか1以上を調整する。
従って、画像の投射範囲の位置及びサイズのいずれか1以上が調整されるので、調整後の投射範囲に対応した範囲で、反射光を検出すればよい。このため、タッチ操作の誤検出を改善することができる。
また、制御部160は、検出光Lの方向を調整できないと判定した場合に、投射面3に表示する画像を編集する。
例えば、投射面3に表示する画像を編集して、タッチ操作に対応しない画像を表示させる。このタッチ操作に対応しない画像に対応する撮像画像の領域において、反射光が検出されても、タッチ操作が検出されたと判定しないことで、タッチ操作の誤検出を改善することができる。
上述した実施形態は本発明の好適な実施の形態である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形が可能である。
例えば、図1に示すプロジェクター1の各機能部は、機能的構成を示すものであって、具体的な実装形態は特に制限されない。つまり、必ずしも各機能部に個別に対応するハードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。また、上記実施形態においてソフトウェアで実現される機能の一部をハードウェアで実現してもよく、また、ハードウェアで実現される機能の一部をソフトウェアで実現してもよい。その他、プロジェクターの他の各部の具体的な細部構成についても、本発明の趣旨を逸脱しない範囲で任意に変更可能である。
また、図9に示すフローチャートの処理単位は、プロジェクター1の処理を理解容易にするために、主な処理内容に応じて分割したものである。図9のフローチャートに示す処理単位の分割の仕方や名称によって本発明が制限されることはない。また、制御部160の処理は、処理内容に応じて、さらに多くの処理単位に分割することもできるし、1つの処理単位がさらに多くの処理を含むように分割することもできる。また、上記のフローチャートの処理順序も、図示した例に限られるものではない。
また、プロジェクター1の制御方法を、プロジェクター1が備えるコンピューターを用いて実現する場合、このコンピューターに実行させるプログラムを記録媒体、又はこのプログラムを伝送する伝送媒体の態様で構成することも可能である。記録媒体には、磁気的、光学的記録媒体又は半導体メモリーデバイスを用いることができる。具体的には、フレキシブルディスク、HDD(Hard Disk Drive)、CD-ROM、DVD、Blu-ray Disc、光磁気ディスク、フラッシュメモリー、カード型記録媒体等の可搬型、或いは固定式の記録媒体が挙げられる。また、上記記録媒体は、サーバー装置が備える内部記憶装置であるRAM、ROM、HDD等の不揮発性記憶装置であってもよい。Blu-rayは、登録商標である。
1…プロジェクター、3…投射面、10…判定領域、11…ホワイトボード14
、12…フレーム、13…ボード部分、20…アイコン、20a…カメラアイコン、2
0b…拡大アイコン、20c…ペンアイコン、20d…消しゴムアイコン、25…GUI
領域、30…余白領域、100…画像投射部、110…投射部、111…光源、113…
光変調装置、115…光学ユニット、117…駆動回路、120…リモコン受光部、13
0…入力I/F、140…画像処理部、145…フレームメモリー、150…撮像部、1
60…制御部、170…メモリー、171…制御プログラム、180…プロセッサー、1
81…撮像制御部、183…位置検出部、185…誤検出判定部、187…検出光制御部
、200…検出光照射部、210…レーザー光源ユニット、220…調整部、221…ド
ライバー回路、223…モーター、225…調整機構。

Claims (9)

  1. 投射面に画像を投射する投射部と、
    前記投射面に対応する方向に検出光を照射する検出光照射部と、
    前記投射面に対する前記検出光の方向を調整する調整部と、
    前記検出光の反射光を検出することにより前記投射面に対する操作を検出する検出部と、
    前記反射光の検出状態が特定の状態に該当するか否かを判定し、前記反射光の検出状態が前記特定の状態に該当するか否かの判定結果に基づいて、前記調整部により前記検出光の方向を調整させる制御部と、
    を備え
    前記検出光照射部は、前記検出光を前記投射面に沿う方向に照射し、
    前記検出部は、前記投射面に接触又は近接する指示体に反射する前記反射光を検出し、
    前記制御部は、
    前記調整部を制御して、前記反射光の検出状態が前記特定の状態に該当すると判定した場合に、前記投射面と前記検出光との角度を調整し、
    前記投射面と前記検出光との角度を調整した場合においても、前記反射光の検出状態が前記特定の状態に該当すると判定した場合に、前記投射面における画像の投射範囲を調整するプロジェクター。
  2. 請求項に記載のプロジェクターであって、
    前記制御部は、前記投射面における画像の投射範囲を調整にした場合においても、前記反射光の検出状態が前記特定の状態に該当すると判定した場合に、前記投射面に投射する画像を編集する、プロジェクター。
  3. 請求項に記載のプロジェクターであって、
    前記制御部は、前記投射範囲の位置及びサイズのいずれか1以上を調整して、前記投射範囲を調整する、プロジェクター。
  4. 投射面に画像を投射する投射部と、
    前記投射面に対応する方向に検出光を照射する検出光照射部と、
    前記投射面に対する前記検出光の方向を調整する調整部と、
    前記検出光の反射光を検出することにより前記投射面に対する操作を検出する検出部と、
    前記反射光の検出状態が特定の状態に該当するか否かを判定し、前記反射光の検出状態が前記特定の状態に該当するか否かの判定結果に基づいて、前記調整部により前記検出光の方向を調整させる制御部と、
    を備え、
    前記制御部は、
    前記反射光の検出状態が前記特定の状態に該当すると判定した場合、前記投射面に対する前記検出光の方向を調整できるか否かを判定し、
    前記検出光の方向を調整できないと判定した場合に、前記投射面における画像の投射範囲を調整する、プロジェクター。
  5. 投射面に画像を投射する投射部と、
    前記投射面に対応する方向に検出光を照射する検出光照射部と、
    前記投射面に対する前記検出光の方向を調整する調整部と、
    前記検出光の反射光を検出することにより前記投射面に対する操作を検出する検出部と、
    前記反射光の検出状態が特定の状態に該当するか否かを判定し、前記反射光の検出状態が前記特定の状態に該当するか否かの判定結果に基づいて、前記調整部により前記検出光の方向を調整させる制御部と、
    を備え、
    前記制御部は、
    前記反射光の検出状態が前記特定の状態に該当すると判定した場合、前記投射面に対する前記検出光の方向を調整できるか否かを判定し、
    前記検出光の方向を調整できないと判定した場合に、前記投射面に画像を投射する投射範囲の位置及びサイズのいずれか1以上を調整する、プロジェクター。
  6. 画像が投射される投射面に沿う方向に検出光を照射し、
    前記投射面に接触又は近接する指示体に反射する前記検出光の反射光を検出することにより前記投射面に対する操作を検出し、
    前記反射光の検出状態が特定の状態に該当するか否かを判定し、
    前記反射光の検出状態が前記特定の状態に該当すると判定した場合に、前記投射面と前記検出光との角度を調整し、
    前記投射面と前記検出光との角度を調整した場合においても、前記反射光の検出状態が前記特定の状態に該当すると判定した場合に、前記投射面における画像の投射範囲を調整する、プロジェクターの制御方法。
  7. 請求項6のプロジェクターの制御方法であって、
    前記投射面における画像の投射範囲を調整にした場合においても、前記反射光の検出状態が前記特定の状態に該当すると判定した場合に、前記投射面に投射する画像を編集する、プロジェクターの制御方法。
  8. 画像が投射される投射面に対応する方向に検出光を照射し、
    前記検出光の反射光を検出することにより前記投射面に対する操作を検出し、
    前記反射光の検出状態が特定の状態に該当するか否かを判定し、
    前記反射光の検出状態が前記特定の状態に該当すると判定した場合、前記投射面に対する前記検出光の方向を調整できるか否かを判定し、
    前記検出光の方向を調整できないと判定した場合に、前記投射面における画像の投射範囲を調整する、プロジェクターの制御方法。
  9. 画像が投射される投射面に対応する方向に検出光を照射し、
    前記検出光の反射光を検出することにより前記投射面に対する操作を検出し、
    前記反射光の検出状態が特定の状態に該当するか否かを判定し、
    前記反射光の検出状態が前記特定の状態に該当すると判定した場合、前記投射面に対する前記検出光の方向を調整できるか否かを判定し、
    前記検出光の方向を調整できないと判定した場合に、前記投射面に画像を投射する投射範囲の位置及びサイズのいずれか1以上を調整する、プロジェクターの制御方法。
JP2019178865A 2019-09-30 2019-09-30 プロジェクター、及びプロジェクターの制御方法 Active JP7287222B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019178865A JP7287222B2 (ja) 2019-09-30 2019-09-30 プロジェクター、及びプロジェクターの制御方法
CN202011039925.9A CN112578613B (zh) 2019-09-30 2020-09-28 投影仪以及投影仪的控制方法
US17/036,585 US11249594B2 (en) 2019-09-30 2020-09-29 Projector including a light detector and a controller and method for controlling the projector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019178865A JP7287222B2 (ja) 2019-09-30 2019-09-30 プロジェクター、及びプロジェクターの制御方法

Publications (3)

Publication Number Publication Date
JP2021056747A JP2021056747A (ja) 2021-04-08
JP2021056747A5 JP2021056747A5 (ja) 2022-05-23
JP7287222B2 true JP7287222B2 (ja) 2023-06-06

Family

ID=75119667

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019178865A Active JP7287222B2 (ja) 2019-09-30 2019-09-30 プロジェクター、及びプロジェクターの制御方法

Country Status (3)

Country Link
US (1) US11249594B2 (ja)
JP (1) JP7287222B2 (ja)
CN (1) CN112578613B (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140313165A1 (en) 2012-01-11 2014-10-23 Smart Technologies Ulc Interactive input system and method
JP2018164251A (ja) 2017-03-24 2018-10-18 セイコーエプソン株式会社 画像表示装置およびその制御方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4309909B2 (ja) * 2006-12-01 2009-08-05 矢崎総業株式会社 車両用表示装置及びその表示位置調整支援方法
JP5646148B2 (ja) * 2009-04-07 2014-12-24 船井電機株式会社 プロジェクタ
JP2010244484A (ja) * 2009-04-10 2010-10-28 Funai Electric Co Ltd 画像表示装置、画像表示方法および画像表示プログラム
JP5641003B2 (ja) * 2012-03-14 2014-12-17 コニカミノルタ株式会社 操作入力装置及びプログラム
JP5986957B2 (ja) * 2013-05-28 2016-09-06 京セラ株式会社 携帯端末、無効領域設定プログラムおよび無効領域設定方法
JP6398248B2 (ja) 2014-01-21 2018-10-03 セイコーエプソン株式会社 位置検出システム、及び、位置検出システムの制御方法
JP6375672B2 (ja) * 2014-01-21 2018-08-22 セイコーエプソン株式会社 位置検出装置、及び位置検出方法
JP6307972B2 (ja) * 2014-01-21 2018-04-11 セイコーエプソン株式会社 反射体、調整方法、及び位置検出装置
JP2015179182A (ja) * 2014-03-19 2015-10-08 セイコーエプソン株式会社 プロジェクター、及び表示状態調整方法
US10061403B2 (en) * 2014-11-04 2018-08-28 Mimio, Llc Light pen
JP2017129767A (ja) 2016-01-21 2017-07-27 セイコーエプソン株式会社 反射体、光出射装置の調整方法、及び検出システム
US20170264874A1 (en) * 2016-03-08 2017-09-14 Panasonic Intellectual Property Management Co., Ltd. Projection apparatus
CN106095201B (zh) * 2016-05-30 2018-10-09 安徽慧视金瞳科技有限公司 一种投影交互系统的双击检测方法
US10567715B2 (en) * 2017-03-24 2020-02-18 Seiko Epson Corporation Image display apparatus and method for controlling the same
JP2019174513A (ja) 2018-03-27 2019-10-10 セイコーエプソン株式会社 表示装置、及び、表示装置の制御方法
JP7151126B2 (ja) * 2018-03-29 2022-10-12 セイコーエプソン株式会社 プロジェクター、及び、プロジェクターの制御方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140313165A1 (en) 2012-01-11 2014-10-23 Smart Technologies Ulc Interactive input system and method
JP2018164251A (ja) 2017-03-24 2018-10-18 セイコーエプソン株式会社 画像表示装置およびその制御方法

Also Published As

Publication number Publication date
CN112578613A (zh) 2021-03-30
US11249594B2 (en) 2022-02-15
US20210096687A1 (en) 2021-04-01
JP2021056747A (ja) 2021-04-08
CN112578613B (zh) 2022-08-12

Similar Documents

Publication Publication Date Title
US9213411B2 (en) Input user interface device, projecting device, command deciding method and program storage medium storing command deciding method program
JP6307852B2 (ja) 画像表示装置、及び、画像表示装置の制御方法
WO2020184100A1 (ja) ウェアラブルデバイスおよび制御方法
JP2022000778A (ja) 画像処理装置、その制御方法、プログラム
JP6836176B2 (ja) 表示装置及び表示装置の制御方法
JP2008233462A (ja) プロジェクタおよびプロジェクタの投写方法
JP2018164251A (ja) 画像表示装置およびその制御方法
JP5319999B2 (ja) 照明装置
JP2010034820A (ja) プロジェクタ、プロジェクタの制御方法、及び、制御プログラム
JP2010136327A (ja) プロジェクタおよびプロジェクタの制御方法
JP5724064B2 (ja) 光投影装置
JP7287222B2 (ja) プロジェクター、及びプロジェクターの制御方法
JP2015197587A (ja) 双方向表示方法および双方向表示装置
US10591299B2 (en) Information processing device, information processing method, and program
JP2017129767A (ja) 反射体、光出射装置の調整方法、及び検出システム
CN114374827B (zh) 显示方法和显示装置
JP2011170296A (ja) 光投影装置
JP2017191340A (ja) 照射制御装置、照射制御方法、及びプログラム
JP6172618B2 (ja) 投影システム及びポインタ
JP2017175308A (ja) プロジェクター
JP5630799B2 (ja) 投影装置、投影方法及びプログラム
US11997434B2 (en) Display method and display system
JP2013083985A (ja) 投影装置、投影方法及びプログラム
JP6773057B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2012129593A (ja) プロジェクター、プロジェクターシステムおよびプロジェクターの描画方法

Legal Events

Date Code Title Description
RD07 Notification of extinguishment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7427

Effective date: 20200811

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210915

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20211102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220513

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220513

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230508

R150 Certificate of patent or registration of utility model

Ref document number: 7287222

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150