JP7251094B2 - 位置検出装置、表示システム、及び、位置検出方法 - Google Patents

位置検出装置、表示システム、及び、位置検出方法 Download PDF

Info

Publication number
JP7251094B2
JP7251094B2 JP2018198487A JP2018198487A JP7251094B2 JP 7251094 B2 JP7251094 B2 JP 7251094B2 JP 2018198487 A JP2018198487 A JP 2018198487A JP 2018198487 A JP2018198487 A JP 2018198487A JP 7251094 B2 JP7251094 B2 JP 7251094B2
Authority
JP
Japan
Prior art keywords
light
wavelength
indicator
image
colored
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018198487A
Other languages
English (en)
Other versions
JP2020068411A5 (ja
JP2020068411A (ja
Inventor
隆一 塩原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2018198487A priority Critical patent/JP7251094B2/ja
Priority to CN201910998755.8A priority patent/CN111083454B/zh
Priority to US16/658,918 priority patent/US11333959B2/en
Publication of JP2020068411A publication Critical patent/JP2020068411A/ja
Publication of JP2020068411A5 publication Critical patent/JP2020068411A5/ja
Application granted granted Critical
Publication of JP7251094B2 publication Critical patent/JP7251094B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/20Lamp housings
    • G03B21/2006Lamp housings characterised by the light source
    • G03B21/2033LED or laser light sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/48Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
    • G03B17/54Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus with projector
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0382Plural input, i.e. interface arrangements in which a plurality of input device of the same type are in communication with a PC
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0386Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry for light pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Position Input By Displaying (AREA)
  • Studio Devices (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、位置検出装置、表示システム、及び、位置検出方法に関する。
従来、プロジェクター等によって表示画像が表示されるスクリーン上で複数の電子ペンが操作された場合に、複数の電子ペンを識別して操作位置を検出するシステムが知られている(例えば、特許文献1参照)。特許文献1記載のシステムは、出射する赤外線光の波長が互いに異なる複数の電子ペンを検出する構成として、CMOSイメージセンサーと、2つの光学フィルターが設けられた光学フィルターホイールとを用いる。この構成では、光学フィルターホイールの回転により、2種類の光学フィルターを透過する光を交互にイメージセンサーにより検出する。
特開2017-142726号公報
本発明は、上述した事情に鑑みてなされたものであり、光を発する複数の操作デバイスを識別して操作位置を検出する装置を、シンプルな構成によって実現することを目的とする。
上記目的を達成する一態様は、第1指示体が発した第1の光と、第2指示体が発した第2の光と、対象範囲と、を撮像した撮像データを生成する撮像部と、前記撮像データに基づいて、前記対象範囲に対する前記第1指示体の第1の位置と、前記対象範囲に対する前記第2指示体の第2の位置と、を識別して検出する位置検出部と、を備え、前記撮像部は、第1の色光、第2の色光及び第3の色光の検出値を出力するセンサーを備え、前記センサーによって前記第1の光に含まれる第1の赤外光及び第1の波長の光と、前記第2の光に含まれる第2の赤外光及び前記第1の波長とは異なる第2の波長の光と、を検出する、位置検出装置である。
上記位置検出装置において、前記センサーは、複数の検出画素を備えるイメージセンサーで構成され、前記撮像部は複数の前記検出画素のそれぞれに対応する第1の色光、第2の色光及び第3の色光の検出値を含む前記撮像データを出力し、前記位置検出部は、各々前記検出画素に対応する1の検出値を含む1の前記撮像データから前記第1の位置および前記第2の位置を検出する構成であってもよい。
上記位置検出装置において、前記センサーは、前記第1の波長における第1の色光と第2の色光と第3の色光との相対感度が、前記第2の波長における前記第1の色光と前記第2の色光と前記第3の色光との相対感度と一致しない感度特性を有する構成であってもよい。
上記位置検出装置において、前記第1の波長は前記第2の波長より長く、前記撮像部は、前記第1の赤外光の波長と前記第1の波長の間の少なくとも一部の波長域の光をカットする光学フィルターを備え、前記センサーは前記光学フィルターを透過した光を検出する構成であってもよい。
上記位置検出装置において、前記センサーは、前記第1の赤外光の波長において、前記第1の色光の相対感度が、前記第2の色光および前記第3の色光のいずれの相対感度よりも高く、かつ、前記光学フィルターによりカットされた波長において、前記第1の色光の相対感度が、前記第2の色光および前記第3の色光のいずれの相対感度よりも高い感度特性を有する構成であってもよい。
上記位置検出装置において、前記光学フィルターは、前記第1の赤外光の波長よりも長い波長の光をカットする構成であってもよい。
上記位置検出装置において、前記光学フィルターは、紫外線領域の光をカットする構成であってもよい。
上記位置検出装置において、前記第1の赤外光の波長域と前記第2の赤外光の波長域は同じ波長含む構成であってもよい。
上記位置検出装置において、前記第1の光に含まれる前記第1の波長の光、及び、前記第2の光に含まれる前記第2の波長の光は、可視領域の光であってもよい。
上記目的を達成する一態様は、画像データに基づいた画像を表示面に表示する画像表示部と、第1指示体が発した第1の光と、第2指示体が発した第2の光と、前記表示面の少なくとも一部と、を撮像した撮像データを生成する撮像部と、前記撮像データに基づいて、前記第1指示体の前記表示面に対する第1の位置と、前記第2指示体の前記表示面に対する第2の位置と、を識別して検出する位置検出部と、前記第1の位置に応じた第1の処理と、前記第2の位置に応じた第2の処理を行う処理部と、を備え、前記撮像部は、第1の色光、第2の色光及び第3の色光の検出値を出力するセンサーを備え、前記センサーによって前記第1の光に含まれる第1の赤外光及び第1の波長の光と、前記第2の光に含まれる第2の赤外光及び前記第1の波長とは異なる第2の波長の光と、を検出する、表示装置である。
上記表示装置において、前記処理部は、前記第1の処理、及び、前記第2の処理として、それぞれ異なる描画を行う処理を実行する構成であってもよい。
上記目的を達成する一態様は、画像データに基づいた画像を表示面に表示する画像表示部を備えた表示装置と、前記表示面における位置指示操作に用いられる第1指示体および第2指示体と、を有する表示システムであって、前記第1指示体は第1の光を発し、前記第2指示体は第2の光を発し、前記表示装置は、前記第1指示体が発した第1の光と、前記第2指示体が発した第2の光と、前記表示面の少なくとも一部と、を撮像した撮像データを生成する撮像部と、前記撮像データに基づいて、前記第1指示体の前記表示面に対する第1の位置と、前記第2指示体の前記表示面に対する第2の位置と、を識別して検出する位置検出部と、前記第1の位置に応じた第1の処理と、前記第2の位置に応じた第2の処理を行う処理部と、を備え、前記撮像部は、第1の色光、第2の色光及び第3の色光の検出値を出力する光センサーを備え、前記光センサーによって前記第1の光に含まれる第1の赤外光及び第1の波長の光と、前記第2の光に含まれる第2の赤外光及び前記第1の波長とは異なる第2の波長の光と、を検出する、表示システムである。
上記表示システムにおいて、前記第1指示体及び前記第2指示体のそれぞれは、操作を検出する操作センサーと、光源と、前記操作センサーが操作を検出した場合に前記光源から発光させる発光制御部と、を備える構成であってもよい。
上記表示システムにおいて、前記第1指示体可視領域の前記第1の波長の光を発する光源を備え、前記第2指示体可視領域の前記第2の波長の光を発する光源を備える構成であってもよい。
上記目的を達成する一態様は、第1指示体が発した第1の光と、第2指示体が発した第2の光と、対象範囲と、を撮像した撮像データを生成し、前記撮像データに基づいて、前記対象範囲に対する前記第1指示体の第1の位置と、前記対象範囲に対する前記第2指示体の第2の位置と、を識別して検出することを含み、第1の色光、第2の色光及び第3の色光の検出値を出力するセンサーを備え、前記センサーによって前記第1の光に含まれる第1の赤外光及び第1の波長の光と、前記第2の光に含まれる第2の赤外光及び前記第1の波長とは異なる第2の波長の光と、を検出する撮像部を用いて前記撮像データを生成する、位置検出方法である。
本発明は、上述した位置検出装置、表示装置、及び、位置検出方法以外の種々の形態で実現することも可能である。例えば、上記の方法を実行するためにコンピューター(或いはプロセッサー)が実行するプログラムとして実現してもよい。また、上記プログラムを記録した記録媒体、プログラムを配信するサーバー装置、上記プログラムを伝送する伝送媒体、上記プログラムを搬送波内に具現化したデータ信号等の形態で実現できる。
投射システムの概略構成図。 投射システムのブロック図。 投射システムのブロック図。 撮像部の概略構成図。 イメージセンサーの構成図。 イメージセンサーの受光特性を示す図表。 プロジェクターの動作を示すフローチャート。 変形例としての投射システムの構成を示す図。
[投射システムの概要]
図1は、本発明の一実施形態における投射システム100の斜視図である。投射システム100は、プロジェクター1と、第1指示体6及び第2指示体7とを有する。
プロジェクター1は、表示装置として機能し、表示面としてのスクリーンSCに画像光PLを投射して、表示面に画像を表示する。投射システム100は、表示システムに相当する。また、プロジェクター1は、被検出デバイスである第1指示体6及び第2指示体7の指示位置を検出する位置検出装置としても機能する。この場合、投射システム100は、検出システムとして機能する。
プロジェクター1は、スクリーンSCに画像光PLを投射することにより、スクリーンSC上に投射画像PSを形成する。投射画像PSは、プロジェクター1によってスクリーンSC上に投射された画像の領域を指す。プロジェクター1の通常の使用状態において、投射画像PSはスクリーンSCに収まるように投射される。
プロジェクター1が第1指示体6及び第2指示体7の位置を検出する対象範囲DAは、スクリーンSCの少なくとも一部を含む任意の範囲とすることができる。好ましくは、投射画像PSを含む範囲が対象範囲DAとされる。本実施形態では、投射画像PSが投射される範囲を、対象範囲DAとする。
第1指示体6は、ペン型の軸部61を使用者が手に持って使用する指示体である。第2指示体7は、ペン型の軸部71を使用者が手に持って使用する指示体である。第1指示体6は、使用者によって先端62をスクリーンSCに押しつける操作が行われた場合に、先端62から光を発する。第2指示体7も同様に、使用者によって先端72をスクリーンSCに押し付ける操作が行われた場合に先端72から光を発する。プロジェクター1は、第1指示体6及び第2指示体7が発する光を検出することにより、第1指示体6及び第2指示体7の操作位置を検出する。このとき、プロジェクター1は、第1指示体6の操作位置と、第2指示体7の操作位置とを識別して検出する。第1指示体6が発する光を第1の光L1とし、第2指示体7が発する光を第2の光L2とする。
本実施形態では1つの第1指示体6と、1つの第2指示体7とを含む2個の指示体を用いる構成を説明する。投射システム100で利用可能な指示体の数は任意であり、1つであってもよいし、3以上であってもよい。
[指示体の構成]
図2は、投射システム100のブロック図であり、特に、第1指示体6及び第2指示体7の構成を詳細に示す。
第1指示体6は、第1可視光源63、第1赤外光源64、第1発光制御部65、及び、第1スイッチ66を備える。第1指示体6は、第1指示体6の他の各部に電力を供給する第1電源67を備える。第1可視光源63及び第1赤外光源64は第1指示体6の光源に相当し、第1発光制御部65は発光制御部に相当し、第1スイッチ66は操作センサーに相当する。
第1可視光源63及び第1赤外光源64は、それぞれ、LED(Light Emitting Diode)等の発光体を備え、第1発光制御部65に接続される。第1可視光源63は、第1の波長の光を発する発光体を備え、本実施形態では可視領域の光を発する光源である。第1赤外光源64は、赤外領域の光を発する発光体を備える。第1可視光源63が発する光を第1可視光VL1とし、第1赤外光源64が発する光を第1の赤外光IR1とする。第1可視光VL1と、第1の赤外光IR1とは、第1の光L1を構成する。
第1スイッチ66は、先端62に圧力が加わった場合にオンとなり、先端62への圧力が解除されるとオフに切り替わるスイッチ式のセンサーである。第1スイッチ66は、先端62への圧力を検出するセンサーとして機能する。第1スイッチ66は第1発光制御部65に接続され、第1発光制御部65によって第1スイッチ66がオンであるかオフであるかを検出できる。
第1発光制御部65は、第1スイッチ66の状態を検出し、第1スイッチ66がオンとなっている場合に、第1可視光源63及び第1赤外光源64を点灯させる。例えば、第1発光制御部65は、第1可視光源63及び第1赤外光源64に対し所定電圧の電流やパルス電流を出力して、第1可視光源63及び第1赤外光源64を点灯させる。
第1発光制御部65は、第1可視光源63及び第1赤外光源64のそれぞれを独立して点灯及び消灯させるものであってもよい。本実施形態では、第1発光制御部65は、第1可視光源63及び第1赤外光源64を同時に点灯及び消灯させる。
第2指示体7は、第2可視光源73、第2赤外光源74、第2発光制御部75、及び、第2スイッチ76を備える。第2指示体7は、第2指示体7の他各部に電力を供給する第2電源77を備える。第2可視光源73及び第2赤外光源74は第2指示体7の光源に相当し、第2発光制御部75は発光制御部に相当し、第2スイッチ76は操作センサーに相当する。
第2可視光源73及び第2赤外光源74は、それぞれ、LED等の発光体を備え、第2発光制御部75に接続される。第2可視光源73は、第2の波長の光を発する発光体を備え、本実施形態では可視領域の光を発する光源である。第2赤外光源74は、赤外領域の光を発する発光体を備える。第2可視光源73が発する光を第2可視光VL2とし、第2赤外光源74が発する光を第2の赤外光IR2とする。第2可視光VL2と、第2の赤外光IR2とは、第2の光L2を構成する。
第2スイッチ76は、先端72に圧力が加わった場合にオンとなり、先端72への圧力が解除されるとオフに切り替わるスイッチ式のセンサーである。第2スイッチ76は、先端72への圧力を検出するセンサーとして機能する。第2スイッチ76は第2発光制御部75に接続され、第2発光制御部75によって第2スイッチ76がオンであるかオフであるかを検出できる。
第2発光制御部75は、第2スイッチ76の状態を検出し、第2スイッチ76がオンとなっている場合に、第2可視光源73及び第2赤外光源74を点灯させる。例えば、第2発光制御部75は、第2可視光源73及び第2赤外光源74に対し所定電圧の電流やパルス電流を出力して、第2可視光源73及び第2赤外光源74を点灯させる。
第2発光制御部75は、第2可視光源73及び第2赤外光源74のそれぞれを独立して点灯及び消灯させるものであってもよい。本実施形態では、第2発光制御部75は、第2可視光源73及び第2赤外光源74を同時に点灯及び消灯させる。
第1可視光源63及び第2可視光源73は、いずれも、波長400nm(0.4×10-9m)-700nmの可視領域に含まれる光を発する。特に、第1可視光源63及び第2可視光源73は、460nmを含む波長域B1、555nmを含む波長域B2、及び、570nmを含む波長域B3のいずれかの波長域に含まれる光を発する発光体を備える。波長域B1は、460nmを含み、例えば450nm-470nmの波長域に属する。波長域B2は、555nmを含み、例えば545nm-565nmの波長域に属する。波長域B3は、570nmを含み、例えば570nm-600nmの波長域に属する。
第1可視光源63と、第2可視光源73とは、互いに異なる波長の光を発する。例えば、第1可視光源63が発する第1可視光VL1が波長域B1に含まれる波長の光である場合、第2可視光源73が発する第2可視光VL2は、波長域B2または波長域B3に含まれる波長の光である。第1可視光VL1及び第2可視光VL2は単一の波長の光でなくてもよい。この場合、第1可視光VL1と第2可視光VL2とが同一の波長の光を含まないことが好ましい。また、第1可視光VL1に含まれる光の波長と第2可視光VL2に含まれる光の波長とが離れていることが好ましい。例えば、第1可視光VL1が波長域B1に含まれる光であり、第2可視光VL2が波長域B3に含まれる光である構成が好ましい。
第1赤外光源64及び第2赤外光源74は、いずれも、波長700nm-1000nmの赤外領域に含まれる光を発する。好ましくは、第1赤外光源64及び第2赤外光源74は、波長700nm-2500nmの近赤外領域に含まれる光を発する。本実施形態では、第1赤外光源64及び第2赤外光源74は少なくとも重複する波長域の光を発し、好ましくは、同一の波長域の光を発する。例えば、第1赤外光源64及び第2赤外光源74は、出力波長の仕様が共通する発光体で構成される。従って、第1の赤外光IR1と、第2の赤外光IR2とは、共通の波長域の光である。具体的には、第1の赤外光IR1及び第2の赤外光IR2は、760nm帯の波長域の光を含む。また、第1の赤外光IR1及び第2の赤外光IR2は、波長が760nmの光であってもよい。
[プロジェクターの構成]
図3は、投射システム100のブロック図であり、特に、プロジェクター1の構成を詳細に示す。
プロジェクター1は、プロジェクター1の各部を制御する制御部10を備える。制御部10は、例えば、プログラムを実行する演算処理装置を備え、ハードウェアとソフトウェアとの協働により制御部10の機能を実現するものであってもよい。或いは、制御部10は、演算処理機能をプログラムされたハードウェアにより構成されてもよい。本実施形態では一例として、制御部10は、プログラムを記憶する記憶部15と、当該プログラムを実行するプロセッサー11とを備える構成を示す。プロセッサー11は、CPU(Central Processing Unit)やマイコン等で構成される演算処理装置である。プロセッサー11は、記憶部15が記憶する制御プログラムを実行することにより、プロジェクター1の各部を制御する。
記憶部15は、プロセッサー11が実行するプログラムや、プロセッサー11により処理されるデータを不揮発的に記憶する不揮発性記憶領域を有する。記憶部15は、揮発性記憶領域を備え、プロセッサー11が実行するプログラムや処理対象のデータを一時的に記憶するワークエリアを構成するものであってもよい。
例えば、本実施形態で、記憶部15は、設定データ16、画像データ17、及び、撮像データDを記憶する。設定データ16は、プロセッサー11が実行する各種処理の処理条件に関する設定値を含む。設定データ16は、画像処理部42が実行する画像処理に関する設定値を含んでもよい。
画像データ17は、後述するインターフェイス41から入力された画像データである。投射制御部12は、画像データ17をもとに、画像を投射部20により投射させる。
撮像データDは、撮像部30が撮像した撮像画像のデータである。
プロセッサー11は、単一のプロセッサーで構成されてもよいし、複数のプロセッサーで構成されてもよい。プロセッサー11は、記憶部15の一部または全部、及び/または、その他の回路と統合されたSoC(System on Chip)で構成されてもよい。また、上述のように、プロセッサー11は、プログラムを実行するCPUと、所定の演算処理を実行するDSP(Digital Signal Processor)との組合せにより構成してもよい。プロセッサー11の機能の全てを、ハードウェアに実装した構成としてもよく、プログラマブルデバイスを用いて構成してもよい。また、プロセッサー11は、画像処理部42の機能を兼ねてもよい。すなわち、画像処理部42の機能を、プロセッサー11が実行してもよい。
プロセッサー11は、画像光PLを投射する制御を行う投射制御部12を備える。また、プロセッサー11は、第1指示体6及び第2指示体7の操作位置を検出する位置検出部13を備える。
投射制御部12及び位置検出部13の一部を、プロセッサー11とは別のハードウェアにより構成することも勿論可能である。
プロジェクター1は、投射部20を備える。投射部20は、光源21と、光変調装置22と、光学ユニット23と、を備える。投射部20には、制御部10の制御に従って動作する光源駆動回路24及び光変調装置駆動回路25が接続される。投射部20は画像表示部に相当する。
光源21は、LEDやレーザー光源等の固体光源で構成される。なお、光源21は、ハロゲンランプ、キセノンランプ、超高圧水銀ランプ等のランプであってもよい。また、光源21は、第1指示体6から発せられる第1の光L1に含まれる光の波長及び第2指示体7から発せられる第2の光L2に含まれる光の波長とは異なる波長の光を発する光源であってもよい。例えば、第1可視光VL1の波長、第2可視光VL2の波長、第1の赤外光IR1の波長、及び第2の赤外光IR2の波長と異なる光を発する光源であってもよい。光源21は、光源駆動回路24により駆動されて発光する。プロジェクター1は、制御部10の制御に従って光源21に電力を供給する駆動回路を備えてもよい。
光変調装置22は、光源21が発する光を変調して画像光PLを生成し、光学ユニット23に照射する。光変調装置22は、例えば、透過型の液晶ライトバルブ、反射型の液晶ライトバルブ、デジタルミラーデバイス等の光変調素子を備える。光変調装置22の光変調素子は、光変調装置駆動回路25に接続される。光変調装置駆動回路25は、光変調装置22の光変調素子を駆動して、光変調装置22の光変調素子をライン単位で順次形成し、最終的にフレーム単位で画像を形成させる。光変調装置22は、光変調素子を駆動する駆動回路を備えてもよい。例えば、光変調装置22が液晶ライトバルブにより構成される場合、駆動回路として、液晶ドライバー回路を備えてもよい。
光学ユニット23は、レンズやミラー等の光学素子を備え、光変調装置22で変調された画像光PLをスクリーンSC上に結像させ、画像データ17に基づいた投射画像PSをスクリーンSCに表示する。
図1に示すように、プロジェクター1は、インターフェイス41、画像処理部42、及び、入力処理部45を備えてもよい。これらの各部は制御部10に接続される。
インターフェイス41は、画像データが入力されるインターフェイスであり、図示しない伝送ケーブルが接続されるコネクター、及び、伝送ケーブルを介して画像データを受信するインターフェイス回路を備える。
インターフェイス41には、画像データを供給する画像供給装置が接続可能である。画像供給装置は、例えば、ノート型PC(Personal Computer)、デスクトップ型PC、タブレット端末、スマートフォン、PDA(Personal Digital Assistant)を用いることができる。画像供給装置は、ビデオ再生装置、DVD(Digital Versatile Disk)プレーヤー、ブルーレイディスクプレーヤー等であってもよい。画像供給装置は、ハードディスクレコーダー、テレビチューナー装置、CATV(Cable television)のセットトップボックス、ビデオゲーム機等であってもよい。インターフェイス41に入力される画像データは動画像データであっても静止画像データであってもよく、データフォーマットは任意である。
画像処理部42は、インターフェイス41に入力された画像データを処理する。画像処理部42には、フレームメモリー43が接続される。画像処理部42は、投射制御部12の制御に従って、投射部20により投射する画像の画像データを処理する。画像処理部42は、フレームメモリー43の領域の一部のみの数ライン分~数十ライン分ずつ処理を行うこととし、フレームメモリー43を画面全体のフレームメモリーとないでもよい。
画像処理部42は、例えば、投射画像PSの台形歪みを補正する幾何補正処理、OSD(On Screen Display)画像を重畳するOSD処理を含む各種処理を実行する。画像処理部42は、画像データに対し、輝度や色味を調整する画像調整処理を行ってもよい。画像処理部42は、画像データのアスペクト比や解像度を光変調装置22に合わせて調整する解像度変換処理を行ってもよい。画像処理部42は、フレームレート変換などのその他の画像処理を実行してもよい。
画像処理部42は、処理後の画像データに基づき、画像信号を生成し、光変調装置22に出力する。投射制御部12は、画像処理部42が出力する画像信号に基づき、光変調装置22を動作させて、投射部20により画像光PLを投射させる。
入力処理部45は、プロジェクター1に対する入力を受け付ける。入力処理部45は、図示しないリモコンが送信する赤外線信号を受光するリモコン受光部46、及び、プロジェクター1の本体に設けられる操作パネル47に接続される。入力処理部45は、リモコン受光部46が受光した信号をデコードして、リモコンによる操作を検出する。また、入力処理部45は、操作パネル47に対する操作を検出する。入力処理部45は、操作内容を示すデータを制御部10に出力する。
プロジェクター1は、第1指示体6及び第2指示体7による指示操作を検出し、操作位置を特定するための構成として撮像部30を備える。
スクリーンSCには、第1指示体6及び第2指示体7の操作を検出する対象範囲DAが設定される。本実施形態では、投射部20が投射画像PSを投射する範囲が、対象範囲DAと一致する。撮像部30は、対象範囲DAを含む撮像範囲、すなわち画角を撮像する。
撮像部30は、いわゆるデジタルカメラであり、位置検出部13の制御により撮像を実行し、撮像データDを制御部10に出力する。撮像データDは、記憶部15に記憶される。撮像部30の画角は、上述のように第1指示体6及び第2指示体7の操作の対象範囲DAを含むので、撮像データDは投射画像PSを含むスクリーンSCを撮像した画像データである。撮像部30の画角は、対象範囲DAの全体を含むことが好ましいが、対象範囲DAの一部を含む画角であってもよい。
位置検出部13は、撮像部30を制御して撮像を実行させる。位置検出部13の制御に従って、撮像部30は撮像データDを出力し、撮像部30が出力した撮像データDは記憶部15に記憶される。位置検出部13は、撮像データDを解析して、第1指示体6の操作位置、及び、第2指示体7の操作位置を、識別して検出する。位置検出部13が検出する第1指示体6の操作位置は、第1の位置に相当し、第2指示体7の操作位置は第2の位置に相当する。
[撮像部の構成]
図4は、撮像部30の概略構成図である。図4において、撮像部30に外部から入射する光を、入射光OLとする。
撮像部30は、入射光OLを集光するレンズを有する撮像光学ユニット31と、撮像光学ユニット31により集光された光を検出するイメージセンサー32と、を備える。イメージセンサー32は、受光素子33と、受光素子33の入射側に配置されるカラーフィルターアレイ34とを備える。イメージセンサー32には、受光素子33の出力値を読み出して撮像データDを生成する出力回路35が接続される。イメージセンサー32は、光センサーに相当する。
図5は、イメージセンサー32の構成図である。
イメージセンサー32は、例えば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサーや、CCD(Charge Coupled Device)イメージセンサーで構成される。イメージセンサー32は、多数の受光素子33がマトリクス状に配置されて構成される。各々の受光素子33は、検出画素に相当する。
イメージセンサー32上に配置された各々の受光素子33に重なるように、カラーフィルターアレイ34が配置される。カラーフィルターアレイ34は、複数のカラーフィルターを受光素子33の位置に合わせて配列したフィルターである。カラーフィルターアレイ34のカラーフィルターは、赤色用フィルター34R、青色用フィルター34B、及び、緑色用フィルター34Gを含み,それぞれが市松模様に配置される。図5には、カラーフィルターアレイ34において、カラーフィルターが、x方向の行、及びy方向の列に沿って市松模様にマトリクス状に配列された例を示す。
赤色用フィルター34Rは、受光素子33により赤色の光を検出させるため、赤色光以外の波長の光を減衰、或いは遮光するフィルターである。赤色用フィルター34Rに重なる受光素子33は赤色光を受光して検出する。
また、青色用フィルター34Bは、受光素子33により青色の光を検出させるため、青色光以外の波長の光を減衰、或いは遮光するフィルターである。青色用フィルター34Bに重なる受光素子33は、青色光を受光して検出する。
緑色用フィルター34Gは、受光素子33により緑色の光を検出させるため、緑色光以外の波長の光を減衰、或いは遮光するフィルターである。緑色用フィルター34Gに重なる受光素子33は、緑色光を受光して検出する。
このように、イメージセンサー32は、カラーフィルターアレイ34を利用して、受光素子33によって赤色、青色、緑色を検出し、検出値を出力する。
カラーフィルターアレイ34における赤色用フィルター34R、青色用フィルター34B、及び緑色用フィルター34Gの配置は任意であり、例えば、ベイヤー配置(Bayer Arrangement)に従って配置される。この場合、カラーフィルターアレイ34は、x方向において赤色用フィルター34Rと緑色用フィルター34Gとが交互に配列した行と、青色用フィルター34Bと緑色用フィルター34Gとが交互に配列した行とを含み、これらの行がy方向に交互に配置される。この例では、人間の視覚特性が緑色の輝度に敏感であることに対応して、緑色用フィルター34Gが、赤色用フィルター34R及び青色用フィルター34Bより高密度に配置される。
図5に示すカラーフィルターアレイ34の構成は一例である。カラーフィルターアレイ34は、赤色用フィルター34R、青色用フィルター34B及び緑色用フィルター34Gに加え、白色用の透明なフィルターを含む構成であってもよい。また、カラーフィルターアレイ34は、カラーフィルターアレイ34を、シアン用のフィルター、マゼンタ用のフィルター、及び、イエロー用のフィルターを含む補色のカラーフィルターを用いた構成であってもよい。
図4に戻り、出力回路35は、イメージセンサー32を構成する各々の受光素子33の検出値をサンプリングする。出力回路35は、画素毎の補間処理、ホワイトバランス調整処理、色分離処理、偽色抑圧処理等の各種処理を実行し、各画素のRGBの出力値を含む撮像データDを生成する。
撮像データDは、複数の画素を含み、各画素についての複数の色の画素値を含む静止画像データである。撮像データDに含まれる画素の数は受光素子33の数と一致していてもよいし、一致していなくてもよい。撮像データDが含む画素値は、例えば、R、G、Bの各色のデータであるが、後述するようにY、U、Vの画素値を含んでもよい。撮像データDは、画素ごとに、所定ビット数の画素値を含む。典型的な例では、撮像データDは、画素毎に24ビットのRGBデータを含む。
撮像データDの具体的なフォーマットは制限されない。例えば、撮像データDは、RAWデータであってもよいし、JPEG(Joint Photographic Experts Group)形式の画像データであってもよい。或いは、PNG(Portable Network Graphics)形式や、その他の形式の画像データであってもよい。出力回路35は、RGBの出力値をYUV値に変換する信号処理を実行して、YUVデータを含む撮像データDを制御部10に出力してもよい。例えば,RGB各8ビットで1画素あたり24ビットのデータをx方向の行、及びy方向の列に沿って順次出力する映像出力フォーマットとして扱ってもよい。
撮像部30は、イメージセンサー32の入射側、すなわち入射光OLが入射される側に、光学フィルター36を備える。光学フィルター36は、予め設定された波長の光を遮光または減衰させるフィルターである。光学フィルター36の特性については後述する。
[撮像部による検出]
図6は、イメージセンサー32の受光特性を示す図表である。図6における横軸は波長を示し、縦軸は相対感度を示す。図6には、波長とイメージセンサー32の相対感度の相関を(1)、(2)、(3)の波形により示す。波形(1)は赤色光の相対感度を示す。赤色用フィルター34Rに重なる受光素子33の出力値は、相対感度特性の波形(1)に対応する。同様に、波形(2)は緑色光の相対感度を示し、緑色用フィルター34Gに重なる受光素子33の出力値は相対感度特性の波形(2)に対応する。波形(3)は青色光の相対感度を示し、青色用フィルター34Bに重なる受光素子33の出力値は、相対感度特性の波形(3)に対応する。
図6には、光学フィルター36により遮光または減衰する波長域を符号BA1、BA2、BA3で示す。
光学フィルター36は、波長域BA1、BA2、BA3の光を完全に遮光するものに限定されず、各波長域BA1、BA2、BA3の光を減衰させるものであればよい。例えば、波長域BA1、BA2、BA3のそれぞれにおける透過率が80%以下であればよい。なお、波長域BA1、BA2、BA3のそれぞれにおける透過率は、数%以下であることが望ましく、0%とすることがより望ましい。以下の説明で、光学フィルター36が波長域BA1、BA2、BA3の光を遮る、との表現は、波長域BA1、BA2、BA3の光を遮光すること及び減衰させることを含む。
波長域BA1は、波長400nm未満の紫外領域から波長400nmを含む。波長域BA1の下限は制限されないが、例えば、380nm、或いは350nmとすることができる。波長域BA2は、少なくとも600-650nmの波長を含み、好ましくは、580nm-670nmを含む。波長域BA2は可視領域における赤色光の波長に相当する。波長域BA3は、少なくとも800nm-1000nmの波長域を含み、好ましくは、780nm-1200nmを含む。波長域BA3は近赤外領域を含む。
また、光学フィルター36は、380nm以下、及び、1200nm以上の波長域の光を遮るものであってもよい。
イメージセンサー32の相対感度は、可視領域外、例えば700nm以上1000nm以下の波長域においても0にならない。このため、イメージセンサー32は、図6に示した400nm-1000nmの波長域のうち、波長域BA1、BA2、BA3以外の波長域の光を受光して有意の出力値を出力する。
符号B1、B2、B3は、上述した波長域B1、B2、B3を示す。第1可視光VL1及び第2可視光VL2は、それぞれ、波長域B1、B2、B3のいずれかである。第1可視光VL1の波長は第1の波長に相当し、第2可視光VL2の波長は第2の波長に相当する。すなわち、第1の波長は波長域B1、B2、B3のいずれかに含まれ、第2の波長は波長域B1、B2、B3のうち第1の波長とは異なる波長域に含まれる。
符号B4は、第1の赤外光IR1、及び第2の赤外光IR2を含む波長域を示す。波長域B4は、760nmを含む近赤外の波長域である。
波長域B1の光はいわゆる青色の光であり、波長域B2の光はいわゆる緑色の光りであり、波長域B3の光は、いわゆる黄色の光である。
イメージセンサー32は、近紫外領域においても感度を有する。波長域B4では、イメージセンサー32の赤色光の相対感度(1)の値が約0.8であり、緑色光の相対感度(2)の値が約0.4であり、青色光の相対感度(3)の値が約0.1である。従って、イメージセンサー32は、波長域B4の光を受光した場合、橙色を含む光を受光した場合と同様の出力値を出力する。
また、850nmを含む波長域では、イメージセンサー32の赤色光の相対感度(1)、緑色光の相対感度(2)、及び青色光の相対感度(3)の比がほぼ等しい。このため、イメージセンサー32は、850nm帯の光を受光した場合、白色を含む光を受光した場合と同様の出力値を出力する。ただし、本実施形態では、850nm帯の光は光学フィルター36により遮られる。
イメージセンサー32は、波長域B1に含まれる光である青色光を受光した場合、撮像データDに青色の像を形成する。波長域B2に含まれる光である緑色光、及び、波長域B3に含まれるである黄色光を受光した場合も同様に、撮像データDにそれぞれ緑色、黄色の像を形成する。
ここで、イメージセンサー32は、波長域B1に含まれる光と、波長域B4に含まれる光とを受光した場合、図6に示すR、G、Bの相対感度特性から、マゼンダの光を受光した場合と同様の出力値を出力する。すなわち、撮像データDにマゼンダ色の像を形成する。
また、イメージセンサー32は、波長域B2に含まれる光と、波長域B4に含まれる光とを受光した場合、図6に示すR、G、Bの相対感度特性から、黄色の光を受光した場合と同様の出力値を出力する。すなわち、撮像データDに黄色の像を形成する。
また、イメージセンサー32は、波長域B3に含まれる光と、波長域B4に含まれる光とを受光した場合、図6に示すR、G、Bの相対感度特性から、橙色の光を受光した場合と同様の出力値を出力する。すなわち、撮像データDに橙色の像を形成する。
また、光学フィルター36は、赤色光に相当する波長域を含む波長域BA2を遮るので、イメージセンサー32は、マゼンダの光を受光した場合、青色の光を受光した場合と同様の出力値を出力する。
このように、撮像部30は、イメージセンサー32の感度特性と、波長域BA1、BA2、BA3を遮る光学フィルター36とを組み合わせることにより、光学フィルター36が存在しない場合とは異なる色の像を撮像データDに形成する。
従って、第1可視光VL1が波長域B1に含まれる光である場合、イメージセンサー32は、第1可視光VL1と第1の赤外光IR1を含む第1の光L1を受光すると、マゼンダの像を撮像データDに形成する。第1可視光VL1が波長域B2に含まれる光である場合、イメージセンサー32は、第1の光L1を受光すると、黄色の像を撮像データDに形成する。第1可視光VL1が波長域B3に含まれる光である場合、イメージセンサー32は、第1の光L1を受光すると、橙色の像を撮像データDに形成する。第2の光L2についても同様である。
つまり、第1の光L1、及び第2の光L2は、マゼンダ、黄色、橙色のいずれかの光として撮像部30によって検出され、第1の光L1の像と第2の光L2の像とは、撮像データDにおいて異なる色の像を形成する。このため、撮像データDに写る第1の光L1の像と第2の光L2の像とは、色により識別可能である。
位置検出部13は、撮像データDにおける像の位置を特定し、特定した位置を、第1指示体6または第2指示体7の操作位置として検出できる。位置検出部13は、撮像データDにおいて検出した像を、色に基づき、第1指示体6の操作位置であるか、第2指示体7の操作位置であるか識別できる。さらに、位置検出部13は、撮像データDにおける第1指示体6の操作位置を、対象範囲DAにおける第1指示体6の位置に変換する変換処理を行って、第1指示体6による操作を検出する。同様に、位置検出部13は、撮像データDにおける第2指示体7の操作位置を、対象範囲DAにおける第2指示体7の位置に変換する変換処理を行って、第2指示体7による操作を検出する。
ここで、イメージセンサー32により第1の光L1が検出される色を、第1検出色とし、イメージセンサー32により第2の光L2が検出される色を第2検出色とする。第1検出色は、イメージセンサー32が第1可視光VL1と第1の赤外光IR1の両方を検出した場合の像の色である。第2検出色は、イメージセンサー32が第2可視光VL2と第2の赤外光IR2との両方を受光した場合の像の色である。第1検出色および第2検出色は、マゼンダ、黄色、橙色のいずれかであり、互いに異なる色である。
位置検出部13は、第1検出色、及び、第2検出色となり得るマゼンダ、黄色、橙色のRGBデータを予め有している。これらのデータは、例えば、設定データ16として記憶部15に記憶される。位置検出部13は、撮像データDから、マゼンダ、黄色、橙色のRGBデータに該当する画素を検出する。各色のRGBデータは、R、G、Bの各色の値であってもよいし、各色の値の範囲を定めるデータであってもよい。また、第1の光L1及び第2の光L2の波長域が既知である場合、位置検出部13は、マゼンダ、黄色、橙色のうち、第1の光L1及び第2の光L2に対応する色のみについてRGBデータを有していてもよい。
以下に説明するプロジェクター1の動作は、位置検出部13が、第1検出色として第1の光L1の検出色に相当する色のRGBデータを有し、第2検出色として第2の光L2の検出色に相当する色のRGBデータを有する場合の動作例である。この場合、位置検出部13は、2つの色について検出を実行する。例えば、プロジェクター1が、マゼンダ、黄色、橙色の全てのRGBデータを有する場合、3つの指示体の操作位置を区別して検出できる。
[プロジェクターの動作]
図7は、プロジェクター1の動作を示すフローチャートである。
位置検出部13は、位置検出処理を開始して(ステップS11)、第1指示体6及び第2指示体7の操作位置を検出可能な動作状態に移行する。位置検出部13は、撮像部30を制御して撮像を実行させる(ステップS12)。撮像部30は、ステップS12において、位置検出部13の制御に従って撮像を実行し、撮像データDを制御部10に出力し、撮像データDは記憶部15に記憶される。
位置検出部13は、撮像データDを取得して(ステップS13)、撮像データDから第1検出色の像を検出する(ステップS14)。位置検出部13は、第1検出色の像があるか否かを判定し(ステップS15)、第1検出色の像がある場合(ステップS15;YES)、検出した像の位置を、第1指示体6の操作位置と判定する(ステップS16)。位置検出部13は、ステップS14で検出した像の位置を対象範囲DAにおける位置座標に変換して、第1指示体6の操作位置を示す操作データを生成する(ステップS17)。
ステップS17で操作データを生成した後、位置検出部13は、ステップS18に移行する。また、第1検出色の像がないと判定した場合(ステップS15;NO)、位置検出部13はステップS18に移行する。
ステップS18で、位置検出部13は、撮像データDから第2検出色の像を検出する(ステップS18)。位置検出部13は、第2検出色の像があるか否かを判定し(ステップS19)、第2検出色の像がある場合(ステップS19;YES)、検出した像の位置を、第2指示体7の操作位置と判定する(ステップS20)。位置検出部13は、ステップS18で検出した像の位置を対象範囲DAにおける位置座標に変換して、第2指示体7の操作位置を示す操作データを生成する(ステップS21)。
ステップS21で操作データを生成した後、位置検出部13は、ステップS22に移行して、位置検出処理を終了するか否かを判定する(ステップS22)。また、第2検出色の像がないと判定した場合(ステップS19;NO)、位置検出部13はステップS22に移行して判定を行う。
入力処理部45が位置検出処理の終了を指示する操作を受け付けた場合や、プロジェクター1の電源オフが指示された場合等に、位置検出部13は、位置検出処理を終了すると判定する(ステップS22;YES)。この場合、位置検出部13は、第1指示体6及び第2指示体7の操作位置を検出する処理を終了する。位置検出部13は、位置検出処理を終了しないと判定した場合(ステップS22;NO)、ステップS12に戻る。
位置検出部13がステップS17、S20で生成する操作データは、プロジェクター1による種々の処理に利用できる。例えば、プロジェクター1は、第1指示体6や第2指示体7の操作位置の軌跡に対応して、制御部10が画像を描画し、投射部20により投射する処理を行ってもよい。ここで、第1指示体6の操作位置に応じて制御部が行う描画処理が第1の処理に相当し、第2指示体7の操作位置に応じて制御部が行う描画処理が第2の処理に相当する。具体的には、ステップS17で第1指示体6の操作位置がP1であるという操作データを生成した後、位置検出を終了せず(ステップS22;NO)、ステップS17で位置検出部13が、P1とは異なる位置であるP2が第1指示体6の操作位置であるという操作データを生成した場合、制御部10がP1とP2を結合する線を描画し、投射部20により投射する処理を行ってもよい。同様なフローで第2指示体7の操作位置に応じて線を描画し、投射部20により投射することもできる。この場合、プロジェクター1は、ユーザーが第1指示体6及び第2指示体7を操作することにより、操作に従って画像や図形を描画できる。位置検出部13は、撮像部30が1回の撮像で得る撮像データDから、第1指示体6の操作位置と、第2指示体7の操作位置とを、識別して検出できる。このため、第1指示体6の操作に従って画像を描画する処理と、第2指示体7の操作に従って画像を描画する処理とを、実行できる。例えば、第1指示体6の操作と第2指示体7の操作に基づき、別の画像を描画する処理を行うことができる。また、プロジェクター1は、位置検出部13が生成した操作データを、図示しない通信装置や通信インターフェイスを通じて、外部の装置に出力してもよい。
以上説明したように、本実施形態のプロジェクター1は、撮像部30を備える。撮像部30は、第1指示体6が発した第1の光L1と、第2指示体7が発した第2の光L2と、対象範囲DAと、を撮像した撮像データDを生成する。プロジェクター1は、撮像データDに基づいて、対象範囲DAに対する第1指示体6の第1の位置と、対象範囲DAに対する第2指示体7の第2の位置と、を識別して検出する位置検出部13を備える。撮像部30は、第1の色光、第2の色光及び第3の色光の検出値を出力するイメージセンサー32を備える。プロジェクター1は、イメージセンサー32によって第1の光L1に含まれる第1の赤外光IR1及び第1可視光VL1と、第2の光L2に含まれる第2の赤外光IR2及び第2可視光VL2と、を検出する。第1可視光VL1は第1の波長の光であり、第2可視光VL2は、第1の波長とは異なる第2の波長の光である。
本発明の位置検出装置、及び、位置検出方法を適用したプロジェクター1によれば、撮像データDから第1指示体6の操作位置と第2指示体7の操作位置とを識別して検出できる。撮像データDが、イメージセンサー32によって第1の光L1及び第2の光L2を検出した検出値を含むので、撮像部30が1回に撮像する撮像データDを利用して、第1指示体6と第2指示体7のそれぞれの操作位置を識別して検出できる。第1の光L1が含む第1可視光VL1と、第2の光L2が含む第2可視光VL2とは、波長が異なる光である。このため、位置検出部13は、撮像データDにおいて検出する像の色に基づき、第1指示体6の操作位置と第2指示体7の操作位置とを区別して検出できる。このため、シンプルな構成によって、光を発する複数の指示体を識別して操作位置を検出するプロジェクター1を実現できる。さらに、第1の光L1及び第2の光L2は、それぞれ、赤外領域の第1の赤外光IR1、第2の赤外光IR2を含む。このため、位置検出部13は、外光、環境光または、第1指示体6及び第2指示体7以外の光源からの光によって撮像データDに可視領域の像が形成された場合であっても、第1指示体6及び第2指示体7の操作位置を確実に検出できる。
ここで、対象範囲DAは、第1指示体6及び第2指示体7の位置を検出する対象となる範囲であり、検出範囲と言い換えることもできる。
プロジェクター1において、イメージセンサー32は、検出画素としての複数の受光素子33を備える。撮像部30は、複数の受光素子33のそれぞれに対応する第1の色光、第2の色光及び第3の色光の検出値を含む撮像データDを出力する。第1の色光、第2の色光及び第3の色光は、例えば、赤色光、青色光、及び緑色光である。位置検出部13は、各々の検出画素に対応する1の検出値を含む1の撮像データDから、第1指示体6の操作位置および第2指示体7の操作位置を検出する。このため、位置検出部13は、撮像データDから第1の色光、第2の色光及び第3の色光の検出値をもとに、第1指示体6が発した第1の光L1の像と、第2指示体7が発した第2の光L2の像とを識別して、それぞれ検出できる。従って、2つの第1指示体6、第2指示体7の検出位置を、1つの撮像データDを用いて速やかに検出できる。
イメージセンサー32は、波長域B1、B2、B3のいずれかにおける第1の色光と第2の色光と第3の色光との相対感度が、他の波長域における第1の色光と第2の色光と第3の色光との相対感度と一致しない感度特性を有する。このため、撮像データDにおいて、第1指示体6が発した第1の光L1の像と、第2指示体7が発した第2の光L2の像とを、第1の色光、第2の色光及び第3の色光の成分が異なる像として区別できる。従って、2つの第1指示体6、第2指示体7の検出位置を、撮像データDにおいて容易に区別することができ、速やかに検出できる。
また、上記実施形態において、第1の波長は第2の波長より長い。第1の波長が波長域B3に含まれる場合、第2の波長は波長域B1または波長域B2に含まれる。第1の波長が波長域B2に含まれる場合、第2の波長は波長域B1に含まれる。撮像部30は、第1の赤外光IR1の波長と第1の波長の間の少なくとも一部の波長域の光をカットする光学フィルター36を備える。イメージセンサー32は光学フィルター36を透過した光を検出する。このため、第1可視光VL1と第1の赤外光IR1の間の波長域に属する光の影響を軽減し、撮像データDから第1の光L1の像と第2の光L2の像とを速やかに検出できる。
イメージセンサー32の感度特性について以下の条件が成立する。すなわち、第1の赤外光IR1の波長において、第1の色光の相対感度が、第2の色光および第3の色光のいずれの相対感度よりも高い。かつ、光学フィルター36によりカットされた波長において、第1の色光の相対感度が、第2の色光および第3の色光のいずれの相対感度よりも高い。例えば、図6において、第1の赤外光IR1が含まれる波長域B4では赤色の相対感度(1)が緑色の相対感度(2)及び青色の相対感度(3)より高い。また、光学フィルター36によりカットされた波長域BA2では、赤色の相対感度(1)が緑色の相対感度(2)及び青色の相対感度(3)より高い。このような感度特性をイメージセンサー32が有することにより、撮像データDにおいて、第1の赤外光IR1を含む第1の光L1及び第2の光L2が、可視領域の光とは異なる色の像として写る。このため、外光、環境光または、第1指示体6及び第2指示体7以外の光源からの光の影響を受けにくく、第1指示体6及び第2指示体7の操作位置を確実に検出できる。
光学フィルター36は、第1の赤外光IR1よりも長い波長の光をカットする。このため、第1の赤外光IR1及び第2の赤外光IR2以外の赤外光の影響を排除して、撮像データDから第1の光L1及び第2の光L2の像を、より速やかに検出できる。
光学フィルター36は、紫外線領域の波長の光をカットするので、紫外線領域の入射光OLの影響を排除して、撮像データDから第1の光L1及び第2の光L2の像を、より速やかに検出できる。
また、第1の赤外光IR1と第2の赤外光IR2とは同じ波長の光を含むので、位置検出部13による高い検出精度を確保しつつ、第1指示体6及び第2指示体7の構成を簡略化できる。
第1の光L1に含まれる第1可視光VL1、及び、第2の光L2に含まれる第2可視光VL2光は、可視領域の光である。このため、第1指示体6がユーザーの操作に応じて発光し、位置検出が行われることを、ユーザーに知らせることができ、操作性の向上を図ることができる。第2指示体7についても同様である。
表示装置としてのプロジェクター1は、画像データに基づいた画像を表示面に表示する投射部20を備える。プロジェクター1は、撮像部30と、位置検出部13と、第1の位置に応じた第1の処理と、第2の位置に応じた第2の処理を行う処理部としての制御部10と、を備える。このため、第1の位置と第2の位置との各々を識別して速やかに検出することができ、検出した位置に基づく第1の処理および第2の処理を、速やかに実行できる。
処理部としての制御部10は、第1の処理、及び、第2の処理として、それぞれ異なる描画を行う処理を実行する。すなわち、制御部10は、第1の処理として、第1指示体6の操作位置の軌跡に対応する画像を描画し、第2の処理として、第2指示体7の操作位置の軌跡に対応する画像を描画することができる。
投射システム100は、画像データに基づいた画像を表示面に表示する投射部20を備えたプロジェクター1と、スクリーンSCにおける位置指示操作に用いられる第1指示体6および第2指示体7と、を有する表示システムとして機能する。第1指示体6は第1の光L1を発し、第2指示体7は第2の光L2を発する。投射システム100では、第1指示体6及び第2指示体7のそれぞれを用いて、位置指示操作を行うことができる。そして、プロジェクター1により、第1指示体6の操作位置である第1の位置と、第2指示体7の操作位置である第2の位置とを識別して、速やかに検出できる。
第1指示体6は、操作を検出する第1スイッチ66と、第1可視光源63と、第1赤外光源64と、第1スイッチ66が操作を検出した場合に第1可視光源63及び第1赤外光源64から発光させる第1発光制御部65と、を備える。第2指示体7は、操作を検出する第2スイッチ76と、第2可視光源73と、第2赤外光源74と、第2スイッチ76が操作を検出した場合に第2可視光源73及び第2赤外光源74から発光させる第2発光制御部75と、を備える。このため、第1指示体6は、第1スイッチ66により操作を検出したときに第1の光L1を発し、第2指示体7は、第2スイッチ76により操作を検出したときに第2の光L2を発する。従って、プロジェクター1により、第1指示体6の操作が行われた場合の操作位置と、第2指示体7の操作が行われた場合の操作位置とを、識別して検出できる。このため、第1指示体6及び第2指示体7の操作の有無と、操作位置とを、速やかに検出できる。
第1指示体6が備える第1可視光源63は可視領域の第1可視光VL1を発し、第2指示体7が備える第2可視光源73は可視領域の第2可視光VL2を発する。このため、ユーザーが、操作に対応して第1指示体6及び第2指示体7が発する光を認識できるので、ユーザビリティの向上を図ることができる。
[他の実施形態]
上記実施形態は本発明を適用した一具体例を示すものであり、本発明はこれに限定されるものではない。
上記実施形態では、第1指示体6及び第2指示体7が、それぞれ、第1スイッチ66及び第2スイッチ76により操作を検出した場合に発光する構成を例示した。本発明はこれに限定されず、第1スイッチ66が操作されていない状態で第1指示体6が第1の光L1を発する構成としてもよい。また、第1スイッチ66は、複数の波長の赤外光を切り替えて発する構成としてもよい。例えば、第1スイッチ66が操作されていない状態と、第1スイッチ66が操作されている状態とで、第1可視光源63及び/または第1赤外光源64から発する赤外光の波長を切り替える構成としてもよい。上述のように、撮像部30は、波長が異なる複数の赤外光を、異なる相対感度で検出するイメージセンサー32を備える。このため、位置検出部13は、撮像データDに基づき、第1指示体6の操作位置と、第1スイッチ66の操作の有無とを検出できる。第2指示体7についても同様である。
また、上記実施形態では、第1可視光VL1、第2可視光VL2、第1の赤外光IR1、及び第2の赤外光IR2の波長として例示した値は一例である。上述した例とは異なる波長とすることが可能である。また、3以上の指示体を投射システム100において用いる構成とすることも可能であり、この場合、各々の指示体が発する光は、波長域B1、B2、B3のうち、それぞれ異なる波長域の光を発する構成であればよい。
また、第1指示体6及び第2指示体7の構成は任意であり、例えば、複数の光源を備える構成としてもよいし、第1スイッチ66、第2スイッチ76を複数備える構成としてもよい。また、第1指示体6及び第2指示体7の形状はペン型に限定されず、例えば、ユーザーの指や手に装着する形状としてもよい。
また、上記実施形態では、対象範囲DAが投射画像PSに一致する構成を例示したが、本発明はこれに限定されない。対象範囲DAは、投射画像PSの一部を含むことが好ましいが、投射画像PSと一致していなくてもよく、対象範囲DAが投射画像PS及びその周辺を含んでも良いし、投射画像PSの一部が対象範囲DAとなる構成であってもよい。
また、本発明の表示装置はプロジェクター1に限定されず、液晶表示パネルに画像を表示する液晶モニター又は液晶テレビを表示装置として用いてもよいし、その他の表示方式を採用する装置を用いてもよい。
図8は、本発明を適用した変形例としての投射システム100Aの構成を示す図である。
図8に示す投射システム100Aは、ディスプレイ9と、第1指示体6、及び第2指示体7とを組み合わせたシステムである。ディスプレイ9は、本体91に、表示面92を備えている。表示面92は、液晶表示パネル、プラズマディスプレイパネル、OLED(Organic light-emitting diode)、OEL(Organic Electro Luminescence)ディスプレイ等で構成される。ディスプレイ9は、プロジェクター1と同様に、表示面92に画像を表示する表示装置である。
ディスプレイ9の本体91の上部には、撮像部93が配置される。撮像部93は、撮像部30と同様に、デジタルカメラである。
表示面92には、対象範囲DAが設定されている。対象範囲DAは、第1指示体6及び第2指示体7の操作を検出する対象の領域である。撮像部93は、対象範囲DAを撮像するように配置されており、好ましくは、撮像部93は対象範囲DAの全体を撮像する。
上記実施形態と同様に、第1指示体6は第1の光L1を発し、第2指示体7は第2の光L2を発する。ディスプレイ9は、撮像部93により対象範囲DAを撮像した撮像画像をもとに、第1指示体6の指示位置、及び第2指示体7の指示位置を検出して、検出した位置に基づく処理を行う。例えば、ディスプレイ9は、第1指示体6の指示位置の軌跡に沿って画像94Aを描画し、第2指示体7の指示位置の軌跡に沿って画像94Bを描画し、表示面92に表示する。
このように、本発明の表示装置の具体的態様は任意に変更可能であり、各種の態様において、上記実施形態で説明した構成と同様の効果を得ることができる。
また、図2及び図3に示した各機能部は機能的構成を示すものであって、具体的な実装形態は特に制限されない。つまり、必ずしも各機能部に個別に対応するハードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。また、複数のプロセッサーが協働して、一つまたは複数の機能部の機能を実現する構成とすることも可能である。さらに、上記実施形態においてソフトウェアで実現される機能の一部をハードウェアで実現してもよく、或いは、ハードウェアで実現される機能の一部をソフトウェアで実現してもよい。その他、投射システム100を構成する他の各部の具体的な細部構成についても、本発明の趣旨を逸脱しない範囲で任意に変更可能である。
1…プロジェクター(表示装置)、6…第1指示体、7…第2指示体、10…制御部(処理部)、11…プロセッサー、12…投射制御部、13…位置検出部、15…記憶部、16…設定データ、17…画像データ、20…投射部(画像表示部)、21…光源、22…光変調装置、23…光学ユニット、24…光源駆動回路、25…光変調装置駆動回路、30…撮像部、31…撮像光学ユニット、32…イメージセンサー(光センサー)、33…受光素子(検出画素)、34…カラーフィルターアレイ、34B…青色用フィルター、34G…緑色用フィルター、34R…赤色用フィルター、35…出力回路、36…光学フィルター、41…インターフェイス、42…画像処理部、43…フレームメモリー、45…入力処理部、46…リモコン受光部、47…操作パネル、61…軸部、62…先端、63…第1可視光源(光源)、64…第1赤外光源(光源)、65…第1発光制御部(発光制御部)、66…第1スイッチ(操作センサー)、67…第1電源、71…軸部、72…先端、73…第2可視光源(光源)、74…第2赤外光源(光源)、75…第2発光制御部(発光制御部)、76…第2スイッチ(操作センサー)、100…投射システム(表示システム)、D…撮像データ、DA…対象範囲、IR1…第1の赤外光、IR2…第2の赤外光、L1… 第1の光、L2…第2の光、OL…入射光、PL…画像光、PS…投射画像、SC…スクリーン(表示面)、VL1…第1可視光(第1の波長の光)、VL2…第2可視光(第2の波長の光)。

Claims (9)

  1. 第1指示体が発した第1の光と、第2指示体が発した第2の光と、対象範囲と、を撮像した撮像データを生成する撮像部と、
    前記撮像データに基づいて、前記対象範囲に対する前記第1指示体の第1の位置と、前記対象範囲に対する前記第2指示体の第2の位置と、を識別して検出する位置検出部と、を備え、
    前記撮像部は、第1の色光、第2の色光及び第3の色光の検出値を出力するセンサーを備え、前記センサーによって前記第1の光に含まれる第1の赤外光及び第1の波長の可視光と、前記第2の光に含まれる第2の赤外光及び前記第1の波長とは異なる第2の波長の可視光と、を検出することにより、前記第1の光の像として前記第1の波長の可視光とは異なる色の像を含み、前記第2の光の像として前記第2の波長の可視光とは異なる色の像を含む前記撮像データを生成する、位置検出装置。
  2. 前記センサーは、複数の検出画素を備えるイメージセンサーで構成され、前記撮像部は複数の前記検出画素のそれぞれに対応する第1の色光、第2の色光及び第3の色光の検出値を含む前記撮像データを出力し、
    前記位置検出部は、各々前記検出画素に対応する1の検出値を含む1の前記撮像データから前記第1の位置および前記第2の位置を検出する、請求項1記載の位置検出装置。
  3. 前記センサーは、前記第1の波長における第1の色光と第2の色光と第3の色光との相対感度が、前記第2の波長における前記第1の色光と前記第2の色光と前記第3の色光との相対感度と一致しない感度特性を有する、請求項1または2記載の位置検出装置。
  4. 前記第1の波長は前記第2の波長より長く、
    前記撮像部は、前記第1の赤外光の波長と前記第1の波長の間の少なくとも一部の波長域の光をカットする光学フィルターを備え、前記センサーは前記光学フィルターを透過した光を検出する、請求項1から3のいずれか1項に記載の位置検出装置。
  5. 前記センサーは、
    前記第1の赤外光の波長において、前記第1の色光の相対感度が、前記第2の色光および前記第3の色光のいずれの相対感度よりも高く、かつ、
    前記光学フィルターによりカットされた波長において、前記第1の色光の相対感度が、前記第2の色光および前記第3の色光のいずれの相対感度よりも高い感度特性を有する、請求項4記載の位置検出装置。
  6. 前記光学フィルターは、前記第1の赤外光の波長よりも長い波長の光、又は紫外線領域の光をカットする、請求項4または5に記載の位置検出装置。
  7. 前記第1の赤外光の波長域と前記第2の赤外光の波長域は同じ波長を含む、請求項1から6のいずれか1項に記載の位置検出装置。
  8. 画像データに基づいた画像を表示面に表示する画像表示部を備えた表示装置と、前記表示面における位置指示操作に用いられる第1指示体および第2指示体と、を有する表示システムであって、
    前記第1指示体は、第1の赤外光及び第1の波長の可視光を含む第1の光を発し、
    前記第2指示体は、第2の赤外光及び前記第1の波長とは異なる第2の波長の可視光を含む第2の光を発し、
    前記表示装置は、
    前記第1指示体が発した第1の光と、前記第2指示体が発した第2の光と、前記表示面の少なくとも一部と、を撮像した撮像データを生成する撮像部と、
    前記撮像データに基づいて、前記第1指示体の前記表示面に対する第1の位置と、前記第2指示体の前記表示面に対する第2の位置と、を識別して検出する位置検出部と、
    前記第1の位置に応じた第1の処理と、前記第2の位置に応じた第2の処理を行う処理部と、を備え、
    前記撮像部は、第1の色光、第2の色光及び第3の色光の検出値を出力する光センサーを備え、前記光センサーによって前記第1の光に含まれる前記第1の赤外光及び前記第1の波長の可視光と、前記第2の光に含まれる前記第2の赤外光及び前記2の波長の可視光と、を検出することにより、前記第1の光の像として前記第1の波長の可視光とは異なる色の像を含み、前記第2の光の像として前記第2の波長の可視光とは異なる色の像を含む前記撮像データを生成する、表示システム。
  9. 第1指示体が発した第1の光と、第2指示体が発した第2の光と、対象範囲と、を撮像した撮像データを生成し、
    前記撮像データに基づいて、前記対象範囲に対する前記第1指示体の第1の位置と、前記対象範囲に対する前記第2指示体の第2の位置と、を識別して検出することを含み、
    第1の色光、第2の色光及び第3の色光の検出値を出力するセンサーを備え、前記センサーによって前記第1の光に含まれる第1の赤外光及び第1の波長の可視光と、前記第2の光に含まれる第2の赤外光及び前記第1の波長とは異なる第2の波長の可視光と、を検出する撮像部を用いて、前記第1の光の像として前記第1の波長の可視光とは異なる色の像を含み、前記第2の光の像として前記第2の波長の可視光とは異なる色の像を含む前記撮像データを生成する、位置検出方法。
JP2018198487A 2018-10-22 2018-10-22 位置検出装置、表示システム、及び、位置検出方法 Active JP7251094B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018198487A JP7251094B2 (ja) 2018-10-22 2018-10-22 位置検出装置、表示システム、及び、位置検出方法
CN201910998755.8A CN111083454B (zh) 2018-10-22 2019-10-21 位置检测装置、显示装置、显示系统以及位置检测方法
US16/658,918 US11333959B2 (en) 2018-10-22 2019-10-21 Position detection device, display device, and position detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018198487A JP7251094B2 (ja) 2018-10-22 2018-10-22 位置検出装置、表示システム、及び、位置検出方法

Publications (3)

Publication Number Publication Date
JP2020068411A JP2020068411A (ja) 2020-04-30
JP2020068411A5 JP2020068411A5 (ja) 2021-10-07
JP7251094B2 true JP7251094B2 (ja) 2023-04-04

Family

ID=70280711

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018198487A Active JP7251094B2 (ja) 2018-10-22 2018-10-22 位置検出装置、表示システム、及び、位置検出方法

Country Status (3)

Country Link
US (1) US11333959B2 (ja)
JP (1) JP7251094B2 (ja)
CN (1) CN111083454B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7251094B2 (ja) 2018-10-22 2023-04-04 セイコーエプソン株式会社 位置検出装置、表示システム、及び、位置検出方法
JP7251095B2 (ja) * 2018-10-22 2023-04-04 セイコーエプソン株式会社 位置検出装置、表示装置、表示システム、及び、位置検出方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008287625A (ja) 2007-05-21 2008-11-27 Sony Corp 画像処理システム、画像処理装置および方法、並びにプログラム
JP2012029269A (ja) 2010-06-21 2012-02-09 Sanyo Electric Co Ltd 撮像装置および投写型映像表示装置
JP2018055410A (ja) 2016-09-29 2018-04-05 セイコーエプソン株式会社 画像表示装置用の指示装置及び画像表示システム

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3794180B2 (ja) 1997-11-11 2006-07-05 セイコーエプソン株式会社 座標入力システム及び座標入力装置
US6847356B1 (en) 1999-08-13 2005-01-25 Canon Kabushiki Kaisha Coordinate input device and its control method, and computer readable memory
JP2007088806A (ja) 2005-09-22 2007-04-05 Nec Electronics Corp 画像信号処理装置及び画像信号処理方法
JP4971816B2 (ja) * 2007-02-05 2012-07-11 三洋電機株式会社 撮像装置
JP2010257089A (ja) 2009-04-22 2010-11-11 Xiroku:Kk 光学式位置検出装置
JP2011028629A (ja) 2009-07-28 2011-02-10 Sanyo Electric Co Ltd プレゼンテーションシステム
US8842096B2 (en) * 2010-01-08 2014-09-23 Crayola Llc Interactive projection system
JP4886863B2 (ja) 2010-01-12 2012-02-29 パナソニック株式会社 電子ペンシステム及び電子ペン
US8482539B2 (en) 2010-01-12 2013-07-09 Panasonic Corporation Electronic pen system
US9189086B2 (en) 2010-04-01 2015-11-17 Smart Technologies Ulc Interactive input system and information input method therefor
JP5673191B2 (ja) 2011-02-21 2015-02-18 セイコーエプソン株式会社 インタラクティブシステム、位置情報変換方法、およびプロジェクター
JP5796733B2 (ja) 2011-03-23 2015-10-21 ソニー株式会社 光信号出力装置、信号処理装置、信号処理方法、信号処理システム、撮像装置、プロジェクタ、およびプログラム
JP2013149155A (ja) 2012-01-20 2013-08-01 Sharp Corp 表示装置、入力装置及び表示システム
JP6217058B2 (ja) 2012-05-09 2017-10-25 セイコーエプソン株式会社 画像表示システム
JP2015031817A (ja) 2013-08-02 2015-02-16 セイコーエプソン株式会社 プロジェクター、及び、プロジェクターの制御方法
JP6398248B2 (ja) * 2014-01-21 2018-10-03 セイコーエプソン株式会社 位置検出システム、及び、位置検出システムの制御方法
JP6282758B2 (ja) 2014-11-13 2018-02-21 マクセル株式会社 投射型映像表示装置および映像表示方法
CN105632453B (zh) 2014-11-19 2019-09-24 精工爱普生株式会社 显示装置、显示控制方法和显示系统
JP6477131B2 (ja) 2015-03-27 2019-03-06 セイコーエプソン株式会社 インタラクティブプロジェクター,インタラクティブプロジェクションシステム,およびインタラクティブプロジェクターの制御方法
JP6437654B2 (ja) 2015-07-29 2018-12-12 マクセル株式会社 映像表示システム
JP6137247B2 (ja) 2015-08-21 2017-05-31 ソニー株式会社 プロジェクタ装置及びプロジェクタシステム
JP2017142726A (ja) 2016-02-12 2017-08-17 Necディスプレイソリューションズ株式会社 電子黒板システム、表示装置及び表示方法
JP6623812B2 (ja) 2016-02-17 2019-12-25 セイコーエプソン株式会社 位置検出装置、及び、そのコントラスト調整方法
JP7251094B2 (ja) 2018-10-22 2023-04-04 セイコーエプソン株式会社 位置検出装置、表示システム、及び、位置検出方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008287625A (ja) 2007-05-21 2008-11-27 Sony Corp 画像処理システム、画像処理装置および方法、並びにプログラム
JP2012029269A (ja) 2010-06-21 2012-02-09 Sanyo Electric Co Ltd 撮像装置および投写型映像表示装置
JP2018055410A (ja) 2016-09-29 2018-04-05 セイコーエプソン株式会社 画像表示装置用の指示装置及び画像表示システム

Also Published As

Publication number Publication date
CN111083454B (zh) 2024-01-05
US20200124954A1 (en) 2020-04-23
US11333959B2 (en) 2022-05-17
JP2020068411A (ja) 2020-04-30
CN111083454A (zh) 2020-04-28

Similar Documents

Publication Publication Date Title
US9396520B2 (en) Projector system and control method thereof
US20120212415A1 (en) Interactive system, method for converting position information, and projector
JP6809292B2 (ja) プロジェクターおよびプロジェクターの制御方法
JP7251094B2 (ja) 位置検出装置、表示システム、及び、位置検出方法
JP7251095B2 (ja) 位置検出装置、表示装置、表示システム、及び、位置検出方法
JP2018056800A (ja) プロジェクターシステム
US11003285B2 (en) Display apparatus and method for controlling display apparatus
JP5124958B2 (ja) 投射装置および投射装置の制御方法
KR20100048099A (ko) Dmd를 이용한 사용자 인터페이스 제공방법 및 이를 적용한 dlp 디스플레이 장치
JP6883256B2 (ja) 投影装置
JP2013175001A (ja) 画像表示装置、画像表示システム、および画像表示装置の制御方法
JP4807003B2 (ja) 投影装置及び投影方法
US20080297734A1 (en) Projection display device and method for controlling off-beams thereof
CN115834846A (zh) 图像显示方法及投影仪
JP2018136364A (ja) 表示システム、表示システムの制御方法、指示体および表示装置
JP4133886B2 (ja) プロジェクタ装置及びプロジェクタ装置における色補正方法
US20180348615A1 (en) Display apparatus and method for controlling display apparatus
JP2010015398A (ja) プレゼンテーションシステム及び撮像装置
JP5899993B2 (ja) 画像表示装置、画像表示システム、および画像表示装置の制御方法
JP2015079214A (ja) 投影用スクリーンおよび画像投影システム
JP2020005049A (ja) 投射システム、プロジェクター、投射システムの制御方法およびプロジェクターの制御方法
JP7310535B2 (ja) 表示装置の制御方法および制御装置
US11189249B2 (en) Operation method for head-mounted display device and head-mounted display device
JP5724607B2 (ja) インタラクティブシステム、およびインタラクティブシステムの制御方法
CN110865500B (zh) 投影仪和投影仪的控制方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210824

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220816

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230306

R150 Certificate of patent or registration of utility model

Ref document number: 7251094

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150