JPWO2015052765A1 - 投射型映像表示装置、操作検出装置及び投射型映像表示方法 - Google Patents

投射型映像表示装置、操作検出装置及び投射型映像表示方法 Download PDF

Info

Publication number
JPWO2015052765A1
JPWO2015052765A1 JP2015541328A JP2015541328A JPWO2015052765A1 JP WO2015052765 A1 JPWO2015052765 A1 JP WO2015052765A1 JP 2015541328 A JP2015541328 A JP 2015541328A JP 2015541328 A JP2015541328 A JP 2015541328A JP WO2015052765 A1 JPWO2015052765 A1 JP WO2015052765A1
Authority
JP
Japan
Prior art keywords
projection
detection
unit
image
finger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015541328A
Other languages
English (en)
Other versions
JP6105075B2 (ja
Inventor
沙希子 成川
沙希子 成川
孝志 松原
孝志 松原
森 直樹
直樹 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Maxell Energy Ltd
Original Assignee
Hitachi Maxell Energy Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Maxell Energy Ltd filed Critical Hitachi Maxell Energy Ltd
Publication of JPWO2015052765A1 publication Critical patent/JPWO2015052765A1/ja
Application granted granted Critical
Publication of JP6105075B2 publication Critical patent/JP6105075B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03542Light pens for emitting or receiving light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Projection Apparatus (AREA)

Abstract

操作面上にタッチセンサなどを設けることなく、操作面に対する電子ペンと指の接触位置を正しく検出する投射型映像表示装置を提供する。映像を含む光を投射し、前記光が投射された映像投射面と少なくとも一部が重なった操作面に前記映像を含む光とは異なる照明光を照射し、前記操作面を撮像する。先端が発光する第1の操作対象物が前記操作面に接する位置を検出するための第1の検出処理を行い、発光しない第2の操作対象物が前記操作面に接する位置を検出するための第2の検出処理を行い、前記第1の検出処理または前記第2の検出処理における検出結果に基づき前記表示する映像の少なくとも一部を変更する。

Description

本発明は、ユーザの操作を検出する投射型映像表示装置、操作検出装置及び投射型映像表示方法に関する。
特許文献1には、「特殊な機器を用いることなく操作情報を検出すること」(明細書の段落[0006]参照)を目的とし、その目的を達成する手段として「照明手段及び撮像手段と共に使用される操作検出装置であって、前記照明手段により照らされた状態で操作者を前記撮像手段に撮像させる手段と、前記撮像手段により得られる操作者の画像データをもとに、前記操作者の特定部位の領域を検出する手段と、前記検出された操作者の特定部位の領域から影の部分を抽出する手段と、前記抽出された影の部分の中から、エッジが直線を成す線分を複数検出し、検出された線分同士が鋭角に交わる点を検出し、この交点を前記操作者の特定部位の領域内における指差し位置として検出する手段とを具備することを特徴とする」操作検出装置とそのプログラム(明細書の段落[0007]参照)が記載されている。
また特許文献2には、「電子ペンと指とを対等に使い分けて並行して使用することができるように構成された電子ペンシステムを提供すること」(明細書の段落[0008]参照)を課題とし、その解決手段として「電子ペンと、この電子ペン及び指によるタッチ操作が行われるタッチ面を備えたタッチパネル体と、前記タッチ面上で電子ペン及び指のタッチ位置を検出する位置検出装置と、前記タッチ面を表示画面として所要の画像を表示する表示装置と、前記位置検出装置から取得した位置検出情報に応じた画像を前記表示装置に表示させる制御装置と、を備えた電子ペンシステムであって、前記制御装置は、前記位置検出装置から位置検出情報を受信した際に、その位置検出情報が前記電子ペン及び指のいずれによるものかを判別する指示物判別手段と、前記電子ペンによるタッチ操作に応じて所定のペン入力処理を行なう第1の制御手段と、指のタッチ操作に応じて所定の指入力処理を行なう第2の制御手段と、を備え、前記第1の制御手段のペン入力処理と前記第2の制御手段の指入力処理とを並行して実行させる」電子ペンシステム(明細書の段落[0009]参照)が記載されている。
特開2008−59283号公報 特開2011−143557号公報
特許文献1では、照明が当たったユーザの特定部位を撮像し、撮像された画像データをもとに指差し動作とその位置を検出する。しかしながら、ユーザが物体を把持して操作を行うことに関しては考慮されていないため、電子ペン等を用いて操作を行うことができない。
特許文献2では、タッチパネル体を用いて、タッチ面上に対する電子ペン及び指のタッチ位置を検出する。しかしながら、タッチ位置を検出する位置検出装置はタッチパネル体と一体化しており、操作面上にセンサがないとタッチ位置を検出することができない。
上記課題を解決するために、例えば特許請求の範囲に記載の構成を採用する。
本願は上記課題を解決する手段を複数含んでいるが、その一例を挙げるならば、本発明は映像を投射して表示する投射型映像表示装置であって、前記映像を投射する映像投射部と、該映像投射部が映像を投射する映像投射面と少なくとも一部が重なった操作面に前記映像投射部の投射光とは異なる照明光を照射する少なくとも一つ以上の照明部と、前記操作面を撮像する撮像部と、先端が発光する第1の操作対象物が前記操作面に接する位置を検出するための第1の検出処理を行う第1の検出部と、発光しない第2の操作対象物が前記操作面に接する位置を検出するための前記第1の検出処理とは異なる第2の検出処理を行う第2の検出部と、前記投射型映像表示装置の動作を制御し、前記第1の検出部または前記第2の検出部における検出結果に基づき前記映像投射部が投射する映像の少なくとも一部を変更するよう制御する制御部とを有することを特徴特徴としている。
また本発明は、映像を投射して表示する投射型映像表示装置を操作するための操作を検出する操作検出装置であって、先端が発光する第1の操作対象物が操作面に接する位置を検出するための第1の検出処理を行う第1の検出部と、発光しない第2の操作対象物が操作面に接する位置を検出するための前記第1の検出処理とは異なる第2の検出処理を行う第2の検出部とを有することを特徴とを特徴としている。
また本発明は、映像を投射して表示する投射型映像表示方法であって、前記映像を投射し、前記投射された投射映像の面と少なくとも一部が重なった操作面に、前記投射映像の投射光とは異なる照明光を照射し、前記操作面を撮像し、先端が発光する第1の操作対象物が前記操作面に接する位置を検出するための第1の検出処理を行い、発光しない第2の操作対象物が前記操作面に接する位置を検出するための前記第1の検出処理とは異なる第2の検出処理を行い、前記第1の検出処理または前記第2の検出処理における検出結果に基づき前記投射映像の少なくとも一部を変更することを特徴とを特徴としている。
本発明によれば、操作面上にタッチセンサなどを設けることなく、操作面に対する電子ペンと指の接触位置を正しく検出することができ、ユーザの操作性を向上した投射型映像表示装置、操作検出装置及び投射型映像表示方法を提供できるという効果がある。
操作検出装置の構成の第一例を示すブロック図。 操作検出装置の構成の第二例を示すブロック図。 第二例の構成による操作検出装置の概観図。 操作検出装置の概観及び指で操作するユーザの状態の一例を示す図。 操作検出装置の概観及び指で操作するユーザの状態の一例を示す図。 操作検出装置の概観及び電子ペンで操作するユーザの状態の一例を示す図。 操作検出装置の概観及び電子ペンで操作するユーザの状態の一例を示す図。 電子ペンの構成の一例を示す図。 電子ペンの先端非接触時の状態の一例を示す図。 電子ペンの先端接触時の状態の一例を示す図。 電子ペンと壁面との接触点を検出する処理フローの一例を示す図。 図6AのS602の詳細の一例を示す図。 図6AのS602とS603の詳細の一例を示す図。 指と壁面とが非接触である場合の影の形状の一例を示す正面図。 指と壁面とが非接触である場合の影の形状の一例を示す上面図。 指と壁面とが接触した場合の影の形状の一例を示す正面図。 指と壁面とが接触した場合の影の形状の一例を示す上面図。 指と壁面との距離による影の形状の違いの一例を示す図。 特徴点と影の距離の関係の一例を示す図。 特徴点と影の距離の関係の一例を示す図。 特徴点と影の距離の関係の一例を示す図。 特徴点と影の距離の関係の一例を示す図。 指と壁面との接触点を検出する処理フローの一例を示す図。 図9AのS908の詳細の一例を示す図。 異なる操作位置による操作の状態の一例を示す図。 異なる操作対象による操作の状態の一例を示す図。 外部からの光が壁面に照射されている状態の一例を示す図。 指による操作の利用可否を通知する処理フローの一例を示す図 図12Aにおいて状態が頻繁に切り替わる場合の処理の一例を示す図。 指による操作が利用できないことをメッセージ表示する状態の一例を示す図。 指による操作が利用できないことをアイコン表示する状態の一例を示す図。 指による操作が利用できないことをメッセージ表示する状態の一例を示す図。 指による操作が利用できないことをランプ表示する状態の一例を示す図。 指による操作が利用できないことを音声で通知する状態の一例を示す図。 ユーザに対して提示する設定メニューの一例を示す図。 照明の点灯状態を切り替える処理フローの一例を示す図。 図16Aにおいて状態が頻繁に切り替わる場合の処理の一例を示す図。
以下、図面を用いて実施例を説明する。
実施例1では、1つのカメラと2つの照明とを用いることにより、例えばタッチセンサなどを設けることなく、電子ペンの接触点座標、及び指の接触点座標を検出する方法について説明する。
図1は、操作検出装置の構成の第一例を示すブロック図である。
図2は、操作検出装置の構成の第二例を示すブロック図である。
図3は、第二例の構成による操作検出装置の概観図である。
図1と図2において、101は座標検出装置であり、102はカメラ(以下、撮像部とも呼ぶ)、103及び104は照明、105は指接触位置検出部、106はペン接触位置検出部、107はペン/指利用可否判定部、108は通信部、109は制御部である。150は操作対象装置であり、151は通信部、152は設定入力部、153は制御部、154は映像投射部、155は表示部、156は発光部、157は音声出力部である。120は検出結果データ、170は電子ペンである。
なお、図1では102〜109、151〜157の各部は独立しているが、必要に応じて1または複数の構成要件で構成してもよい。例えば、105〜107は1または複数の中央処理装置(CPU)でその処理を行うように構成してもよい。また、図1では102〜109の各部を全て座標検出装置101の内部に、151〜157の各部を全て操作対象装置150の内部に有しているが、図2及び図3に示すように、1または複数の構成要件を外部に有し、ネットワーク接続やユニバーサルシリアルバス(USB)接続によって結合しても良い。あるいは、座標検出装置101と操作対象装置150を結合し、全体で1つの装置となるように構成しても良い。
カメラ102は、イメージセンサ、レンズ、フィルタ等を有し、画像を撮像する。
照明103及び104は、発光ダイオード、回路基板、レンズ等を有し、カメラ102が撮像する領域を照射する。照明103、104は常時点灯させる他に、103と104が交互に点灯するようにそれぞれ点滅させても良いし、これに加えて103と104の点灯が切り替わる際に一時的に両者を消灯させても良い。あるいは、103と104を同じタイミングで点滅させても良い。照明の光は不可視であっても良く、例えばカメラ102、照明103、104を、赤外カメラと赤外照明で構成し、赤外画像を撮像することで、後述する指の接触位置を検出する処理を行っても良い。赤外カメラと赤外照明で構成する場合に、赤外カメラにフィルタを追加し、赤外領域でない光を一部あるいは全て遮蔽して撮像するようにしても良い。
指接触位置検出部105は、回路基板やソフトウェア等を有し、カメラ102で撮像した画像から指の接触位置を検出する。指の接触位置の検出方法については、図9を用いて後述する。
ペン接触位置検出部106は、回路基板やソフトウェア等を有し、カメラ102で撮像した画像から電子ペン170の接触位置を検出する。電子ペンの接触位置の検出方法については図6A乃至図6Cを用いて後述する。
ペン/指利用可否判定部107は、回路基板やソフトウェア等を有し、カメラ102で撮像した画像から、指による操作の利用可否を判定する。判定方法については図11を用いて後述する。
通信部108は、ネットワーク接続やUSB接続、超音波ユニット、赤外線通信装置等を有し、ディスプレイやプロジェクタ等、座標検出装置101の外部にある装置と通信できるインタフェースである。
制御部109は、回路基板やソフトウェア等を有し、カメラ102、照明103、照明104、指接触位置検出部105、ペン接触位置検出部106、ペン/指利用可否判定部107、通信部108を制御する。
検出結果データ120は、座標検出装置101が通信部108を介して操作対象装置150に出力するデータであり、指の接触点座標、ペンの接触点座標、ペン/指利用可否情報等が含まれる。操作対象装置150は例えばプロジェクタであり、検出結果データ120を受け、ユーザの指やペンによる操作に応じて映像表示を行う。
通信部151は、ネットワーク接続、USB接続、超音波ユニット、赤外線通信装置等を有し、操作対象装置150の外部にある装置と通信できるインタフェースである。
設定入力部152は、ボタン、タッチパネル等で構成され、ユーザの入力を受け付けるインタフェースである。
制御部153は、回路基板、ソフトウェア等を有し、通信部151、設定入力部152、映像投射部154、表示部155、発光部156、音声出力部157、電子ペン170を制御する。
映像投射部154は、光源ランプ、液晶パネル、レンズ等を有し、投射面に対して映像を投射する。ここで、映像投射部154より投射する光をある一定の波長よりも短い可視領域の光、照明103、104より照射する光をある一定の波長よりも長い不可視領域の光とすれば、ユーザは映像投射部154より投射する光のみを視認できるようになる。投射する光の波長を制御するために、帯域通過フィルタ等を用いても良い。
表示部155は、回路基板、液晶ディスプレイ等を有し、文字、画像等の情報を表示する。これは、映像投射部154が投射する映像を表示するための表示部ではなく、該映像情報とは別な情報を表示するための表示部である。
発光部156は、回路基板、発光素子等を有し、点灯、点滅、消灯等の状態を作り出す。
音声出力部157は、回路基板、増幅器、スピーカ等を有し、音声メッセージ、効果音等を出力する。
電子ペン170は、回路基板、発光素子等を有する。電子ペンの詳細については図5A乃至図5Cを用いて後述する。
カメラ102が撮像する領域、即ち照明103、104が照明光を照射する領域とは、映像投射部154が投射する映像を、例えば指、電子ペン170を用いてユーザが操作するための操作面を意味する。該操作面におけるユーザの指示に応じて、映像投射部154が投射する映像は、少なくともその一部が変更され、或いは全体が別な映像に切り替えられる。操作面は、映像投射部154が投射する映像投射面と少なくもその一部が重なっており、ユーザは映像投射部154が投射する映像の一部を、例えば指、電子ペン170を用いて指すことにより、前記した指示を行う。
また、指接触位置検出部105、ペン接触位置検出部106、ペン/指利用可否判定部107は、後記するように、ユーザの操作を検出し、指、電子ペン170の利用可否を判定するための主要な構成要素である。これら三つの構成要素をまとめて操作検出判定部と呼ぶことができる。この操作検出判定部を有する装置、或いは指接触位置検出部105とペン接触位置検出部106を有する装置を、操作検出装置と呼ぶことができる。
図4A乃至図4Dは、操作検出装置の概観及び操作するユーザ200の状態の一例を示すものである。図4Aと図4Bではユーザ200が指で、図4Cと図4Dではユーザ200が電子ペン170で、操作検出装置を操作している。
図5Aは、電子ペン170の構成の一例を示す図である。
図5B及び図5Cは、電子ペンの先端非接触時及び先端接触時の状態の一例を示す図である。
図5Aにおいて、170は電子ペンであり、171は発光素子、172は先端接触検出部、173は発光制御部である。先端接触検出部172は、回路基板、感圧センサ等を有し、電子ペン170の先端が壁面等に接触しているか否かを判定する。発光制御部173は、回路基板、ソフトウェア等を有し、先端接触検出部172の判定結果に基づいて、図5Bに示すように、電子ペン170の先端が接触していない場合は発光素子171が消灯するように制御し、図5Cに示すように、電子ペン170の先端が接触している場合は発光素子171が点灯するように制御する。あるいは、電子ペン170の先端が接触している場合は発光素子171が点灯し、接触していない場合は点滅するように制御する等、接触時と非接触時で、発光素子171が異なる状態となるように制御を行っても良い。あるいは、接触時と非接触時で、発光素子171の点滅が異なる周波数となるように制御を行っても良い。
ユーザは、前記操作面を電子ペン170または指を用いて操作する。このため以下では、電子ペン170に代表される先端が発光する操作部を第1の操作対象物、指に代表される発光しない操作部を第2の操作対象物と呼ぶことがある。
なお、カメラ102と発光素子171はそれぞれ赤外カメラと赤外照明で構成し、赤外画像を撮像することで後述するペンの接触位置を検出する処理を行っても良い。また、赤外カメラと赤外照明で構成する場合に、赤外カメラにフィルタを追加し、赤外領域でない光を一部あるいは全て遮蔽して撮像するようにしても良い。
次に、図6A乃至図6Cでは、電子ペンと壁面との接触位置を検出する方法について説明する。
図6A乃至図6Cは、ペン接触位置検出部106において、電子ペン170と壁面201との接触点を検出する処理の一例を示すものである。
図6Aは、処理フローを示す。図6Aに示す処理フローは、S601〜S604の処理をそれぞれ一度ずつ実行する一巡のフローであるが、実際にはこのフローは連続して繰り返され、S603、S604の後はS601に戻るものとする。
まず、S601では、カメラ102によって撮影される画像において、ペン接触位置検出部106において明るく発光する領域が検出されているか否かを判断する。検出されている場合はS602に進み、検出されていない場合は図6Aに示す一連のフローを終了する。
S602では、発光領域が所定の条件を満たすか否かを判定する。S602における各種条件は、発光領域が電子ペン170の発光に起因する場合は満たされるように、それ以外のものに起因する場合は満たされないように設定されている。
図6Bは、図6AのS602の詳細の一例を示す図である。
図6Cは、図6AのS602とS603の詳細の一例を示す図である。
図6Bに示すように面積、周囲長、縦方向の最大長、横方向の最大長、縦横比等の特徴が上限値と下限値の間に収まるか確認し、例えば図6Cに示す発光領域651は条件を満たす、発光領域652は条件を満たさないと判定する。判定の結果、条件を満たす場合はS603に進み、条件を満たさない場合はS604に進む。
S603では、図6Cに示すように、発光領域651の重心650をペン先の接触点として検出する。あるいは、発光領域651の周上の点群の重心位置をペン先の接触点として検出しても良い。S603の処理が終わると、図6Aに示す一連のフローを終了する。
S604では、発光領域はペンによるものではないと判定する。S604の処理が終わると、図6Aに示す一連のフローを終了する。
ここでS602のステップの動作を補足する。座標検出装置101において電子ペン170のみの接触位置を検出するのであれば照明103、104は必要ないが、本実施例では指の接触位置も合わせて検出するために照明を利用している。その結果、金属等の光の反射率が高い物体に照明光が照射された場合に、図6Cの652に示すような明るく発光する領域が、カメラ102によって撮像されることになる。S602は、発光体が電子ペン170の発光素子171のみであれば省略可能な処理であるが、上記のようにペン先以外のものが明るく発光した場合に、ペンの接触位置を誤って検出することを防ぐため、各種条件が満たされるかを確認するための処理である。即ち、S602は誤った検出を避けるうえで有効に作用する。
なお、ペン接触位置検出部106における処理は、同様の結果を得るための他の画像処理のアルゴリズムを用いても良い。
図7A乃至図7Dは、指400と壁面201との接触有無による影の形状の違いの一例を示す図である。
図7Aに示すように、指400が壁面201に接触していない場合は、指400の両側にそれぞれ、照明104によって投影される影401と、照明103によって投影される影402とができ、影401と影402はそれぞれが離れた状態となる。図7Bは、図7Aに示すような影ができる原理を説明している。指の先端の方向から見た場合、照明104が照射する光が指400で遮断され、壁面201上に影401ができる。また、照明103が照射する光が指400で遮断され、壁面201上に影402ができる。したがって、カメラ101が撮像する画像において、影401と影402はそれぞれが離れた状態となる。
一方、図7Cに示すように、指400の指先が壁面201に接触している場合は、影401と影402は、指400の指先の位置で接近した状態となる。図7Dは、図7Cに示すような影ができる原理を説明している。指の先端の方向から見た場合、照明104が照射する光が指400で遮断され、壁面201上に影401ができる。また、照明103が照射する光が指400で遮断され、壁面201上に影402ができる。したがって、カメラ102が撮像する画像において、影401と影402は指先の位置で接近した状態となる。
次に、図8A乃至図9Bでは、指と壁面との接触位置を検出する方法について説明する。
図8A乃至図8Eは、指400と壁面201との距離による影の形状の違いの一例を示す図である。
図8Aは、指400と壁面201との距離によって影の形状が変化する状態を示しているが、指400と壁面201との距離が最も近い場合では、影401と影402は指先の位置で接近した状態となる。指400と壁面201が離れると、影401と影402との距離は次第に大きくなる。指400と壁面201との距離が最も遠い場合では、影401と影402はそれぞれが離れた状態となる。このように、影401と影402との距離は、指400が壁面201から離れるにしたがって、大きくなる。
図8B乃至図8Eは、影401と影402との距離を、2つの特徴点間の距離に置き換えて定義する方法を説明している。例えば図8Bに示すように各影の先端にそれぞれ特徴点403と404を設定し、特徴点間の距離dを、影401と影402との距離と定義することができる。あるいは、図8Cに示すように各影の指に相当する部分の外側にそれぞれ特徴点403と404を設定し、特徴点間の距離dを、影401と影402との距離と定義することができる。あるいは、図8Dに示すように各影の最も外側に位置する部分にそれぞれ特徴点403と404を設定し、特徴点間の距離dを、影401と影402との距離と定義することができる。あるいは、図8Eに示すように各影の手首に相当する部分の外側にそれぞれ特徴点403と404を設定し、特徴点間の距離dを、影401と影402との距離と定義することができる。
図9A及び図9Bは、指接触位置検出部105において、指400と壁面201との接触点を検出する処理の一例を示す図である。
図9Aは、処理フローを示す。図9Aに示すのはS901〜S908の処理をそれぞれ一度ずつ実行する一巡のフローであるが、実際にはこのフローは連続して繰り返され、S906、S908の後はS901に戻るものとする。まず、S901では、カメラ102によって撮影される画像において、指や手に関する2つの影が検出されているか否かを判断する。検出されている場合はS902に進み、検出されていない場合は図9Aに示す一連のフローを終了する。
S902では、指や手に関する2つの影において、それぞれ特徴点403と特徴点404を検出する。S902の処理が終わると、S903に進む。
S903では、特徴点403と特徴点404との距離dを測定する。S903の処理が終わると、S904に進む。
S904では、特徴点403と特徴点404との距離dが所定の値より小さいか否かを判定する。所定の値よりも小さい場合はS905に進み、所定の値以上である場合はS906に進む。
S905では、指400が壁面201に接触していると判定する。S905の処理が終わると、S907に進む。
S906では、指400が壁面201に接触していないと判定する。S906の処理が終わると、図9Aに示す一連のフローを終了する。
S907では、図9Bに示すように、指や手に関する2つの影において、それぞれ先端941と先端942を検出する。S607の処理が終わると、S908に進む。
図9Bは、図9AのS908の詳細の一例を示す図である。
S908では、図9Bに示すように、先端941と先端942の中点950を指400と壁面201との接触点として検出する。S908の処理が終わると、図9Aに示す一連のフローを終了する。
なお、指接触位置検出部105における処理は、同様の結果を得るための他の画像処理のアルゴリズムを用いても良い。
図9A及び図9Bに示す処理手順で指の接触点検出を行うと、例えば手のひらの一部、折り曲げた指の関節等、指の先端以外の部分が意図せずに壁面201に接触した場合、あるいは電子ペン170を握る手の一部が壁面201に接触した場合には接触点は検出されない。このように、指の先端以外の部位が壁面201に接触した場合には、それをユーザの意図しない接触と判断して、接触点の検出を回避する効果が本実施例により得られる。
ユーザが指した位置を判断するための、先の図6AのS602乃至S604における電子ペン170を使用する際の方法と、図9AのS904乃至S908における指を使用する際の方法とを比較すれば明らかなように、双方の方法は全く異なっている。したがって図1に示したように、座標検出装置101が指接触位置検出部105とペン接触位置検出部との双方を有することは、本実施形態の一つの特徴となっている。
図10A及び図10Bは、異なる操作位置及び操作対象による操作の状態の一例を示す図である。
図10Aは、ユーザの操作位置による影の形状の違いを示す。ユーザ200の操作位置が壁面201の中心からずれたり、照明103と104の間から外れたりした場合でも、カメラ102と照明103、照明104の位置関係は変わらない。そのため、カメラ102の撮像画像においては、図中に示すように指400が中央にあり、その両側に影401、402ができる状態が保たれる。したがって、ユーザの操作位置が壁面201の中心からずれた場合においても、影401、402の検出が可能であり、図7A乃至図9Bで説明した検出方法や制御方法を同様にすべて適用することができる。
図10Bは、異なる2つの操作対象である指400と電子ペン171によって操作する状態を示す。座標検出装置101において指接触位置検出部105とペン接触位置検出部106は互いに独立しており、両者を並行して動作させれば、指とペンの接触位置を同時に検出することも可能となる。また、電子ペンの接触点座標と指の接触点座標は区別して検出されるため、電子ペンが接触した場合と、指が接触した場合とで、異なる操作や表示状態を実現することも可能となる。
上述したように、本実施例では1つのカメラと2つの照明とを用いて、電子ペンの接触点座標、及び指の接触点座標を検出し、検出結果データとして操作対象装置に出力する。本実施例によれば、操作面上にタッチセンサ等を設けることなく、操作面に対する電子ペンや指の接触位置を正しく検出することができる。これにより、操作対象装置に対するユーザの操作性を向上できるという効果がある。
実施例2では、操作検出装置において指の接触点検出ができない場合に、ユーザに対してその状況を通知する方法について説明する。
図11は、外部からの光が壁面に照射されている状態の一例を示す図である。
1101は蛍光灯、白熱灯の光、太陽光等の外部からの光(外光)であり、前記した照明103、104とは異なる光源である。このような外光1101が壁面201に強く照射されると、影401、402は形状が崩れ、あるいは薄くなって周囲との明暗の差が小さくなるなどする。これにより、カメラ102によってその形状を正確に捉えられなくなる、あるいは指接触位置検出部106において指400と壁面201の接触位置を正確に検出できなくなる等の現象が発生する。一方、電子ペン170については発光素子171が自発光するため外光1101の影響を受けにくく、外光が照射されている環境下でも、ペン接触位置検出部107において電子ペン170と壁面201の接触位置を正確に検出することができる。
このように電子ペン170による操作のみが利用可能で、指400による操作が利用できない状況では、ユーザがその状況を把握できるように通知することで、操作対象装置の操作性が向上する。通知方法の詳細については、図12A及び図12Bを用いて後述する。また、同様な状況で照明103、104の点灯状態を電子ペン170の操作に特化して制御することで、外光1101が照射されている環境下において、電子ペン170の接触位置をより安定して検出することができる。点灯状態の制御方法の詳細については、図16A及び図16Bを用いて後述する。
指による操作が利用可能な状態か否かについては、ペン/指利用可否判定部107において判定する。例えば照明103、104のみが点灯していて外光1101が全く照射されていない状況で、カメラ102が撮影する画像の輝度を予めデータとして保持する。その後、現在撮影している画像の輝度が保持しているデータよりも一定値以上大きければ、外光1101の量が多いと推定できる。その結果、指による操作が利用できないと判定できる。あるいは、一時的に照明103、104を消灯して、すなわち外光1101のみが照射されている状態で撮像し、その時の画像の輝度がある一定値よりも大きければ、外光1101の量が多く、指による操作が利用できないと判定できる。判定結果は、検出結果データ120のペン/指利用可否情報に反映され、通信部108から操作対象装置150に対して出力される。
図12A及び図12Bは、指による操作の利用可否を通知する処理の一例を示す図である。
図12Aは、処理フローを示す。図12Aに示す処理フローは、S1201〜S1207の処理をそれぞれ一度ずつ実行する一巡のフローであるが、実際にはこのフローは連続して繰り返され、S1204、S1205、S1206、S1207の後はS1201に戻るものとする。まず、S1201では、ペン/指利用可否判定部107において指操作を利用できる状態か否かを、例えば前記した方法を用いて判断する。利用できる場合はS1202に進み、利用できない場合はS1203に進む。
S1202では、前回から指操作の利用可否状態に変化があるか否かを判断する。即ち、S1201で判断した結果に対して、今現在の判断の結果に変化が有るか否かを判断する。変化がある場合、すなわち指操作を利用できる状態から利用できない状態に切り替わった場合はS1204に進む。変化がない場合、すなわち今現在も指操作が利用できる状態である場合はS1206に進む。
S1203では、前回から指操作の利用可否状態に変化があるか否かを判断する。即ち、S1201で判断した結果に対して、今現在の判断の結果に変化が有るか否かを判断する。変化がある場合、すなわち指操作を利用できない状態から利用できる状態に切り替わった場合はS1205に進む。変化がない場合、すなわち今現在も指操作が利用できない状態である場合はS1207に進む。
S1204では、指操作を利用できない旨の通知を開始し、この処理が終わると図12Aに示す一連のフローを終了する。
S1205では、指操作を利用できる旨の通知を開始し、この処理が終わると図12Aに示す一連のフローを終了する。
S1206では、指操作を利用できる旨の通知を継続する。ただし、この処理を省略し、利用可否状態に変化がない場合は、ユーザに対して同じ通知を継続しないようにしても良い。S1206の処理が終わると、図12Aに示す一連のフローを終了する。
S1207では、指操作を利用できない旨の通知を継続する。ただし、この処理を省略し、利用可否状態に変化がない場合は、ユーザに対して同じ通知を継続しないようにしても良い。S1207の処理が終わると、図12Aに示す一連のフローを終了する。
なお、S1201おいて指操作を利用できない状態であると判定した場合、指接触位置検出部105において、指の接触位置を検出する処理を中断しても良い。これにより、指接触位置検出部105における処理負荷が下がり、その分の処理能力をペン接触位置検出部106に費やすことで、ペンの接触位置を検出する処理速度を向上させる効果が得られる。あるいは、通信部108において、指の接触点座標を出力しないように制御しても良い。これにより、影401、402の形状が崩れた状態で検出した精度の低い指の接触点座標を、操作対象装置150に対して出力することを防ぐ効果が得られる。
図12Aに示す処理フローに従って処理を行うと、指による操作の利用可否状態が頻繁に切り替わる場合にもその都度通知が行われる。しかし、頻繁に通知を行うとユーザを煩わせる可能性がある。これを軽減するために図12Bに示すように、指操作を利用できない状態から利用できる状態に切り替わった後は、利用できる状態がある一定時間以上経過してから通知を行うようにしても良い。
図12Bは、図12Aにおいて状態が頻繁に切り替わる場合の処理の一例を示す図である。図12Bでは、時刻t=T1、T3、T5、T8において指操作を利用できる状態からできない状態に、t=T2、T4、T6において指操作を利用できない状態からできる状態に切り替わっている。この場合、状態が切り替わる度に通知を行うのではなく、例えば以下のように処理する。
t=T2、T4、T6では指操作を利用できる状態になってから一定時間以上経過しておらず、短時間で再び利用できない状態に切り替わる可能性があるため、通知を行わない。前記一定時間とは、図中のt=T7とt=T6の間の時間とする。t=T7では、t=T6において指操作を利用できる状態に切り替わってから一定時間以上経過したことが確認できるため、指操作を利用できる旨の通知を開始する。t=T1、T8では、指操作を利用できない状態に切り替わると同時に、指操作を利用できない旨の通知を開始する。t=T3、T5では、t=T1において指操作を利用できない旨の通知を行った後、一度も利用できる旨の通知が行われないまま、再び利用できない状態に切り替わっているため、通知を行わない。
図13A及び図13Bは、指による操作が利用できないことを、投射映像を用いて通知する状態の一例を示す図である。即ち、ここでは映像投射部154が投射する光は、前記通知をするためのメッセージ情報を含んでいる。もちろん、指による操作ができる状態であることを示す第1の表示状態と、指による操作ができない状態であることを示す第2の表示状態との双方が含まれていて良い。
指操作を利用できる状況か否かは、例えば図13Aにおいて1301、1302に示すように、映像投射部154より壁面201にメッセージを投射して通知する。あるいは図13Bにおいて1303、1304に示すように、アイコンを投射して通知する。
図14A乃至図14Cは、指による操作が利用できないことを、投射映像以外の手段によって通知する状態の一例を示す図である。
指操作を利用できる状況か否かは、例えば図14Aに示すように、表示部155にメッセージを表示して通知する。あるいは図14Bに示すように、発光部156においてエラーランプの点灯と消灯を切り替えて通知する。あるいは図14Cに示すように、音声出力部157より音声メッセージや効果音を出力して通知する。
あるいは上記以外の方法として、制御部153より電子ペン170を制御し、指による操作が利用できる時とできない時とで発光素子171を異なる色で発光させる等、ペンの状態の変化によって利用可否状態を通知するようにしても良い。
図15は、ユーザに対して提示する設定メニューの一例を示す図である。
設定メニューは、指操作を利用できない場合の通知に関して、ユーザが設定を行うためのインタフェースである。設定メニューは設定入力部152によって起動され、映像投射部154によって壁面201に投射、あるいは表示部155に表示される。設定メニューのインタフェースを設けることは、指操作を利用できない場合の通知を、ユーザの嗜好に応じて設定できる効果をもたらす。
設定メニューでは、ユーザは指操作が利用できない場合の通知を行うか否かを選択できる。また、通知を行うことを選択した場合、メッセージ表示、アイコン表示、音声による表示、エラーランプによる表示をはじめとする、どのような手段によって通知を行うかを選択できる。
図12A乃至図15では、操作検出装置において電子ペン170の接触点が検出可能で、指の接触点が検出不能な場合について説明を行ったが、例えば電子ペン170の電池の残量が減った場合等は、逆に電子ペンの接触点が検出不能で、指の接触点が検出可能となる。このような場合についても、電子ペンによる操作を利用できない旨を同様に通知するようにしても良い。電子ペン170の電池の残量が減ったことは、例えばペン/指利用可否判定部107において、発光領域651の輝度の低下、面積の減少等により検出することができる。
したがって図1に示したように、座標検出装置101が指接触位置検出部105とペン接触位置検出部のほかにペン/指利用可否判定部107を有することは、本実施形態の一つの特徴となっている。
上述したように、本実施例では外部からの光(外光)が照射されている環境において、カメラで撮影した画像に基づいて指操作を利用可能な状態か否かを判断する。指操作を利用できない状態と判断した場合には、ユーザに対して通知を行う。これにより、ユーザは操作対象装置の状態を把握することができ、操作対象装置に対するユーザの操作性を向上できるという効果がある。
実施例3では、操作検出装置において指の接触点検出ができない場合に、照明の点灯状態を変更する方法について説明する。
図11で説明したように、蛍光灯、白熱灯の光、太陽光等の外部からの光(外光)1101が壁面201に強く照射されると、電子ペン170による操作のみが利用可能で、指400による操作が利用できない状態が発生する。このように外光が照射されている環境下において、照明103、104の点灯状態を電子ペン170の操作に特化して制御すると、電子ペン170の接触位置を、より安定して検出することができる。電子ペン170の操作に特化した点灯状態とは、例えば照明103、104を消灯、あるいは減灯させた状態である。照明103、104が照射する光量がなくなる、あるいは減ると、電子ペン170が壁面201に接触した場合に発光素子171と周囲との明暗の差が大きくなり、ペン接触位置検出部106において、発光領域651を、より正確に検出することができる。その結果、電子ペン170の接触位置を、より安定して検出することができる。
図16A及び図16Bは、指による操作の利用可否に応じて、照明の点灯状態を切り替える処理の一例を示すものである。
図16Aは、処理フローを示す。図16Aに示す処理フローは、S1601〜S1607の処理をそれぞれ一度ずつ実行する一巡のフローであるが、実際にはこのフローは連続して繰り返され、S1604、S1605、S1606、S1607の後はS1601に戻るものとする。まず、S1601では、ペン/指利用可否判定部107において指操作を利用できる状態か否かを判断する。利用できる場合はS1602に進み、利用できない場合はS1603に進む。
S1602では、前回から指操作の利用可否状態に変化があるか否かを判断する。即ち、S1601で判断した結果に対して、今現在の判断の結果に変化が有るか否かを判断する。変化がある場合、すなわち指操作を利用できる状態から利用できない状態に切り替わった場合はS1604に進む。変化がない場合、すなわち今現在も指操作が利用できる状態のままである場合はS1606に進む。
S1603では、前回から指操作の利用可否状態に変化があるか否かを判断する。即ち、S1601で判断した結果に対して、今現在の判断の結果に変化が有るか否かを判断する。変化がある場合、すなわち指操作を利用できない状態から利用できる状態に切り替わった場合はS1605に進む。変化がない場合、すなわち今現在も指操作が利用できない状態のままである場合はS1607に進む。
S1604では、ペン操作に特化した点灯状態に切り替え、即ち照明103、104を消灯または減灯し、この処理が終わると図16Aに示す一連のフローを終了する。
S1605では、ペン操作に特化した点灯状態を解除し、即ち照明103、104を通常の明るさに戻し、この処理が終わると図16Aに示す一連のフローを終了する。
S1606では、ペン操作に特化した点灯状態の解除を継続し、この処理が終わると、図16Aに示す一連のフローを終了する。
S1607では、ペン操作に特化した点灯状態を継続し、この処理が終わると、図16Aに示す一連のフローを終了する。
図16Aに示す処理フローに従って処理を行うと、指による操作の利用可否状態が頻繁に切り替わる場合にも、その都度照明の点灯状態が切り替わる。図12Bで、指操作を利用できない状態から利用できる状態に切り替わった後は、利用できる状態がある一定時間以上経過してから通知を行うようにしたのと同様に、照明の点灯状態についても、指操作を利用できる状態がある一定時間以上経過してから切り替えるようにしても良い。
図16Bは、図16Aにおいて状態が頻繁に切り替わる場合の処理の一例を示す図である。図16Bでは、図12Bで示したタイミングと同様のタイミングで指の利用可否状態が切り替わっている。この場合、照明の点灯状態の切り替えは、例えば以下のように処理する。
t=T2、T4、T6では指操作を利用できる状態になってから一定時間以上経過しておらず、短時間で再び利用できない状態に切り替わる可能性があるため、点灯状態の切り替えを行わない。前記一定時間とは、図中のt=T7とt=T6の間の時間とする。t=T7では、t=T6において指操作を利用できる状態に切り替わってから一定時間以上経過したことが確認できるため、ペン操作に特化した点灯状態を解除する。t=T1、T8では、指操作を利用できない状態に切り替わると同時にペン操作に特化した点灯状態に切り替える。t=T3、T5では、t=T1においてペン操作に特化した点灯状態に切り替えた後、一度も点灯状態を変更しないまま再び指操作を利用できない状態に切り替わるため、点灯状態の切り替えを行わない。
図16A及び図16Bでは、照明102、103の点灯状態を制御することで安定した電子ペンの接触点検出を実現しているが、その方法の代わりに、あるいはその方法と並行して制御部153より電子ペン170を制御しても良い。例えば、指操作を利用できない状態の時は、発光素子171の発光強度を強めれば、電子ペン170が壁面201に接触した場合に発光素子171と周囲との明暗の差が大きくなり、電子ペン170の接触位置を安定して検出できるようになる。逆に、指操作を利用できる状態の時は、発光素子171の発光強度を強めることを解除すれば、電子ペン170において消費する電力を抑えることができる。
したがって図1に示したように、座標検出装置101が指接触位置検出部105とペン接触位置検出部のほかにペン/指利用可否判定部107を有することは、本実施形態の一つの特徴となっている。
上述したように、本実施例では外部からの光(外光)が照射されている環境において、カメラで撮影した画像に基づいて指操作を利用可能な状態か否かを判断する。指操作を利用できない状態と判断した場合には、照明を電子ペンの操作に特化した状態、すなわち消灯や減灯の状態に切り替える。これにより、外光が照射されている環境においても、安定した電子ペンの接触位置検出が可能となる。また、このように照明を消灯あるいは減灯させることにより、消費電力を抑える効果も得られる。
なお、上述した実施形態は本発明の説明のための一例であり、本発明の範囲を実施形態にのみ限定する趣旨はない。各実施形態に対して多様な変更を加えた実施形態を考えることができるが、いずれも本発明の範疇にある。
101:座標検出装置、102:カメラ、103:照明、104:照明、105:指接触位置検出部、106:ペン接触位置検出部、107:ペン/指利用可否判定部、108:通信部、109:制御部、120:検出結果データ、150:操作対象装置、151:通信部、152:設定入力部、153:制御部、154:映像投射部、155:表示部、156:発光部、157:音声出力部、170:電子ペン、171:発光素子、172:先端接触検出部、173:発光制御部、200:ユーザ、201:壁面、202:撮像範囲、400:指、401,402:影、403,404:特徴点、650:ペン先の接触点、651,652:発光領域、941,942:影の先端、950:指の接触点、1101:外光、1301,1302:メッセージ、1303,1304:アイコン。
また本発明は、映像を投射して表示する投射型映像表示方法であって、前記映像を投射し、前記投射された投射映像の面と少なくとも一部が重なった操作面に、前記投射映像の投射光とは異なる照明光を照射し、前記操作面を撮像し、先端が発光する第1の操作対象物が前記操作面に接する位置を検出するための第1の検出処理を行い、発光しない第2の操作対象物が前記操作面に接する位置を検出するための前記第1の検出処理とは異なる第2の検出処理を行い、前記第1の検出処理または前記第2の検出処理における検出結果に基づき前記投射映像の少なくとも一部を変更することを特徴としている。
S907では、図9Bに示すように、指や手に関する2つの影において、それぞれ先端941と先端942を検出する。S907の処理が終わると、S908に進む。
ユーザが指した位置を判断するための、先の図6AのS602乃至S604における電子ペン170を使用する際の方法と、図9AのS904乃至S908における指を使用する際の方法とを比較すれば明らかなように、双方の方法は全く異なっている。したがって図1に示したように、座標検出装置101が指接触位置検出部105とペン接触位置検出部106との双方を有することは、本実施形態の一つの特徴となっている。
1101は蛍光灯、白熱灯の光、太陽光等の外部からの光(外光)であり、前記した照明103、104とは異なる光源である。このような外光1101が壁面201に強く照射されると、影401、402は形状が崩れ、あるいは薄くなって周囲との明暗の差が小さくなるなどする。これにより、カメラ102によってその形状を正確に捉えられなくなる、あるいは指接触位置検出部105において指400と壁面201の接触位置を正確に検出できなくなる等の現象が発生する。一方、電子ペン170については発光素子171が自発光するため外光1101の影響を受けにくく、外光が照射されている環境下でも、ペン接触位置検出部106において電子ペン170と壁面201の接触位置を正確に検出することができる。
したがって図1に示したように、座標検出装置101が指接触位置検出部105とペン接触位置検出部106のほかにペン/指利用可否判定部107を有することは、本実施形態の一つの特徴となっている。

Claims (15)

  1. 映像を投射して表示する投射型映像表示装置であって、
    前記映像を投射する映像投射部と、
    該映像投射部が映像を投射する映像投射面と少なくとも一部が重なった操作面に前記映像投射部の投射光とは異なる照明光を照射する少なくとも一つ以上の照明部と、
    前記操作面を撮像する撮像部と、
    先端が発光する第1の操作対象物が前記操作面に接する位置を検出するための第1の検出処理を行う第1の検出部と、
    発光しない第2の操作対象物が前記操作面に接する位置を検出するための前記第1の検出処理とは異なる第2の検出処理を行う第2の検出部と、
    前記投射型映像表示装置の動作を制御し、前記第1の検出部または前記第2の検出部における検出結果に基づき前記映像投射部が投射する映像の少なくとも一部を変更するよう制御する制御部と
    を有することを特徴とする投射型映像表示装置。
  2. 請求項1に記載の投射型映像表示装置において、
    前記映像投射部による投射映像の表示状態は、
    前記投射映像中に前記第1の検出処理と前記第2の検出処理との双方の検出処理が機能する状態であることを示すための表示を行う第1の表示状態と、
    前記投射映像中に前記第1の検出処理は機能するが前記第2の検出処理は機能しない状態であることを示すための表示を行う第2の表示状態と
    を有することを特徴とする投射型映像表示装置。
  3. 請求項1に記載の投射型映像表示装置において、
    前記制御部は、
    前記第1の検出部と前記第2の検出部との双方が前記検出を行える状態からいずれか一方が前記検出を行えない状態に変わった場合、或いは、前記第1の検出部と前記第2の検出部のいずれか一方が前記検出を行えない状態から双方が前記検出を行える状態に変わった場合には、
    状態が変わったことを通知するように制御する
    ことを特徴とする投射型映像表示装置。
  4. 請求項3に記載の投射型映像表示装置において、
    前記制御部は、
    前記映像投射部が投射する投射映像を用いて状態が変わったことを通知するように制御する
    ことを特徴とする投射型映像表示装置。
  5. 請求項3に記載の投射型映像表示装置において、
    該投射型映像表示装置は映像表示部を備え、
    前記制御部は、
    前記映像表示部に表示する映像を用いて状態が変わったことを通知するように制御する
    ことを特徴とする投射型映像表示装置。
  6. 請求項3に記載の投射型映像表示装置において、
    該投射型映像表示装置は音声出力部を備え、
    前記制御部は、
    前記音声出力部から出力する音声を用いて状態が変わったことを通知するように制御する
    ことを特徴とする投射型映像表示装置。
  7. 請求項3に記載の投射型映像表示装置において、
    該投射型映像表示装置は発光部を備え、
    前記制御部は、
    前記発光部が発光する光を用いて状態が変わったことを通知するように制御する
    ことを特徴とする投射型映像表示装置。
  8. 請求項3に記載の投射型映像表示装置において、
    前記制御部は、
    前記第1の操作対象物が発光する光を用いて状態が変わったことを通知するように制御する
    ことを特徴とする投射型映像表示装置。
  9. 請求項1に記載の投射型映像表示装置において、
    前記制御部は、
    前記第1の検出部と前記第2の検出部とのいずれか一方が前記検出を行えない場合には、前記検出を行えない検出部の動作を停止するように制御する
    ことを特徴とする投射型映像表示装置。
  10. 請求項1に記載の投射型映像表示装置において、
    前記制御部は、
    前記第1の検出部において検出した光の特徴が前記第1の操作対象物が発光した光の特徴とは異なる場合には、前記第1の検出部において検出した光に基づく制御を停止するように制御する
    ことを特徴とする投射型映像表示装置。
  11. 請求項1に記載の投射型映像表示装置において、
    前記制御部は、
    前記第1の検出部と前記第2の検出部との双方が前記検出を行える状態であるか、いずれか一方が前記検出を行えない状態であるかに応じて、前記照明部の発光量、発光時間、発光周波数、発光パターンのうちの少なくとも1つを異ならせるように制御する
    ことを特徴とする投射型映像表示装置。
  12. 映像を投射して表示する投射型映像表示装置を操作するための操作を検出する操作検出装置であって、
    先端が発光する第1の操作対象物が操作面に接する位置を検出するための第1の検出処理を行う第1の検出部と、
    発光しない第2の操作対象物が操作面に接する位置を検出するための前記第1の検出処理とは異なる第2の検出処理を行う第2の検出部と
    を有することを特徴とする操作検出装置。
  13. 請求項12に記載の操作検出装置において、
    前記第1の検出処理と前記第2の検出処理とが機能する状態であるか否かを判定する利用可否判定部
    を有することを特徴とする操作検出装置。
  14. 映像を投射して表示する投射型映像表示方法であって、
    前記映像を投射し、
    前記投射された投射映像の面と少なくとも一部が重なった操作面に、前記投射映像の投射光とは異なる照明光を照射し、
    前記操作面を撮像し、
    先端が発光する第1の操作対象物が前記操作面に接する位置を検出するための第1の検出処理を行い、
    発光しない第2の操作対象物が前記操作面に接する位置を検出するための前記第1の検出処理とは異なる第2の検出処理を行い、
    前記第1の検出処理または前記第2の検出処理における検出結果に基づき前記投射映像の少なくとも一部を変更する
    ことを特徴とする投射型映像表示方法。
  15. 請求項14に記載の投射型映像表示方法において、
    前記投射映像の表示状態は、
    前記投射映像中に前記第1の検出処理と前記第2の検出処理との双方の検出処理が機能する状態であることを示すための表示を行う第1の表示状態と、
    前記投射映像中に前記第1の検出処理は機能するが前記第2の検出処理は機能しない状態であることを示すための表示を行う第2の表示状態と
    を有することを特徴とする投射型映像表示方法。
JP2015541328A 2013-10-08 2013-10-08 投射型映像表示装置、操作検出装置及び投射型映像表示方法 Active JP6105075B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/077304 WO2015052765A1 (ja) 2013-10-08 2013-10-08 投射型映像表示装置、操作検出装置及び投射型映像表示方法

Publications (2)

Publication Number Publication Date
JPWO2015052765A1 true JPWO2015052765A1 (ja) 2017-03-09
JP6105075B2 JP6105075B2 (ja) 2017-03-29

Family

ID=52812616

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015541328A Active JP6105075B2 (ja) 2013-10-08 2013-10-08 投射型映像表示装置、操作検出装置及び投射型映像表示方法

Country Status (5)

Country Link
US (2) US10025430B2 (ja)
EP (1) EP3056975B1 (ja)
JP (1) JP6105075B2 (ja)
CN (1) CN105723303B (ja)
WO (1) WO2015052765A1 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3056975B1 (en) * 2013-10-08 2020-08-12 Maxell, Ltd. Projection type image display device, manipulation detection device and projection type image display method
JP2016038902A (ja) * 2014-08-06 2016-03-22 株式会社リコー 接触検出システム、情報処理方法、情報処理装置、及びプログラム
US10521050B2 (en) * 2014-11-13 2019-12-31 Maxell, Ltd. Projection video display apparatus and video display method
WO2016171166A1 (ja) * 2015-04-20 2016-10-27 株式会社リコー 座標検知装置、電子黒板、画像表示システム、座標検知方法
WO2017002250A1 (ja) * 2015-07-01 2017-01-05 日立マクセル株式会社 表示システム、電子ペン装置、電子ペン装置発光制御方法
CN107923582A (zh) * 2015-09-28 2018-04-17 麦克赛尔株式会社 照明装置
CN108351684B (zh) * 2015-11-13 2020-11-10 麦克赛尔株式会社 操作检测装置、操作检测方法以及影像显示系统
CN106980416A (zh) * 2016-01-18 2017-07-25 中强光电股份有限公司 触控显示系统及其触控方法
TR201606367A2 (tr) * 2016-05-13 2017-11-21 Sensobright Ind Llc Bir dokunmatik panel.
US20180059863A1 (en) * 2016-08-26 2018-03-01 Lenovo (Singapore) Pte. Ltd. Calibration of pen location to projected whiteboard
JP6919266B2 (ja) * 2017-03-28 2021-08-18 セイコーエプソン株式会社 光射出装置および画像表示システム
WO2019171827A1 (ja) * 2018-03-08 2019-09-12 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2019159748A (ja) * 2018-03-13 2019-09-19 セイコーエプソン株式会社 画像投写システム、指示体及び画像投写システムの制御方法
EP3770732B1 (en) * 2018-03-23 2023-06-14 Wacom Co., Ltd. Three-dimensional pointing device and three-dimensional position detection system
EP3808747A4 (en) 2018-09-13 2022-03-09 Kissei Pharmaceutical Co., Ltd. IMIDAZOPYRIDINONE COMPOUND
KR102156539B1 (ko) * 2019-01-15 2020-09-16 임성민 접촉음 센싱 펜마우스 및 이를 이용한 강의 시스템
JP2021197028A (ja) * 2020-06-17 2021-12-27 セイコーエプソン株式会社 位置検出方法、プロジェクターの制御方法、位置検出装置およびプロジェクター
US20230113359A1 (en) * 2020-10-23 2023-04-13 Pathway Innovations And Technologies, Inc. Full color spectrum blending and digital color filtering for transparent display screens
US20220360755A1 (en) * 2020-10-23 2022-11-10 Ji Shen Interactive display with integrated camera for capturing audio and visual information
JP7338659B2 (ja) * 2021-03-30 2023-09-05 セイコーエプソン株式会社 指示体の検出方法及びプロジェクションシステム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001273091A (ja) * 2000-03-24 2001-10-05 Seiko Epson Corp 多重解像度画像解析による指示位置検出
JP2007086962A (ja) * 2005-09-21 2007-04-05 Fuji Xerox Co Ltd 画面位置指示システム及び画面位置指示方法

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3876942B2 (ja) * 1997-06-13 2007-02-07 株式会社ワコム 光デジタイザ
US6963937B1 (en) * 1998-12-17 2005-11-08 International Business Machines Corporation Method and apparatus for providing configurability and customization of adaptive user-input filtration
JP2004523031A (ja) * 2001-01-08 2004-07-29 ヴィーケービー インコーポレイテッド データ入力装置
JP4185825B2 (ja) * 2003-07-01 2008-11-26 キヤノン株式会社 座標入力装置及びその制御方法、情報処理装置、プログラム
US7460110B2 (en) * 2004-04-29 2008-12-02 Smart Technologies Ulc Dual mode touch system
US7499027B2 (en) * 2005-04-29 2009-03-03 Microsoft Corporation Using a light pointer for input on an interactive display surface
US7692639B2 (en) * 2006-02-10 2010-04-06 Microsoft Corporation Uniquely identifiable inking instruments
US8587526B2 (en) * 2006-04-12 2013-11-19 N-Trig Ltd. Gesture recognition feedback for a dual mode digitizer
JP4733600B2 (ja) 2006-08-31 2011-07-27 日本電信電話株式会社 操作検出装置とそのプログラム
US20100177053A2 (en) * 2008-05-09 2010-07-15 Taizo Yasutake Method and apparatus for control of multiple degrees of freedom of a display
TW201032105A (en) * 2009-02-19 2010-09-01 Quanta Comp Inc Optical sensing screen and panel sensing method
US8514187B2 (en) * 2009-09-30 2013-08-20 Motorola Mobility Llc Methods and apparatus for distinguishing between touch system manipulators
KR101623214B1 (ko) * 2010-01-06 2016-05-23 삼성전자주식회사 다기능 펜 및 다기능 펜의 사용 방법
US8482539B2 (en) 2010-01-12 2013-07-09 Panasonic Corporation Electronic pen system
JP4857385B2 (ja) 2010-01-12 2012-01-18 パナソニック株式会社 電子ペンシステム
JP5486977B2 (ja) * 2010-03-24 2014-05-07 株式会社日立ソリューションズ 座標入力装置及びプログラム
JP5709405B2 (ja) 2010-05-18 2015-04-30 株式会社タイトー 画像認識によるラクガキ装置
GB2487043B (en) * 2010-12-14 2013-08-14 Epson Norway Res And Dev As Camera-based multi-touch interaction and illumination system and method
GB2486445B (en) * 2010-12-14 2013-08-14 Epson Norway Res And Dev As Camera-based multi-touch interaction apparatus system and method
US9031847B2 (en) * 2011-11-15 2015-05-12 Microsoft Technology Licensing, Llc Voice-controlled camera operations
JP6031750B2 (ja) * 2011-11-25 2016-11-24 株式会社リコー 表示制御装置、画像表示システム、表示制御方法およびプログラム
JP6141596B2 (ja) 2011-12-27 2017-06-07 セイコーエプソン株式会社 表示装置、表示システム及び表示装置のデータ供給方法
US9582119B2 (en) * 2012-01-11 2017-02-28 Smart Technologies Ulc Interactive input system and method
JP2013175142A (ja) * 2012-01-27 2013-09-05 Sharp Corp 座標入力装置、及び座標入力システム
US20130257811A1 (en) * 2012-03-29 2013-10-03 Hitachi Solutions, Ltd. Interactive display device
TWI470511B (zh) * 2012-06-06 2015-01-21 Wistron Corp 雙模輸入裝置
US9575712B2 (en) * 2012-11-28 2017-02-21 Microsoft Technology Licensing, Llc Interactive whiteboard sharing
JP5728592B1 (ja) * 2013-05-30 2015-06-03 株式会社東芝 電子機器および手書き入力方法
JP6097884B2 (ja) * 2013-07-31 2017-03-15 ヒューレット−パッカード デベロップメント カンパニー エル.ピー.Hewlett‐Packard Development Company, L.P. プロジェクターユニット及びコンピューターを含むシステム
US10114512B2 (en) * 2013-09-30 2018-10-30 Hewlett-Packard Development Company, L.P. Projection system manager
EP3056975B1 (en) * 2013-10-08 2020-08-12 Maxell, Ltd. Projection type image display device, manipulation detection device and projection type image display method
CN108664173B (zh) * 2013-11-19 2021-06-29 麦克赛尔株式会社 投影型影像显示装置
GB2523077A (en) * 2013-12-23 2015-08-19 Light Blue Optics Ltd Touch sensing systems
GB2522249A (en) * 2014-01-20 2015-07-22 Promethean Ltd Active pointing device detection
JP6398248B2 (ja) * 2014-01-21 2018-10-03 セイコーエプソン株式会社 位置検出システム、及び、位置検出システムの制御方法
JP6375672B2 (ja) * 2014-01-21 2018-08-22 セイコーエプソン株式会社 位置検出装置、及び位置検出方法
JP6248723B2 (ja) * 2014-03-17 2017-12-20 株式会社リコー 座標検知システム、座標検知方法、情報処理装置及びプログラム
JP6269227B2 (ja) * 2014-03-25 2018-01-31 セイコーエプソン株式会社 表示装置、プロジェクター、および表示制御方法
US9753569B2 (en) * 2014-03-25 2017-09-05 Intel Corporation Switchable input modes for external display operation
US9740338B2 (en) * 2014-05-22 2017-08-22 Ubi interactive inc. System and methods for providing a three-dimensional touch screen
TWI522722B (zh) * 2014-06-06 2016-02-21 中強光電股份有限公司 光源裝置及其調整方法
WO2015198688A1 (ja) * 2014-06-26 2015-12-30 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2016038902A (ja) * 2014-08-06 2016-03-22 株式会社リコー 接触検出システム、情報処理方法、情報処理装置、及びプログラム
US10048856B2 (en) * 2014-12-30 2018-08-14 Microsoft Technology Licensing, Llc Configuring a user interface based on an experience mode transition
JP6485160B2 (ja) * 2015-03-27 2019-03-20 セイコーエプソン株式会社 インタラクティブプロジェクター、及び、インタラクティブプロジェクターの制御方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001273091A (ja) * 2000-03-24 2001-10-05 Seiko Epson Corp 多重解像度画像解析による指示位置検出
JP2007086962A (ja) * 2005-09-21 2007-04-05 Fuji Xerox Co Ltd 画面位置指示システム及び画面位置指示方法

Also Published As

Publication number Publication date
US10719171B2 (en) 2020-07-21
US20180292950A1 (en) 2018-10-11
JP6105075B2 (ja) 2017-03-29
EP3056975A4 (en) 2017-06-21
CN105723303B (zh) 2019-01-22
US20160253043A1 (en) 2016-09-01
CN105723303A (zh) 2016-06-29
US10025430B2 (en) 2018-07-17
WO2015052765A1 (ja) 2015-04-16
EP3056975B1 (en) 2020-08-12
EP3056975A1 (en) 2016-08-17

Similar Documents

Publication Publication Date Title
JP6105075B2 (ja) 投射型映像表示装置、操作検出装置及び投射型映像表示方法
US11606851B2 (en) Lighting apparatus
US10915186B2 (en) Projection video display apparatus and video display method
US20120044140A1 (en) Information display system and program, and optical input system, projection-type images and display apparatus
WO2012124730A1 (ja) 検出装置、入力装置、プロジェクタ、及び電子機器
JPWO2014119258A1 (ja) 情報処理方法及び情報処理装置
JP2014174833A (ja) 操作検出装置及び操作検出方法
JP2012234382A (ja) 画像表示システムおよび画像表示方法
JP2012194915A (ja) 画像表示システム
JP2007086962A (ja) 画面位置指示システム及び画面位置指示方法
JPWO2017056147A1 (ja) 照明装置
JP2016071402A (ja) 位置検出装置、プロジェクター、及び、位置検出方法
US10795467B2 (en) Display device, electronic blackboard system, and user interface setting method
US20150279336A1 (en) Bidirectional display method and bidirectional display device
JP2002116878A (ja) 画像生成システム、プレゼンテーションシステムおよび情報記憶媒体
JP2010083206A (ja) 車載用電子機器操作装置
JP6075193B2 (ja) 携帯端末装置
TWI518553B (zh) 具多模式之互動投影系統及其指示裝置與控制方法
JP2006338328A (ja) 操作システム、処理装置、指示装置、操作方法およびプログラム
JP6538871B2 (ja) 操作検出装置、操作検出方法、及び映像表示システム
JP2017062813A (ja) 映像表示装置及びプロジェクタ
JP2023118228A (ja) 表示方法および表示装置
WO2018211659A1 (ja) 操作検出装置、及びそれを備えた映像表示装置、映像表示方法
JP2011257797A (ja) 情報処理装置およびその制御方法
JP2017182246A (ja) 表示装置および情報処理方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170301

R150 Certificate of patent or registration of utility model

Ref document number: 6105075

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250