JP2015212927A - 入力操作検出装置、入力操作検出装置を備えた画像表示装置及びプロジェクタシステム - Google Patents

入力操作検出装置、入力操作検出装置を備えた画像表示装置及びプロジェクタシステム Download PDF

Info

Publication number
JP2015212927A
JP2015212927A JP2014263887A JP2014263887A JP2015212927A JP 2015212927 A JP2015212927 A JP 2015212927A JP 2014263887 A JP2014263887 A JP 2014263887A JP 2014263887 A JP2014263887 A JP 2014263887A JP 2015212927 A JP2015212927 A JP 2015212927A
Authority
JP
Japan
Prior art keywords
input operation
image
imaging
unit
operation detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014263887A
Other languages
English (en)
Inventor
増田 浩二
Koji Masuda
浩二 増田
二瓶 靖厚
Yasuhiro Nihei
靖厚 二瓶
周 高橋
Shu Takahashi
周 高橋
上田 健
Takeshi Ueda
健 上田
宏昌 田中
Hiromasa Tanaka
宏昌 田中
史織 太田
Shiori Ota
史織 太田
伊藤 昌弘
Masahiro Ito
昌弘 伊藤
鴇田 才明
Toshiaki Tokita
才明 鴇田
小川 武士
Takeshi Ogawa
武士 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2014263887A priority Critical patent/JP2015212927A/ja
Priority to US14/677,070 priority patent/US20150301690A1/en
Publication of JP2015212927A publication Critical patent/JP2015212927A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/10Projectors with built-in or built-on screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Electromagnetism (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】検出誤差が大きくなるのを抑制することができる入力操作検出装置を提供する。【解決手段】 入力操作検出装置は、測距部13、処理部15などを有している。測距部13は、撮像対象物に向けて光を射出する光射出部、撮像対象物で反射された光を撮像する撮像部、及び演算部を有し、入力操作が行われる投影領域のデプスマップを取得する。処理部15は、測距部13からのデプスマップに基づいて、入力操作が示す入力操作情報を求める。そして、Z軸方向に関して、測距部13の光軸が投影画像と交わる位置が、投影画像の中心に対して、測距部13の位置と同じ側にあるように、測距部13の設置角度が設定されている。【選択図】図2

Description

本発明は、入力操作検出装置、入力操作検出装置を備えた画像表示装置及びプロジェクタシステムに係り、更に詳しくは、ユーザによる入力操作を検出するための入力操作検出装置、該入力操作検出装置を備えたプロジェクタ装置、電子黒板装置、デジタルサイネージ装置等の画像表示装置、及びプロジェクタシステムに関する。
近年、スクリーンに投影した投影画像に文字や図などを書き込む機能や、投影画像の拡大、縮小、及びページ送りなどの操作を実行する機能を有するいわゆるインタラクティブなプロジェクタ装置が市販されている。これらの機能は、スクリーンをタッチする操作者の指や、操作者が保持しているペン及び指し棒などを入力操作手段とし、該入力操作手段の位置及び動きを検出して、その検出結果をコンピュータなどへ送ることで実現されている。
例えば、特許文献1には、投影画像を投射面に投射する投射手段と、投射面を含む撮像範囲を複数の撮像素子により撮像する撮像手段と、複数の撮像素子が出力する複数の画像に基づいて、撮像範囲に存在する物体までの距離を表す距離情報を取得する距離取得手段と、距離情報に基づいて、投射面から予め定めた所定距離の範囲内に存在する物体を、投影画像に対して入力操作を行う入力部として検出する入力部検出手段と、入力部の投影画像上における位置または動きに基づいて、投影画像に対する入力操作を解析する解析手段と、を備えることを特徴とするプロジェクタ装置が開示されている。
この特許文献1に開示されているプロジェクタ装置は、検出誤差の抑制という観点において改良の余地があった。
本発明は、表示された画像の少なくとも一部に対してユーザによってなされた入力操作を検出するための入力操作検出装置であって、前記入力操作がなされる領域に向けて検出用の光を射出する光射出部と、撮像光学系及び撮像素子を有し、前記表示された画像及び前記入力操作の少なくとも一方を撮像する撮像部と、前記撮像部の撮像結果に基づいて、前記入力操作がなされた位置あるいは動作を検出する処理部と、を有し、前記撮像光学系の光軸が前記表示された画像の表示面と交わる位置は、前記表示された画像の中心に対して、前記撮像部の設置位置と同じ側にある入力操作検出装置である。
本発明の入力操作検出装置によれば、検出誤差が大きくなるのを抑制することができる。
本発明の一実施形態に係るプロジェクタシステムの概略構成を説明するための図である。 プロジェクタ装置を説明するための図である。 測距部を説明するための図である。 撮像部を説明するための図である。 処理部によって行われる入力操作情報検出処理を説明するためのフローチャートである。 比較例を説明するための図(その1)である。 比較例を説明するための図(その2)である。 具体例1を説明するための図(その1)である。 具体例1を説明するための図(その2)である。 比較例の数値例を説明するための図である。 具体例1の数値例を説明するための図である。 具体例2を説明するための図(その1)である。 具体例2を説明するための図(その2)である。 具体例2の数値例を説明するための図である。 撮像画像を説明するための図である。 撮像画像と撮像素子との関係を説明するための図である。 具体例3の数値例を説明するための図である。 具体例3における方法Aを説明するための図である。 具体例3における方法Bを説明するための図である。 具体例3における方法Dを説明するための図である。 具体例3における方法Eを説明するための図である。 具体例4を説明するための図である。 具体例4の数値例を説明するための図である。 具体例4における方法Aを説明するための図である。 L1/M1=L2/M2の場合を説明するための図である。 プロジェクタ装置の変形例1を説明するための図である。 プロジェクタ装置の変形例2を説明するための図(その1)である。 プロジェクタ装置の変形例2を説明するための図(その2)である。 測距部の変形例1を説明するための図である。 測距部の変形例2を説明するための図である。 測距部の変形例3を説明するための図(その1)である。 測距部の変形例3を説明するための図(その2)である。 プロジェクタ装置の変形例3を説明するための図である。 電子黒板装置の一例を説明するための図である。 デジタルサイネージ装置の一例を説明するための図である。
近年、スクリーンに投影した投影画像に文字や図などを書き込む機能や、投影画像の拡大、縮小、及びページ送りなどの操作を実行する機能などを搭載したプロジェクタ装置が市販されている。これらの機能は、スクリーンをタッチする操作者の指や、操作者が保持しているペン及び指し棒などの位置及び動きを検出し、その検出結果をコンピュータへ送ることで実現されている。なお、本明細書では、「スクリーンをタッチする操作者の指や、操作者が保持しているペン及び指し棒など」を「入力操作手段」と呼称して用いる。
入力操作手段の位置及び動きを検出する方法として、カメラを用いた方法が知られている。例えば、スクリーンにおける画像が投影される全領域にわたってレーザ光を照射し、入力操作手段からの散乱光をカメラで撮像することにより、入力操作手段の位置及び動きを検出する方法が知られている。しかしながら、この方法では、レーザ光源から射出されるレーザ光がスクリーンに平行でかつスクリーンに近接していなければならず、レーザ光源を適切な位置に配置するのが非常に困難であるという不都合があった。また、この方法は、湾曲したスクリーンに適用できないという実用上の不都合もあった。
そこで、これらの不都合を解決する手段として、2台のカメラを用いて、入力操作手段の位置及び動きを3次元的に検出する方法が提案された(例えば、特許文献1参照)。
しかしながら、従来の2台のカメラを用いる方法では、投影画像に対する2台のカメラの適切な配置位置に関する具体例は開示されていなかった。2台のカメラが適切な位置に配置されていなければ、必要以上に大きな画角を持った光学系が必要とされ、収差の影響を受けやすくなり、その結果、検出誤差が大きくなってしまう場合があった。
以下、本発明の一実施形態を図1〜図25に基づいて説明する。図1には、一実施形態に係るプロジェクタシステム100の概略構成が示されている。
このプロジェクタシステム100は、入力操作検出装置を備えた画像表示装置としてのプロジェクタ装置10と、画像管理装置30とを有している。操作者(ユーザ)は、指、ペン、指し棒などの入力操作手段でスクリーン300の投影面近傍ないしは投影面に接触することで、投影面に投射された画像(以下、「投影画像」ともいう)に対して入力操作を行う。
プロジェクタ装置10及び画像管理装置30は、デスクやテーブル、あるいは専用の台座等(以下では、「載置台400」という。)に載置されている。ここでは、三次元直交座標系において、載置台400の載置面に直交する方向をZ軸方向とする。また、プロジェクタ装置10の+Y側にスクリーン300が設置されているものとする。このスクリーン300の−Y側の面が投影面である。なお、投影面として、ホワイトボードのボード面や壁面など様々なものを利用することができる。
画像管理装置30は、複数の画像データを保持しており、操作者の指示に基づいて投影対象の画像情報(以下では、「投影画像情報」ともいう)などをプロジェクタ装置10に送出する。画像管理装置30とプロジェクタ装置10との間の通信は、USB(Universal Serial Bus)ケーブルなどのケーブルを介した有線通信であっても良いし、無線通信であっても良い。そして、画像管理装置30としては、所定のプログラムがインストールされているパーソナルコンピュータ(パソコン)を用いることができる。
また、画像管理装置30がUSBメモリやSDカードなどの着脱可能な記録媒体のインターフェースを有している場合は、該記録媒体に格納されている画像を投影画像とすることができる。
プロジェクタ装置10は、いわゆるインタラクティブなプロジェクタ装置であり、一例として図2に示されるように、投射部11、測距部13、処理部15などを有している。これらは、不図示の筐体内に収納されている。
本実施形態に係るプロジェクタ装置10では、測距部13と処理部15とによって、本発明の入力操作検出装置が構成されている。
投射部11は、従来のプロジェクタ装置と同様に、光源、カラーフィルタ、各種光学素子などを有し、処理部15によって制御される。
処理部15は、画像管理装置30との間で双方向の通信を行い、投影画像情報を受信すると、所定の画像処理を行い、投射部11を介して、スクリーン300に投影する。
測距部13は、一例として図3に示されるように、光射出部131、撮像部132、及び演算部133などを有している。
光射出部131は、近赤外光を射出する光源を有し、投影画像に向けて光(検出用光)を射出する。光源は、処理部15によって点灯及び消灯がなされる。この光源としては、LEDや半導体レーザ(LD)などを使用することができる。また、光源から射出された光を調整するための光学素子やフィルタを備えていても良い。この場合は、例えば、検出用光の射出方向(角度)を調整したり、検出用光を構造化された光(図29参照)や、強度変調された光(図30参照)や、撮像対象物にテクスチャを付与する光(図31参照)などとすることができる。
撮像部132は、一例として図4に示されるように、撮像素子132a及び撮像光学系132bを有している。撮像素子132aは、エリア型の撮像素子である。また、撮像素子132aの形状は、矩形形状である。撮像光学系132bは、光射出部131から射出され、撮像対象物で反射された光を撮像素子132aに導く。ここでは、撮像素子132aがエリア型であるので、ポリゴンミラーなどの光偏向手段を用いなくても2次元情報を一括して取得することができる。
ここでは、撮像部132の撮像対象物は、投影画像が投影されていない投影面であったり、投影面上に投影された投影画像であったり、さらには入力操作手段と投影画像とであったりする。
撮像光学系132bは、いわゆる共軸の光学系であり、光軸が定義されている。なお、撮像光学系132bの光軸を、以下では、便宜上、「測距部13の光軸」ともいう。ここでは、測距部13の光軸に平行な方向をa軸方向、該a軸方向及びX軸方向のいずれにも直交する方向をb軸方向とする。また、撮像光学系132bの画角は、投影画像の全領域が撮像できるように設定されている。
図2に戻り、測距部13は、a軸方向が、Y軸方向に対して反時計回りに傾斜した方向となり、かつ、測距部13の光軸が投影面と交わる位置が、投影画像の中心よりも−Z側となるように配置されている。すなわち、Z軸方向に関して、測距部13の配置位置と、測距部13の光軸が投影画像と交わる位置は、投影画像の中心に対して同じ側にある。
演算部133は、光射出部131での光射出のタイミングと、撮像素子132aでの反射光の撮像タイミングとに基づいて、撮像対象物までの距離情報を算出する。そして、撮像画像の3次元情報、すなわちデプスマップを取得する。なお、取得されたデプスマップの中心は、測距部13の光軸上にある。
演算部133は、所定の時間間隔(フレームレート)で撮像対象物のデプスマップを取得し、処理部15に通知する。
そして、処理部15は、演算部133で得られたデプスマップに基づいて、入力操作手段の位置や動きを求め、それに対応する入力操作情報を求める。さらに、処理部15は、該入力操作情報を画像管理装置30に通知する。
画像管理装置30は、処理部15からの入力操作情報を受け取ると、該入力操作情報に応じた画像制御を行う。これにより、投影画像に入力操作情報が反映されることとなる。
次に、処理部15によって行われる入力操作情報を求める処理(「入力操作情報検出処理」ともいう。)について図5のフローチャートを用いて説明する。
なお、あらかじめ、入力操作手段がない状態でのデプスマップが取得され、基準デプスマップとして処理部15内のメモリ(図示省略)に保持されている。また、入力操作手段は、操作者の指であるものとする。
最初のステップS401では、演算部133から新たなデプスマップが送られてきたか否かを判断する。演算部133から新たなデプスマップが送られてきていなければ、ここでの判断は否定され、演算部133から新たなデプスマップが送られてくるのを待つ。一方、演算部133から新たなデプスマップが送られてきていれば、ここでの判断は肯定され、ステップS403に移行する。
このステップS403では、演算部133からのデプスマップと基準デプスマップとの差分を求める。なお、以下では、この差分を「差分デプスマップ」ともいう。
次のステップS405では、差分デプスマップに基づいて、入力操作手段の有無を判断する。差分デプスマップが小さくて所定の閾値以下であると「入力操作手段なし」と判断し、上記ステップS401に戻る。一方、差分デプスマップが所定の閾値よりも大きいと「入力操作手段あり」と判断し、ステップS407に移行する。
このステップS407では、差分デプスマップから指の形状を抽出する。
次のステップS409では、抽出された指の形状から、指先の位置を推定する。
次のステップS411では、投影面を基準としたときのY軸方向に関する指先の位置(「差分距離」ともいう。)を差分デプスマップから求め、指先が投影面に接触あるいは近接しているか否かを判断する。差分距離が予め設定された値(例えば、3mm)以下であれば、ここでの判断は肯定され、ステップS413に移行する。
このステップS413では、指先の位置に基づいて入力操作情報を求める。例えば、該指先の位置に投影されている投影画像の指示に従い、アイコンをクリックする入力操作であったり、指先が移動している間は投影画像上に文字あるいは線を書く入力操作であったりする。
次のステップS415では、得られた入力操作情報を画像管理装置30に通知する。これにより、画像管理装置30は、入力操作情報に応じた画像制御を行う。すなわち、投影画像に入力操作情報が反映される。そして、上記ステップS401に戻る。
なお、ステップS411において、差分距離が予め設定された値(例えば、3mm)よりも大きければ、ステップS411での判断は否定され、上記ステップS401に戻る。
<具体例1>
具体例1と比較例について説明する。図6及び図7には、比較例が示され、図8及び図9には、具体例1が示されている。比較例と具体例1の違いは、測距部13の光軸のY軸方向に対する傾斜角のみである。比較例では、測距部13の光軸が投影面と交わる位置Gは、投影画像の中心Aと一致している。一方、具体例1では、測距部13の光軸が投影面と交わる位置Gは、投影画像の中心Aの−Z側にある。
ここで、投影画像の中心Aを通り、Z軸に平行な直線が、投影画像の−Z側の端部と交差する点を点Bとし、+Z側の端部と交差する点を点Cとする。また、投影画像の中心Aを通り、X軸に平行な直線が、投影画像の+X側の端部と交差する点を点Dとする。さらに、点Dを通り、Z軸に平行な直線が、投影画像の−Z側の端部と交差する点を点Eし、+Z側の端部と交差する点を点Fとする。そして、具体例において、測距部13の光軸が投影面と交わる位置Gを通り、X軸に平行な直線が、投影画像の+X側の端部と交差する点を点Hとする。また、撮像光学系132bの中心を点Oとする。
ここで、具体例1及び比較例について、Y軸方向に関して、撮像光学系132bの中心Oから投影面までの距離を400mmとし、60インチの投影画像(画面アスペクト比16:9)を投影面に投影する場合についての具体的な数値例を求める。
図10には、比較例での数値例が示され、図11には、具体例1での数値例が示されている。なお、各座標の値は、撮像光学系132bの中心Oを原点にしている。そして、投影画像の−Z側の端部は、Z座標が145mmの位置とした。さらに、具体例1では、測距部13の光軸が投影面と交わる位置GのZ座標が371.5mmとなるように測距部13の設置角度を設定している。
画面サイズが60インチ、画面アスペクト比が16:9であることから、X軸方向の画面サイズは1328mm、Z軸方向の画面サイズは747mmである。そして、投影画像の中心AのZ座標は518.5mmであり、具体例1における測距部13の光軸が投影面と交わる位置Gは、投影画像の中心Aに対して、−Z側にある。
比較例では、撮像光学系132bの最大半画角は∠AOEであり、62.9度であったのに対し、具体例1では、撮像光学系132bの最大半画角は∠GOEであり、60.2度であった。すなわち、具体例1では、比較例よりも、半画角を2.7度も小さくすることができる。半画角が45度(全画角90度)を超える広角側での2.7度の低減は、収差及び製造コストに関して非常に大きな利点である。
このように、測距部13の光軸が投影画像と交わる位置Gが、投影画像の中心Aに対して、−Z側になるように測距部13の設置角度を設定することで、最大半画角を小さくすることが可能となる。
なお、具体例1では、∠GOBと∠GOCの大きさ(絶対値)は同じである。この場合、∠GOB及び∠GOCの大きさ(絶対値)は最小となる。このとき、撮像光学系132bは、Z軸方向に関して必要な画角が最も小さくなり、Z軸方向に関して、光学的に最も精度の良い測定が可能である。
<具体例2>
次に、具体例2について図12〜図14を用いて説明する。具体例2では、測距部13の光軸が投影画像と交わる位置GのZ座標が180mmとなるように測距部13の設置角度を設定している。この場合も、測距部13の光軸が投影画像と交わる位置Gは、投影画像の中心Aに対して、−Z側にある。
具体例2では、撮像光学系132bの最大半画角は∠GOEであり、57.5度であった。すなわち、具体例2では、上記比較例よりも、半画角を5.4度も小さくすることができる。半画角が45度(全画角90度)を超える広角側での5.4度の低減は、収差及び製造コストに関して非常に大きな利点である。但し、この場合、Z軸方向に関する最大画角は、大きくなっている。
次に、投影画像を撮像部132で撮像する際に撮像素子132aの受光面位置に結像される画像の大きさと撮像素子132aの画素数との関係について考える。なお、以下では、便宜上、撮像素子132aの受光面位置に結像される画像を「撮像画像」ともいう。
図15には、上記具体例1に対応した撮像画像の一例が示されている。ここでは、投影面と撮像素子132aの受光面とが非平行であるため、撮像画像の形状は台形状となる。なお、撮像形状における符号a〜hは、投影画像における上記A〜Hに対応している。また、撮像光学系132bの焦点距離をf、撮像画像のX軸方向に関する大きさをf×L1、Z軸方向に関する大きさをf×L2とする。
そして、矩形形状の撮像素子132aのX軸方向に関する画素数をM1、Z軸方向に関する画素数をM2、画素ピッチをPとすると、撮像素子132aのX軸方向に関する大きさはP×M1となり、Z軸方向に関する大きさはP×M2となる。
撮像素子132aで投影画像を撮像するためには、撮像画像が撮像素子132a内に収まっていなくてはならない。すなわち、一例として図16に示されるように、撮像素子132aの大きさは、撮像画像の大きさ以上でなくてはならない。
そこで、次の(1)式と(2)式とが満たされることが必要である。
P×M1≧f×L1 ……(1)
P×M2≧f×L2 ……(2)
ところで、撮像光学系132bの焦点距離を小さくしたり、画素ピッチを大きくしたり、画素数を大きくすることで、上記(1)式と(2)式を満足させることが可能である。しかしながら、撮像光学系132bの焦点距離を小さくすると、投影画像の結像倍率が小さくなり、その結果、撮像画像の空間分解能が低下する。また、画素ピッチを大きくすると、撮像画像の空間分解能が低下する。さらに、画素数を大きくすると、撮像素子132aの大きなコストアップを招く。
そこで、撮像画像の空間分解能の低下及び大きなコストアップを招くことなく、投影画像を撮像部132で撮像するため、撮像素子132aの大きさと撮像画像の大きさとの差を小さくすることを考える。なお、以下では、L1とL2を区別する必要がないとき、あるいは特定することできないときは、それらをLと表記することもある。また、M1とM2を区別する必要がないとき、あるいは特定することできないときは、それらをMと表記することもある。
1.「方法A」
方法Aでは、X軸方向に関して、撮像素子132aの大きさと撮像画像の大きさを等しくする。すなわち、次の(3)式を満足させる。この(3)式から次の(4)式が得られる。
P×M1=f×L1 ……(3)
P/f=L1/M1 ……(4)
このとき、Z軸方向に関しては、上記(2)式が満足されなければならないので、上記(4)式におけるP/fの値は、次の(5)式も満足させる必要がある。
P/f≧L2/M2 ……(5)
このように、方法Aでは、X軸方向に関して、撮像画像の大きさと撮像素子132aの画素数との関係を最適化している。
2.「方法B」
方法Bでは、Z軸方向に関して、撮像素子132aの大きさと撮像画像の大きさを等しくする。すなわち、次の(6)式を満足させる。この(6)式から次の(7)式が得られる。
P×M2=f×L2 ……(6)
P/f=L2/M2 ……(7)
このとき、X軸方向に関しては、上記(1)式が満足されなければならないので、上記(7)式におけるP/fの値は、次の(8)式も満足させる必要がある。
P/f≧L1/M1 ……(8)
このように、方法Bでは、Z軸方向に関して、撮像画像の大きさと撮像素子132aの画素数との関係を最適化している。
3.「方法C」
方法Cでは、X軸方向及びZ軸方向に関して、撮像素子132aの大きさと撮像画像の大きさを等しくする。すなわち、上記(4)式と上記(7)式を満足させる。この(4)式と(7)式から次の(9)式が得られる。
L1/M1=L2/M2 ……(9)
このように、方法Cでは、X軸方向及びZ軸方向に関して、撮像画像の大きさと撮像素子132aの画素数との関係を最適化している。
ところで、撮像素子132aは、a軸まわりに90°回転させて用いることが可能である。この場合は、次の(10)式と(11)式とが満たされることが必要である。
P×M1≧f×L2 ……(10)
P×M2≧f×L1 ……(11)
この場合について、撮像素子132aの大きさと撮像画像の大きさとの差を小さくすることを考える。
4.「方法D」
方法Dでは、撮像素子132aのX軸方向に関する大きさと撮像画像のZ軸方向に関する大きさを等しくする。すなわち、次の(12)式を満足させる。この(12)式から次の(13)式が得られる。
P×M2=f×L1 ……(12)
P/f=L1/M2 ……(13)
このとき、上記(10)式が満足されなければならないので、上記(13)式におけるP/fの値は、次の(14)式も満足させる必要がある。
P/f≧L2/M1 ……(14)
方法Dでは、撮像素子132aを90°回転させて使用し、そのときのZ軸方向に関して、撮像画像の大きさと撮像素子132aの画素数との関係を最適化している。
5.「方法E」
方法Eでは、撮像素子132aのZ軸方向に関する大きさと撮像画像のX軸方向に関する大きさを等しくする。すなわち、次の(15)式を満足させる。この(15)式から次の(16)式が得られる。
P×M1=f×L2 ……(15)
P/f=L2/M1 ……(16)
このとき、上記(11)式が満足されなければならないので、上記(16)式におけるP/fの値は、次の(17)式も満足させる必要がある。
P/f≧L1/M2 ……(17)
方法Eでは、撮像素子132aを90°回転させて使用し、そのときのX軸方向に関して、撮像画像の大きさと撮像素子132aの画素数との関係を最適化している。
6.「方法F」
方法Fでは、上記(13)式と上記(15)式を満足させる。この(13)式と(15)式から次の(18)式が得られる。
L1/M2=L2/M1 ……(18)
このように、方法Fでは、撮像素子132aを90°回転させて使用し、そのときのX軸方向及びZ軸方向に関して、撮像画像の大きさと撮像素子132aの画素数との関係を最適化している。
上記6つの方法のいくつかについて具体的に説明する。
先ず、具体例3を用いて説明する。ここでは、撮像素子132aの解像度をVGA(640×480)とし、M1=640、M2=480とする。測距部13は、上記具体例1と同じである。また、上記符号a〜hの具体的な数値例、L1及びL2の具体的な数値例が図17に示されている。なお、各座標の値は、点gを原点にしている。また、焦点距離fとして規格化された焦点距離1(mm)を用いている。
例えば、上記「方法A」を用いる場合、P/fの値は、上記(4)式から、0.00578(=3.39/640)となる。そして、L2/M2の値は0.00177(=0.85/480)となり、上記(5)式が満足されている。このとき、図18に示されるように、撮像素子132aは、撮像画像の全体を効率的に受光することができる。
また、例えば、上記「方法B」を用いる場合、P/fの値は、上記(7)式から、0.00177(=0.85/480)となる。そして、L1/M1の値は0.00578(=3.39/640)となり、上記(8)式は満足されていない。このとき、図19に示されるように、撮像素子132aは、撮像画像の全体を受光することができない。
また、例えば、上記「方法D」を用いる場合、P/fの値は、上記(13)式から、0.00706(=3.39/480)となる。そして、L2/M1の値は0.00132(=0.85/640)となり、上記(14)式が満足されている。このとき、撮像素子132aを90°回転させて使用すると、図20に示されるように、撮像素子132aは、撮像画像の全体を効率的に受光することができる。
また、例えば、上記「方法E」を用いる場合、P/fの値は、上記(16)式から、0.00132(=0.85/640)となる。そして、L1/M2の値は0.00706(=3.39/480)となり、上記(17)式は満足されていない。このとき、撮像素子132aを90°回転させて使用しても、図21に示されるように、撮像素子132aは、撮像画像の全体を受光することができない。
そこで、具体例3では、「方法A」又は「方法D」を用いることにより、撮像画像の空間分解能の低下及び大きなコストアップを招くことなく、投影画像を撮像部132で撮像することができる。
次に、具体例4について説明する。ここでは、撮像素子132aの解像度をVGA(640×480)とする。この場合、M1=640、M2=480である。測距部13は、上記具体例2と同じである。図22には、撮像画像の一例が示されている。また、符号a〜hの具体的な数値例、L1及びL2の具体的な数値例が図23に示されている。なお、各座標の値は、点gを原点にしている。また、焦点距離fとして規格化された焦点距離1(mm)を用いている。
例えば、上記「方法A」を用いる場合、P/fの値は、上記(4)式から、0.00489(=3.13/640)となる。そして、L2/M2の値は0.00201(=0.96/480)となり、上記(5)式が満足されている。このとき、図24に示されるように、撮像素子132aは、撮像画像の全体を効率的に受光することができる。
また、例えば、上記「方法B」を用いる場合、P/fの値は、上記(7)式から、0.00201(=0.96/480)となる。そして、L1/M1の値は0.00489(=3.13/640)となり、上記(8)式は満足されていない。このとき、撮像素子132aは、撮像画像の全体を受光することができない。
また、例えば、上記「方法D」を用いる場合、P/fの値は、上記(13)式から、0.00652(=3.13/480)となる。そして、L2/M1の値は0.0015(=0.96/640)となり、上記(14)式が満足されている。このとき、撮像素子132aを90°回転させて使用すると、撮像素子132aは、撮像画像の全体を効率的に受光することができる。
また、例えば、上記「方法E」を用いる場合、P/fの値は、上記(16)式から、0.0015(=0.96/640)となる。そして、L1/M2の値は0.00652(=3.13/480)となり、上記(17)式は満足されていない。このとき、撮像素子132aを90°回転させて使用しても、撮像素子132aは、撮像画像の全体を受光することができない。
そこで、具体例4では、「方法A」又は「方法C」を用いることにより、撮像画像の空間分解能の低下及び大きなコストアップを招くことなく、投影画像を撮像部132で撮像することができる。
従って、具体例3及び具体例4のように、L/Mの値が大きい方向に関して、撮像素子132aの大きさと撮像画像の大きさを最適化させることにより、撮像画像の空間分解能の低下及び大きなコストアップを招くことなく、投影画像を撮像部132で撮像することができる。
なお、撮像素子132aの画素数及び撮像画像の形状の少なくとも一方を調整することができるときは、上記「方法C」又は「方法F」を用いることができる。この場合、一例として図25に示されるように、X軸方向及びZ軸方向に関して、きっちりと撮像画像を撮像素子132a内に納めることができる。
但し、実際には、撮像光学系132b及び撮像素子132aの組付誤差や、撮像光学系132bの加工誤差などがあるため、撮像画像の大きさと撮像素子132aの大きさをきっちり合わせるような設計ではロバスト性がない。従って、撮像画像の大きさを数%程度、撮像素子132aの大きさよりも小さくして、ロバスト性を確保しても良い。
ところで、L/Mの値は、1画素あたりの撮像画像の大きさ、すなわち、投影画像を撮像する際の分解能に相当する。そこで、L/Mの値は、高分解能の測定を行うためにできるだけ小さいほうが良い。
例えば、上記「方法A」を用いる場合、具体例3では、P/f=L1/M1=0.00578であり、具体例4では、P/f=L1/M1=0.00489である。そこで、撮像素子132aの画素数が決まっている場合、具体例4における測距部13の設置角度の方が、具体例3における測距部13の設置角度より好ましい。
すなわち、L/Mの値が大きい方向において、L/Mの値が最小となるように、Y軸方向に対する測距部13の光軸の傾斜角を設定することにより、撮像の際の分解能を高めることができる。
以上説明したように、本実施形態に係るプロジェクタ装置10は、投射部11、測距部13、処理部15などを有している。
投射部11は、処理部15の指示に基づいて、スクリーン300に画像を投影する。測距部13は、投影画像に向けて検出用の光(検出用光)を射出する光射出部131、撮像光学系132b及び撮像素子132aを有して、投影画像及び入力操作手段の少なくとも一方を撮像する撮像部132、及び撮像部132の撮像結果が通知される演算部133を有し、入力操作手段が含まれる投影領域のデプスマップを取得する。処理部15は、測距部13からのデプスマップに基づいて、入力操作手段が示す入力操作情報を求める。
そして、Z軸方向に関して、測距部13の光軸が投影画像と交わる位置が、投影画像の中心に対して、測距部13の配置位置と同じ側にあるように、測距部13の設置角度が設定されている。
この場合は、撮像光学系132bの画角が必要以上に大きくなるのを抑制することができ、その結果、検出誤差が大きくなるのを抑制することができる。また、撮像光学系132bの画角を小さくすることができるため、低コスト化を図ることができる。
また、本実施形態では、入力操作情報検出処理において、差分距離が予め設定された値(例えば、3mm)以下であれば、指先が投影面に接触していると判断している。この場合は、測距部13での距離計測に誤差があっても、所望の入力操作を実行することができる。また、これにより、指先が投影面に接触していなくとも、投影面に近接していれば接触しているとみなすことができ、実用的である。
また、本実施形態に係るプロジェクタシステム100は、プロジェクタ装置10を備えているため、その結果として、所望の画像表示動作を正しく行うことができる。
なお、上記実施形態において、プロジェクタ装置10と画像管理装置30とが一体化されていても良い。
また、上記実施形態において、不図示の取付部材を介して測距部13が筐体に対して取り外し可能な状態で外付けされていても良い(図26参照)。この場合、測距部13で取得されたデプスマップは、ケーブル等を介して筐体内の処理部15に通知される。また、この場合、測距部13は、筐体とは離れた別の位置に配置することもできる。
また、上記実施形態において、処理部15での処理の少なくとも一部を画像管理装置30で行っても良い。例えば、上記入力操作情報検知処理が画像管理装置30で行われる場合、測距部13で取得されたデプスマップは、ケーブル等を介して、又は無線通信により、画像管理装置30に通知される。
また、上記実施形態において、プロジェクタ装置10が複数の測距部13を有していても良い。例えば、X軸方向に関する画角が非常に大きい場合、超広角な撮像光学系を有する1つの測距部13でその画角をカバーするよりも、画角を抑えた撮像光学系を有する複数の測距部13をX軸方向に沿って並べたほうが低コストな場合がある。すなわち、X軸方向に超広角なプロジェクタ装置を低コストで実現することができる。
図27には、X軸方向に沿って2つの測距部13が設けられる場合の例が示されている。ここでは、2つの測距部13は支持部材に取り付けられており、該支持部材が筐体に固定されている。なお、Z軸方向に関しては、いずれの測距部13も、上記実施形態と同様な条件を満たしている(図28参照)。この場合、2つの測距部13で得られたデプスマップは、投影画像の中心部付近でオーバーラップするようになっており、処理部15では、このオーバーラップ部分を利用して、2つのデプスマップを連結する。
また、上記実施形態において、一例として図29に示されるように、測距部13の光射出部131は、ある構造化された光を射出しても良い。なお、構造化された光とは、Structured Light法として知られている方法に適した光であって、例えば、ストライプ状の光やマトリックス状の光などがある。照射領域は当然ではあるが、投影画像より広範囲である。射出される光は近赤外光であるため、投影画像が見えにくくなる等の不都合はない。このとき、撮像部132は、撮像対象物で反射されて変形した構造化された光を撮像する。そして、演算部133は、光射出部131から射出された光と、撮像部132で撮像された光とを比較し、三角測量法に基づいてデプスマップを求める。これは、いわゆるパターン投影法と呼ばれている。
また、上記実施形態において、一例として図30に示されるように、測距部13の光射出部131は、所定の周波数で強度変調された光を射出しても良い。照射領域は当然ではあるが、投影画像より広範囲である。射出される光は近赤外光であるため、投影画像が見えにくくなる等の不具合はない。このとき、撮像部132は、撮像対象物で反射されて位相がずれた光を撮像する。そして、演算部133は、光射出部131から射出された光と、撮像部132で撮像された光とを比較し、時間差もしくは位相差に基づいてデプスマップを求める。これは、いわゆるTOF(Time−Of−Flight)法と呼ばれている。
また、上記実施形態において、一例として図31に示されるように、測距部13の光射出部131は、対象物にテクスチャを付与するため光を射出しても良い。照射領域は当然ではあるが、投影画像より広範囲である。射出される光は近赤外光であるため、投影画像が見えにくくなる等の不具合はない。この場合、撮像対象物に投影されたテクスチャパターンを撮像する2つの撮像部132を有している。そのため、それぞれの撮像部に対応して光軸は2つ存在する。そして、演算部133は、2つの撮像部132が撮像した画像間の視差に基づいてデプスマップを演算する。すなわち、演算部133は、各画像に対してステレオ平行化と呼ばれる処理を行い、2つの光軸が平行であると仮定したときの画像を変換する。そのため、2つの光軸は平行でなくても良い。これは、いわゆるステレオ法と呼ばれている。なお、ステレオ平行化処理がなされた後の光軸は、X軸方向からみると重なっており(図32参照)、上記実施形態における測距部13の光軸に対応する。
また、上記実施形態では、プロジェクタ装置10が載置台400に載置されて使用される場合について説明したが、これに限定されるものではない。例えば、図33に示されるように、プロジェクタ装置10は、天井に吊り下げて使用されても良い。ここでは、プロジェクタ装置10は、吊り下げ部材で天井に固定されている。
測距部13と処理部15とからなる入力操作検出装置は、入力操作検出装置を備えた画像表示装置として、電子黒板装置やデジタルサイネージ装置にも用いることができる。いずれについても、検出誤差が大きくなるのを抑制することができる。
図34には、電子黒板装置の一例が示されている。この電子黒板装置500は、各種メニューやコマンド実行結果が表示される映写パネル及び座標入力ユニットを収納したパネル部501と、コントローラ及びプロジェクタユニットを収納した収納部と、パネル部501及び収納部を所定の高さで支持するスタンドと、コンピュータ、スキャナ、プリンタ、ビデオプレイヤ等を収納した機器収納部502と、から構成されている(特開2002−278700号公報参照)。入力操作検出装置は、機器収納部502内に収納されており、該機器収納部502を引き出すことにより、入力操作検出装置が出現する。そして、入力操作検出装置は、下方より映写パネルに投影された画像に対するユーザによる入力操作を検出する。コントローラと入力操作検出装置との間の通信は、USBケーブルなどのケーブルを介した有線通信であっても良いし、無線通信であっても良い。
図35には、デジタルサイネージ装置に一例が示されている。このデジタルサイネージ装置600では、ガラス面が投影面となる。画像は、投影面の後方から、プロジェクタ本体によりリアプロジェクションされている。入力操作検出装置は、手すり上に設置されている。プロジェクタ本体と入力操作検出装置との間の通信は、USBケーブルを介した有線通信である。これにより、デジタルサイネージ装置にインタラクティブ機能を持たせることができる。
このように、測距部13と処理部15とからなる入力操作検出装置は、インタラクティブ機能を有する装置や、インタラクティブ機能を付加したい装置に好適である。
10…プロジェクタ装置、11…投射部、13…測距部、15…処理部、30…画像管理装置(制御装置)、100…プロジェクタシステム、131…光射出部、132…撮像部、132a…撮像素子、132b…撮像光学系、133…演算部、300…スクリーン、400……載置台、500…電子黒板装置、600…デジタルサイネージ装置。
特開2013−61552号公報
なお、具体例1では、∠GOBと∠GOCの大きさ(絶対値)は同じである(図8に示す角度P)。この場合、∠GOB及び∠GOCの大きさ(絶対値)は最小となる。このとき、撮像光学系132bは、Z軸方向に関して必要な画角が最も小さくなり、Z軸方向に関して、光学的に最も精度の良い測定が可能である。
例えば、上記「方法A」を用いる場合、P/fの値は、上記(4)式から、0.00529(=3.39/640)となる。そして、L2/M2の値は0.00177(=0.85/480)となり、上記(5)式が満足されている。このとき、図18に示されるように、撮像素子132aは、撮像画像の全体を効率的に受光することができる。
また、例えば、上記「方法B」を用いる場合、P/fの値は、上記(7)式から、0.00177(=0.85/480)となる。そして、L1/M1の値は0.00529(=3.39/640)となり、上記(8)式は満足されていない。このとき、図19に示されるように、撮像素子132aは、撮像画像の全体を受光することができない。
例えば、上記「方法A」を用いる場合、P/fの値は、上記(4)式から、0.00489(=3.13/640)となる。そして、L2/M2の値は0.002(=0.96/480)となり、上記(5)式が満足されている。このとき、図24に示されるように、撮像素子132aは、撮像画像の全体を効率的に受光することができる。
また、例えば、上記「方法B」を用いる場合、P/fの値は、上記(7)式から、0.002(=0.96/480)となる。そして、L1/M1の値は0.00489(=3.13/640)となり、上記(8)式は満足されていない。このとき、撮像素子132aは、撮像画像の全体を受光することができない。
そこで、具体例4では、「方法A」又は「方法」を用いることにより、撮像画像の空間分解能の低下及び大きなコストアップを招くことなく、投影画像を撮像部132で撮像することができる。
例えば、上記「方法A」を用いる場合、具体例3では、P/f=L1/M1=0.00529であり、具体例4では、P/f=L1/M1=0.00489である。そこで、撮像素子132aの画素数が決まっている場合、具体例4における測距部13の設置角度の方が、具体例3における測距部13の設置角度より好ましい。

Claims (15)

  1. 表示された画像の少なくとも一部に対してユーザによってなされた入力操作を検出するための入力操作検出装置であって、
    前記入力操作がなされる領域に向けて検出用の光を射出する光射出部と、
    撮像光学系及び撮像素子を有し、前記表示された画像及び前記入力操作の少なくとも一方を撮像する撮像部と、
    前記撮像部の撮像結果に基づいて、前記入力操作がなされた位置あるいは動作を検出する処理部と、を有し、
    前記撮像光学系の光軸が前記表示された画像の表示面と交わる位置は、前記表示された画像の中心に対して、前記撮像部の設置位置と同じ側にある入力操作検出装置。
  2. 前記撮像部の撮像結果は、デプスマップを含むことを特徴とする請求項1に記載の入力操作検出装置。
  3. 前記撮像光学系の画角は、前記撮像光学系の光軸によって2等分されることを特徴とする請求項1又は2に記載の入力操作検出装置。
  4. 前記撮像素子における互いに直交する2つの方向のうち、前記撮像素子で撮像される画像の大きさLと前記撮像素子の画素数Mの比L/Mの値が大きいほうの方向に関して、前記撮像される画像の大きさと前記撮像素子の画素数との関係が最適化されていることを特徴とする請求項1〜3のいずれか一項に記載の入力操作検出装置。
  5. 前記L/Mの値が大きい方向において、該L/Mの値が最小となるように、前記表示面に直交する方向に対する前記撮像光学系の光軸の傾斜角が設定されていることを特徴とする請求項4に記載の入力操作検出装置。
  6. 前記撮像素子における互いに直交する2つの方向では、前記撮像素子で撮像される画像の大きさLと前記撮像素子の画素数Mの比L/Mの値が等しいことを特徴とする請求項1〜3のいずれか一項に記載の入力操作検出装置。
  7. 前記光射出部は、構造化された光を射出することを特徴とする請求項1〜6のいずれか一項に記載の入力操作検出装置。
  8. 前記光射出部は、強度変調された光を射出することを特徴とする請求項1〜6のいずれか一項に記載の入力操作検出装置。
  9. 前記光射出部は、テクスチャを付与する光を射出することを特徴とする請求項1〜6のいずれか一項に記載の入力操作検出装置。
  10. 請求項1〜9のいずれか一項に記載の入力操作検出装置を備える画像表示装置。
  11. 前記画像表示装置がプロジェクタ装置であることを特徴とする請求項10に記載の画像表示装置。
  12. 前記画像表示装置が電子黒板装置であることを特徴とする請求項10に記載の画像表示装置。
  13. 前記画像表示装置がデジタルサイネージ装置であることを特徴とする請求項10に記載の画像表示装置。
  14. 投影された画像の少なくとも一部に対してユーザによってなされた入力操作により操作されるプロジェクタ装置において、
    前記入力操作がなされる領域に向けて検出用の光を射出する光射出部と、
    撮像光学系及び撮像素子を有し、前記画像及び前記入力操作の少なくとも一方を撮像する撮像部と、
    前記撮像部の撮像結果に基づいて、前記入力操作がなされた位置あるいは動作を検出する処理部と、を有し、
    前記撮像光学系の光軸が前記投影された画像の投影面と交わる位置は、前記投影された画像の中心に対して、前記撮像部の設置位置と同じ側にあるプロジェクタ装置。
  15. 請求項11又は14に記載のプロジェクタ装置と、
    前記プロジェクタ装置で得られた入力操作がなされた位置あるいは動作に基づいて、画像制御を行う制御装置とを備えるプロジェクタシステム。
JP2014263887A 2014-04-17 2014-12-26 入力操作検出装置、入力操作検出装置を備えた画像表示装置及びプロジェクタシステム Pending JP2015212927A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014263887A JP2015212927A (ja) 2014-04-17 2014-12-26 入力操作検出装置、入力操作検出装置を備えた画像表示装置及びプロジェクタシステム
US14/677,070 US20150301690A1 (en) 2014-04-17 2015-04-02 Input-operation detection device, image display apparatus, projector apparatus and projector system

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014085080 2014-04-17
JP2014085080 2014-04-17
JP2014263887A JP2015212927A (ja) 2014-04-17 2014-12-26 入力操作検出装置、入力操作検出装置を備えた画像表示装置及びプロジェクタシステム

Publications (1)

Publication Number Publication Date
JP2015212927A true JP2015212927A (ja) 2015-11-26

Family

ID=54322044

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014263887A Pending JP2015212927A (ja) 2014-04-17 2014-12-26 入力操作検出装置、入力操作検出装置を備えた画像表示装置及びプロジェクタシステム

Country Status (2)

Country Link
US (1) US20150301690A1 (ja)
JP (1) JP2015212927A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109118581A (zh) * 2018-08-22 2019-01-01 Oppo广东移动通信有限公司 图像处理方法和装置、电子设备、计算机可读存储介质
JP2021520154A (ja) * 2018-08-22 2021-08-12 オッポ広東移動通信有限公司Guangdong Oppo Mobile Telecommunications Corp., Ltd. 画像処理方法、コンピュータ可読記憶媒体、および電子機器

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016114963A (ja) * 2014-12-11 2016-06-23 株式会社リコー 入力操作検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、及びプロジェクタシステム
WO2017053487A1 (en) * 2015-09-21 2017-03-30 Anthrotronix, Inc. Projection device
CN108399633A (zh) * 2017-02-06 2018-08-14 罗伯团队家居有限公司 用于立体视觉的方法和装置
KR102572974B1 (ko) * 2018-04-26 2023-08-31 엘지이노텍 주식회사 카메라 모듈 및 그의 깊이 정보 추출 방법

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6707444B1 (en) * 2000-08-18 2004-03-16 International Business Machines Corporation Projector and camera arrangement with shared optics and optical marker for use with whiteboard systems
JP2013061552A (ja) * 2011-09-14 2013-04-04 Ricoh Co Ltd プロジェクタ装置および操作検出方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109118581A (zh) * 2018-08-22 2019-01-01 Oppo广东移动通信有限公司 图像处理方法和装置、电子设备、计算机可读存储介质
JP2021520154A (ja) * 2018-08-22 2021-08-12 オッポ広東移動通信有限公司Guangdong Oppo Mobile Telecommunications Corp., Ltd. 画像処理方法、コンピュータ可読記憶媒体、および電子機器
JP7139452B2 (ja) 2018-08-22 2022-09-20 オッポ広東移動通信有限公司 画像処理方法、コンピュータ可読記憶媒体、および電子機器
CN109118581B (zh) * 2018-08-22 2023-04-11 Oppo广东移动通信有限公司 图像处理方法和装置、电子设备、计算机可读存储介质

Also Published As

Publication number Publication date
US20150301690A1 (en) 2015-10-22

Similar Documents

Publication Publication Date Title
JP2015212927A (ja) 入力操作検出装置、入力操作検出装置を備えた画像表示装置及びプロジェクタシステム
US10048808B2 (en) Input operation detection device, projection apparatus, interactive whiteboard, digital signage, and projection system
JP5266953B2 (ja) 投写型表示装置および表示方法
JP5680976B2 (ja) 電子黒板システム及びプログラム
JP6075122B2 (ja) システム、画像投影装置、情報処理装置、情報処理方法およびプログラム
JP5117418B2 (ja) 情報処理装置及び情報処理方法
US9971455B2 (en) Spatial coordinate identification device
JP2016162162A (ja) 接触検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、プロジェクタシステム及び接触検出方法
CN107077195B (zh) 显示对象指示符
JP6528964B2 (ja) 入力操作検出装置、画像表示装置、プロジェクタ装置、プロジェクタシステム、及び入力操作検出方法
JP2015056112A (ja) 座標検出システム、情報処理装置、プログラム、記憶媒体、座標検出方法
JP2017219942A (ja) 接触検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、プロジェクタシステム、接触検出方法、プログラム及び記憶媒体。
US20150042618A1 (en) Optical touch system and touch display system
US10073614B2 (en) Information processing device, image projection apparatus, and information processing method
JP2018018308A (ja) 情報処理装置、及びその制御方法ならびにコンピュータプログラム
EP3032380B1 (en) Image projection apparatus, and system employing interactive input-output capability
US20160139735A1 (en) Optical touch screen
CN102622140A (zh) 一种摄像式多点触摸系统
CN202443449U (zh) 一种摄像式多点触摸系统
JP6643825B2 (ja) 装置及び方法
US9239635B2 (en) Method and apparatus for graphical user interface interaction on a domed display
JP2017125764A (ja) 物体検出装置、及び物体検出装置を備えた画像表示装置
JP2016110492A (ja) 光学式位置情報検出装置、プログラム、対象の紐付け方法
US20240212269A1 (en) Information processing apparatus, information processing method, program, and information processing system
JP7452917B2 (ja) 操作入力装置、操作入力方法及びプログラム