JP2016114963A - 入力操作検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、及びプロジェクタシステム - Google Patents

入力操作検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、及びプロジェクタシステム Download PDF

Info

Publication number
JP2016114963A
JP2016114963A JP2014250479A JP2014250479A JP2016114963A JP 2016114963 A JP2016114963 A JP 2016114963A JP 2014250479 A JP2014250479 A JP 2014250479A JP 2014250479 A JP2014250479 A JP 2014250479A JP 2016114963 A JP2016114963 A JP 2016114963A
Authority
JP
Japan
Prior art keywords
image
imaging
input operation
unit
operation detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014250479A
Other languages
English (en)
Inventor
増田 浩二
Koji Masuda
浩二 増田
二瓶 靖厚
Yasuhiro Nihei
靖厚 二瓶
上田 健
Takeshi Ueda
健 上田
伊藤 昌弘
Masahiro Ito
昌弘 伊藤
周 高橋
Shu Takahashi
周 高橋
小川 武士
Takeshi Ogawa
武士 小川
宏昌 田中
Hiromasa Tanaka
宏昌 田中
史織 太田
Shiori Ota
史織 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2014250479A priority Critical patent/JP2016114963A/ja
Priority to US14/940,484 priority patent/US10048808B2/en
Priority to EP15195020.1A priority patent/EP3032375B1/en
Priority to CN201510919004.4A priority patent/CN105700736B/zh
Publication of JP2016114963A publication Critical patent/JP2016114963A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】検出精度を低下させることなく低価格化を図ることができる入力操作検出装置を提供する。【解決手段】 2つの測距部(13、14)と処理部などを有している。投影画像は、投影画像の中心を通りZ軸に平行な仮想線で、画像Rと画像Lに2分割される。測距部13は画像Rの部分を撮像し、測距部14は画像Lの部分を撮像する。各測距部は、Z軸方向及びX軸方向のいずれに関しても、測距部の配置位置と測距部の光軸が投影面と交わる位置とが、対応する画像の中心に対して同じ側にあるように設定されている。処理部は、測距部13からのデプスマップと測距部14からのデプスマップとに基づいて、入力操作手段が示す入力操作情報を求める。【選択図】図14

Description

本発明は、入力操作検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、及びプロジェクタシステムに係り、更に詳しくは、ユーザによる入力操作を検出するための入力操作検出装置、該入力操作検出装置を有するプロジェクタ装置、電子黒板装置、及びデジタルサイネージ装置、並びに前記プロジェクタ装置を備えるプロジェクタシステムに関する。
近年、スクリーンに投影された画像に文字や図などを書き込む機能や、該画像の拡大、縮小、ページ送りなどの操作を実行する機能などを搭載した、いわゆるインタラクティブなプロジェクタ装置が市販されている。
これらの機能は、スクリーンをタッチする操作者の指や、操作者が保持しているペン及び指し棒などを入力操作手段とし、該入力操作手段の位置及び動きを検出して、その検出結果をコンピュータなどへ送ることで実現されている。
このようなインタラクティブ機能を有する各種装置は、ユーザによる入力操作を検出するための入力操作検出装置を備えている。
例えば、特許文献1には、投影画像を投射面に投射する投射手段と、投射面を含む撮像範囲を複数の撮像素子により撮像する撮像手段と、複数の撮像素子が出力する複数の画像に基づいて、撮像範囲に存在する物体までの距離を表す距離情報を取得する距離取得手段と、距離情報に基づいて、投射面から予め定めた所定距離の範囲内に存在する物体を、投影画像に対して入力操作を行う入力部として検出する入力部検出手段と、入力部の投影画像上における位置または動きに基づいて、投影画像に対する入力操作を解析する解析手段と、を備えるプロジェクタ装置が開示されている。
しかしながら、従来の入力操作検出装置では、検出精度を低下させることなく低価格化を図るのは困難であった。
本発明は、画像に対するユーザの入力操作を検出するための入力操作検出装置であって、撮像光学系及び撮像素子を有する第1の撮像部と、撮像光学系及び撮像素子を有する第2の撮像部と、前記第1の撮像部の撮像情報と前記第2の撮像部の撮像情報とに基づいて、前記入力操作を検出する処理部とを備え、前記画像は第1の方向に関して第1の画像と第2の画像とに分割され、前記第1の撮像部は前記第1の画像を撮像し、前記第2の撮像部は前記第2の画像を撮像し、前記第1の撮像部の撮像光学系の光軸が前記画像と交わる位置は、前記第1の画像の中心に対して、前記第1の撮像部の設置位置と同じ側にあり、前記第2の撮像部の撮像光学系の光軸が前記画像と交わる位置は、前記第2の画像の中心に対して、前記第2の撮像部の設置位置と同じ側にある入力操作検出装置である。
本発明の入力操作検出装置によれば、検出精度を低下させることなく低価格化を図ることができる。
本発明の一実施形態に係るプロジェクタシステムの概略構成を説明するための図である。 プロジェクタ装置を説明するための図(その1)である。 プロジェクタ装置を説明するための図(その2)である。 画像R及び画像Lを説明するための図である。 測距部13を説明するための図である。 測距部14を説明するための図である。 測距部の外観を説明するための図である。 測距部13の撮像部132を説明するための図である。 測距部14の撮像部142を説明するための図である。 測距部13と投影画像との関係を説明するための図(その1)である。 測距部13と投影画像との関係を説明するための図(その2)である。 測距部14と投影画像との関係を説明するための図(その1)である。 測距部14と投影画像との関係を説明するための図(その2)である。 測距部13の撮像領域と測距部14の撮像領域とが重なる領域を説明するための図である。 処理部によって行われる入力操作情報検出処理を説明するためのフローチャートである。 画像Rに付けられた複数の符号を説明するための図である。 比較例を説明するための図である。 具体例1を説明するための図である。 具体例1における測距部13の光軸が投影面と交わる位置Jを説明するための図である。 比較例の数値例を説明するための図である。 具体例1の数値例を説明するための図である。 具体例2における測距部13の光軸が投影面と交わる位置Jを説明するための図である。 具体例2の数値例を説明するための図である。 撮像画像を説明するための図(その1)である。 撮像画像を説明するための図(その2)である。 比較例における必要な撮像素子の大きさを説明するための図である。 比較例における撮像画像の数値例を説明するための図である。 具体例1における必要な撮像素子の大きさを説明するための図(その1)である。 具体例1における撮像画像の数値例を説明するための図である。 具体例1における必要な撮像素子の大きさを説明するための図(その2)である。 具体例2における必要な撮像素子の大きさを説明するための図である。 具体例2における撮像画像の数値例を説明するための図である。 プロジェクタ装置の変形例1を説明するための図である。 測距部の変形例1を説明するための図である。 測距部の変形例2を説明するための図である。 測距部の変形例3を説明するための図(その1)である。 測距部の変形例3を説明するための図(その2)である。 プロジェクタ装置の変形例3を説明するための図である。 電子黒板装置の一例を説明するための図である。 デジタルサイネージ装置の一例を説明するための図である。
近年、スクリーンに投影した画像に文字や図などを書き込む機能や、該画像の拡大、縮小、及びページ送りなどの操作を実行する機能などを搭載したプロジェクタ装置が市販されている。これらの機能は、スクリーンをタッチする操作者の指や、操作者が保持しているペン及び指し棒などを入力操作手段とし、該入力操作手段の位置及び動きを検出し、その検出結果をコンピュータへ送ることで実現されている。
入力操作手段の位置及び動きを検出する方法として、カメラを用いた方法が知られている。例えば、スクリーンにおける画像が投影される全領域にわたってレーザ光を照射し、入力操作手段からの散乱光をカメラで撮像することにより、入力操作手段の位置及び動きを検出する方法が知られている。しかしながら、この方法では、光源から射出されるレーザ光がスクリーンに平行でかつスクリーンに近接していなければならず、光源を適切な位置に配置する点において改善の余地があった。また、この方法は、湾曲したスクリーンに不向きであるという実用上の改善点もあった。
そこで、これらを改善する手段として、2台のカメラを用いて、入力操作手段の位置及び動きを3次元的に検出する方法が提案された(例えば、特許文献1参照)。
しかしながら、従来の2台のカメラを用いる方法では、画像に対する2台のカメラの適切な配置位置に関する具体例は開示されていなかった。2台のカメラが適切な位置に配置されていなければ、必要以上に大きな画角を持った光学系が必要とされ、収差の影響を受けやすくなり、その結果、検出誤差が大きくなってしまう場合があった。
また、1台のカメラ(例えば、ステレオカメラ)を用いる方法では、当然ながらプロジェクタ装置が画像を投影する領域を1台のカメラでカバーしなければならない。この場合、カメラの価格を安価に抑えようとすると、上記領域をカバーできる画角をもった撮影レンズは低性能なものとなってしまう。これは、大きな検出誤差を招くこととなる。さらに、近年、プロジェクタ装置における短焦点化(すなわち、広角化)が進んでおり、この場合、検出誤差はさらに大きくなる。
以下、本発明の一実施形態を図1〜図32に基づいて説明する。図1には、一実施形態に係るプロジェクタシステム100の概略構成が示されている。
このプロジェクタシステム100は、プロジェクタ装置10と画像管理装置30とを有している。操作者(ユーザ)は、指、ペン、指し棒などの入力操作手段でスクリーン300の投影面近傍ないしは投影面に接触することで、投影面に投射された画像(以下、「投影画像」ともいう)に対して入力操作を行う。
プロジェクタ装置10及び画像管理装置30は、デスクやテーブル、あるいは専用の台座等(以下では、「載置台400」という)に載置されている。ここでは、三次元直交座標系において、載置台400の載置面に直交する方向をZ軸方向とする。また、プロジェクタ装置10の+Y側にスクリーン300が設置されているものとする。このスクリーン300の−Y側の面が投影面である。なお、投影面として、ホワイトボードのボード面や壁面など様々なものを利用することができる。
画像管理装置30は、複数の画像データを保持しており、操作者の指示に基づいて投影対象の画像情報(以下では、「投影画像情報」ともいう)などをプロジェクタ装置10に送出する。画像管理装置30とプロジェクタ装置10との間の通信は、USB(Universal Serial Bus)ケーブルなどのケーブルを介した有線通信であっても良いし、無線通信であっても良い。そして、画像管理装置30としては、所定のプログラムがインストールされているパーソナルコンピュータ(パソコン)を用いることができる。
また、画像管理装置30がUSBメモリやSDカードなどの着脱可能な記録媒体のインターフェースを有している場合は、該記録媒体に格納されている画像を投影画像とすることができる。
プロジェクタ装置10は、いわゆるインタラクティブなプロジェクタ装置であり、Z軸方向に関して、投影画像の中心に対して−Z側に配置されている(図2参照)。そして、このプロジェクタ装置10は、一例として図2及び図3に示されるように、投射部11、2つの測距部(13、14)、処理部15などを有している。これらは、不図示の筐体内に収納されている。
投射部11は、従来のプロジェクタ装置と同様に、光源、カラーフィルタ、各種光学素子などを有し、処理部15によって制御される。
処理部15は、画像管理装置30との間で双方向の通信を行い、投影画像情報を受信すると、所定の画像処理を行い、投射部11を介して、スクリーン300に投影する。
ここでは、一例として図4に示されるように、投影画像の中心を通りZ軸に平行な仮想線で投影画像を2分割し、該仮想線の+X側の画像を「画像R」といい、−X側の画像を「画像L」という。
測距部13は、Z軸方向に関して、画像Rの中心の−Z側であって、かつ、X軸方向に関して、画像Rの中心の−X側の位置に配置されている。また、測距部14は、Z軸方向に関して、画像Lの中心の−Z側であって、かつ、X軸方向に関して、画像Lの中心の+X側の位置に配置されている。
測距部13は、一例として図5に示されるように、光射出部131、撮像部132、及び演算部133などを有している。測距部14は、一例として図6に示されるように、光射出部141、撮像部142、及び演算部143などを有している。また、各測距部の外観が、一例として図7に示されている。光射出部、撮像部、及び演算部は筐体内に収納されている。
各光射出部は、近赤外光を射出する光源を有している。該光源は、処理部15によって点灯及び消灯がなされる。この光源としては、LEDや半導体レーザ(LD)などを使用することができる。また、光源から射出された光を調整するための光学素子やフィルタを備えていても良い。この場合は、例えば、検出用光の射出方向(角度)を調整したり、検出用光を構造化された光(図34参照)や、強度変調された光(図35参照)や、撮像対象物にテクスチャを付与する光(図36参照)などとすることができる。
光射出部131は、画像Rに向けて光(検出用光)を射出し、光射出部141は、画像Lに向けて光(検出用光)を射出する。
撮像部132は、光射出部131から射出され、撮像対象物で反射された光を撮像する。ここでは、撮像部132は、一例として図8に示されるように、撮像素子132a及び撮像光学系132bを有している。撮像素子132aは、エリア型の撮像素子である。また、撮像素子132aの形状は、矩形形状である。撮像光学系132bは、光射出部131から射出され、撮像対象物で反射された光を撮像素子132aに導く。ここでは、撮像素子132aがエリア型であるので、ポリゴンミラーなどの光偏向手段を用いなくても2次元情報を一括して取得することができる。
撮像部142は、光射出部141から射出され、撮像対象物で反射された光を撮像する。ここでは、撮像部142は、一例として図9に示されるように、撮像素子142a及び撮像光学系142bを有している。撮像素子142aは、エリア型の撮像素子である。また、撮像素子142aの形状は、矩形形状である。撮像光学系142bは、光射出部141から射出され、撮像対象物で反射された光を撮像素子142aに導く。ここでは、撮像素子142aがエリア型であるので、ポリゴンミラーなどの光偏向手段を用いなくても2次元情報を一括して取得することができる。
撮像光学系132bの画角は、画像Rの全領域が撮像できるように設定されている。撮像光学系142bの画角は、画像Lの全領域が撮像できるように設定されている。そこで、撮像光学系132bと撮像光学系142bとによって、投影画像の全領域が撮像される。
ここでは、各撮像部の撮像対象物は、投影画像が投影されていない投影面であったり、投影面上に投影された投影画像であったり、さらには入力操作手段と投影画像とであったりする。
各撮像光学系は、いわゆる共軸の光学系であり、光軸が定義されている。なお、以下では、便宜上、撮像光学系132bの光軸を「測距部13の光軸」ともいい、撮像光学系142bの光軸を「測距部14の光軸」ともいう。
測距部13は、Z軸方向に関して、測距部13の光軸が投影面と交わる位置が、投影画像の中心よりも−Z側となり(図10参照)、かつ、X軸方向に関して、測距部13の光軸が投影面と交わる位置が、画像Rの中心よりも−X側となる(図11参照)ように配置されている。すなわち、Z軸方向及びX軸方向のいずれに関しても、測距部13の配置位置、及び測距部13の光軸が投影面と交わる位置は、画像Rの中心に対して同じ側にある。
測距部14は、Z軸方向に関して、測距部14の光軸が投影面と交わる位置が、投影画像の中心よりも−Z側となり(図12参照)、かつ、X軸方向に関して、測距部14の光軸が投影面と交わる位置が、画像Lの中心よりも+X側となる(図13参照)ように配置されている。すなわち、Z軸方向及びX軸方向のいずれに関しても、測距部14の配置位置、及び測距部14の光軸が投影面と交わる位置は、画像Lの中心に対して同じ側にある。
このように、本実施形態では、Z軸方向及びX軸方向のいずれに関しても、各測距部は、測距部の配置位置と測距部の光軸が投影面と交わる位置とが、対応する画像の中心に対して同じ側にあるように設定されている。
なお、測距部13の撮像領域と測距部14の撮像領域は、投影画像の中心付近で重なっている(図14参照)。これは、測距部の取り付け誤差等の影響で、投影画像の中心部分がいずれの撮像領域からも外れてしまうのを防止するためである。
演算部133は、光射出部131での光射出のタイミングと、撮像素子132aでの反射光の撮像タイミングとに基づいて、撮像対象物までの距離情報を算出する。そして、撮像画像の3次元情報、すなわちデプスマップを取得する。なお、取得されたデプスマップの中心は、測距部13の光軸上にある。
演算部133は、所定の時間間隔(フレームレート)で撮像対象物のデプスマップを取得し、処理部15に通知する。
演算部143は、光射出部141での光射出のタイミングと、撮像素子142aでの反射光の撮像タイミングとに基づいて、撮像対象物までの距離情報を算出する。そして、演算部143は、撮像画像の3次元情報、すなわちデプスマップを取得する。なお、取得されたデプスマップの中心は、測距部14の光軸上にある。
演算部143は、所定の時間間隔(フレームレート)で撮像対象物のデプスマップを取得し、処理部15に通知する。
処理部15は、演算部133で得られたデプスマップと演算部143で得られたデプスマップとを結合し、投影画像全域のデプスマップを作成する。そして、処理部15は、作成された投影画像全域のデプスマップに基づいて、入力操作手段の位置や動きを求め、それに対応する入力操作情報を求める。さらに、処理部15は、該入力操作情報を画像管理装置30に通知する。
画像管理装置30は、処理部15からの入力操作情報を受け取ると、該入力操作情報に応じた画像制御を行う。これにより、投影画像に入力操作情報が反映されることとなる。
次に、処理部15によって行われる入力操作情報を求める処理(「入力操作情報検出処理」ともいう。)について図15のフローチャートを用いて説明する。
なお、あらかじめ、入力操作手段がない状態でのデプスマップが取得され、基準デプスマップとして処理部15内のメモリ(図示省略)に保持されている。また、入力操作手段は、操作者の指であるものとする。
最初のステップS401では、各演算部から新たなデプスマップが送られてきたか否かを判断する。各演算部から新たなデプスマップが送られてきていなければ、ここでの判断は否定され、各演算部から新たなデプスマップが送られてくるのを待つ。一方、各演算部から新たなデプスマップが送られてきていれば、ここでの判断は肯定され、ステップS403に移行する。
このステップS403では、演算部133で得られたデプスマップと演算部143で得られたデプスマップとを結合し、投影画像全域のデプスマップを作成する。
このステップS405では、作成された投影画像全域のデプスマップと基準デプスマップとの差分を求める。すなわち、2つの測距部の撮像領域内に指がある場合とない場合のデプスマップの差分を求める。該差分を求めることにより、背景となる投影面(投影画像)の距離情報は相殺され、背景を基準としたときの指部分の距離情報のみが算出される。なお、以下では、この差分を「差分デプスマップ」ともいう。
次のステップS407では、差分デプスマップに基づいて、入力操作手段の有無を判断する。差分デプスマップが小さくて所定の閾値以下であると「入力操作手段なし」と判断し、上記ステップS401に戻る。一方、差分デプスマップが所定の閾値よりも大きいと「入力操作手段あり」と判断し、ステップS409に移行する。
このステップS409では、画像処理によって差分デプスマップから指の形状を抽出する。
次のステップS411では、抽出された指の形状から、指先の位置を推定する。
次のステップS413では、投影面を基準としたときのY軸方向に関する指先の位置(「差分距離」ともいう。)を差分デプスマップから求め、指先が投影面に接触あるいは近接しているか否かを判断する。差分距離が予め設定された値(例えば、3mm)以下であれば、ここでの判断は肯定され、ステップS415に移行する。
このステップS415では、指先の位置に基づいて入力操作情報を求める。例えば、該指先の位置に投影されている投影画像の指示に従い、アイコンをクリックする入力操作であったり、指先が移動している間は投影画像上に文字あるいは線を書く入力操作であったりする。
次のステップS417では、得られた入力操作情報を画像管理装置30に通知する。これにより、画像管理装置30は、入力操作情報に応じた画像制御を行う。すなわち、投影画像に入力操作情報が反映される。そして、上記ステップS401に戻る。
なお、ステップS413において、差分距離が予め設定された値(例えば、3mm)よりも大きければ、ステップS413での判断は否定され、上記ステップS401に戻る。
ここで、測距部13と画像Rとの関係について具体例を用いて説明する。なお、説明をわかりやすくするため、測距部13の撮像領域と画像Rの大きさとが一致しているものとする。また、測距部13は、投影画像の中心が含まれるYZ面上にあるものとする。
さらに、図16に示されるように、投影画像における複数の位置に符号A〜Iをつける。点Aは投影画像の中心位置である。点Bは、点Aを通りZ軸に平行な直線が、投影画像の−Z側の端部と交差する点である。点Cは、点Aを通りZ軸に平行な直線が、投影画像の+Z側の端部と交差する点である。点Dは、点Aを通りX軸に平行な直線が、投影画像の+X側の端部と交差する点である。点Eは、点Dを通りZ軸に平行な直線が、投影画像の−Z側の端部と交差する点である。点Fは、点Dを通りZ軸に平行な直線が、投影画像の+Z側の端部と交差する点である。点Gは、画像Rの中心位置である。点Hは、点Gを通りZ軸に平行な直線が、投影画像の−Z側の端部と交差する点である。点Iは、点Gを通りZ軸に平行な直線が、投影画像の+Z側の端部と交差する点である。
<具体例1>
具体例1と比較例について説明する。図17には比較例が示され、図18には具体例1が示されている。比較例と具体例1の違いは、測距部13の光軸のY軸方向に対する傾斜角のみである。比較例では、測距部13の光軸が投影面と交わる位置は、画像Rの中心位置Gと一致している。一方、具体例1では、測距部13の光軸が投影面と交わる位置は、画像Rの中心位置Gに対して、Z軸方向に関しては−Z側にあり、かつX軸方向に関しては−X側にある点Jである(図19参照)。
点Jを通りZ軸に平行な直線と点Aを通りX軸に平行な直線とが交わる位置をJxとし、点Jを通りX軸に平行な直線と点Aを通りZ軸に平行な直線とが交わる位置をJzとする。点Jxは∠AODを2分割する点であり、∠AOJx=∠JxODが成り立つ。また、点Jyは∠BOCを2分割する点であり、∠BOJy=∠JyOCが成り立つ。
具体例1及び比較例について、Y軸方向に関して、撮像光学系132bの中心Oから投影面までの距離を400mmとし、60インチの投影画像(画面アスペクト比16:9)を投影面に投影する場合についての具体的な数値例を求める。すなわち、X軸方向に関する投影画像の大きさは1328mmであり、Z軸方向に関する投影画像の大きさは747mmである。
図20には、比較例での数値例が示され、図21には、具体例1での数値例が示されている。なお、各座標の値は、撮像光学系132bの中心Oを原点にしている。そして、投影画像の−Z側の端部は、Z座標が145mmの位置とした。さらに、具体例1では、測距部13の光軸が投影面と交わる位置JのX座標が274.0mm、Z座標が371.5mmとなるように測距部13の設置角度を設定している。
比較例では、撮像光学系132bの最大半画角は∠GOBであり、−41.17度であったのに対し、具体例1では、撮像光学系132bの最大半画角は∠JOEであり、−34.76度であった。すなわち、具体例1では、比較例よりも、半画角を6.41度も小さくすることができる。半画角が45度(画角90度)を超える広角側での6.41度の低減は、収差及び製造コストに関して非常に大きな利点である。
このように、測距部13の光軸が投影面と交わる位置Jが、画像Rの中心Gに対して、Z軸方向に関しては−Z側にあり、かつX軸方向に関しては−X側にあるように、測距部13の設置角度を設定することで、最大半画角を小さくすることが可能となる。
<具体例2>
次に、具体例2について図22及び図23を用いて説明する。具体例2では、測距部13の光軸が投影面と交わる位置JのX座標が260.3mm、Z座標が391.7mmとなるように測距部13の設置角度を設定している。この場合も、画像Rの中心GのX座標が332.1mm、Z座標は518.6mmであるので、測距部13の光軸が投影面と交わる位置Jは、画像Rの中心Gに対して、Z軸方向に関しては−Z側にあり、かつX軸方向に関しては−X側にある。
点Jを通りZ軸に平行な直線が、投影画像の−Z側の端部と交差する点をJx1とし、投影画像の+Z側の端部と交差する点をJx2とする。また、点Jを通りX軸に平行な直線と点Aを通りZ軸に平行な直線とが交わる位置をJz1、点Jを通りX軸に平行な直線が、投影画像の+X側の端部と交差する点をJz2とする。
この点Jは、点Jを通りX軸に平行な方向における画角の中心であり、かつ、点Jを通りZ軸に平行な方向における画角の中心となっている。すなわち、∠Jy1OJ=∠JOJy2であり、∠Jx1OJ=∠JOJx2である。
具体例2では、撮像光学系132bの最大半画角は∠JOEであり、−36.85度であった。すなわち、具体例2では、上記比較例よりも、半画角を4.32度も小さくすることができる。半画角が45度(画角90度)を超える広角側での4.32度の低減は、収差及び製造コストに関して非常に大きな利点である。
なお、詳細な説明は繰り返しを避けるため省略するが、測距部14と画像Lとの関係についても、上述した測距部13と画像Rとの関係と同様である。
次に、画像Rを撮像部132で撮像する際に撮像素子132aの受光面位置に結像される画像の位置と大きさについて考える。なお、以下では、便宜上、撮像素子132aの受光面位置に結像される画像を「撮像画像」ともいう。
図24及び図25には、撮像素子132aの受光面位置に結像された画像Rの撮像画像が示されている。撮像画像におけるB’、C’、E’、F’、J’は、画像RにおけるB、C、E、F、Jに対応している。ここでは、投影面と撮像素子の受光面とが非平行であるため、撮像画像の形状は長方形ではなく、変形した四角形となっている。
図26及び図27には、上記比較例について、算出された撮像画像におけるB’、C’、E’、F’、G’の座標値が示されている。なお、簡単のため撮像光学系132bの焦点距離を1mmとした。また、撮像光学系の光軸方向をS0方向、撮像素子132aの受光面において、X軸に平行な方向をS2方向、S0方向及びS2方向のいずれにも直交する方向をS1方向とする。
G’は測距部13の光軸上にあるため、撮像素子132aの受光面の中心である。そこで、G’の座標値を、(S0,S1,S2)=(0,0,0)とする。ここでは、∠GOB、及び∠GOEが大きいので、B’、E’はG’から大きく離れている。一方、C’、F’はG’に近い。
S2方向に関する座標値の絶対値の最大値は0.693であり、S1方向に関する座標値の絶対値の最大値は0.712である。図26において破線で示される長方形は、原点((S1,S2)=(0,0))を中心として、画像Rを撮像するのに必要な撮像素子の大きさを示している。この長方形は、撮像部によって撮像される画像に外接する4角形であって、B’、C’、E’、F’を含み、原点を中心とする長方形であり、その面積は0.493(=0.693×0.712)mmである。
図28及び図29には、上記具体例1について、算出された撮像画像におけるB’、C’、E’、F’、J’の座標値が示されている。J’は測距部13の光軸上にあるため、撮像素子132aの受光面の中心である。そこで、J’の座標値を、(S0,S1,S2)=(0,0,0)とする。
ここでは、∠JOB=∠JOCであり、B’とC’はS1方向に関して対称な位置にある。S2方向に関する座標値の絶対値の最大値は0.645であり、S1方向に関する座標値の絶対値の最大値は0.474である。図28において破線で示される長方形は、原点((S1,S2)=(0,0))を中心として、画像Rを撮像するために必要な撮像素子の大きさを示している。この長方形は、撮像部によって撮像される画像に外接する4角形であって、B’、C’、E’、F’を含み、原点を中心とする長方形であり、その面積は0.306(=0.645×0.474)mmである。
この具体例1における長方形は、上述した比較例における長方形よりも小さく、面積比で62%である。すなわち、測距部13の光軸が投影面と交わる位置を、画像Rの中心に対して、測距部13の設置位置と同じ側にあるようにすることで、撮像光学系の画角を小さくできるだけでなく、より小さな撮像素子を使用することができる。
この場合、撮像部132は、長方形の中心が撮像素子の中心と一致するように、測距部13の光軸が投影面と交わる位置が設定される。
ところで、図28における画像Rを撮像するために必要な撮像素子では、S2方向において、B’、C’より+方向の部分には撮像画像がなく、無駄な部分となっている。そこで、図30に示されるように、J’を中心とせず、B’、C’が長方形の辺上に位置するようにしても良い。この場合、該長方形の面積は0.272(=0.574×0.474)mmであり、比較例における長方形に比べ、面積比で55%小さくなっている。
この場合、撮像部132では、長方形の中心が撮像素子の中心と一致するように、測距部13の光軸に対する撮像素子の位置が設定される。
図31及び図32には、上記具体例2について、算出された撮像画像におけるB’、C’、E’、F’、J’の座標値が示されている。J’は測距部13の光軸上にあるため、撮像素子132aの受光面の中心である。そこで、J’の座標値を、(S0,S1,S2)=(0,0,0)とする。
B’とC’はS1方向に関して対称な位置にあり、B’及びC’とE’はS2方向に関して対称な位置にある。図31において破線で示される長方形は、原点((S1,S2)=(0,0))を中心として、画像Rを撮像するために必要な撮像素子の大きさを示している。この場合、撮像素子に無駄な部分がない。この長方形は、撮像部によって撮像される画像に外接する4角形であって、B’、C’、E’、F’を含み、原点を中心とする長方形であり、その面積は0.279(=0.571×0.488)mmである。
この具体例2における長方形は、上述した比較例における長方形よりも小さく、面積比で57%である。
このように,撮像画像に外接する長方形の中心が、撮像素子の中心近傍となるように、測距部13の光軸が投影面と交わる位置を設定することができる。
以上の説明から明らかなように、本実施形態に係るプロジェクタ装置10では、投射部11によって、本発明のプロジェクタ装置における投影部が構成され、2つの測距部(13、14)と処理部15とによって、本発明の入力操作検出装置が構成されている。
また、測距部13によって、本発明の入力操作検出装置における第1の撮像部が構成され、測距部14によって、本発明の入力操作検出装置における第2の撮像部が構成されている。そして、画像Rが第1の画像に対応し、画像Lが第2の画像に対応している。
以上説明したように、本実施形態に係るプロジェクタ装置10は、投射部11、2つの測距部(13、14)、処理部15などを有している。投影画像は、投影画像の中心を通りZ軸に平行な仮想線で、画像Rと画像Lに2分割される。
投射部11は、処理部15の指示に基づいて、スクリーン300に画像を投影する。測距部13は、画像Rに向けて検出用の光(検出用光)を射出する光射出部131、画像Rを撮像する撮像部132、及び撮像部132の撮像結果からデプスマップを求める演算部133を有している。測距部14は、画像Lに向けて検出用の光(検出用光)を射出する光射出部141、画像Lを撮像する撮像部142、及び撮像部142の撮像結果からデプスマップを求める演算部143を有している。各撮像部は、撮像素子と撮像光学系を有している。処理部15は、測距部13からのデプスマップと測距部14からのデプスマップとに基づいて、入力操作手段が示す入力操作情報を求める。
各測距部は、Z軸方向及びX軸方向のいずれに関しても、測距部の配置位置と測距部の光軸が投影面と交わる位置とが、対応する画像の中心に対して同じ側にあるように設定されている。
この場合は、2つの測距部が投影画像に対して適切に配置されることとなり、入力操作手段の位置及び動きをスクリーンにおける画像が投影される全領域にわたって、高精度に検出することができる。そして、2つの測距部で投影画像の全領域をカバーしているため、1つの測距部で投影画像の全領域をカバーする場合と比べて、撮像光学系として画角の小さい撮像光学系を用いることができる。すなわち、撮像光学系を安価に構成することができる。そこで、2つの測距部(13、14)と処理部15とによって構成される入力操作検出装置によると、検出精度を低下させることなく低価格化を図ることができる。
また、本実施形態では、入力操作情報検出処理において、差分距離が予め設定された値(例えば、3mm)以下であれば、指先が投影面に接触していると判断している。この場合は、各測距部での距離計測に誤差があっても、所望の入力操作を実行することができる。また、これにより、指先が投影面に接触していなくとも、投影面に近接していれば接触しているとみなすことができ、実用的である。
また、本実施形態では、2つの測距部が、投影画像の中心が含まれるYZ面に対して対称となるように配置されているため、2つの測距部を同じ構成とすることができる。そこで、プロジェクタ装置10における組み付けが容易である。また、2つの測距部が近接しているため、2つの測距部を容易に一体化することができる。さらに、投射部11がX軸方向に関して投影画像の中心と同じ位置に配置されているため、2つの測距部の投射部11への取り付けが容易である。そして、プロジェクタ装置をコンパクトな構成とすることができる。
また、本実施形態では、各測距部がそれぞれ、光射出部を有している。そして、各光射出部は、光の射出方向が対応する撮像光学系の光軸に略一致するように配置されている。この場合は、光射出部を容易に適切に配置することができる。すなわち、各測距部を入力操作検出装置に適切な構成とすることができる。
そして、本実施形態に係るプロジェクタ装置10は、2つの測距部(13、14)と処理部15とによって構成される入力操作検出装置を備えているため、その結果として、所望の画像表示動作を精度良く行うとともに、低価格化を図ることができる。
また、本実施形態に係るプロジェクタシステム100は、プロジェクタ装置10を備えているため、その結果として、性能を維持しつつ低価格化を図ることができる。
なお、上記実施形態では、入力操作手段が操作者の指である場合について説明したが、これに限定されるものではなく、例えば、入力操作手段がペンや指し棒であっても良い。
また、上記実施形態において、プロジェクタ装置10と画像管理装置30とが一体化されていても良い。
また、上記実施形態において、不図示の取付部材を介して各測距部が筐体に対して取り外し可能な状態で外付けされていても良い(図33参照)。この場合、各測距部で取得されたデプスマップは、ケーブル等を介して筐体内の処理部15に通知される。また、この場合、各測距部は、筐体とは離れた位置に配置することもできる。
また、上記実施形態において、投射部11と2つの測距部(13、14)とが1つの筐体内に収納されていても良い。この場合は、投射部11と2つの測距部(13、14)との位置関係を容易に最適化することができる。
また、上記実施形態において、処理部15での処理の少なくとも一部を画像管理装置30で行っても良い。例えば、上記入力操作情報検知処理が画像管理装置30で行われる場合、各測距部で取得されたデプスマップは、ケーブル等を介して、又は無線通信により、画像管理装置30に通知される。
また、上記実施形態において、各測距部の光射出部は、ある構造化された光を射出しても良い(図34参照)。なお、構造化された光とは、Structured Light法として知られている方法に適した光であって、例えば、ストライプ状の光やマトリックス状の光などがある。照射領域は当然ではあるが、投影画像より広範囲である。射出される光は近赤外光であるため、投影画像が見えにくくなる等の不都合はない。このとき、撮像部は、撮像対象物で反射されて変形した構造化された光を撮像する。そして、演算部は、光射出部から射出された光と、撮像部で撮像された光とを比較し、三角測量法に基づいてデプスマップを求める。これは、いわゆるパターン投影法と呼ばれている。
また、上記実施形態において、各測距部の光射出部は、所定の周波数で強度変調された光を射出しても良い(図35参照)。照射領域は当然ではあるが、投影画像より広範囲である。射出される光は近赤外光であるため、投影画像が見えにくくなる等の不具合はない。このとき、撮像部は、撮像対象物で反射されて位相がずれた光を撮像する。そして、演算部は、光射出部から射出された光と、撮像部で撮像された光とを比較し、時間差もしくは位相差に基づいてデプスマップを求める。これは、いわゆるTOF(Time−Of−Flight)法と呼ばれている。
また、上記実施形態において、各測距部の光射出部は、対象物にテクスチャを付与するため光を射出しても良い(図36参照)。照射領域は当然ではあるが、投影画像より広範囲である。射出される光は近赤外光であるため、投影画像が見えにくくなる等の不具合はない。この場合、各測距部は、撮像対象物に投影されたテクスチャパターンを撮像する2つの撮像部を有している。そのため、それぞれの撮像部に対応して光軸は2つ存在する。そして、演算部は、2つの撮像部が撮像した画像間の視差に基づいてデプスマップを演算する。すなわち、演算部は、各画像に対してステレオ平行化と呼ばれる処理を行い、2つの光軸が平行であると仮定したときの画像を変換する。そのため、2つの光軸は平行でなくても良い。これは、いわゆるステレオ法と呼ばれている。なお、ステレオ平行化処理がなされた後の光軸は、X軸方向からみると重なっており(図37参照)、上記実施形態における測距部の光軸に対応する。
また、上記実施形態では、プロジェクタ装置10が載置台400に載置されて使用される場合について説明したが、これに限定されるものではない。例えば、図38に示されるように、プロジェクタ装置10は、天井に吊り下げて使用されても良い。ここでは、プロジェクタ装置10は、吊り下げ部材で天井に固定されている。
2つの測距部(13、14)と処理部15とからなる入力操作検出装置は、電子黒板装置やデジタルサイネージ装置にも用いることができる。いずれについても、高コスト化を招くことなく、所望の画像表示動作を正しく行うことができる。
図39には、電子黒板装置の一例が示されている。この電子黒板装置500は、各種メニューやコマンド実行結果が表示される映写パネル及び座標入力ユニットを収納したパネル部501と、コントローラ及びプロジェクタユニットを収納した収納部と、パネル部501及び収納部を所定の高さで支持するスタンドと、コンピュータ、スキャナ、プリンタ、ビデオプレイヤ等を収納した機器収納部502と、から構成されている(特開2002−278700号公報参照)。入力操作検出装置は、機器収納部502内に収納されており、該機器収納部502を引き出すことにより、入力操作検出装置が出現する。そして、入力操作検出装置は、下方より映写パネルに投影された画像に対するユーザによる入力操作を検出する。コントローラと入力操作検出装置との間の通信は、USBケーブルなどのケーブルを介した有線通信であっても良いし、無線通信であっても良い。
図40には、デジタルサイネージ装置の一例が示されている。このデジタルサイネージ装置600では、ガラス面が投影面となる。画像は、投影面の後方から、プロジェクタ本体によりリアプロジェクションされている。入力操作検出装置は、手すり上に設置されている。プロジェクタ本体と入力操作検出装置との間の通信は、USBケーブルを介した有線通信である。これにより、デジタルサイネージ装置にインタラクティブ機能を持たせることができる。
このように、2つの測距部(13、14)と処理部15とからなる入力操作検出装置は、インタラクティブ機能を有する装置や、インタラクティブ機能を付加したい装置に好適である。
10…プロジェクタ装置、11…投射部(投影部)、13…測距部(第1の撮像部)、14…測距部(第2の撮像部)、15…処理部、30…画像管理装置(制御装置)、100…プロジェクタシステム、131…光射出部、132…撮像部、132a…撮像素子、132b…撮像光学系、133…演算部、141…光射出部、142…撮像部、142a…撮像素子、142b…撮像光学系、143…演算部、300…スクリーン、400……載置台、500…電子黒板装置、600…デジタルサイネージ装置。
特開2013−61552号公報

Claims (15)

  1. 画像に対するユーザの入力操作を検出するための入力操作検出装置であって、
    撮像光学系及び撮像素子を有する第1の撮像部と、
    撮像光学系及び撮像素子を有する第2の撮像部と、
    前記第1の撮像部の撮像情報と前記第2の撮像部の撮像情報とに基づいて、前記入力操作を検出する処理部とを備え、
    前記画像は第1の方向に関して第1の画像と第2の画像とに分割され、
    前記第1の撮像部は前記第1の画像を撮像し、前記第2の撮像部は前記第2の画像を撮像し、
    前記第1の撮像部の撮像光学系の光軸が前記画像と交わる位置は、前記第1の画像の中心に対して、前記第1の撮像部の設置位置と同じ側にあり、
    前記第2の撮像部の撮像光学系の光軸が前記画像と交わる位置は、前記第2の画像の中心に対して、前記第2の撮像部の設置位置と同じ側にある入力操作検出装置。
  2. 前記第1及び第2の撮像部の撮像情報は、デプスマップを含むことを特徴とする請求項1に記載の入力操作検出装置。
  3. 前記第1及び第2の撮像部は、撮像される画像に外接する4角形の中心が、前記撮像素子の中心と一致するように、前記撮像光学系の光軸が前記画像と交わる位置が設定されていることを特徴とする請求項1又は2に記載の入力操作検出装置。
  4. 前記第1及び第2の撮像部は、撮像される画像に外接する4角形の中心が、前記撮像素子の中心と一致するように、前記撮像光学系の光軸に対する前記撮像素子の位置が設定されていることを特徴とする請求項1又は2に記載の入力操作検出装置。
  5. 前記第1及び第2の撮像部は、前記第1の方向に直交する面であって、前記画像の中心が含まれる面の近傍に配置されていることを特徴とする請求項1〜4のいずれか一項に記載の入力操作検出装置。
  6. 前記第1及び第2の撮像部はいずれも光射出部を有し、
    前記第1の撮像部の光射出部は、前記第1の撮像部の撮像光学系の光軸が前記画像と交わる位置に向けて光を射出し、
    前記第2の撮像部の光射出部は、前記第2の撮像部の撮像光学系の光軸が前記画像と交わる位置に向けて光を射出することを特徴とする請求項1〜5のいずれか一項に記載の入力操作検出装置。
  7. 前記第1及び第2の撮像部の光射出部は、構造化された光を射出することを特徴とする請求項6に記載の入力操作検出装置。
  8. 前記第1及び第2の撮像部の光射出部は、強度変調された光を射出することを特徴とする請求項6に記載の入力操作検出装置。
  9. 前記第1及び第2の撮像部の光射出部は、対象物にテクスチャを付与する光を射出することを特徴とする請求項6に記載の入力操作検出装置。
  10. 投影面に画像を投影する投影部と、
    前記投影面に投影された画像に対するユーザの入力操作を検出するための請求項1〜9のいずれか一項に記載の入力操作検出装置とを備えるプロジェクタ装置。
  11. 前記入力操作検出装置は、前記投影部が収納されている筐体に対して取り外し可能であることを特徴とする請求項10に記載のプロジェクタ装置。
  12. 前記入力操作検出装置は、前記投影部が収納されている筐体内に内蔵されていることを特徴とする請求項10に記載のプロジェクタ装置。
  13. 請求項1〜9のいずれか一項に記載の入力操作検出装置を備える電子黒板装置。
  14. 請求項1〜9のいずれか一項に記載の入力操作検出装置を備えるデジタルサイネージ装置。
  15. 請求項10〜12のいずれか一項に記載のプロジェクタ装置と、
    前記プロジェクタ装置の入力操作検出装置で得られた入力操作に基づいて、画像制御を行う制御装置とを備えるプロジェクタシステム。
JP2014250479A 2014-12-11 2014-12-11 入力操作検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、及びプロジェクタシステム Pending JP2016114963A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014250479A JP2016114963A (ja) 2014-12-11 2014-12-11 入力操作検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、及びプロジェクタシステム
US14/940,484 US10048808B2 (en) 2014-12-11 2015-11-13 Input operation detection device, projection apparatus, interactive whiteboard, digital signage, and projection system
EP15195020.1A EP3032375B1 (en) 2014-12-11 2015-11-17 Input operation system
CN201510919004.4A CN105700736B (zh) 2014-12-11 2015-12-11 输入操作检测设备、投影装置、交互白板和数字标识装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014250479A JP2016114963A (ja) 2014-12-11 2014-12-11 入力操作検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、及びプロジェクタシステム

Publications (1)

Publication Number Publication Date
JP2016114963A true JP2016114963A (ja) 2016-06-23

Family

ID=54770781

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014250479A Pending JP2016114963A (ja) 2014-12-11 2014-12-11 入力操作検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、及びプロジェクタシステム

Country Status (4)

Country Link
US (1) US10048808B2 (ja)
EP (1) EP3032375B1 (ja)
JP (1) JP2016114963A (ja)
CN (1) CN105700736B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018152022A (ja) * 2017-03-15 2018-09-27 セイコーエプソン株式会社 プロジェクターシステム

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6836176B2 (ja) * 2017-04-17 2021-02-24 セイコーエプソン株式会社 表示装置及び表示装置の制御方法
CN107451561A (zh) * 2017-07-31 2017-12-08 广东欧珀移动通信有限公司 虹膜识别补光方法和装置
JP7196644B2 (ja) 2019-01-30 2022-12-27 株式会社リコー 傾き検出装置、読取装置、画像処理装置および傾き検出方法
JP7131415B2 (ja) 2019-01-31 2022-09-06 株式会社リコー 傾き検出装置、読取装置、画像処理装置および傾き検出方法
US11823421B2 (en) * 2019-03-14 2023-11-21 Nokia Technologies Oy Signalling of metadata for volumetric video
CN113760131B (zh) * 2021-08-05 2023-09-22 当趣网络科技(杭州)有限公司 投影触控处理方法、装置及计算机可读存储介质

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6710770B2 (en) * 2000-02-11 2004-03-23 Canesta, Inc. Quasi-three-dimensional method and apparatus to detect and localize interaction of user-object and virtual transfer device
US6731317B2 (en) 2001-03-14 2004-05-04 Ricoh Company, Ltd. Pulse modulation signal generation circuit, and semiconductor laser modulation device, optical scanning device and image formation device using the same
JP4515653B2 (ja) 2001-03-15 2010-08-04 株式会社リコー 情報入力装置、情報入力装置の制御方法、プログラムおよびプログラムを記録したコンピュータ読み取り可能な記録媒体
US6791596B2 (en) 2001-06-28 2004-09-14 Ricoh Company, Ltd. Method and apparatus for image forming capable of effectively generating pixel clock pulses
EP1331804A3 (en) 2002-01-24 2003-11-19 Ricoh Company, Ltd. Image forming device, image forming method, computer program, and recording medium
JP4014083B2 (ja) 2002-03-06 2007-11-28 株式会社リコー 画像形成装置
AU2003238660A1 (en) * 2002-06-26 2004-01-19 Vkb Inc. Multifunctional integrated image sensor and application to virtual interface technology
JP4165746B2 (ja) 2003-02-07 2008-10-15 株式会社リコー 画素クロック生成回路及び画像形成装置
US7496121B2 (en) 2003-03-20 2009-02-24 Ricoh Company, Ltd. Laser modulating and driving device and image reproducing apparatus using the same
JP4204000B2 (ja) 2003-12-02 2009-01-07 株式会社リコー ディザマトリクス作成方法および装置、画像処理方法および装置、画像形成方法および装置、プログラムおよび記録媒体
JP4605692B2 (ja) 2004-03-19 2011-01-05 株式会社リコー 半導体レーザ変調駆動装置及び画像形成装置
JP2007038477A (ja) 2005-08-02 2007-02-15 Ricoh Co Ltd 画素クロック及びパルス変調信号生成装置、光走査装置及び画像形成装置
US8081355B2 (en) 2007-03-05 2011-12-20 Ricoh Company, Ltd. Illumination unit, image read apparatus, image formation apparatus
JP2008225000A (ja) 2007-03-12 2008-09-25 Ricoh Co Ltd 画像処理装置、画像処理方法、プログラム及び記録媒体
US7961365B2 (en) 2007-05-10 2011-06-14 Ricoh Company, Ltd. Image reading apparatus and image forming apparatus
US20090073495A1 (en) 2007-09-14 2009-03-19 Ricoh Company, Ltd Image processing apparatus and computer program product
US8199371B2 (en) 2008-02-25 2012-06-12 Ricoh Company, Ltd. Image reader and image formation apparatus
JP4513905B2 (ja) * 2008-06-27 2010-07-28 ソニー株式会社 信号処理装置、信号処理方法、プログラム及び記録媒体
US8169671B2 (en) 2008-06-30 2012-05-01 Ricoh Company, Ltd. Lighting unit, image reading apparatus and image forming apparatus using the same
JP4922258B2 (ja) 2008-07-14 2012-04-25 株式会社リコー 画像読取装置及び画像形成装置
JP5181899B2 (ja) 2008-07-25 2013-04-10 株式会社リコー 画像読取装置及び画像形成装置
JP5196305B2 (ja) 2008-07-30 2013-05-15 株式会社リコー 読取光学系ユニット、画像読取装置および画像形成装置
JP2010050850A (ja) 2008-08-22 2010-03-04 Ricoh Co Ltd 画像処理装置、画像処理方法、画像形成装置、プログラム、及び記録媒体
GB2477044B (en) 2008-08-22 2012-04-04 Northrop Grumman Systems Corp Compound gesture recognition
US8208751B2 (en) 2008-11-27 2012-06-26 Ricoh Company, Limited Image processing apparatus, image processing method, and program
US9417700B2 (en) * 2009-05-21 2016-08-16 Edge3 Technologies Gesture recognition systems and related methods
US8633810B2 (en) * 2009-11-19 2014-01-21 Robert Bosch Gmbh Rear-view multi-functional camera system
US8988508B2 (en) 2010-09-24 2015-03-24 Microsoft Technology Licensing, Llc. Wide angle field of view active illumination imaging system
US8610971B2 (en) 2010-10-20 2013-12-17 Ricoh Company, Limited Image forming apparatus
JP2013061552A (ja) 2011-09-14 2013-04-04 Ricoh Co Ltd プロジェクタ装置および操作検出方法
DE102011119082A1 (de) 2011-11-21 2013-05-23 Übi UG (haftungsbeschränkt) Vorrichtungsanordnung zur Schaffung eines interaktiven Bildschirms aus einem Bildschirm
GB201205303D0 (en) * 2012-03-26 2012-05-09 Light Blue Optics Ltd Touch sensing systems
ES2696198T3 (es) * 2012-07-30 2019-01-14 Aist Sistema de procesamiento de imágenes y método de procesamiento de imágenes
JP6075122B2 (ja) 2013-03-05 2017-02-08 株式会社リコー システム、画像投影装置、情報処理装置、情報処理方法およびプログラム
US9465484B1 (en) * 2013-03-11 2016-10-11 Amazon Technologies, Inc. Forward and backward looking vision system
US10093247B2 (en) * 2013-05-23 2018-10-09 GM Global Technology Operations LLC Enhanced front curb viewing system
JP2015212927A (ja) * 2014-04-17 2015-11-26 株式会社リコー 入力操作検出装置、入力操作検出装置を備えた画像表示装置及びプロジェクタシステム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018152022A (ja) * 2017-03-15 2018-09-27 セイコーエプソン株式会社 プロジェクターシステム

Also Published As

Publication number Publication date
EP3032375A1 (en) 2016-06-15
CN105700736B (zh) 2018-08-24
US20160170564A1 (en) 2016-06-16
EP3032375B1 (en) 2018-10-24
US10048808B2 (en) 2018-08-14
CN105700736A (zh) 2016-06-22

Similar Documents

Publication Publication Date Title
JP2016114963A (ja) 入力操作検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、及びプロジェクタシステム
JP5680976B2 (ja) 電子黒板システム及びプログラム
JP6075122B2 (ja) システム、画像投影装置、情報処理装置、情報処理方法およびプログラム
JP2015212927A (ja) 入力操作検出装置、入力操作検出装置を備えた画像表示装置及びプロジェクタシステム
EP2189835A1 (en) Terminal apparatus, display control method, and display control program
JP2016162162A (ja) 接触検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、プロジェクタシステム及び接触検出方法
TW201533612A (zh) 感測器與投射器之校準技術
JP6187067B2 (ja) 座標検出システム、情報処理装置、プログラム、記憶媒体、座標検出方法
JP6528964B2 (ja) 入力操作検出装置、画像表示装置、プロジェクタ装置、プロジェクタシステム、及び入力操作検出方法
US10254893B2 (en) Operating apparatus, control method therefor, and storage medium storing program
TWI608737B (zh) 影像投影技術
JP2017219942A (ja) 接触検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、プロジェクタシステム、接触検出方法、プログラム及び記憶媒体。
US20180032142A1 (en) Information processing apparatus, control method thereof, and storage medium
US20170223342A1 (en) Object capture and illumination
EP3032380B1 (en) Image projection apparatus, and system employing interactive input-output capability
JP6643825B2 (ja) 装置及び方法
US20210281822A1 (en) Display system, display control device, and non-transitory computer readable medium
US10185445B2 (en) Determining touch signals from interactions with a reference plane proximate to a display surface
US9239635B2 (en) Method and apparatus for graphical user interface interaction on a domed display
JP2017125764A (ja) 物体検出装置、及び物体検出装置を備えた画像表示装置
WO2022191276A1 (ja) 操作入力装置、操作入力方法及びプログラム
WO2022244296A1 (ja) 情報処理装置、情報処理方法、プログラム、及び情報処理システム
JP6393114B2 (ja) 情報処理システム、情報処理プログラム、情報処理方法および撮像装置
JP2017033389A (ja) 画像処理装置、画像読取方法、コンピュータプログラム、及び記憶媒体
JP2024032043A (ja) 検出方法、検出装置及びプログラム