JP2016218893A - 入力操作検出装置、画像表示装置、プロジェクタ装置、プロジェクタシステム、及び入力操作検出方法 - Google Patents

入力操作検出装置、画像表示装置、プロジェクタ装置、プロジェクタシステム、及び入力操作検出方法 Download PDF

Info

Publication number
JP2016218893A
JP2016218893A JP2015105446A JP2015105446A JP2016218893A JP 2016218893 A JP2016218893 A JP 2016218893A JP 2015105446 A JP2015105446 A JP 2015105446A JP 2015105446 A JP2015105446 A JP 2015105446A JP 2016218893 A JP2016218893 A JP 2016218893A
Authority
JP
Japan
Prior art keywords
image
input operation
unit
imaging
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015105446A
Other languages
English (en)
Other versions
JP6528964B2 (ja
Inventor
上田 健
Takeshi Ueda
健 上田
増田 浩二
Koji Masuda
浩二 増田
伊藤 昌弘
Masahiro Ito
昌弘 伊藤
宏昌 田中
Hiromasa Tanaka
宏昌 田中
史織 太田
Shiori Ota
史織 太田
二瓶 靖厚
Yasuhiro Nihei
靖厚 二瓶
周 高橋
Shu Takahashi
周 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2015105446A priority Critical patent/JP6528964B2/ja
Publication of JP2016218893A publication Critical patent/JP2016218893A/ja
Application granted granted Critical
Publication of JP6528964B2 publication Critical patent/JP6528964B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Position Input By Displaying (AREA)

Abstract

【課題】 入力操作の検出精度を向上できる入力操作検出装置を提供すること。【解決手段】 入力操作検出装置は、投影面に投影された投影画像に対する指示入力手段による入力操作を検出する入力操作検出装置であって、投影画像に向けてパターン光を投射する光投射部と、投影画像が撮像範囲に入る撮像部と、投影面に照射されたパターン光の反射光の撮像部での撮像結果である照射画像1と、投影面上の指示入力手段及び該投影面における指示入力手段とは重ならない部分に照射されたパターン光の反射光の撮像部での撮像結果である照射画像2とに基づいて入力操作を検出する処理部15と、を備えている。【選択図】図2

Description

本発明は、入力操作検出装置、画像表示装置、プロジェクタ装置、プロジェクタシステム、及び入力操作検出方法に係り、更に詳しくは、表示された画像に対する入力操作を検出する入力操作検出装置、該入力操作検出装置を備える画像表示装置、投影画像に対してなされた入力操作により操作されるプロジェクタ装置、前記プロジェクタ装置を備えるプロジェクタシステム、及び表示された画像に対する入力操作を検出する入力操作検出方法に関する。
近年、スクリーンに投影された投影画像に文字や図などを書き込む機能や、投影画像の拡大、縮小、及びページ送りなどの操作を実行する機能を有するいわゆるインタラクティブなプロジェクタ装置の開発が盛んに行われている。これらの機能は、スクリーンをタッチする操作者の指や、操作者が保持しているペン及び指し棒などを指示入力手段とし、該指示入力手段の位置及び動きから入力操作を検出し、その検出結果をコンピュータなどへ送ることで実現されている。
例えば、特許文献1には、色画像を用いて物体(指示入力手段)の端部を特定し、該端部の3次元位置情報を用いて該物体と所定の面(表示面)の接触を検出する(入力操作を検出する)情報処理装置が開示されている。
しかしながら、特許文献1に開示されている情報処理装置では、入力操作の検出精度に向上の余地があった。
本発明は、表示面に表示された画像に対する指示入力手段による入力操作を検出する入力操作検出装置であって、前記画像に向けてパターン光を投射する光投射部と、前記画像が撮像範囲に入る撮像部と、前記表示面に照射された前記パターン光の反射光の前記撮像部での撮像結果である第1の撮像画像と、前記表示面上の前記指示入力手段及び該表示面における前記指示入力手段とは重ならない部分に照射された前記パターン光の反射光の前記撮像部での撮像結果である第2の撮像画像とに基づいて前記入力操作を検出する処理部と、を備える入力位置検出装置である。
本発明によれば、入力操作の検出精度を向上できる。
本発明の一実施形態に係るプロジェクタシステムの概略構成を説明するための図である。 プロジェクタ装置を説明するための図である。 測距部を説明するための図(その1)である。 測距部を説明するための図(その2)である。 光投射部を説明するための図である。 パターン光の生成に用いられるマスクパターンの一部を示す図である。 撮像部を説明するための図である。 照射画像2(投影面上に手があるとき)の一部を示す図である。 照射画像1、2を二値化し、両者の排他的論理和をとった画像である。 図9の画像のエッジ検出後の画像である。 図10の画像から縦線と横線を削除した図である。 処理部によって行われる入力操作情報検出処理を説明するためのフローチャートである。 スクリーン3D情報取得処理を説明するためのフローチャートである。 指先3D情報取得処理を説明するためのフローチャートである。 電子黒板装置の一例を説明するための図である。 デジタルサイネージ装置の一例を説明するための図である。
以下、本発明の一実施形態を図1〜図14に基づいて説明する。図1には、一実施形態に係るプロジェクタシステム100の概略構成が示されている。
このプロジェクタシステム100は、入力操作検出装置を備えた画像表示装置としてのプロジェクタ装置10と、画像管理装置30とを有している。操作者(ユーザ)は、指、ペン、指し棒などの指示入力手段でスクリーン300の投影面近傍ないしは投影面に接触することで、投影面に投影された画像(以下、「投影画像」ともいう)に対して入力操作を行う。
プロジェクタ装置10及び画像管理装置30は、デスクやテーブル、あるいは専用の台座等(以下では、「載置台400」という。)に載置されている。ここでは、三次元直交座標系において、載置台400の載置面に直交する方向をZ軸方向とする。また、プロジェクタ装置10の+Y側にスクリーン300が設置されているものとする。このスクリーン300の−Y側の面が投影面である。なお、投影面として、ホワイトボードのボード面や壁面など様々なものを利用することができる。
画像管理装置30は、複数の画像データを保持しており、操作者の指示に基づいて投影対象の画像情報(以下では、「投影画像情報」ともいう)などをプロジェクタ装置10に送出する。画像管理装置30とプロジェクタ装置10との間の通信は、USB(Universal Serial Bus)ケーブルなどのケーブルを介した有線通信であっても良いし、無線通信であっても良い。そして、画像管理装置30としては、所定のプログラムがインストールされているパーソナルコンピュータ(パソコン)を用いることができる。
また、画像管理装置30がUSBメモリやSDカードなどの着脱可能な記録媒体のインターフェースを有している場合は、該記録媒体に格納されている画像を投影画像とすることができる。
プロジェクタ装置10は、いわゆるインタラクティブなプロジェクタ装置であり、一例として図2に示されるように、投影部11、測距部13、処理部15などを有している。これらは、不図示の筐体内に収納されている。
本実施形態に係るプロジェクタ装置10では、測距部13と処理部15とによって、入力操作検出装置が構成されている。
投影部11は、一例として、従来のプロジェクタ装置と同様に、光源、カラーフィルタ、各種光学素子などを有し、処理部15によって制御される。
処理部15は、画像管理装置30との間で双方向の通信を行い、投影画像情報を受信すると、所定の画像処理を行い、投影部11を介して、スクリーン300に画像を投影する。
測距部13は、一例として図3に示されるように、光投射部131、撮像部132、及び演算部133などを有している。
光投射部131は、スクリーン300に投影された画像(投影画像)に向けて光(検出用光)を投射する。ここでは、検出用光として構造化された光(パターン光)を用いている(図4参照)。以下では、スクリーン300の投影面における画像が投影される領域を含む領域に照射された検出用光により形成される画像を「照射画像」と呼ぶ。
光投射部131は、図5に示されるように、光源、赤外光(ここでは近赤外光)のみを透過させるフィルタ、拡散板、マスク、投射レンズを含む。
光源としては、例えばハロゲンランプ、LED、LEDアレイ、半導体レーザ等を用いることができる。光源は、処理部15によって点灯及び消灯がなされる。
光源からの光はフィルタに入射し、近赤外光のみがフィルタを透過する。このように近赤外光のみを透過させるのは、可視光を投影画像に照射すると投影画像と照射画像が重なって投影画像の視認性が低下するからである。
なお、光投射部は、上述した構成に限定されることなく、要は、パターン光を投射可能な構成を有していれば良い。例えば、赤外光のみを透過させるフィルタを設けずに、赤外光を射出する光源を用いても良い。また、マスクを設けずに、光源をアレイ状に配置された複数の発光部で構成し、該複数の発光部の少なくとも一部を発光させて、パターン光を投射するようにしても良い。
フィルタを透過した赤外光は、拡散板によって拡散され、マスクの全面にほぼ均一に入射する。
マスクは、光を透過させる部分と遮蔽する部分が2次元にモザイク状に並んでいて、入射光(赤外光)を構造化する。
投射レンズは、マスクからの構造化された光(近赤外光)を投影面に向けて射出する。
「構造化された光」とは、Structured Light法として知られている方法に適した光であって、上記モザイク状のものの他、例えばストライプ状の光やマトリックス状の光などがある。照射領域は当然ではあるが、投影画像より広範囲である。上述の如く投射される光は近赤外光であるため、投影画像が見えにくくなる等の不都合はない。このとき、撮像部132は、撮像対象物で反射されて変形した構造化された光を撮像する。そして、演算部133は、光投射部131から投射された光と、撮像部132で撮像された光とを比較(パターンマッチング)し、三角測量法に基づいてデプスマップを求める。これは、いわゆるパターン投影法と呼ばれている。
図6には、マスクパターン(以下では「照射パターン」とも呼ぶ)の一部が示されている。このマスクパターンが投影面に拡大照射されることになる。図6の黒色部分が遮蔽、白色部分が透過になっている。
ここで、マスクパターンにおける白黒の最小単位を「パターン素」と呼ぶ(例えば、図6中の破線で囲まれた部分)。
そして、パターン素4×4(=16)個分の領域は、マスクパターンの何処をとってもユニークなるように数学的に配置されており、これを「ユニーク単位」と呼ぶ。(例えば、図6中の一点鎖線で囲まれた部分)。
撮像部132は、一例として図7に示されるように、撮像素子132a及び撮像光学系132bを有している。撮像素子132aは、例えば2次元CMOSセンサ等のエリア型の撮像素子である。撮像光学系132bは、光投射部131から投射され、撮像対象物で反射された光を撮像素子132aに導く。ここでは、撮像素子132aがエリア型であるので、ポリゴンミラーなどの光偏向手段を用いなくても2次元情報を一括して取得することができる。
ここでは、撮像部132の撮像対象物は、パターン光が照射された投影面や、パターン光が照射された、投影面上の指示入力手段及び投影面における指示入力手段とは重ならない部分である。
例えば、パターン光を照射した投影面を撮像すると、撮像画像(照射画像1)は、図6に示されるマスクパターンに近似する。
撮像光学系132bは、一例として光軸を共通とするレンズ群を含むいわゆる共軸の光学系であり、光軸が定義されている。レンズ群と撮像素子132aとの間には赤外光透過フィルタが配置されている。これにより、撮像素子132aは、照射画像のみを捉えることができる。なお、赤外光透過フィルタは、レンズ群の上段に配置されても良いし、レンズ群中に配置されても良い。
なお、撮像光学系132bの光軸を、以下では、便宜上、「測距部13の光軸」ともいう。ここでは、測距部13の光軸に平行な方向をa軸方向、該a軸方向及びX軸方向のいずれにも直交する方向をb軸方向とする。また、撮像光学系132bの画角は、投影画像の全領域が撮像できるように設定されている。すなわち、投影画像全体が撮像部132の撮像範囲に入っている。
演算部133は、ユニーク単位毎に照射パターンと撮像画像(照射画像)とのパターンマッチングを行い、照射パターンと撮像画像の位置ずれ(視差)を距離データに換算し、撮像対象物までの距離情報を算出する。そして、撮像画像の3次元情報(3D情報)、すなわちデプスマップを取得する。なお、取得されたデプスマップの中心は、測距部13の光軸上にある。
なお、演算部133は、光投射部131での光射出のタイミングと、撮像素子132aでの反射光の撮像タイミングとに基づいて、撮像対象物までの距離情報を算出しても良い。
演算部133は、所定の時間間隔(フレームレート)で撮像対象物のデプスマップを取得し、処理部15に通知する。
そして、処理部15は、演算部133で得られたデプスマップに基づいて、指示入力手段の位置や動きを求め、それに対応する入力操作情報を求める。さらに、処理部15は、該入力操作情報を画像管理装置30に通知する。
画像管理装置30は、処理部15からの入力操作情報を受け取ると、該入力操作情報に応じた画像制御を行う。これにより、投影画像に入力操作情報が反映されることとなる。
以下に、指先の投影面に対する接触を判定する方法について説明する。
図8には、投影面上の手(指示入力手段)及び投影面における手と重ならない部分に照射されたパターン光の反射光の撮像部132での撮像画像(照射画像2)が示されている。
ここで、撮像素子132aの一画素は、図8に示される撮像された反射光のパターン素よりもかなり小さく設定されている。
図8中、右側にスクリーン300よりもプロジェクタ装置10側にある指が入り込んでいる。灰色の実線で囲んだ部分が手の領域である。手がスクリーン300の手前にあるので手の部分は背景のスクリーン300の部分(手と重なっていない部分)に対してパターンがずれている。
ところで、上述したように投射側と撮像側でユニークに対応関係が決まりパターンマッチングにより正確な距離情報が得られるのは、少なくともユニーク単位の大きさがある領域である。それが図8の破線で囲まれた領域であるが、欲しい指先(点A)は、正確な距離情報が得られない。
したがって、このままでは、指先の投影面に対する接触判定ができない。また、図8の画像だけから指先(点A)の位置を決めるのも難しい。
また、指の輪郭を跨ぐ領域でパターンマッチングを行おうとすると、スクリーンと手という測距部13からの距離の異なるパターンが混じってしまうので正確な測距ができない。従って、手指の輪郭を跨ぐ領域はパターンマッチングを行わないことが望ましい。
図9には、パターン光が照射されたスクリーン300のみを撮像した画像(照射画像1)と図8に示される照射画像2をそれぞれ二値化し、両者の排他的論理和をとった画像が示されている。
この画像では、手の範囲が分かりやすくなり、手の輪郭の曲率変化等から指先の特定も容易である。また、様々な手の輪郭と指先の関係を機械学習させ、指先を特定しても構わない。
排他的論理和は論理演算の最も基本となる演算であり、コンピュータや論理演算回路で高速な演算が可能である。
図10には、図9の画像のエッジ検出後の画像(エッジ線のみの画像)が示されている。エッジ検出にはキャニー法等がある。
図11には、図10の画像のエッジ線から照射パターンのパターン素を構成するエッジ線と平行な直線を削除した画像が示されている。
ここでは、照射パターンのパターン素は縦と横の直線からなるので、図10の画像から縦と横の直線を除いたものが図11の画像である。そして、残ったエッジ線を滑らかに結べば指先を求めるのは更に容易である。
以下に、処理部15によって行われる入力操作情報を求める処理(「入力操作情報検出処理」ともいう。)について、図12のフローチャートを用いて説明する。処理部15は、照射パターンのデータが予め保存されている記憶媒体(例えばメモリ、ハードディスク等)を有している。
最初のステップS1では、スクリーン3D情報取得処理が行われる。すなわち、ステップS1では、スクリーン300の3D情報(3次元情報)を取得する。スクリーン3D情報取得処理については、後に詳述する。
次のステップS2では、指先3D情報取得処理が行われる。すなわち、ステップS2では、スクリーン300の投影面を基準とした指先の3D情報(3次元情報)を取得する。指先3D情報取得処理については、後に詳述する。
次のステップS3では、スクリーン3D情報及び指先3D情報に基づいて、指先と投影面の距離Lを算出する。
次のステップS4では、指先と投影面の距離Lが所定値以下であるか否かを判断する。すなわち、指先が投影面に接触あるいは近接しているか否かを判断する。ここでの「所定値」は、例えば1〜5mm、好ましくは3mm程度である。この場合、測距部13での距離計測に誤差があっても、所望の入力操作を実行することができる。ステップS4での判断が肯定されるとステップS5に移行する。一方、ステップS4での判断が否定されるとステップS2に戻る。
次のステップS5では、指先の位置に基づいて入力操作情報を求める。例えば、該指先の位置に投影されている投影画像の指示に従い、アイコンをクリックする入力操作であったり、指先が移動している間は投影画像上に文字あるいは線を書く入力操作であったりする。
次のステップS6では、得られた入力操作情報を画像管理装置30に通知する。これにより、画像管理装置30は、入力操作情報に応じた画像制御を行う。すなわち、投影画像に入力操作情報が反映される。ステップS6が実行されると、ステップS2に戻る。なお、プロジェクタ装置10とスクリーン300の位置関係がずれることも想定されるため、ステップS6の後、ステップS1に戻しても良い。なお、図12のフローチャートにおいて、ステップS1とステップS2の順序を逆にしてもよい。
次に、スクリーン3D情報取得処理(図12のステップS1)について、図13のフローチャートを参照して説明する。
最初のステップS11では、投影画像に向けてパターン光を投射する。
次のステップS12では、照射画像1を取得する。具体的には、パターン光のスクリーン300の投影面からの反射光を撮像し、その撮像画像を照射画像1として記憶媒体に保存する。
次のステップS13では、投影面におけるパターン光の照射範囲(投影面における画像が投影される領域を含む範囲)上に指示入力手段(ここではユーザの手)があるか否かを判断する。具体的には、照射画像1と照射パターンを比較し、両者の局所的なずれが閾値T未満であれば「指示入力手段なし」と判断し、閾値T以上(図8参照)であれば「指示入力手段あり」と判断する。ステップS13での判断が否定されると(指示入力手段なしの場合)、ステップS14に移行する。一方、ステップS13での判断が肯定されると(指示入力手段ありの場合)、ステップS12に戻る。
なお、ステップS13で「指示入力手段なし」と判断した場合には、照射画像1が記憶媒体に保存される。
次のステップS14では、照射画像1と照射パターンをパターンマッチングする。すなわち、両者のユニーク単位間の対応付けを行う。
次のステップS15では、スクリーンの3D情報を取得する。具体的には、ステップS14におけるパターンマッチングから視差を得て、スクリーンの3D情報に変換して、記憶媒体に保存する。ステップS15が実行されると、フローは、終了する。
以上の説明から分かるように、指先の3D情報は経時的に更新されることになる。
次に、指先3D情報取得処理(図12のステップS2)について、図14のフローチャートを参照して説明する。
最初のステップS21では、投影画像に向けてパターン光を投射する。
次のステップS22では、照射画像2を取得する。具体的には、投射したパターン光の反射光を撮像し、その撮像画像を照射画像2として取得する。
次のステップS23では、投影面上におけるパターン光の照射範囲(投影面における画像が投影される領域を含む範囲)上に指示入力手段(ここではユーザの手)があるか否かを判断する。具体的には、照射画像2と照射パターンを比較し、両者の局所的なずれが閾値T未満であれば「指示入力手段なし」と判断し、閾値T以上(図8参照)であれば「指示入力手段あり」と判断する。ステップS23での判断が肯定されると、ステップS24に移行する。一方、ステップS23での判断が否定されると、ステップS22に戻る。
なお、ステップS23で「指示入力手段あり」と判断した場合には、照射画像2が記憶媒体に保存される。
次のステップS24では、照射画像2と照射パターンをパターンマッチングする。すなわち、両者のユニーク単位間の対応付けを行う。
次のステップS25では、照射画像1、2を二値化し、記憶媒体に保存する。
次のステップS26では、二値化した照射画像1、2の排他的論理和をとり、記憶媒体に保存する。
次のステップS27では、手の領域を推定する。具体的には、図9から白部分の集まりを滑らかな曲線で囲むことによって「手の領域」を把握(推定)できる。または、エッジ検出により排他的論理和の画像のパターン素を構成するエッジ線を抽出し(図10参照)、照射パターンと平行な直線(縦線及び横線)を削除した画像(図11参照)より、残った曲線を滑らかな曲線で繋いて求めても良い。
次のステップS28では、手の3D情報を算出する。具体的には、照射パターンと照射画像2のパターンマッチングによって視差を求め、ステップS27における手の領域の推定情報と合わせて「手の3D情報」が得られる。
次のステップS29では、指先の位置(指先位置)を推定する。「指先位置」は、手の輪郭の曲率変化等から特定が容易である。また、様々な手の輪郭と指先の関係を機械学習させ、指先位置を特定しても構わない。これにより、「指先の位置情報」が得られる。
次のステップS30では、指先の3D情報を取得する。具体的には、ステップS28における「手の3D情報」とステップS29における「指先の位置情報」から指先の3D情報を得る。指先は視差情報が得られていないが、その近傍の手の複数の位置の3D情報からの補外によって、指先の3D情報が得られる。補外の手法は指先近傍の手の2点の3D情報からの直線補外でも良いし、更に多くの点から高次関数の補外をかけても良い。ステップS30が実行されると、フローは終了する。
以上説明した本実施形態の入力位置検出装置は、投影面(表示面)に投影(表示)された投影画像(画像)に対する指示入力手段による入力操作を検出する入力操作検出装置であって、投影画像に向けてパターン光を投射する光投射部131と、投影画像が撮像範囲に入る撮像部132と、投影面に照射されたパターン光の反射光の撮像部132での撮像結果である照射画像1(第1の撮像画像)と、投影面上の指示入力手段及び該投影面における指示入力手段とは重ならない部分に照射されたパターン光の反射光の撮像部132での撮像結果である照射画像2(第2の撮像画像)とに基づいて入力操作を検出する処理部15と、を備えている。
この場合、照射画像1、2を用いて、投影面から指示入力手段を精度良く分離、抽出できる。この結果、入力操作の検出精度を向上できる。
また、処理部15は、照射画像1、2の排他的論理和に基づいて、指示入力手段の先端部の3次元情報を取得するため、該3次元情報を精度良く求めることができる。
また、処理部15は、排他的論理和のエッジを検出し、該エッジのうちパターン光のパターンと同じ傾きを持つものを除外し、指示入力手段の先端部の3次元情報を求めるため、該3次元情報を更に精度良く求めることができる。
また、処理部15は、排他的論理和を求めるのに先立って、パターン光のパターンと、照射画像2における指示入力手段の輪郭を含む領域以外の領域とをパターンマッチングするため、パターン間の対応付けを正確に行うことができる。
また、処理部15は、照射画像1とパターン光のパターンに基づいて、表示面の3次元情報を取得するため、該3次元情報を精度良く求めることができる。
また、処理部15は、指示入力手段の先端部の3次元情報と投影面の3次元情報から、指示入力手段の先端部と投影面の距離を求め、該距離から指示入力手段の先端部と投影面の接触もしくは近接を判定するため、指示入力手段による入力操作を高精度に検出することができる。
また、処理部15は、照射画像2を繰り返し取得し、更新するため、指示入力手段による入力操作をリアルタイムに精度良く検出することができる。
また、パターン光は、近赤外光であるため、投影画像の視認性の低下を抑制できる。
また、撮像部132は、撮像素子132aと、入射光のうち近赤外光のみを撮像素子132aに向けて透過させるフィルタとを有するため、照射画像のみを撮像することができる。
また、本実施形態のプロジェクタ装置10は、入力操作検出装置と、画像を投影面に投影する投影部11と、を備えているため、精確なインタラクティブ機能を発揮させることができる。
また、プロジェクタ装置10と、プロジェクタ装置10で得られた入力操作がなされた位置あるいは動作に基づいて、画像制御を行う制御装置と、を備えるプロジェクタシステム100では、所望の画像表示動作を正しく行うことができる。
また、本実施形態の入力操作検出方法は、投影面に投影された投影画像に対する指示入力手段による入力操作を検出する入力操作検出方法であって、指示入力手段が投影面上にないときに投影画像に向けてパターン光を投射する工程と、投影面に照射されたパターン光の反射光を撮像する第1の撮像工程と、指示入力手段が投影面上にあるときに投影画像に向けてパターン光を投射する工程と、指示入力手段及び投影面における指示入力手段とは重ならない部分に照射されたパターン光の反射光を撮像する第2の撮像工程と、第1及び第2の撮像工程での撮像結果に基づいて入力操作を検出する工程と、を含む。
この場合、照射画像1、2を用いて、投影面から指示入力手段を精度良く分離、抽出できる。この結果、入力操作の検出精度を向上できる。
なお、上記実施形態では、処理部15が、指示入力手段が投影面上にあるか否かをパターンのずれにより判断しているが、これに代えて、例えば、ユーザが、指示入力手段が投影面上にないときに測距部13を操作して照射画像1を取得し記憶媒体に保存し、かつ指示入力手段が投影面上にあるときに測距部13を操作して照射画像2を取得し記憶媒体に保存しても良い。そして、処理部15が、記憶媒体に保存された照射画像1、2を用いて、指示入力手段による入力操作を検出すれば良い。
また、上記実施形態において、プロジェクタ装置10と画像管理装置30とが一体化されていても良い。
また、上記実施形態において、処理部15での処理の少なくとも一部を画像管理装置30で行っても良い。例えば、上記入力操作情報検知処理が画像管理装置30で行われる場合、測距部13で取得されたデプスマップは、ケーブル等を介して、又は無線通信により、画像管理装置30に通知される。
また、上記実施形態において、プロジェクタ装置10が複数の測距部13を有していても良い。例えば、X軸方向に関する画角が非常に大きい場合、超広角な撮像光学系を有する1つの測距部13でその画角をカバーするよりも、画角を抑えた撮像光学系を有する複数の測距部13をX軸方向に沿って並べたほうが低コストな場合がある。すなわち、X軸方向に超広角なプロジェクタ装置を低コストで実現することができる。
具体的には、複数の測距部13で得られたデプスマップは、投影画像の中心部付近でオーバーラップするようになっており、処理部15では、このオーバーラップ部分を利用して、複数のデプスマップを連結する。
また、上記実施形態では、プロジェクタ装置10が載置台400に載置されて使用される場合について説明したが、これに限定されるものではない。例えば、プロジェクタ装置10は、天井に吊り下げて使用されても良い。プロジェクタ装置10は、例えば吊り下げ部材で天井に固定される。
測距部13と処理部15とからなる入力操作検出装置は、入力操作検出装置を備えた画像表示装置として、電子黒板装置やデジタルサイネージ装置にも用いることができる。いずれについても、検出誤差が大きくなるのを抑制することができる。
図15には、電子黒板装置の一例が示されている。この電子黒板装置500は、各種メニューやコマンド実行結果が表示される映写パネル及び座標入力ユニットを収納したパネル部501と、コントローラ及びプロジェクタユニットを収納した収納部と、パネル部501及び収納部を所定の高さで支持するスタンドと、コンピュータ、スキャナ、プリンタ、ビデオプレイヤ等を収納した機器収納部502と、から構成されている(特開2002−278700号公報参照)。入力操作検出装置は、機器収納部502内に収納されており、該機器収納部502を引き出すことにより、入力操作検出装置が出現する。そして、入力操作検出装置は、下方より映写パネルに投影された画像に対するユーザによる入力操作を検出する。コントローラと入力操作検出装置との間の通信は、USBケーブルなどのケーブルを介した有線通信であっても良いし、無線通信であっても良い。
図16には、デジタルサイネージ装置に一例が示されている。このデジタルサイネージ装置600では、ガラス面が投影面となる。画像は、投影面の後方から、プロジェクタ本体によりリアプロジェクションされている。入力操作検出装置は、手すり上に設置されている。プロジェクタ本体と入力操作検出装置との間の通信は、USBケーブルを介した有線通信である。これにより、デジタルサイネージ装置にインタラクティブ機能を持たせることができる。
このように、測距部13と処理部15とからなる入力操作検出装置は、インタラクティブ機能を有する装置や、インタラクティブ機能を付加したい装置に好適である。
以下に、発明者らが上記実施形態を発案した思考プロセスを説明する。
近年,スクリーンや机上に投影した投影画像に文字や図などを書き込む機能や,投影画像の選択、拡大・縮小,ページ送りなどの操作を実行する機能,などを搭載した,いわゆるインタラクティブなプロジェクタ装置が市販されている。
これらの機能は,スクリーンや机上などの対象面に接触する操作者の指や,操作者が保持しているペン及び指し棒などを指示入力手段とし,その指示入力手段の先端が対象面に接触する位置及び動きを検出して,その検出結果をコンピュータなどへ送ることで実現されている。
指示入力手段の先端が対象面に接触したか否かを判定する方法が既に知られている。
指示入力手段の先端(例えば指先)が対象面に接触したか否かを判定する方法として,まず指先位置を検出して,次にその指先の三次元位置から該指先が対象面に接触したか否かを判定することが一般的に行われている。
指先位置を検出する方法として,特開2014−202540公報には,取得した2次元画像から,色情報に基づき手の領域を検出し,さらに指先端部の形状モデルを用いたパターンマッチングにより,手の指先部分を検出している。この方法では測距センサの他に色を識別できるセンサが必要となり高価であるという問題がある。
更に、複数のセンサの情報を統合して処理するためには、それぞれのセンサ位置関係から画像対応関係を演算しなければならず、処理高速化の妨げになるという問題もある。また、対象面と指の色が近い場合は分離が困難になるという問題がある。
デプス情報のみから手の領域を検出する方法もあるが、TOF方式は特殊なカメラが必要で高価であり、ステレオカメラ方式はやはり対象面と指の反射率が近い場合は分離が困難であるという問題がある。
パターン投影法は、対象物に構造化された光(パターン光)を照射するため、通常のカメラを使用できるので安価で、自らパターンを投影するので対象面と指の色や反射率が近い場合でも分離が可能である。
しかし、パターン投影法の分解能は、パターンの大きさに依存し、カメラ画素レベルの分解能を得られない。
よって、対象面との接触位置を正確に求められない(入力操作を正確に検出できない)という問題があった。
例えば、特許文献1には、接触を判定する目的で、色情報を用いて物体(指示入力手段)の端部を特定し、更に3次元情報を用いて接触を判定することが開示されている。
しかし、特許文献1では、上述した特開2014−202540と同様に、高価となり、処理高速化の妨げとなり、対象面と指の色が近い場合は分離が困難になる。
そこで、発明者らは、安価で高速に精度良く接触位置を求める(入力操作を検出する)ことができる入力操作検出装置を開発すべく、上記実施形態を発案した。
具体的には、通常のカメラ一台を用いるため、安価である。
複数のセンサ情報を統合する必要がないので高速の接触認識が可能になる。
構造化された光(パターン光)を照射するので対象面と指の反射率が近い場合も指示入力手段の範囲の分離ができる。
撮像部により得られた複数の画像の差異から指示入力手段を分離するので、パターン投影法であっても、接触位置を精度良く求めることができる。
10…プロジェクタ装置、11…投影部(表示手段)、15…処理部、30…画像管理装置(制御装置)、100…プロジェクタシステム、131…光投射部、132…撮像部、132a…撮像素子、300…スクリーン、400……載置台、500…電子黒板装置、600…デジタルサイネージ装置。
特開2012−48393号公報

Claims (16)

  1. 表示面に表示された画像に対する指示入力手段による入力操作を検出する入力操作検出装置であって、
    前記画像に向けてパターン光を投射する光投射部と、
    前記画像が撮像範囲に入る撮像部と、
    前記表示面に照射された前記パターン光の反射光の前記撮像部での撮像結果である第1の撮像画像と、前記表示面上の前記指示入力手段及び該表示面における前記指示入力手段とは重ならない部分に照射された前記パターン光の反射光の前記撮像部での撮像結果である第2の撮像画像とに基づいて前記入力操作を検出する処理部と、を備える入力操作検出装置。
  2. 前記処理部は、前記第1及び第2の撮像画像の排他的論理和に基づいて、前記指示入力手段の先端部の3次元情報を取得することを特徴とする請求項1に記載の入力操作検出装置。
  3. 前記処理部は、前記排他的論理和のエッジを検出し、該エッジのうち前記パターン光のパターンと同じ傾きを持つものを除外し、前記指示入力手段の先端部の3次元情報を求めることを特徴とする請求項2に記載の入力操作検出装置。
  4. 前記処理部は、前記排他的論理和を求めるのに先立って、前記パターン光のパターンと、前記第2の撮像画像における前記指示入力手段の輪郭を含む領域以外の領域とをパターンマッチングすることを特徴とする請求項2又は3に記載の入力操作検出装置。
  5. 前記処理部は、前記第1の撮像画像と前記パターン光のパターンに基づいて、前記表示面の3次元情報を取得することを特徴とする請求項2〜4のいずれか一項に記載の入力操作検出装置。
  6. 前記処理部は、前記指示入力手段の先端部の3次元情報と前記表示面の3次元情報から、前記指示入力手段の先端部と前記表示面の距離を求め、該距離から前記指示入力手段の先端部と前記表示面の接触もしくは近接を判定することを特徴とする請求項5に記載の入力操作検出装置。
  7. 前記処理部は、前記第2の撮像画像を繰り返し取得し、更新することを特徴とする請求項1〜6のいずれか一項に記載の入力操作検出装置。
  8. 前記パターン光は、近赤外光であることを特徴とする請求項1〜7のいずれか一項に記載の入力操作検出装置。
  9. 前記撮像部は、撮像素子と、入射光のうち近赤外光のみを前記撮像素子に向けて透過させるフィルタとを有することを特徴とする請求項8に記載の入力操作検出装置。
  10. 請求項1〜9のいずれか一項に記載の入力操作検出装置と、
    前記画像を前記表示面に表示する表示手段と、を備える画像表示装置。
  11. 前記画像表示装置がプロジェクタ装置であることを特徴とする請求項10に記載の画像表示装置。
  12. 前記画像表示装置が電子黒板装置であることを特徴とする請求項10に記載の画像表示装置。
  13. 前記画像表示装置がデジタルサイネージ装置であることを特徴とする請求項10に記載の画像表示装置。
  14. 投影面に投影された画像の少なくとも一部に対して指示入力手段によってなされた入力操作により操作されるプロジェクタ装置であって、
    前記画像に向けてパターン光を投射する光投射部と、
    前記画像が撮像範囲に入る撮像部と、
    前記投影面に照射された前記パターン光の反射光の前記撮像部での撮像結果である第1の撮像画像と、前記投影面上の前記指示入力手段及び該投影面における前記指示入力手段とは重ならない部分に照射された前記パターン光の反射光の前記撮像部での撮像結果である第2の撮像画像とに基づいて前記入力操作を検出する処理部と、を備えるプロジェクタ装置。
  15. 請求項11又は14に記載のプロジェクタ装置と、
    前記プロジェクタ装置で得られた入力操作がなされた位置あるいは動作に基づいて、画像制御を行う制御装置と、を備えるプロジェクタシステム。
  16. 表示面に表示された画像に対する指示入力手段による入力操作を検出する入力操作検出方法であって、
    前記指示入力手段が前記表示面における前記画像が表示される領域上にないときに前記画像に向けてパターン光を投射する工程と、
    前記表示面に照射された前記パターン光の反射光を撮像する第1の撮像工程と、
    前記指示入力手段が前記表示面における前記画像が表示される領域上にあるときに前記画像に向けて前記パターン光を投射する工程と、
    前記指示入力手段及び前記表示面における前記指示入力手段とは重ならない部分に照射された前記パターン光の反射光を撮像する第2の撮像工程と、
    前記第1及び第2の撮像工程での撮像結果に基づいて前記入力操作を検出する工程と、を含む入力操作検出方法。
JP2015105446A 2015-05-25 2015-05-25 入力操作検出装置、画像表示装置、プロジェクタ装置、プロジェクタシステム、及び入力操作検出方法 Expired - Fee Related JP6528964B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015105446A JP6528964B2 (ja) 2015-05-25 2015-05-25 入力操作検出装置、画像表示装置、プロジェクタ装置、プロジェクタシステム、及び入力操作検出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015105446A JP6528964B2 (ja) 2015-05-25 2015-05-25 入力操作検出装置、画像表示装置、プロジェクタ装置、プロジェクタシステム、及び入力操作検出方法

Publications (2)

Publication Number Publication Date
JP2016218893A true JP2016218893A (ja) 2016-12-22
JP6528964B2 JP6528964B2 (ja) 2019-06-12

Family

ID=57581217

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015105446A Expired - Fee Related JP6528964B2 (ja) 2015-05-25 2015-05-25 入力操作検出装置、画像表示装置、プロジェクタ装置、プロジェクタシステム、及び入力操作検出方法

Country Status (1)

Country Link
JP (1) JP6528964B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018207235A1 (ja) * 2017-05-08 2018-11-15 株式会社ネットアプリ 入出力システム、スクリーンセット、入出力方法、及び、プログラム
WO2019163368A1 (ja) * 2018-02-21 2019-08-29 ソニーセミコンダクタソリューションズ株式会社 測距システム、及び、受光モジュール
US11327608B2 (en) 2020-02-17 2022-05-10 Seiko Epson Corporation Two camera touch operation detection method, device, and system
US11385742B2 (en) 2020-02-17 2022-07-12 Seiko Epson Corporation Position detection method, position detection device, and position detection system
US11700365B2 (en) 2020-02-17 2023-07-11 Seiko Epson Corporation Position detection method, position detection device, and display device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009014712A (ja) * 2007-06-07 2009-01-22 Univ Of Electro-Communications 物体検出装置とそれを適用したゲート装置
US20120249416A1 (en) * 2011-03-29 2012-10-04 Giuliano Maciocci Modular mobile connected pico projectors for a local multi-user collaboration
US20150084930A1 (en) * 2013-09-25 2015-03-26 Kabushiki Kaisha Toshiba Information processor, processing method, and projection system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009014712A (ja) * 2007-06-07 2009-01-22 Univ Of Electro-Communications 物体検出装置とそれを適用したゲート装置
EP2161695A1 (en) * 2007-06-07 2010-03-10 The University of Electro-Communications Object detection device and gate device using the same
US20120249416A1 (en) * 2011-03-29 2012-10-04 Giuliano Maciocci Modular mobile connected pico projectors for a local multi-user collaboration
JP2014518596A (ja) * 2011-03-29 2014-07-31 クアルコム,インコーポレイテッド ローカルマルチユーザ共同作業のためのモジュール式のモバイル接続ピコプロジェクタ
US20150084930A1 (en) * 2013-09-25 2015-03-26 Kabushiki Kaisha Toshiba Information processor, processing method, and projection system
JP2015064724A (ja) * 2013-09-25 2015-04-09 株式会社東芝 情報処理装置

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018207235A1 (ja) * 2017-05-08 2018-11-15 株式会社ネットアプリ 入出力システム、スクリーンセット、入出力方法、及び、プログラム
WO2019163368A1 (ja) * 2018-02-21 2019-08-29 ソニーセミコンダクタソリューションズ株式会社 測距システム、及び、受光モジュール
WO2019163761A1 (ja) * 2018-02-21 2019-08-29 ソニーセミコンダクタソリューションズ株式会社 測距システム、及び、受光モジュール、並びに、バンドパスフィルタの製造方法
CN111712724A (zh) * 2018-02-21 2020-09-25 索尼半导体解决方案公司 测距系统、光接收模块以及制造带通滤波器的方法
JPWO2019163761A1 (ja) * 2018-02-21 2021-02-12 ソニーセミコンダクタソリューションズ株式会社 測距システム、及び、受光モジュール、並びに、バンドパスフィルタの製造方法
JP7229988B2 (ja) 2018-02-21 2023-02-28 ソニーセミコンダクタソリューションズ株式会社 測距システム、及び、受光モジュール、並びに、バンドパスフィルタの製造方法
US11327608B2 (en) 2020-02-17 2022-05-10 Seiko Epson Corporation Two camera touch operation detection method, device, and system
US11385742B2 (en) 2020-02-17 2022-07-12 Seiko Epson Corporation Position detection method, position detection device, and position detection system
US11700365B2 (en) 2020-02-17 2023-07-11 Seiko Epson Corporation Position detection method, position detection device, and display device

Also Published As

Publication number Publication date
JP6528964B2 (ja) 2019-06-12

Similar Documents

Publication Publication Date Title
JP5680976B2 (ja) 電子黒板システム及びプログラム
JP6089722B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP6528964B2 (ja) 入力操作検出装置、画像表示装置、プロジェクタ装置、プロジェクタシステム、及び入力操作検出方法
US10310675B2 (en) User interface apparatus and control method
WO2012124730A1 (ja) 検出装置、入力装置、プロジェクタ、及び電子機器
US10048808B2 (en) Input operation detection device, projection apparatus, interactive whiteboard, digital signage, and projection system
US20160259402A1 (en) Contact detection apparatus, projector apparatus, electronic board apparatus, digital signage apparatus, projector system, and contact detection method
KR20140060297A (ko) 입력체의 움직임 검출 방법 및 그것을 이용한 입력 디바이스
JP2016091457A (ja) 入力装置、指先位置検出方法及び指先位置検出用コンピュータプログラム
KR20130055119A (ko) 싱글 적외선 카메라 방식의 투영 영상 터치 장치
US10664090B2 (en) Touch region projection onto touch-sensitive surface
JP2017199289A (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP2015212927A (ja) 入力操作検出装置、入力操作検出装置を備えた画像表示装置及びプロジェクタシステム
US10254893B2 (en) Operating apparatus, control method therefor, and storage medium storing program
JP2017219942A (ja) 接触検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、プロジェクタシステム、接触検出方法、プログラム及び記憶媒体。
JP6314688B2 (ja) 入力装置
US20160004385A1 (en) Input device
US20180032142A1 (en) Information processing apparatus, control method thereof, and storage medium
WO2023228730A1 (ja) 情報処理装置、情報処理システム、情報処理方法およびプログラムが格納された非一時的なコンピュータ可読媒体
EP2816455B1 (en) Projector with photodetector for inclination calculation of an object
US20160139735A1 (en) Optical touch screen
JP2018155934A (ja) 表示制御装置、表示制御方法、表示制御プログラム及び表示制御システム
JP2013134549A (ja) データ入力装置およびデータ入力方法
JP2017125764A (ja) 物体検出装置、及び物体検出装置を備えた画像表示装置
JP2016110492A (ja) 光学式位置情報検出装置、プログラム、対象の紐付け方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181029

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190501

R151 Written notification of patent or utility model registration

Ref document number: 6528964

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees