JP2021128661A - 操作検出方法、操作検出装置及び表示システム - Google Patents

操作検出方法、操作検出装置及び表示システム Download PDF

Info

Publication number
JP2021128661A
JP2021128661A JP2020024062A JP2020024062A JP2021128661A JP 2021128661 A JP2021128661 A JP 2021128661A JP 2020024062 A JP2020024062 A JP 2020024062A JP 2020024062 A JP2020024062 A JP 2020024062A JP 2021128661 A JP2021128661 A JP 2021128661A
Authority
JP
Japan
Prior art keywords
image
indicator
captured
unit
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020024062A
Other languages
English (en)
Inventor
タヒア アフメド ミルザ
Tahir Ahmed Mirza
タヒア アフメド ミルザ
楊 楊
Yo Yo
楊 楊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2020024062A priority Critical patent/JP2021128661A/ja
Priority to US17/177,297 priority patent/US11327608B2/en
Publication of JP2021128661A publication Critical patent/JP2021128661A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • G06F3/0426Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface

Abstract

【課題】ステレオカメラを用いて、指示体による操作の検出精度を向上させる操作検出方法、操作検出装置及び表示システムを提供する。
【解決手段】プロジェクター100において、操作検出装置200は、左矩形画像と右矩形画像とに撮像された指示体80の画像に基づいて、指示体80がタッチホールド状態にあるか否かを判定するタッチ判定部164と、タッチホールド状態であると判定したときの左撮像画像である左基準画像と左矩形画像に撮像された指示体80の位置の差と、タッチホールド状態であると判定したときの右撮像画像である右基準画像と右矩形画像に撮像された指示体80の位置の差とを算出し、左基準画像と左矩形画像に撮像された指示体80の位置の差と、右基準画像と右矩形画像に撮像された指示体80の位置の差とに基づいて、指示体80が操作面から離れたか否かを判定するアンタッチ判定部166とを備える。
【選択図】図3

Description

本発明は、操作検出方法、操作検出装置及び表示システムに関する。
従来、指示体により指示された操作面の位置を検出する装置が知られている。例えば、
特許文献1に記載の装置は、表示面に表示された画像に向けてパターン光を投射する光投
射部と、画像が撮像範囲に入る撮像部と、入力操作を検出する処理部と、を備える。処理
部は、パターン光が投射された表示面を撮像部が撮像した撮像画像と、パターン光が投射
された表示面であって、指示入力操作の入力操作が行われた表示面を撮像部が撮像した撮
像画像とに基づいて入力操作を検出する。
特開2016−218893号公報
しかしながら、1つの撮像部で指示体を検出する場合、指示体と操作面との距離の認識
が難しく、操作面に対する操作であるか否かの判定が難しい。このため、ステレオカメラ
を用いて、指示体による操作の検出精度を向上できる方法の実現が望まれていた。
上記課題を解決する一態様は、操作面に対する指示体の操作を検出する操作検出方法で
あって、異なる撮像視点から前記操作面を撮像した第1撮像画像及び第2撮像画像を、前
記操作面にキャリブレーションされた画像に変換する変換ステップと、変換された前記第
1撮像画像と前記第2撮像画像とに撮像された前記指示体の画像に基づいて、前記指示体
が前記操作面に接触し、静止した状態にあるか否かを判定する第1判定ステップと、前記
操作面に接触し、静止した状態にあると判定したときの第1撮像画像を第1基準画像とし
て選択し、選択した前記第1基準画像と第1撮像画像とに撮像された前記指示体の位置の
差を算出する第1算出ステップと、前記操作面に接触し、静止した状態にあると判定した
ときの第2撮像画像を第2基準画像として選択し、選択した前記第2基準画像と第2撮像
画像とに撮像された前記指示体の位置の差を算出する第2算出ステップと、前記第1算出
ステップにより算出した前記位置の差と、前記第2算出ステップにより算出した前記位置
の差とに基づいて、前記指示体が前記操作面から離れたか否かを判定する第2判定ステッ
プと、を有する操作検出方法である。
上記操作検出方法において、前記第1算出ステップは、順次入力される複数の第1撮像
画像と前記第1基準画像とに撮像された前記指示体の位置の差をそれぞれ算出し、算出し
た複数の前記指示体の位置の差の平均値を第1平均値として算出し、前記第2算出ステッ
プは、順次入力される複数の第2撮像画像と前記第2基準画像とに撮像された前記指示体
の位置の差をそれぞれ算出し、算出した複数の前記指示体の位置の差の平均値を第2平均
値として算出し、前記第2判定ステップは、前記第1平均値と前記第2平均値との差がし
きい値よりも大きい場合に、前記指示体が前記操作面から離れたと判定する構成であって
もよい。
上記操作検出方法において、前記第1判定ステップは、第1撮像画像に撮像された前記
指示体の画像と、第2撮像画像に撮像された前記指示体の画像とに生じる視差に基づき、
前記指示体の前記操作面との接触を判定する構成であってもよい。
上記操作検出方法において、前記第1判定ステップは、前記第1基準画像及び前記第2
基準画像に撮像された前記指示体の画像と、前記第1基準画像及び前記第2基準画像より
も前に撮像された第1撮像画像及び第2撮像画像に撮像された前記指示体の画像とを比較
して、前記指示体が静止した状態にあるか否かを判定する構成であってもよい。
上記課題を解決する別の一態様は、異なる撮像視点から操作面を撮像した第1撮像画像
及び第2撮像画像を、前記操作面にキャリブレーションされた画像に変換する変換部と、
変換された前記第1撮像画像と前記第2撮像画像とに撮像された指示体の画像に基づいて
、前記指示体が前記操作面に接触し、静止した状態にあるか否かを判定する第1判定部と
、前記操作面に接触し、静止した状態にあると判定したときの第1撮像画像を第1基準画
像として選択し、選択した前記第1基準画像と第1撮像画像とに撮像された前記指示体の
位置の差を算出する第1算出部と、前記操作面に接触し、静止した状態にあると判定した
ときの第2撮像画像を第2基準画像として選択し、選択した前記第2基準画像と第2撮像
画像とに撮像された前記指示体の位置の差を算出する第2算出部と、前記第1算出部によ
り算出した前記位置の差と、前記第2算出部により算出した前記位置の差とに基づいて、
前記指示体が前記操作面から離れたか否かを判定する第2判定部と、を備える操作検出装
置である。
上記課題を解決する別の一態様は、撮像視点が異なる第1撮像部及び第2撮像部を備え
る撮像装置と、前記第1撮像部により撮像された第1撮像画像、及び第2撮像部により撮
像された第2撮像画像を、前記操作面にキャリブレーションされた画像に変換する変換部
と、変換された前記第1撮像画像と前記第2撮像画像とに撮像された指示体の画像に基づ
いて、前記指示体が前記操作面に接触し、静止した状態にあるか否かを判定する第1判定
部と、前記操作面に接触し、静止した状態にあると判定したときの第1撮像画像を第1基
準画像として選択し、選択した前記第1基準画像と第1撮像画像とに撮像された前記指示
体の位置の差を算出する第1算出部と、前記操作面に接触し、静止した状態にあると判定
したときの第2撮像画像を第2基準画像として選択し、選択した前記第2基準画像と第2
撮像画像とに撮像された前記指示体の位置の差を算出する第2算出部と、前記第1算出部
により算出した前記位置の差と、前記第2算出部により算出した前記位置の差とに基づい
て、前記指示体が前記操作面から離れたか否かを判定する第2判定部と、前記第1判定部
及び前記第2判定部の判定結果に基づいて、前記操作面に対する前記指示体の操作を検出
する検出部と、前記検出部により検出された前記指示体の操作に対応した画像を前記操作
面に表示させる表示部と、を備える表示装置と、を備える表示システムである。
インタラクティブプロジェクションシステムの斜視図。 プロジェクターの設置状態を示す側面図。 プロジェクターの構成を示すブロック図。 左矩形画像及び右矩形画像を示す図。 全体フローを示すフローチャート。 制御部の動作を示すフローチャート。 キャリブレーション画像の一例を示す図。 左抽出画像及び右抽出画像を矩形に変換する変換方法を説明する説明図。 指先領域の検出処理を示すフローチャート。 差分画像を示す図。 正領域及び負領域を除去した状態を示す図。 モルフォロジー変換後の差分画像を示す図。 変化領域に図形を重畳した状態を示す図。 差分画像の外周に接する変化領域の画像を除去した状態を示す図。 変化領域に図形を重畳した状態を示す図。 差分画像の外周に接する変化領域の画像を除去した状態を示す図。 第1変化領域を示す図。 差分画像から、指先領域を中心に特定の領域を切り出した図。 指の先端位置を特定する処理の詳細を示すフローチャート。 放射状に描画された線分を示す図である。 輪郭線の長さが最小の区間と、検出範囲とを示す図。 指先領域の先端位置を示す図。 図6に示すステップS13の詳細を示すフローチャート。
以下、本発明の実施形態について図面を参照しながら説明する。
A−1.表示システムの構成
図1は、表示システムの一例であるインタラクティブプロジェクションシステム1の斜
視図である。
インタラクティブプロジェクションシステム1は、プロジェクター100と、プロジェ
クター100が画像を投射する投射面10とを備える。以下では、投射面10の法線方向
であって投射面10の前方をZ軸方向、投射面10に沿う鉛直上方向をY軸方向、Z軸方
向とY軸方向に垂直な方向をX軸方向と仮定して説明する。投射面10は、Z=0のXY
面に対応する。投射面10は、表示面の一例である。また、プロジェクター100は、表
示装置の一例である。
プロジェクター100は、画像データに対応した画像光30を生成し、生成した画像光
30を投射面10に投射する。また、プロジェクター100は、インタラクティブ機能を
備える。インタラクティブ機能とは、投射面10に対する指示体80の操作位置を検出し
、検出した操作位置に基づいて、指示体80の位置や軌跡に対応した画像を表示させたり
、表示させた画像に変更を加えたりする機能である。
プロジェクター100は、画像光30を投射口から投射する投射部110と、投射面1
0を撮像する第1カメラ121及び第2カメラ123と、指示体80の検出に用いる検出
光20を照射する検出光照射部130とを備える。第1カメラ121は、本発明の第1撮
像部に対応し、第2カメラ123は、本発明の第2撮像部に対応する。
本実施形態では、プロジェクター100が画像光30を投射する投射面10が、平面で
構成されるスクリーンである場合について説明するが、投射面10は壁面等に固定された
平面を利用してもよい。また、投射面10は、吊り上げ式や立ち上げ式等の幕状のスクリ
ーンであってもよい。また、室内の壁面や、ホワイトボード、黒板等を投射面10として
利用することも可能である。また、投射面10の前面は、指示体80を用いた操作の入力
に使用される操作面13として利用される。
図2は、インタラクティブプロジェクションシステム1の側面図である。
本実施形態のプロジェクター100は、壁面に固定されて投射面10の前方かつ上方に
設置され、斜め下方の投射面10に向けて画像光30を投射する。プロジェクター100
によって画像光30が投射される投射面10の領域を投射領域15という。また、プロジ
ェクター100は、検出光20を、操作面13に対応する方向に照射する。検出光20は
、指示体80の検出に用いられる光であり、本実施形態では赤外光が用いられる。赤外光
を用いることにより、可視光を主とする画像光30の影響を受けずに指示体80を検出で
き、また、画像光30による表示にも影響を与えない。検出光20は、投射面10の少な
くとも一部を含む範囲に照射される。本実施形態では、投射面10の全体をカバーする範
囲に投射される。操作面13に対応する方向とは、指示体80の操作を撮像部120によ
り検出可能な方向である。より具体的には、操作面13から所定距離以内に近づいた指示
体80で反射した反射光を、撮像部120が撮像可能な方向である。
第1カメラ121及び第2カメラ123は、プロジェクター100の異なる位置に配置
される。第1カメラ121及び第2カメラ123は、異なる撮像視点から投射面10を撮
像することによりステレオカメラとして機能する。本実施形態では、第1カメラ121は
、投射面10に対応してプロジェクター100の投射部110の左側に配置され、第2カ
メラ123は、投射面10に対応してプロジェクター100の投射部110の右側に配置
される。第1カメラ121は、左カメラであり、第1カメラ121の撮像画像を左撮像画
像と称する。また、第2カメラ123は、右カメラであり、第2カメラ123の撮像画像
を、右撮像画像と称する。左撮像画像は、本発明の第1撮像画像に相当し、右撮像画像は
、本発明の第2撮像画像に相当する。
プロジェクター100は、第1カメラ121及び第2カメラ123により投射面10を
撮像して、検出光20が指示体80で反射した反射光を検出する。インタラクティブプロ
ジェクションシステム1では、1つ又は複数の非発光の指示体80を利用可能である。指
示体80には、指やペンなどの非発光の物体を使用可能である。非発光の指示体80は、
赤外光を反射するものであれば特に制限されず、本実施形態では使用者の手指を指示体8
0として用いる例について説明する。
第1カメラ121及び第2カメラ123は、それぞれ投射面10の全体を撮影可能に設
定され、投射面10を背景とした指示体80の画像をそれぞれ撮影する機能を有する。す
なわち、第1カメラ121と第2カメラ123は、検出光照射部130から照射された検
出光20のうち、投射面10と指示体80で反射された光を受光することによって指示体
80を含む画像を作成する。第1カメラ121と第2カメラ123で撮影された2つの画
像を用いると、三角測量等によって指示体80の3次元位置を求めることが可能である。
なお、カメラの台数は3以上でもよい。
A−2.プロジェクター100の構成
図3は、プロジェクター100の構成を示すブロック図である。
プロジェクター100は、投射部110、撮像部120、検出光照射部130、操作受
付部135、入力インターフェース141、画像処理部143、フレームメモリー145
、位置検出部150及び制御部170を備える。位置検出部150及び制御部170は、
操作検出装置200として動作する。
投射部110は、光源111、光変調装置113及び光学ユニット115を備える。投
射部110は、本発明の表示部に相当する。
光源111には、ハロゲンランプ、キセノンランプ、超高圧水銀ランプ等のランプ光源
が使用される。また、光源111として、LED(Light Emitting Diode)やレーザー光
源等の固体光源を用いてもよい。
光変調装置113は、光源111が発する光を変調して画像光30を生成する光変調素
子を備える。光変調素子には、例えば、透過型の液晶ライトバルブや、反射型の液晶ライ
トバルブ、デジタルミラーデバイス等を用いることができる。
光学ユニット115は、レンズやミラー等の光学素子を備え、光変調装置113により
生成された画像光30を拡大して投射面10に投射する。画像光30が投射面10で結像
した画像が使用者に視認される。
撮像部120は、第1カメラ121及び第2カメラ123を備える。
第1カメラ121及び第2カメラ123は、レンズ等の光学系にて集光された光を電気
信号に変換する撮像素子であるCCD(Charge Coupled Device)やCMOS(Complemen
tary Metal Oxide Semiconductor)等を備える。第1カメラ121及び第2カメラ123
は、検出光20が指示体80で反射した反射光を撮像可能に配置される。また、第1カメ
ラ121及び第2カメラ123には、検出光20の反射光を受光するための赤外線フィル
ターが取り付けられる。
第1カメラ121及び第2カメラ123は、操作面13を含む範囲を撮像する。第1カ
メラ121及び第2カメラ123は、所定のフレームレートで操作面13を含む範囲を撮
像し、生成した撮像画像を位置検出部150に出力する。使用者が指示体80を投射面1
0に近づけると、撮像部120の撮像画像には、検出光照射部130が照射する検出光2
0が指示体80で反射した反射光が撮像される。
検出光照射部130は、赤外光を発する光源として、LD(Laser Diode)又はLED
を有する。また、検出光照射部130は、光源が発する赤外光を投射面10に向けて拡散
させる光学部品を備えてもよい。
操作受付部135は、不図示のリモコンにより送信される赤外線信号を受光する。操作
受付部135は、リモコンから受光した赤外線信号に対応した操作信号を制御部170に
出力する。操作信号は、操作されたリモコンのスイッチに対応した信号である。
入力インターフェース141は、外部装置との接続インターフェースである。入力イン
ターフェース141は、ケーブルを接続するコネクター、及び信号処理を行うインターフ
ェース回路を備える。入力インターフェース141は、接続された外部装置から供給され
た画像データを受信する。入力インターフェース141は、受信した画像データを画像処
理部143に出力する。
画像処理部143は、入力された画像データをフレームメモリー145に展開する。フ
レームメモリー145は、例えば、SDRAM(Synchronous Dynamic Random Access Me
mory)により構成される。
画像処理部143は、フレームメモリー145に展開した画像データに対して画像処理
を行う。画像処理部143が行う画像処理には、例えば、解像度変換処理又はリサイズ処
理、歪曲収差の補正、形状補正処理、デジタルズーム処理、画像の色合いや輝度の調整等
が含まれる。画像処理部143は、制御部170により指定された処理を実行し、必要に
応じて、制御部170から入力されるパラメーターを使用して処理を行う。また、画像処
理部143は、上記のうち複数の画像処理を組み合わせて実行することも勿論可能である
。画像処理部143は、フレームメモリー145から画像データを読み出し、読み出した
画像データを投射部110に出力する。
画像処理部143及びフレームメモリー145は、例えば、集積回路により構成される
。集積回路には、LSI、ASIC(Application Specific Integrated Circuit)、P
LD(Programmable Logic Device)、FPGA(Field-Programmable Gate Array)、S
oC(System-on-a-chip)等が含まれる。また、集積回路の構成の一部にアナログ回路が
含まれていてもよく、制御部170と集積回路とが組み合わされた構成であってもよい。
位置検出部150は、第1記憶部151と、画像処理プロセッサー160とを備える。
第1記憶部151は、例えば、揮発性、不揮発性、又は揮発性及び不揮発性の半導体記
憶装置により構成される。第1記憶部151は、画像処理プロセッサー160が実行する
制御プログラム155を記憶する。また、第1記憶部151は、後述するキャリブレーシ
ョン画像201やキャリブレーションデータを記憶する。
画像処理プロセッサー160は、例えば、GPU(Graphics Processing Unit)等のリ
アルタイムなデジタル画像処理に用いられる専用のプロセッサーにより構成される。また
、画像処理プロセッサー160は、例えば、DSP(Digital Signal Processor)や、集
積回路、その他のデジタル回路により構成してもよい。集積回路には、例えば、LSI、
ASIC、PLD、FPGA、SoC等が含まれる。
位置検出部150は、機能ブロックとして、キャリブレーションデータ生成部161、
変換部162、先端検出部163、タッチ判定部164、マッチング処理部165及びア
ンタッチ判定部166を備える。これらの機能ブロックは、画像処理プロセッサー160
が制御プログラムに記述された命令セットを実行して、データの演算や制御を行うことに
より実現される機能をブロックにより便宜的に示したものである。
位置検出部150には、第1カメラ121によって撮像された左撮像画像と、第2カメ
ラ123によって撮像された右撮像画像とが入力される。図4に、左撮像画像及び右撮像
画像の一例を示す。図4に示す左撮像画像及び右撮像画像は、指示体80である使用者の
指を撮像した画像である。より詳細には、図4は、第1カメラ121及び第2カメラ12
3が、同じタイミングで、操作面13を背景として、指、手及び腕を含む範囲をそれぞれ
撮像した画像である。図4には、左カメラである第1カメラ121の左撮像画像に対応し
た左矩形画像235と、右カメラである第2カメラ123の右撮像画像に対応した右矩形
画像237とが示されている。左矩形画像235は、左撮像画像を、キャリブレーション
データ生成部161が生成したキャリブレーションデータを用いて変形した画像である。
右矩形画像237は、右撮像画像を、キャリブレーションデータを用いて変形した画像で
ある。左矩形画像235及び右矩形画像237の詳細については後述する。
キャリブレーションデータ生成部161は、キャリブレーションデータを生成する。キ
ャリブレーションデータには、第1範囲情報、第2範囲情報、第1画像変換係数及び第2
画像変換係数が含まれる。
第1範囲情報は、左撮像画像における投射領域15の範囲を示す情報である。第2範囲
情報は、右撮像画像における投射領域15の範囲を示す情報である。第1画像変換係数は
、第1範囲情報に基づいて左撮像画像から抽出した画像の形状を矩形に変換する係数であ
る。第2画像変換係数は、第2範囲情報に基づいて右撮像画像から抽出した画像の形状を
矩形に変換する係数である。キャリブレーションデータの生成方法の詳細については、後
述する。
変換部162は、本発明の変換ステップに対応した動作を実行する。変換部162は、
キャリブレーションデータ生成部161が生成したキャリブレーションデータを用いて、
左撮像画像及び右撮像画像を、操作面13にキャリブレーションされた撮像画像である左
矩形画像235及び右矩形画像237に変換する。
操作面13にキャリブレーションされた撮像画像とは、操作面13における視差が0と
なるように調整された画像を意味する。先端検出部163は、第1範囲情報を用いて、左
撮像画像から投射領域15に対応する画像を切り出し、切り出した画像を、第1画像変換
係数を用いて左矩形画像235に変換する。また、先端検出部163は、第2範囲情報を
用いて、右撮像画像から投射領域15に対応する画像を切り出し、切り出した画像を、第
2画像変換係数を用いて右矩形画像237に変換する。左矩形画像235と右矩形画像2
37とは、矩形の画像であって、操作面13の位置であるZ=0の位置で視差が0となる
ように調整された画像である。また、左矩形画像235と右矩形画像237とにおける視
差は、操作面13の前方、すなわちZ軸の正方向に離れた物体ほど、視差が大きくなる。
左矩形画像235と右矩形画像237との操作面13での視差が0に調整される理由につ
いては後述する。
先端検出部163は、変換部162により変換された左抽出画像231と、右抽出画像
233とに基づいて差分画像240を生成する。本実施形態の先端検出部163は、左矩
形画像235から右矩形画像237を減算することで差分画像240を生成するが、右矩
形画像237から左矩形画像235を減算して差分画像240を生成してもよい。
次に、先端検出部163は、左撮像画像と右撮像画像との視差量が、予め設定された範
囲内の領域を変化領域250として抽出する。前述したように左矩形画像235及び右矩
形画像237は操作面13での視差が0になるように調整された画像であって、差分画像
240は、左矩形画像235から右矩形画像237を減算して生成される。このため、視
差が0となる操作面13に接している物体は、差分画像240に写らない。例えば、指示
体80の先端が操作面13に接触している場合、この指示体80の先端は差分画像240
には写らない。
さらに、先端検出部163は、変化領域250から指先が撮像された領域である指先領
域270を抽出する。ここでは、先端検出部163は、変化領域250から腕等の画像を
除去して指先に対応する領域である指先領域270を抽出する。
また、先端検出部163は、指示体80の形状に基づいて、指示体80である指の先端
位置を検出する。先端検出部163が実行する処理の詳細については、図10〜図22を
参照しながら後述する。
タッチ判定部164は、本発明の第1判定部に相当し、第1判定ステップに対応した動
作を実行する。タッチ判定部164は、左撮像画像と右撮像画像とに撮像された指示体8
0の画像に基づいて、タッチホールド状態を検出する。タッチホールド状態とは、指示体
80が操作面13に接触し、かつ操作面13に接触した指示体80が静止した状態である
。使用者は、指示体80により操作を行う場合、まず、操作面13に指示体80を接触さ
せるため、指示体80を操作面13の方向へ移動させる。この方向を第1の方向という。
指示体80を操作面13に接触させると、使用者は、次に、指示体80を操作面13に接
触させたまま、指示体80を操作面13上で動かす。このとき指示体80が動く方向を第
2の方向という。第1の方向から第2の方向へ移動方向を切り替えるとき、すなわち、指
示体80が操作面13に接触した瞬間、使用者は指示体80の動きをほんの短い間、停止
させる。この指示体80が動きを停止させた状態がタッチホールド状態である。この期間
は、例えば、第1カメラ121や第2カメラ123のフレームレートが60fpsである
場合、例えば、2〜5フレーム等の短い期間に相当する。
まず、タッチ判定部164は、先端検出部163が検出する指示体80の先端位置27
5に基づいて、指示体80が操作面13に接触したか否かを判定する。例えば、タッチ判
定部164は、先端検出部163が検出する先端位置275の変化に基づいて指示体80
が操作面13に接触したか否かを判定することができる。上述のように、指示体80が操
作面13に接触した瞬間は、先端位置275に変化が生じなくなる。タッチ判定部164
は、先端検出部163が検出する指示体80の先端位置275に変化が検出されなくなっ
た場合に、指示体80が操作面13に接触したと判定する。
また、タッチ判定部164は、左矩形画像235から検出した指示体80の先端位置2
75と、右矩形画像237から検出した指示体80の先端位置275とに生じる視差量の
変化に基づいて、指示体80の先端が操作面13に接触したか否かを判定してもよい。上
述したように左矩形画像235及び右矩形画像237に撮像された物体は、Z=0の操作
面13の位置で視差が0となり、操作面13の前方、すなわちZ軸の正方向に離れるほど
、視差が大きくなる。従って、指示体80を操作面13に徐々に近づけていった場合、左
矩形画像235から検出した指示体80の先端位置275と、右矩形画像237から検出
した指示体80の先端位置275とに生じる視差量が徐々に小さくなり、最後は視差量が
0になる。タッチ判定部164は、この視差量の変化に基づき、指示体80の先端位置2
75が操作面13に接触したか否かを判定する。
次に、タッチ判定部164は、指示体80の先端が操作面13に接触したと判定した場
合、操作面13に接触した指示体80が静止状態にあるか否かを判定する。タッチ判定部
164は、指示体80の先端が操作面13に接触していると判定した左矩形画像235及
び右矩形画像237よりも前に撮像された左撮像画像及び右撮像画像を対象として、指示
体80の静止状態が所定フレーム連続しているか否かを判定する。また、タッチ判定部1
64は、先端検出部163により検出された指示体80の先端位置275に変化があるか
否かを判定して、指示体80の静止状態が所定フレーム連続しているか否かを判定する。
マッチング処理部165は、指示体80が操作面13に接触したとタッチ判定部164
が判定したときの左矩形画像235及び右矩形画像237を取得する。取得した左矩形画
像235を左基準画像L0といい、取得した右矩形画像237を右基準画像R0という。
左基準画像L0は、本発明の第1基準画像に相当し、右基準画像R0は、本発明の第2基
準画像に相当する。マッチング処理部165は、左基準画像L0及び右基準画像R0から
指示体80の先端を中心とする所定範囲の画像を切り出す。左基準画像L0から切り出し
た画像を左テンプレート画像といい、右基準画像R0から切り出した画像を右テンプレー
ト画像という。
マッチング処理部165には、第1カメラ121及び第2カメラ123により撮像され
た左撮像画像及び右撮像画像を、キャリブレーションデータにより矩形に変形した左矩形
画像235及び右矩形画像237が順次入力される。
マッチング処理部165は、順次入力される左矩形画像235及び右矩形画像237に
対して、左テンプレート画像及び右テンプレート画像をテンプレートとするテンプレート
マッチングを行う。マッチング処理部165が処理する左矩形画像235を左矩形画像L
t0と表記し、マッチング処理部165が処理する右矩形画像237を右矩形画像Rt0
と表記する。
マッチング処理部165は、入力された左矩形画像Lt0と、左テンプレート画像との
テンプレートマッチングを行い、左テンプレート画像に一致する左矩形画像Lt0の画像
範囲を検出する。マッチング処理部165は、検出した画像範囲から指示体80の先端位
置275を検出する。マッチング処理部165は、左基準画像L0の先端位置275に対
応する左矩形画像Lt0の位置を先端位置として検出する。左矩形画像Lt0における指
示体80の先端位置275を左先端位置275Lと表記する。
同様に、マッチング処理部165は、入力された右矩形画像Rt0と、右テンプレート
画像とのテンプレートマッチングを行い、右テンプレート画像に一致する右矩形画像Rt
0の画像範囲を検出する。マッチング処理部165は、検出した画像範囲から指示体80
の先端位置275を検出する。マッチング処理部165は、右基準画像R0の先端位置2
75に対応する右矩形画像Rt0の位置を先端位置として検出する。右矩形画像Rt0に
おける指示体80の先端位置275を右先端位置275Rと表記する。
アンタッチ判定部166は、本発明の第1算出部、第2算出部及び第2判定部に相当し
、第1算出ステップ、第2算出ステップ及び第2判定ステップに対応した動作を実行する
。アンタッチ判定部166には、マッチング処理部165から左矩形画像Lt0と、この
左矩形画像Lt0に撮像された指示体80の左先端位置275Lを示す情報とが入力され
る。また、アンタッチ判定部166には、マッチング処理部165から右矩形画像Rt0
と、この右矩形画像Rt0に撮像された指示体80の右先端位置275Rを示す情報とが
入力される。
アンタッチ判定部166は、第1算出ステップに対応する動作として、左基準画像L0
の左先端位置275Lと、入力された左矩形画像Lt0の左先端位置275Lとの位置の
差を算出する。また、アンタッチ判定部166は、複数の左矩形画像235を対象として
、左基準画像L0の左先端位置275Lとの位置の差を算出する。本実施形態では、例え
ば、左矩形画像Lt0、左矩形画像Lt+1及び左矩形画像Lt+2の3つの画像を対象
として処理を行う場合について説明するが、アンタッチ判定部166が処理を行う左撮像
画像の数は任意である。左矩形画像Lt+1は、左矩形画像Lt0の次に撮像された画像
であり、左矩形画像Lt+2は、左矩形画像Lt+1の次に撮像された画像である。
同様に、アンタッチ判定部166は、第2算出ステップに対応する動作として、右基準
画像R0の右先端位置275Rと、入力された右矩形画像Rt0の右先端位置275Rと
の位置の差を算出する。また、アンタッチ判定部166は、複数の右矩形画像237を対
象として、右基準画像R0の右先端位置275Rとの位置の差を算出する。本実施形態で
は、例えば、右矩形画像Rt0、右矩形画像Rt+1及び右矩形画像Rt+2の3つの画
像を対象として処理を行う。右矩形画像Rt+1は、右矩形画像Rt0の次に撮像された
画像であり、右矩形画像Rt+2は、右矩形画像Rt+1の次に撮像された画像である。
アンタッチ判定部166は、左矩形画像Lt0、左矩形画像Lt+1及び左矩形画像L
t+2を対象として、左基準画像L0の左先端位置275Lとの位置の差をそれぞれ算出
すると、次に、第2判定ステップに対応した動作を実行する。アンタッチ判定部166は
、算出した位置の差の平均値を算出する。算出した平均値を、左平均値Ave_Lと表記
する。左平均値Ave_Lは、本発明の第1平均値に相当する。
また、アンタッチ判定部166は、右矩形画像Rt0、右矩形画像Rt+1及び右矩形
画像Rt+2を対象として、右基準画像R0の右先端位置275Rとの位置の差をそれぞ
れ算出すると、算出した位置の差の平均値を算出する。算出した平均値を、右平均値Av
e_Rと表記する。右平均値Ave_Rは、本発明の第2平均値に相当する。
アンタッチ判定部166は、左平均値Ave_Lから右平均値Ave_Rを減算し、減
算した結果を予め設定されたしきい値と比較する。アンタッチ判定部166は、左平均値
Ave_L−右平均値Ave_Rをしきい値と比較することで、左撮像画像と右撮像画像
とに生じる視差がしきい値以上であるか否かを判定する。上述したように本実施形態は、
投射面10の位置であるZ=0の位置で視差が0となるように調整され、投射面10から
離れるほど、視差が大きくなる。アンタッチ判定部166は、左平均値Ave_L−右平
均値Ave_Rの値がしきい値よりも大きい場合、指示体80が操作面13から離れ、ホ
バー状態にあると判定する。また、アンタッチ判定部166は、左平均値Ave_L−右
平均値Ave_Rの値がしきい値以下である場合、指示体80は、操作面13に接触した
タッチ状態であると判定する。
アンタッチ判定部166は、タッチ状態であると判定した場合、マッチング処理部16
5により算出された左矩形画像Lt0の左先端位置275Lを示す座標情報と、右矩形画
像Rt0の右先端位置275Rを示す座標情報とを制御部170に出力する。
また、アンタッチ判定部166は、ホバー状態であると判定した場合には、左先端位置
275L及び右先端位置275Rの座標情報を制御部170には出力しない。
制御部170は、第2記憶部175及びプロセッサー180を備えるコンピューター装
置である。第2記憶部175は、RAM(Random access memory)等の揮発性の記憶装置
と、ROM(Read Only Memory)やフラッシュメモリー等の不揮発性の記憶装置とを備え
る。第2記憶部175は、プロセッサー180が実行する制御プログラムを記憶する。制
御プログラムには、例えば、ファームウェアが含まれる。
プロセッサー180は、CPU(Central Processing Unit)やMPU(Micro Process
ing Unit)により構成される演算処理装置である。プロセッサー180は、制御プログラ
ムを実行してプロジェクター100の各部を制御する。プロセッサー180は、単一のプ
ロセッサーにより構成してもよいし、複数のプロセッサーにより構成することも可能であ
る。また、プロセッサー180は、第2記憶部175の一部又は全部や、その他の回路と
統合されたSoCにより構成してもよい。また、プロセッサー180は、プログラムを実
行するCPUと、所定の演算処理を実行するDSPとの組合せにより構成してもよい。さ
らに、プロセッサー180の機能の全てをハードウェアに実装した構成としてもよく、プ
ログラマブルデバイスを用いて構成してもよい。
制御部170は、機能ブロックとして撮像制御部181、操作検出部183及び処理実
行部185を備える。これらの機能ブロックは、プロセッサー180が制御プログラムに
記述された命令セットを実行して、データの演算や制御を行うことにより実現される機能
をブロックにより便宜的に示したものである。
撮像制御部181は、検出光照射部130に検出光を照射させて、撮像部120に撮像
を実行させる。撮像部120は、予め設定されたフレームレートで投射面10を含む範囲
を撮像して撮像画像を生成する。撮像部120が生成した撮像画像は、位置検出部150
に入力される。
操作検出部183は、本発明の検出部に相当する。操作検出部183は、タッチ判定部
164及びアンタッチ判定部166の判定結果に従って、操作面13に対する指示体80
の操作を検出する。操作検出部183には、指示体80が操作面13に接触しているとタ
ッチ判定部164が判定した場合、左撮像画像に設定された座標系の座標情報と、右撮像
画像に設定された座標系の座標情報とが入力される。また、操作検出部183には、指示
体80が操作面13に接触していないとアンタッチ判定部166が判定した場合には、座
標情報が入力されない。
操作検出部183は、入力された座標情報に基づき、指示体80により指示された操作
面13の位置を特定し、特定した操作面13の位置を示す座標情報を出力する。例えば、
後述する図8に示すキャリブレーション画像201を第1カメラ121により撮像し、キ
ャリブレーション画像201に形成されたマーク205の位置と、左撮像画像におけるマ
ーク205の位置とを対応づける。これにより左撮像画像の座標と、操作面13の座標と
が対応づけられる。また、キャリブレーション画像201を第2カメラ123により撮像
し、キャリブレーション画像201に形成されたマーク205の位置と、右撮像画像にお
けるマーク205の位置とを対応づける。これにより右撮像画像の座標と、操作面13の
座標とが対応づけられる。
処理実行部185は、操作検出部183から入力される座標情報に基づいて操作を検出
し、検出した操作に対応した処理を実行する。例えば、処理実行部185は、操作面13
に接触させた指示体80を、操作面13上で移動させる操作が検出された場合、移動する
指示体80の軌跡に対応した画像を投射領域15に描画する。
A−3.全体処理フロー
図5及び図6は、プロジェクター100の動作を示すフローチャートである。
図5及び図6を参照しながらプロジェクター100の動作について説明する。
まず、制御部170は、プロジェクター100の状態が、プロジェクター100の設置
時、又はプロジェクター100の起動時であるか否かを判定する(ステップS1)。例え
ば、操作受付部135がリモコンに設けられた所定ボタンに対応した信号を受信した場合
に、制御部170は、プロジェクター100の設置時であると判定してもよい。また、工
場出荷後、プロジェクター100の電源が最初にオンされた場合に、制御部170は、プ
ロジェクター100の設置時であると判定してもよい。制御部170は、設置時又は起動
時ではない場合(ステップS1/NO)、ステップS4の処理に移行する。
また、制御部170は、設置時又は起動時である場合(ステップS1/YES)、位置
検出部150にキャリブレーションを実行させる(ステップS2)。制御部170は、キ
ャリブレーション画像201を投射部110に投射させて、撮像部120に撮像を実行さ
せる。位置検出部150は、撮像部120によって撮像された左撮像画像及び右撮像画像
に基づいてキャリブレーションデータを生成する(ステップS3)。生成したキャリブレ
ーションデータは、第1記憶部151に記憶される。
キャリブレーションデータの生成が終了し、操作受付部135により操作を受け付ける
と、制御部170は、検出光照射部130に検出光の照射を開始させ、撮像部120に撮
像を開始させる(ステップS4)。
位置検出部150は、第1カメラ121から左撮像画像が入力され、第2カメラ123
から右撮像画像が入力されたか否かを判定する(ステップS5)。位置検出部150は、
撮像画像の入力がない場合(ステップS5/NO)、左撮像画像及び右撮像画像の入力が
あるまで処理の開始を待機する。
位置検出部150は、左撮像画像及び右撮像画像が入力されると(ステップS5/YE
S)、左撮像画像及び右撮像画像を処理して差分画像240を生成し、生成した差分画像
240から変化領域250を抽出して指先領域270を検出する(ステップS6)。指先
領域270を検出する処理の詳細については、図9に示すフローチャートを参照しながら
後述する。
次に、位置検出部150は、検出した指先領域270から指示体80である指の先端位
置275を特定する(ステップS7)。先端位置275を特定する処理の詳細については
、図19に示すフローチャートを参照しながら後述する。
次に、位置検出部150は、特定した先端位置275に基づいてタッチホールド状態が
検出されたか否かを判定する。まず、位置検出部150は、指示体80の先端が操作面1
3に接触したか否かを判定するため、指示体80が静止した静止状態が検出されたか否か
を判定する(ステップS8)。位置検出部150は、処理対象として選択した1の撮像画
像の先端位置275と、この撮像画像の1つ前の撮像画像の先端位置275との座標を比
較して、指示体80が静止状態にあるか否かを判定する。ここで停止判定に使用する撮像
画像は、左矩形画像235及び右矩形画像237のいずれか一方であってもよいし、左矩
形画像235及び右矩形画像237の両方の画像であってもよい。
位置検出部150は、静止状態が検出されなかった場合(ステップS8/NO)、ステ
ップS5の判定に戻り、撮像部120から次の撮像画像が入力されるまで待機する。また
、位置検出部150は、静止状態が検出された場合(ステップS8/YES)、この静止
状態が所定フレーム連続しているか否かを判定する(ステップS9)。位置検出部150
は、ステップS8で処理対象として選択した1の撮像画像よりも前に撮像された撮像画像
を対象として、静止状態が所定フレーム連続しているか否かを判定する。ステップS8及
びS9は、本発明の第1判定ステップに相当する。
位置検出部150は、静止状態の検出が所定フレーム連続していない場合(ステップS
9/NO)、ステップS5の判定に戻る。また、位置検出部150は、静止状態の検出が
所定フレーム連続している場合(ステップS9/YES)、タッチホールド状態が検出さ
れたと判定し、ステップS10の処理に移行する。
位置検出部150は、ステップS8で選択した撮像画像から予め設定された設定サイズ
の画像をテンプレート画像として切り出す(ステップS10)。位置検出部150は、左矩
形画像235の元になる左撮像画像である左基準画像L0から、先端位置275を中心と
する予め設定された設定サイズの画像を左テンプレート画像として切り出す。また、位置
検出部150は、右矩形画像237の元になる右撮像画像である右基準画像R0から、先
端位置275を中心とする予め設定された設定サイズの画像を右テンプレート画像として
切り出す。
位置検出部150には、撮像部120によって撮像された左撮像画像及び右撮像画像を
、キャリブレーションデータにより矩形に変形した左矩形画像Lt0及び右矩形画像Rt
0が順次入力される(ステップS11)。
位置検出部150は、入力された左矩形画像Lt0上で左テンプレート画像を動かして
テンプレートマッチングを行う。位置検出部150は、左テンプレート画像と一致する左
矩形画像Lt0の領域を検出し、検出した左矩形画像Lt0の領域において、指示体80
の先端が撮像された左先端位置275Lを検出する(ステップS12)。同様に、位置検
出部150は、入力された右矩形画像Rt0上で右テンプレート画像を動かしてテンプレ
ートマッチングを行う。位置検出部150は、右テンプレート画像と一致する右矩形画像
Rt0の領域を検出し、検出した右矩形画像Rt0の領域において、指示体80の先端が
撮像された右先端位置275Rを検出する(ステップS12)。
次に、位置検出部150は、指示体80の状態判定を行う。位置検出部150は、指示
体80の状態が、指示体80が操作面13に接触したタッチ状態であるのか、指示体80
が操作面13から離れたホバー状態であるのかを判定する(ステップS13)。ステップ
S13の判定の詳細については、図23に示すフローチャートを参照しながら説明する。
ステップS13は、本発明の第2判定ステップに相当する。
次に、位置検出部150は、ステップS13でタッチ状態と判定した場合(ステップS
14/YES)、ステップS12で算出した座標情報を制御部170に出力する(ステッ
プS15)。また、位置検出部150は、ステップS13でホバー状態と判定した場合(
ステップS14/NO)、座標情報を制御部170には出力せず、指示体80が操作面1
3から離れたことを制御部170に通知する(ステップS16)。
次に、図6に示すフローチャートを参照しながら位置検出部150が検出した座標情報
が入力された制御部170の動作について説明する。
制御部170は、位置検出部150から座標情報が入力されたか否かを判定する(ステ
ップS21)。制御部170は、座標情報の入力がない場合(ステップS21/NO)、
座標情報が入力されるまで処理の開始を待機する。
また、制御部170は、座標情報が入力されると(ステップS21/YES)、入力さ
れた座標情報を第2記憶部175に記憶させる(ステップS22)。
次に、制御部170は、第2記憶部175に記憶させた座標情報を読み出し、読み出し
た座標情報に基づき、操作面13に接触した指示体80の先端位置の軌跡を示す軌跡デー
タを生成する(ステップS23)。
次に、制御部170は、生成した軌跡データに基づいて、指示体80の先端位置の軌跡
が、予め設定された操作パターンに一致したか否かを判定する(ステップS24)。
操作パターンには、例えば、フリックやスワイプ、ドラッグ&ドロップ等の指示体80
を操作面13上でスライドさせるスライド操作や、タップ、ダブルタップ、ロングタップ
等のタップ操作等が含まれる。
制御部170は、軌跡データが操作パターンに一致しなかった場合(ステップS24/
NO)、ステップS21の判定に戻り、位置検出部150から座標情報が入力されるまで
待機する。また、制御部170は、軌跡データが操作パターンに一致した場合(ステップ
S24/YES)、操作パターンに対応した操作が入力されたと判定する。この場合、制
御部170は、入力された操作に対応した処理を実行する(ステップS25)。
例えば、制御部170は、スライド操作が検出された場合、最初に指示体80の接触を
検出した接触位置に表示させた画像の表示位置を、最後に指示体80の接触が検出された
接触位置まで移動させる。また、制御部170は、タップ操作が検出され、タップ操作で
指示体80との接触を検出した操作面13の位置にアイコンが表示されている場合、この
アイコンが選択されたと判定する。
A−4.キャリブレーション
次に、図7及び図8を参照しながらキャリブレーションについて説明する。
図7は、キャリブレーション画像201の一例を示す図である。
まず、制御部170の制御により、図7に示すキャリブレーション画像201を投射部
110に投射させ、キャリブレーション画像201が投射された投射面10を第1カメラ
121及び第2カメラ123に撮像させる。
図7に示すようにキャリブレーション画像201は、予め設定された形状のマーク20
5が、キャリブレーション画像201の縦方向及び横方向に等間隔で配置された画像であ
る。本実施形態では、キャリブレーション画像201として、黒色の背景に、マーク20
5としての白色のドットをキャリブレーション画像201の縦方向及び横方向に等間隔で
配置した画像を用いる。
キャリブレーションデータ生成部161は、キャリブレーション画像201が投射され
た投射面10を第1カメラ121で撮像した左撮像画像と、投射面10を第2カメラ12
3で撮像した右撮像画像とを取得する。
キャリブレーションデータ生成部161は、第1範囲情報を参照して、投射領域15に
対応する左撮像画像の領域を抽出する。同様に、キャリブレーションデータ生成部161
は、第2範囲情報を参照して、投射領域15に対応する右撮像画像の領域を抽出する。抽
出された投射領域15に対応する左撮像画像の領域を左抽出画像231といい、抽出され
た投射領域15に対応する右撮像画像の領域を右抽出画像233という。
図8は、左抽出画像231及び右抽出画像233の形状を矩形に変形する変形方法を示
す図である。なお、左抽出画像231及び右抽出画像233の変形方法は同一であるため
、以下では、左抽出画像231の変形方法について説明する。
キャリブレーションデータ生成部161は、第1記憶部151が記憶するキャリブレー
ション画像201と、左抽出画像231及び右抽出画像233とを比較して第1画像変換
係数及び第2画像変換係数を決定する。具体的には、キャリブレーションデータ生成部1
61は、キャリブレーション画像201のマーク205の位置と、左抽出画像231のマ
ークの位置とを比較し、キャリブレーション画像201の頂点と、左抽出画像231の頂
点とを比較する。キャリブレーションデータ生成部161は、これらの比較結果に基づき
、左抽出画像231をキャリブレーション画像201と同一の矩形に変形するための変形
量である、引き延ばし方向及び引き延ばし量を第1画像変換係数として決定する。同様に
、キャリブレーションデータ生成部161は、キャリブレーション画像201のマーク2
05の位置と、右抽出画像233のマークの位置とを比較し、キャリブレーション画像2
01の頂点と、右抽出画像233の頂点とを比較する。キャリブレーションデータ生成部
161は、これらの比較結果に基づき、右抽出画像233をキャリブレーション画像20
1と同一の矩形に変形するための変形量である、引き延ばし方向及び引き延ばし量を第2
画像変換係数として決定する。
第1画像変換係数は、左抽出画像231の各マーク205の位置が、キャリブレーショ
ン画像201に形成されたマーク205の位置に一致するように左抽出画像231の形状
を変換する係数である。また、第2画像変換係数は、右抽出画像233の各マーク205
の位置が、キャリブレーション画像201に形成されたマーク205の位置に一致するよ
うに右抽出画像233の形状を変換する係数である。このため、第1画像変換係数により
変換された左抽出画像231と、第2画像変換係数により変換された右抽出画像233と
は、キャリブレーション画像201に一致するように変換される。このため、投射面10
での視差が0となるように左抽出画像231及び右抽出画像233が変換される。
A−5.指先領域の検出
図9は、指先領域270の検出処理を示すフローチャートである。
次に、図9に示すフローチャートを参照しながら上述したステップS6の指先領域27
0の検出処理の詳細について説明する。
まず、位置検出部150は、第1カメラ121の左撮像画像を取得すると、キャリブレ
ーションデータを用いて、左撮像画像から左抽出画像231を抽出し、抽出した左抽出画
像231の形状を矩形に変形して左矩形画像235を生成する(ステップS601)。同
様に、位置検出部150は、第2カメラ123の右撮像画像を取得すると、キャリブレー
ションデータを用いて、右撮像画像から右抽出画像233を抽出し、右抽出画像233の
形状を矩形に変形して右矩形画像237を生成する(ステップS601)。ステップS6
01は、本発明の変換ステップに相当する。
次に、位置検出部150は、差分画像240を生成する(ステップS602)。位置検
出部150は、左矩形画像235から右矩形画像237を減算して差分画像240を生成
する。
図10は、差分画像240を示す図である。
差分画像240には、変化領域250が含まれる。変化領域250は、左矩形画像23
5と右矩形画像237との視差量が、予め設定された範囲内となる領域である。差分画像
240は、左矩形画像235から右矩形画像237を減算した画像である。このため、投
射面10の位置であるZ=0の位置にあり、視差が0となる物体は、差分画像240には
表示されない。また、投射面10から離れた位置に存在する物体ほど、視差が大きくなり
、左矩形画像235における物体の位置と、右矩形画像237における物体の位置との差
が大きくなる。
図11は、正領域245及び正領域247を除去した差分画像240を示す図である。
次に、位置検出部150は、生成した差分画像240に含まれる正領域245及び正領
域247の孤立領域を除去する(ステップS603)。位置検出部150は、差分画像2
40において、正領域245だけが孤立して存在する画像の領域と、正領域247だけが
孤立して存在する画像の領域とを除去する。差分画像240は、左矩形画像235から右
矩形画像237を減算して生成した画像である。左矩形画像235と右矩形画像237と
に同一の物体が撮像されている場合であって、物体が撮像された左矩形画像235の座標
が、物体が撮像された右矩形画像237の座標よりも大きい場合、差分画像240には正
領域245が生じる。また、物体が撮像された右矩形画像237の座標が、物体が撮像さ
れた左矩形画像235の座標よりも大きい場合、差分画像240には正領域247が生じ
る。
孤立して存在する正領域245及び正領域247を除去することで、差分画像240に
は、正領域245と正領域247とが予め設定された距離以下で近接して存在する領域だ
けが残る。この正領域245と正領域247とが近接して存在する領域が変化領域250
となる。変化領域250は、左矩形画像235と右矩形画像237との視差量が、予め設
定された範囲内の領域であり、投射面10の近くに存在する物体が撮像された領域である
図12は、モルフォロジー変換後の差分画像240を示す図である。
次に、位置検出部150は、差分画像240の変化領域250に膨張収縮のモルフォロ
ジー変換を行って、孤立点を除去し、穴が空いた領域の穴埋めを行う(ステップS604
)。図12には、孤立点を除去し、穴が空いた領域を穴埋めした後の差分画像240を示
す。
図13は、第3変化領域250Cに図形300を重畳した状態を示す図である。
次に、位置検出部150は、差分画像240の解像度を変換して、1/2解像度、1/
4解像度、及び1/8解像度の差分画像240をそれぞれ生成する(ステップS605)。
1/8解像度の差分画像240を第3差分画像240Cと表示し、この第3差分画像24
0Cに表示された変化領域250を第3変化領域250Cと表示する。また、1/4解像
度の差分画像240を第2差分画像240Bと表示し、この第2差分画像240Bに表示
された変化領域250を第2変化領域250Bと表示する。また、1/2解像度の差分画
像240を第1差分画像240Aと表示し、この第1差分画像240Aに表示された変化
領域250を第1変化領域250Aと表示する。
次に、位置検出部150は、切り出し処理を実行する(ステップS606)。位置検出
部150は、予め設定された大きさの図形300を、1/8解像度の第3差分画像240
C上で移動させながら、図形300が内部に完全に収まる第3変化領域250Cを検出す
る。先端検出部163は、図形300が収まる第3変化領域250Cを検出すると、この
図形300が重なった第3変化領域250Cの画像を削除する。図13は、図形300に
重なる第3変化領域250Cの画像を削除した状態を示す。位置検出部150は、この処
理を図形300が収まる第3変化領域250Cがなくなるまで繰り返す。次に、位置検出
部150は、第3変化領域250Cのうち、第3差分画像240Cの外周に接する領域を
除去する。図14は、第3差分画像240Cの外周に接する第3変化領域250Cの画像
を除去した状態を示す図である。
次に、位置検出部150は、1/8解像度の第3差分画像240Cの解像度を1/4に
変換する(ステップS607)。その後、位置検出部150は、1/4解像度に変換した
第3差分画像240Cと、1/4解像度の第2差分画像240Bとの論理積を計算する(
ステップS608)。これにより、1/4解像度の第2差分画像240Bであって、1/
8解像度の第3変化領域250Cにおいて除去した画像が除去された第2差分画像240
Bが生成される。
図15は、第2変化領域250Bに図形300を重畳した状態を示す図である。
次に、位置検出部150は、切り出し処理を実行する(ステップS609)。位置検出
部150は、図形300を、1/4解像度の第2差分画像240B上で移動させながら、
図形300が内部に完全に収まる第2変化領域250Bを検出する。図形300の大きさ
は、1/8解像度の第3差分画像240Cにおいて画像の除去に使用した図形300の大
きさと同一である。先端検出部163は、図形300が収まる第2変化領域250Bを検
出すると、この図形300が重なった第2変化領域250Bの画像を削除する。位置検出
部150は、この処理を図形300が収まる第2変化領域250Bがなくなるまで繰り返
す。次に、位置検出部150は、第2変化領域250Bのうち、第2差分画像240Bの
外周に接する領域を除去する。図16には、第2差分画像240Bの外周に接する第2変
化領域250Bの画像を除去した状態を示す。
次に、位置検出部150は、1/4解像度の第2差分画像240Bの解像度を1/2に
変換する(ステップS610)。その後、位置検出部150は、1/2解像度に変換した
第2差分画像240Bと、1/2解像度の第1差分画像240Aとの論理積を計算する(
ステップS611)。これにより、1/2解像度の第1差分画像240Aであって、1/
8解像度の第3変化領域250C、及び1/4解像度の第2変化領域250Bにおいて除
去した画像が除去された第1差分画像240Aが生成される。
図17は、第1変化領域250Aを示す図である。
次に、位置検出部150は、切り出し処理を実行する(ステップS612)。位置検出
部150は、予め設定された大きさの図形300を、1/2解像度の第1差分画像240
A上で移動させながら、図形300が内部に完全に収まる第1変化領域250Aを検出す
る。図形300の大きさは、1/8解像度の第3差分画像240C、及び1/4解像度の
第2差分画像240Bにおいて画像の除去に使用した図形300の大きさと同一である。
位置検出部150は、図形300が収まる第1変化領域250Aを検出すると、この図形
300が重なった第1変化領域250Aの画像を削除する。位置検出部150は、この処
理を図形300が収まる第1変化領域250Aがなくなるまで繰り返す。位置検出部15
0は、除去されずに第1変化領域250Aを指先領域270として検出する(ステップS
613)。図18は、差分画像240から、指先領域270を中心に特定の領域を切り出
した図である。これにより、ノイズ等の影響により誤検出することなく、操作面13の全
体の撮像画像から、操作面13に接触又は接近した指示体80の先端を含む領域である指
先領域270を検出することができる。
A−6.先端位置の特定
図19は、ステップS7の指の先端位置を特定する処理の詳細を示すフローチャートで
ある。また、図20は、放射状に描画された線分280を示す図である。
図19に示すフローチャートを参照しながら指の先端位置を特定する処理について説明
する。
まず、位置検出部150は、検出した指先領域270の重心座標を計算する(ステップ
S701)。位置検出部150は、指先領域270の重心座標を計算すると、計算した指
先領域270の重心座標を始点とし、重心座標を中心に放射状に複数の線分280を第1
差分画像240Aに描画するる(ステップS702)。このとき、位置検出部150は、
図20に示すように、隣接する線分280同士のなす角度θ1が一定となるように複数の
線分280を描画する。
図21は、輪郭線の長さが最小の区間Sと、検出範囲Dとを示す図である。
次に、位置検出部150は、隣接する2本の線分280によって区切られた指先領域2
70の輪郭線の長さをそれぞれ算出し、算出した輪郭線の長さが最小の区間を特定する(
ステップS703)。図21に示す区間Sを輪郭線の長さが最小の区間と仮定する。
次に、位置検出部150は、特定した区間Sに基づいて検出範囲Dを設定する(ステッ
プS704)。例えば、図21に示す角度θ2に対応した輪郭線の範囲が、検出範囲Dに
対応する。検出範囲Dは、区間Sを含み、区間Sで区切られた輪郭線の両側を含む範囲で
ある。
図22は、指先領域270の先端位置275を示す図である。
次に、位置検出部150は、設定した検出範囲D内で、指先領域270の曲率が最も大
きい位置を検出する(ステップS705)。位置検出部150は、検出した曲率が最も大
きい位置を先端位置275と判定する。
図23は、図6に示すステップS13の詳細を示すフローチャートである。
図23に示すフローチャートを参照しながら図6に示すステップS13の詳細について
説明する。
位置検出部150は、ステップS12において、テンプレートマッチングにより左矩形
画像Lt0の左先端位置275Lを検出し、右矩形画像Rt0の右先端位置275Rを検
出する。位置検出部150は、左基準画像L0の左先端位置275Lと、ステップS11
で入力された左矩形画像Lt0の左先端位置275Lとの位置の差を算出する(ステップ
S1301)。また、位置検出部150は、右基準画像R0の右先端位置275Rと、ス
テップS11で入力された右矩形画像Rt0の右先端位置275Rとの位置の差を算出す
る(ステップS1301)。ステップS1301は、本発明の第1算出ステップ及び第2
算出ステップに相当する。
次に、位置検出部150は、位置の差を算出した撮像画像の数が設定数に一致したか否
かを判定する(ステップS1302)。位置検出部150は、左基準画像L0の左先端位
置275Lと位置の差を算出した左矩形画像235の数が設定数に一致したか否かを判定
する(ステップS1302)。同様に、位置検出部150は、右基準画像R0の右先端位
置275Rと位置の差を算出した右矩形画像237の数が設定数に一致したか否かを判定
する(ステップS1302)。
位置検出部150は、左矩形画像235の数が設定数に一致しない場合(ステップS1
302/NO)、次の撮像画像である左矩形画像Lt+1を対象として左基準画像L0の
左先端位置275Lとの位置の差を算出する(ステップS1301)。同様に、位置検出
部150は、右矩形画像237の数が設定数に一致していない場合(ステップS1302
/NO)、次の撮像画像である右矩形画像Rt+1を対象として右基準画像R0の右先端
位置275Rとの位置の差を算出する(ステップS1301)。
また、位置検出部150は、左矩形画像235の数が設定数に一致した場合(ステップ
S1302/YES)、つまり、左矩形画像Lt0、左矩形画像Lt+1及び左矩形画像
Lt+2の3つの画像の処理が完了した場合、S1303の処理に移行する。同様に、位
置検出部150は、右撮像画像の数が設定数に一致した場合(ステップS1302/YE
S)、つまり、右矩形画像Rt0、右矩形画像Rt+1及び右矩形画像Rt+2の3つの
画像の処理が完了した場合、S1303の処理に移行する。
位置検出部150は、左矩形画像Lt0、左矩形画像Lt+1及び左矩形画像Lt+2
について、左基準画像L0の左先端位置275Lとの位置の差をそれぞれ算出すると、算
出した位置の差の平均値を算出する(ステップS1303)。算出した平均値を、左平均
値Ave_Lと表記する。
同様に、位置検出部150は、右矩形画像Rt0、右矩形画像Rt+1及び右矩形画像
Rt+2について、右基準画像R0の右先端位置275Rとの位置の差をそれぞれ算出す
ると、算出した位置の差の平均値を算出する(ステップS1303)。算出した平均値を
、右平均値Ave_Rと表記する。
次に、位置検出部150は、左平均値Ave_Lから右平均値Ave_Rを減算する(
ステップS1304)。位置検出部150は、左平均値Ave_L−右平均値Ave_R
を、予め設定されたしきい値と比較する(ステップS1305)。位置検出部150は、
左平均値Ave_L−右平均値Ave_Rの値がしきい値よりも大きい場合(ステップS
1305/YES)、指示体80の状態をホバー状態と判定する(ステップS1306)
。また、位置検出部150は、左平均値Ave_L−右平均値Ave_Rの値がしきい値
以下である場合(ステップS1305/NO)、指示体80の状態をタッチ状態と判定す
る(ステップS1307)。
位置検出部150は、タッチ状態であると判定した場合、左矩形画像Lt0の左先端位
置275Lを示す座標情報と、右矩形画像Rt0の右先端位置275Rを示す座標情報と
を制御部170に出力する。また、位置検出部150は、ホバー状態であると判定した場
合、制御部170に座標情報を出力しない。
以上説明したように本実施形態の操作検出装置200は、変換部162、タッチ判定部
164及びアンタッチ判定部166を備える。
変換部162は、異なる撮像視点から操作面13を撮像した左撮像画像及び右撮像画像
を、操作面13にキャリブレーションされた画像に変換する。
タッチ判定部164は、変換された左撮像画像及び右撮像画像に撮像された指示体80
の画像に基づいて、指示体80が操作面13に接触し、静止した状態にあるか否かを判定
する。
アンタッチ判定部166は、操作面13に接触し、静止した状態にあると判定したとき
の左撮像画像を左基準画像L0として選択し、選択した左基準画像L0と左撮像画像とに
撮像された指示体80の位置の差を算出する。
同様に、アンタッチ判定部166は、操作面13に接触し、静止した状態にあると判定
したときの右撮像画像を右基準画像R0として選択し、選択した右基準画像R0と右撮像
画像とに撮像された指示体80の位置の差を算出する。
そして、アンタッチ判定部166は、左基準画像L0と左矩形画像235とに撮像され
た指示体80の位置の差と、右基準画像R0と右矩形画像237とに撮像された指示体8
0の位置の差とに基づいて、指示体80が操作面13から離れたか否かを判定する。
左矩形画像235及び右矩形画像237は、操作面13での視差が0になるようにキャ
リブレーションされている。このため、左矩形画像235及び右矩形画像237に撮像さ
れた指示体80の画像の視差に基づいて指示体80が操作面13に接触したか否かを判定
することで、接触判定の精度を高めることができる。
また、指示体80が操作面13に接触した状態の撮像画像を左基準画像L0及び右基準
画像R0として選択し、選択した左基準画像L0及び右基準画像R0に基づいて指示体8
0の画像を検出する。このため、操作面13に写った指示体80の影の影響により検出精
度が低下するのを抑制することができる。つまり、左基準画像L0及び右基準画像R0に
基づいて左矩形画像235及び右矩形画像237から指示体80の画像を検出することで
、指示体80の指示位置の検出精度を高めることができる。
また、左基準画像L0と左矩形画像235とに撮像された指示体80の位置の差と、右
基準画像R0と右矩形画像237とに撮像された指示体80の位置の差とをそれぞれ算出
する。そして、算出したこれらの位置の差に基づいて指示体80が操作面13から離れた
か否かを判定する。従って、左撮像画像と右撮像画像に生じる視差に基づいて指示体80
が操作面13から離れたか否かを精度よく判定することができる。また、指示体80が操
作面13から離れたか否かの判定精度を向上させることができるので、指示体80による
操作の検出精度を高めることができる。
また、アンタッチ判定部166は、順次入力される複数の左撮像画像と左基準画像L0
とに撮像された指示体80の位置の差をそれぞれ算出し、算出した複数の指示体80の位
置の差の平均値を左平均値Ave_Lとして算出する。同様に、アンタッチ判定部166
は、順次入力される複数の右撮像画像と右基準画像R0とに撮像された指示体80の位置
の差をそれぞれ算出し、算出した複数の指示体80の位置の差の平均値を右平均値Ave
_Rとして算出する。そして、アンタッチ判定部166は、左平均値Ave_Lと、右平
均値Ave_Rとの差がしきい値よりも大きい場合に、指示体80が操作面13から離れ
たと判定する。
従って、ノイズ等の影響を低減して、指示体80が操作面13から離れたか否かの判定
精度を向上させることができる。
タッチ判定部164は、左矩形画像235に撮像された指示体80の画像と、右矩形画
像237に撮像された指示体80の画像との視差に基づいて、指示体80の操作面13と
の接触を判定する。
左矩形画像235及び右矩形画像237は、操作面13での視差が0になるようにキャ
リブレーションされている。このため、左矩形画像235及び右矩形画像237に撮像さ
れた指示体80の画像の視差に基づいて指示体80が操作面13に接触したか否かを判定
することで、接触判定の精度を高めることができる。
また、タッチ判定部164は、指示体80が操作面13に接触したと判定したときの左
撮像画像及び右撮像画像よりも前に撮像された複数の左撮像画像及び右撮像画像において
、指示体80の画像の位置に変化があるか否かを判定して静止状態か否かを判定する。
従って、ノイズ等の影響を低減して、基準画像として選択する画像の精度を高めること
ができる。
上述した実施形態は本発明の好適な実施の形態である。但し、これに限定されるもので
はなく、本発明の要旨を逸脱しない範囲内において種々の変形が可能である。
例えば、上述した実施形態では、位置検出部150と、制御部170とを備える操作検
出装置200の構成について説明したが、位置検出部150を単独で、操作検出装置20
0として動作させることも可能である。
また、上述した実施形態では、プロジェクター100が撮像部120を備える構成を説
明したが、プロジェクター100とは別体で撮像部120を設けてもよい。例えば、撮像
部120を単独で動作する撮像装置として構成し、撮像装置とプロジェクター100とを
有線又は無線で接続してもよい。
また、図3に示すプロジェクター100の各機能部は、機能的構成を示すものであって
、具体的な実装形態は特に制限されない。つまり、必ずしも各機能部に個別に対応するハ
ードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで
複数の機能部の機能を実現する構成とすることも勿論可能である。また、上記実施形態に
おいてソフトウェアで実現される機能の一部をハードウェアで実現してもよく、また、ハ
ードウェアで実現される機能の一部をソフトウェアで実現してもよい。その他、プロジェ
クターの他の各部の具体的な細部構成についても、本発明の趣旨を逸脱しない範囲で任意
に変更可能である。
また、図5、図6、図9、図19及び図23に示すフローチャートの処理単位は、プロ
ジェクター100の処理を理解容易にするために、主な処理内容に応じて分割したもので
ある。図5、図6、図9、図19及び図23のフローチャートに示す処理単位の分割の仕
方や名称によって本発明が制限されることはない。また、制御部170や位置検出部15
0の処理は、処理内容に応じて、さらに多くの処理単位に分割することもできるし、1つ
の処理単位がさらに多くの処理を含むように分割することもできる。また、上記のフロー
チャートの処理順序も、図示した例に限られるものではない。
また、操作検出方法を、プロジェクター100が備えるコンピューターを用いて実現す
る場合、このコンピューターに実行させるプログラムを記録媒体、又はこのプログラムを
伝送する伝送媒体の態様で構成することも可能である。記録媒体には、磁気的、光学的記
録媒体又は半導体メモリーデバイスを用いることができる。具体的には、フレキシブルデ
ィスク、HDD(Hard Disk Drive)、CD−ROM、DVD、Blu−ray Disc
、光磁気ディスク、フラッシュメモリー、カード型記録媒体等の可搬型、或いは固定式の
記録媒体が挙げられる。また、上記記録媒体は、サーバー装置が備える内部記憶装置であ
るRAM、ROM、HDD等の不揮発性記憶装置であってもよい。Blu−rayは、登
録商標である。
1…インタラクティブプロジェクションシステム、10…投射面、13…操作面、15
…投射領域、20…検出光、30…画像光、80…指示体、100…プロジェクター、1
10…投射部、111…光源、113…光変調装置、115…光学ユニット、120…撮
像部、121…第1カメラ、123…第2カメラ、130…検出光照射部、135…操作
受付部、141…入力インターフェース、143…画像処理部、145…フレームメモリ
ー、150…位置検出部、151…第1記憶部、155…制御プログラム、160…画像
処理プロセッサー、161…キャリブレーションデータ生成部、162…変換部、163
…先端検出部、164…タッチ判定部、165…マッチング処理部、166…アンタッチ
判定部、170…制御部、175…第2記憶部、180…プロセッサー、181…撮像制
御部、183…操作検出部、185…処理実行部、200…操作検出装置、201…キャ
リブレーション画像、205…マーク、231…左抽出画像、233…右抽出画像、23
5…左矩形画像、237…右矩形画像、240…差分画像、240A…第1差分画像、2
40B…第2差分画像、240C…第3差分画像、245…正領域、247…負領域、2
50…変化領域、250A…第1変化領域、250B…第2変化領域、250C…第3変
化領域、270…指先領域、275…先端位置、275L…左先端位置、275R…右先
端位置、280…線分、D…検出範囲、L0…左基準画像、R0…右基準画像。

Claims (6)

  1. 操作面に対する指示体の操作を検出する操作検出方法であって、
    異なる撮像視点から前記操作面を撮像した第1撮像画像及び第2撮像画像を、前記操作
    面にキャリブレーションされた画像に変換する変換ステップと、
    変換された前記第1撮像画像と前記第2撮像画像とに撮像された前記指示体の画像に基
    づいて、前記指示体が前記操作面に接触し、静止した状態にあるか否かを判定する第1判
    定ステップと、
    前記操作面に接触し、静止した状態にあると判定したときの第1撮像画像を第1基準画
    像として選択し、選択した前記第1基準画像と第1撮像画像とに撮像された前記指示体の
    位置の差を算出する第1算出ステップと、
    前記操作面に接触し、静止した状態にあると判定したときの第2撮像画像を第2基準画
    像として選択し、選択した前記第2基準画像と第2撮像画像とに撮像された前記指示体の
    位置の差を算出する第2算出ステップと、
    前記第1算出ステップにより算出した前記位置の差と、前記第2算出ステップにより算
    出した前記位置の差とに基づいて、前記指示体が前記操作面から離れたか否かを判定する
    第2判定ステップと、
    を有する、操作検出方法。
  2. 前記第1算出ステップは、順次入力される複数の第1撮像画像と前記第1基準画像とに
    撮像された前記指示体の位置の差をそれぞれ算出し、算出した複数の前記指示体の位置の
    差の平均値を第1平均値として算出し、
    前記第2算出ステップは、順次入力される複数の第2撮像画像と前記第2基準画像とに
    撮像された前記指示体の位置の差をそれぞれ算出し、算出した複数の前記指示体の位置の
    差の平均値を第2平均値として算出し、
    前記第2判定ステップは、前記第1平均値と前記第2平均値との差がしきい値よりも大
    きい場合に、前記指示体が前記操作面から離れたと判定する、請求項1記載の操作検出方
    法。
  3. 前記第1判定ステップは、第1撮像画像に撮像された前記指示体の画像と、第2撮像画
    像に撮像された前記指示体の画像とに生じる視差に基づき、前記指示体の前記操作面との
    接触を判定する、請求項1又は2記載の操作検出方法。
  4. 前記第1判定ステップは、前記第1基準画像及び前記第2基準画像に撮像された前記指
    示体の画像と、前記第1基準画像及び前記第2基準画像よりも前に撮像された第1撮像画
    像及び第2撮像画像に撮像された前記指示体の画像とを比較して、前記指示体が静止した
    状態にあるか否かを判定する、請求項1から3のいずれか一項に記載の操作検出方法。
  5. 異なる撮像視点から操作面を撮像した第1撮像画像及び第2撮像画像を、前記操作面に
    キャリブレーションされた画像に変換する変換部と、
    変換された前記第1撮像画像と前記第2撮像画像とに撮像された指示体の画像に基づい
    て、前記指示体が前記操作面に接触し、静止した状態にあるか否かを判定する第1判定部
    と、
    前記操作面に接触し、静止した状態にあると判定したときの第1撮像画像を第1基準画
    像として選択し、選択した前記第1基準画像と第1撮像画像とに撮像された前記指示体の
    位置の差を算出する第1算出部と、
    前記操作面に接触し、静止した状態にあると判定したときの第2撮像画像を第2基準画
    像として選択し、選択した前記第2基準画像と第2撮像画像とに撮像された前記指示体の
    位置の差を算出する第2算出部と、
    前記第1算出部により算出した前記位置の差と、前記第2算出部により算出した前記位
    置の差とに基づいて、前記指示体が前記操作面から離れたか否かを判定する第2判定部と

    を備える、操作検出装置。
  6. 撮像視点が異なる第1撮像部及び第2撮像部を備える撮像装置と、
    前記第1撮像部により操作面を撮像した第1撮像画像、及び第2撮像部により前記操作
    面を撮像した第2撮像画像を、前記操作面にキャリブレーションされた画像に変換する変
    換部と、
    変換された前記第1撮像画像と前記第2撮像画像とに撮像された指示体の画像に基づい
    て、前記指示体が前記操作面に接触し、静止した状態にあるか否かを判定する第1判定部
    と、
    前記操作面に接触し、静止した状態にあると判定したときの第1撮像画像を第1基準画
    像として選択し、選択した前記第1基準画像と第1撮像画像とに撮像された前記指示体の
    位置の差を算出する第1算出部と、
    前記操作面に接触し、静止した状態にあると判定したときの第2撮像画像を第2基準画
    像として選択し、選択した前記第2基準画像と第2撮像画像とに撮像された前記指示体の
    位置の差を算出する第2算出部と、
    前記第1算出部により算出した前記位置の差と、前記第2算出部により算出した前記位
    置の差とに基づいて、前記指示体が前記操作面から離れたか否かを判定する第2判定部と

    前記第1判定部及び前記第2判定部の判定結果に基づいて、前記操作面に対する前記指
    示体の操作を検出する検出部と、
    前記検出部により検出された前記指示体の操作に対応した画像を前記操作面に表示させ
    る表示部と、を備える表示装置と、
    を備える表示システム。
JP2020024062A 2020-02-17 2020-02-17 操作検出方法、操作検出装置及び表示システム Pending JP2021128661A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020024062A JP2021128661A (ja) 2020-02-17 2020-02-17 操作検出方法、操作検出装置及び表示システム
US17/177,297 US11327608B2 (en) 2020-02-17 2021-02-17 Two camera touch operation detection method, device, and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020024062A JP2021128661A (ja) 2020-02-17 2020-02-17 操作検出方法、操作検出装置及び表示システム

Publications (1)

Publication Number Publication Date
JP2021128661A true JP2021128661A (ja) 2021-09-02

Family

ID=77488758

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020024062A Pending JP2021128661A (ja) 2020-02-17 2020-02-17 操作検出方法、操作検出装置及び表示システム

Country Status (2)

Country Link
US (1) US11327608B2 (ja)
JP (1) JP2021128661A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022136178A (ja) * 2021-03-03 2022-09-15 株式会社三洋物産 遊技機
JP2022141901A (ja) * 2021-02-22 2022-09-29 株式会社三洋物産 遊技機

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001222375A (ja) 2000-02-08 2001-08-17 Seiko Epson Corp 指示位置検出システムおよび方法、プレゼンテーションシステム並びに情報記憶媒体
JP2003296026A (ja) 2002-04-02 2003-10-17 Sanee Denki Kk タッチパネルへのマウス機能割り当て方法及び装置
US8589824B2 (en) * 2006-07-13 2013-11-19 Northrop Grumman Systems Corporation Gesture recognition interface system
US9696808B2 (en) * 2006-07-13 2017-07-04 Northrop Grumman Systems Corporation Hand-gesture recognition method
JP2010072977A (ja) 2008-09-19 2010-04-02 Sony Corp 画像表示装置および位置検出方法
JP2012048393A (ja) 2010-08-25 2012-03-08 Canon Inc 情報処理装置およびその動作方法
US9134814B2 (en) 2012-04-05 2015-09-15 Seiko Epson Corporation Input device, display system and input method
JP6273671B2 (ja) 2013-01-22 2018-02-07 セイコーエプソン株式会社 プロジェクター、表示システム、及びプロジェクターの制御方法
JP5950845B2 (ja) 2013-02-07 2016-07-13 三菱電機株式会社 入力装置、情報処理方法、及び情報処理プログラム
JP6201379B2 (ja) 2013-04-02 2017-09-27 富士通株式会社 位置算出システム、位置算出プログラム、および、位置算出方法
JP6417702B2 (ja) * 2014-05-01 2018-11-07 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP6487642B2 (ja) 2014-07-01 2019-03-20 国立大学法人 筑波大学 手指形状の検出方法、そのプログラム、そのプログラムの記憶媒体、及び、手指の形状を検出するシステム。
JP6528964B2 (ja) 2015-05-25 2019-06-12 株式会社リコー 入力操作検出装置、画像表示装置、プロジェクタ装置、プロジェクタシステム、及び入力操作検出方法
JP2017219942A (ja) 2016-06-06 2017-12-14 株式会社リコー 接触検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、プロジェクタシステム、接触検出方法、プログラム及び記憶媒体。

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022141901A (ja) * 2021-02-22 2022-09-29 株式会社三洋物産 遊技機
JP2022136178A (ja) * 2021-03-03 2022-09-15 株式会社三洋物産 遊技機

Also Published As

Publication number Publication date
US11327608B2 (en) 2022-05-10
US20210294456A1 (en) 2021-09-23

Similar Documents

Publication Publication Date Title
JP2021128658A (ja) 位置検出方法、位置検出装置及び位置検出システム
CN113268170B (zh) 位置检测方法、位置检测装置以及位置检测系统
JP2021128660A (ja) 操作検出方法、操作検出装置及び表示システム
JP6642968B2 (ja) 情報処理装置、情報処理方法、プログラム
JP6075122B2 (ja) システム、画像投影装置、情報処理装置、情報処理方法およびプログラム
JP6340958B2 (ja) プロジェクタ装置、インタラクティブシステム、およびインタラクティブ制御方法
KR101457976B1 (ko) 입력 사용자 인터페이스 장치, 투영 장치, 커맨드 결정 방법 및 프로그램이 기록된 기록 매체
US20150098636A1 (en) Integrated tracking with fiducial-based modeling
JP2021128659A (ja) 位置検出方法、位置検出装置及び表示装置
JP2021128661A (ja) 操作検出方法、操作検出装置及び表示システム
US20150097935A1 (en) Integrated tracking with world modeling
JP2017117373A (ja) 操作装置とその制御方法、及びプログラム
WO2018150569A1 (ja) ジェスチャー認識装置、ジェスチャー認識方法、ジェスチャー認識装置を備えたプロジェクタおよび映像信号供給装置
US20160062406A1 (en) Information processing device, image projection apparatus, and information processing method
US20190302598A1 (en) Projection device, projection method, and projection control program
KR101920682B1 (ko) 길이측정 기능을 갖는 촬상장치
US10416814B2 (en) Information processing apparatus to display an image on a flat surface, method of controlling the same, and storage medium
JP2020160808A (ja) 位置検出方法、位置検出装置、及び、インタラクティブプロジェクター
JP6740614B2 (ja) 物体検出装置、及び物体検出装置を備えた画像表示装置
JP6632298B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2016139396A (ja) ユーザーインターフェイス装置、方法およびプログラム
JP6624861B2 (ja) 画像処理装置、制御方法およびプログラム
WO2023042604A1 (ja) 寸法計測装置、寸法計測方法及びプログラム
JP2021193500A (ja) 位置検出方法、位置検出装置及びプロジェクター
JP2024002121A (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
RD07 Notification of extinguishment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7427

Effective date: 20200817

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210914

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20211101