JP2017027311A - 情報処理装置、その制御方法、プログラム、および記憶媒体 - Google Patents

情報処理装置、その制御方法、プログラム、および記憶媒体 Download PDF

Info

Publication number
JP2017027311A
JP2017027311A JP2015144405A JP2015144405A JP2017027311A JP 2017027311 A JP2017027311 A JP 2017027311A JP 2015144405 A JP2015144405 A JP 2015144405A JP 2015144405 A JP2015144405 A JP 2015144405A JP 2017027311 A JP2017027311 A JP 2017027311A
Authority
JP
Japan
Prior art keywords
image
coordinate system
information
position information
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015144405A
Other languages
English (en)
Other versions
JP6555958B2 (ja
JP2017027311A5 (ja
Inventor
久保山 英生
Hideo Kuboyama
英生 久保山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015144405A priority Critical patent/JP6555958B2/ja
Publication of JP2017027311A publication Critical patent/JP2017027311A/ja
Publication of JP2017027311A5 publication Critical patent/JP2017027311A5/ja
Application granted granted Critical
Publication of JP6555958B2 publication Critical patent/JP6555958B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 背景の条件の異なる複数の領域を含む空間を撮像した画像上で、物体の認識を精度よく行うことを目的とする。【解決手段】 本発明の情報処理装置は、座標系が定義された空間を撮像した画像を取得し、前記空間に定義された座標系における位置情報を、前記画像内に定義される座標系における位置情報に変換し、前記空間に定義された座標系における位置情報を用いて表された、前記空間に含まれる所定の操作面の少なくとも一部に設定される操作領域の情報を取得し、前記操作領域取得手段によって取得された情報を前記変換手段が変換した結果として得られる位置情報を使って、前記画像のうち、前記操作領域の境界の周囲の画素群に含まれる各画素を探索し、前記各画素に前記操作面が被写体として撮像されているかに基づいて、前記画像内に定義される座標系での前記操作領域の情報を決定する。【選択図】 図2

Description

本発明は、撮像された画像に基づいて操作者の操作を認識する技術に関する。
可視光カメラや赤外線カメラ、又は距離画像センサ等によって得られた画像から、ユーザの手など所定の物体が写る領域を抽出し、その動きや位置に応じて空間ジェスチャによるUI(ユーザインターフェース)操作を認識する技術が広まりつつある。特に、テーブルのような操作面に画像やUIを投影し、その画像やUIを触れて操作するテーブルトップインタフェースにも、タッチパネルではなく画像に基づくジェスチャ認識技術が使用され始めている。
特許文献1では、手が存在する空間を撮像した映像から所定の時間間隔毎で取得した2フレーム分の画像間の差分に基づいて検出した手の形状をトラッキングして、ジェスチャ操作を認識することが開示されている。このようなジェスチャ認識技術には、実空間の三次元位置座標と、空間を撮像した画像内の位置情報との対応関係を定義するキャリブレーションが重要となる。
特許文献2では、実空間に定義した世界座標と、カメラが撮影した画像内に定義される画像座標との対応関係に基づいて、カメラの最適なパラメータを定める場合に、対応関係の誤りを検出してユーザに提示することが開示される。
特開2013−257686号公報 特開2006−67272号公報
現実的には、ハードウェアの設置環境などによって、実空間での三次元位置を示す座標(世界座標)と撮像画像内に定義される座標との間の座標変換には変換誤差が生じる。撮像部の撮像範囲よりもテーブル等の操作面が小さい場合など、操作面の境界部分が画像の中に写り込む場合、座標の変換誤差によって操作面の境界にずれが生じ得る。その結果、境界付近での操作体の検出が安定的に行えなかったり、操作体による操作面のタッチを誤検出したりする可能性があった。
本発明は、上記課題を考慮したものであり、背景の条件の異なる複数の領域を含む空間内の物体を、撮像画像を用いての認識する処理の精度を向上させることを目的とする。
上記目的を達するために、本発明の情報処理装置は、座標系が定義された空間を撮像した画像を取得する画像取得手段と、前記空間に定義された座標系における位置情報を、前記画像取得手段によって取得される画像内に定義される座標系における位置情報に変換する変換手段と、前記空間に定義された座標系における位置情報を用いて表された、前記空間に含まれる所定の操作面の少なくとも一部に設定される操作領域の情報を取得する操作領域取得手段と、前記操作領域取得手段によって取得された情報を前記変換手段が変換した結果として得られる位置情報を使って、前記画像取得手段によって取得された画像のうち前記操作領域の境界の周囲の画素群に含まれる各画素を探索し、前記各画素に前記操作面が被写体として撮像されているかに基づいて、前記画像内に定義される座標系での前記操作領域の情報を決定する操作領域決定手段と、を備える。
本発明によれば、背景の条件の異なる複数の領域を含む空間内の物体を、撮像画像を用いての認識する処理の精度が向上する。
情報処理装置100を利用するシステムの一例を表す図。 情報処理装置のハードウェア構成、及び機能構成の一例を表すブロック図。 操作領域決定処理の流れの一例を表すフローチャート。 情報処理装置100が取得する操作領域データの一例を表す図。 操作面と操作領域が一致する場合の補正処理の様子を表す図。 操作面の一部の距離値が検出されない場合の補正処理の様子を表す図。 操作面と操作領域が一致しない場合の補正処理の様子を表す図。 操作検出処理の流れの一例を表すフローチャート。 補正後に検出される移動領域の一例を表す図。 操作面の高さが位置により異なる場合に取得される操作領域データの一例を表す図。
<第1の実施形態>
まず、第1の実施形態として、テーブルトップインタフェースシステムのテーブル面に投影されたアイテムに対し操作者が行うタッチ操作を認識する処理の例を説明する。
図1(a)は、本実施形態に係る情報処理装置100を設置したテーブルトップインタフェースシステムの外観の一例である。操作面101は、テーブルトップインタフェースのテーブル部分であり、操作者は、操作面101をタッチすることでタッチ操作を入力することが可能である。本実施形態では、操作面101の上方に、操作面を見下ろすようにして距離画像センサ102が設置される。距離画像とは、各画素の値に、当該距離画像を撮像する撮像手段の基準位置(例えばレンズ中心など)から、当該画素に撮像された被写体表面までの距離Dに対応する情報が反映された画像である。各画素値の大きさが、撮像手段から見た深さに相当することから、距離画像センサを深度センサ(デプスセンサ)と呼ぶこともある。本実施形態において、距離画像センサ102が撮像する距離画像の画素値には、距離画像センサ102から、操作面101あるいはその上方に存在する物体表面までの距離Dの大きさが反映される。撮像された距離画像は、情報処理装置100に入力画像として入力される。情報処理装置100は、入力画像を解析することで操作者の手105の三次元位置を取得し、入力される操作を認識する。従って操作者は、操作空間(操作面101とその周囲を含み、距離画像センサ102に撮像可能な空間)のうち、距離画像センサ102によって撮像可能な範囲において、手などの所定の物体を動かすことにより空間ジェスチャ操作を入力することが可能である。本実施形態では、赤外光の反射パターン(または反射時間)によって距離情報を取得する方式(Time-of-Flight方式)のセンサを利用する。ただし、例えばステレオカメラシステムや赤外光発光素子と赤外カメラを設置することで入力画像を得ることも可能である。
また本実施形態では、可視光カメラ103が上方から操作面101を見下ろすようにして設置される。情報処理装置100は、可視光カメラ103を制御して、操作面101に載置された物体を撮像してその読み取り画像を得る書画カメラとして機能することができる。情報処理装置100は、可視光カメラ103によって得られる可視光画像や、距離画像センサ102によって得られる距離画像に基づいて、操作空間に存在する物体を検出し、さらに識別する。物体には、例えば、操作者の手、紙媒体や本などのドキュメントやその他の立体物を含む。ただし、図1(a)に例示するシステムの場合は、距離画像センサ102と可視光カメラ103の画角には、テーブル周囲に存在する操作者の頭部は含まれない。そのため、人が手を操作空間に挿入している状態において撮像された入力画像では、画像端部がユーザの腕(肩から先の部分)の何処か一部と交差する。
プロジェクタ104は、操作面101の上面に画像の投影を行う。上述したように、本実施形態では、手105の検出および操作の認識には、距離画像センサ102で取得した距離画像を用いる。距離画像を用いることで、プロジェクタ104の投影光の影響で操作者の手の色が変化しても影響を受けにくいという利点がある。本システムの表示装置は、プロジェクタ104に替えて、操作面101を液晶ディスプレイとするなどで構成することもできる。その場合、可視光画像からの肌色領域を検出するなどして画像から人の手を検出する方式を用いても、投影光の影響は受けずに手の検出が可能である。可視光画像から移動領域を検出する場合、可視光カメラ103を入力画像の取得手段として兼用してもよい。
なお、操作面101を上方から見た画像が得られる構成であれば、必ずしも距離画像センサ102及び可視光カメラ103自体が上方に設置されている必要はない。例えばミラーを用いて反射光を撮像するように構成しても構わない。同様にプロジェクタ104も、図1(a)の例では、斜め上方から見下ろすように操作面101上への投影を行う。しかしながら、図示されたものとは異なる方向に向けて投影された投影光を、ミラーなどを利用して操作面101に導いてもよい。本実施形態を、操作面101が鉛直方向に沿って設置されたシステムで利用される距離画像センサやプロジェクタに適用する場合でも、同様にミラーを含む光学系を利用可能である。
本実施形態では、操作空間(操作面101上の三次元空間)に図1に示すX、Y、Z軸を定義し、位置情報を扱う。図1(a)の例では、点106を座標軸の原点とする。ここでは一例として、テーブルの上面に平行な二次元がXY平面、テーブル上面に直交し上方に伸びる方向をZ軸の正方向としている。本実施形態では、Z軸方向は、世界座標系での高さ方向に相当する。しかしながら本実施形態は、ホワイトボードや壁面など、水平ではない面を操作面101とするシステムにも適用可能である。その場合、Z軸方向の値は必ずしも高さを表すものではないが、少なくとも操作面と交差する方向の座標軸に相当する。
図1(b)は、距離画像センサ102によって撮像される距離画像と、画像内に定義される座標系を表す図である。画像108は、距離画像センサ102によって撮像される距離画像の内容の一例を表す。斜線で示す領域109は、距離画像108に写っている操作者の手105の像が撮像された領域である。以下では単に手領域109という。点110は、手領域109から指先位置として検出された画素であり、操作者が手指を使って指し示していると推定される位置の座標である。
本システムは、上方から照射された赤外光が被写体表面によって反射された反射光を撮像し、撮像された反射光の強度が、距離画像センサ102の光源から被写体表面までの距離Dの大きさを表すとみなす。そして距離画像の各画素には、距離画像センサ102から被写体までの距離に対応する値が、画素値dとして保持される。画素値dは、図1(a)に示した距離Dの大きさが反映されている。従って、本来は画素値dが大きい(反射光が強く、明るい)画素ほど距離画像センサ102に近い位置に、画素値dが小さい(反射光が弱く、暗い)画素ほど距離画像センサ102から遠い位置に、被写体が存在すること示す。ただし、図1(b)では簡略化し、被写体のエッジのみを明示する。本実施形態で取得される距離画像には、図1(b)に示すx軸及びy軸と、画素値dによって定義される座標系が定義される。例えば、指先位置110の入力画像内の位置座標が(x,y,d)で表される。一例として、入力画像の解像度は640[dot]×450[dot]とする。
本実施形態では、図1(a)で示す操作空間内での座標(X,Y,Z)を、図1(b)で示す入力画像内の画像内座標(x,y)に座標変換するため、入力画像中の被写体の位置を、実空間における位置情報と同等の情報として扱うことができる。ここで画像108のうち、台形領域111は、図1(a)の操作面101の表面が撮像された領域である。操作面101の全面を操作領域とするか、あるいは操作面101の一部を操作領域とするかは、システムで実行されるアプリケーションや操作面101の形状によって予め決定される。操作領域とは、操作面101上で、タッチ操作やジェスチャ操作を認識可能とする領域である。さらに本実施形態では、プロジェクタ104によって画像を投影することが可能な操作面101上の範囲が、操作領域に一致するとする。ただし、操作面101の全面が操作領域とされた場合であっても、操作領域のエッジを情報処理装置100が自動で検出することによって操作領域の境界位置を取得することは困難である場合が多い。距離画像センサ102の位置や角度の微妙なずれ等の原因により、検出結果に誤差が発生するためである。従って、本実施形態の情報処理装置100は、ユーザによる入力により、操作空間に定義された三次元位置情報を示す座標(X,Y,Z)を利用して定義された操作領域の境界情報を取得する。
本実施形態では、操作領域の境界を表す情報を、予め定められたパラメータを使うことで、操作空間内に定義された三次元位置情報から、操作空間を撮像した画像内の画素の位置を表す位置情報に変換した後、変換誤差を特定する。具体的には、変換結果として得られた画像内の画素の位置を表す位置情報によって、操作領域の境界付近であると示される画素を、実際に撮像された画像内から特定し、その画素に、実際に操作面101が撮像されているかを判定する。このような判定を、境界を囲む画素群の全体に対して行い、実際に操作面101が撮像されていると判定された画素を、操作領域の内部に属する画素であるとみなす。その結果として、操作面101が写っていると判定された画素群に相当する部分を、操作領域内と定義しなおす。さらに、定義情報の変換結果として得ていた操作領域の境界情報と、実際に撮像した画像から検出した操作面の境界情報との誤差(ずれの方向および量)を用いて、その後の変換処理について補正を加える。
図2(a)は、本実施形態に係る情報処理装置100を含むテーブルトップインタフェースのハードウェア構成図である。中央処理ユニット(CPU)200は、RAM202をワークメモリとして、ROM201や記憶装置203に格納されたOSやプログラムを実行して、各種処理の演算や論理判断などを行い、システムバス204に接続された各構成を制御する。記憶装置203は、ハードディスクドライブや各種インタフェースによって接続された外部記憶装置などであり、実施形態の操作認識処理にかかるプログラムや各種データを記憶する。距離画像センサ102は、CPU200の制御に従い、操作面101上の空間の距離画像を撮像し、撮影した距離画像をシステムバス204に出力する。本実施形態では、距離画像の取得方法として、環境光やテーブル面の表示の影響が小さい赤外パターン投影方式を基に説明するが、用途に応じて視差方式や赤外光の反射時間を利用する方式などを利用することも可能である。プロジェクタ104は、CPU200の制御に従い、テーブルに操作対象となる画像アイテムを投影表示する。
なお上述したシステムでは、可視光カメラ103、距離画像センサ102、プロジェクタ104はそれぞれ情報処理装置100に入出力用のインタフェースを介して接続された外部装置であり、情報処理装置100と協働して情報処理システムを構成する。ただし、これらのデバイスは、情報処理装置100に一体化されていても構わない。
図2(b)は、情報処理装置100のソフトウェアの構成を示すブロック図の一例である。これらの各機能部は、CPU200が、ROM201に格納されたプログラムをRAM202に展開し、後述する各フローチャートに従った処理を実行することで実現されている。そして、各処理の実行結果をRAM202に保持する。また例えば、CPU200を用いたソフトウェア処理の代替としてハードウェアを構成する場合には、ここで説明する各機能部の処理に対応させた演算部や回路を構成すればよい。
画像取得部210は、距離画像センサ102によって撮像された距離画像を、入力画像として一定時間毎に取得し、RAM202に随時保持する。なお画像取得部210が取得し、各機能部とやりとりする対象は、実際には画像データに対応する信号であるが、本明細書では単に「距離画像を取得する」あるいは「入力画像を取得する」として説明する。
移動領域検出部211は、距離画像取得部210によって取得された入力画像の各画素について、閾値判定やノイズ低減処理を施し、距離画像から1以上移動領域を抽出する。本実施形態の場合は距離画像の画素値によって、背景である操作面101よりも高い位置に存在することが示される被写体が写る領域で、かつ、画像端に接している領域を手領域として抽出する。ただし、このような背景差分法に限らず、フレーム間差分等の方法でも、移動領域を検出することもできる。また、可視光カメラ103を入力画像の取得手段として兼用し、可視光画像から肌色領域を探索することで移動領域を検出することも可能である。操作検出部212は、周期的に取得される入力画像から、移動領域検出部211によって検出される移動領域の位置、形状の変化に基づいて、情報処理装置100に入力される操作を認識する。
操作領域取得部213は、操作空間に定義された三次元座標系を利用して定義された操作領域の情報を取得する。本実施形態では、システムの設置時のユーザ入力によって操作領域の情報が取得されるとする。ただし、操作領域の情報は、外部装置や記憶装置に記憶された履歴情報や外部入力によって、操作領域の境界情報を取得しても構わない。座標変換部214は、操作空間の三次元座標系における座標と、入力画像内に定義される画像座標系での座標情報に変換する。また逆に、入力画像内に定義される画像座標系での座標情報を、操作空間の三次元座標系における座標に変換するという相互の変換が可能である。本実施形態の座標変換部214は、操作領域取得部213によって取得された操作領域を表す座標情報を、入力画像内の位置を表す座標情報に変換することで、画像内での操作領域の位置情報を得る。また、画像取得部210によって取得された入力画像の内容から検出される位置情報を、操作空間に定義される三次元座標に変換することで、操作物体の位置などの位置情報を得ることができる。例えば、入力画像から検出されるユーザの指先位置の位置情報を、操作空間内の三次元位置情報に変換した結果を取得する。また、移動領域が含まれない入力画像から得られる位置情報を変換することで、操作面101の境界情報の実測値を得る。この変換についての詳細は後述する。
操作領域決定部215は、画像取得部210によって取得された入力画像中での操作領域の境界周辺に操作面101が被写体として写っているかを判定する。その際、入力画像中での操作領域の境界周辺を探索するために、操作領域取得部213が取得した操作領域の情報を、座標変換部214が変換した結果として得られた画像座標系での操作領域の情報を用いる。操作領域決定部215は、まず変換部214による変換結果から入力画像中で操作領域の周囲にあたる画素群を特定する。そして、当該画素群の各画素の、画像中に定義された座標系での位置情報を変換部214により変換した結果から、操作空間に定義された座標系での高さ情報(Z座標)と、操作面101の高さを表すZ座標の差分が小さいかを判定する。操作面101の高さとの差が基準値(例えば所定の閾値)より小さいZ座標が得られる画素には、操作面101が被写体として写っていると判定されることになる。操作領域決定部215は、入力画像中の、操作面101が写っていると判定された画素は操作領域の内部であって、操作面101が写っていると判定されない画素は操作領域の外部であるとして、操作領域の境界を定義する情報を決定する。決定した操作領域の情報は、RAM202に保持され、操作領域内での操作体による操作を認識する処理で参照される。
補正部216は、操作領域決定部215による、画素毎の判定の結果に基づいて、変換部214の変換処理に生じている誤差を補正する。補正部216は、操作領域決定部215によって操作面101が被写体として写っていると判定された画素と、操作面101が被写体として写っていると判定されない画素との境界を、操作領域の境界として決定する。ユーザ入力によって入力された位置情報の変換結果との差分が、変換誤差として特定される。例えば、誤差によって座標のずれが生じている方向やその量を特定する。本実施形態では、補正部216は、操作検出部212による操作の認識の根拠となる位置情報に、誤差に基づく補正を加える。なお、本実施形態では、座標変換部214の変換結果として得られる操作領域の位置情報をシフトさせることで補正を加えるが、変換部214に対して、パラメータを調整させることによって補正を行うとしてもよい。
出力制御部217は、ROM201や記憶装置203に記憶された情報を用いて、本実施形態の表示部であるプロジェクタ104によってテーブル101上に投影させる画像を生成し、出力する。例えば、マルチタッチ操作の認識結果に基づいて、表示中の画像の少なくとも一部に対して、拡大/縮小、回転などの変形を施し、表示部に出力させる。また例えば、操作領域決定部215によって決定された操作領域に合わせて、プロジェクタ104による投影が行われる範囲を変更してもよい。出力された画像は、プロジェクタ104によって、操作面であるテーブル101上に投影される。
図3のフローチャートは、本実施形態で実行される、操作領域決定処理の流れを表す。図3のフローチャートの処理は、情報処理装置100の設置時に、キャリブレーションの一部として実行される。また、情報処理装置100の起動時に、操作を検出する処理の前段階として、図3のフローチャートの処理が実行されてもよい。
まずステップS301において、操作領域取得部213が、実空間に定義された座標系での操作領域の情報を取得する。操作領域の情報は、操作領域の境界を定義する位置情報を含む。ここで、図4を参照して、操作領域取得部213が取得する操作領域データのフォーマットの一例を説明する。図4(a)は操作領域データである。図4(b)は、図4(a)の操作領域データの意味を、操作空間を上方向から見下ろした状態に相当するXY平面に表したものである。図4(a)において、401は、操作領域の大きさ(size_X,size_Y)である。この場合size_X及びsize_Yの値はそれぞれ操作領域の縦横の幅に相当する。402は、操作領域の基準点(図4(b)では操作領域の左上の点)の、原点106からのXYZ軸に沿ったシフト量(shift_X,shift_Y,shift_Z)である。特に、shift_Zは操作面の三次元位置座標の原点106からの相対的高さを表す。図3(a)の例は、操作面の高さは原点の高さと一致している。403は、操作領域の大きさ(size_X,size_Y)内の操作領域の形状を表している。操作領域の形状403は、(size_X,size_Y)の行列で表現しており、値0は、その点が操作領域外に相当することを、値1はその点が操作領域内に含まれることを表す。
図3のフローチャートの説明に戻る。ステップS302では座標変換部214が、ステップS301で取得された、三次元位置座標系で表された操作領域の情報を、距離画像センサ102が撮像する入力画像内の座標系(以下、単に画像座標系という)に変換する。三次元位置座標系と画像座標系の変換式は式(1)で表される。
Figure 2017027311
ここで、dは入力画像の各画素であって、距離Dに対応する値である。r00〜r22、t0〜t2、fx、fy、cx、cyはセンサ設置時にキャリブレーションによって予め求めるパラメータである。キャリブレーションで求めるパラメータは、操作空間に定義された三次元位置情報を表す座標(X,Y、Z)と、画像座標系の座標(x,y)の対応関係が取れた既知の点がパラメータ数以上あれば、最小二乗法などで値を予め計算しておくことができる。座標変換部214は、これらのパラメータを用いて、式(1)により三次元位置座標系で入力された操作領域の各点を距離画像センサの画像座標系に変換する。
図4(c)に、座標変換前後の操作領域を示す。404は、操作領域データで定義される三次元位置座標系の操作領域である。405は、座標変換部214によって、式(1)を利用して変換された、画像座標系の操作領域である。領域205は、全体の四角が距離画像で映される範囲であって、このうち白色の領域が距離画像のなかで設定される操作領域となる。
ステップS303では、画像取得部210が、入力画像となる距離画像を取得する。入力画像は、距離画像センサ102が、操作面101のうち少なくとも操作領域として定義された領域を含むような操作空間を撮影した画像である。次に、ステップS304において、操作領域決定部215が、画像取得部210によって取得した入力画像内で、ステップS302で座標変換部214によって画像座標系での位置情報に変換された操作領域405の境界の画素を探索する。ここで探索とは、操作領域405の境界周辺とみなされる領域内の画素を1つずつ処理対象として選択し、(x,y,d)の値を取得することをいう。
ステップS305では、操作領域決定部215によって、処理対象として選択中の画素に、操作面101が被写体として写っているとみなされるかが判定される。本実施形態では、操作領域決定部215は、まず、座標変換部214から、処理対象としている画素の画像座標系での位置情報を、操作空間の三次元座標系での位置情報に変換する処理を実行する。そして、操作空間での三次元位置情報に変換できないか、あるいは、変換結果が定義としてステップS301で得た情報と異なるかを判定する。この判定が、画素値から変換された高さが、高さshift_Zとの差が小さい値であるかを判定することに相当する。なお、三次元位置情報に変換できない場合には、距離画像に立体物が撮像されている場合に、そのエッジ付近で距離情報がうまく取得されない場合がある。なお、Z軸が高さに相当しない場合でも、操作面に交差する座標軸での座標値に基づいて、同様の判定を行えばよい。ステップS305においてYesであれば、ステップS306へ進み、操作領域決定部215が、処理対象として選択中の画素は操作領域外である、すなわち操作領域には含まれないと決定する。ステップS305においてNoであればステップS307へ進み、操作領域決定部215が、処理対象として選択中の画素は操作領域内であると決定する。すなわち、その画素は操作領域に含まれていると決定する。そしてステップS308では、操作領域決定部215が、操作領域の境界周辺とみなされる領域内の全画素を探索したか否かを判定する。全画素の探索が終了するまでステップS304からステップS308の処理が繰り返される。ステップS308でYesと判定される場合、ステップS309に進む。
ステップS309では、操作領域決定部215が、入力画像に定義された画像座標系において、画像中の操作領域の境界を決定する。すなわち、ステップS307で操作領域内と決定した画素と、ステップS306で操作領域外と決定した画素との境界を、操作領域の境界として決定し、その情報を保持する。このとき、そしてステップS302で変換された情報との差分が、変換誤差として保持される。ステップS310では、移動領域検出部211が、入力画像のうち操作領域内と決定した領域内の部分を、移動領域を検出するための背景画像として取得する。背景画像は、操作空間に操作体が含まれない状態で距離画像センサ102によって撮像された画像から抽出される。以上が、本実施形態における操作領域決定処理である。
ここで、図5を用いてステップS304〜ステップS309の処理が実行される前後における、画像座標系での操作領域の違いを説明する。図5は、操作面101と操作領域が一致する場合の具体例を表す。図5(a)は、ステップS303において画像取得部210が取得する入力画像である。また、図5(a)には座標変換部214が座標変換した後の、画像座標系の操作領域405が示されている。ここで、501は距離画像中に実際に操作面101、すなわち操作領域が存在する領域である。座標(x,y)と画素値dから、操作空間の三次元座標系における高さZを計算すると、shift_Z(シフト量402に記載された、操作領域の定義に相当する情報)との差が小さい値になる。一方、502は操作面101が存在しない領域であり、高さZはshift_Zとの差が小さい値とならない。操作領域決定部215はステップS304において境界周辺の領域を探索する。
図5(b)は境界周辺とみなされる領域を説明する図である。503で示される、破線に挟まれた範囲内が、入力画像のうち境界周辺とみなされる領域である。入力画像のうち境界周辺とみなされる領域は、操作領域405の内側および外側の両方を含む。操作領域決定部215は、境界周辺とみなされる領域503内の全画素について、ステップS305で三次元位置を取得し、高さZが取得できるか、あるいは、高さZがshift_Zとの差が小さい値となるか否かを計算する。その結果、高さがshift_Zから大きく異なる場合にはステップS306で操作領域外として決定する。shift_Zとの差が小さい場合はステップS307において操作領域内として設定する。図5(c)は、変換誤差を考慮して決定した後の操作領域の様子を示す。504は決定された操作領域であり、操作面がある領域と距離画像中で一致する操作領域を取得できる。
図6は、操作領域を決定する別の例であって、入力画像中に距離画像が取得されていない画素部分が存在する場合を示す。図6(a)は、画像座標系の操作領域が示された入力画像である。ここで、601は、入力画像において距離情報が取得されなかった領域である。距離画像センサ102の特性により、特に立体物の境界周辺で601のように距離情報を取得出来ない領域が現れることがある。本実施形態では、ステップS305において距離情報を取得出来ないと判定された場合、その画素は、操作領域外として決定される。これは、本領域ではステップS310において背景となる距離情報を取得出来ない場合、後段で実行される操作の認識処理において誤りを発生させる原因となるため、そのような誤認識を低減する目的である。図6(b)で示す603が、決定された操作領域である。距離情報を取得出来ない領域が、操作領域から除外されている。
図7は、操作領域が、操作面101の一部である場合の例である。アプリケーションによっては、このように、操作領域として操作面101の全域を必要としなかったり、あるいは距離画像センサ102の画角よりも操作面101が大きかったりする場合は、このような状況が発生する。図7の例であっても、ステップS301において、ユーザ入力によって操作領域データを取得する。なお、距離画像センサ102の画角の全体が操作面101に包含されているのであれば、入力画像に、操作面101が存在しない部分が写り込むことは無い。しかしながら、ステップS301の処理において、操作領域と操作面101の包含関係は不問である。従って、そのような場合でも、図5や図6の例と同様、ステップS301で取得した定義データに沿って処理が行われる。
図7(a)において、画像座標系で設定された操作領域405が距離画像中に示されている。図7(b)において、操作領域405の境界周辺とみなされる領域を701で示す。図7の例では、境界周辺とみなされる領域を、境界の外側に広げて設定してしまうと、操作面101のうち、想定していた操作領域以外の画素も、ステップS305の判定対象となり、操作領域内であるという判定結果が得られてしまう。従って、図7のような場合、境界周辺とみなされる領域は、操作領域の境界の内側にのみ設定する。操作領域が操作面101の一部のみであるか否かは、ステップS301において取得された操作領域の形状データ403において、画像内に操作領域の境界が存在するにも関わらず、入力画像の距離値にエッジが現れないことなどから検出可能である。この結果、操作領域の境界が設定されるのは、操作面101の外にも関わらず操作領域内と定義されてしまっている部分を、正しく操作領域外であると決定しなおす場合のみとなる。図7(c)において、702は、操作領域決定部215が境界周辺とみなされる領域701を探索して、決定した操作領域である。
以上説明したように本実施形態では、ユーザ入力によりキャリブレーションの一部として取得した「操作領域」の位置情報の変換結果に、実際に撮像された入力画像の画像情報中での「操作面」の写り方を使った修正を加えることで「操作領域」を決定する。ここで、操作面とはテーブルやホワイトボード、壁などの物理的な面であり、操作領域は操作面の表面の少なくとも一部であるという包含関係がある。操作面は物理面であるため、撮像画像の画素の情報を解析すればその存在の有無を判定することが可能であるので、操作面が存在する場所としない場所の境界が画像から検出できる。一方で、操作領域は操作面上で任意に設定可能であるので、撮像画像の画素だけでは、その境界を判断することは難しい。図1(a)に示したシステムにおいて、誤動作の原因の1つとなるのは、操作面101であるテーブルよりも外側が誤って操作領域であると設定されてしまうことである。そのような誤りがあった場合、例えば、ユーザがテーブルの縁に手を近づけただけで、手が操作領域をタッチしたと誤認識され、意図しない動作が行われてしまうことになる。従って、本実施形態では、このような問題を解決するため、画像情報から、確実に操作面101が存在しないと判断できる位置は、操作領域として設定される画素群から除外する。従って、変換誤差を考慮した修正が行われる前に取得した情報が示した操作領域と、変換誤差分を修正する処理後の操作領域が必ずしも同じ大きさであるとは限らない。
また、テーブルや壁のような所定の操作面を背景とする空間を撮像した画像に基づいて人の手指やスタイラスなどの操作体を検出する場合に安定した検出結果を得るためには、背景は静的で既知であることが望ましい。図1(a)に示したシステムの場合、撮像画像を使った操作体の検出では、背景に操作面101が存在する部分では、背景からの差分をとることで安定的な検出が行い易い。一方で、実際には操作面101が存在しない部分で、変換誤差が含まれる背景情報と、入力画像との差分を取ってしまうと、操作体の検出結果の精度が低下する恐れがある。従って、上述した本実施形態によって、実際に撮像された画像で操作面101が写っている画素と写っていない画素の境界を特定し、背景の条件が異なる領域毎に、移動領域の検出方法を切り替えることで、操作体の検出精度を向上させることができる。以下では、上述した前処理として操作領域決定処理が行われた後、このような切り替えを行った上で検出した移動領域に基づいて操作を認識する流れを説明する。
図8は、前処理として操作領域決定処理が行われた後、後段の処理として、操作を検出する操作検出処理の流れを表す。本実施形態では、距離画像センサ102から入力画像が所定の周期毎に入力される度に、図8(a)のフローチャートが繰り返される。所定の周期は、例えば30フレーム/1秒、15フレーム/1秒である。まずステップS801において、画像取得部210が、距離画像センサ102が撮像した距離画像を、入力画像として取得する。次にステップS802において、移動領域検出部211が、移動領域を検出する。ユーザの操作する手やペンなどの操作体が距離画像センサ102の画角に入ると、その操作体が写った部分が移動領域として検出される。
ここで、図8(b)は、ステップS802において移動領域検出部211が実行する、本実施形態の移動領域検出の処理の流れを表すフローチャートである。また、図9は、検出される移動領域と操作体である手の状態の関係を表す図である。ステップS811において、移動領域検出部211は、入力画像の画素を一つ順番にする。そしてステップS812において、その画素がステップS309で決定した操作領域内かを判定する。その画素がステップS309で決定した操作領域内の場合(ステップS309でYes)は、ステップS813において、入力画像と背景画像を使った背景差分によりその画素が移動領域か否かを判定する。対象画素がステップS309で決定した操作領域内ではない場合(ステップS309でNo)は、ステップS814に進む。ステップS814において移動領域検出部211は、操作空間に定義された三次元位置座標の絶対値を用いて移動領域を検出する。すなわち、入力画像の画素値を、操作空間に定義された三次元位置座標に変換して、操作面があるべき高さZよりも大きいZ座標が得られた画素を、移動領域とする。ステップS815において、本処理を入力画像の全ての画素で実行したかを判定し、Yesと判定されるまで処理を繰り返す。
図9(a)は、操作空間にユーザの手が挿入された状態で取得される入力画像の一例である。図9(b)は、移動領域検出部211が、ステップS310において取得した背景画像である。ただし、背景画像として利用されるのは、操作空間に操作体が存在しない状態で撮像された画像の中で、操作領域決定部215によって決定された境界情報で定義される操作領域の内部のみである。それ以外の部分では、背景に操作面101が存在しないため、距離情報の誤差の増加や、操作体以外の物体(ユーザの手以外の部位や他の人間等が)が写り込むことに起因するノイズを含む。従って、操作領域外と決定されている領域については背景画像を生成しない。この部分は図9(b)では黒色の塗りつぶしで示される。
移動領域検出部211は、図9(a)のうち操作領域内とされる部分では、ステップS813において図9(b)の背景画像との差分により、移動領域を検出する。一方、操作領域外とされる部分では、ステップS814において、各画素の画素値dを使って変換される、高さZの値に基づいて移動領域を検出する。具体的には、距離画像中の(x,y)および画素値dから、前述の式(1)に基づいて高さZを得る。この高さがshift_Z(操作面の高さ)+α(距離誤差に基づく固定値)よりも高い場合に、移動領域として検出する。このように、本実施形態では、操作領域外でも移動領域を検出する事が可能である。ただし、静的な背景との背景差分が利用できる部分に比較すると、移動領域の輪郭があいまいになる場合がある。しかしながら、本実施形態によって背景に操作面101が存在する領域の境界を再定義しない場合、実際には操作面101が存在しない(背景が安定しない)領域でも、背景差分で移動領域が検出される。そのため、移動領域の輪郭の検出誤差や操作の認識誤差がより発生し易い。従って、上記のように、背景の操作面101の有無に応じて、移動領域の検出方法を分ける本発明は、安定的に移動領域を検出可能とするために重要である。なお、操作領域外で検出された移動領域は、各種補正やスムージング処理を施した上で、操作領域内で検出された移動領域との統合を行っても構わない。図9(c)に、検出した移動領域を統合した結果を示す。901は、背景差分で検出した移動領域、902は三次元位置に基づいて検出した移動領域である。
図8(a)のフローチャートの説明に戻る。ステップS802において移動領域検出部211が移動領域を検出したら、ステップS803において、操作検出部212が、操作領域内で入力される操作を検出する。より具体的には、検出されている移動領域を追跡し、予め定義されたコマンドに対応する動きがなされた場合に、操作として検出する。情報処理装置100に入力可能な操作としては、操作面に対するタッチ操作や、空中で手を動かすジェスチャ操作などがある。予め定義されたコマンドに対応する動きとは、操作体の先端が操作面101にタッチして離れる“タップ操作”の動きなどである。なお操作体の先端の位置は、移動領域のうち、入力画像の画像端から最も遠い画素の位置としたり、移動領域の形状が手とみなされる場合はその形状から検出された指先位置として特定することができる。タップの他にも、指先などの操作体の先端の、操作空間の三次元位置座標系での位置やその軌跡が、コマンドして定義されたものに沿うか否かによって、操作の有無が検出される。例えば、タップ操作は、指先の高さZが操作面の高さshift_Zに十分近づいて、離れた時に検出される。ここで、タップした位置は、仮に、指先の三次元位置座標(X,Y,Z)が特定される。なお、タップを含むタッチ操作は、図4(b)に示した三次元位置座標系での操作領域の内側に、タッチ位置(X,Y)が含まれる場合にのみ、操作入力として認識されるとすれば、さらに誤認識を押さえることができる。
次に、ステップS804において、補正部216が、ステップS803で検出された操作に関する操作位置の座標を補正する。ここで、図3のフローチャートで説明した処理の中で、座標変換部214が式(1)を使って行う座標変換処理には、誤差があることが既に判明している。従って、ステップS309で特定されている誤差に応じて、移動領域の位置情報も補正される必要がある。従って本実施形態では、操作位置(例えばタップ操作で指定された位置)を認識し、応答する前の、ステップS804の段階で、入力画像から検出されている移動領域の、操作空間内での三次元位置に、誤差を考慮した補正を行う。例えば、画像座標系で設定された操作領域405と、補正された操作領域504との補正前後の操作領域の重心位置のx,y移動量を誤差として保持しておき、X座標とY座標を誤差の分シフトさせた値を補正後の操作位置の座標とする。補正部216は、誤差を考慮して補正された操作位置(例えばタップされた位置)を、出力制御部217など、操作に対する応答を出力する機能部に通知する。
なお、操作位置の補正方法は、上述した順序に沿ったものでなくてもよい。例えば、ステップS803の前に、補正を行っても良い。また、補正方法も上記に限らず、例えば、補正前後の操作領域のx,y方向の長さの変動を(X,Y)に乗じて補正しても良い。あるいは単に操作位置の(X、Y)が図4(b)で設定された三次元位置座標系での操作領域の外になる場合のみ、最も近い操作領域内の(X、Y)に補正しても構わない。また、補正された距離画像中の操作領域504を用いれば、(X、Y)だけでなく高さZも補正可能である。例えば、操作領域504における距離画像の各画素の高さZの平均を計算し、その値と予め設定されていた操作面高さshift_Zとの差をZに加えることで、高さ方向も補正する事が好ましい。
ステップS804の後、ステップS805において、出力制御部217が、操作検出部212が検出した操作および補正部216が補正した操作位置によって入力された操作に対を出力する。本実施形態では、プロジェクタ104に投影させる出力画像を更新する。またこの際、決定された操作領域に合わせてプロジェクタ104に投影させる出力画像の投影領域を移動させる。ステップS801からステップS805までの処理が、情報処理装置100が終了するまで繰り返す。例えば、終了指示が入力された場合や、所定時間以上の間、移動領域が検出されない場合に、情報処理装置100は終了する。
以上のように、本実施形態によれば、操作空間内に任意の操作領域が規定される場合に、操作空間を撮像した画像内の座標と実空間での三次元位置座標との変換において生じる誤差を、操作領域の境界付近で実測される情報に基づいて補正する。これによって、撮像画像から操作体が写る移動領域に係る位置を検出する際に生じる誤差を補正し、操作の誤認識を低減することができる。
<変形例>
第1の実施形態で例示した操作面101は、一定の高さの平面であった。ここで変形例1として、表面が曲面であったり、高さの異なる複数の平面で構成される操作面を有するシステムへの適用を可能とする例を説明する。図10は、操作面の高さが位置により異なる場合にステップS301で取得される、操作領域データの一例を表す図である。操作領域の大きさ401、シフト量402は第1の実施形態の図4で示したものと同じである。一方、操作領域の形状、高さを表す情報である1001は、第1の実施形態と異なり、単に操作領域か否かを表す0、1のフラグではない。このように、形状データに0、1以外の数値が含まれる場合、それらは、高さ方向のシフト量shift_Zからの高さの差分を表す値である。一方、数値ではなく同図で“n”で記されているフラグ場合、その位置が操作領域外であることを表す。図10(b)は、入力の距離画像に図10(a)の操作領域データを座標変換して重ねた図。1002が操作領域データに基づき画像座標系で設定される。
第1の実施形態では、ステップS305において操作領域決定部215は、境界周辺の各画素が高さshift_Zになるか否かに基づいて操作領域内として決定するか、操作領域外として決定するかを決定した。しかし上記実施形態では、参照すべき高さが(X,Y)座標の位置によって異なる。参照する高さの決定方法として、上記実施形態では、当該画素に対応する操作領域の形状・高さデータ1001を参照し、shift_Zに加算した値を得る。例えば、図10(b)の右側の境界付近の高さは(shift_Z+5=5)、左側の境界付近の高さは(shift_Z+10=10)となる。この高さに基づき、当該画素が操作領域内か操作領域外かを判定する。本変形例によれば、操作面が曲面や複数の平面で構成され、位置によって高さが異なる場合でも、操作面上に任意の操作領域が規定される場合であっても、実空間の三次元画像と操作面を撮像した画像内との間の座標変換の誤差を補正できる。
また、第1の実施形態では、操作領域決定部215がステップS305において、三次元位置が異なる事の判断基準として、図4(a)もしくは図10(a)の操作領域データに基づき注目画素で検出される高さが入力されたものと異なることを判定した。しかしステップS305の処理には、入力画像の画素情報を、操作空間の三次元位置座標に変換した値が利用されていれば、判断基準は異なるものであってもよい。例えば、注目画素近傍の高さZを探索し、近傍の高さが不連続となる画素を、操作領域の実際の境界位置として決定しても良い。
また、第1の実施形態では画像座標系における、境界位置の周辺とみなされる領域のみを、ステップS305の処理の対象とした。しかしながら、操作領域の全画素に対して処理を行ったとしても、同じ結果を得ることができる。いずれを処理対象とするかは、システムのリソースやアプリケーションの目的に応じて選択されればよい。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
210 画像取得部
211 移動領域検出部
212 操作検出部
213 操作領域取得部
214 座標変換部
215 操作領域決定部
216 補正部
217 出力制御部

Claims (12)

  1. 座標系が定義された空間を撮像した画像を取得する画像取得手段と、
    前記空間に定義された座標系における位置情報を、前記画像取得手段によって取得される画像内に定義される座標系における位置情報に変換する変換手段と、
    前記空間に定義された座標系における位置情報を用いて表された、前記空間に含まれる所定の操作面の少なくとも一部に設定される操作領域の情報を取得する操作領域取得手段と、
    前記操作領域取得手段によって取得された情報を前記変換手段が変換した結果として得られる位置情報を使って、前記画像取得手段によって取得された画像のうち前記操作領域の境界の周囲の画素群に含まれる各画素を探索し、前記各画素に前記操作面が被写体として撮像されているかに基づいて、前記画像内に定義される座標系での前記操作領域の情報を決定する操作領域決定手段と、
    を備えることを特徴とする情報処理装置。
  2. 前記操作領域決定手段は、前記画素群のうち、前記操作面が被写体として撮像されていると判定されない画素を、前記操作領域から除外することを特徴とする請求項1に記載の情報処理装置。
  3. 前記操作領域決定手段は、前記画素群のうち、前記操作面が被写体として撮像されていると判定された画素は、前記操作領域に含まれると決定することを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記変換手段は、更に、前記画像取得手段によって取得される画像内に定義される座標系における位置情報を、前記空間に定義された座標系における位置情報に変換することが可能であって、
    前記操作領域決定手段は、前記画素群に含まれる各画素の、前記画像内に定義された座標系における位置情報を、前記変換手段が前記空間に定義された座標系における位置情報に変換した結果に基づいて、前記各画素に前記操作面が被写体として撮像されているかを判定することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
  5. 前記操作領域決定手段は、前記画素群に含まれる各画素の、前記画像内に定義された座標系における位置情報を、前記変換手段が前記空間に定義された座標系における位置情報に変換した結果として得られる位置情報のうち、前記操作面に交差する方向の座標軸に沿った座標値の、前記操作面との差が基準より小さい場合に、画素に前記操作面が被写体として撮像されていると判定することを特徴とする請求項4に記載の情報処理装置。
  6. 更に、前記画像取得手段によって取得された画像のうち、前記操作領域決定手段によって決定された操作領域内から検出される操作体の動きに基づいて、前記情報処理装置に入力される操作を検出する操作検出手段を備えることを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
  7. 更に、前記操作領域取得手段によって取得された情報を前記変換手段が変換した結果として得られる前記画像内に定義された座標系における位置情報と、前記画像取得手段によって取得された画像のうち、前記操作領域決定手段によって前記操作領域として決定された領域の位置情報との差に基づいて、前記変換手段による変換の結果に補正を加える補正手段をさらに備えることを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。
  8. 更に、前記操作領域取得手段によって取得された情報を前記変換手段が変換した結果として得られる前記画像内に定義された座標系における位置情報と、前記画像取得手段によって取得された画像のうち、前記操作領域決定手段によって前記操作領域として決定された領域の位置情報との差に基づいて、前記変換手段による変換の結果に補正を加える補正手段をさらに備え、
    前記操作検出手段は、前記補正手段によって補正された前記操作体の位置に基づいて、前記操作を検出することを特徴とする請求項6に記載の情報処理装置。
  9. 前記空間に物体が挿入されていない状態で撮像された画像のうち、前記操作領域決定手段によって前記操作領域として決定された領域である背景画像と、前記空間に操作体が挿入された状態で撮像された画像との差分に基づいて、前記操作体が写る移動領域を検出する移動領域検出手段を更に備え、
    前記操作検出手段は、前記移動領域検出手段によって検出される移動領域に基づいて特定される操作位置の位置情報に基づいて、前記操作体による前記操作面へのタッチ操作を検出することを特徴とする請求項8に記載の情報処理装置。
  10. 情報処理装置の制御方法であって、
    画像取得手段により、座標系が定義された空間を撮像した画像を取得する画像取得工程と、
    変換手段により、前記空間に定義された座標系における位置情報を、前記画像取得工程において取得される画像内に定義される座標系における位置情報に変換する変換工程と、
    操作領域取得手段により、前記空間に定義された座標系における位置情報を用いて表された、前記空間に含まれる所定の操作面の少なくとも一部に設定される操作領域の情報を取得する操作領域取得工程と、
    操作領域決定手段により、前記操作領域取得手段によって取得された情報を前記変換工程での変換結果として得られる位置情報を使って、前記画像取得工程において取得された画像のうち、前記操作領域の境界の周囲の画素群に含まれる各画素を探索し、前記各画素に、前記操作面が被写体として撮像されているかに基づいて、前記画像内に定義される座標系での前記操作領域の情報を決定する操作領域決定工程と、
    を備えることを特徴とする情報処理装置の制御方法。
  11. コンピュータに読み込ませ実行させることによって、前記コンピュータを、
    座標系が定義された空間を撮像した画像を取得する画像取得手段と、
    前記空間に定義された座標系における位置情報を、前記画像取得手段によって取得される画像内に定義される座標系における位置情報に変換する変換手段と、
    前記空間に定義された座標系における位置情報を用いて表された、前記空間に含まれる所定の操作面の少なくとも一部に設定される操作領域の情報を取得する操作領域取得手段と、
    前記操作領域取得手段によって取得された情報を前記変換手段が変換した結果として得られる位置情報を使って、前記画像取得手段によって取得された画像のうち前記操作領域の境界の周囲の画素群に含まれる各画素を探索し、前記各画素に前記操作面が被写体として撮像されているかに基づいて、前記画像内に定義される座標系での前記操作領域の情報を決定する操作領域決定手段と、
    を備える情報処理装置として機能させるプログラム。
  12. 請求項11に記載されたプログラムを格納したことを特徴とするコンピュータが読み取り可能な記憶媒体。
JP2015144405A 2015-07-21 2015-07-21 情報処理装置、その制御方法、プログラム、および記憶媒体 Expired - Fee Related JP6555958B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015144405A JP6555958B2 (ja) 2015-07-21 2015-07-21 情報処理装置、その制御方法、プログラム、および記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015144405A JP6555958B2 (ja) 2015-07-21 2015-07-21 情報処理装置、その制御方法、プログラム、および記憶媒体

Publications (3)

Publication Number Publication Date
JP2017027311A true JP2017027311A (ja) 2017-02-02
JP2017027311A5 JP2017027311A5 (ja) 2018-08-23
JP6555958B2 JP6555958B2 (ja) 2019-08-07

Family

ID=57945960

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015144405A Expired - Fee Related JP6555958B2 (ja) 2015-07-21 2015-07-21 情報処理装置、その制御方法、プログラム、および記憶媒体

Country Status (1)

Country Link
JP (1) JP6555958B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018211659A1 (ja) * 2017-05-18 2018-11-22 マクセル株式会社 操作検出装置、及びそれを備えた映像表示装置、映像表示方法
CN115914594A (zh) * 2021-09-30 2023-04-04 精工爱普生株式会社 投影仪的控制方法以及投影仪

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004535610A (ja) * 2001-01-31 2004-11-25 ヒューレット・パッカード・カンパニー カメラビュー内の制御可能なディスプレイの前にある物体の位置の決定のための前景および背景画像データのロバストな分離のためのシステムおよび方法
JP2008152622A (ja) * 2006-12-19 2008-07-03 Mitsubishi Electric Corp ポインティング装置
JP2011253255A (ja) * 2010-05-31 2011-12-15 Canon Inc 情報処理装置およびその動作方法
JP2012113653A (ja) * 2010-11-26 2012-06-14 Canon Inc 制御装置、入力装置、入力判定方法、プログラム
JP2013083505A (ja) * 2011-10-07 2013-05-09 National Institute Of Information & Communication Technology 3次元座標位置推定装置、その方法、そのプログラムおよび3次元座標推定システム、ならびに、カメラ較正情報生成装置
JP2015026219A (ja) * 2013-07-25 2015-02-05 船井電機株式会社 電子機器
JP2015043154A (ja) * 2013-08-26 2015-03-05 キヤノン株式会社 情報処理装置とその制御方法、コンピュータプログラム、記憶媒体
JP2015212849A (ja) * 2014-05-01 2015-11-26 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004535610A (ja) * 2001-01-31 2004-11-25 ヒューレット・パッカード・カンパニー カメラビュー内の制御可能なディスプレイの前にある物体の位置の決定のための前景および背景画像データのロバストな分離のためのシステムおよび方法
JP2008152622A (ja) * 2006-12-19 2008-07-03 Mitsubishi Electric Corp ポインティング装置
JP2011253255A (ja) * 2010-05-31 2011-12-15 Canon Inc 情報処理装置およびその動作方法
JP2012113653A (ja) * 2010-11-26 2012-06-14 Canon Inc 制御装置、入力装置、入力判定方法、プログラム
JP2013083505A (ja) * 2011-10-07 2013-05-09 National Institute Of Information & Communication Technology 3次元座標位置推定装置、その方法、そのプログラムおよび3次元座標推定システム、ならびに、カメラ較正情報生成装置
JP2015026219A (ja) * 2013-07-25 2015-02-05 船井電機株式会社 電子機器
JP2015043154A (ja) * 2013-08-26 2015-03-05 キヤノン株式会社 情報処理装置とその制御方法、コンピュータプログラム、記憶媒体
JP2015212849A (ja) * 2014-05-01 2015-11-26 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018211659A1 (ja) * 2017-05-18 2018-11-22 マクセル株式会社 操作検出装置、及びそれを備えた映像表示装置、映像表示方法
CN115914594A (zh) * 2021-09-30 2023-04-04 精工爱普生株式会社 投影仪的控制方法以及投影仪

Also Published As

Publication number Publication date
JP6555958B2 (ja) 2019-08-07

Similar Documents

Publication Publication Date Title
JP6482196B2 (ja) 画像処理装置、その制御方法、プログラム、及び記憶媒体
US20120169671A1 (en) Multi-touch input apparatus and its interface method using data fusion of a single touch sensor pad and an imaging sensor
US9916043B2 (en) Information processing apparatus for recognizing user operation based on an image
US10642422B2 (en) Information processing apparatus, control method for the information processing apparatus, and storage medium
JP6711817B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
US10042426B2 (en) Information processing apparatus for detecting object from image, method for controlling the apparatus, and storage medium
US10254893B2 (en) Operating apparatus, control method therefor, and storage medium storing program
JP2015022624A (ja) 情報処理装置およびその制御方法、コンピュータプログラム、記憶媒体
JP6452369B2 (ja) 情報処理装置とその制御方法、プログラム、記憶媒体
JP6555958B2 (ja) 情報処理装置、その制御方法、プログラム、および記憶媒体
US10379678B2 (en) Information processing device, operation detection method, and storage medium that determine the position of an operation object in a three-dimensional space based on a histogram
JP2017084307A (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP2017219942A (ja) 接触検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、プロジェクタシステム、接触検出方法、プログラム及び記憶媒体。
JP6618301B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP6452658B2 (ja) 情報処理装置、およびその制御方法ならびにプログラム
JP2018063555A (ja) 情報処理装置、情報処理方法及びプログラム
JP2018055685A (ja) 情報処理装置、その制御方法、プログラム、および記憶媒体
JP6579866B2 (ja) 情報処理装置とその制御方法、プログラム、記憶媒体
JP6898021B2 (ja) 操作入力装置、操作入力方法、及びプログラム
TWI444875B (zh) 多點觸碰輸入裝置及其使用單點觸控感應板與影像感測器之資料融合之介面方法
JP6570376B2 (ja) 情報処理装置、その制御方法、プログラム、記憶媒体
JP2018181169A (ja) 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体
JP2017228216A (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP2012113653A (ja) 制御装置、入力装置、入力判定方法、プログラム
JP5530887B2 (ja) 電子ボードシステム、座標点補正装置、座標点補正方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180711

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190611

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190709

R151 Written notification of patent or utility model registration

Ref document number: 6555958

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees