JP2014186715A - 情報処理装置、情報処理方法 - Google Patents

情報処理装置、情報処理方法 Download PDF

Info

Publication number
JP2014186715A
JP2014186715A JP2013268089A JP2013268089A JP2014186715A JP 2014186715 A JP2014186715 A JP 2014186715A JP 2013268089 A JP2013268089 A JP 2013268089A JP 2013268089 A JP2013268089 A JP 2013268089A JP 2014186715 A JP2014186715 A JP 2014186715A
Authority
JP
Japan
Prior art keywords
operation object
information processing
image
processing apparatus
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013268089A
Other languages
English (en)
Inventor
Hideo Kuboyama
英生 久保山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013268089A priority Critical patent/JP2014186715A/ja
Priority to US14/178,386 priority patent/US9342189B2/en
Publication of JP2014186715A publication Critical patent/JP2014186715A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means

Abstract

【課題】 操作オブジェクトの3次元座標位置をより正確に求めるための技術を提供すること。
【解決手段】 撮像部が撮像した、該撮像部と操作オブジェクトとの間の距離情報を反映した撮像画像に基づいて、操作オブジェクトによる指示位置を特定する。撮像画像に基づいて、操作オブジェクトの方向を特定する。撮像画像のうち、指示位置に対応する部分の画像情報と、操作オブジェクトの方向と、に基づいて、操作オブジェクトと対象面との間の距離が所定値を下回ったことを判断する。
【選択図】図1

Description

本発明は、操作オブジェクトの3次元座標位置を求めるための技術に関するものである。
可視光カメラや赤外線カメラによってユーザの手領域を検出し、その動きや位置に応じて操作入力部品(ユーザインターフェース)を操作するジェスチャー認識技術による機器操作が広まりつつある。これらの装置では、カメラから入力される画像から手や指を検出し、その位置や動きによって操作のイベントを検出する。特許文献1では、一定あるいは時間的に変化するタイミングごとに発光し、その反射光の強さを物体の距離値に変換して、ジェスチャー入力やポインティング操作を実現している。また、特許文献2では、赤外カメラによって入力された入力画像から指先を検出し、指先の静止を検出して入力イベント情報を生成している。
特開平10−177449号公報 特開平2011−22945号公報
ユーザの手指によるタッチ操作やジェスチャー操作を認識するためには、指先の三次元座標を精度よく推定する事が望ましい。しかし画像中の位置や動きをとらえることはできても、カメラ一台で精度よく指先の三次元座標を求めることは難しい。特許文献2では、指先の三次元座標を取得せず、指先の静止を検知して操作を行っている。特許文献1では、光を当ててその反射光の強さを物体の距離値に変換している。しかしながら、物体の反射特性や表面の向きに起因する反射光の異なりは無視している。実際にはカメラや光源に対する手指の方向によって反射光の輝度は変わるため、精度よく距離を取得する事は難しい。そのため手指の方向によって精度よく操作のイベントを検出する事が難しくなる。
本発明はこのような問題に鑑みてなされたものであり、操作オブジェクトの3次元座標位置をより正確に求めるための技術を提供することを目的とする。
本発明の目的を達成するために、例えば、本発明の画像処理装置は、操作オブジェクトによる対象面へのタッチ操作を認識する情報処理装置であって、撮像部が撮像した、該撮像部と前記操作オブジェクトとの間の距離情報を反映した撮像画像に基づいて、前記操作オブジェクトによる指示位置を特定する位置特定手段と、前記撮像画像に基づいて、前記操作オブジェクトの方向を特定する方向特定手段と、前記撮像画像のうち、前記指示位置に対応する部分の画像情報と、前記操作オブジェクトの方向と、に基づいて、前記操作オブジェクトと前記対象面との間の距離が所定値を下回ったことを判断する判断手段とを備えることを特徴とする。
本発明の構成によれば、操作オブジェクトの3次元座標位置をより正確に求めることができる。
画像処理装置の機能構成例を示すブロック図。 画像処理装置のハードウェア構成例を示すブロック図。 画像処理装置の代表的な設置例を示す図。 補正パラメータを求めて記憶装置204に登録する処理のフローチャート。 投影情報及び指の配置例を示す図。 ステップS406における処理を説明する模式図。 式(5)で示した二次曲線を示す図。 ジェスチャ操作を行う段階で画像処理装置が行う処理のフローチャート。 ワールド座標系の一例を示す図。 ジェスチャ操作とイベントとの対応関係を示す図。 ジェスチャ操作を行う段階で画像処理装置が行う処理のフローチャート。 タップイベントについて説明する図。 ドラッグ時に指先の角度が変化する様子を表す図。 角度と輝度のプロット及び決定した補正パラメータの二次曲線を示す図。 画像処理装置の代表的な設置例を示す図。 複数のカメラにおける指先画像の異なりを表す図。 補正パラメータを求めて記憶装置204に登録する処理のフローチャート。 補正パラメータとして指先の輝度分布を補正する輝度分布を表す図。 ステップS1706における処理の詳細を示すフローチャート。 ジェスチャ操作を行う段階で画像処理装置が行う処理のフローチャート。 ステップS2006及びステップS2007における処理を表す図。 視差を計算する様子を表す図。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施例の1つである。
[第1の実施形態]
先ず、本実施形態に係る画像処理装置(情報処理装置)の機能構成例について、図1のブロック図を用いて説明する。なお、本実施形態では、画像処理装置は図1に示した各部を有するものとして説明するが、いくつかの機能部を外部機器に搭載させるようにしても良い。
画像入力部101は、後述するカメラにより撮像された各フレームの画像(撮像画像)を順次取得し、該取得した撮像画像を後段の領域検出部102に対して送出する。
領域検出部102は、画像入力部101から受けた撮像画像から、操作オブジェクトが写っている領域を操作オブジェクト領域として検出する。操作オブジェクトは、例えばユーザの手であっても良いし、ユーザの手が把持しているペンやスタイラスなどの器具であっても良い。
位置検出部103は、領域検出部102が検出した操作オブジェクト領域から操作オブジェクトの先端部を検出し、その画像座標を検出する。操作オブジェクトの先端部とは、例えば操作オブジェクトがユーザの手である場合には、操作オブジェクトの先端部は指の先となる。また、操作オブジェクトがペンやスタイラスなどの棒状の器具である場合には、操作オブジェクトの先端部はこの器具においてユーザが把持していない他端となる。以下では説明上、操作オブジェクトが人の手であるものとして説明する。
角度測定部104は、領域検出部102が検出した操作オブジェクト領域から、撮像画像内における指の方向を示す値(厳密には後述するように内積値)を求める。輝度測定部105は、位置検出部103が検出した指の先端部の輝度値を撮像画像から取得する。
補正パラメータ決定部106は、角度測定部104が求めた方向と、輝度測定部105が取得した輝度値と、を用いて、撮像画像中の指の先端部における輝度値を、後述する所望の輝度値に補正するための補正パラメータを求める。
輝度補正部107は、補正パラメータ決定部106が求めた補正パラメータを用いて、撮像画像中における指の先端部における輝度値(輝度測定部105が取得した輝度値)を所望の輝度値に補正する。
三次元座標決定部108は、輝度補正部107による補正後の撮像画像を用いて、後述するカメラから指の先端部までの距離を求めることで、指の先端部の3次元座標値を決定する。イベント検出部109は、三次元座標決定部108が決定した3次元座標位置若しくは従前に求めた3次元座標位置に対する変化に対応するイベントを実行する。
次に、図1に示した機能構成を実現するハードウェア構成の一例について、図2のブロック図を用いて説明する。CPU201はROM202やRAM203に格納されているコンピュータプログラムやデータを用いて処理を実行することで、画像処理装置全体の動作制御を行うと共に、画像処理装置が行うものとして後述する各処理を実行する。
ROM202には、画像処理装置の設定データやブートプログラムなどが格納されている。RAM203は、ROM202や記憶装置204からロードされたコンピュータプログラムやデータを一時的に記憶するためのエリアや、カメラ205から送出される各フレームの撮像画像を一時的に記憶するためのエリア、を有する。更に、RAM203は、CPU201が各種の処理を実行する際に用いるワークエリアも有する。即ち、RAM203は、様々なエリアを適宜提供することができる。
記憶装置204には、OS(オペレーティングシステム)や、画像処理装置が行うものとして後述する各処理をCPU201に実行させるためのコンピュータプログラムやデータが保存されている。また、記憶装置204には、以下の説明において既知の情報として取り扱うものについても保存されている。記憶装置204に保存されているコンピュータプログラムには、図1に示した各部の機能をCPU201に実行させるためのコンピュータプログラムが含まれている。
記憶装置204に保存されているコンピュータプログラムやデータは、CPU201による制御に従って適宜RAM203にロードされ、CPU201による処理対象となる。
カメラ205は、ユーザが自身の手でもってジェスチャを行う空間である平板上を撮像するものであり、光源206は、このユーザの手に対して光を照射するためのものである。本実施形態では、光源206は赤外光を照射する赤外光光源とし、カメラ205は、赤外光の強さを検知する赤外線カメラであるとする。しかし、以下の説明が、光源206が赤外光光源、カメラ205が赤外線カメラ、であることに限ったものではないことは明らかである。
表示装置207は、後述する平板上にユーザインターフェースや画像、文字などの様々な情報を投影するための投影装置である。なお、平板そのものを表示装置207としても良い。
なお、本実施形態では、画像処理装置は図2に例示するハードウェア構成を有するものとして説明するが、同等の機能を実現できるのであれば、他の構成を採用しても良い。また、図2に示した全ての機能部が画像処理装置に含められていなくてもよく、例えば、カメラ205、光源206、表示装置207のそれぞれは画像処理装置に対する外部機器として画像処理装置に外部接続されるものであっても良い。
次に、本実施形態に係る画像処理装置の代表的な設置例を図3に示す。平板301の上方には、平板301に対して赤外光を照射する光源206と、光源206から照射した赤外光の反射光を撮像画像として取得するカメラ205と、平板301上に上記の様々な情報を投影する表示装置207と、が設けられている。
ユーザ390は自身の指でもって、平板301上に投影されているユーザインターフェースや画像、文字などに対してタッチやドラッグ、フリック等のジェスチャー操作を行う。この平板301上の様子はカメラ205により撮像画像として撮像される。この撮像画像は後述するように、指先の3次元座標位置を推定するために用いられる。なお、上記のように、図3に示した配置例はあくまでも一例であり、他の配置を採用しても構わない。
次に、平板301上における指の向きに応じて変わる、撮像画像中の指先における輝度値、を補正するための補正パラメータを求めて記憶装置204に登録(出力)する為に行う処理について、図4のフローチャートを用いて説明する。図4のフローチャートに示す処理は、使用環境が撮像画像における指先の輝度値に与える影響を補正するためのパラメータを、事前に、キャリブレーション作業から得る処理である。本実施形態では、平板301という2次元平面内におけるカメラ205の向きを方向ベクトルとする直線を基軸とし、この基軸に対する指の向きに応じて指先における反射輝度が異なることに着目した。そして、基軸に対して指がどのような向きであっても、撮像画像中における指先の輝度値が、指がカメラ205と相対する方向に向いているときの撮像画像中における指先の輝度値となるように、輝度値補正処理を行う。
なお、図4のフローチャートに従った処理をCPU201に実行させるためのコンピュータプログラムやデータは記憶装置204に保存されている。然るにCPU201はこのコンピュータプログラムやデータを記憶装置204からRAM203にロードし、このロードしたコンピュータプログラムやデータを用いて処理を実行する。これにより、画像処理装置は、図4のフローチャートに従った処理を実行することになる。
また、図4のフローチャートに従った処理は、図3に例示したように画像処理装置を構成したときに最初に一回だけ実行するようにしても良いし、任意のタイミングで行っても良い。また、図4のフローチャートに従った処理は、平板301上でジェスチャ操作を行うユーザごとに行っても良い。
ステップS401では、CPU201は補正パラメータ決定部106として動作する。即ち、CPU201は表示装置207を制御し、ユーザに、平板301上の規定の位置に規定の角度で指を配置させるための情報を、平板301上に投影させる。この投影した情報の一例を図5(a)に示す。
図5(a)では、平板301上には矢印形状を有する指示ポインタ501が投影されており、ここでは、ユーザに、自身の指を、矢印の向きで、矢印の先の位置に配置するように促している。502はユーザの腕である。
図4に戻って、次に、ステップS402では、CPU201は画像入力部101として動作する。即ち、カメラ205から順次送出され、RAM203若しくは記憶装置204に格納されたそれぞれのフレームの撮像画像のうち1つを選択する。もちろん、カメラ205に1枚の撮像画像を撮像させ、これを選択しても良い。ステップS403以降ではこの選択された撮像画像を用いる。
なお、ステップS402における処理は、ユーザが平板301上に指を配置する最中に行っても意味のないものである。そのため、例えばユーザが不図示の操作部を操作して、指の配置が完了したことを示す入力を行い、CPU201がこれを検知した場合に、ステップS402以降の処理を開始するようにしても構わない。また、ユーザ入力を介さずに、例えばカメラ205により平板301上の動画像を撮影させ、CPU201が手の領域を抽出し続け、その位置や形状の変化量が閾値以下となった場合に、ステップS402以降の処理を開始しても良い。
ステップS403では、CPU201は、領域検出部102として動作する。即ち、ステップS402で選択した撮像画像からユーザの手の領域を検出する。撮像画像から手の領域を検出するための技術には様々なものがあり、本実施形態では如何なる技術を採用しても良い。例えば背景差分法によって背景(平板)の領域と手の領域を区別するようにしても構わないし、カメラ205がRGBから構成されるカラー画像を撮像した場合、この撮像画像から肌色を示す画素値を有する画素群からなる領域を手の領域として検出しても構わない。その場合は、RGBの値を本実施形態で説明する「輝度値」として扱う。
ステップS404では、CPU201は、位置検出部103として動作する。即ち、ステップS403で検出した手の領域から指先とおぼしき部分を特定し、ステップS402で選択した撮像画像中における該特定した部分の画像座標を特定する。この特定には様々な方法が適用可能であり、如何なる方法を採用しても構わない。
例えば、様々な手の形状ごとに、該形状を有する手の3次元形状モデルを予め記憶装置204内に登録しておく。そして、ステップS403で検出した手の領域にそれぞれの3次元形状モデルをフィットさせ、最もフィットした3次元形状モデルにおける指の先に対応する撮像画像上の位置を、撮像画像中における指先の位置とし、この位置における画像座標を取得する。
また、撮像画像の枠部から撮像画像内へと伸びている領域を検出し、この検出した領域内で、該枠部から最も遠い位置を指先の位置とし、この位置における画像座標を取得するようにしても構わない。
ステップS405では、CPU201は、輝度測定部105として動作する。即ち、ステップS404で取得した画像座標で特定される撮像画像上の位置の周辺部分における輝度値の輝度分布を取得し、その分布から離れた輝度(特異点)を除いた残りの輝度値の平均値を、撮像画像内における指先の輝度値として取得する。
ステップS406では、CPU201は、角度測定部104として動作する。先ず、撮像画像内における指の向きを求める。撮像画像内における指の向きを求める方法には様々な方法があるが、例えば、上記の3次元形状モデルを手の領域にフィットさせた場合におけるこの3次元形状モデルの撮像画像内における向きを、撮像画像内における指の向きとして特定する。
一方、カメラ205の位置及び姿勢は固定されており、且つカメラ205は平板301の上部から平板301全体を俯瞰している。ここで、カメラ205の三次元座標のうち高さを平板301と同じ位置にした点をカメラ位置とし、このカメラ205の位置と指先位置とを結ぶ線の方向をカメラ205の方向ベクトルとする。然るに、撮像画像内における指の向きを示すベクトル(単位ベクトル)と、撮像画像におけるカメラ205の方向ベクトル(単位ベクトル)と、の内積値を計算することで、それぞれのベクトルがなす角度θに関する値(cosθ)を求める。
ステップS406における処理を、図6の模式図を用いて説明する。図6において601は撮像画像内における指先の位置、604は撮像画像内における指の向きを示すベクトル、603は撮像画像において指先位置からのカメラ205の方向ベクトル、である。605は、ベクトル603とベクトル604とがなす角度である。
ここで、内積値が1であれば、ベクトル603とベクトル604とがなす角度605が0度(指の向きと平板301内におけるカメラ205の向きとは一致している)であることを表している。また、内積値が0であれば、ベクトル603とベクトル604とがなす角度605が90度(指の向きと平板301内におけるカメラ205の向きとは直交している)であることを表している。また、内積値が−1であれば、ベクトル603とベクトル604とがなす角度605が180度(指の向きと平板301内におけるカメラ205の向きとは相対している)であることを表している。
なお、平板301内におけるカメラ205の向きを方向ベクトルとする直線を基軸とし、この基軸に対する、撮像画像内の指の相対的な方向を示す角度を計算する方法は上記の内積値の計算による方法に限るものではなく、他の方法を採用しても構わない。
ステップS407では、CPU201は、全ての規定の角度についてステップS401〜S406における処理を実行したか否かを判断する。例えば、図5(b)に例示するように、45度ごとに5方向についてステップS401〜S406における処理を実行したか否かを判断する。この判断の結果、全ての規定の角度についてステップS401〜S406における処理を実行した場合には、処理はステップS409に進む。一方、全ての規定の角度についてステップS401〜S406における処理を実行していない場合には、処理はステップS408に進む。
ステップS408では、CPU201は補正パラメータ決定部106として動作する。即ち、次の規定角度(例えば前にステップS401で指定した角度に規定の増分を加えた角度)で指を配置させるための画面のデータを記憶装置204から読み出す。そして処理はステップS401に進み、ステップS401では、CPU201は、表示装置207を制御し、ユーザに、ステップS408で読み出したデータが示す画面を、平板301上に投影させる。
ステップS409では、CPU201は、補正パラメータ決定部106として動作する。即ち、上記各ステップにおける処理によって収集した輝度値及び内積値を用いて、補正パラメータを決定する。本実施形態ではそのための一手法として、内積値による輝度値の変動を最小二乗法により二次曲線で近似する。
指の向きDi(i=0,1,2,…)に対して求めた内積値をPi、向きDiに対して求めた撮像画像内における指先の輝度値をIi、とすると、二次曲線の残差Rは以下の式(1)のように定義できる。
ここで、a、b、cは係数である。この残差Rを最小にするa、b、cは、以下の式(2)〜(4)を解くことで得ることができる。
この求まったa、b、cを用いると、撮像画像内で内積値がPとなる方向に向いている指の指先における輝度値Iは、以下の式(5)を計算することで一意に求めることができる。
この式(5)で示した二次曲線を図7に示す。ここで、指の向きと平板301内におけるカメラ205の向きとが相対している場合における、撮像画像内における指先の輝度値Isは、式(5)にP=1を代入することで求められる。この輝度値Isを以下の式(6)に示す。
ここで、輝度値Iと輝度値Isとの差は、撮像画像中における指先の輝度値を、内積値が1となるように指を配置した場合における撮像画像中の指先の輝度値に補正するための情報となる。輝度値Iと輝度値Isとの差を以下の式(7)に示す。
この補正用の情報を規定するb、cを補正パラメータとして記憶装置204に保存する。なお、補正パラメータの保存先については記憶装置204に限るものではなく、例えば、この補正パラメータを必要とする他の装置であっても良い。
次に、上記登録後、ユーザが実際に平板301上でジェスチャ操作を行って操作入力を行う段階にて画像処理装置が行う処理について、図8のフローチャートを用いて説明する。
なお、図8のフローチャートに従った処理をCPU201に実行させるためのコンピュータプログラムやデータは記憶装置204に保存されている。然るにCPU201はこのコンピュータプログラムやデータを記憶装置204からRAM203にロードし、このロードしたコンピュータプログラムやデータを用いて処理を実行する。これにより、画像処理装置は、図8のフローチャートに従った処理を実行することになる。
また、ステップS801〜S805の各ステップにおける処理は、それぞれ、上記のステップS402〜S406と同じであるので、これらのステップに係る説明は省略する。
ステップS806では、CPU201は輝度測定部105として動作する。即ち、ステップS805で撮像画像から得た内積値Pと、ステップS804で撮像画像から得た指先の輝度値Iと、を用いて以下の式(8)を計算することで、補正後の指先の輝度値Icを得ることができる。
次に、ステップS807では、CPU201は、三次元座標決定部108として動作する。即ち、ステップS806で求めた補正後の輝度値Icと、撮像画像中における指先の画像座標と、を用いて、現実空間における指先の3次元座標位置を求める。
一般に、光の強さは光源からの距離に対して単調減少する。カメラ205及び光源206の位置姿勢は固定されているので、カメラ205から指先までの距離Dを下記の方程式で近似する。
ここで、e、f、gは予めカメラ205からの距離が異なる3点以上の指先輝度データから最小二乗法により予め求めておく。上式を変換すると、補正後の輝度値Icが与えられたときの距離Dは、以下の式(10)を計算することで求めることができる。
この式(10)を計算することで求めた距離Dと、撮像画像中における指先の画像座標(x、y)と、を用いて、ワールド座標系における指先の三次元座標(X、Y、Z)を射影変換によって求めることができる。ここで、ワールド座標系とは、現実空間中の1点を原点とし、この原点で互いに直交する3軸をそれぞれx軸、y軸、z軸とする座標系である。本実施形態で定義するワールド座標系の一例を図9に示す。本実施形態では、平板301上の一点を原点(0,0,0)とし、平板301上をX−Y平面(xy平面)、平板301の高さ方向をZ軸としてワールド座標系を定める。距離D及び画像座標(x、y)からワールド座標系における三次元座標へと変換する射影変換は、カメラ205の高さZcが指先の高さZに比べて十分高いと仮定し、以下の式(11)、(12)を計算することでなされる。
ここで、r11〜r33、t1〜t3、fx、fy、cx、cy、Zcはそれぞれ、カメラ205の設置時に確定するパラメータであり、図8のフローチャートに従った処理を開始する前に、予め記憶装置204に登録されている。
次に、ステップS808では、CPU201はイベント検出部109として動作する。即ち、ステップS807で求めた3次元座標位置若しくは従前に求めた3次元座標位置からの変化に対応するイベントを検出し、これを実行する。ジェスチャ操作と、これに対応するイベントと、の対応関係を図10に示す。「内容」として列挙されているもののうち、「ステップS807で求めた3次元座標位置若しくは従前に求めた3次元座標位置からの変化」に対応するものを検索し、これに対応するイベントを「UIイベント」から特定する。そしてこの特定したイベントを実行する。これにより、表示装置207から平板301上に投影されたユーザインターフェース等の画像を操作することができる。
そしてステップS809では、CPU201は、処理を終了するか否かを判断する。処理を終了する指示が不図示の操作部から入力されたことをCPU201が検知するなど、処理を終了する条件が満たされた場合には、本処理を終了する。一方、処理を終了する条件が満たされていない場合には、処理はステップS801に戻り、以降の処理を繰り返す。
このように、本実施形態に係る画像処理装置は、赤外光等の光源を操作エリアに照射し、指先の反射輝度をカメラで取得して指先の三次元座標を計算する際に、指先の角度によって変化する反射輝度を補正する。これによって指先の角度や姿勢によらず精度よく三次元座標を計算する事ができ、操作性が向上する。
なお、本実施形態で説明した装置の構成は上記の通り一例に過ぎず、特に以下に説明する基本構成の一例に過ぎない。基本構成では、操作オブジェクトによる対象面へのタッチ操作を認識する情報処理装置であって、撮像部が撮像した、該撮像部と操作オブジェクトとの間の距離情報を反映した撮像画像に基づいて、操作オブジェクトによる指示位置を特定する(位置特定)。また、撮像画像に基づいて、操作オブジェクトの方向を特定する(方向特定)。そして、撮像画像のうち、指示位置に対応する部分の画像情報と、操作オブジェクトの方向と、に基づいて、操作オブジェクトと対象面との間の距離が所定値を下回ったことを判断する。
[第2の実施形態]
第1の実施形態では、図4に示した補正パラメータを求める処理を、カメラ205及び光源206の確定時(装置作成時)、あるいは所定の場所への設置時、あるいはユーザごとに一度予め実施して補正パラメータを求めていた。これに対して本実施形態では、実際にユーザの操作時において平板301にタッチしていることを検知し、その角度及び輝度から補正パラメータを再計算する。本実施形態を含め、以下の各実施形態では主に、第1の実施形態との差分のみについて説明し、特に触れない限りは第1の実施形態と同様であるものとする。
本実施形態では、図8のフローチャートに従った処理の代わりに、図11のフローチャートに従った処理を行う点が、第1の実施形態と異なる。また、図11においてステップS1101〜S1108及びS1114はそれぞれ、図8のステップS801〜S809と同様であるので、これらのステップに係る説明は省略する。
ステップS1109では、CPU201はイベント検出部109として動作する。即ちタップイベントを検出したか否かを判断し、検出した場合には処理はステップS1110に進み、検出していない場合には本処理を終了する。
ステップS1110では、CPU201は、角度測定部104及び輝度測定部105として動作する。即ち、タップイベント発行時点の周辺の時間において、指の高さが極小となったときの内積値及び輝度値を取得する。ここでタップイベントについて、図12を用いて説明する。図12では平板301を側面から見た場合の、平板301とユーザの指とを示している。
画像処理装置の構成上、ユーザの指が実際に平板301に触れたか否かを厳密に判断することは困難である。そのため、タッチに係る各種イベントは、指先の三次元座標のZ成分(高さZ)が平板301に対して規定の高さ範囲Zr以内(範囲内)に入ったか否かを見て判定する。ここでタップイベントは、指先の位置が高さ範囲Zr以内に入り且つ所定時間内に範囲Zrから出ることを判定してタップイベントを起こすので、指先の高さZの精度が厳密でなくともタップイベントを検出可能である。このタップイベントを検出した直前に、指先の高さZが極小となる点をタップポイントとし、その時点での高さを0として指先の輝度値及び内積値をそれぞれ取得する。
次に、ステップS1111ではCPU201は、取得した輝度値及び内積値のセットが規定数に達したか否かを判断する。この判断の結果、規定数に達していない場合には、処理はステップS1114に進む。一方、規定数に達した場合には、処理はステップS1112に進む。
ステップS1112では、CPU201は、補正パラメータ決定部106として動作する。即ち、取得した上記の規定数のセットを用いて、上記ステップS409における処理と同様の処理を行うことで、補正パラメータを再計算する。
ステップS1113では、CPU201は、イベント検出部109として動作する。即ち、タップ検出に用いる高さ範囲Zrを変更する。補正パラメータ更新前は指先の角度に対する高さの精度が低いために、高さ範囲Zrを大きめに設定してタップを検出しやすくし、補正パラメータ更新後は高さの精度が高まるために、範囲Zrを小さめ(狭め)に設定して誤検出を減らす。これによってタップ検出の精度を高めることができる。
このように、本実施形態によれば、タップ検出を利用してユーザの操作中も平板301にタッチしている指先の角度と輝度を収集し、補正パラメータを再計算する事で、より精度を高めることができる。また、初期に設定しておく補正パラメータが許容範囲であれば、使用環境ごとやユーザごとの補正パラメータ決定処理をなくすことが可能である。
[第3の実施形態]
第2の実施形態では、操作中のタップイベントを用いて平板301にタッチしている指先の角度と輝度を収集して補正パラメータを再計算しているが、タップイベントに限るものではない。例えばドラッグ(図10のTOUCH_MOVEイベント)や長押し(TOUCH_STILLイベント)等の平板301に安定してタッチしている操作イベントも検出する事ができる。そしてその点での指先の角度及び輝度を収集する事で、同様に補正パラメータや高さの範囲Rを更新する事が可能である。図13にドラッグ時に指先の角度が変化する様子を表す。特にドラッグイベントでは、ドラッグ中に指先が移動するため、指先の角度が次々と変化する。従って、その各時点での角度と輝度を測定し、補正パラメータを更新する事で、より精度高く輝度の補正が可能となる。
[第4の実施形態]
第2の実施形態における説明「ステップS1111ではCPU201は、取得した輝度値及び内積値のセットが規定数に達したか否かを判断する。」に登場する「規定数」とは、最小二乗法で補正パラメータを求めるのに十分な予め定めた定数であるが、これに限るものではない。例えば、式(1)で計算する残差Rを角度の数で割った平均値R/Nを指標とし、これが閾値以下になった場合に十分な数を満たしたとして判定しても良い。
[第5の実施形態]
第2の実施形態では、ステップS1113で高さ範囲Zrを変更するが、本実施形態では、この高さ範囲を、操作時の指先の角度に応じて異なる値に設定する。図14に、補正パラメータ決定処理において取得した角度と輝度のプロット及び決定した補正パラメータの二次曲線を示す。
図14(a)は、操作時の指先角度が補正パラメータ決定処理において取得した角度に近い範囲であれば、補正の精度が高いと想定して高さの範囲Zrを小さく設定する。一方、操作時の指先角度が補正パラメータ決定処理において取得した角度から遠い場合には、補正の精度が低いと想定して高さの範囲Zrを大きく設定する。これにより、操作時において指先の角度の補正の信頼性に応じてタップ検出の感度を調整し、より安定したタップ検出を実現できる。
また、図14(b)は、補正パラメータ決定処理によって取得した各角度と、最小二乗法により求めた二次曲線との誤差に応じて高さの範囲Zrを変える。補正パラメータ決定処理によって取得したそれぞれの角度及び輝度のプロットと、決定した補正パラメータによる二次曲線との誤差を計算し、誤差の大きいプロットの角度とその近傍の角度に対しては、高さの範囲Zrを大きく設定する。これにより、操作時において指先の角度の補正の信頼性に応じてタップ検出の感度を調整し、より安定したタップ検出を実現できる。
なお、図14(a),(b)ではプロットの角度から一定範囲に区切って高さの範囲Zrを分けているが、これに限るものではない。例えば操作時の角度との差が最も小さいプロットの角度の差Pdiffを求め、高さの範囲ZrをPdiffの関数として定義しても良い。
[第6の実施形態]
上記各実施形態では、輝度値から距離に変換する変換式として式(9)を用いていたが、変換式は式(9)に限るものではなく、他の式を用いても良い。あるいは画像中の座標に応じて式(9)に含まれる係数e、f、gを計算し直しても良い。その場合、全ての画像の座標に応じて予め距離の異なる指先輝度データを取得する事は困難であるため、数点の格子点で輝度を取得し、格子点の輝度から各座標の輝度を座標位置に応じて補間する事が好ましい。
[第7の実施形態]
上記各実施形態において、指の方向とは、平板301内におけるカメラ205の向きを方向ベクトルとする直線を基軸とし、この基軸に対する、撮像画像内の指の相対的な方向であった。しかし、基軸はカメラ205の向きを方向ベクトルとする直線に限るものではない。例えば、光源206による照射方向を方向ベクトルとする直線を基軸としても良い。また、平板301に対して指先を立てる方向を指の輝度変化から推定し、その方向を用いても良い。
[第8の実施形態]
上記の実施形態は、カメラ205による撮像画像中の指示具操作オブジェクトの先端部における反射輝度を補正し、補正した輝度値に基づいて距離を式(10)により求める実施形態である。本実施形態では、カメラ205がステレオカメラである場合について説明する。先ず、本実施形態に係る画像処理装置の代表的な設置例を図15に示す。図15において、図3と同じ部分には同じ参照番号を付している。図3ではカメラ205は1台のカメラから成るものであったが、図15では、カメラ205は、2台のカメラから成るものである(すなわちステレオカメラである)。
本実施形態でも、光源206は赤外光を照射する赤外光光源とするので、カメラ205は、赤外光の強さを検知する赤外線のマルチカメラである。しかし、以下の説明が、光源206が赤外光光源、カメラ205が赤外線カメラ、であることに限ったものではないことは明らかである。また、本実施形態では、カメラ205は、2台のカメラから成るステレオカメラであるものとして説明するが、カメラ205は、2台以上のカメラから成るステレオカメラであっても良い。また、本実施形態でも、可視光カメラで撮像した画像から肌色検出等を用いて人の手を検出する場合には、RGBの値を輝度値として扱う。
本実施形態の場合、カメラ205を構成するそれぞれのカメラにおいて、光源、指先、カメラ間の角度が異なるため、指先の見え方、輝度の分布にカメラ間で差が生じる。図16にその様子を示す。図16(a)は、カメラ205がカメラA及びカメラBから成る場合に、カメラA、指先、光源がなす角度、カメラB、指先、光源がなす角度を表す図である。図16(b)は、図16(a)のカメラAから見える指先(上図)と、カメラBから見える指先(下図)を示す図である。図16(a)に示すように光源と指先とを結ぶ線分と、指先とカメラとを結ぶ線分と、がなす角度が、カメラAとカメラBとで異なる。このため、図16(b)に示すように、指先の輝度がカメラA、Bで異なってしまう。特にこの時、指の爪などに鏡面反射が発生する場所が、カメラA、Bで異なる場合が生じる。このように指先の見え方が変わってしまうと、それぞれのカメラによる撮像画像(ステレオ画像)間で後述するマッチングを行う際にマッチングに誤差が生じ、ステレオ画像間の視差に基づいて計算する指先の距離に誤差が生じてしまう。
そこで本実施形態では、それぞれのステレオ画像について、代表的な指先の角度ごとに輝度分布を測定することで、補正パラメータを取得する。そして認識時には、それぞれのステレオ画像について、指先の角度に対して決定した補正パラメータによって指先の輝度分布を補正し、補正した指先を用いてステレオ画像間のマッチングを行って視差を計算し、該視差に基づいて指先への距離を計算する。
次に、平板301上における指の向きに応じて変わる、撮像画像中の指先における輝度分布、を補正するための補正パラメータを求めて記憶装置204に登録(出力)する為に行う処理について、図17のフローチャートを用いて説明する。図17において、図4に示した処理ステップと同じ処理ステップには同じステップ番号を付しており、これらの処理ステップに係る説明は省略する。また、ステップS1701〜S1704のそれぞれでは、上記のステップS402〜S404,S406の処理をそれぞれのステレオ画像について行う。なお、ステップS1704では、撮像画像内における指の向きを示すベクトル(単位ベクトル)と、撮像画像におけるカメラ205の方向ベクトル(単位ベクトル)と、の内積値ではなく、それぞれのベクトルがなす角度θを求める。
ステップS1705では、CPU201は輝度測定部105として動作する。即ち、それぞれのステレオ画像から指先の輝度分布を取得する。輝度分布の一例を図18(a)に示す。図18(a)は、指先の輝度分布を示す図である。図5(b)と同様に指先の方向を変えて取得した画像に対し、ステップS1704で取得した指先角度に基づいて一方向に指先の方向を正規化し、指先の所定領域(矩形等)を切り出して輝度分布とする。輝度分布は指先輝度をそのまま使っても良いし、あるいは平滑化フィルタを施してぼかした輝度を使って輝度分布としても良い。
全ての必要な角度についてステップS401,S1701〜S1705,S408の処理を行うと、処理はステップS407を介してステップS1706に進む。ステップS1706では、CPU201は、補正パラメータ決定部106として動作する。即ち、カメラごとに、上記各ステップにおける処理によって収集した輝度分布及び角度を用いて、補正パラメータを決定する。
図18(b)は、本実施形態における補正パラメータである輝度分布を表す図である。1801は、ステップS1705において取得する、各角度における指先の輝度分布であり、輝度分布(画像)は前述の通り指先の方向を一方向正規化している。ステップS1706における処理の詳細について、図19のフローチャートを用いて説明する。
ステップS1901において、各角度における輝度分布1801の平均(平均画像)を計算する。1802は各角度における輝度分布1801の平均(平均輝度分布)である。平均輝度分布は角度によって変化する輝度成分(鏡面反射等)が緩和される。
次に、ステップS1902において、平均輝度分布に対する各角度の輝度分布の差を補正パラメータとして求める。1803は、各角度における輝度分布1801と平均輝度分布1802の差分であり、これを補正パラメータとする。そして、このようにして求めた補正パラメータを、記憶装置204に保存する。なお、補正パラメータの保存先については記憶装置204に限るものではなく、例えば、この補正パラメータを必要とする他の装置であっても良い。
以上、図17〜図19を用いて述べた補正パラメータ計算処理を、予め行っておく。次に、上記登録後、ユーザが実際に平板301上でジェスチャ操作を行って操作入力を行う段階にて画像処理装置が行う処理について、図20のフローチャートを用いて説明する。ステップS2001〜S2004のそれぞれでは、上記のステップS801〜S803,S805の処理をそれぞれのステレオ画像について行う。なお、ステップS2004では、撮像画像内における指の向きを示すベクトル(単位ベクトル)と、撮像画像におけるカメラ205の方向ベクトル(単位ベクトル)と、の内積値ではなく、それぞれのベクトルがなす角度θを求める。
ステップS2005では、図17のステップS1705と同様に、それぞれのステレオ画像から、指先の輝度分布を取得する。
ステップS2006では、CPU201は、補正パラメータ決定部106として動作する。即ち、ステップS2004で求めた指先の角度に対する補正パラメータを決定する。図21(a)に指先角度に合わせた補正パラメータ決定方法を示す。本画像処理装置が図17の処理によって予め保持する補正パラメータの輝度分布は図18(b)に示す通り、幾つかの方向に指を置くことで決定する代表的な角度の輝度分布のみである。そこで、ステップS2006では、任意の指先角度に合わせて補正パラメータの輝度分布を合成する。図18(b)示すような離散的なそれぞれの角度に対する輝度分布のうち、指先角度より大きく且つ指先角度に最も近い角度、指先角度より小さく且つ指先角度に最も近い角度、のそれぞれに対する補正パラメータの輝度分布を選択する。例えば、図21に示す如く、指先角度を−35°とすると、−30°、−45°のそれぞれに対する補正パラメータの輝度分布を選択する。そして、この選択した輝度分布に対し、指先角度との差に応じた重み付けを行ってから、これら輝度分布を合成する。図21の場合、−30°とは5°、−45°とは10°だけ指先角度との差があるため、−30°と−45°の輝度分布を10:5=2:1の重みで合成し、−35°の補正パラメータの輝度分布を得る。このような処理を、それぞれのステレオ画像について行う。
次にステップS2007において、CPU201は、輝度補正部107として機能する。即ち、決定した補正パラメータの輝度分布に基づき指先の輝度分布を補正する。図21(b)にその様子を示す。すなわち、ステップS2005で取得した輝度分布からステップS2006で求めた輝度分布を差し引いた差分画像を、補正後の指先輝度分布として生成する。補正後の指先輝度分布はカメラに対する角度によって変化する輝度成分(鏡面反射等)が緩和される。またこの時、ステップS2005で取得した輝度分布(画像)は一方向に正規化されているので、補正した指先の輝度分布を元の指先の角度及び位置に戻す。このような処理を、それぞれのステレオ画像について行う。
そしてステップS2008において、CPU201は、三次元座標決定部108として動作する。即ち、それぞれのステレオ画像において補正した指先の輝度分布を用いてステレオ画像間のマッチングを取って視差を計算し、該視差を用いて指先への距離を計測する。図22は視差を計算する様子を表す図である。2201はカメラAによるステレオ画像、カメラBによるステレオ画像、のそれぞれで検出された指先領域であり、ステップS2007において指先の輝度分布が補正され、角度によって変化する輝度成分(鏡面反射等)が緩和されている。ここでステレオ画像間の指先領域のマッチングを取り、視差を計算する。図22において2202が視差になる。角度によって変化する輝度成分(鏡面反射等)が緩和されているので、高精度のマッチングが可能となる。視差が求まれば三角測量の原理により、指先までの距離は以下の式(13)で計算できる。
Z(距離)=f(焦点距離)×D(ステレオ画像距離)/d(視差) (13)
このような計算により、第1の実施形態と同様にして、現実空間における指先の3次元座標位置を求めることができる。ステップS2009、S2010はそれぞれ、上記のステップS808、S809と同様の処理ステップであるため、これらのステップに係る説明は省略する。
以上のようにしてステレオカメラで異なる指先の角度に対し、それぞれの角度に応じた輝度分布を補正する事により、カメラ間の指先の見えや反射の異なりを緩和し、二画像間のマッチングによる距離計算の誤差を軽減する事ができる。
なお本実施形態では、赤外光源及び赤外ステレオカメラを用い、指先の輝度分布の補正を行う例として説明したが、これに限るものではない。例えば、白色光源及びRGBステレオカメラを用い、指先のRGBの各輝度値の補正を行う例であっても良い。
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (19)

  1. 操作オブジェクトによる対象面へのタッチ操作を認識する情報処理装置であって、
    撮像部が撮像した、該撮像部と前記操作オブジェクトとの間の距離情報を反映した撮像画像に基づいて、前記操作オブジェクトによる指示位置を特定する位置特定手段と、
    前記撮像画像に基づいて、前記操作オブジェクトの方向を特定する方向特定手段と、
    前記撮像画像のうち、前記指示位置に対応する部分の画像情報と、前記操作オブジェクトの方向と、に基づいて、前記操作オブジェクトと前記対象面との間の距離が所定値を下回ったことを判断する判断手段と
    を備えることを特徴とする情報処理装置。
  2. 更に、
    前記判断手段が前記距離が所定値を下回ったと判断した場合に、前記操作オブジェクトによる操作を認識する認識手段を備えることを特徴とする請求項1に記載の情報処理装置。
  3. 前記操作とは、前記操作オブジェクトによるタッチ操作であることを特徴とする請求項2に記載の情報処理装置。
  4. 前記位置特定手段は、前記操作オブジェクトの先端部の位置を指示位置として特定することを特徴とする請求項1に記載の情報処理装置。
  5. 前記位置特定手段と前記方向特定手段が処理の対象とする画像は、前記撮像画像から、背景差分法によって前記操作オブジェクトが写った領域が抽出された画像であることを特徴とする請求項1に記載の情報処理装置。
  6. 前記撮像部が撮像した撮像画像のうち、前記指示位置に対応する部分の画像情報は、該部分の輝度値の情報であることを特徴とする請求項1に記載の情報処理装置。
  7. 前記撮像画像は、前記操作オブジェクトで照射された光の反射光を撮像した画像であることを特徴とする請求項6に記載の情報処理装置。
  8. 前記撮像画像は、前記操作オブジェクトに照射された赤外光の反射光を撮像した画像であって、前記輝度値とは、赤外の輝度値であることを特徴とする請求項6に記載の情報処理装置。
  9. 更に、
    前記操作オブジェクトの方向に基づいて、前記指示位置に対応する部分の輝度値の情報を補正する補正手段と、
    前記補正手段によって補正された輝度値から、前記撮像部と前記操作オブジェクトとの間の距離情報を取得する取得手段と
    を備えることを特徴とする請求項6に記載の情報処理装置。
  10. 更に、
    事前のキャリブレーション作業から取得した輝度値の情報を保持する保持手段を備え、
    前記補正手段は、前記保持手段が保持している情報を用いて前記補正を行うことを特徴とする請求項9に記載の情報処理装置。
  11. 前記指示位置に対応する部分の輝度値の情報は、指示位置の周辺部分での輝度値の分布を表す情報であることを特徴とする請求項6に記載の情報処理装置。
  12. 前記撮像画像は、2台以上の撮像部から得られた画像であることを特徴とする請求項1に記載の情報処理装置。
  13. 前記撮像画像は、可視光カメラによって撮像された画像であって、前記輝度値は画素値であることを特徴とする請求項6に記載の情報処理装置。
  14. 前記位置特定手段は、前記指示位置のxy平面での座標を特定し、前記方向特定手段はz軸の方向の座標を決定することを特徴とする請求項1に記載の情報処理装置。
  15. 前記認識したタッチ操作の最中の情報を使って補正に使う情報を更新することを特徴とする請求項10に記載の情報処理装置。
  16. 操作オブジェクトによる対象面へのタッチ操作を認識する情報処理装置であって、
    撮像部が前記操作オブジェクトを撮像した撮像画像に基づいて、前記操作オブジェクトの先端部の位置を特定する位置特定手段と、
    前記撮像画像に基づいて、前記操作オブジェクトの先端部の前記撮像部に対する向きを特定する方向特定手段と、
    前記撮像画像のうち、前記先端部に対応する画像情報と、前記先端部の前記撮像部に対する向きとに基づいて、前記操作オブジェクトの先端部による前記対象面へのタッチを認識する認識手段と
    を備えることを特徴とする情報処理装置。
  17. 操作オブジェクトによる対象面へのタッチ操作を認識する情報処理方法であって、
    撮像部が撮像した、該撮像部と前記操作オブジェクトとの間の距離情報を反映した撮像画像に基づいて、前記操作オブジェクトによる指示位置を特定する位置特定工程と、
    前記撮像画像に基づいて、前記操作オブジェクトの方向を特定する方向特定工程と、
    前記撮像画像のうち、前記指示位置に対応する部分の画像情報と、前記操作オブジェクトの方向と、に基づいて、前記操作オブジェクトと前記対象面との間の距離が所定値を下回ったことを判断する判断工程と
    を備えることを特徴とする情報処理方法。
  18. 操作オブジェクトによる対象面へのタッチ操作を認識する情報処理方法であって、
    撮像部が前記操作オブジェクトを撮像した撮像画像に基づいて、前記操作オブジェクトの先端部の位置を特定する位置特定工程と、
    前記撮像画像に基づいて、前記操作オブジェクトの先端部の前記撮像部に対する向きを特定する方向特定工程と、
    前記撮像画像のうち、前記先端部に対応する画像情報と、前記先端部の前記撮像部に対する向きとに基づいて、前記操作オブジェクトの先端部による前記対象面へのタッチを認識する認識工程と
    を備えることを特徴とする情報処理方法。
  19. コンピュータを、請求項1乃至16の何れか1項に記載の情報処理装置の各手段として機能させるためのコンピュータプログラム。
JP2013268089A 2013-02-21 2013-12-25 情報処理装置、情報処理方法 Pending JP2014186715A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013268089A JP2014186715A (ja) 2013-02-21 2013-12-25 情報処理装置、情報処理方法
US14/178,386 US9342189B2 (en) 2013-02-21 2014-02-12 Information processing apparatus and information processing method for obtaining three-dimensional coordinate position of an object

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013032443 2013-02-21
JP2013032443 2013-02-21
JP2013268089A JP2014186715A (ja) 2013-02-21 2013-12-25 情報処理装置、情報処理方法

Publications (1)

Publication Number Publication Date
JP2014186715A true JP2014186715A (ja) 2014-10-02

Family

ID=51350826

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013268089A Pending JP2014186715A (ja) 2013-02-21 2013-12-25 情報処理装置、情報処理方法

Country Status (2)

Country Link
US (1) US9342189B2 (ja)
JP (1) JP2014186715A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015170322A (ja) * 2014-03-10 2015-09-28 富士通株式会社 画像処理装置、生体認証装置、画像処理方法及びプログラム
JP2016128970A (ja) * 2015-01-09 2016-07-14 キヤノン株式会社 情報処理装置とその制御方法、プログラム、記憶媒体
WO2019082474A1 (ja) * 2017-10-23 2019-05-02 パナソニックIpマネジメント株式会社 3次元侵入検知システムおよび3次元侵入検知方法

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6187067B2 (ja) * 2013-09-13 2017-08-30 株式会社リコー 座標検出システム、情報処理装置、プログラム、記憶媒体、座標検出方法
US10168833B2 (en) * 2014-09-03 2019-01-01 Hewlett-Packard Development Company, L.P. Presentation of a digital image of an object
US9549101B1 (en) * 2015-09-01 2017-01-17 International Business Machines Corporation Image capture enhancement using dynamic control image
JP6501806B2 (ja) 2017-01-05 2019-04-17 キヤノン株式会社 情報処理装置、操作検出方法、及びコンピュータプログラム
CN108230383B (zh) * 2017-03-29 2021-03-23 北京市商汤科技开发有限公司 手部三维数据确定方法、装置及电子设备
CN112947799B (zh) * 2021-02-02 2023-05-23 山西大众电子信息产业集团有限公司 一种多点红外触摸屏多块板子通讯及多路交叉扫描装置和方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3321053B2 (ja) 1996-10-18 2002-09-03 株式会社東芝 情報入力装置及び情報入力方法及び補正データ生成装置
JP3640156B2 (ja) * 2000-02-22 2005-04-20 セイコーエプソン株式会社 指示位置検出システムおよび方法、プレゼンテーションシステム並びに情報記憶媒体
US7379562B2 (en) * 2004-03-31 2008-05-27 Microsoft Corporation Determining connectedness and offset of 3D objects relative to an interactive surface
US7728825B2 (en) * 2005-03-22 2010-06-01 Microsoft Corporation Targeting in a stylus-based user interface
US9696808B2 (en) * 2006-07-13 2017-07-04 Northrop Grumman Systems Corporation Hand-gesture recognition method
JP5201096B2 (ja) 2009-07-17 2013-06-05 大日本印刷株式会社 対話操作装置
US8549418B2 (en) * 2009-12-23 2013-10-01 Intel Corporation Projected display to enhance computer device use
JP5783828B2 (ja) * 2010-08-25 2015-09-24 キヤノン株式会社 情報処理装置およびその制御方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015170322A (ja) * 2014-03-10 2015-09-28 富士通株式会社 画像処理装置、生体認証装置、画像処理方法及びプログラム
JP2016128970A (ja) * 2015-01-09 2016-07-14 キヤノン株式会社 情報処理装置とその制御方法、プログラム、記憶媒体
WO2019082474A1 (ja) * 2017-10-23 2019-05-02 パナソニックIpマネジメント株式会社 3次元侵入検知システムおよび3次元侵入検知方法
JP2019079173A (ja) * 2017-10-23 2019-05-23 パナソニックIpマネジメント株式会社 3次元侵入検知システムおよび3次元侵入検知方法

Also Published As

Publication number Publication date
US9342189B2 (en) 2016-05-17
US20140232696A1 (en) 2014-08-21

Similar Documents

Publication Publication Date Title
JP2014186715A (ja) 情報処理装置、情報処理方法
US11511421B2 (en) Object recognition processing apparatus and method, and object picking apparatus and method
JP6271953B2 (ja) 画像処理装置、画像処理方法
KR101606628B1 (ko) 포인팅 방향 검출 장치 및 그 방법과, 프로그램 및 컴퓨터 판독가능한 매체
JP6465789B2 (ja) デプスカメラの内部パラメータを算出するプログラム、装置及び方法
JP6092530B2 (ja) 画像処理装置、画像処理方法
US9279661B2 (en) Information processing apparatus and information processing method
WO2013035554A1 (ja) 入力体の動き検出方法およびそれを用いた入力デバイス
JP6370038B2 (ja) 位置姿勢計測装置及び方法
JP4608326B2 (ja) 指示動作認識装置及び指示動作認識プログラム
US20130230235A1 (en) Information processing apparatus and information processing method
JP2018119833A (ja) 情報処理装置、システム、推定方法、コンピュータプログラム、及び記憶媒体
JP2015176253A (ja) ジェスチャ認識装置およびジェスチャ認識装置の制御方法
JP2014202540A (ja) 位置算出システム、位置算出プログラム、および、位置算出方法
JP7145432B2 (ja) 投影システム、画像処理装置および投影方法
US10386930B2 (en) Depth determining method and depth determining device of operating body
KR20100062320A (ko) 영상 데이터를 이용한 로봇 움직임 데이터 생성 방법 및 생성 장치
CN112109069A (zh) 机器人示教装置以及机器人系统
JP2013072857A (ja) 3次元位置・姿勢認識装置およびその方法、プログラム
JP6890422B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP6618301B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP6555958B2 (ja) 情報処理装置、その制御方法、プログラム、および記憶媒体
KR20090070258A (ko) 3차원 기하학 정보를 이용한 실시간 지시 영역 추정 방법
JP6643825B2 (ja) 装置及び方法
JP2018049498A (ja) 画像処理装置、操作検出方法、コンピュータプログラム、及び記憶媒体