JP2011253255A - 情報処理装置およびその動作方法 - Google Patents

情報処理装置およびその動作方法 Download PDF

Info

Publication number
JP2011253255A
JP2011253255A JP2010125243A JP2010125243A JP2011253255A JP 2011253255 A JP2011253255 A JP 2011253255A JP 2010125243 A JP2010125243 A JP 2010125243A JP 2010125243 A JP2010125243 A JP 2010125243A JP 2011253255 A JP2011253255 A JP 2011253255A
Authority
JP
Japan
Prior art keywords
display surface
sound
contact
image
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010125243A
Other languages
English (en)
Other versions
JP2011253255A5 (ja
JP5623138B2 (ja
Inventor
Shunsuke Sato
俊介 佐藤
Toshiaki Fukada
俊明 深田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010125243A priority Critical patent/JP5623138B2/ja
Publication of JP2011253255A publication Critical patent/JP2011253255A/ja
Publication of JP2011253255A5 publication Critical patent/JP2011253255A5/ja
Application granted granted Critical
Publication of JP5623138B2 publication Critical patent/JP5623138B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Engineering & Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Position Input By Displaying (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)

Abstract

【課題】 接触を検知するペンや画面を用いることなく、ペンと画面との接触による入力を検知することが困難であった。
【解決手段】 上記の課題を解決するために、本発明の情報処理装置は、表示面に画像を表示し、距離画像センサを用いて、所定の形状をもつ物体の三次元空間における位置を特定し、前記表示面と接する面に前記物体が存在するかを判定し、前記表示面と接する面に前記物体が存在すると判定されたことを、前記表示面の前記特定された位置に表示された部分に対する入力として認識する。
【選択図】 図7

Description

本発明は、距離画像センサを用いて、位置を指定する技術に関する。
従来、接触を検知するペンや画面を用いることなく、画面上の所望の位置に対する入力を検知するために、画面を撮影して、ペンを画像認識すると共に、接触音を認識し、入力を検知する技術が知られている(例えば、特許文献1)。
特開2003−122505号公報
しかしながら、ペンと画面とが接触していないにも関わらず、ペンを持った指と画面との接触音によって、入力が検知されてしまう場合がある。
本発明は、上記の課題を解決するため、ペンと画面との接触による入力をより正確に検知することを目的とする。
上記の課題を解決するために、本発明の情報処理装置は、表示面に画像を表示する表示手段と、距離画像センサを用いて、所定の形状をもつ物体の三次元空間における位置を特定する特定手段と、前記表示面と接する面に前記物体が存在するかを判定する判定手段と、前記表示面と接する面に前記物体が存在すると判定されたことを、前記表示面の前記特定された位置に表示された部分に対する入力として認識する認識手段とを有する。
本発明により、接触を検知するペンや画面を用いることなく、ペンと画面との接触による入力をより正確に検知することが可能となる。
情報処理装置101の外観と機能構成を示す図である。 情報処理装置101の外観と本実施形態における座標系を示す図である。 入力を検知する処理の流れの一例を示すフローチャートである。 論理座標、空間座標、画像座標の一例を模式的に示す図である。 操作画面105に対する入力の一例を示す図である。 他の音源の影響を打ち消す処理の流れを示すフローチャートである。 入力の様子を模式的に示す図である。 第2の実施形態に係る情報処理装置の機能構成と第3の実施形態に係る情報処理装置の外観を示す図である。
(第1の実施形態)
図1(a)は、本発明の第1の実施形態に係る情報処理装置の外観を示す図である。
尚、情報処理装置101は天井部102に設置されているものとし、情報処理装置101の真下には机103が設置されているものとする。
また、机103は、情報処理装置101の投影部201(後述)によって投影された画像(操作画面105)を表示する表示面となっている。
操作画面105には種々の情報および操作部品が含まれており、利用者106および107はそれぞれペン108および109によってこれらの操作部品が映し出された位置に接触することで画面に対する操作入力を行う。
尚、ペン108,109についてはペンに限らず、後述する距離画像認識部1204が認識する特徴に適合した物体(所定の形状をもつ物体)であればよく、指等でもよい。
また、本実施形態では2名の利用者がそれぞれ1本ずつのペンを用いているが、利用者は何人でも良く、1名の利用者が複数のペンを用いても良い。
図1(b)は情報処理装置101の機能構成を示す機能ブロック図である。
情報処理装置101は投影部201、距離画像撮像部1202、集音部203、距離画像認識部1204、音認識部205、操作画面管理部206、設定部207、固定部208を有する。
投影部201は、操作画面105を投影するプロジェクタである。
距離画像撮像部1202は、机上の距離画像を撮像する距離画像センサである。
距離画像センサは、空間上の対象物との距離を画素値とする距離画像を生成する。距離の測定の方法としては、例えば赤外線を発光して対象物からの反射光の到達時間を計測する飛行時間計測方式(TOF)などが知られている。
集音部203は、音を収録する複数のマイクロホンからなるマイクロホンアレイである。
距離画像認識部1204はMPU等によって構成され、距離画像撮像部1202が撮像した映像から、所定の形状をもつ物体として、一方の先端が円錐形をした棒状の物体の認識を行う。なお、他の特徴、例えば人差し指を立てた人間の手の色や形状を認識するようにしてもよい。この場合はペンの代わりに人間の指によって操作を行えるようになる。
音認識部205はMPU等によって構成され、集音部203が収録した音から、特定の三次元空間上の点(または領域)における音量を認識する。操作画面管理部206はMPU等によって構成され、投影部201が投影する操作画面105の映像を管理する。
設定部207は、MPU、RAM等およびスイッチと液晶画面で構成され、利用者の設定入力を受け付けて記憶する。固定部208は、情報処理装置101を天井部102に固定する部品である。
図2(a)は、情報処理装置101を操作画面105から天井部102のへ向かって見た場合の外観を示す図である。
本図において、情報処理装置101は、発光口301、センサ部302、集音口303、設定I/F(インターフェース)304、固定金具305を有する。
発光口301は投影部201の発光口であり、下方側(操作画面105側)に配置され、下方に向かって操作画面105を投影する。
尚、発光口301からは、天井と平行な面に対して、発光口301の中心軸(光軸)を中心とする矩形(長方形)の操作画面が投影されるものとする。
センサ部302は、距離画像撮像部1202のセンサ部であり、下方側(操作画面105側)に配置され、下方(操作画面105および情報処理装置101から操作画面105までの空間)の距離画像を撮像する。
集音口303は集音部203を構成する各マイクロホンの集音口である。本実施形態において、各マイクロホンは、天井部102の面と平行な同一平面上に配置されているものとする。尚、本図においてマイクロホンは4個であるが、複数であれば何個でもよい。
設定I/F304は設定部207の設定I/Fであり、例えば、数値を入力するためのボタンと、数値を表示するための液晶画面を有する。尚、設定部はボタンと液晶画面による構成に限らず、数値の入力と表示が出来ればよい。
また、設定I/Fは、情報処理装置101と一体である必要はなく、例えばリモコンとして、情報処理装置101と分離していても良い。固定金具305は固定部208の一部であり、情報処理装置101と天井部102と固定している。
図2(b)は、本実施形態において定義する座標を示す図である。
論理座標とは、操作画面管理部206が管理する仮想的な二次元の座標であり、操作画面105上の位置を表す。
尚、論理座標における二つの座標軸をX軸、Y軸とする(論理座標401)。また論理座標の原点Ovは任意に、例えば操作画面105の一つの隅等に定める。
空間座標とは、情報処理装置101が設置された三次元空間における実際の座標である。
尚、空間座標は、情報処理装置の下面上における投影部の発光口の中心を空間座標の原点Orとし、天井および机の面に平行な面をxy平面、xy平面に対して天井から机に向かう鉛直方向をz軸とする座標系とする(空間座標402)。
また、空間座標のx軸とy軸の方向は、投影部が投影する操作画面105の像における論理座標のX軸、Y軸に一致させる。
画像座標とは、距離撮像部1202が撮像する画像の二次元座標である。
尚、画像座標は、画像中の操作画面の像における論理座標のX軸、Y軸の方向と一致する画像座標の軸をそれぞれU軸、W軸とし、任意の点(例えば画像の一つの隅等)を原点Obと定める(画像座標403)。
以上の座標はすべて直交座標である。なお、それぞれの座標系は他の座標、例えば極座標や、射影座標を用いてもよい。これらは操作画面が円形であるときや、操作画面の像および撮像画像に射影的な歪みがある場合に有用である。
また、次元の数についても限ったものではなく、例えば操作画面に立体的なCG等を用いるのであれば、論理座標や画像座標に三次元の座標を用いても良い。
図3は、情報処理装置101を用いて、操作画面上の所定の部分に対する入力を検知する処理の流れの一例を示すフローチャートである。
ステップS1350において、距離画像認識部1204は、距離画像中の平坦な面を認識し、それを机と見なして範囲を記憶する。また、その面への距離を、机の面から情報処理装置の下面までの鉛直方向の距離として設定部207に記憶する。
次に、ステップS1351において、距離画像認識部1204は、画像座標と空間座標を対応付けるためのキャリブレーションを行う。尚、キャリブレーションの際、例えば、利用者による四隅をペンで指示を検知し、距離画像認識部1204は認識したペンの位置を空間座標に対応付ける。
図4(a)は距離画像撮像部1202によって撮影された距離画像を模式的に示す図である。
像601は机103に相当する像であり、像602は操作画面105に相当する像である。
図4(a)では、操作画面105として四隅に仮想の扇形の図形を配置した映像を表示しているが、操作画面105の四隅および論理座標の原点Ovの像が識別できる形態であれば何でもよい。
距離画像認識部1204は、操作画面105に相当する像における、操作画面105の四隅および論理座標の原点Ovの論理座標を記憶しておく。操作画面105の四隅の論理座標をそれぞれ(α,γ)(α,ζ)(β,γ)(β,ζ)とする(0<α<β、0<γ<ζ)。
画像座標の原点Ovは操作画面105の四隅のいずれかと必ずしも一致している必要はないが、ここでは画像座標の原点Ovは論理座標の(α,γ)(四隅の1つ)に一致しているものとする。
ステップS1301において、距離画像撮像部1202は、距離画像を撮像する。
ステップS1302において、距離画像認識部1204は、ステップS1350において認識した机の領域の範囲内において、ステップS1301において撮像した画像中から一方の先端が円錐形をした棒状の物体を認識し、円錐形の先端をペン先として検出する。
距離画像認識部1204は、あらかじめ一方の先端が円錐形をした棒状の物体についての統計的特徴をモデルとして所持しておく。距離の変化から輪郭の検出を行い、テンプレートマッチングを行って画像中から照合する部分を探す。
そして、円錐形の先端に当たる画像座標Pを記憶しておく。複数の個所にマッチした場合は全てについて記憶する。尚、ステップS1302において、周知の他の画像認識の方法を用いても良い。
また、発見されたペン先の各々については等価として扱っているが、動体追跡などを用いてペン先の同一性を判断して、ID等を振って区別した扱いにしても良い。
これは後述する操作画面管理部が操作を反映する処理に置いて、ペン先が近接した場合の入力状態の判断などに役立つ。また、画像中にペン先がなくても、前後の画像から判断してあるものとして補っても良い。
これは一時的に手の影に隠れてペン先が上方から見えなくなったときも動作を滑らかに継続することができる。
次に、ステップS503において、距離画像認識部1204は、ステップS502において検出されたペン先のうち、ステップS504以降の処理がまだ行われていないものがあるかどうかを判定する。
ステップS504以降の処理がまだ行われていないものがあれば、ステップS504以降の処理を実行し、ステップS504以降の処理がまだ行われていないものがない場合、ステップS501からの処理を繰り返す。
ステップS504において、距離画像認識部1204は、未処理のペン先から任意の一つを選択する。このペン先をPとする。
次に、ステップS1305において、距離画像認識部1204は、ステップS1301において撮像した距離画像中におけるPの画像座標から、対応するPの空間座標を算出する。
即ち、距離画像認識部1204は、ステップS1301において撮影した画像中におけるペン先Pの画像座標pから、Pの真下に当たる空間座標p’を算出する。
尚、xy成分については以下に示す方法で算出する。z成分についてはステップS1350において算出した机までの距離を用いる。
空間座標の原点Orから机103に下ろした垂線の足(0,0,h)をHとすると、Hは操作画面の中心と一致し、机の面における空間座標のxy平面の原点となる。
また、画像中の操作画面の中心の画像座標をH’とすると、H’の画像座標はステップS1351で得た四隅の座標より、((β+α)/2,(ζ+γ)/2)となる。
一方、四隅の空間座標は投影部201と設定部207に記憶された高さhから定まる。
投影部は図4(b)のように、机の面に対して正確に正対して投影を行い、投影される画像は情報処理装置内部のz軸上の点Qを頂点として、x軸方向の投射角度θ、y軸方向の投射角度φの四角錐状であるものとする。
またθとφは既知であるものとする。机面z=hに投影される操作画面の四隅の空間座標は(±h’tanθ,±h’tanφ,h)の四点となる。ここでh’とはQとHの距離であり、QとOrとの距離をfとするとh’=h+fである。
したがって、画像座標から空間座標への変換とは、(α,γ)(α,ζ)(β,γ)(β,ζ)を四隅とする長方形から(±h’tanθ,±h’tanφ,h)を四隅とする長方形へのアフィン変換である。
すなわち、画像座標p=(x,y)について、変換後の空間座標をp’=(2h’tanθ(x−(α+β)/2)/(β−α),2h’tanφ(x−(γ+ζ)/2)/(ζ−γ),h)とする。
なお、投影部201は必ずしも図4(b)のような投影でなくともよく、また変換の方法はここに述べた方法に限らない。例えば、投影部201と机103の面に正対せず、机上の操作画面の像に歪みが起こる場合などは、アフィン変換ではなく射影変換を用いた座標の変換を行ってもよい。
次に、ステップS1311において、距離画像認識部1204は、画像座標Pが操作画面の近傍にあるかどうかを判断する。すなわち、ステップS1305において求めたPの空間座標と机上の操作画面の像との距離を求め、所定の閾値、たとえば5cm未満であるかどうかを判定する。尚、Pの空間座標と机上の操作画面の像との距離が所定の閾値未満であった場合、Pは操作画面と接しているとみなす。閾値を越えた場合はペン先に相当する座標Pが机と接する面に存在していないとみなして、座標Pについての処理を終了してステップS503に戻る。
尚、なお、閾値は他の値でも良いし、例えばz軸方向とxy平面上の距離について分けて設けても良い。また、固定値ではなく、設置状況に合わせて設定部207などから利用者が入力するようにしても良い。
次に、ステップS506において、音認識部205は、集音部203が収録した音から、ステップS505で求めたペン先Pの空間座標p’を音源とする音を抽出する。
尚、音の抽出は、空間座標p’を音源とする音を強調することで行う。
また、空間座標p’を音源とするに音がマイクロホンアレイのそれぞれのマイクに到達するまでの時間の差に応じて音波の位相を遅らせて、それぞれ足し上げる。
こうして空間座標p’から到達した音声が強調され、他の位置から発生した音の影響が軽減される。
Figure 2011253255
数1は、強調した音波を算出する式である式801である。
式801において、W(t)は求める音波あり、tは時刻変数である。また、Fk(t)はk番目のマイクロホンが収録した音声である(k=1、2、3、4)。
また、Vは空気中の音速であり、ここでは340m/sとする。なお温度や気圧を測定する手段を設けて、設置条件における音速のより正確な値を適宜求めても良い。
Lkはk番目のマイクロホンの空間座標と、空間座標p’との距離である。
マイクロホンの空間座標は距離画像撮像部1202との位置関係より既知であるものとすると、Lkは三次元の空間座標間の距離として三平方の定理より求められる。尚、LminはLkのうち最小の距離である。
尚、ここでは音波の重ね合わせによって強調を行ったが、他の方法、例えば数1をフーリエ変換した数2(式802とする)のように、周波数領域について強調を行っても良い。
Figure 2011253255
次に、ステップS507において、音認識部205は、音波W(t)について音量を算出する。即ち、例えば、W(t)の二乗の時間平均を求め、適当な底、例えば10の対数を取ることで空間座標p’における音量を算出する。
次に、ステップS508において、ステップS507で取得した音量が所定の閾値、たとえば50dBを越えたかどうかを判定する。超えない場合はペン先Pが机上に接触していないと判断し、ペン先Pについての処理を終了してステップS503に戻る。
なお、閾値は他の固定値でも良いし、設置状況に合わせて設定部などから利用者が入力するようにしても良い。
また、ここでは接触の判断に音量を用いたが、他の方法、例えば隠れマルコフモデル等の統計モデルを用いて、ペン先と机との接触音の周波数分布の特徴などを評価する方法でも良い。
また、接触の判断に前後の認識結果を用いても良い。例えば前後に接触音の少ないペン先から一時的に接触音を検知し、かつ別の机に接触したペン先と近接している場合は、近接したペン先の接触音を誤って検出しているものと考えて、接触していないものと見なす処理を加えても良い。
次に、ステップS509において、操作画面管理部206は、画像座標pを対応する論理座標p”に変換する。即ち、ステップS1301において撮像した画像中の操作画面の像である、(α,γ)(α,ζ)(β,γ)(β,ζ)を四隅とする長方形を、操作画面の四隅の論理座標が成す長方形にアフィン変換することで画像座標から論理座標への変換を行う。すなわち、操作画面の四隅の論理座標を(κ,μ)(λ,μ)(κ,ν)(λ,ν)(κ<λ、μ<ν)とする。そして、画像座標p=(x,y)について、変換後の論理座標をp”=((λ−κ)(x−(α+β)/2)/(β−α)+(κ+λ)/2,(ν−μ)(x−(γ+ζ)/2)/(ζ−γ)+(μ+ν)/2)とする。
尚、変換の方法はここに述べた方法に限るものではなく、例えば座標に歪みがあればアフィン変換ではなく射影変換を用いてもよい。
次に、ステップS510において、操作画面管理部206は、論理座標p”に対して入力があったものとして操作を反映する。
例として、操作画面105が図5のような表示であった場合について説明する。
即ち、操作画面105に、オブジェクト1100の削除を行うかどうかを確認する確認画面1101が表示されており、確認画面内にOKボタン1102とキャンセルボタン1103が表示されている場合について説明する。
論理座標p”の位置がOKボタン1102の範囲内、例えば1104の位置であると判定され、かつ接触音が検知された場合、操作画面管理部206は、OKボタンの押下と見なしてオブジェクト1100を削除し、確認画面1101を非表示とする。
論理座標p”の位置がキャンセルボタン1103の範囲内、例えば1105の位置であり、かつ接触音が検知された場合、操作画面管理部206はキャンセルボタンの押下と見なして削除を中止し、確認画面1101を非表示とする。
論理座標p”の位置がボタンと無関係な、例えば1106であった場合は、操作画面管理部206は何もしないが、続けて1107の位置に入力があれば、1106と1107の間に線(軌跡)を描画する。尚、本実施形態において、操作画面105におけるボタンとは無関係の領域(部分)は、描画領域であるものとする。
また、ステップS506において、音認識部205は、予め種々のペンと表示面(机103)との接触音の情報を保持し、保持された情報に基づいて、ペン先が表示面と接する面に存在し、接触音が検知された場合、ペン毎に異なる入力として認識してもよい。
具体的には、第1のペンと表示面との接触音である第1の接触音が検知され、第1のペンのペン先の位置が描画領域であった場合、黒色で軌跡を描画する入力と認識する。
また、第1のペンと異なる第2のペンと表示面との接触音である第2の接触音が検知され、第2のペンのペン先の位置が描画領域であった場合、赤色で軌跡を描画する入力と認識してもよい。
尚、以上の動作はあくまで一例であり、これに限るものではない。
ステップS510の処理が完了すると、ペン先Pについての処理は終了となり、ステップS503に戻って別のペン先についての処理を行う。以上のように、複数のペン先が同時に撮像された場合には、各ペン先について処理が順次行われる。
また、1つの撮像画像中のペン先について、処理が十分に短い時間の間に行われれば、例えば1105と1106の両方の位置にペン先があった場合には、OKボタンの押下と線の描画がほぼ同時に為されることになる。
また、ペン先の論理座標を算出するごとに操作画面への反映を行う代わりに、例えば撮像画像中の全てのペン先の論理座標を求めてから、操作画面への反映を同時に行っても良い。
以上のように、ステップS1301からステップS510を十分に短い時間間隔、例えば30分の1秒毎に繰り返すことによって、複数の利用者の机上に対するペンの接触を操作画面に反映することが実現される。尚、時間間隔は別の長さでも良いし、例えばMPUの負荷等によって適宜変更されてもよい。
なお、ペン先を音源とする音を算出するために音声の強調を用いたが、他の音源の影響を打ち消す方法もある。
図6は、他の音源の影響を打ち消す処理の流れを示すフローチャートである。図3に示したフローチャートと同様の工程については、同符号を付し、その説明を省略する。
尚、本フローチャートにおいては、一度、ステップS1302で発見されたペン先のそれぞれについて強調した音を求めてから、改めてそれぞれのペン先について他の音源の影響を除去する処理を施すものとする。
ステップS901において、距離画像認識部1204は、ステップS1302において検出されたペン先のうち、ステップS902以降の処理がまだ行われていないものがあるかどうかを判定する。
尚、ステップS1302でペン先が一つも発見されなかった場合は、ペン先はないものと判断する。
ステップS902において、距離画像認識部1204は、未処理のペン先から任意の一つを選択する。このペン先を再びPとする。
ステップS903において、音認識部205は、ペン先P以外の音源からの音を除去する。ここではP以外のペン先の音を別音源からのノイズとする。
ステップS506で得たPの強調音から、他のペン先の強調音を減算することで除去を行う。数3は、所望の音波を算出する式である。
Figure 2011253255
数3において、WP(t)は、ステップS506で求められた点Pにおける強調音波である。Πは、ステップS1302で発見されたペン先の集合である。こうして求められたW’P(t)を点Pにおける音波として、ステップS507以降ではWの代わりに用いる。
尚、ここでは音波の重ね合わせによって他の音源の影響を除去する処理を行ったが、他の方法、例えば数3の式をフーリエ変換した式を用いて、周波数領域について除去を行っても良い。
また、他の音源としてペン先を考えたが、例えば人間の話し声を除去するために、顔認識で人間の頭部や口唇を認識して、その位置からの音を除去するなどしても良い。
図7(a)(b)は、入力の様子を模式的に示す図である。
図7(a)において、表示面は、机103に相当し、操作画面105に相当する画像が表示されているものとする。
また、距離画像センサにより、表示面と接する領域(面)に所定の形状をもつ物体(例えば、ペン)の先端部(例えば、円錐形のペン先)の三次元空間における位置が特定されているものとする。
また、表示面と、ペンとはペン先ではなない部分で接触しており、表示面とペンとの接触音が検知されているものとする。
この場合、ペン先が表示面と接する面に存在しないため、表示面とペンとの接触音が検知された場合であっても、表示面(または操作画面105)に対する入力とは認識されない。
一方、図7(b)において、所定の形状をもつ物体(例えば、ペン)の先端部(例えば、円錐形のペン先)は、表示面と接触しており、表示面とペンとの接触音が検知されている。
この場合、ペン先が表示面と接する面に存在し、表示面とペンとの接触音が検知されているため、表示面(または操作画面105)に対する入力と認識される。
例えば、ペン先が接している表示面が描画をする領域内である場合、軌跡の描画入力として認識される。
(第2の実施形態)
また、図8(a)は、本実施形態における情報処理装置の機能構成を示す機能ブロック図である。図1(b)に示した機能ブロック図と同一の要素については、同符号を付し、詳細な説明を省略する。
撮像部202は、投影部201が投影した操作画面105を撮像するカメラである。
画像認識部1401は、撮像部202が撮像した画像および距離画像撮像部1202が撮像した距離画像の両方を基に、一方の先端が円錐形をした棒状の物体の認識を行う。尚、他の特徴、例えば人差し指を立てた人間の手の色や形状を認識するようにしてもよい。
画像のみを用いて、距離を判断せず色調の変化のみで判断する場合は、机から大きく離れたペン先についても認識処理を要するため計算量が多くなる懸念がある。一方、距離画像のみを用いて距離の変化のみで判断するためには、解像度の高い距離画像センサが必要である他、色調の情報がないため、動体追跡などを行う場合にペンの個体識別が困難な場合がある。
本実施形態における画像認識部1401は、画像における色調の変化および距離画像における距離の変化の両方から輪郭の検出を行うことで以上の課題による影響を低減できる。
(第3の実施形態)
操作画面の表示方法は天井からの下方投影である必要はなく、他の方法でもよい。また必ずしも利用者が操作をする場所に操作画面の情報が表示される必要もない。
図8(b)は本実施形態に係る情報処理装置の外観一例を示す図である。
操作板1701は長方形の平坦な板で、利用者はこの上にペンや指等を接触することで操作画面の操作を行う。
尚、必ずしも平坦な板である必要はなく、操作の範囲を示すことが出来ればよい。
パーソナルコンピュータ1702は操作板の前方に設置され、操作画面の情報が表示される。また、画像認識部、音認識部、操作画面管理部、設定部として働く。
センサ装置1703は撮像部と集音部を備え、操作画面の上部に設置される。尚、センサ装置はパーソナルコンピュータと一体であっても良い。また位置は操作画面の上部に限らない。
撮像部は、操作画面の代わりに操作板を撮影し、画像認識部は、操作板上に撮像された所定の物体を認識する。操作画面管理部は、操作板の領域の画像座標を、操作画面の論理座標に対応させる変換を行う。
撮像部が操作板とその上のペンや指等を撮像し、ペンや指の位置の音を認識することで操作板上へのペンや指の接触を検知し、操作画面に反映する点については第1乃至第4の実施形態と同様である。利用者は操作板にペンや指を接触させることによって、操作画面上の操作を行うことができる。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (6)

  1. 表示面に画像を表示する表示手段と、
    距離画像センサを用いて、所定の形状をもつ物体の三次元空間における位置を特定する特定手段と、
    前記表示面と接する面に前記物体が存在するかを判定する判定手段と、
    前記表示面と接する面に前記物体が存在すると判定されたことを、前記表示面の前記特定された位置に表示された部分に対する入力として認識する認識手段とを有する情報処理装置。
  2. 更に、複数のマイクロホンを介して収録された音に、特定された前記位置を音源とする前記表示面と前記物体との接触音が含まれるかを検出する検出手段を有し、
    前記認識手段は、前記表示面と接する面に前記物体が存在すると判定され、かつ前記接触音が検知されたことを、前記表示面の前記特定された位置に表示された部分に対する入力として認識することを特徴とする請求項1に記載の情報処理装置。
  3. 前記特定された位置が、描画をする領域内である場合、前記入力とは、描画入力であることを特徴とする請求項1または請求項2に記載の情報処理装置。
  4. 前記特定された位置が、ボタンが表示された領域内である場合、前記入力とは、前記ボタンを指定する入力であることを特徴とする請求項1または請求項2に記載の情報処理装置。
  5. 表示面に対する入力を認識する情報処理装置の動作方法であって、
    前記表示面に画像を表示する表示工程と、
    距離画像センサを用いて、所定の形状をもつ物体の三次元空間における位置を特定する特定工程と、
    前記表示面と接する面に前記物体が存在するかを判定する判定工程と、
    前記表示面と接する面に前記物体が存在すると判定されたことを、前記表示面の前記特定された位置に表示された部分に対する入力として認識する認識工程とを有する動作方法。
  6. 請求項5に記載の動作方法をコンピュータに実行させるためのプログラム。
JP2010125243A 2010-05-31 2010-05-31 情報処理装置およびその動作方法 Active JP5623138B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010125243A JP5623138B2 (ja) 2010-05-31 2010-05-31 情報処理装置およびその動作方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010125243A JP5623138B2 (ja) 2010-05-31 2010-05-31 情報処理装置およびその動作方法

Publications (3)

Publication Number Publication Date
JP2011253255A true JP2011253255A (ja) 2011-12-15
JP2011253255A5 JP2011253255A5 (ja) 2013-07-18
JP5623138B2 JP5623138B2 (ja) 2014-11-12

Family

ID=45417165

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010125243A Active JP5623138B2 (ja) 2010-05-31 2010-05-31 情報処理装置およびその動作方法

Country Status (1)

Country Link
JP (1) JP5623138B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013134549A (ja) * 2011-12-26 2013-07-08 Sharp Corp データ入力装置およびデータ入力方法
WO2015111402A1 (ja) * 2014-01-21 2015-07-30 セイコーエプソン株式会社 位置検出装置、位置検出システム、及び、位置検出方法
CN105988638A (zh) * 2015-03-23 2016-10-05 精工爱普生株式会社 位置检测装置及其控制方法和显示装置及其控制方法
JP2017027311A (ja) * 2015-07-21 2017-02-02 キヤノン株式会社 情報処理装置、その制御方法、プログラム、および記憶媒体
WO2019230461A1 (ja) * 2018-05-28 2019-12-05 マクセル株式会社 映像表示装置、映像表示方法
WO2020208974A1 (ja) * 2019-04-10 2020-10-15 株式会社村上開明堂 基準位置設定方法及び操作検出装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001269428A (ja) * 2000-03-24 2001-10-02 Namco Ltd 打音検出システム及び情報記憶媒体
JP2003122505A (ja) * 2001-10-12 2003-04-25 Sony Corp 情報処理装置、情報処理システム、及びプログラム
JP2006252037A (ja) * 2005-03-09 2006-09-21 Nippon Telegr & Teleph Corp <Ntt> 指定操作検出装置、プログラム、指定操作検出方法及び操作検出システム
JP2008134793A (ja) * 2006-11-28 2008-06-12 Fujifilm Corp 電子的手書入力装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001269428A (ja) * 2000-03-24 2001-10-02 Namco Ltd 打音検出システム及び情報記憶媒体
JP2003122505A (ja) * 2001-10-12 2003-04-25 Sony Corp 情報処理装置、情報処理システム、及びプログラム
JP2006252037A (ja) * 2005-03-09 2006-09-21 Nippon Telegr & Teleph Corp <Ntt> 指定操作検出装置、プログラム、指定操作検出方法及び操作検出システム
JP2008134793A (ja) * 2006-11-28 2008-06-12 Fujifilm Corp 電子的手書入力装置

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013134549A (ja) * 2011-12-26 2013-07-08 Sharp Corp データ入力装置およびデータ入力方法
CN105874414B (zh) * 2014-01-21 2019-01-01 精工爱普生株式会社 位置检测装置、位置检测系统以及位置检测方法
WO2015111402A1 (ja) * 2014-01-21 2015-07-30 セイコーエプソン株式会社 位置検出装置、位置検出システム、及び、位置検出方法
JP2015158890A (ja) * 2014-01-21 2015-09-03 セイコーエプソン株式会社 位置検出装置、位置検出システム、及び、位置検出方法
CN105874414A (zh) * 2014-01-21 2016-08-17 精工爱普生株式会社 位置检测装置、位置检测系统以及位置检测方法
US10429994B2 (en) 2014-01-21 2019-10-01 Seiko Epson Corporation Position detection device, position detection system, and position detection method
KR101811794B1 (ko) * 2014-01-21 2017-12-22 세이코 엡슨 가부시키가이샤 위치 검출 장치, 위치 검출 시스템 및, 위치 검출 방법
CN105988638B (zh) * 2015-03-23 2019-04-23 精工爱普生株式会社 位置检测装置及其控制方法和显示装置及其控制方法
CN105988638A (zh) * 2015-03-23 2016-10-05 精工爱普生株式会社 位置检测装置及其控制方法和显示装置及其控制方法
JP2017027311A (ja) * 2015-07-21 2017-02-02 キヤノン株式会社 情報処理装置、その制御方法、プログラム、および記憶媒体
WO2019230461A1 (ja) * 2018-05-28 2019-12-05 マクセル株式会社 映像表示装置、映像表示方法
WO2020208974A1 (ja) * 2019-04-10 2020-10-15 株式会社村上開明堂 基準位置設定方法及び操作検出装置
CN113661474A (zh) * 2019-04-10 2021-11-16 株式会社村上开明堂 基准位置设定方法和操作检测装置
US20220206629A1 (en) * 2019-04-10 2022-06-30 Murakami Corporation Reference position setting method and operation detection device
US11662860B2 (en) 2019-04-10 2023-05-30 Murakami Corporation Reference position setting method and operation detection device for displaying an operation surface as a virtual image
JP7431220B2 (ja) 2019-04-10 2024-02-14 株式会社村上開明堂 基準位置設定方法及び操作検出装置

Also Published As

Publication number Publication date
JP5623138B2 (ja) 2014-11-12

Similar Documents

Publication Publication Date Title
JP5623138B2 (ja) 情報処理装置およびその動作方法
JP6723814B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP6327931B2 (ja) 画像処理装置、情報処理方法及びプログラム
JP6054527B2 (ja) 皮膚によるユーザ認識
US9035889B2 (en) Information processing apparatus and information processing method
US8913037B1 (en) Gesture recognition from depth and distortion analysis
US9703371B1 (en) Obtaining input from a virtual user interface
JP2010079834A (ja) 座標検出装置の取り付け位置判断装置及び電子ボードシステム
KR20120068253A (ko) 사용자 인터페이스의 반응 제공 방법 및 장치
TWI496094B (zh) 手勢辨識模組及手勢辨識方法
JP2014235634A (ja) 手指動作検出装置、手指動作検出方法、手指動作検出プログラム、及び仮想物体処理システム
JP2016091457A (ja) 入力装置、指先位置検出方法及び指先位置検出用コンピュータプログラム
US9390500B1 (en) Pointing finger detection
JP2016162162A (ja) 接触検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、プロジェクタシステム及び接触検出方法
US11886643B2 (en) Information processing apparatus and information processing method
JP2014238727A (ja) 情報処理装置およびその方法
JP6399840B2 (ja) 画像処理装置、画像処理方法及びプログラム
TWI486815B (zh) 顯示設備及其控制系統和方法
JP2017219942A (ja) 接触検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、プロジェクタシステム、接触検出方法、プログラム及び記憶媒体。
JP2014142695A (ja) 情報処理装置、システム、画像投影装置、情報処理方法およびプログラム
JP6746419B2 (ja) 情報処理装置、及びその制御方法ならびにコンピュータプログラム
JP2005267257A (ja) 手書き情報入力システム
JP2015198406A (ja) 画像読取装置、方法およびプログラム
JP2016525235A (ja) 文字入力のための方法及びデバイス
JP6643825B2 (ja) 装置及び方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130531

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130531

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140310

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140826

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140924

R151 Written notification of patent or utility model registration

Ref document number: 5623138

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151