JP4870651B2 - 情報入力システムおよび情報入力方法 - Google Patents

情報入力システムおよび情報入力方法 Download PDF

Info

Publication number
JP4870651B2
JP4870651B2 JP2007300841A JP2007300841A JP4870651B2 JP 4870651 B2 JP4870651 B2 JP 4870651B2 JP 2007300841 A JP2007300841 A JP 2007300841A JP 2007300841 A JP2007300841 A JP 2007300841A JP 4870651 B2 JP4870651 B2 JP 4870651B2
Authority
JP
Japan
Prior art keywords
input
image
input operation
operation position
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007300841A
Other languages
English (en)
Other versions
JP2009129021A (ja
Inventor
美木子 中西
力 堀越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2007300841A priority Critical patent/JP4870651B2/ja
Publication of JP2009129021A publication Critical patent/JP2009129021A/ja
Application granted granted Critical
Publication of JP4870651B2 publication Critical patent/JP4870651B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Input From Keyboards Or The Like (AREA)

Description

本発明は、入力操作を行うための情報入力システムおよび情報入力方法に関する。
従来、キーボード等の入力装置を有していない情報処理装置に対し、ユーザによる入力操作を行うための手法が提案されている。
例えば、特許文献1には、バーチャルキーボードにおける各キーの位置に向けて光を照射し、その反射光を受光してユーザの指の位置を検出することで、各キーへの入力を行う技術が知られている。
また、非特許文献1には、複数台のカメラを用いてユーザの指がディスプレイに接触する位置を検出する技術が知られている。
特許第3327218号公報 吉村 康弘,「指先情報を用いたVision-based Interfaceの提案」,火の国情報シンポジウム2005 論文集
しかしながら、特許文献1に記載された技術においては、発光装置および受光装置が必要となる上、ユーザの入力操作位置を正確に判定するために、装置を平面で動作させなければならないという制約があり、簡単に入力操作を行うことは困難である。
また、非特許文献1に記載された技術においては、複数のカメラを用いてユーザの指の位置を判定しているため、正確に指の位置を測定するには、カメラの位置を予め把握しておかなければならない等の制約があり、やはり簡単に入力操作を行うことは困難である。
このように、従来の技術においては、入力装置を有していない情報処理装置に対し、簡単に入力操作を行うことは困難であった。
本発明の課題は、入力装置を有していない情報処理装置に対し、簡単に入力操作を行うことである。
以上の課題を解決するために、本発明は、
鏡面反射性を有する入力用反射部材(例えば、図1の反射部材10)と、前記入力用反射部材の画像を撮影する撮像部(例えば、図2の入力検出部21)と、前記入力用反射部材を検出する検出部(例えば、図2の投影領域算出部22a)と、前記撮像部によって撮影された画像に基づいて、前記入力用反射部材におけるユーザの入力操作位置を検出する入力操作位置検出部(例えば、図2の入力位置算出部22b)と、前記入力操作位置検出部によって検出されたユーザの入力操作位置を基に、情報の入力操作内容を決定する入力内容決定部(例えば、図2の変換部24)と、を備え、前記入力操作位置検出部は、入力操作を行う物体と、前記入力用反射部材に映った該物体の鏡像とを検出し、それらが連続した位置をユーザの入力操作位置として検出することを特徴としている。
また、前記撮像部によって撮影された前記入力用反射部材の画像に合わせて、ユーザインターフェースの画像を表示する表示部(例えば、図2の映像蓄積部23および表示部25)を備えることを特徴としている。
また、前記入力用反射部材の状態を検出する投影領域算出部(例えば、図2の投影領域算出部22a)と、前記投影領域算出部によって算出された前記入力用反射部材の状態に合わせて、前記表示部に表示する画像を補正する画像補正部(例えば、図2の変換部24)とを備えることを特徴としている。
また、前記投影領域算出部は、前記入力用反射部材の状態を検出する複数の特徴点を該入力用反射部材の画像上で設定し、前記複数の特徴点の位置関係に基づいて、前記ユーザインターフェースの画像を表示することを特徴としている
また、本発明は、
鏡面反射性を有する入力用反射部材と、前記入力用反射部材の画像を撮影する撮像部と、前記入力用反射部材を検出する検出部と、前記撮像部によって撮影された画像に基づいて、前記入力用反射部材におけるユーザの入力操作位置を検出する入力操作位置検出部と、前記入力操作位置検出部によって検出されたユーザの入力操作位置を基に、情報の入力操作内容を決定する入力内容決定部と、を備え、前記入力操作位置検出部は、入力操作を行う物体と前記入力用反射部材に映った該物体の鏡像とを検出し、それらが連続した位置をユーザの入力操作位置として検出する情報入力システムによって実現される情報入力方法であって、前記撮像部により前記入力用反射部材の画像を撮影する撮像ステップと、前記検出部により前記入力用反射部材を検出する検出ステップと、前記入力操作位置検出部により、前記撮像部で撮影された画像に基づいて、前記入力用反射部材におけるユーザの入力操作位置を検出する入力操作位置検出ステップと、前記入力内容決定部により、前記入力操作位置検出部で検出されたユーザの入力操作位置を基に、情報の入力操作内容を決定する入力内容決定ステップと、を含み、前記入力操作位置検出ステップでは、入力操作を行う物体と、前記入力用反射部材に映った該物体の鏡像とを検出し、それらが連続した位置をユーザの入力操作位置として検出することを特徴としている。
本発明によれば、入力装置を有していない情報処理装置に対し、簡単に入力操作を行うことが可能となる。
以下、図を参照して本発明を適用した情報入力システムの実施の形態を説明する。
(構成)
図1は、本発明に係る情報入力システム1のシステム構成を示す図である。
図1において、情報入力システム1は、反射部材10と、メガネ型ディスプレイ20とを備えている。
反射部材10は、ユーザが入力操作を行うにあたり、ユーザの指、あるいは、ペン等の操作具を接触させる板状の部材であり、その表面が反射性を有する部材である。
この反射部材10として、例えば鏡、アルミ板あるいはハーフミラーフィルム等、光を反射する種々の部材を採用することができる。なお、反射部材10は、光の反射を利用する場合以外に、赤外線やミリ波等、他の周波数領域の電磁波を対象として、その反射を利用するものとしても良い。
また、反射部材10には、ユーザが情報の入力操作を行う際に、反射部材10の特定を補助するためのマーカ10aが取り付けられる。
マーカ10aには、他の物体と反射部材10とを容易に識別できる図柄(以下、「特徴図柄」という。)が描画されており、後述する投影領域算出部22aが、このマーカ10aに描画された特徴図柄を検出することにより、反射部材10の領域を検出する。
なお、特徴図柄を描画したマーカ10aを反射部材10に取り付ける方法以外にも、特徴図柄を反射部材10に直接描画したり、特徴図柄の形状としたマーカ10aを反射部材10に取り付けたりすることが可能である。また、特徴図柄は、予め設定された図柄としたり、ユーザが利用に際して生成した図柄としたり、物体中から自動的に抽出した図柄としたりできる。また、デフォルトの特徴図柄は、ユーザが指定すること、および、電源投入時に自動的に指定することが可能である。
メガネ型ディスプレイ20は、メガネのレンズ部分を表示パネルよって構成された表示装置であり、キーボードやタッチパネルのボタン等、ユーザインターフェースの画像を反射部材10に重畳して表示する。
このとき、メガネ型ディスプレイ20は、オプティカルシースルー型あるいはビデオシースルー型のヘッドマウントディスプレイとして構成することが可能である。具体的には、メガネ型ディスプレイ20のレンズ部分を小型の液晶ディスプレイによって構成し、外界の画像を液晶ディスプレイに表示すると共に、外界の画像における反射部材10の領域にユーザインターフェースを重畳して表示することや、メガネ型ディスプレイ20のレンズ部分をバックライトなしの透過型の液晶パネルによって構成し、液晶パネルを透過してユーザの目に入る景色において、反射部材10の領域にユーザインターフェースの画像を重畳して表示すること等が可能である。
なお、左右の目の位置と外界の物体の位置との関係から、左右両眼の視差を推定し、メガネ型ディスプレイ20の左右の液晶パネルそれぞれにおいて、両眼の視差に合わせた位置にユーザインターフェースを表示することとしても良い。このようにユーザインターフェースを表示することで、ユーザに立体感(奥行き)のある映像を見せることができる。
次に、情報入力システム1の機能構成について説明する。
図2は、本発明に係る情報入力システム1の機能構成を示すブロック図である。
図2において、情報入力システム1は、反射部材10と、入力検出部21と、画像処理部22と、映像蓄積部23と、変換部24と、表示部25とを含んで構成されている。なお、図2における入力検出部21、画像処理部22、映像蓄積部23、変換部24、および、表示部25がメガネ型ディスプレイ20を構成している。
これらのうち、入力検出部21は、周囲の空間における反射部材10を検出するセンサである。
具体的には、入力検出部21は、外界の画像を撮影するカメラ(可視光あるいは赤外線カメラ等)によって構成され、このカメラは、メガネ型ディスプレイ20のブリッジ部分あるいはフレーム部分に設置されている。なお、カメラの設置位置は、ユーザの視線に近い画角で撮影することができれば、メガネ型ディスプレイ20のブリッジ部分やフレーム部分以外とすることも可能であり、例えば、メガネ型ディスプレイ20をビデオシースルー型とした場合、メガネ型ディスプレイ20のレンズ部分にカメラを設置することも可能である。
ここで、メガネ型ディスプレイ20から見た反射部材10の位置がわかれば、液晶パネルにおける反射部材10の画面領域にユーザインターフェースを重畳して表示することができる。そこで、外界の画像を撮影して反射部材10を特定する形態の他、入力検出部21は、位置センサ、加速度センサあるいは地磁気センサ等、反射部材10の位置を検出するための各種センサを備え、これらセンサによって検出した位置を基に、空間における反射部材10を検出することが可能である。
なお、入力検出部21は、センサを情報入力システム1のユーザ周辺に設置した形態や、センサをユーザが携帯して使用する形態としても良い。
そして、入力検出部21は、撮影した画像や、反射部材10とカメラとの距離あるいは反射部材10の位置等のデータを画像処理部22に出力する。
画像処理部22は、投影領域算出部22aと、入力位置算出部22bと、登録部22cとを含んで構成される。
投影領域算出部22aは、後述する投影領域算出処理を実行することにより、入力検出部21によって撮影された画像において反射部材10の画像および反射領域の状態(位置、大きさ、傾き等)等を検出する。このとき、投影領域算出部22aは、カメラによって撮影された画像において、マーカ10に描画された特徴図柄とのマッチングを行うことにより、反射部材10の画像を検出することができる。
入力位置算出部22bは、入力検出部21によって撮影された画像において、反射部材10の領域に対するユーザの入力操作位置を算出する。
ここで、情報の入力が行われる場合、入力検出部21によって撮影された画像中には、常にユーザの指や入力に利用する操作具(ペン等)が映っていると考えられるため、入力位置算出部22bでは、入力動作を行ったタイミングおよび位置を認識する必要がある。そして、反射部材10は、鏡のように反射して物体の像を映すことができるため、指や操作具が反射部材10に接触したとき、指や操作具自体の撮影画像と鏡に映っている指や操作具の反射像(鏡像)とが連結することとなる。これを利用して、入力検出部21によって撮影された画像中から鏡像関係の形状を持つ領域を抽出し、鏡像関係の領域同士が連結した位置を入力操作位置として検出することができる。なお、鏡像関係の領域を検出する場合以外にも、人の指によって入力が行われる場合に、肌色領域を検出して、離れていた肌色領域同士が連結したことを検出することにより、入力操作位置を検出することができる。また、指やペンなどの形状を登録部22cに予め登録しておき、その形状が連結した部分を入力操作位置として検出することができる。
そして、入力位置算出部22bは、このようにして得られた入力操作位置を示す情報を変換部24に出力する。
登録部22cは、ユーザが情報の入力に用いる指や操作具の形状等の特徴あるいはマーカ10aに描画された特徴図柄のデータを予め記憶している。これらのデータは、情報入力システム1を使用するユーザが使用に先立って登録することや、既定の操作具や特徴図柄のデータをサンプルデータとして予め登録しておくこと等が可能である。
映像蓄積部23は、表示部25において表示する画像のデータが蓄積されている。映像蓄積部23には、キーボードやタッチパネル等のユーザインターフェースのみの画像や、ユーザインターフェースと、それに入力された内容を併せて示す画像、あるいは、キーボード等を備えた情報処理装置における表示画面と同様の画像の画像データを蓄積しておくことができる。これらのうち、いずれの画像を表示するかは、ユーザが事前に選んだり、コンテンツに応じて自動に決定したりしても良い。また、映像蓄積部23は、メガネ型ディスプレイ20内のメモリ上に実現したり、通信網を介したサーバを利用して実現したりすることができる。
変換部24は、画像処理部22において検出あるいは算出されたデータ(変換パラメータ等)を基に、映像蓄積部23によって出力された画像データの変換および書き換え処理を行う。このとき、映像蓄積部23は、投影領域算出部22aから入力された変換パラメータに対しては、それを基に撮影した画像の形状を変換する処理を行い、入力位置算出部22bから入力された入力操作位置の情報に対しては、その入力操作を、操作位置からシステムに対する命令に変換し、入力操作に応じた出力が表示されるように映像を書き換える。
表示部25は、映像蓄積部23によって出力された画像を表示する。この表示部25は、ここではヘッドマウントディスプレイのようなメガネ型ディスプレイとして構成される。なお、反射部材10を入力検出部21によって撮影し、反射部材10の画像領域にユーザインターフェースを重畳した画像を生成して、その画像を一般の置き型ディスプレイに表示することによっても、本発明の情報入力方法を実現することができる。
(動作)
次に、動作を説明する。
図3は、情報入力システム1が実行する情報入力処理を示すフローチャートである。情報入力処理は、情報入力システム1において情報の入力機能を実現するための処理であり、情報入力システム1の電源投入と共に開始される。
なお、情報入力処理の実行に先立ち、ユーザによって反射部材10にマーカ10aが取り付けられている。
図3において、情報入力処理が開始されると、情報入力システム1は、入力検出部21によって、マーカ10aに描画された特徴図柄を含む反射部材10の画像を撮影する(ステップS1)。
次に、情報入力システム1は、反射部材10の領域にキーボード等のユーザインターフェースを重畳して表示するため、投影領域算出部22aによって、反射部材10の領域およびその状態(位置、大きさ、傾き等)をステップS1で検出された画像を基に検出する(ステップS2)。このとき、投影領域算出部22aは、反射部材10のオプティカルフロー、エッジ、あるいは、色の特徴を基に、特徴図柄の動きと同期する領域を検出する。例えば、特徴図柄と同様の動きを示しているオプティカルフローの集合領域を特徴図柄の動きと同期する領域として検出する。このようにして検出された範囲が反射部材10の領域として検出される。
また、このとき、投影領域算出部22aは、検出した反射部材10の領域を矩形によって近似する。あるいは、矩形によって近似する以外にも、領域の外側や、特徴の性質が周囲と変化する境界を検出し、境界線内の領域の形状を抽出してもよい。
また、ステップS2においては、反射部材10の状態を検出した際、反射部材10の中から2点以上(例えば、3〜4点)の特徴点を取得する。この特徴点は反射部材10の領域に重畳する画像の形状を補正するために設定される。この特徴点はユーザが手動で設定してもよいし、自動で抽出してもよい。この際、特徴点とマーカ10aとの位置関係を検出しておく。
図4は、反射部材10の領域が矩形によって近似された状態を示す模式図である。
図4においては、反射部材10の領域が矩形によって近似されていると共に、特徴点(矩形の四隅)が取得されている。
引き続く以下の処理では、特徴点に合わせて、反射部材10の領域と重畳してユーザインターフェースの画像を表示する処理が行われる。
即ち、投影領域算出部22aは、反射部材10の向きと撮影画像における反射部材10の領域に重畳する画像の向きとを一致させるために、ユーザインターフェース画像の変換処理を行う。この変換処理を行うにあたり、反射部材10の状態とマーカ10aの状態とは一致しているため、マーカ10aの状態がわかれば、反射部材10の状態およびその特徴点の座標も知ることができる。
そこで、反射部材10の特徴点と画像の形状とを対応づけるため、投影領域算出部22aは、ユーザインターフェース画像の変換パラメータを算出する(ステップS3)。
ステップS3において変換処理を行うための変換行列Mは、(1)式に示すように、画像上にある座標(X,Y,Z)を反射部材10の特徴点の座標(x,y,z)に合わせて、それぞれの軸に対する回転移動や平行移動を行う行列で表現される。この変換行列Mによると、反射部材10が回転している場合は回転パラメータR部分がその回転角度θaによって規定され、平行移動の場合にはΔX,ΔY,ΔZのうち、その移動軸に従ったパラメータが規定される。
Figure 0004870651
そして、情報入力システム1は、ステップS3において算出された変換パラメータによって、ユーザインターフェースの画像を変換し(ステップS4)、変換したユーザインターフェースの画像を反射部材10の領域に重畳して表示する(ステップS5)。
このような形態でユーザインターフェースの画像を表示すると、反射部材10の状態が変化した場合、それに合わせてユーザインターフェースの画像も状態を変化されて表示されることとなる。
図5は、反射部材10が傾けられた場合に、ユーザインターフェースの画像も傾けて表示されている状態を示す図である。
これにより、ユーザは、反射部材10への入力操作を容易に行うことができる。
そして、ステップS5において表示されたユーザインターフェースに指等によって入力操作を行うと、情報入力システム1は、入力位置算出部22bによって、ユーザの入力操作位置を検出する(ステップS6)。
このとき、ユーザインターフェースの画像は鏡(反射部材10)に重畳されているため、ユーザの指等は鏡に対して操作を行うことになる。
図6は、反射部材10に操作を行う指と、その鏡像とを示す図である。
図6(a)に示すように、指が反射部材10に近づいていき、図6(b)に示すように指が反射部材10と接触すると、指とその鏡像とが連続する位置関係となる。このように接触した位置を検出するために、例えば、肌色領域を予め追従しておくことができる。追従していた2つの肌色領域が連続したとき、指が反射部材10に接触した(入力した)と判定する。このとき、接触を判定する上で、(1)手の形状であること、(2)線対称の形状を持つ肌色領域同士の距離が近づくこと、(3)画像を重畳している鏡の領域内に存在する肌色領域であること、といった条件を考慮することで、より精度の高い判定を行うことができる。このようにして判定されたユーザの指と鏡との接触点の位置を入力操作位置として用いる。
そして、情報入力システム1は、ユーザの指等が接触した位置に対応するユーザインターフェースの位置から、ユーザが行った入力操作を判別し、その入力操作内容に応じて、メガネ型ディスプレイ20に表示する画像を書き換える(ステップS7)。
ステップS7の後、情報入力システム1は、情報入力処理を繰り返す。
このような処理により、メガネ型ディスプレイ20を装着したユーザは、メガネ型ディスプレイ20を通して鏡等の反射部材10を見たとき、反射部材10の部分にユーザインターフェースが描画された状態を視認することとなり、その反射部材10に対して、入力操作を行うことができる。そして、その入力操作をメガネ型ディスプレイ20が検出し、ユーザインターフェースにおける入力操作として判別することで、ユーザの意図した入力操作が行われることとなる。
次に、投影領域算出部22aが実行する投影領域算出処理について説明する。
図7は、投影領域算出部22aが実行する投影領域算出処理を示すフローチャートである。
投影領域算出処理は、図3に示すステップS2〜S3において投影領域算出部22aが実行する処理に対応している。
図7において、投影領域算出処理が開始されると、投影領域算出部22aは、入力検出部21から反射部材10の画像等のデータを取得する(ステップS101)。
次に、投影領域算出部22aは、登録部22cを参照し、特徴図柄のデータが登録されているか否かの判定を行う(ステップS102)。
ステップS102において、登録部22cに特徴図柄のデータが登録されていないと判定した場合、投影領域算出部22aは、撮影された画像内に存在する特徴から反射部材10の領域を検出する(ステップS103)。
このとき、投影領域算出部22aは、反射部材10の状態を検出するために必要な特徴点としてユーザが指やペン等で指定した点を基準点として検出し、その基準点を結んだ領域を反射部材10の領域として検出する。また、反射部材10を細かく振動させること等によって、反射部材10に映っている画像(背景)のみが同期して振動するため、画像中から同期して振動する領域を検出することにより、反射部材10の領域を検出することができる。この同期して振動する領域(動き領域)の検出方法としては、オプティカルフローやブロックマッチングによる速度場の検出方法等を用いることができる。
一方、ステップS102において、登録部22cに特徴図柄のデータが登録されていると判定した場合、投影領域算出部22aは、登録部22cに登録されている特徴図柄のデータを基に、反射部材10の領域を検出する(ステップS104)。
そして、投影領域算出部22aは、ステップS103およびステップS104において検出された反射部材10の領域を基に、反射部材10の状態(位置、大きさ、傾き等)を検出する(ステップS105)。
さらに、投影領域算出部22aは、反射部材10の領域における2点以上の特徴点を取得する(ステップS106)。この特徴点は反射部材10の領域に重畳する画像の形状を補正するために設定される。上述の通り、この特徴点はユーザが手動で設定してもよいし、自動で抽出してもよい。この際、特徴点とマーカ10aとの位置関係を検出しておく。
そして、投影領域算出部22aは、反射部材10の特徴点と画像の形状とを対応づけるため、ユーザインターフェース画像の変換パラメータ((1)式参照)を算出する(ステップS107)。
ここで、反射部材10の形状、大きさおよび変換パラメータは、入力検出部21によって得られた画像1フレーム毎に算出することや、最初のフレームのみ反射部材10の形状、大きさを算出し、後続のフレームは、その特徴領域の特徴点のトラッキング処理のみを行い、最初に算出した反射部材10の形状をもとに現在の入力部の形状を推定すること等が可能である。特徴点のトラッキングを行う場合、反射部材10の形状が正確に検出できなくても、反射部材10内に存在する数点の動きが検出できれば、最初に検出した反射部材10の形状および前フレームの反射部材10の状態から、現在の状態を推定することができる。
また、反射部材10の急激な変動や、細かな振動に対して、高い精度で変換パラメータを算出せず、変動量の閾値を設けることにより、前フレーム内の反射部材10の状態との変化が閾値を超えた場合のみ、変換パラメータを算出するという方法も採用可能である。さらに、前フレームから次の反射部材10の状態を過去の状態変位に基づいて予測し、予測値と実際の反射部材10の状態とを比較して、予測値より前フレームとの変動が大きい場合は実際の反射部材10の状態での変換パラメータを算出し、予測値より前フレームとの変動が小さい場合は予測値での変換パラメータを算出するという方法も採用可能である。
なお、上記処理において、反射部材10をユーザが目前に持ってきて利用する場合、反射部材10にはユーザの顔が映っていると考えられ、既存の顔認識技術を用いると、ユーザの顔の向き検出することができる。これを利用して、ユーザが反射部材10を見たときのみユーザインターフェースの画像を重畳したりする等、反射部材10を見ているか否かというユーザの状態に合わせてサービスを提供することができる。また、ユーザが反射部材10を見ているか否かという判定には、顔の向きだけではなく、視線を検出することもできるし、装着しているメガネ型ディスプレイ20の形状から判定することもできる。
また、メガネ型ディスプレイ20に通信機能を設け、反射部材10に家電のリモコンの映像を投影することによって、テレビなどの周囲にある機器を操作することもできる。
以上のように、本実施の形態に係る情報入力システム1は、光を反射する反射部材10と、カメラを備えたメガネ型ディスプレイ20とを含み、メガネ型ディスプレイ20によって撮影した画像において、反射部材10の領域を検出し、その領域にユーザインターフェースの画像が重畳して表示される。そして、メガネ型ディスプレイ20を装着したユーザは、その反射部材10のユーザインターフェースに入力操作を行うと、その入力操作が検出され、ユーザインターフェースにおいて入力操作を行った位置と対応する情報の入力が行われる。
即ち、メガネ型ディスプレイ20を装着したユーザは、メガネ型ディスプレイ20を通して鏡等の反射部材10を見たとき、反射部材10の部分にユーザインターフェースが描画された状態を視認することとなる。そして、ユーザが反射部材10に対して入力操作を行うことで、ユーザの意図した入力操作が行われることとなる。
したがって、入力装置を有していない情報処理装置に対し、簡単に入力操作を行うことが可能となる。
図8は、本実施形態に係る情報入力システム1の使用状態例を示す図である。
図8に示すように、本実施形態に係る情報入力システム1においては、メガネ型ディスプレイ20を装着したユーザが、メガネ型ディスプレイ20を通して鏡等の反射部材10を見たときに、反射部材10の部分にユーザインターフェースが描画された状態を見ることとなり、反射部材10に入力操作を行うことで、意図した情報入力を行うことができる。
このような反射部材10は、携帯型のミラー等、身近で簡易なものによって構成できるため、入力装置を有していない情報処理装置に対しても、簡単に入力操作を行うことが可能である。
なお、本実施形態においては、反射部材10の領域にキーボード等のユーザインターフェースの画像を重畳して表示し、そのユーザインターフェースの画像に各種入力操作を行う場合を例に挙げて説明したが、クリックしたか否か、あるいは、ボタンの押下回数等で入力を行うことができる場合には、ユーザインターフェースの画像を表示することなく、ユーザが反射部材10に接触したことや、その回数を検出することで、情報の入力を行うことができる。
情報入力システム1のシステム構成を示す図である。 情報入力システム1の機能構成を示すブロック図である。 情報入力システム1が実行する情報入力処理を示すフローチャートである。 反射部材10の領域が矩形によって近似された状態を示す模式図である。 反射部材10が傾けられた場合に、ユーザインターフェースの画像も傾けて表示されている状態を示す図である。 反射部材10に操作を行う指と、その鏡像とを示す図である。 投影領域算出部22aが実行する投影領域算出処理を示すフローチャートである。 情報入力システム1の使用状態例を示す図である。
符号の説明
1 情報入力システム、10 反射部材、20 メガネ型ディスプレイ、21 入力検出部、22 画像処理部、22a 投影領域算出部、22b 入力位置算出部、22c 登録部、23 映像蓄積部、24 変換部、25 表示部

Claims (5)

  1. 鏡面反射性を有する入力用反射部材と、
    前記入力用反射部材の画像を撮影する撮像部と、
    前記入力用反射部材を検出する検出部と、
    前記撮像部によって撮影された画像に基づいて、前記入力用反射部材におけるユーザの入力操作位置を検出する入力操作位置検出部と、
    前記入力操作位置検出部によって検出されたユーザの入力操作位置を基に、情報の入力操作内容を決定する入力内容決定部と、を備え、
    前記入力操作位置検出部は、入力操作を行う物体と、前記入力用反射部材に映った該物体の鏡像とを検出し、それらが連続した位置をユーザの入力操作位置として検出することを特徴とする情報入力システム。
  2. 前記撮像部によって撮影された前記入力用反射部材の画像に合わせて、ユーザインターフェースの画像を表示する表示部を備えることを特徴とする請求項1記載の情報入力システム。
  3. 前記入力用反射部材の状態を検出する投影領域算出部と、
    前記投影領域算出部によって算出された前記入力用反射部材の状態に合わせて、前記表示部に表示する画像を補正する画像補正部とを備えることを特徴とする請求項2記載の情報入力システム。
  4. 前記投影領域算出部は、前記入力用反射部材の状態を検出する複数の特徴点を該入力用反射部材の画像上で設定し、前記複数の特徴点の位置関係に基づいて、前記ユーザインターフェースの画像を表示することを特徴とする請求項2または3記載の情報入力システム。
  5. 鏡面反射性を有する入力用反射部材と、
    前記入力用反射部材の画像を撮影する撮像部と、
    前記入力用反射部材を検出する検出部と、
    前記撮像部によって撮影された画像に基づいて、前記入力用反射部材におけるユーザの入力操作位置を検出する入力操作位置検出部と、
    前記入力操作位置検出部によって検出されたユーザの入力操作位置を基に、情報の入力操作内容を決定する入力内容決定部と、を備え、
    前記入力操作位置検出部は、入力操作を行う物体と前記入力用反射部材に映った該物体の鏡像とを検出し、それらが連続した位置をユーザの入力操作位置として検出する情報入力システムによって実現される情報入力方法であって、
    前記撮像部により前記入力用反射部材の画像を撮影する撮像ステップと、
    前記検出部により前記入力用反射部材を検出する検出ステップと、
    前記入力操作位置検出部により、前記撮像部で撮影された画像に基づいて、前記入力用反射部材におけるユーザの入力操作位置を検出する入力操作位置検出ステップと、
    前記入力内容決定部により、前記入力操作位置検出部で検出されたユーザの入力操作位置を基に、情報の入力操作内容を決定する入力内容決定ステップと、を含み、
    前記入力操作位置検出ステップでは、入力操作を行う物体と、前記入力用反射部材に映った該物体の鏡像とを検出し、それらが連続した位置をユーザの入力操作位置として検出することを特徴とする情報入力方法。
JP2007300841A 2007-11-20 2007-11-20 情報入力システムおよび情報入力方法 Expired - Fee Related JP4870651B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007300841A JP4870651B2 (ja) 2007-11-20 2007-11-20 情報入力システムおよび情報入力方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007300841A JP4870651B2 (ja) 2007-11-20 2007-11-20 情報入力システムおよび情報入力方法

Publications (2)

Publication Number Publication Date
JP2009129021A JP2009129021A (ja) 2009-06-11
JP4870651B2 true JP4870651B2 (ja) 2012-02-08

Family

ID=40819910

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007300841A Expired - Fee Related JP4870651B2 (ja) 2007-11-20 2007-11-20 情報入力システムおよび情報入力方法

Country Status (1)

Country Link
JP (1) JP4870651B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5068711B2 (ja) * 2008-08-08 2012-11-07 株式会社エヌ・ティ・ティ・ドコモ 物体形状認識システム及び物体形状認識方法
JP2012138775A (ja) * 2010-12-27 2012-07-19 Nec Corp 暗証情報入力システムおよび暗証情報入力方法
US9092600B2 (en) 2012-11-05 2015-07-28 Microsoft Technology Licensing, Llc User authentication on augmented reality display device
KR101891837B1 (ko) * 2013-03-22 2018-10-04 한양대학교 산학협력단 증강현실 인터페이스를 이용하는 착용형 디스플레이 장치
JP6272688B2 (ja) * 2013-12-18 2018-01-31 マイクロソフト テクノロジー ライセンシング,エルエルシー 表示デバイスでのユーザー認証
JP6912611B1 (ja) * 2020-01-31 2021-08-04 株式会社Zozo メガネ、推奨化粧品提示制御システム及び推奨化粧品提示制御方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH075978A (ja) * 1993-06-18 1995-01-10 Sony Corp 入力装置
JPH07281818A (ja) * 1994-04-08 1995-10-27 Canon Inc 3次元仮想指示入力システム
JP3083450B2 (ja) * 1994-05-19 2000-09-04 松下電器産業株式会社 眼鏡型画像表示装置
JP4011260B2 (ja) * 2000-04-05 2007-11-21 株式会社リコー 座標検出装置、電子黒板システム、座標位置検出方法及び記憶媒体
JP2002318652A (ja) * 2001-04-20 2002-10-31 Foundation For Nara Institute Of Science & Technology 仮想入力装置およびプログラム
JP2003308167A (ja) * 2002-04-17 2003-10-31 Nippon Telegr & Teleph Corp <Ntt> 情報入出力装置と方法
JP2007018188A (ja) * 2005-07-06 2007-01-25 Hitachi Ltd 拡張現実感による情報提示システム、情報提示方法、情報提示装置およびコンピュータプログラム
JP2007080187A (ja) * 2005-09-16 2007-03-29 Tokai Rika Co Ltd 操作入力装置

Also Published As

Publication number Publication date
JP2009129021A (ja) 2009-06-11

Similar Documents

Publication Publication Date Title
CN110647237B (zh) 在人工现实环境中基于手势的内容共享
CN105229582B (zh) 基于近距离传感器和图像传感器的手势检测
US10102676B2 (en) Information processing apparatus, display apparatus, information processing method, and program
US9600078B2 (en) Method and system enabling natural user interface gestures with an electronic system
CN109739361B (zh) 基于眼睛跟踪的可见度提高方法和电子装置
KR101688355B1 (ko) 다수의 지각 감지 입력의 상호작용
JP4725595B2 (ja) 映像処理装置、映像処理方法、プログラム及び記録媒体
US10234955B2 (en) Input recognition apparatus, input recognition method using maker location, and non-transitory computer-readable storage program
US8730164B2 (en) Gesture recognition apparatus and method of gesture recognition
US9075442B2 (en) Image processing apparatus, method, and computer-readable storage medium calculation size and position of one of an entire person and a part of a person in an image
CN108027656B (zh) 输入设备、输入方法和程序
US20100026723A1 (en) Image magnification system for computer interface
US20140037135A1 (en) Context-driven adjustment of camera parameters
CN107407959B (zh) 基于姿势的三维图像的操纵
JP4870651B2 (ja) 情報入力システムおよび情報入力方法
US20120092300A1 (en) Virtual touch system
CN101379455A (zh) 输入装置及其方法
EP3413165B1 (en) Wearable system gesture control method and wearable system
JP5291560B2 (ja) 操作装置
KR100968205B1 (ko) 적외선 카메라 방식의 공간 터치 감지 장치, 방법 및스크린 장치
JPWO2018150569A1 (ja) ジェスチャー認識装置、ジェスチャー認識方法、ジェスチャー認識装置を備えたプロジェクタおよび映像信号供給装置
JP2018018308A (ja) 情報処理装置、及びその制御方法ならびにコンピュータプログラム
US10007329B1 (en) Drift cancelation for portable object detection and tracking
KR101542671B1 (ko) 공간 터치 방법 및 공간 터치 장치
JP7499945B2 (ja) ウェアラブル端末装置、プログラムおよび表示方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100921

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110823

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111012

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111101

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111117

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141125

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141125

Year of fee payment: 3

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D04

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees