JP4870651B2 - 情報入力システムおよび情報入力方法 - Google Patents
情報入力システムおよび情報入力方法 Download PDFInfo
- Publication number
- JP4870651B2 JP4870651B2 JP2007300841A JP2007300841A JP4870651B2 JP 4870651 B2 JP4870651 B2 JP 4870651B2 JP 2007300841 A JP2007300841 A JP 2007300841A JP 2007300841 A JP2007300841 A JP 2007300841A JP 4870651 B2 JP4870651 B2 JP 4870651B2
- Authority
- JP
- Japan
- Prior art keywords
- input
- image
- input operation
- operation position
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Input From Keyboards Or The Like (AREA)
Description
例えば、特許文献1には、バーチャルキーボードにおける各キーの位置に向けて光を照射し、その反射光を受光してユーザの指の位置を検出することで、各キーへの入力を行う技術が知られている。
また、非特許文献1に記載された技術においては、複数のカメラを用いてユーザの指の位置を判定しているため、正確に指の位置を測定するには、カメラの位置を予め把握しておかなければならない等の制約があり、やはり簡単に入力操作を行うことは困難である。
このように、従来の技術においては、入力装置を有していない情報処理装置に対し、簡単に入力操作を行うことは困難であった。
本発明の課題は、入力装置を有していない情報処理装置に対し、簡単に入力操作を行うことである。
鏡面反射性を有する入力用反射部材(例えば、図1の反射部材10)と、前記入力用反射部材の画像を撮影する撮像部(例えば、図2の入力検出部21)と、前記入力用反射部材を検出する検出部(例えば、図2の投影領域算出部22a)と、前記撮像部によって撮影された画像に基づいて、前記入力用反射部材におけるユーザの入力操作位置を検出する入力操作位置検出部(例えば、図2の入力位置算出部22b)と、前記入力操作位置検出部によって検出されたユーザの入力操作位置を基に、情報の入力操作内容を決定する入力内容決定部(例えば、図2の変換部24)と、を備え、前記入力操作位置検出部は、入力操作を行う物体と、前記入力用反射部材に映った該物体の鏡像とを検出し、それらが連続した位置をユーザの入力操作位置として検出することを特徴としている。
また、前記入力用反射部材の状態を検出する投影領域算出部(例えば、図2の投影領域算出部22a)と、前記投影領域算出部によって算出された前記入力用反射部材の状態に合わせて、前記表示部に表示する画像を補正する画像補正部(例えば、図2の変換部24)とを備えることを特徴としている。
鏡面反射性を有する入力用反射部材と、前記入力用反射部材の画像を撮影する撮像部と、前記入力用反射部材を検出する検出部と、前記撮像部によって撮影された画像に基づいて、前記入力用反射部材におけるユーザの入力操作位置を検出する入力操作位置検出部と、前記入力操作位置検出部によって検出されたユーザの入力操作位置を基に、情報の入力操作内容を決定する入力内容決定部と、を備え、前記入力操作位置検出部は、入力操作を行う物体と前記入力用反射部材に映った該物体の鏡像とを検出し、それらが連続した位置をユーザの入力操作位置として検出する情報入力システムによって実現される情報入力方法であって、前記撮像部により前記入力用反射部材の画像を撮影する撮像ステップと、前記検出部により前記入力用反射部材を検出する検出ステップと、前記入力操作位置検出部により、前記撮像部で撮影された画像に基づいて、前記入力用反射部材におけるユーザの入力操作位置を検出する入力操作位置検出ステップと、前記入力内容決定部により、前記入力操作位置検出部で検出されたユーザの入力操作位置を基に、情報の入力操作内容を決定する入力内容決定ステップと、を含み、前記入力操作位置検出ステップでは、入力操作を行う物体と、前記入力用反射部材に映った該物体の鏡像とを検出し、それらが連続した位置をユーザの入力操作位置として検出することを特徴としている。
(構成)
図1は、本発明に係る情報入力システム1のシステム構成を示す図である。
図1において、情報入力システム1は、反射部材10と、メガネ型ディスプレイ20とを備えている。
反射部材10は、ユーザが入力操作を行うにあたり、ユーザの指、あるいは、ペン等の操作具を接触させる板状の部材であり、その表面が反射性を有する部材である。
この反射部材10として、例えば鏡、アルミ板あるいはハーフミラーフィルム等、光を反射する種々の部材を採用することができる。なお、反射部材10は、光の反射を利用する場合以外に、赤外線やミリ波等、他の周波数領域の電磁波を対象として、その反射を利用するものとしても良い。
マーカ10aには、他の物体と反射部材10とを容易に識別できる図柄(以下、「特徴図柄」という。)が描画されており、後述する投影領域算出部22aが、このマーカ10aに描画された特徴図柄を検出することにより、反射部材10の領域を検出する。
メガネ型ディスプレイ20は、メガネのレンズ部分を表示パネルよって構成された表示装置であり、キーボードやタッチパネルのボタン等、ユーザインターフェースの画像を反射部材10に重畳して表示する。
図2は、本発明に係る情報入力システム1の機能構成を示すブロック図である。
図2において、情報入力システム1は、反射部材10と、入力検出部21と、画像処理部22と、映像蓄積部23と、変換部24と、表示部25とを含んで構成されている。なお、図2における入力検出部21、画像処理部22、映像蓄積部23、変換部24、および、表示部25がメガネ型ディスプレイ20を構成している。
これらのうち、入力検出部21は、周囲の空間における反射部材10を検出するセンサである。
そして、入力検出部21は、撮影した画像や、反射部材10とカメラとの距離あるいは反射部材10の位置等のデータを画像処理部22に出力する。
画像処理部22は、投影領域算出部22aと、入力位置算出部22bと、登録部22cとを含んで構成される。
入力位置算出部22bは、入力検出部21によって撮影された画像において、反射部材10の領域に対するユーザの入力操作位置を算出する。
登録部22cは、ユーザが情報の入力に用いる指や操作具の形状等の特徴あるいはマーカ10aに描画された特徴図柄のデータを予め記憶している。これらのデータは、情報入力システム1を使用するユーザが使用に先立って登録することや、既定の操作具や特徴図柄のデータをサンプルデータとして予め登録しておくこと等が可能である。
次に、動作を説明する。
図3は、情報入力システム1が実行する情報入力処理を示すフローチャートである。情報入力処理は、情報入力システム1において情報の入力機能を実現するための処理であり、情報入力システム1の電源投入と共に開始される。
なお、情報入力処理の実行に先立ち、ユーザによって反射部材10にマーカ10aが取り付けられている。
図3において、情報入力処理が開始されると、情報入力システム1は、入力検出部21によって、マーカ10aに描画された特徴図柄を含む反射部材10の画像を撮影する(ステップS1)。
また、ステップS2においては、反射部材10の状態を検出した際、反射部材10の中から2点以上(例えば、3〜4点)の特徴点を取得する。この特徴点は反射部材10の領域に重畳する画像の形状を補正するために設定される。この特徴点はユーザが手動で設定してもよいし、自動で抽出してもよい。この際、特徴点とマーカ10aとの位置関係を検出しておく。
図4においては、反射部材10の領域が矩形によって近似されていると共に、特徴点(矩形の四隅)が取得されている。
引き続く以下の処理では、特徴点に合わせて、反射部材10の領域と重畳してユーザインターフェースの画像を表示する処理が行われる。
即ち、投影領域算出部22aは、反射部材10の向きと撮影画像における反射部材10の領域に重畳する画像の向きとを一致させるために、ユーザインターフェース画像の変換処理を行う。この変換処理を行うにあたり、反射部材10の状態とマーカ10aの状態とは一致しているため、マーカ10aの状態がわかれば、反射部材10の状態およびその特徴点の座標も知ることができる。
ステップS3において変換処理を行うための変換行列Mは、(1)式に示すように、画像上にある座標(X,Y,Z)を反射部材10の特徴点の座標(x,y,z)に合わせて、それぞれの軸に対する回転移動や平行移動を行う行列で表現される。この変換行列Mによると、反射部材10が回転している場合は回転パラメータR部分がその回転角度θaによって規定され、平行移動の場合にはΔX,ΔY,ΔZのうち、その移動軸に従ったパラメータが規定される。
このような形態でユーザインターフェースの画像を表示すると、反射部材10の状態が変化した場合、それに合わせてユーザインターフェースの画像も状態を変化されて表示されることとなる。
これにより、ユーザは、反射部材10への入力操作を容易に行うことができる。
そして、ステップS5において表示されたユーザインターフェースに指等によって入力操作を行うと、情報入力システム1は、入力位置算出部22bによって、ユーザの入力操作位置を検出する(ステップS6)。
このとき、ユーザインターフェースの画像は鏡(反射部材10)に重畳されているため、ユーザの指等は鏡に対して操作を行うことになる。
図6(a)に示すように、指が反射部材10に近づいていき、図6(b)に示すように指が反射部材10と接触すると、指とその鏡像とが連続する位置関係となる。このように接触した位置を検出するために、例えば、肌色領域を予め追従しておくことができる。追従していた2つの肌色領域が連続したとき、指が反射部材10に接触した(入力した)と判定する。このとき、接触を判定する上で、(1)手の形状であること、(2)線対称の形状を持つ肌色領域同士の距離が近づくこと、(3)画像を重畳している鏡の領域内に存在する肌色領域であること、といった条件を考慮することで、より精度の高い判定を行うことができる。このようにして判定されたユーザの指と鏡との接触点の位置を入力操作位置として用いる。
ステップS7の後、情報入力システム1は、情報入力処理を繰り返す。
このような処理により、メガネ型ディスプレイ20を装着したユーザは、メガネ型ディスプレイ20を通して鏡等の反射部材10を見たとき、反射部材10の部分にユーザインターフェースが描画された状態を視認することとなり、その反射部材10に対して、入力操作を行うことができる。そして、その入力操作をメガネ型ディスプレイ20が検出し、ユーザインターフェースにおける入力操作として判別することで、ユーザの意図した入力操作が行われることとなる。
図7は、投影領域算出部22aが実行する投影領域算出処理を示すフローチャートである。
投影領域算出処理は、図3に示すステップS2〜S3において投影領域算出部22aが実行する処理に対応している。
次に、投影領域算出部22aは、登録部22cを参照し、特徴図柄のデータが登録されているか否かの判定を行う(ステップS102)。
ステップS102において、登録部22cに特徴図柄のデータが登録されていないと判定した場合、投影領域算出部22aは、撮影された画像内に存在する特徴から反射部材10の領域を検出する(ステップS103)。
そして、投影領域算出部22aは、ステップS103およびステップS104において検出された反射部材10の領域を基に、反射部材10の状態(位置、大きさ、傾き等)を検出する(ステップS105)。
そして、投影領域算出部22aは、反射部材10の特徴点と画像の形状とを対応づけるため、ユーザインターフェース画像の変換パラメータ((1)式参照)を算出する(ステップS107)。
以上のように、本実施の形態に係る情報入力システム1は、光を反射する反射部材10と、カメラを備えたメガネ型ディスプレイ20とを含み、メガネ型ディスプレイ20によって撮影した画像において、反射部材10の領域を検出し、その領域にユーザインターフェースの画像が重畳して表示される。そして、メガネ型ディスプレイ20を装着したユーザは、その反射部材10のユーザインターフェースに入力操作を行うと、その入力操作が検出され、ユーザインターフェースにおいて入力操作を行った位置と対応する情報の入力が行われる。
したがって、入力装置を有していない情報処理装置に対し、簡単に入力操作を行うことが可能となる。
図8に示すように、本実施形態に係る情報入力システム1においては、メガネ型ディスプレイ20を装着したユーザが、メガネ型ディスプレイ20を通して鏡等の反射部材10を見たときに、反射部材10の部分にユーザインターフェースが描画された状態を見ることとなり、反射部材10に入力操作を行うことで、意図した情報入力を行うことができる。
なお、本実施形態においては、反射部材10の領域にキーボード等のユーザインターフェースの画像を重畳して表示し、そのユーザインターフェースの画像に各種入力操作を行う場合を例に挙げて説明したが、クリックしたか否か、あるいは、ボタンの押下回数等で入力を行うことができる場合には、ユーザインターフェースの画像を表示することなく、ユーザが反射部材10に接触したことや、その回数を検出することで、情報の入力を行うことができる。
Claims (5)
- 鏡面反射性を有する入力用反射部材と、
前記入力用反射部材の画像を撮影する撮像部と、
前記入力用反射部材を検出する検出部と、
前記撮像部によって撮影された画像に基づいて、前記入力用反射部材におけるユーザの入力操作位置を検出する入力操作位置検出部と、
前記入力操作位置検出部によって検出されたユーザの入力操作位置を基に、情報の入力操作内容を決定する入力内容決定部と、を備え、
前記入力操作位置検出部は、入力操作を行う物体と、前記入力用反射部材に映った該物体の鏡像とを検出し、それらが連続した位置をユーザの入力操作位置として検出することを特徴とする情報入力システム。 - 前記撮像部によって撮影された前記入力用反射部材の画像に合わせて、ユーザインターフェースの画像を表示する表示部を備えることを特徴とする請求項1記載の情報入力システム。
- 前記入力用反射部材の状態を検出する投影領域算出部と、
前記投影領域算出部によって算出された前記入力用反射部材の状態に合わせて、前記表示部に表示する画像を補正する画像補正部とを備えることを特徴とする請求項2記載の情報入力システム。 - 前記投影領域算出部は、前記入力用反射部材の状態を検出する複数の特徴点を該入力用反射部材の画像上で設定し、前記複数の特徴点の位置関係に基づいて、前記ユーザインターフェースの画像を表示することを特徴とする請求項2または3記載の情報入力システム。
- 鏡面反射性を有する入力用反射部材と、
前記入力用反射部材の画像を撮影する撮像部と、
前記入力用反射部材を検出する検出部と、
前記撮像部によって撮影された画像に基づいて、前記入力用反射部材におけるユーザの入力操作位置を検出する入力操作位置検出部と、
前記入力操作位置検出部によって検出されたユーザの入力操作位置を基に、情報の入力操作内容を決定する入力内容決定部と、を備え、
前記入力操作位置検出部は、入力操作を行う物体と前記入力用反射部材に映った該物体の鏡像とを検出し、それらが連続した位置をユーザの入力操作位置として検出する情報入力システムによって実現される情報入力方法であって、
前記撮像部により前記入力用反射部材の画像を撮影する撮像ステップと、
前記検出部により前記入力用反射部材を検出する検出ステップと、
前記入力操作位置検出部により、前記撮像部で撮影された画像に基づいて、前記入力用反射部材におけるユーザの入力操作位置を検出する入力操作位置検出ステップと、
前記入力内容決定部により、前記入力操作位置検出部で検出されたユーザの入力操作位置を基に、情報の入力操作内容を決定する入力内容決定ステップと、を含み、
前記入力操作位置検出ステップでは、入力操作を行う物体と、前記入力用反射部材に映った該物体の鏡像とを検出し、それらが連続した位置をユーザの入力操作位置として検出することを特徴とする情報入力方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007300841A JP4870651B2 (ja) | 2007-11-20 | 2007-11-20 | 情報入力システムおよび情報入力方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007300841A JP4870651B2 (ja) | 2007-11-20 | 2007-11-20 | 情報入力システムおよび情報入力方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009129021A JP2009129021A (ja) | 2009-06-11 |
JP4870651B2 true JP4870651B2 (ja) | 2012-02-08 |
Family
ID=40819910
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007300841A Expired - Fee Related JP4870651B2 (ja) | 2007-11-20 | 2007-11-20 | 情報入力システムおよび情報入力方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4870651B2 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5068711B2 (ja) * | 2008-08-08 | 2012-11-07 | 株式会社エヌ・ティ・ティ・ドコモ | 物体形状認識システム及び物体形状認識方法 |
JP2012138775A (ja) * | 2010-12-27 | 2012-07-19 | Nec Corp | 暗証情報入力システムおよび暗証情報入力方法 |
US9092600B2 (en) | 2012-11-05 | 2015-07-28 | Microsoft Technology Licensing, Llc | User authentication on augmented reality display device |
KR101891837B1 (ko) * | 2013-03-22 | 2018-10-04 | 한양대학교 산학협력단 | 증강현실 인터페이스를 이용하는 착용형 디스플레이 장치 |
JP6272688B2 (ja) * | 2013-12-18 | 2018-01-31 | マイクロソフト テクノロジー ライセンシング,エルエルシー | 表示デバイスでのユーザー認証 |
JP6912611B1 (ja) * | 2020-01-31 | 2021-08-04 | 株式会社Zozo | メガネ、推奨化粧品提示制御システム及び推奨化粧品提示制御方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH075978A (ja) * | 1993-06-18 | 1995-01-10 | Sony Corp | 入力装置 |
JPH07281818A (ja) * | 1994-04-08 | 1995-10-27 | Canon Inc | 3次元仮想指示入力システム |
JP3083450B2 (ja) * | 1994-05-19 | 2000-09-04 | 松下電器産業株式会社 | 眼鏡型画像表示装置 |
JP4011260B2 (ja) * | 2000-04-05 | 2007-11-21 | 株式会社リコー | 座標検出装置、電子黒板システム、座標位置検出方法及び記憶媒体 |
JP2002318652A (ja) * | 2001-04-20 | 2002-10-31 | Foundation For Nara Institute Of Science & Technology | 仮想入力装置およびプログラム |
JP2003308167A (ja) * | 2002-04-17 | 2003-10-31 | Nippon Telegr & Teleph Corp <Ntt> | 情報入出力装置と方法 |
JP2007018188A (ja) * | 2005-07-06 | 2007-01-25 | Hitachi Ltd | 拡張現実感による情報提示システム、情報提示方法、情報提示装置およびコンピュータプログラム |
JP2007080187A (ja) * | 2005-09-16 | 2007-03-29 | Tokai Rika Co Ltd | 操作入力装置 |
-
2007
- 2007-11-20 JP JP2007300841A patent/JP4870651B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2009129021A (ja) | 2009-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110647237B (zh) | 在人工现实环境中基于手势的内容共享 | |
CN105229582B (zh) | 基于近距离传感器和图像传感器的手势检测 | |
US10102676B2 (en) | Information processing apparatus, display apparatus, information processing method, and program | |
US9600078B2 (en) | Method and system enabling natural user interface gestures with an electronic system | |
CN109739361B (zh) | 基于眼睛跟踪的可见度提高方法和电子装置 | |
KR101688355B1 (ko) | 다수의 지각 감지 입력의 상호작용 | |
JP4725595B2 (ja) | 映像処理装置、映像処理方法、プログラム及び記録媒体 | |
US10234955B2 (en) | Input recognition apparatus, input recognition method using maker location, and non-transitory computer-readable storage program | |
US8730164B2 (en) | Gesture recognition apparatus and method of gesture recognition | |
US9075442B2 (en) | Image processing apparatus, method, and computer-readable storage medium calculation size and position of one of an entire person and a part of a person in an image | |
CN108027656B (zh) | 输入设备、输入方法和程序 | |
US20100026723A1 (en) | Image magnification system for computer interface | |
US20140037135A1 (en) | Context-driven adjustment of camera parameters | |
CN107407959B (zh) | 基于姿势的三维图像的操纵 | |
JP4870651B2 (ja) | 情報入力システムおよび情報入力方法 | |
US20120092300A1 (en) | Virtual touch system | |
CN101379455A (zh) | 输入装置及其方法 | |
EP3413165B1 (en) | Wearable system gesture control method and wearable system | |
JP5291560B2 (ja) | 操作装置 | |
KR100968205B1 (ko) | 적외선 카메라 방식의 공간 터치 감지 장치, 방법 및스크린 장치 | |
JPWO2018150569A1 (ja) | ジェスチャー認識装置、ジェスチャー認識方法、ジェスチャー認識装置を備えたプロジェクタおよび映像信号供給装置 | |
JP2018018308A (ja) | 情報処理装置、及びその制御方法ならびにコンピュータプログラム | |
US10007329B1 (en) | Drift cancelation for portable object detection and tracking | |
KR101542671B1 (ko) | 공간 터치 방법 및 공간 터치 장치 | |
JP7499945B2 (ja) | ウェアラブル端末装置、プログラムおよび表示方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100921 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110630 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110823 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111012 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111101 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111117 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141125 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141125 Year of fee payment: 3 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D04 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |