JP3834766B2 - マンマシーン・インターフェース・システム - Google Patents
マンマシーン・インターフェース・システム Download PDFInfo
- Publication number
- JP3834766B2 JP3834766B2 JP2000101513A JP2000101513A JP3834766B2 JP 3834766 B2 JP3834766 B2 JP 3834766B2 JP 2000101513 A JP2000101513 A JP 2000101513A JP 2000101513 A JP2000101513 A JP 2000101513A JP 3834766 B2 JP3834766 B2 JP 3834766B2
- Authority
- JP
- Japan
- Prior art keywords
- fingertip
- man
- machine interface
- desk
- interface system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
【発明の属する技術分野】
本発明は、マンマシーン・インターフェースに関し、特に、コンピュータの利用に既存の操作を意識させず、ユーザの快適性を重視し、計測器などをユーザの身体に取り付けることでユーザの自由度を低下させることのないインターフェースに関する。
【0002】
【技術的背景】
コンピュータは我々の生活に深く浸透し、その利用形態もさまざまである。以前では考えられなかったような非常に小型のコンピュータを携帯したり、周囲の環境に埋め込まれ一見してそれと解らないような場所での利用も行なわれている。将来的にはウェアラブル・パソコンやPDAのような人に取り付ける形態と、机や壁、部屋などユーザの周囲の環境に融合した形態の2つの流れにそって発展してゆくと考えられる。
このような流れの中で、マンマシーン・インターフェースについて考えると、現在のGUI等に代表されるインターフェースは、ユーザをインターフェースに縛り付け、本来行ないたい作業とは別にインターフェースにも気を配らなければならなかった。そこで次世代のインターフェースではユーザの行ないたい作業に対してより直接的でより自然な操作を行なうことのできるインターフェースが求められている。
【0003】
そこで、コンピュータを用いた情報の検索や利用において、ユーザのインターフェースによる負担の軽減のため、実世界でのユーザの作業や操作をコンピュータが支援し、キーボードやマウスのみによる従来型のインターフェースよりも快適に利用できる次世代のインターフェースとして、実世界指向、状況認識によるインターフェースに期待が寄せられている。
実世界指向ユーザ・インターフェースは、実世界のユーザの状況を常にコンピュータが認識し、ユーザの意図を汲み取ってコンピュータが作業を支援する。これにより、既存のコンピュータの操作を感じさせない透明なインターフェースの実現を目指している。この実世界指向インターフェースを机上での作業に応用し、机型実世界指向インターフェースの一例として、“机”に統合された実世界指向インターフェース(Enhanced Desk)の開発が進められている。机上での作業とコンピュータでの作業の融合に注目した例として、Digital Desk(例えば、小池「Bit別冊 ビジュアルインターフェース−ポストGUIを目指して−」共立出版、2.1章、 pp.24-44等参照)がよく知られている。Digital Deskでは机上に投影されたコンピュータ画面を指先などで操作するものである。ユーザは机上に投影されたイラストを切り取ってコピーしたり、机上に投影された電卓で計算をすることができる。
【0004】
机上での紙書類に着目し、紙書類と電子情報の統合利用を試みている例もある(M.Kobayashi and H.Koike: Enhanced Desk、 Integrating Paper Documents and Digital Documents; Proceedings of 1998 Asia Pacific Computer Human Interaction、 pp.167-174 (1998)参照)。この例では、紙書類と電子情報の対応づけのためにあらかじめ紙書類に付与したバーコードを用いているが、バーコードがある程度以上の大きさで観察されることが必要なため、大型のバーコードを用いなければならなかった。またユーザの手領域を認識するために肌色抽出を行なっていたが、机上に肌色に近い物体があると誤認識されたり、ユーザの手の上に映像が投影されると、手領域抽出がうまくいかないといった問題点があった。ユーザの指先位置の認識についても常に特定の手の向きを仮定し、指先は1点とするなどの制約が多く、また認識精度の不十分さが大きな問題であった。そして一連の処理をソフトウエアで行なっているため実時間処理が不可能であった。
【0005】
【発明が解決しようとする課題】
本発明の目的は、ユーザの周囲の環境に融合したインターフェースとして、“机”に統合された情報インターフェース・システムの実現である。
オフィスなどでは、机上でPCを使った作業を行ない、また同時に紙書類を使った作業を行なうことが多い。これらの机上での作業をコンピュータに机上を観察させることによって、統合的に扱うことのできる情報インターフェース・システムの提供を行なう。
【0006】
【課題を解決するための手段】
上記目的を達成するために、本発明は、指先の画像を用いるマンマシーン・インターフェース・システムであって、指先の画像を得る赤外線カメラと、前記赤外線カメラによる画像を入力して、処理する処理システムとを有しており、前記処理システムは、画像から手領域を、体温を利用し一定閾値で2値化して抽出し、抽出した手領域から、円形のパターンとのパターン・マッチングにより指先を特定し、特定した指先の机上の座標を求めることを特徴とするマンマシーン・インターフェース・システムである。円形のパターンを用いることにより、指先の認識精度を高め、しかも高速に認識処理を行うことができる。
【0007】
さらに、前記求めた指先が1つであるときは、指差し動作であると認識することができ、この指差し動作で、マウス等で行うポインティング操作を行うことができる。さらに、撮影位置の制御ができるカメラを備えるとともに、前記指差し動作を行うことで、その指先の机上の座標に、前記カメラの撮影位置を合わせる制御を行うことができる。これにより、前記カメラで撮影した画像を取り込み、取り込んだ画像から、バーコードを抽出して、バーコード認識処理を行うこともできる。さらに、音声入力手段を備えるとともに、前記音声入力手段による音声を入力し、音声認識処理を行うことにより、音声によるコマンド等を入力することができる。さらに、プロジェクタを備え、前記プロジェクタにより、コンピュータ画面を机上に投影することにより、コンピュータ画面とのインタラクティブな処理も行うことができる。上述の処理を行わせるプログラムを格納した記録媒体も本発明である。
【0008】
【発明の実施の形態】
本発明のマンマシーン・インターフェース・システムは、以下の特徴を有しているものである。
(1)赤外線カメラを利用して、ユーザの皮膚領域からの放射光を測定することにより、ユーザの手領域を安定に抽出する。
(2)正規化相関等に基づいた、テンプレート・マッチングの利用により、ユーザの指先の高速追跡を実現する。
(3)机上の小さなバーコードの認識を行なうため、ズーム機能付パンチルト・カメラを用いてユーザの指先周辺を拡大追跡する。
(4)処理の高速化のため、画像処理ハードウエアの利用と分散処理の適用を行う。
以下に、これらの特徴を中心として、本発明の実施形態を、図面を参照して、詳細に説明する。
【0009】
図1は、本発明の実施形態であるエンハンスト・ディスク(Enhanced Desk)の外観図である。図1に示すように、通常の机10の上方にプロジェクタ30を取り付け、コンピュータ(図示せず)の画面を鏡44で反射させ、机上に画面12を投影する。机上を観察するカメラは2台設置した。1台は赤外線カメラ50であり、机10左側から上を向けて設置し、表面反射鏡42ごしに机上の撮影を行なう。もう1台のズーム機能付パンチルト・カメラ20は、机の右上方に設置し、机上の一部分を拡大して撮影することができる。また、図示していないが、スピーカとマイクも設置されており、音声等の入出力の機能も持っている。
【0010】
図2は、実施形態におけるシステム構成図を示している。図2において、コンピュータ・システム60で生成された投影画像が、プロジェクタ30により表面反射鏡44を介して、机10上に投影される。また、机10上の画像を撮像しているパンチルト・カメラ20の姿勢等は、コンピュータ・システム60により制御されている。パンチルト・カメラ20で撮像された画像も、コンピュータ・システム60内に取り込まれて処理される。赤外線カメラ50で撮像された机上の画像も、コンピュータ・システム60に取り込まれて処理される。
本発明のエンハンスト・ディスクでの主な処理の流れを以下に示す。
▲1▼ ユーザの手領域を、赤外線カメラ50の画像より抽出する。
▲2▼ 抽出された手領域からユーザの指先点を検出する。
▲3▼ カメラ画像上の指先点の位置座標から、キャリブレーションによりあらかじめ求めておいた射影変換パラメータを用いて、机上の位置座標に変換を行なう。
▲4▼ 机上の指先位置情報をもとに机上に投影したオブジェクトや情報とインタラクションをとる。
これらの処理について、以下詳細に説明する。
【0011】
<手領域の抽出>
手領域の抽出には、背景差分やカラー・カメラによる肌色抽出が一般的に用いられている。しかし、これらの手法では、背景の状態によっては手領域を抽出することが困難な場合が多い。特に本システムで想定される作業環境では、机上に紙書類や書籍などを開くことが考えられ、プロジェクタにより電子情報を投影するために、ユーザの手領域の色が一定ではないなどの問題点がある。そこで、本システムでは、手領域を安定に抽出するために赤外線カメラ50を利用した。机上を観察している赤外線カメラの画像から、人の体温をもとに手領域を切り出すことができる。
赤外線カメラを利用して、人の体温の近傍(30℃〜34℃)を撮影することにより、机上の手の様子を例えばNTSCの256階調の映像として得ることができる。この映像を一定の閾値で2値化処理し手領域を抽出する。図3に、赤外線カメラからの画像をもとに、手領域の抽出処理を説明する。図3(a)は、赤外線カメラ50からの画像である。コンピュータ・システム60で取り込む際の解像度は256×220画素である。そして、この画像から、人の体温の近傍(30℃〜34℃)の画像を抽出する。これを示したのが図3(b)であり、手領域の部分を抽出して2値化したものである。図3(b)に示すように、この手法により、背景や照明の変化に影響されず手領域だけを安定に抽出することができる。
赤外線カメラは、例えばニコン・サーマルビション(LAIRD3A)を使用することができる。このカメラは、有効画素数768×465画素、フィールドタイム1/60秒で−20℃〜50℃までの範囲を撮影することができる。
【0012】
<指先位置の認識>
指先位置の検出は、ユーザの手は机上にあり、カメラとユーザの手の距離はほぼ一定で見かけ上の大きさが極端に変わらないことから、一定の大きさのテンプレートで指先位置を検出することができる。指先位置の認識は一般に、指先形状の輪郭が円に近いことに基づき、円形テンプレートを用いて、手領域周辺で正規化相関に基づくパターン・マッチングを行なうことで検出する。ユーザの手は机上にあり、見かけ上の大きさが極端に変わらないことから、パターン・マッチング処理の対象を手領域の一定範囲内のみに限定し、処理の高速化を図っている。
この指先位置の認識を図4を用いて説明する。
パターン・マッチング処理は、例えば手領域を切り出して2値化した256×220画素の画像(図3(b)参照)に対して、図4(a)に示す15×15画素の大きさのテンプレートを用いて、相関値を用いて一致検出を行う。
パターン・マッチング処理の後、あまりにも近接した場所で多くの相関値の高い点が見つかった場合、そのうちの一番相関値の高い点を残し、残りを指先候補点から除外する。これによりいくつかの指先候補点が得られるので、それらのうち指先点以外の誤認識された点を除外する。この処理は、図4(b)に示すように、テンプレートの周囲8点(矩形の4頂点及び各辺の二等分点)に対応するピクセルを調べ、指先点かどうかを判定する。この処理により指先がテンプレートを突き抜けていたり(図4(b)のERROR)、テンプレートの周囲に指らしきピクセルが何もない場合なども指先点候補から除外する。
最終的に、図4(c)に示すように、指先候補点を相関値の高い順に5つまで採用しユーザの指先点とする。
本システムにおける指先検出処理の実施例としては、日立画像処理ボードIP5010を用いて行なっている。IP5010は白黒濃淡画像で40画面分のメモリをもった画像処理ボードであり、メモリ上に保存した画像間で2値化や差分といった画像処理を、ハードウエアで高速に行なうことのできるボードである。OSはWindowsNT(登録商標、以下同じ)およびLinuxに対応しており、多くの画像処理関数がライブラリとして用意されている。本実施例では、ネットワークとの親和性を鑑み、OSにLinuxを利用した。
【0013】
<カメラ画像座標と机上平面座標の補正>
赤外線画像中で検出された位置が机上でどの位置に対応するかを知るため、赤外線カメラ画像座標と机上平面座標の補正を行なう。ここでは、赤外線カメラ画像座標と机上平面座標の対応点をいくつか定義し、その関係を元に赤外線カメラ画像座標(x、y)と机上平面座標(x'、y')の間の対応を式(1)のように射影変換を用いて表現する。
【数1】
対応点を求めるために、赤外線カメラ対応点の測定を説明する図5を用いて説明する。
机10に対して、机上平面の座標系を設定する。このために、机上の目標点の位置にキャリブレーション板70を作成し、これを机上に置くことで机上座標系を設定する。手領域を切り出す赤外線カメラでは、温度差が画像として出力されるため、図5に示すように、このキャリブレーション板の対応点に小型電球72を埋め込み、点灯した電球を赤外線カメラで撮影して対応点を計測する。
対応点の組を計測後、その関係をもとに射影変換パラメータ(c1〜c8)を決定する。このパラメータを用いて変換を行なうことによって画像のゆがみや、位置のずれなどを補正することができる。
この射影変換パラメータを得るためには最低4組の対応点があればよいが、本システムでは、安定に解を求めるため、図5に示すように対応点(小型電球)を9組用意した。この9組に対して、上記の連立方程式を特異値分解法を用いて解くことで、変換のパラメータを求めた。
本システムでは、処理軽減のため机上の座標系とプロジェクタで机上に投影した画像の座標系を同一とし、机上平面座標の値とプロジェクタ投影画像の画素の位置座標を等しくしている。これにより、机上平面上の指先位置にプロジェクタの画像を投影するには、単に机上平面座標上での座標値にオブジェクトを描画した画像を投影すればよく、処理の軽減を図ることができる。
【0014】
<指先周辺の注視によるバーコード認識>
本システムでは、画像処理を行なって認識したユーザの指先が1つだった場合、ユーザが指差し動作をしていると判定することもできる。このことにより、例えば人差し指だけで指すことにより、指差し動作であると認識して、この指先の座標を得ることにより、マウス等のポインティングの代わりに用いることができる。
この指差し動作をしている指先の周辺が注目している領域であるとみなすこともできる。この応用であるパンチルト・カメラ20で、1本の指先の注目領域を追跡する処理を、以下に説明する。
【0015】
(指先追跡処理の流れ)
パンチルト・カメラ20における指先追跡の処理の流れを以下に示す。
▲1▼ 机上平面とパンチルト駆動平面の2平面間で対応点を計測し、射影変換パラメータを算出しておく。
▲2▼ 画像処理によって赤外線カメラ画像上の指先点の位置を計測する。
▲3▼ 赤外線カメラ画像上の指先点の位置を射影変換により机上平面上の座標に変換する。
▲4▼ 机上の指先点の位置をパンチルト駆動平面に射影変換を用いて変換する。
▲5▼ パンチルト駆動平面上の座標をカメラにVISCAコードで送出し、カメラをユーザの指先点に向かせる。
▲6▼ 指先点に向いたカメラの画像を処理する。
【0016】
(射影変換パラメータの算出)
本システムでは、机上の指先位置が、カメラ20のパンチルト駆動平面上でどの座標位置にあるかがわかればよい。この処理は、パンチルト・カメラ20が現在、駆動平面上でどの座標値をとっているかを知ることができるので、これを利用して行う。先に、カメラ画像座標と机上座標の補正を行なったことを説明したが、指先追跡においても同様の手法を用いて、カメラ20による座標補正を行なっている。
そのためにまず、今までの処理で指先の机上座標はわかっているので、その机上位置に対応したパンチルト・カメラ20の駆動平面上の位置を算出する。対応点は4組以上計測する。この計測は、机上の対応点をパンチルトカメラが中心に捕らえるように位置を調節し、その時点でのパンチルト駆動平面上の座標値を対応点として測定する。この対応点をもとに先の射影変換を用いて、机上座標からパンチルト駆動平面上の座標に変換するパラメータを求める。
指先追跡のためのカメラ20は、座標を指定することでその方向にカメラを向けることができる機能を有している。この機能を利用して、ユーザの指先を追跡させている。
実施例として、指先追跡のための追跡カメラ20は例えば、垂直方向-7794〜7794、水平方向-15570〜15570の大きさのパンチルト駆動平面をもっているSony EVI-G20パンチルトカメラを使用し、PCのシリアルポートからVISCAコマンドをカメラに送信することによって、カメラのパンチルト制御を行なっている。
【0017】
(指先追跡処理)
さて、指先追跡処理を説明する。赤外線カメラ50からの画像を上述の画像処理によって、机10上の指先点の位置を計測する。赤外線カメラ画像上の指先点の位置を射影変換により机上平面上の座標に変換するとともに、1本の指先のみであることを認識する。
求めた机上の指先点の位置を、上述のパラメータにより、カメラ20のパンチルト駆動平面に射影変換を用いて変換する。パンチルト駆動平面上の座標をカメラにVISCAコードで送出し、カメラ20をユーザの指先点に向かせる。これにより、指先点を向いたカメラ20の画像を取り込むことができる。
【0018】
(バーコードの認識)
以下に、このカメラ20の映像を用いて、指先の拡大追跡を行ない、バーコード等の小さい物体の認識を行なっている例を、図6を用いて説明する。 図6は、指先の拡大追跡を行ない、バーコード認識を行っている様子を示す。
現実物体(紙書類、書籍等)に、バーコードを取り付けることにより認識を行ない、電子情報とのリンクを作成することができる。バーコードには二次元マトリックス・コードを利用した。この二次元バーコードはコードの種類だけでなく、コードのある位置や、向きなどもコードから得ることができるので、物体のコードが貼付されている位置を記憶していれば、コードから物体の姿勢を計算することができる。
図6(a)に、2次元バーコードの例を示す。この様なバーコードは、パンチルト・カメラ20で撮影した画像の中に存在すれば認識される。認識するためにはカメラ画像中である程度の大きさが必要であるが、パンチルト・カメラ20が拡大した映像を撮影しているので、机上においた書類に貼り付けたバーコードでも、約1.5×1.5cmの大きさのものまで認識することが可能である。机上ではユーザの指差し動作によって、バーコードが指差されれば、そのコードを認識し、それに対応したインタラクションを起こすことができる。
図6(b)に、このバーコードに対する、指先の拡大追跡を行なった様子を示す。図6(b)は、カメラ20の画像を2値化した画像を示している。まず、赤外線カメラ50からの画像上の指先点の位置を画像処理によって計測する。これにより、1本の指で指していること、およびその指先点の位置座標をえることができる。次に、赤外線カメラ画像上の指先点の位置を射影変換により机上平面上の座標に変換する。得られた机上の指先点の位置を、パンチルト駆動平面に射影変換を用いて変換して、得られたパンチルト駆動平面上の座標をカメラ20にVISCAコードで送出し、カメラ20をユーザの指先点に向かせる。そして、指先点を向いたカメラ20の画像(図6(b))を処理して、バーコード画像を認識して、バーコードの読み取り処理を行う。
バーコードの認識処理は実施例として、例えば、ビデオ映像をSGI社のシステムであるO2のビデオ入力端子から320×240画素の大きさで取り込み、2値化等の処理を行ない、バーコード認識ライブラリを用いて認識を行なうことができる。画像入力はSGI社のビデオ・ライブラリを使用している。また、バーコード認識処理はソフトウエアで行なっており、10〜15f/s程度の速度で実行が可能である。
【0019】
<音声認識>
本システムには、ユーザとのインタラクションの補助的役割として音声認識を使用している。ここではユーザの指差し動作やオブジェクトの移動や回転といった操作モードの変更を行なうためのキーワードを認識させるためにのみ利用している。
音声認識はIBM ViaVoiceの音声認識エンジンを使用して行なっている。本システムでは、あらかじめ登録してある単語をユーザが発声したときに何らかのインタラクションを起こすために、音声認識プロセスはメッセージ・サーバに対して、認識した単語の種類をメッセージとして常に送っている。サーバに送られたメッセージは、情報提示プロセスが受け取り、その単語に対応したインタラクションを机上で起こすことが可能である。
【0020】
<分散処理>
本システムでは大きく分けて、指先検出およびパンチルト・カメラによる指先追跡処理、2次元バーコード認識処理、音声認識処理、情報提示処理の4つの処理を行なっている。本システムではそれぞれの処理を、高速化のため複数のマシンで分散処理を行なっている。図7に分散処理の概略図を示す。
指先検出及びパンチルト・カメラ20による指先追跡処理は、例えば、Pentium(登録商標、以下同じ)II 450MHzのパソコン64にLinuxと画像処理ボードIP5010を導入したマシンを使用して行なっている。このプロセスにより、机上のユーザの指先数および位置を計測し、指先の机上座標位置をメッセージ・サーバ68に送出している。また、パンチルト・カメラ20の視線方向をユーザの机上での指先位置になるようにカメラ20を制御している。
2次元バーコード認識処理では、パンチルト・カメラ20の画像をSGI O2システム66のビデオ入力に取り込み、ソフトウエア処理によって2次元バーコードの認識を行なっている。認識結果は常にメッセージ・サーバ68に送出される。
音声認識は、例えば、PentiumII 330MHzのパソコン62にWindowsNTとViaVoiceを導入して処理を行なっている。ユーザがマイクに向かって話した音声をすべて認識させ、そのうちあらかじめ登録してある単語を認識した場合に、特定のメッセージをメッセージ・サーバ68に送出している。
最後に、常にメッセージ・サーバ68に貯えられている情報を取り出し、それに対応するインタラクションや画像を作成する情報表示プロセスがある。これはいわばアプリケーション・プロセスであり、SGI O2システム66で処理を行なっている。
各々の処理間の通信を行うメッセージ・サーバ68には、タプル空間通信システムTS System/s、通称Lindaを用いている。このシステム68はネットワーク上でタプル・スペースと呼ばれる空間を共有し、その空間を介して任意の文字列をセットとしたタプルと呼ばれるメッセージをやり取りすることによって、通信を実現している。非同期通信であるため、個々のプロセスが完全に独立して動作することができ、また新しいプロセスの追加や変更が容易であるという利点がある。
本システムでは、指先を毎秒20フレーム以上の実用的な速度で、安定して検出することができた。
【0021】
<アプリケーション例>
(簡易文字認識)
机上でのユーザの指差し動作を追跡することを利用して、ユーザが指で書いた文字を認識することができる。例えば、プロジェクタ30から机上に投影されたマス目に対して指で数字を書き入れると、その数字を認識して、書いた数字を机上にプロジェクタ30により表示することができる。ユーザの指先に単純なポインティング以外の意味を持たせるために利用できる。
(その他の応用)
その他の応用として、ユーザの指先の位置情報だけでなく、5本の指先の軌跡を利用したジェスチャ認識等も可能である。カメラによる拡大撮影が可能になったことから、紙面の小さい文字も認識できると思われるため、文字認識を利用し、紙書類と電子情報の統合的な利用のための機能を付加するができる。また、本システムを遠隔協調作業への応用として、遠隔地の2つの机上を共有することによる机上平面を媒介としたコミュニケーション環境の構築もできる。
本発明は、上述の分散コンピュータ・システムばかりではなく、複数のシステムから構成されるクライアント・サーバ・システムやスタンド・アローンのシステムに適用してもよい。
本発明に関するプログラムを格納した記憶媒体から、プログラムをシステムで読み出して実行することにより、本発明の構成を実現することができる。この記録媒体には、フロッピー(登録商標)・ディスク、CD−ROM、磁気テープ、ROMカセット等がある。
【0022】
【発明の効果】
上述のように、本発明を用いると、机上での電子情報と現実物体を統合的に扱うことのできる机「Enhanced Desk」実現のために必要であるインターフェースが実現できる。
また、カメラで指先を拡大追跡しているため、例えば、小型のバーコードの認識が可能となり、机上の物体に不自然に大きなバーコードをつける必要がなくなった。
ユーザは、本発明のインターフェースを用いることにより、例えば机上に投影された3Dオブジェクトを指先で回転させながら移動したり、書籍に添付したバーコードを指差すことで関連するホームページを表示させるなど、従来のマウスやキーボードよりも、直感的で現実と密接にリンクしたインタラクションを電子情報との間で行なうことができる。
【図面の簡単な説明】
【図1】エンハンスト・ディスクの外観図である。
【図2】本発明のシステム構成図である。
【図3】手領域の抽出を示す図である。
【図4】指先認識を説明する図である。
【図5】対応点の測定を説明する図である。
【図6】指先の拡大追跡を説明する図である。
【図7】分散処理を説明する図である。
【符号の説明】
10 机
12 画面
20 ズーム機能付パンチルト・カメラ
30 プロジェクタ
42 表面反射鏡
44 表面反射鏡
50 赤外線カメラ
60 コンピュータ・システム
62 パソコン
64 パソコン
66 SGI O2・システム
68 メッセージ・サーバ
70 キャリブレーション板
72 小型電球
Claims (7)
- 机上の指先の画像を用いるマンマシーン・インターフェース・システムであって、
机上の画像を得る赤外線カメラと、
前記赤外線カメラによる画像を入力して、処理する処理システムとを有しており、
前記処理システムは、
画像から手領域を、体温を利用し一定閾値で2値化して抽出し、
抽出した手領域から、円形のパターンとのパターン・マッチングにより指先を特定し、
特定した指先の机上の座標を求める
ことを特徴とするマンマシーン・インターフェース・システム。 - 請求項1に記載のマンマシーン・インターフェース・システムにおいて、
前記処理システムは、さらに、求めた指先が1つであるときは、指差し動作であると認識する処理を含むことを特徴とするマンマシーン・インターフェース・システム。 - 請求項2記載のマンマシーン・インターフェース・システムにおいて、
さらに、撮影位置の制御ができるカメラを備えるとともに、前記処理システムは、前記指差し動作であると認識されたとき、その指先の机上の座標に、前記カメラの撮影位置を合わせる制御を行うことを特徴とするマンマシーン・インターフェース・システム。 - 前記請求項3記載のマンマシーン・インターフェース・システムにおいて、前記処理システムは、前記カメラで撮影した画像を取り込み、取り込んだ画像から、バーコードを抽出して、バーコード認識処理を行うことを特徴とするマンマシーン・インターフェース・システム。
- 前記請求項1〜4のいずれかに記載のマンマシーン・インターフェース・システムにおいて、
さらに、音声入力手段を備えるとともに、前記処理システムは、前記音声入力手段から音声を入力し、音声認識処理を行うことを特徴とするマンマシーン・インターフェース・システム。 - 請求項1〜5のいずれかに記載のマンマシーン・インターフェース・システムにおいて、
さらに、プロジェクタを備え、前記プロジェクタにより、コンピュータ画面を机上に投影することを特徴とするマンマシーン・インターフェース・システム。 - 請求項1〜6のいずれかに記載のマンマシーン・インターフェース・システムで行われる処理をコンピュータ・システムに行わせるプログラムを格納した記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000101513A JP3834766B2 (ja) | 2000-04-03 | 2000-04-03 | マンマシーン・インターフェース・システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000101513A JP3834766B2 (ja) | 2000-04-03 | 2000-04-03 | マンマシーン・インターフェース・システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001282456A JP2001282456A (ja) | 2001-10-12 |
JP3834766B2 true JP3834766B2 (ja) | 2006-10-18 |
Family
ID=18615548
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000101513A Expired - Fee Related JP3834766B2 (ja) | 2000-04-03 | 2000-04-03 | マンマシーン・インターフェース・システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3834766B2 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014209071A1 (ko) * | 2013-06-27 | 2014-12-31 | Hwang Sung Jae | 사용자의 손톱이나 발톱에 관한 시각적인 정보에 기초하여 사용자 입력을 결정하는 방법 및 장치 |
US9665168B2 (en) | 2014-05-02 | 2017-05-30 | Canon Kabushiki Kaisha | Image processing apparatus, information processing method, and program |
US9924066B2 (en) | 2014-05-02 | 2018-03-20 | Canon Kabushiki Kaisha | Image processing apparatus, information processing method, and program |
Families Citing this family (48)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4052498B2 (ja) | 1999-10-29 | 2008-02-27 | 株式会社リコー | 座標入力装置および方法 |
JP2001184161A (ja) | 1999-12-27 | 2001-07-06 | Ricoh Co Ltd | 情報入力方法、情報入力装置、筆記入力装置、筆記データ管理方法、表示制御方法、携帯型電子筆記装置および記録媒体 |
US6803906B1 (en) | 2000-07-05 | 2004-10-12 | Smart Technologies, Inc. | Passive touch system and method of detecting user input |
ATE453147T1 (de) | 2000-07-05 | 2010-01-15 | Smart Technologies Ulc | Verfahren für ein kamerabasiertes berührungssystem |
US6954197B2 (en) | 2002-11-15 | 2005-10-11 | Smart Technologies Inc. | Size/scale and orientation determination of a pointer in a camera-based touch system |
US8456447B2 (en) | 2003-02-14 | 2013-06-04 | Next Holdings Limited | Touch screen signal processing |
US7629967B2 (en) | 2003-02-14 | 2009-12-08 | Next Holdings Limited | Touch screen signal processing |
US8508508B2 (en) | 2003-02-14 | 2013-08-13 | Next Holdings Limited | Touch screen signal processing with single-point calibration |
US7532206B2 (en) | 2003-03-11 | 2009-05-12 | Smart Technologies Ulc | System and method for differentiating between pointers used to contact touch surface |
US7411575B2 (en) | 2003-09-16 | 2008-08-12 | Smart Technologies Ulc | Gesture recognition method and touch system incorporating the same |
US7274356B2 (en) | 2003-10-09 | 2007-09-25 | Smart Technologies Inc. | Apparatus for determining the location of a pointer within a region of interest |
US7355593B2 (en) | 2004-01-02 | 2008-04-08 | Smart Technologies, Inc. | Pointer tracking across multiple overlapping coordinate input sub-regions defining a generally contiguous input region |
US7460110B2 (en) | 2004-04-29 | 2008-12-02 | Smart Technologies Ulc | Dual mode touch system |
US7538759B2 (en) | 2004-05-07 | 2009-05-26 | Next Holdings Limited | Touch panel display system with illumination and detection provided from a single edge |
US8120596B2 (en) | 2004-05-21 | 2012-02-21 | Smart Technologies Ulc | Tiled touch system |
JP4419768B2 (ja) * | 2004-09-21 | 2010-02-24 | 日本ビクター株式会社 | 電子機器の制御装置 |
KR100697668B1 (ko) | 2004-11-15 | 2007-03-20 | 한국정보통신대학교 산학협력단 | 상호작용성을 이용한 미디어 엔터테인먼트 제공 장치 및방법 |
JP4594272B2 (ja) * | 2006-04-26 | 2010-12-08 | 日本電信電話株式会社 | 位置データ変換装置及び位置データ変換方法 |
US9442607B2 (en) | 2006-12-04 | 2016-09-13 | Smart Technologies Inc. | Interactive input system and method |
JP4848521B2 (ja) * | 2007-03-29 | 2011-12-28 | 国立大学法人九州工業大学 | プロジェクタ投影映像のマウス代替操作方法およびそのマウス代替操作システム |
WO2008128096A2 (en) | 2007-04-11 | 2008-10-23 | Next Holdings, Inc. | Touch screen system with hover and click input methods |
KR100883900B1 (ko) | 2007-04-30 | 2009-02-17 | 고려대학교 산학협력단 | 체감형 유저 인터페이스 장치 |
US8094137B2 (en) | 2007-07-23 | 2012-01-10 | Smart Technologies Ulc | System and method of detecting contact on a display |
CN101802760B (zh) | 2007-08-30 | 2013-03-20 | 奈克斯特控股有限公司 | 具有改进照明的光学触摸屏 |
US8384693B2 (en) | 2007-08-30 | 2013-02-26 | Next Holdings Limited | Low profile touch panel systems |
US8610965B2 (en) * | 2007-11-26 | 2013-12-17 | Optelec Development B.V. | Reproduction device, assembly of a reproductive device and an indication body, and a method for reproducing an image portion |
US8405636B2 (en) | 2008-01-07 | 2013-03-26 | Next Holdings Limited | Optical position sensing system and optical position sensor assembly |
JP5077956B2 (ja) | 2008-04-23 | 2012-11-21 | Kddi株式会社 | 情報端末装置 |
KR100968205B1 (ko) | 2008-05-07 | 2010-07-06 | 전자부품연구원 | 적외선 카메라 방식의 공간 터치 감지 장치, 방법 및스크린 장치 |
US8902193B2 (en) | 2008-05-09 | 2014-12-02 | Smart Technologies Ulc | Interactive input system and bezel therefor |
US8339378B2 (en) | 2008-11-05 | 2012-12-25 | Smart Technologies Ulc | Interactive input system with multi-angle reflector |
US8692768B2 (en) | 2009-07-10 | 2014-04-08 | Smart Technologies Ulc | Interactive input system |
JP5201096B2 (ja) * | 2009-07-17 | 2013-06-05 | 大日本印刷株式会社 | 対話操作装置 |
US20120224040A1 (en) * | 2011-03-03 | 2012-09-06 | Hand Held Products, Inc. | Imager reader with hand gesture interface |
JP5960796B2 (ja) | 2011-03-29 | 2016-08-02 | クアルコム,インコーポレイテッド | ローカルマルチユーザ共同作業のためのモジュール式のモバイル接続ピコプロジェクタ |
JP2013080413A (ja) | 2011-10-05 | 2013-05-02 | Sony Corp | 入力装置、入力認識方法 |
US20140003674A1 (en) * | 2012-06-27 | 2014-01-02 | Christopher D. Coley | Skin-Based User Recognition |
KR20150031384A (ko) * | 2013-09-13 | 2015-03-24 | 현대자동차주식회사 | 맞춤형 인터페이스 시스템 및 그 동작 방법 |
JP6303514B2 (ja) * | 2014-01-14 | 2018-04-04 | 新日鐵住金株式会社 | 作業情報入力システム、情報処理装置、その制御方法およびプログラム |
JP6335695B2 (ja) * | 2014-07-09 | 2018-05-30 | キヤノン株式会社 | 情報処理装置、その制御方法、プログラム、及び記憶媒体 |
JP5888393B2 (ja) * | 2014-11-12 | 2016-03-22 | セイコーエプソン株式会社 | 位置検出システム、表示システム及び情報処理システム |
JP6592904B2 (ja) * | 2015-01-22 | 2019-10-23 | セイコーエプソン株式会社 | 電子機器、プログラム |
JP2016186678A (ja) * | 2015-03-27 | 2016-10-27 | セイコーエプソン株式会社 | インタラクティブプロジェクターおよびインタラクティブプロジェクターの制御方法 |
JP2017045407A (ja) * | 2015-08-28 | 2017-03-02 | キヤノン株式会社 | 情報処理装置 |
JP6652004B2 (ja) | 2016-07-04 | 2020-02-19 | 富士通株式会社 | 情報処理装置、インタラクション方法、およびインタラクションプログラム |
JP7139570B2 (ja) * | 2016-09-12 | 2022-09-21 | 沖電気工業株式会社 | 生産ナビゲーションシステム |
JP2018136709A (ja) * | 2017-02-21 | 2018-08-30 | 三菱電機インフォメーションシステムズ株式会社 | データ入力装置、データ入力プログラム及びデータ入力システム |
CN111515149B (zh) * | 2020-04-26 | 2020-12-29 | 广东弓叶科技有限公司 | 人机协作分选系统及其机器人的抓取位置获取方法 |
-
2000
- 2000-04-03 JP JP2000101513A patent/JP3834766B2/ja not_active Expired - Fee Related
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014209071A1 (ko) * | 2013-06-27 | 2014-12-31 | Hwang Sung Jae | 사용자의 손톱이나 발톱에 관한 시각적인 정보에 기초하여 사용자 입력을 결정하는 방법 및 장치 |
US9665168B2 (en) | 2014-05-02 | 2017-05-30 | Canon Kabushiki Kaisha | Image processing apparatus, information processing method, and program |
US9924066B2 (en) | 2014-05-02 | 2018-03-20 | Canon Kabushiki Kaisha | Image processing apparatus, information processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP2001282456A (ja) | 2001-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3834766B2 (ja) | マンマシーン・インターフェース・システム | |
US6594616B2 (en) | System and method for providing a mobile input device | |
US9626000B2 (en) | Image resizing for optical character recognition in portable reading machine | |
US8284999B2 (en) | Text stitching from multiple images | |
US8320708B2 (en) | Tilt adjustment for optical character recognition in portable reading machine | |
US8036895B2 (en) | Cooperative processing for portable reading machine | |
US9236043B2 (en) | Document mode processing for portable reading machine enabling document navigation | |
US8249309B2 (en) | Image evaluation for reading mode in a reading machine | |
JP6372487B2 (ja) | 情報処理装置、制御方法、プログラム、および記憶媒体 | |
US20150043822A1 (en) | Machine And Method To Assist User In Selecting Clothing | |
US20060017810A1 (en) | Mode processing in portable reading machine | |
US20050288932A1 (en) | Reducing processing latency in optical character recognition for portable reading machine | |
US20060006235A1 (en) | Directed reading mode for portable reading machine | |
JP2000105671A (ja) | 座標入力/検出装置および電子黒板システム | |
WO2016121401A1 (en) | Information processing apparatus and program | |
KR20140144510A (ko) | 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치 | |
JP2008176802A (ja) | 座標入力/検出装置および電子黒板システム | |
KR102159767B1 (ko) | 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치 | |
CN113934297B (zh) | 一种基于增强现实的交互方法、装置、电子设备及介质 | |
JP2018112894A (ja) | システムおよび制御方法 | |
JP3234736B2 (ja) | 入出力一体型情報操作装置 | |
CN113778233B (zh) | 一种操控显示设备的方法、装置及可读介质 | |
JP2009259254A (ja) | コンテンツ表現制御装置、コンテンツ表現制御システム、コンテンツ表現制御用基準物体およびコンテンツ表現制御プログラム | |
Koike et al. | Enhancedtable: Supporting a small meeting in ubiquitous and augmented environment | |
JP4330637B2 (ja) | 携帯機器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060328 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20060329 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060518 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060704 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060713 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100804 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110804 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120804 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130804 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |