JPH08211979A - 手振り入力装置及び方法 - Google Patents

手振り入力装置及び方法

Info

Publication number
JPH08211979A
JPH08211979A JP1595295A JP1595295A JPH08211979A JP H08211979 A JPH08211979 A JP H08211979A JP 1595295 A JP1595295 A JP 1595295A JP 1595295 A JP1595295 A JP 1595295A JP H08211979 A JPH08211979 A JP H08211979A
Authority
JP
Japan
Prior art keywords
hand
input
inputting
motion
result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP1595295A
Other languages
English (en)
Inventor
Shinichi Sunakawa
伸一 砂川
Kazuhiro Matsubayashi
一弘 松林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP1595295A priority Critical patent/JPH08211979A/ja
Publication of JPH08211979A publication Critical patent/JPH08211979A/ja
Withdrawn legal-status Critical Current

Links

Abstract

(57)【要約】 (修正有) 【目的】 使い勝手を向上させ、高い入力効率を備え
た、好適な手振り入力装置及び方法を提供する。 【構成】 手の軌跡を入力して情報の入力を行う手振り
入力装置において、手の動作をCCDカメラ15等で入
力しS100、この入力結果から手の位置座標を検出す
るS102。また、入力結果から手の形状動作を判別し
S103。判別の結果に応じた入力モードによって、検
出手段の検出入力位置座標を入力するS107、S10
8。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、操作者の手の動きを入
力して情報の入力を行う手振り入力装置及び方法に関す
るものである。
【0002】
【従来の技術】従来より、操作者の手の形状や動きを検
知して、情報入力を行う装置の研究が行われている。こ
れは、手を画像として入力する方式と特殊な器具を使用
する方式に大別できる。手を画像として入力する方式
は、操作者の手をビデオカメラ、スチルカメラで撮影
し、画像認識によって手の形状や動きを入力するもので
ある。画像認識の方法として、次のようなものが提案さ
れている。 ・輪郭検出による方法 エッジ抽出処理によって手の輪郭を検出し、輪郭の重心
を手の中心とする。輪郭の曲率から特徴点を検出して、
正の極値を持つ部分を指先端とする。この指先端の座標
と手の中心座標から、指さす方向や指の本数を検出す
る。 ・領域検出による方法 画像を均質な輝度を有する領域に分割し、手と同じ輝度
の領域を抽出する。この領域に対して細線化を行い、指
部分のベクトル化を行う。この指ベクトルから指先位
置、指さす方向や指の本数を検出する。
【0003】一方、米国VPL社のデータグローブ(商
標登録)のように、特殊な器具を装着することで手の動
きを検出する装置も実現されている。これは、グローブ
の指に沿って光ファイバをはわせたものであり、光ファ
イバの光透過率の変化によって指の曲げを検出する。ま
た、グローブに磁気センサを内蔵しており、手の3次元
位置を検出することもできる。
【0004】これらの器具の応用として、カーソルの移
動、ジェスチャコマンド入力、仮想現実感での手の動作
入力、手話の入力、などか提案されている。また、指先
で空中に文字を書く動作を行った時、この軌跡を文字認
識して情報の入力を行う装置も考えられる。これらの装
置で、手で表現した情報を次々に入力するためには、何
らかの方法で前の情報と次の情報を切り分ける必要があ
る。すなわち、後者の応用例で言えば、空中に書いた文
字と文字、また、文字を構成するストローク間で切り分
けを行う必要がある。ストローク検出の必要性は、文字
ストロークでない部分の手の動きが人によって異なるこ
とから生じる認識率の低下を防ぐことにある。この手振
り動作の切り出しは次の方法で実現されていた。 (1)別にスイッチを設け、これを押すことで手振り情
報の入力終了と判断する。 (2)一定の時間を定め、この時間経過で一つの入力終
了する。
【0005】また、座標入力装置においても、文字切り
出しとストローク検出の方法が各種提案されている。こ
の座標入力装置は、専用の入力ペンでタブレット上を押
下することで、指示座標の検出を行うものである。主な
方式として、感圧方式、電磁誘導方式、静電結合方式、
超音波方式などが知られている。これら座標入力装置に
おいて、特開平01−270185号に記載された発明
では、「認識できない文字があると文字の切り出し時間
を長くする」という方法が提案されている。タブレット
上の一定の枠内に文字を入力する装置では、隣の文字枠
に入力があったときに一文字入力の終了と判断する処理
が実現している。また、手振り認識装置と同様に、別に
スイッチを設ける構成、時間の経過で文字切りを行う構
成も実現されている。さらに、ストローク検出に関連し
て、特開平02−213921号公報に記載された発明
では、「ペンダウン後の入力値数点は入力しない」とい
う提案を行っている。
【0006】
【発明が解決しようとしている課題】しかしながら、上
記従来例においては、ストローク検出に(1)のスイッ
チを使用すると、操作が煩雑となって使い勝手が低下す
るという問題点があった。また、ストローク検出に
(2)の時間検出を用いると、画数の多い文字の入力に
非常に長い時間がかかることになり、入力効率が低下す
るという問題点があった。
【0007】本発明は、上記従来例に鑑みてなされたも
ので、使い勝手を向上させ、高い入力効率を備えた、好
適な手振り入力装置及び方法を提供することを目的とす
る。
【0008】
【課題を解決するための手段】上記目的を達成するため
に例えば本発明の一実施例においては以下の構成からな
る。即ち、手の軌跡を入力して情報の入力を行う手振り
入力装置において、手の動作を入力する動作入力手段
と、前記動作入力手段の入力結果から手の位置座標を検
出する位置座標検出手段と、前記動作入力手段の入力結
果から手の形状を判別する形状判別手段と、前記形状判
別手段の判別結果に応じて前記位置座標検出手段の検出
入力位置座標を入力する位置座標入力手段とを備えるこ
とを特徴とする。
【0009】又は、手の軌跡を入力して情報の入力を行
う手振り入力装置において、手の動作を入力する動作入
力手段と、前記動作入力手段の入力結果から手の位置座
標を検出する位置座標検出手段と、前記動作入力手段の
入力結果から手と装置と距離を算出する距離算出手段
と、前記距離算出手段の算出結果に応じて前記位置座標
検出手段の検出入力位置座標を入力する位置座標入力手
段とを備えることを特徴とする。
【0010】あるいはまた、手の軌跡を入力して情報の
入力を行う手振り入力装置において、手の動作を入力す
る動作入力手段と、前記動作入力手段の入力結果から手
の位置座標を検出する位置座標検出手段と、前記位置座
標検出手段の検出結果が所定時間停止していることを検
知する停止検知手段と、前記停止検知手段の検知結果に
応じて前記位置座標検出手段の検出結果を入力するモー
ドと前記位置座標検出手段の検出結果の入力を禁止する
入力禁止モードとを切替実行させる切替手段とを備える
ことを特徴とする。
【0011】
【作用】以上の構成において、手形状または位置が設定
値と一致した時に、手の軌跡をストロークとして入力す
ることができ、切り換えスイッチなどが不要となり、装
置の使い勝手を向上させることができる。また、切り出
し時間などを用いずにストローク検出を行うことができ
るので、入力効率を大幅に向上させることができる。
【0012】または、手が設定時間を越えて同一位置に
あったときに、ストローク入力の可否を切り換えること
ができるので、入力効率を大幅に向上させることができ
る。
【0013】
【実施例】以下、添付図面を参照して、本発明に係る好
適な一実施例を詳細に説明する。 [第1実施例] <装置構成の説明(図2)>図1は、本発明に係る一実
施例装置の概略構成を示す斜視図である。図1におい
て、8はキーボード、11は情報の表示を行う液晶ディ
スプレイ、12はCCDカメラレンズ方向を調節するジ
ョイント、15はユーザの手の動きを入力するCCDカ
メラである。
【0014】以上の構成を備える本実施例の手振り入力
装置は、画像入力デバイスとしてCCDカメラ12を用
いた携帯型パーソナルコンピュータである。ユーザの手
振り入力は、CCDカメラ12で撮影され、詳細を後述
するが内部でマッチングを行った後に文字コードとして
入力される。また、本体上のキーボード8よっても各種
文字の入力を行うことができる。 <回路構成の説明(図2)>次に、本実施例の装置の概
略の回路構成を図2を用いて説明する。
【0015】図2中、1は装置全体の制御を行うCPU
であり、メモリ部3に格納されたプログラムにしたがっ
て演算及びI/O制御等を含む各種処理を実行する。周
辺機器コントローラ2はCPU1とセットで用いられ、
周辺機器を制御するのに必要なI/O(シリアル通信、
パラレル通信、リアルタイムクロツク、タイマ、割り込
み制御、DMA制御等)の制御を行う。メモリ部3は、
メインメモリとして、DRAM、キャッシュRAM、R
OM等のメモリを含む。4はユーザデータや装置の設定
の記憶を行うハードディスクドライブである。
【0016】キーボードユニット31において、7はキ
ーボード制御部、8はキーボードである。FDDユニッ
ト32において、5はFDD、6はフロッピーディスク
ドライブである。表示ユニット33において、9は表示
制御部であり、VRAM10から順次表示データを読み
出し、階調変換等を行いながら液晶パネル11へ表示デ
ータを転送する。また、表示部9は、CPU1からVR
AM10へのアクセスと、VRAM10から表示部6へ
データ転送するアクセスが衝突しないようにバス制御も
行う。さらに、VRAM10の内容に対して予め設定さ
れたパターンとのAND,OR,EXOR等の論理演算
を行うこともできる。
【0017】本実施例においては、液晶パネル11は各
種ファイルの情報を表示すると共に、入力中の手の軌跡
を表示する。35はユーザの手の動作を画像データとし
て入力する画像入力ユニットである。15はCCDカメ
ラ、14はCCDカメラ15の出力信号を増幅し、画像
データとして出力する画像入力部である。 <処理動作の説明(図3〜図8)>続いて、以下では、
以上の構成を備える本実施例の処理動作について説明を
行う。
【0018】本実施例の動作は、まず、ユーザの手の動
作をCCDカメラ15より入力し、位置座標を検出する
と共に手形状のマッチングを行う。そして、手形状があ
らかじめ設定されたパターンと同一であった場合にの
み、その軌跡を入力する。次に、この軌跡列と文字パタ
ーンを照合し、文字コードとして入力する、という処理
を行う。 <入力動作の説明(図3、4)>まず、本実施例におけ
る軌跡入力の様子について説明する。
【0019】図3に示す(a)(b)は、手で描かれた
軌跡の一例を示す図であり、ユーザが空中に書いた文字
「あ」の軌跡である。図3の(a)において、50はユ
ーザの手が動いた軌跡そのものである。図3の(b)に
おいて、51、53、55は文字「あ」を構成するスト
ロークであり、52、54はストロークでない帰線部分
である。本実施例では、後述する処理によって、ストロ
ークである軌跡部分51、53、55のみを切り出し、
文字ストロークとして入力する。
【0020】次に、図4は、本実施例における、手形状
の設定パターンの一例を表す図である。図4の(a)は
手を開いた形状であり、ストロークでない帰線部分と認
識される。図4の(b)は、手を握った状態であり、こ
のパターンの時にストローク入力を行う。すなわち、本
実施例では、手の形状が図4の(b)に示す状態であれ
ば入力設定パターンとしており、この手を握って動かし
た軌跡はストロークとして入力され、手を開いて動かし
た軌跡はストロークとして入力されない。
【0021】また、入力設定パターンは上述した(a)
(b)の例に限定されるものではなく、図4の(c)
(d)のようであってもよい。図4の(c)は、親指と
人差し指を離した状態であり、帰線部分と認識される。
図4の(d)は、親指と人差し指をつけた状態であり、
ストローク入力がなされる入力設定パターンである。さ
らに、入力設定パターンは、後述する手形状マッチング
処理で判別できるものであれば良いので、特に図4に示
す形状に限定されるものではない。
【0022】続いて、以下では、以上の本実施例の処理
の流れについて説明を行う。 <フレーム入力処理の説明(図5)>次に、図5を用い
て本実施例における手振り入力処理である、CCDカメ
ラ15で一フレームの入力毎に行うフレーム入力処理を
説明する。図5に示す処理では、CCDカメラ15より
入力した撮影画像から手の位置と形状を判定し、設定パ
ターンと同一であったときに手の位置座標をストローク
バッファに入力する動作を行う。なお、ストロークバッ
ファは、図示しないがメモリ部3内に設けられ、ストロ
ークの開始コード、及びストロークを構成する座標デー
タで構成される。また、メモリ部3中に、前フレームが
ストローク入力中であるかを示す、ストロークフラグを
設ける。
【0023】まずステツプS100においてCPU1
は、画像入力部14を介してCCDカメラ15から撮影
した画像データの入力を行ない、メモリ部3に格納す
る。続いてステップS101で、ノイズ除去やシェーデ
ィング補正などの公知の画像前処理を行って、画像デー
タから外乱の影響を除去する。次にステップS102で
詳細を後述する手の位置座標の検出を行う手位置座標検
出処理を実行する。続くステップS103では詳細を後
述する手形状のマッチングを行う手形状マッチング処理
を実行する。そして続くステップS104でステツプS
103でのマッチング処理の結果、手形状が設定パター
ンと同一か否かの判定処理を実行する。手形状が設定パ
ターンと同一でなければステップS109へ進み、スト
ロークフラグをクリアし、処理を終了する。
【0024】一方、ステツプS104で手形状が設定パ
ターンと同一であればステップS105へ進み、現在の
状況がストローク中か否かを判定する。ここで、現在の
状況がストローク中であればステップS108へ進む。
一方、現在の状況がストローク中でなければステップS
106へ進む。ステップS106では、ストロークフラ
グをセットしてステップS107へ進む。ステップS1
07では、ストロークバッファにストローク開始コード
を書き込む。そしてステツプS108に進む。
【0025】ステップS108では、ストロークバッフ
ァにステップS102で検出された位置座標を入力し処
理を終了する。 <手の位置座標検出処理の説明(図6)>図6を用い
て、本実施例における上述した図5のステツプS102
における手の位置座標検出の処理の詳細を説明する。な
お、図6の処理は、信学技報HC91−33に記載され
ている動き情報の検出方法を応用してものである。
【0026】本実施例では、ユーザは長袖の衣服を着用
するものとし、画像中で一番動きの大きい部分が腕であ
ると仮定して、これを検出する。また、動き部分の中で
肌色の領域を検出して、これを掌であると判断する。そ
して、掌領域の重心座標を計算して、これを手の位置座
標として出力する動作を行う。即ち、図6に示す手位置
検出処理においては、まずステップS120で前フレー
ムとの差分画像を作成する。続いてステップS121で
エッジ付近の微小なノイズを除去するために、差分画像
のしきい値処理を行う。すなわち、差分値が一定値以下
の画素は差分値を0とする処理を行う。次のステツプS
122及びステツプS123では、動き部分の領域分割
を行う。まずステップS122で元画像についてフィル
タリング処理を行い、入力画像のエッジを抽出する。続
いてステップS123でステツプS122で抽出したエ
ッジ画像を元に領域分割を行う。
【0027】そしてステップS124でステツプS12
3で領域分割した各領域について色判定し、肌色領域の
検出を行う。すなわち、肌色の標準色のRGB成分から
一定の範囲内にある領域を検出する。次のステップS1
25では、肌色領域の重心を算出してストロークの中心
位置を検出する。そしてこの手位置検出処理を終了す
る。
【0028】以上の処理により、腕の写っているCCD
カメラ15の撮影画像から掌部分を検出し、その位置座
標を求めることができる。なお、本実施例の手位置座標
検出方法はこれらに限られるものではなく、例えば、人
体モデルとマッチングさせて掌の位置を検出するもので
あってもよい。また、出力する位置座標として、肌色領
域の重心でなく、突出部の座標を用いるようにしても良
い。 <手形状マッチング処理の説明(図7)>次に、図7を
用いて、図5のステツプS103に示す手形状マッチン
グ処理の詳細を説明する。図7に示す本実施例の手形状
マッチング処理は、信学技報HC92−41に記載され
ている指領域の抽出手順を応用したものである。本実施
例では、指の細線化を行って指本数を検出し、指本数に
よって設定パターンとの比較を行う。そして、判定結果
は、メモリ部3内に設けられている手形状レジスタに格
納される。また、本実施例における以下の説明の設定パ
ターンは、ストロークパターンが指0本の場合、帰線パ
ターンが指5本の場合である。
【0029】図7に示す本実施例における手形状マッチ
ング処理においては、まずステップS130で掌の周囲
の画像に注目して、エッジ強調を行い、掌領域を2値化
する。この注目領域は、上述した図6に示す手位置座標
検出処理の出力結果を中心として、肌色領域を含むよう
に切り出す。続いてステップS131でステツプS13
0で二値化した二値化画像から背景を分離し、掌だけの
画像を抽出する。ステップS132では、ステップS1
31で抽出した画像に縮退/拡大処理を行って、指領域
と微細な凹凸を消滅させる。
【0030】続くステップS133では、ステップS1
31の処理結果画像とステップS132の処理結果画像
とを比較して、消滅した領域を抽出し、この抽出領域を
指領域の候補として検出する。そしてステップS134
で先のステップS133の抽出指領域候補画像に対して
8方向近傍のラベリング処理を行ない、一定面積以下の
領域を除去する。ステップS135では、ステップS1
34での除去領域数を指の本数とする指本数検出処理を
実行する。ステップS136では、ステツプS134で
の指本数検出処理の結果の指の本数が5本であるか否か
を判定する。指の本数が5本でなければステップS13
7へ進む。そしてステップS137で手形状レジスタに
「ストロークパターン」であることをセットして処理を
終了する。
【0031】一方、ステツプS136の判定で指の本数
が5本であればステップS138へ進み、手形状レジス
タに「帰線パターン」であることをセットして処理を終
了する。以上の処理によって、画像から指本数を検出し
て、手形状の判別を行うことができる。
【0032】なお、本発明の手形状のマッチング処理方
法はこれに限られるものでなく、他の方法も広く応用す
ることができる。例えば、手のエッジ抽出を行い、エッ
ジ方向の極値から指ベクトルを求め、指本数を検出する
方法でも良い。また、掌を剛体モデル化し、そのパラメ
ータから手形状を判別する方法であっても良い。さら
に、マッチング方法についても、指本数に限られること
なく、例えば、ダイナミックパターンマッチング(DP
法)などを用いて、手形状を直接比較するものであって
もよい。 <一文字入力処理の説明(図8)>続いて、各フレーム
で検出された位置座標から、一文字分の情報を入力する
処理について、図8を用いて説明する。図8の処理によ
り、図5に示すストローク入力処理によって最後のスト
ローク入力から設定時間を経過した時に文字入力終了と
判定し、文字認識動作を行う。設定時間の測定は、メモ
リ部3内に設けた文字切りタイマレジスタ(図示せず)
を減算することで行う。
【0033】図8において、まずステップS110で文
字切りタイマレジスタに、設定時間を表すカウント値の
書き込みを行う。続くステップS111でストローク入
力があったか否かを判定する。ストローク入力があれば
ステップS110へ進み、次のストローク入力に備え
る。一方、ストローク入力がなければステップS112
へ進む。なお、ストローク入力があるか否かの判定は、
前述のストロークフラグを読み込むことで行う。
【0034】続くステップS112ではタイマレジスタ
の値を減算し、ステップS113へ進む。ステップS1
13では、タイマレジスタがカウントアップしたか否か
を判定し、肯定であればステップS114へ、否定であ
ればステップS111へ進む。ステップS114では、
ストローク座標列を文字認識バッファに格納する。ステ
ップS115では、ストローク座標列を順次読み出して
文字認識を行う。オンライン文字認識の手法について
は、パターンマッチング法等公知の技術を利用できるた
め、ここでの説明は省略する。ステップS116では、
ステップS115により出力された文字コードを、文字
ファイル中に格納または表示を行って、処理を終了す
る。
【0035】以上説明したように本実施例によれば、手
形状が設定パターンと同一であった時に、手の位置座標
を入力する動作を行うことで、ストロークを入力する時
の切り換えスイッチなどが不要となり、装置の使い勝手
を向上させることが可能となる。 [第2実施例]前述した第1の実施例では、軌跡を描く
手の形状が設定パターンと同一であったときに手の位置
座標を入力する処理について説明を行った。しかしなが
ら本発明は以上の例に限定されるものではなく、軌跡を
描く手と、ストローク入力を指示する手が異なる場合で
あっても本発明を適用できる。以下、軌跡を描く手と、
ストローク入力を指示する手が異なる本発明に係る第2
実施例について説明する。
【0036】第2実施例においては、画像入力するカメ
ラを2台備え、軌跡を描く手(主たる手とする)と、ス
トローク入力を指示する手(従たる手とする)のそれぞ
れを撮影する。そして、主たる手については手の位置、
従たる手については手の形状を検出して、ストローク入
力の判定を行う。 <装置構成の説明(図9)>まず、図9を参照して第2
実施例の装置の構成を説明する。図9中、前述した第1
の実施例と同一の構成要素については同一番号を付し、
詳細説明を省略する。
【0037】図9において、16はCCDカメラの出力
信号を増幅し、画像データとして出力する第二の画像入
力部、17は第二のCCDカメラである。第2実施例に
おいては、第一のCCDカメラ15は主たる手の画像を
入力し、第二のCCDカメラ17は従たる手の画像を入
力する。また、36はストローク入力を指示する手の動
作を画像データとして入力する第二の画像入力ユニット
である。
【0038】<処理動作の説明(図10)>次に以上の
構成を備える第2実施例の処理動作について図10を参
照して説明する。第2実施例の動作は、まず、ユーザの
両手の画像を2つのCCDカメラ15,17で入力す
る。すなわち、軌跡を描く手(主たる手)と、ストロー
ク入力を指示する手(従たる手)それぞれの動作を検出
する。そして、従たる手の手形状のマッチングを行な
い、手形状が予め設定されたパターンと同一の場合にの
み、主たる手の軌跡を入力する動作を行う。次に、この
軌跡列と文字パターンの照合を行って、文字コードとし
て装置に入力処理を行う。
【0039】以下、図10に従って詳細に説明する。ま
ずステップS200において、第二のCCDカメラ17
から画像データの入力を行ない、メモリ部3に格納す
る。次のステップS201では、ノイズ除去やシェーデ
ィング補正等の公知の前処理を行ない、画像データから
外乱の影響を除去する。そしてステップS202で前述
した第1の実施例と同様の処理で手の位置座標の検出を
行う。続くステップS203では、従たる手の形状マッ
チングを行う。そしてステップS204で手形状が設定
パターンと同一か否かを判定する。同一でなければステ
ツプS212に進み、ストロークフラグをクリアし、処
理を終了する。
【0040】一方、ステツプS204で手形状が設定パ
ターンと同一である場合にはステップS205に進み、
第一のCCDカメラ15から画像データの入力を行ない
メモリ部3に格納する。次にステップS206でステッ
プS201と同様の外乱の除去処理等の前処理を実行す
る。そして続くステップS207で第一のCCDカメラ
15の画像について、主たる手の位置座標の検出を行
う。このステツプS207の検出方法は上述した第1の
実施例と同様である。続くステップS208では、現在
の状況がストローク中か否かを判定する。現在の状況が
ストローク中であればステップS211へ進み、ストロ
ークバッファにステップS207で検出された位置座標
を入力して処理を終了する。
【0041】一方、ステツプS208で現在の状況がス
トローク中でなければステップS209へ進み、ストロ
ークフラグをセットする。そして続くステップS210
でストロークバッファにストローク開始コードを書き込
む。そしてステップS211に進み、ストロークバッフ
ァにステップS207で検出された位置座標を入力して
処理を終了する。
【0042】なお、第2実施例の一文字入力の切り出
し、文字認識の処理は、上述した第1の実施例と同様の
処理とすることができるため、これらの処理の説明を省
略する。以上、説明したように第2実施例によれば、軌
跡を描く手とストローク入力を指示する手が異なった場
合にも、上述した第1の実施例と同様な効果を得ること
ができる。さらに、第2実施例においては、軌跡を描く
手の形状を一定にしたまま入力できるので、フレーム間
での指示位置の誤差が少なくなり、文字認識率を向上さ
せるという効果がある。
【0043】なお、第2実施例では、両手の動きを入力
するのに2台のカメラを用いたが、1台で処理するよう
にしても良い。この場合、入力画像から動き部分を2箇
所検出し、それぞれの動き部分に対して手の位置の検出
を行うことで実現できる。 [第3実施例]上述した各実施例では、手の形状が設定
パターンと同一であったときに手の軌跡を入力する処理
について説明を行った。しかし、本発明は以上の例に限
定されるものではなく、、手のおかれた座標、具体的に
は手と装置の距離を検出することで、ストロークの入力
判定を行うことも可能である。このように構成した本発
明に係る第3実施例を以下に説明する。 <装置構成の説明(図11)>図11は本発明に係る第
3実施例の装置の構成を示す図である。図11におい
て、前述した実施例と同一の構成要素については同一番
号を付し、詳細説明を省略する。
【0044】図11において、18は距離センサ19の
信号から距離を検出する距離検出部である。19は距離
センサであり、PZT(ジルコン・チタン酸鉛)などの
素材で構成される超音波振動子である。37は装置から
手までの距離を計測する距離センサユニットであり、第
3本実施例においては超音波を用いた方式で構成する。
距離センサユニット37は、距離センサ19から超音波
を発信し、反射波が戻るまでの時間を計測することによ
って、距離の検出を行う。
【0045】以上の構成を備える第3実施例の使用時の
動作原理を図12を参照して以下に説明する。図12は
使用時の第3実施例装置を上側から見た図である。図1
2において、20は装置本体、15はCCDカメラ、1
9は距離センサである。また、30は軌跡を描く手の重
心である。さらに、32はストローク入力の最小距離、
33はストローク入力の最大距離である。そして、第3
実施例においては、距離センサ19と手の重心30の間
の距離を検出して、距離31が最小距離32と最大距離
33の間である時に位置座標を軌跡データとして入力す
る。 <処理動作の説明(図13)>続いて、以下、以上の構
成を備える第3実施例の処理動作について詳細に説明す
る。第3実施例の動作は、まず、ユーザの手までの距離
を距離センサで計測して、距離が設定値以内の時に手の
動作を画像入力し、位置座標を軌跡として入力する動作
を行う。そして次に、この軌跡列と文字パターンの照合
を行って、文字コードとして装置に入力処理を行う。 <フレーム入力処理の説明(図13)>以下では、図1
3を用いて、一フレームの入力毎に行う処理の流れを説
明する。同図の処理では、まず、ユーザの手までの距離
を距離センサで計測する。そして、距離が設定値以内の
時に、手の動作を画像入力し、位置座標を検出する。次
に、現在がストローク入力中であるかにしたがって区分
コードを書き込んだ後に、位置座標を軌跡列データの一
つとして入力する、という動作を行う。
【0046】まず図13のステップS300において、
距離センサ19を駆動して、センスデータの入力を行
う。ステップS301ではセンスデータを用いて、手と
装置間の距離を計算する。ここで、距離の算出法につい
て述べると、センサパルスの出力からセンサ入力までの
遅延時間をt、音速をvとすると、距離dは、以下に示
す式(1)により求めることができる。
【0047】
【数1】 d=(t×v)/2 ・・・式(1) 続いてステップS302で、手と装置間の距離が設定値
以内であるか否かを判定する。そして、所定値以内でな
ければステップS310へ進み、ストロークフラグをク
リアして処理を終了する。
【0048】一方、ステツプS303で手と装置間の距
離が設定値以内であればステップS303へ進み、CC
Dカメラ15から画像データの入力を行ないメモリ部3
に格納する。続くステップS304において上述の実施
例と同様外乱除去処理等の前処理を実行する。そして次
にステップS305でCCDカメラ15の画像につい
て、手の位置座標の検出を行う。続くステップS306
では現在の状況がストローク中か否かを判定する。スト
ローク中であればステップS309へ進み、ストローク
バッファにステップS305で検出された位置座標を入
力し、処理を終了する。
【0049】一方、現在の状況がストローク中でなけれ
ばステップS307へ進み、ストロークフラグをセット
してステップS308へ進む。ステップS308では、
ストロークバッファに、ストローク開始コードを書き込
む。続いてステップS309でストロークバッファにス
テップS305で検出された位置座標を入力し、処理を
終了する。
【0050】なお、第3実施例においても一文字入力の
切り出し処理及び文字認識の処理は、上述した第1の実
施例で述べた処理と同様であり、説明を省略する。以上
説明したように本実施例によれば、手と装置間の距離を
検出して、距離が設定値以内の時に手の位置座標を軌跡
として入力する処理を行うことにより、前述の実施例と
同様な効果を得ることができる。さらに、第3実施例に
おいては、手の形状マッチング処理が不要となるので、
処理の高速化が図れるという効果がある。
【0051】なお、第3実施例において、距離検出手段
として超音波センサを用いた例を説明したが、本発明は
これに限られるものではない。例えば、赤外光をフレネ
ルレンズで拡散させる構成の、光センサであっても良
い。また、三次元物体計測に用いられるレンジファイン
ダ方式や、ステレオカメラを用いる方式であっても良
い。また、ストローク切り出しの距離範囲は、装置起動
時に任意に指定できるようにしよもよい。
【0052】さらに、第3実施例のストローク切り出し
は、装置と手の間の距離で判定したが、これを手とユー
ザの身体の間の距離で判定するようにしてもよい。これ
により、ユーザと距離の装置にかかわらずに入力が行え
るようになる。また、第3実施例ではストローク切り出
しの処理について説明を行ったが、文字切り出しに応用
することもできる。例えば、図11のストローク入力の
最小、最大距離の外側に、それぞれ文字切り出しの最
小、最大距離を設定する。そして、ストローク入力の最
小、最大距離に手があるときは同じ文字の入力として処
理を行い、この領域をはずれた時に文字入力を終了させ
る。以上の処理を行うことで、文字切り出しにも応用す
ることができる。
【0053】[第4実施例]以上に説明した第1〜第3
の各実施例は、手の形状または位置が設定値と同一の時
に手の軌跡を入力する処理について説明を行った。しか
し本発明は以上の例に限定されるものではなく、手の移
動時間を検出してストロークとそうでない部分の切り換
えを行う様に制御することも本発明の範囲に含めること
ができる。この様に構成した本発明に係る第4実施例
の、手が設定時間以上同一位置にあったことを検出し
て、ストローク入力モードの切り換えを行う処理につい
て説明する。
【0054】第4実施例の装置の構成は、上述した図2
に示す第1の実施例と同様構成とすることができる。な
お、第4実施例では図2の構成中のメモリ部3は、以下
に説明する構成を備えている。即ち、メモリ部3内に検
出した手の位置座標を一フレームの間保存する「座標バ
ッファ」を設ける。また、後述する端点切り換え処理を
行ったかを示す「端点フラグ」を設ける。そして、手が
同一座標に止まっていたことを計測する「端点カウン
タ」を設ける。さらに、現フレームがストローク中であ
るか否かを表す「ストロークステータス」を設ける。ス
トロークステータスの値は二値であり、それぞれ「スト
ローク」と「帰線」モードを表す。 <処理動作の説明>以下では、図2の構成を備える第4
実施例の処理動作について説明を行う。第4実施例の動
作は、ユーザの手の動きをCCDカメラ15で入力し、
手の位置座標を検出する。次に、手が設定時間以上同一
位置にあったことを検出した場合は、軌跡の入力モード
を切り換える処理を行う。そして、軌跡がストロークモ
ードであったときにのみ、検出した座標をストロークバ
ッファに入力する、という動作を行う。 <フレーム入力処理の説明(図14、図15>まず、図
14を用いて、第4実施例における一フレームの入力毎
に行う処理の流れを説明する。図14に示す処理では、
画像から手の位置座標を検出し、後述する端点検出処理
を行って設定時間以上、手が同一位置にあった場合に入
力モードを切り換える。そして、現フレームがストロー
ク中であれば、位置座標をストロークバッファに入力す
る、という動作を行う。
【0055】まず、ステップS400でCCDカメラ1
5から画像データの入力を行ない、メモリ部3に格納す
る。続くステップS401で上述同様の画像データの外
乱除去処理等の前処理を行う。そして次のステップS4
02で手の位置座標の検出を行う。続くステップS40
3では、後述の手順に従って端点検出を行う。このステ
ツプS403の処理では、手が設定時間以上同一位置に
あった場合に、この位置の座標をストローク端点と判断
し、ストロークステータスを切り換える。そして、スト
ロークモードとなった場合は、次の端点が検出されるま
で手の位置座標がストロークバッファに格納されていく
ことになる。一方帰線モードとなった場合は、次の端点
が検出されるまでの間ストロークバッファへの格納は行
われない。
【0056】さて、続くステップS404では、ステッ
プS402で検出した位置座標を座標バッファに格納す
る。そしてステップS405でストロークステータスを
参照して現フレームがストロークモードであるか否かを
判定する。現フレームがストロークモードであればステ
ップS406へ進み、位置座標をストロークバッファに
書き込み、処理を終了する。
【0057】一方、現フレームがストロークモードでな
ければそのまま処理を終了する。続いて、図15を用い
て第4実施例における端点検出処理の流れを説明する。
図15に示す処理では、手が設定時間以上同一位置にあ
った場合にその時の手の位置座標がストローク端点と判
断し、ストロークステータスを切り換える、という動作
を行う。
【0058】まず、ステップS410で座標バッファか
ら前フレームの位置座標を取り出す。続いてステップS
411でステップS402の位置座標と前フレームの位
置座標が同一であるか否かを判定する。ステップS40
2の位置座標と前フレームの位置座標が同一であればス
テップS412以下の処理を実行する。ステップS41
2からステップS418の処理は、手が同一座標にあっ
たときの処理である。ステップS412では、端点フラ
グがクリアされているか否かを判定する。端点フラグが
クリアされていなければ処理を終了する。
【0059】一方、端点フラグがクリアされていればス
テップS413へ進み、端点カウンタの値をインクリメ
ントする。続いてステップS414で端点カウンタの値
が設定値に達し、設定時間が経過したか否かを判定す
る。端点カウンタの値が設定値に達しておらず、設定時
間が経過していない場合には処理を終了する。一方、ス
テツプS414で端点カウンタの値が設定値に達し、設
定時間が経過した場合にはステツプS415へ進み、ス
トロークステータスの値を書き換えて現在の実行モード
を変換する。すなわち、「ストローク」であれば「帰
線」に、「帰線」であれば「ストローク」に切り換え
る。そして次のステップS416で端点フラグをセット
する。ステップS417では、ストロークステータスが
「ストローク」であるか否かを判定する。ストロークス
テータスが「ストローク」でなければそのまま処理を終
了する。
【0060】一方ステツプS417でストロークステー
タスが「ストローク」であればステップS418へ進
み、ストロークバッファにストローク開始コードを書き
込み、処理を終了する。一方、ステツプS411の処理
においてステップS402の位置座標と前フレームの位
置座標が同一でなければステップS419へ進む。ステ
ップS419以降は、前フレームと異なった位置に手が
存在する場合の処理であり、ステップS419では、端
点フラグをクリアする。そしてステップS420で端点
カウンタをクリアし、処理を終了する。
【0061】以上の処理により、手が設定時間以上同一
位置に合った場合に軌跡のモードを切り換え、ストロー
クもどの時にのみストロークバッファに入力する、とい
う動作を行うことができる。なお、第4実施例の一文字
入力の切り出し処理と文字認識処理は、第1実施例で述
べた処理と同様であり、ここでの説明を省略する。以上
説明したように第4実施例によれば、手が設定時間以上
同一位置にあった場合に軌跡のモードを切り換えること
で、前述の実施例と同様な効果を得ることができる。さ
らに、第4実施例においては、手の形状マッチング処理
が不要となるので、処理の高速化が図れるという効果が
ある。また、ユーザにとっては、手の形状や装置との距
離を考えることなく入力が行えるので、より使い勝手の
より装置を実現することができるという効果がある。
【0062】なお、本発明は上述の実施例に限定される
ものではなく、幅広く応用することができる。例えば、
実施例では、ストロークデータを文字認識に使用した
が、これを座標列のまま格納するようにしてもよい。ま
た、ストロークを直線、曲線に当てはめ、図形の入力に
用いることもできる。さらに、手の動きの入力手段とし
て、実施例ではカメラを使用したが、データグローブ
(登録商標)などの接触型のセンサを用いることができ
る。手の位置座標検出、形状マッチングについて様々な
方法が使用できることは前述した通りである。
【0063】尚、本発明は、複数の機器から構成される
システムに適用しても1つの機器から成る装置に適用し
ても良い。また、本発明は、システムあるいは装置にプ
ログラムを供給することによって達成される場合にも適
用できることはいうまでもない。
【0064】
【発明の効果】以上説明したように本発明によれば、手
形状または位置が設定値と一致した時に、手の軌跡をス
トロークとして入力することができ、切り換えスイッチ
などが不要となり、装置の使い勝手を向上させることが
できる。また、切り出し時間などを用いずにストローク
検出を行うことができるので、入力効率を大幅に向上さ
せることができる。
【0065】または、手が設定時間を越えて同一位置に
あったときに、ストローク入力の可否を切り換えること
ができるので、入力効率を大幅に向上させることができ
る。
【図面の簡単な説明】
【図1】本発明に係る一実施例における手振り入力装置
の外観斜視図である。
【図2】本実施例における手振り入力装置の制御回路の
概略構成図を示すブロック図である。
【図3】本実施例における手の軌跡の様子を説明する図
である。
【図4】本実施例における入力時の手の形状を説明する
図である。
【図5】本実施例におけるフレーム入力の処理を示すフ
ローチャートである。
【図6】図5に示す手の位置座標検出処理の詳細を示す
フローチャートである。
【図7】図5における手形状マッチング処理の詳細を示
すフローチャートである。
【図8】本実施例における一文字入力の処理を示すフロ
ーチャートである。
【図9】本発明に係る第2実施例における手振り入力装
置の制御回路の概略構成を示すブロック図である。
【図10】第2実施例におけるフレーム入力の処理を示
すフローチャートである。
【図11】本発明に係る第3実施例における手振り入力
装置の制御回路の概略構成を示すブロック図である。
【図12】第3実施例における手振り入力装置の使用時
の様子を説明する図である。
【図13】第3実施例におけるフレーム入力の処理を示
すフローチャートである。
【図14】本発明に係る第4実施例におけるフレーム入
力の処理を示すフローチャートである。
【図15】第4実施例における端点検出処理を示すフロ
ーチャートである。
【符号の説明】
1 CPU 2 周辺コントローラ 3 メモリ部 4 ハードディスクドライブ 5 FDD制御部 6 FDDドライブ 7 キーボード制御部 8 キーボード 9 表示制御部 10 VRAM 11 液晶ディスプレイ 12 ジョイント 14 画像入力部 15 CCDカメラ 16 第二の画像入力部 17 第二のCCDカメラ 31 キーボードユニット 32 FDDユニット 33 表示ユニット 35 画像入力ユニット 36 第二の画像入力ユニット

Claims (7)

    【特許請求の範囲】
  1. 【請求項1】 手の軌跡を入力して情報の入力を行う手
    振り入力装置において、 手の動作を入力する動作入力手段と、 前記動作入力手段の入力結果から手の位置座標を検出す
    る位置座標検出手段と、 前記動作入力手段の入力結果から手の形状を判別する形
    状判別手段と、 前記形状判別手段の判別結果に応じて前記位置座標検出
    手段の検出入力位置座標を入力する位置座標入力手段と
    を備えることを特徴とする手振り入力装置。
  2. 【請求項2】 手の軌跡を入力して情報の入力を行う手
    振り入力装置において、 手の動作を入力する動作入力手段と、 前記動作入力手段の入力結果から手の位置座標を検出す
    る位置座標検出手段と、 前記動作入力手段の入力結果から手と装置と距離を算出
    する距離算出手段と、 前記距離算出手段の算出結果に応じて前記位置座標検出
    手段の検出入力位置座標を入力する位置座標入力手段と
    を備えることを特徴とする手振り入力装置。
  3. 【請求項3】 手の軌跡を入力して情報の入力を行う手
    振り入力装置において、 手の動作を入力する動作入力手段と、 前記動作入力手段の入力結果から手の位置座標を検出す
    る位置座標検出手段と、 前記位置座標検出手段の検出結果が所定時間停止してい
    ることを検知する停止検知手段と、 前記停止検知手段の検知結果に応じて前記位置座標検出
    手段の検出結果を入力するモードと前記位置座標検出手
    段の検出結果の入力を禁止する入力禁止モードとを切替
    実行させる切替手段とを備えることを特徴とする手振り
    入力装置。
  4. 【請求項4】 前記動作入力手段は画像入力装置によっ
    て構成されることを特徴とす、請求項1乃至3のいずれ
    かに記載の手振り入力装置。
  5. 【請求項5】 手の軌跡を入力して情報の入力を行う手
    振り入力装置における手振り入力方法において、 手の動作を入力可能とし、手の動作結果より手の形状を
    判別すると共に手の動作結果から手の位置座標を検出
    し、前記判別した手の形状に応じて前記手の入力位置座
    標を入力することを特徴とする手振り入力方法。
  6. 【請求項6】 手の軌跡を入力して情報の入力を行う手
    振り入力装置における手振り入力方法において、 手の動作を入力可能とし、手の動作結果より手と装置と
    距離を算出すると共に手の動作結果から手の位置座標を
    検出し、前記算出結果に応じて前記手の位置座標を入力
    することを特徴とする手振り入力方法。
  7. 【請求項7】 手の軌跡を入力して情報の入力を行う手
    振り入力装置における手振り入力方法において、 手の動作を入力可能とし、手の動作結果より手が所定時
    間停止していることを検知してこの検知結果に応じて手
    の動作位置座標を入力するモードと手の動作位置座標の
    入力を禁止する入力禁止モードとを切替実行させること
    を特徴とする手振り入力方法。
JP1595295A 1995-02-02 1995-02-02 手振り入力装置及び方法 Withdrawn JPH08211979A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1595295A JPH08211979A (ja) 1995-02-02 1995-02-02 手振り入力装置及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1595295A JPH08211979A (ja) 1995-02-02 1995-02-02 手振り入力装置及び方法

Publications (1)

Publication Number Publication Date
JPH08211979A true JPH08211979A (ja) 1996-08-20

Family

ID=11903095

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1595295A Withdrawn JPH08211979A (ja) 1995-02-02 1995-02-02 手振り入力装置及び方法

Country Status (1)

Country Link
JP (1) JPH08211979A (ja)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001216069A (ja) * 2000-02-01 2001-08-10 Toshiba Corp 操作入力装置および方向検出方法
US6353764B1 (en) 1997-11-27 2002-03-05 Matsushita Electric Industrial Co., Ltd. Control method
KR20030021987A (ko) * 2001-09-07 2003-03-15 이민호 영상처리를 이용한 무선 Finger Mouse 시스템
JP2005063090A (ja) * 2003-08-11 2005-03-10 Keio Gijuku ハンドパターンスイッチ装置
JP2005174356A (ja) * 2000-02-01 2005-06-30 Toshiba Corp 方向検出方法
JP2006040271A (ja) * 2004-06-28 2006-02-09 Microsoft Corp ソフトウェアアプリケーションと対話するためのジェスチャの認識および使用
CN100351750C (zh) * 2004-07-27 2007-11-28 索尼株式会社 信息处理设备,信息处理方法,记录介质,以及程序
JP2010086367A (ja) * 2008-10-01 2010-04-15 Sony Corp 位置情報入力装置、位置情報入力方法、プログラム、情報処理システム、及び電子装置
JP2010164331A (ja) * 2009-01-13 2010-07-29 Seiko Epson Corp 入力装置及び電子機器
JP2010262400A (ja) * 2009-04-30 2010-11-18 Denso Corp 車載用電子機器操作装置
JP2011034437A (ja) * 2009-08-04 2011-02-17 Mitsubishi Electric Corp 文字認識装置、文字認識プログラム
US7970204B2 (en) 2006-08-30 2011-06-28 Fujifilm Corporation Image processing device having image sensors that pick up an object that carries out an instructing action
JP2011222031A (ja) * 2011-05-23 2011-11-04 Denso Corp 車載用電子機器操作装置
US8099460B2 (en) 2004-07-27 2012-01-17 Sony Corporation Information processing device and method, recording medium, and program
JP2012063937A (ja) * 2010-09-15 2012-03-29 Toshiba Tec Corp 光学符号読取装置
JP2012146303A (ja) * 2011-01-06 2012-08-02 Samsung Electronics Co Ltd モーションによって制御されるディスプレイ装置及びそのモーション制御方法
WO2012132955A1 (ja) * 2011-03-31 2012-10-04 株式会社ニコン 画像表示装置及び物体検出装置
JP2012216030A (ja) * 2011-03-31 2012-11-08 Nikon Corp 画像表示装置
WO2014054716A1 (ja) * 2012-10-03 2014-04-10 楽天株式会社 ユーザインタフェース装置、ユーザインタフェース方法、プログラム及びコンピュータ可読情報記憶媒体
JP2014137818A (ja) * 2013-01-16 2014-07-28 Ricoh Co Ltd 手の平開閉動作識別方法と装置、マン・マシン・インタラクション方法と設備
CN104813258A (zh) * 2012-11-22 2015-07-29 夏普株式会社 数据输入装置
JP2015225374A (ja) * 2014-05-26 2015-12-14 キヤノン株式会社 情報処理装置、方法及びプログラム並びに記録媒体
WO2016092617A1 (ja) * 2014-12-08 2016-06-16 日立マクセル株式会社 投射型映像表示装置及び映像表示方法
US9398243B2 (en) 2011-01-06 2016-07-19 Samsung Electronics Co., Ltd. Display apparatus controlled by motion and motion control method thereof
US9513711B2 (en) 2011-01-06 2016-12-06 Samsung Electronics Co., Ltd. Electronic device controlled by a motion and controlling method thereof using different motions to activate voice versus motion recognition
EP3220098A1 (en) 2016-03-16 2017-09-20 Fujitsu Limited Dimenional measurement in augmented reality

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6353764B1 (en) 1997-11-27 2002-03-05 Matsushita Electric Industrial Co., Ltd. Control method
JP2005174356A (ja) * 2000-02-01 2005-06-30 Toshiba Corp 方向検出方法
JP2001216069A (ja) * 2000-02-01 2001-08-10 Toshiba Corp 操作入力装置および方向検出方法
KR20030021987A (ko) * 2001-09-07 2003-03-15 이민호 영상처리를 이용한 무선 Finger Mouse 시스템
JP2005063090A (ja) * 2003-08-11 2005-03-10 Keio Gijuku ハンドパターンスイッチ装置
JP2006040271A (ja) * 2004-06-28 2006-02-09 Microsoft Corp ソフトウェアアプリケーションと対話するためのジェスチャの認識および使用
CN100351750C (zh) * 2004-07-27 2007-11-28 索尼株式会社 信息处理设备,信息处理方法,记录介质,以及程序
US8856231B2 (en) 2004-07-27 2014-10-07 Sony Corporation Information processing device and method, recording medium, and program
US8099460B2 (en) 2004-07-27 2012-01-17 Sony Corporation Information processing device and method, recording medium, and program
US7970204B2 (en) 2006-08-30 2011-06-28 Fujifilm Corporation Image processing device having image sensors that pick up an object that carries out an instructing action
JP2010086367A (ja) * 2008-10-01 2010-04-15 Sony Corp 位置情報入力装置、位置情報入力方法、プログラム、情報処理システム、及び電子装置
JP2010164331A (ja) * 2009-01-13 2010-07-29 Seiko Epson Corp 入力装置及び電子機器
JP2010262400A (ja) * 2009-04-30 2010-11-18 Denso Corp 車載用電子機器操作装置
JP2011034437A (ja) * 2009-08-04 2011-02-17 Mitsubishi Electric Corp 文字認識装置、文字認識プログラム
JP2012063937A (ja) * 2010-09-15 2012-03-29 Toshiba Tec Corp 光学符号読取装置
US9513711B2 (en) 2011-01-06 2016-12-06 Samsung Electronics Co., Ltd. Electronic device controlled by a motion and controlling method thereof using different motions to activate voice versus motion recognition
JP2012146303A (ja) * 2011-01-06 2012-08-02 Samsung Electronics Co Ltd モーションによって制御されるディスプレイ装置及びそのモーション制御方法
US9398243B2 (en) 2011-01-06 2016-07-19 Samsung Electronics Co., Ltd. Display apparatus controlled by motion and motion control method thereof
WO2012132955A1 (ja) * 2011-03-31 2012-10-04 株式会社ニコン 画像表示装置及び物体検出装置
JP2012216030A (ja) * 2011-03-31 2012-11-08 Nikon Corp 画像表示装置
CN103329519A (zh) * 2011-03-31 2013-09-25 株式会社尼康 图像显示装置及物体检测装置
JP2011222031A (ja) * 2011-05-23 2011-11-04 Denso Corp 車載用電子機器操作装置
WO2014054716A1 (ja) * 2012-10-03 2014-04-10 楽天株式会社 ユーザインタフェース装置、ユーザインタフェース方法、プログラム及びコンピュータ可読情報記憶媒体
JPWO2014080829A1 (ja) * 2012-11-22 2017-01-05 シャープ株式会社 データ入力装置
JP5896578B2 (ja) * 2012-11-22 2016-03-30 シャープ株式会社 データ入力装置
CN104813258A (zh) * 2012-11-22 2015-07-29 夏普株式会社 数据输入装置
CN104813258B (zh) * 2012-11-22 2017-11-10 夏普株式会社 数据输入装置
US10186057B2 (en) 2012-11-22 2019-01-22 Sharp Kabushiki Kaisha Data input device, data input method, and non-transitory computer readable recording medium storing data input program
JP2014137818A (ja) * 2013-01-16 2014-07-28 Ricoh Co Ltd 手の平開閉動作識別方法と装置、マン・マシン・インタラクション方法と設備
JP2015225374A (ja) * 2014-05-26 2015-12-14 キヤノン株式会社 情報処理装置、方法及びプログラム並びに記録媒体
WO2016092617A1 (ja) * 2014-12-08 2016-06-16 日立マクセル株式会社 投射型映像表示装置及び映像表示方法
JPWO2016092617A1 (ja) * 2014-12-08 2017-09-21 日立マクセル株式会社 投射型映像表示装置及び映像表示方法
US10452206B2 (en) 2014-12-08 2019-10-22 Maxell, Ltd. Projection video display device and video display method
EP3220098A1 (en) 2016-03-16 2017-09-20 Fujitsu Limited Dimenional measurement in augmented reality

Similar Documents

Publication Publication Date Title
JPH08211979A (ja) 手振り入力装置及び方法
US11048333B2 (en) System and method for close-range movement tracking
WO2018076523A1 (zh) 手势识别的方法、装置及车载系统
KR101844390B1 (ko) 사용자 인터페이스 제어를 위한 시스템 및 기법
JP5282661B2 (ja) 情報処理装置、情報処理方法およびプログラム
US9910498B2 (en) System and method for close-range movement tracking
EP2437147B1 (en) Information processing device, information processing method, and program
KR100941282B1 (ko) 표시 화면상에 나타낸 복수개의 점들의 좌표값 및 그변화를 검출할 수 있는 검출기를 구비하는 정보 처리 장치
KR101514168B1 (ko) 정보 처리 장치, 정보 처리 방법 및 기록 매체
JP3114813B2 (ja) 情報入力方法
JP3997566B2 (ja) 描画装置、及び描画方法
JP2022028692A (ja) 情報処理装置、情報処理装置の制御方法、及びプログラム
CN104216516B (zh) 一种终端
WO2017047182A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6618276B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP2004078977A (ja) インターフェイス装置
CN108139813A (zh) 视线输入装置、视线输入方法以及视线输入程序
JP7075237B2 (ja) 操作判定装置及び操作判定方法
JP2016167268A (ja) ジェスチャモデリング装置、ジェスチャモデリング方法、ジェスチャモデリングシステム用のプログラム、およびジェスチャモデリングシステム
US11500453B2 (en) Information processing apparatus
JP2017191426A (ja) 入力装置、入力制御方法、コンピュータプログラム、及び記憶媒体
JP2000056916A (ja) ハンドポインティング装置
JP2001179666A (ja) ペット型ロボット及びプログラムが記録されたコンピュータ読み取り可能な記録媒体
CN115424298A (zh) 一种手势识别方法、装置及车辆
JP5456817B2 (ja) 表示制御装置、表示制御方法、情報表示システム及びプログラム

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20020402