JP4169688B2 - ヒューマンインタフェース装置 - Google Patents

ヒューマンインタフェース装置 Download PDF

Info

Publication number
JP4169688B2
JP4169688B2 JP2003403626A JP2003403626A JP4169688B2 JP 4169688 B2 JP4169688 B2 JP 4169688B2 JP 2003403626 A JP2003403626 A JP 2003403626A JP 2003403626 A JP2003403626 A JP 2003403626A JP 4169688 B2 JP4169688 B2 JP 4169688B2
Authority
JP
Japan
Prior art keywords
human interface
outer shell
finger
interface device
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003403626A
Other languages
English (en)
Other versions
JP2005165670A (ja
Inventor
貴史 三由
秀和 岩城
明生 小坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2003403626A priority Critical patent/JP4169688B2/ja
Priority to EP04819776A priority patent/EP1698962A2/en
Priority to PCT/JP2004/017457 priority patent/WO2005055029A1/ja
Publication of JP2005165670A publication Critical patent/JP2005165670A/ja
Priority to US11/445,439 priority patent/US20060268109A1/en
Application granted granted Critical
Publication of JP4169688B2 publication Critical patent/JP4169688B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Input (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本発明は、ヒューマンインタフェース装置、例えば手指による接触分布と力を入力するヒューマンインタフェース装置に関する。
従来より、手指による接触分布と力を入力する種々のヒューマンインタフェース装置が知られている。例えば特開2002−132432号公報では、粒状の物質を詰めた弾性体に曲げセンサを埋設し、粘土状の挙動を起こさせて触覚を入出力していた。また、例えば、特開2001-34410号公報に示されているように、マウスやジョイスティック内部に物理的な圧力センサを設け、握りによりかかる力を計測し、その強度、頻度を統計処理することで、操作者の気分を推定するものがある。
例えば、指紋の認証などでは、ガラスプリズムの全反射面に指を押し付けることにより、反射状態が変化する部位を指紋として検出している。また、米国特許第5757360号公報に示されているように、インタフェースの3次元位置姿勢の遷移で、画面内のキャラクタに対する動作コマンドを生成する技術もある。
さらに、例えば、米国特許第5757360号公報に示されているように、3次元位置センサを持ちこれにより3次元形状と位置姿勢を入力するものが知られている。また、例えば特開2003−187235号公報に示すように、赤外線による指の静脈パターンを撮像し、そのパターンによる個人認証装置が知られている。
特開2002−132432号公報 特開2001-34410号公報 米国特許第5757360号公報 特開2003−187235号公報
上記した具体的な例を含めて、従来技術では、形状を精細に把握しようとすると曲げセンサを多数埋め込むことが必要であり、その信号処理も膨大になるという点について対応することができない。また、カメラと被写体の間に遮蔽物が存在すると認識が困難になるという問題があった。
加えて、従来技術では、指紋を検知するための手段であり、手指などの位置姿勢の推定入力や、力の入力を行うことは出来なかった。
また、従来技術では、ヒューマンインタフェース装置の位置姿勢を検出するのみであり、そのときの手指などの接触分布や、力の分布からコマンド生成をすることには対応できなかった。
また、従来技術では、ヒューマンインタフェース装置の位置姿勢をとるだけであり、そのときの手指などの接触分布や、力の分布を計測することには対応できなかった。
さらに、従来技術では、固定的な挿入部に指を挿入して認証のみを行うものであり、自然な姿勢で個人認証とインタフェースの操作を両立することはできない。
本発明はこのような課題に着目してなされたものであり、その第1の目的とするところは、少ないセンサにより、遮蔽物による遮蔽なく画像の変動を認識することが可能なヒューマンインタフェース装置を提供することにある。
また、本発明の第2の目的は、認証と、インタフェースを同一のデバイスで行うことが可能なヒューマンインタフェース装置を提供することにある。
上記の目的を達成するために、本発明の第1の態様に係るヒューマンインタフェース装置は、外面が拡散面であり内面が透過面である外殻と、当該外殻の内側に設置され、撮像光学系を介して前記外殻の近傍を撮像する撮像装置と、前記撮像装置で撮像した画像の変動を認識する変動認識装置と、対象物である手指が前記外殻の拡散面である外面に接触することにより発生するコントラストの変化を検出することによって接触面を検知する接触面検知装置と、手指にかかる力により接触面積が増大することに基づき、前記画像の変動に対応して取得された接触面の分布から外殻に加えられた力を推定する力推定装置と、を具備する。
また、本発明の第2の態様に係るヒューマンインタフェース装置は、第1の態様に係るヒューマンインタフェース装置において、前記撮像光学系は魚眼レンズで構成される。
また、本発明の第3の態様に係るヒューマンインタフェース装置は、第1の態様に係るヒューマンインタフェース装置において、前記撮像光学系は、双曲面、放物面、円錐面のいずれかの反射面をもつ反射ミラーと、結像レンズとから構成される
また、本発明の第4の態様に係るヒューマンインタフェース装置は、第1の態様に係るヒューマンインタフェース装置において、接触面のパターンならびに撮影画像から手指の接触形状を推定する手指位置姿勢推定装置を持つ
また、本発明の第5の態様に係るヒューマンインタフェース装置は、第1から第4のいずれかの態様に係るヒューマンインタフェース装置において、前記外殻は赤外線を透過する可視光カットフィルタからなり、照明装置の照明光が赤外光である
また、本発明の第6の態様に係るヒューマンインタフェース装置は、第1から第5のいずれかの態様に係るヒューマンインタフェース装置において、変形もしくは力分布の少なくとも一方からコマンドを生成する
また、本発明の第7の態様に係るヒューマンインタフェース装置は、第1から第5のいずれかの態様に係るヒューマンインタフェース装置において、変形もしくは力分布の少なくとも一方からコマンドを登録もしくは学習する
また、本発明の第8の態様に係るヒューマンインタフェース装置は、第1から第7のいずれかの態様に係るヒューマンインタフェース装置において、さらに3次元位置姿勢を検出する位置姿勢検出装置を持つ。
また、本発明の第9の態様に係るヒューマンインタフェース装置は、本発明の第5の態様に係るヒューマンインタフェース装置において、手のひらや手指の静脈パターンを検出する静脈パターン検出部と、検出された静脈パターンを正規化する静脈パターン補正部と、補正された静脈パターンとあらかじめ登録された静脈パターンとを照合する静脈パターン照合部とを具備する。
本発明によれば、少ないセンサにより、遮蔽物による遮蔽なく画像の変動を認識可能なヒューマンインタフェース装置が提供される。
また、本発明によれば、認証と、インタフェースを同一のデバイスで行うことが可能なヒューマンインタフェース装置が提供される。
(第1実施の形態)
まず、本発明のヒューマンインタフェース装置の基本的な概念を図1を参照して説明する。本発明のヒューマンインタフェース装置は、外殻2と、当該外殻2の内側に設置され、撮像光学系4を介して外殻2の近傍を撮像する撮像装置5と、撮像装置5で撮像した画像の変動を認識する変動認識装置38とを具備する。
このような構成の作用は以下のとおりである。外殻2からの像光は撮像光学系4を経て撮像素子5で撮像されて画像信号に変換され、変動認識装置38に入力される。変動認識装置38は、入力された画像信号から、撮像した被写体像やパターン像等の変形や移動、変倍、コントラストの変化等を認識する。変動認識装置38としては、後述する第1実施形態等における、パターン像の変化を計測する変形認識装置8、後述する第2実施形態における、外殻2に密着した手指等の接触を画像として検知する接触面検知装置20等が含まれる。
上記した構成によれば、少ないセンサにより、遮蔽物による遮蔽なく画像の変動を認識可能なヒューマンインタフェース装置を提供することが可能になる。
図2は、本発明のヒューマンインタフェース装置1の第1実施の形態を示す図である。本実施の形態のヒューマンインタフェース装置1は、弾性素材で構成された、略卵状の形状を持ち、外殻外面2−2と外殻パターン3が描画された外殻内面2−1とをもつ外殻(図では断面形状が示されている)2と、外殻内面2−1の外殻パターン3を照明する照明装置7と、外殻パターン3の像を撮像可能に導く撮像光学系4(4a、4b)と、外殻パターン3の像を撮像する撮像装置5(5a、5b)と、該撮像装置5(5a、5b)を実装するための基板6と、支持部材14とから構成される。外殻内面2−1に描画された外殻パターン3は、格子、ドット等の既知の大きさと間隔を持っており、印刷やエングレーブ等により形成される。
撮像光学系4aは、本実施の形態ではほぼ180度の画角をもつ魚眼レンズから構成され、これによって上方の撮像装置5aはほぼ全天周の撮像が可能となっている。一方、下方の撮像装置5bに関しては、凸の双曲面形状を持つ撮像光学系(ここでは反射ミラー)4bと結像光学系4cからなるいわゆるオムニ光学系を配置する。撮像装置5bはこのような凸方向に対向する結像光学系を持つことで全周囲のパノラミックな撮像を行うことが出来る。
上記した各素子は基板6上に実装されており、透明のアクリル等で作られた円筒状の支持部材14により外殻2に支持される。これにより、撮像光学系4(4a、4b)等は、当該撮像光学系4(4a、4b)の視野が、外殻2の内面をほぼ全面にわたり撮像できるように支持されることとなる。なお、外殻2が半透明の場合は、外光を利用して撮像することが出来るが、光を透過しない場合や、暗闇や手指による遮蔽を考慮すると図2に示すように照明装置7をもつことが望ましい。照明装置7は白色LED等を用いる。
図3は、図2に示すヒューマンインタフェース装置1において、外殻パターン3の図示を省略して撮像範囲を図示した図である。図3において、破線と矢印で示した範囲が撮像範囲100である。
図4は、本実施の形態のヒューマンインタフェース装置1のブロック図である。撮像装置5は、外殻パターン3の変形を計測するパターン変形認識装置8に接続されるとともに、取得した変形量から外殻2に加えられた力を推定する力推定装置9に接続される。力推定装置9からの推定値は通信装置10を介してホストコンピュータ11に送られる。
また、外殻パターン3の変形量と、外殻2にかかる力の推定値との関係は、キャリブレーション装置12により算出され、その算出値はキャリブレーション値メモリ13に蓄積される。
本実施の形態では対象物15として手指を計測対象とする。手指位置姿勢推定装置16は手指の位置姿勢を推定するものであり、力推定装置9からの情報を受け取って手指位置姿勢データを算出し、通信装置10を介してホストコンピュータ11に送信する。
次に、上記した構成の作用を説明する。まず、キャリブレーション装置12によるキャリブレーションについて説明する。既知の間隔で設けられた外殻パターン3は撮像素子5で撮影される際に、力がかかっていない状態でも歪んで撮影される。この初期歪み画像と、外殻パターン3の幾何情報、外殻2の概略形状から、初期の撮像光学系4、撮像装置5と外殻2間の位置姿勢関係を算出する。
次に、一定間隔で対象物15を押し付けることで外殻2に規定の外力を加え、それにより生じた外殻パターン3の歪みを撮像装置5で撮影する。このときの歪み画像における、パターン間隔の増減や、格子線の曲がり量、オプティカルフローなどから歪み量を算出する。この歪み量をもとに、外殻2の局所領域の法線方向の変形量が算出され、外力と変形量の関係がキャリブレーションされる。また、これらの関係は撮像光学系4、撮像装置5と歪み量との関係を用いても良い。キャリブレーションを行った結果はキャリブレーション値メモリ13に記憶される。
次に、ヒューマンインタフェース装置1の実際上の応用について説明する。図5は、操作者が外殻2を対象物15としての手指を用いて握ったときの様子を示している。手指が外殻2と接触する部分400は図6に示すように分布するが、この接触部分400のパターンは手指の外力を受けて変形する。
パターン変形認識装置8の測定時には、一定加重を各測定点にかけてキャリブレーションした変形量と外力の相関関係に代入することで外殻2が外力の影響でどの程度の加重を受けたかが算出される。これを、外殻2上のマップとして出力することで、手指により握られることで生じた圧力分布を出力し、それを通信装置10を介してホストコンピュータ11に出力する。
なお、外殻パターン3の変形量を算出する際に、撮像光学系4(4a)としての魚眼レンズがfθレンズすなわち等距離射影による撮像を実施すると、外殻2は略球殻状の被写体のため、通常のディストーションが補正された超広角レンズによる撮影に比べて、均一に外殻パターン3が結像される。これによって、測定時における変形量のばらつきを小さくすることが出来、ひいては力測定のばらつきを減少させることができる。
なお、この発明の実施の形態の各構成は、当然、各種の変形、変更が可能である。例えば、本実施の形態では略卵状のヒューマンインタフェース装置1の上部では魚眼レンズ4aを撮影に用い、側面から下部にかけては、反射ミラー4bにより撮影したが、図7に示すように、双方を魚眼レンズにより構成して撮影を行うことも可能である。また、通信装置10によりホストコンピュータ11と通信する構成となっているが、ホストコンピュータ11を内蔵することも可能であり、この場合は通信装置10はなくても良い。
また、画像信号をホストコンピュータ11に直接送信するにあたって、キャリブレーション装置12やパターン変形認識装置8、力推定装置9などの装置はホストコンピュータ11内に設けるようにしても良い。なお、通信装置10としては、bluetoothやIEEE802.11無線LANなどの無線通信や、電源供給を兼ねることができるIEEE1394、USB等の有線通信を用いることができる。
また、当然各種装置を駆動するための電源はヒューマンインタフェース装置1にリチウムイオン充電池などの二次電池を内蔵しても良く、太陽電池や振り子式の発電装置の内蔵、電磁誘導式の充電コイルを設けたりして電磁誘導で電源を充電するようにしても良い。
また、キャリブレーションにより求めた変形量は材料力学、FEMによる変形シミュレーションから求めた荷重と変形量のテーブル引きとしても良い。
さらに図8に示すように、外殻2よりも硬い構造をもち、かつ透過素材からなり、一定の間隔を持たせて設置される内殻17を外殻2の内部に設置してもよい。内殻17は外殻2の変形量を規制する役目を持ち、照明装置7や撮像装置5などを外殻2の過度の変形から保護することが可能となる。
素材としては、例えば、外殻2はシリコンゴム、塩化ビニールなど比較的柔軟な樹脂などを用い、内殻17はアクリルやABS樹脂、スチロール樹脂など比較的硬い樹脂などを用いることが出来る。
また、本実施の形態では、外殻2の変形は外殻2に設けられた外殻パターン3を用いて計測したが、スリットや、縞投影と撮像による三角測距や、ランダムドットパターン投影とステレオ計測による三次元計測などを用いて、外殻2の変形を計測し、圧力分布や手指の位置姿勢の推定を行うように構成しても良い。
さらには、撮像光学系4と撮像装置5により得られる画像の被写界深度が外殻2の外殻パターン3近傍の薄い範囲に存在するときには、変形によるパターンのアウトフォーカスによるボケを計測することで変形量を推定しても良い。
(第2実施の形態)
次に、本発明のヒューマンインタフェース装置の第2実施の形態を図9を参照して説明する。本実施の形態のヒューマンインタフェース装置1は、拡散面18を外殻外面2−2にもち、透過面19を外殻内面2−1にもち、光線を透過する外殻2と、この外殻2を照明する照明装置7と、外殻外面2−2の近傍の像を撮像可能に導く撮像光学系4と、撮像を行う撮像装置5と、外殻2に密着した手指等の接触を画像として検知する接触面検知装置(後述)と、接触面の増減から外殻2に加えられた力を推定する力推定装置(後述)とを具備する。第2実施の形態の基本的な構成は第1実施の形態と共通であるが、撮像対象と力の推定手法が異なる。
図10は、本実施の形態のヒューマンインタフェース装置1のブロック図である。第1実施の形態である図4のブロック図と異なる部分は、外殻2は拡散面18と透過面19とを有し、パターン変形認識装置8の代わりに接触面検知装置20を有することである。
次に、上記した構成の作用を説明する。本実施の形態の外殻2の外殻外面2−2は拡散面18、いわゆるすりガラス状に表面に細かな凹凸を持つ構造になっている。これにより、表面に接触するまで、対象物15の像はコントラストが低くボケた状態となる。対象物15により接触するとコントラストが向上して微細な構造まで見えるようになる。特に、対象物15が手指であった場合、指紋やしわなどの画像成分が顕著に撮影されることになる。
このコントラストの変化を撮像光学系4を介して撮像装置5で撮影した画像から検出することで、接触面401を接触面検知装置20により検知する。
図11は、手指の接触面401の分布を示している。手指位置姿勢推定装置16はこの分布を画像として取得し手指の位置姿勢を推定する。手指にかかる力により、接触面積は増大していく。手指の表面の皮膚も弾性を持っているのでこの変化から、外殻2にかかる荷重を推定することが出来る。
なお、この発明の実施の形態の各構成は、各種の変形、変更が可能であることは勿論である。例えば、本実施の形態では接触を検知していないときに常にコントラストを有する部分については、拡散面18が破損して透過状態になっていると判別し、その領域を手指位置姿勢の推定や、力推定の処理からはずすようにしても良い。
図12は、本実施の形態の構成の変形例を示す図である。外殻2には拡散面18を持たせたが、同図に示すように、撮像光学系4と撮像装置5の被写界深度500が十分に浅く、外殻2の外殻外面2−2の表面近傍からより近い領域に焦点が合うように構成されている場合は、拡散面18がなくとも上記の接触面積の検知が可能である。この場合は、表面の拡散面18の破損を考慮する必要がなくなる。
また、手指に圧力がかかると毛細血管の血流が変化することで接触面の色が変化することも知られている。この色変化をする領域を接触面とすることで、力の増減の推定を実施するようにしても良い。
また、外殻2の外殻外面2−2に、液晶温度計に用いられる液晶感熱層や感圧層(図示しない)などを設け、手指の接触によって起こる温度変化による変色や、圧力印加による変色を撮像装置5で計測することにより、手指の接触、圧力の推定を実施するようにしても良い。
また、第1実施の形態に加えて接触面の遷移状態を計測することで、コマンドを発するように構成しても良い。
(第3実施の形態)
次に、本発明のヒューマンインタフェース装置の第3実施の形態を図13を参照して説明する。本実施の形態では第2実施の形態に加えて、手指の静脈パターンを撮像することができるようにしたことを特徴とする。そのため、ここでは、第2実施の形態の構成に加えて、外殻2に可視光カットかつ赤外透過フィルタ21を設けるとともに、照明装置7を赤外照明装置22に変更している。また、静脈パターン照合装置23が新たに追加され、手指位置姿勢推定装置16と、接触面検知装置20とに接続される。
図14は、静脈パターン照合装置23の構成を示す図であり、静脈認識装置26と、静脈パターン記憶部601と、接触面画像入力部602と、手指位置姿勢推定値入力部603と、静脈パターン位置姿勢補正部604と、静脈パターン照合部605と、照合結果出力部606とを備える。
上記した構成の作用を説明する。対象物15が外殻2に触れると、第2実施の形態と同様に接触面が検知される。本実施の形態では、赤外画像であるが、手指位置姿勢推定装置16や接触面検知装置20の作用は第2実施の形態に基本的に同じなのでここでの詳細な説明は省略する。ここでは赤外画像で撮影することにより、手指内の静脈パターン600も同時に撮影される。手指位置姿勢推定装置16により、手指の位置姿勢が推定される。接触面画像入力部602からは撮影された接触面の手指の画像が入力される。また、手指位置姿勢推定値入力部603からは手指の位置姿勢の推定値が入力される。
静脈パターン位置姿勢補正部604は、手指の位置姿勢、形状により変形して捉えられている画像を補正することで静脈パターン600を正規化して、登録されている静脈パターンに一致する画像に補正して出力する。静脈認識装置26は、接触面401のどの部分の画像が手指のどの位置に相当するかを推定する。静脈パターン照合部605は、静脈パターン記憶部601から読み出した各接触部位に一致する静脈パターンと、静脈認識装置26からの静脈パターン600とを照合する。照合結果は照合結果出力部606から出力される。
上記した実施形態によればさらに次のような特有の効果がある。すなわち、任意の握り方でも静脈の認識が可能であり、自然な形での個人認証を行うとともに、ヒューマンインタフェース装置としての機能も簡便な構成で実現することが出来る。
なお、この発明の実施の形態の各構成は、当然、各種の変形、変更が可能である。静脈認識が必要ないときには静脈パターン照合装置23を省き、第2実施の形態の外殻2と、照明装置7を変更した構成にすると、内部構造を可視光では観察できなくなり、外観意匠を変更することが可能となる。
(第4実施の形態)
次に本発明のヒューマンインタフェース装置の第4実施の形態を図15,図16を参照して説明する。ここでは第1、第2もしくは第3実施の形態に加えて、3次元の位置姿勢を計測することを特徴とする。本実施の形態のヒューマンインタフェース装置は、第2実施の形態の変形例と同様に、拡散面を持たずに被写界深度により接触面を検知する手法を用いる。さらに、第3実施の形態で用いた赤外光を発光する赤外線照明装置22を外部から監視する単一もしくは複数のステレオカメラ24を有する。幾何的に既知の赤外線照明装置22の発光点配列と、その発光パターンとは照明パターン制御装置25により制御される。
ステレオカメラ24には個別点のID認識装置37が接続され、3次元位置姿勢計測装置27はID認識装置37でのID認識結果に基づいてヒューマンインタフェース装置1の位置や姿勢などを算出する。算出結果はホストコンピュータ11に入力される。これにより、手指によるオクルージョンが生じた場合でも、少なくとも3点の赤外線照明装置22がステレオカメラ24で捉えられれば、ヒューマンインタフェース装置1の3次元位置姿勢を計測することが出来る。
なお、この発明の実施の形態の各構成は当然各種の変形、変更が可能である。第2実施の形態で被写界深度を利用し透明な外殻2を用いた場合には可視光で作用を行わせて同様の効果を得ることができる。
図17は、本実施の形態の変形例を示す図である。ここではヒューマンインタフェース装置1の内部に、ジャイロセンサ28、加速度センサ29等からなる3次元位置姿勢計測装置27をヒューマンインタフェース装置1に内蔵して設けることで3次元位置姿勢を算出することを特徴とする。この場合、ジャイロセンサ28や加速度センサ29は、撮像光学系4の死角に位置するように設置することが望ましい。これは、他の構成要件に関しても撮像光学系4の視野を遮らない部位に設置することが好ましいことは言うまでもない。
位置姿勢を計測するセンサとして、水準器(図示しない)をカメラの可視範囲に設置し、その気泡位置を撮影することでヒューマンインタフェース装置1の重力方向に対する姿勢を計測するようにしても良い。一例として水準器の設置位置として、反射鏡の光軸(撮像装置5自体が反射し撮像される領域)に開口を設けその部位に水準器を設置すると視野の有効利用を図ることが出来る。内殻と外殻の間に、ビーズや鉄球、色つきの液体を少量入れることで、重力方向にこれらが移動することを撮像装置5で観察し、これから姿勢を検知するように構成しても良い。
また、発光パターンをIrDA等の赤外線通信プロトコルとし、ヒューマンインタフェース1の圧力分布値や手指姿勢の計測値の伝送に用いても良い。赤外線リモコンのコマンドに準拠させることにより、触覚センシングを元にしたコマンドにより家電機器等の制御を行うように構成しても良い。
さらに、第1実施の形態の場合には外殻2の外面に生理量計測のための、例えば体脂肪計測用の電極や、筋電センサ、温度センサ等を設けても良く、第2、第3実施の形態の場合には、画像の一部の血管に相当する部分を切り出し、トラッキングして位置補正をすることで、その部分の脈動を推定するように構成するなどして各種生理量を同時に取得するように構成してももちろん良い。
(第5実施の形態)
次に本発明のヒューマンインタフェース装置の第5実施の形態を図18を用いて説明する。本実施の形態では、コマンドの生成と記録を行うためにコマンド生成装置30を備えている。この構成は上記した第1、第2、第3、第4実施の形態に共通して適用可能である。コマンド生成装置30は、力推定装置9と通信装置10との間に配置され、3次元位置姿勢計測装置27と手指位置姿勢推定装置16とに接続されている。
図19は、コマンド生成装置30の構成を示しており、手指姿勢入力部31と、圧力分布入力部32と、3次元位置姿勢入力部33と、コマンド認識部34と、コマンド記憶部35と、コマンド出力部36とを具備する。
次に、上記した構成の作用を説明する。手指姿勢入力部31から入力された手指姿勢データ701、圧力分布入力部32から入力された圧力分布データ702、3次元位置姿勢入力部33から入力された3次元位置姿勢データ703は、コマンド認識部34に入力される。コマンド認識部34は、入力されたデータ701,702,703を、コマンド記憶部35にあらかじめ設定されているコマンドと比較して、全体の圧力総和からスレッショルドを算出し、それをもとに、各指の圧力分布の変化を用いてコマンドを生成する。
ここでは一例として、コンピュータに広く使われているマウスのコマンドを生成する場合を考える。手指位置姿勢データから人差し指の圧力値を認識し、この圧力値が、スレッショルド以下のときは通常の把持、圧力値がスレッショルドを超えると例えばマウスの左クリックに相当するコマンドであると認識され、コマンドを出力する。
また、同様に中指には例えば、マウスの右クリックに相当するコマンドを割り当てる。全体に強く握った場合は、マウスのポインタ移動量を大きくし、軽く握られている場合は小さい移動量とする。また、親指と人差し指の圧力値により、対象物をつまみ、放す、いわゆるドラッグと、ドロップのコマンドを割り当てることにより、自然な感覚でこれらの操作を実施できる。
別の例としては、例えば、緊張度の測定に本ヒューマンインタフェース装置1を用いる。リラックスしている状態においては、人間の把持力は一般に弱い状態であり、対象物を取り落とさない程度に軽く握る動作となる。しかしながら、緊張度がましたり、何かに依存していたいという状況では、歯を食いしばり、こぶしを強く握るなどという動作を行う。本ヒューマンインタフェース装置1の圧力分布データ702から圧力値を計測することにより、このような緊張度の測定を行いそれを緊張度のコマンドデータ704として得ることが出来る。
また、手指姿勢データと、圧力分布データから、そっと掴むように本ヒューマンインタフェース装置1をつまむような動作をしたときは、本ヒューマンインタフェース装置1への信頼度が低く、手の平全体で覆うように把持されているときは信頼度が高いといったモデルに当てはめることで、ヒューマンインタフェース装置1への信頼度の大小に応じたコマンドデータ704として生成しても良い。またそのときの圧力分布データで、力の値が小さい場合は例えば、ヒューマンインタフェース装置1を弱者として扱い、保護の意思があるというコマンドデータ704を出力し、力の値が大きい場合は、ヒューマンインタフェース装置1を依存の対象としてみているといったコマンドデータ704を出力するようにしても良い。
また、本インタフェースの圧力分布データと3次元位置姿勢データから、運動の緊張度の測定を行うことが出来る。例えば、本ヒューマンインタフェース装置1を持ち、エアロビクスダンスを行うような場合、緊張度が小さく滑らかな動きの際には、3次元位置姿勢の変化は、緩やかで微小な位置変動が少なく、且つ圧力分布データ702などからもリラックスした状態として認識でき、リラックスした運動をしているといった、コマンドデータ704を出力する。一方、圧力分布データ702が高い値を示し、位置姿勢の変化が急峻であったり、不安定にがたついたような変動を繰り返す場合には、力が入り、例えば無理な力が入り怪我の原因になるような危険な運動を実施しているという警告を示すコマンドデータ704を出力する。この場合、例えば、両手に2つのヒューマンインタフェース装置1を持たせるようにしても良い。
なお、この発明の実施の形態の各構成は当然各種の変形、変更が可能である。例えば、マンド生成のためのコマンド生成装置30はヒューマンインタフェース装置1内に本実施の形態のように内蔵しても良いし、ホストコンピュータ11内のプログラムとして実現しても良い。
以上の実施の形態は、手指の位置や圧力の検知にいくつかの方法を用いた場合を説明したが、内殻と外殻の間に、導電性ゴムを用いた圧力センサ、例えばFSRセンサ(インターリンク・エレクトロニクス社製)等をマトリックス状に配置することで圧力分布を検出するように構成しても良い。また、一部、外殻が変形しにくい略卵形状の頂点や底面の圧力検知に一部この圧力センサを配置しその値を補助的に用いるようにしても良い。この場合は、圧力センサの出力が、手指位置姿勢の認識と、圧力分布の値として用いられることとなる。
ここまでは、入力装置として本ヒューマンインタフェース装置1を用いて説明してきたが、例えば偏心モータによる振動子を内蔵することで、コマンドデータの出力に応じたフィードバックや、ホストコンピュータ11からの出力情報を呈示してもよい。例えば、外殻に空気弁とコンプレッサ(図示しない)を設けることで、空気圧による硬さの変化を持たせるようにして、硬さ出力のための装置として用いるようにしても良い。この場合は、変形量と、手指による圧力の関係が変化するのでキャリブレーションデータに対して空気圧に応じた補正量を持たせるようにしても良い。
また、静脈による個人認証結果を用いて、圧力のスレッショルド値のキャリブレーションを実施しても良く、複数人に関する、コマンドデータ704の生成をカスタマイズするようにしても良い。ヒューマンインタフェース装置1の大きさは一定であるが、操作者の手指の大きさは個人差がある。この個人差を配慮し、コマンド生成の際の圧力分布の変化をコマンド記憶部35に記憶することで、カスタマイズするようにしても良い。
また、静脈などによる個人認証結果により、弁別されたコマンドの入力履歴を元に、認識の確度を向上するため、もしくは操作者の経時的なコマンド入力の変化(例えば子供の成長や、運動能力の変化)に適応的に学習するように構成してもかまわない。以上のような構成をとることでより高度な、操作者の情動まで推定可能なヒューマンインタフェース装置1を簡便に得ることが出来る。
(付記)
1.外殻と、
当該外殻の内側に設置され、撮像光学系を介して前記外殻の近傍を撮像する撮像装置と、
前記撮像装置で撮像した画像の変動を認識する変動認識装置と、
を具備することを特徴とするヒューマンインタフェース装置。
(対応する発明の実施の形態)
この発明に関する実施の形態は、第1及び第2の実施の形態が対応する。撮像光学系は、この実施の形態では魚眼レンズもしくは双曲面ミラーが該当するが、2つの光学系を同種で構成しても良く、また、双曲面ではなく円錐面や放物面、自由曲面なども含む。
(作用)
外殻と、それに内蔵された撮像光学系を持つ撮像装置により撮像された画像の変動を変動認識装置により認識することにより被写体の変動を入力する。
(効果)
ヒューマンインタフェース内から撮像するため、ヒューマンインタフェースを例えば握る手、指、もしくは外殻の内面などを遮蔽物による遮蔽なく撮像することができ、手指の握り方によるジェスチャの入力などを有効に認識することが可能となる。また、曲げセンサなどの可動部を持たないために、故障しにくいという特性ももつ。
2.前記撮像光学系の被写界深度が外殻近傍に限られることを特徴とする1記載のヒューマンインタフェース装置。
(作用)
被写界深度を外殻近傍に設定する。
(効果)
必要とする外殻近傍の被写体以外のものを被写界深度外とすることができるため、被写体の変動の認識を外殻付近に絞り、より簡便に行うことができる。
3.前記外殻は弾性素材で構成され、その内面に所定のパターンが描画されていることを特徴とする1記載のヒューマンインタフェース装置。
(対応する発明の実施の形態)
この発明に関する実施の形態は、第1の実施の形態が対応する。
(作用)
外殻に設けられたパターンを撮像光学系を介して撮像装置で撮影し、その画像から変形認識装置により外殻の変形を算出する。
(効果)
複数個の撮像装置を用いることで、外殻ほぼ全面の接触状態を変形量から検知することが出来るヒューマンインタフェース装置が得られる。
4.前記撮像装置は前記パターンを撮像し、
前記変動認識装置は前記撮像装置で撮像した前記パターンの変形を計測する変形認識装置であることを特徴とする3に記載のヒューマンインタフェース装置。
(作用)
外殻内面に描画されたパターンを撮像装置で撮影する。
(効果)
既知のパターンのみを、遮蔽物の影響なく撮像することができるため、より良好に外殻の変形から生じたパターンの歪みを撮像することができ、外殻の変動を認識することができる。
5.前記ヒューマンインタフェース装置は、前記変形認識装置で計測された変形量から外殻に加えられた力を推定する力推定装置をさらに有することを特徴とする4記載のヒューマンインタフェース装置。
(対応する発明の実施の形態)
この発明に関する実施の形態は、第1の実施の形態が対応する。構成中の撮像光学系は、この実施の形態では魚眼レンズもしくは双曲面ミラーが該当するが、2つの光学系を同種で構成しても良く、また、双曲面ではなく円錐面や放物面、自由曲面なども含む。また、力というのは、圧力も含む。
(作用)
外殻に設けられたパターンを撮像光学系を介して撮像装置により撮影し、その画像から変形認識装置により外殻の変形を算出し、力推定装置により変形量から力分布を算出する。
(効果)
複数個の撮像装置を用いることで、外殻ほぼ全面の接触荷重や、その分布を検知することが出来るヒューマンインタフェース装置が得られる。
6.前記撮像光学系は、魚眼レンズで構成されることを特徴とする1〜5のいずれか1つに記載のヒューマンインタフェース装置。
(作用)
魚眼レンズにより外殻内面を撮影する。
(効果)
魚眼レンズによる撮影のため、光軸方向から全天周のパターンの歪み画像を得ることが出来るとともに、略球殻をほぼ等距離で撮影することになるので収差面、被写界深度面でも有利になる。
7.前記撮像光学系は、双曲面、放物面、円錐面のいずれかの反射面をもつ反射ミラーと、結像レンズとから構成されることを特徴とする1〜5のいずれか1つに記載のヒューマンインタフェース装置。
(作用)
双曲面全周ミラーにより、パノラミックな周囲画像として、外殻のパターンが撮影される。
(効果)
単純な光学構成により、広角な全周画像が得られるとともに、略球殻をほぼ等距離で撮影することになるので収差面、被写界深度面で有利になる。
8.前記外殻の変形から、手指の形状を推定する手指位置姿勢推定装置を有することを特徴とする請求項1〜7のいずれか1つに記載のヒューマンインタフェース装置。
(作用)
外殻の変形により歪んだパターンが撮像され、それにより力推定手段により推定された力分布から、手指の形状を推定する。
(効果)
どのような手指の姿勢でヒューマンインタフェース装置を握っているかを推定することが出来る。
9.前記外殻の内側に透過素材で作られ、前記外殻より硬い内殻を持つことを特徴とする1〜8のいずれか1つに記載のヒューマンインタフェース装置。
(作用)
外殻の過大な変形を内殻が受け止める。
(効果)
内殻により、撮像装置や照明装置などが保護される。また、内殻が透過素材であるため撮像を妨げることがない。
10.前記外殻は外面が拡散面であり、内面が透過面であることを特徴とする1記載のヒューマンインタフェース装置。
(対応する発明の実施の形態)
この発明に関する実施の形態は、第2の実施の形態が対応する。構成中の撮像光学系は、この実施の形態では魚眼レンズもしくは双曲面ミラーが該当するが、2つの光学系を同種で構成しても良く、また、双曲面ではなく円錐面や放物面、自由曲面なども含む。
(作用)
外面が拡散面で、内面が透過面の外殻に対して照明装置により照明をし、外壁面近傍を撮像光学系で撮影し、外壁面に接触した手指などの被写体を撮像装置で撮影し、接触面検知装置により密着した手指の領域を検知し、接触面の増減から力推定装置によって外殻に加えられた力を推定する。
(効果)
拡散面に押し付けられた、手指などの画像により、手指が外殻外面に接触した領域を検出することで手指の弾性を利用して力を推定するとともに、手形状画像も同時に撮像することが出来る。
11.前記ヒューマンインタフェース装置は、前記変動認識装置で認識された画像の変動から外殻に密着した手指等の接触を検知する接触面検知装置と、
前記画像の変動から外殻に加えられた力を推定する力推定装置とを持つことを特徴とする10記載のヒューマンインタフェース装置。
(作用)
外殻表面にすりガラスのような拡散面にし、その拡散面に密着した手指部位の画像の変動を接触面検知装置に入力して接触面を認識し、かつ、力推定装置によって外殻に加えられた力を推定する。
(効果)
拡散面により手指等の密着面を強調し、その部分を接触面検知装置により検知することで、手指の接触面の検出を容易にすることができる。
12.前記撮像光学系は魚眼レンズで構成されることを特徴とする10記載のヒューマンインタフェース装置。
(作用)
魚眼レンズにより外殻外面を撮影する。
(効果)
魚眼レンズによる撮影のため、光軸方向から全天周の歪み画像を得ることが出来るとともに、略球殻をほぼ等距離で撮影することになるので収差面、被写界深度面でも有利になる。
13.前記撮像光学系は、双曲面、放物面、円錐面のいずれかの反射面をもつ反射ミラーと、結像レンズとから構成されることを特徴とする10記載のヒューマンインタフェース装置。
(作用)
双曲面全周ミラーにより、パノラミックな周囲画像として、外殻の外面が撮影される。
(効果)
単純な光学構成により、広角な全周画像が得られるとともに、略球殻をほぼ等距離で撮影することになるので収差面、被写界深度面で有利になる。
14.接触面のパターンならびに撮影画像から手指の接触形状を推定する手指位置姿勢推定装置を持つことを特徴とする10〜13のいずれか1つに記載のヒューマンインタフェース装置。
(作用)
接触している部分と、撮像された手指画像から、手指の姿勢位置などを推定する。
(効果)
ヒューマンインタフェース装置の握り方を計測することが出来る。
15.前記外殻は赤外線を透過する可視光カットフィルタからなり、照明装置の照明光が赤外光であることを特徴とする10〜14のいずれか1つに記載のヒューマンインタフェース装置。
(対応する発明の実施の形態)
この発明に関する実施の形態は、第3実施の形態が対応する。
(作用)
外殻を照明する照明装置が赤外線を発光し、手指の接触面を照明するとともに、外殻の可視光カットフィルタにより可視光は透過しない。
(効果)
可視光で発光しているようには見えずに手指位置姿勢ならび圧力の測定が出来る。また、内部構造を遮蔽することが出来る。
16.変形もしくは力分布の少なくとも一方からコマンドを生成することを特徴とする1〜15のいずれか1つに記載のヒューマンインタフェース装置。
(対応する発明の実施の形態)
この発明に関する実施の形態は、第1、第2実施の形態が対応する。
(作用)
変形、力分布からコマンドを生成する。
(効果)
ヒューマンインタフェース装置の握り方、力のかけ方によりコマンドを生成することにより、感性に応じたもしくは非言語の入力を実施することが出来る。
17.変形もしくは力分布の少なくとも一方からコマンドを登録もしくは学習することを特徴とする1〜15のいずれか1つに記載のヒューマンインタフェース装置。
(対応する発明の実施の形態)
この発明に関する実施の形態は、第1、第2実施の形態が対応する。
(作用)
変形、力分布からコマンドを登録、学習する。
(効果)
ヒューマンインタフェース装置の握り方、力のかけ方によりコマンドを登録、もしくは学習することにより、個人個人に応じた感性に応じたもしくは非言語の入力を実施することが出来る。
18.さらに3次元位置姿勢を検出する位置姿勢検出装置を持つことを特徴とする1〜17のいずれか1つに記載のヒューマンインタフェース装置。
(対応する発明の実施の形態)
この発明に関する実施の形態は、第4、第5実施の形態が対応する。
(作用)
圧力分布、手指の位置姿勢に加え、ヒューマンインタフェース自体の位置姿勢を入力する。
(効果)
圧力分布、手指の位置姿勢と同時に、位置姿勢の変化を入力することが出来る。
19.手のひらや手指の静脈パターンを検出する静脈パターン検出部と、検出された静脈パターンを正規化する静脈パターン補正部と、補正された静脈パターンとあらかじめ登録された静脈パターンとを照合する静脈パターン照合部とを具備することを特徴とする15に記載のヒューマンインタフェース装置。
(対応する発明の実施の形態)
この発明に関する実施の形態は、第3、第5実施の形態が対応する。
(作用)
赤外撮影による静脈パターン撮影を撮像光学系を通して撮像装置で取得し、静脈パターン検出部で静脈パターンを検出するとともに、手指姿勢の推定結果から、歪んだ静脈パターンデータを補正する静脈パターン補正部により正規化された静脈パターンを得て、これをあらかじめ登録された静脈パターンと静脈パターン照合部で照合する。
(効果)
照合を行うことにより、キャリブレーションデータや、その操作者の癖等を把握した計測を実施することが出来るようになり、各人に適したヒューマンインタフェース装置を提供できるようになる。
20.外殻と、当該外殻の内側に設置され、撮像光学系を介して前記外殻の近傍を撮像する撮像装置と、前記撮像装置で撮像した画像の変動を認識する変動認識装置と、を備えたヒューマンインタフェース装置。
この構成の(対応する発明の実施の形態)、(作用)、(効果)は1と同様である。
本発明のヒューマンインタフェース装置の基本的な概念を説明するための図である。 本発明のヒューマンインタフェース装置の第1実施の形態を説明するための構成図である。 図2に示すヒューマンインタフェース装置において、パターンの図示を省略して撮像範囲を図示した図である。 第1実施の形態のヒューマンインタフェース装置のブロック図である。 操作者が外殻を対象物としての手指を用いて握ったときの様子を示す図である。 手指が外殻2と接触する部分の分布を示す図である。 双方を魚眼撮影とした実施形態を示す図である。 外殻2の内部に内殻17を設置した例を示す図である。 本発明のヒューマンインタフェース装置の第2実施の形態を説明するための構成図である。 本実施の形態のヒューマンインタフェース装置1のブロック図である。 手指の接触面401の分布を示す図である。 本実施の形態の構成の変形例を示す図である。 本発明のヒューマンインタフェース装置の第3実施の形態を説明するための構成図である。 静脈パターン照合装置23の構成を示す図である。 本発明のヒューマンインタフェース装置の第4実施の形態を説明するための構成図である。 本発明のヒューマンインタフェース装置の第4実施の形態を説明するためのブロック図である。 本実施の形態の変形例を示す図である。 本発明のヒューマンインタフェース装置の第5実施の形態を説明するための図である。 コマンド生成装置30の構成を示す図である。
符号の説明
1…ヒューマンインタフェース装置、2…外殻、2−1…外殻内面、2−2…外殻外面、3…パターン、4(4a)、4(4b)…撮像光学系、5(5a)、5(5b)…撮像装置、6…基板、7…照明装置、14…支持部材。

Claims (9)

  1. 外面が拡散面であり内面が透過面である外殻と、
    当該外殻の内側に設置され、撮像光学系を介して前記外殻の近傍を撮像する撮像装置と、
    前記撮像装置で撮像した画像の変動を認識する変動認識装置と、
    対象物である手指が前記外殻の拡散面である外面に接触することにより発生するコントラストの変化を検出することによって接触面を検知する接触面検知装置と、
    手指にかかる力により接触面積が増大することに基づき、前記画像の変動に対応して取得された接触面の分布から外殻に加えられた力を推定する力推定装置と、
    を具備することを特徴とするヒューマンインタフェース装置。
  2. 前記撮像光学系は魚眼レンズで構成されることを特徴とする請求項記載のヒューマンインタフェース装置。
  3. 前記撮像光学系は、双曲面、放物面、円錐面のいずれかの反射面をもつ反射ミラーと、結像レンズとから構成されることを特徴とする請求項記載のヒューマンインタフェース装置。
  4. 接触面のパターンならびに撮影画像から手指の接触形状を推定する手指位置姿勢推定装置を持つことを特徴とする請求項1〜3のいずれか1つに記載のヒューマンインタフェース装置。
  5. 前記外殻は赤外線を透過する可視光カットフィルタからなり、照明装置の照明光が赤外光であることを特徴とする請求項1〜4のいずれか1つに記載のヒューマンインタフェース装置。
  6. 変形もしくは力分布の少なくとも一方からコマンドを生成することを特徴とする請求項1〜5のいずれか1つに記載のヒューマンインタフェース装置。
  7. 変形もしくは力分布の少なくとも一方からコマンドを登録もしくは学習することを特徴とする請求項1〜5のいずれか1つに記載のヒューマンインタフェース装置。
  8. さらに3次元位置姿勢を検出する位置姿勢検出装置を持つことを特徴とする請求項1〜7のいずれか1つに記載のヒューマンインタフェース装置。
  9. 手のひらや手指の静脈パターンを検出する静脈パターン検出部と、検出された静脈パターンを正規化する静脈パターン補正部と、補正された静脈パターンとあらかじめ登録された静脈パターンとを照合する静脈パターン照合部とを具備することを特徴とする請求項に記載のヒューマンインタフェース装置。
JP2003403626A 2003-12-02 2003-12-02 ヒューマンインタフェース装置 Expired - Fee Related JP4169688B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2003403626A JP4169688B2 (ja) 2003-12-02 2003-12-02 ヒューマンインタフェース装置
EP04819776A EP1698962A2 (en) 2003-12-02 2004-11-25 Human interface device and human interface system
PCT/JP2004/017457 WO2005055029A1 (ja) 2003-12-02 2004-11-25 ヒューマンインタフェース装置及びヒューマンインタフェースシステム
US11/445,439 US20060268109A1 (en) 2003-12-02 2006-06-01 Human interface equipment and human interface system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003403626A JP4169688B2 (ja) 2003-12-02 2003-12-02 ヒューマンインタフェース装置

Publications (2)

Publication Number Publication Date
JP2005165670A JP2005165670A (ja) 2005-06-23
JP4169688B2 true JP4169688B2 (ja) 2008-10-22

Family

ID=34650076

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003403626A Expired - Fee Related JP4169688B2 (ja) 2003-12-02 2003-12-02 ヒューマンインタフェース装置

Country Status (4)

Country Link
US (1) US20060268109A1 (ja)
EP (1) EP1698962A2 (ja)
JP (1) JP4169688B2 (ja)
WO (1) WO2005055029A1 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4635788B2 (ja) * 2005-09-06 2011-02-23 株式会社日立製作所 弾力性素材を用いた入力装置
WO2008010581A1 (fr) * 2006-07-21 2008-01-24 Brother Kogyo Kabushiki Kaisha Dispositif opérationnel et système opérationnel
JP4736052B2 (ja) * 2006-07-21 2011-07-27 ブラザー工業株式会社 操作信号出力装置及び操作システム
JP4899806B2 (ja) * 2006-11-08 2012-03-21 トヨタ自動車株式会社 情報入力装置
US20080232790A1 (en) * 2007-03-23 2008-09-25 David Lai Camera monitor
JP4877015B2 (ja) * 2007-03-30 2012-02-15 沖電気工業株式会社 静脈認証装置
JP4916994B2 (ja) * 2007-10-02 2012-04-18 アルプス電気株式会社 中空型スイッチ装置及びこれを備えた電子機器
JP5130885B2 (ja) 2007-12-03 2013-01-30 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2009267643A (ja) * 2008-04-23 2009-11-12 Smk Corp リモートコントロール送信機
JP5252579B2 (ja) * 2009-03-02 2013-07-31 Kddi株式会社 情報端末装置
JP5455514B2 (ja) * 2009-09-09 2014-03-26 キヤノン株式会社 電子機器及びその制御方法
JP5448752B2 (ja) * 2009-11-27 2014-03-19 東海ゴム工業株式会社 入力インターフェイス装置
JP5854685B2 (ja) * 2011-07-29 2016-02-09 キヤノン株式会社 眼科装置
US8380995B1 (en) * 2011-11-29 2013-02-19 Google Inc. Process for login of a computing device with a touchscreen
JP2015089383A (ja) * 2013-11-05 2015-05-11 セイコーエプソン株式会社 超音波プローブおよび超音波計測装置
JP5921047B2 (ja) * 2014-06-23 2016-05-24 レノボ・イノベーションズ・リミテッド(香港) ユーザーインターフェース装置
EP3176681A4 (en) * 2014-07-30 2018-04-18 Sony Corporation Information processing device, information processing method and program
US9684227B1 (en) * 2015-04-20 2017-06-20 Hoyos Vsn Corp. Protective container for a 360 degree camera and method of forming same
US20180299972A1 (en) * 2016-03-29 2018-10-18 Saito Inventive Corp. Input device and image display system
JP6723631B2 (ja) * 2016-09-16 2020-07-15 アルプスアルパイン株式会社 操作装置
KR102019793B1 (ko) * 2017-10-12 2019-09-20 한국생산기술연구원 신축성 소재를 이용한 3차원 동작 입력 장치 및 이를 이용한 3차원 동작 입력 방법
KR102019795B1 (ko) * 2017-10-12 2019-09-20 한국생산기술연구원 구 형상의 3차원 동작 입력 장치 및 이를 이용한 3차원 동작 입력 방법
JP7093075B2 (ja) * 2018-04-09 2022-06-29 東芝エネルギーシステムズ株式会社 医用画像処理装置、医用画像処理方法、およびプログラム
JP7110314B2 (ja) * 2020-12-18 2022-08-01 ヤフー株式会社 情報処理装置、情報処理方法、及び情報処理プログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4641350A (en) * 1984-05-17 1987-02-03 Bunn Robert F Fingerprint identification system
US5483261A (en) * 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
JPH0619618A (ja) * 1992-06-30 1994-01-28 Sony Corp 入力装置
US5982352A (en) * 1992-09-18 1999-11-09 Pryor; Timothy R. Method for providing human input to a computer
JPH07182101A (ja) * 1993-10-26 1995-07-21 Itu Res Inc グラフィック入力装置および方法、グラフィックオブジェクト操作方法、グラフィック入力信号供給方法
US5757360A (en) * 1995-05-03 1998-05-26 Mitsubishi Electric Information Technology Center America, Inc. Hand held computer control device
US5801681A (en) * 1996-06-24 1998-09-01 Sayag; Michel Method and apparatus for generating a control signal
US6950539B2 (en) * 1998-09-16 2005-09-27 Digital Persona Configurable multi-function touchpad device
US6552713B1 (en) * 1999-12-16 2003-04-22 Hewlett-Packard Company Optical pointing device
US7859519B2 (en) * 2000-05-01 2010-12-28 Tulbert David J Human-machine interface
DE10100617A1 (de) * 2001-01-09 2002-07-18 Siemens Ag Steuerbare Anordnung mit Benutzerauthentisierung
JP2002359872A (ja) * 2001-05-31 2002-12-13 Sony Corp 携帯無線端末装置

Also Published As

Publication number Publication date
WO2005055029A1 (ja) 2005-06-16
US20060268109A1 (en) 2006-11-30
JP2005165670A (ja) 2005-06-23
EP1698962A2 (en) 2006-09-06

Similar Documents

Publication Publication Date Title
JP4169688B2 (ja) ヒューマンインタフェース装置
JP7210204B2 (ja) 変化する接触感度を有する接触及び形状センサに対応したロボット、及び、ロボットを提供するための方法
US10874939B2 (en) Electronic controller with finger motion sensing
US10712818B2 (en) Fiducial rings in virtual reality
CN108140360B (zh) 用于操纵虚拟环境的系统和方法
US10905383B2 (en) Methods and apparatus for unsupervised one-shot machine learning for classification of human gestures and estimation of applied forces
US11016569B2 (en) Wearable device and method for providing feedback of wearable device
Kim et al. The gesture watch: A wireless contact-free gesture based wrist interface
EP3427793B1 (en) Electrical stimulation system
WO2011070886A1 (ja) 偽指判別装置
TW201633067A (zh) 檢測裝置、電子機器、檢測方法及程式
US11237632B2 (en) Ring device having an antenna, a touch pad, and/or a charging pad to control a computing device based on user motions
KR102694171B1 (ko) 전자 장치 및 각막 이미지를 이용한 전자 장치의 기능 제공 방법
JP2005253778A (ja) 視線検出方法及び同装置
CN107077200A (zh) 基于反射的控件激活
JP7260697B2 (ja) 物体に接触して姿勢及び力を検出するための変形可能なセンサ及び方法
KR101396488B1 (ko) 신호 입력 장치 및 신호 입력 방법
US20030184520A1 (en) Mouse with optical buttons
KR100749033B1 (ko) 두 눈에서 반사되는 빛을 추적하여 단말기를 조작하는방법, 및 그 장치
US20210318759A1 (en) Input device to control a computing device with a touch pad having a curved surface configured to sense touch input
US10838492B1 (en) Gaze tracking system for use in head mounted displays
US11789544B2 (en) Systems and methods for communicating recognition-model uncertainty to users
CN113557069A (zh) 用于手势分类和施加的力估计的无监督机器学习的方法和装置
US11604512B1 (en) Fingertip-motion sensing device and handwriting recognition system using the same
CN102727211B (zh) 辨识装置与辨识方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080507

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080729

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080805

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110815

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110815

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees