JP5737748B2 - 統合入力インターフェース - Google Patents

統合入力インターフェース Download PDF

Info

Publication number
JP5737748B2
JP5737748B2 JP2011026685A JP2011026685A JP5737748B2 JP 5737748 B2 JP5737748 B2 JP 5737748B2 JP 2011026685 A JP2011026685 A JP 2011026685A JP 2011026685 A JP2011026685 A JP 2011026685A JP 5737748 B2 JP5737748 B2 JP 5737748B2
Authority
JP
Japan
Prior art keywords
finger
command
likelihood
pressed
input interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011026685A
Other languages
English (en)
Other versions
JP2012168595A (ja
Inventor
隆史 芹澤
隆史 芹澤
柳田 康幸
康幸 柳田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meijo University
Original Assignee
Meijo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Meijo University filed Critical Meijo University
Priority to JP2011026685A priority Critical patent/JP5737748B2/ja
Publication of JP2012168595A publication Critical patent/JP2012168595A/ja
Application granted granted Critical
Publication of JP5737748B2 publication Critical patent/JP5737748B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、統合入力インターフェースに関する。
ユーザーインターフェース装置としては、古くからキーボードやマウスなどが知られているが、近年、人間の手で掴んで操作するユーザーインターフェース装置が報告されている。例えば、特許文献1には、弾性素材からなる外殻と、外殻の内側から外殻を掴んだオペレーターの手指を撮影する撮影装置と、その撮影装置によって撮影された画像から手指位置姿勢の変動などを認識する変動認識装置とを備えたユーザーインターフェース装置が開示されている。このユーザーインターフェース装置によってマウスのコマンドを生成する場合には、手指位置姿勢から人差し指の圧力値を認識し、その圧力値がスレッショルド以下のときは通常の把持、圧力値がスレッショルドを超えると例えばマウスの左クリックに相当するコマンドを生成する。同様に中指にはマウスの右クリックに相当するコマンドを生成する。
特開2005−165670号公報
特許文献1には、外殻に接触したあとの指の圧力値に基づいてクリックに相当するコマンドを生成しているため、外殻に指が接触するまでは何もコマンドが発生しない。このため、例えば外殻のある位置に指を接触させて所望の文字を入力しようとしたところ誤って別の位置に指を接触させた場合、指が外殻に接触したあと、所望の文字とは異なる文字が入力されたことをもってオペレーターは誤操作に気づくことになる。その場合、一旦入力した 文字をデリートし、その後再び正しい文字を入力する必要があるため、操作性がよくなかった。
本発明はこのような課題を解決するためになされたものであり、人間の手全体と接触可能な外表面を有する操作カバーを用いた統合入力インターフェースにおいて、オペレーターの操作性を向上させることを主目的とする。
本発明の統合入力インターフェースは、
カラー画像を撮影可能な撮影手段と、
前記撮影手段を覆うように設けられ、オペレーターの手全体を接触可能な外表面を有する光透過性の操作カバーと、
前記撮影手段によって撮影された手全体のカラー画像に基づいて前記外表面を押圧した押圧指を認識し、該押圧指に基づいて確定コマンドを生成する一方、前記撮影手段によって撮影された手全体のカラー画像に基づいて前記外表面に接近してくる接近中の指を認識し、該接近中の指を押圧予定指とみなし、該押圧予定指に基づいて予告コマンドを生成するコマンド生成手段と、
前記コマンド生成手段が前記確定コマンドを生成したときには該確定コマンドに対応した処理を実行し、前記コマンド生成手段が前記予告コマンドを生成したときには前記確定コマンドに対応した処理が実行されることを予告する予告処理を実行する処理実行手段と、
を備えたものである。
この統合入力インターフェースでは、操作カバーの外表面を押圧した押圧指に基づいて確定コマンドを生成する。一方、操作カバーの外表面に接近してくる指を押圧予定指とみなし、該押圧予定指に基づいて予告コマンドを生成する。この予告コマンドは、予告処理を実行するためのコマンドである。予告処理とは、押圧予定指がそのまま操作カバーの外表面を押圧したときに生成される確定コマンドに対応した処理が実行されることを予告する処理をいう。このため、オペレーターは、自分の指を操作カバーの外表面に接近させている途中で、そのままその指で操作カバーを押圧するとどのような処理が実行されるのかを知ることができる。したがって、オペレーターの操作性が向上する。
本発明の統合入力インターフェースにおいて、前記コマンド生成手段は、指の明度、彩度及び稜線の明確さの少なくとも1つのパラメータと前記外表面から指までの距離との予め定められた関係と、前記カラー画像を取り込むインターバル時間とを利用して、前記押圧指及び前記押圧予定指を認識してもよい。こうすれば、指が操作カバーの外表面を押圧しているかどうか、指が外表面に接近中かどうかを的確に判断することができる。
本発明の統合入力インターフェースにおいて、前記コマンド生成手段は、前記外表面のうち前記押圧指によって押圧された位置を算出し、前記押圧指と前記位置とに基づいて確定コマンドを生成する一方、前記外表面のうち前記押圧予定指によって押圧されると推定される推定位置を求め、前記押圧予定指と前記推定位置とに基づいて予告コマンドを生成してもよい。こうすれば、操作カバーの外表面の位置とは無関係に確定コマンドや予告コマンドを生成する場合に比べて、コマンド数を増やすことができる。
本発明の統合入力インターフェースにおいて、前記コマンド生成手段は、前記接近中の指が複数存在していた場合、各接近中の指と前記外表面との距離を求め、該距離が最短の指を前記押圧予定指とみなしてもよいし、あるいは、各接近中の指の接近速度に基づいて接触予定時間を算出し、その接触予定時間が最短の指を前記押圧予定指とみなしてもよい。こうすれば、接近中の指が複数存在している場合であっても、オペレーターが次回操作カバーの外表面を押圧しようとしている指を的確に判断することができる。ここで、前記接近中の指と前記外表面との距離が同等のものが複数存在していた場合、各接近中の指の接近速度を求め、該接近速度が最速の指を前記押圧予定指とみなしてもよい。こうすれば、オペレーターが次回操作カバーの外表面を押圧しようとしている指を一層的確に判断することができる。なお、指と外表面との距離(つまり高度)が最短の指を判別するには、各指の絶対高度を用いてもよいし、指同士の相対高度を用いてもよい。また、接近速度が最速の指を判別するには、各指の絶対高度から求めた速度を用いてもよいし、指同士の相対高度から求めた速度を用いてもよい。指同士の相対高度は指の絶対高度に比べて個体差の影響が小さいため、指同士の相対高度を用いることが好ましい。指の絶対高度を用いる場合には、指の稜線の明確さの変化から絶対高度を求めるのが好ましい。指の稜線の明確さの変化は個体差の影響が比較的小さいからである。
本発明の統合入力インターフェースは、更に、少なくとも文字を出力可能な出力手段を備え、前記処理実行手段は、前記操作カバー上に仮想キーボードを設定し、前記コマンド生成手段によって前記確定コマンドが生成されると、該確定コマンドに含まれる指及び押圧位置に対応する前記仮想キーボード上の文字を所定の態様で前記出力手段に出力し、前記コマンド生成手段によって前記予告コマンドが生成されると、該予告コマンドに含まれる押圧予定指及び推定位置に対応する前記仮想キーボード上の文字を前記所定の態様とは異なる態様で前記出力手段に出力してもよい。ここで、出力手段とは、ディスプレイなどの表示出力手段であってもよいし、スピーカーなどの音声出力手段であってもよい。なお、仮想キーボードは、周知のキーボードのキー配置をそのまま採用してもよいが、例えば人差し指で操作する文字群と中指で操作する文字群と薬指で操作する文字群とがオーバーラップするように配置してもよい。また、仮想キーボードは、文字入力を始める前に操作カバーに載せられた手全体の位置に追従するようにしてもよい。こうすれば、操作カバーと自分の手との位置関係を気にすることなく、キーボード入力を行うことが可能になる。
本発明の統合入力インターフェースにおいて、前記コマンド生成手段は、前記撮影手段によって撮影された人間の手全体のカラー画像の画素データを、色相が肌基準色に近いほど、また、明度及び彩度が大きいほど、大きくなるように定められた尤度に変換し、該尤度に基づいて作成される尤度画像から手指を認識してもよい。こうすれば、手の尤度画像は接触・非接触にかかわらず、指の中心線や掌の中心付近が高い値を持つ。その結果、例えば2本の指が隙間なく並んだ状態だったとしても、尤度のピーク画素を辿っていけば各指を容易に認識することができる。
ここで、前記コマンド生成手段は、前記尤度画像から各指を認識するにあたり、前記尤度画像において掌上の所定の点を中心とする複数の同心円を描いたときの各円周上の尤度のピーク画素を探索し、前記所定の点から半径外方向に沿って並んでいる尤度のピーク画素群を結んだ4本の指中心線を作成し、該4本の指中心線のうち両側2本の指中心線に基づいて親指付け根候補位置を2箇所算出し、該2箇所の親指付け根候補位置を中心とする複数の同心円を描いたときの各円周上の尤度のピーク画素を探索し、該探索した尤度のピーク画素を結んだ指中心線を親指と認識し、該認識した親指に基づいて前記4本の指中心線を人差し指、中指、薬指、小指に割り当ててもよい。
本発明の統合入力インターフェースにおいて、前記操作カバーは、ドーム型であって、内表面が滑らかな面であり外表面が磨りガラスのように細かい凹凸を持つ面であることが好ましい。こうすれば、ドーム型であるため手全体を接触させやすい。また、内表面が滑らかな面であり外表面が磨りガラスのように細かい凹凸を持つ面であるため、指が接触していると指のクリアな画像が得られ、指が離れていると指のぼけた画像が得られることから、両者を区別しやすい。
なお、本発明の統合入力インターフェースとは別発明の統合入力インターフェースとして、カラー画像を撮影可能な撮影手段と、前記撮影手段を覆うように設けられ、人間の手全体と接触可能な外表面を有する光透過性の操作カバーと、人間の肌を表す肌基準色に近いカラーデータほど尤度が大きくなるように設定された尤度テーブルを記憶するテーブル記憶手段と、前記撮影手段によって撮影された人間の手全体のカラー画像の画素データを前記尤度テーブルに照らして尤度の画素データに変換し、該変換した尤度の画素データを用いて掌の中心から半径外方向に沿って並んでいる尤度のピーク画素群を結ぶことにより指模擬線を作成し、該作成した指模擬線を利用して各指を認識する指認識手段と、を備えたものが挙げられる。
情報処理装置10の全体構成を示す説明図である。 入力デバイス20の断面図である。 画像取込ルーチンの一例を示すフローチャートである。 情報処理ルーチンの一例を示すフローチャートである。 情報処理ルーチンのステップS120を説明するための画像である。 情報処理ルーチンのステップS130を説明するための画像である。 情報処理ルーチンのステップS140を説明するための画像である。 4本の指を認識するための横軸を角度、縦軸を尤度とするチャートである。 情報処理ルーチンのステップS140を説明するための画像である。 情報処理ルーチンのステップS160を説明するための画像である。 情報処理ルーチンのステップS170を説明するための画像である。 親指を認識するための横軸を角度、縦軸を尤度とするチャートであり、(a)は左側の親指付け根候補を用いたときのチャート、(b)は右側の親指付け根候補を用いたときのチャートである。 情報処理ルーチンのステップS170を説明するための画像である。 情報処理ルーチンのステップS200を説明するための画像である。 指の色相、明度差、彩度及び稜線の特性を表すグラフである。 情報処理ルーチンのステップS215を説明するための概念図である。 指をこねるようにして圧力を加えた場合の説明図である。 数字出力プログラムを実行したときの画面の説明図である。 文字出力プログラムを実行したときの画面の説明図である。 入力モードの説明図であり、(a)は文字入力モード、(b)は2D入力モード、(c)は3D入力モードを表す。
次に、本発明の実施の形態を図面を用いて説明する。図1は本発明の統合入力インターフェースの一実施形態である情報処理装置10の全体構成を示す説明図、図2は入力デバイス20の断面図である。
本実施形態の情報処理装置10は、図1に示すように、ユーザーの操作に応じて信号を生成する入力デバイス20と、この入力デバイス20からの信号を入力して各種制御を実行するコンピューター30と、コンピューター30からの信号を入力して文字や図形等を表示するディスプレイ40とを備えている。
入力デバイス20は、図2に示すように、底のある円筒状に形成された支持台21と、支持台21の底面に設置された複数の照明灯22と、この支持台21の上面を覆う拡散板23と、支持台21の中央に設置された撮影装置24と、拡散板23を覆うドーム型の操作カバー25とを備えている。ここで、照明灯22は、拡散板23に向かって光を照射するように設置されている。拡散板23は、照明灯22から照射された光を拡散して操作カバー25の内面をほぼ均一に照らし出す。撮影装置24は、魚眼レンズ24aが拡散板23の中央に設けられた穴から上方に突き出ており、その魚眼レンズ24aを介して図示しないCCD撮像素子に取り込んだカラー画像をコンピューター30へ出力するものである。操作カバー25は、撮影装置24の魚眼レンズ24aを覆うように設けられ、オペレーターの手(つまり5本の指及び掌)全体を接触可能な外表面25aを有している。この操作カバー25は、光透過性の材料からなり、内表面25bが滑らかな面、外表面25aが磨りガラスのように細かい凹凸を持つ面となっている。このため、オペレーターの手が外表面25aから離れていると、撮影装置24のカラー画像には5本の指や掌がぼやけて映り、オペレーターの手が外表面25aに接触していると、撮影装置24のカラー画像には5本の指や掌がはっきり映る。
コンピューター30は、各種演算を実行するCPU、各種プログラムやテーブルなどを記憶するROM、一時的にデータを記憶するRAMなどから構成される周知のものである。このコンピューター30を機能ブロックで示せば、テーブル記憶部32、コマンド生成部34、処理実行部36となる。テーブル記憶部32は、色相が肌基準色に近いほど、また、明度及び彩度が大きいほど、尤度が大きくなるように定められた尤度テーブルを記憶する。本実施形態では、尤度は、明度の値と、彩度の値と、色相を肌基準色を中心として正規分布を持つ値との和で表される。なお、肌基準色とは、ここでは、赤→緑→青→赤と変化する色相環を360区分に分けたとき、赤を基点(ゼロ)とし緑方向に向かって5〜35番目に位置する色相とする。カラー画像の画素データがRGBで表されている場合、そのRGBをHSVに変換することにより色相(H)、彩度(S)、明度(V)に変換することができる。この変換方法は周知であるため、ここではその説明を省略する。そして、このHSVの値を尤度テーブルに照らして尤度に変換することができる。なお、掌や足の裏等の無毛部の色は人種による差異が小さいことが知られている。このため肌基準色を地域・人種によって変更する必要はない。但し、場合によっては、変更するのを許容してもよい。コマンド生成部34は、撮影装置24によって撮影された手全体のカラー画像を解析して各指を認識すると共に各指の位置を認識し、その結果に基づいて確定コマンドや予告コマンドを生成する。このコマンド生成部34は、カラー画像を解析して各指を認識するにあたり、人間の手全体のカラー画像の画素データを尤度テーブルに照らして尤度の画素データに変換し、変換後の尤度の画素データ(尤度の画像)を用いてコマンドを生成する。処理実行部36は、コマンド生成部34が確定コマンドを生成したときにはその確定コマンドに対応した処理を実行し、予告コマンドを生成したときには確定コマンドに対応した処理が実行されることを予告する予告処理を実行する。
ディスプレイ40は、周知のカラー液晶ディスプレイであり、コンピューター30によって表示制御される。
次に、上述した情報処理装置10の具体的な動作について説明する。まず、カラー画像を撮影装置24から取り込む処理について説明する。図3は、画像取込ルーチンの一例を示すフローチャートである。この画像取込ルーチンを実行するプログラムはコンピューター30のROMに記憶されている。コンピューター30は、所定タイミングごと(例えば数msecごと)に画像取込ルーチンを実行する。このルーチンが開始されると、コンピューター30は、まず、照明灯22の強弱を切り替える(ステップS10)。つまり、前回「弱」だったら今回「強」にし、前回「強」だったら今回「弱」にする。なお、「弱」は、操作カバー25の外表面25aから手が認識限界距離(例えば15cm)だけ離れているときにその手を認識できる明るさであり、「強」は、「弱」よりも明るければよいが、例えば「弱」の2倍以上の明るさである。なお、強弱の明るさの差が大きいほど距離推定の精度が上がるため、好ましい。続いて、撮影装置24を操作してカラー画像を取り込み、RAMに格納する(ステップS20)。カラー画像は、RGBによって表される画素データの集合である。RGBの各色は、それぞれ0〜255の数値によって表される。その後、ステップS10で照明灯22を「弱」から「強」に切り替えたか否かを判定する(ステップS30)。そして、ステップS30で肯定判定されたときには開始フラグをオンにし(ステップS40)、このルーチンを終了する。この開始フラグは、後述の情報処理ルーチンを開始するか否かを決定するのに用いられる。一方、ステップS30で否定判定されたときには開始フラグをオフにし(ステップS50)、このルーチンを終了する。この結果、開始フラグがオンの場合、RAMには今回取り込んだカラー画像(照明灯22が「強」のときのカラー画像)と前回取り込んだカラー画像(照明灯22が「弱」のときのカラー画像)とが記憶されることになる。
次に、指認識に基づくコマンド生成とそのコマンドに対応した処理について説明する。図4は、情報処理ルーチンの一例を示すフローチャートである。この情報処理ルーチンを実行するプログラムはコンピューター30のROMに記憶されている。図5〜図7、図9〜11、図13〜14は、情報処理ルーチンの各ステップを説明するための画像であり、これらの画像は各画素を尤度で表し、尤度が高いほど黒く、低いほど白く表示した。図8は、4本の指を認識するための横軸を角度、縦軸を尤度とするチャート、図12は、親指を認識するための横軸を角度、縦軸を尤度とするチャートである。
コンピューター30は、上述した画像取込ルーチンで開始フラグがオンになるごとに、図4に示す情報処理ルーチンを実行する。このルーチンが開始されると、コンピューター30は、RAMに記憶された2つのカラー画像、つまり照明灯22が「強」のときのカラー画像と「弱」のときのカラー画像のそれぞれについて、肌色領域を検出する(ステップS120)。具体的には、まず、取り込んだカラー画像は魚眼レンズを通して取得されたものであり、歪みの大きい箇所があるため、その歪みを補正する。続いて、補正後のカラー画像の各画素データを上述した尤度テーブルに照らして尤度の画素データに変換し、尤度が所定値を超える部分を肌色領域とする。肌色領域を検出したあとの画像(尤度の画像)を図5に示す。なお、所定値は、予備実験の結果などに基づいて予め定めた値である。続いて、掌の中心Chを算出する(ステップS130)。具体的には、肌色領域の尤度の重心を求め、その重心から掌の中心Chを探索する。掌の中心Chを探索するにあたっては、肌色領域内に収まり且つ肌色領域との重複が最大となる円(内接円Ic)を求め、その円の中心を掌の中心Chとする。掌の中心Chを算出したあとの画像を図6に示す。
次に、掌の中心Chを利用して人差し指候補から小指候補までを検出する(ステップS140)。具体的には、まず、掌の中心Chから複数の同心円を描く。この同心円のうち最も小さい円は、上述した内接円Icであり、この内接円Icの半径から等間隔(例えば1〜10mmの間で設定された値)で半径を大きくしていき、円周が肌色領域を超えた円を最も大きな円とする。このときの様子を図7に示す。そして、各同心円につき、円周に沿って尤度をスキャンしたあと、その円周を直線上に伸ばし、その直線を角度を表す横軸とし、縦軸を尤度とするチャートを作成する。このときのチャートを図8に示す。各チャートのベースラインBLの位置は、円の半径に対応している。各チャートには尤度のピークが現れるが、このピークは肌基準色に最も近い部分であり、各指の幅のほぼ中央とみなすことができる。このため、これらのチャートにおいて、ほぼ同じ角度に現れるピーク点を結ぶことにより指の中心線を作成することができる。このときの様子を図9に示す。こうした指の中心線は通常5本作成されるが、そのうち角度の幅が90°以内に存在する4本を人差し指候補、中指候補、薬指候補及び小指候補の中心線とみなす。
次に、人差し指候補から小指候補までの4本の指を検出できたか否かを判定する(ステップS150)。これら4本の指を検出できなかったならば、このルーチンを終了する。本実施形態では、操作カバー25の外表面25aに手全体が接触していたり外表面25aから手全体が離れていたとしてもその距離が15cm以下の場合には、これら4本の指を検出することができるが、外表面25aから手全体までの距離が15cmを超えると、手の色相、明度、彩度が不明となるため検出することができないことがある。なお、ここでは、15cmを閾値として説明したが、この閾値は操作カバー25の拡散係数に依存する。
次に、ステップS150で人差し指候補から小指候補までの4本の指を検出できたと判定されたならば、続いて、掌の中心Chと4本の指候補のうち両側2本の指候補の付け根を用いて、親指の付け根候補を2つ推定する(ステップS160)。この推定は、複数の人間の手のサンプルデータに基づいて、掌の中心Chと両側2本の指候補の付け根が、親指の付け根とどのような位置関係にあるかを求めておき、その位置関係を参照して親指の付け根候補を推定する。なお、一般に人差し指が小指よりも長いことから、両側2本の指の中心線のうち長い方を人差し指、短い方を小指と判断し、人差し指に近い側に親指の付け根候補を1つだけ選ぶことも考えられる。しかし、人差し指を曲げていた場合には短い方が人差し指になる可能性もある。このため、ここでは人差し指と小指との区別はつかないものとし、親指の付け根候補を2つ推定するのである。このときの様子を図10に示す。
次に、2つの親指付け根候補を用いて親指を検出する(ステップS170)。具体的には、各親指付け根候補の位置を中心として複数の同心円を描く。同心円は、等間隔(例えば1〜10mmの間で設定された値)で半径を大きくしていく。このときの様子を図11の左側に示す。なお、最大半径は、人差し指候補から小指候補までを検出したときの最大半径と同じとしてもよいし、その50〜90%としてもよい。また、同心円は、左側の親指の付け根候補では内接円Icから左回りに所定の円周角(例えば100〜150°)の円弧とし、右側の親指の付け根候補では内接円Icから右回りに所定の円周角(例えば100〜150°)の円弧としてもよい。この所定の円周角は、例えば上述したサンプルデータに基づいて定めることができる。そして、各同心円につき、円周に沿って尤度を求めたあと、その円周を直線上に伸ばし、その直線を角度を表す横軸とし、縦軸を尤度とするチャートを作成する。このときのチャートを図12に示す。各チャートのベースラインBLの位置は、円の半径に対応している。図12(a)は左側の親指付け根候補に基づくチャートであり、図12(b)は左側の親指付け根候補に基づくチャートである。図12から、右側の親指付け根候補が実際の親指付け根であることがわかる。そして、4本の指と同様にして、親指の中心線を作成する。このときの様子を図13に示す。
次に、親指を検出できたか否かを判定する(ステップS180)。親指を検出できなかったならば、このルーチンを終了する。本実施形態では、操作カバー25の外表面25aに手全体が接触していたり外表面25aから手全体が離れていたとしてもその距離が15cm以下の場合には、親指を検出することができるが、外表面25aから手全体までの距離が15cmを超えると、手の色相、明度、彩度が不明となるため親指を検出できないことがある。
次に、ステップS180で親指を検出できたと判定されたならば、続いて、検出された手全体が右手か左手かを判別する(ステップS190)。これは、具体的には、親指が検出された結果、ステップS140で検出した4本の指が人差し指、中指、薬指及び小指候補のどれに該当するかがわかるため、それを特定し、5本の指の位置関係に基づいて右手か左手かを判別する。続いて、各指や掌の稜線を検出する(ステップS200)。具体的には、手全体の尤度の画像のうち、尤度が急激に低下する箇所を求め、その箇所を各指や掌の稜線として検出する。このときの様子を図14に示す。
次に、各指の位置を検出する(ステップS210)。各指の指先が操作カバー25の外表面25aのどこに位置しているのかを検出する。指先は、例えば図14において稜線と指の中心線とに基づいて定めることができる。
次に、各指の距離を推定する(ステップS215)。具体的には、各画素のRGBをHSVに変換した後の色相、明度差、彩度を用いると共に、上述した稜線を用いて、距離や圧力を推定する。指の色相、明度差、彩度及び稜線について調べたところ、これらは外表面25aと指までの距離や指が外表面25aに与える圧力に応じて図15のグラフに示すように変化することがわかった。なお、図15の斜線領域は、外表面25aから指までの距離が遠すぎて指を認識できない領域である。色相については、指が外表面25aから離れている間は赤、外表面25aに接触したときも赤、その後圧力が大きくなるにつれ黄色になった。明度差は、照明灯22が「強」のときに得られた画像の明度の値から、照明灯22が「弱」のときに得られた画像の明度の値を差し引くことにより求める。この明度差については、指が外表面25aから遠い場合には低い値だったが、外表面25aの手前5mm程度から急に高くなり、外表面25aに接触したあとは圧力にかかわらず高い値でほぼ一定になった。彩度については、指が外表面25aに向かって近づくにつれて徐々に高くなり、外表面25aに接触するとピーク値をとり、圧力が大きくなるにつれて徐々に低くなった。稜線の明確性については、指が外表面25aから遠い場合には不明確だったが、外表面25aの手前5mm程度から急に明確性が増し、外表面25aに接触したあとは圧力にかかわらず明確のままとなった。これらの結果から、指が外表面25aから離れているときの指と外表面25aとの距離は、明度差、彩度及び稜線の明確性の少なくとも1つによって推定することができる。なお、色相、彩度及び稜線の明確性については、照明灯22の強弱に応じた係数を適用したものを画像のフレーム毎に算出する。明度差については、照明灯22が「強」のときに得られたカラー画像と照明灯22が「弱」のときに得られたカラー画像とに基づいて求める。
次に、各指の関節位置を検出する(ステップS220)。具体的には、まず、各画素のRGBをHSVに変換した後の彩度、明度等のパラメータに基づいて各指の中心線の外表面25aからの距離(高さ)を推定し、各指の中心線を三次元空間に表す。このときの概念図を図16(a)に示す。そして、各指につき、三次元空間に表された中心線の長さを3等分し、図16(b)に示すようにDIP関節(第1関節)、PIP関節(第2関節)、MP関節(第3関節)の仮の位置を決める。続いて、インバースキネマティクスモデル及び最小二乗法を使用して各関節の仮の位置の誤差が最小となるように最適化を行い、図16(c)に示すように、各指のDIP関節、PIP関節及びMP関節を決定する。このように関節位置を検出することにより、指の押圧領域の検出が容易になったり、指を曲げているか伸ばしているかにかかわらず指の長さを検出することが可能になったり、引っ掻く・撫でる・つまむなどの動作を検出することが可能になったりする。
次に、手指パーツ毎の接触判定を行う(ステップS225)。ここで、手指パーツとは、掌、各指をMP関節、IP関節、PIP関節、DIP関節で分割したそれぞれの部位の集合とする。図2のような構成では、外表面25aに手指等が接触した瞬間に接触領域の明度が急激に上昇することがわかっている。非接触時の手指パーツの個別認識・追跡が可能な本実施形態では、手指パーツ毎の明度変化を連続的に監視することにより正確な接触判定が可能である。手指パーツの接触が検出された場合、手指が外表面25aに加えた力の推定を行う(ステップS227)。指が外表面25aに加えた圧力の大きさは、色相及び彩度の少なくとも1つによって推定することができる。このとき、圧力の大きさから指先の接触がユーザーの入力意図によるものか偶然の接触かの判定を行う。また、指をこねるようにして圧力を加えた場合には、図17に示すように、指の稜線と押圧領域との位置関係がずれるため、そのときのせん断力の大きさと方向、圧力の大きさを推定することができる。このステップS227では、指先に関しては圧力及びせん断力を出力し、他の手指のパーツに関しては圧力分布を出力する。なお、押圧領域は、色相が黄色になるが、これは押圧すると指の血流が変化するからである。
次に、押圧指又は押圧予定指を検出する(ステップS230)。押圧指については、ステップS220で各指の圧力がわかるため、外表面25aに圧力を与えている指があればそれを押圧指とする。押圧予定指については、次のようにして検出する。まず、前回の情報処理ルーチンで算出した各指の距離と、今回の情報処理ルーチンで算出した各指の距離と、インターバル時間(前回のカラー画像を取り込んだ時刻と今回のカラー画像を取り込んだ時刻との差)とから、各指につき、外表面25aに接触しているのか、外表面25aに接近しつつあるのか、外表面25aから離れつつあるのかを認識する。そして、外表面25aに接近してくる指があれば、その指を押圧予定指とする。ここで、外表面25aに接近しつつある指が複数存在する場合、それらのうち外表面25aまでの距離が最も近いものを押圧予定指とする。また、距離が同等のものが複数存在する場合には、接近速度が最も速いものを押圧予定指とみなす。接近速度は、前回の情報処理ルーチンで算出した各指の距離と、今回の情報処理ルーチンで算出した各指の距離と、インターバル時間とから容易に算出することができる。なお、各指の外表面25aまでの距離が最も近いものを探索する場合や接近速度が最も速いものを探索する場合には、指の絶対高度を用いてもよいし、指同士の相対高度を用いてもよい。但し、指同士の相対高度は指の絶対高度に比べて個体差(つまりオペレーターの個人差)が異なることによるの影響が小さいため、指同士の相対高度を用いることが好ましい。指の絶対高度を用いる場合には、指の稜線の明確さの変化から絶対高度を求めるのが好ましい。指の稜線の明確さの変化は個体差の影響が比較的小さいからである。
次に、押圧指又は押圧予定指を検出したか否かを判定する(ステップS240)。そして、いずれも検出できなかったならば、本ルーチンを終了する。一方、押圧指を検出したならば、その指に基づいて確定コマンドを生成する(ステップS250)。このとき、押圧指と外表面25aのうちその押圧指によって押圧される位置とに基づいて確定コマンドを生成してもよい。また、押圧予定指を検出したならば、その押圧予定指に基づいて予告コマンドを生成する(ステップS260)。このとき、押圧予定指と外表面25aのうちその押圧予定指によって押圧されるであろう推定位置とに基づいて予告コマンドを生成してもよい。
次に、コマンドに応じた処理を実行し(ステップS270)、その後、本ルーチンを終了する。ここで、コンピューター30のROMには、処理実行プログラムとして、数字出力プログラムが格納されているとする。この数字出力プログラムは、右手の人差し指が外表面25aを押圧するごとに1000の位の数字を1ずつ加算し、中指が外表面25aを押圧するごとに100の位の数字を1ずつ加算し、薬指が外表面25aを押圧するごとに10の位の数字が1ずつ加算し、その結果をディスプレイ40に表示するプログラムである。この場合、人差し指で外表面25aを1回押圧したとすると、人差し指が押圧指となり、ステップS250で「1000」を表示せよという確定コマンドが生成される。この確定コマンドに応じて、ディスプレイ40に「1000」を表示する(図18(a)参照)。その後、中指が外表面25aから離れた位置から外表面25aに接近してきたとすると、この中指が押圧予定指とみなされ、ステップS260で100の位に「1」が表示されるのを予告するための予告コマンドが生成される。この予告コマンドに応じて、ディスプレイ40に表示された「1000」のうち100の位の「0」の上に薄い色の「1」が重なって表示される(図18(b)参照)。その後、中指が外表面25aを押圧すると、中指が押圧指となり、ステップS250で100の位に「1」を表示せよという確定コマンドが生成される。この確定コマンドに応じて、ディスプレイ40に「1100」が表示される(図18(c)参照)。
以上詳述した本実施形態の情報処理装置10によれば、オペレーターは、自分の指を操作カバー25の外表面25aに接近させている途中で、そのままその指で操作カバー25を押圧するとどのような処理が実行されるのかを知ることができる。したがって、オペレーターの操作性が向上する。
また、指の明度差、彩度及び稜線の明確さの少なくとも1つのパラメータと操作カバー25の外表面25aから指までの距離との予め定められた関係と、カラー画像を取り込むインターバル時間とを利用して、押圧指及び押圧予定指を認識するため、指が外表面25aを押圧しているかどうか、指が外表面25aに接近中かどうかを的確に判断することができる。
更に、接近中の指が複数存在していた場合、各接近中の指と外表面25aとの距離が最短の指を押圧予定指とみなし、更に、こうした距離が同等のものが複数存在していた場合、各接近中の指の接近速度を求め、該接近速度が最速の指を押圧予定指とみなす。このため、オペレーターが次回操作カバーの外表面を押圧しようとしている指を的確に判断することができる。
更にまた、人間の手全体のカラー画像の画素データを、色相が肌基準色に近いほど、また、明度及び彩度が大きいほど、大きくなるように定められた尤度に変換し、該尤度に基づいて作成される尤度画像から手指を認識する。このため、手の尤度画像は接触・非接触にかかわらず、指の中心線や掌の中心付近が高い値を持つ。その結果、例えば2本の指が隙間なく並んだ状態だったとしても、尤度のピーク画素を辿っていけば各指を容易に認識することができる。
そしてまた、操作カバー25は、ドーム型であって、内表面25bが滑らかな面であり外表面25aが磨りガラスのように細かい凹凸を持つ面であるため、手全体を接触させやすいし、指が接触していると指のクリアな画像が得られ、指が離れていると指のぼけた画像が得られることから両者を区別しやすい。
なお、本発明は上述した実施形態に何ら限定されることはなく、本発明の技術的範囲に属する限り種々の態様で実施し得ることはいうまでもない。
例えば、上述した実施形態の数字出力プログラムでは、指が外表面25aのどの位置を押圧するかについては問題にしなかったが、同じ指が外表面25aを押圧したとしても押圧する位置によってコマンドが変わるようにしてもよい。すなわち、外表面25aのうち押圧指によって押圧された位置を算出し、その押圧指と押圧された位置とに基づいて確定コマンドを生成したり、外表面25aのうち押圧予定指によって押圧されると推定される推定位置を求め、その押圧予定指と推定位置とに基づいて予告コマンドを生成してもよい。こうすれば、外表面25aの位置とは無関係に確定コマンドや予告コマンドを生成する場合に比べて、コマンド数を増やすことができる。
上述した実施形態では、ステップS270でコマンドに応じた処理を実行するにあたり、数字出力プログラムを実行するものとしたが、その代わりに文字出力プログラムを実行するものとしてもよい。具体的には、操作カバー25の外表面25a上に仮想キーボードを設定する。仮想キーボードは、外表面25aの位置に応じてキーが割り振ってあるが、ここではどの指が押したかによって同じ位置を押したとしても異なるキーの入力信号が発生するようになっている。いま、図19(a)に示すように、ディスプレイ40に「happ」と表示されているとする。この状態で、右手の人差し指を外表面25aの仮想「y」キーの位置の上方からその位置に接近させると、その人差し指が押圧予定指、仮想「y」キーの位置が推定位置とみなされ、ステップS260でカーソル位置に「y」が表示されるのを予告するための予告コマンドが生成される。この予告コマンドに応じて、ディスプレイ40に「y」が他の文字とは異なるフォントサイズ、異なる色で表示される(図19(b)参照)。このとき、押圧予定指と外表面25aとの距離に応じて、フォントサイズや色が変化するようになっている。このため、押圧予定指から外表面25aまでの距離が遠いとき(例えば2〜3cm)、大きなフォントサイズ、薄い色で「y」が表示され、その距離が近いとき(例えば1〜2cm)、やや大きなフォントサイズ、やや薄い色で「y」が表示される。その後、右手の人差し指が外表面25aの仮想「y」キーの位置を押圧すると、中指が押圧指となり、ステップS250で「y」を入力せよという確定コマンドが生成される。この確定コマンドに応じて、ディスプレイ40の「happ」の右隣に「y」が入力される(図19(c)参照)。一方、右手の人差し指を誤って仮想「u」キーの位置の上方からその位置に接近させると、その人差し指が押圧予定指、仮想「u」キーの位置が推定位置とみなされ、ステップS260でカーソル位置に「u」が表示されるのを予告するための予告コマンドが生成される。この予告コマンドに応じて、ディスプレイ40に「u」が他の文字とは異なるフォントサイズ、異なる色で表示される(図19(d)参照)。このため、オペレーターは、右手の人差し指がそのままの位置を押圧すると、「u」が入力されてしまうと気がつき、人差し指を仮想「y」キーの位置に修正することができる。つまり、その後は右手の人差し指を仮想「y」キーの位置に上方に移動し、その位置を押圧するため、ディスプレイ40は図19(b)、図19(c)のように変化する。なお、ディスプレイ40に文字を出力する代わりに、スピーカーから音声を出力してもよい。その場合、指がキーを実際に押圧した場合にはそのキーを低音で音声出力し、指がキーに接近中の場合にはそのキーを高音で音声出力してもよい。
なお、仮想キーボードは、人差し指で操作する文字群と中指で操作する文字群と薬指で操作する文字群とがオーバーラップするように配置してもよい。また、仮想キーボードは、操作カバー25に載せられた手全体の位置に追従するようにしてもよい。例えば、操作カバー25の外表面25aに右手全体を軽く触れた状態では、コンピューター30は、5指を認識するものの、キー入力信号は発生せず、これをホームポジションとして認識する。例えば、右手人差し指の位置を「J」キー、右手中指の位置を「K」キー、右手薬指の位置を「L」キー、右手小指の位置を「;」キーとして、それぞれ認識し、これらに合うように仮想キーボードを操作カバー25の外表面25a上に設定する。こうすれば、オペレーターは操作カバー25と自分の手との位置関係を気にすることなく、キーボード入力を行うことが可能になる。コンピューター30は、ホームポジションの認識を行う前に、「楽な姿勢で手をドームに置いてください。5秒後にキャリブレーションを行います。」等のメッセージをディスプレイ40に表示してもよい。また、ステップS220において出力される各指の長さを使用し、ユーザーの手のサイズに合ったキー配置を自動的に設定してもよい。
上述した実施形態において、指や掌と操作カバー25の外表面25aとの位置関係に基づいて入力モードを判別してもよい。具体的には、図20(a)のように各指の指先及び掌が外表面25aに接触しているが指の腹が浮いている場合には文字入力モード、図20(b)のように各指の指先は接触しているが掌が浮いている場合には2D(2次元)入力モード、図20(c)のように各指の全体及び掌が外表面25aに接触している場合には3D(3次元)入力モードとしてもよい。これらの判別は、各指のDIP関節、PIP関節、MP関節の外表面25aからの距離や掌の外表面25aからの距離に基づいて行うことができる。こうすれば、操作カバー25を用いれば、複数の入力モードで入力することが可能となるため、文字入力装置(例えばキーボード)、2D入力装置(例えばマウス)、3D入力装置を持ち替える必要がない。なお、上述した仮想キーボードの設定を行う場合には、文字入力モードに設定されていることが前提であるとしてもよい。
上述した実施形態では、操作カバー25をドーム型としたが、特にドーム型に限定されるものではなく、例えば球体としてもよいし、平板としてもよい。
上述した実施形態では、照明灯22が「強」のときに取り込んだカラー画像と「弱」のときに取り込んだカラー画像の両方を用いるために開始フラグがオンになるごとに情報処理ルーチンを開始することとしたが、照明灯22をの強弱切替を行わず、カラー画像を取り込むごとに情報処理ルーチンを開始するものとしてもよい。この場合、ステップS220で指が外表面25aから離れているときの指と外表面25aとの距離を求める際には、明度差を用いず、彩度及び稜線の明確性の少なくとも1つによって推定すればよい。
上述した実施形態では、照明灯22が「強」のときに取り込んだカラー画像と「弱」のときに取り込んだカラー画像の両方でステップS120〜S210の処理を行い、手指の認識を行うこととしたが、照明灯22が「弱」(オフも含む)の際には、ステップS120〜S210の処理を行う代わりに、その直前の照明灯22が「強」のときに検出された各々の手指パーツをテンプレートとしてマッチングを行って「弱」の際の手指パーツを認識してもよい。
上述した実施形態では、照明灯22の強弱を繰り返し切り替えることとしたが、オンオフを繰り返し切り替える構成としてもよい。この場合は、ステップS220の色相、彩度及び稜線の明確性の算出は、照明灯22がオンのときのみ行う。
本発明の統合入力インターフェースは、パーソナルコンピューター、ゲーム用コンピューターなどに利用可能である。
10 情報処理装置、20 入力デバイス、21 支持台、22 拡散板、23 拡散板、24 撮影装置、24a 魚眼レンズ、25 操作カバー、25a 外表面、25b 内表面、30 コンピューター、32 テーブル記憶部、34 コマンド生成部、36 処理実行部、40 ディスプレイ、BL ベースライン、Ch 掌の中心、Ic 内接円

Claims (9)

  1. カラー画像を撮影可能な撮影手段と、
    前記撮影手段を覆うように設けられ、オペレーターの手全体を接触可能な外表面を有する光透過性の操作カバーと、
    前記撮影手段によって撮影された手全体のカラー画像に基づいて前記外表面を押圧した押圧指を認識し、該押圧指に基づいて確定コマンドを生成する一方、前記撮影手段によって撮影された手全体のカラー画像に基づいて前記外表面に接近してくる接近中の指を認識し、該接近中の指を押圧予定指とみなし、該押圧予定指に基づいて予告コマンドを生成するコマンド生成手段と、
    前記コマンド生成手段が前記確定コマンドを生成したときには該確定コマンドに対応した処理を実行し、前記コマンド生成手段が前記予告コマンドを生成したときには前記確定コマンドに対応した処理が実行されることを予告する予告処理を実行する処理実行手段と、
    を備えた統合入力インターフェース。
  2. 前記コマンド生成手段は、指の明度、彩度及び稜線の明確さの少なくとも1つのパラメータと前記外表面から指までの距離との予め定められた関係と、前記カラー画像を取り込むインターバル時間とを利用して、前記押圧指及び前記押圧予定指を認識する、
    請求項1に記載の統合入力インターフェース。
  3. 前記コマンド生成手段は、前記外表面のうち前記押圧指によって押圧された位置を算出し、前記押圧指と前記位置とに基づいて確定コマンドを生成する一方、前記外表面のうち前記押圧予定指によって押圧されると推定される推定位置を求め、前記押圧予定指と前記推定位置とに基づいて予告コマンドを生成する、
    請求項1又は2に記載の統合入力インターフェース。
  4. 前記コマンド生成手段は、前記接近中の指が複数存在していた場合、各接近中の指と前記外表面との距離を求め、該距離が最短の指を前記押圧予定指とみなすか、又は、各接近中の指の接近速度に基づいて接触予定時間を算出し、該接触予定時間が最短の指を前記押圧予定指とみなす、
    請求項1〜3のいずれか1項に記載の統合入力インターフェース。
  5. 前記コマンド生成手段は、前記接近中の指と前記外表面との距離が同等のものが複数存在していた場合、各接近中の指の接近速度を求め、該接近速度が最速の指を前記押圧予定指とみなす、
    請求項4に記載の統合入力インターフェース。
  6. 請求項1〜5のいずれか1項に記載の統合入力インターフェースであって、
    少なくとも文字を出力可能な出力手段を備え、
    前記処理実行手段は、前記操作カバー上に仮想キーボードを設定し、前記コマンド生成手段によって前記確定コマンドが生成されると、該確定コマンドに含まれる指及び押圧位置に対応する前記仮想キーボード上の文字を所定の態様で前記出力手段に出力し、前記コマンド生成手段によって前記予告コマンドが生成されると、該予告コマンドに含まれる押圧予定指及び推定位置に対応する前記仮想キーボード上の文字を前記所定の態様とは異なる態様で前記出力手段に出力する、
    統合入力インターフェース。
  7. 前記コマンド生成手段は、前記撮影手段によって撮影された人間の手全体のカラー画像の画素データを、色相が肌基準色に近いほど、また、明度及び彩度が大きいほど、大きくなるように定められた尤度に変換し、該尤度に基づいて作成される尤度画像から各指を認識する、
    請求項1〜6のいずれか1項に記載の統合入力インターフェース。
  8. 前記コマンド生成手段は、前記尤度画像から各指を認識するにあたり、前記尤度画像において掌上の所定の点を中心とする複数の同心円を描いたときの各円周上の尤度のピーク画素を探索し、前記所定の点から半径外方向に沿って並んでいる尤度のピーク画素群を結んだ4本の指中心線を作成し、該4本の指中心線のうち両側2本の指中心線に基づいて親指付け根候補位置を2箇所算出し、該2箇所の親指付け根候補位置を中心とする複数の同心円を描いたときの各円周上の尤度のピーク画素を探索し、該探索した尤度のピーク画素を結んだ指中心線を親指と認識し、該認識した親指に基づいて前記4本の指中心線を人差し指、中指、薬指、小指に割り当てる、
    請求項7に記載の統合入力インターフェース。
  9. 前記操作カバーは、ドーム型であって、内表面が滑らかな面であり外表面が磨りガラスのように細かい凹凸を持つ面である、
    請求項1〜8のいずれか1項に記載の統合入力インターフェース。
JP2011026685A 2011-02-10 2011-02-10 統合入力インターフェース Active JP5737748B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011026685A JP5737748B2 (ja) 2011-02-10 2011-02-10 統合入力インターフェース

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011026685A JP5737748B2 (ja) 2011-02-10 2011-02-10 統合入力インターフェース

Publications (2)

Publication Number Publication Date
JP2012168595A JP2012168595A (ja) 2012-09-06
JP5737748B2 true JP5737748B2 (ja) 2015-06-17

Family

ID=46972728

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011026685A Active JP5737748B2 (ja) 2011-02-10 2011-02-10 統合入力インターフェース

Country Status (1)

Country Link
JP (1) JP5737748B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5884742B2 (ja) 2013-01-21 2016-03-15 トヨタ自動車株式会社 ユーザインタフェース装置および入力取得方法
US10295826B2 (en) 2013-02-19 2019-05-21 Mirama Service Inc. Shape recognition device, shape recognition program, and shape recognition method
JP6664609B2 (ja) * 2014-03-28 2020-03-13 株式会社ユピテル 電子情報システム及びそのプログラム
JP6730552B2 (ja) * 2018-05-14 2020-07-29 株式会社ユピテル 電子情報システム及びそのプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008078603A1 (ja) * 2006-12-22 2008-07-03 Panasonic Corporation ユーザインターフェイス装置
JP4712754B2 (ja) * 2007-04-09 2011-06-29 ソニー株式会社 情報処理装置及び情報処理方法
JP5401645B2 (ja) * 2009-07-07 2014-01-29 学校法人立命館 ヒューマンインターフェイス装置

Also Published As

Publication number Publication date
JP2012168595A (ja) 2012-09-06

Similar Documents

Publication Publication Date Title
US8290210B2 (en) Method and system for gesture recognition
US10754435B2 (en) Information processing apparatus and method, and program
US8923562B2 (en) Three-dimensional interactive device and operation method thereof
US20120169671A1 (en) Multi-touch input apparatus and its interface method using data fusion of a single touch sensor pad and an imaging sensor
US9760214B2 (en) Method and apparatus for data entry input
JP5904440B2 (ja) 操作入力装置、操作入力方法およびプログラム
KR101411569B1 (ko) 가상 키보드를 이용한 정보 처리 장치 및 방법
WO2012120958A1 (ja) 投影装置
JP6747446B2 (ja) 情報処理装置、情報処理方法、及びプログラム
CN102033702A (zh) 影像显示装置及其显示控制方法
GB2470654A (en) Data input on a virtual device using a set of objects.
JP2004078977A (ja) インターフェイス装置
JP5737748B2 (ja) 統合入力インターフェース
JP2012185630A (ja) 投影装置
JP5817149B2 (ja) 投影装置
JP6452369B2 (ja) 情報処理装置とその制御方法、プログラム、記憶媒体
JP2016224686A (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
Brock et al. Kin'touch: understanding how visually impaired people explore tactile maps
JP2016184362A (ja) 入力装置、入力操作検出方法及び入力操作検出用コンピュータプログラム
CN105242776A (zh) 一种智能眼镜的控制方法及智能眼镜
US20120206584A1 (en) Integrated input interface
KR101281461B1 (ko) 영상분석을 이용한 멀티 터치 입력 방법 및 시스템
JP2020135096A (ja) 表示方法、表示装置、及び、インタラクティブプロジェクター
US20130050078A1 (en) Pressure and position sensing pointing devices and methods
CN116301551A (zh) 触控识别方法、触控识别装置、电子设备及介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140916

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150407

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150416

R150 Certificate of patent or registration of utility model

Ref document number: 5737748

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250