JP6036817B2 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP6036817B2
JP6036817B2 JP2014514411A JP2014514411A JP6036817B2 JP 6036817 B2 JP6036817 B2 JP 6036817B2 JP 2014514411 A JP2014514411 A JP 2014514411A JP 2014514411 A JP2014514411 A JP 2014514411A JP 6036817 B2 JP6036817 B2 JP 6036817B2
Authority
JP
Japan
Prior art keywords
phalanx
information processing
processing apparatus
finger
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014514411A
Other languages
English (en)
Other versions
JPWO2013168508A1 (ja
Inventor
芳徳 高木
芳徳 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2013168508A1 publication Critical patent/JPWO2013168508A1/ja
Application granted granted Critical
Publication of JP6036817B2 publication Critical patent/JP6036817B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本開示は、情報処理装置、情報処理方法、及びプログラムに関する。
情報処理装置は、ユーザの操作部による入力操作(例えば、キー操作)に基づき各種の処理を行う。近年、情報処理装置が様々な形態で使用されるのに伴い、多様な入力方法が提案されている。
例えば、下記の特許文献1には、手袋の指先にスイッチを取り付ける共に、手袋に指の関節の曲り方を知るためのセンサを取り付ける入力装置が開示されている。特許文献2には、腕部に取り付けられた電極からの入力信号に基づいて、指関節角度を推定する技術が開示されている。特許文献3には、手領域の姿勢をパターン認識し、認識結果を入力とする技術が開示されております。
特開2001−242983号公報 特開2010−125287号公報 特開2011−221699号公報
ところで、特許文献1及び特許文献2の技術では、センサや電極を手や腕に取り付ける必要があり、ユーザにとっては煩わしい作業が必要となる。また、特許文献3の技術では、少数のパターンを認識できるに過ぎないため、多くの入力子が必要な文字入力等に適していない。
そこで、本開示は、簡易な構成にて、ユーザに意図する入力操作が可能な方法を提案する。
本開示によれば、手の少なくとも1本以上の指のうちの一の指節を接触体が接触した状態を撮像する撮像部と、複数の入力子のうちの、前記撮像部の撮像画像において前記接触体が接触した前記一の指節に対応する入力子を識別する識別部と、前記複数の入力子に対応する入力処理を行う処理装置に、前記識別部による識別結果を出力する出力部と、を備える、情報処理装置が提供される。
また、本開示によれば、手の少なくとも1本以上の指のうちの一の指節を接触体が接触した状態を撮像部により撮像することと、複数の入力子のうちの、前記撮像部の撮像画像において前記接触体が接触した前記一の指節に対応する入力子を識別することと、前記複数の入力子に対応する入力処理を行う処理装置に、前記識別部による識別結果を出力することと、を含む、情報処理方法が提供される。
また、本開示によれば、コンピュータに、手の少なくとも1本以上の指のうちの一の指節を接触体が接触した状態を撮像部により撮像することと、複数の入力子のうちの、前記撮像部の撮像画像において前記接触体が接触した前記一の指節に対応する入力子を識別することと、前記複数の入力子に対応する入力処理を行う処理装置に、前記識別部による識別結果を出力することと、を実行させるための、プログラムが提供される。
以上説明したように本開示によれば、簡易な構成にて、ユーザに意図する入力操作を行うことが可能となる。
本開示の一実施形態に係る情報処理システム1の概要を説明するための図である。 一実施形態に係る情報処理装置100の機能構成の一例を示す図である。 テンキーのキーと指節との対応関係を説明するための図である。 テンキーの一例を示す図である。 一実施形態に係る識別器114a〜114lの一例を説明するための図である。 一実施形態に係る撮像部110により撮像された撮像画像の一例を示す図である。 押圧された指節の識別の第1変形例を説明するための図である。 押圧された指節の識別の第2変形例を説明するための図である。 押圧された指節の識別の第3変形例を説明するための図である。 押圧された指節の識別の第4変形例を説明するための図である。 指節の押圧タイミングの検出の第1実施例を示す図である。 指節の押圧タイミングの検出の第2実施例を示す図である。 相対動きベクトルVpを説明するための図である。 一実施形態に係る情報処理装置100の第1動作例を説明するためのフローチャートである。 一実施形態に係る情報処理装置100の第2動作例を説明するためのフローチャートである。 一実施形態に係る情報処理装置100の第3動作例を説明するためのフローチャートである。 一実施形態に係る情報処理装置100の第4動作例を説明するためのフローチャートである。 一実施形態に係る情報処理装置100の表示部の表示例を示す図である。 一実施形態に係る情報処理装置100の表示部の表示例を示す図である。 両手を用いた場合の実施例を示す図である。 一実施形態に係る情報処理装置100のハードウェア構成を示した説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.情報処理システムの概要
2.情報処理装置の構成例
3.押圧された指節の識別の変形例
4.指節の押圧タイミングの検出例
5.情報処理装置の動作例
6.ハードウェア構成
7.まとめ
<1.情報処理システムの概要>
図1を参照しながら、本開示の一実施形態に係る情報処理システム1の概要について説明する。図1は、本開示の一実施形態に係る情報処理システム1の概要を説明するための図である。
情報処理システム1は、ユーザUが自己の手Hの指に触れた位置(具体的には、指の関節で区切られた何れの指節)に応じて、処理装置150(図2参照)における入力を行うものである。すなわち、情報処理システム1は、テンキー等の代わりにユーザの手を用いて入力を可能にしている。情報処理システム1は、ユーザUが自己の指の何れの指節に触れたか(押圧したか)を識別する情報処理装置100を有する。
情報処理装置100は、図1に示すように、例えばユーザUが目に着用するメガネやヘッドマウントディスプレイである。情報処理装置100には、ユーザUの目線と同じ位置にユーザUの手Hを撮像可能なカメラ等の撮像部が設けられている。なお、撮像部の位置は、ユーザUの目線と異なる位置であっても良い。また、情報処理装置100は、撮像部が撮像中のユーザの手を透過表示可能な表示部130を有する。
処理装置150は、情報処理装置100により識別された識別結果に基づいて、複数の入力子に対応する(例えば、キーの押下に対応する)入力処理を実行する。処理装置150は、情報処理装置100の識別結果に基づいて、例えば文字入力を実行する。なお、処理装置150は、例えばパーソナルコンピュータ、スマートフォン、PDA、携帯電話等の装置である。
本開示の情報処理システム1によれば、手に指の動き検出するためのセンサ等を用いること無く、撮像部で手の状態を撮像することにより、ユーザが自己の手を用いた入力を行うことが可能となる。これにより、例えば、ユーザが手にセンサ等を装着させることが困難な状況(例えば、料理している時、運転している時、子供の相手をしている時、加工等の精密な作業をしている時)において、容易に文字等の入力が可能となる。
<2.情報処理装置の構成例>
図2を参照しながら、本開示の一実施形態に係る情報処理装置100の構成例について説明する。図2は、本開示の一実施形態に係る情報処理装置100の機能構成の一例を示す図である。
図2に示すように、情報処理装置100は、撮像部110と、学習部112と、識別部114と、出力部の一例である通信部116と、表示制御部118と、を有する。
(撮像部110)
撮像部110は、静止画や動画を撮像可能なカメラであり、被写体としてユーザUの手を撮像する。例えば、撮像部110は、ユーザUの手の少なくとも1本以上の指のうちの一の指節を接触体が押圧した状態を撮像しうる。ここで、接触体は、ユーザの一方の手の親指であり、撮像部110は、図1に示すように一方の手の親指F1が他の指(人差し指F2、中指F3、薬指F4、小指F5)の指節を押圧する状態を撮像しうる。
また、撮像部110は、ユーザUの一方の手の指が他方の手の指節を押圧する様子を撮像しうる。また、撮像部110は、親指の代わりにペン等で指節を押圧する様子を撮像しうる。撮像部110は、撮像画像を識別部114に順次出力する。
(学習部112)
学習部112は、予めユーザが指節を押圧している画像を取得して、複数の入力子で構成されるテンキー(図4参照)と指節との対応関係を学習する。ここでは、親指以外の指(人差し指、中指、薬指、小指)の各指節が、テンキーの各キー(入力子)に対応するものとする。学習部112は、例えば図3に示すような画像を取得する。
人指し指、中指、薬指、小指は、それぞれ2つの関節によって3つの指節に分けられる。そして、3つの指節は、指の根本から基節、中節、末節と呼ばれる。一方で、親指は、1つの関節によって2つの指節に分けられており、2つの指節は、指の根元から基節、末節と呼ばれる。
図3は、テンキーのキーと指節との対応関係を説明するための図である。図4は、テンキー330の一例を示す図である。図3の状態301〜310は、テンキー330の数字「1」、「2」・・・「9」、「0」に対応する指節に触れた状態を示す。例えば、人差し指の基節が数字「1」に対応し、人差し指の中節が数字「2」に対応し、人差し指の末節が数字「3」に対応する。同様に、中指の基節が数字「4」に対応し、中指の中節が数字「5」に対応し、中指の末節が数字「6」に対応する。
また、図3の状態311は、テンキーの記号「*」に対応する指節に触れた状態を示し、状態312は、テンキーの記号「#」に対応する指節に触れた状態を示す。なお、学習部112は、親指が人差し指、中指、薬指、及び小指のいずれの指節も押圧していない状態を識別する画像を取得しても良い。
図3では、指節を識別しやすいように、所定の指節に対応する領域に識別体の一例であるテープ140が貼られている。具体的には、人指し指、中指、薬指、及び小指の12個の指節に、テープ140が千鳥状に貼られている。しかし、これに限定されず、指節にテープが貼られていなくても良い。
(識別部114)
識別部114は、テンキーのうちの、撮像部110の撮像画像において親指が押圧した一の指節に対応するキーを識別するためのものである。識別部114は、撮像部110から入力された撮像画像と、学習部112の対応関係とに基づいて、撮像画像において親指が他の指の何れの指節を押圧したかを識別する。識別部114は、図5に示すように、テンキーの各キーを識別する12個の識別器114a〜114lを有する。
図5は、一実施形態に係る識別器114a〜114lの一例を説明するための図である。識別器114a〜114cは、それぞれ図1に示す人差し指F2の基節F2a、中節F2b、末節F2cに対応し、識別器114d〜114fは、それぞれ中指F3の基節F3a、中節F3b、末節F3cに対応する。また、識別器114g〜114iは、それぞれ薬指F4の基節F4a、中節F4b、末節F4cに対応し、識別器114j〜114lは、それぞれ小指F5の基節F5a、中節F5b、末節F5cに対応する。そして、識別器114a〜114lは、入力された撮像画像に対して、それぞれ評価値を決定する。なお、評価値は、例えば0〜1の間の値である。
ここでは、図6に示す撮像画像が撮像部110で撮像されて、識別部114に入力されたものとする。図6は、一実施形態に係る撮像部110により撮像された撮像画像340の一例を示す図である。すなわち、撮像部110は、接触体である親指F1と共に、他の指の指節に対応する領域に設けられたテープ140を撮像する。図6に示すようにユーザの親指F1が、4本の指F2〜F5のうちの中指F3の中節F3bを押圧しているので、識別器114a〜114lのうち識別器114eの評価値が最も高い。
識別部114は、入力画像に対する各識別器114a〜114lの評価値(図5に示す評価値)を通信部116に出力する。なお、撮像部110から識別部114に入力される撮像画像において、手の領域だけを抽出する画像処理を行なって、識別部114は、抽出された画像に対して識別を行なっても良い。かかる場合には、識別部114の処理負荷が軽減され、また識別結果の精度を高めることが可能となる。
(通信部116)
通信部116は、撮像画像毎の識別部114による識別結果(各識別器114a〜114lの評価値)を処理装置150に送信する(出力する)。なお、通信部116は、所定間隔で識別結果を処理装置150に順次送信する。
処理装置150は、情報処理装置100から順次受信した識別結果から、ユーザがどの指節を押圧したかを決定する。例えば、処理装置150は、評価値が最も高い識別器に対応するキーを入力したものと判定する。そして、処理装置150は、判定結果に基づいて、入力に対応する処理を実行する。なお、処理装置150は、入力処理した結果を通信部116に送信しても良い。
(表示制御部118)
表示制御部118は、通信部116から入力された識別結果に基づき処理装置150が入力処理した結果を、表示部130に表示させる。なお、表示部130は、撮像部110により撮像中のユーザの手を透過表示する。このため、表示部130は、ユーザの手を透過表示すると共に、処理装置150が入力処理した結果を表示する。
上記では、処理装置150は、評価値が最も高い識別器に対応するキーを入力したものと判定することとしたが、下記のように判定しても良い。すなわち、処理装置150は、所定時間内に最も高い評価値を評価した回数が最も多い識別器に対応するキーを入力したものと判定しても良く、評価値が所定の閾値を超えた回数が最も多い識別器に対応するキーを入力したものと判定しても良い。これにより、手を用いたより正確な入力が可能となる。
<3.押圧された指節の識別の変形例>
上記では、図6に示すように所定の指節にテープ140が貼られた指を撮像することで、押圧された指節を識別することとしたが、これに限定されず、以下に説明するように押圧された指節を識別しても良い。
図7は、押圧された指節の識別の第1変形例を説明するための図である。図7では、テープ140の代わりに、指にシール142が貼りつけられている。具体的には、図7の状態401に示すように、人差し指F2、中指F3、薬指F4、及び小指F5の各指節にシール142を貼りつけられている。なお、状態401では、薬指F4の末節F4cに貼られるシール142の数が2個であり、シール142の数が1個である他の指節と異なる。かかる場合には、薬指の末節を基準に各指節を識別することで、12個の指節の識別がしやすくなる。
また、図7の状態402に示すように、親指F1(具体的には、親指の爪)にシール142を貼り付けることとしても良い。これにより、親指F1が他の指F2〜F5の指節を押圧したことを識別しやすくなる。なお、図7では、指に直接シールを貼り付けることとしているが、これに限定されず、例えば手にはめた手袋の各指節に対応する位置にシールを貼り付けることとしても良い。
図8は、押圧された指節の識別の第2変形例を説明するための図である。図8では、手にはめた手袋160(装着体の一例)の各指節に対応する位置に識別可能なコード162が貼りつけられている。コード162として、例えばAR(Augmented Reality)コードを用いても良い。コード162には、各指節を特定する情報が含まれる。これにより、識別部114は、コード162も撮像された撮像画像に基づいて、親指が押圧した指節を識別しやすくなる。
図9は、押圧された指節の識別の第3変形例を説明するための図である。図9では、親指が指節を押圧した際に、手にはめた手袋160上にコード164が表示される。コード164には、押圧された指節を示す識別情報が含まれる。このため、コード164が表示された状態を撮像部110で撮像することにより、識別部114は、親指が押圧した指節を容易に識別できる。
図10は、押圧された指節の識別の第4変形例を説明するための図である。図10では、人指し指F2、中指F3、薬指F4、及び小指F5に貼られたテープ140の色が変化可能である。そして、テープ140は、親指F1が押圧した指節に応じた色を表示可能である。例えば、図10の状態501のように親指F1が人差し指F2の基節F2aを押圧し場合には、人差し指の2つのテープ140の色がデフォルト色から第1色に変化する。一方で、中指F3、薬指F4、及び小指F5のテープ140の色は、デフォルト色を維持する。また、状態502のように親指F1が人差し指F2の中節F2bを押圧した場合には、人差し指F2の2つのテープ140の色のみがデフォルト色から第2色に変化し、状態503のように親指F1が人指し指F2の末節F2cを押圧した場合には、人差し指F2の2つのテープ140の色のみがデフォルト色から第3色に変化する。
図10の状態504〜512に示すように中指F3、薬指F4、及び小指F5の指節が押圧された場合にも、各指に貼られたテープ140の色が同様に変化する。例えば、中指、薬指、小指の何れかの基節F3a、F4a、F5aが押圧された場合(状態504、507、510)には、押圧された指に貼られたテープ140の色のみがデフォルト色から第1色に変化する。なお、親指F1が掌に触れると、テープの色がデフォルト色に戻る。そして、撮像部110が、押圧された指節に応じてテープが表示する色を撮像することにより、識別部114は、親指が押圧した指節を容易に識別できる。なお、上記では、テープ140の色が第1色〜第3色に変化することとしたが、これに限定されず、各指の指節毎に異なる色(すなわち、12色)に変化することとしても良く、また1色で輝度を変化させても良い。
<4.指節の押圧タイミングの検出例>
次に、指節が押圧される押圧タイミングの検出例について、いくつかの実施例を例に挙げて説明する。
図11は、指節の押圧タイミングの検出の第1実施例を示す図である。図11では、親指に色が変化する指サック170(指示具の一例)を取り付けられている。そして、指サック170が他の指の指節を押圧した際に(図11の状態422)、指サック170の色が所定の色(例えば、赤色)に変わる。このような指サック170を撮像することで、識別部114は、指節が押されたタイミングを容易に検知できる。なお、親指が掌に触れると(状態421)、指サック170の色がデフォルトの色(例えば、白色)に変わる。
図12は、指節の押圧タイミングの検出の第2実施例を示す図である。図12では、親指の代わりに、接触体の一例であるペン172が指節を押圧している。ペン172は、発光可能な部材であり、指節を押圧した際にペン172の先端部172aが発光する。そして、ペンが発光した状態が撮像部110により撮像されることにより、識別部114は、ペンが指節を押圧したタイミングを容易に検知できる。
上記では、指節が押圧された際に、ペン172が発光し、又はテープ140の色が変化することとしたが、これに限定されない。例えば、情報処理装置100は、指の動きベクトルを検出し、検出した動きベクトルに基づいて、指節が押圧されたタイミングを検出することとしても良い。
指節が押圧される一の指の相対動きベクトルVpは、下記の式のように求められる。
Vp=V−Vh
ここで、Vは、一の指における動きベクトルの集合を示し、Vhは、5本の指の動きベクトルの平均を示す。そして、相対動きベクトルVpは、人指し指、中指、薬指、小指のそれぞれについて求められる。
図13は、相対動きベクトルVpを説明するための図である。相対動きベクトルVpは、指節を押圧する前後でベクトルの向きが反転するので、反転する割合を監視することにより、押圧タイミングを検出できる。このような相対動きベクトルVpを求めることで、指節が押下されたタイミングを検出できる。
ところで、指節が押圧された場合には、押圧された指節の膨らみ、指節の色、影が変化しうる。そこで、識別部114は、撮像部110から入力される所定間隔毎の撮像画像において、指節の膨らみの変化、指節の色の変化、影の変化を監視し、変化に基づいて指節押圧タイミングを検出しても良い。これにより、ペン等の指示具や指サック等を用いなくとも、押圧タイミングを検出できる。
上記では、識別部114が指節の押圧タイミングを検出する検出部の機能を有することとしたが、これに限定されない。識別部114とは異なる構成要素が、指節の押圧タイミングを検出することとしても良い。
<5.情報処理装置の動作例>
次に、一実施形態に係る情報処理装置100の動作例について説明する。以下では、情報処理装置100の動作例として、第1動作例〜第4動作例について説明する。情報処理装置100の動作は、情報処理装置100のCPUがROMに格納されているプログラムを実行することによって、実現される。なお、実行されるプログラムは、CD(Compact Disk)、DVD(Digital Versatile Disk)、メモリカード等の記録媒体に記憶されても良く、インターネットを介してサーバ等からダウンロードされても良い。
(第1動作例)
まず、図14を参照しながら、一実施形態に係る情報処理装置100の第1動作例を説明する。図14は、一実施形態に係る情報処理装置100の第1動作例を説明するためのフローチャートである。図14のフローチャートは、例えば撮像部110がONされたところから開始される。
まず、撮像部110は、文字等を入力したいユーザの手を撮像する(ステップS102)。すなわち、撮像部110は、ユーザがいずれかの指の指節を押圧した際の撮像画像を識別部114に出力する。次に、識別部114は、入力された撮像画像に基づいて、ユーザの何れの指節を押圧されたかを識別する(ステップS104)。例えば、それぞれテンキーに対応する識別器114a〜114lが、入力された撮像画像に対して評価値を決定する。
次に、通信部116は、識別結果(例えば、識別器114a〜114lによる評価値)を処理装置150に出力する(ステップS106)。なお、通信部116は、評価値を処理装置150に順次出力する。そして、処理装置150は、入力された評価結果に基づき、ユーザがどの指節を押圧したかを決定する。例えば、処理装置150は、評価値が最も高い識別器に対応するキーを入力したものと判定し、入力に対応する処理を実行する。
入力を継続する場合には(ステップS108:Yes)、上述したステップS102〜106の処理を繰り返す。一方で、入力を終了する場合には、情報処理装置100の動作が完了する。
第1動作例によれば、手にセンサ等を設けなくても、テンキーの代わりにユーザが自己の指節を押圧することにより、ユーザが意図する入力を識別することが可能となる。
(第2動作例)
図15は、一実施形態に係る情報処理装置100の第2動作例を説明するためのフローチャートである。
図15に示す第2動作例では、ステップS102で撮像された撮像画像におけるユーザの手領域が認識され、認識した手領域の画像が抽出される(ステップS122)。そして、識別部114は、抽出画像に対して、ユーザが何れの指節を押圧したかを識別する(ステップS104)。
第2動作例によれば、識別部114による識別対象の画像の領域を小さくでき、判定の精度を向上させることができる。かかる場合に、学習部112も、手領域に対応する画像を予め取得しておけば良い。
(第3動作例)
図16は、一実施形態に係る情報処理装置100の第3動作例を説明するためのフローチャートである。
図16に示す第3動作例では、識別部114は、ステップS102で撮像された撮像画像に基づいて、指節の押圧タイミングを判定する(ステップS132)。具体的には、識別部114は、指節を押圧する指示具(ペン等)が発光した際に撮像された撮像画像から、指節の押圧タイミングを判定する。次に、識別部114は、押圧タイミングにおいて、ユーザが何れの指節を押圧したかを識別する(ステップS104)。
第3動作例によれば、識別部114による識別処理を行うタイミングが限定され、識別部114による判定の精度を向上させることができる。また、識別部114の処理に起因する電力消費も抑制できるので、スマートフォン等の携帯端末のように電力が限られている場合に有効である。
(第4動作例)
図17は、一実施形態に係る情報処理装置100の第4動作例を説明するためのフローチャートである。
図17に示す第4動作例では、識別部114は、ステップS102で撮像された撮像画像に対して、各指節に対応する領域を抽出する(ステップS142)。例えば、識別部114は、人差し指、中指、薬指、及び小指の基節、中節、末節に対応する12個の領域を抽出する。
次に、識別部114は、抽出した各領域における指節の色の変化を検出する(ステップS144)。一般的に、押圧される前の指節は赤みを帯びているのに対して、押圧されると指節は黄色みを帯びる。そこで、識別部114は、指節の色が赤色と黄色の間で変動しているかを検出する。具体的には、識別部114は、領域におけるR成分の画素数(具体的には、R>G+20の関係にある画素数)と、G成分の画素数(G−10<R<G+10の関係にある画素数)の比を参照することで、色の変動を検出する。そして、識別部114は、色の変動があったことを検出すると、指節が押圧されたと判定する(ステップS146)。
第4動作例によれば、指節の色の変化を検出することにより、ペンやスタイラス等の指示具や指サック等を用いなくとも、指節の押圧タイミングを適切に検出できる。
(情報処理装置の表示例)
指節を押圧することにより入力を行う際に、情報処理装置100の表示部に、撮像中のユーザの手と入力情報とが表示される。
図18は、一実施形態に係る情報処理装置100の表示部130の表示例を示す図である。図18に示す表示部130は、撮像部110により撮像中のユーザの手を透過表示すると共に、親指F1が押圧した指節に対応して入力された文字の入力画面132を表示させる。これにより、ユーザは、人差し指F2、中指F3、薬指F4、小指F5の指節を押圧しながら、入力画面132に入力される文字を確認することができる。
図19は、一実施形態に係る情報処理装置100の表示部の表示例を示す図である。図19に示す表示部130は、撮像部110により撮像中のユーザの手を透過表示すると共に、掌に対応する領域にタッチパッド134を表示させる。ユーザは、表示されたタッチパッド134上でタッチ操作を行うことで、マウスの代わりに入力操作を行うことができる。
なお、上記では、片手の指の指節に対応する入力を行うこととしたが、これに限定されない。例えば、図20に示すように、両手の指の指節に対応する入力を行うこととしても良い。かかる場合には、より多いキーに対応する入力が可能となる。図20は、両手を用いた場合の実施例を示す図である。
また、上記では、撮像部110は、5本の指を全て撮像することとしたが、これに限定されず、例えば、撮像部110は、少なくとも押圧された指節を有する指を撮像することとしても良い。さらに、上記では、親指やペン等が指節を押圧した状態を撮像することにより、入力処理を行うこととしたが、これに限定されず、例えば、親指やペン等が指節に接触した状態を撮像することにより、入力処理を行うこととしても良い。
<6.ハードウェア構成>
上述した情報処理装置100による表示制御動作は、情報処理装置100が備えるハードウェア構成とソフトウェアとが協働することにより実現される。そこで、以下では、情報処理装置100のハードウェア構成を説明する。
図21は、情報処理装置100のハードウェア構成を示した説明図である。図21に示すように、情報処理装置100は、CPU(Central Processing Unit)201と、ROM(Read Only Memory)202と、RAM(Random Access Memory)203と、入力装置208と、出力装置210と、ストレージ装置211と、ドライブ212と、撮像装置213と、通信装置215とを備える。
CPU201は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置100内の動作全般を制御する。また、CPU201は、マイクロプロセッサであってもよい。ROM202は、CPU201が使用するプログラムや演算パラメータ等を記憶する。RAM203は、CPU201の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバスにより相互に接続されている。
入力装置208は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチおよびレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU201に出力する入力制御回路などから構成されている。情報処理装置100のユーザは、該入力装置208を操作することにより、情報処理装置100に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置210は、例えば、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置およびランプなどの表示装置を含む。さらに、出力装置210は、スピーカおよびヘッドホンなどの音声出力装置を含む。例えば、表示装置は、撮像された画像や生成された画像などを表示する。一方、音声出力装置は、音声データ等を音声に変換して出力する。
ストレージ装置211は、本実施形態にかかる情報処理装置100の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置211は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。このストレージ装置211は、CPU201が実行するプログラムや各種データを格納する。
撮像装置213は、光を集光する撮影レンズおよびズームレンズなどの撮像光学系、およびCCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの信号変換素子を備える。撮像光学系は、被写体から発せられる光を集光して信号変換部に被写体像を形成し、信号変換素子は、形成された被写体像を電気的な画像信号に変換する。
通信装置215は、例えば、ネットワーク12に接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置215は、無線LAN(Local Area Network)対応通信装置であっても、LTE(Long Term Evolution)対応通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。
なお、ネットワーク12は、ネットワーク12に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、ネットワーク12は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク12は、IP−VPN(Internet Protocol−Virtual Private Network)などの専用回線網を含んでもよい。
<7.まとめ>
上述したように、本開示の情報処理装置100は、複数の入力子(例えば、テンキーを構成するキー)のうちの、撮像部110の撮像画像において親指が接触した一の指節に対応する入力子(キー)を識別する。また、情報処理装置100は、複数の入力子に対応する入力処理を行う処理装置150に、識別部114による識別結果を出力する。
かかる場合には、ユーザが自己の指の指節に接触した状態を撮像部110に撮像することで入力処理を行うことができるので、センサや電極等を取り付ける事無く、簡易な構成にて入力を行うことができる。特に、4本の指(人差し指、中指、薬指、小指)の指節を用いることで、従来のテンキーと同様な入力を行うことができるので、ユーザの操作性の低下も防止できる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、上記の実施形態のフローチャートに示されたステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的に又は個別的に実行される処理をも含む。また時系列的に処理されるステップでも、場合によっては適宜順序を変更することが可能であることは言うまでもない。
本明細書において説明した情報処理装置による処理は、ソフトウェア、ハードウェア、及びソフトウェアとハードウェアとの組合せのいずれを用いて実現されてもよい。ソフトウェアを構成するプログラムは、例えば、各装置の内部又は外部に設けられる記憶媒体に予め格納される。そして、各プログラムは、例えば、実行時にRAM(Random Access Memory)に読み込まれ、CPUなどのプロセッサにより実行される。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
手の少なくとも1本以上の指のうちの一の指節を接触体が接触した状態を撮像する撮像部と、
複数の入力子のうちの、前記撮像部の撮像画像において前記接触体が接触した前記一の指節に対応する入力子を識別する識別部と、
前記複数の入力子に対応する入力処理を行う処理装置に、前記識別部による識別結果を出力する出力部と、
を備える、情報処理装置。
(2)
前記手の人差し指、中指、薬指、及び小指の各指節が、前記複数の入力子の各入力子とそれぞれ対応する、
前記(1)に記載の情報処理装置。
(3)
前記複数の入力子は、テンキーを構成する、
前記(2)に記載の情報処理装置。
(4)
前記接触体は、前記手の親指である、
前記(1)〜(3)のいずれか1項に記載の情報処理装置。
(5)
前記接触体は、前記指節に接触した際に発光し、
前記情報処理装置は、前記接触体の発光状態に基づいて、前記接触体が前記指節に接触したタイミングを検出する検出部を更に備える、
前記(1)〜(3)のいずれか1項に記載の情報処理装置。
(6)
前記情報処理装置は、前記指節の膨らみや色の変化に基づいて、前記接触体が前記指節に接触したタイミングを検出する検出部を更に備える、
前記(1)〜(4)のいずれか1項に記載の情報処理装置。
(7)
前記情報処理装置は、前記指の動きベクトルに基づいて、前記接触体が前記指節に接触したタイミングを検出する検出部を更に備える、
前記(1)〜(4)のいずれか1項に記載の情報処理装置。
(8)
前記撮像部は、前記接触体と共に、前記指の指節に対応する領域に設けられた識別体を撮像する、
前記(1)〜(7)のいずれか1項に記載の情報処理装置。
(9)
前記識別体は、前記接触体が接触した指節に応じた色を表示可能であり、
前記撮像部は、前記識別体が表示する色を撮像する、
前記(8)に記載の情報処理装置。
(10)
前記手に装着される装着体は、前記接触体が指節に接触した際に前記指節を示す識別情報を表示可能であり、
前記撮像部は、前記接触体と共に、前記識別情報を撮像する、
前記(1)〜(7)のいずれか1項に記載の情報処理装置。
(11)
前記情報処理装置は、前記撮像部により撮像中の前記指を透過表示すると共に、前記出力部から入力された前記識別結果に基づき前記処理装置が入力処理した結果を表示する表示部を更に備える、
前記(1)〜(10)のいずれか1項に記載の情報処理装置。
(12)
手の少なくとも1本以上の指のうちの一の指節を接触体が接触した状態を撮像部により撮像することと、
複数の入力子のうちの、前記撮像部の撮像画像において前記接触体が接触した前記一の指節に対応する入力子を識別することと、
前記複数の入力子に対応する入力処理を行う処理装置に、前記識別部による識別結果を出力することと、
を含む、情報処理方法。
(13)
コンピュータに、
手の少なくとも1本以上の指のうちの一の指節を接触体が接触した状態を撮像部により撮像することと、
複数の入力子のうちの、前記撮像部の撮像画像において前記接触体が接触した前記一の指節に対応する入力子を識別することと、
前記複数の入力子に対応する入力処理を行う処理装置に、前記識別部による識別結果を出力することと、
を実行させるための、プログラム。
1 情報処理システム
100 情報処理装置
110 撮像部
112 学習部
114 識別部
116 通信部
118 表示制御部
130 表示部
140 テープ
142 シール
150 処理装置
160 手袋
162、164 コード
172 ペン

Claims (13)

  1. 手の少なくとも1本以上の指のうちの一の指節を接触体が接触した状態を撮像する撮像部と、
    複数の入力子のうちの、前記撮像部の撮像画像において前記接触体が接触した前記一の指節に対応する入力子を識別する識別部と、
    前記複数の入力子に対応する入力処理を行う処理装置に、前記識別部による識別結果を出力する出力部と、
    を備える、情報処理装置。
  2. 前記手の人差し指、中指、薬指、及び小指の各指節が、前記複数の入力子の各入力子とそれぞれ対応する、
    請求項1に記載の情報処理装置。
  3. 前記複数の入力子は、テンキーを構成する、
    請求項2に記載の情報処理装置。
  4. 前記接触体は、前記手の親指である、
    請求項1〜3のいずれか1項に記載の情報処理装置。
  5. 前記接触体は、前記指節に接触した際に発光し、
    前記情報処理装置は、前記接触体の発光状態に基づいて、前記接触体が前記指節に接触したタイミングを検出する検出部を更に備える、
    請求項1〜3のいずれか1項に記載の情報処理装置。
  6. 前記情報処理装置は、前記指節の膨らみや色の変化に基づいて、前記接触体が前記指節に接触したタイミングを検出する検出部を更に備える、
    請求項1〜4のいずれか1項に記載の情報処理装置。
  7. 前記情報処理装置は、前記指の動きベクトルに基づいて、前記接触体が前記指節に接触したタイミングを検出する検出部を更に備える、
    請求項1〜4のいずれか1項に記載の情報処理装置。
  8. 前記撮像部は、前記接触体と共に、前記指の指節に対応する領域に設けられた識別体を撮像する、
    請求項1〜7のいずれか1項に記載の情報処理装置。
  9. 前記識別体は、前記接触体が接触した指節に応じた色を表示可能であり、
    前記撮像部は、前記識別体が表示する色を撮像する、
    請求項8に記載の情報処理装置。
  10. 前記手に装着される装着体は、前記接触体が指節に接触した際に前記指節を示す識別情報を表示可能であり、
    前記撮像部は、前記接触体と共に、前記識別情報を撮像する、
    請求項1〜7のいずれか1項に記載の情報処理装置。
  11. 前記情報処理装置は、前記撮像部により撮像中の前記指を透過表示すると共に、前記出力部から入力された前記識別結果に基づき前記処理装置が入力処理した結果を表示する表示部を更に備える、
    請求項1〜10のいずれか1項に記載の情報処理装置。
  12. 手の少なくとも1本以上の指のうちの一の指節を接触体が接触した状態を撮像部により撮像することと、
    複数の入力子のうちの、前記撮像部の撮像画像において前記接触体が接触した前記一の指節に対応する入力子を識別することと、
    前記複数の入力子に対応する入力処理を行う処理装置に、前記識別した識別結果を出力することと、
    を含む、情報処理方法。
  13. コンピュータに、
    手の少なくとも1本以上の指のうちの一の指節を接触体が接触した状態を撮像部により撮像することと、
    複数の入力子のうちの、前記撮像部の撮像画像において前記接触体が接触した前記一の指節に対応する入力子を識別することと、
    前記複数の入力子に対応する入力処理を行う処理装置に、前記識別した識別結果を出力することと、
    を実行させるための、プログラム。
JP2014514411A 2012-05-09 2013-04-10 情報処理装置、情報処理方法、及びプログラム Active JP6036817B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012107410 2012-05-09
JP2012107410 2012-05-09
PCT/JP2013/060839 WO2013168508A1 (ja) 2012-05-09 2013-04-10 情報処理装置、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2013168508A1 JPWO2013168508A1 (ja) 2016-01-07
JP6036817B2 true JP6036817B2 (ja) 2016-11-30

Family

ID=49550561

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014514411A Active JP6036817B2 (ja) 2012-05-09 2013-04-10 情報処理装置、情報処理方法、及びプログラム

Country Status (5)

Country Link
US (1) US20150109197A1 (ja)
EP (1) EP2849035A4 (ja)
JP (1) JP6036817B2 (ja)
CN (1) CN104272225B (ja)
WO (1) WO2013168508A1 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102184402B1 (ko) * 2014-03-06 2020-11-30 엘지전자 주식회사 글래스 타입의 이동 단말기
US10175825B2 (en) * 2014-07-30 2019-01-08 Sony Corporation Information processing apparatus, information processing method, and program for determining contact on the basis of a change in color of an image
US10346992B2 (en) * 2014-07-30 2019-07-09 Sony Corporation Information processing apparatus, information processing method, and program
WO2016185845A1 (ja) * 2015-05-21 2016-11-24 日本電気株式会社 インタフェース制御システム、インタフェース制御装置、インタフェース制御方法、及びプログラム
US10528138B2 (en) 2015-11-06 2020-01-07 Facebook Technologies, Llc Virtual reality garment capable of jamming user movement
US10572014B2 (en) * 2015-11-09 2020-02-25 Facebook Technologies, Llc Virtual reality garment configured to restrict user movement by repositioning a rigid cuff relative to the user
CN107632716B (zh) * 2017-11-07 2024-03-08 王可攀 一种输入信息处理装置及其处理输入信息的方法
US11275453B1 (en) 2019-09-30 2022-03-15 Snap Inc. Smart ring for manipulating virtual objects displayed by a wearable device
CN111007942A (zh) * 2019-12-25 2020-04-14 歌尔股份有限公司 一种可穿戴设备及其输入方法
US11798429B1 (en) 2020-05-04 2023-10-24 Snap Inc. Virtual tutorials for musical instruments with finger tracking in augmented reality
US11520399B2 (en) 2020-05-26 2022-12-06 Snap Inc. Interactive augmented reality experiences using positional tracking
CN111427458B (zh) * 2020-06-11 2020-12-22 诺百爱(杭州)科技有限责任公司 一种基于手部动作虚拟输入字符的方法、装置和电子设备
JP7472734B2 (ja) 2020-09-17 2024-04-23 サクサ株式会社 画像処理装置及びプログラム
US11925863B2 (en) 2020-09-18 2024-03-12 Snap Inc. Tracking hand gestures for interactive game control in augmented reality
US11546505B2 (en) 2020-09-28 2023-01-03 Snap Inc. Touchless photo capture in response to detected hand gestures
US11740313B2 (en) 2020-12-30 2023-08-29 Snap Inc. Augmented reality precision tracking and display
US11531402B1 (en) 2021-02-25 2022-12-20 Snap Inc. Bimanual gestures for controlling virtual and graphical elements
US12013985B1 (en) 2021-02-25 2024-06-18 Snap Inc. Single-handed gestures for reviewing virtual content
US20220326781A1 (en) * 2021-04-08 2022-10-13 Snap Inc. Bimanual interactions between mapped hand regions for controlling virtual and graphical elements
US11861070B2 (en) 2021-04-19 2024-01-02 Snap Inc. Hand gestures for animating and controlling virtual and graphical elements

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10207602A (ja) * 1997-01-21 1998-08-07 Canon Inc 記号入力装置
JP2000112651A (ja) * 1998-10-06 2000-04-21 Olympus Optical Co Ltd ポインティング機構
JP2000298544A (ja) * 1999-04-12 2000-10-24 Matsushita Electric Ind Co Ltd 入出力装置と入出力方法
US6771294B1 (en) * 1999-12-29 2004-08-03 Petri Pulli User interface
JP2001242983A (ja) 2000-02-25 2001-09-07 Katsutoshi Muto コンピュータ入力装置
US6763320B2 (en) * 2002-08-15 2004-07-13 International Business Machines Corporation Data input device for individuals with limited hand function
KR20060022984A (ko) * 2004-09-08 2006-03-13 홍광석 키패드 글러브 장치
WO2006091753A2 (en) * 2005-02-23 2006-08-31 Zienon, L.L.C. Method and apparatus for data entry input
GB0622451D0 (en) * 2006-11-10 2006-12-20 Intelligent Earth Ltd Object position and orientation detection device
JP2009146333A (ja) * 2007-12-18 2009-07-02 Panasonic Corp 空間入力動作表示装置
US20100060611A1 (en) * 2008-09-05 2010-03-11 Sony Ericsson Mobile Communication Ab Touch display with switchable infrared illumination for touch position determination and methods thereof
JP2010086367A (ja) * 2008-10-01 2010-04-15 Sony Corp 位置情報入力装置、位置情報入力方法、プログラム、情報処理システム、及び電子装置
US8310464B2 (en) * 2008-10-16 2012-11-13 Texas Instruments Incorporated Simultaneous multiple location touch systems
JP5252432B2 (ja) 2008-12-01 2013-07-31 国立大学法人岐阜大学 指関節角度推定装置
US20100177039A1 (en) * 2009-01-10 2010-07-15 Isaac Grant Finger Indicia Input Device for Computer
JP2011180843A (ja) * 2010-03-01 2011-09-15 Sony Corp 情報処理装置、情報処理方法、およびプログラム
JP2011221699A (ja) 2010-04-07 2011-11-04 Yaskawa Electric Corp 操作指示認識装置及びロボット
US20120056805A1 (en) * 2010-09-03 2012-03-08 Intellectual Properties International, LLC Hand mountable cursor control and input device
US9030425B2 (en) * 2011-04-19 2015-05-12 Sony Computer Entertainment Inc. Detection of interaction with virtual object from finger color change
US8228315B1 (en) * 2011-07-12 2012-07-24 Google Inc. Methods and systems for a virtual input device
JP2013061848A (ja) * 2011-09-14 2013-04-04 Panasonic Corp 非接触入力装置
WO2013086023A1 (en) * 2011-12-05 2013-06-13 Northeastern University Customized, mechanically-assistive rehabilitation apparatus and method for distal extremities of the upper and lower regions

Also Published As

Publication number Publication date
WO2013168508A1 (ja) 2013-11-14
EP2849035A4 (en) 2016-05-11
JPWO2013168508A1 (ja) 2016-01-07
CN104272225B (zh) 2017-11-03
CN104272225A (zh) 2015-01-07
US20150109197A1 (en) 2015-04-23
EP2849035A1 (en) 2015-03-18

Similar Documents

Publication Publication Date Title
JP6036817B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US11886667B2 (en) Always-available input through finger instrumentation
JP5263833B2 (ja) ウェアラブルコンピュータに用いるリング型インタフェース、インタフェース装置、およびインタフェース方法
JP2011180843A (ja) 情報処理装置、情報処理方法、およびプログラム
US20040263473A1 (en) Wearable finger montion sensor for sensing finger motion and method of sensing finger motion using the same
CN102906671A (zh) 手势输入装置及手势输入方法
CN104583906A (zh) 便携式设备的输入方法和装置
CN103425244A (zh) 手势识别
JP2004078977A (ja) インターフェイス装置
WO2015125317A1 (ja) コード読取装置
WO2017047180A1 (ja) 情報処理装置、情報処理方法、およびプログラム
CN105912119A (zh) 用于字符输入的方法和可穿戴装置
KR102526951B1 (ko) 전자 장치에서 생체 정보 측정 방법 및 장치
US20170277428A1 (en) Information processing device, information processing method, and non-transitory computer readable memory medium
KR101281461B1 (ko) 영상분석을 이용한 멀티 터치 입력 방법 및 시스템
Arakawa et al. Hand with Sensing Sphere: Body-Centered Spatial Interactions with a Hand-Worn Spherical Camera
KR20180095184A (ko) 컬러 인식 문자 정보 전송 시스템
JP2015184906A (ja) 肌色検出条件決定装置、肌色検出条件決定方法及び肌色検出条件決定用コンピュータプログラム
JP2000029619A (ja) コンピュータ装置
Pansare et al. Gestuelle: A system to recognize dynamic hand gestures using hidden Markov model to control windows applications
US11797086B2 (en) Wearable finger tap detection system with low power mode
US11449695B2 (en) Reading system and camera
WO2016056260A1 (ja) ジェスチャ入力時におけるノイズ除去方法
Waghmare et al. OptiRing: Low-Resolution Optical Sensing for Subtle Thumb-to-Index Micro-Interactions
CN103677313A (zh) 电子设备以及控制方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160331

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161017

R151 Written notification of patent or utility model registration

Ref document number: 6036817

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250