JP7199441B2 - 入力装置 - Google Patents

入力装置 Download PDF

Info

Publication number
JP7199441B2
JP7199441B2 JP2020538192A JP2020538192A JP7199441B2 JP 7199441 B2 JP7199441 B2 JP 7199441B2 JP 2020538192 A JP2020538192 A JP 2020538192A JP 2020538192 A JP2020538192 A JP 2020538192A JP 7199441 B2 JP7199441 B2 JP 7199441B2
Authority
JP
Japan
Prior art keywords
virtual
pressed
fingers
fingertip
key
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020538192A
Other languages
English (en)
Other versions
JPWO2020039703A1 (ja
Inventor
繁 赤松
浩一 浅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Publication of JPWO2020039703A1 publication Critical patent/JPWO2020039703A1/ja
Application granted granted Critical
Publication of JP7199441B2 publication Critical patent/JP7199441B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Input From Keyboards Or The Like (AREA)

Description

本発明は、入力装置に関する。
近年、仮想キーボードを用いて入力操作を行う技術が開発されている。特許文献1には、サイズの異なる複数の仮想キーボードを記憶し、ユーザの手の大きさに合った大きさの仮想キーボードを選択し、手の姿勢に合わせて複数のキーを配置し、指の特定の動作に基づいて押下されたキーを検出する方法が開示されている。
特開2014-165660号公報
しかしながら、従来の技術では、実空間のどの位置にどのようにキーを配置するかが明らかでなかった。したがって、ユーザの手に十分合った仮想キーボードを生成することができないため、押下されたキーを誤検出する可能性が高いといった問題があった。また一般的に、ユーザが仮想キーボードを利用する際、仮想キーの選択、および仮想キーが押下されたことの判定が正確になされないという問題もあった。
以上の課題を解決するために、本発明の好適な態様に係る入力装置は、初期状態における複数の指の指先位置のうち少なくとも3本の指の指先位置に基づいて、複数の仮想キーが配置される基準面を決定する決定部と、前記初期状態における前記少なくとも3本の指の指先位置のうち特定の指の指先位置に基づいて、前記複数の仮想キーにそれぞれ対応し、対応する仮想キーが押下されたことを各々が検出する複数の検出範囲を前記基準面に設定する仮想キー設定部と、入力操作における前記複数の指の指先位置と、前記複数の仮想キーの各々について前記基準面に設定された前記複数の検出範囲との位置関係に応じて、前記複数の仮想キーの中から押下された仮想キーを特定する押下キー特定部と、を備える。
本発明に係る入力装置によれば、ユーザの指の指先位置に応じて定まる基準面に仮想キーが押下されたことを検出するための複数の検出範囲を設定するので、押下された仮想キーを高い精度で特定することが可能となる。
本発明の実施形態に係る入力装置の外観構成を示す斜視図である。 同実施形態の入力装置のハードウェア構成を例示するブロック図である。 同実施形態の入力装置の機能を示す機能ブロック図である。 同実施形態おいて初期状態におけるユーザの左右の手を例示する斜視図である。 同実施形態において左右の手に対応する基準面を説明するための斜視図である。 同実施形態の検出範囲を説明するための説明図である。 同実施形態の押下キー特定部の詳細な機能を示す機能ブロック図である。 同実施形態の表示装置に表示される画面例を示す説明図である。 同実施形態の入力装置の動作を示すフローチャートである。 変形例1に係る検出範囲を説明するための平面図である。 変形例2に係る入力装置の機能を示す機能ブロック図である。
[1.第1実施形態]
[1.1.入力装置の外観構成]
図1は、本発明の実施形態に係る入力装置の外観構成を示す斜視図である。図1に示す入力装置10は、ゴーグル型のヘッドマウントディスプレイである。ユーザUは、入力装置10を頭部に装着する。入力装置10を頭部に装着した状態では、ユーザUが視認できるのは、入力装置10の内側に設けられた表示装置14に表示される画像である。
表示装置14には、仮想空間においてユーザUのキャラクタが戦闘するゲーム、3D映画、SNS(Social Networking Service)等のWebコンテンツ、あるいはメール等を表示することができる。入力装置10がユーザUの頭部に装着された状態では、ユーザUは表示装置14の外部を視認することができない。この状態でも、ユーザUがテキスト等のデータを入力できるようにするため、入力装置10は、仮想キーボードを用いてデータの入力を受け付ける機能を有する。仮想キーボートとは、実空間に存在せず、仮想的に生成されたキーボードである。仮想キーボードには複数の仮想キーが配置されている。
[1.2.入力装置のハードウェア構成]
図2は、入力装置10のハードウェア構成を例示するブロック図である。入力装置10は、処理装置11、記憶装置12、通信装置13、表示装置14、センサ群S及びこれらの装置を接続するバス19を備える。バス19は、単一のバスで構成されてもよいし、装置間で異なるバスで構成されてもよい。
処理装置11は、入力装置10の全体を制御するプロセッサであり、例えば単数又は複数のチップで構成される。処理装置11は、例えば、周辺装置とのインタフェース、演算装置及びレジスタ等を含む中央処理装置(CPU:Central Processing Unit)とによって構成される。なお、処理装置11の機能の一部又は全部が、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)等のハードウェアによって実現されてもよい。処理装置11は、各種の処理を並列的又は逐次的に実行する。
記憶装置12は、処理装置11が読取可能な記録媒体であり、処理装置11が実行する制御プログラムPRを含む複数のプログラム、及び処理装置11が使用する各種のデータを記憶する。記憶装置12は、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)等の記憶回路の1種類以上で構成される。
通信装置13は、他の装置と通信する機器であり、移動体通信網又はインターネット等のネットワークを介して他の装置と通信する機能、近距離無線通信によって他の装置と通信する機能を備える。近距離無線通信には、例えばBluetooth(登録商標)、ZigBee、又は、WiFi(登録商標)等が挙げられる。
表示装置14は、処理装置11による制御のもとで各種の画像を表示する。例えば液晶表示パネル、又は有機EL(Electro Luminescence)表示パネル等の各種の表示パネルが表示装置14として好適に利用される。
センサ群Sは、物理量を計測する複数のセンサによって構成される。入力装置10は、センサ群Sの出力データに基づいて、ユーザUの左右の手の3次元の形状を特定する。この例のセンサ群Sは、第1撮像装置15、第2撮像装置16、加速度センサ17及びジャイロセンサ18を備える。
第1撮像装置15は、被写体を撮像し、撮像結果に応じた第1画像データDG1を出力する。第2撮像装置16は、被写体を撮像し、撮像結果に応じた第1画像データDG2を出力する。図1に示すように第1撮像装置15と第2撮像装置16とは、所定距離だけ離間して配置されている。したがって、ユーザUの左右の手が撮像された場合、第1画像データDG1と第2画像データDG2とに基づいて、左右の手の3次元の形状を特定することが可能となる。なお、左右の手の3次元の形状を特定するための構成は、第1撮像装置15と第2撮像装置16に限られない。例えば、3つ以上の撮像装置を用いて、手の3次元の形状を特定してもよい。要は、手の3次元の形状を特定するために、物理量を計測する2個以上のセンサを用いればよい。
以下の説明において、「手(hand)」とは、ユーザUの手首から指先までの、身体の部分を意味し、親指と、人差指と、中指と、薬指と、小指と含む。なお、以下の説明においては、英語圏でいう「親指(thumb)」を「指(finger)」と呼ぶ場合がある。つまり、「指(fingers)」とは、親指と、人差指と、中指と、薬指と、小指とを含む概念である。手の形状には、5本の指の指先位置及び手のひらの形状が含まれる。
加速度センサ17は、互いに直交する3軸の各方向の加速度を計測し、計測結果に応じた加速度データD1を出力する。加速度データD1は、入力装置10に加わる加速度を表す。また、ジャイロセンサ18は、互いに直交するヨー軸、ピッチ軸、ロール軸の各軸を中心とする回転の角加速度を計測し、計測結果を示す角加速度データD2を出力する。角加速度データD2に基づいて、入力装置10の傾きを検出することができる。
[1.3.入力装置の機能]
図3は、入力装置10の機能を示す機能ブロック図である。処理装置11は記憶装置12から読み取った制御プログラムPRを実行する。制御プログラムPRの実行によって、手形状認識部20、右手処理部30R、左手処理部30L、及び画像生成部40の機能が実現される。
手形状認識部20は、第1画像データDG1と第2画像データDG2とに基づいて、ユーザUの手の形状を3次元で表現する手形状データDR及び手形状データDLをそれぞれ生成する。第1画像データDG1と第2画像データDG2とは、物理量を計測するセンサの出力データの一例である。手形状データDRはユーザUの右手の形状を示し、手形状データDLはユーザUの左手の形状を示す。手形状データDR及び手形状データDLは、例えば、手の形状がワイヤーフレームの形式において示されるデータである。
右手処理部30Rは、手形状データDRに基づいて、右手用の仮想キーボードを示す仮想キーボードデータKB1と、ユーザUが右手で押下した仮想キーを示す押下キーデータDp1を生成する。左手処理部30Lは、手形状データDLに基づいて、左手用の仮想キーボードを示す仮想キーボードデータKB2と、ユーザUが左手で押下した仮想キーを示す押下キーデータDp2を生成する。即ち、本実施形態では、ユーザUの入力操作に左右で分離した2つの仮想キーボードを用いる。なお、左手処理部30Lは、右手処理部30Rと同様に構成されているので、左手処理部30Lについての説明を省略する。
右手処理部30Rは、指先位置特定部31、手のひら形状特定部32、決定部33、仮想キー設定部34、及び押下キー特定部35を備える。指先位置特定部31は、手形状データDRに基づいて、5本の指の指先位置を示す指先位置データDtpを生成する。手のひら形状特定部32は、手形状データDRに基づいて、手のひらの形状を示す手のひら形状データDhを生成する。
決定部33は、初期状態における複数の指の指先位置に基づいて、複数の仮想キーが配置される基準面を決定する。ここで、基準面を決定するために必要な指先位置の数は、少なくとも3つである。初期状態とは、入力操作前の状態であって、ユーザUが右手用の仮想キーボードの位置決めを行うためにユーザUが左右の手を構えた状態の意味である。
より具体的には、決定部33は、指先位置データDtpに基づいて、5本の指のうち3本の指の指先位置を特定する。決定部33は、特定した3本の指の指先位置を含む面を基準面として決定する。基準面は平面に限られず曲面であってもよい。3本の指の指先位置は、仮想キーボードと接する位置と考えることができるので、決定部33は、3本の指の指先位置に基づいて基準面を決定できる。3次元空間上の3点が決定されれば、これら3点を含む平面を一意に決定できる。基準面が平面である場合、決定部33は、3本の指の指先位置を含む平面を基準面として決定する。一方、基準面が曲面である場合、決定部33は、所定の関数を用いて曲面を決定する。所定の関数は入力される3点の3次元座標に応じた曲面を一意に定める。決定部33は、所定の関数に3本の指の指先位置を入力し、3本の指の指先位置を含む曲面を基準面として決定する。基準面を曲面とした場合には、仮想キーボードは、いわゆるエルゴノミクスタイプのキーボードであってもよい。
ここで、基準面を決定するために用いられる3本の指の指先位置は、親指の指先位置、薬指の指先位置、及び子指の指先位置であることが好ましい。親指、薬指、及び小指は、右手の甲側から見て、左端、右端よりも左側、右端にそれぞれ位置する。このため、これらの指により、右手全体で基準面を決定することができる。親指、薬指及び小指は、実空間において手のひらの位置を安定させる指なので、決定部33は他の指の組み合わせと比較して、より正確に基準面を定めることができる。
さらに、決定部33は、初期状態における3本の指の指先位置に基づいて仮基準面を決定し、3本の指以外の少なくとも1本の指の指先位置に基づいて、仮基準面を補正することによって、基準面を決定してもよい。このように基準面を決定することにより、3本の指以外の少なくとも1本の指の指先位置を基準面に反映させることができる。このため、仮基準面を決めずに基準面を決める場合と比較して、ユーザUにとって、より使いやすい基準面(平面又は曲面)を定めることができる。この場合、4本の指の指先位置に基づいて基準面が決定されることになるが、4本の指には小指、薬指、及び親指が含まれることが好ましい。
例えば、決定部33は、3本の指の指先位置に基づいて仮基準面としての平面を特定し、人差指の指先位置及び中指の指先位置に基づいて、仮基準面を補正することによって、ユーザUの手にフィットした曲面の基準面を特定してもよい。この場合、基準面の決定には、3本の指以外の少なくとも1本の指の指先位置で仮基準面を補正して曲面の基準面を特定する所定の関数を用いればよい。
決定部33は、4本以上の指の指先位置に基づいて基準面を決定してもよい。この場合、決定部33は、最小2乗法を用いて、各指の指先位置から基準面までの距離を誤差として、誤差の合計を最小にする基準面を定めてもよい。
例えば、図4Aに示すようにユーザUが右手と左手を構えた場合、右手処理部30Rの決定部33は図4Bに示す基準面P1(第1基準面の一例)を決定し、左手処理部30Lの決定部33は、図4Bに示す基準面P2(第2基準面の一例)を決定する。右手と左手とで、異なる基準面P1及びP2を設定することによって、右手用の仮想キーボードと左手用の仮想キーボードとを生成することができる。
なお、右手処理部30Rの決定部33は、ユーザUによる入力操作中に、基準面P1をユーザUの右手の動きに追従して動かしてもよい。具体的には、決定部33は、手のひら形状データDhに基づいて、手のひらの動きを特定し、基準面を手のひらの動きに応じて移動させればよい。また、決定部33は、例えば、手のひらの重心の動きによって、手のひらの動きを特定してもよい。入力操作において、指の動きと手のひらの動きを比較すると、指の動きの度合いは手のひらの動きの度合いより大きい。このため、手のひらの動きに基づいて基準面を移動させることが好ましい。このように、ユーザUの手の動きに追随して基準面を移動させることによって、あたかもユーザUの手に付いた状態で仮想キーボードが移動することが可能となる。入力操作中にユーザUの姿勢が変化しても(例えば、ソファに座っていたユーザUがソファに寝そべる)、ユーザUは、入力操作を継続して行うことが可能となる。追随動作を終了する場合は、決定部33は、例えば、手を握るなど、予め定められたジェスチャを手形状データDRに基づいて検出すればよい。
仮想キー設定部34は、決定部33が基準面を決定する際に用いた少なくとも3本の指のうち特定の指の指先位置に基づいて、複数の仮想キーの各々について複数の検出範囲を基準面に設定する。各検出範囲は、複数の仮想キーのうち対応する仮想キーが押下されたことを検出するための範囲である。仮想キー設定部34は、複数の仮想キーと1対1に対応する複数の検出範囲を示す検出範囲データDdを押下キー特定部35に出力する。なお、特定の指は、小指及び薬指であることが好ましい。
ここで、複数の検出範囲の一部又は全部に、ユーザUが押下に使う一つの指が割当てられていることが好ましい。この場合、検出範囲データDdは、一個の仮想キーと、一つの検出範囲と、その仮想キーを押下するために使われる指との対応関係を示すデータである。例えば、「J」を示す仮想キーの検出範囲には右手の人差し指が、「D」を示す仮想キーの検出範囲には左手の中指が割り当てられていてもよい。いわゆるブラインドタッチ(touch typing)では、どの指がどの仮想キーを押し下げるかが決められているのが通常である。したがって、ある検出範囲について対応する仮想キーの押下に使われる指を予め定めることにより、後述する押下キー特定部35によって特定される仮想キーの誤検出が低減される。
なお、全ての検出範囲について、ユーザUが押下に使う一つの指を定めなくてもよい。検出範囲ごとに指を定めない場合であっても、後述する推定モデル350によって、各指の指先位置と押下された仮想キーの関係が学習されるからである。
また、仮想キー設定部34は、特定の指の指先位置に基づいて、複数の仮想キーを基準面P1に配置した仮想キーボードデータKB1を生成し、仮想キーボードデータKB1を画像生成部40に出力する。
図5に基準面に設定された検出範囲の一例を示す。同図において、点線で囲まれた一つの範囲が1個の仮想キーに対応する検出範囲である。
押下キー特定部35は、入力操作における各指の指先位置及び手のひらの形状と、仮想キーごとに基準面に設定された検出範囲との位置関係に応じて、押下された仮想キーを特定する。各指先の指先位置は指先位置データDtpによって与えられる。手のひらの形状は手のひら形状データDhによって与えられる。
図6に、押下キー特定部35の詳細な機能ブロックを示す。この図に示すように、押下キー特定部35は、推定モデル350、学習部351、及び正解キー生成部353を備える。
推定モデル350は、指先位置データDtpの示す各指の指先位置及び手のひら形状データDhの示す手のひらの形状、並びに検出範囲データDdの示す複数の検出範囲に基づいて、押下された仮想キーを推定する。推定モデル350は、推定された仮想キーを示す押下キーデータDp1を生成する。推定モデル350は、例えば、人工ニューラルネットワークを用いて構成されている。
学習部351は、推定モデル350によって推定された仮想キーを正解キーと比較し、比較結果に基づいて、推定された仮想キーの正誤を推定モデル350に反映させる。
正解キー生成部352は、押下キーデータDp1に基づいて、正解キーを特定する。推定モデル350によって推定された仮想キーが正しい場合、ユーザUは、入力済みの文字又は記号を変更する修正操作をしない。一方、推定モデル350によって推定された仮想キーが誤っている場合、ユーザUは、前述の修正操作を行う。そのため、正解キー生成部352は、押下キーデータDp1を監視しており、ユーザUによって修正操作がなされたかを判定する。判定結果が肯定の場合、正解キー生成部352は、修正操作によって推定された仮想キーを正解キーとして特定する。一方、判定結果が否定の場合、正解キー生成部352は、推定された仮想キーを正解キーとして特定する。
押下キー特定部35は、機械学習によって、ユーザUの入力操作に関する癖を推定モデル350に反映させるので、押下された仮想キーを推定する精度を向上させることができる。また、推定モデル350には、指先位置データDtpと手のひら形状データDhとが入力されるので、推定モデル350には、複数の指先位置と手のひら形状との関係についての学習結果が次第に蓄積される。上述したように、指先位置データDtpは、第1画像データDG1および第2画像データDG2に基づいて生成される。このため、入力装置10とユーザUの指先との位置関係によっては、ユーザUの指先が入力装置10に隠れてしまい、第1画像データDG1および第2画像データDG2にユーザUの指先が反映されない場合もあり得る。そのような場合には、推定モデル350は手のひら形状データDhに基づいて、押下キーデータDp1を推定するが、推定モデル350には、学習済みの指先位置と手のひら形状との関係が反映されている。このため、指先位置データDtpが無効な場合であっても、押下された仮想キーを推定することが可能になる。
また、推定モデル350は、ユーザUが押下に使う指が一つ割り当てられた検出範囲については、ユーザUが押下に使う指を考慮して、押下された仮想キーを推定する。一方、ユーザUが押下に使う指が割り当てられていない検出範囲が存在してもよく、指が割り当てない仮想キーとしては、例えば、「Enter」を示す仮想キー、「Shift」を示す仮想キー、「Ctrl」を示す仮想キー等の特殊仮想キーがある。特殊仮想キーが押下された場合、文字を示す仮想キーが押下される場合と比較して、手のひらの形状が大きく異なる。したがって、特殊仮想キーに対応する検出範囲に押下された指が割り当てられていなくても、推定モデル350は、手のひらの形状に基づいて、押下された仮想キーを精度よく推定できる。
説明を図3に戻す。画像生成部40は、右手用の仮想キーボードデータKB1と、左手用の仮想キーボードデータKB2と、右手の手形状データDRと、左手の手形状データDLと、右手の押下キーデータDp1と、左手の押下キーデータDp2とに基づいて、画素データDKを生成し、画素データDKを表示装置14に出力する。表示装置14には、例えば、図7に示す画像が表示される。同図に示すように表示装置14には、右手用仮想キーボードK1及び右手HR、左手用仮想キーボードK2及び左手HLが表示される。さらに、表示装置14には、押下された仮想キーKxの画像が他の仮想キーの画像と識別可能な態様で表示される。この例において、押下された仮想キーKxは、他の仮想キーと異なる色で表示される。別の例では、押下された後の仮想キーKxの大きさが、押下される前の仮想キーKxの大きさと比較して大きく表示されてもよい。また、仮想キーKxを光らせて他の仮想キーと識別可能に表示してもよい。
また、画像生成部40は、手形状データDRにコンピュータグラフィック処理を施すことによって、右手HRの画像を生成し、手形状データDLにコンピュータグラフィック処理を施すことによって、左手HLの画像を生成する。但し、画像生成部40は、第1画像データDG1から右手HRの画像を示す画像データを切り出し、第2画像データDG2から左手HLの画像を示す画像データを切り出したうえで、切り出した2つの画像データを合成して表示装置14に右手HRの画像及び左手HLの画像を表示させてもよい。この場合は、画像生成部40は、実際に撮像された画像に、左手用及び右手用の仮想キーボードの画像を合成する。この合成により、拡張現実(AR:Augmented Reality)の画像を表示装置14に表示させることが可能となる。くわえて、決定部33は、手(右手又は左手)の動きに応じて基準面を移動させてもよい。この移動によって、仮想キーが配置されるキーボード面とは逆側から仮想キーボードを(すなわち、仮想キーボードの裏面を)ユーザUが視認することができる。即ち、複合現実(MR:Mixed Reality)の画像を表示装置14に表示することも可能である。
[1.4.入力装置の動作]
図8は、入力装置10の動作を示すフローチャートである。図8を参照して、入力装置10の動作を説明する。まず、手形状認識部20は、第1画像データDG1及び第2画像データDG2に基づいて、手形状データDR及びDLを生成する(S1)。
次に、手形状認識部20は、ソフトウェア(アプリケーション)によって、テキスト等の文章を入力するための入力エリアが仮想空間の視野枠内に表示されている場合に、手形状データDR及びDLに基づいて、手(右手及び左手)の形状が文章を入力するのに適した形状であるか否かを判定する(S2)。したがって、ユーザが文章の入力に適するように手を構えるだけで、手形状認識部20が、センサ群Sの出力データに基づいて、文章の入力が開始されたか否かを判定する。この判定結果に応じて、左手用及び右手用の仮想キーボードが仮想空間内に表示される。文章の入力が開始されたことをセンサ群Sの出力データに基づいて、検知できるのであれば、上述の判定には、どのような方法を用いてもよい。以下では、右手に関する処理は左手に関する処理と同じであるので、特に断らない限り、右手に関する処理について説明する。左手に関する処理の説明を省略する。
ステップS2の判定結果が肯定の場合、決定部33は、指先位置データDtpを用いて、3本の指の指先位置を特定し、特定した3本の指の指先位置を含む面を基準面(具体的には、基準面P1)として決定する(S3)。この例において、3本の指は、小指、薬指、及び親指である。
次に、仮想キー設定部34は、3本の指のうち特定の指の指先位置に基づいて、基準面に各仮想キーを配置して仮想キーボードデータKB1を生成する(S4)。この例において、特定の指は、小指及び薬指である。
次に、仮想キー設定部34は、3本の指のうち特定の指の指先位置に基づいて、複数の仮想キーの各々について押下の検出範囲を基準面に設定した検出範囲データDdを生成する(S5)。なお、ステップS4とステップS5の順序は逆であってもよい。
次に、押下キー特定部35の推定モデル350は、入力操作における各指の指先位置及び手のひらの形状と複数の検出範囲との位置関係に応じて、押下された仮想キーを示す押下キーデータDp1を生成する(S6)。
次に、押下キー特定部35の学習部351は、推定した仮想キーと正解キーとの比較結果を推定モデル350に反映させる(S7)。
この後、手形状認識部20は、手形状データDRに基づいて手の形状が文章を入力するのに適した形状であるかを判定する(S8)。ステップS8の判定結果が否定の場合、即ち、手の形状が文章を入力するのに適した形状ではない場合、仮想空間内に表示される仮想キーボードが消去される。したがって、ユーザUの手の形状が文章を入力するときの形状から変化するだけで、仮想キーボードを消去できる。なお、手形状データDR及びDLに基づいて、ユーザUが、予め定められたジェスチャを行ったかを判定してもよい。このジェスチャは、例えば、仮想キーボードを用いた入力操作の終了を指示することを示す。ステップS8の判定結果が肯定である場合、即ち、手の形状が文章を入力するのに適した形状である場合、処理装置11は、処理をステップS6に戻し、判定結果が否定になるまで、ステップS6からステップS8までの処理を繰り返す。ステップS8の判定結果が否定である場合、処理装置11は、仮想キーボードを用いた処理を終了する。
以上、説明したように本実施形態に係る入力装置10において、決定部33は、初期状態における複数の指の指先位置のうち少なくとも3本の指の指先位置に基づいて、複数の仮想キーが配置される基準面を決定する。3本の指の指先位置によって、実空間におけるユーザUの指の位置に沿った基準面を一意に決定することができる。さらに、決定部33が4本以上の指の指先位置に応じて基準面を決定すれば、決定部33が3本の指の指先位置に応じて基準面を決定する場合と比較して、ユーザUの指の状態をより反映させた基準面を決定することができる。この結果、押下された仮想キーを高い精度で特定することが可能となる。
また、仮想キー設定部34は、初期状態における少なくとも3本の指の指先位置のうち特定の指先位置に基づいて、複数の仮想キーにそれぞれ対応し、対応する仮想キーが押下されたことを各々が検出する複数の検出範囲を基準面に設定する。押下キー特定部35は、入力操作における複数の指の指先位置と、複数の仮想キーの各々について基準面に設定された複数の検出範囲との位置関係に応じて、複数の仮想キーの中から押下された仮想キーを特定する。仮想キー設定部34および押下キー特定部35により、ユーザUの手の形状が反映されるので、操作し易い入力装置10を実現できる。
また、押下キー特定部35は、複数の指の指先位置を示すデータ、手のひらの形状を示すデータ、及び複数の検出範囲に基づいて、複数の仮想キーの中から押下された仮想キーを推定する推定モデル350と、推定モデル350によって推定された仮想キーの正誤を推定モデル350に反映させる学習部351とを備える。推定モデル350及び学習部351により、ユーザUの入力操作に関する癖を推定モデル350に反映させることができる。この結果、推定モデル350に比較結果を反映させない場合と比較して、入力の精度を向上させることできる。
また、入力装置10は、初期状態における右手の少なくとも3本の指の指先位置に基づいて右手に対応する第1基準面を基準面として決定し、初期状態における左手の少なくとも3本の指の指先位置に基づいて左手に対応する第2基準面を基準面として決定する決定部と、右手の少なくとも3本の指の指先位置のうち初期状態における右手の特定の指の指先位置に基づいて、複数の検出範囲を、右手用の複数の検出範囲として右手に対応する第1基準面に設定し、左手の少なくとも3本の指の指先位置のうち初期状態における左手の特定の指の指先位置に基づいて、複数の検出範囲を、左手用の複数の検出範囲として左手に対応する第2基準面に設定する仮想キー設定部と、入力操作における右手の複数の指の指先位置と、右手用の複数の検出範囲との間の位置関係に応じて、複数の仮想キーの中から右手によって押下された仮想キーを特定し、入力操作における左手の複数の指の指先位置と、左手用の複数の検出範囲との間の位置関係に応じて、複数の仮想キーの中から左手によって押下された仮想キーを特定する、押下キー特定部とを備える。以上の態様によれば、左手と右手で独立して仮想キーを設定することができるので、左右の手の大きさ又は左右の手の形状に合わせた入力操作が可能となる。更に、左右の手を区別しない場合と比較して押下された仮想キーを特定する精度を向上させることができる。
また、入力装置10は、センサから出力される出力データに基づいて、手の形状を3次元で表す手形状データDRを生成する手形状認識部20を備える。推定モデル350に入力される、複数の指の指先位置を示す指先位置データDtp及び手のひらの形状を示す手のひら形状データDhは、手形状データDRに基づいて特定される。この態様によれば、3次元の手形状データDRから指先位置データDtp及び手のひら形状データDhが生成されるので、複数の指の指先位置及び手のひらの形状を3次元で扱うことができる。この結果、推定モデル350における押下された仮想キーを推定する精度を向上させることができる。
また、入力装置10は、前記複数の仮想キーが配置された仮想キーボードにおいて、押下されていない仮想キーの画像と、押下キー特定部35によって特定された押下された仮想キーの画像とを互いに識別可能な態様で表示する表示装置14を備える。したがって、ユーザUは、入力操作によってどの仮想キーが押下されたかを知ることができる。その結果、ユーザUは、入力ミスをリアルタイムで認識することができる。
[2.変形例]
本発明は、以上に例示した各実施形態に限定されない。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様を併合してもよい。
(1)上述した実施形態において、仮想キー設定部34は、指ごとに、仮想キーが押下されたことを検出するための検出範囲を設定してもよい。図9は、基準面を法線方向から仮想キーを平面視した場合における、仮想キーと検出範囲との間の関係を示す説明図である。図9に示すように仮想キーKEY1と仮想キーKEY2とが仮想キーボードに配置されている場合、右手の人差指によって仮想キーKEY1が押下された場合の検出範囲は領域A1であり、右手の中指によって仮想キーKEY1が押下された場合の検出範囲は領域B1であり、右手の人差指によって仮想キーKEY2が押下された場合の検出範囲は領域A2であり、右手の中指によって仮想キーKEY2が押下されたた場合の検出範囲は領域B2である。即ち、仮想キーKEY1が押下されたことを検出する範囲は、人差指用の領域A1の方が中指用の領域B1よりも広い。このように検出範囲を設定したのは、仮想キーKEY1は人差指によって押下されることが予定されている一方、中指によって押下されることが予定されていないからである。このように、仮想キー設定部34が、指ごとに仮想キーが押下されたことを検出する検出範囲を設定する。この設定によって、押下キー特定部35は、指ごとに仮想キーが押下されたことを検出するための検出範囲を設定しない場合と比較して、押下された仮想キーを推定する精度を向上させることができる。このような検出範囲を設定することは、例えば、ユーザUが仮想キーKEY1を中指によって押下する癖がある場合、あるいは、ユーザUがたまたま仮想キーKEY1を中指によって押下した場合に有用である。そして、ユーザUが仮想キーKEY1を中指によって押下する癖がある場合には、ユーザUによる入力操作の癖を、推定モデル350が学習する。このため、入力装置10の使用時間が増えると、学習により、ユーザUが中指によって仮想キーKEY1を押下した場合に、仮想キーKEY1を検出する精度が向上する。
(2)上述した実施形態において、仮想キー設定部34は、初期状態における特定の指の指先位置に基づいて、仮想キーが押下されたことを検出するための複数の検出範囲を設定したが、本発明はこれに限定されない。変形例2に係る入力装置10のハードウェア構成は、図2に示す実施形態に係る入力装置10の構成と同じであり、両者の機能が互いに相違する。図10は変形例2に係る入力装置10の機能を示す機能ブロック図である。
図10に示す入力装置10の構成は、仮想キー設定部34の替わりに、仮想キー設定部34Aを用いる点を除いて、図3に示す実施形態における入力装置10の構成と同じである。仮想キー設定部34Aには、押下キーデータDp1がフィードバックされている。仮想キー設定部34Aは、特定の指の指先位置と、直前に押下されたことが押下キー特定部35によって特定された仮想キーとに基づいて、次の仮想キーが押下されることを特定するために用いる検出範囲を示す検出範囲データDdを生成する。
例えば、「S」を示す仮想キーが押下された後に「E」を示す仮想キーが押下される場合と、「G」を示す仮想キーが押下された後に「E」を示す仮想キーが押下される場合とで、「E」を示す仮想キーが押下される際の手のひらの形状は異なる。即ち、直前に押下された仮想キーによって手のひらの形状が異なる。変形例2によれば、直前に押下された仮想キーと手のひらの形状を考慮することによって、押下された仮想キーを推定する精度が向上する。
(3)上述した実施形態において、入力装置10は、左右に分離した2つの仮想キーボードを生成したが、本発明はこれに限定されない。入力装置10は、左手用仮想キーボードと右手用仮想キーボードが一体となった仮想キーボードを生成してもよい。また、入力装置10は、右手と左手との間の距離が所定値以下になると、右手用仮想キーボードと左手用仮想キーボードを、両者が一体となった仮想キーボードに変更してもよい。
(4)上述した実施形態において、手形状データDR及びDLは、第1画像データDG1及び第2画像データDG2に基づいて生成したが、本発明はこれに限定されない。3次元の手形状データDR及びDLを生成できるのであれば、入力装置10は、どのようなセンサの出力データに基づいて、手形状データDR及びDLを生成してもよい。例えば、第2撮像装置16の替わりに、被写体までの奥行を示すデータを出力する深度カメラをセンサとして採用してもよい。深度カメラを採用する場合、手形状認識部20が、第1画像データDG1と奥行データとに基づいて、手の形状を3次元で表す手形状データDR及びDLを生成してもよい。さらに、ユーザUの手にセンサが装着されていてもよい。この場合、処理装置11は、ユーザの手に装着されたセンサから位置情報を取得し、この位置情報を手形状認識部20に入力してもよい。手形状認識部20は、位置情報と他のセンサからの出力データとを組わせて、手形状データDR及びDLを生成してもよい。
(5)上述した実施形態において、推定モデル350には、手のひら形状データDhが入力されるが、本発明はこれに限定されない。押下キー特定部35は、手のひら形状データDhを除いた、指先位置データDtpと検出範囲データDdとを推定モデル350に入力してもよい。この場合、図3に示す手のひら形状特定部32を省略できるので、右手処理部30Rの構成および左手処理部30Lの構成を簡素化することができる。
また、押下キー特定部35は、推定モデル350に手のひら形状データDh及び指先位置データDtpの替わりに手形状データDRを入力することによって、押下された仮想キーを推定してもよい。
(6)上述した実施形態では、仮想キーボードデータKB1及びKB2が生成され、表示装置14に表示される仮想空間に仮想キーボードの画像が配置されたが、本発明はこれに限定されない。仮想キーボードは表示されなくてもよい。例えば、ミュージックビデオが表示装置14に表示されている最中にユーザUがメールソフトを起動した場合、仮想キーボードを必ずしも表示させる必要はない。仮想キーボードを非表示としても、ユーザUは、ブラインドタッチによってテキスト等を入力することが可能である。
(7)上述した実施形態において、推定モデル350は、単語又は文脈などの入力候補を考慮して、押下された仮想キーを推定してもよい。また、推定モデル350の初期状態に関するデータは、ユーザUの性別、年齢、又は人種属性に応じて、サーバからダウンロードされてもよい。
(8)上述した実施形態において、入力装置10は、第1撮像装置15及び第2撮像装置16と一体であるが、本発明はこれに限定されない。例えば、第1撮像装置15及び第2撮像装置16は、入力装置10と無線により接続されてもよい。この場合、入力装置10は、スマートフォンであってもよい。また、第1撮像装置15及び第2撮像装置16は机の上に配置され、両者が所定距離だけ離間して固定されてもよい。
(9)上述した各実施形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及び/又はソフトウェアの任意の組み合わせによって実現される。また、各機能ブロックの実現手段は特に限定されない。すなわち、各機能ブロックは、物理的及び/又は論理的に結合した1つの装置により実現されてもよいし、物理的及び/又は論理的に分離した2つ以上の装置を直接的及び/又は間接的に(例えば、有線及び/又は無線)で接続し、これら複数の装置により実現されてもよい。
また、上述した各実施形態の説明に用いた「装置」という文言は、回路、デバイス又はユニット等の他の用語に読替えてもよい。
(10)上述した各実施形態における処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。
(11)上述した各実施形態において、入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
(12)上述した各実施形態において、判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。
(13)上述した各実施形態では、記憶装置12は、処理装置11が読取可能な記録媒体であり、ROM及びRAMなどを例示したが、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリデバイス(例えば、カード、スティック、キードライブ)、CD-ROM(Compact Disc-ROM)、レジスタ、リムーバブルディスク、ハードディスク、フロッピー(登録商標)ディスク、磁気ストリップ、データベース、サーバその他の適切な記憶媒体である。また、プログラムは、ネットワークから送信されても良い。また、プログラムは、電気通信回線を介して通信網から送信されても良い。
(14)上述した各実施形態において、説明した情報及び信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上述の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
(15)図3及び図10に例示された各機能は、ハードウェア及びソフトウェアの任意の組合せによって実現される。また、各機能は、単体の装置によって実現されてもよいし、相互に別体で構成された2個以上の装置によって実現されてもよい。
(16)上述した各実施形態で例示したプログラムは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード又はハードウェア記述言語と呼ばれるか、他の名称によって呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順又は機能等を意味するよう広く解釈されるべきである。
また、ソフトウェア、命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。
(17)上述した各実施形態において、情報、パラメータなどは、絶対値で表されてもよいし、所定の値からの相対値で表されてもよいし、対応する別の情報で表されてもよい。例えば、無線リソースはインデックスで指示されるものであってもよい。
(18)上述した各実施形態において、入力装置10は、移動局である場合が含まれる。移動局は、当業者によって、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、リモートユニット、モバイルデバイス、ワイヤレスデバイス、ワイヤレス通信デバイス、リモートデバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、リモート端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント、又はいくつかの他の適切な用語で呼ばれる場合もある。
(19)上述した各実施形態において、「接続された(connected)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。本明細書で使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及び/又はプリント電気接続を使用することにより、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどの電磁エネルギーを使用することにより、互いに「接続」されると考えることができる。
(20)上述した各実施形態において、「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
(21)本明細書で使用する「第1」、「第2」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定するものではない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本明細書で使用され得る。したがって、第1及び第2の要素への参照は、2つの要素のみがそこで採用され得ること、又は何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。
(22)上述した各実施形態において「含む(including)」、「含んでいる(comprising)」、及びそれらの変形が、本明細書あるいは特許請求の範囲で使用されている限り、これら用語は、用語「備える」と同様に、包括的であることが意図される。さらに、本明細書あるいは特許請求の範囲において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。
(23)本願の全体において、例えば、英語におけるa、an及びtheのように、翻訳によって冠詞が追加された場合、これらの冠詞は、文脈から明らかにそうではないことが示されていなければ、複数を含む。
(24)本発明が本明細書中に説明した実施形態に限定されないことは当業者にとって明白である。本発明は、特許請求の範囲の記載に基づいて定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施できる。したがって、本明細書の記載は、例示的な説明を目的とし、本発明に対して何ら制限的な意味を有さない。また、本明細書に例示した態様から選択された複数の態様を組合わせてもよい。
10…入力装置、20…手形状認識部、33…決定部、34…仮想キー設定部、35…押下キー特定部、350…推定モデル、351…学習部、DL,DR…手形状データ、Dh…手のひら形状データ、Dtp…指先位置データ。

Claims (7)

  1. 初期状態における複数の指の指先位置のうち少なくとも3本の指の指先位置に基づいて、複数の仮想キーが配置される基準面を決定する決定部と、
    前記初期状態における前記少なくとも3本の指の指先位置のうち特定の指の指先位置に基づいて、前記複数の仮想キーにそれぞれ対応し、対応する仮想キーが押下されたことを各々が検出する複数の検出範囲を前記基準面に設定する仮想キー設定部と、
    入力操作における前記複数の指の指先位置と、前記複数の仮想キーの各々について前記基準面に設定された前記複数の検出範囲との位置関係に応じて、前記複数の仮想キーの中から押下された仮想キーを特定する押下キー特定部と、
    を備える入力装置であって、
    前記決定部は、前記初期状態における3本の指の指先位置に基づいて仮基準面を決定し、前記複数の指の指先位置のうち前記3本の指以外の少なくとも1本の指の指先位置に基づいて、前記仮基準面を補正することによって前記基準面を決定する請求項1に記載の入力装置
  2. 初期状態における複数の指の指先位置のうち少なくとも3本の指の指先位置に基づいて、複数の仮想キーが配置される基準面を決定する決定部と、
    前記初期状態における前記少なくとも3本の指の指先位置のうち特定の指の指先位置に基づいて、前記複数の仮想キーにそれぞれ対応し、対応する仮想キーが押下されたことを各々が検出する複数の検出範囲を前記基準面に設定する仮想キー設定部と、
    入力操作における前記複数の指の指先位置と、前記複数の仮想キーの各々について前記基準面に設定された前記複数の検出範囲との位置関係に応じて、前記複数の仮想キーの中から押下された仮想キーを特定する押下キー特定部と、
    を備える入力装置であって、
    前記仮想キー設定部は、前記特定の指の指先位置と、前記複数の仮想キーの中から直前に押下されたことが前記押下キー特定部によって特定された仮想キーとに基づいて、次の仮想キーが押下されたことを特定するために用いられる検出範囲を設定する
    入力装置。
  3. 初期状態における複数の指の指先位置のうち少なくとも3本の指の指先位置に基づいて、複数の仮想キーが配置される基準面を決定する決定部と、
    前記初期状態における前記少なくとも3本の指の指先位置のうち特定の指の指先位置に基づいて、前記複数の仮想キーにそれぞれ対応し、対応する仮想キーが押下されたことを各々が検出する複数の検出範囲を前記基準面に設定する仮想キー設定部と、
    入力操作における前記複数の指の指先位置と、前記複数の仮想キーの各々について前記基準面に設定された前記複数の検出範囲との位置関係に応じて、前記複数の仮想キーの中から押下された仮想キーを特定する押下キー特定部と、
    を備える入力装置であって、
    前記押下キー特定部は、
    前記複数の指の指先位置を示す指先位置データ、手のひらの形状を示す手のひら形状データ、及び前記複数の検出範囲に基づいて、前記複数の仮想キーの中から押下された仮想キーを推定する推定モデルと、
    前記推定モデルによって推定された仮想キーの正誤を前記推定モデルに反映させる学習部と
    を備える入力装置
  4. 前記少なくとも3本の指の指先位置は、小指の指先位置、薬指の指先位置、及び親指の指先位置を含み、
    前記決定部は、前記小指の指先位置、前記薬指の指先位置、及び前記親指の指先位置に基づいて前記基準面を決定する請求項1乃至3のうちいずれか1項に記載の入力装置。
  5. 前記仮想キー設定部は、指ごとに、前記複数の検出範囲を設定する請求項1乃至3のうちいずれか1項に記載の入力装置。
  6. センサから出力される出力データに基づいて、手の形状を3次元で表す手形状データを生成する手形状認識部を備え、
    前記推定モデルに入力される前記指先位置データ及び前記手のひら形状データは、前記手形状データに基づいて特定される
    請求項3に記載の入力装置。
  7. 前記複数の仮想キーが配置された仮想キーボードにおいて、押下されていない仮想キーの画像と、前記押下キー特定部によって特定された前記押下された仮想キーの画像とを互いに識別可能な態様で表示する表示部を備える請求項1乃至6のうちいずれか1項に記載の入力装置。
JP2020538192A 2018-08-21 2019-06-11 入力装置 Active JP7199441B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018154773 2018-08-21
JP2018154773 2018-08-21
PCT/JP2019/023038 WO2020039703A1 (ja) 2018-08-21 2019-06-11 入力装置

Publications (2)

Publication Number Publication Date
JPWO2020039703A1 JPWO2020039703A1 (ja) 2021-08-12
JP7199441B2 true JP7199441B2 (ja) 2023-01-05

Family

ID=69592586

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020538192A Active JP7199441B2 (ja) 2018-08-21 2019-06-11 入力装置

Country Status (3)

Country Link
US (1) US11507181B2 (ja)
JP (1) JP7199441B2 (ja)
WO (1) WO2020039703A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114690900B (zh) * 2022-03-16 2023-07-18 中数元宇数字科技(上海)有限公司 一种虚拟场景中的输入识别方法、设备及存储介质
CN115293938B (zh) * 2022-09-28 2023-07-28 深圳市卓帆技术有限公司 一种基于vr技术的考试方法和系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010238208A (ja) 2009-03-31 2010-10-21 Brother Ind Ltd 入力装置
JP2012108857A (ja) 2010-10-28 2012-06-07 Yoshihiro Wada キー入力装置、それを備える携帯端末および携帯端末を入力装置として機能させるためのプログラム
WO2012176315A1 (ja) 2011-06-23 2012-12-27 富士通株式会社 情報処理装置、入力制御方法及び入力制御プログラム
JP2014165660A (ja) 2013-02-25 2014-09-08 Univ Of Tsukuba バーチャルキーボードの入力方法、プログラム、記憶媒体、及びバーチャルキーボードシステム
US20160085379A1 (en) 2013-06-05 2016-03-24 Korea University Research And Business Foundation Device and method for information processing using virtual keyboard

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010145861A (ja) * 2008-12-19 2010-07-01 Brother Ind Ltd ヘッドマウントディスプレイ
JP5293154B2 (ja) * 2008-12-19 2013-09-18 ブラザー工業株式会社 ヘッドマウントディスプレイ
US9529513B2 (en) * 2013-08-05 2016-12-27 Microsoft Technology Licensing, Llc Two-hand interaction with natural user interface
US9766806B2 (en) * 2014-07-15 2017-09-19 Microsoft Technology Licensing, Llc Holographic keyboard display
KR101678880B1 (ko) * 2016-06-28 2016-12-06 재단법인 실감교류인체감응솔루션연구단 가상 키보드 출력 장치 및 제어 방법
US10445935B2 (en) * 2017-05-26 2019-10-15 Microsoft Technology Licensing, Llc Using tracking to simulate direct tablet interaction in mixed reality

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010238208A (ja) 2009-03-31 2010-10-21 Brother Ind Ltd 入力装置
JP2012108857A (ja) 2010-10-28 2012-06-07 Yoshihiro Wada キー入力装置、それを備える携帯端末および携帯端末を入力装置として機能させるためのプログラム
WO2012176315A1 (ja) 2011-06-23 2012-12-27 富士通株式会社 情報処理装置、入力制御方法及び入力制御プログラム
JP2014165660A (ja) 2013-02-25 2014-09-08 Univ Of Tsukuba バーチャルキーボードの入力方法、プログラム、記憶媒体、及びバーチャルキーボードシステム
US20160085379A1 (en) 2013-06-05 2016-03-24 Korea University Research And Business Foundation Device and method for information processing using virtual keyboard

Also Published As

Publication number Publication date
WO2020039703A1 (ja) 2020-02-27
US11507181B2 (en) 2022-11-22
US20210173473A1 (en) 2021-06-10
JPWO2020039703A1 (ja) 2021-08-12

Similar Documents

Publication Publication Date Title
US11714969B2 (en) Typifying emotional indicators for digital messaging
US9916044B2 (en) Device and method for information processing using virtual keyboard
CN102906671B (zh) 手势输入装置及手势输入方法
JP4771183B2 (ja) 操作装置
US9430093B2 (en) Monitoring interactions between two or more objects within an environment
CN109754389B (zh) 一种图像处理方法、装置及设备
US9317130B2 (en) Visual feedback by identifying anatomical features of a hand
CN103914138A (zh) 接近传感器的手势的识别和用途
JP7199441B2 (ja) 入力装置
CN106796810A (zh) 在用户界面上从视频选择帧
CN111831112A (zh) 一种基于眼动以及手指微手势的文本输入系统及方法
JP6915611B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN105760104A (zh) 一种消息处理方法及终端
US11100317B2 (en) Drawing device and drawing method
CN111142663A (zh) 一种手势识别方法及手势识别系统
CN113703577A (zh) 一种绘图方法、装置、计算机设备及存储介质
CN103547982A (zh) 利用空间和时间特征识别触摸传感器数据中的接触和接触属性
CN114578956A (zh) 设备控制方法、装置、虚拟穿戴设备以及存储介质
CN114080643A (zh) 用于执行基于图像的食物量估计的装置和方法
EP3584688A1 (en) Information processing system, information processing method, and program
JP2014082605A (ja) 情報処理装置、その制御方法及びプログラム
WO2021220867A1 (ja) 情報処理装置
WO2018161421A1 (zh) 终端设备的触摸显示屏幕的性能测试方法和性能测试装置
JP2020135274A (ja) 描画線生成システム
CN110716678B (zh) 一种显示画面的局部删除方法及处理系统、显示设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221220

R150 Certificate of patent or registration of utility model

Ref document number: 7199441

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150