JP2017504917A - 個人用入力パネルを生成する方法および装置 - Google Patents

個人用入力パネルを生成する方法および装置 Download PDF

Info

Publication number
JP2017504917A
JP2017504917A JP2016559481A JP2016559481A JP2017504917A JP 2017504917 A JP2017504917 A JP 2017504917A JP 2016559481 A JP2016559481 A JP 2016559481A JP 2016559481 A JP2016559481 A JP 2016559481A JP 2017504917 A JP2017504917 A JP 2017504917A
Authority
JP
Japan
Prior art keywords
user
input panel
information
bill
handprint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016559481A
Other languages
English (en)
Other versions
JP6397508B2 (ja
Inventor
ワン、ティエビン
ワン、イシアン
Original Assignee
バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド
バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド, バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド filed Critical バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド
Publication of JP2017504917A publication Critical patent/JP2017504917A/ja
Application granted granted Critical
Publication of JP6397508B2 publication Critical patent/JP6397508B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/11Hand-related biometrics; Hand pose recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)

Abstract

本発明は、ユーザ機器に個人用入力パネルを生成する方法を提供し、この方法は以下のステップを含む。a)ユーザの手形情報を取得する。b)ユーザの手形特徴情報を取得するために、ユーザの手形情報を所定の手形情報と比較する。c)手形特徴情報に基づいて、ユーザに適した個人用入力パネルを生成する。本発明の解決法によれば、ユーザの手形特徴および使用習慣に適合する個人用入力パネルを提供することができる。

Description

本発明はコンピュータ技術分野に関し、特に個人用入力パネルを生成する方法および装置に関する。
従来技術において、ユーザ機器上の、特にタッチスクリーン装置上の入力パネルの使用可能なパターンは通常、固定されている。しかしながら、入力パネルを使用する際に、異なるユーザ間で、この種の固定された入力パネルは、ユーザの入力習慣にほとんど適応していないというような不一致が必ず存在する。
本発明は、個人用入力パネルを生成する方法および装置を提供している。
本発明の一実施形態によれば、ユーザ機器に個人用入力パネルを生成する方法が提供され、この方法は、
a)ユーザの手形情報を取得することと、
b)ユーザの手形特徴情報を取得するために、ユーザの手形情報を所定の手形情報と比較することと、
c)手形特徴情報に基づいて、ユーザの個人用入力パネルを生成することとを含んでいる。
本発明の別の実施形態によれば、ユーザ機器に個人用入力パネルを生成する入力パネル生成装置が提供され、この入力パネル生成装置は、
ユーザの手形情報を取得するように構成される第1の取得モジュールと、
ユーザの手形特徴情報を取得するために、ユーザの手形情報を所定の手形情報と比較するように構成される比較モジュールと、
手形特徴情報に基づいて、ユーザの個人用入力パネルを生成するように構成される生成モジュールとを含んでいる。
従来技術と比較して、本発明は以下の長所を備えている。1)ユーザ機器は、ユーザの手形情報と標準の手形情報とを比較し、ユーザの個人的ニーズを満たす入力パネルを取得し、入力パネル上でのユーザのタッチ操作の精度を高め、それによってユーザのミスタッチによって引き起こされる入力操作の発生の可能性を低くする。2)ユーザ機器は、手とカメラレンズとの間の距離を上手くコントロールできるように、画面上に位置指示情報を表示することによって、手形画像を撮るときに、ユーザに位置指示情報内に手を置くようにさせ、それによってユーザが手形画像を撮っているとき、手の位置が、得られた手形画像のユーザ機器による分析に影響を及ぼすことを減らす。3)生成された個人用入力パネルがユーザの使用習慣をより満たせるような、ユーザのニーズを満たす個人用入力パネルを生成するために、ユーザ機器は、ユーザの手形特徴情報とタッチポイント情報に関連して入力パネルを調整することができる。
添付の図面を参照して、限定されない実施形態の以下の詳細な説明を閲読することで、本発明のその他の特徴、目的および長所がより明確になる。
本発明の好ましい一実施形態による、ユーザ機器に個人用入力パネルを生成する方法のフロー図を示す。 本発明の好ましい他の実施形態による、ユーザ機器に個人用入力パネルを生成する方法のフロー図を示す。 本発明の好ましい一実施形態による、ユーザ機器に個人用入力パネルを生成する入力パネル生成装置の構造ブロック図を示す。 本発明の好ましい他の実施形態による、ユーザ機器に個人用入力パネルを生成する入力パネル生成装置の構造ブロック図を示す。
なお、添付図面における同一または類似する符号は、同一または類似する部分を示している。
以下、添付図面を参照して、本発明のより詳細な説明を行う。
図1は、本発明の好ましい一実施形態による、ユーザ機器に個人用入力パネルを生成する方法のフロー図を示している。
ここで、この実施形態による方法は、主にユーザ機器によって実行され、好ましくは、ユーザ機器は、例えば、ユーザ機器のディスプレイがタッチスクリーンであったり、ユーザ機器がバーチャルキーパッドを有するなど、タッチ式入力装置を有し、好ましくは、ユーザ機器は、限定されないが、PC機器、タブレット、スマートフォン、PDA(携帯情報端末)、IPTV(IPテレビ)などを含み、好ましくは、ユーザ機器は携帯機器である。
なお、これらのユーザ機器は、単なる例示であり、他の既存の、または今後開発される可能性のあるユーザ機器は、本発明に適用できる場合、本発明の保護範囲内に含まれるべきであり、参照により本明細書に含まれる。
本実施形態による方法は、ステップS1、ステップS2、およびステップS3を含んでいる。
ステップS1において、ユーザ機器は、ユーザの手形情報を取得する。
ここで、手形情報は、手の形の情報を反映可能な任意の情報を含む。限定されないが、好ましくは、手形情報は、手の全体的な長さと幅の比、手の全長に対する指の比率、指の厚さ、手のひらの幅、それぞれの指の間の、長さの比率などを含む。
具体的には、ユーザの手形情報を取得するためのユーザ機器の実行方法は、限定されないが、以下を含む。
1)ユーザ機器は、ユーザ機器に保存されたユーザの手形情報を直接取得する。
例えば、ユーザ機器は、ユーザの手形情報をユーザ機器に事前に保存することができ、その後、ユーザが個人用入力パネルを生成するためにユーザ機器を使用するとき、ユーザ機器は、ユーザ機器に保存されたユーザの手形情報を直接取得することができる。
なお、上記の例は、本発明を限定することを意図しておらず、単に本発明の技術的解決法をより良く示すためのものである。当業者は、ユーザ機器に保存されたユーザの手形情報を直接取得する任意の実行方法が、本発明の範囲内に含まれるべきであることを理解すべきである。
2)ユーザ機器は、ネットワーク装置に保存されたユーザの手形情報を取得する。
例えば、ユーザはネットワーク装置に手形情報を事前に保存することができ、その後、ユーザが個人用入力パネルを生成するためにユーザ機器を使用するとき、ユーザ機器は、ネットワーク装置にアクセスすることによって、ネットワーク装置に保存されたユーザの手形情報を取得することができる。
なお、上記の例は、本発明を限定することを意図しておらず、単に本発明の技術的解決法をより良く示すためのものである。当業者は、ネットワーク装置からユーザの手形情報を取得する任意の実行方法が、本発明の範囲内に含まれるべきであることを理解すべきである。
3)ユーザ機器は、ユーザによって撮影された画像に基づいてユーザの手形情報を取得する。この実施形態において、ステップS1は、S11およびS12をさらに含んでいる。
ステップS11において、ユーザ機器は、ユーザによって撮影された手形画像を取得する。
ここで、ユーザ機器が、ユーザによって撮影された手形画像を取得する方法は、限定されないが、以下を含む。
a)ユーザ機器は、ユーザ機器にすでに保存された画像の中からユーザによって撮影された手形画像を抽出する。
例えば、ユーザ機器は、ユーザの選択に応じて、ユーザによって撮影された手形画像として、そのアルバムから特定の手形画像を抽出する。
b)ステップS11は、ステップS11−1およびステップS11−2をさらに含む。
ステップS11−1において、ユーザ機器は、ユーザ機器のカメラを起動し、画面上に位置指示情報を表示する。位置指示情報は、画面上での適切な手の位置を示すためのものである。例えば、位置指示情報は、手またはブロックの形で具体化されてもよく、好ましくは、位置指示情報は、標準の手形の形で具体化される。
好ましくは、ユーザ機器によって起動されるユーザ機器のカメラは、前面カメラである。
次に、ユーザは、カメラの前に手を置くことができ、画面上に表示された手が、位置指示情報によって示された適切な位置に配置された後、撮影操作が行われる。
次に、ステップS11−2において、ユーザ機器は、ユーザの撮影操作に基づいて手形画像を取得する。
例えば、ステップS11−1において、ユーザ機器は前面カメラを起動し、画面上に適切な手の位置を示すブロックを表示する。ステップS11−2において、ユーザ機器は、前面カメラを用いて、ブロック内に置かれた手の画像のユーザの撮影操作に基づいて、ブロック内の手形画像を取得する。
なお、上記の例は、本発明を限定することを意図しておらず、単に本発明の技術的解決法をより良く理解するためのものである。当業者は、ユーザによって撮影された手形画像を取得する任意の実行方法が、本発明の範囲内に含まれるべきであることを理解すべきである。
ステップS12において、ユーザ機器は、ステップS11から取得された手形画像の中から手形情報を抽出する。
ここで、ユーザ機器は、複数の方法で、手形画像の中から手形情報を抽出することができる。例えば、画像を分析して手形の輪郭を抽出することによって、手形情報を取得する。
なお、上記の例は、本発明を限定することを意図しておらず、単に本発明の技術的解決法をより良く理解するためのものである。当業者は、手形画像の中から手形情報を抽出する任意の実行方法が、本発明の範囲内に含まれるべきであることを理解すべきである。
なお、上記の例は、本発明を限定することを意図しておらず、単に本発明の技術的解決法をより良く理解するためのものである。当業者は、ユーザの手形情報を取得する任意の実行方法が、本発明の範囲内に含まれるべきであることを理解すべきである。
ステップS2において、ユーザ機器は、ユーザの手形特徴情報を取得するために、ユーザの手形情報を所定の手形情報と比較する。ここで、所定の手形情報は、標準の手の手形情報であってもよい。
ここで、手形特徴情報は、手形情報に対応する特徴情報を含んでいてもよい。限定されないが、好ましくは、手形特徴情報は、手の全体的な長さと幅の比の特徴、手の全長に対する指の比率の特徴、指の厚さの特徴、手のひらの幅の特徴、それぞれの指の間の、長さの比率の特徴などを含む。
例えば、ユーザ機器は、ユーザの手形情報を所定の手形情報と比較し、ユーザの手の全長に対する指の比率が、標準の手の形の手の全長に対する指の比率より低いことを取得すると、ユーザ機器によって取得されたユーザの手形特徴情報は、手の全長に対する指の比率が相対的に低いことである。
なお、上記の例は、本発明を限定することを意図しておらず、単に本発明の技術的解決法をより良く理解するためのものである。当業者は、ユーザの手形特徴情報を取得するために、ユーザの手形情報を所定の手形情報と比較する任意の実行方法が、本発明の範囲内に含まれるべきであることを理解すべきである。
ステップS3において、ユーザ機器は、手形特徴情報に基づいて、ユーザの個人用入力パネルを生成する。
具体的には、手形特徴情報に基づいて、ユーザに適した個人用入力パネルをユーザ機器によって生成する実行方法は、限定されないが、以下を含む。
1)ユーザ機器は、ユーザの手形特徴情報に基づいて、個人用入力パネルにおけるそれぞれのキーの位置を直接算出し、ユーザに適した個人用入力パネルを生成する。
例えば、ユーザ機器によって取得されたユーザの手形特徴情報は、ユーザの手の全体的な長さと幅の比が相対的に大きいと、ユーザ機器は、ユーザの手の全体的な長さと幅の比に基づいて、入力パネルにおいて頻繁に使用されるキーの位置をまず算出し、次に、頻繁に使用されるキーの決定された位置に基づいて、他の頻繁に使用されないキーの位置を算出し、それによってユーザに適した個人用入力パネルを生成する。頻繁に使用されるキーは、例えば、より高い頻度でユーザがクリックする文字キーなどの、ユーザがクリックする可能性が高いキーである。
好ましくは、ユーザ機器はまた、ユーザの手形特徴情報に基づいて、ユーザによってミスタッチされやすい領域の位置を算出することができ、ミスタッチされやすい領域におけるそれぞれのキーのタッチ感度を低減する。例えば、ユーザ機器によって取得された手形特徴情報が、ユーザの小指が相対的に短いことを含んでいると、ユーザ機器は、小指によってタッチされやすい領域を、ユーザによってミスタッチされやすい領域として算出することができ、それによってミスタッチされやすい領域におけるそれぞれのキーのタッチ感度を低減させ、ユーザのミスタッチによって引き起こされる誤入力を防ぐことができる。ここで、タッチ感度は、ユーザのタッチ操作に対するユーザ機器の感知する度合いを示す。一般に、タッチ感度が高ければ高いほど、ユーザによって行われるタッチ操作は感知されやすい。タッチ感度が低ければ低いほど、ユーザによって行われるタッチ操作は感知されにくい。
なお、上記の例は、本発明を限定することを意図しておらず、単に本発明の技術的解決法をより良く理解するためのものである。ユーザに適した個人用入力パネルを生成できるように、ユーザの手形特徴情報に基づいて、個人用入力パネルにおけるそれぞれのキーの位置を直接算出する任意の実行方法が、本発明の範囲内に含まれるべきであることを、当業者は理解すべきである。
2)ユーザ機器は、個人用入力パネルを取得するために、手形特徴情報に基づいて既定の入力パネルを調整する。好ましくは、既定の入力パネルは、所定の手形情報に適合する。
ここで、既定の入力パネルを調整する操作は、既定の入力パネルのレイアウトへの任意の操作を含んでもよい。限定されないが、好ましくは、既定の入力パネルを調整する操作は、a)例えば、頻繁に使用されるキーの位置を左方向または右方向へ調整するなど、既定の入力パネルの頻繁に使用されるキーの位置を調整すること、b)例えば、ユーザ機器に、キーがユーザによって押されていることを判定させるために、ユーザがより重くタッチする必要があるように、タッチ感度を低く調整するなど、既定の入力パネルにおける領域の部分のタッチ感度を調整すること、好ましくは、感度が調整される領域は、既定の入力パネルにおいてユーザがミスタッチしやすい、手形特徴情報に基づいて決定された領域である。
ここで、ユーザ機器は、手形特徴情報に基づいて既定の入力パネルを調整し、それによって個人用入力パネルを取得する、複数の方法を採用することができる。
例えば、ユーザ機器は、手形特徴情報におけるそれぞれの指の間での、長さの比率の特徴に基づいて、ユーザの小指および人さし指が相対的に短いことを判定すると、ユーザ機器は、小指および人さし指がタッチしやすい位置を、そのようなキーの位置が、中指や薬指がタッチしやすいキーの位置に近づくように移動させる。
なお、個人用入力パネルを生成するプロセスの間、ユーザ機器は、個人用入力パネルを表示できる領域のサイズと関連して、個人用入力パネルにおけるそれぞれのキーの位置をさらに決定してもよい。例えば、ユーザ機器は携帯機器であり、携帯機器上で個人用入力パネルを表示できる領域のサイズは12cm×6cmであると、ユーザ機器によって決定される個人用入力パネルにおけるそれぞれのキーは、その領域内に配置されるべきである。
なお、上記の例は、本発明を限定することを意図しておらず、単に本発明の技術的解決法をより良く理解するためのものである。個人用入力パネルを取得できるように、手形特徴情報に基づいて、既定の入力パネルを調整する任意の実行方法が、本発明の範囲内に含まれるべきであることを、当業者は理解すべきである。
この実施形態の解決法によれば、ユーザ機器は、ユーザの手形情報と標準の手形情報とを比較し、ユーザの個人的ニーズを満たす入力パネルを取得し、入力パネル上のユーザのタッチ操作の精度を高め、それによってユーザのミスタッチによって引き起こされる入力操作の発生の可能性を低くする。さらに、ユーザ機器は、手とカメラレンズとの間の距離を上手くコントロールできるように、画面上に位置指示情報を表示することによって、手形画像を撮るときに、ユーザに位置指示情報内に手を置くように努めさせ、それによってユーザが手形画像を撮っているとき、手の位置が、得られた手形画像のユーザ機器による分析に影響を及ぼすことを減らす。
図2は、本発明の他の好ましい実施形態による、ユーザ機器に個人用入力パネルを生成する方法のフロー図を示している。この実施形態の方法は、主にユーザ機器によって実行されている。図1に関する実施形態のユーザ機器のいかなる説明も、参照することによってこの実施形態に含まれる。この実施形態による方法は、ステップS1、ステップS2、ステップS3、およびステップS4を含んでいる。ステップS3はステップS31をさらに含む。ステップS1およびS2は、図1に関して示された実施形態において、詳述したので、ここでは詳述しない。
以下で、この実施形態のステップS4およびステップS31を詳述する。
ステップS4において、ユーザ機器は、ユーザ機器上のユーザのタッチポイント情報を取得する。
ここで、タッチポイント情報は、ユーザ機器上のタッチポイントに関する任意の情報を含む。好ましくは、タッチポイント情報は、限定されないが、以下を含む。
1)ユーザ機器上のタッチポイントの位置情報
好ましくは、以前に表示された、入力パネル上で頻繁に使用されるキーは、ユーザ装置により、以前に表示された入力パネルの情報とともに、ユーザ機器上のタッチポイントの位置情報に基づいて、決定されてもよい。例えば、高いタッチ率を有する位置に対応するキーは、頻繁に使用されるキーとして決定されるなどである。
2)タッチポイントの形情報
好ましくは、ユーザ機器は、ユーザ機器上のユーザの親指のタッチポイントの形情報を取得する。画面上の親指のタッチポイントは、厳密な円形ではないまたは厳密な円形に近い形ではないので、ユーザ機器は、タッチポイントの形によってタッチポイントが親指のタッチポイントであるかどうかを判定することができ、ユーザ機器上の親指のタッチポイントの形情報に基づいて、ユーザが左手を使用したか右手を使用したかを判定することもできる。
具体的には、ユーザ機器がユーザ機器上のユーザのタッチポイント情報を取得する実行方法は、限定されないが、以下を含む。
a)ユーザ機器は、ユーザ機器上のユーザの履歴タッチポイント情報を取得する。
例えば、ユーザ機器は、それによって以前記録された、既定の入力パネル上のユーザのタッチポイント情報を取得する。
b)ユーザ機器は、ユーザに既定の入力パネル上で1字または2字以上を事前入力するように促し、事前入力操作におけるタッチポイント情報を、ユーザ機器上のユーザのタッチポイント情報として用いる。
例えば、ユーザ機器は、ユーザに既定の入力パネル上でランダムに入力するように促し、所定の期間内にユーザによって入力されたタッチポイント情報を、ユーザ機器上のユーザのタッチポイント情報として用いる。
なお、上記の例は、本発明を限定することを意図しておらず、単に本発明の技術的解決法をより良く理解するためのものである。ユーザ機器上のユーザのタッチポイント情報を取得する任意の実行方法が、本発明の範囲内に含まれるべきであることを、当業者は理解すべきである。
ステップS31において、ユーザ機器は、手形特徴情報およびタッチポイント情報に基づいて、ユーザの個人用入力パネルを生成する。
具体的には、ユーザ機器が、手形特徴情報およびタッチポイント情報に基づいてユーザの個人用入力パネルを生成する実行方法は、限定されないが、以下を含む。
1)ユーザ機器は、ユーザの手形特徴情報およびタッチポイント情報に基づいて、個人用入力パネルにおけるそれぞれのキーの位置を直接算出し、ユーザに適した個人用入力パネルを生成する。
例えば、ユーザの手形特徴情報が、ユーザの手の全体的な長さと幅の比が相対的に大きいことを含み、タッチポイント情報が、複数のタッチポイントの形情報を含んでいると、複数のタッチポイントの形情報に基づいて、ユーザ機器は、厳密な円形ではないまたは厳密な円形に近い形ではない形を、親指によって押されたタッチポイントの形として識別し、その形に基づいてユーザが右手を使用していることを判定する。さらに、ユーザ機器は、ユーザの手の全体的な長さと幅の比に基づいて、入力パネルにおいて頻繁に使用されるキーの最初の位置を算出する。次に、ユーザ機器は、頻繁に使用されるキーのそれぞれを最初の位置から右方向へずらす。次に、ユーザ機器は、位置が右方向へ移動させられた頻繁に使用されるキーの位置に基づいて、他の頻繁に使用されないキーの位置を算出し、それによってユーザに適した個人用入力パネルを生成する。
なお、ユーザ機器はまた、ユーザの手形特徴情報に基づいて、ユーザがミスタッチしやすい領域を算出してもよく、この領域内でキーのタッチ感度を低減させる。
2)ユーザ機器は、手形特徴情報およびタッチポイント情報に基づいて、既定の入力パネルを調整し、個人用入力パネルを取得する。既定の入力パネル上で行うことができるこの操作は、図1のステップS3で詳述されており、ここでは詳述しない。
ここで、ユーザ機器は、手形特徴情報およびタッチポイント情報に基づいて、既定の入力パネルを調整し、それによって個人用入力パネルを取得する、複数の方法を採用することができる。
例えば、手形特徴情報が、手の全長に対する指の比率が相対的に低いことを含み、さらに、ユーザ機器が、タッチポイント情報に基づいて、ユーザが右手を使用していることを判定すると、ユーザ機器は、既定のユーザ機器上の頻繁に使用されるキーの位置を右方向にずらし、頻繁に使用されるキーを右方向へずらすことによって、より短い指により指の移動距離が制限されたユーザにとって、ユーザが指を移動させる距離を減らすことができ、ユーザがキーをタッチしやすくなる。
別の例として、手形特徴情報が、手のひらの幅が相対的に広いことを含み、ユーザ機器が、手形特徴情報に基づいて、ユーザが左手を使用していることを判定すると、ユーザ機器は、既定の入力パネルの最も左側における一連のキーのタッチ感度を低減させ、それによって、入力パネルにおけるその端部のユーザによるミスタッチの可能性を低減する。
なお、上記の例は、本発明を限定することを意図しておらず、単に本発明の技術的解決法をより良く理解するためのものである。手形特徴情報およびタッチポイント情報に基づいてユーザに適した個人用入力パネルを生成する任意の実行方法が、本発明の範囲内に含まれるべきであることを、当業者は理解すべきである。
この実施形態の解決法によれば、ユーザ機器は、ユーザの手形特徴情報およびタッチポイント情報に関連して入力パネルを調整することができ、ユーザのニーズを満たす個人用入力パネルを生成するようにして、生成された個人用入力パネルは、ユーザの使用習慣をより満たすことができる。
図3は、本発明の好ましい一実施形態による、ユーザ機器に個人用入力パネルを生成する入力パネル生成装置の構造ブロック図を示し、入力パネル生成装置は、第1の取得モジュール1、比較モジュール2、および生成モジュール3を含んでいる。好ましくは、入力パネル生成装置はユーザ機器に組み込まれている。
第1の取得モジュール1は、ユーザの手形情報を取得する。
ここで、手形情報は、手の形の情報を反映し得る任意の情報を含む。限定されないが、好ましくは、手形情報は、手の全体的な長さと幅の比、手の全長に対する指の比率、指の厚さ、手のひらの幅、それぞれの指の間の、長さの比率などを含む。
具体的には、第1の取得モジュール1がユーザの手形情報を取得する実行方法は、限定されないが、以下を含む。
1)第1の取得モジュール1は、ユーザ機器に保存されたユーザの手形情報を直接取得する。
例えば、ユーザ機器は、ユーザの手形情報をユーザ機器に事前に保存することができ、次に、第1の取得モジュール1は、ユーザが個人用入力パネルを生成するためにユーザ機器を使用するとき、ユーザ機器に保存されたユーザの手形情報を直接取得することができる。
なお、上記の例は、本発明を限定することを意図しておらず、単に本発明の技術的解決法をより良く示すためのものである。当業者は、ユーザ機器に保存されたユーザの手形情報を直接取得する任意の実行方法が、本発明の範囲内に含まれるべきであることを理解すべきである。
2)第1の取得モジュール1は、ネットワーク装置に保存されたユーザの手形情報を取得する。
例えば、ユーザはネットワーク装置に手形情報を事前に保存することができ、その後、ユーザが個人用入力パネルを生成するためにユーザ機器を使用するとき、第1の取得モジュール1は、ネットワーク装置にアクセスすることによって、ネットワーク装置に保存されたユーザの手形情報を取得することができる。
なお、上記の例は、本発明を限定することを意図しておらず、単に本発明の技術的解決法をより良く示すためのものである。当業者は、ネットワーク装置からユーザの手形情報を取得する任意の実行方法が、本発明の範囲内に含まれるべきであることを理解すべきである。
3)第1の取得モジュール1が、ユーザによって撮影された画像に基づいて、ユーザの手形情報を取得する。この実施形態において、第1の取得モジュール1は、副取得モジュール(図示せず)および抽出モジュール(図示せず)をさらに含んでいる。
副取得モジュールは、ユーザによって撮影された手形画像を取得する。
ここで、副取得モジュールが、ユーザによって撮影された手形画像を取得する方法は、限定されないが、以下を含む。
a)副取得モジュールは、ユーザ機器にすでに保存された画像の中からユーザによって撮影された手形画像を抽出する。
例えば、副取得モジュールは、ユーザの選択に応じて、ユーザによって撮影された手形画像として、ユーザ機器のアルバムから特定の手形画像を抽出する。
b)副取得モジュールは、表示モジュール(図示せず)および画像取得モジュール(図示せず)をさらに含む。
表示モジュールは、ユーザ機器のカメラを起動し、画面上に位置指示情報を表示する。位置指示情報は、画面上での適切な手の位置を示すためのものである。例えば、位置指示情報は、手またはブロックの形で具体化されてもよく、好ましくは、位置指示情報は、標準の手形の形で具体化される。
好ましくは、ユーザ機器によって起動される表示モジュールのカメラは、前面カメラである。
次に、ユーザは、カメラの前に手を置くことができ、画面上に表示された手が、位置指示情報によって示された適切な位置に配置された後、撮影操作が行われる。
次に、画像取得モジュールは、ユーザの撮影操作に基づいて手形画像を取得する。
例えば、表示モジュールは前面カメラを起動し、画面上に適切な手の位置を示すブロックを表示する。画像取得モジュールは、前面カメラを用いて、ブロック内に置かれた手の画像のユーザの撮影操作に基づいて、ブロック内の手形画像を取得する。
なお、上記の例は、本発明を限定することを意図しておらず、単に本発明の技術的解決法をより良く理解するためのものである。当業者は、ユーザによって撮影された手形画像を取得する任意の実行方法が、本発明の範囲内に含まれるべきであることを理解すべきである。
抽出モジュールは、副取得モジュールによって取得された手形画像の中から手形情報を抽出する。
ここで、抽出モジュールは、複数の方法で、手形画像の中から手形情報を抽出することができる。例えば、画像を分析して手形の輪郭を抽出することによって、手形情報を取得する。
なお、上記の例は、本発明を限定することを意図しておらず、単に本発明の技術的解決法をより良く理解するためのものである。当業者は、手形画像の中から手形情報を抽出する任意の実行方法が、本発明の範囲内に含まれるべきであることを理解すべきである。
なお、上記の例は、本発明を限定することを意図しておらず、単に本発明の技術的解決法をより良く理解するためのものである。当業者は、ユーザの手形情報を取得する任意の実行方法が、本発明の範囲内に含まれるべきであることを理解すべきである。
比較モジュール2は、ユーザの手形特徴情報を取得するために、ユーザの手形情報を所定の手形情報と比較する。ここで、所定の手形情報は、標準の手の手形情報であってもよい。
ここで、手形特徴情報は、手形情報に対応する特徴情報を含んでいてもよい。限定されないが、好ましくは、手形特徴情報は、手の全体的な長さと幅の比の特徴、手の全長に対する指の比率の特徴、指の厚さの特徴、手のひらの幅の特徴、それぞれの指の間の、長さの比率の特徴などを含む。
例えば、比較モジュール2は、ユーザの手形情報を所定の手形情報と比較し、ユーザの手の全長に対する指の比率が、標準の手の形の手の全長に対する指の比率より低いことを取得すると、比較モジュール2によって取得されたユーザの手形特徴情報は、手の全長に対する指の比率が相対的に低いことである。
なお、上記の例は、本発明を限定することを意図しておらず、単に本発明の技術的解決法をより良く理解するためのものである。当業者は、ユーザの手形特徴情報を取得するために、ユーザの手形情報を所定の手形情報と比較する任意の実行方法が、本発明の範囲内に含まれるべきであることを理解すべきである。
生成モジュール3は、手形特徴情報に基づいて、ユーザの個人用入力パネルを生成する。
具体的には、手形特徴情報に基づいて、ユーザに適した個人用入力パネルを生成モジュール3によって生成する実行方法は、限定されないが、以下を含む。
1)生成モジュール3は、ユーザに適した個人用入力パネルを生成するために、ユーザの手形特徴情報に基づいて、個人用入力パネルにおけるそれぞれのキーの位置を直接算出する。
例えば、比較モジュール2によって取得されたユーザの手形特徴情報は、ユーザの全体的な長さと幅の比が相対的に大きいと、生成モジュール3は、ユーザの手の全体的な長さと幅の比に基づいて、入力パネルにおいて頻繁に使用されるキーの位置をまず算出し、次に、頻繁に使用されるキーの決定された位置に基づいて、他の頻繁に使用されないキーの位置を算出し、それによってユーザに適した個人用入力パネルを生成する。頻繁に使用されるキーは、例えば、より高い頻度でユーザがクリックする文字キーなどの、ユーザがクリックする可能性が高いキーである。
好ましくは、生成モジュール3はまた、ユーザの手形特徴情報に基づいて、ユーザによってミスタッチされやすい領域の位置を算出することができ、ミスタッチされやすい領域におけるそれぞれのキーのタッチ感度を低減する。例えば、比較モジュール2によって取得された手形特徴情報は、ユーザの小指が相対的に短いことを含んでいると、生成モジュール3は、小指によってタッチされやすい領域を、ユーザによってミスタッチされやすい領域として算出することができ、それによってミスタッチされやすい領域におけるそれぞれのキーのタッチ感度を低減させ、ユーザのミスタッチによって引き起こされる誤入力を防ぐことができる。ここで、タッチ感度は、ユーザのタッチ操作に対するユーザ機器の感知する度合いを示す。一般に、タッチ感度が高ければ高いほど、ユーザによって行われるタッチ操作は感知されやすい。タッチ感度が低ければ低いほど、ユーザによって行われるタッチ操作は感知されにくい。
なお、上記の例は、本発明を限定することを意図しておらず、単に本発明の技術的解決法をより良く理解するためのものである。ユーザに適した個人用入力パネルを生成できるように、ユーザの手形特徴情報に基づいて、個人用入力パネルにおけるそれぞれのキーの位置を直接算出する任意の実行方法が、本発明の範囲内に含まれるべきであることを、当業者は理解すべきである。
2)生成モジュール3は、第1の調整モジュール(図示せず)を含む。第1の調整モジュールは、個人用入力パネルを取得するために、手形特徴情報に基づいて既定の入力パネルを調整する。好ましくは、既定の入力パネルは、所定の手形情報に適合する。
ここで、既定の入力パネルを調整する操作は、既定の入力パネルのレイアウトへの任意の操作を含んでもよい。限定されないが、好ましくは、既定の入力パネルを調整する操作は、a)例えば、頻繁に使用されるキーの位置を左方向または右方向へ調整するなど、既定の入力パネルの頻繁に使用されるキーの位置を調整すること、b)例えば、ユーザ機器に、キーがユーザによって押されていることを判定させるために、ユーザがより重くタッチする必要があるように、タッチ感度を低く調整するなど、既定の入力パネルにおける領域の部分のタッチ感度を調整すること、好ましくは、感度が調整される領域は、既定の入力パネルにおいてユーザがミスタッチしやすい、手形特徴情報に基づいて決定された領域である。
ここで、第1の調整モジュールは、手形特徴情報に基づいて既定の入力パネルを調整し、それによって個人用入力パネルを取得する、複数の方法を採用することができる。
例えば、第1の調整モジュールは、手形特徴情報におけるそれぞれの指の間での、長さの比率の特徴に基づいて、ユーザの小指および人さし指が相対的に短いことを判定すると、第1の調整モジュールは、小指および人さし指がタッチしやすい位置を、そのようなキーの位置が、中指や薬指がタッチしやすいキーの位置に近づくように移動させる。
なお、個人用入力パネルを生成するプロセスの間、生成モジュール3は、個人用入力パネルを表示できる領域のサイズと関連して、個人用入力パネルにおけるそれぞれのキーの位置をさらに決定してもよい。例えば、ユーザ機器は携帯機器であり、携帯機器上で個人用入力パネルを表示できる領域のサイズは12cm×6cmであると、生成モジュール3によって決定される個人用入力パネルにおけるそれぞれのキーは、その領域内に配置されるべきである。
なお、上記の例は、本発明を限定することを意図しておらず、単に本発明の技術的解決法をより良く理解するためのものである。個人用入力パネルを取得できるように、手形特徴情報に基づいて、既定の入力パネルを調整する任意の実行方法が、本発明の範囲内に含まれるべきであることを、当業者は理解すべきである。
この実施形態の解決法によれば、ユーザ機器は、ユーザの手形情報と標準の手形情報とを比較し、ユーザの個人的ニーズを満たす入力パネルを取得し、入力パネル上のユーザのタッチ操作の精度を高め、それによってユーザのミスタッチによって引き起こされる入力操作の発生の可能性を低くする。さらに、ユーザ機器は、手とカメラレンズとの間の距離を上手くコントロールできるように、画面上に位置指示情報を表示することによって、手形画像を撮るときに、ユーザに位置指示情報内に手を置くように努めさせ、それによってユーザが手形画像を撮っているとき、手の位置が、得られた手形画像のユーザ機器による分析に影響を及ぼすことを減らす。
図4は、本発明の他の好ましい実施形態による、ユーザ機器に個人用入力パネルを生成する入力パネル生成装置の構造ブロック図を示し、この実施形態の入力パネル生成装置は、第1の取得モジュール1、比較モジュール2、生成モジュール3、および第2の取得モジュール4を含み、生成モジュール3は副生成モジュール31をさらに含み、第1の取得モジュール1および比較モジュール2については、すでに詳述したので、ここでは詳述しない。
以下、この実施形態による第2の取得モジュール4および副生成モジュール31を詳述する。
第2の取得モジュール4は、ユーザ機器上のユーザのタッチポイント情報を取得する。
ここで、タッチポイント情報は、ユーザ機器上のタッチポイントに関する任意の情報を含む。好ましくは、タッチポイント情報は、限定されないが、以下を含む。
1)ユーザ機器上のタッチポイントの位置情報
好ましくは、以前に表示された、入力パネル上で頻繁に使用されるキーは、ユーザ装置により、以前に表示された入力パネルの情報とともに、ユーザ機器上のタッチポイントの位置情報に基づいて、決定されてもよい。例えば、高いタッチ率を有する位置に対応するキーは、頻繁に使用されるキーとして決定されるなどである。
2)タッチポイントの形情報
好ましくは、第2の取得モジュール4は、ユーザ機器上のユーザの親指のタッチポイントの形情報を取得する。画面上の親指のタッチポイントは、厳密な円形ではないまたは厳密な円形に近い形ではないので、第2の取得モジュール4は、タッチポイントの形によってタッチポイントが親指のタッチポイントであるかどうかを判定することができ、ユーザ機器上の親指のタッチポイントの形情報に基づいて、ユーザが左手を使用したか右手を使用したかを判定することもできる。
具体的には、第2の取得モジュール4が、ユーザ機器上のユーザのタッチポイント情報を取得する実行方法は、限定されないが、以下を含む。
a)第2の取得モジュール4は、ユーザ機器上のユーザの履歴タッチポイント情報を取得する。
例えば、第2の取得モジュール4は、それによって以前記録された、既定の入力パネル上のユーザのタッチポイント情報を取得する。
b)第2の取得モジュール4は、ユーザに既定の入力パネル上で1字または2字以上を事前入力するように促し、事前入力操作におけるタッチポイント情報を、ユーザ機器上のユーザのタッチポイント情報として用いる。
例えば、第2の取得モジュール4は、ユーザに既定の入力パネル上でランダムに入力するように促し、所定の期間内にユーザによって入力されたタッチポイント情報を、ユーザ機器上のユーザのタッチポイント情報として用いる。
なお、上記の例は、本発明を限定することを意図しておらず、単に本発明の技術的解決法をより良く理解するためのものである。ユーザ機器上のユーザのタッチポイント情報を取得する任意の実行方法が、本発明の範囲内に含まれるべきであることを、当業者は理解すべきである。
副生成モジュール31は、手形特徴情報およびタッチポイント情報に基づいて、ユーザの個人用入力パネルを生成する。
具体的には、副生成モジュール31が、手形特徴情報およびタッチポイント情報に基づいてユーザの個人用入力パネルを生成する実行方法は、限定されないが、以下を含む。
1)副生成モジュール31は、ユーザに適した個人用入力パネルを生成するために、ユーザの手形特徴情報およびタッチポイント情報に基づいて、個人用入力パネルにおけるそれぞれのキーの位置を直接算出する。
例えば、ユーザの手形特徴情報が、ユーザの手の全体的な長さと幅の比が相対的に大きいことを含み、タッチポイント情報が、複数のタッチポイントの形情報を含んでいると、複数のタッチポイントの形情報に基づいて、副生成モジュール31は、厳密な円形ではないまたは厳密な円形に近い形ではない形を、親指によって押されたタッチポイントの形として識別し、その形に基づいてユーザが右手を使用していることを判定する。さらに、ユーザ機器は、ユーザの手の全体的な長さと幅の比に基づいて、入力パネルにおいて頻繁に使用されるキーの最初の位置を算出する。次に、副生成モジュール31は、頻繁に使用されるキーのそれぞれを最初の位置から右方向へずらす。次に、副生成モジュール31は、位置が右方向へ移動させられた頻繁に使用されるキーの位置に基づいて、他の頻繁に使用されないキーの位置を算出し、それによってユーザに適した個人用入力パネルを生成する。
なお、副生成モジュール31はまた、ユーザの手形特徴情報に基づいて、ユーザがミスタッチしやすい領域を算出してもよく、この領域内でキーのタッチ感度を低減させる。
2)副生成モジュール31は、第2の調整モジュール(図示せず)を含む。第2の調整モジュールは、個人用入力パネルを取得するために、手形特徴情報およびタッチポイント情報に基づいて、既定の入力パネルを調整する。既定の入力パネル上で行うことができるこの操作は、図1に示される生成モジュール3の説明で詳述されており、ここでは詳述しない。
ここで、第2の調整モジュールは、手形特徴情報およびタッチポイント情報に基づいて、既定の入力パネルを調整し、それによって個人用入力パネルを取得する、複数の方法を採用することができる。
例えば、手形特徴情報が、手の全長に対する指の比率が相対的に低いことを含み、さらに、第2の調整モジュールが、タッチポイント情報に基づいて、ユーザが右手を使用していることを判定すると、第2の調整モジュールは、既定のユーザ機器上の頻繁に使用されるキーの位置を右方向にずらし、頻繁に使用されるキーを右方向へずらすことによって、より短い指により指の移動距離が制限されたユーザにとって、ユーザが指を移動させる距離を減らすことができ、ユーザがキーをタッチしやすくなる。
別の例として、手形特徴情報が、手のひらの幅が相対的に広いことを含み、第2の調整モジュールが、手形特徴情報に基づいて、ユーザが左手を使用していることを判定すると、第2の調整モジュールは、既定の入力パネルの最も左側における一連のキーのタッチ感度を低減させ、それによって、入力パネルにおけるその端部のユーザによるミスタッチの可能性を低減する。
なお、上記の例は、本発明を限定することを意図しておらず、単に本発明の技術的解決法をより良く理解するためのものである。手形特徴情報およびタッチポイント情報に基づいて、ユーザに適した個人用入力パネルを生成する任意の実行方法が、本発明の範囲内に含まれるべきであることを、当業者は理解すべきである。
この実施形態の解決法によれば、入力パネル生成装置は、ユーザの手形特徴情報およびタッチポイント情報に関連して入力パネルを調整することができ、ユーザのニーズを満たす個人用入力パネルを生成するようにして、生成された個人用入力パネルは、ユーザの使用習慣をより満たすことができる。
なお、本発明は、ソフトウェアおよび/またはソフトウェアとハードウェアの組み合わせにおいて実行できる。例えば、本発明によるさまざまなモジュールは、特定用途向け集積回路(ASIC)または任意の他の同様のハードウェア装置によって実行できる。一実施形態において、本発明のソフトウェアプログラムは、上記のステップまたは機能を行うプロセッサによって実行され得る。同様に、本発明のソフトウェアプログラム(関連するデータ構造を含む)は、例えばRAMメモリ、磁気ドライバまたは光学ドライバまたはソフトフロッピーまたは同様のデバイスなどのコンピュータ可読記憶媒体に格納されてもよい。さらに、本発明のいくつかのステップまたは機能は、例えば、さまざまな機能またはステップを行うプロセッサと協働する回路のようなハードウェアを用いて実行されてもよい。
当業者にとって、本発明が上記の例示的な実施形態の詳細に限定されないことは明らかであり、本発明は、本発明の趣旨または基本的特徴から逸脱することなく、他の実施形態とともに実行され得る。したがって、実施形態は例として見なされるべきであり、限定的なものでは全くない。本発明の範囲は、上記の記述ではなく、添付の請求項によって限定される。したがって、請求項の均等の要素の意味および範囲に該当することが意図される全ての変形例は、本発明の範囲内に含まれるべきである。請求項における引用符号は、関連する請求項を限定するものとして見なされるべきではない。さらに、「含む」の用語は、他のユニットまたはステップを排除せず、単数は複数を排除しないことは明らかである。システムの請求項に記載された複数のユニットまたはモジュールはまた、ソフトウェアまたはハードウェアを通じて単一のユニットまたはモジュールによって実行されてもよい。第1および第2のような用語は、名前を示すのに用いられ、特定の順序を示すものではない。

Claims (19)

  1. ユーザ機器に個人用入力パネルを生成する方法であって、
    a)ユーザの手形情報を取得すること、
    b)前記ユーザの手形特徴情報を取得するために、前記ユーザの前記手形情報を所定の手形情報と比較すること、および
    c)前記手形特徴情報に基づいて、前記ユーザの個人用入力パネルを生成することを含む方法。
  2. 前記ステップc)が、
    前記個人用入力パネルを取得するために、前記手形特徴情報に基づいて、既定の入力パネルを調整することを含む、請求項1記載の方法。
  3. 前記ユーザ機器上の前記ユーザのタッチポイント情報を取得することをさらに含み、
    前記ステップc)が、
    c’)前記手形特徴情報および前記タッチポイント情報に基づいて、前記ユーザの個人用入力パネルを生成することを含む請求項1記載の方法。
  4. 前記ステップc’)が、
    前記個人用入力パネルを取得するために、前記手形特徴情報および前記タッチポイント情報に基づいて、既定の入力パネルを調整することを含む、請求項3記載の方法。
  5. 前記タッチポイント情報が
    前記ユーザ機器上のタッチポイントの位置情報と、
    前記タッチポイントの形情報と
    のうちの少なくとも1つを含む、請求項3または4記載の方法。
  6. 前記既定の入力パネルを調整する操作が、
    前記既定の入力パネルの頻繁に使用されるキーの位置を調整することと、
    前記既定の入力パネルにおける領域の部分のタッチ感度を調整すること
    とを含む、請求項2または4記載の方法。
  7. 前記ステップa)が、
    a1)前記ユーザによって撮影された手形画像を取得することと、
    a2)前記手形画像から前記手形情報を抽出すること
    とを含む、請求項1〜4のいずれか1項に記載の方法。
  8. 前記ステップa1)が、
    前記ユーザ機器のカメラを起動し、画面上での適切な手の位置を示すための位置指示情報を前記画面上に表示することと、
    前記ユーザの撮影操作に基づいて、前記手形画像を取得すること
    とを含む、請求項7記載の方法。
  9. ユーザ機器に個人用入力パネルを生成する入力パネル生成装置であって、
    ユーザの手形情報を取得するように構成される第1の取得モジュールと、
    前記ユーザの手形特徴情報を取得するために、前記ユーザの手形情報を所定の手形情報と比較するように構成される比較モジュールと、
    前記手形特徴情報に基づいて、前記ユーザの個人用入力パネルを生成するように構成される生成モジュール
    とを含む入力パネル生成装置。
  10. 前記生成モジュールが、
    前記個人用入力パネルを取得するために、前記手形特徴情報に基づいて、既定の入力パネルを調整するように構成される、第1の調整モジュールを含む、請求項9記載の入力パネル生成装置。
  11. 前記入力パネル生成装置がさらに、
    前記ユーザ機器上の前記ユーザのタッチポイント情報を取得するように構成される第2の取得モジュールをさらに含み、
    前記生成モジュールが、
    前記手形特徴情報および前記タッチポイント情報に基づいて、前記ユーザの前記個人用入力パネルを生成するように構成される副生成モジュールを含む、請求項9記載の入力パネル生成装置。
  12. 前記副生成モジュールが、
    前記個人用入力パネルを取得するために、前記手形特徴情報および前記タッチポイント情報に基づいて、既定の入力パネルを調整するように構成される第2の調整モジュールを含む請求項11記載の入力パネル生成装置。
  13. 前記タッチポイント情報が、
    前記ユーザ機器上のタッチポイントの位置情報と、
    前記タッチポイントの形情報
    とのうちの少なくとも1つを含む請求項11または12記載の入力パネル生成装置。
  14. 前記既定の入力パネルを調整する操作が、
    前記既定の入力パネルの頻繁に使用されるキーの位置を調整することと、
    前記既定の入力パネルにおける領域の部分のタッチ感度を調整することとを含む請求項10または12記載の入力パネル生成装置。
  15. 前記第1の取得モジュールが、
    前記ユーザによって撮影された手形画像を取得するように構成される副取得モジュールと、
    前記手形画像から前記手形情報を抽出するように構成される抽出モジュール
    とを含む請求項9〜12のいずれか1項に記載の入力パネル生成装置。
  16. 前記副取得モジュールが、
    前記ユーザ機器のカメラを起動し、画面上での適切な手の位置を示すための位置指示情報を前記画面上に表示するように構成される表示モジュールと、
    前記ユーザの撮影操作に基づいて、前記手形画像を取得するように構成される画像取得モジュール
    とを含む請求項15記載の入力パネル生成装置。
  17. コンピュータの命令を含むコンピュータ可読記憶媒体であって、前記コンピュータの命令が実行されるとき、請求項1〜8のいずれか1項に記載の方法が行われるコンピュータ可読記憶媒体。
  18. コンピュータプログラム製品であって、前記コンピュータプログラム製品が実行されるとき、請求項1〜8のいずれか1項に記載の方法が行われるコンピュータプログラム製品。
  19. メモリおよびプロセッサを含むコンピュータ装置であって、前記メモリがコンピュータコードを記憶し、前記プロセッサが、前記コンピュータコードを実行することによって、請求項1〜8のいずれか1項に記載の方法を行うように構成されるコンピュータ装置。
JP2016559481A 2013-12-17 2014-09-18 個人用入力パネルを生成する方法および装置 Active JP6397508B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201310692810.3 2013-12-17
CN201310692810.3A CN103699882A (zh) 2013-12-17 2013-12-17 一种用于生成个性化输入面板的方法和装置
PCT/CN2014/086846 WO2015090092A1 (zh) 2013-12-17 2014-09-18 一种用于生成个性化输入面板的方法和装置

Publications (2)

Publication Number Publication Date
JP2017504917A true JP2017504917A (ja) 2017-02-09
JP6397508B2 JP6397508B2 (ja) 2018-09-26

Family

ID=50361405

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016559481A Active JP6397508B2 (ja) 2013-12-17 2014-09-18 個人用入力パネルを生成する方法および装置

Country Status (5)

Country Link
US (1) US10379659B2 (ja)
EP (1) EP3086210A4 (ja)
JP (1) JP6397508B2 (ja)
CN (1) CN103699882A (ja)
WO (1) WO2015090092A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103699882A (zh) * 2013-12-17 2014-04-02 百度在线网络技术(北京)有限公司 一种用于生成个性化输入面板的方法和装置
US9626020B2 (en) * 2014-09-12 2017-04-18 Microsoft Corporation Handedness detection from touch input
CN104391646B (zh) 2014-11-19 2017-12-26 百度在线网络技术(北京)有限公司 调整对象属性信息的方法及装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004013381A (ja) * 2002-06-05 2004-01-15 Kazuyoshi Kotani 仮想キー片手入力装置
JP2008071158A (ja) * 2006-09-14 2008-03-27 Fujitsu Ltd 生体認証装置の生体誘導制御方法及び生体認証装置
JP2009301094A (ja) * 2008-06-10 2009-12-24 Sharp Corp 入力装置及び入力装置の制御方法
JP2012027581A (ja) * 2010-07-21 2012-02-09 Kddi Corp 携帯端末およびキー表示方法
JP2013127740A (ja) * 2011-12-19 2013-06-27 Minebea Co Ltd 入力装置
WO2014045953A1 (ja) * 2012-09-20 2014-03-27 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP2015049519A (ja) * 2013-08-29 2015-03-16 シャープ株式会社 ソフトウェアキーボードを表示可能な画像表示装置及びその制御方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0201074D0 (en) * 2002-01-18 2002-03-06 3G Lab Ltd Graphic user interface for data processing device
US8358277B2 (en) * 2008-03-18 2013-01-22 Microsoft Corporation Virtual keyboard based activation and dismissal
US20110102335A1 (en) * 2008-06-02 2011-05-05 Kensuke Miyamura Input device, input method, program, and storage medium
US8100425B2 (en) * 2008-08-01 2012-01-24 Maurice Raynor Bicycle having independent rear wheel steering
CN101727535A (zh) * 2008-10-30 2010-06-09 北大方正集团有限公司 一种跨系统患者交叉索引方法及其系统
US8502787B2 (en) * 2008-11-26 2013-08-06 Panasonic Corporation System and method for differentiating between intended and unintended user input on a touchpad
US8368658B2 (en) * 2008-12-02 2013-02-05 At&T Mobility Ii Llc Automatic soft key adaptation with left-right hand edge sensing
US8300023B2 (en) * 2009-04-10 2012-10-30 Qualcomm Incorporated Virtual keypad generator with learning capabilities
US8493346B2 (en) * 2009-12-31 2013-07-23 International Business Machines Corporation Morphing touchscreen keyboard interface
CN102467330A (zh) 2010-11-16 2012-05-23 吉易高科股份有限公司 一种虚拟键盘装置及其操作方法
JPWO2012070682A1 (ja) * 2010-11-24 2014-05-19 日本電気株式会社 入力装置及び入力装置の制御方法
CN102736829A (zh) * 2011-04-03 2012-10-17 苏州达方电子有限公司 具有虚拟键盘的触控装置及其形成虚拟键盘的方法
US8718334B2 (en) 2011-05-05 2014-05-06 Honeywell International Inc. System for biometric hand analysis
US9448724B2 (en) * 2011-07-11 2016-09-20 International Business Machines Corporation Dynamically customizable touch screen keyboard for adapting to user physiology
US8750852B2 (en) * 2011-10-27 2014-06-10 Qualcomm Incorporated Controlling access to a mobile device
US20130300668A1 (en) 2012-01-17 2013-11-14 Microsoft Corporation Grip-Based Device Adaptations
JP2014137627A (ja) * 2013-01-15 2014-07-28 Sony Corp 入力装置、出力装置および記憶媒体
CN103699882A (zh) * 2013-12-17 2014-04-02 百度在线网络技术(北京)有限公司 一种用于生成个性化输入面板的方法和装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004013381A (ja) * 2002-06-05 2004-01-15 Kazuyoshi Kotani 仮想キー片手入力装置
JP2008071158A (ja) * 2006-09-14 2008-03-27 Fujitsu Ltd 生体認証装置の生体誘導制御方法及び生体認証装置
US20080226136A1 (en) * 2006-09-14 2008-09-18 Fujitsu Limited Living body guidance control method for a biometrics authentication device, and biometrics authentication device
JP2009301094A (ja) * 2008-06-10 2009-12-24 Sharp Corp 入力装置及び入力装置の制御方法
JP2012027581A (ja) * 2010-07-21 2012-02-09 Kddi Corp 携帯端末およびキー表示方法
JP2013127740A (ja) * 2011-12-19 2013-06-27 Minebea Co Ltd 入力装置
WO2014045953A1 (ja) * 2012-09-20 2014-03-27 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP2015049519A (ja) * 2013-08-29 2015-03-16 シャープ株式会社 ソフトウェアキーボードを表示可能な画像表示装置及びその制御方法

Also Published As

Publication number Publication date
EP3086210A1 (en) 2016-10-26
JP6397508B2 (ja) 2018-09-26
US20160266698A1 (en) 2016-09-15
EP3086210A4 (en) 2017-08-23
CN103699882A (zh) 2014-04-02
US10379659B2 (en) 2019-08-13
WO2015090092A1 (zh) 2015-06-25

Similar Documents

Publication Publication Date Title
KR102632647B1 (ko) 얼굴과 손을 관련지어 검출하는 방법 및 장치, 전자기기 및 기억매체
KR102154416B1 (ko) 지문 입력 제시 방법 및 장치
KR101896947B1 (ko) 제스쳐를 이용한 입력 장치 및 방법
US9170728B2 (en) Electronic device and page zooming method thereof
US20150242118A1 (en) Method and device for inputting
CN105843440B (zh) 电子显示器的配准
JP6314251B2 (ja) 操作入力装置、操作入力方法及びプログラム
US20210281744A1 (en) Action recognition method and device for target object, and electronic apparatus
WO2014151031A2 (en) Visual gestures
WO2017032078A1 (zh) 一种界面控制方法及移动终端
US20140043255A1 (en) Electronic device and image zooming method thereof
US20150241968A1 (en) Method for Processing Information and Electronic Device
JP6397508B2 (ja) 個人用入力パネルを生成する方法および装置
CN107368181B (zh) 一种手势识别方法及装置
CN108170214A (zh) 电子装置、显示控制方法及相关产品
WO2015067166A1 (zh) 一种触摸式输入方法及装置
US10248307B2 (en) Virtual reality headset device with front touch screen
US20120256964A1 (en) Information processing device, information processing method, and program storage medium
CN107967091B (zh) 一种人机交互方法及用于人机交互的计算设备
US20140245214A1 (en) Enabling search in a touchscreen device
US10321048B2 (en) Interaction method, interaction apparatus, and user equipment
CN107534700B (zh) 一种用于终端的信息输入方法及终端
CN106293037B (zh) 一种交互方法及电子设备
WO2017215211A1 (zh) 一种基于具有触摸屏的智能终端的显示图片方法和电子设备
JP2014170367A (ja) 物体検出装置、物体検出方法、物体検出システム及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171219

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180319

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180821

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180831

R150 Certificate of patent or registration of utility model

Ref document number: 6397508

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250