JP6836662B2 - ユーザーインターフェースの表示方法及び電子デバイス - Google Patents

ユーザーインターフェースの表示方法及び電子デバイス Download PDF

Info

Publication number
JP6836662B2
JP6836662B2 JP2019551393A JP2019551393A JP6836662B2 JP 6836662 B2 JP6836662 B2 JP 6836662B2 JP 2019551393 A JP2019551393 A JP 2019551393A JP 2019551393 A JP2019551393 A JP 2019551393A JP 6836662 B2 JP6836662 B2 JP 6836662B2
Authority
JP
Japan
Prior art keywords
image
swipe
processor
images
data set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019551393A
Other languages
English (en)
Other versions
JP2020515955A (ja
Inventor
元麟 江
元麟 江
俊超 ▲呂▼
俊超 ▲呂▼
献仁 ▲許▼
献仁 ▲許▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Egis Technology Inc
Original Assignee
Egis Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Egis Technology Inc filed Critical Egis Technology Inc
Publication of JP2020515955A publication Critical patent/JP2020515955A/ja
Application granted granted Critical
Publication of JP6836662B2 publication Critical patent/JP6836662B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1335Combining adjacent partial images (e.g. slices) to create a composite input or reference pattern; Tracking a sweeping finger movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/50Maintenance of biometric data or enrolment thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/67Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Collating Specific Patterns (AREA)
  • Image Input (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本発明は、インターフェース表示技術に関し、特に、指紋登録に適用するユーザーインターフェースの表示方法及び前記表示方法を用いる電子デバイスに関する。
近年、指紋認識技術は、各種電子デバイスに広く用いられ、各種身分登録や身分認証機能を提供している。しかしながら、一般的な指紋認識技術は、使用者が指を指紋センサに押圧し、1回の押圧か複数回の押圧によって指紋を登録し、対応するユーザーインターフェースを提供して、使用者に指紋登録の進度を知らせる。例えば、複数回の押圧によって指紋を登録する場合、使用者が1回押圧する毎に、全体又は十分な大きな範囲の指紋を表示する、即ち、指紋登録を完成することを表すまで、ユーザーインターフェースの対応する指紋画像を増加する。
しかしながら、使用者が、スワイプ方式で指紋を登録する場合、現在、周知の指紋認識の関連技術では、使用者の指のスワイプ進度に基づき、指紋画像をユーザーインターフェースに対応して表示して、使用者に指紋登録の進度を知らせることができない。即ち、指をスワイプして指紋登録を行う過程において、使用者は、指紋登録の進度をリアルタイムで知り得ることができない。
本発明は、使用者がスワイプ方式で指紋登録を行う過程において、電子デバイスのディスプレイによって対応する指紋登録進度を知り得ることができるユーザーインターフェースの表示方法及び電子デバイスを提供する。
本発明のユーザーインターフェースの表示方法は、指紋登録に適用する。前記表示方法は、指紋センサによってスワイプ画像を取得するステップと、スワイプ画像を分析して、スワイプ画像的複数の特徴点を取得するステップと、スワイプ画像が一枚目のスワイプ画像であるか否か判断するステップと、スワイプ画像が一枚目のスワイプ画像である場合、スワイプ画像の前記複数の特徴点に基づき、事前登録データセットを生成するステップと、事前登録データセットを分析して、基礎画像パラメータを取得するステップと、基礎画像パラメータに基づき、完成領域をユーザーインターフェースの参考画像に表示するステップと、を含む。
本発明のユーザーインターフェースの表示方法は、指紋登録に適用する。前記表示方法は、指紋センサによってスワイプ画像を取得するステップと、スワイプ画像を分析して、スワイプ画像的複数の特徴点を取得し、スワイプ画像の最も左上角位置に位置する特徴点の座標パラメータを取得するステップと、スワイプ画像が一枚目のスワイプ画像であるか否か判断するステップと、スワイプ画像が一枚目のスワイプ画像である場合、スワイプ画像の前記複数の特徴点に基づき、事前登録データセットを生成するステップと、座標パラメータ及びスワイプ画像の面積に基づき、完成領域をユーザーインターフェースの参考画像に表示するステップと、を含む。
本発明の電子デバイスは、指紋センサ、プロセッサ及びディスプレイを含む。指紋センサは、スワイプ画像を取得するのに用いる。プロセッサは、指紋センサに結合する。プロセッサは、スワイプ画像を分析して、スワイプ画像の複数の特徴点を取得し、スワイプ画像が一枚目のスワイプ画像であるか否か判断するのに用いる。ディスプレイは、プロセッサに結合する。プロセッサは、スワイプ画像が一枚目のスワイプ画像であると判断する場合、プロセッサは、スワイプ画像の前記複数の特徴点に基づき、事前登録データセットを生成し、事前登録データセットを分析して、基礎画像パラメータを取得する。プロセッサは、基礎画像パラメータに基づき、ディスプレイによって完成領域をユーザーインターフェースの参考画像に表示する。
本発明の電子デバイスは、指紋センサ、プロセッサ及びディスプレイを含む。指紋センサは、スワイプ画像を取得するのに用いる。プロセッサは、指紋センサに結合する。プロセッサは、スワイプ画像を分析し、前記スワイプ画像の最も左上角位置に位置する特徴点の座標パラメータを取得する。プロセッサは、更に、スワイプ画像が一枚目のスワイプ画像であるか否か判断するのに用いる。ディスプレイは、プロセッサに結合する。プロセッサは、スワイプ画像が一枚目のスワイプ画像であると判断する場合、スワイプ画像の前記複数の特徴点に基づき、事前登録データセットを生成する。プロセッサは、座標パラメータ及びスワイプ画像の面積に基づき、完成領域をユーザーインターフェースの参考画像に表示する。
上述に基づき、本発明のユーザーインターフェースの表示方法及び電子デバイスは、指紋登録過程において取得する複数のスワイプ画像を分析することで、対応する画像調整パラメータを取得することができると共に、画像調整パラメータに基づき、現在のユーザーインターフェースの参考画像の完成領域の範囲の変化を示して、リアルタイムの指紋登録進度の情報を使用者に提供することができる。
画像調整パラメータに基づき、ユーザーインターフェースの参考画像の完成領域の範囲の変化を表して、リアルタイムの指紋登録進度の情報を使用者に提供する。
本発明の上記特徴と利点を更にわかりやすくするために、以下に、実施形態を挙げて図面と共に詳細に説明する。
本発明の実施形態による電子デバイスの概略図である。 本発明の実施形態による指紋登録方法のフローチャートである。 発明の第一実施形態による指紋登録方法のフローチャートである。 発明の第一実施形態による事前登録データセットの概略図である。 発明の第一実施形態による指のスワイプ動作及び対応するユーザーインターフェース表示の概略図である。 発明の第一実施形態による指のスワイプ動作及び対応するユーザーインターフェース表示の概略図である。 発明の第一実施形態による指のスワイプ動作及び対応するユーザーインターフェース表示の概略図である。 発明の第一実施形態による指のスワイプ動作及び対応するユーザーインターフェース表示の概略図である。 発明の第一実施形態による指のスワイプ動作及び対応するユーザーインターフェース表示の概略図である。 図6は、発明の第二実施形態による指紋登録方法のフローチャートである。 図7は、発明の第二実施形態による事前登録データセットの概略図である。 発明の第二実施形態による指のスワイプ動作及び対応するユーザーインターフェース表示の概略図である。 発明の第二実施形態による指のスワイプ動作及び対応するユーザーインターフェース表示の概略図である。 発明の第二実施形態による指のスワイプ動作及び対応するユーザーインターフェース表示の概略図である。 発明の第二実施形態による指のスワイプ動作及び対応するユーザーインターフェース表示の概略図である。 発明の第二実施形態による指のスワイプ動作及び対応するユーザーインターフェース表示の概略図である。 発明の第二実施形態による指のスワイプ動作及び対応するユーザーインターフェース表示の概略図である。 発明の第二実施形態による指のスワイプ動作及び対応するユーザーインターフェース表示の概略図である。 図9は、発明の第三実施形態による指紋登録方法のフローチャートである。 図10は、発明の第三実施形態による事前登録データセットの概略図である。 発明の第三実施形態による指のスワイプ動作及び対応するユーザーインターフェース表示の概略図である。 発明の第三実施形態による指のスワイプ動作及び対応するユーザーインターフェース表示の概略図である。 発明の第三実施形態による指のスワイプ動作及び対応するユーザーインターフェース表示の概略図である。 発明の第三実施形態による指のスワイプ動作及び対応するユーザーインターフェース表示の概略図である。 発明の第三実施形態による指のスワイプ動作及び対応するユーザーインターフェース表示の概略図である。 発明の第三実施形態による指のスワイプ動作及び対応するユーザーインターフェース表示の概略図である。 発明の第三実施形態による指のスワイプ動作及び対応するユーザーインターフェース表示の概略図である。 発明の第三実施形態による指のスワイプ動作及び対応するユーザーインターフェース表示の概略図である。 発明の第三実施形態による指のスワイプ動作及び対応するユーザーインターフェース表示の概略図である。
具体的な実施方式
本発明の内容を更に容易に理解させるために、以下に、本発明の確実に実施できる例として実施形態を特に挙げる。また、可能な限り、図面及び実施方式は、同じ符号の部材/構成要素/ステップを使用し、同じ又は類似の部材を表す。
図1は、本発明の実施形態による電子デバイスの概略図である。図1を参考にすると、電子デバイス100は、プロセッサ110、指紋センサ120、メモリ130及びディスプレイ140を含む。プロセッサ110は、指紋センサ120、メモリ130及びディスプレイ140に結合する。電子デバイス100は、例えば、スマートフォン(smart phone)、ノートパソコン(notebook,NB)、タブレットコンピュータ(tablet PC)等の電子製品であってもよい。本実施形態において、電子デバイス100は、指紋センサ120によって指紋検出操作を実行して、使用者の指紋画像(image)を採集する。本実施形態において、使用者が指を指紋センサ120に置いてスワイプ(swiping)動作を行う時、指紋センサ120は、指紋検出を行う。指紋センサ120が、複数のスワイプ画像を連続で取得して、プロセッサ110に提供する。プロセッサ110は、これらのスワイプ画像を分析して、スワイプ画像から複数の特徴点(feature point)を取り出す。これらの特徴点は、指の指紋の特徴点を指す。その後、プロセッサ110は、これらの特徴点データに基づき、指紋登録データを生成する。
本実施形態において、指紋センサ120は、これらのスワイプ画像を逐一取得し、プロセッサ110が逐一分析する過程において、プロセッサ110は、逐一取得したスワイプ画像の分析結果に基づき、ディスプレイ140に表示するユーザーインターフェース(User Interface, UI)に含まれる指紋参考画像の完成領域を対向して変更する。本実施形態において、ユーザーインターフェースの参考画像は、完成領域を含む。参考画像の完成領域は、取得した指紋情報の覆う範囲を表すのに用い、参考画像の完成領域の範囲の変化は、現在の使用者のスワイプの程度(即ち、指紋情報の取得進度)に対応して徐々に増加並びに変更する。したがって、本発明の電子デバイス100の指紋登録機能は、良好な相互作用効果を提供でき、使用者は、現在の登録進度を知り得ることができる。
本実施形態において、プロセッサ110は、例えば、中央処理装置(Central Processing Unit, CPU)、システムオンチップ(System on Chip, SOC)またはその他のプログラム可能な一般用途または特殊用途のマイクロプロセッサ(microprocessor)、デジタル信号プロセッサ(Digital Signal Processor, DSP)、プログラマブルコントローラ、特定用途向け集積回路(Application Specific Integrated Circuits, ASIC)、プログラマブルロジックデバイス(Progメモリmable Logic Device, PLD)、その他の類似の処理装置またはこれらのデバイスの組み合わせである。
本実施形態において、指紋センサ120は、例えば、静電容量式指紋センサまたは光学式指紋センサであるが、本発明は、指紋センサ120の種類を限定しない。本実施形態において、指紋センサ120の指紋検出メカニズムはスワイプ式(swiping)検出または押圧式(pressing)検出であってもよい。注意すべきこととして、本発明の各実施形態の指紋登録は、スワイプ式検出によって指紋登録を行う。即ち、指紋登録を行う過程において、使用者は、指を指紋センサ120の検出表面に置いてスワイプを行い、指紋センサ120は、検出表面を介して使用者の指紋情報を検出並びに取得する。例を挙げると、電子デバイス100は、使用者が指をスワイプすることで指紋登録を行うよう、即ち、指紋センサ120は、スワイプ式検出によって指紋検出を行い、指紋認証を行う時、使用者が指を押圧することで指紋認証を行う、即ち、指紋センサ120は、押圧式によって指紋検出を行うように設計してもよい。
本実施形態において、メモリ130は、本発明の各実施形態に記載の指紋データを記憶し、また、関連するアプリケーションプログラムを記憶して、プロセッサ110がこれを読み取って実行するのに用いる。
本実施形態において、ディスプレイ140は、例えば、液晶ディスプレイ(Liquid Crystal Display, LCD)、発光ダイオード(Light Emitting Diode, LED)ディスプレイ、マイクロ発光ダイオード(Micro LED)ディスプレイまたは有機発光ダイオード(Organic LED)ディスプレイ等のディスプレイであるが、本発明は、ディスプレイ140の種類を限定しない。本実施形態において、使用者が指紋登録を行う時、ディスプレイ140は、対応するユーザーインターフェースを表示し、ユーザーインターフェースに、1つの指紋をシミュレーションする参考画像を含む。使用者が指紋センサ120において指をスワイプする過程において、ディスプレイ140が表示する参考画像の完成領域の範囲は、指紋センサ120が検出した指紋データの増加と共に対応して変化及び大きくなる。
図2は、本発明の実施形態による指紋登録方法のフローチャートである。図1及び図2を参考にすると、本実施形態の指紋登録方法は、図1の実施形態の電子デバイス100に適用できる。使用者が指紋登録を行う時、電子デバイス100は、指紋センサ120によって指紋スワイプ検出操作を実行して、対象(即ち、使用者の指)のスワイプ画像を逐一取得する。ステップS210では、指紋センサ120は、一枚のスワイプ画像を取得する。ステップS220では、プロセッサ110は、スワイプ画像を分析して、スワイプ画像の複数の特徴点を取得する。ステップS225では、プロセッサ110は、スワイプ画像が一枚目のスワイプ画像であるか否か判断する。一枚目のスワイプ画像である場合、ステップS230を実行する。ステップS230では、プロセッサ110は、スワイプ画像の特徴点に基づき、事前登録データセットを生成し、事前登録データセットの基礎画像パラメータ(h)を分析並びに取得する。ステップS232では、プロセッサ110は、基礎画像パラメータ(h)に基づき、参考画像の完成領域をユーザーインターフェースに表示する。一枚目のスワイプ画像ではない場合、ステップS235を実行する。ステップS235では、プロセッサ110は、スワイプ画像の特徴点を事前登録データセットに組み込み、合併後の事前登録データセットを生成する。ステップS240では、プロセッサ110は、合併後の事前登録データセットを分析して、合併画像パラメータ(H)を取得し、合併画像パラメータ(H)と基礎画像パラメータ(h)に基づき、画像調整パラメータ(Step=H−h)を取得する。画像調整パラメータ(Step)は、合併画像パラメータ(H)から基礎画像パラメータ(h)を減じたものに等しい。ステップS245では、プロセッサ110は、合併画像パラメータ(H)を新たな基礎画像パラメータ(h)とする。ステップS250では、プロセッサ110は、画像調整パラメータ(Step)に基づき、ユーザーインターフェースの参考画像の完成領域の範囲を増加する、即ち、完成領域の長さを増加する。本願のユーザーインターフェースの表示方式及び指紋登録の技術詳細を当業者に更に理解させるために、以下、複数の実施形態を提出してこれを詳細に説明する。
図3は、発明の第一実施形態による指紋登録方法のフローチャートである。図1及び図3を参考にすると、本実施形態の指紋登録方法は、図1の実施形態の電子デバイス100に適用できる。使用者が指紋登録を行う時、ステップS310では、電子デバイス100は、指紋センサ120によって対象(即ち、使用者の指)を検出して、一枚のスワイプ画像を取得する。ステップS320では、プロセッサ110は、スワイプ画像を分析して、スワイプ画像の複数の特徴点を取得する。ステップS331では、プロセッサ110は、スワイプ画像が一枚目のスワイプ画像であるか否か判断する。一枚目のスワイプ画像である場合、プロセッサ110は、ステップS332を実行する。ステップS332では、プロセッサ110は、スワイプ画像の特徴点に基づき、事前登録データセットを生成し、事前登録データセットの基礎画像パラメータ(h)を取得する。ステップS333では、プロセッサ110は、基礎画像パラメータ(h)に基づき、参考画像の完成領域を表示する。一枚目のスワイプ画像ではない場合、プロセッサ110は、ステップS334を実行する。ステップS334では、プロセッサ110は、スワイプ画像の特徴点を事前登録データセットに組み込み、合併後の事前登録データセットを生成する。
ステップS340では、プロセッサ110は、合併後の事前登録データセットを分析して、合併画像パラメータ(H)を取得し、合併画像パラメータ(H)と基礎画像パラメータ(h)に基づき、画像調整パラメータ(Step=H−h)を取得する。画像調整パラメータ(Step)は、合併画像パラメータ(H)から基礎画像パラメータ(h)を減じたものに等しい。ステップS341では、プロセッサ110は、合併画像パラメータ(H)を新たな基礎画像パラメータ(h)とする。ステップS350では、プロセッサ110は、画像調整パラメータ(Step)に基づき、参考画像の完成領域の範囲を増加する、即ち、完成領域の長さを増加する。ステップS380では、プロセッサ110は、合併画像パラメータ(H)がプリセット閾値より大きいか否か判断する。大きい場合、十分な指紋登録データを取得したことを表し、プロセッサ110は、指紋センサ120の指紋検出操作を終了し、事前登録データセットを指紋登録データセットとしてメモリ130に記憶して、指紋登録プログラムを完成する。大きくない場合、プロセッサ110は、ステップS310を実行して、次の一枚のスワイプ画像を取得する。
図4は、発明の第一実施形態による事前登録データセットの概略図である。図5A〜図5Eは、発明の第一実施形態による指のスワイプ動作及び対応するユーザーインターフェース表示の概略図である。図1、図4及び図5A〜図5Eを参考にすると、本実施形態は上記図3のフローにも適用できる。本実施形態において、指紋センサ120が指Fの一枚目のスワイプ画像410を取得した後、プロセッサ110は、スワイプ画像410を分析して、スワイプ画像410の複数の特徴点411及び基礎画像パラメータhを取得する。説明しなければならないこととして、スワイプ画像410の面積は、指紋センサ120の検出表面の面積に等しい。本実施形態において、基礎画像パラメータhの初期値は、一枚目のスワイプ画像410のこれらの特徴点411の長さ方向に距離が最も離れた2つの特徴点の距離であってもよいが、本発明は、これに限定しない。別の実施形態において、基礎画像パラメータhの初期値は、スワイプ画像410の長さ、即ち、指紋センサ120の検出表面の長さであってもよい。プロセッサ110は、スワイプ画像410の特徴点411に基づき、事前登録データセットを生成する。続いて、プロセッサ110は、次の一枚のスワイプ画像420を継続して取得し、スワイプ画像420の特徴点を取得する。本実施形態において、プロセッサ110は、スワイプ画像420の特徴点を事前登録データセット(即ち、スワイプ画像410と420の特徴点が合併する)に組み込み、新たな事前登録データセット400とする。プロセッサ110は、合併後の事前登録データセット400の合併画像パラメータHを計算する。同様の理由で、合併画像パラメータHは、スワイプ画像410と420を合併させた後、合併後の特徴点の長さ方向に距離が最も離れた2つの特徴点の距離であってもよく、スワイプ画像410と420を合併させた後、2枚のスワイプ画像の長さの合計(即ち、指紋センサ120の検出表面の長さの2倍)からスワイプ画像410と420の重なり部分を減じた長さでもよい。続いて、プロセッサ110は、合併画像パラメータHから基礎画像パラメータhを減じて、画像調整パラメータStep(=H−h)を取得する。
即ち、プロセッサ110が一枚のスワイプ画像の特徴点を組み込む毎に、プロセッサ110は、合併後の事前登録データセット400が新たに加える長さを計算して、これによりユーザーインターフェース500の参考画像510の完成領域511の長さを調整する。注意すべきこととして、参考画像510の完成領域511の幅DWは、プリセットしたものであり、一定である。一枚のスワイプ画像の特徴点データを新たに加える毎に、プロセッサ110は、完成領域511の長さを対応して増加する。また、プロセッサ110は、合併画像パラメータHがプリセット閾値より大きいか否か判断する。大きい場合、十分な指紋登録データを取得したことを表す。例えば、合併画像パラメータHがプリセット閾値より大きい時、十分な数の指紋特徴点を取得したことを表す。十分な数のスワイプ画像を取得したことを表してもよい。したがって、プロセッサ110は、事前登録データセットを指紋登録データセットとしてメモリ130に記憶して、指紋登録プログラムを完成する。
例を挙げると、図5A〜図5Eを例とする。図5Aに示すように、使用者が指Fを電子デバイス100の指紋センサ120に置いてスワイプ動作を行う時、電子デバイス100は、ユーザーインターフェース500に参考画像510を表示し、スワイプ画像を逐一取得する。一枚目のスワイプ画像を取得する時、電子デバイス100は、対応する完成領域511を参考画像510に表示する。完成領域511の長さは、一枚目のスワイプ画像の基礎画像パラメータhに対応する。また、上記にあるように、完成領域511の幅は、プリセットしたものであり、一定である。図に示すように、完成領域511の幅は、参考画像510の幅以上でもよい。図5Bに示すように、二枚目のスワイプ画像を取得する時、電子デバイス100は、画像調整パラメータStepに基づき、参考画像510の完成領域511の長さを増加する。図に示すように、完成領域511の幅は一定である。図5Cに示すように、使用者の指Fが指紋センサ120から離れる時、参考画像510の完成領域511の長さは、増加を停止する。しかしながら、十分な指紋情報を取得していない、即ち、合併画像パラメータHは、まだプリセット閾値より大きくなく、指紋登録プログラムは、完成していないため、ユーザーインターフェース500は、参考画像510の完成領域511を継続して表示し、使用者に再度指をスワイプするように提示する。続いて、図5Dに示すように、使用者の指Fを再び電子デバイス100の指紋センサ120に置いてスワイプ動作を行う。電子デバイス100は、新たなスワイプ画像を取得し、新たに加えるスワイプ画像(即ち、新たに加える指紋特徴点データ)に基づき、参考画像510の完成領域511の長さを継続して増加する。最後に、図5Eに示すように、合併画像パラメータHがプリセット閾値より大きい時、プロセッサ110は、完成領域511によって参考画像510を完全に覆う、即ち、完成領域511の長さは、参考画像510の長さ以上である。したがって、指紋登録プログラムは完成し、プロセッサ110は、指紋センサ120の指紋検出操作を停止し、事前登録データセットに基づき、指紋登録データセットを生成して、指紋登録プログラムを完成する。
図6は、発明の第二実施形態による指紋登録方法のフローチャートである。図1及び図6を参考にすると、本実施形態の指紋登録方法は、図1の実施形態の電子デバイス100に適用できる。使用者が指紋登録を行う時、ステップS610では、電子デバイス100は、指紋センサ120によって対象(即ち、使用者の指)を検出して、一枚のスワイプ画像を取得する。ステップS620では、プロセッサ110は、スワイプ画像を分析して、スワイプ画像の複数の特徴点を取得する。ステップS631では、プロセッサ110は、スワイプ画像が一枚目のスワイプ画像であるか否か判断する。一枚目のスワイプ画像である場合、プロセッサ110は、ステップS632を実行する。ステップS632では、プロセッサ110は、スワイプ画像の最も左上角位置に位置する特徴点の座標パラメータ(X,Y)を取得し、スワイプ画像の特徴点に基づき、事前登録データセットを生成し、事前登録データセットの基礎画像パラメータ(h)を取得する。ステップS633では、プロセッサ110は、基礎画像パラメータ(h)と座標パラメータ(X,Y)に基づき、ディスプレイ140に参考画像の完成領域を表示する。一枚目のスワイプ画像ではない場合、プロセッサ110は、ステップS634を実行する。ステップS634では、プロセッサ110は、スワイプ画像の特徴点を事前登録データセットに組み込み、合併後の事前登録データセットを生成する。
ステップS640では、プロセッサ110は、事前登録データセットを分析して、第一合併画像パラメータ(H)及び第二合併画像パラメータ(W)を取得し、第一合併画像パラメータ(H)と基礎画像パラメータ(h)に基づき、画像調整パラメータ(Step=H−h)を取得する。第一合併画像パラメータ(H)は、事前登録データセットにおいて、合併後の特徴点が長さ方向で距離が最も離れている2つの特徴点の距離であってもよく、複数枚のスワイプ画像の長さ合計から複数枚のスワイプ画像の重なり部分を減じた長さであってもよい。第二合併画像パラメータ(W)は、合併後の特徴点が幅方向で距離が最も離れている2つの特徴点の距離である。ステップS641では、プロセッサ110は、第一合併画像パラメータ(H)を新たな基礎画像パラメータ(h)とする。ステップS650では、プロセッサ110は、画像調整パラメータ(Step)に基づき、参考画像の完成領域の範囲を増加する。ステップS680では、プロセッサ110は、第一合併画像パラメータ(H)が第一プリセット閾値より大きいか否か判断し、第二合併画像パラメータ(W)が第二プリセット閾値より大きいか否か判断する。大きい場合、プロセッサ110は、指紋センサ120の指紋検出操作を終了し、合併後の事前登録データセットに基づき、指紋登録データを生成し、指紋登録プログラムを完成する。大きくない場合、プロセッサ110は、ステップS610を実行して、次の一枚のスワイプ画像を取得する。
図7は、発明の第二実施形態による事前登録データセットの概略図である。図8A〜図8Gは、発明の第二実施形態による指のスワイプ動作及び対応するユーザーインターフェース表示の概略図である。図1、図7及び図8A〜図8Gを参考にすると、本実施形態は、上記図6のフローにも適用できる。本実施形態において、指紋センサ120が指Fの一枚目のスワイプ画像710を取得した後、プロセッサ110は、スワイプ画像710を分析して、スワイプ画像710の複数の特徴点711を取得し、基礎画像パラメータh及びスワイプ画像710の最も左上角位置に位置する特徴点の座標パラメータ(X1,Y1)を取得する。プロセッサ110は、座標パラメータ(X1,Y1)及び基礎画像パラメータhに基づき、参考画像810の完成領域811を表示する。説明しなければならないこととして、スワイプ画像710の面積は、指紋センサ120の検出表面の面積に等しい。本実施形態において、基礎画像パラメータhが指すことができるのは、スワイプ画像710のこれらの特徴点711の長さ方向距離が最も離れた2つの特徴点の距離であるが、本発明はこれに限定しない。別の実施形態において、基礎画像パラメータhが指すことができるのもスワイプ画像710の長さであり、即ち、指紋センサ120の検出表面の長さである。プロセッサ110は、スワイプ画像710の特徴点711に基づき、事前登録データセットを生成する。続いて、プロセッサ110は、次の一枚のスワイプ画像720を継続して取得し、スワイプ画像720の特徴点を取得する。本実施形態において、プロセッサ110は、スワイプ画像720の特徴点を事前登録データセット(即ち、スワイプ画像710と720の特徴点が合併する)に組み込み、合併後の事前登録データセット700を生成する。プロセッサ110は、合併後の事前登録データセット700の第一合併画像パラメータH(即ち、最大画像長さ)及び第二合併画像パラメータW(即ち、最大画像幅)を計算する。プロセッサ110は、第一合併画像パラメータHから基礎画像パラメータhを減じて、画像調整パラメータStepを取得する。続いて、プロセッサ110は、画像調整パラメータStepに基づき、参考画像810の完成領域811の長さを増加する。
即ち、プロセッサ110が一枚のスワイプ画像の特徴点を組み込む毎に、プロセッサ110は、合併後の事前登録データセット700が新たに加える長さを計算し、これによりユーザーインターフェース800の参考画像810の完成領域811の長さを調整する。注意すべきこととして、毎回の指のスワイプ動作に対応して,参考画像810の完成領域811の幅は、プリセットしたものであり、一定である。即ち、指のスワイプ動作を1回増加さえすれば、参考画像810の完成領域811の幅は増加する。毎回の指のスワイプ動作の過程において、一枚のスワイプ画像の特徴点データを新たに加える毎に、プロセッサ110は、完成領域811の長さを対応して増加する。また、プロセッサ110は、複数毎のスワイプ画像を事前登録データセット700に合併し、プロセッサ110は、第一合併画像パラメータH及び第二合併画像パラメータWがそれぞれ第一及び第二プリセット閾値より大きいか否か判断する。大きい場合、十分な指紋登録データを取得したことを表す。例えば、第一合併画像パラメータHが第一プリセット閾値より大きく、第二合併画像パラメータWが第二プリセット閾値より大きい時、十分な数の指紋特徴点を取得したことを表す。十分な数のスワイプ画像を取得したことを表してもよい。したがって、プロセッサ110は、事前登録データセットを指紋登録データセットとしてメモリ130に記憶して、指紋登録プログラムを完成する。大きくない場合、プロセッサ110は、ディスプレイ140によってユーザーインターフェースに表示・提示して、使用者に再度指をスワイプするように要求する。2回目のスワイプの過程において、プロセッサ110は、指紋センサ120によって2回目にスワイプした一枚目のスワイプ画像730を取得し、プロセッサ110は、スワイプ画像730の特徴点711を取り出し、これを事前登録データセット700に組み込む。プロセッサ110は、スワイプ画像710(即ち、1回目のスワイプ時に取得した一枚目のスワイプ画像)の最も左上角位置に位置する特徴点の座標パラメータ(X1,Y1)及び2回目のスワイプ時に取得した一枚目のスワイプ画像730の最も左上角位置に位置する特徴点の座標パラメータ(X2,Y2)に基づき、変位パラメータ(Δx,Δy)(X2−X1=Δx,Y2−Y1=Δy))を取得する。プロセッサ110は、変位パラメータ(Δx,Δy)に基づき、ユーザーインターフェース800の参考画像810の完成領域811の2回目のスワイプ動作に対応して増加した幅の範囲及び位置を決定する。
言い換えると、2回目のスワイプ動作を行う時、使用者の指Fは、右または左にずれて、プロセッサ110は、2回目のスワイプ時に取得した一枚目のスワイプ画像730の最も左上角位置の特徴点の座標パラメータ(X2,Y2)、即ち、変位パラメータ(Δx,Δy)によって、2回目にスワイプに対応する完成領域811の幅の範囲の変化を決定し、一枚目のスワイプ画像730の基礎画像パラメータhに基づき、完成領域811の2回目のスワイプ動作に対応して新たに加える部分811bの長さを決定する。プロセッサ110は、座標パラメータ(X2,Y2)基づき、完成領域811の2回目のスワイプ動作に対応する部分811bの開始位置を表示する。即ち、2回目のスワイプ時、完成領域811の幅方向の範囲は、使用者の指Fのずれ具合に基づいて増加する。その後、プロセッサ110は、その後取得するスワイプ画像及びそれが対応する画像調整パラメータStepに基づき、完成領域811の2回目のスワイプ動作に対応する部分811bの長さを増加する。一枚のスワイプ画像を取得する毎に、プロセッサ110は、第一合併画像パラメータH及び第二合併画像パラメータWがそれぞれ第一及第二プリセット閾値より大きいか否か再度判断して、指紋登録プログラムを終了するか否か決定する。
例を挙げると、図8A〜図8Gを例とする。図8Aに示すように、使用者が指Fを電子デバイス100の指紋センサ120に押圧して、1回目のスワイプ動作を行う時、ユーザーインターフェース800の参考画像810に対応する完成領域811を表示して、指紋センサ120が取得した一枚目のスワイプ画像に対応させる。図8B及び図8Cに示すように、指Fの1回目のスワイプの過程において、参考画像810の完成領域811の長さ範囲は、対応して調整する。また、指Fの1回目のスワイプの過程において、プロセッサ110は、画像幅を一定にするように、画像調整パラメータStepに基づき、参考画像810の完成領域811の長さ範囲を増加する。即ち、指Fの1回目のスワイプ動作の過程において、参考画像810の完成領域811の幅DW1は一定であり、その長さは、新たなスワイプ画像を取得した後、増加する。図8Dに示すように、使用者の指Fが指紋センサ120から離れる時、参考画像810の完成領域811の範囲は、増加を停止する。しかしながら、指紋登録は、未完成であるため、ユーザーインターフェース800は、依然として、この参考画像810及びそれが有する完成領域811に留まり、使用者に再度指をスワイプするように提示及び要求する。したがって、図8E及び図8Fに示すように、使用者の指は、電子デバイス100の指紋センサ120を再度押圧して2回目のスワイプ動作を行う。1回目のスワイプ時の指を置く位置に対して、使用者の指は、2回目のスワイプ時、その位置は、右上方にある距離変位する。2回目のスワイプ動作の一枚目のスワイプ画像を取得した後、プロセッサ110は、その最も左上角位置の特徴点の座標パラメータ(X2,Y2)を計算し、(X2,Y2)と1回目のスワイプ時に取得した一枚目のスワイプ画像の最も左上角位置の特徴点の座標パラメータ(X1,Y1)を互いに減じて、変位パラメータ(Δx,Δy)(X2−X1=Δx,Y2−Y1=Δy)を取得し、(Δx,Δy)に基づき、2回目にスワイプした一枚目のスワイプ画像に対応する表示位置、即ち、完成領域811の2回目のスワイプに対応して新たに加える部分811bの開始位置を決定する。図に示すように、指の2回目のスワイプの過程において、参考画像810の完成領域811の範囲は、継続して増加し(即ち、811b)、プロセッサ110は、変位パラメータ(Δx,Δy)に基づき、完成領域811の新たに加える部分811bの開始位置を決定し、画像幅を一定にするように、画像調整パラメータStepに基づき、参考画像810の完成領域811の2回目のスワイプに対応する部分811bの長さ範囲を増加する。即ち、指Fの2回目のスワイプ動作の過程において、参考画像810の完成領域811の新たに加える部分811bの幅DW2は、一定であり、その長さは、新たなスワイプ画像を取得した後、増加する。最後に、図8Gに示すように、事前登録データセット700の第一合併画像パラメータH及び第二合併画像パラメータWがそれぞれ第一及び第二プリセット閾値より大きい時、参考画像810の完成領域811の範囲も十分な長さ及び幅まで増加するため、プロセッサ110は、指紋センサ120の指紋検出操作を停止して、指紋登録プログラムを完成する。
図9は、発明の第三実施形態による指紋登録方法のフローチャートである。図1及び図9を参考にすると、本実施形態の指紋登録方法は、図1の実施形態の電子デバイス100に適用できる。使用者が指紋登録を行う時、ステップS910では、電子デバイス100は、指紋センサ120によって対象(即ち、使用者の指)を検出して、一枚のスワイプ画像を取得する。ステップS920では、プロセッサ110は、スワイプ画像を分析して、スワイプ画像の複数の特徴点を取得し、スワイプ画像の最も左上角位置に位置する特徴点の座標パラメータ(X,Y)を取得する。ステップS922では、プロセッサ110は、スワイプ画像が一枚目のスワイプ画像であるか否か判断する。一枚目のスワイプ画像である場合、ステップS924を実行する。ステップS924では、プロセッサ110は、スワイプ画像の特徴点に基づき、事前登録データセットを生成する。続いて、ステップS925では、プロセッサ110は、座標パラメータ(X,Y)及びスワイプ画像の面積に基づき、対応する完成領域をユーザーインターフェースの参考画像に表示する。注意すべきこととして、スワイプ画像の面積は、指紋センサ120の検出表面の面積に同等である。一枚目のスワイプ画像ではない場合、ステップS926を実行する。ステップS926では、プロセッサ110は、スワイプ画像の特徴点を事前登録データセットに組み込む。ステップS940では、プロセッサ110は、座標パラメータ(X,Y)及びスワイプ画像の面積に基づき、完成領域の範囲を増加する。ステップS980では、プロセッサ110は、事前登録データセットの総面積がプリセット閾値より大きいか否か判断する。事前登録データセットの総面積は、全スワイプ画像の面積の合計からスワイプ画像が重なる領域を減じたものを表してもよく、事前登録データセット中に含まれる特徴点の数を表してもよい。言い換えると、実施形態において、ステップS980では、プロセッサ110は、事前登録データセットに含まれる特徴点の数がプリセット閾値より大きいか否か判断する。大きい場合、プロセッサ110は、指紋センサ120の指紋検出操作を終了し、合併後の事前登録データセットに基づき、指紋登録データを生成し、指紋登録プログラムを完成する。大きくない場合、プロセッサ110は、ステップS910を実行して、次の一枚のスワイプ画像を検出並びに取得する。
図10は、発明の第三実施形態による事前登録データセットの概略図である。図11A〜図11Iは、発明の第三実施形態による指のスワイプ動作及び対応するユーザーインターフェース表示の概略図である。図1、図10及び図11A〜図11Iを合わせて/参考にして以下に説明する。また、本実施形態は、上述図9のフローにも適用できる。本実施形態において、指紋センサ120が指Fの一枚目のスワイプ画像1010を取得した後、プロセッサ110は、スワイプ画像1010を分析して、スワイプ画像1010の複数の特徴点1011を取得し、スワイプ画像1010の最も左上角位置に位置する特徴点1011の座標パラメータ(X1,Y1)を取得する。図11Aに示すように、プロセッサ110は、座標パラメータ(X1,Y1)及びスワイプ画像1010の面積(即ち、指紋センサ120の検出表面の面積)に基づき、参考画像1110の完成領域1111をユーザーインターフェース1100に表示する。また、プロセッサ110は、スワイプ画像1010の特徴点に基づき、事前登録データを生成する。
続いて、プロセッサ110は、次の一枚のスワイプ画像1020を取得並びに分析し、スワイプ画像1020の複数の特徴点1011を取得する。本実施形態において、プロセッサ110は、スワイプ画像1010と1020の特徴点を比較し、スワイプ画像1010と1020に同時に含む特徴点を探し出して、スワイプ画像1010と1020の相対位置関係を取得し、スワイプ画像1020の最も左上角位置に位置する特徴点の座標パラメータ(X2,Y2)を取得する。図11Bに示すように、プロセッサ110は、座標パラメータ(X2,Y2)及びスワイプ画像1020の面積に基づき、参考画像1110の完成領域1111の表示範囲を増加する。また、プロセッサ110は、スワイプ画像1020の特徴点を事前登録データに組み込み、合併後の事前登録データを生成する。
即ち、プロセッサ110は、一枚のスワイプ画像を取得する毎に、その特徴点を事前登録データに組み込む。また、プロセッサ110は、スワイプ画像の最も左上角位置に位置する特徴点の座標パラメータを取得して、ユーザーインターフェース1100の参考画像1110の完成領域1111の増加に必要な範囲及び位置を決定するのに用いる。注意すべきこととして、プロセッサ110は、事前登録データの総面積がプリセット閾値より大きいか否か判断することで、指紋登録を終了するか否か決定する。事前登録データの総面積がプリセット閾値より大きくない場合、プロセッサ110は、次の一枚のスワイプ画像を検出並びに取得する。図10及び図11E〜図11Fに示すように、指紋登録の過程において、使用者は、指の1回目のスワイプ後、指は、指紋センサ120から離れる。まだ十分な指紋データを取得していない、即ち、事前登録データの総面積は、まだプリセット閾値より大きくない場合、プロセッサ110は、ディスプレイ140によってユーザーインターフェースに表示・提示して、使用者に再度指をスワイプするように要求する。2回目のスワイプの過程において、プロセッサ110は、2回目にスワイプした一枚目のスワイプ画像1030を取得し、プロセッサ110は、スワイプ画像1030の特徴点を取り出し、これを事前登録データセットに組み込み、スワイプ画像1030の最も左上角位置に位置する特徴点の座標パラメータ(Xn,Yn)を探し出し、座標パラメータ(Xn,Yn)及びスワイプ画像1030の面積に基づき、ユーザーインターフェース1100の参考画像1110の完成領域1111の範囲を増加する。
特に説明しなければならないこととして、事前登録データ及びスワイプ画像1030の特徴点(即ち、繰り返し出てくる特徴点を探し出す)を比較及び分析することで、プロセッサ110は、スワイプ画像1030と以前に取得したスワイプ画像との間の相対位置関係を算出して、これにより座標パラメータ(Xn,Yn)を取得してもよい。言い換えると、プロセッサ110は、スワイプ画像1030と以前に取得したスワイプ画像との間の相対位置関係に基づき、完成領域1111を参考画像1110に対応して表示する。更に、プロセッサ110は、新たな事前登録データの総面積がプリセット閾値より大きいか否か判断して、指紋登録を終了するか否か決定する。
例を挙げると、図11A〜図11Iを例とする。図11Aに示すように、使用者が指Fを電子デバイス100の指紋センサ120に置いてスワイプ動作を行う時、ユーザーインターフェース1100の参考画像1110に完成領域1111を表示し、指紋センサ120を介して取得したスワイプ画像に対応させる。図11B〜図11Dに示すように、指Fをスワイプする過程において、参考画像1110の完成領域1111の範囲は、対応して調整する。図11Eに示すように、使用者の指Fが指紋センサ120から離れる時、参考画像1110の完成領域1111の範囲は、増加を停止する。しかしながら、指紋登録は、未完成であるため、ユーザーインターフェース1100は、依然として、この参考画像1110の以前の完成領域1111に留まり、使用者に再度指をスワイプするように提示及び要求する。図11F〜図11Hに示すように、使用者の指Fを再び電子デバイス100の指紋センサ120に置いてスワイプ動作を行う。参考画像1110の完成領域1111の範囲は、使用者のスワイプ動作に対応して増加し続ける。図11Iに示すように、事前登録データの総面積がプリセット閾値より大きい時、プロセッサ110は、十分な指紋データを取得したと判断し、参考画像1110の完成領域1111の範囲も十分な面積に増加して、十分な範囲の参考画像1110を覆う。したがって、プロセッサ110は、指紋センサ120の指紋検出操作を停止し、事前登録データに基づき、指紋登録データを生成して、指紋登録プログラムを完成する。
以上より、本発明のユーザーインターフェースの表示方法及び電子デバイスは、可采集使用者の指の指紋センサにおいて1回か複数回のスワイプ動作で取得した複数のスワイプ画像を採集して、これらのスワイプ画像の特徴点データを合併して、指紋登録データを生成することができる。これらのスワイプ画像の特徴点データを合併する時、本発明の電子デバイスは、これらのスワイプ画像の特徴点の間の再現性と位置関係を更に分析して、対応する画像パラメータ及び/又は座標パラメータを取得する。したがって、本発明のユーザーインターフェースの表示方法及び電子デバイスは、可画像パラメータ及び/又は座標パラメータに基づき、対応して、ディスプレイに、参考画像及びその完成領域を有するユーザーインターフェースを表示して、ユーザーインターフェースの参考画像の完成領域の範囲を動的に調整することができる。即ち、指をスワイプして指紋登録を行う過程において、使用者は、電子デバイスのディスプレイが表示するユーザーインターフェースの参考画像の完成領域の範囲の変化によって指紋登録の進度を知り得ることができる。これにより、使用者が指をスワイプして指紋登録を行う過程において、本発明のユーザーインターフェースの表示方法及び電子デバイスは、リアルタイムの指紋登録進度に関する情報を使用者にて提供し、よりヒューマナイズし、より便利な指紋登録プログラムを提供することができる。
本発明は実施形態により以上のように公開したが、本発明を限定するためではなく、当業者は、本発明を逸脱しない精神と範囲内において、幾つかの変更及び修正することができ、本発明の保護範囲は、請求項に限定したものを基準とする。
100:電子デバイス
110:プロセッサ
120:指紋センサ
130:メモリ
140:ディスプレイ
410、420、400、710、720、730、1010、1020、1030:画像
411、711、1011:特徴点
500、800、1100:ユーザーインターフェース
510、810、1110:参考画像
511、811、811b、1111:完成領域
DW1、DW2:幅
F:指
h、H、W:画像パラメータ
Step:画像調整パラメータ
S210、S220、S225、S230、S232、S235、S240、S245、S250、S310、S320、S331、S332、S333、S334、S340、S341、S350、S380、S610、S620、S631、S633、S632、S634、S640、S641、S650、S680、S910、S920、S922、S924、S925、S926、S940、S980:ステップ
(X1,Y1)、(X2,Y2)、(Xn,Yn):座標パラメータ
(Δx,Δy):変位パラメータ

Claims (20)

  1. 指紋登録に適用するユーザーインターフェースの表示方法であって、
    指紋センサによって複数のスワイプ画像を取得することと、
    プロセッサによって前記複数のスワイプ画像を分析して、前記複数のスワイプ画像の複数の特徴点を取得することと、
    前記プロセッサによって前記複数のスワイプ画像の前記複数の特徴点を事前登録データセットに合併することと、
    前記プロセッサによって前記複数のスワイプ画像に基づき、完成領域をディスプレイのユーザーインターフェースの参考画像に表示することと、
    前記プロセッサによって前記事前登録データセットを分析して、前記指紋登録を終了するか否か決定すること、
    を含み、
    前記プロセッサによって前記複数のスワイプ画像のそれぞれに、
    前記事前登録データセットを分析して、画像調整パラメータを取得することと、
    前記画像調整パラメータに基づき、前記参考画像の前記完成領域の範囲を決定すること、
    を実行することを更に含むことを特徴とするユーザーインターフェースの表示方法。
  2. 前記プロセッサによって前記複数のスワイプ画像のそれぞれに、
    前記スワイプ画像が一枚目のスワイプ画像であるか否か判断し、前記スワイプ画像が前記一枚目のスワイプ画像である場合、前記スワイプ画像の前記特徴点に基づき、前記事前登録データセットを生成し、前記事前登録データセットを分析して、基礎画像パラメータを取得することと、
    前記基礎画像パラメータに基づき、前記完成領域を前記ディスプレイの前記ユーザーインターフェースの前記参考画像に表示すること、
    を実行することを更に含むことを特徴とする請求項に記載のユーザーインターフェースの表示方法。
  3. 前記プロセッサによって前記複数のスワイプ画像のそれぞれに、
    前記スワイプ画像が前記一枚目のスワイプ画像ではない場合、前記スワイプ画像の前記特徴点を前記事前登録データセットに組み込み、合併後の事前登録データセットを生成することと、
    前記合併後の事前登録データセットを分析して、合併画像パラメータを取得し、前記合併画像パラメータと前記基礎画像パラメータに基づき、前記画像調整パラメータを取得することと、
    前記合併画像パラメータを新たな基礎画像パラメータとすることと、
    前記画像調整パラメータに基づき、前記参考画像の前記完成領域の範囲を増加すること、
    を実行することを更に含むことを特徴とする請求項に記載のユーザーインターフェースの表示方法。
  4. 前記プロセッサによって前記複数のスワイプ画像のそれぞれに、
    前記合併画像パラメータがプリセット閾値より大きいか否か判断して、前記指紋登録を終了するか否か決定すること、
    を実行することを更に含むことを特徴とする請求項に記載のユーザーインターフェースの表示方法。
  5. 前記プロセッサによって前記複数のスワイプ画像のそれぞれに、
    前記スワイプ画像が一枚目のスワイプ画像であるか否か判断し、前記スワイプ画像が前記一枚目のスワイプ画像である場合、前記スワイプ画像を分析して、前記スワイプ画像の最も左上角位置に位置する特徴点の座標パラメータを取得することと、
    前記スワイプ画像の前記最も左上角位置に位置する前記特徴点の前記座標パラメータに基づき、前記参考画像の前記完成領域の位置を決定すること、
    を実行することを更に含むことを特徴とする請求項に記載のユーザーインターフェースの表示方法。
  6. 前記プロセッサによって前記複数のスワイプ画像のそれぞれに、
    前記スワイプ画像が前記一枚目のスワイプ画像ではない場合、前記スワイプ画像の前記特徴点を前記事前登録データセットに組み込み、合併後の事前登録データセットを生成することと、
    前記合併後の事前登録データセットを分析して、前記合併後の事前登録データセットの垂直方向に覆う範囲を表す第一合併画像パラメータ及び前記合併後の事前登録データセットの水平方向の覆う範囲を表す第二合併画像パラメータを取得し、前記第一合併画像パラメータと前記基礎画像パラメータに基づき、前記画像調整パラメータを取得することと、 前記第一合併画像パラメータを新たな基礎画像パラメータとすることと、
    前記画像調整パラメータに基づき、前記参考画像の前記完成領域の前記垂直方向の範囲を増加すること、
    を実行することを更に含むことを特徴とする請求項に記載のユーザーインターフェースの表示方法。
  7. 前記プロセッサによって前記複数のスワイプ画像のそれぞれに、
    前記第一合併画像パラメータが第一プリセット閾値より大きいか否か判断し、前記第二合併画像パラメータが第二プリセット閾値より大きいか否か判断して、前記指紋登録を終了するか否かを決定すること、
    を実行することを更に含むことを特徴とする請求項に記載のユーザーインターフェースの表示方法。
  8. 指紋登録に適用するユーザーインターフェースの表示方法であって、
    指紋センサによって複数のスワイプ画像を取得することと、
    プロセッサによって前記複数のスワイプ画像を分析して、前記複数のスワイプ画像の複数の特徴点を取得することと、
    前記プロセッサによって前記複数のスワイプ画像の前記複数の特徴点を事前登録データセットに合併することと、
    前記プロセッサによって前記複数のスワイプ画像に基づき、完成領域をディスプレイのユーザーインターフェースの参考画像に表示することと、
    前記プロセッサによって前記事前登録データセットを分析して、前記指紋登録を終了するか否か決定すること、
    を含み、
    前記プロセッサによって前記複数のスワイプ画像のそれぞれに、
    前記事前登録データセットを分析して、座標パラメータを取得することと、
    前記座標パラメータに基づき、前記参考画像の前記完成領域の範囲を決定すること、
    を実行することを更に含むことを特徴とするユーザーインターフェースの表示方法。
  9. 前記プロセッサによって前記複数のスワイプ画像のそれぞれに、
    前記スワイプ画像が一枚目のスワイプ画像であるか否か判断し、前記スワイプ画像が前記一枚目のスワイプ画像である場合、前記スワイプ画像の前記特徴点に基づき、前記事前登録データセットを生成することと、
    前記スワイプ画像が前記一枚目のスワイプ画像ではない場合、前記スワイプ画像の前記特徴点を前記事前登録データセットに組み込み、合併後の事前登録データセットを生成すること、
    を実行することを更に含むことを特徴とする請求項に記載のユーザーインターフェースの表示方法。
  10. 前記プロセッサによって前記複数のスワイプ画像のそれぞれに、
    前記合併後の事前登録データセットの総面積がプリセット閾値より大きいか否か判断して、前記指紋登録を終了するか否か決定すること、
    を実行することを更に含むことを特徴とする請求項に記載のユーザーインターフェースの表示方法。
  11. 複数のスワイプ画像を取得するのに用いる指紋センサと、
    前記指紋センサに結合し、前記複数のスワイプ画像を分析して、前記複数のスワイプ画像の複数の特徴点を取得し、前記複数のスワイプ画像の前記複数の特徴点を事前登録データセットに合併するのに用いるプロセッサと、
    前記プロセッサに結合するディスプレイと、を含み、
    前記プロセッサは、複数のスワイプ画像に基づき、前記ディスプレイによって完成領域をユーザーインターフェースの参考画像に表示し、前記プロセッサは、前記事前登録データセットを分析して、指紋登録を終了するか否か決定し、
    前記プロセッサは、前記複数のスワイプ画像のそれぞれに、
    前記プロセッサは、前記事前登録データセットを分析して、画像調整パラメータを取得することと、
    前記プロセッサは、前記画像調整パラメータに基づき、前記参考画像の前記完成領域の範囲を決定すること、
    を実行することを特徴とする電子デバイス。
  12. 前記プロセッサは、前記複数のスワイプ画像のそれぞれに
    前記プロセッサは、前記スワイプ画像が是一枚目のスワイプ画像であるか否か判断し、前記プロセッサは、前記スワイプ画像が前記一枚目のスワイプ画像であると判断する場合、前記プロセッサは、前記スワイプ画像の前記特徴点に基づき、前記事前登録データセットを生成し、前記事前登録データセットを分析して、基礎画像パラメータを取得することと、
    前記プロセッサは、前記基礎画像パラメータに基づき、前記完成領域を前記ディスプレイの前記ユーザーインターフェースの前記参考画像に表示すること、
    を更に実行することを特徴とする請求項11に記載の電子デバイス。
  13. 前記プロセッサは、前記複数のスワイプ画像のそれぞれに、
    前記プロセッサは、前記スワイプ画像が前記一枚目のスワイプ画像ではないと判断する場合、前記スワイプ画像の前記特徴点を前記事前登録データセットに組み込み、合併後の事前登録データセットを生成することと、
    前記プロセッサは、前記合併後の事前登録データセットを分析して、合併画像パラメータを取得し、前記プロセッサは、前記合併画像パラメータと前記基礎画像パラメータに基づき、画像調整パラメータを取得することと、
    前記プロセッサは、前記合併画像パラメータを新たな基礎画像パラメータとし、前記プロセッサは、前記画像調整パラメータに基づき、前記参考画像の前記完成領域の範囲を増加すること、
    を更に実行することを特徴とする請求項12に記載の電子デバイス。
  14. 前記プロセッサは、前記複数のスワイプ画像のそれぞれに、
    前記プロセッサは、前記合併画像パラメータがプリセット閾値より大きいか否か判断して、前記指紋登録を終了するか否か決定すること、
    を更に実行することを特徴とする請求項13に記載の電子デバイス。
  15. 前記プロセッサは、前記複数のスワイプ画像のそれぞれに、
    前記プロセッサは、前記スワイプ画像が一枚目のスワイプ画像であるか否か判断し、前記プロセッサは、前記スワイプ画像が前記一枚目のスワイプ画像であると判断する場合、前記プロセッサは、前記スワイプ画像を分析して、前記スワイプ画像の最も左上角位置に位置する座標パラメータを取得することと、
    前記プロセッサは、前記スワイプ画像の前記最も左上角位置に位置する前記特徴点の前記座標パラメータに基づき、前記参考画像の前記完成領域の位置を決定すること、
    を更に実行することを特徴とする請求項12に記載の電子デバイス。
  16. 前記プロセッサは、前記複数のスワイプ画像のそれぞれに、
    前記スワイプ画像が前記一枚目のスワイプ画像ではない場合、前記プロセッサは、前記スワイプ画像の前記特徴点を前記事前登録データセットに組み込み、合併後の事前登録データセットを生成することと、
    前記プロセッサは、前記合併後の事前登録データセットを分析して、前記合併後の事前登録データセットの垂直方向の覆う範囲を表す第一合併画像パラメータ及び前記合併後の事前登録データセットの水平方向の覆う範囲を表す第二合併画像パラメータを取得し、前記プロセッサは、前記第一合併画像パラメータと前記基礎画像パラメータに基づき、前記画像調整パラメータを取得することと、
    前記プロセッサは、前記第一合併画像パラメータを新たな基礎画像パラメータとし、前記プロセッサは、前記画像調整パラメータに基づき、前記参考画像の前記完成領域の前記垂直方向の範囲を増加すること、
    を更に実行することを特徴とする請求項15に記載の電子デバイス。
  17. 前記プロセッサは、前記複数のスワイプ画像のそれぞれに、
    前記プロセッサは、前記第一合併画像パラメータが第一プリセット閾値より大きいか否か判断し、前記第二合併画像パラメータが第二プリセット閾値より大きいか否か判断して、前記指紋登録を終了するか否かを決定すること、
    を更に実行することを特徴とする請求項16に記載の電子デバイス。
  18. 複数のスワイプ画像を取得するのに用いる指紋センサと、
    前記指紋センサに結合し、前記複数のスワイプ画像を分析して、前記複数のスワイプ画像の複数の特徴点を取得し、前記複数のスワイプ画像の前記複数の特徴点を事前登録データセットに合併するのに用いるプロセッサと、
    前記プロセッサに結合するディスプレイと、を含み、
    前記プロセッサは、複数のスワイプ画像に基づき、前記ディスプレイによって完成領域をユーザーインターフェースの参考画像に表示し、前記プロセッサは、前記事前登録データセットを分析して、指紋登録を終了するか否か決定し、
    前記プロセッサは、前記複数のスワイプ画像のそれぞれに、
    前記プロセッサは、前記事前登録データセットを分析して、座標パラメータを取得することと、
    前記プロセッサは、前記座標パラメータに基づき、前記参考画像の前記完成領域の範囲を決定すること、
    を実行することを特徴とする電子デバイス。
  19. 前記プロセッサは、前記複数のスワイプ画像のそれぞれに、
    前記プロセッサは、前記スワイプ画像が一枚目のスワイプ画像であるか否か判断し、前記プロセッサは、前記スワイプ画像が前記一枚目のスワイプ画像であると判断する場合、前記プロセッサは、前記スワイプ画像の前記特徴点に基づき、前記事前登録データセットを生成することと、
    前記プロセッサは、前記スワイプ画像が前記一枚目のスワイプ画像ではないと判断する場合、前記スワイプ画像の前記特徴点を前記事前登録データセットに組み込み、合併後の事前登録データセットを生成すること、
    を更に実行することを特徴とする請求項18に記載の電子デバイス。
  20. 前記プロセッサは、前記複数のスワイプ画像のそれぞれに、
    前記プロセッサは、前記合併後の事前登録データセットの総面積がプリセット閾値より大きいか否か判断して、前記指紋登録を終了するか否か決定すること、
    を更に実行することを特徴とする請求項19に記載の電子デバイス。
JP2019551393A 2017-10-16 2018-10-15 ユーザーインターフェースの表示方法及び電子デバイス Active JP6836662B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201762573140P 2017-10-16 2017-10-16
US62/573,140 2017-10-16
US201762598480P 2017-12-14 2017-12-14
US62/598,480 2017-12-14
CN201810349409.2 2018-04-18
CN201810349409.2A CN109669651B (zh) 2017-10-16 2018-04-18 用户接口的显示方法以及电子装置
PCT/CN2018/110264 WO2019076272A1 (zh) 2017-10-16 2018-10-15 用户接口的显示方法以及电子装置

Publications (2)

Publication Number Publication Date
JP2020515955A JP2020515955A (ja) 2020-05-28
JP6836662B2 true JP6836662B2 (ja) 2021-03-03

Family

ID=66141976

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019551393A Active JP6836662B2 (ja) 2017-10-16 2018-10-15 ユーザーインターフェースの表示方法及び電子デバイス

Country Status (4)

Country Link
JP (1) JP6836662B2 (ja)
CN (1) CN109669651B (ja)
GB (2) GB2574973B (ja)
WO (1) WO2019076272A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI735821B (zh) * 2018-04-12 2021-08-11 神盾股份有限公司 指紋註冊方法以及使用其的電子裝置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3663075B2 (ja) * 1999-04-05 2005-06-22 シャープ株式会社 情報処理装置
JP3780830B2 (ja) * 2000-07-28 2006-05-31 日本電気株式会社 指紋識別方法及び装置
AU2002328437A1 (en) * 2002-09-17 2004-04-08 Fujitsu Limited Biological information acquiring apparatus and authentication apparatus using biological information
CN1924889A (zh) * 2005-08-30 2007-03-07 知网生物识别科技股份有限公司 指纹注册的装置及方法
CN102446271B (zh) * 2010-10-08 2014-08-27 金佶科技股份有限公司 分段式的图像辨识方法及其区域式辨识装置
TWI562077B (en) * 2012-01-04 2016-12-11 Gingy Technology Inc Method for fingerprint recognition using dual camera and device thereof
KR101419784B1 (ko) * 2013-06-19 2014-07-21 크루셜텍 (주) 지문 인식 및 인증을 위한 방법 및 장치
US9898642B2 (en) * 2013-09-09 2018-02-20 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
KR102126568B1 (ko) * 2013-10-31 2020-06-24 삼성전자주식회사 입력 데이터 처리 방법 및 그 전자 장치
KR102217858B1 (ko) * 2013-11-13 2021-02-19 삼성전자주식회사 지문 인증 방법과 이를 수행하는 지문 인증 장치 및 이동 단말기
CN105989349B (zh) * 2014-10-24 2019-11-01 神盾股份有限公司 指纹的注册数据产生方法和电子装置
US9613428B2 (en) * 2014-11-07 2017-04-04 Fingerprint Cards Ab Fingerprint authentication using stitch and cut
US10032062B2 (en) * 2015-04-15 2018-07-24 Samsung Electronics Co., Ltd. Method and apparatus for recognizing fingerprint
KR102396514B1 (ko) * 2015-04-29 2022-05-11 삼성전자주식회사 지문 정보 처리 방법 및 이를 지원하는 전자 장치
KR101639986B1 (ko) * 2015-10-07 2016-07-15 크루셜텍 (주) 지문 등록 및 인증 속도 향상을 위한 지문 정보 프로세싱 방법 및 그 장치
CN105373786A (zh) * 2015-11-30 2016-03-02 东莞酷派软件技术有限公司 一种指纹采集方法、装置及电子设备
WO2017156752A1 (zh) * 2016-03-17 2017-09-21 深圳信炜科技有限公司 指纹注册方法、指纹识别系统、以及电子设备
WO2018161312A1 (zh) * 2017-03-09 2018-09-13 深圳市汇顶科技股份有限公司 指纹识别的方法及装置

Also Published As

Publication number Publication date
CN109669651A (zh) 2019-04-23
GB2574973B (en) 2022-04-13
CN109669651B (zh) 2021-02-02
GB2599288A (en) 2022-03-30
WO2019076272A1 (zh) 2019-04-25
GB2599288B (en) 2022-11-23
GB202117618D0 (en) 2022-01-19
GB2574973A (en) 2019-12-25
GB201914055D0 (en) 2019-11-13
JP2020515955A (ja) 2020-05-28

Similar Documents

Publication Publication Date Title
US9514352B2 (en) Fingerprint enrollment using touch sensor data
JP6167733B2 (ja) 生体特徴ベクトル抽出装置、生体特徴ベクトル抽出方法、および生体特徴ベクトル抽出プログラム
WO2016127734A1 (zh) 指纹识别方法和装置
WO2018077104A1 (zh) 指纹采集方法、指纹采集设备及存储介质
US8641634B2 (en) Information processing apparatus, information processing method and program
US20190371134A1 (en) Self-checkout system, method thereof and device therefor
JP2004187298A5 (ja)
KR101598331B1 (ko) 시간분할 세그먼트 블록 기반 수기서명 인증 시스템 및 방법
US10466745B2 (en) Operational control method for flexible display device
WO2003077199A1 (fr) Dispositif de comparaison d'empreintes digitales, procede de comparaison d'empreintes digitales, et programme
TWI528271B (zh) 多邊形手勢偵測及互動方法、裝置及電腦程式產品
US20140015950A1 (en) Touch detection apparatus, touch detection method and recording medium
TW202036366A (zh) 曲面屏成像比例的確定方法、儲存介質,及電子設備
US10438078B2 (en) Image processing device, image processing method and computer-readable non-transitory medium
JP6836662B2 (ja) ユーザーインターフェースの表示方法及び電子デバイス
US9041689B1 (en) Estimating fingertip position using image analysis
US10713463B2 (en) Display method of user interface and electronic apparatus thereof
JP2009237773A (ja) 画像処理装置および画像処理プログラム
JP2018049566A (ja) 画像処理装置、画像処理方法およびプログラム
JP2021096537A (ja) 生体情報取得装置、端末装置、生体情報取得方法、生体情報取得プログラム、及びコンピュータ読み取り可能な記録媒体
JP5791557B2 (ja) 連絡操作支援システム、連絡操作支援装置および連絡操作方法
JP2009151516A (ja) 情報処理装置および情報処理装置用操作者指示点算出プログラム
WO2024093665A1 (zh) 身份识别图像处理方法、装置、计算机设备和存储介质
JP4725900B2 (ja) 顔画像特徴抽出方法、その装置及びそのプログラム
JP2002244786A (ja) 情報処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210205

R150 Certificate of patent or registration of utility model

Ref document number: 6836662

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150