JP2017513149A - Biometric sensor for touch-enabled devices - Google Patents

Biometric sensor for touch-enabled devices Download PDF

Info

Publication number
JP2017513149A
JP2017513149A JP2016561621A JP2016561621A JP2017513149A JP 2017513149 A JP2017513149 A JP 2017513149A JP 2016561621 A JP2016561621 A JP 2016561621A JP 2016561621 A JP2016561621 A JP 2016561621A JP 2017513149 A JP2017513149 A JP 2017513149A
Authority
JP
Japan
Prior art keywords
layer
light emitting
image
emitting layer
touch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016561621A
Other languages
Japanese (ja)
Inventor
フレデリック フライ,
フレデリック フライ,
ドン−ヒュク ジャン,
ドン−ヒュク ジャン,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IB Korea Ltd
Original Assignee
IB Korea Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IB Korea Ltd filed Critical IB Korea Ltd
Publication of JP2017513149A publication Critical patent/JP2017513149A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • G06F3/04144Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position using an array of force sensing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1318Sensors therefor using electro-optical elements or layers, e.g. electroluminescent sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1329Protecting the fingerprint sensor against damage caused by the finger
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/44Secrecy systems
    • H04N1/4406Restricting access, e.g. according to user identity
    • H04N1/442Restricting access, e.g. according to user identity using a biometric data reading device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0338Fingerprint track pad, i.e. fingerprint sensor used as pointing device tracking the fingertip image

Abstract

一つ以上の技術および/またはシステムがバイオメトリック撮像装置用に開示されている。その撮像装置は、タッチ対応コンピュータデバイスに組み込まれ、デバイスと相互作用するために使用される。デバイスのタッチ対応表面に触れると、タッチオブジェクトの少なくとも一部の画像がキャプチャされ、ユーザの識別に関連しておよび/またはデバイスへの入力のために使用される。ここに記載されたシステムまたは技術は、そのようなデバイスの表面の一部に組み込まれ、タッチ時に光子を放出する発光層と、タッチオブジェクトの少なくとも一部の画像を示すデータを生成することができる画像キャプチャコンポーネントと、を含む。【選択図】図1One or more techniques and / or systems have been disclosed for biometric imaging devices. The imaging device is incorporated into a touch enabled computing device and used to interact with the device. Upon touching the touch-enabled surface of the device, an image of at least a portion of the touch object is captured and used in connection with user identification and / or for input to the device. The system or technique described herein can be incorporated into a portion of the surface of such a device to generate data indicating a light emitting layer that emits photons upon touch and an image of at least a portion of the touch object. And an image capture component. [Selection] Figure 1

Description

関連出願の相互参照
本願は、2014年4月10日に出願されたアメリカ仮特許出願第61/977,958号「タッチ対応デバイス用バイオメトリックセンサ」の優先権を要求する。その出願の全ての内容はここに挿入される。
CROSS REFERENCE TO RELATED APPLICATIONS This application claims priority to US Provisional Patent Application No. 61 / 977,958, “Biometric Sensors for Touch-Enabled Devices,” filed April 10, 2014. The entire contents of that application are inserted here.

バイオメトリックスキャンデバイス(例えば、身体の一部のレリーフ模様画像キャプチャデバイス)は、一般的なセキュリティ関連の実行に利用され、情報、システムなどを保護したい製品製造業者や消費者に容易に利用できるようになっている。典型的には、バイオメトリックスキャンデバイスは、いくつかのタイプの画像キャプチャデバイスを使用して生体模様の画像を取り込む。そこで、単に、問題になっている生体オブジェクトの一部が、出来上がった画像で表される。一例として、出来上がった補足模様画像(captured print image)は、例えば、安全なシステムにアクセスするため、および/またはバイオメトリックオブジェクトに関連した人物を同定するために、セキュリティおよび/または本人確認の目的に使用される。   Biometric scanning devices (eg, relief image capture devices of body parts) are used for general security-related practices and are readily available to product manufacturers and consumers who want to protect information, systems, etc. It has become. Typically, a biometric scanning device captures a biometric image using several types of image capture devices. Therefore, a part of the biological object in question is simply represented by the completed image. As an example, the resulting captured print image can be used for security and / or identification purposes, for example, to access a secure system and / or to identify a person associated with a biometric object. used.

タッチ対応デバイス(touch enabled devices)は、入力方法として、ポータブルスマートデバイス、タブレットデバイス、コンピュータモニタ、ポータブルコンピュータデバイスのディスプレイ、スマートモニタ、テレビ、およびタッチ利用が可能な他のディスプレイを含む。一例として、スマートフォン(例えば、他のタッチ対応ディスプレイ)は、入力および一般的なデバイス操作機能のためのタッチ対応スクリーンを含む。このスクリーンは、デバイスに表示された画面オブジェクトと相互作用するために使用される。別の例として、スマートフォン(例えば、または他のタッチ対応デバイス)はまた、1以上の機械式アクチュエータ(例えば、ボタン)を含む。そのアクチュエータは、例えば、ディスプレイがアクティブでないとき、デバイス機能を有効にするために作動する。   Touch enabled devices include portable smart devices, tablet devices, computer monitors, portable computer device displays, smart monitors, televisions, and other displays capable of touch use as input methods. As an example, a smartphone (eg, another touch-enabled display) includes a touch-enabled screen for input and general device operation functions. This screen is used to interact with the screen objects displayed on the device. As another example, a smartphone (eg, or other touch-enabled device) also includes one or more mechanical actuators (eg, buttons). The actuator operates, for example, to enable device function when the display is not active.

この概要は、簡略化した形式で、概念の選択を紹介するために提供される。その概念は、以下の詳細な説明でさらに説明される。この概要は、特許請求の範囲の発明の本質的な特徴または主な要因を特定することを意図するものではなく、特許請求の範囲の発明の範囲を限定するために使用されることを意図するものでもない。   This summary is provided to introduce a selection of concepts in a simplified form. The concept is further explained in the detailed description below. This summary is not intended to identify essential features or key factors of the claimed invention, but is intended to be used to limit the scope of the claimed invention. Not a thing.

以下に示されるように、システムまたは1つ以上の技術が考案される。その技術は、タッチ対応のコンピュータデバイスに統合されるバイオメトリック撮像装置(biometric imager)を提供する。タッチは、デバイスと相互作用するように使用される。例えば、デバイスのタッチ対応表面をタッチすると、タッチオブジェクト(例えば、バイオメトリックオブジェクト)の少なくとも一部の画像がキャプチャされる。一態様では、ここに記載されたシステムまたは技術は、そのようなデバイスの表面の一部(例えば、ホームボタン領域)に組み込まれ、セキュリティおよび/または同定目的のために使用され、および/またはデバイスに対する入力のため、またはデバイスとの相互作用のために使用される。   As shown below, a system or one or more techniques are devised. The technology provides a biometric imager that is integrated into touch-enabled computing devices. Touch is used to interact with the device. For example, touching a touch-enabled surface of the device captures an image of at least a portion of a touch object (eg, a biometric object). In one aspect, the systems or techniques described herein are incorporated into a portion of the surface of such a device (eg, a home button area), used for security and / or identification purposes, and / or devices Used for input to or for interaction with the device.

一実施形態では、バイオメトリック(生体認証)センサシステム(biometric sensor system)は、発光層(luminescent layer)を含む。その発光層は、タッチ対応デバイスのタッチスクリーン層の一部上に配置されている。この実施形態では、発光層は、バイオメトリックオブジェクト(生体対象)(biometric object)からの接触時、タッチスクリーン層に向けて光子を放出するように構成されている。また、バイオメトリックセンサシステムは、画像キャプチャコンポーネントを含む。それは、タッチスクリーン層の一部で、発光層の真下に配置されている。この実施形態において、画像キャプチャコンポーネントは、放出された光子の少なくとも一部をデータに変換するように構成されている。そのデータは、バイオメトリックオブジェクトの少なくとも一部の表現(representation)を含む画像を示す。   In one embodiment, a biometric sensor system includes a luminescent layer. The light emitting layer is disposed on a part of the touch screen layer of the touch-enabled device. In this embodiment, the light emitting layer is configured to emit photons toward the touch screen layer upon contact from a biometric object. The biometric sensor system also includes an image capture component. It is part of the touch screen layer and is located directly under the light emitting layer. In this embodiment, the image capture component is configured to convert at least some of the emitted photons into data. The data represents an image that includes a representation of at least a portion of the biometric object.

上記および関連する目的を達成するために、下記の説明および添付の図面は、特定の例示的な態様および実施形態を記載する。これらは、1つ以上の態様を用いる様々な方法のうちの数例を示す。本開示の他の態様、利点および新規な特徴は、添付図面と共に以下の詳細な記載を考慮すれば、明らかとなる。   To the accomplishment of the foregoing and related ends, the following description and the annexed drawings set forth certain illustrative aspects and embodiments. These illustrate several examples of the various methods that use one or more aspects. Other aspects, advantages and novel features of the disclosure will become apparent from the following detailed description when considered in conjunction with the accompanying drawings.

ここで記載されることは、ある部品と部品の配置における物理的形態をとり、本明細書の一部を形成する添付の図面に示され、本明細書で詳細に説明される。   What is described herein is shown in the accompanying drawings, which take a physical form in certain parts and component arrangements and form part of this specification and are described in detail herein.

図1は、例示的な入力デバイスを示す構成図である。FIG. 1 is a block diagram illustrating an exemplary input device.

図2Aは、本明細書に記載の1以上のシステムの1以上の部分の例示的な実施形態を示す構成図である。FIG. 2A is a block diagram illustrating an exemplary embodiment of one or more portions of one or more systems described herein. 図2Bは、本明細書に記載の1以上のシステムの1以上の部分の例示的な実施形態を示す構成図である。FIG. 2B is a block diagram illustrating an exemplary embodiment of one or more portions of one or more systems described herein.

図3Aは、本明細書に記載の1以上のシステムの1以上の部分の例示的な実施形態を示す構成図である。FIG. 3A is a block diagram illustrating an exemplary embodiment of one or more portions of one or more systems described herein. 図3Bは、本明細書に記載の1以上のシステムの1以上の部分の例示的な実施形態を示す構成図である。FIG. 3B is a block diagram illustrating an exemplary embodiment of one or more portions of one or more systems described herein.

図4は、本明細書に記載の1以上のシステムの1以上の部分の例示的な実施形態を示す構成図である。FIG. 4 is a block diagram illustrating an exemplary embodiment of one or more portions of one or more systems described herein.

図5は、本明細書に記載の1以上のシステムの1以上の部分の例示的な実施形態を示す構成図である。FIG. 5 is a block diagram illustrating an exemplary embodiment of one or more portions of one or more systems described herein.

図6は、本明細書に記載の1以上のシステムの1以上の部分の例示的な実施形態を示す構成図である。FIG. 6 is a block diagram illustrating an exemplary embodiment of one or more portions of one or more systems described herein.

図7Aは、本明細書に記載の1以上のシステムの1以上の部分の例示的な実施形態を示す構成図である。FIG. 7A is a block diagram illustrating an exemplary embodiment of one or more portions of one or more systems described herein. 図7Bは、本明細書に記載の1以上のシステムの1以上の部分の例示的な実施形態を示す構成図である。FIG. 7B is a block diagram illustrating an exemplary embodiment of one or more portions of one or more systems described herein.

図8Aは、本明細書に記載の1以上のシステムの1以上の部分の例示的な実施形態を示す構成図である。FIG. 8A is a block diagram illustrating an exemplary embodiment of one or more portions of one or more systems described herein. 図8Bは、本明細書に記載の1以上のシステムの1以上の部分の例示的な実施形態を示す構成図である。FIG. 8B is a block diagram illustrating an exemplary embodiment of one or more portions of one or more systems described herein. 図8Cは、本明細書に記載の1以上のシステムの1以上の部分の例示的な実施形態を示す構成図である。FIG. 8C is a block diagram illustrating an exemplary embodiment of one or more portions of one or more systems described herein. 図8Dは、本明細書に記載の1以上のシステムの1以上の部分の例示的な実施形態を示す構成図である。FIG. 8D is a block diagram illustrating an exemplary embodiment of one or more portions of one or more systems described herein.

図9Aは、本明細書に記載の1以上のシステムの1以上の部分の例示的な実施形態を示す構成図である。FIG. 9A is a block diagram illustrating an exemplary embodiment of one or more portions of one or more systems described herein. 図9Bは、本明細書に記載の1以上のシステムの1以上の部分の例示的な実施形態を示す構成図である。FIG. 9B is a block diagram illustrating an exemplary embodiment of one or more portions of one or more systems described herein. 図9Cは、本明細書に記載の1以上のシステムの1以上の部分の例示的な実施形態を示す構成図である。FIG. 9C is a block diagram illustrating an exemplary embodiment of one or more portions of one or more systems described herein.

図10は、バイオメトリックセンサシステムを製造するための例示的な方法を示すフロー図である。FIG. 10 is a flow diagram illustrating an exemplary method for manufacturing a biometric sensor system.

図11は、バイオメトリックセンサを使用する例示的な方法を示すフロー図である。FIG. 11 is a flow diagram illustrating an exemplary method of using a biometric sensor.

図12は、本明細書に記載された1以上の条件が実行される例示的なコンピュータ環境を示す。FIG. 12 illustrates an exemplary computer environment in which one or more of the conditions described herein are implemented.

以下、特許請求の範囲に記載される内容について、図面を参照して説明する。図面全体にわたり、同じ参照符号が、類似の要素を参照するために用いられる。以下の記載において、説明の目的のため、特許請求の範囲の深い理解のために、多数の特定の詳細について説明する。しかし、特許請求の範囲に記載の内容は、これらの特定の詳細無しに実行することが可能であることは明らかである。他の場合において、特許請求の範囲の内容の説明を容易にするために、構造およびデバイスをブロック図によって示す。   The contents described in the claims will be described below with reference to the drawings. The same reference numbers are used throughout the drawings to reference like elements. In the following description, for the purposes of explanation, numerous specific details are set forth in order to provide a thorough understanding of the claims. It may be evident, however, that the subject matter claimed may be practiced without these specific details. In other instances, structures and devices are shown in block diagram form in order to facilitate describing the content of the claims.

以下に示すように、システムまたは1つ以上の技術が考案される。その技術は、タッチ対応のコンピュータデバイスおよび/または情報家電に組み込まれたバイオメトリック撮像装置(biometric imager)を提供する。そのデバイスおよび/または家電として、例えば、コンピュータ、ラップトップコンピュータ、スマートデバイス、携帯電話、タブレットデバイス、またはタッチセンサ式表面と相互作用するおよび/または当該表面をタッチすることによって、入力を受信することができるいくつかの他の機器が挙げられる。一例として、発光層から放出された光子は、関連する画像センサによって検出され、対応する電気信号に変換される。この例では、電気信号は、適用されたバイオメトリックオブジェクト(例えば、指によって)からタッチセンサ式表面の表面に、1つ以上のバイオメトリックマーカーを示す。また、信号は、バイオメトリックオブジェクトの1つ以上のバイオメトリックマーカーを表す画像を製造するよう処理される。一態様では、ここに記載されたシステムまたは技術は、タッチ対応デバイスの表面に組み込まれ、デバイスのユーザを所望のデータと関連付けるために使用される(例えば、セキュリティ目的、記録または他の識別目的のため)。別の態様では、イメージセンサコンポーネントによって製造される信号/データは、デバイスへの入力を提供するため、および/またはデバイスと相互作用するために使用される。   As shown below, a system or one or more technologies are devised. The technology provides a biometric imager incorporated in touch-enabled computing devices and / or information appliances. As the device and / or consumer electronics, for example, interacting with and / or touching a touch-sensitive surface, such as a computer, laptop computer, smart device, mobile phone, tablet device, or receiving that surface Some other equipment that can do this. As an example, photons emitted from the light emitting layer are detected by an associated image sensor and converted into a corresponding electrical signal. In this example, the electrical signal indicates one or more biometric markers from the applied biometric object (eg, by a finger) to the surface of the touch-sensitive surface. The signal is also processed to produce an image representing one or more biometric markers of the biometric object. In one aspect, the systems or techniques described herein are incorporated into the surface of a touch-enabled device and used to associate the user of the device with the desired data (eg, for security purposes, recording or other identification purposes) For). In another aspect, the signals / data produced by the image sensor component are used to provide input to the device and / or interact with the device.

図1は、例示的なバイオメトリック撮像装置100を示す構成図である。例示的なバイオメトリック撮像装置100は、発光層102を含む。その発光層102は、バイオメトリックオブジェクト150からの接触を受けた発光層102の一部から第一の方向に1以上の光子152を放出するように構成されている。一例として、ユーザは、指150で発光層102の表面をタッチする。この例において、発光層102は、タッチの位置で、単に光子を放出する。   FIG. 1 is a block diagram illustrating an exemplary biometric imaging device 100. The exemplary biometric imaging device 100 includes a light emitting layer 102. The light emitting layer 102 is configured to emit one or more photons 152 in a first direction from a portion of the light emitting layer 102 that has received contact from the biometric object 150. As an example, the user touches the surface of the light emitting layer 102 with the finger 150. In this example, the light emitting layer 102 simply emits photons at the touch location.

一実施形態では、発光層102は、電荷を光子152に変換することができるエレクトロルミネセンス材料を含む。この実施形態において、例えば、人間の自然な電位差(例えば、膜電位によって提供される)は、10〜200ボルトの電荷を発光層102に提供する。さらに、この実施形態では、発光層102に提供される電荷は、例えば、発光層102に配置されたエレクトロルミネッセンス材料によって光子152に変換される。   In one embodiment, the emissive layer 102 includes an electroluminescent material that can convert a charge into photons 152. In this embodiment, for example, a human natural potential difference (eg, provided by a membrane potential) provides a charge of 10-200 volts to the light emitting layer 102. Furthermore, in this embodiment, the charge provided to the light emitting layer 102 is converted to photons 152 by, for example, an electroluminescent material disposed in the light emitting layer 102.

別の実施形態では、発光層102は、発光層102に付与された圧力を光子152に変換することができるピエゾルミネッセンス材料を含む。この実施形態において、例えば、力(例えば、ユーザの指によって提供される)がピエゾルミネッセンス材料に圧力を付与すると、電子、正孔およびイオンセンターを含む再結合過程(recombination process)は、発光を提供することができる。また、この実施形態において、例えば、発光層102に付与される圧力は、発光層102に配置されたピエゾルミネッセンス材料によって提供される結果の発光から光子152に変換される。   In another embodiment, the emissive layer 102 includes a piezominescent material that can convert the pressure applied to the emissive layer 102 into photons 152. In this embodiment, for example, when a force (eg, provided by a user's finger) applies pressure to the piezominescent material, a recombination process involving electrons, holes and ion centers provides luminescence. can do. Also in this embodiment, for example, the pressure applied to the light emitting layer 102 is converted into photons 152 from the resulting light emission provided by the piezominescent material disposed in the light emitting layer 102.

例示的な例としては、図2Aは、ここに記載される1つ以上のシステムの1つ以上の部分の例示的な実施形態を示す構成図である。一実施形態では、発光層102は、エレクトロルミネセンス材料258(例えば、蛍光体系材料のような蛍光粒子が挙げられる。その蛍光体系材料は、ドーパントまたは活性化剤として遷移金属を有する蛍光体系無機結晶材料、硫化亜鉛系材料、硫化カドミウム系材料、ガリウム系材料などを含む。)と、バインダー材料とを含む。一実施形態では、バイオメトリックオブジェクト250(例えば、指または他の身体部分)が発光層102に接触し、電荷254を提供すると、エレクトロルミネセンス材料258は、(電荷254をうけると)単にタッチの位置で、「活性化」粒子256に変換される。さらに、この実施形態では、「活性化」粒子256は、例えば、光子252を放出する。それによって、電荷254をかけたとき、光を生成する。   As an illustrative example, FIG. 2A is a block diagram illustrating an exemplary embodiment of one or more portions of one or more systems described herein. In one embodiment, the emissive layer 102 includes an electroluminescent material 258 (eg, fluorescent particles such as a phosphor-based material. The phosphor-based material includes a phosphor-based inorganic crystal having a transition metal as a dopant or activator. Material, zinc sulfide-based material, cadmium sulfide-based material, gallium-based material, etc.) and a binder material. In one embodiment, when a biometric object 250 (eg, a finger or other body part) contacts the light emitting layer 102 and provides a charge 254, the electroluminescent material 258 is simply touched (when subjected to the charge 254). In position, it is converted to “activated” particles 256. Further, in this embodiment, “activated” particles 256 emit, for example, photons 252. Thereby, when a charge 254 is applied, light is generated.

一例として、人間の自然な電位差(例えば、膜電位によって提供される)は、発光層102の接触面(例えば、トップ層)に10〜200ボルトの電荷254を提供することができる。さらに、この実施形態では、バイオメトリックオブジェクト250が発光層102の接触面に接触すると、電荷254が発光層102に提供される。電荷254は、発光粒子258を活性化することによって、光子252に変換される。それによって、例えば、イメージセンシングコンポーネント(例えば、104)に向けて、「活性化」発光粒子256になり、光子252を生成する。   As an example, a natural human potential difference (eg, provided by a membrane potential) can provide a charge 254 of 10-200 volts on the contact surface (eg, top layer) of the emissive layer 102. Further, in this embodiment, charge 254 is provided to the light emitting layer 102 when the biometric object 250 contacts the contact surface of the light emitting layer 102. The charge 254 is converted into photons 252 by activating the luminescent particles 258. Thereby, for example, towards an image sensing component (eg, 104), it becomes “activated” luminescent particles 256 and generates photons 252.

別の実施形態において、図2Aに示すように、発光層102は、ピエゾルミネッセンス材料258(例えば、圧電性結晶(例えば、塩化ナトリウム、臭化カリウム、塩化カリウム、フッ化リチウム等)またはある種の鉄系ポリマー)を含む。一実施態様では、バイオメトリックオブジェクト250が発光層102に接触し、押圧力を付与すると、ピエゾルミネッセンス材料258は、(押圧力254をうけると)単に接触と圧力の位置で、「活性化」材料256に変換される。さらに、この実施形態では、「活性化」材料256は、例えば、光子252を放出する。それによって、押圧力254をかけたとき、光を生成する。   In another embodiment, as shown in FIG. 2A, the emissive layer 102 may include a piezoelectric luminescent material 258 (eg, a piezoelectric crystal (eg, sodium chloride, potassium bromide, potassium chloride, lithium fluoride, etc.) or some type of Iron-based polymer). In one embodiment, when the biometric object 250 is in contact with the light emitting layer 102 and imparts a pressing force, the piezominence material 258 (when subjected to the pressing force 254) simply “activates” the material at the position of contact and pressure. 256. Further, in this embodiment, the “activation” material 256 emits photons 252, for example. Thereby, when a pressing force 254 is applied, light is generated.

例として、エレクトロルミネセンス粒子に電荷をかけると、電子と正孔の放射再結合のために、光子の自発的な放出が発生する。このプロセスは、励起状態(例えば、電荷をうけた)における蛍光分子のような光源がより低いエネルギー状態に遷移すると、光子を放出するという結果をもたらす。また、別の例として、ピエゾルミネッセンス材料が圧力をうけると、電子と正孔の再結合過程のために、光子の自発的な放出がまた生じる。この例では、これらの材料が励起状態(例えば、圧力をうける)にあると、それらの材料は、より低いエネルギー状態に遷移し、光子を放出する。   As an example, when an electroluminescent particle is charged, spontaneous emission of photons occurs due to radiative recombination of electrons and holes. This process results in the emission of photons when a light source such as a fluorescent molecule in an excited state (eg, charged) transitions to a lower energy state. As another example, when the piezominescent material is under pressure, spontaneous emission of photons also occurs due to the recombination process of electrons and holes. In this example, when these materials are in an excited state (eg, under pressure), they transition to a lower energy state and emit photons.

図1を参照すると、例示的なバイオメトリック撮像装置100は、画像キャプチャコンポーネント104を含む。画像キャプチャコンポーネント104は、発光層102と動作可能に連動する。その結果、画像キャプチャコンポーネント104は、放出された光子152の方向の経路に配置される。また、画像キャプチャコンポーネント104は、受信した光子152を電気信号に変換するように構成されている。すなわち、例えば、画像キャプチャコンポーネント104は、感光性材料を含んでいる。その材料は、1つ以上の光子152が材料に衝突すると、産生される電気信号をもたらす。このようにして、例えば、画像キャプチャコンポーネント104に衝突する光子の位置および/または数は、光子152の衝突を受けた画像キャプチャコンポーネント104の領域から、電気信号の数(例えば、または電力)によって示される。一実施態様では、その結果の電気信号は、バイオメトリックオブジェクトの接触領域の表示(例えば、画像)を示すデータを含む。   With reference to FIG. 1, an exemplary biometric imaging device 100 includes an image capture component 104. Image capture component 104 is operatively associated with light emitting layer 102. As a result, the image capture component 104 is placed in a path in the direction of the emitted photons 152. The image capture component 104 is also configured to convert the received photons 152 into electrical signals. That is, for example, the image capture component 104 includes a photosensitive material. The material provides an electrical signal that is produced when one or more photons 152 strike the material. Thus, for example, the location and / or number of photons impinging on the image capture component 104 are indicated by the number of electrical signals (eg, or power) from the area of the image capture component 104 that has been impacted by the photons 152. It is. In one embodiment, the resulting electrical signal includes data indicative of a display (eg, an image) of the contact area of the biometric object.

一実施形態では、画像キャプチャコンポーネント104は、薄膜センサ(例えば、感光性薄膜トランジスタ(TFT)、薄膜フォトダイオード)または相補型金属酸化膜半導体(CMOS)のような、アクティブピクセルセンサ(APS)またはパッシブピクセルセンサ(PPS)を含む。別の例として、センサ配列(arrangement)104は、電荷結合素子(CCD)、密着型イメージセンサ(CIS)、あるいは光子を電気信号に変換することができるいくつかの他の光センサを含む。注目すべきは、図1の図は、単に、バイオメトリック撮像装置100の例示的な実施形態であり、特に限定することを意図するものではない。すなわち、例えば、発光層102と画像キャプチャコンポーネント104との間に示されたギャップは、説明のために誇張され、例示的なバイオメトリック撮像装置100に存在していても、存在していなくてもよい。   In one embodiment, the image capture component 104 is an active pixel sensor (APS) or passive pixel, such as a thin film sensor (eg, a photosensitive thin film transistor (TFT), thin film photodiode) or a complementary metal oxide semiconductor (CMOS). Includes a sensor (PPS). As another example, the sensor arrangement 104 includes a charge coupled device (CCD), a contact image sensor (CIS), or some other photosensor that can convert photons into electrical signals. It should be noted that the diagram of FIG. 1 is merely an exemplary embodiment of a biometric imaging device 100 and is not intended to be particularly limited. That is, for example, the gap shown between the emissive layer 102 and the image capture component 104 is exaggerated for purposes of illustration and may or may not be present in the exemplary biometric imaging device 100. Good.

例示的な例として、図3Aは、例えば、ここに記載された1つ以上のシステムの1つ以上の部分の例示的な実施形態を示す構成図である。図3Aの例示的な実施形態では、発光層102は、画像キャプチャコンポーネント104上に配置されている。この画像キャプチャコンポーネント104は、入射光子352を電子信号に変換するために使用される。一実施態様では、画像キャプチャコンポーネント104は、薄膜センサアレイを含む。例えば、薄膜センサアレイは、発光層102によって放出された光子352を検出するために使用される。ここで、一例として、画像キャプチャコンポーネント104は、発光層102によって産生された(例えば、発光層102の表面と接触するバイオメトリックオブジェクトから産生される)光子352を検出することができ、光子352を電気信号に変換することができる。   As an illustrative example, FIG. 3A is a block diagram illustrating an exemplary embodiment of one or more portions of one or more systems described herein, for example. In the exemplary embodiment of FIG. 3A, the emissive layer 102 is disposed on the image capture component 104. This image capture component 104 is used to convert incident photons 352 into an electronic signal. In one implementation, the image capture component 104 includes a thin film sensor array. For example, a thin film sensor array is used to detect photons 352 emitted by the light emitting layer 102. Here, as an example, the image capture component 104 can detect photons 352 produced by the emissive layer 102 (eg, produced from a biometric object in contact with the surface of the emissive layer 102), and the photons 352 can be detected. It can be converted into an electrical signal.

この例示的な実施形態では、感光性材料302(例えば、SiH、アモルファスシリコンは、ゲルマニウム系材料、インジウムガリウム系材料、鉛系材料のような半導体材料を含む)は、光センシングユニット308の第1のドレイン電極306と第1のソース電極304との間に形成される。電荷が第1のゲート電極310に付与されると、感光層302は、光に応答することができる。例えば、感光層302は、光の光子が入射するとき、導電層になる。一例として、光が所定の閾値光量を超えて感光層302に入射すると、第1のソース電極304および第1のドレイン電極306は、電気的に接続されるようになる。したがって、この例では、発光層102から発生した光(例えば、指紋パターンを含む)は、感光層302によって受信される。それは、第1のソース電極304から第1のドレイン電極306に通過する電気信号を生じさせる(例えば、受信した光を示す電子信号を提供する)。   In this exemplary embodiment, photosensitive material 302 (eg, SiH, amorphous silicon includes a semiconductor material such as a germanium-based material, an indium gallium-based material, a lead-based material) is the first of the light sensing unit 308. Formed between the drain electrode 306 and the first source electrode 304. When charge is applied to the first gate electrode 310, the photosensitive layer 302 can respond to light. For example, the photosensitive layer 302 becomes a conductive layer when light photons are incident. As an example, when light exceeds a predetermined threshold light amount and enters the photosensitive layer 302, the first source electrode 304 and the first drain electrode 306 are electrically connected. Accordingly, in this example, light (eg, including a fingerprint pattern) generated from the light emitting layer 102 is received by the photosensitive layer 302. It produces an electrical signal that passes from the first source electrode 304 to the first drain electrode 306 (eg, provides an electronic signal indicative of received light).

また、一実施態様において、画像キャプチャコンポーネント104のスイッチング部312は、第2のソース電極314と、第2のドレイン電極316と、固有の半導体層318とを含む。一例として、負電荷が第2のゲート電極320に付与されると、固有の半導体層318は、導電性になり、それによって、光センシングユニット308で生産された電気信号が第2のソース電極から第2のドレイン電極に(例えば、およびデジタル画像に変換するための電気信号読み出しコンポーネントに)通過することができる。このように、例えば、スイッチング部312は、特別な量の光を示す電気信号が(例えば、処理目的、信号位置目的のためおよび/または近隣の光センシングユニットと干渉する信号を緩和するために)電気信号読み出しコンポーネントに送られるとき、制御のために使用される。   In one embodiment, the switching portion 312 of the image capture component 104 includes a second source electrode 314, a second drain electrode 316, and a unique semiconductor layer 318. As an example, when a negative charge is applied to the second gate electrode 320, the intrinsic semiconductor layer 318 becomes conductive so that the electrical signal produced by the light sensing unit 308 is transmitted from the second source electrode. It can be passed to a second drain electrode (eg, to an electrical signal readout component for converting to a digital image). Thus, for example, the switching unit 312 may be configured such that an electrical signal indicative of a particular amount of light (eg, to mitigate signals that interfere with neighboring optical sensing units for processing purposes, signal location purposes, and / or). Used for control when sent to an electrical signal readout component.

さらに、一実施形態として、遮蔽層322がスイッチング部312の上部にある。一例として、光は固有の半導体層318の電気伝導度に影響するから、遮蔽層322は、固有の半導体層318への光の侵入を軽減する。画像キャプチャコンポーネント104は、任意の適切な材料の基板354を含む。その上に、画像キャプチャコンポーネント104の層が形成されている。一例として、バイオメトリックオブジェクト350(例えば、指など)が発光層102の接触面(例えば、上面、上部被膜、保護層)に接触すると、電荷(例えば、および/または押圧力)は、発光層102に入る。この例において、発光層102は、感光層302に入射する光子352を放出する。それにより、電気信号(例えば、受信された光子の数の表示および/または受信された光子の位置)が第1のソース電極304から第2のドレイン電極316に通過することができる。   Further, in one embodiment, a shielding layer 322 is on top of the switching unit 312. As an example, since light affects the electrical conductivity of the intrinsic semiconductor layer 318, the shielding layer 322 reduces light intrusion into the intrinsic semiconductor layer 318. Image capture component 104 includes a substrate 354 of any suitable material. On top of that, a layer of the image capture component 104 is formed. As an example, when a biometric object 350 (eg, a finger or the like) contacts a contact surface (eg, top surface, top coat, protective layer) of the light emitting layer 102, the charge (eg, and / or pressing force) is reduced to the light emitting layer 102. to go into. In this example, the light emitting layer 102 emits photons 352 incident on the photosensitive layer 302. Thereby, an electrical signal (eg, an indication of the number of received photons and / or the location of the received photons) can pass from the first source electrode 304 to the second drain electrode 316.

一態様において、例示的なバイオメトリック撮像装置100は、バイオメトリックオブジェクトレリーフ模様を生成するために使用される。一例として、例示的なバイオメトリック撮像装置100は、例えば、セキュリティ目的、ユーザ認証、バイオメトリックデータロギング、バイオメトリックデータ比較や検索などのために、発光層102の表面上に配置された1つ以上のユーザの指の指紋(例えば、または他のバイオメトリックオブジェクト)を捕捉するために使用される。一実施形態において、この態様では、適切なバイオメトリックオブジェクトレリーフ模様(例えば、指紋)を生成するために、バイオメトリックオブジェクトの細かい細部の大きな解像度(definition)を必要とする(例えば、タッチ位置検出用より大きい)。この実施形態では、補足電荷は、発光層102によって生産される光子の数を増加させるために使用される。例えば、光子の増加は、結果の画像における細かい細部のためにコントラストの改善と、細部の解像度の改善とを提供する。   In one aspect, the exemplary biometric imaging device 100 is used to generate a biometric object relief pattern. As an example, the exemplary biometric imaging device 100 may include one or more disposed on the surface of the emissive layer 102, eg, for security purposes, user authentication, biometric data logging, biometric data comparison and search, and the like. Used to capture fingerprints (eg, or other biometric objects) of a user's finger. In one embodiment, this aspect requires a large definition of fine details of the biometric object to generate a suitable biometric object relief pattern (eg, fingerprint) (eg, for touch location detection). Larger). In this embodiment, the supplemental charge is used to increase the number of photons produced by the light emitting layer 102. For example, an increase in photons provides improved contrast due to fine details in the resulting image and improved resolution of details.

例示的な実施例として、図2Bは、ここで記載された1つ以上のシステムの1つ以上の部分の例示的な実施形態を示す構成図である。図2Bの例示的な実施形態では、発光層102は、電極系(例えば、単一電極)エレクトロルミネセンスコンポーネントを含む。さらに、この実施形態では、発光層102は、電力供給218(例えば、AC電源のような電源)を含む。電力供給218は、バイオメトリックオブジェクト250と発光層102との間の電気接続を提供する。また、一実施態様では、発光層102は、透明電極層216(例えば、インジウムスズ酸化物(ITO)材料を含む)(例えば、または別の光学的に透明な導電体)、エレクトロルミネッセンス層214、および/または誘電体層212(例えば、電位または電界が発光層102にわたって構築できる導電性/絶縁層)を含む。この実施形態では、例えば、例示的なバイオメトリック撮像装置100が起動すると(例えば、デバイスの表面上に指を配置することによって)、発光層102によって産生される光子252は、画像キャプチャコンポーネント104に向かって向けられるように、第1の方向に放出される。   As an illustrative example, FIG. 2B is a block diagram illustrating an exemplary embodiment of one or more portions of one or more systems described herein. In the exemplary embodiment of FIG. 2B, the light emitting layer 102 includes an electrode system (eg, a single electrode) electroluminescent component. Further, in this embodiment, the light emitting layer 102 includes a power supply 218 (eg, a power source such as an AC power source). The power supply 218 provides an electrical connection between the biometric object 250 and the light emitting layer 102. In one embodiment, the light-emitting layer 102 also includes a transparent electrode layer 216 (eg, comprising an indium tin oxide (ITO) material) (eg, or another optically transparent conductor), an electroluminescent layer 214, And / or include a dielectric layer 212 (eg, a conductive / insulating layer in which a potential or electric field can be built across the light emitting layer 102). In this embodiment, for example, when the exemplary biometric imaging device 100 is activated (eg, by placing a finger on the surface of the device), the photons 252 produced by the emissive layer 102 are transmitted to the image capture component 104. Released in a first direction to be directed toward.

図2Bでは、発光素子102は、例えば、エレクトロルミネセンス材料258とバインダー材料とで構成されるエレクトロルミネセンス層214を含む。一実施形態では、エレクトロルミネセンス材料258は、例えば、電界262を受けた時、「活性化」粒子256を含む。また、この実施形態では、例えば、「活性化」粒子256は、光子252を放出する。それによって、電流262をかけた時、光を産生する。また、例示的な実施形態において、誘電体層212は、エレクトロルミネセンス層214と接触し、エレクトロルミネセンス層214の上部にある。そして、透明電極216(例えば、受信電極)は、エレクトロルミネセンス層214と接触し、エレクトロルミネセンス層214の底部の下にある。さらに、電源218(例えば、交流(AC)電源)は、透明電極216との電気的接続における電極接続部222と、誘電体層212の接触面(例えば、上面)に実質的に隣接して存在するコンタクト電極220(例えば、バイオメトリックオブジェクトコンタクト電極)と、電気的に結合されている。   In FIG. 2B, the light emitting device 102 includes an electroluminescent layer 214 composed of, for example, an electroluminescent material 258 and a binder material. In one embodiment, electroluminescent material 258 includes “activated” particles 256, for example, when subjected to an electric field 262. Also in this embodiment, for example, “activated” particles 256 emit photons 252. Thereby, light is produced when the current 262 is applied. Also, in the exemplary embodiment, dielectric layer 212 is in contact with and on top of electroluminescent layer 214. The transparent electrode 216 (eg, receiving electrode) then contacts the electroluminescent layer 214 and is below the bottom of the electroluminescent layer 214. Further, the power source 218 (eg, alternating current (AC) power source) exists substantially adjacent to the electrode connection 222 in electrical connection with the transparent electrode 216 and the contact surface (eg, top surface) of the dielectric layer 212. A contact electrode 220 (eg, a biometric object contact electrode) that is electrically coupled.

1つの実施形態では、バイオメトリックオブジェクト250は、誘電体層212の接触表面とコンタクト電極220との両方に接触する。この実施形態において、例えば、オブジェクトが誘電体層212とコンタクト電極220との両方と接触すると、電気回路は、コンタクト電極220と透明電極216との間に作成される。それによって、電位差(voltage potential)262が2つの電極間を流れることができる。さらに、この実施形態では、誘電材料層212の接触面と接触するバイオメトリックオブジェクト250の部分(例えば、身体部分のレリーフ隆起部)は、コンタクト電極220と透明電極216との間の電位差を可能にする。加えて、電場262は、単にタッチの場所でエレクトロルミネセンス粒子256を「活性化する」ことができる。「活性化」されると、活性化粒子256は、バイオメトリックオブジェクト250の一部(例えば、指紋隆線)の接触の場所で単に光子252を放出する。このように、例えば、バイオメトリックオブジェクト250がコンタクト電極220と誘電体層212の接触面との両方と接触すると、バイオメトリックオブジェクト250(例えば、指)の明るくされたレリーフ模様(例えば、指紋)を製造する。   In one embodiment, biometric object 250 contacts both the contact surface of dielectric layer 212 and contact electrode 220. In this embodiment, for example, when an object contacts both the dielectric layer 212 and the contact electrode 220, an electrical circuit is created between the contact electrode 220 and the transparent electrode 216. Thereby, a voltage potential 262 can flow between the two electrodes. Further, in this embodiment, the portion of biometric object 250 that contacts the contact surface of dielectric material layer 212 (eg, a relief ridge of the body part) allows for a potential difference between contact electrode 220 and transparent electrode 216. To do. In addition, the electric field 262 can simply “activate” the electroluminescent particles 256 at the location of the touch. When “activated”, activated particles 256 simply emit photons 252 at the point of contact of a portion of biometric object 250 (eg, a fingerprint ridge). Thus, for example, when the biometric object 250 is in contact with both the contact electrode 220 and the contact surface of the dielectric layer 212, a brightened relief pattern (eg, fingerprint) of the biometric object 250 (eg, finger) is created. To manufacture.

別の例示的な例として、図3Bは、ここに記載された1つ以上のシステムの1つ以上の部分の例示的な実施形態を示す構成図である。この例示的な実施形態において、発光層102は、例示的な画像キャプチャコンポーネント104と結合される。これは、例示的な基板層354上に配置される。また、例示的なデバイス100の一部の実施形態において、発光層102は、電源334に電気的に結合されている。その電源334は、接地電極332と電気的に結合されている。この実施形態では、一例として、バイオメトリックオブジェクト(例えば、指など)が接地電極332および発光層102(例えば、図2Bの誘電体層212)と接すると、電流が電源334から接地電極332に流れ、バイオメトリックオブジェクト350を介して発光層102に流れる。発光層102によって(例えば、図2Bのエレクトロルミネセンス層214によって)放出された結果の光子352は、画像キャプチャコンポーネント104の感光層302上に衝突する。それにより、バイオメトリックオブジェクト350のレリーフ模様を示す1つ以上の電気信号の出力につながる。   As another illustrative example, FIG. 3B is a block diagram illustrating an exemplary embodiment of one or more portions of one or more systems described herein. In the exemplary embodiment, light emitting layer 102 is combined with exemplary image capture component 104. This is disposed on an exemplary substrate layer 354. Also, in some embodiments of exemplary device 100, light emitting layer 102 is electrically coupled to power source 334. The power source 334 is electrically coupled to the ground electrode 332. In this embodiment, as an example, when a biometric object (eg, a finger) contacts the ground electrode 332 and the light emitting layer 102 (eg, the dielectric layer 212 of FIG. 2B), current flows from the power source 334 to the ground electrode 332. And flows to the light emitting layer 102 via the biometric object 350. Resulting photons 352 emitted by the emissive layer 102 (eg, by the electroluminescent layer 214 of FIG. 2B) impinge on the photosensitive layer 302 of the image capture component 104. This leads to the output of one or more electrical signals indicating the relief pattern of the biometric object 350.

図4は、ここに記載された1つ以上のシステムの1つ以上の部分の例示的な実施形態を示す構成図である。この実施形態において、モバイルデバイス400(スマートフォンまたはいくつかの他の携帯データ機器)は、「カバーガラス」402を含む。「カバーガラス」は、光学的に透明なカバーを示すための一般的な用語として単に使用される。そのようなカバーは、携帯機器、スマートフォン、タブレット、ノートパソコン、モニタ、およびその他のコンピュータ画面上に見つけられる。カバーガラス402は、「カバーガラス」のコンポーネントを実際のガラスを含むコンポーネントに限定するものではない。すなわち、「カバーガラス」は、様々なコンポーネントの1つ以上の層を含む。そのようなコンポーネントは、特に限定されないが、ガラス、ポリマー、ポリエステル、フィルム、電極層、遮蔽、セラミックス、コーティング、偏光層等を含む。ここで記載されるこの実施形態、および他の形態において、用語「カバーガラス」は、これらのコンポーネントのいずれかまたは全ての単独または組み合わせを指し、実際のガラスを含まなくてもよい。   FIG. 4 is a block diagram illustrating an exemplary embodiment of one or more portions of one or more systems described herein. In this embodiment, mobile device 400 (smartphone or some other portable data device) includes a “cover glass” 402. “Cover glass” is simply used as a general term to denote an optically clear cover. Such covers can be found on mobile devices, smartphones, tablets, laptops, monitors, and other computer screens. Cover glass 402 does not limit a “cover glass” component to a component that includes actual glass. That is, a “cover glass” includes one or more layers of various components. Such components include, but are not limited to, glass, polymers, polyesters, films, electrode layers, shields, ceramics, coatings, polarizing layers, and the like. In this and other embodiments described herein, the term “cover glass” refers to any or all of these components, alone or in combination, and may not include actual glass.

一実装形態では、図4に示されるように、カバーガラス402の上部層は保護コーティング404を含む。保護コーティングは、例えば、汚れ、液体、紫外光、傷、および衝突から、カバーガラスの表面を保護するように構成されている。さらに、いくつかの実装形態では、カバーガラス402は、接着層406を含む。この接着層406は、カバーガラス402の上面に保護コーティングを接着するように構成されている。この実施形態において、カバーガラス402は、第1の導電性フィルム408を含む。一例として、第1の導電性フィルム408は、無機または有機材料から形成された光学的に透明な電極タイプの材料を含む。一例として、無機材料(例えば、インジウムスズ酸化物(ITO)、フッ素ドープスズ酸化物(FTO)および/またはドープされた酸化亜鉛)は、第1の導電性フィルム408を作成するために使用される。代わりに、光学的に透明な電極タイプの材料は、有機材料(例えば、グラフェン、カーボンナノチューブ、および/またはポリマー)を含んでもよい。これは、第1の導電性フィルム408を作成するために使用される。   In one implementation, the top layer of cover glass 402 includes a protective coating 404, as shown in FIG. The protective coating is configured to protect the surface of the cover glass from, for example, dirt, liquids, ultraviolet light, scratches, and impacts. Further, in some implementations, the cover glass 402 includes an adhesive layer 406. The adhesive layer 406 is configured to adhere a protective coating to the upper surface of the cover glass 402. In this embodiment, the cover glass 402 includes a first conductive film 408. As an example, the first conductive film 408 includes an optically transparent electrode type material formed from an inorganic or organic material. As an example, an inorganic material (eg, indium tin oxide (ITO), fluorine doped tin oxide (FTO) and / or doped zinc oxide) is used to create the first conductive film 408. Alternatively, the optically transparent electrode type material may include organic materials (eg, graphene, carbon nanotubes, and / or polymers). This is used to make the first conductive film 408.

図4に示すように、カバーガラス402は、例えば、様々な材料(例えば、アルミノケイ酸塩および他の材料)で作られた、処理ガラスおよび/または強化ガラス(例えば、アルカリ塩で処理された、焼戻されたなど)を含むガラス層410(例えば、またはポリマー層またはポリエステル層)を含む。さらに、いくつかの実施形態では、カバーガラス402は、第1の導電性フィルム408に類似する第2の導電性フィルム412を含む。一例として、ガラス層410を挟む2つの導電性フィルム408、412は、カバーガラスが静電容量タッチスクリーンであることを可能にする。ユーザは、画面上のイベントと接触する(interact)ためおよび/またはデータを入力するために、カバーガラスを単にタッチする。   As shown in FIG. 4, the cover glass 402 may be treated glass and / or tempered glass (eg, treated with an alkali salt) made of various materials (eg, aluminosilicate and other materials), for example. A glass layer 410 (e.g., tempered or the like) or a polymer layer or a polyester layer. Further, in some embodiments, the cover glass 402 includes a second conductive film 412 that is similar to the first conductive film 408. As an example, the two conductive films 408, 412 sandwiching the glass layer 410 allow the cover glass to be a capacitive touch screen. The user simply touches the cover glass to interact with events on the screen and / or to enter data.

図4の例示的な実施形態では、カバーガラス402は、例えば、液晶ディスプレイ(LCD)を含む表示スクリーン450上に配置されている。表示スクリーン450は、デバイス400用のユーザインタフェース(UI)の視覚的出力を提供する。それは、例えば、画面上のボタン、入力ウィジェット、およびユーザに表示されるビジュアルコンテンツを含む。この実施形態において、カバーガラス402は、表示スクリーン450用のタッチ対応スクリーン保護カバーを備える。そのカバーは、デバイス400用の主要な入力ツールを提供しながら、液体、汚れ、物理的な損傷から表示スクリーン450を保護する。   In the exemplary embodiment of FIG. 4, cover glass 402 is disposed on a display screen 450 including, for example, a liquid crystal display (LCD). Display screen 450 provides a visual output of a user interface (UI) for device 400. It includes, for example, buttons on the screen, input widgets, and visual content displayed to the user. In this embodiment, the cover glass 402 includes a touch-compatible screen protective cover for the display screen 450. The cover protects the display screen 450 from liquids, dirt, and physical damage while providing the primary input tool for the device 400.

図5は、ここに記載された1つ以上のシステムの1つ以上の部分の例示的な実施形態の構成図である。一例として、エレクトロルミネセンスフィルムコンポーネント500は、1つ以上の層を含み、コンポーネント500の表面のバイオメトリックオブジェクトのタッチの位置で、光子を生成するために使用される。図5の例示的な実施形態では、エレクトロルミネセンスフィルムコンポーネント500は、透明な絶縁性基板層502を含む。一例として、基板層502は、任意の適切な材料(例えば、ガラス、ポリマー、ポリエステル等)を含む。その適切な材料は、他の層(光学的に透明な材料を含む)が形成される基板として構成されている。その基板は、光学的に透明な材料を含んでいる。   FIG. 5 is a block diagram of an exemplary embodiment of one or more portions of one or more systems described herein. As an example, the electroluminescent film component 500 includes one or more layers and is used to generate photons at the location of a biometric object touch on the surface of the component 500. In the exemplary embodiment of FIG. 5, electroluminescent film component 500 includes a transparent insulating substrate layer 502. As an example, the substrate layer 502 includes any suitable material (eg, glass, polymer, polyester, etc.). The appropriate material is configured as a substrate on which other layers (including optically transparent materials) are formed. The substrate includes an optically transparent material.

また、エレクトロルミネセンスフィルムコンポーネント500は、任意の適切な透明導電性フィルムを含む下部電極504を含む(例えば、図4の408、412)。加えて、補強層506は、下部電極層504の上部に配置されている。一例として、補強層は、任意の適切な材料で構成されている。その材料は、発光層508と下部電極504との間のいくつかの剛性と補強を提供するように構成されている。発光層508は(例えば、図1〜3の102)は、上記のように、電荷を、電界の位置および強度を示す光子に変換するように構成されている。すなわち、例えば、ユーザの指は、発光層508に電荷を提供する。それは、層508の発光粒子を活性化粒子に変換することができる。それにより、電荷に応答して、1つ以上の光子を放出する。   The electroluminescent film component 500 also includes a bottom electrode 504 that includes any suitable transparent conductive film (eg, 408, 412 in FIG. 4). In addition, the reinforcing layer 506 is disposed on the lower electrode layer 504. As an example, the reinforcing layer is made of any appropriate material. The material is configured to provide some rigidity and reinforcement between the light emitting layer 508 and the lower electrode 504. The light emitting layer 508 (eg, 102 in FIGS. 1-3) is configured to convert charge into photons that indicate the position and strength of the electric field, as described above. That is, for example, the user's finger provides a charge to the light emitting layer 508. It can convert the luminescent particles of layer 508 into activated particles. Thereby, one or more photons are emitted in response to the charge.

図5に示すように、例として、エレクトロルミネセンスコンポーネント500は、発光層508の上部に配置されたシールド層510を含む。シールド層510は、任意の適切な材料で構成されている。その材料は、例えば、遮光能力を提供することによって、発光層の上面から光子の放出を軽減するように構成されている。そして、シールド層510は、発光層508上に適切に配置され、常駐する。このように、例えば、発光層508によって放出される光子は、エレクトロルミネセンスコンポーネント500の底部に向かって(例えば、画像センサに向かって)単に導かれる。誘電体層512は、上記のように、シールド層510の上部に配置され、適切なときに電流を通過させ、絶縁性を提供するように構成されている(例えば、図2Bの212)。また、保護層514は、誘電体層512の上部に配置されている。保護層は、エレクトロルミネセンスコンポーネント500の表面に対して物理的ダメージを軽減し、液体から保護するように構成されている。   As shown in FIG. 5, by way of example, the electroluminescent component 500 includes a shield layer 510 disposed on top of the light emitting layer 508. The shield layer 510 is made of any appropriate material. The material is configured to reduce photon emission from the top surface of the light emitting layer, for example, by providing a light blocking capability. The shield layer 510 is appropriately disposed and resides on the light emitting layer 508. Thus, for example, photons emitted by the light emitting layer 508 are simply directed toward the bottom of the electroluminescent component 500 (eg, toward the image sensor). The dielectric layer 512 is disposed on top of the shield layer 510, as described above, and is configured to pass current and provide insulation when appropriate (eg, 212 in FIG. 2B). In addition, the protective layer 514 is disposed on the dielectric layer 512. The protective layer is configured to reduce physical damage to the surface of the electroluminescent component 500 and protect it from liquids.

例示的な例として、例示的なエレクトロルミネセントコンポーネント500は、1つ以上の例示的な層502−514で構成された接触発光デバイスを含む。この例において、電界が、撮像されるべきオブジェクト(バイオメトリックオブジェクト(例えば、1本以上の指または手))と下部電極層504との間に形成されると、発光層508は、バイオメトリックオブジェクトの少なくとも一部の画像を示す光子を放出する。   As an illustrative example, exemplary electroluminescent component 500 includes a contact light emitting device comprised of one or more exemplary layers 502-514. In this example, when an electric field is formed between an object to be imaged (a biometric object (eg, one or more fingers or hands)) and the bottom electrode layer 504, the emissive layer 508 is a biometric object. Emit photons representing at least a portion of the image.

図6は、ここに記載された1つ以上のシステムの1つ以上の部分の例示的な実施形態を示す構成図である。図6では、例示的な発光層602(例えば、図1、2A、2Bの102、または図5の層508−512)は、カバーガラス(例えば、図4の402)の第1の導電性フィルム層606(例えば、図4の408)上に配置される。また、この例示的な例において、第1の導電性フィルム層606は、タッチ対応デバイスの出力画面(例えば、図4の400)に使用されるカバーガラスの基板層608(例えば、図4の410)の上部に配置される。さらに、保護コーティング層604(例えば、図4の404)は、第1の導電性フィルム層606の一部と発光層602上に配置されている。一実施形態では、層602−608の組合せ610は、例示的な、タッチ対応デバイスのスクリーン用のカバーガラスの少なくとも一部を含む。   FIG. 6 is a block diagram illustrating an exemplary embodiment of one or more portions of one or more systems described herein. In FIG. 6, an exemplary emissive layer 602 (eg, 102 in FIGS. 1, 2A, 2B, or layers 508-512 in FIG. 5) is a first conductive film in a cover glass (eg, 402 in FIG. 4). Located on layer 606 (eg, 408 in FIG. 4). Also in this illustrative example, the first conductive film layer 606 is a cover glass substrate layer 608 (eg, 410 of FIG. 4) used for the output screen (eg, 400 of FIG. 4) of the touch-enabled device. ). Further, a protective coating layer 604 (eg, 404 in FIG. 4) is disposed on a portion of the first conductive film layer 606 and the light emitting layer 602. In one embodiment, the combination 610 of layers 602-608 includes at least a portion of a cover glass for an exemplary touch enabled device screen.

例示的な例として、図7Aは、ここに記載された1つ以上のシステムの1つ以上の部分の例示的な実施形態を示す構成図である。この実施形態では、発光層602は、タッチ対応デバイスのカバーガラス710の一部上に配置される。また、保護層604は、発光層602およびカバーガラス層710上に配置される。このように、例えば、発光層602は、カバーガラス710の所望の部分に効果的に配置されており、カバーガラス710の全体は、保護層604によって覆われている。したがって、例えば、発光層602が配置されているカバーガラス710の部分にバイオメトリックオブジェクトが接触すると、バイオメトリックオブジェクトの画像を表す光が、発光層602からカバーガラス710に向けて方向付けられる。   As an illustrative example, FIG. 7A is a block diagram illustrating an exemplary embodiment of one or more portions of one or more systems described herein. In this embodiment, the light emitting layer 602 is disposed on a portion of the cover glass 710 of the touch-enabled device. Further, the protective layer 604 is disposed on the light emitting layer 602 and the cover glass layer 710. Thus, for example, the light emitting layer 602 is effectively disposed on a desired portion of the cover glass 710, and the entire cover glass 710 is covered with the protective layer 604. Thus, for example, when the biometric object contacts the portion of the cover glass 710 where the light emitting layer 602 is disposed, light representing the image of the biometric object is directed from the light emitting layer 602 toward the cover glass 710.

一実施形態において、撮像コンポーネント(image sensing component)704は、カバーガラス710の下の発光層602の位置に配置されている。その結果、例えば、発光層から放出された光は、撮像コンポーネント704に衝突する。例えば、撮像コンポーネントは、上述したように、任意の適切なコンポーネント(例えば、図1、図3A及び図3Bの104)を含む。一実施形態では、撮像コンポーネント704は、光学部品702(例えば、レンズ)を利用する。その部品は、例えば、発光層602から所望の構成に放出された光子を集束するように構成されている。一例として、放出された光が、撮像コンポーネント704の表面に衝突する前に、適切な配置に収束すると、撮像コンポーネント704は、より望ましい結果(例えば、フォーカス、粒状度、コントラスト等の改良された画質)を提供する。   In one embodiment, the image sensing component 704 is located at the light emitting layer 602 below the cover glass 710. As a result, for example, light emitted from the light emitting layer collides with the imaging component 704. For example, the imaging component includes any suitable component (eg, 104 in FIGS. 1, 3A, and 3B) as described above. In one embodiment, the imaging component 704 utilizes an optical component 702 (eg, a lens). The component is configured, for example, to focus photons emitted from the light emitting layer 602 to a desired configuration. As an example, if the emitted light converges to the proper placement before impacting the surface of the imaging component 704, the imaging component 704 may have more desirable results (eg, improved image quality such as focus, granularity, contrast, etc.). )I will provide a.

別の例示的な例として、図7Bは、ここに記載された1つ以上のシステムの1つ以上の部分の例示的な実施形態を示す構成図である。この実施形態では、発光層602は、撮像コンポーネント層720(例えば、図1、図3A及び図3Bの画像キャプチャコンポーネント104)の上に配置される。一実施態様では、発光層は、薄膜トランジスタ(例えば、図3Aおよび3B)、または類似の薄膜画像センサ上に配置される。そして、発光層602と薄膜画像センサ720との組合せは、タッチ対応デバイスのカバーガラス710の一部上に配置される。さらに、この実施態様では、薄膜画像センサ720は、タッチ対応デバイスに接続され、またはタッチ対応デバイスにある処理コンポーネント(例えば、コンピュータプロセッサ)に(例えば、データ通信接続722を使用して)通信接続される。このように、例えば、バイオメトリックオブジェクトの画像の代表的データは、所望の処理(例えば、比較、記録、保存など)用のデータプロセッサおよび/または画像プロセッサに送信される。   As another illustrative example, FIG. 7B is a block diagram illustrating an exemplary embodiment of one or more portions of one or more systems described herein. In this embodiment, the light emitting layer 602 is disposed over the imaging component layer 720 (eg, the image capture component 104 of FIGS. 1, 3A, and 3B). In one embodiment, the emissive layer is disposed on a thin film transistor (eg, FIGS. 3A and 3B), or similar thin film image sensor. The combination of the light emitting layer 602 and the thin film image sensor 720 is disposed on a part of the cover glass 710 of the touch-compatible device. Further, in this embodiment, the thin film image sensor 720 is connected to a touch-enabled device or communicatively connected (eg, using a data communication connection 722) to a processing component (eg, a computer processor) located on the touch-enabled device. The Thus, for example, representative data of an image of a biometric object is transmitted to a data processor and / or image processor for desired processing (eg, comparison, recording, storage, etc.).

図7Bの実施形態において、保護層604は、発光層602およびカバーガラス層710の上部に形成されている。これにより、例えば、発光層602と薄膜画像センサ720との組み合わせは、カバーガラス710の所望の部分に効果的に配置される。そして、カバーガラス710の全体は、保護層604によって覆われる。したがって、例えば、発光層602および薄膜画像センサ720の組合せが配置されているカバーガラス710の部分がバイオメトリックオブジェクトによって接触されると、バイオメトリックオブジェクトの画像を示す光は、発光層602から薄膜画像センサ720に向けられる。光は、バイオメトリックオブジェクトの少なくとも一部の画像を表すデータを示す電気信号に変換される。   In the embodiment of FIG. 7B, the protective layer 604 is formed on the light emitting layer 602 and the cover glass layer 710. Thereby, for example, the combination of the light emitting layer 602 and the thin film image sensor 720 is effectively disposed in a desired portion of the cover glass 710. The entire cover glass 710 is covered with a protective layer 604. Thus, for example, when the portion of the cover glass 710 where the combination of the light emitting layer 602 and the thin film image sensor 720 is disposed is contacted by the biometric object, the light indicative of the image of the biometric object is transmitted from the light emitting layer 602 to the thin film image. Directed to sensor 720. The light is converted into an electrical signal that represents data representing an image of at least a portion of the biometric object.

例示的な例として、図8A、8B、8C、8Dは、ここに記載された1つ以上のシステムの1つ以上の部分の例示的な実施形態を示す構成図である。図6および図7を続けて参照すると、図8A〜8Dは、ユーザ入力を受信するためのタッチ対応表面を利用するデバイス800、810、820、830の例示的な実施形態を示す。たとえば、スマートデバイス、タブレット、モニタ、ノートパソコンや他のディスプレイは、カバーガラスと、ユーザが画面をタッチすることで、デバイスと相互作用することができるその他のシステムとを利用する。これらの実施形態では、それぞれのデバイス800、810、820、830は、一種のホームボタン802、812、822、832(例えば、または領域)を含む。   As an illustrative example, FIGS. 8A, 8B, 8C, 8D are block diagrams illustrating an exemplary embodiment of one or more portions of one or more systems described herein. With continued reference to FIGS. 6 and 7, FIGS. 8A-8D illustrate an exemplary embodiment of a device 800, 810, 820, 830 that utilizes a touch-enabled surface for receiving user input. For example, smart devices, tablets, monitors, laptops and other displays utilize cover glasses and other systems that allow the user to interact with the device by touching the screen. In these embodiments, each device 800, 810, 820, 830 includes a type of home button 802, 812, 822, 832 (eg, or region).

例えば、スマートデバイスやタブレットは、典型的には、デバイスをアクティブにし、それをホーム状態に置き、または他のアクションを実行するホームボタンを備える。一実施形態では、発光層602(例えば、または発光層602と薄膜画像センサ720との組み合わせ)は、ホームボタンまたは領域802、812、822、832の位置で、保護層604の下で、カバーガラス710の上に配置されている(例えば、保護層とカバーガラスとの間に挟まれている)。さらに、一実施態様では、撮像コンポーネント704は、例えば、ホームボタンまたは領域802、812、822、832の下に配置され、バイオメトリックオブジェクトが接触したとき、発光層602によって放出された光を受け取るように構成されている。   For example, smart devices and tablets typically include a home button that activates the device, places it in a home state, or performs other actions. In one embodiment, the emissive layer 602 (eg, or a combination of the emissive layer 602 and the thin film image sensor 720) is positioned at the home button or region 802, 812, 822, 832, under the protective layer 604, and the cover glass. 710 (eg, sandwiched between the protective layer and the cover glass). Further, in one embodiment, the imaging component 704 is disposed, for example, under a home button or region 802, 812, 822, 832 to receive light emitted by the light emitting layer 602 when contacted by a biometric object. It is configured.

一実施形態では、撮像コンポーネント704によって生成されたデータ、または薄膜画像センサ720(例えば、画像センサ上の光子の衝突によって生成される電気信号の形のデータ)は、ホームボタンまたは領域802、812、822、832の位置で、デバイス表面に接触したオブジェクトの画像を生成するために使用される。例えば、タッチオブジェクトは、バイオメトリックオブジェクト(例えば、指紋)を含み、バイオメトリック画像は、ユーザの識別関連のため(例えば、セキュリティなどのため)に使用される。別の実施形態では、撮像コンポーネント704によって生成されたデータ、または薄膜画像センサ720は、入力イベントとして使用される。例えば、ホームボタンまたは領域802、812、822、832の位置で表面デバイスに触れると、生成されたデータは、ユーザがタッチ位置(例えば、ホームボタン)に関連付けられた機能を選択した(例えば、操作した)ということを示す。すなわち、例えば、機械的なボタンの代わりに、タッチによって生成されたデータは、ホームボタンの押圧または選択を示すことができる。別の実施形態では、画像センサによって生成されたバイオメトリック画像データは、ユーザの(例えば、ローカルおよび/またはリモートで)保存されたバイオメトリックデータと比較される。そして、閾値基準がその比較によって満たされている場合、タッチ位置に関連付けられている機能を開始する。そうでなければ何もアクションを開始することができない。   In one embodiment, the data generated by the imaging component 704, or the thin film image sensor 720 (eg, data in the form of electrical signals generated by the collision of photons on the image sensor) is stored in the home button or region 802, 812, Used to generate an image of the object touching the device surface at the positions 822 and 832. For example, touch objects include biometric objects (eg, fingerprints) and biometric images are used for user identification related purposes (eg, for security, etc.). In another embodiment, data generated by the imaging component 704 or the thin film image sensor 720 is used as an input event. For example, when the surface device is touched at the location of the home button or area 802, 812, 822, 832, the generated data selects the function associated with the touch location (eg, home button) (eg, operation )). That is, for example, instead of a mechanical button, data generated by touch can indicate a press or selection of the home button. In another embodiment, the biometric image data generated by the image sensor is compared to user stored biometric data (eg, locally and / or remotely). Then, if the threshold criterion is satisfied by the comparison, the function associated with the touch position is started. Otherwise nothing can start the action.

図9A、9B及び9Cは、ここに記載された1つ以上のシステムの1つ以上の部分が実行される例示的な環境を示す構成図である。図6〜8を続けて参照すると、一実施形態において、図9Aに示すように、例示的なデバイスは、ラップトップコンピュータのようなポータブルコンピュータデバイス900を含む。この例では、発光層602と、カバーガラス710と、撮像コンポーネント704との組合せ(結合体)は、モニタ902の入力動作910に使用される位置に配置されている。別の実施形態において、図9Bに示すように、例示的なデバイスは、スマートデバイス、タブレット、携帯電話、スマートディスプレイ、ポータブルコンソール等の別のポータブルコンピュータデバイス908を含む。この例では、発光層602と、カバーガラス710と、撮像コンポーネント704との組合せは、表示画面912の、入力動作913に使用される位置に配置されている。別の実施形態では、図9Cに示されるように、例示的なデバイスは、スマートデバイス、タブレット、携帯電話、スマートディスプレイ、ポータブルコンソール等の別のポータブルコンピュータデバイス920を含む。この例では、発光層602と、カバーガラス710と、撮像コンポーネント704との組合せは、表示画面922の、入力動作916、914に使用される位置に配置されている。   9A, 9B and 9C are block diagrams illustrating an exemplary environment in which one or more portions of one or more systems described herein may be implemented. With continued reference to FIGS. 6-8, in one embodiment, as shown in FIG. 9A, an exemplary device includes a portable computing device 900, such as a laptop computer. In this example, a combination (combined body) of the light emitting layer 602, the cover glass 710, and the imaging component 704 is disposed at a position used for the input operation 910 of the monitor 902. In another embodiment, as shown in FIG. 9B, exemplary devices include another portable computing device 908, such as a smart device, tablet, mobile phone, smart display, portable console, and the like. In this example, the combination of the light emitting layer 602, the cover glass 710, and the imaging component 704 is arranged at a position used for the input operation 913 on the display screen 912. In another embodiment, as shown in FIG. 9C, an exemplary device includes another portable computing device 920, such as a smart device, tablet, mobile phone, smart display, portable console, and the like. In this example, the combination of the light emitting layer 602, the cover glass 710, and the imaging component 704 is arranged at a position used for the input operations 916 and 914 on the display screen 922.

このように、例えば、デバイス800、810、820、830のユーザがホームボタン領域802、812、822、832を(例えば、指で)タッチすると、電界が発光層602に存在することができる。この電界は、カバーガラス710(例えば、および光学部品702)を介して、撮像コンポーネント704に向けて放出される、タッチ(例えば、指紋)を表す光子をもたらす。また、この例では、撮像コンポーネント704は、上述したように、受信した光子をタッチのイメージを示す電気信号に変換するように構成されている。加えて、電気信号は、ホームボタン領域802、812、822、832の表面と接触するオブジェクトの画像の代表データを含む。   Thus, for example, when the user of device 800, 810, 820, 830 touches home button region 802, 812, 822, 832 (eg, with a finger), an electric field can be present in light emitting layer 602. This electric field results in photons representing the touch (eg, fingerprints) that are emitted toward the imaging component 704 through the cover glass 710 (eg, and the optical component 702). Also, in this example, the imaging component 704 is configured to convert the received photons into an electrical signal indicative of a touch image, as described above. In addition, the electrical signal includes representative data of an image of an object that contacts the surface of the home button area 802, 812, 822, 832.

図8A〜8Dと、図9A〜9Cを参照すると、一実施形態では、発光層602と撮像コンポーネント704(例えば、または発光層602と薄膜画像センサ720との組合せ)は、デバイスのタッチ対応スクリーン機能が、例えば、表示領域の外側で、アクティブでない場所で(例えば、デバイスカバーの外周、上部または下部の位置(例えば、図8A〜8Cの802、812、822))、デバイス中/上に位置される。別の実施形態では、発光層602と撮像コンポーネント704(例えば、または発光層602と薄膜画像センサ720との組合せ)は、タッチ対応画面領域の境界内(例えば、表示画面領域(例えば、図9A〜9Cの908、913、916)内)の位置で、デバイス中/上に位置される。ここに記載されたシステムの場所/位置は、デバイス中/上の任意の特定の場所に限定されず、当業者は、例えば、デバイスの背部または側部の別の場所にしてもよいことを理解する。   With reference to FIGS. 8A-8D and FIGS. 9A-9C, in one embodiment, the light-emitting layer 602 and the imaging component 704 (eg, or a combination of the light-emitting layer 602 and the thin film image sensor 720) are touch-sensitive screen features of the device. Is positioned in / on the device, for example, outside the display area, at an inactive location (eg, perimeter of device cover, top or bottom position (eg, 802, 812, 822 in FIGS. 8A-8C)) The In another embodiment, the light emitting layer 602 and the imaging component 704 (eg, or a combination of the light emitting layer 602 and the thin film image sensor 720) are within the boundaries of the touch-enabled screen region (eg, the display screen region (eg, FIG. 9C's 908, 913, 916) position) in / on the device. The location / position of the system described herein is not limited to any particular location in / on the device, and those skilled in the art will appreciate that it may be located elsewhere on the back or side of the device, for example. To do.

一実施形態では、タッチオブジェクト(例えば、指紋)の画像と、タッチオブジェクトを表すデータは、デバイス上にローカルに保存されても、および/またはリモート(例えば、クラウド系)サーバー上にリモートに保存されてもよい。また、保存されたデータは、例えば、単に許可されたユーザによって、デバイスサービスの部分またはデバイスにアクセスできるように、セキュリティおよび/または識別目的のために使用される。加えて、画像データは、例えば、セキュリティ担当者によって使用さる個人を特定するために、および/またはデータベースに個人を登録するために用いられる。   In one embodiment, the image of the touch object (eg, fingerprint) and the data representing the touch object may be stored locally on the device and / or remotely on a remote (eg, cloud-based) server. May be. The stored data is also used for security and / or identification purposes so that, for example, only authorized users can access the part of the device service or the device. In addition, the image data is used, for example, to identify individuals used by security personnel and / or to register individuals in a database.

一態様では、バイオメトリックセンサシステムを製造するための方法が提供される。そのようなシステムは、タッチ対応コンピュータデバイスおよび/または情報家電(例えば、コンピュータ、ラップトップコンピュータ、スマートデバイス、携帯電話、タブレットデバイス、またはタッチ感知表面と相互作用および/またはタッチ感知表面をタッチすることによって、入力受信することができるいくつかの他の情報機器)に統合されたバイオメトリック撮像装置を提供する。一例として、この方法は、図1〜9に、上述されたようなシステムを構築するために考案される。   In one aspect, a method for manufacturing a biometric sensor system is provided. Such systems interact with and / or touch a touch-sensitive computing device and / or information appliance (eg, a computer, laptop computer, smart device, mobile phone, tablet device, or touch-sensitive surface). Provides a biometric imaging device integrated into several other information devices that can receive input. As an example, this method is devised to build a system as described above in FIGS.

図10は、バイオメトリックセンサシステムを製造するための例示的な方法1000を示すフロー図である。例示的な方法1000は、1002において開始する。1004において、エレクトロルミネセンス層は、所望の位置で、デバイスカバーガラスまたはカバー材料の上面上に形成(deposit)される。一例として、エレクトロルミネセンス層の形成は、1つ以上のスクリーン印刷技術(例えば、プリント回路基板(PCB)スクリーン印刷)、化学気相堆積(CVD)、化学溶剤堆積技術、原子層堆積(ALD)、スパッタリング、または任意の適切な薄膜堆積技術を使用して実行される。さらに、一実施態様では、エレクトロルミネセンス層は、所望の位置(例えば、ホームボタン領域)またはバイオメトリックの感知がターゲットデバイス用に求められた領域、または、カバーガラスの全体部分にわたって単に形成される。   FIG. 10 is a flow diagram illustrating an exemplary method 1000 for manufacturing a biometric sensor system. The example method 1000 begins at 1002. At 1004, the electroluminescent layer is deposited on the top surface of the device cover glass or cover material at the desired location. By way of example, the formation of an electroluminescent layer may include one or more screen printing techniques (eg, printed circuit board (PCB) screen printing), chemical vapor deposition (CVD), chemical solvent deposition techniques, atomic layer deposition (ALD). , Sputtering, or any suitable thin film deposition technique. Further, in one embodiment, the electroluminescent layer is simply formed over the desired location (eg, home button area) or the area where biometric sensing is desired for the target device, or the entire portion of the cover glass. .

例示的な方法1000の1006で、保護層は、エレクトロルミネセンス層の上面に形成される。さらに、保護層は、エレクトロルミネセンス層によって覆われていないデバイスのカバーガラスの残りの部分上に形成される。本明細書に記載のように、保護層は、(例えば、物理的、化学的、光学的および液体の侵入および/または損傷から保護する)カバースクリーンとエレクトロルミネセンス層の上面を保護するように構成された任意の適切な材料を含む。   At 1006 of the exemplary method 1000, a protective layer is formed on the top surface of the electroluminescent layer. Furthermore, a protective layer is formed on the remaining part of the device cover glass that is not covered by the electroluminescent layer. As described herein, the protective layer protects the top surface of the cover screen and the electroluminescent layer (eg, protecting from physical, chemical, optical and liquid ingress and / or damage). Including any suitable material constructed.

1008で、撮像コンポーネントは、例えば、カバーガラスがデバイスに取り付けられている時、エレクトロルミネセンス層が位置される場所で、ターゲットデバイス(例えば、タッチ対応デバイス)に取り付けられる。例えば、撮像コンポーネントは、エレクトロルミネセンス層が取り付けられている位置の下で、デバイスのカバー内に取り付けられる。その結果、エレクトロルミネセンス層よって放出された光は、撮像コンポーネントに向かって方向付けられる。加えて、一実施態様では、光学部品(例えば、光学レンズ)は、例えば、画像センサとエレクトロルミネセンスコンポーネントの位置との間の撮像コンポーネントと共同配置され、取り付けられる。   At 1008, the imaging component is attached to a target device (eg, a touch-enabled device) where the electroluminescent layer is located, eg, when a cover glass is attached to the device. For example, the imaging component is mounted in the cover of the device under the position where the electroluminescent layer is attached. As a result, the light emitted by the electroluminescent layer is directed towards the imaging component. In addition, in one embodiment, an optical component (eg, an optical lens) is co-located and attached with, for example, an imaging component between the image sensor and the location of the electroluminescent component.

例示的な方法1000の1010で、エレクトロルミネセンス層と、保護カバー層とを含むカバーガラスは、デバイスに取り付けられる。一例として、カバーガラスは、エレクトロルミネセンス層によって放出された光が撮像コンポーネント(例えば、または光学レンズ)の表面に衝突するように、撮像コンポーネントとエレクトロルミネセント層を適切に位置合わせする態様で取り付けられる。ターゲットデバイス上にガラスカバーを取り付けると、例示的な方法1000は、1012で終了する。   At 1010 of the exemplary method 1000, a cover glass that includes an electroluminescent layer and a protective cover layer is attached to the device. As an example, the cover glass is mounted in a manner that properly aligns the imaging component and the electroluminescent layer such that light emitted by the electroluminescent layer impinges on the surface of the imaging component (eg, or optical lens). It is done. With the glass cover on the target device, the exemplary method 1000 ends at 1012.

バイオメトリックセンサを製造する方法の別の実施形態において、エレクトロルミネセンス層(例えば、または圧電発光層)は、薄膜画像センサ(例えば、図3Aおよび3BのTFT104)上に形成されている。例えば、デバイスカバー(例えば、図10の1004にあるように)上にエレクトロルミネセンス層を直接形成させる代わりに、エレクトロルミネセンス層は、薄膜画像センサ上に形成される。また、エレクトロルミネセンス層と薄膜センサとの組合せは、デバイスカバーの表面上に形成される(例えば、図10の1004にあるように)。   In another embodiment of a method of manufacturing a biometric sensor, an electroluminescent layer (eg, or piezoelectric light emitting layer) is formed on a thin film image sensor (eg, TFT 104 in FIGS. 3A and 3B). For example, instead of forming the electroluminescent layer directly on the device cover (eg, as at 1004 in FIG. 10), the electroluminescent layer is formed on the thin film image sensor. Also, the combination of the electroluminescent layer and the thin film sensor is formed on the surface of the device cover (eg, as at 1004 in FIG. 10).

この実施形態では、保護層は、デバイスカバー(例えば、カバーガラス)の上部表面とエレクトロルミネセンス層の上部に形成される(例えば、図10の1006のように)。また、薄膜画像センサは、タッチ対応デバイスに関連付けられているプロセッサ(例えば、データバスのような通信回線、または無線通信を介して)と通信接続される。加えて、一実施形態において、薄膜画像センサは、バイオメトリックオブジェクトの少なくとも一部の画像を示すデータをキャプチャするために使用されるから、画像キャプチャコンポーネントは、図10の1008のように、エレクトロルミネセンスの場所でデバイスに取り付けられていない。この実施形態において、エレクトロルミネセンス層と薄膜画像センサとの組合せを含むデバイスカバーと、保護層とは、ターゲットのタッチ対応デバイスに取り付けられている(例えば、図10は1010のように)。   In this embodiment, a protective layer is formed on the top surface of the device cover (eg, cover glass) and the top of the electroluminescent layer (eg, as 1006 in FIG. 10). Further, the thin film image sensor is communicatively connected to a processor (for example, via a communication line such as a data bus or wireless communication) associated with the touch-enabled device. In addition, in one embodiment, since the thin film image sensor is used to capture data representing an image of at least a portion of the biometric object, the image capture component can be electroluminescent, such as 1008 in FIG. Not attached to the device at the sense location. In this embodiment, a device cover that includes a combination of an electroluminescent layer and a thin film image sensor, and a protective layer are attached to the target touch-enabled device (eg, 1010 in FIG. 10).

図11は、バイオメトリックセンサシステムを使用する例示的な方法1100を示すフロー図である。例示的な方法1100は、1102で開始する。1104において、タッチ対応デバイスのユーザは、エレクトロルミネセンス層の位置のデバイスの表面と接触する(例えば、図8A〜8Dの802、812、822、832、図9A〜9Cの910、913、914、916)。一例として、ユーザは、1本の指、2本以上の指、または手を使用して表面と接触する。1106において、エレクトロルミネセンス層は、画像キャプチャコンポーネントに向けて光子を放出する。例えば、上述したように、エレクトロルミネセンス層は、タッチオブジェクトによって提供された電荷(例えば、または圧力)を、タッチオブジェクトを表す光子に変換する。   FIG. 11 is a flow diagram illustrating an exemplary method 1100 using a biometric sensor system. The exemplary method 1100 begins at 1102. At 1104, the user of the touch enabled device contacts the surface of the device at the location of the electroluminescent layer (e.g., 802, 812, 822, 832, FIGS. 8A-8D, 910, 913, 914 of FIGS. 9A-9C, 916). As an example, a user contacts a surface using one finger, two or more fingers, or a hand. At 1106, the electroluminescent layer emits photons toward the image capture component. For example, as described above, the electroluminescent layer converts charge (eg, or pressure) provided by the touch object into photons that represent the touch object.

また、一実施形態のように、画像キャプチャコンポーネントは、例えば、APS、TFT、CMOS、CCD、CIS、または光子を電気信号に変換することができるいくつかの他の光センサとして、デバイスのカバーガラスの下で、デバイス内に配置されている。別の実施形態では、画像キャプチャコンポーネントは、薄膜センサ(例えば、TFT等)として、エレクトロルミネセント層の下に配置され、カバーガラス上に配置することができる。   Also, as in one embodiment, the image capture component can be a device cover glass, such as APS, TFT, CMOS, CCD, CIS, or some other photosensor that can convert photons into electrical signals. Is placed in the device. In another embodiment, the image capture component can be placed as a thin film sensor (eg, TFT, etc.) under the electroluminescent layer and placed on a cover glass.

例示的な方法1100の1108において、画像キャプチャコンポーネントは、バイオメトリックオブジェクトを表す光子を受け取る。すなわち、例えば、エレクトロルミネッセンス層よって放出される光子は、画像センサコンポーネントの感光部に衝突する。光子は、エレクトロルミネセンス層の位置でデバイスカバーと接触したオブジェクトの画像を示す。1110では、画像キャプチャコンポーネントは、上記のように、光子を電気信号に変換することができる。1112では、電気信号は、バイオメトリックオブジェクトの少なくとも一部を表す画像を示すデータに変換される。すなわち、例えば、電気信号は、撮像コンポーネントに衝突した光子の数および位置を示すことができる。この例では、電気信号によって示される光子の数および位置は、表面と接触したオブジェクト(例えば、指紋または手形)の画像を表す画像データに変換される。   In 1108 of the exemplary method 1100, the image capture component receives photons that represent a biometric object. That is, for example, photons emitted by the electroluminescent layer impinge on the photosensitive portion of the image sensor component. The photon shows an image of the object in contact with the device cover at the location of the electroluminescent layer. At 1110, the image capture component can convert photons into electrical signals as described above. At 1112, the electrical signal is converted into data representing an image representing at least a portion of the biometric object. That is, for example, the electrical signal can indicate the number and location of photons that collided with the imaging component. In this example, the number and location of photons indicated by the electrical signal is converted into image data representing an image of an object (eg, a fingerprint or a handprint) in contact with the surface.

電気信号をバイオメトリックオブジェクトの画像を示すデータに変換すると、例示的な方法1100は1114で終了する。   Once the electrical signal is converted into data representing an image of the biometric object, the example method 1100 ends at 1114.

別の実施形態において、ここに記載された1または複数のシステムおよび技術は、コンピュータ系システムによって実行される。例示的なコンピュータ系システム環境は、図12に示される。図12の以下の説明は、コンピュータ環境の簡潔で一般的な説明を提供する。そこにおいて、ここに記載された1または複数の方法および/またはシステムの1つまたは複数の実施形態が実行される。図12の動作環境は、適切な動作環境の単なる一例であり、動作環境の使用または機能の範囲に関する限定を示唆するものではない。例示的なコンピュータデバイスとしては、特に限定されないが、パーソナルコンピュータ、サーバコンピュータ、ハンドヘルドまたはラップトップデバイス、モバイルデバイス(携帯電話、モバイルコンソール、タブレット、メディアプレイヤーなど)、マルチプロセッサシステム、家電、ミニコンピュータ、メインフレームコンピュータ、上記システムまたはデバイスのいずれかを含む分散コンピュータ環境などが挙げられる。   In another embodiment, one or more systems and techniques described herein are performed by a computer-based system. An exemplary computer system environment is shown in FIG. The following description of FIG. 12 provides a brief and general description of the computing environment. Therein, one or more embodiments of one or more methods and / or systems described herein are performed. The operating environment of FIG. 12 is merely one example of a suitable operating environment and does not imply limitations regarding the use of the operating environment or the scope of functionality. Exemplary computer devices include, but are not limited to, personal computers, server computers, handheld or laptop devices, mobile devices (cell phones, mobile consoles, tablets, media players, etc.), multiprocessor systems, consumer electronics, minicomputers, Mainframe computers, distributed computing environments including any of the above systems or devices, and the like.

必要ではないが、実施形態は、1または複数のコンピュータデバイスによって実行される「コンピュータ可読命令」の一般的なコンテキストで説明されている。コンピュータ可読命令は、コンピュータル可読媒体(後述)によって分散される。コンピュータ可読命令は、特定のタスクを実行するまたは特定の抽象データタイプを実行するプログラムモジュール(例えば、関数、オブジェクト、アプリケーションプログラミングインターフェイス(API)、データ構造など)として実行される。典型的には、コンピュータ可読命令の機能性は、様々な環境で所望されるように、結合または分散される。   Although not required, embodiments are described in the general context of “computer-readable instructions” executed by one or more computing devices. The computer readable instructions are distributed by a computer readable medium (described below). Computer-readable instructions are executed as program modules (eg, functions, objects, application programming interfaces (APIs), data structures, etc.) that perform particular tasks or perform particular abstract data types. Typically, the functionality of computer readable instructions is combined or distributed as desired in various environments.

図12は、ここに提供された1または複数の実施形態を実行するように構成されたコンピュータデバイスシステム1202を含むシステム1200の一例を示している。一構成では、コンピュータデバイス1202は、少なくとも一つの処理ユニット1206と、メモリ1208とを含む。コンピュータデバイスの正確な構成とタイプによって、メモリ1208は、揮発性(例えば、RAM)、不揮発性(例えば、ROM、フラッシュメモリなど)またはこの2つの何らかの組合せである。この構成は、破線1204で図12に示されている。   FIG. 12 illustrates an example of a system 1200 that includes a computing device system 1202 configured to perform one or more embodiments provided herein. In one configuration, computing device 1202 includes at least one processing unit 1206 and memory 1208. Depending on the exact configuration and type of computing device, memory 1208 may be volatile (eg, RAM), non-volatile (eg, ROM, flash memory, etc.) or some combination of the two. This configuration is illustrated in FIG.

他の実施形態において、デバイス1202は、さらなる特徴および/または機能を備え得る。例えば、デバイス1202は、追加の記憶装置も備え得る(例えば、取り外し可能および/または取り外し不可能なもの)。その追加の装置は、特に限定されないが、磁気記憶装置、光学記憶装置などを含む。このような追加の記憶装置を図12において記憶装置1210として示す。一実施形態において、本明細書に記載の1以上の実施形態を実行するためのコンピュータ可読命令は、記憶装置1210中に設けられ得る。記憶装置1210も、オペレーティングシステム、アプリケーションプログラムなどを実行するために他のコンピュータ可読命令を保存し得る。コンピュータ可読命令は、例えば処理(プロセッサ)ユニット1206による実行対象としてメモリ1208中にロードされ得る。   In other embodiments, the device 1202 may comprise additional features and / or functions. For example, device 1202 may also include additional storage (eg, removable and / or non-removable). The additional device includes, but is not limited to, a magnetic storage device, an optical storage device, and the like. Such an additional storage device is shown as storage device 1210 in FIG. In one embodiment, computer readable instructions for performing one or more embodiments described herein may be provided in storage device 1210. Storage device 1210 may also store other computer-readable instructions for executing operating systems, application programs, and the like. Computer readable instructions may be loaded into memory 1208 for execution by, for example, processing (processor) unit 1206.

本明細書中において用いられる「コンピュータ可読媒体」という用語は、コンピュータ記憶装置媒体を含む。コンピュータ記憶装置媒体を挙げると、揮発性および不揮発性の媒体、情報(例えば、コンピュータ可読命令または他のデータ)の保存のための任意の方法または技術において実行される取り外し可能な媒体および取り外し不可能な媒体を含む。メモリ1208および記憶装置1210は、コンピュータ記憶装置媒体の例である。コンピュータ記憶装置媒体は、特に限定されないが、RAM、ROM、EEPROM、フラッシュメモリまたは他のメモリ技術、CD−ROM、デジタル多用途ディスク(DVD)または他の光学記憶装置、磁気カセット、磁気テープ、磁気ディスク記憶装置または他の磁気記憶装置、または所望の情報の保存に用いられ、デバイス1202によってアクセスされる他の任意の媒体が挙げられる。このような任意のコンピュータ記憶装置媒体は、デバイス1202の一部であり得る。   The term “computer-readable medium” as used herein includes computer storage media. Computer storage media, including volatile and non-volatile media, removable and non-removable media implemented in any method or technique for storage of information (eg, computer readable instructions or other data) Media. Memory 1208 and storage device 1210 are examples of computer storage device media. Computer storage media include, but are not limited to, RAM, ROM, EEPROM, flash memory or other memory technology, CD-ROM, digital versatile disc (DVD) or other optical storage device, magnetic cassette, magnetic tape, magnetic A disk storage device or other magnetic storage device, or any other medium used to store desired information and accessed by device 1202 may be mentioned. Any such computer storage media may be part of device 1202.

また、デバイス1202は、デバイス1202と他の装置との通信を可能にする通信接続1216を含む。通信接続1216は、特に限定されないが、モデム、ネットワークインターフェースカード(NIC)、統合ネットワークインターフェース、無線周波数送信器/受信器、赤外線ポート、USB接続またはコンピュータデバイス1202の他のコンピュータ装置への接続のための他のインターフェースが挙げられる。通信接続1216は、有線接続(例えば、データバス)または無線接続(例えば、無線データ通信)を含む。通信接続1216は、通信媒体の送信および/または受信を行い得る。   Device 1202 also includes a communication connection 1216 that allows communication between device 1202 and other devices. Communication connection 1216 is not particularly limited, but for connection to a modem, network interface card (NIC), integrated network interface, radio frequency transmitter / receiver, infrared port, USB connection or other device of computer device 1202. Other interfaces. Communication connection 1216 includes a wired connection (eg, a data bus) or a wireless connection (eg, wireless data communication). Communication connection 1216 may transmit and / or receive communication media.

「コンピュータ可読媒体」という用語は、通信媒体を含む。通信媒体は典型的には、コンピュータ可読命令または他のデータを「変調データ信号」(例えば、搬送波または他の搬送機構)で具現化し得、任意の情報送達媒体を含む。「変調データ信号」という用語は、信号中の情報を符号化するように設定または変更された1つ以上の特性を有する信号を含み得る。   The term “computer-readable medium” includes communication media. Communication media typically may embody computer-readable instructions or other data in a “modulated data signal” (eg, a carrier wave or other transport mechanism) and includes any information delivery media. The term “modulated data signal” can include a signal that has one or more of its characteristics set or changed in such a manner as to encode information in the signal.

デバイス1202は、入力装置1204を含む(例えば、キーボード、マウス、ペン、音声入力装置、タッチ入力装置、赤外線カメラ、ビデオ入力装置、および/または他の任意の入力装置)。出力装置1212(例えば、1つ以上のディスプレイ、スピーカ、プリンタおよび/または他の任意の出力装置)をデバイス1202内に含んでもよい。入力装置1214および出力装置1212は、有線接続、無線接続またはこれらの任意の組み合わせを介してデバイス1202へ接続される。一実施形態において、別のコンピュータ装置からの入力装置または出力装置は、コンピュータデバイス1202のための入力装置1214または出力装置1212として用いられる。   Device 1202 includes an input device 1204 (eg, keyboard, mouse, pen, voice input device, touch input device, infrared camera, video input device, and / or any other input device). An output device 1212 (eg, one or more displays, speakers, printers and / or any other output device) may be included in the device 1202. Input device 1214 and output device 1212 are connected to device 1202 via a wired connection, a wireless connection, or any combination thereof. In one embodiment, an input device or output device from another computer device is used as the input device 1214 or output device 1212 for the computer device 1202.

コンピュータデバイス1202のコンポーネントは、様々な相互接続(例えば、バス)によって接続される。このような相互接続を挙げると、周辺部品相互接続(PCI)(例えば、PCIイクスプレス)、ユニバーサルシリアルバス(USB)、ファイヤーワイヤー(IEEE1394)、光学バス構造などがある。別の実施形態において、コンピュータデバイス1202のコンポーネントは、ネットワークによって相互接続される。例えば、メモリ1208は、ネットワークによって相互接続された異なる物理的な位置に配置された複数の物理的なメモリユニットで構成される。   The components of computing device 1202 are connected by various interconnections (eg, buses). Examples of such interconnections include peripheral component interconnection (PCI) (for example, PCI Express), universal serial bus (USB), fire wire (IEEE 1394), and optical bus structure. In another embodiment, the components of computing device 1202 are interconnected by a network. For example, the memory 1208 is composed of a plurality of physical memory units arranged at different physical locations interconnected by a network.

当業者であれば、コンピュータ可読命令の保存に用いられる記憶装置は、ネットワークを介して分散され得ることを認識する。例えば、ネットワーク1218を介してアクセス可能なコンピュータデバイス1220は、本明細書に記載の1以上の実施形態の実行のためのコンピュータ可読命令を保存する。コンピュータデバイス1202は、コンピュータデバイス1220にアクセスし、実行のためにコンピュータ可読命令の一部または全てをダウンロードする。あるいは、コンピュータデバイス1202は、コンピュータ可読命令のピースを必要に応じてダウンロードし、あるいは、いくつかの命令をコンピュータデバイス1202において実行し、いくつかの命令をコンピュータデバイス1220で実行してもよい。   One skilled in the art will recognize that storage devices used to store computer readable instructions can be distributed over a network. For example, computing device 1220 accessible via network 1218 stores computer readable instructions for execution of one or more embodiments described herein. Computer device 1202 accesses computer device 1220 and downloads some or all of the computer readable instructions for execution. Alternatively, the computing device 1202 may download pieces of computer readable instructions as needed, or some instructions may be executed on the computing device 1202 and some instructions may be executed on the computing device 1220.

本明細書中において用いられる「例示的」という用語は、一例として例示を意味する。本明細書中において「例示的」として記載される任意の態様または設計は、必ずしも他の態様または設計よりも有利なものとして解釈されるべきではない。すなわち、「例示的」という用語が用いられた場合、概念を具体的に示すことが意図されている。本出願中において用いられる「または」という用語は、排除的な「または」ではなく包含的な「または」を意図している。すなわち、他に明記無き限りまたは文脈から明らかでない限り、「XはAまたはBを用いる」という表現は、自然な包含的な置換のいずれかを意味する。すなわち、XがAを用いるか、XがBを用いるかあるいはXがAおよびB双方を用いる場合、上記の場合のいずれかにおいて「XがAまたはBを用いる」が満たされる。さらに、AおよびBおよび/またはその他のうち少なくとも1つとは、AまたはBあるいはAおよびB双方を一般的に意味する。加えて、本出願および添付の特許請求の範囲において用いられる「a」および「an」は、他に明記無き限りまたは文脈から単数形を示すものであると明らかでない限り、「1つ以上」を意味するものとして一般的に解釈され得る。   As used herein, the term “exemplary” means illustrative as an example. Any aspect or design described herein as "exemplary" is not necessarily to be construed as advantageous over other aspects or designs. That is, when the term “exemplary” is used, it is intended to specifically illustrate the concept. As used in this application, the term “or” is intended to be an inclusive “or” rather than an exclusive “or”. That is, unless otherwise specified or apparent from the context, the expression “X uses A or B” means any natural inclusive substitution. That is, when X uses A, X uses B, or X uses both A and B, “X uses A or B” is satisfied in any of the above cases. Further, at least one of A and B and / or others generally means A or B or both A and B. In addition, the terms “a” and “an” as used in the present application and the appended claims refer to “one or more” unless otherwise specified or apparent from the context. It can be generally interpreted as meaning.

本発明を構造的特徴および/または方法的動作に特有の文言で記載したが、添付の特許請求の範囲に規定される発明は、上記した特定の特徴または動作に必ずしも限定されないことが理解されるべきである。すなわち、上記した特定の特徴または動作は、特許請求の範囲を実行する例示的形態として開示される。本出願において用いられる「一実施形態(one implementation)」または「実施形態(an implementation)」の用語は、実施形態で関連して説明される特定の特徴、構造、または特性が少なくとも一つの実施形態に含まれることを意味する。したがって、本明細書全体を通して様々な場所で「一実施形態では」または「実施形態では」のフレーズの出現は、必ずしも同じ実施形態に全て言及しているわけではない。さらに、特定の特徴、構造、または、特性は、1つまたは複数の実施形態において、任意の適切な方法で組み合わされてもよい。もちろん、当業者は、多くの修正が特許請求の範囲の発明の範囲または精神から逸脱することなく、この構成になされると認識するだろう。   Although the invention has been described in language specific to structural features and / or methodological operations, it will be understood that the invention as defined by the appended claims is not necessarily limited to the specific features or operations described above. Should. That is, the specific features or operations described above are disclosed as example forms of implementing the claims. As used in this application, the term “one implementation” or “an implementation” refers to an embodiment that has at least one particular feature, structure, or characteristic described in connection with the embodiment. It is included in. Thus, the appearances of the phrases “in one embodiment” or “in an embodiment” in various places throughout this specification are not necessarily all referring to the same embodiment. Furthermore, the particular features, structures, or characteristics may be combined in any suitable manner in one or more embodiments. Of course, those skilled in the art will recognize many modifications may be made to this configuration without departing from the scope or spirit of the claimed invention.

また、本開示について1つ以上の実施形態について図示および記載してきたが、当業者であれば、本明細書および添付図面を参照すれば、均等な変更および改変を想起する。本開示は、このような改変および変更を全て含み、以下の特許請求の範囲のみによって限定される。特に、上記のコンポーネント(例えば、要素、リソース等)によって行われる様々な機能について、このようなコンポーネントの記載に用いられる用語は、本開示の例示的な実施形態における機能を行う開示の構造に構造的に均等なものでなくても、他に明記なき限り、記載のコンポーネントの特定の機能(例えば、機能的に均等なもの)を行う任意のコンポーネントに対応することを意図する。   Also, while the present disclosure has been shown and described with respect to one or more embodiments, those skilled in the art will envision equivalent changes and modifications with reference to the present specification and the accompanying drawings. The present disclosure includes all such modifications and changes and is limited only by the scope of the following claims. In particular, for the various functions performed by the above components (eg, elements, resources, etc.), the terms used to describe such components are structured into the disclosed structure that performs the functions in the exemplary embodiments of the present disclosure. Unless otherwise specified, it is intended to correspond to any component that performs a specific function (eg, functionally equivalent) of the described component, unless otherwise specified.

加えて、本開示の特定の特徴についていくつかの実施形態のうち1つのみについて開示してきたが、そのような特徴は、特定の用途または与えられた特定の用途のための所望かつ有利な他の実施形態の1つ以上の他の特徴と組み合わされ得る。さらに、このような用語は、詳細な説明または特許請求の範囲において当該用語「含む(includes)」、「有する(having)」、「有する(has)」、「有する(with)」またはそのような語が使用される範囲まで、「包含する(comprising)」と同様に包含的なものとして意図される。   In addition, while certain features of the present disclosure have been disclosed for only one of several embodiments, such features may be desirable and advantageous for a particular application or a given particular application. May be combined with one or more other features of the embodiments. Further, such terms are used in the detailed description or in the claims to include the terms “includes”, “having”, “has”, “with” or such. To the extent the word is used, it is intended to be inclusive as well as “comprising”.

Claims (20)

タッチ対応デバイスのタッチスクリーン層の少なくとも一部上に配置され、バイオメトリックオブジェクトの接触時に、前記タッチスクリーン層に向けて光子を放出するように構成された発光層と、
前記タッチスクリーン層の前記一部で、発光層の下に配置され、前記放出された光子の少なくとも一部を、前記バイオメトリックオブジェクトの少なくとも一部の表現を含む画像を示すデータに変換するように構成された画像キャプチャコンポーネントと、
を含むことを特徴とするバイオメトリックセンサシステム。
A light emitting layer disposed on at least a portion of the touch screen layer of the touch enabled device and configured to emit photons toward the touch screen layer upon contact of the biometric object;
The portion of the touchscreen layer disposed below the light emitting layer and converting at least a portion of the emitted photons into data indicative of an image including a representation of at least a portion of the biometric object. A configured image capture component;
A biometric sensor system comprising:
前記発光層は、前記バイオメトリックオブジェクトから受け取った電荷に応答して前記光子を放出するように構成されたエレクトロルミネセンス層を含む請求項1に記載のシステム。   The system of claim 1, wherein the emissive layer comprises an electroluminescent layer configured to emit the photons in response to charges received from the biometric object. 前記発光層は、前記エレクトロルミネセンス層上に配置された誘電体層を含む請求項2に記載のシステム。   The system of claim 2, wherein the light emitting layer includes a dielectric layer disposed on the electroluminescent layer. 前記発光層は、前記エレクトロルミネセンス層上に配置された遮蔽層を含み、
前記遮蔽層は、前記エレクトロルミネセンス層の上部表面から光子の放出を軽減するように構成されている請求項2に記載のシステム。
The light emitting layer includes a shielding layer disposed on the electroluminescent layer,
The system of claim 2, wherein the shielding layer is configured to mitigate photon emission from an upper surface of the electroluminescent layer.
前記発光層上に配置された保護層を含む請求項1に記載のシステム。   The system of claim 1, comprising a protective layer disposed on the light emitting layer. 前記タッチスクリーン層は、基板層上に配置された透明電極層を含む請求項1に記載のシステム。   The system of claim 1, wherein the touch screen layer includes a transparent electrode layer disposed on the substrate layer. 前記画像キャプチャコンポーネントは、前記発光層と前記タッチスクリーン層との間に配置され、薄膜画像センサを含む請求項1に記載のシステム。   The system of claim 1, wherein the image capture component is disposed between the light emitting layer and the touch screen layer and includes a thin film image sensor. 前記画像キャプチャコンポーネントは、
前記画像を示す前記データから前記バイオメトリックオブジェクトを表す画像を生成するよう構成された画像プロセッサ、および、
前記デバイス上の機能を開始するために、前記画像を示す前記データを使用するように構成されたデータプロセッサ、
の一方または両方と通信接続されている請求項7に記載のシステム。
The image capture component is
An image processor configured to generate an image representing the biometric object from the data representing the image; and
A data processor configured to use the data representing the image to initiate a function on the device;
8. The system of claim 7, wherein the system is communicatively connected to one or both.
前記通信接続は、無線データ伝送接続および有線データバス接続の一方を含む請求項8に記載のシステム。   9. The system of claim 8, wherein the communication connection includes one of a wireless data transmission connection and a wired data bus connection. 前記画像キャプチャコンポーネントは、前記タッチスクリーンの下に配置され、
前記タッチスクリーン層は、前記発光層と前記画像キャプチャコンポーネントとの間に配置されている請求項1に記載のシステム。
The image capture component is disposed below the touch screen;
The system of claim 1, wherein the touch screen layer is disposed between the light emitting layer and the image capture component.
前記画像キャプチャコンポーネントは、前記バイオメトリックオブジェクトの前記少なくとも一部の前記表現を含む前記画像をキャプチャするように構成された画像センサに、前記光子の少なくとも一部を向けるように構成された光学部品を含む請求項10に記載のシステム。   The image capture component includes an optical component configured to direct at least a portion of the photons to an image sensor configured to capture the image including the representation of the at least a portion of the biometric object. The system of claim 10, comprising: バイオメトリックセンサシステムを製造する方法であって、
タッチ対応デバイスに取り付けられるように構成されたタッチスクリーン層の少なくとも一部上に発光層を形成する工程を含み、
前記発光層は、バイオメトリックオブジェクトの接触時に、前記タッチスクリーン層に向けて光を放出するように構成され、
前記放出された光の少なくとも一部は、前記タッチスクリーン層の前記一部に配置された画像センサによって受信され、
前記画像センサは、前記放出された光の前記少なくとも一部を、前記バイオメトリックオブジェクトの少なくとも一部の表現を含む画像を示すデータに変換するように構成されていることを特徴とするバイオメトリックセンサシステムを製造する方法。
A method of manufacturing a biometric sensor system, comprising:
Forming a light emitting layer on at least a portion of a touch screen layer configured to be attached to a touch enabled device;
The emissive layer is configured to emit light toward the touch screen layer upon contact of a biometric object;
At least a portion of the emitted light is received by an image sensor disposed on the portion of the touch screen layer;
The image sensor is configured to convert the at least a portion of the emitted light into data indicative of an image including a representation of at least a portion of the biometric object. A method of manufacturing a system.
前記タッチスクリーン層の前記一部上に前記発光層を形成する工程は、
前記発光層の底面の下に薄膜画像センサを動作可能に接続する工程と、
前記タッチスクリーン層の前記一部の上に、前記薄膜画像センサおよび前記発光層を組み合わせて形成する工程と、を含み、
前記薄膜画像センサは、前記放出された光の前記少なくとも一部を、前記バイオメトリックオブジェクトの前記少なくとも一部の前記表現を含む前記画像を示す前記データに変換するように構成された前記画像センサを含む請求項12に記載の方法。
Forming the light emitting layer on the part of the touch screen layer,
Operatively connecting a thin film image sensor under the bottom surface of the light emitting layer;
Forming a combination of the thin film image sensor and the light emitting layer on the part of the touch screen layer,
The thin film image sensor comprises the image sensor configured to convert the at least a portion of the emitted light into the data indicative of the image including the representation of the at least a portion of the biometric object. The method of claim 12 comprising.
前記タッチスクリーン層の前記一部の下の前記タッチ対応デバイスに前記画像センサを取り付ける工程を含む請求項12に記載の方法。   The method of claim 12, comprising attaching the image sensor to the touch-enabled device under the portion of the touch screen layer. 前記画像センサに光学部品を取り付ける工程を含み、
前記光学部品は、前記画像センサによって、使用のための所望の構成に、前記放出された光を集束するように構成されている請求項14に記載の方法。
Attaching an optical component to the image sensor;
15. The method of claim 14, wherein the optical component is configured to focus the emitted light into a desired configuration for use by the image sensor.
前記発光層を形成する工程は、前記バイオメトリックオブジェクトから受信した電荷に応答して前記光子を放出するように構成されたエレクトロルミネセンス層を形成する工程を含み、
前記発光層は、
前記エレクトロルミネセンス層上に配置された誘電体層と、
前記エレクトロルミネセンス層上に配置され、前記発光層の上部表面から光子の放出を軽減するように構成された遮蔽層と、
前記発光層の上に配置された保護層と、
の1または複数を含む請求項12に記載の方法。
Forming the emissive layer includes forming an electroluminescent layer configured to emit the photons in response to charges received from the biometric object;
The light emitting layer is
A dielectric layer disposed on the electroluminescent layer;
A shielding layer disposed on the electroluminescent layer and configured to reduce emission of photons from an upper surface of the light emitting layer;
A protective layer disposed on the light emitting layer;
13. The method of claim 12, comprising one or more of:
タッチスクリーン層の少なくとも一部上に配置された発光層上のバイオメトリックオブジェクトの接触時に、タッチ対応デバイス上に配置された前記発光層から前記タッチスクリーン層に向けて光を放出する工程と、
前記タッチスクリーン層の前記一部に配置された画像センサを用いて、前記放出された光の少なくとも一部を、前記バイオメトリックオブジェクトの少なくとも一部の表現を含む画像を示すデータに変換する工程と、
を含むことを特徴とするバイオメトリックセンサを使用する方法。
Emitting light from the light emitting layer disposed on the touch enabled device toward the touch screen layer upon contact of a biometric object on the light emitting layer disposed on at least a portion of the touch screen layer;
Converting at least a portion of the emitted light into data indicative of an image including a representation of at least a portion of the biometric object using an image sensor disposed on the portion of the touchscreen layer; ,
A method of using a biometric sensor comprising:
画像プロセッサを使用して、前記バイオメトリックオブジェクトの前記画像を発生させる工程を含む、請求項17に記載の方法。   The method of claim 17, comprising generating the image of the biometric object using an image processor. 前記画像を表す前記データを受信するプロセッサに応答して、前記デバイスの機能を開始する工程を含む請求項17に記載の方法。   The method of claim 17, comprising initiating a function of the device in response to a processor receiving the data representing the image. 前記発光層から前記タッチスクリーン層に向けて光を放出する工程は、前記デバイスの前記表面に接触する前記バイオメトリックオブジェクトから受け取った電荷に応答して前記光子を放出する工程を含む請求項17に記載の方法。   18. The process of emitting light from the light emitting layer toward the touch screen layer includes emitting the photons in response to charges received from the biometric object that contacts the surface of the device. The method described.
JP2016561621A 2014-04-10 2015-04-08 Biometric sensor for touch-enabled devices Pending JP2017513149A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201461977958P 2014-04-10 2014-04-10
US61/977,958 2014-04-10
PCT/US2015/024931 WO2015157423A1 (en) 2014-04-10 2015-04-08 Biometric sensor for touch-enabled device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018120920A Division JP6694011B2 (en) 2014-04-10 2018-06-26 Biometric sensor for touch-enabled devices

Publications (1)

Publication Number Publication Date
JP2017513149A true JP2017513149A (en) 2017-05-25

Family

ID=54265294

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016561621A Pending JP2017513149A (en) 2014-04-10 2015-04-08 Biometric sensor for touch-enabled devices
JP2018120920A Active JP6694011B2 (en) 2014-04-10 2018-06-26 Biometric sensor for touch-enabled devices

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2018120920A Active JP6694011B2 (en) 2014-04-10 2018-06-26 Biometric sensor for touch-enabled devices

Country Status (6)

Country Link
US (1) US9501631B2 (en)
JP (2) JP2017513149A (en)
KR (1) KR101967033B1 (en)
CN (1) CN106462285B (en)
TW (1) TWI631511B (en)
WO (1) WO2015157423A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022049611A1 (en) * 2020-09-01 2022-03-10 シャープ株式会社 Light-emitting element and display device

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105095883B (en) * 2015-08-28 2019-08-06 京东方科技集团股份有限公司 A kind of control method of display panel and its fingerprint recognition
CN105956584A (en) * 2016-06-30 2016-09-21 京东方科技集团股份有限公司 Fingerprint recognition module group, manufacturing method and driving method thereof, and display device
TWI584201B (en) * 2016-07-17 2017-05-21 金佶科技股份有限公司 Identification apparatus and identification method
WO2018017816A1 (en) * 2016-07-20 2018-01-25 Ib Korea Ltd. Luminescent film with quantum dots
CN106383610B (en) * 2016-09-21 2019-07-05 京东方科技集团股份有限公司 A kind of pressing feedback device, display device and its control method
US10102412B2 (en) * 2016-11-17 2018-10-16 Fingerprint Cards Ab Fingerprint sensing with different capacitive configurations
KR20180083700A (en) * 2017-01-13 2018-07-23 삼성전자주식회사 electronic device including biometric sensor
CN107341472B (en) 2017-07-04 2019-12-31 京东方科技集团股份有限公司 Optical fingerprint identification device, fingerprint identification method thereof and display device
TWI655788B (en) * 2017-10-30 2019-04-01 友達光電股份有限公司 Sensing unit and manufacturing method thereof
CN110032913A (en) * 2018-01-11 2019-07-19 南昌欧菲生物识别技术有限公司 Protective film, fingerprint recognition mould group and the terminal of fingerprint recognition mould group
CN109903690B (en) * 2018-09-06 2021-04-09 友达光电股份有限公司 Sensing display device
KR102392592B1 (en) * 2019-04-08 2022-05-03 한국전자통신연구원 Pressure sensitive display device
US11424299B2 (en) 2019-04-08 2022-08-23 Electronics And Telecommunications Research Institute Pressure sensitive display device having touch electrode and light emitting layer
CN111026275B (en) * 2019-12-12 2021-02-26 深圳市华星光电半导体显示技术有限公司 Electrostatic feedback display array and active driving method and circuit
CN111062327A (en) * 2019-12-18 2020-04-24 京东方科技集团股份有限公司 Fingerprint identification enhancement assembly, preparation method and fingerprint identification sensor
CN111721451B (en) * 2020-06-19 2021-09-28 北京化工大学 Image-based touch sensing method, miniaturized device and device manufacturing method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10254622A (en) * 1997-03-11 1998-09-25 Hitachi Ltd Information processor
JP2000322199A (en) * 1999-04-27 2000-11-24 Internatl Business Mach Corp <Ibm> Display device
JP2002509299A (en) * 1997-11-25 2002-03-26 エセンティカ インク Method and system for computer access and cursor control using undulating object image generator
JP2002132409A (en) * 2000-10-19 2002-05-10 Sony Corp Personal computer
WO2014018331A1 (en) * 2012-07-25 2014-01-30 Ib Korea Ltd. Image element brightness adjustment

Family Cites Families (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR920007329B1 (en) 1990-05-30 1992-08-31 금성사 주식회사 Optical apparatus for finger printers recognition
US5335288A (en) 1992-02-10 1994-08-02 Faulkner Keith W Apparatus and method for biometric identification
US5650842A (en) 1995-10-27 1997-07-22 Identix Incorporated Device and method for obtaining a plain image of multiple fingerprints
US6111977A (en) 1997-04-17 2000-08-29 Cross Match Technologies, Inc. Hand-held fingerprint recognition and transmission device
US6856383B1 (en) 1997-09-05 2005-02-15 Security First Corp. Relief object image generator
FR2773897A1 (en) 1998-01-22 1999-07-23 Sagem Optical device for gathering digital fingerprint by direct contact with finger for identification and verification
US6178255B1 (en) 1998-04-28 2001-01-23 Cross Match Technologies, Inc. Individualized fingerprint scanner
EP0957445B1 (en) 1998-05-15 2005-02-02 Testech Inc. A contact light emitting device, a method of manufacturing thereof and a contact input apparatus using thereof
KR100345283B1 (en) 1998-05-15 2002-10-25 테스텍 주식회사 Contact led, manufacturing method thereof and contact input device using the same
US20020056812A1 (en) * 1998-06-08 2002-05-16 Kenneth Burrows Irradiated images described by electrical contact in three dimensions
KR100324130B1 (en) 1998-07-28 2002-03-08 정문술 Identification device using contact light emitting device
KR100285130B1 (en) 1999-03-13 2001-03-15 정문술 Automatic Contrast Adjusting Apparatus of a Fingerprint Image
KR100302026B1 (en) 1999-03-13 2001-09-26 정문술 Card Inquiring Apparatus Using a Fingerprint and Card Inquiring Method Using Thereof
KR100290955B1 (en) 1999-03-16 2001-05-15 정문술 Contact Luminant Element Having a Variable Contact Surface
KR100302025B1 (en) 1999-03-16 2001-09-26 정문술 Remote Control Card Inquiring Apparatus Using Fingerprint and Method Using Thereof
KR100290954B1 (en) 1999-03-16 2001-05-15 정문술 Compression Sign and Seal Guide
KR100309738B1 (en) 1999-06-16 2001-11-01 정문술 Contact Sensing System for Fingerprints
KR100305519B1 (en) 1999-06-16 2001-11-01 정문술 Contact Sensing System for Fingerprints
KR100349113B1 (en) 2000-01-10 2002-08-17 테스텍 주식회사 Method for Manufacturing Fingerprint recognition sensor and Fingerprint Recognition System
KR100349415B1 (en) 2000-01-13 2002-08-19 테스텍 주식회사 Integrated Circuit Card
KR100345282B1 (en) 2000-01-26 2002-07-25 테스텍 주식회사 A manufacturing method of contact luminescent elements having an improved luminescent brightness
DE50015267D1 (en) 2000-04-05 2008-08-28 Infineon Technologies Ag Method for interference-free image acquisition by means of an electronic sensor
KR100343065B1 (en) 2000-06-24 2002-07-02 장대훈 System for Recognizing Fingerprint
KR100348520B1 (en) 2000-08-21 2002-08-14 테스텍 주식회사 Fingerprint Image Correction Method
KR100350023B1 (en) 2000-08-21 2002-08-24 테스텍 주식회사 Fingerprint Image Correction Method
KR100378994B1 (en) * 2000-11-07 2003-04-07 테스텍 주식회사 Fingerprint Recognizing Device Having Patterned Floating Electrodes and Fabricating Method therefore
KR100380836B1 (en) 2000-12-13 2003-04-18 테스텍 주식회사 Locking System
US6936335B2 (en) * 2000-12-27 2005-08-30 Oryontechnologies, Llc Addressable ptf receptor for iradiated images
KR100460825B1 (en) 2001-02-14 2004-12-09 테스텍 주식회사 Fingerprint Image Acquisition Method
US7308122B2 (en) 2002-01-17 2007-12-11 Cross Match Technologies, Inc. Biometric imaging system and method
KR100467279B1 (en) 2002-03-12 2005-01-24 테스텍 주식회사 Method for Registering Image of Finger Print
KR100465136B1 (en) 2002-03-12 2005-01-13 테스텍 주식회사 Method for Processing Image of Finger Print
KR100466287B1 (en) 2002-03-12 2005-01-13 테스텍 주식회사 Method for Authenticating Image of Finger Print
KR100560347B1 (en) 2002-03-29 2006-03-14 테스텍 주식회사 Method For Fabricating TFT Fingerprint Input Device Of Fingerprint Recognition Device
KR100436376B1 (en) 2002-03-29 2004-06-19 테스텍 주식회사 Slim Type Fingerprint Recognition Device Using Contact Light Emitting Device And TFT Fingerprint Input Device
KR100439633B1 (en) 2002-08-20 2004-07-12 테스텍 주식회사 Fingerprint Recognition Sensor Module And A Manufacturing Method Thereof, Using Multi-Layer Electrodes
EP1624412B1 (en) 2003-05-15 2008-12-17 Fujitsu Limited Biological information measuring device
US7277562B2 (en) 2003-08-01 2007-10-02 Cross Match Technologies, Inc. Biometric imaging capture system and method
EP1754178A4 (en) 2004-01-07 2009-07-29 Identification International I Low power fingerprint capture system, apparatus, and method
KR100575144B1 (en) 2004-03-10 2006-04-28 씨큐트로닉스 (주) Fingerprint recognition apparatus for mobile device
US7508965B2 (en) 2004-06-01 2009-03-24 Lumidigm, Inc. System and method for robust fingerprint acquisition
US7379570B2 (en) 2005-01-19 2008-05-27 E-Pin International Tech Co., Ltd. Optical engine for fingerprint reader
US20060269276A1 (en) 2005-05-24 2006-11-30 O'shea Denis Portable imaging device
US7552467B2 (en) 2006-04-24 2009-06-23 Jeffrey Dean Lindsay Security systems for protecting an asset
US7602988B2 (en) 2006-09-01 2009-10-13 Mediatek Inc. Method for adjusting saturation and contrast of an area of an image and apparatus thereof
US8275179B2 (en) 2007-05-01 2012-09-25 3M Cogent, Inc. Apparatus for capturing a high quality image of a moist finger
KR100879381B1 (en) 2007-06-04 2009-01-20 테스텍 주식회사 Optical fingerprint acquisition apparatus using a prism
JP5132198B2 (en) 2007-06-07 2013-01-30 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP4844481B2 (en) * 2007-06-25 2011-12-28 株式会社日立製作所 Imaging apparatus and apparatus equipped with the same
JP2009032005A (en) * 2007-07-26 2009-02-12 Toshiba Corp Input display device and input display panel
KR101007045B1 (en) * 2008-03-12 2011-01-12 주식회사 애트랩 Touch sensor device and the method of determining coordinates of pointing thereof
JP5206218B2 (en) * 2008-08-20 2013-06-12 富士通株式会社 Fingerprint image acquisition device, fingerprint authentication device, fingerprint image acquisition method, and fingerprint authentication method
CN101656299B (en) 2008-08-22 2012-01-18 埃比克瑞亚有限公司 Touch luminous element, manufacturing method thereof and fingerprint identification device
US20100142790A1 (en) 2008-12-04 2010-06-10 New Medical Co., Ltd. Image processing method capable of enhancing contrast and reducing noise of digital image and image processing device using same
US8833657B2 (en) * 2010-03-30 2014-09-16 Willie Anthony Johnson Multi-pass biometric scanner
US20120014569A1 (en) 2010-07-16 2012-01-19 Ib Korea Ltd. Method and apparatus for slim type fingerprint recognition device
JP5679767B2 (en) 2010-10-28 2015-03-04 ラピスセミコンダクタ株式会社 Fingerprint authentication apparatus and fingerprint authentication program
KR101843559B1 (en) * 2010-11-05 2018-03-30 가부시키가이샤 한도오따이 에네루기 켄큐쇼 Display device with imaging function and method for driving the same
CN103186329B (en) * 2011-12-27 2017-08-18 富泰华工业(深圳)有限公司 Electronic equipment and its touch input control method
WO2013116134A1 (en) * 2012-01-31 2013-08-08 Unipixel Displays, Inc. Low reflectance finger print resistant film
CN103294232A (en) * 2012-02-22 2013-09-11 华为终端有限公司 Touch operation processing method and terminal
US9262666B2 (en) 2012-10-04 2016-02-16 Ib Korea Ltd. Anti-shock relief print scanning
US9228824B2 (en) 2013-05-10 2016-01-05 Ib Korea Ltd. Combined sensor arrays for relief print imaging
US10068118B2 (en) * 2014-02-25 2018-09-04 Tara Chand Singhal Apparatus and method for a biometric sensor in a handheld mobile wireless communication device
EP3167354A4 (en) * 2014-07-07 2018-05-02 Shenzhen Goodix Technology Co., Ltd. Integration of touch screen and fingerprint sensor assembly
KR20160071264A (en) * 2014-12-11 2016-06-21 엘지전자 주식회사 Mobile terminal and control method thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10254622A (en) * 1997-03-11 1998-09-25 Hitachi Ltd Information processor
JP2002509299A (en) * 1997-11-25 2002-03-26 エセンティカ インク Method and system for computer access and cursor control using undulating object image generator
JP2000322199A (en) * 1999-04-27 2000-11-24 Internatl Business Mach Corp <Ibm> Display device
JP2002132409A (en) * 2000-10-19 2002-05-10 Sony Corp Personal computer
WO2014018331A1 (en) * 2012-07-25 2014-01-30 Ib Korea Ltd. Image element brightness adjustment

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022049611A1 (en) * 2020-09-01 2022-03-10 シャープ株式会社 Light-emitting element and display device

Also Published As

Publication number Publication date
CN106462285A (en) 2017-02-22
JP6694011B2 (en) 2020-05-13
WO2015157423A1 (en) 2015-10-15
KR20160144454A (en) 2016-12-16
US9501631B2 (en) 2016-11-22
TW201543373A (en) 2015-11-16
KR101967033B1 (en) 2019-04-08
JP2019003656A (en) 2019-01-10
TWI631511B (en) 2018-08-01
CN106462285B (en) 2020-06-09
US20150294099A1 (en) 2015-10-15

Similar Documents

Publication Publication Date Title
JP6694011B2 (en) Biometric sensor for touch-enabled devices
US11740716B2 (en) Disposition structure of sensor of electronic device
US11763593B2 (en) Electronic device supporting fingerprint verification and method for operating the same
KR102517354B1 (en) Electronic device including integrated sensor and operating method thereof
EP3428967B1 (en) Electronic device having display
KR102548486B1 (en) Display and electronic device including the same
CN1248081C (en) Method and system for computer access and cursor control using relief object image generator
KR102470004B1 (en) Infrared element mounted display and electronic device including thereof
US10156935B2 (en) Touch screen controller, touch sensing device, and touch sensing method
EP4246503A2 (en) Electronic device having display
US20170123593A1 (en) Detector for determining a position of at least one object
CN103582864B (en) Mobile touch generation equipment and with the communication means of touch panel device, touch system
CN107003771A (en) The electronic equipment touched based on mixing and the method for controlling it
US20190129530A1 (en) Under display biometric sensor
US20160239136A1 (en) Integrated touch and force detection
KR20150120043A (en) Mobile apparatus including both touch sensing function and authenticatiing fuction
US20200074133A1 (en) Portable device with fingerprint pattern recognition module
JP2021531048A (en) Array substrate, its manufacturing method, and display device
CN112602035A (en) Electronic device comprising a sensor placed under a display
US20160335469A1 (en) Portable Device with Security Module
US20170200038A1 (en) Portable Device with Security Module
US11710759B2 (en) Single contact relief print generator
CN201837980U (en) Touch input device and electronic equipment
CN107390956A (en) A kind of touch-screen, display panel, display device
CN101859201B (en) Touch input device and electronic equipment

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171221

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180227