CN112041800A - 指纹感测系统以及使用指纹传感器在电子装置上提供用户输入的方法 - Google Patents

指纹感测系统以及使用指纹传感器在电子装置上提供用户输入的方法 Download PDF

Info

Publication number
CN112041800A
CN112041800A CN201980029125.8A CN201980029125A CN112041800A CN 112041800 A CN112041800 A CN 112041800A CN 201980029125 A CN201980029125 A CN 201980029125A CN 112041800 A CN112041800 A CN 112041800A
Authority
CN
China
Prior art keywords
fingerprint
sensing elements
sensing
user input
force value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201980029125.8A
Other languages
English (en)
Other versions
CN112041800B (zh
Inventor
特勒尔斯·比耶勒
克劳斯·S·安德森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fingerprint Kaana Kadun Intellectual Property Co ltd
Original Assignee
Fingerprint Cards AB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fingerprint Cards AB filed Critical Fingerprint Cards AB
Publication of CN112041800A publication Critical patent/CN112041800A/zh
Application granted granted Critical
Publication of CN112041800B publication Critical patent/CN112041800B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1306Sensors therefor non-optical, e.g. ultrasonic or capacitive sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • G06V40/1359Extracting features related to ridge properties; Determining the fingerprint type, e.g. whorl or loop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/77Instrument locations other than the dashboard
    • B60K2360/782Instrument locations other than the dashboard on the steering wheel
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/60Instruments characterised by their location or relative disposition in or on vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0338Fingerprint track pad, i.e. fingerprint sensor used as pointing device tracking the fingertip image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Image Input (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

一种用于在包括指纹传感器(3)的电子装置上提供用户输入的方法,该指纹传感器(3)包括感测元件(402)的阵列(404)。从感测元件的至少两个子组(404a,b,c,d)获取(S102)触摸指纹传感器的手指触摸表面(401)的手指的部分指纹图像。基于从感测元件的相应子组获取的部分指纹图像来确定(S104)相应的力值,所述力值指示当获取部分指纹时在感测元件的每一个子组处施加在手指触摸表面上的力。确定(S106)一对所确定的力值之间的力值差异。基于所确定的力值差异,并且基于与该力值差异相关联的该一对的感测元件的子组之间的相对位置,来确定(S108)用户输入。

Description

指纹感测系统以及使用指纹传感器在电子装置上提供用户输 入的方法
技术领域
本发明涉及一种使用指纹传感器在电子装置上提供用户输入的方法。本发明还涉及指纹感测系统、电子装置、以及包括指纹感测系统的车辆。
背景技术
为了提供增加的安全性和/或增强的用户便利性,越来越多地使用各种类型的生物识别系统。
特别地,指纹感测系统由于其小的形状因数、高的性能和用户接受度而已经被用于例如消费者电子装置中。
在一些应用中,期望能够在指纹传感器上使用手指触摸以对电子装置进行导航控制。利用指纹传感器导航,用户通过在传感器上方滑动手指能够创建导航事件。
在US6408087中描述了使用指纹传感器进行导航的一个示例,该US6408087公开了通过检测指纹脊的宽度的变化或者将手指放在指纹传感器上或者抬起手指来控制指示器在屏幕上的位置。
然而,利用现有技术解决方案,例如US6408087所建议的,如果用户想要进行多于一个的滑动事件,则用户需要从传感器上抬起手指、移动手指、并且然后在传感器上沿相同方向或沿另一方向执行另一滑动。因此从手指移动的角度看,这些手势是非常低效的。
因此,在使用指纹传感器控制电子装置方面存在改进的空间。
发明内容
鉴于现有技术的上述和其他缺点,本发明的目的是提供一种使用指纹传感器向电子装置提供用户输入的改进的方法。本发明的另一目的是提供一种具有用于电子装置或系统的改进的用户输入控制的指纹感测系统。
根据本发明的第一方面,因此提供了一种用于确定包括指纹传感器的电子装置上的用户输入的方法,该指纹传感器包括相关于手指触摸表面布置的感测元件的阵列,该方法包括:从感测元件的至少两个子组获取触摸手指触摸表面的手指的部分指纹图像;基于从感测元件的相应子组获取的部分指纹图像来确定相应的力值,所述力值指示在获取部分指纹时在感测元件的每一个子组处施加在手指触摸表面上的力;确定一对所确定的力值之间的力值差异,以及基于所确定的力值差异,并且基于与该力值差异相关联的该一对的感测元件的子组之间的相对位置,来确定用户输入。
本发明基于以下认识:通过测量指纹感测元件的各子组上的力值差异,可以在不需要用户抬起手指的情况下创建用户输入并且利用第二触摸提供输入。以这种方式,可以使用指纹传感器来模拟所谓的“指示杆(pointing-stick)”功能或通常的“手势控制”功能。
通过不在一个子组中的感测元件,感测元件的各子组优选地在感测元件的整个阵列上在空间上分开。
通过使用用于估计力值差异的部分指纹图像,不需要在指纹感测元件下方安装力传感器。因此,根据利用指纹传感器获取的部分指纹图像直接估计力。
还应当理解,指纹图像不需要是指纹形貌(fingerprint topography)的光学图像,而是可以是表示感测元件阵列中的感测元件所提供的测量信号的指纹形貌的二维灰度值表示。感测元件可以根据能够提供一个或若干个以下参数的任何测量原理来工作:该参数指示指纹形貌的深度维度,从而使得可以使用对一个或若干个这样的参数的分析来估计由指纹传感器的表面上的手指触摸而产生的指纹形貌的压缩(compression)。
这样的测量原理包括某些电容测量技术和超声测量技术等。
可以通过力值之间的相减或者通过力值之间的比值、能够指示力值之间的差的任何其他方式来表示力值差异。
力值不一定必须是力本身(即,单位为牛顿),而是可以从所施加的力导出。
可以通过各种动作(例如,力值差异满足预定标准,指纹触摸表面的预定阈值手指覆盖率得到满足)来触发确定用户输入,或者通过其它手指检测方法来触发确定用户输入。
例如,当力差异超过阈值力值差异,例如当力值之间的相减结果(或相减结果的绝对值)超过阈值时,可以启动用户输入确定。
在实施方式中,可以确定感测元件的相应一对子组之间的至少一个其它力值差异,并且可以基于所确定的至少一个其它力值差异,以及基于与该至少一个其它力值差异相关联的该一对的感测元件的子组之间的相对位置,来确定至少一个其它用户输入。
因此,本发明的实施方式有利地提供了在若干个维度上确定用户输入。对于感测元件的每对子组,可以在电子装置上确定一个导航维度上的用户输入。导航维度优选地与相应一对的感测元件的子组的相对位置相同。
根据实施方式,可以包括至少将第一力值差异、第二力值差异、以及相应一对的感测元件之间的相对位置进行组合,以确定用户输入。
因此,通过对感测元件的多于一个子组对的力值差异进行组合,可以创建更复杂的用户输入。
在一些实施方式中,可以在电子装置上执行第一用户输入,然后通过确定在相应一对的感测元件上的力分布的连续变化,从执行第一用户输入改变成执行第二用户输入。可以在不需要用户从手指触摸表面抬起手指的情况下执行用户输入的执行方面的改变。
成对的感测元件的相对位置可以提供用户输入的方向性,并且力值差异的量可以提供用户输入的速度指示。由此,提供了用户友好的用户输入控制。
感测元件的子组有利地可以是不交叠的子组。
根据本发明的第二方面,提供了一种指纹感测系统,包括:手指触摸表面,其用于接收具有指纹形貌的手指;感测元件的阵列;指纹图像获取电路,其连接至感测元件的阵列,以用于获取指示感测元件与指纹形貌之间的局部距离的指纹图像;以及图像处理电路,其连接至指纹图像获取电路以用于:控制指纹图像获取电路,以从感测元件的至少两个子组获取部分指纹图像的第一时间序列;基于从感测元件的相应子组获取的部分指纹图像来确定施加在感测元件的每一个子组上的力;确定一对所确定的施加在感测元件的子组上的力之间的力值差异;以及基于所确定的力值差异,以及基于与该力值差异相关联的该一对的感测元件的子组之间的相对位置,来确定对于电子装置的用户输入。
在一些实施方式中,可以存在感测元件的四个子组。
可以沿手指触摸表面的上下方向布置感测元件的两个子组,并且沿左右方向布置感测元件的两个子组。因此,从而向用户提供了沿着两个直观轴的导航控制。在感测元件的阵列中,可以将上下识别为“南北”,并且在感测元件的阵列中,可以将左右识别为“东西”。
在一些实施方式中,感测元件的阵列中的每个感测元件可以包括导电感测结构;并且指纹获取电路可以连接至感测结构中的每一个感测结构,以响应于手指的手指电位与感测结构的感测结构电位之间的电位差的变化,而提供指示每个感测结构与手指之间的电容耦合的感测信号。因此,可以以电容指纹传感器的形式提供指纹感测功能。
此外,可以有利地以金属板的形式提供每个感测结构,使得由感测结构(感测板)、局部手指表面以及保护性介电顶层(以及取决于指纹图案中脊和谷的位置,局部地存在于局部手指表面与保护层之间的任何空气)形成平行板电容器的等效物。由手指与感测结构之间的电位差的变化引起的感测结构所携载的电荷的变化是这种平行板电容器的电容的指示,其进而是感测结构与手指表面之间的距离的指示。从而,可以借助于确定每个感测结构与手指之间的电容耦合来获取指纹图案的图像。
保护性顶部介电结构(其也可以称为涂层)可以有利地是至少20μm厚,并且具有高介电强度,以保护指纹感测装置的下层结构免受磨损和撕裂以及免受静电放电(ESD)。甚至更有利地,保护性顶部层可以是约100μm厚,或者在500μm至700μm厚的范围内,乃至更厚。
感测信号可以是指示电压的模拟值,其进而可以与以下电容器的电容成比例:该电容器由手指(或手指检测结构附近的其他导电物体)、手指检测结构、以及手指与手指检测结构之间的介电材料构成。
本发明的第二方面的另外的实施方式以及通过该第二方面获得的效果大体类似于以上针对本发明的第一方面所描述的那些。
根据本发明的第三方面,提供了一种电子装置,该电子装置包括:根据第二方面或其实施方式的指纹感测系统;以及装置控制单元,该装置控制单元被配置成基于所确定的力值差异在电子装置上执行用户输入。
装置控制器可以被配置成:与指纹感测系统进行交互,以基于指纹表示来认证用户;并且只有当基于指纹表示而认证了用户时,才执行至少一个动作。
根据本发明的第四方面,提供了一种车辆,该车辆包括根据第二方面或其实施方式的指纹感测系统、电子车辆系统、以及车辆控制单元,该车辆控制单元被配置成基于所确定的力值差异在电子车辆系统上执行用户输入。
在研究所附权利要求书和以下描述时,本发明的其他特征和优点将变得明显。本领域技术人员认识到,在不脱离本发明的范围的情况下,可以组合本发明的不同特征以创建除了以下描述的实施方式之外的实施方式。
附图说明
现在将参照示出本发明的示例实施方式的附图来更详细地描述本发明的这些方面和其他方面,在附图中:
图1示意性地示出了包括根据本发明的示例实施方式的指纹传感器的电子装置;
图2是图1中的电子装置的框图;
图3示意性地示出了具有电子娱乐系统的车辆内部,该电子娱乐系统包括根据本发明的示例实施方式的指纹传感器;
图4概念性地示出了包括感测元件的若干个子组的感测元件阵列;
图5A至图5C是根据本发明实施方式的用于确定用户输入的指纹图像的示例示图;
图6A至图6C示意性地示出了确定用户输入的第一示例;
图7A至图7C示意性地示出了确定用户输入的另一示例;
图8A至图8C示意性地示出了部分指纹图像的时间序列中的三个不同的部分指纹图像;
图9是根据从感测元件的子组获取的部分指纹图像来确定力值的示意图;以及
图10是根据实施方式的方法步骤的流程图。
具体实施方式
在本详细描述中,主要参考邻近于移动电话的触摸显示器而布置的基本上方形的指纹传感器来描述根据本发明的方法和电子装置的各种实施方式。
应当注意,这决不限制本发明的范围,本发明的范围同样包括例如其他电子装置,例如平板电脑、计算机或手表。此外,指纹传感器可以具有任何其他形状。例如,指纹传感器可以被设置为长的矩形。
参照图1,电子装置,此处为移动电话1的形式,包括触摸显示器2和指纹传感器3。触摸显示器2包括触摸传感器以及用作用户界面的显示器,该触摸传感器用于基于触摸控制移动电话1。
在图1中,移动电话1的用户的手指5在指纹传感器3的表面上进行手指触摸。可以与认证尝试相关地进行手指触摸。然而,利用本发明构思,用户还可以在指纹传感器3表面上使用手指触摸来浏览电子装置上的菜单和应用。除了导航之外,其他类型的用户输入还可以是音乐曲目选择、浏览文档的页面、滚动、音量控制、点击等。
参照图2中的框图,图1中的电子装置1除了指纹传感器3之外还包括触摸传感器11、显示器12、指纹图像获取电路14、图像处理电路16、装置控制单元18、存储器20以及用于向电子装置1的各种部件提供电能的电池22。尽管图2中未示出,但是根据应用,电子装置可以包括其他部件。例如,电子装置1可以包括用于无线通信的电路、用于语音通信的电路、键盘等。
在本发明的另一可能的实现方式中,指纹传感器3可以包括在车辆200中,如图3概念性示出的。指纹传感器3的指纹感测系统24可以例如被配置成识别驾驶员或乘客,以便根据个性化设置来配置诸如电子娱乐系统的电子车辆系统。指纹感测系统24还被配置成用于菜单的导航,或者控制娱乐系统或其它电子车辆系统的设置。因此,根据本发明构思的电子装置可以是车辆的电子车辆系统,例如电子娱乐系统。
指纹传感器3的用于接收手指的手指触摸表面可以例如布置在方向盘202上,或者如图3所示,与控制面板204相关地,布置在车辆的前座椅中或者对于乘客布置在后座椅中。示例性功能包括在指纹传感器3的手指触摸表面上沿一个方向的用户输入可以控制车辆中的娱乐系统的音量,并且左/右用户输入可以控制音乐曲目选择。另外的用户输入可以包括在GPS中的电子地图上四处移动。
图4概念性地示出了感测元件402的阵列400,该感测元件402的阵列400包括感测元件的若干个子组404a至404d。在该示例实施方式中,存在感测元件的四个子组:沿着感测元件的阵列400上在上下方向上延伸的轴布置的子组404a和404b,以及沿着感测元件的阵列400上在左右方向上延伸的轴布置的子组404c和404d。子组404a和404b形成第一对子组,并且子组404c和404d形成第二对子组。
可以使用感测元件的子组404a至404d中的至少两个来获取部分指纹图像。可以根据相应获取的部分指纹图像来确定施加在子组(例如子组404a至404b)中的每一个子组上的力。可以利用各种方法来执行力值的确定,下面仅描述一些所选择的方法。
被确定为已经施加在子组404a和404b上的力之间的力值差异被用于确定用户输入。类似地,被确定为已经施加在子组404c和404d上的力之间的力值差异被用于确定另一用户输入。此外,可以通过组合确定的力差异来创建组合的用户输入。换句话说,可以对上/下力值差异和左/右力值差异进行组合以形成力方向矢量,该力方向矢量可以用于许多导航目的,例如导航地图、电子表格、应用程序源(app feed)等。
每对中的子组404a至404d(即,包括子组404a至404b的对,以及包括子组404c至404d的对)之间的相对位置可以用于向电子装置提供直观的用户输入。上/下和左/右力差异可以用作手势以在电子装置上执行基于应用环境的动作,例如调大/调小音量、滚动、音乐曲目选择、文档选择、地图导航等。例如,根据子组404a至404b确定的力差异可以用于在电子装置上在菜单或文档中上/下滚动或者音量控制。
用户将不必在手指触摸表面上来回移动手指以触发新的用户输入。可以通过在指纹传感器表面上滚动(roll)/推动手指来触发用户输入。
在图5A中提供了指纹传感器3的感测元件的阵列400的代表性尺寸的图示,其中使用指纹传感器全表面获取的全指纹图像24(其例如可以用于认证)以及使用指纹传感器子组获取的部分指纹图像26与指纹形貌30的典型二维(2D)表示一起示出。
图5B是全指纹图像24的放大,以及部分指纹图像26,并且图5C是部分指纹图像26的进一步放大的图。
图6A至图6C概念性地示出了在包括感测元件的阵列400的指纹传感器的手指触摸表面401上的手指移动。在图6A至图6C的示例实施方式中,力值差异被描述为所确定的力值之间的相减结果。另一可能的力差异采用根据感测元件的各子组而确定的力值之间的比率。在使用相减结果的情况下,差的符号可以用于确定用户输入的方向性。
在图6A所示的步骤S602中,在手指触摸表面401上接收手指502。指纹传感器首先检测在手指触摸表面401上手指的存在,并且从而激活感测元件的阵列400。在该示例中,在手指触摸表面上接收手指502,使得在感测元件的子组404a至404d上的力至少几乎相等。因此,施加在感测元件的成对的子组404a至404b以及404b至404c上的力之间的力值差异不超过阈值力值差异。当力值差异(例如,相减后的力值的绝对值)超过预定阈值力差异时,随后确定用户输入。
接下来,在图6B所示的步骤S604中,手指502已经在感测元件的阵列400上稍微向上(“北”)移动。手指已经沿子组404a的方向“滚动”,从而在子组404a上施加比其他子组404b至404d上更高的力。施加在子组404a上的力与施加在子组404b上的力之间的所确定的力值差异超过阈值力差异。力值差异指示沿预定方向并且具有箭头504示意性所示的速度的用户输入。用户输入方向(此处示出为导航方向)可以与子组404a和404b的相对方向有关。导航速度(即,用户输入的速度)可以基于力值差异的大小来确定,即,较大的力值差异意味着较高的导航速度。速度可以与浏览或滚动速度有关,或者与光标在显示器上移动的速度有关,仅举几个示例。
随后,在图6C所示的步骤S606中,手指已经进一步向子组404a的位置滚动。因此,如箭头506(其稍微大于箭头504)示意性所示的,用户输入速度增加。
在步骤S602、S604、S606的每一个中,假定基于施加在子组404c至404d上的力而确定的力值差异低于阈值力差异,使得根据其而确定没有用户输入。如现在将参照图7描述的,可以根据力值差异的组合来确定组合的力方向矢量。
在图7A的步骤S702中,手指502位于手指触摸表面401上,使得在感测元件的子组404a至404d上的力至少几乎相等。因此,施加在感测元件的子组404a至404d上的力之间的力值差异低于阈值力差异。
接下来,在步骤S704(图7B)中,手指502已经在感测元件的阵列400上稍微向下移动。手指已经沿子组404b的方向“滚动”,从而在子组404b上施加比感测元件的其他子组404a、404c、404d中的任一个更高的力。施加在子组401b上的力与施加在子组404a上的力之间确定的力值差异指示超过阈值力差异的力值差异。因此,与参照图6B至图6C描述的类似,可以确定沿预定方向并且具有一定速度的用户输入,如箭头604示意性所示。
在图7C所示的步骤S706中,手指502已经在阵列400上在手指触摸表面401上向左滚动。与在子组404a上的力相比,手指仍然在子组404b上施加较高的力,从而引起如步骤S704中所述的力矢量向下。然而,与在子组404d上的力相比,手指还在子组404c上施加较高的力,从而引起力矢量向左。力矢量的组合提供了组合的力矢量,其指示箭头606所示的向左斜向下的用户输入。
应当注意,通过连续监视成对的子组的力值差异来执行示例用户输入以及用户输入的改变(shift),并且当在用户输入之间改变或者根据组合的力矢量产生用户输入时,不需要将手指从指纹传感器的手指触摸表面401抬起。因此,可以由用户通过改变在指纹传感器上施加的力的力分布来创建用户输入。
可以以各种方式根据所获取的部分指纹图像来确定力值,其中该力值指示在相应子组处触摸手指触摸表面的手指所施加的力,并且接下来将简要描述一些示例性方法。
图8A至图8C示意性地示出了在部分指纹图像的时间序列中的三个不同的部分指纹图像62、64和66。在图8A至图8C的示例中,指纹形貌的脊最初进行点接触。随着传感器表面上的手指压力增加,点68扩大(grow)为线,线最终相遇而形成连续的脊70。因此,可以将图像序列中的指纹的形貌变化与指纹传感器上所施加的力相关联。
力值可以是基于感测元件的每一个子组的部分指纹图像的序列的相对力,其中,每个子组的一个部分指纹图像被选择为用于该子组的参考指纹图像。此后,分析每个子组的至少一个随后的部分指纹图像(例如,图像64或66),并且将其与所选择的参考图像(62)进行比较,以检测图像之间的差异,所述差异可以指示由于手指按压指纹传感器而导致的指纹的形貌变化,如图8A至图8C概念性地所示。例如,根据相同子组的至少两个部分指纹图像而确定的脊宽度或谷深度的变化可以用于确定所施加的力的相对变化。
用于确定在感测元件的子组上施加的力的变化的另一可能的评估可以基于连续指纹图像(62、64、66)之间的图像强度变化。因此,用于确定相对施加的力的一种可能方式可以是分析图像序列(62、64、66)中的图像的像素值的直方图。在这种情况下,可以通过以下方式来估计力值:根据第一参考指纹图像(例如,图像62)确定“较高”图像强度和“较低”图像强度,随后根据第二参考指纹图像(例如,图像64)确定“较高”图像强度和“较低”图像强度。然后可以根据第一图像62中的较高强度与较低强度之间的差确定第一强度范围,并且根据第二图像64中的较高强度与较低强度之间的差确定第二强度范围。在指纹传感器的感测元件的子组中施加的力可以是基于例如图像的较高强度之间的差,以及/或者第一强度范围与第二强度范围之间的差。
图9是根据从感测元件的子组获取的部分指纹图像来确定力值的示意图。在评估指纹图像的第一时间序列中的指纹图像之后,选择了参考指纹图像32。
在当前示出的示例中,基于参考指纹图像32确定指示指纹形貌的压缩的三个不同图像相关参数的参考值,并且基于测试指纹图像34确定相同图像相关参数的对应测试值。
第一参考值ilow,ref与参考部分指纹图像32的最低图像强度有关,该第一参考值ilow,ref是指示指纹传感器与指纹形貌之间的最小感测距离的第一图像相关参数,参见图9中的框36。
第二参考值ihigh,ref与参考指纹图像32的最高图像强度有关,该第二参考值ihigh,ref是指示指纹传感器与指纹形貌之间的最大感测距离的第二图像相关参数,参见图9中的框38。
第三参考值rref与参考指纹图像32的图像强度范围有关,该第三参考值rref是指示指纹传感器与指纹形貌之间的最小感测距离和最大感测距离之间的差的第三图像相关参数,参见图9中的框40。
第一测试值ilow,m与测试指纹图像34(图像序列中的图像m)的最低图像强度有关,该第一测试值ilow,m是指示指纹传感器与指纹形貌之间的最小感测距离的第一图像相关参数,参见图9中的框42。
第二测试值ihigh,m与测试指纹图像34的最高图像强度有关,该第二测试值ihigh,m是指示指纹传感器与指纹形貌之间的最大感测距离的第二图像相关参数,参见图9中的框44。
第三测试值rm与测试指纹图像34的图像强度范围有关,该第三测试值rm是指示指纹传感器与指纹形貌之间的最小感测距离和最大感测距离之间的差的第三图像相关参数,参见图9中的框46。
第一测试值ilow,m与第一参考值ilow,ref之间的第一关系clow,m指示相对于参考指纹图像32,测试指纹图像34中的最低强度的负变化,参见图9中的框48。
第二测试值ihigh,m与第二参考值ihigh,ref之间的第二关系chigh,m指示相对于参考指纹图像32,测试指纹图像34中的最高强度的负变化,参见图9中的框50。
第三测试值rm与第三参考值rref之间的第三关系cr,m指示相对于参考指纹图像32,测试指纹图像34中的强度范围的负变化,参见图9中的框52。
如图9(框53)所指示的,通过下式来估计在感测元件的子组之一处施加在手指触摸表面上的力:
p(m)=clow(m)+cr(m)+chigh(m)
上式提供了在确定力值差异和随后确定用户输入时使用的力值p(m)。
图10是根据实施方式的方法步骤的流程图。在步骤S102中,从感测元件的至少两个子组获取触摸指纹传感器的手指触摸表面的手指的部分指纹图像。随后,基于从感测元件的相应子组获取的部分指纹图像来确定S104相应的力值,该相应的力值指示当获取部分指纹时在感测元件的每一个子组处施加在手指触摸表面上的力。接下来S106,确定一对所确定的力值之间的力值差异。在随后的步骤S108中,基于所确定的力值差异,并且基于与力值差异相关联的成对的感测元件的子组之间的相对位置,来确定用户输入。
本发明中的控制单元(例如,控制器)可以包括微处理器、微控制器、可编程数字信号处理器或其它可编程器件。控制单元还可以,或者替代地,包括专用集成电路、可编程门阵列或可编程阵列逻辑、可编程逻辑器件或数字信号处理器。在控制单元包括可编程器件(例如上述微处理器、微控制器或可编程数字信号处理器)的情况下,处理器还可以包括控制可编程器件的操作的计算机可执行代码。应当理解,借助于控制单元(或通常被讨论为“处理电路”)提供的功能的全部或一些部分可以至少部分地与指纹传感器集成,或者可以是电子装置的一部分。
本公开内容的控制功能可以使用现有的计算机处理器来实现,或者由出于此目的或其它目的而并入的适当系统的专用计算机处理器来实现,或者通过硬线系统来实现。本公开内容的范围内的实施方式包括程序产品,该程序产品包括用于承载或存储有机器可执行指令或者数据结构的机器可读介质。这样的机器可读介质可以是能够被通用计算机或专用计算机或者具有处理器的其他机器访问的任何可用的介质。作为示例,这样的机器可读介质可以包括RAM、ROM、EPROM、EEPROM、CD-ROM或者其他光盘存储器、磁盘存储器或者其他磁性存储装置,或任何其他介质,该其他介质可以用于承载或存储以机器可执行指令或数据结构的形式的期望的程序代码,并且能够被通用或专用计算机或者具有处理器的其他机器访问。当信息通过网络或其他通信连接(硬连线、无线、或者硬连线或无线的组合)传送或提供至机器时,该机器适当地将连接视为机器可读介质。因此,任何这样的连接被适当地称为机器可读介质。以上的组合也包括在机器可读介质的范围内。机器可执行指令包括例如使通用计算机、专用计算机或专用处理机器执行某种功能或功能组的指令和数据。
尽管附图可以示出次序,但是步骤的顺序可以与所描绘的顺序不同。此外,两个或更多个步骤可以同时执行或者部分同时发生。这样的变型将取决于选择的软件系统和硬件系统,以及取决于设计者的选择。所有这样的变型在本公开内容的范围内。同样地,软件实现可以利用标准编程技术(具有基于规则的逻辑和其他逻辑)来实行,以实现各种连接步骤、处理步骤、比较步骤和判定步骤。
另外,尽管已经参照本发明的具体示例性实施方式描述了本发明,但是对于本领域技术人员而言,许多不同的变更、修改等将变得明显。
另外,根据对附图、公开内容及所附权利要求的研究,本领域技术人员在实践所要求保护的发明时可以理解并实现对所公开的实施方式的变型。此外,在权利要求中,词语“包括”不排除其他元件或步骤,并且不定冠词“一”或“一个”不排除多个。

Claims (14)

1.一种用于确定包括指纹传感器(3)的电子装置上的用户输入的方法,所述指纹传感器包括相关于手指触摸表面布置的感测元件的阵列,所述方法包括:
-从所述感测元件的至少两个子组(404a,404b,404c,404d)获取(S102)触摸所述手指触摸表面(401)的手指的部分指纹图像;
-基于从所述感测元件的相应子组获取的部分指纹图像来确定(S104)相应的力值,所述力值指示在获取部分指纹时在所述感测元件的每一个子组处施加在所述手指触摸表面上的力;
-确定(S106)一对所确定的力值之间的力值差异,以及
-基于所确定的力值差异,并且基于与所述力值差异相关联的所述一对的感测元件的子组之间的相对位置,来确定(S108)所述用户输入。
2.根据权利要求1所述的方法,包括:
-确定相应一对的感测元件的子组之间的至少一个其它力值差异,并且
-基于所确定的至少一个其它力值差异,并且基于与所述至少一个其它力值差异相关联的所述一对的感测元件的子组之间的相对位置,来确定至少一个其它用户输入。
3.根据权利要求2所述的方法,包括:
-至少将第一力值差异、第二力值差异、以及所述相应一对中的感测元件之间的相对位置进行组合,以确定所述用户输入。
4.根据前述权利要求中任一项所述的方法,包括:
-在所述电子装置上执行第一用户输入,
-通过确定所述相应一对中的感测元件上的力分布的连续变化,从执行所述第一用户输入改变成执行第二用户输入。
5.根据前述权利要求中任一项所述的方法,其中,所述一对的感测元件的相对位置提供所述用户输入的方向性,并且力值差异的量提供所述用户输入的速度指示。
6.根据前述权利要求中任一项所述的方法,其中,所述感测元件的子组是不交叠的子组。
7.根据前述权利要求中任一项所述的方法,其中,所述力值差异是差或比率。
8.一种指纹感测系统(24),包括:
手指触摸表面(401),其用于接收具有指纹形貌的手指;
感测元件(402)的阵列(400);
指纹图像获取电路(14),其连接至所述感测元件的阵列,以用于获取指示所述感测元件与所述指纹形貌之间的局部距离的指纹图像;以及
图像处理电路(16),其连接至所述指纹图像获取电路以用于:
-控制所述指纹图像获取电路,以从感测元件的至少两个子组(404a,b,c,d)获取部分指纹图像的第一时间序列;
-基于从感测元件的相应子组获取的部分指纹图像来确定施加在所述感测元件的每一个子组上的力;
-确定一对所确定的施加在所述感测元件的子组上的力之间的力值差异;以及
-基于所确定的力值差异,并且基于与所述力值差异相关联的所述一对的感测元件的子组之间的相对位置,来确定对于电子装置的用户输入。
9.根据权利要求8所述的指纹感测系统,包括感测元件的四个子组。
10.根据权利要求9所述的指纹感测系统,其中,沿手指触摸表面的南北方向布置感测元件的两个子组,并且沿东西方向布置感测元件的两个子组。
11.根据权利要求8至10中任一项所述的指纹感测系统,其中:
感测元件的阵列中的每个感测元件包括导电的感测结构;并且
所述指纹获取电路连接至每一个所述感测结构,以响应于手指的手指电位和所述感测结构的感测结构电位之间的电位差的变化而提供指示每个感测结构与手指之间的电容耦合的感测信号。
12.一种电子装置(1),包括:
根据权利要求8至11中任一项所述的指纹感测系统;以及
装置控制单元(18),所述装置控制单元(18)被配置成:
-基于所确定的力值差异执行所述电子装置上的用户输入。
13.根据权利要求12所述的电子装置,其中,装置控制器被配置成:
-与所述指纹感测系统进行交互,以基于指纹表示来认证用户;并且
-只有当基于所述指纹表示而认证了用户时,执行至少一个动作。
14.一种车辆,所述车辆包括根据权利要求8至11中任一项所述的指纹感测系统、电子车辆系统、以及
车辆控制单元,所述车辆控制单元被配置成:
-基于所确定的力值差异执行电子车辆系统上的用户输入。
CN201980029125.8A 2018-05-04 2019-04-26 指纹感测系统以及使用指纹传感器在电子装置上提供用户输入的方法 Active CN112041800B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
SE1850531-3 2018-05-04
SE1850531A SE1850531A1 (en) 2018-05-04 2018-05-04 Fingerprint sensing system and method for providing user input on an electronic device using a fingerprint sensor
PCT/SE2019/050376 WO2019212402A1 (en) 2018-05-04 2019-04-26 Fingerprint sensing system and method for providing user input on an electronic device using a fingerprint sensor

Publications (2)

Publication Number Publication Date
CN112041800A true CN112041800A (zh) 2020-12-04
CN112041800B CN112041800B (zh) 2024-05-14

Family

ID=68386508

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980029125.8A Active CN112041800B (zh) 2018-05-04 2019-04-26 指纹感测系统以及使用指纹传感器在电子装置上提供用户输入的方法

Country Status (5)

Country Link
US (1) US11307681B2 (zh)
EP (1) EP3788463B1 (zh)
CN (1) CN112041800B (zh)
SE (1) SE1850531A1 (zh)
WO (1) WO2019212402A1 (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080063245A1 (en) * 2006-09-11 2008-03-13 Validity Sensors, Inc. Method and apparatus for fingerprint motion tracking using an in-line array for use in navigation applications
CN102346546A (zh) * 2010-07-26 2012-02-08 精工爱普生株式会社 检测装置、电子机器及机器人
US20160070404A1 (en) * 2012-07-26 2016-03-10 Apple Inc. Fingerprint-Assisted Force Estimation
WO2017099653A1 (en) * 2015-12-10 2017-06-15 Fingerprint Cards Ab Method and system for estimating finger movement with selection of navigation subareas
US20180114046A1 (en) * 2015-06-26 2018-04-26 Kyocera Corporation Electronic apparatus

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6408087B1 (en) 1998-01-13 2002-06-18 Stmicroelectronics, Inc. Capacitive semiconductor user input device
JP3543695B2 (ja) * 1999-03-17 2004-07-14 富士ゼロックス株式会社 駆動力発生装置
US7474772B2 (en) * 2003-06-25 2009-01-06 Atrua Technologies, Inc. System and method for a miniature user input device
US7460109B2 (en) 2003-10-20 2008-12-02 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Navigation and fingerprint sensor
EP1714271A2 (en) * 2004-02-12 2006-10-25 Atrua Technologies, Inc. System and method of emulating mouse operations using finger image sensors
US7280679B2 (en) 2004-10-08 2007-10-09 Atrua Technologies, Inc. System for and method of determining pressure on a finger sensor
TWI380196B (en) 2007-12-25 2012-12-21 Pixart Imaging Inc Method for detecting users' pressing action and optical operating unit
CN105094443A (zh) 2015-08-21 2015-11-25 深圳市汇顶科技股份有限公司 触摸压力检测装置和方法
US10296145B2 (en) 2016-03-03 2019-05-21 Invensense, Inc. Determining force applied to an ultrasonic sensor
KR20180062851A (ko) * 2016-12-01 2018-06-11 삼성전자주식회사 전자 장치 및 전자 장치 제어 방법
US10127425B2 (en) * 2017-01-12 2018-11-13 Qualcomm Incorporated Dual-mode capacitive and ultrasonic fingerprint and touch sensor
US10438040B2 (en) * 2017-03-24 2019-10-08 Qualcomm Incorporated Multi-functional ultrasonic fingerprint sensor
US10552658B2 (en) * 2017-03-24 2020-02-04 Qualcomm Incorporated Biometric sensor with finger-force navigation

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080063245A1 (en) * 2006-09-11 2008-03-13 Validity Sensors, Inc. Method and apparatus for fingerprint motion tracking using an in-line array for use in navigation applications
CN102346546A (zh) * 2010-07-26 2012-02-08 精工爱普生株式会社 检测装置、电子机器及机器人
US20160070404A1 (en) * 2012-07-26 2016-03-10 Apple Inc. Fingerprint-Assisted Force Estimation
US20180114046A1 (en) * 2015-06-26 2018-04-26 Kyocera Corporation Electronic apparatus
WO2017099653A1 (en) * 2015-12-10 2017-06-15 Fingerprint Cards Ab Method and system for estimating finger movement with selection of navigation subareas
CN107209581A (zh) * 2015-12-10 2017-09-26 指纹卡有限公司 利用选择导览子区域来估计手指移动的方法和系统

Also Published As

Publication number Publication date
WO2019212402A1 (en) 2019-11-07
SE1850531A1 (en) 2019-11-05
EP3788463B1 (en) 2023-08-09
US20210232241A1 (en) 2021-07-29
CN112041800B (zh) 2024-05-14
EP3788463A4 (en) 2021-06-30
EP3788463A1 (en) 2021-03-10
US11307681B2 (en) 2022-04-19

Similar Documents

Publication Publication Date Title
US8330474B2 (en) Sensor device and method with at surface object sensing and away from surface object sensing
KR101007045B1 (ko) 접촉센서 장치 및 이 장치의 포인팅 좌표 결정 방법
CN105389023B (zh) 低轮廓电容性指点杆
CN105556443B (zh) 使用动态阈值对压感板的点击检测的方法和设备
US20090289902A1 (en) Proximity sensor device and method with subregion based swipethrough data entry
US8174504B2 (en) Input device and method for adjusting a parameter of an electronic system
US20170262110A1 (en) Hybrid force sensor
CN112204576B (zh) 用于确定指纹传感器上的手指运动的方法
US20090288889A1 (en) Proximity sensor device and method with swipethrough data entry
EP2888653A1 (en) Input device with hand posture control
CN106372544B (zh) 经由保持在原地的输入对象的暂时安全访问
US9753587B2 (en) Driving sensor electrodes for absolute capacitive sensing
US20180032170A1 (en) System and method for estimating location of a touch object in a capacitive touch panel
CN111164543B (zh) 控制电子设备的方法
CN107111393A (zh) 用于局部化的力感测的装置和方法
KR20130132441A (ko) 교란 환경에서 관심 물체를 검출하는 방법, 및 상기 방법을 구현하는 제스쳐 인터페이스 장치
US20110148436A1 (en) System and method for determining a number of objects in a capacitive sensing region using signal grouping
US10318785B2 (en) Creation of virtual intersection points on a touchscreen to permit static, non swiping fingerprint user authentication
US20110148438A1 (en) System and method for determining a number of objects in a capacitive sensing region using a shape factor
CN112041800B (zh) 指纹感测系统以及使用指纹传感器在电子装置上提供用户输入的方法
KR101540453B1 (ko) 압력 기반의 입력 장치 및 입력 감지 방법
US9395858B2 (en) Capacitive finger navigation device with hybrid mode and operating method thereof
US11586347B2 (en) Palm-based graphics change
CN105607812A (zh) 一种光标控制方法及移动终端

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20211207

Address after: Gothenburg

Applicant after: Fingerprint kaana Kadun Intellectual Property Co.,Ltd.

Address before: Gothenburg

Applicant before: FINGERPRINT CARDS AB

TA01 Transfer of patent application right
GR01 Patent grant