CN105830013B - 电子装置和电子装置的任务配置方法 - Google Patents

电子装置和电子装置的任务配置方法 Download PDF

Info

Publication number
CN105830013B
CN105830013B CN201480069015.1A CN201480069015A CN105830013B CN 105830013 B CN105830013 B CN 105830013B CN 201480069015 A CN201480069015 A CN 201480069015A CN 105830013 B CN105830013 B CN 105830013B
Authority
CN
China
Prior art keywords
fingerprint
task
area
electronic device
finger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201480069015.1A
Other languages
English (en)
Other versions
CN105830013A (zh
Inventor
李惠美
金贤璟
金大成
安由美
安智贤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN105830013A publication Critical patent/CN105830013A/zh
Application granted granted Critical
Publication of CN105830013B publication Critical patent/CN105830013B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0338Fingerprint track pad, i.e. fingerprint sensor used as pointing device tracking the fingertip image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

提供一种使用指纹识别的电子装置的任务配置方法。所述方法包括:显示包括用户能够选择的至少一个项目的第一区域和显示被选择的至少一个项目的第二区域;感测用于将至少一个项目从第一区域移动到第二区域的触摸事件;识别产生触摸事件的手指的指纹;以及通过组合被移动的至少一个项目和识别出的指纹来配置任务。

Description

电子装置和电子装置的任务配置方法
技术领域
本发明通常涉及一种电子装置的任务配置方法,更具体地,涉及一种使用指纹识别的电子装置的任务配置方法。
背景技术
近年来,具有指纹识别装置的电子装置已被广泛地用于处理指纹,指纹被盗取或模仿的风险低且几乎无法改变。
通常,可与电子装置相关联的反复经常使用的任务被配置为快捷方式。然而,通常使用一个或多个复杂处理产生这种快捷方式。
发明内容
技术问题
做出本发明旨在至少解决上述的问题和/或缺点,并至少提供下述优点。
按照本发明的一个方面,提供一种使用指纹识别的电子装置的任务配置方法。所述方法包括:显示包括用户能够选择的至少一个项目的第一区域和显示被选择的至少一个项目的第二区域;感测用于将至少一个项目从第一区域移动到第二区域的触摸事件;识别产生触摸事件的手指的指纹;以及通过组合被移动的至少一个项目和识别出的指纹来配置任务。
按照本发明的另一方面,提供一种电子装置。所述电子装置包括:显示单元;用户输入单元;指纹识别单元;以及控制器,被配置为在显示单元上显示包括用户能够选择的至少一个项目的第一区域和显示被选择的至少一个项目的第二区域,通过用户输入单元感测用于将至少一个项目从第一区域移动到第二区域的触摸事件,通过指纹识别单元识别产生触摸事件的手指的指纹,并且通过组合被移动的至少一个项目和识别出的指纹来配置任务。
附图说明
通过下面结合附图进行的详细描述,本发明的上述和其他目的、特征和优点将会变得更加明显,在附图中:
图1是示出根据本发明的实施例的电子装置的框图;
图2是示出根据本发明的实施例的任务配置方法的流程图;
图3是示出根据本发明的实施例的使用预先注册的指纹的电子装置的任务配置方法的示图;
图4是示出根据本发明的实施例的使用预先注册的指纹的电子装置的通信渠道任务配置方法的示图;
图5A和5B是示出根据本发明的实施例的当尚未预先注册指纹时电子装置的任务配置方法的示图;以及
图6是示出根据本发明的实施例的执行电子装置的配置任务的方法的示图。
具体实施方式
下面参照附图详细描述本发明的各种实施例。在整个附图中使用相同标号表示相同或相似部件。此外,可以省略并入本文的公知功能和结构的详细描述,以避免模糊本发明的主题。如本文中所使用的,术语“和/或”包括一个或多个相关所列的项目的任意组合和所有组合。
图1是示出根据本发明的实施例的电子装置100的配置的框图。电子装置100可以实现在智能手机或一个或多个其它装置中。例如,电子装置100可以实现在平板个人计算机(PC)、便携式多媒体播放器(PMP)、个人数字助理(PDA)、膝上型PC、诸如腕表和头戴式显示器(HMD)的可穿戴装置等。
电子装置100包括显示单元110、用户输入单元120、通信单元130、存储单元140、音频单元150和控制器160。
显示单元110向用户显示图像或数据。显示单元110可以包括显示面板。例如,液晶显示器(LCD)、有源矩阵有机发光二极管(AMOLED)等可以用作显示面板。显示单元110还可以包括用于控制显示面板的控制器。例如,显示板可以是柔性、透明和/或可穿戴的。
显示单元110可以包括触摸屏,其可以与触摸面板121组合。例如,触摸屏可以包括显示面板和触摸面板121以层叠结构组合的整体模块。
显示单元110可以在控制器160的控制下显示条件区域和任务配置区域。
用户输入单元120从用户接收各种命令,并且包括触摸面板121、笔传感器122和/或键123中的至少一个。
触摸面板121基于例如电容型、电阻型、红外线型和声波型中的至少一个识别用户输入的触摸。触摸面板121还可以包括控制器。
在触摸面板是识别用户输入的触摸的电容型面板的情况下,除了直接触摸之外,还可进行接近感知。触摸面板121还可以包括触觉层。在这种情况下,触摸面板121可以向用户提供触觉反应。
笔传感器122可以使用单独的笔识别片来实现,例如,以等同于接收用户的触摸输入的方案的方案。
键123的示例可以包括机械键、触摸键等。机械键可以包括设置在电子装置100的一侧的电源按钮(当按下电源按钮时开启电子装置100的显示器)、位于电子装置100的另一侧的一个或更多个音量按钮(当按下一个或更多个音量按钮时控制音量)和可被设置在电子装置100的显示单元110的下部中心处的主屏幕按钮(当按下主屏幕按钮时,将显示移动到主屏幕)中的至少一个。触摸键可以包括菜单键和返回键中的至少一个,其中,菜单键可以设置在电子装置100的显示单元110的下端的第一表面上,当触摸菜单键时,提供与当前显示的内容相关的菜单,返回键可以设置在电子装置100的显示单元110的下端的第二表面,当触摸返回键时,返回到当前显示的屏幕之前的屏幕。
通信单元130包括移动通信单元131、无线通信单元132、短距离通信单元133和位置信息单元134中的至少一个。
移动通信单元131在移动通信网络上向从基站、外部终端和服务器中的至少一个发送无线信号/从基站、外部终端和服务器中的至少一个接收无线信号。例如,根据文本/多媒体消息的发送/接收,无线信号可以包括语音呼叫信号、视频呼叫信号或各种类型的数据。
提供无线通信单元132以访问无线网络。电子装置100可以使用无线局域网(WLAN)(Wi-Fi)、无线宽带(Wibro)、全球微波接入互操作性(Wimax)、高速下行链路分组接入(HSDPA)等。
提供短距离通信单元133用于短距离通信。电子装置100可以使用蓝牙TM、射频识别(RFID)、红外数据协会(IrDA)、超宽带(UWB)、ZigBeeTM等。
提供位置信息单元134用于获取或识别移动终端的位置。位置信息单元134可以使用全球导航卫星系统(GNSS)获取位置信息。如本文所使用的,GNSS描述了无线卫星导航系统,其中,预定类型的无线导航接收器绕地球旋转并且发送用于确定地球表面或地球表面附近的无线导航接收器的位置的参考信号。GNSS的示例是美国运营的全球定位系统(GPS)、欧洲运营的伽利略系统、俄罗斯运营的全球轨道导航卫星系统(GLONASS)、中国运营的北斗系统、日本运营的准天顶卫星系统等。
另外,通信单元130可以包括网络接口(例如,LAN卡)、调制解调器等,用于将电子装置100与网络(例如,互联网、LAN、广域网(WAN)、电信网络、蜂窝网络、卫星网络或普通老式电话系统(POTS))连接。
存储单元140可以包括内部存储器和外部存储器中的至少一个。
内部存储器可以包括例如易失性存储器(例如,动态随机存取存储器(DRAM)、静态RAM(SRAM)、同步动态RAM(SDRAM)等)、非易失性存储器(例如,一次性可编程只读存储器(OTPROM)、可编程ROM(PROM)、可擦除可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)、掩模ROM、闪速ROM等)、硬盘驱动器(HDD)和固态硬盘(SSD)中的至少一个。控制器160通过将从非易失性存储器和其它组件中的至少一个接收的命令或数据加载到易失性存储器来处理所述命令或数据。此外,控制器160在非易失性存储器中存储从其他组件接收或由其他组件产生的数据。
外部存储器可以包括紧凑型闪存(CF)、安全数字(SD)、微型安全数字(微型SD)、迷你安全数字(迷你SD)、极速(XD)和记忆棒中的至少一个。
存储单元140存储用于控制电子装置100的资源的操作系统和用于应用的操作的应用程序。操作系统可以包括内核、中间件、应用程序接口(API)等。例如,AndroidTM、iOS、WindowsTM、SymbianTM、TizenTM或BadaTM可以用作操作系统。
内核可以包括可以管理资源的系统资源管理器和装置驱动器。例如,资源管理器可以包括控制器管理单元、存储单元管理单元、文件系统管理单元等,并可以执行系统资源的控制、分配、检索等功能。装置驱动器可以以软件方案控制电子装置100的各种组件。为此,装置驱动器可以被划分成接口和由每个硬件公司提供的单独的驱动器模块部件。例如,装置驱动器可以包括显示器驱动器、相机驱动器、蓝牙TM驱动器、共享存储器驱动器、通用串行总线(USB)驱动器、键盘驱动器、Wi-Fi驱动器、音频驱动器和进程间通信(IPC)驱动器中的至少一个。
中间件可以包括预先实现的用于提供各种应用通常所需的功能的多个模块。中间件可以通过API提供通常所需的功能,使得应用可以有效地使用电子装置中有限的系统资源。例如,中间件可以包括应用管理器、窗口管理器、多媒体管理器、资源管理器、电源管理器、数据库管理器和包管理器中的至少一个。此外,中间件可以包括连接管理器、通知管理器、位置管理器、图形管理器和安全管理器中的至少一个。此外,中间件可以包括运行时间库或其他库模块。运行时间库是编译器使用以在执行应用的同时通过编程语言添加新功能的库模块。例如,运行时间库可以执行输入/输出的功能、存储器管理或算术功能。中间件可以通过上述内部组件模块的各种功能组合产生新的中间件模块,并使用新的中间件模块。中间件可以提供专用于每个类型的OS的模块,以提供区别化功能。
API对应于API编程功能的集合,并且可以被提供以根据OS具有不同配置。例如,当OS对应于AndroidTM或iOS时,可以为每个平台提供一个API集合,当OS对应于TizenTM时,可以提供两个或更多个API集合。
应用可以使用应用程序执行一个或更多个功能。例如,应用可以被分类为预加载应用和第三方应用。例如,应用可以包括用于执行主屏幕的主屏幕应用、拨号器应用、短消息服务(SMS)/多媒体消息服务(MMS)应用、即时消息(IM)应用、浏览器应用、相机应用、警报应用、联系人(或地址簿)应用、语音拨号应用、电子邮件应用、日历应用、媒体播放器、相册应用和时钟应用。
指纹识别单元150可以是用于获取具有根据用户的固有特性的指纹图像(或指纹的图像信息)的输入图像装置。光学方案、半导体方案、超声波方案和/或非接触式方案可以用于感测指纹图像的数据。
例如,如果指纹识别单元150使用光学方案,则指纹识别单元150可以包括光学指纹识别传感器,其中,光学指纹识别传感器可以包括例如棱镜、光源、透镜、电荷耦合器件(CCD)等。在光学方案中,当指纹开始与棱镜接触时,光源将光照射到棱镜上,透镜收集通过棱镜反射的光,CDD获取所收集的光作为指纹图像。
如果指纹识别单元150使用半导体方案,则指纹识别单元150可以包括半导体指纹识别传感器,其中,半导体指纹识别传感器可以包括热敏指纹识别传感器、电容式指纹识别传感器、电场式指纹识别传感器等。半导体指纹识别传感器可以被小型化,并可以用于个人使用的应用产品。热敏指纹识别传感器可以使用利用指纹的接触部分和未接触部分之间的温度差而获得的温度分布获取指纹图像的方案。
电容式指纹识别传感器可以使用利用指纹的接触部分的脊之间的带电粒子量或电容的差获取指纹图像的方案。电场式指纹识别传感器可以使用从在与传感器接触的指纹或指纹周围形成的电场获取指纹图像信息的方案。
指纹识别单元150可以是控制器160的一部分。例如,除了获取指纹图像的操作之外,指纹识别单元150可以执行校正指纹图像的操作、计算指纹图像的特征的操作等。在此情况下,指纹识别单元150可以是具有硬件模块和软件模块的功能模块。
指纹识别单元150可以安装在电子装置100的外壳的表面上。例如,指纹识别单元150可以耦接到电子装置100的触摸面板121。根据本发明的实施例,指纹识别单元150层叠到触摸面板121和显示单元110上,使得指纹识别传感器的可与指纹接触的一个表面暴露在触摸面板121上。
控制器160通过驱动操作系统和应用程序控制与控制器160连接的多个硬件和软件组件,并且可以处理和计算包括多媒体数据的各条数据。例如,控制器160可以通过片上系统(SoC)实现,并且还可以包括图形处理单元(GPU)。
控制器160控制显示单元110以显示第一区域和第二区域,其中,第一区域包括用户能够指定的项目,第二区域显示将通过项目的组合而执行的操作。
例如,第一区域包括用户执行的条件(例如,用户能够指定的任务列表和项目)。用户能够指定的项目可以是用户将执行的条件。第一区域可以是包括用户将执行的条件的条件区域。例如,条件区域可以包括显示至少一个任务执行主体的区域和显示任务执行对象的区域。例如,显示任务执行主体的区域可以显示包括执行至少一个任务的应用的应用列表,通信渠道列表(例如,电话呼叫、消息、电子邮件和社交网络服务(SNS))和电子装置的功能列表(例如,拍照、搜索、听音乐和导航)。显示任务执行对象的区域显示执行任务的目标。例如,显示任务执行对象的区域可以包括人的名字、位置、文件名等。
显示将通过项目的组合而执行的操作的第二区域对应于用户显示选择的条件且用户的指纹被识别的区域。当用户产生将条件(或任务列表)从条件区域移动到任务配置区域的触摸事件时,第二区域可以显示将由选择的条件而产生的任务。用户能够指定的项目可以是用户将执行的条件。第二区域可以是显示将由用户将执行的条件而产生的任务的任务配置区域。例如,用户产生将条件(或任务列表,或用户能够指定的项目)从条件区域移动到任务配置区域的触摸事件的操作可以是将条件(或任务列表,或用户可以指定的项目)拖动或滑动到任务配置区域的操作。例如,电子装置100可以感测将条件(或任务列表)拖动和/或滑动到任务配置区域的操作,以识别用户的指纹。
例如,电子装置100可以感测在至少一个条件(或任务列表,或用户能够指定的项目)正在从条件区域被移动到任务配置区域时的用户的指纹,可以感测在至少一个条件(或任务列表,或用户能够指定的项目)已经完全从条件区域移动到任务配置区域时的用户的指纹,可以感测在至少一个条件(或任务列表,或用户能够指定的项目)在条件区域中被触摸时的用户的指纹。当多个手指的指纹产生触摸事件时,电子装置100感测产生最终触摸事件的手指的指纹。触摸面板121可以感测触摸事件,通过该触摸事件,条件(或任务列表,或用户能够指定的项目)被选择且从条件区域移动到任务配置区域,并且可以将感测到的信号发送到控制器160。
当用户产生在条件区域中选择任务执行主体和任务执行对象的触摸事件时,触摸面板121可以感测触摸事件。例如,触摸事件可以是将条件(或任务列表,或用户能够指定的项目)拖动和/或滑动到任务配置区域的操作。由触摸面板121检测到的触摸事件可以被发送到控制器160。
指纹识别单元150感测产生触摸事件的手指的指纹,并且将感测到的指纹发送到控制器160。
当用户产生在条件区域中选择任务执行主体和任务执行对象的触摸事件时,指纹识别单元150感测产生触摸事件的手指的指纹。例如,指纹识别单元150感测用户的左手或右手的五个手指之中的哪个手指是具有已经产生将条件(或任务列表,或用户能够指定的项目)拖动和/或滑动到任务配置区域的触摸事件的指纹的手指。
控制器160确定由指纹识别单元150感测到的产生触摸事件的手指的指纹是否是已预先注册的指纹。存储单元140存储已经预先注册的指纹。控制器160从存储单元140接收存储在存储单元140中预先注册的指纹,以确定感测到的指纹是否是预先注册的指纹。
当感测到的指纹被预先注册时,控制器160通过组合选择的条件和感测到(或识别出)的指纹来配置任务。例如,通过组合选择的(或移动的)条件和感测到的指纹配置任务的操作对应于配置捷径方式,并且对应于配置当感测到的指纹输入到电子装置100时使得选择的任务执行主体可以执行选择的任务执行对象的任务。
例如,指纹识别单元150感测产生从条件区域移动到任务配置区域的触摸事件的一个或更多个指纹。当存在产生从条件区域移动到任务配置区域的触摸事件的一个或更多个指纹时,控制器160将产生最终触摸事件的指纹确定为感测到的指纹。控制器160在显示单元110上显示配置的任务。例如,控制器160在显示单元110上显示的配置任务可以是通过将选择的(或移动的)条件(或任务列表,或用户能够指定的项目)与感测到的指纹组合而产生的快捷方式。
当感测到的指纹未预先注册时,控制器160控制用于确认选择的(或移动的)条件(或任务列表,或用户能够指定的项目)的指纹注册。
例如,控制器160识别将由选择的(或移动的)条件(或任务列表,或用户能够指定的项目)产生的任务。控制器160在显示单元110上显示通过组合选择的(或移动的)条件(或任务列表,或用户能够指定的项目)和感测到的指纹而产生的快捷方式。否则,控制器160识别通过组合选择的条件(或任务列表,或用户能够指定的项目)和感测到的指纹而产生的任务。控制器160在显示单元110上显示用于指纹注册的引导屏幕。用于指纹注册的引导屏幕可以是用户进行用于条件确认的指纹注册所需的用户界面。例如,用户可以执行至少一个指纹注册操作,诸如在指纹识别单元150上沿用于指纹注册的引导屏幕拖动、滑动和/或触摸。控制器160通过感测用户的指纹注册操作来注册用户的指纹。控制器160在存储单元140中存储已注册的指纹。
控制器160通过组合选择的(或移动的)条件(或任务列表,或用户能够指定的项目)和已注册的指纹来配置任务。例如,通过组合选择的(或移动的)条件和已注册的指纹来配置任务的操作可以包括配置快捷方式和配置当已注册的指纹被输入到指纹识别单元150时使得选择的任务执行主体可以执行选择的任务执行对象的任务。控制器160在显示单元110上显示配置的任务。例如,控制器160可以在显示单元110上显示通过组合选择的(或移动的)条件(或任务列表,或用户能够指定的项目)和已注册的指纹而产生的快捷方式。
图2是示出根据本发明的实施例的电子装置的任务配置方法的流程图。
在步骤201,电子装置100显示第一区域和第二区域。例如,第一区域可以包括条件区域,其中,条件区域包括用户将执行的条件(或任务列表和用户能够指定的项目)。例如,条件区域可以包括显示至少一个任务执行主体的区域和显示任务执行对象的区域。例如,第一区域包括用户将执行的条件(例如,任务列表和用户能够指定的项目)。用户能够指定的项目可以是用户将执行的条件。
显示将通过项目的组合而执行的操作的第二区域(例如,任务配置区域)对应于用户显示选择的条件和用户的指纹被识别的区域。当用户产生将条件(或任务列表)从条件区域移动到任务配置区域的触摸事件时,第二区域可以显示将由选择的条件产生的任务。用户能够指定的项目可以是用户将执行的条件。第二区域可以是显示将由用户将执行的条件而产生的任务的任务配置区域。例如,显示任务执行主体的区域可以显示包括执行至少一个任务的应用的应用列表、通信渠道列表(例如,电话呼叫、消息、电子邮件和社交网络服务(SNS))和电子装置的功能列表(例如,拍照、搜索、听音乐和导航)。
显示任务执行对象的区域显示执行任务的目标。例如,显示任务执行对象的区域可以包括人的名字、位置、文件名等。
第二区域对应于用户显示选择的条件和用户的指纹被识别的区域,并且可以显示当用户产生将条件(或任务列表,或用户能够指定的项目)从第一区域移动到第二区域的触摸事件时将由选择的条件产生的任务。例如,用户产生将条件(或任务列表,或用户能够指定的项目)从第一区域移动到第二区域的触摸事件的操作可以是将条件(或任务列表,或用户能够指定的项目)拖动和/或滑动到第二区域的操作。
例如,第二区域通过感测将条件(或任务列表,或用户能够指定的项目)拖动和/或滑动到第二区域的操作来识别用户的指纹。
例如,电子装置100感测在至少一个条件(或任务列表,或用户能够指定的项目)正在从第一区域被移动到第二区域时的用户的指纹,可以感测在至少一个条件(或任务列表,或用户能够指定的项目)已经完全从第一区域移动到第二区域时的用户的指纹,或者可以感测至少一个条件(或任务列表,或用户能够指定的项目)在第一区域中被触摸时的用户的指纹。当多个手指的指纹产生触摸事件时,电子装置100感测产生最终触摸事件的手指的指纹。
在步骤203,电子装置100可以感测条件(或任务列表,或用户能够指定的项目)在第一区域(例如,条件区域)中被选择并且被移动到第二区域(例如,任务配置区域)的触摸事件。
当用户产生在第一区域中选择任务执行主体和任务执行对象的触摸事件时,电子装置100感测该触摸事件。例如,该触摸事件可以是将条件(或任务列表,或用户能够指定的项目)拖动和/或滑动到第二区域的操作。
在步骤205,电子装置100感测产生触摸事件的手指的指纹。
当用户产生在第一区域中选择任务执行主体和任务执行对象的触摸事件时,电子装置100感测产生触摸事件的手指的指纹。例如,指纹识别单元150感测左手或右手的五个手指之中的哪个手指是具有已经产生将条件或任务列表拖动和/或滑动到任务配置区域的触摸事件的指纹的手指。
在步骤207,电子装置100确定感测到的已经产生所述触摸事件的手指的指纹是否是已预先注册的指纹。
电子装置100使用指纹识别单元150预先注册用户的指纹。在步骤207,电子装置100通过将预先注册的指纹与感测到的指纹进行比较来确定感测到的指纹是否被预先注册。
当感测到的指纹被预先注册时,在步骤209,电子装置100通过组合选择或移动的条件(或任务列表,或用户能够指定的项目)和感测到的指纹来配置任务。例如,通过组合选择或移动的条件和感测到的指纹来配置任务的操作包括配置快捷方式和配置当感测到的指纹被输入到电子装置100时使得选择的任务执行主体可以执行选择的任务执行对象的任务。
例如,由于存在产生从第一区域移动到第二区域的触摸事件的一个或更多个指纹,因此电子装置100将产生最终触摸事件的指纹确定为感测到的指纹。
在步骤211,电子装置100显示配置的任务。例如,由电子装置100显示的配置任务可以对应于显示通过组合选择或移动的条件和感测到的指纹所产生的快捷方式。
当感测到的指纹未被预先注册时,在步骤213,电子装置100注册用于确认选择或移动的条件的指纹。此步骤可以包括确认将由选择的条件产生的任务的步骤,显示用于指纹注册的引导屏幕的步骤和注册指纹的步骤。
例如,在步骤215,电子装置100识别将由选择或移动的条件、任务列表或用户能够指定的项目产生的任务。识别将由选择(或移动)的条件产生的任务对应于通过显示通过组合选择的条件和感测到的指纹而产生的快捷方式来识别快捷方式。另外,识别将由选择的条件产生的任务对应于识别通过组合选择的条件和感测到的指纹而产生的任务。在步骤217,电子装置100显示用于指纹注册的引导屏幕。用于指纹注册的指引导屏幕可以是用户进行用于条件确认的指纹注册所需的用户界面。例如,在步骤217,用户可以执行至少一个指纹注册操作,诸如在指纹识别单元150上沿用于指纹注册的引导屏幕拖动、滑动和/或触摸。在步骤219,电子装置100通过感测用户沿用于指纹注册的引导屏幕的指纹注册操作来注册用户的指纹。
在步骤221,电子装置100通过组合选择或移动的条件、任务列表或者用户能够指定的项目和已注册的指纹来配置任务。
例如,通过组合选择的条件和已注册的指纹来配置任务的操作可以包括配置快捷方式和配置当注册的指纹被输入到电子装置100时使得选择的任务执行主体可以执行选择的任务执行对象的任务。
在步骤223,电子装置100显示配置的任务。例如,由电子装置100显示的配置的任务可以包括显示通过组合选择的条件和已注册的指纹所产生的快捷方式。
图3是示出根据本发明的实施例的使用预先注册的指纹的电子装置100的任务配置方法的示图。
在图3至图6中公开了条件区域、任务配置区域和条件。条件区域与第一区域相同,任务配置区域与第二区域相同,并且条件与任务列表或用户能够指定的项目相同。
在屏幕A上,电子装置100显示条件区域301和任务配置区域302。条件区域301可以包括显示任务执行主体的区域(即,位于任务配置区域302的上端的区域)和显示任务执行对象的区域(即,位于任务配置区域302的下端的区域)。
例如,显示任务执行主体的区域可以显示包括执行至少一个任务的应用的应用列表和电子装置的功能列表(例如,拍照、搜索、听音乐和导航)。显示任务执行对象的区域显示将执行任务的目标。例如,显示任务执行对象的区域可以包括人的名字、位置、文件名等。
在屏幕B上,用户可以将选择的条件显示在任务配置区域302上。任务配置区域302对应于用户显示选择的条件和用户的指纹被识别的区域,并且可以显示当用户产生将条件或任务列表从条件区域移动到任务配置区域的触摸事件时将由选择的条件产生的任务。任务配置区域302显示通过组合选择的条件和感测到的指纹所产生的快捷方式。
例如,当用户在包括显示电子装置的功能列表(包括“拍照”、“搜索”、“收听”和“导航”)的至少一个任务执行主体的条件区域中选择“导航”时,电子装置100在任务配置区域302上显示任务执行主体。
当用户在包括显示位置或人名(诸如“Gildong的家”、“Kim”、“Alice”和“Gildong”)的至少一个任务配置对象的条件区域中选择“Gildong的家”时,电子装置100在任务配置区域302上显示“Gildong的家”作为任务执行对象。
此时,当感测到的指纹被预先注册时,电子装置100通过组合选择的条件和感测到的指纹来配置任务。任务配置区域302可以显示选择的任务执行主体、选择的任务执行对象,并且将确认条件的手指的指纹。
例如,当指纹识别单元150感测产生从条件区域移动到任务配置区域的触摸事件的一个或更多个指纹时,可以在任务配置区域302上显示产生从条件区域移动到任务配置区域的最终触摸事件的指纹,作为感测到的指纹。在屏幕A和屏幕B上,由于用户使用食指产生将条件区域的任务列表移动到任务配置区域的触摸事件,因此用于条件确认的手指的指纹被显示为食指。
当用户执行快捷方式功能时,如果用户使用食指执行指纹识别,则电子装置100执行到“Gildong的家”的导航操作。
图4是示出根据本发明的实施例的使用预先注册的指纹的电子装置100的通信渠道任务装置方法的示图。
在屏幕C上,电子装置100显示条件区域401和任务配置区域402。条件区域401可以包括显示任务执行主体的区域(即,位于任务配置区域402的上端的区域)和显示任务执行对象的区域(即,位于任务配置区域402的下端的区域)。
例如,显示任务执行主体的区域可以显示通信渠道列表(例如,电话呼叫、消息、电子邮件和SNS)。显示任务执行对象的区域显示将执行任务的目标。例如,显示任务执行对象的区域可以包括人名。
在屏幕D上,用户可以在任务配置区域402显示选择的条件。任务配置区域402对应于用户显示选择的条件且用户的指纹被识别的区域,并且可以显示当用户产生将条件或任务列表从条件区域移动到任务配置区域的触摸事件时将由选择的条件产生的任务。任务配置区域302显示通过组合选择的条件和感测到的指纹所产生的快捷方式。
例如,当用户在包括显示通信渠道列表(例如,“消息,MSG”、“电子邮件”、“Chaton(例如,SNS)”)的至少一个任务执行主体的条件区域中选择“Chaton”时,电子装置100在任务配置区域402上显示任务执行主体(例如,通信渠道的主体)。
当用户在包括显示位置或人名(诸如“Kim”、“Alice”和“Gildong”)的至少一个任务配置对象的条件区域中选择“Gildong”时,电子装置100在任务配置区域402上显示“Gildong”作为任务执行对象。
此时,当感测到的指纹已被预先注册时,电子装置100通过组合选择的条件和感测到的指纹来配置任务。任务配置区域402显示选择的任务执行主体、选择的任务执行对象和确认条件的手指的指纹。
例如,当指纹识别单元150感测产生从条件区域移动到任务配置区域的触摸事件的一个或更多个指纹时,可以在任务配置区域402上显示产生从条件区域移动到任务配置区域的最终触摸事件的指纹,作为感测到的指纹。在屏幕C和屏幕D上,由于用户使用食指产生将条件区域的任务列表移动到任务配置区域的触摸事件,因此用于条件确认的手指的指纹被显示为食指。
当用户执行快捷方式功能时,如果用户使用食指执行指纹识别,则电子装置100执行对“Gildong”的“Chaton”操作。
图5A和5B是示出根据本发明的实施例的当尚未预先注册指纹时电子装置的任务配置方法的示图。
在屏幕E上,电子装置100显示条件区域501和任务配置区域502。条件区域501可以包括显示任务执行主体的区域(即,位于任务配置区域502的上端的区域)和显示任务执行对象的区域(即,位于任务配置区域502的下端的区域)。
例如,显示任务执行主体的区域可以显示包括执行至少一个任务的应用的应用列表和电子装置的功能列表(例如,拍照、搜索、听音乐和导航)。显示任务执行对象的区域显示将执行任务的目标。例如,显示任务执行对象的区域可以包括人的名字、位置、文件名等。
在显示屏F上,用户可以在任务配置区域502上显示选择的条件。任务配置区域302对应于用户显示选择的条件和用户的指纹被识别的区域,并且可以显示当用户产生将条件或任务列表从条件区域移动到任务配置区域的触摸事件时将由选择的条件产生的任务。任务配置区域502显示通过组合选择的条件和感测到的指纹所产生的快捷方式。
例如,当用户在包括显示电子装置的功能列表(包括“拍照”、“搜索”、“收听”和“导航”)的至少一个任务执行主体的条件区域中选择“导航”时,电子装置100在任务配置区域502上显示任务执行主体。
当用户在包括显示位置或人名(诸如“Gildong的家”、“Kim”、“Alice”和“Gildong”)的至少一个任务配置对象的条件区域中选择“Gildong的家”时,电子装置可在任务配置区域502上显示任务执行对象。
此时,当感测到的指纹未被预先注册时,电子装置100通过组合选择的条件和如标号503所指示的感测到的指纹来确认任务。任务配置区域502可以显示选择的任务执行主体和选择的任务执行对象。当用户如标号503所指确认选择的任务执行主体和选择的任务执行对象时,电子装置100在屏幕上G上显示指纹注册的引导屏幕。指纹注册的指导屏幕可以是用户进行用于条件确认的指纹注册所需的用户界面504。用户可以选择将在用户界面504上注册的手指。
在屏幕H上,用户可如标号505所指示执行至少一个指纹注册操作,诸如在指纹识别单元150上沿用于指纹注册的引导屏幕拖动、滑动和/或触摸。电子装置100通过感测用户沿用于指纹注册的引导屏幕的指纹注册操作来注册用户的指纹。
在屏幕I上,电子装置通过组合选择的条件和已注册的指纹来配置任务。由于用户使用食指注册指纹,因此用于条件确认的手指的指纹被显示为食指。
当用户执行快捷方式功能时,如果用户使用食指执行指纹识别,则电子装置100执行到“Gildong的家”的导航操作。
图6是示出根据本发明的实施例的执行电子装置100的配置任务的方法的示图。
在屏幕J上,电子装置100显示包括能够识别用户的指纹的区域602的用户界面601,并且执行快捷方式功能。用户可以在能够识别用户的指纹的区域602上执行用于指纹识别的操作。
在屏幕K上,当用户执行用于指纹识别的操作时,电子装置100确定识别出的指纹是否是条件确认的指纹,以执行先前配置的任务。在屏幕J和屏幕K上,当用户使用食指执行指纹识别操作时,电子装置100配置使得通过快捷方式功能执行对“Gildong”的“Chaton”操作的任务。尽管已经参照附图描述了本发明的一个或多个实施例,但是本领域的普通技术人员将理解,可以在不脱离所附权利要求及其等同物限定的本发明的精神和范围的情况下做出形式和细节的各种改变。

Claims (18)

1.一种使用指纹识别的电子装置的任务配置方法,所述任务配置方法包括:
显示第一区域和第二区域,其中,第一区域包括用户能够选择以用于执行任务的至少一个应用的第一端区域和包括用户能够选择来执行所述任务的至少一个对象的第二端区域;
感测用于将所述至少一个应用和所述至少一个对象分别从第一端区域和第二端区域移动到第二区域的触摸事件;
响应于感测到所述触摸事件,将所述至少一个应用和所述至少一个对象显示在第二区域;
识别产生触摸事件的手指的指纹;以及
通过组合所述至少一个应用、所述至少一个对象和识别出的指纹来配置任务。
2.如权利要求1所述的任务配置方法,其中,所述至少一个应用包括至少一个任务执行的主体。
3.如权利要求2所述的任务配置方法,还包括:
确定识别出的指纹是否被预先注册;以及
当识别出的指纹被预先注册时,通过组合所述至少一个应用、所述至少一个对象和识别出的指纹来配置任务。
4.如权利要求3所述的任务配置方法,还包括:
当识别出的指纹未预先注册时,注册用于确认所述至少一个应用和所述至少一个对象的指纹;以及
通过组合所述至少一个应用、所述至少一个对象和注册的指纹来配置任务。
5.如权利要求4所述的任务配置方法,其中,注册指纹的步骤包括:
确认将产生的任务;
显示用于指纹注册的引导屏幕;以及
通过感测用于指纹注册的触摸事件来注册指纹。
6.如权利要求2所述的任务配置方法,其中,识别产生触摸事件的手指的指纹的步骤包括下列步骤中的至少一个:
感测当所述至少一个应用和所述至少一个对象从第一区域移动到第二区域的同时手指的指纹;
感测当所述至少一个应用和所述至少一个对象已经完全从第一区域移动到第二区域时手指的指纹;以及
感测当所述至少一个应用和所述至少一个对象在第一区域上被触摸时手指的指纹。
7.如权利要求2所述的任务配置方法,其中,在识别手指的指纹时,当多个手指的指纹产生触摸事件时,感测产生最终触摸事件的手指的指纹。
8.如权利要求2所述的任务配置方法,还包括:在第二区域上显示配置的任务。
9.如权利要求8所述的任务配置方法,其中,在第二区域上显示配置的任务的步骤包括:显示将通过组合作为任务执行的主体的所述至少一个应用和作为任务执行的对象的所述至少一个对象而产生的任务,并且将识别出的指纹显示为用于确认将产生的任务的索引。
10.一种电子装置,包括:
显示单元;
用户输入单元;
指纹识别单元;以及
控制器,被配置为:
在显示单元上显示第一区域和第二区域,其中,第一区域包括用户能够选择以用于执行任务的至少一个应用的第一端区域和包括用户能够选择来执行所述任务的至少一个对象的第二端区域,
通过用户输入单元感测用于将所述至少一个应用和所述至少一个对象分别从第一端区域和第二端区域移动到第二区域的触摸事件,
响应于用户输入单元感测到所述触摸事件,控制显示单元将所述至少一个应用和所述至少一个对象显示在第二区域,
通过指纹识别单元识别产生触摸事件的手指的指纹,以及
通过组合所述至少一个应用、所述至少一个对象和识别出的指纹来配置任务。
11.如权利要求10所述的电子装置,其中,所述至少一个应用包括至少一个任务执行的主体。
12.如权利要求11所述的电子装置,其中,控制器还被配置为确定识别出的指纹是否被预先注册,并且当感测的指纹被预先注册时,通过组合所述至少一个应用、所述至少一个对象和识别出的指纹来配置任务。
13.如权利要求12所述的电子装置,其中,当识别出的指纹未被预先注册时,控制器还被配置为通过指纹识别单元注册指纹以确认所述至少一个应用和所述至少一个对象,并且通过组合所述至少一个应用、所述至少一个对象和注册的指纹来配置任务。
14.如权利要求13所述的电子装置,其中,控制器还被配置为确认将产生的任务,在显示单元上显示用于指纹注册的引导屏幕,并且通过从指纹识别单元感测用于指纹注册的触摸事件来注册指纹。
15.如权利要求11所述的电子装置,其中,控制器还被配置为通过指纹识别单元感测当所述至少一个应用和所述至少一个对象从第一区域移动到第二区域的同时手指的指纹作为产生触摸事件的手指的指纹,通过指纹识别单元感测当所述至少一个应用和所述至少一个对象已经完全从第一区域移动到第二区域时手指的指纹作为产生触摸事件的手指的指纹,通过指纹识别单元感测当所述至少一个应用和所述至少一个对象在第一区域上被触摸时手指的指纹作为产生触摸事件的手指的指纹。
16.如权利要求11所述的电子装置,其中,当多个手指的指纹产生触摸事件时,控制器还被配置为感测产生最终触摸事件的手指的指纹。
17.如权利要求11所述的电子装置,其中,控制器还被配置为在第二区域上显示配置的任务。
18.如权利要求17所述的电子装置,其中,控制器还被配置为通过组合作为任务执行的主体的所述至少一个应用和作为任务执行的对象的所述至少一个对象,在第二区域上显示配置的任务,并且在第二区域上将识别出的指纹显示为用于确认将产生的所述任务的索引。
CN201480069015.1A 2013-12-17 2014-12-17 电子装置和电子装置的任务配置方法 Active CN105830013B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2013-0157002 2013-12-17
KR1020130157002A KR102206394B1 (ko) 2013-12-17 2013-12-17 전자 장치 및 전자 장치의 작업 설정 방법
PCT/KR2014/012446 WO2015093834A1 (en) 2013-12-17 2014-12-17 Electronic device and task configuring method of electronic device

Publications (2)

Publication Number Publication Date
CN105830013A CN105830013A (zh) 2016-08-03
CN105830013B true CN105830013B (zh) 2019-12-03

Family

ID=53368439

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201480069015.1A Active CN105830013B (zh) 2013-12-17 2014-12-17 电子装置和电子装置的任务配置方法

Country Status (5)

Country Link
US (1) US10037134B2 (zh)
EP (1) EP3084575B1 (zh)
KR (1) KR102206394B1 (zh)
CN (1) CN105830013B (zh)
WO (1) WO2015093834A1 (zh)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10817096B2 (en) 2014-02-06 2020-10-27 Apple Inc. Force sensor incorporated into display
US10386970B2 (en) 2013-02-08 2019-08-20 Apple Inc. Force determination based on capacitive sensing
US9671889B1 (en) 2013-07-25 2017-06-06 Apple Inc. Input member with capacitive sensor
EP3072040B1 (en) 2014-02-12 2021-12-29 Apple Inc. Force determination employing sheet sensor and capacitive array
US10846505B2 (en) 2015-10-29 2020-11-24 Lg Electronics Inc. Mobile terminal and operating method therefor
KR102401009B1 (ko) * 2015-11-27 2022-05-24 엘지전자 주식회사 이동 단말기
US10007343B2 (en) * 2016-03-31 2018-06-26 Apple Inc. Force sensor in an input device
KR102622021B1 (ko) * 2016-08-03 2024-01-08 삼성전자 주식회사 지문 센서를 갖는 전자 장치
KR102616793B1 (ko) 2016-11-15 2023-12-26 삼성전자 주식회사 전자 장치 및 전자 장치의 화면 제공 방법
WO2018119566A1 (zh) 2016-12-26 2018-07-05 深圳市汇顶科技股份有限公司 一种指纹识别引导方法及装置
KR20180081380A (ko) * 2017-01-06 2018-07-16 삼성전자주식회사 지문을 감지하는 전자 장치 및 방법
US10615239B2 (en) 2017-03-07 2020-04-07 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Integration of display screen and optical fingerprint sensor
CN106774689B (zh) * 2017-03-07 2023-11-17 Oppo广东移动通信有限公司 显示屏、显示屏组件及终端
CN107172278A (zh) * 2017-05-12 2017-09-15 维沃移动通信有限公司 一种认证交互方法及移动终端
CN109151099A (zh) * 2017-06-28 2019-01-04 北京小米移动软件有限公司 电子设备
CN107589893A (zh) * 2017-09-21 2018-01-16 上海联影医疗科技有限公司 一种数据加载方法、装置及终端
CN108845732A (zh) * 2018-05-30 2018-11-20 维沃移动通信有限公司 一种信息显示方法及终端设备
US10866683B2 (en) 2018-08-27 2020-12-15 Apple Inc. Force or touch sensing on a mobile device using capacitive or pressure sensing
EP3674969B1 (en) * 2018-10-31 2022-03-23 Shenzhen Goodix Technology Co., Ltd. Method and apparatus for recognizing fingerprint logo, and electronic device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004334788A (ja) * 2003-05-12 2004-11-25 Minoru Ikeda 個人認証システム、認証装置、個人認証方法、プログラム、および、記録媒体
WO2009120925A2 (en) * 2008-03-28 2009-10-01 Sprint Communications Company L.P. Operating a mobile communications device
US8390584B1 (en) * 2009-10-13 2013-03-05 Intuit Inc. Digit aware touchscreen

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3014286B2 (ja) * 1994-12-16 2000-02-28 インターナショナル・ビジネス・マシーンズ・コーポレイション 直接操作のための補助装置及び方法
US20050085217A1 (en) 2003-10-21 2005-04-21 Chae-Yi Lim Method for setting shortcut key and performing function based on fingerprint recognition and wireless communication terminal using thereof
KR100693592B1 (ko) 2003-10-21 2007-03-14 주식회사 팬택 지문인식을 이용한 키 설정/실행 방법 및 그를 이용한무선통신 단말기
US7697729B2 (en) * 2004-01-29 2010-04-13 Authentec, Inc. System for and method of finger initiated actions
KR100856203B1 (ko) 2006-06-27 2008-09-03 삼성전자주식회사 지문 인식 센서를 이용한 사용자 입력 장치 및 방법
US8023700B2 (en) 2007-07-26 2011-09-20 Nokia Corporation Apparatus, method, computer program and user interface for enabling access to functions
US8228300B2 (en) 2008-03-28 2012-07-24 Sprint Communications Company L.P. Physical feedback to indicate object directional slide
KR101549556B1 (ko) * 2009-03-06 2015-09-03 엘지전자 주식회사 휴대 단말기 및 그 제어방법
US20100265204A1 (en) * 2009-04-21 2010-10-21 Sony Ericsson Mobile Communications Ab Finger recognition for authentication and graphical user interface input
US9348985B2 (en) 2011-11-23 2016-05-24 Elwha Llc Behavioral fingerprint controlled automatic task determination
JP6048757B2 (ja) * 2012-02-03 2016-12-21 日本電気株式会社 端末装置及び処理方法並びにプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004334788A (ja) * 2003-05-12 2004-11-25 Minoru Ikeda 個人認証システム、認証装置、個人認証方法、プログラム、および、記録媒体
WO2009120925A2 (en) * 2008-03-28 2009-10-01 Sprint Communications Company L.P. Operating a mobile communications device
US8390584B1 (en) * 2009-10-13 2013-03-05 Intuit Inc. Digit aware touchscreen

Also Published As

Publication number Publication date
WO2015093834A1 (en) 2015-06-25
EP3084575A4 (en) 2017-09-20
CN105830013A (zh) 2016-08-03
US10037134B2 (en) 2018-07-31
KR20150070599A (ko) 2015-06-25
KR102206394B1 (ko) 2021-01-22
US20150169163A1 (en) 2015-06-18
EP3084575B1 (en) 2019-10-02
EP3084575A1 (en) 2016-10-26

Similar Documents

Publication Publication Date Title
CN105830013B (zh) 电子装置和电子装置的任务配置方法
US10841265B2 (en) Apparatus and method for providing information
KR102378513B1 (ko) 메시지 서비스를 제공하는 전자기기 및 그 전자기기가 컨텐트 제공하는 방법
US11460983B2 (en) Method of processing content and electronic device thereof
KR102447503B1 (ko) 메시지 서비스를 제공하는 전자기기 및 그 전자기기가 컨텐트 제공하는 방법
CN106020660B (zh) 终端及其操作方法
US10042457B2 (en) Watch type terminal
US10691327B2 (en) Mobile terminal and control method for the mobile terminal
EP3128410A2 (en) Mobile terminal and control method thereof
CN106155497B (zh) 用于根据旋转输入提供附加信息的装置和方法
KR102053196B1 (ko) 전자장치 및 전자 장치의 일정 자동 생성 방법
TWI554900B (zh) 提供資訊的裝置與方法
CN106331311A (zh) 移动终端及其控制方法
KR20160091780A (ko) 이동단말기 및 그 제어방법
KR102370373B1 (ko) 정보 제공하는 방법 및 이를 위한 전자기기
KR102138728B1 (ko) 전자 장치 및 전자 장치의 태그 정보 처리 방법
KR102264428B1 (ko) 전자 장치의 동작 방법 및 장치
KR20170016176A (ko) 이동 단말기 및 그 제어 방법
KR20160134080A (ko) 단말기 및 그 동작 방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant