CN109074435A - 用于提供用户信息的电子设备和方法 - Google Patents
用于提供用户信息的电子设备和方法 Download PDFInfo
- Publication number
- CN109074435A CN109074435A CN201680071773.6A CN201680071773A CN109074435A CN 109074435 A CN109074435 A CN 109074435A CN 201680071773 A CN201680071773 A CN 201680071773A CN 109074435 A CN109074435 A CN 109074435A
- Authority
- CN
- China
- Prior art keywords
- information
- user
- image
- electronic equipment
- sensing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 36
- 210000003462 vein Anatomy 0.000 claims description 22
- 238000005259 measurement Methods 0.000 claims description 11
- 238000004458 analytical method Methods 0.000 claims description 7
- 230000001815 facial effect Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 35
- 238000004378 air conditioning Methods 0.000 description 14
- 230000005021 gait Effects 0.000 description 14
- 230000006870 function Effects 0.000 description 12
- 230000036772 blood pressure Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000013507 mapping Methods 0.000 description 7
- 238000000605 extraction Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 210000004087 cornea Anatomy 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011017 operating method Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- WQZGKKKJIJFFOK-GASJEMHNSA-N Glucose Natural products OC[C@H]1OC(O)[C@H](O)[C@@H](O)[C@@H]1O WQZGKKKJIJFFOK-GASJEMHNSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000008103 glucose Substances 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 230000005622 photoelectricity Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/42—User authentication using separate channels for security data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/50—Maintenance of biometric data or enrolment thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/70—Multimodal biometrics, e.g. combining information from different biometric modalities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/14—Vascular patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/15—Biometric patterns based on physiological signals, e.g. heartbeat, blood flow
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Dermatology (AREA)
- Biomedical Technology (AREA)
- Neurosurgery (AREA)
- Neurology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- User Interface Of Digital Computer (AREA)
- Telephone Function (AREA)
- Ophthalmology & Optometry (AREA)
- Vascular Medicine (AREA)
Abstract
本发明公开了一种电子设备,该电子设备包括显示单元,用于显示图像;感测单元,用于感测用户的生物信息;以及控制单元,用于分析图像以获取图像信息并且基于获取的图像信息和感测的生物信息提供用户信息。
Description
技术领域
本公开涉及用于提供用户信息的电子设备和方法。
背景技术
随着信息通信技术和半导体技术的发展,各种类型的电子设备已经发展成提供各种多媒体服务的多媒体设备。例如,电子设备提供各种多媒体服务,诸如信使服务,广播服务,无线互联网服务,相机服务和音乐回放服务。
最近,为了保护存储在电子设备中的用户的各种类型的信息的隐私并防止第三方不加选择地使用该信息,向用户提供指纹识别功能和生物特征(biometric)认证功能。生物特征认证功能表示使用他们的生物特征信息来认证用户的方法。
另外,图像识别功能被提供给电子设备。图像识别表示一种从照片识别图像,在照片中找到对象并自动将对象转换为可搜索数据的方法。
发明内容
技术问题
提供了一种用于识别图像以获取图像信息并提供与获取的图像信息和感测的生物特征信息相匹配的用户信息的电子设备和方法。
有益效果
关于特定对象的用户信息可以容易地通过拍摄特定对象来提供,而无需逐条存储或学习关于特定对象的用户信息。
另外,可以通过拍摄特定对象直观地搜索关于特定对象的信息。
此外,通过拍摄特定对象可以容易地控制特定对象。
附图说明
图1是示出根据实施例的电子设备的示图;
图2是示出根据实施例的电子设备的配置的框图;
图3是示出根据实施例的电子设备的配置的框图;
图4是示出根据实施例的电子设备从图像中识别对象并获取图像信息的示例的示图;
图5是示出根据实施例的电子设备从外部服务器获取图像信息的示例的示图;
图6是示出根据实施例的电子设备存储映射到图像信息和生物特征信息的用户信息的示例的示图;
图7A至7C是示出根据实施例的电子设备在显示器上显示用户信息的示例的示图;
图8A和8B是示出根据实施例的当不存在与由电子设备获取的图像信息相对应的用户信息时显示消息的示例的示图;
图9A至9C是示出根据实施例的电子设备在显示器上显示用户信息的示例的示图;
图10A至图10C是示出根据实施例的电子设备将用户信息发送至外部设备的示例的示图;
图11A至图11C是示出根据实施例的电子设备将用户信息发送到外部设备的示例的示图;
图12是示出根据实施例的电子设备向外部设备发送用户信息的示例的示图;
图13A至图13C是示出根据实施例的电子设备显示用户信息的示例的示图;
图14A至图14C是示出根据实施例的电子设备显示用户信息的示例的示图;
图15A至图15C是示出根据实施例的电子设备使用用户信息来控制外部设备的示例的示图;
图16A至16C是示出根据实施例的电子设备使用用户的设置信息来控制外部设备的示例的示图;
图17A至17C是示出根据实施例的电子设备使用用户的设置信息来控制外部设备的示例的示图;
图18A至18C是示出根据实施例的电子设备将用户信息发送到外部设备或使用用户信息控制外部设备的示例的示图;
图19A至19C是示出根据实施例的电子设备存储从图像识别的用户信息或将用户信息发送到外部设备的示例的示图;以及
图20是示出根据实施例的电子设备的操作方法的流程图。
具体实施方式
根据实施例的一方面,一种在电子设备中提供用户信息的方法,包括:显示图像;通过分析图像获取图像信息;感测生物特征信息;以及基于获取的图像信息和感测的生物特征信息提供用户信息。
所述方法还可以包括拍摄至少一个对象以获取图像。
所述方法还可以包括存储与图像和生物特征信息匹配的用户信息。
获取图像信息可以包括识别图像中包括的至少一个对象以获取识别的对象信息作为图像信息。
生物特征信息的感测可以包括感测用户的指纹信息,虹膜信息,语音信息,静脉信息,面部信息,掌纹信息,脑电图(EEG)信息和心电图(ECG)信息中的至少一个。
获取图像信息可以包括:接收用于从图像中选择特定区域的触摸输入;以及分析选择的特定区域以获取图像信息,生物特征信息的感测可以包括从触摸输入感测用户指纹信息。
所述方法还可以包括接收用户识别信息,包括身份(ID)/密码(PW),锁定图案和个人识别号码(PIN)中的至少一个。提供用户信息包括基于图像信息,生物特征信息和用户识别信息提供用户信息。
用户信息可以包括用户ID,用户密码,秘密备忘录,秘密日记,设置信息和控制信息中的至少一个。
提供用户信息可以包括在显示器上显示与图像信息和生物特征信息匹配的用户信息。
图像信息的获取可以包括识别图像中包括的对象,并且提供用户信息可以包括将用于解锁对象的密钥信息发送到对象,所述密钥信息与对象和生物特征信息匹配。
对象可以是门锁。
图像信息的获取可以包括识别图像中包括的外部设备,并且提供用户信息可以包括使用与外部设备和生物特征信息匹配的用户信息来控制外部设备。
外部设备可以是图像显示设备,并且提供用户信息可以包括基于用户信息中包括的用户年龄信息来控制显示在图像显示设备上的图像。
根据另一实施例的一方面,一种电子设备包括:显示器,被配置为显示图像;感测单元,被配置为感测用户的生物特征信息;以及控制器,被配置为分析图像以获取图像信息并且被配置为基于获取的图像信息和感测的生物特征信息提供用户信息。
所述电子设备还可以包括相机,被配置为拍摄至少一个对象以获取图像。
所述电子设备还可以包括存储器,被配置为存储与图像和生物特征信息匹配的用户信息。
控制器可以识别图像中包括的至少一个对象以获取识别的对象信息作为图像信息。
生物特征信息可以包括用户的指纹信息,虹膜信息,语音信息,静脉信息,面部信息,掌纹信息,脑电图(EEG)信息和心电图(ECG)信息中的至少一个,并且感测单元可以包括指纹识别传感器,虹膜识别传感器,语音识别传感器,静脉识别传感器,面部识别传感器,掌纹识别传感器,EEG测量传感器和ECG测量传感器中的至少一个。
显示器可以包括触摸屏和感测单元,触摸屏可以接收用于从图像中选择特定区域的触摸输入,感测单元可以从触摸输入感测用户指纹信息,以及控制器可以分析选择的特定区域以获取图像信息。
电子设备还可以包括用户输入单元,被配置为接收包括身份(ID)/密码(PW),锁定图案和个人识别号码(PIN)中的至少一个的用户识别信息。控制器可以基于图像信息,生物特征信息和用户识别信息来提供用户信息。
用户信息可以包括用户ID,用户密码,秘密备忘录,秘密日记,设置信息和控制信息中的至少一个。
控制器可以执行控制,使得在显示器上显示与图像信息和生物特征信息匹配的用户信息。
控制器可以识别包括在图像中的对象,并且可以执行控制使得用于解锁对象的密钥信息被发送到对象,所述密钥信息与对象和生物特征信息匹配。
控制器可以识别包括在图像中的外部设备,并且可以使用与外部设备和生物特征信息匹配的用户信息来控制外部设备。
外部电子设备可以是图像显示设备,并且控制器可以基于包括在用户信息中的用户年龄信息来控制在图像显示设备上显示的图像。
现在将详细参照实施例,其示例在附图中示出,其中,相同的附图标记始终表示相同的元件。对此,本实施例可以具有不同的形式,并且不应该被解释为限于在此阐述的描述。因此,下面仅通过参照附图来描述实施例以解释各方面。如本文所使用的,术语“和/或”包括一个或多个相关所列项目的任何和所有组合。诸如“至少一个”的表达当在元件列表之前时,修饰整个元件列表并且不修改列表的单个元件。
将简要描述本文使用的术语,并且将详细描述实施例。
考虑到实施例的功能,在实施例中使用的术语已经被选择为目前广泛使用的一般术语,但是可以根据本领域技术人员的意图,常规实践或者引入新的技术而变化。另外,如果存在在特定情况下由申请人任意选择的术语,则在这种情况下,将在实施例的对应描述部分中详细描述该术语的含义。因此,本文使用的术语应该基于实施例的全部内容来定义,而不是每个术语的简单名称。
此外,当一个部分被称为“包括(或包含或具有)”其他元件时,应该理解,如果存在没有特别的限制,它可以包括(或包含或具有)仅仅那些元件,或其他元件以及那些元件。此外,本文使用的诸如“单元”和“模块”的术语中的每一个都表示用于执行至少一个功能或操作的元件,并且可以以硬件,软件或硬件和软件的组合来实现。
在下文中,将参照附图以本领域技术人员可以容易地执行实施例的方式充分描述实施例。然而,实施例可以以许多不同的形式来体现,并且不应该被解释为限于在此阐述的实施例。在附图中,为了清楚起见,省略与实施例的描述无关的部分。此外,相同的附图标记始终表示相同的元件。
图1是示出根据实施例的电子设备的示图。
在下文中,电子设备100表示使用电子的运动的电子设备。根据实施例的电子设备100可以以各种形式来实现。例如,电子设备100可以被实现为诸如手机,智能电话,膝上型计算机,台式计算机,平板电脑,电子书终端,数字广播终端,个人数字助理(PDA),便携式多媒体播放器(PMP),导航设备,MP3播放器,数码相机,摄像机,互联网协议电视(IPTV),数字电视(DTV),可穿戴设备(例如,智能手表,智能眼镜等)或配件的各种电子设备之一。然而,本公开的实施例不限于此。
本文使用的术语“用户”表示控制电子设备100的功能或操作的人,并且可以包括观看者,管理者或安装工程师。
根据实施例的电子设备100可以显示图像。图像可以包括使用电子设备100拍摄的图像、存储在电子设备100中的图像或者从外部设备接收的图像。
另外,电子设备100可以分析显示的图像以获取图像信息。图像信息可以包括通过识别图像中包括的人或物体并将该人或物体表示为文本词(text word)而获得的信息。
例如,如图1所示,当显示包括门锁的图像时,根据实施例的电子设备100可以使用对象识别方法将图像中包括的对象识别为门锁。当门锁被识别时,电子设备100可以获取图像信息“门锁”。
根据一些实施例,电子设备100可以包括触摸屏155。为了从显示在触摸屏155上的图像获取图像信息,电子设备100可以接收从显示在触摸屏155上的图像选择特定区域的用户的触摸输入。在这种情况下,从图像中选择特定区域的操作表示从图像中选择诸如物体或人的至少一个对象的操作。另外,当在显示的图像中显示多个对象时(例如,显示图像包括门锁和冰箱),电子设备100可以接收用于选择多个对象中的任何一个的用户输入。电子设备100可以识别选择的对象以获取图像信息。可选地,电子设备可以接收用于选择多个对象中的两个或更多个的用户输入。电子设备100可以识别选择的两个或更多个对象以获取图像信息。
在下文中,生物特征信息表示用于识别个体的活体(living thing)的独特(unique)信息,并且除了诸如指纹,虹膜,手指静脉,静脉,角膜,面部,语音模式(语音或音量),脑电图(EEG)和心电图(ECG))的信息之外,还可以包括用户的独特动作信息(例如,手势,步态,姿势等)。本公开的实施例不限于此。
根据实施例的电子设备100可以包括用于测量用户的生物特征信息的各种传感器。例如,根据实施例的电子设备100可以包括指纹识别传感器,虹膜识别传感器,语音识别传感器,静脉识别传感器,面部识别传感器,掌纹识别传感器等。可选地,电子设备100可以包括EEG测量传感器,ECG测量传感器等。然而,本公开的实施例不限于此。
例如,如图1所示,电子设备100可以包括指纹识别区域20。当用户的手指触摸指纹识别区域20时(例如,当用户使他/她的手指接触指纹识别区域20时),电子设备100可以通过使用指纹识别传感器识别用户的指纹来认证用户。根据实施例的指纹识别区域20可以在触摸屏上实现。电子设备100可以接收用户触摸触摸屏的输入,并且同时可以通过触摸输入来感测用户的指纹信息。在下文中,指纹信息表示指示每个人的独特特征的指纹图像或者指示诸如从指纹图像获取的指纹细节的指纹的特征的信息。在下文中,触摸输入表示用手触摸以发送信号的动作。作为示例,获取触摸输入的方法可以包括真实触摸和接近触摸,但是不限于此。
另外,电子设备100可以使用相机拍摄用户的虹膜,并且可以使用拍摄的虹膜的图案来认证用户。另外,除了诸如用户的指纹,虹膜,手指静脉,静脉,角膜,面部,语音模式(语音或音量),脑电图(EEG)和心电图(ECG)等的信息之外,电子设备100还可以识别用户的独特动作信息(例如,手势,步态,姿势等)来认证用户。
另外,电子设备100可以感测多条生物特征信息以认证用户。在这种情况下,电子设备可以感测相同类型的生物特征信息若干次,或者可以感测不同类型的生物特征信息。例如,电子设备100可以感测用户的拇指指纹信息和食指指纹信息以认证用户。可选地,电子设备100可以感测用户的指纹信息和虹膜信息以认证用户。
可选地,电子设备100可以使用认证信息代替生物特征信息来认证用户。例如,电子设备100可以使用密码,屏幕锁定图案,个人识别号码(PIN)等来认证用户。
根据实施例的电子设备100可以基于获取的图像信息和感测的生物特征信息来提供用户信息。根据实施例的用户信息是关于用户的信息,并且可以包括与用户的隐私相关联的信息,诸如用户的身份(ID),密码(门锁密码,账户密码,登录密码等),用户的信用卡信息以及由用户写入的秘密备忘录或秘密日记,用户的设置信息,设备控制信息等。然而,本公开的实施例不限于此。
根据实施例的电子设备100可以根据感测的生物特征信息的类型或条数提供不同的用户信息。例如,感测到用户的虹膜信息的情况以及感测到用户的指纹信息的情况可以具有不同范围的用户信息。另外,感测用户的一条指纹信息的情况和感测用户的两条指纹信息的情况可以具有不同范围的用户信息。然而,本公开的实施例不限于此。
图2是示出根据实施例的电子设备的配置的框图。
参照图2,根据实施例的电子设备100a可以包括显示器110,感测单元120和控制器130。
显示器110将由控制器130处理的图像信号,数据信号,屏上显示(OSD)信号,控制信号等转换为驱动信号。在此,显示器110可以被实现为液晶显示器,薄膜晶体管-液晶显示器,有机发光二极管,柔性显示器等。另外,显示器110可以被实现为三维(3D)显示器。另外,显示器110可以被配置为触摸屏并且因此可以被用作输入设备以及输出设备。
根据实施例的显示器110可以显示图像。在这种情况下,在显示器110上显示的图像可以包括由电子设备100拍摄的图像,存储在电子设备100中的图像或从外部设备接收的图像中的至少一个。然而,本公开的实施例不限于此。
根据实施例的感测单元120可以感测用户的生物特征信息并且可以将感测的生物特征信息传递到控制器130。感测单元120可以包括感测用户的生物特征信息的传感器。例如,感测单元120可以包括指纹识别传感器,虹膜识别传感器,语音识别传感器,静脉识别传感器,面部识别传感器,掌纹识别传感器,EEG测量传感器,ECG测量传感器等。然而,本公开的实施例不限于此。
控制器130控制电子设备100的整体操作。例如,控制器130可以使用内部程序来控制电子设备100。
根据实施例的控制器130可以分析图像以获取图像信息。例如,控制器130可以使用对象识别方法来识别图像中包括的至少一个对象,并且可以获取关于识别出的对象的信息作为图像信息。这将在下面参照图4详细描述。
另外,控制器130可以基于获取的图像信息和感测的生物特征信息来提供用户信息。例如,控制器130可以执行控制以在显示器110上显示与图像信息和生物特征信息相匹配的用户信息,或者可以执行控制以将用户信息发送到外部设备。另外,控制器130可以使用用户信息来控制外部设备。
图3是示出根据实施例的电子设备的配置的框图。
参照图3,电子设备100b可以是图1的电子设备100的示例。
参照图3,根据实施例的电子设备100b除了控制器130,显示器110和感测单元120之外还可以包括通信器140,输出单元150,用户输入单元160,音频/视频(A/V)输入单元170和存储器180。
在图3的描述中,对图2中描述的控制器130,显示器110和感测单元120的重复描述将被省略。
通信器140可以包括用于在电子设备100和外部设备(例如,服务器)之间进行通信的一个或多个元件。例如,通信器140可以包括短程无线通信器141,移动通信器142和广播接收器143。
短程无线通信器141可以包括但不限于蓝牙通信器,近场通信器,无线LAN(WLAN)通信器,Zigbee通信器,红外数据协会(IrDA)通信器,Wi-Fi直接(WFD)通信器,超宽带(UWB)通信器和Ant+通信器。
移动通信器142通过移动通信网络向基站,外部终端和服务器中的至少一个发送无线电信号并从基站,外部终端和服务器中的至少一个接收无线电信号。在此,根据文本和/或多媒体消息的传输和/或接收,无线电信号可以包括语音呼叫信号,视频呼叫信号或各种类型的数据。
广播接收器143通过广播信道从外部接收广播信号和/或广播相关信息。广播频道可以包括卫星频道和地面频道。根据实现方式,电子设备100可以不包括广播接收器143。
通信器140可以从外部设备接收图像。此外,通信器140可以将显示器110上显示的图像和图像分析请求发送到外部服务器。另外,通信器140可以分析发送的图像以从外部服务器接收获取的图像信息。
输出单元150可以输出音频信号,视频信号或振动信号,并且可以包括显示器110,声音输出单元152和振动马达153。显示器110已经参照图2进行了描述,因此显示器110的详细描述将被省略。
声音输出单元152输出从通信器140接收的或存储在存储器180中的音频数据。另外,声音输出单元152可以输出与电子设备100执行的功能相关联的声音信号(例如,呼叫信号接收声音,消息接收声音或警报声音)。声音输出单元152可以包括扬声器,蜂鸣器等。
振动马达153可以输出振动信号。例如,振动马达153可以输出对应于音频数据或视频数据的输出的振动信号。另外,当触摸被输入到触摸屏时,振动马达153可以输出振动信号。
控制器130控制电子设备100的整体操作。例如,控制器130可以通过执行存储在存储器180中的程序来控制通信器140,输出单元150,用户输入单元160,感测单元120和A/V输入单元170等。
用户输入单元160表示用户输入用于控制电子设备100的数据的单元。例如,用户输入单元160的示例可以包括但不限于小键盘,圆顶开关,触摸板(接触电容型,压阻型,红外感测型,表面超声波导电型,一体型张力测量型,压电效应型等),微动轮,微动开关等。
触摸屏155可以由触摸面板和显示面板组成。除了触摸输入位置和触摸区域之外,触摸屏155可以被配置为检测触摸压力。另外,触摸屏155可以被配置为除了真实触摸之外还检测接近触摸。
本文使用的术语“真实触摸”表示用触摸工具(例如,电子笔,手指等)实际触摸屏幕的情况,并且本文使用的术语“接近触摸”表示屏幕实际上没有被触摸工具触摸,但在距屏幕预定距离内接近屏幕。虽然未示出,但是可以在触摸屏155的内部或附近设置各种传感器,以感测触摸屏155的触摸或接近触摸。用于感测触摸屏155的触摸的传感器的示例包括触觉传感器。触觉传感器表示感测达到人可感觉或更多的程度的特定对象的触摸的传感器。触觉传感器可以感测各种信息,诸如触摸表面的粗糙度,触摸对象的刚度,触摸点的温度等。
此外,用于感测触摸屏155的触摸的传感器的示例包括接近传感器128。接近传感器128表示使用电磁力或红外光来检测靠近预定检测表面的对象或在检测表面附近没有任何机械接触的对象的传感器。接近传感器的示例包括透射式光电传感器,直接反射式光电传感器,镜面反射式光电传感器,高频振荡接近传感器,电容式接近传感器,磁性接近传感器和红外接近传感器。用户的触摸手势的示例可以包括轻击,触摸并保持,双击,拖动,平移,轻弹,拖放和轻扫。
此外,触摸屏155可以包括指纹识别传感器。当触摸屏155包括指纹识别传感器时,触摸屏155可以接收用户触摸触摸屏的输入,并且同时可以通过触摸输入来感测用户的指纹信息。
除了感测生物特征信息的传感器之外,感测单元120可以包括感测电子设备100的状态或电子设备100的附近状态的传感器。另外,感测单元120可以将由传感器感测的信息传递到控制器130。
除了参照图2描述的指纹识别传感器,虹膜识别传感器,语音识别传感器,静脉识别传感器,面部识别传感器以及掌纹识别传感器之外,感测单元120还可以包括但不限于磁传感器,加速度传感器,温度/湿度传感器,红外传感器,陀螺仪传感器,定位传感器(例如,全球定位系统(GPS)传感器),气压传感器,接近传感器和RGB传感器(照度传感器)中的至少一个。每个传感器的功能可以由本领域技术人员根据其名称直接推断,因此将省略其详细描述。
感测单元120可以感测电子设备100的移动、电子设备100的用户的生物特征信号、输入到电子设备100的触摸信号等。
A/V输入单元170用于输入音频信号或视频信号,并且可以包括相机171和麦克风172。相机171可以在视频呼叫模式或拍摄模式中通过图像传感器获得静止图像或运动图像的图像帧。通过图像传感器捕获的图像可以通过控制器130或单独的图像处理器(未示出)来处理。
由相机171处理的图像帧可以存储在存储器180中或经由通信器140发送到外部。根据电子设备100的配置方面可以提供两个或更多个相机171。
麦克风172接收外部声音信号并将接收的外部声音信号处理为电子语音数据。例如,麦克风172可以从外部设备或讲话者接收声音信号。麦克风172可以使用各种噪声去除算法来去除在接收外部声音信号时产生的噪声。
存储器180可以存储用于处理和控制控制器130的程序,并且还可以存储输入/输出数据(例如,应用,内容,外部设备的时区信息,联系人)。
存储器180可以包括闪存型,硬盘型,多媒体卡微型或卡型存储器(例如,SD或XD存储器),存储介质(包括随机存取存储器(RAM),静态随机存取存储器(SRAM),只读存储器(ROM),电可擦除可编程只读存储器(EEPROM),可编程只读存储器(PROM),磁存储器,磁盘和光盘)中的至少一种。另外,电子设备100可以操作通过互联网执行存储器180的存储功能的网络存储设备或云服务器。
存储在存储器180中的程序可以根据程序的功能被分类为多个模块,并且例如可以被分类为用户界面(UI)模块181,触摸屏模块182,警报模块183等。
根据实施例的存储器180可以存储映射到图像信息和生物特征信息的用户信息。根据实施例的用户信息是关于用户的信息,并且可以包括与用户的隐私相关联的信息,诸如用户的身份(ID),密码(门锁密码,账户密码,登录密码等),用户的信用卡信息以及由用户写入的秘密备忘录或秘密日记,用户的设置信息,设备控制信息等。然而,本公开的实施例不限于此。另外,存储器180可以以表格的形式存储图像信息,生物特征信息和用户信息。这将在下面参照图6详细描述。
UI模块181可以为每个应用提供与电子设备100链接的专用UI,GUI等。触摸屏模块182可以感测用户在触摸屏上的触摸手势并且将关于触摸手势的信息传送给控制器130。
触摸屏模块182可以识别和分析触摸代码。触摸屏模块182也可以被配置为包括控制器的独立硬件。
警报模块183可以生成用于通知电子设备100中发生事件的信号。在电子设备100中发生的事件的示例可以包括呼叫信号接收,消息接收,键信号输入以及事件提醒。警报模块183还可以通过显示器110以视频信号形式输出警报信号,通过声音输出单元152以音频信号形式输出警报信号,并且通过振动马达153以振动信号形式输出警报信号。
图4是示出根据实施例的电子设备从图像中识别对象并获取图像信息的示例的示图。
参照图4,根据实施例的电子设备100可以对图像执行图像处理。图像处理可以包括高斯滤波,图像模糊等。另外,电子设备100可以执行各种处理过程。
电子设备100可以从处理后的图像中提取特征点。图像特征点(感兴趣点)是可以指示图像的特征的点,并且表示很好地描绘图像的特征的点或点的集合,而不管在图像中诸如缩放,旋转和失真等等的改变。
例如,图像特征点可以是与周围环境不同的容易识别的点。另外,即使在对象的形状,尺寸或位置改变时也可以被识别且即使在相机的视点或照明改变时也可以容易地从图像中找到的点可以被提取作为图像特征点。例如,电子设备100可以从图像中提取角点作为图像特征点。在此,可以使用Harris角点检测方法,Shi-Tomasi特征点提取方法,使用尺度不变特征变换(Scale Invariant Feature Transform,SIFT)的特征点检测方法或者基于加速分段测试的特征(Features from Accelerated Segment Test,FAST)方法来提取图像特征点。上述方法是本领域技术人员已知的算法,并且将省略它们的详细描述。
例如,如图4所示,电子设备100可以从第一图像310提取特征点315。在此,第一图像310可以包括由电子设备100拍摄的图像,从外部设备接收的图像,存储在电子设备中的图像100等。
电子设备100可以将提取的特征点315与候选图像的特征点进行比较,以从候选图像中提取映射到第一图像310的第二图像320。例如,电子设备100可以使用提取的图像特征点生成图像特征点模型,并且可以将生成的图像特征点模型与存储在电子设备100中的候选图像的特征点模型进行比较,以提取对应于第一图像310的第二图像320。电子设备100可以提取具有与从第一图像310提取的特征点匹配的特征点的第二图像320。
电子设备100可以基于提取的第二图像320来获取第一图像310的图像信息。例如,当第一图像310与具有图像信息“门锁”的第二图像320相匹配时,电子设备100可以将第一图像310的图像信息确定为“门锁”。
另外,电子设备100可以使用人类识别方法来获取图像信息。例如,可以基于可以从图像中包括的人物提取的特征(诸如面部,表情,身体,行为,手势和运动)来获取图像信息。
图5是示出根据实施例的电子设备从外部服务器获取图像信息的示例的示图。
参照图5,电子设备100可以将期望分析的图像(在下文中称为第一图像)和分析图像的请求发送到外部服务器200。服务器200可以接收第一图像并分析接收的第一图像。服务器200可以使用对象识别方法来获取第一图像的图像信息(即,关于图像中包括的对象的信息)。在此,服务器200可以使用图4中描述的对象识别方法来提取与第一图像匹配的第二图像。
服务器200可以基于提取的第二图像来获取第一图像的图像信息。例如,当第一图像与具有图像信息“门锁”的第二图像匹配时,服务器200可以将第一图像的图像信息确定为“门锁”。服务器200可以将第一图像的图像信息发送到电子设备100。电子设备100可以从服务器200获取第一图像的图像信息。
图6是示出根据实施例的电子设备存储映射到图像信息和生物特征信息的用户信息的示例的示图。
参照图6,电子设备100可以将映射表410存储在存储器中。根据实施例的映射表410可以包括图像信息,生物特征信息和用户信息。映射表410可以是将图像信息,生物特征信息和用户信息相互映射的表格。电子设备100可以根据映射表来提供用户信息。
例如,当从图像获取的图像信息是“门锁”并且感测的生物特征信息(例如,指纹)是指纹1(例如,第一用户的指纹)时,电子设备100可以提供用户信息“密码:19480”。
可选地,当从图像获取的图像信息是“空调”并且感测的生物特征信息是指纹4时,电子设备100可以使用与“空调”和“指纹4”相对应的用户信息来控制空调。例如,电子设备100可以发送用于将空调的温度设置为24℃的控制命令。
可选地,当从图像中识别出“用户A”并且感测的生物特征信息是指纹5时,电子设备100可以提供为用户A写入的秘密备忘录(100万韩元被借用(ONE MILLION WON WASBORROWED))。
参照图6示出并描述了以映射表的形式存储图像信息,生物特征信息和用户信息的示例,但不限于此。电子设备100可以以各种形式存储图像信息,生物特征信息和用户信息。
根据实施例的电子设备100可以存储与图像中包括的特定对象相对应的用户信息。例如,电子设备100可以接收从图像中选择特定对象的输入(例如,触摸并保持,双触摸,拖动输入等)。在此,图像可以包括预先存储在图库应用中的图像或者拍摄并在显示器上显示的预览图像。
当选择特定对象时,电子设备100可以接收与选择的特定对象相对应的用户信息。用户信息可以包括与用户隐私相关联的信息,诸如用户的身份(ID),用户的密码(门锁密码,账户密码,登录密码等),用户的信用卡信息以及用户写入的秘密备忘录或秘密日记,多媒体信息,用户的设置信息,设备控制信息等。
另外,电子设备100可以接收与选择的特定对象和接收的用户信息匹配的用户的生物特征信息。在此,生物特征信息可以包括指纹信息,虹膜信息,语音信息,静脉信息,面部信息,掌纹信息,脑电图(EEG)信息,心电图(ECG)信息和独特动作信息(例如,手势,步态,姿势等)。
电子设备100可以彼此对应地存储选择的特定对象,接收的用户信息以及用户的生物特征信息。
图7A至图7C是示出根据实施例的电子设备在显示器上显示用户信息的示例的示图。
参照图7A,电子设备100可以拍摄门锁。例如,电子设备100可以执行相机应用。当执行相机应用时,电子设备100可以在显示器上显示拍摄屏幕,并且拍摄屏幕可以包括拍摄按钮501。在此,可以在拍摄屏幕上显示预览图像。预览图像可以是为了显示用户要拍摄的主体的图像而获取的图像。
当接收到按下拍摄按钮的输入时,电子设备100可以拍摄至少一个对象(例如,门锁),并且可以在显示器110上显示通过拍摄该对象而获得的图像。
电子设备100可以分析显示的图像以获取图像信息。例如,电子设备100可以识别显示的图像中包括的门锁以获取图像信息“门锁”。
当根据实施例获取图像信息并且将与图像信息相对应的生物特征信息和用户信息存储在电子设备100中时,电子设备100可以在显示器110上显示指示输入生物特征信息的消息。另外,根据与获取的图像信息相对应的生物特征信息的类型,电子设备100可以显示指示输入对应生物特征信息的消息。例如,如图7B所示,当电子设备100获取图像信息“门锁”,并且与“门锁”对应的生物特征信息是指纹时,电子设备100可以显示指示输入指纹的消息510。可选地,与图7B不同,电子设备100可以不显示指示输入生物特征信息的消息。
电子设备100可以感测用户的生物特征信息。生物特征信息可以包括但不限于用户的指纹,虹膜,语音,静脉,面部,掌纹,脑电图(EEG),心电图(ECG)和独特动作信息(例如,手势,步态,姿势等)中的至少一个。
例如,如图7B所示,当用户用他/她的手指触摸电子设备100的指纹识别区域20时,电子设备100可以使用指纹识别传感器识别他/她的指纹。在图7B中,电子设备100的指纹识别区域20被示为实现为与显示器110分离的区域。然而,不同于此,当显示器110被实现为触摸屏时,指纹识别区域20可以被实现在触摸屏中。
另外,当在显示器110上显示的图像中显示多个对象时,用户可以触摸多个对象中的任何一个以选择要从其获取图像信息的对象,并同时输入他/她的指纹。当他/她的指纹被感测到时,电子设备100可以确定是否存在与获取的图像信息(“门锁”)和感测的指纹匹配的用户信息。当存在用户信息时,电子设备100可以在显示器110上显示用户信息。
例如,当匹配“门锁”和“指纹1”的信息是门锁的密码信息(“8492#”)时,如图7C所示,电子设备100可以在显示器110上显示门锁的密码信息(“8492#”)520。
参照图7A至图7C示出和描述了用户使用一条生物特征信息进行认证并提供用户信息的示例,但不限于此。电子设备100可以使用多条生物特征信息来认证用户并且可以提供用户信息。例如,当获取图像信息“门锁”并且感测到用户的指纹信息(“指纹1”)和用户的虹膜信息(“虹膜1”)时,电子设备100可以显示门锁的密码信息。
根据实施例的用户信息也可以与多条生物特征信息相匹配。例如,可以存储与第一用户的指纹(“指纹1”)和第二用户的指纹(“指纹2”)匹配的门锁的密码信息。即使当获取图像信息“门锁”并且感测的用户的指纹信息不是“指纹1”而是“指纹2”时,电子设备100也可以显示门锁的密码信息。另外,当图像中包括多个对象时,电子设备100可以接收用户选择多个对象的输入。电子设备100可以获取关于多个选择的对象的图像信息(例如,“门锁”和“空调”)。另外,电子设备100可以感测用户的生物特征信息(例如,“指纹1”)。当感测到用户的生物特征信息时,电子设备100可以提供对应于“门锁”和“指纹1”的用户信息以及对应于“空调”和“指纹1”的用户信息。
图8A和8B是示出根据实施例的当不存在与由电子设备获取的图像信息相对应的用户信息时显示消息的示例的示图。
参照图8A,电子设备100可以执行网络应用(web application)。当执行网络应用时,显示器110可以显示网页屏幕601。在此,网页屏幕601可以包括用于接收用户ID,电子邮件地址和密码的区域。
可选地,电子设备100可以拍摄显示在外部设备上的网页屏幕并显示拍摄的网页,而不是直接执行网络应用。在此,外部设备可以是执行网络应用的设备。
如图8A所示,当在显示器110上显示Google网页屏幕时,电子设备100可以分析Google网页屏幕的图像以获取图像信息“Google”。
电子设备100可以确定是否获取图像信息以及是否存储与图像信息相对应的生物特征信息和用户信息。当没有存储与获取的图像信息相对应的生物特征信息和用户信息时,电子设备100可以显示指示没有存储用户信息的消息,如图8B所示。
可选地,在获取图像信息“Google”之后,电子设备100可以感测用户的生物特征信息。当未存储用户信息时,电子设备100可以显示指示没有存储对应于获取的图像信息和感测的生物特征信息的用户信息的消息。
另外,当没有存储用户信息时,电子设备100可以显示用于询问是否注册与获取的图像信息和感测的生物特征信息相对应的用户信息的消息。
图9A至9C是示出根据实施例的电子设备在显示器上显示用户信息的示例的示图。
参照图9A,电子设备100可以在显示器110上显示网页屏幕701。在此,网页屏幕701可以包括用于接收用户ID,电子邮件地址和密码的区域。
电子设备100可以分析Google网页屏幕的图像以获取图像信息“Google”。
电子设备100可以感测用户的生物特征信息。例如,如图9B所示,当用户用他/她的手指触摸指纹识别区域20时,电子设备100可以使用指纹识别传感器识别他/她的指纹。然而,本公开的实施例不限于此。除了指纹之外,电子设备100还可以感测用户的虹膜,语音,静脉,面部,掌纹,脑电图(EEG)或心电图(ECG)。
当感测到用户的生物特征信息时,电子设备100可以在显示器110上显示与获取的图像信息(“Google”)和感测的用户的生物特征信息匹配的用户信息。
例如,当与“Google”和“指纹2”匹配的信息包括Google网页的用户电子邮件地址和密码时,电子设备100可以在显示器110上显示用户电子邮件地址和密码720。
可选地,电子设备100可以执行控制,使得用户电子邮件地址和密码被自动输入到包括在网页屏幕中的用于用户电子邮件地址和密码的输入窗口。
图10A至图10C是示出根据实施例的电子设备将用户信息发送至外部设备的示例的示图。
参照图10A,电子设备100可以拍摄门锁。已经参照图7A详细描述了拍摄对象的方法,其详细描述将被省略。
电子设备100可以识别拍摄的图像中包括的门锁以获取图像信息“门锁”。另外,如图10B所示,电子设备100可以感测用户的生物特征信息。生物特征信息可以包括但不限于用户的指纹,虹膜,语音,静脉,面部,掌纹,脑电图(EEG),心电图(ECG)和独特动作信息(例如,手势,步态,姿势)中的至少一个。
当感测到用户的生物特征信息时,电子设备100可以将与获取的图像信息和感测的用户的生物特征信息匹配的用户信息发送到外部设备。
例如,如图10C所示,电子设备100可以通过短程无线通信(例如,NFC,RFID和BLE)将与用户的感测指纹信息和图像信息“门锁”匹配的用户信息(例如,解锁门锁的密钥信息)发送到门锁。
门锁820确定接收的密钥信息是否与解锁信息相同。当接收的密钥信息与解锁信息相同时,门锁820可以被解锁。
图11A至图11C是示出根据实施例的电子设备将用户信息发送到外部设备的示例的示图。
参照图11A,电子设备100可以拍摄信用卡并且可以在显示器110上显示拍摄的图像(即,信用卡图像)。已经参照图7A详细描述了拍摄对象的方法,其详细描述将被省略。
另外,电子设备100可以在显示器110上显示存储在存储器中的信用卡图像,或者可以在显示器110上显示从外部设备接收的信用卡图像。
电子设备100可以识别显示器110上显示的图像中包括的信用卡以获取图像信息。另外,如图11B所示,电子设备100可以感测用户的生物特征信息。生物特征信息可以包括但不限于用户的指纹,虹膜,语音,静脉,面部,掌纹,脑电图(EEG),心电图(ECG)和独特动作信息(例如,手势,步态,姿势等)中的至少一个。
当感测到用户的生物特征信息时,电子设备100可以将与获取的图像信息和感测的用户的生物特征信息匹配的用户信息发送到外部设备。在这种情况下,电子设备100可以另外请求输入信用卡的个人识别号码(PIN)和卡验证码(CVC)。只有当输入的PIN和CVC与被识别的信用卡的PIN和CVC相同时,电子设备100才可以将与获取的图像信息和感测的用户生物特征信息匹配的用户信息发送到外部设备。
例如,如图11C所示,当电子设备100通过短程无线通信将与感测的用户指纹信息和图像信息“信用卡”匹配的信用卡信息发送到卡终端920时,卡终端920可以将信用卡信息和支付请求发送到支付服务器。可选地,电子设备100可以将信用卡信息和支付请求发送到支付服务器。
支付服务器可以确定接收的信用卡信息是否有效,并且可以在接收的信用卡信息有效时批准支付请求。
图12是示出根据实施例的电子设备向外部设备发送用户信息的示例的示图。
参照图12,根据实施例的电子设备100可以是头戴式显示器。例如,头戴式显示器可以以各种形式的提供虚拟现实(VR)图像的VR设备和提供增强现实(AR)图像的AR设备来实现。然而,本公开的实施例不限于此。
头戴式显示器100可以拍摄信用卡并且可以在显示器110上显示通过拍摄信用卡获得的图像(即,信用卡图像)。例如,头戴式显示器100可以根据佩戴头戴式显示器100的用户的视线拍摄外部对象(例如,信用卡)。
头戴式显示器100可以识别拍摄的图像中包括的信用卡以获取图像信息。另外,头戴式显示器100可以感测用户的生物特征信息。生物特征信息可以包括但不限于用户的指纹,虹膜,语音,静脉,面部,掌纹,脑电图(EEG),心电图(ECG)和独特动作信息(例如,手势,步态,姿势等)中的至少一个。
当感测到用户的生物特征信息时,头戴式显示器100可以将与感测的用户的指纹信息和图像信息“信用卡”匹配的信用卡信息和支付请求发送到支付服务器。另外,支付服务器可以确定接收的信用卡信息是否有效,并且可以在接收的信用卡信息有效时批准支付请求。
图13A至图13C是示出根据实施例的电子设备显示用户信息的示例的示图。
当存储图像时,除了用户的生物特征信息之外,根据实施例的电子设备100可以存储与图像相对应的秘密备忘录(或日记)。
参照图13A,电子设备100可以执行图库应用。当图库应用被执行时,电子设备100可以显示存储在存储器中的至少一个图像。电子设备100可以接收从存储在存储器中的至少一个图像中选择任何一个图像的输入,并且可以在显示器110上显示选择的图像1010。
另外,如图13B所示,电子设备100可以感测用户的生物特征信息。生物特征信息可以包括但不限于指纹,虹膜,语音,静脉,面部,掌纹,脑电图(EEG),心电图(ECG)和独特动作信息(例如,手势,步态,姿势等)中的至少一个。
当感测到用户的生物特征信息时,电子设备100可以确定感测的用户生物特征信息是否与存储的对应于在显示器110上显示的图像的用户的生物特征信息相同。
当感测的生物特征信息与存储的生物特征信息相同时,电子设备100可以在显示器110上显示存储的与显示的图像相对应的秘密备忘录1020。
图14A至图14C是示出根据实施例的电子设备显示用户信息的示例的示图。
根据实施例的电子设备100可以将与特定对象相对应的秘密备忘录与用户的生物特征信息一起存储。
参照图14A,电子设备100可以显示包括第一对象1110的第一图像。在这种情况下,用户可以从第一图像中选择第一对象1110,并且可以输入用于选择的第一对象1110和用户生物特征信息的秘密备忘录1115。电子设备100可以彼此对应地存储第一对象1110,接收的用户生物特征信息以及秘密备忘录。
另外,当图像中包括多个对象时,根据实施例的电子设备100可以选择多个对象并存储与多个对象相对应的生物特征信息和秘密备忘录。
参照图14B,电子设备100可以在显示器上显示第二图像1130。在此,第二图像1130可以包括由电子设备100拍摄的图像或预先存储的图像。第二图像1130也可以是从外部设备接收的图像。
当显示第二图像1130时,电子设备100可以识别第二图像1130中包括的多个对象。例如,如图14B所示,电子设备100可以识别第二图像1130中包括的第一对象1110,第二对象1132,第三对象1133和第四对象1134。在这种情况下,在识别的对象当中对应的用户信息被存储的对象可以与其他对象分开显示。
电子设备100可以感测用户的生物特征信息。生物特征信息可以包括但不限于用户的指纹,虹膜,语音,静脉,面部,掌纹,脑电图(EEG),心电图(ECG)和独特动作信息(例如,手势,步态,姿势等)中的至少一个。
当感测到用户的生物特征信息时,电子设备100可以在显示器上显示与识别的对象和感测的用户的生物特征信息匹配的用户信息。例如,如图14C所示,电子设备100可以在显示器上显示与感测的用户的指纹信息和识别的第一对象1110对应的秘密备忘录1115。
图15A至图15C是示出根据实施例的电子设备使用用户信息来控制外部设备的示例的示图。
参照图15A,根据实施例的电子设备100可以拍摄要被控制的外部设备。例如,电子设备100可以拍摄空调,并且可以在显示器110上显示通过拍摄空调而获得的图像(即,空调图像)。已经参照图7A详细描述了拍摄对象的方法,其详细描述将被省略。
电子设备100可以识别显示器110上显示的图像中包括的空调以获取图像信息。另外,如图15B所示,电子设备100可以感测用户的生物特征信息。生物特征信息可以包括但不限于指纹,虹膜,语音,静脉,面部,掌纹,脑电图(EEG),心电图(ECG)和独特动作信息(例如,手势,步态,姿势等)中的至少一个。
当感测到用户的生物特征信息时,电子设备100可以使用与获取的图像信息和感测的用户的生物特征信息匹配的用户信息(例如,外部设备设置信息)来控制外部设备。
例如,如图15C所示,当与“空调”和用户的感测指纹匹配的空调设置信息1220是“将期望温度设置为25℃并且以电力冷却模式操作”时,电子设备100可以将空调的期望温度设置为24℃,并且可以将用于在电力冷却模式下操作的控制命令传送给空调。
图16A至16C是示出根据实施例的电子设备使用用户的设置信息来控制外部设备的示例的示图。
参照图16A,根据实施例的电子设备100可以拍摄要被控制的外部设备。例如,电子设备100可以拍摄保险箱并且可以在显示器110上显示通过拍摄保险箱而获得的图像(即,保险箱图像)。
电子设备100可以识别显示器110上显示的图像中包括的保险箱以获取图像信息。另外,电子设备100可以感测用户的生物特征信息。生物特征信息可以包括但不限于用户的指纹,虹膜,语音,静脉,面部,掌纹,脑电图(EEG),心电图(ECG)和独特动作信息(例如,手势,步态,姿势等)中的至少一个。
当感测到用户的生物特征信息时,电子设备100可以使用与获取的图像信息和感测的用户的生物特征信息匹配的用户信息(例如,外部设备控制信息)来控制外部设备。
例如,当与“保险箱”和用户的感测指纹匹配的保险箱控制信息是“将保险箱的安全传感器去激活”时,根据实施例的电子设备100可以将用于将保险箱的安全传感器去激活的控制命令发送到保险箱。
图17A至17C是示出根据实施例的电子设备使用用户的设置信息来控制外部设备的示例的示图。
参照图17A,根据实施例的电子设备100可以拍摄要被控制的外部设备。例如,电子设备100可以拍摄冰箱并且可以在显示器110上显示通过拍摄冰箱而获得的图像(即,冰箱图像)。
电子设备100可以识别显示器110上显示的图像中包括的冰箱以获取图像信息。另外,如图17B所示,电子设备100可以感测用户的生物特征信息。生物特征信息可以包括但不限于用户的指纹,虹膜,语音,静脉,面部,掌纹,脑电图(EEG),心电图(ECG)和独特动作信息(例如,手势,步态,姿势等)中的至少一个。
当感测到用户的生物特征信息时,电子设备100可以在显示器上显示与获取的图像信息和感测的用户生物特征信息匹配的用户信息(例如,外部设备控制菜单)。例如,如图17C所示,电子设备100可以在显示器110上显示与“冰箱”和感测的用户指纹匹配的冰箱控制面板屏幕1420。
用户可以使用控制面板屏幕1420中包括的控制菜单来设置冰箱的各种功能,诸如温度。电子设备100可以基于从用户接收的冰箱设置信息向冰箱发送控制命令。
图18A至18C是示出根据实施例的电子设备将用户信息发送到外部设备或使用用户信息控制外部设备的示例的示图。
参照图18A,根据实施例的电子设备100可以拍摄要被控制的外部设备。例如,电子设备100可以拍摄电视并且可以在显示器110上显示通过拍摄电视获得的图像(即,电视图像)。
电子设备100可以识别显示器110上显示的图像中包括的电视以获取图像信息。另外,如图18B所示,电子设备100可以感测用户的生物特征信息。生物特征信息可以包括但不限于用户的指纹,虹膜,语音,静脉,面部,掌纹,脑电图(EEG),心电图(ECG)和独特动作信息(例如,手势,步态,姿势等)中的至少一个。
当感测到用户的生物特征信息时,电子设备100可以将与获取的图像信息和感测的用户的生物特征信息相对应的用户信息发送到外部设备。
例如,根据实施例的电子设备100可以存储与用户的生物特征信息相对应的用户的年龄信息。另外,当从图像中识别出“电视”并且感测到用户的生物特征信息时,电子设备100可以将与感测的生物特征信息相对应的用户的年龄信息发送到电视1520。
电视1520可以基于从电子设备100接收的用户的年龄信息来显示推荐内容。电视1520还可以基于用户的年龄信息来提供有限的内容。
例如,当用户的年龄是7岁时,如图18C所示,电视1520可以提供儿童的节目作为推荐内容,或者可以提供儿童的频道作为推荐频道。可选地,当用户的年龄是15岁时,电视可以提供青少年节目作为推荐内容,或者可以提供青少年教育频道作为推荐频道。
另外,当用户的年龄不是成年人的年龄时,电视1520可以执行控制,使得成人内容或成人频道不被显示。
图19A至19C是示出根据实施例的电子设备存储从图像识别的用户信息或将用户信息发送到外部设备的示例的示图。
参照图19A,根据实施例的电子设备100可以拍摄医疗装置。例如,医疗装置1610可以包括血压计,葡萄糖计等。然而,本公开的实施例不限于此。为了便于描述,将假设医疗装置是血压计。
当用户使用血压计测量他/她的血压时,血压计可以显示关于测量的血压的信息1620。电子设备100可以拍摄血压计并且可以在显示器110上显示通过拍摄血压而获得的图像。在这种情况下,所测量的用户的血压信息1620可以被包括在拍摄的图像中。电子设备100可以使用对象识别方法来获取拍摄的图像中包括的用户的血压信息1620。
另外,电子设备100可以感测用户的生物特征信息。生物特征信息可以包括但不限于用户的指纹,虹膜,语音,静脉,面部,掌纹,脑电图(EEG),心电图(ECG)和独特动作信息(例如,手势,步态,姿势等)中的至少一个。
当感测到用户的生物特征信息时,电子设备100可以将获取的血压信息1630显示在显示器110上,并且可以将显示的血压信息存储为与感测的生物特征信息对应的用户的血压信息。
另外,电子设备100可以将用户的血压信息发送到外部服务器1640。在此,外部服务器可以是记录个人健康信息的个人健康记录(PHR)服务器或存储病人的医疗记录的电子医疗记录(EMR)服务器。
图20是示出根据实施例的电子设备的操作方法的流程图。
参照图20,电子设备100可以显示图像(S1810)。
图像可以包括使用电子设备100拍摄的图像,预先存储在电子设备100中的图像或者从外部设备接收的图像。
电子设备100可以分析图像以获取图像信息(S1820)。
电子设备100可以使用对象识别方法来识别图像中包括的对象。当对象被识别时,电子设备100可以获取关于识别的对象的信息作为图像信息。例如,当电子设备100使用对象识别方法识别图像中包括的对象是“门锁”时,电子设备100可以获取图像信息“门锁”。
电子设备100可以感测用户的生物特征信息(S1830)。
根据实施例的电子设备100可以包括用于感测用户的生物特征信息的各种传感器。例如,根据实施例的电子设备100可以包括指纹识别传感器,虹膜识别传感器,语音识别传感器,静脉识别传感器,面部识别传感器,掌纹识别传感器,EEG测量传感器,ECG测量传感器等。然而,本公开的实施例不限于此。电子设备100可以使用各种传感器来感测用户的生物特征信息。
例如,电子设备100可以包括指纹识别区域。当用户用他/她的手指触摸指纹时,电子设备100可以使用指纹识别传感器识别用户的指纹。此外,电子设备100可以识别用户的指纹,虹膜,语音,静脉,面部,掌纹,脑电图(EEG)或心电图(ECG)。
电子设备100可以基于获取的图像信息和感测的生物特征信息来提供用户信息(S1840)。
例如,电子设备100可以执行控制,使得与图像信息和生物特征信息匹配的用户信息显示在显示器110上,或者可以执行控制,使得用户信息被发送到外部设备。另外,电子设备100可以使用用户信息来控制外部设备。根据实施例的用户信息是关于用户的信息,并且可以包括与用户的隐私相关联的信息,诸如用户的身份(ID),密码(门锁密码,账户密码,登录密码等),用户的信用卡信息以及由用户写入的秘密备忘录或秘密日记,用户的设置信息,设备控制信息等。然而,本公开的实施例不限于此。
当没有感测到用户的生物特征信息时,根据实施例的电子设备100可以提供关于从图像识别的对象的信息。例如,除了私人信息之外,电子设备100可以提供从图像识别的公开信息,诸如人的姓名,物体的型号名称和制造商的名称等。
根据实施例的电子设备的用户信息提供方法可以被实现为可由各种计算机执行的程序指令,并且可以被记录在计算机可读记录介质上。计算机可读记录介质可以包括程序指令,数据文件,数据结构等中的任何一个或其组合。记录在记录介质上的程序指令可以被专门设计和配置用于本公开,或者可以公开对计算机软件领域的技术熟练的人员是已知的和可用的。计算机可读记录介质的示例包括磁介质(诸如硬盘,软盘和磁带),光介质(诸如CD-ROM,DVD等),磁光介质(诸如软盘),以及专门配置为存储和执行程序指令的硬件设备(例如ROM,RAM,闪存等)。程序指令的示例不仅包括由编译器等生成的机器码,而且还包括也可以由计算机使用解释器等执行的高级语言代码。
尽管已经详细描述了实施例,但是本公开的范围不限于此,并且本领域技术人员使用在所附权利要求中限定的本公开的基本概念做出的修改和替换落入本公开的范围内。
Claims (15)
1.一种在电子设备中提供用户信息的方法,所述方法包括:
显示图像;
通过分析图像获取图像信息;
感测生物特征信息;以及
基于获取的图像信息和感测的生物特征信息提供用户信息。
2.根据权利要求1所述的方法,还包括:存储与所述图像信息和所述生物特征信息匹配的用户信息。
3.根据权利要求1所述的方法,其中,获取图像信息包括识别图像中包括的至少一个对象以获取识别的对象信息作为所述图像信息。
4.根据权利要求1所述的方法,其中,感测生物特征信息包括感测用户的指纹信息、虹膜信息、语音信息、静脉信息、面部信息、掌纹信息、脑电图(EEG)信息和心电图(ECG)信息中的至少一个。
5.根据权利要求1所述的方法,其中,
获取图像信息包括:
接收用于从所述图像中选择特定区域的触摸输入;以及
分析选择的特定区域以获取所述图像信息,并且
感测生物特征信息包括从触摸输入感测用户指纹信息。
6.根据权利要求1所述的方法,其中,所述用户信息包括用户ID、用户密码、秘密备忘录、秘密日记、设置信息和控制信息中的至少一个。
7.根据权利要求1所述的方法,其中,提供用户信息包括在显示器上显示与所述图像信息和所述生物特征信息匹配的所述用户信息。
8.一种电子设备,包括:
显示器,被配置为显示图像;
感测单元,被配置为感测用户的生物特征信息;以及
控制器,被配置为分析所述图像以获取图像信息,并且被配置为基于获取的图像信息和感测的生物特征信息提供用户信息。
9.根据权利要求8所述的电子设备,还包括:相机,被配置为拍摄至少一个对象以获取所述图像。
10.根据权利要求8所述的电子设备,还包括:存储器,被配置为存储与所述图像信息和所述生物特征信息匹配的所述用户信息。
11.根据权利要求8所述的电子设备,其中,所述控制器识别所述图像中包括的至少一个对象以获取识别的对象信息作为所述图像信息。
12.根据权利要求8所述的电子设备,其中,
所述生物特征信息包括用户的指纹信息、虹膜信息、语音信息、静脉信息、面部信息、掌纹信息、脑电图(EEG)信息和心电图(ECG)信息中的至少一个,并且
所述感测单元包括指纹识别传感器、虹膜识别传感器、语音识别传感器、静脉识别传感器、面部识别传感器、掌纹识别传感器,EEG测量传感器和ECG测量传感器中的至少一个。
13.根据权利要求8所述的电子设备,其中,
所述显示器包括触摸屏和所述感测单元,
所述触摸屏接收用于从所述图像中选择特定区域的触摸输入,
所述感测单元从所述触摸输入中感测用户指纹信息,以及
所述控制器分析选择的特定区域以获取所述图像信息。
14.根据权利要求8所述的电子设备,其中,所述用户信息包括用户ID、用户密码、秘密备忘录、秘密日记、设置信息和控制信息中的至少一个。
15.根据权利要求8所述的电子设备,其中,所述控制器执行控制,使得在所述显示器上显示与所述图像信息和所述生物特征信息匹配的所述用户信息。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2015-0175344 | 2015-12-09 | ||
KR1020150175344A KR102409903B1 (ko) | 2015-12-09 | 2015-12-09 | 사용자 정보를 제공하는 전자 장치 및 방법 |
PCT/KR2016/005693 WO2017099314A1 (ko) | 2015-12-09 | 2016-05-30 | 사용자 정보를 제공하는 전자 장치 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109074435A true CN109074435A (zh) | 2018-12-21 |
CN109074435B CN109074435B (zh) | 2022-01-28 |
Family
ID=59014273
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680071773.6A Expired - Fee Related CN109074435B (zh) | 2015-12-09 | 2016-05-30 | 用于提供用户信息的电子设备和方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10984082B2 (zh) |
EP (1) | EP3367277A4 (zh) |
KR (1) | KR102409903B1 (zh) |
CN (1) | CN109074435B (zh) |
WO (1) | WO2017099314A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111638787A (zh) * | 2020-05-29 | 2020-09-08 | 百度在线网络技术(北京)有限公司 | 用于展示信息的方法和装置 |
CN113330433A (zh) * | 2019-01-08 | 2021-08-31 | 三星电子株式会社 | 用于认证用户的方法及其电子设备 |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3403146A4 (en) * | 2016-01-15 | 2019-08-21 | iRobot Corporation | AUTONOMOUS MONITORING ROBOT SYSTEMS |
CN108120200B (zh) * | 2017-12-15 | 2020-10-20 | 南京百伦斯智能科技有限公司 | 基于数据处理的智能生物实验柜 |
KR102456509B1 (ko) | 2018-01-03 | 2022-10-19 | 삼성전자주식회사 | 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록 매체 |
KR102476619B1 (ko) | 2018-01-31 | 2022-12-12 | 삼성전자주식회사 | 전자 장치 및 이의 제어 방법 |
KR102500624B1 (ko) * | 2018-02-01 | 2023-02-16 | 라인플러스 주식회사 | 얼굴 인식에 기초하여 정보를 제공하는 방법과 시스템 및 비-일시적인 컴퓨터 판독 가능한 기록 매체 |
US11468719B2 (en) * | 2018-09-18 | 2022-10-11 | Assa Abloy Ab | Matching an user taken image with access control apparatus references for physical access control |
CN109697343B (zh) * | 2018-12-28 | 2021-08-17 | 联想(北京)有限公司 | 验证方法及系统、计算机系统 |
US12008544B2 (en) * | 2019-01-14 | 2024-06-11 | Vadim Nikolaevich ALEKSANDROV | Method for performing a contactless payment transaction |
KR20220014095A (ko) * | 2020-07-28 | 2022-02-04 | 삼성에스디에스 주식회사 | 블록체인 기반의 데이터 분산 관리 방법 및 이를 위한 장치 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102346642A (zh) * | 2010-07-29 | 2012-02-08 | Lg电子株式会社 | 移动终端和控制移动终端的操作的方法 |
CN102404444A (zh) * | 2010-09-16 | 2012-04-04 | Lg电子株式会社 | 移动终端、电子系统以及使用其传送和接收数据的方法 |
US20130026220A1 (en) * | 2011-07-26 | 2013-01-31 | American Power Conversion Corporation | Apparatus and method of displaying hardware status using augmented reality |
EP2680190A2 (en) * | 2012-06-26 | 2014-01-01 | Google Inc. | Facial recognition |
US20140337634A1 (en) * | 2013-05-08 | 2014-11-13 | Google Inc. | Biometric Authentication Substitute For Passwords On A Wearable Computing Device |
CN104331654A (zh) * | 2014-10-27 | 2015-02-04 | 深圳市汇顶科技股份有限公司 | 基于生物特征识别的操作方法和装置 |
CN104823434A (zh) * | 2013-11-15 | 2015-08-05 | Lg电子株式会社 | 移动终端及其控制方法 |
EP3090423A1 (en) * | 2013-12-31 | 2016-11-09 | Daqri, LLC | Physical object discovery |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006072714A (ja) * | 2004-09-02 | 2006-03-16 | Dainippon Printing Co Ltd | 電子書籍販売システム |
JP4967259B2 (ja) * | 2005-06-14 | 2012-07-04 | 船井電機株式会社 | 制御装置及び被制御機器 |
US9014685B2 (en) * | 2009-06-12 | 2015-04-21 | Microsoft Technology Licensing, Llc | Mobile device which automatically determines operating mode |
US8744522B2 (en) | 2009-10-21 | 2014-06-03 | Xerox Corporation | Portable security system built into cell phones |
KR101175174B1 (ko) | 2010-08-20 | 2012-08-23 | 주식회사에어플러그 | 실물의 이미지를 매개로 하여 정보를 전달하는 방법 및 장치 |
JP5620287B2 (ja) * | 2010-12-16 | 2014-11-05 | 株式会社オプティム | ユーザインターフェースを変更する携帯端末、方法及びプログラム |
US9262612B2 (en) * | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
KR101259546B1 (ko) * | 2011-11-04 | 2013-04-30 | 주식회사 아이레보 | 스마트키 서비스 제공 방법 |
KR101851239B1 (ko) * | 2011-11-08 | 2018-04-23 | 삼성전자 주식회사 | 휴대단말기의 이미지 표현장치 및 방법 |
ES2687748T3 (es) | 2012-02-24 | 2018-10-29 | Nant Holdings Ip Llc | Activación de contenido por medio de autenticación basada en interacciones, sistemas y método |
US9323912B2 (en) * | 2012-02-28 | 2016-04-26 | Verizon Patent And Licensing Inc. | Method and system for multi-factor biometric authentication |
KR101371639B1 (ko) | 2012-07-05 | 2014-03-25 | 이윤택 | 운전자 생체인식 시스템 및 그 운용방법 |
CA3202407A1 (en) * | 2012-08-24 | 2014-02-27 | Samsung Electronics Co., Ltd. | Apparatus and method for providing interaction information by using image on device display |
KR101942839B1 (ko) * | 2012-10-31 | 2019-01-29 | 삼성전자주식회사 | 에이전트 장치, 전기기기 및 그의 제어 방법 |
US9111073B1 (en) | 2012-11-19 | 2015-08-18 | Trend Micro Inc. | Password protection using pattern |
WO2014087406A1 (en) * | 2012-12-05 | 2014-06-12 | Inuitive Ltd. | Method and system for remote controlling |
KR20150029253A (ko) * | 2013-09-09 | 2015-03-18 | 삼성전자주식회사 | 사용자를 자동으로 인증하는 방법 및 이를 위한 전자 장치 |
KR20150078266A (ko) * | 2013-12-30 | 2015-07-08 | 삼성전자주식회사 | 디지털 촬영 장치 및 이를 제어하는 방법 |
KR20150089283A (ko) | 2014-01-27 | 2015-08-05 | 엘지전자 주식회사 | 웨어러블 단말기 및 이를 포함하는 시스템 |
KR20150106229A (ko) * | 2014-03-11 | 2015-09-21 | 삼성전자주식회사 | 사용자를 인증하는 장치 및 방법 |
KR102315921B1 (ko) * | 2014-03-21 | 2021-10-22 | 삼성전자주식회사 | 생체 정보를 이용하여 파일을 실행하는 시스템 및 방법 |
US9672405B2 (en) * | 2014-05-30 | 2017-06-06 | Egis Technology Inc. | Electronic device and fingerprint recognition method |
KR102217238B1 (ko) * | 2014-07-23 | 2021-02-18 | 엘지전자 주식회사 | 원격제어장치 및 그의 동작 방법 |
KR102287160B1 (ko) * | 2014-07-31 | 2021-08-06 | 엘지전자 주식회사 | 웨어러블 디바이스 및 그것의 제어방법 |
US9465930B2 (en) * | 2014-08-29 | 2016-10-11 | Dropbox, Inc. | Fingerprint gestures |
JP6077191B1 (ja) * | 2015-04-30 | 2017-02-08 | 真旭 徳山 | 端末装置およびコンピュータプログラム |
KR102439938B1 (ko) * | 2015-08-03 | 2022-09-05 | 삼성전자주식회사 | 사용자 인증을 위한 멀티-모달 퓨전 방법 및 사용자 인증 방법 |
CN105205374A (zh) * | 2015-08-27 | 2015-12-30 | 广东欧珀移动通信有限公司 | 一种应用程序加密方法及用户终端 |
KR102401170B1 (ko) * | 2015-10-21 | 2022-05-24 | 삼성전자주식회사 | 복합 인증 장치 및 방법 |
KR20170058839A (ko) * | 2015-11-19 | 2017-05-29 | 한국전자통신연구원 | 부가 영상 객체 기반의 음향 객체 제어 장치 및 방법 |
-
2015
- 2015-12-09 KR KR1020150175344A patent/KR102409903B1/ko active IP Right Grant
-
2016
- 2016-05-30 CN CN201680071773.6A patent/CN109074435B/zh not_active Expired - Fee Related
- 2016-05-30 WO PCT/KR2016/005693 patent/WO2017099314A1/ko unknown
- 2016-05-30 EP EP16873180.0A patent/EP3367277A4/en not_active Withdrawn
- 2016-05-30 US US15/778,818 patent/US10984082B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102346642A (zh) * | 2010-07-29 | 2012-02-08 | Lg电子株式会社 | 移动终端和控制移动终端的操作的方法 |
CN102404444A (zh) * | 2010-09-16 | 2012-04-04 | Lg电子株式会社 | 移动终端、电子系统以及使用其传送和接收数据的方法 |
US20130026220A1 (en) * | 2011-07-26 | 2013-01-31 | American Power Conversion Corporation | Apparatus and method of displaying hardware status using augmented reality |
EP2680190A2 (en) * | 2012-06-26 | 2014-01-01 | Google Inc. | Facial recognition |
US20140337634A1 (en) * | 2013-05-08 | 2014-11-13 | Google Inc. | Biometric Authentication Substitute For Passwords On A Wearable Computing Device |
US9979547B2 (en) * | 2013-05-08 | 2018-05-22 | Google Llc | Password management |
CN104823434A (zh) * | 2013-11-15 | 2015-08-05 | Lg电子株式会社 | 移动终端及其控制方法 |
EP3090423A1 (en) * | 2013-12-31 | 2016-11-09 | Daqri, LLC | Physical object discovery |
CN104331654A (zh) * | 2014-10-27 | 2015-02-04 | 深圳市汇顶科技股份有限公司 | 基于生物特征识别的操作方法和装置 |
Non-Patent Citations (1)
Title |
---|
SIMON MAYER ET AL: "Conversations with connected vehicles", 《2015 5TH INTERNATIONAL CONFERENCE ON THE INTERNET OF THINGS (IOT)》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113330433A (zh) * | 2019-01-08 | 2021-08-31 | 三星电子株式会社 | 用于认证用户的方法及其电子设备 |
CN111638787A (zh) * | 2020-05-29 | 2020-09-08 | 百度在线网络技术(北京)有限公司 | 用于展示信息的方法和装置 |
CN111638787B (zh) * | 2020-05-29 | 2023-09-01 | 百度在线网络技术(北京)有限公司 | 用于展示信息的方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
EP3367277A1 (en) | 2018-08-29 |
KR20170068305A (ko) | 2017-06-19 |
US20180357400A1 (en) | 2018-12-13 |
CN109074435B (zh) | 2022-01-28 |
WO2017099314A1 (ko) | 2017-06-15 |
US10984082B2 (en) | 2021-04-20 |
KR102409903B1 (ko) | 2022-06-16 |
EP3367277A4 (en) | 2018-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109074435A (zh) | 用于提供用户信息的电子设备和方法 | |
US11100208B2 (en) | Electronic device and method for controlling the same | |
US11153431B2 (en) | Mobile terminal and method of operating the same | |
US10185883B2 (en) | Mobile terminal and method for controlling same | |
US9286482B1 (en) | Privacy control based on user recognition | |
US8600120B2 (en) | Personal computing device control using face detection and recognition | |
US9706406B1 (en) | Security measures for an electronic device | |
US9962128B2 (en) | Watch type terminal and method for controlling the same | |
US20200026939A1 (en) | Electronic device and method for controlling the same | |
US10360440B2 (en) | Mobile terminal and control method thereof | |
WO2015175964A1 (en) | Wearable devices for courier processing and methods of use thereof | |
US10782651B2 (en) | Image capture to provide advanced features for configuration of a wearable device | |
US10769413B2 (en) | Mobile terminal and control method thereof | |
CN108464020A (zh) | 用于使用近场通信提供信息的系统和方法 | |
US10803159B2 (en) | Electronic device and method for controlling the same | |
KR102082418B1 (ko) | 전자 장치 및 그 제어 방법 | |
KR102708688B1 (ko) | 전자 장치 및 그 제어 방법 | |
EP3438861B1 (en) | Electronic device and method for superimposing password hint on biometric image | |
US20240214208A1 (en) | Techniques for providing a digital keychain for physical objects |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20220128 |
|
CF01 | Termination of patent right due to non-payment of annual fee |