KR20230002728A - 정보 처리 방법 및 전자기기 - Google Patents

정보 처리 방법 및 전자기기 Download PDF

Info

Publication number
KR20230002728A
KR20230002728A KR1020227039760A KR20227039760A KR20230002728A KR 20230002728 A KR20230002728 A KR 20230002728A KR 1020227039760 A KR1020227039760 A KR 1020227039760A KR 20227039760 A KR20227039760 A KR 20227039760A KR 20230002728 A KR20230002728 A KR 20230002728A
Authority
KR
South Korea
Prior art keywords
wearable device
face image
target information
image
account
Prior art date
Application number
KR1020227039760A
Other languages
English (en)
Inventor
빈 왕
용항 시앙
Original Assignee
비보 모바일 커뮤니케이션 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 비보 모바일 커뮤니케이션 컴퍼니 리미티드 filed Critical 비보 모바일 커뮤니케이션 컴퍼니 리미티드
Publication of KR20230002728A publication Critical patent/KR20230002728A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/44Program or device authentication
    • G06F21/445Program or device authentication by mutual authentication, e.g. between devices or programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/45Structures or tools for the administration of authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/06Protocols specially adapted for file transfer, e.g. file transfer protocol [FTP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Business, Economics & Management (AREA)
  • Optics & Photonics (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명의 실시예에 따른 정보 처리 방법 및 전자기기를 제공하며, 상기 방법은 제1 웨어러블 기기에 적용될 수 있고, 상기 제1 웨어러블 기기는 제1 이미지 수집기를 포함하고, 상기 방법은, 상기 제1 웨어러블 기기와 제2 웨어러블 기기가 사전설정 위치 관계를 충족하는 경우, 상기 제1 이미지 수집기를 통해 제2 얼굴 이미지를 획득하고, 상기 제2 웨어러블 기기로부터의 제1 얼굴 이미지를 수신하는 단계; 상기 제1 얼굴 이미지와 상기 제2 얼굴 이미지가 매칭되는 경우, 상기 제2 웨어러블 기기로부터의 제1 타겟 정보를 처리하는 단계; 를 포함한다.

Description

정보 처리 방법 및 전자기기
본 출원은 2020년 4월 20일자로 중국에서 출원된 중국 특허출원번호가 202010310971.1인 특허출원의 우선권을 주장하며, 그 전체가 참조로서 본원에 포함된다.
본 발명은 통신기술 분야에 관한 것으로, 특히 정보 처리 방법 및 전자기기에 관한 것이다.
종래 기술에서, 두 개의 전자기기 사이에서 데이터 전송이 수행될 때, 데이터 전송의 요청자(one party)는 먼저 상대방(the other party)의 신원 정보(예: 아이디 이름, 아이디 QR코드 등)를 획득한 후 전자기기에서 데이터에 대한 일련의 터치 입력(예: 신원인증을 위한 상대방의 신원 정보 입력)을 통해 데이터를 상대방 전자기기에 전송해야 한다.
이로부터 전자기기를 이용하여 데이터를 전송할 때 데이터 전송 과정의 조작 복잡도가 증가된다는 것을 알 수 있다.
본 발명의 실시예는 종래 기술에서 전자기기를 이용하여 데이터를 전송할 때 데이터 전송 과정의 조작 복잡도가 증가되는 문제를 해결하기 위한 정보 처리 방법 및 전자기기를 제공한다.
상기와 같은 기술적 문제를 해결하기 위해 본 발명의 실시예는 다음과 같이 구현된다.
제1 양상에서, 본 발명의 실시예는 제1 웨어러블 기기(wearable device)에 적용되는 정보 처리 방법을 제공함에 있어서, 상기 제1 웨어러블 기기는 제1 이미지 수집기를 포함하고, 상기 방법은,
상기 제1 웨어러블 기기와 제2 웨어러블 기기가 사전설정(preset) 위치 관계를 충족하는 경우, 상기 제1 이미지 수집기를 통해 제2 얼굴 이미지를 획득하고, 상기 제2 웨어러블 기기로부터의 제1 얼굴 이미지를 수신하는 단계;
상기 제1 얼굴 이미지와 상기 제2 얼굴 이미지가 매칭되는 경우, 상기 제2 웨어러블 기기로부터의 제1 타겟 정보를 처리하는 단계; 를 포함한다.
제2 양상에서, 본 발명의 실시예는 전자기기를 제공함에 있어서, 상기 전자기기는 제1 웨어러블 기기이고, 상기 제1 웨어러블 기기는 제1 이미지 수집기를 포함하고, 상기 전자기기는,
상기 제1 웨어러블 기기와 제2 웨어러블 기기가 사전설정 위치 관계를 충족하는 경우, 상기 제1 이미지 수집기를 통해 제2 얼굴 이미지를 획득하고, 상기 제2 웨어러블 기기로부터의 제1 얼굴 이미지를 수신하는 수신 모듈;
상기 제1 얼굴 이미지와 상기 제2 얼굴 이미지가 매칭되는 경우, 상기 제2 웨어러블 기기로부터의 제1 타겟 정보를 처리하는 제1 처리 모듈; 을 포함한다.
제3 양상에서, 본 발명의 실시예는 전자기기를 제공함에 있어서, 상기 전자기기는 제2 웨어러블 기기이고, 상기 제2 웨어러블 기기는 제2 이미지 수집기를 포함하고, 상기 전자기기는,
상기 제2 웨어러블 기기와 제1 웨어러블 기기가 사전설정 위치 관계를 충족하는 경우, 상기 제1 웨어러블 기기에 제1 타겟 정보를 송신하는 송신 모듈을 포함하되, 여기서 상기 제1 타겟 정보는 제1 얼굴 이미지를 포함하고,
상기 사전설정 위치 관계는,
상기 제2 웨어러블 기기가 상기 제1 웨어러블 기기의 제1 이미지 수집기의 초점 영역 내에 위치하는 것;
상기 제1 웨어러블 기기와 상기 제2 웨어러블 기기 사이의 거리가 사전설정 거리보다 작거나 같은 것; 중 적어도 하나를 포함한다.
제4 양상에서, 본 발명의 실시예는 전자기기를 제공함에 있어서, 프로세서, 메모리, 및 상기 메모리에 저장되고 상기 프로세서에서 실행될 수 있는 컴퓨터 프로그램을 포함하며, 상기 컴퓨터 프로그램이 상기 프로세서에 의해 실행될 때 본 발명의 실시예의 제1 양상에 의한 정보 처리 방법의 단계를 구현한다.
제5 양상에서, 본 발명의 실시예는 컴퓨터 판독가능 저장 매체를 제공함에 있어서, 상기 컴퓨터 판독가능 저장 매체에는 컴퓨터 프로그램이 저장되어 있고, 상기 컴퓨터 프로그램이 상기 프로세서에 의해 실행될 때 본 발명의 실시예의 제1 양상에 의한 정보 처리 방법의 단계를 구현한다.
제6 양상에서, 본 발명의 실시예는 컴퓨터 소프트웨어 제품을 제공함에 있어서, 상기 컴퓨터 소프트웨어 제품은 비휘발성 저장 매체에 저장되고, 상기 소프트웨어 제품은 적어도 하나의 프로세서에 의해 실행됨으로써 본 발명의 실시예의 제1 양상에 의한 정보 처리 방법의 단계를 구현하도록 구성된다.
제7 양상에서, 본 발명의 실시예는 전자기기를 제공함에 있어서, 상기 전자기기는 본 발명의 실시예의 제1 양상에 의한 정보 처리 방법을 수행하도록 구성된다.
본 발명의 실시예에 따른 정보 처리 방법은 제1 웨어러블 기기에 적용되고, 상기 제1 웨어러블 기기는 제1 이미지 수집기를 포함하고, 상기 방법은, 상기 제1 웨어러블 기기와 제2 웨어러블 기기가 사전설정 위치 관계를 충족하는 경우, 상기 제1 이미지 수집기를 통해 제2 얼굴 이미지를 획득하고, 상기 제2 웨어러블 기기로부터의 제1 얼굴 이미지를 수신하는 단계; 상기 제1 얼굴 이미지와 상기 제2 얼굴 이미지가 매칭되는 경우, 상기 제2 웨어러블 기기로부터의 제1 타겟 정보를 처리하는 단계; 를 포함한다.
본 발명의 실시예에서, 제1 웨어러블 기기의 제1 이미지 수집기에 의해 획득된 얼굴 이미지와 제2 웨어러블 기기로부터 수신된 요청 정보 내의 얼굴 이미지를 매칭시키고, 매칭 성공이면 제1 이미지 수집기에 의해 획득된 얼굴 이미지가 요청 정보를 송신한 제2 웨어러블 기기에 대응하는 사용자의 얼굴 이미지인 것으로 결정하고, 상기 제2 웨어러블 기기로부터의 제1 타겟 정보를 처리할 수 있으며, 이로써 웨어러블 기기를 이용하여 데이터 인터랙션 동작을 구현할 수 있으므로 전자기기에서 번거로운 조작을 수행할 필요가 없게 되고 정보 처리 방법의 조작 편의성이 향상된다.
본 발명의 실시예의 기술적 솔루션을 보다 명확하게 설명하기 위해, 이하 본 발명의 실시예 또는 종래 기술을 설명함에 있어서 필요한 도면에 대해 간단하게 소개하도록 하며, 여기에 설명된 도면은 본 발명의 일부 실시예에 불과하며, 당업자라면 본 발명의 실시예를 기반으로 창의적인 노력 없이 이러한 도면에 근거하여 다른 도면도 얻을 수 있음이 분명하다.
도 1은 본 발명의 실시예에 따른 첫 번째 정보 처리 방법의 흐름도이다.
도 2는 본 발명의 실시예에 따른 첫 번째 정보 처리 방법의 적용 시나리오의 개략도 1이다.
도 3은 본 발명의 실시예에 따른 첫 번째 정보 처리 방법의 적용 시나리오의 개략도 2이다.
도 4는 본 발명의 실시예에 따른 두 번째 정보 처리 방법의 흐름도이다.
도 5a는 본 발명의 실시예에 따른 첫 번째 정보 처리 방법과 두 번째 정보 처리 방법의 조합의 적용 시나리오의 개략도이다.
도 5b는 도 5a에 도시된 적용 시나리오에서 데이터 인터랙션 절차의 흐름도이다.
도 6은 본 발명의 실시예에 따른 제1 전자기기의 구조도 1이다.
도 7은 본 발명의 실시예에 따른 제1 전자기기의 구조도 2이다.
도 8은 본 발명의 실시예에 따른 제1 전자기기의 구조도 3이다.
도 9는 본 발명의 실시예에 따른 제2 전자기기의 구조도 1이다.
도 10은 본 발명의 실시예에 따른 제2 전자기기의 구조도 2이다.
도 11은 본 발명의 실시예에 따른 제3 전자기기의 구조도이다.
이하, 본 발명의 실시예에 첨부된 도면을 결부하여 본 발명의 실시예의 기술적 솔루션에 대해 명확하고 온전하게 설명하며, 여기에 설명된 실시예는 본 발명의 모든 실시예가 아니라 일부 실시예에 불과함이 분명하다. 본 발명의 기술 분야의 통상의 지식을 가진 자가 본 발명의 실시예를 기반으로 창의적인 노력 없이 얻은 다른 실시예들은 모두 본 발명의 보호 범위에 속한다.
도 1을 참조하면, 도 1은 본 발명의 실시예에 따른 첫 번째 정보 처리 방법의 흐름도이고, 이 방법은 제1 웨어러블 기기에 적용되고, 상기 제1 웨어러블 기기는 제1 이미지 수집기를 포함하고, 도 1에 도시된 바와 같이, 이 방법은 다음 단계들을 포함한다.
단계 101: 상기 제1 웨어러블 기기와 제2 웨어러블 기기가 사전설정 위치 관계를 충족하는 경우, 상기 제1 이미지 수집기를 통해 제2 얼굴 이미지를 획득하고, 상기 제2 웨어러블 기기로부터의 제1 얼굴 이미지를 수신한다.
구체적인 구현에서, 상기 제1 웨어러블 기기와 제2 웨어러블 기기는 스마트 안경, 스마트 헬멧, 스마트 밴드 및 스마트 반지 등과 같은 임의의 웨어러블 기기일 수 있다. 또한, 상기 제1 및 제2는 상이한 웨어러블 기기를 구별하기 위해서만 사용된다. 구체적인 구현에서, 상기 제1 웨어러블 기기와 제2 웨어러블 기기는 동일한 모델 또는 유형의 상이한 웨어러블 기기일 수 있다. 즉 제1 웨어러블 기기는 기타 웨어러블 기기에 얼굴 이미지를 송신할 수 있다.
상기 사전설정 상대 위치에서, 상기 제1 웨어러블 기기의 제1 이미지 수집기는 상기 제2 웨어러블 기기를 착용한 사용자의 얼굴 이미지를 촬영할 수 있고, 제1 웨어러블 기기와 제2 웨어러블 기기는 유효 통신거리에 있다.
구체적으로, 제1 웨어러블 기기와 제2 웨어러블 기기에는 무선 모바일 네트워크 통신 또는 블루투스 통신 등과 같은 무선통신을 지원하기 위한 무선통신 모듈이 설치될 수 있으며, 이 경우 제1 웨어러블 기기와 제2 웨어러블 기기가 사전설정 상대 위치에 있다는 것은, 제1 웨어러블 기기와 제2 웨어러블 기기 사이의 거리가 이 둘의 무선통신 모듈의 유효 통신거리보다 작거나 같다는 것을 의미할 수 있다. 구현에서, 제1 웨어러블 기기에는 적외선 거리 측정장치와 같은 거리 측정장치가 설치될 수 있다. 구체적으로, 도 2에 도시된 바와 같이, 제1 웨어러블 기기와 제2 웨어러블 기기는 모두 스마트 안경일 수 있으며, 여기서 제1 스마트 안경에는 제1 적외선 송신기와 제1 적외선 수신기가 설치되고, 제2 스마트 안경에는 제2 적외선 송신기와 제2 적외선 수신기가 설치된다. 이로써, 제1 적외선 송신기와 제2 적외선 송신기가 적외선 파를 송신하도록 제어할 수 있으며, 제1 스마트 안경은 제1 적외선 수신기가 제2 적외선 송신기에 의해 송신된 적외선 파를 수신한 시간에 따라 제1 스마트 안경과 제2 스마트 안경 사이의 거리를 산출할 수 있고, 제2 스마트 안경은 제2 적외선 수신기가 제1 적외선 송신기에 의해 송신된 적외선 파를 수신한 시간에 제1 스마트 안경과 제2 스마트 안경 사이의 거리를 산출할 수 있다.
일 선택적인 구현 방식으로서, 상기 사전설정 위치 관계는,
상기 제2 웨어러블 기기가 상기 제1 이미지 수집기의 초점 영역 내에 위치하는 것;
상기 제1 웨어러블 기기와 상기 제2 웨어러블 기기 사이의 거리가 사전설정 거리보다 작거나 같은 것; 중 적어도 하나를 포함한다.
구체적인 구현에서, 제1 이미지 수집기의 초점은 제1 이미지 수집기 촬영 화면의 중심 영역일 수 있다. 예컨대, 제1 이미지 수집기 촬영 화면의 중심점이다. 본 구현 방식에서, 상기 초점은 상기 제2 웨어러블 기기가 위치한 위치 영역 내에 위치하며, 이는 상기 촬영 초점이 제1 이미지 수집기에 의해 촬영된 상기 제2 웨어러블 기기를 착용한 사용자의 얼굴 이미지 내에 위치함을 의미한다.
실제 응용에서, 상기 제1 웨어러블 기기와 제2 웨어러블 기기가 사전설정 위치 관계를 충족하기 전에, 제1 웨어러블 기기를 착용한 사용자에게 제1 웨어러블 기기와 제2 웨어러블 기기가 사전설정 위치 관계를 충족하도록 자세를 조정하라고 프롬프팅하기 위한 프롬프트 정보를 출력할 수도 있다.
구체적인 구현에서, 상기 사전설정 거리는 상기 제1 웨어러블 기기의 유효 통신거리와 상기 제2 웨어러블 기기의 유효 통신거리 중 최소값일 수 있다. 본 구현 방식에서, 상기 제1 웨어러블 기기와 상기 제2 웨어러블 기기 사이의 거리는 사전설정 거리보다 작거나 같으며, 이는 제1 웨어러블 기기와 제2 웨어러블 기기 간의 무선 데이터 전송을 보장할 수 있다.
또한, 상기 사전설정 위치 관계는, 상기 제1 이미지 수집기가 상기 제2 웨어러블 기기를 착용한 사용자의 얼굴 이미지를 수집할 수 있는 것, 즉 제1 이미지 수집기가 상기 제2 웨어러블 기기를 착용한 사용자의 얼굴을 마주하고 있는 것을 더 포함할 수 있으며, 제1 웨어러블 기기가 제1 스마트 안경인 것으로 예를 들면, 본 구현 방식에서, 제1 스마트 안경의 제1 이미지 수집기는 제1 스마트 안경의 전방을 향하며, 제1 스마트 안경을 착용한 사용자가 상기 제2 웨어러블 기기를 착용한 사용자의 얼굴을 바라볼 때, 상기 제1 이미지 수집기가 상기 제2 웨어러블 기기를 착용한 사용자의 얼굴 이미지를 수집할 수 있는 것으로 결정할 수 있다.
본 구현 방식에서, 상기 제1 웨어러블 기기와 상기 제2 웨어러블 기기가 상기 사전설정 위치 관계를 충족하는 경우, 제1 웨어러블 기기의 제1 이미지 수집기가 완전한 제2 이미지를 촬영하고, 제2 웨어러블 기기에 의해 송신된 제1 얼굴 이미지를 수신할 수 있도록 보장될 수 있어, 상기 정보 처리 방법의 신뢰성이 향상된다.
또한, 상기 제1 웨어러블 기기와 제2 웨어러블 기기가 사전설정 위치 관계를 충족하는 경우, 상기 제1 이미지 수집기를 통해 제2 얼굴 이미지를 획득하고, 상기 제2 웨어러블 기기로부터의 제1 얼굴 이미지를 수신하는 단계는, 상기 제1 웨어러블 기기와 제2 웨어러블 기기가 사전설정 위치 관계를 충족하고 상기 사전설정 위치 관계가 제1 사전설정 시간 동안 유지되는 경우, 상기 제1 이미지 수집기를 통해 제2 얼굴 이미지를 획득하고, 상기 제2 웨어러블 기기로부터의 제1 얼굴 이미지를 수신하는 단계일 수도 있다.
여기서, 상기 제1 사전설정 시간은 3초, 5초 등과 같은 임의의 기간일 수 있고, 이 기간은 사용자의 사전설정 값에 따라 변경될 수 있다.
본 구현 방식에서, 상기 제1 얼굴 이미지와 상기 제2 얼굴 이미지를 매칭시키기 전에, 제1 웨어러블 기기를 착용한 사용자가 얼굴 매칭 절차를 잘못 트리거함으로 인해 타겟 데이터의 송신이 잘못 트리거되는 것을 피하기 위해 타겟 제1 웨어러블 기기와 제2 웨어러블 기기 사이의 상대 위치 및 지속시간을 검출함으로써, 상기 정보 처리 방법의 신뢰성을 향상시킬 수 있다.
단계 102: 상기 제1 얼굴 이미지와 상기 제2 얼굴 이미지가 매칭되는 경우, 상기 제2 웨어러블 기기로부터의 제1 타겟 정보를 처리한다.
제1 웨어러블 기기와 제2 웨어러블 기기가 사전설정 상대 위치에 있는 경우, 상기 제1 이미지 수집기는 상기 제2 웨어러블 기기를 착용한 사용자의 얼굴 이미지를 수집할 수 있음을 이해할 수 있다. 즉, 상기 제2 얼굴 이미지는 상기 제2 웨어러블 기기를 착용한 사용자의 얼굴 이미지이다. 구체적인 구현에서, 제1 이미지 수집기가 제2 얼굴 이미지를 수집할 때, 제1 웨어러블 기기를 착용한 사용자에게 제1 이미지 수집기가 상기 제2 웨어러블 기기를 착용한 사용자의 얼굴 이미지를 수집할 수 있도록 자세를 보정하라고 프롬프팅하기 위한 프롬프트 정보를 제1 웨어러블 기기의 표시 장치, 스피커 등을 통해 출력할 수도 있다. 예컨대, 도 3에 도시된 바와 같이, 본 실시예에서 제1 웨어러블 기기는 스마트 안경(30)이고, 이 스마트 안경(30)의 제1 이미지 수집기는 카메라(31)이고, 이 카메라(31)에 의해 촬영된 이미지는 스마트 안경의 표시 렌즈(32)에 표시된다. 구체적인 구현에서, 카메라(31) 촬영 화면의 초점 이미지(311)는 상기 표시 렌즈(32)의 중심 영역(321)에 표시되고, 이 중심 영역(321)에 표시된 제2 웨어러블 기기를 착용한 사용자의 얼굴이 완전하지 않거나 뚜렷하기 않을 때, 뚜렷하고 완전한 얼굴 이미지를 위해 표시 렌즈(32) 상에 “왼쪽으로 돌리세요”, “위로 돌리세요” 등과 같은 프롬프트 정보를 표시하여, 스마트 안경을 착용한 사용자가 머리를 돌려 스마트 안경(30)의 카메라(31)의 촬영 초첨을 조정하여 카메라의 촬영 초점을 제2 웨어러블 기기를 착용한 사용자의 얼굴 이미지에 맞추도록 프롬프팅할 수 있다. 본 실시예에서, 카메라(31) 촬영 화면의 초점 이미지(311)는 제2 웨어러블 기기를 착용한 사용자의 얼굴 이미지, 즉 제2 얼굴 이미지를 포함한다.
구체적인 구현에서, 제1 웨어러블 기기에는 얼굴인식 장치가 구성될 수 있으며, 이를 통해 상기 제1 얼굴 이미지와 상기 제2 얼굴 이미지에 대해 얼굴인식을 수행하고, 얼굴인식 결과를 비교하여 상기 제1 얼굴 이미지와 상기 제2 얼굴 이미지가 동일한 사람의 얼굴 이미지인지를 결정하며, 상기 제1 얼굴 이미지와 상기 제2 얼굴 이미지가 동일한 사람의 얼굴 이미지인 경우, 제1 얼굴 이미지와 제2 얼굴 이미지가 매칭되는 것으로 결정한다.
또한, 상기 제1 타겟 정보는 친구추가 요청, 타겟 데이터 송신 요청, 통화 요청 등 임의의 요청 정보일 수 있다. 구체적인 구현에서, 제1 타겟 정보는 소셜 애플리케이션, 클라우드 애플리케이션 등과 같은 애플리케이션을 통해 송신될 수 있다. 이 경우, 상기 제1 계정은 이 애플리케이션에 해당하는 계정일 수 있다. 예컨대, 소셜 애플리케이션을 통해 데이터 인터랙션을 수행할 때, 상기 계정은 제2 웨어러블 기기 소유자가 이 소셜 애플리케이션을 등록할 때 사용한 휴대폰 번호 또는 이 소셜 애플리케이션을 등록할 때 결정된 등록 아이디(identifier, ID) 등일 수 있다. 또한, 상기 제1 얼굴 이미지는 제1 계정과 연관된 얼굴 이미지이다. 구체적인 구현에서, 상기 제1 얼굴 이미지는 제2 웨어러블 기기 소유자의 얼굴 이미지일 수 있고, 상기 제1 얼굴 이미지는 제2 웨어러블 기기 소유자가 제2 웨어러블 기기에 대해 초기화 검증을 수행할 때 제2 웨어러블 기기에 저장되거나, 상기 애플리케이션 등록 절차의 얼굴 검증 단계에서 촬영되어 제2 웨어러블 기기에 저장될 수 있다.
구체적인 구현에서, 상기 제1 타겟 정보가 음성 통화 요청인 경우, 상기 제2 웨어러블 기기로부터의 제1 타겟 정보에 대한 처리는 제2 웨어러블 기기와의 음성 연결일 수도 있으며, 여기서는 일일이 나열하지 않는다.
일 선택적인 구현 방식으로서, 상기 제2 웨어러블 기기로부터의 제1 타겟 정보를 처리하는 단계는,
상기 제1 타겟 정보가 파일 전송 요청인 경우, 상기 파일 전송 요청에 대응하는 파일을 저장하는 단계;
또는, 상기 제1 타겟 정보가 제1 계정의 친구추가 요청인 경우, 상기 제1 계정을 친구로 추가하는 단계 - 상기 제1 계정은 상기 제1 얼굴 이미지에 대응하는 계정임 - 를 포함한다.
구체적으로, 상기 제1 타겟 정보가 제1 계정의 친구추가 요청인 경우, 상기 제1 계정을 친구로 추가하는 구현 방식에서, 상기 제2 웨어러블 기기로부터의 제1 타겟 정보를 처리하는 단계는,
상기 제1 웨어러블 기기와 연결된 전자기기에 상기 제1 계정의 친구추가 요청을 송신하는 단계를 포함하되, 여기서 상기 전자기기는 상기 제1 계정의 친구추가 요청을 수신한 후 상기 전자기기에 설치된 타겟 애플리케이션을 통해 상기 제1 계정의 친구추가 요청에 포함된 제1 계정에 친구추가 수락 정보를 송신하여 상기 제1 계정을 친구로 추가한다.
본 구현 방식에서, 파일 전송 또는 제1 얼굴 이미지에 대응하는 제1 계정 친구추가를 위해 상기 제2 웨어러블 기기로부터의 제1 타겟 정보를 처리함으로써, 파일 전송 또는 친구추가 조작 절차를 간소화할 수 있다.
일 선택적인 구현 방식에서, 상기 제1 웨어러블 기기와 제2 웨어러블 기기가 사전설정 위치 관계를 충족하는 경우, 상기 제1 이미지 수집기를 통해 제2 얼굴 이미지를 획득하고, 상기 제2 웨어러블 기기로부터의 제1 얼굴 이미지를 수신하는 단계 이후에, 상기 방법은,
상기 제1 얼굴 이미지와 상기 제2 얼굴 이미지가 매칭되지 않는 경우, 상기 제2 웨어러블 기기로부터의 제1 타겟 정보를 처리하지 않거나, 상기 제2 웨어러블 기기에 의해 송신된 제2 타겟 정보를 처리하는 단계를 더 포함한다.
여기서, 상기 제1 얼굴 이미지와 상기 제2 얼굴 이미지가 매칭되지 않는다는 것은, 제1 웨어러블 기기에 의해 수신된 제1 얼굴 이미지에 대응하는 사용자가 제1 이미지 수집기에 의해 수집된 제2 얼굴 이미지에 대응하는 사용자가 아니라는 것으로 이해할 수 있거나, 제1 이미지 수집기에 의해 수집된 제2 얼굴 이미지와 제1 얼굴 이미지에 대응하는 사용자는 동일한 사용자이지만 이미지가 매칭되지 않는다는 것으로 이해할 수 있다.
예시적으로, 상기 제1 타겟 정보가 친구추가 요청인 것으로 예를 들면, 제1 웨어러블 기기를 착용한 사용자가 친구추가 요청을 송신한 사용자를 바라보지 않는 경우, 제1 웨어러블 기기를 착용한 사용자가 친구추가 요청을 송신한 사용자를 친구로 추가하기를 원하지 않는 것으로 판단하고, 상기 제2 웨어러블 기기로부터의 제1 타겟 정보를 처리하지 않는다. 이 경우, 제2 얼굴 이미지와 제1 얼굴 이미지는 동일한 사용자에 대응하지만 이미지가 매칭되지 않는 것으로 간주된다.
또한, 제2 타겟 정보는 제2 웨어러블 기기와 연결 관계를 갖는 기타 웨어러블 기기의 정보(예: 제2 타겟 정보는 제2 웨어러블 기기의 제1 계정의 친구 계정을 포함함)일 수 있으며, 이 기타 웨어러블 기기의 정보는 적어도 기기와 연관된 얼굴 이미지를 포함한다. 실제 응용에서, 제1 얼굴 이미지에 대응하는 사용자와 제3 얼굴 이미지에 대응하는 사용자가 동일한 위치 영역 내에 위치하며, 이 영역 내의 사용자는 소셜 관계(즉, 제3 얼굴 이미지에 대응하는 계정은 제1 얼굴 이미지에 대응하는 계정의 친구임)를 갖는 단체일 수 있고, 이 영역 내의 임의의 웨어러블 기기는 모두 제1 웨어러블 기기에 타겟 정보를 송신할 수 있고, 제1 웨어러블 기기를 착용한 사용자가 이 타겟 정보를 수신했을 때 어느 사용자로부터 송신된 것인지를 구별하기 어려우므로, 제1 웨어러블 기기를 착용한 사용자는 제1 이미지 수집기를 제어하여 자신이 원하는 하나의 데이터 인터랙션 대상자의 얼굴 이미지만 수집하고, 수집된 이미지와 전송된 제2 타겟 정보에 실린 기타 웨어러블 기기의 정보를 매칭시키고, 매칭 성공시 자신이 원하는 데이터 인터랙션 대상자임을 결정한다.
구체적으로, 상기 제2 타겟 정보가 제3 얼굴 이미지를 포함하는 경우, 상기 제2 웨어러블 기기에 의해 송신된 제2 타겟 정보를 처리하는 단계는,
상기 제2 타겟 정보가 제2 계정의 친구추가 요청인 경우, 상기 제2 계정의 친구추가 요청에 응답하여 상기 제2 계정을 친구로 추가하는 단계를 포함하되, 상기 제2 계정은 상기 제3 얼굴 이미지에 대응하는 계정이고, 상기 제3 얼굴 이미지는 상기 제2 얼굴 이미지와 매칭된다.
이로써, 제2 타겟 정보로부터 제2 얼굴 이미지와 매칭되는 제3 얼굴 이미지를 검색하여 제3 얼굴 이미지에 대응하는 제2 계정의 친구추가 요청을 수락할 수 있으므로, 제1 웨어러블 기기와의 데이터 인터랙션을 위한 계정의 매칭 범위를 증가시킬 수 있어 정보 처리 방법의 실용성이 향상된다.
본 발명의 실시예에 따른 정보 처리 방법은 제1 웨어러블 기기에 적용되고, 상기 제1 웨어러블 기기는 제1 이미지 수집기를 포함하고, 상기 방법은, 상기 제1 웨어러블 기기와 제2 웨어러블 기기가 사전설정 위치 관계를 충족하는 경우, 상기 제1 이미지 수집기를 통해 제2 얼굴 이미지를 획득하고, 상기 제2 웨어러블 기기로부터의 제1 얼굴 이미지를 수신하는 단계; 상기 제1 얼굴 이미지와 상기 제2 얼굴 이미지가 매칭되는 경우, 상기 제2 웨어러블 기기로부터의 제1 타겟 정보를 처리하는 단계; 를 포함한다. 본 발명의 실시예에서, 제1 웨어러블 기기의 제1 이미지 수집기에 의해 획득된 얼굴 이미지와 제2 웨어러블 기기로부터 수신된 요청 정보 내의 얼굴 이미지를 매칭시키고, 매칭 성공이면 제1 이미지 수집기에 의해 획득된 얼굴 이미지가 요청 정보를 송신한 제2 웨어러블 기기에 대응하는 사용자의 얼굴 이미지인 것으로 결정하고, 상기 제2 웨어러블 기기로부터의 제1 타겟 정보를 처리할 수 있으며, 이로써 웨어러블 기기를 이용하여 데이터 인터랙션 동작을 구현할 수 있으므로 전자기기에서 번거로운 조작을 수행할 필요가 없게 되고 정보 처리 방법의 조작 편의성이 향상된다.
도 4를 참조하면, 본 발명의 실시예에 따른 두 번째 정보 처리 방법의 흐름도이고, 이 방법은 제2 웨어러블 기기에 적용되고, 상기 제2 웨어러블 기기는 제2 이미지 수집기를 포함하고, 상기 방법은 다음 단계들을 포함한다.
단계 401: 상기 제2 웨어러블 기기와 제1 웨어러블 기기가 사전설정 위치 관계를 충족하는 경우, 제1 웨어러블 기기에 제1 타겟 정보를 송신하되, 여기서 상기 제1 타겟 정보는 제1 얼굴 이미지를 포함한다.
구체적인 구현에서, 상기 사전설정 위치 관계는 도 1에 도시된 정보 처리 방법에서의 사전설정 위치 관계와 동일한 의미를 가지고, 또한 상기 제1 타겟 정보는 도 1에 도시된 정보 처리 방법에서의 제1 타겟 정보와 동일하며, 여기서는 상세한 설명을 생략한다.
예컨대, 제2 웨어러블 기기를 착용한 사용자가 제1 웨어러블 기기를 착용한 사용자를 친구로 추가하려는 경우, 제2 웨어러블 기기를 통해 제1 웨어러블 기기에 친구추가 요청 정보를 송신한다.
물론, 상기 방법이 제2 웨어러블 기기에 적용되는 경우, 제2 웨어러블 기기는 자체와 연결된 전자기기를 제어하여 상기 친구추가 요청 정보를 송신할 수도 있다.
본 발명의 실시예에서 상기 제2 웨어러블 기기는 도 1에 도시된 발명 실시예에서의 제2 웨어러블 기기와 동일한 기기이며, 이 제2 웨어러블 기기에 의해 수행되는 정보 처리 방법은 도 1에 도시된 발명 실시예에서 제1 웨어러블 기기에 적용되는 정보 처리 방법과 공동으로 제1 웨어러블 기기와 제2 웨어러블 기기 간의 데이터 인터랙션을 구현하며, 또한 상기 제2 웨어러블 기기는 제2 웨어러블 기기로 구성된 전자기기로 이해할 수도 있고, 상기 제1 웨어러블 기기는 제1 웨어러블 기기로 구성된 전자기기로 이해할 수도 있으며, 여기서는 이에 대해 한정하지 않는다는 점에 유의해야 한다.
일 선택적인 구현 방식으로서, 상기 제2 웨어러블 기기와 제1 웨어러블 기기가 사전설정 위치 관계를 충족하는 경우, 상기 제1 웨어러블 기기에 제1 타겟 정보를 송신하는 단계는,
상기 제2 웨어러블 기기와 제1 웨어러블 기기가 사전설정 위치 관계를 충족하는 경우, 상기 제1 웨어러블 기기를 착용한 사용자의 제4 얼굴 이미지를 획득하고, 제3 웨어러블 기기의 통신 정보를 획득하는 단계 - 상기 제3 웨어러블 기기는 상기 제2 웨어러블 기기의 통신거리 내에 위치한 웨어러블 기기이고, 각 상기 제3 웨어러블 기기의 통신 정보는 모두 통신 식별자 및 상기 통신 식별자와 연관된 제5 얼굴 이미지를 포함함 - ;
상기 제4 얼굴 이미지와 매칭되는 제5 얼굴 이미지와 연관된 통신 식별자를 상기 제1 웨어러블 기기의 통신 식별자로 결정하는 단계;
상기 제1 웨어러블 기기의 통신 식별자에 따라 상기 제1 웨어러블 기기에 제1 타겟 정보를 송신하는 단계; 를 포함한다.
구체적인 구현에서, 제1 웨어러블 기기와 제2 웨어러블 기기는 무선 통신을 할 수 있으며, 예컨대 블루투스 통신인 경우, 상기 통신 식별자는 블루투스 명칭 또는 블루투스의 연결 주소 등일 수 있으며, 상이한 웨어러블 기기는 상이한 통신 식별자에 대응하며, 이로써 상기 통신 식별자를 통해 상이한 웨어러블 기기를 구별할 수 있다.
또한, 상기 제5 얼굴 이미지는 각 웨어러블 기기 소유자의 얼굴 이미지일 수 있다.
본 구현 방식에서, 제2 웨어러블 기기는 제1 웨어러블 기기에 제1 타겟 정보를 송신하기 전에, 먼저 제1 웨어러블 기기를 착용한 사용자의 제4 얼굴 이미지를 획득하고, 얼굴 매칭 방식을 통해 제1 웨어러블 기기의 통신 식별자로 결정하고, 제2 웨어러블 기기는 이 통신 식별자에 따라 제1 웨어러블 기기와 통신 연결을 설정하여 제1 웨어러블 기기에 제1 타겟 정보를 송신함으로써, 정보 처리 방법의 실용성을 향상시킨다.
본 발명의 상기 실시예에 따른 정보 처리 방법은 본 발명의 이전 실시예에 따른 정보 처리 방법에 대응하여 공동으로 제1 웨어러블 기기와 제2 웨어러블 기기 간의 데이터 인터랙션을 구현하고, 또 동일하고 유익한 효과를 가지므로, 반복을 피하기 위해 여기서는 상세한 설명을 생략한다.
구체적인 구현에서, 도 1에 도시된 정보 처리 방법과 도 4에 도시된 정보 처리 방법은 결합될 수 있다. 도 5a에 도시된 바와 같이, 이 실시예에서는 제1 웨러어블 기기가 스마트 안경(A)이고, 제2 웨어러블 기기가 스마트 안경(B)인 것으로 예를 들어, 스마트 안경(A)은 휴대폰(C)과 연결되고, 스마트 안경(B)은 휴대폰(D)과 연결되며, 상기 스마트 안경(A)과 스마트 안경(B)의 정보 처리 방법에 대해 예를 들어 설명하면, 구체적으로 도 5b에 도시된 세 번째 정보 처리 방법의 흐름도와 같다.
단계 501: 스마트 안경(A)은 사전설정 거리 내에서 스마트 안경(B)과 마주한다.
본 단계에서, 상기 사전설정 거리는 스마트 안경(A)과 스마트 안경(B)의 유효 통신거리일 수 있다.
단계 502: 스마트 안경(B)은 저장된 얼굴 데이터와 계정 데이터를 스마트 안경(A)으로 전송한다.
본 단계에서, 상기 얼굴 데이터는 도 1 및 도 4에 도시된 방법 실시예에서의 제1 얼굴 이미지의 데이터이고, 상기 계정 데이터는 도 1 및 도 4에 도시된 방법 실시예에서의 제1 계정 정보이다. 또한, 단계 502에서 스마트 안경(B)은 저장된 얼굴 데이터와 계정 데이터를 휴대폰(D)에 송신하여 휴대폰(D)을 통해 상기 얼굴 데이터와 계정 데이터를 스마트 안경(A) 또는 스마트 안경(A)과 연결된 휴대폰(C)에 전송할 수도 있으며, 휴대폰(D)이 상기 얼굴 데이터 및 계정 데이터를 스마트 안경(A)과 연결된 휴대폰(C)에 전송하는 구현 방식에서, 스마트 안경(A)은 휴대폰(C)을 통해 상기 얼굴 데이터 및 계정 데이터를 획득한다.
단계 503: 스마트 안경(A)은 카메라를 통해 스마트 안경(B) 착용자의 얼굴 이미지를 획득한다.
본 단계에서, 상기 카메라는 도 1에 도시된 방법 실시예에서의 제1 이미지 수집기이고, 상기 얼굴 이미지는 도 1에 도시된 방법 실시예에서의 제2 얼굴 이미지이다.
단계 504: 스마트 안경(A)은 얼굴 데이터를 대조한다.
본 단계에서, 상기 얼굴 데이터를 대조하는 것은 제1 얼굴 이미지와 제2 얼굴 이미지를 매칭시키는 것으로 이해할 수 있다.
단계 505: 얼굴 데이터 대조에 성공한다.
본 단계에서, 상기 얼굴 데이터에 대조에 성공하는 것은 제1 얼굴 이미지와 제2 얼굴 이미지가 매칭되는 것으로 이해할 수 있다.
본 구현 방식에서, 제1 얼굴 이미지와 제2 얼굴 이미지가 매칭되는 경우 단계 506을 수행한다.
단계 506: 카메라 초점의 유지 시간이 사전설정 시간에 도달하면, 스마트 안경(A)의 착용자가 친구추가 의향이 있다고 결정한다.
본 단계에서, 상기 카메라 초점은 도 1에 도시된 방법 실시예에서의 제1 이미지 수집기의 촬영 초점과 동일한 의미를 가질 수 있고, 상기 카메라 초점의 유지 시간이 사전설정 시간에 도달한다는 것은, 상기 촬영 초점과 상기 제2 웨어러블 기기의 위치는 매칭되고, 매칭되는 지속시간은 제1 사전설정 시간보다 크거나 같다는 것으로 이해할 수 있다.
본 구현 방식에서, 스마트 안경(A)의 착용자가 친구추가 의향이 있다고 결정하는 경우 단계 507을 수행한다.
단계 507: 스마트 안경(A)은 파싱된 계정 데이터(parsed account data)를 연결된 휴대폰(C)에 송신한다.
본 구현 방식에서, 상기 스마트 안경(A)이 연결된 휴대폰(C)은 스마트 안경(A)으로 구성된 휴대폰(C)으로 이해할 수 있다. 구체적인 구현에서, 상기 파싱된 계정 데이터는, 스마트 안경(B)에 의해 송신된 계정 데이터에 대해 파싱하여 휴대폰(C)이 식별 및 처리할 수 있는 데이터 포맷을 획득하는 것으로 이해할 수 있으며, 이를 통해 휴대폰(C)은 이 데이터 포맷의 계정 데이터를 수신한 후 이 계정 데이터를 정확하게 식별하고, 이 계정 데이터에 친구추가 요청을 송신할 수 있다.
단계 508: 휴대폰(C)이 친구추가 요청을 송신한다.
본 단계에서, 상기 휴대폰(C)이 친구추가 요청을 송신하는 것은, 휴대폰(C)이 스마트 안경(B)에 의해 송신된 계정 데이터에 친구추가 요청을 송신하는 것으로 이해할 수 있다.
구체적인 구현에서, 단계 502에서 스마트 안경(B)에 의해 스마트 안경(A)으로 전송된 얼굴 데이터 및 계정 데이터가 친구추가 요청 메시지로 간주될 수 있으며, 이 경우, 본 단계에서 휴대폰(C)은 스마트 안경(B)에 의해 송신된 계정 데이터에 친구추가 수락 메시지를 송신할 수 있다.
본 발명의 실시예에 따른 세 번째 정보 처리 방법은 도 1 및 도 4에 도시된 정보 처리 방법 실시예에서의 각 단계를 구현할 수 있고, 또 동일하고 유익한 효과를 얻을 수 있으므로, 반복을 피하기 위해 여기서는 상세한 설명을 생략한다.
도 6을 참조하면, 본 발명의 실시예에 따른 제1 전자기기의 구조도이며, 이 전자기기는 제1 웨어러블 기기이고, 상기 제1 웨어러블 기기는 제1 이미지 수집기를 포함하고, 도 6에 도시된 바와 같이, 상기 전자기기(600)는,
상기 제1 웨어러블 기기와 제2 웨어러블 기기가 사전설정 위치 관계를 충족하는 경우, 상기 제1 이미지 수집기를 통해 제2 얼굴 이미지를 획득하고, 상기 제2 웨어러블 기기로부터의 제1 얼굴 이미지를 수신하는 수신 모듈(601);
상기 제1 얼굴 이미지와 상기 제2 얼굴 이미지가 매칭되는 경우, 상기 제2 웨어러블 기기로부터의 제1 타겟 정보를 처리하는 제1 처리 모듈(602); 을 포함한다.
선택적으로, 상기 사전설정 위치 관계는,
상기 제2 웨어러블 기기가 상기 제1 이미지 수집기의 초점 영역 내에 위치하는 것;
상기 제1 웨어러블 기기와 상기 제2 웨어러블 기기 사이의 거리가 사전설정 거리보다 작거나 같은 것; 중 적어도 하나를 포함한다.
선택적으로, 도 7에 도시된 바와 같이, 제1 처리 모듈(602)은,
상기 제1 타겟 정보가 파일 전송 요청인 경우, 상기 파일 전송 요청에 대응하는 파일을 저장하는 저장부(6021);
상기 제1 타겟 정보가 제1 계정의 친구추가 요청인 경우, 상기 제1 계정을 친구로 추가하는 친구추가부(6022) - 상기 제1 계정은 상기 제1 얼굴 이미지에 대응하는 계정임 - 를 포함한다.
선택적으로, 도 8에 도시된 바와 같이, 제1 전자기기(600)는,
상기 제1 웨어러블 기기와 제2 웨어러블 기기가 사전설정 위치 관계를 충족하는 경우, 상기 제1 이미지 수집기를 통해 제2 얼굴 이미지를 획득하고, 상기 제2 웨어러블 기기로부터의 제1 얼굴 이미지를 수신한 후, 상기 제1 얼굴 이미지와 상기 제2 얼굴 이미지가 매칭되지 않는 경우, 상기 제2 웨어러블 기기로부터의 제1 타겟 정보를 처리하지 않거나, 상기 제2 웨어러블 기기에 의해 송신된 제2 타겟 정보를 처리하는 제2 처리 모듈(603)을 더 포함한다.
선택적으로, 상기 제2 타겟 정보는 제3 얼굴 이미지를 포함하고, 제1 처리 모듈(602)은 구체적으로,
상기 제2 타겟 정보가 제2 계정의 친구추가 요청인 경우, 상기 제2 계정의 친구추가 요청에 응답하여 상기 제2 계정을 친구로 추가하되, 상기 제2 계정은 상기 제3 얼굴 이미지에 대응하는 계정이고, 상기 제3 얼굴 이미지는 상기 제2 얼굴 이미지와 매칭된다. 본 발명의 실시예에 따른 전자기기는 도 1에 도시된 정보 처리 방법 실시예에서의 각 단계를 구현할 수 있고, 또 동일하고 유익한 효과를 얻을 수 있으므로, 반복을 피하기 위해 여기서는 상세한 설명을 생략한다.
도 9를 참조하면, 본 발명의 실시예에 따른 제2 전자기기의 구조도이며, 이 전자기기는 제2 웨어러블 기기이고, 상기 제2 웨어러블 기기는 제2 이미지 수집기를 포함하고, 도 9에 도시된 바와 같이, 상기 전자기기(900)는,
상기 제2 웨어러블 기기와 제1 웨어러블 기기가 사전설정 위치 관계를 충족하는 경우, 상기 제1 웨어러블 기기에 제1 타겟 정보를 송신하는 송신 모듈(901)을 포함하되, 여기서 상기 제1 타겟 정보는 제1 얼굴 이미지를 포함한다.
선택적으로, 도 10에 도시된 바와 같이, 송신 모듈(901)은,
상기 제2 웨어러블 기기와 제1 웨어러블 기기가 사전설정 위치 관계를 충족하는 경우, 상기 제1 웨어러블 기기를 착용한 사용자의 제4 얼굴 이미지를 획득하고, 제3 웨어러블 기기의 통신 정보를 획득하는 획득부(9011) - 상기 제3 웨어러블 기기는 상기 제2 웨어러블 기기의 통신거리 내에 위치한 웨어러블 기기이고, 각 상기 제3 웨어러블 기기의 통신 정보는 모두 통신 식별자 및 상기 통신 식별자와 연관된 제5 얼굴 이미지를 포함함 - ;
상기 제4 얼굴 이미지와 매칭되는 제5 얼굴 이미지와 연관된 통신 식별자를 상기 제1 웨어러블 기기의 통신 식별자로 결정하는 결정부(9012);
상기 제1 웨어러블 기기의 통신 식별자에 따라 상기 제1 웨어러블 기기에 제1 타겟 정보를 송신하는 송신부(9013); 를 포함한다.
본 발명의 실시예에 따른 전자기기는 도 4에 도시된 정보 처리 방법 실시예에서의 각 단계를 구현할 수 있고, 또 동일하고 유익한 효과를 얻을 수 있으므로, 반복을 피하기 위해 여기서는 상세한 설명을 생략한다.
본 발명의 실시예에서, 상기 제1 전자기기 또는 제2 전자기기는 웨어러블 기기로 구성된 휴대폰, 태블릿 PC(Tablet Personal Computer), 랩탑 컴퓨터(Laptop Computer), 개인용 정보 단말기(personal digital assistant, PDA), 모바일 인터넷 장치(Mobile Internet Device, MID) 등일 수 있거나, 웨어러블 기기(Wearable Device)일 수 있다.
도 11을 참조하면, 본 출원의 각 실시예를 구현하기 위한 제3 전자기기의 하드웨어 구조 개략도이며, 이 전자기기(1100)는 무선 주파수 장치(1101), 네트워크 모듈(1102), 오디오 출력 장치(1103), 입력 장치(1104), 센서(1105), 표시 장치(1106), 사용자 입력 장치(1107), 인터페이스 장치(1108), 메모리(1109), 프로세서(1110) 및 전원(1111) 등 구성요소를 포함하지만 이에 한정되지 않는다. 당업자라면 도 11에 도시된 전자기기의 구조가 전자기기에 대한 제한을 구성하지 않으며, 전자기기는 도면에 도시된 것보다 더 많거나 적은 구성요소를 포함하거나, 특정 구성요소를 결합하거나, 다른 구성요소를 배치할 수 있다는 점을 이해할 수 있다. 본 발명의 실시예에서, 전자기기는 휴대폰, 태블릿 PC, 노트북, 개인 휴대 정보 단말기, 차량탑재 단말기, 웨어러블 기기 및 계보기 등을 포함하지만 이에 제한되지 않는다.
일 구현 방식에서, 상기 전자기기(1100)는 제1 웨어러블 기기 또는 제1 웨어러블 기기로 구성된 전자기기이며, 여기서 제1 웨어러블 기기는 제1 이미지 수집기를 포함한다.
프로세서(1110)는,
상기 제1 웨어러블 기기와 제2 웨어러블 기기가 사전설정 위치 관계를 충족하는 경우, 상기 제1 이미지 수집기를 통해 제2 얼굴 이미지를 획득하고, 무선 주파수 장치(1101)를 제어하여 상기 제2 웨어러블 기기로부터의 제1 얼굴 이미지를 수신하고,
상기 제1 얼굴 이미지와 상기 제2 얼굴 이미지가 매칭되는 경우, 상기 제2 웨어러블 기기로부터의 제1 타겟 정보를 처리한다.
선택적으로, 상기 사전설정 위치 관계는,
상기 제2 웨어러블 기기가 상기 제1 이미지 수집기의 초점 영역 내에 위치하는 것;
상기 제1 웨어러블 기기와 상기 제2 웨어러블 기기 사이의 거리가 사전설정 거리보다 작거나 같은 것; 중 적어도 하나를 포함한다.
선택적으로, 프로세서(1110)에 의해 수행되는, 상기 제2 웨어러블 기기로부터의 제1 타겟 정보를 처리하는 단계는,
상기 제1 타겟 정보가 파일 전송 요청인 경우, 상기 파일 전송 요청에 대응하는 파일을 저장하는 단계;
상기 제1 타겟 정보가 제1 계정의 친구추가 요청인 경우, 상기 제1 계정을 친구로 추가하는 단계 - 상기 제1 계정은 상기 제1 얼굴 이미지에 대응하는 계정임 - 를 포함한다.
선택적으로, 프로세서(1110)는, 상기 제1 웨어러블 기기와 제2 웨어러블 기기가 사전설정 위치 관계를 충족하는 경우, 상기 제1 이미지 수집기를 통해 제2 얼굴 이미지를 획득하고, 상기 제2 웨어러블 기기로부터의 제1 얼굴 이미지를 수신하는 단계를 수행한 후,
상기 제1 얼굴 이미지와 상기 제2 얼굴 이미지가 매칭되지 않는 경우, 상기 제2 웨어러블 기기로부터의 제1 타겟 정보를 처리하지 않거나, 상기 제2 웨어러블 기기에 의해 송신된 제2 타겟 정보를 처리하는 단계를 더 수행한다.
선택적으로, 상기 제2 타겟 정보가 제3 얼굴 이미지를 포함하는 경우, 프로세서(1110)에 의해 수행되는, 상기 제2 웨어러블 기기에 의해 송신된 제2 타겟 정보를 처리하는 단계는,
상기 제2 타겟 정보가 제2 계정의 친구추가 요청인 경우, 상기 제2 계정의 친구추가 요청에 응답하여 상기 제2 계정을 친구로 추가하는 단계를 포함하되, 상기 제2 계정은 상기 제3 얼굴 이미지에 대응하는 계정이고, 상기 제3 얼굴 이미지는 상기 제2 얼굴 이미지와 매칭된다.
본 구현 방식에서, 상기 제3 전자기기는 도 1에 도시된 방법 실시예에서의 각 단계를 수행할 수 있고, 또 동일하고 유익한 효과를 얻을 수 있으므로, 반복을 피하기 위해 여기서는 상세한 설명을 생략한다.
다른 일 구현 방식에서, 상기 전자기기(1100)는 제2 웨어러블 기기 또는 제2 웨어러블 기기로 구성된 전자기기이며, 여기서 제2 웨어러블 기기는 제2 이미지 수집기를 포함한다.
프로세서(1110)는,
상기 제2 웨어러블 기기와 제1 웨어러블 기기가 사전설정 위치 관계를 충족하는 경우, 무선 주파수 장치(1101)를 제어하여 상기 제1 웨어러블 기기에 제1 타겟 정보를 송신하되, 여기서 상기 제1 타겟 정보는 제1 얼굴 이미지를 포함한다.
선택적으로, 프로세서(1110)에 의해 실행되는, 상기 제2 웨어러블 기기와 제1 웨어러블 기기가 사전설정 위치 관계를 충족하는 경우, 무선 주파수 장치(1101)를 제어하여 상기 제1 웨어러블 기기에 제1 타겟 정보를 송신하는 단계는,
상기 제2 웨어러블 기기와 제1 웨어러블 기기가 사전설정 위치 관계를 충족하는 경우, 상기 제1 웨어러블 기기를 착용한 사용자의 제4 얼굴 이미지를 획득하고, 제3 웨어러블 기기의 통신 정보를 획득하는 단계 - 상기 제3 웨어러블 기기는 상기 제2 웨어러블 기기의 통신거리 내에 위치한 웨어러블 기기이고, 각 상기 제3 웨어러블 기기의 통신 정보는 모두 통신 식별자 및 상기 통신 식별자와 연관된 제5 얼굴 이미지를 포함함 - ;
상기 제4 얼굴 이미지와 매칭되는 제5 얼굴 이미지와 연관된 통신 식별자를 상기 제1 웨어러블 기기의 통신 식별자로 결정하는 단계;
무선 주파수 장치(1101)를 제어하여 상기 제1 웨어러블 기기의 통신 식별자에 따라 상기 제1 웨어러블 기기에 제1 타겟 정보를 송신하는 단계; 를 포함한다.
본 구현 방식에서, 상기 제3 전자기기는 도 4에 도시된 방법 실시예에서의 각 단계를 수행할 수 있고, 또 동일하고 유익한 효과를 얻을 수 있으므로, 반복을 피하기 위해 여기서는 상세한 설명을 생략한다.
본 발명의 실시예에서, 무선 주파수 장치(1101)는 정보를 송수신하거나, 통화 과정에서 신호를 송수신하도록 구성될 수 있으며, 특히, 기지국으로부터 하향링크 데이터를 수신한 후 처리를 위해 프로세서(1110)로 하향링크 데이터를 송신하고, 상향링크 데이터를 기지국에 송신하도록 구성될 수 있음을 이해해야 한다. 일반적으로, 무선 주파수 장치(1101)는 안테나, 적어도 하나의 증폭기, 송수신기, 커플러, 저잡음 증폭기, 듀플렉서 등을 포함하지만 이에 제한되지 않는다. 또한, 무선 주파수 장치(1101)는 무선 통신 시스템을 통해 네트워크 및 다른 기기와 통신할 수 있다.
전자기기는 네트워크 모듈(1102)을 통해 사용자에게 무선 광대역 인터넷 액세스를 제공한다. 예컨대 사용자가 전자 메일을 송수신하고 웹 페이지를 검색하며 스트리밍 미디어에 액세스하도록 도울 수 있다.
오디오 출력 장치(1103)는 무선 주파수 장치(1101) 또는 네트워크 모듈(1102)에서 수신하거나 메모리(1109)에 저장된 오디오 데이터를 오디오 신호로 변환하여 소리로 출력할 수 있다. 또한, 오디오 출력 장치(1103)는 전자기기(1100)가 실행하는 특정 기능(예: 호 신호 수신음, 메시지 수신음 등)과 관련된 오디오 출력도 제공할 수 있다. 오디오 출력 장치(1103)는 스피커, 버저 및 수화기 등을 포함한다.
입력 장치(1104)는 오디오 또는 비디오 신호를 수신한다. 입력 장치(1104)는 그래픽 처리 장치(Graphics Processing Unit, GPU)(11041) 및 마이크로폰(11042)을 포함할 수 있으며, 그래픽 처리 장치(11041)는 비디오 캡처(capture) 모드 또는 이미지 캡처 모드에서 이미지 캡처 장치(예: 카메라)에 의해 획득된 정지 이미지 또는 비디오의 이미지 데이터를 처리한다. 처리된 이미지 프레임은 표시 장치(1106)에 표시될 수 있다. 그래픽 처리 장치(11041)에 의해 처리된 이미지 프레임은 메모리(1109)(또는 다른 저장 매체)에 저장되거나 무선 주파수 장치(1101) 또는 네트워크 모듈(1102)을 통해 송신될 수 있다. 마이크로폰(11042)은 사운드를 수신할 수 있고, 이러한 사운드를 오디오 데이터로 처리할 수 있다. 처리된 오디오 데이터는 전화 통화 모드에서 무선 주파수 장치(1101)를 통해 이동통신 기지국으로 전송될 수 있는 포맷으로 변환되어 출력될 수 있다.
전자기기(1100)는 또한 광 센서, 모션 센서 및 다른 센서와 같은 적어도 하나의 센서(1105)를 포함한다. 구체적으로, 광 센서는 주변광 센서 및 근접 센서를 포함하며, 주변광 센서는 주변광의 밝기에 따라 표시 패널(11061)의 밝기를 조절하고, 근접 센서는 전자기기(1100)가 귀쪽으로 움직일 때 표시 패널(11061) 및/또는 백라이트를 끌 수 있다. 모션 센서의 일종인 가속도계 센서는 다양한 방향(일반적으로 3 축)의 가속도의 크기를 감지할 수 있고, 정지 상태에서 중력의 크기와 방향을 감지할 수 있으며, 전자기기의 자세 식별(수평 및 수직 화면 전환, 관련 게임, 자력계 자세 교정), 진동 식별 관련 기능(계보기, 두드리기 등)에 사용될 수 있으며, 센서(1105)는 또한 지문 센서, 압력 센서, 홍채 센서, 분자 센서, 자이로스코프, 기압계, 습도계, 온도계, 적외선 센서 등을 포함할 수 있으며, 여기서는 반복하여 설명하지 않는다.
표시 장치(1106)는 사용자가 입력하는 정보 또는 사용자에게 제공되는 정보를 표시한다. 표시 장치(1106)는 표시 패널(11061)을 포함할 수 있으며, 표시 패널(11061)은 액정 표시 장치(Liquid Crystal Display, LCD), 유기 발광 다이오드(Organic Light-Emitting Diode, OLED) 등 형태로 구성될 수 있다.
사용자 입력 장치(1107)는 입력된 숫자 또는 문자 정보를 수신하고, 전자기기의 사용자 설정 및 기능 제어와 관련된 키 신호 입력을 생성할 수 있다. 구체적으로, 사용자 입력 장치(1107)는 터치 패널(11071) 및 기타 입력 장치(11072)를 포함한다. 터치 패널(11071)은 터치 스크린이라고도 하며, 그 위에서나 근처에서 수행되는 사용자의 터치 동작(예: 사용자가 손가락, 스타일러스펜 등과 같은 적절한 물체 또는 액세서리를 사용하여 터치 패널(11071) 위에서 또는 터치 패널(11071) 근처에서 수행하는 조작)을 수집할 수 있다. 터치 패널(11071)은 터치 감지 장치 및 터치 컨트롤러를 포함할 수 있다. 상기 터치 감지 장치는 사용자의 터치 위치를 감지하고, 터치 조작에 따른 신호를 감지하여 터치 컨트롤러로 신호를 전송하고, 터치 컨트롤러는 터치 감지 장치로부터 터치 정보를 수신하고 접촉 좌표로 변환하여 프로세서(1110)에 전송하고, 프로세서(1110)에 의해 전송된 명령을 수신하여 명령에 따라 실행한다. 또한. 터치 패널(11071)은 저항식, 정전식, 적외선 또는 표면 음파 등 다양한 형태로 구현될 수 있다. 터치 패널(11071)을 제외하고, 사용자 입력 장치(1107)은 또한 기타 입력 장치(11072)를 포함할 수 있다. 구체적으로, 기타 입력 장치(11072)는 물리적 키보드, 기능 키(예: 볼륨 제어 버튼, 스위치 버튼 등), 트랙볼, 마우스 및 조이스틱을 포함할 수 있으며, 여기서는 상세한 설명을 생략한다.
또한, 터치 패널(11071)은 표시 패널(11061)의 위에 장착될 수 있으며, 터치 패널(11071)은 그 위 또는 근처의 터치 동작을 검출한 후 터치 이벤트의 유형을 결정하기 위해 프로세서(1110)로 전송하며, 이어서 프로세서(1110)는 터치 이벤트 유형에 따라 표시 패널(11061)에 해당 시각적 출력을 제공한다. 도 11에서 터치 패널(11071)과 표시 패널(11061)이 두 개의 독립적인 구성요소로 사용되어 전자기기의 입력 및 출력 기능을 구현하지만, 일부 실시예에서, 터치 패널(11071)과 표시 패널(11061)은 통합되어 전자기기의 입력 및 출력 기능을 구현할 수 있으며, 여기서는 구체적으로 제한하지 않는다.
인터페이스 장치(1108)는 외부 장치와 전자기기(1100) 사이의 인터페이스이다. 예컨대, 주변 장치에는 유선 또는 무선 헤드셋 포트, 외부 전원(또는 배터리 충전기) 포트, 유선 또는 무선 데이터 포트, 메모리 카드 포트, 인식 모듈이 있는 장치를 연결하는 데 사용되는 포트, 오디오 입력/출력(Input/Output, I/O) 포트, 비디오 I/O 포트, 이어폰 포트 등을 포함할 수 있다. 인터페이스 장치(1108)는 외부 장치로부터 오는 입력(예: 데이터 정보, 전력 등)을 수신하고 수신한 입력을 전자기기(1100) 내부에 있는 하나 이상의 소자로 전송하거나 전자기기(1100)와 외부 장치 사이에서 데이터를 전송한다.
메모리(1109)에는 소프트웨어 프로그램 및 다양한 데이터가 저장될 수 있다. 메모리(1109)는 주로 프로그램 저장 영역과 데이터 저장 영역을 포함할 수 있으며, 프로그램 저장 영역에는 운영체제, 적어도 하나의 기능(예: 사운드 재생 기능, 이미지 재생 기능 등)에 필요한 애플리케이션이 저장될 수 있으며, 데이터 저장 영역에는 휴대폰의 사용 과정에 생성된 데이터(예: 오디오 데이터, 전화 번호부 등) 등이 저장될 수 있다. 또한, 메모리(1109)는 고속 랜덤 액세스 메모리를 포함할 수 있으며, 적어도 하나의 자기 디스크 저장 장치, 플래시 메모리 장치, 또는 기타 비휘발성 솔리드 스테이드 저장 장치와 같은 비휘발성 메모리를 포함할 수도 있다.
프로세서(1110)는 전자기기의 제어 센터이며, 다양한 인터페이스와 회로를 통해 전자기기의 모든 구성요소에 연결된다. 메모리(1109)에 저장된 소프트웨어 프로그램 및/또는 모듈을 운영 또는 실행하고 메모리(1109)에 저장된 데이터를 호출함으로써, 전자기기의 다양한 기능을 실행하고 데이터를 처리하여 전자기기에 관한 전반적인 모니터링을 수행한다. 프로세서(1110)에는 적어도 하나의 처리 장치가 포함될 수 있다. 바람직하게, 애플리케이션 프로세서와 모뎀 프로세서를 프로세서(1110)에 통합할 수 있다. 애플리케이션 프로세서는 주로 운영체제, 사용자 인터페이스, 애플리케이션 등을 처리하며, 모뎀 프로세서는 주로 무선 통신을 처리한다. 상기 모뎀 프로세서는 프로세서(1110)에 통합되지 않을 수도 있다.
전자기기(1100)에는 모든 부품에 전력을 공급하는 전원(1111)(예: 배터리)이 포함될 수도 있고, 선택적으로 전원(1111)은 전원 관리 시스템을 통해 프로세서(1110)에 논리연결(logically connected)될 수 있으므로 전원 관리 시스템을 통해 충전, 방전, 전력 소비 관리 등 기능을 수행한다.
또한, 전자기기(1100)는 도시되지 않은 일부 기능 모듈을 포함하지만, 여기서는 상세한 설명을 생략한다.
바람직하게, 본 발명의 실시예는 전자기기를 제공함에 있어서, 프로세서(1110), 메모리(1109), 및 메모리(1109)에 저장되고 상기 프로세서(1110)에서 실행될 수 있는 컴퓨터 프로그램을 포함하며, 컴퓨터 프로그램이 프로세서(1110)에 의해 실행될 때 상기 제1 웨어러블 기기 또는 제1 웨어러블 기기로 구성된 전자기기에 적용되는 정보 처리 방법 실시예의 각 단계를 구현한다. 또는, 컴퓨터 프로그램이 프로세서(1110)에 의해 실행될 때 상기 제2 웨어러블 기기 또는 제2 웨어러블 기기로 구성된 전자기기에 적용되는 정보 처리 방법 실시예의 각 단계를 구현하고, 또 동일한 기술적 효과를 달성할 수 있으므로, 반복을 피하기 위해 여기서는 상세한 설명을 생략한다.
본 명세서에서, “포함한다”, “갖는다” 또는 이들의 다른 임의의 변형은 비배타적 포함을 의도하며, 일련의 요소를 포함하는 프로세스, 방법, 물품 또는 장치는 그 요소 뿐만 아니라 명확하게 나열되지 않는 다른 요소도 포함하며, 이러한 프로세스, 방법, 물품 또는 장치의 고유한 요소도 포함한다는 점에 유의해야 한다. 별도로 제한이 없는 한, “하나의 ~을 포함한다”로 정의된 요소는 해당 요소를 포함하는 프로세스, 방법, 물품 또는 장치에서 다른 동일한 요소의 존재를 배제하지 않는다.
당업자라면 설명의 편의성 및 간결성을 위해 상기 시스템, 장치와 기능부들의 구체적인 작동 과정은 상기 방법 실시예에서 대응되는 프로세스를 참조할 수 있음을 명확하게 이해할 수 있으며, 여기서는 추가 설명을 생략한다.
본 출원에 따른 실시예에서 공개되는 장치와 방법은 다른 방식으로 구현될 수 있음을 이해해야 한다. 예컨대, 이상 설명한 장치의 실시예는 단지 예시에 불과하며, 예컨대 상기 기능부들의 분할은 하나의 논리 기능의 분할일 뿐 실제로 구현할 때 다른 분할 방식이 있을 수 있다. 예컨대, 복수의 기능부나 컴포넌트는 서로 결합되거나 다른 시스템에 통합될 수 있거나, 또는 일부 특징을 무시하거나 실행하지 않을 수 있다. 또한, 표시되거나 논의된 상호 결합 또는 직접 결합 또는 통신 연결은 일부 인터페이스를 통한 장치 또는 기능부들의 간접 결합 또는 통신 연결일 수 있으며, 전기적, 기계적 또는 다른 형식일 수 있다.
상기 분할 부품으로 소개된 기능부들은 물리적으로 분리되거나 물리적으로 분리되지 않을 수 있으며, 기능부로 표시되는 부품은 물리적 기능부일 수도 있고 아닐 수도 있다. 한 곳에 위치하거나 여러 개의 네트워크 요소에 분산되어 있을 수도 있다. 실제 필요에 따라 그중의 일부 또는 전부 기능부들을 선택하여 본 실시예 솔루션의 목적을 달성할 수 있다.
또한, 본 발명의 각 실시예에서 여러 기능부들은 하나의 처리 장치에 통합되거나, 각각의 기능부가 물리적으로 단독으로 존재하거나, 2개 또는 2개 이상의 기능부가 하나의 기능부에 통합될 수도 있다.
상기 실시예의 설명을 통해, 당업자는 상기 실시예의 방법이 소프트웨어와 필요한 일반 하드웨어 플랫폼을 결부하는 방식에 의해 구현되거나 또는 하드웨어에 의해 구현될 수 있지만, 많은 경우에 소프트웨어와 필요한 일반 하드웨어 플랫폼을 결부하는 방식이 더 바람직하다는 것을 명백하게 이해할 수 있을 것이다. 이러한 이해를 기반으로, 본 발명의 기술적 솔루션의 본질적 부분 또는 관련 기술에 기여한 부분 또는 해당 기술적 솔루션의 전부 또는 일부분을 소프트웨어 제품의 형태로 구현할 수 있고, 전자기기(휴대폰, 컴퓨터, 서버, 에어컨 또는 네트워크 기기 등)에 의해 본 발명의 각 실시예에 따른 방법을 수행할 수 있는 복수의 명령을 포함시켜 해당 컴퓨터 소프트웨어 제품을 저장 매체(예: ROM/RAM, 자기 디스크, 시디롬)에 저장할 수 있다.
본 분야의 일반 기술자라면 상기 실시예 방법에서의 전부 또는 일부 절차에 대한 구현은 컴퓨터 프로그램을 통해 관련 하드웨어를 제어함으로써 완성될 수 있다는 것으로 이해할 수 있다. 상기 프로그램은 컴퓨터 판독가능 저장 매체에 저장될 수 있으며, 해당 프로그램이 실행될 때 전술한 각 방법 실시예의 절차를 포함할 수 있다. 여기서, 상기 저장 매체는 자기 디스크, 시디롬, 판독 전용 메모리(Read-Only Memory, ROM) 또는 랜덤 액세스 메모리(Random Access Memory, RAM) 등일 수 있다.
본 발명에 설명된 실시예들은 하드웨어, 소프트웨어, 펌웨어, 미들웨어, 마이크로 코드 또는 이들의 조합으로 구현될 수 있다. 하드웨어의 구현에 있어서, 모듈, 기능부, 하위 기능부는 하나 이상의 전용 집적회로(Application Specific Integrated Circuits, ASIC), 디지털 신호 프로세서(Digital Signal Processor, DSP), 디지털 신호 프로세싱 장치(DSP Device, DSPD), 프로그래머블 논리 장치(Programmable Logic Device, PLD), 현장 프로그래머블 게이트 어레이(Field-Programmable Gate Array, FPGA), 범용 프로세서, 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서, 본 발명에 따른 기능을 수행하기 위한 다른 전자적 기능부 또는 그 조합으로 구현될 수 있다.
소프트웨어의 구현에 있어서, 본 발명의 실시예에서 설명된 기능의 모듈(예: 절차, 함수 등)을 실행하는 것을 통해 본 발명 실시예에 따른 기술을 구현할 수 있다. 소프트웨어 코드는 메모리에 저장되고 프로세서에 의해 실행될 수 있다. 메모리는 프로세서에서 구현되거나 프로세서 외부에서 구현될 수 있다.
전술한 바와 같이 첨부된 도면을 결부하여 본 발명의 실시예들을 설명하였지만, 본 발명은 전술한 구체적인 실시예들에 제한되지 않으며, 전술한 구체적인 실시예들은 제한적이 아닌 예시에 불과하다. 당업자라면 본 발명의 사상 및 청구범위에 따른 보호 범위를 벗어나지 않고 본 발명에 기초하여 다양한 양상을 도출할 수 있으며, 이는 모두 본 발명의 보호범위에 속한다.

Claims (18)

  1. 제1 웨어러블 기기(wearable device)에 적용되는 정보 처리 방법에 있어서, 상기 제1 웨어러블 기기는 제1 이미지 수집기를 포함하고, 상기 방법은,
    상기 제1 웨어러블 기기와 제2 웨어러블 기기가 사전설정(preset) 위치 관계를 충족하는 경우, 상기 제1 이미지 수집기를 통해 제2 얼굴 이미지를 획득하고, 상기 제2 웨어러블 기기로부터의 제1 얼굴 이미지를 수신하는 단계; 및
    상기 제1 얼굴 이미지와 상기 제2 얼굴 이미지가 매칭되는 경우, 상기 제2 웨어러블 기기로부터의 제1 타겟 정보를 처리하는 단계; 를 포함하는 것을 특징으로 하는, 정보 처리 방법.
  2. 제1항에 있어서, 상기 사전설정 위치 관계는,
    상기 제2 웨어러블 기기가 상기 제1 이미지 수집기의 초점 영역 내에 위치하는 것; 및
    상기 제1 웨어러블 기기와 상기 제2 웨어러블 기기 사이의 거리가 사전설정 거리보다 작거나 같은 것; 중 적어도 하나를 포함하는 것을 특징으로 하는, 정보 처리 방법.
  3. 제1항에 있어서, 상기 제2 웨어러블 기기로부터의 제1 타겟 정보를 처리하는 단계는,
    상기 제1 타겟 정보가 파일 전송 요청인 경우, 상기 파일 전송 요청에 대응하는 파일을 저장하는 단계; 및
    상기 제1 타겟 정보가 제1 계정의 친구추가 요청인 경우, 상기 제1 계정을 친구로 추가하는 단계 - 상기 제1 계정은 상기 제1 얼굴 이미지에 대응하는 계정임 - 를 포함하는 것을 특징으로 하는, 정보 처리 방법.
  4. 제1항에 있어서, 상기 제1 웨어러블 기기와 제2 웨어러블 기기가 사전설정 위치 관계를 충족하는 경우, 상기 제1 이미지 수집기를 통해 제2 얼굴 이미지를 획득하고, 상기 제2 웨어러블 기기로부터의 제1 얼굴 이미지를 수신하는 단계 이후에, 상기 방법은,
    상기 제1 얼굴 이미지와 상기 제2 얼굴 이미지가 매칭되지 않는 경우, 상기 제2 웨어러블 기기로부터의 제1 타겟 정보를 처리하지 않거나, 상기 제2 웨어러블 기기에 의해 송신된 제2 타겟 정보를 처리하는 단계를 더 포함하되,
    여기서, 상기 제1 얼굴 이미지와 상기 제2 얼굴 이미지가 매칭되지 않는 경우는, 상기 제1 웨어러블 기기에 의해 수신된 상기 제1 얼굴 이미지에 대응하는 사용자가 상기 제1 이미지 수집기에 의해 수집된 상기 제2 얼굴 이미지에 대응하는 사용자가 아닌 경우; 또는, 상기 제1 이미지 수집기에 의해 수집된 상기 제2 얼굴 이미지와 상기 제1 얼굴 이미지에 대응하는 사용자는 동일한 사용자이지만 이미지가 매칭되지 않는 경우; 를 포함하는 것을 특징으로 하는, 정보 처리 방법.
  5. 제4항에 있어서, 상기 제2 타겟 정보가 제3 얼굴 이미지를 포함하는 경우, 상기 제2 웨어러블 기기에 의해 송신된 제2 타겟 정보를 처리하는 단계는,
    상기 제2 타겟 정보가 제2 계정의 친구추가 요청인 경우, 상기 제2 계정의 친구추가 요청에 응답하여 상기 제2 계정을 친구로 추가하는 단계를 포함하되, 상기 제2 계정은 상기 제3 얼굴 이미지에 대응하는 계정이고, 상기 제3 얼굴 이미지는 상기 제2 얼굴 이미지와 매칭되는 것을 특징으로 하는, 정보 처리 방법.
  6. 제2 웨어러블 기기에 적용되는 정보 처리 방법에 있어서, 상기 제2 웨어러블 기기는 제2 이미지 수집기를 포함하고, 상기 방법은,
    상기 제2 웨어러블 기기와 제1 웨어러블 기기가 사전설정 위치 관계를 충족하는 경우, 제1 웨어러블 기기에 제1 타겟 정보를 송신하는 단계를 포함하되, 여기서 상기 제1 타겟 정보는 제1 얼굴 이미지를 포함하고,
    상기 사전설정 위치 관계는,
    상기 제2 웨어러블 기기가 상기 제1 웨어러블 기기의 제1 이미지 수집기의 초점 영역 내에 위치하는 것; 및
    상기 제1 웨어러블 기기와 상기 제2 웨어러블 기기 사이의 거리가 사전설정 거리보다 작거나 같은 것; 중 적어도 하나를 포함하는 것을 특징으로 하는, 정보 처리 방법.
  7. 제6항에 있어서, 상기 제2 웨어러블 기기와 제1 웨어러블 기기가 사전설정 위치 관계를 충족하는 경우, 상기 제1 웨어러블 기기에 제1 타겟 정보를 송신하는 단계는,
    상기 제2 웨어러블 기기와 제1 웨어러블 기기가 상기 사전설정 위치 관계를 충족하는 경우, 상기 제1 웨어러블 기기를 착용한 사용자의 제4 얼굴 이미지를 획득하고, 제3 웨어러블 기기의 통신 정보를 획득하는 단계 - 상기 제3 웨어러블 기기는 상기 제2 웨어러블 기기의 통신거리 내에 위치한 웨어러블 기기이고, 각 상기 제3 웨어러블 기기의 통신 정보는 모두 통신 식별자 및 상기 통신 식별자와 연관된 제5 얼굴 이미지를 포함함 - ;
    상기 제4 얼굴 이미지와 매칭되는 제5 얼굴 이미지와 연관된 통신 식별자를 상기 제1 웨어러블 기기의 통신 식별자로 결정하는 단계; 및
    상기 제1 웨어러블 기기의 상기 통신 식별자에 따라 상기 제1 웨어러블 기기에 제1 타겟 정보를 송신하는 단계; 를 포함하는 것을 특징으로 하는, 정보 처리 방법.
  8. 전자기기에 있어서, 상기 전자기기는 제1 웨어러블 기기이고, 상기 제1 웨어러블 기기는 제1 이미지 수집기를 포함하고, 상기 전자기기는,
    상기 제1 웨어러블 기기와 제2 웨어러블 기기가 사전설정 위치 관계를 충족하는 경우, 상기 제1 이미지 수집기를 통해 제2 얼굴 이미지를 획득하고, 상기 제2 웨어러블 기기로부터의 제1 얼굴 이미지를 수신하는 수신 모듈; 및
    상기 제1 얼굴 이미지와 상기 제2 얼굴 이미지가 매칭되는 경우, 상기 제2 웨어러블 기기로부터의 제1 타겟 정보를 처리하는 제1 처리 모듈; 을 포함하는 것을 특징으로 하는, 전자기기.
  9. 제8항에 있어서, 상기 사전설정 위치 관계는,
    상기 제2 웨어러블 기기가 상기 제1 이미지 수집기의 초점 영역 내에 위치하는 것; 및
    상기 제1 웨어러블 기기와 상기 제2 웨어러블 기기 사이의 거리가 사전설정 거리보다 작거나 같은 것; 중 적어도 하나를 포함하는 것을 특징으로 하는, 전자기기.
  10. 제8항에 있어서, 상기 제1 처리 모듈은,
    상기 제1 타겟 정보가 파일 전송 요청인 경우, 상기 파일 전송 요청에 대응하는 파일을 저장하는 저장부; 및
    상기 제1 타겟 정보가 제1 계정의 친구추가 요청인 경우, 상기 제1 계정을 친구로 추가하는 친구추가부 - 상기 제1 계정은 상기 제1 얼굴 이미지에 대응하는 계정임 - 를 포함하는 것을 특징으로 하는, 전자기기.
  11. 제8항에 있어서,
    상기 제1 웨어러블 기기와 제2 웨어러블 기기가 사전설정 위치 관계를 충족하는 경우, 상기 제1 이미지 수집기를 통해 제2 얼굴 이미지를 획득하고, 상기 제2 웨어러블 기기로부터의 제1 얼굴 이미지를 수신한 후, 상기 제1 얼굴 이미지와 상기 제2 얼굴 이미지가 매칭되지 않는 경우, 상기 제2 웨어러블 기기로부터의 제1 타겟 정보를 처리하지 않거나, 상기 제2 웨어러블 기기에 의해 송신된 제2 타겟 정보를 처리하는 제2 처리 모듈을 더 포함하되,
    여기서, 상기 제1 얼굴 이미지와 상기 제2 얼굴 이미지가 매칭되지 않는 경우는, 상기 제1 웨어러블 기기에 의해 수신된 상기 제1 얼굴 이미지에 대응하는 사용자가 상기 제1 이미지 수집기에 의해 수집된 상기 제2 얼굴 이미지에 대응하는 사용자가 아닌 경우; 또는, 상기 제1 이미지 수집기에 의해 수집된 상기 제2 얼굴 이미지와 상기 제1 얼굴 이미지에 대응하는 사용자는 동일한 사용자이지만 이미지가 매칭되지 않는 경우; 를 포함하는 것을 특징으로 하는, 전자기기.
  12. 제11항에 있어서, 상기 제2 타겟 정보는 제3 얼굴 이미지를 포함하고, 상기 제1 처리 모듈은 구체적으로,
    상기 제2 타겟 정보가 제2 계정의 친구추가 요청인 경우, 상기 제2 계정의 친구추가 요청에 응답하여 상기 제2 계정을 친구로 추가하되, 상기 제2 계정은 상기 제3 얼굴 이미지에 대응하는 계정이고, 상기 제3 얼굴 이미지는 상기 제2 얼굴 이미지와 매칭되는 것을 특징으로 하는, 전자기기.
  13. 전자기기에 있어서, 상기 전자기기는 제2 웨어러블 기기이고, 상기 제2 웨어러블 기기는 제2 이미지 수집기를 포함하고, 상기 전자기기는,
    상기 제2 웨어러블 기기와 제1 웨어러블 기기가 사전설정 위치 관계를 충족하는 경우, 상기 제1 웨어러블 기기에 제1 타겟 정보를 송신하는 송신 모듈을 포함하되, 여기서 상기 제1 타겟 정보는 제1 얼굴 이미지를 포함하고,
    상기 사전설정 위치 관계는,
    상기 제2 웨어러블 기기가 상기 제1 웨어러블 기기의 제1 이미지 수집기의 초점 영역 내에 위치하는 것; 및
    상기 제1 웨어러블 기기와 상기 제2 웨어러블 기기 사이의 거리가 사전설정 거리보다 작거나 같은 것; 중 적어도 하나를 포함하는 것을 특징으로 하는, 전자기기.
  14. 제13항에 있어서, 상기 송신 모듈은,
    상기 제2 웨어러블 기기와 제1 웨어러블 기기가 상기 사전설정 위치 관계를 충족하는 경우, 상기 제1 웨어러블 기기를 착용한 사용자의 제4 얼굴 이미지를 획득하고, 제3 웨어러블 기기의 통신 정보를 획득하는 획득부 - 상기 제3 웨어러블 기기는 상기 제2 웨어러블 기기의 통신거리 내에 위치한 웨어러블 기기이고, 각 상기 제3 웨어러블 기기의 통신 정보는 모두 통신 식별자 및 상기 통신 식별자와 연관된 제5 얼굴 이미지를 포함함-;
    상기 제4 얼굴 이미지와 매칭되는 제5 얼굴 이미지와 연관된 통신 식별자를 상기 제1 웨어러블 기기의 통신 식별자로 결정하는 결정부; 및
    상기 제1 웨어러블 기기의 통신 식별자에 따라 상기 제1 웨어러블 기기에 제1 타겟 정보를 송신하는 송신부; 를 포함하는 것을 특징으로 하는, 전자기기.
  15. 메모리, 프로세서, 및 상기 메모리에 저장되고 상기 프로세서에서 실행될 수 있는 컴퓨터 프로그램을 포함하며, 상기 컴퓨터 프로그램이 상기 프로세서에 의해 실행될 때 제1항 내지 제5항 중 어느 한 항, 또는 제6항 및 제7항 중 어느 한 항에 의한 정보 처리 방법의 단계를 구현하는 것을 특징으로 하는, 전자기기.
  16. 컴퓨터 프로그램이 저장되어 있고, 상기 컴퓨터 프로그램이 프로세서에 의해 실행될 때 제1항 내지 제5항 중 어느 한 항, 또는 제6항 및 제7항 중 어느 한 항에 의한 정보 처리 방법의 단계를 구현하는 것을 특징으로 하는, 컴퓨터 판독가능 저장 매체.
  17. 비휘발성 저장 매체에 저장되고, 적어도 하나의 프로세서에 의해 실행됨으로써 제1항 내지 제5항 중 어느 한 항, 또는 제6항 및 제7항 중 어느 한 항에 의한 정보 처리 방법의 단계를 구현하는 것을 특징으로 하는, 컴퓨터 소프트웨어 제품.
  18. 제1항 내지 제5항 중 어느 한 항, 또는 제6항 및 제7항 중 어느 한 항에 의한 정보 처리 방법을 실행하도록 구성되는 것을 특징으로 하는, 전자기기.
KR1020227039760A 2020-04-20 2021-04-20 정보 처리 방법 및 전자기기 KR20230002728A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010310971.1 2020-04-20
CN202010310971.1A CN111444491B (zh) 2020-04-20 2020-04-20 一种信息处理方法和电子设备
PCT/CN2021/088357 WO2021213371A1 (zh) 2020-04-20 2021-04-20 信息处理方法和电子设备

Publications (1)

Publication Number Publication Date
KR20230002728A true KR20230002728A (ko) 2023-01-05

Family

ID=71653486

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020227039760A KR20230002728A (ko) 2020-04-20 2021-04-20 정보 처리 방법 및 전자기기

Country Status (6)

Country Link
US (1) US20230040115A1 (ko)
EP (1) EP4141711A4 (ko)
JP (1) JP2023522908A (ko)
KR (1) KR20230002728A (ko)
CN (1) CN111444491B (ko)
WO (1) WO2021213371A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111444491B (zh) * 2020-04-20 2021-09-14 维沃移动通信(杭州)有限公司 一种信息处理方法和电子设备

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007188321A (ja) * 2006-01-13 2007-07-26 Sony Corp 通信装置および通信方法、プログラム、並びに記録媒体
CN101964052A (zh) * 2010-09-21 2011-02-02 宇龙计算机通信科技(深圳)有限公司 一种信息发送方的身份识别方法及信息发送终端
CN103312382B (zh) * 2012-03-14 2016-12-14 联想(北京)有限公司 一种数据传输方法、操作设备及系统
US10263989B2 (en) * 2013-05-16 2019-04-16 Futureplay Inc. Method for matching multiple devices, and device and server system for enabling matching
KR101709983B1 (ko) * 2013-05-16 2017-02-24 주식회사 퓨처플레이 복수의 디바이스를 매칭시키는 방법, 그리고 상기 매칭이 가능하게끔 하여 주는 디바이스 및 서버 시스템
US9311525B2 (en) * 2014-03-19 2016-04-12 Qualcomm Incorporated Method and apparatus for establishing connection between electronic devices
TW201543252A (zh) * 2014-05-06 2015-11-16 和碩聯合科技股份有限公司 具有身分驗證機制之遠端控制方法及執行該方法之穿戴式裝置
CN104348977A (zh) * 2014-11-11 2015-02-11 深圳市中兴移动通信有限公司 移动终端的操作控制方法、主终端及从终端
CN105656918A (zh) * 2016-02-02 2016-06-08 广东小天才科技有限公司 一种穿戴设备佩戴者身份的验证方法和系统
CN105938526A (zh) * 2016-03-07 2016-09-14 李明 一种身份认证方法及系统
CN106331987A (zh) * 2016-08-16 2017-01-11 深圳天珑无线科技有限公司 基于接触的数据传输方法及终端
CN108734595A (zh) * 2017-04-17 2018-11-02 金德奎 一种照片拍摄和获取方法及其社交方法
CN107329714B (zh) * 2017-06-30 2022-03-25 北京小米移动软件有限公司 一种打印控制方法及装置
CN107426069B (zh) * 2017-08-23 2020-08-28 南京中感微电子有限公司 基于蓝牙的智能家居系统及其控制方法
CN108712729B (zh) * 2018-05-30 2021-03-02 福州米鱼信息科技有限公司 一种主动社交型穿戴设备及其实现方法
CN110191044A (zh) * 2018-10-24 2019-08-30 广东小天才科技有限公司 一种基于可穿戴设备的群组创建方法及可穿戴设备
CN111444491B (zh) * 2020-04-20 2021-09-14 维沃移动通信(杭州)有限公司 一种信息处理方法和电子设备

Also Published As

Publication number Publication date
CN111444491A (zh) 2020-07-24
US20230040115A1 (en) 2023-02-09
EP4141711A4 (en) 2023-09-13
JP2023522908A (ja) 2023-06-01
CN111444491B (zh) 2021-09-14
EP4141711A1 (en) 2023-03-01
WO2021213371A1 (zh) 2021-10-28

Similar Documents

Publication Publication Date Title
US11227042B2 (en) Screen unlocking method and apparatus, and storage medium
CN108256853B (zh) 一种支付方法和移动终端
WO2018161353A1 (zh) 一种分享照片的方法和装置
CN107784089B (zh) 一种多媒体数据的存储方法、处理方法及移动终端
CN107835286B (zh) 一种防止误解锁的方法及移动终端
WO2019218843A1 (zh) 按键配置方法、装置、移动终端及存储介质
WO2019184946A1 (zh) 人脸识别控制方法及移动终端
WO2019154184A1 (zh) 生物特征识别方法及移动终端
CN110096865B (zh) 下发验证方式的方法、装置、设备及存储介质
WO2019056969A1 (zh) 应用程序启动方法及移动终端
EP4096207A1 (en) Mobile terminal, method for detecting image capturing mode, and storage medium
WO2019011108A1 (zh) 虹膜识别方法及相关产品
CN108769410B (zh) 一种信息发送方法及移动终端
CN110225040B (zh) 一种信息处理方法和终端设备
CN109858447B (zh) 一种信息处理方法及终端
CN109257489B (zh) 一种显示方法及移动终端
CN108196663B (zh) 一种人脸识别方法、移动终端
WO2021083086A1 (zh) 信息处理方法及设备
US20230040115A1 (en) Information processing method and electronic device
CN109164951B (zh) 移动终端操作方法及移动终端
CN108897467B (zh) 一种显示控制方法及终端设备
CN109451143B (zh) 一种通话方法及移动终端
CN109165489B (zh) 一种终端、指纹验证方法及计算机可读存储介质
CN108108608B (zh) 一种移动终端的控制方法及移动终端
CN108282611B (zh) 一种图像处理方法及移动终端

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal