KR101786541B1 - 시선 개시형 핸드셰이크 - Google Patents

시선 개시형 핸드셰이크 Download PDF

Info

Publication number
KR101786541B1
KR101786541B1 KR1020157035401A KR20157035401A KR101786541B1 KR 101786541 B1 KR101786541 B1 KR 101786541B1 KR 1020157035401 A KR1020157035401 A KR 1020157035401A KR 20157035401 A KR20157035401 A KR 20157035401A KR 101786541 B1 KR101786541 B1 KR 101786541B1
Authority
KR
South Korea
Prior art keywords
communication device
handshake
processor
user
sight
Prior art date
Application number
KR1020157035401A
Other languages
English (en)
Other versions
KR20160010528A (ko
Inventor
쉬무엘 어
블래드 다비자
데이비드 애시
Original Assignee
엠파이어 테크놀로지 디벨롭먼트 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 filed Critical 엠파이어 테크놀로지 디벨롭먼트 엘엘씨
Publication of KR20160010528A publication Critical patent/KR20160010528A/ko
Application granted granted Critical
Publication of KR101786541B1 publication Critical patent/KR101786541B1/ko

Links

Images

Classifications

    • H04W76/023
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W76/00Connection management
    • H04W76/10Connection setup
    • H04W76/14Direct-mode setup
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/08Access security
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Abstract

기술은 일반적으로 시선 개시형 핸드셰이크를 구현하기에 유효한 시스템, 장치 및 방법을 설명한다. 일부 예시들에서, 제1 통신 장치의 프로세서는 제1 통신 장치로부터 제2 통신 장치로 향하는 시선을 검출할 수 있다. 제1 통신 장치는 제2 통신 장치에 핸드셰이크 요청을 송신할 수 있다. 제1 통신 장치는 제2 통신 장치로부터 핸드셰이크 확인을 수신할 수 있다. 핸드셰이크 요청 및 핸드셰이크 확인은 핸드셰이크를 생성하기에 유효할 수 있다. 제1 및 제2 통신 장치들은 그 후 데이터를 공유할 수 있다.

Description

시선 개시형 핸드셰이크 {LINE OF SIGHT INITIATED HANDSHAKE}
본 개시는 일반적으로 그 중에서도 시선 개시형 핸드셰이크의 구현과 관련된 방법, 기구, 시스템, 장치 및 컴퓨터 프로그램 제품에 속한다.
여기에서 달리 지적되지 않는다면, 본 섹션에서 설명되는 내용은 본 출원에서 청구범위에 대한 종래 기술이 아니며, 본 섹션에 포함함으로써 선행 기술로 인정되지 않는다.
증강 현실은 현실 세계를 배경으로서 사용하고, 증강 정보의 레이어를 추가할 수 있다. 센서는 실제 이미지 정보를 캡처할 수 있다. 프로세서는 현실 세계 이미지에 대한 부가적인 정보를 추가함으로써 캡처된 실제 정보를 변경할 수 있다. 예를 들어, 실제 빌딩의 이미지는 빅토리아 시대 빌딩의 이미지로서 디스플레이될 수 있다.
일 예시에서, 제1 통신 장치와 제2 통신 장치 사이에 핸드셰이크를 개시하는 방법이 일반적으로 설명된다. 방법은 제1 통신 장치의 프로세서에 의해 제1 통신 장치로부터 제2 통신 장치로 향하는 시선(line of sight)을 검출하는 것을 포함할 수 있다. 방법은 핸드셰이크 요청을 제1 통신 장치로부터 제2 통신 장치로 송신하는 방법을 포함할 수 있다. 방법은 또한 제1 통신 장치에서 제2 통신 장치로부터의 핸드셰이크 확인(handshake acknowledgement)을 수신하는 것을 포함할 수 있다. 핸드셰이크 요청 및 핸드셰이크 확인은 핸드셰이크를 생성하기에 유효할 수 있다.
일 예시에서, 제1 통신 장치와 제2 통신 장치 사이에서 핸드셰이크를 개시하기에 유효한 제1 통신 장치가 일반적으로 설명된다. 제1 통신 장치는 메모리 및 메모리와 통신할 수 있도록 구성된 프로세서를 포함할 수 있다. 프로세서는 제1 통신 장치로부터 제2 통신 장치로 향하는 시선을 검출하도록 구성될 수 있다. 프로세서는 제1 통신 장치로부터 제2 통신 장치로 핸드셰이크를 송신하도록 구성될 수 있다. 프로세서는 제2 통신 장치로부터 핸드셰이크 확인을 수신하도록 구성될 수 있다. 핸드셰이크 요청 및 핸드셰이크 확인은 핸드셰이크를 생성하기에 유효하다.
일 예시에서, 시스템이 일반적으로 설명된다. 시스템은 제1 통신 장치, 네트워크 및 네트워크를 통해 제1 통신 장치와 통신하도록 구성된 제2 통신 장치를 포함할 수 있다. 제1 통신 장치는 제1 메모리 및 제1 메모리와 통신하도록 구성된 제1 프로세서를 포함할 수 있다. 제1 프로세서는 제1 통신 장치로부터 제2 통신 장치로 향하는 시선을 검출하도록 구성될 수 있다. 제1 프로세서는 제1 통신 장치로부터 제2 통신 장치로 핸드셰이크 요청을 송신하도록 구성될 수 있다. 제2 통신 장치는 제2 메모리 및 제2 메모리와 통신하도록 구성된 제2 프로세서를 포함할 수 있다. 제2 프로세서는 핸드셰이크 요청을 수신하고 이에 응답하여 핸드셰이크 확인을 생성하기에 유효할 수 있다. 제1 프로세서는 제2 통신 장치로부터 핸드셰이크 확인을 수신하기에 유효할 수 있다. 핸드셰이크 요청 및 핸드셰이크 확인은 핸드셰이크를 생성하기에 유효할 수 있다.
이상의 요약은 단순히 예시적인 것으로서 어떠한 방식으로든 제한적으로 의도된 것은 아니다. 이하의 상세한 설명과 도면을 참조함으로써, 상기 설명된 예시적인 양태들, 실시예들, 그리고 특징들에 더하여, 추가적인 양태들, 실시예들, 그리고 특징들 또한 명확해질 것이다.
도1은 시선 개시형 핸드셰이크를 구현하기에 유효한 예시적 시스템을 예시하고;
도2는 시선 개시형 핸드셰이크를 구현하기에 유효한 예시적 시스템을 예시하고;
도3은 시선 개시형 핸드셰이크를 구현하기에 유효한 예시적 시스템을 예시하고;
도4는 시선 개시형 핸드셰이크를 구현하는 예시적 프로세스의 흐름도를 도시하고;
도5는 시선 개시형 핸드셰이크를 구현하기에 유효한 컴퓨터 프로그램 제품을 예시하며; 그리고
도6은 시선 개시형 핸드셰이크를 구현하기 위해 배열된 예시적 컴퓨팅 장치를 예시하는 블록도이고;
모두 여기에서 설명된 적어도 일부 실시예들에 따라 배열된다.
이하의 상세한 설명에서, 본 개시의 일부를 이루는 첨부된 도면이 참조된다. 문맥에서 달리 지시하고 있지 않은 한, 도면에서 유사한 부호는 통상적으로 유사한 컴포넌트를 나타낸다. 상세한 설명, 도면 및 청구범위에 설명되는 예시적인 실시예들은 제한적으로 여겨지지 않는다. 여기에서 제시되는 대상의 범위 또는 사상에서 벗어나지 않으면서 다른 실시예들이 이용될 수 있고, 다른 변경이 이루어질 수 있다. 여기에서 일반적으로 설명되고, 도면에 도시되는 본 개시의 양태는 다양한 다른 구성으로 배열, 대체, 조합, 분리 및 설계될 수 있으며 이 모두가 여기에서 명백히 고려됨이 쉽게 이해될 것이다.
본 개시는 일반적으로 그 중에서도 시선 개시형 핸드셰이크의 구현과 관련된 방법, 기구, 시스템, 장치 및 컴퓨터 프로그램 제품에 속한다.
간단히 말해, 기술은 일반적으로 시선 개시형 핸드셰이크를 구현하기에 유효한 시스템, 장치 및 방법을 설명한다. 제1 통신 장치의 프로세서는 제1 통신 장치로부터 제2 통신 장치로 향하는 시선을 검출할 수 있다. 제1 통신 장치는 제2 통신 장치로 핸드셰이크 요청을 송신할 수 있다. 제1 통신 장치는 제2 통신 장치로부터 핸드셰이크 확인을 수신할 수 있다. 핸드셰이크 요청 및 핸드셰이크 확인은 핸드셰이크를 생성하기에 유효할 수 있다. 제1 및 제2 통신 장치들은 그 후 데이터를 공유할 수 있다.
이하에서 보다 상세히 설명될 것처럼, 예를 들어 제1 및 제2 통신 장치들을 사용하는 제1 및 제2 사용자들은 각각 임계 시간 동안 아이 컨택(eye contact)을 유지하기 위해 각각의 시선을 향하게 할 수 있다. 제1 통신 장치는 제1 사용자가 제2 사용자와 데이터를 공유하기 원하는 입력을 제1 사용자로부터 수신할 수 있다. 데이터를 공유하기 위해 요청하는 입력에 응답하여, 제1 통신 장치는 제2 통신 장치로 핸드셰이크 요청을 송신할 수 있다. 제2 통신 장치는 핸드셰이크 요청을 수신하고 제1 통신 장치로 확인을 송신함으로써 핸드셰이크를 생성할 수 있다. 핸드셰이크가 생성되면, 두 개의 통신 장치들은 이후 데이터를 공유할 수 있다. 공유된 데이터는 예를 들어 오디오 정보, 이미지, 비디오, 등일 수 있다.
다른 실시예에서, 제1 통신 장치를 사용하는/착용하는 제1 사용자는 제2 통신 장치를 사용하는/착용하는 제2 사용자에 시선을 향하게 할 수 있다. 이 예시에서, 제1 사용자는 제2 사용자와 아이 컨택을 설정하지 못할 수 있다. 제1 사용자는 제1 통신 장치를 통하여 제2 사용자와 데이터를 공유하기 위해 요청할 수 있다. 데이터를 공유하기 위한 요청에 응답하여, 제1 통신 장치는 핸드셰이크 요청을 제2 통신 장치에 송신할 수 있다. 제2 통신 장치는 핸드셰이크 요청을 수신할 수 있고, 제2 사용자에게 핸드셰이크가 요청되었음을 알릴 수 있으며, 제2 사용자에게 제1 사용자를 디스플레이하거나 식별할 수 있다. 제2 통신 장치는 제2 통신 장치가 제1 통신 장치로 확인을 송신하면 핸드셰이크를 생성할 수 있다. 핸드셰이크가 생성되면, 두 개의 통신 장치들은 이후 데이터를 공유할 수 있다.
도1은 여기에서 설명되는 적어도 일부의 실시예들에 따라 배열된, 시선 개시형 핸드셰이크를 구현하기 위해 이용될 수 있는 예시적인 시스템을 예시한다. 이하에서 보다 상세히 논의될 것처럼, 일부 예시들에서, 시스템(100)은 둘 이상의 사용자(102, 104 및/또는 106)에 의해 사용될 수 있는 둘 이상의 통신 장치(120, 130 및/또는 140)를 포함할 수 있다. 일부 예시들에서, 통신 장치(120, 130 및/또는 140)는 구글 글라스 같이 증강 현실 안경과 같은 (여기에서 가끔 "장치", "AR 장치", 또는 "통신 장치"로 칭해지는) 증강 현실("AR") 장치일 수 있다. 장치(120, 130 및/또는 140)는 네트워크(116)를 통해 통신할 수 있다. 일부 예시들에서, 네트워크(116)는 LAN(local area network) 및/또는 WAN(wide area network), 와이파이 네트워크 및/또는 블루투스 네트워크 등이거나 포함할 수 있다.
AR 장치(120)는 카메라(122), 스피커(123), 프로세서(124), 마이크(125), 메모리(126) 및/또는 디스플레이(127)를 포함할 수 있다. 메모리(126)는 명령어(128)를 포함할 수 있다. AR 장치(130)는 카메라(132), 스피커(133), 프로세서(134), 마이크(135), 메모리(136) 및/또는 디스플레이(137)를 포함할 수 있다. 메모리(136)는 명령어(138)를 포함할 수 있다. AR 장치(140)는 카메라(142), 스피커(143), 프로세서(144), 마이크(145), 메모리(146) 및/또는 디스플레이(147)를 포함할 수 있다. 메모리(146)는 명령어(148)를 포함할 수 있다.
이하에서 보다 상세히 논의될 것처럼, 사용자(102)는 다른 사용자들(108) 중에서도 사용자(104)와 핸드셰이크 요청을 개시하기 위해 통신 장치(120)를 사용할 수 있다. 예를 들어, 통신 장치(120)는 제2 사용자(104) 쪽으로 향하는 사용자(102)의 시선을 검출할 수 있다. 시선은 예를 들어 사용자의 홍채에서 한쪽 끝과 홍채로부터 연장하는 다른 쪽 끝을 갖는 포물면의 원추를 포함할 수 있다. 시선은 가로막히지 않거나 부분적으로 가로막힐 수 있다. 제2 사용자(104)는 핸드셰이크 요청에 응답하여 확인을 송신하기 위해 통신 장치(130)를 사용할 수 있다. 예를 들어, 통신 장치(130)는 사용자(102) 쪽으로 향하는 사용자(104)의 시선을 검출하고, 사용자(104) 시선의 검출에 응답하여 확인을 송신할 수 있다. 여기에서 논의되는 다른 예시들에서, 사용자(102)는 또한 사용자(106)의 시선이 사용자(102) 쪽으로 향하지 않는 경우에도 사용자(106)와의 핸드셰이크 요청을 개시하기 위해 통신 장치(120)를 사용할 수 있다.
도2는 여기에서 설명된 적어도 일부의 실시예들에 따라 배열된, 시선 개시형 핸드셰이크를 구현하기 위해 이용될 수 있는 예시적인 시스템(150)을 예시한다. 도2는 추가적인 세부사항에 있어 실질적으로 시스템(100)과 유사하다. 도1의 컴포넌트들과 동일하게 라벨 붙여진 도2의 컴포넌트들은 명료성을 위하여 다시 설명되지 않을 것이다.
일 예시에서, 사용자(102, 104 및 106)는 방과 같은 장소에 다른 사용자들(108)과 있을 수 있다. AR 장치(120)는 사용자(104) 쪽으로 시선("LOS")(110)을 향하게 하는 AR 장치(120)를 착용하는/사용하는 사용자(102)를 검출할 수 있다. 예를 들어, 아이트래킹(eye tracking) 소프트웨어가 메모리(126)에 저장될 수 있고, 프로세서(124)에 의해 시선(110)을 검출하도록 사용될 수 있다. 아이트래킹 소프트웨어는 예를 들어 눈 방향을 결정하는데 사용되는 특징을 위해 각막 반사 및 동공의 중심을 찾을 수 있다. 아이트래킹 소프트웨어는 또한 머리 위치 및 머리 방향을 볼 수 있다. 아이트래킹 소프트웨어는 시선(110)을 검출하기 위해 머리 위치, 머리 방향 및 눈 방향을 조합할 수 있다.
사용자(104)는 사용자(104) 쪽으로 시선(110)을 향하게 하는 사용자(102)를 확인할 수 있다. 시선(110)을 확인한 것에 응답하여, 사용자(104)는 이후 사용자(102) 쪽으로 그/그녀의 시선(112)을 향하게 할 수 있다. AR 장치(130)는 사용자(104)가 사용자(102) 쪽으로 시선(LOS)(112)이 향하도록 선택했음을 검출할 수 있다. 사용자(102 및 104)는 이후 시선(110, 112)을 향하게 함으로써 아이 컨택을 설정하여 시선(110, 112)이 어떤 임계 시간에 일치하게 한다. 일 예시에서, 임계 시간은 약 1초에서 약 3초 사이에 있을 수 있다. 메모리(126)의 아이트래킹 소프트웨어(128)는 사용자(102)의 시선(110)을 검출할 수 있다. 아이트래킹 소프트웨어(128)는 또한 사용자(104)의 시선(112)을 검출할 수 있는데, 이는 일부에서 사용자(104)의 이미지가 통신 장치(120)의 카메라(122) 시야에 나타나기 때문이다. 시선(110, 112)이 검출된 후, AR 장치(120)는 또한 시선(110 및 112)이 임계 시간에 일치하는지 검출한다. 아이트래킹 소프트웨어(128)는 사용자(102)의 눈이 사용자(104)의 눈 쪽으로 향하는 것으로 검출되고 사용자(104)의 눈이 사용자(102)의 눈 쪽으로 향하는 것으로 검출되는 경우, 시선(110 및 112)이 일치하는지 검출할 수 있다.
사용자(102 및 104)는 시선(110, 112)이 일치하는지 검출하는 아이트래킹 소프트웨어(128)에 의해 검출될 수 있어서, 임계 시간 동안 아이 컨택을 유지할 수 있다. AR 장치(120)는 AR 장치(130)를 식별하고 AR 장치(130)에 핸드셰이크를 위한 요청("요청")(114)을 송신할 수 있다. 예를 들어, 사용자(102)는 AR 장치(120)에 요청(114)을 송신하도록 명령할 수 있다. 다른 예시에서, 요청(114)은 시선(110, 112)이 임계 시간 동안 일치해 왔는지 검출하는 AR 장치(120)에 응답하여 송신될 수 있다. 요청(114)은 지향성 안테나에 의한 또는 유향의 광 통신(directed optical communication)을 통한 것처럼 AR 장치(130)에 향하게 될 수 있다. 요청(114)은 또한 통신 범위 내의 일부 또는 모든 장치에 방송될 수 있고, 요청(114)은 요청이 의도된 장치에 대한 식별 데이터를 포함할 수 있다. 식별 데이터는 장치(130)의 위치, 사진과 같은 사용자(104)의 신원, 사용자(104)에 관한 정보 등을 포함할 수 있다. AR 장치(130)는 AR 장치(120)의 시야에서 보이는 AR 장치(130)로 인해 식별될 수 있다. AR 장치(130)는 사용자(102)로부터 시선(112)을 따라 위치 되어있는 AR 장치(130)로 인해 식별될 수 있다. 다수의 통신 장치들이 AR 장치(120)의 시야에 및/또는 시선(112)을 따라서 있는 예시들에서, 요청(114)은 둘 이상의 통신 장치에 송신되거나 또는 방송될 수 있다.
일 예시에서, AR 장치(120)는 구두 신호(verbal cue), 제스처, 머리 움직임, 버튼 또는 AR 장치(120) 표면에 대한 터치 등의 검출로, AR 장치(130)로 핸드셰이크를 위한 요청(114)을 송신할 수 있다. 요청(114)은 사용자(102)의 사진, 마이크(125)에 의해 녹음된 오디오, 사용자(102)의 위치, 사용자(102)의 이름 등과 같은 장치(120)에 관한 정보를 포함할 수 있다. AR 장치(130)는 디스플레이(137) 또는 스피커(133)를 통해서와 같이 요청(114)을 사용자(104)에게 알릴 수 있다. AR 장치(130)는 또한 사용자(104)에게 사용자(102)의 이미지를 디스플레이하거나, 다른 방법으로 사용자(102)를 식별할 수 있다. 예를 들어, AR 장치(130)는 디스플레이(137) 또는 스피커(133)를 통해서와 같은 요청(114)에 통신 장치(120)에 관련된 정보의 일부를 출력할 수 있다. 사용자(104)는 사용자(102)에게 확인("AK")(116)을 송신함으로써 핸드셰이크를 생성하도록 AR 장치(130)에 명령할 수 있다. AR 장치(130)는 구두 신호, 제스처, 머리 움직임, 버튼 또는 AR 장치(120) 표면에 대한 터치 등을 검출하는 것과 같은 방법으로 확인(116)을 송신하기 위해 사용자(104)의 명령어를 검출할 수 있다.
확인(116)은 사용자(106)의 사진, 마이크(135)에 의해 녹음된 오디오, 사용자(106)의 위치, 사용자(106)의 이름 등과 같은 사용자(104)와 관련된 정보를 포함하는, 통신 장치(130)에 관한 정보를 포함할 수 있다. 통신 장치(120)는 확인(116)의 정보를 분석하는 것과 같은 방법으로, 확인(116)을 입증할 수 있다. 일 예시에서, 확인(116)은 사용자(104)의 사진을 포함할 수 있다. 통신 장치(120)는 디스플레이(127) 상에 사용자(104)의 사진을 디스플레이할 수 있다. 통신 장치(120)는 사용자(102)가 사진이 사용자(102)가 통신하기 원하는 사람과 일치하는지 확인하도록 요청할 수 있다. 사용자(102)는 확인(116)을 입증하도록 통신 장치(120)에 입력을 제공할 수 있다. 확인(116)이 입증되면, AR 장치(120)와 AR 장치(130) 사이에 핸드셰이크가 생성된다.
AR 장치(120)와 AR 장치(130) 사이에 핸드셰이크가 생성될 경우, 두 개의 AR 장치들은 이후 데이터를 공유할 수 있다. 데이터의 공유는 오디오 또는 비디오 데이터를 송신하는 것과 수신하는 것을 포함할 수 있다. 데이터의 공유는 각각의 스피커(123 및 133), 마이크(125 및 135), 카메라(122 및 132) 및/또는 디스플레이(127 및/또는 137)를 이용하는 것을 포함할 수 있다. 예를 들어, 사용자(102 및 104)는 핸드셰이크와 요청(114) 및 확인(116)에 의해 생성된 후속하는 데이터 공유 때문에, 심지어 시끄러운 방에서도, 서로 통신할 수 있다.
일 예시에서, 제1 사용자(102)는 제2 사용자(104) 쪽으로 그/그녀의 시선을 향하게 할 수 있다. 제2 사용자(104)는 유사하게 그/그녀의 시선을 제1 사용자 쪽으로 향하게 할 수 있다. 시선들은 제1 및 제2 사용자들이 통신하기 원함을 나타내는 것과 일치할 수 있다. 제1 및 제2 사용자들은 각자 구글 글라스와 같은 증강 현실 안경을 착용하는 것일 수 있다. AR 장치(120)는 시선들을 검출할 수 있고, AR 장치(130)가 시선(110)을 따르도록 결정할 수 있다. 제1 사용자는 사용자(102)가 사용자(104)와 데이터를 공유하기 원한다는 것을 나타내도록 통신 장치(120)의 표면을 깜박거리거나 만질 수 있다. 제1 통신 장치는 핸드셰이크에 개시하기 위해 사용자(102)에 의한 요청을 검출하는 것에 응답하여, 제2 통신 장치에 핸드셰이크를 위한 요청을 송신할 수 있다. 요청은 사용자의 사진을 포함할 수 있다. 사진은 카메라(122)에 의해 캡처되었을 수 있다.
제2 통신 장치는 요청을 수신할 수 있다. 제2 사용자는 이후 제2 통신 장치를 깜박이거나 만지는 것과 같은 방법으로 제2 사용자가 제1 사용자와 말하기 바란다는 것을 제2 통신 장치에 나타낼 수 있다. 제2 사용자가 말하고 싶다는 바람을 나타낸 것에 응답하여, 제2 통신 장치는 제1 통신 장치에 핸드셰이크 확인을 송신할 수 있다. 제1 통신 장치는 확인을 수신하고 핸드셰이크를 생성할 수 있다. 이제 통신 경로가 제1 및 제2 사용자들 사이에 생성되었다. 예를 들어, 제1 사용자는 마이크(125)에 말할 수 있다. 제1 AR 장치는 제2 AR 장치에 마이크를 통해 캡처된 정보를 송신할 수 있다. 제2 AR 장치는 스피커(133)를 통해 정보를 출력할 수 있다.
도3은 여기에서 설명된 적어도 일부의 실시예들에 따라 배열된, 시선 개시형 핸드셰이크를 구현하기에 유효한 예시적 시스템(200)을 예시한다. 도3의 시스템(200)은 시스템(100 및 150)과 추가적인 세부사항에 있어 실직적으로 유사하다. 도1 및 도2의 컴포넌트들과 동일하게 라벨 붙여진 도3의 컴포넌트들은 명료성을 위해 다시 설명되지 않을 것이다.
다른 예시에서, AR 장치(120)는 AR 장치(120)를 사용하는 사용자(102)가 사용자(106) 쪽으로 그/그녀의 시선(LOS)(110)을 향하게 하였는지 검출할 수 있다. 사용자(106)는 사용자(102)의 방향에 그/그녀의 시선이 향하지 않게 할 수 있다. 사용자(102)는 사용자(106)와 통신하기 원하지만, 아이 컨택을 설정하지 못할 수 있다. 예시에서, AR 장치(120)는 AR 장치(120)로부터 AR 장치(140)로 핸드셰이크 요청(115)을 송신하도록 사용자(102)로부터 명령어를 검출할 수 있다. 요청(114)은 사용자(102)의 사진, 마이크(125)에 의해 녹음된 오디오, 사용자(102)의 위치, 사용자(102)의 이름 등과 같은, 통신 장치(102)에 관한 정보를 포함할 수 있다. AR 장치(120)에 의해 검출된, 사용자(102)에 의한 명령어는 구두 신호, 제스처, 머리 움직임, 버튼 또는 장치(120)의 표면에 대한 터치 등일 수 있다. 요청(115)은 AR 장치(120)에 의해 AR 장치(120)의 방송 범위 내에서 장치들에 방송될 수 있다. AR 장치(140)는 요청(115)을 수신하고 디스플레이(147) 또는 스피커(143)를 통해서와 같이 사용자(106)에게 요청의 부분 또는 요청(115) 내의 정보를 출력할 수 있다.
AR 장치(140)는 장치(140)의 디스플레이(147) 상에 이미지를 디스플레이하고 이미지에 사용자(120)를 강조하는 것과 같은 방법으로 사용자(106)에게 사용자(102)를 디스플레이하거나 식별할 수 있다. 예를 들어, AR 장치(140)는 정보가 AR 장치(120)의 위치 또는 다른 식별을 포함할 경우의 예시들에서, 핸드셰이크 요청(114) 내 정보에 기초하여 AR 장치(120) 또는 사용자(102)를 식별할 수 있다. AR 장치(140)가 AR 장치(120)를 식별한 뒤에, AR 장치(140)는 이후 사용자(102)를 식별하고 디스플레이(147) 상에 사용자(102)를 강조할 수 있다.
사용자(106)는 장치(140)가 요청(114)을 확인하고 핸드셰이크를 생성하도록 요청할 수 있다. 사용자(106)는 사용자(102)에게 핸드셰이크 확인("AK")(117)을 송신함으로써 핸드셰이크를 생성하도록 AR 장치(140)에 명령할 수 있다. AR 장치(140)에 의해 검출된, 사용자(106)에 의한 핸드셰이크 확인 명령어는 구두 신호, 제스처, 머리 움직임, 버튼 또는 AR 장치(140) 표면에 대한 터치 등일 수 있다. 확인(117)은 사용자(106)의 사진과 같은 장치(140)에 관한 정보를 포함할 수 있다.
통신 장치(120)는 확인(117)의 정보를 분석하는 것과 같은 방법으로, 확인(117)을 입증할 수 있다. 일 예시에서, 확인(117)은 사용자(106)의 사진을 포함할 수 있다. 통신 장치(120)는 디스플레이(127) 상에 사용자(106)의 사진을 디스플레이할 수 있다. 통신 장치(120)는 사용자(102)가 사진이 사용자(102)가 통신하기 원하는 사람과 일치하는지 확인하도록 요청할 수 있다. 사용자(102)는 확인(117)을 입증하도록 통신 장치(120)에 입력을 제공할 수 있다. 확인(117)이 입증되면, AR 장치(120)와 AR 장치(140) 사이에 핸드셰이크가 생성된다.
일 예시에서, 제1 사용자(102)는 제2 사용자(106) 쪽으로 그/그녀의 시선을 향하게 할 수 있다. 제2 사용자(106)는 그/그녀의 시선이 제1 사용자를 벗어나도록 향하게 할 수 있다. 제1 및 제2 사용자들은 각자 구글 글라스와 같은 증강 현실 안경을 착용하는 것일 수 있다. 제1 사용자는 사용자(102)가 사용자(106)와 데이터를 공유하기 원한다는 것을 나타내도록 통신 장치(120)의 표면을 깜박거리거나 만질 수 있다. 제1 통신 장치는 응답하여, 제2 통신 장치로 핸드셰이크를 위한 요청을 송신할 수 있다. 요청은 제1 사용자의 사진을 포함할 수 있다. 사진은 카메라(122)에 의해 캡처되었을 수 있다.
제2 통신 장치는 요청을 수신할 수 있다. 제2 통신 장치는 디스플레이(147) 상에 제1 사용자의 사진을 디스플레이할 수 있다. 제2 통신 장치는 또한 디스플레이(147) 상에 제1 사용자를 강조할 수 있다. 제2 사용자는 이후 제2 통신 장치를 깜박이거나 만지는 것과 같은 방법으로 제2 사용자가 제1 사용자와 말하기 바란다는 것을 제2 통신 장치에 나타낼 수 있다. 제2 사용자가 제1 사용자에게 말하고 싶다는 바람을 나타낸 것에 응답하여, 제2 통신 장치는 제1 통신 장치에 핸드셰이크 확인을 송신할 수 있다. 제1 통신 장치는 확인을 수신하고 핸드셰이크를 생성할 수 있다. 이제 통신 경로가 제1 및 제2 사용자들 사이에 생성되었다. 예를 들어, 제1 사용자는 마이크(125)에 말할 수 있다. 제1 AR 장치는 제2 AR 장치에 마이크를 통해 캡처된 정보를 송신할 수 있다. 제2 AR 장치는 스피커(143)를 통해 정보를 출력할 수 있다.
다른 잠재적인 이점 중에서도, 본 개시에 따른 시스템은 사용자들이 시끄럽고 붐비는 위치에서 다른 사용자들과의 통신을 개시하도록 허용할 수 있다. 예를 들어, 제1 사용자는 시끄럽고 붐비는 나이트클럽에 있는 방 건너편으로부터 춤을 추기 위해 제2 사용자를 초대할 수 있다. 다른 예시에서, 제1 사용자는 제2 사용자가 제1 사용자의 방향을 쳐다보지 않는 경우에도, 제2 사용자를 쳐다봄으로써 시끄럽고 붐비는 방에서 제2 사용자와 통신을 설정할 수 있다.
도4는 여기에서 설명된 적어도 일부 실시예들에 따라 배열된, 시선 개시형 핸드셰이크를 구현하기 위한 예시적 프로세스들(250)의 흐름도를 도시한다. 도4의 프로세스는 예를 들어, 위에서 논의된 시스템(100, 150, 또는 200)을 사용하여 구현될 수 있다. 제1 통신 장치와 제2 통신 장치 사이에 핸드셰이크를 개시하기 위한 예시적 방법은 하나 이상의 블록(S2, S4 및/또는 S6)에 의해 예시되었듯 하나 이상의 동작, 행동, 또는 기능을 포함할 수 있다. 별개의 블록들로 예시었으나, 다양한 블록들이 요구되는 구현예에 따라 추가적인 블록들로 나누어지거나, 더 적은 블록들로 조합되거나, 제거될 수 있다. 프로세싱은 블록 S2에서 시작할 수 있다.
블록 S2에서, "제1 통신 장치 내 프로세서에 의하여, 제1 통신 장치로부터 제2 통신 장치로 향하는 시선을 검출"한다. 제1 통신 장치의 프로세서는 시선을 검출하기 위해 메모리에 저장된 아이트래킹 소프트웨어를 사용할 수 있다. 프로세서는 시선이 제2 통신 장치 쪽으로 향해 있는지 결정할 수 있다. 제1 및 제2 통신 장치들은 증강 현실 안경을 포함할 수 있다.
프로세싱은 블록 S2로부터 블록 S4, "제1 통신 장치로부터 제2 통신 장치로 핸드셰이크 요청을 송신"까지 계속될 수 있다. 핸드셰이크 요청은 프로세서가 임계 시간 동안 제1 통신 장치의 시선이 제2 통신 장치의 시선과 일치하는지 검출하는 것에 응답하여 송신될 수 있다. 핸드셰이크 요청은 프로세서가 구두 신호, 제스처, 머리 움직임, 버튼 또는 제1 통신 장치의 표면에 대한 터치를 검출하는 것에 응답하여 송신될 수 있다. 핸드셰이크 요청은 사용자의 얼굴 사진, 사용자의 위치, 사용자의 이름 등과 같은 제1 통신 장치에 관한 정보를 포함할 수 있다.
프로세싱은 블록 S4로부터 블록 S6, "제1 통신 장치에서 제2 통신 장치로부터 핸드셰이크 확인을 수신하고, 핸드셰이크 요청 및 핸드셰이크 확인은 핸드셰이크를 생성하기에 유효함"까지 계속될 수 있다. 핸드셰이크 확인은 사용자의 사진과 같은 제2 통신 장치에 관한 정보를 포함할 수 있다. 제1 통신 장치는 확인 내 정보를 분석하는 것과 같은 방법으로 확인을 입증할 수 있다. 확인이 입증되면, 핸드셰이크가 제1 통신 장치와 제2 통신 장치 사이에 생성될 수 있다. 데이터는 이후 제1 통신 장치와 제2 통신 장치 사이에 공유될 수 있다.
도5는 여기에서 설명된 적어도 일부의 실시예들에 따라 배열된, 시선 개시형 핸드셰이크를 구현하는데 유효한 컴퓨터 프로그램 제품(300)을 예시한다. 프로그램 제품(300)은 신호 베어링 매체(302)를 포함할 수 있다. 신호 베어링 매체(302)는, 예를 들어 프로세서에 의해 수행될 경우, 도1 내지 도4에서 전술한 기능을 제공할 수 있는 하나 이상의 명령어(304)를 포함할 수 있다.
일부 구현예에서, 신호 베어링 매체(302)는 하드 디스크 드라이브, CD(Compact Disc), DVD(Digital Video Disk), 디지털 테이프, 메모리 등과 같은 컴퓨터 판독 가능 매체(306)를 포함할 수 있으나, 이에 제한되지는 않는다. 일부 구현예에서, 신호 베어링 매체(302)는 메모리, 읽기/쓰기(R/W) CD, R/W DVD 등과 같은 기록 가능 매체(308)를 포함할 수 있으나, 이에 제한되지는 않는다. 일부 구현예에서, 신호 베어링 매체(302)는 디지털 및/또는 아날로그 통신 매체(예컨대, 광섬유 케이블, 도파관(waveguide), 유선 통신 링크, 무선 통신 링크 등)와 같은 통신 매체(310)를 포함할 수 있으나, 이에 제한되지는 않는다. 따라서, 예컨대, 프로그램 제품(300)은, 신호 베어링 매체(302)가 무선 통신 매체(310)(예컨대, IEEE 802.11 표준에 따르는 무선 통신 매체)에 의해 전달되는 RF 신호 베어링 매체(302)에 의하여 시스템(100)의 하나 이상의 모듈로 전달될 수 있다.
도6은 여기에서 설명된 적어도 일부의 실시예들에 따라 배열된, 시선 개시형 핸드셰이크를 구현하도록 배열된 컴퓨팅 장치(400)의 일 예시를 예시하는 블록도이다. 매우 기본 구성(402)에서, 컴퓨팅 장치(400)는 통상적으로 하나 이상의 프로세서(404) 및 시스템 메모리(406)를 포함한다. 메모리 버스(408)는 프로세서(404)와 시스템 메모리(406) 사이의 통신에 이용될 수 있다.
요구되는 구성에 따라, 프로세서(404)는 마이크로프로세서(μP), 마이크로컨트롤러(μC), 디지털 신호 프로세서(DSP) 또는 그 임의의 조합을 포함하는 임의의 유형일 수 있지만, 이에 한정되는 것은 아니다. 프로세서(404)는 레벨 1 캐시(410) 및 레벨 2 캐시(412)와 같은 하나 이상의 레벨의 캐싱, 프로세서 코어(414) 및 레지스터(416)를 포함할 수 있다. 예시적인 프로세서 코어(414)는 ALU(arithmetic logic unit), FPU(floating point unit), DSP 코어(digital signal processing core), 또는 그 임의의 조합을 포함할 수 있다. 예시적인 메모리 컨트롤러(418)는 또한 프로세서(404)와 사용될 수 있거나, 또는 일부 구현예에서, 메모리 컨트롤러(418)는 프로세서(404)의 내부 부품일 수 있다.
요구되는 구성에 따라, 시스템 메모리(406)는 (RAM과 같은) 휘발성 메모리, (ROM, 플래시 메모리 등과 같은) 비휘발성 메모리, 또는 그 임의의 조합을 포함할 수 있지만, 이에 한정되지 않는 임의의 유형일 수 있다. 시스템 메모리(406)는 운영 체제(420), 하나 이상의 애플리케이션(422) 및 프로그램 데이터(424)를 포함할 수 있다.
애플리케이션(422)은 이전에 도1 내지 5에 대하여 설명한 바를 포함하여 여기에서 설명된 것처럼 기능을 수행하도록 배열된 시선 개시형 핸드셰이크 알고리즘(426)을 포함할 수 있다. 프로그램 데이터(424)는 여기에서 설명된 것처럼 시선 개시형 핸드셰이크를 구현하는데 유용할 수 있는 시선 개시형 핸드셰이크 데이터(428)를 포함할 수 있다. 일부 실시예들에서, 애플리케이션(422)은 운영 체제(420)의 프로그램 데이터(424)와 동작하도록 배열되어 시선 개시형 핸드셰이크의 구현이 제공될 수 있다. 이러한 설명된 기본 구성(402)은 안쪽 파선 내의 컴포넌트에 의해 도6에 예시된다.
컴퓨팅 장치(400)는 추가적인 특징 또는 기능 및 기본 구성(402)과 임의의 요구되는 장치와 인터페이스 간 통신을 용이하게 하기 위한 추가적인 인터페이스를 가질 수 있다. 예를 들면, 버스/인터페이스 컨트롤러(430)는 저장 인터페이스 버스(434)를 통한 기본 구성(402)과 하나 이상의 데이터 저장 장치(432) 간의 통신을 용이하게 하는데 사용될 수 있다. 데이터 저장 장치(432)는 분리형 저장 장치(436), 비분리형 저장 장치(438), 또는 그들의 조합일 수 있다. 분리형 저장 장치 및 비분리형 저장 장치의 예로는, 몇 가지 말하자면, 플렉서블 디스크 드라이브 및 하드 디스크 드라이브(HDD)와 같은 자기 디스크 장치, 컴팩트 디스크(CD) 드라이브 또는 디지털 다기능 디스크(DVD) 드라이브와 같은 광 디스크 드라이브, 고체 상태 드라이브(solid state drive; SSD) 및 테이프 드라이브가 포함된다. 예시적인 컴퓨터 저장 매체는, 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 다른 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성의, 분리형 및 비분리형 매체를 포함할 수 있다.
시스템 메모리(406), 분리형 저장 장치(436) 및 비분리형 저장 장치(438)는 모두 컴퓨터 저장 매체의 예이다. 컴퓨터 저장 매체는 RAM, ROM, EEPROM, 플래시 메모리 또는 다른 메모리 기술, CD-ROM, 디지털 다기능 디스크(DVD) 또는 다른 광학 저장 장치, 자기 카세트, 자기 테이프, 자기 디스크 저장 장치 또는 다른 자기 저장 장치, 또는 원하는 정보를 저장하는데 사용될 수 있고 컴퓨팅 장치(400)에 의해 액세스될 수 있는 임의의 다른 매체를 포함하지만, 이에 한정되는 것은 아니다. 그러한 임의의 컴퓨터 저장 매체는 장치(400)의 일부일 수 있다.
컴퓨팅 장치(400)는 버스/인터페이스 컨트롤러(430)를 통한 다양한 인터페이스 장치(예를 들면, 출력 장치(442), 주변 인터페이스(444) 및 통신 장치(446))로부터 기본 구성(402)으로의 통신을 용이하게 하기 위한 인터페이스 버스(440)도 포함할 수 있다. 예시적인 출력 장치(442)는 그래픽 처리 유닛(448) 및 오디오 처리 유닛(450)을 포함하며, 이는 하나 이상의 A/V 포트(452)를 통해 디스플레이 또는 스피커와 같은 다양한 외부 장치로 통신하도록 구성될 수 있다. 예시적인 주변 인터페이스(444)는 직렬 인터페이스 컨트롤러(454) 또는 병렬 인터페이스 컨트롤러(456)를 포함하며, 이는 하나 이상의 I/O 포트(458)를 통해 입력 장치(예를 들면, 키보드, 마우스, 펜, 음성 입력 장치, 터치 입력 장치 등) 또는 다른 주변 장치(예를 들면, 프린터, 스캐너 등)와 같은 외부 장치와 통신하도록 구성될 수 있다. 예시적인 통신 장치(446)는 네트워크 컨트롤러(460)를 포함하며, 이는 하나 이상의 통신 포트(464)를 통해 네트워크 통신 상에서의 하나 이상의 다른 컴퓨팅 장치(462)와의 통신을 용이하게 하도록 배치될 수 있다.
네트워크 통신 링크는 통신 매체의 일 예시일 수 있다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파 또는 다른 전송 메커니즘 같은 변조된 데이터 신호 내의 다른 데이터에 의해 구현될 수 있고, 임의의 정보 전달 매체를 포함할 수 있다. "변조된 데이터 신호"는 신호 내에 정보를 인코딩하기 위한 방식으로 설정되거나 변경된 특성 중 하나 이상을 갖는 신호일 수 있다. 제한적이지 않은 예로서, 통신 매체는 유선 네트워크 또는 직접 유선 접속과 같은 유선 매체 및 음파, 무선 주파수(RF), 마이크로웨이브, 적외선(IR) 및 다른 무선 매체와 같은 무선 매체를 포함할 수 있다. 여기서 사용되는 컴퓨터 판독가능 매체라는 용어는 저장 매체 및 통신 매체 둘 다를 포함할 수 있다.
컴퓨팅 장치(400)는, 휴대 전화, PDA(personal data assistant), 개인용 미디어 플레이어 장치, 무선 웹-워치(web-watch) 장치, 개인용 헤드셋 장치, 특수 용도 장치, 또는 위 기능 중 임의의 것을 포함하는 하이브리드 장치 같은 소형 폼 팩터(small-form factor)의 휴대용(또는 모바일) 전자 장치의 일부로서 구현될 수 있다. 컴퓨팅 장치(400)는 또한 랩톱 컴퓨터 및 랩톱이 아닌 컴퓨터 구성을 모두 포함하는 개인용 컴퓨터로서 구현될 수 있다.
본 개시는 다양한 태양의 예시로서 의도된 본 출원에 설명된 특정 예시들에 제한되지 않을 것이다. 당업자에게 명백할 바와 같이, 많은 수정과 변형이 그 사상과 범위를 벗어나지 않으면서 이루어질 수 있다. 여기에 열거된 것들에 더하여, 본 개시의 범위 안에서 기능적으로 균등한 방법과 장치가 위의 설명으로부터 당업자에게 명백할 것이다. 그러한 수정과 변형은 첨부된 청구항의 범위에 들어가도록 의도된 것이다. 본 개시는 첨부된 청구항의 용어에 의해서만, 그러한 청구항에 부여된 균등물의 전 범위와 함께, 제한될 것이다. 본 개시가 물론 다양할 수 있는 특정 방법, 시약, 합성 구성 또는 생물학적 시스템에 제한되지 않는 것으로 이해될 것이다. 또한, 여기에서 사용된 용어는 단지 특정 예시들을 설명하기 위한 목적이고, 제한하는 것으로 의도되지 않음이 이해될 것이다.
여기에서 실질적으로 임의의 복수 및/또는 단수의 용어 사용에 대하여, 당업자는 맥락 및/또는 응용에 적절하도록, 복수를 단수로 및/또는 단수를 복수로 해석할 수 있다. 다양한 단수/복수의 치환은 명확성을 위해 여기에서 명시적으로 기재될 수 있다.
당업자라면, 일반적으로 본 개시에 사용되며 특히 첨부된 청구범위(예를 들어, 첨부된 청구범위의 주요부(body))에 사용된 용어들이 일반적으로 "개방적(open)" 용어(예를 들어, 용어 "포함하는"은 "포함하지만 이에 제한되지 않는"으로, 용어 "갖는"는 "적어도 갖는"으로, 용어 "포함하다"는 "포함하지만 이에 한정되지 않는" 등으로 해석되어야 함)로 의도되었음을 이해할 것이다. 또한, 당업자라면, 도입된 청구항의 기재사항의 특정 수가 의도된 경우, 그러한 의도가 청구항에 명시적으로 기재될 것이며, 그러한 기재사항이 없는 경우, 그러한 의도가 없음을 또한 이해할 것이다. 예를 들어, 이해를 돕기 위해, 이하의 첨부된 청구범위는 "적어도 하나" 및 "하나 이상" 등의 도입 구절의 사용을 포함하여 청구항 기재사항을 도입할 수 있다. 그러나, 그러한 구절의 사용은, 부정관사 "하나"("a" 또는 "an")에 의한 청구항 기재사항의 도입이, 그러한 하나의 기재사항을 포함하는 예시들로, 그러한 도입된 청구항 기재사항을 포함하는 특정 청구항을 제한함을 암시하는 것으로 해석되어서는 안되며, 동일한 청구항이 도입 구절인 "하나 이상" 또는 "적어도 하나" 및 "하나"("a" 또는 "an")과 같은 부정관사(예를 들어, "하나"는 "적어도 하나" 또는 "하나 이상"을 의미하는 것으로 해석되어야 함)를 포함하는 경우에도 마찬가지로 해석되어야 한다. 이는 청구항 기재사항을 도입하기 위해 사용된 정관사의 경우에도 적용된다. 또한, 도입된 청구항 기재사항의 특정 수가 명시적으로 기재되는 경우에도, 당업자라면 그러한 기재가 적어도 기재된 수(예를 들어, 다른 수식어가 없는 "두개의 기재사항"을 단순히 기재한 것은, 적어도 두 개의 기재사항 또는 두 개 이상의 기재사항을 의미함)를 의미하도록 해석되어야 함을 이해할 것이다. 또한, "A, B 및 C 등 중의 적어도 하나"와 유사한 규칙이 사용된 경우에는, 일반적으로 그러한 해석은 당업자가 그 규칙을 이해할 것이라는 전제가 의도된 것이다(예를 들어, "A, B 및 C 중의 적어도 하나를 갖는 시스템"은, A만을 갖거나, B만을 갖거나, C만을 갖거나, A 및 B를 함께 갖거나, A 및 C를 함께 갖거나, B 및 C를 함께 갖거나, A, B 및 C를 함께 갖는 시스템 등을 포함하지만 이에 제한되지 않음). "A, B 또는 C 등 중의 적어도 하나"와 유사한 규칙이 사용된 경우에는, 일반적으로 그러한 해석은 당업자가 그 규칙을 이해할 것이라는 전제가 의도된 것이다(예를 들어, "A, B 또는 C 중의 적어도 하나를 갖는 시스템"은, A만을 갖거나, B만을 갖거나, C만을 갖거나, A 및 B를 함께 갖거나, A 및 C를 함께 갖거나, B 및 C를 함께 갖거나, A, B 및 C를 함께 갖는 시스템 등을 포함하지만 이에 제한되지 않음). 또한 당업자라면, 실질적으로 임의의 이접 접속어(disjunctive word) 및/또는 두 개 이상의 대안적인 용어들을 나타내는 구절은, 그것이 상세한 설명, 청구범위 또는 도면에 있는지와 상관없이, 그 용어들 중의 하나, 그 용어들 중의 어느 하나, 또는 그 용어들 두 개 모두를 포함하는 가능성을 고려했음을 이해할 것이다. 예를 들어, "A 또는 B"라는 구절은 "A" 또는 "B" 또는 "A 및 B"의 가능성을 포함하는 것으로 이해될 것이다.
추가적으로, 개시의 특징 또는 양태가 마쿠시(Markush) 그룹으로 기술되는 경우, 개시는 마쿠시 그룹의 임의의 개별 요소 또는 요소들의 하위 그룹 역시 포함하고 있다는 것을 당업자는 인식할 것이다.
당업자에게 이해될 것과 같이, 임의의 그리고 모든 목적에서든, 기술 내용을 제공하는 것 등에 있어서, 여기에 개시되어 있는 모든 범위는 임의의 그리고 모든 가능한 하위범위와 그러한 하위범위의 조합 또한 포함한다. 임의의 열거된 범위는 적어도 1/2, 1/3, 1/4, 1/5, 1/10 등으로 나누어지는 동일한 범위를 충분히 설명하고 실시 가능하게 하는 것으로서 쉽게 인식될 수 있다. 제한하지 않는 예시로서, 여기서 논의되는 각각의 범위는 하위 1/3, 중앙 1/3, 상위 1/3 등으로 나누어질 수 있다. 또한, "까지", "적어도", "보다 많은", "보다 적은" 등과 같은 언어는 기재된 수를 포함하며, 전술한 하위범위로 후속적으로 나누어질 수 있는 범위를 지칭함이 당업자에게 이해되어야 한다. 마지막으로, 범위는 각각의 개별 요소를 포함함이 당업자에게 이해되어야 한다. 따라서, 예를 들어, 1-3개의 셀을 갖는 그룹은 1, 2 또는 3개의 셀을 갖는 그룹들을 의미한다. 유사하게, 1-5개의 셀을 갖는 그룹은 1, 2, 3, 4 또는 5개의 셀을 갖는 그룹을 의미한다.
다양한 양태들 및 실시예들이 여기에서 개시되었지만, 다른 양태들 및 실시예들이 당업자에게 명백해질 것이다. 여기에서 개시된 다양한 양태들 및 실시예들은 예시의 목적이고 제한하려고 의도된 것은 아니며, 진정한 범위와 사상은 이하의 청구범위에 의해 나타난다.

Claims (23)

  1. 제1 통신 장치와 제2 통신 장치 사이에 핸드셰이크를 개시하기 위한 방법에 있어서, 상기 방법은:
    상기 제1 통신 장치 내의 프로세서에 의해, 상기 제1 통신 장치로부터 상기 제2 통신 장치로 향하는 제1 시선(line of sight)을 검출하는 단계;
    상기 제1 통신 장치 내의 프로세서에 의해, 상기 제1 통신 장치의 상기 제1 시선과 상기 제2 통신 장치의 제2 시선이 임계 시간 기간 동안 일치하는지 결정하는 단계;
    상기 결정에 응답하여, 상기 제1 통신 장치로부터의 핸드셰이크 요청을 상기 제2 통신 장치로 송신하는 단계; 및
    상기 제1 통신 장치에서, 상기 제2 통신 장치로부터 핸드셰이크 확인(acknowledgement)을 수신하는 단계
    를 포함하고,
    상기 핸드셰이크 요청 및 상기 핸드셰이크 확인은 상기 핸드셰이크를 생성하도록 구성되는 것인, 방법.
  2. 삭제
  3. 제1항에 있어서,
    구두 신호(verbal cue), 제스처, 상기 제1 통신 장치의 표면에 대한 터치, 또는 머리 움직임을 검출하는 단계; 그리고
    상기 구두 신호, 제스처, 상기 제1 통신 장치의 상기 표면에 대한 터치, 또는 머리 움직임의 검출에 응답하여, 상기 제2 통신 장치로 상기 요청을 송신하는 단계를
    더 포함하는 방법.
  4. 제1항에 있어서,
    상기 핸드셰이크 요청을 송신하는 단계는 상기 제1 통신 장치에 관한 정보를 송신하는 단계를 포함하는, 방법.
  5. 제1항에 있어서,
    상기 제1 통신 장치는 증강 현실 안경(augmented reality glasses)을 포함하는, 방법.
  6. 제1항에 있어서,
    아이트래킹(eye tracking)의 사용을 통해 상기 제1 시선을 검출하는 단계를 더 포함하는, 방법.
  7. 제1항에 있어서,
    상기 핸드셰이크 확인은 상기 제2 통신 장치에 관한 정보를 포함하고; 그리고
    상기 방법은 상기 제1 통신 장치에 의해 상기 핸드셰이크의 생성에 앞서 상기 제2 통신 장치에 관한 상기 정보를 입증(validating)하는 단계를 더 포함하는 방법.
  8. 제1 통신 장치와 제2 통신 장치 사이에 핸드셰이크를 개시하도록 구성되는 상기 제1 통신 장치에 있어서, 상기 제1 통신 장치는:
    메모리; 및
    상기 메모리와 통신하도록 구성된 프로세서
    를 포함하고,
    상기 프로세서는:
    상기 제1 통신 장치로부터 상기 제2 통신 장치로 향하는 제1 시선을 검출하고;
    상기 제1 통신 장치의 상기 제1 시선과 상기 제2 통신 장치의 제2 시선이 임계 시간 기간 동안 일치하는지 결정하고;
    상기 결정에 응답하여, 상기 제1 통신 장치로부터의 핸드셰이크 요청을 상기 제2 통신 장치로 송신하고; 그리고
    상기 제2 통신 장치로부터의 핸드셰이크 확인을 수신하도록 구성되고, 상기 핸드셰이크 요청 및 상기 핸드셰이크 확인은 상기 핸드셰이크를 생성하도록 구성되는 것인, 제1 통신 장치.
  9. 삭제
  10. 제8항에 있어서,
    상기 프로세서는:
    구두 신호(verbal cue), 제스처, 상기 제1 통신 장치의 표면에 대한 터치, 또는 머리 움직임을 검출하고; 그리고
    상기 구두 신호, 제스처, 상기 제1 통신 장치의 상기 표면에 대한 터치, 또는 머리 움직임의 검출에 응답하여, 상기 제2 통신 장치로 상기 요청을 송신하도록 더 구성되는, 제1 통신 장치.
  11. 제8항에 있어서,
    상기 핸드셰이크 요청은 상기 제1 통신 장치에 관한 정보를 포함하는, 제1 통신 장치.
  12. 제 8항에 있어서,
    상기 제1 통신 장치는 증강 현실 안경인, 제1 통신 장치.
  13. 제8항에 있어서,
    상기 제1 통신 장치는 카메라, 스피커, 마이크 및 디스플레이를 더 포함하는 제1 통신 장치.
  14. 제8항에 있어서,
    상기 프로세서는 아이트래킹의 사용을 통해 상기 제1 시선을 검출하도록 더 구성되는, 제1 통신 장치.
  15. 제8항에 있어서,
    상기 핸드셰이크 확인은 상기 제2 통신 장치에 관한 정보를 포함하고; 그리고
    상기 프로세서는 상기 핸드셰이크의 생성 전에 상기 제2 통신 장치에 관한 상기 정보를 입증하도록 더 구성되는, 제1 통신 장치.
  16. 시스템에 있어서,
    제1 통신 장치;
    네트워크; 및
    상기 네트워크를 통해 상기 제1 통신 장치와 통신하도록 구성된 제2 통신 장치
    를 포함하고,
    상기 제1 통신 장치는:
    제1 메모리; 및
    상기 제1 메모리와 통신하도록 구성된 제1 프로세서
    를 포함하고,
    상기 제1 프로세서는 상기 제1 통신 장치로부터 상기 제2 통신 장치로 향하는 제1 시선을 검출하고, 상기 제1 통신 장치의 상기 제1 시선과 상기 제2 통신 장치의 제2 시선이 임계 시간 기간 동안 일치하는지 결정하며, 그리고 상기 결정에 응답하여, 상기 제1 통신 장치로부터의 핸드셰이크 요청을 상기 제2 통신 장치로 송신하도록 구성되고,
    상기 제2 통신 장치는:
    제2 메모리; 및
    상기 제2 메모리와 통신하도록 구성된 제2 프로세서
    를 포함하고,
    상기 제2 프로세서는 상기 핸드셰이크 요청을 수신하고 이에 응답하여 핸드셰이크 확인을 생성하도록 구성되며, 그리고
    상기 제1 프로세서는 상기 제2 통신 장치로부터 상기 핸드셰이크 확인을 수신하도록 구성되고, 상기 핸드셰이크 요청 및 상기 핸드셰이크 확인은 상기 핸드셰이크를 생성하도록 구성되는 것인, 시스템.
  17. 삭제
  18. 제16항에 있어서,
    상기 핸드셰이크 요청은 상기 제1 통신 장치에 관한 정보를 포함하는, 시스템.
  19. 제16항에 있어서,
    상기 제1 및 제2 통신 장치들은 증강 현실 안경인, 시스템.
  20. 제16항에 있어서,
    상기 제1 및 제2 통신 장치들 각각은 각각의 카메라, 스피커, 마이크 및 디스플레이를 포함하는, 시스템.
  21. 제16항에 있어서,
    상기 제1 프로세서는 아이트래킹 소프트웨어의 사용을 통해 상기 제1 시선을 검출하도록 더 구성되는, 시스템.
  22. 제16항에 있어서,
    상기 핸드셰이크 확인은 상기 제2 통신 장치에 관한 정보를 포함하고; 그리고
    상기 제1 프로세서는 상기 핸드셰이크의 생성 전에 상기 제2 통신 장치에 관한 상기 정보를 입증하도록 더 구성되는, 시스템.
  23. 제16항에 있어서,
    상기 핸드셰이크 요청은 상기 제1 통신 장치에 관한 정보를 포함하고;
    상기 제1 및 제2 통신 장치들 각각은 각각의 카메라, 스피커, 마이크 및 디스플레이를 포함하며; 그리고
    상기 제2 통신 장치는 상기 제1 통신 장치에 관한 상기 정보에 기초하여 상기 제2 통신 장치의 상기 디스플레이 상에 상기 제1 통신 장치를 강조하도록 더 구성되는, 시스템.
KR1020157035401A 2013-05-13 2013-05-13 시선 개시형 핸드셰이크 KR101786541B1 (ko)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2013/040710 WO2014185885A1 (en) 2013-05-13 2013-05-13 Line of sight initiated handshake

Publications (2)

Publication Number Publication Date
KR20160010528A KR20160010528A (ko) 2016-01-27
KR101786541B1 true KR101786541B1 (ko) 2017-10-18

Family

ID=51898708

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020157035401A KR101786541B1 (ko) 2013-05-13 2013-05-13 시선 개시형 핸드셰이크

Country Status (3)

Country Link
US (2) US9408243B2 (ko)
KR (1) KR101786541B1 (ko)
WO (1) WO2014185885A1 (ko)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10165322B2 (en) * 2014-09-30 2018-12-25 Rovi Guides, Inc. Methods and systems for controlling user devices
CN104918209B (zh) * 2015-06-17 2018-07-24 上海斐讯数据通信技术有限公司 移动终端及其通信方法
US10178150B2 (en) * 2015-08-07 2019-01-08 International Business Machines Corporation Eye contact-based information transfer
US9715366B2 (en) 2015-09-16 2017-07-25 International Business Machines Corporation Digital map of a physical location based on a user's field of interest and a specific sound pattern
IL243772B (en) * 2016-01-25 2018-03-29 Everysight Ltd Dynamic ad-hoc networks for content sharing, based on line of sight
EP3206121A1 (en) 2016-02-09 2017-08-16 Nokia Technologies Oy Methods and apparatuses relating to the handling of visual virtual reality content
US9948729B1 (en) 2016-10-15 2018-04-17 International Business Machines Corporation Browsing session transfer using QR codes
DE102017211528A1 (de) * 2017-07-06 2019-01-10 Bayerische Motoren Werke Aktiengesellschaft Fortbewegungsmittel und Datenbrille zur Interaktion mit Datenbrillen
US11290518B2 (en) * 2017-09-27 2022-03-29 Qualcomm Incorporated Wireless control of remote devices through intention codes over a wireless connection
CN111897411A (zh) * 2019-05-05 2020-11-06 Oppo广东移动通信有限公司 基于大气光通信的交互方法、装置和穿戴设备
US11769134B2 (en) * 2021-03-22 2023-09-26 International Business Machines Corporation Multi-user interactive ad shopping using wearable device gestures

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009109068A1 (en) * 2008-03-07 2009-09-11 Arcsoft (Shanghai) Technology Company, Ltd. Transmitting network ip address in pstn channel
US20110213664A1 (en) * 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
CN103064188A (zh) * 2011-11-30 2013-04-24 微软公司 基于头戴式显示器的教育和指导
WO2013066334A1 (en) * 2011-11-03 2013-05-10 Intel Corporation Eye gaze based image capture

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7748621B2 (en) * 2005-06-06 2010-07-06 International Business Machines Corporation Method and system for dissemination of paperless transaction receipts in non-networked environments
US9171384B2 (en) * 2011-11-08 2015-10-27 Qualcomm Incorporated Hands-free augmented reality for wireless communication devices

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009109068A1 (en) * 2008-03-07 2009-09-11 Arcsoft (Shanghai) Technology Company, Ltd. Transmitting network ip address in pstn channel
US20110213664A1 (en) * 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
WO2013066334A1 (en) * 2011-11-03 2013-05-10 Intel Corporation Eye gaze based image capture
CN103064188A (zh) * 2011-11-30 2013-04-24 微软公司 基于头戴式显示器的教育和指导

Also Published As

Publication number Publication date
US20160316506A1 (en) 2016-10-27
KR20160010528A (ko) 2016-01-27
US9408243B2 (en) 2016-08-02
WO2014185885A1 (en) 2014-11-20
US9713186B2 (en) 2017-07-18
US20150181632A1 (en) 2015-06-25

Similar Documents

Publication Publication Date Title
KR101786541B1 (ko) 시선 개시형 핸드셰이크
US11540102B2 (en) Method for function control and electronic device thereof
US11640235B2 (en) Additional object display method and apparatus, computer device, and storage medium
EP2509070B1 (en) Apparatus and method for determining relevance of input speech
EP2707835B1 (en) Using spatial information with device interaction
US10254847B2 (en) Device interaction with spatially aware gestures
US10365820B2 (en) Electronic device and touch gesture control method thereof
JP2017517780A (ja) 電子デバイス間の接続を確立するための方法および装置
KR20170097519A (ko) 음성 처리 방법 및 장치
US20130002577A1 (en) Adaptive user interface
KR102616403B1 (ko) 전자 장치 및 그의 메시지 전달 방법
WO2020211607A1 (zh) 生成视频的方法、装置、电子设备及介质
US20160277850A1 (en) Presentation of audio based on source
KR20130029766A (ko) 원격 디스플레이 제어
KR20140043489A (ko) 모바일 장치를 위한 사용 추천
WO2022089152A1 (zh) 确定选中目标的方法、装置、设备及存储介质
US11289086B2 (en) Selective response rendering for virtual assistants
CN110213205B (zh) 验证方法、装置及设备
WO2023020120A1 (zh) 动作效果的显示方法、装置、设备、介质及程序产品
US20150172376A1 (en) Method for providing social network service and electronic device implementing the same
CN116490848A (zh) 用于投送内容的系统和方法
JP6961356B2 (ja) 装置、装置駆動方法及びコンピュータプログラム
TW202341764A (zh) 預測使用者意圖的方法、設備及其系統
JP2023169831A (ja) プログラム及び通信方法
WO2023172341A1 (en) Multi-device awareness for casting and content delivery

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant