KR20140093728A - 시선 활성화 콘텐츠 전송 시스템 - Google Patents

시선 활성화 콘텐츠 전송 시스템 Download PDF

Info

Publication number
KR20140093728A
KR20140093728A KR1020147016993A KR20147016993A KR20140093728A KR 20140093728 A KR20140093728 A KR 20140093728A KR 1020147016993 A KR1020147016993 A KR 1020147016993A KR 20147016993 A KR20147016993 A KR 20147016993A KR 20140093728 A KR20140093728 A KR 20140093728A
Authority
KR
South Korea
Prior art keywords
eye
gaze
data unit
movement information
data
Prior art date
Application number
KR1020147016993A
Other languages
English (en)
Other versions
KR101692323B1 (ko
Inventor
켄톤 엠. 라이온스
트레보어 퍼링
Original Assignee
인텔 코오퍼레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인텔 코오퍼레이션 filed Critical 인텔 코오퍼레이션
Publication of KR20140093728A publication Critical patent/KR20140093728A/ko
Application granted granted Critical
Publication of KR101692323B1 publication Critical patent/KR101692323B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/14Handling requests for interconnection or transfer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/06Protocols specially adapted for file transfer, e.g. file transfer protocol [FTP]

Abstract

시선 활성화 데이터 유닛 전송 시스템이 기술된다. 장치는 사람 사용자의 눈 이동들에 기초하여 데이터 유닛 전송 동작들을 관리하도록 프로세서 회로에서 동작하는 시선 인터페이스 애플리케이션을 포함할 수 있다. 시선 인터페이스 애플리케이션은 하나의 또는 그 이상의 눈 시선 추적기들로부터 사람의 눈의 눈 이동 정보를 수신하고, 소스 장치로부터 목표 장치로 데이터 유닛을 전송하라는 데이터 유닛 전송 요청으로서 눈 이동 정보를 해석하도록 동작하는 시선 해석기 컴포넌트, 데이터 유닛 전송 요청에 응답해서 트랜시버를 사용해서 소스 장치와 목표 장치 간의 데이터 연결을 설정하도록 동작하는 데이터 연결 컴포넌트, 및 데이터 연결을 통해 소스 장치로부터 목표 장치로 데이터 유닛을 송신하도록 동작하는 데이터 전송 컴포넌트를 포함할 수 있다. 다른 실시예들이 기술 및 청구된다.

Description

시선 활성화 콘텐츠 전송 시스템{GAZE ACTIVATED CONTENT TRANSFER SYSTEM}
개인 전자 장치들이 점점 더 어느 곳에서나 흔히 볼 수 있게 되고 있으며 사용자의 일상에 통합되고 있다. 예를 들어, 정보 작업자는 데스크탑 컴퓨터에서 워드 프로세싱 문서에 대한 작업을 시작하여, 이동을 위해 노트북 컴퓨터로, 또한, 그 후 여행을 위해 태블릿 컴퓨터 또는 스마트폰으로, 문서 파일을 전송할 수 있다. 회사 간부는 스마트폰으로 사진을 찍고, 자신의 사무실에서 이미지 파일을 디지털 프레임으로 전송할 수 있다. 영화 제작자는 차에서 태블릿 컴퓨터로 영화를 시청하기 시작하여, 영화 파일을 편집을 위해 집에 있는 워크스테이션으로 전송할 수 있다.
상이한 장치들 간에 파일들을 전송하는 기능은 사용자들이 다수의 개인 전자 장치들을 가지고 있을 때 주요 편의 기능이다. 데이터 유닛 전송 기술들은 사용자가 사용자의 편의에 따라 콘텐츠를 생성, 변경 및 소비할 수 있게 하며, 결국, 사용자 생산성 및 사용자 경험을 강화한다. 그러나, 종래의 데이터 유닛 전송 기술들은 사용자에 의한 어느 정도의 수동 개입을 필요로 한다. 예를 들어, 사용자는 한 장치로부터 범용 직렬 버스(USB) 플래시 드라이브 또는 네트워크 서버 등의 데이터 기억 장치에 파일을 복사한 후, 파일을 데이터 기억 장치로부터 다른 장치로 복사할 수 있다. 다른 일례에서, 사용자는 이메일 메시지, 단문 메시지 서비스(SMS) 메시지 또는 멀티미디어 메시지 서비스(MMS) 메시지 등의 메시지의 첨부로서 파일을 전송할 수 있다. 이 파일 전송 기술들은 한정적이고, 번거로우며, 시간 소모가 크다. 일부 파일 전송 기술들은, 2개의 장치들이 터치할 때 파일 전송을 활성화하는 "범프" 기술 또는 손 제스처에 응답해서 파일 전송을 활성화하는 제스처 인터페이스 등의 수동 개입을 제한하고자 시도한다. 그러나, 이 파일 전송 기술들은, 특히, 사용자가 장애를 가진 경우, 사용자에 의한 상당한 양의 수동 개입을 여전히 필요로 한다. 따라서, 개인 전자 장치들에 대한 한가지 설계 목표는 파일 전송들을 활성화하기 위한 수동 개입을 감소시키는 것이다.
도 1은 시선 데이터 유닛 전송 시스템의 일 실시예를 도시한다.
도 2는 시선 인터페이스 애플리케이션의 제1 동작 환경의 일 실시예를 도시한다.
도 3은 시선 인터페이스 애플리케이션의 제2 동작 환경의 일 실시예를 도시한다.
도 4는 시선 인터페이스 애플리케이션의 제3 동작 환경의 일 실시예를 도시한다.
도 5는 시선 인터페이스 애플리케이션의 제4 동작 환경의 일 실시예를 도시한다.
도 6a, 6b는 시선 인터페이스 시스템의 눈 시선 추적기의 일 실시예를 도시한다.
도 7은 제1 논리 흐름의 일 실시예를 도시한다.
도 8은 제2 논리 흐름의 일 실시예를 도시한다.
도 9는 제3 논리 흐름의 일 실시예를 도시한다.
도 10은 컴퓨팅 아키텍처의 일 실시예를 도시한다.
각종 실시예들은 일반적으로 콘텐츠 전송 기술들에 관한 것이다. 일부 실시예들은 특히 사용자의 눈 이동에 의해 활성화되는 콘텐츠 전송 기술들에 관한 것이다. 사용자는 하나의 장치 또는 두 장치들을 간단히 봄으로써 장치들 간에 콘텐츠를 전송할 수 있다. 이는 사용자가 다수의 개인 전자 장치들 간에 콘텐츠를 전송하는데 필요한 수동 개입을 상당히 감소시킴으로써, 사용자 생산성, 편의 및 경험을 강화한다.
본 명세서에서 사용된 표기법 및 명명법을 일반적으로 참조해서, 이어지는 상세한 설명은 컴퓨터 또는 컴퓨터들의 네트워크에서 실행되는 프로그램 절차들 면에서 제시될 수 있다. 이 절차적 기술 및 표현은 당업자가 다른 당업자에게 자신의 작업의 실체를 가장 효과적으로 전달하는데 사용된다.
본 명세서에서, 일반적으로, 절차는 희망 결과를 야기하는 동작들의 자기 부합적 시퀀스로 이해된다. 이 동작들은 물리적 양들의 물리적 조작들을 필요로 하는 동작들이다. 통상, 필연적이 아니더라도, 이 양들은 저장, 전송, 결합, 비교 및 달리 조작될 수 있는 전기, 자기 또는 광 신호들의 형태를 취한다. 주로 일반적인 용도의 이유로, 신호들을 비트들, 값들, 요소들, 심볼들, 문자들, 용어들, 수들 등으로서 나타내는 것이 가끔은 편리함이 드러난다. 그러나, 이 용어들 및 유사한 용어들은 모두 적합한 물리적 양들과 연관되며 이 양들에 적용된 단지 편리한 라벨들임을 주지해야만 한다.
또한, 실행되는 조작들은 사람 오퍼레이터에 의해 실행되는 정신적인 동작들과 통상 연관된 추가 또는 비교 등의 용어들과 종종 관련된다. 이러한 사람 오퍼레이터의 기능이 반드시 필요한 것은 아니며, 대부분의 경우들에서, 하나의 또는 그 이상의 실시예들의 일부를 형성하는 본 명세서에 기술된 동작들 중 임의의 동작들에서 바람직하다. 오히려, 동작들은 기계 동작들이다. 각종 실시예들의 동작들을 실행하기 위한 유용한 기계들은 범용 디지털 컴퓨터들 또는 유사한 장치들을 포함한다.
또한, 각종 실시예들은 이 동작들을 실행하기 위한 장치 또는 시스템들에 관한 것이다. 이 장치는 필요한 목적을 위해 구체적으로 해석될 수 있으며, 또는 컴퓨터에 저장된 컴퓨터 프로그램에 의해 선택적으로 활성화되거나 재구성되는 범용 컴퓨터를 포함할 수 있다. 본 명세서에서 제시된 절차들은 본래 특정 컴퓨터 또는 다른 장치에 관련되는 것은 아니다. 각종 범용 기계들은 본 명세서의 교시에 따라 기록된 프로그램들에 의해 사용될 수 있으며, 또는 요구된 방법 단계들을 실행하도록 더 특수화된 장치를 구성하는 것이 편리함이 입증될 수 있다. 각종 기계들에 대해 요구된 구조는 제공된 설명으로부터 나타날 것이다.
이제 도면들에 대한 참조가 이루어지며, 여기서, 유사한 참조 부호들은 도처에 유사한 요소들을 나타내기 위해 사용된다. 이하의 설명에서, 설명을 위해, 다수의 특정 세부 사항들은 철저한 이해를 제공하기 위해 기술된다. 그러나, 신규 실시예들이 이러한 특정 세부 사항들 없이 실시될 수 있음이 명백할 수 있다. 다른 실례들에서, 널리 공지된 구조들 및 장치들은 그 설명을 용이하게 하기 위해 블록도 형태로 도시된다. 의도는 청구된 주제와 일치하는 모든 변경들, 동등물들 및 대안들을 포함하는 것이다.
도 1은 시선 콘텐츠 전송 시스템(100)의 블록도를 도시한다. 일 실시예에서, 시선 콘텐츠 전송 시스템(100)은 전자 장치(120-a)를 포함하는 컴퓨터 기반 시스템을 포함할 수 있다. 전자 장치(120-a)는, 예를 들어, 프로세서 회로(130), 메모리 유닛(150), 눈 시선 추적기(160), 디스플레이(170) 및 하나의 또는 그 이상의 트랜시버들(180-c)을 포함할 수 있다. 전자 장치(120-a)는 시선 인터페이스 애플리케이션(140)을 또한 설치했을 수 있다. 메모리 유닛(150)은 시선 인터페이스 애플리케이션(140)의 미실행 버전 및 하나의 또는 그 이상의 데이터 유닛들(142-b)을 저장할 수 있다. 도 1에 도시된 시선 콘텐츠 전송 시스템(100)이 특정 위상에서 제한된 수의 요소들을 갖더라도, 시선 콘텐츠 전송 시스템(100)은 소정의 구현에 대해 바라는 대로 다른 위상들에서 더 많은 또는 더 적은 요소들을 포함할 수 있음을 알 수 있다.
본 명세서에서 사용된 "a" 및 "b" 및 "c" 및 유사한 지정자들은 임의의 양의 정수를 나타내는 변수들이도록 의도된 것임을 주지할 가치가 있다. 따라서, 예를 들어, 구현이 a = 5의 값을 설정하면, 전자 장치들(120-a)의 완전한 집합은 전자 장치들(120-1, 120-2, 120-3, 120-4 및 120-5)을 포함할 수 있다. 실시예들은 이러한 맥락으로 제한되지 않는다.
각종 실시예들에서, 시선 콘텐츠 전송 시스템(100)은 전자 장치들(120-1, 120-2) 등의 2개의 또는 그 이상의 전자 장치들(120-a)을 포함할 수 있다. 전자 장치의 일부 일례들은 울트라-모바일 장치, 모바일 장치, 개인 휴대 정보 단말기(PDA), 모바일 컴퓨팅 장치, 스마트폰, 전화, 디지털 전화, 이동 전화, 전자책 단말기, 핸드셋, 원-웨이 호출기(one-way pager), 투-웨이 호출기(two-way pager), 메시징 장치, 컴퓨터, 퍼스널 컴퓨터(PC), 데스크탑 컴퓨터, 랩탑 컴퓨터, 노트북 컴퓨터, 넷북 컴퓨터, 핸드헬드 컴퓨터, 태블릿 컴퓨터, 서버, 서버 어레이 또는 서버 팜, 웹 서버, 네트워크 서버, 인터넷 서버, 워크스테이션, 미니-컴퓨터, 메인 프레임 컴퓨터, 슈퍼컴퓨터, 네트워크 기기, 웹 기기, 분산 컴퓨팅 시스템, 멀티프로세서 시스템, 프로세서-기반 시스템, 소비자 전자 장치, 프로그래밍 가능 소비자 전자 장치, 게임 장치들, 텔레비전, 디지털 텔레비전, 셋탑 박스, 무선 액세스 포인트, 기계 또는 그 조합을 제한 없이 포함할 수 있다. 실시예들은 이러한 맥락으로 제한되지 않는다.
일 실시예에서, 예를 들어, 전자 장치(120-1)는 무선 통신 기능을 가진 데스크탑 컴퓨터로서 구현될 수 있다. 전자 장치(120-2)는 랩탑 컴퓨터, 핸드헬드 컴퓨터, 태블릿 컴퓨터, 스마트폰, 게임 장치, 소비자 전자 장치 또는 다른 모바일 장치 등의 휴대형 전원 및 무선 통신 기능들을 가진 모바일 장치로서 구현될 수 있다. 그러나, 실시예들은 이러한 일례들로 제한되지 않으며, 임의의 쌍의 전자 장치들(120-1, 120-2)이 소정의 구현에 대해 바라는 대로 사용될 수 있다. 또한, 전자 장치들(120-1, 120-2)이 도 1에서 유사한 장치 요소들을 가진 동종 장치들로서 도시되지만, 전자 장치들(120-1, 120-2)은 상이한 장치 요소들을 가진 이종 장치들을 포함할 수 있음을 알 수 있다. 실시예들은 이러한 맥락으로 제한되지 않는다.
각종 실시예들에서, 시선 콘텐츠 전송 시스템(100)은 프로세서 회로(130)를 포함할 수 있다. 프로세서 회로(130)는 AMD® Athlon®, Duron® 및 Opteron® 프로세서들; ARM® 애플리케이션, 내장형 및 안전한 프로세서들; IBM® 및 Motorola® DragonBall® 및 PowerPC® 프로세서들; IBM 및 Sony® Cell 프로세서들; Intel® Celeron®, Core (2) Duo®, Core (2) Quad®, Core i3®, Core i5®, Core i7®, Atom®, Itanium®, Pentium®, Xeon® 및 XScale® 프로세서들; 및 유사한 프로세서들을 제한 없이 포함하는 임의의 각종 상용화된 프로세서들일 수 있다. 듀얼 마이크로프로세서들, 멀티-코어 프로세서들 및 다른 멀티-프로세서 아키텍처들이 또한 프로세서 회로(130)로서 사용될 수 있다.
각종 실시예들에서, 시선 콘텐츠 전송 시스템(100)은 메모리 유닛(150)을 포함할 수 있다. 메모리 유닛(150)은, 다른 타입들의 정보 중에, 시선 인터페이스 애플리케이션(140) 및 하나의 또는 그 이상의 데이터 유닛들(142-b)을 저장할 수 있다. 메모리 유닛(150)은 판독 전용 메모리(ROM), 랜덤 액세스 메모리(RAM), 동적 RAM(DRAM), 더블-데이터-레이트 DRAM(DDRAM), 동기 DRAM(SDRAM), 정적 RAM(SRAM), 프로그래밍 가능 ROM(PROM), 소거 가능 프로그래밍 가능 ROM(EPROM), 전기적 소거 가능 프로그래밍 가능 ROM(EEPROM), 플래시 메모리, 강유전성 폴리머 메모리 등의 폴리머 메모리, 오보닉 메모리(ovonic memory), 위상 변경 또는 강유전성 메모리, SONOS(silicon-oxide-nitride-oxide-silicon) 메모리, 자기 또는 광 카드들, RAID(Redundant Array of Independent Disks) 드라이브들 등의 장치들의 어레이, 고체 상태 메모리 장치들(예를 들어, USB 메모리), 고체 상태 드라이브들(SSD) 및 정보를 저장하기에 적합한 임의의 다른 타입의 기억 매체 등의 하나의 또는 그 이상의 더 고속의 메모리 유닛들의 형태의 각종 타입들의 컴퓨터 판독 가능 기억 매체들을 포함할 수 있다.
데이터 유닛(142-b)은 사용자 인터페이스 뷰에 의해 제시되거나 또는 사용자 인터페이스 뷰의 사용자 인터페이스 요소에 의해 표현된, 유일하게 식별될 수 있는 전자 정보, 데이터 또는 콘텐츠의 임의의 정의된 집합을 포함할 수 있다. 사용자 인터페이스 뷰의 일례는 그래픽 사용자 인터페이스(GUI) 뷰를 포함할 수 있다. 일례의 부류의 데이터 유닛들(142-b)은 애플리케이션 파일들(예를 들어, 문서 파일들, 워드 프로세싱 파일들, 스프레드시트 파일들, 프레젠테이션 파일들 등), 시스템 파일들(예를 들어, 운영 체제 파일들, 라이브러리 파일들, 유틸리티 파일들 등) 및 멀티미디어 콘텐츠 파일들(예를 들어, 오디오 파일들, 비디오 파일들, 오디오/비디오 파일들, 사진 파일들, 이미지 파일들 등)을 포함하는 소프트웨어 컴퓨터 파일들을 제한 없이 포함할 수 있다. 데이터 유닛들(142-b)의 다른 일례들은 사용자 인터페이스에 의해 제시된 객체들, 사용자 인터페이스 요소들, GUI 요소들, 멀티미디어 콘텐츠(예를 들어, 사진들, 이미지들, 비디오, 오디오, 그래픽 등), 소프트웨어 프로그램들, 소프트웨어 프로그램들의 뷰들, 애플리케이션 문서들, 애플리케이션 콘텐츠(예를 들어, 워드 프로세싱 문서로부터의 한 단락 또는 스프레드시트 문서로부터의 워크시트), 웹 페이지, 웹 사이트, 웹 브라우저로부터의 URL(uniform resource locator), 클립보드 데이터, 스크린샷, 장치 리소스 데이터(예를 들어, 센서 데이터) 등을 제한 없이 포함할 수 있다. 이들은 단지 소수의 일례들이며, 임의의 타입의 정의된 집합의 전자 정보, 데이터 또는 콘텐츠는 데이터 유닛(142-b)을 포함할 수 있다. 실시예들은 이러한 맥락으로 제한되지 않는다.
일부 실시예들은 제한이 아니라 일례로서 파일들 또는 파일 전송들의 면에서 데이터 유닛들(142-b)을 기술할 수 있음을 주지할 가치가 있다. 파일들에 대해 동작하고 파일 전송들을 실행하는 실시예들이 다른 타입들의 데이터 유닛들(142-b)에 적용될 수 있음을 알 수 있다. 실시예들은 이러한 맥락으로 제한되지 않는다.
전자 장치들(120-1, 120-2)은 눈 시선 추적기(160)를 각각 구현할 수 있다. 눈 시선 추적기(160)는 눈 위치들 및 눈 이동을 측정하기 위한 장치이며, 이 기술은 때때로 "눈 추적(eye tracking)" 또는 "시선 추적(gaze tracking)"이라고 한다. 눈 추적은 사용자에 의한 시선의 한 지점 또는 머리와 관련된 눈의 이동을 측정하기 위한 기술이다. 눈 시선 추적기(160)는 눈 움직임을 측정하기 위한 임의의 수의 기술들을 사용할 수 있다. 한 변형은 눈 위치가 추출된 비디오 이미지들을 사용한다. 다른 변형들은 탐색 코일들을 사용하거나 또는 안구 전위도에 기초한다. 일 실시예에서, 예를 들어, 눈 시선 추적기(160)는 각막 반사 기술을 사용해서 사용자의 눈 이동들을 추적할 수 있다. 눈 시선 추적기(160)의 일례들은 도 6a, 6b를 참조해서 기술된다.
하나의 전자 장치 또는 양 전자 장치들(120-1, 120-2)의 눈 시선 추적기(160)는 눈 이동 정보를 모니터 및 수집할 수 있다. 눈 이동 정보는, 다른 타입들의 눈 이동 정보 중에서, 예를 들어, 고정 정보, 방향 정보 및 거리 정보를 포함할 수 있다. 고정 정보는 일부 정의된 시간 간격(예를 들어, 2초) 동안 눈들이 고정되는 고정 지점을 포함할 수 있다. 방향 정보는 눈 이동의 방향을 포함할 수 있다. 눈 이동의 방향은 사용자 머리의 우측을 향함, 사용자 머리의 좌측을 향함, 사용자 머리의 맨 위를 향함, 사용자 머리의 맨 아래를 향함 및 이 4개의 일례의 방향들 사이의 임의의 방향들과 같이, 사용자의 관점으로부터 표현될 수 있다. 거리 정보는 정의된 시간 간격 동안 눈 이동의 거리를 포함할 수 있다. 눈 이동의 거리는 근원 지점, 종료 지점, 및 근원 지점 및 종료 지점 간의 거리의 면에서 표현될 수 있다. 근원 지점 및 종료 지점은 고정 정보에 의해 표시된 고정 지점들을 사용해서 결정될 수 있다. 고정 정보, 방향 정보 및 거리 정보는 눈 시선 세그먼트를 정의하는데 사용될 수 있다. 눈 이동 정보는 또한 종래의 눈 시선 추적기들에 의해 통상 생성되는 다른 타입들의 정보를 포함할 수 있다.
전자 장치들(120-1, 120-2)은 디스플레이(170)를 각각 구현할 수 있다. 디스플레이(170)는 전자 장치들(120-1, 120-2)에 적합한 임의의 디지털 디스플레이 장치를 포함할 수 있다. 예를 들어, 디스플레이(170)는 터치-센서티브, 컬러, 박막 트랜지스터(TFT) LCD 등의 액정 디스플레이(LCD), 플라즈마 디스플레이, 발광 다이오드(LED) 디스플레이, 유기 발광 다이오드(OLED) 디스플레이, 음극선관(CRT) 디스플레이 또는 전자 장치들(120-1, 120-2)의 사용자에게 콘텐츠를 디스플레이하기 위한 다른 타입의 적합한 비주얼 인터페이스에 의해 구현될 수 있다. 디스플레이(170)는 소정의 구현에 대해 바라는 대로 일부 형식의 배면광 또는 휘도 이미터를 더 포함할 수 있다.
전자 장치들(120-1, 120-2)은 하나의 또는 그 이상의 무선 트랜시버들(180-c)을 각각 구현할 수 있다. 무선 트랜시버들(180-c) 각각은 때때로 "하드웨어 라디오들(hardware radios)" 및 "소프트웨어 라디오들(software radios)"이라고 하는 물리 무선 어댑터들 또는 가상 무선 어댑터들로 구현될 수 있다. 후자의 경우에, 단일 물리 무선 어댑터는 소프트웨어를 사용해서 다수의 가상 무선 어댑터들로 가상화될 수 있다. 물리 무선 어댑터는 통상 하드웨어-기반 무선 액세스 포인트에 연결된다. 가상 무선 어댑터는 통상 때때로 "소프트앱(SoftAP)"이라고 하는 소프트웨어-기반 무선 액세스 포인트에 연결된다. 예를 들어, 가상 무선 어댑터는 스마트폰 및 데스크탑 컴퓨터 또는 노트북 컴퓨터 등의 피어 장치들 간의 애드혹 통신을 허용할 수 있다. 각종 실시예들은 다수의 가상 무선 어댑터들로서 구현된 단일 물리 무선 어댑터, 다수의 물리 무선 어댑터들, 다수의 가상 무선 어댑터들로서 각각 구현된 다수의 물리 무선 어댑터들 또는 그 일부 조합을 사용할 수 있다. 실시예들은 이러한 경우로 제한되지 않는다.
무선 트랜시버들(180-c)은 전자 장치들(120-1, 120-2)이 네트워크(190)를 통해 다른 전자 장치들과 통신할 수 있게 해주기 위한 각종 통신 기술들을 포함하거나 또는 구현할 수 있다. 예를 들어, 무선 트랜시버들(180-c)은 하나의 또는 그 이상의 통신 인터페이스들, 네트워크 인터페이스들, 네트워크 인터페이스 카드들(NIC), 라디오들, 무선 송신기들/수신기들(트랜시버들), 유선 및/또는 무선 통신 매체, 물리적 연결기들 등의, 네트워크와 상호 운용 가능하도록 설계된 각종 타입들의 표준 통신 요소들을 구현할 수 있다. 제한이 아니라, 일례로서, 통신 매체는 유선 통신 매체 및 무선 통신 매체를 포함한다. 유선 통신 매체의 일례들은 와이어, 케이블, 금속 리드, 인쇄 회로 기판(PCB), 뒤판, 스위치 패브릭, 반도체 물질, 트위스트 페어선, 동축 케이블, 광섬유, 전파 신호 등을 포함할 수 있다. 무선 통신 매체의 일례들은 음향, 무선-주파수(RF) 스펙트럼, 적외선 및 다른 무선 매체를 포함할 수 있다.
각종 실시예들에서, 전자 장치들(120-a)은 상이한 타입들의 무선 트랜시버들(180-c)을 구현할 수 있다. 무선 트랜시버들(180-c) 각각은 각종 전자 장치들 간에 정보를 통신하기 위해 동일한 또는 상이한 집합의 통신 파라미터들을 구현 또는 사용할 수 있다. 일 실시예에서, 예를 들어, 무선 트랜시버들(180-c) 각각은 전자 장치(120-a) 및 원격 장치 간에 정보를 통신하기 위해 상이한 집합의 통신 파라미터들을 구현 또는 사용할 수 있다. 통신 파라미터들의 일부 일례들은 통신 프로토콜, 통신 표준, 무선-주파수(RF) 밴드, 라디오, 송신기/수신기(트랜시버), 라디오 프로세서, 기저대 프로세서, 네트워크 스캐닝 임계 파라미터, 무선-주파수 채널 파라미터, 액세스 포인트 파라미터, 비율 선택 파라미터, 프레임 크기 파라미터, 집합 크기 파라미터, 패킷 재시도 제한 파라미터, 프로토콜 파라미터, 라디오 파라미터, 변조 및 코딩 방식(MCS), 응답 파라미터, 미디어 액세스 컨트롤(MSC) 층 파라미터, 물리 (PHY) 층 파라미터, 및 무선 트랜시버들(180-c)에 대한 동작들에 영향을 주는 임의의 다른 통신 파라미터들을 제한 없이 포함할 수 있다. 실시예들은 이러한 맥락으로 제한되지 않는다.
각종 실시예들에서, 무선 트랜시버들(180-c)은 변하는 대역폭들, 통신 속도들 또는 송신 범위를 제공하는 상이한 통신 파라미터들을 구현할 수 있다. 예를 들어, 제1 무선 트랜시버(180-1)는 더 짧은 범위의 정보 통신에 적합한 통신 파라미터들을 구현하는 단 범위 인터페이스를 포함할 수 있지만, 제2 무선 트랜시버(180-2)는 더 긴 범위의 정보 통신에 적합한 통신 파라미터들을 구현하는 장 범위 인터페이스를 포함할 수 있다.
각종 실시예들에서, 용어들 "단 범위(short-range)" 및 "장 범위(long-range)"는 객관적인 표준이 아니라 서로 비교해서 연관된 무선 트랜시버들(180-c)에 대한 연관된 통신 범위들(또는 거리들)을 말하는 상대적인 용어들일 수 있다. 일 실시예에서, 예를 들어, 용어 "단 범위"는 제2 무선 트랜시버(180-2) 등의, 전자 장치(120-a)에 대해 구현된 다른 무선 트랜시버(180-c)의 통신 범위 또는 거리보다 더 짧은 제1 무선 트랜시버(180-1)의 통신 범위 또는 거리를 말할 수 있다. 유사하게, 용어 "장 범위"는 제1 무선 트랜시버(180-1) 등의, 전자 장치(120-a)에 대해 구현된 다른 무선 트랜시버(180-c)의 통신 범위 또는 거리보다 더 긴 제2 무선 트랜시버(180-2)의 통신 범위 또는 거리를 말할 수 있다. 실시예들은 이러한 맥락으로 제한되지 않는다.
각종 실시예들에서, 용어들 "단 범위" 및 "장 범위"는, 예를 들어, 통신 표준, 프로토콜 또는 인터페이스에 의해 제공된 객관적인 측정치와 비교해서 연관된 무선 트랜시버들(180-c)에 대한 연관된 통신 범위들(또는 거리들)을 말하는 상대적인 용어들일 수 있다. 일 실시예에서, 예를 들어, 용어 "단 범위"는 300미터 또는 일부 다른 정의된 거리보다 더 짧은 제1 무선 트랜시버(180-1)의 통신 범위 또는 거리를 말할 수 있다. 유사하게, 용어 "장 범위"는 300미터 또는 일부 다른 정의된 거리보다 더 긴 제2 무선 트랜시버(180-2)의 통신 범위 또는 거리를 말할 수 있다. 실시예들은 이러한 맥락으로 제한되지 않는다.
일 실시예에서, 예를 들어, 무선 트랜시버(180-1)는 무선 개인 지역 네트워크(WPAN) 또는 무선 근거리 통신망(WLAN)을 통해 정보를 통신하도록 설계된 라디오를 포함할 수 있다. 무선 트랜시버(180-1)는 상이한 타입들의 더 낮은 범위의 무선 네트워크 시스템들 또는 프로토콜들에 따라 데이터 통신 기능을 제공하도록 구성될 수 있다. 더 낮은 범위의 데이터 통신 서비스들을 제공하는 적합한 WPAN 시스템들의 일례들은 블루투스 SIG(Bluetooth Special Interest Group)에 의해 정의된 블루투스 시스템, 적외선(IR) 시스템, IEEE(Institute of Electrical and Electronics Engineers) 802.15 시스템, DASH7 시스템, 무선 범용 직렬 버스(USB), 무선 고화질(HD), UWB(ultra-side band) 시스템 및 유사한 시스템들을 포함할 수 있다. 더 낮은 범위의 데이터 통신 서비스들을 제공하는 적합한 WLAN 시스템들의 일례들은 프로토콜들의 IEEE 802.xx 시리즈, 예를 들어, 표준 프로토콜들의 IEEE 802.11a/b/g/n 시리즈 및 그 변형들("WiFi"라고도 함)을 포함할 수 있다. 다른 무선 기술들이 구현될 수 있으며, 실시예들은 이러한 맥락으로 제한되지 않음을 알 수 있다.
일 실시예에서, 예를 들어, 무선 트랜시버(180-2)는 무선 근거리 통신망(WLAN), 무선 대도시 통신망(WMAN), 무선 광역 통신망(WWAN) 또는 셀룰러 무선 전화 시스템을 통해 정보를 통신하도록 설계된 라디오를 포함할 수 있다. 무선 트랜시버(180-2)는 상이한 타입들의 더 긴 범위의 무선 네트워크 시스템들 또는 프로토콜들에 따라 데이터 통신 기능을 제공하도록 구성될 수 있다. 더 긴 범위의 데이터 통신 서비스들을 제공하는 적합한 무선 네트워크 시스템들의 일례들은 프로토콜들의 IEEE 802.xx 시리즈, 예를 들어, 표준 프로토콜들의 IEEE 802.11a/b/g/n 시리즈 및 변형들, 표준 프로토콜들의 IEEE 802.16 시리즈 및 변형들, 표준 프로토콜들의 IEEE 802.20 시리즈 및 변형들("모바일 브로드밴드 무선 액세스(Mobile Broadband Wireless Access)"라고도 함) 등을 포함할 수 있다. 대안으로, 무선 트랜시버(180-2)는 하나의 또는 그 이상의 셀룰러 무선 전화 시스템들에 의해 제공된 데이터 네트워킹 링크들을 통해 정보를 통신하도록 설계된 라디오를 포함할 수 있다. 데이터 통신 서비스들을 제공하는 셀룰러 무선 전화 시스템들의 일례들은 GPRS(General Packet Radio Service) 시스템들을 가진 GSM(GSM/GPRS), CDMA/1xRTT 시스템들, EDGE(Enhanced Data Rates for Global Evolution) 시스템들, EV-DO(Evolution Data Only or Evolution Data Optimized) 시스템들, EV-DV(Evolution For Data and Voice) 시스템들, HSDPA(High Speed Downlink Packet Access) 시스템들, HSUPA(High Speed Uplink Packet Access) 시스템들 및 유사한 시스템들을 포함할 수 있다. 다른 무선 기술들이 구현될 수 있으며, 실시예들은 이러한 맥락으로 제한되지 않음을 알 수 있다.
도시되지 않더라도, 전자 장치(120-a)는 개인 전자 장치에 의해 통상 구현되는 각종 컴퓨팅 및 통신 플랫폼 하드웨어 및 소프트웨어 컴포넌트들 등의 전자 장치들을 위해 통상 구현된 하나의 또는 그 이상의 장치 리소스들을 더 포함할 수 있다. 장치 리소스들의 일부 일례들은 코-프로세서, 그래픽 프로세싱 유닛(GPU), 칩셋/플랫폼 제어 허브(PCH), 입력/출력(I/O) 장치, 컴퓨터 판독 가능 매체, 디스플레이 전자 장치, 디스플레이 배면광, 네트워크 인터페이스들, 로케이션 장치들(예를 들어, GPS 수신기), 센서들(예를 들어, 생체 인식, 열, 환경, 근접각, 가속도계, 기압, 압력 등), 휴대형 전원(예를 들어, 배터리), 응용 프로그램들, 시스템 프로그램들 등을 제한 없이 포함할 수 있다. 장치 리소스들의 다른 일례들은 도 10에 의해 도시된 일례의 컴퓨팅 아키텍처들을 참조해서 기술된다. 그러나, 실시예들은 이러한 일례들로 제한되지 않는다.
도 1에 도시된 실시예에서, 프로세서 회로(130)는 무선 트랜시버들(180-c) 및 메모리 유닛(150)에 통신상 연결될 수 있다. 메모리 유닛(150)은 트랜시버들(180-c)을 통해 전자 장치들(120-1, 120-2) 간의 데이터 유닛들(142-b)의 데이터 유닛 전송들을 관리하기 위해 프로세서 회로(130)에 의한 실행을 위해 구성된 시선 인터페이스 애플리케이션(140)을 저장할 수 있다.
시선 인터페이스 애플리케이션(140)은 사람 사용자의 눈 이동들에 기초하여 데이터 유닛 전송 동작들(예를 들어, 파일 전송 동작들)을 관리하기 위한 피처들을 일반적으로 제공할 수 있다. 특히, 시선 인터페이스 애플리케이션(140)은 사용자가 사용자에게 알려지고 눈 시선 추적기(160)에 의해 포착된 정의된 눈 이동 패턴으로 전자 장치들(120-1, 120-2)을 간단히 응시함으로써 전자 장치들(120-1, 120-2) 간에 데이터 유닛(142-b)을 전송할 수 있게 한다. 전자 장치(120-1)로부터 전자 장치(120-2)로 데이터 유닛(142-b)을 전송할 때, 전자 장치(120-1)는 "소스 장치"라고 할 수 있고, 전자 장치(120-2)는 "목표 장치"라고 할 수 있다. 전자 장치(120-2)로부터 전자 장치(120-1)로 데이터 유닛(142-b)을 전송할 때, 전자 장치(120-2)는 "소스 장치"라고 할 수 있고, 전자 장치(120-1)는 "목표 장치"라고 할 수 있다.
시선 인터페이스 애플리케이션(140)은, 각각, 전자 장치들(120-1, 120-2)에 의해 구현된 눈 시선 추적기들(160) 중 하나 또는 둘 다로부터 눈 이동 정보를 수신할 수 있다. 양 눈 시선 추적기들(160)로부터 눈 이동 정보를 사용할 때, 전자 장치들(120-1, 120-2)은 네트워크(190)를 통해 서버(110)에 의해 구현된 서버 시선 애플리케이션(112)을 통해 장치들 간에 눈 이동 정보를 교환할 수 있다.
일 실시예에서, 서버 시선 애플리케이션(112)은 시선 인터페이스 애플리케이션(140)과 상호 동작하도록 설계될 수 있다. 예를 들어, 서버 시선 애플리케이션(112)은 전자 장치들(120-1, 120-2) 간의 정보의 전송을 조정하고, 시선 인터페이스 애플리케이션(140)에 대한 소프트웨어 갱신들을 제공하며, 시선 인터페이스 애플리케이션(140)에 대한 데이터(예를 들어, 눈 이동 패턴들)를 저장하고, 복합 이미지 분석을 위한 추가 프로세싱 리소스들을 제공할 수 있는 등등이다.
일 실시예에서, 서버 시선 애플리케이션(112)은 시선 인터페이스 애플리케이션(140)에 의해 제공된 기능들 중 일부 또는 전부를 대체하도록 설계될 수 있다. 예를 들어, 서버 시선 애플리케이션(112)은 웹 브라우저 및 다른 웹 기술들을 통해 전자 장치들(120-1, 120-2)에 의해 액세스 가능한 웹 애플리케이션 또는 클라우드-컴퓨팅 애플리케이션으로서 구현될 수 있다. 이러한 경우에, 시선 인터페이스 애플리케이션(140)은 서버 시선 애플리케이션(112)에 의해 관리된 데이터를 제공 및 제시하기 위해 씬-클라이언트 애플리케이션으로서 구현될 수 있으며, 또는 표준 웹 브라우저에 의해 대체될 수 있다. 또한 또는 대안으로, 눈 시선 추적기(160)의 소프트웨어 동작들은 서버 시선 애플리케이션(112)의 일부로서 구현될 수 있으며, 하드웨어 동작들은 전자 장치들(120-1, 120-2)(예를 들어, 광원들 및 비디오 카메라들)에 의해 구현된 로컬 하드웨어 리소스들을 사용해서 구현될 수 있다.
전자 장치들(120-1, 120-2) 중 하나에 대한 시선 인터페이스 애플리케이션(140)은 눈 시선 추적기들(160) 중 하나 또는 둘 다로부터의 눈 이동 정보를 수집하고, 눈 이동 정보로부터 눈 시선 세그먼트들을 추출할 수 있다. 그 후, 시선 인터페이스 애플리케이션(140)은 눈 시선 세그먼트가, 전자 장치들(120-1, 120-2) 간의, 메모리 유닛(150)에 저장된 데이터 유닛(142-1) 등의 데이터 유닛(142-b)에 대한 데이터 유닛 전송 요청을 암시하는 지를 추론하기 위해 각각의 눈 시선 세그먼트를 분석할 수 있다.
시선 인터페이스 애플리케이션(140)이 데이터 유닛(142-1)에 대한 데이터 유닛 전송 요청으로서 눈 시선 세그먼트를 해석할 때, 시선 인터페이스 애플리케이션(140)은 무선 트랜시버들(180-c)을 사용해서 전자 장치들(120-1, 120-2) 간의 데이터 연결(192)을 설정함으로써 데이터 유닛 전송 동작들을 자동으로 개시할 수 있다. 그 후, 시선 인터페이스 애플리케이션(140)은 데이터 연결(192)을 통해 전자 장치(120-1)(소스 장치)로부터 전자 장치(120-2)(목표 장치)로 데이터 유닛(142-1)을 전송할 수 있다. 데이터 유닛 전송이 완료되면, 시선 인터페이스 애플리케이션(140)은 전자 장치들(120-1, 120-2)에 대한 컴퓨팅 및 통신 리소스들을 방출하기 위해 데이터 연결(192)을 종료할 수 있다. 이러한 방식으로, 사용자는 불과 눈 이동들을 사용해서 전자 장치들(120-1, 120-2) 간에 데이터 유닛들(142-b)을 전송할 수 있음으로써, 데이터 유닛 전송 동작들에 대한 수동 개입을 상당히 감소시킨다.
시선 콘텐츠 전송 시스템(100) 및 시선 인터페이스 애플리케이션(140)의 특정 양상들, 실시예들 및 대안들이 도 2를 참조해서 더 기술될 수 있다.
도 2는 시선 콘텐츠 전송 시스템(100)의 동작 환경(200)의 일 실시예를 도시한다. 특히, 동작 환경(200)은 시선 인터페이스 애플리케이션(140)의 더 상세한 블록도를 도시할 수 있다.
도 2에 도시된 바와 같이, 시선 인터페이스 애플리케이션(140)은 각종 컴포넌트들(222-e)을 포함할 수 있다. 본 출원에서 사용된 바와 같이, 용어 "component(컴포넌트)"는 컴퓨터-관련 엔티티, 하드웨어, 하드웨어 및 소프트웨어의 조합, 소프트웨어 또는 실행중의 소프트웨어를 나타내도록 의도된 것이다. 예를 들어, 컴포넌트는 프로세서에서 실행중인 프로세스, 프로세서, 하드 디스크 드라이브, 다수의 기억 드라이브들(광 및/또는 자기 기억 매체), 객체, 실행 가능 파일, 실행 스레드, 프로그램 및/또는 컴퓨터일 수 있지만, 이들로만 제한되지 않는다. 실례로서, 서버에서 실행중인 애플리케이션 및 서버는 둘 다 컴포넌트일 수 있다. 하나의 또는 그 이상의 컴포넌트들은 실행 프로세스 및/또는 스레드 내에 상주할 수 있으며, 하나의 컴포넌트가 하나의 컴퓨터에 국부적이고/이거나 2개의 또는 그 이상의 컴퓨터들 간에 분산될 수 있다. 또한, 컴포넌트들은 동작들을 조정하기 위해 각종 타입들의 통신 매체에 의해 서로 통신상 연결될 수 있다. 조정은 정보의 단방향 또는 양방향 교환을 수반할 수 있다. 예를 들어, 컴포넌트들은 통신 매체를 통해 통신된 신호들의 형태로 정보를 통신할 수 있다. 정보는 각종 신호 라인들에 할당된 신호들로서 구현될 수 있다. 이러한 할당들에서, 각각의 메시지는 신호이다. 그러나, 다른 실시예들은 대안으로 데이터 메시지들을 사용할 수 있다. 데이터 메시지들은 각종 연결들을 통해 송신될 수 있다. 일례의 연결들은 병렬 인터페이스들, 직렬 인터페이스들 및 버스 인터페이스들을 포함한다.
도 2에 도시된 실시예에서, 시선 인터페이스 애플리케이션(140)은 시선 해석기 컴포넌트(222-1), 데이터 연결 컴포넌트(222-2), 데이터 전송 컴포넌트(222-3) 및 사용자 인터페이스 컴포넌트(222-4)를 포함할 수 있다. 도 2에 도시된 시선 인터페이스 애플리케이션(140)이 특정 위상에서 오직 4개의 컴포넌트들만을 가지지만, 시선 인터페이스 애플리케이션(100)은 소정의 구현에 대해 바라는 대로 다른 위상들에서 더 많은 또는 더 적은 컴포넌트들을 포함할 수 있음을 알 수 있다. 실시예들은 이러한 맥락으로 제한되지 않는다.
시선 해석기 컴포넌트(222-1)는 눈 이동 정보(210-e)가 데이터 유닛 전송 요청을 나타내는 지를 결정하기 위해 눈 이동 정보(210-e)를 일반적으로 분석할 수 있다. 예를 들어, 시선 해석기 컴포넌트(222-1)는 데이터 유닛 전송 요청에 대응하는 사용자에 의해 실행된 하나의 또는 그 이상의 정의된 눈 이동 패턴들에 대한 눈 이동 정보(210-e)를 분석할 수 있다. 사용자는 사용자 및 시선 인터페이스 애플리케이션(140) 및/또는 눈 시선 추적기(160)의 훈련 단계 중에 디스플레이(170)에 제시된 일련의 그래픽 사용자 인터페이스(GUI) 뷰들, 이미지들 또는 비디오들을 통해 정의된 눈 이동 패턴들을 학습할 수 있다.
일 실시예에서, 예를 들어, 시선 해석기 컴포넌트(222-1)는 하나의 또는 그 이상의 눈 시선 추적기들(160)로부터 하나의 또는 그 이상의 사람 눈들의 고정 정보, 방향 정보 및 거리 정보를 나타내는 눈 이동 정보(210-e)를 수신할 수 있다. 시선 해석기 컴포넌트(222-1)는 소스 장치로부터 목표 장치로, 예를 들어, 전자 장치(120-1)로부터 전자 장치(120-2)로, 또는 그 반대로, 데이터 유닛(142-b)을 전송하라는 데이터 유닛 전송 요청으로서 눈 이동 정보(210-e)를 해석할 수 있다.
데이터 연결 컴포넌트(222-2)는 소스 및 목표 장치들(예를 들어, 전자 장치들(120-1, 120-2)) 간의 데이터 연결(192)을 일반적으로 관리할 수 있다. 데이터 연결 컴포넌트(222-2)는 요구되는 대로 데이터 연결(192)을 셋업 및 해체하기 위해 소스 및 목표 장치들의 동작들을 조정할 수 있다. 예를 들어, 전자 장치(120-1)가 소스 장치일 때, 연결 요청(270)을 목표 장치로서의 전자 장치(120-2)에 송신할 수 있다. 전자 장치(120-1)가 목표 장치일 때, 소스 장치로서의 전자 장치(120-2)로부터 연결 요청(270)을 수신할 수 있다. 그 후, 데이터 연결 컴포넌트(222-2)는 도 1을 참조해서 트랜시버들(180-c)에 대해 상술된 바와 같이 임의의 수의 공지된 통신 기술들을 사용해서 데이터 연결(192)을 설정할 수 있다.
일 실시예에서, 예를 들어, 데이터 연결 컴포넌트(222-2)는 시선 해석기 컴포넌트(222-1)에 의해 생성된 데이터 유닛 전송 요청에 응답해서 트랜시버들(180-c)을 사용해서 소스 장치 및 목표 장치(예를 들어, 전자 장치들(120-1, 120-2)) 간의 데이터 연결(192)을 설정할 수 있다. 데이터 연결(192)은 전자 장치들(120-1, 120-2) 간에 직접적으로, 또는 대안으로, 네트워크(190) 등의 외부 네트워크를 통해 간접적으로 피어-투-피어 또는 애드-혹 네트워크 연결로서 설정될 수 있다. 데이터 유닛 전송 요청이 눈 이동 정보(210-e)에 기초하여 생성되기에, 소스 장치 및 목표 장치는 통상 한 쌍의 사람 눈들의 시계 내에 있음으로써, 상술된 바와 같이 트랜시버들(180-c)에 대해 요구된 통신 범위를 단 범위 통신 기술들로 제한한다. 게다가, 다수의 경우들에서, 사용자는 책상 위에서와 같이 서로 가까운 부근 내에서 전자 장치들(120-1, 120-2)을 유지할 수 있어서, 통신 범위를 더욱 짧게 한다. 이와 같이 하여, 데이터 연결 컴포넌트(222-2)는 더 긴 범위의 정보 통신에 적합한 통신 파라미터들을 구현하는 장-범위 인터페이스인 무선 트랜시버(180-2)가 아니라, 더 짧은 범위의 정보 통신에 적합한 통신 파라미터들을 구현하는 단-범위 인터페이스로서 무선 트랜시버(180-1)를 종종 사용할 수 있다. 이는 전력 및 잠재적으로 데이터 유닛 전송 시간을 절약할 수 있다.
데이터 연결 컴포넌트(222-2)는 더 큰 대역폭, 더 높은 신호 강도, 더 낮은 비용 등의 임의의 각종 이유들로 인해 무선 트랜시버들(180-1, 180-2) 중 하나를 선택할 수 있다. 예를 들어, 데이터 연결 컴포넌트(222-2)는 트랜시버들(180-1, 180-2)로부터 상이한 신호 강도 식별자들을 수신하고, 트랜시버(180-1)에 비하여 더 높은 신호 강도를 가질 때 트랜시버(180-2)를 선택할 수 있다. 신호 강도 식별자들의 일례들은 수신 신호 강도 지시기(RSSI), 수신 채널 전력 지시기(RCPI), 신호 대 잡음비(SNR) 지시기, 신호 대 잡음 및 간섭비(SNIR) 지시기, 반송파 대 잡음비(CNR) 지시기, 반송파 대 수신기 잡음 밀도(C/kT) 지시기, 비트당 에너지 대 잡음 밀도(Eb/NO) 지시기, 심볼당 에너지 대 잡음 밀도(Es/NO) 지시기, 변조 오류율(MER) 지시기, 신호 잡음 및 왜곡(SINAD) 지시기, 신호 대 간섭비(SIR) 지시기, 신호 대 양자화 잡음비(SQNR) 지시기 등을 제한 없이 포함할 수 있다. 실시예들은 이러한 맥락으로 제한되지 않는다.
데이터 전송 컴포넌트(222-3)는 시선 인터페이스 애플리케이션(140)에 대한 데이터 유닛 전송 동작들을 일반적으로 관리할 수 있다. 예를 들어, 전자 장치(120-1)가 소스 장치일 때, 데이터 연결(192)을 통해 목표 장치로서의 전자 장치(120-2)에 데이터 전송 통지(280)를 송신할 수 있다. 데이터 전송 통지(280)는 데이터 유닛(142-b)을 수신할 준비를 하라고 전자 장치(120-2)에 나타낼 수 있다. 전자 장치(120-1)가 목표 장치일 때, 데이터 연결(192)을 통해 소스 장치로서의 전자 장치(120-2)로부터 데이터 전송 통지(280)를 수신할 수 있다. 데이터 전송 통지(280)는 데이터 유닛(142-b)을 수신할 준비를 하라고 전자 장치(120-1)에 나타낼 수 있다. 그 후, 데이터 전송 컴포넌트(222-3)는 소스 장치로부터 목표 장치로 데이터 연결(192)을 통해 데이터 유닛(142-b)을 전송하기 시작할 수 있다.
일 실시예에서, 예를 들어, 데이터 전송 컴포넌트(222-3)는 데이터 연결(192)을 통해 소스 장치로부터 목표 장치(예를 들어, 전자 장치들(120-1, 120-2))로 데이터 유닛(142-b)을 송신할 수 있다. 데이터 전송 컴포넌트(222-3)는 임의의 수의 파일 전송 기술들 및 프로토콜들을 사용해서 소스 장치 및 목표 장치(예를 들어, 전자 장치들(120-1, 120-2)) 간에 데이터 유닛들(142-b)을 전송할 수 있다. 파일 전송 기술들의 일부 일례들은 플랜 9 파일시스템 프로토콜(Plan 9 Filesystem Protocol)(9P), AFP(Apple® Filing Protocol), BitTorrent®, FTAM(Data unit transfer Access and Management), FTP(Data unit transfer Protocol), FTPS(FTP over Secure Socket Layer), HFTP(FTP via Hypertext Transfer Protocol), HTTP(Hypertext Transfer Protocol), HTTPS(HTTP with SSL), WebDAV(Web-Based Distributed Authoring and Versioning), 유닉스 RCP(Unix Remote Copy), SCP(Secure Copy), SFTP(Secret Data unit transfer Protocol), SFTP(Simple Data unit transfer Protocol) 등의 통신 프로토콜들 송신 제어 프로토콜(TCP) 및 인터넷 프로토콜(IP)(총괄하여 TCP/IP)과 주로 사용되는 파일 전송 기술들을 제한 없이 포함할 수 있다. 파일 전송 기술들의 일부 일례들은 FASP(Fast and Secure Protocol), FSP(File Service Protocol), MFTP(Multicast Data unit transfer Protocol), TFTP(Trivial Data unit transfer Protocol), TUP(Tsunami UDP Protocol), UDP(UDP-Based Data Transfer Protocol), UFTP(UDP Based FTP with Multicast) 등의 통신 프로토콜들 사용자 데이터그램 프로토콜(USP)과 주로 사용되는 파일 전송 기술들을 제한 없이 포함할 수 있다. 파일 전송 기술들의 일부 일례들은 커미트 및 변형(Kermit and variants), BiModem, Cmodem, Jmodem, Nmodem, Smodem, Tmodem, UUCP(Unix-to-Unix Copy), Xmodem, Ymodem, Zmodem 등의 직접 모뎀 연결들과 주로 사용되는 파일 전송 기술들을 제한 없이 포함할 수 있다. 다른 파일 전송 기술들이 사용될 수 있으며, 실시예들은 이러한 맥락으로 제한되지 않는다.
사용자 인터페이스 컴포넌트(222-4)는 메모리 유닛(150)에 저장된 하나의 또는 그 이상의 데이터 유닛들(142-b)을 나타내는 하나의 또는 그 이상의 그래픽 사용자 인터페이스(GUI) 요소들을 포함하는 GUI 뷰들을 생성할 수 있다. GUI 뷰는 디스플레이(170)를 통해 사용자에게 제시될 수 있다. 사용자 인터페이스 컴포넌트(222-4)는 데이터 유닛 전송 요청을 나타내는 특정 정의된 눈 이동 패턴들을 사용하도록 사용자를 훈련하도록 설계된 훈련 자료로 GUI 뷰를 또한 생성할 수 있다. 일 실시예에서, 예를 들어, 사용자 인터페이스 컴포넌트(222-4)는 사용자가 일부 정의된 시간 간격(예를 들어, 2초) 동안 데이터 유닛(142-b)을 나타내는 GUI 요소에 자신의 눈들의 초점을 맞추고, 전자 장치(120-1)(소스 장치)로부터 전자 장치(120-2)(목표 장치) 쪽으로 선형 방향으로 자신의 눈들을 이동하며, 일부 정의된 시간 간격(예를 들어, 2초) 동안 전자 장치(120-2) 또는 전자 장치(120-2)의 GUI 뷰에 자신의 눈들의 초점을 맞추는 것을 도시하는 비디오를 디스플레이(170)에 제시할 수 있다. 이 눈 이동 패턴은 도 3-5를 참조해서 기술된 바와 같이 눈 시선 세그먼트에 대응할 수 있다. 공지된 패턴의 눈들의 회전, 공지된 패턴의 눈들의 시프팅, 공지된 패턴의 눈의 눈꺼풀들의 깜박임, 정의된 시간 기간 내에 또는 정의된 회수 내에 한 장치를 본 후 다른 장치를 보는 등의 다른 정의된 눈 이동 패턴들이 또한 사용될 수 있다. 사용자에 의해 알려지고, 시선 해석기 컴포넌트(222-1)에 의해 공지되며, 눈 시선 추적기(160)에 의해 검출 가능한 한, 임의의 정의된 눈 이동 패턴이 사용될 수 있다. 실시예들은 이러한 맥락으로 제한되지 않는다.
사용자 인터페이스 컴포넌트(222-4)는, 사용자가 데이터 유닛 전송 요청을 개시하도록 의도했는 지와 같은, 일부 형식의 사용자 개입 없이 시선 인터페이스 애플리케이션(140)에 의해 해결될 수 없는 애매성을 해결하는데 또한 사용될 수 있다. 이러한 경우들에서, 사용자 인터페이스 컴포넌트(222-4)는 시선 콘텐츠 전송 시스템(100)으로부터의 정보로 채워진 대화 상자, 및 "이미지 파일 XYZ의 전송을 확인하라(Please confirm transfer of the image file XYZ)"고 사용자에게 요청하는 대화 상자 등, 사용자로부터 입력을 간청하는 대화 상자로 사용자 인터페이스 뷰를 생성 및 표면화할 수 있다. 그러나, 애매성이 없더라도, 사용자 인터페이스 컴포넌트(222-4)가 시선 콘텐츠 전송 시스템(100)으로부터의 정보로 채워지거나, 또는 시선 콘텐츠 전송 시스템(100)으로부터의 정보에 기초하여 조직된 표면 사용자 인터페이스 페이스 뷰들을 생성하게 하는 것이 여전히 바람직할 수 있다. 이는 "혼합-주도형(mixed-initiative)" 인터페이스를 생성할 수 있다. 대화 상자를 팝업하거나, 소스 정보 또는 목표 정보로 사용자 인터페이스 필드들에 미리 채우거나, 메뉴에서 항목들을 다시 정렬하는 등, 혼합-주도형 인터페이스는 추론한 후, 사용자가 명확하게 행동하기가 매우 쉽게 한다. 이러한 경우들에서, 시선 인터페이스 애플리케이션(140)이 눈 이동 정보(210-e)를 오직 명백하거나 또는 암묵적인 데이터 유닛 전송 요청들로서 해석하게 하는 것이 아니라, 시선 인터페이스 애플리케이션(140)은 사용자 인터페이스 뷰를 통해 사용자에 의해 쉽게 야기될 수 있는 데이터 유닛 전송 요청을 준비하는 방식으로 눈 이동 정보(210-e)를 해석할 수 있다.
사용자 인터페이스 컴포넌트(222-4)가 시선 인터페이스 애플리케이션(140)의 일부로서 도시되지만, 사용자 인터페이스 컴포넌트(222-4)는 운영 체제(OS) 등의 전자 장치들(120-1, 120-2)을 위한 시스템 프로그램의 일부로서 또한 구현될 수 있다.
도 3은 시선 콘텐츠 전송 시스템(100)의 동작 환경(300)의 일 실시예를 도시한다. 특히, 동작 환경(300)은, 이 경우 전자 장치(120-1)인, 소스 장치의 디스플레이(170)에 제시된 GUI 뷰(302)를 도시할 수 있다.
도 3에 도시된 실시예에서, GUI 뷰(302)는 하나의 또는 그 이상의 아이콘들(304-f) 등의 다수의 GUI 요소들을 포함할 수 있다. 일 실시예에서, 아이콘(304-f)은 전자 장치(120-1)의 메모리 유닛(150)에 저장된 단일 데이터 유닛(142-b)에 대응할 수 있다. 예를 들어, 아이콘(304-1)은 데이터 유닛(142-1)에 대응하고, 아이콘(304-2)은 데이터 유닛(142-2)에 대응하는 등등이다. 일 실시예에서, 아이콘(304-f)은 전자 장치(120-1)의 메모리 유닛(150)에 저장된 다수의 데이터 유닛들(142-b)에 대응할 수 있다. 예를 들어, 아이콘(304-1)은 다수의 데이터 유닛들(142-1, 142-2)에 대응할 수 있다.
도 2를 참조해서 상술된 바와 같이, 시선 해석기 컴포넌트(222-1)는 하나의 또는 그 이상의 눈 시선 추적기들(160)로부터의 하나의 또는 그 이상의 사람 눈들의 고정 정보, 방향 정보 및 거리 정보를 나타내는 눈 이동 정보(210-e)를 수신할 수 있다. 시선 해석기 컴포넌트(222-1)는 소스 장치로부터 목표 장치로, 예를 들어, 전자 장치(120-1)로부터 전자 장치(120-2)로, 또는 그 반대로, 데이터 유닛(142-b)을 전송하라는 데이터 유닛 전송 요청으로서 눈 이동 정보(210-e)를 해석할 수 있다. 특히, 전자 장치들(120-1, 120-2) 중 하나에 대한 시선 인터페이스 애플리케이션(140)의 시선 해석기 컴포넌트(222-1)는 눈 이동 정보(210-e)를 수집하고, 눈 이동 정보(210-e)로부터 눈 시선 세그먼트(306)를 추출할 수 있다. 그 후, 시선 해석기 컴포넌트(222-1)는 눈 시선 세그먼트(306)가, 전자 장치들(120-1, 120-2) 간의, 메모리 유닛(150)에 저장된 데이터 유닛(142-1) 등의 데이터 유닛(142-b)에 대한 데이터 유닛 전송 요청을 암시하는 지를 추론하기 위해 눈 시선 세그먼트(306)를 분석할 수 있다.
시선 해석기 컴포넌트(222-1)는 눈 시선 세그먼트(306)를 메모리 유닛(150)에 저장된 수개의 정의된 눈 이동 패턴들 중 하나와 매칭함으로써 눈 시선 세그먼트(306)가 데이터 유닛 전송 요청을 트리거하는 지를 결정할 수 있다. 예를 들어, 시선 해석기 컴포넌트는 눈 이동 정보(210-e)로부터의 고정 정보를 사용해서, GUI 뷰(302)에 대하여 눈 시선 세그먼트(306)의 근원 지점(308)을 식별할 수 있다. 시선 해석기 컴포넌트(222-1)는 본 일례에서 전자 장치(120-1)인 소스 장치의 디스플레이(170)에 제시된 GUI 뷰(302)의 GUI 요소들에 근원 지점(308)을 매핑할 수 있다. 도 3에 도시된 바와 같이, 근원 지점(308)에 매핑된 GUI 요소는 메모리 유닛(150)에 저장된 데이터 유닛(142-1)을 나타내는 아이콘(304-1)을 포함할 수 있다.
시선 해석기 컴포넌트(222-1)는 시선 기반 상호 작용 사용자 인터페이스들에 적합한 임의의 매핑 기술들을 사용해서 아이콘(304-1)에 근원 지점(308)을 매핑할 수 있다. 일 실시예에서, 예를 들어, 눈 이동 정보(210-e)는 눈과 디스플레이(170) 간의 3차원(3D) 시선 방향 벡터 등의 수개의 유클리드 측정치들을 포함할 수 있다. 시선 해석기 컴포넌트(222-1)는 3D 시선 방향 벡터를 사용해서 스크린에서의 위치를 추정할 수 있으며, 여기서, 3D 시선 방향 벡터는 디스플레이(170)에서 종료하고, 디스플레이 스크린의 종료 위치의 스크린 좌표 (x,y)를 포착하며, 사용자 인터페이스 컴포넌트(222-4) 또는 전자 장치(120-1)의 운영 체제에 의해 유지된 아이콘(304-1)의 공지된 스크린 좌표 (x,y)와 포착된 스크린 좌표를 비교할 가능성이 있다. 종료 위치의 포착된 스크린 좌표들이 아이콘(304-1)의 공지된 스크린 좌표들과 일치할 때, 시선 해석기 컴포넌트(222-1)는 긍정적인 매핑을 나타낸다. 매칭 좌표들의 입상도(granularity)는 소정의 구현에 따라 변할 수 있다. 다른 공지된 매핑 기술들이 또한 사용될 수 있으며, 실시예들은 이러한 맥락으로 제한되지 않는다.
근원 지점(308)이 아이콘(304-1)에 매핑되면, 시선 해석기 컴포넌트(222-1)는 눈 이동 정보(210-e)로부터 검색된 방향 정보 및 거리 정보에 기초하여 눈 시선 세그먼트(306)의 종료 지점(310)을 식별하고자 시도할 수 있다. 그 후, 시선 해석기 컴포넌트(222-1)는, 이 경우에, 전자 장치(120-2)인 목표 장치에 종료 지점(310)을 매핑하고자 시도한다. 시선 해석기 컴포넌트(222-1)는, 예를 들어, 근원 지점(308)에서 사용된 바와 같은, 다수의 상이한 기술들을 사용해서 종료 지점(310)을 전자 장치(120-2)에 매핑할 수 있다.
도 3은 시선 해석기 컴포넌트(222-1)가 종료 지점(310)을 전자 장치(120-2)에 간접적으로 매핑하는 제1 경우를 도시한다. 도 3에 도시된 일례에서, 종료 지점(310)은 GUI 뷰(302)의 경계들 내에 있다. 이는 사용자가 전자 장치(120-1)만을 응시하며 전자 장치(120-2)는 응시하지 않는 경우를 반영한다. 종료 지점(310)이 GUI 뷰(302) 내에 있어서, 전자 장치(120-2)를 목표 장치로서 명확하게 식별하지 않기에, 시선 해석기 컴포넌트(222-1)는 눈 시선 세그먼트(306)가: (1) 데이터 유닛 전송 요청이며; (2) 목표 장치가 전자 장치(120-2)임을 확인하기 위해 일부 추가 분석을 실행하고, 일부 추가 추론들을 행할 필요가 있다. 사용자가 전자 장치(120-2)를 실제로 응시하지 않았기에, 이 경우에, 항목들 (1) 및 (2)의 확인이 요구되며, 또는 시선 해석기 컴포넌트(222-1)는 사용자가 전자 장치(120-2)를 응시했는 지를 결정하기 위해 충분한 눈 이동 정보(210-e)(예를 들어, 전자 장치(120-2)로부터의 눈 이동 정보(210-2)로부터의)를 갖지 않으며, 이는 달리 확인된 항목들 (1) 및 (2)을 가진다.
눈 시선 세그먼트(306)가 데이터 유닛 전송 요청인 지를 결정하기 위해, 시선 해석기 컴포넌트(222-1)는 눈 시선 세그먼트(306)의 방향 및 거리를 검사할 수 있다. 방향이, 종료 지점(310)을 넘어 계속되면, 결국 GUI 뷰(302), 디스플레이(170) 또는 전자 장치(120-1)의 경계들을 떠나게 되는 비교적 직선 방향을 나타낼 때, 이는 사용자가 데이터 유닛 전송 요청을 개시하기를 희망함을 나타내는 긍정적인 요인일 수 있다. 다른 일례에서, 눈 이동의 속도는 데이터 유닛 전송 요청의 다른 긍정적 지시기일 수 있다. 다른 일례에서, 거리가 정의된 임계 거리를 넘을 때, 이는 또한 데이터 유닛 전송 요청 쪽으로 완화하는 긍정적인 요인일 수 있다. 정의된 임계 거리는 장치 크기 또는 디스플레이 크기에 따라 변할 수 있다. 예를 들어, 4인치라는 수평 디스플레이 크기를 가진 스마트폰의 정의된 임계 거리는 2인치일 수 있으며, 10인치라는 수평 디스플레이 크기를 가진 태블릿 컴퓨터의 정의된 임계 거리는 4인치일 수 있고, 20인치라는 수평 디스플레이 크기를 가진 데스크탑 컴퓨터의 정의된 임계 거리는 6인치일 수 있다. 눈 시선 세그먼트(306)의 방향 및 거리가 포지티브일 때, 시선 해석기 컴포넌트(222-1)는 눈 시선 세그먼트(306)가 데이터 유닛 전송 요청이라는 사용자 의도를 나타냄을 결정할 수 있다.
눈 시선 세그먼트(306)가 데이터 유닛 전송 요청으로서 확인되면, 시선 해석기 컴포넌트(222-1)는 인근 장치들을 결정하기 위해 장치 발견 동작들을 개시하도록 데이터 연결 컴포넌트(222-2)에 제어 지시를 발행함으로써 목표 장치를 결정할 수 있다. 전자 장치(120-2)와 같은 단일 장치만이 발견될 때, 전자 장치(120-2)는 목표 장치로 추정된다. 다수의 장치들이 발견될 때, 데이터 연결 컴포넌트(222-2)는 목표 장치로서의 특정 장치의 선택을 사용자에게 요청하는 메시지를 가진 GUI 요소를 생성하기 위해 사용자 인터페이스 컴포넌트(222-4)에 제어 지시를 발행할 수 있다. 대안으로, 데이터 연결 컴포넌트(222-2)는 이력 정보에 기초하여 목표 장치를 자동으로 선택할 수 있다. 예를 들어, 최종 N 데이터 유닛 전송 요청이 전자 장치(120-2)에 대한 것이면, 전자 장치(120-2)가 목표 장치로서 선택될 수 있다.
도 4는 시선 콘텐츠 전송 시스템(100)의 동작 환경(400)의 일 실시예를 도시한다. 특히, 동작 환경(400)은, 이 경우 전자 장치(120-1)인, 소스 장치의 디스플레이(170)에 제시된 GUI 뷰(302)를 도시할 수 있다.
도 4는 시선 해석기 컴포넌트(222-1)가 종료 지점(310)을 전자 장치(120-2)에 간접적으로 매핑하는 제2 경우를 도시한다. 도 4에 도시된 일례에서, 종료 지점(310)은 GUI 뷰(302)의 경계들의 외부에 있는 지점이다. 다시 말해서, 이는 사용자가 전자 장치(120-1)만을 응시하고, 전자 장치(120-2)는 응시하지 않는 경우를 반영한다. 그러나, 종료 지점(310)이 GUI 뷰(302)의 경계들 내에 있는 동작 환경(300)과 달리, 동작 환경(400)은 눈 시선 세그먼트(306)의 종료 지점(310)이 GUI 뷰(302)의 외부에 있는 경우를 도시한다. 이는 눈 시선 세그먼트(306)가 사용자에 의한 데이터 유닛 전송 요청이라는 더 강한 긍정적인 지시기이다.
그러나, 종료 지점(310)이 GUI 뷰(302)의 외부에 있더라도, 여전히 전자 장치(120-2)를 목표 장치로서 명확하게 식별하지는 않는다. 따라서, 시선 해석기 컴포넌트(222-1)는 눈 시선 세그먼트(306)를 데이터 유닛 전송 요청으로서 확인하기 위해 여전히 일부 추가 분석을 실행하고, 일부 추가 추론들을 행할 필요가 있다. 시선 해석기 컴포넌트(222-1)는 이러한 확인을 위해 도 3을 참조해서 상술된 바와 같이 눈 시선 세그먼트(306)의 방향 및 거리를 검사할 수 있다.
시선 해석기 컴포넌트(222-1)가 종료 지점(310)을 목표 장치에 간접적으로 매핑할 필요가 있고, 눈 시선 세그먼트(306)가 데이터 유닛 전송 요청이라고 시선 해석기 컴포넌트(222-1)가 결정하는 경우들에서, 도 3을 참조해서 상술된 바와 같이, 시선 해석기 컴포넌트(222-1)는 인근 장치들을 결정하기 위해 장치 발견 동작들을 개시하도록 데이터 연결 컴포넌트(222-2)에 제어 지시를 발행하고, 발견된 장치를 목표 장치로서 선택할 수 있다.
도 5는 시선 콘텐츠 전송 시스템(100)의 동작 환경(500)의 일 실시예를 도시한다. 특히, 동작 환경(500)은, 이 경우 전자 장치(120-1)인, 소스 장치의 디스플레이(170)에 제시된 GUI 뷰(302) 및 이 경우 전자 장치(120-2)인, 목표 장치의 디스플레이(170)에 제시된 GUI 뷰(502)를 도시한다.
도 5에 도시된 실시예에서, GUI 뷰(502)는 하나의 또는 그 이상의 아이콘들(504-g) 등의 다수의 GUI 요소들을 포함할 수 있다. 일 실시예에서, 아이콘(504-g)은 전자 장치(120-2)의 메모리 유닛(150)에 저장된 단일 데이터 유닛(142-b)에 대응할 수 있다. 예를 들어, 아이콘(504-1)은 데이터 유닛(142-1)에 대응하고, 아이콘(504-2)은 데이터 유닛(142-2)에 대응하는 등등이다. 일 실시예에서, 아이콘(504-g)은 전자 장치(120-2)의 메모리 유닛(150)에 저장된 다수의 데이터 유닛들(142-b)에 대응할 수 있다. 예를 들어, 아이콘(504-1)은 다수의 데이터 유닛들(142-1, 142-2)에 대응할 수 있다.
도 5는 시선 해석기 컴포넌트(222-1)가 눈 시선 세그먼트(306)의 종료 지점(310)을 전자 장치(120-2)에 직접 매핑하는 경우를 도시한다. 도 5에 도시된 일례에서, 종료 지점(310)은 GUI 뷰(302)의 경계들의 외부에 있으며, GUI 뷰(502)의 경계들 내에 있는 지점이다. 이는 사용자가 전자 장치들(120-1, 120-2)을 둘 다 응시하는 경우를 반영한다. 종료 지점(310)이 전자 장치(120-2)에 직접 매핑하지 않는 동작 환경들(300, 400)과 달리, 동작 환경(500)은 눈 시선 세그먼트(306)의 종료 지점(310)이 전자 장치(120-2)에, 즉, 전자 장치(120-2)의 디스플레이(170)에 제시된 GUI 뷰(502)에 직접 있는 경우를 도시한다. 이는 눈 시선 세그먼트(306)가 사용자에 의한 데이터 유닛 전송 요청이며, 목표 장치가 전자 장치(120-2)라는 더 강한 긍정적인 지시기로서 작용한다. 따라서, 동작 환경들(300, 400)에 도시된 간접적인 매핑 경우들에서 요구된 추가 분석은 동작 환경(500)에 도시된 직접 매핑 경우에는 요구되지 않을 수 있다.
각종 실시예들에서, 시선 해석기 컴포넌트(222-1)는 전자 장치들(120-1, 120-2)의 눈 시선 추적기들(160) 중 하나로부터 눈 이동 정보(210-e)를 수신할 수 있다. 대안으로, 시선 해석기 컴포넌트(222-1)는 전자 장치들(120-1, 120-2)의 눈 시선 추적기들(160) 둘 다로부터 눈 이동 정보(210-e)를 수신할 수 있다.
일 실시예에서, 예를 들어, 전자 장치(120-1)의 시선 해석기 컴포넌트(222-1)는 이 경우 전자 장치(120-1)인 소스 장치의 눈 시선 추적기(160)로부터 눈 이동 정보(210-1)의 완전한 집합을 수신할 수 있다. 이 경우에, 시선 해석기 컴포넌트(222-1)는 눈 이동 정보(210-1)로부터 근원 지점(308) 및 종료 지점(310)을 가진 눈 시선 세그먼트(306)를 검색할 수 있다. 시선 해석기 컴포넌트(222-1)가 GUI 뷰(302)의 좌표들을 알기에, 공지된 좌표들을 사용해서 근원 지점(308)을 GUI 뷰(302)에 매핑할 수 있다. 그러나, 시선 해석기 컴포넌트(222-1)는 전자 장치(120-2)의 3D 좌표들을 반드시 알고 있지 않을 수도 있으며, 또는 알고 있는 경우, 전자 장치(120-2)가 이동되었을 수 있다. 따라서, 종료 지점(310)을 전자 장치(120-2)에 매핑하는 것은 더 복잡한 동작일 수 있다.
종료 지점(310)을 전자 장치(120-2)에 매핑하기 위해, 상술된 간접 매핑 기술들 중 임의의 기술이 사용될 수 있다. 또한, 시선 해석기 컴포넌트(222-1)는 눈 시선 추적기(160)의 비디오 카메라에 의해 포착된 디지털 이미지들을 해석 또는 수신하고, 디지털 이미지들에서 객체들을 검출하기 위해 이미지 분석을 실행하며, 검출된 객체를 전자 장치(120-2)와 매칭할 수 있다. 그 후, 시선 해석기 컴포넌트(222-1)는 전자 장치(120-2)의 3D 좌표들을 생성하고, 눈 이동 정보(210-e)에 의해 제공된 3D 시선 방향 벡터의 종료와 전자 장치(120-2)의 3D 좌표들을 매칭하고자 시도할 수 있다. 매칭 좌표들은 종료 지점(310) 및 전자 장치(120-2) 간의 긍정적인 매치를 나타낼 수 있다.
대안으로, 전자 장치(120-2)의 시선 해석기 컴포넌트(222-1)는 종료 지점(310) 및 GUI 뷰(502) 간의 매핑을 나타내는 매핑 정보를 전자 장치(120-1)의 시선 해석기 컴포넌트(222-1)에 송신할 수 있다. 전자 장치(120-1)의 시선 해석기 컴포넌트(222-1)는 종료 지점(310) 및 전자 장치(120-2) 간의 긍정적인 매치로서 전자 장치(120-2)로부터 수신된 매핑 정보를 사용할 수 있다.
일 실시예에서, 예를 들어, 시선 해석기 컴포넌트(222-1)는 이 경우 전자 장치(120-2)인 목표 장치의 눈 시선 추적기(160)로부터 눈 이동 정보(210-2)의 완전한 집합을 수신할 수 있다. 이 경우에, 시선 해석기 컴포넌트(222-1)는 눈 이동 정보(210-2)로부터의 근원 지점(308) 및 종료 지점(310)을 가진 눈 시선 세그먼트(306)를 검색할 수 있다. 또한, 전자 장치(120-2)의 시선 해석기 컴포넌트(222-1)는 종료 지점(310) 및 GUI 뷰(502) 간의 매핑 정보를 포함하도록 눈 이동 정보(210-2)를 증가시킬 수 있다. 대안으로, 매핑 정보는 눈 이동 정보(210-2)로부터의 정보의 별개의 집합으로서 전자 장치(120-2)로부터 송신될 수 있다. 다른 경우에, 시선 해석기 컴포넌트(222-1)는 GUI 뷰(302)의 공지된 좌표들을 사용해서 근원 지점(308)을 전자 장치(120-1)에 직접 매핑할 수 있고, 눈 이동 정보(210-2)로부터의 매핑 정보를 사용해서 종료 지점(310)을 전자 장치(120-2)에 매핑할 수 있다.
일 실시예에서, 예를 들어, 시선 해석기 컴포넌트(222-1)는, 각각, 소스 장치 및 목표 장치의 양 눈 시선 추적기들(160)로부터 눈 이동 정보(210-3)의 완전한 집합을 수신할 수 있으며, 눈 이동 정보(210-3)는 전자 장치(120-1)의 눈 시선 추적기(160)로부터의 눈 이동 정보의 제1 부분(210-1) 및 전자 장치(120-2)의 눈 시선 추적기(160)로부터의 눈 이동 정보의 제2 부분(210-2)을 포함한다. 눈 이동 정보의 제2 부분(210-2)은 상술된 바와 같이 종료 지점(310)의 매핑 정보를 포함할 수 있으며, 또는 매핑 정보는 정보의 별개의 집합으로서 송신될 수 있다. 이 경우에, 시선 해석기 컴포넌트(222-1)는 눈 이동 정보(210-3)의 결합된 집합으로부터 근원 지점(308) 및 종료 지점(310)을 가진 눈 시선 세그먼트(306)를 검색할 수 있다. 이와 같이 하여, 각각, 전자 장치들(120-1, 120-2)로부터의 눈 이동 정보(210-1, 210-2)를 가짐에 따라, 시선 해석기 컴포넌트(222-1)는 근원 지점(308)을 전자 장치(120-1)에, 또한, 종료 지점(310)을 전자 장치(120-2)에 직접 매핑할 수 있다.
도 3-5가 눈 이동 정보(210-e)로부터의 고정 정보, 방향 정보 및 거리 정보를 사용하는 눈 시선 세그먼트(306)의 정의된 눈 이동 패턴으로서 데이터 유닛 전송 요청에 대한 트리거를 기술하더라도, 데이터 유닛 전송 요청에 대한 다른 트리거들이 또한 눈 이동 정보(210-e)에 의해 제공된 정보의 부분적인 양들을 포함할 수 있다는 것을 알 수 있음을 주지할 가치가 있다. 일 실시예에서, 예를 들어, 일시적 정보와 결합된 정의된 눈 이동 패턴을 식별하기 위해 고정 정보만이 사용될 수 있다. 예를 들어, 시선 해석기 컴포넌트(222-1)는 사용자가 전자 장치(120-1)를 바라보고, 일부 정의된 시간 간격 내에, 전자 장치(120-1)를 보는 간단한 눈 이동 패턴을 모니터할 수 있다. 이는 데이터 유닛 전송 요청을 트리거하는데 충분할 수 있다. 시선 해석기 컴포넌트(222-1)는 또한 일부 반복 회수 동안 전자 장치들(120-1, 120-2) 사이를 반복해서 바라보는 등의 눈 이동 패턴들의 반복을 모니터할 수 있다. 이러한 타입의 정의된 눈 이동 패턴들은 일시적 샘플링 레이트가 실제로 낮거나, 공간 샘플링 레이트가 매우 저조했거나, 또는 방향 정보가 손실되도록 폐색(occlusion)이 있는 상황들에서 특히 유용하다. 실시예들은 이러한 일례들로 제한되지 않는다.
도 6a는 전자 장치들(120-1, 120-2)에 적합한 일례의 눈 시선 추적기(160)의 더 상세한 도면을 도시한다. 눈 시선 추적기(160)는 사람 사용자의 하나의 또는 그 이상의 눈들의 이동을 검출하도록 설계된다. 도 6a에 도시된 바와 같이, 눈 시선 추적기(160)는, 예를 들어, 하나의 또는 그 이상의 광원들(602-j), 하나의 또는 그 이상의 비디오 카메라들(604-k) 및 시선 분석기 컴포넌트(606)를 포함할 수 있다. 도 6a에 도시된 눈 시선 추적기(160)가 특정 위상에서 제한된 수의 요소들을 갖더라도, 눈 시선 추적기(160)는 소정의 구현에 대해 바라는 대로 다른 위상들에서 더 많은 또는 더 적은 컴포넌트들을 포함할 수 있음을 알 수 있다.
광원들(602-j)은 전자 장치(120-1)의 사람 사용자의 한 눈 또는 양 눈들을 향한 광 빔들을 생성하도록 구성된다. 광원들(602-j)은 정의된 파장의 전자기 방사선을 투사할 수 있다. 일 실시예에서, 광원들(602-j)은, 예를 들어, 근적외선 빛 등, 사용자에게 가시적이지 않은 파장의 전자기 방사선을 투사할 수 있다. 광원들(602-j)은, 통상 비디오 카메라들(604-k)의 광 축과 동일한 축을 따라, 사용자의 얼굴에 비추도록 배치된다. 광원(602-j)의 일례는 발광 다이오드(LED), 유기 LED(OLED) 및 다른 반도체 장치들 등의 반도체 광원을 포함할 수 있다.
비디오 카메라들(604-k)은 눈들의 디지털 이미지들을 기록하도록 구성된다. 디지털 이미지들은 하나의 또는 그 이상의 광원들(602-j)의 하나의 또는 그 이상의 가상 이미지들 및 각각의 눈의 각막으로부터의 광 빔들의 반사에 의해 야기된 각각의 눈의 조사된 동공을 포함한다.
시선 분석기 컴포넌트(606)는 프로세서 회로(130) 또는 별개의 프로세서에서 실행할 수 있으며, 비디오 카메라들(604-k)에 의해 포착된 디지털 이미지들에 대한 이미지 분석을 실행할 수 있다. 시선 분석기 컴포넌트(606)는 가상 이미지들 및 조사된 동공들에 기초하여 눈들의 이동의 방향 및 거리를 결정하기 위해 디지털 이미지들을 분석할 수 있다. 시선 분석기 컴포넌트(606)는 고정 정보, 방향 정보 및 거리 정보를 눈 이동 정보(210-e)로서 시선 인터페이스 애플리케이션(140)에 출력할 수 있다.
도 6b는 도 6a에 기술된 일례의 눈 시선 추적기(160)의 더 상세한 도면을 도시한다. 도 6b에 도시된 눈 시선 추적기(160)는 눈 시선 추적기(160)의 동작들을 설명하기 위해 약간 과장되었다. 마이크로-전자 기술이 데스크탑 컴퓨터, 노트북 컴퓨터, 태블릿 컴퓨터, 스마트폰, 디지털 프레임 또는 소비자 기기의 형태 인자 등의 전자 장치들(120-1, 120-2)의 상이한 형태 인자들에 적합하게 눈 시선 추적기(160)를 만드는데 사용될 수 있음을 알 수 있다. 실시예들은 이러한 맥락으로 제한되지 않는다.
일반적인 동작에서, 눈 시선 추적기(160)는 각막 반사 기술을 사용해서 사용자(612)의 눈 이동들을 추적할 수 있다. 광원들(602-j)은 사용자(612)의 사용자 머리(614)의 눈 쪽으로 대응 광 빔들(608-j)을 투사하고, 동공 위치 및 각막 표면으로부터의 광 빔들(608-j)의 반사 간의 각 차이(angular difference)를 모니터한다. 사용자(612)가 이 파장을 볼 수 없어서 산란(distractions)을 방지하기에, 광 빔들(608-j)은 근적외선 빛을 포함할 수 있다. 눈으로부터 반사된 빛은 2개의 주요 성분들을 가진다. 제1 성분은 "반짝임(glint)"이며, 이는 눈의 각막 돌출부(corneal bulge)의 정면으로부터 반사된 광원(602-j)의 매우 작고 매우 밝은 가상 이미지이다. 제2 성분은 눈으로 들어갔다가 망막으로부터 반사되어 나온 빛이다. 이 빛은 뒤에서부터 눈의 동공을 조사하도록 작용해서, 동공이 더 어두운 배경에 대하여 밝은 디스크로 나타나게 야기한다. 플래시 사진 작가들에게 친숙한 역 반사(retro-reflection) 또는 "브라이트 아이" 효과(bright eye effect)는 매우 높은 대비 이미지(contrast image)를 제공한다. 눈 시선 추적기(160)는 동공의 중심 및 하나의 또는 그 이상의 반짝임들을 결정하고, 눈이 회전됨에 따라 이 지점들 간의 거리 및 방향의 변경을 결정한다. 안구의 방향이 하나의 또는 그 이상의 반짝임들에 대한 동공 중심의 상이한 움직임으로부터 추론될 수 있다. 시선 분석기 컴포넌트는 이 정보를 사용해서, 한 눈 또는 양 눈들 및 디스플레이(170) 간의 각종 3D 시선 방향 벡터들(610-m)을 생성할 수 있다. 각막 반사 외의 다른 눈 추적 기술들이 사용될 수 있으며, 실시예들은 이러한 맥락으로 제한되지 않는다.
기술된 아키텍처의 신규 양상들을 실행하기 위한 일례의 방법들을 나타내는 흐름도들의 집합이 본 명세서에 포함된다. 설명의 간단함을 위해, 예를 들어, 플로챠트 또는 흐름도의 형태로, 본 명세서에 도시된 하나의 또는 그 이상의 방법들이 일련의 동작들로서 도시 및 기술되지만, 방법들은 동작들의 순서에 의해 제한되지 않아서, 그에 따라, 일부 동작들이 상이한 순서로 발생할 수 있고/있으며, 본 명세서에 도시 및 기술된 다른 동작들과 동시에 발생할 수 있음을 알 것이고 이해될 것이다. 예를 들어, 당업자는 한 방법이 상태도 등의 일련의 상호 관련 상태들 또는 이벤트들로서 대안으로 표현될 수 있음을 알고 이해할 것이다. 더욱이, 방법에 도시된 모든 동작들이 신규 구현에 필요하지 않을 수도 있다.
도 7은 논리 흐름(700)의 일 실시예를 도시한다. 논리 흐름(700)은 본 명세서에 기술된 하나의 또는 그 이상의 실시예들에 의해 실행된 동작들의 일부 또는 전부를 나타낼 수 있다. 예를 들어, 논리 흐름(700)은 시선 콘텐츠 전송 시스템(100)에 의해 실행되는 동작들을 도시할 수 있다.
도 7에 도시된 실시예에서, 논리 흐름(700)은 블록(702)에서 하나의 또는 그 이상의 눈 시선 추적기들로부터 사람의 눈의 눈 이동 정보를 수신할 수 있다. 예를 들어, 시선 해석기 컴포넌트(222-1)는, 각각, 전자 장치들(120-1, 120-2)의 하나의 또는 그 이상의 눈 시선 추적기들(160)로부터 사람의 눈의 눈 이동 정보(210-e)를 수신할 수 있다.
논리 흐름(700)은 블록(704)에서 소스 장치로부터 목표 장치로 파일을 전송하라는 데이터 유닛 전송 요청으로서 눈 이동 정보를 해석할 수 있다. 예를 들어, 시선 해석기 컴포넌트(222-1)는 전자 장치(120-1)로부터 전자 장치(120-2)로 데이터 유닛(142-b)을 전송하라는 데이터 유닛 전송 요청으로서 눈 이동 정보(210-e)를 해석할 수 있다.
논리 흐름(700)은 블록(706)에서 데이터 유닛 전송 요청에 응답해서 소스 장치와 목표 장치 간의 데이터 연결을 설정할 수 있다. 예를 들어, 데이터 연결 컴포넌트(222-2)는 전자 장치들(120-1, 120-2) 간의 데이터 연결(192)을 설정하기 위해 전자 장치(120-2)에 연결 요청(270)을 송신할 수 있다.
논리 흐름(700)은 블록(708)에서 데이터 연결을 통해 소스 장치로부터 목표 장치로 파일을 전송할 수 있다. 예를 들어, 데이터 전송 컴포넌트(222-3)는 적합한 데이터 유닛 전송 프로토콜을 사용해서 데이터 연결(192)을 통해 전자 장치(120-1)로부터 전자 장치(120-2)로 데이터 유닛(142-b)을 전송할 수 있다.
논리 흐름(700)은 블록(710)에서 파일이 전송된 후에 소스 장치와 목표 장치 간의 데이터 연결을 종료할 수 있다. 예를 들어, 데이터 유닛 전송이 완료되면, 데이터 연결 컴포넌트(222-2)는 전자 장치들(120-1, 120-2) 간의 데이터 연결(192)을 종료할 수 있다.
도 8은 논리 흐름(800)의 일 실시예를 도시한다. 논리 흐름(800)은 본 명세서에 기술된 하나의 또는 그 이상의 실시예들에 의해 실행된 동작들의 일부 또는 전부를 나타낼 수 있다. 예를 들어, 논리 흐름(800)은 시선 콘텐츠 전송 시스템(100)에 의해 실행되는 동작들을 도시할 수 있다. 특히, 논리 흐름(800)은 도 7을 참조해서 기술된 바와 같이 논리 흐름(700)의 블록(704)에서 눈 이동 정보(210-e)를 해석하기 위한 더 상세한 동작들을 제공할 수 있다.
도 8에 도시된 실시예에서, 논리 흐름(800)은 블록(802)에서 눈 이동 정보에 기초하여 눈 시선 세그먼트의 근원 지점 및 종료 지점을 식별할 수 있다. 예를 들어, 시선 해석기 컴포넌트(222-1)는 눈 이동 정보(210-e)에 기초하여 눈 시선 세그먼트(306)의 근원 지점(308) 및 종료 지점(310)을 식별할 수 있다.
논리 흐름(800)은 블록(804)에서 소스 장치에 의해 저장된 파일에 근원 지점을 매핑할 수 있다. 예를 들어, 시선 해석기 컴포넌트(222-1)는 아이콘(304-1)을 통해 전자 장치(120-1)의 메모리(150)에 저장된 데이터 유닛(142-1)에 근원 지점(308)을 매핑할 수 있다.
논리 흐름(800)은 블록(806)에서 종료 지점을 목표 장치에 매핑할 수 있다. 예를 들어, 시선 해석기 컴포넌트(222-1)는 종료 지점(310)을 전자 장치(120-2)에 직접 또는 간접적으로 매핑할 수 있다. 종료 지점(310)이 전자 장치(120-2)와 일치할 때, 시선 해석기 컴포넌트(222-1)는 종료 지점(310)을 전자 장치(120-2)에 직접 매핑할 수 있다. 종료 지점(310)이 전자 장치(120-2)와 일치하지 않지만, 전자 장치(120-2)가 목표 장치라고 추론하기에 충분한 긍정적인 요인들이 있을 때, 시선 해석기 컴포넌트(222-1)는 종료 지점(310)을 전자 장치(120-2)에 간접적으로 매핑할 수 있다.
논리 흐름(800)은 블록(808)에서 소스 장치로부터 목표 장치로 파일을 전송하라는 데이터 유닛 전송 요청으로서 눈 시선 세그먼트를 해석할 수 있다. 예를 들어, 근원 지점(308)이 전자 장치(120-1)에 충분히 매핑하고 종료 지점(310)이 전자 장치(120-2)에 매핑할 때, 시선 해석기 컴포넌트(222-1)는 전자 장치(120-1)로부터 전자 장치(120-2)로 데이터 유닛(142-1)을 전송하라는 데이터 유닛 전송 요청으로서 눈 시선 세그먼트(306)를 해석할 수 있다.
도 9는 논리 흐름(900)의 일 실시예를 도시한다. 논리 흐름(900)은 본 명세서에 기술된 하나의 또는 그 이상의 실시예들에 의해 실행된 동작들의 일부 또는 전부를 나타낼 수 있다. 예를 들어, 논리 흐름(900)은 눈 시선 추적기(160)에 의해 실행되는 동작들을 도시할 수 있다.
도 9에 도시된 실시예에서, 논리 흐름(900)은 블록(902)에서 사람 사용자의 눈들을 향한 광 빔들을 생성할 수 있다. 예를 들어, 하나의 또는 그 이상의 광원들(602-j)은 사람의 사용자(612)의 한 눈 또는 양 눈들로 사용자 머리(614) 쪽을 향한 광 빔(608-j)을 각각 생성할 수 있다.
논리 흐름(900)은 블록(904)에서 눈들의 이미지들을 기록할 수 있으며, 이미지들은 광원의 가상 이미지 및 각각의 눈의 각막으로부터의 광 빔들의 반사에 의해 야기된 조사된 동공을 포함한다. 예를 들어, 하나의 또는 그 이상의 비디오 카메라들(604-k)은 눈들의 디지털 이미지들을 기록할 수 있으며, 디지털 이미지들은 광원들(602-j) 각각에 대응하는 하나의 또는 그 이상의 가상 이미지들 및 각각의 눈의 각막으로부터의 광 빔들(608-j)의 반사에 의해 야기된 조사된 동공을 포함한다.
논리 흐름(900)은 블록(906)에서 가상 이미지들 및 조사된 동공들에 기초하여 눈들의 이동의 방향 및 거리를 분석할 수 있다. 예를 들어, 시선 분석기 컴포넌트(606)는 가상 이미지들 및 조사된 동공들에 기초하여 눈들의 이동의 방향 및 거리를 분석할 수 있다.
논리 흐름(900)은 블록(908)에서 눈들의 이동의 방향 및 거리를 눈 이동 정보로서 시선 인터페이스 애플리케이션에 송신할 수 있다. 예를 들어, 시선 분석기 컴포넌트(606)는, 전자 장치들(120-1, 120-2) 간에 데이터 유닛(142-b)을 전송하기 위해 데이터 유닛 전송 동작들을 개시하는데 사용되도록, 눈들의 이동의 방향 및 거리를 눈 이동 정보(210-e)로서 시선 인터페이스 애플리케이션(140)에 송신할 수 있다.
도 10은 상술된 각종 실시예들을 구현하기에 적합한 일례의 컴퓨팅 아키텍처(1000)의 일 실시예를 도시한다. 일 실시예에서, 컴퓨팅 아키텍처(1000)는 전자 장치(120-a)의 일부로서 포함 또는 구현될 수 있다.
본 출원에서 사용된 바와 같이, 용어들 "system(시스템)" 및 "component(컴포넌트)"는 컴퓨터 관련 엔티티, 하드웨어, 하드웨어 및 소프트웨어의 조합, 소프트웨어 또는 실행중의 소프트웨어를 나타내도록 의도된 것이며, 그 일례들은 컴퓨팅 아키텍처(1000)에 의해 제공된다. 예를 들어, 컴포넌트는 프로세서에서 실행중인 프로세스, 프로세서, 하드 디스크 드라이브, 다수의 기억 드라이브들(광 및/또는 자기 기억 매체), 객체, 실행 가능 파일, 실행 스레드, 프로그램 및/또는 컴퓨터일 수 있지만, 이들로만 제한되지 않는다. 실례로서, 서버에서 실행중인 애플리케이션 및 서버는 둘 다 컴포넌트일 수 있다. 하나의 또는 그 이상의 컴포넌트들은 실행 프로세스 및/또는 스레드 내에 상주할 수 있으며, 하나의 컴포넌트가 하나의 컴퓨터에 국부적이고/이거나 2개의 또는 그 이상의 컴퓨터들 간에 분산될 수 있다. 또한, 컴포넌트들은 동작들을 조정하기 위해 각종 타입들의 통신 매체에 의해 서로 통신상 연결될 수 있다. 조정은 정보의 단방향 또는 양방향 교환을 수반할 수 있다. 예를 들어, 컴포넌트들은 통신 매체를 통해 통신된 신호들의 형태로 정보를 통신할 수 있다. 정보는 각종 신호 라인들에 할당된 신호들로서 구현될 수 있다. 이러한 할당들에서, 각각의 메시지는 신호이다. 그러나, 다른 실시예들은 대안으로 데이터 메시지들을 사용할 수 있다. 데이터 메시지들은 각종 연결들을 통해 송신될 수 있다. 일례의 연결들은 병렬 인터페이스들, 직렬 인터페이스들 및 버스 인터페이스들을 포함한다.
컴퓨팅 아키텍처(1000)는 하나의 또는 그 이상의 프로세서들, 멀티-코어 프로세서들, 코-프로세서들, 메모리 유닛들, 칩셋들, 제어기들, 주변 장치들, 인터페이스들, 발진기들, 타이밍 장치들, 비디오 카드들, 오디오 카드들, 멀티미디어 입력/출력(I/O) 컴포넌트들, 전원들 등의 각종 일반 컴퓨팅 요소들을 포함한다. 그러나, 실시예들은 컴퓨팅 아키텍처(1000)에 의한 구현으로 제한되지 않는다.
도 10에 도시된 바와 같이, 컴퓨팅 아키텍처(1000)는 프로세싱 유닛(1004), 시스템 메모리(1006) 및 시스템 버스(1008)를 포함한다. 프로세싱 유닛(1004)은 도 1에 도시된 프로세서 회로(130)를 참조해서 기술된 바와 같은 각종 상용화된 프로세서들 중 임의의 프로세서일 수 있다.
시스템 버스(1008)는 프로세싱 유닛(1004)에 대한 시스템 메모리(1006)를 포함하지만, 이들로만 제한되지 않은 시스템 컴포넌트들의 인터페이스를 제공한다. 시스템 버스(1008)는 각종 상용화된 버스 아키텍처들 중 임의의 버스 아키텍처를 사용해서 메모리 버스(메모리 제어기를 가짐 또는 갖지 않음), 주변 버스 및 로컬 버스에 더 상호 연결될 수 있는 수개의 타입들의 버스 구조 중 임의의 버스 구조일 수 있다. 인터페이스 어댑터들은 슬롯 아키텍처를 통해 시스템 버스(1008)에 연결될 수 있다. 일례의 슬롯 아키텍처들은 AGP(Accelerated Graphics Port), 카드 버스, (E)ISA((Extended) Industry Standard Architecture), 마이크로 채널 아키텍처(MCA), NuBus, PCI(X)(Peripheral Component Interconnect (Extended)), PCI 익스프레스, PCMCIA(Personal Computer Memory Card International Association) 등을 제한 없이 포함할 수 있다.
컴퓨팅 아키텍처(1000)는 각종 제조품들을 포함 또는 구현할 수 있다. 제조품은 논리를 저장하기 위한 컴퓨터 판독 가능 기억 매체를 포함할 수 있다. 컴퓨터 판독 가능 기억 매체의 일례들은 휘발성 메모리 또는 비휘발성 메모리, 이동형 또는 고정형 메모리, 소거 가능 또는 소거 불능 메모리, 기록 가능 또는 재기록 가능 메모리 등을 포함하는, 전자 데이터를 저장할 수 있는 임의의 유형 매체를 포함할 수 있다. 논리의 일례들은 소스 코드, 컴파일링된 코드, 해석된 코드, 실행 가능 코드, 정적 코드, 동적 코드, 객체 지향 코드, 비주얼 코드 등의 임의의 적합한 타입의 코드를 사용해서 구현된 실행 가능 컴퓨터 프로그램 명령어들을 포함할 수 있다. 실시예들은 또한 본 명세서에 기술된 동작들의 실행을 가능케 하기 위해 하나의 또는 그 이상의 프로세서들에 의해 판독 및 실행될 수 있는 비일시 컴퓨터 판독 가능 매체에 포함된 명령어들로서 적어도 부분적으로 구현될 수 있다.
시스템 메모리(1006)는 판독 전용 메모리(ROM), 랜덤 액세스 메모리(RAM), 동적 RAM(DRAM), 더블-데이터-레이트 DRAM(DDRAM), 동기 DRAM(SDRAM), 정적 RAM(SRAM), 프로그래밍 가능 ROM(PROM), 소거 가능 프로그래밍 가능 ROM(EPROM), 전기적 소거 가능 프로그래밍 가능 ROM(EEPROM), 플래시 메모리, 강유전성 폴리머 메모리 등의 폴리머 메모리, 오보닉 메모리, 위상 변경 또는 강유전성 메모리, SONOS(silicon-oxide-nitride-oxide-silicon) 메모리, 자기 또는 광 카드들, RAID(Redundant Array of Independent Disks) 드라이브들 등의 장치들의 어레이, 고체 상태 메모리 장치들(예를 들어, USB 메모리), 고체 상태 드라이브들(SSD) 및 정보를 저장하기에 적합한 임의의 다른 타입의 기억 매체 등의 하나의 또는 그 이상의 더 고속의 메모리 유닛들의 형태의 각종 타입들의 컴퓨터 판독 가능 기억 매체들을 포함할 수 있다. 도 10에 도시된 실시예에서, 시스템 메모리(1006)는 비휘발성 메모리(1010) 및/또는 휘발성 메모리(1012)를 포함할 수 있다. 기본 입력/출력 시스템(BIOS)이 비휘발성 메모리(1010)에 저장될 수 있다.
컴퓨터(1002)는, 내부(또는 외부) 하드 디스크 드라이브(HDD)(1014), 이동형 자기 디스크(1018)의 판독 또는 기록을 위한 자기 플로피 디스크 드라이브(FDD)(1016) 및 이동형 광 디스크(1022)(예를 들어, CD-ROM 또는 DVD)의 판독 또는 기록을 위한 광 디스크 드라이브(1020)를 포함하는, 하나의 또는 그 이상의 더 저속의 메모리 유닛들의 형태의 각종 타입들의 컴퓨터 판독 가능 기억 매체들을 포함할 수 있다. HDD(1014), FDD(1016) 및 광 디스크 드라이브(1020)는, 각각, HDD 인터페이스(1024), FDD 인터페이스(1026) 및 광 드라이브 인터페이스(1028)에 의해 시스템 버스(1008)에 연결될 수 있다. 외부 드라이브 구현들을 위한 HDD 인터페이스(1024)는 범용 직렬 버스(USB) 및 IEEE 1394 인터페이스 기술들 중 적어도 하나 또는 둘 다를 포함할 수 있다.
드라이브들 및 연관된 컴퓨터 판독 가능 매체는 데이터, 데이터 구조들, 컴퓨터 실행 가능 명령어들 등의 휘발성 및/또는 비휘발성 기억 장치를 제공한다. 예를 들어, 운영 체제(1030), 하나의 또는 그 이상의 응용 프로그램들(1032), 다른 프로그램 모듈들(1034) 및 프로그램 데이터(1036)를 포함하는 다수의 프로그램 모듈들이 드라이브들 및 메모리 유닛들(1010, 1012)에 저장될 수 있다. 일 실시예에서, 하나의 또는 그 이상의 응용 프로그램들(1032), 다른 프로그램 모듈들(1034) 및 프로그램 데이터(1036)는, 예를 들어, 시스템(100)의 각종 애플리케이션들 및/또는 컴포넌트들을 포함할 수 있다.
사용자는 하나의 또는 그 이상의 유선/무선 입력 장치들, 예를 들어, 키보드(1038) 및 마우스(1040) 등의 포인팅 장치를 통해 컴퓨터(1002)에 커맨드들 및 정보를 입력할 수 있다. 다른 입력 장치들은 마이크로폰, 적외선(IR) 리모콘, 무선-주파수(RF) 리모콘, 게임 패드, 스타일러스 펜, 카드 판독기, 동글, 지문 판독기, 글러브, 그래픽 태블릿, 조이스틱, 키보드, 망막 판독기, 터치 스크린(예를 들어, 용량성, 저항성 등), 트랙볼, 트랙패드, 센서들, 스타일러스 등을 포함할 수 있다. 여타 입력 장치들은 시스템 버스(1008)에 연결된 입력 장치 인터페이스(1042)를 통해 프로세싱 유닛(1004)에 종종 연결되지만, 병렬 포트, IEEE 1394 직렬 포트, 게임 포트, USB 포트, IR 인터페이스 등의 다른 인터페이스들에 의해 연결될 수 있다.
모니터(1044) 또는 다른 타입의 디스플레이 장치가 비디오 어댑터(1046) 등의 인터페이스를 통해 시스템 버스(1008)에 또한 연결된다. 모니터(1044)는 컴퓨터(1002)의 내부에 또는 외부에 있을 수 있다. 모니터(1044) 외에, 컴퓨터는 스피커들, 프린터들 등의 다른 주변 출력 장치들을 통상 포함한다.
컴퓨터(1002)는 원격 컴퓨터(1048) 등의 하나의 또는 그 이상의 원격 컴퓨터들에 유선 및/또는 무선 통신들을 통해 논리적 연결들을 사용해서 네트워크 환경에서 동작할 수 있다. 원격 컴퓨터(1048)는 워크스테이션, 서버 컴퓨터, 라우터, 퍼스널 컴퓨터, 휴대형 컴퓨터, 마이크로프로세서-기반 엔터테인먼트 기기, 피어 장치 또는 다른 공통 네트워크 노드일 수 있으며, 간결성을 위해 오직 하나의 메모리/기억 장치(1050)만이 도시되더라도, 컴퓨터(1002)에 대하여 기술된 요소들 중 대다수 또는 전부를 통상 포함한다. 도시된 논리적 연결들은 근거리 통신망(LAN)(1052) 및/또는 더 큰 네트워크들, 예를 들어, 광역 통신망(WAN)(1054)에 대한 유선/무선 연결을 포함한다. 이러한 LAN 및 WAN 네트워크 환경들은 사무실들 및 회사들에서 아주 흔한 것이며, 인트라넷 등의 기업간 컴퓨터 네트워크들을 용이하게 하고, 범세계 통신 네트워크, 예를 들어, 인터넷에 모두 연결될 수 있다.
LAN 네트워크 환경에서 사용될 때, 컴퓨터(1002)는 유선 및/또는 무선 통신 네트워크 인터페이스 또는 어댑터(1056)를 통해 LAN(1052)에 연결된다. 어댑터(1056)는 LAN(1052)과의 유선 및/또는 무선 통신들을 용이하게 할 수 있으며, 이는 어댑터(1056)의 무선 기능과 통신하기 위해 배치된 무선 액세스 포인트를 또한 포함할 수 있다.
WAN 네트워크 환경에서 사용될 때, 컴퓨터(1002)는 모뎀(1058)을 포함할 수 있으며, 또는 WAN(1054)의 통신 서버에 연결되거나, 또는 WAN(1054)을 통한, 예를 들어, 인터넷에 의한 통신들을 설정하기 위한 다른 수단을 가진다. 내부에 또는 외부에 있을 수 있으며, 유선 및/또는 무선 장치일 수 있는 모뎀(1058)은 입력 장치 인터페이스(1042)를 통해 시스템 버스(1008)에 연결된다. 네트워크 환경에서, 컴퓨터(1002)와 관련하여 도시된 프로그램 모듈들 또는 그 일부분들은 원격 메모리/기억 장치(1050)에 저장될 수 있다. 도시된 네트워크 연결들은 일례이며 컴퓨터들 간의 통신 링크를 설정하는 다른 수단이 사용될 수 있음을 알 것이다.
컴퓨터(1002)는 무선 통신(예를 들어, IEEE 802.11 공중(over-the-air) 변조 기술들)으로 동작상 배치된 무선 장치들 등의 IEEE 802 계통의 표준들을 사용해서 유선 및 무선 장치들 또는 엔티티들과 통신하도록 동작한다. 이는, 무엇보다, 적어도 와이파이(또는 무선 충실도(Wireless Fidelity)), 와이맥스(WiMax), 및 블루투스TM 무선 기술들을 포함한다. 따라서, 통신은 적어도 2개의 장치들 간의 종래의 네트워크 또는 간단히 애드혹 통신에서와 같이 선정된 구조일 수 있다. 와이파이 네트워크들은 안전하고 신뢰할만하며 고속인 무선 연결을 제공하기 위해 IEEE 802.11x(a, b, g, n 등)라고 하는 무선 기술들을 사용한다. 와이파이 네트워크는 컴퓨터들을 서로 연결하고, 인터넷 및 와이어 네트워크들(IEEE 802.3-관련 미디어 및 함수들을 사용함)에 연결하는데 사용될 수 있다.
도 1-10을 참조해서 상술된 시선 콘텐츠 전송 시스템(100)의 각종 요소들은 각종 하드웨어 요소들, 소프트웨어 요소들 또는 둘의 조합을 포함할 수 있다. 하드웨어 요소들의 일례들은 장치들, 논리 장치들, 컴포넌트들, 프로세서들, 마이크로프로세서들, 회로들, 프로세서 회로들, 회로 요소들(예를 들어, 트랜지스터들, 저항기들, 커패시터들, 인덕터들 등), 집적 회로들, 주문형 반도체(ASIC), 프로그래밍 가능 논리 장치들(PLD), 디지털 신호 프로세서들(DSP), 필드 프로그래밍 가능 게이트 어레이(FPGA), 메모리 유닛들, 논리 게이트들, 레지스터들, 반도체 장치, 칩들, 마이크로칩들, 칩셋들 등을 포함할 수 있다. 소프트웨어의 일례들은 소프트웨어 컴포넌트들, 프로그램들, 애플리케이션들, 컴퓨터 프로그램들, 응용 프로그램들, 시스템 프로그램들, 소프트웨어 개발 프로그램들, 기계 프로그램들, 운영 체제 소프트웨어, 미들웨어, 펌웨어, 소프트웨어 모듈들, 루틴들, 서브루틴들, 함수들, 방법들, 절차들, 소프트웨어 인터페이스들, 응용 프로그램 인터페이스들(API), 명령어 집합들, 컴퓨팅 코드, 컴퓨터 코드, 코드 세그먼트들, 컴퓨터 코드 세그먼트들, 단어들, 값들, 심볼들 또는 그 임의의 조합을 포함할 수 있다. 그러나, 실시예가 하드웨어 요소들 및/또는 소프트웨어 요소들을 사용해서 구현될 지의 여부의 결정은, 소정의 구현에 대해 바라는 대로, 희망 계산율, 파워 레벨, 내열성, 프로세싱 사이클 예산, 입력 데이터 전송 속도, 출력 데이터 전송 속도, 메모리 리소스, 데이터 버스 속도 및 다른 설계 또는 성능 제약 사항 등의 임의의 수의 요인들에 따라 변할 수 있다.
일부 실시예들은 그 파생어들과 함께 표현 "one embodiment(일 실시예)" 또는 "an embodiment(일 실시예)"를 사용해서 기술될 수 있다. 이러한 용어들은 실시예와 관련하여 기술된 특정 특징, 구조 또는 특성이 적어도 하나의 실시예에 포함됨을 의미한다. 본 명세서의 각종 장소들에서의 구절 "in one embodiment(일 실시예에서)"의 출현들은 반드시 동일한 실시예를 나타내는 것은 아니다. 또한, 일부 실시예들은 그 파생어들과 함께 표현 "coupled(연결된)" 및 "connected(접속된)"을 사용해서 기술될 수 있다. 이러한 용어들은 반드시 서로 동의어들로서 의도된 것이 아니다. 예를 들어, 일부 실시예들은 2개의 또는 그 이상의 요소들이 서로 직접적으로 물리적 또는 전기적 접촉중임을 나타내기 위해 용어들 "connected(접속된)" 및/또는 "coupled(연결된)"을 사용해서 기술될 수 있다. 그러나, 용어 "coupled(연결된)"은, 2개의 또는 그 이상의 요소들이 서로 직접적으로 접촉하고 있지 않지만, 여전히 서로 협력 또는 상호 작용함을 또한 의미할 수 있다.
본 발명의 요약은 본 기술적인 설명의 속성을 독자가 빨리 알아볼 수 있게 하기 위해 제공됨이 강조된다. 청구항들의 범위 또는 의미를 해석 또는 제한하는데 사용되지 않을 것임을 이해함과 함께 제안된다. 또한, 상술된 상세한 설명에서, 각종 특징들은 본 발명을 간소화하기 위해 단일 실시예에서 함께 그룹지어짐을 알 수 있다. 본 설명의 본 방법은, 청구된 실시예들이 각각의 청구항에서 명백히 인용되는 것보다 더 많은 특징들을 요구한다는 의도를 반영하는 것으로 해석되지 않을 것이다. 오히려, 이하의 청구항들이 반영하는 바와 같이, 본 발명의 주제는 기술된 단일 실시예의 모든 특징들 보다 더 적은데 있다. 따라서, 이하의 청구항들은 본 명세서에서 상세한 설명에 포함되고, 각각의 청구항은 개별 실시예로서 독립적이다. 첨부된 청구항들에서, 용어들 "including(포함)" 및 "in which(여기서)"는 각각의 용어들 ""comprising(포함)" 및 "wherein(여기서)"의 평이한 영어의 동등물들로서 각각 사용된다. 더욱이, 용어들 "first(제1)", "second(제2)", "third(제3)" 등은 단지 라벨들로서 사용되며, 객체들에게 수치적인 요구사항들을 부과하도록 의도된 것이 아니다.
상술된 설명은 기술된 아키텍처의 일례들을 포함한다. 물론, 컴포넌트들 및/또는 방법들의 모든 가능한 조합을 기술할 수는 없지만, 당업자는 다수의 다른 조합들 및 치환들이 가능함을 알 수 있다. 따라서, 신규 아키텍처는 첨부된 청구항의 원리 및 범위 내에 속한 모든 변형들, 변경들 및 변화들을 아우르도록 의도된다.

Claims (25)

  1. 명령어들을 포함하는 적어도 하나의 컴퓨터 판독 가능 기억 매체로서,
    상기 명령어들은, 실행될 때, 시스템이,
    사람의 눈의 눈 이동 정보를 수신하고;
    상기 눈 이동 정보에 기초하여 눈 시선 세그먼트의 근원 지점 및 종료 지점을 식별하며;
    소스 장치에 의해 저장된 데이터 유닛에 상기 근원 지점을 매핑하고;
    상기 종료 지점을 목표 장치에 매핑하며;
    상기 소스 장치로부터 상기 목표 장치로 상기 데이터 유닛을 전송하라는 데이터 유닛 전송 요청으로서 상기 눈 시선 세그먼트를 해석하도록 하는 컴퓨터 판독 가능 기억 매체.
  2. 제1항에 있어서,
    실행될 때, 상기 시스템이, 상기 소스 장치에 의해 저장된 파일을 나타내는 하나의 또는 그 이상의 그래픽 사용자 인터페이스(GUI) 요소들을 포함하는 GUI 뷰를 생성하도록 하는 명령어들을 포함하는 컴퓨터 판독 가능 기억 매체.
  3. 제1항에 있어서,
    실행될 때, 상기 시스템이, 상기 소스 장치용의 디스플레이에 제시된 GUI 뷰의 GUI 요소로 상기 근원 지점을 매핑하도록 하는 명령어들을 포함하고, 상기 GUI 요소는 상기 소스 장치에 의해 저장된 데이터 유닛을 나타내는 컴퓨터 판독 가능 기억 매체.
  4. 제1항에 있어서,
    실행될 때, 상기 시스템이, 상기 소스 장치의 눈 시선 추적기로부터 상기 눈 이동 정보의 제1 부분을 수신하도록 하는 명령어들을 포함하는 컴퓨터 판독 가능 기억 매체.
  5. 제1항에 있어서,
    실행될 때, 상기 시스템이, 상기 목표 장치의 눈 시선 추적기로부터 상기 눈 이동 정보의 제2 부분을 수신하도록 하는 명령어들을 포함하는 컴퓨터 판독 가능 기억 매체.
  6. 제1항에 있어서,
    실행될 때, 상기 시스템이, 상기 데이터 유닛 전송 요청에 응답해서 상기 소스 장치와 상기 목표 장치 간의 데이터 연결을 설정하도록 하는 명령어들을 포함하는 컴퓨터 판독 가능 기억 매체.
  7. 제1항에 있어서,
    실행될 때, 상기 시스템이, 데이터 연결을 통해 상기 소스 장치로부터 상기 목표 장치로 상기 데이터 유닛을 송신하도록 하는 명령어들을 포함하는 컴퓨터 판독 가능 기억 매체.
  8. 하나의 또는 그 이상의 눈 시선 추적기들로부터 사람의 눈의 눈 이동 정보를 수신하는 단계;
    소스 장치로부터 목표 장치로 데이터 유닛을 전송하라는 데이터 유닛 전송 요청으로서 상기 눈 이동 정보를 해석하는 단계;
    상기 데이터 유닛 전송 요청에 응답해서 상기 소스 장치와 상기 목표 장치 간의 데이터 연결을 설정하는 단계; 및
    상기 데이터 연결을 통해 상기 소스 장치로부터 상기 목표 장치로 상기 데이터 유닛을 송신하는 단계
    를 포함하는 방법.
  9. 제8항에 있어서,
    상기 눈 이동 정보에 기초하여 눈 시선 세그먼트에 대한 근원 지점을 식별하는 단계를 포함하는 방법.
  10. 제8항에 있어서,
    상기 소스 장치의 눈 시선 추적기로부터 상기 눈 이동 정보의 제1 부분을 수신하는 단계; 및
    상기 눈 이동 정보의 상기 제1 부분에 기초하여 눈 시선 세그먼트에 대한 근원 지점을 식별하는 단계를 포함하는 방법.
  11. 제8항에 있어서,
    상기 소스 장치용의 디스플레이에 제시된 GUI 뷰의 GUI 요소로 근원 지점을 매핑하는 단계를 포함하고, 상기 GUI 요소는 메모리 유닛에 저장된 데이터 유닛을 나타내는 방법.
  12. 제8항에 있어서,
    상기 눈 이동 정보에 기초하여 눈 시선 세그먼트에 대한 종료 지점을 식별하는 단계를 포함하는 방법.
  13. 제8항에 있어서,
    상기 목표 장치의 눈 시선 추적기로부터 상기 눈 이동 정보의 제2 부분을 수신하는 단계; 및
    상기 눈 이동 정보의 상기 제2 부분에 기초하여 눈 시선 세그먼트에 대한 종료 지점을 식별하는 단계를 포함하는 방법.
  14. 제8항에 있어서,
    상기 종료 지점을 상기 목표 장치에 매핑하는 단계를 포함하는 방법.
  15. 트랜시버;
    상기 트랜시버에 연결된 프로세서 회로; 및
    상기 프로세서 회로에 연결된 메모리 유닛
    을 포함하고,
    상기 메모리 유닛은 시선 인터페이스 애플리케이션 및 하나의 또는 그 이상의 데이터 유닛들을 저장하고,
    상기 시선 인터페이스 애플리케이션은 사람 사용자의 눈 이동들에 기초하여 데이터 유닛 전송 동작들을 관리하도록 상기 프로세서 회로에서 동작하며,
    상기 시선 인터페이스 애플리케이션은,
    하나의 또는 그 이상의 눈 시선 추적기들로부터 사람의 눈의 눈 이동 정보를 수신하고, 소스 장치로부터 목표 장치로 데이터 유닛을 전송하라는 데이터 유닛 전송 요청으로서 상기 눈 이동 정보를 해석하도록 동작하는 시선 해석기 컴포넌트;
    상기 데이터 유닛 전송 요청에 응답해서 상기 트랜시버를 사용해서 상기 소스 장치와 상기 목표 장치 간의 데이터 연결을 설정하도록 동작하는 데이터 연결 컴포넌트; 및
    상기 데이터 연결을 통해 상기 소스 장치로부터 상기 목표 장치로 상기 데이터 유닛을 송신하도록 동작하는 데이터 전송 컴포넌트를 포함하는 장치.
  16. 제15항에 있어서,
    상기 메모리 유닛에 저장된 하나의 또는 그 이상의 파일들을 나타내는 하나의 또는 그 이상의 그래픽 사용자 인터페이스(GUI) 요소들을 포함하는 GUI 뷰를 생성하도록 동작하는 사용자 인터페이스 컴포넌트를 포함하는 장치.
  17. 제15항에 있어서,
    상기 프로세서 회로에 연결된 디스플레이를 포함하고, 상기 디스플레이는 상기 메모리 유닛에 저장된 하나의 또는 그 이상의 데이터 유닛들을 나타내는 GUI 뷰 및 하나의 또는 그 이상의 GUI 요소들을 제시하는 장치.
  18. 제15항에 있어서,
    상기 시선 해석기 컴포넌트는 상기 눈 이동 정보에 기초하여 눈 시선 세그먼트에 대한 근원 지점을 식별하도록 동작하는 장치.
  19. 제15항에 있어서,
    상기 시선 해석기 컴포넌트는 상기 소스 장치용의 디스플레이에 제시된 GUI 뷰의 GUI 요소로 근원 지점을 매핑하도록 동작하고, 상기 GUI 요소는 상기 메모리 유닛에 저장된 데이터 유닛을 나타내는 장치.
  20. 제15항에 있어서,
    상기 시선 해석기 컴포넌트는 상기 눈 이동 정보에 기초하여 눈 시선 세그먼트에 대한 종료 지점을 식별하도록 동작하는 장치.
  21. 제15항에 있어서,
    상기 시선 해석기 컴포넌트는 종료 지점을 상기 목표 장치에 매핑하도록 동작하는 장치.
  22. 제15항에 있어서,
    상기 시선 해석기 컴포넌트는 상기 소스 장치의 눈 시선 추적기로부터 상기 눈 이동 정보를 수신하도록 동작하는 장치.
  23. 제15항에 있어서,
    상기 시선 해석기 컴포넌트는 상기 목표 장치의 눈 시선 추적기로부터 상기 눈 이동 정보를 수신하도록 동작하는 장치.
  24. 제15항에 있어서,
    상기 시선 해석기 컴포넌트는 상기 소스 장치의 눈 시선 추적기로부터 상기 눈 이동 정보의 제1 부분을 수신하고, 상기 목표 장치의 눈 시선 추적기로부터 상기 눈 이동 정보의 제2 부분을 수신하도록 동작하는 장치.
  25. 제15항에 있어서,
    상기 사람 사용자의 눈 이동들을 검출하도록 동작하는 눈 시선 추적기를 포함하고,
    상기 눈 시선 추적기는,
    상기 사람 사용자의 눈들을 향한 광 빔들을 생성하도록 동작하는 광원;
    상기 눈들의 이미지들을 기록하기 위한 비디오 카메라 - 상기 이미지들은 상기 광원의 가상 이미지 및 각각의 눈의 각막으로부터 상기 광 빔들의 반사에 의해 야기된 조사된 동공을 포함함 - ; 및
    상기 비디오 카메라에 연결된 눈 분석기 컴포넌트 - 상기 눈 분석기 컴포넌트는 상기 가상 이미지들 및 상기 조사된 동공들에 기초하여 상기 눈들의 이동의 방향 및 거리를 분석하도록 동작함 -
    를 포함하는 장치.
KR1020147016993A 2011-12-14 2011-12-14 시선 활성화 콘텐츠 전송 시스템 KR101692323B1 (ko)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2011/064806 WO2013089693A1 (en) 2011-12-14 2011-12-14 Gaze activated content transfer system

Publications (2)

Publication Number Publication Date
KR20140093728A true KR20140093728A (ko) 2014-07-28
KR101692323B1 KR101692323B1 (ko) 2017-01-04

Family

ID=48612987

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020147016993A KR101692323B1 (ko) 2011-12-14 2011-12-14 시선 활성화 콘텐츠 전송 시스템

Country Status (5)

Country Link
US (1) US9766700B2 (ko)
EP (1) EP2791790B1 (ko)
KR (1) KR101692323B1 (ko)
CN (1) CN103988149A (ko)
WO (1) WO2013089693A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160087602A (ko) * 2015-01-14 2016-07-22 삼성전자주식회사 전자 장치 및 전자 장치에서 시선을 추적하는 방법
KR20220122955A (ko) * 2014-07-29 2022-09-05 삼성전자주식회사 모바일 디바이스에서 촬영된 전자 기기와 페어링하는 방법 및 장치

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9619017B2 (en) 2012-11-07 2017-04-11 Qualcomm Incorporated Techniques for utilizing a computer input device with multiple computers
WO2014115387A1 (ja) * 2013-01-28 2014-07-31 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
KR20140125671A (ko) * 2013-04-19 2014-10-29 삼성전자주식회사 입력 제어 방법 및 이를 지원하는 전자 장치
WO2014186972A1 (en) * 2013-05-24 2014-11-27 Thomson Licensing Method and apparatus for rendering object for multiple 3d displays
US20160147300A1 (en) * 2013-06-28 2016-05-26 Nokia Technologies Oy Supporting Activation of Function of Device
US10345903B2 (en) * 2013-07-30 2019-07-09 Microsoft Technology Licensing, Llc Feedback for optic positioning in display devices
KR102305578B1 (ko) * 2013-08-23 2021-09-27 삼성전자 주식회사 단말의 모드 변경 방법 및 장치
WO2015026203A1 (en) 2013-08-23 2015-02-26 Samsung Electronics Co., Ltd. Mode switching method and apparatus of terminal
US20150153827A1 (en) * 2013-12-04 2015-06-04 Qualcomm Incorporated Controlling connection of input device to electronic devices
US10484801B2 (en) 2014-09-19 2019-11-19 Cochlear Limited Configuration of hearing prosthesis sound processor based on visual interaction with external device
CN111314834B (zh) 2014-09-19 2022-03-04 科利耳有限公司 听力假体及其配置方法
US10585485B1 (en) 2014-11-10 2020-03-10 Amazon Technologies, Inc. Controlling content zoom level based on user head movement
CN104754497B (zh) * 2015-04-02 2018-10-16 清华大学 一种视觉注意力驱动的通信连接建立方法
CN106155288B (zh) 2015-04-10 2019-02-12 北京智谷睿拓技术服务有限公司 信息获取方法、信息获取装置及用户设备
WO2016175825A1 (en) * 2015-04-30 2016-11-03 Hewlett-Packard Development Company, L.P. Electronic display illumination
WO2016207875A1 (en) * 2015-06-22 2016-12-29 Photomyne Ltd. System and method for detecting objects in an image
US10452134B2 (en) * 2015-06-25 2019-10-22 Intel Corporation Automated peripheral device handoff based on eye tracking
US10178150B2 (en) * 2015-08-07 2019-01-08 International Business Machines Corporation Eye contact-based information transfer
EP3335096B1 (en) * 2015-08-15 2022-10-05 Google LLC System and method for biomechanically-based eye signals for interacting with real and virtual objects
US10419401B2 (en) * 2016-01-08 2019-09-17 Capital One Services, Llc Methods and systems for securing data in the public cloud
US10348725B2 (en) 2017-01-10 2019-07-09 International Business Machines Corporatino Method of instant sharing invoked from wearable devices
US10534429B2 (en) 2017-01-10 2020-01-14 International Business Machines Corporation Method of instant sharing invoked from wearable devices
CN107092872A (zh) * 2017-04-08 2017-08-25 闲客智能(深圳)科技有限公司 一种眼动识别方法及装置
CN107102732A (zh) * 2017-04-08 2017-08-29 闲客智能(深圳)科技有限公司 一种眼动判断方法及装置
US10304209B2 (en) 2017-04-19 2019-05-28 The Nielsen Company (Us), Llc Methods and systems to increase accuracy of eye tracking
CN107508963A (zh) * 2017-07-05 2017-12-22 宇龙计算机通信科技(深圳)有限公司 终端控制方法、装置、终端及计算机可读存储介质
US10732826B2 (en) * 2017-11-22 2020-08-04 Microsoft Technology Licensing, Llc Dynamic device interaction adaptation based on user engagement
US10824306B2 (en) * 2018-10-16 2020-11-03 Lenovo (Singapore) Pte. Ltd. Presenting captured data
US10928899B2 (en) * 2019-01-11 2021-02-23 Dell Products, L.P. Handling multiple eye-gaze tracking (EGT) sources in virtual, augmented, or mixed reality (XR) applications
US11379016B2 (en) 2019-05-23 2022-07-05 Intel Corporation Methods and apparatus to operate closed-lid portable computers
US11093262B2 (en) 2019-07-29 2021-08-17 Motorola Mobility Llc Electronic devices and corresponding methods for switching between normal and privacy modes of operation
US11113375B2 (en) * 2019-09-09 2021-09-07 Motorola Mobility Llc Electronic devices with proximity authentication and gaze actuation of companion electronic devices and corresponding methods
US11733761B2 (en) 2019-11-11 2023-08-22 Intel Corporation Methods and apparatus to manage power and performance of computing devices based on user presence
US11809535B2 (en) 2019-12-23 2023-11-07 Intel Corporation Systems and methods for multi-modal user device authentication
US11360528B2 (en) 2019-12-27 2022-06-14 Intel Corporation Apparatus and methods for thermal management of electronic user devices based on user activity
US20230266817A1 (en) * 2022-02-23 2023-08-24 International Business Machines Corporation Gaze based text manipulation
CN114996764B (zh) * 2022-07-28 2022-11-11 武汉盛博汇信息技术有限公司 一种基于脱敏数据的信息分享方法和装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7561143B1 (en) * 2004-03-19 2009-07-14 The University of the Arts Using gaze actions to interact with a display
US20110179097A1 (en) * 2006-08-10 2011-07-21 Nokia Corporation Creating virtual targets in directory structures
KR20110098966A (ko) * 2009-01-22 2011-09-02 알카텔-루센트 유에스에이 인코포레이티드 전자 데이터 입력 방법, 시스템 및 컴퓨터 판독 가능한 매체

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4595990A (en) * 1980-12-31 1986-06-17 International Business Machines Corporation Eye controlled information transfer
US4836670A (en) * 1987-08-19 1989-06-06 Center For Innovative Technology Eye movement detector
US6373961B1 (en) * 1996-03-26 2002-04-16 Eye Control Technologies, Inc. Eye controllable screen pointer
US6243076B1 (en) * 1998-09-01 2001-06-05 Synthetic Environments, Inc. System and method for controlling host system interface with point-of-interest data
US7050624B2 (en) * 1998-12-04 2006-05-23 Nevengineering, Inc. System and method for feature location and tracking in multiple dimensions including depth
US6545669B1 (en) * 1999-03-26 2003-04-08 Husam Kinawi Object-drag continuity between discontinuous touch-screens
US6603491B2 (en) * 2000-05-26 2003-08-05 Jerome H. Lemelson System and methods for controlling automatic scrolling of information on a display or screen
US20020080179A1 (en) * 2000-12-25 2002-06-27 Toshihiko Okabe Data transfer method and data transfer device
US6659611B2 (en) * 2001-12-28 2003-12-09 International Business Machines Corporation System and method for eye gaze tracking using corneal image mapping
US6637883B1 (en) * 2003-01-23 2003-10-28 Vishwas V. Tengshe Gaze tracking system and method
KR20050104382A (ko) * 2003-02-19 2005-11-02 코닌클리케 필립스 일렉트로닉스 엔.브이. 휴대용 디바이스들 사이의 콘텐트 아이템들의 ad hoc공유를 위한 시스템 및 그를 위한 상호작용 방법들
WO2004084054A2 (en) * 2003-03-21 2004-09-30 Queen's University At Kingston Method and apparatus for communication between humans and devices
US8292433B2 (en) * 2003-03-21 2012-10-23 Queen's University At Kingston Method and apparatus for communication between humans and devices
US8745541B2 (en) * 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7881493B1 (en) * 2003-04-11 2011-02-01 Eyetools, Inc. Methods and apparatuses for use of eye interpretation information
US9274598B2 (en) * 2003-08-25 2016-03-01 International Business Machines Corporation System and method for selecting and activating a target object using a combination of eye gaze and key presses
US7963652B2 (en) * 2003-11-14 2011-06-21 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
US7365738B2 (en) * 2003-12-02 2008-04-29 International Business Machines Corporation Guides and indicators for eye movement monitoring systems
US7613478B2 (en) * 2004-03-15 2009-11-03 General Electric Company Method and system for portability of clinical images using a high-quality display and portable device
US8614676B2 (en) * 2007-04-24 2013-12-24 Kuo-Ching Chiang User motion detection mouse for electronic device
US7667686B2 (en) * 2006-02-01 2010-02-23 Memsic, Inc. Air-writing and motion sensing input for portable devices
US8793620B2 (en) * 2011-04-21 2014-07-29 Sony Computer Entertainment Inc. Gaze-assisted computer interface
US7542210B2 (en) * 2006-06-29 2009-06-02 Chirieleison Sr Anthony Eye tracking head mounted display
GB0618978D0 (en) * 2006-09-27 2006-11-08 Malvern Scient Solutions Ltd Method of employing gaze direction tracking for cursor control in a computer
US20090140986A1 (en) * 2007-11-30 2009-06-04 Nokia Corporation Method, apparatus and computer program product for transferring files between devices via drag and drop
US20090187842A1 (en) * 2008-01-22 2009-07-23 3Dlabs Inc., Ltd. Drag and Drop User Interface for Portable Electronic Devices with Touch Sensitive Screens
US8321802B2 (en) * 2008-11-13 2012-11-27 Qualcomm Incorporated Method and system for context dependent pop-up menus
US8788977B2 (en) * 2008-11-20 2014-07-22 Amazon Technologies, Inc. Movement recognition as input mechanism
TWI384383B (zh) 2009-03-02 2013-02-01 Univ Nat Central 視線察覺裝置及其方法
US20100295774A1 (en) * 2009-05-19 2010-11-25 Mirametrix Research Incorporated Method for Automatic Mapping of Eye Tracker Data to Hypermedia Content
US8312392B2 (en) * 2009-10-02 2012-11-13 Qualcomm Incorporated User interface gestures and methods for providing file sharing functionality
US20110163944A1 (en) * 2010-01-05 2011-07-07 Apple Inc. Intuitive, gesture-based communications with physics metaphors
US8490002B2 (en) * 2010-02-11 2013-07-16 Apple Inc. Projected display shared workspaces
US9235268B2 (en) * 2010-04-09 2016-01-12 Nokia Technologies Oy Method and apparatus for generating a virtual interactive workspace
US20110283212A1 (en) * 2010-05-13 2011-11-17 Nokia Corporation User Interface
EP3527121B1 (en) * 2011-02-09 2023-08-23 Apple Inc. Gesture detection in a 3d mapping environment
US8717318B2 (en) * 2011-03-29 2014-05-06 Intel Corporation Continued virtual links between gestures and user interface elements
US9367224B2 (en) * 2011-04-29 2016-06-14 Avaya Inc. Method and apparatus for allowing drag-and-drop operations across the shared borders of adjacent touch screen-equipped devices
US8632182B2 (en) * 2011-05-05 2014-01-21 Sony Computer Entertainment Inc. Interface using eye tracking contact lenses
US8687023B2 (en) * 2011-08-02 2014-04-01 Microsoft Corporation Cross-slide gesture to select and rearrange

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7561143B1 (en) * 2004-03-19 2009-07-14 The University of the Arts Using gaze actions to interact with a display
US20110179097A1 (en) * 2006-08-10 2011-07-21 Nokia Corporation Creating virtual targets in directory structures
KR20110098966A (ko) * 2009-01-22 2011-09-02 알카텔-루센트 유에스에이 인코포레이티드 전자 데이터 입력 방법, 시스템 및 컴퓨터 판독 가능한 매체

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220122955A (ko) * 2014-07-29 2022-09-05 삼성전자주식회사 모바일 디바이스에서 촬영된 전자 기기와 페어링하는 방법 및 장치
KR20160087602A (ko) * 2015-01-14 2016-07-22 삼성전자주식회사 전자 장치 및 전자 장치에서 시선을 추적하는 방법

Also Published As

Publication number Publication date
EP2791790A1 (en) 2014-10-22
WO2013089693A1 (en) 2013-06-20
CN103988149A (zh) 2014-08-13
KR101692323B1 (ko) 2017-01-04
US20160034029A1 (en) 2016-02-04
EP2791790A4 (en) 2015-08-19
EP2791790B1 (en) 2019-08-14
US9766700B2 (en) 2017-09-19

Similar Documents

Publication Publication Date Title
KR101692323B1 (ko) 시선 활성화 콘텐츠 전송 시스템
US11320913B2 (en) Techniques for gesture-based initiation of inter-device wireless connections
US9998875B2 (en) Method for managing beacon, terminal device, server and storage medium
KR102344045B1 (ko) 화면을 표시하는 전자 장치 및 그 제어 방법
US10616762B2 (en) Method for controlling according to state and electronic device thereof
US9147057B2 (en) Techniques for device connections using touch gestures
EP3358461A1 (en) Apparatus and method for performing application in electronic device
US20170322679A1 (en) Modifying a User Interface Based Upon a User's Brain Activity and Gaze
KR102482850B1 (ko) 전자 장치 및 전자 장치의 필체 교정 기능 제공 방법
US10558354B2 (en) Method for providing content search interface and electronic device for supporting the same
US20140002338A1 (en) Techniques for pose estimation and false positive filtering for gesture recognition
KR20160103398A (ko) 이미지의 품질 측정 방법 및 장치
US10444920B2 (en) Electronic device and method for controlling display in electronic device
US10642477B2 (en) Electronic device and method for controlling input in electronic device
KR102359276B1 (ko) 전자 장치의 화이트 밸런스 기능 제어 방법 및 장치
US10264183B2 (en) Method of updating an image and displaying the updated image, and electronic device performing the same
US10317931B2 (en) Method for managing multi-core processor, and apparatus
KR102388590B1 (ko) 전자 장치 및 전자 장치의 입력 방법
US20190007507A1 (en) Selecting content for high velocity users
KR20180081353A (ko) 전자 장치 및 그의 동작 방법
EP3381369B1 (en) Electronic device and method for measuring biometric information
EP3327551A1 (en) Electronic device for displaying image and method for controlling the same
US20160337601A1 (en) Electronic device for processing image and method for controlling the same
KR20160022541A (ko) 지문 인식 방법 및 장치
KR102408942B1 (ko) 전자 장치의 입력 처리 방법 및 전자 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20191127

Year of fee payment: 4