KR101632530B1 - 눈 추적 데이터 트리거 배열에 대한 디바이스 및 방법 - Google Patents

눈 추적 데이터 트리거 배열에 대한 디바이스 및 방법 Download PDF

Info

Publication number
KR101632530B1
KR101632530B1 KR1020147036141A KR20147036141A KR101632530B1 KR 101632530 B1 KR101632530 B1 KR 101632530B1 KR 1020147036141 A KR1020147036141 A KR 1020147036141A KR 20147036141 A KR20147036141 A KR 20147036141A KR 101632530 B1 KR101632530 B1 KR 101632530B1
Authority
KR
South Korea
Prior art keywords
sensor
region
image data
mrrod
user
Prior art date
Application number
KR1020147036141A
Other languages
English (en)
Other versions
KR20150022888A (ko
Inventor
벤 케네디
데이비드 런드퀴스트
제임스 몰리-스미스
Original Assignee
심볼 테크놀로지스, 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 심볼 테크놀로지스, 엘엘씨 filed Critical 심볼 테크놀로지스, 엘엘씨
Publication of KR20150022888A publication Critical patent/KR20150022888A/ko
Application granted granted Critical
Publication of KR101632530B1 publication Critical patent/KR101632530B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

시스템 및 방법이 데이터 트리거 배열에 대해 사용자의 눈을 추적한다. 방법은 제1 데이터 캡쳐 센서의 제1 가시 범위 내에서 제1 이미지 데이터를 획득하는 것을 포함한다. 방법은 제1 이미지 데이터의 함수로서 사용자의 눈에 의해 시청된 제1 영역을 결정하는 것을 포함한다. 방법은 제2 센서의 제2 가시 범위 내에서 제2 이미지 데이터를 획득하는 것을 포함한다. 방법은 제2 이미지 데이터의 함수로서 제2 가시 범위 내에서 캡쳐된 제2 영역을 결정하는 것을 포함한다. 방법은 제2 영역 내에서 제1 영역의 배치 데이터를 결정하는 것을 포함한다. 트리거 코맨드가 캡쳐될 때, 방법은 배치 데이터의 함수로서 제2 센서를 사용하여 기계 판독가능한 데이터 표현(MRRoD)을 데이터 캡쳐하는 것을 포함한다.

Description

눈 추적 데이터 트리거 배열에 대한 디바이스 및 방법{DEVICE AND METHOD FOR EYE TRACKING DATA TRIGGER ARRANGEMENT}
본 개시내용은 일반적으로는 눈 추적 데이터 트리거 배열에 대한 디바이스 및 방법에 관한 것이며, 더 구체적으로는, 핸즈-프리 모드에서 기계 판독가능한 데이터 표현(MRRoD)을 캡쳐하기 위해 센서를 활성화시키는 것에 관한 것이다.
전자 디바이스는 다양한 상이한 입력 기술들을 포함할 수 있다. 예를 들어, 전자 디바이스는 사용자가 입력들을 입력하게 하는 키패드를 포함할 수 있다. 데이터가 전자 디바이스에 의해 캡쳐될 때, 추가적인 다양한 상이한 입력 기술들이 이용될 수 있다. 예를 들어, 바코드는 바코드와 함께 디스플레이되는(예를 들어, 바코드 자체의 아래에 있는) 복수의 숫자들과 연관될 수 있다. 키패드를 사용하여, 숫자들이 입력될 수 있고, 숫자들과 연관된 바코드가 검색될 수 있다. 또다른 예에서, 종래의 스캐닝 디바이스가 이용될 수 있다. 그러나, 종래의 스캐닝 디바이스는 MRRoD에서 데이터를 적절하게 캡쳐하기 위해 사용자가 디바이스를 쥐고 있을 것을 요구한다.
종래의 스캐닝 디바이스는 추가로 사용자가 데이터 캡쳐를 수동으로 수행할 것을 요구한다. 구체적으로, 예를 들어, 사용자의 손을 자유롭게 하기 위해, 사용자는 디바이스를 잡고, 디바이스를 조준(aim)하고, 데이터 캡쳐 기능성을 트리거링하고 디바이스를 놓아야 한다. 따라서, 스캐닝 디바이스는 사용자가 디바이스를 잡도록 구성된 핸들을 포함하며; 사용자는 데이터가 캡쳐될 수 있도록 디바이스를 물리적으로 조준해야 하며; 사용자는 일반적으로 디바이스 상의 트리거링 컴포넌트를 눌러서 데이터 캡쳐 기능성을 활성화시키고 스캔을 수행한 이후 컴포넌트를 누름해제(release)(또는 데이터 캡쳐 기능성이 활성화되도록 트리거링 컴포넌트를 누르고 누름해제)해야 하며; 사용자의 적어도 한 손은 이 프로세스에 사용되어야 한다. 종래의 스캐닝 디바이스가 고정식일 때, 사용자는 여전히 데이터 캡쳐 기능성이 사용되도록 하기 위해 스캐닝 디바이스와 관련된 MRRoD를 수동으로 위치확인(position)하도록 요구된다. 추가로, 스캐닝 디바이스는 MRRoD의 데이터를 캡쳐링하기 위한 가시 범위를 포함할 수 있다. 그러나, 다수의 MRRoD들이 스캐닝 디바이스의 가시 범위 내에 존재하고 이에 의해 부정확한 데이터 캡쳐, 데이터 캡쳐 불가능 등을 초래할 때가 존재할 수 있다.
따라서, 핸즈-프리 방식으로, 그리고 더 자연스럽게는 휴먼 컴퓨터 상호 작용의 견지에서 데이터 캡쳐 기능성을 트리거링하기 위한 디바이스 및 방법에 대한 필요성이 존재한다.
동일한 참조 번호들이 하기의 상세한 설명과 함께 별도의 뷰들에 걸쳐 동일하거나 기능적으로 유사한 엘리먼트들을 지칭하는 첨부 도면들은 명세서에 포함되어 명세서의 일부를 형성하고, 청구된 발명을 포함하는 개념들의 실시예들을 추가로 예시하고 해당 실시예들의 다양한 원리들과 장점들을 설명하는 역할을 한다.
도 1은 일부 실시예들에 따른 트리거 배열의 컴포넌트들의 블록도이다.
도 2a는 일부 실시예들에 따른 도 1의 트리거 배열을 포함하는 전자 디바이스의 전면부이다.
도 2b는 일부 실시예들에 따른 도 2a의 전자 디바이스의 후면부이다.
도 3은 일부 실시예들에 따른 도 1의 트리거 배열을 포함하는 두부 장착형 트리거이다.
도 4는 일부 실시예들에 따라 데이터 캡쳐 기능성을 활성화시키기 위한 방법의 흐름도이다.
당업자는 도면들 내의 엘리먼트들이 간략함 및 명료함을 위해 예시되었으며, 반드시 축척에 맞게 그려지지는 않았음을 이해할 것이다. 예를 들어, 도면들 내의 엘리먼트들 중 일부의 크기는 본 발명의 실시예들의 이해를 높이는 것을 보조하기 위해 다른 엘리먼트들에 비해 과장될 수 있다.
장치 및 방법 컴포넌트들은 적절한 경우, 본원의 기재의 이점을 가지는 것으로 당업자에게 쉽게 명백해질 상세항목들에 의해 개시내용을 모호하게 하지 않기 위해 본 발명의 실시예들의 이해와 관련된 특정 상세항목들만을 도시하는, 도면들 내의 종래의 심볼들에 의해 표현된다.
본 발명은 눈 추적 데이터 트리거 배열에 대한 디바이스 및 방법을 기술한다. 방법은 제1 데이터 캡쳐 센서의 제1 가시 범위 내에서 제1 이미지 데이터를 획득하는 단계; 제1 이미지 데이터의 함수로서 사용자의 눈에 의해 시청된 제1 영역을 결정하는 단계; 제2 센서의 제2 가시 범위 내에서 제2 이미지 데이터를 획득하는 단계; 제2 이미지 데이터의 함수로서 제2 가시 범위 내에서 캡쳐된 제2 영역을 결정하는 단계; 제2 영역 내에서 제1 영역의 배치 데이터를 결정하는 단계; 및 트리거 코맨드가 캡쳐될 때, 배치 데이터의 함수로서 제2 센서를 사용하여 기계 판독가능한 데이터 표현(MRRoD)을 데이터 캡쳐하는 단계를 포함한다.
예시적인 실시예들은 추가로 후속하는 기재 및 첨부 도면들을 참조하여 이해될 것이며, 여기서 동일한 엘리먼트들은 동일한 참조 번호들을 가지고 참조된다. 예시적인 실시예들은 더 자연스러운 휴먼 컴퓨터 인터페이스를 제공하기 위해 데이터 캡쳐 기능성을 트리거링하도록 구성된 전자 디바이스를 기술한다. 구체적으로, 사용자의 눈의 제스쳐들을 검출하기 위해 눈 추적 센서를 사용하여, 데이터 캡쳐 센서는 MRRoD 내에서 인코딩된 데이터를 캡쳐하기 위해 활성화될 수 있다. 트리거 배열, 데이터 캡쳐 기능성, 인터페이스, 눈 추적 센서, 데이터 캡쳐 센서, MRRoD, 및 관련된 방법이 하기에서 더 상세하게 논의될 것이다.
도 1은 본 발명의 예시적인 실시예에 따른 트리거 배열(100)이다. 하기에 더 상세하게 논의될 바와 같이, 트리거 배열(100)은 임의의 전자 디바이스 또는 마운트(mount)에 통합될 수 있다. 전자 디바이스는 모바일 폰, 개인용 디지털 보조 단말, 스마트폰, 태블릿, 랩톱, 장착 디바이스(예를 들어, 머리, 손목 등) 등과 같은 임의의 휴대용 디바이스일 수 있다. 마운트는 사용자의 머리, 사용자의 손목 등과 같이 사용자에 의해 착용되도록 구성된 임의의 디바이스일 수 있다. 그러나, 전자 디바이스가 또한 고정적일 수 있으며, 예시적인 실시예들이 추가로 고정 디바이스들과 함께 사용되도록(예를 들어, 정적 모니터 상의 비디오 공급) 구성된다는 점에 유의해야 한다. 트리거 배열(100)은 전자 디바이스의 하우징과 같은 일반적인 하우징 내의 복수의 컴포넌트들로서 도 1에 도시되어 있다. 그러나, 트리거 배열(100)의 컴포넌트들이 서로 분리될 수 있다는 점에 유의해야 한다. 이러한 실시예에서, 컴포넌트들은 하기에 더 상세하게 기술될 바와 같이 기능성들을 제공하기 위해 데이터를 교환하도록 구성될 수 있다. 도 1에 예시된 바와 같이, 트리거 배열(100)은 프로세서(105), 메모리 배열(110), 디스플레이 디바이스(115), 입력/출력(I/O) 디바이스(120), 트랜시버(125), 휴대용 전원(예를 들어, 배터리)과 같은 다른 컴포넌트들(130), 눈 센서(135) 및 데이터 캡쳐 센서(140)를 포함할 수 있다.
프로세서(105)는 트리거 배열(100)에 종래의 기능성들을 제공할 수 있다. 본 발명의 예시적인 실시예들에 따른 특정 예에서, 트리거 배열(100)은 MRRoD에서 인코딩된 데이터를 가진 산물들의 식별과 관련된 애플리케이션과 같이, 프로세서(105) 상에서 실행되는 복수의 애플리케이션들을 포함할 수 있다. 메모리(110)는 또한 트리거 배열(100)에 종래의 기능성들을 제공할 수 있다. 예를 들어, 메모리(110)는 프로세서(105)에 의해 수행된 동작들과 관련된 데이터를 저장할 수 있다. 하기에 그리고 본 발명의 예시적인 실시예들에 따른 특정 예에서 더 상세하게 기술될 바와 같이, 메모리(110)는 또한 눈 센서(135) 및 데이터 캡쳐 센서(140)에 의해 캡쳐된 데이터를 저장할 수 있다. 또한, 메모리(110)는 눈 센서(135)에 의해 캡쳐된 제스쳐들 및 눈 제스쳐와 연관된 기능성을 저장할 수 있다.
디스플레이 디바이스(115)는 사용자에게 데이터를 보여주도록 구성된 임의의 컴포넌트일 수 있다. 디스플레이 디바이스(115)는, 예를 들어, 트리거 배열(100)이 포함된 전자 디바이스의 사이즈에 따르는 액정 디스플레이(LCD)일 수 있다. I/O 디바이스(120)는 사용자로부터 입력을 수신하도록 구성된 임의의 컴포넌트일 수 있다. 예를 들어, I/O 디바이스(120)는 키패드(예를 들어, 영숫자 키패드, 숫자 키패드 등)일 수 있다. I/O 디바이스(120)는 또한 사용자가 손가락(들) 또는 스타일러스를 이용하여 수동으로 입력들을 입력하기 위한 터치 감지 패드일 수 있다. 디스플레이 디바이스(115)는 또한, 특히 I/O 디바이스(120)가 사용자가 입력들을 입력할 수 있는 영역을 포함하는 터치 감지 패드일 때, I/O 디바이스(120)를 포함할 수 있다. 또다른 예에서, I/O 디바이스(120)는 사용자가 입력들을 입력할 수 있게 하는 디스플레이(115)의 최상부에 위치된 투명 터치 센서일 수 있다. 트랜시버(125)는 통신 네트워크와 데이터를 교환하기 위한 수단을 트리거 배열(100)에 제공할 수 있다. 또한, 트리거 배열(100)이 분리된 컴포넌트들을 포함할 때, 트랜시버(125)는 컴포넌트들 사이에서 데이터를 교환하기 위해 사용될 수 있다. 다른 컴포넌트들(130)은 전자 디바이스들에서 통상적으로 발견되는 컴포넌트들과 같은 임의의 추가 컴포넌트를 포함할 수 있다.
눈 센서(135)는 사용자의 눈과 연관된 제스쳐와 관련된 데이터를 캡쳐하도록 구성된 임의의 컴포넌트일 수 있다. 따라서, 눈 센서(135)는 사용자의 눈을 대향하도록 배향되거나 또는 눈 센서(135)의 가시 범위가 사용자의 눈을 포함할 수 있도록 배향될 수 있다. 눈 센서(135)는 눈의 이미지를 캡쳐하기 위한 카메라, 모션 감지 디바이스 등과 같은 임의의 타입의 센서일 수 있다. 데이터 캡쳐 센서(140)는 또한 데이터를 캡쳐하도록 구성된 임의의 컴포넌트일 수 있다. 그러나, 데이터 캡쳐 센서(140)는 구체적으로 MRRoD에 포함된 데이터를 캡쳐하도록 구성될 수 있다. 데이터 캡쳐 센서(140)는 2차원 카메라, 3차원 카메라, 2차원 라디오 주파수 식별(RFID)/근거리 통신(NFC) 위치확인 센서, 스캐닝 디바이스(예를 들어, 2차원 바코드 스캐너, 3차원 바코드 스캐너 등) 등과 같은 "가시 범위" 차원 감지 디바이스일 수 있다. 데이터 캡쳐 센서(140)는 트리거 배열(100)이 포함된 전자 디바이스 또는 마운트에 대한 방식으로 배향될 수 있다. 예를 들어, 눈 센서(135)가 사용자를 대향할 때, 데이터 캡쳐 센서(140)는 데이터 캡쳐 센서(140)의 가시 범위가 눈 센서(135)의 반대 방향으로 확장하도록 배향될 수 있다. 또다른 예에서, 눈 센서(135)가 사용자의 가시 범위에 대해 직교로 확장하는 가시 범위를 가지도록 구성될 때, 데이터 캡쳐 센서(140)는 데이터 캡쳐 센서의 가시 범위가 눈 센서(135)에 대해 직교하도록 배향될 수 있다. 또다른 예에서, 데이터 캡쳐 센서(140)는 데이터 캡쳐 센서(140)의 가시 범위가 항상 사용자의 가시 범위와 일치하도록 배향될 수 있다.
도 2a 및 2b는 일부 실시예들에 따라 도 1의 트리거 배열(100)을 포함하는 전자 디바이스(200)를 도시한다. 구체적으로, 도 2a는 전자 디바이스(200)의 전면부인 반면 도 2b는 전자 디바이스(200)의 후면부이다. 위에서 논의된 바와 같이, 전자 디바이스(200)는 임의의 디바이스일 수 있다. 구체적으로, 전자 디바이스(200)는 태블릿일 수 있다. 전자 디바이스(200)는 프로세서(105), 메모리(110), 디스플레이 디바이스(115), I/O 디바이스(120) 등과 같이 트리거링 배열(100)에 대해 전술된 컴포넌트들을 포함할 수 있다. 또한, 전자 디바이스(200)는 마이크로폰과 같은 오디오 수신 컴포넌트(145), 스피커와 같은 오디오 전송 컴포넌트(150), 및 카메라 플래시와 같은 조명 컴포넌트(155)와 같은 다른 컴포넌트들을 포함할 수 있다. 하기에 더 상세하게 기술될 바와 같이, 전자 디바이스(200)는 그것의 컴포넌트들이 트리거링 배열(100)의 특징들 및 기능성들에 따라 조정되도록 구성될 수 있다. 따라서, 전자 디바이스(200)는 눈 센서(135)로서 구성된 전방 카메라 및 데이터 캡쳐 센서(140)로서 구성된 후방 카메라를 포함할 수 있다.
종래의 태블릿 디바이스들은 전방 카메라 및 후방 카메라를 포함할 수 있다. 당업자는 이들 카메라들이 다양한 상이한 목적으로 사용될 수 있음을 이해할 것이다. 예를 들어, 픽쳐 캡쳐 애플리케이션은 사용자가 이미지를 캡쳐할 카메라를 선택하게 할 수 있다. 또다른 예에서, 비디오 전화 애플리케이션은 사용자가 전방 카메라를 이용하여 일대일(face to face) 전화 통화 진행을 허용하도록 할 수 있다. 본 발명의 예시적인 실시예들은 이미 존재하는 카메라들을 눈 센서(135) 및 데이터 캡쳐 센서(140)로서 채택하고 구성할 수 있다. 그러나, 전자 디바이스(200)가 추가 컴포넌트들로서 눈 센서(135) 및 데이터 캡쳐 센서(140)를 더 포함할 수 있다는 점에 유의해야 한다. 또한, 전술된 바와 같이, 눈 센서(135) 및 데이터 캡쳐 센서(140)는 반대 방향으로 확장하는 가시 범위를 포함할 수 있다.
전자 디바이스(200)의 통상적인 사용은 사용자를 대향하는 디스플레이 디바이스(115)를 포함한다. 따라서, 눈 센서(135)는 또한 사용자를 대향하는 디스플레이 디바이스(115)의 측부에 배치될 수 있다. MRRoD 내에 포함된 데이터가 수신될 때, 데이터 캡쳐 기능성이 활성화될 수 있다. 데이터 캡쳐 기능성은 다양한 방식들로 활성화될 수 있다. 예를 들어, 데이터 캡쳐 기능성은 당해 기술분야에 공지되어 있는 형상 검출 알고리즘이 특정 형상이 MRRoD인지를 결정하는 스캐닝 뷰파인더일 수 있다. 따라서, 데이터 캡쳐 센서(140)가 자신의 가시 범위 내의 MRRoD를 검출할 때, 트리거링 배열(100)의 프로세서(105)는 데이터 캡쳐 기능성이 사용될 것임을 결정할 수 있다. 따라서, 데이터 캡쳐 기능성이 활성화될 수 있다. 또다른 예에서, 데이터 캡쳐 기능성은 수동으로 활성화될 수 있다. 수동적 활성화는 또한, I/O 디바이스(120), 데이터 캡쳐 기능성을 활성화시키는 눈 센서(135)에 의해 검출된 특정 눈 제스쳐, 전자 디바이스(200) 상에서 수행되는 제스쳐(예를 들어, 가속계에 의해 검출된 흔들림), 오디오 수신 컴포넌트(145)를 통해 말하는 구두 코맨드 등과 같은 다양한 방식들로 수행될 수 있다. 활성화될 때, 데이터 캡쳐 기능성은 디스플레이 디바이스(115) 상에서 보여질 수 있다. 구체적으로, 임의의 MRRoD들을 포함하는 데이터 캡쳐 센서(140)의 가시 범위는 디스플레이 디바이스(115) 상에 보여질 수 있다.
데이터 캡쳐 기능성이 활성화될 때, 눈 센서(135)는, 특히, 다수의 MRRoD들이 데이터 캡쳐 센서(140)의 가시 범위 내에 포함될 때, 캡쳐될 MRRoD를 결정하기 위해 사용될 수 있다. 눈 센서(135)는 눈의 움직임들을 결정하도록(예를 들어, 데이터 캡쳐 기능성을 활성화하도록) 구성될 수 있다. 눈 센서(135)는 추가로 프로세서(105) 및 데이터 캡쳐 기능성이 사용자가 보고 있는 위치를 결정하도록 눈의 적어도 하나의 이미지를 캡쳐할 수 있다. 구체적으로, 눈 센서(135)는 디스플레이 디바이스(115) 상에서 보여지는 위치를 결정하기 위해 사용될 수 있다. 종래의 추적 알고리즘은 사용자가 보고 있는 위치를 결정하기 위해 사용될 수 있다. 디스플레이 디바이스(115) 상에 도시된 MRRoD가 사용자가 보고 있는 것으로서 결정되면, 데이터 캡쳐 트리거가 활성화될 수 있다. 데이터 캡쳐 트리거는 다양한 방식들로 수행될 수 있다. 제1 예에서, 사용자는 예를 들어, I/O 디바이스(120)를 통해 트리거를 수동으로 활성화할 수 있다. 제2 예에서, 사용자는 데이터 캡쳐 트리거가 활성화됨을 나타내는 눈 센서(135)에 의해 캡쳐된 눈 제스쳐(예를 들어, 깜박임)를 수행할 수 있다. 제3 예에서, 오디오 수신 컴포넌트(145)를 통해 구두 코맨드를 말할 수 있다. 트리거링될 때, 트리거링 배열(100)은 구체적으로 디코딩될 MRRoD를 봄으로써 사용자가 원한 MRRoD를 디코딩할 수 있다.
태블릿과 같은 전자 디바이스(200)에 대한 트리거 배열(100)을 포함하는 것을 통해, 더욱 효율적인 데이터 캡쳐 기능성이 수행될 수 있다. 예를 들어, 종래의 전자 디바이스에서, 픽리스트(picklist) 모드가 인에이블되고 스캐너가 시작되는 경우, 레티큘(reticule) 바로 아래의 MRRoD는 거의 즉시 디코딩될 것이다. 이것은 부정확한 MRRoD가 스캐닝될 수 있기 때문에 사용자가 스캐너를 적절하지 조준하지 않은 경우 바람직하지 않을 수 있다. 본 발명의 예시적인 실시예들은, 사용자가 MRRoD를 직접 보고 있고 눈 스캐너(135)가 사용자의 눈의 함수로서 이 MRRoD를 결정하도록 구성되므로, 사용자가 디코딩 이전에 MRRoD를 "미리보기"하여, 이에 의해 부정확한 데이터 캡쳐들을 제거하도록 한다. 또다른 예에서, 픽리스트 모드에서 특정 MRRoD를 디코딩할 때, 사용자는 레티큘이 정확한 MRRoD 상에 있도록 스캐너를 수동으로 이동하도록 요구되며, 따라서 사용자가 물리적으로 (예를 들어, 스캐너를 잡고 있는 바디 및/또는 손을) 이동할 것을 요구한다. 스캐너를 정확한 MRRoD에 대해 이동시키는 동안, 레티큘은 상이한 바코드 상에서 지나갈 수 있고, 스캔이 부적합하게 수행될 수 있다. 본 발명의 예시적인 실시예들은 사용자가, 처음 MRRoD를 봄으로써 정확한 MRRoD가 언제 선택될지를 나타내고, 후속적으로 MRRoD의 식별이 사용자에게 보여질 때 데이터 캡쳐 기능성을 활성화하게 한다. 추가적인 예에서, 종래의 전자 디바이스는 사용자가 디스플레이 디바이스 상에서 MRRoD를 선택할 것을 요구하고, 따라서, 사용자가 자신의 손을 이동할 것을 요구한다. 본 발명의 예시적인 실시예들은 단지 사용자가 자신의 눈을 움직여 디코딩할 MRRoD를 선택할 것을 요구한다. 따라서, 더 쉽고, 더 빠르고, 더 효율적인 데이터 캡쳐 기능성이 더 자연스러운 휴먼 컴퓨터 상호작용을 통해 수행될 수 있다.
도 3은 일부 실시예에 따른 도 1의 트리거 배열(100)을 포함하는 두부 장착형 트리거(300)이다. 도 3에 예시된 바와 같이, 두부 장착형 트리거(300)는 안경의 형태일 수 있다. 그러나, 안경의 사용이 단지 예시적이라는 점에 유의해야 한다. 구체적으로, 두부 장착형 트리거(300)는 트리거 배열(100)이 포함된 임의의 마운트를 나타낼 수 있다. 위에서 논의된 바와 같이, 마운트는 머리(예를 들어, 안경, 머리띠 등), 손목 등에 대한 것일 수 있다. 두부 장착형 트리거(300)는 또한 프로세서(105) 및 조명 컴포넌트(155)와 같이 트리거링 배열(100) 및 전자 디바이스(200)에 대해 전술된 컴포넌트들을 포함할 수 있다. 프로세서(105)는 두부 장착형 트리거(100)의 하우징 내에 배치될 수 있거나, 또는 도 3에 예시된 바와 같이, 안경다리들 중 하나를 따라 배치될 수 있다. 두부 장착형 트리거(300)는 사용자의 가시 범위에 대해 직교로 배치된 가시 범위를 가지는 눈 센서(135)를 더 포함할 수 있다. 구체적으로, 도 3에 예시된 바와 같이, 눈 센서(135)는 동일한 안경다리 상에서 프로세서(105)에 인접하게 배치될 수 있다. 그러나, 눈 센서의 가시 범위가 사용자의 눈에 관련된 데이터를 캡쳐하게 구성되도록 배향되는 임의의 위치에(예를 들어, 안경의 다른 안경다리 상에) 눈 센서(135)가 배치될 수 있다는 점에 유의해야 한다. 두부 장착형 트리거(300)는 추가로 데이터 캡쳐 센서(140)를 포함할 수 있다. 위에서 논의된 바와 같이, 데이터 캡쳐 센서(140)는 가시 범위가 사용자의 가시 범위와 일치하도록 배치될 수 있다. 따라서, 데이터 캡쳐 센서(140)는 안경의 테들의 외부 대향측 상에 배치될 수 있다. 두부 장착형 트리거(300)에 위에서 논의된 바와 같은 I/O 디바이스, 오디오 수신 컴포넌트, 및 오디오 전송 컴포넌트와 같은 다른 컴포넌트들이 추가로 구비될 수 있다는 점에 유의해야 한다.
두부 장착형 트리거(300) 상의 컴포넌트들의 전술된 배향에 의해, 도 2a-2b에 관련하여 위에서 논의된 것과 거의 유사한 데이터 캡쳐 기능성이 수행될 수 있다. 초기에, 데이터 캡쳐 기능성은 전술된 방식들 중 임의의 방식을 통해 활성화될 수 있다. 두부 장착형 트리거(300)가 디스플레이 디바이스(115)를 포함하지 않기 때문에, 눈 센서(135)는 캡쳐될 MRRoD가 물리적으로 배치되는 위치를 결정하도록 구성될 수 있다. 결정되면, MRRoD는 전술된 방식들 중 임의의 방식을 통해 데이터 캡쳐 센서(140)를 사용하여 캡쳐될 수 있다.
MRRoD가 물리적으로 배치되는 위치를 결정하는 눈 센서(135)가 단지 예시적임에 유의해야 한다. 또다른 예시적인 실시예에서, 두부 장착형 트리거(300)는 2차원 또는 3차원 이미지가 데이터 캡쳐 센서(140)의 가시 범위의 사용자에게 보여지도록 홀로그래픽 컴포넌트들을 포함할 수 있다. 이러한 실시예에서, 눈 센서(135)는 홀로그래픽 이미지 상의 이미지를 결정하고, 추가로 MRRoD가 데이터 캡쳐 기능성에 대해 배치되는 위치를 추가로 결정할 수 있다. 또다른 예시적인 실시예에서, 두부 장착형 트리거(300)는 안경의 렌즈들 중 하나 상에 디스플레이 디바이스를 포함할 수 있다. 이러한 실시예에서, 눈 센서(135)는 데이터 캡쳐 센서(140)의 가시 범위를 보여주는 렌즈 상에서 위치를 결정하여, MRRoD가 데이터 캡쳐 기능성에 대해 배치되는 위치를 추가로 결정할 수 있다.
두부 장착형 트리거(300)에 대한 트리거 배열(100)을 포함시킴으로써, 더욱 효율적인 데이터 캡쳐 기능성이 또한 수행될 수 있다. 예를 들어, 종래의 전자 스캐닝 디바이스에서, 사용자는 디바이스를 잡고 있도록 요구된다. 마운트를 사용함으로써, 본 발명의 예시적인 실시예들은 핸즈-프리 데이터 캡쳐 기능성을 허용하여, 이에 의해 사용의 용이함을 증가시킨다. 또다른 예에서, 종래의 전자 디바이스는 사용자가 디바이스를 집어 올리고, 조준하고, 트리거링하고 내려 놓을 것을 요구하는 반면, 고정적인 종래의 스캐닝 디바이스는 사용자가 MRRoD에 관한 이들 동작들을 수행할 것을 요구한다. 본 발명의 예시적인 실시예들은 이들 동작들이 사용자의 눈에 대한 것을 제외한 어떠한 움직임도 없이 수행되도록 한다. 추가적인 예에서, 사용자에게 요구된 추가적인 움직임들 및 동작들의 제거로부터, 데이터 캡쳐 기능성의 동작은 더욱 자연스러운 휴먼 컴퓨터 상호작용을 가진다.
전자 디바이스(200) 및 두부 장착형 트리거(300) 내의 트리거 배열(100)의 포함이 단지 예시적이라는 점에 유의해야 한다. 트리거 배열(100)은 다양한 다른 방식들로 포함될 수 있다. 전술된 바와 같이, 트리거 배열(100)의 컴포넌트들이 분리될 수 있으며, 통신 배열은 컴포넌트들 사이에서 데이터를 교환하기 위해 사용될 수 있다. 본 발명의 추가적인 예시적인 실시예들에 따르면, 트리거 배열(100)은 환경에 포함될 수 있다. 예를 들어, 환경은 창고, 소매점, 우편실 등일 수 있다. 당업자는 이러한 환경들에서, 다양한 상이한 위치들에 배치된 매우 많은 수의 MMRoD들이 존재할 수 있음을 이해할 것이다. 복수의 눈 센서들(135)이 환경 내의 미리 결정된 위치들에 배치될 수 있음에 따라, 사용자가 보고 있는 위치가 결정될 수 있다. 또한, 다수의 눈 센서들(135)의 사용을 통해, 더욱 정확한 위치가 상이한 눈 센서들(135)로부터의 외삽을 통해 결정될 수 있다. 사용자는 (예를 들어, 핸드헬드된 또는 장착된) 데이터 캡쳐 센서(140)를 포함하는 전자 디바이스를 가질 수 있다. 데이터 캡쳐 기능성을 트리거링하고, 복수의 눈 센서들(135)로부터 사용자가 보고 있는 위치를 수신함으로써, 정확한 MRRoD가 디코딩될 수 있다.
도 4는 일부 실시예들에 따른 데이터 캡쳐 기능성을 활성화하기 위한 방법(400)의 흐름도이다. 방법(400)은 트리거 배열(100)이 사용될 때의 데이터 캡쳐 기능성에 관한 것이다. 방법(400)은 도 1의 트리거 배열(100), 도 2의 전자 디바이스(200), 및 도 3의 두부 장착형 트리거(300)에 관하여 기술될 것이다.
단계(405)에서, 데이터 캡쳐 기능성이 활성화된다. 위에서 논의된 바와 같이, 데이터 캡쳐 기능성은 다양한 방식들로 활성화될 수 있다. 제1 예에서, 트리거 배열(100)이 전자 디바이스(200)와 통합될 때, 데이터 캡쳐 센서(140)는 형상 인식 알고리즘을 사용하여, 데이터 캡쳐 기능성의 활성화를 나타내기 위해 데이터 캡쳐 센서의 가시 범위 내의 MRRoD의 존재를 결정할 수 있다. 제2 예에서, 눈 센서(135)는 데이터 캡쳐 기능성의 활성화를 나타내기 위해 깜박임, 윙크, 깜박임 및/또는 윙크의 다수/결합, 시간 기반 깜박임/윙크(예를 들어, 2초 동안의 깜박임) 등과 같은 눈 기반 제스쳐를 캡쳐할 수 있다. 제3 예에서, 오디오 수신 컴포넌트(145)를 통해, 구두 코맨드를 말하여(utter) 데이터 캡쳐 기능성을 활성화시킬 수 있다. 제4 예에서, I/O 디바이스(120)를 통해, 입력이 입력되어 데이터 캡쳐 기능성을 활성화시킬 수 있다. 제5 예에서, 유선 또는 무선 통신 배열을 통해 접속된 물리적 버튼, 터치 인터페이스, 트리거, 센서, 심리 판독 디바이스 등이 사용되어 데이터 캡쳐 기능성을 활성화시킬 수 있다.
단계(410)에서, 데이터 캡쳐 센서(140)의 가시 범위는 선택적으로 디스플레이 디바이스(115) 상에 보여질 수 있다. 위에서 논의된 바와 같이, 데이터 캡쳐 기능성이 활성화될 때, 데이터 캡쳐 센서(140)의 가시 범위의 이미지가 사용자가 그 위에 포커싱하기 위한 적어도 하나의 MRRoD를 포함하는 디스플레이 디바이스(115) 상에 보여질 수 있다. 따라서, 트리거 배열(100)이 전자 디바이스(100)에 통합될 때, 디스플레이 디바이스(115)가 이 이미지를 보여줄 수 있다. 위에서 논의된 바와 같이, 두부 장착형 트리거(200)는, 홀로그래피 등을 사용하여, 예컨대 안경의 렌즈들 상에 이 이미지를 보이도록 구성될 수 있다.
단계(415)에서, 눈 센서(135)는 사용자가 보고 있는 위치를 결정한다. 종래의 인식 알고리즘을 사용하여, 눈 센서(135)는 프로세서(105)가 시청되는 위치를 결정하도록 이미지들을 캡쳐할 수 있다. 따라서, 디스플레이 디바이스(115) 상에 보여지든 또는 MRRoD가 배치될 수 있는 물리적 표면 상에 보여지든 간에, 위치가 결정된다. 위에서 논의된 바와 같이, 다수의 눈 센서들(135)이 또한 사용자가 보고 있는 더욱 정확한 위치를 결정하기 위해 사용될 수 있다. 전자 디바이스(200) 및/또는 두부 장착형 트리거(300)가 또한 하나 초과의 눈 센서(135)를 포함할 수 있다는 점에 유의해야 한다.
단계(420)에서, 시청되는 위치가 MRRoD를 포함하는지에 대한 결정이 이루어진다. 즉, 사용자가 MRRoD를 현재 보고 있지 않을 가능성이 존재한다. 시청되고 있는 위치 내에 MRRoD가 존재하지 않을 때, 방법(400)은 단계(415)로 되돌아간다. 그러나, MRRoD가 시청되고 있는 위치 내에 존재하는 경우, 방법(400)은 단계(425)로 계속된다. 단계(425)에서, 정확한 MRRoD가 시청되고 있는지에 대한 결정이 선택적으로 이루어진다. 위에서 논의된 바와 같이, MRRoD를 포함하는 표면은 복수의 MRRoD들을 포함할 수 있다. 데이터 캡쳐 기능성은 선택된 MRRoD(예를 들어, 데이터 캡쳐 센서(140)의 가시 범위의 이미지 상의)가 정확한 MRRoD라는 확인을 요청할 수 있다. 단계(425)가 모든 데이터 캡쳐들이 적절한 MRRoD들 상에서만 수행됨을 검증하기 위해 선택적이지 않을 수 있다는 점에 유의해야 한다. 또한, 사용자가 정확한 MRRoD를 심적으로 검증하는 것과 같이 단계(425)가 암묵적일 수 있다는 점에 유의해야 한다.
단계(430)에서, 트리거 코맨드가 수신되었는지에 대한 결정이 이루어진다. 위에서 논의된 바와 같이, 트리거 코맨드는 다양한 방식들로 수신될 수 있다. 예를 들어, 데이터 캡쳐 기능성을 활성화시키기 위한 전술된 방식들 중 임의의 방식은 또한 MRRoD를 캡쳐하기 위한 트리거를 활성화시키기 위해 사용될 수 있다. 따라서, 눈 기반 제스쳐, 사운드 활성화, 외부 하드웨어 기반 활성화 등이 단계(430)에서 사용될 수 있다.
단계(435)에서, 사용자가 보고 있는 정확한 MRRoD로서 확인된 MRRoD는 데이터 캡쳐 센서(140)를 사용하여 캡쳐된다. 따라서, 단계(440)에서, MRRoD가 디코딩된다.
본 발명의 예시적인 실시예들은 정확한 MRRoD가 캡쳐되고 그 내의 인코딩된 데이터가 디코딩되도록, 사용자가 보고 있는 위치를 자동으로 결정하도록 구성된 트리거 배열을 제공한다. 트리거 배열은 사용자의 눈을 보도록 배향된 가시 범위를 가지는 눈 센서를 포함한다. 추적 알고리즘을 사용하여, 사용자가 보고 있는 위치가 결정된다. 트리거 배열은 또한 MRRoD가 배치될 수 있는 위치를 보고 캡쳐하도록 배향된 가시 범위를 가지는 데이터 캡쳐 센서를 포함한다. 데이터 캡쳐 센서는 또한 그 내의 인코딩된 데이터가 디코딩되도록 MRRoD를 캡쳐하도록 구성된다. 본 발명의 예시적인 실시예들은 MRRoD를 캡쳐하는 더욱 효율적인 수단을 이용하여 더욱 자연스러운 휴먼 컴퓨터 상호작용을 제공한다.
앞의 명세서에서, 특정 실시예들이 기술되었다. 그러나, 당업자는 하기의 청구항들에서 설명된 바와 같은 발명의 범위로부터의 이탈없이 다양한 수정들 및 변경들이 이루어질 수 있다는 점을 이해한다. 따라서, 명세서 및 도면들은 제한적인 의미라기 보다는 예시적인 의미로 간주될 것이며, 모든 이러한 수정들은 본 교시의 범위 내에 포함되는 것으로 의도된다.
문제점들에 대한 이점들, 장점들 및 해법들, 및 임의의 이점, 장점 또는 해법이 발생하게 하거나 또는 더욱 두드러지게 할 수 있는 임의의 엘리먼트(들)은 청구항들 중 임의의 것 또는 모든 것의 중요한, 요구되는, 또는 본질적인 특징들 또는 엘리먼트들로서 해석되지 않아야 한다. 발명은 이 출원의 계류 동안 이루어지는 임의의 보정들을 포함하는 첨부된 청구항들 및 발행된 바와 같은 청구항들의 모든 등가물에 의해서만 정의된다.
추가로, 이 문서에서, 제1 및 제2, 최상부 및 최하부 등과 같은 관계 용어들은 단지, 하나의 엔티티 또는 동작을 이러한 엔티티들 또는 동작들 사이의 임의의 실제 이러한 관계 또는 순서를 필수적으로 요구하거나 내포하지 않고도 또다른 엔티티 또는 동작과 구별하기 위해서 사용될 수 있다. 용어들 "포함하다(comprises)", "포함하는(comprising)", "가지다", "가지는", "포함하다(includes)", "포함하는(including)", 포함하다("contains"), 포함하는("containing") 또는 이들의 임의의 다른 변형은, 엘리먼트들의 리스트를 포함하고(comprises, includes, contains) 가지는(has) 프로세스, 방법, 물품, 또는 장치가 해당 엘리먼트들만을 포함하는 것이 아니라, 이러한 프로세스, 방법, 물품 또는 장치에 대해 명시적으로 열거되거나 내재되지 않은 다른 엘리먼트들을 포함할 수 있도록, 비-배타적 내포를 포괄하도록 의도된다. "...를 포함하다", "...를 가지다"에 선행하는 엘리먼트는, 더 많은 제약들 없이, 엘리먼트를 포함하고 가지는 프로세스, 방법, 물품 또는 장치 내의 추가적인 동일한 엘리먼트들의 존재를 불가능하게 하지 않는다. 단수("a" 및 "an")의 용어들은 본원에서 다른 방식으로 명시적으로 언급되지 않는 한 하나 이상을 정의한다. 용어 "실질적으로", "본질적으로", "대략", "약" 또는 이들의 임의의 다른 버전은 당업자에 의해 이해되는 바와 같이 가까운 것으로서 정의되며, 한 가지 비-제한적인 실시예에서, 용어는 10% 내에, 또다른 실시예에서는 5% 내에, 또다른 실시예에서는 1% 내에, 그리고 또다른 실시예에서는 0.5% 내에 있는 것으로 정의된다. 본원에 사용된 바와 같은 용어 "커플링된"은 반드시 직접적이지는 않게 그리고 반드시 기계적이지는 않게 접속된 것으로서 정의된다. 특정 방식으로 "구성된" 디바이스 또는 구조는 적어도 그 방식으로 구성되지만, 또한 열거되지 않은 방식들로 구성될 수 있다.
일부 실시예들이 마이크로프로세서들, 디지털 신호 프로세서들, 커스터마이즈된 프로세서들 및 필드 프로그래밍가능한 게이트 어레이(FPGA)들과 같은 하나 이상의 범용 또는 특수화된 프로세서들(또는 "프로세싱 디바이스들") 및, 특정 비-프로세서 회로들과 함께, 본원에 기술된 방법 및/또는 장치의 기능들의 일부, 다수, 또는 모두를 구현하기 위해 하나 이상의 프로세서들을 제어하는 (소프트웨어 및 펌웨어 모두를 포함하는) 고유하게 저장된 프로그램 명령들로 구성될 수 있다는 점이 이해될 것이다. 대안적으로, 일부 또는 모든 기능들은 저장된 프로그램 명령들을 가지지 않은 상태 머신에 의해, 또는 하나 이상의 주문형 집적 회로(ASIC)들에서 구현될 수 있으며, 여기서 각각의 기능 또는 기능들 중 일부의 일부 결합들은 커스텀 로직으로서 구현된다. 물론, 두 방식들의 결합이 사용될 수 있다.
또한, 실시예는 본원에 기술되고 청구된 바와 같은 방법을 수행하도록 컴퓨터(예를 들어, 프로세서를 포함함)를 프로그래밍하기 위한 컴퓨터 판독가능한 코드가 저장된 컴퓨터-판독가능한 저장 매체로서 구현될 수 있다. 이러한 컴퓨터-판독가능한 저장 매체들의 예들은 하드 디스크, CD-ROM, 광학 저장 디바이스, 자기 저장 디바이스, ROM(판독 전용 메모리), PROM(프로그래밍가능한 판독 전용 메모리), EPROM(소거가능한 프로그래밍가능한 판독 전용 메모리), EEPROM(전기적 소거가능한 프로그래밍가능한 판독 전용 메모리) 및 플래시 메모리를 포함하지만 이에 제한되지 않는다. 또한, 당업자가, 본원에 개시된 개념들과 원리들에 의해 가이드될 때, 예를 들어, 가용 시간, 현재 기술 및 경제적 고려사항들에 의해 동기부여된 가능하게는 상당한 노력과 많은 설계 선택에도 불구하고, 최소의 실험을 통해 이러한 소프트웨어 명령들 및 프로그램들 및 IC들을 용이하게 생성할 수 있다는 점이 기대된다.
개시내용의 요약은 독자가 기술적 개시내용의 속성을 신속하게 확인하게 하도록 제공된다. 요약이 청구항의 범위 또는 의미를 해석하거나 제한하기 위해 사용되지 않을 것이라는 점이 이해된다. 추가로, 이전의 상세한 설명에서, 다양한 특징들이 개시내용의 간소화의 목적으로 다양한 실시예들에서 함께 그룹화된다는 점을 알 수 있다. 이러한 개시내용의 방법은, 청구된 실시예들이 각각의 청구항에서 명시적으로 인용된 것보다 더 많은 특징들을 요구한다는 의도를 반영하는 것으로서 해석되지 않아야 한다. 오히려, 후속하는 청구항들이 반영하는 바와 같이, 발명 대상은 단일의 개시된 실시예의 모두보다 더 적은 특징들에 존재한다. 따라서, 후속하는 청구항들은 이에 의해 상세한 설명에 포함되며, 각각의 청구항은 별도로 청구된 발명 대상으로서 독립적이다.

Claims (21)

  1. 제1 센서(135)의 제1 가시 범위 내에서 제1 이미지 데이터를 획득하는 단계;
    상기 제1 이미지 데이터의 함수로서 사용자의 눈에 의해 시청된 제1 영역을 결정하는 단계;
    제2 센서(140)의 제2 가시 범위 내에서 제2 이미지 데이터를 획득하는 단계;
    상기 제2 이미지 데이터의 함수로서 상기 제2 가시 범위 내에서 캡쳐된 제2 영역을 결정하는 단계;
    상기 제2 영역 내에서 상기 제1 영역의 배치를 결정하는 단계;
    목표 기계 판독가능한 데이터 표현(machine readable representation of data; MRRoD)의 캡쳐를 개시하기 위한 적어도 하나의 눈 제스쳐를 포함하는 데이터 캡쳐 트리거 코맨드를 상기 제1 센서를 통해 검출하는 단계; 및
    트리거 코맨드가 수신될 때, 상기 제2 센서(140)의 제2 가시 범위를 나타내는 상기 제2 영역 내에서 상기 사용자의 눈에 의해 시청된 상기 제1 영역의 배치의 함수로서 상기 제2 센서(140)를 사용하여 상기 MRRoD를 캡쳐하는 단계
    를 포함하는 방법.
  2. 제1항에 있어서,
    상기 제1 센서(135)는 카메라 및 모션 감지 디바이스 중 하나이고, 상기 제2 센서(140)는 2차원 카메라, 3차원 카메라, 2차원 라디오 주파수 식별(RFID) 위치확인(positional) 센서, 근거리 통신(NFC) 위치확인 센서, 및 스캐닝 디바이스 중 하나인 방법.
  3. 삭제
  4. 제1항에 있어서,
    디스플레이 디바이스(115) 상에 상기 제2 영역의 이미지를 디스플레이하는 단계를 더 포함하는 방법.
  5. 제1항에 있어서,
    상기 제1 영역은 디스플레이 디바이스(115)의 시청 표면 상에 있는 방법.
  6. 제1항에 있어서,
    상기 제1 센서(135) 및 상기 제2 센서(140)는 두부 장착형 안경(300)에 포함되는 방법.
  7. 제6항에 있어서,
    상기 제1 센서(135)는 안경(300)의 한쌍의 안경다리 중 하나에 배치되고, 상기 제2 센서(140)는 상기 안경(300)의 테들의 외부 대향 측에 배치되는 방법.
  8. 제1항에 있어서,
    상기 트리거 코맨드는 눈 기반 제스쳐, 사운드 활성화, 및 외부 하드웨어 기반 활성화 중 하나인 방법.
  9. 제1항에 있어서,
    상기 제1 영역을 결정하기 위해 상기 사용자의 눈의 이미지를 캡쳐하는 단계를 더 포함하는 방법.
  10. 트리거 배열(100)로서,
    제1 가시 범위 내에서 제1 이미지 데이터를 획득하고, 목표 MRRoD의 캡쳐를 개시하기 위한 적어도 하나의 눈 제스쳐를 포함하는 데이터 캡쳐 트리거 코맨드를 검출하도록 구성된 제1 센서(135) ― 사용자의 눈에 의해 시청된 제1 영역은 상기 제1 이미지 데이터의 함수로서 결정됨 ― ; 및
    제2 가시 범위 내에서 제2 이미지 데이터를 획득하도록 구성된 제2 센서(140) ― 상기 제2 가시 범위 내에서 캡쳐된 제2 영역은 상기 제2 이미지 데이터의 함수로서 결정됨 ― 를 포함하고,
    상기 제2 영역 내의 상기 제1 영역의 배치는, 상기 트리거 코맨드의 수신 시에, 상기 제2 센서(140)가 상기 제2 센서(140)의 제2 가시 범위를 나타내는 제2 영역 내에서 상기 사용자의 눈에 의해 시청된 상기 제1 영역의 배치의 함수로서 상기 MRRoD를 캡쳐하게 구성되도록 결정되는 트리거 배열(100).
  11. 제10항에 있어서,
    상기 제1 센서(135)는 카메라 및 모션 감지 디바이스 중 하나이고, 상기 제2 센서(140)는 2차원 카메라, 3차원 카메라, 2차원 라디오 주파수 식별(RFID) 위치확인 센서, 근거리 통신(NFC) 위치확인 센서, 및 스캐닝 디바이스 중 하나인 트리거 배열(100).
  12. 제10항에 있어서,
    상기 제2 센서(140)는 상기 제2 영역의 이미지를 캡쳐하는 트리거 배열(100).
  13. 제12항에 있어서,
    상기 제2 영역의 이미지를 디스플레이하도록 구성된 디스플레이 디바이스(115)를 더 포함하는 트리거 배열(100).
  14. 제12항에 있어서,
    상기 제1 영역은 디스플레이 디바이스(115)의 시청 표면 상에 있는 트리거 배열(100).
  15. 제10항에 있어서,
    상기 제1 센서 및 상기 제2 센서는 두부 장착형 안경(300)에 포함되는 트리거 배열(100).
  16. 제15항에 있어서,
    상기 제1 센서(135)는 안경(300)의 한쌍의 안경다리 중 하나에 배치되고, 상기 제2 센서(140)는 상기 안경(300)의 테들의 외부 대향 측에 배치되는 트리거 배열(100).
  17. 제10항에 있어서,
    상기 트리거 코맨드는 눈 기반 제스쳐, 사운드 활성화, 및 외부 하드웨어 기반 활성화 중 하나인 트리거 배열(100).
  18. 제10항에 있어서,
    상기 제1 센서(135)는 상기 제1 영역을 결정하기 위해 상기 사용자의 눈의 이미지를 캡쳐하는 트리거 배열(100).
  19. 전자 디바이스(200)로서,
    제1 가시 범위 내에서 제1 이미지 데이터를 획득하고, 목표 MRRoD의 캡쳐를 개시하기 위한 적어도 하나의 눈 제스쳐를 포함하는 데이터 캡쳐 트리거 코맨드를 검출하도록 구성된 제1 센서(135) ― 사용자의 눈에 의해 시청된 제1 영역은 상기 제1 이미지 데이터의 함수로서 결정됨 ― ; 및
    제2 가시 범위 내에서 제2 이미지 데이터를 획득하도록 구성된 제2 센서(140) ― 상기 제2 가시 범위 내에서 캡쳐된 제2 영역은 상기 제2 이미지 데이터의 함수로서 결정됨 ― ,
    상기 제2 영역 내에서 상기 제1 영역의 배치를 결정하도록 구성되는 프로세서
    를 포함하고,
    상기 트리거 코맨드의 수신 시에, 상기 제2 센서(140)는 상기 제2 센서(140)의 제2 가시 범위 내에서 상기 사용자의 눈에 의해 시청된 상기 제1 영역의 배치의 함수로서 상기 MRRoD를 캡쳐하도록 구성되는 전자 디바이스(200).
  20. 프로세서(105)에 의해 실행가능한 명령어들의 세트를 포함하는 컴퓨터 판독가능한 저장 매체(110)로서,
    상기 명령어들의 세트는:
    제1 센서(135)의 제1 가시 범위 내에서 제1 이미지 데이터를 획득하고;
    상기 제1 이미지 데이터의 함수로서 사용자의 눈에 의해 시청된 제1 영역을 결정하고;
    제2 센서(140)의 제2 가시 범위 내에서 제2 이미지 데이터를 획득하고;
    상기 제2 이미지 데이터의 함수로서 상기 제2 가시 범위 내에서 캡쳐된 제2 영역을 결정하고;
    상기 제2 영역 내에서 상기 제1 영역의 배치를 결정하고;
    목표 MRRoD의 캡쳐를 개시하기 위한 적어도 하나의 눈 제스쳐를 포함하는 데이터 캡쳐 트리거 코맨드를 상기 제1 센서를 통해 검출하고; 그리고
    상기 트리거 코맨드가 수신될 때, 상기 제2 센서(140)의 제2 가시 범위를 나타내는 상기 제2 영역 내에서 상기 사용자의 눈에 의해 시청된 상기 제1 영역의 배치의 함수로서 상기 제2 센서(140)를 사용하여 상기 MRRoD를 캡쳐하도록 동작가능한, 컴퓨터 판독가능한 저장 매체(110).
  21. 제1항에 있어서,
    상기 제2 이미지 데이터는, 상기 제2 센서를 활성화시키기 위한 적어도 또 다른 눈 제스쳐를 포함하는 데이터 캡쳐 활성화 코맨드를 상기 제1 센서를 통해 검출하는 단계에 응답하여 획득되는, 방법.
KR1020147036141A 2012-06-29 2013-06-10 눈 추적 데이터 트리거 배열에 대한 디바이스 및 방법 KR101632530B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/537,338 US9971400B2 (en) 2012-06-29 2012-06-29 Device and method for eye tracking data trigger arrangement
US13/537,338 2012-06-29
PCT/US2013/044900 WO2014004058A1 (en) 2012-06-29 2013-06-10 Device and method for eye tracking data trigger arrangement

Publications (2)

Publication Number Publication Date
KR20150022888A KR20150022888A (ko) 2015-03-04
KR101632530B1 true KR101632530B1 (ko) 2016-06-21

Family

ID=48699289

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020147036141A KR101632530B1 (ko) 2012-06-29 2013-06-10 눈 추적 데이터 트리거 배열에 대한 디바이스 및 방법

Country Status (6)

Country Link
US (1) US9971400B2 (ko)
KR (1) KR101632530B1 (ko)
CA (1) CA2876412C (ko)
DE (1) DE112013003271T5 (ko)
GB (1) GB2517629B (ko)
WO (1) WO2014004058A1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9971400B2 (en) 2012-06-29 2018-05-15 Symbol Technologies, Llc Device and method for eye tracking data trigger arrangement
GB2526515A (en) * 2014-03-25 2015-12-02 Jaguar Land Rover Ltd Image capture system
US10715468B2 (en) * 2015-03-27 2020-07-14 Intel Corporation Facilitating tracking of targets and generating and communicating of messages at computing devices
CN105892642A (zh) * 2015-12-31 2016-08-24 乐视移动智能信息技术(北京)有限公司 一种根据眼部动作对终端进行控制的方法及装置
US9990524B2 (en) 2016-06-16 2018-06-05 Hand Held Products, Inc. Eye gaze detection controlled indicia scanning system and method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060208085A1 (en) * 2005-03-18 2006-09-21 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Acquisition of a user expression and a context of the expression
US20110001695A1 (en) * 2009-07-06 2011-01-06 Toshiba Tec Kabushiki Kaisha Wearable terminal device and method of controlling the wearable terminal device

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5517021A (en) 1993-01-19 1996-05-14 The Research Foundation State University Of New York Apparatus and method for eye tracking interface
TW395121B (en) 1996-02-26 2000-06-21 Seiko Epson Corp Personal wearing information display device and the display method using such device
US7406214B2 (en) 1999-05-19 2008-07-29 Digimarc Corporation Methods and devices employing optical sensors and/or steganography
US7760905B2 (en) 1999-06-29 2010-07-20 Digimarc Corporation Wireless mobile phone with content processing
US20040174497A1 (en) * 2003-03-07 2004-09-09 Manish Sharma Method and system for controlling the movement of a device
US7963652B2 (en) 2003-11-14 2011-06-21 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
EP1696363A3 (en) 2005-02-25 2009-04-22 Psion Teklogix Systems Inc. Hand-free data acquisition system
US7860382B2 (en) * 2006-10-02 2010-12-28 Sony Ericsson Mobile Communications Ab Selecting autofocus area in an image
US20100149073A1 (en) * 2008-11-02 2010-06-17 David Chaum Near to Eye Display System and Appliance
US8531394B2 (en) * 2010-07-23 2013-09-10 Gregory A. Maltz Unitized, vision-controlled, wireless eyeglasses transceiver
US9971400B2 (en) 2012-06-29 2018-05-15 Symbol Technologies, Llc Device and method for eye tracking data trigger arrangement

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060208085A1 (en) * 2005-03-18 2006-09-21 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Acquisition of a user expression and a context of the expression
US20110001695A1 (en) * 2009-07-06 2011-01-06 Toshiba Tec Kabushiki Kaisha Wearable terminal device and method of controlling the wearable terminal device

Also Published As

Publication number Publication date
KR20150022888A (ko) 2015-03-04
CA2876412A1 (en) 2014-01-03
US9971400B2 (en) 2018-05-15
US20140002343A1 (en) 2014-01-02
GB2517629A (en) 2015-02-25
DE112013003271T5 (de) 2015-04-23
GB2517629B (en) 2020-03-25
WO2014004058A4 (en) 2014-03-06
CA2876412C (en) 2018-07-03
WO2014004058A1 (en) 2014-01-03

Similar Documents

Publication Publication Date Title
US11283979B2 (en) Mobile device case and techniques for multi-view imaging
US10102676B2 (en) Information processing apparatus, display apparatus, information processing method, and program
CN206193814U (zh) 使用具有嵌入式相机的可穿戴设备的条形码扫描系统
US11140336B2 (en) Fast video capture and sensor adjustment
KR101632530B1 (ko) 눈 추적 데이터 트리거 배열에 대한 디바이스 및 방법
US9250660B2 (en) “HOME” button with integrated user biometric sensing and verification system for mobile device
KR102296396B1 (ko) 비접촉 체온 측정 시 정확도를 향상시키기 위한 장치 및 방법
EP2843510B1 (en) Method and computer-readable recording medium for recognizing an object using captured images
CN105705993B (zh) 利用面部检测来控制摄像机
JP2016126797A (ja) 加速度に基づく動き許容および予測符号化
JP6105953B2 (ja) 電子機器、視線入力プログラムおよび視線入力方法
JP5258399B2 (ja) 画像投影装置及びその制御方法
US20130250086A1 (en) Automatic magnification of data on display screen based on eye characteristics of user
US9092684B1 (en) Wearable system for, and method of, electro-optically reading a symbol at which a user's finger is generally pointed
KR101671137B1 (ko) 영상 촬영 장치 및 그 방법
EP3427472B1 (en) Image capturing method and electronic device supporting the same
US7764320B1 (en) Portable imaging system for multimode camera with different focal length lens and fixed or moveable image sensors
CN110852251A (zh) 电子设备
JP2017103657A (ja) 撮像装置、撮像方法、及び撮像装置用コンピュータプログラム
TW201807540A (zh) 信息處理系統、操作方法及操作程序
US20140152791A1 (en) Mobile Device Biometric Sensor Apparatus
JP2014160412A (ja) 閲覧装置及び閲覧システム
JP2012128759A (ja) 情報読取装置
KR100788499B1 (ko) 광 포인팅 장치 및 이를 구비한 휴대 단말기
JP2021179733A (ja) 装着装置、処理方法、プログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant