KR102304308B1 - 시선 조정 메커니즘을 갖춘 전자 시스템 및 그 작동 방법 - Google Patents

시선 조정 메커니즘을 갖춘 전자 시스템 및 그 작동 방법 Download PDF

Info

Publication number
KR102304308B1
KR102304308B1 KR1020150170078A KR20150170078A KR102304308B1 KR 102304308 B1 KR102304308 B1 KR 102304308B1 KR 1020150170078 A KR1020150170078 A KR 1020150170078A KR 20150170078 A KR20150170078 A KR 20150170078A KR 102304308 B1 KR102304308 B1 KR 102304308B1
Authority
KR
South Korea
Prior art keywords
image
reflective film
image capture
display
electronic system
Prior art date
Application number
KR1020150170078A
Other languages
English (en)
Other versions
KR20160093535A (ko
Inventor
마이클 에이. 클루그
헨리 홀츠만
마이클 래핀스키
폰 카프리 아네트 프라인
정재우
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of KR20160093535A publication Critical patent/KR20160093535A/ko
Application granted granted Critical
Publication of KR102304308B1 publication Critical patent/KR102304308B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/18Diffraction gratings
    • G02B5/1842Gratings for image generation
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21VFUNCTIONAL FEATURES OR DETAILS OF LIGHTING DEVICES OR SYSTEMS THEREOF; STRUCTURAL COMBINATIONS OF LIGHTING DEVICES WITH OTHER ARTICLES, NOT OTHERWISE PROVIDED FOR
    • F21V7/00Reflectors for light sources
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/28Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for polarising
    • G02B27/283Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for polarising used for beam splitting or combining
    • G02B27/285Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for polarising used for beam splitting or combining comprising arrays of elements, e.g. microprisms
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/30Polarising elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N5/225
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • H04N7/144Constructional details of the terminal equipment, e.g. arrangements of the camera and the display camera and display on the same optical axis, e.g. optically multiplexing the camera and display for eye to eye contact

Abstract

전자 시스템은 반사 각에서 반사 격자 스펙트럼에 속하는 이미지를 반사하도록 구성된 회절 격자를 포함하는 반사 필름 및 디바이스 오리엔테이션에 위치하여 반사 필름으로부터 반사된 이미지를 캡쳐하는 이미지 캡쳐 유닛을 포함한다.

Description

시선 조정 메커니즘을 갖춘 전자 시스템 및 그 작동 방법 {ELECTRONIC SYSTEM WITH GAZE ALIGNMENT MECHANISM AND METHOD OF OPERATION THEREOF}
본 개시의 실시예는 일반적으로 전자 시스템, 보다 구체적으로 시선 조정 메커니즘을 갖춘 시스템에 관한 것이다.
현대 소비재와 산업 전자 제품들, 특히 스마트 폰, 테블릿, 웹 캠을 장착한 랩탑과 같은 통신 디바이스 및 비디오 컨퍼런스 시스템은 상호 작용 편리화를 포함하여 현대 생활을 지원하는 업그레이드된 기능들을 제공하고 있다. 이러한 기술에 대한 연구 개발은 무수히 많은 다른 방향에서 이루어질 수 있다.
사용자는 통신 디바이스의 증가로 더 많은 능력을 갖게 되었고, 신구의 패러다임들은 이러한 새로운 디바이스 공간을 이용하기 시작했다. 이러한 새로운 디바이스 공간의 이용 기회에 대한 많은 기술적 솔루션이 제공되고 있다. 그러나, 그러한 디바이스를 사용한 비디오 통신은 종종 송신자와 수신자 모두에게 어색하고 비인간적인 느낌을 준다.
따라서 오늘날의 통신 수요를 충족시킬 수 있는 시선 조정 메커니즘을 갖춘 전자 시스템에 대한 수요는 여전히 존재한다. 지속적으로 증가하는 상업 경쟁의 압박이라는 측면에서, 증가하는 소비자의 요구와 함께 시장에서 의미 있는 제품 차별화의 기회는 줄어들고 있고, 이러한 문제에 대한 답을 찾는 것은 더욱 어렵다.
또한, 원가 절감의 필요, 효율과 퍼포먼스(performance)의 개선, 그리고 경쟁력 강화를 위해서 이러한 문제에 대한 해결책 모색의 필요성은 훨씬 더 급박해 졌다. 이러한 문제들에 대한 해결책은 오랫동안 모색되어 왔지만 선행 개발은 어떠한 해결책도 가르치거나 제시하지 않았고, 이러한 문제에 대한 해결책은 당업자에게 오랫동안 성취되지 않았다.
본 실시예들은 시선 조정 메커니즘을 갖춘 전자 시스템 및 그 작동 방법을 제공하고자 한다.
본 개시의 일 실시예는 반사 각에서 반사 격자 스펙트럼에 속하는 이미지를 반사하도록 구성된 회절 격자를 포함하는 반사 필름 및 디바이스 오리엔테이션에 위치하여 상기 반사 필름으로부터 반사된 상기 이미지를 캡쳐하는 이미지 캡쳐 유닛을 포함하는 전자 시스템을 제공한다.
상기 전자 시스템은 상기 반사 필름의 제1 엣지에 위치하여 상기 반사 필름과 미러링 각을 형성하는 미러를 더 포함하고, 상기 반사 필름은 상기 미러로 상기 이미지를 반사하고, 상기 이미지 캡쳐 유닛은 상기 제1 엣지의 반대 쪽인 제2 엣지에 위치하고, 상기 미러링 각에 맞추어 조정된 상기 디바이스 오리엔테이션의 다른 인스턴스에서 상기 미러로부터 반사된 이미지를 캡쳐할 수 있다.
또한, 상기 전자 시스템은 상기 반사 격자 스펙트럼에 대응하는 노치 필터 스펙트럼을 기초로, 상기 반사 필름에 연결된 디스플레이 인터페이스의 디스플레이 빛으로부터 상기 이미지를 분리하는 노치 필터를 더 포함하고, 상기 노치 필터는 상기 이미지 캡쳐 유닛의 렌즈에 부착될 수 있다.
상기 전자 시스템은 상기 반사 필름과 떨어져 조명 빛을 방출하도록 구성된 광원을 더 포함하고, 상기 조명 빛은 상기 반사 격자 스펙트럼에 대응하는 조명 스펙트럼에 속할 수 있다.
상기 전자 시스템은 상기 이미지 캡쳐 유닛의 렌즈에 연결되어, 상기 반사 필름에 연결된 디스플레이 인터페이스에 의해 생성된 편광을 흡수하는 편광 프리즘을 더 포함할 수 있다.
상기 이미지 캡쳐 유닛은 어레이 포지션에 위치하는 상기 이미지 캡쳐 유닛의 다른 인스턴스들을 포함하는 이미지 캡쳐 어레이 내부에 존재하여, 상기 반사 필름으로부터 반사된 상기 이미지를 캡쳐할 수 있다.
상기 반사 필름은, 상기 반사 필름에 연결된 디스플레이 인터페이스로부터의 디스플레이 빛을 통과시키는 반면, 상기 이미지를 반사할 수 있다.
본 개시의 일 실시예는 반사 각에서 반사 격자 스펙트럼에 속하는 회절 격자를 포함하는 반사 필름으로 이미지를 반사하는 단계 및 상기 반사 필름으로부터 반사된 상기 이미지를 디바이스 오리엔테이션에 위치한 이미지 캡쳐 유닛으로 캡쳐하는 단계를 포함하는 전자 시스템 작동 방법을 제공한다.
상기 전자 시스템은 상기 이미지 캡쳐 유닛에 연결되어, 상기 이미지 캡쳐 유닛에 의해 캡쳐된 상기 이미지에 이미지 프로세싱 메커니즘을 적용하는 제어부를 더 포함할 수 있다.
본 개시의 일 실시예는 반사 격자 스펙트럼에 속하는 이미지를 반사하는 단계 및 제어부에 의해, 반사 각에서 반사 필름으로부터 반사되고, 반사각에 맞추어 조정된 디바이스 오리엔테이션에서 이미지 캡쳐 유닛에 의해 캡쳐된, 상기 이미지를 처리하기 위하여 상기 이미지에 이미지 프로세싱 메커니즘을 적용하는 단계를 포함하는 다른 전자 시스템 작동 방법을 제공한다.
상기 전자 시스템 작동 방법은 상기 반사 필름으로부터 반사된 상기 이미지를 상기 반사 필름의 제1 엣지에 위치한 미러로 반사하는 단계 및 상기 제1 엣지의 반대쪽 또는 옆에 존재하는 제2 엣지에 위치한 상기 이미지 캡쳐 유닛으로 미러링 각에 맞추어 조정된 상기 디바이스 오리엔테이션의 다른 인스턴스에서 상기 미러로부터 반사된 상기 이미지를 캡쳐하는 단계를 더 포함하고, 상기 미러는 상기 반사 필름과 상기 미러링 각을 형성할 수 있다.
상기 전자 시스템 작동 방법은 상기 반사 격자 스펙트럼에 대응하는 노치 필터 스펙트럼을 기초로, 노치 필터로 상기 반사 필름에 연결된 디스플레이 인터페이스의 디스플레이 빛으로부터 상기 이미지를 분리하는 단계를 더 포함하고, 상기 노치 필터는 상기 이미지 캡쳐 유닛의 렌즈에 부착할 수 있다.
상기 전자 시스템 작동 방법은 상기 반사 필름과 떨어진 광원으로 조명 빛을 방출하는 단계를 더 포함하고, 상기 조명 빛은 상기 반사 격자 스펙트럼에 대응하는 조명 스펙트럼에 속할 수 있다.
상기 전자 시스템 작동 방법은 상기 이미지 캡쳐 유닛의 렌즈에 연결된 편광 프리즘으로 상기 반사 필름에 연결된 디스플레이 인터페이스에 의해 생성된 편광을 흡수하는 단계를 더 포함할 수 있다.
상기 전자 시스템 작동 방법은 상기 이미지 캡쳐 유닛은 하나의 어레이 포지션에 위치하는 상기 이미지 캡쳐 유닛의 다른 인스턴스들을 포함하는 이미지 캡쳐 어레이 내부에 존재하여, 상기 반사 필름으로부터 반사된 상기 이미지를 캡쳐할 수 있다.
상기 전자 시스템 작동 방법은 상기 이미지 캡쳐 유닛에 연결된 제어부로, 상기 이미지 캡쳐 유닛에 의해 캡쳐된 상기 이미지에 이미지 프로세싱 메커니즘을 적용하는 단계를 더 포함할 수 있다.
상기 전자 시스템 작동 방법은 상기 반사 필름으로, 상기 반사 필름에 연결된 디스플레이 인터페이스로부터의 디스플레이 빛은 통과시키는 반면, 상기 이미지를 반사하는 계를 더 포함할 수 있다.
본 개시의 일 실시예는 반사 격자 스펙트럼에 속하는 이미지를 반사하는 단계 및 제어부에 의해, 반사 각에서 반사 필름으로부터 반사되고, 반사각에 맞추어 조정된 디바이스 오리엔테이션에서 이미지 캡쳐 유닛에 의해 캡쳐된, 상기 이미지를 처리하기 위하여 상기 이미지에 이미지 프로세싱 메커니즘을 적용하는 단계를 포함하는 전자 시스템 작동 방법을 제공한다.
상기 전자 시스템 작동 방법은 상기 이미지 캡쳐 유닛을 향하여 미러링 각에서 상기 이미지를 반사하기 위하여, 미러로부터 반사된 상기 이미지에 상기 이미지 프로세싱 메커니즘을 적용하는 단계를 더 포함할 수 있다.
상기 전자 시스템 작동 방법은 상기 반사 필름에 연결된 디스플레이 인터페이스 상에 디스플레이된 디스플레이 스펙트럼에 속하는 디스플레이 빛을 식별하는 단계를 더 포함하고, 상기 이미지 프로세싱 매커니즘을 적용하는 단계는, 상기 디스플레이 스펙트럼, 상기 반사 격자 스펙트럼 또는 그들의 조합을 기초로 상기 디스플레이 빛으로부터 상기 이미지를 분리하는 단계를 포함할 수 있다.
상기 전자 시스템 작동 방법은 시청자 위치를 결정하는 단계 및 상기 반사 필름에 의해 반사된 상기 이미지를 캡쳐하기 위하여, 상기 시청자 위치에 대응하는 어레이 포지션을 기초로, 하나의 이미지 캡쳐 어레이 안의 상기 어레이 포지션에서 이미지 캡쳐 유닛을 식별하는 단계를 더 포함할 수 있다.
본 개시의 어떤 실시예들은 위에서 언급된 것에 더하여 또는 위에서 언급된 것 대신 다른 단계나 구성 요소를 가진다. 그 단계나 구성 요소는 첨부된 도면을 참조하고 아래의 발명의 상세한 설명을 읽음으로써 당업자에게 자명하게 될 것이다.
시선 조정 메커니즘을 갖춘 전자 시스템 및 그 작동 방법이 제공될 수 있다.
도1은 본 개시의 일 실시예에 따른 시선 조정 메커니즘을 갖춘 전자 시스템을 도시한다.
도2는 일 실시 예에 따른 전자 시스템의 블록도를 도시한다.
도3은 일 실시예에 따라 실행되는 전자 시스템의 측면도를 도시한다.
도4는 다른 일 실시예에 따라 실행되는 전자 시스템의 측면도를 도시한다.
도5는 일 실시예에 따른 전자 시스템의 다양한 스펙트럼을 도시한다.
도6은 전자 시스템의 추가적인 실시예를 도시한다.
도7은 일 실시예에 따라 실행되는 전자 시스템의 도표를 도시한다.
도8은 일 실시예에 따른 전자 시스템의 제어 흐름도를 도시한다.
도9는 본 개시의 다른 일 실시예에 따른 전자 시스템 작동 방법의 흐름도를 도시한다.
도10은 본 개시의 또 다른 일 실시예에 따른 전자 시스템 작동 방법의 흐름도를 도시한다.
본 개시의 실시예들은 비디오 통신 또는 비디오 컨퍼런스 시스템에 포함된 시선 조정 문제를 해결하기 위하여 비용적으로 더 효율적인 해결책을 제공할 수 있다. 예를 들어, 본 개시의 반사 필름은 디스플레이 인터페이스의 스크린이나 표면에 직접적으로 라미네이트되거나 접착될 수 있다. 이를 통해 디스플레이 제작자는 시선 조정 문제를 해결하기 위하여 설비를 재구성하지 않아도 되고, 기존의 제조 설비나 프로세스를 변경하지 않을 수 있게 되었다.
본 개시의 실시예들은 또한 시선 조정 문제를 해결하기 위하여 더 확장 가능한 해결책을 제공할 수 있다. 예를 들어, 본 개시의 반사 필름 사이즈는 디스플레이 스크린 규격에 맞게 확대 혹은 축소될 수 있다. 또한, 반사 필름은 사람과 같은 사이즈의 디스플레이 인터페이스를 포함하여 디스플레이 인터페이스에 맞게 채택될 수 있다.
또한 본 개시의 실시예들은 제1 사용자의 시선을 제2 사용자의 시선에 맞게 조정하기 위하여 더 효율적이면서도 덜 거슬리는 시스템을 제공할 수 있다. 예를 들어, 본 개시의 반사 필름은 디스플레이 인터페이스 및 노치 필터(notch filter)에 라미네이트되어 용이하게 이미지 캡쳐 유닛의 렌즈에 접착될 수 있다. 빔 스플리터(beam splitters) 및 해프 슬리버드 미러(half-silvered mirrors)를 사용하는 다른 비디오 통신시스템과 달리, 본 개시의 구성 요소들은 가볍고, 휴대 가능하며 기존의 하드웨어 및 소프트웨어를 이용할 수 있다.
본 개시의 실시예들은 또한, 사용자 고유의 시차 관점을 제공함으로써 비디오 통신 시스템에 대한 사용자 경험을 향상시킬 수 있다. 예를 들어, 시청자 위치의 제1 사용자가 변경됨에 따라 디스플레이 인터페이스에 디스플레이된 제2 사용자의 이미지 관점도 변경된다. 제1 사용자 및 제2 사용자에게 이러한 시차 기능을 제공하는 것은 본 개시가 현실에서의 직접 대화를 더욱 근접하게 모방하도록 해준다.
설명을 위하여 본 개시에서 “수직”이라는 용어는 평면이나 표면에 직각인 방향 또는 선을 의미할 수 있다. 예를 들어, 디스플레이 인터페이스에 대한 수직의 선이란 선이나 벡터와 디스플레이 인터페이스의 교차점에서 디스플레이 인터페이스에 수직인 선이나 벡터를 의미할 수 있다. “~상” 라는 용어는 방해 물질 없이 요소들 사이에 직접 접촉하는 것을 의미할 수 있다.
또한 설명을 위하여 본 개시에서 “수평”이라는 용어는 바닥 면, 천정 또는 테이블 탑이나 데스크 탑과 같은 지지 표면에 평행한 방향 또는 선을 의미할 수 있다. 예를 들어, 수평 선이란 바닥 면, 천정 또는 디바이스가 놓여 있는 테이블 이나 책상에 평행하다는 것을 의미할 수 있다.
여기서 인용된 "모듈"이라는 용어는 본 개시에서 그 용어가 사용된 문장에 따라 소프트웨어, 하드웨어 또는 그들의 조합을 포함할 수 있다. 예를 들어, 소프트웨어는 기계어, 펌웨어, 임베디드 코드(embedded code) 그리고 응용 소프트웨어일 수 있다. 또한 하드웨어는 전기회로망, 프로세서, 컴퓨터, 집적회로, 집적회로코어, 압력 센서, 관성 센서, 미소 전자 기계 시스템(MEMS), 수동 장치 또는 그들의 조합일 수 있다.
다음의 실시예들은 충분히 자세하게 설명되므로 당업자는 본 개시를 실시하고 사용할 수 있을 것이다. 다른 실시예들도 본 공개를 기초로 분명해질 것이고, 시스템적, 프로세스적 또는 기계적 변화가 본 개시의 실시예 범위 내에서 이루어 질 수 있다.
다음의 설명에서는 수많은 구체적인 설명이 본 개시의 전체적인 이해를 돕기 위하여 제공될 것이다. 그러나 이러한 구체적 설명 없이도 발명이 실시될 수 있음은 명백하다. 본 개시의 실시예를 이해하기 힘들게 하지 않기 위하여, 주지의 서큇(circuits), 시스템 컨피겨레이션(system configurations), 그리고 과정 단계는 자세히 공개되지 않는다.
시스템의 실시예들을 도시하는 도면은 간이 도표이고, 특히 어떤 치수는 표현의 명확성을 위하여 비율에 따라 제공(scale)되지 않으며, 도면에서 과장되어 도시된다. 이와 유사하게, 비록 설명의 용이를 위하여 도면의 도시는 일반적으로 비슷한 방향을 보여주지만, 도면에서의 묘사는 대부분의 경우에 임의적이다. 일반적으로 상기 발명은 어떤 방향에서도 작동될 수 있다.
이제 도1을 보면, 도1은 본 개시의 일 실시예에 따른 시선 조정 메커니즘을 갖춘 전자 시스템을 도시한다. 전자 시스템(100)은 클라이언트 디바이스와 같은 제1 디바이스(101) 및 제2 디바이스(102)를 포함할 수 있고, 제1 디바이스(101) 및 제2 디바이스는 서버 디바이스와 같은 제3 디바이스(103)에 연결될 수 있다. 제1 디바이스(101), 제2 디바이스(102) 및 제3 디바이스(103)은 유무선 네트워크와 같은 통신망(104)을 통하여 서로 통신할 수 있다.
설명을 위하여, 전자 디바이스(100)는 디스플레이 디바이스로서의 제1 디바이스(101) 및 제2 디바이스(102)를 가진 것으로 묘사되었으나, 제1 디바이스(101) 및 제2 디바이스(102) 또는 그들의 조합은 다른 형태의 디바이스일 수 있다. 예를 들어, 제1 디바이스(101) 및 제2 디바이스(102) 또는 그들의 조합은 또한 랩 탑, 테블릿 디바이스, 모바일 디바이스, 휴대 전화, 스마트 폰, 홀로 그래픽 프리젠테이션 디바이스(holographic presentation device), 가상 현실 디바이스, 비디오 컨퍼런스 디바이스 또는 다른 멀티 기능 디바이스일 수 있다. 또한 예를 들어, 제1 디바이스(101) 및 제2 디바이스(102) 또는 그들의 조합은 서버 또는 중앙 집중형 컴퓨팅 디바이스(centralized computing device)를 포함할 수 있다. 제1 디바이스(101) 및 제2 디바이스(102) 또는 그들의 조합은 유무선 네트워크와 같은 통신망(104)을 통하여 제3 디바이스(103)과 통신할 수 있다.
제3 디바이스(103)은 또한 모바일 디바이스일 수도 있고 모바일 디바이스가 아닐 수도 있다. 예를 들어, 제3 디바이스(103)는 스마트 폰, 테블릿 디바이스, 휴대 전화, 웨어러블 디바이스, 노트북 컴퓨터, 씬 클라이언트 디바이스(thin client device), 멀티 기능 모바일 통신 또는 환경 디바이스 또는 그들의 조합일 수 있다.
제3 디바이스(103)은 또한 중앙 집중식 컴퓨팅 디바이스 또는 분산 컴퓨팅 디바이스와 같이 모바일 디바이스가 아닐 수도 있다. 예를 들어, 제3 디바이스(103)는 데스크 탑, 그리드 컴퓨팅 리소스, 서버, 서버 팜(server farm), 가상 컴퓨팅 리소스, 클라우드 컴퓨팅 리소스, 라우터, 스위치, 피어 투 피어 분선 컴퓨팅 리소스(peer-to-peer distributed computing resource) 또는 그들의 조합일 수 있다.
제3 디바이스(103)는 한 공간에 중앙 집중형으로 있을 수도 있고, 서로 다른 공간에 분산되어 있을 수도 있으며, 지리적으로 떨어진 위치에 분산되어 있을 수도 있고, 원거리 통신 네트워크(telecommunications network) 내에 임베디드 되어 있을 수도 있다. 예를 들어, 제3 디바이스(103)는 메인프레임, 서버, 클러스터 서버, 랙 마운티드 서버(rack mounted server) 또는 블레이드 서버(blade server) 또는 더 구체적인 예로 IBM 시스템 z10™ 비즈니스 메인프레임 또는 HP ProLiant ML™ 서버와 같은 특화된 기계일 수 있다. 제3 디바이스(103)은 통신망(104)를 통하여 제1 디바이스(101) 및 제2 디바이스(102) 또는 그들의 조합과 통신할 수 있다.
설명을 위하여, 전자 디바이스(100)는 서버 또는 중앙 집중형 컴퓨팅 디바이스로서의 제3 디바이스(103)를 가진 것으로 묘사되었으나, 제3 디바이스(103)는 이미지 디스플레이를 위한 디바이스 형태를 포함할 수 있다.
또한, 설명을 위하여 전자 시스템(100)은 통신망(104)의 엔드 포인트(end points)로 제1 디바이스(101), 제2 디바이스(102) 및 제3 디바이스(103)를 제시하였으나, 전자 시스템(100)은 제1 디바이스(101), 제2 디바이스(102), 제3 디바이스(103) 및 통신망(104)의 다른 분할을 가질 수 있다. 예를 들어, 제1 디바이스(101), 제2 디바이스(102), 제3 디바이스(103) 또는 그들의 조합은 통신망(104)의 일부로 기능할 수도 있다.
통신망(104)은 다양한 형태의 네트워크일 수 있다. 예를 들어, 통신망(104)은 무선 통신, 유선 통신, 광, 초음파 또는 그들의 조합을 포함할 수 있다. 위성 통신, 이동 통신, 블루투스, IrDA(Infrared Data Association standard), 와이파이, WiMAX(worldwide interoperability for microwave access)는 통신망(104)이 포함할 수 있는 무선 통신의 예이다. 이더넷, DSL(digital subscriber line), FTTH(fiber to the home), POTS(plain old telephone service)는 통신망(104)이 포함할 수 있는 유선 통신의 예이다.
또한, 통신망(104)은 수많은 네트워크 토폴로지 및 거리를 가로지를 수 있다. 예를 들어, 통신망(104)은 직접 연결, PAN(personal area network), LAN(local area network), MAN(metropolitan area network), WAN(wide area network) 또는 그들의 조합을 포함할 수 있다.
도2는 일 실시 예에 따른 전자 시스템의 블록도를 도시한다. 전자 시스템(100)은 제1 디바이스(101) 및 제2 디바이스(102), 통신망(104) 및 제3 디바이스(103)를 포함할 수 있다. 제1 디바이스(101)은 통신망(104)을 통하여 제1 디바이스 전송기(208)에서 제2 디바이스(102) 및 제3 디바이스(103) 또는 그들의 조합으로 정보를 송신할 수 있다. 제2 디바이스(102)는 통신망(104)을 통하여 제2 디바이스 전송기(210)에서 제1 디바이스(101) 및 제3 디바이스(103) 또는 그들의 조합으로 정보를 송신할 수 있다. 제3 디바이스(103)은 통신망(104)을 통하여 제3 디바이스 전송기(211)에서 제1 디바이스(101) 및 제2 디바이스(102) 또는 그들의 조합으로 정보를 송신할 수 있다.
본 개시에 대한 이 실시예의 간결한 설명을 위하여, 제1 디바이스(101) 및 제2 디바이스(102)는 클라이언트 디바이스로 설명되었고, 제3 디바이스(103)는 서버 디바이스로 설명되었다. 본 개시의 실시예들은 이러한 형태의 디바이스 선택으로 한정되는 것은 아니다. 본 실시예의 선택은 본 개시에 대한 실시예의 일 예시이다.
제1 디바이스(101)는 제1 제어부(212), 제1 저장 유닛(214), 제1 통신 유닛(216), 제1 사용자 인터페이스(218)를 포함할 수 있다. 제1 제어부(212)는 제1 제어 인터페이스(222)를 포함할 수 있다. 제1 제어부(212)는 제1 소프트웨어(226)를 실행하여 전자 시스템(100)에 지능을 제공할 수 있다. 제1 제어부(212)는 많은 다른 방식으로 실행될 수 있다.
예를 들어, 제1 제어부(212)는 프로세서, 임베디드 프로세서 ASIC(application specific integrated circuit), 마이크로프로세서, 하드웨어 컨트롤 로직(hardware control logic), FSM(hardware finite state machine), DSP(digital signal processor) 또는 그들의 조합일 수 있다. 제1 제어 인터페이스(222)는 제1 제어부(212)와 제1 디바이스(101)의 다른 기능 유닛 간의 통신을 위하여 사용될 수 있다. 제1 제어 인터페이스(222)는 또한 제1 디바이스(101) 외부와의 통신을 위하여 사용될 수도 있다.
제1 제어 인터페이스(222)는 다른 기능 유닛 또는 외부 소스로부터 정보를 수신하거나 다른 기능 유닛 또는 외부 목적지로 정보를 송신할 수 있다. 외부 소스와 외부 목적지는 제1 디바이스(101)의 외부에 있는 소스와 목적지를 의미한다.
제1 제어 인터페이스(222)는 여러 방식으로 실행될 수 있고, 어떤 기능 유닛 또는 외부 유닛이 제1 제어 인터페이스(222)와 인터페이스 되는 지에 따라 다른 실행을 포함할 수 있다. 예를 들어, 제1 제어 인터페이스(222)는 압력 센서, 관성 센서, MEMS(microelectromechanical system), 광학 회로, 도파관(waveguides), 무선 회로, 유선 회로 또는 그들의 조합과 함께 실행될 수 있다.
제1 저장 유닛(214)은 제1 소프트웨어(226)를 저장할 수 있다. 제1 저장 유닛(214)은 또한 광고, POI(points of interest), 네비게이션 라우팅 입력 또는 그들의 조합과 같은 관련 정보를 저장할 수 있다. 관련 정보는 또한 제3 컨텐트 제공자로부터 제공되는 뉴스, 미디어, 이벤트 또는 그들의 조합을 포함할 수 있다.
제1 저장 유닛(214)은 휘발성 메모리, 비휘발성 메모리, 내부 메모리, 외부 메모리 또는 그들의 조합일 수 있다. 예를 들어, 제1 저장 유닛(214)은 NVRAM(non-volatile random access memory), 플래쉬 메모리, 저장 디스크(disk storage)와 같은 비휘발성 메모리이거나 또는 SRAM(static random access memory)과 같은 휘발성 메모리일 수도 있다.
제1 저장 유닛(214)은 제1 저장 인터페이스(224)를 포함할 수 있다. 제1 저장 인터페이스(224)는 제1 디바이스(101)에 있는 다른 기능 유닛들 사이의 통신을 위하여 사용될 수 있다. 제1 저장 인터페이스(224)는 또한 제1 디바이스(101) 외부와의 통신을 위하여 사용될 수도 있다.
제1 저장 인터페이스(224)는 다른 기능 유닛이나 외부 소스로부터 정보를 수신하거나 다른 기능 유닛이나 외부 목적지로 정보를 송신할 수 있다. 외부 소스와 외부 목적지는 제1 디바이스(101) 외부의 소스나 목적지를 말한다.
제1 저장 인터페이스(224)는 제1 저장 유닛(214)과 인터페이스 되는 기능 유닛이나 외부 유닛에 따라 다른 실행을 포함할 수 있다. 제1 저장 인터페이스(224)는 제1 제어 인터페이스(222)의 실행과 유사한 테크놀로지와 테크닉으로 실행될 수 있다.
제1 통신 유닛(216)은 제1 디바이스(101)와의 외부 통신을 가능하게 할 수 있다. 예를 들어, 제1 통신 유닛(216)은 제1 디바이스(101)가 주변 장치나 데스크 탑 컴퓨터와 같은 도1의 제2 디바이스(102), 주변 장치와 같은 부가 장치, 컴퓨터 데스크 탑, 통신망(104)과 통신하도록 할 수 있다.
제1 통신 유닛(216)은 또한 제1 디바이스(101)가 통신망(104)의 끝 점이나 터미널 유닛으로 한정되지 않고 통신망(104)의 일부로 기능하게 해주는 통신허브로 기능할 수 있다. 제1 통신 유닛(216)은 통신망(104)과 교신을 위하여 마이크로일렉트로닉스(microelectronics), 안테나와 같은 능동적 컴포넌트 및 수동적 컴포넌트들을 포함할 수 있다.
제1 통신 유닛(216)은 제1 통신 인터페이스(228)를 포함할 수 있다. 제1 통신 인터페이스(228)는 제1 통신 유닛(216)과 제1 디바이스(101)의 다른 기능 유닛과의 통신을 위하여 사용될 수 있다. 제1 통신 인터페이스(228)는 다른 기능 유닛으로부터 정보를 수신할 수 있고, 다른 기능 유닛으로 정보를 송신할 수 있다.
제1 통신 인터페이스(228)는 제1 통신 유닛(216)과 인터페이스 되는 기능 유닛에 따라 다른 실행을 포함할 수 있다. 제1 통신 인터페이스(228)는 제1 제어 인터페이스(222)의 실행과 유사한 테크놀로지나 테크닉으로 실행될 수 있다.
제1 사용자 인터페이스(218)는 사용자(도시되지 않음)가 제1 디바이스(101)와 인터페이스하고 상호 작용하도록 해 준다. 제1 사용자 인터페이스(218)는 입력 장치와 출력 장치를 포함할 수 있다. 제1 사용자 인터페이스(218)의 입력 장치 예시는 키 패드, 터치패드, 소프트 키(soft-keys), 키보드, 마이크, 원격 신호를 수신하는 적외선 센서 또는 그들의 조합을 포함하여 데이터와 통신 입력을 제공 할 수 있다. 제1 사용자 인터페이스(218)는 제1 디스플레이 인터페이스(430)를 포함할 수 있다. 제1 디스플레이 인터페이스(430)는 디스플레이, 프로젝터, 비디오 스트린, 스피커 또는 그들의 조합을 포함할 수 있다.
제1 이미지 캡쳐 유닛(231)은 정적인 이미지, 비디오, 반사광(light reflectance), IR 서명, UV 서명 또는 그들의 조합을 캡쳐할 수 있다. 제1 이미지 캡쳐 유닛(231)은 다양한 방식으로 실행될 수 있다. 예를 들어, 제1 이미지 캡쳐 유닛(231)은 하나 혹은 그 이상의 2D 카메라, 3D 카메라, 입체 카메라(stereoscopic camera), 광 센서, 로 라이트 카메라(low-light cameras), 적외선 센서, 자외선 센서, 열 이미지 카메라(thermal imaging cameras) 또는 그들의 조합으로 실행될 수 있다. 또한, 제1 이미지 캡쳐 유닛(231)은 깊이 센서, 모션 센서, 액티브 픽셀 센서(active pixel sensor), 차지 커플드 센서(charge-coupled sensor), CMOS 센서 또는 그들의 조합을 포함할 수 있다. 더 구체적인 예로, 제1 이미지 캡쳐 유닛(231)이 2D 카메라일 경우, 제1 디바이스(101)는 컴퓨터 비전(computer vision)을 사용하여 사용자의 조인트(joint)나 바디 부분의 깊이를 계산할 수 있다.
설명을 위하여 제1 이미지 캡쳐 유닛(231)은 제1 디스플레이 인터페이스(230)과 분리된 것으로 도시하였지만, 제1 이미지 캡쳐 유닛(231)은 제1 디스플레이 인터페이스(230)의 일부를 포함하는 제1 사용자 인터페이스(218)의 어떠한 구성 요소를 포함할 수 있다.
제1 제어부(212)는 제1 사용자 인터페이스(218)를 작동하여 전자 시스템(100)에 의해 생성된 정보를 디스플레이할 수 있다. 제1 제어부(212)는 또한 전자 시스템(100)의 다른 기능을 위하여 제1 소프트웨어(226)를 실행할 수 있다. 제1 제어부(212)는 또한 제1 통신 유닛(216)을 통하여 통신망(104)과 상호작용을 하기 위하여 제1 소프트웨어(226)를 실행할 수 있다.
제2 디바이스(102)는 제2 제어부(234), 제2 저장 유닛(246), 제2 통신 유닛(236), 제2 사용자 인터페이스(238)를 포함할 수 있다. 제2 제어부(234)는 제2 소프트웨어(242)를 실행하여 전자 시스템(100)의 제2 디바이스(102)에 지능을 제공할 수 있다. 제2 제어부(234)는 다양한 다른 방식으로 실행될 수 있다.
예를 들어, 제2 제어부(234)은 프로세서, 임베디드 프로세서, 마이크로 프로세서, 하드웨어 제어 로직, FSM(hardware finite state machine), DSP(digital signal processor) 또는 그들의 조합일 수 있다. 제2 제어부(234)은 제2 제어 인터페이스(244)를 포함할 수 있다. 제2 제어 인터페이스(244)는 제2 제어부(234)과 제2 디바이스(102)에 있는 다른 기능 유닛과의 통신을 위하여 사용될 수 있다. 제2 제어 인터페이스(244)는 또한 제2 디바이스(102) 외부 통신을 위하여 사용될 수도 있다.
제2 제어 인터페이스(244)는 다른 기능 유닛이나 외부 소스로부터 정보를 수신할 수 있고, 다른 기능 유닛이나 외부 목적지로 정보를 송신할 수 있다. 외부 소스와 외부 목적지는 제2 디바이스(102) 외부의 소스와 목적지를 말한다.
제2 제어 인터페이스(244)는 다른 방식으로 실행될 수 있고, 기능 유닛이나 외부 유닛이 제2 제어 인터페이스(244)와 인터페이스 되는 것에 따라 다른 실행을 포함할 수 있다. 예를 들어, 제2 제어 인터페이스(244)는 압력 센서, 관성 센서, MEMS(microelectromechanical system), 광학 회로, 도파관(waveguides), 무선 회로, 유선 회로 또는 그들의 조합과 함께 실행될 수 있다.
제2 저장 유닛(246)은 제2 소프트웨어(242)를 저장할 수 있다. 제2 저장 유닛(246)은 또한 이미지, 오디오 파일, 비디오, 스펙트럼 정보(spectra information) 또는 그들의 조합과 같은 관련 정보를 저장할 수 있다.
제2 저장 유닛(246)은 비휘발성 메모리, 휘발성 메모리, 내부 메모리, 외부 메모리 또는 그들의 조합일 수 있다. 예를 들어, 제2 저장 유닛(246)은 NVRAM(non-volatile random access memory), 플래쉬 메모리, 디스크 저장과 같은 비휘발성 저장 장치이거나 또는 SRAM(static random access memory)과 같은 휘발성 저장 장치일 수도 있다.
제2 저장 유닛(246)은 제2 저장 인터페이스(248)를 포함할 수 있다. 제2 저장 인터페이스(248)는 제2 디바이스(102)에 있는 다른 기능 유닛들 사이의 통신을 위하여 사용될 수 있다. 제2 저장 인터페이스(248)는 또한 제2 디바이스(102) 외부와의 통신을 위하여 사용될 수도 있다.
제2 저장 인터페이스(248)는 다른 기능 유닛이나 외부 소스로부터 정보를 수신하거나 다른 기능 유닛이나 제2 디바이스(102) 외부 목적지로 정보를 송신할 수 있다. 외부 소스 및 목적지는 제2 디바이스(102)의 외부에 있는 소스 및 목적지를 의미한다.
제2 저장 인터페이스(248)는 기능 유닛이나 외부 유닛이 제2 저장 유닛(246)과 인터페이스 되는 것에 따라 다른 실행을 포함할 수 있다. 제2 저장 인터페이스(248)는 제2 제어 인터페이스(244)의 실행과 유사한 테크놀로지와 테크닉으로 실행될 수 있다.
제2 통신 유닛(236)은 제2 디바이스(102)와의 외부 통신을 가능하게 할 수 있다. 예를 들어, 제2 통신 유닛(236)은 제2 디바이스(102)가 통신망(104)을 통하여 제1 디바이스(101)와 통신하도록 할 수 있다.
제2 통신 유닛(236)은 또한 제2 디바이스(102)가 통신망(104)의 끝 점이나 터미널 유닛으로만 한정되지 않고 통신망(104)의 일부로 기능할 수 있도록 하는 통신 허브로 기능할 수 있다. 제2 통신 유닛(236)은 통신망(104)과 교신하기 위한 마이크로일렉트로닉스나 안테나와 같은 능동적, 수동적 컴포넌트들을 포함할 수 있다.
제2 통신 유닛(236)은 제2 통신 인터페이스(250)를 포함할 수 있다. 제2 통신 인터페이스(250)는 제2 통신 유닛(236)과 제2 디바이스(102)의 다른 기능 유닛과의 사이에 통신을 위하여 사용될 수 있다. 제2 통신 인터페이스(250)는 다른 기능 유닛으로부터 정보를 수신할 수 있고, 다른 기능 유닛으로 정보를 송신할 수 있다.
제2 통신 인터페이스(250)는 제2 통신 유닛(236)과 인터페이스 되는 기능 유닛에 따라 다른 실행을 포함할 수 있다. 제2 통신 인터페이스(250)는 제2 제어 인터페이스(244)의 실행과 유사한 테크놀로지와 테크닉을 실행할 수 있다.
제2 사용자 인터페이스(238)는 사용자(도시되지 않음)가 제1 디바이스(102)와 인터페이스하고 상호 작용하도록 해 준다. 제2 사용자 인터페이스(238)는 입력 장치와 출력 장치를 포함할 수 있다. 제2 사용자 인터페이스(238)의 입력 장치의 예는 제2 이미지 캡쳐 유닛(241), 마이크로폰, 키패드, 터치패드, 소프트 키, 키보드 또는 그들의 조합을 포함하여 데이터와 통신 입력을 를 제공할 수 있다.
제2 이미지 캡쳐 유닛(241)은 정적인 이미지, 비디오, 반사광(light reflectance), IR 서명, UV 서명 또는 그들의 조합을 캡쳐할 수 있다. 제2 이미지 캡쳐 유닛(241)은 다양한 방식으로 실행될 수 있다. 예를 들어, 제2 이미지 캡쳐 유닛(241)은 하나 혹은 그 이상의 2D 카메라, 3D 카메라, 입체 카메라(stereoscopic camera), 광 센서, 로 라이트 카메라(low-light cameras), 적외선 센서, 자외선 센서, 열 이미지 카메라(thermal imaging cameras) 또는 그들의 조합으로 실행될 수 있다. 또한, 제2 이미지 캡쳐 유닛(241)은 깊이 센서, 모션 센서, 액티브 픽셀 센서(active pixel sensor), 차지 커플드 센서(charge-coupled sensor), CMOS 센서 또는 그들의 조합을 포함할 수 있다. 더 구체적인 예로, 제2 이미지 캡쳐 유닛(241)이 2D 카메라일 경우, 제2 디바이스(102)는 컴퓨터 비전(computer vision)을 사용하여 사용자의 조인트(joint)나 바디 부분의 깊이를 계산할 수 있다.
제2 사용자 인터페이스(238)의 출력 장치의 예는 제2 디스플레이 인터페이스(240)를 포함할 수 있다. 제2 디스플레이 인터페이스(240)는 디스플레이, 프로젝터, 비디오 스크린, 스피커 또는 그들의 조합을 포함할 수 있다.
설명을 위하여 제2 이미지 캡쳐 유닛(241)은 제1 디스플레이 인터페이스(240)과 분리된 것으로 도시하였지만, 제2 이미지 캡쳐 유닛(241)은 제2 디스플레이 인터페이스(240)의 일부를 포함하는 제2 사용자 인터페이스(238)의 어떠한 구성 요소를 포함할 수 있다. 또한, 제2 이미지 캡쳐 유닛(241)은 제2 디바이스(102)에 내장된 것으로 도시되었지만, 제2 이미지 캡쳐 유닛(241)은 제2 디바이스(102)의 주변 또는 외부에서 실행될 수 있다.
제2 제어부(234)는 제2 사용자 인터페이스(238)를 작동하여 전자 시스템(100)에 의해 생성된 정보를 디스플레이 할 수 있다. 제1 제어부(234)는 또한 전자 시스템(100)의 다른 기능을 위하여 제2 소프트웨어(242)를 실행할 수 있다. 제2 제어부(234)는 또한 제2 통신 유닛(236)을 통하여 통신망(104)과 상호작용을 하기 위하여 제2 소프트웨어(242)를 실행할 수 있다.
제3 디바이스(103)는 제1 디바이스(101), 제2 디바이스(102) 또는 그들의 조합과 같은 복수의 디바이스가 있는 다양한 실시예를 실행하기 위하여 최적화될 수 있다. 제3 디바이스(103)는 제1 디바이스(102) 및 제2 디바이스(102) 또는 그들의 조합과 비교할 때 더 높은 퍼포먼스의 처리 능력을 제공할 수 있다. 제3 디바이스(103)는 제3 제어부(260), 제3 통신 유닛(252), 제3 사용자 인터페이스(256)을 포함할 수 있다.
제3 사용자 인터페이스(256)는 사용자(도시되지 않음)가 제3 디바이스(103)와 인터페이스하고 상호 작용하도록 해 준다. 제3 사용자 인터페이스(256)는 입력 장치와 출력 장치를 포함할 수 있다. 제3 사용자 인터페이스(256)의 입력 장치 예시는 키 패드, 터치패드, 소프트 키(soft-keys), 키보드, 또는 그들의 조합을 포함하여 데이터와 통신 입력을 제공 할 수 있다.
제3 사용자 인터페이스(256)의 출력 장치의 예는 제3 디스플레이 인터페이스(258)를 포함할 수 있다. 제3 디스플레이 인터페이스(258)는 디스플레이, 프로젝터, 비디오 스크린, 스피커 또는 그들의 조합을 포함할 수 있다.
제3 제어부(260)는 제3 소프트웨어(268)를 실행하여 전자 시스템(100)의 제3 디바이스(103)에 지능을 제공할 수 있다. 제3 소프트웨어(268)은 제1 소프트웨어(226) 및 제2 소프트웨어(242) 또는 그들의 조합과 결합하여 실행될 수 있다. 제3 제어부(260)는 제1 제어부(212) 및 제2 제어부(234) 또는 그들의 조합과 비교할 때 추가적인 퍼포먼스를 제공할 수 있다.
제3 제어부(260)는 제3 사용자 인터페이스(256)를 작동하여 전자 시스템(100)에 의해 생성된 정보를 디스플레이할 수 있다. 제3 제어부(260)는 또한 통신망(104)을 통하여 제1 디바이스(101), 제2 디바이스(102) 또는 그들의 조합과 통신하기 위하여 제3 통신 유닛(252)를 실행하는 것을 포함하여, 전자 시스템(100)의 다른 기능을 위하여 제3 소프트웨어(268)를 실행할 수 있다.
제3 제어부(260)는 다양한 방식으로 실행될 수 있다. 예를 들어, 제3 제어부(260)는 프로세서, 임베디드 프로세서, 마이크로프로세서, 하드웨어 컨트롤 로직(hardware control logic), FSM(hardware finite state machine), DSP(digital signal processor) 또는 그들의 조합일 수 있다.
제3 제어부(260)는 제3 제어 인터페이스(262)를 포함할 수 있다. 제3 제어 인터페이스(262)는 제3 제어부(260)와 제3 디바이스(103)의 다른 기능 유닛 간의 통신을 위하여 사용될 수 있다. 제3 제어 인터페이스(262)는 또한 제3 디바이스(103) 외부와의 통신을 위하여 사용될 수도 있다.
제3 제어 인터페이스(262)는 다른 기능 유닛 또는 외부 소스로부터 정보를 수신하거나 다른 기능 유닛 또는 외부 목적지로 정보를 송신할 수 있다. 외부 소스와 외부 목적지는 제3 디바이스(103)의 외부에 있는 소스와 목적지를 의미한다.
제3 제어 인터페이스(262)는 여러 방식으로 실행될 수 있고, 어떤 기능 유닛 또는 외부 유닛이 제3 제어 인터페이스(262)와 인터페이스 되는 지에 따라 다른 실행을 포함할 수 있다. 예를 들어, 제3 제어 인터페이스(262)는 압력 센서, 관성 센서, MEMS(microelectromechanical system), 광학 회로, 도파관(waveguides), 무선 회로, 유선 회로 또는 그들의 조합과 함께 실행될 수 있다.
제3 저장 유닛(264)은 제3 소프트웨어(268)를 저장할 수 있다. 제3 저장 유닛(264)은 또한 광고, POI(points of interest), 네비게이션 라우팅 입력 또는 그들의 조합과 같은 관련 정보를 저장할 수 있다. 제3 저장 유닛(264)은 제1 저장 유닛(214), 제2 저장 유닛(246) 또는 그들의 조합의 추가적인 저장 용량을 제공하기 위하여 크기를 결정할 수 있다.
설명을 위하여, 제3 저장 유닛(264)은 단일 요소로 도시되었지만, 제3 저장 유닛(264)은 저장 요소들의 배열(distribution)일 수 있다. 또한, 전자 시스템(100)은 설명을 위하여 제3 저장 유닛(264)을 싱글 하이어라키 저장 시스템으로 도시하였지만, 전자 시스템(100)은 다른 컨피켜레이션으로 제3 저장 유닛(264)을 가질 수도 있다. 예를 들어, 제3 저장 유닛(264)은 다른 레벨의 캐싱, 메인 메모리, 로테이팅 미디어(rotating media) 또는 오프라인 스토리지(off-line storage)를 포함하는 메모리 하이어라키 시스템을 형성하는 다른 저장 기술을 형성할 수 있다.
제3 저장 유닛(264)은 휘발성 메모리, 비휘발성 메모리, 내부 메모리, 외부 메모리 또는 그들의 조합일 수 있다. 예를 들어, 제3 저장 유닛(264)은 NVRAM(non-volatile random access memory), 플래쉬 메모리, 저장 디스크(disk storage)와 같은 비휘발성 메모리이거나 또는 SRAM(static random access memory)과 같은 휘발성 메모리일 수도 있다.
제3 저장 유닛(264)은 제3 저장 인터페이스(266)를 포함할 수 있다. 제3 저장 인터페이스(266)는 제3 디바이스(103)에 있는 다른 기능 유닛들 사이의 통신을 위하여 사용될 수 있다. 제3 저장 인터페이스(266)는 또한 제3 디바이스(103) 외부와의 통신을 위하여 사용될 수도 있다.
제3 저장 인터페이스(266)는 다른 기능 유닛이나 외부 소스로부터 정보를 수신하거나 다른 기능 유닛이나 외부 목적지로 정보를 송신할 수 있다. 외부 소스와 외부 목적지는 제3 디바이스(103) 외부의 소스나 목적지를 말한다.
제3 저장 인터페이스(266)는 제3 저장 유닛(264)과 인터페이스 되는 기능 유닛이나 외부 유닛에 따라 다른 실행을 포함할 수 있다. 제3 저장 인터페이스(266)는 제3 제어 인터페이스(262)의 실행과 유사한 테크놀로지와 테크닉으로 실행될 수 있다.
제3 통신 유닛(252)은 제3 디바이스(103)와의 외부 통신을 가능하게 할 수 있다. 예를 들어, 제3 통신 유닛(252)은 제3 디바이스(103)가 주변 장치나 데스크 탑 컴퓨터와 같은 제1 디바이스(101), 제2 디바이스(102) 또는 그들의 조합과 통신망(104)을 통하여 통신하도록 할 수 있다.
제3 통신 유닛(252)은 또한 제3 디바이스(103)가 통신망(104)의 끝 점이나 터미널 유닛으로 한정되지 않고 통신망(104)의 일부로 기능하게 해주는 통신허브로 기능할 수 있다. 제3 통신 유닛(252)은 통신망(104)과 교신을 위하여 마이크로일렉트로닉스(microelectronics), 안테나와 같은 능동적 컴포넌트 및 수동적 컴포넌트들을 포함할 수 있다.
제3 통신 유닛(252)은 제3 통신 인터페이스(254)를 포함할 수 있다. 제3 통신 인터페이스(254)는 제3 통신 유닛(252)과 제3 디바이스(103)의 다른 기능 유닛과의 통신을 위하여 사용될 수 있다. 제3 통신 인터페이스(254)는 다른 기능 유닛으로부터 정보를 수신할 수 있고, 다른 기능 유닛으로 정보를 송신할 수 있다.
제3 통신 인터페이스(254)는 제3 통신 유닛(252)과 인터페이스 되는 기능 유닛에 따라 다른 실행을 포함할 수 있다. 제3 통신 인터페이스(254)는 제3 제어 인터페이스(262)의 실행과 유사한 테크놀로지나 테크닉으로 실행될 수 있다.
설명을 위하여, 제3 디바이스(103)는 제3 사용자 인터페이스(256), 제3 저장 유닛(264), 제3 제어부(260), 제3 통신 유닛(252)를 가지는 파티션으로 도시되었지만, 제3 디바이스(103)는 다른 파티션을 가질 수 있다. 예를 들어, 제3 소프트웨어(268)의 기능의 일부 혹은 전부가 제3 제어부(260) 및 제3 통신 유닛(252)에 있는 다른 파티션일 수 있다. 또한, 제3 디바이스(103)는 도2에 도시된 다른 기능 유닛들을 포함할 수 있다.
제1 통신 유닛(216)은 통신망(104)과 연결되어 제1 디바이스 전송기(208)에서 제2 디바이스(102), 제3 디바이스 또는 그들의 조합으로 정보를 송신할 수 있다. 제2 디바이스(102)는 제2 통신 유닛(236)에서 통신망(104)의 제1 디바이스 전송기(208)로부터 온 정보를 수신할 수 있다. 제2 디바이스(102)는 제1 디바이스 전송기(208)를 통하여 제1 디바이스(101)로부터 온 정보를 직접 수신할 수도 있다. 또한, 제2 디바이스(102)는 통신망(104)의 제3 디바이스 전송기(211)를 통하여 제1 디바이스(101)로부터 정보를 수신할 수 있다. 제3 디바이스(103)는 제3 통신 유닛(252)에서 제1 디바이스 전송기(208)로부터 정보를 수신할 수 있다.
제2 통신 유닛(236)은 통신망(104)과 연결되어 제2 디바이스 전송기(210)에서 제1 디바이스(101), 제3 디바이스(103) 또는 그들의 조합으로 정보를 송신할 수 있다. 제1 디바이스(101)는 제1 통신 유닛(216)에서 통신망(104)의 제2 디바이스 전송기(210)로부터 온 정보를 수신할 수 있다. 제1 디바이스(101)는 제2 디바이스 전송기(210)을 통하여 제2 디바이스(102)로부터 직접 정보를 수신할 수도 있다. 또한, 제1 디바이스(101)는 제3 디바이스 전송기(211)를 통하여 제2 디바이스(102)로부터 정보를 수신할 수 있다. 제3 디바이스(103)는 제2 디바이스 전송기(210)로부터 제3 통신 유닛(252)에 정보를 수신할 수 있다.
제3 통신 유닛(252)은 통신망(104)과 연결되어 제3 디바이스 전송기(211)에서 제1 디바이스(101), 제2 디바이스(102) 또는 그들의 조합으로 정보를 송신할 수 있다. 제1 디바이스(101)는 제1 통신 유닛(216)에서 통신망(104)의 제3 디바이스 전송기(211)로부터 온 정보를 수신할 수 있다. 제2 디바이스(102)는 제2 통신 유닛(236)에서 제3 디바이스 전송기(211)로부터 의 정보를 수신할 수 있다.
제1 디바이스(101)의 기능 유닛들은 다른 기능 유닛들과 개별적이고 독립적으로 작동할 수 있다. 제1 디바이스(101)는 제2 디바이스(102), 제3 디바이스(103) 및 통신망(104)과 개별적이고 독립적으로 작동할 수 있다.
제2 디바이스(102)의 기능 유닛들은 다른 기능 유닛들과 개별적이고 독립적으로 작동할 수 있다. 제2 디바이스(102)는 제1 디바이스(101), 제3 디바이스(103) 및 통신망(104)과 개별적이고 독립적으로 작동할 수 있다.
제3 디바이스(103)의 기능 유닛들은 다른 기능 유닛들과 개별적이고 독립적으로 작동할 수 있다. 제3 디바이스(103)는 제1 디바이스(101), 제2 디바이스(102) 및 통신망(104)과 개별적이고 독립적으로 작동할 수 있다.
전자 시스템(100)은 제1 제어부(212), 제2 제어부(234), 제3 제어부(260) 또는 그들의 조합에 의하여 실행될 수 있다. 설명을 위하여, 제1 디바이스(101), 제2 디바이스(102) 및 제3 디바이스(103)의 실행으로 도시되었지만, 제1 디바이스(101), 제2 디바이스(102) 및 제3 디바이스(103)는 전자 시스템(100)의 어떠한 모듈 및 기능도 실행할 수 있다. 예를 들어, 제1 디바이스(101)는 제1 이미지 캡쳐 유닛(231)을 실행하는 것으로 도시되었지만, 제3 디바이스(103)가 제1 이미지 캡쳐 유닛(231)을 실행할 수도 있다. 또 다른 예로, 제3 디바이스(103)는 제2 이미지 캡쳐 유닛(241)을 실행하는 것으로 도시되어 있지만, 제3 디바이스(103)가 제2 이미지 캡쳐 유닛(241)을 실행할 수도 있다.
도3은 일 실시예에 따라 실행되는 전자 시스템의 측면도를 도시한다. 전자 시스템(100)은 제1 디바이스(101), 제2 디바이스(102) 또는 그들의 조합을 포함할 수 있다. 도3에 도시된 제1 디바이스(101)는 통신망(104)을 사용하여 제2 디바이스(102)와 통신할 수 있다. 또한, 제1 디바이스(101)는 도1의 제3 디바이스(103)를 통하여 제2 디바이스(102)와 통신할 수 있다. 설명을 위하여, 전자 시스템(100)은 제1 디바이스(101)의 실행으로 도시되었지만, 제2 디바이스(102)는 유사한 구성 요소를 가지고 유사한 방식으로 실행될 수 있다.
제1 디바이스(101)는 제1 디스플레이 인터페이스(230)에 부착되도록 구성된 반사 필름(302)를 포함할 수 있다. 반사 필름(302)은 앵글에 입사되는 빛의 일부를 반사하기 위한 광 전용 고분자 층(optically-redirecting polymer layer)일 수 있다. 반사 필름(302)은 반사 필름(302)의 물리적 특징을 통하여 입사되는 빛의 일부를 반사할 수 있다.
반사 필름(302)은 반사 필름(302)의 회절 격자(304)를 이용하여 빛의 일부를 반사할 수 있다. 회절 격자(304)는 다른 파장 대역의 입사광에 대한 분리, 반사, 굴절 또는 그들의 조합을 위한 주기적 또는 반복적인 표면 특징이다. 회절 격자(304)는 표면 상 혹은 반사 필름(302)의 용적 내부에 홈이 패인 형태로 혹은 그라데이트된 패턴(gradated pattern)으로 있을 수 있다.
더 구체적인 예로, 반사 필름(302)은 10 내지 30 마이크로미터의 두께를 가진 광 전용 고분자 층일 수 있다. 광 전용 고분자 층은 0.1 과 2 밀리미터 사이의 두께를 가진 PMMA(polymethylmethacrylate), PC(polycarbonate)와 같은 비활성의 기질에 적용될 수 있다. 예를 들어, 광 전용 고분자 층은 다색의 고분자, 홀로 그래픽 고분자 또는 그들의 조합일 수 있다. 더 구체적인 예로, 광 전용 고분자 층은 베이어 베이폴 필름(Bayer (TM) Bayfol film) 혹은 듀폰 옴니덱스 필름(Dupont (TM) Omnidex film)일 수 있다.
반사 필름(302)은 마운팅 메커니즘을 통하여 제1 디스플레이 인터페이스(230)에 부착될 수 있다. 마운팅 메커니즘은 접착제 및 클립, 홀더, 브레이스킷(bracket), 조인트(joint) 또는 그들의 조합과 같은 메커니컬 부착을 포함할 수 있다. 마운팅 메커니즘은 반사 필름(302)이 다른 표면을 보호하게 할 수 있다. 예를 들어, 마운팅 메커니즘은 반사 필름(302)이 제1 디스플레이 인터페이스(230)의 디스플레이 표면을 보호하도록 할 수 있다. 또 다른 예로, 마운팅 메커니즘이 접착제일 경우, 접착제는 회절 결제(304)의 반대 쪽 반사 필름(302)의 표면에 포함될 수 있다.
제1 디스플레이 인터페이스(230), 제2 디스플레이 인터페이스(240) 또는 그들의 조합과 같은 디스플레이 인터페이스에 회절 결자(304)를 포함하는 반사 필름을 부착하는 것은 비디오 통신이나 비디오 컨퍼런스 시스템에 관계된 시선 조정 문제를 해결하기 위하여 비용적으로 효율적인 해결책을 제공할 수 있다. 예를 들어, 반사 필름(302)은 스크린이나 디스플레이 인터페이스의 표면에 라미네이트되거나 직접 부착될 수 있다. 스크린이나 표면에 부착된 반사 필름(302)은 디스플레이 제작자가 시선 조정 문제를 해결하기 위하여 기존 제조 설비를 재배치하거나 변경하지 않아도 되도록 해줄 수 있다.
디스플레이 인터페이스에 반사 필름(302)을 부착하는 것은 시선 조정 문제를 해결하기 위한 융통성 및 확장성을 증가시켜줄 수 있다. 예를 들어, 반사 필름(302)의 사이즈는 디스플레이 스크린의 면적 범위에 맞게 증가되거나 감소될 수 있다. 또한, 반사 필름(302)은 사람 크기의 디스플레이 인터페이스를 포함하는 대형 디스플레이 인터페이스에도 적용될 수 있다.
반사 필름(302)은 반사 격자 스펙트럼(306)에 대응하거나 반사 격자 스펙트럼(306)에 속하는 주파수나 파장 대역에 따라 반사 각(308)에서 빛을 반사하기 위한 회절 격자(304)를 포함할 수 있다. 예를 들어, 반사 필름(302)은 다른 주파수나 파장 대역은 감소시키거나 제거시키는 반면, 특정한 주파수나 파장 대역 빛의 강도를 유지함으로써 빛을 반사할 수 있다. 반사 격자 스펙트럼(306)은 반사 필름(302)에 의해 선택적으로 반사된 빛의 대역폭일 수 있다. 반사 격자 스펙트럼(306)은 해당 빛의 대역폭이 회절 격자(304)의 물리적 특징에 의해 방향이 변경되었을 때 반사 필름(302)에 의해 반사될 수 있다.
예를 들어, 반사 격자 스펙트럼(306)은 반사 필름의 회절 격자(304)에 의해 방향이 변경될 수 있다. 반사 격자 스펙트럼(306)은 반사 필름(302), 회절 격자(304)의 격자 각도, 임베디드 주기적 회절 구조의 공간, 반사 필름(302)의 물질 구성, 반사 필름(302)의 표면 특징, 회절 격자(304) 또는 그들의 조합의 두께를 기초로 결정될 수 있다.
예를 들어, 반사 격자 스펙트럼(306)은 각각 파장 대역이 650nm, 540nm, 450nm 근처인 레드 스펙트럼, 그린 스펙트럼, 블루 스펙트럼을 포함하는 레드, 그린, 블루(RGB) 스펙트럼일 수 있다. 이러한 예에서, 각 컬러 스펙트럼의 특정한 대역폭은 20nm에서 30nm 사이에서 확장될 수 있다. 또 다른 예로, 반사 격자 스펙트럼(306)은 또한 싱글 밴드 스펙트럼, 듀얼 밴드 스펙트럼 또는 쿼드 밴드 스펙트럼일 수 있다.
반사 필름(302)은 반사 각(308)에서 입사 광선(310)을 반사할 수 있다. 입사 광선(310)은 반사 필름(302)에 접근하는 광선을 포함할 수 있다. 입사 광선(310)은 반사 필름이 마주하고 있는 물체 또는 장면과 관련하여 그 물체 또는 장면에 의해 생성되거나 그 물체 또는 장면으로부터 반사되는 것일 수 있다. 예를 들어, 입사 광선(310)은 제1 디스플레이 인터페이스(230)을 보는 제1 사용자(312)로부터 나오는 빛일 수 있다. 입사 광선(310)은 입사 점에서 반사 필름(302)에 의해 반사될 수 있다. 입사 점은 광선과 표면 사이의 접점이다.
입사 광선(310)은 다른 대역폭에 더하여 반사 격자 스펙트럼(306)에 대응하는 빛 또는 반사 격자 스펙트럼(306)에 속하는 빛의 대역폭을 포함할 수 있다. 입사 광선(310)은 반사 필름(302)에 의해 반사될 때 반사 광선(314)이 될 수 있다. 반사 광선(314)은 입사 점에서 반사 필름(302)에 의해 반사되는 광선을 포함할 수 있다. 반사 광선(314)은 반사 격자 스펙트럼(306)에 대응하는 빛 또는 반사 격자 스펙트럼(306)에 속하는 빛의 대역폭을 포함할 수 있다. 반사 광선(314)은 회절 격자(304)에 의해 반사되는 반사 격자 스펙트럼(306) 특징을 포함하거나 반사 격자 스펙트럼(306)의 내부에 있을 수 있다. 반사 광선(314)은 회절 격자(304)의 다른 파장 대역 특징과 비해 상대적으로 강조된 어떤 파장 대역 또는 밴드를 포함할 수 있다.
예를 들어, 반사 광선(314)은 빛의 특정 대역폭에 대한 광도 차이를 포함할 수 있다. 더 구체적으로 예를 들면, 반사 광선(314)은 감소되거나 약화된 다른 주파수에 대한 광도로 유지되는 빛의 특정한 대역폭의 광도를 포함할 수 있다. 또한 예를 들어, 반사 광선(314)은 다른 증폭된 주파수의 광도로 유지되는 특정한 대역폭의 광도를 포함할 수 있다.
반사 필름(302)은 반사 각(308)에서 반사 격자 스펙트럼(306)에 대응하는 빛 또는 반사 격자 스펙트럼(306)에 속하는 빛의 대역폭을 반사할 수 있다. 반사 각(308)은 입사 각에서 반사 광선(314)와 반사 필름(302)에 수직인 선에 의해 형성되는 각도이다.
반사 광선(314)은 회절 격자(304)를 기초로 빛을 반사할 수 있다. 반사 필름(302)은 입사 각과 다른 반사 각(308)으로 빛을 반사할 수 있다. 입사 각은 반사 필름(302)에 수직인 선과 반사 필름(302)로 입사되는 빛에 의해 형성되는 각도를 포함할 수 있다.
도3에 도시되지 않은 다른 예로, 반사 각(308)은 45도 내지 70도 사이일 수 있다. 다른 예로, 반사 각은 70도 내지 89도 사이 일 수 있다. 반사 각(308)은 반사 필름(302)의 회절 격자(304)에 따라 입사 광선(310)의 위 또는 아래일 수 있다. 또한, 반사 각(308)은 제1 디스플레이 인터페이스(230)에 대한 반사 필름(302)의 오리엔테이션(318)에 따라 입사 광선(310)의 위 또는 아래일 수 있다.
더 구체적인 예로, 반사 필름(302)은 반사 각(308)에서 반사 격자 스펙트럼(306)에 대응하는 빛 또는 반사 격자 스펙트럼(306) 내부의 빛을 포함하는 빛을 반사하도록 구성될 수 있다. 반사 필름(304)은 디스플레이 인터페이스에 부착된 수직면일 수 있고 반사 필름(302)은 입사 광선(310)이 입사되는 방향 또는 반사 필름(302)에 수직인 선과 다른 방향에서 반사 각(308)으로 빛을 반사할 수 있다. 반사 필름(302)은 반사 격자 스펙트럼(306)에 따라 제1 이미지 캡쳐 유닛(231)로 반사 각(308)으로 빛의 특정한 주파수 또는 대역폭을 반사함으로써 반사 격자 스펙트럼(306)에 대응하는 빛 또는 반사 격자 스펙트럼(306)에 속하는 빛을 포함하는 반사 광선(314)을 반사할 수 있다.
디바이스 오리엔테이션(318)은 한 디바이스 구성 요소의 디바이스의 다른 구성 요소에 대한 위치이다. 디바이스 오리엔테이션(318)은 제1 이미지 캡쳐 유닛(231)의 반사 필름(302)에 대한 위치일 수 있다. 디바이스 오리엔테이션(318)은 각도, 방향, 위치, 근접도 또는 그들의 조합을 포함할 수 있다. 더 구체적으로 예를 들면, 반사 필름(302)의 반사 각(308)은 입사 광선(310)의 70도 아래일 수 있다.
반사 필름(302)은 반사 각(308)에서 이미지(316)를 반사할 수 있다. 이미지(316)는 물체 또는 장면으로부터 분출되는 광선을 포함하는 물체 또는 장면의 시각적인 표현이다. 이미지(316)는 반사 격자 스펙트럼(306)에 대응하는 빛 또는 반사 격자 스펙트럼(306)에 속하는 빛의 대역폭을 포함할 수 있다. 예를 들어, 이미지(316)는 제1 사용자(312)의 시각적인 표현을 포함할 수 있다.
반사 필름(302)은 이미지(316)을 구성하는 빛의 대역폭을 반사함으로써 이미지(316)를 반사할 수 있다. 반사 필름(302)은 또한 이미지(316)를 구성하고 반사 격자 스펙트럼(306)에 대응하는 빛 또는 반사 격자 스펙트럼(306) 내부 빛의 대역폭을 반사함으로써 이미지(316)를 반사할 수 있다.
제1 디바이스(101)는 디바이스 오리엔테이션(318)의 예시에 위치된 제1 이미지 캡쳐 유닛(231)을 포함하여 반사각(308)에서 반사 필름(302)으로부터 반사된 이미지(316)를 캡쳐할 수 있다. 제1 이미지 캡쳐 유닛(231)은 렌즈(326)를 통하여 반사 광선(314)을 캡쳐할 수 있다. 예를 들어, 이미지 캡쳐 유닛(231)은 반사 각(308)에 맞추어 디바이스 오리엔테이션(318)을 표현하는 각도에 위치될 수 있다.
제1 이미지 캡쳐 유닛(231)의 디바이스 오리엔테이션(318)은 반사 필름(302), 제1 디스플레이 인터페이스(230) 또는 그들의 조합에 대하여 고정될 수 있다. 예를 들어, 제1 이미지 캡쳐 유닛(231)의 렌즈(326)는 반사 필름(302)에 대하여 고정된 각도, 고정된 거리 또는 그들의 조합에 위치될 수 있다.
또한, 제1 이미지 캡쳐 유닛(231)의 디바이스 오리엔테이션(318)은 도2의 제1 제어부(212), 제2 제어부(234), 제3 제어부(260) 또는 그들의 조합에 의해 동적으로 조절될 수 있다. 제1 제어부(212)는 제1 이미지 캡쳐 유닛(231)의 렌즈(326) 각도 또는 위치를 조절함으로써 제1 이미지 캡쳐 유닛(231)을 동적으로 조절할 수 있다. 제1 제어부(212)는 제1 디스플레이 인터페이스(230)의 기울기 혹은 회전고리(swivel) 변경과 같은 제1 디스플레이 인터페이스(230)의 디바이스 오리엔테이션(318) 변경에 응답하여 제1 이미지 캡쳐 유닛(231)의 디바이스 오리엔테이션(318)을 조절할 수 있다.
반사 필름(302)은 또한 제1 디스플레이 인터페이스(230)로부터 디스플레이 빛(320)이 지나는 이미지(316)를 최소한의 간섭이나 왜곡으로 반사할 수 있다. 디스플레이 빛(320)은 디스플레이 인터페이스에 의해 생성된 가시광선을 포함할 수 있다. 디스플레이 빛(320)은 제1 디스플레이 인터페이스(230)에 의해 제2 디바이스(102)와 같은 전자 시스템의 다른 디바이스에 의해 캡쳐된 물체나 장면을 묘사하기 위하여 생성될 수 있다.
예를 들어, 디스플레이 빛(320)은 제2 디스플레이 인터페이스(240)를 보는 제2 사용자(322)의 이미지를 묘사하기 위하여 제1 디스플레이 인터페이스(230)에 의해 생성될 수 있다. 이러한 예에서, 제2 디스플레이 인터페이스(240)는 제2 디스플레이 인터페이스(240)에 부착된 반사 필름(302)이 제1 사용자(312)로부터 방출되는 입사 광선(310)을 반사하는 동안 제2 사용자(322)의 이미지를 디스플레이할 수 있다. 더 구체적인 예로, 제1 디스플레이 인터페이스에 부착된 반사 필름(302)은 제1 사용자(312)로부터의 입사 광선(310)을 반사하는 반면, 제2 사용자(322)의 이미지에 대응하는 디스플레이 빛(320)을 통과시킬 수 있다. 제1 제어부(212), 제2 제어부(234), 제3 제어부(260) 또는 그들의 조합은 반사 필름(302)에 연결된 제1 디스플레이 인터페이스(230), 제2 디스플레이 인터페이스(240) 또는 그들의 조합에서 디스플레이되는 디스플레이 스펙트럼(324) 내부의 디스플레이 빛(320)을 최초로 식별할 수 있다.
디스플레이 빛(320)은 디스플레이 스펙트럼(324)을 포함하거나 디스플레이 스펙트럼(324)에 속할 수 있다. 디스플레이 스펙트럼(324)은 디스플레이 인터페이스에 의해 방출되는 빛의 대역폭을 포함할 수 있다. 반사 필름(302)의 회절 격자(304)를 포함하는 반사 필름(302)은 디스플레이 스펙트럼(324)으로부터 반사 격자 스펙트럼(306)을 분리하기 위하여 선택될 수 있다. 반사 필름(302)은 반사 격자 스펙트럼(306)과 디스플레이 스펙트럼(324) 사이에 오버랩 어마운트를 최소화함으로써 디스플레이 스펙트럼(324)으로부터 반사 격자 스펙트럼(306)을 분리할 수 있다.
반사 필름(302)은 디스플레이 스펙트럼(324)에 대응하는 빛을 제1 이미지 캡쳐 유닛(231)으로 반사하지 않음으로써, 반사 격자 스펙트럼(306)과 다른 디스플레이 스펙트럼(324)를 패스함으로써 또는 그들의 조합으로 디스플레이 스펙트럼(324)으로부터 반사 격자 스펙트럼(306)을 분리할 수 있다. 제1 디스플레이 인터페이스(230), 제2 디스플레이 인터페이스(240) 또는 그들의 조합은 또한 제1 사용자(312), 제2 사용자(322) 또는 그들의 조합이 디스플레이 스크린 상에서 자신의 반사를 보지 않도록 반사 방지 코팅을 할 수 있다.
일 실시예에서 제1 제어부(212), 제2 제어부(234), 제3 제어부(260) 또는 그들의 조합은 제1 이미지 캡쳐 유닛(231)의 프레임 캡쳐 인터벌(330)과 제1 디스플레이(230)의 블랭킹 인터벌(blanking interval)(328)을 동기화할 수 있다. 블랭킹 인터벌(328)은 디스플레이가 불투명하거나 단색의 그래픽을 생성하는 빈도이다. 블랭킹 인터벌(328)은 제1 디스플레이 인터페이스(230)가 불투명하거나 단색의 그래픽을 생성하는 빈도일 수 있다.
프레임 캡쳐 인터벌(330)은 이미지 캡쳐 유닛(231)이 이미지 프레임을 캡쳐하는 빈도이다. 프레임 캡쳐 인터벌(330)은 제1 이미지 캡쳐 유닛(231)이 반사 필름(302)에 의해 반사되는 이미지를 캡쳐하는 빈도일 수 있다. 프레임 캡쳐 인터벌(330)은 카메라 센서의 셔터 스피드, 노출 시간, 캡쳐 비율 또는 그들의 조합을 포함할 수 있다. 예를 들면, 블랭킹 인터벌(328)과 프레임 캡쳐 인터벌(330)은 30 Hz 또는 그 이상일 수 있다.
전자 시스템(100)은 블랭킹 인터벌(328)의 빈도와 프레임 캡쳐 인터벌(330)의 빈도를 동일하게 함으로써 블랭킹 인터벌(328)과 프레임 캡쳐 인터벌(330)을 동기화할 수 있다. 전자 시스템(100)은 또한 디스플레이 빛(320)이 최소화되거나 소멸되었을 때, 제1 이미지 캡쳐 유닛(231), 제2 이미지 캡쳐 유닛(241) 또는 그들의 조합이 반사 필름(302)에 의해 반사되는 이미지를 캡쳐도록 보장하기 위하여 블랭킹 인터벌(328)과 프레임 캡쳐 인터벌(330)을 동기화 할 수 있다. 또한, 전자 시스템(100)은 제1 이미지 캡쳐 유닛(231), 제2 이미지 캡쳐 유닛(241)이 반사 격자 스펙트럼(306)에 대응하는 또는 반사 격자 스펙트럼(306) 내부의 광선에 따라 디스플레이 스펙트럼(324)에 대응하는 광선을 캡쳐하지 못하도록 하기 위하여 블랭킹 인터벌(328)과 프레임 캡쳐 인터벌(330)을 동기화할 수 있다.
제1 디바이스(101)는 제1 이미지 캡쳐 유닛(231)에 부착되도록 구성된 노치 필터(notch filter)(332)를 포함할 수 있다. 예를 들어, 노치 필터(332)는 제1 이미지 캡쳐 유닛(231)의 렌즈에 부착할 수 있다. 노치 필터(332)는 모든 다른 파장 대역을 약화시키는 반면, 하나 혹은 그 이상의 대역폭을 선택적으로 통과하기 위한 대역 통과 필터이다. 노치 필터(332)의 예는 원 밴드 노치 필터, 투 밴드 노치 필터, 쓰리 밴드 노치 필터 또는 포 밴드 노치 필터를 포함할 수 있다.
노치 필터(332)는 반사 격자 스펙트럼(306)에 대응하거나 반사 격자 스펙트럼(306) 내부인 노치 필터 스펙트럼(334)을 기초로 이미지(316)로부터 제1 디스플레이 인터페이스(230)의 디스플레이 빛(320)를 여과시킬 수 있다. 노치 필터 스펙트럼(334)은 노치 필터(332)에 의해 통과되는 빛의 대역폭이다. 노치 필터 스펙트럼(334)은 RGB 스펙트럼을 포함하는 트리 밴드 스펙트럼일 수 있다. 노치 필터(332)는 노치 필터 스펙트럼(334)에 대응하는 통과 대역에 따라 주파수를 통과함으로써 디스플레이 빛(320)을 여과시킬 수 있다.
예를 들어, 노치 필터 스펙트럼(334)은 각각 650nm, 540nm, 450nm의 파장 대역을 가지는 레드 스펙트럼, 그린 스펙트럼 및 블루 스펙트럼을 포함할 수 있다. 이러한 예에서, 각 컬러 스펙트럼의 특정한 대역폭은 20nm와 30nm 사이에서 확장할 수 있다. 다른 예에서, 노치 필터 스펙트럼(334)은 또한 싱글 밴드 스펙트럼, 듀얼 밴드 스펙트럼 또는 쿼드 밴드 스펙트럼일 수 있다. 노치 필터(322)는 반사 격자 스펙트럼(306)의 최대 파장 대역(336)과 대응하는 노치 필터 스펙트럼(334)의 최대 파장 대역(336)을 기초로 선택될 수 있다.
제1 디바이스(101)는 또한 편광 프리즘(polarizer)(338)을 포함하여 제1 이미지 캡쳐 유닛(231)에 부착할 수 있다. 예를 들어, 편광 프리즘(338)은 제1 이미지 캡쳐 유닛(231)의 렌즈(326) 또는 노치 필터(332)를 부착할 수 있다. 편광 프리즘(338)은 제1 디스플레이 인터페이스(230)에 의해 생성된 디스플레이 빛(320)의 일부로 포함된 편광(340)을 흡수하는 필터일 수 있다.
편광 프리즘(338)은 선형 편광 프리즘, 원형 편광 프리즘 또는 그들의 조합을 포함할 수 있다. 예를 들어, 편광 프리즘(338)은 선형 편광 프리즘이고 제1 디바이스(101)는 선형 편광 프리즘을 이용하여 액체 크리스탈 디스플레이(LCD) 및 OLED(organic light-emitting diode) 디스플레이 인터페이스에 의해 생성된 선형으로 편광을 여과할 수 있다.
다른 예로, 편광 프리즘(338), 노치 필터(332) 또는 그들의 조합의 필터링 능력은 제1 이미지 캡쳐 유닛(231)의 포토 센서로 통합될 수 있다. 더 구체적으로 예를 들어, 제1 이미지 캡쳐 유닛(231)의 CCD(charge-coupled device)의, 베이어 필터(Bayer filter)를 포함하는, 컬러 필터 어레이(color filter array)는 반사 격자 스펙트럼(306)의 최대 파장 대역(336)에 맞게 조절될 수 있다.
또한, 제1 이미지 캡쳐 유닛(231)의 렌즈(326)는 틸팅 렌즈(tilting lens), 쉬프팅 렌즈(shifting lens), 원주 렌즈(anamorphic lens) 또는 그들의 조합과 같은 시각 조절 렌즈일 수 있다. 예를 들어, 반사 필름(302)으로부터 반사되고 제1 이미지 캡쳐 유닛(231)에 의해 캡쳐된 이미지(316)는 반사 각(308)이 45도를 넘으면 수직으로 압축되거나 축소되는 것과 같은 왜곡을 포함할 수 있다. 이러한 예에서, 제1 이미지 캡쳐 유닛(231)은 반사 각(308)의 크기에 의해 야기된 왜곡을 광학적으로 바로잡기 위하여 원주 렌즈를 사용할 수 있다.
전자 시스템(100)은 또한 물체나 장면을 비추는 광원(342)을 포함할 수 있다. 광원(342)은 물체나 장면에서 방출되는 광선의 양을 증가시키기 위하여 물체나 장면을 비출 수 있다. 광원(342)은 물체나 장면의 이미지(316)를 최적화하기 위하여 물체나 장면으로부터 방출되는 광선의 양을 증가시킬 수 있다. 예를 들어, 광원(342)은 광원(342)에 의해 생성된 추가적인 광선으로 제1 사용자(312)를 비춤으로써 제1 사용자(312)의 이미지(316)를 최적화할 수 있다.
광원(342)은 연속 적인 광원 또는 진동 광원(pulsed light source)을 포함할 수 있다. 광원(342)의 예는 LED 디바이스, 레이저 디바이스, 프로젝션 디바이스 또는 그들의 조합을 포함할 수 있다. 예를 들어, 광원(342)은 OLED, AMOLED(active-matrix organic light emitting diode), 피코 초 레이저(picosecond laser) 또는 그들의 조합을 포함할 수 있다. 예를 들어, 광원(342)은 제1 디스플레이 인터페이스(231)에 연결된 RGB LED일 수 있다.
광원(342)은 조명 스펙트럼(344)을 포함하는 조명 빛을 생성할 수 있다. 조명 스펙트럼(344)은 광원(342)에 의해 방출되는 빛의 대역폭이다. 조명 스펙트럼(344)은 RGB 스펙트럼을 포함하는 쓰리 밴드 스펙트럼일 수 있다.
더 구체적인 예로, 조명 스펙트럼(344)은 각각 파장 대역 650nm, 540nm, 450nm 근처의 레드, 그린, 블루와 관련된 파장 대역을 포함할 수 있다. 이러한 예에서, 각 컬러 스펙트럼의 특정한 대역폭은 20nm 내지 30nm 확장될 수 있다. 다른 예로, 조명 스펙트럼(344)은 또한 싱글 밴드 스펙트럼, 듀얼 밴드 스펙트럼 또는 쿼드 밴드 스펙트럼일 수 있다.
광원(342)은 반사 격자 스펙트럼(306), 노치 필터 스펙트럼(334) 또는 그들의 조합의 최대 파장 대역(336)에 맞게 조명 스펙트럼(344)의 최대 파장 대역(336)을 기초로 선택될 수 있다. 도3에 도시되지 않은 예로, 광원(342)은 광원(342)에 부착되도록 구성된 노치 필터(332)의 예를 통과하도록 빛을 보낼 수 있다. 이러한 예에서, 광원(342)은 노치 필터(332)를 사용하여 반사 격자 스펙트럼(306)의 최대 파장 대역(336)에 조명 스펙트럼(344)의 최대 파장 대역(336)을 맞출 수 있다.
도3에 도시된 대로, 광원(352)은 제1 디스플레이 인터페이스(230) 위에 위치할 수 있다. 도3에 도시되지 않은 다른 예로, 광원(342)은 바닥 부분, 왼 쪽, 오른 쪽 또는 그들의 조합과 같이 제1 디스플레이 인터페이스(230)의 다른 부분에 위치될 수 있다. 광원(342)은 또한 물체나 장면을 마주하는 위치에 놓여 반사 필름(302)으로부터 반사되는 조명 스펙트럼(344)에 대응하거나 조명 스펙트럼(344) 내부에 있는 조명 빛을 방출할 수 있다.
광원(342)은 제1 사용자(312)로부터 반사되는 빛의 양을 증가시키기 위하여 제1 사용자(312)에 조명 스펙트럼(344)에 대응하거나 조명 스펙트럼(344) 내부에 있는 조명 빛을 직사할 수 있다. 예를 들어, 광원(342)은 제1 사용자(312)로부터 방출되는 입사 광선(310)의 양을 증가시키기 위하여 제1 사용자(312)에 조명 스펙트럼(344)에 대응하거나 조명 스펙트럼(344) 내부에 있는 조명 빛을 직사할 수 있다. 더 구체적인 예로, 광원(342)은 제1 사용자(312)로부터 반사되는 반사 격자 스펙트럼(306)에 대응하거나 반사 격자 스펙트럼(306) 내부에 있는 조명 빛의 양을 증가시키기 위하여 조명 스펙트럼(344)에 대응하거나 조명 스펙트럼(344) 내부에 있는 조명 빛을 직사할 수 있다.
광원(342)은 또한 확산 성분(diffusing component)(346)을 포함할 수 있다. 확산 성분(346)은 광원(342)으로부터 방출된 입사 광을 감소시키기 위한 필터 혹은 렌즈일 수 있다. 확산 성분(346)은 광원(342)에 연결되거나 광원(342)과 광원(342)에 의해 비춰진 물체 혹은 장면 사이에 위치할 수 있다. 확산 성분(346)은 확산 성분(346)의 표면에 수직으로 쏘아진 광원(342)으로부터 방출되도록 위치할 수 있다.
확산 성분(346)은 확산 필터, 그라운드 글라스 디퓨저(ground glass diffuser) 혹은 그레이드 글라스 디퓨저(greyed glass diffuser), 폴리머 기반의 디퓨저(polymer-based diffuser) 또는 그들의 조합과 같은 유리 기반의 디퓨저를 포함할 수 있다. 예를 들어, 확산 성분(346)은 직사 조명으로부터 제1 사용자(312)가 불편함을 덜 느끼도록 광원(342)과 제1 사용자(312) 사이에 위치할 수 있다.
전자 시스템(100)은 제1 이미지 캡쳐 유닛(231), 제2 이미지 캡쳐 유닛(241) 또는 그들의 조합에 의해 캡쳐된 이미지(316)에 이미지 프로세싱 메커니즘(348)을 적용할 수 있다. 전자 시스템(100)은 반사 각(308)에서 반사 필름(302)으로부터 반사되고, 반사 각(308)에 맞춰 디바이스 오리엔테이션(318)에서 제1 이미지 캡쳐 유닛(231), 제2 이미지 캡쳐 유닛(241) 또는 그들의 조합에 의해 캡쳐된 이미지(316)에 이미지 프로세싱 메커니즘(348)을 적용할 수 있다.
이미지 프로세싱 메커니즘(348)은 디지털, 아날로그 또는 광학 기술을 통하여 이미지 캡쳐 유닛에 의해 캡쳐된 이미지를 보정하거나 확장하기 위한 방법 또는 절차이다. 이미지 프로세싱 메커니즘(348)은 디지털 신호 처리, 아날로그 신호 처리, 광학적 조작 또는 그들의 조합을 포함할 수 있다.
전자 시스템(100)은 제1 제어부(212), 제2 제어부(234), 제3 제어부(260) 또는 그들의 조합을 이용하여 제1 이미지 캡쳐 유닛(231), 제2 이미지 캡쳐 유닛(241) 또는 그들의 조합에 의해 캡쳐된 이미지(316)에 이미지 프로세싱 메커니즘(348)을 적용할 수 있다. 예를 들면, 프로세싱 메커니즘(348)은 픽셀 기반 처리 알고리즘, 경사도 영역 이미지 처리 알고리즘(gradient domain image processing algorithm) 또는 그들의 조합과 같은 디지털 신호 처리 기술일 수 있다. 더 구체적으로 예를 들면, 프로세싱 메커니즘(348)은 이미지 리사이징 기술(image resizing technique), 이미지 샤프닝 알고리즘(image sharpening algorithm), 수직 혹은 수평 보정 기술, 래스터 기반 인터폴레이션 기술(raster-based interpolation technique )과 같은 시각 왜곡 보정 기술 또는 그들의 조합을 포함할 수 있다.
제1 제어부(212), 제2 제어부(234), 제3 제어부(260) 또는 그들의 조합은 디스플레이 스펙트럼(324), 반사 격자 스펙트럼(306) 또는 그들의 조합을 기초로 디스플레이 빛(320)으로부터 이미지(316)를 분리함으로써 이미지 프로세싱 메커니즘(348)을 적용할 수 있다. 이미지 프로세싱 메커니즘(348)은 노치 필터링 알고리즘을 포함하여 노치 필터 스펙트럼(334)에 대응하는 주파수를 기초로 이미지(316)로부터 제1 디스플레이 인터페이스(230)의 디스플레이 빛(320)을 여과하는 노치 필터링 알고리즘을 포함하는 주파수 필터링 알고리즘을 포함할 수 있다. 더 예를 들면, 이미지 프로세싱 메커니즘(348)은 제1 이미지 캡쳐 유닛(231) 또는 제2 이미지 캡쳐 유닛(241)에 의해 캡쳐된 이미지(316)의 다른 예시로부터 디스플레이 인터페이스에 디스플레이된 이미지(316)의 예시로부터의 컨트리뷰션(contribution) 혹은 영향을 제거하거나 취소할 수 있다.
전자 시스템(100)은 반사 필름(302)에 의해 반사되거나 제1 이미지 캡쳐 유닛(231) 또는 제2 이미지 캡쳐 유닛(241) 또는 그들의 조합에 의해 캡쳐된 이미지(316)에 이미지 프로세싱 메커니즘(348)을 적용할 수 있다. 전자 시스템(100)은 이미지(316)에 이미지 프로세싱 메커니즘(348)을 적용하여 반사 각(308)의 높이에 의해 야기된 왜곡을 제거할 수 있다. 예를 들어, 제1 제어부(212), 제2 제어부(234), 제3 제어부(260) 또는 그들의 조합은 3D 컴퓨터 그래픽 기하학에 이미지(316)를 반대로 매핑함으로써 이미지(316)에 래스터 기반 인터폴레이션 기술(raster-based interpolation technique )을 적용할 수 있다.
추가로, 제1 제어부(212), 제2 제어부(234), 제3 제어부(260) 또는 그들의 조합은 수직 리사이징 알고리즘을 이미지(316)에 적용하여 45도를 넘는 반사 각(308)에 의한 이미지(316)의 수직 압축을 보정하는 것을 포함하는 이미지 프로세싱 메커니즘(348)을 적용할 수 있다. 또한, 제1 제어부(212), 제2 제어부(234), 제3 제어부(260) 또는 그들의 조합은 이미지(316)에 포함된 인공물을 제거하기 위하여 디지털 신호 처리 기술을 포함하는 이미지 프로세싱 메커니즘(348)을 적용할 수 있다.
제1 제어부(212), 제2 제어부(234), 제3 제어부(260) 또는 그들의 조합이 이미지(316)에 이미지 프로세싱 메커니즘(348)을 적용하면, 전자 시스템(100)은 도2의 제1 통신 유닛(216)을 사용하여 통신망(104)을 통하여 이미지(316)를 제2 디바이스(102)로 전송할 수 있다. 예를 들어, 전자 시스템(100)은 제1 통신 유닛(216)을 이용하여 이미지(316)를 도2의 제2 통신 유닛(236)으로 전송할 수 있다. 전자 시스템(100)은 제1 디바이스(101)와 제2 디바이스(102)의 사이와 같은 엔드 유저 디바이스 사이에 직접 반사 격자 스펙트럼(306)에 대응하거나 반사 격자 스펙트럼(306) 내부에 있는 이미지(316)를 통신할 수 있다. 시스템(100)은 또한 제3 디바이스(103), 라우터, 리피터, 서버, 게이트웨이, 서비스 제공자 또는 그들의 조합과 같은 다른 디바이스를 통하여 이미지(316)를 통신할 수 있다.
전자 시스템(100)은 제2 디스플레이 인터페이스(240)를 사용하여 제1 사용자(312)의 이미지(316)를 제2 사용자(322)에게 디스플레이할 수 있다. 전자 시스템(100)은 제2 디스플레이 인터페이스(240)에 부착된 반사 필름(302)을 사용하여 제2 사용자(322)로부터 방출된 입사 광선(310)을 제2 이미지 캡쳐 유닛(241)으로 반사하는 동안, 제1 사용자(312)의 이미지(316)를 디스플레이할 수 있다.
전자 시스템(100)은 제2 제어부(234)를 사용하여 제2 이미지 캡쳐 유닛(241)에 의해 캡쳐된 제2 사용자(322)의 이미지(316)에 이미지 프로세싱 메커니즘(348)을 적용할 수 있다. 제2 제어부(234)가 제2 사용자(322)의 이미지(316)에 이미지 프로세싱 메커니즘(348)을 적용한 후, 전자 시스템(100)은 제2 통신 유닛(236)을 사용하여 통신망(104)을 통하여 제1 디바이스(101)로 제2 사용자(322)의 이미지(316)를 전송할 수 있다.
반사 각(308)에서 반사 격자 스펙트럼(306) 내부에서 이미지(316)을 반사한 것 및 디바이스 오리엔테이션(318)에서 이미지 캡쳐 유닛으로 반사 필름(302)으로부터 반사된 이미지(316)를 캡쳐하는 것은 제1 사용자(312) 및 제2 사용자(322)가 제1 디스플레이 인터페이스(230) 및 제2 디스플레이 인터페이스(240)을 통하여 서로 직접 아이 컨택할 수 있도록 함으로써 사용자 경험을 향상시킬 수 있다. 현재 비디오 컨퍼런스 혹은 비디오 통신 시스템은 종종 비디오 시스템의 디스플레이 스크린 베젤의 탑 혹은 바텀에 마운트된 비디오 카메라에 의존하여 사용자에 대한 탑-다운 고도 뷰 혹은 바텀-업 고도 뷰를 캡쳐한다. 그러나 본 개시의 실시예들은 제1 사용자(312) 및 제2 사용자(322)가 제1 사용자(312)의 시선과 제2 사용자(322)의 시선을 조정함으로써 서로 직접 아이 컨택을 하도록 할 수 있다.
예를 들어, 제1 이미지 캡쳐 유닛(231)은 제1 디스플레이 인터페이스(230)을 덮고 있는 반사 필름(302)을 사용하여 제1 디스플레이 인터페이스(230)의 스크린에 대한 시각으로 제1 사용자(312)의 이미지(316)를 캡쳐하는 동안, 제1 사용자(312)는 제1 디스플레이 인터페이스(230)에 디스플레이 된 제2 사용자(322)의 이미지를 볼 수 있다. 이러한 예에서, 제2 사용자(322)는 또한 제2 이미지 캡쳐 유닛(241)이 제2 디스플레이 인터페이스(240)를 덮고 있는 반사 필름(302)로부터 반사된 제2 사용자(322)의 이미지(316)를 캡쳐하는 동안, 제2 디스플레이 인터페이스(240)에 디스플레이 된 제1 사용자(312)의 이미지를 볼 수 있다. 제2 사용자(322)가 제2 디스플레이 인터페이스(240)에 디스플레이 된 제1 사용자(312)의 눈을 보는 동안, 제1 사용자(312)의 시선은 제1 사용자(312)가 제1 디스플레이 인터페이스(230)에 디스플레이 된 제2 사용자(322)의 눈을 볼 때 제2 사용자(322)의 시선에 맞춰질 수 있다.
또한, 직접적인 아이 컨택은 사용자가 직접 그 혹은 그녀가 카메라를 직접 응시할 때 시뮬레이션 될 수 있고, 이는 사용자가 디스플레이 스크린 상에서 다른 사용자를 편안하게 볼 수 없게 한다. 전자 시스템(100)은 제1 사용자(312)에게 제1 디스플레이 인터페이스(230)에 디스플레이 된 제2 사용자(322)의 이미지(316)를 편안하게 보면서 제1 디스플레이 인터페이스(230)에 디스플레이 된 제2 사용자(322)와 직접 아이 컨택할 수 있는 능력을 제공한다. 이렇게 다른 비디오 통신 시스템과 달리, 전자 시스템(100)은 직접 미팅을 하는 것과 유사한 사용자 경험을 제공한다.
노치 필터(332) 및 반사 필름(302)의 회절 격자(304)는 이미지(316)의 선명도 및 색감을 향상시킨다. 이러한 향상은 제1 이미지 캡쳐 유닛(231) 또는 제2 이미지 캡쳐 유닛(241) 또는 그들의 조합에 의해 캡쳐된 반사 광선(314)으로부터 디스플레이 빛(320)을 분리하는 것을 기초로 할 수 있다. 예를 들어, 회절 격자(304)는 반사 필름(302)에 의해 반사된 디스플레이 스펙트럼(324)에 있는 광선이 아니라, 반사 격자 스펙트럼(306)에 대응하거나 반사 격자 스펙트럼(306) 내부에 있는 광선을 보장할 수 있고, 노치 필터(332)는 제1 이미지 캡쳐 유닛(231), 제2 이미지 캡쳐 유닛(241) 또는 그들의 조합에 의해 캡쳐된 디스플레이 스펙트럼(324)에 있는 광선이 아니라 노치 필터 스펙트럼(334) 내부에 있는 광선을 보장할 수 있다.
반사 필름(302)으로 제1 디스플레이 인터페이스(230), 제2 디스플레이 인터페이스(240) 또는 그들의 조합과 같은 디스플레이 인터페이스를 덮고, 제1 이미지 캡쳐 유닛(231), 제2 이미지 캡쳐 유닛(241) 또는 그들의 조합과 같은 이미지 캡쳐 유닛에 노치 필터(332)를 부착하는 것은 제1 사용자(312)의 시선과 제2 사용자(322)의 시선을 맞추기 위하여 더 효율적이고 덜 거슬리는 시스템을 제공한다. 예를 들어, 반사 필름(302)은 제1 디스플레이 인터페이스(230), 제2 디스플레이 인터페이스(240)에 라미네이트될 수 있고, 노치 필터(322)는 제1 이미지 캡쳐 유닛(231), 제2 이미지 캡쳐 유닛(241)의 렌즈(326)에 쉽게 부착될 수 있다. 벌키 빔 스플리터(bulky beam splitter) 및 해프 실버드 미러(half-silvered mirrors)를 이용하는 다른 비디오 통신 시스템과 달리, 전자 시스템(100)의 구성 요소는 가볍고, 휴대 가능하고, 기존의 디바이스 하드웨어 및 소프트웨어 능력을 이용한다.
도4는 다른 일 실시예에 따라 실행되는 전자 시스템의 측면도를 도시한다. 제1 실시예(401)에 예시된 것과 같이, 도2의 제1 이미지 캡쳐 유닛(231)은 지지 구조(402)에 연결될 수 있다. 지지 구조(402)는 도2의 제1 디스플레이 인터페이스(230)에 포함될 수 있다. 지지 구조(402)는 제1 디스플레이 인터페이스(230)의 프레임(404), 베이스 스탠드(406) 또는 그들의 조합을 포함할 수 있다. 지지 구조(402)는 도3의 반사 필름(302), 제1 이미지 캡쳐 유닛(231) 또는 그들의 조합을 제1 디스플레이 인터페이스(230)에 부탁하기 위하여 마운트 또는 어답터를 더 포함할 수 있다.
도4의 제1 실시예(401)에 도시된 바와 같이, 제1 이미지 캡쳐 유닛(231)은 제1 디스플레이 인터페이스(230)의 베이스 스탠드(406)에 연결될 수 있다. 이 예에서, 제1 이미지 캡쳐 유닛(231)의 도3의 렌즈(326)는 위 쪽을 향한 캡쳐 각(408)으로 제1 디스플레이 인터페이스(230)를 향할 수 있다. 위 쪽을 향한 캡쳐 각(408)은 제1 이미지 캡쳐 유닛(231)의 렌즈(326)에 수직인 선과 도3의 반사 필름(302)에 수직인 선에 의해 형성된 각도이다. 예를 들어, 위 쪽을 향한 캡쳐 각(408)은 45도와 89도 사이일 수 있다.
또한, 이러한 예에서, 제1 디스플레이 인터페이스(230)에 부착된 반사 필름(302)은 반사 필름(302)에 의해 반사된 광선이 제1 이미지 캡쳐 유닛(231)의 렌즈(326)를 향하여 도3의 반사 각(308)의 아래 쪽 방향을 향하도록 맞추어질 수 있다. 다른 예로, 반사 필름(302)의 도3의 회절 격자(304)는 반사 각(308)의 아래 쪽 방향으로 광선을 반사하도록 선택될 수 있다.
도4에 도시되지 않은 다른 예로, 제1 이미지 캡쳐 유닛(231)은 프레임(404)의 코너, 왼 쪽 또는 오른 쪽을 포함하는 프레임(404)의 다른 부분에 연결될 수 있다. 이러한 예에서, 제1 이미지 캡쳐 유닛(231)의 렌즈를 향하여 광선을 반사하도록 반사 필름(302)이 맞추어지거나, 회절 격자(304)가 선택될 수 있다.
제2 실시예(403)에 따르면, 반사 필름(302)의 복수 예는 하나의 디스플레이 인터페이스를 덮거나, 하나의 디스플레이 인터페이스에 부착될 수 있다. 예를 들면, 반사 필름(302)의 복수 예는 제1 디스플레이 인터페이스(230)을 덮을 수 있다. 제1 디스플레이 인터페이스(230)는 복수의 디스플레이 영역으로 나뉠 수 있다. 예를 들어, 도4에 도시된 제1 디스플레이 인터페이스(230)는 상부 디스플레이 영역(410) 및 하부 디스플레이 영역(412)로 나뉠 수 있다.
각 디스플레이 영역은 서로 다른 반사 필름(302)으로 덮힐 수 있다. 또한, 각 반사 필름(302)은 다른 반사 각(308)을 포함할 수 있다. 예를 들면, 도4에 도시된 것과 같이 반사 필름(302)은 상부 디스플레이 영역(410)에 부착될 수 있고, 입사 점에 수직인 선 45도 내지 89도 아래의 각도로 광선을 반사할 수 있다.
제1 디바이스(101)는 다른 반사 필름(302)으로부터 반사된 광선을 캡쳐하기 위하여 제1 이미지 캡쳐 유닛(231)을 복수 개 포함할 수 있다. 예를 들어, 도4에 도시된 것과 같이 하나의 제1 이미지 캡쳐 유닛(231)은 베이스 스탠드(406)에 연결되고, 다른 제1 이미지 캡쳐 유닛(231)은 익스텐션 암(extension arm)을 통하여 프레임(404)의 상부 부분에 연결될 수 있다.
각 제1 이미지 캡쳐 유닛(231)은 대응하는 반사 필름(302)에 의해 반사되는 광선을 캡쳐할 수 있도록 위치될 수 있다. 더 구체적인 예로, 프레임(404)의 상부 영역에 연결된 하나의 제1 이미지 캡쳐 유닛(231)은 상부 디스플레이 영역(410)에 부착된 반사 필름(302)으로부터 반사된 광선을 캡쳐하기 위하여 사용될 수 있다. 다른 예로, 프레임(404)의 하부 영역에 연결된 제1 이미지 캡쳐 유닛(231)은 하부 디스플레이 영역(412)에 부착된 반사 필름(302)으로부터 반사된 광선을 캡쳐하기 위하여 사용될 수 있다.
제3 실시예(405)에 도시된 바와 같이, 전자 시스템(100)은 반사 필름(302)의 제1 엣지(416)에 위치한 미러(414)를 포함할 수 있다. 미러(414)는 반사 필름(302)으로부터 광선을 반사하기 위한 물리적 표면을 포함할 수 있다. 미러(414)는 모든 가시 광선 파장 대역 또는 하나 혹은 그 이상의 특정한 빛의 파장 대역을 반사할 수 있다. 미러(414)는 평면 미러(plane mirror), 콘케이브 미러(concave mirror)나 파라볼릭 미러(parabolic mirror) 또는 그들의 조합과 같은 커브드 미러(curved mirror) 또는 그들의 조합을 포함할 수 있다. 미러(404)는 또한 메탈릭 미러(metallic mirror), 글라스 베이스 미러(glass-based mirror) 또는 그들의 조합일 수 있다.
반사 필름(302)의 제1 엣지(416)는 제1 이미지 캡쳐 유닛(231)에 연결된 반사 필름(302)의 제2 엣지(418)의 반대에 있을 수 있다. 예를 들어, 제1 엣지(416)는 반사 필름(302)의 바텀 엣지 일 수 있고, 제2 엣지(418)는 반사 필름(302)의 탑 엣지일 수 있다. 다른 예로, 제1 엣지(416)는 반사 필름의 탑 엣지이고, 제2 엣지(418)는 반사 필름(302)의 바텀 엣지일 수 있다.
미러(414)는 반사 필름(302)와 미러링 각(420)을 형성할 수 있다. 미러링 각(420)은 미러(414)와 반사 필름(302)의 표면이 형성하는 각도이다. 미러링 각(420)은 45도 내지 70도일 수 있다. 미러링 각(420)은 70도 내지 89도를 포함하는 어떤 큰 각도일 수 있다.
반사 필름(302)은 미러(414)에 대하여 반사 격자 스펙트럼(306)에 대응하거나 반사 격자 스펙트럼(306)내부에 있는 빛의 대역폭을 포함하는 광선을 반사할 수 있다. 예를 들어, 반사 필름(302)은 이미지(316)를 미러(414)에 반사할 수 있다. 더 구체적인 예로, 반사 필름(302)은 미러(414)에 대하여 제1 사용자(312)의 이미지(316)를 반사할 수 있다.
미러(414)는 반사 필름(302)으로부터 수신된 광선을 제1 이미지 캡쳐 유닛(231)으로 반사할 수 있다. 예를 들어, 미러(414)는 반사 필름(302)으로부터 수신된 이미지(316)를 제1 이미지 캡쳐 유닛(231)으로 반사할 수 있다. 더 구체적인 예로, 미러(414)는 반사 필름(302)으로부터 수신된 제1 사용자(312)의 이미지(316)를 미러링 각(420)으로 제1 이미지 캡쳐 유닛(231)으로 반사할 수 있다.
반사 필름(302)은 이미지(316)를 미러(414)로 반사하여, 제1 이미지 캡쳐 유닛(231)과 반사 필름(302) 사이의 이미지 캡쳐 거리가 길어지게 할 수 있다. 미러(414)는 제1 이미지 캡쳐 유닛(231)과 반사 필름(302) 사이의 이미지 캡쳐 거리를 길어지게 하고, 반사 필름(302)은 제1 이미지 캡쳐 유닛(231) 근처의 반사 필름(302) 부분에서 반사되는 광선이 그들의 제1 이미지 캡쳐 유닛(231)에 대한 근접도에 의해 왜곡되지 않도록 보장할 수 있다. 또한, 미러(414)는 제1 디스플레이 인터페이스(230)에 의해 생성된 도3의 디스플레이 빛(320)을 여과하는 편광 필터로 사용될 수 있다.
제1 이미지 캡쳐 유닛(231)은 미러(414)로부터 반사된 광선을 캡쳐하도록 구성될 수 있다. 제1 이미지 캡쳐 유닛(231)은 미러링 각(420)으로 제1 이미지 캡쳐 유닛(231)의 디바이스 오리엔테이션(318)에 따라 미러(414)로부터 반사되는 광선을 캡쳐할 수 있다. 예를 들어, 제1 이미지 캡쳐 유닛(231)의 렌즈(326)는 미러(414)를 마주하도록 위치하거나 조절될 수 있다. 또한 예를 들어, 미러링 각(420)은 미러(414)로부터 반사되는 광선이 제1 이미지 캡쳐 유닛(231)의 렌즈(326)에 도달하도록 위치에 놓일 수 있다.
미러(414)는 제1 디스플레이 인터페이스(230)의 지지 구조(402)에 연결될 수 있다. 예를 들어, 미러(414)는 제1 디스플레이 인터페이스(230)의 프레임(404)에 직접 연결될 수 있다. 제4 실시예(407)에 도시된 바와 같이, 미러(414)는 제1 디스플레이 인터페이스(230)의 하부 베젤에 연결될 수 있다. 이러한 예에서, 제1 이미지 캡쳐 유닛(231)은 제1 디스플레이 인터페이스(230)의 상부 베젤에 임베디드된 카메라일 수 있다. 도4에 도시되지 않은 다른 예로, 미러(414)는 제1 디스플레이 인터페이스(230)의 상부 베젤에 연결될 수 있고, 제1 이미지 캡쳐 유닛(231)은 제1 디스플레이 인터페이스(230)의 하부 베젤에 연결되거나 디스플레이의 수평 끝 상의 반대 쪽에 연결될 수 있다.
미러(414)는 또한 트레이 구성요소(422)를 통하여 제1 디스플레이 인터페이스(230)에 연결될 수 있다. 트레이 구성요소(422)는 반사 구성요소를 지지하거나 홀딩하기 위한 디스플레이 인터페이스의 엣지에 연결된 지지 구조이다.
트레이 구성요소(422)는 제1 디스플레이 인터페이스(230)의 지지 구조(402)로부터 분리되도록 구성될 수 있다. 또한, 트레이 구성요소(422)는 제1 디스플레이 인터페이스(230)의 지지 구조(402)로 쏙 들어가도록 구성될 수 있다. 예를 들어, 트레이 구성요소(422)는 제1 디스플레이 인터페이스(230)의 하부 베젤로부터 미러링 각(420)에 미러(414) 위치로 당겨질 수 있다.
또한 트레이 구성요소(422)는 제1 디스플레이 인터페이스(230)의 지지 구조(402)로 접혀 들어가거나 나오도록 구성될 수 있다. 예를 들어, 트레이 구성요소(422)는 힌지 메커니즘(hinge mechanism)을 통해 제1 디스플레이 인터페이스(230)의 하부 베젤에 연결된 접힌 트레이일 수 있다. 이러한 예에서, 트레이 구성요소(422)는 트레이 구성요소(422)가 접혔을 때 미러 각(420)에 미러(414)를 놓을 수 있다. 트레이 구성요소(422)는 제1 사용자(312)가 비디오 채팅 또는 컨퍼런스 목적으로 제1 디스플레이 인터페이스(230)를 사용하고자 할 때, 미러(414)를 드러낼 수 있다. 트레이 구성요소(422)는 제1 사용자(312)가 컨텐트를 보기 위하여만 제1 디스플레이 인터페이스(230)를 사용하고자 할 때 미러(414)를 감출 수 있다.
도4에 도시되지 않은 예에서, 추가적인 반사 필름(302)은 미러(414)에 더하여 혹은 미러(414) 대신에 트레이 구성요소(422)에 부착될 수 있다. 트레이 구성요소(422)에 부착된 반사 필름(302)은 제1 디스플레이 인터페이스(230)에 부착된 반사 필름(302)으로부터 수신된 광선을 반사할 수 있다. 또한, 트레이 구성요소(422)에 부착된 반사 필름(302)은 제1 이미지 캡쳐 유닛(231)을 향한 이미지(316)에 대응하는 광선을 반사할 수 있다. 이러한 예에서, 트레이 구성요소(422)에 부착된 반사 필름(302)은 반사 격자 스펙트럼(306)을 위한 추가적인 필터링 메커니즘으로 사용될 수 있다.
도4에 도시되지 않은 다른 예에서, 복수의 미러(414) 또는 반사 필름(302)은 트레이 구성요소(422)에 부착되어 렌즈릿 어레이(lenslet array)를 구성할 수 있다. 렌즈릿 어레이는 하나 혹은 그 이상의 제1 이미지 캡쳐 유닛(231)을 향해 제1 디스플레이 인터페이스(230)에 부착된 반사 필름(302)으로부터 수신된 광선을 반사하도록 구성될 수 있다. 이러한 예에서, 전자 시스템(100)은 하나 혹은 그 이상의 제1 이미지 캡쳐 유닛(231)에 의해 캡쳐된 이미지(316)에 시차 유인(introducing parallax), 리포커싱(refocusing) 또는 다른 빛 영역 효과를 위하여 렌즈릿 어레이를 포함할 수 있다.
또한, 전자 시스템(100)은 미러(414)에 반사된 이미지 및 제1 이미지 캡쳐 유닛(231), 제2 이미지 캡쳐 유닛(241) 또는 그들의 조합에 의해 캡쳐된 이미지(316)에 도3의 이미지 프로세싱 메커니즘(348)을 적용할 수 있다. 전자 시스템(100)은 미러링 각(420)의 높이에 의해 야기된 왜곡을 제거하기 위하여 이미지 프로세싱 메커니즘(348)을 적용할 수 있다.
도5는 일 실시예에 따른 전자 시스템의 다양한 스펙트럼을 도시한다. 설명을 위하여 도5는 조명 스펙트럼(344), 반사 격자 스펙트럼(306) 및 노치 필터 스펙트럼(334)을 도시한다.
앞서 논의한 바와 같이, 조명 스펙트럼(344)은 도3의 광원(342)에 의해 방출된 빛의 대역폭이다. 반사 격자 스펙트럼(306)은 도3의 반사 필름(302)에 의해 선택적으로 반사된 빛의 대역폭이다. 노치 필터 스펙트럼(334)은 도3의 노치 필터(332)에 의해 통과된 빛의 대역폭이다.
도5에 도시된 바와 같이, 실시예에서 조명 스펙트럼(344), 반사 격자 스펙트럼(306) 및 노치 필터 스펙트럼(334) 또는 그들의 조합은 650nm 근처에 집중된 레드 광선에 대응하는 좁은 대역폭, 540nm 근처에 집중된 그린 광선에 대응하는 좁은 대역폭, 450nm 근처에 집중된 블루 광선에 대응하는 좁은 대역폭을 포함할 수 있다. 예를 들어, 각 대역폭의 크기는 20nm 내지 30nm 확장할 수 있다.
설명을 위하여 조명 스펙트럼(344), 반사 격자 스펙트럼(306) 및 노치 필터 스펙트럼(334)은 트리 밴드 스펙트럼(three-band spectra)으로 도시되었지만, 조명 스펙트럼(344), 반사 격자 스펙트럼(306) 및 노치 필터 스펙트럼(334) 또는 그들의 조합은 다른 수의 밴드를 포함할 수 있다. 예를 들어, 조명 스펙트럼(344), 반사 격자 스펙트럼(306) 및 노치 필터 스펙트럼(334)은 듀얼 밴드 스펙트럼 또는 쿼드 밴드 스펙트럼을 포함할 수 있다.
광원(342) 및 노치 필터(332)는 조명 스펙트럼(344) 및 노치 필터 스펙트럼(334) 각각의 최대 파장 대역(336)이 반사 격자 스펙트럼(336)의 최대 파장 대역(336)과 맞도록 선택될 수 있다. 광원(342)은 또한 반사 격자 스펙트럼(306)에 포함된 빛의 파장 대역에 대응하는 입사 광선(310)의 양을 증폭시키거나 증가시킬 수 있다.
또한 노치 필터(332)는 도2의 제1 이미지 캡쳐 유닛(231), 제2 이미지 캡쳐 유닛(241) 또는 그들의 조합에 연결되어, 도3의 디스플레이 빛(320)으로부터 반사 광선(314)을 분리할 수 있다. 예를 들어, 노치 필터(332)는 노치 필터(334)에 포함된 빛만 제1 이미지 캡쳐 유닛(231)로 통과하도록 함으로써 도2의 제1 디스플레이 인터페이스(230)의 디스플레이 빛(320)으로부터 도3의 이미지(316)를 표현하는 반사 광선(314)을 분리할 수 있다.
또한, 반사 필름(302), 광원(342), 노치 필터(332) 또는 그들의 조합은 도2의 제1 디스플레이 인터페이스(230), 제2 디스플레이 인터페이스(240) 또는 그들이 조합과 같은 디스플레이 인터페이스에 의해 생성된 도3의 디스플레이 스펙트럼(324)의 대역폭을 기초로 선택될 수 있다. 예를 들어, 반사 필름(302)은 반사 필름(302)의 반사 격자 스펙트럼(306) 및 디스플레이 스펙트럼(324) 사이에 오버랩되는 양을 기초로 선택될 수 있다. 이러한 예에서 반사 필름(302)은 반사 격자 스펙트럼(306) 및 디스플레이 스펙트럼(324) 사이에 오버랩되는 양을 최소화하도록 선택될 수 있다.
추가적인 예로, 광원(342)은 광원(342)에 의해 생성된 조명 빛(343)의 조명 스펙트럼(344)과 디스플레이 스펙트럼(324) 사이에 오버랩되는 양을 기초로 선택될 수 있다. 또한 이러한 예에서 광원(342)은 조명 스펙트럼(344)과 디스플레이 스펙트럼(324) 사이에 오버랩되는 양을 최소화하도록 선택될 수 있다. 다른 예로, 노치 필터(332)는 노치 필터(332)의 노치 필터 스펙트럼(334)과 디스플레이 스펙트럼(324) 사이에 오버랩되는 양을 기초로 선택될 수 있다. 이러한 예에서, 노치 필터(332)는 노치 필터 스펙트럼(334)과 디스플레이 스펙트럼(324) 사이에 오버랩되는 양을 최소화하도록 선택될 수 있다.
도6은 전자 시스템의 추가적인 실시예를 도시한다. 설명을 위하여 디바이스는 제1 디바이스(101)로 도시되었지만, 디바이스는 또한 도1의 제2 디바이스(102)일 수도 있다.
도6에 도시된 바와 같이, 전자 시스템(100)은 적외선 프로젝터(infrared projector)(602)를 포함할 수 있다. 적외선 프로젝터(602)는 적외선 또는 근적외선 스펙트럼 범위의 적외선 방사(604)를 생성할 수 있다. 예를 들어, 적외선 방사(604)는 700nm와 1mm 사이의 빛의 파장 대역을 포함할 수 있다. 적외선 프로젝터(602)는 조명 스펙트럼(344) 또는 다른 타입의 패턴있거나 구조화된 빛을 생성하는 광원(342)과 결합하여 적외선 방사(604)를 생성할 수 있다.
설명을 위하여 적외선 프로젝터(602)는 독립적으로 존재하는 것으로 도시되었지만, 적외선 프로젝터(602)는 광원(342)과 결합되거나 제1 디스플레이 인터페이스(230)의 프레임(404)에 임베디드될 수 있다. 도6에 도시된 바와 같이, 적외선 프로젝터(602)는 제1 디스플레이 인터페이스(230) 위에 위치할 수 있다. 도6에 도시되지 않은 다른 예로, 적외선 프로젝터(602)는 코너, 왼쪽, 오른쪽 또는 그들의 조합을 포함하는 프레임(404)의 다른 부분에 위치할 수 있다.
적외선 프로젝터(602)는 물체 또는 장면을 향하여 제1 디스플레이 인터페이스(230)로부터 떨어져 적외선 방사(604)를 생성할 수 있다. 예를 들어, 적외선 프로젝터(602)는 제1 사용자(312)를 향하여 직접 적외선 방사(604)를 하도록 구성될 수 있다.
적외선 프로젝터(602)는 제1 사용자(312) 주변의 적외선 또는 근적외선의 양을 증폭시키거나 증가시키기 위하여 제1 사용자(312)를 향하여 직접 적외선 방사(604)를 할 수 있다. 또한, 적외선 프로젝터(602)는 제1 사용자(312)로부터 반사되는 적외선 또는 근적외선의 양을 증폭시키거나 증가시키기 위하여 제1 사용자(312)를 향하여 직접 적외선 방사(604)를 할 수 있다. 예를 들어, 적외선 프로젝터(602)는 제1 사용자(312)로부터 방출된 적외선 또는 근적외선 스펙트럼 범위에서 입사 광선(310)의 양을 증가시키기 위하여 제1 사용자(312)를 향하여 직접 적외선 방사(604)를 할 수 있다.
도6에 도시된 바와 같이, 제1 디바이스(101)의 반사 필름(302)은 적외선 격자 채널(606)을 포함할 수 있다. 적외선 격자 채널(606)은 한 각도에서 적외선 및 근적외선 파장 대역의 빛을 반사하기 위한 반사 필름(302) 내부의 특징이다. 예를 들어, 한 각도는 45도 내지 89도 사이일 수 있다. 또한 예를 들어, 적외선 격자 채널(606)은 도3의 반사 격자 스펙트럼(306)에 대응하거나 반사 격자 스펙트럼(306) 내부에 있는 격자 파장 대역에 사용된 회절 격자(304) 보다 더 높은 격자 주파수 또는 더 작은 격자 거리를 가진 도3의 회절 격자(304)일 수 있다. 또한 예를 들어, 적외선 격자 채널(606)은 적외선 및 근적외선 빛을 반사하도록 구성된 두께 또는 표면 각을 포함하는 회절 격자(304)일 수 있다.
설명을 위하여, 적외선 격자 채널(606)은 반사 격자 스펙트럼(306)을 반사하도록 구성된 동일한 반사 필름(302)에 결합된 것으로 도시되었다. 그러나, 적외선 격자 채널(606)은 반사 격자 스펙트럼(306)을 반사하도록 구성된 반사 필름(302)과 분리된 다른 반사 필름(302)에 포함될 수도 있다.
적외선 격자 채널(606)에 결합된 반사 필름(302)은 적외선 프로파일(608)에 대응하는 적외선 및 근적외선 파장 대역 빛의 대역폭을 반사하는데 사용될 수 있다. 적외선 프로파일(608)은 물체나 장면으로부터 방출된 적외선 또는 근적외선으로 구성된 제1 사용자(312)의 이미지 또는 묘사일 수 있다.
적외선 격자 채널(606)을 포함하는 반사 필름(302)은 이미지(316)의 반사 각(308)과 다른 도3의 반사 각(308)으로 적외선 프로파일(608)을 반사할 수 있다. 반사 필름(302)의 적외선 격자 채널(606)은 이미지(316)의 반사 각(308) 보다 높은 반사 각(308)으로 적외선 프로파일(608)을 반사할 수 있다. 예를 들어, 이미지(316)의 반사 각(308)은 70도이고, 적외선 프로파일(608)의 반사 각(308)은 75도일 수 있다.
반사 필름(302)은 적외선 및 근적외선 파장 대역에서 광선을 캡쳐하거나 감지하도록 구성된 제1 이미지 캡쳐 유닛(231)에서 적외선 프로파일(608)을 반사할 수 있다. 설명을 위하여, 반사 필름(302)은 이미지(316)에 대응하는 광선을 캡쳐하거나 감지하도록 구성된 제1 이미지 캡쳐 유닛(231)에서 제1 이미지 캡쳐 유닛(231)으로부터 분리된 적외선 프로파일(608)을 반사하는 것으로 도시되었다. 그러나, 반사 필름(302)은 가시광선과 적외선 및 근적외선 파장 대역에서 광선을 캡쳐하거나 감지하도록 구성된 제1 이미지 캡쳐 유닛(231)에서 적외선 프로파일(608) 및 이미지(316)를 반사할 수 있다.
제1 제어부(212)는 제1 이미지 캡쳐 유닛(231)에 의해 캡쳐된 적외선 프로파일(608)을 사용하여 제1 사용자(312) 및 제2 사용자(322)와 같은 물체나 장면의 깊이 또는 위치를 결정할 수 있다. 또한 제1 제어부(212)는 제1 이미지 캡쳐 유닛(231)에 의해 캡쳐된 적외선 프로파일(608)을 사용하여 제1 사용자(312)의 얼굴이나 부속물 특징과 같은 물체나 장면의 3D 토포그래피(topography)를 결정할 수 있다.
또한 제1 제어부(212)는 적외선 프로파일(608)을 사용하여 제1 사용자(312)의 부속물 또는 신체 일부에 의해 생성된 물리적 동작을 결정할 수 있다. 또한 제1 제어부(212)는 적외선 프로파일(608)을 사용하여 제1 사용자(312)의 머리 또는 신체 위치에 의해 표현된 제1 사용자(312)의 시선 방향을 결정할 수 있다.
도7은 일 실시예에 따라 실행되는 전자 시스템의 도표를 도시한다. 제1 디바이스(101), 제2 디바이스(102) 또는 그들의 조합은 복수의 제1 이미지 캡쳐 유닛(231)에 대한 이미지 캡쳐 어레이(702)를 포함할 수 있다.
이미지 캡쳐 어레이(702)는 반사 필름(302)으로부터 반사된 광선을 캡쳐하기 위한 카메라 또는 센서의 모음이다. 예를 들어, 이미지 캡쳐 어레이(702)는 매트릭스, 그리드, 패턴 있는 배열 또는 그들의 조합으로 배열된 도2의 복수의 제1 이미지 캡쳐 유닛(231)을 포함할 수 있다. 또한, 하나 혹은 그 이상의 노치 필터(332)는 이미지 캡쳐 어레이(702)의 카메라 또는 센서를 필터링할 수 있다.
이미지 캡쳐 어레이(702)는 제1 디스플레이 인터페이스(230), 제2 디스플레이 인터페이스(240) 또는 그들의 조합에 대한 도4의 지지 구조(402)에 연결될 수 있다. 예를 들어, 이미지 캡쳐 어레이(702)는 상부 베젤 또는 하부 베젤을 포함하는 제1 디스플레이 인터페이스(230), 제2 디스플레이 인터페이스(240) 또는 그들의 조합의 프레임(404)에 연결될 수 있다. 또한, 예를 들어, 이미지 캡쳐 어레이(702)는 제1 디스플레이 인터페이스(230), 제2 디스플레이 인터페이스(240) 또는 그들의 조합의 베이스 밴드(406)에 연결될 수 있다.
이미지 캡쳐 어레이(702)는 또한 제1 디바이스(101), 제2 디바이스(102) 또는 그들의 조합의 트레이 구성요소(422)에 연결될 수 있다. 도7에 도시된 바와 같이, 이미지 캡쳐 어레이(702)는 트레이 구성요소(422)의 상부 표면 또는 그 일부를 덮을 수 있다. 이러한 예에서 트레이 구성요소(422)는 제1 디스플레이 인터페이스(230) 및 제2 디스플레이 인터페이스(240)의 하부 베젤에 연결될 수 있다.
도7에 도시되지 않은 실시예에서, 트레이 구성요소(422)는 제1 디스플레이 인터페이스(230) 및 제2 디스플레이 인터페이스(240)의 상부 베젤에 연결될 수 있고, 트레이 구성요소(422)는 트레이 구성요소(422)의 하부 표면 또는 그 일부를 덮을 수 있다. 이러한 실시예에서, 제1 디바이스(101), 제2 디바이스(102) 또는 그들의 조합은 제1 디스플레이 인터페이스(230) 및 제2 디스플레이 인터페이스(240)의 하부 베젤에 연결된 다른 트레이 구성요소(422)에 연결된 미러(414)를 포함할 수 있다.
이미지 캡쳐 어레이(702)의 이미지 캡쳐 유닛은 복수의 어레이 포지션(704)에 위치하여 반사 필름(302) 또는 반사 필름(302)과 비교할 때 다른 각도 또는 위치의 미러(414)로부터 반사되는 광선을 캡쳐할 수 있다. 어레이 포지션(704)는 이미지 캡쳐 어레이(702)의 이미지 캡쳐 유닛의 물리적 위치나 오리엔테이션 각도일 수 있다. 예를 들어, 어레이 포지션(704)는 이미지 캡쳐 어레이(702)를 지원하는데 사용되는 트레이 구성요소(422)의 물리적 위치일 수 있다.
각 어레이 포지션(704)의 이미지 캡쳐 유닛은 제1 디스플레이 인터페이스(230) 및 제2 디스플레이 인터페이스(240) 또는 그들의 조합을 포함하는 디스플레이 인터페이스 전면의 물체 또는 장면의 다른 부분에 대응하는 다른 이미지(316)를 캡쳐할 수 있다. 예를 들어, 어레이 포지션(704)의 이미지 캡쳐 유닛은 다른 어레이 포지션(704)에 있는 제1 사용자(312)로부터 방출되는 입사 광선(310)을 캡쳐할 수 있다. 더 구체적으로 예를 들면, 이미지 캡쳐 어레이(702)의 한 엣지에 있는 하나의 이미지 캡쳐 유닛은 이미지 캡쳐 어레이(702)의 반대쪽 엣지에 있는 이미지 캡쳐 유닛의 다른 인스턴스가 반대쪽으로부터 제1 사용자(312)의 사이드 프로파일을 캡쳐하는 동안 제1 사용자(312)의 사이드 프로파일을 캡쳐할 수 있다.
전자 시스템(100)은 제1 디스플레이 인터페이스(230) 및 제2 디스플레이 인터페이스(240)와 같은 디스플레이 인터페이스를 보는 제1 사용자(312), 제2 사용자(322) 또는 그들의 조합과 같은 사용자의 시청자 위치(708)를 결정할 수 있다. 전자 시스템(100)은 시청자 트래킹 유닛(710)을 사용하여 시청자 위치(708)를 결정할 수 있다.
시청자 위치(708)는 디스플레이 인터페이스를 보는 사용자의 부속물 또는 신체 일부의 위치 또는 방향이다. 시청자 위치(708)는 헤드 위치(712), 눈 위치(714) 또는 그들의 조합을 포함할 수 있다.
헤드 위치(712)는 사용자의 머리의 위치 또는 방향이다. 예를 들어, 헤드 위치(712)는 제1 디스플레이 인터페이스(230) 상에서 참조 점에 대한 제1 사용자(312)의 머리의 위치 또는 방향이다. 눈 위치(714)는 사용자의 눈의 위치 또는 방향이다. 눈 위치(714)는 제1 사용자(312)의 눈의 위치 또는 방향이다.
시청자 트래킹 유닛(710)은 시청자 위치(708)를 결정하기 위한 디바이스이다. 시청자 트래킹 유닛(710)은 제1 디스플레이 인터페이스(230)를 보는 제1 사용자(312), 제2 디스플레이 인터페이스(240)를 보는 제2 사용자(322) 또는 그들의 조합의 시청자 위치(708)를 결정하기 위한 디바이스일 수 있다. 예를 들어, 시청자 트래킹 유닛(710)은 깊이 센서, 적외선 센서, 입체 카메라 또는 그들의 조합을 포함할 수 있다. 또한, 다른 예를 들어, 제1 이미지 캡쳐 유닛(231), 제2 이미지 캡쳐 유닛(241) 또는 그들의 조합은 시청자 위치(708)를 결정하기 위한 시청자 트래킹 유닛(710)으로 사용될 수 있다.
시청자 트래킹 유닛(710)은 컴퓨터 비전 알고리즘, 깊이 감지 알고리즘 또는 그들의 조합을 사용하여 시청자 위치(708)를 결정할 수 있다. 시청자 트래킹 유닛(710)은 제1 디스플레이 인터페이스(230), 제2 디스플레이 인터페이스(240), 제1 이미지 캡쳐 유닛(231), 제2 이미지 캡쳐 유닛(241) 또는 반사 필름(302)와 같은 전자 시스템(100)의 디바이스 상의 참조 점에 대한 시청자 위치(708)를 결정할 수 있다.
시청자 트래킹 유닛(710)은 제1 디바이스(101)에서 시청자 위치(708)를 결정할 수 있다. 예를 들어, 시청자 트래킹 유닛(710)은 제1 디스플레이 인터페이스(230)를 보는 제1 사용자(312)의 시청자 위치(708)를 결정할 수 있다. 시청자 트래킹 유닛(710)은 제1 제어부(212), 제2 제어부(234), 제3 제어부(260) 또는 그들의 조합으로 시청자 위치(708)를 통신할 수 있다.
예를 들어, 제1 제어부(212), 제2 제어부(234), 제3 제어부(260) 또는 그들의 조합은 제2 디바이스(102)에서 이미지 캡쳐 어레이(702)의 하나 혹은 그 이상의 이미지 캡쳐 유닛을 식별하거나 선택하여 제1 디바이스(101)에서 제1 사용자(312)의 시청자 위치(708)를 기초로 제2 디바이스(102)에서 물체 또는 장면의 이미지(316)를 캡쳐할 수 있다.
더 구체적으로 예를 들면, 전자 시스템(100)은 한 어레이 포지션(704)에 이미지 캡쳐 유닛을 가진 제1 디스플레이 인터페이스(230)의 중앙점에 관한 시청자 위치(708)와 제2 디바이스(102)에서 이미지 캡쳐 어레이(702)의 중앙점을 결부시킬 수 있다. 이러한 예에서, 전자 시스템(100)은 한 어레이 포지션(704)의 이미지 캡쳐 유닛을 가진 제1 디스플레이 인터페이스(230)의 중앙 점(보는 사람의 시각에서 보이는)의 왼쪽 시청자 위치(708)와 이미지 캡쳐 어레이(702)의 중앙 점의 오른 쪽을 결부시킬 수 있다.
다른 예를 들면, 전자 시스템(100)은 한 어레이 포지션(704)의 이미지 캡쳐 유닛을 가진 제1 디스플레이 인터페이스(230)의 중앙 점의 오른쪽 시청자 위치(708)와 이미지 캡쳐 어레이(702)의 중앙 점의 왼 쪽을 결부시킬 수 있다. 또 다른 예로, 전자 시스템(100)은 한 어레이 포지션(704)의 이미지 캡쳐 유닛을 가진 제1 디스플레이 인터페이스(230)의 중앙 점의 아래쪽 시청자 위치(708)와 제2 디바이스(102)의 반사 필름(302)을 밀접하게 결부시킬 수 있다. 나아가, 전자 시스템(100)은 한 어레이 포지션(704)의 이미지 캡쳐 유닛을 가진 제1 디스플레이 인터페이스(230)의 중앙 점의 위쪽 시청자 위치(708)와 제2 디바이스(102)의 반사 필름(302)을 더 멀리 결부시킬 수 있다
제2 디바이스(102)에 있는 이미지 캡쳐 어레이(702)의 이미지 캡쳐 유닛은 제1 제어부(212), 제2 제어부(234), 제3 제어부(260) 또는 그들의 조합에 의해 식별되거나 선택된 어레이 포지션(704)로부터 이미지(316)를 캡쳐할 수 있다.
어레이 포지션(704)에서 식별되거나 선택된 하나 혹은 그 이상의 이미지 캡쳐 유닛은 제2 디스플레이 인터페이스(240)에 부착된 반사 필름(302)으로부터 반사된 이미지(316)를 캡쳐할 수 있다. 각 어레이 포지션(704)에서 이미지 캡쳐 유닛에 의해 캡쳐된 각 이미지(316)는 반사 필름(302)에 대한 이미지 캡쳐 유닛의 물리적 거리 또는 각 방향(angular orientation)을 기초로 다를 수 있다.
예를 들어, 제1 사용자(312)는 처음에 제1 디스플레이 인터페이스(230)를 볼 때 의자에 앉아 있을 수 있다. 또한 제1 사용자(312)는 제1 디스플레이 인터페이스(230)의 왼쪽 베젤을 향하여 의자에 앉아 있을 수 있다. 시청자 트래킹 유닛(710)은 헤드 위치(712)를 포함하는 시청자 위치(708)를 제1 디스플레이 인터페이스(230)의 중앙 점의 왼쪽 아래로 결정할 수 있다. 이러한 예를 기초로, 제1 제어부(212), 제2 제어부(234), 제3 제어부(260) 또는 그들의 조합은 제2 디스플레이 인터페이스(240)를 덮는 반사 필름(302)으로부터 반사된 제2 사용자(322)의 이미지(316)를 캡쳐하기 위하여 이미지 캡쳐 어레이(702)의 중앙 점의 오른 쪽에 있는 이미지 캡쳐 유닛을 식별하거나 선택할 수 있다.
이러한 예에 이어서, 제1 사용자(312)는 일어서서 제1 디스플레이 인터페이스(230)의 오른 쪽 베젤로 걸어갈 수 있다. 또한, 제1 사용자(312)는 위에 기재한 대로 앉은 위치에서 제1 디스플레이 인터페이스(230)에 더 가까이 일어설 수 있다. 시청자 트래킹 유닛(710)은 제1 디스플레이 인터페이스(230)의 중앙 점의 오른쪽과 같이 헤드 위치(712)를 포함하는 시청자 위치(708)를 결정할 수 있다.
또한, 시청자 트래킹 유닛(710)은 제1 디스플레이 인터페이스(230)에 더 가까운 시청자 위치(708)를 결정할 수 있다. 이러한 예를 기초로, 제1 제어부(212), 제2 제어부(234), 제3 제어부(260) 또는 그들의 조합은 이미지 캡쳐 어레이(702)의 중앙 점의 왼쪽으로 이미지 캡쳐 유닛을 식별하거나 선택하여, 제2 디스플레이 인터페이스(240)를 덮고 있는 반사 필름(302)로부터 반사된 제2 사용자(322)의 이미지(316)를 캡쳐할 수 있다.
설명을 위하여 전자 시스템(100)은 이미지 캡쳐 어레이(702)로부터 하나의 카메라를 식별하거나 선택하는 것으로 도시되었다. 그러나, 이미지 캡쳐 어레이(702)로부터 둘 혹은 그 이상의 카메라를 식별하거나 선택되어 복수의 어레이 포지션(704)로부터 이미지(316)를 캡쳐할 수 있다.
제1 디바이스(101)에서 제1 사용자(312)의 시청자 위치(708)를 결정하고, 제1 사용자(312)의 시청자 위치(708)를 기초로 제1 디스플레이 인터페이스(230)에 디스플레이 된 제2 사용자(322)의 이미지(316)을 변경하는 것은 제1 사용자(312)가 제1 사용자(312)의 위치를 기초로 시차를 경험하게 함으로써 사용자 경험을 향상시킬 수 있다. 예를 들어, 제1 사용자(312)의 시청자 위치(708) 가 변경됨에 따라 다른 어레이 포지션(704)의 이미지 캡쳐 유닛의 다른 인스턴스가 물체나 장면을 캡쳐하기 위하여 식별되거나 선택되므로 제1 디스플레이 인터페이스(230)에 디스플레이 된 이미지(316) 또한 변경된다. 제1 사용자(312), 제2 사용자(322) 또는 그들의 조합에게 시차 경험을 제공함으로써, 전자 시스템(100)은 실제로 직접 대화하는 것과 더 유사한 사용자 경험을 제공한다.
도8은 일 실시예에 따른 전자 시스템의 제어 흐름도를 도시한다. 전자 시스템(100)은 조명 모듈(802), 트래킹 모듈(804), 이미지 캡쳐 모듈(806), 이미지 프로세싱 모듈(812), 디스플레이 모듈(814) 또는 그들의 조합을 포함할 수 있다.
조명 모듈(802)은 제1 디바이스(101), 제2 디바이스(102) 또는 그들의 조합에서 제1 사용자(312), 제2 사용자(322) 또는 그들의 조합과 같은 물체 또는 장면에 조명을 비추도록 구성되었다. 설명을 위하여 조명 모듈(802)은 흐름도(800)의 일부로 도시되었지만, 전자 시스템(100)은 조명 모듈(802), 도3의 광원(342) 또는 그들의 조합이 없이도 기능할 수 있다.
예를 들어, 조명 모듈(802)은 광원(342)이 전자 시스템(100)에 포함되었는지를 결정할 수 있다. 조명 모듈(802)은 광원(342)이 전자 시스템(100)에 포함되지 않은 경우 흐름도(800)를 트래킹 모듈(804) 또는 이미지 캡쳐 모듈(806)로 바로 통과시킬 수 있다.
조명 모듈(802)은 광원(342)을 사용하여 제1 디바이스(101), 제2 디바이스(102) 또는 그들의 조합에서 물체 또는 장면에 조명을 비출 수 있다. 예를 들어, 조명 모듈(802)은 광원(342)을 조절하여 제1 사용자(312)가 제1 디스플레이 인터페이스(230)를 보고 있는 동안 제1 사용자(312)를 비출 수 있다. 다른 예를 들어, 조명 모듈(802)은 제2 사용자(322)가 제2 디스플레이 인터페이스(240)를 보고 있는 동안 제2 사용자(322)를 비추는 광원(342)을 위하여 상태, 오리엔테이션, 설정 또는 그들의 조합을 감지할 수 있다.
조명 모듈(802)은 물체 또는 장면으로부터 방출되는 입사 광선(310)의 양을 증가시키기 위하여 물체나 장면을 비출 수 있다. 조명 모듈(802)은 광원(342)을 사용하여 도3의 조명 스펙트럼(344)에 대응하거나 조명 스펙트럼(344) 내부에 있는 조명 빛(343)을 생성할 수 있다. 위에서 설명한 바와 같이, 조명 스펙트럼(344)은 도3의 반사 필름(302)의 반사 격자 스펙트럼(306)과 맞춰질 수 있다.
조명 모듈(802)은 제1 소프트웨어(226), 제2 소프트웨어(242), 제3 소프트웨어(268) 또는 그들의 조합의 일부일 수 있다. 제1 제어부(212)는 제1 소프트웨어(226)를 실행하고, 제2 제어부(234)는 제2 소프트웨어(242)를 실행하고, 제3 제어부(260)는 제3 소프트웨어(268)를 실행하여 제1 사용자(312), 제2 사용자(322) 또는 그들의 조합을 포함하는 물체나 장면을 비출 수 있다.
조명 모듈(802)은 또한 제1 제어부(212), 제2 제어부(234), 제3 제어부(260) 또는 그들의 조합에 있는 하드웨어 회로 또는 하드웨어 가속장치(accelerators)로 실행될 수도 있다. 또한 조명 모듈(802)은 제1 제어부(212), 제2 제어부(234), 제3 제어부(260) 또는 그들의 조합의 외부이고 제1 디바이스(101), 제2 디바이스(102) 또는 그들의 조합에 있는 하드웨어 회로 또는 하드웨어 가속장치(accelerators)로 실행될 수도 있다. 제1 디바이스(101), 제2 디바이스(102) 또는 그들의 조합에 있는 물체나 장면을 비춘 후, 흐름도(800)는 조명 모듈(802)에서 트래킹 모듈(804)로 진행될 수 있다.
트래킹 모듈(804)은 제1 사용자(312), 제2 사용자(322) 또는 그들의 조합과 같은 사용자의 시청자 위치(708)를 결정하도록 구성되었다. 설명을 위하여 트래킹 모듈(804)은 흐름도(800)의 일부로 도시되었지만, 트래킹 모듈(804)은 본 개시의 다른 실시예들에서 선택적일 수 있다.
예를 들어, 트래킹 모듈(804)은 시청자 위치(708)가 전자 시스템(100)의 필수 입력이 아닌 경우, 흐름도(800)에서 바로 이미지 캡쳐 모듈(806)로 통과될 수 있다. 이러한 예에서, 이미지 캡쳐 모듈(806)은 시청자 위치(708)와 관계 없이 제1 이미지 캡쳐 유닛(231), 제2 이미지 캡쳐 유닛(241) 또는 그들의 조합과 같은 하나 혹은 그 이상의 이미지 캡쳐 유닛을 사용하여 제1 사용자(312) 또는 제2 사용자(322)의 이미지(316)를 캡쳐할 수 있다.
다른 예에서 트래킹 모듈(804)은 도7의 시청자 트래킹 유닛(710)이 전자 시스템(100)에 포함되지 않은 경우 흐름도(800)를 바로 이미지 캡쳐 모듈(806)로 통과시킬 수 있다. 이러한 예에서, 이미지 캡쳐 모듈(806)은 제1 이미지 캡쳐 유닛(231), 제2 이미지 캡쳐 유닛(241) 또는 그들의 조합을 이용하여 반사 필름(302)으로부터 반사된 이미지(316)를 캡쳐할 수 있다. 이러한 예에서 계속하면, 이미지 캡쳐 모듈(806)은 이미지(316)를 캡쳐한 후, 흐름도(800)를 트래킹 모듈(804)로 리턴시킬 수 있다. 트래킹 모듈(804)은 이미지(316)를 분석하여 시청자 위치(708)를 결정할 수 있다. 트래킹 모듈(804)은 컴퓨터 비전 알고리즘을 사용하여 제1 이미지 캡쳐 유닛(231), 제2 이미지 캡쳐 유닛(241) 또는 그들의 조합에 의해 캡쳐된 이미지(316)로부터 시청자 위치(708)를 결정할 수 있다.
트래킹 모듈(804)이 시청자 트래킹 유닛(710)이 전자 시스템(100)에 포함된 것을 감지하였을 때, 트래킹 모듈(804)은 시청자 트래킹 유닛(710)을 사용하여 헤드 위치(712), 눈 위치(714) 또는 그들의 조합에 포함된 시청자 위치(708)를 결정할 수 있다. 예를 들어, 트래킹 모듈(804)은 제1 디스플레이 인터페이스(230)를 보는 제1 사용자(312)의 눈 위치(714)를 추적할 수 있다.
트래킹 모듈(804)은 컴퓨터 비전 알고리즘, 깊이 감지 알고리즘 또는 그들의 조합을 사용하여 시청자 위치(708)를 결정할 수 있다. 트래킹 모듈(804)은 또한 제1 디스플레이 인터페이스(230), 제2 디스플레이 인터페이스(240), 제1 이미지 캡쳐 유닛(231), 제2 이미지 캡쳐 유닛(241) 또는 반사 필름(302)와 같은 전자 시스템(100)의 디바이스 상의 참조 점에 관한 시청자 위치(708)를 결정할 수 있다.
예를 들어, 트래킹 모듈(804)은 제1 디스플레이 인터페이스(230) 상의 중앙 점에 대한 시청자 위치(708)를 결정할 수 있다. 더 구체적으로 예를 들면, 트래킹 모듈(804)은 제1 디스플레이 인터페이스(230) 상의 중앙 점에서 2미터, 반사 필름(302)의 앞에서 1미터로 시청자 위치(708)를 결정할 수 있다.
트래킹 모듈(804)은 제1 소프트웨어(226), 제2 소프트웨어(242), 제3 소프트웨어(268) 또는 그들의 조합의 일부일 수 있다. 제1 제어부(212)는 제1 소프트웨어(226)를 실행하고, 제2 제어부(234)는 제2 소프트웨어(242)를 실행하고, 제3 제어부(260)는 제3 소프트웨어(268)를 실행하여 시청자 위치(708)를 결정할 수 있다.
트래킹 모듈(804)은 또한 제1 제어부(212), 제2 제어부(234), 제3 제어부(260) 또는 그들의 조합에 있는 하드웨어 회로 또는 하드웨어 가속장치(accelerators)로 실행될 수도 있다. 또한 트래킹 모듈(804)은 제1 제어부(212), 제2 제어부(234), 제3 제어부(260) 또는 그들의 조합의 외부이고 제1 디바이스(101), 제2 디바이스(102) 또는 그들의 조합에 있는 하드웨어 회로 또는 하드웨어 가속장치(accelerators)로 실행될 수도 있다.
또한 트래킹 모듈(804)은 도2의 제1 통신 유닛(216), 제2 통신 유닛(236), 제3 통신 유닛(252) 또는 그들의 조합을 통하여 시청자 위치(708)를 흐름도(800)의 다른 모듈이나 전자 시스템(100)의 다른 디바이스들과 통신할 수 있다. 시청자 위치(708)를 결정한 후, 흐름도(800)는 트래킹 모듈(804)에서 이미지 캡쳐 모듈(806)로 진행될 수 있다.
이미지 캡쳐 모듈(806)은 반사 필름(302)으로부터 반사된 이미지(316)를 캡쳐하도록 구성되었다. 이미지 캡쳐 모듈(806)은 제1 이미지 캡쳐 유닛(231), 제2 이미지 캡쳐 유닛(241) 또는 그들의 조합을 이용하여 반사 필름(302)으로부터 반사된 이미지(316)를 캡쳐할 수 있다.
이미지 캡쳐 모듈(806)은 반사 각(308), 반사 필름(302), 회절 격자(304) 또는 그들의 조합을 기초로 이미지(316)를 캡쳐할 수 있다. 예를 들어, 전자 시스템(100)은 마운트 및 반사 필름(302), 제1 이미지 캡쳐 유닛(231), 제2 이미지 캡쳐 유닛(241), 광원(342), 미러(414), 이미지 캡쳐 어레이(702) 또는 그들의 조합의 위치에 대한 소정의 컨피켜레이션을 포함할 수 있다.
또한 예를 들어, 전자 시스템(100)은 반사 각(308)을 결정할 수 있다. 전자 시스템(100)은 반사 필름(302), 제1 이미지 캡쳐 유닛(231), 제2 이미지 캡쳐 유닛(241), 광원(342), 미러(414), 이미지 캡쳐 어레이(702) 또는 그들의 조합을 기초로 반사 각(308)을 결정할 수 있다.
더 구체적으로 예를 들어, 이미지 캡쳐 모듈(806)은 반사 필름(302), 제1 이미지 캡쳐 유닛(231), 제2 이미지 캡쳐 유닛(241), 광원(342), 미러(414), 이미지 캡쳐 어레이(702) 또는 그들의 조합에 대한 식별 정보를 프롬프팅하거나 수신하는 것과 같이 통신할 수 있다. 또한 더 구체적으로 예를 들면, 이미지 캡쳐 모듈(806)은 제1 사용자(312), 제2 사용자(322)와 통신하거나 상호작용하여 반사 필름(302), 제1 이미지 캡쳐 유닛(231), 제2 이미지 캡쳐 유닛(241), 광원(342), 미러(414), 이미지 캡쳐 어레이(702), 마운트 또는 그들의 조합을 식별할 수 있다.
더 구체적으로 예를 들면, 이미지 캡쳐 모듈(806)은 반사 각(308)을 결정하기 위한 셀프 컨피겨레이션 루틴 또는 메커니즘을 포함할 수 있다. 제1 사용자(312) 또는 제2 사용자(322)는 반사 필름(302)을 마주하도록 알려진 그림을 입력하거나 들고 있을 수 있고, 제1 사용자(312) 또는 제2 사용자(322)는 이미지 캡쳐 모듈(806)과 상호작용할 수 있다. 이미지 캡쳐 모듈(806)은 알려진 입력 및 제1 이미지 캡쳐 유닛(231), 제2 이미지 캡쳐 유닛(241) 또는 그들의 조합을 통해 캡쳐한 이미지(316)의 결과를 이용하여 반사 각(308)을 계산할 수 있다.
이미지 캡쳐 모듈(806)은 또한 선택 모듈(808), 블랭킹 모듈(810) 또는 그들의 조합을 포함할 수 있다. 선택 모듈(808)은 하나 혹은 그 이상의 도7의 어레이 위치(794)로부터 하나 혹은 그 이상의 이미지(316)를 캡쳐하기 위하여 이미지 캡쳐 어레이(702)로부터 하나 혹은 그 이상의 이미지 캡쳐 유닛을 식별하거나 선택하도록 구성되었다.
설명을 위하여, 선택 모듈(808)은 흐름도(800)의 일부로 도시되었지만, 선택 모듈(808)은 전자 시스템(100)이 이미지 캡쳐 어레이(702)를 포함하지 않거나, 전자 시스템(100)이 오직 하나의 이미지 캡쳐 유닛만을 포함하는 경우 본 개시의 다른 실시예에서 옵션일 수 있다.
선택 모듈(808)은 제2 디바이스(102)에 있는 시청자 위치(708)를 기초로 제1 디바이스(101)에 있는 하나 혹은 그 이상의 카메라 또는 센서를 식별하거나 선택할 수 있고 그 역도 가능하다. 예를 들어, 선택 모듈(808)은 제2 디바이스(102)에 있는 제2 사용자(322)의 시청자 위치(708)를 기초로 제1 디바이스(101)에 있는 하나 혹은 그 이상의 제1 이미지 캡쳐 유닛(231)을 식별하거나 선택할 수 있다. 또한 예를 들어, 선택 모듈(808)은 제1 디바이스(101)에 있는 제1 사용자(312)의 시청자 위치(708)를 기초로 제2 디바이스(102)에 있는 하나 혹은 그 이상의 제2 이미지 캡쳐 유닛(241)을 식별하거나 선택할 수 있다.
더 구체적인 예로, 선택 모듈(808)은 제2 디바이스(102)에 있는 제2 사용자(322)의 시청자 위치(708)를 기초로 제1 디스플레이 인터페이스(230)에 연결된 이미지 캡쳐 어레이(702)의 하나 혹은 그 이상의 카메라를 식별하거나 선택할 수 있다. 또 다른 예로, 선택 모듈(808)은 제1 디바이스(101)에 있는 제1 사용자(312)의 시청자 위치(708)를 기초로 제2 디스플레이 인터페이스(240)에 연결된 이미지 캡쳐 어레이(702)의 하나 혹은 그 이상의 카메라를 식별하거나 선택할 수 있다.
선택 모듈(808)은 이미지 캡쳐 어레이(702)의 하나 혹은 그 이상의 제1 이미지 캡쳐 유닛(231) 또는 제2 이미지 캡쳐 유닛(241)과 시청자 위치(708)를 결부시킬 수 있다. 예를 들어, 선택 모듈(808)은 이미지 캡쳐 어레이(702)의 하나의 제1 이미지 캡쳐 유닛(231)을 하나의 시청자 위치(708)와 결부시킬 수 있다. 다른 예를 들면, 선택 모듈(808)은 이미지 캡쳐 어레이(702)의 하나의 제1 이미지 캡쳐 유닛(231)을 복수의 시청자 위치(708)와 결부시킬 수 있다.
더 구체적으로 예를 들면, 선택 모듈(808)은 제1 디스플레이 인터페이스(230)의 제1 사용자(312)의 시각에서 보이는 것과 같이 중앙 점의 왼쪽인 시청자 위치(708)를 제2 사용자(322)의 시각에서 보이는 것과 같이 제2 디스플레이 인터페이스(240)의 중앙 점의 오른쪽인 이미지 캡쳐 어레이(702)에 있는 이미지 캡쳐 유닛과 결부시킬 수 있다. 다른 예로, 선택 모듈(808)은 제1 디스플레이 인터페이스(230)의 중앙 점의 아래 쪽인 시청자 위치(708)를 제2 디스플레이 인터페이스(240)에 부착된 반사 필름(302)에 더 가까운 이미지 캡쳐 어레이(702)에 있는 이미지 캡쳐 유닛과 결부시킬 수 있다.
선택 모듈(808)은 제1 디바이스(101)에서 제1 디스플레이 인터페이스(230)에 관한 시청자 위치(708)를 기초로 제2 디바이스(102)에서 이미지 캡쳐 어레이(702)에 대한 하나의 어레이 포지션(704)에 있는 이미지 캡쳐 유닛을 식별하거나 선택할 수 있다. 일단 트래킹 모듈(804)이 제1 디바이스(101)에서 시청자 위치(708)를 정하면, 선택 모듈(808)은 제2 디바이스(102)에서 이미지 캡쳐 어레이(702)에 대한 하나의 어레이 포지션(704)에 있는 이미지 캡쳐 유닛을 식별하거나 선택하여 제2 디바이스(102)에 있는 물체나 장면의 이미지(316)를 캡쳐할 수 있다.
선택 모듈(808)은 이미지 캡쳐 어레이(702)에 있는 각 카메라로부터의 결과인 개별 이미지(316)를 더 분석할 수 있다. 선택 모듈(808)은 이미지(316)의 중앙 부분에 제1 사용자(312) 및 제2 사용자(322)가 있는 이미지(316) 및 전자 시스템(100)에 의해 미리 결정된 바디 부분의 이미지에 따라 제1 사용자(312) 및 제2 사용자(322)에 대한 가장 크거나 가장 완성된 이미지(316)를 식별하거나 선택할 수 있다.
이미지 캡쳐 모듈(806)은 또한 블랭킹 모듈(810)을 포함할 수 있다. 블랭킹 모듈(810)은 이미지 캡쳐 유닛에 의해 캡쳐된 이미지(316)에 디스플레이 빛(320)에 의해 야기된 간섭을 감소시키기 위하여 블랭킹 인터벌(328)과 프레임 캡쳐 인터벌(330)을 동기화하도록 구성된다. 설명을 위하여, 블랭킹 모듈(810)은 흐름도(800)의 일부로 도시되었지만, 블랭킹 모듈(810)은 디스플레이 빛(320)이 노치 필터링 알고리즘과 같은 이미지 필터링 알고리즘을 사용하여 이미지(316)로부터 필터될 때 본 개시의 다른 실시예에서 옵션일 수 있다.
블랭킹 모듈(810)은 제1 이미지 캡쳐 유닛(231), 제2 이미지 캡쳐 유닛(241) 또는 그들의 조합에 의해 캡쳐된 이미지(316)에 디스플레이 빛(320)에 의해 야기된 간섭을 감소시키기 위하여 블랭킹 인터벌(328)과 프레임 캡쳐 인터벌(330)을 동기화하도록 구성된다. 블랭킹 모듈(810)은 블랭킹 인터벌(328) 또는 제1 디스플레이 인터페이스(230), 제2 디스플레이 인터페이스(240) 또는 그들의 조합의 타이밍을 조절하여, 제1 이미지 캡쳐 유닛(231), 제2 이미지 캡쳐 유닛(241) 또는 그들의 조합에 대한 프레임 캡쳐 인터벌(330)을 맞출 수 있다. 블랭킹 모듈(810)은 또한 프레임 캡쳐 인터벌(330) 또는 제1 이미지 캡쳐 유닛(231), 제2 이미지 캡쳐 유닛(241) 또는 그들의 조합에 대한 타이밍을 블랭킹 인터벌(328)과 맞출 수 있다. 앞서 논의된 바와 같이, 블랭킹 인터벌(328) 및 프레임 캡쳐 인터벌(330)은 30Hz 혹은 그 이상일 수 있다.
블랭킹 모듈(810)은 블랭킹 인터벌(328)에 불투명하거나 단색인 그래픽을 생성할 수 있다. 더 구체적으로 예를 들면, 블랭킹 모듈(810)은 제1 디스플레이 인터페이스(230), 제2 디스플레이 인터페이스(240) 또는 그들의 조합을 사용하여 블랭킹 인터벌(328)에 블랙 컬러드(black-colored) 그래픽을 생성할 수 있다.
블랭킹 모듈(810)은 제1 이미지 캡쳐 유닛(231), 제2 이미지 캡쳐 유닛(241) 또는 그들의 조합을 이용하여 프레임 캡쳐 인터벌(330)을 생성할 수 있다. 프레임 캡쳐 인터벌(330)은 카메라 또는 센서의 셔터 스피드, 노출 시간, 캡쳐 비율 또는 그들의 조합을 포함할 수 있다. 블랭킹 모듈(810)은 블랭킹 인터벌(328)의 주파수와 프레임 캡쳐 인터벌(330)의 주파수를 동등화함으로써 블랭킹 인터벌(328)과 프레임 캡쳐 인터벌(330)을 동기화할 수 있다.
블랭킹 모듈(810)은 디스플레이 빛(320)이 최소화되거나 소멸될 때, 제1 이미지 캡쳐 유닛(231), 제2 이미지 캡쳐 유닛(241) 또는 그들의 조합이 반사 필름(302)로부터 반사된 이미지(316)를 캡쳐하는 것을 보증하기 위하여 블랭킹 인터벌(328)과 프레임 캡쳐 인터벌(330)을 동기화할 수 있다. 또한, 블랭킹 모듈(810)은 제1 이미지 캡쳐 유닛(231), 제2 이미지 캡쳐 유닛(241)이 반사 격자 스펙트럼(306)에 따라 디스플레이 스펙트럼(324)을 캡쳐하는 것을 방지하기 위하여 블랭킹 인터벌(328)과 프레임 캡쳐 인터벌(330)을 동기화할 수 있다.
이미지 캡쳐 모듈(806)은 제1 소프트웨어(226), 제2 소프트웨어(242), 제3 소프트웨어(268) 또는 그들의 조합의 일부일 수 있다. 제1 제어부(212)는 제1 소프트웨어(226)를 실행하고, 제2 제어부(234)는 제2 소프트웨어(242)를 실행하고, 제3 제어부(260)는 제3 소프트웨어(268)를 실행하여 이미지(316)를 캡쳐할 수 있다.
이미지 캡쳐 모듈(806)은 또한 제1 제어부(212), 제2 제어부(234), 제3 제어부(260) 또는 그들의 조합에 있는 하드웨어 회로 또는 하드웨어 가속장치(accelerators)로 실행될 수도 있다. 또한 이미지 캡쳐 모듈(806)은 제1 제어부(212), 제2 제어부(234), 제3 제어부(260) 또는 그들의 조합의 외부이고 제1 디바이스(101), 제2 디바이스(102) 또는 그들의 조합에 있는 하드웨어 회로 또는 하드웨어 가속장치(accelerators)로 실행될 수도 있다.
또한, 이미지 캡쳐 모듈(806)은 제1 통신 유닛(216), 제2 통신 유닛(236), 제3 통신 유닛(252) 또는 그들의 조합을 통하여 이미지(316)를 흐름도(800)에 있는 다른 모듈 또는 전자 시스템(100)의 다른 디바이스들과 통신할 수 있다. 이미지(316)를 캡쳐한 후, 흐름도(800)는 이미지 캡쳐 모듈(806)로부터 이미지 프로세싱 모듈(812)로 진행될 수 있다.
이미지 프로세싱 모듈(812)은 반사 필름(302)으로부터 반사되고, 제1 이미지 캡쳐 유닛(231), 제2 이미지 캡쳐 유닛(241) 또는 그들의 조합에 의해 켭쳐된 이미지(316)에 이미지 프로세싱 메커니즘(348)을 적용하도록 구성되었다. 이미지 프로세싱 모듈(812)은 제1 제어부(212), 제2 제어부(234), 제3 제어부(260) 또는 그들의 조합을 사용하여 제1 이미지 캡쳐 유닛(231), 제2 이미지 캡쳐 유닛(241) 또는 그들의 조합에 의해 켭쳐된 이미지(316)에 이미지 프로세싱 메커니즘(348)을 적용할 수 있다.
예를 들어, 이미지 프로세싱 메커니즘(348)은 픽셀 기반의 프로세싱 알고리즘, 그래디언트 도메인 이미지 프로세싱 알고리즘(gradient domain image processing algorithm) 또는 그들의 조합과 같은 디지털 신호 처리 기술일 수 있다. 더 구체적으로 예를 들어, 이미지 프로세싱 메커니즘(348)은 이미지 리사이징 기술, 이미지 샤프닝 알고리즘, 수직 또는 수평 보정 기술과 같은 시선 왜곡 보정 기술, 래스터 기반 인터폴레이션 기술(raster-based interpolation technique) 또는 그들의 조합을 포함할 수 있다. 또 다른 예로, 이미지 프로세싱 메커니즘(348)은 노치 필터링 알고리즘과 같은 주파수 필터링 알고리즘을 포함하여, 노치 필터 스펙트럼(334)에 대응하는 주파수를 기초로 이미지(316)로부터 제1 디스플레이 인터페이스(230)의 디스플레이 빛(320)을 여과할 수 있다.
이미지 프로세싱 모듈(812)은 반사 필름(302)으로부터 반사되고, 제1 이미지 캡쳐 유닛(231), 제2 이미지 캡쳐 유닛(241) 또는 그들의 조합에 의해 켭쳐된 이미지(316)에 이미지 프로세싱 메커니즘(348)을 적용할 수 있다. 또한, 이미지 프로세싱 모듈(812)은 미러(414)로부터 반사되고 제1 이미지 캡쳐 유닛(231), 제2 이미지 캡쳐 유닛(241) 또는 그들의 조합에 의해 켭쳐된 이미지(316)에 이미지 프로세싱 메커니즘(348)을 적용할 수 있다.
이미지 프로세싱 모듈(812)은 반사 필름(302)으로부터 반사된 이미지(316)에 이미지 프로세싱 메커니즘(348)을 적용하여, 반사 각(308)의 높이 또는 미러링 각(420)에 의해 야기된 왜곡을 제거할 수 있다. 또한, 이미지 프로세싱 모듈(812)은 3D 컴퓨터 그래픽 지오메트리(geometry)에 반대로 이미지(316)를 매핑하여 래스터 기반 기술을 적용함으로써 이미지(316)에 이미지 프로세싱 메커니즘(348)을 적용할 수 있다. 또한, 이미지 프로세싱 모듈(812)은 수직 리사이징 알고리즘을 적용함으로써 이미지(316)에 이미지 프로세싱 메커니즘(348)을 적용하여, 이미지(316)의 수직 압축을 보정할 수 있다.
예를 들어, 이미지 프로세싱 모듈(812)은 디바이스들 사이의 다양한 각도 및 컨피겨레이션에 따라 픽셀의 가로, 세로를 재배열할 수 있다. 더 구체적으로 예를 들면, 이미지 프로세싱 모듈(812)은 제1 이미지 캡쳐 유닛(231), 제2 이미지 캡쳐 유닛(241) 또는 그들의 조합에 의해 켭쳐된 이미지(316)를 수평으로 혹은 수직으로 늘려서, 미러링 각(420), 반사 각(308) 또는 그들의 조합과 같은 다양한 각도 또는 컨피겨레이션을 기초로 이미지(316)의 화상의 가로 세로 비율, 기울기, 회전을 변경하고, 이미지(316)의 왜곡을 보정할 수 있다.
또한 예를 들어, 이미지 프로세싱 모듈(812)은 다양한 각도 또는 컨피겨레이션에 따라 점 또는 선을 삽입할 수 있다. 예를 들어, 이미지 프로세싱 모듈(812)은 소정의 메커니즘이나 방법을 사용하여 다양한 각도 또는 컨피겨레이션을 기초로 파장 대역 또는 색을 추정하거나 삽입할 수 있다.
이미지 프로세싱 모듈(812)은 제1 소프트웨어(226), 제2 소프트웨어(242), 제3 소프트웨어(268) 또는 그들의 조합의 일부일 수 있다. 제1 제어부(212)는 제1 소프트웨어(226)를 실행하고, 제2 제어부(234)는 제2 소프트웨어(242)를 실행하고, 제3 제어부(260)는 제3 소프트웨어(268)를 실행하여 이미지(316)에 이미지 프로세싱 메커니즘(348)을 적용할 수 있다.
이미지 프로세싱 모듈(812)은 또한 제1 제어부(212), 제2 제어부(234), 제3 제어부(260) 또는 그들의 조합에 있는 하드웨어 회로 또는 하드웨어 가속장치(accelerators)로 실행될 수도 있다. 또한 이미지 프로세싱 모듈(812)은 제1 제어부(212), 제2 제어부(234), 제3 제어부(260) 또는 그들의 조합의 외부이고 제1 디바이스(101), 제2 디바이스(102) 또는 그들의 조합에 있는 하드웨어 회로 또는 하드웨어 가속장치(accelerators)로 실행될 수도 있다.
또한, 이미지 프로세싱 모듈(812)은 제1 통신 유닛(216), 제2 통신 유닛(236), 제3 통신 유닛(252) 또는 그들의 조합을 통하여 처리된 이미지(316)를 흐름도(800)에 있는 다른 모듈 또는 전자 시스템(100)의 다른 디바이스들과 통신할 수 있다. 이미지(316)에 이미지 프로세싱 메커니즘(348)을 적용한 후, 흐름도(800)는 이미지 프로세싱 모듈(812)로부터 이미지 디스플레이 모듈(814)로 진행될 수 있다.
이미지 디스플레이 모듈(814)은 제2 디바이스(102)에서 제1 디바이스(101)에 의해 캡쳐된 이미지(316)을 디스플레이하도록 구성되었다. 그 반대로 마찬가지이다. 이미지 디스플레이 모듈(814)은 이미지 프로세싱 메커니즘(348)을 사용하는 이미지 프로세싱 모듈(812)에 의해 처리된 이미지(316)를 디스플레이할 수 있다. 이미지 디스플레이 모듈(814)은 제1 디스플레이 인터페이스(230), 제2 디스플레이 인터페이스(240) 또는 그들의 조합을 이용하여 이미지(316)를 디스플레이할 수 있다.
이미지 디스플레이 모듈(814)은 제1 저장 유닛(214), 제2 저장 유닛(246), 제3 저장 유닛(264) 또는 그들의 조합에서 이미지(316)를 검색할 수 있다. 이미지 디스플레이 모듈(814)은 제1 통신 유닛(216), 제2 통신 유닛(236), 제3 통신 유닛(252) 또는 그들의 조합을 이용하여 통신망(104)을 통하여 이미지(316)을 통신할 수 있다.
이미지 디스플레이 모듈(814)은 이미지(316)를 캡쳐하는 데 사용된 디바이스와 다른 디바이스에 이미지(316)를 디스플레이할 수 있다. 예를 들어, 이미지 디스플레이 모듈(814)은 제1 디바이스(101)에 의해 캡쳐된 이미지(316)를 제2 디바이스(102)에서 디스플레이할 수 있다. 더 구체적으로 예를 들면, 이미지 디스플레이 모듈(814)은 제1 디바이스(101)의 제1 이미지 캡쳐 유닛(231)에 의해 캡쳐된 이미지(316)를 제2 디바이스(102)의 제2 디스플레이 인터페이스(240)에서 디스플레이할 수 있다.
이미지 디스플레이 모듈(814)은 또한 이미지(316)를 캡쳐하는 데 사용된 디바이스와 동일한 디바이스에 이미지(316)를 디스플레이할 수 있다. 예를 들어, 이미지 디스플레이 모듈(814)은 이미지(316)를 캡쳐하는 데 사용된 동일 디바이스 상에서 픽쳐 인 픽쳐 스크린(picture-in-picture screen)으로 이미지(316)를 디스플레이할 수 있다. 더 구체적으로 예를 들면, 이미지 디스플레이 모듈(814)은 제1 디바이스(101)의 제1 이미지 캡쳐 유닛(231)에 의해 캡쳐된 이미지(316)를 제1 디스플레이 인터페이스(230)에서 픽쳐 인 픽쳐 스크린 또는 그래픽을 통하여 디스플레이할 수 있다.
이미지 디스플레이 모듈(814)은 제1 소프트웨어(226), 제2 소프트웨어(242), 제3 소프트웨어(268) 또는 그들의 조합의 일부일 수 있다. 제1 제어부(212)는 제1 소프트웨어(226)를 실행하고, 제2 제어부(234)는 제2 소프트웨어(242)를 실행하고, 제3 제어부(260)는 제3 소프트웨어(268)를 실행하여 이미지(316)를 디스플레이할 수 있다.
이미지 디스플레이 모듈(814)은 또한 제1 제어부(212), 제2 제어부(234), 제3 제어부(260) 또는 그들의 조합에 있는 하드웨어 회로 또는 하드웨어 가속장치(accelerators)로 실행될 수도 있다. 또한 이미지 디스플레이 모듈(814)은 제1 제어부(212), 제2 제어부(234), 제3 제어부(260) 또는 그들의 조합의 외부이고 제1 디바이스(101), 제2 디바이스(102) 또는 그들의 조합에 있는 하드웨어 회로 또는 하드웨어 가속장치(accelerators)로 실행될 수도 있다.
제1 이미지 캡쳐 유닛(231), 제2 이미지 캡쳐 유닛(241) 또는 그들의 조합에 의해 켭쳐되고, 제1 디스플레이 인터페이스(230), 제2 디스플레이 인터페이스(240) 또는 그들의 조합 상에서 디스플레이된 이미지(316)의 물리적 변형은 다른 사람과 통신하기 위하여 제1 디바이스(101), 제2 디바이스(102), 제3 디바이스(103) 또는 그들의 조합을 사용하는 사람과 같은 물리적 세계에서의 움직임을 초래한다. 물리적 세계에서의 움직임이 생김에 따라, 그 움직임 자체는 전자 시스템(100)의 연속적인 실행 및 실제 세계에서의 연속적인 움직임을 위하여 제1 디스플레이 인터페이스(230), 제2 디스플레이 인터페이스(240) 또는 그들의 조합 상에서 디스플레이할 수 있는 추가적인 이미지(316)을 생성한다.
여기서 도시된 모듈들은 제1 제어부(212) 또는 제2 제어부(234), 제3 제어부(260) 또는 그들의 조합에 있는 하드웨어 실행 또는 하드웨어 가속 장치일 수 있다. 모듈들은 또한 제1 디바이스(101), 제2 디바이스(102) 또는 제3 디바이스(103) 내부이지만, 제1 제어부(212), 제2 제어부(234) 또는 제3 제어부(260)의 외부인 하드웨어 실행 또는 하드웨어 가속 장치일 수 있다.
설명을 위하여 다양한 모듈들은 제1 디바이스(101), 제2 디바이스(102) 또는 제3 디바이스(103)에 특정된 것처럼 도시하였다. 그러나, 모듈들은 다르게 배치될 수 있다. 예를 들어, 다양한 모듈들은 다른 디바이스 또는 복수의 디바이스에 걸쳐 분배된 모듈들의 기능으로 실행될 수 있다. 또한 예를 들어, 다양한 모듈들은 비일시적 컴퓨터 판독 가능 저장매체에 저장될 수 있다.
더 구체적인 예를 들어, 상술한 하나 혹은 그 이상의 모듈들은 다른 시스템, 다른 디바이스, 다른 사용자 또는 그들의 조합으로의 분배를 위해 비일시적 컴퓨터 판독 가능 저장매체에 저장될 수 있다. 또한, 더 구체적인 예를 들어 상술한 모듈들은 하나의 칩이나 프로세서 또는 복수의 하드웨어에 걸쳐 실행되거나 저장될 수 있다.
이 애플리케이션에서 설명된 모듈들은 비일시적 컴퓨터 판독 가능 저장매체에 저장될 수 있다. 제1 저장 유닛(214), 제2 저장 유닛(246) 및 제3 저장 유닛(264) 또는 그들의 조합은 비일시적 컴퓨터 판독 가능 저장매체를 표현할 수 있다. 제1 저장 유닛(214), 제2 저장 유닛(246) 및 제3 저장 유닛(264) 또는 그들의 조합 또는 그 일부는 제1 디바이스(101), 제2 디바이스(102) 또는 제3 디바이스(103)에서 제거될 수 있다. 비일시적 컴퓨터 판독 가능 저장매체의 예는 비휘발성 메모리 카드 또는 스틱, 외부 하드 디스크 드라이브, 카세트 테이프 도는 광학 디스크가 있을 수 있다.
도9는 본 개시의 다른 일 실시예에 따른 전자 시스템 작동 방법의 흐름도를 도시한다. 한 실시예에서 전자 시스템(100)은 도8의 흐름도(800)를 실행할 수 있다.
방법(900)은 반사 각(308)에서 반사 격자 스펙트럼(306) 내부의 이미지(316)를 회절 격자(304)를 포함하는 반사 필름(302)에서 반사하는 단계 902를 포함할 수 있다. 방법(900)은 반사 필름(302)로부터 반사된 이미지(316)를 디바이스 오리엔테이션(318)에 위치한 제1 이미지 캡쳐 유닛(231)으로 캡쳐하는 단게 904를 더 포함할 수 있다.
방법(900)은 또한, 반사 필름(302)의 제1 엣지(416)에 위치한 미러(414)로 반사 필름(302)에서 반사된 이미지(316)를 반사하는 단계 906을 포함할 수 있다. 이 때 미러(414)는 반사 필름(302)과 미러링 각(420)을 형성할 수 있다. 방법(900)은 반사 필름(302)의 제1 엣지(416)의 반대편 또는 옆에 위치한 제2 엣지(418)에 위치한 제1 이미지 캡쳐 유닛(231)으로 미러링 각(420)으로 맞춰진 디바이스 오리엔테이션(318)에서 미러(414)로부터 반사된 이미지(316)를 캡쳐링하는 단계 908을 더 포함할 수 있다.
방법(900)은 또한, 노치 필터(332)로 반사 필름(302)에 연결된 제2 디스플레이 인터페이스(240)의 디스플레이 빛(320)으로부터 반사 격자 스펙트럼(306)에 대응하는 노치 필터 스펙트럼(334)을 기초로 이미지(316)를 분리하는 단계 910을 포함할 수 있다. 이 때, 노치 필터(332)는 제1 이미지 캡쳐 유닛(231)의 렌즈에 부착되도록 구성된다. 방법(900)은 반사 필름(302)으로부터 떨어진 광원(342)으로 조명 빛(343)을 방출하는 단계 912를 더 포함할 수 있다. 이 때, 조명 빛은 반사 격자 스펙트럼(306)에 대응하는 조명 스펙트럼(344) 내부에 있을 수 있다.
방법(900)은 또한 제1 이미지 캡쳐 유닛(231)의 렌즈(326)에 연결된 편광 프리즘(338)으로 반사 필름(302)에 연결된 제1 디스플레이 인터페이스(230)에 의해 생성된 편광(340)을 흡수하는 단계 914를 포함할 수 있다. 이 때, 편광 프리즘(338)은 제1 이미지 캡쳐 유닛(231)의 렌즈에 부착되도록 구성된다. 방법(900)은 다른 제1 이미지 캡쳐 유닛(231)을 포함하는 이미지 캡쳐 어레이(702) 내부의 어레이 포지션(704)에 위치한 제1 이미지 캡쳐 유닛(231)으로 반사 필름(302)으로부터 반사된 이미지(316)를 캡쳐하는 단게 916을 포함할 수 있다. 방법(900)은 반사 필름(302)에 연결된 제1 디스플레이 인터페이스(230)로부터의 디스플레이 빛(320)을 통과시키는 동안 반사 필름(302)으로 이미지(316)를 반사하는 단계 918을 더 포함할 수 있다. 방법(900)은 또한, 제1 이미지 캡쳐 유닛(231)에 연결된 제1 제어부(212)로 제1 이미지 캡쳐 유닛(231)에 의해 캡쳐된 이미지(316)에 이미지 프로세싱 메커니즘(348)을 적용하는 단계 920을 포함할 수 있다.
도10은 본 개시의 또 다른 일 실시예에 따른 전자 시스템 작동 방법의 흐름도를 도시한다. 한 실시예에서 전자 시스템(100)은 도8의 흐름도(800)를 실행할 수 있다.
방법(1000)은 반사 격자 스펙트럼(306) 내부에서 이미지(316)을 수신하는 단계 1002를 포함할 수 있다. 방법(1000)은 또한, 반사 각(308)에서 반사 필름(302)로부터 반사되고, 반사 각(308)으로 맞춰진 디바이스 오리엔테이션(318)에서 제1 이미지 캡쳐 유닛(231)에 의해 캡쳐된 이미지(316)를 처리하기 위하여 제1 제어부(212)로 이미지(316)에 이미지 프로세싱 메커니즘(348)을 적용하는 단계 1004를 포함할 수 있다.
방법(1000)은 또한 제1 이미지 캡쳐 유닛(231)을 향하여 미러링 각(420)에서 이미지(316)를 반사하기 위하여 미러(414)로부터 반사된 이미지에 이미지 프로세싱 메커니즘(348)을 적용하는 단계 1006를 포함할 수 있다. 방법(1000)은 반사 필름(302)에 연결된 제1 디스플레이 인터페이스(230) 상에 디스플레이되는 디스플레이 스펙트럼(324) 내부의 디스플레이 빛(320)을 식별하는 단계 1008을 더 포함할 수 있다. 이 때, 이미지 프로세싱 메커니즘(348) 적용 단계는 디스플레이 스펙트럼(324), 반사 격자 스펙트럼(306) 또는 그들의 조합을 기초로 디스플레이 빛(320)으로부터 이미지(316)를 분리하는 단계를 포함할 수 있다.
방법(1000)은 또한 시청자 위치(708)를 결정하는 단계 1010을 포함할 수 있다. 방법(1000)은 이미지 캡쳐 어레이(702)의 어레이 포지션(704)에서 반사 필름(302)에 의해 반사된 이미지(316)를 캡쳐하기 위하여 시청자 위치(708)에 대응하는 어레이 포지션(704)를 기초로 제1 이미지 캡쳐 유닛(231)을 식별하는 단계를 더 포함할 수 있다.
방법, 프로세스, 장치, 디바이스, 제품 및/또는 시스템을 초래하는 것은 간단하고, 비용적으로 효율적이고, 복잡하지 않고, 매우 다재다능하며, 정확하고, 민감하며, 효율적이고 경제적인 제조, 애플리케이션 및 활용이다. 본 개시의 일 실시예의 또 다른 중요한 측면은 비용 절감, 시스템 간소화 및 성능 향상의 역사적 트렌드를 가치 있게 지원하고 서비스하는 것이다. 본 개시 실시예의 이러한 특징 및 다른 가치 있는 특징들은 최소한 다음 단계로의 기술 발전을 의미한다.
발명이 바람직한 실시예와 함께 설명되는 동안에 많은 대체, 수정, 다양화가 전술의 설명으로 당업자에게 명백해 졌을 것이다. 따라서, 그러한 대체, 수정, 다양화는 청구 범위에 포함된다. 발명의 상세한 설명 및 첨부된 도면에서 설명되고 도시된 모든 것들은 범위를 한정하기 위한 것이 아니라 설명을 위한 것으로 이해된다.

Claims (20)

  1. 제1 사용자의 이미지를 포함하고, 제1 디스플레이를 향하여 입사되는 입사 광선을 수광하여, 반사 격자 스펙트럼에 속하는 이미지를 포함하는 반사 광선을 반사 각도로 반사하도록 구성된 회절 격자를 포함하는 반사 필름; 및
    상기 반사 필름으로부터 반사된 반사 광선에 포함된 상기 반사 격자 스펙트럼에 속하는 이미지를 캡쳐하는 이미지 캡쳐 유닛; 및
    제2 디스플레이에 상기 제1 사용자의 이미지가 디스플레이되도록 하기 위하여 상기 이미지 캡쳐 유닛에 의하여 캡쳐 된 이미지를 상기 제2 디스플레이로 전송하는 통신 인터페이스를 포함하고,
    상기 반사 필름은 상기 제1 디스플레이에 부착되고,
    상기 반사 각도는 입사 점에서 상기 반사 필름에 수직인 선과 상기 반사 필름으로부터 반사된 상기 반사 격자 스펙트럼에 속하는 이미지를 포함하는 반사 광선 사이에 형성된 각도로, 90도보다 작은 것을 특징으로 하는 전자 시스템.
  2. 제1항에 있어서, 상기 전자 시스템은
    상기 반사 필름의 제1 엣지에 위치하여 상기 반사 필름과 미러링 각을 형성하는 미러를 더 포함하고,
    상기 반사 필름은 상기 미러로 상기 이미지를 반사하고,
    상기 이미지 캡쳐 유닛은 상기 제1 엣지의 반대 쪽인 제2 엣지에 위치하고, 상기 미러링 각에 맞추어 조정된 디바이스 오리엔테이션의 다른 인스턴스에서 상기 미러로부터 반사된 이미지를 캡쳐하는, 전자 시스템.
  3. 제1항에 있어서, 상기 전자 시스템은
    상기 반사 격자 스펙트럼에 대응하는 노치 필터 스펙트럼을 기초로, 상기 반사 필름에 연결된 디스플레이 인터페이스의 디스플레이 빛으로부터 상기 이미지를 분리하는 노치 필터를 더 포함하고,
    상기 노치 필터는 상기 이미지 캡쳐 유닛의 렌즈에 부착되는, 전자 시스템.
  4. 제1항에 있어서, 상기 전자 시스템은,
    상기 반사 필름과 떨어져 조명 빛을 방출하도록 구성된 광원을 더 포함하고,
    상기 조명 빛은 상기 반사 격자 스펙트럼에 대응하는 조명 스펙트럼에 속하는, 전자 시스템.
  5. 제1항에 있어서, 상기 전자 시스템은
    상기 이미지 캡쳐 유닛의 렌즈에 연결되어, 상기 반사 필름에 연결된 디스플레이 인터페이스에 의해 생성된 편광을 흡수하는 편광 프리즘을 더 포함하는 전자 시스템.
  6. 제1항에 있어서,
    상기 이미지 캡쳐 유닛은 어레이 포지션에 위치하는 상기 이미지 캡쳐 유닛의 다른 인스턴스들을 포함하는 이미지 캡쳐 어레이 내부에 존재하여, 상기 반사 필름으로부터 반사된 상기 이미지를 캡쳐하는 전자 시스템.
  7. 제1항에 있어서,
    상기 반사 필름은, 상기 반사 필름에 연결된 디스플레이 인터페이스로부터의 디스플레이 빛을 통과시키는 반면, 상기 이미지를 반사하는 전자 시스템.
  8. 제1항에 있어서, 상기 전자 시스템은
    상기 이미지 캡쳐 유닛에 연결되어, 상기 이미지 캡쳐 유닛에 의해 캡쳐된 상기 이미지에 이미지 프로세싱 메커니즘을 적용하는 제어부를 더 포함하는 전자 시스템.
  9. 회절 격자를 포함하는 반사 필름이 제1 사용자의 이미지를 포함하고, 제1 디스플레이를 향하여 입사되는 입사 광선을 수광하여, 반사 격자 스펙트럼에 속하는 이미지를 포함하는 반사 광선을 반사 각도로 반사하는 단계;
    상기 반사 필름으로부터 반사된 상기 반사 광선에 포함된 상기 반사 격자 스펙트럼에 속하는 이미지를 이미지 캡쳐 유닛으로 캡쳐하는 단계; 및
    제2 디스플레이에 상기 제1 사용자의 이미지가 디스플레이되도록 하기 위하여 상기 이미지 캡쳐 유닛에 의하여 캡쳐 된 이미지를 상기 제2 디스플레이로 전송하는 단계를 포함하고,
    상기 반사 필름은 상기 제1 디스플레이에 부착되고,
    상기 반사 각도는 입사 점에서 상기 반사 필름에 수직인 선과 상기 반사 필름으로부터 반사된 상기 반사 격자 스펙트럼에 속하는 이미지를 포함하는 반사 광선 사이에 형성된 각도로, 90도보다 작은 것을 특징으로 하는 전자 시스템 작동 방법.
  10. 제9항에 있어서, 상기 전자 시스템 작동 방법은,
    상기 반사 필름으로부터 반사된 상기 이미지를 상기 반사 필름의 제1 엣지에 위치한 미러로 반사하는 단계; 및
    상기 제1 엣지의 반대쪽 또는 옆에 존재하는 제2 엣지에 위치한 상기 이미지 캡쳐 유닛으로 미러링 각에 맞추어 조정된 디바이스 오리엔테이션의 다른 인스턴스에서 상기 미러로부터 반사된 상기 이미지를 캡쳐하는 단계를 더 포함하고,
    상기 미러는 상기 반사 필름과 상기 미러링 각을 형성하는 전자 시스템 작동 방법.
  11. 제9항에 있어서, 상기 전자 시스템 작동 방법은,
    상기 반사 격자 스펙트럼에 대응하는 노치 필터 스펙트럼을 기초로, 노치 필터로 상기 반사 필름에 연결된 디스플레이 인터페이스의 디스플레이 빛으로부터 상기 이미지를 분리하는 단계를 더 포함하고,
    상기 노치 필터는 상기 이미지 캡쳐 유닛의 렌즈에 부착되는, 전자 시스템 작동 방법.
  12. 제9항에 있어서, 상기 전자 시스템 작동 방법은,
    상기 반사 필름과 떨어진 광원으로 조명 빛을 방출하는 단계를 더 포함하고,
    상기 조명 빛은 상기 반사 격자 스펙트럼에 대응하는 조명 스펙트럼에 속하는, 전자 시스템 작동 방법.
  13. 제9항에 있어서, 상기 전자 시스템 작동 방법은
    상기 이미지 캡쳐 유닛의 렌즈에 연결된 편광 프리즘으로 상기 반사 필름에 연결된 디스플레이 인터페이스에 의해 생성된 편광을 흡수하는 단계를 더 포함하는 전자 시스템 작동 방법.
  14. 제9항에 있어서, 상기 전자 시스템 작동 방법은,
    상기 이미지 캡쳐 유닛은 하나의 어레이 포지션에 위치하는 상기 이미지 캡쳐 유닛의 다른 인스턴스들을 포함하는 이미지 캡쳐 어레이 내부에 존재하여, 상기 반사 필름으로부터 반사된 상기 이미지를 캡쳐하는 전자 시스템 작동 방법.
  15. 제9항에 있어서, 상기 전자 시스템 작동 방법은,
    상기 반사 필름으로, 상기 반사 필름에 연결된 디스플레이 인터페이스로부터의 디스플레이 빛은 통과시키는 반면, 상기 이미지를 반사하는 계를 더 포함하는 전자 시스템 작동 방법.
  16. 제9항에 있어서, 상기 전자 시스템 작동 방법은,
    상기 이미지 캡쳐 유닛에 연결된 제어부로, 상기 이미지 캡쳐 유닛에 의해 캡쳐된 상기 이미지에 이미지 프로세싱 메커니즘을 적용하는 단계를 더 포함하는 전자 시스템 작동 방법.
  17. 회절 격자를 포함하는 반사 필름이 제1 사용자의 이미지를 포함하고, 제1 디스플레이를 향하여 입사되는 입사 광선을 수광하여, 반사 격자 스펙트럼에 속하는 이미지를 포함하는 반사 광선을 반사 각도로 반사하는 단계; 및
    제어부에 의해, 상기 반사 각도에 맞추어 조정된 디바이스 오리엔테이션에서 이미지 캡쳐 유닛에 의해 캡쳐된, 상기 반사 격자 스펙트럼에 속하는 이미지를 처리하기 위하여 상기 이미지에 이미지 프로세싱 메커니즘을 적용하는 단계를 포함하고,
    상기 반사 필름은 상기 제1 디스플레이에 부착되고,
    상기 반사 각도는 입사 점에서 상기 반사 필름에 수직인 선과 상기 반사 필름으로부터 반사된 상기 반사 격자 스펙트럼에 속하는 이미지를 포함하는 반사 광선 사이에 형성된 각도로, 90도보다 작은 것을 특징으로 하는 전자 시스템 작동 방법.
  18. 제17항에 있어서, 상기 전자 시스템 작동 방법은,
    상기 이미지 캡쳐 유닛을 향하여 미러링 각에서 상기 이미지를 반사하기 위하여, 미러로부터 반사된 상기 이미지에 상기 이미지 프로세싱 메커니즘을 적용하는 단계를 더 포함하는 전자 시스템 작동 방법.
  19. 제17항에 있어서, 상기 전자 시스템 작동 방법은,
    상기 반사 필름에 연결된 디스플레이 인터페이스 상에 디스플레이된 디스플레이 스펙트럼에 속하는 디스플레이 빛을 식별하는 단계를 더 포함하고,
    상기 이미지 프로세싱 메커니즘을 적용하는 단계는,
    상기 디스플레이 스펙트럼, 상기 반사 격자 스펙트럼 또는 그들의 조합을 기초로 상기 디스플레이 빛으로부터 상기 이미지를 분리하는 단계를 포함하는, 전자 시스템 작동 방법.
  20. 제17항에 있어서, 상기 전자 시스템 작동 방법은,
    시청자 위치를 결정하는 단계; 및
    상기 반사 필름에 의해 반사된 상기 이미지를 캡쳐하기 위하여, 상기 시청자 위치에 대응하는 어레이 포지션을 기초로, 하나의 이미지 캡쳐 어레이 안의 상기 어레이 포지션에서 이미지 캡쳐 유닛을 식별하는 단계를 더 포함하는 전자 시스템 작동 방법.
KR1020150170078A 2015-01-29 2015-12-01 시선 조정 메커니즘을 갖춘 전자 시스템 및 그 작동 방법 KR102304308B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/609,056 US9541998B2 (en) 2015-01-29 2015-01-29 Electronic system with gaze alignment mechanism and method of operation thereof
US14/609,056 2015-01-29

Publications (2)

Publication Number Publication Date
KR20160093535A KR20160093535A (ko) 2016-08-08
KR102304308B1 true KR102304308B1 (ko) 2021-09-23

Family

ID=56543666

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150170078A KR102304308B1 (ko) 2015-01-29 2015-12-01 시선 조정 메커니즘을 갖춘 전자 시스템 및 그 작동 방법

Country Status (5)

Country Link
US (1) US9541998B2 (ko)
EP (1) EP3251341B1 (ko)
KR (1) KR102304308B1 (ko)
CN (1) CN107209295A (ko)
WO (1) WO2016122092A1 (ko)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9113036B2 (en) 2013-07-17 2015-08-18 Ebay Inc. Methods, systems, and apparatus for providing video communications
US10175488B2 (en) 2015-05-04 2019-01-08 North Inc. Systems, devices, and methods for spatially-multiplexed holographic optical elements
US10078220B2 (en) 2015-05-28 2018-09-18 Thalmic Labs Inc. Wearable heads-up display with integrated eye tracker
US10151926B2 (en) 2016-01-29 2018-12-11 North Inc. Systems, devices, and methods for preventing eyebox degradation in a wearable heads-up display
US9924238B2 (en) * 2016-03-21 2018-03-20 Screenovate Technologies Ltd. Method and a system for using a computerized source device within the virtual environment of a head mounted device
JP6782426B2 (ja) * 2016-08-04 2020-11-11 株式会社Nttドコモ 映像提示システム
KR102523433B1 (ko) * 2018-01-10 2023-04-19 삼성전자주식회사 깊이 정보를 결정하는 방법 및 광학 시스템
DE102018115302A1 (de) * 2018-06-26 2020-01-02 Universität Kassel Präsentationssystem und Präsentationsverfahren
KR102593569B1 (ko) 2019-01-08 2023-10-25 삼성전자주식회사 전자 장치 및 그 제어 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120274734A1 (en) * 2011-04-28 2012-11-01 Cisco Technology, Inc. System and method for providing enhanced eye gaze in a video conferencing environment
US20140118604A1 (en) * 2012-11-01 2014-05-01 Raytheon Company Multispectral imaging camera

Family Cites Families (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4441814A (en) * 1981-09-28 1984-04-10 Buchanan William T Spectrograph providing spectral reference marks
GB8618159D0 (en) * 1986-07-25 1986-09-03 Pa Consulting Services Spectrometer based instruments
US5382972A (en) 1988-09-22 1995-01-17 Kannes; Deno Video conferencing system for courtroom and other applications
US5695808A (en) * 1993-04-16 1997-12-09 Crown Roll Leaf Inc. Method for making transparent reflective films
US5572248A (en) 1994-09-19 1996-11-05 Teleport Corporation Teleconferencing method and system for providing face-to-face, non-animated teleconference environment
US5500671A (en) 1994-10-25 1996-03-19 At&T Corp. Video conference system and method of providing parallax correction and a sense of presence
US5612734A (en) 1995-11-13 1997-03-18 Bell Communications Research, Inc. Eye contact apparatus employing a directionally transmissive layer for video conferencing
US5822066A (en) * 1997-02-26 1998-10-13 Ultratech Stepper, Inc. Point diffraction interferometer and pin mirror for use therewith
US6088013A (en) * 1997-08-26 2000-07-11 The University Of British Columbia Array addressing of pneumatically switched image display device
US6259470B1 (en) 1997-12-18 2001-07-10 Intel Corporation Image capture system having virtual camera
US5953053A (en) 1998-09-02 1999-09-14 Motorola, Inc. Teleconference system with visual display terminal
JP2001095760A (ja) * 1999-09-28 2001-04-10 Topcon Corp 眼の光学特性測定装置
US6188501B1 (en) * 1999-11-24 2001-02-13 Stephen Neushul Apparatus and method of capturing images from alternative media types
US6507357B2 (en) 2000-11-29 2003-01-14 Applied Minds, Inc. Method and apparatus for maintaining eye contact in teleconferencing using reflected images
US6724417B1 (en) 2000-11-29 2004-04-20 Applied Minds, Inc. Method and apparatus maintaining eye contact in video delivery systems using view morphing
GB0029340D0 (en) * 2000-11-30 2001-01-17 Cambridge 3D Display Ltd Flat panel camera
US6714234B1 (en) 2001-04-11 2004-03-30 Applied Minds, Inc. Maintaining eye-contact in teleconferencing using structured light
JP4060155B2 (ja) * 2002-09-25 2008-03-12 富士通株式会社 光装置
US6813018B2 (en) * 2002-11-07 2004-11-02 The Boeing Company Hyperspectral imager
US6985294B1 (en) * 2003-03-27 2006-01-10 Eric Rosenthal Full spectrum color projector
US7052134B2 (en) * 2003-05-29 2006-05-30 Nidek Co., Ltd. Fundus camera
FI114752B (fi) 2003-05-30 2004-12-15 Nokia Corp Valosähköinen elementti ja sellaisen käsittävä päätelaite
US7311723B2 (en) * 2003-07-11 2007-12-25 University Of Washington Scanning laser device and methods of use
US7570803B2 (en) * 2003-10-08 2009-08-04 Microsoft Corporation Virtual camera translation
JP4069855B2 (ja) 2003-11-27 2008-04-02 ソニー株式会社 画像処理装置及び方法
US7257272B2 (en) * 2004-04-16 2007-08-14 Microsoft Corporation Virtual image generation
US7347553B2 (en) * 2004-09-24 2008-03-25 Canon Kabushiki Kaisha Ophthalmic image sensing apparatus
US20060290100A1 (en) * 2005-06-23 2006-12-28 Steve Miller Vehicle hitch aligning system
TWI457832B (zh) * 2006-09-26 2014-10-21 Toppan Printing Co Ltd Rfid資訊媒體、及黏貼有該媒體之物品
US20080106591A1 (en) 2006-11-02 2008-05-08 Border John N Two way communication system
JP5038703B2 (ja) * 2006-12-22 2012-10-03 株式会社トプコン 眼科装置
US7808540B2 (en) 2007-01-09 2010-10-05 Eastman Kodak Company Image capture and integrated display apparatus
US8203591B2 (en) * 2007-04-30 2012-06-19 Cisco Technology, Inc. Method and system for optimal balance and spatial consistency
US8282222B2 (en) 2007-10-10 2012-10-09 Gerard Dirk Smits Image projector with reflected light tracking
TWI386617B (zh) * 2007-12-31 2013-02-21 Ind Tech Res Inst 反射式膜厚量測方法
JP4518193B2 (ja) * 2008-06-10 2010-08-04 ソニー株式会社 光学装置および虚像表示装置
US8652044B2 (en) * 2008-08-01 2014-02-18 Igor Abramov Portable non-contact tonometer and method of determining intra-ocular pressure using such
US8587634B1 (en) * 2008-12-12 2013-11-19 Cisco Technology, Inc. System and method for intelligent mode switching in a communications environment
US20100277576A1 (en) 2009-04-29 2010-11-04 David Fattal Systems for Capturing Images Through a Display
US8514260B2 (en) 2009-05-28 2013-08-20 Microsoft Corporation Establishing eye contact in video conferencing
US8521331B2 (en) * 2009-11-13 2013-08-27 Intuitive Surgical Operations, Inc. Patient-side surgeon interface for a minimally invasive, teleoperated surgical instrument
JP5816257B2 (ja) 2010-03-22 2015-11-18 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 観察者の視線を追跡するシステム及び方法
JP5538194B2 (ja) * 2010-11-30 2014-07-02 ソニー株式会社 光学装置及び電子機器
US8446455B2 (en) * 2010-12-08 2013-05-21 Cisco Technology, Inc. System and method for exchanging information in a video conference environment
US20120274735A1 (en) * 2011-04-28 2012-11-01 Cisco Technology, Inc. System and method for providing enhanced eye gaze in a video conferencing environment
CN102253491B (zh) * 2011-06-24 2014-04-02 南京炫视界光电科技有限公司 不对等焦距、高放大倍率的虚像显示光机
US9213163B2 (en) * 2011-08-30 2015-12-15 Microsoft Technology Licensing, Llc Aligning inter-pupillary distance in a near-eye display system
US20130147919A1 (en) * 2011-12-09 2013-06-13 California Institute Of Technology Multi-View Difraction Grating Imaging With Two-Dimensional Displacement Measurement For Three-Dimensional Deformation Or Profile Output
US8970655B2 (en) 2011-12-16 2015-03-03 Polycom, Inc. Reflective and refractive solutions to providing direct eye contact videoconferencing
US8890919B2 (en) 2012-02-29 2014-11-18 Cisco Technology, Inc. Video conferencing display and method to facilitate enhanced eye contact
TWI480021B (zh) * 2012-04-27 2015-04-11 Crystalvue Medical Corp Assist in gaze focusing on the fundus detection device
US9137524B2 (en) * 2012-11-27 2015-09-15 Qualcomm Incorporated System and method for generating 3-D plenoptic video images
US9179833B2 (en) * 2013-02-28 2015-11-10 Carl Zeiss Meditec, Inc. Systems and methods for improved ease and accuracy of gaze tracking
US8958608B2 (en) * 2013-06-04 2015-02-17 Ut-Battelle, Llc Frontal view reconstruction for iris recognition
TW201505603A (zh) * 2013-07-16 2015-02-16 Seiko Epson Corp 資訊處理裝置、資訊處理方法及資訊處理系統
KR101528332B1 (ko) * 2014-01-09 2015-06-15 한국과학기술연구원 극자외선 발생 및 분광기 캘리브레이션 장치 및 그 방법
US10228562B2 (en) * 2014-02-21 2019-03-12 Sony Interactive Entertainment Inc. Realtime lens aberration correction from eye tracking

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120274734A1 (en) * 2011-04-28 2012-11-01 Cisco Technology, Inc. System and method for providing enhanced eye gaze in a video conferencing environment
US20140118604A1 (en) * 2012-11-01 2014-05-01 Raytheon Company Multispectral imaging camera

Also Published As

Publication number Publication date
US20160227164A1 (en) 2016-08-04
KR20160093535A (ko) 2016-08-08
EP3251341A4 (en) 2018-01-24
EP3251341B1 (en) 2021-08-11
US9541998B2 (en) 2017-01-10
WO2016122092A1 (en) 2016-08-04
CN107209295A (zh) 2017-09-26
EP3251341A1 (en) 2017-12-06

Similar Documents

Publication Publication Date Title
KR102304308B1 (ko) 시선 조정 메커니즘을 갖춘 전자 시스템 및 그 작동 방법
US10578879B2 (en) Microdisplay based immersive headset
US9720231B2 (en) Display, imaging system and controller for eyewear display device
KR102243992B1 (ko) 접힌 디스플레이 광학 장치들을 사용한 컴팩트한 눈 추적
CN108351526B (zh) 紧凑型近眼显示光学件
KR102578625B1 (ko) 기판 유도식 광학 장치
US9459457B2 (en) Head mounted display with remote control
JP2020013132A (ja) ニアアイディスプレイ用装置
US10136114B2 (en) Projection display component and electronic device
US9753293B2 (en) Three-dimensional (3D) display apparatus and system comprising a two-dimensional (2D) display terminal, light-splitting device, and transflective device
US9910278B1 (en) Augmented reality visualization device
JP7435596B2 (ja) ヘッドマウントディスプレイシステム、ステレオ画像を撮像するように動作可能であるステレオ深度カメラ、および、ステレオ画像を撮像するように動作可能であるステレオ深度カメラを提供する方法
JP2020514887A (ja) バーチャル・リアリティー・ヘッドマウント装置
KR20220129542A (ko) 표시 장치
WO2020001043A1 (zh) 一种增强现实眼镜装置
US8964018B2 (en) Video display systems
US20200033613A1 (en) Display apparatus and method of displaying using curved optical combiner
US20150185491A1 (en) Optical Imaging Apparatus
JP2011109462A (ja) 映像送信装置、撮影装置および遠隔作業支援システム
US20230089234A1 (en) Electronic device including electrochromic device and method of controlling the electronic device
US11778366B2 (en) Gaze-guided audio
CN113341584A (zh) 一种裸眼三维显示装置
KR20140118330A (ko) 화상 통화용 카메라 시스템

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant