KR102019125B1 - 3d 디스플레이 디바이스 장치 및 제어 방법 - Google Patents

3d 디스플레이 디바이스 장치 및 제어 방법 Download PDF

Info

Publication number
KR102019125B1
KR102019125B1 KR1020130028835A KR20130028835A KR102019125B1 KR 102019125 B1 KR102019125 B1 KR 102019125B1 KR 1020130028835 A KR1020130028835 A KR 1020130028835A KR 20130028835 A KR20130028835 A KR 20130028835A KR 102019125 B1 KR102019125 B1 KR 102019125B1
Authority
KR
South Korea
Prior art keywords
user
angle
image
display unit
distance
Prior art date
Application number
KR1020130028835A
Other languages
English (en)
Other versions
KR20140114545A (ko
Inventor
김자연
이경하
정영경
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020130028835A priority Critical patent/KR102019125B1/ko
Priority to EP13878849.2A priority patent/EP2976881B1/en
Priority to CN201380070685.0A priority patent/CN104937929B/zh
Priority to US14/651,581 priority patent/US9762896B2/en
Priority to PCT/KR2013/003288 priority patent/WO2014148673A1/en
Publication of KR20140114545A publication Critical patent/KR20140114545A/ko
Application granted granted Critical
Publication of KR102019125B1 publication Critical patent/KR102019125B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42202Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] environmental sensors, e.g. for detecting temperature, luminosity, pressure, earthquakes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4318Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video

Abstract

본 명세서는 사용자가 더욱 편리하고 더욱 정확하게 3D 디스플레이 디바이스를 제어할 수 있도록 하기 위한 장치 및 그 제어 방법에 관한 발명이다.
이를 위해 개시된 일 실시예에 따르면, 3D 디스플레이 유닛, 3D 디스플레이 유닛의 전면 방향에 위치한 유저의 위치를 나타내는 위치 정보를 획득하는 측정 유닛과 3D 디스플레이 유닛 및 측정 유닛을 제어하는 프로세서를 포함하는 3D 디스플레이 디바이스로서, 프로세서는, 위치 정보를 이용하여 3D 디스플레이 유닛과 유저 사이의 수평 각도인 제 1 각도를 획득하고, 제 1 각도가 기설정된 제 1 각도 범위 이내인 경우, 3D 디스플레이 유닛 상에 디스플레이 된 영상을 유지시키고, 제 1 각도가 제 1 각도 범위를 벗어나는 경우, 3D 디스플레이 유닛 상에 디스플레이 된 영상을 영상의 수직 중심선을 축으로 제 1 각도를 반영하여 좌 또는 우 방향으로 회전시키는, 3D 디스플레이 디바이스를 제공한다.

Description

3D 디스플레이 디바이스 장치 및 제어 방법{3D display device apparatus and controlling method thereof}
본 명세서에는 3D 디스플레이 디바이스 장치 및 그 제어 방법에 관한 것이다. 보다 상세하게는, 유저의 위치가 3D 디스플레이 디바이스의 스윗 스팟을 벗어나는 경우, 유저 스스로 스윗 스팟으로 진입할 수 있도록 3D 디스플레이 상에 디스플레이 된 영상을 제어하는 장치 및 그 방법에 관한 발명이다.
전자 기술의 발달에 힘입어 다양한 유형의 전자 장치들이 개발 및 보급되고 있다. 이에 따라, 전자 장치를 제조 및 판매하는 업체들은, 전자 장치의 사용자들이 전자 장치의 기능을 제대로 이용할 수 있도록 전자 장치 이용 방법에 대한 가이드를 제시해줄 필요가 있다. 이를 위해, 종래의 매뉴얼들은 제품에 대한 설명을 기능 별로 또는 컨텐츠 별로 정리하여, 그에 대한 예시 그림과 텍스트를 함께 기재하는 식으로 작성되었다. 따라서, 사용자들이 많은 시간을 들여서 전자 장치의 기능을 공부하여야만 해당 장치를 효과적으로 이용할 수 있었다. 또한, 자신이 원하는 기능에 대해서만 알아보고 싶은 경우, 가이드 초반부에 나타나는 설명 목차를 확인하여 자신이 원하는 기능에 대한 설명 위치를 찾아야 하는 번거로움도 있었다. 또한, 사용자가 특정 기능에 대하여 간략하게 알고자 할 때에도 그 기능 설명을 전체적으로 다 읽어 봐야 한다는 번거로움도 있었다. 따라서, 좀 더 편리하고 쉽게 전자 장치를 이용할 수 있도록 유저의 편의를 제공하기 위한 가이드 제공 방법이 필요하다.
일 실시예는, 유저의 위치를 측정할 수 있는 3D 디스플레이 디바이스 및 그 제어 방법을 제공하고자 한다.
또한, 다른 일 실시예에 따르면, 유저의 위치에 따라 3D 디스플레이 상에 디스플레이 된 영상을 회전시키는 3D 디스플레이 디바이스 및 그 제어 방법을 제공하고자 한다.
또한, 다른 일 실시예에 따르면, 유저의 위치에 따라 3D 디스플레이 상에 디스플레이 된 영상을 확대 또는 축소시키는 3D 디스플레이 디바이스 및 그 제어 방법을 제공하고자 한다.
또한, 다른 일 실시예에 따르면, 유저의 설정에 의해 등록 가능한 스윗 스팟을 제공할 수 있는 3D 디스플레이 디바이스 및 그 제어 방법을 제공하고자 한다.
상기와 같은 목적을 이루고자 일 실시예에 따르면, 3D 디스플레이 유닛, 3D 디스플레이 유닛의 전면 방향에 위치한 유저의 위치를 나타내는 위치 정보를 획득하는 측정 유닛과 3D 디스플레이 유닛 및 측정 유닛을 제어하는 프로세서를 포함하는 3D 디스플레이 디바이스로서, 프로세서는, 위치 정보를 이용하여 3D 디스플레이 유닛과 유저 사이의 수평 각도인 제 1 각도를 획득하고, 제 1 각도가 기설정된 제 1 각도 범위 이내인 경우, 3D 디스플레이 유닛 상에 디스플레이 된 영상을 유지시키고, 제 1 각도가 제 1 각도 범위를 벗어나는 경우, 3D 디스플레이 유닛 상에 디스플레이 된 영상을 영상의 수직 중심선을 축으로 제 1 각도를 반영하여 좌 또는 우 방향으로 회전시키는, 3D 디스플레이 디바이스를 제공한다.
일 실시예에 의하면, 3D 디스플레이 유닛과 유저 사이의 거리가 기설정된 거리 범위를 벗어나는 경우, 3D 디스플레이 유닛 상에 디스플레이 된 영상을 확대 또는 축소시켜 유저로 하여금 스스로 스윗 스팟으로 이동할 수 있도록 가이드를 유도할 수 있다.
또한, 다른 일 실시예에 의하면, 유저가 스윗 스팟을 벗어나면 3D 디스플레이 유닛 상에 디스플레이 된 영상을 유저의 이동방향과 반대로 회전시킴으로써 유저 스스로가 스윗 스팟으로 진입할 수 있도록 유도하여 보다 직관적이고 쉬운 뷰잉 가이드를 제공할 수 있다.
또한, 다른 일 실시예에 의하면, 스윗 스팟은 유저에 의해 설정될 수 있어, 각 유저에게 최적화된 스윗 스팟을 제공할 수 있다.
도 1은 일 실시예에 따라 3D 디스플레이 디바이스를 나타낸 블록도이다.
도 2는 일 실시예에 따라 스윗 스팟 가이드를 제공하는 3D 디스플레이 디바이스를 도시한 도면이다.
도 3은 일 실시예에 따라 유저의 위치를 측정하는 3D 디스플레이 디바이스를 도시한 도면이다.
도 4는 일 실시예에 따라 3D 디스플레이 디바이스 및 유저의 거리에 따라 영상을 제어하는 디바이스를 도시한 도면이다.
도 5는 일 실시예에 따라 3D 디스플레이 디바이스 및 유저의 수평 각도(horizontal angle)에 따라 영상을 제어하는 디바이스를 도시한 도면이다.
도 6은 일 실시예에 따라 3D 디스플레이 디바이스 및 유저의 상하 각도(elevation angle)에 따라 영상을 제어하는 디바이스를 도시한 도면이다.
도 7은 일 실시예에 따라 유저가 스윗 스팟의 거리 범위를 벗어난 경우, 3D 영상을 제어하는 3D 디스플레이 디바이스를 도시한 도면이다.
도 8은 일 실시예에 따라 유저가 스윗 스팟의 수평 각도 범위를 벗어난 경우, 3D 영상을 제어하는 3D 디스플레이 디바이스를 도시한 도면이다.
도 9는 일 실시예에 따라 유저가 스윗 스팟의 상하 각도 범위를 벗어난 경우, 3D 영상을 제어하는 3D 디스플레이 디바이스를 도시한 도면이다.
도 10은 일 실시예에 따라 유저가 스윗 스팟의 거리 범위 및 수평 각도 범위를 벗어난 경우의 3D 디스플레이 디바이스를 도시한 도면이다.
도 11a는 일 실시예에 따라 유저에 의해 스윗 스팟 범위가 설정되는 경우, 스윗 스팟 범위의 설정 방법을 순서대로 나타낸 순서도이다.
도 11b는 일 실시예에 따라 스윗 스팟의 설정 순서를 나타낸 순서도이다.
도 12a는 유저 및 디바이스의 각도가 스윗 스팟 각도 범위를 벗어난 경우, 디바이스의 제어 방법을 도시한 순서도이다.
도 12b는 유저 및 디바이스의 거리가 스윗 스팟 거리 범위를 벗어난 경우, 디바이스의 제어 방법을 도시한 순서도이다.
본 명세서에서 사용되는 용어는 본 명세서에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도, 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한 특정 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 실시예의 설명 부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 아닌 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 함을 밝혀두고자 한다.
더욱이, 이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 실시예들을 상세하게 설명하지만, 실시예들에 의해 제한되거나 한정되는 것은 아니다.
본 명세서는 3D 영상을 제공하는 3D 디스플레이에 관한 것으로, 3D 디스플레이 디바이스는 서로 다른 두 개의 영상, 즉 시청자의 오른쪽 눈을 위한 영상(우안 영상)과 왼쪽 눈을 위한 영상(좌안 영상)을 렌더링(Rendering)함으로써 입체적인 효과를 제공하는 디지털 디바이스를 나타낸다. 즉, 양안에 시차가 발생하는 경우, 양안 시차에 의해 시청자는 입체 영상 또는 입체 화면을 인지할 수 있게 된다. 또한, 본 명세서에서 의미하는 3D 영상이란, 유저가 3차원의 입체감 또는 깊이감을 인지할 수 있도록 디스플레이 된 이미지나 동영상을 의미한다. 이하에서는, 이러한 3D 영상을 제공하는 디지털 디바이스를 통칭하여 3D 디스플레이 디바이스 또는 디바이스로 지칭하기로 한다.
3D 디스플레이 디바이스는 안경의 유무를 기준으로 크게 안경 방식과 무안경 방식으로 나뉠 수 있다. 안경 방식은 적청 안경식(Anaglyphic 3D), 편광 안경식(polarization 3D), 셔터 안경식(Alternate-frame sequencing)으로 나뉠 수 있다. 무안경 방식은 패러랙스 배리어(Parallax barrier) 방식, 렌티큘러 렌즈(Lenticular lens) 방식, 홀로그래픽(holographic) 방식으로 나눌 수 있다. 이외에도 본 명세서에서 기술하는 3D 디스플레이 디바이스는 양안 시차를 발생시킬 수 있는 모든 3D 디스플레이 기술 방식에 의해 구현될 수 있으며, 상술한 기술 방식에 한정되는 것은 아니다.
한편, 본 명세서에서는 3D 디스플레이 디바이스는 무안경 방식의 3D 디스플레이 디바이스를 기준으로 설명하였다. 그러나, 3D 디스플레이 디바이스는 이에 한정되는 것은 아니며, 안경 방식의 3D 디스플레이 디바이스도 포함하고 있음을 밝혀둔다.
도 1은 일 실시예에 따라 3D 디스플레이 디바이스를 나타낸 블록도이다. 도 1에서, 디바이스는 3D 디스플레이 유닛(10), 측정 유닛(11) 및 프로세서(12)를 포함한다.
3D 디스플레이 유닛(10)은, 디바이스에 의해 생성 또는 전환된 3D 영상을 디스플레이할 수 있다. 보다 상세하게는, 3D 디스플레이 유닛은(10) 한 영상에 좌, 우 두 시점을 담고 있는 3D 영상을 디스플레이 할 수 있다. 또한, 3D 디스플레이 유닛(10)은 프로세서에서 실행되는 컨텐츠, 애플리케이션 또는 프로세서(12)의 제어 명령에 기초하여 3D 영상을 디스플레이할 수 있다. 또한, 3D 디스플레이 유닛(10)은, 프로세서에 의해 조정된 3D 영상을 디스플레이할 수 있다. 보다 상세하게는, 3D 디스플레이 유닛(10)은, 특정 각도로 회전되거나 확대 또는 축소된 3D 영상을 디스플레이할 수 있다.
측정 유닛(12)은 디바이스에 장착된 적어도 하나의 센서를 사용하여 디바이스의 전면에 위치한 유저의 위치를 측정할 수 있다. 보다 상세하게는, 측정 유닛(12)은 유저의 위치를 측정하여 유저와 3D 디스플레이 유닛(10) 사이의 상대적인 위치 정보를 생성할 수 있다. 위치 정보에는 유저 및 3D 디스플레이 유닛(10) 사이의 상대적인 거리, 수평 각도 및 상하 각도에 관한 정보가 포함될 수 있다. 또는, 위치 정보에는 유저의 절대적인 위치 좌표에 관한 정보가 포함될 수 있다. 측정 유닛(12)은 유저의 위치 정보를 생성하여 프로세서(11)에 전송하거나, 측정 결과를 프로세서(11)에 전송할 수 있다.
유저의 위치 정보는 다양한 방식으로 획득될 수 있다. 일 실시예로서, 측정 유닛(12)은, 유저의 얼굴 위치를 인식함으로써 유저의 위치를 측정할 수 있다. 다른 일 실시예로서, 측정 유닛(12)은, 유저의 양안의 위치 또는 동공의 위치를 인식함으로써 유저의 위치를 측정할 수 있다. 또 다른 일 실시예로서, 측정 유닛(12)은, 디바이스가 유안경 3D 디스플레이 디바이스인 경우에는, 유저가 착용한 안경의 위치를 인식함으로써 유저의 위치를 측정할 수 있다. 여기서 유저의 위치는 디바이스와의 상대적인 위치를 의미하거나, 또는 유저의 절대적인 위치를 의미할 수 있다. 유저의 위치 측정 방법에 관한 보다 상세한 설명은 도 2에서 후술하기로 한다.
측정 유닛(12)은 다양한 센싱 수단을 통칭하는 것으로, 사용자의 다양한 입력 및 디바이스의 환경을 센싱하여, 디바이스가 그에 따른 동작을 수행할 수 있도록 센싱 결과를 전달할 수 있다. 일 실시예로서, 측정 유닛(12)은 초음파 센서, 적외선 센서, 열 검출기 및 카메라 센서 등 유저의 위치를 측정할 수 있는 다양한 센싱 수단을 포함할 수 있다. 상술한 센서들은 별도의 엘러먼트로 디바이스에 포함되거나, 적어도 하나 이상의 엘러먼트로 통합되어 포함될 수 있다.
프로세서(11)는 디바이스 내부의 데이터를 프로세싱할 수 있다. 또한, 프로세서(11)는 상술한 디바이스의 유닛들을 제어하며, 유닛들간의 데이터 송수신을 매니지할 수 있다. 또한, 프로세서(11)는 측정 유닛으로부터 유저의 위치 정보를 수신할 수 있다. 또는, 프로세서(11)는 측정 유닛(12)으로부터 측정 정보를 수신하고, 수신된 측정 결과를 이용하여 유저의 위치 정보를 획득할 수도 있다. 유저의 위치 정보에는 3D 디스플레이 유닛(10)과 유저 사이의 거리, 수평 각도 및 상하 각도에 관한 정보가 포함될 수 있다. 프로세서(11)는 유저의 위치 정보를 이용하여 3D 디스플레이 유닛 상에 디스플레이된 영상을 제어할 수 있다. 보다 상세하게는, 프로세서(11)는 3D 디스플레이 유닛(10) 상에 디스플레이된 3D 영상을 회전 시키거나, 확대 또는 축소시킬 수 있다.
한편, 도 1에 도시된 3D 디스플레이 디바이스는 일 실시예에 따른 블록도로서, 분리하여 표시한 블록들은 디바이스의 엘리먼트들을 논리적으로 구별하여 도시한 것이다. 따라서, 상술한 디바이스의 엘리먼트들은 디바이스의 설계에 따라 하나의 칩으로 또는 복수의 칩으로 장착될 수 있다.
도 2는 일 실시예에 따라 스윗 스팟(20) 가이드를 제공하는 3D 디스플레이 디바이스를 도시한 도면이다.
3D 디스플레이 디바이스를 유저가 시청하는 데 있어, 3D 영상의 특성상, 특정한 시청 지점인 스윗 스팟(sweet spot) (20)이 존재할 수 있다. 스윗 스팟(20)이란, 디바이스 전면 방향의 3D 영상 시청 영역 중 최적의 시청 지점을 의미할 수 있다. 또는, 스윗 스팟(20)이란, 유저가 3D 영상의 깊이감을 인지할 수 있는 유저 및 디바이스 사이의 최대 거리 및 각도 범위를 의미할 수 있다. 3D 영상은 좌안 및 우안으로 투영(project)된 서로 다른 영상을 뇌가 하나의 영상으로 합성함으로써 획득될 수 있는데, 이렇듯 좌안 및 우안으로 투영된 영상이 서로 다른 것을 양안 시차라고 한다. 이러한 양안 시차는 디바이스로부터의 좌안과 우안의 상대적인 위치를 이용하여 발생시킬 수 있다. 다시 말하면, 양안 시차는 3D 디스플레이에 대한 양안의 시야각 또는 시거리의 차이를 이용하여 발생할 수 있다. 구체적으로, 양안 시차는 디스플레이된 좌안 영상 및 우안 영상의 투영 거리 및 각도를 조절하여 좌안에는 좌안 영상이, 우안에는 우안 영상이 별도로 투영(project)되게 함으로써 양안 시차를 만들 수 있다. 좌안 영상과 우안 영상이 각 양안에 별도로 투영되도록 양안 영상의 투영 거리 및 각도가 조절되므로, 유저의 위치에 따라 3D 영상이 보일 수 있는 스윗 스팟(20)과 3D 영상이 보이지 않는 데드존(dead zone)이 존재할 수 있다. 따라서, 스윗 스팟(20)은 크게 특정한 거리 범위(x축) 및 수평 각도 범위(y축)로 구성될 수 있다. 또는, 일 실시예에 따라 상하 각도 범위(z축)를 더 포함할 수 있다.
이렇듯 유저가 3D 영상을 적절히 시청하기 위해서는 스윗 스팟(20) 내에서 3D 영상을 시청할 필요가 있다. 따라서, 유저가 3D 영상을 스윗 스팟(20) 내에서 시청하도록 유도하기 위해 일정한 인디케이터 또는 가이드가 필요할 수 있다. 본 명세서는 유저를 이러한 스윗 스팟(20)으로 안내하기 위한 유저 인터페이스에 관한 내용이다. 일 실시예로서, 유저가 스윗 스팟(20) 범위 이내에 있는 경우에 디바이스는 현재 디스플레이 중인 영상을 유지할 수 있다. 다른 일 실시예로서, 유저가 스윗 스팟(20)을 벗어나는 경우(21)에는 디바이스는 디스플레이 중인 영상을 회전 시키거나, 확대 또는 축소 디스플레이할 수 있다. 영상이 회전되는 경우(22), 디바이스는 유저의 이동 방향과 반대 방향으로 디스플레이 영상을 회전시킬 수 있다. 이는 유저의 이동에 따라 영상을 회전시켜 3D 영상의 시청을 제한함으로써 유저 스스로 스윗 스팟(20)으로 이동하도록 유도하기 위함이다. 유저의 위치에 따른 디스플레이 영상의 제어 방법은 도 7 내지 도 10 에서 상세히 설명하기로 한다.
이상으로 스윗 스팟(20)이 존재하는 3D 디스플레이 디바이스에 대해 설명하였다. 상술한 바와 같이, 유저에게 스윗 스팟(20) 가이드를 하기 위해선 디바이스가 현재 유저의 위치를 알아야 하므로, 도 3에서는 유저의 위치 측정 방법에 대해 자세히 설명하기로 한다.
도 3은 일 실시예에 따라 유저의 위치를 측정하는 3D 디스플레이 디바이스를 도시한 도면이다. 보다 상세하게는, 측정 유닛(30)이 3D 디스플레이 전면 방향에 위치한 유저의 위치를 측정하여 유저의 위치 정보를 획득하는 디바이스를 도시한 도면이다.
일 실시예로서, 디바이스는 카메라(30)를 사용하여 유저의 얼굴(32)을 인식함으로써 유저의 위치를 측정할 수 있다. 디바이스는 디바이스 전면 방향에 위치한 유저의 얼굴(32)을 인식하여 디바이스와 유저 사이의 상대적인 거리 및 각도를 측정함으로써 유저의 위치 정보를 획득할 수 있다. 또는, 디바이스는 디바이스 전면 방향에 위치한 유저의 얼굴(32)을 인식하여 유저의 절대적인 위치 좌표를 획득함으로써 유저의 위치 정보를 획득할 수도 있다.
다른 일 실시예로서, 디바이스는 카메라(30)를 사용하여 유저의 양안 위치 또는 동공(31)을 인식함으로써 유저의 위치를 측정할 수 있다. 디바이스는 디바이스 전면 방향에 위치한 유저의 양안 또는 동공(31)을 인식하여 디바이스와 유저 사이의 상대적인 거리 및 각도를 측정함으로써 유저의 위치 정보를 획득할 수 있다. 또는, 디바이스는 디바이스 전면 방향에 위치한 유저의 양안 또는 동공(31)을 인식하여 유저의 절대적인 위치 좌표를 획득함으로써 유저의 위치 정보를 획득할 수도 있다. 유저의 양안 위치는 좌안 및 우안의 위치를 각각 측정하여 획득될 수도 있고, 좌안 및 우안 사이(2d)의 가운데 위치(d)를 측정하여 획득될 수도 있다.
이외에도 디바이스는 유저의 위치를 측정할 수 있는 다양한 센싱 수단을 이용하여 유저의 위치 정보를 획득할 수 있고, 반드시 위의 실시예에 한정되는 것은 아니다.
도 4는 일 실시예에 따라 3D 디스플레이 디바이스 및 유저(43)의 거리에 따라 영상을 제어하는 디바이스(42)를 도시한 도면이다. 보다 상세하게는, 디바이스(42)의 스윗 스팟(44) 중 거리 성분에 관해 설명하기 위해 도시한 도면이다. 디바이스(42) 및 유저(43) 사이의 거리는 측정 유닛에 의해 측정된 위치 정보로부터 획득될 수 있다.
상술한 바와 같이, 디바이스(42) 전면 방향에는 3D 영상이 보여질 수 있는 스윗 스팟(44)이 존재할 수 있다. 보다 상세하게는, 디바이스(42) 전면 방향에는 유저(43)가 3D 영상을 지각할 수 있는 일정한 거리 범위 d1 내지 d2(44)가 존재할 수 있다. 본 명세서에서 의미하는 거리 d는 3D 디스플레이 디바이스(42)와 유저(43) 사이의 최소 직선 거리를 나타낼 수 있다. 일 실시예로서, 유저(43)의 위치 정보가 유저(43)의 얼굴을 인식함으로써 획득되는 경우, 최소 직선 거리는 3D 영상의 수직 중심선(41)으로부터 유저(43) 얼굴의 무게 중심선까지의 최소 직선 거리를 나타낼 수 있다. 다른 일 실시예로서, 유저(43)의 위치 정보가 유저(43)의 양안을 인식함으로써 획득되는 경우, 최소 직선 거리는 3D 영상의 수직 중심선(41)으로부터 유저(43) 양안의 중심 지점까지의 최소 직선 거리를 나타낼 수 있다. 이외에도 유닛 및 3D 디스플레이 디바이스(42) 사이의 거리는 다양한 방식과 기준에 의해 측정될 수 있으며, 위의 실시예들에 한정되는 것은 아니다.
스윗 스팟(44) 거리 범위의 최소값을 d1, 최대값을 d2라 하면, 유저(43)가 디바이스(42)로부터 d1 내지 d2 거리 범위 이내에 위치하는 경우, 유저(43)는 3D 영상을 시청할 수 있다. 여기서 d1 및 d2는 디바이스(42)의 설계 방식에 따라 고정된 값일 수 있고, 유저(43)에 의해 설정될 수 있는 유동적인 값일 수도 있다. 본 명세서는 설명하는 d1 및 d2는 유저(43)에 의해 설정될 수 있는 유동적인 값이며, 설정 방법은 도 11에서 자세히 후술하기로 한다.
도 5는 일 실시예에 따라 3D 디스플레이 디바이스(51) 및 유저의 수평 각도(horizontal angle)에 따라 영상을 제어하는 디바이스를 도시한 도면이다. 보다 상세하게는, 디바이스(51)의 스윗 스팟(52) 중 수평 각도 성분에 관해 설명하기 위해 도시한 도면이다. 디바이스(51) 및 유저 사이의 수평 각도는 측정 유닛에 의해 측정된 위치 정보로부터 획득될 수 있다.
상술한 바와 같이, 디바이스(51) 전면 방향에는 3D 영상이 보여질 수 있는 스윗 스팟(52)이 존재할 수 있다. 보다 상세하게는, 디바이스(51) 전면 방향에는 유저가 3D 영상을 지각할 수 있는 일정한 수평 각도 범위가 존재할 수 있다. 본 명세서에서 수평 각도(horizontal angle)는 3D 디스플레이 디바이스(51)와, 디스플레이의 수평축(50)을 따라 정렬된 유저(53)의 위치가 이루는 상대적인 각도를 의미할 수 있다. 또는, 디바이스(51)와 유저(53)가 하나의 수평면 상에 위치한다고 했을 때, 디바이스(51) 및 유저(53)가 이루는 수평 각도를 의미할 수 있다. 일 실시예로서, 유저(53)의 위치 정보가 유저(53)의 얼굴을 인식함으로써 획득되는 경우, 수평 각도는, 3D 영상의 중심 지점으로부터 유저(53) 얼굴의 무게 중심 지점까지 이어진 제 1 가상선(55) 및 3D 영상의 중심 지점을 관통하는 제 2 가상선(54)이 이루는 각도를 나타낼 수 있다. 다른 일 실시예로서, 유저(53)의 위치 정보가 유저(53)의 양안을 인식함으로써 획득되는 경우, 수평 각도는, 3D 영상의 중심 지점으로부터 유저(53) 양안의 중심 지점까지 이어진 제 1 가상선(55) 및 3D 영상의 중심 지점을 관통하는 제 2 가상선(54)이 이루는 각도를 나타낼 수 있다. 다만, 여기서 제 1 가상선(55) 및 제 2 가상선(54)은 동일한 수평면상에 존재함을 전제로 한다. 이외에도 유저(53) 및 3D 디스플레이 디바이스(51) 사이의 수평 각도는 다양한 방식과 기준에 의해 측정될 수 있으며, 위의 실시예들에 한정되는 것은 아니다.
스윗 스팟 수평 각도 범위(52)의 최소값을 ?θ1, 최대값을 θ1라 하면, 유저(53)가 디바이스(51)로부터 - θ1 내지 θ1 각도 범위 이내에 위치하는 경우, 유저(53)는 3D 영상을 시청할 수 있다. 즉, 디바이스(51)는 2? θ1의 스윗 스팟 수평 각도 범위(52)를 가질 수 있다. - θ1 및 θ1는 디바이스(51)의 설계 방식에 따라 고정된 값일 수 있고, 유저(53)에 의해 설정될 수 있는 유동적인 값일 수도 있다. 본 명세서에서 설명하는 - θ1 및 θ1는 유저(53)에 의해 설정될 수 있는 유동적인 값이며, 설정 방법은 도 11에서 자세히 후술하기로 한다.
도 6은 일 실시예에 따라 3D 디스플레이 디바이스(61) 및 유저(63)의 상하 각도(elevation angle)에 따라 영상을 제어하는 디바이스를 도시한 도면이다. 보다 상세하게는, 디바이스의 스윗 스팟(64) 중 상하 각도 성분에 관해 설명하기 위해 도시한 도면이다. 디바이스(61) 및 유저(63) 사이의 상하 각도는 측정 유닛에 의해 측정된 위치 정보로부터 획득될 수 있다.
본 명세서에서 상하 각도(elevation angle)는 3D 디스플레이 디바이스(61)와 디스플레이의 수직축(62)을 따라 정렬된 유저(63)의 위치가 이루는 상대적인 각도를 의미할 수 있다. 또는, 디바이스(61)와 유저(63)가 하나의 수직면 상에 위치한다고 했을 때, 디바이스(61) 및 유저(63)가 이루는 상하 각도를 의미할 수 있다. 일 실시예로서, 유저(63)의 위치 정보가 유저(63)의 얼굴을 인식함으로써 획득되는 경우, 상하 각도는, 3D 영상의 중심 지점으로부터 유저(63) 얼굴의 무게 중심 지점까지 이어진 제 1 가상선(66) 및 3D 영상의 중심 지점을 관통하는 제 2 가상선(65)이 이루는 각도를 나타낼 수 있다. 다른 일 실시예로서, 유저(63)의 위치 정보가 유저(63)의 양안을 인식함으로써 획득되는 경우, 수평 각도는, 3D 영상의 중심 지점으로부터 유저(63) 양안의 중심 지점까지 이어진 제 1 가상선(66) 및 3D 영상의 중심 지점을 관통하는 제 2 가상선(65)이 이루는 각도를 나타낼 수 있다. 다만, 여기서 제 1 가상선(66) 및 제 2 가상선(65)은 동일한 수직면상에 존재함을 전제로 한다. 이외에도 유저(63) 및 3D 디스플레이 디바이스(61) 사이의 상하 각도는 다양한 방식과 기준에 의해 측정될 수 있으며, 위의 실시예들에 한정되는 것은 아니다.
스윗 스팟 상하 각도 범위(64)의 최소값을 ?θ2, 최대값을 θ2라 하면, 유저(63)가 디바이스로부터 ? θ2 내지 θ2 각도 범위 이내에 위치하는 경우, 유저(63)는 3D 영상을 시청할 수 있다. 즉, 디바이스(61)는 2? θ2의 스윗 스팟 상하 각도 범위(64)를 가질 수 있다. ? θ2 및 θ2는 디바이스(61)의 설계 방식에 따라 고정된 값일 수 있고, 유저(63)에 의해 설정될 수 있는 유동적인 값일 수도 있다. 본 명세서에서 설명하는 ? θ2 및 θ2는 유저(63)에 의해 설정될 수 있는 유동적인 값이며, 설정 방법은 도 11에서 자세히 후술하기로 한다.
도 7은 일 실시예에 따라 유저(73)가 스윗 스팟의 거리 범위를 벗어난 경우 3D 영상을 제어하는 3D 디스플레이 디바이스를 도시한 도면이다.
3D 디스플레이 디바이스(70)는 일정한 스윗 스팟 거리 범위를 가질 수 있다. 여기서 거리 범위의 최소값을 d1, 거리 범위의 최대값을 d2라고 지칭할 수 있다. 유저(73)와 디바이스(70) 사이의 거리 d가 d1 이상 및 d2 이하인 경우, 즉, 유저(73)가 스윗 스팟 거리 범위 이내에 위치한 경우, 디바이스(70)는 현재 디스플레이 중인 3D 영상을 유지할 수 있다. 그러나, 유저(73)와 디바이스(70) 사이의 거리 d가 d1 미만 또는 d2 초과인 경우, 즉, 유저(73)가 스윗 스팟 거리 범위를 벗어난 경우, 디바이스(70)는 현재 디스플레이 중인 3D 영상을 확대하거나 축소할 수 있다.
보다 상세하게는, 유저(73) 및 디바이스(70) 사이의 거리 d가 스윗 스팟 거리 범위(74) 미만으로 줄어든 경우, 디바이스(70)는 현재 디스플레이 중인 3D 영상을 확대할 수 있다. 여기서 스윗 스팟 거리 범위(74) 미만으로 줄어듦은 유저(73) 및 디바이스(70) 사이의 거리 d가 d1 미만으로 줄어듦을 의미할 수 있다. 여기서 d1은 스윗 스팟 거리 범위(74) 내의 최소값을 의미할 수 있다. 3D 영상의 확대(72)는 전체 또는 일부분에 이루어질 수 있다. 또한, 3D 영상의 확대는 유저(73)의 이동에 대응하여 이루어질 수 있다. 일 실시예로서, 유저(73)가 스윗 스팟 거리 범위(74)를 벗어나 디바이스(70)와 가까워지는 경우, 디바이스(70)는 유저(73)의 이동 속도와 동일하게 3D 영상의 확대(72) 속도를 조절할 수 있다. 3D 영상이 확대 됨에 따라 3D 영상의 가장 자리 부분은 디스플레이 되지 않을 수 있다. 이와 같이, 3D 영상이 확대(72) 됨에 따라 유저(73)가 볼 수 없는 영역이 생기는 경우, 시청 영역이 일부 제한되므로 유저는 시청에 불편함을 느낄 수 있다. 따라서 유저(73)는 이러한 불편을 해소하기 위해 디바이스(70)로부터 멀어지도록 스스로 위치를 변경하여 스윗 스팟 거리 범위(74) 이내로 이동할 수 있다.
반대로, 유저(73) 및 디바이스(70) 사이의 거리 d가 스윗 스팟 거리 범위(74) 초과로 늘어난 경우, 디바이스(70)는 현재 디스플레이 중인 3D 영상을 축소(75)할 수 있다. 여기서 스윗 스팟 거리 범위(74) 초과로 늘어남은 유저(73) 및 디바이스(70) 사이의 거리 d가 d2 초과로 늘어남을 의미할 수 있다. 여기서 d2는 스윗 스팟 거리 범위(74) 내의 최대값을 의미할 수 있다. 3D 영상의 축소(75)는 전체 또는 일부분에 이루어질 수 있다. 또한, 3D 영상의 축소(75)는 유저(73)의 이동에 대응하여 이루어질 수 있다. 일 실시예로서, 유저(73)가 스윗 스팟 거리 범위(74)를 벗어나 디바이스(70)와 멀어지는 경우, 디바이스(70)는 유저(73)의 이동 속도와 동일하게 3D 영상의 축소(75) 속도를 조절할 수 있다. 3D 영상이 축소(75) 됨에 따라 유저(73)는 시청에 불편함을 느낄 수 있다. 따라서 유저(73)는 이러한 불편을 해소하기 위해 디바이스(70)와의 거리가 가까워지도록 스스로 위치를 변경하여 스윗 스팟 거리 범위(74) 이내로 이동할 수 있다.
이렇듯, 본 실시예는 유저(73)의 이동에 따라 3D 영상을 확대/축소하여 시청에 불편함을 줌으로써 유저(73) 스스로 최적의 시청 지점을 찾을 수 있도록 유도 하므로, 보다 직관적이고 쉬운 유저 인터페이스를 제공할 수 있다는 장점이 있을 수 있다.
도 8은 일 실시예에 따라 유저(84)가 스윗 스팟의 수평 각도 범위(83)를 벗어난 경우, 3D 영상을 제어하는 3D 디스플레이 디바이스(80)를 도시한 도면이다.
3D 디스플레이 디바이스(80)는 일정한 스윗 스팟 수평 각도 범위(83)를 가질 수 있다. 유저(84)가 스윗 스팟 수평 각도 범위(83) 이내에 위치한 경우, 디바이스(80)는 현재 디스플레이 중인 3D 영상을 유지할 수 있다. 반대로, 유저(84)가 스윗 스팟 수평 각도 범위(83)를 벗어난 경우, 디바이스(80)는 현재 디스플레이 중인 3D 영상을 영상의 수직 중심선(81)을 축으로 회전시킬 수 있다.
보다 상세하게는, 유저(84) 및 디바이스 사이의 수평 각도가 스윗 스팟 각도 범위(83)의 좌측으로 벗어난 경우, 디바이스(80)는 현재 디스플레이 중인 3D 영상을 영상의 수직 중심선(81)을 축으로 우측으로 회전(82)시킬 수 있다. 반대로, 유저(84) 및 디바이스(80) 사이의 수평 각도가 스윗 스팟 각도 범위(83)의 우측으로 벗어난 경우, 디바이스는 현재 디스플레이 중인 3D 영상을 영상의 수직 중심선(81)을 축으로 좌측(85)으로 회전시킬 수 있다. 여기서 좌측 및 우측은 유저(84)가 디바이스(80)를 바라보는 방향을 기준으로 한 경우의 좌측 및 우측을 의미할 수 있다. 즉, 디바이스(80)는 유저(84)의 이동 방향과 반대 방향으로 3D 영상을 회전시킬 수 있다. 3D 영상이 유저(84)의 이동 방향과 반대 방향으로 회전하므로 유저는 스윗 스팟(83)을 벗어나 3D 영상을 시청하는 데 있어, 불편함을 느낄 수 있다. 3D 영상을 시청할 수 있는 시선 각도인 시야각이 확보되지 않기 때문이다. 따라서 유저(84)는 3D 영상에 대한 시야각을 확보하기 위해 스스로 위치를 변경하여 스윗 스팟 수평 각도 범위(83) 이내로 이동할 수 있다. 이렇듯, 본 실시예는 유저(84)의 이동에 따라 3D 영상의 회전을 제어하여 시청에 불편을 줌으로써 유저(84) 스스로 최적의 시청 지점을 찾을 수 있도록 유도 하므로, 보다 직관적이고 쉬운 유저 인터페이스를 제공할 수 있다는 장점이 있을 수 있다.
한편, 3D 영상은 영상의 수직 중심선(81)을 축으로 회전 되거나, 3D 디스플레이 유닛의 수직 중심선(81)을 축으로 회전될 수 있다. 또한, 3D 영상은 유저(84)의 이동에 대응하여 회전될 수 있다. 일 실시예로서, 유저(84)가 스윗 스팟 수평 각도 범위(83)를 벗어나는 경우, 디바이스(80)는 유저(84)의 이동 속도와 동일하게 3D 영상의 회전 속도를 조절할 수 있다. 다른 일 실시예로서, 유저(84)가 스윗 스팟 수평 각도 범위(83)를 벗어나는 경우, 디바이스(80)는 유저(84) 및 디바이스(80) 사이의 수평 각도 θ 및 스윗 스팟 θ1 수평 각도의 차이만큼 3D 영상을 회전시킬 수 있다.
도 9는 일 실시예에 따라 유저(94)가 스윗 스팟의 상하 각도 범위를 벗어난 경우, 3D 영상을 제어하는 3D 디스플레이 디바이스(92)를 도시한 도면이다.
3D 디스플레이 디바이스(92)는 일 실시예에 따라 일정한 스윗 스팟 상하 각도 범위(93)를 가질 수 있다. 유저(94)가 스윗 스팟 상하 각도 범위(93) 이내에 위치한 경우, 디바이스는 현재 디스플레이 중인 3D 영상을 유지할 수 있다. 반대로, 유저(94)가 스윗 스팟 상하 각도 범위(93)를 벗어난 경우, 디바이스(92)는 현재 디스플레이 중인 3D 영상을 영상의 수평 중심선을 축으로 회전시킬 수 있다.
보다 상세하게는, 유저(94) 및 디바이스(92) 사이의 상하 각도가 스윗 스팟 각도 범위(93)의 상측으로 벗어난 경우, 디바이스(92)는 현재 디스플레이 중인 3D 영상을 영상의 수평 중심선(90)을 축으로 하측으로 회전(91)시킬 수 있다. 반대로, 유저(94) 및 디바이스(92) 사이의 상하 각도가 스윗 스팟 각도 범위(93)의 하측으로 벗어난 경우, 디바이스(92)는 현재 디스플레이 중인 3D 영상을 영상의 수평 중심선(90)을 축으로 상측으로 회전(95)시킬 수 있다. 즉, 디바이스(92)는 유저(94)의 이동 방향과 반대 방향으로 3D 영상을 회전시킬 수 있다. 3D 영상이 유저(94)의 이동 방향과 반대 방향으로 회전하므로 유저(94)는 스윗 스팟을 벗어나 3D 영상을 시청하는 데 있어, 불편함을 느낄 수 있다. 3D 영상을 시청할 수 있는 시선 각도인 시야각이 확보되지 않기 때문이다. 따라서 유저(94)는 3D 영상에 대한 시야각을 확보하기 위해 스스로 위치를 변경하여 스윗 스팟 상하 각도 범위(93) 이내로 이동할 수 있다. 이렇듯, 본 실시예는 유저(94)의 이동에 따라 3D 영상의 회전을 제어하여 시청에 불편을 줌으로써 유저(94) 스스로 최적의 시청 지점을 찾을 수 있도록 유도 하므로, 보다 직관적이고 쉬운 유저 인터페이스를 제공할 수 있다는 장점이 있을 수 있다.
한편, 3D 영상은 영상의 수평 중심선(90)을 축으로 회전 되거나, 3D 디스플레이 유닛의 수평 중심선(90)을 축으로 회전될 수 있다. 또한, 3D 영상은 유저(94)의 이동에 대응하여 회전될 수 있다. 일 실시예로서, 유저(94)가 스윗 스팟 상하 각도 범위(93)를 벗어나는 경우, 디바이스(92)는 유저(94)의 이동 속도와 동일하게 3D 영상의 회전 속도를 조절할 수 있다. 다른 일 실시예로서, 유저(94)가 스윗 스팟 수평 각도 범위를 벗어나는 경우, 디바이스는 유저(94) 및 디바이스(92) 사이의 상하 각도 θ 및 스윗 스팟 상하 각도 θ2 의 차이만큼 3D 영상을 회전시킬 수 있다.
도 10은 일 실시예에 따라 유저(104)가 스윗 스팟의 거리 범위 및 수평 각도 범위를 벗어난 경우의 3D 디스플레이 디바이스를 도시한 도면이다.
스윗 스팟(103, 105)은 상술한 바와 같이, 거리 성분(x축)(105) 및 수평 각도 성분(y축)(103)을 포함할 수 있다. 또한, 일 실시예에 따라 상하 각도 성분(z축)을 더 포함할 수 있다. 앞서 상술한 실시예들은 스윗 스팟(103, 105)의 성분들 중 어느 하나의 성분에 의해서 3D 영상이 제어되는 경우에 관한 것이다. 그러나, 실제로 스윗 스팟(103, 105) 구성 성분 중 어느 한 성분만 변경되도록 유저(104)가 이동하는 경우는 드물다. 따라서, 본 실시예에서는 두 가지 이상의 스윗 스팟(103, 105) 성분이 동시에 변경되는 경우에 있어, 3D 영상의 제어 방법에 대해 설명하고자 한다.
우선, 디바이스(102)는 유저(104)의 위치를 측정하여 유저(104)의 위치 정보를 생성할 수 있다. 위치 정보에는 유저(104) 및 디바이스(102) 사이의 상대적인 위치 또는 유저(104)의 절대적인 위치 정보가 포함되어 있을 수 있다. 디바이스(102)는 상기 위치 정보로부터 거리 성분(x축) d’ 및 수평 각도 성분(y축) θ'을 획득할 수 있다. 또한 일 실시예에 따라 상하 각도 성분을 추가로 획득할 수 있다. 예를 들어, 디바이스(102)는 유저(104)의 이동 방향의 벡터값을 획득한 후, 이 벡터값을 거리 성분(x축) d’, 수평 각도 성분(y축) θ' 및 상하 각도 성분(z축)으로 분해함으로써 각 성분 값을 획득할 수 있다. 분해된 성분 값에 따라 디바이스(102)는 도 7내지 도 9에서 설명하였던 바와 같이, 3D 영상을 회전시키거나 확대/축소시킬 수 있다. (101) 다만, 상술한 실시예들과 달리, 3D 영상의 회전과 확대/축소가 동시에 일어날 수 있다는 점에서 차이가 있다.
보다 상세하게는, 도면에 도시한 바와 같이, 유저(104)가 스윗 스팟의 거리 범위(105) 및 수평 각도 범위(103)를 벗어나 대각선 방향으로 이동한 경우, 디바이스는 유저(104)의 이동 방향의 벡터값을 측정할 수 있다. 디바이스(102)는 측정한 벡터값으로부터 거리 성분(x축) d’ 및 수평 각도 성분(y축) θ’을 획득할 수 있다. 디바이스(102)는 이렇게 획득한 각 성분 값에 따라 3D 영상을 제어할 수 있다. 보다 상세하게는, 거리 성분값 d’에 따라 3D 영상을 확대/축소 디스플레이할 수 있다. 또한, 수평 성분값 θ’에 따라 3D 영상을 영상의 수직 중심선(100) 을 축으로 회전시켜 디스플레이할 수 있다. 각 성분 값에 따른 3D 영상의 제어는 동시에 일어날 수 있다. 예를 들면, 획득한 거리 성분 d’가 스윗 스팟 거리 범위(105) 초과이면서 획득한 수평 각도 성분 θ’가 스윗 스팟 각도 범위(103) 좌측인 경우, 디바이스(102)는 축소된 3D 영상을 수직 중심선(100)을 축으로 우측으로 회전(101)시킬 수 있다. 또는, 획득한 거리 성분 d’이 스윗 스팟 거리 범위 미만(105)이면서 획득한 수평 각도 성분 θ’이 스윗 스팟 각도 범위(103) 우측인 경우, 디바이스(102)는 확대된 3D 영상을 수직 중심선(100)을 축으로 좌측으로 회전시킬 수 있다. 또는, 획득한 거리 성분 d’이 스윗 스팟 거리 범위(105) 미만이면서 획득한 수평 각도 성분 θ’이 스윗 스팟 각도 범위(103) 좌측인 경우, 디바이스(102)는 확대된 3D 영상을 수직 중심선(100)을 축으로 우측으로 회전시킬 수 있다. 또는, 획득한 거리 성분 d’이 스윗 스팟 거리 범위(105) 초과이면서 획득한 수평 각도 성분 θ’이 스윗 스팟 각도 범위(103) 우측인 경우, 디바이스(102)는 축소된 3D 영상을 수직 중심선(100)을 축으로 좌측으로 회전시킬 수 있다.
이렇듯, 디바이스(102)는 유저(104)의 이동방향을 각 성분 값으로 분해하여 각 성분 값에 따라 3D 영상을 제어할 수 있다. 본 실시예에서는 거리 성분 d’ 및 수평 각도 성분 θ’만 존재하는 경우에 대해서만 상세히 설명하였으나, 일 실시예에 따라 상하 각도 성분도 포함시킬 수 있다. 이 경우, 디바이스(102)는 유저(104)의 이동 방향의 벡터값을 거리 성분 d’, 수평 각도 성분 θ' 및 상하 각도 성분으로 분해하여 각 성분에 따라 3D 영상의 제어 동작을 동시에 수행할 수 있다. 예를 들어, 획득한 거리 성분 d’가 스윗 스팟 거리 범위(105) 미만, 획득한 수평 각도 성분 θ’가 스윗 스팟 수평 각도 범위(103) 좌측 및 획득한 상하 각도 성분이 스윗 스팟 각도 범위 상측인 경우, 디바이스(102)는 확대된 3D 영상을 수직 중심선(100)을 축으로 우측 및 수평 중심선을 축으로 하측으로 회전시킬 수 있다.
도 11a는 일 실시예에 따라 유저에 의해 스윗 스팟 범위가 설정되는 경우, 스윗 스팟 범위의 설정 방법을 순서대로 나타낸 순서도이다. 3D 디스플레이 디바이스를 구매하여 사용하기 전, 옵션을 설정하는 경우 또는 스윗 스팟을 재설정하고 싶은 경우에 본 순서도의 순서에 따라 스윗 스팟을 설정할 수 있다.
우선, 3D 디스플레이 디바이스에 전원이 공급된 경우 디바이스는 조정 화면을 디스플레이할 수 있다.(S110)
여기서, 조정 화면은 현재 유저의 위치에 따라 제어된 3D 영상을 의미한다. 보다 상세하게는, 만일, 현재 유저의 위치가 스윗 스팟 범위 이내인 경우, 조정 화면은 회전되거나 확대/축소가 되지 않은 3D 영상을 의미할 수 있다. 그러나, 현재 유저의 위치가 스윗 스팟 범위를 벗어난 경우, 조정 화면은 유저의 위치 성분에 따라 회전되거나 확대/축소가 된 3D 영상을 의미할 수 있다. 예를 들어, 유저 및 디바이스 사이의 거리가 스윗 스팟 거리 범위 미만인 경우, 조정 화면은 확대된 3D 영상을 의미할 수 있다. 따라서, 유저는 디스플레이된 조정 화면을 통해 현재 스윗 스팟 범위 이내에 있는지 여부를 판단할 수 있다.
만일 현재 유저의 위치가 스윗 스팟 범위를 벗어난 경우에 유저는 스크롤 버튼을 조작함으로써 현재 유저의 위치를 스윗 스팟으로 설정할 수 있다.(S111)
예를 들어, 디스플레이된 조정 화면이 확대된 3D 영상인 경우, 유저는 하 방향으로 스크롤을 조작함으로써 3D 영상을 축소시킬 수 있다. 반대로, 디스플레이된 조정 화면이 축소된 3D 영상인 경우, 유저는 상 방향으로 스크롤을 조작함으로써 3D 영상을 확대시킬 수 있다. 디스플레이된 조정 화면이 좌 또는 우측으로 회전된 3D 영상의 경우라도, 유저는 좌 또는 우 방향으로 스크롤을 조작함으로써 3D 영상의 회전을 제어할 수 있다. 즉, 유저는 스크롤을 조작함으로써 간편하게 유저의 현재 위치를 스윗 스팟으로 설정할 수 있다. 이는, 디바이스의 설치 지점은 건물의 구조에 따라 서로 다를 수 있기 때문에 스윗 스팟의 범위가 고정되어 있다면, 디바이스의 효용성이 떨어질 수 있다. 이렇듯, 유저 스스로 스윗 스팟 범위를 설정하도록 함으로써 디바이스의 효용성을 높일 수 있다. 한편, 스윗 스팟의 조작방법으로서 상술한 스크롤의 조작은 일 실시예에 불과하고, 리모컨의 버튼 입력 또는 유저의 터치 입력 등 다양한 유저 입력에 의해 조작될 수 있으며, 반드시 위의 실시예에 한정되는 것은 아니다.
다음으로, 스크롤 버튼 조작으로 인해 유저가 스윗 스팟 범위 내로 진입하면, 디바이스는 설정된 스윗 스팟 내용을 저장하고, 스윗 스팟 설정 프로세스는 종료될 수 있다. 그러나, 유저가 스윗 스팟 범위 내로 진입하지 않는 경우, 조정 화면을 디스플레이 하는 단계로 회귀할 수 있다. (S112)
도 11b는 일 실시예에 따라 스윗 스팟의 설정 순서를 나타낸 순서도이다. 보다 상세하게는, 기설정된 스윗 스팟을 유저의 위치에 따라 재설정하는 순서를 나타낸 순서도이다.
3D 디스플레이 디바이스의 전원이 공급되면(S110-1), 디바이스는 기본 시청 가이드 화면을 디스플레이할 수 있다.(S111-1)
기본 시청 가이드 화면은 스윗 스팟 설정에 대한 간단한 소개와 함께 스윗 스팟 진입 방법에 대한 가이드를 제시하는 화면을 의미한다. 또한, 디바이스는 기본 시청 가이드와 함께 스윗 스팟 설정 메뉴를 제공할 수 있다.(S111-1)
여기서 스윗 스팟 설정 메뉴는 유저가 스윗 스팟을 설정할 수 있도록 디바이스에 의해 제공되는 유저 인터페이스를 의미하며, 도 11a에서 상술한 방법으로 설정될 수 있다. 도 11a에 의해 스윗 스팟이 설정되면, 데드존(daed zone) 인디케이터가 동작할 수 있다. (S112-1)
여기서 데드존이란, 디바이스 전방의 시청 영역 중 스윗 스팟을 제외한 영역을 의미한다. 데드존 인디케이터의 기능은 도 7 내지 도 10에서 상술한 실시예들의 기능과 상응한다.
데드존 인디케이터가 실행중인 디바이스는 스윗 스팟 재설정 신호가 디텍트 되는지 여부를 판단할 수 있다. (S113-1)
스윗 스팟 재설정이란, 기설정된 스윗 스팟을 현재 유저의 위치를 기준으로 변경하기 위해 디바이스에 의해 제공되는 기능이다. 스윗 스팟 재설정 신호란, 스윗 스팟을 재설정하기 위해 유저에 의해 입력되는 유저 인풋 신호를 의미할 수 있다. 이 신호는 리모컨의 버튼 프레스, 유저의 디스플레이에 대한 터치 입력, 유저의 스윗 스팟 범위를 벗어난 위치 변경 등 다양한 방식으로 발생될 수 있다.
스윗 스팟 재설정 신호가 디텍트 되면, 디바이스는 헤드 트래킹(Head Tracking) 버튼이 프레스되는지 여부를 판단할 수 있다. (S114-1)
헤드 트래킹 버튼의 프레스가 디텍트 되지 않는 경우, 디바이스는 데드존 인디케이터 동작 순서로 회귀할 수 있다. (S112-1)
헤드 트래킹 버튼의 프레스가 디텍트 되는 경우, 디바이스는 헤드 트래킹 버튼의 프레스 지속 시간에 따라 서로 다른 기능을 수행할 수 있다. 여기서 헤드 트래킹 버튼은 디바이스와 동기화된 리모컨에 존재하는 특정 버튼으로서, 유저의 얼굴을 추적하는 기능을 수행할 수 있다.
보다 상세하게는, 헤드 트래킹 버튼의 프레스 지속 시간이 기설정된 시간 미만인 경우, 디바이스는 스윗 스팟 내의 유저 얼굴의 위치를 추적할 수 있다. (S115-1) 디바이스는 유저의 얼굴을 추적함으로써 유저의 위치 정보를 획득할 수 있다. 획득한 위치 정보를 이용하여 디바이스는 현재 유저의 위치를 새로운 스윗 스팟으로 재설정할 수 있다. (S116-1) 디바이스는 새로운 스윗 스팟 설정 내용을 저장한 뒤, 스윗 스팟 재설정 프로세스는 종료될 수 있다.
헤드 트래킹 버튼의 프레스 지속 시간이 기설정된 시간 초과인 경우, 디바이스는 버튼의 프레스가 지속되는 동안 유저의 위치에 대한 미러링(Mirroring) 화면을 제공할 수 있다. (S117-1) 보다 상세하게는, 디바이스 전면에 위치한 유저의 모습을 미러링하여 디스플레이할 수 있다. 디바이스가 유저를 미러링 하는 경우, 측정 유닛으로 사용된 카메라를 이용할 수 있다. 디바이스는 유저의 모습을 미러링하고, 이에 스윗 스팟 범위를 추가로 디스플레이함으로써 유저가 현재 스윗 스팟 범위 내에 있는지에 관한 정보를 제공할 수 있다. 따라서 유저는 현재 자신이 스윗 스팟 범위 내에 있는지 여부를 판단할 수 있다. 기존에는 미러링 기능을 실행시키기 위해서 디바이스가 제공하는 설정 메뉴 안으로 찾아 들어갔어야 했다. 그러나, 본 실시예에선 헤드 트래킹 버튼의 롱 프레스를 통해 미러링 기능이 수행되도록 하여 접근성과 사용성을 동시에 높였다. 헤드 트래킹 버튼의 롱 프레스 후 릴리즈되면, 미러링은 종료될 수 있다.
도 12a는 유저 및 디바이스의 각도가 스윗 스팟 각도 범위를 벗어난 경우, 디바이스의 제어 방법을 도시한 순서도이다. 본 순서도는 도 8에서 상술한 일 실시예와 동일하거나 상응한다.
우선, 디바이스는 유저의 위치 정보를 획득할 수 있다. (S120)
또한, 디바이스는 유저의 위치 정보로부터 유저 및 디바이스의 수평 각도인 제 1 각도를 획득할 수 있다. (S121)
다음으로, 디바이스는 제 1 각도가 기설정된 수평 각도 범위인 제 1 각도 범위 이내인지 여부를 판단할 수 있다. (S122)
만일, 제 1 각도가 제 1 각도 범위 이내이면, 디바이스는 현재 디스플레이 중인 3D 영상을 유지할 수 있다. (S124)
그러나, 제 1 각도가 제 1 각도 범위를 벗어난 경우, 디바이스는 제 1 각도의 변경 방향에 따라 디스플레이 영상을 수직 중심선을 축으로 회전시킬 수 있다. (S123) 보다 상세하게는, 제 1 각도가 제 1 각도 범위를 벗어나 좌측으로 이동한 경우, 디바이스는 3D 영상을 영상의 수직 중심선을 축으로 우측으로 회전시킬 수 있다. 반대로, 제 1 각도가 제 1 각도 범위를 벗어나 우측으로 이동한 경우, 디바이스는 3D 영상을 영상의 수직 중심선을 축으로 좌측으로 회전시킬 수 있다. 이러한 디바이스 제어 동작의 보다 상세한 내용은 도 8에서 설명한 일 실시예와 상응하거나 동일하다.
본 순서도의 내용은 다른 실시예인 상하 각도에도 적용될 수 있다.
우선, 디바이스는 유저의 위치 정보를 획득할 수 있다. (S120)
또한, 디바이스는 유저의 위치 정보로부터 유저 및 디바이스의 상하 각도인 제 1 각도를 획득할 수 있다. (S121)
다음으로, 디바이스는 제 1 각도가 기설정된 상하 각도 범위인 제 1 각도 범위 이내인지 여부를 판단할 수 있다. (S122)
만일, 제 1 각도가 제 1 각도 범위 이내이면, 디바이스는 현재 디스플레이 중인 3D 영상을 유지할 수 있다. (S124)
그러나, 제 1 각도가 제 1 각도 범위를 벗어난 경우, 디바이스는 제 1 각도의 변경 방향에 따라 디스플레이 영상을 수평 중심선을 축으로 회전시킬 수 있다. (S123)
보다 상세하게는, 제 1 각도가 제 1 각도 범위를 벗어나 상측으로 이동한 경우, 디바이스는 3D 영상을 영상의 수평 중심선을 축으로 하측으로 회전시킬 수 있다. 반대로, 제 1 각도가 제 1 각도 범위를 벗어나 하측으로 이동한 경우, 디바이스는 3D 영상을 영상의 수평 중심선을 축으로 상측으로 회전시킬 수 있다. 이러한 디바이스 제어 동작의 보다 상세한 내용은 도 9에서 설명한 일 실시예와 상응하거나 동일하다.
도 12b는 유저 및 디바이스의 거리가 스윗 스팟 거리 범위를 벗어난 경우, 디바이스의 제어 방법을 도시한 순서도이다.
우선, 디바이스는 유저의 위치 정보를 획득할 수 있다. (S120-1)
또한, 디바이스는 유저의 위치 정보로부터 유저 및 디바이스 사이의 거리인 제 1 거리를 획득할 수 있다. (S121-1)
다음으로, 디바이스는 제 1 각도가 기설정된 거리 범위 이내인지 여부를 판단할 수 있다. (S122-1)
만일, 제 1 거리가 기설정된 거리 범위 이내이면, 디바이스는 현재 디스플레이 중인 3D 영상을 유지할 수 있다. (S124-1)
그러나, 제 1 거리가 기설정된 거리 범위를 벗어난 경우, 디바이스는 제 1 거리의 변경 방향에 따라 디스플레이 영상을 확대 또는 축소할 수 있다. (S123-1)
보다 상세하게는, 제 1 거리가 줄어들어 기설정된 거리 범위를 벗어난 경우, 디바이스는 3D 영상을 확대할 수 있다. 반대로, 제 1 거리가 기설정된 거리 범위를 벗어난 경우, 디바이스는 3D 영상을 축소할 수 있다. 이러한 디바이스 제어 동작의 보다 상세한 내용은 도 7에서 설명한 일 실시예와 상응하거나 동일하다.
설명의 편의를 위하여 각 도면을 나누어 설명하였으나, 각 도면에 서술되어 있는 실시예들을 병합하여 새로운 실시예를 구현하도록 설계하는 것도 가능하다. 그리고, 당업자의 필요에 따라, 이전에 설명된 실시예들을 실행하기 위한 프로그램이 기록되어 있는 컴퓨터에서 판독 가능한 기록 매체를 설계하는 것도 권리범위에 속한다.
또한, 디바이스 및 그의 제어 방법은 상술한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상술한 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
또한, 이상에서는 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 명세서는 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 요지를 벗어남이 없이 당해 명세서가 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형 실시들은 본 명세서의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.
또한, 본 명세서에서의 거리, 길이, 속도 및 각도 등은 정확한 값을 의미할 뿐 아니라, 일정 범위의 실질적인 거리, 길이, 속도 및 각도를 포함하는 것으로 볼 수 있다. 즉, 본 명세서의 디바이스와 유저 사이의 거리 및 각도는 실질적인 거리 및 각도를 의미할 수 있고, 일정 범위의 오차가 존재할 수 있다.
또한, 본 명세서에서는 물건 발명과 방법 발명이 모두 설명되고 있으며, 필요에 따라 양 발명의 설명은 보충적으로 적용될 수 있다.
20: 스윗 스팟
21: 유저가 스윗 스팟의 거리 범위 미만 또는 초과로 이동하는 경우
22: 유저가 스윗 스팟의 각도 범위의 좌측 또는 우측으로 이동하는 경우

Claims (19)

  1. 3D(3-dimensional) 디스플레이 유닛;
    상기 3D 디스플레이 유닛의 전면 방향에 위치한 유저의 위치를 나타내는 위치 정보를 획득하는 측정 유닛; 및
    상기 3D 디스플레이 유닛 및 상기 측정 유닛을 제어하는 프로세서; 를 포함하는 3D 디스플레이 디바이스로서,
    상기 프로세서는,
    상기 위치 정보를 이용하여 상기 3D 디스플레이 유닛과 상기 유저 사이의 수평 각도(horizontal angle)인 제 1 각도를 획득하고,
    상기 제 1 각도가 기설정된 제 1 각도 범위 이내인 경우, 상기 3D 디스플레이 유닛 상에 디스플레이 된 영상을 유지시키고,
    상기 제 1 각도가 상기 제 1 각도 범위를 벗어나는 경우, 상기 3D 디스플레이 유닛 상에 디스플레이 된 영상을 상기 영상의 수직 중심선을 축으로 상기 제 1 각도를 반영하여 좌 또는 우 방향으로 회전시키며,
    상기 제 1 각도가 변경되어 상기 제 1 각도 범위를 벗어나는 경우, 상기 3D 디스플레이 유닛 상에 디스플레이 된 영상을 상기 제 1 각도의 변경에 대응하여 상기 수직 중심선을 축으로 상기 제 1 각도의 변경 방향의 반대 방향으로 회전시켜, 상기 유저가 상기 영상을 시청하는 것을 제한함으로써 상기 유저를 상기 제 1 각도범위내로 이동하도록 안내하는 3D 디스플레이 디바이스.
  2. 제 1 항에 있어서,
    상기 유저의 위치는 상기 유저의 얼굴 위치를 포함하고,
    상기 측정 유닛은 상기 3D 디스플레이 유닛의 전면 방향에 위치한 상기 유저의 얼굴 위치를 나타내는 위치 정보를 획득하는 것을 포함하는, 3D 디스플레이 디바이스.
  3. 제 1 항에 있어서,
    상기 유저의 위치는 상기 유저의 양안 위치를 포함하고,
    상기 측정 유닛은 상기 3D 디스플레이 유닛의 전면 방향에 위치한 상기 유저의 양안 위치를 나타내는 위치 정보를 획득하는 것을 포함하는, 3D 디스플레이 디바이스.
  4. 삭제
  5. 제 1 항에 있어서,
    상기 프로세서는,
    상기 위치 정보를 이용하여 상기 3D 디스플레이 유닛과 상기 유저 사이의 상하 각도(elevation angle)인 제 2 각도를 획득하고,
    상기 제 2 각도가 기설정된 제 2 각도 범위 이내인 경우, 상기 3D 디스플레이 유닛 상에 디스플레이 된 영상을 유지시키고,
    상기 제 2 각도가 상기 제 2 각도 범위를 벗어나는 경우, 상기 3D 디스플레이 유닛 상에 디스플레이 된 영상을 상기 영상의 수평 중심선을 축으로 상기 제 2 각도를 반영하여 상 또는 하 방향으로 회전시키는, 3D 디스플레이 디바이스.
  6. 제 5 항에 있어서,
    상기 프로세서는,
    상기 제 2 각도가 변경되어 상기 제 2 각도 범위를 벗어나는 경우, 상기 3D 디스플레이 유닛 상에 디스플레이 된 영상을 상기 제 2 각도의 변경에 대응하여 상기 수평 중심선을 축으로 상기 제 2 각도의 변경 방향과 반대 방향으로 회전시키는, 3D 디스플레이 디바이스.
  7. 제 1 항에 있어서,
    상기 프로세서는,
    상기 위치 정보를 이용하여 상기 3D 디스플레이 유닛과 상기 유저 사이의 거리인 제 1 거리를 획득하고,
    상기 제 1 거리가 기설정된 거리 범위 이내인 경우, 상기 3D 디스플레이 유닛 상에 디스플레이 된 영상을 유지시키고,
    상기 제 1 거리가 상기 기설정된 거리 범위를 벗어나는 경우, 상기 3D 디스플레이 유닛 상에 디스플레이 된 영상을 상기 제 1 거리를 반영하여 확대 또는 축소시키는, 3D 디스플레이 디바이스.
  8. 제 7 항에 있어서,
    상기 프로세서는,
    상기 제 1 거리가 상기 기설정된 거리 범위 미만으로 줄어든 경우, 상기 3D 디스플레이 유닛 상에 디스플레이 된 영상을 상기 제 1 거리의 변화에 대응하여 확대시키고,
    상기 제 1 거리가 상기 기설정된 거리 범위 초과로 늘어난 경우, 상기 3D 디스플레이 유닛 상에 디스플레이 된 영상을 상기 제 1 거리의 변화에 대응하여 축소시키는, 3D 디스플레이 디바이스.
  9. 삭제
  10. 삭제
  11. 삭제
  12. 삭제
  13. 삭제
  14. 삭제
  15. 삭제
  16. 삭제
  17. 삭제
  18. 삭제
  19. 삭제
KR1020130028835A 2013-03-18 2013-03-18 3d 디스플레이 디바이스 장치 및 제어 방법 KR102019125B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020130028835A KR102019125B1 (ko) 2013-03-18 2013-03-18 3d 디스플레이 디바이스 장치 및 제어 방법
EP13878849.2A EP2976881B1 (en) 2013-03-18 2013-04-18 3d display device and method for controlling the same
CN201380070685.0A CN104937929B (zh) 2013-03-18 2013-04-18 3d显示装置及其控制方法
US14/651,581 US9762896B2 (en) 2013-03-18 2013-04-18 3D display device and method for controlling the same
PCT/KR2013/003288 WO2014148673A1 (en) 2013-03-18 2013-04-18 3d display device and method for controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130028835A KR102019125B1 (ko) 2013-03-18 2013-03-18 3d 디스플레이 디바이스 장치 및 제어 방법

Publications (2)

Publication Number Publication Date
KR20140114545A KR20140114545A (ko) 2014-09-29
KR102019125B1 true KR102019125B1 (ko) 2019-09-06

Family

ID=51580332

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130028835A KR102019125B1 (ko) 2013-03-18 2013-03-18 3d 디스플레이 디바이스 장치 및 제어 방법

Country Status (5)

Country Link
US (1) US9762896B2 (ko)
EP (1) EP2976881B1 (ko)
KR (1) KR102019125B1 (ko)
CN (1) CN104937929B (ko)
WO (1) WO2014148673A1 (ko)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102197536B1 (ko) * 2014-08-18 2020-12-31 엘지디스플레이 주식회사 이동 플리커가 감소된 입체영상 표시장치
CN104683786B (zh) * 2015-02-28 2017-06-16 上海玮舟微电子科技有限公司 裸眼3d设备的人眼跟踪方法及装置
JP5856344B1 (ja) * 2015-07-27 2016-02-09 正樹 房間 3d画像表示装置
KR102402048B1 (ko) * 2015-10-14 2022-05-26 삼성전자주식회사 전자 장치 및 그 제어 방법
KR20170060353A (ko) * 2015-11-24 2017-06-01 삼성전자주식회사 전자 장치, 거리 측정 센서 및 그 제어 방법
IL298181B1 (en) * 2016-04-21 2024-04-01 Magic Leap Inc A visual aura around the field of vision
WO2018058673A1 (zh) 2016-09-30 2018-04-05 华为技术有限公司 一种3d显示方法及用户终端
US10908679B2 (en) * 2017-04-24 2021-02-02 Intel Corporation Viewing angles influenced by head and body movements
US20200169724A1 (en) * 2017-08-16 2020-05-28 NutriCern, Inc. Optimizing perception of stereoscopic visual content
CN110822646B (zh) * 2019-11-25 2021-12-17 广东美的制冷设备有限公司 空调器的控制方法、空调器及存储介质
US11917118B2 (en) * 2019-12-27 2024-02-27 Sony Group Corporation Information processing apparatus and information processing method
WO2024058458A1 (ko) * 2022-09-15 2024-03-21 삼성전자주식회사 웹페이지를 적응적으로 표시하는 전자 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008078846A (ja) * 2006-09-20 2008-04-03 Taro Isayama 立体表示処理装置および立体表示処理方法
JP2012222622A (ja) * 2011-04-08 2012-11-12 Toshiba Corp 映像表示装置、映像表示方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005040597A1 (de) * 2005-02-25 2007-02-22 Seereal Technologies Gmbh Verfahren und Einrichtung zum Nachführen von Sweet-Spots
KR100560464B1 (ko) 2005-03-30 2006-03-13 (주)디노스 관찰자의 시점에 적응적인 다시점 영상 디스플레이 시스템을 구성하는 방법
KR101396349B1 (ko) * 2007-11-06 2014-05-19 삼성전자주식회사 얼굴을 포함하는 영상의 회전 정보를 포함한 디지털 영상처리장치 및 그 제어방법
CN101788876A (zh) * 2009-01-23 2010-07-28 英华达(上海)电子有限公司 自动缩放调整的方法及其系统
WO2010147281A1 (ko) * 2009-06-16 2010-12-23 (주)엘지전자 시청범위 알림 방법 및 이를 구현하기 위한 텔레비전 수신기
JP5444955B2 (ja) * 2009-08-31 2014-03-19 ソニー株式会社 立体画像表示システム、視差変換装置、視差変換方法およびプログラム
KR101313797B1 (ko) * 2009-12-18 2013-10-01 한국전자통신연구원 머리 위치 추적을 이용한 입체 영상 표시 장치 및 이의 동작 방법
TR201819457T4 (tr) 2011-06-22 2019-01-21 Koninklijke Philips Nv Bir sunum ekranı için bir sinyal oluşturmak üzere yöntem ve cihaz.
KR101926477B1 (ko) 2011-07-18 2018-12-11 삼성전자 주식회사 콘텐츠 재생 방법 및 장치
KR20130013248A (ko) * 2011-07-27 2013-02-06 삼성전자주식회사 3d 영상 재생 기기 및 그 3d 영상 제어 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008078846A (ja) * 2006-09-20 2008-04-03 Taro Isayama 立体表示処理装置および立体表示処理方法
JP2012222622A (ja) * 2011-04-08 2012-11-12 Toshiba Corp 映像表示装置、映像表示方法

Also Published As

Publication number Publication date
CN104937929A (zh) 2015-09-23
CN104937929B (zh) 2018-05-11
US9762896B2 (en) 2017-09-12
KR20140114545A (ko) 2014-09-29
WO2014148673A1 (en) 2014-09-25
EP2976881A1 (en) 2016-01-27
EP2976881A4 (en) 2016-11-16
US20150341626A1 (en) 2015-11-26
EP2976881B1 (en) 2018-09-05

Similar Documents

Publication Publication Date Title
KR102019125B1 (ko) 3d 디스플레이 디바이스 장치 및 제어 방법
KR101541803B1 (ko) 화상인식장치 및 조작판정방법, 그리고 프로그램
US10591735B2 (en) Head-mounted display device and image display system
CN108983422B (zh) 沉浸式头戴系统及其控制方法
JP5830987B2 (ja) 表示制御装置、表示制御方法およびコンピュータプログラム
JP5114795B2 (ja) 画像認識装置および操作判定方法並びにプログラム
US9378592B2 (en) Apparatus and method of providing user interface on head mounted display and head mounted display thereof
US9041743B2 (en) System and method for presenting virtual and augmented reality scenes to a user
KR101719981B1 (ko) 3차원 컨텐츠를 출력하는 디스플레이 기기의 사용자 인터페이스 출력 방법 및 그 방법을 채용한 디스플레이 기기
EP2372512A1 (en) Vehicle user interface unit for a vehicle electronic device
US20070035619A1 (en) Method and system for controlling space magnification for stereoscopic images
WO2012090429A1 (ja) ジェスチャ操作入力処理装置およびジェスチャ操作入力処理方法
KR100727940B1 (ko) 통신 채널을 이용한 3d 입체 영상의 화질 조정 방법
TWI657431B (zh) 動態顯示系統
WO2017051564A1 (ja) 情報処理装置
US9544556B2 (en) Projection control apparatus and projection control method
JP2012256110A (ja) 情報処理装置、情報処理方法およびプログラム
US9986225B2 (en) Techniques for cut-away stereo content in a stereoscopic display
CN103460257A (zh) 立体显示设备、接受指令的方法、程序及记录其的介质
KR101897789B1 (ko) 3차원 바탕화면 제공 방법 및 시스템
US20120300034A1 (en) Interactive user interface for stereoscopic effect adjustment
JPWO2016051431A1 (ja) 入出力装置、入出力プログラム、および入出力方法
JP2019032713A (ja) 情報処理装置、情報処理方法及びプログラム
JP6053845B2 (ja) ジェスチャ操作入力処理装置、3次元ディスプレイ装置およびジェスチャ操作入力処理方法
US20120098749A1 (en) 3d viewing device providing adjustment in 3d image parameters

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant