KR20140047620A - 입체적 효과 조정을 위한 상호적인 사용자 인터페이스 - Google Patents

입체적 효과 조정을 위한 상호적인 사용자 인터페이스 Download PDF

Info

Publication number
KR20140047620A
KR20140047620A KR1020137034026A KR20137034026A KR20140047620A KR 20140047620 A KR20140047620 A KR 20140047620A KR 1020137034026 A KR1020137034026 A KR 1020137034026A KR 20137034026 A KR20137034026 A KR 20137034026A KR 20140047620 A KR20140047620 A KR 20140047620A
Authority
KR
South Korea
Prior art keywords
images
user
locations
display
stereoscopic
Prior art date
Application number
KR1020137034026A
Other languages
English (en)
Inventor
칼린 엠 아타나소브
세르지우 알 고마
조셉 청
비카스 라마찬드라
Original Assignee
퀄컴 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 퀄컴 인코포레이티드 filed Critical 퀄컴 인코포레이티드
Publication of KR20140047620A publication Critical patent/KR20140047620A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity

Abstract

본 실시형태들은 입체적 효과를 묘사하기 위한 사용자의 선호도를 결정하는 시스템들, 장치들, 및 모듈들을 고려한다. 특히, 소정의 실시형태들은 입체적 비디오 시퀀스를 디스플레이하면서 사용자 입력을 수신하는 것을 고려한다. 사용자의 선호도들은 입력에 기초하여 결정될 수도 있다. 이들 선호도들은 그 후, 추가의 입체적 묘사들에 적용될 수도 있다.

Description

입체적 효과 조정을 위한 상호적인 사용자 인터페이스{INTERACTIVE USER INTERFACE FOR STEREOSCOPIC EFFECT ADJUSTMENT}
우선권 주장
본 출원은, 함께 펜딩 중이고 공통으로 양도받은 2011년 5월 23일자로 출원된 발명의 명칭이 "INTERACTIVE USER INTERFACE FOR STEREOSCOPIC EFFECT ADJUSTMENT" 인 Kalin Atanassov, Sergiu Goma, Joseph Cheung, 및 Vikas Ramachandra 의 US 가특허출원 제 61/489,224 의 비-가출원인, 2011년 8월 25일자로 출원된 발명의 명칭이 "INTERACTIVE USER INTERFACE FOR STEREOSCOPIC EFFECT ADJUSTMENT" 인 Kalin Atanassov, Sergiu Goma, Joseph Cheung, 및 Vikas Ramachandra 의 US 특허출원 제 13/218,379 에 대한 우선권을 주장하고, 이들 양자는 참조로서 본원에 포함된다.
기술 분야
본 실시형태들은 입체적 효과의 교정 (calibration), 및 특히 입체적 효과에 관하여 사용자 선호도를 결정하는 방법들, 장치들 및 시스템들에 관한 것이다.
입체시 (stereopsis) 는 인간의 뇌가 좌안과 우안으로부터 보여지는 객체의 상대적인 변위에 기초하여 객체의 깊이를 해석하는 프로세스이다. 입체적 효과는 제 1 및 제 2 측방향 오프셋 뷰잉 포지션들로부터 한 장면의 제 1 이미지 및 제 2 이미지를 취하고 그 이미지들을 좌안 및 우안의 각각에 별개로 나타내는 것에 의해 인공적으로 유발될 수도 있다. 시간적으로 연속되는 입체적 이미지 쌍들을 캡처함으로써, 이미지 쌍들은 연속적으로 눈들에 나타내어져 "3차원 무비" 를 형성할 수도 있다.
입체적 효과는 사용자가 좌측 및 우측 이미지들을 단일 그림으로 통합하는 것에 의존하기 때문에, 사용자 특정 품질들은 경험에 영향을 줄 수도 있다. 특히, 좌측 이미지와 우측 이미지에서의 객체들 간의 디스패리티는 사용자의 뇌에 의해 특정 깊이와 상관될 필요가 있다. 입체적 프로젝터들 및 디스플레이들은 사용하기 전에 규칙적으로 교정되지만, 주어진 입체적 묘사에 대한, 소정 팩터들에 기초한 특정 사용자의 선호도들을 신속하게 결정하는 효율적이고 정확한 수단이 여전히 부족하다.
소정 실시형태들은 입체적 효과에 대한 파라미터를 결정하기 위해 전자 디바이스 상에서 구현된 방법을 고려한다. 이 방법은 객체의 입체적 효과를 포함하는 복수의 이미지들을 사용자에게 디스플레이하는 단계로서, 이 객체는 복수의 이미지들에 의해 복수의 3 차원 로케이션들에서 묘사되는, 상기 복수의 이미지들을 사용자에게 디스플레이하는 단계; 사용자로부터 선호된 3 차원 로케이션의 선호도 인디케이션을 수신하는 단계; 및 선호도 인디케이션에 기초하여 추가 이미지들의 입체적 묘사들에 대한 파라미터를 결정하는 단계를 포함한다.
소정 실시형태들에서, 복수의 로케이션들 중 적어도 2 개는 x, y, 및 z 방향들에서 서로에 대해 변위된다. 일부 실시형태들에서, 복수의 로케이션들은 양의 깊이 포지션을 갖는 로케이션을 포함한다. 일부 실시형태들에서, 복수의 이미지들은 제 2 객체의 입체적 효과를 더 포함하고, 제 2 객체는 복수의 이미지들에 의해 제 2 복수의 로케이션들에서 묘사되고, 제 2 복수의 로케이션들은 음의 깊이 포지션을 갖는 로케이션을 포함한다. 일부 실시형태들에서, 복수의 이미지들은 디스플레이의 평면에서 객체의 이동을 묘사한다. 일부 실시형태들에서, 복수의 이미지들은 디스플레이의 스크린 지오메트리에 적어도 기초하여 동적으로 생성될 수도 있다. 일부 실시형태들에서, 복수의 이미지들은 디스플레이로부터 사용자의 거리에 적어도 기초하여 동적으로 생성될 수도 있다. 일부 실시형태들에서, 방법은 파라미터를 메모리에 저장하는 단계를 더 포함한다. 일부 실시형태들에서, 방법은 파라미터에 기초하여 객체의 깊이에 대한 최대 범위를 결정하는 단계를 더 포함한다. 일부 실시형태들에서, 전자 디바이스는 모바일 폰을 포함한다. 일부 실시형태들에서, 파라미터는 선호도 인디케이션이다.
소정 실시형태들은 명령들을 포함하는 컴퓨터 판독가능 매체를 고려하고, 상기 명령들은 실행되는 경우 프로세서로 하여금 각종 단계들을 수행하게 한다. 이 단계들은, 객체의 입체적 효과를 포함하는 복수의 이미지들을 사용자에게 디스플레이하는 단계로서, 이 객체는 복수의 이미지들에 의해 복수의 3 차원 로케이션들에서 묘사되는, 복수의 이미지들을 사용자에게 디스플레이하는 단계; 사용자로부터 선호된 3 차원 로케이션의 선호도 인디케이션을 수신하는 단계; 및 선호도 인디케이션에 기초하여 추가 이미지들의 입체적 묘사들에 대한 파라미터를 결정하는 단계를 포함할 수도 있다.
일부 실시형태들에서, 복수의 로케이션들 중 적어도 2 개는 x, y, 및 z 방향들에서 서로에 대해 변위된다. 일부 실시형태들에서, 복수의 로케이션들은 양의 깊이 포지션을 갖는 로케이션을 포함한다. 일부 실시형태들에서, 복수의 이미지들은 제 2 객체의 입체적 효과를 더 포함하고, 이 제 2 객체는 복수의 이미지들에 의해 제 2 복수의 로케이션들에서 묘사되고, 제 2 복수의 로케이션들은 음의 깊이 포지션을 갖는 로케이션이다. 일부 실시형태들에서, 복수의 이미지들은 디스플레이의 평면에서 객체의 이동을 묘사한다.
소정 실시형태들은 전자 입체시 시스템을 고려하는데, 이 시스템은 디스플레이; 객체의 입체적 효과를 포함하는 복수의 이미지들을 사용자에게 디스플레이하도록 구성된 제 1 모듈로서, 이 객체는 복수의 이미지들에 의해 복수의 로케이션들에서 묘사되는, 상기 제 1 모듈; 사용자로부터 선호된 3 차원 로케이션의 선호도 인디케이션을 수신하도록 구성된 입력부; 및 선호도 인디케이션과 연관된 파라미터를 저장하도록 구성된 메모리로서, 파라미터는 사용자의 선호도 인디케이션에 따라 추가 이미지들을 디스플레이하는데 사용되는, 상기 메모리를 포함한다.
소정 실시형태에서, 복수의 로케이션들 중 적어도 2 개는 x, y, 및 z 방향들에서 서로에 대해 변위된다. 일부 실시형태들에서, 복수의 로케이션들은 양의 깊이 포지션을 갖는 로케이션을 포함한다. 일부 실시형태들에서, 복수의 이미지들은 제 2 객체의 입체적 효과를 더 포함하고, 이 제 2 객체는 복수의 이미지들에 의해 제 2 복수의 로케이션들에서 묘사되고, 제 2 복수의 로케이션들은 음의 깊이 포지션을 갖는 로케이션을 포함한다. 일부 실시형태들에서, 복수의 이미지들은 디스플레이의 평면에서 객체의 이동을 묘사한다. 일부 실시형태들에서, 복수의 이미지들은 디스플레이의 스크린 지오메트리에 적어도 기초하여 동적으로 생성된다. 일부 실시형태들에서, 복수의 이미지들은 디스플레이로부터 사용자의 거리에 적어도 기초하여 동적으로 생성된다. 일부 실시형태들에서, 전자 디바이스는 모바일 폰을 포함한다. 일부 실시형태들에서, 파라미터는 선호도 인디케이션을 포함한다.
소정 실시형태들은 전자 디바이스에서의 입체시 시스템을 고려하고, 이 시스템은, 객체의 입체적 효과를 포함하는 복수의 이미지들을 사용자에게 디스플레이하기 위한 수단으로서, 이 객체는 복수의 이미지들에 의해 복수의 로케이션들에서 묘사되는, 상기 복수의 이미지들을 사용자에게 디스플레이하기 위한 수단; 사용자로부터 선호된 3 차원 로케이션의 선호도 인디케이션을 수신하기 위한 수단; 및 선호도 인디케이션에 기초하여 추가 이미지들의 입체적 묘사들에 대한 파라미터를 결정하기 위한 수단을 포함한다.
일부 실시형태들에서, 디스플레이 수단은 디스플레이를 포함하고, 묘사 수단은 복수의 이미지들을 포함하고, 선호도 인디케이션을 수신하기 위한 수단은 입력부를 포함하며, 입체적 파라미터를 결정하기 위한 수단은 선호 범위를 저장하도록 구성된 소프트웨어 모듈을 포함한다. 일부 실시형태들에서, 복수의 로케이션들 중 적어도 2 개는 x, y, 및 z 방향들에서 서로에 대해 변위된다.
개시된 양태들은 이하에서, 개시된 양태들을 제한하는 것이 아니라 예시하기 위하여 제공된, 첨부 도면들을 함께 설명되고, 여기서 같은 부호는 같은 엘리먼트들을 표시한다.
도 1 은 이미지의 입체적 묘사를 디스플레이하기 위한 가능한 디스플레이 디바이스를 도시한다.
도 2a 및 도 2b 는 입체적 효과의 생성에 기여하는 각종 팩터들을 도시한다.
도 3a 및 도 3b 는 디스플레이에 대한 사용자의 포지션에 관하여 입체적 효과의 생성에 기여하는 각종 팩터들을 도시한다.
도 4 는 개시된 실시형태들 중 소정의 실시형태에서 나타날 수도 있는 바와 같이, 디스플레이에 대한 소정의 객체 모션 패턴들을 도시한다.
도 5 는 개시된 실시형태들 중 소정의 실시형태에서 가능한 객체 모션 패턴들에 관한 소정의 사용자 선호도들을 도시한다.
도 6a 내지 도 6d 는 입체적 효과에서 깊이에 대한 사용자 선호 범위들 중 소정 범위를 도시한다.
도 7 은 소정의 실시형태들에 의해 이용된 선호도 결정 알고리즘의 특정 실시형태를 도시하는 흐름도이다.
실시형태들은 사용자에 대한 입체적 비디오 데이터의 제시가 사용자의 눈들에 편안하게 감지되도록 입체적 디스플레이 시퀀스를 교정하기 위한 시스템들에 관한 것이다. 상이한 사용자들은 그들이 입체적 비디오들을 감지하는 방법에 대한 상이한 허용오차를 가질 수도 있기 때문에, 본원에 설명된 시스템들 및 방법들은 사용자에게 편안한 비디오를 보게 하기 위해 소정의 입체적 디스플레이 파라미터들을 사용자가 변경하게 한다. 일 실시형태에서, 사용자는, 사용자가 입체적 비디오를 볼 때 입체적 비디오 파라미터들을 실시간으로 변경할 수 있다. 이들 변경들은 그 후, 더 편안한 포맷으로 사용자에게 입체적 비디오를 디스플레이하는데 사용된다.
본 실시형태들은 입체적 이미지들의 디스플레이에 관하여 사용자 선호도를 결정하는 시스템들, 장치들, 및 방법들을 고려한다. 특히, 입체적 비디오 시퀀스는 일 실시형태에서 사용자에게 제시된다. 시스템은 사용자로부터 교정 입력을 취하고, 여기서 사용자 입력은 3D 기술의 해박한 지식을 보유할 것을 사용자에게 요구하지 않을 수도 있다. 예를 들어, 사용자는 보여지고 있는 비디오 시퀀스에서 "더 적은" 또는 "더 많은" 3 차원 효과를 선택할 수도 있다. 시스템은 그 정보를 입력하고, 사용자에게 나타내어진 좌안 및 우안의 각도 또는 측방 디스패리티를 변경함으로써 비디오 시퀀스 내에서 나타내어진 3 차원 효과를 감소 또는 증가시킨다.
당업자는 이들 실시형태들이 하드웨어, 소프트웨어, 펌웨어, 또는 이들의 임의의 조합으로 구현될 수도 있다는 것을 인식할 것이다. 입체적 디스플레이는, 모바일 무선 통신 디바이스, PDA (personal digital assistant), 랩톱 컴퓨터, 데스크톱 컴퓨터, 텔레비전, 디지털 카메라, 디지털 기록 디바이스들 등을 포함하는, 광범위한 전자 디바이스들 상에서 발견될 수도 있다.
도 1 은 장면의 입체적 묘사를 디스플레이하도록 구성된 하나의 가능한 디스플레이 디바이스 (105) 를 도시한다. 디스플레이 디바이스 (105) 는 디스플레이 (102), 뷰스크린, 또는 장면의 z-방향에서의 복수의 깊이들에서 복수의 객체들 (104) 을 도시하는, 사용자에게 디스플레이하기 위한 다른 수단을 포함할 수도 있다. 일부 디바이스들에서, 장면은 이미지들의 쌍, 사용자의 좌안에 대한 제 1 이미지 및 사용자의 우안에 대한 제 2 이미지를 포함할 수도 있다. 이 예에서는, 2 개의 이미지들은 디스플레이 (102) 상에 동시에 나타날 수도 있으나, 상이한 편광들을 갖고 디스플레이 (102) 로부터 방출될 수도 있다. 사용자 착용 편광 렌즈들은 그 후, 사용자의 좌안에서 제 1 이미지를 그리고 사용자의 우안에서 제 2 이미지를 감지할 수도 있다 (렌즈들은 대응하여 선형적으로 편광, 원형으로 편광됨). 당업자는, 우안 및 좌안들 각각에 별개의 이미지들을 전달하는 복수의 다른 방법들을 쉽게 인식할 것이다. 예를 들어, 디바이스 (105) 는 2 개의 측방으로 분리된 디스플레이들 (102) 을 포함할 수도 있다. 디바이스 (105) 를 사용자의 안면에 가깝게 유지함으로써, 각각의 측방에서의 오프셋 이미지는 사용자의 눈들 각각에 별개로 나타날 수도 있다. 셔터-렌즈들 및 유사한 기술이 또한, 충분할 수도 있다. 본 실시형태들은 적어도, 묘사가 생성되는 특정 방법들에 관계없이 입체적 묘사를 제공하는 임의의 시스템과 함께 사용될 수도 있다.
디스플레이 디바이스 (105) 에 부착되거나 원격으로 동작하는 입력부 (103) 는 디스플레이 디바이스 (105) 에 사용자 입력을 제공하는데 사용될 수도 있다. 일부 실시형태들에서, 입력부 (103) 는 디스플레이 디바이스 (105) 의 하우징 안에 통합되거나 이에 부착된 입력 제어부들을 포함할 수도 있다. 다른 실시형태들에서, 입력부 (103) 는 텔레비전들로 사용되는 바와 같이 무선 원격 제어부를 포함할 수도 있다. 입력부 (103) 는 사용자, 또는 선호도 인디케이션을 수신하기 위한 임의의 다른 수단으로부터 키 또는 버튼 프레스들 또는 모션 제스처들을 수신하도록 구성될 수도 있다. 일부 실시형태들에서, 다른 목적들을 위해, 예컨대 채널을 선택하고, 볼륨을 조정하고, 또는 커맨드를 입력하기 위해 지정된 입력 (103) 상의 버튼들 (103a) 은 교정 절차에 관한 입력을 수신하도록 다른 목적에 맞게 만들어질 수도 있다. 일부 실시형태들에서, 교정 입력들을 수신하기 위해 특별히 지정된 버튼들 (103b) 이 제공될 수도 있다. 제스처 감지 입력부들 (103c) 에서, 시스템은 교정에 관련되는 것과 같은 교정 절차 동안 (손가락, 스타일러스 등을 통해) 터치스크린 상에서 소정의 제스처들을 인식할 수도 있다. 입력들은 교정 절차를 제어할 뿐만 아니라 선호된 파라미터들을 표시하는데 사용될 수도 있다. 예를 들어, 일부 실시형태들에서 채널 선택 버튼을 누르거나 손가락 모션을 행하는 것은 교정 동안 복수의 객체들 (104) 의 모션을 변경할 수도 있다. "입력" 키 또는 "팝-인 (Pop-In)" 또는 "팝-아웃 (Pop-Out)" 선택 키를 누르는 것은 바람직한 최대 범위 파라미터를 식별하는데 사용될 수도 있다. 입력부 (103) 는 또한, 특정한 교정 자극들에 응답하여, "관측적 입력부들", 예컨대 카메라 또는 사용자의 행동, 예컨대 사용자의 눈의 특징을 모니터링하는 다른 디바이스를 포함할 수도 있다.
디바이스 (105) 외측에 도시되었으나, 데이터베이스 스토리지 (106) 는 데이터를 저장하기 위한 수단, 예컨대 사용자의 선호도들이 저장될 수도 있는 디바이스 (105) 내부 또는 외부 스토리지를 포함할 수도 있다. 일부 실시형태들에서, 데이터베이스 (106) 는 디바이스 (105) 의 내부 메모리의 일부를 포함할 수도 있다. 일부 실시형태들에서, 데이터베이스 (106) 는 디바이스 (105) 외부의 중앙 서버 시스템을 포함할 수도 있다. 서버 시스템은 다수의 디스플레이 디바이스에 액세스가능하므로, 일 디바이스 상에서 결정된 선호도들은 다른 디바이스에도 이용 가능할 수도 있다.
언급된 바와 같이, 입체적 장면을 도시하는 경우, 디바이스 (105) 는 방향들 x, y, z 중 어느 하나에서 이동하는 것처럼 사용자에게 객체들 (104) 을 나타낼 수도 있다. z 방향에서의 이동은 입체적 효과를 통해 달성될 수도 있다. 도 2a 는 음의 감지 (negative perceived) z-포지션 (203a), 즉 사용자에 대해 디스플레이 (102) 뒤에서의 객체를 도시한다. 이러한 묘사는 제 1 이미지의 제 1 포지션 (202a) 및 제 2 이미지의 제 2 포지션 (202b) 에서 객체를 나타냄으로써 달성될 수도 있다. 사용자의 좌안 (201a) 이 제 1 이미지를 감지하고 사용자의 우안 (201b) 이 제 2 이미지를 감지하는 경우, 사용자의 뇌는 이 이미지들을 통합하여 감지 포지션 (203a) 에서 객체를 감지할 수도 있다. 눈의 피로감 없이 결합 (fusion) 이 일어나는 디스플레이 주변에는 "안전 영역 (safe area)" 대역이 존재할 수도 있다. 이 대역은 후술되는 팩터들에 적어도 부분적으로 기초하여, 디스플레이 (102) 에 대한 사용자의 거리 (Dv) 에 응답하여 변할 수도 있다. 일부 시스템들에서, 이미지들은 2 개의 별개의 실세계 물리적 카메라들을 사용하여 사전에 캡처될 수도 있다. 일부 시스템들에서, 이미지들은, 장면의 적합한 이미지를 결정하기 위해 "가상 카메라들" 을 이용하는 소프트웨어에 의해 동적으로 생성될 수도 있다. 가상 카메라는 합성으로 생성된 환경 또는 장면에서 시점 (point of view) 을 포함할 수도 있다.
반대로, 도 2b 에 도시된 바와 같이, 포지션들 (202b 및 202a) 이 각 이미지에서 반전되는 경우, 사용자의 뇌는 이 이미지들을 통합하여 감지 포지션 (203b) 에 있는 것과 같이 객체를 감지할 수도 있다. 이 방식으로, 객체들은 디스플레이 (102) 의 평면에 대하여 양 또는 음의 z-방향 로케이션들에서 나타날 수도 있다.
상이한 사용자들의 뇌들은 상이한 편안감 정도들을 갖고 도 2a 및 도 2b 의 이미지들 간에 객체 디스패리티를 통합할 수도 있다. 입체적 효과를 편안하게 감지하는 능력은 포지션들 (202a 및 202b) 의 측방 디스패리티 뿐만 아니라 이 포지션들과 연관된 각도 디스패리티 (angular disparity) 양자에 의존할 수도 있다. 측방 디스패리티는 포지션들 (202a 및 202b) 각각 간의 x-방향에서의 오프셋을 지칭한다. 통상적으로, y 방향에서의 오프셋은 나타나지 않지만, 이는 일부 디스플레이 시스템들에서 발생할 수도 있다. 각도 디스패리티는 감지 포지션들 (201a-b) 각각에서 객체를 감지하는 경우 발생하는 각각의 눈의 회전을 지칭한다. 도 2a 및 도 2b 의 예를 참조하면, 라인들 (205a 및 205b) 은 도 2a 에서의 감지 포지션 (203a) 에서 객체를 볼 때 눈들 (201a, 201b) 각각에 대한 센터라인을 지칭한다 (센터라인은 눈에 의해 보여지는 장면의 센터를 지칭함). 눈들이 대신에, 도 2b 에서의 포지션 (203b) 에서 감지된 객체를 보는 경우, 이 눈들은 그 센터라인들이 접근할 때까지 (206a 및 206b) 서로를 향해 회전한다. 각도 θ1 과 θ2 에서의 차이는 센터라인들 (205a, 206a 및 205b, 206b) 사이에서 각각 발생한다. 이들 각도 차이들 (θ1 과 θ2) 은 특정의 감지 로케이션에서 객체의 감지에 기인하는 각도 디스패리티를 포함한다. 일부 경우들에서, 사용자의 편안감은 측방 및 각도 디스패리티 양자에 의존할 수도 있다. 일부 사용자들은 각도 디스패리티에 의해 더 영향을 받을 수도 있고, 일부 사용자들은 측방 디스패리티에 의해 더 영향을 받을 수도 있다. 일 사용자에 대한 허용 가능한 디스패리티들은 다른 사용자에게 불편하거나 또는 심지어 고통스러울 수도 있다. 사용자의 편안한 구역 밖에서 디스패리티들이 존재하지 않도록 디스플레이 (102) 의 출력을 변경함으로써, 사용자 불편은 전체적으로 경감 또는 방지될 수도 있다.
유감스럽게도, 일부 환경들에서 다른 팩터들로부터 고립되어 사용자의 측방 및 각도 디스패리티 선호도들을 분류 (cataloguing) 하는 것은 사용자 불편을 방지하기에 충분하지 않을 수도 있다. 사용자가 입체적 효과를 감지하는 경우 전체론적으로 측방 및 각도 디스패리티들은 서로, 그리고 다른 팩터들과 상관할 수도 있다. 예를 들어, 도 3a 및 도 3b 를 참조하면, 디스플레이 (102) 에 대한 사용자의 로케이션은 마찬가지로 사용자의 선호도들에 영향을 줄 수도 있다. 먼 로케이션 (도 3a 의, 큰 Dv) 및 가까운 로케이션 (도 3b 의, 작은 Dv) 으로부터 디스플레이 (102) 를 보는 사용자는 동일한 측방 디스패리티가 양 경우들에서 나타나더라도, 상이한 정도들의 불편을 경험할 수도 있다. 디스플레이 (102) 로부터의 사용자의 거리가 측방 디스패리티가 일정한 상태로 있는 경우에도 각도 디스패리티에 영향을 줄 것이기 때문에, 각도 디스패리티 대신에 불편이 상관될 수도 있다. 예시된 바와 같이, 음 (205a, 205b) 및 양 (206a, 206b) 의 깊이를 갖는 객체들의 감지에 대응하는 센터라인들은, 사용자가 디스플레이 (201) 를 볼 때 Dv 에 따라 변할 수도 있다. 디스플레이 (102) 의 스크린 치수들은 또한, 사용자에게 용인 가능한 각도 디스패리티의 범위에 영향을 줄 수도 있다. 스크린으로부터 고정 거리에서, 더 큰 스크린 치수는 더 큰 시야를 나타낼 것이다. 이는 줌인 효과와 유사하다 (허용 가능한 픽셀 디스패리티가 더 적을 수도 있음). 반대로, 동일한 시야에 대해, 사용자는 스크린에 더 작은 거리에 대해 더 적은 팝 아웃을 아마도 선호할 것이다. 따라서, 도 3a 및 도 3b 의 포지션들 양자에 대한 동일한 측방 디스패리티를 사용자가 경험하는 경우에도, 각도 디스패리티의 결과로서, 그들은 스크린 (102) 으로부터 먼 경우 z-방향 범위 (303a) 를 그리고 디스플레이 (102) 에 가까운 경우 범위 (303b) 를 선호할 수도 있다. 더욱이, 범위들 (303a 및 303b) 에 의해 예시된 바와 같이, 사용자 선호도들은 디스플레이 스크린 (102) 에 대하여 대칭적이지 않을 수도 있다. 예를 들어, 일부 사용자들은 양의 깊이보다 더 음의 깊이를 그리고 그 반대를 용인한다.
소정의 본 실시형태들은 입체적 효과의 사용자의 선호 범위들을 결정하기 위해 사용자에게 상호적인 입체적 비디오 시퀀스를 디스플레이하고 사용자로부터 입력을 수신하는 것을 고려한다. 이 상호적인 비디오 시퀀스는 특히, 디스플레이 (102) 로부터 소정 거리에서 사용자의 측방 및 각도 디스패리티 선호도들을 결정하도록 구성될 수도 있다. 일부 실시형태들에서, 사용자는 디스플레이 (102) 로부터의 그들의 거리를 미리 지정할 수도 있다. 다른 실시형태들에서, 거리는 디바이스 (105) 상의 거리계 또는 유사한 센서를 사용하여 결정될 수도 있다. 소정 실시형태들에서, 비디오 시퀀스는 디스플레이의 평면 앞 및 뒤에서 (즉, z-방향에서 양 및 음의 포지션들에서) 나타나는 이동하는 객체들을 포함할 수도 있다. 사용자가 객체들의 모션을 감지할 때, 사용자는 그들이 편안하거나 불편하다고 느끼는 양 및 음의 깊이들을 표시할 수도 있다. 이들 선택들은 3D 프로세싱 알고리즘으로 전송되도록, 적합한 3D 깊이 구성 파라미터로 트랜스레이팅될 수도 있다. 일부 실시형태들에서, 복수의 깊이들을 묘사하는 단일 이미지는 사용자의 선호도들을 결정하기에 충분할 수도 있다. 일부 실시형태들에서, 비디오는 디바이스 (104) 상의 다른 센서들로부터 도출된, 사용자의 이전 선호도들, 데이터, 예컨대 사용자 로케이션 데이터, 및 다른 입체적 디바이스들로부터 (예컨대, 이전에 교정되었으나 상이한 스크린 지오메트리를 보유한 디바이스들) 의 사용자 선호도들과 같은 이러한 팩터들에 기초하여 동적으로 생성될 수도 있다. 일부 실시형태들에서, 비디오 시퀀스는 사용자에 의해 지정된 스크린 지오메트리에 기초하여 생성될 수도 있다. 일부 실시형태들에서, 스크린 지오메트리는 자동으로 결정될 수도 있다.
도 4 를 참조하면, 소정 실시형태들에서 비디오 시퀀스는 객체들이 패턴들 (402a, 402b) 을 따라 이동할 때 하나 이상의 객체들 (401a, 401b) 을 묘사하는 이미지들을 포함할 수도 있다. 일부 실시형태들에서, 소정 객체들 (401a) 은 음의 z-포지션들 (스크린 뒤, 또는 "팝-인" 포지션들) 에 위치될 수도 있고, 다른 객체들 (401b) 은 양의 z-포지션들 (스크린 앞, 또는 "팝-아웃" 포지션들) 에 위치될 수도 있다. 객체들 (401a, 401b) 은 패턴들 (402a, 402b) 을 따라 이동할 수도 있다. 도 4 에는 x-y 평면에서 독점적으로 이동하는 것으로 도시하였으나, 일부 실시형태들에서 패턴들은 객체들로 하여금 z-방향으로도 이동하게 할 수도 있다. 일부 실시형태들에서, 상이한 z-포지션들에서 복수의 객체들이 디스플레이될 수도 있고, 각 객체는 x-y 평면에서 이동할 수도 있다. x-y 평면 내에서의 이동은 사용자가 디스플레이 (102) 의 스크린 지오메트리에 관하여 입체적 효과를 감지하게 할 수도 있다. 일부 실시형태들에서, 이 모션은 사용자가 부담 없이 이미지들을 결합시킬 수도 있는 "안전 영역" 대역을 결정하는데 사용될 수도 있다. 일부 실시형태들에서, 사용자는 가능하게는 입력부 (103) 를 사용하여 객체들의 이동을 제어할 수도 있다. 사용자는 x, y, 및 z 평면들 각각에서 객체들을 트랜스레이팅하고, 입력부 (103) 를 사용하여 로케이션들 중 소정 로케이션에서 그 선호도들을 표시할 수도 있다. 예를 들어, 사용자는 손가락 제스처를 취하거나 채널 또는 볼륨 선택 키들을 눌러, 객체들 (401b) 을 이동시킬 수도 있다. 객체를 이동시킬 때, 사용자는 깊이 이동에 대한 그 허용오차 (즉, 상이한 속도 및 디스패리티 값들의 효과) 를 표시할 수도 있다.
도 5 는 z-방향에서 소정 실시형태들에서 객체들 (401a 및 401b) 의 모션을 도시한다. 사용자는 양 및 음의 깊이들 각각에 선택 범위들 (502a, 502b) 을 제공할 수도 있다. 언급된 바와 같이, 일부 실시형태들에서, 사용자는 가능하게는 입력부 (103) 를 통해 객체들 (401a, 401b) 의 모션을 다이렉팅할 수도 있다. 따라서, 사용자는 각종 패턴들 (402a, 402b) 을 따라 객체들을 다이렉팅할 수도 있고, 소정 로케이션들에서 입체적 효과에 관하여 그 편안감을 나타낼 수도 있다. 일부 실시형태들에서, 디바이스 (105) 는 사용자가 시퀀스를 디스플레이하기 전에 입력을 제공하는 로케이션들을 결정할 수도 있다. 일부 실시형태들에서, 사용자는 입력이 제공되는 로케이션들을 결정할 수도 있다.
도 6a 내지 도 6d 는 4 개의 상이한 사용자들에 대한 사용자 선호 범위들 중 소정 범위를 도시한다. 도 6a 에서, 사용자는 적은 양의 깊이 만을 선호하면서 더 많은 음의 깊이를 선호한다. 따라서, 사용자는 도 6a 에 도시된 객체들 (401a 및 401b) 에 대한 포지션들에서 유리한 인디케이션을 표현할 수도 있다. 도 6b 에서, 사용자는 실질적인 양 및 음의 깊이 양자를 선호한다. 적합한 선호도 인디케이션들은 표시된 객체 포지션들에서 유사하게 지정될 수도 있다. 도 6c 에서, 사용자는 약간의 양의 양 및 음의 깊이 양자를 선호한다. 도 6d 에서, 사용자는 단지 음의 깊이만을 선호하고 양의 깊이는 선호하지 않는다.
도 7 은 소정의 실시형태들에 의해 이용된 선호도 결정 알고리즘을 도시하는 흐름도이다. 프로세스 (700) 는 블록 701 에서 복수의 "팝-인" 또는 음의 z-포지션에서 객체의 하나 이상의 이미지들을, 예컨대 비디오 시퀀스로 디스플레이함으로써 시작한다. 프로세스 (700) 는 그 후, 사용자가 팝-인 범위에 대한 선호를 나타냈는지를 결정 블록 (702) 에서 결정할 수도 있다. 당업자는, 예컨대, 입력 디바이스 (103) 로부터 비롯되는 인터럽트를 대기하도록 선호도 인디케이션을 수신하기 위한 복수의 방식들을 인지할 수도 있다. 인터럽트는 키를 누르거나 제스처를 취하는 사용자에 응답하여 생성될 수도 있다. 대안으로, 시스템은 비디오 시퀀스 전체에 걸쳐 사용자의 반응을 관찰함으로써 사용자의 선호도를 결정하고 센서를 통해 사용자를 모니터링할 수도 있다. 전술된 바와 같이, 선호도는 x-y 평면에서 복수의 로케이션들에 대해 표시될 수도 있다. "팝-인" 또는 음의 z-포지션에 대한 사용자의 선호도를 수신한 후에, 프로세스 (700) 는 그 후, 블록 703 에서 미래의 참조를 위해 선호도들을 저장할 수도 있다. 시스템은 그 후, 블록 704 에서 "팝-아웃" 또는 양의 z-방향에 대한 선호도들을 결정할 수도 있다. 다시, 일단 사용자가 블록 705 에서 선호도를 표시하면, 블록 706 에서 "팝-아웃" 선호도가 저장될 수도 있다. 당업자는, 사용자가 또한, 예컨대, "안전 영역" 대역을 포함할 수도 있는 선호된 x 및 y 범위들을 표시하는 상기의 변형들을 쉽게 그려볼 수도 있다. 선호도들은 데이터베이스 (106) 로 저장될 수도 있다.
당업자는, 일단 최대 팝-인 및 팝-아웃 범위들이 결정되었으면, 다수의 대응하는 값들이 실제 범위들 대신에 저장될 수도 있다는 것을 인지할 것이다. 따라서, 일부 실시형태들에서, 저장된 선호도들 또는 파라미터들은 팝-인 및 팝-아웃 범위들의 값들 (즉, 최대 팝-인 값 및 최대 팝-아웃 값) 을 포함할 수도 있다. 그러나, 다른 실시형태들에서, 각각의 이미지에서 나타내는 객체들에 대한 대응하는 디스패리티 범위들이 대신 저장될 수도 있다. 일부 실시형태들에서, 사용자의 선호 범위들에 대응하는 이미지들을 생성하는데 사용된 가상 카메라들의 포지션 및 배향이 저장될 수도 있다. 이 경우, 저장된 선호도는 동적으로 후속의 장면을 생성하는 경우 사용될 수도 있다. 언급된 바와 같이, 일부 실시형태들에서 사용 시 사용자가 각 시스템을 재교정할 필요가 없도록 데이터베이스 (106) 는 사용자의 선호도들에 대한 액세스를 다른 디스플레이 디바이스들에 제공할 수도 있다. 사용자 선호 범위들을 저장하도록 구성된 소프트웨어 모듈들, 입체적 이미지들의 디스플레이에 영향을 주는 하나 이상의 변수들과 선호 범위를 연관시키기 위한 테이블 검색, 이러한 검색 테이블을 참조하는 소프트웨어 및 선호도 인디케이션에 기초하여 파라미터를 결정하기 위한 다른 수단은 당업자에 의해 쉽게 인지될 것이다. 따라서, 일부 경우들에서 결정하는 수단은 단순히, 사용자 표시된 범위를 저장될 파라미터로서 식별할 수도 있다. 대안으로, 결정하는 수단은 범위에 대응하는 디스패리티와 같은 변수를 디스플레이하기 위한 값을 식별할 수도 있다. 사용자 정의된 범위보다는 최대 디스패리티 값이 그 후 저장될 수도 있다.
도 7 의 실시형태들과 같은 소정의 실시형태들은 사용자와 교정 시스템 간의 신속한 피드백을 제공한다. 사용자는 팝-인 및 팝-아웃 파라미터들을 선택 또는 나타낼 수 있고, 디스플레이 시에 사용자의 선택 또는 인디케이션의 효과를 즉시 감지할 수 있다. 디스플레이가 프레임들의 시퀀스를, 예컨대 3 차원 비디오로서 묘사하는 경우, 시스템은 교정 프로세스 전체에 걸쳐 객체 속도 및 궤적을 변경할 수도 있다. 일부 실시형태들에서, 교정 비디오는 사용자가 상이한 선택들을 나타낼 때 동적으로 조정될 수도 있다. 시스템은 사용자의 이전의 선호도 인디케이션들 중 하나 또는 전부에 기초하여 비디오가 변형되어야 하는 방법을 결정하기 위한 휴리스틱법 (heuristics) 을 포함할 수도 있다.
당업자는, 음 또는 양의 깊이 선호도들이 결정되는 순서가 임의적일 수도 있고, 일부 실시형태들에서 동시에 발생할 수도 있다는 것을 인지할 것이다. 비디오 시퀀스는, 예를 들어 사용자 선호도들에 대한 극한들을 포함하도록 공지된 x, y, 및 z 방향들에서의 로케이션들에서 객체들의 쌍들을 동시에 디스플레이할 수도 있다. 쌍을 선택함으로써, 사용자는 단일 선택으로 양 및 음의 깊이 선호도 양자를 나타낼 수도 있다. 일부 경우들에서, 단지 단일의 입체적 이미지를 디스플레이할 필요가 있을 수도 있다.
일단, 시스템이 사용자의 선호도들을 결정하면, 이 선호도들은 후속의 디스플레이들 동안 사용을 위해 저장될 수도 있다. 대안으로, 일부 실시형태들은 대신에 저장을 위한 하나 이상의 디스플레이 파라미터들에 대한 선호도들을 변환하는 것을 고려한다. 예를 들어, 사용자 선호도는 디스플레이 동안 양 및 음의 깊이에 대한 최대 스케일링 팩터를 결정하는데 사용될 수도 있다. 스케일링 팩터들 또는 다른 표현을 저장하는 것이 깊이 범위들을 저장하는 것보다 더 효율적일 수도 있다. 추가의 데이터, 예컨대 디스플레이 (102) 에 대한 사용자의 로케이션에 관한 데이터가 또한, 데이터베이스 (106) 에 저장하기 전에 적합한 파라미터들로 변환될 수도 있다.
여기에 개시된 구현들과 관련하여 설명된 다양한 예시적인 논리 블록, 모듈, 및 회로는 범용 프로세서, 디지털 신호 프로세서 (DSP), 주문형 집적 회로 (ASIC), 필드 프로그래밍가능 게이트 어레이 (FPGA) 또는 다른 프로그래밍가능 로직 디바이스, 이산 게이트 또는 트랜지스터 로직, 이산 하드웨어 컴포넌트 또는 여기에 설명된 기능을 수행하도록 설계된 이들의 임의의 조합으로 구현 또는 수행될 수도 있다. 범용 프로세서는 마이크로프로세서일 수도 있지만, 다르게는, 프로세서는 임의의 종래의 프로세서, 제어기, 마이크로제어기, 또는 상태 머신일 수도 있다. 또한, 프로세서는 컴퓨팅 디바이스들의 조합, 예를 들어, DSP 와 마이크로프로세서의 조합, 복수의 마이크로프로세서, DSP 코어와 결합한 하나 이상의 마이크로프로세서, 또는 임의의 다른 이러한 구성으로서 구현될 수도 있다.
여기에 개시된 구현들과 관련하여 설명된 방법 또는 프로세스의 단계는 직접 하드웨어에, 프로세서에 의해 실행되는 소프트웨어 모듈에, 또는 그들의 조합에서 구체화 (embody) 될 수도 있다. 소프트웨어 모듈은 RAM 메모리, 플래시 메모리, ROM 메모리, EPROM 메모리, EEPROM 메모리, 레지스터, 하드디스크, 착탈형 디스크, CD-ROM, 또는 당업계에 공지된 임의의 다른 형태의 비일시적 저장 매체에 상주할 수도 있다. 예시적 컴퓨터 판독가능 저장 매체는 프로세서가 컴퓨터 판독가능 저장 매체로부터 정보를 판독할 수 있고 컴퓨터 판독가능 저장 매체에 정보를 기입할 수 있도록 프로세서에 커플링된다. 다르게는, 저장 매체는 프로세서에 통합될 수도 있다. 프로세서 및 저장 매체는 ASIC 에 상주할 수도 있다. ASIC는 사용자 단말기, 카메라 또는 다른 디바이스에 상주할 수도 있다. 다르게는, 프로세서 및 저장 매체는 사용자 단말기, 카메라 또는 다른 디바이스에서 이산 컴포넌트들로서 상주할 수도 있다.
제목들 (Headings) 은 본원에서 참조를 위해 그리고 다양한 섹션들을 로케이팅 (locating) 하는 것을 돕기 위해 포함된다. 이들 제목들은 그에 대하여 설명된 개념들의 범위를 제한하도록 의도되지 않는다. 그러한 개념들은 전체 명세서에 걸쳐 적용가능성 (applicability) 을 가질 수도 있다.
개시된 구현들의 이전의 설명은 당업자가 본 발명을 제조 또는 사용할 수 있게 하도록 제공된다. 이들 구현들에 대한 다양한 변형은 당업자에게는 용이하게 명백할 것이며, 여기에 정의된 일반적인 원리는 본 발명의 사상 또는 범위를 벗어남이 없이 다른 구현들에 적용될 수도 있다. 따라서, 본 발명은 여기에 나타낸 구현들로 한정되도록 의도된 것이 아니라, 여기에 개시된 원리 및 신규한 특징들에 부합하는 최광의 범위를 따르도록 한다.

Claims (28)

  1. 입체적 효과에 대한 파라미터를 결정하기 위해 전자 디바이스 상에서 구현된 방법으로서,
    객체의 입체적 효과를 포함하는 복수의 이미지들을 사용자에게 디스플레이하는 단계로서, 상기 객체는 상기 복수의 이미지들에 의해 복수의 3 차원 로케이션들에서 묘사되는, 상기 복수의 이미지들을 사용자에게 디스플레이하는 단계;
    상기 사용자로부터, 선호된 3 차원 로케이션의 선호도 인디케이션을 수신하는 단계; 및
    상기 선호도 인디케이션에 기초하여 추가 이미지들의 입체적 묘사들에 대한 파라미터를 결정하는 단계를 포함하는, 입체적 효과에 대한 파라미터를 결정하는 방법.
  2. 제 1 항에 있어서,
    상기 복수의 로케이션들 중 적어도 2 개는 x, y, 및 z 방향들에서 서로에 대해 변위되는, 입체적 효과에 대한 파라미터를 결정하는 방법.
  3. 제 1 항에 있어서,
    상기 복수의 로케이션들은 양의 깊이 포지션을 갖는 로케이션을 포함하는, 입체적 효과에 대한 파라미터를 결정하는 방법.
  4. 제 3 항에 있어서,
    상기 복수의 이미지들은 제 2 객체의 입체적 효과를 더 포함하고,
    상기 제 2 객체는 상기 복수의 이미지들에 의해 제 2 복수의 로케이션들에서 묘사되고, 상기 제 2 복수의 로케이션들은 음의 깊이 포지션을 갖는 로케이션을 포함하는, 입체적 효과에 대한 파라미터를 결정하는 방법.
  5. 제 1 항에 있어서,
    상기 복수의 이미지들은 디스플레이의 평면에서 상기 객체의 이동을 묘사하는, 입체적 효과에 대한 파라미터를 결정하는 방법.
  6. 제 1 항에 있어서,
    상기 복수의 이미지들은 적어도 디스플레이의 스크린 지오메트리에 기초하여 동적으로 생성되는, 입체적 효과에 대한 파라미터를 결정하는 방법.
  7. 제 1 항에 있어서,
    상기 복수의 이미지들은 적어도 디스플레이로부터 상기 사용자의 거리에 기초하여 동적으로 생성되는, 입체적 효과에 대한 파라미터를 결정하는 방법.
  8. 제 1 항에 있어서,
    상기 파라미터를 메모리에 저장하는 단계를 더 포함하는, 입체적 효과에 대한 파라미터를 결정하는 방법.
  9. 제 8 항에 있어서,
    상기 파라미터에 기초하여 상기 객체의 깊이에 대한 최대 범위를 결정하는 단계를 더 포함하는, 입체적 효과에 대한 파라미터를 결정하는 방법.
  10. 제 1 항에 있어서,
    상기 전자 디바이스는 모바일 폰을 포함하는, 입체적 효과에 대한 파라미터를 결정하는 방법.
  11. 제 1 항에 있어서,
    상기 파라미터는 상기 선호도 인디케이션인, 입체적 효과에 대한 파라미터를 결정하는 방법.
  12. 명령들을 포함하는 컴퓨터 판독가능 매체로서,
    상기 명령들은 실행되는 경우, 프로세서로 하여금,
    객체의 입체적 효과를 포함하는 복수의 이미지들을 사용자에게 디스플레이하는 단계로서, 상기 객체는 상기 복수의 이미지들에 의해 복수의 로케이션들에서 묘사되는, 상기 복수의 이미지들을 사용자에게 디스플레이하는 단계;
    상기 사용자로부터, 선호된 3 차원 로케이션의 선호도 인디케이션을 수신하는 단계; 및
    상기 선호도 인디케이션에 기초하여 추가 이미지들의 입체적 묘사들에 대한 파라미터를 결정하는 단계를 수행하게 하는, 명령들을 포함하는 컴퓨터 판독가능 매체.
  13. 제 12 항에 있어서,
    상기 복수의 로케이션들 중 적어도 2 개는 x, y, 및 z 방향들에서 서로에 대해 변위되는, 명령들을 포함하는 컴퓨터 판독가능 매체.
  14. 제 12 항에 있어서,
    상기 복수의 로케이션들은 양의 깊이 포지션을 갖는 로케이션을 포함하는, 명령들을 포함하는 컴퓨터 판독가능 매체.
  15. 제 14 항에 있어서,
    상기 복수의 이미지들은 제 2 객체의 입체적 효과를 더 포함하고,
    상기 제 2 객체는 상기 복수의 이미지들에 의해 제 2 복수의 로케이션들에서 묘사되고, 상기 제 2 복수의 로케이션들은 음의 깊이 포지션을 갖는 로케이션을 포함하는, 명령들을 포함하는 컴퓨터 판독가능 매체.
  16. 제 12 항에 있어서,
    상기 복수의 이미지들은 디스플레이의 평면에서 상기 객체의 이동을 묘사하는, 명령들을 포함하는 컴퓨터 판독가능 매체.
  17. 전자 입체시 (stereoscopic vision) 시스템으로서,
    디스플레이;
    객체의 입체적 효과를 포함하는 복수의 이미지들을 사용자에게 디스플레이하도록 구성된 제 1 모듈로서, 상기 객체는 상기 복수의 이미지들에 의해 복수의 로케이션들에서 묘사되는, 상기 제 1 모듈;
    상기 사용자로부터, 선호된 3 차원 로케이션의 선호도 인디케이션을 수신하도록 구성된 입력부; 및
    상기 선호도 인디케이션과 연관된 파라미터를 저장하도록 구성된 메모리로서, 상기 파라미터는 상기 사용자의 상기 선호도 인디케이션에 따라 추가 이미지들을 디스플레이하도록 사용되는, 상기 메모리를 포함하는, 전자 입체시 시스템.
  18. 제 17 항에 있어서,
    상기 복수의 로케이션들 중 적어도 2 개는 x, y, 및 z 방향들에서 서로에 대해 변위되는, 전자 입체시 시스템.
  19. 제 17 항에 있어서,
    상기 복수의 로케이션들은 양의 깊이 포지션을 갖는 로케이션을 포함하는, 전자 입체시 시스템.
  20. 제 19 항에 있어서,
    상기 복수의 이미지들은 제 2 객체의 입체적 효과를 더 포함하고,
    상기 제 2 객체는 상기 복수의 이미지들에 의해 제 2 복수의 로케이션들에서 묘사되고, 상기 제 2 복수의 로케이션들은 음의 깊이 포지션을 갖는 로케이션을 포함하는, 전자 입체시 시스템.
  21. 제 17 항에 있어서,
    상기 복수의 이미지들은 상기 디스플레이의 평면에서 상기 객체의 이동을 묘사하는, 전자 입체시 시스템.
  22. 제 17 항에 있어서,
    상기 복수의 이미지들은 적어도 상기 디스플레이의 스크린 지오메트리에 기초하여 동적으로 생성되는, 전자 입체시 시스템.
  23. 제 17 항에 있어서,
    상기 복수의 이미지들은 적어도 상기 디스플레이로부터 상기 사용자의 거리에 기초하여 동적으로 생성되는, 전자 입체시 시스템.
  24. 제 17 항에 있어서,
    전자 디바이스는 모바일 폰을 포함하는, 전자 입체시 시스템.
  25. 제 17 항에 있어서,
    상기 파라미터는 상기 선호도 인디케이션을 포함하는, 전자 입체시 시스템.
  26. 전자 디바이스에서의 입체시 (stereoscopic vision) 시스템으로서,
    객체의 입체적 효과를 포함하는 복수의 이미지들을 사용자에게 디스플레이하기 위한 수단으로서, 상기 객체는 상기 복수의 이미지들에 의해 복수의 로케이션들에서 묘사되는, 상기 복수의 이미지들을 사용자에게 디스플레이하기 위한 수단;
    상기 사용자로부터, 선호된 3 차원 로케이션의 선호도 인디케이션을 수신하기 위한 수단; 및
    상기 선호도 인디케이션에 기초하여 추가 이미지들의 입체적 묘사들에 대한 파라미터를 결정하기 위한 수단을 포함하는, 전자 디바이스에서의 입체시 시스템.
  27. 제 26 항에 있어서,
    상기 디스플레이하기 위한 수단은 디스플레이를 포함하고, 묘사 수단은 복수의 이미지들을 포함하고, 상기 선호도 인디케이션을 수신하기 위한 수단은 입력부를 포함하며, 입체적 파라미터를 결정하기 위한 수단은 선호 범위를 저장하도록 구성된 소프트웨어 모듈을 포함하는, 전자 디바이스에서의 입체시 시스템.
  28. 제 26 항에 있어서,
    상기 복수의 로케이션들 중 적어도 2 개는 x, y, 및 z 방향들에서 서로에 대해 변위되는, 전자 디바이스에서의 입체시 시스템.
KR1020137034026A 2011-05-23 2012-05-17 입체적 효과 조정을 위한 상호적인 사용자 인터페이스 KR20140047620A (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201161489224P 2011-05-23 2011-05-23
US61/489,224 2011-05-23
US13/218,379 US20120300034A1 (en) 2011-05-23 2011-08-25 Interactive user interface for stereoscopic effect adjustment
US13/218,379 2011-08-25
PCT/US2012/038411 WO2012162096A1 (en) 2011-05-23 2012-05-17 Interactive user interface for stereoscopic effect adjustment

Publications (1)

Publication Number Publication Date
KR20140047620A true KR20140047620A (ko) 2014-04-22

Family

ID=46197697

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020137034026A KR20140047620A (ko) 2011-05-23 2012-05-17 입체적 효과 조정을 위한 상호적인 사용자 인터페이스

Country Status (6)

Country Link
US (1) US20120300034A1 (ko)
EP (1) EP2716052A1 (ko)
JP (2) JP6223964B2 (ko)
KR (1) KR20140047620A (ko)
CN (1) CN103609104A (ko)
WO (1) WO2012162096A1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140126877A1 (en) * 2012-11-05 2014-05-08 Richard P. Crawford Controlling Audio Visual Content Based on Biofeedback
US10057558B2 (en) * 2015-09-04 2018-08-21 Kabushiki Kaisha Toshiba Electronic apparatus and method for stereoscopic display
US10567729B2 (en) * 2017-08-11 2020-02-18 Bitanimate, Inc. User interface for adjustment of stereoscopic image parameters
US20220368881A1 (en) 2019-01-25 2022-11-17 Bitanimate, Inc. Detection and ranging based on a single monoscopic frame
CN111491154A (zh) * 2019-01-25 2020-08-04 比特安尼梅特有限公司 基于一个或多个单视场帧的检测和测距

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003284093A (ja) * 2002-03-27 2003-10-03 Sanyo Electric Co Ltd 立体画像処理方法および装置
US20060203085A1 (en) * 2002-11-28 2006-09-14 Seijiro Tomita There dimensional image signal producing circuit and three-dimensional image display apparatus

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3347385B2 (ja) * 1992-03-27 2002-11-20 オリンパス光学工業株式会社 内視鏡画像処理装置
DE69434685T2 (de) * 1993-08-04 2006-09-14 Canon K.K. Bildverarbeitungsverfahren und -gerät
US5574836A (en) * 1996-01-22 1996-11-12 Broemmelsiek; Raymond M. Interactive display apparatus and method with viewer position compensation
JP3397602B2 (ja) * 1996-11-11 2003-04-21 富士通株式会社 画像表示装置及び方法
US20020163482A1 (en) * 1998-04-20 2002-11-07 Alan Sullivan Multi-planar volumetric display system including optical elements made from liquid crystal having polymer stabilized cholesteric textures
JP2001326947A (ja) * 2000-05-12 2001-11-22 Sony Corp 立体画像表示装置
EP1489857B1 (en) * 2002-03-27 2011-12-14 Sanyo Electric Co., Ltd. 3-dimensional image processing method and device
WO2004046788A1 (ja) * 2002-11-20 2004-06-03 Seijiro Tomita 画像表示装置用光源装置
JP4283785B2 (ja) * 2005-05-10 2009-06-24 株式会社マーキュリーシステム 立体視画像生成装置およびプログラム
KR100667810B1 (ko) * 2005-08-31 2007-01-11 삼성전자주식회사 3d 영상의 깊이감 조정 장치 및 방법
US20080273081A1 (en) * 2007-03-13 2008-11-06 Lenny Lipton Business system for two and three dimensional snapshots
US20080231926A1 (en) * 2007-03-19 2008-09-25 Klug Michael A Systems and Methods for Updating Dynamic Three-Dimensional Displays with User Input
US8208013B2 (en) * 2007-03-23 2012-06-26 Honeywell International Inc. User-adjustable three-dimensional display system and method
JP4657331B2 (ja) * 2008-08-27 2011-03-23 富士フイルム株式会社 3次元表示時における指示位置設定装置および方法並びにプログラム
CN102177721B (zh) * 2008-10-10 2015-09-16 皇家飞利浦电子股份有限公司 处理信号中包括的视差信息的方法
US20100225734A1 (en) * 2009-03-03 2010-09-09 Horizon Semiconductors Ltd. Stereoscopic three-dimensional interactive system and method
US20100225576A1 (en) * 2009-03-03 2010-09-09 Horizon Semiconductors Ltd. Three-dimensional interactive system and method
JP2010250562A (ja) * 2009-04-15 2010-11-04 Sony Corp データ構造、記録媒体、再生装置および再生方法、並びにプログラム
KR101719980B1 (ko) * 2010-06-22 2017-03-27 엘지전자 주식회사 3차원 컨텐츠를 출력하는 디스플레이 기기의 영상 처리 방법 및 그 방법을 채용한 디스플레이 기기
JP5563250B2 (ja) * 2009-06-30 2014-07-30 株式会社ジャパンディスプレイ 立体画像表示装置
JP2011035592A (ja) * 2009-07-31 2011-02-17 Nintendo Co Ltd 表示制御プログラムおよび情報処理システム
JP5444955B2 (ja) * 2009-08-31 2014-03-19 ソニー株式会社 立体画像表示システム、視差変換装置、視差変換方法およびプログラム
US20110107216A1 (en) * 2009-11-03 2011-05-05 Qualcomm Incorporated Gesture-based user interface
EP2484120B1 (en) * 2009-11-06 2018-04-11 Sony Corporation Of America Stereoscopic overlay offset creation and editing
KR20110136414A (ko) * 2010-06-15 2011-12-21 삼성전자주식회사 영상처리장치 및 그 제어방법
US9035939B2 (en) * 2010-10-04 2015-05-19 Qualcomm Incorporated 3D video control system to adjust 3D video rendering based on user preferences
US9041774B2 (en) * 2011-01-07 2015-05-26 Sony Computer Entertainment America, LLC Dynamic adjustment of predetermined three-dimensional video settings based on scene content
US20120188226A1 (en) * 2011-01-21 2012-07-26 Bu Lin-Kai Method and system for displaying stereoscopic images

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003284093A (ja) * 2002-03-27 2003-10-03 Sanyo Electric Co Ltd 立体画像処理方法および装置
US20060203085A1 (en) * 2002-11-28 2006-09-14 Seijiro Tomita There dimensional image signal producing circuit and three-dimensional image display apparatus

Also Published As

Publication number Publication date
CN103609104A (zh) 2014-02-26
US20120300034A1 (en) 2012-11-29
JP2016192773A (ja) 2016-11-10
EP2716052A1 (en) 2014-04-09
WO2012162096A1 (en) 2012-11-29
JP2014517619A (ja) 2014-07-17
JP6223964B2 (ja) 2017-11-01

Similar Documents

Publication Publication Date Title
US9554126B2 (en) Non-linear navigation of a three dimensional stereoscopic display
JP6380881B2 (ja) 立体画像表示装置、画像処理装置及び立体画像処理方法
US10009603B2 (en) Method and system for adaptive viewport for a mobile device based on viewing angle
TWI439120B (zh) 顯示裝置
TWI471820B (zh) 行動終端機及其操作控制方法
KR20190015573A (ko) 시선 추적에 기초하여 자동 초점 조정하는 이미지 포착 시스템, 장치 및 방법
US9076245B2 (en) Image display apparatus and imaging apparatus
WO2017147999A1 (zh) 电子设备、脸部识别跟踪方法和三维显示方法
CN104076512A (zh) 头部佩戴型显示装置以及头部佩戴型显示装置的控制方法
JP2007052304A (ja) 映像表示システム
US8866881B2 (en) Stereoscopic image playback device, stereoscopic image playback system, and stereoscopic image playback method
US10616568B1 (en) Video see-through head mounted display and control method thereof
JP2016192773A (ja) 立体視効果の調整用の対話型ユーザインターフェース
KR20150096948A (ko) 증강 현실 사진 촬영 가이드를 디스플레이 하는 헤드 마운티드 디스플레이 디바이스 및 그 제어 방법
JP2012256110A (ja) 情報処理装置、情報処理方法およびプログラム
TWI613904B (zh) 立體影像產生方法及使用此方法的電子裝置
US9245364B2 (en) Portable device and display processing method for adjustment of images
KR101805710B1 (ko) 축간격 조정부를 갖는 입체영상 촬영장치 및 이를 이용한 입체영상의 깊이감 조절 방법
US9767580B2 (en) Apparatuses, methods, and systems for 2-dimensional and 3-dimensional rendering and display of plenoptic images
EP2587814A1 (en) Depth adaptation for multi-view system
JP2011217229A (ja) 撮像装置および表示方法
CN111857461B (zh) 图像显示方法、装置、电子设备及可读存储介质
KR20160128735A (ko) 디스플레이 장치 및 그의 제어 방법
JP6269692B2 (ja) 表示装置、電子機器、およびプログラム
KR101153120B1 (ko) 입체영상의 깊이감 조정 방법 및 이를 위한 사용자 기기

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E601 Decision to refuse application