KR101247033B1 - 입체 디스플레이에서 1차 콘텐츠와 2차 콘텐츠 간의 방해 방지 - Google Patents

입체 디스플레이에서 1차 콘텐츠와 2차 콘텐츠 간의 방해 방지 Download PDF

Info

Publication number
KR101247033B1
KR101247033B1 KR1020117019187A KR20117019187A KR101247033B1 KR 101247033 B1 KR101247033 B1 KR 101247033B1 KR 1020117019187 A KR1020117019187 A KR 1020117019187A KR 20117019187 A KR20117019187 A KR 20117019187A KR 101247033 B1 KR101247033 B1 KR 101247033B1
Authority
KR
South Korea
Prior art keywords
image
primary
image data
depth
secondary image
Prior art date
Application number
KR1020117019187A
Other languages
English (en)
Other versions
KR20110114672A (ko
Inventor
쟝-피에르 기유
Original Assignee
소니 일렉트로닉스 인코포레이티드
소니 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 일렉트로닉스 인코포레이티드, 소니 주식회사 filed Critical 소니 일렉트로닉스 인코포레이티드
Publication of KR20110114672A publication Critical patent/KR20110114672A/ko
Application granted granted Critical
Publication of KR101247033B1 publication Critical patent/KR101247033B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)

Abstract

1차 영상 및 2차 영상을 입체 디스플레이 장치 상에 배치하는 방법은 1차 영상 및 2차 영상의 인지된 깊이를 확인하는 단계, 1차 영상 데이터 및 2차 영상 데이터 중 적어도 하나의 영상 데이터의 인지된 깊이를 압축함으로써 1차 영상 데이터 및 2차 영상 데이터 중 적어도 하나의 영상 데이터의 인지된 깊이를 변환하는 단계, 및 인지된 2차 영상을, 입체 디스플레이 상에서 시청되는 경우 2차 영상이 입체적으로 시청될 때 완전히 1차 영상과 시청자 사이에 위치하는 것처럼 보이도록 하는 깊이에 위치하는 것으로 시청자에 의해 인지될 위치에 배치하기 위해, 1차 영상 데이터 및 2차 영상 데이터 중 적어도 하나의 영상 데이터를 변환하는 단계를 포함한다. 다른 실시예들이 이 요약에 기술된 특징들로부터 벗어날 수 있기 때문에, 이 요약이 제한하는 것으로 간주되어서는 안된다.

Description

입체 디스플레이에서 1차 콘텐츠와 2차 콘텐츠 간의 방해 방지{PREVENTING INTERFERENCE BETWEEN PRIMARY AND SECONDARY CONTENT IN A STEREOSCOPIC DISPLAY}
관련 문서의 상호 참조
본 출원은 2009년 2월 19일자로 출원된 Jean-Pierre Guillou의 미국 가특허 출원 제61/153,720호(이 출원은 참조 문헌으로서 본 명세서에 포함됨)에 관한 것으로서 이를 기초로 우선권을 주장한다.
저작권 및 상표권 고지
이 특허 문서의 개시 내용의 일부분은 저작권 보호를 받는 내용을 포함하고 있다. 저작권 소유자는 특허청의 특허 파일 또는 기록에 나와 있는 그대로 특허 문서 또는 특허 개시 내용을 팩시밀리 재현하는 것에 대해서는 이의를 제기하지 않지만, 그렇지 않은 어떤 경우에도 모든 저작권을 보유한다. 상표는 그 각자의 소유자의 자산이다.
사용자 인터페이스(UI)가 텔레비전 디스플레이와 같은 디스플레이 상의 시각적 콘텐츠와 상호작용하는 다수의 공지된 방식이 있다. 예를 들어, UI는 시청자가 UI 아래에 있는 것을 볼 수 있도록 얼마간 투명할 수 있거나, UI는 화면을 덮고 있는 창 또는 상자에 배치될 수 있다. 통상적으로 UI가 존재할 때, UI는 사용자가 UI 및 콘텐츠 둘다를 볼 수 있게 해주는 투명도의 영역을 가질 수 있다. 그렇지만, 텔레비전 디스플레이 등이 입체 디스플레이를 디스플레이하고 있을 때 UI를 어떻게 처리할지를 둘러싼 문제가 전혀 탐구되지 않았다.
목적 및 이점과 함께, 동작의 구성 및 방법을 설명하는 예시적인 특정 실시예가 첨부 도면과 관련하여 기술된 이하의 상세한 설명을 참조함으로써 가장 잘 이해될 수 있을 것이다.
도 1은 본 발명의 특정 실시예에 따른 방식으로 입체 디스플레이 패널 상에 디스플레이되는 입체 영상의 조감도.
도 2는 2차원 2차 영상와 함께 입체 디스플레이 패널 상에 디스플레이되는 입체 1차 영상의 조감도.
도 3은 본 발명의 특정 실시예에 따른 방식으로 1차 영상보다 시청자에 더 가깝게 배치된 2차원 2차 영상과 함께 입체 디스플레이 패널 상에 디스플레이되는 1차 입체 영상의 조감도.
도 4는 본 발명의 특정 실시예에 따른 방식으로 1차 영상(1차 영상이 시청자로부터 더 멀리 떨어져 있음)보다 시청자에 더 가깝게 배치된 2차원 2차 영상과 함께 입체 디스플레이 패널 상에 디스플레이되는 1차 입체 영상의 조감도.
도 5는 본 발명의 특정 실시예에 따른 방식으로 1차 영상보다 시청자에 더 가깝게 배치된 2차원 2차 영상과 함께 입체 디스플레이 패널 상에 디스플레이되는 2차원 1차 영상의 조감도.
도 6은 본 발명의 특정 실시예에 따른 방식으로 1차 영상보다 시청자에 더 가깝게 배치된 3차원 2차 영상과 함께 입체 디스플레이 패널 상에 디스플레이되는 2차원 1차 영상의 조감도.
도 7은 본 발명의 특정 실시예들에 따른 프로세스의 예시적인 구현의 플로우차트.
도 8은 본 발명의 특정 실시예들에 따른 프로세스를 달성하는 시스템의 간략화된 기능 블록도.
본 발명이 많은 서로 다른 형태로 구현될 수 있지만, 구체적인 실시예가 도면에 도시되고 본 명세서에 상세히 기술될 것이며, 이러한 실시예의 본 개시 내용이 본 발명을 도시되고 기술된 구체적인 실시예로 제한하기 위한 것이 아니라 본 발명의 원리의 일례로서 생각되어야 한다는 것을 잘 알 것이다. 이하의 설명에서, 몇개의 도면에서 동일하거나 유사하거나 대응하는 부분을 설명하는 데 동일한 참조 번호가 사용된다.
본 명세서에서 사용되는 "한" 또는 "하나"라는 용어는 '하나 또는 둘 이상'으로서 정의된다. 본 명세서에서 사용되는 "복수"라는 용어는 '둘 또는 셋 이상'으로서 정의된다. 본 명세서에서 사용되는 "또 하나의"라는 용어는 '적어도 제2 또는 추가의'로서 정의된다. 본 명세서에서 사용되는 "구비하는" 및/또는 "갖는"이라는 용어는 '포함하는'(즉, 개방형 문언)으로서 정의된다. 본 명세서에서 사용되는 "결합된"이라는 용어는 '연결된'으로서 정의되지만, 반드시 직접 연결될 필요가 없고 또한 반드시 기계적으로 연결될 필요가 없다. 본 명세서에서 사용되는 "프로그램" 또는 "컴퓨터 프로그램"이라는 용어 또는 유사한 용어는 컴퓨터 시스템 상에서 실행되도록 설계된 '명령어 시퀀스'로서 정의된다. "프로그램" 또는 "컴퓨터 프로그램"은 서브루틴, 함수, 프로시저, 객체 메서드, 객체 구현, 실행가능 응용 프로그램, 애플릿, 서블릿, 소스 코드, 오브젝트 코드, 공유 라이브러리/DLL(dynamic load library) 및/또는 컴퓨터 시스템 상에서 실행되도록 설계된 기타 명령어 시퀀스를 포함할 수 있다.
본 명세서에서 사용되는 "프로그램"이라는 용어는 또한 제2 문맥으로도 사용될 수 있다(상기한 정의는 제1 문맥에 대한 것임). 제2 문맥에서, 이 용어는 "텔레비전 프로그램"의 의미로 사용된다. 이 문맥에서, 이 용어는, 콘텐츠가 영화, 스포츠 경기, 여러 편의 시리즈(multi-part series) 중 단편, 뉴스 방송, 기타인지에 상관없이, 하나의 텔레비전 프로그램으로서 해석되고 EPG(electronic program guide)에서 하나의 텔레비전 프로그램으로서 보고되는 것과 같은 임의의 일관성있는 오디오 비디오 콘텐츠 시퀀스를 의미하는 데 사용된다. 이 용어는 또한 EPG(electronic program guide)에서 프로그램으로서 보고되지 않을 수 있는 광고 스팟(commercial spot) 및 기타 프로그램과 비슷한 콘텐츠를 포괄하도록 해석될 수 있다.
본 문서 전반에 걸쳐 "일 실시예", "특정 실시예", "실시예", "일례", "구현예" 또는 유사한 용어는 그 실시예, 일례 또는 구현과 관련하여 기술된 특정의 특징, 구조 또는 특성이 본 발명의 적어도 하나의 실시예, 일례 또는 구현예에 포함된다는 것을 의미한다. 따라서, 본 명세서 전반에 걸쳐 여러 곳에서 나오는 이러한 문구가 모두 동일한 실시예, 일례 또는 구현예를 말하는 것은 아니다. 게다가, 특정의 특징, 구조 또는 특성이 하나 이상의 실시예, 일례 또는 구현예에서 임의의 적절한 방식으로 결합될 수 있지만, 이들로 제한되지 않는다.
본 명세서에서 사용되는 "또는"이라는 용어는 포함적이거나 임의의 하나 또는 임의의 조합을 의미하는 것으로 해석되어야 한다. 따라서, "A, B 또는 C"는 "A, B, C, A와 B, A와 C, B와 C, A와 B와 C 중 임의의 것"을 의미한다. 요소, 기능, 단계 또는 동작의 조합이 어떤 면에서 본질적으로 상호 배타적일 때에만 이 정의에 대한 예외가 될 것이다.
앞서 살펴본 바와 같이, 텔레비전 디스플레이 등이 입체 디스플레이를 디스플레이하고 있을 때 UI를 어떻게 처리할지를 둘러싼 문제가 전혀 탐구되지 않았다. 도 1은 위로부터 내려다 본 임의의 적당한 설계의 입체 디스플레이 패널(100)을 나타낸 것이다. 동 도면은, 입체 영상 기술을 사용함으로써, 객체(104)와 같이 다양한 깊이 -ve로 화면(100)의 평면의 후방에 위치하는 객체를 보는 것처럼 생각될 수 있거나, 다양한 깊이 +ve로 화면의 전방에 위치하는 108과 같은 객체를 보는 것처럼 생각될 수 있거나, -ve 스케일 상의 어딘가로부터 +ve 스케일 상의 어딘가까지의 거리에 걸쳐 있는 깊이를 가지는 것처럼 보이도록 객체(112)와 같이 화면(100)의 평면에 걸쳐 있을 수 있는 환상(illusion)이 생성될 수 있다는 것을 보여준다. 도시된 스케일에서, -ve는 시청자의 위치에 대해 화면(100)의 평면의 후방에 있는 공간을 나타내고, +ve는 시청자의 위치에 대해 화면(100)의 전방에 있는 공간을 나타낸다.
앞서 확인된 문제점을 해결하기 위해, UI가 콘텐츠를 방해하지 않는 깊이 평면(depth plane)에 배치된다. 이것을 실현하기 위해, 콘텐츠 내의 객체의 깊이를 알아야만 한다. 이 깊이 정보를 획득하는 적어도 2가지 방법이 있으며, 이에 대해서는 나중에 논의할 것이다.
입체 디스플레이에 의해 생성되는 3차원 환상(three dimensional illusion)을 고려하면, 디스플레이된 영상에 사용자 인터페이스를 삽입할 때, 사용자가 입체 디스플레이 상의 UI 및 콘텐츠와 편안하게 상호작용하는 데 문제가 있을 수 있다. 도 2를 참조하여, 이제부터 2차원 UI 영상(120)이 표시된 지점에서 3차원 영상 내에 나란히 배치되는 경우에 어떻게 되는지에 대해 생각해보자. 이 경우에, 객체(108, 112)의 깊이는 영상에서 2차원 UI(120)의 겉보기 위치(apparent location)의 경계보다 위에 있거나 그 경계보다 아래에 있거나 그 경계를 가로질러 있을 수 있다. 이 결과, 사용자가 UI를 적절히 이용하지 못할 수 있거나, UI가 부분적으로 또는 전체적으로 가려지거나, 2차원 영상과 3차원 영상 간의 다른 상호작용이 불편하거나 거북하고 사용자 불만이 있을 수 있다.
일반적으로 본 발명의 구현에 따른 실시예에 따르면, 이 문제점은, 도 3에 나타낸 바와 같이, 항상 입력 영상이 UI(120)가 3차원 영상의 어떤 부분보다도 시청자에 더 가까이 있는(더 큰 +ve 값을 가지는) 디스플레이된 영상의 겉보기 3차원 깊이(apparent three dimensional depth) 내의 위치에 배치되는 영상으로 변환되도록 함으로써 해결될 수 있다. 이것은 다수의 방식으로 달성될 수 있다. 도 3에 나타낸 바와 같이, UI(120)의 평면은, 3차원 영상을 변경하는 일 없이, 3차원 영상 내의 영상보다 가까운 위치에 나란히 배치된다. 그렇지만, 이것이 항상 가능하거나 시청자에게 편안한 것은 아닐지도 모른다.
도 4에 나타낸 바와 같이, 이 문제점에 대한 해결책은 2차원 UI의 평면을 시청자의 일반적인 시청에 대해 편안한 깊이 위치에 배치하면서 3차원 객체의 상대 위치를 화살표의 방향으로 더 뒤쪽으로(더 마이너스 -ve로) 이동시키는 것이다. 이 프로세스의 일부로서, 시청자에 가장 가까운 객체로부터 가장 먼 객체까지의 거리가 유지될 수 있거나, 영상을 기술된 바와 같이 배치될 수 있는 영상으로 변환하기 위해 원하는 바에 따라 압축/스케일링될 수 있다. 일 구현예에서, 가장 후방의 위치를 그대로 두고 가장 후방 부분의 전방에 있는 영상 요소를 뒤쪽으로 비례적으로 이동시킴으로써 스케일링이 수행될 수 있다. 이 경우에, 가장 전방의 위치는 2차 영상(UI)을 맨 앞쪽에 삽입하는 것을 가능하게 해줄 정도로 충분히 후방에 배치된다. 그렇지만, 본 개시 내용을 고려하면, 당업자에게는 다른 스케일링 및 압축 방법이 안출될 것이다.
이 프로세스는 또한, 도 5에 나타낸 바와 같이, 2차원 UI와 함께 입체 디스플레이 상에 디스플레이되는 2차원 영상에 대해 사용하는 것으로 확장될 수 있다. 이 경우에, 3차원 콘텐츠의 경우에서와 같이, 2차원 UI(120)의 상대 위치가 3차원 환상에서 2차원 영상(130)보다 사용자에 더 가까운 위치에 배치될 수 있다. 동 도면이 2차원 영상(130)이 -ve 깊이에 있고 UI가 +ve 깊이에 있는 것을 나타내고 있지만, 이것은 단지 예시적인 것으로 간주되어야 한다. 이 유일한 고려사항은 UI가 환상에서 비디오 영상보다 시청자에 더 가까이 배치되어야 한다는 것이다.
추가의 일례로서, 도 6에서 변하는 깊이를 갖고 입체 디스플레이 패널(100) 상에 디스플레이된 2차원 영상(130) 전방에 배치되는 UI(140)로 나타낸 바와 같이, UI가 3차원 객체로서 표현되는 것이 가능하다. 또한 140과 같은 3차원 UI를 104, 108 및 112를 포함하는 영상과 같은 3차원 영상 전방에 배치할 수 있는 것이 명백할 것이다.
이 해결책을 실현하기 위해, 콘텐츠 내의 객체의 깊이를 알아야만 한다. 이 깊이 정보를 획득하는 적어도 2가지 방법이 있지만, 어느 적당한 방법이라도 본 발명에 따른 실시예를 구현하는 데 충분하다.
제1 방법에 따르면, 3차원 콘텐츠를 나타내는 데이터와 함께, 깊이 정보가 메타데이터로서 삽입될 수 있다. 이 경우에, 디스플레이 시스템은 단지 메타데이터(전역적 깊이 범위일 수 있거나 장면별, 세그먼트별 또는 프레임별일 수 있음)를 판독하고 가장 가까운 객체보다 시청자에게 더 가까운, UI를 배치하기 위한 깊이 값을 선택하기만 하면 된다.
제2 방법에 따르면, 하드웨어 또는 소프트웨어 기반 시스템을 사용하고, 콘텐츠가 재생될 때 실시간으로 또는 오프라인 프로세스로서 콘텐츠의 깊이를 분석하여 콘텐츠의 깊이를 결정하는 시스템이 적절하다.
이러한 방식으로, 2차 콘텐츠의 깊이 평면이 1차 콘텐츠의 가장 전방의 깊이 평면을 방해하지 않도록 2차 콘텐츠(UI 정보 등)가 배치될 수 있다. 앞서 언급한 바와 같이, 1차 콘텐츠는 2D 또는 입체일 수 있고, 2차 콘텐츠(예를 들어, UI)도 역시 2D 또는 입체일 수 있다. 1차 및 2차 콘텐츠는 비디오, 정지 영상 또는 사용자 인터페이스(UI)(이들로 제한되지 않음)일 수 있다.
따라서, 입체 디스플레이 상에서의 콘텐츠 또는 UI의 상대 깊이의 이러한 배치가 다양한 콘텐츠 소스 간에 깊이 평면 방해가 없도록 달성될 수 있다. 앞서 살펴본 실시예에서, 깊이 메타데이터 또는 계산된 깊이 정보의 사용은 입체 디스플레이 상에서의 콘텐츠 또는 UI의 상대 깊이 배치에 관한 결정을 하는 데 그리고 1차 콘텐츠의 깊이의 압축이 필요한지에 관해 판정을 하는 데 사용된다. 전환(온/오프 또는 선택) 시에, 깊이의 변화는 동적 변화일 수 있다.
또한, 각각의 경우에, UI가 다중 소스 보기를 위한 PIP(picture-in-picture) 영상으로 대체될 수 있는 것이 생각된다. 또한, 콘텐츠가 깊이에서 후방으로 이동될 수 있게 하여 다른 콘텐츠를 그의 전방에 안전하게 배치할 수 있게 해주기 위해 입체 콘텐츠의 깊이 특성을 수정하는 것이 가능하며, 이에 대해서는 앞서 언급하였다.
이제 도 7을 참조하면, 204에서 시작하는 이상에서 기술한 2가지 구현예 중 어느 하나 또는 둘다를 고려하는 프로세스(200)가 나타내어져 있다. 208 및 212에서, 1차 및 2차 콘텐츠가 각각 수신된다. 이것은 콘텐츠의 사전 수신(advance receipt)일 수 있거나, 연속적이며 실질적으로 병렬인 흐름일 수 있다. UI의 경우에, 2차 콘텐츠가 디스플레이 장치에서 또는 연관된 하드웨어[예를 들어, PVR(personal video recorder), A/V 수신기, 디스크 플레이어 등]에서 발생된다. 어쨋든, 216에서, 1차 콘텐츠의 깊이 특성에 관한 결정이 행해진다. 1차 콘텐츠가 2차원인 경우, 이 결정이 거의 무시할 정도일 수 있지만, 그렇지 않은 경우, 220에서 단순히 1차 콘텐츠와 연관된 메타데이터를 판독하는 프로세스에 의해 또는 224에서 1차 콘텐츠의 분석을 수행하여 그의 깊이를 결정하는 것에 의해 1차 콘텐츠의 깊이가 얻어질 수 있다.
입체 디스플레이에서의 임의의 콘텐츠의 깊이는 디스플레이의 영상의 특징의 분석에 의해 확인될 수 있다. 입체 환상(stereoscopic illusion)의 생성에 사용되는 영상은 디스플레이 상에서 우안 영상(right eye image)과 좌안 영상(left eye image)이 유사하지만 깊이와 상관되어 있는 공간만큼 떨어지도록 배치된다. 좌안 영상과 우안 영상 간의 구별을 유지하기 위해 영상의 컬러 또는 편광이 사용되며, 영상이 시청자의 양안에서 분리된 채로 있도록 하기 위해 대응하는 컬러 또는 편광이 시청용 안경(viewing glasses)에서 사용된다. 따라서, 깊이 분석은 3차원 영상을 생성하여 그 영상을 디스플레이 상에 배치하는 데 사용되는 것과 유사하다. 영상이 화면 상에서 상대 위치에 반대 편광 또는 컬러 필터를 사용하여 배치될 때, 이것이 검출될 수 있고, 1차 콘텐츠에서 가장 전방의 영상을 찾기 위해 역방향 계산(reverse calculation)이 수행될 수 있다.
유사한 방식으로, (무시할 정도가 아니거나 깊이를 알거나 제어할 수 있을 정도로 디스플레이에서 발생되는 경우) 228에서 2차 콘텐츠의 깊이가 결정될 수 있다. 이 시점에서, 1차 콘텐츠와 2차 콘텐츠의 상대 깊이를 알게 되고, 디스플레이는 단순히 2차 콘텐츠를 1차 콘텐츠의 전방이라고 생각되는 위치로 천이시킨다. 그렇지만, 232에서 1차 콘텐츠, 2차 콘텐츠 또는 둘다의 과도한 깊이로 인해 여전히 중복이 있는 경우에, 또는 2차 콘텐츠가 시청 또는 편안한 사용에 불편할 것으로 생각되는 깊이에 배치되어야 하는 경우에, 236에서 변환된 영상이 중복이 없도록 배치될 수 있게 1차 콘텐츠 또는 2차 콘텐츠 또는 둘다의 깊이가 스케일링될 수 있다. 232 또는 236에서 콘텐츠에 중복이 없다면, 240에서 디스플레이 상에 디스플레이하기 위해 콘텐츠가 제시되고, 새로운 콘텐츠가 수신될 때 프로세스는 다시 208로 되돌아간다.
이제 도 8을 참조하여, 앞서 기술한 프로세스를 달성하는 시스템(300)의 간략화된 기능 블록도가 나타내어져 있다. 이 시스템에서, 케이블, 위성, 텔코(telco), 비디오 디스크 또는 다른 소스 또는 소스들로부터 수신된 전송 스트림(302)이 302로서 나타내어져 있으며, 시청자의 동조 명령(tuning command)에 따라 콘텐츠를 분류하는 디멀티플렉서(306)에 제공된다. 302를 통해 수신된 콘텐츠는 단지 1차 콘텐츠를 포함할 수 있거나, 2차 콘텐츠를 포함할 수 있으며, 그 중 어느 하나가 입체 디스플레이 패널을 사용하여 렌더링될 수 있다. 앞서 살펴본 바와 같이, 콘텐츠(1차 및/또는 2차)는 콘텐츠에 대한 깊이 정보를 정의하는 메타데이터를 포함할 수 있다. 그러한 경우, 이 메타데이터는 메타데이터 데이터베이스(310)에 저장된다. 1차 콘텐츠(및, 존재하는 경우, 2차 콘텐츠)가 3D 깊이 분석기(314)로 전송되고, 3D 깊이 분석기(314)는 분석을 수행하여 깊이 정보를 결정하거나 데이터베이스(310)에 저장된 메타데이터로부터 정보를 확인한다. 2차 콘텐츠가 UI 정보인 경우, UI 정보는 UI 그래픽 엔진(318)으로부터 깊이 분석기(314)에 수신된다(UI가 3차원으로 표현되는 경우 어쩌면 깊이 정보를 포함함). 3D 깊이 분석기는 영상의 상대 깊이를 결정하고, 영상 및 연관된 깊이를 3D 깊이 스케일러/압축기(322)로 전달하고, 여기서 영상의 중복을 피하기 위해 필요한 경우, 영상 표현을 기술된 바와 같이 배치될 수 있는 영상으로 변환하기 위해, 1차 영상 및 2차 영상 중 하나 또는 다른 하나 또는 둘다가 더 작은 인지된 깊이를 차지하도록 압축되거나 스케일링될 수 있다. 이어서, 영상은 1차/2차 위치 결정기(positioner)(영상 위치 결정기)(326)로 전달되고, 여기서 2차 영상이 3D 영상의 인지된 깊이에서 1차 영상의 전방에(1차 영상과 시청자 사이에) 배치되도록 영상의 상대 위치가 변환된다. 이어서, 이 결합된 영상은 입체 디스플레이(310) 상에 디스플레이하기 위해 디스플레이 드라이버(330)로 전달될 수 있다.
300에 나타낸 기능 블록은 2차 영상이 항상 인지된 깊이에서 1차 영상과 시청자 사이에 배치되도록 1차 및 2차 영상을 서로 방해하지 않는 영상으로 변환하기 위해 하드웨어 기능 또는 하나 이상의 프로그램된 프로세서 상에서 실행되는 소프트웨어 기능으로서 수행될 수 있는 프로세스를 나타내기 위한 것이다. 기술된 다양한 기능이 도시된 배열로 수행될 수 있거나, 다양한 기능이 이 원하는 출력을 생성하는 임의의 방식으로 결합되도록 재배열될 수 있지만, 이들로 제한되지 않는다.
상기한 것에 부가하여, 주목할 점은, 입체 단서(stereoscopic cue)에 의해 획득되는 것에 부가하여, 시청자가 3차원으로 시청될 때 객체의 깊이에 대한 단서를 획득한다는 것이다. 따라서, 앞서 논의한 원하는 결과를 달성하기 위해 한 객체를 다른 객체의 전방에 입체적으로 배치하는 것의 사용에 부가하여, 전방에 있는 객체 또는 가장 중요한 객체(예를 들어, GUI로부터의 메뉴 선택)가 강조되도록 하기 위해 전방 또는 후방 영상을 수정하는 데 다른 비입체적인 시각적 단서가 사용될 수 있다. 이러한 단서는 후방 영상의 채도를 감소시키는 것(desaturation), 후방 영상의 초점을 흐리게 하는 것(defocusing), 및 후방 영상의 밝기를 감소시키는 것을 포함하지만, 이들로 제한되지 않는다. 전방 영상의 두드러짐을 향상시키기 위해 정반대 효과가 전방 영상에 부가될 수 있다. 본 개시 내용을 고려하면, 당업자에게는 다른 이러한 시각적 단서가 명백할 것이다.
따라서, 1차 영상 및 2차 영상을 입체 디스플레이 장치 상에 배치하는 방법은 입체 디스플레이 패널 상에 동시에 디스플레이하기 위해 1차 영상 및 2차 영상을 나타내는 1차 영상 데이터 및 2차 영상 데이터를 수신하는 단계 - 1차 영상 데이터 및 2차 영상 데이터 중 적어도 하나의 영상 데이터는 3차원 입체 영상 데이터를 나타냄 -, 1차 영상의 인지된 깊이를 확인하는 단계, 2차 영상의 인지된 깊이를 확인하는 단계 - 1차 영상 및 2차 영상 중 적어도 하나의 영상의 인지된 깊이를 확인하는 단계는 1차 영상 및 2차 영상 중 적어도 하나의 영상과 연관된 메타데이터를 판독하는 것에 의해 또는 1차 영상 데이터 및 2차 영상 데이터 중 적어도 하나의 영상 데이터의 깊이 분석을 수행하는 것에 의해 수행됨 -, 1차 영상 데이터 및 2차 영상 데이터 중 적어도 하나의 영상 데이터의 인지된 깊이를 압축함으로써 1차 영상 데이터 및 2차 영상 데이터 중 적어도 하나의 영상 데이터의 인지된 깊이를 변환하는 단계, 및 인지된 2차 영상을, 입체 디스플레이 상에서 시청되는 경우 2차 영상이 입체적으로 시청될 때 완전히 1차 영상과 시청자 사이에 위치하는 것처럼 보이도록 하는 깊이에 위치하는 것으로 시청자에 의해 인지될 위치에 배치하기 위해, 1차 영상 데이터 및 2차 영상 데이터 중 적어도 하나의 영상 데이터를 변환하는 단계를 포함한다.
특정 구현예에서, 2차 영상은 사용자 인터페이스 그래픽을 포함한다. 특정 구현예에서, 이 방법은 1차 영상 데이터를, 1차 영상의 인지된 영상을 시청자 위치로부터 더 멀리 있도록 렌더링하는 위치로 변환하는 단계를 추가로 포함한다. 특정 구현예에서, 이 방법은 2차 영상 데이터를, 2차 영상의 인지된 영상을 시청자 위치에 더 가깝게 있도록 렌더링하는 위치로 변환하는 단계를 추가로 포함한다. 특정 구현예에서, 이 방법은 비입체적인 시각적 수정을 1차 영상 및 2차 영상 중 하나의 영상에 적용하는 단계를 추가로 포함한다. 특정 구현예에서, 비입체적인 시각적 수정은 1차 영상 및 2차 영상 중 하나의 영상의 초점을 흐리게 하는 것, 채도를 감소시키는 것, 및 밝기를 감소시키는 것 중 적어도 하나를 포함한다.
1차 영상 및 2차 영상을 입체 디스플레이 장치 상에 배치하는 다른 방법은 입체 디스플레이 패널 상에 동시에 디스플레이하기 위해 1차 영상 및 2차 영상을 나타내는 1차 영상 데이터 및 2차 영상 데이터를 수신하는 단계, 1차 영상의 인지된 깊이를 확인하는 단계, 2차 영상의 인지된 깊이를 확인하는 단계, 및 인지된 2차 영상을, 입체 디스플레이 상에서 시청되는 경우 2차 영상이 입체적으로 시청될 때 완전히 1차 영상과 시청자 사이에 위치하는 것처럼 보이도록 하는 깊이에 위치하는 것으로 시청자에 의해 인지될 위치에 배치하기 위해, 1차 영상 데이터 및 2차 영상 데이터 중 적어도 하나의 영상 데이터를 변환하는 단계를 포함한다.
특정 구현예에서, 1차 영상 데이터 및 2차 영상 데이터 중 적어도 하나의 영상 데이터는 3차원 입체 영상 데이터를 나타낸다. 특정 구현예에서, 1차 영상 및 2차 영상 중 적어도 하나의 영상의 인지된 깊이를 확인하는 단계는 1차 영상 및 2차 영상 중 적어도 하나의 영상과 연관된 메타데이터를 판독하는 것에 의해 수행된다. 특정 구현예에서, 1차 영상 및 2차 영상 중 적어도 하나의 영상의 인지된 깊이를 확인하는 단계는 1차 영상 데이터 및 2차 영상 데이터 중 적어도 하나의 영상 데이터의 깊이 분석을 수행하는 것에 의해 수행된다. 특정 구현예에서, 2차 영상은 사용자 인터페이스 그래픽을 포함한다. 특정 구현예에서, 이 방법은 1차 영상 데이터 및 2차 영상 데이터 중 적어도 하나의 영상 데이터의 인지된 깊이를 압축함으로써 1차 영상 데이터 및 2차 영상 데이터 중 적어도 하나의 영상 데이터의 인지된 깊이를 변환하는 단계를 추가로 포함한다. 특정 구현예에서, 이 방법은 1차 영상 데이터를, 1차 영상의 인지된 영상을 시청자 위치로부터 더 멀리 있도록 렌더링하는 위치로 변환하는 단계를 추가로 포함한다. 특정 구현예에서, 이 방법은 2차 영상 데이터를, 2차 영상의 인지된 영상을 시청자 위치에 더 가깝게 있도록 렌더링하는 위치로 변환하는 단계를 추가로 포함한다. 특정 구현예에서, 이 방법은 비입체적인 시각적 수정을 1차 영상 및 2차 영상 중 하나의 영상에 적용하는 단계를 추가로 포함한다. 특정 구현예에서, 비입체적인 시각적 수정은 1차 영상 및 2차 영상 중 하나의 영상의 초점을 흐리게 하는 것, 채도를 감소시키는 것, 및 밝기를 감소시키는 것 중 적어도 하나를 포함한다.
상기한 방법 중 어느 것이라도, 하나 이상의 프로그램된 프로세서 상에서 실행될 때, 이러한 방법을 수행하는 명령어가 저장되어 있는 컴퓨터 판독가능 전자 저장 매체를 사용하여 구현될 수 있다.
1차 영상 및 2차 영상을 입체 디스플레이 장치 상에 배치하는 시스템은 입체 디스플레이 패널 상에 동시에 디스플레이하기 위해 1차 영상 및 2차 영상을 나타내는 1차 영상 데이터 및 2차 영상 데이터를 수신하는 디멀티플렉서를 가지며, 여기서 1차 영상 데이터 및 2차 영상 데이터 중 적어도 하나의 영상 데이터는 3차원 입체 영상 데이터를 나타낸다. 3D 깊이 분석기는 1차 영상의 인지된 깊이를 확인하고 2차 영상의 인지된 깊이를 확인하며, 1차 영상 및 2차 영상 중 적어도 하나의 영상의 인지된 깊이를 확인하는 것은 메타데이터 데이터베이스로부터 1차 영상 및 2차 영상 중 적어도 하나의 영상과 연관된 메타데이터를 판독하는 것에 의해 또는 1차 영상 데이터 및 2차 영상 데이터 중 적어도 하나의 영상 데이터의 깊이 분석을 수행하는 것에 의해 수행된다. 3D 깊이 스케일러는 1차 영상 데이터 및 2차 영상 데이터 중 적어도 하나의 영상 데이터의 인지된 깊이를 압축함으로써 1차 영상 데이터 및 2차 영상 데이터 중 적어도 하나의 영상 데이터의 인지된 깊이를 변환한다. 영상 위치 결정기는 인지된 2차 영상을, 입체 디스플레이 상에서 시청되는 경우 2차 영상이 입체적으로 시청될 때 완전히 1차 영상과 시청자 사이에 위치하는 것처럼 보이도록 하는 깊이에 위치하는 것으로 시청자에 의해 인지될 위치에 배치하기 위해, 1차 영상 데이터 및 2차 영상 데이터 중 적어도 하나의 영상 데이터를 변환한다.
특정 구현예에서, 2차 영상은 사용자 인터페이스 그래픽을 포함한다. 특정 구현예에서, 영상 위치 결정기는 또한 1차 영상 데이터를, 1차 영상의 인지된 영상을 시청자 위치로부터 더 멀리 있도록 렌더링하는 위치로 변환한다. 특정 구현예에서, 영상 위치 결정기는 또한 2차 영상 데이터를, 2차 영상의 인지된 영상을 시청자 위치에 더 가깝게 있도록 렌더링하는 위치로 변환한다. 특정 구현예에서, 1차 영상을 시각적으로 덜 강조하기 위해 비입체적인 시각적 수정이 1차 영상에 적용된다. 특정 구현예에서, 비입체적인 시각적 수정은 1차 영상의 초점을 흐리게 하는 것, 채도를 감소시키는 것, 및 밝기를 감소시키는 것 중 적어도 하나를 포함한다.
1차 영상 및 2차 영상을 입체 디스플레이 장치 상에 배치하는 시스템은 입체 디스플레이 패널 상에 동시에 디스플레이하기 위해 1차 영상 및 2차 영상을 나타내는 1차 영상 데이터 및 2차 영상 데이터를 수신하는 디멀티플렉서를 가진다. 3D 깊이 분석기는 1차 영상의 인지된 깊이를 확인하고 2차 영상의 인지된 깊이를 확인한다. 영상 위치 결정기는 인지된 2차 영상을, 입체 디스플레이 상에서 시청되는 경우 2차 영상이 입체적으로 시청될 때 완전히 1차 영상과 시청자 사이에 위치하는 것처럼 보이도록 하는 깊이에 위치하는 것으로 시청자에 의해 인지될 위치에 배치하기 위해, 1차 영상 데이터 및 2차 영상 데이터 중 적어도 하나의 영상 데이터를 변환한다.
특정 구현예에서, 1차 영상 데이터 및 2차 영상 데이터 중 적어도 하나의 영상 데이터는 3차원 입체 영상 데이터를 나타낸다. 특정 구현예에서, 3D 깊이 분석기는 1차 영상 및 2차 영상 중 적어도 하나의 영상과 연관된 메타데이터를 판독함으로써 1차 영상 및 2차 영상 중 적어도 하나의 영상의 인지된 깊이를 확인한다. 특정 구현예에서, 3D 깊이 분석기는 1차 영상 데이터 및 2차 영상 데이터 중 적어도 하나의 영상 데이터의 깊이 분석을 수행함으로써 1차 영상 및 2차 영상 중 적어도 하나의 영상의 인지된 깊이를 확인한다. 특정 구현예에서, 2차 영상은 사용자 인터페이스 그래픽을 포함한다. 특정 구현예에서, 3D 깊이 스케일러는 1차 영상 데이터 및 2차 영상 데이터 중 적어도 하나의 영상 데이터의 인지된 깊이를 압축함으로써 1차 영상 데이터 및 2차 영상 데이터 중 적어도 하나의 영상 데이터의 인지된 깊이를 변환한다. 특정 구현예에서, 영상 위치 결정기는 1차 영상 데이터를, 1차 영상의 인지된 영상을 시청자 위치로부터 더 멀리 있도록 렌더링하는 위치로 변환한다. 특정 구현예에서, 영상 위치 결정기는 또한 2차 영상 데이터를, 2차 영상의 인지된 영상을 시청자 위치에 더 가깝게 있도록 렌더링하는 위치로 변환한다. 특정 구현예에서, 1차 영상에 대한 비입체적인 시각적 수정. 특정 구현예에서, 비입체적인 시각적 수정은 1차 영상의 초점을 흐리게 하는 것, 채도를 감소시키는 것, 및 밝기를 감소시키는 것 중 적어도 하나를 포함한다.
당업자라면, 이상의 개시 내용을 고려하여, 상기 예시적인 실시예들 중의 일부가 프로그램된 프로세서의 사용에 기초할 수 있다는 것을 잘 알 것이다. 그렇지만, 본 발명이 이러한 예시적인 실시예로 제한되지 않는데, 그 이유는 특수 목적 하드웨어 및/또는 전용 프로세서 등의 하드웨어 구성요소 등가물을 사용하여 다른 실시예가 구현될 수 있기 때문이다. 마찬가지로, 범용 컴퓨터, 마이크로프로세서-기반 컴퓨터, 마이크로제어기, 광 컴퓨터, 아날로그 컴퓨터, 전용 프로세서, 주문형 반도체(application specific circuit) 및/또는 전용의 하드 와이어드 논리(dedicated hard wired logic)가 대안의 등가 실시예를 구성하는 데 사용될 수 있다.
본 명세서에 기술된 특정 실시예가, 임의의 적합한 전자 또는 컴퓨터 판독가능 저장 매체에 저장될 수 있는, 플로우차트 형태로 이상에서 대체로 설명되어 있는 프로그래밍 명령어를 실행하는 프로그램된 프로세서를 사용하여 구현되거나 구현될 수 있다. 그렇지만, 당업자라면, 이 개시 내용을 고려하여, 상기한 프로세스가, 본 발명의 실시예를 벗어나지 않고, 다수의 변형으로 또 많은 적합한 프로그래밍 언어로 구현될 수 있다는 것을 잘 알 것이다. 예를 들어, 본 발명의 특정 실시예를 벗어나지 않고, 수행되는 특정 동작의 순서가 종종 변화될 수 있거나, 부가의 동작이 추가될 수 있거나, 동작이 삭제될 수 있다. 본 발명의 특정 실시예를 벗어나지 않고, 오류 포착(error trapping)이 추가 및/또는 개선될 수 있고 사용자 인터페이스 및 정보 제시에 변동이 행해질 수 있다. 이러한 변동이 생각되고 등가물로 간주된다.
특정 예시적인 실시예가 기술되어 있지만, 이상의 설명을 바탕으로 많은 대안, 수정, 치환 및 변동이 당업자에게는 자명하게 될 것임이 명백하다.

Claims (33)

  1. 삭제
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. 삭제
  8. 삭제
  9. 삭제
  10. 삭제
  11. 삭제
  12. 삭제
  13. 삭제
  14. 삭제
  15. 삭제
  16. 삭제
  17. 삭제
  18. 1차 영상 및 2차 영상을 입체 디스플레이 장치 상에 배치하는 시스템으로서,
    입체 디스플레이 패널 상에 동시에 디스플레이하기 위해 1차 영상 및 2차 영상을 나타내는 1차 영상 데이터 및 2차 영상 데이터를 수신하는 디멀티플렉서 - 상기 1차 영상 데이터 및 상기 2차 영상 데이터 중 적어도 하나의 영상 데이터는 3차원 입체 영상 데이터를 나타냄 -,
    상기 1차 영상의 인지된 깊이를 확인하고 상기 2차 영상의 인지된 깊이를 확인하는 3D 깊이 분석기 - 상기 1차 영상 및 상기 2차 영상 중 적어도 하나의 영상의 인지된 깊이를 확인하는 것은 메타데이터 데이터베이스로부터 상기 1차 영상 및 상기 2차 영상 중 적어도 하나의 영상과 연관된 메타데이터를 판독하는 것에 의해 또는 상기 1차 영상 데이터 및 상기 2차 영상 데이터 중 적어도 하나의 영상 데이터의 깊이 분석을 수행하는 것에 의해 수행됨 -,
    상기 1차 영상 데이터 및 상기 2차 영상 데이터 중 적어도 하나의 영상 데이터의 인지된 깊이를 압축함으로써 상기 1차 영상 데이터 및 상기 2차 영상 데이터 중 적어도 하나의 영상 데이터의 인지된 깊이를 변환하는 3D 깊이 스케일러, 및
    상기 1차 영상 및 상기 2차 영상을 입체 디스플레이 상에서 시청하는 경우, 상기 인지된 2차 영상을, 상기 1차 영상 및 상기 2차 영상을 입체적으로 시청할 때 상기 2차 영상이 완전히 상기 1차 영상과 시청자 사이에 위치하는 것처럼 보이도록 하는 깊이에 위치하는 것으로 상기 시청자에 의해 인지될 위치에 배치하기 위해, 상기 1차 영상 데이터 및 상기 2차 영상 데이터 중 적어도 하나의 영상 데이터를 변환하는 영상 위치 결정기(image positioner)를 포함하는, 시스템.
  19. 제18항에 있어서, 상기 2차 영상이 사용자 인터페이스 그래픽을 포함하는, 시스템.
  20. 제18항에 있어서, 상기 영상 위치 결정기가 또한 상기 1차 영상 데이터를, 상기 1차 영상의 인지된 영상을 시청자 위치로부터 더 멀리 있도록 렌더링하는 위치로 변환하는, 시스템.
  21. 제18항에 있어서, 상기 영상 위치 결정기가 또한 상기 2차 영상 데이터를, 상기 2차 영상의 인지된 영상을 시청자 위치에 더 가깝게 있도록 렌더링하는 위치로 변환하는, 시스템.
  22. 제18항에 있어서, 상기 1차 영상을 시각적으로 덜 강조하기 위해 비입체적인 시각적 수정이 상기 1차 영상에 적용되는, 시스템.
  23. 제22항에 있어서, 상기 비입체적인 시각적 수정이 상기 1차 영상의 초점을 흐리게 하는 것, 채도를 감소시키는 것, 및 밝기를 감소시키는 것 중 적어도 하나를 포함하는, 시스템.
  24. 1차 영상 및 2차 영상을 입체 디스플레이 장치 상에 배치하는 방법으로서,
    입체 디스플레이 패널 상에 동시에 디스플레이하기 위해 1차 영상 및 2차 영상을 나타내는 1차 영상 데이터 및 2차 영상 데이터를 수신하는 단계 - 상기 1차 영상 데이터 및 상기 2차 영상 데이터 중 적어도 하나의 영상 데이터는 3차원 입체 영상 데이터를 나타냄 -,
    상기 1차 영상의 인지된 깊이를 확인하는 단계,
    상기 2차 영상의 인지된 깊이를 확인하는 단계 -
    상기 1차 영상 및 상기 2차 영상 중 적어도 하나의 영상의 인지된 깊이를 확인하는 단계는 상기 1차 영상 및 상기 2차 영상 중 적어도 하나의 영상과 연관된 메타데이터를 판독하는 것에 의해 또는 상기 1차 영상 데이터 및 상기 2차 영상 데이터 중 적어도 하나의 영상 데이터의 깊이 분석을 수행하는 것에 의해 수행됨 -,
    상기 1차 영상 데이터 및 상기 2차 영상 데이터 중 적어도 하나의 영상 데이터의 인지된 깊이를 압축함으로써 상기 1차 영상 데이터 및 상기 2차 영상 데이터 중 적어도 하나의 영상 데이터의 인지된 깊이를 변환하는 단계, 및
    상기 1차 영상 및 상기 2차 영상을 입체 디스플레이 상에서 시청하는 경우, 상기 인지된 2차 영상을, 상기 1차 영상 및 상기 2차 영상을 입체적으로 시청할 때 상기 2차 영상이 완전히 상기 1차 영상과 시청자 사이에 위치하는 것처럼 보이도록 하는 깊이에 위치하는 것으로 상기 시청자에 의해 인지될 위치에 배치하기 위해, 상기 1차 영상 데이터 및 상기 2차 영상 데이터 중 적어도 하나의 영상 데이터를 변환하는 단계를 포함하는, 방법.
  25. 제24항에 있어서, 상기 2차 영상이 사용자 인터페이스 그래픽을 포함하는, 방법.
  26. 제24항에 있어서, 상기 1차 영상 데이터를, 상기 1차 영상의 인지된 영상을 시청자 위치로부터 더 멀리 있도록 렌더링하는 위치로 변환하는 단계를 더 포함하는, 방법.
  27. 제24항에 있어서, 상기 2차 영상 데이터를, 상기 2차 영상의 인지된 영상을 시청자 위치에 더 가깝게 있도록 렌더링하는 위치로 변환하는 단계를 더 포함하는, 방법.
  28. 제24항에 있어서, 비입체적인 시각적 수정을 상기 1차 영상 및 상기 제2 차 영상 중 하나에 적용되는, 방법.
  29. 제28항에 있어서, 상기 비입체적인 시각적 수정이 상기 1차 영상 및 상기 제2 차 영상 중 하나의 영상의 초점을 흐리게 하는 것, 채도를 감소시키는 것, 및 밝기를 감소시키는 것 중 적어도 하나를 포함하는, 방법.
  30. 삭제
  31. 삭제
  32. 삭제
  33. 삭제
KR1020117019187A 2009-02-19 2010-02-04 입체 디스플레이에서 1차 콘텐츠와 2차 콘텐츠 간의 방해 방지 KR101247033B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US15372009P 2009-02-19 2009-02-19
US61/153,720 2009-02-19
US12/589,837 2009-10-29
US12/589,837 US8284236B2 (en) 2009-02-19 2009-10-29 Preventing interference between primary and secondary content in a stereoscopic display
PCT/US2010/023200 WO2010096281A2 (en) 2009-02-19 2010-02-04 Preventing interference between primary and secondary content in a stereoscopic display

Publications (2)

Publication Number Publication Date
KR20110114672A KR20110114672A (ko) 2011-10-19
KR101247033B1 true KR101247033B1 (ko) 2013-03-25

Family

ID=42559534

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020117019187A KR101247033B1 (ko) 2009-02-19 2010-02-04 입체 디스플레이에서 1차 콘텐츠와 2차 콘텐츠 간의 방해 방지

Country Status (8)

Country Link
US (2) US8284236B2 (ko)
EP (1) EP2387852A4 (ko)
JP (1) JP2012518368A (ko)
KR (1) KR101247033B1 (ko)
CN (1) CN102326398B (ko)
CA (1) CA2752497C (ko)
MX (1) MX2011007518A (ko)
WO (1) WO2010096281A2 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100428011B1 (ko) * 2000-06-20 2004-04-30 김형석 파파야 장아찌 및 그의 제조 방법

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5647242B2 (ja) * 2009-07-27 2014-12-24 コーニンクレッカ フィリップス エヌ ヴェ 3dビデオ及び補助データの結合
US8970669B2 (en) * 2009-09-30 2015-03-03 Rovi Guides, Inc. Systems and methods for generating a three-dimensional media guidance application
KR20110057629A (ko) * 2009-11-24 2011-06-01 엘지전자 주식회사 Ui 제공 방법 및 디지털 방송 수신기
US9426441B2 (en) 2010-03-08 2016-08-23 Dolby Laboratories Licensing Corporation Methods for carrying and transmitting 3D z-norm attributes in digital TV closed captioning
JP5668385B2 (ja) * 2010-09-17 2015-02-12 ソニー株式会社 情報処理装置、プログラムおよび情報処理方法
KR20120037858A (ko) * 2010-10-12 2012-04-20 삼성전자주식회사 입체영상표시장치 및 그 ui 제공 방법
KR20120042313A (ko) * 2010-10-25 2012-05-03 삼성전자주식회사 입체영상표시장치 및 그 영상표시방법
JP5678643B2 (ja) * 2010-12-21 2015-03-04 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
EP2472878A1 (en) 2010-12-31 2012-07-04 Advanced Digital Broadcast S.A. Method and apparatus for combining images of a graphic user interface with a stereoscopic video
EP2495979A1 (en) * 2011-03-01 2012-09-05 Thomson Licensing Method, reproduction apparatus and system for display of stereoscopic 3D video information
JP4960517B1 (ja) * 2011-03-25 2012-06-27 株式会社東芝 映像表示装置及び映像表示方法
EP2697975A1 (en) 2011-04-15 2014-02-19 Dolby Laboratories Licensing Corporation Systems and methods for rendering 3d images independent of display size and viewing distance
WO2012150100A1 (en) * 2011-05-02 2012-11-08 Thomson Licensing Smart stereo graphics inserter for consumer devices
KR101899458B1 (ko) * 2012-01-11 2018-09-18 삼성전자주식회사 3d 디스플레이 장치 및 그 방법
JPWO2013128765A1 (ja) * 2012-02-27 2015-07-30 ソニー株式会社 画像処理装置、画像処理方法およびコンピュータプログラム
JP6092525B2 (ja) * 2012-05-14 2017-03-08 サターン ライセンシング エルエルシーSaturn Licensing LLC 画像処理装置、情報処理システム、画像処理方法およびプログラム
US20130321572A1 (en) * 2012-05-31 2013-12-05 Cheng-Tsai Ho Method and apparatus for referring to disparity range setting to separate at least a portion of 3d image data from auxiliary graphical data in disparity domain
CN104010181B (zh) * 2013-02-25 2016-10-05 联想(北京)有限公司 一种信息处理方法及电子设备
KR102673817B1 (ko) * 2018-07-30 2024-06-10 삼성전자주식회사 3차원 영상 표시 장치 및 영상 처리 방법
EP3847620A4 (en) * 2018-09-07 2022-07-20 Geomni, Inc. SYSTEMS FOR MACHINE VISION AND METHODS FOR END-TO-END IMAGE CONTROL
EP3687166A1 (en) * 2019-01-23 2020-07-29 Ultra-D Coöperatief U.A. Interoperable 3d image content handling

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003185967A (ja) * 2001-12-20 2003-07-03 Olympus Optical Co Ltd 映像表示装置
KR20060134309A (ko) * 2005-06-22 2006-12-28 삼성전자주식회사 통신 채널을 이용한 3d 입체 영상의 화질 조정 방법 및장치
JP2010505174A (ja) 2006-09-28 2010-02-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ メニューディスプレイ

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6310733B1 (en) * 1996-08-16 2001-10-30 Eugene Dolgoff Optical elements and methods for their manufacture
JPH11113028A (ja) * 1997-09-30 1999-04-23 Toshiba Corp 3次元映像表示装置
US6714672B1 (en) * 1999-10-27 2004-03-30 Canon Kabushiki Kaisha Automated stereo fundus evaluation
US6911975B2 (en) * 2000-09-11 2005-06-28 Canon Kabushiki Kaisha Stereo image display apparatus and method, and storage medium
US8369607B2 (en) * 2002-03-27 2013-02-05 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
CN100498840C (zh) * 2003-12-19 2009-06-10 皇家飞利浦电子股份有限公司 缩放三维模型的方法和缩放单元
US20050207486A1 (en) * 2004-03-18 2005-09-22 Sony Corporation Three dimensional acquisition and visualization system for personal electronic devices
US20050285853A1 (en) * 2004-06-29 2005-12-29 Ge Medical Systems Information Technologies, Inc. 3D display system and method
EP1889171A4 (en) * 2005-04-07 2012-11-28 Visionsense Ltd METHOD FOR RECONSTRUCTING A THREE-DIMENSIONAL SURFACE OF AN OBJECT
KR100649523B1 (ko) * 2005-06-30 2006-11-27 삼성에스디아이 주식회사 입체 영상 표시 장치
US7477777B2 (en) * 2005-10-28 2009-01-13 Aepx Animation, Inc. Automatic compositing of 3D objects in a still frame or series of frames
US8624964B2 (en) * 2005-12-02 2014-01-07 Koninklijke Philips N.V. Depth dependent filtering of image signal
JP2007317050A (ja) 2006-05-29 2007-12-06 Nippon Telegr & Teleph Corp <Ntt> 3次元表示を用いたユーザインタフェースシステム
CN101682793B (zh) * 2006-10-11 2012-09-26 皇家飞利浦电子股份有限公司 创建三维图形数据
US8538144B2 (en) * 2006-11-21 2013-09-17 Thomson Licensing Methods and systems for color correction of 3D images
BRPI0721452B1 (pt) * 2007-03-16 2020-03-03 Interdigital Ce Patent Holdings Sistema e método para combinar texto com conteúdo de imagem tridimensional
US8077964B2 (en) * 2007-03-19 2011-12-13 Sony Corporation Two dimensional/three dimensional digital information acquisition and display device
EP1976278A1 (en) 2007-03-31 2008-10-01 Sony Deutschland Gmbh Method and device for displaying a message on a television screen
US8488868B2 (en) * 2007-04-03 2013-07-16 Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of Industry, Through The Communications Research Centre Canada Generation of a depth map from a monoscopic color image for rendering stereoscopic still and video images
TWI397899B (zh) * 2007-04-30 2013-06-01 Mstar Semiconductor Inc 多視窗顯示控制器及相關方法
WO2009013682A2 (en) * 2007-07-26 2009-01-29 Koninklijke Philips Electronics N.V. Method and apparatus for depth-related information propagation
US8280149B2 (en) * 2007-09-11 2012-10-02 Motorola Solutions, Inc. Method and apparatus to facilitate processing a stereoscopic image using first and second images to facilitate computing a depth/disparity image
JP2009135686A (ja) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置
EP2232885A1 (en) * 2007-12-14 2010-09-29 Koninklijke Philips Electronics N.V. 3d mode selection mechanism for video playback
WO2010019926A1 (en) * 2008-08-14 2010-02-18 Real D Stereoscopic depth mapping
US9251621B2 (en) * 2008-08-14 2016-02-02 Reald Inc. Point reposition depth mapping
CA2691727C (en) * 2008-09-30 2016-10-04 Panasonic Corporation Recording medium, playback device, system lsi, playback method, glasses, and display device for 3d images
WO2010048632A1 (en) * 2008-10-24 2010-04-29 Real D Stereoscopic image format with depth information
JP5647242B2 (ja) * 2009-07-27 2014-12-24 コーニンクレッカ フィリップス エヌ ヴェ 3dビデオ及び補助データの結合
DK2482563T3 (en) * 2009-09-25 2017-03-27 Panasonic Ip Man Co Ltd RECORDING MEDIUM, REPLACEMENT DEVICE AND INTEGRATED CIRCUIT

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003185967A (ja) * 2001-12-20 2003-07-03 Olympus Optical Co Ltd 映像表示装置
KR20060134309A (ko) * 2005-06-22 2006-12-28 삼성전자주식회사 통신 채널을 이용한 3d 입체 영상의 화질 조정 방법 및장치
JP2010505174A (ja) 2006-09-28 2010-02-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ メニューディスプレイ

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100428011B1 (ko) * 2000-06-20 2004-04-30 김형석 파파야 장아찌 및 그의 제조 방법

Also Published As

Publication number Publication date
US9060166B2 (en) 2015-06-16
EP2387852A2 (en) 2011-11-23
US20120274635A1 (en) 2012-11-01
CA2752497C (en) 2015-03-24
CN102326398A (zh) 2012-01-18
KR20110114672A (ko) 2011-10-19
WO2010096281A2 (en) 2010-08-26
WO2010096281A3 (en) 2010-11-18
CN102326398B (zh) 2015-04-08
US20100208040A1 (en) 2010-08-19
CA2752497A1 (en) 2010-08-26
US8284236B2 (en) 2012-10-09
JP2012518368A (ja) 2012-08-09
MX2011007518A (es) 2011-08-15
EP2387852A4 (en) 2012-07-25

Similar Documents

Publication Publication Date Title
KR101247033B1 (ko) 입체 디스플레이에서 1차 콘텐츠와 2차 콘텐츠 간의 방해 방지
US8436918B2 (en) Systems, apparatus and methods for subtitling for stereoscopic content
KR101310212B1 (ko) 입체 상의 3d 객체를 상대적인 깊이로 삽입하는 방법
JP5321694B2 (ja) 三次元画像にクローズドキャプショニングを提供するシステム及び方法
KR101210315B1 (ko) 3차원 비디오 위에 그래픽 객체를 오버레이하기 위한 추천 깊이 값
RU2517402C2 (ru) Обработка 3d отображения субтитров
TWI444036B (zh) 2d至3d使用者介面內容資料轉換
US9215435B2 (en) Method for embedding subtitles and/or graphic overlays in a 3D or multi-view video data
KR101716636B1 (ko) 3d 비디오 및 보조 데이터의 결합
US20160353081A1 (en) Method and device for overlaying 3d graphics over 3d video
US20110242104A1 (en) Methods and Systems for Presenting Three-Dimensional Motion Pictures with Content Adaptive Information
EP2524510B1 (en) System and method for combining 3d text with 3d content
JP2010521738A (ja) テキストを3次元コンテンツと合成するシステム及び方法
US20130170817A1 (en) Video editing apparatus, video editing method, program, and integrated circuit
JP6391629B2 (ja) 3dテキストを3dコンテンツと合成するシステムおよび方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160308

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170220

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180219

Year of fee payment: 6