KR20130057974A - 데이터 구조, 화상 처리 장치, 화상 처리 방법 및 프로그램 - Google Patents

데이터 구조, 화상 처리 장치, 화상 처리 방법 및 프로그램 Download PDF

Info

Publication number
KR20130057974A
KR20130057974A KR1020127026099A KR20127026099A KR20130057974A KR 20130057974 A KR20130057974 A KR 20130057974A KR 1020127026099 A KR1020127026099 A KR 1020127026099A KR 20127026099 A KR20127026099 A KR 20127026099A KR 20130057974 A KR20130057974 A KR 20130057974A
Authority
KR
South Korea
Prior art keywords
image
parallax
image size
size
data
Prior art date
Application number
KR1020127026099A
Other languages
English (en)
Inventor
스구루 우시키
마사미 오가타
다카후미 모리후지
Original Assignee
소니 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 주식회사 filed Critical 소니 주식회사
Publication of KR20130057974A publication Critical patent/KR20130057974A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4516Management of client data or end-user data involving client characteristics, e.g. Set-Top-Box type, software version or amount of memory available

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Library & Information Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

본 발명은, 3D 콘텐츠의 비디오 데이터를 적절하게 처리할 수 있도록 하는 데이터 구조, 화상 처리 장치, 화상 처리 방법 및 프로그램에 관한 것이다. 취득되는 3D 콘텐츠의 콘텐츠 데이터에는, 3D 화상의 비디오 데이터와, 그 3D 화상에 있어서 기준으로 되는 소정의 화상 사이즈인 기준 화상 사이즈와, 그 기준 화상 사이즈일 때의 최대 시차 및 최소 시차 정보가 포함된다. 화상 사이즈 검출부(71)는, 3D 화상의 비디오 데이터의 화상 사이즈를 검출한다. 최대/최소 시차 산출부(72)는, 검출된 3D 비디오 데이터의 화상 사이즈와 「기준 화상 사이즈」가 동일하지 않은 경우에, 3D 비디오 데이터의 화상 사이즈에 대응하는 최대 시차 및 최소 시차를 산출한다. 자막 조정부(73)는, 산출된 최대 시차 및 최소 시차에 기초하는 소정의 화상 처리, 예를 들면 자막의 깊이 위치를 조정하는 처리를 행한다. 본 발명은, 예를 들면 취득된 3D 화상의 화상 데이터를 처리하는 화상 처리 장치에 적용할 수 있다.

Description

데이터 구조, 화상 처리 장치, 화상 처리 방법 및 프로그램{DATA STRUCTURE, IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM}
본 발명은, 데이터 구조, 화상 처리 장치, 화상 처리 방법 및 프로그램에 관한 것으로, 특히 3D 콘텐츠의 비디오 데이터를 적절하게 처리할 수 있도록 하는 데이터 구조, 화상 처리 장치, 화상 처리 방법 및 프로그램에 관한 것이다.
영화 등의 콘텐츠로서는 2D 화상이 주류이지만, 최근에는, 3D 화상이 주목을 받고 있어, 3D 화상의 표시 장치나, 3D 화상의 부호화와 복호의 방법에 대해 다양한 기술이 제안되고 있다(예를 들면, 특허문헌 1, 2 참조).
3D 화상은, 좌안으로 시인하는 좌안용 화상과 우안으로 시인하는 우안용 화상에 의해 구성되고, 좌안용 화상과 우안용 화상에 소정의 시차(parallaxe)가 설정되어 있으므로, 시청자는 화상을 입체적으로 지각한다.
일본 특허 출원 공개 평10-327430호 공보 일본 특허 출원 공개 제2008-182669호 공보
3D 화상의 좌안용 화상과 우안용 화상에 설정되어 있는 시차의 최대값 및 최소값의 정보(시차 정보)는, 제공되는 좌안용 화상과 우안용 화상으로부터 검출할 수도 있지만, 3D 콘텐츠의 메타 데이터(부가 정보)로서 제공하는 것도 생각된다. 이 경우, 시차의 최대값 및 최소값의 정보는 화상 사이즈에 따라 바뀌기 때문에, 3D 콘텐츠의 취득측에서, 화상 사이즈가 어느 정도일 때의 시차 정보인지를 정확하게 파악할 수 없으면, 적절한 처리를 할 수 없다.
본 발명은, 이와 같은 상황을 감안하여 이루어진 것으로, 3D 콘텐츠의 비디오 데이터를 적절하게 처리할 수 있도록 하는 것이다.
본 발명의 제1 측면의 데이터 구조는, 3D 화상의 화상 데이터와, 상기 3D 화상에 있어서 기준으로 되는 소정의 화상 사이즈인 기준 화상 사이즈와, 그 기준 화상 사이즈일 때의 최대 시차 및 최소 시차를 포함한다.
본 발명의 제1 측면에서는, 3D 화상의 화상 데이터와, 3D 화상에 있어서 기준으로 되는 소정의 화상 사이즈인 기준 화상 사이즈와, 그 기준 화상 사이즈일 때의 최대 시차 및 최소 시차가 포함되어 있다.
본 발명의 제2 측면의 화상 처리 장치는, 3D 화상의 화상 데이터 및 상기 3D 화상에 있어서 기준으로 되는 소정의 화상 사이즈인 기준 화상 사이즈와, 그 기준 화상 사이즈일 때의 최대 시차 및 최소 시차를 포함하는 콘텐츠 데이터를 취득하는 취득 수단과, 상기 취득 수단에 의해 취득된 상기 3D 화상의 화상 데이터에 의한 화상 사이즈를 검출하는 검출 수단과, 검출된 상기 화상 데이터의 화상 사이즈와 상기 기준 화상 사이즈가 동일하지 않은 경우에, 취득된 상기 화상 데이터의 화상 사이즈에 대응하는 최대 시차 및 최소 시차를 산출하는 시차 산출 수단과, 산출된 상기 최대 시차 및 상기 최소 시차에 기초하여, 상기 취득 수단에 의해 취득된 상기 화상 데이터에 대해 소정의 화상 처리를 행하는 처리 수단을 구비한다.
본 발명의 제2 측면의 화상 처리 방법은, 3D 화상의 화상 데이터 및 상기 3D 화상에 있어서 기준으로 되는 소정의 화상 사이즈인 기준 화상 사이즈와, 그 기준 화상 사이즈일 때의 최대 시차 및 최소 시차를 포함하는 콘텐츠 데이터를 취득하고, 취득된 상기 3D 화상의 화상 데이터에 의한 화상 사이즈를 검출하고, 검출된 상기 화상 데이터의 화상 사이즈와 상기 기준 화상 사이즈가 동일하지 않은 경우에, 취득된 상기 화상 데이터의 화상 사이즈에 대응하는 최대 시차 및 최소 시차를 산출하고, 산출된 상기 최대 시차 및 상기 최소 시차에 기초하여, 취득된 상기 화상 데이터에 대해 소정의 화상 처리를 행하는 단계를 포함한다.
본 발명의 제2 측면의 프로그램은, 컴퓨터에, 3D 화상의 화상 데이터 및 상기 3D 화상에 있어서 기준으로 되는 소정의 화상 사이즈인 기준 화상 사이즈와, 그 기준 화상 사이즈일 때의 최대 시차 및 최소 시차를 포함하는 콘텐츠 데이터를 취득하고, 취득된 상기 3D 화상의 화상 데이터에 의한 화상 사이즈를 검출하고, 검출된 상기 화상 데이터의 화상 사이즈와 상기 기준 화상 사이즈가 동일하지 않은 경우에, 취득된 상기 화상 데이터의 화상 사이즈에 대응하는 최대 시차 및 최소 시차를 산출하고, 산출된 상기 최대 시차 및 상기 최소 시차에 기초하여, 취득된 상기 화상 데이터에 대해 소정의 화상 처리를 행하는 단계를 포함하는 처리를 실행시키기 위한 것이다.
본 발명의 제2 측면에서는, 3D 화상의 화상 데이터 및 3D 화상에 있어서 기준으로 되는 소정의 화상 사이즈인 기준 화상 사이즈와, 그 기준 화상 사이즈일 때의 최대 시차 및 최소 시차를 포함하는 콘텐츠 데이터가 취득되고, 취득된 3D 화상의 화상 데이터에 의한 화상 사이즈가 검출되고, 검출된 화상 데이터의 화상 사이즈와 기준 화상 사이즈가 동일하지 않은 경우에, 취득된 화상 데이터의 화상 사이즈에 대응하는 최대 시차 및 최소 시차가 산출되고, 산출된 상기 최대 시차 및 상기 최소 시차에 기초하여, 취득된 화상 데이터에 대해 소정의 화상 처리가 행해진다.
본 발명의 제3 측면의 데이터 구조는, 3D 화상의 화상 데이터와, 상기 3D 화상의 화상 데이터에 의한 화상 사이즈일 때의 최대 시차 및 최소 시차를 포함한다.
본 발명의 제3 측면에서는, 3D 화상의 화상 데이터와, 3D 화상의 화상 데이터에 의한 화상 사이즈일 때의 최대 시차 및 최소 시차가 포함되어 있다.
본 발명의 제4 측면의 화상 처리 장치는, 3D 화상의 화상 데이터 및 상기 3D 화상의 화상 데이터에 의한 화상 사이즈일 때의 최대 시차 및 최소 시차를 포함하는 콘텐츠 데이터를 취득하는 취득 수단과, 상기 취득 수단에 의해 취득된 상기 3D 화상의 화상 데이터의 화상 사이즈를, 소정의 확대 축소율로 확대 또는 축소하는 확대 축소 수단과, 확대 또는 축소 후의 화상 사이즈의 상기 화상 데이터에 있어서의 최대 시차 및 최소 시차를 산출하는 산출 수단과, 산출 결과에 갱신된 상기 최대 시차 및 상기 최소 시차를, 확대 또는 축소 후의 상기 화상 데이터와 함께 출력하는 출력 수단을 구비한다.
본 발명의 제4 측면의 화상 처리 방법은, 3D 화상의 화상 데이터 및 상기 3D 화상의 화상 데이터에 의한 화상 사이즈일 때의 최대 시차 및 최소 시차를 포함하는 콘텐츠 데이터를 취득하고, 취득된 상기 3D 화상의 화상 데이터의 화상 사이즈를, 소정의 확대 축소율로 확대 또는 축소하고, 확대 또는 축소 후의 화상 사이즈의 상기 화상 데이터에 있어서의 최대 시차 및 최소 시차를 산출하고, 산출 결과에 갱신된 상기 최대 시차 및 상기 최소 시차를, 확대 또는 축소 후의 상기 화상 데이터와 함께 출력하는 단계를 포함한다.
본 발명의 제4 측면의 프로그램은, 컴퓨터에, 3D 화상의 화상 데이터 및 상기 3D 화상의 화상 데이터에 의한 화상 사이즈일 때의 최대 시차 및 최소 시차를 포함하는 콘텐츠 데이터를 취득하고, 취득된 상기 3D 화상의 화상 데이터의 화상 사이즈를, 소정의 확대 축소율로 확대 또는 축소하고, 확대 또는 축소 후의 화상 사이즈의 상기 화상 데이터에 있어서의 최대 시차 및 최소 시차를 산출하고, 산출 결과에 갱신된 상기 최대 시차 및 상기 최소 시차를, 확대 또는 축소 후의 상기 화상 데이터와 함께 출력시키는 단계를 포함하는 처리를 실행시키기 위한 것이다.
본 발명의 제4 측면에서는, 3D 화상의 화상 데이터 및 3D 화상의 화상 데이터에 의한 화상 사이즈일 때의 최대 시차 및 최소 시차를 포함하는 콘텐츠 데이터가 취득되고, 취득된 3D 화상의 화상 데이터의 화상 사이즈가, 소정의 확대 축소율로 확대 또는 축소되고, 확대 또는 축소 후의 화상 사이즈의 화상 데이터에 있어서의 최대 시차 및 최소 시차가 산출되고, 산출 결과에 갱신된 상기 최대 시차 및 상기 최소 시차가, 확대 또는 축소 후의 화상 데이터와 함께 출력된다.
또한, 프로그램은, 전송 매체를 통해 전송함으로써, 또는 기록 매체에 기록하여, 제공할 수 있다.
화상 처리 장치는, 독립된 장치이어도 되고, 하나의 장치를 구성하고 있는 내부 블록이어도 된다.
본 발명의 제1 내지 제4 측면에 따르면, 3D 콘텐츠의 비디오 데이터를 적절하게 처리할 수 있도록 한다.
도 1은 본 발명을 적용한 기록 장치의 일 실시 형태의 구성예를 도시하는 블록도이다.
도 2는 도 1의 기록 장치에 의한 기록 처리를 설명하는 플로우차트이다.
도 3은 기록 매체에 기록되는 데이터의 계층 구조를 도시하는 도면이다.
도 4는 MPEG4의 박스의 확장 영역의 예를 도시하는 도면이다.
도 5는 MPEG4의 박스의 확장 영역의 다른 예를 도시하는 도면이다.
도 6은 MPEG4의 박스의 확장 영역의 또 다른 예를 도시하는 도면이다.
도 7은 본 발명을 적용한 재생 장치의 일 실시 형태의 구성예를 도시하는 블록도이다.
도 8은 3D 화상 처리부의 상세 구성예를 도시하는 블록도이다.
도 9는 도 7의 재생 장치에 의한 재생 처리를 설명하는 플로우차트이다.
도 10은 본 발명을 적용한 데이터 변환 장치의 일 실시 형태의 구성예를 도시하는 블록도이다.
도 11은 본 발명을 적용한 컴퓨터의 일 실시 형태의 구성예를 도시하는 블록도이다.
<본 발명을 적용한 일 실시 형태>
[기록 장치의 구성예]
도 1은, 본 발명을 적용한 기록 장치의 일 실시 형태의 구성예를 도시하는 블록도이다.
도 1의 기록 장치(10)는, 비디오 인코더(11), 오디오 인코더(12), 다중화부(13) 및 기록 제어부(14)에 의해 구성된다.
기록 장치(10)는, 3D 콘텐츠의 콘텐츠 데이터를 부호화하여, BDROM[Blu-Ray(등록상표) Disc Read Only Memory] 등의 기록 매체(20)에 기록시킨다. 콘텐츠 데이터는, 3D 화상의 화상 데이터(이하, 3D 비디오 데이터라고 함), 그 화상 데이터에 대응하는 음성 데이터를 포함하고, 3D 비디오 데이터는 좌안용 화상의 화상 데이터와 우안용 화상의 화상 데이터로 이루어진다. 또한, 콘텐츠 데이터에는, 좌안용 화상과 우안용 화상에 설정되어 있는 시차 정보가 부가 정보로서 포함된다.
기록 장치(10)의 비디오 인코더(11)는, 외부로부터 입력된 3D 비디오 데이터를, MPEG2(Moving Picture Experts Group phase 2), MPEG4, AVC(Advanced Video Coding) 등의 부호화 방식으로 부호화한다. 비디오 인코더(11)는, 부호화의 결과로 얻어지는 ES(Elementary Stream)인 비디오 스트림을 다중화부(13)에 공급한다.
오디오 인코더(12)는, 외부로부터 입력된 3D 비디오 데이터에 대응하는 오디오 데이터를 MPEG 등의 부호화 방식으로 부호화하고, 그 결과 얻어지는 ES인 오디오 스트림을 다중화부(13)에 공급한다.
다중화부(13)는, 비디오 인코더(11)로부터 공급되는 비디오 스트림과, 오디오 인코더(12)로부터 공급되는 오디오 스트림을 다중화하고, 그 결과 얻어지는 다중화 스트림을 기록 제어부(14)에 공급한다.
기록 제어부(14)는, 다중화부(13)로부터 공급되는 다중화 스트림을 기록 매체(20)에 기록시킨다. 또한, 기록 제어부(14)는, 기록 매체(20)에 기록되는 3D 화상에 있어서 기준으로 되는 소정의 화상 사이즈(이하, 기준 화상 사이즈라고 칭함)와, 그 화상 사이즈일 때의 시차의 최대값(최대 시차) 및 최소값(최소 시차)을 정의 파일로서 기록 매체(20)에 기록시킨다. 또한, 시차의 최대값(최대 시차)과 최소값(최소 시차)을, 이하에서는, 최대 시차/최소 시차라고도 기술한다.
여기서, 기록 매체(20)에 기록되는 3D 비디오 데이터의 화상 사이즈와 기준 화상 사이즈는, 기본적으로는 일치하지만, 반드시 일치하지 않아도 된다. 즉, 부가 정보의 최대 시차/최소 시차는, 어디까지나 기준 화상 사이즈일 때의 시차의 최대값 및 최소값이다. 따라서, 기록 매체(20)에 기록되는 3D 비디오 데이터의 화상 사이즈가 기준 화상 사이즈가 아닌 경우에는, 3D 비디오 데이터의 최대 시차/최소 시차는, 정의 파일로서 기록되어 있는 최대 시차/최소 시차와는 상이하다.
예를 들면, 기준 화상 사이즈=「720×480」, 최대 시차=「+72」 및 최소 시차=「-48」이, 정의 파일로서 기록되는 경우에는, 기준 화상 사이즈가 「720×480」일 때의 최대 시차와 최소 시차가 각각 「+72」 및 「-48」인 것을 나타낸다. 이 경우, 기록 매체(20)에 기록되는 3D 비디오 데이터의 화상 사이즈가 「1920×1080」이어도 된다.
또한, 최대 시차/최소 시차 및 기준 화상 사이즈는, 예를 들면 도시하지 않는 조작 입력부 등으로부터 입력되고, 기록 제어부(14)에 공급된다.
이상과 같이 구성되는 기록 장치(10)에서는, 「기준 화상 사이즈와 최대 시차/최소 시차」가, 부가 정보(메타 데이터)로서 기록 매체(20)에 기록되므로, 재생 시에 「최대 시차/최소 시차」를 이용한 바람직한 처리를 행할 수 있다.
[기록 장치의 처리의 설명]
도 2는, 도 1의 기록 장치(10)에 의한 기록 처리를 설명하는 플로우차트이다. 이 기록 처리는, 예를 들면 부가 정보, 3D 비디오 데이터 및 오디오 데이터가 입력되었을 때, 개시된다.
스텝 S10에 있어서, 기록 제어부(14)는, 외부로부터 입력된 부가 정보로서의 「기준 화상 사이즈와 최대 시차/최소 시차」를 정의 파일로서 기록 매체(20)에 기록시킨다.
스텝 S11에 있어서, 비디오 인코더(11)는, 외부로부터 입력된 3D 비디오 데이터를, MPEG2, MPEG4, AVC 등의 부호화 방식으로 부호화한다. 그리고, 비디오 인코더(11)는, 부호화의 결과로 얻어지는 비디오 스트림을 다중화부(13)에 공급한다.
스텝 S12에 있어서, 오디오 인코더(12)는, 외부로부터 입력된 3D 비디오 데이터에 대응하는 오디오 데이터를 MPEG 등의 부호화 방식으로 부호화하고, 그 결과 얻어지는 오디오 스트림을 다중화부(13)에 공급한다.
스텝 S13에 있어서, 다중화부(13)는, 비디오 인코더(11)로부터의 비디오 스트림과 오디오 인코더(12)로부터의 오디오 스트림을 다중화하고, 그 결과 얻어지는 다중화 스트림을 기록 제어부(14)에 공급한다.
스텝 S14에 있어서, 기록 제어부(14)는, 다중화부(13)로부터 공급되는 다중화 스트림을 기록 매체(20)에 기록 매체에 기록시키고, 처리를 종료한다.
[부가 정보의 데이터 구조]
도 3은, 기록 매체(20)에 기록되는 데이터의 계층 구조를 도시하는 도면이다.
도 3에 도시한 바와 같이, 기록 매체(20)에 기록되는 데이터의 계층은, 오디오 스트림이나 비디오 스트림 등의 ES의 레이어 C, 다중화 스트림의 시스템 레이어인 레이어 B, 기록 매체(20)에 유일한 정보인 레이어 A 등에 의해 구성된다.
상술한 예에서는, 부가 정보로서의 「기준 화상 사이즈와 최대 시차/최소 시차」가 기록 매체(20)에 유일한 정의 파일로서, 즉 레이어 A에 기록되는 것으로 설명하였다. 그러나, 「기준 화상 사이즈와 최대 시차/최소 시차」는, 레이어 B나 레이어 C에 기록되도록 할 수도 있다.
예를 들면, 레이어 C에 있어서 부가 정보가 기록되는 경우, 부호화 방식이 AVC이면, 부가 정보는, SEI(Supplemental Enhancement Information)로서, 또는 SPS(Sequence Parameter Set)나 PPS(Picture Parameter Set)의 일부로서 기록된다. 또한, 부호화 방식이 MPEG2이면, 비디오 시퀀스(Video Sequence)나 익스텐션 앤드 유저 데이터(extension_and_user_data)로서 기록된다.
이 경우, 1개의 비디오 스트림 내에서 부가 정보를 가변으로 할 수 있다. 「기준 화상 사이즈와 최대 시차/최소 시차」는 비디오 스트림마다 바꿀 수 있다.
한편, 레이어 B에 있어서 부가 정보가 기록되는 경우, 부가 정보는, TS(Transport Stream)의 프라이빗 패킷, PS(Program Stream)의 프라이빗 팩, MPEG4의 컨피규레이션(Config) 정보에 포함되는 박스(Box)의 확장 영역 등에 기록된다.
부가 정보가 기록되는 MPEG4의 박스의 확장 영역은, 예를 들면 도 4에 도시한 바와 같이, 파일의 선두에 위치하는 ftyp 박스의 직후의 Private Extension 박스(도 4 중 uuid)에 설치된다. 이 경우, 기록 매체(20)에 기록된 3D 비디오 데이터를 재생하는 재생 장치는, 복호 처리의 이전에 「기준 화상 사이즈와 최대 시차/최소 시차」를 취득할 수 있다. 「기준 화상 사이즈와 최대 시차/최소 시차」는 파일 내에서 불변이다.
또한, Private Extension 박스에는, 「기준 화상 사이즈와 최대 시차/최소 시차」외에, 코덱의 종류, 비트 레이트, 프레임 사이즈, 어스펙트비, 화상이 2D 화상인지 3D 화상인지를 나타내는 정보 등이 기술된다.
또한, 부가 정보가 기록되는 MPEG4의 박스의 확장 영역은, 도 5에 도시한 바와 같이, moov 박스 내의 트랙 정보(trak)의 영역(도 5 중 stsd)에 설치되도록 해도 된다. 이 경우, 비디오 스트림에 참조처의 부가 정보의 영역을 나타내는 정보가 포함되어 있고, 재생 장치는, 그 정보에 기초하여, 「기준 화상 사이즈와 최대 시차/최소 시차」를 취득한다. 따라서, 이 경우, 비디오 스트림 내에서 「기준 화상 사이즈와 최대 시차/최소 시차」를 가변으로 할 수 있다. 단, 도 4의 경우에 비해 액세스성은 나쁘다.
또한, 부가 정보가 기록되는 MPEG4의 박스의 확장 영역은, 도 6에 도시한 바와 같이, mdat 박스 내에 설치되도록 해도 된다. 즉, 부가 정보가 1개의 미디어 스트림(side info.stream)으로서 기록되도록 해도 된다. 이 경우, 비디오 스트림과 부가 정보는 시간 정보에서 동기하므로, 「기준 화상 사이즈와 최대 시차/최소 시차」를 시시각각 변화시킬 수 있다.
또한, 도 4 내지 도 6의 예에서는, ftyp 박스 뒤에, moov 박스, mdat 박스가 순서대로 배치되어 있지만, moov 박스와 mdat 박스의 배치는 이것으로 한정되지 않는다.
<본 발명을 적용한 재생 장치의 실시 형태>
[재생 장치의 구성예]
도 7은, 본 발명을 적용한 재생 장치의 일 실시 형태의 구성예를 도시하는 블록도이다.
도 7의 재생 장치(50)는, 판독부(51), 분리부(52), 비디오 디코더(53), 3D 화상 처리부(54) 및 오디오 디코더(55)에 의해 구성된다. 재생 장치(50)는, 기록 매체(20)에 기록되어 있는 3D 비디오 데이터와 그것에 대응하는 음성 데이터를 부가 정보와 함께 재생하고, 부가 정보에 기초하여, 적절하게 3D 화상을 표시시킨다.
구체적으로는, 재생 장치(50)의 판독부(51)는, 기록 매체(20)에 기록되어 있는 「기준 화상 사이즈와 최대 시차/최소 시차」를 포함하는 부가 정보를 판독하고, 3D 화상 처리부(54)에 공급한다. 또한, 판독부(51)는, 기록 매체(20)에 기록되어 있는 다중화 스트림을 판독하고, 분리부(52)에 공급한다.
분리부(52)는, 판독부(51)로부터 공급되는 다중화 스트림을 비디오 스트림과 오디오 스트림으로 분리한다. 그리고, 분리부(52)는, 비디오 스트림을 비디오 디코더(53)에 공급하고, 오디오 스트림을 오디오 디코더(55)에 공급한다.
비디오 디코더(53)는, 분리부(52)로부터 공급되는 비디오 스트림을, 도 1의 비디오 인코더(11)에 있어서의 부호화 방식에 대응하는 방식으로 복호하고, 그 결과 얻어지는 3D 비디오 데이터를 3D 화상 처리부(54)에 공급한다.
3D 화상 처리부(54)는, 비디오 디코더(53)로부터 공급되는 3D 비디오 데이터에 대해, 필요에 따라 소정의 화상 처리를 행한다. 본 실시 형태에서는, 3D 화상 처리부(54)는, 3D 화상에 중첩 표시하는 자막의 깊이 위치의 조정을 행하는 처리를 실행하는 것으로 한다. 3D 화상 처리부(54)는, 처리 후의 3D 비디오 데이터를 표시부(61)에 출력한다.
또한, 자막이 표시되는 화상 영역은, 외부로부터 주어져도 되고, 3D 화상 처리부(54) 내에서 독자적으로 검출해도 된다. 자막이 표시되는 영역을 검출하는 방법으로서는, 예를 들면 본 출원인에 의해 앞서 제안되어 있는 일본 특허 출원 공개 제2008-166988의 처리(소정 시간 변화하지 않는 영역을 자막 영역으로서 검출하는 처리) 등을 채용할 수 있다.
오디오 디코더(55)는, 분리부(52)로부터 공급되는 오디오 스트림을, 도 1의 오디오 인코더(12)에 있어서의 부호화 방식에 대응하는 방식으로 복호하고, 그 결과 얻어지는 오디오 데이터를 스피커(62)에 공급한다.
표시부(61)는, 3D 화상 처리부(54)로부터 공급되는 비디오 데이터에 대응하는 좌안용 화상과 우안용 화상을, 예를 들면 시분할로 표시한다. 이때, 시청자는, 예를 들면 좌안용 화상과 우안용 화상의 전환에 동기한 셔터가 부착된 안경을 장착하여, 좌안용 화상을 좌안으로만 보고, 우안용 화상을 우안으로만 본다. 이에 의해, 시청자는, 3D 화상을 입체적으로 지각할 수 있다.
스피커(62)는, 오디오 디코더(55)로부터 공급되는 오디오 데이터에 대응하는 음성을 출력한다.
[3D 화상 처리부(54)의 상세 구성예]
도 8은, 도 7의 3D 화상 처리부(54)의 상세 구성예를 도시하는 블록도이다.
3D 화상 처리부(54)는, 화상 사이즈 검출부(71), 최대/최소 시차 산출부(72) 및 자막 조정부(73)에 의해 구성된다.
화상 사이즈 검출부(71)는, 판독부(51)로부터 공급되는 3D 비디오 데이터로부터, 그 화상 사이즈를 검출한다. 여기서 검출되는 화상 사이즈는, 표시부(61)에 표시되는 화상 사이즈이므로, 이하에서는 표시 화상 사이즈라고 칭한다. 표시 화상 사이즈는, 예를 들면 화상의 유효 기간을 나타내는 신호를 카운트함으로써 인식할 수 있다. 화상 사이즈 검출부(71)는, 검출 결과의 표시 화상 사이즈를 최대/최소 시차 산출부(72)에 공급한다.
최대/최소 시차 산출부(72)는, 판독부(51)로부터 공급되는 「기준 화상 사이즈와 최대 시차/최소 시차」를 취득함과 함께, 화상 사이즈 검출부(71)로부터 공급되는 표시 화상 사이즈를 취득한다.
그리고, 최대/최소 시차 산출부(72)는, 공급되는 표시 화상 사이즈를, 부가 정보의 「기준 화상 사이즈」와 비교하여, 표시 화상 사이즈와 기준 화상 사이즈가 상이한 사이즈인 경우, 표시 화상 사이즈에 있어서의 최대 시차/최소 시차를 산출한다.
예를 들면, 「기준 화상 사이즈, 최대 시차, 최소 시차」가 각각 「720×480, +72, -48」이며, 「표시 화상 사이즈」가 「1920×1080」인 경우, 최대/최소 시차 산출부(72)는, 표시 화상 사이즈에 있어서의 최대 시차/최소 시차를, 다음과 같이 산출한다.
최대 시차=+72×(1920/720)=+192
최소 시차=-48×(1920/720)=-128
최대/최소 시차 산출부(72)는, 산출 결과로서의 표시 화상 사이즈에 있어서의 최대 시차/최소 시차를 자막 조정부(73)에 공급한다. 또한, 표시 화상 사이즈와 기준 화상 사이즈가 일치하는 경우에는, 취득한 부가 정보의 「최대 시차/최소 시차」가 그대로, 표시 화상 사이즈에 있어서의 최대 시차/최소 시차로서 자막 조정부(73)에 공급된다.
자막 조정부(73)는, 3D 화상에 중첩 표시되는 자막의 깊이 위치를, 표시 화상 사이즈에 있어서의 최대 시차/최소 시차에 따라 조정한다. 즉, 자막 조정부(73)에서는, 자막이 표시 화상 사이즈의 최대 시차로 결정되는 깊이 위치의 약간 앞(시청자가 볼 때 가장 앞)에 오도록 조정된다.
[재생 장치의 처리의 설명]
도 9는, 재생 장치(50)에 의한 재생 처리를 설명하는 플로우차트이다. 이 재생 처리는, 예를 들면 기록 매체(20)에 기록되어 있는 3D 콘텐츠의 재생이 시청자에 의해 지시되었을 때 개시된다.
스텝 S31에 있어서, 판독부(51)는, 기록 매체(20)에 부가 정보로서 기록되어 있는 「기준 화상 사이즈와 최대 시차/최소 시차」를 판독하고, 3D 화상 처리부(54)에 공급한다.
스텝 S32에 있어서, 재생 장치(50)는, 기록 매체(20)에 기록되어 있는 3D 콘텐츠의 다중화 스트림을 판독하고 복호한다. 즉, 판독부(51)가, 기록 매체(20)로부터 3D 콘텐츠의 다중화 스트림을 판독하고, 분리부(52)에 공급하고, 분리부(52)는, 다중화 스트림을 비디오 스트림과 오디오 스트림으로 분리한다. 비디오 디코더(53)는, 비디오 스트림을, 기록 장치(10)의 부호화 방식에 대응하는 방식으로 복호하고, 그 결과 얻어지는 3D 비디오 데이터를 3D 화상 처리부(54)에 공급한다. 오디오 디코더(55)는, 오디오 스트림을, 기록 장치(10)의 부호화 방식에 대응하는 방식으로 복호하고, 그 결과 얻어지는 오디오 데이터를 스피커(62)에 공급한다.
스텝 S33에 있어서, 화상 사이즈 검출부(71)는, 판독부(51)로부터 공급되는 3D 비디오 데이터로부터, 그 화상 사이즈(표시 화상 사이즈)를 검출하고, 최대/최소 시차 산출부(72)에 공급한다. 그리고, 스텝 S34에 있어서, 최대/최소 시차 산출부(72)는, 화상 사이즈 검출부(71)에서 검출된 「표시 화상 사이즈」와, 판독부(51)로부터 공급된 「기준 화상 사이즈」가 동일한지 여부를 판정한다.
스텝 S34에서, 「표시 화상 사이즈」와 「기준 화상 사이즈」가 동일하지 않다고 판정된 경우, 처리는 스텝 S35로 진행하고, 최대/최소 시차 산출부(72)는, 표시 화상 사이즈에 있어서의 최대 시차/최소 시차를 산출하여, 자막 조정부(73)에 공급한다.
한편, 스텝 S34에서, 「표시 화상 사이즈」와 「기준 화상 사이즈」가 동일하다고 판정된 경우, 처리는 스텝 S36으로 진행한다. 스텝 S36에서는, 최대/최소 시차 산출부(72)는, 판독부(51)로부터 공급된 부가 정보의 「기준 화상 사이즈」를 그대로, 표시 화상 사이즈에 있어서의 최대 시차/최소 시차로서 자막 조정부(73)에 공급한다.
스텝 S37에 있어서, 자막 조정부(73)는, 3D 화상에 중첩 표시되는 자막의 깊이 위치를, 표시 화상 사이즈에 있어서의 최대 시차/최소 시차에 따라 조정하고, 조정 후의 3D 비디오 데이터를 표시부(61)에 출력한다. 또한, 스텝 S37에서는, 오디오 디코더(55)가 3D 비디오 데이터에 대응하는 오디오 데이터를 출력하고, 처리는 종료된다.
이상과 같이, 기록 매체(20)에는 3D 콘텐츠의 다중화 스트림에 더하여, 그 3D 콘텐츠의 「기준 화상 사이즈와 최대 시차/최소 시차」가 부가 정보로서 기록되어 있다. 재생 장치(50)는, 그 부가 정보를 판독하고, 복호에 의해 얻어진 3D 비디오 데이터의 화상 사이즈와 비교함으로써, 읽어낸 3D 비디오 데이터의 정확한 최대 시차/최소 시차를 간단히 알 수 있다. 그리고, 3D 비디오 데이터의 정확한 최대 시차/최소 시차에 기초하여, 소정의 신호 처리를 적절하게 행할 수 있다.
본 실시 형태에서는, 소정의 신호 처리로서, 자막의 깊이 위치를 조정하는 처리를 행하는 예에 대해 설명하였지만, 최대 시차/최소 시차에 기초하는 처리는, 이것으로 한정되는 것은 아니다.
상술한 예에서는, 3D 콘텐츠의 다중화 스트림 및 부가 정보(메타 데이터)가, 기록 매체(20)를 통해, 콘텐츠 제공자측에서 콘텐츠 시청자측에 제공되는 예에 대해 설명하였다. 그러나, 3D 콘텐츠는, 예를 들면 위성 방송, 케이블 TV, 인터넷 등의 네트워크를 통한 전송에 의해 제공되는 경우도 있다. 그리고, 콘텐츠 제공측에서 송신된 후에, 콘텐츠 시청자가 수신할 때까지의 전송 경로의 도중에, 3D 콘텐츠의 화상 사이즈의 확대 또는 축소가 행해지는 경우도 생각된다. 이 경우, 전송되어 오는 3D 비디오 데이터의 화상 사이즈와, 부가 정보로서 전송되어 오는 「기준 화상 사이즈」는 상이한 것으로 된다. 이와 같은 경우에도, 부가 정보의 「기준 화상 사이즈와 최대 시차/최소 시차」로부터, 수신한 3D 비디오 데이터의 화상 사이즈에 있어서의 최대 시차/최소 시차를 바로, 또한 정확하게 알 수 있어, 정확한 최대 시차/최소 시차에 기초한 화상 처리를 적절하게 행할 수 있다.
<그 밖의 실시 형태>
또한, 상술한 예에서는, 3D 콘텐츠의 화상 사이즈의 확대 또는 축소가 행해진 경우라도, 부가 정보로서 기록 또는 전송되는 「기준 화상 사이즈와 최대 시차/최소 시차」는 고정된 것으로 하여 설명하였다. 그러나, 화상 사이즈의 확대 또는 축소에 따라 부가 정보의 「최대 시차/최소 시차」를 갱신하도록 해도 된다. 이 경우, 「기준 화상 사이즈」는, 기록 또는 전송되는 3D 비디오 데이터의 화상 사이즈와 반드시 일치하므로, 생략할 수 있다.
[데이터 변환 장치의 구성예]
도 10은, 3D 비디오 데이터의 화상 사이즈를 변환함과 함께, 최대 시차/최소 시차 정보도 갱신하는 데이터 변환 장치(화상 처리 장치)의 기능 블록도이다. 또한, 도 10에 있어서, 오디오 데이터에 관한 설명은 생략한다.
도 10의 데이터 변환 장치(80)는, 취득부(81), 화상 확대 축소부(82), 최대/최소 시차 갱신부(83) 및 출력부(84)에 의해 구성된다.
취득부(81)는, 외부로부터 입력되는 3D 비디오 데이터와, 부가 정보로서의 「최대 시차/최소 시차」를 취득한다. 취득부(81)는, 3D 비디오 데이터를 화상 확대 축소부(82)에 공급하고, 「최대 시차/최소 시차」를 최대/최소 시차 갱신부(83)에 공급한다.
화상 확대 축소부(82)는, 공급되는 3D 비디오 데이터의 화상 사이즈를, 도시하지 않는 조작 입력부 등에서 입력되어 공급되는 확대 축소율에 따라서, 확대 또는 축소하는 처리를 실행한다. 화상 확대 축소부(82)는, 처리 후의 3D 비디오 데이터를 출력부(84)에 공급한다.
최대/최소 시차 갱신부(83)는, 취득부(81)로부터 공급되는 「최대 시차/최소 시차」를, 조작 입력부 등으로부터 공급되는 확대 축소율에 기초하여, 화상 확대 축소부(82)가 확대 또는 축소 처리를 실행한 처리 후의 화상에 대응하는 「최대 시차/최소 시차」로 갱신한다. 그리고, 최대/최소 시차 갱신부(83)는, 갱신 후의 「최대 시차/최소 시차」를 출력부(84)에 공급한다.
출력부(84)는, 화상 확대 축소부(82)로부터 공급되는 3D 비디오 데이터와, 부가 정보로서의 「최대 시차/최소 시차」를, 다중화하여, 또는 시분할 등에 의해 출력한다.
또한, 확대 축소율은, 조작 입력부 등에서 입력되는 것이 아니라, 미리 결정되어 있는 값이어도 된다.
데이터 변환 장치(80)의 동작에 대해, 구체적인 예를 들어 설명한다.
처음에, 취득부(81)는, 예를 들면 화상 사이즈가 「720×480」인 3D 비디오 데이터와, 「최대 시차/최소 시차」로서 「+72/-48」이 기술되어 있는 부가 정보를 취득한다. 취득부(81)가 취득한 3D 비디오 데이터는 화상 확대 축소부(82)에 공급되고, 부가 정보는 최대/최소 시차 갱신부(83)에 공급된다.
화상 확대 축소부(82)에는, 조작 입력부 등에 있어서 소정의 유저에 의해 입력된 확대 축소율이 공급된다. 여기서는, 예를 들면 「1920/720」이 공급된 것으로 한다.
화상 확대 축소부(82)는, 공급된 확대 축소율에 기초하여, 3D 비디오 데이터에 대해, 그 화상 사이즈를 「720×480」에서 「1920×1080」으로 확대하는 처리를 실행하고, 처리 후의 3D 비디오 데이터를 출력부(84)에 공급한다.
최대/축소 시차 갱신부(83)는, 조작 입력부 등으로부터 공급된 확대 축소율, 즉 「1920/720」에 따라서, 부가 정보의 「최대 시차/최소 시차」를 갱신한다. 구체적으로는, 최대/축소 시차 갱신부(83)는,
최대 시차=+72×(1920/720)=+192
최소 시차=-48×(1920/720)=-128
을 계산함으로써, 갱신 후의 「최대 시차/최소 시차」로서 「+192/-128」을 구한다. 그리고, 최대/축소 시차 갱신부(83)는, 갱신 후의 「최대 시차/최소 시차」=「+192/-128」을 출력부(84)에 공급한다.
또한, 화상 확대 축소부(82)의 처리와, 최대/축소 시차 갱신부(83)의 처리는, 병행하여 실행할 수 있다.
출력부(84)는, 화상 확대 축소부(82)로부터 공급된 화상 사이즈가 「1920×1080」인 3D 비디오 데이터와, 그 「최대 시차/최소 시차」로서 「+192/-128」이 기술되어 있는 부가 정보를 출력한다.
이 데이터 변환 장치(80)는, 콘텐츠 제공측의 출력부의 전단, 전송 경로의 도중 및 콘텐츠 취득측의 입력부의 후단 중 어디에 배치되어 있어도 된다.
[본 발명을 적용한 컴퓨터의 설명]
상술한 일련의 처리는, 하드웨어에 의해 행할 수도 있고, 소프트웨어에 의해 행할 수도 있다. 일련의 처리를 소프트웨어에 의해 행하는 경우에는, 그 소프트웨어를 구성하는 프로그램이, 범용의 컴퓨터 등에 인스톨된다.
따라서, 도 11은, 상술한 일련의 처리를 실행하는 프로그램이 인스톨되는 컴퓨터의 일 실시 형태의 구성예를 도시하고 있다.
프로그램은, 컴퓨터에 내장되어 있는 기록 매체로서의 기억부(208)나 ROM(Read Only Memory)(202)에 미리 기록해 둘 수 있다.
혹은, 또한 프로그램은, 리무버블 미디어(211)에 저장(기록)해 둘 수 있다. 이와 같은 리무버블 미디어(211)는, 소위 패키지 소프트 웨어로서 제공할 수 있다. 여기서, 리무버블 미디어(211)로서는, 예를 들면 CD-ROM(Compact Disc Read Only Memory), MO(Magneto Optical) 디스크, DVD(Digital Versatile Disc), 자기 디스크, 반도체 메모리 등이 있다.
또한, 프로그램은, 상술한 바와 같은 리무버블 미디어(211)로부터 드라이브(210)를 통해 컴퓨터에 인스톨하는 것 외에, 통신망이나 방송망을 통해, 컴퓨터에 다운로드하고, 내장하는 기억부(208)에 인스톨할 수 있다. 즉, 프로그램은, 유선 또는 무선의 전송 매체를 통해, 통신부(209)에서 수신하고, 기억부(208)에 인스톨할 수 있다.
컴퓨터는, CPU(Central Processing Unit)(201)를 내장하고 있고, CPU(201)에는, 버스(204)를 통해, 입출력 인터페이스(205)가 접속되어 있다.
CPU(201)는, 입출력 인터페이스(205)를 통해, 유저에 의해, 입력부(206)가 조작되는 등에 의해 명령이 입력되면, 그에 따라서, ROM(202)에 저장되어 있는 프로그램을 실행한다. 혹은, CPU(201)는, 기억부(208)에 저장된 프로그램을, RAM(Random Access Memory)(203)에 로드하여 실행한다.
이에 의해, CPU(201)는, 상술한 플로우차트에 따른 처리, 혹은 상술한 블록도의 구성에 의해 행해지는 처리를 행한다. 그리고, CPU(201)는, 그 처리 결과를, 필요에 따라, 예를 들면 입출력 인터페이스(205)를 통해, 출력부(207)로부터 출력하거나, 통신부(209)로부터 송신하거나, 기억부(208)에 기록 등을 시킨다.
또한, 입력부(206)는, 키보드나, 마우스, 마이크 등으로 구성된다. 또한, 출력부(207)는, LCD(Liquid Crystal Display)나 스피커 등으로 구성된다.
본 명세서에 있어서, 컴퓨터가 프로그램에 따라서 행하는 처리는, 반드시 플로우차트로서 기재된 순서를 따라 시계열로 행해질 필요는 없다. 즉, 컴퓨터가 프로그램에 따라서 행하는 처리는, 병렬적 혹은 개별로 실행되는 처리(예를 들면, 병렬 처리 혹은 오브젝트에 의한 처리)도 포함한다.
또한, 프로그램은, 하나의 컴퓨터(프로세서)에 의해 처리되는 것이어도 되고, 복수의 컴퓨터에 의해 분산 처리되는 것이어도 된다. 또한, 프로그램은, 먼 곳의 컴퓨터에 전송되어 실행되는 것이어도 된다.
상술한 실시 형태는, 3D 화상으로서, 시점의 수가 2개인 2시점의 3D 화상에 대해 설명하였지만, 시점의 수가 3 이상인 다시점의 3D 화상에 대해서도 마찬가지로 적용할 수 있다.
또한, 본 발명의 실시 형태는, 상술한 실시 형태로 한정되는 것은 아니고, 본 발명의 요지를 일탈하지 않는 범위에서 다양한 변경이 가능하다.
20 : 기록 매체
50 : 재생 장치
51 : 판독부
54 : 3D 화상 처리부
71 : 화상 사이즈 검출부
72 : 최대/최소 시차 산출부
73 : 자막 조정부
80 : 데이터 변환 장치
81 : 취득부
82 : 화상 확대 축소부
83 : 최대/최소 시차 갱신부
84 : 출력부

Claims (9)

  1. 3D 화상의 화상 데이터와,
    상기 3D 화상에 있어서 기준으로 되는 소정의 화상 사이즈인 기준 화상 사이즈와, 그 기준 화상 사이즈일 때의 최대 시차(parallaxe) 및 최소 시차를 포함하는, 데이터 구조.
  2. 3D 화상의 화상 데이터 및 상기 3D 화상에 있어서 기준으로 되는 소정의 화상 사이즈인 기준 화상 사이즈와, 그 기준 화상 사이즈일 때의 최대 시차 및 최소 시차를 포함하는 콘텐츠 데이터를 취득하는 취득 수단과,
    상기 취득 수단에 의해 취득된 상기 3D 화상의 화상 데이터에 의한 화상 사이즈를 검출하는 검출 수단과,
    검출된 상기 화상 데이터의 화상 사이즈와 상기 기준 화상 사이즈가 동일하지 않은 경우에, 취득된 상기 화상 데이터의 화상 사이즈에 대응하는 최대 시차 및 최소 시차를 산출하는 시차 산출 수단과,
    산출된 상기 최대 시차 및 상기 최소 시차에 기초하여, 상기 취득 수단에 의해 취득된 상기 화상 데이터에 대해 소정의 화상 처리를 행하는 처리 수단을 포함하는, 화상 처리 장치.
  3. 제2항에 있어서, 상기 시차 산출 수단은, 취득된 상기 기준 화상 사이즈일 때의 최대 시차 및 최소 시차에, 검출된 상기 화상 데이터의 화상 사이즈와 상기 기준 화상 사이즈의 비율을 승산함으로써, 상기 화상 데이터의 화상 사이즈에 대응하는 최대 시차 및 최소 시차를 산출하는, 화상 처리 장치.
  4. 3D 화상의 화상 데이터 및 상기 3D 화상에 있어서 기준으로 되는 소정의 화상 사이즈인 기준 화상 사이즈와, 그 기준 화상 사이즈일 때의 최대 시차 및 최소 시차를 포함하는 콘텐츠 데이터를 취득하고,
    취득된 상기 3D 화상의 화상 데이터에 의한 화상 사이즈를 검출하고,
    검출된 상기 화상 데이터의 화상 사이즈와 상기 기준 화상 사이즈가 동일하지 않은 경우에, 취득된 상기 화상 데이터의 화상 사이즈에 대응하는 최대 시차 및 최소 시차를 산출하고,
    산출된 상기 최대 시차 및 상기 최소 시차에 기초하여, 취득된 상기 화상 데이터에 대해 소정의 화상 처리를 행하는 단계를 포함하는, 화상 처리 방법.
  5. 컴퓨터에,
    3D 화상의 화상 데이터 및 상기 3D 화상에 있어서 기준으로 되는 소정의 화상 사이즈인 기준 화상 사이즈와, 그 기준 화상 사이즈일 때의 최대 시차 및 최소 시차를 포함하는 콘텐츠 데이터를 취득하고,
    취득된 상기 3D 화상의 화상 데이터에 의한 화상 사이즈를 검출하고,
    검출된 상기 화상 데이터의 화상 사이즈와 상기 기준 화상 사이즈가 동일하지 않은 경우에, 취득된 상기 화상 데이터의 화상 사이즈에 대응하는 최대 시차 및 최소 시차를 산출하고,
    산출된 상기 최대 시차 및 상기 최소 시차에 기초하여, 취득된 상기 화상 데이터에 대해 소정의 화상 처리를 행하는 단계를 포함하는 처리를 실행시키기 위한, 프로그램.
  6. 3D 화상의 화상 데이터와,
    상기 3D 화상의 화상 데이터에 의한 화상 사이즈일 때의 최대 시차 및 최소 시차를 포함하는, 데이터 구조.
  7. 3D 화상의 화상 데이터 및 상기 3D 화상의 화상 데이터에 의한 화상 사이즈일 때의 최대 시차 및 최소 시차를 포함하는 콘텐츠 데이터를 취득하는 취득 수단과,
    상기 취득 수단에 의해 취득된 상기 3D 화상의 화상 데이터의 화상 사이즈를, 소정의 확대 축소율로 확대 또는 축소하는 확대 축소 수단과,
    확대 또는 축소 후의 화상 사이즈의 상기 화상 데이터에 있어서의 최대 시차 및 최소 시차를 산출하는 산출 수단과,
    산출 결과에 갱신된 상기 최대 시차 및 상기 최소 시차를, 확대 또는 축소 후의 상기 화상 데이터와 함께 출력하는 출력 수단을 포함하는, 화상 처리 장치.
  8. 3D 화상의 화상 데이터 및 상기 3D 화상의 화상 데이터에 의한 화상 사이즈일 때의 최대 시차 및 최소 시차를 포함하는 콘텐츠 데이터를 취득하고,
    취득된 상기 3D 화상의 화상 데이터의 화상 사이즈를, 소정의 확대 축소율로 확대 또는 축소하고,
    확대 또는 축소 후의 화상 사이즈의 상기 화상 데이터에 있어서의 최대 시차 및 최소 시차를 산출하고,
    산출 결과에 갱신된 상기 최대 시차 및 상기 최소 시차를, 확대 또는 축소 후의 상기 화상 데이터와 함께 출력하는 단계를 포함하는, 화상 처리 방법.
  9. 컴퓨터에,
    3D 화상의 화상 데이터 및 상기 3D 화상의 화상 데이터에 의한 화상 사이즈일 때의 최대 시차 및 최소 시차를 포함하는 콘텐츠 데이터를 취득하고,
    취득된 상기 3D 화상의 화상 데이터의 화상 사이즈를, 소정의 확대 축소율로 확대 또는 축소하고,
    확대 또는 축소 후의 화상 사이즈의 상기 화상 데이터에 있어서의 최대 시차 및 최소 시차를 산출하고,
    산출 결과에 갱신된 상기 최대 시차 및 상기 최소 시차를, 확대 또는 축소 후의 상기 화상 데이터와 함께 출력시키는 단계를 포함하는 처리를 실행시키기 위한, 프로그램.
KR1020127026099A 2010-04-14 2011-04-06 데이터 구조, 화상 처리 장치, 화상 처리 방법 및 프로그램 KR20130057974A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010092815A JP2011223481A (ja) 2010-04-14 2010-04-14 データ構造、画像処理装置、画像処理方法、およびプログラム
JPJP-P-2010-092815 2010-04-14
PCT/JP2011/058705 WO2011129242A1 (ja) 2010-04-14 2011-04-06 データ構造、画像処理装置、画像処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
KR20130057974A true KR20130057974A (ko) 2013-06-03

Family

ID=44798618

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020127026099A KR20130057974A (ko) 2010-04-14 2011-04-06 데이터 구조, 화상 처리 장치, 화상 처리 방법 및 프로그램

Country Status (7)

Country Link
US (1) US20130038703A1 (ko)
EP (1) EP2560399A4 (ko)
JP (1) JP2011223481A (ko)
KR (1) KR20130057974A (ko)
CN (1) CN102835120A (ko)
BR (1) BR112012025583A2 (ko)
WO (1) WO2011129242A1 (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011228862A (ja) * 2010-04-16 2011-11-10 Sony Corp データ構造、画像処理装置、画像処理方法、およびプログラム
JP5127973B1 (ja) * 2011-10-21 2013-01-23 株式会社東芝 映像処理装置、映像処理方法および映像表示装置
JP6090168B2 (ja) * 2012-02-16 2017-03-08 ソニー株式会社 送信装置および送信方法
KR20140048783A (ko) * 2012-10-09 2014-04-24 한국전자통신연구원 깊이정보값을 공유하여 움직임 정보를 유도하는 방법 및 장치
CN105872517A (zh) * 2015-12-28 2016-08-17 乐视致新电子科技(天津)有限公司 虚拟现实调整视差的方法及装置
CN106254846B (zh) * 2015-12-30 2018-06-29 深圳超多维科技有限公司 一种图像视差调整方法、装置及电子设备

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3423189B2 (ja) * 1997-05-27 2003-07-07 三洋電機株式会社 ディジタル立体放送によるテロップ表示装置
US8369607B2 (en) * 2002-03-27 2013-02-05 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
JP3857988B2 (ja) * 2002-03-27 2006-12-13 三洋電機株式会社 立体画像処理方法および装置
EP1489857B1 (en) * 2002-03-27 2011-12-14 Sanyo Electric Co., Ltd. 3-dimensional image processing method and device
WO2004021151A2 (en) * 2002-08-30 2004-03-11 Orasee Corp. Multi-dimensional image system for digital image input and output
EP1587329B1 (en) * 2003-01-20 2015-04-15 Sanyo Electric Co., Ltd. Three-dimensional video providing method and three-dimensional video display device
JP2005073049A (ja) * 2003-08-26 2005-03-17 Sharp Corp 立体映像再生装置および立体映像再生方法
JP2006165795A (ja) * 2004-12-03 2006-06-22 Canon Inc 画像形成装置およびその方法
JP4793366B2 (ja) * 2006-10-13 2011-10-12 日本ビクター株式会社 多視点画像符号化装置、多視点画像符号化方法、多視点画像符号化プログラム、多視点画像復号装置、多視点画像復号方法、及び多視点画像復号プログラム
JP2008166988A (ja) * 2006-12-27 2008-07-17 Sony Corp 情報処理装置および方法、並びにプログラム
TWI331872B (en) * 2006-12-29 2010-10-11 Quanta Comp Inc Method for displaying stereoscopic image
US8390674B2 (en) * 2007-10-10 2013-03-05 Samsung Electronics Co., Ltd. Method and apparatus for reducing fatigue resulting from viewing three-dimensional image display, and method and apparatus for generating data stream of low visual fatigue three-dimensional image
JP4695664B2 (ja) * 2008-03-26 2011-06-08 富士フイルム株式会社 立体動画像処理装置および方法並びにプログラム

Also Published As

Publication number Publication date
EP2560399A4 (en) 2013-10-30
CN102835120A (zh) 2012-12-19
WO2011129242A1 (ja) 2011-10-20
BR112012025583A2 (pt) 2016-06-21
US20130038703A1 (en) 2013-02-14
EP2560399A1 (en) 2013-02-20
JP2011223481A (ja) 2011-11-04

Similar Documents

Publication Publication Date Title
US8259162B2 (en) Method and apparatus for generating stereoscopic image data stream for temporally partial three-dimensional (3D) data, and method and apparatus for displaying temporally partial 3D data of stereoscopic image
US10158841B2 (en) Method and device for overlaying 3D graphics over 3D video
US8780173B2 (en) Method and apparatus for reducing fatigue resulting from viewing three-dimensional image display, and method and apparatus for generating data stream of low visual fatigue three-dimensional image
RU2554465C2 (ru) Комбинирование 3d видео и вспомогательных данных
CN102223550B (zh) 图像处理设备、图像处理方法
US9118895B2 (en) Data structure, image processing apparatus, image processing method, and program
JP5483205B2 (ja) メディアデータフィールドと前記メディアデータヘッダーとを分析してビデオを生成するための装置、方法及び記録媒体
KR20130057974A (ko) 데이터 구조, 화상 처리 장치, 화상 처리 방법 및 프로그램
CN102111634A (zh) 图像处理设备和图像处理方法
KR20090037370A (ko) 3차원 영상 시청시 발생하는 피로도 감소 방법 및 장치, 그리고 저피로도 3차원 영상 데이터 스트림 생성 방법 및 장치
US9549167B2 (en) Data structure, image processing apparatus and method, and program
JP2011138354A (ja) 情報処理装置および情報処理方法
US8675050B2 (en) Data structure, recording apparatus and method, playback apparatus and method, and program
WO2013153523A2 (en) Depth signaling data

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid