KR20120102996A - 입체 동영상에서의 입체 컨텐츠 구현시스템 및 방법 - Google Patents

입체 동영상에서의 입체 컨텐츠 구현시스템 및 방법 Download PDF

Info

Publication number
KR20120102996A
KR20120102996A KR1020110020968A KR20110020968A KR20120102996A KR 20120102996 A KR20120102996 A KR 20120102996A KR 1020110020968 A KR1020110020968 A KR 1020110020968A KR 20110020968 A KR20110020968 A KR 20110020968A KR 20120102996 A KR20120102996 A KR 20120102996A
Authority
KR
South Korea
Prior art keywords
content
stereoscopic
information
data
stereoscopic content
Prior art date
Application number
KR1020110020968A
Other languages
English (en)
Inventor
방경란
Original Assignee
방경란
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 방경란 filed Critical 방경란
Priority to KR1020110020968A priority Critical patent/KR20120102996A/ko
Publication of KR20120102996A publication Critical patent/KR20120102996A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

본 발명은 입체 동영상에서의 입체 컨텐츠 구현시스템 및 방법에 관한 것으로, 본 발명에 의하면, 스테레오스코픽이나 다시점 동영상 등을 포함한 입체 컨텐츠가 표시되는 제 1 입체 컨텐츠 레이어와는 별개로 광고물이나 홍보물 등의 부가적인 제 2 입체 컨텐츠를 융합함으로써, 입체 동영상이나 입체 사진 등을 포함하는 원본 컨텐츠에 별도의 처리 없이 동적 또는 정적인 입체 광고를 출력할 수 있는 효과가 있다. 또한, 서버 상에서 제 1, 2 입체 컨텐츠의 융합까지 완료한 하나의 컨텐츠를 재생을 위해 단말기로 전송한 후 단말기에서 출력하거나, 서버 상에서 제 1 및 제 2 입체 컨텐츠 정보와, 제 2 입체 컨텐츠의 표시 영역정보 및 제 2 입체 컨텐츠의 생성정보를 단말기로 전송한 후, 상기 단말기에서 제 1, 2 입체 컨텐츠를 융합한 후 출력함으로써 다양한 방법으로 입체 컨텐츠를 구현할 수 있다. 또한, 제 2 입체 컨텐츠에 대한 센터 포지션의 이동 영역 정보, 시계열적인 좌표변화량 정보, 제 2 입체 컨텐츠의 시차변화정보, 제 2 입체 컨텐츠의 확대/축소 정보 및 제 2 입체 컨텐츠의 회전 정보 중 적어도 하나인 제 2 입체 컨텐츠 생성정보를 통해 입체 컨텐츠의 입체감을 변경할 수 있으며, 사용자가 컨텐츠의 선택이 가능하고, 사용자의 연령, 사용습관, 접속시간, 성별, 직업 등을 고려하여 고객 맞춤형 입체 광고 등을 서비스 가능한 효과가 있다.

Description

입체 동영상에서의 입체 컨텐츠 구현시스템 및 방법{System and Method for Displaying 3D Contents of 3D Moving Picture}
본 발명은 입체 동영상에서의 입체 컨텐츠 구현시스템 및 방법에 관한 것으로, 더욱 상세하게는 광고, 자막 등의 컨텐츠를 스테레오스코픽이나 다시점 동영상 등에 삽입하여 융합하는 입체 동영상에서의 입체 컨텐츠 구현시스템 및 방법에 관한 것이다.
1990년대 중반 이후 평면적인 영상 정보에 깊이 정보를 더하여 입체감을 실생활과 같이 느낄 수 있는 스테레오스코픽(stereoscopic) 디스플레이 시스템이 주목을 받기 시작하였으며, 최근에는 3D TV, 입체영상 게임, 3차원 애니메이션, 입체영상 영화 등 영상 산업 전반에 걸쳐 매우 빠르게 발전하고 있는 실정이다.
최근 들어 배경 동영상에 삽입된 이미지가 실제로 존재하는 것처럼 보이도록 하는 이미지 삽입 합성 기술이 방송 기술 업계에서 많이 사용되고 있다. 스포츠 중계 방송 등에서 존재하지 않는 광고 이미지를 경기장에 실제로 존재하는 것처럼 중계 화면에 삽입하여 시청자들이게 송출하는 가상 광고 시스템을 그 예로 들 수 있다. 이러한 이미지 삽입 합성 기술에서 중요한 것은 배경 동영상에서 같은 위치를 정확하게 추적하는 기술과 해당 위치에 가상 이미지를 사실적으로 합성하는 기술로서, 종래에는 주로 2차원 가상 이미지를 삽입 합성하는 기술이 적용되었다. 이러한 2차원 가상 이미지 삽입 기술은 연속된 프레임 간에 특징점 추출과 추적 과정을 거쳐 이루어지지만, 스테레오스코픽 동영상에서 3차원 가상 이미지를 삽입하는 기술은 현재까지 상용화되지 못하고 있는 실정이다.
일반 동영상뿐만 아니라 입체 동영상 컨텐츠 역시 통신 및 네트워크 기술의 발달에 힘입어 다양한 서비스가 이루어지고 있다. 동영상 서비스를 제공하는 시스템에서는 동영상과 함께, 사용자의 편의를 위하여 텍스트 기반의 자막 파일을 제공하고 있으며, 이러한 자막 파일은 개인용 컴퓨터, PED 등에 탑재된 동영상 플레이어를 통해 미리 저장되어 있는 컨텐츠나 스트리밍 서비스를 이용하여 동영상 컨텐츠를 재생함과 동시에, 자막 파일에 포함된 텍스트 내용을 동영상의 재생 화면상에서 오버레이하여 디스플레이한다. 이때, 사용자의 동영상 시청을 방해하지 않기 위해, 디스플레이되는 텍스트의 배경은 투명 레이어 형태로 실행된다.
이와 같이, 투명 레이어를 이용한 오버레이 기술을 통해 동영상과 관련된 다양한 정보를 제공할 수 있으나, 현재 입체 동영상과 함께 제공되는 오버레이 기술은 자막을 디스플레이하는 기술 외에는 제공되지 않고 있다. 이에 따라, 입체 동영상 위에서 재생되는 투명 레이어를 이용하여, 재생되는 입체 동영상과 관련된 각종 부가 서비스를 입체로 제공하는 기술이 요구되고 있다.
본 발명의 목적은, 스테레오스코픽이나 다시점 동영상 등을 포함한 입체 컨텐츠가 표시되는 제 1 입체 컨텐츠 레이어와는 별개로 광고물이나 홍보물 등의 부가적인 제 2 입체 컨텐츠를 융합함으로써, 입체 동영상이나 입체 사진 등을 포함하는 원본 컨텐츠에 별도의 처리 없이 동적 또는 정적인 입체 광고를 출력할 수 있게 한 입체 동영상에서의 입체 컨텐츠 구현시스템 및 방법을 제공하는 것이다.
또한, 본 발명의 다른 목적은, 서버 상에서 제 1, 2 입체 컨텐츠의 융합까지 완료한 하나의 컨텐츠를 재생을 위해 단말기로 전송한 후 단말기에서 출력하거나, 서버 상에서 제 1 및 제 2 입체 컨텐츠 정보와, 제 2 입체 컨텐츠의 표시 영역정보 및 제 2 입체 컨텐츠의 생성정보를 단말기로 전송한 후, 상기 단말기에서 제 1, 2 입체 컨텐츠를 융합한 후 출력함으로써 다양한 방법으로 입체 컨텐츠를 구현할 수 있게 한 입체 컨텐츠 구현시스템 및 방법을 제공하는 것이다.
또한, 본 발명의 또 다른 목적은, 제 2 입체 컨텐츠에 대한 센터 포지션의 이동 영역 정보, 시계열적인 좌표변화량 정보, 제 2 입체 컨텐츠의 시차변화정보, 제 2 입체 컨텐츠의 확대/축소 정보 및 제 2 입체 컨텐츠의 회전 정보 중 적어도 하나인 제 2 입체 컨텐츠 생성정보를 통해 입체 컨텐츠의 입체감을 변경할 수 있으며, 사용자가 컨텐츠의 선택이 가능하고, 사용자의 연령, 사용습관, 접속시간, 성별, 직업 등을 고려하여 고객 맞춤형 입체 광고 등을 서비스할 수 있게 한 입체 동영상에서의 입체 컨텐츠 구현시스템 및 방법을 제공하는 것이다.
상기한 바와 같은 목적을 달성하기 위한 본 발명의 특징에 따르면, 본 발명은, 제 1 및 제 2 입체 컨텐츠 정보와, 제 2 입체 컨텐츠의 표시 영역정보 및 제 2 입체 컨텐츠의 생성정보가 각각 데이터로 저장되는 데이터 베이스부; 상기 데이터 베이스부에 저장된 데이터 중 특정 데이터의 선택 신호를 입력하는 데이터 입력부; 상기 데이터 입력부를 통해 선택된 특정 데이터가 저장되는 데이터 저장부; 상기 데이터 저장부의 저장 데이터를 통해 상기 제 1 컨텐츠와 상기 제 2 컨텐츠를 하나의 컨텐츠로 융합하는 컨텐츠 융합부; 및 상기 융합된 하나의 컨텐츠 정보를 단말기로 전송하는 컨텐츠 정보 전송부;를 포함하는 입체 동영상에서의 입체 컨텐츠 구현시스템을 통해 달성된다.
또한, 본 발명은, 제 1 및 제 2 입체 컨텐츠 정보와, 제 2 입체 컨텐츠의 표시 영역정보 및 제 2 입체 컨텐츠의 생성정보가 각각 데이터로 저장되는 데이터 베이스부; 상기 데이터 베이스부에 저장된 데이터를 단말기로 전송하는 데이터 전송부; 상기 데이터 전송부에서 전송된 데이터 중 특정 데이터의 선택 신호를 입력하도록 상기 단말기 측에 구비되는 데이터 입력부; 상기 데이터 입력부를 통해 선택된 특정 데이터가 저장되도록 상기 단말기 측에 구비되는 데이터 저장부; 및 상기 데이터 저장부의 저장 데이터를 통해 제1 컨텐츠와 상기 제 2 컨텐츠를 하나의 컨텐츠로 융합하도록 상기 단말기 측에 구비되는 컨텐츠 융합부;를 포함하는 입체 동영상에서의 입체 컨텐츠 구현시스템을 통해 달성된다.
또한, 본 발명은, 제 1 및 제 2 입체 컨텐츠 정보와, 제 2 입체 컨텐츠의 표시 영역정보 및 제 2 입체 컨텐츠의 생성정보에 대한 저장 데이터 중 특정 데이터의 선택 신호를 입력하는 단계; 상기 선택 신호에 따라 해당 데이터가 저장되는 단계; 상기 저장 데이터를 통해 상기 제 1 컨텐츠와 상기 제 2 컨텐츠를 하나의 컨텐츠로 융합하는 단계; 및 상기 융합된 하나의 컨텐츠 정보를 단말기로 전송하는 단계;를 포함하는 입체 동영상에서의 입체 컨텐츠 구현방법을 통해 달성된다.
또한, 본 발명은, 제 1 및 제 2 입체 컨텐츠 정보와, 제 2 입체 컨텐츠의 표시 영역정보 및 제 2 입체 컨텐츠의 생성정보에 대한 저장 데이터를 단말기로 전송하는 단계; 상기 전송된 데이터 중 특정 데이터의 선택 신호를 상기 단말기에서 입력하는 단계; 상기 선택 신호에 따라 선택된 특정 데이터가 상기 단말기에 저장되는 단계; 및 상기 저장 데이터를 통해 제1 컨텐츠와 상기 제 2 컨텐츠를 상기 단말기에서 하나의 컨텐츠로 융합하는 단계;를 포함하는 입체 동영상에서의 입체 컨텐츠 구현방법을 통해 달성된다.
본 발명에 의하면, 스테레오스코픽이나 다시점 동영상 등을 포함한 입체 컨텐츠가 표시되는 제 1 입체 컨텐츠 레이어와는 별개로 광고물이나 홍보물 등의 부가적인 제 2 입체 컨텐츠를 융합함으로써, 입체 동영상이나 입체 사진 등을 포함하는 원본 컨텐츠에 별도의 처리 없이 동적 또는 정적인 입체 광고를 출력할 수 있는 효과가 있다. 또한, 서버 상에서 제 1, 2 입체 컨텐츠의 융합까지 완료한 하나의 컨텐츠를 재생을 위해 단말기로 전송한 후 단말기에서 출력하거나, 서버 상에서 제 1 및 제 2 입체 컨텐츠 정보와, 제 2 입체 컨텐츠의 표시 영역정보 및 제 2 입체 컨텐츠의 생성정보를 단말기로 전송한 후, 상기 단말기에서 제 1, 2 입체 컨텐츠를 융합한 후 출력함으로써 다양한 방법으로 입체 컨텐츠를 구현할 수 있다. 또한, 제 2 입체 컨텐츠에 대한 센터 포지션의 이동 영역 정보, 시계열적인 좌표변화량 정보, 제 2 입체 컨텐츠의 시차변화정보, 제 2 입체 컨텐츠의 확대/축소 정보 및 제 2 입체 컨텐츠의 회전 정보 중 적어도 하나인 제 2 입체 컨텐츠 생성정보를 통해 입체 컨텐츠의 입체감을 변경할 수 있으며, 사용자가 컨텐츠의 선택이 가능하고, 사용자의 연령, 사용습관, 접속시간, 성별, 직업 등을 고려하여 고객 맞춤형 입체 광고 등을 서비스 가능한 효과가 있다.
도 1은 본 발명의 제 1 실시예에 의한 입체 동영상에서의 입체 컨텐츠 구현시스템의 구성이 적용된 개략도이다.
도 2는 본 발명의 제 1 실시예에 의한 입체 동영상에서의 입체 컨텐츠 구현시스템에 의해 동영상과 컨텐츠가 출력되는 PED가 도시된 평면도이다.
도 3 및 도 4는 본 발명의 제 1 실시예에 의한 입체 동영상에서의 입체 컨텐츠 구현시스템에 의해 동영상에 컨텐츠가 출력되기 전, 후의 PED가 도시된 평면도이다.
도 5는 본 발명의 제 1 실시예에 의한 입체 동영상에서의 입체 컨텐츠 구현방법이 도시된 블럭도이다.
도 6은 본 발명의 제 2 실시예에 의한 입체 동영상에서의 입체 컨텐츠 구현시스템의 구성이 적용된 개략도이다.
도 7은 본 발명의 제 2 실시예에 의한 입체 동영상에서의 입체 컨텐츠 구현방법이 도시된 블럭도이다.
본 명세서 및 청구범위에 사용된 용어나 단어는 발명자가 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함" 한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "...부"라는 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.
제 1 실시예
도 1에는 본 발명의 제 1 실시예에 의한 입체 동영상에서의 입체 컨텐츠 구현시스템이 적용된 구성이 개략도로 도시되어 있고, 도 2에는 본 발명의 제 1 실시예에 의한 입체 동영상에서의 입체 컨텐츠 구현시스템에 의해 제 1 입체 컨텐츠와 제 2 입체 컨텐츠가 출력되는 PED가 평면도로 도시되어 있고, 도 3 및 도 4에는 본 발명의 제 1 실시예에 의한 입체 동영상에서의 입체 컨텐츠 구현시스템에 의해 제 1 입체 컨텐츠에 제 2 입체 컨텐츠가 출력되기 전, 후의 PED가 평면도로 도시되어 있다.
이들 도면에 의하면, 제 1 실시예에 의한 입체 동영상에서의 입체 컨텐츠 구현시스템은 단말기, 인터넷망(30)과 유/무선 통신채널(32) 및 서버(40)를 포함한다. 한편, 본 실시예에서는 제 1, 2 입체 컨텐츠가 단말기 중 PED(20)에 출력되는 것으로 예시하며, 상기 단말기에 출력되는 제 1, 2 입체 컨텐츠를 사용자가 별도의 3D 뷰어를 통해 볼 수 있다.
여기서, 단말기는 개인용 컴퓨터(10a), 노트북(10b), IP-TV/3D-TV(10c) 및 휴대용 전자 기기(20, 이하 'PED' 라 함) 중 어느 하나를 포함하도록 구성되고, 서버(40)는 데이터 베이스부(41), 데이터 입력부(50), 데이터 저장부(51), 컨텐츠 융합부(52) 및 컨텐츠 정보 전송부(53)를 포함하도록 구성된다. 이때, 단말기에는 데이터 수신부(60) 및 컨텐츠 출력부(61)를 포함한다.
한편, 도 1에 도시된 바와 같이 입체 동영상에서의 입체 컨텐츠 구현시스템은 개인용 컴퓨터(10a) 또는 노트북(10b) 또는 IP-TV/3D-TV(10c)가 인터넷망(30) 등을 통해 서버(40)와 연결되어 있고, PED(20)가 유/무선 통신채널(32) 등을 통해 서버(40)와 연결되어 있다.
개인용 컴퓨터(10a) 및 노트북(10b)은 동영상을 재생하기 위한 동영상 플레이어를 탑재하고 있으며, 동영상 플레이어를 이용하여 인터넷망(30) 등을 통해 실시간으로 전송되는 동영상 데이터나, 내장형 하드 디스크 또는 외장형 이동식 디스크에 저장된 동영상 데이터를 재생한다. 그리고 개인용 컴퓨터(10a) 및 노트북(10b)은 인터넷망(30) 등을 통하여 컨텐츠 서비스를 제공받는다.
IP-TV(Internet Protocol Television, 10c)는 인터넷을 통해 제공되는 텔레비전 서비스를 말하며, 더욱 상세하게는 인터넷을 이용하여 방송 및 기타 컨텐츠를 텔레비전 수상기로 제공하는 서비스 방식이다.
3D-TV(3-Dimensional Television, 10c)는 기존의 2차원 모노 영상에 깊이 정보(Depth)를 부가하여 시청자가 마치 시청각적 입체감을 느끼게 함으로써 생동감 및 현실감을 제공하는 새로운 개념의 텔레비전 방송이다.
PED(Personal Electronic Device, 20)는 사용자가 소지하고 다닐 수 있는 휴대용 전자 기기로서, 동영상 재생을 위한 동영상 플레이어 등을 탑재한 단말기이다. 또한, PED(20)는 유/무선 통신채널(32)을 통해 동영상을 실시간으로 전송 받거나, 하드 디스크 또는 이동식 디스크에 저장된 동영상 데이터에 대한 레이어 데이터를 전송 받는다. 그리고 제 2 입체 컨텐츠 레이어(22)는 제 1 입체 컨텐츠 레이어(21)의 상부에 위치되는 투명 레이어 층으로, 상기 제 1 입체 컨텐츠 레이어(21)에 재생되는 제 1 입체 컨텐츠 상에 제 2 입체 컨텐츠가 재생되는 레이어 층을 말한다.
특히, 제 1 입체 컨텐츠는 서버(40)의 제 1 입체 컨텐츠 데이터베이스(42)에 저장된 입체 컨텐츠 데이터를 유/무선 통신채널(32)을 통해 전송 받은 후, PED(20) 등의 제 1 입체 컨텐츠 레이어(21) 상에 재생되고, 제 2 입체 컨텐츠는 상기 서버(40)의 제 2 입체 컨텐츠 데이터베이스(43)에 저장된 데이터를 유/무선 통신채널을 통해 전송 받은 후, 상기 PED(20)의 제 2 입체 컨텐츠 레이어(22) 상에 재생된다.
이때, 제 1 입체 컨텐츠 레이어(21)는 도 3을 기준으로 PED(20) 스크린의 좌측(우측)인 제 1 영역이 기준이 되는 레이어이고, 스크린의 우측(좌측)인 제 2 영역이 제 1 입체 컨텐츠 레이어(21)에 표시되는 제 1 입체 컨텐츠의 시차를 통해 동기 또는 비동기 되는 비기준 레이어이다.
서버(40)는 제 1 입체 컨텐츠 데이터베이스(42), 제 2 입체 컨텐츠 데이터베이스(43), 제 2 입체 컨텐츠의 표시 영역정보 데이터베이스(44) 및 제 2 입체 컨텐츠의 생성정보 데이터베이스(45) 등을 포함하는 데이터 베이스부(41) 이외에 데이터 송수신 서버를 더 포함한다. 상기 데이터 송수신 서버는 제 1 입체 컨텐츠 데이터베이스(42)와, 제 2 입체 컨텐츠 데이터베이스(43)와, 제 2 입체 컨텐츠의 표시 영역정보 데이터베이스(44) 및 제 2 입체 컨텐츠의 생성정보 데이터베이스(45)에 각각 저장된 DB를 인터넷망(30)을 통해 개인용 컴퓨터(10a) 또는 노트북(10b) 또는 IP-TV/3D-TV(10c)에 제공하거나, 유/무선 통신채널(32)을 통해 PED(20)에 출력되는 제 1 및 제 2 입체 컨텐츠 레이어(21, 22)에 제 1 및 제 2 입체 컨텐츠 데이터를 제공한다.
이때, 데이터 송수신 서버는 개인용 컴퓨터(10a) 또는 노트북(10b) 또는 IP-TV/3D-TV(10c) 또는 PED(20) 등을 포함하는 단말기에 제 1 및(또는) 제 2 입체 컨텐츠 데이터의 제공 요청이 수신되면, 제 1 및(또는) 제 2 입체 컨텐츠 데이터가 저장되어 있는 제 1 및(또는) 제 2 입체 컨텐츠 데이터베이스(42, 43)로부터 요청된 제 1 및(또는) 제 2 입체 컨텐츠 데이터를 호출한 후, 제 1 및(또는) 제 2 입체 컨텐츠 데이터를 단말기로 전송하거나, 스트리밍 방식을 이용하여 실시간으로 제공하는 역할을 수행한다.
또한, 데이터 송수신 서버는 운영자로부터 입력되는 명령 또는 제 1 입체 컨텐츠의 성격, 장면전환, 내용, 일정한 패턴 등을 고려하여 작성된 시나리오 기반의 배치(batch) 명령에 따라 제 1 입체 컨텐츠 데이터와 제 2 입체 컨텐츠 데이터를 각각 생성하고, 생성된 제 1 입체 컨텐츠 데이터와 제 2 입체 컨텐츠 데이터나 운영자로부터 입력된 제 1 입체 컨텐츠 데이터와 제 2 입체 컨텐츠 데이터를 제 1 입체 컨텐츠 데이터베이스(42)와 제 2 입체 컨텐츠 데이터베이스(43)에 저장시키고 관리하는 역할을 수행한다. 이 밖에도 데이터 송수신 서버는 제 2 입체 컨텐츠의 표시 영역정보 데이터베이스(44)에 저장된 제 2 입체 컨텐츠 표시 영역정보와, 제 2 입체 컨텐츠의 생성정보 데이터베이스(45)에 저장된 제 2 입체 컨텐츠의 생성정보 역시 저장하고 관리하는 역할을 수행한다.
그리고 제 2 입체 컨텐츠의 표시 영역정보 데이터베이스(44)에 저장된 제 2 입체 컨텐츠 표시 영역정보는 제 2 컨텐츠가 이동할 수 있는 제 2 입체 컨텐츠 레이어(22)의 영역에 대한 정보로, 상기 제 2 입체 컨텐츠 레이어(22)의 영역 면적이 제 1 입체 컨텐츠 레이어(21)와 동일하거나 상기 제 1 입체 컨텐츠 레이어(21)보다 더 작게 형성될 수 있다.
제 2 입체 컨텐츠의 생성정보는 제 2 입체 컨텐츠의 생성정보 데이터베이스(45)에 저장되어 제 2 입체 컨텐츠가 제 2 입체 컨텐츠 생성정보에 따라 제 2 입체 컨텐츠 레이어(22)에 생성되는 정보를 말하며, 제 2 입체 컨텐츠에 대한 센터 포지션(Center Position)의 이동 영역 정보, 시계열적인 좌표변화량 정보, 제 2 입체 컨텐츠의 시차 변화정보, 제 2 입체 컨텐츠의 확대/축소 정보 및 제 2 입체 컨텐츠의 회전 정보 중 적어도 하나인 전역 시차 정보(Global Disparity Information)를 말한다. 결국, 제 2 입체 컨텐츠의 생성정보에서의 생성정보인 전역 시차 정보를 통해 제 1 입체 컨텐츠와의 시차 동기화 시 제 2 입체 컨텐츠의 시차 변화 정보를 인지할 수 있다.
이때, 제 2 입체 컨텐츠를 생성하기 위해 기준이 되는 제 1 입체 컨텐츠의 시차는 제 1 입체 컨텐츠 데이터베이스(42)에 미리 설정되어 있거나, 저장 또는 새로 저장되는 컨텐츠를 로딩하는 과정에서 서버(40)의 특정 알고리즘(프로그램)을 통해 출력 영역에 대한 시차를 각 시간대 별로 계산한 후 반영할 수 있다. 여기서, 제 1 입체 컨텐츠는 원본 컨텐츠라고도 말하며, 스테레오스코픽이나 다시점 등을 포함하는 동영상 또는 정지영상 컨텐츠이고, 제 2 입체 컨텐츠는 광고 또는 자막 또는 메뉴창 등과 같은 부가정보에 대한 동영상, 정지영상, 로고, 문양, 문자, 윈도우 등을 포함한 컨텐츠 중 적어도 어느 하나를 적용하거나 둘 이상을 복합적으로 적용할 수 있다.
그리고 제 2 입체 컨텐츠의 생성정보는 제 1 입체 컨텐츠 레이어(21)에 표시된 제 1 입체 컨텐츠의 시차에 동기 또는 비동기 되어 제 2 입체 컨텐츠 레이어(21) 상에 제 2 입체 컨텐츠의 생성 위치 또는 투명도 등을 고려한다.
여기서, 시차 동기라 함은 제 2 입체 컨텐츠 레이어(22)의 표시 영역에 생성되는 부가정보 등을 포함한 제 2 입체 컨텐츠의 시차 변화가 제 1 입체 컨텐츠의 시차에 대응됨을 말하고, 시차 비동기라 함은 제 2 입체 컨텐츠 레이어(22)의 표시 영역 또는 상기 제 2 입체 컨텐츠 레이어(22)의 표시 영역 외에 생성되는 자막 등을 포함한 제 2 입체 컨텐츠의 시차 변화가 제 1 입체 컨텐츠의 시차에 대응되지 않음을 말한다. 이때, 상기 부가정보 등은 동기 컨텐츠라 하고, 상기 자막 등은 비동기 컨텐츠라 한다.
제 2 입체 컨텐츠에 대한 센터 포지션(Center Position)의 이동 영역 정보는 제 1 입체 컨텐츠의 시차에 따라 제 2 입체 컨텐츠의 센터 포지션이 움직일 수 있는 영역에 대한 DB이다. 특히, 상기 제 2 입체 컨텐츠에 대한 센터 포지션의 이동 영역 정보는 제 1 입체 컨텐츠 레이어(21)의 제 1 영역에서 절대 좌표로 표시되는 센터 포지션(P1)을 기준으로 제 1 입체 컨텐츠의 시차에 따라 설정된 제 2 영역의 시차 좌표에 제 2 입체 컨텐츠 레이어(22)의 센터 포지션(P2)이 설정되게 하므로, 제 1 입체 컨텐츠 레이어(21)의 제 2 영역에서 출력되는 제 1 입체 컨텐츠의 시간 정보와 입체 컨텐츠 출력 영역에 대한 시차 정보(l1, l2)를 통해 제 2 입체 컨텐츠 레이어(22)를 생성시켜 결론적으로 제 2 입체 컨텐츠를 생성시키는 것이다. 여기서, 제 2 입체 컨텐츠에 대한 시차(disparity, 시차=l2-l1)는 제 2 입체 컨텐츠의 출력 영역에 대한 시차 정보(l1, l2)를 통해 알 수 있으며, 시차가 크면 클수록 입체 효과가 상승된다.
더욱이, 제 2 입체 컨텐츠에 대한 센터 포지션의 이동 영역 정보는 제 1 입체 컨텐츠가 표시되는 제 1 입체 컨텐츠 레이어(21) 상에 후술할 컨텐츠 정보 입력부(41a)에서 입력된 후, 선택 및 인식된 제 2 입체 컨텐츠가 표시되는 제 2 입체 컨텐츠 레이어(22)의 표시 영역 즉, 좌표값에 대한 정보도 포함된다.
제 2 입체 컨텐츠의 시계열적인 좌표변화량 정보는 설정 좌표(예를 들어, 절대 좌표 또는 상대 좌표)의 시계열(time series)적 순서에 따라 좌표에 대한 변화량을 이용하여 제 2 입체 컨텐츠를 생성하기 위한 DB이다. 이때, 제 2 입체 컨텐츠의 좌표 변화량에 따라 상기 제 2 입체 컨텐츠의 동선을 알 수 있다.
제 2 입체 컨텐츠의 시차 변화정보는 제 1 입체 컨텐츠 레이어(21)의 제 2 영역에 대한 시차 설정시 시차 범위 및 시차 시간 등을 설정할 수 있으며, 이 경우, 제 1 입체 컨텐츠 레이어(21)의 제 2 영역에서 센터 포지션(P2) 주변에 대한 시차 예측 및 사전에 입력된 최소/최대 시차를 고려하여 제 2 입체 컨텐츠의 시차를 바꿔줌으로써 입체감 변경이 가능한 DB이다. 이와 같이 제 2 입체 컨텐츠의 시차 부여시 광고 등이 포함되는 컨텐츠 유효 영역 내에서 이동할 수 있도록 상대 좌표를 이용할 수 있으며, 광고 유효 영역 내의 제1 입체 컨텐츠 시차를 고려하여 제 2 입체 컨텐츠의 시차 또한 바뀜으로써 광고 효과를 극대화할 수 있다.
제 2 입체 컨텐츠의 확대/축소 정보는 제 2 입체 컨텐츠의 출력 영역에 대한 시차 정보(l1, l2)를 통해 제 2 입체 컨텐츠를 줌 인(Zoom-in) 또는 줌 아웃(Zoom-out)을 실현시키기 위한 DB 이다. 이때, 제 2 입체 컨텐츠에 대한 시차는 상술한 바와 같이 제 2 입체 컨텐츠의 출력 영역에 대한 시차 정보(l1, l2)를 통해 시차가 크면 클수록 입체 효과가 상승됨을 알 수 있으므로 시차값에 따라 출력 사이즈의 조절이 가능하다. 특히, 제 2 입체 컨텐츠의 출력 사이즈 조절시, 시차와 함께 제 2 입체 컨텐츠의 출력 사이즈 역시 커져야 상기 제 2 입체 컨텐츠가 줌 인 되고, 그에 따라 입체 효과가 상승하는 것이다.
제 2 입체 컨텐츠의 회전 정보는 제 2 입체 컨텐츠에 대한 센터 포지션(Center Position)을 기점으로 하여 시계 방향 또는 반시계 방향으로 설정 각도만큼 회전시키는 DB이다.
이때, 제 2 입체 컨텐츠의 회전 기점이 센터 포지션이면, 상기 센터 포지션은 절대 좌표이고, 상기 제 2 입체 컨텐츠의 회전 기점이 센터 포지션이 아니면, 상기 센터 포지션은 상대 좌표인 것이 바람직하다.
서버(40)에는 도면에 도시하지 않았지만 제 2 입체 컨텐츠의 표시 영역정보 데이터베이스(44)와 연계되는 입체효과 스케줄링부를 포함할 수 있다. 여기서, 입체효과 스케줄링부는 제 1 입체 컨텐츠와 시차 동기 또는 제 1 입체 컨텐츠와 시차 비동기 되는 제 2 입체 컨텐츠의 스케줄링을 실시하는 기능을 한다. 이를 더욱더 상세히 설명하면, 일정 시간 동안 제 2 입체 컨텐츠 레이어(22)의 전체 위치 또는 일부 위치를 이동시키거나, 제 2 입체 컨텐츠를 깜빡이게 하거나, 상기 제 2 입체 컨텐츠 레이어(22)를 회전시키거나 상기 제 2 입체 컨텐츠 레이어(22)에 표시되는 제 2 입체 컨텐츠의 전역 시차 변화 등을 통해 입체감을 변경할 수 있는 것이다. 결국, 입체효과 스케줄링부는 서버(40)의 제 2 입체 컨텐츠 데이터베이스(43)에서 제 2 입체 컨텐츠의 센터 포지션(P2) 위치를 고정하거나 위치 이동 여부를 선택하게 하고, 제 2 입체 컨텐츠의 표시 조건을 선택할 수 있다. 이때, 제 2 입체 컨텐츠의 표시 조건은 컨텐츠 사용자(viewer)의 연령, 사용습관, 접속시간, 성별, 직업 등을 고려한 고객 맞춤형 입체 광고 등의 용도로 컨텐츠를 선택할 수 있다. 이는 제 2 입체 컨텐츠를 사용하기 위해 필요한 가입 당시의 회원정보나 소셜 네트워크 분석(Social Network Analysis, SNA) 등을 통해 고객 정보를 수집하는 것이다.
나아가서, 입체효과 스케줄링부는 유/무선 통신채널(32) 등을 통해 서버(40)의 제 2 입체 컨텐츠 데이터베이스(43)에서 제 2 입체 컨텐츠의 종류를 선택하거나 제 2 입체 컨텐츠를 제거 또는 교체가 가능하고, 상기 컨텐츠의 센터 포지션(P2)의 표시 위치를 고정하게 하거나 이동 여부 등을 제어하면서 제 1 입체 컨텐츠 레이어(21)의 제 1 및 제 2 영역에서 각각 출력되는 제 1 입체 컨텐츠의 시차에 대한 시간정보를 공유하게 한다.
특히, 단말기는 인터넷망(30) 또는 유/무선 통신채널(32) 등을 통해 서버(40)의 제 1 입체 컨텐츠 데이터베이스(42)와 제 2 입체 컨텐츠 데이터베이스(43)에 연계될 수 있으므로 각각 개인용 컴퓨터(10a) 또는 노트북(10b) 또는 IP-TV/3D-TV(10c) 또는 PED(20)에서 제 1 입체 컨텐츠와 제 2 입체 컨텐츠를 각각 전송 받은 후 로딩(loading)시킬 수 있는 것이다.
한편, 서버(40)에는 컨텐츠 정보 입력부(41a)가 더 구비될 수 있다, 상기 컨텐츠 정보 입력부(41a)는 2차원인 웹(web) 상에서 구현되어 제 2 입체 컨텐츠의 데이터 정보가 코드 등으로 입력되도록 PED(20)에 구비되며, 웹 서핑(Web surfing) 등과 같은 온 라인(On-line) 또는 오프 라인(Off-line)에서 사용자가 해당 제 2 입체 컨텐츠를 선택할 수 있도록 상기 제 2 입체 컨텐츠의 관련 정보가 바코드(bar code) 또는 QR 코드(Quick Respose code) 또는 고객 맞춤형 입체 광고 등으로 표시된다. 이때, 컨텐츠 정보 입력부(41a)에 대한 표시 코드는 각각의 제 2 입체 컨텐츠마다 미리 설정하여 코드화하는 것이 바람직하다.
더욱이, 컨텐츠 정보 입력부(41a)는 컨텐츠 정보 입력부(41a)에 입력된 제 2 입체 컨텐츠의 정보를 인식하여 상기 제 2 입체 컨텐츠의 정보가 출력될 메뉴창 등과 같은 부가정보가 부가정보 레이어(도면에 미도시)에서 활성화될 수 있도록 한다. 이때, 제 2 입체 컨텐츠의 정보에 대한 부가정보는 제 2 입체 컨텐츠의 영역 내에 표시되거나 상기 제 2 입체 컨텐츠 영역 외에 표시될 수 있다. 그리고 부가정보 레이어는 제 1 입체 컨텐츠 레이어(21)의 상부에 위치되는 투명 레이어(layer) 층으로 제 2 입체 컨텐츠의 부가정보가 재생되는 레이어 층을 말한다.
그리고 서버(40)에는 데이터 입력부(50), 데이터 저장부(51), 컨텐츠 융합부(52) 및 컨텐츠 정보 전송부(53)가 포함된다.
데이터 입력부(50)는 데이터 베이스부(41)에 저장된 제 1 입체 컨텐츠 정보와, 제 2 입체 컨텐츠 정보와, 제 2 입체 컨텐츠의 표시 영역정보 및 제 2 입체 컨텐츠의 생성정보 데이터 중 적어도 하나의 특정 데이터에 대한 선택 신호를 사용자가 입력한다.
데이터 저장부(51)는 데이터 입력부(50)를 통해 선택된 특정 데이터가 저장되는 매체로, 일 예로 램(RAM) 등과 같은 저장 매체가 적용될 수 있다.
컨텐츠 융합부(52)는 데이터 저장부(51)에 사용자로부터 저장된 제 1 입체 컨텐츠 정보와, 제 2 입체 컨텐츠 정보와, 제 2 입체 컨텐츠의 표시 영역정보 및 제 2 입체 컨텐츠의 생성정보 데이터 중 적어도 하나의 특정 데이터를 통해 컨텐츠 사용자가 입체 컨텐츠를 선택 및 볼 수 있도록 제 1 입체 컨텐츠 레이어(21)의 제 1 입체 컨텐츠에 제 2 입체 컨텐츠 레이어(22)의 제 2 입체 컨텐츠를 하나의 컨텐츠 즉, 단일 컨텐츠로 융합한다. 특히, 컨텐츠 융합부(52)는 제 1 및 제 2 입체 컨텐츠를 하나의 파일(file)로 생성시키도록 컨텐츠를 융합하는 것이다.
특히, 컨텐츠 융합부(52)에는 서버(40)에서 유무선 통신채널(32) 등을 통해 전송 받은 제 1 입체 컨텐츠 및(또는) 제 2 입체 컨텐츠를 제거 또는 교체가 가능하며, 이는 제 1 입체 컨텐츠 레이어(21)와 제 2 입체 컨텐츠 레이어(22)의 융합 후에 요금부과나 타 컨텐츠의 사용 등과 같은 컨텐츠 사용자의 요청에 의해 컨텐츠를 제거 또는 교체하는 것이다.
컨텐츠 정보 전송부(53)는 제 1 입체 컨텐츠 정보와, 제 2 입체 컨텐츠 정보와, 제 2 입체 컨텐츠의 표시 영역정보 및 제 2 입체 컨텐츠의 생성정보 데이터 중 적어도 하나의 특정 데이터 또는 컨텐츠 융합부(52)에서 융합이 완료된 제 1, 2 입체 컨텐츠 레이어(21, 22)의 제 1, 2 입체 컨텐츠 융합에 대한 정보를 PED(20) 단말기에서 재생하도록 PED(20) 단말기의 데이터 수신부(60)로 전송한다.
즉, 컨텐츠 정보 전송부(53)는 서버(40)에서 제 1 입체 컨텐츠 정보와, 제 2 입체 컨텐츠 정보와, 제 2 입체 컨텐츠의 표시 영역정보 및 제 2 입체 컨텐츠의 생성정보 데이터 중 적어도 하나의 특정 데이터를 PED(20) 단말기로 전송하여 서버(40)에서 입체효과 스케줄링부에 의한 레이어 스케줄링과 기타 레이어 제어까지 모두 처리하고, 상기 PED(20) 단말기에서는 컨텐츠 출력부(61)를 통해 단순히 재생만 하는 역할을 하게 한다.
도 5에는 본 발명의 제 1 실시예에 의한 입체 동영상에서의 입체 컨텐츠 구현 방법이 블럭도로 도시되어 있다.
이들 도면에 의하면, 본 발명에 의한 스테레오스코픽 동영상에서의 컨텐츠 입체 구현방법은 도 1 내지 도 5에 도시된 바와 같이 데이터 저장 단계(S100), 데이터 선택 신호 입력 단계(S110), 데이터 저장 단계(S120), 컨텐츠 융합 단계(S130), 컨텐츠 정보 전송 단계(S140), 데이터 수신 단계(S150) 및 컨텐츠 출력 단계(S160)를 포함한다. 이때, 상기 데이터 저장 단계(S100), 데이터 선택 신호 입력 단계(S110), 데이터 저장 단계(S120), 컨텐츠 융합 단계(S130), 컨텐츠 정보 전송 단계(S140)는 서버(40) 상에서 구현되고, 상기 데이터 수신 단계(S150) 및 컨텐츠 출력 단계(S160)는 PED(20) 단말기 상에서 구현된다.
데이터 저장 단계(S100)는 제 1 입체 컨텐츠 정보와, 제 2 입체 컨텐츠 정보와, 제 2 입체 컨텐츠의 표시 영역정보 및 제 2 입체 컨텐츠의 생성정보에 대한 데이터를 서버(40)의 데이터 베이스부(41)에 저장하는 단계이다. 즉, 제 1 입체 컨텐츠 정보에 대한 데이터가 제 1 입체 컨텐츠 데이터베이스(42)에 저장되고, 제 2 입체 컨텐츠 정보에 대한 데이터가 제 2 입체 컨텐츠 데이터베이스(43)에 저장되고, 제 2 입체 컨텐츠의 표시 영역정보에 대한 데이터가 제 2 입체 컨텐츠의 표시 영역정보 데이터베이스(44)에 저장되며, 제 2 입체 컨텐츠의 생성정보에 대한 데이터가 제 2 입체 컨텐츠의 생성정보 데이터베이스(45)에 저장될 수 있도록 제 1 입체 컨텐츠 데이터베이스(42)와, 제 2 입체 컨텐츠 데이터베이스(43)와, 제 2 입체 컨텐츠의 표시 영역정보 데이터베이스(44) 및 제 2 입체 컨텐츠의 생성정보 데이터베이스(45)가 데이터 베이스부(41)에 저장된다.
이때, 서버(40)에는 제 1 입체 컨텐츠 데이터베이스(42), 제 2 입체 컨텐츠 데이터베이스(43), 제 2 입체 컨텐츠의 표시 영역정보 데이터베이스(44) 및 제 2 입체 컨텐츠의 생성정보 데이터베이스(45) 등을 포함하는 데이터 베이스부(41) 이외에 데이터 송수신 서버를 더 포함한다. 그리고 상기 데이터 송수신 서버 그리고 데이터 저장 단계(S100)에서의 제 1 입체 컨텐츠 정보와, 제 2 입체 컨텐츠 정보와, 제 2 입체 컨텐츠의 표시 영역정보 및 제 2 입체 컨텐츠의 생성정보에 대한 데이터는 앞선 시스템의 그것과 동일한 구조와 기능을 하므로 상세한 설명은 생략한다.
더욱이, 제 2 입체 컨텐츠 생성시 제 1 입체 컨텐츠 레이어(21) 상에 설정된 제 2 입체 컨텐츠 레이어(22)의 표시 영역에 제 2 입체 컨텐츠를 생성시키며, 이 과정에서 제 1 입체 컨텐츠 레이어(21)에 표시된 제 1 입체 컨텐츠의 시차에 동기 또는 비동기 되어 제 2 입체 컨텐츠 레이어(21)에 제 2 입체 컨텐츠를 생성시키게 된다.
특히, 제 1 입체 컨텐츠의 시차는 제 1 입체 컨텐츠 데이터베이스(42)에 미리 설정되어 있거나 저장 또는 새로 저장되는 컨텐츠를 로딩하는 과정에서 서버(40)의 특정 알고리즘을 통해 출력 영역에 대한 시차를 각 시간대 별로 계산한 후 반영할 수 있다.
즉, 제 2 입체 컨텐츠 생성시 제 1 입체 컨텐츠 레이어(21)의 제 1 영역에서 절대 좌표로 표시되는 센터 포지션(P1)을 기준으로 제 1 입체 컨텐츠의 시차에 따라 설정된 제 2 영역의 시차 좌표에 제 2 입체 컨텐츠 레이어(22)의 센터 포지션(P2)이 설정되게 하므로, 제 1 입체 컨텐츠 레이어(21)의 제 2 영역에서 출력되는 제 1 입체 컨텐츠의 시간 정보와 입체 컨텐츠 출력 영역에 대한 시차 정보(l1, l2)를 통해 제 2 입체 컨텐츠 레이어(22)를 생성시켜 최종적으로 제 2 입체 컨텐츠를 생성시킨다.
또한, 제 2 입체 컨텐츠 생성시 제 1 입체 컨텐츠 레이어(21)의 제 2 영역에 대한 시차 설정시 시차 범위 및 시차 시간 등을 설정할 수 있으며, 이 경우, 제 1 입체 컨텐츠 레이어(21)의 제 2 영역에서 센터 포지션(P2) 주변에 대한 시차 예측 및 사전에 입력된 최소/최대 시차를 고려하여 제 2 입체 컨텐츠의 시차를 바꿔줌으로써, 입체감의 변경이 가능하다. 이와 같이 제 2 입체 컨텐츠의 시차 부여에 따른 효과는 앞선 시스템에서의 설명과 동일하므로 상세한 설명은 생략한다.
그리고 데이터 저장 단계(S100)는 도면에 도시하지 않았지만 입체효과 스케줄링 단계를 포함할 수 있으며, 상기 입체효과 스케줄링 단계는 앞선 입체효과 스케줄링부의 기능과 중복되므로 상세한 설명은 생략한다.
데이터 선택 신호 입력 단계(S110)는 제 1 입체 컨텐츠 정보와, 제 2 입체 컨텐츠 정보와, 제 2 입체 컨텐츠의 표시 영역정보 및 제 2 입체 컨텐츠의 생성정보에 대한 저장 데이터 중 특정 데이터의 선택 신호를 입력하는 단계이다.
즉, 상기 데이터 선택 신호 입력 단계(S110)는 데이터 베이스부(41)에 저장된 제 1 입체 컨텐츠 정보와, 제 2 입체 컨텐츠 정보와, 제 2 입체 컨텐츠의 표시 영역정보 및 제 2 입체 컨텐츠의 생성정보 데이터 중 적어도 하나의 특정 데이터에 대한 선택 신호를 데이터 입력부(50)를 통해 사용자가 입력하는 단계이다.
한편, 상기 데이터 선택 신호 입력 단계(S110)에 컨텐츠 정보 입력 단계가 더 수행될 수 있다, 상기 컨텐츠 정보 입력 단계는 2차원인 웹(web) 상에서 구현되어 제 2 입체 컨텐츠의 데이터 정보가 코드 등으로 입력되는 단계이며, 웹 서핑(Web surfing) 등의 과정에서 사용자가 해당 제 2 입체 컨텐츠를 온 라인 또는 오프 라인에서 선택할 수 있도록 상기 제 2 입체 컨텐츠의 관련 정보가 바코드(bar code) 또는 QR 코드(Quick Respose code) 또는 고객 맞춤형 입체 광고 등으로 표시된다. 이때, 컨텐츠 정보 입력 단계에 대한 표시 코드는 각각의 제 2 입체 컨텐츠마다 미리 설정하여 코드화하는 것이 바람직하다.
더욱이, 컨텐츠 정보 입력 단계는 컨텐츠 정보 입력부(41a)에 입력된 제 2 입체 컨텐츠의 정보를 인식하여 상기 제 2 입체 컨텐츠의 정보가 출력될 메뉴창 등과 같은 부가정보가 부가정보 레이어에서 활성화될 수 있도록 한다. 이때, 제 2 입체 컨텐츠의 정보에 대한 부가정보는 제 2 입체 컨텐츠의 영역 내에 표시되거나 상기 제 2 입체 컨텐츠 영역 외에 표시될 수 있다. 그리고 부가정보 레이어는 제 1 입체 컨텐츠 레이어(21)의 상부에 위치되는 투명 레이어(layer) 층으로 제 2 입체 컨텐츠의 부가정보가 재생되는 레이어 층을 말한다.
데이터 저장 단계(S120)는 데이터 선택 신호 입력 단계(S110)에서 입력한 제 1 입체 컨텐츠 정보와, 제 2 입체 컨텐츠 정보와, 제 2 입체 컨텐츠의 표시 영역정보 및 제 2 입체 컨텐츠의 생성정보 데이터 중 적어도 하나의 특정 데이터의 선택 신호에 따라 해당 데이터가 저장되는 단계이다.
즉, 상기 데이터 저장 단계(S120)는 데이터 입력부(50)를 통해 선택된 특정 데이터가 데이터 저장부(51)에 저장되는 단계로, 일 예로 램(Ram) 등과 같은 저장 매체가 적용될 수 있다.
컨텐츠 융합 단계(S130)는 데이터 저장부(51)에 사용자로부터 저장된 제 1 입체 컨텐츠 정보와, 제 2 입체 컨텐츠 정보와, 제 2 입체 컨텐츠의 표시 영역정보 및 제 2 입체 컨텐츠의 생성정보 데이터 중 적어도 하나의 특정 데이터를 통해 컨텐츠 사용자가 입체 컨텐츠를 선택 및 볼 수 있도록 제 1 입체 컨텐츠 레이어(21)의 제 1 입체 컨텐츠에 제 2 입체 컨텐츠 레이어(22)의 제 2 입체 컨텐츠를 하나의 컨텐츠 즉, 단일 컨텐츠로 융합하는 단계이다. 특히, 컨텐츠 융합부(52)는 제 1 및 제 2 입체 컨텐츠를 하나의 파일(file)로 생성시키도록 컨텐츠를 융합하는 것이다.
특히, 컨텐츠 융합 단계(S130)에는 서버(40)에서 유무선 통신채널(32) 등을 통해 전송 받은 제 1 입체 컨텐츠 및(또는) 제 2 입체 컨텐츠를 제거 또는 교체하는 컨텐츠 제거/교체 단계가 수행될 수 있으며, 상기 컨텐츠 제거/교체 단계는 제 1 입체 컨텐츠 레이어(21)와 제 2 입체 컨텐츠 레이어(22)의 융합 후에 요금부과나 타 컨텐츠의 사용 등과 같은 컨텐츠 사용자의 요청에 의해 컨텐츠를 제거 또는 교체하는 것이다.
컨텐츠 정보 전송 단계(S140)는 제 1 입체 컨텐츠 정보와, 제 2 입체 컨텐츠 정보와, 제 2 입체 컨텐츠의 표시 영역정보 및 제 2 입체 컨텐츠의 생성정보 데이터 중 적어도 하나의 특정 데이터 또는 컨텐츠 융합부(52)에서 최종적으로 융합이 완료된 제 1, 2 입체 컨텐츠 레이어(21, 22)의 제 1, 2 입체 컨텐츠 융합에 대한 정보를 PED(20) 단말기에서 재생하도록 PED(20) 단말기의 데이터 수신부(60)로 전송하는 단계이다.
즉, 컨텐츠 정보 전송 단계(S140)는 서버(40)에서 제 1 입체 컨텐츠 정보와, 제 2 입체 컨텐츠 정보와, 제 2 입체 컨텐츠의 표시 영역정보 및 제 2 입체 컨텐츠의 생성정보 데이터 중 적어도 하나의 특정 데이터를 PED(20) 단말기로 전송하여 서버(40)에서 입체효과 스케줄링단계에 의한 레이어 스케줄링과 기타 레이어 제어까지 모두 처리하고, 상기 PED(20) 단말기에서는 컨텐츠 출력부(61)를 통해 단순히 재생만 하는 역할을 하게 한다.
데이터 수신 단계(S150)는 컨텐츠 정보 전송 단계(S140)에서 서버(40)를 통해 제 1 입체 컨텐츠 정보와, 제 2 입체 컨텐츠 정보와, 제 2 입체 컨텐츠의 표시 영역정보 및 제 2 입체 컨텐츠의 생성정보 데이터 중 적어도 하나의 특정 데이터를 PED(20) 단말기로 수신하는 단계로, 서버(40)에서 입체효과 스케줄링단계에 의한 레이어 스케줄링과 기타 레이어 제어까지 모두 처리한 특정 데이터를 수신하게 된다.
컨텐츠 출력 단계(S160)는 데이터 수신 단계(S150) 수행 후에 제 1 및 제 2 입체 컨텐츠를 융합까지 완료하여 얻은 데이터를 데이터 수신 단계(S150)에서 수신한 후, 상기 PED(20) 단말기에서는 단일 컨텐츠를 단순히 재생만 하는 단계이다. 이때, 컨텐츠 출력 단계(S160)는 수행시 사용자가 별도의 3D 뷰어를 통해 볼 수 있다.
제 2 실시예
도 6에는 본 발명의 제 2 실시예에 의한 입체 동영상에서의 입체 컨텐츠 구현시스템이 적용된 구성이 개략도로 도시되어 있다.
이들 도면에 의하면, 제 2 실시예에 의한 입체 동영상에서의 입체 컨텐츠 구현시스템은 단말기, 인터넷망(30)과 유/무선 통신채널(32) 및 서버(40)를 포함하며, 상기 단말기 및 인터넷망(30)과 유/무선 통신채널(32)은 앞선 제 1 실시예의 그것과 동일한 구조와 기능을 하므로 상세한 설명은 생략한다. 한편, 본 실시예에서는 제 1, 2 입체 컨텐츠가 단말기 중 PED(20)에 출력되는 것으로 예시하며, 상기 단말기에 출력되는 제 1, 2 입체 컨텐츠를 사용자가 별도의 3D 뷰어를 통해 볼 수 있다.
여기서, 단말기는 개인용 컴퓨터(10a), 노트북(10b), IP-TV/3D-TV(10c) 및 PED(20) 중 어느 하나를 포함하도록 구성되고, 서버(40)는 데이터 베이스부(41) 및 컨텐츠 정보 전송부(54)를 포함하도록 구성된다. 이때, 단말기에는 제 1 실시예와는 다르게 데이터 수신부(60), 데이터 입력부(61), 데이터 저장부(62), 컨텐츠 융합부(63) 및 컨텐츠 출력부(64)를 포함한다. 특히, PED(20)는 유/무선 통신채널(32)을 통해 동영상을 실시간으로 전송받거나, 하드 디스크 또는 이동식 디스크에 저장된 동영상 데이터에 대한 레이어 데이터를 전송 받는다. 그리고 제 2 입체 컨텐츠 레이어(22)는 제 1 입체 컨텐츠 레이어(21)의 상부에 위치되는 투명 레이어 층으로, 상기 제 1 입체 컨텐츠 레이어(21)에 재생되는 제 1 입체 컨텐츠 상에 제 2 입체 컨텐츠가 재생되는 레이어 층을 말한다.
특히, 제 1 입체 컨텐츠는 서버(40)의 제 1 입체 컨텐츠 데이터베이스(42)에 저장된 입체 컨텐츠 데이터를 유/무선 통신채널(32)을 통해 전송 받은 후, PED(20) 등의 제 1 입체 컨텐츠 레이어(21) 상에 재생되고, 제 2 입체 컨텐츠는 상기 서버(40)의 제 2 입체 컨텐츠 데이터베이스(43)에 저장된 데이터를 유/무선 통신채널을 통해 전송 받은 후, 상기 PED(20)의 제 2 입체 컨텐츠 레이어(22) 상에 재생된다.
데이터 수신부(60)는 데이터 전송부(50)에서 전송한 제 1 입체 컨텐츠 데이터베이스(42)와, 제 2 입체 컨텐츠 데이터베이스(43)와, 제 2 입체 컨텐츠의 표시 영역정보 데이터베이스(44) 및 제 2 입체 컨텐츠의 생성정보 데이터베이스(45)에 각각 저장된 DB를 수신하는 기능을 한다.
데이터 입력부(61)는 데이터 수신부(60)를 통해 수신된 제 1 입체 컨텐츠 정보와, 제 2 입체 컨텐츠 정보와, 제 2 입체 컨텐츠의 표시 영역정보 및 제 2 입체 컨텐츠의 생성정보 데이터 중 적어도 하나의 특정 데이터에 대한 선택 신호를 사용자가 입력한다.
데이터 저장부(62)는 데이터 입력부(61)를 통해 선택된 특정 데이터가 저장되는 매체로, 일 예로 램(Ram) 등과 같은 저장 매체가 적용될 수 있다.
컨텐츠 융합부(63)는 데이터 저장부(62)에 사용자로부터 저장된 제 1 입체 컨텐츠 정보와, 제 2 입체 컨텐츠 정보와, 제 2 입체 컨텐츠의 표시 영역정보 및 제 2 입체 컨텐츠의 생성정보 데이터 중 적어도 하나의 특정 데이터를 통해 컨텐츠 사용자가 입체 컨텐츠를 선택 및 볼 수 있도록 제 1 입체 컨텐츠 레이어(21)의 제 1 입체 컨텐츠에 제 2 입체 컨텐츠 레이어(22)의 제 2 입체 컨텐츠를 하나의 컨텐츠 즉, 단일 컨텐츠로 융합한다. 특히, 컨텐츠 융합부(63)는 제 1, 2 입체 컨텐츠를 하나의 파일(file)로 생성시키도록 컨텐츠를 융합하는 것이다.
특히, 컨텐츠 융합부(63)에는 서버(40)에서 유무선 통신채널(32) 등을 통해 전송 받은 제 1 입체 컨텐츠 및(또는) 제 2 입체 컨텐츠를 제거 또는 교체가 가능하며, 이는 제 1 입체 컨텐츠 레이어(21)와 제 2 입체 컨텐츠 레이어(22)의 융합 후에 요금부과나 타 컨텐츠의 사용 등과 같은 컨텐츠 사용자의 요청에 의해 컨텐츠를 제거 또는 교체하는 것이다.
컨텐츠 출력부(64)는 컨텐츠 융합부(63)에서 제 1 및 제 2 입체 컨텐츠를 융합까지 완료한 후 얻은 데이터를 입체효과 스케줄링부에 의한 레이어 스케줄링과 기타 레이어 제어까지 모두 처리하고, PED(20) 단말기에서 단일 컨텐츠를 재생하는 역할을 한다.
서버(40)는 제 1 입체 컨텐츠 데이터베이스(42), 제 2 입체 컨텐츠 데이터베이스(43), 제 2 입체 컨텐츠의 표시 영역정보 데이터베이스(44) 및 제 2 입체 컨텐츠의 생성정보 데이터베이스(45) 등을 포함하는 데이터 베이스부(41)와 데이터 전송부(50) 이외에 데이터 송수신 서버를 더 포함한다. 이때, 상기 데이터 베이스부(41) 및 데이터 송수신 서버는 제 1 실시예의 그것과 동일한 기능을 하므로 상세한 설명은 생략한다.
그리고 상기 서버(40)에는 도면에 도시하지 않았지만 제 2 입체 컨텐츠의 표시 영역정보 데이터베이스(44)와 연계되는 입체효과 스케줄링부와 컨텐츠 정보 입력부(41a)가 더 구비될 수 있으며, 상기 입체효과 스케줄링부와 컨텐츠 정보 입력부(41a)는 제 1 실시예의 그것과 동일한 기능을 하므로 상세한 설명은 생략한다. 한편, 입체효과 스케줄링부는 서버(40)에 구비되는 것으로 예시하였으나, 바람직하게는 서버(40) 및 PED(20)에 모두 구비된다.
데이터 전송부(50)는 제 1 입체 컨텐츠 데이터베이스(42)와, 제 2 입체 컨텐츠 데이터베이스(43)와, 제 2 입체 컨텐츠의 표시 영역정보 데이터베이스(44) 및 제 2 입체 컨텐츠의 생성정보 데이터베이스(45)에 각각 저장된 DB를 PED(20)의 데이터 수신부(60)로 전송한다.
도 7에는 본 발명의 제 2 실시예에 의한 입체 동영상에서의 입체 컨텐츠 구현 방법이 블럭도로 도시되어 있다.
이들 도면에 의하면, 본 발명에 의한 스테레오스코픽 동영상에서의 컨텐츠 입체 구현방법은 도 7에 도시된 바와 같이 데이터 저장 단계(S200), 데이터 전송 단계(S210), 데이터 수신 단계(S220), 데이터 선택 신호 입력 단계(S230), 데이터 저장 단계(S240), 컨텐츠 융합 단계(S250) 및 컨텐츠 출력 단계(S260)를 포함한다. 이때, 상기 데이터 저장 단계(S200), 데이터 전송 단계(S210)는 서버(40) 상에서 구현되고, 상기 데이터 수신 단계(S220), 데이터 선택 신호 입력 단계(S230), 데이터 저장 단계(S240), 컨텐츠 융합 단계(S250) 및 컨텐츠 출력 단계(S260)는 PED(20) 단말기 상에서 구현된다. 이때, 상기 데이터 저장 단계(S200)와, 특히, 데이터 수신 단계(S220), 데이터 선택 신호 입력 단계(S230), 데이터 저장 단계(S240), 컨텐츠 융합 단계(S250) 및 컨텐츠 출력 단계(S260)는 제 1 실시예와는 달리 PED에서 구현되는 것이 상이할 뿐 기능은 동일하므로 상세한 설명은 생략한다.
데이터 전송 단계(S210)는 제 1 입체 컨텐츠 데이터베이스(42)와, 제 2 입체 컨텐츠 데이터베이스(43)와, 제 2 입체 컨텐츠의 표시 영역정보 데이터베이스(44) 및 제 2 입체 컨텐츠의 생성정보 데이터베이스(45)에 각각 저장된 DB를 서버(40)에서 PED(20)의 데이터 수신부(60)로 전송하는 단계이다.
데이터 수신 단계(S220)는 데이터 전송 단계(S210)에서 전송한 제 1 입체 컨텐츠 데이터베이스(42)와, 제 2 입체 컨텐츠 데이터베이스(43)와, 제 2 입체 컨텐츠의 표시 영역정보 데이터베이스(44) 및 제 2 입체 컨텐츠의 생성정보 데이터베이스(45)에 각각 저장된 DB를 수신하는 단계이다.
데이터 선택 신호 입력 단계(S230)는 데이터 수신 단계(S220)를 통해 수신된 제 1 입체 컨텐츠 정보와, 제 2 입체 컨텐츠 정보와, 제 2 입체 컨텐츠의 표시 영역정보 및 제 2 입체 컨텐츠의 생성정보 데이터 중 적어도 하나의 특정 데이터에 대한 선택 신호를 사용자가 PED(20)를 통해 입력하는 단계이다.
데이터 저장 단계(S240)는 데이터 선택 신호 입력 단계(S230)를 통해 입력하여 선택된 특정 데이터가 저장되는 단계로, 일 예로 PED(20)의 램(Ram) 등과 같은 저장 매체가 적용될 수 있다.
컨텐츠 융합 단계(S250)는 데이터 저장부(62)에 사용자로부터 저장된 제 1 입체 컨텐츠 정보와, 제 2 입체 컨텐츠 정보와, 제 2 입체 컨텐츠의 표시 영역정보 및 제 2 입체 컨텐츠의 생성정보 데이터 중 적어도 하나의 특정 데이터를 통해 컨텐츠 사용자가 입체 컨텐츠를 선택 및 볼 수 있도록 제 1 입체 컨텐츠 레이어(21)의 제 1 입체 컨텐츠에 제 2 입체 컨텐츠 레이어(22)의 제 2 입체 컨텐츠를 하나의 컨텐츠 즉, 단일 컨텐츠로 융합하는 단계이다. 특히, 컨텐츠 융합 단계(S250)는 제 1 및 제 2 입체 컨텐츠를 하나의 파일(file)로 생성시키도록 컨텐츠를 융합하는 것이다.
특히, 컨텐츠 융합 단계(S250)는 서버(40)에서 유무선 통신채널(32) 등을 통해 전송 받은 제 1 입체 컨텐츠 및(또는) 제 2 입체 컨텐츠를 제거 또는 교체가 가능하며, 이는 제 1 입체 컨텐츠 레이어(21)와 제 2 입체 컨텐츠 레이어(22)의 융합 후에 요금부과나 타 컨텐츠의 사용 등과 같은 컨텐츠 사용자의 요청에 의해 컨텐츠를 제거 또는 교체하는 단계인 것이다.
컨텐츠 출력 단계(S260)는 컨텐츠 융합 단계(S250)에서 제 1 및 제 2 입체 컨텐츠를 융합까지 완료한 후 얻은 데이터를 입체효과 스케줄링부에 의한 레이어 스케줄링과 기타 레이어 제어까지 모두 처리하고, PED(20) 단말기에서 단일 컨텐츠를 재생하는 단계이다.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
그러므로 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
10a: 개인용 컴퓨터
10b: 노트북
10c: IP-TV/3D-TV
20: PED(Personal Electronic Device)
21: 제 1 입체 컨텐츠 레이어
22: 제 2 입체 컨텐츠 레이어
30: 인터넷망
32: 유/무선 통신채널
40: 서버
41: 데이터 베이스부
41a: 컨텐츠 정보 입력부
42: 제 1 입체 컨텐츠 데이터베이스
43: 제 2 입체 컨텐츠 데이터베이스
44: 제 2 입체 컨텐츠의 표시 영역정보 데이터베이스
45: 제 2 입체 컨텐츠의 생성정보 데이터베이스
50, 61: 데이터 입력부
50': 데이터 전송부
51, 62: 데이터 저장부
52, 63: 컨텐츠 융합부
61, 64: 컨텐츠 출력부
P1, P2: 센터 포지션

Claims (7)

  1. 제 1 및 제 2 입체 컨텐츠 정보와, 제 2 입체 컨텐츠의 표시 영역정보 및 제 2 입체 컨텐츠의 생성정보가 각각 데이터로 저장되는 데이터 베이스부;
    상기 데이터 베이스부에 저장된 데이터 중 특정 데이터의 선택 신호를 입력하는 데이터 입력부;
    상기 데이터 입력부를 통해 선택된 특정 데이터가 저장되는 데이터 저장부;
    상기 데이터 저장부의 저장 데이터를 통해 상기 제 1 컨텐츠와 상기 제 2 컨텐츠를 하나의 컨텐츠로 융합하는 컨텐츠 융합부; 및
    상기 융합된 하나의 컨텐츠 정보를 단말기로 전송하는 컨텐츠 정보 전송부;를 포함하는 입체 동영상에서의 입체 컨텐츠 구현시스템.
  2. 제 1 및 제 2 입체 컨텐츠 정보와, 제 2 입체 컨텐츠의 표시 영역정보 및 제 2 입체 컨텐츠의 생성정보가 각각 데이터로 저장되는 데이터 베이스부;
    상기 데이터 베이스부에 저장된 데이터를 단말기로 전송하는 데이터 전송부;
    상기 데이터 전송부에서 전송된 데이터 중 특정 데이터의 선택 신호를 입력하도록 상기 단말기 측에 구비되는 데이터 입력부;
    상기 데이터 입력부를 통해 선택된 특정 데이터가 저장되도록 상기 단말기 측에 구비되는 데이터 저장부; 및
    상기 데이터 저장부의 저장 데이터를 통해 제1 컨텐츠와 상기 제 2 컨텐츠를 하나의 컨텐츠로 융합하도록 상기 단말기 측에 구비되는 컨텐츠 융합부;를 포함하는 입체 동영상에서의 입체 컨텐츠 구현시스템.
  3. 제 1항 또는 제 2항에 있어서, 상기 데이터 베이스부는,
    상기 제 1 및 제 2 입체 컨텐츠 정보와, 제 2 입체 컨텐츠의 표시 영역정보 및 제 2 입체 컨텐츠의 생성정보를 온 라인 또는 오프 라인을 통해 부가적으로 입력 받을 수 있도록 단말기 상에 구비되는 컨텐츠 정보 입력부를 더 포함하는 입체 동영상에서의 입체 컨텐츠 구현시스템.
  4. 제 3항에 있어서,
    상기 컨텐츠 정보 입력부는 바코드(bar code), QR 코드(Quick Respose code) 및 고객 맞춤형 입체 광고 중 어느 하나인 입체 동영상에서의 입체 컨텐츠 구현시스템.
  5. 제 1항 또는 제 2항에 있어서, 상기 제 2 입체 컨텐츠 생성정보는,
    상기 제 2 입체 컨텐츠에 대한 센터 포지션의 이동 영역 정보, 상기 제 2 입체 컨텐츠의 시계열적인 좌표변화량 정보, 상기 제 2 입체 컨텐츠의 시차변화정보, 상기 제 2 입체 컨텐츠의 확대/축소 정보 및 상기 제 2 입체 컨텐츠의 회전 정보 중 적어도 하나인 것을 특징으로 하는 입체 동영상에서의 입체 컨텐츠 구현시스템.
  6. 제 1 및 제 2 입체 컨텐츠 정보와, 제 2 입체 컨텐츠의 표시 영역정보 및 제 2 입체 컨텐츠의 생성정보에 대한 저장 데이터 중 특정 데이터의 선택 신호를 입력하는 단계;
    상기 선택 신호에 따라 해당 데이터가 저장되는 단계;
    상기 저장 데이터를 통해 상기 제 1 컨텐츠와 상기 제 2 컨텐츠를 하나의 컨텐츠로 융합하는 단계; 및
    상기 융합된 하나의 컨텐츠 정보를 단말기로 전송하는 단계;를 포함하는 입체 동영상에서의 입체 컨텐츠 구현방법.
  7. 제 1 및 제 2 입체 컨텐츠 정보와, 제 2 입체 컨텐츠의 표시 영역정보 및 제2 입체 컨텐츠의 생성정보에 대한 저장 데이터를 단말기로 전송하는 단계;
    상기 전송된 데이터 중 특정 데이터의 선택 신호를 상기 단말기에서 입력하는 단계;
    상기 선택 신호에 따라 선택된 특정 데이터가 상기 단말기에 저장되는 단계; 및
    상기 저장 데이터를 통해 제1 컨텐츠와 상기 제2 컨텐츠를 상기 단말기에서 하나의 컨텐츠로 융합하는 단계;를 포함하는 입체 동영상에서의 입체 컨텐츠 구현방법.
KR1020110020968A 2011-03-09 2011-03-09 입체 동영상에서의 입체 컨텐츠 구현시스템 및 방법 KR20120102996A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110020968A KR20120102996A (ko) 2011-03-09 2011-03-09 입체 동영상에서의 입체 컨텐츠 구현시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110020968A KR20120102996A (ko) 2011-03-09 2011-03-09 입체 동영상에서의 입체 컨텐츠 구현시스템 및 방법

Publications (1)

Publication Number Publication Date
KR20120102996A true KR20120102996A (ko) 2012-09-19

Family

ID=47111190

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110020968A KR20120102996A (ko) 2011-03-09 2011-03-09 입체 동영상에서의 입체 컨텐츠 구현시스템 및 방법

Country Status (1)

Country Link
KR (1) KR20120102996A (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101637958B1 (ko) * 2015-09-30 2016-07-08 주식회사 애드라 모바일 애플리케이션을 실행한 화면에서의 가상의 3d 콘텐트 재생 방법
KR101689624B1 (ko) * 2015-12-11 2016-12-26 (주)일곱 모바일 애플리케이션의 콘텐트 제공 화면 표출 또는 이동 시 3d 광고 방법
KR101689626B1 (ko) * 2015-10-14 2016-12-26 (주)일곱 모바일 애플리케이션의 로딩 화면에서의 3d 광고 방법
KR101689625B1 (ko) * 2015-10-13 2016-12-26 (주)일곱 모바일 미디어 플레이어에서의 3d 광고 방법
KR20180010493A (ko) * 2016-07-21 2018-01-31 삼성전자주식회사 전자 장치 및 전자 장치의 비디오 편집 방법

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101637958B1 (ko) * 2015-09-30 2016-07-08 주식회사 애드라 모바일 애플리케이션을 실행한 화면에서의 가상의 3d 콘텐트 재생 방법
KR101689625B1 (ko) * 2015-10-13 2016-12-26 (주)일곱 모바일 미디어 플레이어에서의 3d 광고 방법
KR101689626B1 (ko) * 2015-10-14 2016-12-26 (주)일곱 모바일 애플리케이션의 로딩 화면에서의 3d 광고 방법
KR101689624B1 (ko) * 2015-12-11 2016-12-26 (주)일곱 모바일 애플리케이션의 콘텐트 제공 화면 표출 또는 이동 시 3d 광고 방법
KR20180010493A (ko) * 2016-07-21 2018-01-31 삼성전자주식회사 전자 장치 및 전자 장치의 비디오 편집 방법

Similar Documents

Publication Publication Date Title
US11128812B2 (en) Generating content for a virtual reality system
KR101716636B1 (ko) 3d 비디오 및 보조 데이터의 결합
CN102106153B (zh) 字幕的3d显示处理
TWI573434B (zh) 通用的三維圖片格式
US20100103168A1 (en) Methods and apparatuses for processing and displaying image
EP2380357B1 (en) Method and device for overlaying 3d graphics over 3d video
JP5022443B2 (ja) 立体映像コンテンツ再生に利用されるメタデータの復号化方法
CN102484738B (zh) 3d屏幕尺寸补偿
MX2012001103A (es) Cambio entre video tridimensional y video bidimensional.
US20120069005A1 (en) Mobile terminal and method of controlling the operation of the mobile terminal
CN102223551B (zh) 图像处理设备和图像处理方法
CN105120370A (zh) 3d广播接收器和用于接收3d广播信号的方法
KR20120102996A (ko) 입체 동영상에서의 입체 컨텐츠 구현시스템 및 방법
TWI538475B (zh) 用於輸出一個三維影像信號之3d源裝置、用於接收該三維影像信號之3d標的裝置、產生及消耗該三維影像信號之方法、及電腦程式產品
EP2282550A1 (en) Combining 3D video and auxiliary data
US20190373244A1 (en) Method of transmitting 3-dimensional 360 degree video data, display apparatus using the method, and video storage apparatus using the method
WO2016167160A1 (ja) データ生成装置および再生装置
CN110198457B (zh) 视频播放方法及其设备、系统、存储介质、终端、服务器
JPWO2019004073A1 (ja) 画像配置決定装置、表示制御装置、画像配置決定方法、表示制御方法及びプログラム
Kondoz et al. Novel 3D Media Technologies
KR101674688B1 (ko) 입체영상 재생 장치 및 입체영상 재생 방법
JP7395725B2 (ja) メディアリソースの再生およびテキストレンダリング方法、装置、機器および記憶媒体
KR20130081569A (ko) 3d 영상을 출력하기 위한 장치 및 방법
KR101923640B1 (ko) 가상 현실 방송을 제공하는 방법 및 장치
JP2008199670A (ja) 映像ファイル処理方法及び映像送受信再生システム

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination