KR20120013021A - 인터랙티브 가상현실 서비스 방법 및 장치 - Google Patents

인터랙티브 가상현실 서비스 방법 및 장치 Download PDF

Info

Publication number
KR20120013021A
KR20120013021A KR1020100075144A KR20100075144A KR20120013021A KR 20120013021 A KR20120013021 A KR 20120013021A KR 1020100075144 A KR1020100075144 A KR 1020100075144A KR 20100075144 A KR20100075144 A KR 20100075144A KR 20120013021 A KR20120013021 A KR 20120013021A
Authority
KR
South Korea
Prior art keywords
content
perspective
dimensional
person image
user
Prior art date
Application number
KR1020100075144A
Other languages
English (en)
Inventor
김수현
김용현
박경민
이희준
임일
Original Assignee
주식회사 자이닉스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 자이닉스 filed Critical 주식회사 자이닉스
Priority to KR1020100075144A priority Critical patent/KR20120013021A/ko
Publication of KR20120013021A publication Critical patent/KR20120013021A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/74Circuits for processing colour signals for obtaining special effects
    • H04N9/75Chroma key

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • Theoretical Computer Science (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 인터랙티브(interactive) 가상현실 서비스 방법 및 장치에 관한 것으로서, 사용자의 작용(action)에 따라 유무선 통신망을 통하여 콘텐츠 서버에서 전송된 다수의 인물영상객체와 다수의 콘텐츠배경객체 및/또는 다수의 콘텐츠전경객체와 각 객체에 대한 시계열적 3차원 객체동기화배치정보로 구성된 멀티미디어 콘텐츠를 콘텐츠 클라이언트에서 수신하여, 인물영상객체에 대하여 크로마키 처리하고, 객체동기화배치정보에 따라 각 객체의 시계열적 표시 위치를 적용하며, 사용자의 작용에 의하여 지정된 좌우(X 좌표)ㅇ상하(Y 좌표)ㅇ원근(Z 좌표: zoom-out/zoom-in)의 3차원적인 투시 위치에 따라 각 객체의 표시 위치와 형태 및 크기를 재 적용한 후, 객체들을 합성하여 표시하는 인터랙티브 가상현실 서비스 방법 및 장치가 개시된다.

Description

인터랙티브 가상현실 서비스 방법 및 장치 {A method and apparatus for interactive virtual reality services}
본 발명은, 사용자의 작용(action)에 따라 유무선 통신망을 통하여 콘텐츠 서버로부터 전송되는 다수의 인물영상객체와 다수의 콘텐츠 배경(background) 및/또는 전경(foreground) 객체로 구성된 멀티미디어 가상현실 콘텐츠에 대하여, 사용자가 콘텐츠 클라이언트에서 투시 위치를 자유롭게 변경함으로써 콘텐츠를 보다 입체적이며 동적으로 변화시키며 자신만의 관점과 유형에 따라 효과적으로 시청할 수 있도록 하기 위한 인터랙티브(interactive) 가상현실 서비스 제공에 관한 것이다.
콘텐츠 서버로부터 전송되는 멀티미디어 가상현실 콘텐츠에 대하여 사용자가 콘텐츠 클라이언트에서 시청할 때, 종래에는 사용자의 입장에서 관심이나 흥미를 유발할 수 있는 상호작용성이 없고, 시청하는 사용자의 취향이나 유형이 무시된 채 콘텐츠 제작자의 일방적인 저작 의도대로 시청할 수밖에 없었다. 특히 사용자의 개성에 부응하고 실감적 체험을 제공하기에는 더욱 한계를 지니고 있었다.
이에 다양한 멀티미디어 가상현실 콘텐츠를 서비스하는 데에 있어서, 시각적으로 다양한 관점에서 효과적으로 시청하고, 동적이며 감성적으로 실감나는 인터랙티브 서비스 방법이 필요하게 되었다.
본 발명은 콘텐츠 서버로부터 전송되는 멀티미디어 가상현실 콘텐츠를 시청하는 사용자의 입장에서 능동적이고 동적이며, 시각과 감성의 실감적 체험을 만족시키는 방법 및 장치를 제공하기 위한 것이다.
또한, 본 발명은 멀티미디어 가상현실 콘텐츠를 시청함에 있어서 사용자가 자유롭게 3차원적인 투시 위치를 조작하고, 확대(zoom-in)와 축소(zoom-out) 등을 통한 원근을 제어하게 함으로써 자신의 관점과 유형에 따라 콘텐츠를 보다 효과적으로 시청할 수 있도록 함과 동시에 엔터테인먼트 성격의 흥미 요소를 유발하고 콘텐츠 시청의 몰입 효과를 주기 위한 것이다.
본 발명에서 해결하려는 과제, 즉 목적들은 이상에서 언급한 것들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자가 명확하게 이해할 수 있을 것이다.
상기 목적을 달성하기 위하여, 본 발명의 실시예에 따른 인터랙티브 가상현실 서비스 방법은, 사용자의 작용에 따라 유무선 통신망을 통하여 콘텐츠 서버에서 전송된 다수의 인물영상객체와 콘텐츠배경객체 및/또는 콘텐츠전경객체와 각 객체에 대한 시계열적 3차원 객체동기화배치정보로 구성된 멀티미디어 콘텐츠를 콘텐츠 클라이언트에서 수신하여, 인물영상객체에 대하여 크로마키(chroma-key) 처리한 후, 객체동기화배치정보에 따라 각 객체의 시계열적 표시 위치를 적용하는 단계; 사용자의 작용에 의하여 지정된 투시 위치에 따라 각 객체의 표시 위치와 형태 및 크기를 재 적용하는 단계; 및 객체들을 합성하여 표시하는 단계를 포함하고, 상기 각 객체의 표시 위치와 형태 및 크기를 재 적용하기 전에, 사용자의 작용에 따라 소정의 객체들을 표시하지 않거나 표시 위치를 변경하여 적용하는 단계를 더 포함할 수 있다.
상기 목적을 달성하기 위하여, 본 발명의 실시예에 따른 인터랙티브 가상현실 서비스 장치는, 콘텐츠 클라이언트에서 사용자의 작용을 입력 받아 처리하는 입력 모듈; 유무선 통신망을 통하여 콘텐츠 서버에서 전송된 다수의 인물영상객체와 콘텐츠배경객체 및/또는 콘텐츠전경객체와 각 객체에 대한 시계열적 3차원 객체동기화배치정보로 구성된 멀티미디어 콘텐츠를 콘텐츠 클라이언트에서 수신하는 객체 수신 모듈; 인물영상객체에 대하여 크로마키 처리하는 크로마키 모듈; 객체동기화배치정보에 따라 각 객체의 시계열적 표시 위치를 적용하는 객체 배치 모듈; 소정의 투시 위치에 따라 각 객체의 표시 위치와 형태 및 크기를 재 적용하는 사용자 조작 모듈; 및 객체들을 합성하여 표시하는 합성 모듈을 포함하고, 소정의 객체들을 표시하지 않거나 표시 위치를 변경하여 적용하는 객체 제어 모듈을 더 포함할 수 있다.
기타 실시예들의 구체적인 사항들은 발명을 실시하기 위한 구체적인 내용 및 도면에 포함되어 있고, 명세서 전체에 걸쳐 동일 참조부호는 동일 구성요소를 지칭한다.
본 발명은 청구범위에 의해 정의될 뿐이므로, 이하에서 개시되는 실시예들이나 도면들로 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들이나 도면들은 본 발명의 개시가 보다 명확하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 온전하게 알려주기 위하여 제공되는 것이다.
상기한 바와 같은 본 발명의 가상현실 서비스 방법 및 장치에 따르면 다음과 같은 효과가 있다.
첫째로, 콘텐츠 서버로부터 전송되는 멀티미디어 가상현실 콘텐츠를 시청하는 사용자가 자유롭게 3차원적인 투시 위치를 조작함으로써 제작자의 의도에 국한되지 않고 자신만의 관점에서 능동적이고 동적으로 시청할 수 있으며, 사용자의 개성과 유형에 따른 시각과 감성의 실감적 체험을 만족시킬 수 있다.
둘째로, 멀티미디어 가상현실 콘텐츠를 시청하는 사용자의 관점에 따른 확대와 축소 등을 통하여 원근을 제어하게 함으로써 자신만의 방식대로 콘텐츠를 보다 효과적으로 시청할 수 있도록 함과 동시에 엔터테인먼트 성격의 흥미 요소를 유발하고 콘텐츠 시청의 몰입 효과를 줄 수가 있다.
도 1은 콘텐츠 서버에 저장된 인물영상객체(111, 112), 콘텐츠배경객체(121, 122, 123), 콘텐츠전경객체(131, 132)의 일 실시예를 보여주는 예시도이다.
도 2a는 콘텐츠 클라이언트에서 불러들인 인물영상객체를 크로마키 처리한 후, 객체동기화배치정보에 따라 각 객체의 3차원 표시 위치를 적용한 일 실시예를 보여주는 예시도이다. 도 2a와 도 2b는 객체동기화배치정보에 따라 각 객체에 대한 정면도와 평면도 상의 표시 위치를 보여주는 예시도이며, 도 2c는 3차원의 기준 좌표계에 대한 예시도이다.
도 3a와 도 3d는 투시 위치, 즉 투시 방향 및 투시점 위치와 투시 거리를 변경하는 일 실시예를 보여주는 예시도이며, 도 3b와 도 3e는 각각 도 3a와 도 3d에 대한 평면도와 측면도의 일 실시예를 보여주는 예시도이고, 도 3c와 도 3f는, 각각 도 3a와 도 3d와 같이 사용자의 작용에 의하여 지정된 투시 위치에 따라 각 객체의 표시 위치와 형태 및 크기를 재 적용한 후, 객체들을 합성하여 표시한 일 실시예를 보여주는 예시도이다.
도 4는 소정의 객체들에 대하여 표시하지 않거나 표시 위치를 변경하여 적용한 일 실시예를 보여주는 예시도이다.
도 5a와 도 5b는 본 발명의 실시예에 따른 인터랙티브 가상현실 서비스 장치의 구성을 보여주는 블록도이다.
본 발명의 실시예에 따른 인터랙티브 가상현실 서비스 방법은, 사용자의 작용에 따라 유무선 통신망을 통하여 콘텐츠 서버에서 전송된, 2차원 또는 3차원의 영상으로 구성된 다수의 인물영상객체와 2차원 또는 3차원의 화상이나 영상으로 구성된 다수의 콘텐츠배경객체 및/또는 콘텐츠전경객체와 각 객체에 대한 시계열적 3차원 객체동기화배치정보로 구성된 멀티미디어 콘텐츠를 콘텐츠 클라이언트에서 수신하여, 인물영상객체에 대하여 크로마키 처리한 후, 객체동기화배치정보에 따라 각 객체의 시계열적 표시 위치를 적용하는 단계와, 사용자의 작용에 의하여 지정된 투시 위치에 따라 각 객체의 표시 위치와 형태 및 크기를 재 적용하는 단계, 및 객체들을 합성하여 표시하는 단계로 구성되며, 상기 각 객체의 표시 위치와 형태 및 크기를 재 적용하기 전에, 사용자의 작용에 따라 소정의 객체들을 표시하지 않거나 표시 위치를 변경하여 적용하는 단계를 더 포함할 수 있다.
본 발명의 실시예에 따른 인터랙티브 가상현실 서비스 장치는, 콘텐츠 클라이언트에서 사용자의 작용을 입력 받아 처리하는 입력 모듈과, 유무선 통신망을 통하여 콘텐츠 서버에서 전송된 2차원 또는 3차원의 영상으로 구성된 다수의 인물영상객체와 2차원 또는 3차원의 화상이나 영상으로 구성된 다수의 콘텐츠배경객체 및/또는 콘텐츠전경객체와 각 객체에 대한 시계열적 3차원 객체동기화배치정보로 구성된 멀티미디어 콘텐츠를 콘텐츠 클라이언트에서 수신하는 객체 수신 모듈과, 인물영상객체에 대하여 크로마키 처리하는 크로마키 모듈과, 객체동기화배치정보에 따라 각 객체의 시계열적 표시 위치를 적용하는 객체 배치 모듈과, 소정의 투시 위치에 따라 각 객체의 표시 위치와 형태 및 크기를 재 적용하는 사용자 조작 모듈, 및 객체들을 합성하여 표시하는 합성 모듈로 구성되며, 소정의 객체들을 표시하지 않거나 표시 위치를 변경하여 적용하는 객체 제어 모듈을 더 포함할 수 있다.
상기 멀티미디어 콘텐츠란 인터넷이나 컴퓨터 통신 또는 유무선 전기 통신망에서 사용하기 위하여 디지털화된 텍스트문자ㅇ부호ㅇ이미지ㅇ음성ㅇ음향ㅇ영상ㅇ애니메이션이벤트 등 다중 매체 저작물로서, 디지털 장치에 저장되어 이용될 수 있거나, 디지털 장치로 제작, 유통, 소비되는 각종 정보 콘텐츠, 또는 유무선 데이터 통신망을 통하여 양방향으로 송수신되는 정보 콘텐츠를 말한다.
상기 콘텐츠 클라이언트란 멀티미디어 데이터를 처리하는 디지털 회로를 가진 장치로서, 유무선 통신망을 통하여 콘텐츠 서버에서 전송되는 멀티미디어 가상현실 콘텐츠를 수신하여 표시하는 장치이며, 컴퓨터, IPTV, 개인용 디지털 단말기(PDA)나 휴대전화 또는 스마트 폰 등의 휴대 단말기, 디지털 가전기기, 디지털 TV, 디지털 위성 방송수신기, 및 셋톱박스 등을 예로 들 수 있다.
상기 사용자의 작용은 키보드, 마우스, 조이스틱, 조그셔틀(jog & shuttle), 키패드, 터치패드, 터치스크린, 광학 센서나 초음파 센서 또는 모션캡처(motion capture) 센서 등과 같은 공중센서 등의 다양한 입력 수단을 통하여 이루어질 수 있다.
상기 모듈의 의미는 소정의 역할들을 수행하는 소프트웨어 구성요소 또는 ASIC(application-specific integrated circuit)나 FPGA(field programmable gate array)와 같은 하드웨어 구성요소 등을 의미하지만, 소프트웨어 또는 하드웨어에만 한정되는 것은 아니며, 어드레싱(addressing)할 수 있는 저장 매체 내에 구성될 수도 있고, 하나 이상의 CPU 등의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서 일 예로서 모듈은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소 및 태스크 구성요소와 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 임베디드(embedded) 소프트웨어, 마이크로 코드, 회로, 데이터, DB, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 모듈과 구성요소들 안에서 제공되는 기능은 더 작은 수의 모듈들 및 구성요소들로 결합되거나 추가적인 모듈들과 구성요소들로 분리될 수 있고, 스마트카드나 멀티미디어카드 또는 디바이스 내의 하나 이상의 프로세서들을 재생시키도록 구현될 수도 있다.
첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다.
도 5a와 도 5b는 본 발명의 실시예에 따른 인터랙티브 가상현실 서비스 장치의 구성을 보여주는 블록도이다. 도 5a에서, 입력 모듈(501)은 콘텐츠 클라이언트에서 멀티미디어 콘텐츠를 시청하는 사용자의 작용과 이에 관한 데이터를 입력 받아 처리하는 것으로서, 사용자의 작용은 콘텐츠 서버에 소정의 멀티미디어 콘텐츠에 대한 전송을 요청하는 명령을 선택하거나, 상하ㅇ좌우ㅇ원근 등 사용자의 3차원 투시 위치를 조작하는 행위, 또는 소정의 객체들에 대하여 표시하지 않거나 표시 위치를 변경하는 행위 등 사용자가 입력하는 것을 모두 포함한다. 콘텐츠 서버에 소정의 멀티미디어 콘텐츠에 대한 전송을 요청하는 명령을 선택하는 사용자의 작용을 입력하면, 입력 모듈(501)에서 입력 받아 해당 멀티미디어 콘텐츠에 대한 전송을 콘텐츠 서버에 요청한 후 객체 수신 모듈(502)을 호출(call)하고, 객체 수신 모듈(502)은 콘텐츠 서버로부터 전송된 객체들과 시계열적 3차원 객체동기화배치정보를 수신하여 크로마키 모듈(503)로 제어를 넘겨준다. 이때 객체들 중 동영상객체들을 제외한 객체들과 객체동기화배치정보 등은 모두 수신하여 콘텐츠 클라이언트에 적재(load)하고, 동영상객체들에 대하여 콘텐츠 서버에서 스트리밍(streaming)할 경우에는 끊어지지 않도록 버퍼링(buffering)을 거쳐 처음 프레임(frame)객체들을 수신하며, 다운로드(download)할 경우에는 모두 수신하여 적재한다. 크로마키 모듈(503)은 수신한 객체들 중 소정의 인물영상객체들에 대하여 크로마키 처리한 후, 객체 배치 모듈(504)로 제어를 넘겨준다. 객체 배치 모듈(504)은 객체동기화배치정보를 이용하여, 크로마키 처리된 인물영상객체들을 비롯한 각 객체의 표시 위치를 적용한 후, 합성 모듈(505)로 제어를 넘겨준다. 합성 모듈(505)은 후술되는 투시 제어 변수와 객체 제어 변수들에 따라 표시 위치와 형태 및 크기가 재 적용된, 크로마키 처리된 인물영상객체들을 비롯한 객체들을 합성하여 표시하고, 객체 수신 모듈(502)로 제어를 다시 넘겨준다. 객체 수신 모듈(502)은 콘텐츠 서버로부터 전송된 동영상객체들의 다음 프레임객체들을 수신하거나 이미 적재된 동영상객체들의 다음 프레임객체들, 또는 애니메이션 자료객체 등을 비롯하여 객체동기화배치정보에 따른 객체들을 불러와서 상기 과정(크로마키 모듈(503) → 객체 배치 모듈(504) → 합성 모듈(505) → 객체 수신 모듈(502))을 반복하는데, 콘텐츠 서버로부터 전송된 동영상객체들의 다음 프레임객체들이 없거나 이미 적재된 동영상객체들의 다음 프레임객체들, 또는 애니메이션 자료객체 등을 비롯하여 객체동기화배치정보에 따른 객체들이 없어서 소정의 작업수행을 모두 완료한 경우에는 입력 모듈(501)로 복귀(return)하여 종료한다. 투시 위치를 변경하기 위하여 사용자의 작용을 입력하면, 현재 모듈 실행 제어를 가지고 진행 중인 모듈의 실행과 모든 객체들의 시계열적 진행이 정지되며, 입력 모듈(501)에서 사용자의 작용을 입력 받아 사용자 조작 모듈(510)을 호출한다. 사용자 조작 모듈(510)은 투시 제어 변수를 사용자의 작용에 따른 소정의 값으로 설정한 후에 입력 모듈(501)로 복귀하고, 입력 모듈(501)의 실행도 종료한다. 그러면 모듈 실행 제어는 이전에 진행 중이던 모듈로 되돌아가서 모듈의 실행이 계속 진행되며, 정지된 객체들의 시계열적 진행도 다시 계속된다. 투시 제어 변수의 설정으로 인한 투시 위치 변경은 이후에 합성 모듈(505)이 실행될 때 반영되어 객체들의 합성 및 표시에 적용된다. 도 5b의 블록도에서 추가된 모듈(520)은 도 4의 예시도를 상세히 설명하면서 함께 기술하기로 한다.
도 1은, 콘텐츠 서버에 저장된 2개의 인물영상객체(111, 112)와, 콘텐츠배경객체로서의 슬라이드배경객체(121)와 동영상배경객체(122) 및 배경화상객체(123), 그리고 2개의 콘텐츠전경객체(131, 132)로 구성된 멀티미디어 콘텐츠의 일 실시예를 보여주는 도면이다.
도 2a는, 콘텐츠 서버에서 전송된, 인물영상객체(211, 212)와 콘텐츠배경객체(221, 222, 223) 및 콘텐츠전경객체(231, 232), 그리고 객체동기화배치정보로 구성된 멀티미디어 콘텐츠를 콘텐츠 클라이언트에서 수신하여, 인물영상객체(211, 212)를 크로마키 처리한 후, 객체동기화배치정보에 따라 각 객체(211, 212, 221, 222, 223, 231, 232)의 3차원적인 표시 위치를 적용하여 합성 및 표시한 일 실시예를 보여주는 도면이다. 도 2a와 도 2b는 객체동기화배치정보에 따라 표시 위치를 적용한 각 객체에 대한 정면도(XY 좌표계)와 평면도(XZ 좌표계)의 일 실시예를 보여주는 도면이며, 도 2c는 3차원의 기준 좌표계에 대한 일 실시예를 보여주는 도면이다. 도 2a의 좌하단점(200)은 도 2b의 좌상단점(250)과 동일한 점으로서 도 2c의 원점 O(290)에 해당한다. 도 2a의 하단선(201)은 도 2c의 X축(291)에 해당하고, 좌단선(202)은 Y축(292)에 해당한다. 도 2b의 상단선(251)은 도 2c의 X축(291)에 해당하고, 좌단선(253)은 Z축(293)에 해당한다. 따라서 도 2a의 하단선(201)은 도 2b의 상단선(251)과 동일한 선이다. 도 2a의 객체들과 도 2b의 객체들의 대응관계를 도면 참조부호로써 나타내면 다음과 같다. [범례: 도 2a 객체 ↔ 도 2b 대응객체] 211↔261, 212↔262, 221↔271, 222↔272, 223↔273, 231↔281, 232↔282. 도 2b를 참조하여, 도 2a의 객체들의 원근에 따른 사용자의 관점에서 앞에서 뒤로 배치된 순서대로 나열하면, A-콘텐츠전경객체(231), Z-콘텐츠전경객체(232), A-인물영상객체(211), Z-인물영상객체(212), 동영상배경객체(222), 슬라이드배경객체(221), 배경화상객체(223)가 된다. 한편, 실제 크기가 같은 객체들이라 할지라도 합성하여 화면에 표시할 때, 도 2c에서와 같이 3차원 좌표를 2차원 형태로 표현할 때의 XY 평면에 대한 Z축의 시각적 각도에 해당하는 X축(291)과 Z축(293) 사이의 각도 및 Y축(292)과 Z축(293) 사이의 각도와 원근의 배치 순서(Z-order)에 따라 객체들의 위치와 크기를 다르게 적용함으로써 객체들의 3차원적인 원근감을 줄 수 있다.
객체동기화배치정보 구조의 일 실시예는, [<기준 윈도 크기: X-width, Y-height>, <기준 원근 깊이: Z-depth>, <입체 시각 각도: XZ-angle, YZ-angle>, <크로마키처리객체: 객체id01, 객체id02, …>; 시각1: 객체id11{객체위치(x11, y11, z11), 객체크기(w11, h11), 이벤트번호11, 이벤트타입11<V|A|W|E>, 이벤트시간11}, 객체id12{객체위치(x12, y12, z12), 객체크기(w12, h12), 이벤트번호12, 이벤트타입12<V|A|W|E>, 이벤트시간12)}, …; 시각2: 객체id21{객체위치(x21, y21, z21), 객체크기(w21, h21), 이벤트번호21, 이벤트타입21<V|A|W|E>, 이벤트시간21}, 객체id22{객체위치(x22, y22, z22), 객체크기(w22, h22), 이벤트번호22, 이벤트타입22<V|A|W|E>, 이벤트시간22}, …; …]와 같다. 이때, 기준 윈도 크기는 멀티미디어 콘텐츠를 제작할 때 또는 시청할 때 기본적인 표시 화면의 크기이고, 기준 원근 깊이는 멀티미디어 콘텐츠를 제작할 때 3차원적인 Z좌표의 총 크기이며, 입체 시각 각도는 X축 및 Y축에 대한 Z축의 2차원 시각적 각도로서 X축과 Y축 사이의 각이 90ㅀ이기 때문에 XZ-angle과 YZ-angle의 합이 270ㅀ이고, 크로마키처리객체는 크로마키 처리를 해야 할 동영상객체 목록이다. 또한, 시각1 이하에 기술된 시계열적 3차원 객체 동기화 배치 목록에서 객체위치는 정면도 상에서 각 객체의 좌하단점, 평면도 상에서 각 객체의 좌상단점에 대하여 도 2c의 기준 좌표계에 의거하여 설정되며, 객체크기는 정면도 상에서의 객체너비와 객체높이로 설정되고, 시각과 이벤트시간의 단위는 10분의 1초로서 '시:분:초:10분의1초'로 표시하며, 시각의 시작 시점은 멀티미디어 콘텐츠 재생의 시작 시점이고, 이벤트타입의 V는 동영상, A는 애니메이션, W는 판서, E는 기타를 의미한다. 도 2a의 실시예에 따른 객체동기화배치정보의 예시는 다음과 같다. 먼저, A-인물영상객체(211)의 객체id를 ID11, Z-인물영상객체(212)를 ID12, 슬라이드배경객체(221)를 ID21, 동영상배경객체(222)를 ID22, 배경화상객체(223)를 ID23, A-콘텐츠전경객체(231)를 ID31, Z-콘텐츠전경객체(232)를 ID32라고 하자. 또한, 멀티미디어 콘텐츠 표시 화면의 크기가 가로ㅧ세로 = 960ㅧ720 pixel, 원근의 깊이가 300 pixel이고, 멀티미디어 콘텐츠의 총 재생 시간이 6분이며, ID21(221)의 슬라이드배경객체가 5개의 애니메이션객체로 구성되어 있다고 하면, [<기준 윈도 크기: 960, 720>, <기준 원근 깊이: 300>, <입체 시각 각도: 135, 135>, <크로마키처리객체: ID11, ID12>; 00:00:00:0: ID23{(0, 0, 0), (960, 720), 1, E, 00:06:00:0}, ID21{(40, 328, 24), (384, 288), 21001, A, 00:02:00:0}, ID11{(168, 56, 184), (112, 320), 2, V, 00:02:00:0}, ID31{(168, 48, 256), (120, 192), 3, E, 00:06:00:0}; 00:02:00:0: ID21{(40, 328, 24), (384, 288), 21002, A, 00:01:00:0}, ID11{(168, 56, 184), (112, 320), 4, V, 00:01:00:0}; 00:03:00:0: ID21{(40, 328, 24), (384, 288), 21003, A, 00:01:00:0}, ID22{(472, 320, 104), (416, 312), 5, V, 00:01:00:0}, ID12{(712, 88, 144), (96, 272), 6, V, 00:01:00:0}, ID32{(712, 80, 208), (96, 160), 7, E, 00:03:00:0}; 00:04:00:0: ID21{(40, 328, 24), (384, 288), 21004, A, 00:01:30:0}, ID11{(168, 56, 184), (112, 320), 8, V, 00:01:30:0}; 00:05:30:0: ID21{(40, 328, 24), (384, 288), 21005, A, 00:00:30:0}, ID11{(168, 56, 184), (112, 320), 9, V, 00:00:30:0}]과 같으며, 이벤트번호는 이벤트 발생 순서대로 나열된 번호이지만 ID21의 이벤트번호인 21001, 21002, 21003, 21004, 21005는 슬라이드배경객체(221) 내의 각 애니메이션객체 스트링의 id번호와 일치하도록 부여된다. 예를 들어, 이벤트번호 21001은 "인터랙티브 VR 서비스" 스트링의 id번호와 일치한다.
도 3a는, 표시 화면(310)의 중심인 점 O(300)의 투시 기준점과, 양의 방향인 +X축(301)과 음의 방향인 -X축(303), 양의 방향인 +Y축(302)과 음의 방향인 -Y축(304)으로 이루어진 투시 기준 좌표(XY 좌표계) 상에서 소정의 투시 거리를 그대로 유지한 채 사용자의 작용에 의하여 점 P(305)로 투시 위치가 변경 설정된 후, 투시 기준점(300)을 향하여 비스듬히 투시한 경우(306)의 일 실시예를 보여주는 도면이다. 이때 변경된 투시 위치인 점 P(305)는 소정의 투시 거리만큼 표시 화면(310)과 떨어져 있다. 도 3b는, 도 3a에 대하여 표시 화면을 굵은 선으로 표시하고 기준 원근 깊이와 소정의 투시 거리가 적용된 평면도와 측면도의 일 실시예를 보여주는 도면으로서, 초기의 투시 위치인 점 V(340)는 투시 기준점인 점 O(300)에 대응되며 소정의 투시 거리만큼 떨어져 있다. 즉, 점 V(340)에서 표시 화면(310)에 대한 수선의 발이 점 O(300)이고, 수선의 길이가 투시 거리이다.
투시 위치를 설정하기 위한 투시 제어 변수의 일 실시예 형식은 {투시 방향(S|B), 투시점 위치와 투시 거리(x, y, z)}와 같으며, 투시 방향은 투시 기준점을 정면에서 투시할 경우에는 S값이, 비스듬히 투시할 경우에는 B값이 설정된다. 투시 기준점은 정면도 상의 표시 화면(310)의 중심인 점 O(300)이고, 투시 거리는 초기 값을 기준 거리인 1로 하여 원근(zoom-out/zoom-in)에 따라 기준 거리의 배수가 되며, 1보다 커지지 않도록 하는 것이 바람직하다. 왜냐하면 콘텐츠 서버로부터 수신한 객체들보다 축소되면 표시 화면(310)에 빈 공간이 발생하기 때문이다. 따라서 축소라 함은 이전에 확장 표시된 객체의 크기 대비 축소를 의미한다고 할 수 있다. 사용자의 작용이 없는 상태에서 투시 제어 변수의 초기 값의 예시는 {S, (0, 0, 1)}과 같고, 도 3a의 실시예에 따른 투시 위치(305)는 투시 방향(306)이 비스듬한 형태이며 투시 거리가 바뀌지 않은 상태로서, 투시 제어 변수의 예시 값은 {B, (-400, 40, 1)}로 설정된다.
도 3c는, 콘텐츠 서버에서 전송된 도 2a의 멀티미디어 콘텐츠를 사용자가 시청하다가, 도 3a 및 도 3b와 같이 투시 위치(305)를 변경하도록 사용자의 작용을 입력하면, 현재 모듈 실행 제어를 가지고 진행 중인 모듈의 실행과 모든 객체들의 시계열적 진행이 정지되며, 입력 모듈(501)에서 사용자의 작용을 입력 받아 사용자 조작 모듈(510)을 호출하고, 사용자 조작 모듈(510)은 투시 제어 변수를 사용자의 작용에 따른 소정의 값(예: {B, (-400, 40, 1)})으로 설정한 후에 입력 모듈(501)로 복귀하며, 입력 모듈(501)의 실행 종료와 동시에 모듈 실행 제어는 이전에 진행 중이던 모듈로 되돌아가서 모듈의 실행이 계속 진행되고, 정지된 객체들의 시계열적 진행도 다시 계속되며, 이후에 합성 모듈(505)이 실행될 때 투시 제어 변수의 설정으로 인한 투시 위치 변경이 반영되어 표시 위치와 형태 및 크기가 재 적용된 객체들(311, 312, 321, 322, 323, 331, 332)을 합성하여 표시한 일 실시예를 보여주는 도면이다. 한편, 원상태로 되돌아가기 위한 사용자의 작용을 입력하면, 상기 모듈들(501, 510)을 통하여 투시 제어 변수는 초기 값(예: {S, (0, 0, 1)})으로 되돌아가서 도 2a와 같이 콘텐츠 서버에서 전송된 형태로 표시된다.
도 3d는, 도 3a와 동일한 표시 화면(310)의 투시 기준 좌표 상에서 사용자의 작용에 의하여 점 O'(350)로 투시 위치가 변경 설정된 후, 변경 표시 화면(351)이 표시 화면(310)으로, 변경 투시 기준점(350)이 투시 기준점(300)으로 각각 대응되어 정면에서 확장 투시한 경우의 일 실시예를 보여주는 도면이다. 이에 따른 투시 제어 변수의 예시 값은, 변경 투시 기준점과 동일한 투시점 위치(350)에서 정면으로 투시한 형태이며 투시 거리가 바뀐 상태로서 {S, (25, 16.5, 0.57)}로 설정되며, 각 객체들은 1ㆇ0.57인 1.75배 확장되어 합성 및 표시된다. 투시 거리는 표시 화면(310) 대비 변경 표시 화면(351)의 크기에 따라 산정할 수 있다. 도 3e는, 도 3d에 대하여 표시 화면과 변경 표시 화면을 굵은 선으로 표시하고 기준 원근 깊이와 소정의 투시 거리가 적용된 평면도와 측면도의 일 실시예를 보여주는 도면으로서, 초기의 투시 위치인 점 V(390)는 투시 기준점인 점 O(300)에 대응되고, 변경된 투시 위치인 점 V'(391)는 변경 투시 기준점인 점 O'(350)에 대응된다. 즉, 점 V(390)에서 표시 화면(310)에 대한 수선의 발이 점 O(300)이고, V'(391)에서 표시 화면(310)에 대한 수선의 발이 점 O'(350)이다.
도 3f는, 콘텐츠 서버에서 전송된 도 2a의 멀티미디어 콘텐츠를 사용자가 시청하다가, 줌인(zoom-in)하기 위하여 도 3d 및 도 3e와 같이 투시 위치(350, 391)와 투시 거리를 변경하도록 사용자의 작용을 입력하면, 현재 모듈 실행 제어를 가지고 진행 중인 모듈의 실행과 모든 객체들의 시계열적 진행이 정지되며, 입력 모듈(501)에서 사용자의 작용을 입력 받아 사용자 조작 모듈(510)을 호출하고, 사용자 조작 모듈(510)은 투시 제어 변수를 사용자의 작용에 따른 소정의 값(예: {S, (25, 16.5, 0.57)})으로 설정한 후에 입력 모듈(501)로 복귀하며, 입력 모듈(501)의 실행 종료와 동시에 모듈 실행 제어는 이전에 진행 중이던 모듈로 되돌아가서 모듈의 실행이 계속 진행되고, 정지된 객체들의 시계열적 진행도 다시 계속되며, 이후에 합성 모듈(505)이 실행될 때 투시 제어 변수의 설정으로 인한 투시 위치(350, 391)와 투시 거리 변경이 반영되어 표시 위치와 형태 및 크기(1.75배 확장)가 재 적용된 객체들(362, 372, 373)을 합성하여 표시한 일 실시예를 보여주는 도면이다. 도 3f의 형태로 멀티미디어 콘텐츠를 사용자가 시청하다가, 줌아웃(zoom-out)하기 위하여 투시 위치와 투시 거리를 변경하도록 사용자의 작용을 입력하면, 현재 모듈 실행 제어를 가지고 진행 중인 모듈의 실행과 모든 객체들의 시계열적 진행이 정지된 상태에서 도 3d의 표시 화면(310)으로 되돌아가며 이전의 변경 표시 화면(351)도 함께 표시해줌으로써 초기 상태와 이전의 상태를 참조하면서 투시 위치와 투시 거리를 변경할 수 있도록 해준다. 한편, 원상태로 되돌아가기 위한 사용자의 작용을 입력하면, 상기 모듈들(501, 510)을 통하여 투시 제어 변수는 초기 값(예: {S, (0, 0, 1)})으로 되돌아가서 도 2a와 같이 콘텐츠 서버에서 전송된 형태로 표시된다.
도 4는, 콘텐츠 서버에서 전송된 도 2a의 멀티미디어 콘텐츠를 사용자가 시청하다가, 소정의 객체(232)에 대하여 표시하지 않고, 다른 소정의 객체들(211, 212, 231)에 대하여 표시 위치를 변경하도록 사용자의 작용을 입력하면, 현재 모듈 실행 제어를 가지고 진행 중인 모듈의 실행과 모든 객체들의 시계열적 진행이 정지되며, 입력 모듈(501)에서 사용자의 작용을 입력 받아 객체 제어 모듈(520)을 호출하고, 객체 제어 모듈(520)은 객체 제어 변수들을 사용자의 작용에 따른 소정의 값으로 설정한 후에 입력 모듈(501)로 복귀하며, 입력 모듈(501)의 실행 종료와 동시에 모듈 실행 제어는 이전에 진행 중이던 모듈로 되돌아가서 모듈의 실행이 계속 진행되고, 정지된 객체들의 시계열적 진행도 다시 계속되며, 이후에 합성 모듈(505)이 실행될 때 객체 제어 변수들의 설정으로 인한 객체들의 표시 위치 변경 또는 표시 여부가 반영되어 표시 위치와 형태 및 크기가 재 적용된 객체들(411, 412, 421, 422, 423, 431)을 합성하여 표시한 일 실시예를 보여주는 도면이다. 이때, 동영상객체에 대하여 표시되지 않도록 했다 하더라도 음성의 시계열적 진행은 그대로 유지하게 할 수 있다. 한편, 원상태로 되돌아가기 위한 사용자의 작용을 입력하면, 상기 모듈들(501, 520)을 통하여, 모든 객체 제어 변수들은 객체동기화배치정보에 설정된 값으로 대치되어 도 2a와 같이 콘텐츠 서버에서 전송된 형태로 표시된다.
사용자의 작용에 따라 소정의 객체들을 화면에 표시하지 않거나 표시 위치를 변경하는 것과 더불어 객체들을 효과적으로 관리하기 위하여 객체 제어 변수들이 필요한데, 일 실시예의 형식은 v객체id←{객체위치(x, y, z), 객체크기(w, h), 객체표시여부(T|F)}와 같으며, 객체표시여부는 객체를 표시할 때 T값이, 표시하지 않을 때 F값이 설정된다. 각 객체에 대한 객체 제어 변수의 초기 값은 객체동기화배치정보에 설정된 객체위치와 객체크기 값으로 대응되며, 객체표시여부는 모두 T값으로 설정된다. 도 4의 실시예에 따른 객체 제어 변수들 중 표시 위치가 변경되거나 표시하지 않는 객체들(411, 412, 431; 232)에 대한 예시는, vID11←{(308, 84, 160), (112, 320), T}, vID12←{(816, 56, 184), (96, 272), T}, vID31←{(308, 76, 232), (120, 192), T}, vID32←{(816, 48, 248), (96, 160), F}와 같으며, 이에 따라 ID32의 객체(232)는 표시되지 않는다. 반면에, 도 4의 실시예에 따른 객체 제어 변수들 중 표시 위치가 변경되지 않은 객체들(421, 422, 423)에 대한 예시는, vID21←{(40, 328, 24), (384, 288), T}, vID22←{(472, 320, 104), (416, 312), T}, vID23←{(0, 0, 0), (960, 720), T}와 같다. 한편, 객체동기화배치정보에서 객체위치나 객체크기가 바뀌기 전까지 각 객체에 대한 객체 제어 변수 값은 그대로 유지되지만, 시계열적 진행에 따라 객체동기화배치정보에서 객체위치나 객체크기가 바뀌면 해당 객체의 객체 제어 변수 값은 객체동기화배치정보의 객체위치와 객체크기 값으로 대치됨과 동시에 객체표시여부도 T값으로 변경되도록 하는 것이 바람직하다.
사용자의 작용에 의하여 멀티미디어 콘텐츠에 대한 표시 화면의 크기를 조절(resize)할 경우, 변경된 표시 화면의 크기에 부합하도록 각 객체의 위치와 크기를 조절하는 방법과, 각 객체의 위치와 크기는 그대로 유지한 채 표시 화면의 하단과 우단에 스크롤 바(scroll bar)를 생성하는 두 가지 방법이 있는데, 여기서는 전자의 방법에 대하여 설명하기로 한다. 표시 화면의 크기를 조절할 수 있도록 하기 위한 표시 윈도 제어 변수의 일 실시예 형식은 객체동기화배치정보의 기준 윈도 크기 형식과 동일하게 <Xw, Yh>와 같으며, 초기 값은 기준 윈도 크기의 값과 동일하다. 표시 윈도 제어 변수는, 사용자의 작용에 의하여 표시 화면의 크기를 조절할 때, 기준 윈도 크기와 대비하여 투시 위치와 객체위치 및 객체크기의 상대적인 위치와 크기를 부합시키기 위한 것으로서, 투시 제어 변수의 투시점 위치와 객체 제어 변수들의 객체위치 및 객체크기에 반영하여 적용하고, 합성 모듈(505)에서 객체들을 합성하여 표시할 때 투시 제어 변수와 객체 제어 변수들뿐만 아니라 표시 윈도 제어 변수도 참조된다. 사용자의 작용에 의하여 표시 화면의 크기가 변경되면, 상기 방법에 따라 입력 모듈(501)에서 사용자의 작용을 입력 받아 사용자 조작 모듈(510)을 호출하고, 사용자 조작 모듈(510)은 표시 윈도 제어 변수를 사용자의 작용에 따른 소정의 값으로 설정함과 동시에, 투시 제어 변수와 모든 객체 제어 변수들에 대하여 기준 윈도 크기 대비 표시 윈도 제어 변수의 값을 반영하여 상대적으로 부합된 투시점 위치와 객체위치 및 객체크기 값으로 설정한 후에 입력 모듈(501)로 복귀하고, 합성 모듈(505)을 통하여 반영되어 객체들의 합성 및 표시에 적용된다. 또한, 투시 위치를 변경하도록 사용자의 작용을 입력하면, 상기 방법에 따라 입력 모듈(501)에서 사용자의 작용을 입력 받아 사용자 조작 모듈(510)을 호출하고, 사용자 조작 모듈(510)은 투시 제어 변수를 사용자의 작용에 따른 소정의 값으로 설정하되 기준 윈도 크기 대비 표시 윈도 제어 변수의 값을 반영하여 상대적으로 부합된 투시점 위치 값으로 설정한 후에 입력 모듈(501)로 복귀한다. 마찬가지로, 소정의 객체들에 대하여 표시하지 않거나 표시 위치를 변경하도록 사용자의 작용을 입력하면, 상기 방법에 따라 입력 모듈(501)에서 사용자의 작용을 입력 받아 객체 제어 모듈(520)을 호출하고, 객체 제어 모듈(520)은 해당 객체 제어 변수들을 사용자의 작용에 따른 소정의 값으로 설정하되 기준 윈도 크기 대비 표시 윈도 제어 변수의 값을 반영하여 상대적으로 부합된 객체위치와 객체크기 값으로 설정한 후에 입력 모듈(501)로 복귀한다. 또한, 시계열적 진행에 따라 객체동기화배치정보에서 객체위치나 객체크기가 바뀌어서 해당 객체의 객체 제어 변수 값을 객체동기화배치정보의 객체위치와 객체크기 값으로 대치할 때 기준 윈도 크기 대비 표시 윈도 제어 변수의 값을 반영하여 상대적으로 부합된 객체위치와 객체크기 값으로 설정한다. 사용자의 작용에 의하여 멀티미디어 콘텐츠에 대한 표시 화면의 크기를 조절할 때에는 실제 화면의 전체 크기보다 늘이지 않도록 하고, 소정의 표시 화면 크기보다 줄이지 않도록 하는 것이 바람직하다.
사용자의 작용에 의하여 멀티미디어 콘텐츠에 대한 3차원적인 Z좌표의 총 크기인 원근의 깊이도 조절할 수 있는데, 원근의 깊이를 조절할 수 있도록 하기 위한 원근 깊이 제어 변수의 일 실시예 형식은 객체동기화배치정보의 기준 원근 깊이 형식과 동일하게 <Zd>와 같으며, 초기 값은 기준 원근 깊이의 값과 동일하다. 원근 깊이 제어 변수는, 사용자의 작용에 의하여 원근의 깊이를 조절할 때, 기준 원근 깊이와 대비하여 객체위치의 Z좌표에 대한 상대적인 위치를 부합시키기 위한 것으로서, 객체 제어 변수들의 객체위치에 반영하여 적용하고, 합성 모듈(505)에서 객체들을 합성하여 표시할 때 투시 제어 변수와 객체 제어 변수들 및 표시 윈도 제어 변수뿐만 아니라 원근 깊이 제어 변수도 참조된다. 사용자의 작용에 의하여 원근의 깊이가 변경되면, 상기 방법에 따라 입력 모듈(501)에서 사용자의 작용을 입력 받아 사용자 조작 모듈(510)을 호출하고, 사용자 조작 모듈(510)은 원근 깊이 제어 변수를 사용자의 작용에 따른 소정의 값으로 설정함과 동시에, 모든 객체 제어 변수들에 대하여 기준 원근 깊이 대비 원근 깊이 제어 변수의 값을 반영하여 상대적으로 부합된 객체위치 값으로 설정한 후에 입력 모듈(501)로 복귀하고, 합성 모듈(505)을 통하여 반영되어 객체들의 합성 및 표시에 적용된다. 또한, 시계열적 진행에 따라 객체동기화배치정보에서 객체위치나 객체크기가 바뀌어서 해당 객체의 객체 제어 변수 값을 객체동기화배치정보의 객체위치 값으로 대치할 때 기준 원근 깊이 대비 원근 깊이 제어 변수의 값을 반영하여 상대적으로 부합된 객체위치 값으로 설정한다. 사용자의 작용에 의하여 멀티미디어 콘텐츠에 대한 원근의 깊이를 조절할 때에는 소정의 원근 깊이 범위 내에서 조절하도록 하는 것이 바람직하다.
이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였기 때문에, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 그 기술적 사상이나 필수적인 특징을 변경하지 않고 다른 구체적인 형태로도 실시할 수 있다는 것을 이해할 수 있을 것이다.
한편, 이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 한정하는 것은 아니다.

Claims (7)

  1. 사용자의 작용에 따라 유무선 통신망을 통하여 콘텐츠 서버에서 전송된, 2차원 또는 3차원의 영상으로 구성된 하나 이상의 인물영상객체와, 2차원 또는 3차원의 화상이나 2차원 또는 3차원의 영상으로 구성된 하나 이상의 콘텐츠배경객체 및/또는 2차원 또는 3차원의 화상이나 2차원 또는 3차원의 영상으로 구성된 하나 이상의 콘텐츠전경객체와, 상기 인물영상객체와 상기 콘텐츠배경객체 및/또는 상기 콘텐츠전경객체에 대한 시계열적 3차원 객체동기화배치정보로 구성된 멀티미디어 콘텐츠를 콘텐츠 클라이언트에서 수신하여, 상기 인물영상객체에 대하여 크로마키 처리한 후, 상기 시계열적 3차원 객체동기화배치정보에 따라 상기 크로마키 처리된 인물영상객체와 상기 콘텐츠배경객체 및/또는 상기 콘텐츠전경객체의 표시 위치를 적용하는 단계;
    상기 콘텐츠 클라이언트에서 사용자의 작용에 의하여 지정한 투시 위치에 따라 상기 크로마키 처리된 인물영상객체와 상기 콘텐츠배경객체 및/또는 상기 콘텐츠전경객체의 표시 위치와 형태 및 크기를 재 적용하는 단계; 및
    상기 콘텐츠 클라이언트에서 표시 위치와 형태 및 크기가 재 적용된, 상기 크로마키 처리된 인물영상객체와 상기 콘텐츠배경객체 및/또는 상기 콘텐츠전경객체를 합성하여 표시하는 단계를 포함하는 인터랙티브 가상현실 서비스 방법.
  2. 제1항에 있어서,
    상기 투시 위치란 상기 멀티미디어 콘텐츠의 중심점을 기준으로 하여 상하좌우로 이동한 투시점의 위치로 구성되는 것을 특징으로 하는 인터랙티브 가상현실 서비스 방법.
  3. 제1항에 있어서,
    상기 투시 위치란 상기 멀티미디어 콘텐츠의 중심점을 기준으로 하여 상하좌우 및 원근으로 이동하여 정면을 투시하는 투시점의 위치와 투시 거리로 구성되는 것을 특징으로 하는 인터랙티브 가상현실 서비스 방법.
  4. 제1항에 있어서,
    상기 콘텐츠 클라이언트에서 사용자의 작용에 의하여 지정한 투시 위치에 따라 상기 크로마키 처리된 인물영상객체와 상기 콘텐츠배경객체 및/또는 상기 콘텐츠전경객체의 표시 위치와 형태 및 크기를 재 적용하기 전에,
    상기 콘텐츠 클라이언트에서 상기 크로마키 처리된 인물영상객체와 상기 콘텐츠배경객체 및/또는 상기 콘텐츠전경객체 중 사용자의 작용에 따라 특정한 하나 이상의 객체에 대하여 표시하지 않거나 표시 위치를 변경하여 적용하는 단계를 더 포함하는 인터랙티브 가상현실 서비스 방법.
  5. 콘텐츠 클라이언트에서 사용자의 작용을 입력 받아 처리하는 입력 모듈;
    유무선 통신망을 통하여 콘텐츠 서버에서 전송된, 2차원 또는 3차원의 영상으로 구성된 하나 이상의 인물영상객체와, 2차원 또는 3차원의 화상이나 2차원 또는 3차원의 영상으로 구성된 하나 이상의 콘텐츠배경객체 및/또는 2차원 또는 3차원의 화상이나 2차원 또는 3차원의 영상으로 구성된 하나 이상의 콘텐츠전경객체와, 상기 인물영상객체와 상기 콘텐츠배경객체 및/또는 상기 콘텐츠전경객체에 대한 시계열적 3차원 객체동기화배치정보로 구성된 멀티미디어 콘텐츠를 상기 콘텐츠 클라이언트에서 수신하는 객체 수신 모듈;
    상기 콘텐츠 클라이언트에서 상기 인물영상객체에 대하여 크로마키 처리하는 크로마키 모듈;
    상기 콘텐츠 클라이언트에서 상기 시계열적 3차원 객체동기화배치정보에 따라 상기 크로마키 처리된 인물영상객체와 상기 콘텐츠배경객체 및/또는 상기 콘텐츠전경객체의 표시 위치를 적용하는 객체 배치 모듈;
    상기 콘텐츠 클라이언트에서 소정의 투시 위치에 따라 상기 크로마키 처리된 인물영상객체와 상기 콘텐츠배경객체 및/또는 상기 콘텐츠전경객체의 표시 위치와 형태 및 크기를 재 적용하는 사용자 조작 모듈; 및
    상기 콘텐츠 클라이언트에서 표시 위치와 형태 및 크기가 재 적용된, 상기 크로마키 처리된 인물영상객체와 상기 콘텐츠배경객체 및/또는 상기 콘텐츠전경객체를 합성하여 표시하는 합성 모듈을 포함하는 인터랙티브 가상현실 서비스 장치.
  6. 제5항에 있어서,
    상기 콘텐츠 클라이언트에서 상기 크로마키 처리된 인물영상객체와 상기 콘텐츠배경객체 및/또는 상기 콘텐츠전경객체 중 소정의 하나 이상의 객체에 대하여 표시하지 않거나 표시 위치를 변경하여 적용하는 객체 제어 모듈을 더 포함하는 인터랙티브 가상현실 서비스 장치.
  7. 제1항 내지 제4항 중 적어도 하나의 방법을 수행하는 프로그램을 기록한 컴퓨터 판독가능 기록 매체.
KR1020100075144A 2010-08-04 2010-08-04 인터랙티브 가상현실 서비스 방법 및 장치 KR20120013021A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100075144A KR20120013021A (ko) 2010-08-04 2010-08-04 인터랙티브 가상현실 서비스 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100075144A KR20120013021A (ko) 2010-08-04 2010-08-04 인터랙티브 가상현실 서비스 방법 및 장치

Publications (1)

Publication Number Publication Date
KR20120013021A true KR20120013021A (ko) 2012-02-14

Family

ID=45836706

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100075144A KR20120013021A (ko) 2010-08-04 2010-08-04 인터랙티브 가상현실 서비스 방법 및 장치

Country Status (1)

Country Link
KR (1) KR20120013021A (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150030993A (ko) * 2013-09-13 2015-03-23 한국전자통신연구원 콘텐츠 체험 서비스 제공 장치 및 그 방법
KR20160108158A (ko) * 2015-03-05 2016-09-19 삼성전자주식회사 3차원 배경 콘텐트를 합성하는 방법 및 디바이스
KR20190003339A (ko) 2017-06-30 2019-01-09 주식회사 레벨나인 영상 제어 방법 및 서버
WO2023133153A3 (en) * 2022-01-04 2023-08-17 Liteboxer Technologies, Inc. Embedding a trainer in virtual reality (vr) environment using chroma-keying

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150030993A (ko) * 2013-09-13 2015-03-23 한국전자통신연구원 콘텐츠 체험 서비스 제공 장치 및 그 방법
US9236032B2 (en) 2013-09-13 2016-01-12 Electronics And Telecommunications Research Institute Apparatus and method for providing content experience service
KR20160108158A (ko) * 2015-03-05 2016-09-19 삼성전자주식회사 3차원 배경 콘텐트를 합성하는 방법 및 디바이스
KR20190003339A (ko) 2017-06-30 2019-01-09 주식회사 레벨나인 영상 제어 방법 및 서버
WO2023133153A3 (en) * 2022-01-04 2023-08-17 Liteboxer Technologies, Inc. Embedding a trainer in virtual reality (vr) environment using chroma-keying

Similar Documents

Publication Publication Date Title
US10078917B1 (en) Augmented reality simulation
US20180316939A1 (en) Systems and methods for video processing, combination and display of heterogeneous sources
US20180345144A1 (en) Multiple Frame Distributed Rendering of Interactive Content
US20180316947A1 (en) Video processing systems and methods for the combination, blending and display of heterogeneous sources
US8754931B2 (en) Video eyewear for smart phone games
US10055785B2 (en) Three-dimensional shopping platform displaying system
EP2815582B1 (en) Rendering of an interactive lean-backward user interface on a television
US20180316942A1 (en) Systems and methods and interfaces for video processing, combination and display of heterogeneous sources
US10192363B2 (en) Math operations in mixed or virtual reality
US11284137B2 (en) Video processing systems and methods for display, selection and navigation of a combination of heterogeneous sources
US20180316944A1 (en) Systems and methods for video processing, combination and display of heterogeneous sources
US20180316943A1 (en) Fpga systems and methods for video processing, combination and display of heterogeneous sources
US20180316946A1 (en) Video processing systems and methods for display, selection and navigation of a combination of heterogeneous sources
WO2001052528A1 (en) Video sample rate conversion to achieve 3-d effects
CN113646752B (zh) Vr直播发布系统、发布服务器、发布服务器的控制方法、发布服务器程序的计算机可读存储介质、以及vr原始照片数据的处理方法
JP2021002288A (ja) 画像処理装置、コンテンツ処理システム、および画像処理方法
WO2018071781A2 (en) Systems and methods for video processing and display
US20180316941A1 (en) Systems and methods for video processing and display of a combination of heterogeneous sources and advertising content
US20180316940A1 (en) Systems and methods for video processing and display with synchronization and blending of heterogeneous sources
CN110710203B (zh) 用于生成和渲染沉浸式视频内容的方法、系统和介质
US11930228B2 (en) Computer program, server device, terminal device and method
CN110730340B (zh) 基于镜头变换的虚拟观众席展示方法、系统及存储介质
KR20120013021A (ko) 인터랙티브 가상현실 서비스 방법 및 장치
CN112184359A (zh) 受引导的消费者体验
Cha et al. 3D video player system with haptic interaction based on depth image-based representation

Legal Events

Date Code Title Description
A201 Request for examination
E601 Decision to refuse application