KR101926477B1 - Contents play method and apparatus - Google Patents

Contents play method and apparatus Download PDF

Info

Publication number
KR101926477B1
KR101926477B1 KR1020110114883A KR20110114883A KR101926477B1 KR 101926477 B1 KR101926477 B1 KR 101926477B1 KR 1020110114883 A KR1020110114883 A KR 1020110114883A KR 20110114883 A KR20110114883 A KR 20110114883A KR 101926477 B1 KR101926477 B1 KR 101926477B1
Authority
KR
South Korea
Prior art keywords
user
content
unit
virtual
space
Prior art date
Application number
KR1020110114883A
Other languages
Korean (ko)
Other versions
KR20130010424A (en
Inventor
정상근
박현철
정문식
조경선
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to EP12814483.9A priority Critical patent/EP2735164A4/en
Priority to CN201280035942.2A priority patent/CN103703772A/en
Priority to PCT/KR2012/000375 priority patent/WO2013012146A1/en
Priority to US13/356,220 priority patent/US20130023342A1/en
Publication of KR20130010424A publication Critical patent/KR20130010424A/en
Application granted granted Critical
Publication of KR101926477B1 publication Critical patent/KR101926477B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic

Abstract

본 발명은 사용자의 감각을 자극하는 콘텐츠를 실감나게 재생하도록 한 콘텐츠 재생 방법 및 장치를 제공하기 위한 것이다. 본 발명에 따른 콘텐츠 재생 방법 및 장치는 콘텐츠 재생 기능을 구비한 노트북 PC, 데스크탑 PC, 태블릿 PC, 스마트 폰, HDTV(High Definition TeleVision), 스마트 TV, 3D(3-Dimensional) TV, IPTV(Internet Protocol Television), 입체 음향 시스템, 극장 시스템, 홈시어터(home theater), 홈 네트워크 시스템 등에 적용될 수 있다. 콘텐츠를 실감나게 재생하기 위해 본 발명에 따른 콘텐츠 재생 방법은 사용자의 제 1 위치를 결정하는 단계; 상기 결정된 제 1 위치를 기준으로 상기 사용자가 존재하는 실제공간과 표시부를 통해 표시되는 콘텐츠 공간을 맵핑하는 단계; 상기 사용자의 제 2 위치에 대응되는 상기 콘텐츠 공간상에서의 가상 시점(virtual viewpoint)을 결정하는 단계; 및 상기 결정된 가상 시점에 대응되는 콘텐츠를 재생하는 단계를 포함하는 것을 특징으로 한다.The present invention is intended to provide a content playback method and apparatus that realistically reproduce a content that stimulates the user's sense. The method and apparatus for playing back content according to the present invention can be applied to a notebook PC, a desktop PC, a tablet PC, a smart phone, a high definition television (HDTV), a smart TV, a 3D (3-Dimensional) TV, Television, a stereo system, a theater system, a home theater, a home network system, and the like. In order to realistically reproduce contents, a method for reproducing contents according to the present invention includes: determining a first position of a user; Mapping the actual space in which the user exists and a content space displayed through the display unit based on the determined first position; Determining a virtual viewpoint on the content space corresponding to a second location of the user; And reproducing the content corresponding to the determined virtual time point.

Description

콘텐츠 재생 방법 및 장치{CONTENTS PLAY METHOD AND APPARATUS}[0001] CONTENTS PLAY METHOD AND APPARATUS [0002]

본 발명은 콘텐츠 재생 방법 및 장치에 관한 것으로 특히, 사용자의 위치에 대응하여 콘텐츠를 재생하는 방법 및 장치에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a content playback method and apparatus, and more particularly, to a method and apparatus for playing content in response to a user's location.

최근 3차원 입체 영상에 대한 수요가 급증하고 있으며, 디지털 방송이 상용화된 이후 3D(3-Dimensional) TV 및 3D 정보 단말기 등의 분야에서 입체 영상에 대한 연구가 활발히 이루어지고 있다. 일반적으로 3차원으로 표현되는 입체 영상은 두 눈을 통한 스테레오(stereo) 시각의 원리에 의하여 이루어진다. 두 눈이 약 65mm 정도 떨어져서 있음으로 인해 나타나는 양안 시차는 깊이감의 중요한 요인으로 작용한다. 좌우의 눈은 서로 다른 입체 영상을 보게 되고, 두 입체 영상이 망막을 통해 뇌로 전달되면, 뇌는 이를 융합하여 입체 영상에 대해 깊이감을 느끼게 된다.Recently, demand for three-dimensional (3D) stereoscopic images has increased rapidly, and since digital broadcasting has been commercialized, stereoscopic images have been actively studied in the fields of 3D (3-Dimensional) TV and 3D information terminal. Generally, stereoscopic images expressed in three dimensions are made by the principle of stereo vision through two eyes. The binocular parallax caused by the distance of about 65mm between the two eyes is an important factor of depth. The left and right eyes see different stereoscopic images, and when two stereoscopic images are transmitted to the brain through the retina, the brain fuses them to feel the depth of the stereoscopic image.

그러나, 3D TV의 경우, 사용자의 위치에 상관없이 항상 시점(viewpoint)이 고정된 3D 영상을 보여줄 뿐, TV 안에 들어와 있는 듯 실감나는 영상을 제공해주지 못하고 있는 실정이다.However, in the case of the 3D TV, the 3D image with the fixed viewpoint is always displayed irrespective of the user's position, and the reality is not provided as if it is in the TV.

본 발명은 사용자의 위치에 대응하여 사용자의 감각 중에서 적어도 시각을 자극하는 콘텐츠를 실감나게 재생하는 방법 및 장치를 제공함을 목적으로 한다.An object of the present invention is to provide a method and apparatus for realistically reproducing contents that stimulate at least the time of the user's sense corresponding to the position of the user.

상술한 해결하고자 하는 과제를 달성하기 위해 본 발명에 따른 콘텐츠 재생 방법은 사용자의 제 1 위치를 결정하는 단계; 상기 결정된 제 1 위치를 기준으로 상기 사용자가 존재하는 실제공간과 표시부를 통해 표시되는 콘텐츠 공간을 맵핑하는 단계; 상기 사용자의 제 2 위치에 대응되는 상기 콘텐츠 공간상에서의 가상 시점(virtual viewpoint)을 결정하는 단계; 및 상기 결정된 가상 시점에 대응되는 콘텐츠를 재생하는 단계를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a method of reproducing a content, including: determining a first position of a user; Mapping the actual space in which the user exists and a content space displayed through the display unit based on the determined first position; Determining a virtual viewpoint on the content space corresponding to a second location of the user; And reproducing the content corresponding to the determined virtual time point.

또한 본 발명에 따른 콘텐츠 재생 장치는 사용자의 감각을 자극하는 콘텐츠를 수집하는 콘텐츠 수집부; 상기 콘텐츠 수집부로부터 입력된 콘텐츠를 재생이 가능하도록 처리하는 콘텐츠 처리부; 상기 콘텐츠 처리부로부터 입력된 콘텐츠를 재생하는 콘텐츠 재생부; 상기 콘텐츠가 상기 사용자의 위치에 대응되게 재생되도록 상기 사용자의 위치와 관련된 정보를 수집하는 센서부; 및 상기 센서부로부터 수신된 정보를 기반으로 상기 사용자의 위치에 대응되는 가상의 콘텐츠 공간상에서의 가상 시점(virtual viewpoint)를 결정하고, 상기 결정된 가상 시점에 대응되는 콘텐츠가 재생되도록 제어하는 제어부를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a content reproducing apparatus including a content collecting unit for collecting a content for stimulating a user's senses; A content processing unit that processes the content input from the content collecting unit so as to be reproducible; A content reproduction unit for reproducing the content input from the content processing unit; A sensor unit for collecting information related to the position of the user so that the content is reproduced corresponding to the position of the user; And a control unit for determining a virtual viewpoint on a virtual content space corresponding to the location of the user based on the information received from the sensor unit and controlling the content corresponding to the determined virtual time point to be reproduced .

이상으로 본 발명에 따른 콘텐츠 재생 방법 및 장치에 따르면, 본 발명은 사용자의 감각을 자극하는 콘텐츠를 실감나게 재생할 수 있는 효과가 있다.As described above, according to the method and apparatus for reproducing contents according to the present invention, it is possible to realistically reproduce contents that stimulate the user's sense.

도 1은 본 발명의 일 실시예에 따른 콘텐츠 재생 장치의 블록 구성도이다.
도 2는 본 발명에 따른 3D 공간을 표현하기 위한 3차원 좌표계를 도시한 것이다.
도 3a, 도 3b 및 도3c는 각각, 본 발명에 따른 실제 공간을 설명하기 위한 사시도, 상면도 및 측면도이다.
도 4a 및 도 4b는 각각, 본 발명에 따른 가상의 콘텐츠 공간을 설명하기 위한 사시도 및 상면도이다.
도 5는 본 발명의 일 실시예에 따른 실감형 재생부의 블록 구성도이다.
도 6은 본 발명의 일 실시예에 따른 공간 맵핑 방법을 설명하기 위한 도면이다.
도 7은 본 발명의 다른 실시예에 따른 공간 맵핑 방법을 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시예에 따른 가상 시점 결정 방법을 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시예에 따른 가상 카메라의 앵글 조절 방법을 설명하기 위한 도면이다.
도 10은 본 발명의 일 실시예에 따른 입체 영상 조절 방법을 설명하기 위한 도면이다.
도 11은 본 발명의 일 실시예에 따른 입체 음향 조절 방법을 설명하기 위한 도면이다.
도 12는 본 발명의 일 실시예에 따른 콘텐츠 재생 장치가 적용된 홈 네트워크 시스템의 네트워크 구성도이다.
도 13은 본 발명의 일 실시예에 따른 콘텐츠 재생 방법을 설명하기 위한 흐름도이다.
도 14는 본 발명의 다른 실시예에 따른 콘텐츠 재생 방법을 설명하기 위한 흐름도이다.
1 is a block diagram of a contents reproducing apparatus according to an embodiment of the present invention.
FIG. 2 shows a three-dimensional coordinate system for representing a 3D space according to the present invention.
3A, 3B and 3C are a perspective view, a top view, and a side view, respectively, for explaining an actual space according to the present invention.
4A and 4B are a perspective view and a top view, respectively, for explaining a virtual content space according to the present invention.
5 is a block diagram of a real-time playback unit according to an embodiment of the present invention.
6 is a diagram for explaining a spatial mapping method according to an embodiment of the present invention.
7 is a view for explaining a spatial mapping method according to another embodiment of the present invention.
8 is a view for explaining a method for determining a virtual viewpoint according to an embodiment of the present invention.
9 is a diagram for explaining an angle adjusting method of a virtual camera according to an embodiment of the present invention.
10 is a view for explaining a stereoscopic image adjusting method according to an embodiment of the present invention.
11 is a view for explaining a stereo sound adjusting method according to an embodiment of the present invention.
12 is a network configuration diagram of a home network system to which a content reproducing apparatus according to an embodiment of the present invention is applied.
13 is a flowchart illustrating a content playback method according to an embodiment of the present invention.
14 is a flowchart for explaining a content playback method according to another embodiment of the present invention.

이하에는 첨부한 도면을 참조하여 본 발명의 바람직한 실시예에 따라 콘텐츠 재생 방법 및 장치에 대해서 상세하게 설명한다. 단, 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명은 생략한다.Hereinafter, a content reproducing method and apparatus according to a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

본 발명의 상세한 설명에 앞서, 이하에서 사용되는 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 한다. 따라서, 본 명세서와 도면은 본 발명의 바람직한 실시예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원 시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다. 또한, 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 또는 개략적으로 도시되었으며, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. 따라서 본 발명은 첨부한 도면에 그려진 상대적인 크기나 간격에 의해 제한되어지지 않는다.Before describing the present invention, it is to be understood that the terminology used herein is for the purpose of description and should not be interpreted to limit the scope of the present invention. Accordingly, the specification and drawings are to be regarded in an illustrative rather than a restrictive sense only and not for purposes of limitation, and that various equivalents and modifications may be substituted for them at the time of filing of the present application . Also, in the accompanying drawings, some of the elements are exaggerated, omitted or schematically shown, and the size of each element does not entirely reflect the actual size. Accordingly, the present invention is not limited by the relative size or spacing depicted in the accompanying drawings.

아래 설명에서 콘텐츠는 사용자의 감각 즉, 시각, 청각, 촉각 등을 자극하는 것으로 정의된다. 예를 들어, 콘텐츠는 영상, 빛, 소리, 바람 등이 될 수 있다. 또한 실감형 재생은 사용자의 위치에 대응하여 콘텐츠를 재생하는 것으로 정의될 수 있다. 즉 사용자의 위치가 다르면 같은 속성의 콘텐츠라 하더라도 사용자의 느낌은 다를 수 있다. 예컨대 콘텐츠가 화면에 표시되는 자동차라고 가정하면 사용자의 위치에 따라 자동차의 정면이 보이거나 자동차의 측면이 보이는 것과 같다.In the following description, content is defined as stimulating a user's sense, namely, visual, auditory, tactile, and the like. For example, the content can be video, light, sound, wind, and the like. Further, realistic playback can be defined as playback of the content corresponding to the position of the user. That is, if the user's position is different, the user's feeling may be different even if the content of the same attribute. For example, assuming that the content is a car displayed on the screen, the front of the car can be seen or the side of the car can be seen depending on the location of the user.

본 발명에 따른 콘텐츠 재생 방법 및 장치는 사용자의 감각을 자극하는 콘텐츠를 재생하는 기능을 구비한 전자 기기에 적용될 수 있다. 구체적으로 본 발명에 따른 콘텐츠 재생 방법 및 장치는 노트북 PC, 데스크탑 PC, 태블릿 PC, 스마트 폰, HDTV(High Definition TeleVision), 스마트 TV, 3D(3-Dimensional) TV, IPTV(Internet Protocol Television), 입체 음향 시스템, 극장 시스템, 홈시어터(home theater), 홈 네트워크 시스템 등에 적용될 수 있다. The content reproducing method and apparatus according to the present invention can be applied to an electronic apparatus having a function of reproducing a content that stimulates the user's sense. More specifically, the method and apparatus for reproducing contents according to the present invention can be applied to various applications such as a notebook PC, a desktop PC, a tablet PC, a smart phone, an HDTV (High Definition TeleVision), a smart TV, a 3D (3-Dimensional) TV, A sound system, a theater system, a home theater, a home network system, and the like.

본 발명에 따른 콘텐츠 재생 방법 및 장치는 사용자의 위치 변화를 추적(tracking)하는 기능과, 추적된 사용자의 위치에 대응하여 콘텐츠를 실감나게 재생하는 기능을 제공한다. 또한 본 발명에 따른 콘텐츠 재생 방법 및 장치는 유선 랜(LAN; Local Area Network), 무선 랜, 3G(3-Generation)나 4G(4-Generation) 등의 이동통신망, 케이블, 방송 위성, 방송국 등을 통해 콘텐츠 제공자로부터 콘텐츠 즉, 영상을 수신하고, 수신한 영상을 구비된 데이터베이스에 저장하고 실시간 재생할 수 있는 기능을 제공할 수 있다. 여기서, 영상은 입체 영상(stereoscopic image)을 포함할 수 있다. 또한 입체 영상은 3D 영화, 3D 애니메이션, 3D 컴퓨터 그래픽 등이 될 수 있다. 또한, 입체 영상은 입체 음향과 혼합된 멀티미디어일 수도 있다.The content reproducing method and apparatus according to the present invention provides a function of tracking a change in a user's position and a function of realistically reproducing a content in response to the position of the tracked user. The contents reproducing method and apparatus according to the present invention can also be applied to a mobile communication network such as a wired LAN (Local Area Network), a wireless LAN, a 3-Generation (3G) A function of receiving a content, that is, a video from a content provider, storing the received video in a database and real-time playback of the received video. Here, the image may include a stereoscopic image. In addition, stereoscopic images can be 3D movies, 3D animations, 3D computer graphics, and the like. In addition, the stereoscopic image may be multimedia mixed with stereo sound.

도 1은 본 발명의 일 실시예에 따른 콘텐츠 재생 장치의 블록 구성도이다. 도 1에 따른 콘텐츠 재생 장치는 콘텐츠를 화면과 사용자 사이의 3차원 공간상에 있는 것처럼 보이게 할 수 있는 3D TV로 가정하여 설명한다. 도 1을 참조하면, 본 발명의 일 실시예에 따른 콘텐츠 재생 장치(100)는 1 is a block diagram of a contents reproducing apparatus according to an embodiment of the present invention. The content reproduction apparatus according to FIG. 1 is assumed to be a 3D TV that can make a content appear as if it is in a three-dimensional space between a screen and a user. Referring to FIG. 1, a content reproduction apparatus 100 according to an embodiment of the present invention includes:

도 1을 참조하면, 본 발명의 일 실시예에 따른 콘텐츠 재생 장치는 입력부(110), 리모컨(120), 리모컨 수신부(125), 센서부(130), 콘텐츠 수집부(140), 콘텐츠 처리부(150), 음향 출력부(161), 영상 표시부(162), 저장부(170), 인터페이스부(180) 및 제어부(190)를 포함하여 이루어질 수 있다.1, a content reproducing apparatus according to an exemplary embodiment of the present invention includes an input unit 110, a remote controller 120, a remote controller receiver 125, a sensor unit 130, a content collecting unit 140, An audio output unit 161, an image display unit 162, a storage unit 170, an interface unit 180, and a control unit 190.

입력부(110)는 숫자 또는 문자 정보를 입력받고 각종 기능들을 설정하기 위한 다수의 입력키 및 기능키들을 포함할 수 있다. 상기 기능키들은 특정 기능을 수행하도록 설정된 방향키, 사이드 키 및 단축키 등을 포함할 수 있다. 또한 입력부(110)는 사용자 설정 및 콘텐츠 재생 장치(100)의 기능 제어와 관련한 키 이벤트를 생성하여 제어부(190)로 전달한다. 키 이벤트는 전원 온/오프 이벤트, 볼륨 조절 이벤트, 화면 온/오프 이벤트 등을 포함할 수 있다. 제어부(190)는 이러한 키 이벤트에 응답하여 상기한 구성들을 제어한다.The input unit 110 may include a plurality of input keys and function keys for receiving numeric or character information and setting various functions. The function keys may include a direction key, a side key, and an accelerator key set for performing a specific function. Also, the input unit 110 generates a key event related to the user setting and the function control of the content reproduction apparatus 100, and transmits the key event to the control unit 190. The key event may include a power on / off event, a volume adjustment event, a screen on / off event, and the like. The control unit 190 controls the above-described configurations in response to these key events.

리모컨(120)은 콘텐츠 재생 장치(100)의 조작을 위한 다양한 키 이벤트를 발생하고, 발생된 키 이벤트를 무선 신호로 변환하여 리모컨 수신부(125)로 전송한다. 특히, 본 발명에서 리모컨(120)은 실감형 재생을 요청하는 개시 이벤트와, 실감형 재생을 종료하는 종료 이벤트를 발생할 수 있다. 여기서 실감형 재생은 상술한 바와 같이, 사용자의 위치에 대응하여 콘텐츠를 재생하는 것으로 정의될 수 있다. 리모컨 수신부(125)는 수신된 무선 신호를 원래의 키 이벤트로 변환하여 제어부(190)로 전달한다.The remote controller 120 generates various key events for the operation of the content reproduction apparatus 100, converts the generated key events into radio signals, and transmits the radio signals to the remote controller receiver 125. Particularly, in the present invention, the remote controller 120 can generate a start event for requesting real-time playback and a termination event for ending real-time playback. Here, realistic playback can be defined as reproducing the content corresponding to the position of the user, as described above. The remote control receiver 125 converts the received radio signal into an original key event and transmits the original key event to the controller 190.

센서부(130)는 제어부(190)가 사용자의 위치를 추적할 수 있게 사용자 위치와 관련된 정보를 수집하여, 수집된 정보를 제어부(190)로 전달한다. 구체적으로, 센서부(130)는 이미지 센서, 적외선과 같은 특정 파장의 빛을 감지하는 광센서 등으로 구현될 수 있다. 또한, 센서부(130)는 감지된 물리량을 전기적인 신호로 변환하고, 변환된 전기 신호를 다시 데이터로 AD(Analog to Digital) 변환하여 제어부(190)로 전달한다.The sensor unit 130 collects information related to the user location so that the controller 190 can track the location of the user and transmits the collected information to the controller 190. [ Specifically, the sensor unit 130 may be implemented as an image sensor, an optical sensor that detects light of a specific wavelength such as infrared rays, or the like. Also, the sensor unit 130 converts the sensed physical quantity into an electrical signal, converts the converted electrical signal into data analog to digital (AD), and transmits the data to the control unit 190.

콘텐츠 수집부(140)는 사용자의 감각을 자극하는 콘텐츠를 수집하는 기능을 수행한다. 특히 콘텐츠 수집부(140)는 네트워크 또는 외부기기로부터 영상 및 소리를 수집하는 기능을 수행한다. 즉 콘텐츠 수집부(140)는 방송 수신부(141)와 인터넷 통신부(142)를 포함하여 이루어질 수 있다. 구체적으로 방송 수신부(141)는 다수의 방송 채널에서 하나를 선택하고, 선택된 방송 채널의 방송 신호를 원래의 방송 콘텐츠로 복조한다. 인터넷 통신부(142)는 인터넷에서 제공하는 홈쇼핑, 홈뱅킹, 온라인 게임, MP3 등 다양한 메인 정보와 이에 대한 부가 정보를 수신하기 위한 유선 또는 무선 모뎀을 구비한다. 인터넷 통신부(142)는 이동 통신 모듈(예컨대, 3세대(3-Generation) 이동통신모듈, 3.5(3.5-Generation)세대 이동통신모듈 또는 4(4-Generation)세대 이동통신모듈 등)과 근거리 통신 모듈(예컨대, 와이파이(Wi-Fi) 모듈)을 포함할 수 있다.The content collecting unit 140 performs a function of collecting contents that stimulate the user's senses. In particular, the content collecting unit 140 performs a function of collecting images and sounds from a network or an external device. That is, the content collecting unit 140 may include a broadcast receiving unit 141 and an Internet communication unit 142. Specifically, the broadcast receiving unit 141 selects one of the plurality of broadcast channels and demodulates the broadcast signal of the selected broadcast channel into the original broadcast content. The Internet communication unit 142 includes a wired or wireless modem for receiving various kinds of main information such as home shopping, home banking, online games, MP3, and additional information provided from the Internet. The Internet communication unit 142 may be configured to communicate with a mobile communication module (e.g., a 3-Generation mobile communication module, a 3.5-Generation mobile communication module or a 4-Generation mobile communication module) (E.g., a Wi-Fi module).

콘텐츠 처리부(150)는 제어부(190)의 제어 하에, 콘텐츠 수집부(140)로부터 입력된 콘텐츠를 재생이 가능하도록 처리하는 기능을 수행한다. 구체적으로 콘텐츠 처리부(150)는 입력된 콘텐츠를 입체 영상과 입체 음향으로 분류한다. 그리고 콘텐츠 처리부(150)는 분류된 입체 음향을 디코딩하여 음향 출력부(161)로 출력하는 음향 처리부(151)와, 분류된 입체 영상을 좌안 영상과 우안 영상으로 디코딩하여 영상 표시부(162)로 출력하는 영상 처리부(152)를 포함하여 이루어질 수 있다. 또한, 콘텐츠 처리부(150)는 제어부(190)의 제어 하에, 입력된 콘텐츠를 압축하여 제어부(190)로 전달할 수 있다. 이에 따라 제어부(190)는 압축된 콘텐츠를 저장부(170)에 전달한다. 특히, 본 발명에 따른 음향 처리부(150)는 사용자의 위치에 따라 입체 음향의 방향감이나 거리감 등을 조절할 수 있다. 다시 말해, 음향 처리부(150)는 사용자의 위치에 따라, 음향 출력부(161)에서 출력되는 음향의 종류를 다르게 하거나, 음향의 종류별로 그 음량을 다르게 할 수 있다. 또한, 본 발명에 따른 영상 처리부(160)는 사용자의 위치에 따라 입체 영상의 명암, 입체감, 깊이감 등을 조절할 수 있다.The content processing unit 150 performs a function of processing the content input from the content collecting unit 140 so as to be reproducible under the control of the control unit 190. [ Specifically, the content processing unit 150 classifies the input content into a stereoscopic image and a stereoscopic image. The content processing unit 150 decodes the classified stereoscopic sound and outputs the decoded stereoscopic sound to the sound output unit 161. The stereoscopic image decoding unit 150 decodes the stereoscopic image into a left eye image and a right eye image and outputs the decoded stereoscopic image to the image display unit 162 And an image processing unit 152 for performing image processing. In addition, under the control of the control unit 190, the content processing unit 150 may compress the input content and transmit the compressed content to the control unit 190. Accordingly, the control unit 190 delivers the compressed content to the storage unit 170. In particular, the sound processor 150 according to the present invention can adjust a directional feeling, a distance, and the like of the stereophonic sound according to the position of the user. In other words, the sound processing unit 150 can change the type of sound output from the sound output unit 161 according to the user's position, or can change the sound volume according to the type of sound. In addition, the image processing unit 160 according to the present invention can adjust the contrast, depth, and depth of the stereoscopic image according to the user's position.

콘텐츠 재생부(160)는 콘텐츠 처리부(150)에서 처리된 콘텐츠를 재생하는 기능을 수행한다. 이러한 콘텐츠 재생부(160)는 음향 출력부(161)와 영상 표시부(162)를 포함하여 이루어질 수 있다. 음향 출력부(161)는 디코딩된 입체 음향을 출력하는 것으로써, 다수의 스피커 예컨대, 5.1 채널 스피커를 포함하여 이루어질 수 있다. 영상 표시부(162)는 디코딩된 입체 영상을 표시한다. 또한, 영상 표시부(162)는 입체 영상이 사용자와 영상 표시부(162)의 화면 사이의 3차원 공간에 실제 있는 것처럼, 입체 영상을 깊이감이 있게 표시할 수 있다. 이를 위해, 영상 표시부(162)는 입체 영상을 표시하는 표시부와 표시되는 입체 영상에 대해 사용자가 깊이감을 느낄 수 있도록 하는 3D 구현부를 포함하여 이루어질 수 있다. 여기서 표시부는 액정표시장치(LCD, Liquid Crystal Display), 유기 발광 다이오드(OLED, Organic Light Emitting Diodes), 능동형 유기 발광 다이오드(AMOLED, Active Matrix Organic Light Emitting Diodes) 등으로 형성될 수 있다. 3D 구현부는 표시부와 적층된 형태로 형성되는 구성 요소로서, 사용자의 좌우 양안에 각기 다른 영상이 인식되게 한다. 이러한 3D 구현 방식은 주지되어 있는 바와 같이, 안경 방식과 무안경 방식으로 구분된다. 안경 방식은 색 필터 방식, 편광 필터 방식 및 셔터 글라스 방식 등이 있으며, 무안경 방식은 렌티큘러 렌즈(Lenticular Lens) 방식 및 패럴렉스 배리어(Parallax Barrier) 방식 등이 있다. 이러한 3D 구현 방식은 공지되어 있는 기술들이므로 구체적인 설명은 생략한다.The content reproducing unit 160 performs a function of reproducing the content processed by the content processing unit 150. [ The content reproducing unit 160 may include an audio output unit 161 and a video display unit 162. The sound output unit 161 outputs decoded stereo sound, and may include a plurality of speakers, for example, a 5.1-channel speaker. The image display unit 162 displays the decoded stereoscopic image. Also, the image display unit 162 can display the stereoscopic image with a depth sense as if the stereoscopic image is actually present in a three-dimensional space between the user and the screen of the image display unit 162. [ For this purpose, the image display unit 162 may include a display unit for displaying a stereoscopic image and a 3D implementing unit for allowing the user to feel a depth feeling on the displayed stereoscopic image. The display unit may be formed of a liquid crystal display (LCD), an organic light emitting diode (OLED), an active matrix organic light emitting diode (AMOLED), or the like. The 3D implementation unit is a component formed in a laminated form with the display unit, and allows different images to be recognized in the left and right sides of the user. As is well known, such a 3D implementation method is classified into a spectacle method and a non-spectacle method. The spectacle method includes a color filter method, a polarizing filter method, a shutter glass method, and the non-spectacle method includes a lenticular lens method and a parallax barrier method. These 3D implementations are well known in the art, so a detailed description thereof will be omitted.

저장부(170)는 콘텐츠 재생 장치(100)의 동작에 필요한 프로그램 및 데이터를 저장하는 역할을 수행한다. 저장부(170)는 휘발성(volatile) 저장 매체 또는 비휘발성(nonvolatile) 저장 매체로 구성될 수 있으며, 양 저장 매체의 조합(combination)으로 구성될 수도 있다. 휘발성 저장 매체로는 RAM, DRAM, SRAM과 같은 반도체 메모리(semiconductor memory)가 포함되며, 비휘발성 저장 매체로는 하드 디스크(hard disk)가 포함될 수 있다. 또한 저장부(170)는 데이터 영역과 프로그램 영역으로 구분될 수 있다. 구체적으로 저장부(170)의 데이터 영역은 콘텐츠 재생 장치(100)의 사용에 따라 제어부(160)에 의해 발생되는 데이터를 저장할 수 있다. 또한 데이터 영역은 제어부(160)로부터 전달받은, 소정의 포맷으로 압축된 콘텐츠를 저장할 수 있다. 저장부(140)의 프로그램 영역은 콘텐츠 재생 장치(100)의 부팅 및 상술한 각 구성의 운용을 위한 운영체제(OS, Operating System), 다양한 사용자 기능 예를 들면, 인터넷 서버에 접속하기 위한 웹 브라우저, 기타 음원을 재생하기 위한 MP3 사용자 기능, 사진 등을 재생하기 위한 이미지 출력 기능, 동영상 재생 기능 등을 각각 지원하기 위한 어플리케이션들을 저장할 수 있다. 특히 본 발명에서 프로그램 영역은 실감형 재생 프로그램을 저장할 수 있다. 이러한 실감형 재생 프로그램은 사용자의 초기 위치를 결정하는 루틴과, 초기 위치를 기준으로 실제 공간과 콘텐츠 공간을 맵핑(mapping)하는 루틴과, 위치 변화를 추적(tracking)하는 루틴과, 사용자의 위치에 대응되는 콘텐츠 공간에서의 가상 시점(virtual viewpoint)을 결정하는 루틴과, 콘텐츠 공간에서의 시점에 대응되는 콘텐츠를 재생하는 루틴 등을 포함할 수 있다. 여기서 초기 위치는 실제 공간과 콘텐츠 공간을 맵핑하기 위한 기준값으로 정의된다. 실제 공간은 사용자와 표시부가 존재하는 3D 공간이고, 콘텐츠 공간은 표시부를 통해 표시되는 콘텐츠가 존재하는 가상의 공간이다. 또한 가상 시점(virtual viewpoint)는 실제 공간에 맵핑된 콘텐츠 공간상에서의 사용자의 시점으로 정의된다.The storage unit 170 stores programs and data necessary for the operation of the content reproduction apparatus 100. The storage unit 170 may be a volatile storage medium or a nonvolatile storage medium and may be a combination of both storage media. The volatile storage medium includes a semiconductor memory such as a RAM, a DRAM, and a SRAM, and a nonvolatile storage medium may include a hard disk. The storage unit 170 may be divided into a data area and a program area. Specifically, the data area of the storage unit 170 may store data generated by the control unit 160 in accordance with the use of the content reproduction apparatus 100. In addition, the data area can store content compressed in a predetermined format, which is received from the control unit 160. [ The program area of the storage unit 140 may include an operating system (OS) for operating the respective components of the content playback apparatus 100, a variety of user functions such as a web browser for accessing an Internet server, An MP3 user function for playing back other sound sources, an image output function for playing back pictures and the like, and a video playback function. Particularly, in the present invention, the program area can store the real-time playback program. The real-time playback program includes a routine for determining a user's initial position, a routine for mapping an actual space and a content space based on an initial position, a routine for tracking a position change, A routine for determining a virtual viewpoint in the corresponding content space, and a routine for reproducing the content corresponding to the viewpoint in the content space. The initial position is defined as a reference value for mapping the actual space and the content space. The actual space is a 3D space in which the user and the display unit exist, and the content space is a virtual space in which the content displayed through the display unit exists. Also, a virtual viewpoint is defined as a viewpoint of a user on a content space mapped to an actual space.

인터페이스부(180)는 콘텐츠 재생 장치(100)를 유선 또는 무선으로 외부 기기와 연결하는 기능을 수행한다. 이러한 인터페이스부(180)는 지그비(Zigbee) 모듈, 와이파이(Wi-Fi) 모듈 또는 블루투스(Bluetooth) 모듈 등을 포함할 수 있다. 특히 본 발명에서 인터페이스부(180)는 실감형 재생을 위한 제어 신호를 제어부(190)로부터 수신하고, 이를 외부 기기로 전달할 수 있다. 즉 제어부(190)는 인터페이스부(180)를 통해 외부 기기를 제어할 수 있다. 여기서 외부 기기는 홈 네트워크 장치, 입체 음향 장치, 전등, 에어컨, 난방기 등이 될 수 있다. 다시 말해 제어부(190)는 외부 기기를 제어하여 사용자의 감각 예컨대, 촉각, 시각, 후각 등을 자극하는 콘텐츠를 재생하게 할 수 있다.The interface unit 180 functions to connect the content reproduction apparatus 100 to an external device by wire or wirelessly. The interface unit 180 may include a Zigbee module, a Wi-Fi module, or a Bluetooth module. In particular, in the present invention, the interface unit 180 receives a control signal for real-time playback from the controller 190 and can transmit the control signal to an external device. That is, the control unit 190 can control an external device through the interface unit 180. Here, the external device may be a home network device, a stereophonic device, a lamp, an air conditioner, a radiator, or the like. In other words, the control unit 190 may control an external device to reproduce a content that stimulates a sense of the user, such as a tactile sense, a sight, a smell, and the like.

제어부(190)는 콘텐츠 재생 장치(100)의 전반적인 동작 및 콘텐츠 재생 장치(100)의 내부 구성들 간의 신호 흐름을 제어하고, 데이터를 처리하는 기능을 수행할 수 있다. 그리고 제어부(190)는 배터리에서 내부 구성들로의 전원 공급을 제어할 수 있다. 또한 제어부(190)는 프로그램 영역에 저장된 각종 어플리케이션을 실행할 수 있다. 특히 본 발명에서 제어부(190)는 실감형 재생을 위한 개시 이벤트가 감지되면, 상술한 실감형 재생 프로그램을 실행할 수 있다. 즉 실감형 재생 프로그램이 실행되면 제어부(190)는 사용자의 초기 위치를 결정하고 사용자의 위치 변화를 추적한다. 그리고 제어부(190)는 초기 위치를 기준으로 실제 공간과 콘텐츠 공간을 맵핑하고, 추적된 위치에 대응되는 가상 시점(virtual viewpoint)을 결정하며, 가상 시점에 대응되는 콘텐츠를 재생하도록 콘텐츠 처리부(150)를 제어한다. 또한 제어부(190)는 인터페이스부(180)를 통해 외부 기기를 제어하여, 가상 시점에 대응되는 콘텐츠를 재생하게 할 수도 있다. 이와 같은 제어부(190)의 실감형 재생 기능은 아래에서 구체적으로 설명한다.The control unit 190 can control the overall operation of the content reproduction apparatus 100 and the signal flow between the internal configurations of the content reproduction apparatus 100 and perform the function of processing the data. And the controller 190 may control the power supply from the battery to the internal configurations. In addition, the control unit 190 can execute various applications stored in the program area. Particularly, in the present invention, the control unit 190 can execute the real-time playback program described above when a start event for real-time playback is detected. That is, when the real-time playback program is executed, the controller 190 determines the initial position of the user and tracks the position change of the user. The control unit 190 maps the actual space and the content space based on the initial position, determines a virtual viewpoint corresponding to the tracked position, and controls the content processing unit 150 to reproduce the content corresponding to the virtual time point. . Also, the control unit 190 may control the external device through the interface unit 180 to reproduce the content corresponding to the virtual time point. The real-time playback function of the controller 190 will be described in detail below.

도 2는 본 발명에 따른 3D 공간을 표현하기 위한 3차원 좌표계를 도시한 것이다. 본 발명에서 3D 공간을 표현하는 방법은 도 2에 도시한 바와 같이, 3차원 좌표계를 사용할 수 있다. 도 2에서 실선은 양의 값을 표현하는 것이며, 점선은 음의 값을 표현하는 것이다. 또한, 실제 공간에서 시간 t일 때의 사용자의 좌표는 (xu,t, yu,t, zu,t)로 표현되고, 콘텐츠 공간에서 시간 t일 때의 카메라의 좌표는 (xc,t, yc,t, zc,t)로 표현된다.FIG. 2 shows a three-dimensional coordinate system for representing a 3D space according to the present invention. In the present invention, as shown in FIG. 2, a three-dimensional coordinate system can be used as a method of representing 3D space. In Fig. 2, the solid line represents a positive value, and the dotted line represents a negative value. In addition, in a real space the user coordinate of when the time t is expressed as (x u, t, y u, t, z u, t), the coordinates of the camera at time t in the content space, (x c, t , yc , t , zc , t ).

도 3a, 도 3b 및 도3c는 각각, 본 발명에 따른 실제 공간을 설명하기 위한 사시도, 상면도 및 측면도이다. 도 3a를 참조하면, 실제 공간에서 표시부의 화면(301)의 중앙점(302)이 좌표계의 (0,0,0)으로 설정된다. 사용자(303)가 화면(301)을 바라보는 방향을 기준으로, 중앙점(302)에서 오른쪽 방향이 Xu축의 양의 방향이 되고 왼쪽 방향이 Xu축의 음의 방향이 된다. 중앙점(302)에서 위쪽 방향이 Yu축의 양의 방향이 되고 아래쪽 방향이 Yu축의 음의 방향이 된다. 또한, 화면(301)에서 사용자(303) 쪽으로의 방향이 Zu축의 양의 방향이 되고 그 반대가 Zu축의 음의 방향이 된다. 사용자의 위치는 (xu, yu, zu)로 나타낼 수 있다. 도 3b 및 3c를 참조하면, 화면(301)의 가로 길이는 DSW(Display Screen Width), 화면(301)의 세로 길이는 DSH(Display Screen Height), 화면(301)와 사용자(303)의 직선 거리는 WD(Watching Distance)로 나타낼 수 있다.3A, 3B and 3C are a perspective view, a top view, and a side view, respectively, for explaining an actual space according to the present invention. 3A, the center point 302 of the screen 301 of the display unit in the actual space is set to (0, 0, 0) in the coordinate system. The right direction of the center point 302 becomes the positive direction of the X u axis and the left direction becomes the negative direction of the X u axis with reference to the direction in which the user 303 looks at the screen 301. The upward direction at the center point 302 is the positive direction of the Y u axis and the downward direction is the negative direction of the Y u axis. In addition, the direction from the screen 301 to the user 303 is the positive direction of the Z u axis and vice versa is the negative direction of the Z u axis. The user's position can be expressed as (x u , y u , z u ). 3B and 3C, the horizontal length of the screen 301 is DSW (Display Screen Width), the vertical length of the screen 301 is DSH (Display Screen Height), the straight line distance between the screen 301 and the user 303 WD (Watching Distance).

도 4a 및 도 4b는 각각, 본 발명에 따른 콘텐츠 공간을 설명하기 위한 사시도 및 상면도이다. 먼저 본 발명에서 가상 카메라는 실제 카메라는 아니며, 실제 공간상의 사용자에 대응되는 콘텐츠 공간상의 사용자로 정의된다. 도 4a를 참조하면, 콘텐츠 공간에서 초점면(401)의 초점(402)이 좌표계의 (0,0,0)으로 설정된다. 가상 카메라(403)가 초점면(401)을 바라보는 방향을 기준으로, 초점(402)에서 오른쪽 방향이 Xc축의 양의 방향이 되고 왼쪽 방향이 Xc축의 음의 방향이 된다. 초점(402)에서 위쪽 방향이 Yc축의 양의 방향이 되고 아래쪽 방향이 Yc축의 음의 방향이 된다. 또한, 초점면(401)에서 가상 카메라(403) 쪽으로의 방향이 Zc축의 양의 방향이 되고 그 반대가 Zc축의 음의 방향이 된다. 가상 카메라(403)의 위치는 (xc, yc, zc)로 나타낼 수 있다. 초점면(401)의 가로 길이는 FW(Focal Width), 초점면(401)의 세로 길이는 FH(Focal Height) 그리고 초점면(401)과 가상 카메라(403)의 직선 거리는 FL(Focal Length)로 나타낼 수 있다. 여기서, FL은 사용자에 의해 자유롭게 설정될 수 있다. 초점면(401)의 크기도 카메라 앵글을 조절함으로써 자유롭게 설정될 수 있다. 즉, 가상 카메라(403)는 가상이므로 초점 거리와 카메라 앵글을 자유롭게 설정할 수 있다.4A and 4B are a perspective view and a top view, respectively, for explaining a content space according to the present invention. In the present invention, the virtual camera is not an actual camera but is defined as a user on a content space corresponding to a user on the actual space. Referring to FIG. 4A, the focus 402 of the focal plane 401 in the content space is set to (0, 0, 0) in the coordinate system. The right direction in the focus 402 becomes the positive direction of the X c axis and the left direction becomes the negative direction of the X c axis with respect to the direction in which the virtual camera 403 looks at the focal plane 401. The upward direction in the focus 402 is the positive direction of the Y c axis and the downward direction is the negative direction of the Y c axis. In addition, the direction from the focal plane 401 toward the virtual camera 403 is the positive direction of the Z c axis and vice versa is the negative direction of the Z c axis. The position of the virtual camera 403 can be expressed as (x c , y c , z c ). The horizontal distance of the focal plane 401 is FW (Focal Width), the vertical length of the focal plane 401 is FH (Focal Height), and the linear distance between the focal plane 401 and the virtual camera 403 is FL . Here, FL can be freely set by the user. The size of the focal plane 401 can also be freely set by adjusting the camera angle. That is, since the virtual camera 403 is virtual, the focal distance and the camera angle can be freely set.

도 5는 본 발명의 일 실시예에 따른 실감형 재생부의 블록 구성도이다. 이러한 실감형 재생부는 제어부(190)의 내부에 구성될 수도 있고 별도로 구성될 수도 있다. 이하에서는 제어부(190) 내부에 구성되는 것으로 가정하여 설명한다. 도 5를 참조하면, 본 발명에 따른 실감형 재생부(500) 즉, 제어부(190)는 추적부(510), 초기화부(520), 공간 맵핑부(530), 가상 시점 결정부(540) 및 콘텐츠 처리 제어부(550)를 포함하여 이루어질 수 있다.5 is a block diagram of a real-time playback unit according to an embodiment of the present invention. The sensory reproduction unit may be configured inside the control unit 190 or separately. Hereinafter, it is assumed that the control unit 190 is configured. 5, the sensory reproduction unit 500 according to the present invention includes a tracking unit 510, an initialization unit 520, a spatial mapping unit 530, a virtual time point determination unit 540, And a content processing control unit 550. [

추적부(510)는 사용자(303)의 위치를 추적한다. 즉, 추적부(510)는 센서부(130)로부터 수신된 데이터를 이용하여 사용자(303)의 좌표(xu, yu, zu)를 추적한다. 구체적으로, 추적부(510)는 수신된 감지 정보에서 사용자(303)의 특징 정보 예를 들면, 얼굴을 검출하고, 검출된 얼굴의 중심점을 사용자(303)의 좌표(xu, yu, zu)로 결정한다. 여기서, zu 즉, WD는 검출된 얼굴의 크기 등의 값을 이용하여 산출될 수 있다.The tracking unit 510 tracks the location of the user 303. That is, the tracking unit 510 tracks the coordinates (x u , y u , z u ) of the user 303 using the data received from the sensor unit 130. Specifically, the tracking unit 510 detects the feature information, for example, a face of the user 303 from the received detection information, and obtains the center point of the detected face from the coordinate (x u , y u , z u ). Here, z u, that is, WD can be calculated using a value such as the size of the detected face.

초기화부(520)는 실제 공간과 콘텐츠 공간을 맵핑하기 위한 기준값이 되는 사용자(303)의 초기 위치를 결정한다. 즉, 초기화부(520)는 실감형 재생을 위한 개시 이벤트가 감지되면, 추적부(510)로부터 입력된 좌표를 사용자의 초기 위치로 결정한다. 구체적으로, 초기화부(520)는 콘텐츠에 대한 시청이 시작된 후 일정 시간 동안 사용자(303)의 위치가 미리 설정된 오차 범위 내에서 변함없으면, 그 위치를 초기 위치로 결정할 수 있다. 또한, 초기화부(520)는 리모컨(120)으로부터 특정 킷값이 입력되면, 입력된 그 시점에 사용자가 위치한 곳을 초기 위치로 결정할 수 있다. 또한, 초기화부(520)는 추적부(510)로부터 개시 이벤트가 입력되면, 입력된 그 시점에 사용자가 위치한 곳을 초기 위치로 결정할 수 있다. 이를 위해, 추적부(510)는 템플릿 매칭(template matching) 기법 등을 이용하여 사용자의 특정 제스처 예를 들면, 손을 들었다 놓는 행위를 검출할 수 있다. 추적부(510)는 이러한 특정 제스처가 검출되면, 초기화부(520)에 이를 알린다.The initialization unit 520 determines an initial position of the user 303 as a reference value for mapping the actual space and the content space. That is, the initialization unit 520 determines the coordinates input from the tracking unit 510 as a user's initial position when a start event for real-time playback is detected. Specifically, if the position of the user 303 does not change within a predetermined error range for a predetermined time after the start of viewing of the content, the initialization unit 520 can determine the position as the initial position. In addition, the initialization unit 520 can determine the position where the user is located at the input point as the initial position when the specific kit value is input from the remote controller 120. [ In addition, the initialization unit 520 can determine the place where the user is located as the initial position when the start event is input from the tracking unit 510. For this purpose, the tracking unit 510 can detect a specific gesture of the user, for example, a hand-lifting operation using a template matching technique or the like. The tracking unit 510 informs the initialization unit 520 when the specific gesture is detected.

도 6은 본 발명의 일 실시예에 따른 공간 맵핑 방법을 설명하기 위한 도면이다. 수학식 1은 본 발명의 일 실시예에 따른 공간 맵핑 방법에 있어서, 실제 공간 좌표계와 콘텐츠 공간 좌표계의 상대적인 비율을 나타낸 것이다. 아래 수학식 1에서 t0은 초기화부(520)에 의해 초기 위치로 결정된 시점을 의미한다. 6 is a diagram for explaining a spatial mapping method according to an embodiment of the present invention. Equation (1) represents a relative ratio between an actual spatial coordinate system and a contents spatial coordinate system in the spatial mapping method according to an embodiment of the present invention. In the following Equation (1), t 0 denotes a time point at which the initial position is determined by the initialization unit 520.

Figure 112011087326440-pat00001
Figure 112011087326440-pat00001

공간 맵핑부(530)는 도 6에 도시한 바와 같이, 사용자(601)의 초기 위치를 기준으로, 실제 공간(602)과 콘텐츠 공간(603)을 맵핑한다. 즉, 공간 맵핑부(530)은 FW, FH 및 FL을 결정한 다음, 위 수학식 1에 나타낸 바와 같이, X_Ratio, Y_Ratio 및 Z_Ratio(at t0)을 산출한다.The spatial mapping unit 530 maps the actual space 602 and the content space 603 based on the initial position of the user 601, as shown in FIG. That is, the space mapping unit 530 determines FW, FH, and FL, and then calculates X_Ratio, Y_Ratio, and Z_Ratio (at t 0 ) as shown in Equation 1 above.

도 7은 본 발명의 다른 실시예에 따른 공간 맵핑 방법을 설명하기 위한 도면이다. 수학식 2는 본 발명의 다른 실시예에 따른 공간 맵핑 방법에 있어서, 실제 공간 좌표계와 콘텐츠 공간 좌표계의 상대적인 비율을 나타낸 것이다.7 is a view for explaining a spatial mapping method according to another embodiment of the present invention. Equation (2) shows a relative ratio between the actual spatial coordinate system and the contents spatial coordinate system in the spatial mapping method according to another embodiment of the present invention.

Figure 112011087326440-pat00002
Figure 112011087326440-pat00002

DSW, DSH 및 WD는 표시부의 크기와 실제 공간에 기인한 값들이다. 공간 맵핑부(530)는 수학식 2에 나타낸 바와 같이, 이러한 값들에 일정 조정값(Adjustment)을 더하거나 뺌으로써, 콘텐츠 공간에 맵핑되는 실제 공간을 확장하거나 축소할 수 있다. 다시 말해, 공간 맵핑부(530)는 이러한 조정값을 이용하여, 표시되는 콘텐츠의 크기를 조절할 수 있다. 공간 맵핑부(530)는 이러한 조정값을 어느 때든 즉, 실감형 재생의 개시 전이나 개시 중에 리모컨 수신부(125)를 통해 리모컨(120)으로부터 입력받을 수 있다.DSW, DSH, and WD are values due to the size of the display unit and the actual space. The spatial mapping unit 530 may expand or contract the actual space mapped to the content space by adding or subtracting a constant adjustment value to these values, as shown in Equation (2). In other words, the spatial mapping unit 530 can adjust the size of the displayed content using this adjustment value. The spatial mapping unit 530 can receive the adjustment value from the remote controller 120 through the remote control receiving unit 125 at any time, that is, before or at the start of the sensory reproduction.

도 8은 본 발명의 일 실시예에 따른 가상 시점 결정 방법을 설명하기 위한 도면이다. 수학식 3은 이러한 가상 시점 결정 방법의 계산 공식이다.8 is a view for explaining a method for determining a virtual viewpoint according to an embodiment of the present invention. Equation (3) is a calculation formula of this virtual time point determination method.

Figure 112011087326440-pat00003
Figure 112011087326440-pat00003

도 8을 참조하면, 가상 시점 결정부(540)는 추적부(510)로부터 사용자(801)의 좌표(xu ,t+1, yu ,t+1, zu ,t+1)를 수신하고, 공간 맵핑부(530)로부터 좌표 변환값 즉, X_Ratio, Y_Ratio 및 Z_Ratio을 수신한다. 가상 시점 결정부(540)는 수학식 3에 나타낸 바와 같이, 이렇게 수신된 정보를 이용하여, 사용자(801)의 좌표에 맵핑되는 가상 카메라(702)의 좌표(xc,t+1, yc,t+1, zc,t+1)를 산출한다. 사용자의 위치는 가만히 서 있어도 미묘하게 움직이게 되고 또한, 센서 및 인식의 오류로 인해서 어느 정도 위치 변동이 생길 수 있다. 따라서, 이러한 위치 변동을 모두 고려하여, 표시되는 콘텐츠를 변형하게 되면, 사용자가 불편함을 느낄 수 있다. 본 발명에서는 카메라의 위치를 이동시키기 위한 최소 위치 변화량(MTT; Minimum Transition Threshold)이 미리 설정될 수 있다. 이러한 최소 위치 변화량은 사용자가 직접 설정 가능한 옵션(option) 사항일 수 있다. 가상 시점 결정부(540)는 사용자(801)의 위치 변화량 즉, △xu, △yu 또는 △zu 이 최소 위치 변화량(MTT)보다 큰 경우에, 가상 카메라(802)의 좌표를 산출할 수 있다. 여기서, 최소 위치 변화량은 X, Y, Z 축별로 다르게 설정될 수 있다. 예컨대, Z축에 대한 최소 위치 변화량을 가장 크게 설정할 수 있다. 예를 들어, 사용자가 앉아서 시청하다가 일어나는 경우에만, 가상 카메라(802)의 좌표를 산출할 수 있다.8, the virtual time point determination unit 540 receives the coordinates (x u , t + 1, y u , t + 1, z u , t + 1 ) of the user 801 from the tracking unit 510 And receives coordinate transformation values (i.e., X_Ratio, Y_Ratio, and Z_Ratio) from the spatial mapping unit 530. The virtual time point determination unit 540 determines the coordinates of the virtual camera 702 mapped to the coordinates of the user 801 using the thus received information as shown in Equation (3) (x c, t + 1, y c , t + 1, zc , t + 1 ). The position of the user may be slightly moved even if the user is still standing, and the positional change may occur to some extent due to the error of the sensor and the recognition. Therefore, if the content to be displayed is modified in consideration of all such position variations, the user may feel inconvenience. In the present invention, a minimum transition threshold (MTT) for moving the position of the camera can be set in advance. Such a minimum position change amount may be an option item that can be directly set by the user. If the virtual viewpoint determining unit 540 is position change amount of the user 801, i.e., △ x u, △ y u or △ z u is greater than the minimum position change amount (MTT), to calculate the coordinate of the virtual camera 802 . Here, the minimum position change amount may be set differently for the X, Y, and Z axes. For example, the minimum position change amount with respect to the Z-axis can be set to the greatest. For example, the coordinates of the virtual camera 802 can be calculated only when the user is sitting and watching.

도 9는 본 발명의 일 실시예에 따른 가상 카메라의 앵글 조절 방법을 설명하기 위한 도면이다. 도 9를 참조하면, 가상 시점 결정부(540)는 화면의 중심점(901)을 축으로 사용자(902)의 각도 변화량(θ(θX, θY, θZ))을 계산한다. 즉, 가상 시점 결정부(540)는 사용자(902)의 초기 위치를 기준으로 위치 변화량 △xu,0(=xu,t - xu,0), △yu,0(=yu,t - yu,0), △zu,0(=zu,t - zu,0)을 계산하고, 이렇게 계산된 위치 변화량들을 각각 삼각 함수에 적용하여 각도 변화량을 계산한다. 즉, 계산된 각도 변화량(θ)은 가상 카메라(903)의 각도 조절값으로 이용될 수 있다. 이러한 각도 변화량의 계산은 사용자가 직접 설정 가능한 옵션(option) 사항일 수 있다. 9 is a diagram for explaining an angle adjusting method of a virtual camera according to an embodiment of the present invention. 9, the virtual viewpoint determining unit 540 calculates the angular change amount? (? X ,? Y ,? Z ) of the user 902 on the basis of the center point 901 of the screen. That is, the virtual viewpoint determining unit 540 is the user 902, the initial position to a position change amount based on △ x u, 0 a (= x u, t - x u, 0), △ y u, 0 (= y u, t - y u, 0), △ z u, 0 (u = z, t - calculating a z u, 0), and applied to each of the trigonometric function thus calculated position variation amount calculates the angle change amount. That is, the calculated angle change amount [theta] can be used as the angle adjustment value of the virtual camera 903. [ The calculation of the angular change amount may be an option that can be directly set by the user.

도 10은 본 발명의 일 실시예에 따른 입체 영상 조절 방법을 설명하기 위한 도면이다. 10 is a view for explaining a stereoscopic image adjusting method according to an embodiment of the present invention.

콘텐츠 처리 제어부(550)는 가상 시점 결정부(540)로부터 가상 시점 즉, 가상 카메라의 좌표(xc,t+1, yc,t+1, zc,t+1)를 수신한다. 또한, 콘텐츠 처리 제어부(550)는 가상 시점 결정부(540)로부터 가상 시점의 각도 조절값 즉, 가상 카메라의 앵글 조절값(θ)을 수신할 수 있다. 또한, 콘텐츠 처리 제어부(550)는 수신된 정보를 기반으로 콘텐츠 처리부(150)를 제어하여 입체 영상의 명암, 입체감, 깊이감 등을 조절하게 한다. 도 10를 참조하면, 사용자의 초기 위치(1001)가 결정되면, 콘텐츠 처리 제어부(550)는 가상 카메라가 초기 위치(902)에서 바라 본 오브젝트를 표시하도록 제어한다. 사용자가 1001 -> 1003 -> 1005로 위치 이동하게 되면, 실제 공간에 맵핑되어 있는 콘텐츠 공간상에서의 가상 카메라는 1002 -> 1004 -> 1006으로 위치 이동하게 된다. 따라서, 오브젝트는 가상 카메라의 위치 변동에 따라 다른 부위가 표시된다. 사용자가 1005에서 1007로 이동하게 되면, 카메라는 1007에서 1008로 이동하게 된다. 카메라가 1008에 위치할 때, 오브젝트는 가상 카메라의 앵글에서 벗어나므로 더 이상 표시되지 않게 된다. 단, 콘텐츠 처리 제어부(550)는 수신된 각도 조절값(θ) 만큼 카메라를 오브젝트(1009) 쪽으로 회전시켜 오브젝트(1009)가 계속적으로 표시되게 할 수 있다.The contents processing control unit 550 receives the virtual point of view, that is, the coordinates ( xc, t + 1, yc , t + 1, zc , t + 1 ) of the virtual camera from the virtual point of view decision unit 540. In addition, the content processing control unit 550 may receive the angle adjustment value of the virtual viewpoint, that is, the angle adjustment value [theta] of the virtual camera, from the virtual viewpoint determining unit 540. [ In addition, the content processing control unit 550 controls the content processing unit 150 based on the received information to control the contrast, depth, and depth of the stereoscopic image. Referring to FIG. 10, when the user's initial position 1001 is determined, the content processing control unit 550 controls the virtual camera to display an object viewed from the initial position 902. When the user moves from 1001 to 1003 to 1005, the virtual camera on the content space mapped to the actual space moves to 1002 -> 1004 -> 1006. Therefore, the object is displayed in a different position according to the positional variation of the virtual camera. When the user moves from 1005 to 1007, the camera moves from 1007 to 1008. When the camera is positioned at 1008, the object is no longer displayed because it is out of the angle of the virtual camera. However, the content processing control unit 550 may rotate the camera toward the object 1009 by the received angle adjustment value (?) So that the object 1009 is continuously displayed.

도 11은 본 발명의 일 실시예에 따른 입체 음향 조절 방법을 설명하기 위한 도면이다.11 is a view for explaining a stereo sound adjusting method according to an embodiment of the present invention.

콘텐츠 처리 제어부(550)는 수신된 정보를 기반으로 콘텐츠 처리부(150)를 제어하여 입체 음향의 방향감이나 거리감 등을 조절하도록 제어할 수 있다. 도 11을 참조하면, 콘텐츠 처리 제어부(550)는 사용자가 1101에 위치할 때는, 자동차(1103)가 점점 다가오는 느낌이 들도록 자동차 소리를 점점 크게 하는 식으로 거리감을 조절할 수 있다. 또한, 콘텐츠 처리 제어부(550)는 사용자가 1102에 위치할 때는, 자동차(1103)가 점점 멀어지는 느낌이 들도록 자동차 소리를 점점 작게 할 수 있다. 또한, 콘텐츠 처리 제어부(550)는 사용자가 1101에 위치할 때는, 자동차 소리가 앞쪽 스피커(Front Speak and Centre Speaker)에서 나도록 하고 반면, 사용자가 1102에 위치할 때는, 자동차 소리가 뒤쪽 스피커(Rear Speak)에서 나도록 하여 입체 음향의 방향감을 조절하게 할 수 있다.The content processing control unit 550 controls the content processing unit 150 based on the received information to control the directional feeling or the distance feeling of the stereophonic sound. Referring to FIG. 11, when the user is located at 1101, the contents processing control unit 550 can adjust the distance feeling by gradually increasing the sound of the automobile so that the automobile 1103 is gradually approaching. In addition, when the user is located at 1102, the contents processing control unit 550 can gradually reduce the automobile sound so that the automobile 1103 feels increasingly distant. When the user is located at 1101, the content processing control unit 550 causes the car sound to be output from the front speaker (Front Speak and Center Speaker). On the other hand, when the user is located at 1102, So that the directional feeling of the stereophonic sound can be controlled.

한편 본 발명에 따른 콘텐츠 재생 장치(100)는 그 제공 형태에 따라 카메라, 마이크 및 GPS 수신 모듈 등과 같이 상기에서 언급되지 않은 구성들을 더 포함할 수 있다. 이러한 구성 요소들은 디지털 기기의 컨버전스(convergence) 추세에 따라 변형이 매우 다양하여 모두 열거할 수는 없으나, 상기 언급된 구성 요소들과 동등한 수준의 구성 요소가 콘텐츠 재생 장치(100)에 추가로 더 포함되어 구성될 수 있다. 또한 본 발명의 콘텐츠 재생 장치(100)는 그 제공 형태에 따라 상기한 구성에서 특정 구성들이 제외되거나 다른 구성으로 대체될 수도 있음은 물론이다. 이는 본 기술 분야의 통상의 지식을 가진 자에겐 쉽게 이해될 수 있을 것이다.Meanwhile, the content reproducing apparatus 100 according to the present invention may further include configurations not mentioned above such as a camera, a microphone, and a GPS receiving module depending on the providing mode. These components can not be enumerated in all of the variations according to the convergence trend of the digital device, but the component having the same level of the above-mentioned components is further included in the content reproducing apparatus 100 . It is needless to say that the content reproducing apparatus 100 according to the present invention may be excluded from the specific configurations in the above configuration or may be replaced with other configurations in accordance with the provision mode thereof. Which will be readily apparent to those skilled in the art.

도 12는 본 발명의 일 실시예에 따른 홈 네트워크 시스템의 네트워크 구성도이다. 도 12를 참조하면, 본 발명에 따른 홈 네트워크 시스템은 콘텐츠 재생 장치(1200), 홈 네트워크 서버(1210) 및 다수의 홈 네트워크 장치를 포함하여 이루어질 수 있다. 콘텐츠 재생 장치(1200)는 상기에서 언급한 구성들을 포함하여 이루어질 수 있다. 그리고 콘텐츠 재생 장치(1200)는 지그비(ZigBee), 블루투스(Bluetooth), 무선랜(Wireless LAN) 등의 통신 방식으로 홈 네트워크 서버(1210)와 통신할 수 있다. 콘텐츠 재생 장치(1200)는 실감형 재생을 위한 개시 이벤트를 감지하면, 실감형 재생 프로그램을 실행한다. 즉 콘텐츠 재생 장치(1200)는 사용자의 위치에 대응하여 콘텐츠를 재생하도록 홈 네트워크 장치를 제어할 수 있다. 홈 네트워크 서버(1210)는 홈 네트워크 장치들을 제어한다. 또한 홈 네트워크 서버(1210)는 콘텐츠 재생 장치(1200)의 제어 하에, 홈 네트워크 장치들을 구동할 수 있다. 홈 네트워크 장치들은 각각 고유의 주소를 가지며 이를 통해 홈 네트워크 서버(1210)에 의해 제어된다. 홈 네트워크 장치들은 콘텐츠 재생 장치(1200)의 제어 하에, 사용자의 감각을 자극하는 콘텐츠를 재생한다. 예컨대 홈 네트워크 장치들은 도시된 바와 같이, 에어컨(1220), 가습기(1230), 난방기(1240) 및 전등(1250) 등을 포함하여 이루어질 수 있다. 콘텐츠 재생 장치(1200)는 사용자의 위치 변화에 따라 에어컨(1220), 가습기(1230), 난방기(1240) 및 전등(1250) 등을 제어하여 바람의 세기, 외부의 밝기, 온도, 습도 등을 조절할 수 있다. 예컨대 도 11을 참조하면, 콘텐츠 재생 장치(1200)는 사용자가 1102에 위치할 때는, 달리는 자동차(1103)에 가까이 있는 느낌이 들도록 에어컨(1220)을 제어하여 바람의 세기를 강하게 할 수 있다. 즉 사용자는 촉각적으로 자극을 받게 되어 실제 콘텐츠 공간상에 들어와 있는 느낌을 받을 수 있다.12 is a network configuration diagram of a home network system according to an embodiment of the present invention. Referring to FIG. 12, the home network system according to the present invention may include a content reproducing apparatus 1200, a home network server 1210, and a plurality of home network devices. The content reproduction apparatus 1200 may include the above-mentioned configurations. The content reproduction apparatus 1200 can communicate with the home network server 1210 through a communication method such as ZigBee, Bluetooth, or wireless LAN. When the content playback apparatus 1200 detects a start event for real-time playback, the real-time playback program is executed. That is, the content reproduction apparatus 1200 can control the home network apparatus to reproduce the content corresponding to the position of the user. The home network server 1210 controls the home network devices. Also, the home network server 1210 can drive the home network devices under the control of the content reproducing apparatus 1200. [ Each of the home network devices has its own address and is controlled by the home network server 1210 through it. The home network devices reproduce contents that stimulate the user's sense under the control of the content reproduction apparatus 1200. For example, the home network devices may include an air conditioner 1220, a humidifier 1230, a heater 1240 and a lamp 1250 as shown. The content reproducing apparatus 1200 controls the air conditioner 1220, the humidifier 1230, the heater 1240 and the lamp 1250 in accordance with the change of the user's position to adjust the wind intensity, the external brightness, the temperature, . For example, referring to FIG. 11, when the user is located at 1102, the content reproducing apparatus 1200 may control the air conditioner 1220 so that the user feels close to the car 1103 running. That is, the user is tactile and receives a feeling of being in the actual content space.

도 13은 본 발명의 일 실시예에 따른 콘텐츠 재생 방법을 설명하기 위한 흐름도이다. 도 1 내지 도 13을 참조하면, 먼저 제어부(190)는 대기 상태일 수 있다. 여기서 대기 상태는 실감형 재생 단계 전에 영상을 표시하는 상태로 정의할 수 있다. 이러한 대기 상태에서 사용자가 리모컨(120)을 조작하여 개시 이벤트를 발생시키면 제어부(190)는 실감형 재생을 위한 개시 이벤트를 감지한다. 이렇게 개시 이벤트가 감지되면 단계 1301에서 초기화부(520)는 추적부(510)로부터 입력된 좌표를 사용자의 초기 위치로 결정한다. 여기서 추적부(510)는 실감형 재생 단계 전에도 사용자의 위치를 추적할 수 있다. 13 is a flowchart illustrating a content playback method according to an embodiment of the present invention. 1 to 13, the controller 190 may be in a standby state. Here, the standby state can be defined as a state in which an image is displayed before the realistic playback step. When the user operates the remote controller 120 to generate a start event in this standby state, the controller 190 senses a start event for real-time playback. If the start event is detected in step 1301, the initialization unit 520 determines the coordinates input from the tracking unit 510 as the initial position of the user. Here, the tracking unit 510 may track the position of the user even before the realistic playback step.

단계 1302에서 공간 맵핑부(530)는 결정된 초기 위치를 기준으로, 실제 공간과 콘텐츠 공간을 맵핑한다. 단계 1303에서 가상 시점 결정부(540)는 사용자의 위치 변화량(△xu, △yu, △zu)을 산출한다. 다음으로, 단계 1304에서 가상 시점 결정부(540)는 계산된 사용자의 위치 변화량과 최소 위치 변화량(MTT)을 비교한다. 단계 1304에서의 비교 결과 계산된 사용자의 위치 변화량이 최소 위치 변화량보다 큰 경우에는 단계 1305로 진행한다. 단계 1305에서 가상 시점 결정부(540)는 상기한 수학식 3을 이용하여, 가상 카메라의 위치(xc,t+1, yc,t+1, zc,t+1) 즉, 가상 시점(virtual viewpoint)을 결정한 다음 이것을 콘텐츠 처리 제어부(550)로 전달한다.In step 1302, the spatial mapping unit 530 maps the actual space and the content space based on the determined initial position. In step 1303, the virtual time point determining unit 540 calculates the position change amount (? X u ,? Y u ,? Z u ) of the user. Next, in step 1304, the virtual time point determining unit 540 compares the calculated position change amount of the user with the minimum position change amount MTT. If the calculated position variation of the user is greater than the minimum position variation as a result of the comparison at step 1304, the process proceeds to step 1305. In step 1305, the virtual-point-of-time determining unit 540 determines the virtual camera position ( xc, t + 1, yc , t + 1, zc , t + 1 ) (virtual viewpoint), and transmits the virtual viewpoint to the content processing control unit 550. [

단계 1306에서 콘텐츠 처리 제어부(550)는 수신된 가상 시점을 기반으로 콘텐츠 처리부(150)를 제어한다. 즉, 콘텐츠 처리 제어부(550)는 콘텐츠 처리부(150)를 제어하여, 수신된 가상 시점에 대응되는 콘텐츠를 재생하게 한다. 또한, 단계 1306에서 콘텐츠 처리 제어부(550)는 수신된 가상 시점을 기반으로 콘텐츠 처리부(150)를 제어하여 입체 음향의 방향감이나 거리감 등을 조절할 수 있다. 또한 콘텐츠 처리 제어부(550)는 수신된 가상 시점을 기반으로 외부 기기 즉, 홈 네트워크 장치들을 제어하여, 바람의 세기, 온도, 습도 또는 밝기 등을 조절할 수 있다. In step 1306, the content processing control unit 550 controls the content processing unit 150 based on the received virtual viewpoint. That is, the content processing control unit 550 controls the content processing unit 150 to reproduce the content corresponding to the received virtual time point. Also, in step 1306, the content processing control unit 550 may control the content processing unit 150 based on the received virtual viewpoint to adjust the directional feeling, the distance feeling, and the like of the stereophonic sound. Also, the content processing control unit 550 can control the intensity, the temperature, the humidity, the brightness, or the like of the wind by controlling the external devices, that is, the home network devices, based on the received virtual viewpoint.

다음으로, 단계 1307에서 콘텐츠 처리 제어부(550)는 실감형 재생의 종료 이벤트가 감지되는지 여부를 판단한다. 단계 1307에서의 판단 결과 종료 이벤트가 감지되면, 실감형 재생을 위한 프로세스는 종료된다. 반면, 종료 이벤트가 감지되지 않으면, 프로세스는 단계 1303으로 복귀된다.Next, in step 1307, the content processing control unit 550 determines whether or not the end event of the real-time playback is detected. If the end event is detected as a result of the determination in step 1307, the process for real-time playback ends. On the other hand, if a termination event is not detected, the process returns to step 1303.

도 14는 본 발명의 다른 실시예에 따른 콘텐츠 재생 방법을 설명하기 위한 흐름도이다. 도 14를 참조하면, 본 발명의 다른 실시예에 따른 콘텐츠 재생 방법은 크게 단계 1401 내지 단계 1407을 포함하여 이루어진다. 단계 1401, 1402, 1404, 1405 및 1407은 각각, 상기 설명한 단계 1301, 1302, 1304, 1305 및 1307에 대응되므로 설명을 생략한다. 단계 1403은, 가상 시점 결정부(540)가 사용자의 위치 변화량(△xu, △yu, △zu)과 함께 각도 변화량(θ; 도 9 참조)을 계산하는 단계이다. 단계 1406은 콘텐츠 처리 제어부(550)가 수신된 가상 시점에 대응되는 콘텐츠를 재생하게 하되, 계산된 각도 변화량(θ)만큼 가상 시점의 방향을 회전시키고, 회전된 가상 시점에 대응되는 콘텐츠를 재생하도록 하는 단계이다.14 is a flowchart for explaining a content playback method according to another embodiment of the present invention. Referring to FIG. 14, the content playback method according to another embodiment of the present invention includes steps 1401 to 1407. Steps 1401, 1402, 1404, 1405, and 1407 correspond to steps 1301, 1302, 1304, 1305, and 1307 described above, respectively. Step 1403 is a step in which the virtual time point determining unit 540 calculates the angle change amount? (See FIG. 9) together with the position change amounts? X u ,? Y u, and ? Z u of the user. In step 1406, the content processing control unit 550 causes the content corresponding to the received virtual time point to be reproduced, rotates the direction of the virtual time point by the calculated angle variation amount?, And reproduces the content corresponding to the rotated virtual time point .

상술한 바와 같은 본 발명에 따른 콘텐츠 재생 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터로 판독 가능한 기록 매체에 기록될 수 있다. 이때, 상기 컴퓨터로 판독 가능한 기록매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 한편, 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 상기 컴퓨터로 판독 가능한 기록매체에는 하드디스크, 플로피디스크 및 자기 테이프와 같은 자기매체(Magnetic Media), CD-ROM, DVD와 같은 광기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있다.The above-described contents reproducing method according to the present invention can be implemented in the form of a program command which can be executed through various computer means and recorded in a computer-readable recording medium. At this time, the computer readable recording medium may include a program command, a data file, a data structure, or the like, alone or in combination. On the other hand, the program instructions recorded on the recording medium may be those specially designed and configured for the present invention or may be available to those skilled in the art of computer software. The computer-readable recording medium includes magnetic media such as a hard disk, a floppy disk and a magnetic tape, an optical medium such as a CD-ROM and a DVD, and a magnetic recording medium such as a floppy disk. Optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. The program instructions also include machine language code, such as those generated by the compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention.

본 발명의 콘텐츠 재생 방법 및 장치는 전술한 실시 예에 국한되지 않고 본 발명의 기술 사상이 허용하는 범위에서 다양하게 변형하여 실시할 수가 있다.The contents reproducing method and apparatus of the present invention are not limited to the above-described embodiments but can be variously modified and carried out within the scope of the technical idea of the present invention.

100: 콘텐츠 재생 장치
110: 입력부 120: 리모컨
125: 리모컨 수신부 130: 센서부
140: 콘텐츠 수집부 141: 방송 수신부
142: 인터넷 통신부 150: 콘텐츠 처리부
151: 음향 처리부 152: 영상 처리부
160: 음향 출력부 170: 영상 표시부
180: 저장부 190: 인터페이스부
195: 제어부
500: 실감형 재생부
510: 추적부 520: 초기화부
530: 공간 맵핑부 540: 가상 시점 결정부
550: 콘텐츠 처리 제어부
1200: 콘텐츠 재생 장치 1210: 홈 네트워크 서버
1220: 에어컨 1230: 가습기
1240: 난방기 1250: 전등
100: Content playback device
110: input unit 120: remote control
125: Remote control receiving unit 130: Sensor unit
140: Content collecting unit 141: Broadcast receiving unit
142: Internet communication unit 150: Content processing unit
151: Acoustic processor 152:
160: sound output unit 170: image display unit
180: storage unit 190: interface unit
195:
500: real-
510: Trace unit 520: Initialization unit
530: Space mapping unit 540: Virtual point determining unit
550: Content processing control section
1200: Content playback device 1210: Home network server
1220: Air conditioner 1230: Humidifier
1240: Radiator 1250: Light

Claims (27)

전자 장치의 콘텐츠 재생 방법에 있어서,
사용자의 제 1 위치를 결정하는 단계;
상기 결정된 제 1 위치를 기준으로 상기 사용자가 존재하는 실제공간의 좌표계와 표시부를 통해 표시되는 콘텐츠 공간의 좌표계 간의 좌표 변환값을 산출하는 단계;
상기 좌표 변환 값을 이용하여 상기 사용자의 제 2 위치에 대응되는 상기 콘텐츠 공간상에서의 가상 시점(virtual viewpoint)을 결정하는 단계; 및
상기 결정된 가상 시점에 대응되는 콘텐츠를 재생하는 단계를 포함하는 콘텐츠 재생 방법.
A content reproducing method of an electronic device,
Determining a first position of the user;
Calculating a coordinate transformation value between a coordinate system of an actual space in which the user exists and a coordinate system of a contents space displayed through the display unit based on the determined first position;
Determining a virtual viewpoint on the content space corresponding to a second location of the user using the coordinate transformation value; And
And reproducing the content corresponding to the determined virtual time point.
제 1 항에 있어서,
상기 콘텐츠를 재생하는 단계는,
상기 결정된 가상 시점을 기준으로 영상을 표시하는 단계를 포함하는 것을 특징으로 하는 콘텐츠 재생 방법.
The method according to claim 1,
The method of claim 1,
And displaying an image based on the determined virtual viewpoint.
제 2 항에 있어서,
상기 표시하는 단계는,
상기 결정된 가상 시점을 기준으로 상기 영상의 명암, 입체감 및 깊이감 중에서 적어도 하나를 조절하여 상기 영상을 표시하는 것을 특징으로 하는 콘텐츠 재생 방법.
3. The method of claim 2,
Wherein the displaying comprises:
Wherein the image is displayed by adjusting at least one of brightness, depth, and depth of the image based on the determined virtual viewpoint.
제 1 항에 있어서,
상기 콘텐츠를 재생하는 단게는,
상기 결정된 가상 시점을 기준으로 소리를 출력하는 단계를 포함하는 것을 특징으로 하는 콘텐츠 재생 방법.
The method according to claim 1,
The step of reproducing the content includes:
And outputting a sound based on the determined virtual time point.
제 4 항에 있어서,
상기 출력하는 단계는,
상기 결정된 가상 시점을 기준으로 상기 소리의 방향감 및 거리감 중에서 적어도 하나를 조절하여 상기 소리를 출력하는 것을 특징으로 하는 콘텐츠 재생 방법.
5. The method of claim 4,
Wherein the outputting step comprises:
Wherein the sound is output by adjusting at least one of a directional sense and a distance sensation of the sound based on the determined virtual viewpoint.
제 1 항에 있어서,
상기 재생되는 콘텐츠는 상기 사용자의 감각 중에서 적어도 시각 및 청각을 각각 자극하는 영상과 소리를 포함하는 것을 특징으로 하는 콘텐츠 재생 방법.
The method according to claim 1,
Wherein the content to be reproduced includes an image and a sound that respectively stimulate at least the time and the auditory sense among the senses of the user.
제 1 항에 있어서, 상기 가상 시점을 결정하는 단계는,
상기 사용자의 위치 변화량을 산출하는 단계와,
상기 산출된 위치 변화량이 설정된 최소 위치 변화량보다 크면, 상기 사용자의 변화된 위치에 대응되는 상기 가상 시점을 결정하는 단계를 포함하는 것을 특징으로 하는 콘텐츠 재생 방법.
2. The method of claim 1, wherein determining the virtual time point comprises:
Calculating a position change amount of the user;
And determining the virtual time point corresponding to the changed position of the user if the calculated position variation amount is larger than the set minimum position variation amount.
삭제delete 삭제delete 제 1 항에 있어서, 상기 산출하는 단계는,
상기 표시부의 화면의 가로 길이(DSW), 상기 화면의 세로 길이(DSH) 및 상기 화면과 상기 사용자 간의 직선 거리(WD)를 이용하여 상기 실제 공간의 좌표계를 설정하는 단계와,
초점면의 가로 길이(FW), 상기 초점면의 세로 길이(FH) 및 상기 초점면과 상기 가상 시점의 직선 거리(FL)를 이용하여 상기 콘텐츠 공간의 좌표계를 설정하는 단계와,
상기 제 1 위치가 결정되면, 상기 제 1 위치를 이용하여 상기 좌표 변환값을 산출하는 단계를 포함하는 것을 특징으로 하는 콘텐츠 재생 방법.
2. The method according to claim 1,
Setting a coordinate system of the actual space using a horizontal length (DSW) of the screen of the display unit, a vertical length (DSH) of the screen and a linear distance (WD) between the screen and the user,
Setting a coordinate system of the contents space using a horizontal length (FW) of the focal plane, a vertical length (FH) of the focal plane, and a straight line distance (FL) between the focal plane and the virtual viewpoint,
And when the first position is determined, calculating the coordinate conversion value using the first position.
제 10 항에 있어서, 상기 실제 공간의 좌표계를 설정하는 단계는,
상기 가로 길이(DSW), 상기 세로 길이(DSH) 및 상기 직선 거리(WD) 중에서 하나 이상에, 상기 실제 공간을 상기 가상의 공간에 축소 또는 확장하여 맵핑하기 위한 조정값을 더하거나 빼는 단계를 포함하는 것을 특징으로 하는 콘텐츠 재생 방법.
11. The method of claim 10, wherein the step of setting the coordinate system of the real space comprises:
And adding or subtracting an adjustment value for mapping the actual space to the virtual space in at least one of the horizontal length (DSW), the vertical length (DSH), and the linear distance (WD) And reproducing the content.
제 1 항에 있어서,
상기 사용자의 제 1 위치를 기준으로 상기 사용자의 위치 변화량을 산출하는 단계와,
상기 산출된 위치 변화량을 삼각 함수에 적용하여 각도 변화량을 산출하는 단계와,
상기 산출된 각도 변화량만큼 상기 가상 시점의 방향을 회전하는 단계와,
상기 방향이 회전된 가상 시점에 대응되는 콘텐츠를 재생하는 단계를 더 포함하는 것을 특징으로 하는 콘텐츠 재생 방법.
The method according to claim 1,
Calculating a position change amount of the user based on the first position of the user;
Calculating the amount of angular change by applying the calculated position variation amount to a trigonometric function,
Rotating the direction of the virtual viewpoint by the calculated angle change amount;
And reproducing the content corresponding to the virtual time point at which the direction is rotated.
제 1 항에 있어서,
상기 결정하는 단계는,
사용자의 위치를 추적하는 단계와,
상기 추적 결과 미리 정해진 시간 동안 상기 사용자의 위치가 미리 설정된 오차 범위 내에서 고정되면, 상기 고정된 위치를 상기 산출을 위한 제 1 위치로 결정하는 단계를 포함하는 것을 특징으로 하는 콘텐츠 재생 방법.
The method according to claim 1,
Wherein the determining comprises:
Tracking the location of the user,
And determining the fixed position as the first position for the calculation if the position of the user is fixed within a predetermined error range for a predetermined time after the tracking result.
제 1 항에 있어서,
상기 결정하는 단계는,
사용자의 위치를 추적하는 중에 실감형 재생을 위한 개시 이벤트가 감지되면 상기 추적된 위치를 상기 산출을 위한 제 1 위치로 결정하는 것을 특징으로 하는 콘텐츠 재생 방법.
The method according to claim 1,
Wherein the determining comprises:
Wherein when the start event for realistic playback is detected while tracking the position of the user, the tracked position is determined as the first position for the calculation.
제 1 항에 있어서,
상기 결정하는 단계는,
사용자의 위치를 추적하는 중에 미리 설정된 사용자의 특정 제스처가 감지되면, 상기 추적된 위치를 상기 산출을 위한 제 1 위치로 결정하는 것을 특징으로 하는 콘텐츠 재생 방법.
The method according to claim 1,
Wherein the determining comprises:
When the predetermined gesture of the user is detected during the tracking of the position of the user, the tracked position is determined as the first position for the calculation.
사용자의 감각을 자극하는 콘텐츠를 수집하는 콘텐츠 수집부;
상기 콘텐츠 수집부로부터 입력된 콘텐츠를 재생이 가능하도록 처리하는 콘텐츠 처리부;
상기 콘텐츠 처리부로부터 입력된 콘텐츠를 재생하는 콘텐츠 재생부;
상기 콘텐츠가 상기 사용자의 위치에 대응되게 재생되도록 상기 사용자의 위치와 관련된 정보를 수집하는 센서부; 및
상기 센서부로부터 수신된 정보를 기반으로 상기 사용자의 위치에 대응되는 가상의 콘텐츠 공간상에서의 가상 시점(virtual viewpoint)를 결정하고, 상기 결정된 가상 시점에 대응되는 콘텐츠가 재생되도록 제어하는 제어부를 포함하는 콘텐츠 재생 장치.
A contents collecting unit for collecting contents that stimulate the user's senses;
A content processing unit that processes the content input from the content collecting unit so as to be reproducible;
A content reproduction unit for reproducing the content input from the content processing unit;
A sensor unit for collecting information related to the position of the user so that the content is reproduced corresponding to the position of the user; And
Determining a virtual viewpoint in a virtual content space corresponding to the location of the user based on the information received from the sensor unit and controlling the content corresponding to the determined virtual time point to be reproduced Content playback apparatus.
제 16 항에 있어서,
상기 제어부는,
상기 센서부로부터 수신된 정보를 기반으로 상기 사용자의 제 1 위치를 결정하는 초기화부와,
상기 결정된 제 1 위치를 기준으로 사용자가 존재하는 실제공간과 상기 콘텐츠 공간을 맵핑하는 공간 맵핑부와,
상기 사용자의 제 2 위치에 대응되는 상기 콘텐츠 공간상에서의 가상 시점(virtual viewpoint)을 결정하는 가상 시점 결정부와,
상기 결정된 가상 시점에 대응되는 콘텐츠를 재생하도록 상기 콘텐츠 처리부를 제어하는 콘텐츠 처리 제어부를 포함하는 것을 특징으로 하는 콘텐츠 재생 장치.
17. The method of claim 16,
Wherein,
An initialization unit for determining a first position of the user based on information received from the sensor unit;
A space mapping unit for mapping the actual space in which the user is present and the content space based on the determined first position,
A virtual viewpoint determining unit for determining a virtual viewpoint on the content space corresponding to the second location of the user;
And a content processing control unit for controlling the content processing unit to reproduce the content corresponding to the determined virtual time point.
제 17 항에 있어서,
상기 콘텐츠 재생부는,
싱기 결정된 가상 시점을 기준으로 영상을 표시하는 영상 표시부를 포함하는 것을 특징으로 하는 콘텐츠 재생 장치.
18. The method of claim 17,
Wherein,
And a video display unit for displaying an image on the basis of the virtual time point determined by the time determination unit.
제 18 항에 있어서,
상기 영상 표시부는,
상기 결정된 가상 시점을 기준으로 상기 영상의 명암, 입체감 및 깊이감 중에서 적어도 하나를 조절하여 상기 영상을 표시하는 것을 특징으로 하는 콘텐츠 재생 장치.
19. The method of claim 18,
The image display unit includes:
And displays the image by adjusting at least one of brightness, depth, and depth of the image based on the determined virtual viewpoint.
제 17 항에 있어서,
상기 콘텐츠 재생부는,
상기 결정된 가상 시점을 기준으로 소리를 출력하는 음향 출력부를 포함하는 것을 특징으로 하는 콘텐츠 재생 장치.
18. The method of claim 17,
Wherein,
And an audio output unit for outputting sound based on the determined virtual time point.
제 20 항에 있어서,
상기 음향 출력부는,
상기 결정된 가상 시점을 기준으로 상기 소리의 방향감 및 거리감 중에서 적어도 하나를 조절하여 상기 소리를 출력하는 것을 특징으로 하는 콘텐츠 재생 장치.
21. The method of claim 20,
The sound output unit includes:
Wherein the control unit controls at least one of a directional feeling and a sense of distance of the sound based on the determined virtual time point to output the sound.
제 16 항에 있어서,
상기 콘텐츠 재생부는,
상기 사용자의 감각 중에서 적어도 시각 및 청각을 각각 자극하는 영상과 소리를 재생하는 것을 특징으로 하는 콘텐츠 재생 장치.
17. The method of claim 16,
Wherein,
And reproduces an image and a sound that respectively stimulate at least the visual sense and the auditory sense from among the senses of the user.
제 17 항에 있어서,
상기 가상 시점 결정부는,
상기 제 1 위치를 기준으로 상기 사용자의 위치 변화량을 산출하고, 상기 산출된 위치 변화량을 삼각 함수에 적용하여 각도 변화량을 산출하며, 상기 산출된 각도 변화량만큼 상기 가상 시점의 방향을 회전하며, 상기 방향이 회전된 가상 시점에 대응되는 콘텐츠를 재생하도록 제어하는 것을 특징으로 하는 콘텐츠 재생 장치.
18. The method of claim 17,
The virtual-
Calculates a position change amount of the user based on the first position, calculates an angle change amount by applying the calculated position change amount to a trigonometric function, rotates the direction of the virtual viewpoint by the calculated angle change amount, And controls to reproduce the content corresponding to the rotated virtual time point.
제 17 항에 있어서,
상기 제어부는 상기 센서부로부터 수신된 정보를 이용하여 상기 사용자의 위치를 추적하는 추적부를 더 구비하고,
상기 초기화부는 상기 사용자의 위치 추적 중에 미리 정해진 시간 동안 상기 사용자의 위치가 미리 설정된 오차 범위 내에서 고정되면, 상기 고정된 위치를 상기 맵핑을 위한 제 1 위치로 결정하는 것을 특징으로 하는 콘텐츠 재생 장치.
18. The method of claim 17,
The control unit may further include a tracking unit for tracking the position of the user using the information received from the sensor unit,
Wherein the initialization unit determines the fixed position as the first position for mapping when the position of the user is fixed within a predetermined error range for a predetermined time during tracking of the position of the user.
제 17 항에 있어서,
상기 제어부는 상기 센서부로부터 수신된 정보를 이용하여 상기 사용자의 위치를 추적하는 추적부를 더 구비하고,
상기 초기화부는 상기 사용자의 위치 추적 중에 실감형 재생을 위한 개시 이벤트가 감지되면 상기 추적된 위치를 상기 맵핑을 위한 제 1 위치로 결정하는 것을 특징으로 하는 콘텐츠 재생 장치.
18. The method of claim 17,
The control unit may further include a tracking unit for tracking the position of the user using the information received from the sensor unit,
Wherein the initialization unit determines the tracked position as a first position for the mapping when a start event for real-time playback is detected during the tracking of the position of the user.
제 17 항에 있어서,
상기 제어부는 상기 센서부로부터 수신된 정보를 이용하여 상기 사용자의 위치를 추적하는 추적부를 더 구비하고,
상기 초기화부는 상기 사용자의 위치 추적 중에 미리 설정된 사용자의 특정 제스처가 감지되면, 상기 추적된 위치를 상기 맵핑을 위한 제 1 위치로 결정하는 것을 특징으로 하는 콘텐츠 재생 장치.
18. The method of claim 17,
The control unit may further include a tracking unit for tracking the position of the user using the information received from the sensor unit,
Wherein the initialization unit determines the tracked position as the first position for the mapping when a predetermined gesture of the user is detected during the tracking of the position of the user.
제 17 항에 있어서,
콘텐츠 재생 기능을 구비한 외부 기기와 연결하는 인터페이스부를 더 포함하고,
상기 콘텐츠 처리 제어부는 상기 인터페이스부를 통해 상기 외부 기기를 제어하여 상기 가상 시점에 대응되는 콘텐츠를 재생하도록 하는 것을 특징으로 하는 콘텐츠 재생 장치.


18. The method of claim 17,
Further comprising an interface unit for connecting to an external device having a content playback function,
Wherein the content processing control unit controls the external device through the interface unit to reproduce the content corresponding to the virtual time point.


KR1020110114883A 2011-07-18 2011-11-07 Contents play method and apparatus KR101926477B1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP12814483.9A EP2735164A4 (en) 2011-07-18 2012-01-17 Content playing method and apparatus
CN201280035942.2A CN103703772A (en) 2011-07-18 2012-01-17 Content playing method and apparatus
PCT/KR2012/000375 WO2013012146A1 (en) 2011-07-18 2012-01-17 Content playing method and apparatus
US13/356,220 US20130023342A1 (en) 2011-07-18 2012-01-23 Content playing method and apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20110070959 2011-07-18
KR1020110070959 2011-07-18

Publications (2)

Publication Number Publication Date
KR20130010424A KR20130010424A (en) 2013-01-28
KR101926477B1 true KR101926477B1 (en) 2018-12-11

Family

ID=47839676

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110114883A KR101926477B1 (en) 2011-07-18 2011-11-07 Contents play method and apparatus

Country Status (5)

Country Link
US (1) US20130023342A1 (en)
EP (1) EP2735164A4 (en)
KR (1) KR101926477B1 (en)
CN (1) CN103703772A (en)
WO (1) WO2013012146A1 (en)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9613461B2 (en) * 2012-12-10 2017-04-04 Sony Corporation Display control apparatus, display control method, and program
KR102019125B1 (en) * 2013-03-18 2019-09-06 엘지전자 주식회사 3D display device apparatus and controlling method thereof
KR101462021B1 (en) * 2013-05-23 2014-11-18 하수호 Method and terminal of providing graphical user interface for generating a sound source
KR101381396B1 (en) * 2013-09-12 2014-04-04 하수호 Multiple viewer video and 3d stereophonic sound player system including stereophonic sound controller and method thereof
US10937187B2 (en) 2013-10-07 2021-03-02 Apple Inc. Method and system for providing position or movement information for controlling at least one function of an environment
KR101953960B1 (en) 2013-10-07 2019-03-04 애플 인크. Method and system for providing position or movement information for controlling at least one function of a vehicle
KR101669926B1 (en) * 2014-02-03 2016-11-09 (주)에프엑스기어 User view point related image processing apparatus and method thereof
CN105094299B (en) * 2014-05-14 2018-06-01 三星电子(中国)研发中心 The method and apparatus for controlling electronic device
CN104123003B (en) * 2014-07-18 2017-08-01 北京智谷睿拓技术服务有限公司 Content share method and device
CN104102349B (en) 2014-07-18 2018-04-27 北京智谷睿拓技术服务有限公司 Content share method and device
US11076052B2 (en) 2015-02-03 2021-07-27 Dolby Laboratories Licensing Corporation Selective conference digest
CN104808946A (en) * 2015-04-29 2015-07-29 天脉聚源(北京)传媒科技有限公司 Image playing and controlling method and device
JP6739907B2 (en) * 2015-06-18 2020-08-12 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Device specifying method, device specifying device and program
CN108243629B (en) * 2015-11-11 2020-09-08 索尼公司 Image processing apparatus and image processing method
US9851435B2 (en) 2015-12-14 2017-12-26 Htc Corporation Electronic device and signal generating circuit
CN109963177A (en) * 2017-12-26 2019-07-02 深圳Tcl新技术有限公司 A kind of method, storage medium and the television set of television set adjust automatically viewing angle
KR102059114B1 (en) * 2018-01-31 2019-12-24 옵티머스시스템 주식회사 Image compensation device for matching virtual space and real space and image matching system using the same
JP7140517B2 (en) * 2018-03-09 2022-09-21 キヤノン株式会社 Generation device, generation method performed by generation device, and program
CN111681467B (en) * 2020-06-01 2022-09-23 广东小天才科技有限公司 Vocabulary learning method, electronic equipment and storage medium

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1186038A (en) * 1997-03-03 1999-03-30 Sega Enterp Ltd Image processor, image processing method, medium and game machine
JP2006025281A (en) * 2004-07-09 2006-01-26 Hitachi Ltd Information source selection system, and method
US9030532B2 (en) * 2004-08-19 2015-05-12 Microsoft Technology Licensing, Llc Stereoscopic image display
JP4500632B2 (en) * 2004-09-07 2010-07-14 キヤノン株式会社 Virtual reality presentation apparatus and information processing method
US20080153591A1 (en) * 2005-03-07 2008-06-26 Leonidas Deligiannidis Teleportation Systems and Methods in a Virtual Environment
US8564532B2 (en) * 2005-12-06 2013-10-22 Naturalpoint, Inc. System and methods for using a movable object to control a computer
US20080252596A1 (en) * 2007-04-10 2008-10-16 Matthew Bell Display Using a Three-Dimensional vision System
US20090141905A1 (en) * 2007-12-03 2009-06-04 David Warhol Navigable audio-based virtual environment
US20090222838A1 (en) * 2008-02-29 2009-09-03 Palm, Inc. Techniques for dynamic contact information
WO2010071531A1 (en) * 2008-12-19 2010-06-24 Saab Ab System and method for mixing a scene with a virtual scenario
KR101324440B1 (en) * 2009-02-11 2013-10-31 엘지디스플레이 주식회사 Method of controlling view of stereoscopic image and stereoscopic image display using the same
US8477175B2 (en) * 2009-03-09 2013-07-02 Cisco Technology, Inc. System and method for providing three dimensional imaging in a network environment
CN102045429B (en) * 2009-10-13 2015-01-21 华为终端有限公司 Method and equipment for adjusting displayed content
KR101313797B1 (en) * 2009-12-18 2013-10-01 한국전자통신연구원 Apparatus and method for presenting display of 3D image using head tracking
US8964013B2 (en) * 2009-12-31 2015-02-24 Broadcom Corporation Display with elastic light manipulator
KR101046259B1 (en) * 2010-10-04 2011-07-04 최규호 Stereoscopic image display apparatus according to eye position
US9644989B2 (en) * 2011-06-29 2017-05-09 Telenav, Inc. Navigation system with notification and method of operation thereof

Also Published As

Publication number Publication date
US20130023342A1 (en) 2013-01-24
EP2735164A1 (en) 2014-05-28
CN103703772A (en) 2014-04-02
EP2735164A4 (en) 2015-04-29
WO2013012146A1 (en) 2013-01-24
KR20130010424A (en) 2013-01-28

Similar Documents

Publication Publication Date Title
KR101926477B1 (en) Contents play method and apparatus
US11308583B2 (en) Systems, methods, and media for adjusting one or more images displayed to a viewer
US11024083B2 (en) Server, user terminal device, and control method therefor
US11128812B2 (en) Generating content for a virtual reality system
US10834454B2 (en) Personalized presentation enhancement using augmented reality
US20130260360A1 (en) Method and system of providing interactive information
CN102804169A (en) Viewer-centric User Interface For Stereoscopic Cinema
US11647354B2 (en) Method and apparatus for providing audio content in immersive reality
CN105657396A (en) Video play processing method and device
JP2019512177A (en) Device and related method
WO2020206647A1 (en) Method and apparatus for controlling, by means of following motion of user, playing of video content
CN109996060A (en) A kind of virtual reality cinema system and information processing method
CN110910508B (en) Image display method, device and system
US20220036075A1 (en) A system for controlling audio-capable connected devices in mixed reality environments
CN109313823A (en) Information processing unit, information processing method and program
KR101923640B1 (en) Method and apparatus for providing virtual reality broadcast
CN115485736A (en) User selection of virtual camera positions to produce video using composite input from multiple cameras
KR20140118063A (en) Apparatus for visualization of multimedia contents and method thereof
CN117615082A (en) Image data processing method, device, electronic equipment and readable storage medium
KR20140119870A (en) Apparatus for providing multimedia contents and method for displaying multimedia contents thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant