KR20130010424A - Contents play method and apparatus - Google Patents

Contents play method and apparatus Download PDF

Info

Publication number
KR20130010424A
KR20130010424A KR1020110114883A KR20110114883A KR20130010424A KR 20130010424 A KR20130010424 A KR 20130010424A KR 1020110114883 A KR1020110114883 A KR 1020110114883A KR 20110114883 A KR20110114883 A KR 20110114883A KR 20130010424 A KR20130010424 A KR 20130010424A
Authority
KR
South Korea
Prior art keywords
content
user
unit
location
virtual viewpoint
Prior art date
Application number
KR1020110114883A
Other languages
Korean (ko)
Other versions
KR101926477B1 (en
Inventor
정상근
박현철
정문식
조경선
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to EP12814483.9A priority Critical patent/EP2735164A4/en
Priority to PCT/KR2012/000375 priority patent/WO2013012146A1/en
Priority to CN201280035942.2A priority patent/CN103703772A/en
Priority to US13/356,220 priority patent/US20130023342A1/en
Publication of KR20130010424A publication Critical patent/KR20130010424A/en
Application granted granted Critical
Publication of KR101926477B1 publication Critical patent/KR101926477B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PURPOSE: A content playing method and a device are provided to realistically play content attracting a viewpoint of a user based on a user location. CONSTITUTION: A content playing device determines a first location of a user(1301). The content playing device maps a real space and a content space displayed through a display unit based on the determined first location(1302). The content playing device determines a virtual viewpoint on the content space corresponding to a second location of the user(1305). The content playing device plays content corresponding to the determined virtual viewpoint(1306). [Reference numerals] (1301) Determining a first location of a user; (1302) Mapping a real space and a content space; (1303) Calculating the location variation of the user; (1304) Is the calculated location variation more than a preset minimum location variation(MTT)?; (1305) Determining a viewpoint on the content space corresponding to the changed location of the user; (1306) Playing contents corresponding to the determined viewpoint; (1307) Ending tangible playing; (AA) Start; (BB.DD) No; (CC,EE) Yes; (FF) End

Description

콘텐츠 재생 방법 및 장치{CONTENTS PLAY METHOD AND APPARATUS}Content playback method and device {CONTENTS PLAY METHOD AND APPARATUS}

본 발명은 콘텐츠 재생 방법 및 장치에 관한 것으로 특히, 사용자의 위치에 대응하여 콘텐츠를 재생하는 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for playing content, and more particularly, to a method and apparatus for playing content corresponding to a location of a user.

최근 3차원 입체 영상에 대한 수요가 급증하고 있으며, 디지털 방송이 상용화된 이후 3D(3-Dimensional) TV 및 3D 정보 단말기 등의 분야에서 입체 영상에 대한 연구가 활발히 이루어지고 있다. 일반적으로 3차원으로 표현되는 입체 영상은 두 눈을 통한 스테레오(stereo) 시각의 원리에 의하여 이루어진다. 두 눈이 약 65mm 정도 떨어져서 있음으로 인해 나타나는 양안 시차는 깊이감의 중요한 요인으로 작용한다. 좌우의 눈은 서로 다른 입체 영상을 보게 되고, 두 입체 영상이 망막을 통해 뇌로 전달되면, 뇌는 이를 융합하여 입체 영상에 대해 깊이감을 느끼게 된다.Recently, the demand for 3D stereoscopic images is rapidly increasing, and since digital broadcasting is commercialized, 3D stereoscopic images are actively researched in the fields of 3D (3-Dimensional) TV and 3D information terminal. In general, three-dimensional images are represented by the principle of stereo vision through two eyes. The binocular disparity, which appears as the eyes are about 65 mm apart, is an important factor in depth. The left and right eyes see different stereoscopic images, and when the two stereoscopic images are delivered to the brain through the retina, the brain fuses them to feel the depth of the stereoscopic images.

그러나, 3D TV의 경우, 사용자의 위치에 상관없이 항상 시점(viewpoint)이 고정된 3D 영상을 보여줄 뿐, TV 안에 들어와 있는 듯 실감나는 영상을 제공해주지 못하고 있는 실정이다.However, in the case of a 3D TV, only a 3D image having a fixed viewpoint is always displayed regardless of a user's position, and a 3D TV does not provide a realistic image as if it is in a TV.

본 발명은 사용자의 위치에 대응하여 사용자의 감각 중에서 적어도 시각을 자극하는 콘텐츠를 실감나게 재생하는 방법 및 장치를 제공함을 목적으로 한다.It is an object of the present invention to provide a method and apparatus for realistically reproducing at least visual stimulating contents of a user's senses in response to a user's location.

상술한 해결하고자 하는 과제를 달성하기 위해 본 발명에 따른 콘텐츠 재생 방법은 사용자의 제 1 위치를 결정하는 단계; 상기 결정된 제 1 위치를 기준으로 상기 사용자가 존재하는 실제공간과 표시부를 통해 표시되는 콘텐츠 공간을 맵핑하는 단계; 상기 사용자의 제 2 위치에 대응되는 상기 콘텐츠 공간상에서의 가상 시점(virtual viewpoint)을 결정하는 단계; 및 상기 결정된 가상 시점에 대응되는 콘텐츠를 재생하는 단계를 포함하는 것을 특징으로 한다.In accordance with an aspect of the present invention, there is provided a method of reproducing a content, comprising: determining a first position of a user; Mapping a real space in which the user exists and a content space displayed through the display unit based on the determined first position; Determining a virtual viewpoint in the content space corresponding to the second location of the user; And playing the content corresponding to the determined virtual viewpoint.

또한 본 발명에 따른 콘텐츠 재생 장치는 사용자의 감각을 자극하는 콘텐츠를 수집하는 콘텐츠 수집부; 상기 콘텐츠 수집부로부터 입력된 콘텐츠를 재생이 가능하도록 처리하는 콘텐츠 처리부; 상기 콘텐츠 처리부로부터 입력된 콘텐츠를 재생하는 콘텐츠 재생부; 상기 콘텐츠가 상기 사용자의 위치에 대응되게 재생되도록 상기 사용자의 위치와 관련된 정보를 수집하는 센서부; 및 상기 센서부로부터 수신된 정보를 기반으로 상기 사용자의 위치에 대응되는 가상의 콘텐츠 공간상에서의 가상 시점(virtual viewpoint)를 결정하고, 상기 결정된 가상 시점에 대응되는 콘텐츠가 재생되도록 제어하는 제어부를 포함하는 것을 특징으로 한다.In addition, the content reproducing apparatus according to the present invention includes a content collecting unit for collecting the content to stimulate the user's senses; A content processing unit which processes the content input from the content collecting unit to enable playback; A content reproducing unit reproducing the content input from the content processing unit; A sensor unit configured to collect information related to the location of the user so that the content is reproduced corresponding to the location of the user; And a controller configured to determine a virtual viewpoint in a virtual content space corresponding to the location of the user based on the information received from the sensor unit, and control to play the content corresponding to the determined virtual viewpoint. Characterized in that.

이상으로 본 발명에 따른 콘텐츠 재생 방법 및 장치에 따르면, 본 발명은 사용자의 감각을 자극하는 콘텐츠를 실감나게 재생할 수 있는 효과가 있다.As described above, according to the method and apparatus for reproducing content according to the present invention, the present invention has an effect of realistically reproducing content stimulating a user's senses.

도 1은 본 발명의 일 실시예에 따른 콘텐츠 재생 장치의 블록 구성도이다.
도 2는 본 발명에 따른 3D 공간을 표현하기 위한 3차원 좌표계를 도시한 것이다.
도 3a, 도 3b 및 도3c는 각각, 본 발명에 따른 실제 공간을 설명하기 위한 사시도, 상면도 및 측면도이다.
도 4a 및 도 4b는 각각, 본 발명에 따른 가상의 콘텐츠 공간을 설명하기 위한 사시도 및 상면도이다.
도 5는 본 발명의 일 실시예에 따른 실감형 재생부의 블록 구성도이다.
도 6은 본 발명의 일 실시예에 따른 공간 맵핑 방법을 설명하기 위한 도면이다.
도 7은 본 발명의 다른 실시예에 따른 공간 맵핑 방법을 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시예에 따른 가상 시점 결정 방법을 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시예에 따른 가상 카메라의 앵글 조절 방법을 설명하기 위한 도면이다.
도 10은 본 발명의 일 실시예에 따른 입체 영상 조절 방법을 설명하기 위한 도면이다.
도 11은 본 발명의 일 실시예에 따른 입체 음향 조절 방법을 설명하기 위한 도면이다.
도 12는 본 발명의 일 실시예에 따른 콘텐츠 재생 장치가 적용된 홈 네트워크 시스템의 네트워크 구성도이다.
도 13은 본 발명의 일 실시예에 따른 콘텐츠 재생 방법을 설명하기 위한 흐름도이다.
도 14는 본 발명의 다른 실시예에 따른 콘텐츠 재생 방법을 설명하기 위한 흐름도이다.
1 is a block diagram of a content reproducing apparatus according to an embodiment of the present invention.
2 shows a three-dimensional coordinate system for representing a 3D space according to the present invention.
3A, 3B and 3C are a perspective view, a top view and a side view for explaining the actual space according to the present invention, respectively.
4A and 4B are respectively a perspective view and a top view for explaining a virtual content space according to the present invention.
5 is a block diagram of a sensory playback unit according to an embodiment of the present invention.
6 is a view for explaining a spatial mapping method according to an embodiment of the present invention.
7 is a view for explaining a spatial mapping method according to another embodiment of the present invention.
8 is a diagram for describing a virtual view determination method according to an embodiment of the present invention.
9 is a view for explaining the angle adjustment method of the virtual camera according to an embodiment of the present invention.
10 is a view for explaining a stereoscopic image adjusting method according to an embodiment of the present invention.
11 is a view for explaining a stereo sound control method according to an embodiment of the present invention.
12 is a network diagram of a home network system to which a content player is applied according to an embodiment of the present invention.
13 is a flowchart illustrating a content playback method according to an embodiment of the present invention.
14 is a flowchart illustrating a content playback method according to another embodiment of the present invention.

이하에는 첨부한 도면을 참조하여 본 발명의 바람직한 실시예에 따라 콘텐츠 재생 방법 및 장치에 대해서 상세하게 설명한다. 단, 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명은 생략한다.Hereinafter, with reference to the accompanying drawings will be described in detail a method and apparatus for playing content according to a preferred embodiment of the present invention. However, in describing the present invention, when it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted.

본 발명의 상세한 설명에 앞서, 이하에서 사용되는 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 한다. 따라서, 본 명세서와 도면은 본 발명의 바람직한 실시예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원 시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다. 또한, 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 또는 개략적으로 도시되었으며, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. 따라서 본 발명은 첨부한 도면에 그려진 상대적인 크기나 간격에 의해 제한되어지지 않는다.Before describing the present invention, it is to be understood that the terminology used herein is for the purpose of description and should not be interpreted to limit the scope of the present invention. Accordingly, the specification and drawings are to be regarded in an illustrative rather than a restrictive sense only and not for purposes of limitation, and that various equivalents and modifications may be substituted for them at the time of filing of the present application . Also, in the accompanying drawings, some of the elements are exaggerated, omitted or schematically shown, and the size of each element does not entirely reflect the actual size. Accordingly, the present invention is not limited by the relative size or spacing depicted in the accompanying drawings.

아래 설명에서 콘텐츠는 사용자의 감각 즉, 시각, 청각, 촉각 등을 자극하는 것으로 정의된다. 예를 들어, 콘텐츠는 영상, 빛, 소리, 바람 등이 될 수 있다. 또한 실감형 재생은 사용자의 위치에 대응하여 콘텐츠를 재생하는 것으로 정의될 수 있다. 즉 사용자의 위치가 다르면 같은 속성의 콘텐츠라 하더라도 사용자의 느낌은 다를 수 있다. 예컨대 콘텐츠가 화면에 표시되는 자동차라고 가정하면 사용자의 위치에 따라 자동차의 정면이 보이거나 자동차의 측면이 보이는 것과 같다.In the following description, content is defined as stimulating a user's senses, ie, sight, hearing, and touch. For example, the content may be an image, light, sound, wind, or the like. In addition, tangible playback may be defined as playing content in response to a user's location. That is, if the location of the user is different, the user's feeling may be different even with the content of the same property. For example, assuming that the content is a car displayed on the screen, it is as if the front of the car or the side of the car is visible depending on the position of the user.

본 발명에 따른 콘텐츠 재생 방법 및 장치는 사용자의 감각을 자극하는 콘텐츠를 재생하는 기능을 구비한 전자 기기에 적용될 수 있다. 구체적으로 본 발명에 따른 콘텐츠 재생 방법 및 장치는 노트북 PC, 데스크탑 PC, 태블릿 PC, 스마트 폰, HDTV(High Definition TeleVision), 스마트 TV, 3D(3-Dimensional) TV, IPTV(Internet Protocol Television), 입체 음향 시스템, 극장 시스템, 홈시어터(home theater), 홈 네트워크 시스템 등에 적용될 수 있다. The method and apparatus for reproducing content according to the present invention can be applied to an electronic device having a function of reproducing content stimulating a user's senses. Specifically, the method and device for playing content according to the present invention include a notebook PC, a desktop PC, a tablet PC, a smart phone, a high definition television (HDTV), a smart TV, a 3D (3-Dimensional) TV, an IPTV (Internet Protocol Television), and a stereoscopic device. It can be applied to sound systems, theater systems, home theaters, home network systems, and the like.

본 발명에 따른 콘텐츠 재생 방법 및 장치는 사용자의 위치 변화를 추적(tracking)하는 기능과, 추적된 사용자의 위치에 대응하여 콘텐츠를 실감나게 재생하는 기능을 제공한다. 또한 본 발명에 따른 콘텐츠 재생 방법 및 장치는 유선 랜(LAN; Local Area Network), 무선 랜, 3G(3-Generation)나 4G(4-Generation) 등의 이동통신망, 케이블, 방송 위성, 방송국 등을 통해 콘텐츠 제공자로부터 콘텐츠 즉, 영상을 수신하고, 수신한 영상을 구비된 데이터베이스에 저장하고 실시간 재생할 수 있는 기능을 제공할 수 있다. 여기서, 영상은 입체 영상(stereoscopic image)을 포함할 수 있다. 또한 입체 영상은 3D 영화, 3D 애니메이션, 3D 컴퓨터 그래픽 등이 될 수 있다. 또한, 입체 영상은 입체 음향과 혼합된 멀티미디어일 수도 있다.The method and apparatus for playing content according to the present invention provide a function of tracking a change in the position of a user and a function of realistically playing the content corresponding to the tracked position of the user. In addition, the content reproduction method and apparatus according to the present invention is a wired LAN (LAN), a wireless LAN, a mobile communication network such as 3G (3-Generation) or 4G (4-Generation), cable, broadcast satellite, broadcasting stations, etc. Through the content provider through the content, that is, the image may be received, and the function of storing the received image in a database provided with the real-time playback can be provided. Here, the image may include a stereoscopic image. Stereoscopic images can also be 3D movies, 3D animations, 3D computer graphics, and the like. Also, the stereoscopic image may be multimedia mixed with stereoscopic sound.

도 1은 본 발명의 일 실시예에 따른 콘텐츠 재생 장치의 블록 구성도이다. 도 1에 따른 콘텐츠 재생 장치는 콘텐츠를 화면과 사용자 사이의 3차원 공간상에 있는 것처럼 보이게 할 수 있는 3D TV로 가정하여 설명한다. 도 1을 참조하면, 본 발명의 일 실시예에 따른 콘텐츠 재생 장치(100)는 1 is a block diagram of a content reproducing apparatus according to an embodiment of the present invention. The description will be given on the assumption that the content reproducing apparatus according to Fig. 1 is a 3D TV capable of making the content appear to be in a three-dimensional space between the screen and the user. Referring to FIG. 1, the content playback apparatus 100 according to an embodiment of the present invention

도 1을 참조하면, 본 발명의 일 실시예에 따른 콘텐츠 재생 장치는 입력부(110), 리모컨(120), 리모컨 수신부(125), 센서부(130), 콘텐츠 수집부(140), 콘텐츠 처리부(150), 음향 출력부(161), 영상 표시부(162), 저장부(170), 인터페이스부(180) 및 제어부(190)를 포함하여 이루어질 수 있다.Referring to FIG. 1, an apparatus for playing content according to an embodiment of the present invention may include an input unit 110, a remote controller 120, a remote controller receiver 125, a sensor unit 130, a content collector 140, and a content processor ( 150, a sound output unit 161, an image display unit 162, a storage unit 170, an interface unit 180, and a controller 190.

입력부(110)는 숫자 또는 문자 정보를 입력받고 각종 기능들을 설정하기 위한 다수의 입력키 및 기능키들을 포함할 수 있다. 상기 기능키들은 특정 기능을 수행하도록 설정된 방향키, 사이드 키 및 단축키 등을 포함할 수 있다. 또한 입력부(110)는 사용자 설정 및 콘텐츠 재생 장치(100)의 기능 제어와 관련한 키 이벤트를 생성하여 제어부(190)로 전달한다. 키 이벤트는 전원 온/오프 이벤트, 볼륨 조절 이벤트, 화면 온/오프 이벤트 등을 포함할 수 있다. 제어부(190)는 이러한 키 이벤트에 응답하여 상기한 구성들을 제어한다.The input unit 110 may include a plurality of input keys and function keys for receiving numeric or character information and setting various functions. The function keys may include a direction key, a side key, and an accelerator key set for performing a specific function. In addition, the input unit 110 generates a key event related to user setting and function control of the content reproducing apparatus 100 and transmits the generated key event to the controller 190. The key event may include a power on / off event, a volume adjustment event, a screen on / off event, and the like. The controller 190 controls the above components in response to the key event.

리모컨(120)은 콘텐츠 재생 장치(100)의 조작을 위한 다양한 키 이벤트를 발생하고, 발생된 키 이벤트를 무선 신호로 변환하여 리모컨 수신부(125)로 전송한다. 특히, 본 발명에서 리모컨(120)은 실감형 재생을 요청하는 개시 이벤트와, 실감형 재생을 종료하는 종료 이벤트를 발생할 수 있다. 여기서 실감형 재생은 상술한 바와 같이, 사용자의 위치에 대응하여 콘텐츠를 재생하는 것으로 정의될 수 있다. 리모컨 수신부(125)는 수신된 무선 신호를 원래의 키 이벤트로 변환하여 제어부(190)로 전달한다.The remote controller 120 generates various key events for the operation of the content reproducing apparatus 100, converts the generated key events into wireless signals, and transmits the generated key events to the remote controller receiver 125. In particular, in the present invention, the remote controller 120 may generate a start event for requesting realistic playback and an end event for ending the sensory playback. As described above, the tangible reproduction may be defined as playing the content corresponding to the position of the user. The remote control receiver 125 converts the received wireless signal into an original key event and transmits it to the controller 190.

센서부(130)는 제어부(190)가 사용자의 위치를 추적할 수 있게 사용자 위치와 관련된 정보를 수집하여, 수집된 정보를 제어부(190)로 전달한다. 구체적으로, 센서부(130)는 이미지 센서, 적외선과 같은 특정 파장의 빛을 감지하는 광센서 등으로 구현될 수 있다. 또한, 센서부(130)는 감지된 물리량을 전기적인 신호로 변환하고, 변환된 전기 신호를 다시 데이터로 AD(Analog to Digital) 변환하여 제어부(190)로 전달한다.The sensor unit 130 collects information related to the user's location so that the controller 190 can track the user's location, and transmits the collected information to the controller 190. Specifically, the sensor unit 130 may be implemented as an image sensor, an optical sensor that senses light of a specific wavelength such as infrared light. In addition, the sensor unit 130 converts the detected physical quantity into an electrical signal, converts the converted electrical signal back into data (AD), and transmits the converted AD to the controller 190.

콘텐츠 수집부(140)는 사용자의 감각을 자극하는 콘텐츠를 수집하는 기능을 수행한다. 특히 콘텐츠 수집부(140)는 네트워크 또는 외부기기로부터 영상 및 소리를 수집하는 기능을 수행한다. 즉 콘텐츠 수집부(140)는 방송 수신부(141)와 인터넷 통신부(142)를 포함하여 이루어질 수 있다. 구체적으로 방송 수신부(141)는 다수의 방송 채널에서 하나를 선택하고, 선택된 방송 채널의 방송 신호를 원래의 방송 콘텐츠로 복조한다. 인터넷 통신부(142)는 인터넷에서 제공하는 홈쇼핑, 홈뱅킹, 온라인 게임, MP3 등 다양한 메인 정보와 이에 대한 부가 정보를 수신하기 위한 유선 또는 무선 모뎀을 구비한다. 인터넷 통신부(142)는 이동 통신 모듈(예컨대, 3세대(3-Generation) 이동통신모듈, 3.5(3.5-Generation)세대 이동통신모듈 또는 4(4-Generation)세대 이동통신모듈 등)과 근거리 통신 모듈(예컨대, 와이파이(Wi-Fi) 모듈)을 포함할 수 있다.The content collector 140 performs a function of collecting content that stimulates a user's senses. In particular, the content collection unit 140 collects images and sounds from a network or an external device. That is, the content collector 140 may include a broadcast receiver 141 and an internet communicator 142. In more detail, the broadcast receiving unit 141 selects one from a plurality of broadcast channels and demodulates the broadcast signal of the selected broadcast channel into original broadcast content. The internet communication unit 142 includes a wired or wireless modem for receiving various main information such as home shopping, home banking, online game, MP3, etc. and additional information thereof provided from the Internet. The internet communication unit 142 may include a mobile communication module (eg, a 3-generation mobile communication module, a 3.5-generation mobile communication module or a 4-generation mobile communication module, etc.) and a short-range communication module. (Eg, a Wi-Fi module).

콘텐츠 처리부(150)는 제어부(190)의 제어 하에, 콘텐츠 수집부(140)로부터 입력된 콘텐츠를 재생이 가능하도록 처리하는 기능을 수행한다. 구체적으로 콘텐츠 처리부(150)는 입력된 콘텐츠를 입체 영상과 입체 음향으로 분류한다. 그리고 콘텐츠 처리부(150)는 분류된 입체 음향을 디코딩하여 음향 출력부(161)로 출력하는 음향 처리부(151)와, 분류된 입체 영상을 좌안 영상과 우안 영상으로 디코딩하여 영상 표시부(162)로 출력하는 영상 처리부(152)를 포함하여 이루어질 수 있다. 또한, 콘텐츠 처리부(150)는 제어부(190)의 제어 하에, 입력된 콘텐츠를 압축하여 제어부(190)로 전달할 수 있다. 이에 따라 제어부(190)는 압축된 콘텐츠를 저장부(170)에 전달한다. 특히, 본 발명에 따른 음향 처리부(150)는 사용자의 위치에 따라 입체 음향의 방향감이나 거리감 등을 조절할 수 있다. 다시 말해, 음향 처리부(150)는 사용자의 위치에 따라, 음향 출력부(161)에서 출력되는 음향의 종류를 다르게 하거나, 음향의 종류별로 그 음량을 다르게 할 수 있다. 또한, 본 발명에 따른 영상 처리부(160)는 사용자의 위치에 따라 입체 영상의 명암, 입체감, 깊이감 등을 조절할 수 있다.The content processing unit 150 performs a function of processing the content input from the content collecting unit 140 to be playable under the control of the controller 190. In detail, the content processor 150 classifies the input content into a stereoscopic image and a stereo sound. The content processor 150 decodes the classified stereoscopic sound and outputs it to the audio output unit 161, and decodes the classified stereoscopic image into a left eye image and a right eye image, and outputs it to the image display unit 162. The image processing unit 152 may be included. Also, under the control of the controller 190, the content processor 150 may compress the input content and transmit the compressed content to the controller 190. Accordingly, the controller 190 transmits the compressed content to the storage unit 170. In particular, the sound processor 150 according to the present invention may adjust the sense of direction, distance, etc. of the three-dimensional sound according to the position of the user. In other words, the sound processor 150 may change the type of the sound output from the sound output unit 161 or the volume of the sound according to the type of the sound according to the position of the user. In addition, the image processing unit 160 according to the present invention may adjust the contrast, stereoscopic sense, depth of the stereoscopic image according to the position of the user.

콘텐츠 재생부(160)는 콘텐츠 처리부(150)에서 처리된 콘텐츠를 재생하는 기능을 수행한다. 이러한 콘텐츠 재생부(160)는 음향 출력부(161)와 영상 표시부(162)를 포함하여 이루어질 수 있다. 음향 출력부(161)는 디코딩된 입체 음향을 출력하는 것으로써, 다수의 스피커 예컨대, 5.1 채널 스피커를 포함하여 이루어질 수 있다. 영상 표시부(162)는 디코딩된 입체 영상을 표시한다. 또한, 영상 표시부(162)는 입체 영상이 사용자와 영상 표시부(162)의 화면 사이의 3차원 공간에 실제 있는 것처럼, 입체 영상을 깊이감이 있게 표시할 수 있다. 이를 위해, 영상 표시부(162)는 입체 영상을 표시하는 표시부와 표시되는 입체 영상에 대해 사용자가 깊이감을 느낄 수 있도록 하는 3D 구현부를 포함하여 이루어질 수 있다. 여기서 표시부는 액정표시장치(LCD, Liquid Crystal Display), 유기 발광 다이오드(OLED, Organic Light Emitting Diodes), 능동형 유기 발광 다이오드(AMOLED, Active Matrix Organic Light Emitting Diodes) 등으로 형성될 수 있다. 3D 구현부는 표시부와 적층된 형태로 형성되는 구성 요소로서, 사용자의 좌우 양안에 각기 다른 영상이 인식되게 한다. 이러한 3D 구현 방식은 주지되어 있는 바와 같이, 안경 방식과 무안경 방식으로 구분된다. 안경 방식은 색 필터 방식, 편광 필터 방식 및 셔터 글라스 방식 등이 있으며, 무안경 방식은 렌티큘러 렌즈(Lenticular Lens) 방식 및 패럴렉스 배리어(Parallax Barrier) 방식 등이 있다. 이러한 3D 구현 방식은 공지되어 있는 기술들이므로 구체적인 설명은 생략한다.The content reproducing unit 160 performs a function of reproducing the content processed by the content processing unit 150. The content player 160 may include a sound output unit 161 and an image display unit 162. The sound output unit 161 outputs decoded stereoscopic sound, and may include a plurality of speakers, for example, 5.1 channel speakers. The image display unit 162 displays the decoded stereoscopic image. In addition, the image display unit 162 may display the stereoscopic image with a sense of depth as if the stereoscopic image is actually in the three-dimensional space between the user and the screen of the image display unit 162. To this end, the image display unit 162 may include a display unit for displaying a stereoscopic image and a 3D implementation unit for allowing a user to feel the depth of the displayed stereoscopic image. The display unit may be formed of a liquid crystal display (LCD), organic light emitting diodes (OLEDs), active matrix organic light emitting diodes (AMOLEDs), and the like. The 3D realization unit is a component formed in a stacked form with the display unit, and allows different images to be recognized in both left and right sides of the user. As is well known, such a 3D implementation is divided into glasses and glasses-free. The glasses may include a color filter, a polarized filter, and a shutter glass, and the glasses may include a lenticular lens and a parallax barrier. Since the 3D implementation is well known techniques, a detailed description thereof will be omitted.

저장부(170)는 콘텐츠 재생 장치(100)의 동작에 필요한 프로그램 및 데이터를 저장하는 역할을 수행한다. 저장부(170)는 휘발성(volatile) 저장 매체 또는 비휘발성(nonvolatile) 저장 매체로 구성될 수 있으며, 양 저장 매체의 조합(combination)으로 구성될 수도 있다. 휘발성 저장 매체로는 RAM, DRAM, SRAM과 같은 반도체 메모리(semiconductor memory)가 포함되며, 비휘발성 저장 매체로는 하드 디스크(hard disk)가 포함될 수 있다. 또한 저장부(170)는 데이터 영역과 프로그램 영역으로 구분될 수 있다. 구체적으로 저장부(170)의 데이터 영역은 콘텐츠 재생 장치(100)의 사용에 따라 제어부(160)에 의해 발생되는 데이터를 저장할 수 있다. 또한 데이터 영역은 제어부(160)로부터 전달받은, 소정의 포맷으로 압축된 콘텐츠를 저장할 수 있다. 저장부(140)의 프로그램 영역은 콘텐츠 재생 장치(100)의 부팅 및 상술한 각 구성의 운용을 위한 운영체제(OS, Operating System), 다양한 사용자 기능 예를 들면, 인터넷 서버에 접속하기 위한 웹 브라우저, 기타 음원을 재생하기 위한 MP3 사용자 기능, 사진 등을 재생하기 위한 이미지 출력 기능, 동영상 재생 기능 등을 각각 지원하기 위한 어플리케이션들을 저장할 수 있다. 특히 본 발명에서 프로그램 영역은 실감형 재생 프로그램을 저장할 수 있다. 이러한 실감형 재생 프로그램은 사용자의 초기 위치를 결정하는 루틴과, 초기 위치를 기준으로 실제 공간과 콘텐츠 공간을 맵핑(mapping)하는 루틴과, 위치 변화를 추적(tracking)하는 루틴과, 사용자의 위치에 대응되는 콘텐츠 공간에서의 가상 시점(virtual viewpoint)을 결정하는 루틴과, 콘텐츠 공간에서의 시점에 대응되는 콘텐츠를 재생하는 루틴 등을 포함할 수 있다. 여기서 초기 위치는 실제 공간과 콘텐츠 공간을 맵핑하기 위한 기준값으로 정의된다. 실제 공간은 사용자와 표시부가 존재하는 3D 공간이고, 콘텐츠 공간은 표시부를 통해 표시되는 콘텐츠가 존재하는 가상의 공간이다. 또한 가상 시점(virtual viewpoint)는 실제 공간에 맵핑된 콘텐츠 공간상에서의 사용자의 시점으로 정의된다.The storage unit 170 stores a program and data necessary for the operation of the content reproducing apparatus 100. The storage unit 170 may be configured as a volatile storage medium or a nonvolatile storage medium, or may be a combination of both storage media. Volatile storage media include semiconductor memories such as RAM, DRAM, and SRAM, and non-volatile storage media may include a hard disk. In addition, the storage unit 170 may be divided into a data area and a program area. In detail, the data area of the storage unit 170 may store data generated by the controller 160 according to the use of the content reproducing apparatus 100. In addition, the data area may store content compressed in a predetermined format received from the controller 160. The program area of the storage unit 140 may include an operating system (OS) for booting the content reproducing apparatus 100 and operating the above-described components, various user functions, for example, a web browser for accessing an Internet server, Applications for supporting MP3 user functions for reproducing other sound sources, image output functions for reproducing pictures, and video reproducing functions can be stored. In particular, in the present invention, the program area may store a sensory playback program. Such a realistic playback program includes a routine for determining an initial position of a user, a routine for mapping a real space and a content space based on the initial position, a routine for tracking a change in position, and a position of the user. And a routine for determining a virtual viewpoint in the corresponding content space, a routine for reproducing content corresponding to the viewpoint in the content space, and the like. Here, the initial position is defined as a reference value for mapping the real space and the content space. The actual space is a 3D space in which the user and the display unit exist, and the content space is a virtual space in which the content displayed through the display unit exists. In addition, the virtual viewpoint is defined as the user's viewpoint in the content space mapped to the real space.

인터페이스부(180)는 콘텐츠 재생 장치(100)를 유선 또는 무선으로 외부 기기와 연결하는 기능을 수행한다. 이러한 인터페이스부(180)는 지그비(Zigbee) 모듈, 와이파이(Wi-Fi) 모듈 또는 블루투스(Bluetooth) 모듈 등을 포함할 수 있다. 특히 본 발명에서 인터페이스부(180)는 실감형 재생을 위한 제어 신호를 제어부(190)로부터 수신하고, 이를 외부 기기로 전달할 수 있다. 즉 제어부(190)는 인터페이스부(180)를 통해 외부 기기를 제어할 수 있다. 여기서 외부 기기는 홈 네트워크 장치, 입체 음향 장치, 전등, 에어컨, 난방기 등이 될 수 있다. 다시 말해 제어부(190)는 외부 기기를 제어하여 사용자의 감각 예컨대, 촉각, 시각, 후각 등을 자극하는 콘텐츠를 재생하게 할 수 있다.The interface unit 180 connects the content reproducing apparatus 100 with an external device by wire or wirelessly. The interface unit 180 may include a Zigbee module, a Wi-Fi module or a Bluetooth module. In particular, in the present invention, the interface unit 180 may receive a control signal for immersive reproduction from the controller 190 and transmit it to an external device. That is, the controller 190 may control the external device through the interface unit 180. The external device may be a home network device, a stereo device, a lamp, an air conditioner, a heater, or the like. In other words, the controller 190 may control an external device to play content stimulating a user's senses such as touch, sight, and smell.

제어부(190)는 콘텐츠 재생 장치(100)의 전반적인 동작 및 콘텐츠 재생 장치(100)의 내부 구성들 간의 신호 흐름을 제어하고, 데이터를 처리하는 기능을 수행할 수 있다. 그리고 제어부(190)는 배터리에서 내부 구성들로의 전원 공급을 제어할 수 있다. 또한 제어부(190)는 프로그램 영역에 저장된 각종 어플리케이션을 실행할 수 있다. 특히 본 발명에서 제어부(190)는 실감형 재생을 위한 개시 이벤트가 감지되면, 상술한 실감형 재생 프로그램을 실행할 수 있다. 즉 실감형 재생 프로그램이 실행되면 제어부(190)는 사용자의 초기 위치를 결정하고 사용자의 위치 변화를 추적한다. 그리고 제어부(190)는 초기 위치를 기준으로 실제 공간과 콘텐츠 공간을 맵핑하고, 추적된 위치에 대응되는 가상 시점(virtual viewpoint)을 결정하며, 가상 시점에 대응되는 콘텐츠를 재생하도록 콘텐츠 처리부(150)를 제어한다. 또한 제어부(190)는 인터페이스부(180)를 통해 외부 기기를 제어하여, 가상 시점에 대응되는 콘텐츠를 재생하게 할 수도 있다. 이와 같은 제어부(190)의 실감형 재생 기능은 아래에서 구체적으로 설명한다.The controller 190 may control a general operation of the content reproducing apparatus 100, a signal flow between internal components of the content reproducing apparatus 100, and perform a function of processing data. The controller 190 may control power supply from the battery to the internal components. In addition, the controller 190 may execute various applications stored in the program area. In particular, in the present invention, when the start event for the realistic playback is detected, the controller 190 can execute the above-described realistic playback program. That is, when the sensory playback program is executed, the controller 190 determines the initial position of the user and tracks the change of the position of the user. The controller 190 maps a real space and a content space based on the initial position, determines a virtual viewpoint corresponding to the tracked position, and plays the content corresponding to the virtual viewpoint. To control. In addition, the controller 190 may control the external device through the interface unit 180 to play the content corresponding to the virtual view. The realistic playback function of the control unit 190 will be described in detail below.

도 2는 본 발명에 따른 3D 공간을 표현하기 위한 3차원 좌표계를 도시한 것이다. 본 발명에서 3D 공간을 표현하는 방법은 도 2에 도시한 바와 같이, 3차원 좌표계를 사용할 수 있다. 도 2에서 실선은 양의 값을 표현하는 것이며, 점선은 음의 값을 표현하는 것이다. 또한, 실제 공간에서 시간 t일 때의 사용자의 좌표는 (xu,t, yu,t, zu,t)로 표현되고, 콘텐츠 공간에서 시간 t일 때의 카메라의 좌표는 (xc,t, yc,t, zc,t)로 표현된다.2 shows a three-dimensional coordinate system for representing a 3D space according to the present invention. In the present invention, a method of representing 3D space may use a 3D coordinate system, as shown in FIG. 2. In FIG. 2, the solid line represents a positive value, and the dotted line represents a negative value. Also, the coordinates of the user at time t in the real space are represented by (x u, t , y u, t , z u, t ), and the coordinates of the camera at time t in the content space are (x c, t , y c, t , z c, t ).

도 3a, 도 3b 및 도3c는 각각, 본 발명에 따른 실제 공간을 설명하기 위한 사시도, 상면도 및 측면도이다. 도 3a를 참조하면, 실제 공간에서 표시부의 화면(301)의 중앙점(302)이 좌표계의 (0,0,0)으로 설정된다. 사용자(303)가 화면(301)을 바라보는 방향을 기준으로, 중앙점(302)에서 오른쪽 방향이 Xu축의 양의 방향이 되고 왼쪽 방향이 Xu축의 음의 방향이 된다. 중앙점(302)에서 위쪽 방향이 Yu축의 양의 방향이 되고 아래쪽 방향이 Yu축의 음의 방향이 된다. 또한, 화면(301)에서 사용자(303) 쪽으로의 방향이 Zu축의 양의 방향이 되고 그 반대가 Zu축의 음의 방향이 된다. 사용자의 위치는 (xu, yu, zu)로 나타낼 수 있다. 도 3b 및 3c를 참조하면, 화면(301)의 가로 길이는 DSW(Display Screen Width), 화면(301)의 세로 길이는 DSH(Display Screen Height), 화면(301)와 사용자(303)의 직선 거리는 WD(Watching Distance)로 나타낼 수 있다.3A, 3B and 3C are a perspective view, a top view and a side view for explaining the actual space according to the present invention, respectively. Referring to FIG. 3A, the center point 302 of the screen 301 of the display unit in the real space is set to (0,0,0) of the coordinate system. Based on the direction in which the user 303 faces the screen 301, the right direction becomes the positive direction of the X u axis and the left direction becomes the negative direction of the X u axis from the center point 302. At the center point 302, the upward direction becomes the positive direction of the Y u axis and the downward direction becomes the negative direction of the Y u axis. Further, the direction toward the user 303 in the display 301 is a positive direction of the Z axis u, the opposite is the negative direction of the Z axis u. The user's location can be represented by (x u , y u , z u ). 3B and 3C, the horizontal length of the screen 301 is DSW (Display Screen Width), the vertical length of the screen 301 is DSH (Display Screen Height), and the straight line distance between the screen 301 and the user 303 is It can be represented as WD (Watching Distance).

도 4a 및 도 4b는 각각, 본 발명에 따른 콘텐츠 공간을 설명하기 위한 사시도 및 상면도이다. 먼저 본 발명에서 가상 카메라는 실제 카메라는 아니며, 실제 공간상의 사용자에 대응되는 콘텐츠 공간상의 사용자로 정의된다. 도 4a를 참조하면, 콘텐츠 공간에서 초점면(401)의 초점(402)이 좌표계의 (0,0,0)으로 설정된다. 가상 카메라(403)가 초점면(401)을 바라보는 방향을 기준으로, 초점(402)에서 오른쪽 방향이 Xc축의 양의 방향이 되고 왼쪽 방향이 Xc축의 음의 방향이 된다. 초점(402)에서 위쪽 방향이 Yc축의 양의 방향이 되고 아래쪽 방향이 Yc축의 음의 방향이 된다. 또한, 초점면(401)에서 가상 카메라(403) 쪽으로의 방향이 Zc축의 양의 방향이 되고 그 반대가 Zc축의 음의 방향이 된다. 가상 카메라(403)의 위치는 (xc, yc, zc)로 나타낼 수 있다. 초점면(401)의 가로 길이는 FW(Focal Width), 초점면(401)의 세로 길이는 FH(Focal Height) 그리고 초점면(401)과 가상 카메라(403)의 직선 거리는 FL(Focal Length)로 나타낼 수 있다. 여기서, FL은 사용자에 의해 자유롭게 설정될 수 있다. 초점면(401)의 크기도 카메라 앵글을 조절함으로써 자유롭게 설정될 수 있다. 즉, 가상 카메라(403)는 가상이므로 초점 거리와 카메라 앵글을 자유롭게 설정할 수 있다.4A and 4B are respectively a perspective view and a top view for explaining a content space according to the present invention. First, in the present invention, the virtual camera is not a real camera but is defined as a user in a content space corresponding to a user in a real space. Referring to FIG. 4A, the focal point 402 of the focal plane 401 is set to (0,0,0) of the coordinate system in the content space. Based on the direction in which the virtual camera 403 faces the focal plane 401, the right direction in the focus 402 becomes the positive direction of the X c axis and the left direction becomes the negative direction of the X c axis. At the focal point 402 the upward direction becomes the positive direction of the Y c axis and the downward direction becomes the negative direction of the Y c axis. In addition, the direction from the focal plane 401 toward the virtual camera 403 becomes a positive direction of the Z c axis and vice versa to a negative direction of the Z c axis. The position of the virtual camera 403 may be represented by (x c , y c , z c ). The horizontal length of the focal plane 401 is the focal width (FW), the vertical length of the focal plane 401 is the focal height (FH), and the linear distance between the focal plane 401 and the virtual camera 403 is the focal length (FL). Can be represented. Here, the FL may be freely set by the user. The size of the focal plane 401 can also be freely set by adjusting the camera angle. That is, since the virtual camera 403 is virtual, the focal length and the camera angle can be freely set.

도 5는 본 발명의 일 실시예에 따른 실감형 재생부의 블록 구성도이다. 이러한 실감형 재생부는 제어부(190)의 내부에 구성될 수도 있고 별도로 구성될 수도 있다. 이하에서는 제어부(190) 내부에 구성되는 것으로 가정하여 설명한다. 도 5를 참조하면, 본 발명에 따른 실감형 재생부(500) 즉, 제어부(190)는 추적부(510), 초기화부(520), 공간 맵핑부(530), 가상 시점 결정부(540) 및 콘텐츠 처리 제어부(550)를 포함하여 이루어질 수 있다.5 is a block diagram of a sensory playback unit according to an embodiment of the present invention. The sensory playback unit may be configured inside the controller 190 or may be configured separately. Hereinafter, it is assumed that the control unit 190 is configured inside. Referring to FIG. 5, the sensory playback unit 500 according to the present invention, that is, the control unit 190 may include a tracking unit 510, an initialization unit 520, a spatial mapping unit 530, and a virtual viewpoint determination unit 540. And the content processing control unit 550.

추적부(510)는 사용자(303)의 위치를 추적한다. 즉, 추적부(510)는 센서부(130)로부터 수신된 데이터를 이용하여 사용자(303)의 좌표(xu, yu, zu)를 추적한다. 구체적으로, 추적부(510)는 수신된 감지 정보에서 사용자(303)의 특징 정보 예를 들면, 얼굴을 검출하고, 검출된 얼굴의 중심점을 사용자(303)의 좌표(xu, yu, zu)로 결정한다. 여기서, zu 즉, WD는 검출된 얼굴의 크기 등의 값을 이용하여 산출될 수 있다.The tracking unit 510 tracks the location of the user 303. That is, the tracking unit 510 tracks the coordinates (x u , y u , z u ) of the user 303 using the data received from the sensor unit 130. Specifically, the tracking unit 510 detects feature information of the user 303, for example, a face from the received detection information, and uses the center point of the detected face as coordinates (x u , y u , z) of the user 303. u ) Here, z u, that is, WD may be calculated using a value such as the size of the detected face.

초기화부(520)는 실제 공간과 콘텐츠 공간을 맵핑하기 위한 기준값이 되는 사용자(303)의 초기 위치를 결정한다. 즉, 초기화부(520)는 실감형 재생을 위한 개시 이벤트가 감지되면, 추적부(510)로부터 입력된 좌표를 사용자의 초기 위치로 결정한다. 구체적으로, 초기화부(520)는 콘텐츠에 대한 시청이 시작된 후 일정 시간 동안 사용자(303)의 위치가 미리 설정된 오차 범위 내에서 변함없으면, 그 위치를 초기 위치로 결정할 수 있다. 또한, 초기화부(520)는 리모컨(120)으로부터 특정 킷값이 입력되면, 입력된 그 시점에 사용자가 위치한 곳을 초기 위치로 결정할 수 있다. 또한, 초기화부(520)는 추적부(510)로부터 개시 이벤트가 입력되면, 입력된 그 시점에 사용자가 위치한 곳을 초기 위치로 결정할 수 있다. 이를 위해, 추적부(510)는 템플릿 매칭(template matching) 기법 등을 이용하여 사용자의 특정 제스처 예를 들면, 손을 들었다 놓는 행위를 검출할 수 있다. 추적부(510)는 이러한 특정 제스처가 검출되면, 초기화부(520)에 이를 알린다.The initialization unit 520 determines the initial position of the user 303 which is a reference value for mapping the real space and the content space. That is, the initialization unit 520 determines the coordinates input from the tracking unit 510 as the initial position of the user when a start event for immersive reproduction is detected. In detail, the initialization unit 520 may determine the location as the initial location if the location of the user 303 does not change within a preset error range for a predetermined time after viewing of the content starts. In addition, when a specific kit value is input from the remote controller 120, the initialization unit 520 may determine a position where the user is located at the input time as the initial position. In addition, when the start event is input from the tracking unit 510, the initialization unit 520 may determine a position where the user is located at the input time as the initial position. To this end, the tracking unit 510 may detect a specific gesture of the user, for example, raising and releasing a hand, by using a template matching technique. The tracking unit 510 notifies the initialization unit 520 when such a specific gesture is detected.

도 6은 본 발명의 일 실시예에 따른 공간 맵핑 방법을 설명하기 위한 도면이다. 수학식 1은 본 발명의 일 실시예에 따른 공간 맵핑 방법에 있어서, 실제 공간 좌표계와 콘텐츠 공간 좌표계의 상대적인 비율을 나타낸 것이다. 아래 수학식 1에서 t0은 초기화부(520)에 의해 초기 위치로 결정된 시점을 의미한다. 6 is a view for explaining a spatial mapping method according to an embodiment of the present invention. Equation 1 shows a relative ratio of an actual space coordinate system and a content space coordinate system in the spatial mapping method according to an embodiment of the present invention. In Equation 1 below, t 0 means a time point determined as an initial position by the initialization unit 520.

Figure pat00001
Figure pat00001

공간 맵핑부(530)는 도 6에 도시한 바와 같이, 사용자(601)의 초기 위치를 기준으로, 실제 공간(602)과 콘텐츠 공간(603)을 맵핑한다. 즉, 공간 맵핑부(530)은 FW, FH 및 FL을 결정한 다음, 위 수학식 1에 나타낸 바와 같이, X_Ratio, Y_Ratio 및 Z_Ratio(at t0)을 산출한다.As illustrated in FIG. 6, the space mapping unit 530 maps the real space 602 and the content space 603 based on the initial position of the user 601. That is, the spatial mapping unit 530 determines FW, FH, and FL, and then calculates X_Ratio, Y_Ratio, and Z_Ratio (at t 0 ) as shown in Equation 1 above.

도 7은 본 발명의 다른 실시예에 따른 공간 맵핑 방법을 설명하기 위한 도면이다. 수학식 2는 본 발명의 다른 실시예에 따른 공간 맵핑 방법에 있어서, 실제 공간 좌표계와 콘텐츠 공간 좌표계의 상대적인 비율을 나타낸 것이다.7 is a view for explaining a spatial mapping method according to another embodiment of the present invention. Equation 2 shows a relative ratio of an actual space coordinate system and a content space coordinate system in the spatial mapping method according to another embodiment of the present invention.

Figure pat00002
Figure pat00002

DSW, DSH 및 WD는 표시부의 크기와 실제 공간에 기인한 값들이다. 공간 맵핑부(530)는 수학식 2에 나타낸 바와 같이, 이러한 값들에 일정 조정값(Adjustment)을 더하거나 뺌으로써, 콘텐츠 공간에 맵핑되는 실제 공간을 확장하거나 축소할 수 있다. 다시 말해, 공간 맵핑부(530)는 이러한 조정값을 이용하여, 표시되는 콘텐츠의 크기를 조절할 수 있다. 공간 맵핑부(530)는 이러한 조정값을 어느 때든 즉, 실감형 재생의 개시 전이나 개시 중에 리모컨 수신부(125)를 통해 리모컨(120)으로부터 입력받을 수 있다.DSW, DSH and WD are values due to the size of the display and the actual space. As shown in Equation 2, the spatial mapping unit 530 may expand or reduce the actual space mapped to the content space by adding or subtracting a certain adjustment value to these values. In other words, the spatial mapping unit 530 may adjust the size of the displayed content by using the adjustment value. The spatial mapping unit 530 may receive such an adjustment value at any time, that is, from the remote controller 120 through the remote controller receiver 125 before or during the start of the realistic playback.

도 8은 본 발명의 일 실시예에 따른 가상 시점 결정 방법을 설명하기 위한 도면이다. 수학식 3은 이러한 가상 시점 결정 방법의 계산 공식이다.8 is a diagram for describing a virtual view determination method according to an embodiment of the present invention. Equation 3 is a calculation formula of this virtual viewpoint determination method.

Figure pat00003
Figure pat00003

도 8을 참조하면, 가상 시점 결정부(540)는 추적부(510)로부터 사용자(801)의 좌표(xu ,t+1, yu ,t+1, zu ,t+1)를 수신하고, 공간 맵핑부(530)로부터 좌표 변환값 즉, X_Ratio, Y_Ratio 및 Z_Ratio을 수신한다. 가상 시점 결정부(540)는 수학식 3에 나타낸 바와 같이, 이렇게 수신된 정보를 이용하여, 사용자(801)의 좌표에 맵핑되는 가상 카메라(702)의 좌표(xc,t+1, yc,t+1, zc,t+1)를 산출한다. 사용자의 위치는 가만히 서 있어도 미묘하게 움직이게 되고 또한, 센서 및 인식의 오류로 인해서 어느 정도 위치 변동이 생길 수 있다. 따라서, 이러한 위치 변동을 모두 고려하여, 표시되는 콘텐츠를 변형하게 되면, 사용자가 불편함을 느낄 수 있다. 본 발명에서는 카메라의 위치를 이동시키기 위한 최소 위치 변화량(MTT; Minimum Transition Threshold)이 미리 설정될 수 있다. 이러한 최소 위치 변화량은 사용자가 직접 설정 가능한 옵션(option) 사항일 수 있다. 가상 시점 결정부(540)는 사용자(801)의 위치 변화량 즉, △xu, △yu 또는 △zu 이 최소 위치 변화량(MTT)보다 큰 경우에, 가상 카메라(802)의 좌표를 산출할 수 있다. 여기서, 최소 위치 변화량은 X, Y, Z 축별로 다르게 설정될 수 있다. 예컨대, Z축에 대한 최소 위치 변화량을 가장 크게 설정할 수 있다. 예를 들어, 사용자가 앉아서 시청하다가 일어나는 경우에만, 가상 카메라(802)의 좌표를 산출할 수 있다.Referring to FIG. 8, the virtual view determiner 540 receives the coordinates (x u , t + 1, y u , t + 1, z u , t + 1 ) of the user 801 from the tracker 510. The coordinate conversion values, i.e., X_Ratio, Y_Ratio, and Z_Ratio are received from the spatial mapping unit 530. As shown in Equation 3, the virtual viewpoint determiner 540 uses the received information, and coordinates (x c, t + 1, y c ) of the virtual camera 702 mapped to the coordinates of the user 801. , t + 1, z c, t + 1 ). The position of the user may be subtly moved even when standing still, and a positional change may occur to some extent due to an error in the sensor and the recognition. Therefore, in consideration of all such position variations, if the displayed content is modified, the user may feel uncomfortable. In the present invention, a minimum position threshold (MTT) for moving the position of the camera may be preset. The minimum position change amount may be an option item that can be set directly by the user. If the virtual viewpoint determining unit 540 is position change amount of the user 801, i.e., △ x u, △ y u or △ z u is greater than the minimum position change amount (MTT), to calculate the coordinate of the virtual camera 802 Can be. Here, the minimum position change amount may be set differently for each of the X, Y, and Z axes. For example, the minimum change amount of position with respect to the Z axis can be set to the largest. For example, the coordinates of the virtual camera 802 may be calculated only when the user wakes up while sitting and watching.

도 9는 본 발명의 일 실시예에 따른 가상 카메라의 앵글 조절 방법을 설명하기 위한 도면이다. 도 9를 참조하면, 가상 시점 결정부(540)는 화면의 중심점(901)을 축으로 사용자(902)의 각도 변화량(θ(θX, θY, θZ))을 계산한다. 즉, 가상 시점 결정부(540)는 사용자(902)의 초기 위치를 기준으로 위치 변화량 △xu,0(=xu,t - xu,0), △yu,0(=yu,t - yu,0), △zu,0(=zu,t - zu,0)을 계산하고, 이렇게 계산된 위치 변화량들을 각각 삼각 함수에 적용하여 각도 변화량을 계산한다. 즉, 계산된 각도 변화량(θ)은 가상 카메라(903)의 각도 조절값으로 이용될 수 있다. 이러한 각도 변화량의 계산은 사용자가 직접 설정 가능한 옵션(option) 사항일 수 있다. 9 is a view for explaining the angle adjustment method of the virtual camera according to an embodiment of the present invention. Referring to FIG. 9, the virtual view determiner 540 calculates an angle change amount θ (θ X , θ Y , θ Z ) of the user 902 based on the center point 901 of the screen. That is, the virtual viewpoint determiner 540 may determine the position change amount Δx u, 0 (= x u, t -x u, 0 ), Δy u, 0 (= y u, based on the initial position of the user 902 . t -y u, 0 ) and Δz u, 0 (= z u, t -z u, 0 ) are calculated, and the angle change is calculated by applying the calculated position change to the trigonometric function. That is, the calculated angle change amount θ may be used as an angle adjustment value of the virtual camera 903. The calculation of the angle change amount may be an option item that can be set directly by the user.

도 10은 본 발명의 일 실시예에 따른 입체 영상 조절 방법을 설명하기 위한 도면이다. 10 is a view for explaining a stereoscopic image adjusting method according to an embodiment of the present invention.

콘텐츠 처리 제어부(550)는 가상 시점 결정부(540)로부터 가상 시점 즉, 가상 카메라의 좌표(xc,t+1, yc,t+1, zc,t+1)를 수신한다. 또한, 콘텐츠 처리 제어부(550)는 가상 시점 결정부(540)로부터 가상 시점의 각도 조절값 즉, 가상 카메라의 앵글 조절값(θ)을 수신할 수 있다. 또한, 콘텐츠 처리 제어부(550)는 수신된 정보를 기반으로 콘텐츠 처리부(150)를 제어하여 입체 영상의 명암, 입체감, 깊이감 등을 조절하게 한다. 도 10를 참조하면, 사용자의 초기 위치(1001)가 결정되면, 콘텐츠 처리 제어부(550)는 가상 카메라가 초기 위치(902)에서 바라 본 오브젝트를 표시하도록 제어한다. 사용자가 1001 -> 1003 -> 1005로 위치 이동하게 되면, 실제 공간에 맵핑되어 있는 콘텐츠 공간상에서의 가상 카메라는 1002 -> 1004 -> 1006으로 위치 이동하게 된다. 따라서, 오브젝트는 가상 카메라의 위치 변동에 따라 다른 부위가 표시된다. 사용자가 1005에서 1007로 이동하게 되면, 카메라는 1007에서 1008로 이동하게 된다. 카메라가 1008에 위치할 때, 오브젝트는 가상 카메라의 앵글에서 벗어나므로 더 이상 표시되지 않게 된다. 단, 콘텐츠 처리 제어부(550)는 수신된 각도 조절값(θ) 만큼 카메라를 오브젝트(1009) 쪽으로 회전시켜 오브젝트(1009)가 계속적으로 표시되게 할 수 있다.The content processing controller 550 receives a virtual viewpoint, ie, coordinates (x c, t + 1, y c, t + 1, z c, t + 1 ) of the virtual camera, from the virtual viewpoint determiner 540. In addition, the content processing controller 550 may receive an angle adjustment value of the virtual viewpoint, that is, an angle adjustment value θ of the virtual camera, from the virtual viewpoint determination unit 540. In addition, the content processing controller 550 controls the content processor 150 based on the received information to adjust the contrast, the stereoscopic sense, the depth of the stereoscopic image. Referring to FIG. 10, when the initial position 1001 of the user is determined, the content processing controller 550 controls the virtual camera to display an object viewed from the initial position 902. When the user moves from 1001->1003-> 1005, the virtual camera in the content space mapped to the real space is moved from 1002->1004-> 1006. Therefore, the object is displayed different parts according to the positional change of the virtual camera. When the user moves from 1005 to 1007, the camera moves from 1007 to 1008. When the camera is located at 1008, the object is no longer visible because it is outside the angle of the virtual camera. However, the content processing controller 550 may rotate the camera toward the object 1009 by the received angle adjustment value θ so that the object 1009 is continuously displayed.

도 11은 본 발명의 일 실시예에 따른 입체 음향 조절 방법을 설명하기 위한 도면이다.11 is a view for explaining a stereo sound control method according to an embodiment of the present invention.

콘텐츠 처리 제어부(550)는 수신된 정보를 기반으로 콘텐츠 처리부(150)를 제어하여 입체 음향의 방향감이나 거리감 등을 조절하도록 제어할 수 있다. 도 11을 참조하면, 콘텐츠 처리 제어부(550)는 사용자가 1101에 위치할 때는, 자동차(1103)가 점점 다가오는 느낌이 들도록 자동차 소리를 점점 크게 하는 식으로 거리감을 조절할 수 있다. 또한, 콘텐츠 처리 제어부(550)는 사용자가 1102에 위치할 때는, 자동차(1103)가 점점 멀어지는 느낌이 들도록 자동차 소리를 점점 작게 할 수 있다. 또한, 콘텐츠 처리 제어부(550)는 사용자가 1101에 위치할 때는, 자동차 소리가 앞쪽 스피커(Front Speak and Centre Speaker)에서 나도록 하고 반면, 사용자가 1102에 위치할 때는, 자동차 소리가 뒤쪽 스피커(Rear Speak)에서 나도록 하여 입체 음향의 방향감을 조절하게 할 수 있다.The content processing control unit 550 may control the content processing unit 150 to adjust the direction or distance of the stereo sound based on the received information. Referring to FIG. 11, when the user is located at 1101, the content processing control unit 550 may adjust the sense of distance by gradually increasing the sound of the car so that the car 1103 may gradually feel oncoming. In addition, when the user is located at 1102, the content processing control unit 550 may gradually reduce the car sound so that the car 1103 feels gradually away. In addition, the content processing control unit 550 allows the car sound to come from the front speaker when the user is located at 1101, while the car sound is the rear speaker when the user is located at 1102. ), You can control the direction of the stereo sound.

한편 본 발명에 따른 콘텐츠 재생 장치(100)는 그 제공 형태에 따라 카메라, 마이크 및 GPS 수신 모듈 등과 같이 상기에서 언급되지 않은 구성들을 더 포함할 수 있다. 이러한 구성 요소들은 디지털 기기의 컨버전스(convergence) 추세에 따라 변형이 매우 다양하여 모두 열거할 수는 없으나, 상기 언급된 구성 요소들과 동등한 수준의 구성 요소가 콘텐츠 재생 장치(100)에 추가로 더 포함되어 구성될 수 있다. 또한 본 발명의 콘텐츠 재생 장치(100)는 그 제공 형태에 따라 상기한 구성에서 특정 구성들이 제외되거나 다른 구성으로 대체될 수도 있음은 물론이다. 이는 본 기술 분야의 통상의 지식을 가진 자에겐 쉽게 이해될 수 있을 것이다.Meanwhile, the content reproducing apparatus 100 according to the present invention may further include components not mentioned above, such as a camera, a microphone, and a GPS receiving module, depending on the form of the provision. These components may not be enumerated because all of them vary according to the convergence trend of digital devices, but the components equivalent to those mentioned above are further included in the content reproducing apparatus 100. Can be configured. In addition, the content reproducing apparatus 100 of the present invention may be excluded from the above configuration or replaced by another configuration, depending on the form of the present invention. Which will be readily apparent to those skilled in the art.

도 12는 본 발명의 일 실시예에 따른 홈 네트워크 시스템의 네트워크 구성도이다. 도 12를 참조하면, 본 발명에 따른 홈 네트워크 시스템은 콘텐츠 재생 장치(1200), 홈 네트워크 서버(1210) 및 다수의 홈 네트워크 장치를 포함하여 이루어질 수 있다. 콘텐츠 재생 장치(1200)는 상기에서 언급한 구성들을 포함하여 이루어질 수 있다. 그리고 콘텐츠 재생 장치(1200)는 지그비(ZigBee), 블루투스(Bluetooth), 무선랜(Wireless LAN) 등의 통신 방식으로 홈 네트워크 서버(1210)와 통신할 수 있다. 콘텐츠 재생 장치(1200)는 실감형 재생을 위한 개시 이벤트를 감지하면, 실감형 재생 프로그램을 실행한다. 즉 콘텐츠 재생 장치(1200)는 사용자의 위치에 대응하여 콘텐츠를 재생하도록 홈 네트워크 장치를 제어할 수 있다. 홈 네트워크 서버(1210)는 홈 네트워크 장치들을 제어한다. 또한 홈 네트워크 서버(1210)는 콘텐츠 재생 장치(1200)의 제어 하에, 홈 네트워크 장치들을 구동할 수 있다. 홈 네트워크 장치들은 각각 고유의 주소를 가지며 이를 통해 홈 네트워크 서버(1210)에 의해 제어된다. 홈 네트워크 장치들은 콘텐츠 재생 장치(1200)의 제어 하에, 사용자의 감각을 자극하는 콘텐츠를 재생한다. 예컨대 홈 네트워크 장치들은 도시된 바와 같이, 에어컨(1220), 가습기(1230), 난방기(1240) 및 전등(1250) 등을 포함하여 이루어질 수 있다. 콘텐츠 재생 장치(1200)는 사용자의 위치 변화에 따라 에어컨(1220), 가습기(1230), 난방기(1240) 및 전등(1250) 등을 제어하여 바람의 세기, 외부의 밝기, 온도, 습도 등을 조절할 수 있다. 예컨대 도 11을 참조하면, 콘텐츠 재생 장치(1200)는 사용자가 1102에 위치할 때는, 달리는 자동차(1103)에 가까이 있는 느낌이 들도록 에어컨(1220)을 제어하여 바람의 세기를 강하게 할 수 있다. 즉 사용자는 촉각적으로 자극을 받게 되어 실제 콘텐츠 공간상에 들어와 있는 느낌을 받을 수 있다.12 is a network diagram of a home network system according to an embodiment of the present invention. Referring to FIG. 12, a home network system according to the present invention may include a content playback device 1200, a home network server 1210, and a plurality of home network devices. The content reproducing apparatus 1200 may include the above-mentioned components. In addition, the content reproducing apparatus 1200 may communicate with the home network server 1210 through a communication method such as ZigBee, Bluetooth, or Wireless LAN. When the content reproducing apparatus 1200 detects a start event for immersive reproduction, the content reproducing apparatus 1200 executes an immersive reproduction program. In other words, the content reproducing apparatus 1200 may control the home network apparatus to reproduce the content corresponding to the location of the user. The home network server 1210 controls home network devices. In addition, the home network server 1210 may drive home network devices under the control of the content playback device 1200. Each home network device has a unique address and is controlled by the home network server 1210 through this. Under the control of the content reproducing apparatus 1200, home network devices play content that stimulates a user's senses. For example, the home network devices may include an air conditioner 1220, a humidifier 1230, a heater 1240, a lamp 1250, and the like, as shown. The content reproducing apparatus 1200 controls the air conditioner 1220, the humidifier 1230, the heater 1240, the lamp 1250, and the like according to the user's position change to adjust the wind intensity, external brightness, temperature, humidity, and the like. Can be. For example, referring to FIG. 11, when the user is located at 1102, the content reproducing apparatus 1200 may control the air conditioner 1220 to increase the wind strength so that the user feels close to the running car 1103. In other words, the user is tactilely stimulated to feel as if he is in a real content space.

도 13은 본 발명의 일 실시예에 따른 콘텐츠 재생 방법을 설명하기 위한 흐름도이다. 도 1 내지 도 13을 참조하면, 먼저 제어부(190)는 대기 상태일 수 있다. 여기서 대기 상태는 실감형 재생 단계 전에 영상을 표시하는 상태로 정의할 수 있다. 이러한 대기 상태에서 사용자가 리모컨(120)을 조작하여 개시 이벤트를 발생시키면 제어부(190)는 실감형 재생을 위한 개시 이벤트를 감지한다. 이렇게 개시 이벤트가 감지되면 단계 1301에서 초기화부(520)는 추적부(510)로부터 입력된 좌표를 사용자의 초기 위치로 결정한다. 여기서 추적부(510)는 실감형 재생 단계 전에도 사용자의 위치를 추적할 수 있다. 13 is a flowchart illustrating a content playback method according to an embodiment of the present invention. 1 to 13, first, the controller 190 may be in a standby state. In this case, the standby state may be defined as a state in which an image is displayed before the realistic playback step. When the user generates a start event by operating the remote controller 120 in this standby state, the controller 190 detects a start event for immersive playback. When the start event is detected as described above, the initialization unit 520 determines the coordinates input from the tracking unit 510 as the initial position of the user in step 1301. Here, the tracking unit 510 may track the location of the user even before the realistic playback step.

단계 1302에서 공간 맵핑부(530)는 결정된 초기 위치를 기준으로, 실제 공간과 콘텐츠 공간을 맵핑한다. 단계 1303에서 가상 시점 결정부(540)는 사용자의 위치 변화량(△xu, △yu, △zu)을 산출한다. 다음으로, 단계 1304에서 가상 시점 결정부(540)는 계산된 사용자의 위치 변화량과 최소 위치 변화량(MTT)을 비교한다. 단계 1304에서의 비교 결과 계산된 사용자의 위치 변화량이 최소 위치 변화량보다 큰 경우에는 단계 1305로 진행한다. 단계 1305에서 가상 시점 결정부(540)는 상기한 수학식 3을 이용하여, 가상 카메라의 위치(xc,t+1, yc,t+1, zc,t+1) 즉, 가상 시점(virtual viewpoint)을 결정한 다음 이것을 콘텐츠 처리 제어부(550)로 전달한다.In operation 1302, the space mapping unit 530 maps an actual space and a content space based on the determined initial position. In operation 1303, the virtual viewpoint determiner 540 calculates a user's position change amount Δx u , Δy u, and Δz u . Next, in operation 1304, the virtual view point determiner 540 compares the calculated position change amount of the user with the minimum position change amount MTT. In the case where the comparison of the user's position change amount with the calculated position change amount is greater than the minimum position change amount, the process proceeds to step 1305. In operation 1305, the virtual view determiner 540 uses the above Equation 3 to determine the position of the virtual camera (x c, t + 1, y c, t + 1, z c, t + 1 ), that is, the virtual view. The virtual viewpoint is determined and then transferred to the content processing control unit 550.

단계 1306에서 콘텐츠 처리 제어부(550)는 수신된 가상 시점을 기반으로 콘텐츠 처리부(150)를 제어한다. 즉, 콘텐츠 처리 제어부(550)는 콘텐츠 처리부(150)를 제어하여, 수신된 가상 시점에 대응되는 콘텐츠를 재생하게 한다. 또한, 단계 1306에서 콘텐츠 처리 제어부(550)는 수신된 가상 시점을 기반으로 콘텐츠 처리부(150)를 제어하여 입체 음향의 방향감이나 거리감 등을 조절할 수 있다. 또한 콘텐츠 처리 제어부(550)는 수신된 가상 시점을 기반으로 외부 기기 즉, 홈 네트워크 장치들을 제어하여, 바람의 세기, 온도, 습도 또는 밝기 등을 조절할 수 있다. In operation 1306, the content processing controller 550 controls the content processor 150 based on the received virtual view. That is, the content processing control unit 550 controls the content processing unit 150 to play the content corresponding to the received virtual viewpoint. In addition, in operation 1306, the content processing controller 550 may control the content processor 150 based on the received virtual viewpoint to adjust a sense of direction or distance of stereoscopic sound. In addition, the content processing controller 550 may control an external device, that is, a home network device, on the basis of the received virtual viewpoint to adjust wind strength, temperature, humidity, or brightness.

다음으로, 단계 1307에서 콘텐츠 처리 제어부(550)는 실감형 재생의 종료 이벤트가 감지되는지 여부를 판단한다. 단계 1307에서의 판단 결과 종료 이벤트가 감지되면, 실감형 재생을 위한 프로세스는 종료된다. 반면, 종료 이벤트가 감지되지 않으면, 프로세스는 단계 1303으로 복귀된다.Next, in step 1307, the content processing control unit 550 determines whether an end event of the realistic playback is detected. If the end event is detected as a result of the determination in step 1307, the process for immersive reproduction is terminated. On the other hand, if no end event is detected, the process returns to step 1303.

도 14는 본 발명의 다른 실시예에 따른 콘텐츠 재생 방법을 설명하기 위한 흐름도이다. 도 14를 참조하면, 본 발명의 다른 실시예에 따른 콘텐츠 재생 방법은 크게 단계 1401 내지 단계 1407을 포함하여 이루어진다. 단계 1401, 1402, 1404, 1405 및 1407은 각각, 상기 설명한 단계 1301, 1302, 1304, 1305 및 1307에 대응되므로 설명을 생략한다. 단계 1403은, 가상 시점 결정부(540)가 사용자의 위치 변화량(△xu, △yu, △zu)과 함께 각도 변화량(θ; 도 9 참조)을 계산하는 단계이다. 단계 1406은 콘텐츠 처리 제어부(550)가 수신된 가상 시점에 대응되는 콘텐츠를 재생하게 하되, 계산된 각도 변화량(θ)만큼 가상 시점의 방향을 회전시키고, 회전된 가상 시점에 대응되는 콘텐츠를 재생하도록 하는 단계이다.14 is a flowchart illustrating a content playback method according to another embodiment of the present invention. Referring to FIG. 14, a content reproduction method according to another embodiment of the present invention includes steps 1401 to 1407. Steps 1401, 1402, 1404, 1405, and 1407 correspond to steps 1301, 1302, 1304, 1305, and 1307 described above, respectively, and thus description thereof is omitted. In operation 1403, the virtual viewpoint determiner 540 calculates the angle change amount θ (see FIG. 9) together with the position change amount Δx u , Δy u, Δz u of the user. In step 1406, the content processing control unit 550 plays the content corresponding to the received virtual view, rotates the direction of the virtual view by the calculated angle change amount θ, and plays the content corresponding to the rotated virtual view. It's a step.

상술한 바와 같은 본 발명에 따른 콘텐츠 재생 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터로 판독 가능한 기록 매체에 기록될 수 있다. 이때, 상기 컴퓨터로 판독 가능한 기록매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 한편, 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 상기 컴퓨터로 판독 가능한 기록매체에는 하드디스크, 플로피디스크 및 자기 테이프와 같은 자기매체(Magnetic Media), CD-ROM, DVD와 같은 광기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있다.The content reproduction method according to the present invention as described above is implemented in the form of program instructions that can be executed by various computer means can be recorded on a computer-readable recording medium. In this case, the computer-readable recording medium may include a program command, a data file, a data structure, etc. alone or in combination. On the other hand, the program instructions recorded on the recording medium may be those specially designed and configured for the present invention or may be available to those skilled in the art of computer software. The computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs, DVDs, and magnetic disks such as floppy disks. -Magneto-Optical Media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. In addition, program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the present invention.

본 발명의 콘텐츠 재생 방법 및 장치는 전술한 실시 예에 국한되지 않고 본 발명의 기술 사상이 허용하는 범위에서 다양하게 변형하여 실시할 수가 있다.The content reproducing method and apparatus of the present invention are not limited to the above-described embodiments, and various modifications can be made within the scope of the technical idea of the present invention.

100: 콘텐츠 재생 장치
110: 입력부 120: 리모컨
125: 리모컨 수신부 130: 센서부
140: 콘텐츠 수집부 141: 방송 수신부
142: 인터넷 통신부 150: 콘텐츠 처리부
151: 음향 처리부 152: 영상 처리부
160: 음향 출력부 170: 영상 표시부
180: 저장부 190: 인터페이스부
195: 제어부
500: 실감형 재생부
510: 추적부 520: 초기화부
530: 공간 맵핑부 540: 가상 시점 결정부
550: 콘텐츠 처리 제어부
1200: 콘텐츠 재생 장치 1210: 홈 네트워크 서버
1220: 에어컨 1230: 가습기
1240: 난방기 1250: 전등
100: content playback device
110: input unit 120: remote control
125: remote control receiver 130: sensor
140: content collector 141: broadcast receiver
142: Internet communication unit 150: Content processing unit
151: sound processor 152: image processor
160: sound output unit 170: image display unit
180: storage unit 190: interface unit
195: control unit
500: realistic playback unit
510: tracking unit 520: initialization unit
530: spatial mapping unit 540: virtual viewpoint determination unit
550: content processing control unit
1200: content playback device 1210: home network server
1220: air conditioner 1230: humidifier
1240: radiator 1250: light fixture

Claims (27)

사용자의 제 1 위치를 결정하는 단계;
상기 결정된 제 1 위치를 기준으로 상기 사용자가 존재하는 실제공간과 표시부를 통해 표시되는 콘텐츠 공간을 맵핑하는 단계;
상기 사용자의 제 2 위치에 대응되는 상기 콘텐츠 공간상에서의 가상 시점(virtual viewpoint)을 결정하는 단계; 및
상기 결정된 가상 시점에 대응되는 콘텐츠를 재생하는 단계를 포함하는 콘텐츠 재생 방법.
Determining a first location of the user;
Mapping a real space in which the user exists and a content space displayed through the display unit based on the determined first position;
Determining a virtual viewpoint in the content space corresponding to the second location of the user; And
Playing the content corresponding to the determined virtual view.
제 1 항에 있어서,
상기 콘텐츠를 재생하는 단계는,
상기 결정된 가상 시점을 기준으로 영상을 표시하는 단계를 포함하는 것을 특징으로 하는 콘텐츠 재생 방법.
The method of claim 1,
Playing the content,
And displaying an image based on the determined virtual viewpoint.
제 2 항에 있어서,
상기 표시하는 단계는,
상기 결정된 가상 시점을 기준으로 상기 영상의 명암, 입체감 및 깊이감 중에서 적어도 하나를 조절하여 상기 영상을 표시하는 것을 특징으로 하는 콘텐츠 재생 방법.
The method of claim 2,
The displaying step,
And displaying the image by adjusting at least one of contrast, depth, and depth of the image based on the determined virtual viewpoint.
제 1 항에 있어서,
상기 콘텐츠를 재생하는 단게는,
상기 결정된 가상 시점을 기준으로 소리를 출력하는 단계를 포함하는 것을 특징으로 하는 콘텐츠 재생 방법.
The method of claim 1,
The step of playing the content is
And outputting sound based on the determined virtual viewpoint.
제 4 항에 있어서,
상기 출력하는 단계는,
상기 결정된 가상 시점을 기준으로 상기 소리의 방향감 및 거리감 중에서 적어도 하나를 조절하여 상기 소리를 출력하는 것을 특징으로 하는 콘텐츠 재생 방법.
The method of claim 4, wherein
The outputting step,
And outputting the sound by adjusting at least one of a sense of direction and a distance of the sound based on the determined virtual viewpoint.
제 1 항에 있어서,
상기 재생되는 콘텐츠는 상기 사용자의 감각 중에서 적어도 시각 및 청각을 각각 자극하는 영상과 소리를 포함하는 것을 특징으로 하는 콘텐츠 재생 방법.
The method of claim 1,
The reproduced content includes a video and a sound stimulating at least visual and hearing, respectively, of the user's senses.
제 1 항에 있어서, 상기 결정하는 단계는,
상기 사용자의 위치 변화량을 산출하는 단계와,
상기 산출된 위치 변화량이 설정된 최소 위치 변화량보다 크면, 상기 사용자의 변화된 위치에 대응되는 상기 가상 시점을 결정하는 단계를 포함하는 것을 특징으로 하는 콘텐츠 재생 방법.
The method of claim 1, wherein the determining step,
Calculating a position change amount of the user;
And determining the virtual viewpoint corresponding to the changed position of the user when the calculated position change amount is larger than a set minimum position change amount.
제 1 항에 있어서, 상기 맵핑하는 단계는,
상기 실제 공간의 좌표계와 상기 콘텐츠 공간의 좌표계 간의 좌표 변환값을 산출하는 단계를 포함하는 것을 특징으로 하는 콘텐츠 재생 방법.
2. The method of claim 1,
Calculating a coordinate conversion value between the coordinate system of the real space and the coordinate system of the content space.
제 8 항에 있어서, 상기 결정하는 단계는,
상기 좌표 변환값을 이용하여 상기 사용자의 제 2 위치에 대응되는 상기 가상 시점을 결정하는 것을 특징을 하는 콘텐츠 재생 방법.
The method of claim 8, wherein the determining step,
And determining the virtual viewpoint corresponding to the second position of the user by using the coordinate transformation value.
제 8 항에 있어서, 상기 맵핑하는 단계는,
상기 표시부의 화면의 가로 길이(DSW), 상기 화면의 세로 길이(DSH) 및 상기 화면과 상기 사용자 간의 직선 거리(WD)를 이용하여 상기 실제 공간의 좌표계를 설정하는 단계와,
초점면의 가로 길이(FW), 상기 초점면의 세로 길이(FH) 및 상기 초점면과 상기 가상 시점의 직선 거리(FL)를 이용하여 상기 콘텐츠 공간의 좌표계를 설정하는 단계와,
상기 제 1 위치가 결정되면, 상기 제 1 위치를 이용하여 상기 좌표 변환값을 산출하는 단계를 포함하는 것을 특징으로 하는 콘텐츠 재생 방법.
The method of claim 8, wherein the mapping comprises:
Setting a coordinate system of the real space by using a horizontal length DSW of the screen of the display unit, a vertical length DSH of the screen, and a linear distance WD between the screen and the user;
Setting a coordinate system of the content space using a horizontal length FW of the focal plane, a vertical length FH of the focal plane, and a linear distance FL of the focal plane and the virtual viewpoint;
And if the first position is determined, calculating the coordinate transformation value using the first position.
제 10 항에 있어서, 상기 실제 공간의 좌표계를 설정하는 단계는,
상기 가로 길이(DSW), 상기 세로 길이(DSH) 및 상기 직선 거리(WD) 중에서 하나 이상에, 상기 실제 공간을 상기 가상의 공간에 축소 또는 확장하여 맵핑하기 위한 조정값을 더하거나 빼는 단계를 포함하는 것을 특징으로 하는 콘텐츠 재생 방법.
The method of claim 10, wherein the setting of the coordinate system of the real space,
Adding or subtracting an adjustment value for reducing or expanding the real space to the virtual space to at least one of the horizontal length DSW, the vertical length DSH, and the linear distance WD. Content playback method characterized in that.
제 1 항에 있어서,
상기 사용자의 제 1 위치를 기준으로 상기 사용자의 위치 변화량을 산출하는 단계와,
상기 산출된 위치 변화량을 삼각 함수에 적용하여 각도 변화량을 산출하는 단계와,
상기 산출된 각도 변화량만큼 상기 가상 시점의 방향을 회전하는 단계와,
상기 방향이 회전된 가상 시점에 대응되는 콘텐츠를 재생하는 단계를 더 포함하는 것을 특징으로 하는 콘텐츠 재생 방법.
The method of claim 1,
Calculating an amount of change in the position of the user based on the first position of the user;
Calculating an angle change amount by applying the calculated position change amount to a trigonometric function;
Rotating the direction of the virtual viewpoint by the calculated angle change amount;
And playing the content corresponding to the virtual viewpoint at which the direction is rotated.
제 1 항에 있어서,
상기 결정하는 단계는,
사용자의 위치를 추적하는 단계와,
상기 추적 결과 미리 정해진 시간 동안 상기 사용자의 위치가 미리 설정된 오차 범위 내에서 고정되면, 상기 고정된 위치를 상기 맵핑을 위한 제 1 위치로 결정하는 단계를 포함하는 것을 특징으로 하는 콘텐츠 재생 방법.
The method of claim 1,
Wherein the determining comprises:
Tracking your location,
And determining the fixed position as the first position for the mapping when the position of the user is fixed within a preset error range for a predetermined time as a result of the tracking.
제 1 항에 있어서,
상기 결정하는 단계는,
사용자의 위치를 추적하는 중에 실감형 재생을 위한 개시 이벤트가 감지되면 상기 추적된 위치를 상기 맵핑을 위한 제 1 위치로 결정하는 것을 특징으로 하는 콘텐츠 재생 방법.
The method of claim 1,
Wherein the determining comprises:
And when the start event for immersive playback is detected while tracking the location of the user, determining the tracked location as the first location for the mapping.
제 1 항에 있어서,
상기 결정하는 단계는,
사용자의 위치를 추적하는 중에 미리 설정된 사용자의 특정 제스처가 감지되면, 상기 추적된 위치를 상기 맵핑을 위한 제 1 위치로 결정하는 것을 특징으로 하는 콘텐츠 재생 방법.
The method of claim 1,
Wherein the determining comprises:
And when the user's predetermined gesture is detected while tracking the user's location, determining the tracked location as the first location for the mapping.
사용자의 감각을 자극하는 콘텐츠를 수집하는 콘텐츠 수집부;
상기 콘텐츠 수집부로부터 입력된 콘텐츠를 재생이 가능하도록 처리하는 콘텐츠 처리부;
상기 콘텐츠 처리부로부터 입력된 콘텐츠를 재생하는 콘텐츠 재생부;
상기 콘텐츠가 상기 사용자의 위치에 대응되게 재생되도록 상기 사용자의 위치와 관련된 정보를 수집하는 센서부; 및
상기 센서부로부터 수신된 정보를 기반으로 상기 사용자의 위치에 대응되는 가상의 콘텐츠 공간상에서의 가상 시점(virtual viewpoint)를 결정하고, 상기 결정된 가상 시점에 대응되는 콘텐츠가 재생되도록 제어하는 제어부를 포함하는 콘텐츠 재생 장치.
A content collecting unit collecting content stimulating a user's senses;
A content processing unit which processes the content input from the content collecting unit to enable playback;
A content reproducing unit reproducing the content input from the content processing unit;
A sensor unit configured to collect information related to the location of the user so that the content is reproduced corresponding to the location of the user; And
And a controller configured to determine a virtual viewpoint in a virtual content space corresponding to the location of the user based on the information received from the sensor unit, and to control a content corresponding to the determined virtual viewpoint to be played. Content playback device.
제 16 항에 있어서,
상기 제어부는,
상기 센서부로부터 수신된 정보를 기반으로 상기 사용자의 제 1 위치를 결정하는 초기화부와,
상기 결정된 제 1 위치를 기준으로 사용자가 존재하는 실제공간과 상기 콘텐츠 공간을 맵핑하는 공간 맵핑부와,
상기 사용자의 제 2 위치에 대응되는 상기 콘텐츠 공간상에서의 가상 시점(virtual viewpoint)을 결정하는 가상 시점 결정부와,
상기 결정된 가상 시점에 대응되는 콘텐츠를 재생하도록 상기 콘텐츠 처리부를 제어하는 콘텐츠 처리 제어부를 포함하는 것을 특징으로 하는 콘텐츠 재생 장치.
17. The method of claim 16,
The control unit,
An initialization unit for determining a first location of the user based on information received from the sensor unit;
A space mapping unit for mapping the real space in which the user exists and the content space based on the determined first position;
A virtual viewpoint determiner configured to determine a virtual viewpoint in the content space corresponding to the second location of the user;
And a content processing control unit which controls the content processing unit to play the content corresponding to the determined virtual viewpoint.
제 17 항에 있어서,
상기 콘텐츠 재생부는,
싱기 결정된 가상 시점을 기준으로 영상을 표시하는 영상 표시부를 포함하는 것을 특징으로 하는 콘텐츠 재생 장치.
The method of claim 17,
The content playback unit,
And an image display unit which displays an image based on the determined virtual viewpoint.
제 18 항에 있어서,
상기 영상 표시부는,
상기 결정된 가상 시점을 기준으로 상기 영상의 명암, 입체감 및 깊이감 중에서 적어도 하나를 조절하여 상기 영상을 표시하는 것을 특징으로 하는 콘텐츠 재생 장치.
The method of claim 18,
The image display unit includes:
And displaying the image by adjusting at least one of contrast, depth and depth of the image based on the determined virtual viewpoint.
제 17 항에 있어서,
상기 콘텐츠 재생부는,
상기 결정된 가상 시점을 기준으로 소리를 출력하는 음향 출력부를 포함하는 것을 특징으로 하는 콘텐츠 재생 장치.
The method of claim 17,
The content playback unit,
And a sound output unit configured to output a sound based on the determined virtual viewpoint.
제 20 항에 있어서,
상기 음향 출력부는,
상기 결정된 가상 시점을 기준으로 상기 소리의 방향감 및 거리감 중에서 적어도 하나를 조절하여 상기 소리를 출력하는 것을 특징으로 하는 콘텐츠 재생 장치.
21. The method of claim 20,
The sound output unit includes:
And outputting the sound by adjusting at least one of a sense of direction and a distance of the sound based on the determined virtual viewpoint.
제 16 항에 있어서,
상기 콘텐츠 재생부는,
상기 사용자의 감각 중에서 적어도 시각 및 청각을 각각 자극하는 영상과 소리를 재생하는 것을 특징으로 하는 콘텐츠 재생 장치.
17. The method of claim 16,
The content playback unit,
And a video and a sound for stimulating at least visual and hearing, respectively, among the user's senses.
제 17 항에 있어서,
상기 가상 시점 결정부는,
상기 제 1 위치를 기준으로 상기 사용자의 위치 변화량을 산출하고, 상기 산출된 위치 변화량을 삼각 함수에 적용하여 각도 변화량을 산출하며, 상기 산출된 각도 변화량만큼 상기 가상 시점의 방향을 회전하며, 상기 방향이 회전된 가상 시점에 대응되는 콘텐츠를 재생하도록 제어하는 것을 특징으로 하는 콘텐츠 재생 장치.
The method of claim 17,
The virtual viewpoint determination unit,
Calculate the change in the position of the user based on the first position, calculate the change in the angle by applying the calculated change in the position to the trigonometric function, rotate the direction of the virtual view by the calculated change in the angle, the direction And control to play the content corresponding to the rotated virtual view.
제 17 항에 있어서,
상기 제어부는 상기 센서부로부터 수신된 정보를 이용하여 상기 사용자의 위치를 추적하는 추적부를 더 구비하고,
상기 초기화부는 상기 사용자의 위치 추적 중에 미리 정해진 시간 동안 상기 사용자의 위치가 미리 설정된 오차 범위 내에서 고정되면, 상기 고정된 위치를 상기 맵핑을 위한 제 1 위치로 결정하는 것을 특징으로 하는 콘텐츠 재생 장치.
The method of claim 17,
The control unit further comprises a tracking unit for tracking the location of the user using the information received from the sensor unit,
And the initialization unit determines the fixed position as the first position for the mapping when the position of the user is fixed within a preset error range for a predetermined time during tracking of the position of the user.
제 17 항에 있어서,
상기 제어부는 상기 센서부로부터 수신된 정보를 이용하여 상기 사용자의 위치를 추적하는 추적부를 더 구비하고,
상기 초기화부는 상기 사용자의 위치 추적 중에 실감형 재생을 위한 개시 이벤트가 감지되면 상기 추적된 위치를 상기 맵핑을 위한 제 1 위치로 결정하는 것을 특징으로 하는 콘텐츠 재생 장치.
The method of claim 17,
The control unit further comprises a tracking unit for tracking the location of the user using the information received from the sensor unit,
And the initialization unit determines the tracked location as the first location for the mapping when a start event for immersive playback is detected during the location tracking of the user.
제 17 항에 있어서,
상기 제어부는 상기 센서부로부터 수신된 정보를 이용하여 상기 사용자의 위치를 추적하는 추적부를 더 구비하고,
상기 초기화부는 상기 사용자의 위치 추적 중에 미리 설정된 사용자의 특정 제스처가 감지되면, 상기 추적된 위치를 상기 맵핑을 위한 제 1 위치로 결정하는 것을 특징으로 하는 콘텐츠 재생 장치.
The method of claim 17,
The control unit further comprises a tracking unit for tracking the location of the user using the information received from the sensor unit,
And the initialization unit determines the tracked location as the first location for the mapping when a predetermined gesture of the user is detected during the location tracking of the user.
제 17 항에 있어서,
콘텐츠 재생 기능을 구비한 외부 기기와 연결하는 인터페이스부를 더 포함하고,
상기 콘텐츠 처리 제어부는 상기 인터페이스부를 통해 상기 외부 기기를 제어하여 상기 가상 시점에 대응되는 콘텐츠를 재생하도록 하는 것을 특징으로 하는 콘텐츠 재생 장치.


The method of claim 17,
Further comprising an interface unit for connecting to an external device having a content playback function,
And the content processing control unit controls the external device to play the content corresponding to the virtual viewpoint through the interface unit.


KR1020110114883A 2011-07-18 2011-11-07 Contents play method and apparatus KR101926477B1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP12814483.9A EP2735164A4 (en) 2011-07-18 2012-01-17 Content playing method and apparatus
PCT/KR2012/000375 WO2013012146A1 (en) 2011-07-18 2012-01-17 Content playing method and apparatus
CN201280035942.2A CN103703772A (en) 2011-07-18 2012-01-17 Content playing method and apparatus
US13/356,220 US20130023342A1 (en) 2011-07-18 2012-01-23 Content playing method and apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020110070959 2011-07-18
KR20110070959 2011-07-18

Publications (2)

Publication Number Publication Date
KR20130010424A true KR20130010424A (en) 2013-01-28
KR101926477B1 KR101926477B1 (en) 2018-12-11

Family

ID=47839676

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110114883A KR101926477B1 (en) 2011-07-18 2011-11-07 Contents play method and apparatus

Country Status (5)

Country Link
US (1) US20130023342A1 (en)
EP (1) EP2735164A4 (en)
KR (1) KR101926477B1 (en)
CN (1) CN103703772A (en)
WO (1) WO2013012146A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101381396B1 (en) * 2013-09-12 2014-04-04 하수호 Multiple viewer video and 3d stereophonic sound player system including stereophonic sound controller and method thereof
KR101462021B1 (en) * 2013-05-23 2014-11-18 하수호 Method and terminal of providing graphical user interface for generating a sound source
KR20150091653A (en) * 2014-02-03 2015-08-12 (주)에프엑스기어 User view point related image processing apparatus and method thereof
KR20180081721A (en) * 2015-11-11 2018-07-17 소니 주식회사 Image processing apparatus and image processing method
KR20190093083A (en) * 2018-01-31 2019-08-08 옵티머스시스템 주식회사 Image compensation device for matching virtual space and real space and image matching system using the same

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6102944B2 (en) 2012-12-10 2017-03-29 ソニー株式会社 Display control apparatus, display control method, and program
KR102019125B1 (en) 2013-03-18 2019-09-06 엘지전자 주식회사 3D display device apparatus and controlling method thereof
US10937187B2 (en) 2013-10-07 2021-03-02 Apple Inc. Method and system for providing position or movement information for controlling at least one function of an environment
CN110223327B (en) 2013-10-07 2023-08-01 苹果公司 Method and system for providing location information or movement information for controlling at least one function of a vehicle
CN105094299B (en) * 2014-05-14 2018-06-01 三星电子(中国)研发中心 The method and apparatus for controlling electronic device
CN104123003B (en) * 2014-07-18 2017-08-01 北京智谷睿拓技术服务有限公司 Content share method and device
CN104102349B (en) 2014-07-18 2018-04-27 北京智谷睿拓技术服务有限公司 Content share method and device
WO2016126770A2 (en) * 2015-02-03 2016-08-11 Dolby Laboratories Licensing Corporation Selective conference digest
CN104808946A (en) * 2015-04-29 2015-07-29 天脉聚源(北京)传媒科技有限公司 Image playing and controlling method and device
JP6739907B2 (en) * 2015-06-18 2020-08-12 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Device specifying method, device specifying device and program
US9851435B2 (en) 2015-12-14 2017-12-26 Htc Corporation Electronic device and signal generating circuit
CN109963177A (en) * 2017-12-26 2019-07-02 深圳Tcl新技术有限公司 A kind of method, storage medium and the television set of television set adjust automatically viewing angle
JP7140517B2 (en) * 2018-03-09 2022-09-21 キヤノン株式会社 Generation device, generation method performed by generation device, and program
CN111681467B (en) * 2020-06-01 2022-09-23 广东小天才科技有限公司 Vocabulary learning method, electronic equipment and storage medium

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1186038A (en) * 1997-03-03 1999-03-30 Sega Enterp Ltd Image processor, image processing method, medium and game machine
JP2006025281A (en) * 2004-07-09 2006-01-26 Hitachi Ltd Information source selection system, and method
US9030532B2 (en) * 2004-08-19 2015-05-12 Microsoft Technology Licensing, Llc Stereoscopic image display
JP4500632B2 (en) * 2004-09-07 2010-07-14 キヤノン株式会社 Virtual reality presentation apparatus and information processing method
WO2006096776A2 (en) * 2005-03-07 2006-09-14 The University Of Georgia Research Foundation,Inc. Teleportation systems and methods in a virtual environment
US8564532B2 (en) * 2005-12-06 2013-10-22 Naturalpoint, Inc. System and methods for using a movable object to control a computer
US20080252596A1 (en) * 2007-04-10 2008-10-16 Matthew Bell Display Using a Three-Dimensional vision System
US20090141905A1 (en) * 2007-12-03 2009-06-04 David Warhol Navigable audio-based virtual environment
US20090222838A1 (en) * 2008-02-29 2009-09-03 Palm, Inc. Techniques for dynamic contact information
EP2374110A4 (en) * 2008-12-19 2013-06-05 Saab Ab System and method for mixing a scene with a virtual scenario
KR101324440B1 (en) * 2009-02-11 2013-10-31 엘지디스플레이 주식회사 Method of controlling view of stereoscopic image and stereoscopic image display using the same
US8477175B2 (en) * 2009-03-09 2013-07-02 Cisco Technology, Inc. System and method for providing three dimensional imaging in a network environment
CN102045429B (en) * 2009-10-13 2015-01-21 华为终端有限公司 Method and equipment for adjusting displayed content
KR101313797B1 (en) * 2009-12-18 2013-10-01 한국전자통신연구원 Apparatus and method for presenting display of 3D image using head tracking
US20110157322A1 (en) * 2009-12-31 2011-06-30 Broadcom Corporation Controlling a pixel array to support an adaptable light manipulator
KR101046259B1 (en) * 2010-10-04 2011-07-04 최규호 Stereoscopic image display apparatus according to eye position
US9644989B2 (en) * 2011-06-29 2017-05-09 Telenav, Inc. Navigation system with notification and method of operation thereof

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101462021B1 (en) * 2013-05-23 2014-11-18 하수호 Method and terminal of providing graphical user interface for generating a sound source
KR101381396B1 (en) * 2013-09-12 2014-04-04 하수호 Multiple viewer video and 3d stereophonic sound player system including stereophonic sound controller and method thereof
WO2015037905A1 (en) * 2013-09-12 2015-03-19 Hy Suho Multi-viewer image and 3d stereophonic sound player system comprising stereophonic sound adjuster and method therefor
KR20150091653A (en) * 2014-02-03 2015-08-12 (주)에프엑스기어 User view point related image processing apparatus and method thereof
US9727137B2 (en) 2014-02-03 2017-08-08 Fxgear Inc. User view point related image processing apparatus and method thereof
KR20180081721A (en) * 2015-11-11 2018-07-17 소니 주식회사 Image processing apparatus and image processing method
KR20190093083A (en) * 2018-01-31 2019-08-08 옵티머스시스템 주식회사 Image compensation device for matching virtual space and real space and image matching system using the same

Also Published As

Publication number Publication date
KR101926477B1 (en) 2018-12-11
CN103703772A (en) 2014-04-02
US20130023342A1 (en) 2013-01-24
EP2735164A4 (en) 2015-04-29
EP2735164A1 (en) 2014-05-28
WO2013012146A1 (en) 2013-01-24

Similar Documents

Publication Publication Date Title
KR101926477B1 (en) Contents play method and apparatus
CN109416842B (en) Geometric matching in virtual reality and augmented reality
US11308583B2 (en) Systems, methods, and media for adjusting one or more images displayed to a viewer
US10666921B2 (en) Generating content for a virtual reality system
US11024083B2 (en) Server, user terminal device, and control method therefor
KR102052567B1 (en) Virtual 3D Video Generation and Management System and Method
US20180367835A1 (en) Personalized presentation enhancement using augmented reality
US20200363636A1 (en) Light field display system for performance events
US20220248162A1 (en) Method and apparatus for providing audio content in immersive reality
WO2022262839A1 (en) Stereoscopic display method and apparatus for live performance, medium, and system
WO2020206647A1 (en) Method and apparatus for controlling, by means of following motion of user, playing of video content
US20180275754A1 (en) Device and method for immersive visual representations and individual head equipment
CN109996060A (en) A kind of virtual reality cinema system and information processing method
US20230007232A1 (en) Information processing device and information processing method
US20220036075A1 (en) A system for controlling audio-capable connected devices in mixed reality environments
CN116194792A (en) Connection evaluation system
KR20140051040A (en) Apparatus and method for providing realistic broadcasting
CN112272817B (en) Method and apparatus for providing audio content in immersive reality
CN109313823A (en) Information processing unit, information processing method and program
WO2021161894A1 (en) Information processing system, information processing method, and program
CN117354567A (en) Bullet screen adjusting method, bullet screen adjusting device, bullet screen adjusting equipment and bullet screen adjusting medium
CN115485736A (en) User selection of virtual camera positions to produce video using composite input from multiple cameras
KR20140119870A (en) Apparatus for providing multimedia contents and method for displaying multimedia contents thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant