KR20150115302A - Apparatus for reproducing and authoring contents - Google Patents

Apparatus for reproducing and authoring contents Download PDF

Info

Publication number
KR20150115302A
KR20150115302A KR1020140040100A KR20140040100A KR20150115302A KR 20150115302 A KR20150115302 A KR 20150115302A KR 1020140040100 A KR1020140040100 A KR 1020140040100A KR 20140040100 A KR20140040100 A KR 20140040100A KR 20150115302 A KR20150115302 A KR 20150115302A
Authority
KR
South Korea
Prior art keywords
user
sound
sound data
unit
acoustic data
Prior art date
Application number
KR1020140040100A
Other languages
Korean (ko)
Inventor
권순일
이호진
백성욱
Original Assignee
세종대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 세종대학교산학협력단 filed Critical 세종대학교산학협력단
Priority to KR1020140040100A priority Critical patent/KR20150115302A/en
Publication of KR20150115302A publication Critical patent/KR20150115302A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se

Abstract

A content playback apparatus according to the present invention includes a motion recognizing unit which recognizes a motion of a user, a storage unit in which acoustic data is stored, an acoustic data selecting unit which selects the stored acoustic data based on a result of the motion recognition, an acoustic data correcting unit which corrects the selected acoustic data based on the result of the motion recognition, and an output unit which outputs the corrected acoustic data, wherein the acoustic data correcting unit corrects the acoustic data on the basis of at least one among a type of the selected acoustic data, a direction and an arrival time of a sound.

Description

컨텐츠 재생 및 저작 장치{APPARATUS FOR REPRODUCING AND AUTHORING CONTENTS}[0001] APPARATUS FOR REPRODUCING AND AUTHORING CONTENTS [0002]

본 발명은 컨텐츠 재생 및 저작 장치에 관한 것이다. The present invention relates to a content reproducing and authoring apparatus.

증강 현실(Augmented Reality)은 현실 세계에 있는 물리적 대상에 컴퓨터를 통해 제작된 가상의 객체가 겹친 형태로 보여주는 네트워크화된 환경을 말한다. 또한, 증강 현실은 미리 정해진 마커 또는 식별자를 통해 현실 공간에 대한 영상에 가상 영상 전부 또는 일부를 결합시키는 영상 합성의 일 분야에 해당한다. Augmented Reality is a networked environment in which virtual objects created by a computer on a physical object in the real world are displayed in an overlapping form. Also, the augmented reality corresponds to a field of image synthesis that combines all or a part of a virtual image to an image of a real space through a predetermined marker or an identifier.

한편, 증강 현실 기술은 가상 영상을 이용하여 현실 영상을 보완 또는 개선하는 방향으로 발전해왔으며, 인간의 신체에 컴퓨터 디바이스를 부착시키거나 또는 휴대 가능한 모바일 단말에 탑재 가능하도록 개발되어 왔다. On the other hand, the augmented reality technology has been developed to supplement or improve the reality image using virtual images, and has been developed so that a computer device can be attached to a human body or can be mounted on a portable mobile terminal.

이와 같은 증강 현실 기술은 사용자가 현실의 환경을 볼 수 있으면서 가상의 환경 또는 정보를 볼 수 있다는 점에서 기존의 가상 현실보다 더 실제감 및 몰입감을 극대화시킬 수 있다는 장점이 있다.Such augmented reality technology has the advantage that it can maximize real feeling and immersion feeling in comparison with the existing virtual reality in that a user can see a real environment and view a virtual environment or information.

이와 같은 증강 현실은 최근 벽면에 설치되는 대형 투명 디스플레이 장치가 발전함에 따라, 미래의 실내 환경에서는 화장실 거울이나 창문, 거실 벽면 전체가 투명 디스플레이 창을 이용하여 구현될 수 있다. 특히, 실내 내부의 디스플레이 벽면 자체의 위치가 재생되는 컨텐츠와 연동하여 변화하는 스마트 미디어 벽면도 미래의 유비쿼터스 주거 환경에서 가능할 것으로 보인다.Such augmented reality can be realized by using a transparent display window in a bathroom mirror, a window, and a living room wall in a future indoor environment as a large transparent display device installed on a wall recently develops. In particular, the smart media wall that changes in conjunction with the contents of the display wall inside the room itself is likely to be available in the future ubiquitous residential environment.

이와 같은 미래의 실내 환경에서는 증강 현실 기술 이용시 사용자의 비접촉 인터페이스의 방법으로는 제스처가 유용할 것으로 예상되며, 증강 현실 기술을 제어하기 위하여 컨텐츠의 종류에 따라 제스처에 상응하는 음향 효과를 자동으로 재생하는 방법이 필요하다.In such a future indoor environment, a gesture is expected to be useful as a noncontact interface method of a user when using augmented reality technology. In order to control an augmented reality technique, a gesture corresponding sound effect is automatically reproduced A method is needed.

이와 관련하여, 한국등록특허 제 10-0912264호(발명의 명칭: 사용자 반응형 증강 영상 생성 방법 및 시스템)은 현실 공간 또는 가상 공간의 상황 변화에 적응적으로 반응하는 증강 영상을 생성하는 기술을 개시하고 있다.In this regard, Korean Patent Registration No. 10-0912264 (entitled " method and system for generating a user-responsive augmented image) discloses a technique for generating an augmented image adaptively responding to a change in a situation of a real space or a virtual space .

그러나 위 선행기술은 증강 현실 속의 에이전트 개념을 도입하여 현재 상황 정보를 기반으로 재생되는 음향 샘플을 결정할 수 있으나, 재생되는 음향 샘플의 방향성을 고려하고 있지 않고, 재생시 음향의 시간 지연 또한 고려하지 않는다는 문제점이 있다.However, the above prior art can introduce the agent concept in the augmented reality to determine the acoustic sample to be reproduced based on the current situation information, but does not consider the directionality of the acoustic sample to be reproduced, There is a problem.

본 발명은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 본 발명의 일부 실시예는 사용자의 동작에 대응하는 음향을 선택하고, 음향의 종류, 방향성, 사용자의 위치에 도달하는 지연 시간 등의 파라미터를 고려하여 음향을 보정함으로써 사용자의 동작에 상응하는 음향을 출력하는 컨텐츠 재생 및 저작 장치를 제공하는 것을 그 목적으로 한다.SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems of the conventional art, and it is an object of the present invention to provide a sound reproducing apparatus and a sound reproducing method which select sounds corresponding to a user's operation, And to provide a content reproducing and authoring device that outputs sound corresponding to a user's operation by correcting the sound in consideration of the user.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제 1 측면에 따른 컨텐츠 재생 장치는 사용자의 동작을 인식하는 동작 인식부, 음향 데이터가 저장된 저장부, 상기 동작 인식 결과에 기초하여 상기 저장된 음향 데이터를 선택하는 음향 데이터 선택부, 상기 동작 인식 결과에 기초하여 상기 선택된 음향 데이터를 보정하는 음향 데이터 보정부 및 상기 보정된 음향 데이터를 출력하는 출력부를 포함하되, 상기 음향 데이터 보정부는, 상기 선택된 음향 데이터의 종류, 음향의 방향 및 도달 시간 중 하나 이상에 기초하여 상기 음향 데이터를 보정한다.According to a first aspect of the present invention, there is provided a content reproducing apparatus including an operation recognizing unit for recognizing an operation of a user, a storage unit for storing sound data, An acoustic data correction unit for correcting the selected acoustic data based on the operation recognition result and an output unit for outputting the corrected acoustic data, And corrects the sound data based on at least one of the type of sound data, the direction of sound, and the arrival time.

또한, 본 발명의 제 2 측면에 따른 컨텐츠 저작 장치는 사용자의 동작을 인식하는 동작 인식부, 음향 데이터가 저장된 저장부, 상기 음향 데이터를 출력하는 출력부, 상기 동작 인식 결과에 기초하여 상기 저장된 음향 데이터를 선택하는 음향 데이터 선택부, 상기 동작 인식 결과에 기초하여 상기 선택된 음향 데이터를 보정하는 음향 데이터 보정부 및 상기 보정된 음향 데이터를 출력하고, 상기 출력된 음향 데이터를 저장하여 컨텐츠를 저작하는 컨텐츠 저작부를 포함하되, 상기 음향 데이터 보정부는, 상기 선택된 음향 데이터의 종류, 음향의 방향 및 도달 시간 중 하나 이상에 기초하여 상기 음향 데이터를 보정한다.According to a second aspect of the present invention, there is provided a content authoring apparatus comprising an operation recognizing unit for recognizing an operation of a user, a storage unit for storing sound data, an output unit for outputting the sound data, A sound data correction unit for correcting the selected sound data based on the result of the motion recognition, a sound data correction unit for outputting the corrected sound data, Wherein the acoustic data corrector corrects the acoustic data based on at least one of the type of the selected acoustic data, the direction of the acoustic and the arrival time.

전술한 본 발명의 과제 해결 수단의 어느 실시예에 의하면, 사용자의 동작에 기초하여 기 저장된 음향 데이터를 보정함으로써 사용자의 동작에 상응하는 음향을 출력할 수 있다.According to any of the embodiments of the present invention described above, the sound corresponding to the user's operation can be outputted by correcting the previously stored sound data based on the operation of the user.

또한, 재생되는 음향의 종류, 방향 및 사용자 위치에 도달하는 시간을 고려하여 음향 데이터를 보정함으로써 사용자의 위치에 현실감있고 몰입감 있는 음향을 출력할 수 있다.In addition, it is possible to output realistic and immersive sound to the user's position by correcting the sound data in consideration of the type and direction of the sound to be reproduced and the time to reach the user position.

이와 더불어, 사용자의 동작에 대응하는 음향 데이터를 선택 및 보정하고 이를 저장함으로써 사용자의 동작에 대응하는 컨텐츠를 새롭게 저작할 수 있다.In addition, it is possible to newly author content corresponding to the user's action by selecting and correcting the sound data corresponding to the user's action and storing the selected sound data.

도 1은 본 발명의 일 실시예에 따른 컨텐츠 재생 장치의 블록도이다.
도 2는 본 발명의 일 실시예에 따른 컨텐츠 저작 장치의 블록도이다.
도 3 및 도 4는 본 발명에 따른 컨텐츠 재생 장치 또는 컨텐츠 저작 장치의 일 예시를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 컨텐츠 재생 방법의 순서도이다.
도 6은 본 발명의 일 실시예에 따른 컨텐츠 저작 방법의 순서도이다.
1 is a block diagram of a content reproducing apparatus according to an embodiment of the present invention.
2 is a block diagram of a content authoring apparatus according to an embodiment of the present invention.
3 and 4 are views for explaining an example of a content reproducing apparatus or a content authoring apparatus according to the present invention.
5 is a flowchart of a content reproduction method according to an embodiment of the present invention.
6 is a flowchart of a content authoring method according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is referred to as being "connected" to another part, it includes not only "directly connected" but also "electrically connected" with another part in between . Also, when an element is referred to as "comprising ", it means that it can include other elements as well, without departing from the other elements unless specifically stated otherwise.

도 1은 본 발명의 일 실시예에 따른 컨텐츠 재생 장치(100)의 블록도이다.1 is a block diagram of a content reproduction apparatus 100 according to an embodiment of the present invention.

본 발명에 따른 컨텐츠 재생 장치(100)는 동작 인식부(110), 저장부(120), 음향 데이터 선택부(130), 음향 데이터 보정부(140) 및 출력부(150)를 포함한다.The content reproduction apparatus 100 includes an operation recognition unit 110, a storage unit 120, a sound data selection unit 130, a sound data correction unit 140, and an output unit 150.

동작 인식부(110)는 사용자의 동작을 인식한다. 이와 같은 동작 인식부(110)는 모션 센서, 비전 감지 기반의 센서, 또는 다수의 카메라일 수 있다. 뿐만 아니라 동작 인식부(110)는 적외선 송수신에 의해 사용자의 동작을 인식할 수 있다. The motion recognition unit 110 recognizes the motion of the user. The motion recognition unit 110 may be a motion sensor, a vision-based sensor, or a plurality of cameras. In addition, the motion recognition unit 110 can recognize the operation of the user by infrared transmission / reception.

이때, 동작 인식부(110)는 사용자의 위치에 기초하여 음향이 출력되는 출력부(150)와의 거리를 측정할 수 있다. 이와 같이 측정된 거리에 기초하여 음향 데이터가 사용자에게 도달하는 시간을 측정하며, 측정된 도달 시간은 하기에서 설명하는 바와 같이 음향 데이터 보정부(140)에서 이용될 수 있다.At this time, the motion recognition unit 110 may measure the distance to the output unit 150 from which the sound is output based on the position of the user. The measured time is measured based on the measured distance, and the measured arrival time can be used in the sound data correction unit 140 as described below.

한편, 동작 인식부(110)는 사용자의 동작의 종류에 기초하여 사용자의 동작을 인식하고 이에 기초하여 동작 인식 결과를 생성할 수 있다. 뿐만 아니라, 동작 인식부(110)는 사용자의 동작의 빠르기에 기초하여 동작을 인식함으로써 동작 인식 결과를 생성할 수도 있다. 이와 같은 동작 인식부(110)를 통하여 기 정해진 위치에서 기 설정된 동작을 인식하고 이에 정해진 음향을 출력하는 것이 아니라, 사용자의 위치 또는 사용자가 위치한 공간의 구조가 가변적인 가상현실 내에서 다양한 사용자의 움직임을 인식할 수 있다. On the other hand, the motion recognition unit 110 can recognize the motion of the user based on the type of the motion of the user and generate the motion recognition result based thereon. In addition, the motion recognition unit 110 may generate the motion recognition result by recognizing the motion based on the speed of the motion of the user. The motion recognizing unit 110 recognizes a predetermined motion at a predetermined position and outputs a predetermined sound. Instead of the motion recognizing unit 110, motion of various users in a virtual reality in which a position of a user or a space where a user is located is variable, Can be recognized.

저장부(120)에는 음향 데이터가 저장되어 있다. 즉, 사용자의 동작에 따라 발생 가능한 다양한 음향 효과들의 데이터를 저장하고 있다. 예를 들어, 야구공을 던질 때 발생하는 음향에 대한 기본적인 음향 데이터뿐만 아니라, 농구공을 던지거나 부메랑을 던질 때 발생 가능한 음향 데이터를 저장하고 있다.The storage unit 120 stores sound data. That is, data of various sound effects that can be generated according to a user's operation is stored. For example, it stores basic acoustic data about the sound that occurs when a baseball is thrown, as well as sound data that can occur when throwing a basketball or throwing a boomerang.

음향 데이터 선택부(130)는 사용자의 동작에 따른 동작 인식 결과에 기초하여 저장부(120)에 저장된 음향 데이터를 선택한다. 예를 들어, 사용자가 야구공을 던지는 동작을 취할 경우 야구공을 던질 때 발생하는 음향 데이터를 선택하고, 이를 하기에서 설명할 음향 데이터 보정부(140)에 전달한다.The sound data selection unit 130 selects the sound data stored in the storage unit 120 based on the result of the operation recognition according to the user's operation. For example, when a user takes an action of throwing a ball, the player selects sound data generated when the player throws the ball, and transmits the sound data to the sound data correction unit 140 to be described later.

음향 데이터 보정부(140)는 동작 인식 결과에 기초하여 음향 데이터 선택부(130)에 의해 선택된 음향 데이터를 보정한다. 이때, 보정시 선택된 음향 데이터의 종류, 음향의 방향 및 음향이 출력부(150)로부터 사용자에게까지 전달되는 도달 시간 중 하나 이상에 기초하여 음향 데이터를 보정할 수 있다. The sound data correction unit 140 corrects the sound data selected by the sound data selection unit 130 based on the result of the operation recognition. At this time, it is possible to correct the sound data based on at least one of the kind of sound data selected at the time of correction, the direction of sound and the arrival time at which sound is transmitted from the output unit 150 to the user.

예를 들어, 사용자가 야구공을 던지는 동작을 취할 경우, 사용자는 야구공을 천천히 던지거나 또는 빠르게 던지는 동작을 취할 수 있다. 이 경우, 음향 데이터 보정부(140)는 야구공을 던질 때 발생하는 음향의 종류에 기초하여 보정할 수 있으며, 이와 더불어 음향의 방향 즉, 음향이 단방향인지 서라운드 방향인지 여부에 기초하여 보정할 수 있다. 뿐만 아니라, 음향이 출력부(150)로부터 사용자에게 전달되기까지의 도달 시간을 고려하여 야구공이 날아갈 때의 속도감을 조절하여 음향을 보정할 수 있다. For example, if a user takes a throwing action, the user may take action to throw the ball slowly or throw it quickly. In this case, the sound data correction unit 140 can correct based on the type of sound generated when the baseball is thrown, and can also correct the sound direction, that is, whether the sound is unidirectional or surround direction have. In addition, it is possible to correct the sound by adjusting the velocity feeling when the ball is blown in consideration of the time of arrival of sound from the output unit 150 to the user.

한편, 음향 데이터 보정부(140)는 음향 데이터의 종류, 음향의 방향 및 도달 시간 뿐만 아니라, 사용자와 각 스피커간의 거리, 음향 신호의 물리적 감쇄와 관련된 이론 및 실험적 수식에 기초하여 음향 데이터를 주파수 대역대로 보정할 수 있으며, 다수의 스피커의 상호 관계에 따른 영향을 반영함으로써 음향 데이터를 보정할 수도 있다.On the other hand, the acoustic data correction unit 140 corrects the acoustic data based on the theoretical and experimental equations related to the type of acoustic data, the direction and arrival time of the acoustic sound, the distance between the user and each speaker, And it is also possible to correct the sound data by reflecting the influence of the mutual relation of the plurality of speakers.

출력부(150)는 이와 같이 보정된 음향 데이터를 출력한다. 이와 같은 출력부(150)는 복수의 스피커를 포함할 수 있으며, 음향의 방향 또는 도달 시간이 반영되어 보정된 음향 데이터를 복수의 스피커를 통해 출력할 수 있다. 이에 따라, 음향이 좌에서 우로 이동하거나, 또는 음향의 빠르기 등을 복수의 스피커를 통해 출력함으로써 사용자로 하여금 더욱 실제감있고 공간감있는 음향을 제공할 수 있다.The output unit 150 outputs the thus corrected sound data. The output unit 150 may include a plurality of speakers. The output unit 150 may output the corrected sound data through the plurality of speakers by reflecting the direction or arrival time of the sound. As a result, the sound is moved from left to right, or sound speed is output through a plurality of speakers, so that the user can provide more realistic and spaceful sound.

상기 설명한 동작 인식부(110) 또는 출력부(150)는 사용자가 위치한 공간 상에 설치된 구조물에 포함되어 있을 수 있다. 즉, 미디어 월(Media wall)과 같이 벽면 전체가 디스플레이 창으로 되어 있는 디스플레이 장치와 같은 구조물 상에 삽입되어 있을 수 있다. 그러나 반드시 벽면에 설치되어야 하는 것은 아니며, 기둥과 같이 특정 구조물 또는 별도의 디스플레이 장치 내에 삽입되는 등 다양한 형태로 설치될 수 있다.The motion recognition unit 110 or the output unit 150 described above may be included in a structure installed in a space where the user is located. In other words, it may be inserted on a structure such as a display device in which the entire wall surface is a display window, such as a media wall. However, it is not necessarily installed on the wall, and may be installed in various forms, such as a column, inserted into a specific structure or a separate display device.

도 2는 본 발명의 일 실시예에 따른 컨텐츠 저작 장치(200)의 블록도이다.2 is a block diagram of a content authoring apparatus 200 according to an embodiment of the present invention.

본 발명에 따른 컨텐츠 저작 장치(200)는 동작 인식부(210), 저장부(220), 음향 데이터 선택부(230), 음향 데이터 보정부(240), 컨텐츠 저작부(250) 및 출력부(260)를 포함한다.A content authoring apparatus 200 according to the present invention includes an operation recognition unit 210, a storage unit 220, a sound data selection unit 230, a sound data correction unit 240, a content authoring unit 250, 260).

동작 인식부(210)는 사용자의 동작을 인식한다. 이때, 동작 인식부(210)는 사용자의 동작의 종류 또는 동작의 빠르기에 기초하여 사용자의 동작을 인식할 수 있다. 이와 같은 동작 인식부(210)는 도 1에서 설명한 바와 같이, 모션 센서, 비전 감지 기반의 센서, 카메라 등 동작을 인식할 수 있는 다양한 형태의 장치들이 이용될 수 있다. The motion recognition unit 210 recognizes the motion of the user. At this time, the motion recognition unit 210 can recognize the motion of the user based on the type of motion of the user or the speed of motion. 1, various types of devices capable of recognizing motion such as a motion sensor, a vision-based sensor, and a camera can be used.

이와 더불어, 동작 인식부(210)는 사용자의 위치에 기초하여 음향이 출력되는 출력부(260)와의 거리를 측정할 수 있다. 이와 같이 측정된 거리에 기초하여 음향 데이터가 사용자에게 도달하는 시간을 측정하며, 측정된 도달 시간은 하기에서 설명하는 바와 같이 음향 데이터 보정부(240)에서 이용될 수 있다.In addition, the motion recognition unit 210 can measure the distance to the output unit 260 from which the sound is output based on the position of the user. The measured arrival time may be used in the acoustic data corrector 240, as described below, based on the distance thus measured.

저장부(220)에는 음향 데이터가 저장되어 있다. 즉, 사용자의 동작에 따라 발생 가능한 다양한 음향 효과들의 데이터를 저장하고 있다. 또한, 저장부(220)는 아래에서 설명하는 바와 같이, 보정된 음향 데이터를 출력하고, 출력된 음향 데이터를 저장할 수 있다. 출력된 음향 데이터를 저장함으로써 저작된 하나의 컨텐츠를 저장하게 된다.The storage unit 220 stores sound data. That is, data of various sound effects that can be generated according to a user's operation is stored. Also, the storage unit 220 may output the corrected sound data and store the outputted sound data, as described below. And stores the authored one content by storing the outputted sound data.

출력부(260)는 음향 데이터를 출력하며, 뿐만 아니라 출력부(260)는 보정된 음향 데이터를 출력하거나, 최종적으로 저작된 컨텐츠에 포함된 음향을 출력할 수도 있다. 이와 더불어, 사용자의 동작에 대응하는 음향이 선택될 때, 선택된 음향 데이터를 출력할 수 있다. 이와 같이 다양한 형태의 음향 데이터를 출력함으로써 사용자는 동작에 대응하는 음향이 출력되고, 동작에 대응되는 음향이 보정되어 출력되는지 여부를 확인할 수 있으며, 최종적으로 생성된 컨텐츠에 해당하는 음향을 출력하여 확인할 수 있다. 이와 같은 출력부(260)는 복수의 스피커를 포함할 수 있으며, 음향의 방향 또는 도달 시간이 반영되어 보정된 음향 데이터를 복수의 스피커를 통해 출력할 수 있다.The output unit 260 outputs sound data, as well as the output unit 260 may output the corrected sound data, or may output sounds included in the finally authored content. In addition, when the sound corresponding to the action of the user is selected, the selected sound data can be output. By outputting various types of sound data as described above, the user can check whether or not the sound corresponding to the operation is outputted and the sound corresponding to the operation is corrected and output, and the sound corresponding to the finally generated content is output . The output unit 260 may include a plurality of speakers. The output unit 260 may output the corrected sound data through a plurality of speakers by reflecting the direction or arrival time of the sound.

음향 데이터 선택부(230)는 사용자의 동작에 따른 동작 인식 결과에 기초하여 저장부(220)에 저장된 음향 데이터를 선택한다. 예를 들어, 사용자가 야구공을 던지는 동작을 취할 경우 야구공을 던질 때 발생하는 음향 데이터를 선택하고, 이를 하기에서 설명할 음향 데이터 보정부(240)에 전달한다.The sound data selection unit 230 selects the sound data stored in the storage unit 220 based on the result of the operation recognition according to the user's operation. For example, when the user takes an action of throwing a ball, the player selects the sound data generated when the player throws the ball, and transmits the sound data to the sound data correction unit 240 to be described later.

음향 데이터 보정부(240)는 동작 인식 결과에 기초하여 음향 데이터 선택부(230)에 의해 선택된 음향 데이터를 보정한다. 이때, 보정시 선택된 음향 데이터의 종류, 음향의 방향 및 음향이 출력부(260)로부터 사용자에게까지 전달되는 도달 시간 중 하나 이상에 기초하여 음향 데이터를 보정할 수 있다. The sound data correction unit 240 corrects the sound data selected by the sound data selection unit 230 based on the result of the operation recognition. At this time, it is possible to correct the sound data based on at least one of the kind of sound data selected at the time of correction, the direction of sound and the arrival time at which the sound is transmitted from the output unit 260 to the user.

컨텐츠 저작부(250)는 보정된 음향 데이터를 출력하고, 출력된 음향 데이터를 저장하여 컨텐츠를 저작한다. 예를 들어, 사용자가 제 1 동작 및 제 2 동작을 취할 경우, 제 1 동작 및 제 2 동작에 대응하는 음향 데이터가 선택되고, 제 1 및 제 2 동작의 속도, 종류 등의 파라미터를 반영하여 음향 데이터가 보정되면 컨텐츠 저작부(250)는 보정된 음향 데이터를 출력하고, 이를 저장하여 제 1 동작 및 제 2 동작에 따른 음향 데이터를 포함하는 컨텐츠를 저작하게 된다. 한편, 저작된 컨텐츠는 저장부(220)에 저장될 수 있으며, 사용자는 동작을 추가적으로 수행함으로써 저작된 컨텐츠에 포함된 음향 데이터를 수정할 수도 있다.The content authoring unit 250 outputs the corrected sound data, and writes the content by storing the outputted sound data. For example, when the user takes the first operation and the second operation, the acoustic data corresponding to the first operation and the second operation is selected, and the acoustic data corresponding to the speed and the type of the first and second operations are reflected, When the data is corrected, the content authoring unit 250 outputs the corrected sound data and stores the corrected sound data to author contents including the sound data according to the first operation and the second operation. Meanwhile, the authored content can be stored in the storage unit 220, and the user can further modify the sound data included in the authored content by further performing an operation.

상기 설명한 동작 인식부(210) 또는 출력부(260)는 도 1에서 설명한 바와 같이 사용자가 위치한 공간상에 설치된 구조물에 포함되어 있을 수 있다. 이에 대한 다양한 예시에 대한 설명은 도 1에서 설명하였으므로 구체적인 설명은 생략하도록 한다.The operation recognition unit 210 or the output unit 260 may be included in a structure installed in a space where the user is located, as described with reference to FIG. The description of the various examples is described with reference to FIG. 1, and a detailed description thereof will be omitted.

한편, 도 1 및 도 2에 따른 저장부(120)는 캐쉬, ROM(Read Only Memory), PROM(Programmable ROM), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM) 및 플래쉬 메모리(Flash memory)와 같은 비휘발성 메모리 소자 또는 RAM(Random Access Memory)과 같은 휘발성 메모리 소자 또는 하드디스크 드라이브(HDD, Hard Disk Drive), CD-ROM과 같은 저장 매체 중 적어도 하나로 구현될 수 있으나 이에 한정되지는 않는다.1 and 2 may include a cache, a ROM, a PROM (Programmable ROM), an EPROM (Erasable Programmable ROM), an EEPROM (Electrically Erasable Programmable ROM), and a Flash memory Or a storage medium such as a hard disk drive (HDD), a CD-ROM, or a non-volatile memory device such as a random access memory (RAM) .

도 3 및 도 4는 본 발명에 따른 컨텐츠 재생 장치(100) 또는 컨텐츠 저작 장치(200)의 일 예시를 설명하기 위한 도면이다.3 and 4 are views for explaining an example of the content reproducing apparatus 100 or the content authoring apparatus 200 according to the present invention.

사용자는 컨텐츠 재생 장치(100) 또는 컨텐츠 저작 장치(200)가 설치된 가상공간 내에서 자신이 의도하는 동작을 취한다. 이에 따라 동작 인식부(110, 210)는 카메라 등의 동작 인식 장치를 통해 사용자의 위치에 따른 출력부(150, 260)와 사용자간의 거리 및 사용자가 취한 동작을 입력받는다. 그리고 음향 데이터 보정부(140, 240)를 통해 재생될 컨텐츠를 고려하여 음향의 종류 및 방향, 거리 등의 파라미터를 음향 데이터에 적용함으로써 사용자의 위치에서 자연스럽게 음향이 재생될 수 있게 한다. 이에 따라, 출력부(150, 260)를 통해 사용자의 동작을 바탕으로 정해진 음향을 출력하게 된다.The user takes his or her intended action in the virtual space in which the content reproducing apparatus 100 or the content authoring apparatus 200 is installed. Accordingly, the motion recognition units 110 and 210 receive the distance between the user and the output units 150 and 260 according to the position of the user through the motion recognition device such as a camera, and the motion of the user. In addition, parameters such as the type, direction, and distance of sound are applied to the sound data in consideration of the contents to be reproduced through the sound data correction units 140 and 240 so that sound can be reproduced naturally at the user's position. Accordingly, the predetermined sound is output based on the operation of the user through the output units 150 and 260.

이때, 최소 4채널 이상의 스피커를 사용함으로써 음향의 방향성도 나타낼 수 있다. 예를 들어, 가상 공간에서 사용자는 야구공과 같은 물체를 던지는 동작을 취하면, 사용자의 팔의 궤적과 프레임별 속도를 기준으로 날아가는 공의 방향과 속도를 산출한다. 또한, 공의 속도와 충돌하는 물체의 조합에 따라 재생되는 음향의 종류가 달라지게 된다. 즉, 야구공을 던질 때와 농구공을 던질 때 재생되는 음향의 종류가 달라지게 되는 것이다.At this time, the direction of sound can be indicated by using a speaker of at least four channels or more. For example, in a virtual space, when a user throws an object such as a baseball ball, the direction and speed of the ball are calculated based on the trajectory of the user's arm and the velocity per frame. In addition, the type of sound to be reproduced varies depending on the combination of the speed of the ball and the colliding object. That is, when you throw a baseball and when you throw a basketball, the type of sound that is played varies.

또 다른 예로 부메랑을 던질 때 발생하는 음향과 관련된 컨텐츠를 재생하는 경우를 들 수 있다. 사용자가 부메랑을 집어 지면과 평행하게 던지는 동작을 취하면 사용자의 스윙 속도를 기준으로 단방향 또는 멀티채널 스피커를 통해 사용자를 중심으로 부메랑이 되돌아오는 느낌이 들도록 서라운드 음향 재생이 가능하다.Another example is to play content related to sound that occurs when a boomerang is thrown. When the user takes a boomerang, he or she can play the surround sound so that the user can feel the boomerang return from the user's unidirectional or multi-channel speaker based on the user's swing speed.

도 5는 본 발명의 일 실시예에 따른 컨텐츠 재생 방법의 순서도이다.5 is a flowchart of a content reproduction method according to an embodiment of the present invention.

본 발명에 따른 컨텐츠 재생 방법은 먼저, 사용자의 동작을 인식한다(S510). 이때, 사용자의 동작을 인식하기 위한 동작 인식 장치로는 모션 센서, 비전 감지 기반의 센서, 또는 다수의 카메라일 수 있다. 뿐만 아니라, 적외선 송수신에 의해 사용자의 동작을 인식할 수 있다. In the content reproduction method according to the present invention, first, the operation of the user is recognized (S510). Here, the motion recognition device for recognizing the motion of the user may be a motion sensor, a vision-based sensor, or a plurality of cameras. In addition, the operation of the user can be recognized by infrared transmission / reception.

이때, 동작을 인식하는 단계는 사용자의 위치에 기초하여 음향이 출력되는 거리를 측정할 수 있다. 이와 같이 측정된 거리에 기초하여 음향 데이터가 사용자에게 도달하는 시간을 측정할 수 있으며, 측정된 시간은 음향 데이터를 보정하는데 사용될 수 있다.At this time, the step of recognizing the operation may measure the distance of the sound output based on the position of the user. Based on the distance thus measured, the time at which the acoustic data reaches the user can be measured, and the measured time can be used to correct the acoustic data.

또한, 동작을 인식하는 단계는 사용자의 동작의 종류 또는 사용자의 동작의 빠르기에 기초하여 사용자의 동작을 인식하고, 이에 기초하여 동작 인식 결과를 생성할 수 있다. In addition, the step of recognizing the action may recognize the action of the user based on the kind of the action of the user or the speed of the action of the user, and may generate the action recognition result based thereon.

다음으로, 사용자의 동작에 기초하여 저장된 음향 데이터 샘플로부터 사용자의 동작에 대응하는 음향 데이터를 선택한다(S520). 기 저장된 음향 데이터 샘플에는 사용자가 취할 수 있는 다양한 동작에 대한 것들이 있을 수 있으며, 예를 들어 야구공을 던질 때 발생하는 물체의 질감에 따른 음향 데이터, 농구공을 던지거나 부메랑을 던질 때 발생 가능한 음향 데이터에 관한 샘플이 저장되어 있을 수 있다.Next, the sound data corresponding to the user's operation is selected from the sound data samples stored based on the user's operation (S520). The pre-stored acoustic data samples may have various actions that the user may take, including, for example, acoustic data according to the texture of the object that occurs when throwing a baseball, sound that may occur when throwing a basketball or throwing a boomerang Samples of data may be stored.

이와 같이 저장된 음향 데이터를 동작 인식 결과에 기초하여 선택하게 된다. 예를 들어, 야구공을 던지는 동작을 취할 경우 사용자의 팔 동작 등을 고려하여 야구공을 던질 때 발생하는 음향 데이터를 선택하게 된다.The thus stored sound data is selected based on the motion recognition result. For example, when an action of throwing a baseball is taken, an acoustic data generated when a player throws a baseball is selected in consideration of a user's arm motion.

다음으로, 사용자의 동작에 따른 동작 인식 결과에 기초하여 선택된 음향 데이터를 보정한다(S530). 예를 들어, 야구공을 던질 때 발생하는 음향 데이터가 선택되면, 선택된 음향 데이터를 기반으로 사용자의 동작 속도, 팔의 궤적 등을 분석하여 음향 데이터를 보정함으로써 공의 속도감, 이동 방향 등을 음향을 통해 나타낼 수 있다. 이와 같이, 음향 데이터를 보정하는 단계는 음향 데이터의 종류, 음향의 방향 및 음향이 출력 스피커로부터 사용자에게 도달하는 시간 중 하나 이상에 기초하여 음향 데이터를 보정할 수 있다. Next, the sound data selected based on the operation recognition result according to the user's operation is corrected (S530). For example, when sound data generated when throwing a baseball is selected, based on the selected sound data, the velocity of the ball, the direction of movement, etc. are corrected by correcting the sound data by analyzing the motion speed of the user and the trajectory of the arm Lt; / RTI > As such, the step of calibrating the acoustic data may correct the acoustic data based on at least one of the type of acoustic data, the direction of the acoustic and the time at which the acoustic reaches the user from the output speaker.

한편, 음향 데이터는 음향 데이터의 종류, 음향의 방향 및 도달 시간뿐만 아니라, 사용자와 각 스피커간의 거리, 음향 신호의 물리적 감쇄와 관련된 이론 및 실험적 수식에 기초하여 주파수 대역대로 보정할 수 있다. 또한, 다수의 스피커의 상호 관계에 따른 영향을 반영함으로써 음향 데이터를 보정할 수도 있다.On the other hand, the acoustic data can be corrected according to the frequency band based on the type of acoustic data, the direction and arrival time of the sound, the distance between the user and each speaker, and the theoretical and experimental equations related to the physical attenuation of the acoustic signal. In addition, it is also possible to correct the sound data by reflecting the influence of the mutual relation of the plurality of speakers.

다음으로, 보정된 음향 데이터를 출력한다(S540). 보정된 음향 데이터를 출력하기 위해 사용자가 위치한 공간상에는 복수의 스피커가 설치되어 있을 수 있다. 이에 따라, 음향이 좌에서 우로 이동하거나, 또는 음향의 빠르기 등을 복수의 스피커를 통해 출력함으로써 사용자에게 현실감있고 공간감이 느껴지는 음향을 제공할 수 있다.Next, the corrected sound data is output (S540). In order to output the corrected sound data, a plurality of speakers may be installed in a space where the user is located. As a result, the sound is moved from the left to the right, or the sound speed is outputted through the plurality of speakers, thereby providing the user with realistic and space-sensitive sound.

도 6은 본 발명의 일 실시예에 따른 컨텐츠 저작 방법의 순서도이다.6 is a flowchart of a content authoring method according to an embodiment of the present invention.

본 발명에 따른 컨텐츠 저작 방법은 먼저, 사용자의 동작을 인식한다(S610). 이때, 사용자의 동작을 인식하는 장치로는 도 1에서 설명한 바와 같이 모션 센서, 비전 감지 기반의 센서 등 동작을 인식할 수 있는 다양한 형태의 장치들이 이용될 수 있다.In the content authoring method according to the present invention, first, the operation of the user is recognized (S610). Various types of devices capable of recognizing motion, such as a motion sensor, a vision-based sensor, and the like, as described with reference to FIG. 1, may be used as an apparatus for recognizing a user's operation.

한편, 동작 인식을 위한 장치를 이용하여 사용자의 위치를 기준으로 음향이 출력되는 스피커와의 거리를 측정할 수 있다. 이와 같이 측정된 거리에 기초하여 음향 데이터가 사용자에게 도달하는 시간을 측정할 수 있다.On the other hand, it is possible to measure the distance to the speaker on which the sound is output based on the position of the user by using the device for recognizing the motion. Based on the distance thus measured, the time at which the acoustic data reaches the user can be measured.

다음으로, 사용자의 동작에 기초하여 저장된 음향 데이터 샘플로부터 사용자의 동작에 대응하는 음향 데이터를 선택한다(S620). 음향 데이터를 선택하는 단계에 대한 설명은 도 1, 도 2 및 도 5에서 설명하였으므로 구체적인 내용은 생략하도록 한다.Next, the sound data corresponding to the user's operation is selected from the sound data sample stored based on the user's operation (S620). The description of the step of selecting the sound data has been described with reference to FIG. 1, FIG. 2, and FIG. 5, so that detailed description thereof will be omitted.

다음으로, 사용자의 동작에 기초하여 선택된 음향 데이터를 보정한다(S630). 이때, 보정시 선택된 음향 데이터의 종류, 음향의 방향 및 음향이 스피커로부터 사용자에게까지 전달되는데 걸리는 도달 시간 중 하나 이상에 기초하여 음향 데이터를 보정할 수 있다.Next, the sound data selected based on the operation of the user is corrected (S630). At this time, it is possible to correct the sound data based on at least one of the kind of the selected sound data at the time of correction, the direction of the sound, and the arrival time for the sound to be transmitted from the speaker to the user.

다음으로, 보정된 음향 데이터를 스피커를 통해 출력하고(S640), 출력된 음향 데이터를 저장함으로써 컨텐츠를 저작한다(S650). 이때, 저작된 컨텐츠는 저장 수단에 저장될 수 있으며, 사용자가 동작을 추가적으로 수행할 경우 저작된 컨텐츠에 포함된 음향 데이터를 수정할 수도 있다. Next, the corrected sound data is outputted through the speaker (S640), and the contents are written by storing the outputted sound data (S650). At this time, the authored content may be stored in the storage means, and when the user further performs the operation, the user may modify the sound data included in the authored content.

이와 더불어, 스피커를 통해서 보정된 음향 데이터를 출력하거나 최종적으로 저작된 컨텐츠에 포함된 음향 데이터를 출력할 수도 있다. 이뿐만 아니라, 사용자의 동작에 대응하는 음향이 선택될 때, 선택된 음향 데이터를 출력할 수도 있다. 이와 같이 다양한 음향 데이터를 출력함으로써 사용자는 동작에 대응되는 음향이 출력되고, 또한 동작에 맞도록 음향이 보정되어 출력되는지 여부를 확인하는 등, 컨텐츠 저작을 위한 각 단계마다 필요시 스피커를 통해 음향 데이터를 출력함으로써 확인할 수 있다.In addition, it is also possible to output the corrected sound data through the speaker or to output the sound data included in the finally authored content. In addition to this, when the sound corresponding to the operation of the user is selected, it may also output the selected sound data. By outputting various kinds of sound data as described above, the user can check whether or not the sound corresponding to the operation is outputted and the sound is corrected and outputted according to the operation, Quot;

참고로, 본 발명의 실시예에 따른 도 1 및 도 2에 도시된 구성 요소들은 소프트웨어 또는 FPGA(Field Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)와 같은 하드웨어 구성 요소를 의미하며, 소정의 역할들을 수행한다.1 and 2 according to an embodiment of the present invention refer to a hardware component such as software or an FPGA (Field Programmable Gate Array) or an ASIC (Application Specific Integrated Circuit), and a predetermined role Lt; / RTI >

그렇지만 '구성 요소들'은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 각 구성 요소는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다.However, 'components' are not meant to be limited to software or hardware, and each component may be configured to reside on an addressable storage medium and configured to play one or more processors.

따라서, 일 예로서 구성 요소는 소프트웨어 구성 요소들, 객체지향 소프트웨어 구성 요소들, 클래스 구성 요소들 및 태스크 구성 요소들과 같은 구성 요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다.Thus, by way of example, an element may comprise components such as software components, object-oriented software components, class components and task components, processes, functions, attributes, procedures, Routines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables.

구성 요소들과 해당 구성 요소들 안에서 제공되는 기능은 더 작은 수의 구성 요소들로 결합되거나 추가적인 구성 요소들로 더 분리될 수 있다.The components and functions provided within those components may be combined into a smaller number of components or further separated into additional components.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.It will be understood by those skilled in the art that the foregoing description of the present invention is for illustrative purposes only and that those of ordinary skill in the art can readily understand that various changes and modifications may be made without departing from the spirit or essential characteristics of the present invention. will be. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.

100: 컨텐츠 재생 장치 200: 컨텐츠 저작 장치
110, 210: 동작 인식부 120, 220: 저장부
130, 230: 음향 데이터 선택부 140, 240: 음향 데이터 보정부
150, 260: 출력부 250: 컨텐츠 저작부
100: Content reproduction apparatus 200:
110, 210: operation recognition unit 120, 220:
130, 230: Acoustic data selection unit 140, 240: Acoustic data correction unit
150, 260: output unit 250: content authoring unit

Claims (8)

컨텐츠 재생 장치에 있어서,
사용자의 동작을 인식하는 동작 인식부,
음향 데이터가 저장된 저장부,
상기 동작 인식 결과에 기초하여 상기 저장된 음향 데이터를 선택하는 음향 데이터 선택부,
상기 동작 인식 결과에 기초하여 상기 선택된 음향 데이터를 보정하는 음향 데이터 보정부 및
상기 보정된 음향 데이터를 출력하는 출력부를 포함하되,
상기 음향 데이터 보정부는,
상기 선택된 음향 데이터의 종류, 음향의 방향 및 도달 시간 중 하나 이상에 기초하여 상기 음향 데이터를 보정하는 것인 컨텐츠 재생 장치.
In the content reproduction apparatus,
An operation recognition unit for recognizing the operation of the user,
A storage unit for storing sound data,
An acoustic data selector for selecting the stored acoustic data based on the operation recognition result,
An acoustic data corrector for correcting the selected acoustic data based on the operation recognition result,
And an output unit for outputting the corrected sound data,
The sound data correction unit may include:
And corrects the sound data based on at least one of the type of the selected sound data, the direction of the sound and the arrival time.
제 1 항에 있어서,
상기 동작 인식부 또는 상기 출력부는 상기 사용자가 위치한 공간상에 설치된 구조물에 포함된 것인 컨텐츠 재생 장치.
The method according to claim 1,
Wherein the operation recognition unit or the output unit is included in a structure installed in a space in which the user is located.
제 1 항에 있어서,
상기 동작 인식부는 사용자의 위치에 기초하여 사용자와 상기 출력부와의 거리를 측정하되,
상기 도달 시간은 상기 사용자와 출력부와의 거리에 기초하여 산출되는 것인 컨텐츠 재생 장치.
The method according to claim 1,
Wherein the motion recognition unit measures the distance between the user and the output unit based on the position of the user,
And the arrival time is calculated based on a distance between the user and the output unit.
제 1 항에 있어서,
상기 동작 인식부는 사용자의 동작의 종류 또는 동작의 빠르기에 기초하여 사용자의 동작을 인식하는 것인 컨텐츠 재생 장치.
The method according to claim 1,
Wherein the motion recognizing section recognizes the operation of the user on the basis of the kind of the operation of the user or the speed of the operation.
컨텐츠 저작 장치에 있어서,
사용자의 동작을 인식하는 동작 인식부,
음향 데이터가 저장된 저장부,
상기 음향 데이터를 출력하는 출력부,
상기 동작 인식 결과에 기초하여 상기 저장된 음향 데이터를 선택하는 음향 데이터 선택부,
상기 동작 인식 결과에 기초하여 상기 선택된 음향 데이터를 보정하는 음향 데이터 보정부 및
상기 보정된 음향 데이터를 출력하고, 상기 출력된 음향 데이터를 저장하여 컨텐츠를 저작하는 컨텐츠 저작부를 포함하되,
상기 음향 데이터 보정부는,
상기 선택된 음향 데이터의 종류, 음향의 방향 및 도달 시간 중 하나 이상에 기초하여 상기 음향 데이터를 보정하는 것인 컨텐츠 저작 장치.
A content authoring apparatus comprising:
An operation recognition unit for recognizing the operation of the user,
A storage unit for storing sound data,
An output unit for outputting the sound data,
An acoustic data selector for selecting the stored acoustic data based on the operation recognition result,
An acoustic data corrector for correcting the selected acoustic data based on the operation recognition result,
And a content authoring unit for outputting the corrected sound data and for authoring the contents by storing the outputted sound data,
The sound data correction unit may include:
And corrects the sound data based on at least one of the type of the selected sound data, the direction of the sound and the arrival time.
제 5 항에 있어서,
상기 동작 인식부 또는 상기 출력부는 상기 사용자가 위치한 공간 상에 설치된 구조물에 포함된 것인 컨텐츠 저작 장치.
6. The method of claim 5,
Wherein the operation recognition unit or the output unit is included in a structure installed in a space in which the user is located.
제 5 항에 있어서,
상기 출력부는 복수의 스피커를 포함하되,
상기 음향의 방향 또는 도달 시간이 반영된 상기 음향 데이터를 상기 복수의 스피커를 통해 출력하는 것인 컨텐츠 저작 장치.
6. The method of claim 5,
Wherein the output unit includes a plurality of speakers,
And the sound data reflecting the direction or arrival time of the sound is output through the plurality of speakers.
제 5 항에 있어서,
상기 동작 인식부는 사용자의 동작의 종류 또는 동작의 빠르기에 기초하여 사용자의 동작을 인식하는 것인 컨텐츠 저작 장치.
6. The method of claim 5,
Wherein the operation recognizing unit recognizes the operation of the user on the basis of the kind of the operation of the user or the speed of the operation.
KR1020140040100A 2014-04-03 2014-04-03 Apparatus for reproducing and authoring contents KR20150115302A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140040100A KR20150115302A (en) 2014-04-03 2014-04-03 Apparatus for reproducing and authoring contents

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140040100A KR20150115302A (en) 2014-04-03 2014-04-03 Apparatus for reproducing and authoring contents

Publications (1)

Publication Number Publication Date
KR20150115302A true KR20150115302A (en) 2015-10-14

Family

ID=54357477

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140040100A KR20150115302A (en) 2014-04-03 2014-04-03 Apparatus for reproducing and authoring contents

Country Status (1)

Country Link
KR (1) KR20150115302A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019112182A1 (en) * 2017-12-05 2019-06-13 삼성전자주식회사 Display device and sound output method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019112182A1 (en) * 2017-12-05 2019-06-13 삼성전자주식회사 Display device and sound output method
CN111587578A (en) * 2017-12-05 2020-08-25 三星电子株式会社 Display device and audio output method
US11494162B2 (en) 2017-12-05 2022-11-08 Samsung Electronics Co., Ltd. Display apparatus and audio outputting method
CN111587578B (en) * 2017-12-05 2023-09-29 三星电子株式会社 Display device and audio output method

Similar Documents

Publication Publication Date Title
US11259136B2 (en) Sound reproduction method and apparatus, storage medium, and electronic apparatus
JP6932206B2 (en) Equipment and related methods for the presentation of spatial audio
US10171769B2 (en) Sound source selection for aural interest
US8231465B2 (en) Location-aware mixed-reality gaming platform
CN107205202B (en) System, method and apparatus for generating audio
CN103608716B (en) Volumetric video presents
KR101304111B1 (en) A dancing karaoke system
JP2019527956A (en) Virtual, augmented, and mixed reality
JP2020509492A5 (en)
JP2020520576A5 (en)
US10798518B2 (en) Apparatus and associated methods
US20190130644A1 (en) Provision of Virtual Reality Content
WO2021018115A1 (en) Target tracking and monitoring display method and target tracking and monitoring display apparatus, electronic device, and storage medium
US10970932B2 (en) Provision of virtual reality content
US10462596B2 (en) Audio apparatus, method of processing audio signal, and a computer-readable recording medium storing program for performing the method
KR20150115302A (en) Apparatus for reproducing and authoring contents
GB2566006A (en) Three-dimensional video processing
JP7037654B2 (en) Equipment and related methods for presenting captured spatial audio content
US20200302679A1 (en) Augmented reality wall with combined viewer and camera tracking
JP2017211974A (en) System, method and program for tracking fingers of user
EP4037340A1 (en) Processing of audio data
JP7363811B2 (en) Information processing device and method
Rumsey Engineering XR
CN115113728A (en) VR-based online shopping product interaction method, VR equipment and user terminal
CN116132905A (en) Audio playing method and head-mounted display device

Legal Events

Date Code Title Description
E902 Notification of reason for refusal