KR20190081160A - Method for providing advertisement using stereoscopic content authoring tool and application thereof - Google Patents

Method for providing advertisement using stereoscopic content authoring tool and application thereof Download PDF

Info

Publication number
KR20190081160A
KR20190081160A KR1020170183511A KR20170183511A KR20190081160A KR 20190081160 A KR20190081160 A KR 20190081160A KR 1020170183511 A KR1020170183511 A KR 1020170183511A KR 20170183511 A KR20170183511 A KR 20170183511A KR 20190081160 A KR20190081160 A KR 20190081160A
Authority
KR
South Korea
Prior art keywords
audio
image
rendering
advertisement
content
Prior art date
Application number
KR1020170183511A
Other languages
Korean (ko)
Inventor
박승민
박준서
곽남훈
Original Assignee
박승민
곽남훈
박준서
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박승민, 곽남훈, 박준서 filed Critical 박승민
Priority to KR1020170183511A priority Critical patent/KR20190081160A/en
Priority to PCT/KR2018/016673 priority patent/WO2019132516A1/en
Publication of KR20190081160A publication Critical patent/KR20190081160A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0267Wireless devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0273Determination of fees for advertising
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/0019
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 

Abstract

Disclosed are a method for providing advertisement using a stereophonic sound content authoring tool and an application therefor. According to an embodiment of the present invention, the method for providing advertisement provides a visual interface for applying a binaural effect to audio synchronized with a video played through a mobile terminal, and provides advertisement content along with rendering status feedback while rendering stereophonic sound content applied with the binaural effect based on the visual interface. Therefore, the present invention can generate revenue for a service provider.

Description

입체 음향 컨텐츠 저작 툴을 이용한 광고 제공 방법 및 이를 위한 어플리케이션{METHOD FOR PROVIDING ADVERTISEMENT USING STEREOSCOPIC CONTENT AUTHORING TOOL AND APPLICATION THEREOF}TECHNICAL FIELD [0001] The present invention relates to an advertisement providing method using stereophonic content authoring tool,

본 발명은 광고 제공 기술에 관한 것으로, 특히 모바일 단말에서 입체 음향 컨텐츠 저작 툴을 이용하여 입체 음향 컨텐츠를 렌더링하는 동안에 광고 컨텐츠를 제공하는 기술에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention [0002] The present invention relates to an advertisement providing technology, and more particularly, to a technique for providing advertisement contents while rendering stereophonic contents using a stereophonic content authoring tool in a mobile terminal.

일반적으로 영상에 입체적인 음향 효과를 적용하기 위해서는 여러 대의 스피커들을 이용하여 출력되는 소리를 입력하는 멀티 채널 방식을 이용하고 있다. 또한, 2개의 스피커나 헤드폰을 이용하는 2채널 방식으로 입체 음향 효과를 구현하는 시스템이 개발되고 있으나, 주로 하드웨어에 의한 기술에 해당한다. Generally, in order to apply a three-dimensional sound effect to an image, a multi-channel method of inputting a sound output by using a plurality of speakers is used. In addition, a system that realizes a stereo sound effect using a two-channel system using two speakers or headphones has been developed, but it is mainly a technique based on hardware.

최근 소프트웨어를 이용하여 입체 음향 효과를 구현하는 기술들이 소개되고 있으나, 청취자를 기준으로 2차원에 해당하는 위치에 음상을 배치하는 것일 뿐, 3차원 위치를 이용하여 입체 음향 효과를 구현하는 기술은 찾아보기 어렵다.Recently, there have been introduced technologies for implementing a stereo sound effect using software, but a technology for implementing a stereo sound effect using a three-dimensional position is merely to locate an image at a position corresponding to a two-dimensional position based on a listener It is difficult to see.

한국 등록 특허 제10-1599554호, 2016년 2월 25일 등록(명칭: SAC 부가정보를 이용한 3D 바이노럴 필터링 시스템 및 방법)Korean Registered Patent No. 10-1599554, registered on February 25, 2016 (name: 3D binaural filtering system and method using SAC side information) 한국 등록 특허 제10-0971700호, 2010년 7월 15일 등록(명칭: 공간큐 기반의 바이노럴 스테레오 합성 장치 및 그 방법과, 그를 이용한 바이노럴 스테레오 복호화 장치)Korean Registered Patent No. 10-0971700, July 15, 2010 (Name: Space Cue-Based Binaural Stereo Synthesizer and Method, and Binaural Stereo Decoder Using the Same)

본 발명의 목적은 직관적인 인터페이스를 포함하는 입체 음향 컨텐츠 저작 어플리케이션을 기반으로 광고 컨텐츠를 제공함으로써 서비스 제공자에게 수익을 발생시키는 것이다. It is an object of the present invention to generate revenue for a service provider by providing advertisement contents based on a stereophonic content authoring application including an intuitive interface.

또한, 본 발명의 목적은 광고 컨텐츠에 기반한 사용자 보상을 지급함으로써 사용자가 어플리케이션을 보다 활발하게 활용하도록 유도하는 것이다.It is also an object of the present invention to induce a user to use applications more actively by paying user compensation based on advertisement contents.

또한, 본 발명의 목적은 사용자의 어플리케이션 이용 히스토리를 고려한 광고 컨텐츠를 제공하여 광고 시청률을 향상시키는 것이다.Another object of the present invention is to provide an advertisement content considering a user's application usage history to improve an advertisement viewing rate.

또한, 본 발명의 목적은 모바일 단말을 통해 바이너럴 효과가 적용된 오디오를 포함하는 입체 음향 컨텐츠를 저작하는 것이다.It is also an object of the present invention to author stereophonic contents including audio to which a binary effect is applied through a mobile terminal.

또한, 본 발명의 목적은 방향감, 거리감 및 공간감 등을 제공할 수 있는 입체 음향 컨텐츠를 제공하는 것이다.It is also an object of the present invention to provide stereophonic content capable of providing a sense of direction, distance, and space.

상기한 목적을 달성하기 위한 본 발명에 따른 입체 음향 컨텐츠 저작 툴을 이용한 광고 제공 방법은, 모바일 단말을 통해 재생되는 영상에 동기되는 오디오에, 바이너럴(binaural) 효과를 적용하기 위한 비주얼 인터페이스를 제공하는 단계; 및 상기 비주얼 인터페이스를 기반으로 바이너럴 효과가 적용된 입체 음향 컨텐츠를 렌더링하는 동안, 렌더링 상태 피드백과 함께 광고 컨텐츠를 제공하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method of providing an advertisement using a stereophonic content authoring tool, the method comprising: providing a visual interface for applying a binaural effect to audio synchronized with an image reproduced through a mobile terminal; ; And providing the advertisement contents together with the rendering status feedback while rendering the stereophonic contents to which the binary effect is applied based on the visual interface.

이 때, 렌더링은 상기 비주얼 인터페이스에 대한 터치 입력을 기반으로 생성되고, 상기 영상에 동기되는 메타데이터를 기반으로 수행될 수 있다.At this time, the rendering may be performed based on the touch input to the visual interface and based on the metadata synchronized with the image.

이 때, 광고 컨텐츠는 광고 컨텐츠 데이터베이스로부터 렌더링 소요 시간 인자 및 컨텐츠 프로파일 인자 중 적어도 하나를 기반으로 선택될 수 있다.At this time, the advertisement content may be selected based on at least one of the rendering time factor and the content profile factor from the advertisement content database.

이 때, 렌더링 소요 시간 인자는 상기 영상에 상응하는 재생시간 및 상기 영상에 상응하는 파일 사이즈 중 어느 하나 이상을 고려하여 산출될 수 있다.In this case, the rendering time factor may be calculated in consideration of at least one of a reproduction time corresponding to the image and a file size corresponding to the image.

이 때, 컨텐츠 프로파일 인자는 사용자가 상기 입체 음향 컨텐츠를 렌더링한 히스토리를 기반으로 산출될 수 있다.At this time, the content profile parameter may be calculated based on the history of the user rendering the stereophonic content.

이 때, 광고 컨텐츠는 음원 위치 컨트롤 성향 인자를 더 고려하여 선택될 수 있다.At this time, the advertisement contents can be selected in consideration of the sound source position control propensity factor.

이 때, 음원 위치 컨트롤 성향 인자는 상기 메타데이터에 상응하는 음상의 위치 변화 값을 기반으로 산출될 수 있다.At this time, the sound source position control tendency factor may be calculated based on the position change value of the sound image corresponding to the metadata.

이 때, 광고 컨텐츠를 제공하는 단계는 상기 광고 컨텐츠의 제공에 상응하는 사용자 보상을 제공하고, 상기 사용자 보상은 다른 광고 컨텐츠를 스킵하는데 사용 가능할 수 있다.At this time, the step of providing advertisement contents may provide user compensation corresponding to the provision of the advertisement contents, and the user compensation may be available to skip other advertisement contents.

이 때, 광고 컨텐츠는 상기 바이너럴 효과가 적용된 오디오를 포함할 수 있다.At this time, the advertisement contents may include the audio to which the binary effect is applied.

이 때, 광고 컨텐츠는 상기 모바일 단말에 대한 주변 기기 연결 상태에 따라 달라지는 오디오를 포함할 수 있다.At this time, the advertisement contents may include audio that varies depending on the peripheral device connection state to the mobile terminal.

이 때, 바이너럴 효과가 적용된 오디오는 레프트 채널 및 라이트 채널에 상응하는 2채널 오디오에 상응할 수 있다.At this time, the audio to which the binary effect is applied may correspond to the two channel audio corresponding to the left channel and the right channel.

또한, 본 발명의 일실시예에 따른 컴퓨터로 판독 가능한 기록매체에 저장된 어플리케이션은, 모바일 단말을 통해 재생되는 영상에 동기되는 오디오에, 바이너럴(binaural) 효과를 적용하기 위한 비주얼 인터페이스를 제공하는 단계; 및 상기 비주얼 인터페이스를 기반으로 바이너럴 효과가 적용된 입체 음향 컨텐츠를 렌더링하는 동안에 렌더링 상태 피드백과 함께 광고 컨텐츠를 제공하는 단계를 실행시킨다.In addition, an application stored in a computer-readable recording medium according to an exemplary embodiment of the present invention includes a step of providing a visual interface for applying a binaural effect to audio synchronized with an image reproduced through a mobile terminal ; And providing the advertisement content together with the rendering status feedback while rendering the binaural effect-applied stereophonic content based on the visual interface.

이 때, 렌더링은 상기 비주얼 인터페이스에 대한 터치 입력을 기반으로 생성되고, 상기 영상에 동기되는 메타데이터를 기반으로 수행될 수 있다.At this time, the rendering may be performed based on the touch input to the visual interface and based on the metadata synchronized with the image.

이 때, 광고 컨텐츠는 광고 컨텐츠 데이터베이스로부터 렌더링 소요 시간 인자 및 컨텐츠 프로파일 인자 중 적어도 하나를 기반으로 선택될 수 있다.At this time, the advertisement content may be selected based on at least one of the rendering time factor and the content profile factor from the advertisement content database.

이 때, 렌더링 소요 시간 인자는 상기 영상에 상응하는 재생시간 및 상기 영상에 상응하는 파일 사이즈 중 어느 하나 이상을 고려하여 산출될 수 있다.In this case, the rendering time factor may be calculated in consideration of at least one of a reproduction time corresponding to the image and a file size corresponding to the image.

이 때, 컨텐츠 프로파일 인자는 사용자가 상기 입체 음향 컨텐츠를 렌더링한 히스토리를 기반으로 산출될 수 있다.At this time, the content profile parameter may be calculated based on the history of the user rendering the stereophonic content.

이 때, 광고 컨텐츠는 음원 위치 컨트롤 성향 인자를 더 고려하여 선택될 수 있다.At this time, the advertisement contents can be selected in consideration of the sound source position control propensity factor.

이 때, 음원 위치 컨트롤 성향 인자는 상기 메타데이터에 상응하는 음상의 위치 변화 값을 기반으로 산출될 수 있다.At this time, the sound source position control tendency factor may be calculated based on the position change value of the sound image corresponding to the metadata.

이 때, 광고 컨텐츠는 상기 바이너럴 효과가 적용된 오디오를 포함할 수 있다.At this time, the advertisement contents may include the audio to which the binary effect is applied.

이 때, 광고 컨텐츠는 상기 모바일 단말에 대한 주변 기기 연결 상태에 따라 달라지는 오디오를 포함할 수 있다.At this time, the advertisement contents may include audio that varies depending on the peripheral device connection state to the mobile terminal.

본 발명에 따르면, 직관적인 인터페이스를 포함하는 입체 음향 컨텐츠 저작 어플리케이션을 기반으로 광고 컨텐츠를 제공함으로써 서비스 제공자에게 수익을 발생시킬 수 있다.According to the present invention, revenue can be generated for a service provider by providing advertisement contents based on a stereophonic content authoring application including an intuitive interface.

또한, 본 발명은 광고 컨텐츠에 기반한 사용자 보상을 지급함으로써 사용자가 어플리케이션을 보다 활발하게 활용하도록 유도할 수 있다.In addition, the present invention can induce a user to more actively use an application by paying user compensation based on advertisement contents.

또한, 본 발명은 사용자의 어플리케이션 이용 히스토리를 고려한 광고 컨텐츠를 제공하여 광고 시청률을 향상시킬 수 있다.In addition, the present invention can improve advertisement viewing rate by providing advertisement contents considering a user's application usage history.

또한, 본 발명은 모바일 단말을 통해 바이너럴 효과가 적용된 오디오를 포함하는 입체 음향 컨텐츠를 저작할 수 있다.In addition, the present invention can author stereoscopic sound contents including audio to which a binary effect is applied through a mobile terminal.

또한, 본 발명은 방향감, 거리감 및 공간감 등을 제공할 수 있는 입체 음향 컨텐츠를 제공할 수 있다.In addition, the present invention can provide stereophonic content capable of providing a sense of direction, a sense of distance, and a sense of space.

도 1은 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 툴을 이용한 광고 제공 시스템을 나타낸 도면이다.
도 2는 본 발명에 따른 어플리케이션 화면의 일 예를 나타낸 도면이다.
도 3은 본 발명에 따른 광고 컨텐츠 제공 화면의 일 예를 나타낸 도면이다.
도 4는 본 발명에 따른 광고 컨텐츠 제공 화면의 다른 예를 나타낸 도면이다.
도 5는 본 발명에 따른 비주얼 인터페이스의 일 예를 나타낸 도면이다.
도 6은 본 발명에 따른 영상에 동기되는 메타데이터의 일 예를 나타낸 도면이다.
도 7은 본 발명에 따른 렌더링 과정의 일 예를 나타낸 블록도이다.
도 8은 본 발명에 따른 광고 선택 관련 인자와 광고 컨텐츠 데이터베이스의 일 예를 나타낸 도면이다.
도 9는 본 발명에 따른 모바일 단말에서 광고 컨텐츠를 선택하는 과정의 일 예를 나타낸 도면이다.
도 10은 본 발명에 따른 서버에서 광고 컨텐츠를 선택하는 과정의 일 예를 나타낸 도면이다.
도 11은 본 발명에 따른 사용자 보상을 제공하는 어플리케이션 실행화면의 일 예를 나타낸 도면이다.
도 12는 본 발명에 따른 사용자 보상을 이용하여 광고 컨텐츠를 스킵하는 어플리케이션 실행화면의 일 예를 나타낸 도면이다.
도 13은 본 발명에 따른 사용자 보상으로 이용 가능한 컨텐츠를 제공하는 어플리케이션 실행 화면의 일 예를 나타낸 도면이다.
도 14는 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 툴을 이용한 광고 제공 방법을 나타낸 동작흐름도이다.
도 15는 본 발명의 일실시예에 따른 광고 제공 방법을 상세하게 나타낸 동작흐름도이다.
도 16은 도 1에 도시된 모바일 단말의 일 예를 나타낸 블록도이다.
1 is a diagram illustrating an advertisement providing system using a stereophonic content authoring tool according to an embodiment of the present invention.
2 is a diagram illustrating an example of an application screen according to the present invention.
3 is a diagram illustrating an example of an advertisement content providing screen according to the present invention.
4 is a view showing another example of an advertisement content providing screen according to the present invention.
5 is a diagram illustrating an example of a visual interface according to the present invention.
6 is a diagram illustrating an example of metadata synchronized with an image according to the present invention.
7 is a block diagram illustrating an example of a rendering process according to the present invention.
8 is a diagram illustrating an example of an advertisement selection related parameter and an advertisement content database according to the present invention.
9 is a view illustrating an example of a process of selecting advertisement contents in a mobile terminal according to the present invention.
10 is a diagram illustrating an example of a process of selecting advertisement contents in a server according to the present invention.
11 is a view showing an example of an application execution screen for providing user compensation according to the present invention.
12 is a view showing an example of an application execution screen for skipping advertisement contents using user compensation according to the present invention.
13 is a view showing an example of an application execution screen for providing contents usable with user compensation according to the present invention.
14 is a flowchart illustrating an advertisement providing method using a stereophonic content authoring tool according to an embodiment of the present invention.
15 is a flowchart illustrating an advertisement providing method according to an exemplary embodiment of the present invention.
16 is a block diagram showing an example of the mobile terminal shown in FIG.

본 발명을 첨부된 도면을 참조하여 상세히 설명하면 다음과 같다. 여기서, 반복되는 설명, 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능, 및 구성에 대한 상세한 설명은 생략한다. 본 발명의 실시형태는 당 업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공되는 것이다. 따라서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.The present invention will now be described in detail with reference to the accompanying drawings. Hereinafter, a repeated description, a known function that may obscure the gist of the present invention, and a detailed description of the configuration will be omitted. Embodiments of the present invention are provided to more fully describe the present invention to those skilled in the art. Accordingly, the shapes and sizes of the elements in the drawings and the like can be exaggerated for clarity.

이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 툴을 이용한 광고 제공 시스템을 나타낸 도면이다.1 is a diagram illustrating an advertisement providing system using a stereophonic content authoring tool according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 툴을 이용한 광고 제공 시스템은 모바일 단말(110), 어플리케이션 서버(120), 광고 서버(130) 및 네트워크(140)를 포함한다. 1, an advertisement providing system using a stereophonic content authoring tool according to an exemplary embodiment of the present invention includes a mobile terminal 110, an application server 120, an advertisement server 130, and a network 140 .

모바일 단말(110)은 본 발명의 일실시예에 따른 광고 제공을 위한 어플리케이션이 구비된 단말에 상응하는 것으로, 휴대폰(mobile phone), 태블릿 PC, 스마트폰(smart phone), PDA(Personal Digital Assistants)와 같은 휴대용 모바일 기기에 상응할 수 있다. 또한, 본 발명의 일실시예에 따른 광고 제공을 위한 어플리케이션은 PC(Personal Computer)나 노트북 컴퓨터와 같은 단말에서도 실행될 수 있다.The mobile terminal 110 corresponds to a terminal equipped with an application for providing an advertisement according to an embodiment of the present invention and includes a mobile phone, a tablet PC, a smart phone, a PDA (Personal Digital Assistants) , ≪ / RTI > In addition, the application for providing an advertisement according to an embodiment of the present invention can be executed in a terminal such as a PC (Personal Computer) or a notebook computer.

예를 들어, 도 16을 참조하면, 본 발명의 일실시예에 따른 모바일 단말(110)은 통신부(1610), 프로세서(1620) 및 메모리(1630)를 포함할 수 있다.16, a mobile terminal 110 according to an embodiment of the present invention may include a communication unit 1610, a processor 1620, and a memory 1630. [

이 때, 모바일 단말(110)은 통신부(1610)를 기반으로 어플리케이션 서버(120)로부터 입체 음향 컨텐츠 저작과 광고 제공을 위한 본 발명의 일실시예에 따른 어플리케이션을 다운로드받아 메모리(1630)에 저장할 수 있고, 프로세서(1620)를 기반으로 어플리케이션을 실행시킬 수 있다. At this time, the mobile terminal 110 may download an application according to an embodiment of the present invention for authoring stereoscopic sound content and providing advertisement from the application server 120 based on the communication unit 1610 and store the downloaded application in the memory 1630 And may execute the application based on the processor 1620.

예를 들어, 통신부(1610)는 네트워크(140)와 같은 통신망을 통해 어플리케이션 서버(120) 또는 광고 서버(130)와 입체 음향 컨텐츠 저작 및 광고 제공을 위해 필요한 정보를 송수신할 수 있다. For example, the communication unit 1610 can send and receive information necessary for authoring and providing stereoscopic sound content to the application server 120 or the advertisement server 130 through a communication network such as the network 140. [

이 때, 모바일 단말(110)의 프로세서(1620)는 중앙연산 처리장치에 상응하는 것으로, 메모리(1630)에 저장된 어플리케이션을 실행시켜 제어할 수 있다.At this time, the processor 1620 of the mobile terminal 110 corresponds to the central processing unit and can execute and control the application stored in the memory 1630.

이 때, 모바일 단말(110)의 메모리(1630)는 운영체제(Operating System, OS)와 함께 본 발명의 일실시예에 따른 어플리케이션을 포함한 각종 어플리케이션들이 저장될 수 있다. 따라서, 본 발명의 일실시예에 따른 어플리케이션은 모바일 단말에 설치되어 실행되는 컴퓨터 프로그램에 상응할 수 있다.At this time, the memory 1630 of the mobile terminal 110 may store various applications including an application according to an embodiment of the present invention together with an operating system (OS). Accordingly, an application according to an embodiment of the present invention may correspond to a computer program installed and executed in a mobile terminal.

또한, 메모리(1630)는 본 발명의 실시예에 따른 광고 제공을 위한 기능을 지원할 수 있다. 이 때, 메모리(1630)는 별도의 대용량 스토리지로 동작할 수 있고, 동작 수행을 위한 제어 기능을 포함할 수도 있다. 일 구현예의 경우, 메모리는 컴퓨터로 판독 가능한 매체이다. 일 구현 예에서, 메모리는 휘발성 메모리 유닛일 수 있으며, 다른 구현예의 경우, 메모리는 비휘발성 메모리 유닛일 수도 있다. 다양한 서로 다른 구현 예에서, 메모리는 예컨대 하드디스크 장치, 광학디스크 장치, 혹은 어떤 다른 대용량 저장장치를 포함할 수도 있다.In addition, the memory 1630 may support a function for providing an advertisement according to an embodiment of the present invention. At this time, the memory 1630 may operate as a separate mass storage and may include a control function for performing operations. In one implementation, the memory is a computer-readable medium. In one implementation, the memory may be a volatile memory unit, and in other embodiments, the memory may be a non-volatile memory unit. In various different implementations, the memory may include, for example, a hard disk device, an optical disk device, or any other mass storage device.

이 때, 모바일 단말(110)은 어플리케이션을 통해 입체 음향 컨텐츠를 렌더링하는 동안에 광고 컨텐츠를 선택하여 제공할 수 있다. 이 때, 광고 컨텐츠는 모바일 단말(110) 또는 어플리케이션 서버(120) 중 어느 하나에서 선택되어 제공될 수 있다. At this time, the mobile terminal 110 can select and provide the advertisement contents while rendering the stereophonic contents through the application. At this time, the advertisement contents may be selected from any one of the mobile terminal 110 and the application server 120.

이 때, 도 1에는 도시하지 아니하였으나, 본 발명의 일실시예에 따른 광고 컨텐츠를 별도의 광고 컨텐츠 데이터베이스를 통해 제공될 수 있다. 이 때, 광고 컨텐츠 데이터베이스는 모바일 단말(110), 어플리케이션 서버(120) 또는 광고 서버(130) 중 어느 하나에 포함되거나 연동되어 광고 컨텐츠를 제공하기 위해 동작할 수 있다. In this case, although not shown in FIG. 1, the advertisement contents according to an embodiment of the present invention may be provided through a separate advertisement contents database. At this time, the advertisement content database may be included in or interworked with any one of the mobile terminal 110, the application server 120, and the advertisement server 130 to operate to provide advertisement contents.

이 때, 광고 서버(130)는 모바일 단말(110)을 통해 제공될 광고 컨텐츠를 관리하는 서버로, 모바일 단말(110)로 광고 컨텐츠를 제공하거나, 모바일 단말(110)에 저장된 광고 컨텐츠에 관련된 정보를 업데이트해줄 수 있다. The advertisement server 130 manages advertisement contents to be provided through the mobile terminal 110. The advertisement server 130 provides advertisement contents to the mobile terminal 110 or information related to the advertisement contents stored in the mobile terminal 110 Can be updated.

이 때, 도 1에서는 어플리케이션 서버(120)와 광고 서버(130)를 각각 도시하였으나, 실시예에 따라 어플리케이션 서버(120)와 광고 서버(130)는 동일한 서버일 수 있다. 1 shows the application server 120 and the advertisement server 130, respectively, the application server 120 and the advertisement server 130 may be the same server.

네트워크(140)는 기존의 이용되는 네트워크 및 향후 개발 가능한 네트워크를 모두 포괄하는 개념이다. 예를 들어, 네트워크(140)는 인터넷 프로토콜(IP)을 기반으로 데이터 서비스를 제공하는 아이피망, 유선망, Wibro(Wireless Broadband)망, WCDMA를 포함하는 3세대 이동통신망, HSDPA(High Speed Downlink Packet Access)망 및 LTE 망을 포함하는 3.5세대 이동통신망, LTE advanced를 포함하는 4세대 이동통신망, 위성통신망 및 와이파이(Wi-Fi)망 중 어느 하나 또는 하나 이상을 결합하여 이루어질 수 있다.Network 140 is a concept that encompasses both existing and future developable networks. For example, the network 140 may be a third-generation mobile communication network including an i-bimetal, a wired network, a Wibro (Wireless Broadband) network, a WCDMA, and a High Speed Downlink Packet Access (3G) mobile communication network including LTE network, a fourth generation mobile communication network including LTE advanced, a satellite communication network, and a Wi-Fi network.

도 2는 본 발명에 따른 어플리케이션 화면의 일 예를 나타낸 도면이다.2 is a diagram illustrating an example of an application screen according to the present invention.

도 2를 참조하면, 본 발명의 일실시예에 따른 컴퓨터로 판독 가능한 기록매체에 저장된 어플리케이션은 모바일 단말을 통해 재생되는 영상에 동기되는 오디오에, 바이너럴(binaural) 효과를 적용하기 위한 비주얼 인터페이스를 제공한다.2, an application stored in a computer-readable recording medium according to an exemplary embodiment of the present invention includes a visual interface for applying a binaural effect to audio synchronized with an image reproduced through a mobile terminal to provide.

이 때, 어플리케이션은 입체 음향 컨텐츠를 저작하기 위한 툴(tool)에 상응하는 것으로, 컴퓨터에 설치되어 실행되는 컴퓨터 프로그램에 상응할 수 있다.At this time, the application corresponds to a tool for authoring stereoscopic contents, and may correspond to a computer program installed and executed in the computer.

이 때, 바이너럴(binaural) 효과는, 사용자가 헤드폰이나 이어폰으로 오디오를 들을 때 마치 오디오의 음상이 외부에 위치하는 것처럼 입체적인 음향 효과를 제공하는 것이다. 따라서, 바이너럴 효과가 적용된 오디오를 포함하는 컨텐츠는 일반 컨텐츠보다 실감나고 현장감 있는 경험을 사용자에게 제공해줄 수 있다.In this case, the binaural effect provides a three-dimensional sound effect as if the audio image is located outside when the user is listening to the audio through the headphone or earphone. Therefore, the contents including the audio with the binary effect can provide the user with a more realistic and realistic experience than the general contents.

이 때, 영상은 모바일 단말에 저장된 영상에 상응할 수 있다. 예를 들어, 영상은 모바일 단말에 설치된 카메라를 통해 사용자가 직접 촬영한 영상이거나 또는 네트워크를 기반으로 다운로드받는 영상에 해당할 수 있다.At this time, the image may correspond to the image stored in the mobile terminal. For example, the image may correspond to a user's own image captured through a camera installed in the mobile terminal or an image downloaded based on the network.

이 때, 비주얼 인터페이스는 입체 음향 컨텐츠를 저작하고 광고 컨텐츠를 제공하기 위한 어플리케이션의 실행을 기반으로 제공될 수 있으므로 어플리케이션을 실행할 수 있는 모바일 단말을 통해 제공될 수 있다.At this time, the visual interface can be provided through a mobile terminal capable of executing an application because it can be provided based on execution of an application for authoring stereoscopic contents and providing advertisement contents.

이 때, 모바일 단말은 네트워크를 기반으로 데이터 통신을 수행 가능한 단말에 상응할 수 있다.At this time, the mobile terminal may correspond to a terminal capable of performing data communication based on the network.

예를 들어, 모바일 단말은 네트워크와 같은 통신망을 통해 입체 음향 컨텐츠 저작과 광고 컨텐츠 제공을 위해 필요한 정보를 송수신할 수 있다. 특히, 본 발명에서는 네트워크를 기반으로 서버로부터 어플리케이션 및 광고 컨텐츠 등을 획득할 수 있다. For example, a mobile terminal can transmit and receive information necessary for stereophonic content authoring and advertisement content provision through a communication network such as a network. Particularly, in the present invention, applications and advertisement contents can be obtained from a server based on a network.

또한, 모바일 단말은 중앙연산 처리장치에 상응하는 프로세서를 기반으로 메모리에 저장된 어플리케이션을 실행시켜 입체 음향 컨텐츠 저작과 함께 광고 컨텐츠를 제공할 수 있다. In addition, the mobile terminal can execute an application stored in a memory based on a processor corresponding to the central processing unit to provide stereoscopic content and advertisement contents.

이 때, 모바일 단말의 메모리에는 운영체제(Operating System, OS)와 함께 본 발명의 일실시예에 따른 어플리케이션을 포함한 각종 어플리케이션들이 저장될 수 있다. 따라서, 본 발명의 일실시예에 따른 어플리케이션은 모바일 단말에 설치되어 실행되는 컴퓨터 프로그램에 상응할 수 있다.At this time, various applications including an application according to an embodiment of the present invention can be stored in the memory of the mobile terminal together with an operating system (OS). Accordingly, an application according to an embodiment of the present invention may correspond to a computer program installed and executed in a mobile terminal.

또한, 모바일 단말의 메모리는 본 발명의 실시예에 따른 광고 제공을 위한 기능을 지원할 수 있다. 이 때, 메모리는 별도의 대용량 스토리지로 동작할 수 있고, 동작 수행을 위한 제어 기능을 포함할 수도 있다. 일 구현예의 경우, 메모리는 컴퓨터로 판독 가능한 매체이다. 일 구현 예에서, 메모리는 휘발성 메모리 유닛일 수 있으며, 다른 구현예의 경우, 메모리는 비휘발성 메모리 유닛일 수도 있다. 다양한 서로 다른 구현 예에서, 메모리는 예컨대 하드디스크 장치, 광학디스크 장치, 혹은 어떤 다른 대용량 저장장치를 포함할 수도 있다.In addition, the memory of the mobile terminal may support a function for providing an advertisement according to an embodiment of the present invention. At this time, the memory may operate as a separate mass storage and may include control functions for performing operations. In one implementation, the memory is a computer-readable medium. In one implementation, the memory may be a volatile memory unit, and in other embodiments, the memory may be a non-volatile memory unit. In various different implementations, the memory may include, for example, a hard disk device, an optical disk device, or any other mass storage device.

또한, 본 발명의 일실시예에 따른 컴퓨터로 판독 가능한 기록매체에 저장된 어플리케이션은 비주얼 인터페이스를 기반으로 바이너럴 효과가 적용된 입체 음향 컨텐츠를 렌더링하는 동안에 렌더링 상태 피드백과 함께 광고 컨텐츠를 제공한다. In addition, an application stored in a computer-readable recording medium according to an exemplary embodiment of the present invention provides advertisement contents along with rendering status feedback while rendering binaural sound content based on a visual interface.

예를 들어, 도 3 내지 도 4에 도시된 것과 같이 렌더링 상태 피드백(320, 420)과 함께 광고 컨텐츠(310, 410)를 제공할 수 있다.For example, advertisement content 310, 410 may be provided along with rendering status feedback 320, 420 as shown in FIGS. 3-4.

이 때, 렌더링 상태 피드백(320, 420)을 통해 현재까지의 렌더링 진행 정보를 제공할 수 있다. 이 때, 렌더링 상태 피드백(320, 420)은 도 3 내지 도 4에 도시된 형태들에 한정되지 않고, 사용자가 쉽게 인지할 수 있는 다양한 방법으로 제공될 수 있다.At this time, it is possible to provide the rendering progress information up to the present through the rendering state feedback 320, 420. At this time, the rendering state feedbacks 320 and 420 are not limited to the shapes shown in FIGS. 3 to 4, but may be provided in various ways that the user can easily recognize.

이 때, 렌더링은 비주얼 인터페이스에 대한 터치 입력을 기반으로 생성되고, 영상에 동기되는 메타데이터를 기반으로 수행될 수 있다.At this time, the rendering may be performed based on the touch input to the visual interface and based on the metadata that is synchronized with the image.

예를 들어, 메타데이터는 비주얼 인터페이스에 대한 터치 입력 값을 기반으로 생성될 수 있다. 즉, 모바일 단말의 사용자는 영상에 포함된 객체의 움직임을 보면서 비주얼 인터페이스를 조작하여 영상에 동기된 오디오의 음상을 조절할 수 있다. For example, the metadata may be generated based on a touch input value to the visual interface. That is, the user of the mobile terminal can control the sound image of the audio synchronized with the image by operating the visual interface while watching the motion of the object included in the image.

이 때, 터치 입력 값은 멀티터치 입력 값일 수 있다. 3차원 좌표상의 위치를 효과적으로 지정하기 위해서는 화면상의 싱글 포인트를 설정하는 싱글 터치로는 부족하고, 화면상의 복수개의 포인트들을 동시에 설정할 수 있는 멀티 터치가 필요할 수 있다.At this time, the touch input value may be a multi-touch input value. In order to effectively specify a position on a three-dimensional coordinate, a single touch for setting a single point on the screen is not sufficient, and a multi-touch capable of simultaneously setting a plurality of points on the screen may be required.

즉, 멀티 터치가 지원되지 않는 경우나 화면에 대한 터치 입력이 아닌 키보드나 마우스를 이용한 입력 값을 이용하여 메타데이터를 생성하는 경우에는 사용자가 영상을 보면서 직관적이면서도 효율적으로 메타데이터를 생성하기 어려울 수 있다.That is, when the multi-touch is not supported or when the metadata is generated by using the input values using the keyboard or the mouse instead of the touch input to the screen, it is difficult for the user to generate the metadata intuitively and efficiently while viewing the image have.

이 때, 본 발명의 일실시예에 따른 어플리케이션은 터치 입력에 즉각적으로 반응하여 바이너럴 효과가 적용된 피드백 오디오를 출력할 수 있다.At this time, the application according to an embodiment of the present invention can immediately output the feedback audio with the binary effect by reacting to the touch input.

이 때, 피드백 오디오는 메타데이터를 기반으로 바이너럴 효과가 적용되어 있지 않은 기존의 오디오를 변형한 것에 상응할 수 있다. 즉, 사용자에 의한 터치 입력이 발생하면, 이에 상응하게 생성되는 메타데이터를 실시간으로 반영하여 피드백 오디오를 출력해줄 수 있다. 만약, 즉각적으로 피드백 오디오가 출력되지 않는다면, 사용자는 렌더링이 완료될 때까지 자신이 변형한 오디오를 들을 수 없기 때문에 영상과 대응하지 않도록 바이너럴 효과가 적용될 수도 있다. At this time, the feedback audio may correspond to a modification of the existing audio on which the binary effect is not applied based on the metadata. That is, when the touch input by the user occurs, the feedback audio can be output by reflecting the generated metadata in real time. If immediate feedback audio is not output, the user may apply a binary effect so that it does not correspond to the image because the user can not hear the modified audio until rendering is complete.

따라서, 본 발명에서는 즉각적으로 피드백 오디오를 출력해줌으로써 사용자가 영상에 포함된 객체의 움직임에 대응하여 터치 입력을 수행하도록 할 수 있다. Accordingly, in the present invention, the feedback audio is immediately output, so that the user can perform the touch input corresponding to the motion of the object included in the image.

이 때, 바이너럴 효과가 적용된 피드백 오디오는 이어폰이나 헤드폰과 같이 사용자가 바이너럴 효과에 따른 입체감을 느낄 수 있는 외부 음향 기기를 통해 출력될 수 있다.At this time, the feedback audio to which the binary effect is applied can be output through an external sound device such as an earphone or a headphone, which allows the user to feel a stereoscopic effect due to a binary effect.

이 때, 메타데이터는 바이너럴 효과에 상응하는 음상의 삼차원 위치에 상응할 수 있다. 이 때, 음상의 삼차원 위치는 바이너럴 효과를 느끼는 모바일 단말의 사용자를 기준으로 할 수 있다.At this time, the metadata may correspond to the three-dimensional position of the sound image corresponding to the binary effect. In this case, the three-dimensional position of the sound image may be based on the user of the mobile terminal experiencing the binary effect.

예를 들어, 본 발명에 따른 음상의 삼차원 위치는 사용자의 머리를 기준으로 하는 반구 형태의 3차원 공간 상에 나타낼 수 있다. 따라서, 바이너럴 효과가 적용된 오디오의 경우, 사용자를 기준으로 360도에서 입체적으로 소리가 들리는 효과를 제공할 수 있다.For example, the three-dimensional position of the sound image according to the present invention can be displayed on a hemispherical three-dimensional space with respect to the user's head. Therefore, in the case of the audio with the binary effect, it is possible to provide a three-dimensional sound effect at 360 degrees based on the user.

이와 같이, 본 발명에서는 X축, Y축, Z축을 이용하는 삼차원 공간 상에 음상을 배치함으로써 기존의 음향 기술보다 깊은 몰입감을 제공할 수 있다.As described above, in the present invention, the sound image is arranged on the three-dimensional space using the X-axis, the Y-axis, and the Z-axis to provide a deeper feeling of immersion than the conventional sound technique.

이 때, 본 발명의 일실시예에 따른 비주얼 인터페이스는 음상의 2차원 평면상의 위치를 지정하기 위한 제1 인터페이스 및 음상의 2차원 평면에 수직한 직선상에 위치를 지정하기 위한 제2 인터페이스를 포함하고, 삼차원 위치는 제1 인터페이스에 대한 사용자의 제1 입력 및 제2 인터페이스에 대한 사용자의 제2 입력을 조합하여 생성될 수 있다. At this time, the visual interface according to an embodiment of the present invention includes a first interface for designating the position on the two-dimensional plane of the sound image and a second interface for specifying the position on the straight line perpendicular to the two-dimensional plane of the sound image And the 3D position may be generated by combining the user's first input to the first interface and the user's second input to the second interface.

예를 들어, 도 5를 참조하면, 사용자가 영상에 포함된 객체(500)의 움직임에 따라 제1 인터페이스(510)와 제2 인터페이스(520)를 조작할 수 있다. 이 때, 영상에 포함된 객체(500)가 이동하는 방향에 따라 제1 인터페이스(510)의 조작키와 제2 인터페이스(520)의 조작키를 터치 입력으로 이동시킬 수 있다. 이 때, 터치 입력에 따른 제1 입력과 제2 입력을 조합하여 생성된 삼차원 위치를 메타데이터로 기록할 수 있다. For example, referring to FIG. 5, the user may operate the first interface 510 and the second interface 520 according to the movement of the object 500 included in the image. At this time, an operation key of the first interface 510 and an operation key of the second interface 520 can be moved to the touch input according to the direction in which the object 500 included in the image moves. At this time, the three-dimensional position generated by combining the first input and the second input according to the touch input can be recorded as metadata.

이 때, 비주얼 인터페이스는 도 5에 도시된 형태에 한정되지 않으며, 음상의 3차원 위치를 입력 가능한 다양한 형태로 제공될 수 있다.At this time, the visual interface is not limited to the form shown in FIG. 5, and can be provided in various forms in which the three-dimensional position of the sound image can be input.

이 때, 비주얼 인터페이스에 포함된 모드변경 버튼을 기반으로 피드백 오디오에 의한 영상을 플레이하는 플레이 모드나 비주얼 인터페이스에 의해 음상의 위치를 조절하기 위한 편집 모드 중 어느 하나의 모드를 선택적으로 제공할 수도 있다. 이 때, 모드변경 버튼은 토글(toggle) 방식으로 동작할 수 있다.At this time, it is possible to selectively provide any one of a play mode for playing the image by the feedback audio based on the mode change button included in the visual interface or an edit mode for adjusting the position of the sound image by the visual interface . At this time, the mode change button can be operated in a toggle manner.

이 때, 비주얼 인터페이스는 메타데이터에 상응하는 음상을 영상에 오버레이하여 실시간으로 표시할 수 있다. At this time, the visual interface can overlay the image corresponding to the meta data on the image and display it in real time.

예를 들어, 사용자가 제1 인터페이스와 제2 인터페이스를 조작하여 변화하는 음상을 영상에 보여지는 객체에 오버레이하여 표시해줄 수 있다. 이 때, 사용자가 터치 입력을 기반으로 제1 인터페이스나 제2 인터페이스를 조작하는 경우, 음상의 위치도 실시간으로 이동시키면서 보여줄 수도 있다.For example, a user can manipulate the first interface and the second interface to overlay and display the changed sound image on an object displayed in the image. In this case, when the user operates the first interface or the second interface based on the touch input, the position of the sound image may be displayed while moving in real time.

이 때, 메타데이터에 상응하는 음상은 사용자의 머리 위치를 기준으로 설정된 반구상의 위치로 표현될 수도 있다.At this time, the sound image corresponding to the meta data may be expressed as a hemispheric position set with reference to the head position of the user.

예를 들어, 음상 트래킹 인터페이스를 통해 변화하는 음상을 트래킹하며 음상의 위치를 보여줄 수도 있다. 이 때, 음상 트래킹 인터페이스는 사용자의 머리 위치를 기준으로 생성된 반구상의 공간에 상응하는 형태로 제공될 수 있다. 이 때, 음상의 3차원 위치를 보다 직관적으로 식별할 수 있도록 사용자 머리의 방향을 회전하면서 음상을 표시할 수도 있다. For example, the sound track tracking interface can track changing sound images and show the location of sound images. At this time, the sound image tracking interface may be provided in a form corresponding to the hemispherical space created based on the user's head position. At this time, the sound image may be displayed while rotating the direction of the user's head so as to more intuitively identify the three-dimensional position of the sound image.

이 때, 비주얼 인터페이스는 영상의 객체 중 음상에 상응하는 객체를 하이라이트하는 객체 트래킹 인터페이스를 포함할 수 있다.At this time, the visual interface may include an object tracking interface for highlighting the object corresponding to the sound image among the objects of the image.

이 때, 객체 트래핑 인터페이스는 영상의 객체 중 오디오와의 상관성을 기반으로 음상에 상응하는 객체를 결정할 수 있다. 즉, 영상에 동기되는 오디오가 크게 변화하는 순간, 영상 내의 객체의 변화를 고려하여 오디오의 변화에 상관성이 높다고 판단되는 객체를 음상에 상응하는 객체로 결정할 수 있다.At this time, the object trapping interface can determine the object corresponding to the sound image based on the correlation with the audio among the objects of the image. That is, at a moment when the audio synchronized with the video changes significantly, the object determined to be highly correlated with the audio change can be determined as the object corresponding to the sound image, taking into consideration the change of the object in the image.

예를 들어, 객체 트래킹 인터페이스는 영상에 동기되는 오디오가 기설정된 기준 변화량 이상 변화하는 시점에서 새롭게 등장하는 객체를 음상에 상응하는 객체로 판단하고 하이라이트 할 수 있다. For example, the object tracking interface can judge and highlight a newly emerging object as an object corresponding to a sound image at a time when audio synchronized with the image changes by a predetermined reference change amount or more.

또한, 객체 트래핑 인터페이스는 음상에 상응하게 인식된 객체의 움직임에 따라 음상의 위치도 그에 상응하게 변경시킬 수도 있다. 즉, 사용자가 비주얼 인터페이스를 조작하여 직접 음상을 변경하지 않아도, 객체 트래핑 인터페이스를 통해 인식된 음상에 상응하는 객체를 트래킹하면서 자동으로 음상에 대한 메타데이터가 생성되도록 할 수도 있다.The object trapping interface may also change the position of the sound image correspondingly to the motion of the recognized object corresponding to the sound image. That is, even if the user does not directly change the sound image by manipulating the visual interface, it is possible to automatically generate the metadata for the sound image while tracking the object corresponding to the sound image recognized through the object trapping interface.

이 때, 본 발명의 일실시예에 따른 메타데이터는 모바일 단말에서 재생되는 영상에 동기되어 생성될 수 있다.At this time, the metadata according to an embodiment of the present invention can be generated in synchronization with an image reproduced in the mobile terminal.

예를 들어, 도 6에 도시된 것과 같이 영상을 재생하는 동안 생성된 메타데이터(620-1~620-N)를 각각 터치 입력 시점에 재생된 영상의 프레임(610-1~610-N)에 매칭시켜 메타데이터와 영상을 동기화할 수 있다.For example, as shown in FIG. 6, the metadata 620-1 to 620-N generated during the reproduction of the image may be respectively recorded in the frames 610-1 to 610-N of the reproduced image at the touch input point It is possible to synchronize metadata and video by matching.

이 때, 본 발명의 일실시예에 따른 입체 음향 컨텐츠는 모바일 단말을 통해 재생 가능한 컨텐츠에 상응할 수 있으며, 사용자가 입체 음향 컨텐츠를 시청하는 경우에 마치 사용자의 주위로 여러 개의 스피커가 설치되어있는 환경에서 오디오가 출력되는 것과 같은 음향 효과를 느낄 수 있다.In this case, the stereophonic contents according to an embodiment of the present invention may correspond to contents that can be reproduced through the mobile terminal, and when a user views stereophonic contents, a plurality of speakers are installed around the user It is possible to feel the same sound effect as when the audio is outputted in the environment.

이 때, 바이너럴 효과가 적용된 오디오는 레프트 채널 및 라이트 채널에 상응하는 2채널 오디오일 수 있다. 따라서, 2채널 오디오만을 지원하는 단말이나 디바이스에서도 마치 5.1 채널이나 10.2 채널과 같은 음향 효과를 느낄 수 있는 입체 음향 컨텐츠를 제공할 수 있다.In this case, the audio to which the binary effect is applied may be two channel audio corresponding to the left channel and the right channel. Therefore, a terminal or a device that supports only 2-channel audio can provide stereophonic contents that can feel a sound effect like 5.1 channel or 10.2 channel.

이 때, 본 발명의 일실시예에 따른 바이너럴 효과가 적용된 오디오는 기존의 이용되는 기술 및 향후 개발 가능한 기술을 적용하여 생성될 수 있다. At this time, the audio to which the binary effect according to an embodiment of the present invention is applied can be generated by applying existing technologies and technologies that can be developed in the future.

한국등록공보 10-1599554에는 MPEG 서라운드(MPEG Surround)라는 국제 표준의 다채널 오디오 부호화 기술을 기반으로 3차원 바이너럴 신호를 출력하는 내용을 개시하고 있다. 10-1599554에서는 MPEG-Surround(MPS) 국제 표준을 기반으로 멀티채널 오디오 재생특성 파라미터를 추출하고, 오디오 재생특성 파라미터를 이용하여 다운믹스 오디오 신호에 대해 HRTF(Head Related Transfer function) 필터링을 수행하여 3D 바이너럴 신호를 출력하는 내용을 개시하고 있다. 여기서, HRTF 필터링은 인간의 청각기관을 모델링한 더미 헤더 마이크를 이용하여 360도의 방위각과 180도의 고도각 사이를 특정 간격을 두고 각각의 위치에 대한 좌우 양쪽의 임펄스 응답을 구하는 필터링일 수 있다.Korean Registered Patent Publication No. 10-1599554 discloses a method for outputting a three-dimensional binary signal based on a multi-channel audio encoding technology of MPEG standard called " MPEG Surround ". 10-1599554 extracts multichannel audio reproduction characteristic parameters based on the MPEG-Surround (MPS) international standard, performs HRTF (Head Related Transfer function) filtering on the downmix audio signal using the audio reproduction characteristic parameters, And outputs a binary signal. Here, the HRTF filtering may be filtering using the dummy header microphones modeled by the human auditory organ to obtain impulse responses on both sides of the respective positions with a specific interval between the azimuth angle of 360 degrees and the altitude angle of 180 degrees.

이 때, 멀티채널 오디오 재생특성 파라미터는 주파수 대역 별 전후방 채널 신호의 출력 레벨 차에 대한 것으로, MPEG-Surround(MPS) 국제 표준에서 다채널 오디오 신호를 입력 받아 두 귀 사이의 소리 크기 차이와 채널 사이의 상관도 등으로 표현되는 공간 파라미터를 기반으로 추출될 수 있다.In this case, the multi-channel audio reproduction characteristic parameter relates to the output level difference of the front and rear channel signals according to the frequency band. In the MPEG-Surround (MPS) international standard, a multi-channel audio signal is received, And the like, and the like.

또한, 한국등록공보 10-0971700에는 가상음원의 위치정보와 각 채널 별 바이노럴 필터 계수에 기초하여 좌/우 오디오 신호를 주파수 영역에서 필터링하고, 필터링된 신호를 바이노럴 스테레오 신호로 복호화하는 내용을 개시하고 있다. 이 때, 입력되는 시간 영역의 스테레오 좌/우 오디오 신호를 DFT(Discrete Fourier Transform) 또는 FFT(Fast Fourier Transform)를 이용하여 주파수 영역의 신호로 변환하고, 가상음원의 위치정보를 기반으로 할당된 서브밴드 별 각 채널의 파워 이득 값과 각 채널에 대한 주파수 영역의 좌/우 HRTF 계수 블록에 기초하여 주파수 영역에 상응하는 스테레오 좌/우 신호를 바이노럴 스테레오 신호로 필터링할 수 있다. In Korean Registered Patent Publication No. 10-0971700, left and right audio signals are filtered in the frequency domain based on the position information of virtual sound sources and binaural filter coefficients for each channel, and the filtered signals are decoded into binaural stereo signals The contents are disclosed. At this time, the stereo left / right audio signal in the input time domain is converted into a frequency domain signal by using DFT (Discrete Fourier Transform) or FFT (Fast Fourier Transform), and the sub- The binaural stereo signal can be used to filter the stereo left / right signal corresponding to the frequency domain based on the power gain value of each channel for each band and the left / right HRTF coefficient block of the frequency domain for each channel.

이 때, 가상음원의 위치정보(VSLI: Virtual Source Location Information) 기반의 공간 큐 정보를 합성하여 서브밴드 별 각 채널의 파워 이득값을 산출할 수 있고, 스테레오 신호에 대한 VSLI 기반의 공간 큐 정보는 임의의 서브밴드(m)에 대하여, 좌측반면각(LHA: Left Half-plane Angle)(LHA(m)), 좌측보조평면각(LSA: Left Subsequent Angle)(LSA(m)), 우측반면각(RHA: Right Half-plane Angle)(RHA(m)) 및 우측보조평면각(RSA: Right Subsequent Angle)(RSA(m))을 포함할 수 있다.In this case, the power gain value of each channel can be calculated by combining spatial cue information based on VSLI (Virtual Source Location Information), and VSLI-based spatial queue information for a stereo signal The left half-plane angle (LHA (m)), the left subconscious angle (LSA (LSA (m)) and the right half angle (LSA RHA (Right Half-Plane Angle) RHA (m) and Right Subsequent Angle (RSA (m)).

따라서, 본 발명에서도 상기와 같은 기술을 기반으로 메타데이터에 상응하게 바이너럴 효과가 적용된 오디오를 생성할 수 있다. Accordingly, in the present invention, it is also possible to generate audio to which a binary effect is applied according to the metadata based on the above-described technique.

예를 들어, MPEG-Surround(MPS) 국제 표준을 기반으로 영상에 동기되는 오디오에 대한 공간 파라미터를 추출하고, 메타데이터에 상응하는 음원의 삼차원 위치와 공간 파라미터를 기반으로 오디오에 대해 HRTF(Head Related Transfer function) 필터링을 수행함으로써 바이너럴 효과가 적용된 오디오 신호를 생성할 수 있다.For example, spatial parameters for audio synchronized to an image are extracted based on the MPEG-Surround (MPS) international standard, and HRTF (Head Related) is calculated for the audio based on the 3D position and spatial parameters of the sound source corresponding to the metadata. Transfer function filtering can be performed to generate an audio signal with a binary effect.

다른 예를 들어, 영상에 동기되는 오디오를 주파수 영역의 스테레오 좌/우 오디오 신호로 변환하고, 메타데이터에 상응하는 위치정보를 기반으로 공간 큐 정보를 합성하여 서브밴드 별 각 채널의 파워 이득값을 산출한 뒤 각 채널에 대한 주파수 영역의 좌/우 HRTF 계수 블록에 기초하여 바이너럴 효과가 적용된 오디오를 생성할 수 있다.In another example, the audio synchronized with the image is converted into a stereo left / right audio signal in the frequency domain, and the spatial cue information is synthesized based on the position information corresponding to the metadata, And then generate a binarized audio based on the left / right HRTF coefficient block in the frequency domain for each channel.

이 때, 렌더링을 통해 영상, 바이너럴 효과가 적용된 오디오 및 부가 데이터를 포함하는 컨테이너가 생성되고, 영상 및 바이너럴 효과가 적용된 오디오는 동기 될 수 있다. At this time, a container including an image, audio and binary data to which a binary effect is applied and additional data is generated through rendering, and audio with a binary effect can be synchronized.

예를 들어, 도 7을 참조하면, 본 발명의 일실시예에 따른 비주얼 인터페이스에 대한 터치 입력을 기반으로 영상(711) M1에 동기되는 오디오(712) S1에 대한 메타데이터(720)를 생성하였다고 가정할 수 있다. 이 때, 본 발명의 일실시예에 따른 어플리케이션은 영상(711) M1에 동기되는 오디오(712) S1과 메타데이터(720)를 이용하여 바이너럴 효과가 적용된 오디오(721) S2를 생성할 수 있고, 렌더링을 수행하여 영상(711) M1, 바이너럴 효과가 적용된 오디오(721) S2 및 부가 데이터(730)를 포함하는 컨테이너(740)를 생성할 수 있다. For example, referring to FIG. 7, the metadata 720 for the audio 712 S 1 synchronized with the image 711 M 1 based on the touch input to the visual interface according to an embodiment of the present invention Can be assumed. At this time, the application according to an embodiment of the present invention generates an audio 721 S 2 to which a binary effect is applied by using the audio 712 S 1 and the metadata 720 synchronized with the video 711 M 1 may be, it is possible to perform rendering to generate an image (711), M 1, a container 740 containing S 2 and the additional data 730, audio 721 by the neoreol effects.

이 때, 부가 데이터(730)는 입체 음향 컨텐츠의 포맷에 관련된 정보나 렌더링을 위한 파라미터 등을 포함할 수 있다. In this case, the additional data 730 may include information related to the format of stereophonic contents, parameters for rendering, and the like.

이 때, 비주얼 인터페이스에 대한 터치 입력을 기반으로 렌더링을 시작할 수 있다. At this time, the rendering can be started based on the touch input to the visual interface.

예를 들어, 사용자가 비주얼 인터페이스에 포함된 저장 버튼(SAVE)을 터치하는 경우, 입체 음향 컨텐츠를 생성하기 위한 렌더링을 시작할 수 있다. 이 때, 렌더링되어 생성된 입체 음향 컨텐츠는 입체 음향 컨텐츠 저작 어플리케이션을 기반으로 모바일 단말에 저장될 수 있다.For example, when the user touches the save button (SAVE) included in the visual interface, the user can start rendering to generate stereophonic content. At this time, the rendered stereoscopic sound content can be stored in the mobile terminal based on the stereoscopic sound content authoring application.

이 때, 렌더링은 바이너럴 효과가 적용된 오디오(721) S2를 생성하는 과정과 함께 수행될 수도 있다.At this time, the rendering may be performed together with the process of generating the audio effect 721 S 2 to which the binary effect is applied.

또한, 사용자가 렌더링을 수행하지 않고 비주얼 인터페이스를 정지 또는 종료하는 경우, 현재까지 생성된 메타데이터를 보관하거나 또는 삭제할 수도 있다. In addition, when the user stops or ends the visual interface without performing rendering, the generated metadata may be stored or deleted.

예를 들어, 사용자가 비주얼 인터페이스에 포함된 정지 버튼(PAUSE)을 터치하는 경우, 현재까지 생성된 메타데이터를 영상과 함께 저장하여 보관할 수도 있다.For example, when the user touches the stop button PAUSE included in the visual interface, the metadata generated so far may be stored and stored together with the image.

다른 예를 들어, 사용자가 비주얼 인터페이스에 포함된 종료 버튼(End) 또는 나가기 버튼(EXIT)을 터치하는 경우, 현재까지 생성된 메타데이터를 삭제하고 비주얼 인터페이스를 종료할 수도 있다.For example, when the user touches the end button (End) or the exit button (EXIT) included in the visual interface, the generated metadata may be deleted and the visual interface may be terminated.

이 때, 광고 컨텐츠는 광고 컨텐츠 데이터베이스로부터 렌더링 소요 시간 인자 및 컨텐츠 프로파일 인자 중 적어도 하나를 기반으로 선택될 수 있다. At this time, the advertisement content may be selected based on at least one of the rendering time factor and the content profile factor from the advertisement content database.

또한, 광고 컨텐츠는 음원 위치 컨트롤 성향인자를 더 고려하여 선택될 수 있다.Further, the advertisement contents can be selected in consideration of the sound source position control propensity factor.

예를 들어, 도 8에 도시된 것과 같이 광고 컨텐츠 데이터베이스(800)에 저장된 복수개의 광고 컨텐츠들 중에서 렌더링 소요 시간 인자(810), 컨텐츠 프로파일 인자(820) 및 음향 위치 컨트롤 성향 인자(830)를 기반으로 렌더링 시 출력될 광고 컨텐츠를 선택할 수 있다.For example, as shown in FIG. 8, among the plurality of advertisement contents stored in the advertisement content database 800, a rendering time factor 810, a content profile factor 820, and an acoustic location control propensity factor 830 It is possible to select an advertisement content to be output at the time of rendering.

이 때, 렌더링 소요 시간 인자는 영상에 상응하는 재생시간 및 영상에 상응하는 파일 사이즈 중 어느 하나 이상을 고려하여 산출될 수 있다. In this case, the rendering time factor may be calculated in consideration of one or more of the reproduction time corresponding to the image and the file size corresponding to the image.

예를 들어, 영상에 상응하는 재생시간이 길거나 영상에 상응하는 파일 사이즈가 클수록 렌더링에 소요되는 시간이 길어질 수 있다. 따라서, 이러한 경우, 광고 컨텐츠 데이터베이스(800)에 저장된 광고 컨텐츠들 중 비교적 시간이 긴 광고 컨텐츠를 선택하여 출력할 수 있다.For example, the longer the reproduction time corresponding to the image or the larger the file size corresponding to the image, the longer the time required for rendering may be. Therefore, in this case, it is possible to select and output the advertisement contents which are relatively long in the advertisement contents stored in the advertisement contents database 800.

이 때, 컨텐츠 프로파일 인자는 사용자가 입체 음향 컨텐츠를 렌더링한 히스토리를 기반으로 산출될 수 있다. At this time, the content profile parameter may be calculated based on the history of the user rendering stereoscopic contents.

예를 들어, 사용자가 주로 게임 영상에 대한 입체 음향 컨텐츠를 렌더링하는 경우, 사용자가 게임을 선호하는 것으로 판단하고, 광고 컨텐츠 데이터베이스(800)에 저장된 광고 컨텐츠들 중 게임 광고 컨텐츠를 선택하여 출력할 수 있다.For example, when the user mainly renders stereophonic contents for a game image, it is determined that the user prefers the game, and the user can select and output the game advertisement contents among the advertisement contents stored in the advertisement contents database 800 have.

이 때, 음원 위치 컨트롤 성향 인자는 메타데이터에 상응하는 음상의 위치 변화 값을 기반으로 산출될 수 있다. In this case, the sound source position control propensity factor can be calculated based on the position change value of the sound image corresponding to the meta data.

예를 들어, 사용자의 터치 입력에 의해 생성된 메타데이터에 상응하는 음상의 위치 변화가 큰 경우, 사용자가 움직임이 많은 입체적인 영상을 선호하는 것으로 판단하고, 광고 컨텐츠 데이터베이스(800)에 저장된 광고 컨텐츠들 중 장면 변화가 많거나 동적인 영상의 광고 컨텐츠를 선택하여 출력할 수 있다.For example, when the positional change of the sound image corresponding to the meta data generated by the user's touch input is large, it is determined that the user prefers a stereoscopic image having many movements, and the advertisement contents stored in the advertisement content database 800 It is possible to select and output the advertisement contents of the image having a large change in the scene or dynamic of the scenes.

따라서, 광고 컨텐츠 데이터베이스(800)는 재생시간, 컨텐츠 카테고리 및 정적/동적 컨텐츠 등을 고려하여 복수개의 광고 컨텐츠들을 저장 및 관리할 수 있다.Accordingly, the advertisement content database 800 can store and manage a plurality of advertisement contents in consideration of the reproduction time, the content category, and the static / dynamic content.

이 때, 본 발명의 일실시예에 따른 광고 컨텐츠는 모바일 단말 또는 어플리케이션을 제공하는 서버 중 어느 하나를 통해 선택될 수 있다. At this time, the advertisement contents according to an embodiment of the present invention can be selected through a mobile terminal or a server providing an application.

예를 들어, 모바일 단말에서 광고 컨텐츠를 선택하는 경우, 도 9에 도시된 것과 같이 모바일 단말(910)에 저장된 어플리케이션(911)이 광고 컨텐츠 메타데이터(912)를 기반으로 출력된 광고 컨텐츠를 선택할 수 있다. 이 때, 광고 컨텐츠 메타데이터(912)는 광고 컨텐츠 데이터베이스(900)에 저장된 복수개의 광고 컨텐츠들에 대한 메타 정보에 상응할 수 있다. 따라서, 모바일 단말(910)은 광고 컨텐츠 데이터베이스(900)에게 이미 선택된 광고 컨텐츠의 전송을 요청할 수 있고, 광고 컨텐츠 데이터베이스(900)는 요청에 상응하는 광고 컨텐츠를 모바일 단말(910)로 전송하여 어플리케이션(911)을 통해 제공할 수 있다.For example, when selecting the advertisement content in the mobile terminal, the application 911 stored in the mobile terminal 910 may select the advertisement content output based on the advertisement content metadata 912 as shown in FIG. 9 have. At this time, the advertisement content metadata 912 may correspond to meta information about a plurality of advertisement contents stored in the advertisement content database 900. [ Accordingly, the mobile terminal 910 may request the advertisement content database 900 to transmit the advertisement content already selected, and the advertisement content database 900 may transmit the advertisement content corresponding to the request to the mobile terminal 910, 911).

다른 예를 들어, 서버에서 광고 컨텐츠를 선택하는 경우, 도 10에 도시된 것과 같이 모바일 단말(1020)에서 서버(1010)에게 광고 컨텐츠를 선택하기 위해 고려될 관련 인자들, 즉 렌더링 소요 시간 인자, 컨텐츠 프로파일 인자 및 음원 위치 컨트롤 성향 인자 등을 전달할 수 있다. 이 후, 서버(1010)는 전달받은 관련 인자들을 이용하여 광고 컨텐츠 데이터베이스(1000)에 저장된 복수개의 광고 컨텐츠들 중 어느 하나의 광고 컨텐츠를 선택하여 모바일 단말(1020)로 제공할 수 있다. 이 후, 모바일 단말(1020)에서는 입체 음향 컨텐츠 저작과 광고 제공을 위한 어플리케이션을 통해 서버(1010)로부터 제공받은 광고 컨텐츠를 출력할 수 있다. In another example, when selecting ad content on the server, the relevancy factors to be considered for selecting ad content from the mobile terminal 1020 to the server 1010, such as the rendering time factor, Content profile parameters, and sound source location control propensity factors. Thereafter, the server 1010 may select any one of a plurality of advertisement contents stored in the advertisement content database 1000 and provide the selected advertisement contents to the mobile terminal 1020 using the transmitted related parameters. Thereafter, the mobile terminal 1020 can output the advertisement contents provided from the server 1010 through the application for stereoscopic sound content authoring and advertisement provisioning.

이 때, 광고 컨텐츠는 바이너럴 효과가 적용된 오디오를 포함할 수도 있다.At this time, the advertisement contents may include audio to which a binary effect is applied.

또한, 광고 컨텐츠는 모바일 단말에 대한 주변 기기 연결 상태에 따라 달라지는 오디오를 포함할 수 있다.In addition, the advertisement content may include audio that varies depending on the peripheral device connection status to the mobile terminal.

예를 들어, 본 발명의 일실시예에 따른 어플리케이션은 모바일 단말에 외부 음향기기가 연결되어 있는 경우에는 바이너럴 효과가 적용된 오디오를 포함하는 광고 컨텐츠를 제공하고, 모바일 단말에 외부 음향기기가 연결되어 있지 않은 경우에는 바이너럴 효과가 적용되지 않은 오디오를 포함하는 광고 컨텐츠를 제공할 수 있다.For example, an application according to an embodiment of the present invention provides advertisement contents including audio with a binary effect when an external audio equipment is connected to the mobile terminal, and an external audio equipment is connected to the mobile terminal It is possible to provide the advertisement contents including the audio to which the binary effect is not applied.

이와 같은 컴퓨터로 판독 가능한 기록매체에 저장된 어플리케이션을 이용하여, 입체 음향 컨텐츠를 저작을 위한 서비스를 제공하면서 광고 컨텐츠 제공에 따른 수익을 발생시킬 수 있다. By using an application stored in such a computer-readable recording medium, revenue can be generated by providing advertisement contents while providing services for authoring stereophonic contents.

도 11은 본 발명에 따른 사용자 보상을 제공하는 어플리케이션 실행화면의 일 예를 나타낸 도면이다. 11 is a view showing an example of an application execution screen for providing user compensation according to the present invention.

도 11을 참조하면, 본 발명의 일실시예에 따른 어플리케이션은 입체 음향 컨텐츠를 렌더링하는 동안에 제공되는 광고 컨텐츠에 상응하게 사용자 보상을 제공할 수 있다.Referring to FIG. 11, an application according to an exemplary embodiment of the present invention may provide user compensation according to advertisement contents provided during rendering stereophonic contents.

이 때, 사용자 보상은 광고 컨텐츠의 재생 시간을 고려하여 제공될 수 있다.At this time, the user compensation may be provided in consideration of the reproduction time of the advertisement contents.

예를 들어, 기설정된 기준 재생 시간이 5분이라고 가정할 수 있다. 만약, 도 11에 도시된 것과 같이 사용자가 입체 음향 컨텐츠를 렌더링하는 동안에 재생 시간이 5분 미만인 광고 컨텐츠를 시청한 경우, 사용자 보상에 상응하는 단위인 음표를 4개 제공할 수 있다. 그러나, 만약 사용자가 시청한 광고 컨텐츠의 재생 시간이 5분을 초과하는 경우, 2배의 보상에 상응하는 8개의 음표가 지급될 수도 있다. For example, it can be assumed that the preset reference playback time is 5 minutes. 11, when the user watches the advertisement contents having a reproduction time of less than 5 minutes while rendering the stereophonic contents, it is possible to provide four notes as a unit corresponding to the user compensation. However, if the playback time of the advertisement content viewed by the user exceeds 5 minutes, eight notes corresponding to double compensation may be provided.

이 때, 사용자 보상을 지급하는 기준은 본 발명의 일실시예에 따라 자유롭게 설정 및 변경할 수 있으며, 사용자 보상에 상응하는 단위도 음표에 한정되지 않는다.In this case, the criterion for paying the user compensation can be freely set and changed according to the embodiment of the present invention, and the unit degree corresponding to the user compensation is not limited to the note.

이 때, 사용자 보상은 다른 광고 컨텐츠를 스킵하는데 사용할 수 있다.At this time, the user compensation can be used to skip other advertisement contents.

예를 들어, 도 12를 참조하면, 본 발명의 일실시예에 따른 어플리케이션은 광고 컨텐츠를 스킵하기 위한 스킵 버튼(1210)을 제공할 수 있다. 만약, 모바일 단말의 사용자가 스킵 버튼(1210)을 터치하는 경우, 도 12에 도시된 것과 같은 스킵 안내 팝업(1220)을 통해 음표를 소비하여 광고를 스킵할지 여부를 사용자에게 선택하도록 할 수 있다. 이 때, 광고 컨텐츠를 스킵하기 위해 필요한 음표의 개수와 함께 현재 사용자가 보유한 음표의 개수를 함께 보여줄 수도 있다.For example, referring to FIG. 12, an application according to an exemplary embodiment of the present invention may provide a skip button 1210 for skipping advertisement contents. If the user of the mobile terminal touches the skip button 1210, the user may be prompted to skip the advertisement by consuming a note through the skip guide pop-up 1220 as shown in FIG. At this time, the number of notes required for skipping the advertisement contents may be displayed together with the number of notes held by the current user.

이 때, 사용자가 광고를 스킵할지 여부를 선택하는 동안, 광고 컨텐츠의 재생은 일시적으로 정지될 수 있지만 렌더링을 계속 수행될 수 있다. At this time, while the user selects whether to skip the advertisement, the reproduction of the advertisement contents can be temporarily stopped, but the rendering can be continued.

또한, 사용자 보상은 본 발명의 일실시예에 따른 어플리케이션을 통해 컨텐츠를 다운로드하는데 사용할 수도 있다. User compensation may also be used to download content through an application according to an embodiment of the present invention.

예를 들어, 도 13에 도시된 것과 같이 사용자 보상에 상응하는 음표를 이용하여 영화 컨텐츠를 다운로드하거나 또는 구매하여 재생할 수 있다.For example, as shown in FIG. 13, movie contents can be downloaded or purchased and reproduced using a note corresponding to user compensation.

도 14는 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 툴을 이용한 광고 제공 방법을 나타낸 동작흐름도이다. 14 is a flowchart illustrating an advertisement providing method using a stereophonic content authoring tool according to an embodiment of the present invention.

도 14를 참조하면, 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 툴을 이용한 광고 제공 방법은 모바일 단말을 통해 재생되는 영상에 동기되는 오디오에, 바이너럴(binaural) 효과를 적용하기 위한 비주얼 인터페이스를 제공한다(S1410).Referring to FIG. 14, an advertisement providing method using a stereophonic content authoring tool according to an embodiment of the present invention includes a visual interface for applying a binaural effect to audio synchronized with an image reproduced through a mobile terminal, (S1410).

이 때, 바이너럴(binaural) 효과는, 사용자가 헤드폰이나 이어폰으로 오디오를 들을 때 마치 오디오의 음상이 외부에 위치하는 것처럼 입체적인 음향 효과를 제공하는 것이다. 따라서, 바이너럴 효과가 적용된 오디오를 포함하는 컨텐츠는 일반 컨텐츠보다 실감나고 현장감 있는 경험을 사용자에게 제공해줄 수 있다.In this case, the binaural effect provides a three-dimensional sound effect as if the audio image is located outside when the user is listening to the audio through the headphone or earphone. Therefore, the contents including the audio with the binary effect can provide the user with a more realistic and realistic experience than the general contents.

이 때, 영상은 모바일 단말에 저장된 영상에 상응할 수 있다. 예를 들어, 영상은 모바일 단말에 설치된 카메라를 통해 사용자가 직접 촬영한 영상이거나 또는 네트워크를 기반으로 다운로드받는 영상에 해당할 수 있다.At this time, the image may correspond to the image stored in the mobile terminal. For example, the image may correspond to a user's own image captured through a camera installed in the mobile terminal or an image downloaded based on the network.

이 때, 비주얼 인터페이스는 입체 음향 컨텐츠를 저작하고 광고 컨텐츠를 제공하기 위한 어플리케이션의 실행을 기반으로 제공될 수 있으므로 어플리케이션을 실행할 수 있는 모바일 단말을 통해 제공될 수 있다.At this time, the visual interface can be provided through a mobile terminal capable of executing an application because it can be provided based on execution of an application for authoring stereoscopic contents and providing advertisement contents.

이 때, 모바일 단말은 네트워크를 기반으로 데이터 통신을 수행 가능한 단말에 상응할 수 있다.At this time, the mobile terminal may correspond to a terminal capable of performing data communication based on the network.

예를 들어, 모바일 단말은 네트워크와 같은 통신망을 통해 입체 음향 컨텐츠 저작과 광고 컨텐츠 제공을 위해 필요한 정보를 송수신할 수 있다. 특히, 본 발명에서는 네트워크를 기반으로 서버로부터 어플리케이션 및 광고 컨텐츠 등을 획득할 수 있다. For example, a mobile terminal can transmit and receive information necessary for stereophonic content authoring and advertisement content provision through a communication network such as a network. Particularly, in the present invention, applications and advertisement contents can be obtained from a server based on a network.

또한, 모바일 단말은 중앙연산 처리장치에 상응하는 프로세서를 기반으로 메모리에 저장된 어플리케이션을 실행시켜 입체 음향 컨텐츠 저작과 함께 광고 컨텐츠를 제공할 수 있다. In addition, the mobile terminal can execute an application stored in a memory based on a processor corresponding to the central processing unit to provide stereoscopic content and advertisement contents.

이 때, 모바일 단말의 메모리에는 운영체제(Operating System, OS)와 함께 본 발명의 일실시예에 따른 어플리케이션을 포함한 각종 어플리케이션들이 저장될 수 있다. 따라서, 본 발명의 일실시예에 따른 어플리케이션은 모바일 단말에 설치되어 실행되는 컴퓨터 프로그램에 상응할 수 있다.At this time, various applications including an application according to an embodiment of the present invention can be stored in the memory of the mobile terminal together with an operating system (OS). Accordingly, an application according to an embodiment of the present invention may correspond to a computer program installed and executed in a mobile terminal.

또한, 모바일 단말의 메모리는 본 발명의 실시예에 따른 광고 제공을 위한 기능을 지원할 수 있다. 이 때, 메모리는 별도의 대용량 스토리지로 동작할 수 있고, 동작 수행을 위한 제어 기능을 포함할 수도 있다. 일 구현예의 경우, 메모리는 컴퓨터로 판독 가능한 매체이다. 일 구현 예에서, 메모리는 휘발성 메모리 유닛일 수 있으며, 다른 구현예의 경우, 메모리는 비휘발성 메모리 유닛일 수도 있다. 다양한 서로 다른 구현 예에서, 메모리는 예컨대 하드디스크 장치, 광학디스크 장치, 혹은 어떤 다른 대용량 저장장치를 포함할 수도 있다.In addition, the memory of the mobile terminal may support a function for providing an advertisement according to an embodiment of the present invention. At this time, the memory may operate as a separate mass storage and may include control functions for performing operations. In one implementation, the memory is a computer-readable medium. In one implementation, the memory may be a volatile memory unit, and in other embodiments, the memory may be a non-volatile memory unit. In various different implementations, the memory may include, for example, a hard disk device, an optical disk device, or any other mass storage device.

또한, 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 툴을 이용한 광고 제공 방법은 비주얼 인터페이스를 기반으로 바이너럴 효과가 적용된 입체 음향 컨텐츠를 렌더링하는 동안, 렌더링 상태 피드백과 함께 광고 컨텐츠를 제공한다(S1420).Also, an advertisement providing method using a stereophonic content authoring tool according to an exemplary embodiment of the present invention provides advertisement contents along with rendering status feedback while rendering stereophonic contents applied with a binary effect based on a visual interface S1420).

예를 들어, 도 3 내지 도 4에 도시된 것과 같이 렌더링 상태 피드백(320, 420)과 함께 광고 컨텐츠(310, 410)를 제공할 수 있다.For example, advertisement content 310, 410 may be provided along with rendering status feedback 320, 420 as shown in FIGS. 3-4.

이 때, 렌더링 상태 피드백(320, 420)을 통해 현재까지의 렌더링 진행 정보를 제공할 수 있다. 이 때, 렌더링 상태 피드백(320, 420)은 도 3 내지 도 4에 도시된 형태들에 한정되지 않고, 사용자가 쉽게 인지할 수 있는 다양한 방법으로 제공될 수 있다.At this time, it is possible to provide the rendering progress information up to the present through the rendering state feedback 320, 420. At this time, the rendering state feedbacks 320 and 420 are not limited to the shapes shown in FIGS. 3 to 4, but may be provided in various ways that the user can easily recognize.

이 때, 렌더링은 비주얼 인터페이스에 대한 터치 입력을 기반으로 생성되고, 영상에 동기되는 메타데이터를 기반으로 수행될 수 있다.At this time, the rendering may be performed based on the touch input to the visual interface and based on the metadata that is synchronized with the image.

예를 들어, 메타데이터는 비주얼 인터페이스에 대한 터치 입력 값을 기반으로 생성될 수 있다. 즉, 모바일 단말의 사용자는 영상에 포함된 객체의 움직임을 보면서 비주얼 인터페이스를 조작하여 영상에 동기된 오디오의 음상을 조절할 수 있다. For example, the metadata may be generated based on a touch input value to the visual interface. That is, the user of the mobile terminal can control the sound image of the audio synchronized with the image by operating the visual interface while watching the motion of the object included in the image.

이 때, 터치 입력 값은 멀티터치 입력 값일 수 있다. 3차원 좌표상의 위치를 효과적으로 지정하기 위해서는 화면상의 싱글 포인트를 설정하는 싱글 터치로는 부족하고, 화면상의 복수개의 포인트들을 동시에 설정할 수 있는 멀티 터치가 필요할 수 있다.At this time, the touch input value may be a multi-touch input value. In order to effectively specify a position on a three-dimensional coordinate, a single touch for setting a single point on the screen is not sufficient, and a multi-touch capable of simultaneously setting a plurality of points on the screen may be required.

즉, 멀티 터치가 지원되지 않는 경우나 화면에 대한 터치 입력이 아닌 키보드나 마우스를 이용한 입력 값을 이용하여 메타데이터를 생성하는 경우에는 사용자가 영상을 보면서 직관적이면서도 효율적으로 메타데이터를 생성하기 어려울 수 있다.That is, when the multi-touch is not supported or when the metadata is generated by using the input values using the keyboard or the mouse instead of the touch input to the screen, it is difficult for the user to generate the metadata intuitively and efficiently while viewing the image have.

이 때, 본 발명의 일실시예에 따른 광고 제고 방법은 터치 입력에 즉각적으로 반응하여 바이너럴 효과가 적용된 피드백 오디오를 출력할 수 있다.In this case, the advertisement enhancement method according to an embodiment of the present invention can output feedback audio to which a binary effect is applied by immediately reacting to a touch input.

이 때, 피드백 오디오는 메타데이터를 기반으로 바이너럴 효과가 적용되어 있지 않은 기존의 오디오를 변형한 것에 상응할 수 있다. 즉, 사용자에 의한 터치 입력이 발생하면, 이에 상응하게 생성되는 메타데이터를 실시간으로 반영하여 피드백 오디오를 출력해줄 수 있다. 만약, 즉각적으로 피드백 오디오가 출력되지 않는다면, 사용자는 렌더링이 완료될 때까지 자신이 변형한 오디오를 들을 수 없기 때문에 영상과 대응하지 않도록 바이너럴 효과가 적용될 수도 있다. At this time, the feedback audio may correspond to a modification of the existing audio on which the binary effect is not applied based on the metadata. That is, when the touch input by the user occurs, the feedback audio can be output by reflecting the generated metadata in real time. If immediate feedback audio is not output, the user may apply a binary effect so that it does not correspond to the image because the user can not hear the modified audio until rendering is complete.

따라서, 본 발명에서는 즉각적으로 피드백 오디오를 출력해줌으로써 사용자가 영상에 포함된 객체의 움직임에 대응하여 터치 입력을 수행하도록 할 수 있다. Accordingly, in the present invention, the feedback audio is immediately output, so that the user can perform the touch input corresponding to the motion of the object included in the image.

이 때, 바이너럴 효과가 적용된 피드백 오디오는 이어폰이나 헤드폰과 같이 사용자가 바이너럴 효과에 따른 입체감을 느낄 수 있는 외부 음향 기기를 통해 출력될 수 있다.At this time, the feedback audio to which the binary effect is applied can be output through an external sound device such as an earphone or a headphone, which allows the user to feel a stereoscopic effect due to a binary effect.

이 때, 메타데이터는 바이너럴 효과에 상응하는 음상의 삼차원 위치에 상응할 수 있다. 이 때, 음상의 삼차원 위치는 바이너럴 효과를 느끼는 모바일 단말의 사용자를 기준으로 할 수 있다.At this time, the metadata may correspond to the three-dimensional position of the sound image corresponding to the binary effect. In this case, the three-dimensional position of the sound image may be based on the user of the mobile terminal experiencing the binary effect.

예를 들어, 본 발명에 따른 음상의 삼차원 위치는 사용자의 머리를 기준으로 하는 반구 형태의 3차원 공간 상에 나타낼 수 있다. 따라서, 바이너럴 효과가 적용된 오디오의 경우, 사용자를 기준으로 360도에서 입체적으로 소리가 들리는 효과를 제공할 수 있다.For example, the three-dimensional position of the sound image according to the present invention can be displayed on a hemispherical three-dimensional space with respect to the user's head. Therefore, in the case of the audio with the binary effect, it is possible to provide a three-dimensional sound effect at 360 degrees based on the user.

이와 같이, 본 발명에서는 X축, Y축, Z축을 이용하는 삼차원 공간 상에 음상을 배치함으로써 기존의 음향 기술보다 깊은 몰입감을 제공할 수 있다.As described above, in the present invention, the sound image is arranged on the three-dimensional space using the X-axis, the Y-axis, and the Z-axis to provide a deeper feeling of immersion than the conventional sound technique.

이 때, 본 발명의 일실시예에 따른 비주얼 인터페이스는 음상의 2차원 평면상의 위치를 지정하기 위한 제1 인터페이스 및 음상의 2차원 평면에 수직한 직선상에 위치를 지정하기 위한 제2 인터페이스를 포함하고, 삼차원 위치는 제1 인터페이스에 대한 사용자의 제1 입력 및 제2 인터페이스에 대한 사용자의 제2 입력을 조합하여 생성될 수 있다. At this time, the visual interface according to an embodiment of the present invention includes a first interface for designating the position on the two-dimensional plane of the sound image and a second interface for specifying the position on the straight line perpendicular to the two-dimensional plane of the sound image And the 3D position may be generated by combining the user's first input to the first interface and the user's second input to the second interface.

예를 들어, 도 5를 참조하면, 사용자가 영상에 포함된 객체(500)의 움직임에 따라 제1 인터페이스(510)와 제2 인터페이스(520)를 조작할 수 있다. 이 때, 영상에 포함된 객체(500)가 이동하는 방향에 따라 제1 인터페이스(510)의 조작키와 제2 인터페이스(520)의 조작키를 터치 입력으로 이동시킬 수 있다. 이 때, 터치 입력에 따른 제1 입력과 제2 입력을 조합하여 생성된 삼차원 위치를 메타데이터로 기록할 수 있다. For example, referring to FIG. 5, the user may operate the first interface 510 and the second interface 520 according to the movement of the object 500 included in the image. At this time, an operation key of the first interface 510 and an operation key of the second interface 520 can be moved to the touch input according to the direction in which the object 500 included in the image moves. At this time, the three-dimensional position generated by combining the first input and the second input according to the touch input can be recorded as metadata.

이 때, 비주얼 인터페이스는 도 5에 도시된 형태에 한정되지 않으며, 음상의 3차원 위치를 입력 가능한 다양한 형태로 제공될 수 있다.At this time, the visual interface is not limited to the form shown in FIG. 5, and can be provided in various forms in which the three-dimensional position of the sound image can be input.

이 때, 비주얼 인터페이스에 포함된 모드변경 버튼을 기반으로 피드백 오디오에 의한 영상을 플레이하는 플레이 모드나 비주얼 인터페이스에 의해 음상의 위치를 조절하기 위한 편집 모드 중 어느 하나의 모드를 선택적으로 제공할 수도 있다. 이 때, 모드변경 버튼은 토글(toggle) 방식으로 동작할 수 있다.At this time, it is possible to selectively provide any one of a play mode for playing the image by the feedback audio based on the mode change button included in the visual interface or an edit mode for adjusting the position of the sound image by the visual interface . At this time, the mode change button can be operated in a toggle manner.

이 때, 비주얼 인터페이스는 메타데이터에 상응하는 음상을 영상에 오버레이하여 실시간으로 표시할 수 있다. At this time, the visual interface can overlay the image corresponding to the meta data on the image and display it in real time.

예를 들어, 사용자가 제1 인터페이스와 제2 인터페이스를 조작하여 변화하는 음상을 영상에 보여지는 객체에 오버레이하여 표시해줄 수 있다. 이 때, 사용자가 터치 입력을 기반으로 제1 인터페이스나 제2 인터페이스를 조작하는 경우, 음상의 위치도 실시간으로 이동시키면서 보여줄 수도 있다.For example, a user can manipulate the first interface and the second interface to overlay and display the changed sound image on an object displayed in the image. In this case, when the user operates the first interface or the second interface based on the touch input, the position of the sound image may be displayed while moving in real time.

이 때, 메타데이터에 상응하는 음상은 사용자의 머리 위치를 기준으로 설정된 반구상의 위치로 표현될 수도 있다.At this time, the sound image corresponding to the meta data may be expressed as a hemispheric position set with reference to the head position of the user.

예를 들어, 음상 트래킹 인터페이스를 통해 변화하는 음상을 트래킹하며 음상의 위치를 보여줄 수도 있다. 이 때, 음상 트래킹 인터페이스는 사용자의 머리 위치를 기준으로 생성된 반구상의 공간에 상응하는 형태로 제공될 수 있다. 이 때, 음상의 3차원 위치를 보다 직관적으로 식별할 수 있도록 사용자 머리의 방향을 회전하면서 음상을 표시할 수도 있다. For example, the sound track tracking interface can track changing sound images and show the location of sound images. At this time, the sound image tracking interface may be provided in a form corresponding to the hemispherical space created based on the user's head position. At this time, the sound image may be displayed while rotating the direction of the user's head so as to more intuitively identify the three-dimensional position of the sound image.

이 때, 비주얼 인터페이스는 영상의 객체 중 음상에 상응하는 객체를 하이라이트하는 객체 트래킹 인터페이스를 포함할 수 있다.At this time, the visual interface may include an object tracking interface for highlighting the object corresponding to the sound image among the objects of the image.

이 때, 객체 트래핑 인터페이스는 영상의 객체 중 오디오와의 상관성을 기반으로 음상에 상응하는 객체를 결정할 수 있다. 즉, 영상에 동기되는 오디오가 크게 변화하는 순간, 영상 내의 객체의 변화를 고려하여 오디오의 변화에 상관성이 높다고 판단되는 객체를 음상에 상응하는 객체로 결정할 수 있다.At this time, the object trapping interface can determine the object corresponding to the sound image based on the correlation with the audio among the objects of the image. That is, at a moment when the audio synchronized with the video changes significantly, the object determined to be highly correlated with the audio change can be determined as the object corresponding to the sound image, taking into consideration the change of the object in the image.

예를 들어, 객체 트래킹 인터페이스는 영상에 동기되는 오디오가 기설정된 기준 변화량 이상 변화하는 시점에서 새롭게 등장하는 객체를 음상에 상응하는 객체로 판단하고 하이라이트 할 수 있다. For example, the object tracking interface can judge and highlight a newly emerging object as an object corresponding to a sound image at a time when audio synchronized with the image changes by a predetermined reference change amount or more.

또한, 객체 트래핑 인터페이스는 음상에 상응하게 인식된 객체의 움직임에 따라 음상의 위치도 그에 상응하게 변경시킬 수도 있다. 즉, 사용자가 비주얼 인터페이스를 조작하여 직접 음상을 변경하지 않아도, 객체 트래핑 인터페이스를 통해 인식된 음상에 상응하는 객체를 트래킹하면서 자동으로 음상에 대한 메타데이터가 생성되도록 할 수도 있다.The object trapping interface may also change the position of the sound image correspondingly to the motion of the recognized object corresponding to the sound image. That is, even if the user does not directly change the sound image by manipulating the visual interface, it is possible to automatically generate the metadata for the sound image while tracking the object corresponding to the sound image recognized through the object trapping interface.

이 때, 본 발명의 일실시예에 따른 메타데이터는 모바일 단말에서 재생되는 영상에 동기되어 생성될 수 있다.At this time, the metadata according to an embodiment of the present invention can be generated in synchronization with an image reproduced in the mobile terminal.

예를 들어, 도 6에 도시된 것과 같이 영상을 재생하는 동안 생성된 메타데이터(620-1~620-N)를 각각 터치 입력 시점에 재생된 영상의 프레임(610-1~610-N)에 매칭시켜 메타데이터와 영상을 동기화할 수 있다.For example, as shown in FIG. 6, the metadata 620-1 to 620-N generated during the reproduction of the image may be respectively recorded in the frames 610-1 to 610-N of the reproduced image at the touch input point It is possible to synchronize metadata and video by matching.

이 때, 본 발명의 일실시예에 따른 입체 음향 컨텐츠는 모바일 단말을 통해 재생 가능한 컨텐츠에 상응할 수 있으며, 사용자가 입체 음향 컨텐츠를 시청하는 경우에 마치 사용자의 주위로 여러 개의 스피커가 설치되어있는 환경에서 오디오가 출력되는 것과 같은 음향 효과를 느낄 수 있다.In this case, the stereophonic contents according to an embodiment of the present invention may correspond to contents that can be reproduced through the mobile terminal, and when a user views stereophonic contents, a plurality of speakers are installed around the user It is possible to feel the same sound effect as when the audio is outputted in the environment.

이 때, 바이너럴 효과가 적용된 오디오는 레프트 채널 및 라이트 채널에 상응하는 2채널 오디오일 수 있다. 따라서, 2채널 오디오만을 지원하는 단말이나 디바이스에서도 마치 5.1 채널이나 10.2 채널과 같은 음향 효과를 느낄 수 있는 입체 음향 컨텐츠를 제공할 수 있다.In this case, the audio to which the binary effect is applied may be two channel audio corresponding to the left channel and the right channel. Therefore, a terminal or a device that supports only 2-channel audio can provide stereophonic contents that can feel a sound effect like 5.1 channel or 10.2 channel.

이 때, 본 발명의 일실시예에 따른 바이너럴 효과가 적용된 오디오는 기존의 이용되는 기술 및 향후 개발 가능한 기술을 적용하여 생성될 수 있다. At this time, the audio to which the binary effect according to an embodiment of the present invention is applied can be generated by applying existing technologies and technologies that can be developed in the future.

한국등록공보 10-1599554에는 MPEG 서라운드(MPEG Surround)라는 국제 표준의 다채널 오디오 부호화 기술을 기반으로 3차원 바이너럴 신호를 출력하는 내용을 개시하고 있다. 10-1599554에서는 MPEG-Surround(MPS) 국제 표준을 기반으로 멀티채널 오디오 재생특성 파라미터를 추출하고, 오디오 재생특성 파라미터를 이용하여 다운믹스 오디오 신호에 대해 HRTF(Head Related Transfer function) 필터링을 수행하여 3D 바이너럴 신호를 출력하는 내용을 개시하고 있다. 여기서, HRTF 필터링은 인간의 청각기관을 모델링한 더미 헤더 마이크를 이용하여 360도의 방위각과 180도의 고도각 사이를 특정 간격을 두고 각각의 위치에 대한 좌우 양쪽의 임펄스 응답을 구하는 필터링일 수 있다.Korean Registered Patent Publication No. 10-1599554 discloses a method for outputting a three-dimensional binary signal based on a multi-channel audio encoding technology of MPEG standard called " MPEG Surround ". 10-1599554 extracts multichannel audio reproduction characteristic parameters based on the MPEG-Surround (MPS) international standard, performs HRTF (Head Related Transfer function) filtering on the downmix audio signal using the audio reproduction characteristic parameters, And outputs a binary signal. Here, the HRTF filtering may be filtering using the dummy header microphones modeled by the human auditory organ to obtain impulse responses on both sides of the respective positions with a specific interval between the azimuth angle of 360 degrees and the altitude angle of 180 degrees.

이 때, 멀티채널 오디오 재생특성 파라미터는 주파수 대역 별 전후방 채널 신호의 출력 레벨 차에 대한 것으로, MPEG-Surround(MPS) 국제 표준에서 다채널 오디오 신호를 입력 받아 두 귀 사이의 소리 크기 차이와 채널 사이의 상관도 등으로 표현되는 공간 파라미터를 기반으로 추출될 수 있다.In this case, the multi-channel audio reproduction characteristic parameter relates to the output level difference of the front and rear channel signals according to the frequency band. In the MPEG-Surround (MPS) international standard, a multi-channel audio signal is received, And the like, and the like.

또한, 한국등록공보 10-0971700에는 가상음원의 위치정보와 각 채널 별 바이노럴 필터 계수에 기초하여 좌/우 오디오 신호를 주파수 영역에서 필터링하고, 필터링된 신호를 바이노럴 스테레오 신호로 복호화하는 내용을 개시하고 있다. 이 때, 입력되는 시간 영역의 스테레오 좌/우 오디오 신호를 DFT(Discrete Fourier Transform) 또는 FFT(Fast Fourier Transform)를 이용하여 주파수 영역의 신호로 변환하고, 가상음원의 위치정보를 기반으로 할당된 서브밴드 별 각 채널의 파워 이득 값과 각 채널에 대한 주파수 영역의 좌/우 HRTF 계수 블록에 기초하여 주파수 영역에 상응하는 스테레오 좌/우 신호를 바이노럴 스테레오 신호로 필터링할 수 있다. In Korean Registered Patent Publication No. 10-0971700, left and right audio signals are filtered in the frequency domain based on the position information of virtual sound sources and binaural filter coefficients for each channel, and the filtered signals are decoded into binaural stereo signals The contents are disclosed. At this time, the stereo left / right audio signal in the input time domain is converted into a frequency domain signal by using DFT (Discrete Fourier Transform) or FFT (Fast Fourier Transform), and the sub- The binaural stereo signal can be used to filter the stereo left / right signal corresponding to the frequency domain based on the power gain value of each channel for each band and the left / right HRTF coefficient block of the frequency domain for each channel.

이 때, 가상음원의 위치정보(VSLI: Virtual Source Location Information) 기반의 공간 큐 정보를 합성하여 서브밴드 별 각 채널의 파워 이득값을 산출할 수 있고, 스테레오 신호에 대한 VSLI 기반의 공간 큐 정보는 임의의 서브밴드(m)에 대하여, 좌측반면각(LHA: Left Half-plane Angle)(LHA(m)), 좌측보조평면각(LSA: Left Subsequent Angle)(LSA(m)), 우측반면각(RHA: Right Half-plane Angle)(RHA(m)) 및 우측보조평면각(RSA: Right Subsequent Angle)(RSA(m))을 포함할 수 있다.In this case, the power gain value of each channel can be calculated by combining spatial cue information based on VSLI (Virtual Source Location Information), and VSLI-based spatial queue information for a stereo signal The left half-plane angle (LHA (m)), the left subconscious angle (LSA (LSA (m)) and the right half angle (LSA RHA (Right Half-Plane Angle) RHA (m) and Right Subsequent Angle (RSA (m)).

따라서, 본 발명에서도 상기와 같은 기술을 기반으로 메타데이터에 상응하게 바이너럴 효과가 적용된 오디오를 생성할 수 있다. Accordingly, in the present invention, it is also possible to generate audio to which a binary effect is applied according to the metadata based on the above-described technique.

예를 들어, MPEG-Surround(MPS) 국제 표준을 기반으로 영상에 동기되는 오디오에 대한 공간 파라미터를 추출하고, 메타데이터에 상응하는 음원의 삼차원 위치와 공간 파라미터를 기반으로 오디오에 대해 HRTF(Head Related Transfer function) 필터링을 수행함으로써 바이너럴 효과가 적용된 오디오 신호를 생성할 수 있다.For example, spatial parameters for audio synchronized to an image are extracted based on the MPEG-Surround (MPS) international standard, and HRTF (Head Related) is calculated for the audio based on the 3D position and spatial parameters of the sound source corresponding to the metadata. Transfer function filtering can be performed to generate an audio signal with a binary effect.

다른 예를 들어, 영상에 동기되는 오디오를 주파수 영역의 스테레오 좌/우 오디오 신호로 변환하고, 메타데이터에 상응하는 위치정보를 기반으로 공간 큐 정보를 합성하여 서브밴드 별 각 채널의 파워 이득값을 산출한 뒤 각 채널에 대한 주파수 영역의 좌/우 HRTF 계수 블록에 기초하여 바이너럴 효과가 적용된 오디오를 생성할 수 있다.In another example, the audio synchronized with the image is converted into a stereo left / right audio signal in the frequency domain, and the spatial cue information is synthesized based on the position information corresponding to the metadata, And then generate a binarized audio based on the left / right HRTF coefficient block in the frequency domain for each channel.

이 때, 렌더링을 통해 영상, 바이너럴 효과가 적용된 오디오 및 부가 데이터를 포함하는 컨테이너가 생성되고, 영상 및 바이너럴 효과가 적용된 오디오는 동기 될 수 있다. At this time, a container including an image, audio and binary data to which a binary effect is applied and additional data is generated through rendering, and audio with a binary effect can be synchronized.

예를 들어, 도 7을 참조하면, 본 발명의 일실시예에 따른 비주얼 인터페이스에 대한 터치 입력을 기반으로 영상(711) M1에 동기되는 오디오(712) S1에 대한 메타데이터(720)를 생성하였다고 가정할 수 있다. 이 때, 본 발명의 일실시예에 따른 광고 제고 방법은 영상(711) M1에 동기되는 오디오(712) S1과 메타데이터(720)를 이용하여 바이너럴 효과가 적용된 오디오(721) S2를 생성할 수 있고, 렌더링을 수행하여 영상(711) M1, 바이너럴 효과가 적용된 오디오(721) S2 및 부가 데이터(730)를 포함하는 컨테이너(740)를 생성할 수 있다. For example, referring to FIG. 7, the metadata 720 for the audio 712 S1 to be synchronized with the image 711 M1 is generated based on the touch input to the visual interface according to an embodiment of the present invention Can be assumed. At this time, the advertisement enhancement method according to an embodiment of the present invention generates an audio 721 S2 to which a binary effect is applied by using the audio 712 S1 and the metadata 720 synchronized with the image 711 M1 And may perform rendering to create a container 740 containing the image 711, the audio 721 S2 and the additional data 730 with the binarized effect.

이 때, 부가 데이터(730)는 입체 음향 컨텐츠의 포맷에 관련된 정보나 렌더링을 위한 파라미터 등을 포함할 수 있다. In this case, the additional data 730 may include information related to the format of stereophonic contents, parameters for rendering, and the like.

이 때, 비주얼 인터페이스에 대한 터치 입력을 기반으로 렌더링을 시작할 수 있다. At this time, the rendering can be started based on the touch input to the visual interface.

예를 들어, 사용자가 비주얼 인터페이스에 포함된 저장 버튼(SAVE)을 터치하는 경우, 입체 음향 컨텐츠를 생성하기 위한 렌더링을 시작할 수 있다. 이 때, 렌더링되어 생성된 입체 음향 컨텐츠는 입체 음향 컨텐츠 저작 어플리케이션을 기반으로 모바일 단말에 저장될 수 있다.For example, when the user touches the save button (SAVE) included in the visual interface, the user can start rendering to generate stereophonic content. At this time, the rendered stereoscopic sound content can be stored in the mobile terminal based on the stereoscopic sound content authoring application.

이 때, 렌더링은 바이너럴 효과가 적용된 오디오(721) S2를 생성하는 과정과 함께 수행될 수도 있다.At this time, the rendering may be performed together with the process of generating the audio effect 721 S2 to which the binary effect is applied.

또한, 사용자가 렌더링을 수행하지 않고 비주얼 인터페이스를 정지 또는 종료하는 경우, 현재까지 생성된 메타데이터를 보관하거나 또는 삭제할 수도 있다. In addition, when the user stops or ends the visual interface without performing rendering, the generated metadata may be stored or deleted.

예를 들어, 사용자가 비주얼 인터페이스에 포함된 정지 버튼(PAUSE)을 터치하는 경우, 현재까지 생성된 메타데이터를 영상과 함께 저장하여 보관할 수도 있다.For example, when the user touches the stop button PAUSE included in the visual interface, the metadata generated so far may be stored and stored together with the image.

다른 예를 들어, 사용자가 비주얼 인터페이스에 포함된 종료 버튼(End) 또는 나가기 버튼(EXIT)을 터치하는 경우, 현재까지 생성된 메타데이터를 삭제하고 비주얼 인터페이스를 종료할 수도 있다.For example, when the user touches the end button (End) or the exit button (EXIT) included in the visual interface, the generated metadata may be deleted and the visual interface may be terminated.

이 때, 광고 컨텐츠는 광고 컨텐츠 데이터베이스로부터 렌더링 소요 시간 인자 및 컨텐츠 프로파일 인자 중 적어도 하나를 기반으로 선택될 수 있다. At this time, the advertisement content may be selected based on at least one of the rendering time factor and the content profile factor from the advertisement content database.

또한, 광고 컨텐츠는 음원 위치 컨트롤 성향 인자를 더 고려하여 선택될 수 있다.Further, the advertisement contents can be selected in consideration of the sound source position control propensity factor.

예를 들어, 도 8에 도시된 것과 같이 광고 컨텐츠 데이터베이스(800)에 저장된 복수개의 광고 컨텐츠들 중에서 렌더링 소요 시간 인자(810), 컨텐츠 프로파일 인자(820) 및 음향 위치 컨트롤 성향 인자(830)를 기반으로 렌더링 시 출력될 광고 컨텐츠를 선택할 수 있다.For example, as shown in FIG. 8, among the plurality of advertisement contents stored in the advertisement content database 800, a rendering time factor 810, a content profile factor 820, and an acoustic location control propensity factor 830 It is possible to select an advertisement content to be output at the time of rendering.

이 때, 렌더링 소요 시간 인자는 영상에 상응하는 재생시간 및 영상에 상응하는 파일 사이즈 중 어느 하나 이상을 고려하여 산출될 수 있다. In this case, the rendering time factor may be calculated in consideration of one or more of the reproduction time corresponding to the image and the file size corresponding to the image.

예를 들어, 영상에 상응하는 재생시간이 길거나 영상에 상응하는 파일 사이즈가 클수록 렌더링에 소요되는 시간이 길어질 수 있다. 따라서, 이러한 경우, 광고 컨텐츠 데이터베이스(800)에 저장된 광고 컨텐츠들 중 비교적 시간이 긴 광고 컨텐츠를 선택하여 출력할 수 있다.For example, the longer the reproduction time corresponding to the image or the larger the file size corresponding to the image, the longer the time required for rendering may be. Therefore, in this case, it is possible to select and output the advertisement contents which are relatively long in the advertisement contents stored in the advertisement contents database 800.

이 때, 컨텐츠 프로파일 인자는 사용자가 입체 음향 컨텐츠를 렌더링한 히스토리를 기반으로 산출될 수 있다. At this time, the content profile parameter may be calculated based on the history of the user rendering stereoscopic contents.

예를 들어, 사용자가 주로 게임 영상에 대한 입체 음향 컨텐츠를 렌더링하는 경우, 사용자가 게임을 선호하는 것으로 판단하고, 광고 컨텐츠 데이터베이스(800)에 저장된 광고 컨텐츠들 중 게임 광고 컨텐츠를 선택하여 출력할 수 있다.For example, when the user mainly renders stereophonic contents for a game image, it is determined that the user prefers the game, and the user can select and output the game advertisement contents among the advertisement contents stored in the advertisement contents database 800 have.

이 때, 음원 위치 컨트롤 성향 인자는 메타데이터에 상응하는 음상의 위치 변화 값을 기반으로 산출될 수 있다. In this case, the sound source position control propensity factor can be calculated based on the position change value of the sound image corresponding to the meta data.

예를 들어, 사용자의 터치 입력에 의해 생성된 메타데이터에 상응하는 음상의 위치 변화가 큰 경우, 사용자가 움직임이 많은 입체적인 영상을 선호하는 것으로 판단하고, 광고 컨텐츠 데이터베이스(800)에 저장된 광고 컨텐츠들 중 장면 변화가 많거나 동적인 영상의 광고 컨텐츠를 선택하여 출력할 수 있다.For example, when the positional change of the sound image corresponding to the meta data generated by the user's touch input is large, it is determined that the user prefers a stereoscopic image having many movements, and the advertisement contents stored in the advertisement content database 800 It is possible to select and output the advertisement contents of the image having a large change in the scene or dynamic of the scenes.

따라서, 광고 컨텐츠 데이터베이스(800)는 재생시간, 컨텐츠 카테고리 및 정적/동적 컨텐츠 등을 고려하여 복수개의 광고 컨텐츠들을 저장 및 관리할 수 있다.Accordingly, the advertisement content database 800 can store and manage a plurality of advertisement contents in consideration of the reproduction time, the content category, and the static / dynamic content.

이 때, 본 발명의 일실시예에 따른 광고 컨텐츠는 모바일 단말 또는 어플리케이션을 제공하는 서버 중 어느 하나를 통해 선택될 수 있다. At this time, the advertisement contents according to an embodiment of the present invention can be selected through a mobile terminal or a server providing an application.

예를 들어, 모바일 단말에서 광고 컨텐츠를 선택하는 경우, 도 9에 도시된 것과 같이 모바일 단말(910)에 저장된 어플리케이션(911)이 광고 컨텐츠 메타데이터(912)를 기반으로 출력된 광고 컨텐츠를 선택할 수 있다. 이 때, 광고 컨텐츠 메타데이터(912)는 광고 컨텐츠 데이터베이스(900)에 저장된 복수개의 광고 컨텐츠들에 대한 메타 정보에 상응할 수 있다. 따라서, 모바일 단말(910)은 광고 컨텐츠 데이터베이스(900)에게 이미 선택된 광고 컨텐츠의 전송을 요청할 수 있고, 광고 컨텐츠 데이터베이스(900)는 요청에 상응하는 광고 컨텐츠를 모바일 단말(910)로 전송하여 어플리케이션(911)을 통해 제공할 수 있다.For example, when selecting the advertisement content in the mobile terminal, the application 911 stored in the mobile terminal 910 may select the advertisement content output based on the advertisement content metadata 912 as shown in FIG. 9 have. At this time, the advertisement content metadata 912 may correspond to meta information about a plurality of advertisement contents stored in the advertisement content database 900. [ Accordingly, the mobile terminal 910 may request the advertisement content database 900 to transmit the advertisement content already selected, and the advertisement content database 900 may transmit the advertisement content corresponding to the request to the mobile terminal 910, 911).

다른 예를 들어, 서버에서 광고 컨텐츠를 선택하는 경우, 도 10에 도시된 것과 같이 모바일 단말(1020)에서 서버(1010)에게 광고 컨텐츠를 선택하기 위해 고려될 관련 인자들, 즉 렌더링 소요 시간 인자, 컨텐츠 프로파일 인자 및 음원 위치 컨트롤 성향 인자 등을 전달할 수 있다. 이 후, 서버(1010)는 전달받은 관련 인자들을 이용하여 광고 컨텐츠 데이터베이스(1000)에 저장된 복수개의 광고 컨텐츠들 중 어느 하나의 광고 컨텐츠를 선택하여 모바일 단말(1020)로 제공할 수 있다. 이 후, 모바일 단말(1020)에서는 입체 음향 컨텐츠 저작과 광고 제공을 위한 어플리케이션을 통해 서버(1010)로부터 제공받은 광고 컨텐츠를 출력할 수 있다. In another example, when selecting ad content on the server, the relevancy factors to be considered for selecting ad content from the mobile terminal 1020 to the server 1010, such as the rendering time factor, Content profile parameters, and sound source location control propensity factors. Thereafter, the server 1010 may select any one of a plurality of advertisement contents stored in the advertisement content database 1000 and provide the selected advertisement contents to the mobile terminal 1020 using the transmitted related parameters. Thereafter, the mobile terminal 1020 can output the advertisement contents provided from the server 1010 through the application for stereoscopic sound content authoring and advertisement provisioning.

이 때, 광고 컨텐츠의 제공에 상응하는 사용자 보상을 제공하고, 사용자 보상을 다른 광고 컨텐츠를 스킵하는데 사용 가능할 수 있다.At this time, it may be possible to provide user compensation corresponding to the provision of advertisement contents, and to use the user compensation to skip other advertisement contents.

이 때, 사용자 보상은 광고 컨텐츠의 재생 시간을 고려하여 제공될 수 있다.At this time, the user compensation may be provided in consideration of the reproduction time of the advertisement contents.

예를 들어, 기설정된 기준 재생 시간이 5분이라고 가정할 수 있다. 만약, 도 11에 도시된 것과 같이 사용자가 입체 음향 컨텐츠를 렌더링하는 동안에 재생 시간이 5분 미만인 광고 컨텐츠를 시청한 경우, 사용자 보상에 상응하는 단위인 음표를 4개 제공할 수 있다. 그러나, 만약 사용자가 시청한 광고 컨텐츠의 재생 시간이 5분을 초과하는 경우, 2배의 보상에 상응하는 8개의 음표가 지급될 수도 있다. For example, it can be assumed that the preset reference playback time is 5 minutes. 11, when the user watches the advertisement contents having a reproduction time of less than 5 minutes while rendering the stereophonic contents, it is possible to provide four notes as a unit corresponding to the user compensation. However, if the playback time of the advertisement content viewed by the user exceeds 5 minutes, eight notes corresponding to double compensation may be provided.

이 때, 사용자 보상을 지급하는 기준은 본 발명의 일실시예에 따라 자유롭게 설정 및 변경할 수 있으며, 사용자 보상에 상응하는 단위도 음표에 한정되지 않는다.In this case, the criterion for paying the user compensation can be freely set and changed according to the embodiment of the present invention, and the unit degree corresponding to the user compensation is not limited to the note.

이 때, 사용자 보상은 다른 광고 컨텐츠를 스킵하는데 사용할 수 있다.At this time, the user compensation can be used to skip other advertisement contents.

예를 들어, 도 12를 참조하면, 본 발명의 일실시예에 따른 광고 제공 방법은 광고 컨텐츠를 스킵하기 위한 스킵 버튼(1210)을 제공할 수 있다. 만약, 모바일 단말의 사용자가 스킵 버튼(1210)을 터치하는 경우, 도 12에 도시된 것과 같은 스킵 안내 팝업(1220)을 통해 음표를 소비하여 광고를 스킵할지 여부를 사용자에게 선택하도록 할 수 있다. 이 때, 광고 컨텐츠를 스킵하기 위해 필요한 음표의 개수와 함께 현재 사용자가 보유한 음표의 개수를 함께 보여줄 수도 있다.For example, referring to FIG. 12, an advertisement providing method according to an embodiment of the present invention may provide a skip button 1210 for skipping advertisement contents. If the user of the mobile terminal touches the skip button 1210, the user may be prompted to skip the advertisement by consuming a note through the skip guide pop-up 1220 as shown in FIG. At this time, the number of notes required for skipping the advertisement contents may be displayed together with the number of notes held by the current user.

이 때, 사용자가 광고를 스킵할지 여부를 선택하는 동안, 광고 컨텐츠의 재생은 일시적으로 정지될 수 있지만 렌더링을 계속 수행될 수 있다.At this time, while the user selects whether to skip the advertisement, the reproduction of the advertisement contents can be temporarily stopped, but the rendering can be continued.

이 때, 광고 컨텐츠는 바이너럴 효과가 적용된 오디오를 포함할 수도 있다.At this time, the advertisement contents may include audio to which a binary effect is applied.

또한, 광고 컨텐츠는 모바일 단말에 대한 주변 기기 연결 상태에 따라 달라지는 오디오를 포함할 수 있다.In addition, the advertisement content may include audio that varies depending on the peripheral device connection status to the mobile terminal.

예를 들어, 본 발명의 일실시예에 따른 어플리케이션은 모바일 단말에 외부 음향기기가 연결되어 있는 경우에는 바이너럴 효과가 적용된 오디오를 포함하는 광고 컨텐츠를 제공하고, 모바일 단말에 외부 음향기기가 연결되어 있지 않은 경우에는 바이너럴 효과가 적용되지 않은 오디오를 포함하는 광고 컨텐츠를 제공할 수 있다.For example, an application according to an embodiment of the present invention provides advertisement contents including audio with a binary effect when an external audio equipment is connected to the mobile terminal, and an external audio equipment is connected to the mobile terminal It is possible to provide the advertisement contents including the audio to which the binary effect is not applied.

또한, 도 14에는 도시하지 아니하였으나, 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 툴을 이용한 광고 제공 방법은 상술한 바와 같이 광고 제공 과정에서 발생하는 다양한 정보를 별도의 저장 모듈에 저장할 수 있다.In addition, although not shown in FIG. 14, the advertisement providing method using the stereophonic content authoring tool according to an embodiment of the present invention may store various information generated in the advertisement providing process in a separate storage module .

이와 같은 광고 제공 방법을 통해, 입체 음향 컨텐츠 저작을 위한 서비스를 제공함과 동시에 서비스 제공자를 위해 광고 컨텐츠 제공에 따른 수익을 발생시킬 수도 있다.With such an advertisement providing method, it is possible to provide a service for authoring stereophonic contents and to generate revenue from providing advertisement contents for a service provider.

도 15는 본 발명의 일실시예에 따른 광고 제공 방법을 상세하게 나타낸 동작흐름도이다.15 is a flowchart illustrating an advertisement providing method according to an exemplary embodiment of the present invention.

도 15를 참조하면, 본 발명의 일실시예에 따른 광고 제공 방법은 먼저 모바일 단말에 설치된 입체 음향 컨텐츠 저작 툴, 즉 본 발명의 일실시예에 따른 어플리케이션이 실행되면(S1510), 어플리케이션에서 사용자에 의해 선택된 영상을 기반으로 비주얼 인터페이스를 제공할 수 있다(S1520).Referring to FIG. 15, an advertisement providing method according to an embodiment of the present invention is first performed when a stereophonic content authoring tool installed in a mobile terminal, that is, an application according to an embodiment of the present invention is executed (S1510) And provides a visual interface based on the image selected by the user (S1520).

이 때, 비주얼 인터페이스는 사용자에 의해 선택된 영상에 동기되는 오디오에 바이너럴 효과를 적용하기 위한 인터페이스들을 포함할 수 있다. At this time, the visual interface may include interfaces for applying a binary effect to the audio synchronized with the image selected by the user.

이 후, 사용자에 의해 렌더링 수행이 요청되면(S1530), 렌더링 소요 시간 인자, 컨텐츠 프로파일 인자 및 음원 위치 컨트롤 성향 인자를 고려하여 렌더링 시간 동안 제공될 광고 컨텐츠를 선택한다(S1540).If rendering is requested by the user (S1530), the advertisement content to be provided during the rendering time is selected in consideration of the rendering time factor, the content profile factor, and the sound source position control propensity factor in operation S1540.

이 때, 모바일 단말 또는 어플리케이션을 제공하는 서버 중 어느 하나가 광고 컨텐츠를 선택할 수 있다. At this time, either the mobile terminal or the server providing the application can select the advertisement contents.

이 후, 영상, 바이너럴 효과가 적용된 오디오 및 부가 데이터를 포함하는 컨테이너를 생성하는 렌더링을 수행함과 동시에 모바일 단말로 광고 컨텐츠를 출력한다(S1550).Thereafter, rendering is performed to generate a container including audio and additional data to which a video, a binary effect is applied, and at the same time, the advertisement content is output to the mobile terminal (S1550).

이 때, 영상과 바이너럴 효과가 적용된 오디오는 시간을 기준으로 동기화될 수 있다.At this time, the video and the audio to which the binary effect is applied can be synchronized with respect to time.

이 후, 렌더링과 함께 광고 컨텐츠가 함께 종료되면(S1560), 생성된 컨테이너에 상응하는 입체 음향 컨텐츠를 모바일 단말의 메모리에 저장할 수 있다(S1570).Thereafter, when the advertisement contents together with the rendering are concurrently terminated (S1560), the stereophonic contents corresponding to the created container can be stored in the memory of the mobile terminal (S1570).

이 때, 이어폰이나 헤드폰과 같은 외부 음향 기기가 연결된 모바일 단말에서 입체 음향 컨텐츠를 재생하는 경우, 마치 외부에 위치하는 오디오에서 소리가 나는 것처럼 실감나게 컨텐츠를 감상할 수 있다.In this case, when stereophonic contents are reproduced by a mobile terminal connected to an external sound apparatus such as an earphone or a headphone, it is possible to appreciate the contents realistically as if the sound exists in the external audio.

이상에서와 같이 본 발명에 따른 입체 음향 컨텐츠 저작 툴을 이용한 광고 제공 방법 및 이를 위한 어플리케이션은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.As described above, the method and apparatus for providing advertisement using stereophonic content authoring tool according to the present invention are not limited to the configuration and method of the embodiments described above, All or some of the embodiments may be selectively combined.

110, 910, 1020: 모바일 단말 120, 1010: 어플리케이션 서버
130: 광고 서버 140: 네트워크
310, 410: 광고 컨텐츠 320, 420: 렌더링 상태 피드백
500: 객체 510: 제1 인터페이스
520: 제2 인터페이스 610-1~610-N: 프레임
620-1~620-N, 720: 메타데이터 711: 영상
712: 오디오 721: 바이너럴 효과가 적용된 오디오
730: 부가데이터 740: 컨테이너
800, 900, 1000: 광고 컨텐츠 데이터베이스
810: 렌더링 소요 시간 인자 820: 컨텐츠 프로파일 인자
830: 음원 위치 컨트롤 성향 인자 911: 어플리케이션
912: 광고 컨텐츠 메타데이터 1110: 사용자 보상 제공 팝업
1210: 스킵 버튼 1220: 스킵 안내 팝업
1610: 통신부 1620: 프로세서
1630: 메모리
110, 910, 1020: mobile terminal 120, 1010: application server
130: advertisement server 140: network
310, 410: advertisement contents 320, 420: rendering status feedback
500: object 510: first interface
520: second interface 610-1 to 610-N: frame
620-1 to 620-N, 720: metadata 711: video
712: Audio 721: Audio with binaural effect
730: Additional data 740: Container
800, 900, 1000: Ad contents database
810: rendering time factor 820: content profile factor
830: Sound source location control propensity factor 911: Application
912: Advertisement content metadata 1110: User-provided compensation pop-up
1210: Skip button 1220: Skip guidance pop-up
1610: communication unit 1620: processor
1630: Memory

Claims (20)

모바일 단말을 통해 재생되는 영상에 동기되는 오디오에, 바이너럴(binaural) 효과를 적용하기 위한 비주얼 인터페이스를 제공하는 단계; 및
상기 비주얼 인터페이스를 기반으로 바이너럴 효과가 적용된 입체 음향 컨텐츠를 렌더링하는 동안, 렌더링 상태 피드백과 함께 광고 컨텐츠를 제공하는 단계
를 포함하는 것을 특징으로 하는 입체 음향 컨텐츠 저작 툴을 이용한 광고 제공 방법.
Providing a visual interface for applying a binaural effect to audio that is synchronized with an image played through a mobile terminal; And
Providing ad content along with rendering status feedback while rendering binaural sound content based on the visual interface;
The method of claim 1, further comprising:
청구항 1에 있어서,
상기 렌더링은
상기 비주얼 인터페이스에 대한 터치 입력을 기반으로 생성되고, 상기 영상에 동기되는 메타데이터를 기반으로 수행되는 것을 특징으로 하는 입체 음향 컨텐츠 저작 툴을 이용한 광고 제공 방법.
The method according to claim 1,
The rendering
Wherein the method is performed based on meta data generated based on a touch input to the visual interface and synchronized with the image.
청구항 2에 있어서,
상기 광고 컨텐츠는
광고 컨텐츠 데이터베이스로부터 렌더링 소요 시간 인자 및 컨텐츠 프로파일 인자 중 적어도 하나를 기반으로 선택되는 것을 특징으로 하는 입체 음향 컨텐츠 저작 툴을 이용한 광고 제공 방법.
The method of claim 2,
The advertisement content
Wherein the at least one content is selected based on at least one of a rendering time factor and a content profile factor from the advertisement content database.
청구항 3에 있어서,
상기 렌더링 소요 시간 인자는
상기 영상에 상응하는 재생시간 및 상기 영상에 상응하는 파일 사이즈 중 어느 하나 이상을 고려하여 산출되는 것을 특징으로 하는 입체 음향 컨텐츠 저작 툴을 이용한 광고 제공 방법.
The method of claim 3,
The rendering time factor
And a file size corresponding to the image. The method of claim 1, wherein the at least one of the at least one of the first,
청구항 3에 있어서,
상기 컨텐츠 프로파일 인자는
사용자가 상기 입체 음향 컨텐츠를 렌더링한 히스토리를 기반으로 산출되는 것을 특징으로 하는 입체 음향 컨텐츠 저작 툴을 이용한 광고 제공 방법.
The method of claim 3,
The content profile parameter
And the user is calculated based on a history of rendering the stereophonic contents.
청구항 3에 있어서,
상기 광고 컨텐츠는
음원 위치 컨트롤 성향 인자를 더 고려하여 선택되는 것을 특징으로 하는 입체 음향 컨텐츠 저작 툴을 이용한 광고 제공 방법.
The method of claim 3,
The advertisement content
And the sound source position control tendency factor is further taken into consideration.
청구항 6에 있어서,
상기 음원 위치 컨트롤 성향 인자는
상기 메타데이터에 상응하는 음상의 위치 변화 값을 기반으로 산출되는 것을 특징으로 하는 입체 음향 컨텐츠 저작 툴을 이용한 광고 제공 방법.
The method of claim 6,
The sound source position control propensity factor
And calculating the positional change value of the sound image corresponding to the meta data.
청구항 3에 있어서,
상기 광고 컨텐츠를 제공하는 단계는
상기 광고 컨텐츠의 제공에 상응하는 사용자 보상을 제공하고, 상기 사용자 보상은 다른 광고 컨텐츠를 스킵하는데 사용 가능한 것을 특징으로 하는 입체 음향 컨텐츠 저작 툴을 이용한 광고 제공 방법.
The method of claim 3,
The step of providing the advertisement content
And providing user compensation corresponding to the provision of the advertisement content, wherein the user compensation is available for skipping other advertisement content.
청구항 3에 있어서,
상기 광고 컨텐츠는
상기 바이너럴 효과가 적용된 오디오를 포함하는 것을 특징으로 하는 입체 음향 컨텐츠 저작 툴을 이용한 광고 제공 방법.
The method of claim 3,
The advertisement content
Wherein the audio effect includes audio applied with the binaural effect.
청구항 9에 있어서,
상기 광고 컨텐츠는
상기 모바일 단말에 대한 주변 기기 연결 상태에 따라 달라지는 오디오를 포함하는 것을 특징으로 하는 입체 음향 컨텐츠 저작 툴을 이용한 광고 제공 방법.
The method of claim 9,
The advertisement content
And audio depending on a connection state of a peripheral device to the mobile terminal.
청구항 9에 있어서,
상기 바이너럴 효과가 적용된 오디오는 레프트 채널 및 라이트 채널에 상응하는 2채널 오디오인 것을 특징으로 하는 입체 음향 컨텐츠 저작 툴을 이용한 광고 제공 방법.
The method of claim 9,
Wherein the audio to which the binary effect is applied is two-channel audio corresponding to a left channel and a right channel.
모바일 단말을 통해 재생되는 영상에 동기되는 오디오에, 바이너럴(binaural) 효과를 적용하기 위한 비주얼 인터페이스를 제공하는 단계; 및
상기 비주얼 인터페이스를 기반으로 바이너럴 효과가 적용된 입체 음향 컨텐츠를 렌더링하는 동안에 렌더링 상태 피드백과 함께 광고 컨텐츠를 제공하는 단계를 실행시키기 위한 컴퓨터로 판독 가능한 기록매체에 저장된 어플리케이션.
Providing a visual interface for applying a binaural effect to audio that is synchronized with an image played through a mobile terminal; And
And providing the advertisement content along with the rendering status feedback while rendering the binaural effected stereophonic content based on the visual interface.
청구항 12에 있어서,
상기 렌더링은
상기 비주얼 인터페이스에 대한 터치 입력을 기반으로 생성되고, 상기 영상에 동기되는 메타데이터를 기반으로 수행되는 것을 특징으로 하는 컴퓨터로 판독 가능한 기록매체에 저장된 어플리케이션
The method of claim 12,
The rendering
Wherein the metadata is generated based on a touch input to the visual interface, and is performed based on metadata that is synchronized with the image.
청구항 13에 있어서,
상기 광고 컨텐츠는
광고 컨텐츠 데이터베이스로부터 렌더링 소요 시간 인자 및 컨텐츠 프로파일 인자 중 적어도 하나를 기반으로 선택되는 것을 특징으로 하는 컴퓨터로 판독 가능한 기록매체에 저장된 어플리케이션
14. The method of claim 13,
The advertisement content
Wherein the at least one parameter is selected based on at least one of a rendering time factor and a content profile factor from an advertising content database.
청구항 14에 있어서,
상기 렌더링 소요 시간 인자는
상기 영상에 상응하는 재생시간 및 상기 영상에 상응하는 파일 사이즈 중 어느 하나 이상을 고려하여 산출되는 것을 특징으로 하는 컴퓨터로 판독 가능한 기록매체에 저장된 어플리케이션
15. The method of claim 14,
The rendering time factor
And a file size corresponding to the image. The computer-readable recording medium according to claim 1,
청구항 14에 있어서,
상기 컨텐츠 프로파일 인자는
사용자가 상기 입체 음향 컨텐츠를 렌더링한 히스토리를 기반으로 산출되는 것을 특징으로 하는 컴퓨터로 판독 가능한 기록매체에 저장된 어플리케이션
15. The method of claim 14,
The content profile parameter
Characterized in that the user is calculated on the basis of a history of rendering the stereophonic contents.
청구항 14에 있어서,
상기 광고 컨텐츠는
음원 위치 컨트롤 성향 인자를 더 고려하여 선택되는 것을 특징으로 하는 컴퓨터로 판독 가능한 기록매체에 저장된 어플리케이션
15. The method of claim 14,
The advertisement content
And the sound source position control propensity factor is further taken into consideration.
청구항 17에 있어서,
상기 음원 위치 컨트롤 성향 인자는
상기 메타데이터에 상응하는 음상의 위치 변화 값을 기반으로 산출되는 것을 특징으로 하는 컴퓨터로 판독 가능한 기록매체에 저장된 어플리케이션.
18. The method of claim 17,
The sound source position control propensity factor
Wherein the calculation is performed on the basis of the position change value of the sound image corresponding to the metadata.
청구항 14에 있어서,
상기 광고 컨텐츠는
상기 바이너럴 효과가 적용된 오디오를 포함하는 것을 특징으로 하는 컴퓨터로 판독 가능한 기록매체에 저장된 어플리케이션
15. The method of claim 14,
The advertisement content
Characterized in that it comprises audio with the binary effect applied thereto.
청구항 19에 있어서,
상기 광고 컨텐츠는
상기 모바일 단말에 대한 주변 기기 연결 상태에 따라 달라지는 오디오를 포함하는 것을 특징으로 하는 컴퓨터로 판독 가능한 기록매체에 저장된 어플리케이션.
The method of claim 19,
The advertisement content
And audio dependent on a peripheral device connection state to the mobile terminal.
KR1020170183511A 2017-12-28 2017-12-29 Method for providing advertisement using stereoscopic content authoring tool and application thereof KR20190081160A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020170183511A KR20190081160A (en) 2017-12-29 2017-12-29 Method for providing advertisement using stereoscopic content authoring tool and application thereof
PCT/KR2018/016673 WO2019132516A1 (en) 2017-12-28 2018-12-26 Method for producing stereophonic sound content and apparatus therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170183511A KR20190081160A (en) 2017-12-29 2017-12-29 Method for providing advertisement using stereoscopic content authoring tool and application thereof

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020180098189A Division KR20190082055A (en) 2018-08-22 2018-08-22 Method for providing advertisement using stereoscopic content authoring tool and application thereof

Publications (1)

Publication Number Publication Date
KR20190081160A true KR20190081160A (en) 2019-07-09

Family

ID=67261124

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170183511A KR20190081160A (en) 2017-12-28 2017-12-29 Method for providing advertisement using stereoscopic content authoring tool and application thereof

Country Status (1)

Country Link
KR (1) KR20190081160A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100971700B1 (en) 2007-11-07 2010-07-22 한국전자통신연구원 Apparatus and method for synthesis binaural stereo and apparatus for binaural stereo decoding using that
KR101599554B1 (en) 2009-03-23 2016-03-03 한국전자통신연구원 3 3d binaural filtering system using spectral audio coding side information and the method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100971700B1 (en) 2007-11-07 2010-07-22 한국전자통신연구원 Apparatus and method for synthesis binaural stereo and apparatus for binaural stereo decoding using that
KR101599554B1 (en) 2009-03-23 2016-03-03 한국전자통신연구원 3 3d binaural filtering system using spectral audio coding side information and the method thereof

Similar Documents

Publication Publication Date Title
JP7014176B2 (en) Playback device, playback method, and program
US20190139312A1 (en) An apparatus and associated methods
US10924875B2 (en) Augmented reality platform for navigable, immersive audio experience
US11570569B2 (en) Associated spatial audio playback
JP7192786B2 (en) SIGNAL PROCESSING APPARATUS AND METHOD, AND PROGRAM
RU2735095C2 (en) Audio processing device and method, and program
KR102500694B1 (en) Computer system for producing audio content for realzing customized being-there and method thereof
Binelli et al. Individualized HRTF for playing VR videos with Ambisonics spatial audio on HMDs
KR101235832B1 (en) Method and apparatus for providing realistic immersive multimedia services
JP6809463B2 (en) Information processing equipment, information processing methods, and programs
CN112673651B (en) Multi-view multi-user audio user experience
US20240129683A1 (en) Associated Spatial Audio Playback
EP3503558B1 (en) Audio content format selection
Comunità et al. Web-based binaural audio and sonic narratives for cultural heritage
KR102058228B1 (en) Method for authoring stereoscopic contents and application thereof
KR20190081163A (en) Method for selective providing advertisement using stereoscopic content authoring tool and application thereof
Gasull Ruiz et al. A description of an object-based audio workflow for media productions
KR20190082055A (en) Method for providing advertisement using stereoscopic content authoring tool and application thereof
Reed et al. Audio reproduction in virtual reality cinemas–Position paper
KR20190081160A (en) Method for providing advertisement using stereoscopic content authoring tool and application thereof
KR20190082056A (en) Method for selective providing advertisement using stereoscopic content authoring tool and application thereof
EP3321795B1 (en) A method and associated apparatuses
CA3044260A1 (en) Augmented reality platform for navigable, immersive audio experience
KR20190112563A (en) Method for editing stereo audio during playback and playback edited stereo audio based on pro-distortion and application thereof
KR101534295B1 (en) Method and Apparatus for Providing Multiple Viewer Video and 3D Stereophonic Sound

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E601 Decision to refuse application
A107 Divisional application of patent
E601 Decision to refuse application
E801 Decision on dismissal of amendment
J201 Request for trial against refusal decision
J301 Trial decision

Free format text: TRIAL NUMBER: 2018101004231; TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20181012

Effective date: 20191028