WO2019132516A1 - 입체 음향 컨텐츠 저작 방법 및 이를 위한 장치 - Google Patents

입체 음향 컨텐츠 저작 방법 및 이를 위한 장치 Download PDF

Info

Publication number
WO2019132516A1
WO2019132516A1 PCT/KR2018/016673 KR2018016673W WO2019132516A1 WO 2019132516 A1 WO2019132516 A1 WO 2019132516A1 KR 2018016673 W KR2018016673 W KR 2018016673W WO 2019132516 A1 WO2019132516 A1 WO 2019132516A1
Authority
WO
WIPO (PCT)
Prior art keywords
audio
image
user
time
interface
Prior art date
Application number
PCT/KR2018/016673
Other languages
English (en)
French (fr)
Inventor
박승민
박준서
곽남훈
Original Assignee
박승민
박준서
곽남훈
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020170182142A external-priority patent/KR102058228B1/ko
Priority claimed from KR1020170183514A external-priority patent/KR20190081163A/ko
Priority claimed from KR1020170183511A external-priority patent/KR20190081160A/ko
Application filed by 박승민, 박준서, 곽남훈 filed Critical 박승민
Publication of WO2019132516A1 publication Critical patent/WO2019132516A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/02Spatial or constructional arrangements of loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control

Definitions

  • the present invention relates to stereophonic content authoring technology, and more particularly, to a technique capable of applying a binary effect to the sound of an image reproduced through a mobile terminal.
  • a multi-channel method of inputting a sound output by using a plurality of speakers is used.
  • a system that realizes a stereo sound effect using a two-channel system using two speakers or headphones has been developed, but it is mainly a technique based on hardware.
  • an object of the present invention is to perform binarization to generate stereophonic contents using metadata of a touch input of a mobile terminal.
  • Another object of the present invention is to provide audio feedback in real time so that a user can manipulate the interface more easily in response to movement of an object.
  • Another object of the present invention is to provide an advertisement content considering a user's application usage history to improve an advertisement viewing rate.
  • a method of authoring a stereophonic sound content comprising: providing a visual interface for applying a binaural effect to audio synchronized with an image reproduced through a mobile terminal; Generating metadata to be synchronized with the video based on a touch input to the visual interface; And rendering the stereophonic contents including the audio to which the binary effect is applied based on the metadata.
  • the audio to which the binary effect is applied may be finally generated using two steps of generating the metadata and rendering the stereophonic contents performed after the generation of the metadata.
  • the step of generating the metadata and the step of rendering the stereophonic content are separate steps, and the step of rendering the stereophonic content may include the steps of:
  • the stereophonic contents can be generated in a non-real time manner with respect to the reproduction of the image.
  • the step of generating the metadata may output feedback audio that allows the user to immediately feel the touch input and apply the binary effect before the audio with the binary effect is generated.
  • the visual interface is provided to designate a position of the representative sound image representative of the specific playback point, which is set corresponding to a specific playback point of the image, by the user who feels the binary effect by the feedback audio
  • the position of the viewpoint representative sound image may be a position set based on the head of the user.
  • the visual interface includes a first interface for designating a position on the two-dimensional plane of the representative sound image at the specific playback point; And a second interface for specifying a position on a line perpendicular to the two-dimensional plane of the representative reproduction-time representative sound image, wherein the position of the specific reproduction-time representative sound image is a first input of the user for the first interface And a second input of the user to the second interface.
  • the visual interface may overlay the representative sound image corresponding to the metadata at a specific playback point on the image and display the real time image.
  • the sound image corresponding to the meta data may be represented by a hemispheric position set with reference to the head position of the user.
  • the visual interface may include an object tracking interface for highlighting an object corresponding to the sound image among the objects of the image.
  • the object tracking interface can determine an object corresponding to the sound image based on the correlation with the audio among the objects of the image.
  • the audio to which the binary effect is applied may be two channel audio corresponding to the left channel and the right channel.
  • a stereophonic content authoring application stored in a computer-readable recording medium includes a visual interface for applying a binaural effect to audio synchronized with an image reproduced through a mobile terminal ; And generating metadata to be synchronized with the video based on a touch input to the visual interface, and outputs feedback audio to which a binary effect is applied by immediately reacting with the touch input.
  • stereophonic contents including audio with a binary effect can be rendered based on the metadata.
  • a container including the image, the audio and the audio data to which the binary effect is applied and the additional data are generated through rendering, and the audio and the audio to which the binary effect is applied can be synchronized.
  • the metadata may correspond to the three-dimensional position of the sound image corresponding to the binary effect.
  • the visual interface includes a first interface for specifying a position on the two-dimensional plane of the sound image; And a second interface for specifying a position on a straight line perpendicular to the two-dimensional plane of the sound image, wherein the three-dimensional position is a first input of the user for the first interface and a second input for the user of the second interface for the second interface, Can be generated by combining the first and second inputs.
  • the visual interface can display an image corresponding to the metadata in real time by overlaying the image on the image.
  • the sound image corresponding to the meta data may be represented by a hemispheric position set with reference to the head position of the user.
  • the visual interface may include an object tracking interface for highlighting an object corresponding to the sound image among the objects of the image.
  • the object tracking interface can determine an object corresponding to the sound image based on the correlation with the audio among the objects of the image.
  • the audio to which the binary effect is applied may correspond to the two channel audio corresponding to the left channel and the right channel.
  • a method of providing an advertisement using a stereophonic content authoring tool including providing a visual interface for applying a binaural effect to audio synchronized with an image reproduced through a mobile terminal step; And providing the advertisement contents together with the rendering status feedback while rendering the stereophonic contents to which the binary effect is applied based on the visual interface.
  • the rendering may be performed based on the touch input to the visual interface and based on the metadata synchronized with the image.
  • the advertisement content may be selected based on at least one of the rendering time factor and the content profile factor from the advertisement content database.
  • the rendering time factor may be calculated in consideration of at least one of a reproduction time corresponding to the image and a file size corresponding to the image.
  • the content profile parameter may be calculated based on the history of the user rendering the stereophonic content.
  • the advertisement contents can be selected in consideration of the sound source position control propensity factor.
  • the sound source position control tendency factor may be calculated based on the position change value of the sound image corresponding to the metadata.
  • the step of providing advertisement contents may provide user compensation corresponding to the provision of the advertisement contents, and the user compensation may be available to skip other advertisement contents.
  • the advertisement contents may include the audio to which the binary effect is applied.
  • the advertisement contents may include audio that varies depending on the peripheral device connection state to the mobile terminal.
  • the audio to which the binary effect is applied may correspond to the two channel audio corresponding to the left channel and the right channel.
  • stereophonic contents including audio having a binary effect in a mobile terminal through an application including an easy and intuitive interface.
  • the present invention can perform the binarization to generate stereophonic contents using the metadata of the touch input of the mobile terminal.
  • the present invention can provide audio feedback in real time so that a user can manipulate the interface more easily in response to movement of an object.
  • the present invention can provide a sense of direction, a sense of distance, and a sense of space when listening to audio through an external sound device connected to a mobile terminal.
  • the present invention can generate revenue for a service provider by providing advertisement contents based on a stereophonic content authoring application including an intuitive interface.
  • the present invention can induce a user to more actively use an application by paying user compensation based on advertisement contents.
  • the present invention can improve advertisement viewing rate by providing advertisement contents considering a user's application usage history.
  • the present invention can more effectively deliver the contents of the advertisement contents by providing the advertisement contents including the audio to which the binary effect is selectively applied.
  • FIG. 1 is a view showing an execution screen of a stereophonic content authoring application according to an embodiment of the present invention.
  • FIG. 2 is a block diagram illustrating an example of a mobile terminal according to the present invention.
  • FIG. 3 is a diagram illustrating an example of metadata synchronized with an image according to the present invention.
  • FIG. 4 is a diagram illustrating an example of a visual interface according to the present invention.
  • FIG. 5 is a view showing another example of a visual interface according to the present invention.
  • FIG. 6 is a view showing an example of a three-dimensional space in which an image is located according to the present invention.
  • FIG. 7 is a view showing an example of a sound image overlaid on an image according to the present invention.
  • FIG 8 to 9 are views showing an example of a sound image based on a user's head position according to the present invention.
  • FIG. 10 is a view illustrating an example of a process of highlighting an object through the object tracking interface according to the present invention.
  • FIG. 11 is a block diagram illustrating an example of a rendering process according to the present invention.
  • FIG. 12 is a flowchart illustrating a stereoscopic content authoring method according to an exemplary embodiment of the present invention.
  • FIG. 13 is a flowchart illustrating an operation of authoring a stereoscopic sound content according to an exemplary embodiment of the present invention.
  • FIG. 14 to 15 are views showing another example of a stereoscopic sound content authoring application execution screen according to the present invention.
  • 16 is a diagram illustrating a stereo audio content authoring system according to an embodiment of the present invention.
  • 17 is a diagram illustrating an advertisement providing system using a stereoscopic sound content authoring tool according to an embodiment of the present invention.
  • FIG. 18 is a view showing an example of an advertisement content providing screen according to the present invention.
  • 19 is a view showing another example of an advertisement content providing screen according to the present invention.
  • FIG. 20 is a diagram illustrating an example of an advertisement selection related parameter and an advertisement content database according to the present invention.
  • 21 is a diagram illustrating an example of a process of selecting advertisement contents in a mobile terminal according to the present invention.
  • FIG. 22 is a diagram illustrating an example of a process of selecting advertisement contents in a server according to the present invention.
  • FIG. 23 is a diagram showing an example of an application execution screen for providing user compensation according to the present invention.
  • 24 is a diagram showing an example of an application execution screen for skipping advertisement contents using user compensation according to the present invention.
  • 25 is a diagram showing an example of an application execution screen for providing contents usable with user compensation according to the present invention.
  • 26 is a flowchart illustrating an advertisement providing method using a stereophonic content authoring tool according to an embodiment of the present invention.
  • FIG. 27 is a flowchart illustrating an advertisement providing method according to an exemplary embodiment of the present invention.
  • FIG. 28 is a diagram illustrating a system for providing a selective advertisement using a stereophonic content authoring tool according to an embodiment of the present invention.
  • 29 is a diagram illustrating an example of a process of selecting advertisement contents according to the present invention.
  • FIG. 30 is a diagram illustrating an example of an audio check interface according to the present invention.
  • FIG. 31 is a diagram showing an example of an advertisement database according to the present invention.
  • FIG. 32 is a detailed flowchart illustrating a method for providing a selective advertisement according to an exemplary embodiment of the present invention. Referring to FIG.
  • FIG. 1 is a view showing an execution screen of a stereophonic content authoring application according to an embodiment of the present invention.
  • a stereophonic content authoring application stored in a computer-readable recording medium may include a binaural effect application module for applying a binaural effect to audio synchronized with an image reproduced through a mobile terminal Provides a visual interface.
  • the stereophonic content authoring application corresponds to a tool for authoring stereophonic contents, and may correspond to a computer program installed and executed in the computer.
  • the binaural effect provides a three-dimensional sound effect as if the audio image is located outside when the user is listening to the audio through the headphone or earphone. Therefore, the contents including the audio with the binary effect can provide the user with a more realistic and realistic experience than the general contents.
  • the image may correspond to the image stored in the mobile terminal.
  • the image may correspond to a user's own image captured through a camera installed in the mobile terminal or an image downloaded based on the network.
  • the visual interface can be provided through a mobile terminal capable of executing an application because it can be provided based on execution of a stereophonic content authoring application for authoring stereoscopic contents and providing advertisement contents.
  • the advertisement can be selectively generated according to the connection state of the peripheral device.
  • the visual interface may be configured corresponding to the execution screen shown in Fig.
  • the mobile terminal may correspond to a terminal capable of performing data communication based on the network.
  • a mobile terminal can send and receive information necessary for stereoscopic content authoring and selective advertisement content provision through a communication network such as a network.
  • a communication network such as a network.
  • applications and advertisement contents can be obtained from a server based on a network.
  • the mobile terminal can execute an application stored in a memory based on a processor corresponding to the central processing unit to provide stereoscopic content and optional advertisement contents.
  • an application according to an embodiment of the present invention can be stored in the memory of the mobile terminal together with an operating system (OS). Accordingly, an application according to an embodiment of the present invention may correspond to a computer program installed and executed in a mobile terminal.
  • OS operating system
  • the memory of the mobile terminal may support a function for providing selective advertisement according to an embodiment of the present invention.
  • the memory may operate as a separate mass storage and may include control functions for performing operations.
  • the memory is a computer-readable medium.
  • the memory may be a volatile memory unit, and in other embodiments, the memory may be a non-volatile memory unit.
  • the memory may include, for example, a hard disk device, an optical disk device, or any other mass storage device.
  • an application stored in a computer-readable recording medium may include rendering status feedback during peripheral rendering of binaural sound content based on a visual interface,
  • the advertisement contents including the audio to which the binary effect is applied selectively.
  • the peripheral device connection state may correspond to whether the external audio device is connected to the mobile terminal through wired / wireless connection.
  • the advertisement contents may include audio to which a binary effect is applied when the external audio equipment to which the external audio equipment is connected and the connected external audio equipment is a device capable of expressing a binary effect.
  • the external audio device is connected to the external audio device and the connected external audio device is not a device capable of expressing the binary effect, or if the external audio device is not connected, the audio content in which the binary effect is not applied .
  • a device capable of expressing a binary effect may correspond to a wired / wireless earphone or wired / wireless headphone capable of delivering sound with two ears through the left channel and the right channel.
  • a mobile terminal includes a communication unit 210, a processor 220, and a memory 230.
  • the communication unit 210 transmits and receives information required for stereophonic content authoring and advertisement contents through a communication network such as a network.
  • the communication unit 210 according to an embodiment of the present invention can acquire a stereophonic content authoring application from a server that provides an application based on a network, and can acquire an application and advertisement contents from a server.
  • the server can provide a variety of contents and services related to the execution of stereophonic content authoring application and stereophonic content authoring application.
  • a mobile terminal 1610 and a server 1620 can send and receive data based on the network 1630.
  • the mobile terminal 1610 may download various contents or data required for stereophonic content authoring from the server 1620.
  • the network 1630 is a concept that covers both existing and future developable networks.
  • the network may be a third generation mobile communication network including an i-bimet, a wired network, a wireless broadband (WiBro) network, a WCDMA, a High Speed Downlink Packet Access (HSDPA)
  • Wi-Fi Wireless Fidelity
  • the processor 220 corresponds to the central processing unit and can be controlled by executing a stereophonic content authoring application stored in the memory 230. [ At this time, the terminal can execute the application stored in the memory based on the processor corresponding to the central processing unit, and can provide the advertisement contents along with the stereoscopic content.
  • stereophonic content authoring application can be stored in the memory 230 together with an operating system (OS). Accordingly, the stereophonic content authoring application may correspond to a computer program installed and executed in the mobile terminal.
  • OS operating system
  • the memory 230 may support a function for authoring stereo sound content according to an embodiment of the present invention. At this time, the memory 230 may operate as a separate mass storage and may include a control function for performing operations.
  • the memory is a computer-readable medium.
  • the memory may be a volatile memory unit, and in other embodiments, the memory may be a non-volatile memory unit.
  • the memory may include, for example, a hard disk device, an optical disk device, or any other mass storage device.
  • the memory 230 may support a function for providing an advertisement according to an embodiment of the present invention.
  • the memory may operate as a separate mass storage and may include control functions for performing operations.
  • the memory is a computer-readable medium.
  • the memory may be a volatile memory unit, and in other embodiments, the memory may be a non-volatile memory unit.
  • the memory may include, for example, a hard disk device, an optical disk device, or any other mass storage device.
  • the mobile terminal shown in FIG. 2 may correspond to a stereophonic content authoring apparatus according to an embodiment of the present invention.
  • the processor 220 provides a visual interface for applying a binaural effect to audio synchronized with an image reproduced through a mobile terminal, and generates metadata for synchronizing the video based on the touch input to the visual interface Lt; / RTI >
  • the memory 230 may store stereophonic content corresponding to the metadata and including audio with a binary effect.
  • the audio to which the binary effect is applied is finally generated by rendering performed after generating the metadata, and the stereophonic content is generated based on the position of the representative sound image at the specific playback time point included in the metadata It can be generated in a non-timely manner with respect to reproduction.
  • the processor may output feedback audio that allows the user to feel that the binary effect is applied to the touch input immediately before the audio with the binary effect is generated.
  • the visual interface is provided to designate a position of the representative sound image representative of the specific playback point, which is set corresponding to a specific playback point of the image, by the user who feels the binary effect by the feedback audio
  • the position of the viewpoint representative sound image may be a position set based on the head of the user.
  • the stereophonic content authoring application stored in a computer-readable recording medium generates metadata to be synchronized with an image based on a touch input to a visual interface.
  • the application can provide the advertisement contents together with the rendering state feedback while rendering the binaural effect applied stereophonic contents.
  • the metadata may be generated based on a touch input value to the visual interface. That is, the user of the mobile terminal can control the sound image of the audio synchronized with the image by operating the visual interface while watching the motion of the object included in the image.
  • the touch input value may be a multi-touch input value.
  • a single touch for setting a single point on the screen is not sufficient, and a multi-touch capable of simultaneously setting a plurality of points on the screen may be required.
  • the metadata may be generated in synchronization with an image reproduced by the mobile terminal.
  • the metadata 320-1 to 320-N generated during the reproduction of an image may be transmitted to the frames 310-1 to 310-N of the reproduced image at the touch input time, So that the metadata and the image can be synchronized with each other.
  • the stereophonic content authoring application can immediately output the feedback audio with the binary effect by reacting to the touch input.
  • the feedback audio may correspond to a modification of the existing audio on which the binary effect is not applied based on the metadata. That is, when the touch input by the user occurs, the feedback audio can be output by reflecting the generated metadata in real time. If immediate feedback audio is not output, the user may apply a binary effect so that it does not correspond to the image because the user can not hear the modified audio until rendering is complete.
  • the feedback audio is immediately output, so that the user can perform the touch input corresponding to the motion of the object included in the image.
  • the feedback audio to which the binary effect is applied can be output through an external sound device such as an earphone or a headphone, which allows the user to feel a stereoscopic effect due to a binary effect.
  • the metadata may correspond to the three-dimensional position of the sound image corresponding to the binary effect.
  • the three-dimensional position of the sound image may be based on the user of the mobile terminal experiencing the binary effect.
  • the three-dimensional position of the sound image according to the present invention can be represented on a hemispherical three-dimensional space with respect to the user's head as shown in Fig. Therefore, in the case of the audio with the binary effect, it is possible to provide a three-dimensional sound effect at 360 degrees based on the user.
  • the sound image is arranged on the three-dimensional space using the X-axis, the Y-axis, and the Z-axis to provide a deeper feeling of immersion than the conventional sound technique.
  • the visual interface includes a first interface for specifying a position on a two-dimensional plane of the sound image and a second interface for specifying a position on a straight line perpendicular to the two-dimensional plane of the sound image, The first input of the user to the second interface and the second input of the user to the second interface.
  • a user may manipulate the first interface 410 and the second interface 420 according to movement of an object 400 included in an image.
  • the operation keys of the first interface 410 and the operation keys of the second interface 420 can be moved to the touch input according to the direction in which the object 400 included in the image moves.
  • the three-dimensional position generated by combining the first input and the second input according to the touch input can be recorded as metadata.
  • a user may manipulate the third interface 510 including the user's head position according to the movement of the object 500 included in the image.
  • the user may record the three-dimensional position corresponding to the selected position as the metadata.
  • the third interface 510 may touch the sound image while rotating the head direction for the convenience of operation.
  • the visual interface is not limited to the shapes shown in FIGS. 4 to 5, and may be provided in various forms in which the three-dimensional position of the sound image can be input.
  • the mode change button can be operated in a toggle manner.
  • the visual interface can overlay the image corresponding to the meta data on the image and display it in real time.
  • the user may operate the first interface and the second interface included in the visual interface to display the changed sound image 710 over the object displayed in the image.
  • the position of the sound image 710 may be displayed while moving in real time.
  • the sound image corresponding to the meta data can be expressed as a hemispheric position set with reference to the head position of the user.
  • the sound image may be changed through a separate sound phase tracking interface 720 as shown in FIG.
  • the sound image tracking interface 720 may be provided in a form corresponding to the hemispherical space generated based on the user's head position as shown in FIG.
  • the sound image may be displayed while rotating the direction of the user's head so as to more intuitively identify the three-dimensional position of the sound image.
  • the position may be represented on a two-dimensional plane with respect to the user's head as shown in Fig.
  • the position of the sound image shown in FIG. 9 may correspond to the input value of the first interface included in the visual interface.
  • the visual interface may include an object tracking interface for highlighting the object corresponding to the sound image among the objects of the image.
  • the object trapping interface can determine the object corresponding to the sound image based on the correlation with the audio among the objects of the image. That is, at a moment when the audio synchronized with the video changes significantly, the object determined to be highly correlated with the audio change can be determined as the object corresponding to the sound image, taking into consideration the change of the object in the image.
  • the object tracking interface can judge and highlight a newly emerging object as an object corresponding to a sound image at a time when audio synchronized with the image changes by a predetermined reference change amount or more.
  • a new object does not appear in the image frame 1020 or a large change does not appear in a section where the audio 1010 synchronized with the image does not show a large change.
  • the audio object 1010 greatly changes as the automobile object 1000 appears.
  • the object trapping interface can determine the automobile as the object 1000 corresponding to the sound image, and can highlight the object 1000 so that the user can easily identify the object 1000.
  • the object trapping interface may change the position of the sound image correspondingly to the movement of the recognized object corresponding to the sound image. That is, even if the user does not directly change the sound image, it is possible to automatically generate the sound image metadata while tracking the object corresponding to the sound image recognized through the object trapping interface.
  • stereophonic content authoring application stored in a computer-readable recording medium renders stereophonic content including audio applied with a binary effect based on metadata.
  • the stereophonic content may correspond to the content reproducible through the mobile terminal, and in the case where the user views the stereophonic content, audio is output in an environment in which a plurality of speakers are installed around the user You can feel the sound effect.
  • the audio to which the binary effect is applied may be two channel audio corresponding to the left channel and the right channel. Therefore, a terminal or a device that supports only 2-channel audio can provide stereophonic contents that can feel a sound effect like 5.1 channel or 10.2 channel.
  • the audio to which the binary effect according to an embodiment of the present invention is applied can be generated by applying existing technology or technologies that can be developed in the future.
  • Korean Registered Patent Publication No. 10-1599554 discloses a method of outputting a signal to a 3D binaural based on an international standard multi-channel audio encoding technology called MPEG Surround. 10-1599554 extracts multichannel audio reproduction characteristic parameters based on the MPEG Surround (MPS) international standard, performs HRTF (Head Related Transfer function) filtering on the downmix audio signal using the audio reproduction characteristic parameters, And a signal to output a normal signal.
  • the HRTF filtering may be filtering using the dummy header microphones modeled by the human auditory organ to obtain both left and right impulse responses for the respective positions at specific intervals between the azimuth angle of 360 degrees and the altitude angle of 180 degrees.
  • the multi-channel audio reproduction characteristic parameter relates to the output level difference of the front and rear channel signals according to the frequency band.
  • MPS MPEG-Surround
  • left and right audio signals are filtered in the frequency domain based on the position information of virtual sound sources and binaural filter coefficients for each channel, and the filtered signals are decoded into binaural stereo signals
  • the contents are disclosed.
  • the stereo left / right audio signal in the input time domain is converted into a frequency domain signal by using DFT (Discrete Fourier Transform) or FFT (Fast Fourier Transform), and the sub-
  • the binaural stereo signal can be used to filter the stereo left / right signal corresponding to the frequency domain based on the power gain value of each channel for each band and the left / right HRTF coefficient block of the frequency domain for each channel.
  • the power gain value of each channel can be calculated by combining spatial cue information based on VSLI (Virtual Source Location Information), and VSLI-based spatial queue information for a stereo signal
  • VSLI Virtual Source Location Information
  • LHA left half-plane angle
  • LSA left subconscious angle
  • LSA RHA Right Half-Plane Angle
  • RSA Right Subsequent Angle
  • spatial parameters for audio synchronized to an image are extracted based on the MPEG-Surround (MPS) international standard, and HRTF (Head Related) is calculated for the audio based on the 3D position and spatial parameters of the sound source corresponding to the metadata.
  • Transfer Function filtering to generate an audio signal with a binary effect.
  • the audio synchronized with the image is converted into a stereo left / right audio signal in the frequency domain, and the spatial cue information is synthesized based on the position information corresponding to the metadata, And then generate a binarized audio based on the left / right HRTF coefficient block in the frequency domain for each channel.
  • a container including an image, audio and binary data to which a binary effect is applied, and audio with a binary effect can be synchronized.
  • Metadata 1120 for an audio 1112 S 1 synchronized with an image 1111 M 1 based on a touch input to a visual interface can be assumed.
  • the stereophonic content authoring application can generate the audio 1121 S 2 to which the binary effect is applied by using the audio 1112 S 1 and the metadata 1120 synchronized with the image 1111 M 1 ,
  • a container 1140 including the image 1111 M 1 , the audio 1121 S 2 to which the binary effect is applied, and the additional data 1130 can be generated.
  • the additional data 1130 may include information related to the format of stereophonic contents, parameters for rendering, and the like.
  • the rendering can be started based on the touch input to the visual interface.
  • the user can start rendering to generate stereophonic content.
  • the rendered stereoscopic sound content can be stored in the mobile terminal based on the stereoscopic sound content authoring application.
  • rendering may be performed together with a process of generating audio 1121 S 2 to which a binary effect is applied.
  • the generated metadata may be stored or deleted.
  • the metadata generated so far may be stored and stored together with the image.
  • the generated metadata may be deleted and the visual interface may be terminated.
  • the advertisement content may be selected based on at least one of the rendering time factor and the content profile factor from the advertisement content database.
  • the advertisement contents can be selected in consideration of the sound source position control propensity factor.
  • the advertisement content may be selected based on at least one of the rendering time factor and the content profile factor from the advertisement content database.
  • the advertisement contents can be selected in consideration of the sound source position control propensity factor.
  • stereo sound content authoring application By using such a stereoscopic sound content authoring application, it is possible to generate stereo sound content that can provide a sense of direction, a sense of distance, and a sense of space.
  • FIG. 12 is a flowchart illustrating a stereoscopic content authoring method according to an exemplary embodiment of the present invention.
  • a stereophonic content authoring method provides a visual interface for applying a binaural effect to audio synchronized with an image reproduced through a mobile terminal (S1210 ).
  • the binaural effect is that when a user listens to audio with a headphone or earphone, the audio image is audibly heard as if it were located outside. Therefore, the contents with the binary effect can provide users with more realistic and realistic experiences than general contents.
  • the stereoscopic content authoring application can be provided through the executable mobile terminal.
  • the mobile terminal can acquire a stereophonic content authoring application from a server providing a stereophonic content authoring application based on data communication using a network.
  • the mobile terminal may correspond to a terminal capable of performing data communication based on the network.
  • stereophonic content authoring application can be stored in the memory of the mobile terminal together with an operating system (OS). Accordingly, the stereophonic content authoring application may correspond to a computer program installed and executed in the mobile terminal.
  • OS operating system
  • a stereophonic content authoring method comprising: generating metadata to be synchronized with an image based on a touch input to a visual interface; receiving feedback audio having a binary effect by instantly responding to a touch input; (S1220).
  • the user of the mobile terminal can control the sound image of the audio synchronized with the image by operating the visual interface while watching the motion of the object included in the image, and at this time, the metadata can be generated based on the input value.
  • the touch input value may be a multi-touch input value.
  • a single touch for setting a single point on the screen is not sufficient, and a multi-touch capable of simultaneously setting a plurality of points on the screen may be required.
  • the metadata may be generated in synchronization with an image reproduced by the mobile terminal.
  • the metadata 320-1 to 320-N generated during the reproduction of an image may be transmitted to the frames 310-1 to 310-N of the reproduced image at the touch input time, So that the metadata and the image can be synchronized with each other.
  • the feedback audio may correspond to a modification of the existing audio based on the metadata. That is, when the touch input by the user occurs, the feedback audio can be output by reflecting the generated metadata in real time. If immediate feedback audio is not output, the user may apply a binary effect so that it does not correspond to the image because the user can not hear the modified audio until rendering is complete.
  • the feedback audio is immediately output, so that the user can perform the touch input corresponding to the motion of the object included in the image.
  • the feedback audio to which the binary effect is applied can be output through an external sound device such as an earphone or a headphone, which allows the user to feel a stereoscopic effect due to a binary effect.
  • the metadata may correspond to the three-dimensional position of the sound image corresponding to the binary effect.
  • the three-dimensional position of the sound image may be based on the user of the mobile terminal experiencing the binary effect.
  • the three-dimensional position of the sound image according to the present invention can be represented on a hemispherical three-dimensional space with respect to the user's head as shown in Fig. Therefore, in the case of the audio with the binary effect, it is possible to provide a three-dimensional sound effect at 360 degrees based on the user.
  • the sound image is arranged on the three-dimensional space using the X-axis, the Y-axis, and the Z-axis to provide a deeper feeling of immersion than the conventional sound technique.
  • the visual interface includes a first interface for specifying a position on a two-dimensional plane of the sound image and a second interface for specifying a position on a straight line perpendicular to the two-dimensional plane of the sound image, The first input of the user to the second interface and the second input of the user to the second interface.
  • a user may manipulate the first interface 410 and the second interface 420 according to movement of an object 400 included in an image.
  • the operation keys of the first interface 410 and the operation keys of the second interface 420 can be moved to the touch input according to the direction in which the object 400 included in the image moves.
  • the three-dimensional position generated by combining the first input and the second input according to the touch input can be recorded as metadata.
  • a user may manipulate the third interface 510 including the user's head position according to the movement of the object 500 included in the image.
  • the user may record the three-dimensional position corresponding to the selected position as the metadata.
  • the third interface 510 may touch the sound image while rotating the head direction for the convenience of operation.
  • the visual interface is not limited to the shapes shown in FIGS. 4 to 5, and may be provided in various forms in which the three-dimensional position of the sound image can be input.
  • the visual interface can selectively provide any one of a play mode for playing the video by the feedback audio or an edit mode for adjusting the position of the sound image by the visual interface by using the mode change button (MODE) have.
  • the mode change button can be operated in a toggle manner.
  • the visual interface can overlay the image corresponding to the meta data on the image and display it in real time.
  • the user may operate the first interface and the second interface included in the visual interface to display the changed sound image 710 over the object displayed in the image.
  • the position of the sound image 710 may be displayed while moving in real time.
  • the sound image corresponding to the meta data can be expressed as a hemispheric position set with reference to the head position of the user.
  • the sound image may be changed through a separate sound phase tracking interface 720 as shown in FIG.
  • the sound image tracking interface 720 may be provided in a form corresponding to the hemispherical space generated based on the user's head position as shown in FIG.
  • the sound image may be displayed while rotating the direction of the user's head so as to more intuitively identify the three-dimensional position of the sound image.
  • the position may be represented on a two-dimensional plane with respect to the user's head as shown in Fig.
  • the position of the sound image shown in FIG. 9 may correspond to the input value of the first interface included in the visual interface.
  • the visual interface may include an object tracking interface for highlighting the object corresponding to the sound image among the objects of the image.
  • the object trapping interface can determine the object corresponding to the sound image based on the correlation with the audio among the objects of the image. That is, at a moment when the audio synchronized with the video changes significantly, the object determined to be highly correlated with the audio change can be determined as the object corresponding to the sound image, taking into consideration the change of the object in the image.
  • the object tracking interface can judge and highlight a newly emerging object as an object corresponding to a sound image at a time when audio synchronized with the image changes by a predetermined reference change amount or more.
  • a new object does not appear in the image frame 1020 or a large change does not appear in a section where the audio 1010 synchronized with the image does not show a large change.
  • the audio object 1010 greatly changes as the automobile object 1000 appears.
  • the object trapping interface can determine the automobile as the object 1000 corresponding to the sound image, and can highlight the object 1000 so that the user can easily identify the object 1000.
  • the object trapping interface may change the position of the sound image correspondingly to the movement of the recognized object corresponding to the sound image. That is, even if the user does not directly change the sound image, it is possible to automatically generate the sound image metadata while tracking the object corresponding to the sound image recognized through the object trapping interface.
  • the stereophonic content authoring method renders stereophonic contents including audio applied with a binary effect based on metadata.
  • the stereophonic content may correspond to the content reproducible through the mobile terminal, and in the case where the user views the stereophonic content, audio is output in an environment in which a plurality of speakers are installed around the user You can feel the sound effect.
  • the audio to which the binary effect is applied may be two channel audio corresponding to the left channel and the right channel. Therefore, a terminal or a device that supports only 2-channel audio can provide stereophonic contents that can feel a sound effect like 5.1 channel or 10.2 channel.
  • a container including an image, audio and binary data to which a binary effect is applied, and audio with a binary effect can be synchronized.
  • the metadata 1120 for the audio 1112 S1 to be synchronized with the image 1111 M1 is generated based on the touch input to the visual interface according to an embodiment of the present invention Can be assumed.
  • the audio 1121 S2 to which the binary effect is applied can be generated using the audio 1112 S1 and the metadata 1120 synchronized with the video 1111, The audio 1121 S2 to which the binary effect has been applied, and the additional data 1130 can be generated.
  • the additional data 1130 may include information related to the format of stereophonic contents, parameters for rendering, and the like.
  • the rendering can be started based on the touch input to the visual interface.
  • the user can start rendering to generate stereophonic content.
  • the rendered stereoscopic sound content can be stored in the mobile terminal based on the stereoscopic sound content authoring application.
  • rendering may be performed together with a process of generating audio 1121 S2 to which a binary effect is applied.
  • the generated metadata may be stored or deleted.
  • the metadata generated so far may be stored and stored together with the image.
  • the generated metadata may be deleted and the visual interface may be terminated.
  • the stereophonic content authoring method stores various information generated in the stereophonic content authoring process according to an exemplary embodiment of the present invention, Module.
  • stereophonic content that can provide a sense of direction, a sense of distance, and a sense of space.
  • FIG. 13 is a flowchart illustrating an operation of authoring a stereoscopic sound content according to an exemplary embodiment of the present invention.
  • the stereophonic content authoring process starts with a step S1310 in which a stereophonic content authoring application for authoring stereophonic content authoring installed in a mobile terminal is executed (S1310) And provides a visual interface based on the image selected by the user (S1320).
  • the visual interface may include interfaces for applying a binary effect to the audio synchronized with the image selected by the user.
  • the metadata to be synchronized with the image can be generated based on the touch input to the interfaces for applying the binary effect, and at the same time, the feedback audio to which the binary effect is applied is immediately output to the user (S1330).
  • the user can confirm the binary effect corresponding to the generated metadata.
  • the video and the audio to which the binary effect is applied can be synchronized with respect to time.
  • the stereophonic contents corresponding to the generated container can be stored in the memory of the mobile terminal based on the stereophonic content authoring application (S1350).
  • FIG. 14 to 15 are views showing another example of a stereoscopic sound content authoring application execution screen according to the present invention.
  • the stereophonic content authoring application can be executed based on a mobile terminal, and includes an authoring for authoring stereophonic contents after execution, Contents download menu and other information menu for receiving the contents.
  • a menu for selecting general image contents to be authored as shown in FIG. 15 may be provided.
  • the general image content may correspond to the moving image stored in the memory of the mobile terminal storing the stereoscopic content authoring application.
  • the stereoscopic image content previously authored through the stereoscopic content authoring application and the general image content that has not yet been authored may be classified to provide the image content search result.
  • the general video content may be provided with a thumbnail that can identify the content of the video as shown in FIG.
  • the stereoscopic sound content authoring application can provide a visual interface for authoring the selected general image contents as stereophonic contents.
  • 17 is a diagram illustrating an advertisement providing system using a stereophonic content authoring tool according to an embodiment of the present invention.
  • an advertisement providing system using a stereophonic content authoring tool includes a mobile terminal 2110, an application server 2120, an advertisement server 2130, and a network 2140 .
  • the mobile terminal 2110 corresponds to a terminal equipped with an application for providing an advertisement according to an embodiment of the present invention and may be a mobile phone, a tablet PC, a smart phone, a PDA (Personal Digital Assistants) , ≪ / RTI >
  • the application for providing an advertisement according to an embodiment of the present invention can be executed in a terminal such as a PC (Personal Computer) or a notebook computer.
  • the mobile terminal 2110 may include a communication unit, a processor, and a memory.
  • the mobile terminal 2110 can download an application according to an embodiment of the present invention for authoring stereoscopic sound content and providing advertisement from the application server 2120 based on the communication unit, and store the downloaded application in a memory, The application can be executed.
  • the communication unit may transmit and receive information necessary for stereoscopic content authoring and advertisement provisioning with the application server 2120 or the advertisement server 2130 through a communication network such as the network 2140.
  • the processor of the mobile terminal 2110 corresponds to the central processing unit and can execute and control the application stored in the memory.
  • the memory of the mobile terminal 2110 may store various applications including an application according to an embodiment of the present invention together with an operating system (OS). Accordingly, an application according to an embodiment of the present invention may correspond to a computer program installed and executed in a mobile terminal.
  • OS operating system
  • the memory may support a function for providing an advertisement according to an embodiment of the present invention.
  • the memory may operate as a separate mass storage and may include control functions for performing operations.
  • the memory is a computer-readable medium.
  • the memory may be a volatile memory unit, and in other embodiments, the memory may be a non-volatile memory unit.
  • the memory may include, for example, a hard disk device, an optical disk device, or any other mass storage device.
  • the mobile terminal 2110 can select and provide the advertisement contents while rendering the stereophonic contents through the application.
  • the advertisement contents may be selected from any one of the mobile terminal 2110 and the application server 2120.
  • the advertisement contents according to an embodiment of the present invention may be provided through a separate advertisement contents database.
  • the advertisement content database may be included in or interworked with any one of the mobile terminal 2110, the application server 2120, and the advertisement server 2130 to operate to provide advertisement contents.
  • the advertisement server 2130 manages advertisement contents to be provided through the mobile terminal 2110.
  • the advertisement server 2130 provides advertisement contents to the mobile terminal 2110 or information related to the advertisement contents stored in the mobile terminal 2110 Can be updated.
  • the 17 shows the application server 2120 and the advertisement server 2130, respectively.
  • the application server 2120 and the advertisement server 2130 may be the same server.
  • Network 2140 is a concept that encompasses both existing and future developable networks.
  • the network 2140 may be a third generation mobile communication network including an i-bimet, a wired network, a WiBro (Wireless Broadband) network, a WCDMA, and the like that provide data services based on Internet Protocol (IP), a High Speed Downlink Packet Access (3G) mobile communication network including LTE network, a fourth generation mobile communication network including LTE advanced, a satellite communication network, and a Wi-Fi network.
  • IP Internet Protocol
  • 3G High Speed Downlink Packet Access
  • LTE Long Term Evolution
  • 4G fourth generation mobile communication network including LTE advanced
  • satellite communication network and a Wi-Fi network.
  • the rendering state feedbacks 2320 and 2420 are not limited to the shapes shown in Figs. 18 to 19, and can be provided in various ways that the user can easily recognize.
  • the rendering may be performed based on the touch input to the visual interface and based on the metadata that is synchronized with the image.
  • the metadata may be generated based on a touch input value to the visual interface. That is, the user of the mobile terminal can control the sound image of the audio synchronized with the image by operating the visual interface while watching the motion of the object included in the image.
  • the touch input value may be a multi-touch input value.
  • a single touch for setting a single point on the screen is not sufficient, and a multi-touch capable of simultaneously setting a plurality of points on the screen may be required.
  • the application according to an embodiment of the present invention can immediately output the feedback audio with the binary effect by reacting to the touch input.
  • the feedback audio may correspond to a modification of the existing audio on which the binary effect is not applied based on the metadata. That is, when the touch input by the user occurs, the feedback audio can be output by reflecting the generated metadata in real time. If immediate feedback audio is not output, the user may apply a binary effect so that it does not correspond to the image because the user can not hear the modified audio until rendering is complete.
  • the feedback audio is immediately output, so that the user can perform the touch input corresponding to the motion of the object included in the image.
  • the feedback audio to which the binary effect is applied can be output through an external sound device such as an earphone or a headphone, which allows the user to feel a stereoscopic effect due to a binary effect.
  • the metadata may correspond to the three-dimensional position of the sound image corresponding to the binary effect.
  • the three-dimensional position of the sound image may be based on the user of the mobile terminal experiencing the binary effect.
  • the three-dimensional position of the sound image according to the present invention can be displayed on a hemispherical three-dimensional space with respect to the user's head. Therefore, in the case of the audio with the binary effect, it is possible to provide a three-dimensional sound effect at 360 degrees based on the user.
  • the sound image is arranged on the three-dimensional space using the X-axis, the Y-axis, and the Z-axis to provide a deeper feeling of immersion than the conventional sound technique.
  • the visual interface includes a first interface for designating the position on the two-dimensional plane of the sound image and a second interface for specifying the position on the straight line perpendicular to the two-dimensional plane of the sound image
  • the 3D position may be generated by combining the user's first input to the first interface and the user's second input to the second interface.
  • FIG. 20 is a diagram illustrating an example of an advertisement selection related parameter and an advertisement content database according to the present invention.
  • Ad content when a plurality of pieces of advertisement contents stored in the advertisement content database 2800 are rendered based on a rendering time factor 2810, a content profile factor 2820, and an acoustic position control propensity factor 2830, Ad content can be selected.
  • the rendering time factor 2810 may be calculated considering at least one of a reproduction time corresponding to the image and a file size corresponding to the image.
  • the content profile parameter may be calculated based on the history of the user rendering stereoscopic contents.
  • the user when a user mainly plays stereoscopic sound content for a game image, it is determined that the user prefers the game, and the user can select and output the game advertisement content among the advertisement contents stored in the advertisement content database 2800 have.
  • the sound source position control propensity factor can be calculated based on the position change value of the sound image corresponding to the meta data.
  • the advertisement contents stored in the advertisement content database 2800 It is possible to select and output the advertisement contents of the image having a large change in the scene or dynamic of the scenes.
  • the advertisement contents database 2800 can store and manage a plurality of advertisement contents in consideration of the reproduction time, the content category, and the static / dynamic contents.
  • the advertisement contents according to an embodiment of the present invention can be selected through a mobile terminal or a server providing an application.
  • 21 is a diagram illustrating an example of a process of selecting advertisement contents in a mobile terminal according to the present invention.
  • the application 2911 stored in the mobile terminal 2910 can select the advertisement content that is output based on the advertisement content metadata 2912 .
  • the advertisement content metadata 2912 may correspond to meta information about a plurality of advertisement contents stored in the advertisement content database 2900. Accordingly, the mobile terminal 2910 may request the advertisement content database 2900 to transmit the already selected advertisement content, and the advertisement content database 2900 may transmit the advertisement content corresponding to the request to the mobile terminal 2910, 2911).
  • FIG. 22 is a diagram illustrating an example of a process of selecting advertisement contents in a server according to the present invention.
  • relevant factors to be considered for selecting advertisement contents from the mobile terminal 3020 that is, rendering time factor, Factor and source position control propensity factor.
  • the server 3010 may select any one of a plurality of advertisement contents stored in the advertisement contents database 3000 and provide the selected advertisement contents to the mobile terminal 3020 using the received related parameters.
  • the mobile terminal 3020 can output the advertisement contents provided from the server 3010 through the application for stereoscopic sound content authoring and advertisement provisioning.
  • the advertisement contents may include audio to which a binary effect is applied.
  • the advertisement content may include audio that varies depending on the peripheral device connection status to the mobile terminal.
  • an application according to an embodiment of the present invention provides advertisement contents including audio with a binary effect when an external audio equipment is connected to the mobile terminal, and an external audio equipment is connected to the mobile terminal It is possible to provide the advertisement contents including the audio to which the binary effect is not applied.
  • revenue can be generated by providing advertisement contents while providing services for authoring stereophonic contents.
  • FIG. 23 is a diagram showing an example of an application execution screen for providing user compensation according to the present invention.
  • an application according to an exemplary embodiment of the present invention may provide user compensation according to advertisement contents provided while rendering stereophonic contents.
  • the user compensation may be provided in consideration of the reproduction time of the advertisement contents.
  • the preset reference playback time is 5 minutes. 23, when a user watches advertisement contents having a reproduction time of less than 5 minutes while rendering stereoscopic sound contents, it is possible to provide four notes as a unit corresponding to user compensation. However, if the playback time of the advertisement content viewed by the user exceeds 5 minutes, eight notes corresponding to double compensation may be provided.
  • the criterion for paying the user compensation can be freely set and changed according to the embodiment of the present invention, and the unit degree corresponding to the user compensation is not limited to the note.
  • the user compensation can be used to skip other advertisement contents.
  • 24 is a diagram showing an example of an application execution screen for skipping advertisement contents using user compensation according to the present invention.
  • an application may provide a skip button 3210 for skipping advertisement contents. If the user of the mobile terminal touches the skip button 3210, the user can be prompted to skip the advertisement by consuming a note through the skip guide pop-up 3220 as shown in Fig. At this time, the number of notes required for skipping the advertisement contents may be displayed together with the number of notes held by the current user.
  • the reproduction of the advertisement contents can be temporarily stopped, but the rendering can be continued.
  • User compensation may also be used to download content through an application according to an embodiment of the present invention.
  • 25 is a diagram illustrating an example of an application execution screen for providing contents usable with user compensation according to the present invention.
  • movie contents can be downloaded or purchased and reproduced using a note corresponding to user compensation.
  • 26 is a flowchart illustrating an advertisement providing method using a stereophonic content authoring tool according to an embodiment of the present invention.
  • an advertisement providing method using a stereophonic content authoring tool includes a visual interface for applying a binaural effect to audio synchronized with an image reproduced through a mobile terminal, (S3410).
  • the binaural effect provides a three-dimensional sound effect as if the audio image is located outside when the user is listening to the audio through the headphone or earphone. Therefore, the contents including the audio with the binary effect can provide the user with a more realistic and realistic experience than the general contents.
  • the image may correspond to the image stored in the mobile terminal.
  • the image may correspond to a user's own image captured through a camera installed in the mobile terminal or an image downloaded based on the network.
  • the visual interface can be provided through a mobile terminal capable of executing an application because it can be provided based on execution of an application for authoring stereoscopic contents and providing advertisement contents.
  • the mobile terminal may correspond to a terminal capable of performing data communication based on the network.
  • a mobile terminal can transmit and receive information necessary for stereophonic content authoring and advertisement content provision through a communication network such as a network.
  • a communication network such as a network.
  • applications and advertisement contents can be obtained from a server based on a network.
  • the mobile terminal can execute an application stored in a memory based on a processor corresponding to the central processing unit to provide stereoscopic content and advertisement contents.
  • an application according to an embodiment of the present invention can be stored in the memory of the mobile terminal together with an operating system (OS). Accordingly, an application according to an embodiment of the present invention may correspond to a computer program installed and executed in a mobile terminal.
  • OS operating system
  • the memory of the mobile terminal may support a function for providing an advertisement according to an embodiment of the present invention.
  • the memory may operate as a separate mass storage and may include control functions for performing operations.
  • the memory is a computer-readable medium.
  • the memory may be a volatile memory unit, and in other embodiments, the memory may be a non-volatile memory unit.
  • the memory may include, for example, a hard disk device, an optical disk device, or any other mass storage device.
  • an advertisement providing method using a stereophonic content authoring tool provides advertisement contents along with rendering status feedback while rendering stereophonic contents applied with a binary effect based on a visual interface S3420).
  • the step S3420 may provide the advertisement contents including the audio having the binary effect selectively in consideration of the connection state of the peripheral device to the mobile terminal.
  • the peripheral device connection state may correspond to whether the external audio device is connected to the mobile terminal through wired / wireless connection.
  • the advertisement contents may include audio to which a binary effect is applied when the external audio equipment to which the external audio equipment is connected and the connected external audio equipment is a device capable of expressing a binary effect.
  • the external audio device is connected to the external audio device and the connected external audio device is not a device capable of expressing the binary effect, or if the external audio device is not connected, the audio content in which the binary effect is not applied .
  • a device capable of expressing a binary effect may correspond to a wired / wireless earphone or wired / wireless headphone capable of delivering sound with two ears through the left channel and the right channel.
  • advertisement contents 2310 and 2410 can be provided together with rendering status feedback 2320 and 2420 as shown in FIGS. 18 to 19.
  • FIG. 18 illustrates advertisement contents 2310 and 2410
  • the rendering state feedbacks 2320 and 2420 are not limited to the shapes shown in Figs. 18 to 19, and can be provided in various ways that the user can easily recognize.
  • the rendering may be performed based on the touch input to the visual interface and based on the metadata that is synchronized with the image.
  • FIG. 27 is a flowchart illustrating an advertisement providing method according to an exemplary embodiment of the present invention.
  • an advertisement providing method includes: when a stereophonic content authoring tool installed in a mobile terminal, that is, an application according to an exemplary embodiment of the present invention is executed (S3510) And provides a visual interface based on the selected image (S3520).
  • the visual interface may include interfaces for applying a binary effect to the audio synchronized with the image selected by the user.
  • the advertisement content to be provided during the rendering time is selected in consideration of the rendering time factor, the content profile factor, and the sound source position control propensity factor (S3540).
  • either the mobile terminal or the server providing the application can select the advertisement contents.
  • rendering is performed to generate a container including audio and additional data to which a video, a binary effect is applied, and at the same time, the advertisement content is output to the mobile terminal (S3550).
  • the video and the audio to which the binary effect is applied can be synchronized with respect to time.
  • the stereophonic contents corresponding to the created container may be stored in the memory of the mobile terminal (S3570).
  • FIG. 28 is a view illustrating a system for providing a selective advertisement using a stereophonic content authoring tool according to an embodiment of the present invention.
  • an optional advertisement providing system using a stereophonic content authoring tool includes a mobile terminal 4110, a peripheral connection device 4111, a server 4120, and a network 4130 do.
  • the mobile terminal 4110 corresponds to a terminal equipped with an application for providing a selective advertisement according to an embodiment of the present invention and includes a mobile phone, a tablet PC, a smart phone, a personal digital assistant ), ≪ / RTI >
  • the application for providing an advertisement according to an embodiment of the present invention can be executed in a terminal such as a PC (Personal Computer) or a notebook computer.
  • the mobile terminal 4110 may include a communication unit, a processor, and a memory.
  • the mobile terminal 4110 can download an application according to an embodiment of the present invention for authoring stereoscopic sound content and providing selective advertisement from the server 4120 based on the communication unit, and store the downloaded application in a memory, The application can be executed.
  • the communication unit can transmit and receive information necessary for providing stereoscopic sound content authoring and selective advertisement to the server 4120 through a communication network such as the network 4140.
  • the processor of the mobile terminal 4110 corresponds to the central processing unit and can execute and control the application stored in the memory.
  • the memory of the mobile terminal 4110 may store various applications including an application according to an embodiment of the present invention together with an operating system (OS). Accordingly, an application according to an embodiment of the present invention may correspond to a computer program installed and executed in a mobile terminal.
  • OS operating system
  • the memory may support a function for providing selective advertisement according to an embodiment of the present invention.
  • the memory may operate as a separate mass storage and may include control functions for performing operations.
  • the memory is a computer-readable medium.
  • the memory may be a volatile memory unit, and in other embodiments, the memory may be a non-volatile memory unit.
  • the memory may include, for example, a hard disk device, an optical disk device, or any other mass storage device.
  • the mobile terminal 4110 can selectively provide the advertisement contents while considering the connection of the peripheral connecting device 4111 while rendering stereophonic contents through the application.
  • the advertisement contents to be provided through the application are selected from any one of the mobile terminal 4110 and the application server 4120, and the advertisement contents are selected in consideration of which peripheral connection device 4111 is connected to the mobile terminal 4110 .
  • peripheral terminal device 4111 such as an earphone or a headphone
  • the mobile terminal 4110 it is possible to select and provide the advertisement contents including the audio with the binary effect.
  • the advertisement contents according to an embodiment of the present invention can be provided through a separate advertisement contents database.
  • the advertisement contents database may be included in or interworked with any one of the mobile terminal 4110 and the server 4120 to operate to provide the advertisement contents.
  • Network 4130 is a concept that encompasses both existing and future developable networks.
  • the network 4130 may be a third generation mobile communication network including an i-bimet, a wired network, a WiBro (Wireless Broadband) network, a WCDMA, and the like that provide data services based on Internet Protocol (IP), a High Speed Downlink Packet Access (3G) mobile communication network including LTE network, a fourth generation mobile communication network including LTE advanced, a satellite communication network, and a Wi-Fi network.
  • IP Internet Protocol
  • 3G High Speed Downlink Packet Access
  • 29 is a diagram illustrating an example of a process of selecting advertisement contents according to the present invention.
  • the advertisement content including the audio with the binary effect can be selected and provided (S4308).
  • an external audio device is connected (S4304) and the connected external audio device is not a device capable of expressing a binary effect (S4310), the general advertisement content including the audio to which the binary effect is not applied is selected (S4312).
  • the general advertisement content including the audio to which the binary effect is not applied may be selected and provided (S4316).
  • the advertisement contents database can store and manage the respective advertisement contents which are the same but different according to the audio.
  • the type of the external audio device connected to the mobile terminal can be determined based on the input to the audio check interface provided to the mobile terminal.
  • FIG. 30 is a diagram illustrating an example of an audio check interface according to the present invention.
  • an application may provide an audio check interface 4400.
  • the audio check interface 4400 is used to check whether or not an earphone or headphone, which is a device for displaying a binary effect 4410, is connected to the mobile terminal, or a device 4420 that can not express a binary effect other than an earphone or a headphone is connected It is possible to determine the type of the currently connected external audio equipment. At this time, in the case of a wired / wireless speaker or a microphone, the device can be classified as a device for expressing a negative effect 4420.
  • FIG. 31 is a diagram showing an example of an advertisement database according to the present invention.
  • an advertisement content database 5000 includes a first type of advertisement content 5010 including audio to which a binary effect is applied for each advertisement content, It is possible to classify and store second type advertisement contents 5020 including audio.
  • the advertisement contents according to an embodiment of the present invention can be selected through a mobile terminal or a server providing an application.
  • the application 2911 stored in the mobile terminal 2910 may select the advertisement content output based on the advertisement content metadata 2912, as shown in FIG. 21 have.
  • the advertisement content metadata 2912 may correspond to meta information about a plurality of advertisement contents stored in the advertisement content database 2900.
  • the mobile terminal 2910 may request the advertisement content database 2900 to transmit the already selected advertisement content, and the advertisement content database 2900 may transmit the advertisement content corresponding to the request to the mobile terminal 2910, 2911).
  • the related factors to be considered for selecting the advertisement content from the mobile terminal 3020 to the server 3010 i.e., the rendering time factor, Content profile parameters, and sound source location control propensity factors.
  • the server 3010 may select any one of a plurality of advertisement contents stored in the advertisement contents database 3000 and provide the selected advertisement contents to the mobile terminal 3020 using the received related parameters.
  • the mobile terminal 3020 can output the advertisement contents provided from the server 3010 through the application for stereoscopic sound content authoring and advertisement provisioning.
  • FIG. 32 is a detailed flowchart illustrating a method for providing a selective advertisement according to an exemplary embodiment of the present invention. Referring to FIG.
  • a method for providing a selective advertisement according to an exemplary embodiment of the present invention is first performed when a stereophonic content authoring tool installed in a mobile terminal, that is, an application according to an exemplary embodiment of the present invention is executed (S5610)
  • the visual interface may be provided based on the image selected by the user (S5620).
  • the visual interface may include interfaces for applying a binary effect to the audio synchronized with the image selected by the user.
  • the mobile terminal can determine whether the external audio device is connected (S5635).
  • step S5635 If it is determined in step S5635 that the external audio device is connected, the audio check interface for checking the type of the external audio device may be provided (S5640).
  • step S5645 If it is determined in step S5645 that the external audio device connected to the mobile terminal is a device capable of expressing the binary effect, the advertisement content including the audio with the binary effect may be provided (S5650).
  • either the mobile terminal or the server providing the application can select the advertisement contents.
  • step S5635 If it is determined in step S5635 that the external audio device is not connected to the mobile terminal or if the external audio device connected to the mobile terminal is not a device capable of expressing a binary effect in step S5645, And may provide general advertisement content including audio that has not been applied (S5660).
  • the selected advertisement contents can be output while the rendering is performed.
  • the generated stereophonic contents can be stored in the memory of the mobile terminal (S5670).
  • the stereophonic content authoring method, the advertisement providing method, and the application using the stereophonic content authoring tool according to the present invention are not limited to the configuration and method of the embodiments described above, The embodiments may be configured so that all or some of the embodiments may be selectively combined so that various modifications may be made.

Abstract

입체 음향 컨텐츠 저작 방법 및 이를 위한 장치가 개시된다. 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 방법은 모바일 단말을 통해 재생되는 영상에 동기되는 오디오에, 바이너럴(binaural) 효과를 적용하기 위한 비주얼 인터페이스를 제공하는 단계; 및 상기 비주얼 인터페이스에 대한 터치 입력을 기반으로 상기 영상에 동기되는 메타데이터를 생성하는 단계를 포함하고, 상기 메타데이터를 생성하는 단계는 상기 터치 입력에 즉각적으로 반응하여 바이너럴 효과가 적용된 피드백 오디오를 출력한다.

Description

입체 음향 컨텐츠 저작 방법 및 이를 위한 장치
본 발명은 입체 음향 컨텐츠 저작 기술에 관한 것으로, 특히 모바일 단말을 통해 재생되는 영상의 음향에 바이너럴 효과를 적용할 수 있는 기술에 관한 것이다.
일반적으로 영상에 입체적인 음향 효과를 적용하기 위해서는 여러 대의 스피커들을 이용하여 출력되는 소리를 입력하는 멀티 채널 방식을 이용하고 있다. 또한, 2개의 스피커나 헤드폰을 이용하는 2채널 방식으로 입체 음향 효과를 구현하는 시스템이 개발되고 있으나, 주로 하드웨어에 의한 기술에 해당한다.
최근 소프트웨어를 이용하여 입체 음향 효과를 구현하는 기술들이 소개되고 있으나, 청취자를 기준으로 2차원에 해당하는 위치에 음상을 배치하는 것일 뿐, 3차원 위치를 이용하여 입체 음향 효과를 구현하는 기술은 찾아보기 어렵다.
본 발명의 목적은 쉽고 직관적인 인터페이스를 포함하는 어플리케이션을 통해 모바일 단말에서 바이너럴 효과가 적용된 오디오를 포함하는 입체 음향 컨텐츠를 저작하는 것이다.
또한, 본 발명의 목적은 모바일 단말의 터치 입력에 대한 메타데이터를 이용하여 입체 음향 컨텐츠를 생성하기 위한 바이너럴 렌더링을 수행하는 것이다.
또한, 본 발명의 목적은 오디오 피드백을 실시간으로 제공해줌으로써 사용자가 보다 객체의 움직임에 대응하여 보다 수월하게 인터페이스를 조작할 수 있도록 하는 것이다.
또한, 본 발명의 목적은 모바일 단말에 연결되는 외부 음향 기기를 통해 오디오를 청취하였을 때 방향감, 거리감 및 공간감 등을 제공하는 것이다.
또한, 본 발명의 목적은 직관적인 인터페이스를 포함하는 입체 음향 컨텐츠 저작 어플리케이션을 기반으로 광고 컨텐츠를 제공함으로써 서비스 제공자에게 수익을 발생시키는 것이다.
또한, 본 발명의 목적은 광고 컨텐츠에 기반한 사용자 보상을 지급함으로써 사용자가 어플리케이션을 보다 활발하게 활용하도록 유도하는 것이다.
또한, 본 발명의 목적은 사용자의 어플리케이션 이용 히스토리를 고려한 광고 컨텐츠를 제공하여 광고 시청률을 향상시키는 것이다.
또한, 본 발명의 목적은 선택적으로 바이너럴 효과가 적용된 오디오를 포함하는 광고 컨텐츠를 제공함으로써 광고 컨텐츠의 내용을 보다 효과적으로 전달하는 것이다.
상기한 목적을 달성하기 위한 본 발명에 따른 입체 음향 컨텐츠 저작 방법은, 모바일 단말을 통해 재생되는 영상에 동기되는 오디오에, 바이너럴(binaural) 효과를 적용하기 위한 비주얼 인터페이스를 제공하는 단계; 상기 비주얼 인터페이스에 대한 터치 입력을 기반으로 상기 영상에 동기되는 메타데이터를 생성하는 단계; 및 상기 메타데이터를 기반으로 바이너럴 효과가 적용된 오디오를 포함하는 입체 음향 컨텐츠를 렌더링하는 단계를 포함한다.
이 때, 상기 바이너럴 효과가 적용된 오디오는 상기 메타데이터를 생성하는 단계 및 상기 메타데이터를 생성하는 단계 이후에 수행되는 상기 입체 음향 컨텐츠를 렌더링하는 단계의 두 단계를 이용하여 최종 생성될 수 있다.
이 때, 상기 메타데이터를 생성하는 단계와 상기 입체 음향 컨텐츠를 렌더링하는 단계는 별개의 단계이고, 상기 입체 음향 컨텐츠를 렌더링하는 단계는 상기 메타데이터에 포함된 특정 재생 시점 대표 음상의 위치를 기반으로 영상의 재생에 대하여 비실시간적으로 상기 입체 음향 컨텐츠를 생성할 수 있다.
이 때, 상기 메타데이터를 생성하는 단계는 상기 바이너럴 효과가 적용된 오디오가 생성되기 전에, 상기 터치 입력에 즉각적으로 반응하여 바이너럴 효과가 적용되는 것을 느낄 수 있도록 하는 피드백 오디오를 출력할 수 있다.
이 때, 상기 비주얼 인터페이스는 상기 피드백 오디오에 의하여 상기 바이너럴 효과를 느끼는 사용자에 의하여 상기 영상의 특정 재생 시점에 상응하여 설정되는 상기 특정 재생 시점 대표 음상의 위치를 지정하기 위해 제공되고, 상기 특정 재생 시점 대표 음상의 위치는 상기 사용자의 머리를 기준으로 설정된 위치일 수 있다.
이 때, 상기 비주얼 인터페이스는 상기 특정 재생 시점 대표 음상의 2차원 평면상의 위치를 지정하기 위한 제1 인터페이스; 및 상기 특정 재생 시점 대표 음상의 상기 2차원 평면에 수직한 직선상에 위치를 지정하기 위한 제2 인터페이스를 포함하고, 상기 특정 재생 시점 대표 음상의 위치는 상기 제1 인터페이스에 대한 사용자의 제1 입력 및 상기 제2 인터페이스에 대한 상기 사용자의 제2 입력을 조합하여 생성될 수 있다.
이 때, 상기 비주얼 인터페이스는 상기 메타데이터에 상응하는 특정 재생 시점 대표 음상을 상기 영상에 오버레이하여 실시간으로 표시할 수 있다.
이 때, 메타데이터에 상응하는 음상은 상기 사용자의 머리 위치를 기준으로 설정된 반구상의 위치로 표현될 수 있다.
이 때, 비주얼 인터페이스는 상기 영상의 객체 중 상기 음상에 상응하는 객체를 하이라이트하는 객체 트래킹 인터페이스를 포함할 수 있다.
이 때, 객체 트래킹 인터페이스는 상기 영상의 객체 중 상기 오디오와의 상관성을 기반으로 상기 음상에 상응하는 객체를 결정할 수 있다.
이 때, 바이너럴 효과가 적용된 오디오는 레프트 채널 및 라이트 채널에 상응하는 2채널 오디오일 수 있다.
또한, 본 발명의 일실시예에 따른 컴퓨터로 판독 가능한 기록매체에 저장된 입체 음향 컨텐츠 저작 어플리케이션은, 모바일 단말을 통해 재생되는 영상에 동기되는 오디오에 바이너럴(binaural) 효과를 적용하기 위한 비주얼 인터페이스를 제공하는 단계; 및 상기 비주얼 인터페이스에 대한 터치 입력을 기반으로 상기 영상에 동기되는 메타데이터를 생성하는 단계를 실행시키고, 상기 터치 입력에 즉각적으로 반응하여 바이너럴 효과가 적용된 피드백 오디오를 출력한다.
이 때, 메타데이터를 기반으로 바이너럴 효과가 적용된 오디오를 포함하는 입체 음향 컨텐츠를 렌더링할 수 있다.
이 때, 렌더링을 통해 상기 영상, 상기 바이너럴 효과가 적용된 오디오 및 부가 데이터를 포함하는 컨테이너가 생성되고, 상기 영상 및 상기 바이너럴 효과가 적용된 오디오는 동기될 수 있다.
이 때, 메타데이터는 상기 바이너럴 효과에 상응하는 음상의 삼차원 위치에 상응할 수 있다.
이 때, 비주얼 인터페이스는 상기 음상의 2차원 평면상의 위치를 지정하기 위한 제1 인터페이스; 및 상기 음상의 상기 2차원 평면에 수직한 직선상에 위치를 지정하기 위한 제2 인터페이스를 포함하고, 상기 삼차원 위치는 상기 제1 인터페이스에 대한 사용자의 제1 입력 및 상기 제2 인터페이스에 대한 상기 사용자의 제2 입력을 조합하여 생성할 수 있다.
이 때, 비주얼 인터페이스는 상기 메타데이터에 상응하는 음상을 상기 영상에 오버레이하여 실시간으로 표시할 수 있다.
이 때, 메타데이터에 상응하는 음상은 상기 사용자의 머리 위치를 기준으로 설정된 반구상의 위치로 표현될 수 있다.
이 때, 비주얼 인터페이스는 상기 영상의 객체 중 상기 음상에 상응하는 객체를 하이라이트하는 객체 트래킹 인터페이스를 포함할 수 있다.
이 때, 객체 트래킹 인터페이스는 상기 영상의 객체 중 상기 오디오와의 상관성을 기반으로 상기 음상에 상응하는 객체를 결정할 수 있다.
이 때, 바이너럴 효과가 적용된 오디오는 레프트 채널 및 라이트 채널에 상응하는 2채널 오디오에 상응할 수 있다.
또한, 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 툴을 이용한 광고 제공 방법은, 모바일 단말을 통해 재생되는 영상에 동기되는 오디오에, 바이너럴(binaural) 효과를 적용하기 위한 비주얼 인터페이스를 제공하는 단계; 및 상기 비주얼 인터페이스를 기반으로 바이너럴 효과가 적용된 입체 음향 컨텐츠를 렌더링하는 동안, 렌더링 상태 피드백과 함께 광고 컨텐츠를 제공하는 단계를 포함한다.
이 때, 렌더링은 상기 비주얼 인터페이스에 대한 터치 입력을 기반으로 생성되고, 상기 영상에 동기되는 메타데이터를 기반으로 수행될 수 있다.
이 때, 광고 컨텐츠는 광고 컨텐츠 데이터베이스로부터 렌더링 소요 시간 인자 및 컨텐츠 프로파일 인자 중 적어도 하나를 기반으로 선택될 수 있다.
이 때, 렌더링 소요 시간 인자는 상기 영상에 상응하는 재생시간 및 상기 영상에 상응하는 파일 사이즈 중 어느 하나 이상을 고려하여 산출될 수 있다.
이 때, 컨텐츠 프로파일 인자는 사용자가 상기 입체 음향 컨텐츠를 렌더링한 히스토리를 기반으로 산출될 수 있다.
이 때, 광고 컨텐츠는 음원 위치 컨트롤 성향 인자를 더 고려하여 선택될 수 있다.
이 때, 음원 위치 컨트롤 성향 인자는 상기 메타데이터에 상응하는 음상의 위치 변화 값을 기반으로 산출될 수 있다.
이 때, 광고 컨텐츠를 제공하는 단계는 상기 광고 컨텐츠의 제공에 상응하는 사용자 보상을 제공하고, 상기 사용자 보상은 다른 광고 컨텐츠를 스킵하는데 사용 가능할 수 있다.
이 때, 광고 컨텐츠는 상기 바이너럴 효과가 적용된 오디오를 포함할 수 있다.
이 때, 광고 컨텐츠는 상기 모바일 단말에 대한 주변 기기 연결 상태에 따라 달라지는 오디오를 포함할 수 있다.
이 때, 바이너럴 효과가 적용된 오디오는 레프트 채널 및 라이트 채널에 상응하는 2채널 오디오에 상응할 수 있다.
본 발명에 따르면, 쉽고 직관적인 인터페이스를 포함하는 어플리케이션을 통해 모바일 단말에서 바이너럴 효과가 적용된 오디오를 포함하는 입체 음향 컨텐츠를 저작할 수 있다.
또한, 본 발명은 모바일 단말의 터치 입력에 대한 메타데이터를 이용하여 입체 음향 컨텐츠를 생성하기 위한 바이너럴 렌더링을 수행할 수 있다.
또한, 본 발명은 오디오 피드백을 실시간으로 제공해줌으로써 사용자가 보다 객체의 움직임에 대응하여 보다 수월하게 인터페이스를 조작할 수 있도록 할 수 있다.
또한, 본 발명은 모바일 단말에 연결되는 외부 음향 기기를 통해 오디오를 청취하였을 때 방향감, 거리감 및 공간감 등을 제공할 수 있다.
또한, 본 발명은 직관적인 인터페이스를 포함하는 입체 음향 컨텐츠 저작 어플리케이션을 기반으로 광고 컨텐츠를 제공함으로써 서비스 제공자에게 수익을 발생시킬 수 있다.
또한, 본 발명은 광고 컨텐츠에 기반한 사용자 보상을 지급함으로써 사용자가 어플리케이션을 보다 활발하게 활용하도록 유도할 수 있다.
또한, 본 발명은 사용자의 어플리케이션 이용 히스토리를 고려한 광고 컨텐츠를 제공하여 광고 시청률을 향상시킬 수 있다.
또한, 본 발명은 선택적으로 바이너럴 효과가 적용된 오디오를 포함하는 광고 컨텐츠를 제공함으로써 광고 컨텐츠의 내용을 보다 효과적으로 전달할 수 있다.
도 1은 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 어플리케이션의 실행 화면을 나타낸 도면이다.
도 2는 본 발명에 따른 모바일 단말의 일 예를 나타낸 블록도이다.
도 3은 본 발명에 따른 영상에 동기되는 메타데이터의 일 예를 나타낸 도면이다.
도 4는 본 발명에 따른 비주얼 인터페이스의 일 예를 나타낸 도면이다.
도 5는 본 발명에 따른 비주얼 인터페이스의 다른 예를 나타낸 도면이다.
도 6은 본 발명에 따른 음상이 위치하는 3차원 공간의 일 예를 나타낸 도면이다.
도 7은 본 발명에 따른 영상에 오버레이된 음상의 일 예를 나타낸 도면이다.
도 8 내지 도 9는 본 발명에 따른 사용자의 머리 위치를 기준으로 나타낸 음상의 일 예를 나타낸 도면이다.
도 10은 본 발명에 따른 객체 트래킹 인터페이스를 통해 객체를 하이라이트하는 과정의 일 예를 나타낸 도면이다.
도 11은 본 발명에 따른 렌더링 과정의 일 예를 나타낸 블록도이다.
도 12는 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 방법을 나타낸 동작흐름도이다.
도 13은 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 과정을 상세하게 나타낸 동작흐름도이다.
도 14 내지 도 15는 본 발명에 따른 입체 음향 컨텐츠 저작 어플리케이션 실행화면의 다른 예를 나타낸 도면이다.
도 16은 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 시스템을 나타낸 도면이다.
도 17은 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작툴을 이용한 광고 제공 시스템을 나타낸 도면이다.
도 18은 본 발명에 따른 광고 컨텐츠 제공 화면의 일 예를 나타낸 도면이다.
도 19는 본 발명에 따른 광고 컨텐츠 제공 화면의 다른 예를 나타낸 도면이다.
도 20은 본 발명에 따른 광고 선택 관련 인자와 광고 컨텐츠 데이터베이스의 일 예를 나타낸 도면이다.
도 21은 본 발명에 따른 모바일 단말에서 광고 컨텐츠를 선택하는 과정의 일 예를 나타낸 도면이다.
도 22는 본 발명에 따른 서버에서 광고 컨텐츠를 선택하는 과정의 일 예를 나타낸 도면이다.
도 23은 본 발명에 따른 사용자 보상을 제공하는 어플리케이션 실행화면의 일 예를 나타낸 도면이다.
도 24은 본 발명에 따른 사용자 보상을 이용하여 광고 컨텐츠를 스킵하는 어플리케이션 실행화면의 일 예를 나타낸 도면이다.
도 25는 본 발명에 따른 사용자 보상으로 이용 가능한 컨텐츠를 제공하는 어플리케이션 실행 화면의 일 예를 나타낸 도면이다.
도 26는 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 툴을 이용한 광고 제공 방법을 나타낸 동작 흐름도이다.
도 27은 본 발명의 일실시예에 따른 광고 제공 방법을 상세하게 나타낸 동작흐름도이다.
도 28은 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 툴을 이용한 선택적 광고 제공 시스템을 나타낸 도면이다.
도 29는 본 발명에 따른 광고 컨텐츠를 선택하는 과정의 일 예를 나타낸 도면이다.
도 30은 본 발명에 따른 오디오 체크 인터페이스의 일 예를 나타낸 도면이다.
도 31은 본 발명에 따른 광고 데이터베이스의 일 예를 나타낸 도면이다.
도 32는 본 발명의 일실시예에 따른 선택적 광고 제공 방법을 상세하게 나타낸 동작흐름도이다.
본 발명을 첨부된 도면을 참조하여 상세히 설명하면 다음과 같다. 여기서, 반복되는 설명, 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능, 및 구성에 대한 상세한 설명은 생략한다. 본 발명의 실시형태는 당 업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공되는 것이다. 따라서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.
이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 어플리케이션의 실행 화면을 나타낸 도면이다.
도 1을 참조하면, 본 발명의 일실시예에 따른 컴퓨터로 판독 가능한 기록매체에 저장된 입체 음향 컨텐츠 저작 어플리케이션은 모바일 단말을 통해 재생되는 영상에 동기되는 오디오에 바이너럴(binaural) 효과를 적용하기 위한 비주얼 인터페이스를 제공한다.
이 때, 입체 음향 컨텐츠 저작 어플리케이션은 입체 음향 컨텐츠를 저작하기 위한 툴(tool)에 상응하는 것으로, 컴퓨터에 설치되어 실행되는 컴퓨터 프로그램에 상응할 수 있다.
이 때, 바이너럴(binaural) 효과는, 사용자가 헤드폰이나 이어폰으로 오디오를 들을 때 마치 오디오의 음상이 외부에 위치하는 것처럼 입체적인 음향 효과를 제공하는 것이다. 따라서, 바이너럴 효과가 적용된 오디오를 포함하는 컨텐츠는 일반 컨텐츠보다 실감나고 현장감 있는 경험을 사용자에게 제공해줄 수 있다.
이 때, 영상은 모바일 단말에 저장된 영상에 상응할 수 있다. 예를 들어, 영상은 모바일 단말에 설치된 카메라를 통해 사용자가 직접 촬영한 영상이거나 또는 네트워크를 기반으로 다운로드받는 영상에 해당할 수 있다.
이 때, 비주얼 인터페이스는 입체 음향 컨텐츠를 저작하고 광고 컨텐츠를 제공하기 위한 입체 음향 컨텐츠 저작 어플리케이션의 실행을 기반으로 제공될 수 있으므로 어플리케이션을 실행할 수 있는 모바일 단말을 통해 제공될 수 있다. 이 때, 광고는 주변 기기의 연결 상태에 따라 선택적으로 생성될 수 있다.
예를 들어, 비주얼 인터페이스는 도 1에 도시된 실행화면에 상응하게 구성될 수 있다.
이 때, 모바일 단말은 네트워크를 기반으로 데이터 통신을 수행 가능한 단말에 상응할 수 있다.
예를 들어, 모바일 단말은 네트워크와 같은 통신망을 통해 입체 음향 컨텐츠 저작과 선택적 광고 컨텐츠 제공을 위해 필요한 정보를 송수신할 수 있다. 특히, 본 발명에서는 네트워크를 기반으로 서버로부터 어플리케이션 및 광고 컨텐츠 등을 획득할 수 있다.
또한, 모바일 단말은 중앙연산 처리장치에 상응하는 프로세서를 기반으로 메모리에 저장된 어플리케이션을 실행시켜 입체 음향 컨텐츠 저작과 함께 선택적 광고 컨텐츠를 제공할 수 있다.
이 때, 모바일 단말의 메모리에는 운영체제(Operating System, OS)와 함께 본 발명의 일실시예에 따른 어플리케이션을 포함한 각종 어플리케이션들이 저장될 수 있다. 따라서, 본 발명의 일실시예에 따른 어플리케이션은 모바일 단말에 설치되어 실행되는 컴퓨터 프로그램에 상응할 수 있다.
또한, 모바일 단말의 메모리는 본 발명의 실시예에 따른 선택적 광고 제공을 위한 기능을 지원할 수 있다. 이 때, 메모리는 별도의 대용량 스토리지로 동작할 수 있고, 동작 수행을 위한 제어 기능을 포함할 수도 있다. 일 구현예의 경우, 메모리는 컴퓨터로 판독 가능한 매체이다. 일 구현 예에서, 메모리는 휘발성 메모리 유닛일 수 있으며, 다른 구현예의 경우, 메모리는 비휘발성 메모리 유닛일 수도 있다. 다양한 서로 다른 구현 예에서, 메모리는 예컨대 하드디스크 장치, 광학디스크 장치, 혹은 어떤 다른 대용량 저장장치를 포함할 수도 있다.
또한, 본 발명의 일실시예에 따른 컴퓨터로 판독 가능한 기록매체에 저장된 어플리케이션은 비주얼 인터페이스를 기반으로 바이너럴 효과가 적용된 입체 음향 컨텐츠를 렌더링하는 동안에 렌더링 상태 피드백과 함께 모바일 단말에 대한 주변 기기 연결 상태를 고려하여 선택적으로 바이너럴 효과가 적용된 오디오를 포함하는 광고 컨텐츠를 제공한다.
이 때, 주변 기기 연결 상태는 모바일 단말에 외부 오디오 기기가 유/무선 연결되었는지 여부에 상응할 수 있다.
이 때, 광고 컨텐츠는 외부 오디오 기기가 연결되고 연결된 외부 오디오 기기가 바이너럴 효과를 표현 가능한 기기인 경우에 바이너럴 효과가 적용된 오디오가 포함될 수 있다.
또한, 광고 컨텐츠는 외부 오디오 기기가 연결되되 연결된 외부 오디오 기기가 바이너럴 효과를 표현 가능한 기기가 아닌 경우 및 외부 오디오 기기가 연결되지 않은 경우 중 어느 하나의 경우에는 바이너럴 효과가 적용되지 않은 오디오가 포함될 수 있다.
예를 들어, 바이너럴 효과를 표현 가능한 기기는 레프트 채널과 라이트 채널을 통해 두 귀로 소리를 전달할 수 있는 유/무선 이어폰이나 유/무선 헤드폰 등에 상응할 수 있다.
예를 들어, 도 2를 참조하면, 본 발명의 일실시예에 따른 모바일 단말은 통신부(210), 프로세서(220) 및 메모리(230)를 포함한다.
통신부(210)는 네트워크와 같은 통신망을 통해 입체 음향 컨텐츠 저작과 광고 컨텐츠 제공을 위해 필요한 정보를 송수신하는 역할을 한다. 특히, 본 발명의 일실시예에 따른 통신부(210)는 네트워크를 기반으로 어플리케이션을 제공하는 서버로부터 입체 음향 컨텐츠 저작 어플리케이션을 획득할 수 있고, 서버로부터 어플리케이션 및 광고 컨텐츠 등을 획득할 수 있다.
이 때, 서버는 입체 음향 컨텐츠 저작 어플리케이션 및 입체 음향 컨텐츠 저작 어플리케이션의 실행과 관련된 다양한 컨텐츠와 서비스를 제공할 수 있다.
예를 들어, 도 16을 참조하면, 모바일 단말(1610)과 서버(1620)는 네트워크(1630)를 기반으로 데이터를 송수신할 수 있다. 이 때, 모바일 단말(1610)은 서버(1620)로부터 입체 음향 컨텐츠 저작에 필요한 다양한 컨텐츠 또는 데이터를 다운로드하여 사용할 수도 있다.
이 때, 네트워크(1630)는 기존의 이용되는 네트워크 및 향후 개발 가능한 네트워크를 모두 포괄하는 개념이다. 예를 들어, 네트워크는 인터넷 프로토콜(IP)을 기반으로 데이터 서비스를 제공하는 아이피망, 유선망, WiBro(Wireless Broadband)망, WCDMA를 포함하는 3세대 이동통신망, HSDPA(High Speed Downlink Packet Access)망 및 LTE 망을 포함하는 3.5세대 이동통신망, LTE advanced를 포함하는 4세대 이동통신망, 위성통신망 및 와이파이(Wi-Fi)망 중 어느 하나 또는 하나 이상을 결합하여 이루어질 수 있다.
프로세서(220)는 중앙연산 처리장치에 상응하는 것으로, 메모리(230)에 저장된 입체 음향 컨텐츠 저작 어플리케이션을 실행시켜 제어할 수 있다. 이 때, 단말은 중앙연산 처리장치에 상응하는 프로세서를 기반으로 메모리에 저장된 어플리케이션을 실행시켜 입체 음향 컨텐츠 저작과 함께 광고 컨텐츠를 제공할 수 있다.
이 때, 메모리(230)에는 운영체제(Operating System, OS)와 함께 입체 음향 컨텐츠 저작 어플리케이션을 포함한 각종 어플리케이션들이 저장될 수 있다. 따라서, 입체 음향 컨텐츠 저작 어플리케이션은 모바일 단말에 설치되어 실행되는 컴퓨터 프로그램에 상응할 수 있다.
또한, 메모리(230)는 본 발명의 실시예에 따른 입체 음향 컨텐츠 저작을 위한 기능을 지원할 수 있다. 이 때, 메모리(230)는 별도의 대용량 스토리지로 동작할 수 있고, 동작 수행을 위한 제어 기능을 포함할 수도 있다. 일 구현예의 경우, 메모리는 컴퓨터로 판독 가능한 매체이다. 일 구현 예에서, 메모리는 휘발성 메모리 유닛일 수 있으며, 다른 구현예의 경우, 메모리는 비휘발성 메모리 유닛일 수도 있다. 다양한 서로 다른 구현 예에서, 메모리는 예컨대 하드디스크 장치, 광학디스크 장치, 혹은 어떤 다른 대용량 저장장치를 포함할 수도 있다.
또한, 메모리(230)는 본 발명의 실시예에 따른 광고 제공을 위한 기능을 지원할 수 있다. 이 때, 메모리는 별도의 대용량 스토리지로 동작할 수 있고, 동작 수행을 위한 제어 기능을 포함할 수도 있다. 일 구현예의 경우, 메모리는 컴퓨터로 판독 가능한 매체이다. 일 구현 예에서, 메모리는 휘발성 메모리 유닛일 수 있으며, 다른 구현예의 경우, 메모리는 비휘발성 메모리 유닛일 수도 있다. 다양한 서로 다른 구현 예에서, 메모리는 예컨대 하드디스크 장치, 광학디스크 장치, 혹은 어떤 다른 대용량 저장장치를 포함할 수도 있다.
도 2에 도시된 모바일 단말은 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 장치에 상응하는 것일 수 있다.
프로세서(220)는 모바일 단말을 통해 재생되는 영상에 동기되는 오디오에 바이너럴(binaural) 효과를 적용하기 위한 비주얼 인터페이스를 제공하고, 상기 비주얼 인터페이스에 대한 터치 입력을 기반으로 상기 영상에 동기되는 메타데이터를 생성할 수 있다.
메모리(230)는 상기 메타데이터에 상응하고, 바이너럴 효과가 적용된 오디오를 포함하는 입체 음향 컨텐츠를 저장할 수 있다.
이 때, 상기 바이너럴 효과가 적용된 오디오는 상기 메타데이터를 생성한 후 수행되는 렌더링에 의하여 최종 생성되고, 상기 입체 음향 컨텐츠는 상기 메타데이터에 포함된 특정 재생 시점 대표 음상의 위치를 기반으로 영상의 재생에 대하여 비실시간적으로 생성될 수 있다.
이 때, 상기 프로세서는 상기 바이너럴 효과가 적용된 오디오가 생성되기 전에, 상기 터치 입력에 즉각적으로 반응하여 바이너럴 효과가 적용되는 것을 느낄 수 있도록 하는 피드백 오디오를 출력할 수 있다.
이 때, 상기 비주얼 인터페이스는 상기 피드백 오디오에 의하여 상기 바이너럴 효과를 느끼는 사용자에 의하여 상기 영상의 특정 재생 시점에 상응하여 설정되는 상기 특정 재생 시점 대표 음상의 위치를 지정하기 위해 제공되고, 상기 특정 재생 시점 대표 음상의 위치는 상기 사용자의 머리를 기준으로 설정된 위치일 수 있다.
또한, 본 발명의 일실시예에 따른 컴퓨터로 판독 가능한 기록매체에 저장된 입체 음향 컨텐츠 저작 어플리케이션은 비주얼 인터페이스에 대한 터치 입력을 기반으로 영상에 동기되는 메타데이터를 생성한다. 이 때, 어플리케이션은 바이너럴 효과가 적용된 입체 음향 컨텐츠를 렌더링하는 동안에 렌더링 상태 피드백과 함께 광고 컨텐츠를 제공할 수 있다.
예를 들어, 메타데이터는 비주얼 인터페이스에 대한 터치 입력 값을 기반으로 생성될 수 있다. 즉, 모바일 단말의 사용자는 영상에 포함된 객체의 움직임을 보면서 비주얼 인터페이스를 조작하여 영상에 동기된 오디오의 음상을 조절할 수 있다.
이 때, 터치 입력 값은 멀티터치 입력 값일 수 있다. 3차원 좌표상의 위치를 효과적으로 지정하기 위해서는 화면상의 싱글 포인트를 설정하는 싱글 터치로는 부족하고, 화면상의 복수개의 포인트들을 동시에 설정할 수 있는 멀티 터치가 필요할 수 있다.
즉, 멀티 터치가 지원되지 않는 경우나 화면에 대한 터치 입력이 아닌 키보드나 마우스를 이용한 입력 값을 이용하여 메타데이터를 생성하는 경우에는 사용자가 영상을 보면서 직관적이면서도 효율적으로 메타데이터를 생성하기 어려울 수 있다.
이 때, 메타데이터는 모바일 단말에서 재생되는 영상에 동기되어 생성될 수 있다.
예를 들어, 도 3에 도시된 것과 같이 영상을 재생하는 동안 생성된 메타데이터(320-1~320-N)를 각각 터치 입력 시점에 재생된 영상의 프레임들(310-1~310-N)에 매칭시켜 메타데이터와 영상을 동기화할 수 있다.
이 때, 입체 음향 컨텐츠 저작 어플리케이션은 터치 입력에 즉각적으로 반응하여 바이너럴 효과가 적용된 피드백 오디오를 출력할 수 있다.
이 때, 피드백 오디오는 메타데이터를 기반으로 바이너럴 효과가 적용되어 있지 않은 기존의 오디오를 변형한 것에 상응할 수 있다. 즉, 사용자에 의한 터치 입력이 발생하면, 이에 상응하게 생성되는 메타데이터를 실시간으로 반영하여 피드백 오디오를 출력해줄 수 있다. 만약, 즉각적으로 피드백 오디오가 출력되지 않는다면, 사용자는 렌더링이 완료될 때까지 자신이 변형한 오디오를 들을 수 없기 때문에 영상과 대응하지 않도록 바이너럴 효과가 적용될 수도 있다.
따라서, 본 발명에서는 즉각적으로 피드백 오디오를 출력해줌으로써 사용자가 영상에 포함된 객체의 움직임에 대응하여 터치 입력을 수행하도록 할 수 있다.
이 때, 바이너럴 효과가 적용된 피드백 오디오는 이어폰이나 헤드폰과 같이 사용자가 바이너럴 효과에 따른 입체감을 느낄 수 있는 외부 음향 기기를 통해 출력될 수 있다.
이 때, 메타데이터는 바이너럴 효과에 상응하는 음상의 삼차원 위치에 상응할 수 있다. 이 때, 음상의 삼차원 위치는 바이너럴 효과를 느끼는 모바일 단말의 사용자를 기준으로 할 수 있다.
예를 들어, 본 발명에 따른 음상의 삼차원 위치는 도 6에 도시된 것과 같은 사용자의 머리를 기준으로 하는 반구 형태의 3차원 공간 상에 나타낼 수 있다. 따라서, 바이너럴 효과가 적용된 오디오의 경우, 사용자를 기준으로 360도에서 입체적으로 소리가 들리는 효과를 제공할 수 있다.
이와 같이, 본 발명에서는 X축, Y축, Z축을 이용하는 삼차원 공간 상에 음상을 배치함으로써 기존의 음향 기술보다 깊은 몰입감을 제공할 수 있다.
이 때, 비주얼 인터페이스는 음상의 2차원 평면상의 위치를 지정하기 위한 제1 인터페이스 및 음상의 2차원 평면에 수직한 직선상에 위치를 지정하기 위한 제2 인터페이스를 포함하고, 삼차원 위치는 제1 인터페이스에 대한 사용자의 제1 입력 및 제2 인터페이스에 대한 사용자의 제2 입력을 조합하여 생성될 수 있다.
예를 들어, 도 4를 참조하면, 사용자가 영상에 포함된 객체(400)의 움직임에 따라 제1 인터페이스(410)와 제2 인터페이스(420)를 조작할 수 있다. 이 때, 영상에 포함된 객체(400)가 이동하는 방향에 따라 제1 인터페이스(410)의 조작키와 제2 인터페이스(420)의 조작키를 터치 입력으로 이동시킬 수 있다. 이 때, 터치 입력에 따른 제1 입력과 제2 입력을 조합하여 생성된 삼차원 위치를 메타데이터로 기록할 수 있다.
다른 예를 들어, 도 5를 참조하면, 사용자가 영상에 포함된 객체(500)의 움직임에 따라 사용자의 머리 위치를 포함하는 제3 인터페이스(510)를 조작할 수도 있다. 이 때, 사용자가 제3 인터페이스(510)에 해당하는 3차원 위치에 음상을 터치 입력으로 선택하면, 선택된 위치에 상응하는 삼차원 위치를 메타데이터로 기록할 수도 있다. 이 때, 제3 인터페이스(510)는 조작의 편의를 위해 머리의 방향을 회전시키면서 음상을 터치할 수도 있다.
이 때, 비주얼 인터페이스는 도 4 내지 도 5에 도시된 형태에 한정되지 않으며, 음상의 3차원 위치를 입력 가능한 다양한 형태로 제공될 수 있다.
이 때, 비주얼 인터페이스에 포함된 모드변경 버튼을 기반으로 피드백 오디오에 의한 영상을 플레이하는 플레이 모드나 비주얼 인터페이스에 의해 음상의 위치를 조절하기 위한 편집 모드 중 어느 하나의 모드를 선택적으로 제공할 수도 있다. 이 때, 모드변경 버튼은 토글(toggle) 방식으로 동작할 수 있다.
이 때, 비주얼 인터페이스는 메타데이터에 상응하는 음상을 영상에 오버레이하여 실시간으로 표시할 수 있다.
예를 들어, 도 7에 도시된 것과 같이 사용자가 비주얼 인터페이스에 포함된 제1 인터페이스와 제2 인터페이스를 조작하여 변화하는 음상(710)을 영상에 보여지는 객체에 오버레이하여 표시해줄 수 있다. 이 때, 사용자가 터치 입력을 기반으로 제1 인터페이스나 제2 인터페이스를 조작하는 경우, 음상(710)의 위치도 실시간으로 이동시키면서 보여줄 수도 있다.
이 때, 메타데이터에 상응하는 음상은 사용자의 머리 위치를 기준으로 설정된 반구상의 위치로 표현될 수 있다.
예를 들어, 도 7에 도시된 것과 같이 별도의 음상 트래킹 인터페이스(720)를 통해 변화하는 음상을 보여줄 수도 있다. 이 때, 음상 트래킹 인터페이스(720)는 도 8에 도시된 것과 같이 사용자의 머리 위치를 기준으로 생성된 반구상의 공간에 상응하는 형태로 제공될 수 있다. 이 때, 음상의 3차원 위치를 보다 직관적으로 식별할 수 있도록 사용자 머리의 방향을 회전하면서 음상을 표시할 수도 있다.
다른 예를 들어, 도 9에 도시된 것과 같이 사용자의 머리를 기준으로 하는 2차원 평면상에서 위치를 나타낼 수도 있다. 이 때, 도 9에 도시된 음상의 위치는 비주얼 인터페이스에 포함된 제1 인터페이스의 입력값에 상응할 수도 있다.
이 때, 비주얼 인터페이스는 영상의 객체 중 음상에 상응하는 객체를 하이라이트하는 객체 트래킹 인터페이스를 포함할 수 있다.
이 때, 객체 트래핑 인터페이스는 영상의 객체 중 오디오와의 상관성을 기반으로 음상에 상응하는 객체를 결정할 수 있다. 즉, 영상에 동기되는 오디오가 크게 변화하는 순간, 영상 내의 객체의 변화를 고려하여 오디오의 변화에 상관성이 높다고 판단되는 객체를 음상에 상응하는 객체로 결정할 수 있다.
예를 들어, 객체 트래킹 인터페이스는 영상에 동기되는 오디오가 기설정된 기준 변화량 이상 변화하는 시점에서 새롭게 등장하는 객체를 음상에 상응하는 객체로 판단하고 하이라이트 할 수 있다. 즉, 도 10을 참조하면, 영상에 동기되는 오디오(1010)가 큰 변화를 보이지 않는 구간에서는 영상 프레임(1020)에서도 새로운 객체가 등장하거나 큰 변화가 나타나지 않는 것을 확인할 수 있다. 그러나, 영상 프레임(1030)에 나타난 것과 같이 자동차 객체(1000)가 등장하면서 오디오(1010)가 크게 변화하는 것을 알 수 있다. 이 때, 객체 트래핑 인터페이스는 자동차를 음상에 상응하는 객체(1000)로 판단하고, 사용자가 객체(1000)를 쉽게 식별할 수 있도록 하이라이트 처리할 수 있다.
또한, 본 발명의 일실시예에 따르면, 객체 트래핑 인터페이스는 음상에 상응하게 인식된 객체의 움직임에 따라 음상의 위치도 그에 상응하게 변경시킬 수도 있다. 즉, 사용자가 직접 음상을 변경하지 않아도, 객체 트래핑 인터페이스를 통해 인식된 음상에 상응하는 객체를 트래킹하면서 자동으로 음상에 대한 메타데이터가 생성되도록 할 수도 있다.
또한, 본 발명의 일실시예에 따른 컴퓨터로 판독 가능한 기록매체에 저장된 입체 음향 컨텐츠 저작 어플리케이션은 메타데이터를 기반으로 바이너럴 효과가 적용된 오디오를 포함하는 입체 음향 컨텐츠를 렌더링한다.
이 때, 입체 음향 컨텐츠는 모바일 단말을 통해 재생 가능한 컨텐츠에 상응할 수 있으며, 사용자가 입체 음향 컨텐츠를 시청하는 경우에 마치 사용자의 주위로 여러 개의 스피커가 설치되어있는 환경에서 오디오가 출력되는 것과 같은 음향 효과를 느낄 수 있다.
이 때, 바이너럴 효과가 적용된 오디오는 레프트 채널 및 라이트 채널에 상응하는 2채널 오디오일 수 있다. 따라서, 2채널 오디오만을 지원하는 단말이나 디바이스에서도 마치 5.1 채널이나 10.2 채널과 같은 음향 효과를 느낄 수 있는 입체 음향 컨텐츠를 제공할 수 있다.
이 때, 본 발명의 일실시예에 따른 바이너럴 효과가 적용된 오디오는 기존 기술 또는 향후 개발 가능한 기술을 적용하여 생성될 수 있다.
한국등록공보 10-1599554에는 MPEG 서라운드(MPEG Surround)라는 국제표준의 다채널 오디오 부호화 기술을 기반으로 3차원 바이너를 신호를 출력하는 내용을 개시하고 있다. 10-1599554에서는 MPEG Surround(MPS) 국제 표준을 기반으로 멀티채널 오디오 재생특성 파라미터를 추출하고, 오디오 재생특성 파라미터를 이용하여 다운믹스 오디오 신호에 대해 HRTF(Head Related Transfer function) 필터링을 수행하여 3D 바이너럴 신호를 출력하는 내용을 개시하고 있다. 여기서 HRTF 필터링은 인간의 청각기관을 모델링한 더미 헤더 마이크를 이용하여 360도의 방위각과 180도의 고도각 사이를 특정 간격을 두고 각각의 위치에 대한 좌우 양쪽의 임펄스 응답을 구하는 필터링일 수 있다.
이 때, 멀티채널 오디오 재생특성 파라미터는 주파수 대역 별 전후방 채널 신호의 출력 레벨 차에 대한 것으로, MPEG-Surround(MPS) 국제 표준에서 다채널 오디오 신호를 입력 받아 두 귀 사이의 소리 크기 차이와 채널 사이의 상관도 등으로 표현되는 공간 파라미터를 기반으로 추출될 수 있다.
또한, 한국등록공보 10-0971700에는 가상음원의 위치정보와 각 채널 별 바이노럴 필터 계수에 기초하여 좌/우 오디오 신호를 주파수 영역에서 필터링하고, 필터링된 신호를 바이노럴 스테레오 신호로 복호화하는 내용을 개시하고 있다. 이 때, 입력되는 시간 영역의 스테레오 좌/우 오디오 신호를 DFT(Discrete Fourier Transform) 또는 FFT(Fast Fourier Transform)를 이용하여 주파수 영역의 신호로 변환하고, 가상음원의 위치정보를 기반으로 할당된 서브밴드 별 각 채널의 파워 이득 값과 각 채널에 대한 주파수 영역의 좌/우 HRTF 계수 블록에 기초하여 주파수 영역에 상응하는 스테레오 좌/우 신호를 바이노럴 스테레오 신호로 필터링할 수 있다.
이 때, 가상음원의 위치정보(VSLI: Virtual Source Location Information) 기반의 공간 큐 정보를 합성하여 서브밴드 별 각 채널의 파워 이득값을 산출할 수 있고, 스테레오 신호에 대한 VSLI 기반의 공간 큐 정보는 임의의 서브밴드(m)에 대하여, 좌측반면각(LHA: Left Half-plane Angle)(LHA(m)), 좌측보조평면각(LSA: Left Subsequent Angle)(LSA(m)), 우측반면각(RHA: Right Half-plane Angle)(RHA(m)) 및 우측보조평면각(RSA: Right Subsequent Angle)(RSA(m))을 포함할 수 있다.
따라서, 본 발명에서도 상기와 같은 기술을 기반으로 메타데이터에 상응하게 바이너럴 효과가 적용된 오디오를 생성할 수 있다.
예를 들어, MPEG-Surround(MPS) 국제 표준을 기반으로 영상에 동기되는 오디오에 대한 공간 파라미터를 추출하고, 메타데이터에 상응하는 음원의 삼차원 위치와 공간 파라미터를 기반으로 오디오에 대해 HRTF(Head Related Transfer Function) 필터링을 수행함으로써 바이너럴 효과가 적용된 오디오 신호를 생성할 수 있다.
다른 예를 들어, 영상에 동기되는 오디오를 주파수 영역의 스테레오 좌/우 오디오 신호로 변환하고, 메타데이터에 상응하는 위치정보를 기반으로 공간 큐 정보를 합성하여 서브밴드 별 각 채널의 파워 이득값을 산출한 뒤 각 채널에 대한 주파수 영역의 좌/우 HRTF 계수 블록에 기초하여 바이너럴 효과가 적용된 오디오를 생성할 수 있다.
이 때, 영상, 바이너럴 효과가 적용된 오디오 및 부가 데이터를 포함하는 컨테이너를 생성하고, 영상 및 바이너럴 효과가 적용된 오디오는 동기 될 수 있다.
예를 들어, 도 11을 참조하면, 본 발명의 일실시예에 따른 비주얼 인터페이스에 대한 터치 입력을 기반으로 영상(1111) M1에 동기되는 오디오(1112) S1에 대한 메타데이터(1120)를 생성하였다고 가정할 수 있다. 이 때, 입체 음향 컨텐츠 저작 어플리케이션은 영상(1111) M1에 동기되는 오디오(1112) S1과 메타데이터(1120)를 이용하여 바이너럴 효과가 적용된 오디오(1121) S2를 생성할 수 있고, 렌더링을 수행하여 영상(1111) M1, 바이너럴 효과가 적용된 오디오(1121) S2 및 부가 데이터(1130)를 포함하는 컨테이너(1140)를 생성할 수 있다.
이 때, 부가 데이터(1130)는 입체 음향 컨텐츠의 포맷에 관련된 정보나 렌더링을 위한 파라미터 등을 포함할 수 있다.
이 때, 비주얼 인터페이스에 대한 터치 입력을 기반으로 렌더링을 시작할 수 있다.
예를 들어, 사용자가 비주얼 인터페이스에 포함된 저장 버튼(SAVE)을 터치하는 경우, 입체 음향 컨텐츠를 생성하기 위한 렌더링을 시작할 수 있다. 이 때, 렌더링되어 생성된 입체 음향 컨텐츠는 입체 음향 컨텐츠 저작 어플리케이션을 기반으로 모바일 단말에 저장될 수 있다.
이 때, 렌더링은 바이너럴 효과가 적용된 오디오(1121) S2를 생성하는 과정과 함께 수행될 수도 있다.
또한, 사용자가 렌더링을 수행하지 않고 비주얼 인터페이스를 정지 또는 종료하는 경우, 현재까지 생성된 메타데이터를 보관하거나 또는 삭제할 수도 있다.
예를 들어, 사용자가 비주얼 인터페이스에 포함된 정지 버튼(PAUSE)을 터치하는 경우, 현재까지 생성된 메타데이터를 영상과 함께 저장하여 보관할 수도 있다.
다른 예를 들어, 사용자가 비주얼 인터페이스에 포함된 종료 버튼(End) 또는 나가기 버튼(EXIT)을 터치하는 경우, 현재까지 생성된 메타데이터를 삭제하고 비주얼 인터페이스를 종료할 수도 있다.
이 때, 광고 컨텐츠는 광고 컨텐츠 데이터베이스로부터 렌더링 소요 시간 인자 및 컨텐츠 프로파일 인자 중 적어도 하나를 기반으로 선택될 수 있다.
또한, 광고 컨텐츠는 음원 위치 컨트롤 성향인자를 더 고려하여 선택될 수 있다.
이 때, 광고 컨텐츠는 광고 컨텐츠 데이터베이스로부터 렌더링 소요 시간 인자 및 컨텐츠 프로파일 인자 중 적어도 하나를 기반으로 선택될 수 있다.
또한, 광고 컨텐츠는 음원 위치 컨트롤 성향인자를 더 고려하여 선택될 수 있다.
이와 같은 입체 음향 컨텐츠 저작 어플리케이션을 이용하여, 방향감, 거리감 및 공간감을 제공할 수 있는 입체 음향 컨텐츠를 생성할 수 있다.
또한, 쉽고 직관적인 인터페이스를 기반으로 누구나 쉽게 바이너럴 효과가 적용된 입체 음향 컨텐츠를 저작할 수 있다.
도 12는 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 방법을 나타낸 동작흐름도이다.
도 12를 참조하면, 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 방법은 모바일 단말을 통해 재생되는 영상에 동기되는 오디오에, 바이너럴(binaural) 효과를 적용하기 위한 비주얼 인터페이스를 제공한다(S1210).
이 때, 바이너럴(binaural) 효과는, 사용자가 헤드폰이나 이어폰으로 오디오를 들을 때 마치 오디오의 음상이 외부에 위치하는 것처럼 입체적으로 들리게 해주는 것이다. 따라서, 바이너럴 효과가 적용된 컨텐츠는 일반 컨텐츠보다 실감나고 현장감 있는 경험을 사용자에게 제공해줄 수 있다.
이 때, 비주얼 인터페이스는 입체 음향 컨텐츠 저작 어플리케이션의 실행을 기반으로 제공될 수 있으므로 입체 음향 컨텐츠 저작 어플리케이션이 실행 가능한 모바일 단말을 통해 제공될 수 있다.
이 때, 모바일 단말은 네트워크를 이용한 데이터 통신을 기반으로 입체 음향 컨텐츠 저작 어플리케이션을 제공하는 서버로부터 입체 음향 컨텐츠 저작 어플리케이션을 획득할 수 있다. 따라서, 모바일 단말은 네트워크를 기반으로 데이터 통신을 수행 가능한 단말에 상응할 수 있다.
이 때, 모바일 단말의 메모리에는 운영체제(Operating System, OS)와 함께 입체 음향 컨텐츠 저작 어플리케이션을 포함한 각종 어플리케이션들이 저장될 수 있다. 따라서, 입체 음향 컨텐츠 저작 어플리케이션은 모바일 단말에 설치되어 실행되는 컴퓨터 프로그램에 상응할 수 있다.
또한, 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 방법은 비주얼 인터페이스에 대한 터치 입력을 기반으로 영상에 동기되는 메타데이터를 생성하고, 터치 입력에 즉각적으로 반응하여 바이너럴 효과가 적용된 피드백 오디오를 출력한다(S1220).
이 때, 모바일 단말의 사용자는 영상에 포함된 객체의 움직임을 보면서 비주얼 인터페이스를 조작하여 영상에 동기된 오디오의 음상을 조절할 수 있는데, 이 때에 입력값을 기반으로 메타데이터를 생성할 수 있다.
이 때, 터치 입력 값은 멀티터치 입력 값일 수 있다. 3차원 좌표상의 위치를 효과적으로 지정하기 위해서는 화면상의 싱글 포인트를 설정하는 싱글 터치로는 부족하고, 화면상의 복수개의 포인트들을 동시에 설정할 수 있는 멀티 터치가 필요할 수 있다.
즉, 멀티 터치가 지원되지 않는 경우나 화면에 대한 터치 입력이 아닌 키보드나 마우스를 이용한 입력 값을 이용하여 메타데이터를 생성하는 경우에는 사용자가 영상을 보면서 직관적이면서도 효율적으로 메타데이터를 생성하기 어려울 수 있다.
이 때, 메타데이터는 모바일 단말에서 재생되는 영상에 동기되어 생성될 수 있다.
예를 들어, 도 3에 도시된 것과 같이 영상을 재생하는 동안 생성된 메타데이터(320-1~320-N)를 각각 터치 입력 시점에 재생된 영상의 프레임들(310-1~310-N)에 매칭시켜 메타데이터와 영상을 동기화할 수 있다.
이 때, 터치 입력에 즉각적으로 반응하여 바이너럴 효과가 적용된 피드백 오디오를 출력할 수 있다.
이 때, 피드백 오디오는 메타데이터를 기반으로 기존의 오디오를 변형한 것에 상응할 수 있다. 즉, 사용자에 의한 터치 입력이 발생하면, 이에 상응하게 생성되는 메타데이터를 실시간으로 반영하여 피드백 오디오를 출력해줄 수 있다. 만약, 즉각적으로 피드백 오디오가 출력되지 않는다면, 사용자는 렌더링이 완료될 때까지 자신이 변형한 오디오를 들을 수 없기 때문에 영상과 대응하지 않도록 바이너럴 효과가 적용될 수도 있다.
따라서, 본 발명에서는 즉각적으로 피드백 오디오를 출력해줌으로써 사용자가 영상에 포함된 객체의 움직임에 대응하여 터치 입력을 수행하도록 할 수 있다.
이 때, 바이너럴 효과가 적용된 피드백 오디오는 이어폰이나 헤드폰과 같이 사용자가 바이너럴 효과에 따른 입체감을 느낄 수 있는 외부 음향 기기를 통해 출력될 수 있다.
이 때, 메타데이터는 바이너럴 효과에 상응하는 음상의 삼차원 위치에 상응할 수 있다. 이 때, 음상의 삼차원 위치는 바이너럴 효과를 느끼는 모바일 단말의 사용자를 기준으로 할 수 있다.
예를 들어, 본 발명에 따른 음상의 삼차원 위치는 도 6에 도시된 것과 같은 사용자의 머리를 기준으로 하는 반구 형태의 3차원 공간 상에 나타낼 수 있다. 따라서, 바이너럴 효과가 적용된 오디오의 경우, 사용자를 기준으로 360도에서 입체적으로 소리가 들리는 효과를 제공할 수 있다.
이와 같이, 본 발명에서는 X축, Y축, Z축을 이용하는 삼차원 공간 상에 음상을 배치함으로써 기존의 음향 기술보다 깊은 몰입감을 제공할 수 있다.
이 때, 비주얼 인터페이스는 음상의 2차원 평면상의 위치를 지정하기 위한 제1 인터페이스 및 음상의 2차원 평면에 수직한 직선상에 위치를 지정하기 위한 제2 인터페이스를 포함하고, 삼차원 위치는 제1 인터페이스에 대한 사용자의 제1 입력 및 제2 인터페이스에 대한 사용자의 제2 입력을 조합하여 생성될 수 있다.
예를 들어, 도 4를 참조하면, 사용자가 영상에 포함된 객체(400)의 움직임에 따라 제1 인터페이스(410)와 제2 인터페이스(420)를 조작할 수 있다. 이 때, 영상에 포함된 객체(400)가 이동하는 방향에 따라 제1 인터페이스(410)의 조작키와 제2 인터페이스(420)의 조작키를 터치 입력으로 이동시킬 수 있다. 이 때, 터치 입력에 따른 제1 입력과 제2 입력을 조합하여 생성된 삼차원 위치를 메타데이터로 기록할 수 있다.
다른 예를 들어, 도 5를 참조하면, 사용자가 영상에 포함된 객체(500)의 움직임에 따라 사용자의 머리 위치를 포함하는 제3 인터페이스(510)를 조작할 수도 있다. 이 때, 사용자가 제3 인터페이스(510)에 해당하는 3차원 위치에 음상을 터치 입력으로 선택하면, 선택된 위치에 상응하는 삼차원 위치를 메타데이터로 기록할 수도 있다. 이 때, 제3 인터페이스(510)는 조작의 편의를 위해 머리의 방향을 회전시키면서 음상을 터치할 수도 있다.
이 때, 비주얼 인터페이스는 도 4 내지 도 5에 도시된 형태에 한정되지 않으며, 음상의 3차원 위치를 입력 가능한 다양한 형태로 제공될 수 있다.
이 때, 비주얼 인터페이스는 모드변경 버튼(MODE)을 이용하여 피드백 오디오에 의한 영상을 플레이하는 플레이 모드나 비주얼 인터페이스에 의해 음상의 위치를 조절하기 위한 편집 모드 중 어느 하나의 모드를 선택적으로 제공할 수 있다. 이 때, 모드변경 버튼은 토글(toggle) 방식으로 동작할 수 있다.
이 때, 비주얼 인터페이스는 메타데이터에 상응하는 음상을 영상에 오버레이하여 실시간으로 표시할 수 있다.
예를 들어, 도 7에 도시된 것과 같이 사용자가 비주얼 인터페이스에 포함된 제1 인터페이스와 제2 인터페이스를 조작하여 변화하는 음상(710)을 영상에 보여지는 객체에 오버레이하여 표시해줄 수 있다. 이 때, 사용자가 터치 입력을 기반으로 제1 인터페이스나 제2 인터페이스를 조작하는 경우, 음상(710)의 위치도 실시간으로 이동시키면서 보여줄 수도 있다.
이 때, 메타데이터에 상응하는 음상은 사용자의 머리 위치를 기준으로 설정된 반구상의 위치로 표현될 수 있다.
예를 들어, 도 7에 도시된 것과 같이 별도의 음상 트래킹 인터페이스(720)를 통해 변화하는 음상을 보여줄 수도 있다. 이 때, 음상 트래킹 인터페이스(720)는 도 8에 도시된 것과 같이 사용자의 머리 위치를 기준으로 생성된 반구상의 공간에 상응하는 형태로 제공될 수 있다. 이 때, 음상의 3차원 위치를 보다 직관적으로 식별할 수 있도록 사용자 머리의 방향을 회전하면서 음상을 표시할 수도 있다.
다른 예를 들어, 도 9에 도시된 것과 같이 사용자의 머리를 기준으로 하는 2차원 평면상에서 위치를 나타낼 수도 있다. 이 때, 도 9에 도시된 음상의 위치는 비주얼 인터페이스에 포함된 제1 인터페이스의 입력값에 상응할 수도 있다.
이 때, 비주얼 인터페이스는 영상의 객체 중 음상에 상응하는 객체를 하이라이트하는 객체 트래킹 인터페이스를 포함할 수 있다.
이 때, 객체 트래핑 인터페이스는 영상의 객체 중 오디오와의 상관성을 기반으로 음상에 상응하는 객체를 결정할 수 있다. 즉, 영상에 동기되는 오디오가 크게 변화하는 순간, 영상 내의 객체의 변화를 고려하여 오디오의 변화에 상관성이 높다고 판단되는 객체를 음상에 상응하는 객체로 결정할 수 있다.
예를 들어, 객체 트래킹 인터페이스는 영상에 동기되는 오디오가 기설정된 기준 변화량 이상 변화하는 시점에서 새롭게 등장하는 객체를 음상에 상응하는 객체로 판단하고 하이라이트 할 수 있다. 즉, 도 10을 참조하면, 영상에 동기되는 오디오(1010)가 큰 변화를 보이지 않는 구간에서는 영상 프레임(1020)에서도 새로운 객체가 등장하거나 큰 변화가 나타나지 않는 것을 확인할 수 있다. 그러나, 영상 프레임(1030)에 나타난 것과 같이 자동차 객체(1000)가 등장하면서 오디오(1010)가 크게 변화하는 것을 알 수 있다. 이 때, 객체 트래핑 인터페이스는 자동차를 음상에 상응하는 객체(1000)로 판단하고, 사용자가 객체(1000)를 쉽게 식별할 수 있도록 하이라이트 처리할 수 있다.
또한, 본 발명의 일실시예에 따르면, 객체 트래핑 인터페이스는 음상에 상응하게 인식된 객체의 움직임에 따라 음상의 위치도 그에 상응하게 변경시킬 수도 있다. 즉, 사용자가 직접 음상을 변경하지 않아도, 객체 트래핑 인터페이스를 통해 인식된 음상에 상응하는 객체를 트래킹하면서 자동으로 음상에 대한 메타데이터가 생성되도록 할 수도 있다.
또한, 도 12에는 도시하지 아니하였으나, 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 방법은 메타데이터를 기반으로 바이너럴 효과가 적용된 오디오를 포함하는 입체 음향 컨텐츠를 렌더링한다.
이 때, 입체 음향 컨텐츠는 모바일 단말을 통해 재생 가능한 컨텐츠에 상응할 수 있으며, 사용자가 입체 음향 컨텐츠를 시청하는 경우에 마치 사용자의 주위로 여러 개의 스피커가 설치되어있는 환경에서 오디오가 출력되는 것과 같은 음향 효과를 느낄 수 있다.
이 때, 바이너럴 효과가 적용된 오디오는 레프트 채널 및 라이트 채널에 상응하는 2채널 오디오일 수 있다. 따라서, 2채널 오디오만을 지원하는 단말이나 디바이스에서도 마치 5.1 채널이나 10.2 채널과 같은 음향 효과를 느낄 수 있는 입체 음향 컨텐츠를 제공할 수 있다.
이 때, 영상, 바이너럴 효과가 적용된 오디오 및 부가 데이터를 포함하는 컨테이너를 생성하고, 영상 및 바이너럴 효과가 적용된 오디오는 동기 될 수 있다.
예를 들어, 도 11을 참조하면, 본 발명의 일실시예에 따른 비주얼 인터페이스에 대한 터치 입력을 기반으로 영상(1111) M1에 동기되는 오디오(1112) S1에 대한 메타데이터(1120)를 생성하였다고 가정할 수 있다. 이 때, 영상(1111) M1에 동기되는 오디오(1112) S1과 메타데이터(1120)를 이용하여 바이너럴 효과가 적용된 오디오(1121) S2를 생성할 수 있고, 렌더링을 수행하여 영상(1111) M1, 바이너럴 효과가 적용된 오디오(1121) S2 및 부가 데이터(1130)를 포함하는 컨테이너(1140)를 생성할 수 있다.
이 때, 부가 데이터(1130)는 입체 음향 컨텐츠의 포맷에 관련된 정보나 렌더링을 위한 파라미터 등을 포함할 수 있다.
이 때, 비주얼 인터페이스에 대한 터치 입력을 기반으로 렌더링을 시작할 수 있다.
예를 들어, 사용자가 비주얼 인터페이스에 포함된 저장 버튼(SAVE)을 터치하는 경우, 입체 음향 컨텐츠를 생성하기 위한 렌더링을 시작할 수 있다. 이 때, 렌더링되어 생성된 입체 음향 컨텐츠는 입체 음향 컨텐츠 저작 어플리케이션을 기반으로 모바일 단말에 저장될 수 있다.
이 때, 렌더링은 바이너럴 효과가 적용된 오디오(1121) S2를 생성하는 과정과 함께 수행될 수도 있다.
또한, 사용자가 렌더링을 수행하지 않고 비주얼 인터페이스를 정지 또는 종료하는 경우, 현재까지 생성된 메타데이터를 보관하거나 또는 삭제할 수도 있다.
예를 들어, 사용자가 비주얼 인터페이스에 포함된 정지 버튼(PAUSE)을 터치하는 경우, 현재까지 생성된 메타데이터를 영상과 함께 저장하여 보관할 수도 있다.
다른 예를 들어, 사용자가 비주얼 인터페이스에 포함된 종료 버튼(End) 또는 나가기 버튼(EXIT)을 터치하는 경우, 현재까지 생성된 메타데이터를 삭제하고 비주얼 인터페이스를 종료할 수도 있다.
또한, 도 12에는 도시하지 아니하였으나, 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 방법은 상술한 바와 같이 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 과정에서 발생하는 다양한 정보를 별도의 저장 모듈에 저장할 수 있다.
이와 같은 입체 음향 컨텐츠 저작 방법을 이용하여 방향감, 거리감 및 공간감을 제공할 수 있는 입체 음향 컨텐츠를 생성할 수 있다.
또한, 쉽고 직관적인 인터페이스를 기반으로 누구나 쉽게 바이너럴 효과가 적용된 입체 음향 컨텐츠를 저작할 수 있다.
도 13은 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 과정을 상세하게 나타낸 동작흐름도이다.
도 13을 참조하면, 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 과정은 먼저 모바일 단말에 설치된 입체 음향 컨텐츠 저작을 위한 입체 음향 컨텐츠 저작 어플리케이션이 실행되면(S1310), 입체 음향 컨텐츠 저작 어플리케이션에서 사용자에 의해 선택된 영상을 기반으로 비주얼 인터페이스를 제공할 수 있다(S1320).
이 때, 비주얼 인터페이스는 사용자에 의해 선택된 영상에 동기되는 오디오에 바이너럴 효과를 적용하기 위한 인터페이스들을 포함할 수 있다.
이 후, 바이너럴 효과를 적용하기 위한 인터페이스들에 대한 터치 입력을 기반으로 영상에 동기되는 메타데이터를 생성할 수 있고, 동시에 터치 입력에 즉각적으로 반응하여 바이너럴 효과가 적용된 피드백 오디오를 사용자에게 출력해줄 수 있다(S1330).
이 때, 피드백 오디오를 실시간으로 출력해줌으로써 사용자가 생성된 메타데이터에 상응하는 바이너럴 효과를 확인할 수 있다.
이 후, 사용자에 의해 비주얼 인터페이스에 포함된 저장 버튼이 입력되는 경우, 영상, 바이너럴 효과가 적용된 오디오 및 부가 데이터를 포함하는 컨테이너를 생성하는 렌더링을 수행한다(S1340).
이 때, 영상과 바이너럴 효과가 적용된 오디오는 시간을 기준으로 동기화될 수 있다.
이 후, 생성된 컨테이너에 상응하는 입체 음향 컨텐츠를 입체 음향 컨텐츠 저작 어플리케이션에 기반하여 모바일 단말의 메모리에 저장할 수 있다(S1350).
이 때, 이어폰이나 헤드폰과 같은 외부 음향 기기가 연결된 모바일 단말에서 입체 음향 컨텐츠를 재생하는 경우, 마치 외부에 위치하는 오디오에서 소리가 나는 것처럼 실감나게 컨텐츠를 감상할 수 있다.
도 14 내지 도 15는 본 발명에 따른 입체 음향 컨텐츠 저작 어플리케이션 실행화면의 다른 예를 나타낸 도면이다.
먼저 도 14를 참조하면, 본 발명에 따른 입체 음향 컨텐츠 저작 어플리케이션은 모바일 단말을 기반으로 실행될 수 있으며, 실행후 입체 음향 컨텐츠를 저작하기 위한 저작 메뉴(Authoring), 입체 음향 컨텐츠 저작에 필요한 컨텐츠를 다운받기 위한 컨텐츠 다운로드 메뉴(Contents Download) 및 기타 정보 메뉴(Information) 등을 제공할 수 있다.
예를 들어, 저작 메뉴(Authoring)를 선택하면, 도 15에 도시된 것처럼 저작할 일반 영상 컨텐츠를 선택하기 위한 메뉴를 제공할 수 있다.
이 때, 일반 영상 컨텐츠는 입체 음향 컨텐츠 저작 어플리케이션이 저장된 모바일 단말의 메모리에 저장된 동영상에 상응할 수 있다. 이 때, 입체 음향 컨텐츠 저작 어플리케이션을 통해 이전에 저작한 입체 영상 컨텐츠와 아직 저작되지 않은 일반 영상 컨텐츠를 분류하여 영상 컨텐츠 검색결과를 제공할 수도 있다.
이 때, 일반 영상 컨텐츠는 도 15에 도시된 것과 같이 영상의 내용을 식별할 수 있는 썸네일(Thumbnail)과 함께 제공될 수 있다.
예를 들어, 일반 영상 컨텐츠 중 사용자가 어느 하나의 영상 컨텐츠를 선택하는 경우, 선택된 일반 영상 컨텐츠를 입체 음향 컨텐츠로 저작하기 위해 입체 음향 컨텐츠 저작 어플리케이션이 비주얼 인터페이스를 제공할 수 있다.
도 17은 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 툴을 이용한 광고 제공 시스템을 나타낸 도면이다.
도 17을 참조하면, 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 툴을 이용한 광고 제공 시스템은 모바일 단말(2110), 어플리케이션 서버(2120), 광고 서버(2130) 및 네트워크(2140)를 포함한다.
모바일 단말(2110)은 본 발명의 일실시예에 따른 광고 제공을 위한 어플리케이션이 구비된 단말에 상응하는 것으로, 휴대폰(mobile phone), 태블릿 PC, 스마트폰(smart phone), PDA(Personal Digital Assistants)와 같은 휴대용 모바일 기기에 상응할 수 있다. 또한, 본 발명의 일실시예에 따른 광고 제공을 위한 어플리케이션은 PC(Personal Computer)나 노트북 컴퓨터와 같은 단말에서도 실행될 수 있다.
예를 들어, 본 발명의 일실시예에 따른 모바일 단말(2110)은 통신부, 프로세서 및 메모리를 포함할 수 있다.
이 때, 모바일 단말(2110)은 통신부를 기반으로 어플리케이션 서버(2120)로부터 입체 음향 컨텐츠 저작과 광고 제공을 위한 본 발명의 일실시예에 따른 어플리케이션을 다운로드받아 메모리에 저장할 수 있고, 프로세서를 기반으로 어플리케이션을 실행시킬 수 있다.
예를 들어, 통신부는 네트워크(2140)와 같은 통신망을 통해 어플리케이션 서버(2120) 또는 광고 서버(2130)와 입체 음향 컨텐츠 저작 및 광고 제공을 위해 필요한 정보를 송수신할 수 있다.
이 때, 모바일 단말(2110)의 프로세서는 중앙연산 처리장치에 상응하는 것으로, 메모리에 저장된 어플리케이션을 실행시켜 제어할 수 있다.
이 때, 모바일 단말(2110)의 메모리는 운영체제(Operating System, OS)와 함께 본 발명의 일실시예에 따른 어플리케이션을 포함한 각종 어플리케이션들이 저장될 수 있다. 따라서, 본 발명의 일실시예에 따른 어플리케이션은 모바일 단말에 설치되어 실행되는 컴퓨터 프로그램에 상응할 수 있다.
또한, 메모리는 본 발명의 실시예에 따른 광고 제공을 위한 기능을 지원할 수 있다. 이 때, 메모리는 별도의 대용량 스토리지로 동작할 수 있고, 동작 수행을 위한 제어 기능을 포함할 수도 있다. 일 구현예의 경우, 메모리는 컴퓨터로 판독 가능한 매체이다. 일 구현 예에서, 메모리는 휘발성 메모리 유닛일 수 있으며, 다른 구현예의 경우, 메모리는 비휘발성 메모리 유닛일 수도 있다. 다양한 서로 다른 구현 예에서, 메모리는 예컨대 하드디스크 장치, 광학디스크 장치, 혹은 어떤 다른 대용량 저장장치를 포함할 수도 있다.
이 때, 모바일 단말(2110)은 어플리케이션을 통해 입체 음향 컨텐츠를 렌더링하는 동안에 광고 컨텐츠를 선택하여 제공할 수 있다. 이 때, 광고 컨텐츠는 모바일 단말(2110) 또는 어플리케이션 서버(2120) 중 어느 하나에서 선택되어 제공될 수 있다.
이 때, 도 17에는 도시하지 아니하였으나, 본 발명의 일실시예에 따른 광고 컨텐츠를 별도의 광고 컨텐츠 데이터베이스를 통해 제공될 수 있다. 이 때, 광고 컨텐츠 데이터베이스는 모바일 단말(2110), 어플리케이션 서버(2120) 또는 광고 서버(2130) 중 어느 하나에 포함되거나 연동되어 광고 컨텐츠를 제공하기 위해 동작할 수 있다.
이 때, 광고 서버(2130)는 모바일 단말(2110)을 통해 제공될 광고 컨텐츠를 관리하는 서버로, 모바일 단말(2110)로 광고 컨텐츠를 제공하거나, 모바일 단말(2110)에 저장된 광고 컨텐츠에 관련된 정보를 업데이트해줄 수 있다.
이 때, 도 17에서는 어플리케이션 서버(2120)와 광고 서버(2130)를 각각 도시하였으나, 실시예에 따라 어플리케이션 서버(2120)와 광고 서버(2130)는 동일한 서버일 수 있다.
네트워크(2140)는 기존의 이용되는 네트워크 및 향후 개발 가능한 네트워크를 모두 포괄하는 개념이다. 예를 들어, 네트워크(2140)는 인터넷 프로토콜(IP)을 기반으로 데이터 서비스를 제공하는 아이피망, 유선망, WiBro(Wireless Broadband)망, WCDMA를 포함하는 3세대 이동통신망, HSDPA(High Speed Downlink Packet Access)망 및 LTE 망을 포함하는 3.5세대 이동통신망, LTE advanced를 포함하는 4세대 이동통신망, 위성통신망 및 와이파이(Wi-Fi)망 중 어느 하나 또는 하나 이상을 결합하여 이루어질 수 있다.
도 18 내지 도 19에 도시된 것과 같이 렌더링 상태 피드백(2320, 2420)과 함께 광고 컨텐츠(2310), 2410)를 제공할 수 있다.
이 때, 렌더링 상태 피드백(2320, 2420)을 통해 현재까지의 렌더링 진행 정보를 제공할 수 있다. 이 때, 렌더링 상태 피드백(2320, 2420)은 도 18 내지 도 19에 도시된 형태들에 한정되지 않고, 사용자가 쉽게 인지할 수 있는 다양한 방법으로 제공될 수 있다.
이 때, 렌더링은 비주얼 인터페이스에 대한 터치 입력을 기반으로 생성되고, 영상에 동기되는 메타데이터를 기반으로 수행될 수 있다.
예를 들어, 메타데이터는 비주얼 인터페이스에 대한 터치 입력 값을 기반으로 생성될 수 있다. 즉, 모바일 단말의 사용자는 영상에 포함된 객체의 움직임을 보면서 비주얼 인터페이스를 조작하여 영상에 동기된 오디오의 음상을 조절할 수 있다.
이 때, 터치 입력 값은 멀티터치 입력 값일 수 있다. 3차원 좌표상의 위치를 효과적으로 지정하기 위해서는 화면상의 싱글 포인트를 설정하는 싱글 터치로는 부족하고, 화면상의 복수개의 포인트들을 동시에 설정할 수 있는 멀티 터치가 필요할 수 있다.
즉, 멀티 터치가 지원되지 않는 경우나 화면에 대한 터치 입력이 아닌 키보드나 마우스를 이용한 입력 값을 이용하여 메타데이터를 생성하는 경우에는 사용자가 영상을 보면서 직관적이면서도 효율적으로 메타데이터를 생성하기 어려울 수 있다.
이 때, 본 발명의 일실시예에 따른 어플리케이션은 터치 입력에 즉각적으로 반응하여 바이너럴 효과가 적용된 피드백 오디오를 출력할 수 있다.
이 때, 피드백 오디오는 메타데이터를 기반으로 바이너럴 효과가 적용되어 있지 않은 기존의 오디오를 변형한 것에 상응할 수 있다. 즉, 사용자에 의한 터치 입력이 발생하면, 이에 상응하게 생성되는 메타데이터를 실시간으로 반영하여 피드백 오디오를 출력해줄 수 있다. 만약, 즉각적으로 피드백 오디오가 출력되지 않는다면, 사용자는 렌더링이 완료될 때까지 자신이 변형한 오디오를 들을 수 없기 때문에 영상과 대응하지 않도록 바이너럴 효과가 적용될 수도 있다.
따라서, 본 발명에서는 즉각적으로 피드백 오디오를 출력해줌으로써 사용자가 영상에 포함된 객체의 움직임에 대응하여 터치 입력을 수행하도록 할 수 있다.
이 때, 바이너럴 효과가 적용된 피드백 오디오는 이어폰이나 헤드폰과 같이 사용자가 바이너럴 효과에 따른 입체감을 느낄 수 있는 외부 음향 기기를 통해 출력될 수 있다.
이 때, 메타데이터는 바이너럴 효과에 상응하는 음상의 삼차원 위치에 상응할 수 있다. 이 때, 음상의 삼차원 위치는 바이너럴 효과를 느끼는 모바일 단말의 사용자를 기준으로 할 수 있다.
예를 들어, 본 발명에 따른 음상의 삼차원 위치는 사용자의 머리를 기준으로 하는 반구 형태의 3차원 공간 상에 나타낼 수 있다. 따라서, 바이너럴 효과가 적용된 오디오의 경우, 사용자를 기준으로 360도에서 입체적으로 소리가 들리는 효과를 제공할 수 있다.
이와 같이, 본 발명에서는 X축, Y축, Z축을 이용하는 삼차원 공간 상에 음상을 배치함으로써 기존의 음향 기술보다 깊은 몰입감을 제공할 수 있다.
이 때, 본 발명의 일실시예에 따른 비주얼 인터페이스는 음상의 2차원 평면상의 위치를 지정하기 위한 제1 인터페이스 및 음상의 2차원 평면에 수직한 직선상에 위치를 지정하기 위한 제2 인터페이스를 포함하고, 삼차원 위치는 제1 인터페이스에 대한 사용자의 제1 입력 및 제2 인터페이스에 대한 사용자의 제2 입력을 조합하여 생성될 수 있다.
도 20은 본 발명에 따른 광고 선택 관련 인자와 광고 컨텐츠 데이터베이스의 일 예를 나타낸 도면이다.
도 20을 참조하면, 광고 컨텐츠 데이터베이스(2800)에 저장된 복수개의 광고 컨텐츠들 중에서 렌더링 소요 시간 인자(2810), 컨텐츠 프로파일 인자(2820) 및 음향 위치 컨트롤 성향 인자(2830)를 기반으로 렌더링 시 출력될 광고 컨텐츠를 선택할 수 있다.
이 때 렌더링 소요 시간 인자(2810)는 영상에 상응하는 재생시간 및 영상에 상응하는 파일 사이즈 중 어느 하나 이상을 고려하여 산출될 수 있다.
예를 들어, 영상에 상응하는 재생시간이 길거나 영상에 상응하는 파일 사이즈가 클수록 렌더링에 소요되는 시간이 길어질 수 있다. 따라서, 이러한 경우, 광고 컨텐츠 데이터베이스(2800)에 저장된 광고 컨텐츠들 중 비교적 시간이 긴 광고 컨텐츠를 선택하여 출력할 수 있다.
이 때, 컨텐츠 프로파일 인자는 사용자가 입체 음향 컨텐츠를 렌더링한 히스토리를 기반으로 산출될 수 있다.
예를 들어, 사용자가 주로 게임 영상에 대한 입체 음향 컨텐츠를 렌더링하는 경우, 사용자가 게임을 선호하는 것으로 판단하고, 광고 컨텐츠 데이터베이스(2800)에 저장된 광고 컨텐츠들 중 게임 광고 컨텐츠를 선택하여 출력할 수 있다.
이 때, 음원 위치 컨트롤 성향 인자는 메타데이터에 상응하는 음상의 위치 변화 값을 기반으로 산출될 수 있다.
예를 들어, 사용자의 터치 입력에 의해 생성된 메타데이터에 상응하는 음상의 위치 변화가 큰 경우, 사용자가 움직임이 많은 입체적인 영상을 선호하는 것으로 판단하고, 광고 컨텐츠 데이터베이스(2800)에 저장된 광고 컨텐츠들 중 장면 변화가 많거나 동적인 영상의 광고 컨텐츠를 선택하여 출력할 수 있다.
따라서, 광고 컨텐츠 데이터베이스(2800)는 재생시간, 컨텐츠 카테고리 및 정적/동적 컨텐츠 등을 고려하여 복수개의 광고 컨텐츠들을 저장 및 관리할 수 있다.
이 때, 본 발명의 일실시예에 따른 광고 컨텐츠는 모바일 단말 또는 어플리케이션을 제공하는 서버 중 어느 하나를 통해 선택될 수 있다.
도 21은 본 발명에 따른 모바일 단말에서 광고 컨텐츠를 선택하는 과정의 일 예를 나타낸 도면이다.
도 21을 참조하면, 예를 들어, 모바일 단말에서 광고 컨텐츠를 선택하는 경우, 모바일 단말(2910)에 저장된 어플리케이션(2911)이 광고 컨텐츠 메타데이터(2912)를 기반으로 출력된 광고 컨텐츠를 선택할 수 있다. 이 때, 광고 컨텐츠 메타데이터(2912)는 광고 컨텐츠 데이터베이스(2900)에 저장된 복수개의 광고 컨텐츠들에 대한 메타 정보에 상응할 수 있다. 따라서, 모바일 단말(2910)은 광고 컨텐츠 데이터베이스(2900)에게 이미 선택된 광고 컨텐츠의 전송을 요청할 수 있고, 광고 컨텐츠 데이터베이스(2900)는 요청에 상응하는 광고 컨텐츠를 모바일 단말(2910)로 전송하여 어플리케이션(2911)을 통해 제공할 수 있다.
도 22는 본 발명에 따른 서버에서 광고 컨텐츠를 선택하는 과정의 일 예를 나타낸 도면이다.
도 22를 참조하면, 예를 들어, 서버에서 광고 컨텐츠를 선택하는 경우, 모바일 단말(3020)에서 서버(3010)에게 광고 컨텐츠를 선택하기 위해 고려될 관련 인자들, 즉 렌더링 소요 시간 인자, 컨텐츠 프로파일 인자 및 음원 위치 컨트롤 성향 인자 등을 전달할 수 있다. 이 후, 서버(3010)는 전달받은 관련 인자들을 이용하여 광고 컨텐츠 데이터베이스(3000)에 저장된 복수개의 광고 컨텐츠들 중 어느 하나의 광고 컨텐츠를 선택하여 모바일 단말(3020)로 제공할 수 있다. 이 후, 모바일 단말(3020)에서는 입체 음향 컨텐츠 저작과 광고 제공을 위한 어플리케이션을 통해 서버(3010)로부터 제공받은 광고 컨텐츠를 출력할 수 있다.
이 때, 광고 컨텐츠는 바이너럴 효과가 적용된 오디오를 포함할 수도 있다.
또한, 광고 컨텐츠는 모바일 단말에 대한 주변 기기 연결 상태에 따라 달라지는 오디오를 포함할 수 있다.
예를 들어, 본 발명의 일실시예에 따른 어플리케이션은 모바일 단말에 외부 음향기기가 연결되어 있는 경우에는 바이너럴 효과가 적용된 오디오를 포함하는 광고 컨텐츠를 제공하고, 모바일 단말에 외부 음향기기가 연결되어 있지 않은 경우에는 바이너럴 효과가 적용되지 않은 오디오를 포함하는 광고 컨텐츠를 제공할 수 있다.
이와 같은 컴퓨터로 판독 가능한 기록매체에 저장된 어플리케이션을 이용하여, 입체 음향 컨텐츠를 저작을 위한 서비스를 제공하면서 광고 컨텐츠 제공에 따른 수익을 발생시킬 수 있다.
도 23은 본 발명에 따른 사용자 보상을 제공하는 어플리케이션 실행화면의 일 예를 나타낸 도면이다.
도 23을 참조하면, 본 발명의 일실시예에 따른 어플리케이션은 입체 음향 컨텐츠를 렌더링하는 동안에 제공되는 광고 컨텐츠에 상응하게 사용자 보상을 제공할 수 있다.
이 때, 사용자 보상은 광고 컨텐츠의 재생 시간을 고려하여 제공될 수 있다.
예를 들어, 기설정된 기준 재생 시간이 5분이라고 가정할 수 있다. 만약, 도 23에 도시된 것과 같이 사용자가 입체 음향 컨텐츠를 렌더링하는 동안에 재생 시간이 5분 미만인 광고 컨텐츠를 시청한 경우, 사용자 보상에 상응하는 단위인 음표를 4개 제공할 수 있다. 그러나, 만약 사용자가 시청한 광고 컨텐츠의 재생 시간이 5분을 초과하는 경우, 2배의 보상에 상응하는 8개의 음표가 지급될 수도 있다.
이 때, 사용자 보상을 지급하는 기준은 본 발명의 일실시예에 따라 자유롭게 설정 및 변경할 수 있으며, 사용자 보상에 상응하는 단위도 음표에 한정되지 않는다.
이 때, 사용자 보상은 다른 광고 컨텐츠를 스킵하는데 사용할 수 있다.
도 24는 본 발명에 따른 사용자 보상을 이용하여 광고 컨텐츠를 스킵하는 어플리케이션 실행화면의 일 예를 나타낸 도면이다.
도 24를 참조하면, 본 발명의 일실시예에 따른 어플리케이션은 광고 컨텐츠를 스킵하기 위한 스킵 버튼(3210)을 제공할 수 있다. 만약, 모바일 단말의 사용자가 스킵 버튼(3210)을 터치하는 경우, 도 24에 도시된 것과 같은 스킵 안내 팝업(3220)을 통해 음표를 소비하여 광고를 스킵할지 여부를 사용자에게 선택하도록 할 수 있다. 이 때, 광고 컨텐츠를 스킵하기 위해 필요한 음표의 개수와 함께 현재 사용자가 보유한 음표의 개수를 함께 보여줄 수도 있다.
이 때, 사용자가 광고를 스킵할지 여부를 선택하는 동안, 광고 컨텐츠의 재생은 일시적으로 정지될 수 있지만 렌더링을 계속 수행될 수 있다.
또한, 사용자 보상은 본 발명의 일실시예에 따른 어플리케이션을 통해 컨텐츠를 다운로드하는데 사용할 수도 있다.
도 25 본 발명에 따른 사용자 보상으로 이용 가능한 컨텐츠를 제공하는 어플리케이션 실행 화면의 일 예를 나타낸 도면이다.
예를 들어, 도 25도시된 것과 같이 사용자 보상에 상응하는 음표를 이용하여 영화 컨텐츠를 다운로드하거나 또는 구매하여 재생할 수 있다.
도 26은 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 툴을 이용한 광고 제공 방법을 나타낸 동작흐름도이다.
도 26을 참조하면, 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 툴을 이용한 광고 제공 방법은 모바일 단말을 통해 재생되는 영상에 동기되는 오디오에, 바이너럴(binaural) 효과를 적용하기 위한 비주얼 인터페이스를 제공한다(S3410).
이 때, 바이너럴(binaural) 효과는, 사용자가 헤드폰이나 이어폰으로 오디오를 들을 때 마치 오디오의 음상이 외부에 위치하는 것처럼 입체적인 음향 효과를 제공하는 것이다. 따라서, 바이너럴 효과가 적용된 오디오를 포함하는 컨텐츠는 일반 컨텐츠보다 실감나고 현장감 있는 경험을 사용자에게 제공해줄 수 있다.
이 때, 영상은 모바일 단말에 저장된 영상에 상응할 수 있다. 예를 들어, 영상은 모바일 단말에 설치된 카메라를 통해 사용자가 직접 촬영한 영상이거나 또는 네트워크를 기반으로 다운로드받는 영상에 해당할 수 있다.
이 때, 비주얼 인터페이스는 입체 음향 컨텐츠를 저작하고 광고 컨텐츠를 제공하기 위한 어플리케이션의 실행을 기반으로 제공될 수 있으므로 어플리케이션을 실행할 수 있는 모바일 단말을 통해 제공될 수 있다.
이 때, 모바일 단말은 네트워크를 기반으로 데이터 통신을 수행 가능한 단말에 상응할 수 있다.
예를 들어, 모바일 단말은 네트워크와 같은 통신망을 통해 입체 음향 컨텐츠 저작과 광고 컨텐츠 제공을 위해 필요한 정보를 송수신할 수 있다. 특히, 본 발명에서는 네트워크를 기반으로 서버로부터 어플리케이션 및 광고 컨텐츠 등을 획득할 수 있다.
또한, 모바일 단말은 중앙연산 처리장치에 상응하는 프로세서를 기반으로 메모리에 저장된 어플리케이션을 실행시켜 입체 음향 컨텐츠 저작과 함께 광고 컨텐츠를 제공할 수 있다.
이 때, 모바일 단말의 메모리에는 운영체제(Operating System, OS)와 함께 본 발명의 일실시예에 따른 어플리케이션을 포함한 각종 어플리케이션들이 저장될 수 있다. 따라서, 본 발명의 일실시예에 따른 어플리케이션은 모바일 단말에 설치되어 실행되는 컴퓨터 프로그램에 상응할 수 있다.
또한, 모바일 단말의 메모리는 본 발명의 실시예에 따른 광고 제공을 위한 기능을 지원할 수 있다. 이 때, 메모리는 별도의 대용량 스토리지로 동작할 수 있고, 동작 수행을 위한 제어 기능을 포함할 수도 있다. 일 구현예의 경우, 메모리는 컴퓨터로 판독 가능한 매체이다. 일 구현 예에서, 메모리는 휘발성 메모리 유닛일 수 있으며, 다른 구현예의 경우, 메모리는 비휘발성 메모리 유닛일 수도 있다. 다양한 서로 다른 구현 예에서, 메모리는 예컨대 하드디스크 장치, 광학디스크 장치, 혹은 어떤 다른 대용량 저장장치를 포함할 수도 있다.
또한, 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 툴을 이용한 광고 제공 방법은 비주얼 인터페이스를 기반으로 바이너럴 효과가 적용된 입체 음향 컨텐츠를 렌더링하는 동안, 렌더링 상태 피드백과 함께 광고 컨텐츠를 제공한다(S3420).
이 때, 단계(S3420)는 모바일 단말에 대한 주변 기기 연결 상태를 고려하여 선택적으로 바이너럴 효과가 적용된 오디오를 포함하는 광고 컨텐츠를 제공할 수 있다.
이 때, 주변 기기 연결 상태는 모바일 단말에 외부 오디오 기기가 유/무선 연결되었는지 여부에 상응할 수 있다.
이 때, 광고 컨텐츠는 외부 오디오 기기가 연결되고 연결된 외부 오디오 기기가 바이너럴 효과를 표현 가능한 기기인 경우에 바이너럴 효과가 적용된 오디오가 포함될 수 있다.
또한, 광고 컨텐츠는 외부 오디오 기기가 연결되되 연결된 외부 오디오 기기가 바이너럴 효과를 표현 가능한 기기가 아닌 경우 및 외부 오디오 기기가 연결되지 않은 경우 중 어느 하나의 경우에는 바이너럴 효과가 적용되지 않은 오디오가 포함될 수 있다.
예를 들어, 바이너럴 효과를 표현 가능한 기기는 레프트 채널과 라이트 채널을 통해 두 귀로 소리를 전달할 수 있는 유/무선 이어폰이나 유/무선 헤드폰 등에 상응할 수 있다.
예를 들어, 도 18 내지 도 19에 도시된 것과 같이 렌더링 상태 피드백(2320, 2420)과 함께 광고 컨텐츠(2310, 2410)를 제공할 수 있다.
이 때, 렌더링 상태 피드백(2320, 2420)을 통해 현재까지의 렌더링 진행 정보를 제공할 수 있다. 이 때, 렌더링 상태 피드백(2320, 2420)은 도 18 내지 도 19에 도시된 형태들에 한정되지 않고, 사용자가 쉽게 인지할 수 있는 다양한 방법으로 제공될 수 있다.
이 때, 렌더링은 비주얼 인터페이스에 대한 터치 입력을 기반으로 생성되고, 영상에 동기되는 메타데이터를 기반으로 수행될 수 있다.
도 27은 본 발명의 일실시예에 따른 광고 제공 방법을 상세하게 나타낸 동작흐름도이다.
도 27을 참조하면, 본 발명의 일실시예에 따른 광고 제공 방법은 먼저 모바일 단말에 설치된 입체 음향 컨텐츠 저작 툴, 즉 본 발명의 일실시예에 따른 어플리케이션이 실행되면(S3510), 어플리케이션에서 사용자에 의해 선택된 영상을 기반으로 비주얼 인터페이스를 제공할 수 있다(S3520).
이 때, 비주얼 인터페이스는 사용자에 의해 선택된 영상에 동기되는 오디오에 바이너럴 효과를 적용하기 위한 인터페이스들을 포함할 수 있다.
이 후, 사용자에 의해 렌더링 수행이 요청되면(S3530), 렌더링 소요 시간 인자, 컨텐츠 프로파일 인자 및 음원 위치 컨트롤 성향 인자를 고려하여 렌더링 시간 동안 제공될 광고 컨텐츠를 선택한다(S3540).
이 때, 모바일 단말 또는 어플리케이션을 제공하는 서버 중 어느 하나가 광고 컨텐츠를 선택할 수 있다.
이 후, 영상, 바이너럴 효과가 적용된 오디오 및 부가 데이터를 포함하는 컨테이너를 생성하는 렌더링을 수행함과 동시에 모바일 단말로 광고 컨텐츠를 출력한다(S3550).
이 때, 영상과 바이너럴 효과가 적용된 오디오는 시간을 기준으로 동기화될 수 있다.
이 후, 렌더링과 함께 광고 컨텐츠가 함께 종료되면(S3560), 생성된 컨테이너에 상응하는 입체 음향 컨텐츠를 모바일 단말의 메모리에 저장할 수 있다(S3570).
이 때, 이어폰이나 헤드폰과 같은 외부 음향 기기가 연결된 모바일 단말에서 입체 음향 컨텐츠를 재생하는 경우, 마치 외부에 위치하는 오디오에서 소리가 나는 것처럼 실감나게 컨텐츠를 감상할 수 있다.
도 28본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 툴을 이용한 선택적 광고 제공 시스템을 나타낸 도면이다.
도 28을 참조하면, 본 발명의 일실시예에 따른 입체 음향 컨텐츠 저작 툴을 이용한 선택적 광고 제공 시스템은 모바일 단말(4110), 주변 연결 기기(4111), 서버(4120) 및 네트워크(4130)를 포함한다.
모바일 단말(4110)은 본 발명의 일실시예에 따른 선택적 광고 제공을 위한 어플리케이션이 구비된 단말에 상응하는 것으로, 휴대폰(mobile phone), 태블릿 PC, 스마트폰(smart phone), PDA(Personal Digital Assistants)와 같은 휴대용 모바일 기기에 상응할 수 있다. 또한, 본 발명의 일실시예에 따른 광고 제공을 위한 어플리케이션은 PC(Personal Computer)나 노트북 컴퓨터와 같은 단말에서도 실행될 수 있다.
예를 들어, 본 발명의 일실시예에 따른 모바일 단말(4110)은 통신부, 프로세서 및 메모리를 포함할 수 있다.
이 때, 모바일 단말(4110)은 통신부를 기반으로 서버(4120)로부터 입체 음향 컨텐츠 저작과 선택적 광고 제공을 위한 본 발명의 일실시예에 따른 어플리케이션을 다운로드받아 메모리에 저장할 수 있고, 프로세서를 기반으로 어플리케이션을 실행시킬 수 있다.
예를 들어, 통신부는 네트워크(4140)와 같은 통신망을 통해 서버(4120)와 입체 음향 컨텐츠 저작 및 선택적 광고 제공을 위해 필요한 정보를 송수신할 수 있다.
이 때, 모바일 단말(4110)의 프로세서는 중앙연산 처리장치에 상응하는 것으로, 메모리에 저장된 어플리케이션을 실행시켜 제어할 수 있다.
이 때, 모바일 단말(4110)의 메모리는 운영체제(Operating System, OS)와 함께 본 발명의 일실시예에 따른 어플리케이션을 포함한 각종 어플리케이션들이 저장될 수 있다. 따라서, 본 발명의 일실시예에 따른 어플리케이션은 모바일 단말에 설치되어 실행되는 컴퓨터 프로그램에 상응할 수 있다.
또한, 메모리는 본 발명의 실시예에 따른 선택적 광고 제공을 위한 기능을 지원할 수 있다. 이 때, 메모리는 별도의 대용량 스토리지로 동작할 수 있고, 동작 수행을 위한 제어 기능을 포함할 수도 있다. 일 구현예의 경우, 메모리는 컴퓨터로 판독 가능한 매체이다. 일 구현 예에서, 메모리는 휘발성 메모리 유닛일 수 있으며, 다른 구현예의 경우, 메모리는 비휘발성 메모리 유닛일 수도 있다. 다양한 서로 다른 구현 예에서, 메모리는 예컨대 하드디스크 장치, 광학디스크 장치, 혹은 어떤 다른 대용량 저장장치를 포함할 수도 있다.
이 때, 모바일 단말(4110)은 어플리케이션을 통해 입체 음향 컨텐츠를 렌더링하는 동안에 주변 연결 기기(4111)의 연결을 고려하여 선택적으로 광고 컨텐츠를 제공할 수 있다.
이 때, 어플리케이션을 통해 제공될 광고 컨텐츠는 모바일 단말(4110) 또는 어플리케이션 서버(4120) 중 어느 하나에서 선택되되, 모바일 단말(4110)에 어떤 주변 연결 기기(4111)가 연결되었는지 여부를 고려하여 선택될 수 있다.
예를 들어, 모바일 단말(4110)에 이어폰이나 헤드폰과 같은 주변 연결 기기(4111)가 연결되어 있는 경우에는 바이너럴 효과가 적용된 오디오를 포함하는 광고 컨텐츠를 선택하여 제공할 수 있다.
이 때, 도 28에는 도시하지 아니하였으나, 본 발명의 일실시예에 따른 광고 컨텐츠는 별도의 광고 컨텐츠 데이터베이스를 통해 제공될 수 있다. 이 때, 광고 컨텐츠 데이터베이스는 모바일 단말(4110) 또는 서버(4120) 중 어느 하나에 포함되거나 연동되어 광고 컨텐츠를 제공하기 위해 동작할 수 있다.
네트워크(4130)는 기존의 이용되는 네트워크 및 향후 개발 가능한 네트워크를 모두 포괄하는 개념이다. 예를 들어, 네트워크(4130)는 인터넷 프로토콜(IP)을 기반으로 데이터 서비스를 제공하는 아이피망, 유선망, WiBro(Wireless Broadband)망, WCDMA를 포함하는 3세대 이동통신망, HSDPA(High Speed Downlink Packet Access)망 및 LTE 망을 포함하는 3.5세대 이동통신망, LTE advanced를 포함하는 4세대 이동통신망, 위성통신망 및 와이파이(Wi-Fi)망 중 어느 하나 또는 하나 이상을 결합하여 이루어질 수 있다.
도 29는 본 발명에 따른 광고 컨텐츠를 선택하는 과정의 일 예를 나타낸 도면이다.
도 29를 참조하면, 먼저, 본 발명의 일실시예에 따른 모바일 단말에 외부 오디오 기기가 연결되어 있는지 여부를 체크할 수 있다(S4302).
이 때, 외부 오디오 기기가 연결되어 있고(S4304), 연결된 외부 오디오 기기가 바이너럴 효과를 표현 가능한 기기일 경우(S4306)에는 바이너럴 효과가 적용된 오디오를 포함하는 광고 컨텐츠를 선택하여 제공할 수 있다(S4308).
또한, 외부 오디오 기기가 연결되어 있으나(S4304), 연결된 외부 오디오 기기가 바이너럴 효과를 표현 가능한 기기가 아닐 경우(S4310)에는 바이너럴 효과가 적용되지 않은 오디오를 포함하고 있는 일반 광고 컨텐츠를 선택하여 제공할 수 있다(S4312).
또한, 외부 오디오 기기가 연결되어 있지 않은 경우(S4314)에도 바이너럴 효과가 적용되지 않은 오디오를 포함하고 있는 일반 광고 컨텐츠를 선택하여 제공할 수 있다(S4316).
이 때, 바이너럴 효과가 적용된 오디오가 포함되는 경우 및 바이너럴 효과가 적용되지 않은 오디오가 포함되는 경우, 광고 컨텐츠에 포함된 비디오는 동일할 수 있다. 따라서, 본 발명의 일실시예에 따른 광고 컨텐츠 데이터베이스는 비디오는 동일하지만 오디오에 따라 구별되는 각각의 광고 컨텐츠들을 저장 및 관리할 수 있다.
이 때, 모바일 단말로 제공되는 오디오 체크 인터페이스에 대한 입력을 기반으로 모바일 단말에 연결된 외부 오디오 기기의 종류를 판단할 수 있다.
도 30은 본 발명에 따른 오디오 체크 인터페이스의 일 예를 나타낸 도면이다.
도 30을 참조하면, 본 발명의 일실시예에 따른 어플리케이션은 오디오 체크 인터페이스(4400)를 제공할 수 있다. 오디오 체크 인터페이스(4400)는 모바일 단말에 바이너럴 효과 표현 가능 기기(4410)인 이어폰이나 헤드폰이 연결되어 있는지 또는 이어폰이나 헤드폰을 제외한 바이너럴 효과 표현 불가능 기기(4420)가 연결되어 있는지 여부를 사용자로부터 입력받아 현재 연결된 외부 오디오 기기의 종류를 판단할 수 있다. 이 때, 유/무선 스피커나 마이크의 경우에는 바이너럴 효과 표현 불가능 기기(4420)로 분류될 수 있다.
도 31은 본 발명에 따른 광고 데이터베이스의 일 예를 나타낸 도면이다.
도 31을 참조하면, 본 발명의 일실시예에 따른 광고 컨텐츠 데이터베이스(5000)는 광고 컨텐츠 별로 바이너럴 효과가 적용된 오디오를 포함하는 제1 타입의 광고 컨텐츠(5010)와 바이너럴 효과가 적용되지 않은 오디오를 포함하는 제2 타입의 광고 컨텐츠(5020)를 분류하여 저장할 수 있다.
이 때, 본 발명의 일실시예에 따른 광고 컨텐츠는 모바일 단말 또는 어플리케이션을 제공하는 서버 중 어느 하나를 통해 선택될 수 있다.
예를 들어, 모바일 단말에서 광고 컨텐츠를 선택하는 경우, 도 21에 도시된 것과 같이 모바일 단말(2910)에 저장된 어플리케이션(2911)이 광고 컨텐츠 메타데이터(2912)를 기반으로 출력된 광고 컨텐츠를 선택할 수 있다. 이 때, 광고 컨텐츠 메타데이터(2912)는 광고 컨텐츠 데이터베이스(2900)에 저장된 복수개의 광고 컨텐츠들에 대한 메타 정보에 상응할 수 있다. 따라서, 모바일 단말(2910)은 광고 컨텐츠 데이터베이스(2900)에게 이미 선택된 광고 컨텐츠의 전송을 요청할 수 있고, 광고 컨텐츠 데이터베이스(2900)는 요청에 상응하는 광고 컨텐츠를 모바일 단말(2910)로 전송하여 어플리케이션(2911)을 통해 제공할 수 있다.
다른 예를 들어, 서버에서 광고 컨텐츠를 선택하는 경우, 도 22에 도시된 것과 같이 모바일 단말(3020)에서 서버(3010)에게 광고 컨텐츠를 선택하기 위해 고려될 관련 인자들, 즉 렌더링 소요 시간 인자, 컨텐츠 프로파일 인자 및 음원 위치 컨트롤 성향 인자 등을 전달할 수 있다. 이 후, 서버(3010)는 전달받은 관련 인자들을 이용하여 광고 컨텐츠 데이터베이스(3000)에 저장된 복수개의 광고 컨텐츠들 중 어느 하나의 광고 컨텐츠를 선택하여 모바일 단말(3020)로 제공할 수 있다. 이 후, 모바일 단말(3020)에서는 입체 음향 컨텐츠 저작과 광고 제공을 위한 어플리케이션을 통해 서버(3010)로부터 제공받은 광고 컨텐츠를 출력할 수 있다.
도 32는 본 발명의 일실시예에 따른 선택적 광고 제공 방법을 상세하게 나타낸 동작흐름도이다.
도 32를 참조하면, 본 발명의 일실시예에 따른 선택적 광고 제공 방법은 먼저 모바일 단말에 설치된 입체 음향 컨텐츠 저작 툴, 즉 본 발명의 일실시예에 따른 어플리케이션이 실행되면(S5610), 어플리케이션에서 사용자에 의해 선택된 영상을 기반으로 비주얼 인터페이스를 제공할 수 있다(S5620).
이 때, 비주얼 인터페이스는 사용자에 의해 선택된 영상에 동기되는 오디오에 바이너럴 효과를 적용하기 위한 인터페이스들을 포함할 수 있다.
이 후, 사용자에 의해 렌더링 수행이 요청되면(S5630), 모바일 단말에 외부 오디오 기기가 연결되어 있는지 여부를 판단할 수 있다(S5635).
단계(S5635)의 판단결과 외부 오디오 기기가 연결되어 있으면, 외부 오디오 기기의 종류를 체크하기 위한 오디오 체크 인터페이스를 제공할 수 있다(S5640).
이 후, 오디오 체크 인터페이스를 통해 체크된 외부 오디오 기기가 바이너럴 효과를 표현 가능한 기기인지 여부를 판단할 수 있다(S5645).
단계(S5645)의 판단결과 모바일 단말에 연결된 외부 오디오 기기가 바이너럴 효과를 표현 가능한 기기이면, 바이너럴 효과가 적용된 오디오를 포함하는 광고 컨텐츠를 제공할 수 있다(S5650).
이 때, 렌더링 소요 시간 인자, 컨텐츠 프로파일 인자 및 음원 위치 컨트롤 성향 인자를 고려하여 바이너럴 효과가 적용된 오디오를 포함하는 광고 컨텐츠를 선택하여 제공할 수 있다.
이 때, 모바일 단말 또는 어플리케이션을 제공하는 서버 중 어느 하나가 광고 컨텐츠를 선택할 수 있다.
또한, 단계(S5635)의 판단결과 모바일 단말에 외부 오디오 기기가 연결되어 있지 않거나, 단계(S5645)의 판단결과 모바일 단말에 연결된 외부 오디오 기기가 바이너럴 효과를 표현 가능한 기기가 아니면, 바이너럴 효과가 적용되지 않은 오디오를 포함하는 일반 광고 컨텐츠를 제공할 수 있다(S5660).
이 때, 선택된 광고 컨텐츠는 렌더링이 수행되는 동안에 출력될 수 있다.
이 후, 렌더링이 종료되면, 생성된 입체 음향 컨텐츠를 모바일 단말의 메모리에 저장할 수 있다(S5670).
이 때, 이어폰이나 헤드폰과 같은 외부 음향 기기가 연결된 모바일 단말에서 입체 음향 컨텐츠를 재생하는 경우, 마치 외부에 위치하는 오디오에서 소리가 나는 것처럼 실감나게 컨텐츠를 감상할 수 있다.
이상에서와 같이 본 발명에 따른 입체 음향 컨텐츠 저작 툴을 이용한 입체 음향 컨텐츠 저작 방법, 광고 제공 방법 및 이를 위한 어플리케이션은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.

Claims (14)

  1. 모바일 단말을 통해 재생되는 영상에 동기되는 오디오에, 바이너럴(binaural) 효과를 적용하기 위한 비주얼 인터페이스를 제공하는 단계;
    상기 비주얼 인터페이스에 대한 터치 입력을 기반으로 상기 영상에 동기되는 메타데이터를 생성하는 단계; 및
    상기 메타데이터를 기반으로 바이너럴 효과가 적용된 오디오를 포함하는 입체 음향 컨텐츠를 렌더링하는 단계를 포함하는 것을 특징으로 하는 입체 음향 컨텐츠 저작 방법.
  2. 청구항 1에 있어서,
    상기 바이너럴 효과가 적용된 오디오는
    상기 메타데이터를 생성하는 단계 및 상기 메타데이터를 생성하는 단계 이후에 수행되는 상기 입체 음향 컨텐츠를 렌더링하는 단계의 두 단계를 이용하여 최종 생성되고,
    상기 메타데이터를 생성하는 단계와 상기 입체 음향 컨텐츠를 렌더링하는 단계는 별개의 단계이고, 상기 입체 음향 컨텐츠를 렌더링하는 단계는 상기 메타데이터에 포함된 특정 재생 시점 대표 음상의 위치를 기반으로 영상의 재생에 대하여 비실시간적으로 상기 입체 음향 컨텐츠를 생성하는 것을 특징으로 하는 입체 음향 컨텐츠 저작 방법.
  3. 청구항 2에 있어서,
    상기 메타데이터를 생성하는 단계는
    상기 바이너럴 효과가 적용된 오디오가 생성되기 전에, 상기 터치 입력에 즉각적으로 반응하여 바이너럴 효과가 적용되는 것을 느낄 수 있도록 하는 피드백 오디오를 출력하는 것을 특징으로 하는 입체 음향 컨텐츠 저작 방법.
  4. 청구항 3에 있어서,
    상기 비주얼 인터페이스는 상기 피드백 오디오에 의하여 상기 바이너럴 효과를 느끼는 사용자에 의하여 상기 영상의 특정 재생 시점에 상응하여 설정되는 상기 특정 재생 시점 대표 음상의 위치를 지정하기 위해 제공되고, 상기 특정 재생 시점 대표 음상의 위치는 상기 사용자의 머리를 기준으로 설정된 위치인 것을 특징으로 하는 입체 음향 컨텐츠 저작 방법.
  5. 청구항 1에 있어서,
    상기 비주얼 인터페이스는
    상기 특정 재생 시점 대표 음상의 2차원 평면상의 위치를 지정하기 위한 제1 인터페이스; 및
    상기 특정 재생 시점 대표 음상의 상기 2차원 평면에 수직한 직선상에 위치를 지정하기 위한 제2 인터페이스를 포함하고,
    상기 특정 재생 시점 대표 음상의 위치는 상기 제1 인터페이스에 대한 사용자의 제1 입력 및 상기 제2 인터페이스에 대한 상기 사용자의 제2 입력을 조합하여 생성되는 것을 특징으로 하는 입체 음향 컨텐츠 저작 방법.
  6. 청구항 5에 있어서,
    상기 비주얼 인터페이스는
    상기 메타데이터에 상응하는 특정 재생 시점 대표 음상을 상기 영상에 오버레이하여 실시간으로 표시하는 것을 특징으로 하는 입체 음향 컨텐츠 저작 방법.
  7. 청구항 6에 있어서,
    상기 특정 재생 시점 대표 음상은
    상기 사용자의 머리 위치를 기준으로 설정된 반구상의 위치로 표현되는 것을 특징으로 하는 입체 음향 컨텐츠 저작 방법.
  8. 청구항 7에 있어서,
    상기 비주얼 인터페이스는
    상기 영상의 객체 중 상기 특정 재생 시점 대표 음상에 상응하는 객체를 하이라이트하는 객체 트래킹 인터페이스를 포함하는 것을 특징으로 하는 입체 음향 컨텐츠 저작 방법.
  9. 청구항 8에 있어서,
    상기 객체 트래킹 인터페이스는
    상기 영상의 객체 중 상기 오디오와의 상관성을 기반으로 상기 특정 재생 시점 대표 음상에 상응하는 객체를 결정하는 것을 특징으로 하는 입체 음향 컨텐츠 저작 방법.
  10. 청구항 3에 있어서,
    상기 바이너럴 효과가 적용된 오디오는 레프트 채널 및 라이트 채널에 상응하는 2채널 오디오인 것을 특징으로 하는 입체 음향 컨텐츠 저작 방법.
  11. 모바일 단말을 통해 재생되는 영상에 동기되는 오디오에 바이너럴(binaural) 효과를 적용하기 위한 비주얼 인터페이스를 제공하고, 상기 비주얼 인터페이스에 대한 터치 입력을 기반으로 상기 영상에 동기되는 메타데이터를 생성하는 프로세서; 및
    상기 메타데이터에 상응하고, 바이너럴 효과가 적용된 오디오를 포함하는 입체 음향 컨텐츠를 저장하는 메모리
    를 포함하는 것을 특징으로 하는 입체 음향 컨텐츠 저작 장치.
  12. 청구항 11에 있어서,
    상기 바이너럴 효과가 적용된 오디오는
    상기 메타데이터를 생성한 후 수행되는 렌더링에 의하여 최종 생성되고,
    상기 입체 음향 컨텐츠는 상기 메타데이터에 포함된 특정 재생 시점 대표 음상의 위치를 기반으로 영상의 재생에 대하여 비실시간적으로 생성되는 것을 특징으로 하는 입체 음향 컨텐츠 저작 장치.
  13. 청구항 12에 있어서,
    상기 프로세서는
    상기 바이너럴 효과가 적용된 오디오가 생성되기 전에, 상기 터치 입력에 즉각적으로 반응하여 바이너럴 효과가 적용되는 것을 느낄 수 있도록 하는 피드백 오디오를 출력하는 것을 특징으로 하는 입체 음향 컨텐츠 저작 장치.
  14. 청구항 13에 있어서,
    상기 비주얼 인터페이스는 상기 피드백 오디오에 의하여 상기 바이너럴 효과를 느끼는 사용자에 의하여 상기 영상의 특정 재생 시점에 상응하여 설정되는 상기 특정 재생 시점 대표 음상의 위치를 지정하기 위해 제공되고, 상기 특정 재생 시점 대표 음상의 위치는 상기 사용자의 머리를 기준으로 설정된 위치인 것을 특징으로 하는 입체 음향 컨텐츠 저작 장치.
PCT/KR2018/016673 2017-12-28 2018-12-26 입체 음향 컨텐츠 저작 방법 및 이를 위한 장치 WO2019132516A1 (ko)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
KR1020170182142A KR102058228B1 (ko) 2017-12-28 2017-12-28 입체 음향 컨텐츠 저작 방법 및 이를 위한 어플리케이션
KR10-2017-0182142 2017-12-28
KR10-2017-0183514 2017-12-29
KR10-2017-0183511 2017-12-29
KR1020170183514A KR20190081163A (ko) 2017-12-29 2017-12-29 입체 음향 컨텐츠 저작 툴을 이용한 선택적 광고 제공 방법 및 이를 위한 어플리케이션
KR1020170183511A KR20190081160A (ko) 2017-12-29 2017-12-29 입체 음향 컨텐츠 저작 툴을 이용한 광고 제공 방법 및 이를 위한 어플리케이션

Publications (1)

Publication Number Publication Date
WO2019132516A1 true WO2019132516A1 (ko) 2019-07-04

Family

ID=67063973

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/016673 WO2019132516A1 (ko) 2017-12-28 2018-12-26 입체 음향 컨텐츠 저작 방법 및 이를 위한 장치

Country Status (1)

Country Link
WO (1) WO2019132516A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010001993A (ko) * 1999-06-10 2001-01-05 윤종용 위치 조절이 가능한 가상 음상을 이용한 스피커 재생용 다채널오디오 재생 장치 및 방법
KR20100066289A (ko) * 2008-12-08 2010-06-17 한국전자통신연구원 실감 멀티미디어 서비스 제공 방법 및 장치
KR20140017684A (ko) * 2011-07-01 2014-02-11 돌비 레버러토리즈 라이쎈싱 코오포레이션 향상된 3d 오디오 오서링과 렌더링을 위한 시스템 및 툴들
KR20150005431A (ko) * 2013-07-05 2015-01-14 한국전자통신연구원 음원 위치정보 변환 방법 및 장치
KR20150117797A (ko) * 2014-04-11 2015-10-21 하수호 입체음향 제공방법 및 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010001993A (ko) * 1999-06-10 2001-01-05 윤종용 위치 조절이 가능한 가상 음상을 이용한 스피커 재생용 다채널오디오 재생 장치 및 방법
KR20100066289A (ko) * 2008-12-08 2010-06-17 한국전자통신연구원 실감 멀티미디어 서비스 제공 방법 및 장치
KR20140017684A (ko) * 2011-07-01 2014-02-11 돌비 레버러토리즈 라이쎈싱 코오포레이션 향상된 3d 오디오 오서링과 렌더링을 위한 시스템 및 툴들
KR20150005431A (ko) * 2013-07-05 2015-01-14 한국전자통신연구원 음원 위치정보 변환 방법 및 장치
KR20150117797A (ko) * 2014-04-11 2015-10-21 하수호 입체음향 제공방법 및 장치

Similar Documents

Publication Publication Date Title
WO2016024847A1 (ko) 음향 신호를 생성하고 재생하는 방법 및 장치
WO2017043784A1 (en) Mobile terminal and method for controlling the same
WO2015142016A1 (ko) 컨텐츠의 재생 제어 방법 및 이를 수행하기 위한 컨텐츠 재생 장치
WO2013168970A1 (en) Method and system for operating communication service
WO2015199508A1 (ko) 음향 신호의 렌더링 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
EP2279618A1 (en) Method for generating and playing object-based audio contents and computer readable recording medium for recoding data having file format structure for object-based audio service
WO2016099141A2 (ko) 멀티미디어 콘텐츠 제작 및 재생 방법, 이를 수행하는 전자 기기 및 이를 실행하는 프로그램이 저장된 기록 매체
WO2014042445A1 (en) Display apparatus and method for controlling display apparatus thereof
WO2018139884A1 (en) Method for processing vr audio and corresponding equipment
WO2010033006A2 (ko) 실감 효과 표현 방법 및 장치
WO2017010651A1 (ko) 디스플레이 시스템
WO2019103584A1 (ko) 귀 개방형 헤드폰을 이용한 다채널 사운드 구현 장치 및 그 방법
WO2016182133A1 (ko) 디스플레이 장치 및 그의 동작 방법
WO2017111321A1 (ko) 영상표시장치
WO2016126048A1 (ko) 디스플레이 장치
WO2013065930A1 (en) Media apparatus, content server and method for operating the same
WO2019031652A1 (ko) 3차원 오디오 재생 방법 및 재생 장치
WO2019083258A1 (en) DATA ENCRYPTION METHOD AND ELECTRONIC APPARATUS EXECUTING A DATA ENCRYPTION METHOD
WO2021117953A1 (ko) 디스플레이 장치
WO2018092975A1 (ko) 디스플레이 장치 및 그의 동작 방법
WO2013062213A1 (en) Media card, media apparatus, content server and method for operating the same
WO2016182124A1 (ko) 디스플레이 장치 및 그의 동작 방법
WO2017039130A1 (ko) 디스플레이 장치 및 그의 동작 방법
WO2021010562A1 (en) Electronic apparatus and controlling method thereof
WO2017185481A1 (zh) 基于智能电视的视频制作方法及智能电视

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18894444

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18894444

Country of ref document: EP

Kind code of ref document: A1

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205 DATED 21/01/2021)