WO2022102945A1 - 전자장치 및 그 제어방법 - Google Patents
전자장치 및 그 제어방법 Download PDFInfo
- Publication number
- WO2022102945A1 WO2022102945A1 PCT/KR2021/012891 KR2021012891W WO2022102945A1 WO 2022102945 A1 WO2022102945 A1 WO 2022102945A1 KR 2021012891 W KR2021012891 W KR 2021012891W WO 2022102945 A1 WO2022102945 A1 WO 2022102945A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- sound source
- microphone
- source component
- audio signal
- objects
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 46
- 230000005236 sound signal Effects 0.000 claims abstract description 129
- 238000004590 computer program Methods 0.000 claims description 7
- 230000000875 corresponding effect Effects 0.000 description 101
- 238000013528 artificial neural network Methods 0.000 description 23
- 230000006870 function Effects 0.000 description 21
- 238000004458 analytical method Methods 0.000 description 18
- 238000005516 engineering process Methods 0.000 description 14
- 238000012545 processing Methods 0.000 description 13
- 230000004044 response Effects 0.000 description 13
- 238000013473 artificial intelligence Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 12
- 238000010219 correlation analysis Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 12
- 230000003044 adaptive effect Effects 0.000 description 9
- 238000012098 association analyses Methods 0.000 description 6
- 238000013461 design Methods 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 6
- 239000004973 liquid crystal related substance Substances 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 4
- 230000001276 controlling effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000012880 independent component analysis Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000004148 unit process Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000005314 correlation function Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000013439 planning Methods 0.000 description 1
- APTZNLHMIGJTEW-UHFFFAOYSA-N pyraflufen-ethyl Chemical compound C1=C(Cl)C(OCC(=O)OCC)=CC(C=2C(=C(OC(F)F)N(C)N=2)Cl)=C1F APTZNLHMIGJTEW-UHFFFAOYSA-N 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/005—Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S3/00—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
- G01S3/80—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using ultrasonic, sonic or infrasonic waves
- G01S3/802—Systems for determining direction or deviation from predetermined direction
- G01S3/808—Systems for determining direction or deviation from predetermined direction using transducers spaced apart and measuring phase or time difference between signals therefrom, i.e. path-difference systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S3/00—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
- G01S3/80—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using ultrasonic, sonic or infrasonic waves
- G01S3/802—Systems for determining direction or deviation from predetermined direction
- G01S3/808—Systems for determining direction or deviation from predetermined direction using transducers spaced apart and measuring phase or time difference between signals therefrom, i.e. path-difference systems
- G01S3/8083—Systems for determining direction or deviation from predetermined direction using transducers spaced apart and measuring phase or time difference between signals therefrom, i.e. path-difference systems determining direction of source
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2430/00—Signal processing covered by H04R, not provided for in its groups
- H04R2430/01—Aspects of volume control, not necessarily automatic, in sound systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2430/00—Signal processing covered by H04R, not provided for in its groups
- H04R2430/20—Processing of the output signals of the acoustic transducers of an array for obtaining a desired directivity characteristic
- H04R2430/25—Array processing for suppression of unwanted side-lobes in directivity characteristics, e.g. a blocking matrix
Definitions
- the present invention relates to an electronic device and a method for controlling the same, and more particularly, to an electronic device for displaying an image including an object and identifying an object corresponding to a sound source component, and a method for controlling the same.
- the music tracking function has been in the spotlight.
- the sound source tracking function is a technology that tracks the location of the sound source through analysis of the received signal.
- the sound source tracking function is being applied to various fields such as voice recognition, and since it can improve convenience such as voice recognition, the field of using the sound source tracking function is gradually increasing.
- the conventional sound source tracking function is performed for a single sound source or is performed only for a single representative sound source among a plurality of sound sources, not only is it impossible to perform an integrated tracking of a plurality of sound sources, but also adaptive tracking in response to the movement of the sound source There is an impossible problem with this. This problem causes inconvenience to the sound source tracking function, and is a cause of lowering the usability.
- An object of the present invention is to provide an electronic device capable of improving the efficiency and usability of a sound source tracking function by enabling integrated tracking of a plurality of sound sources and adaptive tracking corresponding to the movement of sound sources, and a control method thereof will do
- To an electronic device including a processor for performing an operation related to the content with respect to any one object corresponding to the identified position of the microphone among the plurality of objects in the displayed image based on the arrangement of the plurality of microphones can be achieved by
- the processor identifies, among the plurality of sound source components, any one sound source component having a large frequency component in the same frequency band as the frequency component of the audio signal as a sound source component corresponding to the audio signal.
- the processor identifies a position in the image corresponding to the identified microphone, and identifies any one object close to the identified position among a plurality of objects displayed on the image as an object corresponding to the position of the microphone .
- the processor displays an object corresponding to the position of the microphone to be distinguishable from other objects.
- the processor displays the object corresponding to the sound source component to be distinguishable from other objects.
- the processor displays a user interface indicating a mutual positional relationship between the identified microphone and an object corresponding to the position of the microphone.
- the processor displays an object corresponding to a sound source component selected according to a user input among the plurality of sound source components to be distinguishable from other objects.
- the processor adjusts a size of the sound source component corresponding to an object selected according to a user input among the plurality of objects.
- the processor updates a correspondence between the microphone and the sound source component based on the frame of the audio signal.
- An object of the present invention is to display an image including a plurality of objects based on a video signal included in the content; obtaining a plurality of sound source components according to frequency characteristics from a plurality of audio signals included in the content acquired with a plurality of microphones; identifying a microphone that has obtained an audio signal corresponding to the sound source component from among the plurality of microphones based on a correlation between the frequency characteristic between the audio signal and the sound source component during reproduction of the content; and performing an operation related to the content with respect to any one object corresponding to the identified position of the microphone among the plurality of objects in the displayed image based on the arrangement of the plurality of microphones. It can also be achieved by the control method of
- any one sound source component having a large frequency component in the same frequency band as the frequency component of the audio signal from among the plurality of sound source components is selected as the audio
- the method further includes identifying a sound source component corresponding to the signal.
- the performing of the operation related to the content may include: identifying a location in the image corresponding to the identified microphone; and identifying any one object close to the identified position as an object corresponding to the position of the microphone from among the plurality of objects displayed on the image.
- the performing the operation related to the content further includes displaying an object corresponding to the position of the microphone to be distinguishable from other objects.
- the performing the operation related to the content further includes displaying an object corresponding to the sound source component to be distinguishable from other objects.
- the performing of the content-related operation may further include displaying a user interface indicating a mutual positional relationship between the identified microphone and an object corresponding to the position of the microphone.
- the displaying to be distinguishable from other objects further includes displaying an object corresponding to a sound source component selected according to a user input from among the plurality of sound source components so as to be distinguishable from other objects.
- the performing the operation related to the content further includes performing an operation of adjusting the size of the sound source component corresponding to the object selected according to a user input among the plurality of objects.
- the performing the operation related to the content further includes updating a correspondence between the microphone and the sound source component based on the frame of the audio signal.
- the above object of the present invention is to provide a computer-readable code, in which a computer program including a code for performing a control method of an electronic device is stored, a plurality of objects based on a video signal included in the content.
- displaying an image including; obtaining a plurality of sound source components according to frequency characteristics from a plurality of audio signals included in the content acquired with a plurality of microphones; identifying a microphone that has obtained an audio signal corresponding to the sound source component from among the plurality of microphones based on a correlation between the frequency characteristic between the audio signal and the sound source component during reproduction of the content; and performing an operation related to the content with respect to any one object corresponding to the identified position of the microphone among a plurality of objects in the displayed image based on the arrangement of the plurality of microphones It can also be achieved by a recording medium on which a computer readable program is recorded.
- an electronic device capable of improving the efficiency and usability of a sound source tracking function by enabling integrated tracking of a plurality of sound sources and adaptive tracking in response to the movement of sound sources, and a method for controlling the same .
- FIG 1 illustrates an electronic device according to an embodiment of the present invention.
- FIG. 2 shows an example of the configuration of the electronic device of FIG. 1 .
- FIG. 3 shows a specific example of the configuration of the electronic device of FIG. 1 .
- FIG. 4 shows an example of a control method for the electronic device of FIG. 1 .
- FIG. 5 shows a specific example of identifying the correspondence between the sound source component and the microphone based on the audio signal of the sound source component and the microphone in relation to operation S43 of FIG. 4 .
- FIG. 6 shows a specific example of identifying a relationship between a sound source component and an object based on a position of a microphone corresponding to the sound source component in relation to operation S44 of FIG. 4 .
- FIG. 7 illustrates a specific example of distinguishing and displaying an object corresponding to a sound source component as an example of an operation related to content with respect to an object corresponding to a position of a microphone in relation to operation S44 of FIG. 4 .
- FIG. 8 is another example of an operation related to content with respect to an object corresponding to the position of the microphone, in relation to operation S44 of FIG. 4 , and shows a specific example indicating a mutual positional relationship between the microphone and the object.
- FIG. 9 illustrates a specific example of performing an operation related to content in response to an event for a sound source component in relation to operation S44 of FIG. 4 .
- FIG. 10 illustrates a specific example of performing an operation related to content in response to an event on an object in relation to operation S44 of FIG. 4 .
- FIG. 11 shows a specific example of updating the correspondence between the sound source component and the microphone in relation to operation S43 of FIG. 4 .
- FIG. 12 shows a specific example of updating an operation related to content according to the updated correspondence between the sound source component and the microphone of FIG. 11 .
- FIG 1 illustrates an electronic device according to an embodiment of the present invention.
- the electronic device 10 includes an image display device such as a TV, a smart phone, a tablet, a portable media player, a wearable device, a video wall, an electronic picture frame, and the like, as well as a set-top that does not have a display 13 . It is implemented with various types of devices, such as image processing devices such as boxes, household appliances such as refrigerators and washing machines, and information processing devices such as computer bodies. In addition, the electronic device 10 is implemented as an AI speaker, an AI robot, etc. equipped with an artificial intelligence (AI) function. The type of the electronic device 10 is not limited thereto. Hereinafter, for convenience of description, it is assumed that the electronic device 10 is implemented as a TV.
- AI artificial intelligence
- the electronic device 10 displays the image 5 based on the video signal.
- the image 5 is output through the display 13 .
- the video signal includes video signals of various contents.
- the content includes, but is not limited to, various types of multimedia content such as news, drama, and movie.
- the image 5 includes a plurality of objects 1 , 2 , 3 . Objects include, but are not limited to, people, animals, things, and the like.
- the electronic device 10 outputs audio based on the audio signal. Audio is output through the speaker 15 .
- the speaker 15 includes a built-in speaker provided in the display device 10 or an external speaker provided outside. However, for convenience of description, it is assumed that the speaker 15 is a built-in speaker.
- the audio signal includes an audio signal of the content corresponding to the video signal of the content. Accordingly, the audio based on the audio signal is outputted corresponding to the image 5 based on the video signal.
- the audio signal includes audio signals of various types of content.
- the audio signal may include a plurality of sound source components.
- the plurality of sound source components may correspond to the plurality of objects 1, 2, 3 in the image 5 .
- the electronic device 10 extracts a plurality of sound source components from the audio signal, and identifies the relationship between the extracted sound source components and the plurality of objects 1 , 2 , and 3 .
- the first sound source component, the second sound source component, and the third sound source component extracted from the audio signal are applied to the first object 1, the second object 2, and the third object 3 in the image 5, respectively. Correspondence can be identified.
- the electronic device 10 identifies the relationship between the sound source component and the plurality of microphones ( 60 in FIG. 6 ) that have received the audio signal. 6 for convenience of explanation, the electronic device 10 extracts a first sound source component or a third sound source component from the audio signal obtained by the plurality of microphones 60, and the extracted first sound source component or the second sound source component It can be identified that the three sound source components correspond to the first microphones (61 of FIG. 6 ) to the third microphones (63 of FIG. 6 ) of the plurality of microphones 60 , respectively.
- the correspondence between the sound source component and the microphone may be identified based on whether there is a correlation between the sound source component and the audio signal obtained with the microphone. For example, when the correlation between the first sound source component and the audio signal acquired through the first microphone 61 is high, the first sound source component may be identified as corresponding to the first microphone 61 . Relevance identification will be described in more detail with reference to FIG. 5 . In this way, the correspondence between the plurality of sound source components and the plurality of microphones can be identified.
- the electronic device 10 identifies the relationship between the sound source component and the object by identifying the object corresponding to the position of the microphone. For convenience of explanation, assuming that the first sound source component corresponds to the first microphone 61 and the first object 1 corresponds to the position of the first microphone 61 , the first sound source component corresponds to the first object It can be identified as corresponding to (1). The process of identifying the relationship between the sound source component and the object by identifying the object corresponding to the position of the microphone will be described in more detail with reference to FIGS. 3 and 6 .
- the electronic device 10 performs a content-related operation with respect to an object identified as corresponding to the position of the microphone. For example, when the correspondence between the first sound source component and the first object 1 is identified, the electronic device 10 displays the user interface 4 indicating the correspondence between the first sound source component and the first object 1 . can be displayed.
- the operation related to the content with respect to the object is not limited to the above, it may be implemented in various ways. This will be described in more detail with reference to FIGS. 7 and 8 .
- the electronic device 10 displays an image 5 including a plurality of objects 1, 2, and 3, and an object corresponding to each sound source component based on an audio signal obtained by the plurality of microphones 60 may be identified, and various operations related to content may be performed on the identified object.
- each sound source component can be identified based on the positions of the plurality of microphones 60 from which the audio signal is obtained, it is possible not only to perform integrated sound source tracking for the sound source component, but also to examine the relationship between the sound source component and the object. Integrated identification is possible. Therefore, compared to individual sound source tracking for a single sound source, the efficiency and usability of the sound source tracking function can be improved.
- FIG. 2 shows an example of the configuration of the electronic device of FIG. 1 .
- the configuration of the electronic device 10 will be described in detail with reference to FIG. 2 .
- the electronic device 10 may be implemented as various types of devices, and thus the present embodiment does not limit the configuration of the electronic device 10 .
- the electronic device 10 is not implemented as a display device such as a TV.
- the electronic device 10 may not include components for displaying an image, such as the display 13 .
- the electronic device 10 when the electronic device 10 is implemented as a set-top box, the electronic device 10 outputs an image signal to an external TV through the interface unit 11 .
- the electronic device 10 includes an interface unit 11 .
- the interface unit 11 transmits/receives data by connecting to an external device or the like. However, since the present invention is not limited thereto, the interface unit 11 connects to various devices connected through a network.
- the interface unit 11 includes a wired interface unit.
- the wired interface unit includes a connector or port to which an antenna capable of receiving a broadcast signal according to a broadcasting standard such as terrestrial/satellite broadcasting is connected, or a cable capable of receiving a broadcast signal according to the cable broadcasting standard is connected.
- the electronic device 10 may have a built-in antenna capable of receiving a broadcast signal.
- the wired interface includes a connector or port according to video and/or audio transmission standards, such as HDMI port, DisplayPort, DVI port, Thunderbolt, Composite video, Component video, Super Video, SCART, etc. includes
- the wired interface unit includes a connector or port according to a universal data transmission standard such as a USB port.
- the wired interface unit includes a connector or a port to which an optical cable can be connected according to an optical transmission standard.
- the wired interface unit includes an internal audio receiver.
- the wired interface unit is connected to an external audio device having an audio receiver and includes a connector or a port capable of receiving or inputting an audio signal from the audio device.
- the wired interface unit is connected to an audio device such as a headset, earphone, or external speaker, and includes a connector or port capable of transmitting or outputting an audio signal to the audio device.
- the wired interface unit includes a connector or port according to a network transmission standard such as Ethernet.
- the wired interface unit is implemented as a LAN card connected to a router or a gateway by wire.
- the wired interface unit is connected to an external device such as a set-top box, an optical media player, or an external display device, a speaker, a server, etc. in a 1:1 or 1:N (N is a natural number) method through the connector or port, so that the corresponding It receives a video/audio signal from an external device or transmits a video/audio signal to the corresponding external device.
- the wired interface unit may include a connector or a port for separately transmitting video/audio signals.
- the wired interface unit may be embedded in the electronic device 10 , or implemented in the form of a dongle or a module to be detachably attached to the connector of the electronic device 10 .
- the interface unit 11 includes a wireless interface unit.
- the wireless interface unit is implemented in various ways corresponding to the implementation form of the electronic device 10 .
- the wireless interface unit uses wireless communication such as RF (Radio Frequency), Zigbee, Bluetooth, Wi-Fi, UWB (Ultra-Wideband) and NFC (Near Field Communication) as a communication method.
- the wireless interface unit is implemented as a wireless communication module for performing wireless communication with the AP according to the Wi-Fi method or a wireless communication module for performing one-to-one direct wireless communication such as Bluetooth.
- the wireless interface unit transmits and receives data packets by wirelessly communicating with an external device on the network.
- the wireless interface unit includes an IR transmitter and/or an IR receiver capable of transmitting and/or receiving an IR (Infrared) signal according to an infrared communication standard.
- the wireless interface unit receives or inputs a remote controller signal from the remote controller or other external device through the IR transmitter and/or the IR receiver, or transmits or outputs a remote controller signal to the remote controller or other external device.
- the electronic device 10 transmits/receives a remote controller signal to and from a remote controller or other external device through a wireless interface unit of another method such as Wi-Fi or Bluetooth.
- the remote controller includes a smart phone and the like, and a remote controller application is installed on the smart phone or the like.
- a smartphone or the like performs a function of a remote controller, for example, a function of controlling the electronic device 10 through an installed application.
- These remote controller applications are installed in various external devices such as AI speakers and AI robots.
- the electronic device 10 When the video/audio signal received through the interface unit 11 is a broadcast signal, the electronic device 10 further includes a tuner for tuning the received broadcast signal for each channel.
- the electronic device 10 includes a communication unit 12 .
- the communication unit 12 is connected to an external device and the like to transmit video/audio signals.
- the communication unit 12 includes at least one of a wired interface unit and a wireless interface according to a design method, and performs at least one function of the wired interface unit and the wireless interface.
- the electronic device 10 includes a display 13 .
- the display 13 includes a display panel capable of displaying an image on the screen.
- the display panel may have various screen sizes. For example, it may be provided in various forms having different screen sizes, such as a vertical type and a horizontal type.
- the display panel is provided with a light-receiving structure such as a liquid crystal type or a self-luminous structure such as an OLED type.
- the display 13 may further include additional components according to the structure of the display panel.
- the display panel is a liquid crystal type
- the display 13 includes a liquid crystal display panel, a backlight unit for supplying light, and liquid crystal and a panel driving substrate for driving the liquid crystal of the display panel.
- the display 13 is omitted when the electronic device 10 is implemented as a set-top box or the like.
- the electronic device 10 includes a user input unit 14 .
- the user input unit 14 includes various types of input interface related circuits that are provided to allow a user to operate in order to receive a user input.
- the user input unit 14 may be configured in various forms depending on the type of the electronic device 10 , for example, a mechanical or electronic button unit of the electronic device 10 , a touch pad, a touch screen installed on the display 13 , etc. There is this.
- the electronic device 10 includes a speaker 15 .
- the speaker 15 may be implemented as a speaker that outputs audio based on an audio signal.
- the speaker includes an internal speaker or an external speaker provided in an external device. When audio is output through the external speaker, the audio signal may be transmitted to the external device through the interface unit 11 .
- the communication unit 12, the display 13, the user input unit 14, the speaker 15, etc. have been described as separate components from the interface unit 11, they may be configured to be included in the interface unit 11 depending on a design method. there is.
- the electronic device 10 includes a storage unit 16 .
- the storage unit 16 stores digitized data.
- the storage unit 16 includes storage of non-volatile properties capable of preserving data regardless of whether or not power is provided.
- the storage includes a flash memory, a hard-disc drive (HDD), a solid-state drive (SSD), a read only memory (ROM), and the like.
- the storage unit 16 is loaded with data to be processed by the processor 6 , and includes a memory having a volatile property that cannot store data when power is not provided.
- the memory includes a buffer, a random access memory, and the like.
- the electronic device 10 includes a processor 6 .
- the processor 6 includes one or more hardware processors implemented with a CPU, a chipset, a buffer, a circuit, etc. mounted on a printed circuit board, and may be implemented as a SOC (System on Chip) depending on a design method.
- the processor 6 includes modules corresponding to various processes such as a demultiplexer, a decoder, a scaler, an audio digital signal processor (DSP), and an amplifier.
- DSP audio digital signal processor
- some or all of these modules are implemented as SOC.
- a module related to image processing such as a demultiplexer, a decoder, and a scaler may be implemented as an image processing SOC
- an audio DSP may be implemented as a chipset separate from the SOC.
- the configuration of the electronic device 10 is not limited to that shown in FIG. 2 , some of the above-described components may be excluded or include components other than the above-described components according to a design method.
- the electronic device 10 may include a camera.
- the camera photographs the front of the electronic device 10 . Presence, movement, etc. of the user may be identified in the image captured by the camera.
- the camera is implemented as a CMOS (Complementary Metal Oxide Semiconductor) or CCD (Charge Coupled Device) type camera.
- CMOS Complementary Metal Oxide Semiconductor
- CCD Charge Coupled Device
- the camera is not limited to the internal camera, and includes a camera provided in an external device. In this case, an image signal obtained by the camera from an external device may be received or input through the interface unit 11 .
- the electronic device 10 may include an audio receiver.
- the audio receiver may be provided in the main body of the electronic device 10 , but is not limited thereto, and thus may be provided outside.
- a voice recognition function may be performed with respect to a voice command received through the audio receiver.
- the voice recognition function includes performing voice recognition processing on a voice command to obtain a recognition result, and an operation corresponding to the obtained recognition result.
- Speech recognition processing includes a speech-to-text (STT) processing process of converting a voice command into text data, and a command identification and execution process of identifying a command indicated by the text data and performing an operation indicated by the identified command do.
- STT speech-to-text
- All of the voice recognition processing may be executed in the electronic device 10 , but in consideration of the system load and required storage capacity, at least a part of the process is performed by at least one server communicatively connected to the electronic device 10 through a network. is carried out
- at least one server performs an STT processing process
- the electronic device 10 performs a command identification and execution process.
- the at least one server may perform both the STT processing process and the command identification and execution process, and the electronic device 10 may only receive the result from the at least one server.
- the reception of the voice command may be performed by the audio receiver, or the voice command may be received through a remote controller separated from the main body.
- the remote controller includes a smartphone, as described above.
- a remote controller is used, a voice signal corresponding to a voice command is received from the remote controller, and voice recognition processing is performed on the received voice signal.
- the processor 6 of the electronic device 10 builds an AI system by applying an AI technology using a rule-based or AI algorithm to at least some of data analysis, processing, and result information generation for the above-described operations.
- the AI system is a computer system that implements human-level intelligence, and the machine learns and judges on its own, and the recognition rate improves the more it is used.
- AI technology is composed of elemental technologies that simulate functions such as cognition and judgment of the human brain using at least one of machine learning, a neural network, or a deep learning algorithm.
- the element technologies are linguistic understanding technology that recognizes human language/text, visual understanding technology that recognizes objects as if they were human eyes, reasoning/prediction technology that logically infers and predicts by judging information, and uses human experience information as knowledge data. It may include at least one of a knowledge expression technology that is processed with
- Linguistic understanding is a technology for recognizing and applying/processing human language/text, and includes natural language processing, machine translation, dialogue system, question and answer, and speech recognition/synthesis.
- Visual understanding is a technology for recognizing and processing objects like human vision, and includes object recognition, object tracking, image search, human recognition, scene understanding, spatial understanding, image improvement, and the like.
- Inferential prediction is a technology for logically reasoning and predicting by judging information, and includes knowledge/probability-based reasoning, optimization prediction, preference-based planning, and recommendation.
- Knowledge expression is a technology that automatically processes human experience information into knowledge data, and includes knowledge construction (data generation/classification) and knowledge management (data utilization).
- the processor 6 performs the functions of the learning unit and the recognition unit together.
- the learning unit performs a function of generating a learned neural network network
- the recognition unit performs a function of recognizing, inferring, predicting, estimating, and judging data using the learned neural network network.
- the learning unit creates or updates the neural network.
- the learning unit acquires learning data to generate a neural network.
- the learning unit acquires the learning data from the storage unit 16 or from the outside.
- the learning data may be data used for learning of the neural network, and the neural network may be trained by using the data obtained by performing the above-described operation as learning data.
- the learning unit performs preprocessing on the acquired training data before training the neural network using the training data, or selects data to be used for learning from among a plurality of training data. For example, the learning unit processes the learning data in a preset format, filters, or adds/remove noise to form data suitable for learning. The learning unit generates a neural network set to perform the above-described operation by using the pre-processed learning data.
- the learned neural network is composed of a plurality of neural network networks or layers. Nodes of the plurality of neural networks have weights, and the plurality of neural networks are connected to each other so that an output value of one neural network is used as an input value of another neural network.
- Examples of neural networks include Convolutional Neural Network (CNN), Deep Neural Network (DNN), Recurrent Neural Network (RNN), Restricted Boltzmann Machine (RBM), Deep Belief Network (DBN), Bidirectional Recurrent Deep Neural Network (BRDNN) and Including models such as Deep Q-Networks.
- the recognition unit acquires target data to perform the above-described operation.
- the target data is obtained from the storage unit 16 or is obtained from the outside.
- the target data may be data to be recognized by the neural network.
- the recognition unit performs preprocessing on the acquired target data before applying the target data to the learned neural network, or selects data to be used for recognition from among a plurality of target data. For example, the recognition unit processes target data into a preset format, filters, or adds/remove noise to form data suitable for recognition.
- the recognition unit obtains an output value output from the neural network by applying the preprocessed target data to the neural network.
- the recognition unit obtains a probability value or a reliability value together with the output value.
- FIG. 3 shows a specific example of the configuration of the electronic device of FIG. 1 .
- each configuration described below may be an operation in which the process of the processor 6 executing the program stored in the storage unit 16 is divided by roles.
- the electronic device 10 includes a frequency analyzer 31 .
- the frequency analyzer 31 performs frequency analysis on the audio signal of the content.
- the audio signal is an audio signal corresponding to the video signal of the content, and may be obtained through a plurality of microphones 60 including the first microphone 61 to the third microphone 63 .
- Frequency analysis includes analysis of frequency characteristics of an audio signal.
- the frequency characteristic includes a pattern, a waveform, a period, an intensity, and the like for a frequency component of an audio signal.
- the frequency analysis unit 31 provides 0.
- the frequency analyzer 31 performs frequency analysis on the audio signals obtained for each of the plurality of microphones 60 .
- the frequency analysis unit 31 performs frequency analysis on the audio signal received through the first microphone 61 , the audio signal received through the second microphone 62 , and the audio signal received through the third microphone 63 .
- the frequency analysis includes analysis of patterns, waveforms, periods, strengths, etc. of the frequency components of the audio signals acquired for each of the plurality of microphones 60 .
- the frequency analysis result may be one in which the gain, intensity, etc. of the audio signal for each of the plurality of microphones 60 are appropriately adjusted, and may be sampled if necessary.
- the frequency analysis results for the audio signals for each of the plurality of microphones 60 are provided to the correlation analysis unit 33 .
- the electronic device 10 includes a sound source component analyzer 32 .
- the sound source component analyzer 32 receives a frequency analysis result for the audio signal from the frequency analyzer 31 .
- the sound source component analyzer 32 separates a plurality of sound source components from the audio signal based on the frequency analysis result of the audio signal.
- the sound source component analyzer 32 may separate the plurality of sound source components according to whether or not they correspond to a specific frequency component, for example, in consideration of the fact that frequency characteristics may be different for each of the plurality of sound source components.
- Blind Source Separation (BBS) algorithms such as Independent Component Analysis (ICA) and Geometric Source Separation (GSS) may be used to separate sound components, but The present invention is not limited thereto.
- the sound source component analyzer 32 provides information on a plurality of separated sound source components to the association analyzer 33 .
- the electronic device 10 includes a correlation analysis unit 33 .
- the correlation analysis unit 33 receives the frequency analysis results for the audio signals for each of the plurality of microphones 60 from the frequency analysis unit 31 , and receives information on the plurality of sound source components from the sound source component analysis unit 32 . .
- the correlation analyzer 33 analyzes the correlation between the sound source component and the audio signal of the microphone by using the frequency analysis result of the audio signal for each of the plurality of microphones 60 and information on the plurality of sound source components.
- the first sound source component is the most dominant or has a major influence on the audio signal of the first microphone 61 . It is based on the principle that relevance, similarity, etc. will be the highest in frequency characteristics.
- Such correlation analysis may be performed based on Equation [1] below.
- Equation [1] means the correlation coefficient (R) between the audio signal of the (t)-th microphone and the (n)-th sound source component, and (*) means a conjugated complex number when the audio signal is a complex number.
- the calculation of the correlation coefficient R may be performed for each frequency band.
- the correlation analysis unit 33 calculates the correlation coefficient (R) by using Equation [1], and identifies the sound source component having the highest correlation coefficient (R) with respect to the audio signal of each microphone.
- the sound source component having the highest correlation coefficient R with respect to the audio signal of the first microphone 61 is the first sound source component.
- the highest correlation coefficient (R) between the audio signal of the first microphone 61 and the first sound source component is that the first sound source component is the most important sound source component in the audio signal of the first microphone 61, and thus the first sound source component and the correlation between the audio signals of the first microphone 61 is the highest.
- the correlation analyzer 33 calculates the first sound source component and the first microphone 61 based on the correlation coefficient R between the first sound source component and the audio signal of the first microphone 61 calculated through Equation [1]. can identify the relationship between the audio signals of
- the association analysis unit 33 may perform standardization on Equation [1] by using Equation [2] below in calculating the association coefficient (R).
- Equation [2] When Equation [2] is divided by Equation [1], the correlation coefficient N on which Equation [1] is standardized can be obtained.
- the specific sound source component may include a sound source component having a size, intensity, etc. of a frequency greater than that of other sound source components.
- the association analysis unit 33 identifies a relationship between a sound source component and an audio signal of a microphone through association analysis, and identifies a relationship between a sound source component and a microphone according to the relationship between the sound source component and the audio signal of the microphone. For example, the association analyzer 33 may identify the relationship between the first sound source component and the first microphone 61 according to the relationship between the first sound source component and the audio signal of the first microphone 61 .
- the correlation analysis unit 33 provides information about the relationship between the sound source component and the microphone to the location tracking unit 34 .
- the electronic device 10 includes a location tracking unit 34 .
- the location tracking unit 34 receives information about the relationship between the sound source component and the microphone from the correlation analysis unit 33 .
- the position tracking unit 34 identifies an object corresponding to the sound source component by using information on the relationship between the sound source component and the microphone and information on the position of the microphone.
- the information about the position of the microphone may be received together with or separately from the audio signal.
- an image 5 obtained by photographing a plurality of real objects may be displayed on the display 13 .
- a plurality of objects 1 , 2 , and 3 corresponding to the plurality of real objects 71 , 72 , 73 are displayed.
- Audio of the first to third sound source components uttered by the plurality of real objects 71 , 72 , and 73 are received as audio signals through the plurality of microphones 60 .
- the location tracking unit 34 identifies the location of the first microphone 61 among the plurality of microphones 60 based on the arrangement environment information of the plurality of microphones 60 .
- the arrangement environment information of the plurality of microphones 60 may be included in the information regarding the positions of the microphones described above.
- the position tracking unit 34 includes a plurality of microphones 60 arranged in a circular shape with the same angle based on the arrangement environment information of the plurality of microphones 60 , and the first microphone 61 is selected from among the plurality of microphones 60 . It can be identified as being located on the leftmost side.
- the position tracking unit 34 identifies the positions of the plurality of real objects 71, 72, 73 that have uttered the first sound source component to the third sound source component, and identifies the first It is possible to identify the first real object 71 that is closest to the position of the microphone 61 .
- Location identification includes identification with respect to at least one of a distance or a direction.
- the location tracking unit 34 uses the following Equation [3] to identify the actual location of the first object 71 .
- Equation [3] is a signal in the frequency domain of the audio signal acquired with the first microphone 61, is a signal in the frequency domain of the audio signal acquired by the second microphone 62 . in a certain frequency band
- the value of t that maximizes is the time difference between the audio signals arriving at the first microphone 61 and the second microphone 62 .
- Equation [3] is related to the GCC-PHAT value of a generalized cross-correlation function (GCC) that is normally used for tracking the location of the actual first object 71 . Accordingly, the value of t at which the value of Equation [3] becomes the maximum is calculated while changing the value of t for each predetermined frequency band. The value of t may be different for each frequency band, which is due to external factors such as noise and other measurement errors for each frequency band. Accordingly, the value of t at which the GCC-PHAT value becomes the maximum is calculated while observing the change of the GCC-PHAT value according to the change of the value of t for each frequency band.
- GCC generalized cross-correlation function
- the actual position of the first object 71 may be identified based on a time difference according to the calculated value of t. It is assumed that the audio signal of the real first object 71 is first received by the first microphone 61 closer to the real first object 71 and is received later by the value of t by the second microphone 62 . The actual position of the first object 71 may be found by calculating the angle ⁇ between the first microphone 61 and the second microphone 62 and the actual first object 71 .
- the difference ( ⁇ S) between the distance from the real first object 71 to the first microphone 61 and the distance from the real first object 71 to the second microphone 62 is obtained by the following equation [4] can be expressed together.
- (v) is the speed of the audio signal
- (d) is the arrangement distance of the first microphone 61 and the second microphone 62.
- the arrangement of the plurality of microphones 60 it is assumed that the first microphone 61 and the second microphone 62 have the same angle and are arranged in a circle, but the present invention is not limited thereto. Includes shapes arranged in a straight line. Accordingly, the angle ⁇ between the first and second microphones 61 and 62 and the actual first object 71 may be calculated through the following Equation [5].
- the actual position of the first object 71 may be estimated based on the angle ⁇ calculated by Equation [5]. In the same way, the positions of the actual second object 72 and the actual third object 73 may be estimated.
- the position tracking unit 34 may identify the positions of the plurality of real objects 71 , 72 , 73 by utilizing equations [3] to [5]. The above position tracking principle is applicable in 3D space. If the number of microphones is increased, the position of each object in 3D space can be estimated.
- the location tracking unit 34 may identify the first object 1 corresponding to the first real object 71 from among the plurality of objects 1, 2, 3 in the image 5 . To this end, the position tracking unit 34 identifies the positions of the virtual microphones 50 corresponding to the plurality of microphones 60 in the image 5 . Information about the location of the virtual microphone 50 may be included in the information about the location of the microphone. Depending on the design method, the location of the virtual microphone 50 may be set to the lower center of the screen on which the image 5 is displayed, but is not limited thereto.
- the location tracking unit 34 includes a first virtual microphone corresponding to the first microphone 61 among the virtual microphones 50 ( 51 ), the first object 1 closest to the location may be identified as corresponding to the first real object 71 .
- the location tracking unit 34 may identify the first object 1 corresponding to the first real object 71 as the first object 1 corresponding to the first sound source component.
- the relationship between the sound source component and the object may be updated. For example, when an audio signal of a microphone highly correlated with a first sound source component corresponding to the first object 71 changes as the first object 71 actually moves, the first sound source component and the first object 1 ) can be updated. More specifically, the association analysis unit 33 performs association analysis for each frame of the audio signal, and determines the relationship between the first sound source component and the first microphone 61 through the association analysis, the first sound source component and the third microphone 63 . ) can be updated. The correlation analyzer 33 may provide the updated information on the relationship between the first sound source component and the third microphone 63 to the location tracking unit 34 .
- the position tracking unit 34 as previously identified based on the position of the first microphone 61, the actual position of the first object 71 corresponding to the first sound source component, is located at the position of the third microphone 63. Based on the first sound source component, the updated position of the actual first object 71 may be identified.
- the location tracking unit 34 utilizes the following Equation [6] to identify the updated location of the first real object 71 .
- the location tracking unit 34 may identify the location of the real object updated based on the new frame and the location of the real object based on the previous frame of the audio signal.
- ( ⁇ ) in Equation [6] is to consider noise and external factors.
- the location tracking unit 34 may identify the location of the real object by using the sound source tracking model.
- the sound source tracking model may be prepared for each sound source component, and may be prepared based on Equation [6]. For example, the location tracking unit 34 generates a first sound source tracking model corresponding to the first sound source component, and updates the actual first object 71 corresponding to the first sound source component based on the first sound source tracking model. location can be tracked.
- the position tracking unit 34 identifies the updated position of the real first object 71 and is the closest to the real third microphone 63 based on the updated relationship between the first sound source component and the third microphone 63 . It can be identified that the first object 71 corresponds to the first sound source component.
- the location tracking unit 34 determines that the first object 1 closest to the location of the third virtual microphone 53 corresponding to the third microphone 63 among the virtual microphones 50 is detected as the first real object 71 . ) can be identified as corresponding to The location tracking unit 34 identifies the first object 1 corresponding to the first sound source component based on the relationship between the first sound source component and the first real object 71 even when the first real object 71 moves. can do.
- the electronic device 10 includes an operation performing unit 35 .
- the operation performing unit 35 performs an operation related to content with respect to the identified object. For example, when the audio of the first sound source component is output through the speaker 15 , the operation performing unit 35 may have a user interface ( 4) can be displayed. However, since the present invention is not limited thereto, the operation performing unit 35 may perform various operations based on the relationship between the first sound source component and the first object 1 .
- the electronic device 10 displays an image 5 including a plurality of objects 1, 2, and 3, and an object corresponding to each sound source component based on an audio signal obtained by the plurality of microphones 60 may be identified, and various operations related to content may be performed on the identified object.
- the electronic device 10 can identify the object corresponding to each sound source component based on the positions of the plurality of microphones 60 from which the audio signal is obtained, not only can the electronic device 10 identify the relationship between the sound source component and the object, but also the object. It is possible to adaptively identify the relationship between sound source components and objects according to the movement of
- FIG. 4 shows an example of a control method for the electronic device of FIG. 1 .
- the processor 6 displays the image 5 including a plurality of objects based on the video signal included in the content (S41).
- the image 5 may include a plurality of objects 1 , 2 , and 3 .
- the processor 6 acquires a plurality of sound source components according to frequency characteristics from a plurality of audio signals included in the content acquired with the plurality of microphones 60 (S42).
- the processor 6 identifies the microphone that has obtained the audio signal corresponding to the sound source component among the plurality of microphones 60 based on the audio signal of the microphone and the sound source component during content reproduction (S43). For example, the processor 6 may identify the relationship between the first sound source component having the highest correlation coefficient and the audio signal of the first microphone 61 through the correlation analysis.
- the processor 6 determines any one object corresponding to the position of the microphone corresponding to the identified sound source component among the plurality of objects 1, 2, 4 in the image 5 based on the arrangement of the plurality of microphones 60 to perform an operation related to the content (S44). For example, the processor 6 identifies the first object 1 corresponding to the position of the first microphone 61 in the image 5 based on the arrangement environment of the plurality of microphones 60 .
- the electronic device 10 can identify the object corresponding to each sound source component based on the positions of the plurality of microphones 60 from which the audio signal is obtained, it is possible to not only identify the sound source component and the relationship between the objects in an integrated way. Rather, it is possible to adaptively identify the relationship between the sound source component and the object according to the movement of the object.
- FIG. 5 shows a specific example of identifying the correspondence between the sound source component and the microphone based on the audio signal of the sound source component and the microphone in relation to operation S43 of FIG. 4 .
- the processor 6 extracts a plurality of sound source components from the audio signals received through the plurality of microphones 60 , and analyzes correlations between the plurality of sound source components and the audio signals of the plurality of microphones 60 .
- the frequency components of the first to third sound source components extracted from the audio signal are as shown in FIG. 5 .
- the processor 6 identifies a first sound source component having a frequency component similar to that of the audio signal acquired with the first microphone 61 from among the plurality of sound source components.
- the processor 6 may identify the first sound source component corresponding to the audio signal of the first microphone 61 based on the magnitude of the frequency component as well as the similarity between the frequency components. For example, the processor 6 may identify a first sound source component having a large frequency component in the same frequency band as the frequency component of the audio signal of the first microphone 61 .
- the processor 6 may identify the first sound source component as corresponding to the first microphone 61 . In the same way, the processor 6 may identify that the second sound source component corresponds to the second microphone 62 and the third sound source component corresponds to the third microphone 63 .
- the processor 6 can identify the correspondence between the sound source component and the microphone based on the correlation between the frequency characteristic between the sound source component and the audio signal received with the microphone. Therefore, it is possible to prepare a condition for identifying the relationship between the sound source component and the object, which will be described below with reference to FIG. 6 .
- FIG. 6 shows a specific example of identifying a relationship between a sound source component and an object based on a position of a microphone corresponding to the sound source component in relation to operation S44 of FIG. 4 .
- the processor 6 displays an image 5 including a plurality of objects 1 , 2 , and 3 on the display 13 .
- an image of an actual beach is displayed on the display 13 , and there are a plurality of real objects 71 , 72 , and 73 on the actual beach.
- the first real object 71 is on the left side of the real beach
- the real second object 72 is on the upper center
- the real third object 73 is on the right side.
- the plurality of microphones 60 includes a microphone array in which the first microphone 61 , the second microphone 62 , and the third microphone 63 are disposed at the same angle, and are located below the center of the actual beach.
- the first microphone 61 , the second microphone 62 , and the third microphone 63 are arranged to be close to the actual first object 71 , the actual second object 72 , and the third object 73 , respectively.
- the processor 6 may receive the arrangement environment information of the plurality of microphones 60 together with or separately from the audio signal.
- the processor 6 identifies the relationship between the sound source component and the microphone through correlation analysis between the sound source component and the microphone audio signal. For example, in the processor 6 , the first sound source component corresponds to the first microphone 61 , the second sound source component corresponds to the second microphone 62 , and the third sound source component corresponds to the third microphone 63 . can be identified as corresponding.
- the processor 6 identifies the object in the image 5 corresponding to the sound source component based on the arrangement environment information of the plurality of microphones 60 and information on the relationship between the sound source component and the microphone identified through correlation analysis. More specifically, the processor 6 identifies the position of the first microphone 61 among the plurality of microphones 60 based on the arrangement environment information of the plurality of microphones 60 . For example, the processor 6 may identify that the first microphone 61 is located at the leftmost position among the plurality of microphones 60 .
- the processor 6 identifies the positions of the plurality of real objects 71, 72, 73 that have uttered the first to third sound source components, and the first microphone ( 61), it is possible to identify the first real object 71 located closest to the position.
- the processor 6 may identify that the first sound source component is uttered from the first real object 71 .
- the processor 6 identifies the first object 1 corresponding to the first real object 71 from among the plurality of objects 1, 2, 3 in the image 5 . To this end, the processor 6 identifies the positions of the virtual microphones 50 corresponding to the plurality of microphones 60 in the image 5 . Depending on the design method, the position of the virtual microphone 50 may be set to the lower center of the screen on which the image 5 is displayed so as to correspond to the positions of the plurality of microphones 60 , but is not limited thereto.
- the processor 6 is the closest to the position of the first virtual microphone 51 corresponding to the first microphone 61 among the virtual microphones 50 . It can be identified that the first object 1 at the location corresponds to the first real object 71 .
- the processor 6 may identify the first object 1 corresponding to the first sound source component based on the relationship between the first sound source component and the first real object 71 .
- the processor 6 determines that the third sound source component corresponds to the third microphone 63 , and the third real object 73 closest to the position of the third microphone 63 is the third in the image 5 . Corresponds to the object 3, and as a result, it can be identified that the third object 3 corresponds to the third sound source component.
- the processor 6 can identify the object corresponding to each sound source component based on the positions of the plurality of microphones 60 from which the audio signal is obtained, it is possible to integrally identify the relationship between the sound source component and the object.
- FIG. 7 illustrates a specific example of distinguishing and displaying an object corresponding to a sound source component as an example of an operation related to content with respect to an object corresponding to a position of a microphone in relation to operation S44 of FIG. 4 .
- the first object 1 in the image 5 corresponds to the first sound source component.
- the processor 6 may display the first object 1 to be distinguished from the second object 2 and the third object 3 which are other objects in the image 5 .
- the second object 2 and the third object 3 do not correspond to the first sound source component, but may correspond to the second sound source component and the third sound source component, respectively.
- the processor 6 may apply the effect 81 for emphasizing the first object 1 to distinguish the first object 1 from other objects. Similarly, the processor 6 may display the second object 2 corresponding to the second sound source component or the third object 3 corresponding to the third sound source component to be distinguished from other objects in the image 5 . .
- the processor 6 may allow different effects to be applied to each of the plurality of objects 1, 2, and 3, thereby enabling the plurality of objects 1, 2, and 3 to be distinguished from each other.
- the processor 6 may make it possible to distinguish each other by differentiating colors, sizes, gradations, blurring, etc. applied to each other.
- the processor 6 may display the first object 1 to be distinguishable even by the first microphone 61 corresponding to the first sound source component. For example, the processor 6 identifies the first object 1 as corresponding to the first microphone 61 among the plurality of objects 1, 2, 3 in the image 5, and the first object 1 By displaying to be distinguished from other objects, the first object 1 can be distinguished from the second object 2 and the third object 3 that do not correspond to the first microphone 61 .
- the processor 6 may display the object corresponding to the sound source component to be distinguished from other objects based on the relationship between the sound source component and the object. Accordingly, it is possible to provide visual information on whether the integrated identification and adaptive identification of the relationship between the sound source component and the object is performed.
- FIG. 8 is another example of an operation related to content with respect to an object corresponding to the position of the microphone, in relation to operation S44 of FIG. 4 , and shows a specific example indicating a mutual positional relationship between the microphone and the object.
- the processor 6 identifies the relationship between the plurality of microphones 60 and the plurality of real objects 71 , 72 , 73 by utilizing information about the positions of the plurality of microphones 60 , and , it has been described that the relationship between the plurality of microphones 60 and the plurality of objects 1, 2, and 3 in the image 5 can be identified.
- the processor 6 may identify the mutual positional relationship between the plurality of microphones 60 and the plurality of real objects 71 , 72 , 73 . For example, the processor 6 may identify that the position of the first actual microphone 61 is closest to the position of the first object 71 .
- the processor 6 determines the mutual position between the plurality of microphones 60 and the plurality of objects 1, 2, 3 based on the mutual positional relationship between the plurality of microphones 60 and the plurality of real objects 71, 72, 73. relationship can be identified. For example, the processor 6 determines that the position of the virtual first microphone 51 in the image 5 corresponding to the first real microphone 61 is the position of the first object 1 corresponding to the first real object 71 . You can identify the closest to the location.
- the processor 6 may display a user interface 4 indicating a mutual location between the virtual first microphone 51 and the first object 1 in the image 5 .
- the processor 6 may indicate that the position of the first object 1 is closest to the position of the virtual first microphone 51 in the image 5 through an arrow or the like.
- the processor 6 may display the user interface 4 indicating the mutual positional relationship between the microphone and the object as an operation related to the content with respect to the object. Accordingly, it is possible to provide visual information whether integrated identification and adaptive identification of the relationship between the microphone and the object is performed.
- FIG. 9 illustrates a specific example of performing an operation related to content in response to an event for a sound source component in relation to operation S44 of FIG. 4 .
- the processor 6 identifies whether there is an event for the sound source component. For example, a user interface for selecting at least one of a plurality of sound source components may be displayed, and when a sound source component is selected according to a user input, it may be identified as an event for the sound source component.
- the event for the sound source component is not limited to the selection of the sound source component according to the user input.
- the processor 6 performs an operation based on the sound source component in response to an event on the sound source component. For example, audio may be output based on the sound source component. For convenience of explanation, assuming that the first sound source component is selected according to a user input, audio based on the first sound source component may be output through the speaker 15 .
- the operation based on the sound source component includes an operation on an object corresponding to the sound source component.
- the processor 6 produces an effect 81 of emphasizing the first object 1 so that the first object 1 corresponding to the first sound source is distinguished from other objects.
- the user interface 4 indicating the mutual positional relationship between the first object 1 corresponding to the first sound source component and the first microphone 61 may be displayed.
- the processor 6 may perform various operations with respect to the object corresponding to the sound source component in response to the event for the sound source component. Accordingly, it is possible to provide more diverse visual information on whether the integrated identification and adaptive identification of the relationship between sound source components and objects is performed.
- FIG. 10 illustrates a specific example of performing an operation related to content in response to an event on an object in relation to operation S44 of FIG. 4 .
- the processor 6 identifies whether an event is an object. For example, a user interface for selecting at least one of the plurality of objects 1, 2, 3 in the image 5 is displayed, and when an object is selected according to a user input, an event for the object can be identified. .
- the event for the object is not limited to the selection of the object according to the user input.
- the processor 6 performs an operation on the sound source component according to the identified event. For example, audio based on a sound source component corresponding to the selected object is output. For convenience of explanation, assuming that the first object 1 is selected according to a user input, a first sound source component corresponding to the first object 1 is identified, and audio based on the first sound source component is transmitted to the speaker 15 ) can be printed. Since the location of the first object 1 is on the left side of the screen, the audio output direction may be set to correspond to the left side of the screen.
- the processor 6 may identify the first sound source component corresponding to the selected first object 1 and adjust the size of the first sound source component. For example, the processor 6 may adjust the size of the first sound source component to be greater than the size of the sound source component corresponding to another object.
- the processor 6 displays an effect 81 to distinguish the first object 1 from other objects, or the first object 1 and the first microphone 61 ) may display a user interface 4 indicating a mutual positional relationship between them.
- the processor 6 may perform various operations in response to an event on the object. Accordingly, it is possible to provide more diverse visual information on whether the integrated identification and adaptive identification of the relationship between sound source components and objects is performed.
- FIG. 11 shows a specific example of updating the correspondence between the sound source component and the microphone in relation to operation S43 of FIG. 4 .
- the processor 6 identifies the correspondence between the sound source component and the microphone based on the audio signal.
- the audio signal is composed of a plurality of frames, and the processor 6 can identify the correspondence between the sound source component and the microphone for each frame.
- the identification of the correspondence for each frame includes not only the case of identifying the correspondence for each single frame, but also the case of identifying the correspondence for each predetermined number of frames. That is, it includes a case of identifying a correspondence with respect to at least one frame periodically or aperiodically.
- the processor 6 may identify the first sound source component as corresponding to the first microphone 61 based on the first frame among the plurality of frames of the audio signal. After a predetermined time has elapsed, it may be identified that the first sound source component corresponds to the second microphone 62 based on the second frame of the audio signal. In this case, as described above with reference to FIG. 3 , the correspondence between the first microphone 61 and the first sound source component identified based on the first frame is the correspondence between the second microphone 62 and the first sound source component. can be updated with Similarly, it can be identified that the first sound source component corresponds to the third microphone 63 based on the third frame, and in this case, the correspondence relationship between the third microphone 63 and the first sound source component can be updated. .
- FIG. 12 shows a specific example of updating an operation related to content according to the updated correspondence between the sound source component and the microphone of FIG. 11 .
- the processor 6 may update the correspondence between the sound source component and the microphone for each frame of the audio signal.
- the processor 6 identifies that the microphone corresponding to the first sound source component is changed according to the movement of the first object 1 . That is, it is identified that the first sound source component sequentially corresponds to the first microphone 61 , the second microphone 62 , and the third microphone 63 , and the correspondence between the first sound source component and the first microphone 61 is determined.
- the correspondence between the first sound source component and the third microphone 63 may be updated.
- the processor 6 may update the operation based on the relationship between the first sound source component and the first object 1 .
- the processor 6 detects that the first sound source component includes the first microphone 61 , the second microphone 62 and By sequentially corresponding to the third microphone 63, the user interface 4 is sequentially configured to correspond to the position of the first microphone 61, the position of the second microphone 62, and the position of the third microphone 63. can be updated.
- the processor 6 may update the operation related to the content with respect to the object in response to the updated correspondence between the sound source component and the microphone. Accordingly, it is possible to not only adaptively identify the relationship between the sound source component and the object, but also provide information on the adaptive identification to the user.
- Various embodiments disclosed in this document are implemented as software including one or more instructions stored in a storage medium readable by a machine such as the electronic device 10 .
- the processor 6 of the electronic device 10 calls at least one of the one or more instructions stored from the storage medium and executes it. This enables a device such as the electronic device 10 to be operated to perform at least one function according to the called at least one command.
- the one or more instructions include code generated by a compiler or code executable by an interpreter.
- the device-readable storage medium is provided in the form of a non-transitory storage medium.
- the 'non-transitory storage medium' is a tangible device and only means that it does not contain a signal (eg, electromagnetic wave), and this term refers to a case in which data is semi-permanently stored in a storage medium and a case in which data is temporarily stored. case is not distinguished.
- the 'non-transitory storage medium' includes a buffer in which data is temporarily stored.
- the computer program product includes instructions of software executed by a processor, as mentioned above.
- Computer program products are traded between sellers and buyers as commodities.
- the computer program product is distributed in the form of a machine-readable storage medium (eg, CD-ROM), or via an application store (eg, Play StoreTM) or between two user devices (eg, smartphones).
- Direct, online distribution eg, download or upload).
- at least a portion of the computer program product eg, a downloadable app
- a machine-readable storage medium such as a memory of a manufacturer's server, a server of an application store, or a relay server. Temporarily saved or created temporarily.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Computational Linguistics (AREA)
- Quality & Reliability (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Otolaryngology (AREA)
- General Health & Medical Sciences (AREA)
- Circuit For Audible Band Transducer (AREA)
Abstract
본 발명은 컨텐츠에 포함된 비디오신호에 기초하여 복수의 객체를 포함하는 영상을 표시하고, 복수의 마이크로 획득된 컨텐츠에 포함된 복수의 오디오신호로부터 주파수특성에 따라 복수의 음원성분을 획득하고, 컨텐츠의 재생 중에 음원성분 및 마이크의 오디오신호 간에 기초하여 복수의 마이크 중 음원성분에 대응하는 오디오신호를 획득한 마이크를 식별하고, 복수의 마이크의 배치에 기초하여, 영상 내의 복수의 객체 중에서, 마이크의 위치에 대응하는 어느 하나의 객체에 관하여 컨텐츠와 관련된 동작을 수행하는 전자장치에 관한 발명이다
Description
본 출원은 2020년 11월 13일자로 대한민국 특허청에 제출된 대한민국 특허 출원번호 제10-2020-0151797호에 기초한 우선권을 주장하며, 그 개시 내용은 전체가 참조로 본 발명에 포함된다.
본 발명은 전자장치 및 그 제어방법에 관한 것으로서, 상세하게는, 객체를 포함하는 영상을 표시하고, 음원성분에 대응하는 객체를 식별하는 전자장치 및 그 제어방법에 관한 것이다.
최근에 음원추적 기능이 각광받고 있다. 음원추적 기능은 음원에 대응하는 신호가 마이크에 수신되면, 수신된 신호에 대한 분석을 통해 음원의 위치를 추적하는 기술이다. 음원추적 기능은 음성인식 등 다양한 분야에 적용되고 있으며, 음성인식 등의 편의성을 향상시킬 수 있으므로, 음원추적 기능을 활용 분야가 점점 증가하고 있는 추세이다.
다만, 종래의 음원추적 기능은 단일 음원에 대하여 수행되거나, 복수의 음원 중 단일 대표 음원에 대하여 수행되는데 그치므로, 복수의 음원에 대한 통합적 추적이 불가능할 뿐만 아니라, 음원의 이동에 대응하여 적응적 추적이 불가능한 문제점이 있다. 이러한 문제점은 음원추적 기능에 대한 불편함으로 초래하여, 활용성을 저하시키는 원인되고 있다.
따라서, 복수의 음원에 대한 통합적 추적 및 음원의 이동에 대응한 적응적 추적이 가능하도록 하여, 음원추적 기능에 대한 효율성 및 활용성을 향상시킬 수 있는 방안이 요구되고 있다.
본 발명의 목적은, 복수의 음원에 대한 통합적 추적 및 음원의 이동에 대응한 적응적 추적이 가능하도록 하여, 음원추적 기능에 대한 효율성 및 활용성을 향상시킬 수 있는 전자장치 및 그 제어방법을 제공하는 것이다.
상기한 본 발명의 목적은, 컨텐츠에 포함된 비디오신호에 기초하여 디스플레이에 복수의 객체를 포함하는 영상이 표시되도록 제어하고, 복수의 마이크로 획득된 상기 컨텐츠에 포함된 복수의 오디오신호로부터 주파수특성에 따라 복수의 음원성분을 획득하고, 상기 컨텐츠의 재생 중에 상기 오디오신호와 상기 음원성분 간의 주파수특성의 연관성에 기초하여 상기 복수의 마이크 중 상기 음원성분에 대응하는 오디오신호를 획득한 마이크를 식별하고, 상기 복수의 마이크의 배치에 기초하여, 상기 표시되는 영상 내의 복수의 객체 중에서, 상기 식별된 마이크의 위치에 대응하는 어느 하나의 객체에 관하여 상기 컨텐츠와 관련된 동작을 수행하는 프로세서를 포함하는 전자장치에 의해 달성될 수 있다.
상기 프로세서는, 상기 복수의 음원성분 중에서, 상기 오디오신호의 주파수성분과 동일한 주파수대역에서 주파수성분의 크기가 큰 어느 하나의 음원성분을 상기 오디오신호에 대응하는 음원성분으로 식별한다.
상기 프로세서는, 상기 식별된 마이크에 대응하는 상기 영상 내 위치를 식별하고, 상기 영상에 표시된 복수의 객체 중에서, 상기 식별된 위치에 가까운 어느 하나의 객체를 상기 마이크의 위치에 대응하는 객체로 식별한다.
상기 프로세서는, 상기 마이크의 위치에 대응하는 객체를 다른 객체와 구분 가능하도록 표시한다.
상기 프로세서는, 상기 음원성분에 대응하는 객체를 다른 객체와 구분 가능하도록 표시한다.
상기 프로세서는, 상기 식별된 마이크와, 상기 마이크의 위치에 대응하는 객체 간의 상호 위치 관계를 나타내는 사용자인터페이스를 표시한다.
상기 프로세서는, 상기 복수의 음원성분 중 사용자입력에 따라 선택된 음원성분에 대응하는 객체를 다른 객체와 구분 가능하도록 표시한다.
상기 프로세서는, 상기 복수 객체 중 사용자입력에 따라 선택된 객체에 대응하는 상기 음원성분의 크기를 조정한다.
상기 프로세서는, 상기 오디오신호의 프레임에 기초하여 상기 마이크 및 상기 음원성분 간의 대응관계를 업데이트 한다.
상기한 본 발명의 목적은, 컨텐츠에 포함된 비디오신호에 기초하여 복수의 객체를 포함하는 영상을 표시하는 단계; 복수의 마이크로 획득된 상기 컨텐츠에 포함된 복수의 오디오신호로부터 주파수특성에 따라 복수의 음원성분을 획득하는 단계; 상기 컨텐츠의 재생 중에 상기 오디오신호와 상기 음원성분 간의 주파수특성의 연관성에 기초하여 상기 복수의 마이크 중 상기 음원성분에 대응하는 오디오신호를 획득한 마이크를 식별하는 단계; 및 상기 복수의 마이크의 배치에 기초하여, 상기 표시되는 영상 내의 복수의 객체 중에서, 상기 식별된 마이크의 위치에 대응하는 어느 하나의 객체에 관하여 상기 컨텐츠와 관련된 동작을 수행하는 단계를 포함하는 전자장치의 제어방법에 의해서도 달성될 수 있다.
상기 음원성분에 대응하는 오디오신호를 획득한 마이크를 식별하는 단계는, 상기 복수의 음원성분 중에서, 상기 오디오신호의 주파수성분과 동일한 주파수대역에서 주파수성분의 크기가 큰 어느 하나의 음원성분을 상기 오디오신호에 대응하는 음원성분으로 식별하는 단계를 더 포함한다.
상기 컨텐츠와 관련된 동작을 수행하는 단계는, 상기 식별된 마이크에 대응하는 상기 영상 내 위치를 식별하는 단계; 및 상기 영상에 표시된 복수의 객체 중에서, 상기 식별된 위치에 가까운 어느 하나의 객체를 상기 마이크의 위치에 대응하는 객체로 식별하는 단계를 더 포함한다.
상기 컨텐츠와 관련된 동작을 수행하는 단계는, 상기 마이크의 위치에 대응하는 객체를 다른 객체와 구분 가능하도록 표시하는 단계를 더 포함한다.
상기 컨텐츠와 관련된 동작을 수행하는 단계는, 상기 음원성분에 대응하는 객체를 다른 객체와 구분 가능하도록 표시하는 단계를 더 포함한다.
상기 컨텐츠와 관련된 동작을 수행하는 단계는, 상기 식별된 마이크와, 상기 마이크의 위치에 대응하는 객체 간의 상호 위치 관계를 나타내는 사용자인터페이스를 표시하는 단계를 더 포함한다.
상기 다른 객체와 구분 가능하도록 표시하는 단계는, 상기 복수의 음원성분 중 사용자입력에 따라 선택된 음원성분에 대응하는 객체를 다른 객체와 구분 가능하도록 표시하는 단계를 더 포함한다.
상기 컨텐츠와 관련된 동작을 수행하는 단계는, 상기 복수 객체 중 사용자입력에 따라 선택된 객체에 대응하는 상기 음원성분의 크기를 조정하는 동작을 수행하는 단계를 더 포함한다.
상기 컨텐츠와 관련된 동작을 수행하는 단계는, 상기 오디오신호의 프레임에 기초하여 상기 마이크 및 상기 음원성분 간의 대응관계를 업데이트 하는 단계를 더 포함한다.
상기한 본 발명의 목적은, 컴퓨터가 읽을 수 있는 코드로서, 전자장치의 제어방법을 수행하는 코드를 포함하는 컴퓨터 프로그램이 저장된 기록매체에 있어서, 컨텐츠에 포함된 비디오신호에 기초하여 복수의 객체를 포함하는 영상을 표시하는 단계; 복수의 마이크로 획득된 상기 컨텐츠에 포함된 복수의 오디오신호로부터 주파수특성에 따라 복수의 음원성분을 획득하는 단계; 상기 컨텐츠의 재생 중에 상기 오디오신호와 상기 음원성분 간의 주파수특성의 연관성에 기초하여 상기 복수의 마이크 중 상기 음원성분에 대응하는 오디오신호를 획득한 마이크를 식별하는 단계; 및 상기 복수의 마이크의 배치에 기초하여, 상기 표시되는 영상 내의 복수의 객체 중에서, 상기 식별된 마이크의 위치에 대응하는 어느 하나의 객체에 관하여 상기 컨텐츠와 관련된 동작을 수행하는 단계를 포함하는 것을 특징으로 하는 컴퓨터가 읽을 수 있는 프로그램이 기록된 기록매체에 의해서도 달성될 수 있다.
본 발명에 의하면, 복수의 음원에 대한 통합적 추적 및 음원의 이동에 대응한 적응적 추적이 가능하도록 하여, 음원추적 기능에 대한 효율성 및 활용성을 향상시킬 수 있는 전자장치 및 그 제어방법을 제공한다.
도 1은 본 발명의 일 실시예에 따른 전자장치를 도시한다.
도 2는 도 1의 전자장치에 관한 구성의 일 예를 도시한다.
도 3은 도 1의 전자장치에 관한 구성의 구체적인 예를 도시한다.
도 4는 도 1의 전자장치에 대한 제어방법의 일 예를 도시한다.
도 5는 도 4의 동작 S43과 관련하여, 음원성분 및 마이크의 오디오신호 간에 기초하여 음원성분 및 마이크 간의 대응관계를 식별하는 구체적인 예를 도시한다.
도 6은 도 4의 동작 S44와 관련하여, 음원성분에 대응하는 마이크의 위치에 기초하여 음원성분 및 객체 간의 관계를 식별하는 구체적인 예를 도시한다.
도 7은 도 4의 동작 S44와 관련하여, 마이크의 위치에 대응하는 객체에 관하여 컨텐츠와 관련된 동작의 일 예로서, 음원성분에 대응하는 객체를 구분하여 표시하는 구체적인 예를 도시한다.
도 8은 도 4의 동작 S44와 관련하여, 마이크의 위치에 대응하는 객체에 관하여 컨텐츠와 관련된 동작의 다른 예로서, 마이크 및 객체 간의 상호 위치 관계를 나타내는 구체적인 예를 도시한다.
도 9는 도 4의 동작 S44와 관련하여, 음원성분에 대한 이벤트에 대응하여 컨텐츠와 관련된 동작을 수행하는 구체적인 예를 도시한다.
도 10은 도 4의 동작 S44와 관련하여, 객체에 대한 이벤트에 대응하여 컨텐츠와 관련된 동작을 수행하는 구체적인 예를 도시한다.
도 11은 도 4의 동작 S43과 관련하여, 음원성분 및 마이크 간의 대응관계를 업데이트 하는 구체적인 예를 도시한다.
도 12는 도 11의 음원성분 및 마이크 간의 업데이트된 대응관계에 따라 컨텐츠와 관련된 동작을 업데이트 하는 구체적인 예를 도시한다.
도 1은 본 발명의 일 실시예에 따른 전자장치를 도시한다.
도 1에 도시된 바와 같이, 전자장치(10)는 TV, 스마트폰, 태블릿, 휴대용 미디어 플레이어, 웨어러블 디바이스, 비디오 월, 전자액자 등과 같은 영상표시장치뿐만 아니라, 디스플레이(13)를 구비하지 않는 셋탑박스 등의 영상처리장치, 냉장고, 세탁기 등의 생활가전, 컴퓨터 본체와 같은 정보처리장치 등 다양한 종류의 장치로 구현된다. 또한, 전자장치(10)는 인공지능 (Artificial Intelligence, AI) 기능을 탑재한 AI 스피커, AI 로봇 등으로 구현된다. 전자장치(10)의 종류는 이에 한정되는 것은 아니며, 이하에서는 설명의 편의를 위해 전자장치(10)가 TV로 구현되는 경우를 가정한다.
전자장치(10)는 비디오신호에 기초하여 영상(5)을 표시한다. 영상(5)은 디스플레이(13)를 통해 출력된다. 비디오신호는 다양한 컨텐츠의 비디오신호를 포함한다. 컨텐츠는 뉴스, 드라마, 영화 등과 같이 다양한 종류의 멀티미디어 컨텐츠를 포함하나, 이에 한정되지 않는다. 영상(5) 내에는 복수의 객체(1, 2, 3)가 포함된다. 객체는 사람, 동물, 사물 등을 포함하나, 이에 한정되지 않는다.
전자장치(10)는 오디오신호에 기초한 오디오를 출력한다. 오디오는 스피커(15)를 통해 출력된다. 스피커(15)는 디스플레이장치(10)에 마련된 내장 스피커 또는 외부에 마련된 외부 스피커를 포함한다. 다만, 설명의 편의를 위해 스피커(15)는 내장 스피커인 것으로 가정한다. 오디오신호는 컨텐츠의 비디오신호에 대응하는 컨텐츠의 오디오신호를 포함한다. 따라서, 오디오신호에 기초한 오디오는 비디오신호에 기초한 영상(5)에 대응하여 출력된다. 오디오신호는 다양한 종류의 컨텐츠의 오디오신호를 포함한다.
오디오신호에는 복수의 음원성분이 포함될 수 있다. 복수의 음원성분은 영상(5) 내 복수의 객체(1, 2, 3)에 대응되는 것일 수 있다. 전자장치(10)는 오디오신호로부터 복수의 음원성분을 추출하고, 추출된 복수의 음원성분 및 복수의 객체(1, 2, 3) 간의 관계를 식별한다. 일 예로, 오디오신호로부터 추출된 제1음원성분, 제2음원성분 및 제3음원성분이 영상(5) 내 제1객체(1), 제2객체(2) 및 제3객체(3)에 각각 대응됨을 식별할 수 있다.
전자장치(10)는 음원성분 및 객체 간의 관계를 파악하기 위해서, 음원성분 및 오디오신호를 수신한 복수의 마이크(도 6의 60) 간의 관계를 식별한다. 설명의 편의를 위해 도 6을 함께 참조하면, 전자장치(10)는 복수의 마이크(60)로 획득된 오디오신호로부터 제1음원성분 내지는 제3음원성분를 추출하고, 추출된 제1음원성분 내지는 제3음원성분이 복수의 마이크(60)의 제1마이크(도 6의 61) 내지 제3마이크(도 6의 63)에 각각 대응됨을 식별할 수 있다.
좀더 구체적으로, 음원성분 및 마이크 간의 대응관계는, 음원성분 및 마이크로 획득된 오디오신호 간의 연관성 여부에 기초하여 식별될 수 있다. 일 예로, 제1음원성분 및 제1마이크(61)로 획득된 오디오신호 간의 연관성이 높은 경우, 제1음원성분이 제1마이크(61)에 대응하는 것으로 식별될 수 있다. 연관성 여부 식별에 대해서는 도 5를 참조하여 좀더 자세히 설명하기로 한다. 이와 같은 방법으로, 복수의 음원성분 및 복수의 마이크 간의 대응관계가 식별될 수 있다.
전자장치(10)는 마이크의 위치에 대응하는 객체를 식별함으로써, 음원성분 및 객체 간의 관계를 식별한다. 설명의 편의를 위해 제1음원성분이 제1마이크(61)에 대응하고, 제1객체(1)가 제1마이크(61)의 위치에 대응하는 것으로 가정하면, 제1음원성분이 제1객체(1)에 대응하는 것으로 식별될 수 있다. 마이크의 위치에 대응하는 객체를 식별함으로써, 음원성분 및 객체 간의 관계를 식별하는 과정에 대해서는, 도 3 및 6을 참조하여 좀더 자세히 설명하기로 한다.
전자장치(10)는 마이크의 위치에 대응하는 것으로 식별된 객체에 관하여 컨텐츠와 관련된 동작을 수행한다. 일 예로, 전자장치(10)는 제1음원성분 및 제1객체(1) 간의 대응관계가 식별된 경우, 제1음원성분 및 제1객체(1) 간의 대응관계를 나타내는 사용자인터페이스(4)를 표시할 수 있다. 다만, 객체에 관하여 컨텐츠와 관련된 동작은 상기한 바에 한정되는 것은 아니므로, 다양하게 구현될 수 있다. 이에 대해서는, 도 7 및 8을 참조하여 좀더 자세히 설명하기로 한다.
이와 같이, 전자장치(10)는 복수의 객체(1, 2, 3)를 포함된 영상(5)을 표시하고, 복수의 마이크(60)로 획득된 오디오신호에 기초하여 음원성분 별로 대응하는 객체를 식별하고, 식별된 객체에 관하여 컨텐츠와 관련된 다양한 동작을 수행할 수 있다.
특히, 오디오신호를 획득한 복수의 마이크(60)의 위치에 기초하여 음원성분 별로 대응하는 객체를 식별할 수 있으므로, 음원성분에 대한 통합적 음원추적이 가능할 뿐만 아니라, 음원성분 및 객체 간의 관계에 대해 통합적 식별이 가능하다. 따라서, 단일 음원에 대한 개별적 음원추적에 비하여, 음원추적 기능에 대한 효율성 및 활용성을 향상시킬 수 있다.
도 2는 도 1의 전자장치에 관한 구성의 일 예를 도시한다.
이하에서는 도 2를 참조하여, 전자장치(10)의 구성에 관해 자세히 설명한다. 본 실시예서는 전자장치(10)가 TV인 경우에 관해 설명하지만, 전자장치(10)는 다양한 종류의 장치로 구현될 수 있으므로, 본 실시예가 전자장치(10)의 구성을 한정하는 것은 아니다. 전자장치(10)가 TV와 같은 디스플레이장치로 구현되지 않는 경우도 가능하며, 이 경우 전자장치(10)는 디스플레이(13)와 같은 영상 표시를 위한 구성요소들을 포함하지 않을 수 있다. 예를 들면 전자장치(10)가 셋탑박스로 구현되는 경우에, 전자장치(10)는 인터페이스부(11)를 통해 외부의 TV에 영상 신호를 출력한다.
전자장치(10)는 인터페이스부(11)를 포함한다. 인터페이스부(11)는 외부장치 등과 연결하여 데이터를 송수신한다. 다만 이에 한정되는 것은 아니므로, 인터페이스부(11)는 네트워크로 연결된 다양한 장치와 연결한다.
인터페이스부(11)는 유선 인터페이스부를 포함한다. 유선 인터페이스부는 지상파/위성방송 등 방송규격에 따른 방송신호를 수신할 수 있는 안테나가 연결되거나, 케이블 방송 규격에 따른 방송신호를 수신할 수 있는 케이블이 연결될 수 있는 커넥터 또는 포트를 포함한다. 다른 예로서, 전자장치(10)는 방송신호를 수신할 수 있는 안테나를 내장할 수도 있다. 유선 인터페이스부는 HDMI 포트, DisplayPort, DVI 포트, 썬더볼트, 컴포지트(Composite) 비디오, 컴포넌트(Component) 비디오, 슈퍼 비디오(Super Video), SCART 등과 같이, 비디오 및/또는 오디오 전송규격에 따른 커넥터 또는 포트 등을 포함한다. 유선 인터페이스부는 USB 포트 등과 같은 범용 데이터 전송규격에 따른 커넥터 또는 포트 등을 포함한다. 유선 인터페이스부는 광 전송규격에 따라 광케이블이 연결될 수 있는 커넥터 또는 포트 등을 포함한다.
유선 인터페이스부는 내부 오디오 수신부를 포함한다. 유선 인터페이스부는 유선 인터페이스부는 오디오 수신부를 구비한 외부 오디오기기가 연결되며, 오디오기기로부터 오디오신호를 수신 또는 입력할 수 있는 커넥터 또는 포트 등을 포함한다. 유선 인터페이스부는 헤드셋, 이어폰, 외부 스피커 등과 같은 오디오기기가 연결되며, 오디오기기로 오디오신호를 전송 또는 출력할 수 있는 커넥터 또는 포트 등을 포함한다. 유선 인터페이스부는 이더넷 등과 같은 네트워크 전송규격에 따른 커넥터 또는 포트를 포함한다. 일 예로, 유선 인터페이스부는 라우터 또는 게이트웨이에 유선 접속된 랜카드 등으로 구현된다.
유선 인터페이스부는 상기 커넥터 또는 포트를 통해 셋탑박스, 광학미디어 재생장치와 같은 외부기기, 또는 외부 디스플레이장치나, 스피커, 서버 등과 1:1 또는 1:N(N은 자연수) 방식으로 유선 접속됨으로써, 해당 외부기기로부터 비디오/오디오신호를 수신하거나 또는 해당 외부기기에 비디오/오디오신호를 송신한다. 유선 인터페이스부는, 비디오/오디오신호를 각각 별개로 전송하는 커넥터 또는 포트를 포함할 수도 있다.
유선 인터페이스부는 전자장치(10)에 내장되거나, 동글(Dongle) 또는 모듈(Module) 형태로 구현되어 전자장치(10)의 커넥터에 착탈될 수도 있다.
인터페이스부(11)는 무선 인터페이스부를 포함한다. 무선 인터페이스부는 전자장치(10)의 구현 형태에 대응하여 다양한 방식으로 구현된다. 예컨대, 무선 인터페이스부는 통신방식으로 RF(Radio Frequency), 지그비(Zigbee), 블루투스(Bluetooth), 와이파이(Wi-Fi), UWB(Ultra-Wideband) 및 NFC(Near Field Communication) 등 무선통신을 사용한다. 무선 인터페이스부는 와이파이 방식에 따라서 AP와 무선통신을 수행하는 무선통신모듈이나, 블루투스 등과 같은 1대 1 다이렉트 무선통신을 수행하는 무선통신모듈 등으로 구현된다.
무선 인터페이스부는 네트워크 상의 외부장치와 무선 통신함으로써, 데이터 패킷을 송수신한다. 무선 인터페이스부는 적외선 통신규격에 따라 IR(Infrared) 신호를 송신 및/또는 수신할 수 있는 IR송신부 및/또는 IR수신부를 포함한다.
무선 인터페이스부는 IR송신부 및/또는 IR수신부를 통해 리모트 컨트롤러 또는 다른 외부기기로부터 리모트 컨트롤러신호를 수신 또는 입력하거나, 리모트 컨트롤러 또는 다른 외부기기로 리모트 컨트롤러신호를 전송 또는 출력한다. 다른 예로서, 전자장치(10)는 와이파이, 블루투스 등 다른 방식의 무선 인터페이스부를 통해 리모트 컨트롤러 또는 다른 외부기기와 리모트 컨트롤러신호를 송수신한다.
리모트 컨트롤러는 스마트폰 등을 포함하며, 스마트폰 등에는 리모트 컨트롤러 어플리케이션이 설치된다. 스마트폰 등은 설치된 어플리케이션을 통해 리모트 컨트롤러의 기능, 예컨대, 전자장치(10)를 제어하는 기능을 수행한다. 이러한 리모트 컨트롤러 어플리케이션은 AI 스피커, AI 로봇 등 다양한 외부 장치에 설치된다.
전자장치(10)는 인터페이스부(11)를 통해 수신하는 비디오/오디오신호가 방송신호인 경우, 수신된 방송신호를 채널 별로 튜닝하는 튜너(Tuner)를 더 포함한다.
전자장치(10)는 통신부(12)를 포함한다. 통신부(12)는 외부장치 등과 연결되어 비디오/오디오 신호를 전송한다. 통신부(12)는 설계 방법에 따라 유선 인터페이스부 또는 무선 인터페이스 중 적어도 하나의 구성을 포함하며, 유선 인터페이스부 또는 무선 인터페이스 중 적어도 하나의 기능을 수행한다.
전자장치(10)는 디스플레이(13)를 포함한다. 디스플레이(13)는 화면 상에 영상을 표시할 수 있는 디스플레이 패널을 포함한다. 디스플레이 패널은 다양한 화면 크기를 가질 수 있다. 예컨대, 세로형, 가로형 등 서로 다른 화면 크기를 갖는 다양한 형태로 마련될 수 있다. 디스플레이 패널은 액정 방식과 같은 수광 구조 또는 OLED 방식과 같은 자발광 구조로 마련된다. 디스플레이(13)는 디스플레이 패널의 구조에 따라서 부가적인 구성을 추가로 포함할 수 있는데, 예컨대, 디스플레이 패널이 액정 방식이라면, 디스플레이(13)는 액정 디스플레이 패널과, 광을 공급하는 백라이트유닛과, 액정 디스플레이 패널의 액정을 구동시키는 패널구동기판을 포함한다. 다만, 앞서 설명한 바와 같이, 디스플레이(13)는 전자장치(10)가 셋탑박스 등으로 구현되는 경우 생략된다.
전자장치(10)는 사용자입력부(14)를 포함한다. 사용자입력부(14)는 사용자입력을 수신하기 위해 사용자가 조작할 수 있도록 마련된 다양한 종류의 입력 인터페이스 관련 회로를 포함한다. 사용자입력부(14)는 전자장치(10)의 종류에 따라서 여러 가지 형태의 구성이 가능하며, 예컨대, 전자장치(10)의 기계적 또는 전자적 버튼부, 터치패드, 디스플레이(13)에 설치된 터치스크린 등이 있다.
전자장치(10)는 스피커(15)를 포함한다. 스피커(15)는 오디오신호에 기초하여 오디오를 출력하는 스피커로 구현될 수 있다. 스피커는 내부 스피커 또는 외부기기에 마련된 외부 스피커를 포함한다. 외부 스피커를 통해 오디오가 출력되는 경우, 오디오신호가 인터페이스부(11)를 통해 외부기기로 전송될 수 있다.
통신부(12), 디스플레이(13), 사용자입력부(14), 스피커(15) 등은 인터페이스부(11)와 별도의 구성으로 기재되었으나, 설계 방법에 따라 인터페이스부(11)에 포함되도록 구성될 수 있다.
전자장치(10)는 저장부(16)를 포함한다. 저장부(16)는 디지털화된 데이터를 저장한다. 저장부(16)는 전원의 제공 유무와 무관하게 데이터를 보존할 수 있는 비휘발성 속성의 스토리지(Storage)를 포함한다. 스토리지는 플래시메모리(Flash-Memory), HDD(Hard-Disc Drive), SSD(Solid-State Drive), ROM(Read Only Memory) 등을 포함한다.
저장부(16)는 프로세서(6)에 의해 처리되기 위한 데이터 등이 로드 되며, 전원이 제공되지 않으면 데이터를 보존할 수 없는 휘발성 속성의 메모리(Memory)를 포함한다. 메모리는 버퍼(Buffer), 램(Random Access Memory) 등을 포함한다.
전자장치(10)는 프로세서(6)를 포함한다. 프로세서(6)는 인쇄회로기판 상에 장착되는 CPU, 칩셋, 버퍼, 회로 등으로 구현되는 하나 이상의 하드웨어 프로세서를 포함하며, 설계 방식에 따라서는 SOC(System on Chip)로 구현될 수도 있다. 프로세서(6)는 전자장치(10)가 디스플레이장치로 구현되는 경우에 디멀티플렉서, 디코더, 스케일러, 오디오 DSP(Digital Signal Processor), 앰프 등의 다양한 프로세스에 대응하는 모듈들을 포함한다. 여기서, 이러한 모듈들 중 일부 또는 전체가 SOC로 구현된다. 예컨대, 디멀티플렉서, 디코더, 스케일러 등 영상처리와 관련된 모듈이 영상처리 SOC로 구현되고, 오디오 DSP는 SOC와 별도의 칩셋으로 구현되는 것이 가능하다.
전자장치(10)의 구성은 도 2에 도시된 바에 한정되는 것은 아니므로, 설계 방법에 따라 상기한 구성 중 일부를 제외하거나, 상기한 구성 이외의 구성을 포함한다.
일 예로, 전자장치(10)는 카메라를 포함할 수 있다. 카메라는 전자장치(10)의 전방을 촬영한다. 카메라에 의해 촬영된 영상에 사용자의 유무, 움직임 등이 식별될 수 있다. 카메라는 CMOS(Complementary Metal Oxide Semiconductor) 또는 CCD(Charge Coupled Device) 방식의 카메라로 구현된다. 카메라는 내부 카메라에 한정되는 것은 아니므로, 외부기기에 마련된 카메라를 포함한다. 이 경우, 인터페이스부(11)를 통해 외부기기로부터 카메라에 의해 획득된 이미지신호가 수신 또는 입력될 수 있다.
전자장치(10)는 오디오수신부를 구비할 수 있다. 오디오수신부는 전자장치(10)의 본체 마련될 수 있지만, 이에 한정되는 것은 아니므로, 외부에 마련될 수도 있다. 오디오수신부를 통해 수신된 음성 명령에 대하여 음성인식 기능이 수행될 수 있다. 음성인식 기능은 음성 명령에 대하여 음성인식 처리를 수행하여, 인식 결과를 획득하고, 획득된 인식 결과에 대응하는 동작을 포함한다. 음성인식 처리는 음성 명령을 텍스트 데이터로 변환하는 STT(Speech-to-Text) 처리 과정과, 텍스트 데이터가 나타내는 커맨드를 식별하여, 식별된 커맨드가 지시하는 동작을 수행하는 커맨드 식별 및 수행 과정을 포함한다. 음성인식 처리는 전자장치(10)에서 모두 실행될 수 있으나, 시스템 부하 및 소요 저장용량을 고려하여, 적어도 일부의 과정은 네트워크를 통해 전자장치(10)와 통신 가능하게 접속되는 적어도 하나의 서버에 의해 수행된다. 일 예로, 적어도 하나의 서버가 STT 처리 과정을 수행하고, 전자장치(10)가 커맨드 식별 및 수행 과정을 수행한다. 또는, 적어도 하나의 서버가 STT 처리 과정과, 커맨드 식별 및 수행 과정을 모두 수행하고, 전자장치(10)는 단지 적어도 하나의 서버로부터 결과를 수신하기만 할 수도 있다.
한편, 음성 명령의 수신은 오디오수신부에 의해 수행될 수도 있지만, 본체와 분리된 리모트 컨트롤러를 통해 음성 명령을 수신할 수도 있다. 리모트 컨트롤러는 앞서 설명한 바와 같이, 스마트폰을 포함한다. 리모트 컨트롤러를 활용하는 경우, 리모트 컨트롤러로부터 음성 명령에 대응하는 음성 신호를 전달받고, 전달받은 음성 신호에 대한 음성인식 처리를 수행한다.
전자장치(10)의 프로세서(6)는 상기한 동작들을 위한 데이터 분석, 처리, 및 결과 정보 생성 중 적어도 일부에 대하여, 규칙 기반 또는 AI 알고리즘을 이용한 AI 기술을 적용함으로써, AI 시스템을 구축한다.
AI 시스템은 인간 수준의 지능을 구현하는 컴퓨터 시스템으로서 기계가 스스로 학습하고 판단하며, 사용할수록 인식률이 향상되는 시스템이며, AI 알고리즘은 입력 데이터들의 특징을 스스로 분류/학습하는 알고리즘이다.
AI 기술은 기계학습, 신경망 네트워크(Neural Network), 또는 딥러닝 알고리즘 중 적어도 하나를 이용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 요소 기술들로 구성된다.
요소기술들은 인간의 언어/문자를 인식하는 언어적 이해 기술, 사물을 인간의 시각처럼 인식하는 시각적 이해 기술, 정보를 판단하여 논리적으로 추론하고 예측하는 추론/예측 기술, 인간의 경험 정보를 지식데이터로 처리하는 지식 표현 기술 및 차량의 자율 주행, 로봇의 움직임을 제어하는 동작 제어 기술 중 적어도 하나를 포함할 수 있다.
언어적 이해는 인간의 언어/문자를 인식하고 응용/처리하는 기술로서, 자연어 처리, 기계 번역, 대화시스템, 질의 응답, 음성인식/합성 등을 포함한다. 시각적 이해는 사물을 인간의 시각처럼 인식하여 처리하는 기술로서, 객체 인식, 객체 추적, 영상 검색, 사람 인식, 장면 이해, 공간 이해, 영상 개선 등을 포함한다. 추론 예측은 정보를 판단하여 논리적으로 추론하고 예측하는 기술로서, 지식/확률 기반 추론, 최적화 예측, 선호 기반 계획, 추천 등을 포함한다. 지식 표현은 인간의 경험정보를 지식데이터로 자동화 처리하는 기술로서, 지식 구축(데이터 생성/분류), 지식 관리(데이터 활용) 등을 포함한다.
이하에서는 상기한 AI 알고리즘을 이용한 AI 기술이 전자장치(10)의 프로세서(6)에 의해 구현되는 일 예를 설명한다.
프로세서(6)는 학습부 및 인식부의 기능을 함께 수행한다. 학습부는 학습된 신경망 네트워크를 생성하는 기능을 수행하고, 인식부는 학습된 신경망 네트워크를 이용하여 데이터를 인식, 추론, 예측, 추정, 판단하는 기능을 수행한다.
학습부는 신경망 네트워크를 생성하거나 갱신한다. 학습부는 신경망 네트워크를 생성하기 위해서 학습 데이터를 획득한다. 일 예로, 학습부는 학습 데이터를 저장부(16)로부터 획득하거나, 외부로부터 획득한다. 학습 데이터는, 신경망 네트워크의 학습을 위해 이용되는 데이터일 수 있으며, 상기한 동작을 수행한 데이터를 학습데이터로 이용하여 신경망 네트워크를 학습시킬 수 있다.
학습부는 학습 데이터를 이용하여 신경망 네트워크를 학습시키기 전에, 획득된 학습 데이터에 대하여 전처리 작업을 수행하거나, 또는 복수 개의 학습 데이터들 중에서 학습에 이용될 데이터를 선별한다. 일 예로, 학습부는 학습 데이터를 기 설정된 포맷으로 가공하거나, 필터링하거나, 또는 노이즈를 추가/제거하여 학습에 적절한 데이터의 형태로 가공한다. 학습부는 전처리된 학습 데이터를 이용하여 상기한 동작을 수행하도록 설정된 신경망 네트워크를 생성한다.
학습된 신경망 네트워크는, 복수의 신경망 네트워크 또는 레이어들로 구성된다. 복수의 신경망 네트워크의 노드들은 가중치를 가지며, 복수의 신경망 네트워크들은 일 신경망 네트워크의 출력 값이 다른 신경망 네트워크의 입력 값으로 이용되도록 서로 연결된다. 신경망 네트워크의 예로는, CNN (Convolutional Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN (Bidirectional Recurrent Deep Neural Network) 및 심층 Q-네트워크 (Deep Q-Networks)과 같은 모델을 포함한다.
한편, 인식부는 상기한 동작을 수행하기 위해, 타겟 데이터를 획득한다. 타겟 데이터는 저장부(16)로부터 획득하거나, 외부로부터 획득한다. 타겟 데이터는 신경망 네트워크의 인식 대상이 되는 데이터일 수 있다. 인식부는 타겟 데이터를 학습된 신경망 네트워크에 적용하기 전에, 획득된 타겟 데이터에 대하여 전처리 작업을 수행하거나, 또는 복수 개의 타겟 데이터들 중에서 인식에 이용될 데이터를 선별한다. 일 예로, 인식부는 타겟 데이터를 기 설정된 포맷으로 가공하거나, 필터링 하거나, 또는 노이즈를 추가/제거하여 인식에 적절한 데이터의 형태로 가공한다. 인식부는 전처리된 타겟 데이터를 신경망 네트워크에 적용함으로써, 신경망 네트워크로부터 출력되는 츨력값을 획득한다. 인식부는 출력값과 함께, 확률값 또는 신뢰도값을 획득한다.
도 3은 도 1의 전자장치에 관한 구성의 구체적인 예를 도시한다.
이하에서는 도 3을 참조하여, 전자장치(10)의 구성의 구체적인 예에 관해 자세히 설명한다. 이하에서 설명되는 각 구성의 동작은 프로세서(6)가 저장부(16)에 저장된 프로그램을 실행하는 과정을 역할 별로 구분한 동작일 수 있다.
전자장치(10)는 주파수 분석부(31)를 포함한다. 주파수 분석부(31)는 컨텐츠의 오디오신호에 대한 주파수분석을 수행한다. 오디오신호는 컨텐츠의 비디오신호에 대응하는 오디오신호로서, 제1마이크(61) 내지 제3마이크(63)를 포함하는 복수의 마이크(60)를 통해 획득된 것일 수 있다. 주파수분석은 오디오신호에 대한 주파수특성에 대한 분석을 포함한다. 주파수특성은 오디오신호의 주파수성분에 대한 패턴, 파형, 주기, 세기 등을 포함한다. 주파수 분석부(31)는 0에 제공한다.
주파수 분석부(31)는 복수의 마이크(60) 별로 획득된 오디오신호에 대해 주파수분석을 수행한다. 일 예로, 주파수 분석부(31)는 제1마이크(61)로 수신된 오디오신호, 제2마이크(62)로 수신된 오디오신호 및 제3마이크(63)로 수신된 오디오신호에 대하여 주파수분석을 수행한다. 주파수분석은 복수의 마이크(60) 별로 획득된 오디오신호의 주파수성분에 대한 패턴, 파형, 주기, 세기 등에 대한 분석을 포함한다. 주파수분석 결과는 복수의 마이크(60) 별 오디오신호에 대한 게인, 세기 등이 적절하게 조정된 것일 수 있으며, 필요에 따라 샘플링 처리된 것일 수 있다. 복수의 마이크(60) 별 오디오신호에 대한 주파수분석 결과를 연관성 분석부(33)에 제공한다.
전자장치(10)는 음원성분 분석부(32)를 포함한다. 음원성분 분석부(32)는 주파수 분석부(31)로부터 오디오신호에 대한 주파수분석 결과를 수신한다. 음원성분 분석부(32)는 오디오신호에 대한 주파수분석 결과에 기초하여 오디오신호로부터 복수의 음원성분을 분리한다. 음원성분 분석부(32)는 복수의 음원성분 별로 주파수특성이 서로 다를 수 있는 점을 고려하여, 예컨대, 특정 주파수성분에 대응되는지 여부에 따라 복수의 음원성분을 분리할 수 있다. 음원성분의 분리를 위해 인디펜던트 콤포넌트 아날리시스(Independent Component Analysis: ICA), 지오메트릭 소스 세퍼레이션(Geometric Source Separation: GSS) 등과 같은 브라인드 소스 세퍼레이션(Blind Source Separation: BBS) 알고리즘이 사용될 수 있으나, 이에 한정되는 것은 아니다. 음원성분 분석부(32)는 분리된 복수의 음원성분에 관한 정보를 연관성 분석부(33)에 제공한다.
전자장치(10)는 연관성 분석부(33)를 포함한다. 연관성 분석부(33)는 주파수 분석부(31)로부터 복수의 마이크(60) 별 오디오신호에 대한 주파수분석 결과를 수신하고, 음원성분 분석부(32)로부터 복수의 음원성분에 관한 정보를 수신한다. 연관성 분석부(33)는 복수의 마이크(60) 별 오디오신호에 대한 주파수분석 결과 및 복수의 음원성분에 관한 정보를 활용하여, 음원성분 및 마이크의 오디오신호 간의 연관성을 분석한다. 연관성 분석은, 예컨대, 제1마이크(61)의 오디오신호에 대하여 제1음원성분이 가장 주요하거나(dominant), 주요한 영향을 미친다면, 제1음원성분이 제1마이크(61)의 오디오신호에 대하여 주파수특성에 있어서 관련성, 유사성 등이 가장 높을 것이라는 원리에 기초한다. 이러한 연관성 분석은 하기의 수학식[1]에 기초하여 수행될 수 있다.
수학식[1]
수학식[1]은 (t)번째 마이크의 오디오신호와 (n)번째 음원성분 간의 연관계수(R)를 의미하고, (*)는 오디오신호가 복소수인 경우, 공액 복소수를 의미한다. 연관계수(R)의 계산은 주파수대역 별로 수행될 수 있다.
연관성 분석부(33)는 수학식[1]을 활용하여 연관계수(R)를 계산하고, 각 마이크의 오디오신호에 대하여 연관계수(R)가 가장 높은 음원성분을 식별한다. 설명의 편의를 위해 제1마이크(61)의 오디오신호에 대하여 연관계수(R)가 가장 높은 음원성분은 제1음원성분인 것으로 가정한다. 제1마이크(61)의 오디오신호 및 제1음원성분 간의 연관계수(R)가 가장 높다는 것은, 제1마이크(61)의 오디오신호에서 제1음원성분이 가장 주요한 음원성분이므로, 제1음원성분 및 제1마이크(61)의 오디오신호 간의 연관성이 가장 높음을 의미한다. 연관성 분석부(33)는 수학식[1]을 통해 계산된 제1음원성분 및 제1마이크(61)의 오디오신호 간의 연관계수(R)에 기초하여 제1음원성분 및 제1마이크(61)의 오디오신호 간의 관계를 식별할 수 있다.
연관성 분석부(33)는 연관계수(R)를 계산함에 있어서, 하기의 수학식[2]를 활용하여 수학식[1]에 대한 표준화를 수행할 수 있다.
수학식[2]
수학식[2]를 수학식[1]로 나누면, 수학식[1]에 대한 표준화가 수행된 연관계수(N)가 얻어질 수 있다. 연관계수(N)를 활용하면, 복수의 마이크(60) 별 오디오신호에서 특정 음원성분이 편향되어 식별되는 현상을 방지할 수 있다. 특정 음원성분은 주파수의 크기, 세기 등이 다른 음원성분보다 큰 음원성분을 포함할 수 있다. 복수의 마이크(60) 별 오디오신호에서 음원성분의 편향 현상이 방지됨으로써, 음원성분 및 마이크의 오디오신호 간의 관계에 대한 식별 정확도가 향상될 수 있다.
연관성 분석부(33)는 연관성 분석을 통해 음원성분 및 마이크의 오디오신호 간의 관계를 식별하고, 음원성분 및 마이크의 오디오신호 간의 관계에 따라 음원성분 및 마이크 간의 관계를 식별한다. 일 예로, 연관성 분석부(33)는 제1음원성분 및 제1마이크(61)의 오디오신호 간의 관계에 따라 제1음원성분 및 제1마이크(61)의 관계를 식별할 수 있다. 연관성 분석부(33)는 음원성분 및 마이크 간의 관계에 관한 정보를 위치 추적부(34)에 제공한다.
전자장치(10)는 위치 추적부(34)를 포함한다. 위치 추적부(34)는 연관성 분석부(33)로부터 음원성분 및 마이크 간의 관계에 관한 정보를 수신한다. 위치 추적부(34)는 음원성분 및 마이크 간의 관계에 관한 정보 및 마이크의 위치에 관한 정보를 활용하여 음원성분에 대응하는 객체를 식별한다. 마이크의 위치에 관한 정보는 오디오신호와 함께 또는 별도로 수신된 것일 수 있다.
이하에서는 도 6을 함께 참조하여, 위치 추적부(34)가 제1음원성분에 대응하는 제1객체(1)를 식별하는 과정에 대해 설명한다. 다만, 이는 설명의 편의를 위한 것이므로, 이하에서 설명하는 방법과 동일한 방법으로 복수의 음원성분 및 복수의 객체(1, 2, 3) 간의 관계가 식별될 수 있다.
도 6에 도시된 바와 같이, 복수의 실제 객체(도 6의 71, 72, 73)를 촬영한 영상(5)이 디스플레이(13)에 표시될 수 있다. 영상(5)에는 복수의 실제 객체(71, 72, 73)에 대응하는 복수의 객체(1, 2, 3)가 표시된다. 복수의 실제 객체(71, 72, 73)가 발화한 제1음원성분 내지 제3음원성분의 오디오는 복수의 마이크(60)를 통해 오디오신호로 수신된다.
위치 추적부(34)는 복수의 마이크(60)의 배치 환경 정보에 기초하여 복수의 마이크(60) 중 제1마이크(61)의 위치를 식별한다. 복수의 마이크(60)의 배치 환경 정보는 앞서 설명한 마이크의 위치에 관한 정보에 포함된 것일 수 있다. 위치 추적부(34)는 복수의 마이크(60)의 배치 환경 정보에 기초하여 복수의 마이크(60)가 동일한 각도를 가지고 원형으로 배치되고, 제1마이크(61)가 복수의 마이크(60) 중에서 가장 좌측에 위치한다고 식별될 수 있다.
위치 추적부(34)는 제1음원성분 내지 제3음원성분을 발화한 실제 복수의 객체(71, 72, 73)의 위치를 식별하고, 실제 복수의 객체(71, 72, 73) 중 제1마이크(61)의 위치로부터 가장 가까운 위치에 있는 제1실제 객체(71)를 식별할 수 있다. 위치 식별은 거리 또는 방향 중 적어도 하나에 대한 식별을 포함한다. 위치 추적부(34)는 실제 제1객체(71)의 위치를 식별하기 위해 하기의 수학식[3]를 활용한다.
수학식[3]
수학식[3]에서, 은 제1마이크(61)로 획득된 오디오신호의 주파수영역의 신호이고, 는 제2마이크(62)로 획득된 오디오신호의 주파수영역의 신호이다. 소정 주파수대역에서 을 최대로 만드는 t의 값이 제1마이크(61) 및 제2마이크(62)에 도달하는 오디오신호의 시간차이다.
수학식[3]은 실제 제1객체(71)의 위치 추적을 위해 통상적으로 활용되는 상호상관함수 (Generalized Cross-Correlation: GCC)의 GCC-PHAT 값과 관련된다. 따라서, 소정 주파수대역 별로 t의 값을 변화시켜가면서 수학식[3]의 값이 최대가 되는 t의 값을 계산한다. 주파수대역마다 t의 값이 다를 수 있는데, 이는 주파수대역마다 잡음, 그 외에 측정 오차 등의 외부 요인에 의한 것이다. 따라서, 주파수대역 별로 t의 값의 변화에 따라 GCC-PHAT 값의 변화를 살펴보면서, GCC-PHAT 값이 최대가 되는 t의 값을 계산한다.
실제 제1객체(71)의 위치는 계산된 t의 값에 따른 시간차에 기초하여 식별될 수 있다. 실제 제1객체(71)에 좀더 가까운 제1마이크(61)로 실제 제1객체(71)의 오디오신호가 먼저 수신되고, 제2마이크(62)로 t의 값만큼 늦게 수신된다고 가정한다. 실제 제1객체(71)의 위치는 제1마이크(61) 및 제2마이크(62)와, 실제 제1객체(71) 간의 각도 θ를 계산함으로써 알아낼 수 있다. 실제 제1객체(71)로부터 제1마이크(61)까지의 거리와 실제 제1객체(71)로부터 제2마이크(62)까지의 거리의 차(△S)는 하기의 수학식[4]와 같이 표현될 수 있다.
수학식[4]
(v)는 오디오신호의 속도이고, (d)는 제1마이크(61) 및 제2마이크(62)의 배치 거리를 나타낸다. 복수의 마이크(60)의 배치 형태는 제1마이크(61) 및 제2마이크(62)가 동일한 각도를 가지고 원형으로 배치된 형태를 가정한 바 있으나, 이에 한정되는 것은 아니므로, 동일한 간격으로 가지고 직선으로 배치된 형태를 포함한다. 따라서, 제1마이크(61) 및 제2마이크(62)와, 실제 제1객체(71) 간의 각도 θ는 하기의 수학식[5]를 통해 계산될 수 있다.
수학식[5]
수학식[5]에 의해 계산된 각도 θ에 기초하여 실제 제1객체(71)의 위치를 추정할 수 있다. 마찬가지의 방법으로 실제 제2객체(72) 및 실제 제3객체(73)의 위치를 추정할 수 있다. 위치 추적부(34)는 수학식[3] 내지 수학식[5]를 활용함으로써, 복수의 실제 객체(71, 72, 73)의 위치를 식별할 수 있다. 이상의 위치 추적 원리는 3차원 공간 상에서 적용 가능하다. 마이크의 개수를 늘리면 3차원 공간 상에서 각 객체의 위치를 추정할 수 있다.
위치 추적부(34)는 영상(5) 내 복수의 객체(1, 2, 3) 중에서 제1실제 객체(71)에 대응하는 제1객체(1)를 식별할 수 있다. 이를 위해, 위치 추적부(34)는 영상(5) 내에서 복수의 마이크(60)에 대응하는 가상 마이크(50)의 위치를 식별한다. 가상 마이크(50)의 위치에 관한 정보는 마이크의 위치에 관한 정보에 포함될 수 있다. 설계 방법에 따라, 가상 마이크(50)의 위치는 영상(5)이 표시된 화면의 중앙 하측으로 설정될 수 있으나, 이에 한정되는 것은 아니다.
설명의 편의를 위해 가상 마이크(50)의 위치가 도 6에 도시된 바와 같다고 가정하면, 위치 추적부(34)는 가상 마이크(50) 중 제1마이크(61)에 대응하는 제1가상 마이크(51)의 위치로부터 가장 가까운 위치에 있는 제1객체(1)가 제1실제 객체(71)에 대응하는 것으로 식별할 수 있다. 위치 추적부(34)는 제1실제 객체(71)에 대응하는 제1객체(1)를, 제1음원성분에 대응하는 제1객체(1)로 식별할 수 있다.
음원성분 및 객체 간의 관계는 업데이트될 수 있다. 일 예로, 실제 제1객체(71)가 이동함에 따라 제1객체(71)에 대응하는 제1음원성분과 연관성이 높은 마이크의 오디오신호가 변하는 경우에, 제1음원성분 및 제1객체(1) 간의 관계가 업데이트될 수 있다. 좀더 구체적으로, 연관성 분석부(33)는 오디오신호의 프레임 별로 연관성 분석을 수행하고, 연관성 분석을 통해 제1음원성분 및 제1마이크(61) 간의 관계를 제1음원성분 및 제3마이크(63)로 업데이트 할 수 있다. 연관성 분석부(33)는 업데이트된 제1음원성분 및 제3마이크(63)의 관계에 관한 정보를 위치 추적부(34)에 제공할 수 있다.
위치 추적부(34)는, 앞서 제1마이크(61)의 위치에 기초하여 제1음원성분에 대응하는 실제 제1객체(71)의 위치를 식별한 것처럼, 제3마이크(63)의 위치에 기초하여 제1음원성분에 대응하는 실제 제1객체(71)의 업데이트된 위치를 식별할 수 있다. 위치 추적부(34)는 제1실제 객체(71)의 업데이트된 위치를 식별하기 위해 하기의 수학식[6]을 활용한다.
수학식[6]
수학식[6]에 따라, 위치 추적부(34)는 오디오신호의 이전 프레임에 기초한 실제 객체의 위치를 새로운 프레임에 기초하여 업데이트된 실제 객체의 위치를 식별할 수 있다. 수학식[6]에서 (α)는 잡음, 외부 요인 등을 고려하기 위함이다.
위치 추적부(34)는 음원추적 모델을 활용하여 실제 객체의 위치를 식별할 수 있다. 음원추적 모델은 음원성분 별로 마련될 수 있으며, 수학식[6]에 기초하여 마련될 수 있다. 일 예로, 위치 추적부(34)는 제1음원성분에 대응하는 제1음원추적 모델을 생성하고, 제1음원추적 모델에 기초하여 제1음원성분에 대응하는 실제 제1객체(71)의 업데이트된 위치를 추적할 수 있다.
위치 추적부(34)는 실제 제1객체(71)의 업데이트된 위치를 식별하고, 업데이트된 제1음원성분 및 제3마이크(63)의 관계에 기초하여 제3마이크(63)에 가장 가까운 실제 제1객체(71)가 제1음원성분에 대응함을 식별할 수 있다.
위치 추적부(34)는 가상 마이크(50) 중 제3마이크(63)에 대응하는 제3가상 마이크(53)의 위치로부터 가장 가까운 위치에 있는 제1객체(1)가 제1실제 객체(71)에 대응하는 것으로 식별할 수 있다. 위치 추적부(34)는 제1실제 객체(71)가 이동하더라도, 제1음원성분 및 제1실제 객체(71) 간의 관계에 기초하여 제1음원성분에 대응하는 제1객체(1)를 식별할 수 있다.
전자장치(10)는 동작 수행부(35)를 포함한다. 동작 수행부(35)는 식별된 객체에 관하여 컨텐츠와 관련된 동작을 수행한다. 일 예로, 제1음원성분의 오디오가 스피커(15)를 통해 출력되는 경우, 동작 수행부(35)는 출력되는 오디오의 제1음원성분이 제1객체(1)에 대응하는 것임을 나타내는 사용자인터페이스(4)를 표시할 수 있다. 다만, 이에 한정되는 것은 아니므로, 동작 수행부(35)는 제1음원성분 및 제1객체(1) 간의 관계에 기초한 다양한 동작을 수행할 수 있다.
이와 같이, 전자장치(10)는 복수의 객체(1, 2, 3)를 포함된 영상(5)을 표시하고, 복수의 마이크(60)로 획득된 오디오신호에 기초하여 음원성분 별로 대응하는 객체를 식별하고, 식별된 객체에 관하여 컨텐츠와 관련된 다양한 동작을 수행할 수 있다.
전자장치(10)는 오디오신호를 획득한 복수의 마이크(60)의 위치에 기초하여 음원성분 별로 대응하는 객체를 식별할 수 있으므로, 음원성분 및 객체 간의 관계에 대해 통합적 식별이 가능할 뿐만 아니라, 객체의 이동에 따라 음원성분 및 객체 간의 관계에 대해 적응적 식별이 가능하다.
도 4는 도 1의 전자장치에 대한 제어방법의 일 예를 도시한다.
프로세서(6)는 컨텐츠에 포함된 비디오신호에 기초하여 복수의 객체를 포함하는 영상(5)을 표시한다(S41). 일 예로, 영상(5) 내에는 복수의 객체(1, 2, 3)가 포함될 수 있다.
프로세서(6)는 복수의 마이크(60)로 획득된 컨텐츠에 포함된 복수의 오디오신호로부터 주파수특성에 따라 복수의 음원성분을 획득한다(S42).
프로세서(6)는 컨텐츠의 재생 중에 음원성분 및 마이크의 오디오신호 간에 기초하여 복수의 마이크(60) 중 음원성분에 대응하는 오디오신호를 획득한 마이크를 식별한다(S43). 일 예로, 프로세서(6)는 연관성 분석을 통해 연관계수가 가장 높은 제1음원성분 및 제1마이크(61)의 오디오신호 간의 관계를 식별할 수 있다.
프로세서(6)는 복수 마이크(60)의 배치에 기초하여, 영상(5) 내의 복수의 객체(1, 2, 4) 중에서, 식별된 음원성분에 대응하는 마이크의 위치에 대응하는 어느 하나의 객체에 관하여 컨텐츠와 관련된 동작을 수행한다(S44). 일 예로, 프로세서(6)는 복수의 마이크(60)의 배치 환경에 기초하여 영상(5) 내에서 제1마이크(61)의 위치에 대응하는 제1객체(1)를 식별한다.
이와 같이, 전자장치(10)는 오디오신호를 획득한 복수의 마이크(60)의 위치에 기초하여 음원성분 별로 대응하는 객체를 식별할 수 있으므로, 음원성분 및 객체 간의 관계에 대해 통합적 식별이 가능할 뿐만 아니라, 객체의 이동에 따라 음원성분 및 객체 간의 관계에 대해 적응적 식별이 가능하다.
도 5는 도 4의 동작 S43과 관련하여, 음원성분 및 마이크의 오디오신호 간에 기초하여 음원성분 및 마이크 간의 대응관계를 식별하는 구체적인 예를 도시한다.
프로세서(6)는 복수의 마이크(60)를 통해 수신된 오디오신호로부터 복수의 음원성분을 추출하고, 복수의 음원성분 및 복수의 마이크(60)의 오디오신호 간의 연관성을 분석한다. 설명의 편의를 위해 오디오신호로부터 추출된 제1음원성분 내지 제3음원성분의 주파수성분이 도 5에 도시된 바와 같다고 가정한다.
프로세서(6)는 복수의 음원성분 중에서 제1마이크(61)로 획득된 오디오신호의 주파수성분과 유사한 주파수성분을 가진 제1음원성분을 식별한다. 프로세서(6)는 주파수성분 간의 유사도뿐만 아니라, 주파수성분의 크기에 기초하여 제1마이크(61)의 오디오신호에 대응하는 제1음원성분을 식별할 수 있다. 일 예로, 프로세서(6)는 제1마이크(61)의 오디오신호의 주파수성분과 동일한 주파수대역에서 주파수성분의 크기가 큰 제1음원성분을 식별할 수 있다.
프로세서(6)는 연관성 분석을 통해 제1음원성분이 제1마이크(61)의 오디오신호에 대응하는 것으로 식별하면, 제1음원성분이 제1마이크(61)에 대응하는 것으로 식별할 수 있다. 동일한 방법으로, 프로세서(6)는 제2음원성분이 제2마이크(62)에 대응하고, 제3음원성분이 제3마이크(63)에 대응하는 것으로 식별할 수 있다.
이와 같이, 프로세서(6)는 음원성분 및 마이크로 수신된 오디오신호 간의 주파수특성의 연관성에 기초하여 음원성분 및 마이크 간의 대응관계를 식별할 수 있다. 따라서, 이하에서 도 6을 참조하여 설명할 음원성분 및 객체 간의 관계를 식별할 수 있는 여건을 마련할 수 있다.
도 6은 도 4의 동작 S44와 관련하여, 음원성분에 대응하는 마이크의 위치에 기초하여 음원성분 및 객체 간의 관계를 식별하는 구체적인 예를 도시한다.
프로세서(6)는 복수의 객체(1, 2, 3)을 포함하는 영상(5)을 디스플레이(13)에 표시한다. 설명의 편의를 위해 도 6에 도시된 바와 같이, 실제 해변을 촬영한 영상이 디스플레이(13)에 표시되고, 실제 해변에는 실제 복수의 객체(71, 72, 73)가 있다고 가정한다. 또한, 실제 제1객체(71)는 실제 해변의 좌측에, 실제 제2객체(72)는 중앙 상측에, 실제 제3객체(73)는 우측에 있다고 가정한다.
실제 해변 촬영 시 실제 복수의 객체(71, 72, 73)로부터 발화된 오디오의 오디오신호는 복수의 마이크(60)를 통해 수신된다. 복수의 마이크(60)는 제1마이크(61), 제2마이크(62) 및 제3마이크(63)가 동일한 각도로 배치된 마이크 어레이를 포함하며, 실제 해변의 중앙 하측에 있다. 제1마이크(61), 제2마이크(62) 및 제3마이크(63)는 실제 제1객체(71), 실제 제2객체(72) 및 제3객체(73)에 각각 근접하도록 배치된 것으로 가정한다. 프로세서(6)는 오디오신호와 함께 또는 별도로 복수의 마이크(60)의 배치 환경 정보를 수신할 수 있다.
앞서 도 5를 참조하여 설명한 바와 같이, 프로세서(6)는 음원성분 및 마이크의 오디오신호 간의 연관성 분석을 통해 음원성분 및 마이크 간의 관계를 식별한다. 일 예로, 프로세서(6)는 제1음원성분이 제1마이크(61)에 대응하고, 제2음원성분이 제2마이크(62)에 대응하고, 제3음원성분이 제3마이크(63)에 대응하는 것으로 식별할 수 있다.
프로세서(6)는 복수의 마이크(60)의 배치 환경 정보 및 연관성 분석을 통해 식별된 음원성분 및 마이크 간의 관계에 관한 정보에 기초하여 음원성분에 대응하는 영상(5) 내의 객체를 식별한다. 좀더 구체적으로, 프로세서(6)는 복수의 마이크(60)의 배치 환경 정보에 기초하여 복수의 마이크(60) 중 제1마이크(61)의 위치를 식별한다. 일 예로, 프로세서(6)는 제1마이크(61)가 복수의 마이크(60) 중에서 가장 좌측에 위치한다고 식별될 수 있다.
프로세서(6)는 제1음원성분 내지 제3음원성분을 발화한 실제 복수의 객체(71, 72, 73)의 위치를 식별하고, 실제 복수의 객체(71, 72, 73) 중 제1마이크(61)의 위치로부터 가장 가까운 위치에 있는 제1실제 객체(71)를 식별할 수 있다. 프로세서(6)는 제1음원성분이 제1실제 객체(71)로부터 발화된 것임을 식별할 수 있다.
프로세서(6)는 영상(5) 내 복수의 객체(1, 2, 3) 중에서 제1실제 객체(71)에 대응하는 제1객체(1)를 식별한다. 이를 위해, 프로세서(6)는 영상(5) 내에서 복수의 마이크(60)에 대응하는 가상 마이크(50)의 위치를 식별한다. 설계 방법에 따라, 가상 마이크(50)의 위치는 복수의 마이크(60)의 위치에 대응하도록, 영상(5)이 표시된 화면의 중앙 하측으로 설정될 수 있으나, 이에 한정되는 것은 아니다.
가상 마이크(50)의 위치가 도 6에 도시된 바와 같다고 가정하면, 프로세서(6)는 가상 마이크(50) 중 제1마이크(61)에 대응하는 제1가상 마이크(51)의 위치로부터 가장 가까운 위치에 있는 제1객체(1)가 제1실제 객체(71)에 대응하는 것으로 식별할 수 있다. 프로세서(6)는 제1음원성분 및 제1실제 객체(71) 간의 관계에 기초하여 제1음원성분에 대응하는 제1객체(1)를 식별할 수 있다.
동일한 방법으로, 프로세서(6)는 제3음원성분은 제3마이크(63)에 대응하고, 제3마이크(63)의 위치에 가장 근접한 제3실제 객체(73)가 영상(5) 내 제3객체(3)에 대응하고, 결과적으로 제3객체(3)가 제3음원성분에 대응함을 식별할 수 있다.
이와 같이, 프로세서(6)는 오디오신호를 획득한 복수의 마이크(60)의 위치에 기초하여 음원성분 별로 대응하는 객체를 식별할 수 있으므로, 음원성분 및 객체 간의 관계에 대해 통합적 식별이 가능하다.
도 7은 도 4의 동작 S44와 관련하여, 마이크의 위치에 대응하는 객체에 관하여 컨텐츠와 관련된 동작의 일 예로서, 음원성분에 대응하는 객체를 구분하여 표시하는 구체적인 예를 도시한다.
설명의 편의를 위해 도 7에 도시된 바와 같이, 영상(5) 내 제1객체(1)가 제1음원성분에 대응하는 것으로 가정한다. 프로세서(6)는 제1객체(1)를 영상(5) 내 다른 객체인 제2객체(2) 및 제3객체(3)와 구별되도록 표시할 수 있다. 제2객체(2) 및 제3객체(3)는 제1음원성분에 대응하지 않으며, 제2음원성분 및 제3음원성분에 각각 대응할 수 있다.
프로세서(6)는 제1객체(1)를 강조하는 효과(81)를 적용함으로써, 제1객체(1)가 다른 객체와 구별되도록 할 수 있다. 마찬가지로, 프로세서(6)는 제2음원성분에 대응하는 제2객체(2) 또는 제3음원성분에 대응하는 제3객체(3)에 대해서도 영상(5) 내 다른 객체와 구별되도록 표시할 수 있다.
프로세서(6)는 복수의 객체(1, 2, 3) 별로 서로 다른 효과가 적용되도록 함으로써, 복수의 객체(1, 2, 3) 상호 간에 구별이 가능하도록 할 수 있다. 일 예로, 프로세서(6)는 상호 간에 적용되는 색상, 크기, 그라데이션, 블러링 등을 다르게 함으로써, 상호 간에 구별이 가능하도록 할 수 있다.
프로세서(6)는 제1객체(1)가 제1음원성분에 대응하는 제1마이크(61)에 의해서도 구별 가능하도록 표시할 수 있다. 일 예로, 프로세서(6)는 영상(5) 내 복수의 객체(1, 2, 3) 중에서 제1객체(1)가 제1마이크(61)에 대응하는 것으로 식별하고, 제1객체(1)가 다른 객체와 구별되도록 표시함으로써, 제1객체(1)를 제1마이크(61)에 대응하지 않는 제2객체(2) 및 제3객체(3)와 구별할 수 있다.
이와 같이, 프로세서(6)는 음원성분 및 객체 간의 관계에 기초하여 음원성분에 대응하는 객체를 다른 객체와 구별되도록 표시할 수 있다. 따라서, 음원성분 및 객체 간의 관계에 대한 통합적 식별 및 적응적 식별 여부를 시각적 정보로 제공할 수 있다.
도 8은 도 4의 동작 S44와 관련하여, 마이크의 위치에 대응하는 객체에 관하여 컨텐츠와 관련된 동작의 다른 예로서, 마이크 및 객체 간의 상호 위치 관계를 나타내는 구체적인 예를 도시한다.
앞서 도 6을 참조하여, 프로세서(6)가 복수의 마이크(60)의 위치에 관한 정보를 활용하여, 복수의 마이크(60) 및 복수의 실제 객체(71, 72, 73) 간의 관계를 식별하고, 복수의 마이크(60) 및 영상(5) 내 복수의 객체(1, 2, 3) 간의 관계를 식별할 수 있음을 설명한 바 있다.
이 경우, 프로세서(6)는 복수의 마이크(60) 및 복수의 실제 객체(71, 72, 73) 간의 상호 위치 관계를 식별할 수 있다. 일 예로, 프로세서(6)는 제1실제 마이크(61)의 위치는 제1객체(71)의 위치와 가장 근접함을 식별할 수 있다.
프로세서(6)는 복수의 마이크(60) 및 복수의 실제 객체(71, 72, 73) 간의 상호 위치 관계에 기초하여 복수의 마이크(60) 및 복수의 객체(1, 2, 3) 간의 상호 위치 관계를 식별할 수 있다. 일 예로, 프로세서(6)는 제1실제 마이크(61)에 대응하는 영상(5) 내의 가상 제1마이크(51)의 위치는 제1실제 객체(71)에 대응하는 제1객체(1)의 위치와 가장 근접함을 식별할 수 있다.
프로세서(6)는 영상(5) 내의 가상 제1마이크(51) 및 제1객체(1) 간의 상호 위치를 나타내는 사용자인터페이스(4)를 표시할 수 있다. 일 예로, 프로세서(6)는 화살표 등을 통하여 영상(5) 내의 가상 제1마이크(51)의 위치에 제1객체(1)의 위치가 가장 근접함을 나타낼 수 있다.
이와 같이, 프로세서(6)는 객체에 관하여 컨텐츠와 관련된 동작으로서, 마이크 및 객체 간의 상호 위치 관계를 나타내는 사용자인터페이스(4)를 표시할 수 있다. 따라서, 마이크 및 객체 간의 관계에 대한 통합적 식별 및 적응적 식별 여부를 시각적 정보로 제공할 수 있다.
도 9는 도 4의 동작 S44와 관련하여, 음원성분에 대한 이벤트에 대응하여 컨텐츠와 관련된 동작을 수행하는 구체적인 예를 도시한다.
프로세서(6)는 음원성분에 대한 이벤트 여부를 식별한다. 일 예로, 복수의 음원성분 중 적어도 하나를 선택할 수 있는 사용자인터페이스를 표시하고, 사용자입력에 따라 음원성분이 선택되면, 이를 음원성분에 대한 이벤트로 식별할 수 있다. 다만, 음원성분에 대한 이벤트가 사용자입력에 따른 음원성분의 선택에 한정되는 것은 아니다.
프로세서(6)는 음원성분에 대한 이벤트에 대응하여, 음원성분에 기초한 동작을 수행한다. 일 예로, 음원성분에 기초하여 오디오를 출력할 수 있다. 설명의 편의를 위해 사용자입력에 따라 제1음원성분이 선택된 경우를 가정하면, 제1음원성분에 기초한 오디오가 스피커(15)를 통해 출력될 수 있다.
음원성분에 기초한 동작은 음원성분에 대응하는 객체에 관한 동작을 포함한다. 일 예로, 도 7을 참조하여 설명한 바와 같이, 프로세서(6)는 제1음원성분에 대응하는 제1객체(1)가 다른 객체와 구별되도록 제1객체(1)을 강조하는 효과(81)를 적용하거나, 도 8을 참조하여 설명한 바와 같이, 제1음원성분에 대응하는 제1객체(1) 및 제1마이크(61) 간의 상호 위치 관계를 나타내는 사용자인터페이스(4)를 표시할 수 있다.
이와 같이, 프로세서(6)는 음원성분에 대한 이벤트에 대응하여 음원성분에 대응하는 객체에 관하여 다양한 동작을 수행할 수 있다. 따라서, 음원성분 및 객체 간의 관계에 대한 통합적 식별 및 적응적 식별 여부를 더욱 다양한 시각적 정보로 제공할 수 있다.
도 10은 도 4의 동작 S44와 관련하여, 객체에 대한 이벤트에 대응하여 컨텐츠와 관련된 동작을 수행하는 구체적인 예를 도시한다.
앞서 도 9를 참조하여 음원성분에 대한 이벤트에 대응하여 수행되는 동작에 대해 설명하였으나, 이하에서는 도 10을 참조하여, 객체에 대한 이벤트에 대응하여 수행되는 동작에 대해 설명한다.
프로세서(6)는 객체에 대한 이벤트 여부를 식별한다. 일 예로, 영상(5) 내 복수의 객체(1, 2, 3) 중 적어도 하나를 선택할 수 있는 사용자인터페이스를 표시하고, 사용자입력에 따라 객체가 선택되면, 이를 객체에 대한 이벤트를 식별할 수 있다. 다만, 객체에 대한 이벤트가 사용자입력에 따른 객체의 선택에 한정되는 것은 아니다.
프로세서(6)는 식별된 이벤트에 따라 음원성분에 관한 동작을 수행한다. 일 예로, 선택된 객체에 대응하는 음원성분에 기초한 오디오를 출력한다. 설명의 편의를 위해 사용자입력에 따라 제1객체(1)가 선택된 경우를 가정하면, 제1객체(1)에 대응하는 제1음원성분을 식별하고, 제1음원성분에 기초한 오디오를 스피커(15)를 통해 출력할 수 있다. 제1객체(1)의 위치가 화면의 좌측이므로, 화면의 좌측에 대응하도록 오디오의 출력 방향이 설정될 수 있다.
또는, 프로세서(6)는 선택된 제1객체(1)에 대응하는 제1음원성분을 식별하고, 제1음원성분의 크기를 조정할 수 있다. 일 예로, 프로세서(6)는 제1음원성분의 크기를 다른 객체에 대응하는 음원성분의 크기보다 커지도록 조정할 수 있다.
또는, 도 7 및 8을 참조하여 설명한 바와 같이, 프로세서(6)는 제1객체(1)가 다른 객체와 구별되도록 효과(81)를 표시하거나, 제1객체(1) 및 제1마이크(61) 간의 상호 위치 관계를 나타내는 사용자인터페이스(4)를 표시할 수 있다.
이와 같이, 프로세서(6)는 객체에 대한 이벤트에 대응하여 다양한 동작을 수행할 수 있다. 따라서, 음원성분 및 객체 간의 관계에 대한 통합적 식별 및 적응적 식별 여부를 더욱 다양한 시각적 정보로 제공할 수 있다.
도 11은 도 4의 동작 S43과 관련하여, 음원성분 및 마이크 간의 대응관계를 업데이트 하는 구체적인 예를 도시한다.
앞서 설명한 바와 같이, 프로세서(6)는 오디오신호에 기초하여 음원성분 및 마이크 간의 대응관계를 식별한다. 오디오신호는 복수의 프레임으로 구성되며, 프로세서(6)는 프레임 별로 음원성분 및 마이크 간의 대응관계를 식별할 수 있다. 프레임 별로 대응관계를 식별한다는 것은, 단일 프레임 별로 대응관계를 식별하는 경우뿐만 아니라, 소정 개수의 프레임 별로 대응관계를 식별하는 경우를 포함한다. 즉, 주기적 또는 비주기적으로 적어도 하나의 프레임에 대하여 대응관계를 식별하는 경우를 포함한다.
일 예로, 프로세서(6)는 오디오신호의 복수의 프레임 중 제1프레임에 기초하여 제1음원성분이 제1마이크(61)에 대응하는 것으로 식별할 수 있다. 일정 시간 경과 후, 오디오신호의 제2프레임에 기초하여 제1음원성분이 제2마이크(62)에 대응하는 것으로 식별할 수 있다. 이 경우, 앞서 도 3을 참조하여 설명한 바와 같이, 제1프레임에 기초하여 식별된 제1마이크(61) 및 제1음원성분 간의 대응관계는 제2마이크(62) 및 제1음원성분의 대응관계로 업데이트될 수 있다. 마찬가지로, 제3프레임에 기초하여 제1음원성분이 제3마이크(63)에 대응하는 것으로 식별할 수 있으며, 이 경우, 제3마이크(63) 및 제1음원성분의 대응관계로 업데이트될 수 있다.
이와 같이, 오디오신호의 프레임 별로 음원성분 및 마이크 간의 대응관계를 업데이트할 수 있으므로, 음원성분 및 객체 간의 관계에 대해 적응적 식별이 가능하다.
도 12는 도 11의 음원성분 및 마이크 간의 업데이트된 대응관계에 따라 컨텐츠와 관련된 동작을 업데이트 하는 구체적인 예를 도시한다.
도 11을 참조하여 설명한 바와 같이, 프로세서(6)는 오디오신호의 프레임 별로 음원성분 및 마이크 간의 대응관계를 업데이트할 수 있다. 일 예로, 도 12에 도시된 바와 같이, 제1프레임에서는 제1객체(1)가 영상(5)의 화면 좌측에 표시되고, 제2프레임에서는 화면 우측으로 이동한 경우를 가정한다. 이 경우, 프로세서(6)는 제1객체(1)의 이동에 따라, 제1음원성분에 대응하는 마이크가 변경됨을 식별한다. 즉, 제1음원성분이 제1마이크(61), 제2마이크(62) 및 제3마이크(63)에 순차적으로 대응함을 식별하고, 제1음원성분 및 제1마이크(61) 간의 대응관계를 제1음원성분 및 제3마이크(63) 간의 대응관계로 업데이트할 수 있다.
프로세서(6)는 제1음원성분 및 마이크 간의 대응관계를 업데이트함에 따라, 제1음원성분 및 제1객체(1) 간의 관계에 기초한 동작을 업데이트할 수 있다. 도 8을 참조하여 설명한 바와 같이, 상호 위치 관계를 나타내는 화살표 등의 사용자인터페이스(4)를 예로 들면, 프로세서(6)는 제1음원성분이 제1마이크(61), 제2마이크(62) 및 제3마이크(63)에 순차적으로 대응함에 따라, 제1마이크(61)의 위치, 제2마이크(62)의 위치 및 제3마이크(63)의 위치에 대응하도록 사용자인터페이스(4)를 순차적으로 업데이트할 수 있다.
이와 같이, 프로세서(6)는 음원성분 및 마이크 간의 업데이트된 대응관계에 대응하여, 객체에 관하여 컨텐츠와 관련된 동작을 업데이트할 수 있다. 따라서, 음원성분 및 객체 간의 관계에 대해 적응적 식별이 가능할 뿐만 아니라, 사용자에게 적응적 식별에 대한 정보를 제공할 수 있다.
본 문서에 개시된 다양한 실시예들은 전자장치(10)와 같은 기기(Machine)가 읽을 수 있는 저장 매체(Storage Medium)에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어로서 구현된다. 일 예로, 전자장치(10)의 프로세서(6)는 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행한다. 이것은 전자장치(10)와 같은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함한다. 기기로 읽을 수 있는 저장매체는, 비일시적(Non-transitory) 저장매체의 형태로 제공된다. 여기서, '비일시적 저장매체'는 실재(tangible)하는 장치이고, 신호(예컨대, 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다. 일 예로, '비일시적 저장매체'는 데이터가 임시적으로 저장되는 버퍼를 포함한다.
일 예로, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(Computer Program Product)에 포함되어 제공된다. 본 개시에 의한 컴퓨터 프로그램 제품은, 앞서 언급된 바와 같은, 프로세서에 의해 실행되는 소프트웨어의 명령어들을 포함한다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래된다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예컨대, CD-ROM)의 형태로 배포되거나, 또는 어플리케이션 스토어(예컨대, 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예컨대, 스마트폰들) 간에 직접, 온라인으로 배포(예컨대, 다운로드 또는 업로드)된다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품(예: 다운로더블 앱(downloadable app))의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성된다.
이상, 바람직한 실시예를 통하여 본 발명에 관하여 상세히 설명하였으나, 본 발명은 이에 한정되는 것은 아니며 특허청구범위 내에서 다양하게 실시된다.
Claims (15)
- 전자장치에 있어서,컨텐츠에 포함된 비디오신호에 기초하여 디스플레이에 복수의 객체를 포함하는 영상이 표시되도록 제어하고,복수의 마이크로 획득된 상기 컨텐츠에 포함된 복수의 오디오신호로부터 주파수특성에 따라 복수의 음원성분을 획득하고,상기 컨텐츠의 재생 중에 상기 오디오신호와 상기 음원성분 간의 주파수특성의 연관성에 기초하여 상기 복수의 마이크 중 상기 음원성분에 대응하는 오디오신호를 획득한 마이크를 식별하고,상기 복수의 마이크의 배치에 기초하여, 상기 표시되는 영상 내의 복수의 객체 중에서, 상기 식별된 마이크의 위치에 대응하는 어느 하나의 객체에 관하여 상기 컨텐츠와 관련된 동작을 수행하는 프로세서를 포함하는 전자장치.
- 제1항에 있어서,상기 프로세서는, 상기 복수의 음원성분 중에서, 상기 오디오신호의 주파수성분과 동일한 주파수대역에서 주파수성분의 크기가 큰 어느 하나의 음원성분을 상기 오디오신호에 대응하는 음원성분으로 식별하는 전자장치.
- 제1항에 있어서,상기 프로세서는,상기 식별된 마이크에 대응하는 상기 영상 내 위치를 식별하고,상기 영상에 표시된 복수의 객체 중에서, 상기 식별된 위치에 가까운 어느 하나의 객체를 상기 마이크의 위치에 대응하는 객체로 식별하는 전자장치.
- 제1항에 있어서,상기 프로세서는, 상기 마이크의 위치에 대응하는 객체를 다른 객체와 구분 가능하도록 표시하는 전자장치.
- 제1항에 있어서,상기 프로세서는, 상기 음원성분에 대응하는 객체를 다른 객체와 구분 가능하도록 표시하는 전자장치.
- 제1항에 있어서,상기 프로세서는, 상기 식별된 마이크와, 상기 마이크의 위치에 대응하는 객체 간의 상호 위치 관계를 나타내는 사용자인터페이스를 표시하는 전자장치.
- 제5항에 있어서,상기 프로세서는, 상기 복수의 음원성분 중 사용자입력에 따라 선택된 음원성분에 대응하는 객체를 다른 객체와 구분 가능하도록 표시하는 전자장치.
- 제1항에 있어서,상기 프로세서는, 상기 복수 객체 중 사용자입력에 따라 선택된 객체에 대응하는 상기 음원성분의 크기를 조정하는 동작을 수행하는 전자장치.
- 제1항에 있어서,상기 프로세서는, 상기 오디오신호의 프레임에 기초하여 상기 마이크 및 상기 음원성분 간의 대응관계를 업데이트 하는 전자장치.
- 전자장치의 제어방법에 있어서,컨텐츠에 포함된 비디오신호에 기초하여 복수의 객체를 포함하는 영상을 표시하는 단계;복수의 마이크로 획득된 상기 컨텐츠에 포함된 복수의 오디오신호로부터 주파수특성에 따라 복수의 음원성분을 획득하는 단계;상기 컨텐츠의 재생 중에 상기 오디오신호와 상기 음원성분 간의 주파수특성의 연관성에 기초하여 상기 복수의 마이크 중 상기 음원성분에 대응하는 오디오신호를 획득한 마이크를 식별하는 단계; 및상기 복수의 마이크의 배치에 기초하여, 상기 표시되는 영상 내의 복수의 객체 중에서, 상기 식별된 마이크의 위치에 대응하는 어느 하나의 객체에 관하여 상기 컨텐츠와 관련된 동작을 수행하는 단계를 포함하는 전자장치의 제어방법.
- 제10항에 있어서,상기 음원성분에 대응하는 오디오신호를 획득한 마이크를 식별하는 단계는, 상기 복수의 음원성분 중에서, 상기 오디오신호의 주파수성분과 동일한 주파수대역에서 주파수성분의 크기가 큰 어느 하나의 음원성분을 상기 오디오신호에 대응하는 음원성분으로 식별하는 단계를 더 포함하는 전자장치의 제어방법.
- 제10항에 있어서,상기 컨텐츠와 관련된 동작을 수행하는 단계는,상기 식별된 마이크에 대응하는 상기 영상 내 위치를 식별하는 단계; 및상기 영상에 표시된 복수의 객체 중에서, 상기 식별된 위치에 가까운 어느 하나의 객체를 상기 마이크의 위치에 대응하는 객체로 식별하는 단계를 더 포함하는 전자장치의 제어방법.
- 제10항에 있어서,상기 컨텐츠와 관련된 동작을 수행하는 단계는, 상기 마이크의 위치에 대응하는 객체를 다른 객체와 구분 가능하도록 표시하는 단계를 더 포함하는 전자장치의 제어방법.
- 제10항에 있어서,상기 컨텐츠와 관련된 동작을 수행하는 단계는, 상기 음원성분에 대응하는 객체를 다른 객체와 구분 가능하도록 표시하는 단계를 더 포함하는 전자장치의 제어방법.
- 컴퓨터가 읽을 수 있는 코드로서, 전자장치의 제어방법을 수행하는 코드를 포함하는 컴퓨터 프로그램이 저장된 기록매체에 있어서, 상기 전자장치의 제어방법은,컨텐츠에 포함된 비디오신호에 기초하여 복수의 객체를 포함하는 영상을 표시하는 단계;복수의 마이크로 획득된 상기 컨텐츠에 포함된 복수의 오디오신호로부터 주파수특성에 따라 복수의 음원성분을 획득하는 단계;상기 컨텐츠의 재생 중에 상기 오디오신호와 상기 음원성분 간의 주파수특성의 연관성에 기초하여 상기 복수의 마이크 중 상기 음원성분에 대응하는 오디오신호를 획득한 마이크를 식별하는 단계; 및상기 복수의 마이크의 배치에 기초하여, 상기 표시되는 영상 내의 복수의 객체 중에서, 상기 식별된 마이크의 위치에 대응하는 어느 하나의 객체에 관하여 상기 컨텐츠와 관련된 동작을 수행하는 단계를 포함하는 것을 특징으로 하는 컴퓨터가 읽을 수 있는 프로그램이 기록된 기록매체.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2020-0151797 | 2020-11-13 | ||
KR1020200151797A KR20220065370A (ko) | 2020-11-13 | 2020-11-13 | 전자장치 및 그 제어방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2022102945A1 true WO2022102945A1 (ko) | 2022-05-19 |
Family
ID=81602475
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2021/012891 WO2022102945A1 (ko) | 2020-11-13 | 2021-09-17 | 전자장치 및 그 제어방법 |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR20220065370A (ko) |
WO (1) | WO2022102945A1 (ko) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024063463A1 (ko) * | 2022-09-23 | 2024-03-28 | 삼성전자주식회사 | 디스플레이를 통해 보여지는 객체와 관련된 오디오 신호를 조절하기 위한 전자 장치 및 그 방법 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120018686A (ko) * | 2010-08-23 | 2012-03-05 | 주식회사 팬택 | 주변 소리 정보를 이용하여 다양한 사용자 인터페이스를 제공하는 단말기 및 그 제어방법 |
KR20150068112A (ko) * | 2013-12-11 | 2015-06-19 | 삼성전자주식회사 | 오디오를 추적하기 위한 방법 및 전자 장치 |
US20160004405A1 (en) * | 2014-07-03 | 2016-01-07 | Qualcomm Incorporated | Single-channel or multi-channel audio control interface |
KR20160026605A (ko) * | 2014-09-01 | 2016-03-09 | 삼성전자주식회사 | 오디오 파일 재생 방법 및 장치 |
KR101888391B1 (ko) * | 2014-09-01 | 2018-08-14 | 삼성전자 주식회사 | 음성 신호 관리 방법 및 이를 제공하는 전자 장치 |
-
2020
- 2020-11-13 KR KR1020200151797A patent/KR20220065370A/ko active Search and Examination
-
2021
- 2021-09-17 WO PCT/KR2021/012891 patent/WO2022102945A1/ko active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120018686A (ko) * | 2010-08-23 | 2012-03-05 | 주식회사 팬택 | 주변 소리 정보를 이용하여 다양한 사용자 인터페이스를 제공하는 단말기 및 그 제어방법 |
KR20150068112A (ko) * | 2013-12-11 | 2015-06-19 | 삼성전자주식회사 | 오디오를 추적하기 위한 방법 및 전자 장치 |
US20160004405A1 (en) * | 2014-07-03 | 2016-01-07 | Qualcomm Incorporated | Single-channel or multi-channel audio control interface |
KR20160026605A (ko) * | 2014-09-01 | 2016-03-09 | 삼성전자주식회사 | 오디오 파일 재생 방법 및 장치 |
KR101888391B1 (ko) * | 2014-09-01 | 2018-08-14 | 삼성전자 주식회사 | 음성 신호 관리 방법 및 이를 제공하는 전자 장치 |
Also Published As
Publication number | Publication date |
---|---|
KR20220065370A (ko) | 2022-05-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2019059505A1 (ko) | 객체를 인식하는 방법 및 장치 | |
WO2021096233A1 (en) | Electronic apparatus and control method thereof | |
WO2019124963A1 (ko) | 음성 인식 장치 및 방법 | |
WO2021206221A1 (en) | Artificial intelligence apparatus using a plurality of output layers and method for same | |
WO2020251074A1 (ko) | 음성 인식 기능을 제공하는 인공 지능 로봇 및 그의 동작 방법 | |
WO2016175424A1 (ko) | 이동 단말기 및 그 제어 방법 | |
WO2021215547A1 (ko) | 스마트 홈 장치 및 방법 | |
WO2020246640A1 (ko) | 사용자의 위치를 결정하는 인공 지능 장치 및 그 방법 | |
WO2022098204A1 (ko) | 가상현실 서비스를 제공하는 전자 장치 및 방법 | |
WO2022102945A1 (ko) | 전자장치 및 그 제어방법 | |
WO2020251096A1 (ko) | 인공 지능 로봇 및 그의 동작 방법 | |
WO2021002493A1 (ko) | 지능형 게이트웨이 장치 및 그를 포함하는 제어 시스템 | |
WO2021256709A1 (ko) | 전자 장치 및 전자 장치의 동작 방법 | |
WO2021071166A1 (en) | Electronic apparatus and control method thereof | |
WO2022014734A1 (ko) | 무선 음향 기기를 제어하는 단말기 및 그 방법 | |
WO2022065663A1 (ko) | 전자장치 및 그 제어방법 | |
WO2022255730A1 (ko) | 전자장치 및 그 제어방법 | |
WO2023085679A1 (ko) | 전자 장치 및 편집 영상을 자동으로 생성하는 방법 | |
WO2022177166A1 (ko) | 화면 재생률을 제어하는 방법 및 이를 지원하는 전자 장치 | |
WO2022055107A1 (ko) | 음성 인식을 위한 전자장치 및 그 제어방법 | |
WO2022025420A1 (ko) | 전자장치 및 그 제어방법 | |
WO2021172713A1 (ko) | 전자장치 및 그 제어방법 | |
WO2022050653A1 (ko) | 전자장치 및 그 제어방법 | |
WO2022114532A1 (ko) | 전자장치 및 그 제어방법 | |
WO2022065662A1 (ko) | 전자장치 및 그 제어방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 21892115 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 21892115 Country of ref document: EP Kind code of ref document: A1 |