WO2023145985A1 - 디스플레이 장치 - Google Patents

디스플레이 장치 Download PDF

Info

Publication number
WO2023145985A1
WO2023145985A1 PCT/KR2022/001347 KR2022001347W WO2023145985A1 WO 2023145985 A1 WO2023145985 A1 WO 2023145985A1 KR 2022001347 W KR2022001347 W KR 2022001347W WO 2023145985 A1 WO2023145985 A1 WO 2023145985A1
Authority
WO
WIPO (PCT)
Prior art keywords
controller
display device
peripheral device
user
data
Prior art date
Application number
PCT/KR2022/001347
Other languages
English (en)
French (fr)
Inventor
이동희
김창회
유용우
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2022/001347 priority Critical patent/WO2023145985A1/ko
Publication of WO2023145985A1 publication Critical patent/WO2023145985A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • G10L17/24Interactive procedures; Man-machine interfaces the user being prompted to utter a password or a predefined phrase
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones

Definitions

  • the present disclosure relates to a display device, and more particularly, to voice recognition in a display device.
  • a digital TV service using a wired or wireless communication network is becoming common.
  • the digital TV service can provide various services that could not be provided in the existing analog broadcasting service.
  • IPTV Internet Protocol Television
  • smart TV service provide bi-directionality that allows users to actively select the type of program to watch and the viewing time.
  • IPTV and smart TV services may provide various additional services, such as Internet search, home shopping, and online games, based on this interactive nature.
  • a display device provides a function that allows a user to control the display device by voice. Accordingly, the user can more easily control the display by simply uttering a command.
  • An object of the present disclosure is to provide a display device capable of improving voice recognition performance and an operating method thereof.
  • An object of the present disclosure is to provide a display device capable of improving voice pre-processing performance and an operating method thereof.
  • a display device attempts to recognize a user's voice in consideration of audio recorded or reproduced in a peripheral device.
  • a display device includes a speaker, a wireless communication interface for communicating with peripheral devices, a microphone for recording ambient sound, and a controller for recognizing a user's voice from data recorded by the microphone. User voice recognition may be supplemented using audio data received from the device.
  • the audio data may include at least one of recorded data recorded by a peripheral device and sound source data being reproduced by the peripheral device.
  • the controller When the controller does not interwork with the peripheral device, the controller recognizes the user's voice from the data recorded by the microphone using the first pre-processed data, and when the controller is interlocked with the peripheral device, the second pre-processed data is generated based on the audio data received from the peripheral device. obtained, and the user's voice may be recognized from the data recorded by the microphone using the second pre-processed data.
  • the controller may receive audio data from the movement-detected peripheral device again to correct the second preprocessing data.
  • the controller may detect movement of the peripheral device based on a change in a sensing value of an acceleration sensor provided in the peripheral device.
  • the controller may detect the movement of the peripheral device based on the detection of the decrease in preprocessing performance.
  • the controller can recognize the user's voice from the data recorded by the microphone using the first pre-processed data.
  • the controller may recognize the user's voice from the data recorded by the microphone using the first pre-processed data when a decrease in communication speed is sensed.
  • the controller may synchronize positions and delay times with a peripheral device based on at least one of sound source data being output through a speaker, data recorded by a microphone, and audio data received from a peripheral device.
  • the controller may synchronize the position and delay time by outputting a sample sound corresponding to an inaudible frequency band when there is no sound source being output to the speaker or when synchronization is not performed.
  • the controller may calculate the position of the peripheral device by adjusting the beamforming angle of the microphone.
  • the peripheral device may include at least one of a remote control device that transmits a control signal to the display device, a mobile terminal, and a Bluetooth speaker.
  • the controller may extract a user command from each of the data recorded by the microphone and the data recorded by the peripheral device, and recognize the largest command among the extracted user commands as the user's voice.
  • the controller may extract a user command from each of the data recorded by the microphone and the data recorded by the peripheral device, and recognize a user command matching at least two of the extracted user commands as the user's voice.
  • the controller may supplement user voice recognition using audio data received from a peripheral device.
  • a user's voice can be more accurately distinguished from ambient noise through audio recorded or reproduced in a peripheral device, there is an advantage in that voice recognition performance is improved.
  • FIG. 1 is a block diagram illustrating the configuration of a display device according to an embodiment of the present invention.
  • FIG. 2 is a block diagram of a remote control device according to an embodiment of the present invention.
  • Figure 3 shows an example of the actual configuration of the remote control device according to an embodiment of the present invention.
  • FIG. 4 shows an example of utilizing a remote control device according to an embodiment of the present invention.
  • FIG. 5 is a diagram illustrating a display device and a peripheral device according to an embodiment of the present disclosure.
  • FIG. 6 is a flowchart illustrating a method of operating a display device according to an embodiment of the present disclosure.
  • FIG. 7 is a flowchart illustrating a method for performing supplementation for voice recognition by the display device according to the first embodiment of the present disclosure.
  • a display device is, for example, an intelligent display device in which a computer support function is added to a broadcast reception function, and an Internet function is added while being faithful to the broadcast reception function, such as a handwriting input device, a touch screen Alternatively, a more user-friendly interface such as a space remote control may be provided.
  • a more user-friendly interface such as a space remote control may be provided.
  • functions such as e-mail, web browsing, banking, or game can be performed.
  • a standardized universal OS can be used for these various functions.
  • the display device may be, for example, a network TV, an HBBTV, a smart TV, an LED TV, an OLED TV, and the like, and may also be applied to a smartphone in some cases.
  • FIG. 1 is a block diagram showing the configuration of a display device according to an embodiment of the present invention.
  • the display device 100 includes a broadcast receiver 130, an external device interface 135, a memory 140, a user input interface 150, a controller 170, a wireless communication interface 173, and a microphone. 175, a display 180, a speaker 185, and a power supply circuit 190.
  • the broadcast receiver 130 may include a tuner 131 , a demodulator 132 and a network interface 133 .
  • the tuner 131 may select a specific broadcasting channel according to a channel selection command.
  • the tuner 131 may receive a broadcast signal for a selected specific broadcast channel.
  • the demodulator 132 may separate the received broadcast signal into a video signal, an audio signal, and a data signal related to a broadcast program, and restore the separated video signal, audio signal, and data signal into a form capable of being output.
  • the external device interface 135 may receive an application or an application list in an adjacent external device and transmit the received application to the controller 170 or the memory 140 .
  • the external device interface 135 may provide a connection path between the display device 100 and an external device.
  • the external device interface 135 may receive at least one of video and audio output from an external device connected to the display device 100 by wire or wirelessly, and transmit the received image to the controller 170 .
  • the external device interface 135 may include a plurality of external input terminals.
  • the plurality of external input terminals may include an RGB terminal, one or more High Definition Multimedia Interface (HDMI) terminals, and component terminals.
  • HDMI High Definition Multimedia Interface
  • An image signal of an external device input through the external device interface 135 may be output through the display 180 .
  • a voice signal of an external device input through the external device interface 135 may be output through the speaker 185 .
  • An external device connectable to the external device interface 135 may be any one of a set-top box, a Blu-ray player, a DVD player, a game machine, a sound bar, a smart phone, a PC, a USB memory, and a home theater, but this is only an example.
  • the network interface 133 may provide an interface for connecting the display device 100 to a wired/wireless network including an Internet network.
  • the network interface 133 may transmit or receive data with other users or other electronic devices through a connected network or another network linked to the connected network.
  • some content data stored in the display apparatus 100 may be transmitted to another user pre-registered in the display apparatus 100 or to a user selected from among other electronic devices or to a selected electronic device.
  • the network interface 133 may access a predetermined web page through a connected network or another network linked to the connected network. That is, by accessing a predetermined web page through a network, data can be transmitted or received with a corresponding server.
  • the network interface 133 may receive content or data provided by a content provider or network operator. That is, the network interface 133 may receive content and related information such as movies, advertisements, games, VOD, and broadcast signals provided from content providers or network providers through a network.
  • the network interface 133 may receive firmware update information and an update file provided by a network operator, and may transmit data to the Internet or a content provider or network operator.
  • the network interface 133 may select and receive a desired application among applications open to the public through a network.
  • the memory 140 stores programs for processing and controlling each signal in the controller 170, and may store signal-processed video, audio, or data signals.
  • the memory 140 may perform a function for temporarily storing video, audio, or data signals input from the external device interface 135 or the network interface 133, and through a channel storage function, related to a predetermined image. Information can also be stored.
  • the memory 140 may store an application input from the external device interface 135 or the network interface 133 or an application list.
  • the display device 100 may reproduce and provide content files (video files, still image files, music files, document files, application files, etc.) stored in the memory 140 to the user.
  • content files video files, still image files, music files, document files, application files, etc.
  • the user input interface 150 may transmit a signal input by a user to the controller 170 or may transmit a signal from the controller 170 to the user.
  • the user input interface 150 may be configured according to various communication methods such as Bluetooth, Ultra Wideband (WB), ZigBee, Radio Frequency (RF) communication, or infrared (IR) communication.
  • Control signals such as power on/off, channel selection, and screen setting may be received and processed from the control device 200, or a control signal from the controller 170 may be transmitted to the remote control device 200.
  • the user input interface 150 may transfer a control signal input from a local key (not shown) such as a power key, a channel key, a volume key, and a set value to the controller 170 .
  • a local key such as a power key, a channel key, a volume key, and a set value
  • An image signal processed by the controller 170 may be input to the display 180 and displayed as an image corresponding to the corresponding image signal.
  • the image signal processed by the controller 170 may be input to an external output device through the external device interface 135 .
  • the audio signal processed by the controller 170 may be output as audio through the speaker 185 . Also, the voice signal processed by the controller 170 may be input to an external output device through the external device interface 135 .
  • controller 170 may control overall operations within the display device 100 .
  • controller 170 may control the display device 100 according to a user command input through the user input interface 150 or an internal program, and connects to a network to display an application or application list desired by the user on the display device ( 100) can be downloaded within.
  • the controller 170 allows the channel information selected by the user to be output through the display 180 or the speaker 185 together with the processed video or audio signal.
  • the controller 170 receives a video signal from an external device, for example, a camera or camcorder, input through the external device interface 135 according to an external device video playback command received through the user input interface 150.
  • the audio signal may be output through the display 180 or the speaker 185.
  • the controller 170 may control the display 180 to display an image, for example, a broadcast image input through the tuner 131, an external input image input through the external device interface 135, Alternatively, an image input through the network interface unit or an image stored in the memory 140 may be controlled to be displayed on the display 180 .
  • the image displayed on the display 180 may be a still image or a moving image, and may be a 2D image or a 3D image.
  • the controller 170 can control content stored in the display device 100, received broadcast content, or external input content input from the outside to be reproduced, and the content includes a broadcast video, an external input video, and an audio file. , still images, connected web screens, and document files.
  • the wireless communication interface 173 may perform communication with an external device through wired or wireless communication.
  • the wireless communication interface 173 may perform short range communication with an external device.
  • the wireless communication interface 173 includes BluetoothTM, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, Near Field Communication (NFC), Wi- Short-distance communication may be supported using at least one of Fi (Wireless-Fidelity), Wi-Fi Direct, and Wireless USB (Wireless Universal Serial Bus) technologies.
  • the wireless communication interface 173 may be used between the display device 100 and a wireless communication system, between the display device 100 and other display devices 100, or between the display device 100 through wireless local area networks. Wireless communication between the display device 100 and the network where the external server is located may be supported.
  • the local area network may be a local area wireless personal area network (Wireless Personal Area Networks).
  • the other display device 100 is a wearable device capable of (or interlocking) exchanging data with the display device 100 according to the present invention (for example, a smart watch), smart glasses (smart glass), head mounted display (HMD), and a mobile terminal such as a smart phone.
  • the wireless communication interface 173 may detect (or recognize) a communicable wearable device around the display apparatus 100 .
  • the controller 170 transmits at least a portion of the data processed by the display apparatus 100 through the wireless communication interface 173. It can be transmitted to the wearable device through Accordingly, a user of the wearable device may use data processed by the display apparatus 100 through the wearable device.
  • a microphone 175 may acquire audio.
  • the microphone 175 may include at least one microphone (not shown), and may acquire audio around the display device 100 through the microphone (not shown).
  • the display 180 converts the video signal, data signal, OSD signal processed by the controller 170, or the video signal or data signal received from the external device interface 135 into R, G, and B signals, respectively, to generate driving signals. can create
  • the display device 100 shown in FIG. 1 is only one embodiment of the present invention. Some of the illustrated components may be integrated, added, or omitted according to specifications of the display device 100 that is actually implemented.
  • two or more components may be combined into one component, or one component may be subdivided into two or more components.
  • functions performed in each block are for explaining an embodiment of the present invention, and the specific operation or device does not limit the scope of the present invention.
  • the display device 100 does not include a tuner 131 and a demodulator 132, as shown in FIG. 1, and uses a network interface 133 or an external device interface 135. You can also receive and play video through it.
  • the display device 100 is separated into an image processing device such as a set-top box for receiving content according to a broadcast signal or various network services and a content reproducing device that reproduces content input from the image processing device.
  • an image processing device such as a set-top box for receiving content according to a broadcast signal or various network services
  • a content reproducing device that reproduces content input from the image processing device.
  • a method of operating a display device according to an embodiment of the present invention to be described below includes not only the display device 100 as described with reference to FIG. 1 , but also an image processing device or display 180 such as the separated set-top box ) and a content playback device having an audio output unit 185.
  • FIGS. 2 and 3 a remote control device according to an embodiment of the present invention will be described.
  • Figure 2 is a block diagram of a remote control device according to an embodiment of the present invention
  • Figure 3 shows an example of the actual configuration of the remote control device 200 according to an embodiment of the present invention.
  • the remote control device 200 includes a fingerprint reader 210, a wireless communication circuit 220, a user input interface 230, a sensor 240, an output interface 250, a power supply circuit ( 260), a memory 270, a controller 280, and a microphone 290.
  • the wireless communication circuit 220 transmits and receives signals with any one of the display devices according to the above-described embodiments of the present invention.
  • the remote control device 200 includes an RF circuit 221 capable of transmitting and receiving signals to and from the display device 100 according to RF communication standards, and capable of transmitting and receiving signals to and from the display device 100 according to IR communication standards.
  • An IR circuit 223 may be provided.
  • the remote control device 200 may include a Bluetooth circuit 225 capable of transmitting and receiving signals to and from the display device 100 according to Bluetooth communication standards.
  • the remote control device 200 is provided with an NFC circuit 227 capable of transmitting and receiving signals to and from the display device 100 according to NFC (Near Field Communication) communication standards, and display according to WLAN (Wireless LAN) communication standards.
  • a WLAN circuit 229 capable of transmitting and receiving signals to and from the device 100 may be provided.
  • the remote control device 200 transmits a signal containing information about the movement of the remote control device 200 to the display device 100 through the wireless communication circuit 220 .
  • the remote control device 200 may receive the signal transmitted by the display device 100 through the RF circuit 221, and power on/off the display device 100 through the IR circuit 223 as necessary. Commands for off, channel change, volume change, etc. can be transmitted.
  • the user input interface 230 may include a keypad, buttons, a touch pad, or a touch screen. A user may input a command related to the display device 100 to the remote control device 200 by manipulating the user input interface 230 .
  • the user input interface 230 includes a hard key button, a user may input a command related to the display device 100 to the remote control device 200 through a push operation of the hard key button. This will be described with reference to FIG. 3 .
  • the remote control device 200 may include a plurality of buttons.
  • the plurality of buttons include a fingerprint recognition button 212, a power button 231, a home button 232, a live button 233, an external input button 234, a volume control button 235, a voice recognition button 236, A channel change button 237, an OK button 238, and a back button 239 may be included.
  • the fingerprint recognition button 212 may be a button for recognizing a user's fingerprint.
  • the fingerprint recognition button 212 is capable of a push operation, and thus may receive a push operation and a fingerprint recognition operation.
  • the power button 231 may be a button for turning on/off the power of the display device 100.
  • the home button 232 may be a button for moving to a home screen of the display device 100 .
  • the live button 233 may be a button for displaying a real-time broadcasting program.
  • the external input button 234 may be a button for receiving an external input connected to the display device 100 .
  • the volume control button 235 may be a button for adjusting the volume output from the display device 100 .
  • the voice recognition button 236 may be a button for receiving a user's voice and recognizing the received voice.
  • the channel change button 237 may be a button for receiving a broadcast signal of a specific broadcast channel.
  • the confirmation button 238 may be a button for selecting a specific function, and the back button 239 may be a button for returning to a previous screen.
  • the user input interface 230 When the user input interface 230 includes a touch screen, the user may input a command related to the display device 100 to the remote control device 200 by touching a soft key on the touch screen.
  • the user input interface 230 may include various types of input means that the user can manipulate, such as a scroll key or a jog key, and the present embodiment does not limit the scope of the present invention.
  • the sensor 240 may include a gyro sensor 241 or an acceleration sensor 243 , and the gyro sensor 241 may sense information about movement of the remote control device 200 .
  • the gyro sensor 241 may sense information about the operation of the remote control device 200 based on x, y, and z axes, and the acceleration sensor 243 may sense the moving speed of the remote control device 200. etc. can be sensed.
  • the remote control device 200 may further include a distance measuring sensor, so that the distance between the display device 100 and the display 180 may be sensed.
  • the output interface 250 may output a video or audio signal corresponding to manipulation of the user input interface 230 or a signal transmitted from the display device 100 .
  • the user may recognize whether the user input interface 230 is manipulated or the display device 100 is controlled by the output interface 250 .
  • the output interface 250 includes an LED 251 that lights up when the user input interface 230 is manipulated or a signal is transmitted and received with the display device 100 through the wireless communication unit 225, and a vibrator 253 that generates vibration. ), a speaker 255 that outputs sound, or a display 257 that outputs images.
  • the power supply circuit 260 supplies power to the remote control device 200, and when the remote control device 200 does not move for a predetermined time, power supply is stopped to reduce power waste.
  • the power supply circuit 260 may resume power supply when a predetermined key provided in the remote control device 200 is manipulated.
  • the memory 270 may store various types of programs and application data necessary for controlling or operating the remote control device 200 .
  • the remote control device 200 transmits and receives signals wirelessly through the display device 100 and the RF circuit 221, the remote control device 200 and the display device 100 transmit and receive signals through a predetermined frequency band. .
  • the controller 280 of the remote control device 200 stores information about a frequency band that can wirelessly transmit and receive signals to and from the display device 100 paired with the remote control device 200 in the memory 270 for reference.
  • the controller 280 controls all matters related to the control of the remote control device 200.
  • the controller 280 transmits a signal corresponding to a predetermined key manipulation of the user input interface 230 or a signal corresponding to the movement of the remote control device 200 sensed by the sensor 240 through the wireless communication unit 225 to the display device ( 100) can be transmitted.
  • the microphone 290 of the remote control device 200 may acquire voice.
  • a plurality of microphones 290 may be provided.
  • FIG. 4 shows an example of utilizing a remote control device according to an embodiment of the present invention.
  • FIG. 4 illustrates that the pointer 205 corresponding to the remote control device 200 is displayed on the display 180 .
  • a user may move or rotate the remote control device 200 up and down, left and right.
  • a pointer 205 displayed on the display 180 of the display device 100 corresponds to the movement of the remote control device 200 .
  • such a remote control device 200 may be named a space remote controller because a corresponding pointer 205 is moved and displayed according to movement in a 3D space.
  • FIG. 4 illustrates that when the user moves the remote control device 200 to the left, the pointer 205 displayed on the display 180 of the display device 100 also moves to the left correspondingly.
  • the display device 100 may calculate the coordinates of the pointer 205 from information about the movement of the remote control device 200 .
  • the display device 100 may display a pointer 205 to correspond to the calculated coordinates.
  • FIG. 4 illustrates a case where the user moves the remote control device 200 away from the display 180 while pressing a specific button in the remote control device 200 .
  • a selection area in the display 180 corresponding to the pointer 205 may be zoomed in and displayed enlarged.
  • a selection area within the display 180 corresponding to the pointer 205 may be zoomed out and displayed reduced.
  • the selected area when the remote control device 200 moves away from the display 180, the selected area may be zoomed out, and when the remote control device 200 moves closer to the display 180, the selected area may be zoomed in.
  • a specific button in the remote control device 200 when a specific button in the remote control device 200 is pressed, recognition of vertical and horizontal movement may be excluded. That is, when the remote control device 200 moves away from or approaches the display 180, up, down, left, and right movements are not recognized, and only forward and backward movements may be recognized. In a state in which a specific button in the remote control device 200 is not pressed, only the pointer 205 moves as the remote control device 200 moves up, down, left, or right.
  • the moving speed or moving direction of the pointer 205 may correspond to the moving speed or moving direction of the remote control device 200 .
  • a pointer in this specification refers to an object displayed on the display 180 corresponding to an operation of the remote control device 200 . Therefore, objects of various shapes other than the arrow shape shown in the drawing can be used as the pointer 205 . For example, it may be a concept including a point, a cursor, a prompt, a thick outline, and the like.
  • the pointer 205 may be displayed corresponding to any one point of the horizontal axis and the vertical axis on the display 180, as well as corresponding to multiple points such as a line or a surface. .
  • FIG. 5 is a diagram illustrating a display device and a peripheral device according to an embodiment of the present disclosure.
  • At least one peripheral device 301 , 302 , or 303 may be located around the display device 100 .
  • the peripheral devices 301, 302, and 303 may include at least one microphone and at least one wireless communication module.
  • the peripheral devices 301, 302, and 303 include a Bluetooth speaker 301, a mobile terminal 302 such as a smartphone, and a remote controller 303 that transmits a control signal to the display device 100, such as a remote control.
  • the peripheral device can transmit/receive audio data with the display device 100 and may include various types of electronic devices equipped with microphones.
  • the microphone 175 may be provided on a part of the display device 100 .
  • the microphone 175 may be formed on the exterior of the display device 100 .
  • the microphone 175 may be provided at the bottom of the case surrounding the display 180, but since this is merely an example, it is reasonable that the position of the microphone 175 is not limited.
  • the microphone 175 may record surrounding sounds, and the controller 170 may acquire the recorded data recorded by the microphone 175 and perform user voice recognition on the recorded data. That is, the controller 170 can recognize the user's voice from data recorded by the microphone 175 .
  • the controller 170 may complement user voice recognition using audio data received from the peripheral devices 301, 302, and 303 in order to more accurately recognize the user's voice.
  • the controller 170 may perform user voice recognition to obtain a trigger word, user voice recognition to obtain a command, and the like.
  • the trigger word may be a command that initiates voice recognition.
  • the controller 170 may always supplement user voice recognition when recognizing a user voice.
  • the controller 170 may supplement the user voice recognition when recognizing the user voice after the start word is recognized. Specifically, the controller 170 may not supplement user voice recognition in an operating state for recognizing a start word, but supplement user voice recognition when recognizing a user voice to acquire a user command after recognizing a start word. there is. That is, when the start word is recognized, the controller 170 may complement user voice recognition using audio data received from a peripheral device.
  • the controller 170 performs verification of the startup word when a starter word such as Hi or LG is recognized, and supplements user voice recognition to improve recognition of a command when the starter word verification is completed.
  • FIG. 6 is a flowchart illustrating a method of operating a display device according to an embodiment of the present disclosure.
  • the controller 170 may search for peripheral devices (S10).
  • the controller 170 may search for peripheral devices such as Bluetooth-on devices, Wi-Fi connected devices, or devices registered to the display device 100 .
  • the controller 170 may transmit a signal requesting to control the microphone to be turned on to the searched peripheral device.
  • the peripheral device may control the microphone to be turned on according to the signal received from the display device 100 .
  • the controller 170 may share audio data with the searched peripheral device (S20).
  • the audio data may include at least one of recorded data recorded through a microphone in each of the display apparatus 100 and the peripheral device, and sound source data being reproduced through a speaker.
  • the controller 170 may receive at least one of recorded data recorded by a peripheral device and sound source data being reproduced by the peripheral device through the wireless communication interface 173 .
  • the controller 170 may transmit recorded data recorded with the microphone 175 and sound source data being output through the speaker 185 to at least one peripheral device through the wireless communication interface 173 .
  • the controller 170 may share audio data by transmitting and receiving audio data with the peripheral device.
  • the controller 170 may supplement voice recognition using audio data (S30).
  • FIG. 7 is a flowchart illustrating a method for performing supplementation for voice recognition by the display device according to the first embodiment of the present disclosure.
  • the display apparatus 100 may optimize voice pre-processing by sharing currently recorded data and reproduced data with each other by interoperating with peripheral devices equipped with microphones through a network.
  • FIG. 7 it is assumed that the display device 100 is the master and the peripheral devices are the slaves. However, since this is only for convenience of explanation, it is reasonable not to be limited thereto.
  • the controller 170 may share audio data with a peripheral device (S110).
  • the display device 100 and the peripheral device can mutually share the data of the currently playing sound source and the recorded data recorded by the microphone.
  • the controller 170 may synchronize positions and delay times with the peripheral devices (S120).
  • the controller 170 synchronizes the position and delay time with the peripheral device based on at least one of the sound source data being output to the speaker 185, the recorded data recorded by the microphone 175, and the audio data received from the peripheral device.
  • the controller 170 may calculate the location of the peripheral device by adjusting the beamforming angle of the microphone 175 .
  • the controller 170 performs recording while periodically adjusting the beamforming angle of the microphone 175, and accordingly analyzes the volume of sound output by the peripheral device to recognize the location of the peripheral device.
  • controller 170 may calculate the delay time with the peripheral device by analyzing the time when the sound source is output through the speaker 185 and the time when the sound output from the speaker 185 is recorded in the peripheral device.
  • the display apparatus 100 and the peripheral device may synchronize positions and delay times by mutually recording and sharing a currently reproduced sound source.
  • the controller 170 may output a sample sound corresponding to an inaudible frequency band to perform position and delay time synchronization.
  • the controller 170 may reproduce by periodically adjusting the left and right volumes of the sound source during synchronization. For example, the controller 170 adjusts the left and right volume levels to left 100/right 0, left 75/right 25, left 50/right 50, left 25/right 75, left 0/right 100 at predetermined intervals, and controls the sound source.
  • the sound source whose volume is adjusted can be recorded and transmitted to the display device 100 in a peripheral device.
  • the controller 170 may obtain the location and delay time of each peripheral device by analyzing data recorded by the peripheral device. If the controller 170 outputs a sample sound corresponding to an inaudible frequency band, the controller 170 may analyze the sound source by extracting only the sound source of the frequency band for analysis from the data recorded by the peripheral device.
  • the delay time here means a delay time between actual sound and data according to network transmission, and synchronization may be required.
  • the controller 100 transmits sound source data so that the same sound source as that of the display device 100 is reproduced in a peripheral device, and performs delay time synchronization by analyzing data recorded by the display device 100.
  • the controller 100 may obtain pre-processed data considering sound source data reproduced from a peripheral device.
  • the controller 100 may recognize the user's voice using the obtained preprocessing data.
  • the controller 100 and the peripheral devices transmit and interoperate with each other the sound source data currently being reproduced, so that each can be used for preprocessing.
  • the preprocessed data may be changed unsuitable for user voice recognition due to various factors such as movement of peripheral devices or deterioration in communication speed.
  • the controller 170 may perform an operation for correcting or re-acquiring the pre-processed data, which will be described below.
  • the controller 170 may detect whether the peripheral device is moving (S130).
  • the peripheral device may include an acceleration sensor, and a sensing value of the acceleration sensor may be transmitted to the display device 100 .
  • the controller 170 may detect movement of the peripheral device based on a change in a sensing value of an acceleration sensor provided in the peripheral device.
  • the controller 170 may detect the movement of a peripheral device based on the detection of a decrease in preprocessing performance. Specifically, the controller 170 may calculate the preprocessing performance for each predetermined period and determine whether the calculated preprocessing performance is less than a predetermined reference value. The controller 170 may recognize preprocessing performance as deterioration when the calculated preprocessing performance is less than a predetermined reference value.
  • the controller 170 may detect whether the communication speed is reduced (S140).
  • the steps of detecting the movement of the peripheral device and the step of detecting the decrease in communication speed may be performed in a different order or simultaneously.
  • the controller 170 may perform pre-processing using audio data with the peripheral device when movement of the peripheral device is not detected and a decrease in communication speed is not detected (S150).
  • the controller 170 may perform user voice recognition using preprocessed data obtained through synchronization with the peripheral device when movement of the peripheral device is not detected and a decrease in communication speed is not detected.
  • the controller 170 may calculate the location of the moved peripheral device again, and at this time, the controller 170 may determine whether the location of the peripheral device cannot be recognized (S160). .
  • the controller 170 can share audio data with the peripheral device again to synchronize the position and delay time of the peripheral device whose location has changed.
  • the controller 170 cannot recognize the location of the peripheral device, it can perform pre-processing using each audio data (S170). In addition, the controller 170 may perform pre-processing using each audio data even when a decrease in communication speed is detected (S170).
  • the controller 170 may perform pre-processing using only the audio data of the display device 100 without using the audio data of the peripheral device when the location of the peripheral device cannot be recognized or the communication speed decreases.
  • controller 170 regards peripheral devices that cannot recognize their location as being located in a different space and not interfering with each other's microphones. This is to prevent degradation of
  • the controller 170 recognizes the user's voice from the data recorded by the microphone 175 using the first pre-processed data when location recognition or normal communication is not possible and the controller 170 does not interlock with the peripheral device, and location recognition or normal communication occurs.
  • second pre-processed data may be obtained based on audio data received from the peripheral device, and the user's voice may be recognized from data recorded by the microphone 175 using the second pre-processed data.
  • the first pre-processed data may refer to data for recognizing a user's voice from recorded data of the microphone 175 when only audio data of the display apparatus 100 is considered.
  • the second pre-processed data may refer to data for recognizing a user's voice from recorded data of the microphone 175 when considering audio data of the display apparatus 100 and audio data of at least one peripheral device.
  • the controller 170 recognizes the user's voice from the data recorded by the microphone 175 using the first pre-processed data when the location of the peripheral device cannot be recognized due to the movement of the peripheral device or a decrease in communication speed is detected, When the movement of the peripheral device is detected, the controller 170 may receive audio data from the peripheral device in which the movement is sensed again and correct the second preprocessing data.
  • the display apparatus 100 and the peripheral devices synchronize their positions and delay times, so that each device can filter the sound output from the other devices.
  • the user's voice can be more accurately recognized from the data recorded by the microphone.
  • the controller 170 can accurately recognize the user's voice by filtering the output sound of the peripheral device in the recorded data.
  • the controller 170 may recognize a user's voice based on the size of a command recognized from data recorded in each of the display apparatus 100 and at least one peripheral device.
  • the controller 170 may extract a user command from data recorded by the microphone 175 and data recorded by a peripheral device, and recognize the largest command among the extracted user commands as the user's voice.
  • the controller 170 extracts a user command from data recorded by the microphone 175 and data recorded by a peripheral device, and at least two of the extracted user commands match the user.
  • a command may be recognized as a user's voice.
  • the controller 170 may extract a user command from each of the data recorded by the microphone 175 and the data recorded by the peripheral device, and recognize the most frequently extracted user command as the user's voice.
  • the user's voice is recorded by complementing the recognition content of the device located around the user. There is an advantage of more accurate recognition.
  • beamforming performance may be improved by considering audio data from a peripheral device other than the display device 100 alone. For example, assuming that one device has two microphones, when the two devices operate simultaneously, sound sources can be recorded from various angles through four microphones, and beamforming performance can be improved. That is, since the master device can utilize the microphone of at least one slave device as well as its own microphone, an effect of increasing the number of microphones for remote voice recognition can be expected. In addition, there is an advantage in that pre-processing performance is improved because external sounds that affect voice pre-processing are interlocked with each other.
  • the display device 100 is a main device for recognizing a user's voice and peripheral devices operate to complement user voice recognition in the display device 100, but the opposite may be true. That is, one of the peripheral devices is a main device that recognizes the user's voice, and the other peripheral devices including the display apparatus 100 may operate to complement user voice recognition.
  • the above-described method can be implemented as a processor-readable code in a medium on which a program is recorded.
  • media readable by the processor include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like.
  • the display device described above is not limited to the configuration and method of the above-described embodiments, but the above embodiments may be configured by selectively combining all or part of each embodiment so that various modifications can be made. may be

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 개시는 음성 인식 성능을 향상시킬 수 있는 디스플레이 장치 및 그의 동작 방법을 제공하기 위한 것으로, 스피커, 주변 기기와 통신하는 무선 통신 인터페이스, 주변의 소리를 녹음하는 마이크로폰, 및 마이크로폰이 녹음한 데이터에서 사용자 음성 인식을 수행하는 컨트롤러를 포함하고, 컨트롤러는 주변 기기에서 수신된 오디오 데이터를 이용하여 사용자 음성 인식을 보완할 수 있다.

Description

디스플레이 장치
본 개시는 디스플레이 장치에 관한 것으로, 보다 상세하게는 디스플레이 장치에서의 음성 인식에 관한 것이다.
유선 또는 무선 통신망을 이용한 디지털 TV 서비스가 보편화되고 있다. 디지털 TV 서비스는 기존의 아날로그 방송 서비스에서는 제공할 수 없었던 다양한 서비스를 제공할 수 있다.
예를 들어, 디지털 TV 서비스의 종류인 IPTV(Internet Protocol Television), smart TV 서비스의 경우 사용자로 하여금 시청 프로그램의 종류, 시청 시간 등을 능동적으로 선택할 수 있도록 하는 양방향성을 제공한다. IPTV, smart TV서비스는 이러한 양방향성을 기반으로 하여 다양한 부가 서비스, 예컨대 인터넷 검색, 홈쇼핑, 온라인 게임 등을 제공할 수도 있다.
또한, 최근에는 음성 인식 기술의 발달에 의해 디스플레이 장치는 사용자로 하여금 음성으로 제어할 수 있도록 하는 기능을 제공하고 있다. 이에 따라, 사용자는 명령어를 간단히 발화함으로써 디스플레이를 보다 용이하게 제어하는 것이 가능해졌다.
그런데, 디스플레이 장치가 명령어를 수신하는 동안 디스플레이 장치에서 재생 중인 영상의 사운드를 비롯한 주변 소음으로 인해 명령어가 제대로 인식되지 못하는 문제가 발생하고 있다. 그 밖에도, 명령어를 발화하는 사용자가 디스플레이 장치로부터 멀리 위치하는 등 다양한 요인에 의해 명령어 인식률이 저하되는 문제가 있다.
본 개시는 음성 인식 성능을 향상시킬 수 있는 디스플레이 장치 및 그의 동작 방법을 제공하고자 한다.
본 개시는 음성 전처리 성능을 향상시킬 수 있는 디스플레이 장치 및 그의 동작 방법을 제공하고자 한다.
본 개시의 실시 예에 따른 디스플레이 장치는 주변 기기에서 녹음 또는 재생되는 오디오를 고려하여 사용자 음성을 인식하고자 한다.
본 개시의 실시 예에 따른 디스플레이 장치는 스피커, 주변 기기와 통신하는 무선 통신 인터페이스, 주변의 소리를 녹음하는 마이크로폰, 및 마이크로폰이 녹음한 데이터에서 사용자 음성 인식을 수행하는 컨트롤러를 포함하고, 컨트롤러는 주변 기기에서 수신된 오디오 데이터를 이용하여 사용자 음성 인식을 보완할 수 있다.
오디오 데이터는 주변 기기가 녹음한 녹음 데이터 및 주변 기기에서 재생 중인 음원 데이터 중 적어도 하나를 포함할 수 있다.
컨트롤러는 주변 기기와 연동되지 않는 경우, 제1 전처리 데이터를 이용하여 마이크로폰이 녹음한 데이터에서 사용자 음성을 인식하고, 주변 기기와 연동되는 경우 주변 기기에서 수신된 오디오 데이터에 기초하여 제2 전처리 데이터를 획득하고, 제2 전처리 데이터를 이용하여 마이크로폰이 녹음한 데이터에서 사용자 음성을 인식할 수 있다.
컨트롤러는 주변 기기의 이동이 감지되면, 이동이 감지된 주변 기기로부터 오디오 데이터를 다시 수신하여 제2 전처리 데이터를 수정할 수 있다.
컨트롤러는 주변 기기에 구비된 가속도 센서의 센싱값 변동에 기초하여 주변 기기의 이동을 감지할 수 있다.
컨트롤러는 전처리 성능의 저하 감지에 기초하여 주변 기기의 이동을 감지할 수 있다.
컨트롤러는 주변 기기의 이동에 의해 주변 기기의 위치 인식이 불가하면, 제1 전처리 데이터를 이용하여 마이크로폰이 녹음한 데이터에서 사용자 음성을 인식할 수 있다.
컨트롤러는 통신의 속도 저하가 감지되면, 제1 전처리 데이터를 이용하여 마이크로폰이 녹음한 데이터에서 사용자 음성을 인식할 수 있다.
컨트롤러는 스피커로 출력 중인 음원 데이터, 마이크로폰이 녹음한 데이터 및 주변 기기에서 수신된 오디오 데이터 중 적어도 하나에 기초하여 주변 기기와 상호간에 위치 및 지연 시간을 동기화할 수 있다.
컨트롤러는 스피커로 출력 중인 음원이 없거나, 동기화가 수행되지 않는 경우 비가청 주파수 대역에 해당하는 샘플 사운드를 출력하여 위치 및 지연 시간을 동기화할 수 있다.
컨트롤러는 마이크로폰의 빔포밍 각도를 조절함으로써 주변 기기의 위치를 산출할 수 있다.
주변 기기는 디스플레이 장치로 제어 신호를 전송하는 원격제어장치, 이동 단말기 및 블루투스 스피커 중 적어도 하나를 포함할 수 있다.
컨트롤러는 마이크로폰이 녹음한 데이터와 주변 기기에서 녹음한 데이터 각각에서 사용자 명령어를 추출하고, 추출된 사용자 명령어 중 크기가 가장 큰 명령어를 사용자 음성으로 인식할 수 있다.
컨트롤러는 마이크로폰이 녹음한 데이터와 주변 기기에서 녹음한 데이터 각각에서 사용자 명령어를 추출하고, 추출된 사용자 명령어 중 적어도 2 이상이 일치하는 사용자 명령어를 사용자 음성으로 인식할 수 있다.
컨트롤러는 기동어가 인식되면 주변 기기에서 수신된 오디오 데이터를 이용하여 사용자 음성 인식을 보완할 수 있다.
본 개시의 실시 예에 따르면, 주변 기기에서 녹음 또는 재생되는 오디오를 통해 주변 소음으로부터 사용자 음성을 보다 정확하게 구분 가능하므로, 음성 인식 성능이 향상되는 이점이 있다.
본 개시의 실시 예에 따르면, 주변 기기의 위치 또는 지연 시간을 동기화함으로써, 음성 인식을 위한 전처리 성능이 향상되는 이점이 있다.
도 1은 본 발명의 일 실시 예에 따른 디스플레이 장치의 구성을 블록도로 도시한 것이다.
도 2은 본 발명의 일 실시 예에 따른 원격제어장치의 블록도이다.
도 3은 본 발명의 일 실시 예에 따른 원격제어장치의 실제 구성 예를 보여준다.
도 4는 본 발명의 실시 예에 따라 원격 제어 장치를 활용하는 예를 보여준다.
도 5는 본 개시의 실시 예에 따른 디스플레이 장치와 주변 기기가 도시된 도면이다.
도 6은 본 개시의 실시 예에 따른 디스플레이 장치의 동작 방법이 도시된 순서도이다.
도 7은 본 개시의 제1 실시 예에 따른 디스플레이 장치가 음성 인식에 대한 보완을 수행하는 방법이 도시된 순서도이다.
이하, 본 발명과 관련된 실시 예에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 “인터페이스”, "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
본 발명의 실시예에 따른 디스플레이 장치는, 예를 들어 방송 수신 기능에 컴퓨터 지원 기능을 추가한 지능형 디스플레이 장치로서, 방송 수신 기능에 충실하면서도 인터넷 기능 등이 추가되어, 수기 방식의 입력 장치, 터치 스크린 또는 공간 리모콘 등 보다 사용에 편리한 인터페이스를 갖출 수 있다. 그리고, 유선 또는 무선 인터넷 기능의 지원으로 인터넷 및 컴퓨터에 접속되어, 이메일, 웹브라우징, 뱅킹 또는 게임 등의 기능도 수행가능하다. 이러한 다양한 기능을 위해 표준화된 범용 OS가 사용될 수 있다.
따라서, 본 발명에서 기술되는 디스플레이 장치는, 예를 들어 범용의 OS 커널 상에, 다양한 애플리케이션이 자유롭게 추가되거나 삭제 가능하므로, 사용자 친화적인 다양한 기능이 수행될 수 있다. 상기 디스플레이 장치는, 보다 구체적으로 예를 들면, 네트워크 TV, HBBTV, 스마트 TV, LED TV, OLED TV 등이 될 수 있으며, 경우에 따라 스마트폰에도 적용 가능하다.
도 1은 본 발명의 일 실시예에 따른 디스플레이 장치의 구성을 블록도로 도시한 것이다.
도 1을 참조하면, 디스플레이 장치(100)는 방송 수신부(130), 외부장치 인터페이스(135), 메모리(140), 사용자입력 인터페이스(150), 컨트롤러(170), 무선 통신 인터페이스(173), 마이크로폰(175), 디스플레이(180), 스피커(185), 전원 공급 회로(190)를 포함할 수 있다.
방송 수신부(130)는 튜너(131), 복조기(132) 및 네트워크 인터페이스(133)를 포함할 수 있다.
튜너(131)는 채널 선국 명령에 따라 특정 방송 채널을 선국할 수 있다. 튜너(131)는 선국된 특정 방송 채널에 대한 방송 신호를 수신할 수 있다.
복조기(132)는 수신한 방송 신호를 비디오 신호, 오디오 신호, 방송 프로그램과 관련된 데이터 신호로 분리할 수 있고, 분리된 비디오 신호, 오디오 신호 및 데이터 신호를 출력이 가능한 형태로 복원할 수 있다.
외부장치 인터페이스(135)는 인접하는 외부 장치 내의 애플리케이션 또는 애플리케이션 목록을 수신하여, 컨트롤러(170) 또는 메모리(140)로 전달할 수 있다.
외부장치 인터페이스(135)는 디스플레이 장치(100)와 외부 장치 간의 연결 경로를 제공할 수 있다. 외부장치 인터페이스(135)는 디스플레이 장치(100)에 무선 또는 유선으로 연결된 외부장치로부터 출력된 영상, 오디오 중 하나 이상을 수신하여, 컨트롤러(170)로 전달할 수 있다. 외부장치 인터페이스(135)는 복수의 외부 입력 단자들을 포함할 수 있다. 복수의 외부 입력 단자들은 RGB 단자, 하나 이상의 HDMI(High Definition Multimedia Interface) 단자, 컴포넌트(Component) 단자를 포함할 수 있다.
외부장치 인터페이스(135)를 통해 입력된 외부장치의 영상 신호는 디스플레이(180)를 통해 출력될 수 있다. 외부장치 인터페이스(135)를 통해 입력된 외부장치의 음성 신호는 스피커(185)를 통해 출력될 수 있다.
외부장치 인터페이스(135)에 연결 가능한 외부 장치는 셋톱박스, 블루레이 플레이어, DVD 플레이어, 게임기, 사운드 바, 스마트폰, PC, USB 메모리, 홈 씨어터 중 어느 하나일 수 있으나, 이는 예시에 불과하다.
네트워크 인터페이스(133)는 디스플레이 장치(100)를 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공할 수 있다. 네트워크 인터페이스(133)는 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 다른 사용자 또는 다른 전자 기기와 데이터를 송신 또는 수신할 수 있다.
또한, 디스플레이 장치(100)에 미리 등록된 다른 사용자 또는 다른 전자 기기 중 선택된 사용자 또는 선택된 전자기기에, 디스플레이 장치(100)에 저장된 일부의 컨텐츠 데이터를 송신할 수 있다.
네트워크 인터페이스(133)는 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 소정 웹 페이지에 접속할 수 있다. 즉, 네트워크를 통해 소정 웹 페이지에 접속하여, 해당 서버와 데이터를 송신 또는 수신할 수 있다.
그리고, 네트워크 인터페이스(133)는 컨텐츠 제공자 또는 네트워크 운영자가 제공하는 컨텐츠 또는 데이터들을 수신할 수 있다. 즉, 네트워크 인터페이스(133)는 네트워크를 통하여 컨텐츠 제공자 또는 네트워크 제공자로부터 제공되는 영화, 광고, 게임, VOD, 방송 신호 등의 컨텐츠 및 그와 관련된 정보를 수신할 수 있다.
또한, 네트워크 인터페이스(133)는 네트워크 운영자가 제공하는 펌웨어의 업데이트 정보 및 업데이트 파일을 수신할 수 있으며, 인터넷 또는 컨텐츠 제공자 또는 네트워크 운영자에게 데이터들을 송신할 수 있다.
네트워크 인터페이스(133)는 네트워크를 통해, 공중에 공개(open)된 애플리케이션들 중 원하는 애플리케이션을 선택하여 수신할 수 있다.
메모리(140)는 컨트롤러(170) 내의 각 신호 처리 및 제어를 위한 프로그램이 저장하고, 신호 처리된 영상, 음성 또는 데이터신호를 저장할 수 있다.
또한, 메모리(140)는 외부장치 인터페이스(135) 또는 네트워크 인터페이스(133)로부터 입력되는 영상, 음성, 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있으며, 채널 기억 기능을 통하여 소정 이미지에 관한 정보를 저장할 수도 있다.
메모리(140)는 외부장치 인터페이스(135) 또는 네트워크 인터페이스(133)로부터 입력되는 애플리케이션 또는 애플리케이션 목록을 저장할 수 있다.
디스플레이 장치(100)는 메모리(140) 내에 저장되어 있는 컨텐츠 파일(동영상 파일, 정지영상 파일, 음악 파일, 문서 파일, 애플리케이션 파일 등)을 재생하여 사용자에게 제공할 수 있다.
사용자입력 인터페이스(150)는 사용자가 입력한 신호를 컨트롤러(170)로 전달하거나, 컨트롤러(170)로부터의 신호를 사용자에게 전달할 수 있다. 예를 들어, 사용자입력 인터페이스(150)는 블루투스(Bluetooth), WB(Ultra Wideband), 지그비(ZigBee) 방식, RF(Radio Frequency) 통신 방식 또는 적외선(IR) 통신 방식 등 다양한 통신 방식에 따라, 원격제어장치(200)로부터 전원 온/오프, 채널 선택, 화면 설정 등의 제어 신호를 수신하여 처리하거나, 컨트롤러(170)로부터의 제어 신호를 원격제어장치(200)로 송신하도록 처리할 수 있다.
또한, 사용자입력 인터페이스(150)는, 전원키, 채널키, 볼륨키, 설정치 등의 로컬키(미도시)에서 입력되는 제어 신호를 컨트롤러(170)에 전달할 수 있다.
컨트롤러(170)에서 영상 처리된 영상 신호는 디스플레이(180)로 입력되어 해당 영상 신호에 대응하는 영상으로 표시될 수 있다. 또한, 컨트롤러(170)에서 영상 처리된 영상 신호는 외부장치 인터페이스(135)를 통하여 외부 출력장치로 입력될 수 있다.
컨트롤러(170)에서 처리된 음성 신호는 스피커(185)로 오디오 출력될 수 있다. 또한, 컨트롤러(170)에서 처리된 음성 신호는 외부장치 인터페이스(135)를 통하여 외부 출력장치로 입력될 수 있다.
그 외, 컨트롤러(170)는, 디스플레이 장치(100) 내의 전반적인 동작을 제어할 수 있다.
또한, 컨트롤러(170)는 사용자입력 인터페이스(150)를 통하여 입력된 사용자 명령 또는 내부 프로그램에 의하여 디스플레이 장치(100)를 제어할 수 있으며, 네트워크에 접속하여 사용자가 원하는 애플리케이션 또는 애플리케이션 목록을 디스플레이 장치(100) 내로 다운받을 수 있도록 할 수 있다.
컨트롤러(170)는 사용자가 선택한 채널 정보 등이 처리한 영상 또는 음성신호와 함께 디스플레이(180) 또는 스피커(185)를 통하여 출력될 수 있도록 한다.
또한, 컨트롤러(170)는 사용자입력 인터페이스(150)를 통하여 수신한 외부장치 영상 재생 명령에 따라, 외부장치 인터페이스(135)를 통하여 입력되는 외부 장치, 예를 들어, 카메라 또는 캠코더로부터의, 영상 신호 또는 음성 신호가 디스플레이(180) 또는 스피커(185)를 통해 출력될 수 있도록 한다.
한편, 컨트롤러(170)는 영상을 표시하도록 디스플레이(180)를 제어할 수 있으며, 예를 들어 튜너(131)를 통해 입력되는 방송 영상, 또는 외부장치 인터페이스(135)를 통해 입력되는 외부 입력 영상, 또는 네트워크 인터페이스부를 통해 입력되는 영상, 또는 메모리(140)에 저장된 영상이 디스플레이(180)에서 표시되도록 제어할 수 있다. 이 경우, 디스플레이(180)에 표시되는 영상은 정지 영상 또는 동영상일 수 있으며, 2D 영상 또는 3D 영상일 수 있다.
또한, 컨트롤러(170)는 디스플레이 장치(100) 내에 저장된 컨텐츠, 또는 수신된 방송 컨텐츠, 외부로 부터 입력되는 외부 입력 컨텐츠가 재생되도록 제어할 수 있으며, 상기 컨텐츠는 방송 영상, 외부 입력 영상, 오디오 파일, 정지 영상, 접속된 웹 화면, 및 문서 파일 등 다양한 형태일 수 있다.
무선 통신 인터페이스(173)는 유선 또는 무선 통신을 통해 외부 기기와 통신을 수행할 수 있다. 무선 통신 인터페이스(173)는 외부 기기와 근거리 통신(Short range communication)을 수행할 수 있다. 이를 위해, 무선 통신 인터페이스(173)는 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다. 이러한, 무선 통신 인터페이스(173)는 근거리 무선 통신망(Wireless Area Networks)을 통해 디스플레이 장치(100)와 무선 통신 시스템 사이, 디스플레이 장치(100)와 다른 디스플레이 장치(100) 사이, 또는 디스플레이 장치(100)와 디스플레이 장치(100, 또는 외부서버)가 위치한 네트워크 사이의 무선 통신을 지원할 수 있다. 근거리 무선 통신망은 근거리 무선 개인 통신망(Wireless Personal Area Networks)일 수 있다.
여기에서, 다른 디스플레이 장치(100)는 본 발명에 따른 디스플레이 장치(100)와 데이터를 상호 교환하는 것이 가능한(또는 연동 가능한) 웨어러블 디바이스(wearable device, 예를 들어, 스마트워치(smartwatch), 스마트 글래스(smart glass), HMD(head mounted display)), 스마트 폰과 같은 이동 단말기가 될 수 있다. 무선 통신 인터페이스(173)는 디스플레이 장치(100) 주변에, 통신 가능한 웨어러블 디바이스를 감지(또는 인식)할 수 있다.
나아가, 컨트롤러(170)는 감지된 웨어러블 디바이스가 본 발명에 따른 디스플레이 장치(100)와 통신하도록 인증된 디바이스인 경우, 디스플레이 장치(100)에서 처리되는 데이터의 적어도 일부를, 무선 통신 인터페이스(173)를 통해 웨어러블 디바이스로 송신할 수 있다. 따라서, 웨어러블 디바이스의 사용자는, 디스플레이 장치(100)에서 처리되는 데이터를, 웨어러블 디바이스를 통해 이용할 수 있다.
마이크로폰(175)는 오디오를 획득할 수 있다. 마이크로폰(175)는 적어도 하나의 마이크(미도시)를 포함할 수 있고, 마이크(미도시)를 통해 디스플레이 장치(100) 주변의 오디오를 획득할 수 있다.
디스플레이(180)는 컨트롤러(170)에서 처리된 영상 신호, 데이터 신호, OSD 신호 또는 외부장치 인터페이스(135)에서 수신되는 영상 신호, 데이터 신호 등을 각각 R,G,B 신호로 변환하여 구동 신호를 생성할 수 있다.
한편, 도 1에 도시된 디스플레이 장치(100)는 본 발명의 일실시예에 불과하므로. 도시된 구성요소들 중 일부는 실제 구현되는 디스플레이 장치(100)의 사양에 따라 통합, 추가, 또는 생략될 수 있다.
즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 본 발명의 실시예를 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.
본 발명의 또 다른 실시예에 따르면, 디스플레이 장치(100)는 도 1에 도시된 바와 달리, 튜너(131)와 복조기(132)를 구비하지 않고 네트워크 인터페이스(133) 또는 외부장치 인터페이스(135)를 통해서 영상을 수신하여 재생할 수도 있다.
예를 들어, 디스플레이 장치(100)는 방송 신호 또는 다양한 네트워크 서비스에 따른 컨텐츠들을 수신하기 위한 등과 같은 셋탑 박스 등과 같은 영상 처리 장치와 상기 영상 처리 장치로부터 입력되는 컨텐츠를 재생하는 컨텐츠 재생 장치로 분리되어 구현될 수 있다.
이 경우, 이하에서 설명할 본 발명의 실시예에 따른 디스플레이 장치의 동작 방법은 도 1을 참조하여 설명한 바와 같은 디스플레이 장치(100)뿐 아니라, 상기 분리된 셋탑 박스 등과 같은 영상 처리 장치 또는 디스플레이(180) 및 오디오출력부(185)를 구비하는 컨텐츠 재생 장치 중 어느 하나에 의해 수행될 수도 있다.
다음으로, 도 2 내지 도 3을 참조하여, 본 발명의 일 실시 예에 따른 원격제어장치에 대해 설명한다.
도 2은 본 발명의 일 실시 예에 따른 원격제어장치의 블록도이고, 도 3은 본발명의 일 실시 예에 따른 원격제어장치(200)의 실제 구성 예를 보여준다.
먼저, 도 2를 참조하면, 원격제어장치(200)는 지문인식기(210), 무선통신회로(220), 사용자 입력 인터페이스(230), 센서(240), 출력 인터페이스(250), 전원공급회로(260), 메모리(270), 컨트롤러(280), 마이크로폰(290)를 포함할 수 있다.
도 2을 참조하면, 무선통신회로(220)는 전술하여 설명한 본 발명의 실시 예들에 따른 디스플레이 장치 중 임의의 어느 하나와 신호를 송수신한다.
원격제어장치(200)는 RF 통신규격에 따라 디스플레이 장치(100)와 신호를 송수신할 수 있는 RF 회로(221)을 구비하며, IR 통신규격에 따라 디스플레이 장치(100)와 신호를 송수신할 수 있는 IR 회로(223)을 구비할 수 있다. 또한, 원격제어장치(200)는 블루투스 통신규격에 따라 디스플레이 장치(100)와 신호를 송수신할 수 있는 블루투스 회로(225)를 구비할 수 있다. 또한, 원격제어장치(200)는 NFC(Near Field Communication) 통신 규격에 따라 디스플레이 장치(100)와 신호를 송수할 수 있는 NFC 회로(227)을 구비하며, WLAN(Wireless LAN) 통신 규격에 따라 디스플레이 장치(100)와 신호를 송수신할 수 있는 WLAN 회로(229)을 구비할 수 있다.
또한, 원격제어장치(200)는 디스플레이 장치(100)로 원격제어장치(200)의 움직임 등에 관한 정보가 담긴 신호를 무선통신회로(220)를 통해 전송한다.
한편, 원격제어장치(200)는 디스플레이 장치(100)가 전송한 신호를 RF 회로(221)을 통하여 수신할 수 있으며, 필요에 따라 IR 회로(223)을 통하여 디스플레이 장치(100)로 전원 온/오프, 채널 변경, 볼륨 변경 등에 관한 명령을 전송할 수 있다.
사용자 입력 인터페이스(230)는 키패드, 버튼, 터치 패드, 또는 터치 스크린 등으로 구성될 수 있다. 사용자는 사용자 입력 인터페이스(230)를 조작하여 원격제어장치(200)으로 디스플레이 장치(100)와 관련된 명령을 입력할 수 있다. 사용자 입력 인터페이스(230)가 하드키 버튼을 구비할 경우 사용자는 하드키 버튼의 푸쉬 동작을 통하여 원격제어장치(200)으로 디스플레이 장치(100)와 관련된 명령을 입력할 수 있다. 이에 대해서는 도 3을 참조하여 설명한다.
도 3을 참조하면, 원격제어장치(200)는 복수의 버튼을 포함할 수 있다. 복수의 버튼은 지문 인식 버튼(212), 전원 버튼(231), 홈 버튼(232), 라이브 버튼(233), 외부 입력 버튼(234), 음량 조절 버튼(235), 음성 인식 버튼(236), 채널 변경 버튼(237), 확인 버튼(238) 및 뒤로 가기 버튼(239)을 포함할 수 있다.
지문 인식 버튼(212)은 사용자의 지문을 인식하기 위한 버튼일 수 있다. 일 실시예로, 지문 인식 버튼(212)은 푸쉬 동작이 가능하여, 푸쉬 동작 및 지문 인식 동작을 수신할 수도 있다.
전원 버튼(231)은 디스플레이 장치(100)의 전원을 온/오프 하기 위한 버튼일 수 있다.
홈 버튼(232)은 디스플레이 장치(100)의 홈 화면으로 이동하기 위한 버튼일 수 있다.
라이브 버튼(233)은 실시간 방송 프로그램을 디스플레이 하기 위한 버튼일 수 있다.
외부 입력 버튼(234)은 디스플레이 장치(100)에 연결된 외부 입력을 수신하기 위한 버튼일 수 있다.
음량 조절 버튼(235)은 디스플레이 장치(100)가 출력하는 음량의 크기를 조절하기 위한 버튼일 수 있다.
음성 인식 버튼(236)은 사용자의 음성을 수신하고, 수신된 음성을 인식하기 위한 버튼일 수 있다.
채널 변경 버튼(237)은 특정 방송 채널의 방송 신호를 수신하기 위한 버튼일 수 있다.
확인 버튼(238)은 특정 기능을 선택하기 위한 버튼일 수 있고, 뒤로 가기 버튼(239)은 이전 화면으로 되돌아가기 위한 버튼일 수 있다.
다시 도 2를 설명한다.
사용자 입력 인터페이스(230)가 터치스크린을 구비할 경우 사용자는 터치스크린의 소프트키를 터치하여 원격제어장치(200)로 디스플레이 장치(100)와 관련된 명령을 입력할 수 있다. 또한, 사용자 입력 인터페이스(230)는 스크롤 키나, 조그 키 등 사용자가 조작할 수 있는 다양한 종류의 입력수단을 구비할 수 있으며 본 실시 예는 본 발명의 권리범위를 제한하지 아니한다.
센서(240)는 자이로 센서(241) 또는 가속도 센서(243)를 구비할 수 있으며, 자이로 센서(241)는 원격제어장치(200)의 움직임에 관한 정보를 센싱할 수 있다.
예를 들어, 자이로 센서(241)는 원격제어장치(200)의 동작에 관한 정보를 x,y,z 축을 기준으로 센싱할 수 있으며, 가속도 센서(243)는 원격제어장치(200)의 이동속도 등에 관한 정보를 센싱할 수 있다. 한편, 원격제어장치(200)는 거리측정센서를 더 구비할 수 있어, 디스플레이 장치(100)의 디스플레이(180)와의 거리를 센싱할 수 있다.
출력 인터페이스(250)는 사용자 입력 인터페이스(230)의 조작에 대응하거나 디스플레이 장치(100)에서 전송한 신호에 대응하는 영상 또는 음성 신호를 출력할 수 있다.
사용자는 출력 인터페이스(250)를 사용자 입력 인터페이스(230)의 조작 여부 또는 디스플레이 장치(100)의 제어 여부를 인지할 수 있다.
예를 들어, 출력 인터페이스(250)는 사용자 입력 인터페이스(230)가 조작되거나 무선 통신부(225)를 통하여 디스플레이 장치(100)와 신호가 송수신되면 점등되는 LED(251), 진동을 발생하는 진동기(253), 음향을 출력하는 스피커(255), 또는 영상을 출력하는 디스플레이(257)을 구비할 수 있다.
또한, 전원공급회로(260)는 원격제어장치(200)으로 전원을 공급하며, 원격제어장치(200)이 소정 시간 동안 움직이지 않은 경우 전원 공급을 중단함으로서 전원 낭비를 줄일 수 있다.
전원공급회로(260)는 원격제어장치(200)에 구비된 소정 키가 조작된 경우에 전원 공급을 재개할 수 있다.
메모리(270)는 원격제어장치(200)의 제어 또는 동작에 필요한 여러 종류의 프로그램, 애플리케이션 데이터 등이 저장될 수 있다.
원격제어장치(200)가 디스플레이 장치(100)와 RF 회로(221)을 통하여 무선으로 신호를 송수신할 경우, 원격제어장치(200)과 디스플레이 장치(100)는 소정 주파수 대역을 통하여 신호를 송수신한다.
원격제어장치(200)의 컨트롤러(280)는 원격제어장치(200)과 페어링된 디스플레이 장치(100)와 신호를 무선으로 송수신할 수 있는 주파수 대역 등에 관한 정보를 메모리(270)에 저장하고 참조할 수 있다.
컨트롤러(280)는 원격제어장치(200)의 제어에 관련된 제반사항을 제어한다. 컨트롤러(280)는 사용자 입력 인터페이스(230)의 소정 키 조작에 대응하는 신호 또는 센서(240)에서 센싱한 원격제어장치(200)의 움직임에 대응하는 신호를 무선 통신부(225)를 통하여 디스플레이 장치(100)로 전송할 수 있다.
또한, 원격제어장치(200)의 마이크로폰(290)은 음성을 획득할 수 있다.
마이크로폰(290)는 복수 개로 구비될 수 있다.
다음으로 도 4를 설명한다.
도 4는 본 발명의 실시 예에 따라 원격 제어 장치를 활용하는 예를 보여준다.
도 4의 (a)는 원격 제어 장치(200)에 대응하는 포인터(205)가 디스플레이(180)에 표시되는 것을 예시한다.
사용자는 원격 제어 장치(200)를 상하, 좌우로 움직이거나 회전할 수 있다. 디스플레이 장치(100)의 디스플레이(180)에 표시된 포인터(205)는 원격 제어 장치(200)의 움직임에 대응한다. 이러한 원격 제어 장치(200)는, 도면과 같이, 3D 공간 상의 움직임에 따라 해당 포인터(205)가 이동되어 표시되므로, 공간 리모콘이라 명명할 수 있다.
도 4의 (b)는 사용자가 원격 제어 장치(200)를 왼쪽으로 이동하면, 디스플레이 장치(100)의 디스플레이(180)에 표시된 포인터(205)도 이에 대응하여 왼쪽으로 이동하는 것을 예시한다.
원격 제어 장치(200)의 센서를 통하여 감지된 원격 제어 장치(200)의 움직임에 관한 정보는 디스플레이 장치(100)로 전송된다. 디스플레이 장치(100)는 원격 제어 장치(200)의 움직임에 관한 정보로부터 포인터(205)의 좌표를 산출할 수 있다. 디스플레이 장치(100)는 산출한 좌표에 대응하도록 포인터(205)를 표시할 수 있다.
도 4의 (c)는, 원격 제어 장치(200) 내의 특정 버튼을 누른 상태에서, 사용자가 원격 제어 장치(200)를 디스플레이(180)에서 멀어지도록 이동하는 경우를 예시한다. 이에 의해, 포인터(205)에 대응하는 디스플레이(180) 내의 선택 영역이 줌인되어 확대 표시될 수 있다.
이와 반대로, 사용자가 원격 제어 장치(200)를 디스플레이(180)에 가까워지도록 이동하는 경우, 포인터(205)에 대응하는 디스플레이(180) 내의 선택 영역이 줌아웃되어 축소 표시될 수 있다.
한편, 원격 제어 장치(200)가 디스플레이(180)에서 멀어지는 경우, 선택 영역이 줌아웃되고, 원격 제어 장치(200)가 디스플레이(180)에 가까워지는 경우, 선택 영역이 줌인될 수도 있다.
또한, 원격 제어 장치(200) 내의 특정 버튼을 누른 상태에서는 상하, 좌우 이동의 인식이 배제될 수 있다. 즉, 원격 제어 장치(200)가 디스플레이(180)에서 멀어지거나 접근하도록 이동하는 경우, 상, 하, 좌, 우 이동은 인식되지 않고, 앞뒤 이동만 인식되도록 할 수 있다. 원격 제어 장치(200) 내의 특정 버튼을 누르지 않은 상태에서는, 원격 제어 장치(200)의 상, 하, 좌, 우 이동에 따라 포인터(205)만 이동하게 된다.
한편, 포인터(205)의 이동속도나 이동방향은 원격 제어 장치(200)의 이동속도나 이동방향에 대응할 수 있다.
한편, 본 명세서에서의 포인터는, 원격 제어 장치(200)의 동작에 대응하여, 디스플레이(180)에 표시되는 오브젝트를 의미한다. 따라서, 포인터(205)로 도면에 도시된 화살표 형상 외에 다양한 형상의 오브젝트가 가능하다. 예를 들어, 점, 커서, 프롬프트, 두꺼운 외곽선 등을 포함하는 개념일 수 있다. 그리고, 포인터(205)가 디스플레이(180) 상의 가로축과 세로축 중 어느 한 지점(point)에 대응하여 표시되는 것은 물론, 선(line), 면(surface) 등 복수 지점에 대응하여 표시되는 것도 가능하다.
도 5는 본 개시의 실시 예에 따른 디스플레이 장치와 주변 기기가 도시된 도면이다.
디스플레이 장치(100)의 주변에 적어도 하나의 주변 기기(301)(302)(303)가 위치할 수 있다. 주변 기기(301)(302)(303)는 적어도 하나의 마이크로폰 및 적어도 하나의 무선 통신 모듈을 구비할 수 있다. 주변 기기(301)(302)(303)는 블루투스 스피커(301), 스마트폰 등과 같은 이동 단말기(302) 및 리모컨 등과 같이 디스플레이 장치(100)로 제어 신호를 전송하는 원격제어장치(303)를 포함할 수 있고, 이 밖에도 주변 기기는 디스플레이 장치(100)와 오디오 데이터를 송수신 가능하며, 마이크로폰을 구비한 다양한 종류의 전자 기기를 포함할 수 있다.
마이크로폰(175)은 디스플레이 장치(100)의 일부에 구비될 수 있다. 특히, 마이크로폰(175)은 디스플레이 장치(100)의 외관에 형성될 수 있다. 예를 들어, 마이크로폰(175)은 디스플레이(180)를 감싸는 케이스의 하단에 구비될 수 있으나, 이는 예시적인 것에 불과하므로, 마이크로폰(175)의 위치에 제한되지 않음이 타당하다.
마이크로폰(175)은 주변의 소리를 녹음하고, 컨트롤러(170)는 마이크로폰(175)이 녹음한 녹음 데이터를 획득하고, 녹음 데이터에서 사용자 음성 인식을 수행할 수 있다. 즉, 컨트롤러(170)는 마이크로폰(175)의 녹음 데이터에서 사용자 음성을 인식할 수 있다.
본 개시의 실시 예에 따르면, 컨트롤러(170)는 사용자 음성을 보다 정확하게 인식하기 위해 주변 기기(301)(302)(303)에서 수신된 오디오 데이터를 이용하여 사용자 음성 인식을 보완할 수 있다.
컨트롤러(170)는 기동어를 획득하기 위한 사용자 음성 인식, 명령어를 획득하기 위한 사용자 음성 인식 등을 수행할 수 있다. 기동어는 음성 인식을 개시하는 명령어일 수 있다.
일 실시 예에 따르면, 컨트롤러(170)는 사용자 음성 인식시 항상 사용자 음성 인식의 보완을 수행할 수 있다.
다른 실시 예에 따르면, 컨트롤러(170)는 기동어가 인식된 후 사용자 음성 인식시 사용자 음성 인식의 보완을 수행할 수 있다. 구체적으로, 컨트롤러(170)는 기동어를 인식하기 위한 동작 상태에서는 사용자 음성 인식의 보완을 수행하지 않고, 기동어 인식 후 사용자 명령어를 획득하기 위한 사용자 음성 인식시 사용자 음성 인식의 보완을 수행할 수 있다. 즉, 컨트롤러(170)는 기동어가 인식되면 주변 기기에서 수신된 오디오 데이터를 이용하여 사용자 음성 인식을 보완할 수 있다.
예를 들어, 컨트롤러(170)는 Hi, LG와 같은 기동어가 인식되면, 기동어에 대한 검증을 수행하고, 기동어 검증이 완료되면 명령어에 대한 인식을 향상하기 위한 사용자 음성 인식의 보완을 수행할 수 있다.
도 6은 본 개시의 실시 예에 따른 디스플레이 장치의 동작 방법이 도시된 순서도이다.
컨트롤러(170)는 주변 기기를 검색할 수 있다(S10).
컨트롤러(170)는 블루투스 온 기기, 와이파이 연결 기기 또는 디스플레이 장치(100)에 등록된 기기 등 주변 기기를 검색할 수 있다.
컨트롤러(170)는 검색된 주변 기기로 마이크로폰을 온으로 제어하도록 요청하는 신호를 전송할 수 있다. 주변 기기는 디스플레이 장치(100)에서 수신된 신호에 따라 마이크로폰을 온으로 제어할 수 잇다.
컨트롤러(170)는 검색된 주변 기기와 오디오 데이터를 공유할 수 있다(S20).
오디오 데이터는 디스플레이 장치(100) 및 주변 기기 각각에서 마이크로폰을 통해 녹음한 녹음 데이터 및 스피커를 통해 재생 중인 음원 데이터 중 적어도 하나를 포함할 수 있다.
컨트롤러(170)는 주변 기기가 녹음한 녹음 데이터 및 주변 기기에서 재생 중인 음원 데이터 중 적어도 하나를 무선 통신 인터페이스(173)를 통해 수신할 수 있다. 또한, 컨트롤러(170)는 마이크로폰(175)으로 녹음한 녹음 데이터 및 스피커(185)를 통해 출력 중인 음원 데이터를 무선 통신 인터페이스(173)를 통해 적어도 하나의 주변 기기로 전송할 수 있다.
이와 같이, 컨트롤러(170)는 주변 기기와 오디오 데이터를 송수신함으로써 오디오 데이터를 공유할 수 있다.
컨트롤러(170)는 오디오 데이터를 이용하여 음성 인식에 대한 보완을 수행할 수 있다(S30).
다음으로, 본 개시의 다양한 실시 예에 따른 디스플레이 장치가 음성 인식에 대한 보완을 수행하는 방법을 설명한다.
도 7은 본 개시의 제1 실시 예에 따른 디스플레이 장치가 음성 인식에 대한 보완을 수행하는 방법이 도시된 순서도이다.
제1 실시 예에 따르면, 디스플레이 장치(100)는 마이크로폰이 탑재된 주변 기기들과 네트워크를 통해 연동함으로써, 상호간에 현재 녹음되는 데이터와 재생하는 데이터를 공유하여 음성 전처리를 최적화할 수 있다.
도 7에서, 디스플레이 장치(100)가 master이고, 주변 기기가 slave인 것으로 가정하나, 이는 설명의 편의를 위한 것에 불과하므로 이에 제한되지 않음이 타당하다.
컨트롤러(170)는 주변 기기와 오디오 데이터를 공유할 수 있다(S110).
즉, 디스플레이 장치(100)와 주변 기기는 현재 재생 중인 음원의 데이터와 마이크로폰에서 녹음한 녹음 데이터를 상호 간에 공유할 수 있다.
컨트롤러(170)는 주변 기기와 상호간에 위치 및 지연 시간을 동기화할 수 있다(S120).
컨트롤러(170)는 스피커(185)로 출력 중인 음원 데이터, 마이크로폰(175)이 녹음한 녹음 데이터 및 주변 기기에서 수신된 오디오 데이터 중 적어도 하나에 기초하여 주변 기기와 상호간에 위치 및 지연 시간을 동기화할 수 있다.
예를 들어, 컨트롤러(170)는 마이크로폰(175)의 빔포밍 각도를 조절함으로써 주변 기기의 위치를 산출할 수 있다. 보다 상세하게, 컨트롤러(170)는 마이크로폰(175)의 빔포밍 각도를 주기적으로 조절하면서 녹음을 수행하고, 그에 따라 주변 기기가 출력 중인 사운드의 크기를 분석하여 주변 기기의 위치를 인식할 수 있다.
또한, 컨트롤러(170)는 스피커(185)로 음원을 출력한 시점과 스피커(185)에서 출력된 사운드가 주변 기기에서 녹음된 시점을 분석하여 주변 기기와의 지연 시간을 산출할 수 있다.
즉, 디스플레이 장치(100)와 주변 기기는 현재 재생되는 음원을 상호 녹음 및 공유함으로써, 위치 및 지연 시간을 동기화할 수 있다.
한편, 컨트롤러(170)는 스피커(185)로 출력 중인 음원이 없거나, 동기화가 수행되지 않는 경우 비가청 주파수 대역에 해당하는 샘플 사운드를 출력하여 위치 및 지연 시간의 동기화를 수행할 수 있다.
일 실시 예에 따르면, 컨트롤러(170)는 동기화하는 동안 음원의 좌우 볼륨을 을 주기적으로 조절하여 재생할 수 있다. 예를 들어, 컨트롤러(170)는 소정 주기마다 좌우 볼륨 크기를 좌100/우0, 좌 75/우25, 좌50/우50, 좌25/우75, 좌0/우100로 조절하며 음원을 재생할 수 있고, 주변 기기에서는 이와 같이 볼륨 조절되는 음원을 녹음하여 디스플레이 장치(100)로 전송할 수 있다. 컨트롤러(170)는 주변 기기에서 녹음된 데이터를 분석하여 주변 기기 각각의 위치 및 지연 시간을 획득할 수 있다. 만약, 컨트롤러(170)는 비가청 주파수 대역에 해당하는 샘플 사운드를 출력한 경우에는 주변 기기에서 녹음된 데이터에서 분석용 주파수 대역의 음원만을 추출하여 음원을 분석할 수도 있다.
한편, 여기서 지연 시간은 네트워크 전송에 따른 실제 소리와 데이터간의 지연 시간을 의미하는 것으로, 동기화가 수행이 요구될 수 있다. 예를 들어, 컨트롤러(100)는 주변 기기에서도 디스플레이 장치(100)와 동일한 음원을 재생하도록 음원 데이터를 전송하고, 디스플레이 장치(100)에서 녹음한 데이터를 분석함으로써 지연 시간 동기화를 수행할 수 있다.
이와 같이, 디스플레이 장치(100)와 주변 기기 간의 위치 및 지연 시간의 동기화가 수행되면, 주변 기기를 고려한 전처리 최적화를 수행할 수 있다. 즉, 컨트롤러(100)는 주변 기기에서 재생되는 음원 데이터를 고려한 전처리 데이터를 획득할 수 있다. 컨트롤러(100)는 획득된 전처리 데이터를 이용하여 사용자 음성을 인식할 수 있다.
컨트롤러(100) 및 주변 기기는 현재 재생 중인 음원 데이터를 상호 간에 전송하여 연동함으로써, 각자 전처리에 활용할 수 있다.
한편, 주변 기기의 이동 또는 통신 속도의 저하 등 여러 요인에 의해 전처리 데이터가 사용자 음성 인식에 적합하지 않게 변화될 수도 있다. 이 경우, 컨트롤러(170)는 전처리 데이터를 수정 또는 재획득하기 위한 동작을 수행할 수 있고, 이하 설명한다.
컨트롤러(170)는 주변 기기의 이동 여부를 감지할 수 있다(S130).
주변 기기의 위치 이동이 있는 경우 전처리 데이터의 수정이 요구되기 때문이다.
일 예로, 주변 기기는 가속도 센서를 구비하고, 가속도 센서의 센싱값이 디스플레이 장치(100)로 전송될 수 있다. 이 경우, 컨트롤러(170)는 주변 기기에 구비된 가속도 센서의 센싱값 변동에 기초하여 주변 기기의 이동을 감지할 수 있다.
다른 예로, 컨트롤러(170)는 전처리 성능의 저하 감지에 기초하여 주변 기기의 이동을 감지할 수 있다. 구체적으로, 컨트롤러(170)는 소정 주기마다 전처리 성능을 산출하고, 산출된 전처리 성능이 기 설정된 기준값 미만인지 여부를 판단할 수 있다. 컨트롤러(170)는 산출된 전처리 성능이 기 설정된 기준값 미만이면 전처리 성능 저하로 인식할 수 있다.
컨트롤러(170)는 주변 기기의 이동이 감지되지 않으면, 통신 속도의 저하 여부를 감지할 수 있다(S140).
이는, 네트워크 속도 지연이 발생하면 상호간 데이터가 정상 전달되지 않을 수 있기 때문에, 즉시 기존의 전처리모드로 전환하여 전처리 성능 저하 방지하기 위함이다.
한편, 주변 기기의 이동 여부를 감지하는 단계와 통신 속도의 저하를 감지하는 단계는 그 순서가 변경되거나, 동시에 수행될 수도 있다.
컨트롤러(170)는 주변 기기의 이동이 감지되지 않고, 통신 속도의 저하도 감지되지 않으면, 주변 기기와의 오디오 데이터를 이용하여 전처리를 수행할 수 있다(S150).
즉, 컨트롤러(170)는 주변 기기의 이동이 감지되지 않고, 통신 속도의 저하도 감지되지 않으면, 주변 기기와의 동기화를 통해 획득한 전처리 데이터를 이용하여 사용자 음성 인식을 수행할 수 있다.
한편, 컨트롤러(170)는 주변 기기의 이동이 감지되면, 이동된 주변 기기의 위치를 다시 산출할 수 있고, 이 때 컨트롤러(170)는 주변 기기의 위치 인식이 불가한지 판단할 수 있다(S160).
컨트롤러(170)는 주변 기기의 위치 인식이 가능하면, 주변 기기와 오디오 데이터를 다시 공유하여 위치가 변경된 주변 기기와 상호간의 위치 및 지연 시간을 동기화할 수 있다.
그러나, 컨트롤러(170)는 주변 기기의 위치 인식이 불가하면, 각자의 오디오 데이터를 이용하여 전처리를 수행할 수 있다(S170). 또한, 컨트롤러(170)는 통신 속도의 저하가 감지된 경우에도, 각자의 오디오 데이터를 이용하여 전처리를 수행할 수 있다(S170).
즉, 컨트롤러(170)는 주변 기기의 위치 인식이 불가하거나, 통신 속도가 저하되면 주변 기기의 오디오 데이터를 이용하지 않고, 디스플레이 장치(100)의 오디오 데이터만 이용하여 전처리를 수행할 수 있다.
이는, 컨트롤러(170)가 위치 인식이 불가한 주변 기기는 다른 공간 등에 위치하여 서로 간 마이크로폰의 간섭이 없는 상태로 간주하기 때문이며, 통신 속도의 저하의 경우 상호간 오디오 데이터의 전달이 원활하지 않아 전처리 성능의 저하를 방지하기 위함이다.
정리하면, 컨트롤러(170)는 위치 인식 또는 정상적인 통신이 불가하여 주변 기기와 연동되지 않는 경우 제1 전처리 데이터를 이용하여 마이크로폰(175)이 녹음한 데이터에서 사용자 음성을 인식하고, 위치 인식 또는 정상적인 통신을 통해 주변 기기와 연동되는 경우 주변 기기에서 수신된 오디오 데이터에 기초하여 제2 전처리 데이터를 획득하고, 제2 전처리 데이터를 이용하여 마이크로폰(175)이 녹음한 데이터에서 사용자 음성을 인식할 수 있다.
여기서, 제1 전처리 데이터는 디스플레이 장치(100)의 오디오 데이터만을 고려할 때 마이크로폰(175)의 녹음 데이터에서 사용자 음성을 인식하기 위한 데이터를 의미할 수 있다. 제2 전처리 데이터는 디스플레이 장치(100)의 오디오 데이터와 적어도 하나의 주변 기기의 오디오 데이터를 고려할 때 마이크로폰(175)의 녹음 데이터에서 사용자 음성을 인식하기 위한 데이터를 의미할 수 있다.
따라서, 컨트롤러(170)는 주변 기기의 이동에 의해 주변 기기의 위치 인식이 불가하거나 통신 속도의 저하가 감지되면 제1 전처리 데이터르 이용하여 마이크로폰(175)이 녹음한 데이터에서 사용자 음성을 인식하고, 컨트롤러(170)는 주변 기기의 이동이 감지되면 이동이 감지된 주변 기기로부터 오디오 데이터를 다시 수신하여 제2 전처리 데이터를 수정할 수 있다.
이와 같이, 본 개시의 제1 실시 예에 따르면, 디스플레이 장치(100)와 주변 기기는 상호 간의 위치 및 지연 시간을 동기화하여, 각 기기는 다른 기기에서 출력되는 사운드를 필터링할 수 있고, 이에 따라 각 마이크로폰에서 녹음된 데이터에서 사용자 음성을 보다 정확하게 인식할 수 있다. 예를 들어, 컨트롤러(170)는 녹음 데이터에서 주변 기기에서 출력된 사운드를 보다 정확하게 인식 가능하므로, 녹음 데이터에서 주변 기기의 출력 사운드를 필터링하여 사용자 음성을 정확하게 인식할 수 있다.
또한, 음성 인식 기능을 가진 다수의 기기가 같은 공간에 있을 경우, 서로 재생되는 오디오로 인한 음성 오인식의 문제가 최소화될 수 있다. 또한, 기존 하나의 기기에서 획득된 음성을 전처리할 때 보다 여러 기기에서 획득된 음성을 전처리하므로, 전처리 성능이 향상되는 이점이 있다. 또한, 음성 인식 기능이 있는 기기 근처에서 다른 오디오가 재생되는 등 소음이 심한 경우에도, 오인식 및 오작동 확률을 최소화할 수 잇는 이점이 있다.
다음으로, 본 개시의 제2 실시 예에 따른 디스플레이 장치(100)가 음성 인식에 대한 보완을 수행하는 방법을 설명한다.
본 개시의 제2 실시 예에 따르면, 컨트롤러(170)는 디스플레이 장치(100) 및 적어도 하나의 주변 기기 각각에서 녹음된 데이터에서 인식된 명령어의 크기에 기초하여 사용자 음성을 인식할 수 있다.
구체적으로, 컨트롤러(170)는 마이크로폰(175)이 녹음한 데이터와 주변 기기에서 녹음한 데이터 각각에서 사용자 명령어를 추출하고, 추출된 사용자 명령어 중 크기가 가장 큰 명령어를 사용자 음성으로 인식할 수 있다.
이는, 사용자와 가장 가까이에 있는 기기일수록 사용자 발화가 가장 깨끗하게 녹음될 가능성이 높은 점을 반영한 것이다.
다음으로, 본 개시의 제3 실시 예에 따른 디스플레이 장치(100)가 음성 인식에 대한 보완을 수행하는 방법을 설명한다.
본 개시의 제3 실시 예에 따르면, 컨트롤러(170)는 마이크로폰(175)이 녹음한 데이터와 주변 기기에서 녹음한 데이터 각각에서 사용자 명령어를 추출하고, 추출된 사용자 명령어 중 적어도 2 이상이 일치하는 사용자 명령어를 사용자 음성으로 인식할 수 있다.
또는, 컨트롤러(170)는 마이크로폰(175)이 녹음한 데이터와 주변 기기에서 녹음한 데이터 각각에서 사용자 명령어를 추출하고, 가장 빈도수 높게 추출된 사용자 명령어를 사용자 음성으로 인식할 수 있다.
본 개시의 실시 예에 따르면, 사용자가 디스플레이 장치(100)로부터 멀리 있어 마이크로폰(175)이 사용자 음성 보다 주변 소음을 더 크게 녹음하더라도, 사용자의 주변에 위치한 기기에서의 인식 내용을 보완하여 사용자 음성을 보다 정확하게 인식 가능한 이점이 있다.
또한, 본 개시의 실시 예와 같이, 디스플레이 장치(100) 단독이 아닌 주변 기기에서의 오디오 데이터를 고려하면 빔포밍 성능이 향상될 수 있다. 예를 들어, 하나의 기기가 2개의 마이크로폰을 구비한다고 가정할 경우, 2대의 기기가 동시에 동작하면 4개의 마이크로폰을 통해 다양한 각도의 음원 녹음이 가능해져 빔포밍 성능이 향상될 수 있다. 즉, 마스터 기기는 자신의 마이크로폰 뿐만 아니라 적어도 하나의 슬레이브 기기의 마이크로폰을 활용 가능하므로, 원거리 음성인식용 마이크로폰의 개수 증가 효과를 기대할 수 있다. 또한, 음성 전처리에 영향을 주는 외부 사운드를 서로 연동하므로 전처리 성능이 향상되는 이점이 있다.
한편, 본 명세서에서는 디스플레이 장치(100)가 사용자 음성을 인식하는 메인 기기이고, 주변 기기가 디스플레이 장치(100)에서의 사용자 음성 인식을 보완하도록 동작하는 것으로 설명하였으나, 그 반대가 될 수도 있다. 즉, 어느 하나의 주변 기기가 사용자 음성을 인식하는 메인 기기이고, 디스플레이 장치(100)를 포함하는 나머지 주변 기기가 사용자 음성 인식을 보완하도록 동작할 수도 있다.
본 발명의 일 실시 예에 의하면, 전술한 방법은, 프로그램이 기록된 매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있다.
상기와 같이 설명된 디스플레이 장치는 상기 설명된 실시 예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시 예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.

Claims (15)

  1. 스피커;
    주변 기기와 통신하는 무선 통신 인터페이스;
    주변의 소리를 녹음하는 마이크로폰; 및
    상기 마이크로폰이 녹음한 데이터에서 사용자 음성 인식을 수행하는 컨트롤러를 포함하고,
    상기 컨트롤러는
    상기 주변 기기에서 수신된 오디오 데이터를 이용하여 상기 사용자 음성 인식을 보완하는
    디스플레이 장치.
  2. 청구항 1에 있어서,
    상기 오디오 데이터는
    상기 주변 기기가 녹음한 녹음 데이터 및 상기 주변 기기에서 재생 중인 음원 데이터 중 적어도 하나를 포함하는
    디스플레이 장치.
  3. 청구항 1에 있어서,
    상기 컨트롤러는
    상기 주변 기기와 연동되지 않는 경우, 제1 전처리 데이터를 이용하여 상기 마이크로폰이 녹음한 데이터에서 사용자 음성을 인식하고,
    상기 주변 기기와 연동되는 경우 상기 주변 기기에서 수신된 오디오 데이터에 기초하여 제2 전처리 데이터를 획득하고, 상기 제2 전처리 데이터를 이용하여 상기 마이크로폰이 녹음한 데이터에서 사용자 음성을 인식하는
    디스플레이 장치.
  4. 청구항 3에 있어서,
    상기 컨트롤러는
    상기 주변 기기의 이동이 감지되면, 이동이 감지된 주변 기기로부터 상기 오디오 데이터를 다시 수신하여 상기 제2 전처리 데이터를 수정하는
    디스플레이 장치.
  5. 청구항 4에 있어서,
    상기 컨트롤러는
    상기 주변 기기에 구비된 가속도 센서의 센싱값 변동에 기초하여 상기 주변 기기의 이동을 감지하는
    디스플레이 장치.
  6. 청구항 4에 있어서,
    상기 컨트롤러는
    전처리 성능의 저하 감지에 기초하여 상기 주변 기기의 이동을 감지하는
    디스플레이 장치.
  7. 청구항 4에 있어서,
    상기 컨트롤러는
    상기 주변 기기의 이동에 의해 상기 주변 기기의 위치 인식이 불가하면, 상기 제1 전처리 데이터를 이용하여 상기 마이크로폰이 녹음한 데이터에서 사용자 음성을 인식하는
    디스플레이 장치.
  8. 청구항 4에 있어서,
    상기 컨트롤러는
    상기 통신의 속도 저하가 감지되면, 상기 제1 전처리 데이터를 이용하여 상기 마이크로폰이 녹음한 데이터에서 사용자 음성을 인식하는
    디스플레이 장치.
  9. 청구항 1에 있어서,
    상기 컨트롤러는
    상기 스피커로 출력 중인 음원 데이터, 상기 마이크로폰이 녹음한 데이터 및 상기 주변 기기에서 수신된 오디오 데이터 중 적어도 하나에 기초하여 주변 기기와 상호간에 위치 및 지연 시간을 동기화하는
    디스플레이 장치.
  10. 청구항 9에 있어서,
    상기 컨트롤러는
    상기 스피커로 출력 중인 음원이 없거나, 상기 동기화가 수행되지 않는 경우 비가청 주파수 대역에 해당하는 샘플 사운드를 출력하여 상기 위치 및 지연 시간을 동기화하는
    디스플레이 장치.
  11. 청구항 9에 있어서,
    상기 컨트롤러는
    상기 마이크로폰의 빔포밍 각도를 조절함으로써 상기 주변 기기의 위치를 산출하는
    디스플레이 장치.
  12. 청구항 1에 있어서,
    상기 주변 기기는
    상기 디스플레이 장치로 제어 신호를 전송하는 원격제어장치, 이동 단말기 및 블루투스 스피커 중 적어도 하나를 포함하는
    디스플레이 장치.
  13. 청구항 1에 있어서,
    상기 컨트롤러는
    상기 마이크로폰이 녹음한 데이터와 상기 주변 기기에서 녹음한 데이터 각각에서 사용자 명령어를 추출하고, 추출된 사용자 명령어 중 크기가 가장 큰 명령어를 사용자 음성으로 인식하는
    디스플레이 장치.
  14. 청구항 1에 있어서,
    상기 컨트롤러는
    상기 마이크로폰이 녹음한 데이터와 상기 주변 기기에서 녹음한 데이터 각각에서 사용자 명령어를 추출하고, 추출된 사용자 명령어 중 적어도 2 이상이 일치하는 사용자 명령어를 사용자 음성으로 인식하는
    디스플레이 장치.
  15. 청구항 1에 있어서,
    상기 컨트롤러는
    기동어가 인식되면 상기 주변 기기에서 수신된 오디오 데이터를 이용하여 상기 사용자 음성 인식을 보완하는
    디스플레이 장치.
PCT/KR2022/001347 2022-01-26 2022-01-26 디스플레이 장치 WO2023145985A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2022/001347 WO2023145985A1 (ko) 2022-01-26 2022-01-26 디스플레이 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2022/001347 WO2023145985A1 (ko) 2022-01-26 2022-01-26 디스플레이 장치

Publications (1)

Publication Number Publication Date
WO2023145985A1 true WO2023145985A1 (ko) 2023-08-03

Family

ID=87472138

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/001347 WO2023145985A1 (ko) 2022-01-26 2022-01-26 디스플레이 장치

Country Status (1)

Country Link
WO (1) WO2023145985A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013125414A1 (ja) * 2012-02-23 2013-08-29 日本電気株式会社 相互認証システム、相互認証サーバ、相互認証方法および相互認証プログラム
KR20140135349A (ko) * 2013-05-16 2014-11-26 한국전자통신연구원 복수의 마이크로폰을 이용한 비동기 음성인식 장치 및 방법
US20190221210A1 (en) * 2016-08-26 2019-07-18 Samsung Electronics., Ltd Electronic device for voice recognition, and control method therefor
KR20190103081A (ko) * 2019-08-15 2019-09-04 엘지전자 주식회사 지능적 음성 출력 방법, 음성 출력 장치 및 지능형 컴퓨팅 디바이스
KR20200080635A (ko) * 2018-12-27 2020-07-07 주식회사 오투오 외부 연결용 ai 스피커 장치 및 이와 외부 기기 간의 에코 제거 및 동기화 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013125414A1 (ja) * 2012-02-23 2013-08-29 日本電気株式会社 相互認証システム、相互認証サーバ、相互認証方法および相互認証プログラム
KR20140135349A (ko) * 2013-05-16 2014-11-26 한국전자통신연구원 복수의 마이크로폰을 이용한 비동기 음성인식 장치 및 방법
US20190221210A1 (en) * 2016-08-26 2019-07-18 Samsung Electronics., Ltd Electronic device for voice recognition, and control method therefor
KR20200080635A (ko) * 2018-12-27 2020-07-07 주식회사 오투오 외부 연결용 ai 스피커 장치 및 이와 외부 기기 간의 에코 제거 및 동기화 방법
KR20190103081A (ko) * 2019-08-15 2019-09-04 엘지전자 주식회사 지능적 음성 출력 방법, 음성 출력 장치 및 지능형 컴퓨팅 디바이스

Similar Documents

Publication Publication Date Title
WO2017142151A1 (en) Display device and operating method thereof
WO2021060575A1 (ko) 인공 지능 서버 및 그의 동작 방법
WO2015186857A1 (ko) 영상 표시 기기 및 그의 동작 방법
WO2019172472A1 (ko) 디스플레이 장치
WO2021251519A1 (ko) 디스플레이 장치 및 그의 동작 방법
WO2018066788A1 (ko) 디스플레이 장치
WO2019009453A1 (ko) 디스플레이 장치
WO2023145985A1 (ko) 디스플레이 장치
WO2022149650A1 (en) Display device and display system
WO2020122274A1 (ko) 디스플레이 장치
WO2022034935A1 (ko) 맞춤 광고를 제공하는 디스플레이 장치 및 그의 동작 방법
WO2020122271A1 (ko) 디스플레이 장치
WO2021015319A1 (ko) 디스플레이 장치 및 그의 동작 방법
WO2020230923A1 (ko) 음성 인식 서비스를 제공하기 위한 디스플레이 장치 및 그의 동작 방법
WO2020222322A1 (ko) 음성 인식 서비스를 제공하기 위한 디스플레이 장치
WO2023095947A1 (ko) 디스플레이 장치 및 그의 동작 방법
WO2023008621A1 (ko) 무선 디스플레이 장치, 무선 셋톱박스 및 무선 디스플레이 시스템
WO2023191122A1 (ko) 디스플레이 장치
WO2023182624A1 (ko) 디스플레이 장치
WO2023068405A1 (ko) 디스플레이 장치
WO2023195556A1 (ko) 디스플레이 장치
WO2022255513A1 (ko) 디스플레이 장치 및 그의 동작 방법
WO2022260259A1 (ko) 디스플레이 장치 및 그를 이용한 콘텐츠 추천 방법
WO2024019186A1 (ko) 디스플레이 장치 및 그의 동작 방법
WO2022092871A1 (ko) 디스플레이 장치 및 그의 동작 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22924243

Country of ref document: EP

Kind code of ref document: A1