WO2024005226A1 - 디스플레이 장치 - Google Patents

디스플레이 장치 Download PDF

Info

Publication number
WO2024005226A1
WO2024005226A1 PCT/KR2022/009357 KR2022009357W WO2024005226A1 WO 2024005226 A1 WO2024005226 A1 WO 2024005226A1 KR 2022009357 W KR2022009357 W KR 2022009357W WO 2024005226 A1 WO2024005226 A1 WO 2024005226A1
Authority
WO
WIPO (PCT)
Prior art keywords
server
display device
utterance
end point
controller
Prior art date
Application number
PCT/KR2022/009357
Other languages
English (en)
French (fr)
Inventor
허승현
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2022/009357 priority Critical patent/WO2024005226A1/ko
Publication of WO2024005226A1 publication Critical patent/WO2024005226A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/10Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/87Detection of discrete points within a voice signal

Definitions

  • This disclosure relates to a display device, and more specifically, to a display device that provides a voice recognition service.
  • Digital TV services using wired or wireless communication networks are becoming popular. Digital TV services can provide a variety of services that cannot be provided by existing analog broadcasting services.
  • IPTV Internet Protocol Television
  • smart TV service provide interactivity that allows users to actively select the type of program to watch and the viewing time.
  • IPTV and smart TV services can provide various additional services, such as Internet search, home shopping, and online games, based on this interactivity.
  • Recent TVs provide voice recognition services based on user voice recognition.
  • voice input is made through the microphone button provided on the TV's remote control, the start and end of the user's input can be known through the press/release of the button.
  • signal size information e.g. Amplitude , Energy strength
  • the TV does not know this and continues to receive voice input, outputting unwanted voice recognition results.
  • the purpose of the present disclosure is to provide a display device that can accurately recognize the end point of a user's voice input.
  • the purpose of the present disclosure is to provide an accurate voice recognition service by utilizing the energy level of voice input and end point information of voice input.
  • a display device acquires a network interface that communicates with a first server and a second server and a user's voice input, and transmits a voice signal corresponding to the obtained voice input to the first server, Receive the energy level of the voice signal, text corresponding to the voice input, and speech end point information for the voice input from the first server, and determine whether the user's speech has ended based on the energy level and the speech end point information. It may include a controller that determines.
  • a display device acquires a network interface for communicating with a first server and a second server and a user's voice input, and transmits a voice signal corresponding to the obtained voice input to the first server, , receive the energy level of the voice signal and the text corresponding to the voice input from the first server, transmit the text to the second server, and receive speech endpoint information for the voice input from the second server. And, it may include a controller that determines whether the user's speech has ended based on the energy level and the speech end point information.
  • the end of an utterance can be accurately recognized using text analysis and energy level of voice input. Accordingly, unnecessary voice recognition can be prevented from being performed.
  • Figure 1 shows a block diagram of the configuration of a display device according to an embodiment of the present invention.
  • Figure 2 is a block diagram of a remote control device according to an embodiment of the present invention.
  • Figure 3 shows an example of the actual configuration of a remote control device according to an embodiment of the present invention.
  • Figure 4 shows an example of utilizing a remote control device according to an embodiment of the present invention.
  • Figure 5 is a diagram illustrating a process for recognizing the endpoint of a voice input according to the prior art.
  • Figure 6 is a ladder diagram explaining a method of operating a system according to an embodiment of the present disclosure.
  • FIG. 7 is a diagram illustrating a process for detecting the end point of an utterance and performing intent analysis according to an embodiment of the present disclosure.
  • FIG. 8 is a diagram illustrating a process in which an endpoint detector generates utterance endpoint information according to an embodiment of the present disclosure.
  • Figure 9 is a ladder diagram explaining a method of operating a system according to another embodiment of the present disclosure.
  • FIG. 10 is a diagram illustrating a process for detecting the end point of an utterance and performing intent analysis according to another embodiment of the present disclosure.
  • the display device is, for example, an intelligent display device that adds a computer support function to the broadcast reception function, and is faithful to the broadcast reception function while adding an Internet function, etc., such as a handwriting input device and a touch screen.
  • an Internet function etc.
  • it can be equipped with a more convenient interface such as a spatial remote control.
  • by supporting wired or wireless Internet functions it is possible to connect to the Internet and a computer and perform functions such as email, web browsing, banking, or gaming.
  • a standardized general-purpose OS can be used for these various functions.
  • the display device described in the present invention for example, various applications can be freely added or deleted on a general-purpose OS kernel, so various user-friendly functions can be performed.
  • the display device may be, for example, a network TV, HBBTV, smart TV, LED TV, OLED TV, etc., and in some cases, may also be applied to a smartphone.
  • Figure 1 shows a block diagram of the configuration of a display device according to an embodiment of the present invention.
  • the display device 100 includes a broadcast receiver 130, an external device interface 135, a memory 140, a user input interface 150, a controller 170, a wireless communication interface 173, and a display. It may include (180), a speaker (185), and a power supply circuit (190).
  • the broadcast receiver 130 may include a tuner 131, a demodulator 132, and a network interface 133.
  • the tuner 131 can select a specific broadcast channel according to a channel selection command.
  • the tuner 131 may receive a broadcast signal for a specific selected broadcast channel.
  • the demodulator 132 can separate the received broadcast signal into a video signal, an audio signal, and a data signal related to the broadcast program, and can restore the separated video signal, audio signal, and data signal to a form that can be output.
  • the external device interface 135 may receive an application or application list within an adjacent external device and transfer it to the controller 170 or memory 140.
  • the external device interface 135 may provide a connection path between the display device 100 and an external device.
  • the external device interface 135 may receive one or more of video and audio output from an external device connected wirelessly or wired to the display device 100 and transmit it to the controller 170.
  • the external device interface 135 may include a plurality of external input terminals.
  • the plurality of external input terminals may include an RGB terminal, one or more High Definition Multimedia Interface (HDMI) terminals, and a component terminal.
  • HDMI High Definition Multimedia Interface
  • An image signal from an external device input through the external device interface 135 may be output through the display 180.
  • a voice signal from an external device input through the external device interface 135 may be output through the speaker 185.
  • An external device that can be connected to the external device interface 135 may be any one of a set-top box, Blu-ray player, DVD player, game console, sound bar, smartphone, PC, USB memory, or home theater, but this is only an example.
  • the network interface 133 may provide an interface for connecting the display device 100 to a wired/wireless network including an Internet network.
  • the network interface 133 may transmit or receive data with other users or other electronic devices through a connected network or another network linked to the connected network.
  • some of the content data stored in the display device 100 may be transmitted to a selected user or selected electronic device among other users or other electronic devices pre-registered in the display device 100.
  • the network interface 133 can access a certain web page through a connected network or another network linked to the connected network. In other words, you can access a certain web page through a network and transmit or receive data with the corresponding server.
  • the network interface 133 can receive content or data provided by a content provider or network operator. That is, the network interface 133 can receive content and information related thereto, such as movies, advertisements, games, VODs, and broadcast signals, provided from a content provider or network provider through a network.
  • the network interface 133 can receive firmware update information and update files provided by a network operator, and can transmit data to the Internet, a content provider, or a network operator.
  • the network interface 133 can select and receive a desired application from among applications open to the public through a network.
  • the memory 140 stores programs for processing and controlling each signal in the controller 170, and can store signal-processed video, voice, or data signals.
  • the memory 140 may perform a function for temporary storage of video, voice, or data signals input from the external device interface 135 or the network interface 133, and may store information about a predetermined image through a channel memory function. You can also store information.
  • the memory 140 may store an application or application list input from the external device interface 135 or the network interface 133.
  • the display device 100 can play content files (video files, still image files, music files, document files, application files, etc.) stored in the memory 140 and provide them to the user.
  • content files video files, still image files, music files, document files, application files, etc.
  • the user input interface 150 may transmit a signal input by the user to the controller 170 or transmit a signal from the controller 170 to the user.
  • the user input interface 150 can be used remotely according to various communication methods such as Bluetooth, Ultra Wideband (WB), ZigBee, Radio Frequency (RF) communication, or infrared (IR) communication.
  • Control signals such as power on/off, channel selection, and screen settings can be received and processed from the control device 200, or control signals from the controller 170 can be processed to be transmitted to the remote control device 200.
  • the user input interface 150 can transmit control signals input from local keys (not shown) such as power key, channel key, volume key, and setting value to the controller 170.
  • local keys such as power key, channel key, volume key, and setting value
  • the video signal processed by the controller 170 may be input to the display 180 and displayed as an image corresponding to the video signal. Additionally, the image signal processed by the controller 170 may be input to an external output device through the external device interface 135.
  • the voice signal processed by the controller 170 may be output as audio to the speaker 185. Additionally, the voice signal processed by the controller 170 may be input to an external output device through the external device interface 135.
  • controller 170 may control overall operations within the display device 100.
  • controller 170 can control the display device 100 by a user command or internal program input through the user input interface 150, and connects to the network to display the application or application list desired by the user on the display device ( 100) You can make it available for download.
  • the controller 170 allows channel information selected by the user to be output through the display 180 or speaker 185 along with the processed video or audio signal.
  • the controller 170 controls video signals from an external device, for example, a camera or camcorder, input through the external device interface 135, according to an external device video playback command received through the user input interface 150.
  • the voice signal can be output through the display 180 or speaker 185.
  • the controller 170 can control the display 180 to display an image, for example, a broadcast image input through the tuner 131, an external input image input through the external device interface 135, Alternatively, an image input through the network interface unit or an image stored in the memory 140 may be controlled to be displayed on the display 180.
  • the image displayed on the display 180 may be a still image or a moving image, and may be a 2D image or a 3D image.
  • controller 170 can control the playback of content stored in the display device 100, received broadcast content, or external input content, which includes broadcast video, external input video, and audio files. , can be in various forms such as still images, connected web screens, and document files.
  • the wireless communication interface 173 can communicate with external devices through wired or wireless communication.
  • the wireless communication interface 173 can perform short range communication with an external device.
  • the wireless communication interface 173 includes BluetoothTM, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, Near Field Communication (NFC), and Wi-Fi.
  • Short-distance communication can be supported using at least one of Fi (Wireless-Fidelity), Wi-Fi Direct, and Wireless USB (Wireless Universal Serial Bus) technologies.
  • This wireless communication interface 173 is between the display device 100 and a wireless communication system, between the display device 100 and another display device 100, or between the display device 100 through wireless area networks. It can support wireless communication between the network and the display device 100 (or external server).
  • Local area wireless networks may be wireless personal area networks.
  • the other display device 100 is a wearable device capable of exchanging data with (or interoperating with) the display device 100 according to the present invention, for example, a smartwatch, smart glasses. It can be a mobile terminal such as (smart glass), HMD (head mounted display), or smart phone.
  • the wireless communication interface 173 may detect (or recognize) a wearable device capable of communication around the display device 100 .
  • the controller 170 sends at least a portion of the data processed by the display device 100 to the wireless communication interface 173. It can be transmitted to a wearable device through . Accordingly, a user of a wearable device can use data processed by the display device 100 through the wearable device.
  • the display 180 converts the video signal, data signal, and OSD signal processed by the controller 170 or the video signal and data signal received from the external device interface 135 into R, G, and B signals, respectively, and provides a driving signal. can be created.
  • the display device 100 shown in FIG. 1 is only one embodiment of the present invention. Some of the illustrated components may be integrated, added, or omitted depending on the specifications of the display device 100 that is actually implemented.
  • two or more components may be combined into one component, or one component may be subdivided into two or more components.
  • the functions performed by each block are for explaining embodiments of the present invention, and the specific operations or devices do not limit the scope of the present invention.
  • the display device 100 does not have a tuner 131 and a demodulator 132 but has a network interface 133 or an external device interface 135. You can also receive and play video through the device.
  • the display device 100 is divided into an image processing device such as a set-top box for receiving broadcast signals or contents according to various network services, and a content playback device for playing content input from the image processing device. It can be implemented.
  • an image processing device such as a set-top box for receiving broadcast signals or contents according to various network services
  • a content playback device for playing content input from the image processing device. It can be implemented.
  • the method of operating a display device includes not only the display device 100 as described with reference to FIG. 1, but also an image processing device such as the separated set-top box or the display 180. ) and a content playback device having an audio output unit 185.
  • Figure 2 is a block diagram of a remote control device according to an embodiment of the present invention
  • Figure 3 shows an example of the actual configuration of the remote control device 200 according to an embodiment of the present invention.
  • the remote control device 200 includes a fingerprint reader 210, a wireless communication circuit 220, a user input interface 230, a sensor 240, an output interface 250, and a power supply circuit ( 260), memory 270, controller 280, and microphone 290.
  • the wireless communication circuit 220 transmits and receives signals to and from any one of the display devices according to the embodiments of the present invention described above.
  • the remote control device 200 has an RF circuit 221 capable of transmitting and receiving signals to and from the display device 100 in accordance with RF communication standards, and is capable of transmitting and receiving signals to and from the display device 100 in accordance with IR communication standards.
  • An IR circuit 223 may be provided.
  • the remote control device 200 may be provided with a Bluetooth circuit 225 capable of transmitting and receiving signals to and from the display device 100 according to the Bluetooth communication standard.
  • the remote control device 200 is provided with an NFC circuit 227 capable of transmitting and receiving signals with the display device 100 according to the NFC (Near Field Communication) communication standard, and displays the display device 100 according to the WLAN (Wireless LAN) communication standard.
  • a WLAN circuit 229 capable of transmitting and receiving signals to and from the device 100 may be provided.
  • the remote control device 200 transmits a signal containing information about the movement of the remote control device 200 to the display device 100 through the wireless communication circuit 220.
  • the remote control device 200 can receive signals transmitted by the display device 100 through the RF circuit 221 and, if necessary, turn on/off the display device 100 through the IR circuit 223. Commands for turning off, changing channels, changing volume, etc. can be sent.
  • the user input interface 230 may be comprised of a keypad, button, touch pad, or touch screen.
  • the user can input commands related to the display device 100 into the remote control device 200 by manipulating the user input interface 230. If the user input interface 230 has a hard key button, the user can input a command related to the display device 100 to the remote control device 200 through a push operation of the hard key button. This will be explained with reference to FIG. 3 .
  • the remote control device 200 may include a plurality of buttons.
  • the plurality of buttons include a fingerprint recognition button (212), power button (231), home button (232), live button (233), external input button (234), volume control button (235), voice recognition button (236), It may include a channel change button 237, a confirmation button 238, and a back button 239.
  • the fingerprint recognition button 212 may be a button for recognizing the user's fingerprint.
  • the fingerprint recognition button 212 is capable of a push operation and may receive a push operation and a fingerprint recognition operation.
  • the power button 231 may be a button for turning on/off the power of the display device 100.
  • the home button 232 may be a button for moving to the home screen of the display device 100.
  • the live button 233 may be a button for displaying a real-time broadcast program.
  • the external input button 234 may be a button for receiving an external input connected to the display device 100.
  • the volume control button 235 may be a button for adjusting the volume of the sound output by the display device 100.
  • the voice recognition button 236 may be a button for receiving the user's voice and recognizing the received voice.
  • the channel change button 237 may be a button for receiving a broadcast signal of a specific broadcast channel.
  • the confirmation button 238 may be a button for selecting a specific function, and the back button 239 may be a button for returning to the previous screen.
  • the user input interface 230 has a touch screen, the user can input commands related to the display device 100 through the remote control device 200 by touching a soft key on the touch screen. Additionally, the user input interface 230 may be provided with various types of input means that the user can operate, such as scroll keys and jog keys, and this embodiment does not limit the scope of the present invention.
  • the sensor 240 may include a gyro sensor 241 or an acceleration sensor 243, and the gyro sensor 241 may sense information about the movement of the remote control device 200.
  • the gyro sensor 241 can sense information about the operation of the remote control device 200 based on the x, y, and z axes, and the acceleration sensor 243 measures the moving speed of the remote control device 200. Information about such things can be sensed.
  • the remote control device 200 may further include a distance measurement sensor and can sense the distance from the display 180 of the display device 100.
  • the output interface 250 may output a video or audio signal corresponding to a manipulation of the user input interface 230 or a signal transmitted from the display device 100.
  • the user can recognize whether the output interface 250 is manipulating the user input interface 230 or controlling the display device 100.
  • the output interface 250 includes an LED 251 that turns on when the user input interface 230 is manipulated or a signal is transmitted and received with the display device 100 through the wireless communication unit 225, and a vibrator 253 that generates vibration. ), a speaker 255 that outputs sound, or a display 257 that outputs an image.
  • the power supply circuit 260 supplies power to the remote control device 200, and stops power supply when the remote control device 200 does not move for a predetermined period of time, thereby reducing power waste.
  • the power supply circuit 260 can resume power supply when a predetermined key provided in the remote control device 200 is operated.
  • the memory 270 may store various types of programs, application data, etc. necessary for controlling or operating the remote control device 200.
  • the remote control device 200 transmits and receives signals wirelessly through the display device 100 and the RF circuit 221, the remote control device 200 and the display device 100 transmit and receive signals through a predetermined frequency band. .
  • the controller 280 of the remote control device 200 stores and references information about the display device 100 paired with the remote control device 200 and the frequency band capable of wirelessly transmitting and receiving signals in the memory 270. You can.
  • the controller 280 controls all matters related to the control of the remote control device 200.
  • the controller 280 sends a signal corresponding to a predetermined key operation of the user input interface 230 or a signal corresponding to the movement of the remote control device 200 sensed by the sensor 240 through the wireless communication unit 225. 100).
  • the microphone 290 of the remote control device 200 can acquire voice.
  • Figure 4 shows an example of utilizing a remote control device according to an embodiment of the present invention.
  • FIG. 4 illustrates that a pointer 205 corresponding to the remote control device 200 is displayed on the display 180.
  • the user can move or rotate the remote control device 200 up and down, left and right.
  • the pointer 205 displayed on the display 180 of the display device 100 corresponds to the movement of the remote control device 200.
  • This remote control device 200 can be called a spatial remote control because the corresponding pointer 205 is moved and displayed according to movement in 3D space, as shown in the drawing.
  • FIG. 4 illustrates that when the user moves the remote control device 200 to the left, the pointer 205 displayed on the display 180 of the display device 100 also moves to the left correspondingly.
  • the display device 100 may calculate the coordinates of the pointer 205 from information about the movement of the remote control device 200.
  • the display device 100 may display the pointer 205 to correspond to the calculated coordinates.
  • FIG. 4 illustrates a case where a user moves the remote control device 200 away from the display 180 while pressing a specific button in the remote control device 200.
  • the selected area in the display 180 corresponding to the pointer 205 can be zoomed in and displayed enlarged.
  • the selected area in the display 180 corresponding to the pointer 205 may be zoomed out and displayed in a reduced size.
  • the selected area may be zoomed out, and when the remote control device 200 approaches the display 180, the selected area may be zoomed in.
  • the moving speed or direction of the pointer 205 may correspond to the moving speed or direction of the remote control device 200.
  • a pointer in this specification refers to an object displayed on the display 180 in response to the operation of the remote control device 200.
  • the pointer 205 can be an object of various shapes other than the arrow shape shown in the drawing.
  • concepts may include dots, cursors, prompts, thick outlines, etc.
  • the pointer 205 can be displayed not only in response to one of the horizontal and vertical axes on the display 180, but also in response to multiple points, such as a line or surface. .
  • Figure 5 is a diagram illustrating a process for recognizing the endpoint of a voice input according to the prior art.
  • the voice input interface 101 of the display device 100 can acquire voice input and convert the voice signal corresponding to the obtained voice input into a pulse width modulation (Pulse code Modulation, PCM) signal.
  • PCM Pulse code Modulation
  • the voice input interface 101 may transmit the converted PCM signal to the artificial intelligence (AI) client 103.
  • AI artificial intelligence
  • the AI client 103 may transmit a PCM signal to the STT (Speech To Text) server 50.
  • STT Seech To Text
  • the Speech To Text (STT) server 50 may include an energy level detector 51 and an Automatic Speech Recognition (ASR) engine 53.
  • ASR Automatic Speech Recognition
  • the energy level detector 51 can detect the energy level of the PCM signal.
  • the energy level detector 51 may transmit the PCM signal received from the AI client 103 to the ASR engine 53.
  • the ASR engine 53 can convert a digital PCM signal into text.
  • the STT server 50 may transmit the energy level of the PCM signal and the converted text to the AI client 103.
  • the AI client 103 may determine that the user's voice input has ended. That is, the AI client 103 may determine that the utterance end point has been detected when the energy level of the PCM signal is less than a preset level.
  • the AI client 103 may transmit the text to the NLP (Natural Language Processing) server 60.
  • NLP Natural Language Processing
  • the NLP server 60 may obtain analysis result information including the intention analysis result of the text based on the received text, and transmit the obtained analysis result information to the AI client 103.
  • the end point of speech was detected using the energy level of the PCM signal corresponding to the voice input.
  • voice recognition may continue as surrounding noise or noise is recognized.
  • Figure 6 is a ladder diagram explaining a method of operating a system according to an embodiment of the present disclosure.
  • the system may include a display device 100, an STT server 600, and an NLP server 700.
  • the controller 170 of the display device 100 acquires a voice input uttered by the user (S601).
  • the controller 170 may receive voice input from the remote control device 200.
  • the controller 170 may receive voice input from the remote control device 200 through the user input interface 150.
  • the user can speak a voice to the remote control device 200.
  • the controller 170 may receive voice input from a microphone connected to the external device interface 135 of the display device 100.
  • the controller 170 may receive voice input through a microphone provided in the display device 100.
  • the controller 170 of the display device 100 converts the voice signal corresponding to the obtained voice input into a PCM signal (S603).
  • the controller 170 can convert an analog voice signal into a digital pulse code modulation signal.
  • the controller 170 may further include a PCM converter.
  • the controller 170 of the display device 100 transmits the converted PCM signal to the STT server 600 through the network interface 133 (S605).
  • the controller 170 may transmit the PCM signal in real time or periodically through the network interface 133. This is because voice input can be received continuously.
  • the STT server 600 acquires the energy level of the PCM signal, text corresponding to the voice input, and speech end point information based on the received PCM signal (S607).
  • the energy level of the PCM signal represents the size of the PCM signal, and the unit can be expressed in dB.
  • the STT server 600 can obtain text corresponding to voice input by converting the PCM signal into text data through an STT engine (or ASR engine).
  • the utterance end point information may be a confidence score of the converted text.
  • the STT server 600 can calculate the reliability score of the text through an endpoint detector, which will be described later.
  • the endpoint detector assigns a part of speech to each word in the text and can detect the endpoint of the text by analyzing the text pattern according to the assignment result. This will be described later.
  • the reliability score can be a standard for determining whether utterance of a voice input has ended.
  • the reliability score can have a value between 0 and 1. The larger the reliability score, the higher the probability of detecting the end point of an utterance, and the smaller the reliability score, the lower the probability of detecting the end point of an utterance.
  • the utterance end point information may include information indicating whether the voice input corresponding to the converted text is the utterance end point.
  • the utterance end point information may include a value indicating the end point of the utterance (End) or a value indicating that the utterance has not ended (Continuous).
  • the STT server 600 transmits the energy level of the PCM signal, text corresponding to the voice input, and speech endpoint information to the display device 100 (S609).
  • the controller 170 of the display device 100 determines whether the user's speech has ended based on the energy level of the PCM signal and the speech end point information (S611).
  • the controller 170 may determine that the user's utterance has ended when the reliability score included in the utterance end point information is greater than or equal to a preset score and the energy level of the PCM signal is less than the preset first level.
  • the preset score may be 0.8
  • the preset first level may be 12dB, but this is only an example.
  • the reliability score may be a score indicating the probability that the speech input is the end point of speech.
  • the controller 170 determines that the user's speech has ended when the speech end point information includes a value (End) indicating the speech end point of the voice input and the energy level of the PCM signal is less than the preset first level. You can judge.
  • the controller 170 may determine that the user's utterance has not ended when the reliability score included in the utterance end point information is higher than a preset score and the energy level of the PCM signal is higher than the preset second level.
  • the preset score may be 0.8
  • the second level may be 50dB.
  • the controller 170 may determine that the utterance has not ended if the energy level of the PCM signal is very high even if the reliability score included in the utterance end point information is greater than or equal to a preset score.
  • the controller 170 includes a value (End) indicating the utterance end point of the voice input in the utterance end point information, and when the energy level of the PCM signal is higher than the preset second level, the user's utterance has not ended. It can be judged that
  • the controller 170 may determine that the utterance has not ended if the energy level of the PCM signal is very high even if the utterance end point information includes a value indicating the end of the utterance.
  • controller 170 of the display device 100 determines that the user's speech has ended, it ends the speech mode (S613).
  • the speech mode may be named voice recognition mode.
  • the speech mode may be a mode in which a voice uttered by a user is received and an analysis result of the received voice is output.
  • Ending the speech mode may indicate ignoring additional voice input until the voice recognition result for the voice input is output.
  • the controller 170 may not process voice input even if it receives voice input.
  • Ending the speech mode may be an operation to disable voice recognition.
  • the controller 170 of the display device 100 transmits a request to analyze the text and the intent of the text to the NLP server 700 (S615).
  • the NLP server 700 may analyze the intent of the text based on the text received from the display device 100.
  • the NLP server 700 may generate analysis result information indicating the intention analysis result.
  • the NLP server 700 may sequentially perform a morpheme analysis step, a syntax analysis step, a dialogue act analysis step, and a dialogue processing step on text data, thereby generating analysis result information.
  • the morpheme analysis step is a step that classifies text data corresponding to the voice uttered by the user into morpheme units, which are the smallest units with meaning, and determines what part of speech each classified morpheme has.
  • the syntax analysis step is a step that uses the results of the morpheme analysis step to classify text data into noun phrases, verb phrases, adjective phrases, etc., and determines what kind of relationship exists between each divided phrase.
  • the subject, object, and modifiers of the voice uttered by the user can be determined.
  • the speech act analysis step is a step of analyzing the intention of the voice uttered by the user using the results of the syntax analysis step. Specifically, the speech act analysis step is to determine the intent of the sentence, such as whether the user is asking a question, making a request, or simply expressing an emotion.
  • the conversation processing step is a step that uses the results of the dialogue act analysis step to determine whether to answer, respond to, or ask a question for additional information about the user's utterance.
  • the NLP server 700 may generate analysis result information including one or more of a response to the intention uttered by the user, a response, and an inquiry for additional information.
  • the NLP server 700 may transmit a search request to a search server (not shown) and receive search information corresponding to the search request in order to search for information that matches the user's utterance intention.
  • the search information may include information about the searched content, and the analysis result information may include search information.
  • the controller 170 of the display device 100 receives analysis result information indicating the intention analysis of the text from the NLP server 700 through the network interface 133 (S617).
  • the controller 170 of the display device 100 outputs the received analysis result information (S619).
  • the controller 170 may display analysis result information through the display 180.
  • the controller 170 may output analysis result information in audio format through the speaker 185.
  • the end of an utterance can be accurately recognized using text analysis and energy level for voice input. Accordingly, unnecessary voice recognition can be prevented from being performed.
  • FIG. 7 will be described.
  • FIG. 7 is a diagram illustrating a process for detecting the end point of an utterance and performing intent analysis according to an embodiment of the present disclosure.
  • the voice recognition system 70 may include a display device 100, an STT server 600, and an NLP server 700.
  • the STT server 600 and NLP server 700 may be configured as one server.
  • the display device 100 may include a voice input interface 171 and an AI client 172.
  • a voice input interface 171 and an AI client 172 may be included in the controller 170.
  • AI client 172 may be included in the network interface 133.
  • the voice input interface 171 may receive voice input through a microphone provided in the remote control device 200 or the display device 100.
  • the voice input interface 171 may convert a voice signal corresponding to the received voice input into a PCM signal.
  • the AI client 172 may transmit the converted PCM signal to the STT server 600.
  • STT server 600 may include an energy level detector 610, an ASR engine 630, and an endpoint detector 650.
  • the energy level detector 610 may detect the energy level of the PCM signal corresponding to the voice input received from the AI client 172.
  • the unit of energy level may be dB.
  • the energy level detector 610 may transmit the detected energy level to the AI client 172.
  • the ASR engine 630 can convert the PCM signal into text data.
  • the ASR engine 630 may transmit converted text data to the AI client 172.
  • the endpoint detector 650 may generate utterance endpoint information based on text data output from the ASR engine 630.
  • the utterance endpoint information may include information indicating whether the utterance of the voice input is the endpoint.
  • the utterance end point information may include either a value (End) that identifies the end point of the utterance or a value (Continue) that identifies that it is not the end point of the utterance.
  • the utterance end point information may include a reliability score for the end point of the utterance of the voice input. The closer the reliability score is to the end point of the utterance, the larger its value may be, and the farther away it is from the end point of the utterance, the smaller its value may be.
  • the reliability score can have a value between 0 and 1.
  • the endpoint detector 650 can generate utterance endpoint information through part-of-speech analysis, pattern analysis, and symbol analysis of text data.
  • FIG. 8 is a diagram illustrating a process in which an endpoint detector generates utterance endpoint information according to an embodiment of the present disclosure.
  • the endpoint detector 650 may sequentially perform part-of-speech analysis (S801), pattern analysis (S803), and symbol analysis (S805) of the text corresponding to the voice input.
  • the endpoint detector 650 generates utterance endpoint information for the text ⁇ Turn up the volume>.
  • Part-of-speech analysis may be the process of attaching a part-of-speech to each word that makes up the text.
  • the endpoint detector 650 can match the noun to the word ⁇ volume> and the verb to the stem of ⁇ oli>.
  • the endpoint detector 650 can also classify the ending ⁇ >.
  • Pattern analysis may be a process of recognizing the end of the text by analyzing the pattern of the text after analyzing the parts of speech. For example, the end point detector 650 can determine whether the ending ⁇ > of the verb ⁇ oli> is the end of the corresponding text.
  • the end point detector 650 may generate a value that identifies the end of the utterance when the ending ⁇ > following the verb ⁇ oli> indicates the end of the text.
  • the end point detector 650 may calculate the reliability score for the end point of the utterance with a large value when the ending ⁇ > following the verb ⁇ olly> has a high probability of indicating the end of the text.
  • Symbol analysis may be a process of determining the end of a text by referring to language-specific symbols (period, question mark, exclamation point).
  • Symbol analysis (S805) may be an optional process.
  • the end point detector 650 can recognize the end point of the utterance by recognizing the word ⁇ up> and the exclamation mark, which is a symbol that is previously matched to the word.
  • the STT server 600 may further include a communication interface (not shown) for communicating with the display device 100.
  • the communication interface of the STT server 600 may transmit the energy level of the PCM signal, converted text data, and speech endpoint information to the AI client 172.
  • the AI client 172 may determine that the utterance end point has been detected when the energy level of the PCM signal is less than a preset first level and the utterance end point information includes a value indicating the utterance end point.
  • the AI client 172 determines that the ignition end point has been detected when the energy level of the PCM signal is below the preset first level for a certain period of time and the utterance end point information includes a value indicating the ignition end point. You can.
  • the AI client 172 determines that the utterance end point has been detected when the energy level of the PCM signal is less than a preset first level and the reliability score included in the utterance end point information is greater than or equal to the preset score. You can judge.
  • the AI client 172 determines that the utterance end point is It can be determined that it has been detected.
  • the AI client 172 may transmit a command to end the speech mode to the voice input interface 171.
  • the voice input interface 171 may end the speech mode according to the received command.
  • the voice input interface 171 may ignore the received voice input until the startup word is re-recognized.
  • the AI client 172 may transmit the text received from the STT server 600 to the NLP server 700.
  • the AI client 172 may receive analysis result information indicating the intention analysis result for the text from the NLP server 700 and output the received analysis result information.
  • Figure 9 is a ladder diagram explaining a method of operating a system according to another embodiment of the present disclosure.
  • the difference from the embodiment of FIG. 6 is that the endpoint detector is included in the NLP server 700 rather than the STT server 600.
  • the controller 170 of the display device 100 acquires a voice input uttered by the user (S901).
  • the controller 170 of the display device 100 converts the voice signal corresponding to the obtained voice input into a PCM signal (S903).
  • the controller 170 of the display device 100 transmits the converted PCM signal to the STT server 600 through the network interface 133 (S905).
  • the controller 170 may transmit the PCM signal in real time or periodically through the network interface 133. This is because voice input can be received continuously over time.
  • the STT server 600 obtains text corresponding to the energy level of the PCM signal and the voice input based on the received PCM signal (S907).
  • the STT server 600 transmits the energy level of the PCM signal and text corresponding to the voice input to the display device 100 (S909).
  • the controller 170 of the display device 100 transmits the received text to the NLP server 700 (S911).
  • the controller 170 may transmit text to the NLP server 700 through the network interface 133 to inquire about analysis of text intent and utterance endpoint recognition.
  • the NLP server 700 generates utterance end point information and analysis result information based on the text received from the display device 100 and transmits them to the display device 100 (S913).
  • the NLP server 700 may generate utterance endpoint information for the text received through the endpoint detector.
  • the NLP server 700 may perform analysis of the intent of the text and generate analysis result information.
  • the NLP server 700 displays analysis result information to the display device 100 only when the utterance end point information includes a value (End) indicating the end point of the utterance of the voice input or when the reliability score is equal to or higher than a preset score. ) can be transmitted to. This is because if the utterance is not finished, the analysis result information may be inaccurate.
  • End a value indicating the end point of the utterance of the voice input or when the reliability score is equal to or higher than a preset score.
  • the NLP server 700 may generate analysis result information only when the utterance end point information includes a value (End) indicating the end point of the utterance of the voice input or when the reliability score is greater than or equal to a preset score. .
  • the controller 170 of the display device 100 determines whether the user's speech has ended based on the energy level of the PCM signal and the speech end point information (S915).
  • the controller 170 may determine that the user's utterance has ended when the reliability score included in the utterance end point information is greater than or equal to a preset score and the energy level of the PCM signal is less than the preset first level.
  • the preset score may be 0.8 and the preset level may be 12dB, but this is only an example.
  • the controller 170 determines that the user's speech has ended when the speech end point information includes a value (End) indicating the speech end point of the voice input and the energy level of the PCM signal is less than the preset first level. You can judge.
  • controller 170 of the display device 100 determines that the user's speech has ended, it ends the speech mode (S917).
  • the controller 170 of the display device 100 outputs the received analysis result information (S919).
  • FIG. 10 is a diagram illustrating a process for detecting the end point of an utterance and performing intent analysis according to another embodiment of the present disclosure.
  • the voice recognition system 1000 may include a display device 100, an STT server 600, and an NLP server 700.
  • the STT server 600 and NLP server 700 may be configured as one server.
  • the display device 100 may include a voice input interface 171 and an AI client 172.
  • a voice input interface 171 and an AI client 172 may be included in the controller 170.
  • AI client 172 may be included in the network interface 133.
  • the voice input interface 171 may receive voice input through a microphone provided in the remote control device 200 or the display device 100.
  • the voice input interface 171 may convert a voice signal corresponding to the received voice input into a PCM signal.
  • the AI client 172 may transmit the converted PCM signal to the STT server 600.
  • STT server 600 may include an energy level detector 610 and an ASR engine 630.
  • the energy level detector 610 may detect the energy level of the PCM signal corresponding to the voice input received from the AI client 172.
  • the unit of energy level may be dB.
  • the energy level detector 610 may transmit the detected energy level to the AI client 172.
  • the ASR engine 630 can convert the PCM signal into text data.
  • the ASR engine 630 may transmit converted text data to the AI client 172.
  • the difference from the embodiment of FIG. 7 is that the endpoint detector is provided in the NLP server 700 rather than the STT server 600.
  • the NLP server 700 may generate utterance endpoint information and analysis result information based on the text received from the AI client 172.
  • the NLP server 700 may include an endpoint detector 710 that performs the same function as the endpoint detector 650 described in FIG. 8.
  • the utterance endpoint information may include information indicating whether the utterance of the voice input is the endpoint.
  • the utterance end point information may include either a value (End) that identifies the end point of the utterance or a value (Continue) that identifies that it is not the end point of the utterance.
  • the utterance end point information may include a reliability score for the end point of the utterance of the voice input. The closer the reliability score is to the end point of the utterance, the larger its value may be, and the farther away it is from the end point of the utterance, the smaller its value may be.
  • the reliability score can have a value between 0 and 1.
  • the endpoint detector 710 can generate utterance endpoint information through part-of-speech analysis, pattern analysis, and symbol analysis of text data. Additionally, the endpoint detector 710 may generate utterance endpoint information by referring to the intention analysis result information for the text.
  • the endpoint detector 710 has a reliability score of 0.7 generated based on part-of-speech analysis, pattern analysis, and symbol analysis of text data, and when the user's intention is extracted through intent analysis result information, the reliability score is 0.1. can be added.
  • the reliability score can be 0.8.
  • the AI client 172 when the energy level received from the STT server 600 is less than the preset first level, and the utterance end point information received from the NLP server 700 includes a value indicating the utterance end point. , it can be determined that the user's speech has ended.
  • the AI client 172 may determine that the user's utterance has ended when the energy level is less than the preset first level and the reliability score included in the utterance end point information is greater than or equal to the preset score.
  • the AI client 172 even if the utterance end point information includes a value (Continue) that does not indicate the utterance end point, if the energy level is below the preset third level and the analysis result information is received, the user's It can be determined that the utterance has ended.
  • the third level may be 6dB.
  • the AI client 172 may determine that the user's utterance has not ended when the energy level is higher than the preset second level even if the utterance end point information includes a value (Continue) indicating the utterance end point. there is.
  • the second level may be 50dB.
  • the AI client 172 includes a value (Continue) indicating the utterance end point in the utterance end point information, and when the analysis result information is received, the user's utterance is can be judged to have ended.
  • the above-described method can be implemented as processor-readable code on a program-recorded medium.
  • media that the processor can read include ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage devices.
  • the display device described above is not limited to the configuration and method of the above-described embodiments, and the embodiments may be configured by selectively combining all or part of each embodiment so that various modifications can be made. It may be possible.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 개시는 사용자의 음성 입력의 끝점을 정확히 인식할 수 있는 디스플레이 장치에 관한 것으로, 디스플레이 장치는 제1 서버 및 제2 서버와 통신하는 네트워크 인터페이스 및 사용자의 음성 입력을 획득하고, 획득된 음성 입력에 상응하는 음성 신호를 상기 제1 서버에 전송하고, 상기 제1 서버로부터 상기 음성 신호의 에너지 레벨, 상기 음성 입력에 상응하는 텍스트 및 상기 음성 입력에 대한 발화 끝점 정보를 수신하고, 상기 에너지 레벨 및 상기 발화 끝점 정보에 기초하여 상기 사용자의 발화가 종료되었는지 여부를 판단하는 컨트롤러를 포함할 수 있다.

Description

디스플레이 장치
본 개시는 디스플레이 장치에 관한 것으로, 보다 상세하게는 음성 인식 서비스를 제공하는 디스플레이 장치에 관한 것이다.
유선 또는 무선 통신망을 이용한 디지털 TV 서비스가 보편화되고 있다. 디지털 TV 서비스는 기존의 아날로그 방송 서비스에서는 제공할 수 없었던 다양한 서비스를 제공할 수 있다.
예를 들어, 디지털 TV 서비스의 종류인 IPTV(Internet Protocol Television), smart TV 서비스의 경우 사용자로 하여금 시청 프로그램의 종류, 시청 시간 등을 능동적으로 선택할 수 있도록 하는 양방향성을 제공한다. IPTV, smart TV서비스는 이러한 양방향성을 기반으로 하여 다양한 부가 서비스, 예컨대 인터넷 검색, 홈쇼핑, 온라인 게임 등을 제공할 수도 있다.
최근의 TV는 사용자의 음성 인식에 기반한 음성 인식 서비스를 제공하고 있다. TV의 리모컨에 구비된 마이크 버튼을 통해 음성 입력을 하는 경우에는 버튼의 Press/Release를 통해 사용자 입력의 시작과 끝을 알 수 있다.
하지만, 원거리 음성명령과 같이 기동어(Wake-up word)를 사용하는 경우나, 가상 키보드의 음성버튼을 활용하는 등 사용자 발화의 끝을 알 수 없는 경우에는 신호의 크기정보(예를 들어, Amplitude, Energy strength)를 활용하여 음성입력의 끝을 인지한다.
하지만, 종래의 기술은 주변에 노이즈나 다른 소리가 있는 경우 발화의 끝을 사용자의 의도와 같이 인식하지 못하고, 계속 음성 입력을 받는 상태를 유지한다.
TV는 사용자가 음성 입력 끝마쳤음에도 이를 모르고 음성입력을 계속 받는 상태로 유지하여, 원하지 않는 음성 인식 결과를 출력한다.
이에 따라, 사용자는 음성 인식 서비스를 제공받는 과정에서 상당한 불편함을 느낄 수 있다.
본 개시는 사용자의 음성 입력의 끝점을 정확히 인식할 수 있는 디스플레이 장치의 제공을 목적으로 한다.
본 개시는 음성 입력의 에너지 레벨 및 음성 입력의 끝점 정보를 활용하여 정확한 음성 인식 서비스를 제공하는 것을 목적으로 한다.
본 개시의 실시 예에 따른 디스플레이 장치는 제1 서버 및 제2 서버와 통신하는 네트워크 인터페이스 및 사용자의 음성 입력을 획득하고, 획득된 음성 입력에 상응하는 음성 신호를 상기 제1 서버에 전송하고, 상기 제1 서버로부터 상기 음성 신호의 에너지 레벨, 상기 음성 입력에 상응하는 텍스트 및 상기 음성 입력에 대한 발화 끝점 정보를 수신하고, 상기 에너지 레벨 및 상기 발화 끝점 정보에 기초하여 상기 사용자의 발화가 종료되었는지 여부를 판단하는 컨트롤러를 포함할 수 있다.
본 개시의 또 다른 실시 예에 따른 디스플레이 장치는 제1 서버 및 제2 서버와 통신하는 네트워크 인터페이스 및 사용자의 음성 입력을 획득하고, 획득된 음성 입력에 상응하는 음성 신호를 상기 제1 서버에 전송하고, 상기 제1 서버로부터 상기 음성 신호의 에너지 레벨 및 상기 음성 입력에 상응하는 텍스트를 수신하고, 상기 텍스트를 상기 제2 서버에 전송하고, 상기 제2 서버로부터 상기 음성 입력에 대한 발화 끝점 정보를 수신하고, 상기 에너지 레벨 및 상기 발화 끝점 정보에 기초하여 상기 사용자의 발화가 종료되었는지 여부를 판단하는 컨트롤러를 포함할 수 있다.
본 개시의 실시 예에 따르면, 음성 입력에 대한 텍스트 분석 및 에너지 레벨을 이용하여 발화의 끝을 정확히 인식할 수 있다. 이에 따라 불필요한 음성 인식이 수행되는 것이 방지될 수 있다.
본 개시의 실시 예에 따르면, 사용자의 음성 입력에 대한 에너지 레벨, 발화 끝점 정보 및 분석 결과 정보를 사용하여 사용자의 발화가 종료되었는지가 정확히 판단될 수 있다. 이에 따라 사용자가 음성 입력을 종료하였지만, 노이즈로 인한 음성 인식이 이루어지는 것이 방지될 수 있고, 음성 입력의 종료에 맞게 정확한 음성 인식 서비스가 제공될 수 있다.
도 1은 본 발명의 일 실시 예에 따른 디스플레이 장치의 구성을 블록도로 도시한 것이다.
도 2은 본 발명의 일 실시 예에 따른 원격제어장치의 블록도이다.
도 3은 본 발명의 일 실시 예에 따른 원격제어장치의 실제 구성 예를 보여준다.
도 4는 본 발명의 실시 예에 따라 원격 제어 장치를 활용하는 예를 보여준다.
도 5는 종래 기술에 따른 음성 입력의 끝점 인식을 위한 과정을 설명하는 도면이다.
도 6은 본 개시의 일 실시 예에 따른 시스템의 동작 방법을 설명하는 래더 다이어그램이다.
도 7은 본 개시의 일 실시 예에 따른 발화의 끝점을 검출하여 의도 분석을 수행하는 과정을 설명하는 도면이다.
도 8은 본 개시의 일 실시 예에 따라 끝점 검출기가 발화 끝점 정보를 생성하는 과정을 설명하는 도면이다.
도 9는 본 개시의 또 다른 실시 예에 따른 시스템의 동작 방법을 설명하는 래더 다이어그램이다.
도 10은 본 개시의 또 다른 실시 예에 따른 발화의 끝점을 검출하여 의도 분석을 수행하는 과정을 설명하는 도면이다.
이하, 본 발명과 관련된 실시 예에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
본 발명의 실시예에 따른 디스플레이 장치는, 예를 들어 방송 수신 기능에 컴퓨터 지원 기능을 추가한 지능형 디스플레이 장치로서, 방송 수신 기능에 충실하면서도 인터넷 기능 등이 추가되어, 수기 방식의 입력 장치, 터치 스크린 또는 공간 리모콘 등 보다 사용에 편리한 인터페이스를 갖출 수 있다. 그리고, 유선 또는 무선 인터넷 기능의 지원으로 인터넷 및 컴퓨터에 접속되어, 이메일, 웹브라우징, 뱅킹 또는 게임 등의 기능도 수행가능하다. 이러한 다양한 기능을 위해 표준화된 범용 OS가 사용될 수 있다.
따라서, 본 발명에서 기술되는 디스플레이 장치는, 예를 들어 범용의 OS 커널 상에, 다양한 애플리케이션이 자유롭게 추가되거나 삭제 가능하므로, 사용자 친화적인 다양한 기능이 수행될 수 있다. 상기 디스플레이 장치는, 보다 구체적으로 예를 들면, 네트워크 TV, HBBTV, 스마트 TV, LED TV, OLED TV 등이 될 수 있으며, 경우에 따라 스마트폰에도 적용 가능하다.
도 1은 본 발명의 일 실시예에 따른 디스플레이 장치의 구성을 블록도로 도시한 것이다.
도 1을 참조하면, 디스플레이 장치(100)는 방송 수신부(130), 외부장치 인터페이스(135), 메모리(140), 사용자입력 인터페이스(150), 컨트롤러(170), 무선 통신 인터페이스(173), 디스플레이(180), 스피커(185), 전원 공급 회로(190)를 포함할 수 있다.
방송 수신부(130)는 튜너(131), 복조기(132) 및 네트워크 인터페이스(133)를 포함할 수 있다.
튜너(131)는 채널 선국 명령에 따라 특정 방송 채널을 선국할 수 있다. 튜너(131)는 선국된 특정 방송 채널에 대한 방송 신호를 수신할 수 있다.
복조기(132)는 수신한 방송 신호를 비디오 신호, 오디오 신호, 방송 프로그램과 관련된 데이터 신호로 분리할 수 있고, 분리된 비디오 신호, 오디오 신호 및 데이터 신호를 출력이 가능한 형태로 복원할 수 있다.
외부장치 인터페이스(135)는 인접하는 외부 장치 내의 애플리케이션 또는 애플리케이션 목록을 수신하여, 컨트롤러(170) 또는 메모리(140)로 전달할 수 있다.
외부장치 인터페이스(135)는 디스플레이 장치(100)와 외부 장치 간의 연결 경로를 제공할 수 있다. 외부장치 인터페이스(135)는 디스플레이 장치(100)에 무선 또는 유선으로 연결된 외부장치로부터 출력된 영상, 오디오 중 하나 이상을 수신하여, 컨트롤러(170)로 전달할 수 있다. 외부장치 인터페이스(135)는 복수의 외부 입력 단자들을 포함할 수 있다. 복수의 외부 입력 단자들은 RGB 단자, 하나 이상의 HDMI(High Definition Multimedia Interface) 단자, 컴포넌트(Component) 단자를 포함할 수 있다.
외부장치 인터페이스(135)를 통해 입력된 외부장치의 영상 신호는 디스플레이(180)를 통해 출력될 수 있다. 외부장치 인터페이스(135)를 통해 입력된 외부장치의 음성 신호는 스피커(185)를 통해 출력될 수 있다.
외부장치 인터페이스(135)에 연결 가능한 외부 장치는 셋톱박스, 블루레이 플레이어, DVD 플레이어, 게임기, 사운드 바, 스마트폰, PC, USB 메모리, 홈 씨어터 중 어느 하나일 수 있으나, 이는 예시에 불과하다.
네트워크 인터페이스(133)는 디스플레이 장치(100)를 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공할 수 있다. 네트워크 인터페이스(133)는 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 다른 사용자 또는 다른 전자 기기와 데이터를 송신 또는 수신할 수 있다.
또한, 디스플레이 장치(100)에 미리 등록된 다른 사용자 또는 다른 전자 기기 중 선택된 사용자 또는 선택된 전자기기에, 디스플레이 장치(100)에 저장된 일부의 컨텐츠 데이터를 송신할 수 있다.
네트워크 인터페이스(133)는 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 소정 웹 페이지에 접속할 수 있다. 즉, 네트워크를 통해 소정 웹 페이지에 접속하여, 해당 서버와 데이터를 송신 또는 수신할 수 있다.
그리고, 네트워크 인터페이스(133)는 컨텐츠 제공자 또는 네트워크 운영자가 제공하는 컨텐츠 또는 데이터들을 수신할 수 있다. 즉, 네트워크 인터페이스(133)는 네트워크를 통하여 컨텐츠 제공자 또는 네트워크 제공자로부터 제공되는 영화, 광고, 게임, VOD, 방송 신호 등의 컨텐츠 및 그와 관련된 정보를 수신할 수 있다.
또한, 네트워크 인터페이스(133)는 네트워크 운영자가 제공하는 펌웨어의 업데이트 정보 및 업데이트 파일을 수신할 수 있으며, 인터넷 또는 컨텐츠 제공자 또는 네트워크 운영자에게 데이터들을 송신할 수 있다.
네트워크 인터페이스(133)는 네트워크를 통해, 공중에 공개(open)된 애플리케이션들 중 원하는 애플리케이션을 선택하여 수신할 수 있다.
메모리(140)는 컨트롤러(170) 내의 각 신호 처리 및 제어를 위한 프로그램이 저장하고, 신호 처리된 영상, 음성 또는 데이터신호를 저장할 수 있다.
또한, 메모리(140)는 외부장치 인터페이스(135) 또는 네트워크 인터페이스(133)로부터 입력되는 영상, 음성, 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있으며, 채널 기억 기능을 통하여 소정 이미지에 관한 정보를 저장할 수도 있다.
메모리(140)는 외부장치 인터페이스(135) 또는 네트워크 인터페이스(133)로부터 입력되는 애플리케이션 또는 애플리케이션 목록을 저장할 수 있다.
디스플레이 장치(100)는 메모리(140) 내에 저장되어 있는 컨텐츠 파일(동영상 파일, 정지영상 파일, 음악 파일, 문서 파일, 애플리케이션 파일 등)을 재생하여 사용자에게 제공할 수 있다.
사용자입력 인터페이스(150)는 사용자가 입력한 신호를 컨트롤러(170)로 전달하거나, 컨트롤러(170)로부터의 신호를 사용자에게 전달할 수 있다. 예를 들어, 사용자입력 인터페이스(150)는 블루투스(Bluetooth), WB(Ultra Wideband), 지그비(ZigBee) 방식, RF(Radio Frequency) 통신 방식 또는 적외선(IR) 통신 방식 등 다양한 통신 방식에 따라, 원격제어장치(200)로부터 전원 온/오프, 채널 선택, 화면 설정 등의 제어 신호를 수신하여 처리하거나, 컨트롤러(170)로부터의 제어 신호를 원격제어장치(200)로 송신하도록 처리할 수 있다.
또한, 사용자입력 인터페이스(150)는, 전원키, 채널키, 볼륨키, 설정치 등의 로컬키(미도시)에서 입력되는 제어 신호를 컨트롤러(170)에 전달할 수 있다.
컨트롤러(170)에서 영상 처리된 영상 신호는 디스플레이(180)로 입력되어 해당 영상 신호에 대응하는 영상으로 표시될 수 있다. 또한, 컨트롤러(170)에서 영상 처리된 영상 신호는 외부장치 인터페이스(135)를 통하여 외부 출력장치로 입력될 수 있다.
컨트롤러(170)에서 처리된 음성 신호는 스피커(185)로 오디오 출력될 수 있다. 또한, 컨트롤러(170)에서 처리된 음성 신호는 외부장치 인터페이스(135)를 통하여 외부 출력장치로 입력될 수 있다.
그 외, 컨트롤러(170)는, 디스플레이 장치(100) 내의 전반적인 동작을 제어할 수 있다.
또한, 컨트롤러(170)는 사용자입력 인터페이스(150)를 통하여 입력된 사용자 명령 또는 내부 프로그램에 의하여 디스플레이 장치(100)를 제어할 수 있으며, 네트워크에 접속하여 사용자가 원하는 애플리케이션 또는 애플리케이션 목록을 디스플레이 장치(100) 내로 다운받을 수 있도록 할 수 있다.
컨트롤러(170)는 사용자가 선택한 채널 정보 등이 처리한 영상 또는 음성신호와 함께 디스플레이(180) 또는 스피커(185)를 통하여 출력될 수 있도록 한다.
또한, 컨트롤러(170)는 사용자입력 인터페이스(150)를 통하여 수신한 외부장치 영상 재생 명령에 따라, 외부장치 인터페이스(135)를 통하여 입력되는 외부 장치, 예를 들어, 카메라 또는 캠코더로부터의, 영상 신호 또는 음성 신호가 디스플레이(180) 또는 스피커(185)를 통해 출력될 수 있도록 한다.
한편, 컨트롤러(170)는 영상을 표시하도록 디스플레이(180)를 제어할 수 있으며, 예를 들어 튜너(131)를 통해 입력되는 방송 영상, 또는 외부장치 인터페이스(135)를 통해 입력되는 외부 입력 영상, 또는 네트워크 인터페이스부를 통해 입력되는 영상, 또는 메모리(140)에 저장된 영상이 디스플레이(180)에서 표시되도록 제어할 수 있다. 이 경우, 디스플레이(180)에 표시되는 영상은 정지 영상 또는 동영상일 수 있으며, 2D 영상 또는 3D 영상일 수 있다.
또한, 컨트롤러(170)는 디스플레이 장치(100) 내에 저장된 컨텐츠, 또는 수신된 방송 컨텐츠, 외부로 부터 입력되는 외부 입력 컨텐츠가 재생되도록 제어할 수 있으며, 상기 컨텐츠는 방송 영상, 외부 입력 영상, 오디오 파일, 정지 영상, 접속된 웹 화면, 및 문서 파일 등 다양한 형태일 수 있다.
무선 통신 인터페이스(173)는 유선 또는 무선 통신을 통해 외부 기기와 통신을 수행할 수 있다. 무선 통신 인터페이스(173)는 외부 기기와 근거리 통신(Short range communication)을 수행할 수 있다. 이를 위해, 무선 통신 인터페이스(173)는 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다. 이러한, 무선 통신 인터페이스(173)는 근거리 무선 통신망(Wireless Area Networks)을 통해 디스플레이 장치(100)와 무선 통신 시스템 사이, 디스플레이 장치(100)와 다른 디스플레이 장치(100) 사이, 또는 디스플레이 장치(100)와 디스플레이 장치(100, 또는 외부서버)가 위치한 네트워크 사이의 무선 통신을 지원할 수 있다. 근거리 무선 통신망은 근거리 무선 개인 통신망(Wireless Personal Area Networks)일 수 있다.
여기에서, 다른 디스플레이 장치(100)는 본 발명에 따른 디스플레이 장치(100)와 데이터를 상호 교환하는 것이 가능한(또는 연동 가능한) 웨어러블 디바이스(wearable device, 예를 들어, 스마트워치(smartwatch), 스마트 글래스(smart glass), HMD(head mounted display)), 스마트 폰과 같은 이동 단말기가 될 수 있다. 무선 통신 인터페이스(173)는 디스플레이 장치(100) 주변에, 통신 가능한 웨어러블 디바이스를 감지(또는 인식)할 수 있다.
나아가, 컨트롤러(170)는 감지된 웨어러블 디바이스가 본 발명에 따른 디스플레이 장치(100)와 통신하도록 인증된 디바이스인 경우, 디스플레이 장치(100)에서 처리되는 데이터의 적어도 일부를, 무선 통신 인터페이스(173)를 통해 웨어러블 디바이스로 송신할 수 있다. 따라서, 웨어러블 디바이스의 사용자는, 디스플레이 장치(100)에서 처리되는 데이터를, 웨어러블 디바이스를 통해 이용할 수 있다.
디스플레이(180)는 컨트롤러(170)에서 처리된 영상 신호, 데이터 신호, OSD 신호 또는 외부장치 인터페이스(135)에서 수신되는 영상 신호, 데이터 신호 등을 각각 R,G,B 신호로 변환하여 구동 신호를 생성할 수 있다.
한편, 도 1에 도시된 디스플레이 장치(100)는 본 발명의 일실시예에 불과하므로. 도시된 구성요소들 중 일부는 실제 구현되는 디스플레이 장치(100)의 사양에 따라 통합, 추가, 또는 생략될 수 있다.
즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 본 발명의 실시예를 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.
본 발명의 또 다른 실시예에 따르면, 디스플레이 장치(100)는 도 1에 도시된 바와 달리, 튜너(131)와 복조기(132)를 구비하지 않고 네트워크 인터페이스(133) 또는 외부장치 인터페이스(135)를 통해서 영상을 수신하여 재생할 수도 있다.
예를 들어, 디스플레이 장치(100)는 방송 신호 또는 다양한 네트워크 서비스에 따른 컨텐츠들을 수신하기 위한 등과 같은 셋탑 박스 등과 같은 영상 처리 장치와 상기 영상 처리 장치로부터 입력되는 컨텐츠를 재생하는 컨텐츠 재생 장치로 분리되어 구현될 수 있다.
이 경우, 이하에서 설명할 본 발명의 실시예에 따른 디스플레이 장치의 동작 방법은 도 1을 참조하여 설명한 바와 같은 디스플레이 장치(100)뿐 아니라, 상기 분리된 셋탑 박스 등과 같은 영상 처리 장치 또는 디스플레이(180) 및 오디오출력부(185)를 구비하는 컨텐츠 재생 장치 중 어느 하나에 의해 수행될 수도 있다.
다음으로, 도 2 내지 도 3을 참조하여, 본 발명의 일 실시 예에 따른 원격제어장치에 대해 설명한다.
도 2은 본 발명의 일 실시 예에 따른 원격제어장치의 블록도이고, 도 3은 본발명의 일 실시 예에 따른 원격제어장치(200)의 실제 구성 예를 보여준다.
먼저, 도 2를 참조하면, 원격제어장치(200)는 지문인식기(210), 무선통신회로(220), 사용자 입력 인터페이스(230), 센서(240), 출력 인터페이스(250), 전원공급회로(260), 메모리(270), 컨트롤러(280), 마이크로폰(290)를 포함할 수 있다.
도 2을 참조하면, 무선통신회로(220)는 전술하여 설명한 본 발명의 실시 예들에 따른 디스플레이 장치 중 임의의 어느 하나와 신호를 송수신한다.
원격제어장치(200)는 RF 통신규격에 따라 디스플레이 장치(100)와 신호를 송수신할 수 있는 RF 회로(221)을 구비하며, IR 통신규격에 따라 디스플레이 장치(100)와 신호를 송수신할 수 있는 IR 회로(223)을 구비할 수 있다. 또한, 원격제어장치(200)는 블루투스 통신규격에 따라 디스플레이 장치(100)와 신호를 송수신할 수 있는 블루투스 회로(225)를 구비할 수 있다. 또한, 원격제어장치(200)는 NFC(Near Field Communication) 통신 규격에 따라 디스플레이 장치(100)와 신호를 송수할 수 있는 NFC 회로(227)을 구비하며, WLAN(Wireless LAN) 통신 규격에 따라 디스플레이 장치(100)와 신호를 송수신할 수 있는 WLAN 회로(229)을 구비할 수 있다.
또한, 원격제어장치(200)는 디스플레이 장치(100)로 원격제어장치(200)의 움직임 등에 관한 정보가 담긴 신호를 무선통신회로(220)를 통해 전송한다.
한편, 원격제어장치(200)는 디스플레이 장치(100)가 전송한 신호를 RF 회로(221)을 통하여 수신할 수 있으며, 필요에 따라 IR 회로(223)을 통하여 디스플레이 장치(100)로 전원 온/오프, 채널 변경, 볼륨 변경 등에 관한 명령을 전송할 수 있다.
사용자 입력 인터페이스(230)는 키패드, 버튼, 터치 패드, 또는 터치 스크린 등으로 구성될 수 있다. 사용자는 사용자 입력 인터페이스(230)를 조작하여 원격제어장치(200)으로 디스플레이 장치(100)와 관련된 명령을 입력할 수 있다. 사용자 입력 인터페이스(230)가 하드키 버튼을 구비할 경우 사용자는 하드키 버튼의 푸쉬 동작을 통하여 원격제어장치(200)으로 디스플레이 장치(100)와 관련된 명령을 입력할 수 있다. 이에 대해서는 도 3을 참조하여 설명한다.
도 3을 참조하면, 원격제어장치(200)는 복수의 버튼을 포함할 수 있다. 복수의 버튼은 지문 인식 버튼(212), 전원 버튼(231), 홈 버튼(232), 라이브 버튼(233), 외부 입력 버튼(234), 음량 조절 버튼(235), 음성 인식 버튼(236), 채널 변경 버튼(237), 확인 버튼(238) 및 뒤로 가기 버튼(239)을 포함할 수 있다.
지문 인식 버튼(212)은 사용자의 지문을 인식하기 위한 버튼일 수 있다. 일 실시예로, 지문 인식 버튼(212)은 푸쉬 동작이 가능하여, 푸쉬 동작 및 지문 인식 동작을 수신할 수도 있다.
전원 버튼(231)은 디스플레이 장치(100)의 전원을 온/오프 하기 위한 버튼일 수 있다.
홈 버튼(232)은 디스플레이 장치(100)의 홈 화면으로 이동하기 위한 버튼일 수 있다.
라이브 버튼(233)은 실시간 방송 프로그램을 디스플레이 하기 위한 버튼일 수 있다.
외부 입력 버튼(234)은 디스플레이 장치(100)에 연결된 외부 입력을 수신하기 위한 버튼일 수 있다.
음량 조절 버튼(235)은 디스플레이 장치(100)가 출력하는 음량의 크기를 조절하기 위한 버튼일 수 있다.
음성 인식 버튼(236)은 사용자의 음성을 수신하고, 수신된 음성을 인식하기 위한 버튼일 수 있다.
채널 변경 버튼(237)은 특정 방송 채널의 방송 신호를 수신하기 위한 버튼일 수 있다.
확인 버튼(238)은 특정 기능을 선택하기 위한 버튼일 수 있고, 뒤로 가기 버튼(239)은 이전 화면으로 되돌아가기 위한 버튼일 수 있다.
다시 도 2를 설명한다.
사용자 입력 인터페이스(230)가 터치스크린을 구비할 경우 사용자는 터치스크린의 소프트키를 터치하여 원격제어장치(200)로 디스플레이 장치(100)와 관련된 명령을 입력할 수 있다. 또한, 사용자 입력 인터페이스(230)는 스크롤 키나, 조그 키 등 사용자가 조작할 수 있는 다양한 종류의 입력수단을 구비할 수 있으며 본 실시 예는 본 발명의 권리범위를 제한하지 아니한다.
센서(240)는 자이로 센서(241) 또는 가속도 센서(243)를 구비할 수 있으며, 자이로 센서(241)는 원격제어장치(200)의 움직임에 관한 정보를 센싱할 수 있다.
예를 들어, 자이로 센서(241)는 원격제어장치(200)의 동작에 관한 정보를 x,y,z 축을 기준으로 센싱할 수 있으며, 가속도 센서(243)는 원격제어장치(200)의 이동속도 등에 관한 정보를 센싱할 수 있다. 한편, 원격제어장치(200)는 거리측정센서를 더 구비할 수 있어, 디스플레이 장치(100)의 디스플레이(180)와의 거리를 센싱할 수 있다.
출력 인터페이스(250)는 사용자 입력 인터페이스(230)의 조작에 대응하거나 디스플레이 장치(100)에서 전송한 신호에 대응하는 영상 또는 음성 신호를 출력할 수 있다.
사용자는 출력 인터페이스(250)를 사용자 입력 인터페이스(230)의 조작 여부 또는 디스플레이 장치(100)의 제어 여부를 인지할 수 있다.
예를 들어, 출력 인터페이스(250)는 사용자 입력 인터페이스(230)가 조작되거나 무선 통신부(225)를 통하여 디스플레이 장치(100)와 신호가 송수신되면 점등되는 LED(251), 진동을 발생하는 진동기(253), 음향을 출력하는 스피커(255), 또는 영상을 출력하는 디스플레이(257)을 구비할 수 있다.
또한, 전원공급회로(260)는 원격제어장치(200)으로 전원을 공급하며, 원격제어장치(200)이 소정 시간 동안 움직이지 않은 경우 전원 공급을 중단함으로서 전원 낭비를 줄일 수 있다.
전원공급회로(260)는 원격제어장치(200)에 구비된 소정 키가 조작된 경우에 전원 공급을 재개할 수 있다.
메모리(270)는 원격제어장치(200)의 제어 또는 동작에 필요한 여러 종류의 프로그램, 애플리케이션 데이터 등이 저장될 수 있다.
원격제어장치(200)가 디스플레이 장치(100)와 RF 회로(221)을 통하여 무선으로 신호를 송수신할 경우, 원격제어장치(200)과 디스플레이 장치(100)는 소정 주파수 대역을 통하여 신호를 송수신한다.
원격제어장치(200)의 컨트롤러(280)는 원격제어장치(200)과 페어링된 디스플레이 장치(100)와 신호를 무선으로 송수신할 수 있는 주파수 대역 등에 관한 정보를 메모리(270)에 저장하고 참조할 수 있다.
컨트롤러(280)는 원격제어장치(200)의 제어에 관련된 제반사항을 제어한다. 컨트롤러(280)는 사용자 입력 인터페이스(230)의 소정 키 조작에 대응하는 신호 또는 센서(240)에서 센싱한 원격제어장치(200)의 움직임에 대응하는 신호를 무선 통신부(225)를 통하여 디스플레이 장치(100)로 전송할 수 있다.
또한, 원격제어장치(200)의 마이크로폰(290)은 음성을 획득할 수 있다.
마이크로폰(290)는 복수 개로 구비될 수 있다.
다음으로 도 4를 설명한다.
도 4는 본 발명의 실시 예에 따라 원격 제어 장치를 활용하는 예를 보여준다.
도 4의 (a)는 원격 제어 장치(200)에 대응하는 포인터(205)가 디스플레이(180)에 표시되는 것을 예시한다.
사용자는 원격 제어 장치(200)를 상하, 좌우로 움직이거나 회전할 수 있다. 디스플레이 장치(100)의 디스플레이(180)에 표시된 포인터(205)는 원격 제어 장치(200)의 움직임에 대응한다. 이러한 원격 제어 장치(200)는, 도면과 같이, 3D 공간 상의 움직임에 따라 해당 포인터(205)가 이동되어 표시되므로, 공간 리모콘이라 명명할 수 있다.
도 4의 (b)는 사용자가 원격 제어 장치(200)를 왼쪽으로 이동하면, 디스플레이 장치(100)의 디스플레이(180)에 표시된 포인터(205)도 이에 대응하여 왼쪽으로 이동하는 것을 예시한다.
원격 제어 장치(200)의 센서를 통하여 감지된 원격 제어 장치(200)의 움직임에 관한 정보는 디스플레이 장치(100)로 전송된다. 디스플레이 장치(100)는 원격 제어 장치(200)의 움직임에 관한 정보로부터 포인터(205)의 좌표를 산출할 수 있다. 디스플레이 장치(100)는 산출한 좌표에 대응하도록 포인터(205)를 표시할 수 있다.
도 4의 (c)는, 원격 제어 장치(200) 내의 특정 버튼을 누른 상태에서, 사용자가 원격 제어 장치(200)를 디스플레이(180)에서 멀어지도록 이동하는 경우를 예시한다. 이에 의해, 포인터(205)에 대응하는 디스플레이(180) 내의 선택 영역이 줌인되어 확대 표시될 수 있다.
이와 반대로, 사용자가 원격 제어 장치(200)를 디스플레이(180)에 가까워지도록 이동하는 경우, 포인터(205)에 대응하는 디스플레이(180) 내의 선택 영역이 줌아웃되어 축소 표시될 수 있다.
한편, 원격 제어 장치(200)가 디스플레이(180)에서 멀어지는 경우, 선택 영역이 줌아웃되고, 원격 제어 장치(200)가 디스플레이(180)에 가까워지는 경우, 선택 영역이 줌인될 수도 있다.
또한, 원격 제어 장치(200) 내의 특정 버튼을 누른 상태에서는 상하, 좌우 이동의 인식이 배제될 수 있다. 즉, 원격 제어 장치(200)가 디스플레이(180)에서 멀어지거나 접근하도록 이동하는 경우, 상, 하, 좌, 우 이동은 인식되지 않고, 앞뒤 이동만 인식되도록 할 수 있다. 원격 제어 장치(200) 내의 특정 버튼을 누르지 않은 상태에서는, 원격 제어 장치(200)의 상, 하, 좌, 우 이동에 따라 포인터(205)만 이동하게 된다.
한편, 포인터(205)의 이동속도나 이동방향은 원격 제어 장치(200)의 이동속도나 이동방향에 대응할 수 있다.
한편, 본 명세서에서의 포인터는, 원격 제어 장치(200)의 동작에 대응하여, 디스플레이(180)에 표시되는 오브젝트를 의미한다. 따라서, 포인터(205)로 도면에 도시된 화살표 형상 외에 다양한 형상의 오브젝트가 가능하다. 예를 들어, 점, 커서, 프롬프트, 두꺼운 외곽선 등을 포함하는 개념일 수 있다. 그리고, 포인터(205)가 디스플레이(180) 상의 가로축과 세로축 중 어느 한 지점(point)에 대응하여 표시되는 것은 물론, 선(line), 면(surface) 등 복수 지점에 대응하여 표시되는 것도 가능하다.
도 5는 종래 기술에 따른 음성 입력의 끝점 인식을 위한 과정을 설명하는 도면이다.
도 5를 참조하면, 디스플레이 장치(100)의 음성 입력 인터페이스(101)는 음성 입력을 획득하고, 획득된 음성 입력에 상응하는 음성 신호를 펄스 폭 변조(Pulse code Modulation, PCM) 신호로 변환할 수 있다.
음성 입력 인터페이스(101)는 변환된 PCM 신호를 인공 지능(Artificial Intelligence, AI) 클라이언트(103)에 전달할 수 있다.
AI 클라이언트(103)는 PCM 신호를 STT(Speech To Text) 서버(50)에 전송할 수 있다.
STT(Speech To Text) 서버(50)는 에너지 레벨 검출기(51) 및 ASR(Automatic Speech Recognition, 자동 음성 인식) 엔진(53)을 포함할 수 있다.
에너지 레벨 검출기(51)는 PCM 신호의 에너지 레벨을 검출할 수 있다.
에너지 레벨 검출기(51)는 AI 클라이언트(103)로부터 수신된 PCM 신호를 ASR 엔진(53)에 전달할 수 있다.
ASR 엔진(53)은 디지털 형태의 PCM 신호를 텍스트로 변환할 수 있다.
STT 서버(50)는 PCM 신호의 에너지 레벨 및 변환된 텍스트를 AI 클라이언트(103)에 전달할 수 있다.
AI 클라이언트(103)는 PCM 신호의 에너지 레벨이 기 설정된 레벨 미만인 경우, 사용자의 음성 입력이 종료된 것으로 판단할 수 있다. 즉, AI 클라이언트(103)는 PCM 신호의 에너지 레벨이 기 설정된 레벨 미만인 경우, 발화 끝점이 검출된 것으로 판단할 수 있다.
AI 클라이언트(103)는 발화 끝점이 검출된 것으로 판단한 경우, 텍스트를 NLP(Natural Language Processing, 자연어 처리) 서버(60)에 전송할 수 있다.
NLP 서버(60)는 수신된 텍스트에 기반하여 텍스트의 의도 분석 결과를 포함하는 분석 결과 정보를 획득하고, 획득된 분석 결과 정보를 AI 클라이언트(103)에 전송할 수 있다.
이와 같이, 종래 기술에 따르면, 음성 입력에 상응하는 PCM 신호의 에너지 레벨을 이용하여 발화 끝점을 검출하였다.
그러나, 실제 사용자의 발화가 종료되었음에도 주위의 잡음이나 노이즈가 인식됨에 따라 음성 인식의 수행이 지속될 수 있다.
이에 따라, 사용자는 원하지 않은 음성 인식의 수행 결과를 제공받을 수 있어, 상당한 불편함이 발생되고 있다.
이하의 실시 예에서는 사용자의 음성 입력에 대한 발화 끝점을 보다 정확히 검출할 수 있는 방법을 제안하고자 한다.
도 6은 본 개시의 일 실시 예에 따른 시스템의 동작 방법을 설명하는 래더 다이어그램이다.
도 6을 참조하면, 시스템은 디스플레이 장치(100), STT 서버(600) 및 NLP 서버(700)를 포함할 수 있다.
디스플레이 장치(100)의 컨트롤러(170)는 사용자가 발화한 음성 입력을 획득한다(S601).
일 실시 예에서 컨트롤러(170)는 원격 제어 장치(200)로부터 음성 입력을 수신할 수 있다. 컨트롤러(170)는 사용자 입력 인터페이스(150)를 통해 원격 제어 장치(200)로부터 음성 입력을 수신할 수 있다. 사용자는 원격 제어 장치(200)에 음성을 발화할 수 있다.
또 다른 실시 예에서 컨트롤러(170)는 디스플레이 장치(100)의 외부장치 인터페이스(135)와 연결된 마이크로부터 음성 입력을 수신할 수 있다.
또 다른 실시 예에서 컨트롤러(170)는 디스플레이 장치(100)에 구비된 마이크로폰을 통해 음성 입력을 수신할 수 있다.
디스플레이 장치(100)의 컨트롤러(170)는 획득된 음성 입력에 상응하는 음성 신호를 PCM 신호로 변환한다(S603).
컨트롤러(170)는 아날로그 형태의 음성 신호를 디지털 형태의 펄스 코드 변조 신호로 변환할 수 있다. 이를 위해 컨트롤러(170)는 PCM 변환기를 더 구비할 수 있다.
디스플레이 장치(100)의 컨트롤러(170)는 변환된 PCM 신호를 네트워크 인터페이스(133)를 통해 STT 서버(600)에 전송한다(S605).
컨트롤러(170)는 네트워크 인터페이스(133)를 통해 PCM 신호를 실시간 또는 주기적으로 전송할 수 있다. 음성 입력이 연속적으로 수신될 수 있기 때문이다.
STT 서버(600)는 수신된 PCM 신호에 기반하여 PCM 신호의 에너지 레벨, 음성 입력에 상응하는 텍스트 및 발화 끝점 정보를 획득한다(S607).
PCM 신호의 에너지 레벨은 PCM 신호의 크기를 나타내며, 단위는 dB로 표현될 수 있다.
STT 서버(600)는 STT 엔진(또는 ASR 엔진)을 통해 PCM 신호를 텍스트 데이터로 변환하여 음성 입력에 상응하는 텍스트를 획득할 수 있다.
일 실시 예에서 발화 끝점 정보는 변환된 텍스트의 신뢰도 스코어일 수 있다.
STT 서버(600)는 후술할 끝점 검출기를 통해 텍스트의 신뢰도 스코어를 계산할 수 있다. 끝점 검출기는 텍스트의 각 단어에 품사를 부여하고, 부여 결과에 따른 텍스트 패턴을 분석하여 텍스트의 끝점을 검출할 수 있다. 이에 대해서는 후술한다.
신뢰도 스코어는 음성 입력의 발화가 종료되었는지 여부를 판단하는 기준이 될 수 있다.
신뢰도 스코어는 0 내지 1 사이의 값을 가질 수 있다. 신뢰도 스코어가 클수록 발화의 끝점이 검출될 확률이 커지고, 신뢰도 스코어가 작을수록 발화의 끝점이 검출될 확률이 작아질 수 있다.
또 다른 실시 예에서 발화 끝점 정보는 변환된 텍스트에 상응하는 음성 입력이 발화 끝점인지 여부를 나타내는 정보를 포함할 수 있다. 예를 들어, 발화 끝점 정보는 발화의 끝점임을 나타내는 값(End) 또는 발화가 종료되지 않았음을 나타내는 값(Continuous)을 포함할 수 있다.
STT 서버(600)는 PCM 신호의 에너지 레벨, 음성 입력에 상응하는 텍스트 및 발화 끝점 정보를 디스플레이 장치(100)에 전송한다(S609).
디스플레이 장치(100)의 컨트롤러(170)는 PCM 신호의 에너지 레벨 및 발화 끝점 정보에 기반하여 사용자의 발화가 종료되었는지를 판단한다(S611).
일 실시 예에서 컨트롤러(170)는 발화 끝점 정보에 포함된 신뢰도 스코어가 기 설정된 스코어 이상이고, PCM 신호의 에너지 레벨이 기 설정된 제1 레벨 미만인 경우, 사용자의 발화가 종료된 것으로 판단할 수 있다. 여기서, 기 설정된 스코어는 0.8이고, 기 설정된 제1 레벨은 12dB일 수 있으나, 예시에 불과하다.
신뢰도 스코어는 음성 입력의 발화 끝점일 확률을 나타내는 스코어일 수 있다.
또 다른 실시 예에서 컨트롤러(170)는 발화 끝점 정보에 음성 입력의 발화 끝점임을 나타내는 값(End)이 포함되고, PCM 신호의 에너지 레벨이 기 설정된 제1 레벨 미만인 경우, 사용자의 발화가 종료된 것으로 판단할 수 있다.
일 실시 예에서 컨트롤러(170)는 발화 끝점 정보에 포함된 신뢰도 스코어가 기 설정된 스코어 이상이고, PCM 신호의 에너지 레벨이 기 설정된 제2 레벨 이상인 경우, 사용자의 발화가 종료되지 않은 것으로 판단할 수 있다. 여기서, 기 설정된 스코어는 0.8이고, 제2 레벨은 50dB 일 수 있다.
즉, 컨트롤러(170)는 발화 끝점 정보에 포함된 신뢰도 스코어가 기 설정된 스코어 이상이더라도 PCM 신호의 에너지 레벨이 매우 크면 발화가 종료되지 않은 것으로 판단할 수 있다.
또 다른 실시 예에서 컨트롤러(170)는 발화 끝점 정보에 음성 입력의 발화 끝점임을 나타내는 값(End)이 포함되고, PCM 신호의 에너지 레벨이 기 설정된 제2 레벨 이상인 경우, 사용자의 발화가 종료되지 않은 것으로 판단할 수 있다.
즉, 컨트롤러(170)는 발화 끝점 정보에 발화 종료를 나타내는 값이 포함되더라도 PCM 신호의 에너지 레벨이 매우 크면 발화가 종료되지 않은 것으로 판단할 수 있다.
디스플레이 장치(100)의 컨트롤러(170)는 사용자의 발화가 종료된 것으로 판단된 경우, 발화 모드를 종료한다(S613).
일 실시 예에서 발화 모드는 음성 인식 모드로 명명될 수 있다.
발화 모드는 사용자가 발화한 음성을 수신하여 수신된 음성에 대한 분석 결과를 출력하는 모드일 수 있다.
발화 모드의 종료는 음성 입력에 대한 음성 인식 결과를 출력하기까지 추가로 입력되는 음성 입력을 무시하는 것을 나타낼 수 있다.
즉, 컨트롤러(170)는 음성 입력을 수신하여도 이에 대한 처리를 수행하지 않을 수 있다.
발화 모드의 종료는 음성 인식을 비활성화하는 동작일 수 있다.
디스플레이 장치(100)의 컨트롤러(170)는 텍스트 및 텍스트의 의도 분석 요청을 NLP 서버(700)에 전송한다(S615).
NLP 서버(700)는 디스플레이 장치(100)로부터 수신된 텍스트에 기반하여 텍스트의 의도를 분석할 수 있다. NLP 서버(700)는 의도 분석 결과를 나타내는 분석 결과 정보를 생성할 수 있다.
NLP 서버(700)는 텍스트 데이터에 대해, 형태소 분석 단계, 구문 분석 단계, 화행 분석 단계, 대화 처리 단계를 순차적으로, 수행하여, 분석 결과 정보를 생성할 수 있다.
형태소 분석 단계는 사용자가 발화한 음성에 대응하는 텍스트 데이터를 의미를 지닌 가장 작은 단위인 형태소 단위로 분류하고, 분류된 각 형태소가 어떤 품사를 가지는지를 결정하는 단계이다.
구문 분석 단계는 형태소 분석 단계의 결과를 이용하여, 텍스트 데이터를 명사구, 동사구, 형용사 구 등으로 구분하고, 구분된 각 구들 사이에, 어떠한 관계가 존재하는지를 결정하는 단계이다.
구문 분석 단계를 통해, 사용자가 발화한 음성의 주어, 목적어, 수식어들이 결정될 수 있다.
화행 분석 단계는 구문 분석 단계의 결과를 이용하여, 사용자가 발화한 음성에 대한 의도를 분석하는 단계이다. 구체적으로, 화행 분석 단계는 사용자가 질문을 하는 것인지, 요청을 하는 것인지, 단순한 감정 표현을 하는 것인지와 같은 문장의 의도를 결정하는 단계이다.
대화 처리 단계는 화행 분석 단계의 결과를 이용하여, 사용자의 발화에 대해 대답을 할지, 호응을 할지, 추가 정보를 문의하는 질문을 할지를 판단하는 단계이다.
NLP 서버(700)는 대화 처리 단계 후, 사용자가 발화한 의도에 대한 답변, 호응, 추가 정보 문의 중 하나 이상을 포함하는 분석 결과 정보를 생성할 수 있다.
NLP 서버(700)는 사용자의 발화 의도에 맞는 정보를 검색하기 위해, 검색 서버(미도시)에 검색 요청을 전송하고, 검색 요청에 상응하는 검색 정보를 수신할 수 있다.
사용자의 발화 의도가 컨텐트의 검색인 경우, 검색 정보는 검색된 컨텐트에 대한 정보를 포함할 수 있고, 분석 결과 정보는 검색 정보를 포함할 수 있다.
디스플레이 장치(100)의 컨트롤러(170)는 네트워크 인터페이스(133)를 통해 NLP 서버(700)로부터 텍스트의 의도 분석을 나타내는 분석 결과 정보를 수신한다(S617).
디스플레이 장치(100)의 컨트롤러(170)는 수신된 분석 결과 정보를 출력한다(S619).
일 실시 예에서 컨트롤러(170)는 분석 결과 정보를 디스플레이(180)를 통해 표시할 수 있다.
또 다른 실시 예에서 컨트롤러(170)는 분석 결과 정보를 스피커(185)를 통해 오디오 형태로 출력할 수 있다.
이와 같이, 본 개시의 실시 예에 따르면, 음성 입력에 대한 텍스트 분석 및 에너지 레벨을 이용하여 발화의 끝을 정확히 인식할 수 있다. 이에 따라 불필요한 음성 인식이 수행되는 것이 방지될 수 있다.
다음으로, 도 7을 설명한다.
도 7은 본 개시의 일 실시 예에 따른 발화의 끝점을 검출하여 의도 분석을 수행하는 과정을 설명하는 도면이다.
음성 인식 시스템(70)은 디스플레이 장치(100), STT 서버(600) 및 NLP 서버(700)를 포함할 수 있다.
STT 서버(600) 및 NLP 서버(700)는 하나의 서버로 구성될 수도 있다.
도 7을 참조하면, 디스플레이 장치(100)는 음성 입력 인터페이스(171) 및 AI 클라이언트(172)를 포함할 수 있다.
음성 입력 인터페이스(171) 및 AI 클라이언트(172)는 컨트롤러(170)에 포함될 수 있다.
AI 클라이언트(172)는 네트워크 인터페이스(133)에 포함될 수도 있다.
음성 입력 인터페이스(171)는 원격 제어 장치(200) 또는 디스플레이 장치(100)에 구비된 마이크로폰을 통해 음성 입력을 수신할 수 있다.
음성 입력 인터페이스(171)는 수신된 음성 입력에 상응하는 음성 신호를 PCM 신호로 변환할 수 있다.
AI 클라이언트(172)는 변환된 PCM 신호를 STT 서버(600)에 전송할 수 있다.
STT 서버(600)는 에너지 레벨 검출기(610), ASR 엔진(630) 및 끝점 검출기(650)를 포함할 수 있다.
에너지 레벨 검출기(610)는 AI 클라이언트(172)로부터 수신된 음성 입력에 대응하는 PCM 신호의 에너지 레벨을 검출할 수 있다. 에너지 레벨의 단위는 dB 일 수 있다.
에너지 레벨 검출기(610)는 검출된 에너지 레벨을 AI 클라이언트(172)에 전송할 수 있다.
ASR 엔진(630)은 PCM 신호를 텍스트 데이터로 변환할 수 있다. ASR 엔진(630)은 변환된 텍스트 데이터를 AI 클라이언트(172)에 전송할 수 있다.
끝점 검출기(650)는 ASR 엔진(630)에서 출력된 텍스트 데이터에 기초하여 발화 끝점 정보를 생성할 수 있다.
일 실시 예에서 발화 끝점 정보는 음성 입력의 발화가 끝점인지 여부를 나타내는 정보를 포함할 수 있다. 이 경우, 발화 끝점 정보는 발화의 끝점임을 식별하는 값(End), 발화의 끝점이 아님을 식별하는 값(Continue) 중 어느 하나의 값을 포함할 수 있다.
또 다른 실시 예에서 발화 끝점 정보는 음성 입력의 발화의 끝점에 대한 신뢰도 스코어를 포함할 수 있다. 신뢰도 스코어는 발화의 끝점에 가까울수록 그 값이 커지고, 발화의 끝점에 멀어질수록 그 값이 작아질 수 있다.
신뢰도 스코어는 0 내지 1 사이의 값을 가질 수 있다.
끝점 검출기(650)는 텍스트 데이터의 품사 분석, 패턴 분석, 기호 분석을 통해 발화 끝점 정보를 생성할 수 있다.
끝점 검출기(650)가 발화 끝점 정보를 생성하는 과정을 이하의 도면을 참조하여 설명한다.
도 8은 본 개시의 일 실시 예에 따라 끝점 검출기가 발화 끝점 정보를 생성하는 과정을 설명하는 도면이다.
도 8을 참조하면, 끝점 검출기(650)는 음성 입력에 상응하는 텍스트의 품사 분석(S801), 패턴 분석(S803) 및 기호 분석(S805)을 순차적으로 수행할 수 있다.
예를 들어, 끝점 검출기(650)는 <볼륨 올려>라는 텍스트에 대한 발화 끝점 정보를 생성함을 가정한다.
품사 분석(S801)은 텍스트를 구성하는 각 단어에 품사를 붙이는 과정일 수 있다. 끝점 검출기(650)는 <볼륨>이라는 단어에 명사, <올리>라는 어간에 동사를 매칭시킬 수 있다.
또한, 끝점 검출기(650)는 <ㅓ>라는 어미도 분류할 수 있다.
패턴 분석(S803)은 품사 분석 후 텍스트의 패턴을 분석하여 텍스트의 끝을 인식하는 과정일 수 있다. 예를 들어, 끝점 검출기(650)는 <올리>라는 동사의 어미<ㅓ>가 해당 텍스트의 끝인지 여부를 판단할 수 있다.
일 실시 예에서 끝점 검출기(650)는 <올리>라는 동사에 뒤따르는 어미<ㅓ>가 텍스트의 끝을 나타내는 경우, 발화의 끝을 식별하는 값을 생성할 수 있다.
또 다른 실시 예에서 끝점 검출기(650)는 <올리>라는 동사에 뒤따르는 어미<ㅓ>가 텍스트의 끝을 나타낼 확률이 큰 경우, 발화 끝점에 대한 신뢰도 스코어를 큰 값으로 산출할 수 있다.
기호 분석(S805)은 언어별 기호(마침표, 물음표, 느낌표) 등을 참고하여 텍스트의 끝을 판단하는 과정일 수 있다.
기호 분석(S805)은 optional한 과정일 수 있다.
끝점 검출기(650)는 <올려>라는 단어를 인식하고, 해당 단어에 기 매칭되어 있는 기호인 느낌표를 인식하여 발화의 끝점을 인식할 수 있다.
다시, 도 7을 설명한다.
STT 서버(600)는 디스플레이 장치(100)와 통신을 수행하기 위한 통신 인터페이스(미도시)를 더 구비할 수 있다. STT 서버(600)의 통신 인터페이스는 PCM 신호의 에너지 레벨, 변환된 텍스트 데이터 및 발화 끝점 정보를 AI 클라이언트(172)에 전송할 수 있다.
일 실시 예에서 AI 클라이언트(172)는 PCM 신호의 에너지 레벨이 기 설정된 제1 레벨 미만이고, 발화 끝점 정보에 발화 끝점을 나타내는 값이 포함된 경우, 발화 끝점이 검출된 것으로 판단할 수 있다.
또 다른 실시 예에서 AI 클라이언트(172)는 PCM 신호의 에너지 레벨이 일정 시간 동안 기 설정된 제1 레벨 미만이고, 발화 끝점 정보에 발화 끝점을 나타내는 값이 포함된 경우, 발화 끝점이 검출된 것으로 판단할 수 있다.
또 다른 실시 예에서 일 실시 예에서 AI 클라이언트(172)는 PCM 신호의 에너지 레벨이 기 설정된 제1 레벨 미만이고, 발화 끝점 정보에 포함된 신뢰도 스코어가 기 설정된 스코어 이상인 경우, 발화 끝점이 검출된 것으로 판단할 수 있다.
또 다른 실시 예에서 일 실시 예에서 AI 클라이언트(172)는 PCM 신호의 에너지 레벨이 일정 시간 동안 기 설정된 제1 레벨 미만이고, 발화 끝점 정보에 포함된 신뢰도 스코어가 기 설정된 스코어 이상인 경우, 발화 끝점이 검출된 것으로 판단할 수 있다.
AI 클라이언트(172)는 발화 끝점이 검출된 것으로 판단한 경우, 음성 입력 인터페이스(171)에 발화 모드의 종료를 위한 명령을 전달할 수 있다.
음성 입력 인터페이스(171)는 수신된 명령에 따라 발화 모드를 종료할 수 있다. 음성 입력 인터페이스(171)는 기동어가 재 인식될 때까지, 수신된 음성 입력을 무시할 수 있다.
또한, AI 클라이언트(172)는 발화 끝점이 검출된 것으로 판단된 경우, STT 서버(600)로부터 수신된 텍스트를 NLP 서버(700)에 전송할 수 있다.
AI 클라이언트(172)는 NLP 서버(700)로부터 텍스트에 대한 의도 분석 결과를 나타내는 분석 결과 정보를 수신하고, 수신된 분석 결과 정보를 출력할 수 있다.
도 9는 본 개시의 또 다른 실시 예에 따른 시스템의 동작 방법을 설명하는 래더 다이어그램이다.
도 6의 실시 예와 다른 점은 끝점 검출기가 STT 서버(600)가 아닌 NLP 서버(700)에 포함되는 것이다.
도 9의 각 스텝에서 도 6의 실시 예와 중복되는 부분의 자세한 설명은 생략한다.
디스플레이 장치(100)의 컨트롤러(170)는 사용자가 발화한 음성 입력을 획득한다(S901).
디스플레이 장치(100)의 컨트롤러(170)는 획득된 음성 입력에 상응하는 음성 신호를 PCM 신호로 변환한다(S903).
디스플레이 장치(100)의 컨트롤러(170)는 변환된 PCM 신호를 네트워크 인터페이스(133)를 통해 STT 서버(600)에 전송한다(S905).
컨트롤러(170)는 네트워크 인터페이스(133)를 통해 PCM 신호를 실시간 또는 주기적으로 전송할 수 있다. 음성 입력은 시간의 흐름에 따라 연속적으로 수신될 수 있기 때문이다.
STT 서버(600)는 수신된 PCM 신호에 기반하여 PCM 신호의 에너지 레벨 및 음성 입력에 상응하는 텍스트를 획득한다(S907).
STT 서버(600)는 PCM 신호의 에너지 레벨 및 음성 입력에 상응하는 텍스트를 디스플레이 장치(100)에 전송한다(S909).
디스플레이 장치(100)의 컨트롤러(170)는 수신된 텍스트를 NLP 서버(700)로 전송한다(S911).
일 실시 예에서 컨트롤러(170)는 텍스트의 의도 분석 및 발화 끝점 인식을 문의하기 위해 네트워크 인터페이스(133)를 통해 텍스트를 NLP 서버(700)에 전송할 수 있다.
NLP 서버(700)는 디스플레이 장치(100)로부터 수신된 텍스트에 기반하여 발화 끝점 정보 및 분석 결과 정보를 생성하여 디스플레이 장치(100)에 전송한다(S913).
NLP 서버(700)는 끝점 검출기를 통해 수신된 텍스트에 대한 발화 끝점 정보를 생성할 수 있다.
일 실시 예에서 NLP 서버(700)는 텍스트의 의도 분석을 수행하여 분석 결과 정보를 생성할 수 있다.
또 다른 실시 예에서 NLP 서버(700)는 발화 끝점 정보에 음성 입력의 발화의 끝점임을 나타내는 값(End)이 포함되어 있는 경우 또는 신뢰도 스코어가 기 설정된 스코어 이상인 경우에만 분석 결과 정보를 디스플레이 장치(100)에 전송할 수 있다. 발화가 끝나지 않은 경우 분석 결과 정보는 부정확할 수 있기 때문이다.
또 다른 실시 예에서 NLP 서버(700)는 발화 끝점 정보에 음성 입력의 발화의 끝점임을 나타내는 값(End)이 포함되어 있는 경우 또는 신뢰도 스코어가 기 설정된 스코어 이상인 경우에만 분석 결과 정보를 생성할 수 있다.
디스플레이 장치(100)의 컨트롤러(170)는 PCM 신호의 에너지 레벨 및 발화 끝점 정보에 기반하여 사용자의 발화가 종료되었는지를 판단한다(S915).
일 실시 예에서 컨트롤러(170)는 발화 끝점 정보에 포함된 신뢰도 스코어가 기 설정된 스코어 이상이고, PCM 신호의 에너지 레벨이 기 설정된 제1 레벨 미만인 경우, 사용자의 발화가 종료된 것으로 판단할 수 있다. 여기서, 기 설정된 스코어는 0.8이고, 기 설정된 레벨은 12dB일 수 있으나, 예시에 불과하다.
또 다른 실시 예에서 컨트롤러(170)는 발화 끝점 정보에 음성 입력의 발화 끝점임을 나타내는 값(End)이 포함되고, PCM 신호의 에너지 레벨이 기 설정된 제1 레벨 미만인 경우, 사용자의 발화가 종료된 것으로 판단할 수 있다.
디스플레이 장치(100)의 컨트롤러(170)는 사용자의 발화가 종료된 것으로 판단된 경우, 발화 모드를 종료한다(S917).
디스플레이 장치(100)의 컨트롤러(170)는 수신된 분석 결과 정보를 출력한다(S919).
도 10은 본 개시의 또 다른 실시 예에 따른 발화의 끝점을 검출하여 의도 분석을 수행하는 과정을 설명하는 도면이다.
음성 인식 시스템(1000)은 디스플레이 장치(100), STT 서버(600) 및 NLP 서버(700)를 포함할 수 있다.
STT 서버(600) 및 NLP 서버(700)는 하나의 서버로 구성될 수도 있다.
도 10을 참조하면, 디스플레이 장치(100)는 음성 입력 인터페이스(171) 및 AI 클라이언트(172)를 포함할 수 있다.
음성 입력 인터페이스(171) 및 AI 클라이언트(172)는 컨트롤러(170)에 포함될 수 있다.
AI 클라이언트(172)는 네트워크 인터페이스(133)에 포함될 수도 있다.
음성 입력 인터페이스(171)는 원격 제어 장치(200) 또는 디스플레이 장치(100)에 구비된 마이크로폰을 통해 음성 입력을 수신할 수 있다.
음성 입력 인터페이스(171)는 수신된 음성 입력에 상응하는 음성 신호를 PCM 신호로 변환할 수 있다.
AI 클라이언트(172)는 변환된 PCM 신호를 STT 서버(600)에 전송할 수 있다.
STT 서버(600)는 에너지 레벨 검출기(610) 및 ASR 엔진(630)를 포함할 수 있다.
에너지 레벨 검출기(610)는 AI 클라이언트(172)로부터 수신된 음성 입력에 대응하는 PCM 신호의 에너지 레벨을 검출할 수 있다. 에너지 레벨의 단위는 dB 일 수 있다.
에너지 레벨 검출기(610)는 검출된 에너지 레벨을 AI 클라이언트(172)에 전송할 수 있다.
ASR 엔진(630)은 PCM 신호를 텍스트 데이터로 변환할 수 있다. ASR 엔진(630)은 변환된 텍스트 데이터를 AI 클라이언트(172)에 전송할 수 있다.
도 7의 실시 예와 다른 점은 끝점 검출기가 STT 서버(600)가 아닌 NLP 서버(700)에 구비되는 점이다.
NLP 서버(700)는 AI 클라이언트(172)로부터 수신된 텍스트에 기초하여 발화 끝점 정보 및 분석 결과 정보를 생성할 수 있다.
NLP 서버(700)는 도 8에서 설명된 끝점 검출기(650)와 동일한 기능을 수행하는 끝점 검출기(710)를 포함할 수 있다.
일 실시 예에서 발화 끝점 정보는 음성 입력의 발화가 끝점인지 여부를 나타내는 정보를 포함할 수 있다. 이 경우, 발화 끝점 정보는 발화의 끝점임을 식별하는 값(End), 발화의 끝점이 아님을 식별하는 값(Continue) 중 어느 하나의 값을 포함할 수 있다.
또 다른 실시 예에서 발화 끝점 정보는 음성 입력의 발화의 끝점에 대한 신뢰도 스코어를 포함할 수 있다. 신뢰도 스코어는 발화의 끝점에 가까울수록 그 값이 커지고, 발화의 끝점에 멀어질수록 그 값이 작아질 수 있다.
신뢰도 스코어는 0 내지 1 사이의 값을 가질 수 있다.
끝점 검출기(710)는 도 8에 도시된 바와 같이, 텍스트 데이터의 품사 분석, 패턴 분석, 기호 분석을 통해 발화 끝점 정보를 생성할 수 있다. 추가적으로, 끝점 검출기(710)는 텍스트에 대한 의도 분석 결과 정보를 참고하여 발화 끝점 정보를 생성할 수도 있다.
예를 들어, 끝점 검출기(710)는 텍스트 데이터의 품사 분석, 패턴 분석, 기호 분석에 기반하여 생성된 신뢰도 스코어가 0.7이고, 의도 분석 결과 정보를 통해 사용자의 의도가 추출된 경우, 신뢰도 스코어에 0.1을 가산할 수 있다.
이에 따라 신뢰도 스코어는 0.8이 될 수 있다.
일 실시 예에서 AI 클라이언트(172)는 STT 서버(600)로부터 수신된 에너지 레벨이 기 설정된 제1 레벨 미만이고, NLP 서버(700)로부터 수신된 발화 끝점 정보에 발화 끝점을 나타내는 값이 포함된 경우, 사용자의 발화가 종료된 것으로 판단할 수 있다.
또 다른 실시 예에서 AI 클라이언트(172)는 에너지 레벨이 기 설정된 제1 레벨 미만이고, 발화 끝점 정보에 포함된 신뢰도 스코어가 기 설정된 스코어 이상인 경우, 사용자의 발화가 종료된 것으로 판단할 수 있다.
또 다른 실시 예에서 AI 클라이언트(172)는 발화 끝점 정보에 발화 끝점을 나타내지 않는 값(Continue)이 포함되어 있더라도, 에너지 레벨이 기 설정된 제3 레벨 미만이고, 분석 결과 정보를 수신한 경우, 사용자의 발화가 종료된 것으로 판단할 수 있다. 제3 레벨은 6dB 일 수 있다.
또 다른 실시 예에서 AI 클라이언트(172)는 발화 끝점 정보에 발화 끝점을 나타내는 값(Continue)이 포함되어 있더라도, 에너지 레벨이 기 설정된 제2 레벨 이상인 경우, 사용자의 발화가 종료되지 않은 것으로 판단할 수 있다. 제2 레벨은 50dB 일 수 있다.
또 다른 실시 예에서 AI 클라이언트(172)는 발화 끝점 정보에 발화 끝점을 나타내는 값(Continue)이 포함되어 있고, 분석 결과 정보를 수신한 경우, 에너지 레벨이 기 설정된 제2 레벨 이상이더라도, 사용자의 발화가 종료된 것으로 판단할 수 있다.
이와 같이, 본 개시의 실시 예에 따르면, 사용자의 음성 입력에 대한 에너지 레벨, 발화 끝점 정보 및 분석 결과 정보를 사용하여 사용자의 발화가 종료되었는지가 정확히 판단될 수 있다.
이에 따라 사용자가 음성 입력을 종료하였지만, 노이즈로 인한 음성 인식이 이루어지는 것이 방지될 수 있고, 음성 입력의 종료에 맞게 정확한 음성 인식 서비스가 제공될 수 있다.
본 발명의 일 실시 예에 의하면, 전술한 방법은, 프로그램이 기록된 매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있다.
상기와 같이 설명된 디스플레이 장치는 상기 설명된 실시 예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시 예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.

Claims (15)

  1. 디스플레이 장치에 있어서,
    제1 서버 및 제2 서버와 통신하는 네트워크 인터페이스; 및
    사용자의 음성 입력을 획득하고, 획득된 음성 입력에 상응하는 음성 신호를 상기 제1 서버에 전송하고, 상기 제1 서버로부터 상기 음성 신호의 에너지 레벨, 상기 음성 입력에 상응하는 텍스트 및 상기 음성 입력에 대한 발화 끝점 정보를 수신하고, 상기 에너지 레벨 및 상기 발화 끝점 정보에 기초하여 상기 사용자의 발화가 종료되었는지 여부를 판단하는 컨트롤러를 포함하는
    디스플레이 장치.
  2. 제1항에 있어서,
    상기 컨트롤러는
    상기 에너지 레벨이 기 설정된 제1 레벨 미만이고, 상기 발화 끝점 정보가 상기 발화의 끝점임을 나타내는 값을 포함하는 경우, 상기 발화가 종료된 것으로 판단하는
    디스플레이 장치.
  3. 제1항에 있어서,
    상기 컨트롤러는
    상기 에너지 레벨이 기 설정된 제1 레벨 미만이고, 상기 발화 끝점 정보에 포함된 발화 끝점을 나타내는 신뢰도 스코어가 기 설정된 스코어 이상인 경우, 상기 발화가 종료된 것으로 판단하는
    디스플레이 장치.
  4. 제3항에 있어서,
    상기 컨트롤러는
    상기 에너지 레벨이 상기 제1 레벨보다 큰 기 설정된 제2 레벨 이상이고, 상기 발화 끝점 정보에 포함된 발화 끝점을 나타내는 신뢰도 스코어가 기 설정된 스코어 이상인 경우, 상기 발화가 종료되지 않은 것으로 판단하는
    디스플레이 장치.
  5. 제1항에 있어서,
    상기 컨트롤러는
    상기 사용자의 발화가 종료된 것으로 판단한 경우, 상기 제2 서버에 상기 텍스트를 전송하고, 상기 제2 서버로부터 상기 텍스트의 의도 분석 결과를 나타내는 분석 결과 정보를 수신하고, 수신된 분석 결과 정보를 출력하는
    디스플레이 장치.
  6. 제1항에 있어서,
    상기 컨트롤러는
    상기 사용자의 발화가 종료된 것으로 판단한 경우, 상기 음성 입력에 대한 음성 인식 결과를 출력하기까지 추가로 입력되는 음성 입력을 무시하는
    디스플레이 장치.
  7. 제1항에 있어서,
    상기 컨트롤러는
    상기 음성 신호를 펄스 코드 변조(Pulse Code Modulation, PCM) 신호로 변환하고, 변환된 PCM 신호를 상기 네트워크 인터페이스를 통해 상기 제1 서버에 전송하는
    디스플레이 장치.
  8. 제1항에 있어서,
    상기 제1 서버는 음성을 텍스트로 변환하는 STT(Speech To Text) 서버이고, 제2 서버는 NLP(Natural Language Processing) 서버인
    디스플레이 장치.
  9. 디스플레이 장치에 있어서,
    제1 서버 및 제2 서버와 통신하는 네트워크 인터페이스; 및
    사용자의 음성 입력을 획득하고, 획득된 음성 입력에 상응하는 음성 신호를 상기 제1 서버에 전송하고, 상기 제1 서버로부터 상기 음성 신호의 에너지 레벨 및 상기 음성 입력에 상응하는 텍스트를 수신하고, 상기 텍스트를 상기 제2 서버에 전송하고, 상기 제2 서버로부터 상기 음성 입력에 대한 발화 끝점 정보를 수신하고, 상기 에너지 레벨 및 상기 발화 끝점 정보에 기초하여 상기 사용자의 발화가 종료되었는지 여부를 판단하는 컨트롤러를 포함하는
    디스플레이 장치.
  10. 제9항에 있어서,
    상기 컨트롤러는
    상기 에너지 레벨이 기 설정된 제1 레벨 미만이고, 상기 발화 끝점 정보가 상기 발화의 끝점임을 나타내는 값을 포함하는 경우, 상기 발화가 종료된 것으로 판단하는
    디스플레이 장치.
  11. 제9항에 있어서,
    상기 컨트롤러는
    상기 에너지 레벨이 기 설정된 제1 레벨 미만이고, 상기 발화 끝점 정보에 포함된 발화 끝점을 나타내는 신뢰도 스코어가 기 설정된 스코어 이상인 경우, 상기 발화가 종료된 것으로 판단하는
    디스플레이 장치.
  12. 제11항에 있어서,
    상기 컨트롤러는
    상기 에너지 레벨이 상기 제1 레벨보다 큰 기 설정된 제2 레벨 이상이고, 상기 발화 끝점 정보에 포함된 발화 끝점을 나타내는 신뢰도 스코어가 기 설정된 스코어 이상인 경우, 상기 발화가 종료되지 않은 것으로 판단하는
    디스플레이 장치.
  13. 제9항에 있어서,
    상기 컨트롤러는
    상기 네트워크 인터페이스를 통해 상기 제2 서버로부터 상기 음성 입력에 대한 의도 분석을 나타내는 분석 결과 정보를 더 수신하는
    디스플레이 장치.
  14. 제9항에 있어서,
    상기 컨트롤러는
    상기 컨트롤러는
    상기 사용자의 발화가 종료된 것으로 판단한 경우, 상기 음성 입력에 대한 음성 인식 결과를 출력하기까지 추가로 입력되는 음성 입력을 무시하는
    디스플레이 장치.
  15. 제9항에 있어서,
    상기 제1 서버는 음성을 텍스트로 변환하는 STT(Speech To Text) 서버이고, 제2 서버는 NLP(Natural Language Processing) 서버인
    디스플레이 장치.
PCT/KR2022/009357 2022-06-29 2022-06-29 디스플레이 장치 WO2024005226A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2022/009357 WO2024005226A1 (ko) 2022-06-29 2022-06-29 디스플레이 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2022/009357 WO2024005226A1 (ko) 2022-06-29 2022-06-29 디스플레이 장치

Publications (1)

Publication Number Publication Date
WO2024005226A1 true WO2024005226A1 (ko) 2024-01-04

Family

ID=89380781

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/009357 WO2024005226A1 (ko) 2022-06-29 2022-06-29 디스플레이 장치

Country Status (1)

Country Link
WO (1) WO2024005226A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120265530A1 (en) * 2005-06-15 2012-10-18 Qnx Software Systems Limited Speech End-Pointer
KR20130122359A (ko) * 2012-04-30 2013-11-07 삼성전자주식회사 영상처리장치, 음성취득장치, 그 음성인식방법 및 음성인식시스템
KR20180084394A (ko) * 2017-01-17 2018-07-25 삼성전자주식회사 발화 완료 감지 방법 및 이를 구현한 전자 장치
KR20190049260A (ko) * 2017-11-01 2019-05-09 현대자동차주식회사 차량의 음성인식 장치 및 방법
KR20210031265A (ko) * 2019-09-11 2021-03-19 삼성전자주식회사 전자 장치 및 그 동작방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120265530A1 (en) * 2005-06-15 2012-10-18 Qnx Software Systems Limited Speech End-Pointer
KR20130122359A (ko) * 2012-04-30 2013-11-07 삼성전자주식회사 영상처리장치, 음성취득장치, 그 음성인식방법 및 음성인식시스템
KR20180084394A (ko) * 2017-01-17 2018-07-25 삼성전자주식회사 발화 완료 감지 방법 및 이를 구현한 전자 장치
KR20190049260A (ko) * 2017-11-01 2019-05-09 현대자동차주식회사 차량의 음성인식 장치 및 방법
KR20210031265A (ko) * 2019-09-11 2021-03-19 삼성전자주식회사 전자 장치 및 그 동작방법

Similar Documents

Publication Publication Date Title
WO2014003283A1 (en) Display apparatus, method for controlling display apparatus, and interactive system
WO2021060590A1 (ko) 디스플레이 장치 및 인공 지능 시스템
WO2015194693A1 (ko) 영상 표시 기기 및 그의 동작 방법
WO2019135433A1 (ko) 디스플레이 장치 및 디스플레이 장치를 포함하는 시스템
WO2021060575A1 (ko) 인공 지능 서버 및 그의 동작 방법
WO2019164049A1 (en) Display device and operating method thereof
WO2019009453A1 (ko) 디스플레이 장치
WO2022149620A1 (ko) 디스플레이 장치
WO2024005226A1 (ko) 디스플레이 장치
WO2021025245A1 (ko) 디스플레이 장치 및 서라운드 사운드 시스템
WO2020230923A1 (ko) 음성 인식 서비스를 제공하기 위한 디스플레이 장치 및 그의 동작 방법
WO2021060570A1 (ko) 가전 기기 및 서버
WO2021015319A1 (ko) 디스플레이 장치 및 그의 동작 방법
WO2020122271A1 (ko) 디스플레이 장치
WO2020256184A1 (ko) 디스플레이 장치
WO2019164020A1 (ko) 디스플레이 장치
WO2021033785A1 (ko) 사용자의 음성을 통해 가전 기기를 제어할 수 있는 디스플레이 장치 및 인공 지능 서버
WO2020222322A1 (ko) 음성 인식 서비스를 제공하기 위한 디스플레이 장치
WO2023176997A1 (ko) 디스플레이 장치
WO2020122274A1 (ko) 디스플레이 장치
WO2024010110A1 (ko) 디스플레이 장치 및 그의 동작 방법
WO2024025003A1 (ko) 디스플레이 장치 및 그의 동작 방법
WO2021177495A1 (ko) 자연어 처리 장치
WO2023200026A1 (ko) 디스플레이 장치
WO2024019186A1 (ko) 디스플레이 장치 및 그의 동작 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22949519

Country of ref document: EP

Kind code of ref document: A1