WO2019164020A1 - 디스플레이 장치 - Google Patents
디스플레이 장치 Download PDFInfo
- Publication number
- WO2019164020A1 WO2019164020A1 PCT/KR2018/002070 KR2018002070W WO2019164020A1 WO 2019164020 A1 WO2019164020 A1 WO 2019164020A1 KR 2018002070 W KR2018002070 W KR 2018002070W WO 2019164020 A1 WO2019164020 A1 WO 2019164020A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- address
- display device
- web site
- page
- display apparatus
- Prior art date
Links
- 238000003058 natural language processing Methods 0.000 claims abstract description 61
- 238000004458 analytical method Methods 0.000 claims abstract description 30
- 238000000034 method Methods 0.000 claims description 39
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 238000004891 communication Methods 0.000 description 28
- 230000006870 function Effects 0.000 description 21
- 238000010586 diagram Methods 0.000 description 20
- 238000004364 calculation method Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 7
- 230000005236 sound signal Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 235000021109 kimchi Nutrition 0.000 description 3
- 235000013547 stew Nutrition 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000004984 smart glass Substances 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
- H04N21/4394—Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/48—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9538—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/955—Retrieval from the web using information identifiers, e.g. uniform resource locators [URL]
- G06F16/9558—Details of hyperlinks; Management of linked annotations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42203—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4782—Web browsing, e.g. WebTV
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/482—End-user interface for program selection
- H04N21/4828—End-user interface for program selection for searching program descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/63—Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
- H04N21/643—Communication protocols
- H04N21/64322—IP
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/65—Transmission of management data between client and server
- H04N21/654—Transmission by server directed to the client
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/65—Transmission of management data between client and server
- H04N21/658—Transmission by the client directed to the server
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/84—Generation or processing of descriptive data, e.g. content descriptors
- H04N21/8405—Generation or processing of descriptive data, e.g. content descriptors represented by keywords
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Definitions
- the present invention relates to a display device.
- Digital TV services using wired or wireless communication networks are becoming common.
- Digital TV service can provide a variety of services that could not be provided in the conventional analog broadcasting service.
- IPTV Internet Protocol Television
- smart TV service provide bidirectionality that allows a user to actively select a type of viewing program and a viewing time.
- IPTV, smart TV service may provide a variety of additional services, such as Internet search, home shopping, online games, etc. based on this bidirectionality.
- NLP server Natural Language Processing server
- the TV connects to ⁇ www.nanda.com > provided from the natural language processing server and runs a web browser.
- the natural language processing server When a user utters the name of a website associated with nanda, such as ⁇ Open nanda music in a web browser> or ⁇ Open nanda map in a web browser>, the natural language processing server is not a registered website name. There is no information about this.
- the TV cannot provide a website corresponding to a website name associated with nanda uttered by the user.
- An object of the present invention is to provide a display device that allows a user to access a web site corresponding to a spoken voice command even if the web site is not registered in advance.
- An object of the present invention is to provide a display device capable of automatically executing content by accessing a web site corresponding to a voice command spoken by a user.
- An object of the present invention is to provide a display device capable of analyzing a code of a web site and automatically providing a search result.
- a display apparatus includes a display unit, a storage unit for storing information about a web page, a microphone for receiving a voice command of a user, a network interface unit for communicating with a natural language processing server, and text data of the voice command Transmits to the natural language processing server, receives intention analysis result information corresponding to the voice command from the natural language processing server, and if a search word included in the received intention analysis result information is not stored in the storage unit, The control unit may select one of a plurality of candidate addresses related to a search word as a final candidate address and access a web site corresponding to the selected final candidate address.
- a user may quickly access a web site and content with a simple voice command, thereby providing a more improved user experience.
- FIG. 1 is a block diagram illustrating a configuration of a display apparatus according to an exemplary embodiment.
- FIG. 2 is a block diagram of a remote control apparatus according to an embodiment of the present invention.
- Figure 3 shows an example of the actual configuration of the remote control device according to an embodiment of the present invention.
- FIG. 4 shows an example of using a remote control device according to an embodiment of the present invention.
- FIG. 5 is a block diagram illustrating a configuration of a voice recognition system according to an embodiment of the present invention.
- FIG. 6 is a ladder diagram illustrating a method of operating a speech recognition system according to an embodiment of the present invention.
- FIG. 7 is a diagram illustrating information stored in the history DB according to an embodiment of the present invention.
- FIG. 8 is a flowchart illustrating a process of selecting a final candidate address among a plurality of candidate addresses according to an embodiment of the present invention.
- FIG. 9 is a ladder diagram illustrating a method of operating a voice recognition system according to another embodiment of the present invention.
- FIG. 10 is a ladder diagram illustrating a method of operating a speech recognition system according to another embodiment of the present invention.
- 11 to 15 are diagrams for describing a method of operating a display apparatus, which analyzes a code of a web site and automatically provides a search result according to an exemplary embodiment of the present invention.
- the display device is, for example, an intelligent display device in which a computer support function is added to a broadcast reception function.
- the display device is faithful to the broadcast reception function and has an Internet function added thereto. Or it can be equipped with a more convenient interface, such as a space remote control.
- a computer with the support of a wired or wireless Internet function, it is possible to perform functions such as email, web browsing, banking or gaming. Standardized general-purpose operating systems can be used for these various functions.
- the display device described in the present invention various applications can be freely added or deleted, for example, on a general-purpose OS kernel, so that various user-friendly functions can be performed.
- the display device may be, for example, a network TV, an HBBTV, a smart TV, an LED TV, an OLED TV, or the like, and may be applicable to a smartphone in some cases.
- FIG. 1 is a block diagram illustrating a configuration of a display apparatus according to an exemplary embodiment of the present invention.
- the display apparatus 100 includes a broadcast receiver 130, an external device interface 135, a storage 140, a user input interface 150, a controller 170, and a wireless communication unit 173.
- the display unit 180 may include an audio output unit 185 and a power supply unit 190.
- the broadcast receiver 130 may include a tuner 131, a demodulator 132, and a network interface unit 133.
- the tuner 131 may tune a specific broadcast channel according to a channel tuning command.
- the tuner 131 may receive a broadcast signal for a tuned specific broadcast channel.
- the demodulator 132 may separate the received broadcast signal into a video signal, an audio signal, and a data signal associated with a broadcast program, and may restore the separated video signal, the audio signal, and the data signal into a form capable of outputting the broadcast signal.
- the external device interface unit 135 may receive an application or a list of applications in a neighboring external device and transmit the received application to the controller 170 or the storage 140.
- the external device interface unit 135 may provide a connection path between the display device 100 and the external device.
- the external device interface unit 135 may receive one or more of an image and audio output from an external device connected to the display apparatus 100 by wireless or wired, and transmit the received one or more to the control unit 170.
- the external device interface unit 135 may include a plurality of external input terminals.
- the plurality of external input terminals may include an RGB terminal, one or more High Definition Multimedia Interface (HDMI) terminals, and a component terminal.
- HDMI High Definition Multimedia Interface
- the image signal of the external device input through the external device interface unit 135 may be output through the display unit 180.
- the audio signal of the external device input through the external device interface unit 135 may be output through the audio output unit 185.
- the external device connectable to the external device interface unit 135 may be any one of a set top box, a Blu-ray player, a DVD player, a game machine, a sound bar, a smartphone, a PC, a USB memory, a home theater, but this is merely an example. .
- the network interface unit 133 may provide an interface for connecting the display apparatus 100 to a wired / wireless network including an internet network.
- the network interface unit 133 may transmit or receive data with another user or another electronic device through the connected network or another network linked to the connected network.
- some content data stored in the display apparatus 100 may be transmitted to a user selected from another user or another electronic device registered in the display apparatus 100 or a selected electronic apparatus.
- the network interface unit 133 may access a predetermined web page through a connected network or another network linked to the connected network. That is, by accessing a predetermined web page through the network, it is possible to send or receive data with the server.
- the network interface unit 133 may receive content or data provided by a content provider or a network operator. That is, the network interface unit 133 may receive content such as a movie, an advertisement, a game, a VOD, a broadcast signal, and related information provided from a content provider or a network provider through a network.
- content such as a movie, an advertisement, a game, a VOD, a broadcast signal, and related information provided from a content provider or a network provider through a network.
- the network interface unit 133 may receive the update information and the update file of the firmware provided by the network operator, and may transmit data to the Internet or the content provider or the network operator.
- the network interface unit 133 may select and receive a desired application from among applications that are open to the public through the network.
- the storage 140 may store a program for processing and controlling each signal in the controller 170, and may store a signal, an image, an audio, or a data signal.
- the storage unit 140 may perform a function for temporarily storing an image, audio, or data signal input from the external device interface unit 135 or the network interface unit 133. You can also store information about the image.
- the storage unit 140 may store an application or a list of applications input from the external device interface unit 135 or the network interface unit 133.
- the display apparatus 100 may reproduce and provide a content file (video file, still image file, music file, document file, application file, etc.) stored in the storage 140 to the user.
- a content file video file, still image file, music file, document file, application file, etc.
- the user input interface unit 150 may transmit a signal input by the user to the controller 170, or may transmit a signal from the controller 170 to the user.
- the user input interface unit 150 may be configured according to various communication methods such as Bluetooth, Ultra Wideband (WB), ZigBee, RF (Radio Frequency) communication, or Infrared (IR) communication.
- the remote controller 200 may receive and process a control signal such as power on / off, channel selection, screen setting, or the like, or transmit a control signal from the controller 170 to the remote controller 200.
- the user input interface unit 150 may transmit a control signal input from a local key (not shown) such as a power key, a channel key, a volume key, and a set value to the controller 170.
- a local key such as a power key, a channel key, a volume key, and a set value
- the image signal processed by the controller 170 may be input to the display unit 180 and displayed as an image corresponding to the image signal.
- the image signal processed by the controller 170 may be input to the external output device through the external device interface unit 135.
- the audio signal processed by the controller 170 may be audio output to the audio output unit 185.
- the voice signal processed by the controller 170 may be input to the external output device through the external device interface unit 135.
- controller 170 may control overall operations of the display apparatus 100.
- controller 170 may control the display apparatus 100 by a user command or an internal program input through the user input interface unit 150, and access the network to display an application or a list of applications desired by the user. Can be downloaded to (100).
- the controller 170 may output the channel information selected by the user together with the processed video or audio signal through the display unit 180 or the audio output unit 185.
- the controller 170 may output an external device input through the external device interface unit 135, for example, from a camera or a camcorder, according to an external device image playback command received through the user input interface unit 150.
- the video signal or the audio signal may be output through the display unit 180 or the audio output unit 185.
- the controller 170 may control the display unit 180 to display an image, for example, a broadcast image input through the tuner 131 or an external input input through the external device interface 135.
- An image, an image input through a network interface unit, or an image stored in the storage 140 may be controlled to be displayed on the display unit 180.
- the image displayed on the display unit 180 may be a still image or a video, and may be a 2D image or a 3D image.
- the controller 170 may control the content stored in the display apparatus 100, the received broadcast content, or the external input content input from the outside to be reproduced.
- the content may include a broadcast image, an external input image, and an audio file. , Still images, connected web screens, and document files.
- the wireless communication unit 173 may communicate with an external device through wired or wireless communication.
- the wireless communication unit 173 may perform short range communication with an external device.
- the wireless communication unit 173 may include Bluetooth TM, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, Near Field Communication (NFC), Wi-Fi.
- Local area communication may be supported using at least one of wireless-fidelity, Wi-Fi Direct, and wireless universal serial bus (USB) technologies.
- the wireless communicator 173 may communicate between the display apparatus 100 and the wireless communication system, between the display apparatus 100 and another display apparatus 100, or with the display apparatus 100 through a local area network. Wireless communication between the network where the display apparatus 100 or the external server is located may be supported.
- the local area network may be local area network (Wireless Personal Area Networks).
- the other display device 100 is a wearable device capable of exchanging (or interworking) data with the display device 100 according to the present invention (eg, smartwatch, smart glasses). (smart glass), head mounted display (HMD), and a mobile terminal such as a smart phone.
- the wireless communication unit 173 may detect (or recognize) a wearable device that can communicate with the display apparatus 100 in the vicinity of the display apparatus 100.
- the controller 170 may select at least a portion of data processed by the display apparatus 100, and may use the wireless communication unit 173. Can be transmitted to the wearable device. Therefore, a user of the wearable device may use data processed by the display apparatus 100 through the wearable device.
- the display unit 180 converts the image signal, the data signal, the OSD signal processed by the controller 170, or the image signal, data signal, etc. received from the external device interface unit 135 into R, G, B signals, respectively. You can generate a signal.
- the display device 100 shown in FIG. 1 is only an embodiment of the present invention. Some of the illustrated components may be integrated, added, or omitted according to the specifications of the display apparatus 100 that is actually implemented.
- two or more components may be combined into one component as needed, or one component may be divided into two or more components.
- the function performed in each block is for explaining an embodiment of the present invention, the specific operation or device does not limit the scope of the present invention.
- the display apparatus 100 does not include the tuner 131 and the demodulator 132, as shown in FIG. 1, but the network interface unit 133 or the external device interface unit ( 135 may be received and played back.
- the display apparatus 100 may be divided into an image processing apparatus such as a set-top box, such as for receiving broadcast signals or contents according to various network services, and a content reproducing apparatus for playing contents input from the image processing apparatus. Can be implemented.
- an image processing apparatus such as a set-top box, such as for receiving broadcast signals or contents according to various network services
- a content reproducing apparatus for playing contents input from the image processing apparatus. Can be implemented.
- the operation method of the display apparatus according to the embodiment of the present invention described below is not only the display apparatus 100 as described with reference to FIG. 1, but also an image processing apparatus or a display unit such as the separated set-top box or the like. 180 may be performed by any one of the content reproduction device including the audio output unit 185.
- FIG. 2 is a block diagram of a remote control apparatus according to an embodiment of the present invention
- Figure 3 shows an actual configuration of the remote control apparatus 200 according to an embodiment of the present invention.
- the remote control apparatus 200 includes a fingerprint recognition unit 210, a wireless communication unit 220, a user input unit 230, a sensor unit 240, an output unit 250, and a power supply unit 260. ), A storage unit 270, a control unit 280, and a voice acquisition unit 290.
- the wireless communication unit 225 transmits and receives a signal with any one of the display apparatus according to the embodiments of the present invention described above.
- the remote control apparatus 200 includes an RF module 221 capable of transmitting and receiving a signal with the display apparatus 100 according to the RF communication standard, and capable of transmitting and receiving a signal with the display apparatus 100 according to the IR communication standard.
- IR module 223 may be provided.
- the remote control apparatus 200 may include a Bluetooth module 225 capable of transmitting and receiving signals with the display apparatus 100 according to the Bluetooth communication standard.
- the remote control apparatus 200 includes an NFC module 227 capable of transmitting and receiving a signal to and from the display apparatus 100 according to a Near Field Communication (NFC) communication standard, and displaying according to a WLAN (Wireless LAN) communication standard.
- WLAN module 229 capable of transmitting and receiving signals to and from device 100 may be provided.
- the remote control apparatus 200 transmits a signal containing information regarding the movement of the remote control apparatus 200 to the display apparatus 100 through the wireless communication unit 220.
- the remote control device 200 may receive a signal transmitted from the display device 100 through the RF module 221, and if necessary, the power supply to the display device 100 via the IR module 223 / Commands regarding off, channel change, volume change, etc. can be sent.
- the user input unit 230 may include a keypad, a button, a touch pad, or a touch screen.
- the user may input a command related to the display apparatus 100 to the remote control apparatus 200 by manipulating the user input unit 230.
- the user input unit 230 includes a hard key button, the user may input a command related to the display apparatus 100 to the remote control apparatus 200 through a push operation of the hard key button. This will be described with reference to FIG. 3.
- the remote control apparatus 200 may include a plurality of buttons.
- the plurality of buttons may include a fingerprint recognition button 212, a power button 231, a home button 232, a live button 233, an external input button 234, a volume control button 235, a voice recognition button 236, It may include a channel change button 237, a confirmation button 238, and a back button 239.
- the fingerprint recognition button 212 may be a button for recognizing a fingerprint of a user. In one embodiment, the fingerprint recognition button 212 may be pushed to receive a push operation and a fingerprint recognition operation.
- the power button 231 may be a button for turning on / off the power of the display apparatus 100.
- the home button 232 may be a button for moving to the home screen of the display apparatus 100.
- the live button 233 may be a button for displaying a live broadcast program.
- the external input button 234 may be a button for receiving an external input connected to the display apparatus 100.
- the volume control button 235 may be a button for adjusting the volume of the volume output from the display apparatus 100.
- the voice recognition button 236 may be a button for receiving a user's voice and recognizing the received voice.
- the channel change button 237 may be a button for receiving a broadcast signal of a specific broadcast channel.
- the confirmation button 238 may be a button for selecting a specific function, and the back button 239 may be
- the user input unit 230 When the user input unit 230 includes a touch screen, the user may input a command related to the display apparatus 100 to the remote control apparatus 200 by touching a soft key of the touch screen.
- the user input unit 230 may include various kinds of input means that the user can operate, such as a scroll key or a jog key, and the embodiment does not limit the scope of the present invention.
- the sensor unit 240 may include a gyro sensor 241 or an acceleration sensor 243, and the gyro sensor 241 may sense information about the movement of the remote controller 200.
- the gyro sensor 241 may sense information about the operation of the remote control device 200 based on the x, y, and z axes, and the acceleration sensor 243 may move the speed of the remote control device 200. Information about the data can be sensed.
- the remote control device 200 may further include a distance measuring sensor, it can sense the distance to the display unit 180 of the display device 100.
- the output unit 250 may output a video or audio signal corresponding to an operation of the user input unit 235 or a signal transmitted from the display apparatus 100.
- the user may recognize whether the user input unit 235 is manipulated or whether the display apparatus 100 is controlled through the output unit 250.
- the output unit 250 is an LED module 251 that is turned on when the user input unit 235 is manipulated or a signal is transmitted to or received from the display apparatus 100 through the wireless communication unit 225, and a vibration module generating vibration. 253, a sound output module 255 for outputting sound, or a display module 257 for outputting an image.
- the power supply unit 260 supplies power to the remote control device 200, and can reduce power waste by stopping the power supply when the remote control device 200 does not move for a predetermined time.
- the power supply unit 260 may resume power supply when a predetermined key provided in the remote control apparatus 200 is operated.
- the storage unit 270 may store various types of programs, application data, and the like necessary for controlling or operating the remote control apparatus 200. If the remote control apparatus 200 transmits and receives a signal wirelessly through the display apparatus 100 and the RF module 221, the remote control apparatus 200 and the display apparatus 100 transmit and receive signals through a predetermined frequency band. .
- the controller 280 of the remote controller 200 stores and stores information on a frequency band for transmitting and receiving a signal wirelessly with the display apparatus 100 paired with the remote controller 200 in the storage unit 270. can do.
- the controller 280 controls various matters related to the control of the remote controller 200.
- the controller 280 may display a signal corresponding to a predetermined key manipulation of the user input unit 235 or a signal corresponding to a movement of the remote controller 200 sensed by the sensor unit 240 through the wireless communication unit 225. 100).
- the voice acquisition unit 290 of the remote control device 200 may obtain a voice.
- the voice acquirer 290 may include at least one or more microphones 291, and may acquire voices through the microphone 291.
- FIG. 4 is demonstrated.
- FIG. 4 shows an example of using a remote control device according to an embodiment of the present invention.
- FIG. 4A illustrates that a pointer 205 corresponding to the remote control apparatus 200 is displayed on the display unit 180.
- the user may move or rotate the remote control apparatus 200 vertically, left and right.
- the pointer 205 displayed on the display unit 180 of the display apparatus 100 corresponds to the movement of the remote control apparatus 200.
- the remote control apparatus 200 may be referred to as a spatial remote controller because the pointer 205 is moved and displayed according to the movement in the 3D space as shown in the figure.
- FIG. 4B illustrates that when the user moves the remote control apparatus 200 to the left side, the pointer 205 displayed on the display unit 180 of the display apparatus 100 also moves to the left side correspondingly.
- the display apparatus 100 may calculate the coordinates of the pointer 205 from the information about the movement of the remote control apparatus 200.
- the display apparatus 100 may display the pointer 205 to correspond to the calculated coordinates.
- FIG. 4C illustrates a case in which the user moves the remote control apparatus 200 away from the display unit 180 while pressing a specific button in the remote control apparatus 200.
- the selection area in the display unit 180 corresponding to the pointer 205 may be zoomed in to be enlarged and displayed.
- the selection area in the display unit 180 corresponding to the pointer 205 may be zoomed out and reduced.
- the selection area may be zoomed out, and when the remote control apparatus 200 approaches the display unit 180, the selection area may be zoomed in.
- recognition of up, down, left and right movements may be excluded when a specific button in the remote control apparatus 200 is pressed. That is, when the remote control apparatus 200 moves away from or approaches the display unit 180, the up, down, left, and right movements are not recognized, and only the front and back movements may be recognized. In a state in which a specific button in the remote control apparatus 200 is not pressed, only the pointer 205 moves according to the up, down, left, and right movements of the remote control apparatus 200.
- the moving speed or the moving direction of the pointer 205 may correspond to the moving speed or the moving direction of the remote control apparatus 200.
- the pointer in the present specification refers to an object displayed on the display unit 180 in response to the operation of the remote control apparatus 200.
- the pointer 205 may be an object of various shapes in addition to the arrow shape shown in the drawing.
- the concept may include a point, a cursor, a prompt, a thick outline, and the like.
- the pointer 205 may be displayed corresponding to any one of the horizontal axis and the vertical axis of the display unit 180, or may be displayed corresponding to a plurality of points such as a line and a surface. Do.
- FIG. 5 is a block diagram illustrating a configuration of a voice recognition system according to an embodiment of the present invention.
- the speech recognition system 1 may include a display apparatus 100, a speech to text (STT) server 10, and a natural language processing server 30. .
- STT speech to text
- the display apparatus 100 may exchange information with the STT server 10 and the NLP server 30.
- the display apparatus 100 may receive a voice command of the user and transmit voice data corresponding to the received voice command to the STT server 10.
- the STT server 10 may convert voice data received from the display apparatus 100 into text data, and transmit the converted text data to the display apparatus 100.
- the display apparatus 100 may transmit the received text data to the NLP server 30.
- the NLP server 30 may perform natural language processing based on text data received from the display apparatus 100.
- the NLP server 30 may generate intention analysis result information reflecting the intention analysis result according to the result of performing the natural language processing, and transmit the generated intention analysis result information to the display apparatus 100.
- the display apparatus 100 may access a specific web site based on the received intention analysis result information.
- the display apparatus 100 may further include a voice agent 51, an NLP client 53, an NLP manager 55, and a web browser driver 70.
- the voice agent 51 may request the NLP client 53 to enter the voice recognition mode according to a control signal for entering the voice recognition mode received from the remote control apparatus 200.
- the voice agent 51 may display a UI notifying the entry of the voice recognition mode on the display unit 180 according to the control signal.
- the NLP client 53 may enter the operation mode of the display apparatus 100 into the voice recognition mode according to the request to enter the voice recognition mode.
- the NLP client 53 may receive a voice command of the user and convert the received voice command into voice data.
- the NLP client 53 may transmit voice data to the STT server 10.
- the NLP client 53 may transmit voice data to the STT server 10 through the network interface unit 133.
- the NLP client 53 may transfer the text data received from the STT server 10 to the NLP manager 55.
- the NLP manager 55 may determine whether to perform a function corresponding to the text data by itself based on the text data.
- the NLP manager 55 may perform the corresponding function. For example, when the function corresponding to the text data is any one of power on / off, channel change, and volume control of the display apparatus 100, the function may be executed.
- the NLP manager 55 may transmit the text data to the NLP server 30.
- the NLP manager 55 may receive intention analysis result information corresponding to the text data from the NLP server 30.
- the NLP manager 55 may transmit the received intention analysis result information to the NLP client 53.
- the NLP client 53 may transmit the received intent analysis result information to the voice agent 51, and the voice agent 51 may transmit a search word included in the intention analysis result information to the web browser driver 70.
- the intention analysis result information may also include a natural language for running a web browser.
- the web browser driver 70 may drive a web browser and obtain an address of a web site corresponding to a search word.
- the web browser driver 70 may include a browser auto launcher 71, a history DB 73, and a web engine 75.
- the browser auto launcher 71 may determine whether a search word included in the intention analysis result information is stored in the history DB 73, and select an address of a web site according to the determination.
- the browser auto launcher 71 may include a roman conversion unit 71a and an address selection unit 71b.
- the roman conversion unit 71a may convert a search word into roman characters.
- the roman conversion unit 71a may determine whether a search word or a search word converted to roman characters is stored in the history DB 73.
- the address selector 71b may select a web site address corresponding to the web site information as an address to access when the web site information including the search word or a search word converted to roman characters is stored in the history DB 73. .
- the address selector 71b acquires a plurality of candidate addresses when the website information including the search word or the search word converted to roman characters is not stored in the history DB 73, and selects one of the plurality of candidate addresses. Can be selected as the final candidate address. This will be described later in detail.
- the history DB 73 may store a page title indicating a name of a web page accessed by the user, a link title and a link address corresponding to the link title, a web site address, and page text included in the web page.
- the history DB 73 may be included in the storage 140 of FIG. 1.
- the web engine 75 can access the address of the web site selected by the address selector 71b.
- the voice agent 51, the NLP client 53, the NLP manager 55, and the web browser driver 70 may be included in the controller 170.
- the STT server 10 and the NLP server 30 are described in separate configurations, but may be implemented as one server.
- FIG. 6 is a ladder diagram illustrating a method of operating a speech recognition system according to an embodiment of the present invention.
- the controller 170 of the display apparatus 100 receives a voice command (S601).
- the display apparatus 100 may include a microphone and may receive a voice command of a user through the microphone.
- the wireless communication unit 173 of the display apparatus 100 may receive a voice command from the remote control apparatus 200. That is, the user may utter a voice command through the remote control apparatus 200, and the spoken voice command may be transmitted to the display apparatus 100 through the remote control apparatus 200.
- the remote control apparatus 200 may include a voice recognition button.
- the remote control apparatus 200 may display a control signal for operating the operation mode of the display apparatus 100 in the voice recognition mode. ) Can be sent.
- the display apparatus 100 may enter the operation mode of the display apparatus 100 into the voice recognition mode according to the received control signal.
- the microphone provided in the display apparatus 100 may be activated.
- the controller 170 of the display apparatus 100 may convert voice data corresponding to a voice command into text data and may have a function of performing natural language processing on the text data.
- the controller 170 does not transmit text data corresponding to the voice command to the NLP server 30 when the intention analysis of the voice command is possible through the natural language processing module included in the controller 170. You may not.
- the controller 170 may analyze the intention of the voice command and turn off the power of the display apparatus 100 according to the analysis result.
- the controller 170 may perform a function of the display apparatus 100 corresponding to the text data by itself.
- Examples of functions of the display apparatus 100 that the controller 170 may perform based on natural language processing of a voice command include one or more of power on / off, channel change, and volume control of the display apparatus 100. can do.
- the controller 170 of the display apparatus 100 receives voice data corresponding to the received voice command. STT The server 10 transmits the data to the server 10 (S603).
- the controller 170 of the display apparatus 100 may transmit voice data to the STT server 10 through the network interface unit 133.
- the server 10 converts the voice data received from the display apparatus 100 into text data and transmits the converted text data to the display apparatus 100 (S605).
- the control unit 170 of the display device 100 STT
- the text data received from the server 10 is transmitted to the NLP server 30 (S607).
- the controller 170 of the display apparatus 100 may transmit text data to the NLP server 30 through the network interface unit 133.
- the NLP server 30 writes to text data received from the display apparatus 100. Based on In operation S609, the intention analysis result information is transmitted to the display apparatus 100 indicating the result of the intention analysis.
- the NLP server 30 may perform intention analysis of the user based on the text data received from the display apparatus 100.
- the NLP server 10 may analyze text data according to a natural language processing technique to perform intention analysis of a user.
- Natural language processing is a technique that mechanically analyzes natural language and outputs results in a form that can be understood by a computer, or outputs a language that can be understood by a human.
- the intention analysis result information may include a search word that a user wants to search. For example, when the user utters ⁇ Open Nanda Music>, the user's intention may be regarded as an intention to view a website corresponding to Nanda Music.
- the search term may be ⁇ Nanda Music>.
- the control unit 170 of the display apparatus 100 is a search word included in the received intention analysis result history It is determined whether it is stored in the DB 73 (S611).
- the history DB 73 may store an address (URL) of the web site, a page title of the web site, a link address corresponding to the link title and the link title, and the page text.
- URL address
- the page title of the web site may be the name of the web site.
- the link title may be a title accessible to a specific address in a web page of the web site. If a link title is selected, it may be connected to a link address corresponding to the link title.
- the page text may be text displayed on a web page.
- FIG. 7 is a diagram illustrating information stored in the history DB according to an embodiment of the present invention.
- a web page 700 is shown.
- the web page 700 may include a page title 701, an address 703 of a web site, a link title 705, and a page text 707.
- the page title 701 may indicate the name of a web site, and in FIG. 7, ⁇ Nanda Music> may be the page title 701.
- the address 703 of the web site may be an address that tells where the resource is on the network.
- ⁇ music.nanda.com> may be an address 703 of a web site.
- the link title 705 may be a title accessible to an address of a specific web site. For example, when a link title 705 called ⁇ Park Ji Min> is selected, the display apparatus 100 may access a link address corresponding to the link title 705. The link address may also be the address of a particular web site.
- Page text 707 may include text contained within web page 700.
- the controller 170 of the display apparatus 100 accesses a specific website, the controller 170 extracts a page title 701, an address 703, a link title 705, and a page text 707 of the website. Can be stored in the history DB 73.
- the controller 170 of the display apparatus 100 may store the page title 701 of the web site, the address 703 of the web site, the link title 705 and the page text 707 as a group. That is, the page title 701 of the web site, the address 703 of the web site, the link title 705 and the page text 707 may each be matched with each other and stored.
- the controller 170 of the display apparatus 100 accesses a web site corresponding to the page title (S615).
- the controller 170 may extract the address of the web site matching the page title.
- the controller 170 may control the web browser driver 70 to access the extracted web site address.
- the controller 170 may access a web site address and display the web page on the display 180.
- the controller 170 of the display apparatus 100 does not store the page title including the search word in the history DB 73. If not , history A plurality of candidate addresses are obtained through the DB (S617).
- the controller 170 may use the first rate at which the search word overlaps with the page title or the link title, the second rate at which the search word overlaps with the page text, and the third rate at which the romanized search word and the address of the web site overlap.
- a plurality of candidate addresses may be obtained.
- the controller 170 may obtain the address of the web site matching the page title or the link title as a candidate address.
- the controller 170 may obtain the address of the web site matching the page text as the candidate address.
- the controller 170 may obtain the address of the web site as a candidate address.
- the controller 170 of the display apparatus 100 selects a final candidate address from among the obtained plurality of candidate addresses (S619), and accesses a web site corresponding to the selected final candidate address (S619).
- the controller 170 may assign different weights to each of the first ratio, the second ratio, and the third ratio, and select the final candidate address using the assigned weights.
- the first ratio may have a weight of 1.5
- the second ratio may have a weight of 1.2
- the third ratio may have a weight of 1.
- the controller 170 may obtain weight calculation values through a product of each ratio and a weight corresponding thereto, and select a candidate address corresponding to the largest weight calculation value among the obtained weight calculation values as the final candidate address.
- FIG. 8 is a flowchart illustrating a process of selecting a final candidate address among a plurality of candidate addresses according to an embodiment of the present invention.
- FIG. 8 is a diagram for explaining S613 to S619 of FIG. 6 in more detail.
- the controller 170 of the display apparatus 100 determines whether a page title including a search word is stored in the history DB 73 (S613).
- the controller 170 indicates that the page title including the search word is history If it is stored in the DB 73, the address of the web site corresponding to the page title is extracted and connected to the address of the extracted web site (S615).
- the controller 170 indicates that the page title including the search word is history Not stored in DB (73) If not , The link title containing the query history It is determined whether there exists in the DB 73 (S701).
- the control unit 170 is a link title containing a search word history If present in the DB 73, the address of the web site corresponding to the retrieved link title is extracted, and the address of the extracted web site is connected (S703).
- the control unit 170 is a link title containing a search word history Within DB 73 Nonexistent In operation S705, a plurality of candidate addresses are obtained.
- the controller 170 may calculate a first ratio indicating a degree of matching the search word and each of the plurality of page titles stored in the history DB 73 or the degree of matching with each of the plurality of link titles. have.
- the degree of matching may be obtained by comparing the letters of the search word with the letters of the page title or the letters of the link title.
- the number of letters in the search word is five
- the number of letters in the page title is seven
- the number of letters corresponding to the letters in the page title among the letters in the search word may be 3/5.
- the controller 170 may register the address of the web site corresponding to the page title or the link title as a candidate address.
- the reference ratio is 50%, but this is only an example.
- the controller 170 may calculate a second ratio indicating a degree of matching between the search word and each of the plurality of page texts stored in the history DB 73.
- the controller 170 may register the address of the web site matching the page text as the candidate address.
- the controller 170 may calculate a third ratio indicating a degree of matching between a search word converted to roman characters and an address of a web site stored in the history DB 73.
- the third ratio may be 7/10.
- the controller 170 may register the address of the web site as a candidate address.
- the controller 170 obtains a first weight calculation value obtained by multiplying a weight by 1.5 to a first ratio indicating a degree of matching between the search word and the page title or the search word and the link title (S707).
- the controller 170 obtains a second weight calculation value obtained by multiplying a weight 1.2 by a second ratio indicating a degree of matching between the search word and the page text (S709).
- the controller 170 obtains a third weight calculation value obtained by multiplying a weight 1.0 by a third ratio indicating a degree of correspondence between a search word converted to a roman letter and a link title (S711).
- the control unit 170 of the first, second, third weight calculation value At the maximum value
- the corresponding candidate address is selected as the final candidate address (S713).
- controller 170 accesses the web site of the selected final candidate address.
- FIG. 9 is a ladder diagram illustrating a method of operating a voice recognition system according to another embodiment of the present invention.
- FIG. 9 is based on the embodiment of FIGS. 6 and 8.
- FIG. 6 illustrates a method for opening a web site intended by a user through speech recognition
- FIG. 9 illustrates a method for playing content on an open web site and an opened web site intended by the user through speech recognition. .
- the intention analysis result information received from the NLP server 30 by the display apparatus 100 may include a web site search word and a content search word.
- the web site search term may be ⁇ Nanda Music>, and the content search term may be ⁇ Susan Autumn Morning>.
- ⁇ Nanda Music> is the page title of the website
- ⁇ Susan> is the name of the singer
- ⁇ Autumn Morning> is the song name of the singer.
- FIG. 9 may be a flowchart performed after the ladder diagram of FIG. 6.
- the control unit 170 of the display apparatus 100 is connected to the web page, Content It is determined whether a search word exists (S901).
- the controller 170 may determine whether there is a content search term "Susan Autumn Morning" in the web page 700 illustrated in FIG. 7.
- the control unit 170 in the connected web page, Content If a search term exists, the search term corresponding to the content query Content Playback is performed (S903).
- the controller 170 searches for the HTML media tag of the web page 700 and retrieves the searched content. Using Media Tags, you can play ⁇ Susan Autumn Morning>.
- the control unit 170 in the connected web page Content
- the query is Nonexistent If it is, the input field in the web page is searched (S905).
- the input field may be a field for searching for content in a web page.
- the control unit 170 in the searched input field Content The search term is automatically input (S907).
- the control unit 170 Content From a web page you access as you type a search term Of content
- the media tag for playback is searched (S909).
- the controller 170 uses the found media tag, Content
- the content corresponding to the search word is automatically played (S911).
- FIG. 10 is a ladder diagram illustrating a method of operating a speech recognition system according to another embodiment of the present invention.
- FIG. 10 illustrates an example in which there is a foreground application in which an application supporting a voice recognition service installed in the display apparatus 100 continuously operates.
- FIG. 10 illustrates that the display apparatus 100 does not send the text data received from the STT server 10 to the NLP server 30, but first, by using the foreground application, the web site connection and content through voice recognition are performed.
- the controller 170 of the display apparatus 100 receives a voice command in operation S1001.
- the controller 170 of the display apparatus 100 receives voice data corresponding to the received voice command. STT The server 10 transmits the data to the server 10 (S1003).
- the server 10 converts the voice data received from the display apparatus 100 into text data and transmits the converted text data to the display apparatus 100 (S1005).
- the NLP client 53 of the controller 170 supports a voice recognition service. Foreground The application is It is determined whether there exists (S1007).
- the foreground application is an application continuously running in the display apparatus 100, and may be an application capable of performing voice recognition and natural language processing services.
- the NLP client 53 of the controller 170 supports a voice recognition service. Foreground The application is If present, the Application In operation S1009, intention analysis result information corresponding to the text data is obtained.
- the intention analysis result information may include a web site search word for searching a web site and a content search word for playing content in the web site.
- controller 170 sequentially performs operations S611 to S621 of FIG. 6 and S901 to S911 of FIG. 9.
- the controller 170 may transmit text data to the NLP server 30 and receive intention analysis result information corresponding to the text data. The following steps can be performed.
- 11 to 15 are diagrams for describing a method of operating a display apparatus according to another exemplary embodiment.
- a web page 1100 is shown. It is assumed that the address of the web page 1100 is ⁇ www.nanda.com >.
- the web page 1100 may include a search input field 1110 for entering a search term, a search term 1130 input by a user, and a magnifying glass icon 1150 for executing a search result for the search term 1130. have.
- the display apparatus 100 checks the query in the URL input window and determines whether the checked query is stored in the database.
- the display apparatus 100 when the search request for the search word 1130 is received, the display apparatus 100 generates a URL corresponding to the search word 1130 using a query of a database.
- the display apparatus 100 may query 1210 as shown in FIG. 12A. ) Can be created.
- the generated query 1210 may include a query address 1211 and a keyword combination 1213 of the search word 1130.
- the query 1230 of another web page includes a query address 1231 and a keyword combination 1233.
- the operator of each web site can change the query address from time to time.
- the present invention intends to propose a method in which a user can easily perform a search using only a representative address of a web site.
- FIG. 13 is a flowchart illustrating a method of operating the display apparatus 100 according to an exemplary embodiment.
- search input is obtained through intention analysis result information obtained according to the voice command of the user described in the embodiment of FIG. 6.
- the display apparatus 100 will be described on the assumption that the display apparatus 100 is connected to a web site called ⁇ www.NANDATV.com > according to a user's voice command. In this case, the display apparatus 100 may access the corresponding web site using the embodiment of FIG. 6.
- control unit 170 of the display apparatus 100 receives a search input in a web page (S1301).
- the search input may be a content search term automatically input to a search input field according to S907 of FIG. 9.
- the content search word may be obtained through a user's voice command.
- the controller 170 of the display apparatus 100 obtains a source code of a web page according to the reception of a search input (S1303), and searches for a keyword item having an input type of text in the obtained source code (S1305).
- the controller 170 inserts the keywords of the search input into the value of the keyword item (S1307).
- FIG. 14 is a diagram illustrating source code of a web page associated with a keyword item according to one embodiment of the present invention.
- the controller 170 may search for the keyword item 1410 whose input type 1411 in the source code is “text”.
- the controller 170 may insert ⁇ kimchi stew + cut + method>, which is a combination of keywords, into the value 1413 of the keyword item 1410.
- the controller 170 searches for a search execution item in the source code (S1309), and performs a mouse event for searching for inserted keywords (S1311).
- 15 is a diagram illustrating source code associated with a search execution item according to an embodiment of the present invention.
- the controller 170 may find a search execution item 1510 for searching for a combination of keywords in the source code.
- the controller 170 may search for a search execution item 1510 in which the button type 1511 in the source code is “submit”.
- the controller 170 may perform a mouse event by using the mouse down type 1513 in the search execution item 1510. Depending on the mouse event, a combination of keywords can be retrieved from the web site.
- the display apparatus 100 may automatically obtain a search result by analyzing a code of a web site without managing a query address of a specific web site as a separate database. .
- the above-described method may be implemented as code that can be read by a processor in a medium in which a program is recorded.
- processor-readable media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like, and may be implemented in the form of a carrier wave (for example, transmission over the Internet). Include.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Library & Information Science (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- User Interface Of Digital Computer (AREA)
- Information Transfer Between Computers (AREA)
Abstract
본 발명의 실시 예에 따른 디스플레이 장치는 디스플레이부와 웹 페이지에 대한 정보를 저장하는 저장부와 사용자의 음성 명령을 수신하는 마이크와 자연어 처리 서버와 통신을 위한 네트워크 인터페이스부 및 상기 음성 명령의 텍스트 데이터를 상기 자연어 처리 서버에 전송하고, 상기 자연어 처리 서버로부터 상기 음성 명령에 대응하는 의도 분석 결과 정보를 수신하고, 수신된 의도 분석 결과 정보에 포함된 검색어가 상기 저장부에 저장되어 있지 않은 경우, 상기 검색어와 관련된 복수의 후보 주소들 중 어느 하나를 최종 후보 주소로 선정하고, 선정된 최종 후보 주소에 대응하는 웹 사이트에 접속하는 제어부를 포함할 수 있다.
Description
본 발명은 디스플레이 장치에 관한 것이다.
유선 또는 무선 통신망을 이용한 디지털 TV 서비스가 보편화되고 있다. 디지털 TV 서비스는 기존의 아날로그 방송 서비스에서는 제공할 수 없었던 다양한 서비스를 제공할 수 있다.
예를 들어, 디지털 TV 서비스의 종류인 IPTV(Internet Protocol Television), smart TV 서비스의 경우 사용자로 하여금 시청 프로그램의 종류, 시청 시간 등을 능동적으로 선택할 수 있도록 하는 양방향성을 제공한다. IPTV, smart TV서비스는 이러한 양방향성을 기반으로 하여 다양한 부가 서비스, 예컨대 인터넷 검색, 홈쇼핑, 온라인 게임 등을 제공할 수도 있다.
또한, 최근에는 TV 서비스 중 사용자의 음성을 인식하여, 인식된 음성에 대응하는 기능을 수행하는 서비스들이 많이 등장하고 있다.
기존의 TV 음성 인식 솔루션들은 사용자가 특정 웹 사이트를 음성을 이용하여, 열고자 할 때, 미리 등록된 사이트에 대해서만 지원한다.
가령, 사용자가 <웹 브라우저에서 난다 열어줘>라고, 발화할 때, 자연어 처리 서버(Natural Language Processing server, NLP server)는 수동으로 난다에 매핑된 <www.nanda.com>을 TV에 제공한다.
TV는 자연어 처리 서버로부터 제공된 <www.nanda.com>에 접속하여, 웹 브라우저를 구동한다.
사용자가 <웹 브라우저에서 nanda 뮤직 열어줘>, <웹 브라우저에서 nanda 지도 열어줘>와 같이, nanda와 연관된 웹 사이트 명칭을 발화하는 경우, 자연어 처리 서버는 미리 등록된 웹 사이트 명칭이 아니므로, 이에 대한 정보가 없다.
이에 따라, TV는 사용자가 발화한 nanda와 연관된 웹 사이트 명칭에 대응하는 웹 사이트를 제공하지 못하는 문제가 있었다.
본 발명은 미리 등록된 웹 사이트가 아니더라도, 사용자가 발화한 음성 명령에 대응하는 웹 사이트에 접속할 수 있도록 하는 디스플레이 장치의 제공을 목적으로 한다.
본 발명은 사용자가 발화한 음성 명령에 대응하는 웹 사이트에 접속하여, 컨텐트를 자동을 실행시킬 수 있는 디스플레이 장치의 제공을 목적으로 한다.
본 발명은 웹 사이트의 코드를 분석하여, 자동으로 검색 결과를 제공할 수 있는 디스플레이 장치의 제공을 목적으로 한다.
본 발명의 실시 예에 따른 디스플레이 장치는 디스플레이부와 웹 페이지에 대한 정보를 저장하는 저장부와 사용자의 음성 명령을 수신하는 마이크와 자연어 처리 서버와 통신을 위한 네트워크 인터페이스부 및 상기 음성 명령의 텍스트 데이터를 상기 자연어 처리 서버에 전송하고, 상기 자연어 처리 서버로부터 상기 음성 명령에 대응하는 의도 분석 결과 정보를 수신하고, 수신된 의도 분석 결과 정보에 포함된 검색어가 상기 저장부에 저장되어 있지 않은 경우, 상기 검색어와 관련된 복수의 후보 주소들 중 어느 하나를 최종 후보 주소로 선정하고, 선정된 최종 후보 주소에 대응하는 웹 사이트에 접속하는 제어부를 포함할 수 있다.
본 발명의 다양한 실시 예에 따르면, 사용자는 간단한 음성 명령만으로, 빠르게 웹 사이트 및 컨텐트에 접근할 수 있어, 보다 향상된 사용자 경험이 제공될 수 있다.
도 1은 본 발명의 일 실시 예에 따른 디스플레이 장치의 구성을 블록도로 도시한 것이다.
도 2은 본 발명의 일 실시 예에 따른 원격제어장치의 블록도이다.
도 3은 본 발명의 일 실시 예에 따른 원격제어장치의 실제 구성 예를 보여준다.
도 4는 본 발명의 실시 예에 따라 원격 제어 장치를 활용하는 예를 보여준다.
도 5는 본 발명의 일 실시 예에 따른 음성 인식 시스템의 구성을 설명하는 블록도이다.
도 6은 본 발명의 일 실시 예에 따른 음성 인식 시스템의 동작 방법을 설명하기 위한 래더 다이어그램이다.
도 7은 본 발명의 일 실시 예에 따라 히스토리 DB가 저장하고 있는 정보를 설명하는 도면이다.
도 8은 본 발명의 일 실시 예에 따라, 복수의 후보 주소들 중 최종 후보 주소를 선정하는 과정을 설명하는 흐름도이다.
도 9는 본 발명의 또 다른 실시 예에 따른 음성 인식 시스템의 동작 방법을 설명하기 위한 래더 다이어그램이다.
도 10은 본 발명의 또 다른 실시 예에 따른 음성 인식 시스템의 동작 방법을 설명하기 위한 래더 다이어그램이다.
도 11 내지 도 15는 본 발명의 실시 예에 따라 웹 사이트의 코드를 분석하여, 자동으로 검색 결과를 제공하는 디스플레이 장치의 동작 방법을 설명하기 위한 도면이다.
이하, 본 발명과 관련된 실시 예에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
본 발명의 실시예에 따른 디스플레이 장치는, 예를 들어 방송 수신 기능에 컴퓨터 지원 기능을 추가한 지능형 디스플레이 장치로서, 방송 수신 기능에 충실하면서도 인터넷 기능 등이 추가되어, 수기 방식의 입력 장치, 터치 스크린 또는 공간 리모콘 등 보다 사용에 편리한 인터페이스를 갖출 수 있다. 그리고, 유선 또는 무선 인터넷 기능의 지원으로 인터넷 및 컴퓨터에 접속되어, 이메일, 웹브라우징, 뱅킹 또는 게임 등의 기능도 수행가능하다. 이러한 다양한 기능을 위해 표준화된 범용 OS가 사용될 수 있다.
따라서, 본 발명에서 기술되는 디스플레이 장치는, 예를 들어 범용의 OS 커널 상에, 다양한 애플리케이션이 자유롭게 추가되거나 삭제 가능하므로, 사용자 친화적인 다양한 기능이 수행될 수 있다. 상기 디스플레이 장치는, 보다 구체적으로 예를 들면, 네트워크 TV, HBBTV, 스마트 TV, LED TV, OLED TV 등이 될 수 있으며, 경우에 따라 스마트폰에도 적용 가능하다.
도 1은 본 발명의 일 실시예에 따른 디스플레이 장치의 구성을 블록도로 도시한 것이다.
도 1을 참조하면, 디스플레이 장치(100)는 방송 수신부(130), 외부장치 인터페이스부(135), 저장부(140), 사용자입력 인터페이스부(150), 제어부(170), 무선 통신부(173), 디스플레이부(180), 오디오 출력부(185), 전원공급부(190)를 포함할 수 있다.
방송 수신부(130)는 튜너(131), 복조부(132) 및 네트워크 인터페이스부(133)를 포함할 수 있다.
튜너(131)는 채널 선국 명령에 따라 특정 방송 채널을 선국할 수 있다. 튜너(131)는 선국된 특정 방송 채널에 대한 방송 신호를 수신할 수 있다.
복조부(132)는 수신한 방송 신호를 비디오 신호, 오디오 신호, 방송 프로그램과 관련된 데이터 신호로 분리할 수 있고, 분리된 비디오 신호, 오디오 신호 및 데이터 신호를 출력이 가능한 형태로 복원할 수 있다.
외부장치 인터페이스부(135)는 인접하는 외부 장치 내의 애플리케이션 또는 애플리케이션 목록을 수신하여, 제어부(170) 또는 저장부(140)로 전달할 수 있다.
외부장치 인터페이스부(135)는 디스플레이 장치(100)와 외부 장치 간의 연결 경로를 제공할 수 있다. 외부장치 인터페이스부(135)는 디스플레이 장치(100)에 무선 또는 유선으로 연결된 외부장치로부터 출력된 영상, 오디오 중 하나 이상을 수신하여, 제어부(170)로 전달할 수 있다. 외부장치 인터페이스부(135)는 복수의 외부 입력 단자들을 포함할 수 있다. 복수의 외부 입력 단자들은 RGB 단자, 하나 이상의 HDMI(High Definition MultimediaInterface) 단자, 컴포넌트(Component) 단자를 포함할 수 있다.
외부장치 인터페이스부(135)를 통해 입력된 외부장치의 영상 신호는 디스플레이부(180)를 통해 출력될 수 있다. 외부장치 인터페이스부(135)를 통해 입력된 외부장치의 음성 신호는 오디오 출력부(185)를 통해 출력될 수 있다.
외부장치 인터페이스부(135)에 연결 가능한 외부 장치는 셋톱박스, 블루레이 플레이어, DVD 플레이어, 게임기, 사운드 바, 스마트폰, PC, USB 메모리, 홈 씨어터 중 어느 하나일 수 있으나, 이는 예시에 불과하다.
네트워크 인터페이스부(133)는 디스플레이 장치(100)를 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공할 수 있다. 네트워크 인터페이스부(133)는 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 다른 사용자 또는 다른 전자 기기와 데이터를 송신 또는 수신할 수 있다.
또한, 디스플레이 장치(100)에 미리 등록된 다른 사용자 또는 다른 전자 기기 중 선택된 사용자 또는 선택된 전자기기에, 디스플레이 장치(100)에 저장된 일부의 컨텐츠 데이터를 송신할 수 있다.
네트워크 인터페이스부(133)는 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 소정 웹 페이지에 접속할 수 있다. 즉, 네트워크를 통해 소정 웹 페이지에 접속하여, 해당 서버와 데이터를 송신 또는 수신할 수 있다.
그리고, 네트워크 인터페이스부(133)는 컨텐츠 제공자 또는 네트워크 운영자가 제공하는 컨텐츠 또는 데이터들을 수신할 수 있다. 즉, 네트워크 인터페이스부(133)는 네트워크를 통하여 컨텐츠 제공자 또는 네트워크 제공자로부터 제공되는 영화, 광고, 게임, VOD, 방송 신호 등의 컨텐츠 및 그와 관련된 정보를 수신할 수 있다.
또한, 네트워크 인터페이스부(133)는 네트워크 운영자가 제공하는 펌웨어의 업데이트 정보 및 업데이트 파일을 수신할 수 있으며, 인터넷 또는 컨텐츠 제공자 또는 네트워크 운영자에게 데이터들을 송신할 수 있다.
네트워크 인터페이스부(133)는 네트워크를 통해, 공중에 공개(open)된 애플리케이션들 중 원하는 애플리케이션을 선택하여 수신할 수 있다.
저장부(140)는 제어부(170) 내의 각 신호 처리 및 제어를 위한 프로그램이 저장하고, 신호 처리된 영상, 음성 또는 데이터신호를 저장할 수 있다.
또한, 저장부(140)는 외부장치 인터페이스부(135) 또는 네트워크 인터페이스부(133)로부터 입력되는 영상, 음성, 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있으며, 채널 기억 기능을 통하여 소정 이미지에 관한 정보를 저장할 수도 있다.
저장부(140)는 외부장치 인터페이스부(135) 또는 네트워크 인터페이스부(133)로부터 입력되는 애플리케이션 또는 애플리케이션 목록을 저장할 수 있다.
디스플레이 장치(100)는 저장부(140) 내에 저장되어 있는 컨텐츠 파일(동영상 파일, 정지영상 파일, 음악 파일, 문서 파일, 애플리케이션 파일 등)을 재생하여 사용자에게 제공할 수 있다.
사용자입력 인터페이스부(150)는 사용자가 입력한 신호를 제어부(170)로 전달하거나, 제어부(170)로부터의 신호를 사용자에게 전달할 수 있다. 예를 들어, 사용자입력 인터페이스부(150)는 블루투스(Bluetooth), WB(Ultra Wideband), 지그비(ZigBee) 방식, RF(Radio Frequency) 통신 방식 또는 적외선(IR) 통신 방식 등 다양한 통신 방식에 따라, 원격제어장치(200)로부터 전원 온/오프, 채널 선택, 화면 설정 등의 제어 신호를 수신하여 처리하거나, 제어부(170)로부터의 제어 신호를 원격제어장치(200)로 송신하도록 처리할 수 있다.
또한, 사용자입력 인터페이스부(150)는, 전원키, 채널키, 볼륨키, 설정치 등의 로컬키(미도시)에서 입력되는 제어 신호를 제어부(170)에 전달할 수 있다.
제어부(170)에서 영상 처리된 영상 신호는 디스플레이부(180)로 입력되어 해당 영상 신호에 대응하는 영상으로 표시될 수 있다. 또한, 제어부(170)에서 영상 처리된 영상 신호는 외부장치 인터페이스부(135)를 통하여 외부 출력장치로 입력될 수 있다.
제어부(170)에서 처리된 음성 신호는 오디오 출력부(185)로 오디오 출력될 수 있다. 또한, 제어부(170)에서 처리된 음성 신호는 외부장치 인터페이스부(135)를 통하여 외부 출력장치로 입력될 수 있다.
그 외, 제어부(170)는, 디스플레이 장치(100) 내의 전반적인 동작을 제어할 수 있다.
또한, 제어부(170)는 사용자입력 인터페이스부(150)를 통하여 입력된 사용자 명령 또는 내부 프로그램에 의하여 디스플레이 장치(100)를 제어할 수 있으며, 네트워크에 접속하여 사용자가 원하는 애플리케이션 또는 애플리케이션 목록을 디스플레이 장치(100) 내로 다운받을 수 있도록 할 수 있다.
제어부(170)는 사용자가 선택한 채널 정보 등이 처리한 영상 또는 음성신호와 함께 디스플레이부(180) 또는 오디오 출력부(185)를 통하여 출력될 수 있도록 한다.
또한, 제어부(170)는 사용자입력 인터페이스부(150)를 통하여 수신한 외부장치 영상 재생 명령에 따라, 외부장치 인터페이스부(135)를 통하여 입력되는 외부 장치, 예를 들어, 카메라 또는 캠코더로부터의, 영상 신호 또는 음성 신호가 디스플레이부(180) 또는 오디오 출력부(185)를 통해 출력될 수 있도록 한다.
한편, 제어부(170)는 영상을 표시하도록 디스플레이부(180)를 제어할 수 있으며, 예를 들어 튜너(131)를 통해 입력되는 방송 영상, 또는 외부장치 인터페이스부(135)를 통해 입력되는 외부 입력 영상, 또는 네트워크 인터페이스부를 통해 입력되는 영상, 또는 저장부(140)에 저장된 영상이 디스플레이부(180)에서 표시되도록 제어할 수 있다. 이 경우, 디스플레이부(180)에 표시되는 영상은 정지 영상 또는 동영상일 수 있으며, 2D 영상 또는 3D 영상일 수 있다.
또한, 제어부(170)는 디스플레이 장치(100) 내에 저장된 컨텐츠, 또는 수신된 방송 컨텐츠, 외부로 부터 입력되는 외부 입력 컨텐츠가 재생되도록 제어할 수 있으며, 상기 컨텐츠는 방송 영상, 외부 입력 영상, 오디오 파일, 정지 영상, 접속된 웹 화면, 및 문서 파일 등 다양한 형태일 수 있다.
무선 통신부(173)는 유선 또는 무선 통신을 통해 외부 기기와 통신을 수행할 수 있다. 무선 통신부(173)는 외부 기기와 근거리 통신(Short range communication)을 수행할 수 있다. 이를 위해, 무선 통신부(173)는 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다. 이러한, 무선 통신부(173)는 근거리 무선 통신망(Wireless Area Networks)을 통해 디스플레이 장치(100)와 무선 통신 시스템 사이, 디스플레이 장치(100)와 다른 디스플레이 장치(100) 사이, 또는 디스플레이 장치(100)와 디스플레이 장치(100, 또는 외부서버)가 위치한 네트워크 사이의 무선 통신을 지원할 수 있다. 근거리 무선 통신망은 근거리 무선 개인 통신망(Wireless Personal Area Networks)일 수 있다.
여기에서, 다른 디스플레이 장치(100)는 본 발명에 따른 디스플레이 장치(100)와 데이터를 상호 교환하는 것이 가능한(또는 연동 가능한) 웨어러블 디바이스(wearable device, 예를 들어, 스마트워치(smartwatch), 스마트 글래스(smart glass), HMD(head mounted display)), 스마트 폰과 같은 이동 단말기가 될 수 있다. 무선 통신부(173)는 디스플레이 장치(100) 주변에, 통신 가능한 웨어러블 디바이스를 감지(또는 인식)할 수 있다. 나아가, 제어부(170)는 감지된 웨어러블 디바이스가 본 발명에 따른 디스플레이 장치(100)와 통신하도록 인증된 디바이스인 경우, 디스플레이 장치(100)에서 처리되는 데이터의 적어도 일부를, 무선 통신부(173)를 통해 웨어러블 디바이스로 송신할 수 있다. 따라서, 웨어러블 디바이스의 사용자는, 디스플레이 장치(100)에서 처리되는 데이터를, 웨어러블 디바이스를 통해 이용할 수 있다.
디스플레이부(180)는 제어부(170)에서 처리된 영상 신호, 데이터 신호, OSD 신호 또는 외부장치 인터페이스부(135)에서 수신되는 영상 신호, 데이터 신호 등을 각각 R,G,B 신호로 변환하여 구동 신호를 생성할 수 있다.
한편, 도 1에 도시된 디스플레이 장치(100)는 본 발명의 일실시예에 불과하므로. 도시된 구성요소들 중 일부는 실제 구현되는 디스플레이 장치(100)의 사양에 따라 통합, 추가, 또는 생략될 수 있다.
즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 본 발명의 실시예를 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.
본 발명의 또 다른 실시예에 따르면, 디스플레이 장치(100)는 도 1에 도시된 바와 달리, 튜너(131)와 복조부(132)를 구비하지 않고 네트워크 인터페이스부(133) 또는 외부장치 인터페이스부(135)를 통해서 영상을 수신하여 재생할 수도 있다.
예를 들어, 디스플레이 장치(100)는 방송 신호 또는 다양한 네트워크 서비스에 따른 컨텐츠들을 수신하기 위한 등과 같은 셋탑 박스 등과 같은 영상 처리 장치와 상기 영상 처리 장치로부터 입력되는 컨텐츠를 재생하는 컨텐츠 재생 장치로 분리되어 구현될 수 있다.
이 경우, 이하에서 설명할 본 발명의 실시예에 따른 디스플레이 장치의 동작 방법은 도 1을 참조하여 설명한 바와 같은 디스플레이 장치(100)뿐 아니라, 상기 분리된 셋탑 박스 등과 같은 영상 처리 장치 또는 디스플레이부(180) 및 오디오출력부(185)를 구비하는 컨텐츠 재생 장치 중 어느 하나에 의해 수행될 수도 있다.
다음으로, 도 2 내지 도 3을 참조하여, 본 발명의 일 실시 예에 따른 원격제어장치에 대해 설명한다.
도 2은 본 발명의 일 실시 예에 따른 원격제어장치의 블록도이고, 도 3은 본발명의 일 실시 예에 따른 원격제어장치(200)의 실제 구성 예를 보여준다.
먼저, 도 2를 참조하면, 원격제어장치(200)는 지문인식부(210), 무선통신부(220), 사용자 입력부(230), 센서부(240), 출력부(250), 전원공급부(260), 저장부(270), 제어부(280), 음성 획득부(290)를 포함할 수 있다.
도 2을 참조하면, 무선통신부(225)는 전술하여 설명한 본 발명의 실시 예들에 따른 디스플레이 장치 중 임의의 어느 하나와 신호를 송수신한다.
원격제어장치(200)는 RF 통신규격에 따라 디스플레이 장치(100)와 신호를 송수신할 수 있는 RF 모듈(221)을 구비하며, IR 통신규격에 따라 디스플레이 장치(100)와 신호를 송수신할 수 있는 IR 모듈(223)을 구비할 수 있다. 또한, 원격제어장치(200)는 블루투스 통신규격에 따라 디스플레이 장치(100)와 신호를 송수신할 수 있는 블루투스 모듈(225)를 구비할 수 있다. 또한, 원격제어장치(200)는 NFC(Near Field Communication) 통신 규격에 따라 디스플레이 장치(100)와 신호를 송수할 수 있는 NFC 모듈(227)을 구비하며, WLAN(Wireless LAN) 통신 규격에 따라 디스플레이 장치(100)와 신호를 송수신할 수 있는 WLAN 모듈(229)을 구비할 수 있다.
또한, 원격제어장치(200)는 디스플레이 장치(100)로 원격제어장치(200)의 움직임 등에 관한 정보가 담긴 신호를 무선 통신부(220)를 통해 전송한다.
한편, 원격제어장치(200)는 디스플레이 장치(100)가 전송한 신호를 RF 모듈(221)을 통하여 수신할 수 있으며, 필요에 따라 IR 모듈(223)을 통하여 디스플레이 장치(100)로 전원 온/오프, 채널 변경, 볼륨 변경 등에 관한 명령을 전송할 수 있다.
사용자 입력부(230)는 키패드, 버튼, 터치 패드, 또는 터치 스크린 등으로 구성될 수 있다. 사용자는 사용자 입력부(230)를 조작하여 원격제어장치(200)으로 디스플레이 장치(100)와 관련된 명령을 입력할 수 있다. 사용자 입력부(230)가 하드키 버튼을 구비할 경우 사용자는 하드키 버튼의 푸쉬 동작을 통하여 원격제어장치(200)으로 디스플레이 장치(100)와 관련된 명령을 입력할 수 있다. 이에 대해서는 도 3을 참조하여 설명한다.
도 3을 참조하면, 원격제어장치(200)는 복수의 버튼을 포함할 수 있다. 복수의 버튼은 지문 인식 버튼(212), 전원 버튼(231), 홈 버튼(232), 라이브 버튼(233), 외부 입력 버튼(234), 음량 조절 버튼(235), 음성 인식 버튼(236), 채널 변경 버튼(237), 확인 버튼(238) 및 뒤로 가기 버튼(239)을 포함할 수 있다.
지문 인식 버튼(212)은 사용자의 지문을 인식하기 위한 버튼일 수 있다. 일 실시예로, 지문 인식 버튼(212)은 푸쉬 동작이 가능하여, 푸쉬 동작 및 지문 인식 동작을 수신할 수도 있다. 전원 버튼(231)은 디스플레이 장치(100)의 전원을 온/오프 하기 위한 버튼일 수 있다. 홈 버튼(232)은 디스플레이 장치(100)의 홈 화면으로 이동하기 위한 버튼일 수 있다. 라이브 버튼(233)은 실시간 방송 프로그램을 디스플레이 하기 위한 버튼일 수 있다. 외부 입력 버튼(234)은 디스플레이 장치(100)에 연결된 외부 입력을 수신하기 위한 버튼일 수 있다. 음량 조절 버튼(235)은 디스플레이 장치(100)가 출력하는 음량의 크기를 조절하기 위한 버튼일 수 있다. 음성 인식 버튼(236)은 사용자의 음성을 수신하고, 수신된 음성을 인식하기 위한 버튼일 수 있다. 채널 변경 버튼(237)은 특정 방송 채널의 방송 신호를 수신하기 위한 버튼일 수 있다. 확인 버튼(238)은 특정 기능을 선택하기 위한 버튼일 수 있고, 뒤로 가기 버튼(239)은 이전 화면으로 되돌아가기 위한 버튼일 수 있다.
다시 도 2를 설명한다.
사용자 입력부(230)가 터치스크린을 구비할 경우 사용자는 터치스크린의 소프트키를 터치하여 원격제어장치(200)로 디스플레이 장치(100)와 관련된 명령을 입력할 수 있다. 또한, 사용자 입력부(230)는 스크롤 키나, 조그 키 등 사용자가 조작할 수 있는 다양한 종류의 입력수단을 구비할 수 있으며 본 실시 예는 본 발명의 권리범위를 제한하지 아니한다.
센서부(240)는 자이로 센서(241) 또는 가속도 센서(243)를 구비할 수 있으며, 자이로 센서(241)는 원격제어장치(200)의 움직임에 관한 정보를 센싱할 수 있다.
예를 들어, 자이로 센서(241)는 원격제어장치(200)의 동작에 관한 정보를 x,y,z 축을 기준으로 센싱할 수 있으며, 가속도 센서(243)는 원격제어장치(200)의 이동속도 등에 관한 정보를 센싱할 수 있다. 한편, 원격제어장치(200)는 거리측정센서를 더 구비할 수 있어, 디스플레이 장치(100)의 디스플레이부(180)와의 거리를 센싱할 수 있다.
출력부(250)는 사용자 입력부(235)의 조작에 대응하거나 디스플레이 장치(100)에서 전송한 신호에 대응하는 영상 또는 음성 신호를 출력할 수 있다. 출력부(250)를 통하여 사용자는 사용자 입력부(235)의 조작 여부 또는 디스플레이 장치(100)의 제어 여부를 인지할 수 있다.
예를 들어, 출력부(250)는 사용자 입력부(235)가 조작되거나 무선 통신부(225)를 통하여 디스플레이 장치(100)와 신호가 송수신되면 점등되는 LED 모듈(251), 진동을 발생하는 진동 모듈(253), 음향을 출력하는 음향 출력 모듈(255), 또는 영상을 출력하는 디스플레이 모듈(257)을 구비할 수 있다.
또한, 전원공급부(260)는 원격제어장치(200)으로 전원을 공급하며, 원격제어장치(200)이 소정 시간 동안 움직이지 않은 경우 전원 공급을 중단함으로서 전원 낭비를 줄일 수 있다. 전원공급부(260)는 원격제어장치(200)에 구비된 소정 키가 조작된 경우에 전원 공급을 재개할 수 있다.
저장부(270)는 원격제어장치(200)의 제어 또는 동작에 필요한 여러 종류의 프로그램, 애플리케이션 데이터 등이 저장될 수 있다. 만일 원격제어장치(200)가 디스플레이 장치(100)와 RF 모듈(221)을 통하여 무선으로 신호를 송수신할 경우 원격제어장치(200)과 디스플레이 장치(100)는 소정 주파수 대역을 통하여 신호를 송수신한다.
원격제어장치(200)의 제어부(280)는 원격제어장치(200)과 페어링된 디스플레이 장치(100)와 신호를 무선으로 송수신할 수 있는 주파수 대역 등에 관한 정보를 저장부(270)에 저장하고 참조할 수 있다.
제어부(280)는 원격제어장치(200)의 제어에 관련된 제반사항을 제어한다. 제어부(280)는 사용자 입력부(235)의 소정 키 조작에 대응하는 신호 또는 센서부(240)에서 센싱한 원격제어장치(200)의 움직임에 대응하는 신호를 무선 통신부(225)를 통하여 디스플레이 장치(100)로 전송할 수 있다.
또한, 원격제어장치(200)의 음성 획득부(290)는 음성을 획득할 수 있다.
음성 획득부(290)는 적어도 하나 이상의 마이크(291)을 포함할 수 있고, 마이크(291)를 통해 음성을 획득할 수 있다.
다음으로 도 4를 설명한다.
도 4는 본 발명의 실시 예에 따라 원격 제어 장치를 활용하는 예를 보여준다.
도 4의 (a)는 원격 제어 장치(200)에 대응하는 포인터(205)가 디스플레이부(180)에 표시되는 것을 예시한다.
사용자는 원격 제어 장치(200)를 상하, 좌우로 움직이거나 회전할 수 있다. 디스플레이 장치(100)의 디스플레이부(180)에 표시된 포인터(205)는 원격 제어 장치(200)의 움직임에 대응한다. 이러한 원격 제어 장치(200)는, 도면과 같이, 3D 공간 상의 움직임에 따라 해당 포인터(205)가 이동되어 표시되므로, 공간 리모콘이라 명명할 수 있다.
도 4의 (b)는 사용자가 원격 제어 장치(200)를 왼쪽으로 이동하면, 디스플레이 장치(100)의 디스플레이부(180)에 표시된 포인터(205)도 이에 대응하여 왼쪽으로 이동하는 것을 예시한다.
원격 제어 장치(200)의 센서를 통하여 감지된 원격 제어 장치(200)의 움직임에 관한 정보는 디스플레이 장치(100)로 전송된다. 디스플레이 장치(100)는 원격 제어 장치(200)의 움직임에 관한 정보로부터 포인터(205)의 좌표를 산출할 수 있다. 디스플레이 장치(100)는 산출한 좌표에 대응하도록 포인터(205)를 표시할 수 있다.
도 4의 (c)는, 원격 제어 장치(200) 내의 특정 버튼을 누른 상태에서, 사용자가 원격 제어 장치(200)를 디스플레이부(180)에서 멀어지도록 이동하는 경우를 예시한다. 이에 의해, 포인터(205)에 대응하는 디스플레이부(180) 내의 선택 영역이 줌인되어 확대 표시될 수 있다.
이와 반대로, 사용자가 원격 제어 장치(200)를 디스플레이부(180)에 가까워지도록 이동하는 경우, 포인터(205)에 대응하는 디스플레이부(180) 내의 선택 영역이 줌아웃되어 축소 표시될 수 있다.
한편, 원격 제어 장치(200)가 디스플레이부(180)에서 멀어지는 경우, 선택 영역이 줌아웃되고, 원격 제어 장치(200)가 디스플레이부(180)에 가까워지는 경우, 선택 영역이 줌인될 수도 있다.
또한, 원격 제어 장치(200) 내의 특정 버튼을 누른 상태에서는 상하, 좌우 이동의 인식이 배제될 수 있다. 즉, 원격 제어 장치(200)가 디스플레이부(180)에서 멀어지거나 접근하도록 이동하는 경우, 상, 하, 좌, 우 이동은 인식되지 않고, 앞뒤 이동만 인식되도록 할 수 있다. 원격 제어 장치(200) 내의 특정 버튼을 누르지 않은 상태에서는, 원격 제어 장치(200)의 상, 하, 좌, 우 이동에 따라 포인터(205)만 이동하게 된다.
한편, 포인터(205)의 이동속도나 이동방향은 원격 제어 장치(200)의 이동속도나 이동방향에 대응할 수 있다.
한편, 본 명세서에서의 포인터는, 원격 제어 장치(200)의 동작에 대응하여, 디스플레이부(180)에 표시되는 오브젝트를 의미한다. 따라서, 포인터(205)로 도면에 도시된 화살표 형상 외에 다양한 형상의 오브젝트가 가능하다. 예를 들어, 점, 커서, 프롬프트, 두꺼운 외곽선 등을 포함하는 개념일 수 있다. 그리고, 포인터(205)가 디스플레이부(180) 상의 가로축과 세로축 중 어느 한 지점(point)에 대응하여 표시되는 것은 물론, 선(line), 면(surface) 등 복수 지점에 대응하여 표시되는 것도 가능하다.
다음으로, 도 5를 참조하여, 본 발명의 일 실시 예에 따른 음성 인식 시스템의 구성을 설명한다.
도 5는 본 발명의 일 실시 예에 따른 음성 인식 시스템의 구성을 설명하는 블록도이다.
도 5를 참조하면, 음성 인식 시스템(1)은 디스플레이 장치(100), 음성 텍스트 변환(Speech To Text, STT) 서버(10), 자연어 처리(Natural Language Processing) 서버(30)를 포함할 수 있다.
디스플레이 장치(100)는 STT 서버(10) 및 NLP 서버(30)와 정보를 교환할 수 있다.
디스플레이 장치(100)는 사용자의 음성 명령을 수신하고, 수신된 음성 명령에 대응하는 음성 데이터를 STT 서버(10)에 전송할 수 있다.
STT 서버(10)는 디스플레이 장치(100)로부터 수신된 음성 데이터를 텍스트 데이터로 변환하고, 변환된 텍스트 데이터를 디스플레이 장치(100)에 전송할 수 있다.
디스플레이 장치(100)는 수신된 텍스트 데이터를 NLP 서버(30)에 전송할 수 있다.
NLP 서버(30)는 디스플레이 장치(100)로부터 수신된 텍스트 데이터에 기반하여, 자연어 처리를 수행할 수 있다. NLP 서버(30)는 자연어 처리 수행 결과에 따라 의도 분석 결과를 반영한 의도 분석 결과 정보를 생성하고, 생성된 의도 분석 결과 정보를 디스플레이 장치(100)에 전송할 수 있다.
디스플레이 장치(100)는 수신된 의도 분석 결과 정보에 기초하여, 특정 웹 사이트에 접속할 수 있다.
디스플레이 장치(100)는 도 1의 구성 요소에 더해, 음성 에이전트(51), NLP 클라이언트(53), NLP 매니져(55), 웹 브라우저 구동부(70)를 더 포함할 수 있다.
음성 에이전트(51)는 원격 제어 장치(200)로부터 수신된 음성 인식 모드로의 진입을 위한 제어 신호에 따라 NLP 클라이언트(53)에 음성 인식 모드로의 진입을 요청할 수 있다.
또한, 음성 에이전트(51)는 상기 제어 신호에 따라 디스플레이부(180) 상에 음성 인식 모드로의 진입을 알리는 UI를 표시할 수 있다.
NLP 클라이언트(53)는 음성 인식 모드로의 진입 요청에 따라 디스플레이 장치(100)의 동작 모드를 음성 인식 모드로 진입시킬 수 있다. NLP 클라이언트(53)는 사용자의 음성 명령을 수신하고, 수신된 음성 명령을 음성 데이터로 변환할 수 있다.
NLP 클라이언트(53)는 음성 데이터를 STT 서버(10)에 전송할 수 있다.
NLP 클라이언트(53)는 네트워크 인터페이스부(133)를 통해 음성 데이터를 STT 서버(10)에 전송할 수 있다.
NLP 클라이언트(53)는 STT 서버(10)로부터 수신된 텍스트 데이터를 NLP 매니저(55)로 전달할 수 있다.
NLP 매니저(55)는 텍스트 데이터에 기초하여, 텍스트 데이터에 대응하는 기능을 자체적으로 수행할 수 있는지 여부를 판단할 수 있다.
NLP 매니저(55)는 텍스트 데이터에 대응하는 기능이 자체적으로 수행 가능한 것이라 판단한 경우, 해당 기능을 수행할 수 있다. 예를 들어, 텍스트 데이터에 대응하는 기능이 디스플레이 장치(100)의 전원 온/오프, 채널 변경, 볼륨 조절 중 어느 하나인 경우, 해당 기능을 실행할 수 있다.
NLP 매니저(55)는 텍스트 데이터에 대응하는 기능이 자체적으로 수행 불가능한 것이라 판단한 경우, 텍스트 데이터를 NLP 서버(30)에 전송할 수 있다.
NLP 매니저(55)는 텍스트 데이터에 대응하는 의도 분석 결과 정보를 NLP 서버(30)로부터 수신할 수 있다.
NLP 매니저(55)는 수신된 의도 분석 결과 정보를 NLP 클라이언트(53)에 전달할 수 있다.
NLP 클라이언트(53)는 수신된 의도 분석 결과 정보를 음성 에이전트(51)에 전달하고, 음성 에이전트(51)는 의도 분석 결과 정보에 포함된 검색어를 웹 브라우저 구동부(70)에 전달할 수 있다.
의도 분석 결과 정보에는 웹 브라우저를 구동하라는 자연어도 포함할 수 있다.
웹 브라우저 구동부(70)는 웹 브라우저를 구동하고, 검색어에 대응하는 웹 사이트의 주소를 획득할 수 있다.
웹 브라우저 구동부(70)는 브라우저 자동 실행기(71), 히스토리 DB(73) 및 웹 엔진(75)을 포함할 수 있다.
브라우저 자동 실행기(71)는 의도 분석 결과 정보에 포함된 검색어가 히스토리 DB(73)에 저장되었는지를 판단하고, 판단 여부에 따라 웹 사이트의 주소를 선정할 수 있다.
브라우저 자동 실행기(71)는 로마자 변환부(71a) 및 주소 선택부(71b)를 포함할 수 있다.
로마자 변환부(71a)는 검색어를 로마자로 변환할 수 있다.
로마자 변환부(71a)는 검색어 또는 로마자로 변환된 검색어가 히스토리 DB(73)에 저장되어 있는지를 판단할 수 있다.
주소 선택부(71b)는 검색어 또는 로마자로 변환된 검색어를 포함하는 웹 사이트 정보가 히스토리 DB(73)에 저장되어 있는 경우, 해당 웹 사이트 정보에 대응하는 웹 사이트 주소를 접속할 주소로 선정할 수 있다.
주소 선택부(71b)는 검색어 또는 로마자로 변환된 검색어를 포함하는 웹 사이트 정보가 히스토리 DB(73)에 저장되어 있지 않은 경우, 복수의 후보 주소들을 획득하고, 복수의 후보 주소들 중 어느 하나를 최종 후보 주소로 선정할 수 있다. 이에 대한 설명은 자세히 후술한다.
히스토리 DB(73)는 사용자가 접속한 웹 페이지의 명칭을 나타내는 페이지 타이틀, 링크 타이틀 및 링크 타이틀에 대응하는 링크 주소, 웹 사이트 주소, 웹 페이지 내에 포함된 페이지 텍스트를 저장하고 있을 수 있다.
히스토리 DB(73)는 도 1의 저장부(140)에 포함될 수도 있다.
웹 엔진(75)는 주소 선택부(71b)가 선택한 웹 사이트의 주소로 접속할 수 있다.
음성 에이전트(51), NLP 클라이언트(53), NLP 매니져(55), 웹 브라우저 구동부(70)는 제어부(170)에 포함될 수도 있다.
한편, 도 5에서, STT 서버(10) 및 NLP 서버(30)는 별개의 구성으로 설명되어 있으나, 이는 하나의 서버로도 구현될 수도 있다.
도 6은 본 발명의 일 실시 예에 따른 음성 인식 시스템의 동작 방법을 설명하기 위한 래더 다이어그램이다.
도 6을 참조하면, 디스플레이 장치(100)의 제어부(170)는 음성 명령을 수신한다(S601).
일 실시 예에서, 디스플레이 장치(100)는 마이크를 구비할 수 있고, 마이크를 통해 사용자의 음성 명령을 수신할 수 있다.
또 다른 실시 예에서 디스플레이 장치(100)의 무선 통신부(173)는 원격 제어 장치(200)로부터 음성 명령을 수신할 수 있다. 즉, 사용자는 원격 제어 장치(200)를 통해 음성 명령을 발화하고, 발화된 음성 명령은 원격 제어 장치(200)를 통해 디스플레이 장치(100)로 전달될 수 있다.
예를 들어, 원격 제어 장치(200)는 음성 인식 버튼을 구비할 수 있고, 음성 인식 버튼이 선택된 경우, 디스플레이 장치(100)의 동작 모드를 음성 인식 모드로 동작하기 위한 제어 신호를 디스플레이 장치(100)에 전송할 수 있다. 디스플레이 장치(100)는 수신된 제어 신호에 따라 디스플레이 장치(100)의 동작 모드를 음성 인식 모드로 진입시킬 수 있다.
음성 인식 모드 하에서, 디스플레이 장치(100)에 구비된 마이크는 활성화될 수 있다.
디스플레이 장치(100)의 제어부(170)는 자체적으로, 음성 명령에 대응하는 음성 데이터를 텍스트 데이터로 변환할 수 있고, 텍스트 데이터에 대해 자연어 처리를 수행할 수 있는 기능을 보유할 수 있다. 제어부(170)는 수신된 음성 명령에 대해, 제어부(170) 내에 구비된 자연어 처리 모듈을 통해 음성 명령에 대해 의도 분석이 가능한 경우, 음성 명령에 대응하는 텍스트 데이터를 NLP 서버(30)에 전송하지 않을 수 있다.
예를 들어, 음성 명령이 <TV 전원 꺼줘>인 경우, 제어부(170)는 음성 명령의 의도를 분석하여, 분석 결과에 따라 디스플레이 장치(100)의 전원을 오프시킬 수 있다.
일 실시 예에서, 제어부(170)는 음성 명령의 변환된 텍스트 데이터가 저장부(140)에 저장되어 있는 경우, 텍스트 데이터에 대응하는 디스플레이 장치(100)의 기능을 자체적으로 수행할 수 있다.
제어부(170)가 음성 명령의 자연어 처리에 기반하여, 수행할 수 있는 디스플레이 장치(100)의 기능의 예로는, 디스플레이 장치(100)의 전원 온/오프, 채널 변경, 불륨 조절 중 하나 이상을 포함할 수 있다.
도 6의 실시 예에서, 사용자의 음성 명령은 <난다 뮤직 열어줘> 임을 가정하여 설명한다.
디스플레이 장치(100)의 제어부(170)는 수신된 음성 명령에 대응하는 음성 데이터를
STT
서버(10)에 전송한다(S603).
디스플레이 장치(100)의 제어부(170)는 네트워크 인터페이스부(133)를 통해 음성 데이터를 STT 서버(10)에 전송할 수 있다.
STT
서버(10)는 디스플레이 장치(100)로부터 수신된 음성 데이터를 텍스트 데이터로 변환하고, 변환된 텍스트 데이터를 디스플레이 장치(100)에 전송한다(S605).
디스플레이 장치(100)의 제어부(170)는
STT
서버(10)로부터 수신된 텍스트 데이터를 NLP 서버(30)에 전송한다(S607).
디스플레이 장치(100)의 제어부(170)는 네트워크 인터페이스부(133)를 통해 텍스트 데이터를 NLP 서버(30)에 전송할 수 있다.
NLP 서버(30)는 디스플레이 장치(100)로부터 수신된 텍스트 데이터에
기반하여
, 의도 분석을 수행하고, 의도 분석의 수행 결과를 나타내는 의도 분석 결과 정보를 디스플레이 장치(100)에 전송한다(S609).
NLP 서버(30)는 디스플레이 장치(100)로부터 수신된 텍스트 데이터에 기초하여, 사용자의 의도 분석을 수행할 수 있다.
NLP 서버(10)는 자연어 처리 기법에 따라 텍스트 데이터를 분석하여, 사용자의 의도 분석을 수행할 수 있다. 자연어 처리 기법은 자연어를 기계적으로 분석하여, 컴퓨터가 이해할 수 있는 형태의 결과를 출력하거나, 인간이 이해할 수 있는 언어를 출력하는 기술이다.
일 실시 예에서, 의도 분석 결과 정보는 사용자가 검색하고자 하는 검색어를 포함할 수 있다. 예를 들어, 사용자가 <난다 뮤직 열어줘>라고 발화한 경우, 사용자의 의도는 난다 뮤직에 대응하는 웹 사이트를 보고자 하는 의도로 볼 수 있다.
이 경우, 검색어는 <난다 뮤직>이 될 수 있다.
디스플레이 장치(100)의 제어부(170)는 수신된 의도 분석 결과에 포함된 검색어가
히스토리
DB(73) 내에 저장되어 있는지를 판단한다(S611).
일 실시 예에서, 히스토리 DB(73)는 웹 사이트의 주소(URL), 웹 사이트의 페이지 타이틀, 링크 타이틀과 링크 타이틀에 대응하는 링크 주소 및 페이지 텍스트를 저장하고 있을 수 있다.
웹 사이트의 페이지 타이틀은 웹 사이트의 명칭일 수 있다.
링크 타이틀은 웹 사이트의 웹 페이지 내에서, 특정 주소로 접속이 가능한 타이틀 일 수 있다. 링크 타이틀이 선택된 경우, 링크 타이틀에 대응하는 링크 주소로 접속될 수 있다.
페이지 텍스트는 웹 페이지에 표시된 텍스트일 수 있다.
히스토리 DB(73)가 저장하고 있는 정보에 대해 도 7을 참조하여, 구체적으로 설명한다.
도 7은 본 발명의 일 실시 예에 따라 히스토리 DB가 저장하고 있는 정보를 설명하는 도면이다.
도 7을 참조하면, 웹 페이지(700)가 도시되어 있다.
웹 페이지(700)는 페이지 타이틀(701), 웹 사이트의 주소(703), 링크 타이틀(705) 및 페이지 텍스트(707)를 포함할 수 있다.
페이지 타이틀(701)은 웹 사이트의 명칭을 나타낼 수 있고, 도 7에서는 <난다 뮤직>이 페이지 타이틀(701)일 수 있다.
웹 사이트의 주소(703)는 네트워크 상에서, 자원이 어디에 있는지를 알려주는 주소일 수 있다. 도 7에서는 <music.nanda.com>가 웹 사이트의 주소(703)일 수 있다.
링크 타이틀(705)은 특정 웹 사이트의 주소로 접속이 가능한 타이틀 일 수 있다. 예를 들어, <박지민> 이라는 링크 타이틀(705)이 선택된 경우, 디스플레이 장치(100)는 링크 타이틀(705)에 대응하는 링크 주소로 접속할 수 있다. 링크 주소 또한, 특정 웹 사이트의 주소일 수 있다.
페이지 텍스트(707)는 웹 페이지(700) 내에 포함된 텍스트를 포함할 수 있다.
디스플레이 장치(100)의 제어부(170)는 특정 웹 사이트에 접속한 경우, 해당 웹 사이트의 페이지 타이틀(701), 웹 사이트의 주소(703), 링크 타이틀(705) 및 페이지 텍스트(707)를 추출하여, 히스토리 DB(73)에 저장할 수 있다.
디스플레이 장치(100)의 제어부(170)는 웹 사이트의 페이지 타이틀(701), 웹 사이트의 주소(703), 링크 타이틀(705) 및 페이지 텍스트(707)를 하나의 그룹으로 저장할 수 있다. 즉, 웹 사이트의 페이지 타이틀(701), 웹 사이트의 주소(703), 링크 타이틀(705) 및 페이지 텍스트(707) 각각은 서로 매칭되어 저장될 수 있다.
다시 도 6을 설명한다.
디스플레이 장치(100)의 제어부(170)는 검색어를 포함하는 페이지 타이틀이 히스토리 DB(73)에 저장되어 있는 경우(S613), 해당 페이지 타이틀에 대응하는 웹 사이트에 접속한다(S615).
일 실시 예에서, 제어부(170)는 검색어를 포함하는 페이지 타이틀이 히스토리 DB(73)에 저장되어 있는 경우, 페이지 타이틀과 매칭되어 있는 웹 사이트의 주소를 추출할 수 있다.
제어부(170)는 추출된 웹 사이트의 주소로, 접속하도록 웹 브라우져 구동부(70)를 제어할 수 있다.
제어부(170)는 웹 사이트의 주소로 접속하여, 해당 웹 페이지를 디스플레이부(180) 상에 표시할 수 있다.
디스플레이 장치(100)의 제어부(170)는 검색어를 포함하는 페이지 타이틀이 히스토리 DB(73)에 저장되어 있지
않은 경우
,
히스토리
DB를 통해 복수의 후보 주소들을 획득한다(S617).
일 실시 예에서, 제어부(170)는 검색어와 페이지 타이틀 또는 링크 타이틀과 겹치는 제1 비율, 검색어가 페이지 텍스트와 겹치는 제2 비율, 로마자 변환된 검색어와 웹 사이트의 주소가 겹치는 제3 비율을 이용하여, 복수의 후보 주소들을 획득할 수 있다.
제어부(170)는 제1 비율이 기준 비율 이상일 경우, 해당 페이지 타이틀 또는 상기 링크 타이틀과 매칭된 웹 사이트의 주소를 후보 주소로 획득할 수 있다.
제어부(170)는 제2 비율이 기준 비율 이상일 경우, 해당 페이지 텍스트와 매칭된 웹 사이트의 주소를 후보 주소로 획득할 수 있다.
제어부(170)는 제3 비율이 기준 비율 이상일 경우, 해당 웹 사이트의 주소를 후보 주소로 획득할 수 있다.
디스플레이 장치(100)의 제어부(170)는 획득된 복수의 후보 주소들 중 최종 후보 주소를 선정하고(S619), 선정된 최종 후보 주소에 대응하는 웹 사이트에 접속한다(S619).
일 실시 예에서 제어부(170)는 제1 비율, 제2 비율 및 제3 비율 각각에 서로 다른 가중치를 부여하고, 부여된 가중치를 이용하여, 최종 후보 주소를 선정할 수 있다.
예를 들어, 제1 비율에는 가중치가 1.5, 제2 비율에는 가중치가 1.2, 제3 비율에는 가중치가 1이 부여될 수 있다.
제어부(170)는 각 비율과 그에 대응하는 가중치 간의 곱을 통해 가중치 계산 값들을 획득할 수 있고, 획득된 가중치 계산 값들 중 가장 큰 가중치 계산 값에 대응하는 후보 주소를 최종 후보 주소로 선정할 수 있다.
이하에서는, 복수의 후보 주소들 중 최종 후보 주소를 선정하는 과정을 도 8을 참조하여 설명한다.
도 8은 본 발명의 일 실시 예에 따라, 복수의 후보 주소들 중 최종 후보 주소를 선정하는 과정을 설명하는 흐름도이다.
도 8은 도 6의 S613 내지 S619를 보다 상세하게 설명하기 위한 도면이다.
도 8을 참조하면, 디스플레이 장치(100)의 제어부(170)는 검색어를 포함하는 페이지 타이틀이
히스토리
DB(73)에 저장되어 있는지를 판단한다(S613).
제어부(170)는 검색어를 포함하는 페이지 타이틀이
히스토리
DB(73)에 저장되어 있는 경우, 페이지 타이틀에 대응하는 웹 사이트의 주소를 추출하고, 추출된 웹 사이트의 주소에 접속한다(S615).
제어부(170)는 검색어를 포함하는 페이지 타이틀이
히스토리
DB(73)에 저장되어 있지
않은 경우
, 검색어를 포함하는 링크 타이틀이
히스토리
DB(73) 내에 존재하는지를 판단한다(S701).
제어부(170)는 검색어를 포함하는 링크 타이틀이
히스토리
DB(73) 내에 존재하는 경우, 검색된 링크 타이틀에 대응하는 웹 사이트의 주소를 추출하고, 추출된 웹 사이트의 주소에 접속한다(S703).
제어부(170)는 검색어를 포함하는 링크 타이틀이
히스토리
DB(73) 내에
존재하지 않는
경우, 복수의 후보 주소들을 획득한다(S705).
일 실시 예에서, 제어부(170)는 검색어와 히스토리 DB(73) 내에 저장되어 있는 복수의 페이지 타이틀들 각각과의 일치 정도 또는 복수의 링크 타이틀들 각각과의 일치 정도를 나타내는 제1 비율을 계산할 수 있다. 여기서, 일치 정도는 검색어의 글자와 페이지 타이틀의 글자 또는 링크 타이틀의 글자와의 비교를 통해 얻어질 수 있다.
예를 들어, 검색어의 글자 수가 5개이고, 페이지 타이틀의 글자 수가 7개이고, 검색어의 글자들 중 페이지 타이틀의 글자들과 일치하는 글자 수가 3개인 경우, 제1 비율은 3/5이 될 수 있다.
제어부(170)는 제1 비율이 기준 비율 이상인 경우, 해당 페이지 타이틀 또는 링크 타이틀에 대응하는 웹 사이트의 주소를 후보 주소로 등록할 수 있다. 여기서, 기준 비율은 50%이나, 이는 예시에 불과한 수치이다.
일 실시 예에서, 제어부(170)는 검색어와 히스토리 DB(73) 내에 저장되어 있는 복수의 페이지 텍스트들 각각 간의 일치 정도를 나타내는 제2 비율을 계산할 수 있다.
제어부(170)는 제2 비율이 기준 비율 이상인 경우, 해당 페이지 텍스트에 매칭된 웹 사이트의 주소를 후보 주소로 등록할 수 있다.
일 실시 예에서, 제어부(170)는 로마자로 변환된 검색어와 히스토리 DB(73) 내에 저장되어 있는 웹 사이트의 주소 간의 일치 정도를 나타내는 제3 비율을 계산할 수 있다.
예를 들어, 로마자로 변환된 검색어의 알파벳 개수가 10개이고, 웹 사이트의 주소의 글자 개수가 15개이고, 일치하는 글자의 수가 7인 경우, 제3 비율은 7/10이 될 수 있다.
제어부(170)는 제3 비율이 기준 비율 이상인 경우, 해당 웹 사이트의 주소를 후보 주소로 등록할 수 있다.
제어부(170)는 검색어와 페이지 타이틀 또는 검색어와 링크 타이틀 간의 일치 정도를 나타내는 제1 비율에 가중치 1.5를 곱한 제1 가중치 계산 값을 획득한다(S707).
제어부(170)는 검색어와 페이지 텍스트 간의 일치 정도를 나타내는 제2 비율에 가중치 1.2를 곱한 제2 가중치 계산 값을 획득한다(S709).
제어부(170)는 로마자로 변환된 검색어와 링크 타이틀 간의 일치 정도를 나타내는 제3 비율에 가중치 1.0을 곱한 제3 가중치 계산 값을 획득한다(S711).
제어부(170)는 제1,2,3 가중치 계산 값들 중
최대 값에
대응하는 후보 주소를 최종 후보 주소로 선정한다(S713).
그 후, 제어부(170)는 선정된 최종 후보 주소의 웹 사이트에 접속한다.
다음으로, 본 발명의 또 다른 실시 예에 따른 음성 인식 시스템의 동작 방법을 설명한다.
도 9는 본 발명의 또 다른 실시 예에 따른 음성 인식 시스템의 동작 방법을 설명하기 위한 래더 다이어그램이다.
특히, 도 9는 도 6 및 도 8의 실시 예에 기반한다. 도 6은 음성 인식을 통해, 사용자가 의도하는 웹 사이트의 오픈을 위한 방법이라면, 도 9는 음성 인식을 통해, 사용자가 의도하는 웹 사이트의 오픈 및 오픈된 웹 사이트에서 컨텐트의 재생을 위한 방법이다.
도 9에서, 사용자의 음성 명령은 <난다 뮤직에서 수잔의 가을 아침 재생해줘> 임을 가정한다.
이 경우, 디스플레이 장치(100)가 NLP 서버(30)로부터 전달받은 의도 분석 결과 정보는 웹 사이트 검색어 및 컨텐트 검색어를 포함할 수 있다.
웹 사이트 검색어는 <난다 뮤직> 일 수 있고, 컨텐트 검색어는 <수잔의 가을 아침>일 수 있다. <난다 뮤직>은 웹 사이트의 페이지 타이틀이고, <수잔>은 가수명, <가을 아침>은 해당 가수의 노래 명이다.
도 9는 도 6의 래더 다이어그램 이후에 수행되는 흐름도일 수 있다.
디스플레이 장치(100)의 제어부(170)는 접속한 웹 페이지 내에서,
컨텐트
검색어가 존재하는지를 판단한다(S901).
예를 들어, 제어부(170)는 도 7에 도시된 웹 페이지(700) 내에서, <수잔의 가을 아침>이라는 컨텐트 검색어가 존재하는지를 판단할 수 있다.
제어부(170)는 접속한 웹 페이지 내에서,
컨텐트
검색어가 존재하는 경우, 컨텐트 검색어에 대응하는
컨텐트를
재생한다(S903).
예를 들어, 제어부(170)는 도 7에 도시된 웹 페이지(700) 내에서, <수잔의 가을 아침>이라는 컨텐트 검색어가 존재하는 경우, 웹 페이지(700)의 HTML 미디어 태그를 검색하고, 검색된 미디어 태그를 이용하여, <수잔의 가을 아침>을 재생할 수 있다.
제어부(170)는 접속한 웹 페이지 내에서,
컨텐트
검색어가
존재하지 않는
경우, 웹 페이지 내에 있는 입력 필드를 검색한다(S905).
일 실시 예에서, 입력 필드는 웹 페이지 내에서, 컨텐트를 검색하기 위한 필드일 수 있다.
제어부(170)는 검색된 입력 필드에
컨텐트
검색어를 자동으로 입력한다(S907).
제어부(170)는
컨텐트
검색어의 입력에 따라 접속한 웹 페이지로부터
컨텐트의
재생을 위한 미디어 태그를 검색한다(S909).
제어부(170)는 검색된 미디어 태그를 이용하여,
컨텐트
검색어에 대응하는 컨텐트를 자동으로 재생한다(S911).
이와 같이, 사용자는 간단한 음성 명령만으로, 특정 웹 사이트의 접속 및 해당 웹 사이트에서 원하는 컨텐트를 손쉽게 감상할 수 있다.
도 10은 본 발명의 또 다른 실시 예에 따른 음성 인식 시스템의 동작 방법을 설명하기 위한 래더 다이어그램이다.
특히, 도 10은 디스플레이 장치(100) 내에 설치된 음성 인식 서비스를 지원하는 어플리케이션이 지속적으로 동작하는 포어그라운드 어플리케이션이 있는 경우의 실시 예이다.
구체적으로, 도 10은 디스플레이 장치(100)가 STT 서버(10)로부터 받은 텍스트 데이터를 NLP 서버(30)에 보내지 않고, 먼저, 포어그라운드 어플리케이션을 이용하여, 음성 인식을 통한 웹 사이트 접속 및 컨텐트의 자동 재생에 관한 실시 예이다.
도 10을 참조하면, 디스플레이 장치(100)의 제어부(170)는 음성 명령을 수신한다(S1001).
디스플레이 장치(100)의 제어부(170)는 수신된 음성 명령에 대응하는 음성 데이터를
STT
서버(10)에 전송한다(S1003).
STT
서버(10)는 디스플레이 장치(100)로부터 수신된 음성 데이터를 텍스트 데이터로 변환하고, 변환된 텍스트 데이터를 디스플레이 장치(100)에 전송한다(S1005).
제어부(170)의 NLP 클라이언트(53)는 음성 인식 서비스를 지원하는
포어그라운드
어플리케이션이
존재하는지를 판단한다(S1007).
일 실시 예에서, 포어그라운드 어플리케이션은 디스플레이 장치(100) 내에서 계속적으로 실행 중인 어플리케이션으로, 음성 인식 및 자연어 처리 서비스를 수행할 수 있는 어플리케이션일 수 있다.
제어부(170)의 NLP 클라이언트(53)는 음성 인식 서비스를 지원하는
포어그라운드
어플리케이션이
존재하는 경우, 해당
어플리케이션을
이용하여, 텍스트 데이터에 대응하는 의도 분석 결과 정보를 획득한다(S1009).
일 실시 예에서, 의도 분석 결과 정보는 웹 사이트를 검색하기 위한 웹 사이트 검색어, 웹 사이트 내에서 컨텐트를 재생하기 위한 컨텐트 검색어를 포함할 수 있다.
그 후, 제어부(170)는 도 6의 S611 내지 S621 및 도 9의 S901 내지 S911을 순차적으로 수행한다.
만약, 제어부(170)는 음성 인식 서비스를 지원하는
포어그라운드
어플리케이션이
존재하지 않는
경우, 도 6의 S607 내지 S621 및 도 9의 S911을 순차적으로 수행한다.
즉, 제어부(170)는 음성 인식 서비스를 지원하는 포어그라운드 어플리케이션을 사용하지 않는 경우, 텍스트 데이터를 NLP 서버(30)에 전송하고, 텍스트 데이터에 대응하는 의도 분석 결과 정보를 수신할 수 있고, 그 이후의 단계들을 수행할 수 있다.
다음으로, 본 발명의 또 다른 실시 예에 따른 디스플레이 장치(100)의 동작 방법을 설명한다.
도 11 내지 도 15는 본 발명의 또 다른 실시 예에 따른 디스플레이 장치의 동작 방법을 설명하기 위한 도면이다.
도 11을 참조하면, 웹 페이지(1100)가 도시되어 있다. 웹 페이지(1100)의 주소는 <www.nanda.com>임을 가정하여 설명한다.
웹 페이지(1100)는 검색어를 입력할 수 있는 검색 입력 필드(1110), 사용자에 의해 입력된 검색어(1130) 및 검색어(1130)에 대한 검색 결과의 실행을 위한 돋보기 아이콘(1150)을 포함할 수 있다.
디스플레이 장치(100)는 URL 입력창의 쿼리를 확인하고, 확인된 쿼리가 데이터 베이스에 저장되어 있는지를 판단한다.
즉, 디스플레이 장치(100)는 검색어(1130)에 대한 검색 요청이 수신된 경우, 데이터 베이스의 쿼리를 이용하여, 검색어(1130)에 대응하는 URL을 생성한다.
예를 들어, 웹 페이지(1100)의 검색 입력 필드(1110)에 <김치찌개 끓이는 법>이라는 검색어(1130)가 입력된 경우, 디스플레이 장치(100)는 도 12a에 도시된 바와 같이, 쿼리(1210)를 생성할 수 있다.
생성된 쿼리(1210)는 쿼리 주소(1211) 및 검색어(1130)의 키워드 조합(1213)을 포함할 수 있다.
도 12b는 <www.goo.co.kr>의 웹 주소를 갖는 다른 웹 페이지의 쿼리(1230)를 보여준다.
다른 웹 페이지의 쿼리(1230)는 쿼리 주소(1231) 및 키워드 조합(1233)을 포함한다.
이와 같이, 서로 다른 웹 페이지의 경우, 동일한 검색어(1130)에 대해 서로 다른 쿼리 주소를 갖는다.
또한, 각 웹 사이트의 운영자는 쿼리 주소를 수시로 변경할 수 있어, 쿼리 주소를 이용하여, 검색을 수행하는 경우, 웹 사이트의 운영자에게 비용을 지불하거나, 쿼리 주소를 지속적으로 관리해야 하는 loss가 발생한다.
본 발명에서는 웹 사이트의 대표 주소만으로도, 사용자가 검색을 용이하게 수행할 수 있는 방법을 제안하고자 한다.
도 13은 본 발명의 실시 예에 따른 디스플레이 장치(100)의 동작 방법을 설명하는 흐름도이다.
이하에서, 검색 입력은 도 6의 실시 예에서 설명된, 사용자의 음성 명령에 따라 얻어진 의도 분석 결과 정보를 통해 획득된 것임을 가정하여 설명한다.
또한, 사용자의 음성 명령은 <NANDA TV에서 김치찌개 끊이는 법 찾아줘>임을 가정하여 설명한다.
또한, 디스플레이 장치(100)는 사용자의 음성 명령에 따라 <www.NANDATV.com> 이라는 웹 사이트에 접속한 상태임을 가정하여 설명한다. 이 경우, 디스플레이 장치(100)는 도 6의 실시 예를 이용하여, 해당 웹 사이트에 접속할 수 있다.
도 13을 참조하면, 디스플레이 장치(100)의 제어부(170)는 웹 페이지 내에서 검색 입력을 수신한다(S1301).
일 실시 예에서, 검색 입력은 도 9의 S907에 따라 검색 입력 필드에 자동으로 입력된 컨텐트 검색어 일 수 있다. 이 경우, 컨텐트 검색어는 사용자의 음성 명령을 통해 획득된 것일 수 있다.
디스플레이 장치(100)의 제어부(170)는 검색 입력의 수신에 따라 웹 페이지의 소스 코드를 획득하고(S1303), 획득된 소스 코드 내에서, 입력 타입이 텍스트인 키워드 항목을 검색한다(S1305).
제어부(170)는 키워드 항목의 값에 검색 입력의 키워드들을 삽입한다(S1307).
이에 대해서는 도 14을 참조하여 설명한다.
도 14는 본 발명의 일 실시 예에 따라, 키워드 항목과 관련된 웹 페이지의 소스 코드를 보여주는 도면이다.
제어부(170)는 소스 코드 내의 입력 타입(1411)이 "text"인 키워드 항목(1410)을 검색할 수 있다.
제어부(170)는 키워드 항목(1410)의 값(1413)에 키워드들의 조합인 <김치찌개 + 끊이는 + 방법>을 삽입할 수 있다.
다시 도 13을 설명한다.
제어부(170)는 소스 코드 내에서, 검색 실행 항목을 검색하고(S1309), 삽입된 키워드들의 검색을 위한 마우스 이벤트를 수행한다(S1311).
이에 대해서는 도 15를 참조하여 설명한다.
도 15는 본 발명의 일 실시 예에 따라 검색 실행 항목과 관련된 소스 코드를 보여주는 도면이다.
제어부(170)는 소스 코드 내에서, 키워드들의 조합을 검색하기 위한 검색 실행 항목(1510)을 찾을 수 있다.
제어부(170)는 소스 코드 내의 버튼 타입(1511)이 "submit"인 검색 실행 항목(1510)을 검색할 수 있다.
제어부(170)는 검색 실행 항목(1510) 내의 마우스다운 타입(1513)을 이용하여, 마우스 이벤트를 수행할 수 있다. 마우스 이벤트에 따라 키워드들의 조합이 해당 웹 사이트에서 검색될 수 있다.
이와 같이, 도 13의 실시 예에 따르면, 디스플레이 장치(100)는 특정 웹 사이트의 쿼리 주소를 별도의 데이터 베이스로 관리할 필요 없이, 웹 사이트의 코드를 분석하여, 자동으로 검색 결과를 얻을 수 있다.
이에 따라, 쿼리 주소를 저장하는 데이터 베이스의 관리에 소요되는 비용도 감소되고, 쿼리 주소를 주기적으로 감시할 필요가 없게 된다.
본 발명의 일 실시 예에 의하면, 전술한 방법은, 프로그램이 기록된 매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.
상기와 같이, 설명된 디스플레이 장치는 상기 설명된 실시 예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시 예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
Claims (15)
- 디스플레이 장치에 있어서,디스플레이부;웹 페이지에 대한 정보를 저장하는 저장부;사용자의 음성 명령을 수신하는 마이크;자연어 처리 서버와 통신을 위한 네트워크 인터페이스부; 및상기 음성 명령의 텍스트 데이터를 상기 자연어 처리 서버에 전송하고, 상기 자연어 처리 서버로부터 상기 음성 명령에 대응하는 의도 분석 결과 정보를 수신하고, 수신된 의도 분석 결과 정보에 포함된 검색어가 상기 저장부에 저장되어 있지 않은 경우, 상기 검색어와 관련된 복수의 후보 주소들 중 어느 하나를 최종 후보 주소로 선정하고, 선정된 최종 후보 주소에 대응하는 웹 사이트에 접속하는 제어부를 포함하는디스플레이 장치.
- 제1항에 있어서,상기 저장부는상기 웹 사이트의 주소, 상기 웹 페이지의 명칭을 나타내는 페이지 타이틀, 상기 웹 사이트의 웹 페이지 내에서, 특정 주소로 접속이 가능한 링크 타이틀과 상기 링크 타이들에 대응하는 링크 주소 및 상기 웹 페이지의 내용을 포함하는 페이지 텍스트를 저장하는디스플레이 장치.
- 제2항에 있어서,상기 제어부는상기 저장부에 상기 검색어를 포함하는 상기 페이지 타이틀이 저장되어 있지 않은 경우, 상기 검색어와 상기 페이지 타이틀 또는 상기 링크 타이틀가 겹치는 제1 비율, 상기 검색어가 상기 페이지 텍스트와 겹치는 제2 비율, 로마자로 변환된 검색어가 상기 웹 사이트의 주소와 겹치는 제3 비율을 이용하여, 상기 복수의 후보 주소들을 획득하는디스플레이 장치.
- 제3항에 있어서,상기 제어부는상기 제1 비율이 기준 비율 이상인 경우, 해당 페이지 타이틀 또는 해당 링크 타이틀과 매칭된 웹 사이트의 주소를 후보 주소로 획득하고,상기 제2 비율이 상기 기준 비율 이상인 경우, 해당 페이지 텍스트와 매칭된 웹 사이트의 주소를 후보 주소로 획득하고,상기 제3 비율이 상기 기준 비율 이상인 경우, 해당 웹 사이트의 주소를 후보 주소로 획득하는디스플레이 장치.
- 제4항에 있어서,상기 제어부는상기 제1,2,3 비율들 각각에 서로 다른 가중치를 부여하고, 가중치 부여에 따른 계산 값들 중 최대 값을 갖는 후보 주소를 상기 최종 후보 주소로 선정하는디스플레이 장치.
- 제5항에 있어서,상기 제1 비율에 대한 가중치는 상기 제2 비율에 대한 가중치보다 크고, 상기 제2 비율에 대한 가중치는 상기 제3 비율에 대한 가중치보다 큰디스플레이 장치.
- 제2항에 있어서,상기 제어부는상기 저장부에 상기 검색어를 포함하는 상기 페이지 타이틀이 저장되어 있는 경우, 상기 페이지 타이틀에 매칭되는 웹 사이트의 주소로 접속하는디스플레이 장치.
- 제1항에 있어서,상기 검색어는상기 웹 사이트의 접속을 위한 웹 사이트 검색어 및 상기 웹 페이지 내에 있는 컨텐트의 검색을 위한 컨텐트 검색어를 포함하는디스플레이 장치.
- 제8항에 있어서,상기 제어부는상기 접속한 웹 사이트의 웹 페이지 내에 상기 컨텐트 검색어가 포함되어 있지 않은 경우, 상기 웹 페이지 내에 있는 검색 입력 필드를 검색하고, 검색 입력 필드 내에 상기 컨텐트 검색어를 자동으로 입력하는디스플레이 장치.
- 제9항에 있어서,상기 제어부는상기 컨텐트의 재생을 위한 미디어 태그를 검색하고, 검색된 미디어 태그를 이용하여, 상기 컨텐트 검색어에 대응하는 컨텐트를 자동으로 재생하는디스플레이 장치.
- 제8항에 있어서,상기 제어부는상기 웹 페이지의 소스 코드를 획득하고, 획득된 소스 코드에 기반하여, 상기 검색어를 자동으로 검색하는디스플레이 장치.
- 제11항에 있어서,상기 제어부는상기 소스 코드 내에서, 입력 타입이 텍스트인 키워드 항목을 검색하고, 검색된 키워드 항목의 값에 상기 컨텐트 검색어를 구성하는 키워드들의 조합을 삽입하고,상기 소스 코드 내에서, 검색 실행 항목을 검색하고, 상기 키워드들의 조합을 검색하기 위한 마우스 이벤트를 수행하는디스플레이 장치.
- 제1항에 있어서,상기 제어부는상기 음성 명령에 대응하는 음성 데이터를 음성 텍스트 변환 서버에 전송하고, 상기 음성 텍스트 변환 서버로부터 상기 텍스트 데이터를 수신하는디스플레이 장치.
- 제1항에 있어서,상기 제어부는원격 제어 장치로부터 수신된 제어 신호에 따라 상기 디스플레이 장치의 동작 모드를 음성 인식 모드로 진입시키는디스플레이 장치.
- 제1항에 있어서,상기 제어부는음성 인식 서비스를 지원하는 포어그라운드 어플리케이션이 존재하는 경우, 상기 텍스트 데이터를 상기 자연어 처리 서버에 전송하지 않고, 자체적으로, 상기 의도 분석 결과 정보를 획득하는디스플레이 장치.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/KR2018/002070 WO2019164020A1 (ko) | 2018-02-20 | 2018-02-20 | 디스플레이 장치 |
DE112018007127.8T DE112018007127T5 (de) | 2018-02-20 | 2018-02-20 | Anzeigevorrichtung |
US16/971,470 US11706482B2 (en) | 2018-02-20 | 2018-02-20 | Display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/KR2018/002070 WO2019164020A1 (ko) | 2018-02-20 | 2018-02-20 | 디스플레이 장치 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2019164020A1 true WO2019164020A1 (ko) | 2019-08-29 |
Family
ID=67688148
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2018/002070 WO2019164020A1 (ko) | 2018-02-20 | 2018-02-20 | 디스플레이 장치 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11706482B2 (ko) |
DE (1) | DE112018007127T5 (ko) |
WO (1) | WO2019164020A1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023035524A1 (zh) * | 2021-09-10 | 2023-03-16 | 平安科技(深圳)有限公司 | 基于意图识别的流程节点跳转方法、装置、设备及介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001350682A (ja) * | 2000-04-06 | 2001-12-21 | Voicenic Inc | 音声ドメインによるインターネット接続媒介システムと媒介装置及びその媒介方法、並びに音声ドメインのデータベース生成方法 |
KR20020013148A (ko) * | 2000-08-11 | 2002-02-20 | 윤종용 | 연속어 음성 명령을 통한 인터넷 네비게이션 시스템 및 그방법 |
KR20070067651A (ko) * | 2007-05-09 | 2007-06-28 | 한재호 | 인터넷 사이트 패턴 분석을 통한 피싱방지 방법 |
KR20080031696A (ko) * | 2005-06-30 | 2008-04-10 | 마이크로소프트 코포레이션 | 음성 검색 쿼리를 이용한 컨텐트 검색 |
KR20090020921A (ko) * | 2007-08-24 | 2009-02-27 | 삼성전자주식회사 | 모바일 음성 웹 제공 방법 및 장치 |
KR20100006495A (ko) * | 2008-07-09 | 2010-01-19 | 최종덕 | 음성인식을 이용한 웹페이지 정보 제공 방법 및 장치 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8380501B2 (en) * | 2009-08-05 | 2013-02-19 | Siemens Industry, Inc. | Parcel address recognition by voice and image through operational rules |
EP3091535B1 (en) * | 2009-12-23 | 2023-10-11 | Google LLC | Multi-modal input on an electronic device |
JP5637131B2 (ja) * | 2011-12-26 | 2014-12-10 | 株式会社デンソー | 音声認識装置 |
JP5079926B1 (ja) * | 2012-07-04 | 2012-11-21 | 株式会社ツインズ | チューブ状ひも本体を備えたひも |
US9583100B2 (en) * | 2012-09-05 | 2017-02-28 | GM Global Technology Operations LLC | Centralized speech logger analysis |
US11494206B2 (en) * | 2016-05-17 | 2022-11-08 | Google Llc | Automated initiation and adaptation of a dialog with a user via user interface devices of a computing device of the user |
US10339769B2 (en) * | 2016-11-18 | 2019-07-02 | Google Llc | Server-provided visual output at a voice interface device |
-
2018
- 2018-02-20 DE DE112018007127.8T patent/DE112018007127T5/de active Pending
- 2018-02-20 US US16/971,470 patent/US11706482B2/en active Active
- 2018-02-20 WO PCT/KR2018/002070 patent/WO2019164020A1/ko active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001350682A (ja) * | 2000-04-06 | 2001-12-21 | Voicenic Inc | 音声ドメインによるインターネット接続媒介システムと媒介装置及びその媒介方法、並びに音声ドメインのデータベース生成方法 |
KR20020013148A (ko) * | 2000-08-11 | 2002-02-20 | 윤종용 | 연속어 음성 명령을 통한 인터넷 네비게이션 시스템 및 그방법 |
KR20080031696A (ko) * | 2005-06-30 | 2008-04-10 | 마이크로소프트 코포레이션 | 음성 검색 쿼리를 이용한 컨텐트 검색 |
KR20070067651A (ko) * | 2007-05-09 | 2007-06-28 | 한재호 | 인터넷 사이트 패턴 분석을 통한 피싱방지 방법 |
KR20090020921A (ko) * | 2007-08-24 | 2009-02-27 | 삼성전자주식회사 | 모바일 음성 웹 제공 방법 및 장치 |
KR20100006495A (ko) * | 2008-07-09 | 2010-01-19 | 최종덕 | 음성인식을 이용한 웹페이지 정보 제공 방법 및 장치 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023035524A1 (zh) * | 2021-09-10 | 2023-03-16 | 平安科技(深圳)有限公司 | 基于意图识别的流程节点跳转方法、装置、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
US20200404362A1 (en) | 2020-12-24 |
DE112018007127T5 (de) | 2020-11-05 |
US11706482B2 (en) | 2023-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2014003283A1 (en) | Display apparatus, method for controlling display apparatus, and interactive system | |
WO2014107097A1 (en) | Display apparatus and method for controlling the display apparatus | |
WO2014107101A1 (en) | Display apparatus and method for controlling the same | |
WO2021060590A1 (ko) | 디스플레이 장치 및 인공 지능 시스템 | |
WO2015194693A1 (ko) | 영상 표시 기기 및 그의 동작 방법 | |
WO2019135433A1 (ko) | 디스플레이 장치 및 디스플레이 장치를 포함하는 시스템 | |
WO2021070976A1 (ko) | 소스 기기 및 무선 시스템 | |
WO2019164049A1 (en) | Display device and operating method thereof | |
WO2021060575A1 (ko) | 인공 지능 서버 및 그의 동작 방법 | |
WO2019172472A1 (ko) | 디스플레이 장치 | |
WO2021054495A1 (ko) | 디스플레이 장치 및 인공 지능 서버 | |
WO2019164020A1 (ko) | 디스플레이 장치 | |
WO2021033785A1 (ko) | 사용자의 음성을 통해 가전 기기를 제어할 수 있는 디스플레이 장치 및 인공 지능 서버 | |
WO2017126774A1 (ko) | 디스플레이 장치 및 그의 동작 방법 | |
WO2022149620A1 (ko) | 디스플레이 장치 | |
WO2021060570A1 (ko) | 가전 기기 및 서버 | |
WO2020230923A1 (ko) | 음성 인식 서비스를 제공하기 위한 디스플레이 장치 및 그의 동작 방법 | |
WO2021015319A1 (ko) | 디스플레이 장치 및 그의 동작 방법 | |
WO2020222322A1 (ko) | 음성 인식 서비스를 제공하기 위한 디스플레이 장치 | |
WO2020122271A1 (ko) | 디스플레이 장치 | |
WO2021177495A1 (ko) | 자연어 처리 장치 | |
WO2022145553A1 (ko) | 이동 단말기 및 디스플레이 시스템 | |
WO2024010110A1 (ko) | 디스플레이 장치 및 그의 동작 방법 | |
WO2024005226A1 (ko) | 디스플레이 장치 | |
WO2023176997A1 (ko) | 디스플레이 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 18906876 Country of ref document: EP Kind code of ref document: A1 |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 18906876 Country of ref document: EP Kind code of ref document: A1 |