CN105592343B - 针对问题和回答的显示装置和方法 - Google Patents

针对问题和回答的显示装置和方法 Download PDF

Info

Publication number
CN105592343B
CN105592343B CN201510765555.XA CN201510765555A CN105592343B CN 105592343 B CN105592343 B CN 105592343B CN 201510765555 A CN201510765555 A CN 201510765555A CN 105592343 B CN105592343 B CN 105592343B
Authority
CN
China
Prior art keywords
question
user
sentence
sentences
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510765555.XA
Other languages
English (en)
Other versions
CN105592343A (zh
Inventor
朴殷相
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Priority to CN202210189266.XA priority Critical patent/CN114596861A/zh
Publication of CN105592343A publication Critical patent/CN105592343A/zh
Application granted granted Critical
Publication of CN105592343B publication Critical patent/CN105592343B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/475End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
    • H04N21/4758End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data for providing answers, e.g. voting
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/34Browsing; Visualisation therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/242Query formulation
    • G06F16/243Natural language query formulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/31Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3322Query formulation using system suggestions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3325Reformulation based on results of preceding query
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/3332Query translation
    • G06F16/3334Selection or weighting of terms from queries, including natural language queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3347Query execution using vector based model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/338Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/432Query formulation
    • G06F16/433Query formulation using audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Educational Administration (AREA)
  • Business, Economics & Management (AREA)
  • Educational Technology (AREA)
  • Evolutionary Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Exchange Systems With Centralized Control (AREA)
  • Electrotherapy Devices (AREA)
  • Machine Translation (AREA)

Abstract

一种用于问题和回答的显示装置和方法包括:显示单元,包括被配置为接收用户的语音的输入单元;通信单元,被配置为与回答服务器执行数据通信;以及处理器,被配置为:响应于语音是单词语音来使用所述语音创建并显示一个或多个问题句子,创建与从显示的一个或多个问题句子中选择的问题句子相对应的问题语言,通过通信单元向回答服务器发送创建的问题语言,以及,响应于从回答服务器接收到与所述问题语言有关的一个或多个回答结果,显示接收到的一个或多个回答结果。因此,尽管输入非句子语音,显示装置也可以提供适于用户问题意图的回答结果。

Description

针对问题和回答的显示装置和方法
相关申请的交叉引用
本申请要求于2014年11月12日在韩国知识产权局提出的韩国专利申请No.10-2014-0156901的优先权,并在此引入其全部公开的内容。
技术领域
以下描述涉及针对问题和回答的显示装置和方法,并且更具体地,涉及提供与非句子语音有关的问题和回答服务的显示装置和方法。
背景技术
因为显示装置已经能够识别用户的语音,因此显示装置已经能够识别用户的语音以提供用户所意图的语音识别结果或执行控制命令。
具体地,提供用户所意图的语音识别结果的与语音会话服务有关的最通用的方法是通过搜索引擎在用户与显示装置之间执行会话的关键词识别方法。这样的关键词识别方法是指基于与核心关键词有关的语音来执行与核心关键词有关的搜索并提供搜索结果的显示装置。然而,这样的方法提供与核心关键词的语音有关的很多搜索结果,并且由于用户不得不从很多搜索结果中搜索期望的信息,因此用户会感到不便。
另一个方法是句子识别方法,其中显示装置分析与用户的问题句子有关的语音以确定用户的语音意图,基于确定的语音意图执行搜索,并且根据搜索提供回答结果。
这样的句子识别方法相比于上述的关键词识别方法更加先进,因为句子识别方法提供了更接近于用户语音意图的回答结果。然而,当没有输入适于预设模式的句子语音,或者由于外部环境而使在句子语音中出现噪声时,这样的句子识别方法不能对用户的句子语音执行正确的语音识别。
发明内容
本公开的示例实施例克服上述缺点或上文未描述的其它缺点。另外,不要求本公开克服上述缺点,并且本公开的示例实施例可以不克服上述任何缺点。
本公开提供了根据用户的非句子语音来清楚地确定用户的问题意图并根据该确定提供回答结果的显示装置。
根据本公开的方案,一种显示装置包括:显示单元,包括被配置为接收用户的语音的输入单元;通信单元,被配置为与回答服务器执行数据通信;以及处理器,被配置为:如果语音是单词语音,则使用语音创建并显示一个或多个问题句子,创建与从显示的所述一个或多个问题句子中选择的问题句子相对应的问题语言,通过通信单元向回答服务器发送创建的问题语言,以及,如果从回答服务器接收到与问题语言有关的一个或多个回答结果,则显示接收的一个或多个回答结果。
显示装置还可以包括:存储单元,被配置为存储多个句子和与所述多个句子中的各个句子的特征向量相对应的关键词,其中,处理器比较与之前存储在存储单元中的所述多个句子中的各个句子的特征向量相对应的关键词与说出的单词之间在发音上的相似性,将包括与说出的单词具有高相似性的关键词的句子确定为与语音有关的问题句子,并且显示确定的句子。
如果多个句子被确定为问题句子,则处理器可以基于所述多个句子中的每一个的选择历史信息,按照之前被选择为问题句子的高次数的顺序来显示被选择为问题句子的多个句子。
如果多个句子被确定为问题句子,则处理器可以基于所述多个句子中的每一个的选择历史信息,在被选择为问题句子的多个句子中,选择并显示与从之前被最高次数地选择为问题句子的句子开始的预设数量相对应的句子。
如果从回答服务器接收到与说出的单词(或所说的单词)有关的关键词,则处理器可以组合接收到的关键词,创建有针对语音的问题句子,并且显示该问题句子。
回答服务器可以是三重结构知识库服务器,并且使用与说出的单词有关的属性信息来提取与说出的单词相关联的关键词。
当不存在包括与说出的单词具有高相似性的关键词的句子时,处理器可以从回答服务器接收说出的单词和关键词,组合接收倒的关键词,并且创建与所述语音有关的问题句子。
如果用户的语音是句子语音,则处理器可以使用基于自然语言处理的算法来从用户的语音中提取对象名称,并且基于提取的对象名称来创建问题语言。
根据本公开的方案,由显示装置执行的、提供问题和回答的方法包括:接收用户的语音;如果用户的语音是单词语音,则使用用户的语音创建并显示一个或多个问题句子;创建与从显示的一个或多个问题句子中选择的问题句子相对应的问题语言,并且向回答服务器发送该问题语言;以及,从回答服务器接收并显示与该问题语言有关的一个或多个回答结果。
创建并显示一个或多个问题句子可以包括:比较与之前存储的多个句子中的每一个的特征向量相对应的关键词与说出的单词之间在发音栏中的相似性,将包括与说出的单词具有高相似性的关键词的句子确定为所述问题句子,并且显示确定的句子。
创建并显示一个或多个问题句子可以包括:如果多个句子被确定为问题句子,则基于所述多个句子中的每一个的选择历史信息,按照之前被选择为问题句子的高次数的顺序来显示被选择为问题句子的多个句子。
创建并显示一个或多个问题句子可以包括:如果多个句子被确定为问题句子,则基于所述多个句子中的每一个的选择历史信息,在被选择为问题句子的多个句子中,选择并显示与从之前被最高次数地选择为问题句子的句子开始的预设数量相对应的句子。
创建并显示一个或多个问题句子可以包括:如果从回答服务器接收到与说出的单词有关的关键词,则组合接收到的关键词,创建针对语音的问题句子,并且显示创建的问题句子。
回答服务器可以是三重结构知识库服务器,并且使用与核心词汇有关的属性信息来提取与核心词汇(或核心单词)相关联的关键词。
创建并显示一个或多个问题句子可以包括:当不存在包括与说出的单词具有高相似性的关键词的句子时,从回答服务器接收与所述说出的单词相关联的关键词,组合接收到的关键词,并且创建并显示与语音有关的问题句子。
该方法还可以包括:确定用户的语音是单词语音还是句子语音,其中,发送包括:如果用户的语音是句子语音,则使用基于自然语言处理的算法来从用户的语音中提取对象名称,基于提取的对象名称来创建问题语言,并且向回答服务器发送创建的问题语言。
根据本公开的方案,一种连接到提供问题和回答的显示装置的非暂时性机器可读存储介质,该介质存储用于执行以下操作的计算机程序:接收用户的语音;如果用户的语音是单词语音,则使用用户的语音创建并显示一个或多个问题句子;创建与从显示的一个或多个问题句子中选择的问题句子相对应的问题语言,并且向回答服务器发送该问题语言;以及,从回答服务器接收并显示与该问题语言有关的一个或多个回答结果。
在下文的描述中将部分阐述本公开的附加和/或其它方案和优点,并且根据该描述,这部分将变得明显,或者,可以通过本公开的实践被学习。
附图说明
通过参照附图描述本公开的特定示例实施例,本公开的上述和/或其它方案将会更加清楚,在附图中:
图1是根据本公开的示例实施例的会话类型系统的框图;
图2是根据本公开的示例实施例的显示装置的示意框图;
图3是根据本公开的示例实施例的显示装置的详细框图;
图4是描述了根据本公开的示例实施例的创建问题句子的显示装置的示例示意图;
图5是描述了根据本公开的示例实施例的显示问题句子的显示装置的示例示图;
图6是描述了根据本公开的示例实施例的通过回答服务器接收与问题句子有关的关键词的显示装置的示例示图;
图7是描述了根据本公开的示例实施例的基于由回答服务器提供的关键词来显示问题句子的显示装置的示例示图;以及
图8是根据本公开的示例实施例的提供问题和回答服务的显示装置的方法的流程图。
具体实施方式
下面将详细参考示例实施例,示例实施例的示例在附图中示出,其中全文中相同的附图标记指代相同的元件。下文通过参照附图描述实施例以解释本公开。
本公开的示例实施例可以被不同地修改。因此,具体示例实施例在附图中被示出并在具体实施方式中被详细描述。然而,应当理解的是,本公开并不限于具体示例实施例,而是在不脱离本公开的范围和精神的前提下包括所有修改、等同物和替代。另外,不对公知功能或构造进行详细描述,因为它们将以不必要的细节而使得本发明不够突出。
可以使用术语“第一”、“第二”…来描述各种组件,但是组件并不受到该术语的限制。该术语仅用于将一个组件与其它组件相区分。
本公开中使用的术语仅用于描述示例实施例,但并不旨在限制本公开的范围。只要在上下文中没有另外定义,那么单数表达还包括复数意义。在本申请中,术语“包括”和“由…组成”指明写在说明书中的特征、数量、步骤、操作、组件、元件或其组合的存在,但并不排除一个或多个其它特征、数量、步骤、操作、组件、元件或其组合的存在或者添加它们的可能性。
在示例实施例中,“模块”或“单元”执行至少一个功能或操作,并且可以使用硬件、软件或者硬件与软件的组合来实现。此外,除了必须使用特定硬件来实现的“模块”或“单元”以外,多个“模块”或多个“单元”可以集成到至少一个模块中,并且可以使用至少一个处理器(未示出)来实现。
下文中,将参照附图来详细描述各种示例实施例。
在以下描述中,即使在不同的附图中,相同的附图标记也用于相同的元件。提供描述中限定的内容,例如具体结构和部件,用来帮助对示例实施例的全面理解。因此应清楚,即便缺少这些具体限定的内容,本公开的示例实施例也能够实施。此外,由于不必要的细节会导致示例实施例不清楚,因此不对公知的功能或结构进行详细描述。
图1是根据本公开的示例实施例的会话类型系统的框图。
如图1所示,会话类型系统包括显示装置100、语音识别装置200、以及回答服务器300。
显示装置100是识别用户的语音以执行用户所意图的操作的装置,并且可以实现为各种电子装置,例如智能TV、智能电话、平板PC等等。
语音识别装置200将从显示装置100接收的用户语音的语音信号转换成文本,并且向显示装置100发送转换成文本的语音识别结果。然而,本公开并不限于此。当不执行显示装置100与语音识别装置200之间的数据通信或者通过麦克风(未示出)输入语音时,显示装置100可以将输入的用户语音的语音信号转换成文本。
回答服务器300是三重结构知识库服务器,并且当从用户语音转换的文本包括单词时,提供与用户说出的单词相关联的关键词。回答服务器300提供与从显示装置100接收的问题语言有关的回答信息。
更详细地,在显示装置100以语音识别模式操作期间,用户可以执行与关于期望信息的语音有关的问题,以便通过显示装置100接收期望的信息。根据示例实施例,如果通过麦克风(未示出)输入用户语音,则显示装置100可以在内部对用户语音执行语音识别,并且将输入的用户语音转换成文本。如果通过诸如遥控器的遥控装置(未示出)输入用户语音,则显示装置100向语音识别装置200发送用户语音的语音信号。因此,语音识别装置200将从显示装置100接收的语音的语音信号转换成文本,并且根据转换的文本来发送语音识别结果。
如果通过该处理将用户语音转换成文本,则显示装置100分析从用户语音转换成的文本,并且确定语音是句子语音还是包括一个或多个单词的语音。
作为该确定的结果,如果用户语音是包括一个或多个单词的语音,则显示装置100显示与该一个或多个单词有关的一个或多个问题句子。就此而言,该一个或多个问题句子是被预测为用户的问题意图的句子,并且可以通过以下示例实施例来获得或创建。
根据示例实施例,显示装置100可以从多个之前存储的句子中将包括与用户说出的一个或多个单词有关的关键词的句子确定为问题句子。根据示例实施例,显示装置100可以从回答服务器300接收与用户说出的单词相关联的关键词,组合接收的关键词,并且创建与语音有关的问题句子。下文将详细描述通过示例实施例的确定和创建问题句子的操作。
此后,显示装置100可以显示根据用户语音被预测为用户的问题意图的一个或多个问题句子。因此,用户可以从在显示装置100上显示的一个或多个问题句子中选择与用户的问题意图相匹配的问题句子。
同时,如果用户选择问题句子或者用户的语音是句子语音,则显示装置100可以使用基于自然语言处理的算法来确定句子结构,并且提取句子中出现的对象名称。此后,显示装置100可以基于提取的对象名称来创建问题语言。就此而言,问题语言是回答服务器300可识别的语言。根据示例实施例,问题语言可以是基于SPARQL协议和RDF查询语言(SPARQL)的语言。基于SPARQL的语言可以是用于询问在W3C(万维网联盟)标准中提供的语义网本体语言(RDF(资源描述框架)、RDFs(资源描述框架概要)、OWL(ONTOLOO Web语言))的文档的语言。
如果创建了这样的基于SPARQL的问题语言,则显示装置100向回答服务器300发送创建的问题语言。已经从显示装置100接收到问题语言的回答服务器300可以基于接收的问题语言来获得一个或多个回答结果,并且向显示装置100发送该回答结果。因此,显示装置100可以接收从回答服务器300发送的一个或多个回答结果,并且在屏幕上显示该一个或多个回答结果,从而可以通过在显示装置100的屏幕上显示的一个或多个回答结果来向用户提供最适于用户的问题意图的回答结果。
上文已经详细描述了根据示例实施例的转换类型系统提供适于用户的问题意图的问题和回答服务的操作。下文将详细描述根据示例实施例的显示装置100提供适于用户的问题意图的问题和回答服务的操作。
图2是根据本公开的示例实施例的显示装置100的示意框图。图3是根据本公开的示例实施例的显示装置100的详细框图。
如图2所示,显示装置100可以包括输入单元110、显示单元120、通信单元130和处理器140。此外,如图3所示,显示装置100还可以包括语音处理单元150和存储单元160。
输入单元110用于接收并传送针对处理器140的各种用户操纵,并且可以实现为输入面板。就此而言,输入面板可以包括触摸板、包括各种功能键、数字键、特殊键、字母键等等的键盘、或触摸屏。具体地,输入单元110可以通过麦克风(未示出)接收用户的语音。
显示单元120可以显示与用户语音有关的问题句子和用户语音的回答结果。显示单元120可以实现为液晶显示器(LCD)、有机发光显示器(OLED)、或等离子显示面板(PDP)等等。此外,显示单元120可以实现为触摸面板并且接收用户触摸指令。
通信单元130可以与回答服务器300执行数据通信,并且接收与用户语音有关的回答结果。通信单元130可以与诸如遥控器的遥控装置(未示出)执行数据通信,并且接收用户语音的语音信号。通信单元130可以包括各种通信模块,例如近距离无线通信模块(未示出)、无线通信模块(未示出)等等。
就此而言,近距离无线通信模块(未示出)是与位于近距离的会话类型服务器200和提供内容的外部服务器(未示出)执行无线通信的通信模块,并且该近距离无线通信模块可以是例如蓝牙、ZigBee等等。无线通信模块(未示出)是根据无线通信协议(例如WiFi、IEEE等等)连接到外部网络并执行通信的模块。此外,无线通信模块还可以包括根据各种移动通信标准(例如第三代(3G)、第三代合作伙伴计划(3GPP)、长期演进(LTE)等等)来接入移动通信网络并执行通信的移动通信模块。
处理器140用于控制装置,可以与中央处理单元、微处理器、控制器等等一起使用,并且用于控制装置的总体操作。处理器140可以连接到不同的功能部分,例如语音处理单元150、通信单元130等等,并且可以实现为单片系统(SOC)或片上系统(SoC)。
如果语音是单词文本,则处理器140可以控制显示单元120显示与一个或多个单词有关的一个或多个问题句子。此后,处理器140可以控制通信单元130分析由用户从显示的一个或多个问题句子中选择的问题句子,创建与该问题句子相对应的问题语言,并且向回答服务器300发送生成的问题语言。此后,如果从回答服务器300接收到与问题语言有关的一个或多个回答结果,则显示单元120可以根据处理器140的控制指令来显示从回答服务器300接收的一个或多个回答结果。
更详细地,处理器140可以基于以下示例实施例来获得用户语音的文本。
根据示例实施例,处理器140可以根据与用户语音有关的语音是否通过麦克风(未示出)或遥控装置(未示出)输入输入单元110来确定对用户语音执行语音识别的主体。
如果在输入单元110中输入了用户语音,则处理器140可以控制语音处理单元150执行对用户语音的语音识别。根据这样的控制指令,语音处理单元150可以使用语音到文本(STT)算法将用户语音转换成文本。
同时,如果通过通信单元130接收到用户语音的语音信号,则处理器140可以向语音识别装置200发送用户语音的语音信号。因此,语音识别装置200可以对接收的用户语音的语音信号执行语音识别,将用户语音的语音信号转换成文本,并且向显示装置100发送语音识别结果。
根据示例实施例,处理器140可以根据是否能够通过通信单元130与语音识别装置200执行数据通信来确定对用户语音执行语音识别的主体。如果处理器140能够与语音识别装置200执行数据通信,则处理器140可以从语音识别装置200接收关于用户语音的语音识别结果。如果处理器140不能够与语音识别装置200执行数据通信,则处理器140可以通过语音处理单元150对用户语音执行语音识别。
如果通过上述示例实施例创建了用户语音的文本,则处理器140可以分析根据用户语音创建的文本,并且确定用户语音是句子语音还是单词语音。根据示例实施例,处理器140可以通过作为自然语言处理技术的词法分析和语法分析来分析语音的文本的句子结构,并确定用户语音是句子语音还是单词语音。这样的自然语言处理技术是公知的,并且因此在本公开中省略其详细描述。
如果通过语音的文本分析,用户语音是包括一个或多个单词的语音,则处理器140可以根据以下示例实施例来确定被预测为用户意图的问题句子,并且在显示单元120上显示确定的问题句子。
根据示例实施例,处理器140可以从多个之前存储的句子中将包括与由用户说出的一个或多个单词有关的关键词的一个或多个句子确定为与用户语音有关的问题句子。更详细地,存储单元160可以存储多个句子以及与多个各个句子的特征向量相对应的关键词。因此,处理器140可以比较与之前存储在存储单元160中的多个句子的特征向量相对应的关键词与一个或多个单词之间在发音栏中的相似性。此后,处理器140可以将包括与用户说出的一个或多个单词具有高相似性的关键词的句子确定为与该语音有关的问题句子。
根据示例性实施例,处理器140可以向回答服务器300发送由用户说出的一个或多个单词,如果从回答服务器300接收到与一个或多个单词相关联的关键词,则处理器140可以组合接收的单词,并且创建针对用户语音的问题句子。就此而言,回答服务器是三重结构知识库服务器,并且可以执行使用与由用户说出的单词有关的属性信息来提取与所述单词相关联的关键词,并向显示装置100发送提取的关键词的操作。
根据示例实施例,当在多个之前存储的句子中不存在包括与由用户说出的一个或多个单词有关的关键词的句子时,处理器140可以向回答服务器300发送所述一个或多个单词。因此,回答服务器可以执行使用与从显示装置100接收的一个或多个单词有关的属性信息来提取与所述一个或多个单词相关联的关键词,并向显示装置100发送关键词的操作。
如上所述,如果接收到与问题句子有关的问题语言,则提供与从显示装置100接收的一个或多个单词有关的关键词的回答服务器300可以执行基于接收的问题语言向显示装置100发送问题句子的回答结果的操作。就此而言,问题语言可以是能够被回答服务器300识别的基于SPARQL协议和RDF查询语言(SPARQL)的语言。如上所述,下文将详细描述基于在基于SPARQL语言中的问题语言来提供用于创建问题句子的关键词并且提供针对问题句子的回答结果的回答服务器300。
图4是描述了根据本公开的示例实施例的创建问题句子的显示装置的示例示图。
如图4所示,存储单元160可以匹配并存储多个句子和与多个各个句子的特征向量相对应的关键词。同时,从用户语音中提取的单词可以包括“AAA”、“电影”、和“演员”。如果提取了这样的单词,则处理器140可以测量与之前存储在存储单元160中的多个句子的特征向量相对应的关键词与从用户语音中提取出的单词之间的相似性。
更详细地,处理器140可以生成作为从用户语音中提取出的单词的“AAA”、“电影”、和“演员”中的每一个的音标。此后,处理器140可以使用相似性算法(例如含混矩阵)来测量与之前存储在存储单元160中的多个各个句子的特征向量相对应的关键词的音标与各个“AAA”、“电影”、和“演员”的音标之间的相似性。此后,处理器140可以基于相似性测量结果来从多个之前存储的句子中提取包括被测量为具有等于或大于与“AAA”、“电影”、和“演员”有关的预定阈值的关键词的句子。
如图4所示,存储单元160可以存储具有与“AAA”、“电影”、和“演员”中的至少一个有关的高相似性的第一到第六句子410、420、430、440、450和460。如上所述,如果存储了与“AAA”、“电影”、和“演员”中的至少一个有关的第一句子410到第六句子460,则处理器140可以从第一句子410到第六句子460中提取与“AAA”、“电影”、和“演员”中的每一个具有高相似性的句子。如图4所示,在与第六句子460匹配的关键词中的针对“AAB”的第一关键词可以与“AAA”具有较低相似性。在这种情况下,处理器140可以将除了第六句子460以外的第一句子410到第五句子450确定为与“AAA”、“电影”、和“演员”具有高相似性的句子,并且将第一句子410到第五句子450确定为可被预测为用户语音意图的问题句子。
图5是描述了根据本公开的示例实施例的显示问题句子的显示装置的示例示图。
如上文参照图4所示,第一句子410到第五句子450可以被确定为可被预测为与“AAA”、“电影”、和“演员”中的每个的单词510有关的用户语音意图的问题句子。如上所述,如果根据与“AAA”、“电影”、和“演员”中的每个的单词510确定了多个问题句子,则处理器140可以基于对第一句子410到第五句子450中的每一个的选择历史信息,来控制显示单元120以被选择为问题句子的最高次数的顺序显示被选择为问题句子的第一句子410到第五句子450。例如,就被选择为问题句子的第一句子410到第五句子450而言,第一句子410到第五句子450被用户最多地选择为问题句子的顺序可以是:第四句子440、第一句子410、第三句子430、第二句子420和第五句子450。
在这种情况下,显示单元120可以显示问题句子列表520,其中第四句子440、第一句子410、第三句子430、第二句子420和第五句子450依次列在屏幕上。
同时,处理器140可以控制显示单元120只显示被选择为问题句子的第一句子410到第五句子450中的预定的数量。例如,如果3被设置为包括在问题句子列表520中的问题句子的数量,则处理器140可以按照之前被选择为问题句子的最高次数的顺序来将第一句子410到第五句子450中的前三个句子确定为问题句子。因此,显示单元120可以在屏幕上显示问题句子列表520,该问题句子列表520包括第一句子410到第五句子450中的具有之前被选择为问题句子的最高次数的第四句子440、第一句子410和第三句子430。
因此,用户可以从在屏幕上显示的问题句子列表520上列出的问题句子中选择用户所意图的问题句子。
图6是描述了根据本公开的示例实施例的通过回答服务器300接收与问题句子有关的关键词的显示装置100的示例示图。图7是描述了根据本公开的示例实施例的基于由回答服务器300提供的关键词来显示问题句子的显示装置100的示例示图。
如图6所示,用户语音可以包括词汇栏,该词汇栏包括第一单词610“AAA”和第二单词620“电影”。在这种情况下,处理器140可以通过通信单元130向作为三重结构知识库服务器的回答服务器300发送第一单词610和第二单词620的文本。如果接收到第一单词610和第二单词620的文本,则回答服务器300可以使用第一单词610和第二单词620的属性信息来提取与第一单词610和第二单词620相关联的关键词。
就此而言,回答服务器300是三重结构知识库服务器,并且可以使用与每个单词有关的属性信息来提取与每个单词相关联的关键词。更详细地,回答服务器300可以从第一单词610和第二单词620中获得针对“电影”的更高的属性信息。如果从第一单词610和第二单词620获得了针对“电影”的更高的属性信息,则回答服务器300可以获得与更高的属性信息a相关联的“演员”、“导演”和“OST”中的每一个的更低的属性信息b。因此,回答服务器300可以将针对与第一单词610和第二单词620相关联的“电影”的更高属性信息以及“演员”、“导演”和“OST”中的每一个的更低的属性信息b确定为与第一单词610和第二单词620相关联的关键词,并且向显示装置100发送关键词搜索结果。
如果接收到这样的关键词搜索结果,则处理器140可以基于预定义的标准句子表,通过将词汇栏710与关键词720相组合来创建问题句子,其中词汇栏710包括第一单词610和第二单词620,关键词720(演员、标题、导演和OST)包括在从回答服务器300接收的关键词搜索结果中。
如图7所示,显示单元120可以在屏幕上显示包括多个问题句子的问题句子列表730,该多个问题句子基于词汇栏710和关键词720来创建,其中词汇栏710包括第一单词610和第二单词620,关键词720(演员、标题、导演和OST)包括在从回答服务器300接收的关键词搜索结果中。也就是说,显示单元120可以在屏幕上显示问题句子列表730,问题句子列表730包括第一问题句子“AAA出演的电影的标题是什么?”,第二问题句子“哪位女演员与AAA一起出演在电影中?”,第三问题句子“AAA出演的电影的OST是什么?”,以及第四问题句子“AAA出演的电影的导演是谁?”。因此,用户可以在屏幕上显示的问题句子列表730上列出的问题句子中选择用户所意图的问题句子。
如果通过各种示例实施例选择了一个问题句子,或者如上所述,用户语音是句子语音,则处理器140可以分析转换成文本的选择的问题句子或用户的语音句子(下文中称作问题句子),并且创建问题语言。更详细地,处理器140可以使用基于自然语言处理的算法来确定由用户选择的或说出的问题句子的句子结构。此后,处理器140可以基于提取的对象名称来确定与用户期望的知识之间的关系。
根据示例实施例,处理器140可以通过定型词(LAT)或聚焦方法来确定与用户期望的知识之间的关系。就此而言,LAT方法是通过将问题句子分类成句子问题的形式来执行问题意图分析的方法,聚焦方法是寻找出现在问题句子中的回答的属性的方法。这样的LAT和聚焦方法是公知的,并且因此在本公开中省略其详细描述。
如果通过上述各种方法从由用户选择的或说出的问题句子中提取出与特征向量相对应的关键词,则处理器140可以将从问题句子中提取出的关键词变为能够由回答服务器300识别的SPARQL语言,并且向回答服务器300发送转换成SPARQL语言的问题语言。因此,回答服务器300可以基于从显示装置100接收的问题语言来生成或提取由针对用户问题句子的回答结果,并且向显示装置100发送回答结果。
例如,由用户选择的或说出的问题句子可以是“AAA出演的电影的标题是什么?”,与从问题句子中提取的特征向量相对应的关键词可以是“AAA”、“电影”和“标题”。在这种情况下,如图7所示,回答服务器300可以基于“AAA”、“电影”和“标题”来提取第一对象c“电影_01”和第二对象c“电影_02”。因此,显示单元120可以基于从回答服务器300接收的回答结果,在屏幕上显示针对与问题句子“AAA出演的电影的标题是什么?”有关的第一对象c“电影_01”和第二对象c“电影_02”的回答结果。
下文将详细描述显示装置100基于用户语音提供问题和回答服务的方法。
图8是根据本公开的示例实施例的提供问题和回答服务的显示装置100的方法的流程图。
如图8所示,如果在语音识别模式下输入了用户语音,则显示装置100可以确定输入的语音的文本是否包括一个或多个单词(操作S810和S820)。根据示例实施例,如果用户语音是通过麦克风(未示出)输入的,则显示装置100可以使用语音到文本(STT)算法来将用户语音转换成文本。同时,如果用户语音的语音信号是通过遥控装置(未示出)输入的,则显示装置100可以向语音识别装置200发送用户语音的语音信号。因此,语音识别装置200可以对语音的语音信号执行语音识别,将语音转换成文本,并且向显示装置100发送语音识别结果。
如果通过上述示例实施例针对用户语音创建了文本,则显示装置100可以分析根据用户语音创建的文本,并且确定用户语音是句子语音还是单词语音。根据示例实施例,显示装置100可以通过作为自然语言处理技术的词法分析和语法分析来分析语音的文本的句子结构,并且确定用户语音是句子语音还是单词语音。
如果通过对语音的文本分析,用户语音是包括一个或多个单词的语音,则显示装置100可以显示与该一个或多个单词有关的一个或多个问题句子(操作S830)。
根据示例实施例,显示装置100可以在多个之前存储的句子中将包括与一个或多个单词有关的关键词的一个或多个句子确定为与用户语音有关的问题句子。更详细地,显示装置100可以比较与多个之前存储的句子的特征向量相对应的关键词与所述一个或多个单词之间在发音栏中的相似性。此后,显示装置100可以将包括与一个或多个单词具有高相似性的关键词的句子确定并显示为与语音有关的问题句子。
同时,如果多个句子被确定为问题句子,则显示装置100可以基于多个句子中的每一个的选择历史信息,按照之前被选择为问题句子的高次数的顺序来显示被选择为问题句子的多个句子。
同时,如果被确定为问题句子的多个句子超过了预定数量,则显示装置100可以在被选择为问题句子的多个句子中,将从之前被高次数地选择为问题句子的句子中的与预定数量相对应的句子选择并显示为问题句子。
根据示例实施例,显示装置100可以向回答服务器300发送一个或多个单词,如果从回答服务器300接收到与一个或多个单词有关的关键词,则显示装置100可将接收的关键词组合,并且创建针对用户语音的问题句子。就此而言,回答服务器300是三重结构知识库服务器,并且可以执行使用与由用户说出的单词有关的属性信息来提取与所述单词相关联的关键词,并向显示装置100发送提取的关键词的操作。
根据示例性实施例,当在多个之前存储的句子中不存在包括与一个或多个单词有关的关键词的句子时,显示装置100可以向回答服务器300发送一个或多个单词。因此,回答服务器300可以执行使用从显示装置100接收的一个或多个单词的属性信息来提取与所述一个或多个单词相关联的关键词,并向显示装置100发送关键词的操作。通过上述各种示例实施例,显示装置100可以显示与用户语音有关的一个或多个问题句子。
因此,用户可以从在显示装置100上显示的问题句子中选择用户所意图的问题句子。如上所述,如果用户选择了一个问题句子或者如果在操作S820中确定用户语音是句子语音,则显示装置100可以分析选择的问题句子或者被转换成文本的用户语音句子(下文中被称作问题句子),创建问题语言,并且向服务器300发送该问题语言(操作S840)。因此,回答服务器300可以基于接收的问题语言来获得与用户期望的信息有关的一个或多个回答结果,并且向显示装置100发送该一个或多个回答结果。因此,显示装置100可以显示从回答服务器300接收的一个或多个回答结果(操作S850)。
更详细地,显示装置100可以通过使用基于自然语言处理的算法来确定由用户选择的或说出的问题句子的句子结构,并且提取在问题句子中出现的对象名称。此后,显示装置100可以基于提取的对象名称来确定与用户期望的知识的关系。根据示例实施例,显示装置100可以通过定型词(LAT)或聚焦方法来确定与用户期望的知识之间的关系。
如果通过上述各种方法从用户选择的或说出的问题句子中提取出与特征向量相对应的关键词,则显示装置100可以将从问题句子中提取的关键词转换为回答服务器300能够识别的SPARQL语言,并且可以向回答服务器300发送被转换成SPARQL语言的问题语言。就此而言,基于SPARQL的语言可以是用于询问在W3C(万维网联盟)标准中提供的语义网本体语言(RDF(资源描述框架)、RDFs(资源描述框架概要)或OWL(ONTOLOO Web语言))的文档的语言。
同时,如果接收到转换成SPARQL语言的问题语言,则回答服务器300可以基于接收的问题语言来生成或提取针对用户问题句子的回答结果,并且向显示装置100发送该回答结果。
如上所述,根据本公开的一个或多个示例实施例,虽然输入了非句子语音,显示装置也可以提供适于用户的问题意图的回答结果。
如上所述的提供问题和回答服务的显示装置100的方法可以实现为用于执行上述提供问题和回答服务的方法的至少一个程序。该程序可以存储在非暂时性计算机可读介质中。
非暂时性计算机可读介质是可以半永久地存储数据的介质而不是诸如寄存器、高速缓存和内存之类临时存储数据的介质,并且可以由设备读取。更具体地,上述程序可以存储在诸如紧凑盘(CD)、数字视频盘(DVD)、硬盘、蓝光盘、通用串行总线(USB)、记忆卡以及只读存储器(ROM)之类的非暂时性计算机可记录介质中。
以上的示例实施例和有益效果仅仅是例示,而不应解释为对本公开的限制。本教导也可以容易地应用在其它类型的装置中。此外,示例实施例的描述旨在示意,而不是要限制权利要求的范围,并且多种替代、修改和变化对于本领域技术人员来说将是清楚的。
尽管已经示出和描述了一些实施例,但是本领域技术人员将清楚:在不脱离本公开的原理和精神的前提下,可以在这些实施例中进行改变,其中,本公开的范围在权利要求及其等同物中限定。

Claims (14)

1.一种针对问题和回答的显示装置,包括:
输入单元;
显示单元;
通信单元;以及
处理器,被配置为:
通过所述输入单元接收用户语音输入,
基于包括在所述用户语音输入中的多个单词,将包括与所述多个单词有关的关键词的句子识别为多个问题文本,并控制所述显示单元以显示所述多个问题文本,以及
基于通过所述输入单元接收的、用于从所述多个问题文本中选择问题文本的用户输入,通过所述通信单元从回答服务器接收针对所选问题文本的回答结果,以及控制所述显示单元以显示所接收到的针对所选问题文本的回答结果。
2.根据权利要求1所述的显示装置,其中,所述处理器还被配置为:基于选择历史信息,按照所述多个问题文本中的每一个问题文本之前被选择的次数的顺序,控制所述显示单元以显示所述多个问题文本。
3.根据权利要求1所述的显示装置,其中,所述处理器还被配置为:基于选择历史信息,基于所述多个问题文本中的每一个问题文本之前被选择的次数,从所述多个问题文本中选择和显示预定数量的问题文本。
4.根据权利要求1所述的显示装置,还包括:存储单元,存储多个句子和与所述多个句子中的各个句子的特征向量相对应的关键词,
其中,所述处理器被配置为:比较与所述多个句子中的各个句子的特征向量相对应的存储的关键词与所述用户语音输入之间在发音栏中的相似性,将包括与所述用户语音输入具有最高相似性的关键词在内的句子识别为所述多个问题文本中的一个问题文本。
5.根据权利要求1所述的显示装置,其中,所述回答服务器是三重结构知识库服务器,并且使用与所述多个单词有关的属性信息来提取关键词。
6.根据权利要求4所述的显示装置,其中,所述处理器还被配置为:当在所述多个句子中不存在包括与所述用户语音输入具有预定相似性的文本在内的句子时,从所述回答服务器接收与所述用户语音输入相对应的至少一个问题文本。
7.根据权利要求1所述的显示装置,其中,所述处理器还被配置为:基于所述用户语音输入是句子,使用基于自然语言处理的算法来从所述用户语音输入中提取对象名称,并且基于提取的对象名称来生成问题语言。
8.一种对针对问题和回答的显示装置进行控制的方法,所述方法包括:
通过输入单元接收用户语音输入;
基于包括在所述用户语音输入中的多个单词,将包括与所述多个单词有关的关键词的句子识别为多个问题文本,并显示所述多个问题文本;以及
基于接收的、用于从所述多个问题文本中选择问题文本的用户输入,从回答服务器接收针对所选问题文本的回答结果,以及显示所接收到的针对所选问题文本的回答结果。
9.根据权利要求8所述的方法,其中,显示所述多个问题文本包括:基于选择历史信息,按照所述多个问题文本中的每一个问题文本之前被选择的次数的顺序来显示所述多个问题文本。
10.根据权利要求8所述的方法,其中,显示所述多个问题文本包括:基于选择历史信息,基于所述多个问题文本中的每一个问题文本之前被选择的次数,从所述多个问题文本中显示预定数量的问题文本。
11.根据权利要求8所述的方法,还包括:比较与预先存储的多个句子中的每一个的特征向量相对应的预先存储的关键词与所述用户语音输入之间在发音栏中的相似性,将包括与所述用户语音输入具有最高相似性的关键词在内的句子识别为所述多个问题文本中的一个问题文本。
12.根据权利要求11所述的方法,还包括:
当在预先存储的多个句子中不存在包括与所述用户语音输入具有预定相似性的文本在内的句子时,从所述回答服务器接收与所述用户语音输入相对应的至少一个问题文本。
13.根据权利要求8所述的方法,还包括:
基于所述用户语音输入是句子,使用基于自然语言处理的算法来从所述用户语音输入中提取对象名称,并且基于提取的对象名称来生成问题语言。
14.一种连接到显示装置的非暂时性计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现以下步骤:
通过输入单元接收用户语音输入;
基于包括在所述用户语音输入中的多个单词,将包括与所述多个单词有关的关键词的句子识别为多个问题文本,并显示所述多个问题文本;以及
基于接收的、用于从所述多个问题文本中选择问题文本的用户输入,从回答服务器接收针对所选问题文本的回答结果,以及显示所接收到的针对所选问题文本的回答结果。
CN201510765555.XA 2014-11-12 2015-11-11 针对问题和回答的显示装置和方法 Active CN105592343B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210189266.XA CN114596861A (zh) 2014-11-12 2015-11-11 针对问题和回答的显示装置和方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020140156901A KR20160056548A (ko) 2014-11-12 2014-11-12 질의 응답을 위한 디스플레이 장치 및 방법
KR10-2014-0156901 2014-11-12

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN202210189266.XA Division CN114596861A (zh) 2014-11-12 2015-11-11 针对问题和回答的显示装置和方法

Publications (2)

Publication Number Publication Date
CN105592343A CN105592343A (zh) 2016-05-18
CN105592343B true CN105592343B (zh) 2022-03-18

Family

ID=54478659

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202210189266.XA Pending CN114596861A (zh) 2014-11-12 2015-11-11 针对问题和回答的显示装置和方法
CN201510765555.XA Active CN105592343B (zh) 2014-11-12 2015-11-11 针对问题和回答的显示装置和方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN202210189266.XA Pending CN114596861A (zh) 2014-11-12 2015-11-11 针对问题和回答的显示装置和方法

Country Status (4)

Country Link
US (4) US10339823B2 (zh)
EP (1) EP3021321B1 (zh)
KR (4) KR20160056548A (zh)
CN (2) CN114596861A (zh)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160056548A (ko) * 2014-11-12 2016-05-20 삼성전자주식회사 질의 응답을 위한 디스플레이 장치 및 방법
US9471668B1 (en) * 2016-01-21 2016-10-18 International Business Machines Corporation Question-answering system
CN107871501A (zh) * 2016-09-27 2018-04-03 Fmr有限责任公司 使用智能语音识别的自动化软件执行方法
US10198501B2 (en) * 2016-09-28 2019-02-05 International Business Machines Corporation Optimizing retrieval of data related to temporal based queries
WO2018123139A1 (ja) * 2016-12-27 2018-07-05 シャープ株式会社 応答装置、応答装置の制御方法、および制御プログラム
US11170768B2 (en) * 2017-04-17 2021-11-09 Samsung Electronics Co., Ltd Device for performing task corresponding to user utterance
EP3401797A1 (en) 2017-05-12 2018-11-14 Samsung Electronics Co., Ltd. Speech navigation for multilingual web pages
KR102479026B1 (ko) * 2017-09-27 2022-12-20 한국전자통신연구원 MPEG IoMT 환경에서의 질의응답 시스템 및 방법
CN110019739A (zh) * 2017-11-30 2019-07-16 上海智臻智能网络科技股份有限公司 基于必要条件的问答方法和装置、计算机设备和存储介质
JP7059813B2 (ja) * 2018-05-31 2022-04-26 トヨタ自動車株式会社 音声対話システム、その処理方法及びプログラム
CN109684632B (zh) * 2018-12-12 2023-04-21 达闼机器人股份有限公司 一种自然语义理解的方法、装置、计算设备
KR102221015B1 (ko) * 2018-12-26 2021-02-25 성재호 대리통화 서비스 장치 및 방법
US10949613B2 (en) 2019-01-11 2021-03-16 International Business Machines Corporation Dynamic natural language processing
US10909180B2 (en) 2019-01-11 2021-02-02 International Business Machines Corporation Dynamic query processing and document retrieval
US11132390B2 (en) * 2019-01-15 2021-09-28 International Business Machines Corporation Efficient resolution of type-coercion queries in a question answer system using disjunctive sub-lexical answer types
KR102249109B1 (ko) * 2019-04-09 2021-06-07 주식회사 모키 가변적인 답변이 필요한 질문에 대한 답변 세트의 제공 방법 및 이를 이용하는 장치
CN110706532A (zh) * 2019-09-27 2020-01-17 安阳师范学院 一种在线教育的提问方法
KR102411204B1 (ko) * 2019-11-14 2022-06-21 주식회사 셀바스에이아이 텍스트 임베딩 방법 및 장치
CN111241245B (zh) * 2020-01-14 2021-02-05 百度在线网络技术(北京)有限公司 人机交互处理方法、装置及电子设备
JP7371644B2 (ja) * 2021-02-01 2023-10-31 カシオ計算機株式会社 発音トレーニングプログラム及び端末装置
KR102527302B1 (ko) * 2021-04-17 2023-05-02 유한회사 디스캣 온라인 투표 기능을 이용하여 음성응원을 제공하는 응원 서비스 제공 방법 및 그 시스템
CN113377934B (zh) * 2021-05-21 2022-07-05 海南师范大学 一种实现智能客服的系统及方法
CN115579008B (zh) * 2022-12-05 2023-03-31 广州小鹏汽车科技有限公司 语音交互方法、服务器及计算机可读存储介质

Family Cites Families (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7174299B2 (en) 1995-08-18 2007-02-06 Canon Kabushiki Kaisha Speech recognition system, speech recognition apparatus, and speech recognition method
JPH11202887A (ja) 1998-01-13 1999-07-30 Kobe Steel Ltd 音声認識装置
US6513006B2 (en) * 1999-08-26 2003-01-28 Matsushita Electronic Industrial Co., Ltd. Automatic control of household activity using speech recognition and natural language
US6324512B1 (en) * 1999-08-26 2001-11-27 Matsushita Electric Industrial Co., Ltd. System and method for allowing family members to access TV contents and program media recorder over telephone or internet
US7212968B1 (en) * 1999-10-28 2007-05-01 Canon Kabushiki Kaisha Pattern matching method and apparatus
US7392185B2 (en) 1999-11-12 2008-06-24 Phoenix Solutions, Inc. Speech based learning/training system using semantic decoding
AU2001259446A1 (en) * 2000-05-02 2001-11-12 Dragon Systems, Inc. Error correction in speech recognition
US6856956B2 (en) * 2000-07-20 2005-02-15 Microsoft Corporation Method and apparatus for generating and displaying N-best alternatives in a speech recognition system
US8200485B1 (en) 2000-08-29 2012-06-12 A9.Com, Inc. Voice interface and methods for improving recognition accuracy of voice search queries
US7216077B1 (en) * 2000-09-26 2007-05-08 International Business Machines Corporation Lattice-based unsupervised maximum likelihood linear regression for speaker adaptation
US6721706B1 (en) 2000-10-30 2004-04-13 Koninklijke Philips Electronics N.V. Environment-responsive user interface/entertainment device that simulates personal interaction
DE60113787T2 (de) * 2000-11-22 2006-08-10 Matsushita Electric Industrial Co., Ltd., Kadoma Verfahren und Vorrichtung zur Texteingabe durch Spracherkennung
KR100441743B1 (ko) * 2001-10-23 2004-07-27 한국전자통신연구원 원격 가전 제어 시스템 및 그 방법
US7149550B2 (en) * 2001-11-27 2006-12-12 Nokia Corporation Communication terminal having a text editor application with a word completion feature
EP1494129A4 (en) 2002-04-11 2006-03-29 P To Pa Inc SYSTEM AND METHOD FOR CONVERSATION CONTROL
US20060041926A1 (en) * 2004-04-30 2006-02-23 Vulcan Inc. Voice control of multimedia content
US7461059B2 (en) 2005-02-23 2008-12-02 Microsoft Corporation Dynamically updated search results based upon continuously-evolving search query that is based at least in part upon phrase suggestion, search engine uses previous result sets performing additional search tasks
JP4645242B2 (ja) * 2005-03-14 2011-03-09 富士ゼロックス株式会社 質問応答システム、およびデータ検索方法、並びにコンピュータ・プログラム
US20060293890A1 (en) * 2005-06-28 2006-12-28 Avaya Technology Corp. Speech recognition assisted autocompletion of composite characters
US8473295B2 (en) * 2005-08-05 2013-06-25 Microsoft Corporation Redictation of misrecognized words using a list of alternatives
US7941316B2 (en) * 2005-10-28 2011-05-10 Microsoft Corporation Combined speech and alternate input modality to a mobile device
US8261300B2 (en) * 2006-06-23 2012-09-04 Tivo Inc. Method and apparatus for advertisement placement in a user dialog on a set-top box
US9318108B2 (en) * 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8155959B2 (en) * 2007-11-07 2012-04-10 Robert Bosch Gmbh Dialog system for human agent to correct abnormal output
US20090326938A1 (en) * 2008-05-28 2009-12-31 Nokia Corporation Multiword text correction
KR101462932B1 (ko) * 2008-05-28 2014-12-04 엘지전자 주식회사 이동 단말기 및 그의 텍스트 수정방법
JP5149737B2 (ja) 2008-08-20 2013-02-20 株式会社ユニバーサルエンターテインメント 自動会話システム、並びに会話シナリオ編集装置
US8676904B2 (en) * 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US8484014B2 (en) 2008-11-03 2013-07-09 Microsoft Corporation Retrieval using a generalized sentence collocation
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US20110184740A1 (en) 2010-01-26 2011-07-28 Google Inc. Integration of Embedded and Network Speech Recognizers
EP2453368B1 (en) 2010-11-12 2017-05-31 Accenture Global Services Limited Custom web services data link layer
KR101897492B1 (ko) 2011-06-07 2018-09-13 삼성전자주식회사 디스플레이 장치 및 이의 하이퍼링크 실행 방법 및 음성 인식 방법
WO2012169679A1 (ko) 2011-06-10 2012-12-13 엘지전자 주식회사 디스플레이 장치, 디스플레이 장치의 제어 방법 및 디스플레이 장치의 음성인식 시스템
KR101683083B1 (ko) * 2011-09-30 2016-12-07 애플 인크. 가상 비서에서 커맨드 처리를 용이하게 하기 위한 컨텍스트 정보의 이용
KR102022318B1 (ko) 2012-01-11 2019-09-18 삼성전자 주식회사 음성 인식을 사용하여 사용자 기능을 수행하는 방법 및 장치
KR20130086971A (ko) 2012-01-26 2013-08-05 진삼순 음성인식 질의응답 시스템 및 그것의 운용방법
KR101951417B1 (ko) 2012-03-09 2019-02-22 엘지전자 주식회사 휴대 전자기기 및 이의 제어 방법
KR20130125067A (ko) 2012-05-08 2013-11-18 삼성전자주식회사 전자 장치 및 그의 제어 방법
KR101359718B1 (ko) 2012-05-17 2014-02-13 포항공과대학교 산학협력단 대화 관리 시스템 및 방법
KR101309794B1 (ko) 2012-06-27 2013-09-23 삼성전자주식회사 디스플레이 장치, 디스플레이 장치의 제어 방법 및 대화형 시스템
KR101961139B1 (ko) 2012-06-28 2019-03-25 엘지전자 주식회사 이동 단말기 및 그것의 음성 인식 방법
KR101330671B1 (ko) 2012-09-28 2013-11-15 삼성전자주식회사 전자장치, 서버 및 그 제어방법
US9704486B2 (en) * 2012-12-11 2017-07-11 Amazon Technologies, Inc. Speech recognition power management
CN103916299B (zh) * 2013-01-02 2018-04-13 Lg电子株式会社 家用电器及其操作方法
KR20140089862A (ko) 2013-01-07 2014-07-16 삼성전자주식회사 디스플레이 장치 및 그의 제어 방법
KR102084739B1 (ko) 2013-03-11 2020-04-14 삼성전자주식회사 대화형 서버, 디스플레이 장치 및 제어 방법
KR102246893B1 (ko) 2013-12-11 2021-04-30 삼성전자주식회사 대화형 시스템, 이의 제어 방법, 대화형 서버 및 이의 제어 방법
KR20160056548A (ko) * 2014-11-12 2016-05-20 삼성전자주식회사 질의 응답을 위한 디스플레이 장치 및 방법

Also Published As

Publication number Publication date
EP3021321A1 (en) 2016-05-18
US20190279523A1 (en) 2019-09-12
KR102445927B1 (ko) 2022-09-22
KR20220130655A (ko) 2022-09-27
US20240038088A1 (en) 2024-02-01
US11817013B2 (en) 2023-11-14
KR20240040689A (ko) 2024-03-28
KR102649208B1 (ko) 2024-03-20
US20160133146A1 (en) 2016-05-12
KR20160056548A (ko) 2016-05-20
CN105592343A (zh) 2016-05-18
US10922990B2 (en) 2021-02-16
US20210065572A1 (en) 2021-03-04
KR20210075040A (ko) 2021-06-22
CN114596861A (zh) 2022-06-07
US10339823B2 (en) 2019-07-02
EP3021321B1 (en) 2018-07-25

Similar Documents

Publication Publication Date Title
CN105592343B (zh) 针对问题和回答的显示装置和方法
US11495224B2 (en) Contact resolution for communications systems
US10089981B1 (en) Messaging account disambiguation
US11514909B2 (en) Third party account linking for voice user interface
EP3039531B1 (en) Display apparatus and controlling method thereof
US10332513B1 (en) Voice enablement and disablement of speech processing functionality
US9754592B2 (en) Methods and systems for speech-enabling a human-to-machine interface
US20140350933A1 (en) Voice recognition apparatus and control method thereof
US9953645B2 (en) Voice recognition device and method of controlling same
RU2589873C2 (ru) Способ и устройство обработки ввода
JP6618223B2 (ja) 音声処理方法及び装置
US10783885B2 (en) Image display device, method for driving the same, and computer readable recording medium
JP2017058673A (ja) 対話処理装置及び方法と知能型対話処理システム
CN105590627B (zh) 图像显示装置、用于驱动图像显示装置的方法和计算机可读记录介质
KR20150077580A (ko) 음성 인식 기반 서비스 제공 방법 및 그 장치
US20220375473A1 (en) Electronic device and control method therefor
JP2015102805A (ja) 音声認識システム、電子装置、サーバー、音声認識方法および音声認識プログラム
KR20140138011A (ko) 음성 인식 장치 및 그 제어 방법
WO2016136208A1 (ja) 音声対話装置、音声対話システム、および、音声対話装置の制御方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant