CN105592343A - 针对问题和回答的显示装置和方法 - Google Patents

针对问题和回答的显示装置和方法 Download PDF

Info

Publication number
CN105592343A
CN105592343A CN201510765555.XA CN201510765555A CN105592343A CN 105592343 A CN105592343 A CN 105592343A CN 201510765555 A CN201510765555 A CN 201510765555A CN 105592343 A CN105592343 A CN 105592343A
Authority
CN
China
Prior art keywords
sentence
display unit
voice
keyword
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510765555.XA
Other languages
English (en)
Other versions
CN105592343B (zh
Inventor
朴殷相
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Priority to CN202210189266.XA priority Critical patent/CN114596861A/zh
Publication of CN105592343A publication Critical patent/CN105592343A/zh
Application granted granted Critical
Publication of CN105592343B publication Critical patent/CN105592343B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/475End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
    • H04N21/4758End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data for providing answers, e.g. voting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/34Browsing; Visualisation therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/242Query formulation
    • G06F16/243Natural language query formulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/31Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3322Query formulation using system suggestions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3325Reformulation based on results of preceding query
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/3332Query translation
    • G06F16/3334Selection or weighting of terms from queries, including natural language queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3347Query execution using vector based model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/338Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/432Query formulation
    • G06F16/433Query formulation using audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Evolutionary Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Exchange Systems With Centralized Control (AREA)
  • Electrotherapy Devices (AREA)
  • Machine Translation (AREA)

Abstract

一种用于问题和回答的显示装置和方法包括:显示单元,包括被配置为接收用户的语音的输入单元;通信单元,被配置为与回答服务器执行数据通信;以及处理器,被配置为:响应于语音是单词语音来使用所述语音创建并显示一个或多个问题句子,创建与从显示的一个或多个问题句子中选择的问题句子相对应的问题语言,通过通信单元向回答服务器发送创建的问题语言,以及,响应于从回答服务器接收到与所述问题语言有关的一个或多个回答结果,显示接收到的一个或多个回答结果。因此,尽管输入非句子语音,显示装置也可以提供适于用户问题意图的回答结果。

Description

针对问题和回答的显示装置和方法
相关申请的交叉引用
本申请要求于2014年11月12日在韩国知识产权局提出的韩国专利申请No.10-2014-0156901的优先权,并在此引入其全部公开的内容。
技术领域
以下描述涉及针对问题和回答的显示装置和方法,并且更具体地,涉及提供与非句子语音有关的问题和回答服务的显示装置和方法。
背景技术
因为显示装置已经能够识别用户的语音,因此显示装置已经能够识别用户的语音以提供用户所意图的语音识别结果或执行控制命令。
具体地,提供用户所意图的语音识别结果的与语音会话服务有关的最通用的方法是通过搜索引擎在用户与显示装置之间执行会话的关键词识别方法。这样的关键词识别方法是指基于与核心关键词有关的语音来执行与核心关键词有关的搜索并提供搜索结果的显示装置。然而,这样的方法提供与核心关键词的语音有关的很多搜索结果,并且由于用户不得不从很多搜索结果中搜索期望的信息,因此用户会感到不便。
另一个方法是句子识别方法,其中显示装置分析与用户的问题句子有关的语音以确定用户的语音意图,基于确定的语音意图执行搜索,并且根据搜索提供回答结果。
这样的句子识别方法相比于上述的关键词识别方法更加先进,因为句子识别方法提供了更接近于用户语音意图的回答结果。然而,当没有输入适于预设模式的句子语音,或者由于外部环境而使在句子语音中出现噪声时,这样的句子识别方法不能对用户的句子语音执行正确的语音识别。
发明内容
本公开的示例实施例克服上述缺点或上文未描述的其它缺点。另外,不要求本公开克服上述缺点,并且本公开的示例实施例可以不克服上述任何缺点。
本公开提供了根据用户的非句子语音来清楚地确定用户的问题意图并根据该确定提供回答结果的显示装置。
根据本公开的方案,一种显示装置包括:显示单元,包括被配置为接收用户的语音的输入单元;通信单元,被配置为与回答服务器执行数据通信;以及处理器,被配置为:如果语音是单词语音,则使用语音创建并显示一个或多个问题句子,创建与从显示的所述一个或多个问题句子中选择的问题句子相对应的问题语言,通过通信单元向回答服务器发送创建的问题语言,以及,如果从回答服务器接收到与问题语言有关的一个或多个回答结果,则显示接收的一个或多个回答结果。
显示装置还可以包括:存储单元,被配置为存储多个句子和与所述多个句子中的各个句子的特征向量相对应的关键词,其中,处理器比较与之前存储在存储单元中的所述多个句子中的各个句子的特征向量相对应的关键词与说出的单词之间在发音上的相似性,将包括与说出的单词具有高相似性的关键词的句子确定为与语音有关的问题句子,并且显示确定的句子。
如果多个句子被确定为问题句子,则处理器可以基于所述多个句子中的每一个的选择历史信息,按照之前被选择为问题句子的高次数的顺序来显示被选择为问题句子的多个句子。
如果多个句子被确定为问题句子,则处理器可以基于所述多个句子中的每一个的选择历史信息,在被选择为问题句子的多个句子中,选择并显示与从之前被最高次数地选择为问题句子的句子开始的预设数量相对应的句子。
如果从回答服务器接收到与说出的单词(或所说的单词)有关的关键词,则处理器可以组合接收到的关键词,创建有针对语音的问题句子,并且显示该问题句子。
回答服务器可以是三重结构知识库服务器,并且使用与说出的单词有关的属性信息来提取与说出的单词相关联的关键词。
当不存在包括与说出的单词具有高相似性的关键词的句子时,处理器可以从回答服务器接收说出的单词和关键词,组合接收倒的关键词,并且创建与所述语音有关的问题句子。
如果用户的语音是句子语音,则处理器可以使用基于自然语言处理的算法来从用户的语音中提取对象名称,并且基于提取的对象名称来创建问题语言。
根据本公开的方案,由显示装置执行的、提供问题和回答的方法包括:接收用户的语音;如果用户的语音是单词语音,则使用用户的语音创建并显示一个或多个问题句子;创建与从显示的一个或多个问题句子中选择的问题句子相对应的问题语言,并且向回答服务器发送该问题语言;以及,从回答服务器接收并显示与该问题语言有关的一个或多个回答结果。
创建并显示一个或多个问题句子可以包括:比较与之前存储的多个句子中的每一个的特征向量相对应的关键词与说出的单词之间在发音栏中的相似性,将包括与说出的单词具有高相似性的关键词的句子确定为所述问题句子,并且显示确定的句子。
创建并显示一个或多个问题句子可以包括:如果多个句子被确定为问题句子,则基于所述多个句子中的每一个的选择历史信息,按照之前被选择为问题句子的高次数的顺序来显示被选择为问题句子的多个句子。
创建并显示一个或多个问题句子可以包括:如果多个句子被确定为问题句子,则基于所述多个句子中的每一个的选择历史信息,在被选择为问题句子的多个句子中,选择并显示与从之前被最高次数地选择为问题句子的句子开始的预设数量相对应的句子。
创建并显示一个或多个问题句子可以包括:如果从回答服务器接收到与说出的单词有关的关键词,则组合接收到的关键词,创建针对语音的问题句子,并且显示创建的问题句子。
回答服务器可以是三重结构知识库服务器,并且使用与核心词汇有关的属性信息来提取与核心词汇(或核心单词)相关联的关键词。
创建并显示一个或多个问题句子可以包括:当不存在包括与说出的单词具有高相似性的关键词的句子时,从回答服务器接收与所述说出的单词相关联的关键词,组合接收到的关键词,并且创建并显示与语音有关的问题句子。
该方法还可以包括:确定用户的语音是单词语音还是句子语音,其中,发送包括:如果用户的语音是句子语音,则使用基于自然语言处理的算法来从用户的语音中提取对象名称,基于提取的对象名称来创建问题语言,并且向回答服务器发送创建的问题语言。
根据本公开的方案,一种连接到提供问题和回答的显示装置的非暂时性机器可读存储介质,该介质存储用于执行以下操作的计算机程序:接收用户的语音;如果用户的语音是单词语音,则使用用户的语音创建并显示一个或多个问题句子;创建与从显示的一个或多个问题句子中选择的问题句子相对应的问题语言,并且向回答服务器发送该问题语言;以及,从回答服务器接收并显示与该问题语言有关的一个或多个回答结果。
在下文的描述中将部分阐述本公开的附加和/或其它方案和优点,并且根据该描述,这部分将变得明显,或者,可以通过本公开的实践被学习。
附图说明
通过参照附图描述本公开的特定示例实施例,本公开的上述和/或其它方案将会更加清楚,在附图中:
图1是根据本公开的示例实施例的会话类型系统的框图;
图2是根据本公开的示例实施例的显示装置的示意框图;
图3是根据本公开的示例实施例的显示装置的详细框图;
图4是描述了根据本公开的示例实施例的创建问题句子的显示装置的示例示意图;
图5是描述了根据本公开的示例实施例的显示问题句子的显示装置的示例示图;
图6是描述了根据本公开的示例实施例的通过回答服务器接收与问题句子有关的关键词的显示装置的示例示图;
图7是描述了根据本公开的示例实施例的基于由回答服务器提供的关键词来显示问题句子的显示装置的示例示图;以及
图8是根据本公开的示例实施例的提供问题和回答服务的显示装置的方法的流程图。
具体实施方式
下面将详细参考示例实施例,示例实施例的示例在附图中示出,其中全文中相同的附图标记指代相同的元件。下文通过参照附图描述实施例以解释本公开。
本公开的示例实施例可以被不同地修改。因此,具体示例实施例在附图中被示出并在具体实施方式中被详细描述。然而,应当理解的是,本公开并不限于具体示例实施例,而是在不脱离本公开的范围和精神的前提下包括所有修改、等同物和替代。另外,不对公知功能或构造进行详细描述,因为它们将以不必要的细节而使得本发明不够突出。
可以使用术语“第一”、“第二”…来描述各种组件,但是组件并不受到该术语的限制。该术语仅用于将一个组件与其它组件相区分。
本公开中使用的术语仅用于描述示例实施例,但并不旨在限制本公开的范围。只要在上下文中没有另外定义,那么单数表达还包括复数意义。在本申请中,术语“包括”和“由…组成”指明写在说明书中的特征、数量、步骤、操作、组件、元件或其组合的存在,但并不排除一个或多个其它特征、数量、步骤、操作、组件、元件或其组合的存在或者添加它们的可能性。
在示例实施例中,“模块”或“单元”执行至少一个功能或操作,并且可以使用硬件、软件或者硬件与软件的组合来实现。此外,除了必须使用特定硬件来实现的“模块”或“单元”以外,多个“模块”或多个“单元”可以集成到至少一个模块中,并且可以使用至少一个处理器(未示出)来实现。
下文中,将参照附图来详细描述各种示例实施例。
在以下描述中,即使在不同的附图中,相同的附图标记也用于相同的元件。提供描述中限定的内容,例如具体结构和部件,用来帮助对示例实施例的全面理解。因此应清楚,即便缺少这些具体限定的内容,本公开的示例实施例也能够实施。此外,由于不必要的细节会导致示例实施例不清楚,因此不对公知的功能或结构进行详细描述。
图1是根据本公开的示例实施例的会话类型系统的框图。
如图1所示,会话类型系统包括显示装置100、语音识别装置200、以及回答服务器300。
显示装置100是识别用户的语音以执行用户所意图的操作的装置,并且可以实现为各种电子装置,例如智能TV、智能电话、平板PC等等。
语音识别装置200将从显示装置100接收的用户语音的语音信号转换成文本,并且向显示装置100发送转换成文本的语音识别结果。然而,本公开并不限于此。当不执行显示装置100与语音识别装置200之间的数据通信或者通过麦克风(未示出)输入语音时,显示装置100可以将输入的用户语音的语音信号转换成文本。
回答服务器300是三重结构知识库服务器,并且当从用户语音转换的文本包括单词时,提供与用户说出的单词相关联的关键词。回答服务器300提供与从显示装置100接收的问题语言有关的回答信息。
更详细地,在显示装置100以语音识别模式操作期间,用户可以执行与关于期望信息的语音有关的问题,以便通过显示装置100接收期望的信息。根据示例实施例,如果通过麦克风(未示出)输入用户语音,则显示装置100可以在内部对用户语音执行语音识别,并且将输入的用户语音转换成文本。如果通过诸如遥控器的遥控装置(未示出)输入用户语音,则显示装置100向语音识别装置200发送用户语音的语音信号。因此,语音识别装置200将从显示装置100接收的语音的语音信号转换成文本,并且根据转换的文本来发送语音识别结果。
如果通过该处理将用户语音转换成文本,则显示装置100分析从用户语音转换成的文本,并且确定语音是句子语音还是包括一个或多个单词的语音。
作为该确定的结果,如果用户语音是包括一个或多个单词的语音,则显示装置100显示与该一个或多个单词有关的一个或多个问题句子。就此而言,该一个或多个问题句子是被预测为用户的问题意图的句子,并且可以通过以下示例实施例来获得或创建。
根据示例实施例,显示装置100可以从多个之前存储的句子中将包括与用户说出的一个或多个单词有关的关键词的句子确定为问题句子。根据示例实施例,显示装置100可以从回答服务器300接收与用户说出的单词相关联的关键词,组合接收的关键词,并且创建与语音有关的问题句子。下文将详细描述通过示例实施例的确定和创建问题句子的操作。
此后,显示装置100可以显示根据用户语音被预测为用户的问题意图的一个或多个问题句子。因此,用户可以从在显示装置100上显示的一个或多个问题句子中选择与用户的问题意图相匹配的问题句子。
同时,如果用户选择问题句子或者用户的语音是句子语音,则显示装置100可以使用基于自然语言处理的算法来确定句子结构,并且提取句子中出现的对象名称。此后,显示装置100可以基于提取的对象名称来创建问题语言。就此而言,问题语言是回答服务器300可识别的语言。根据示例实施例,问题语言可以是基于SPARQL协议和RDF查询语言(SPARQL)的语言。基于SPARQL的语言可以是用于询问在W3C(万维网联盟)标准中提供的语义网本体语言(RDF(资源描述框架)、RDFs(资源描述框架概要)、OWL(ONTOLOOWeb语言))的文档的语言。
如果创建了这样的基于SPARQL的问题语言,则显示装置100向回答服务器300发送创建的问题语言。已经从显示装置100接收到问题语言的回答服务器300可以基于接收的问题语言来获得一个或多个回答结果,并且向显示装置100发送该回答结果。因此,显示装置100可以接收从回答服务器300发送的一个或多个回答结果,并且在屏幕上显示该一个或多个回答结果,从而可以通过在显示装置100的屏幕上显示的一个或多个回答结果来向用户提供最适于用户的问题意图的回答结果。
上文已经详细描述了根据示例实施例的转换类型系统提供适于用户的问题意图的问题和回答服务的操作。下文将详细描述根据示例实施例的显示装置100提供适于用户的问题意图的问题和回答服务的操作。
图2是根据本公开的示例实施例的显示装置100的示意框图。图3是根据本公开的示例实施例的显示装置100的详细框图。
如图2所示,显示装置100可以包括输入单元110、显示单元120、通信单元130和处理器140。此外,如图3所示,显示装置100还可以包括语音处理单元150和存储单元160。
输入单元110用于接收并传送针对处理器140的各种用户操纵,并且可以实现为输入面板。就此而言,输入面板可以包括触摸板、包括各种功能键、数字键、特殊键、字母键等等的键盘、或触摸屏。具体地,输入单元110可以通过麦克风(未示出)接收用户的语音。
显示单元120可以显示与用户语音有关的问题句子和用户语音的回答结果。显示单元120可以实现为液晶显示器(LCD)、有机发光显示器(OLED)、或等离子显示面板(PDP)等等。此外,显示单元120可以实现为触摸面板并且接收用户触摸指令。
通信单元130可以与回答服务器300执行数据通信,并且接收与用户语音有关的回答结果。通信单元130可以与诸如遥控器的遥控装置(未示出)执行数据通信,并且接收用户语音的语音信号。通信单元130可以包括各种通信模块,例如近距离无线通信模块(未示出)、无线通信模块(未示出)等等。
就此而言,近距离无线通信模块(未示出)是与位于近距离的会话类型服务器200和提供内容的外部服务器(未示出)执行无线通信的通信模块,并且该近距离无线通信模块可以是例如蓝牙、ZigBee等等。无线通信模块(未示出)是根据无线通信协议(例如WiFi、IEEE等等)连接到外部网络并执行通信的模块。此外,无线通信模块还可以包括根据各种移动通信标准(例如第三代(3G)、第三代合作伙伴计划(3GPP)、长期演进(LTE)等等)来接入移动通信网络并执行通信的移动通信模块。
处理器140用于控制装置,可以与中央处理单元、微处理器、控制器等等一起使用,并且用于控制装置的总体操作。处理器140可以连接到不同的功能部分,例如语音处理单元150、通信单元130等等,并且可以实现为单片系统(SOC)或片上系统(SoC)。
如果语音是单词文本,则处理器140可以控制显示单元120显示与一个或多个单词有关的一个或多个问题句子。此后,处理器140可以控制通信单元130分析由用户从显示的一个或多个问题句子中选择的问题句子,创建与该问题句子相对应的问题语言,并且向回答服务器300发送生成的问题语言。此后,如果从回答服务器300接收到与问题语言有关的一个或多个回答结果,则显示单元120可以根据处理器140的控制指令来显示从回答服务器300接收的一个或多个回答结果。
更详细地,处理器140可以基于以下示例实施例来获得用户语音的文本。
根据示例实施例,处理器140可以根据与用户语音有关的语音是否通过麦克风(未示出)或遥控装置(未示出)输入输入单元110来确定对用户语音执行语音识别的主体。
如果在输入单元110中输入了用户语音,则处理器140可以控制语音处理单元150执行对用户语音的语音识别。根据这样的控制指令,语音处理单元150可以使用语音到文本(STT)算法将用户语音转换成文本。
同时,如果通过通信单元130接收到用户语音的语音信号,则处理器140可以向语音识别装置200发送用户语音的语音信号。因此,语音识别装置200可以对接收的用户语音的语音信号执行语音识别,将用户语音的语音信号转换成文本,并且向显示装置100发送语音识别结果。
根据示例实施例,处理器140可以根据是否能够通过通信单元130与语音识别装置200执行数据通信来确定对用户语音执行语音识别的主体。如果处理器140能够与语音识别装置200执行数据通信,则处理器140可以从语音识别装置200接收关于用户语音的语音识别结果。如果处理器140不能够与语音识别装置200执行数据通信,则处理器140可以通过语音处理单元150对用户语音执行语音识别。
如果通过上述示例实施例创建了用户语音的文本,则处理器140可以分析根据用户语音创建的文本,并且确定用户语音是句子语音还是单词语音。根据示例实施例,处理器140可以通过作为自然语言处理技术的词法分析和语法分析来分析语音的文本的句子结构,并确定用户语音是句子语音还是单词语音。这样的自然语言处理技术是公知的,并且因此在本公开中省略其详细描述。
如果通过语音的文本分析,用户语音是包括一个或多个单词的语音,则处理器140可以根据以下示例实施例来确定被预测为用户意图的问题句子,并且在显示单元120上显示确定的问题句子。
根据示例实施例,处理器140可以从多个之前存储的句子中将包括与由用户说出的一个或多个单词有关的关键词的一个或多个句子确定为与用户语音有关的问题句子。更详细地,存储单元160可以存储多个句子以及与多个各个句子的特征向量相对应的关键词。因此,处理器140可以比较与之前存储在存储单元160中的多个句子的特征向量相对应的关键词与一个或多个单词之间在发音栏中的相似性。此后,处理器140可以将包括与用户说出的一个或多个单词具有高相似性的关键词的句子确定为与该语音有关的问题句子。
根据示例性实施例,处理器140可以向回答服务器300发送由用户说出的一个或多个单词,如果从回答服务器300接收到与一个或多个单词相关联的关键词,则处理器140可以组合接收的单词,并且创建针对用户语音的问题句子。就此而言,回答服务器是三重结构知识库服务器,并且可以执行使用与由用户说出的单词有关的属性信息来提取与所述单词相关联的关键词,并向显示装置100发送提取的关键词的操作。
根据示例实施例,当在多个之前存储的句子中不存在包括与由用户说出的一个或多个单词有关的关键词的句子时,处理器140可以向回答服务器300发送所述一个或多个单词。因此,回答服务器可以执行使用与从显示装置100接收的一个或多个单词有关的属性信息来提取与所述一个或多个单词相关联的关键词,并向显示装置100发送关键词的操作。
如上所述,如果接收到与问题句子有关的问题语言,则提供与从显示装置100接收的一个或多个单词有关的关键词的回答服务器300可以执行基于接收的问题语言向显示装置100发送问题句子的回答结果的操作。就此而言,问题语言可以是能够被回答服务器300识别的基于SPARQL协议和RDF查询语言(SPARQL)的语言。如上所述,下文将详细描述基于在基于SPARQL语言中的问题语言来提供用于创建问题句子的关键词并且提供针对问题句子的回答结果的回答服务器300。
图4是描述了根据本公开的示例实施例的创建问题句子的显示装置的示例示图。
如图4所示,存储单元160可以匹配并存储多个句子和与多个各个句子的特征向量相对应的关键词。同时,从用户语音中提取的单词可以包括“AAA”、“电影”、和“演员”。如果提取了这样的单词,则处理器140可以测量与之前存储在存储单元160中的多个句子的特征向量相对应的关键词与从用户语音中提取出的单词之间的相似性。
更详细地,处理器140可以生成作为从用户语音中提取出的单词的“AAA”、“电影”、和“演员”中的每一个的音标。此后,处理器140可以使用相似性算法(例如含混矩阵)来测量与之前存储在存储单元160中的多个各个句子的特征向量相对应的关键词的音标与各个“AAA”、“电影”、和“演员”的音标之间的相似性。此后,处理器140可以基于相似性测量结果来从多个之前存储的句子中提取包括被测量为具有等于或大于与“AAA”、“电影”、和“演员”有关的预定阈值的关键词的句子。
如图4所示,存储单元160可以存储具有与“AAA”、“电影”、和“演员”中的至少一个有关的高相似性的第一到第六句子410、420、430、440、450和460。如上所述,如果存储了与“AAA”、“电影”、和“演员”中的至少一个有关的第一句子410到第六句子460,则处理器140可以从第一句子410到第六句子460中提取与“AAA”、“电影”、和“演员”中的每一个具有高相似性的句子。如图4所示,在与第六句子460匹配的关键词中的针对“AAB”的第一关键词可以与“AAA”具有较低相似性。在这种情况下,处理器140可以将除了第六句子460以外的第一句子410到第五句子450确定为与“AAA”、“电影”、和“演员”具有高相似性的句子,并且将第一句子410到第五句子450确定为可被预测为用户语音意图的问题句子。
图5是描述了根据本公开的示例实施例的显示问题句子的显示装置的示例示图。
如上文参照图4所示,第一句子410到第五句子450可以被确定为可被预测为与“AAA”、“电影”、和“演员”中的每个的单词510有关的用户语音意图的问题句子。如上所述,如果根据与“AAA”、“电影”、和“演员”中的每个的单词510确定了多个问题句子,则处理器140可以基于对第一句子410到第五句子450中的每一个的选择历史信息,来控制显示单元120以被选择为问题句子的最高次数的顺序显示被选择为问题句子的第一句子410到第五句子450。例如,就被选择为问题句子的第一句子410到第五句子450而言,第一句子410到第五句子450被用户最多地选择为问题句子的顺序可以是:第四句子440、第一句子410、第三句子430、第二句子420和第五句子450。
在这种情况下,显示单元120可以显示问题句子列表520,其中第四句子440、第一句子410、第三句子430、第二句子420和第五句子450依次列在屏幕上。
同时,处理器140可以控制显示单元120只显示被选择为问题句子的第一句子410到第五句子450中的预定的数量。例如,如果3被设置为包括在问题句子列表520中的问题句子的数量,则处理器140可以按照之前被选择为问题句子的最高次数的顺序来将第一句子410到第五句子450中的前三个句子确定为问题句子。因此,显示单元120可以在屏幕上显示问题句子列表520,该问题句子列表520包括第一句子410到第五句子450中的具有之前被选择为问题句子的最高次数的第四句子440、第一句子410和第三句子430。
因此,用户可以从在屏幕上显示的问题句子列表520上列出的问题句子中选择用户所意图的问题句子。
图6是描述了根据本公开的示例实施例的通过回答服务器300接收与问题句子有关的关键词的显示装置100的示例示图。图7是描述了根据本公开的示例实施例的基于由回答服务器300提供的关键词来显示问题句子的显示装置100的示例示图。
如图6所示,用户语音可以包括词汇栏,该词汇栏包括第一单词610“AAA”和第二单词620“电影”。在这种情况下,处理器140可以通过通信单元130向作为三重结构知识库服务器的回答服务器300发送第一单词610和第二单词620的文本。如果接收到第一单词610和第二单词620的文本,则回答服务器300可以使用第一单词610和第二单词620的属性信息来提取与第一单词610和第二单词620相关联的关键词。
就此而言,回答服务器300是三重结构知识库服务器,并且可以使用与每个单词有关的属性信息来提取与每个单词相关联的关键词。更详细地,回答服务器300可以从第一单词610和第二单词620中获得针对“电影”的更高的属性信息。如果从第一单词610和第二单词620获得了针对“电影”的更高的属性信息,则回答服务器300可以获得与更高的属性信息a相关联的“演员”、“导演”和“OST”中的每一个的更低的属性信息b。因此,回答服务器300可以将针对与第一单词610和第二单词620相关联的“电影”的更高属性信息以及“演员”、“导演”和“OST”中的每一个的更低的属性信息b确定为与第一单词610和第二单词620相关联的关键词,并且向显示装置100发送关键词搜索结果。
如果接收到这样的关键词搜索结果,则处理器140可以基于预定义的标准句子表,通过将词汇栏710与关键词720相组合来创建问题句子,其中词汇栏710包括第一单词610和第二单词620,关键词720(演员、标题、导演和OST)包括在从回答服务器300接收的关键词搜索结果中。
如图7所示,显示单元120可以在屏幕上显示包括多个问题句子的问题句子列表730,该多个问题句子基于词汇栏710和关键词720来创建,其中词汇栏710包括第一单词610和第二单词620,关键词720(演员、标题、导演和OST)包括在从回答服务器300接收的关键词搜索结果中。也就是说,显示单元120可以在屏幕上显示问题句子列表730,问题句子列表730包括第一问题句子“AAA出演的电影的标题是什么?”,第二问题句子“哪位女演员与AAA一起出演在电影中?”,第三问题句子“AAA出演的电影的OST是什么?”,以及第四问题句子“AAA出演的电影的导演是谁?”。因此,用户可以在屏幕上显示的问题句子列表730上列出的问题句子中选择用户所意图的问题句子。
如果通过各种示例实施例选择了一个问题句子,或者如上所述,用户语音是句子语音,则处理器140可以分析转换成文本的选择的问题句子或用户的语音句子(下文中称作问题句子),并且创建问题语言。更详细地,处理器140可以使用基于自然语言处理的算法来确定由用户选择的或说出的问题句子的句子结构。此后,处理器140可以基于提取的对象名称来确定与用户期望的知识之间的关系。
根据示例实施例,处理器140可以通过定型词(LAT)或聚焦方法来确定与用户期望的知识之间的关系。就此而言,LAT方法是通过将问题句子分类成句子问题的形式来执行问题意图分析的方法,聚焦方法是寻找出现在问题句子中的回答的属性的方法。这样的LAT和聚焦方法是公知的,并且因此在本公开中省略其详细描述。
如果通过上述各种方法从由用户选择的或说出的问题句子中提取出与特征向量相对应的关键词,则处理器140可以将从问题句子中提取出的关键词变为能够由回答服务器300识别的SPARQL语言,并且向回答服务器300发送转换成SPARQL语言的问题语言。因此,回答服务器300可以基于从显示装置100接收的问题语言来生成或提取由针对用户问题句子的回答结果,并且向显示装置100发送回答结果。
例如,由用户选择的或说出的问题句子可以是“AAA出演的电影的标题是什么?”,与从问题句子中提取的特征向量相对应的关键词可以是“AAA”、“电影”和“标题”。在这种情况下,如图7所示,回答服务器300可以基于“AAA”、“电影”和“标题”来提取第一对象c“电影_01”和第二对象c“电影_02”。因此,显示单元120可以基于从回答服务器300接收的回答结果,在屏幕上显示针对与问题句子“AAA出演的电影的标题是什么?”有关的第一对象c“电影_01”和第二对象c“电影_02”的回答结果。
下文将详细描述显示装置100基于用户语音提供问题和回答服务的方法。
图8是根据本公开的示例实施例的提供问题和回答服务的显示装置100的方法的流程图。
如图8所示,如果在语音识别模式下输入了用户语音,则显示装置100可以确定输入的语音的文本是否包括一个或多个单词(操作S810和S820)。根据示例实施例,如果用户语音是通过麦克风(未示出)输入的,则显示装置100可以使用语音到文本(STT)算法来将用户语音转换成文本。同时,如果用户语音的语音信号是通过遥控装置(未示出)输入的,则显示装置100可以向语音识别装置200发送用户语音的语音信号。因此,语音识别装置200可以对语音的语音信号执行语音识别,将语音转换成文本,并且向显示装置100发送语音识别结果。
如果通过上述示例实施例针对用户语音创建了文本,则显示装置100可以分析根据用户语音创建的文本,并且确定用户语音是句子语音还是单词语音。根据示例实施例,显示装置100可以通过作为自然语言处理技术的词法分析和语法分析来分析语音的文本的句子结构,并且确定用户语音是句子语音还是单词语音。
如果通过对语音的文本分析,用户语音是包括一个或多个单词的语音,则显示装置100可以显示与该一个或多个单词有关的一个或多个问题句子(操作S830)。
根据示例实施例,显示装置100可以在多个之前存储的句子中将包括与一个或多个单词有关的关键词的一个或多个句子确定为与用户语音有关的问题句子。更详细地,显示装置100可以比较与多个之前存储的句子的特征向量相对应的关键词与所述一个或多个单词之间在发音栏中的相似性。此后,显示装置100可以将包括与一个或多个单词具有高相似性的关键词的句子确定并显示为与语音有关的问题句子。
同时,如果多个句子被确定为问题句子,则显示装置100可以基于多个句子中的每一个的选择历史信息,按照之前被选择为问题句子的高次数的顺序来显示被选择为问题句子的多个句子。
同时,如果被确定为问题句子的多个句子超过了预定数量,则显示装置100可以在被选择为问题句子的多个句子中,将从之前被高次数地选择为问题句子的句子中的与预定数量相对应的句子选择并显示为问题句子。
根据示例实施例,显示装置100可以向回答服务器300发送一个或多个单词,如果从回答服务器300接收到与一个或多个单词有关的关键词,则显示装置100可将接收的关键词组合,并且创建针对用户语音的问题句子。就此而言,回答服务器300是三重结构知识库服务器,并且可以执行使用与由用户说出的单词有关的属性信息来提取与所述单词相关联的关键词,并向显示装置100发送提取的关键词的操作。
根据示例性实施例,当在多个之前存储的句子中不存在包括与一个或多个单词有关的关键词的句子时,显示装置100可以向回答服务器300发送一个或多个单词。因此,回答服务器300可以执行使用从显示装置100接收的一个或多个单词的属性信息来提取与所述一个或多个单词相关联的关键词,并向显示装置100发送关键词的操作。通过上述各种示例实施例,显示装置100可以显示与用户语音有关的一个或多个问题句子。
因此,用户可以从在显示装置100上显示的问题句子中选择用户所意图的问题句子。如上所述,如果用户选择了一个问题句子或者如果在操作S820中确定用户语音是句子语音,则显示装置100可以分析选择的问题句子或者被转换成文本的用户语音句子(下文中被称作问题句子),创建问题语言,并且向服务器300发送该问题语言(操作S840)。因此,回答服务器300可以基于接收的问题语言来获得与用户期望的信息有关的一个或多个回答结果,并且向显示装置100发送该一个或多个回答结果。因此,显示装置100可以显示从回答服务器300接收的一个或多个回答结果(操作S850)。
更详细地,显示装置100可以通过使用基于自然语言处理的算法来确定由用户选择的或说出的问题句子的句子结构,并且提取在问题句子中出现的对象名称。此后,显示装置100可以基于提取的对象名称来确定与用户期望的知识的关系。根据示例实施例,显示装置100可以通过定型词(LAT)或聚焦方法来确定与用户期望的知识之间的关系。
如果通过上述各种方法从用户选择的或说出的问题句子中提取出与特征向量相对应的关键词,则显示装置100可以将从问题句子中提取的关键词转换为回答服务器300能够识别的SPARQL语言,并且可以向回答服务器300发送被转换成SPARQL语言的问题语言。就此而言,基于SPARQL的语言可以是用于询问在W3C(万维网联盟)标准中提供的语义网本体语言(RDF(资源描述框架)、RDFs(资源描述框架概要)或OWL(ONTOLOOWeb语言))的文档的语言。
同时,如果接收到转换成SPARQL语言的问题语言,则回答服务器300可以基于接收的问题语言来生成或提取针对用户问题句子的回答结果,并且向显示装置100发送该回答结果。
如上所述,根据本公开的一个或多个示例实施例,虽然输入了非句子语音,显示装置也可以提供适于用户的问题意图的回答结果。
如上所述的提供问题和回答服务的显示装置100的方法可以实现为用于执行上述提供问题和回答服务的方法的至少一个程序。该程序可以存储在非暂时性计算机可读介质中。
非暂时性计算机可读介质是可以半永久地存储数据的介质而不是诸如寄存器、高速缓存和内存之类临时存储数据的介质,并且可以由设备读取。更具体地,上述程序可以存储在诸如紧凑盘(CD)、数字视频盘(DVD)、硬盘、蓝光盘、通用串行总线(USB)、记忆卡以及只读存储器(ROM)之类的非暂时性计算机可记录介质中。
以上的示例实施例和有益效果仅仅是例示,而不应解释为对本公开的限制。本教导也可以容易地应用在其它类型的装置中。此外,示例实施例的描述旨在示意,而不是要限制权利要求的范围,并且多种替代、修改和变化对于本领域技术人员来说将是清楚的。
尽管已经示出和描述了一些实施例,但是本领域技术人员将清楚:在不脱离本公开的原理和精神的前提下,可以在这些实施例中进行改变,其中,本公开的范围在权利要求及其等同物中限定。

Claims (15)

1.一种包括显示单元的显示装置,所述显示装置包括:
输入单元,被配置为接收用户的语音;
通信单元,被配置为与回答服务器执行数据通信;以及
处理器,被配置为:
如果语音是单词语音,则使用所述语音创建并显示一个或多个问题句子,
创建与从显示的所述一个或多个问题句子中选择的问题句子相对应的问题语言,
通过所述通信单元向所述回答服务器发送所述问题语言,以及,
如果从所述回答服务器接收到与所述问题语言有关的一个或多个回答结果,则显示接收到的所述一个或多个回答结果。
2.根据权利要求1所述的显示装置,还包括:存储单元,被配置为存储多个句子和与所述多个句子中的各个句子的特征向量相对应的关键词,
其中,所述处理器比较与之前存储在所述存储单元中的所述多个句子中的各个句子的特征向量相对应的存储的关键词与所述单词语音之间在发音栏中的相似性,将包括与所述单词语音具有高相似性的关键词在内的句子确定为与所述语音有关的问题句子,并且显示确定的句子。
3.根据权利要求2所述的显示装置,其中,如果多个句子被确定为问题句子,则所述处理器基于所述多个句子中的每一个的选择历史信息,按照问题句子之前被选择的最高次数的顺序来显示被确定为问题句子的所述多个句子。
4.根据权利要求2所述的显示装置,其中,如果多个句子被确定为问题句子,则所述处理器基于所述多个句子中的每一个的选择历史信息,选择和显示具有问题句子之前被选择的最高次数的预设数量的句子。
5.根据权利要求1所述的显示装置,其中,如果从所述回答服务器接收到与所述单词语音有关的关键词,则所述处理器组合接收到的关键词,创建针对所述语音的问题句子,并且显示所述问题句子。
6.根据权利要求5所述的显示装置,其中,所述回答服务器是三重结构知识库服务器,并且使用与单词语音有关的属性信息来提取与所述单词语音有关的关键词。
7.根据权利要求2所述的显示装置,其中,当不存在包括与所述单词语音具有最高相似性的关键词在内的句子时,所述处理器从回答服务器接收所述单词语音和所述关键词,组合接收到的关键词,并且创建与所述单词语音有关的问题句子。
8.根据权利要求1所述的显示装置,其中,如果用户的语音是句子语音,则所述处理器使用基于自然语言处理的算法来从用户的语音中提取对象名称,并且基于提取的对象名称来创建问题语言。
9.一种由显示装置执行的提供问题和回答的方法,所述方法包括:
接收用户的语音;
如果用户的语音是单词语音,则使用所述用户的语音创建并显示一个或多个问题句子;
创建与从显示的所述一个或多个问题句子中选择的问题句子相对应的问题语言,并且向回答服务器发送所述问题语言;
从所述回答服务器接收与所述问题语言有关的一个或多个回答结果;以及
显示接收到的所述一个或多个回答结果。
10.根据权利要求9所述的方法,其中,创建并显示所述一个或多个问题句子包括:比较与之前存储的多个句子中的每一个的特征向量相对应的关键词与所述单词语音之间在发音栏中的相似性,将包括与所述单词语音具有高相似性的关键词在内的句子确定为问题句子,并且显示确定的句子。
11.根据权利要求10所述的方法,其中,创建并显示所述一个或多个问题句子包括:如果多个句子被确定为问题句子,则基于所述多个句子中的每一个的选择历史信息,按照问题句子之前被选择的最高次数的顺序来显示被选择为问题句子的所述多个句子。
12.根据权利要求10所述的方法,其中,创建并显示所述一个或多个问题句子包括:如果多个句子被确定为问题句子,则基于所述多个句子中的每一个的选择历史信息,选择和显示与从之前被最高次数地选择的句子开始的预设数量相对应的句子。
13.根据权利要求9所述的方法,其中,创建并显示所述一个或多个问题句子包括:如果从所述回答服务器接收到与单词语音有关的关键词,则组合接收到的关键词,创建针对所述语音的问题句子,并且显示创建的问题句子。
14.根据权利要求13所述的方法,其中,所述回答服务器是三重结构知识库服务器,并且使用与核心词汇有关的属性信息来提取与所述核心词汇相关联的关键词。
15.根据权利要求10所述的方法,其中,创建并显示所述一个或多个问题句子包括:
当不存在包括与所述单词语音具有最高相似性的关键词在内的句子时,从所述回答服务器接收与所述单词语音相关联的关键词,组合接收到的关键词,并且创建并显示与所述单词语音有关的问题句子。
CN201510765555.XA 2014-11-12 2015-11-11 针对问题和回答的显示装置和方法 Active CN105592343B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210189266.XA CN114596861A (zh) 2014-11-12 2015-11-11 针对问题和回答的显示装置和方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2014-0156901 2014-11-12
KR1020140156901A KR20160056548A (ko) 2014-11-12 2014-11-12 질의 응답을 위한 디스플레이 장치 및 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN202210189266.XA Division CN114596861A (zh) 2014-11-12 2015-11-11 针对问题和回答的显示装置和方法

Publications (2)

Publication Number Publication Date
CN105592343A true CN105592343A (zh) 2016-05-18
CN105592343B CN105592343B (zh) 2022-03-18

Family

ID=54478659

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202210189266.XA Pending CN114596861A (zh) 2014-11-12 2015-11-11 针对问题和回答的显示装置和方法
CN201510765555.XA Active CN105592343B (zh) 2014-11-12 2015-11-11 针对问题和回答的显示装置和方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN202210189266.XA Pending CN114596861A (zh) 2014-11-12 2015-11-11 针对问题和回答的显示装置和方法

Country Status (4)

Country Link
US (4) US10339823B2 (zh)
EP (1) EP3021321B1 (zh)
KR (4) KR20160056548A (zh)
CN (2) CN114596861A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108735204A (zh) * 2017-04-17 2018-11-02 三星电子株式会社 用于执行与用户话语相对应的任务的设备
CN108899019A (zh) * 2017-05-12 2018-11-27 三星电子株式会社 显示设备及其控制方法
CN110556105A (zh) * 2018-05-31 2019-12-10 丰田自动车株式会社 语音交互系统、其处理方法及其程序
CN110706532A (zh) * 2019-09-27 2020-01-17 安阳师范学院 一种在线教育的提问方法
CN114842710A (zh) * 2021-02-01 2022-08-02 卡西欧计算机株式会社 发音训练方法、程序存储介质和终端装置

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160056548A (ko) 2014-11-12 2016-05-20 삼성전자주식회사 질의 응답을 위한 디스플레이 장치 및 방법
US9471668B1 (en) * 2016-01-21 2016-10-18 International Business Machines Corporation Question-answering system
CN107871501A (zh) * 2016-09-27 2018-04-03 Fmr有限责任公司 使用智能语音识别的自动化软件执行方法
US10198501B2 (en) * 2016-09-28 2019-02-05 International Business Machines Corporation Optimizing retrieval of data related to temporal based queries
CN110168544A (zh) * 2016-12-27 2019-08-23 夏普株式会社 应答装置、应答装置的控制方法、及控制程序
KR102479026B1 (ko) * 2017-09-27 2022-12-20 한국전자통신연구원 MPEG IoMT 환경에서의 질의응답 시스템 및 방법
CN110019739A (zh) * 2017-11-30 2019-07-16 上海智臻智能网络科技股份有限公司 基于必要条件的问答方法和装置、计算机设备和存储介质
CN109684632B (zh) * 2018-12-12 2023-04-21 达闼机器人股份有限公司 一种自然语义理解的方法、装置、计算设备
KR102221015B1 (ko) * 2018-12-26 2021-02-25 성재호 대리통화 서비스 장치 및 방법
US10949613B2 (en) 2019-01-11 2021-03-16 International Business Machines Corporation Dynamic natural language processing
US10909180B2 (en) * 2019-01-11 2021-02-02 International Business Machines Corporation Dynamic query processing and document retrieval
US11132390B2 (en) * 2019-01-15 2021-09-28 International Business Machines Corporation Efficient resolution of type-coercion queries in a question answer system using disjunctive sub-lexical answer types
KR102249109B1 (ko) * 2019-04-09 2021-06-07 주식회사 모키 가변적인 답변이 필요한 질문에 대한 답변 세트의 제공 방법 및 이를 이용하는 장치
KR102411204B1 (ko) * 2019-11-14 2022-06-21 주식회사 셀바스에이아이 텍스트 임베딩 방법 및 장치
CN111241245B (zh) * 2020-01-14 2021-02-05 百度在线网络技术(北京)有限公司 人机交互处理方法、装置及电子设备
KR102527302B1 (ko) * 2021-04-17 2023-05-02 유한회사 디스캣 온라인 투표 기능을 이용하여 음성응원을 제공하는 응원 서비스 제공 방법 및 그 시스템
CN113377934B (zh) * 2021-05-21 2022-07-05 海南师范大学 一种实现智能客服的系统及方法
CN115579008B (zh) * 2022-12-05 2023-03-31 广州小鹏汽车科技有限公司 语音交互方法、服务器及计算机可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101313276A (zh) * 2005-10-28 2008-11-26 微软公司 将语音和备选项输入形式组合到移动设备中
CN102203774A (zh) * 2008-11-03 2011-09-28 微软公司 使用概括的句子搭配的检索
CN103226949A (zh) * 2011-09-30 2013-07-31 苹果公司 在虚拟助理中使用情境信息来促进命令的处理

Family Cites Families (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7174299B2 (en) 1995-08-18 2007-02-06 Canon Kabushiki Kaisha Speech recognition system, speech recognition apparatus, and speech recognition method
JPH11202887A (ja) 1998-01-13 1999-07-30 Kobe Steel Ltd 音声認識装置
US6513006B2 (en) * 1999-08-26 2003-01-28 Matsushita Electronic Industrial Co., Ltd. Automatic control of household activity using speech recognition and natural language
US6324512B1 (en) * 1999-08-26 2001-11-27 Matsushita Electric Industrial Co., Ltd. System and method for allowing family members to access TV contents and program media recorder over telephone or internet
CN1329861C (zh) * 1999-10-28 2007-08-01 佳能株式会社 模式匹配方法和装置
US7392185B2 (en) 1999-11-12 2008-06-24 Phoenix Solutions, Inc. Speech based learning/training system using semantic decoding
WO2001084535A2 (en) * 2000-05-02 2001-11-08 Dragon Systems, Inc. Error correction in speech recognition
US6856956B2 (en) * 2000-07-20 2005-02-15 Microsoft Corporation Method and apparatus for generating and displaying N-best alternatives in a speech recognition system
US8200485B1 (en) 2000-08-29 2012-06-12 A9.Com, Inc. Voice interface and methods for improving recognition accuracy of voice search queries
US7216077B1 (en) * 2000-09-26 2007-05-08 International Business Machines Corporation Lattice-based unsupervised maximum likelihood linear regression for speaker adaptation
US6721706B1 (en) 2000-10-30 2004-04-13 Koninklijke Philips Electronics N.V. Environment-responsive user interface/entertainment device that simulates personal interaction
EP1209659B1 (en) * 2000-11-22 2005-10-05 Matsushita Electric Industrial Co., Ltd. Method and apparatus for text input utilizing speech recognition
KR100441743B1 (ko) * 2001-10-23 2004-07-27 한국전자통신연구원 원격 가전 제어 시스템 및 그 방법
US7149550B2 (en) * 2001-11-27 2006-12-12 Nokia Corporation Communication terminal having a text editor application with a word completion feature
EP1494129A4 (en) 2002-04-11 2006-03-29 P To Pa Inc SYSTEM AND METHOD FOR CONVERSATION CONTROL
US20060041926A1 (en) * 2004-04-30 2006-02-23 Vulcan Inc. Voice control of multimedia content
US7461059B2 (en) 2005-02-23 2008-12-02 Microsoft Corporation Dynamically updated search results based upon continuously-evolving search query that is based at least in part upon phrase suggestion, search engine uses previous result sets performing additional search tasks
JP4645242B2 (ja) * 2005-03-14 2011-03-09 富士ゼロックス株式会社 質問応答システム、およびデータ検索方法、並びにコンピュータ・プログラム
US20060293890A1 (en) * 2005-06-28 2006-12-28 Avaya Technology Corp. Speech recognition assisted autocompletion of composite characters
US8473295B2 (en) * 2005-08-05 2013-06-25 Microsoft Corporation Redictation of misrecognized words using a list of alternatives
US8261300B2 (en) * 2006-06-23 2012-09-04 Tivo Inc. Method and apparatus for advertisement placement in a user dialog on a set-top box
US9318108B2 (en) * 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8155959B2 (en) * 2007-11-07 2012-04-10 Robert Bosch Gmbh Dialog system for human agent to correct abnormal output
US20090326938A1 (en) * 2008-05-28 2009-12-31 Nokia Corporation Multiword text correction
KR101462932B1 (ko) * 2008-05-28 2014-12-04 엘지전자 주식회사 이동 단말기 및 그의 텍스트 수정방법
JP5149737B2 (ja) 2008-08-20 2013-02-20 株式会社ユニバーサルエンターテインメント 自動会話システム、並びに会話シナリオ編集装置
US8676904B2 (en) * 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US20110184740A1 (en) 2010-01-26 2011-07-28 Google Inc. Integration of Embedded and Network Speech Recognizers
EP2453368B1 (en) 2010-11-12 2017-05-31 Accenture Global Services Limited Custom web services data link layer
KR101897492B1 (ko) 2011-06-07 2018-09-13 삼성전자주식회사 디스플레이 장치 및 이의 하이퍼링크 실행 방법 및 음성 인식 방법
WO2012169679A1 (ko) 2011-06-10 2012-12-13 엘지전자 주식회사 디스플레이 장치, 디스플레이 장치의 제어 방법 및 디스플레이 장치의 음성인식 시스템
KR102022318B1 (ko) 2012-01-11 2019-09-18 삼성전자 주식회사 음성 인식을 사용하여 사용자 기능을 수행하는 방법 및 장치
KR20130086971A (ko) 2012-01-26 2013-08-05 진삼순 음성인식 질의응답 시스템 및 그것의 운용방법
KR101951417B1 (ko) 2012-03-09 2019-02-22 엘지전자 주식회사 휴대 전자기기 및 이의 제어 방법
KR20130125067A (ko) 2012-05-08 2013-11-18 삼성전자주식회사 전자 장치 및 그의 제어 방법
KR101359718B1 (ko) 2012-05-17 2014-02-13 포항공과대학교 산학협력단 대화 관리 시스템 및 방법
KR101309794B1 (ko) 2012-06-27 2013-09-23 삼성전자주식회사 디스플레이 장치, 디스플레이 장치의 제어 방법 및 대화형 시스템
KR101961139B1 (ko) 2012-06-28 2019-03-25 엘지전자 주식회사 이동 단말기 및 그것의 음성 인식 방법
KR101330671B1 (ko) 2012-09-28 2013-11-15 삼성전자주식회사 전자장치, 서버 및 그 제어방법
US9704486B2 (en) * 2012-12-11 2017-07-11 Amazon Technologies, Inc. Speech recognition power management
US9640174B2 (en) * 2013-01-02 2017-05-02 Lg Electronics Inc. Home appliance and operation method thereof
KR20140089862A (ko) 2013-01-07 2014-07-16 삼성전자주식회사 디스플레이 장치 및 그의 제어 방법
KR102084739B1 (ko) 2013-03-11 2020-04-14 삼성전자주식회사 대화형 서버, 디스플레이 장치 및 제어 방법
KR102246893B1 (ko) 2013-12-11 2021-04-30 삼성전자주식회사 대화형 시스템, 이의 제어 방법, 대화형 서버 및 이의 제어 방법
KR20160056548A (ko) * 2014-11-12 2016-05-20 삼성전자주식회사 질의 응답을 위한 디스플레이 장치 및 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101313276A (zh) * 2005-10-28 2008-11-26 微软公司 将语音和备选项输入形式组合到移动设备中
CN102203774A (zh) * 2008-11-03 2011-09-28 微软公司 使用概括的句子搭配的检索
CN103226949A (zh) * 2011-09-30 2013-07-31 苹果公司 在虚拟助理中使用情境信息来促进命令的处理

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JUNLAN FENG, MICHAEL JOHNSTON, AND STINIVAS BANGALORE: "Speech and Multimodal interaction in Mobile Search", 《IEEE SIGNAL PROCESSING MAGAZINE》 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108735204A (zh) * 2017-04-17 2018-11-02 三星电子株式会社 用于执行与用户话语相对应的任务的设备
CN108735204B (zh) * 2017-04-17 2023-08-11 三星电子株式会社 用于执行与用户话语相对应的任务的设备
CN108899019A (zh) * 2017-05-12 2018-11-27 三星电子株式会社 显示设备及其控制方法
US11726806B2 (en) 2017-05-12 2023-08-15 Samsung Electronics Co., Ltd. Display apparatus and controlling method thereof
CN108899019B (zh) * 2017-05-12 2023-11-28 三星电子株式会社 显示设备及其控制方法
CN110556105A (zh) * 2018-05-31 2019-12-10 丰田自动车株式会社 语音交互系统、其处理方法及其程序
CN110556105B (zh) * 2018-05-31 2022-11-15 丰田自动车株式会社 语音交互系统、其处理方法及其程序
CN110706532A (zh) * 2019-09-27 2020-01-17 安阳师范学院 一种在线教育的提问方法
CN114842710A (zh) * 2021-02-01 2022-08-02 卡西欧计算机株式会社 发音训练方法、程序存储介质和终端装置

Also Published As

Publication number Publication date
US20240038088A1 (en) 2024-02-01
KR20240040689A (ko) 2024-03-28
US10339823B2 (en) 2019-07-02
CN114596861A (zh) 2022-06-07
EP3021321A1 (en) 2016-05-18
KR102649208B1 (ko) 2024-03-20
US20190279523A1 (en) 2019-09-12
US20160133146A1 (en) 2016-05-12
KR20220130655A (ko) 2022-09-27
KR102445927B1 (ko) 2022-09-22
EP3021321B1 (en) 2018-07-25
CN105592343B (zh) 2022-03-18
KR20210075040A (ko) 2021-06-22
US11817013B2 (en) 2023-11-14
KR20160056548A (ko) 2016-05-20
US10922990B2 (en) 2021-02-16
US20210065572A1 (en) 2021-03-04

Similar Documents

Publication Publication Date Title
CN105592343A (zh) 针对问题和回答的显示装置和方法
US10937413B2 (en) Techniques for model training for voice features
US10503470B2 (en) Method for user training of information dialogue system
US10657966B2 (en) Better resolution when referencing to concepts
US20190163691A1 (en) Intent Based Dynamic Generation of Personalized Content from Dynamic Sources
US20190108273A1 (en) Data Processing Method, Apparatus and Electronic Device
US10971147B2 (en) Cognitive intervention for voice recognition failure
US10803850B2 (en) Voice generation with predetermined emotion type
CN110597952A (zh) 信息处理方法、服务器及计算机存储介质
US10854189B2 (en) Techniques for model training for voice features
KR102348084B1 (ko) 영상표시장치, 영상표시장치의 구동방법 및 컴퓨터 판독가능 기록매체
CN109271533A (zh) 一种多媒体文件检索方法
CN108614851A (zh) 教学系统中的注释内容显示方法以及装置
CN109710732A (zh) 信息查询方法、装置、存储介质和电子设备
KR20130086971A (ko) 음성인식 질의응답 시스템 및 그것의 운용방법
KR20170126667A (ko) 회의 기록 자동 생성 방법 및 그 장치
US20200159824A1 (en) Dynamic Contextual Response Formulation
CN109273004A (zh) 基于大数据的预测性语音识别方法及装置
CN113781854B (zh) 一种用于自动远程教学的小组讨论方法和系统
US11984113B2 (en) Method and server for training a neural network to generate a textual output sequence
RU2818036C1 (ru) Способ и система управления диалоговым агентом в канале взаимодействия с пользователем
US20220108685A1 (en) Method and server for training a neural network to generate a textual output sequence
KR20120049209A (ko) 온라인 및 음성인식 강의 제공 장치 및 방법
KR20230151135A (ko) 외국어 학습 데이터 제공 시스템 및 방법
da Silva Gomes A retail conversational interface to naturally capture unstructured information triggering high value analytical and operational business actions

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant