CN107004404A - 信息提供系统 - Google Patents
信息提供系统 Download PDFInfo
- Publication number
- CN107004404A CN107004404A CN201480083606.4A CN201480083606A CN107004404A CN 107004404 A CN107004404 A CN 107004404A CN 201480083606 A CN201480083606 A CN 201480083606A CN 107004404 A CN107004404 A CN 107004404A
- Authority
- CN
- China
- Prior art keywords
- voice recognition
- recognition object
- object language
- unit
- text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 70
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 70
- 238000000605 extraction Methods 0.000 claims abstract description 39
- 238000000034 method Methods 0.000 claims description 40
- 230000000694 effects Effects 0.000 claims description 3
- 239000002131 composite material Substances 0.000 description 12
- 230000011218 segmentation Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 230000010365 information processing Effects 0.000 description 8
- 239000000284 extract Substances 0.000 description 7
- 230000015654 memory Effects 0.000 description 6
- 230000002093 peripheral effect Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000002194 synthesizing effect Effects 0.000 description 2
- 241000406668 Loxodonta cyclotis Species 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 238000000151 deposition Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- JEIPFZHSYJVQDO-UHFFFAOYSA-N ferric oxide Chemical compound O=[Fe]O[Fe]=O JEIPFZHSYJVQDO-UHFFFAOYSA-N 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
- G06F40/242—Dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- User Interface Of Digital Computer (AREA)
- Machine Translation (AREA)
- Navigation (AREA)
Abstract
信息提供系统1包括:提取部(12),其将包含在朗读文本中的词组等中的能从信息源获取与该词组等相关的附加信息的词组等作为声音识别对象语进行提取;合成控制部(13),其输出对朗读文本进行朗读的音频进行合成所用的语调信息以及提取部(12)所提取出的声音识别对象语;音频合成部(14),其使用从合成控制部(13)接收到的语调信息来对朗读文本进行朗读;以及显示指示部(15),其指示显示器(4)与音频合成部(14)朗读声音识别对象语的时刻相应地显示从合成控制部(13)接收到的声音识别对象语。
Description
技术领域
本发明涉及通过朗读文本从而向用户提供信息的信息提供系统。
背景技术
以往,在从Web(网页)等信息源获取文本并呈现给用户的信息提供装置中,通过用户说出包含在所呈现的文本中的关键词,从而对该关键词进行声音识别,进而获取与该关键词对应的信息并进行呈现。
在利用了上述的声音识别的信息提供装置中,需要向用户明示文本中的哪个词语是声音识别对象。
因此,作为向用户明示声音识别对象语的方法,在专利文献1中记载了如下的方法:对从Web获取的超文本信息中的链接文件的描述性文本的至少一部分(作为声音识别对象的词语)进行强调并显示于画面。同样地,在专利文件2中记载了如下方法:对从外部获取到的内容信息中的作为声音识别对象的词语的显示方式进行变更并显示于画面。
现有技术文献
专利文献
专利文献1:日本专利特开平11-25098号公报
专利文献2:日本专利特开2007-4280号公报
发明内容
发明所要解决的技术问题
在车载设备那样的画面较小的装置中,有时会通过朗读文本来呈现给用户,而非将文本显示于画面。在该情况下,上述专利文献1、2那样的方法无法适用。
此外,由于画面较小时能显示的字符数量也受到限制,因此即使将文本显示于画面,有时也不能将文本全部显示。在该情况下,在上述专利文献1、2那样的方法中,可能由于字符数限制导致声音识别对象语无法显示于画面,从而无法向用户明示声音识别对象语。
本发明是为了解决上述问题而完成的,因此其目的是即使在朗读用的文本不显示于画面上、或者能显示于画面上的字符数量受到限制的情况下,也能将包含在该文本中的声音识别对象语明示给用户。
解决技术问题的技术方案
本发明所涉及的信息提供系统包括:提取部,其将包含在文本中的单词或者词组中的能从信息源获取与该单词或者词组相关的信息的单词或者词组作为声音识别对象语进行提取;合成控制部,其输出朗读文本的音频进行合成所用的信息以及提取部提取出的声音识别对象语;音频合成部,其使用从合成控制部接收到的信息来朗读文本;以及显示指示部,其指示显示部与音频合成部朗读声音识别对象语的时刻相应地显示从合成控制部接收到的声音识别对象语。
发明效果
根据本发明,在朗读文本时,在朗读声音识别对象语的时刻进行显示,因此即使在朗读用的文本不显示于画面上、或者能显示于画面上的字符数量受到限制的情况下,也能将包含在该文本中的声音识别对象语明示给用户。
附图说明
图1是说明本发明的实施方式1所涉及的信息提供系统及其周边设备的概要的图。
图2是表示实施方式1的显示器的显示例的图。
图3是表示实施方式1所涉及的信息提供系统及其周边设备的主要硬件结构的概要图。
图4是示出实施方式1所涉及的信息提供系统的结构例的框图。
图5是示出实施方式1所涉及的信息提供系统的信息处理控制部的动作的流程图。
图6是示出在实施方式1中用户说出了声音识别对象语时的信息提供系统的动作的一个示例的流程图。
图7是示出本发明的实施方式2所涉及的信息提供系统的结构例的框图。
图8是示出实施方式2所涉及的信息提供系统的信息处理控制部的动作的流程图。
图9是示出本发明的实施方式3所涉及的信息提供系统的结构例的框图。
图10是示出实施方式3所涉及的信息提供系统的信息处理控制部的动作的流程图。
具体实施方式
以下,为了更详细地说明本发明,对于用于实施本发明的实施方式,参照附图进行说明。
另外,在以下的实施方式中,虽然对于将本发明的信息提供系统适用于车辆等移动体用的导航装置的情况举例进行说明,但除导航装置以外,还可以适用于PC(个人计算机)、平板PC、以及智能手机等移动信息终端。
实施方式1.
图1是说明本发明的实施方式1所涉及的信息提供系统1及其周边设备的概要的图。
信息提供系统1经由网络2从Web服务器3等外部信息源获取朗读文本,并指示扬声器5对获取到的朗读文本进行音频输出。除此以外,信息提供系统1也可以指示显示器(显示部)4对朗读文本进行显示。
信息提供系统1指示显示器4在朗读包含在朗读文本中的作为声音识别对象的单词或者词组的定时显示该单词或者词组。以下,将单词或者词组称为“词组等”,将作为声音识别对象的词组等称为“声音识别对象语”。
若由用户说出声音识别对象语,则信息提供系统1经由麦克风6获取说出的声音并进行识别,并指示扬声器5对与识别出的词组等相关联的信息进行音频输出。以下,将与词组等相关联的信息称为“附加信息”。
图2是显示器4的显示例。此处,将朗读文本设为“首相、消费税增税判断、启动专家讨论的政策‘若通货紧缩难以摆脱则考虑’”,将声音识别对象语作为“首相”“消费税”“通货紧缩”来进行说明。
在显示器4的显示区域A显示示出本车位置及地图等的导航画面,因此用于显示朗读文本的显示区域B较窄。因此,不能一次性将朗读文本的全文显示于显示区域B。因此,信息提供系统1仅对朗读文本的一部分进行显示,对全文进行音频输出。
或者,在不能确保显示区域B的情况下,信息提供系统1也可以不显示朗读文本,仅进行音频输出。
信息提供系统1将作为声音识别对象语的“首相”、“消费税”、“通货紧缩”在各自的朗读的定时显示于显示器4的显示区域C1、C2、C3。而且,若由用户例如说出“消费税”,则信息提供系统1将与“消费税”相关的附加信息(例如“消费税”的含义或者详细说明等)从扬声器5进行音频输出等来呈现给用户。另外,在本示例中,虽然准备了3个显示区域,但是显示区域也可以不限定于3个。
图3是表示实施方式1的信息提供系统1及其周边设备的主要硬件结构的概要图。总线上连接有CPU(CentralProcessingUnit-中央处理器)101、ROM(ReadOnlyMemory-只读存储器)102、RAM(RandamAccessMemory-随机存储器)103、输入装置104、通信装置105、HDD(HardDiskDrive-硬盘驱动器)106、以及输出装置107。
CPU101通过读取并执行存储在ROM102或者HDD106中的各种程序,从而与各硬件协作来实现信息提供系统1的各种功能。对于CPU101所实现的信息提供系统1的各种功能,用后述的图4进行说明。
RAM103是在执行程序时所使用的存储器。
输入装置104是用于接收用户输入的麦克风、遥控器等操作设备、或者触摸传感器等。图1中,示出了麦克风6来作为输入装置104的例子。
通信装置105经由网络2来进行通信。
HDD106是外部存储装置的一个示例。作为外部存储装置,除HDD以外,还包括CD、DVD、或者采用了USB存储器以及SD卡等闪存的存储器等。
输出装置107是用于将信息呈现给用户的扬声器、液晶显示器、或者有机EL(Electroluminescence-电致发光)等。图1中,图示了显示器4及扬声器5来作为输出装置107的例子。
图4是示出实施方式1所涉及的信息提供系统1的结构例的框图。
该信息提供系统1包括获取部10、提取部12、合成控制部13、音频合成部14、显示指示部15、词典生成部16、识别词典17以及音频识别部18。上述的功能通过CPU101执行程序来实现。
提取部12、合成控制部13、音频合成部14以及显示指示部15构成信息处理控制部11。
构成信息提供系统1的获取部10、提取部12、合成控制部13、音频合成部14、显示指示部15、词典生成部16、识别词典17以及音频识别部18可以如图4所示集成在1个装置内,或者也可以分散至网络上的服务器、智能手机等移动信息终端以及车载器上。
获取部10经由网络2从Web服务器3获取以HTML(Hyper Text Markup Language-超文本标记语言)或者XML(eXtensible Markup Language-可扩展标记语言)形式记载的内容。而且,获取部10对获取到的内容进行分析,获取要呈现给用户的朗读文本。
另外,作为网络2例如能够使用互联网及移动电话等的公众线路。
提取部12对由获取部10获取到的朗读文本进行分析并分割成词组等。分割方法例如使用词素分析那样的公知的技术即可,因此省略说明。另外,分割的单位并非限定于词素。
此外,提取部12从分割得到的词组等中提取声音识别对象语。声音识别对象语是包含于朗读文本中的词组等,其能从信息源获取与该词组等相关的附加信息(例如,词组等的含义或者详细说明)。
附加信息的信息源可以是网络2上的Web服务器3那样的外部信息源,也可以是信息提供系统1所具备的数据库(未图示)等。提取部12可以经由获取部10连接至网络2上的外部信息源,也可以不经由获取部10而直接连接。
而且,提取部12决定从朗读文本的开头起到该朗读文本中的各个声音识别对象语为止的音拍数。
在上述的“首相、消费税增税判断、启动专家讨论的政策‘若通货紧缩难以摆脱则考虑’”这样的朗读文本的情况下,从朗读文本的开头起的音拍数分别是:“首相”为1、“消费税”为“4”、“通货紧缩”为“33”。
合成控制部13对于朗读文本的全文决定音频合成时所需要的语调等信息(以下记载为“语调信息”)。然后,合成控制部13将所决定的语调信息输出至音频合成部14。
另外,对于语调信息的决定方法使用公知的技术即可,因此省略说明。
合成控制部13对于每个由提取部12决定的声音识别对象语,基于从朗读文本的开头起到声音识别对象语为止的音拍数来计算朗读开始时间。例如,在合成控制部13对于每1个音拍的朗读速度都是既定的,将到声音识别对象语为止的音拍数除以该速度,从而计算该声音识别对象语的朗读开始时间。然后,合成控制部13从朗读文本的语调信息开始向音频合成部14输出的时刻起计时,若达到推测出的朗读开始时间,则对显示指示部15输出声音识别对象语。能够在朗读声音识别对象语的定时相应地显示该声音识别对象语。
另外,虽然设为从开始向音频合成部14输出的时刻起计时,但也可以从指示扬声器5使音频合成部14输出合成音频的时刻起计时。
音频合成部14基于从合成控制部13输出的语调信息生成合成音频,并指示扬声器5输出合成音频。
另外,对于音频合成的方法使用公知的技术即可,因此省略说明。
显示指示部15指示显示器4显示从合成控制部13输出的声音识别对象语。
词典生成部16使用由提取部12提取出的声音识别对象语来生成识别词典17。
音频识别部18参照识别词典17来识别由麦克风6采集到的音频,并输出识别结果字符串。
另外,对于音频识别的方法使用公知的技术即可,因此省略说明。
接着,使用图5及图6所示的流程图与具体例,对实施方式1的信息提供系统1的动作进行说明。
首先,使用图5的流程图说明信息处理控制部11的动作。
此处,将朗读文本设为“首相、消费税增税判断、启动专家讨论的政策‘若通货紧缩难以摆脱则考虑’”,将声音识别对象语作为“首相”、“消费税”、“通货紧缩”来进行说明。
首先,提取部12对上述的朗读文本以词组等为单位进行分割(步骤ST001)。此处,提取部12进行词素分析,将上述的朗读文本分割成“/首相/、/消费税/增税/判断/、/启动/专家/讨论/的政策/‘/若/通货紧缩/难以/摆脱/则/考虑/’/”。
接着,提取部12从分割得到的词组等中提取声音识别对象语“首相”、“消费税”、“通货紧缩”(步骤ST002)。
此处,词典生成部16基于由提取部12提取出的3个声音识别对象语“首相”、“消费税”、“通货紧缩”,来生成识别词典17(步骤ST003)。
接着,合成控制部13使用从朗读文本的开头起到声音识别对象语“首相”为止的音拍数与朗读速度,计算说出朗读文本时的“首相”的朗读开始时间(步骤ST004)。合成控制部13同样基于到声音识别对象语“消费税”、“通货紧缩”为止的音拍数来分别计算朗读开始时间。
合成控制部13生成朗读文本的音频合成所需要的语调信息(步骤ST005)。
以下说明的步骤ST006的流程与步骤ST007~ST009的流程并行地执行。
合成控制部13向音频合成部14输出朗读文本的语调信息,音频合成部14生成朗读文本的合成音频并将其输出至扬声器5,从而开始朗读(步骤ST006)。
与步骤ST006并行地,合成控制部13从朗读文本的开头起的音拍数较小的声音识别对象语起,依次判定是否经过了朗读开始时间(步骤ST007)。若达到从朗读文本的开头起的音拍数为最小的声音识别对象语“首相”的朗读开始时间(步骤ST007“是”),则合成控制部13将该声音识别对象语“首相”输出至显示指示部15(步骤ST008)。显示指示部15对显示器4进行指示使其显示声音识别对象语“首相”。
接着,合成控制部13对是否将3个声音识别对象语全部显示进行判定(步骤ST009)。现阶段剩余声音识别对象语“消费税”“通货紧缩”(步骤ST009“否”),因此,合成控制部13再重复2次步骤ST007~ST009。若声音识别对象语全部显示完成(步骤ST009“是”),则合成控制部13结束一系列的处理。
由此,在图2中,在朗读文本“首相、消费税增税判断、启动专家讨论的政策‘若通货紧缩难以摆脱则考虑’”的“首相”被朗读的时刻,在显示区域C1显示“首相”;在“消费税”被朗读的时刻,在显示区域C2显示“消费税”;在“通货紧缩”被朗读的时刻,在显示区域C3显示“通货紧缩”。
用户通过说出显示于显示区域C1~C3的声音识别对象语,能接受与该词语关联的附加信息的提供。对于附加信息的提供在图6中详细描述。
另外,显示指示部15也可以进行指示,以使得在将声音识别对象语显示于显示器4时,对声音识别对象语进行强调显示。声音识别对象语的强调显示存在如下的方法:设为醒目的字体、使文字变大、设为醒目的文字颜色、使显示区域C1~C3闪烁、对文字附加符号(例如,“”)。此外,也可以是如下的方法:在声音识别对象语的显示前后变更显示区域C1~C3的颜色(即,背景色)、变更亮度。也可以将上述的强调显示组合。
并且,显示指示部15也可以进行指示,以使得在将声音识别对象语显示于显示器4时,将显示区域C1~C3设为用于选择声音识别对象语的软按键。软按键只要是用户能使用输入装置104进行选择操作即可,例如能通过触摸传感器进行选择的触摸按钮、或者能通过操作设备进行选择的按钮等。
接着,使用图6的流程图,对用户说出了声音识别对象语时的信息提供系统1的动作进行说明。
音频识别部18经由麦克风6获取用户说出的声音,参照识别词典17来进行识别,并输出识别结果字符串(步骤ST101)。接着,获取部10经由网络2从Web服务器3等获取与音频识别部18输出的识别结果字符串相关联的附加信息(步骤ST102)。合成控制部13决定由获取部10获取到的信息的音频合成所需要的语调信息,并输出至音频合成部14(步骤ST103)。最后,音频合成部14基于合成控制部13输出的语调信息生成合成音频,指示扬声器5来输出合成音频(步骤ST104)。
另外,在图6中,虽然构成为在由用户说出声音识别对象语的情况下信息提供系统1获取与该词语相关联的附加信息并进行音频输出,但不限于此,例如也可以构成为若识别出的词组等是设施的品牌名,则执行其品牌名的周边检索并进行显示检索结果等的规定的动作。附加信息可以从Web服务器3等外部信息源来获取,也可以从信息提供系统1内置的数据库等来获取。
此外,虽然构成为在用户说话后获取部10获取附加信息,但不限于此,例如也可以构成为提取部12从朗读文本提取声音识别对象语时,不仅对有无附加信息进行判断,还预先获取附加信息并进行存储。
如上所述,根据实施方式1,信息提供系统1包括:提取部12,其将包含在朗读文本中的词组等中的能从信息源获取与该词组等相关的附加信息的词组等作为声音识别对象语进行提取;合成控制部13,其输出对朗读文本进行朗读的音频进行合成所用的语调信息以及提取部12所提取出的声音识别对象语;音频合成部14,其使用从合成控制部13接收到的语调信息来对朗读文本进行朗读;以及显示指示部15,其指示显示器4与音频合成部14朗读声音识别对象语的时刻相应地显示从合成控制部13接收到的声音识别对象语。显示指示部15与音频合成部14朗读声音识别对象语的时刻相应地从合成控制部13接收该声音识别对象语,因此将接收到的该声音识别对象语显示于显示器4。由此,在朗读文本时,在朗读声音识别对象语的时刻进行显示,因此即使在朗读文本不显示于画面上、或者能显示于画面上的文字数量受到限制的情况下,也能将包含在该文本中的声音识别对象语明示给用户。
另外,根据实施方式1,显示指示部15指示显示器4来对声音识别对象语进行强调显示。因此,用户容易注意到声音识别对象语的显示。
另外,根据实施方式1,显示指示部15指示显示器4将其显示声音识别对象语的区域作为选择该声音识别对象语的软按键。因此,用户根据情况能够分开使用音频操作和软按键操作,从而提高便利性。
实施方式2.
图7是示出本发明的实施方式2所涉及的信息提供系统1的结构例的框图。在图7中,对于与图4相同或者相当的部分标注相同标号并省略说明。
实施方式2的信息提供系统1具备存储声音识别对象语的存储部20。实施方式2的信息处理控制部21与上述实施方式1的信息处理控制部11有一部分动作不同,因此以下进行说明。
提取部22与上述实施方式1相同,对由获取部10获取到的朗读文本进行分析并分割成词组等。
实施方式2的提取部22从分割得到的词组等中提取声音识别对象语,并使提取出的声音识别对象语存储于存储部20。
合成控制部23与上述实施方式1相同,对由获取部10获取到的朗读文本进行分析并分割成词组等。合成控制部23对于每个分割得到的词组等决定音频合成时所需要的语调信息。而且,合成控制部23从朗读文本的开头起以词组等为单位,向音频合成部24输出所决定的语调信息。
实施方式2的合成控制部23在将语调信息输出至音频合成部24的同时,将对应于该语调信息的词组等输出至显示指示部25。
音频合成部24与上述实施方式1相同,基于从合成控制部23输出的语调信息生成合成音频,并指示扬声器5输出合成音频。
实施方式2的显示指示部25对于从合成控制部23输出的词组等是否存在于存储部20进行判定。即,对从合成控制部23输出的词组等是否为声音识别对象语进行判定。在从合成控制部23输出的词组等存在于存储部20的情况下,显示指示部25指示显示器4显示该词组等即声音识别对象语。
在图7中,合成控制部23虽然从获取部10获取朗读文本并分割成词组等,但是也可以从提取部22获取已完成分割的词组等。
显示指示部25参照存储部20对词组等是否为声音识别对象语进行判断,但也可以是合成控制部23进行该判定。在该情况下,合成控制部23在将语调信息输出至音频合成部24时,对于对应于该语调信息的词组等是否存在于存储部20进行判定,并对显示指示部25输出存在于存储部20的词组等,不存在于存储部20的词组等则不输出。显示指示部25仅指示显示器4显示从合成控制部23输出的词组等。
另外,与上述实施方式1相同,显示指示部25也可以进行指示以使得在将声音识别对象语显示于显示器4时进行强调显示。并且,显示指示部25也可以进行指示,以使得将显示声音识别对象语的显示区域C1~C3(在图2中示出)设为用于选择声音识别对象语的软按键。
接着,使用图8的流程图,说明信息处理控制部21的动作。
此处,将朗读文本设为“首相、消费税增税判断、启动专家讨论的政策‘若通货紧缩难以摆脱则考虑’”,将声音识别对象语作为“首相”、“消费税”、“通货紧缩”来进行说明。
首先,提取部22对上述的朗读文本以词组等为单位进行分割(步骤ST201),从分割得到的词组等提取声音识别对象语(步骤ST202)。
此处,词典生成部16基于由提取部12提取出的上述3个声音识别对象语,来生成识别词典17(步骤ST203)。
提取部22将提取出的3个声音识别对象语存储于存储部20(步骤ST204)。
接着,合成控制部23将上述的朗读文本以词组等为单位进行分割,决定音频合成所需要的语调信息(步骤ST205)。而且,合成控制部23从分割得到的词组等的开头起(此处是“首相”),依次以词组等为单位,将语调信息和词组等输出至音频合成部24和显示指示部25(步骤ST206)。
音频合成部24基于从合成控制部23输出的词组等为单位的语调信息,生成词组等的合成音频,输出至扬声器5,从而进行朗读(步骤ST207)。
与步骤ST207并行地,显示指示部25对于从合成控制部23输出的词组等是否与存在于存储部20中的声音识别对象语一致进行判定(步骤ST208)。在从合成控制部23输出的词组等与存储部20的声音识别对象语一致的情况下(步骤ST208“是”),显示指示部25指示显示器4显示该词组等(步骤ST209)。另一方面,在从合成控制部23输出的词组等与存储部20的声音识别对象语不一致的情况下(步骤ST208“否”),音频合成部24跳过步骤ST209。
由于朗读文本的开头的词组等“首相”为声音识别对象语,因此在该词语被朗读的同时,显示于显示器4的显示区域C1(图2中示出)。
接着,合成控制部23对是否输出了朗读文本的全部词组等进行判定(步骤ST210)。由于现阶段只完成输出开头的词组等(步骤ST210“否”),合成控制部23返回至步骤ST206。若完成输出从朗读文本的开头的词组等到最后的词组等(步骤ST210“是”),则合成控制部23结束一系列的处理。
由此,如图2所示,在对朗读文本“首相、消费税增税判断、启动专家讨论的政策‘若通货紧缩难以摆脱则考虑’”中的“首相”“消费税”“通货紧缩”进行朗读的时刻,在显示区域C1~C3显示“首相”“消费税”“通货紧缩”。
用户通过说出显示于显示区域C1~C3的声音识别对象语,能接受与该声音识别对象语关联的附加信息的提供。
如上所述,根据实施方式2,信息提供系统1包括:提取部22,其将包含在朗读文本中的词组等中的能从信息源获取与该词组等相关的附加信息的词组等作为声音识别对象语进行提取;合成控制部23,其输出对朗读文本进行朗读的音频进行合成所用的语调信息以及提取部12所提取出的声音识别对象语;音频合成部24,其使用从合成控制部23接收到的语调信息来对朗读文本进行朗读;以及显示指示部25,其指示显示器4与音频合成部24朗读声音识别对象语的时刻相应地显示从合成控制部23接收到的声音识别对象语。显示指示部25与音频合成部24朗读词组等的时刻相应地从合成控制部23接收该词组等,在接收到的该词组等为声音识别对象语的情况下,将其显示于显示器4。由此,在朗读文本时,在朗读声音识别对象语的时刻进行显示,因此即使在朗读文本未显示于画面上、或者能显示于画面上的文字数量受到限制的情况下,也能将包含在该文本中的声音识别对象语明示给用户。
实施方式3.
图9是示出本发明的实施方式3所涉及的信息提供系统1的结构例的框图。在图9中,对于与图4及图7相同或者相当的部分标注相同标号并省略说明。
实施方式3的信息提供系统1具备存储声音识别对象语的存储部30。实施方式3的信息处理控制部31具备朗读方法变更部36,其用于在对朗读文本进行朗读时区分声音识别对象语与除此以外的词组等。
实施方式3的信息处理控制部31通过具备朗读方法变更部36,从而与上述实施方式2的信息处理控制部21有一部分动作不同,因此以下进行说明。
提取部32与上述实施方式2相同,对由获取部10获取到的朗读文本进行分析并分割成词组等,从分割得到的词组等中提取声音识别对象语并存储于存储部30。
合成控制部33与上述实施方式2相同,对由获取部10获取到的朗读文本进行分析并分割成词组等,以词组等为单位决定语调信息。
实施方式3的合成控制部33对于词组等是否存在于存储部30进行判定。即,对该词组等是否为声音识别对象语进行判定。而且,合成控制部33从朗读文本的开头起以词组等为单位向音频合成部34输出所决定的语调信息。此时,若与输出的语调信息对应的词组等为声音识别对象语,则合成控制部33指示朗读方法变更部36变更该词组等的朗读方法。而且,若与输出的语调信息对应的词组等为声音识别对象语,则合成控制部33向显示指示部35输出该词组等。
仅在合成控制部33发出了变更词组等的朗读方法的指示的情况下,朗读方法变更部36重新决定语调信息来变更朗读方法。朗读方法的变更是利用下述方法中的至少一种来进行的:即,变更朗读的音高(声音的高度)、变更朗读的速度、变更朗读前后的暂停的有无、变更朗读的音量、以及变更朗读中的效果音的有无。
为了使用户容易辨别声音识别对象语与除此以外的词组等,优选为使朗读声音识别对象语的音高变高、或者在声音识别对象语的前后插入暂停、或者使朗读声音识别对象语的音量变大、或者在声音识别对象语的朗读过程中附加效果音。
音频合成部34基于从朗读方法变更部36输出的语调信息生成合成音频,并指示扬声器5输出合成音频。
显示指示部35指示显示器4显示从合成控制部33输出的词组等。在实施方式3中,从合成控制部33输出至显示指示部35的词组等全部为声音识别对象语。
另外,在图9中,合成控制部33虽然从获取部10获取朗读文本并分割成词组等,但是也可以从提取部32获取已分割完成的词组等。
另外,与上述实施方式1相同,显示指示部35也可以进行指示,使得在将声音识别对象语显示于显示器4时,进行强调显示。并且,显示指示部35也可以进行指示,使得将显示声音识别对象语的显示区域C1~C3(在图2中示出)设为用于选择声音识别对象语的软按键。
接着,使用图10的流程图,说明信息处理控制部31的动作。
此处,将朗读文本设为“首相、消费税增税判断、启动专家讨论的政策‘若通货紧缩难以摆脱则考虑’”,将声音识别对象语作为“首相”“消费税”“通货紧缩”来进行说明。
首先,提取部32对上述的朗读文本以词组等为单位进行分割(步骤ST301),从分割得到的词组等提取声音识别对象语(步骤ST302)。
此处,词典生成部16基于由提取部32提取出的上述3个声音识别对象语,来生成识别词典17(步骤ST303)。
提取部32将提取出的3个声音识别对象语存储于存储部30(步骤ST304)。
接着,合成控制部33将上述的朗读文本以词组等为单位进行分割,决定音频合成所需要的语调信息(步骤ST305)。而且,在合成控制部33从分割得到的词组等的开头起(此处是“首相”),依次以词组等为单位,将语调信息输出至朗读方法变更部36时,合成控制部33对于该词组等是否存储在存储部30,即是不是声音识别对象语进行判定(步骤ST306)。
在输出的词组等是声音识别对象语的情况下(步骤ST306“是”),合成控制部33对朗读方法变更部36输出该词组等的语调信息和朗读变更指示(步骤ST307)。
朗读方法变更部36根据从合成控制部33输出的朗读变更指示,重新决定声音识别对象语的语调信息,并对音频合成部34进行输出(步骤ST308)。
音频合成部34基于由朗读方法变更部36重新决定的语调信息,生成声音识别对象语的合成音频,输出至扬声器5,并进行朗读(步骤ST309)。
与步骤ST307~ST309并行地,合成控制部33将与输出至朗读方法变更部36的语调信息对应的声音识别对象语输出至显示指示部35(步骤ST310)。显示指示部35指示显示器4显示从合成控制部33输出的声音识别对象语。
由于朗读文本的开头的词组等”首相”为声音识别对象语,因此在改变朗读方法的同时,显示于显示器4的显示区域C1(图2中示出)。
另一方面,在输出的词组等不是声音识别对象语的情况下(步骤ST306“否”),合成控制部33对朗读方法变更部36输出该词组等的语调信息(步骤ST311)。没有从合成控制部33向显示指示部35的输出。
朗读方法变更部36将从合成控制部33输出的词组等的语调信息直接输出至音频合成部34,音频合成部34基于该语调信息,生成词组等的合成音频,输出至扬声器5,并进行朗读(步骤ST312)。
接着,合成控制部33对从朗读文本的开头的词组等到最后的词组等为止,判定是否输出了全部词组等(步骤ST313)。合成控制部33在未完成输出朗读文本的全部词组等的情况下(步骤ST313“否”),返回至步骤ST306,在完成输出的情况下(步骤ST313“是”),结束一系列的处理。
由此,如图2所示,在对朗读文本“首相、消费税增税判断、启动专家讨论的政策‘若通货紧缩难以摆脱则考虑’”中的“首相”“消费税”“通货紧缩”进行朗读的时刻,改变朗读方法并且在显示区域C1~C3显示“首相”“消费税”“通货紧缩”。
用户通过说出朗读方法已被改变的、或者显示于显示区域C1~C3的声音识别对象语,从而能接受与该词语关联的附加信息的提供。
如上所述,根据实施方式3,信息提供系统1包括:提取部32,其将包含在朗读文本中的词组等中的能从信息源获取与该词组等相关的附加信息的词组等作为声音识别对象语进行提取;合成控制部33,其输出对朗读文本进行朗读的音频进行合成所用的语调信息以及提取部32所提取出的声音识别对象语;音频合成部34,其使用从合成控制部33接收到的语调信息来对朗读文本进行朗读;以及显示指示部35,其与音频合成部34朗读声音识别对象语的时刻相对应地,指示显示器4显示从合成控制部33接收到的声音识别对象语。显示指示部35与音频合成部34朗读声音识别对象语的时刻相应地,从合成控制部33接收该声音识别对象语,因此将接收到的该声音识别对象语显示于显示器4。由此,在朗读文本时,在朗读声音识别对象语的时刻进行显示,因此即使在朗读文本未显示于画面上、或者能显示于画面上的文字数量受到限制的情况下,也能将包含在该文本中的声音识别对象语明示给用户。
根据实施方式3,信息提供系统1具备朗读方法变更部36,其用于使朗读文本中的声音识别对象语与除此以外的词组等的音频合成部34朗读的方法发生变更。由此,用户在驾驶负荷较高的情况下等无暇观察画面的状况下,也能掌握声音识别对象语,因此提高便利性。
另外,朗读方法变更部36能追加到上述实施方式1、2的信息提供系统1中。
上述实施方式1~3中,虽然信息提供系统1构成为适用于日语的朗读文本,但是也可以构成为适用于日语以外的语言。
此外,本申请发明在其发明的范围内,能进行各实施方式的自由组合或者进行各实施方式的任意的构成要素的变形、或者在各实施方式中能省略任意的构成要素。
工业上的实用性
本发明的信息提供系统设为在朗读文本时,与朗读声音识别对象语的时刻相应地显示声音识别对象语,因此也能适用于能显示于画面上的文字数量受到限制的车载设备以及移动信息终端等。
标号说明
1 信息提供系统,
2 网络,
3 Web服务器(信息源),
4 显示器(显示部),
5 扬声器,
6 麦克风,
10 获取部,
11、21、31 信息处理控制部,
12、22、32 提取部,
13、23、33 合成控制部,
14、24、34 音频合成部,
15、25、35 显示指示部,
16 词典生成部,
17 识别词典,
18 音频识别部,
20、30 存储部,
36 朗读方法变更部,
101 CPU,
102 ROM,
103 RAM,
104 输入装置,
105 通信装置,
106 HDD,
107 输出装置。
Claims (6)
1.一种信息提供系统,其特征在于,包括:提取部,其将包含在文本中的单词或者词组中的能从信息源获取与该单词或者词组相关的信息的单词或者词组作为声音识别对象语进行提取;
合成控制部,其输出对朗读所述文本的音频进行合成所用的信息以及所述提取部提取出的所述声音识别对象语;音频合成部,其使用从所述合成控制部接收到的所述信息来朗读所述文本;以及
显示指示部,其指示显示部与所述音频合成部朗读所述声音识别对象语的时刻相应地显示从所述合成控制部接收到的所述声音识别对象语。
2.如权利要求1所述的信息提供系统,其特征在于,所述显示指示部指示所述显示部对所述声音识别对象语进行强调显示。
3.如权利要求2所述的信息提供系统,其特征在于,所述强调显示是利用下述方法中的至少一种来进行的:即,字体、文字的大小、文字颜色、背景颜色、亮度、闪烁、以及附加符号。
4.如权利要求1所述的信息提供系统,其特征在于,具备朗读方法变更部,其用于使所述音频合成部对于所述文本中的所述声音识别对象语与除此以外的文本的朗读方法进行变更。
5.如权利要求4所述的信息提供系统,其特征在于,所述朗读方法的变更是利用下述方法中的至少一种来进行的:即,变更朗读的音高、变更朗读的速度、变更朗读前后的暂停的有无、变更朗读的音量、以及变更朗读中的效果音的有无。
6.如权利要求1所述的信息提供系统,其特征在于,所述显示指示部进行指示,使得将所述显示部显示所述声音识别对象语的区域作为选择该声音识别对象语的软按键。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2014/081087 WO2016084129A1 (ja) | 2014-11-25 | 2014-11-25 | 情報提供システム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107004404A true CN107004404A (zh) | 2017-08-01 |
CN107004404B CN107004404B (zh) | 2021-01-29 |
Family
ID=56073754
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201480083606.4A Expired - Fee Related CN107004404B (zh) | 2014-11-25 | 2014-11-25 | 信息提供系统 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20170309269A1 (zh) |
JP (1) | JP6073540B2 (zh) |
CN (1) | CN107004404B (zh) |
DE (1) | DE112014007207B4 (zh) |
WO (1) | WO2016084129A1 (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109817208A (zh) * | 2019-01-15 | 2019-05-28 | 上海交通大学 | 一种适合各地方言的驾驶员语音智能交互设备及方法 |
US10896686B2 (en) | 2019-05-29 | 2021-01-19 | Capital One Services, Llc | Methods and systems for providing images for facilitating communication |
US10878800B2 (en) * | 2019-05-29 | 2020-12-29 | Capital One Services, Llc | Methods and systems for providing changes to a voice interacting with a user |
US11367429B2 (en) * | 2019-06-10 | 2022-06-21 | Microsoft Technology Licensing, Llc | Road map for audio presentation of communications |
Citations (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020091529A1 (en) * | 2001-01-05 | 2002-07-11 | Whitham Charles L. | Interactive multimedia book |
CN1369834A (zh) * | 2001-01-24 | 2002-09-18 | 松下电器产业株式会社 | 语音转换设备、语音转换方法、程序以及媒介 |
US6457031B1 (en) * | 1998-09-02 | 2002-09-24 | International Business Machines Corp. | Method of marking previously dictated text for deferred correction in a speech recognition proofreader |
JP2003108171A (ja) * | 2001-09-27 | 2003-04-11 | Clarion Co Ltd | 文書読み上げ装置 |
US20030177005A1 (en) * | 2002-03-18 | 2003-09-18 | Kabushiki Kaisha Toshiba | Method and device for producing acoustic models for recognition and synthesis simultaneously |
JP2004163265A (ja) * | 2002-11-13 | 2004-06-10 | Nissan Motor Co Ltd | ナビゲーション装置 |
CN1617224A (zh) * | 2004-09-06 | 2005-05-18 | 华南理工大学 | 文本的自然语音伴音装置及文本和自然语音自动同步方法 |
US20050131673A1 (en) * | 1999-01-07 | 2005-06-16 | Hitachi, Ltd. | Speech translation device and computer readable medium |
JP2005190349A (ja) * | 2003-12-26 | 2005-07-14 | Mitsubishi Electric Corp | メール読み上げ装置 |
US20060080034A1 (en) * | 2004-06-25 | 2006-04-13 | Denso Corporation | Car navigation device |
JP2006243521A (ja) * | 2005-03-04 | 2006-09-14 | Sony Corp | 文章出力装置、その方法及びプログラム |
CN1942875A (zh) * | 2004-04-12 | 2007-04-04 | 松下电器产业株式会社 | 对话支援装置 |
CN101145341A (zh) * | 2006-09-04 | 2008-03-19 | 美商富迪科技股份有限公司 | 改善语音辨识的方法与装置以及语音辨识系统 |
CN101266789A (zh) * | 2007-03-14 | 2008-09-17 | 佳能株式会社 | 语音合成设备及方法 |
CN101281518A (zh) * | 2007-03-28 | 2008-10-08 | 株式会社东芝 | 语音翻译装置和方法 |
CN101520780A (zh) * | 2008-02-29 | 2009-09-02 | 株式会社东芝 | 语音翻译设备 |
JP2010085727A (ja) * | 2008-09-30 | 2010-04-15 | Casio Computer Co Ltd | 辞書機能を備えた電子装置およびプログラム |
CN101996231A (zh) * | 2009-08-07 | 2011-03-30 | 卡西欧计算机株式会社 | 文本显示装置及文本显示方法 |
CN102314778A (zh) * | 2010-06-29 | 2012-01-11 | 鸿富锦精密工业(深圳)有限公司 | 电子阅读器 |
CN102314874A (zh) * | 2010-06-29 | 2012-01-11 | 鸿富锦精密工业(深圳)有限公司 | 文本到语音转换系统与方法 |
WO2013154296A1 (ko) * | 2012-04-13 | 2013-10-17 | Choi Byoung Ki | 발명의 명칭 문자열을 발음 단위로 분할하는 방법, 이를 이용하는 문자열의 어조 표현 방법 및 문자열의 어조를 표현하는 동영상 데이터가 저장된 저장매체 |
CN103530415A (zh) * | 2013-10-29 | 2014-01-22 | 谭永 | 一种兼容关键词搜索的自然语言搜索方法及系统 |
US8731905B1 (en) * | 2012-02-22 | 2014-05-20 | Quillsoft Ltd. | System and method for enhancing comprehension and readability of text |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5924068A (en) * | 1997-02-04 | 1999-07-13 | Matsushita Electric Industrial Co. Ltd. | Electronic news reception apparatus that selectively retains sections and searches by keyword or index for text to speech conversion |
JPH1125098A (ja) | 1997-06-24 | 1999-01-29 | Internatl Business Mach Corp <Ibm> | 情報処理装置、リンク先ファイルの取得方法および記憶媒体 |
US6064965A (en) * | 1998-09-02 | 2000-05-16 | International Business Machines Corporation | Combined audio playback in speech recognition proofreader |
US6876969B2 (en) * | 2000-08-25 | 2005-04-05 | Fujitsu Limited | Document read-out apparatus and method and storage medium |
US7120583B2 (en) * | 2000-10-02 | 2006-10-10 | Canon Kabushiki Kaisha | Information presentation system, information presentation apparatus, control method thereof and computer readable memory |
US8799401B1 (en) * | 2004-07-08 | 2014-08-05 | Amazon Technologies, Inc. | System and method for providing supplemental information relevant to selected content in media |
FR2884023B1 (fr) * | 2005-03-31 | 2011-04-22 | Erocca | Dispositif pour la communication par des personnes handicapees de la parole et/ou de l'ouie |
JP4675691B2 (ja) | 2005-06-21 | 2011-04-27 | 三菱電機株式会社 | コンテンツ情報提供装置 |
US20070211071A1 (en) * | 2005-12-20 | 2007-09-13 | Benjamin Slotznick | Method and apparatus for interacting with a visually displayed document on a screen reader |
US20080208589A1 (en) * | 2007-02-27 | 2008-08-28 | Cross Charles W | Presenting Supplemental Content For Digital Media Using A Multimodal Application |
JP2010139826A (ja) * | 2008-12-12 | 2010-06-24 | Toyota Motor Corp | 音声認識システム |
JP5220912B2 (ja) * | 2011-10-26 | 2013-06-26 | 京セラ株式会社 | 音声合成機能付き文字情報表示装置およびその制御方法 |
US9162574B2 (en) * | 2011-12-20 | 2015-10-20 | Cellco Partnership | In-vehicle tablet |
US9317486B1 (en) * | 2013-06-07 | 2016-04-19 | Audible, Inc. | Synchronizing playback of digital content with captured physical content |
-
2014
- 2014-11-25 JP JP2016561111A patent/JP6073540B2/ja not_active Expired - Fee Related
- 2014-11-25 WO PCT/JP2014/081087 patent/WO2016084129A1/ja active Application Filing
- 2014-11-25 DE DE112014007207.9T patent/DE112014007207B4/de not_active Expired - Fee Related
- 2014-11-25 US US15/516,844 patent/US20170309269A1/en not_active Abandoned
- 2014-11-25 CN CN201480083606.4A patent/CN107004404B/zh not_active Expired - Fee Related
Patent Citations (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6457031B1 (en) * | 1998-09-02 | 2002-09-24 | International Business Machines Corp. | Method of marking previously dictated text for deferred correction in a speech recognition proofreader |
US20050131673A1 (en) * | 1999-01-07 | 2005-06-16 | Hitachi, Ltd. | Speech translation device and computer readable medium |
US20020091529A1 (en) * | 2001-01-05 | 2002-07-11 | Whitham Charles L. | Interactive multimedia book |
CN1369834A (zh) * | 2001-01-24 | 2002-09-18 | 松下电器产业株式会社 | 语音转换设备、语音转换方法、程序以及媒介 |
JP2003108171A (ja) * | 2001-09-27 | 2003-04-11 | Clarion Co Ltd | 文書読み上げ装置 |
US20030177005A1 (en) * | 2002-03-18 | 2003-09-18 | Kabushiki Kaisha Toshiba | Method and device for producing acoustic models for recognition and synthesis simultaneously |
JP2004163265A (ja) * | 2002-11-13 | 2004-06-10 | Nissan Motor Co Ltd | ナビゲーション装置 |
JP2005190349A (ja) * | 2003-12-26 | 2005-07-14 | Mitsubishi Electric Corp | メール読み上げ装置 |
CN1942875A (zh) * | 2004-04-12 | 2007-04-04 | 松下电器产业株式会社 | 对话支援装置 |
US20060080034A1 (en) * | 2004-06-25 | 2006-04-13 | Denso Corporation | Car navigation device |
CN1617224A (zh) * | 2004-09-06 | 2005-05-18 | 华南理工大学 | 文本的自然语音伴音装置及文本和自然语音自动同步方法 |
JP2006243521A (ja) * | 2005-03-04 | 2006-09-14 | Sony Corp | 文章出力装置、その方法及びプログラム |
CN101145341A (zh) * | 2006-09-04 | 2008-03-19 | 美商富迪科技股份有限公司 | 改善语音辨识的方法与装置以及语音辨识系统 |
CN101266789A (zh) * | 2007-03-14 | 2008-09-17 | 佳能株式会社 | 语音合成设备及方法 |
CN101281518A (zh) * | 2007-03-28 | 2008-10-08 | 株式会社东芝 | 语音翻译装置和方法 |
CN101520780A (zh) * | 2008-02-29 | 2009-09-02 | 株式会社东芝 | 语音翻译设备 |
JP2010085727A (ja) * | 2008-09-30 | 2010-04-15 | Casio Computer Co Ltd | 辞書機能を備えた電子装置およびプログラム |
CN101996231A (zh) * | 2009-08-07 | 2011-03-30 | 卡西欧计算机株式会社 | 文本显示装置及文本显示方法 |
CN102314778A (zh) * | 2010-06-29 | 2012-01-11 | 鸿富锦精密工业(深圳)有限公司 | 电子阅读器 |
CN102314874A (zh) * | 2010-06-29 | 2012-01-11 | 鸿富锦精密工业(深圳)有限公司 | 文本到语音转换系统与方法 |
US8731905B1 (en) * | 2012-02-22 | 2014-05-20 | Quillsoft Ltd. | System and method for enhancing comprehension and readability of text |
WO2013154296A1 (ko) * | 2012-04-13 | 2013-10-17 | Choi Byoung Ki | 발명의 명칭 문자열을 발음 단위로 분할하는 방법, 이를 이용하는 문자열의 어조 표현 방법 및 문자열의 어조를 표현하는 동영상 데이터가 저장된 저장매체 |
CN103530415A (zh) * | 2013-10-29 | 2014-01-22 | 谭永 | 一种兼容关键词搜索的自然语言搜索方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
DE112014007207T5 (de) | 2017-08-03 |
US20170309269A1 (en) | 2017-10-26 |
CN107004404B (zh) | 2021-01-29 |
DE112014007207B4 (de) | 2019-12-24 |
JP6073540B2 (ja) | 2017-02-01 |
JPWO2016084129A1 (ja) | 2017-04-27 |
WO2016084129A1 (ja) | 2016-06-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109785820B (zh) | 一种处理方法、装置及设备 | |
EP3346463A1 (en) | Identity verification method and apparatus based on voiceprint | |
US20190172456A1 (en) | Method for sharing photograph based on voice recognition, apparatus and system for the same | |
CN107707745A (zh) | 用于提取信息的方法和装置 | |
CN110503961A (zh) | 音频识别方法、装置、存储介质及电子设备 | |
CN107004404A (zh) | 信息提供系统 | |
CN110136689B (zh) | 基于迁移学习的歌声合成方法、装置及存储介质 | |
CN110738998A (zh) | 基于语音的个人信用评估方法、装置、终端及存储介质 | |
KR20080057030A (ko) | 이모티콘을 이용한 화상통화장치 및 방법 | |
KR20190066537A (ko) | 음성인식 기반의 사진 공유 방법, 장치 및 시스템 | |
JP2011070267A (ja) | 画像表示装置及び方法並びにプログラム | |
CN114143479B (zh) | 视频摘要的生成方法、装置、设备以及存储介质 | |
CN109947971A (zh) | 图像检索方法、装置、电子设备及存储介质 | |
KR101567449B1 (ko) | 음성인식에 기반한 애니메이션 재생이 가능한 전자책 단말기 및 그 방법 | |
CN113345431A (zh) | 跨语言语音转换方法、装置、设备及介质 | |
JP2019041192A (ja) | データ改ざん検出装置、データ改ざん検出方法、および画像データのデータ構造 | |
CN108573713A (zh) | 语音识别装置、语音识别方法以及存储介质 | |
EP4276827A1 (en) | Speech similarity determination method, device and program product | |
CN114242075A (zh) | 基于人脸和声纹的身份认证方法、装置以及设备 | |
CN112951256A (zh) | 语音处理方法及装置 | |
KR100577558B1 (ko) | 오디오 컨텐츠와 텍스트를 동기화시키는 동기신호삽입/검출 방법 및 장치 | |
CN113177457B (zh) | 用户服务方法、装置、设备及计算机可读存储介质 | |
US20240112691A1 (en) | Synthesizing audio for synchronous communication | |
Engell | TaleTUC: Text-to-Speech and Other Enhancements to Existing Bus Route Information Systems | |
US20230082325A1 (en) | Utterance end detection apparatus, control method, and non-transitory storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20210129 |
|
CF01 | Termination of patent right due to non-payment of annual fee |