CN109285548A - 信息处理方法、系统、电子设备、和计算机存储介质 - Google Patents
信息处理方法、系统、电子设备、和计算机存储介质 Download PDFInfo
- Publication number
- CN109285548A CN109285548A CN201710592686.1A CN201710592686A CN109285548A CN 109285548 A CN109285548 A CN 109285548A CN 201710592686 A CN201710592686 A CN 201710592686A CN 109285548 A CN109285548 A CN 109285548A
- Authority
- CN
- China
- Prior art keywords
- text information
- information
- audio
- text
- audio information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 56
- 238000003672 processing method Methods 0.000 title claims abstract description 39
- 238000000034 method Methods 0.000 claims abstract description 54
- 230000006854 communication Effects 0.000 claims description 38
- 238000004891 communication Methods 0.000 claims description 36
- 238000012512 characterization method Methods 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 17
- 239000013598 vector Substances 0.000 description 56
- 230000008569 process Effects 0.000 description 21
- 238000013461 design Methods 0.000 description 17
- 238000012545 processing Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 15
- 239000011159 matrix material Substances 0.000 description 15
- 230000000694 effects Effects 0.000 description 14
- 239000000203 mixture Substances 0.000 description 11
- 239000002994 raw material Substances 0.000 description 11
- 238000001514 detection method Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 230000006872 improvement Effects 0.000 description 8
- 230000015654 memory Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 230000009467 reduction Effects 0.000 description 5
- 238000012827 research and development Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000012937 correction Methods 0.000 description 4
- 239000000463 material Substances 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 229910052799 carbon Inorganic materials 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 230000002045 lasting effect Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/103—Formatting, i.e. changing of presentation of documents
- G06F40/106—Display of layout of documents; Previewing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/189—Automatic justification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/18—Legal services
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/06—Decision making techniques; Pattern matching strategies
- G10L17/14—Use of phonemic categorisation or speech recognition prior to speaker recognition or verification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/24—Speech recognition using non-acoustical features
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/228—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- Business, Economics & Management (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Tourism & Hospitality (AREA)
- Artificial Intelligence (AREA)
- Technology Law (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Game Theory and Decision Science (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本说明书实施方式公开了一种信息处理方法、系统、电子设备、和计算机存储介质。所述方法针对多人沟通对话的内容,将记录人员的记录信息,与语音识别得到的内容,进行对应展示。以便于记录人员可以完善记录的内容。
Description
技术领域
本说明书涉及计算机技术领域,特别涉及一种信息处理方法、系统、电子设备、和计算机存储介质。
背景技术
现实的生活中,人们会在一起沟通,讨论事项。在沟通过程中通常会指定人员记录沟通的事项形成记录。具体的,例如,在工作过程中,多人进行的会议,需要进行会议记录;法院进行庭审之后,形成庭审记录等。
传统,人们多采用手写的方式进行记录,由于手写速度较慢,在纸张上书写的记录后期可编辑性较差,使得人们逐渐多采用电脑制作记录。比如,在庭审过程中,会由书记员操作电脑制作庭审记录。
发明内容
本说明书实施方式的目的是提供一种信息处理方法、电子设备和计算机存储介质。本说明书实施方式可以便于生成记录。
为实现上述目的,本说明书实施方式提供一种信息处理方法,所述方法包括:接收第一输入设备输入的第一文本信息;所述第一文本信息为根据语音生成;接收第二输入设备录制的音频信息;其中,所述音频信息为根据所述语音录制生成;对所述音频信息进行语音识别得到第二文本信息;展示所述第一文本信息和所述第二文本信息,其中,所述第一文本信息和所述第二文本信息中内容存在对应关系。
本说明书实施方式还提供一种信息处理系统,所述信息处理系统包括:输入设备、音频采集终端、显示器和处理器;所述输入设备,用于接收用户输入的第一文本信息;所述第一文本信息为用户根据语音进行输入;所述音频采集终端,用于录制音频信息;其中,所述音频信息为根据所述语音录制生成;所述处理器,用于对所述音频信息进行语音识别得到第二文本信息;所述显示器,用于展示所述第一文本信息和所述第二文本信息,其中,所述第一文本信息和所述第二文本信息中内容存在对应关系。
本说明书实施方式还提供一种计算机存储介质,所述计算机存储介质存储有计算机程序指令,所述计算机程序指令被执行时实现:接收第一输入设备输入的第一文本信息,所述第一文本信息为根据语音生成;接收第二输入设备录制的音频信息,其中,所述音频信息为根据所述语音录制生成;对所述音频信息进行语音识别得到第二文本信息;展示所述第一文本信息和所述第二文本信息,其中,所述第一文本信息和所述第二文本信息中内容存在对应关系。
本说明书实施方式还提供一种信息处理方法,所述方法包括:接收第一输入设备输入的第一文本信息;所述第一文本信息为根据语音生成;接收第二输入设备录制的音频信息;其中,所述音频信息为根据所述语音录制生成;将所述音频信息或所述音频信息的表征信息发送给服务器,以用于所述服务器进行语音识别;接收所述服务器反馈的语音识别得到的第二文本信息;展示所述第一文本信息和所述第二文本信息,其中,所述第一文本信息和所述第二文本信息中内容存在对应关系。
本说明书实施方式还提供一种信息处理系统,所述信息处理系统包括:输入设备、音频采集终端、网络通信单元、显示器;所述输入设备,用于接收用户输入的第一文本信息;所述第一文本信息为用户根据语音进行输入;所述音频采集终端,用于录制音频信息;其中,所述音频信息为根据所述语音录制生成;所述网络通信单元,用于将所述音频信息或所述音频信息的表征信息发送给服务器,以用于所述服务器进行语音识别;接收所述服务器反馈的语音识别得到的第二文本信息;所述显示器,用于展示所述第一文本信息和所述第二文本信息,其中,所述第一文本信息和所述第二文本信息中内容存在对应关系。
本说明书实施方式还提供一种计算机存储介质,所述计算机存储介质存储有计算机程序指令,所述计算机程序指令被执行时实现:接收第一输入设备输入的第一文本信息,所述第一文本信息为根据语音生成;接收第二输入设备录制的音频信息,其中,所述音频信息为根据所述语音录制生成;将所述音频信息或所述音频信息的表征信息发送给服务器,以用于所述服务器进行语音识别;接收所述服务器反馈的语音识别得到的第二文本信息;展示所述第一文本信息和所述第二文本信息,其中,所述第一文本信息和所述第二文本信息中内容存在对应关系。
本说明书实施方式还提供一种信息处理方法,所述方法包括:接收客户端发送的音频信息或音频信息的表征信息;对所述音频信息或者所述表征信息进行语音识别得到第二文本信息;将所述第二文本信息发送给所述客户端,以用于所述客户端将所述第二文本信息与第一客户端的第一文本信息进行展示;其中,所述第一文本信息和所述第二文本信息中内容存在对应关系。
本说明书实施方式还提供一种电子设备,所述电子设备包括:网络通信单元和处理器;所述网络通信单元,用于接收客户端发送的音频信息或音频信息的表征信息;将所述处理器提供的第二文本信息发送给所述客户端,以用于所述客户端将所述第二文本信息与第一客户端的第一文本信息进行展示;其中,所述第一文本信息和所述第二文本信息中内容存在对应关系;所述处理器,用于对所述音频信息或者所述表征信息进行语音识别得到第二文本信息。
本说明书实施方式还提供一种计算机存储介质,所述计算机存储介质中存储有计算机程序指令,所述计算机程序指令被执行时可以实现:接收客户端发送的音频信息或音频信息的表征信息;对所述音频信息或者所述表征信息进行语音识别得到第二文本信息;将所述第二文本信息发送给所述客户端,以用于所述客户端将所述第二文本信息与第一客户端的第一文本信息进行展示,其中,所述第一文本信息和所述第二文本信息中内容存在对应关系。
本说明书实施方式还提供一种信息处理方法,包括:接收第一文本信息;所述第一文本信息为根据语音生成;接收音频信息;其中,所述音频信息为根据所述语音录制生成;对所述音频信息进行语音识别得到第二文本信息;根据所述第一文本信息和所述第二文本信息之间的对应关系进行排版,所述排版后的所述第一文本信息和所述第二文本信息用于展示。
本说明书实施方式还提供一种电子设备,所述电子设备包括处理器,所述处理器用于接收第一文本信息,所述第一文本信息为根据语音生成;接收音频信息,其中,所述音频信息为根据所述语音录制生成;对所述音频信息进行语音识别得到第二文本信息;根据所述第一文本信息和所述第二文本信息之间的对应关系进行排版,所述排版后的所述第一文本信息和所述第二文本信息用于展示。
本说明书实施方式还提供一种计算机存储介质,所述计算机存储介质中存储有计算机程序指令,所述计算机程序指令被执行时实现:接收第一文本信息,所述第一文本信息为根据语音生成;接收音频信息,其中,所述音频信息为根据所述语音录制生成;对所述音频信息进行语音识别得到第二文本信息;根据所述第一文本信息和所述第二文本信息之间的对应关系进行排版,所述排版后的所述第一文本信息和所述第二文本信息用于展示。
本说明书实施方式还提供一种信息处理方法,所述方法包括:接收第一输入设备输入的第一文本信息;所述第一文本信息为根据语音生成;接收第二输入设备录制的音频信息;其中,所述音频信息为根据所述语音录制生成;对所述音频信息进行识别得到第二文本信息;在第一区域展示所述第一文本信息;在第二区域展示所述第二文本信息,其中,所述第一文本信息和所述第二文本信息中内容存在对应关系,所述第一区域和第二区域位于相同的界面中。
由以上本说明书实施方式提供的技术方案可见,通过针对同一个语音场景中,可以分别采用人工输入和录制音频后语音识别的方式得到第一文本信息和第二文本信息。利用第二文本信息可以较为全面的记录语音内容的特点,对第一文本信息进行修改。如此,使得第一文本信息可以较为全面准确,且可以突出重点,以及概要的记录语音的内容。第一文本信息相较于第二文本信息可以具有较小的篇幅,重点相对突出,可以节省阅读者的阅读时间。
附图说明
为了更清楚地说明本说明书实施方式或现有技术中的技术方案,下面将对实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书中记载的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本说明书实施方式提供的一种应用场景示意图;
图2为本说明书实施方式提供的一种信息处理方法的流程示意图;
图3为本说明书实施方式提供的一种界面的示意图;
图4为本说明书实施方式提供的一种界面的示意图;
图5为本说明书实施方式提供的一种应用场景示意图;
图6为本说明书实施方式提供的一种界面的示意图;
图7为本说明书实施方式听过的一种界面的示意图;
图8为本说明书实施方式提供的一种信息处理方法的流程示意图;
图9为本说明书实施方式提供的一种信息处理方法的流程示意图;
图10为本说明书实施方式提供的一种信息处理方法的流程示意图;
图11为本说明书实施方式提供的一种信息处理方法的流程示意图;
图12为本说明书实施方式提供的一种电子设备的模块示意图;
图13为本说明书实施方式提供的一种电子设备的架构示意图;
图14为本说明书实施方式提供的一种信息处理方法的流程示意图;
图15为本说明书实施方式提供的一种电子设备的模块示意图;
图16为本说明书实施方式提供的一种电子设备的架构示意图;
图17为本说明书实施方式提供的一种信息处理方法的流程示意图;
图18为本说明书实施方式提供的一种电子设备的模块示意图;
图19为本说明书实施方式提供的一种电子设备的架构示意图;
图20为本说明书实施方式提供的一种信息处理系统的示意图;
图21为本说明书实施方式提供的一种信息处理方法的流程示意图;
图22为本说明书实施方式提供的一种信息处理方法的流程示意图。
具体实施方式
为了使本技术领域的人员更好地理解本说明书中的技术方案,下面将结合本说明书实施方式中的附图,对本说明书实施方式中的技术方案进行清楚、完整地描述,显然,所描述的实施方式仅仅是本说明书一部分实施方式,而不是全部的实施方式。基于本说明书中的实施方式,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施方式,都应当属于本说明书保护的范围。
请参阅图20。本说明书实施方式提供一种信息处理系统。所述信息处理系统可以包括音频信息采集子系统、速记子系统、语音识别子系统、排版子系统和文本更正子系统。
在本实施方式中,音频信息采集子系统可以接收音频采集终端提供的音频信息,将音频信息提供给语音识别子系统。音频信息采集子系统可以针对音频信息进行初步筛选,以在存在多个音频采集终端时,避免将多个录制相同语音的音频信息发送给语音识别子系统。音频信息采集子系统可以将多个音频采集终端提供的音频信息,进行波形比较判断是否存在二个以上音频采集终端采集了趋于相同的音频信息。在发现二个以上音频采集终端提供的音频信息的波形趋于相同时,可以将波形能量最强的音频信息提供给语音识别子系统。
在本实施方式中,在设置有多个音频采集终端时,音频信息采集子系统可以针对每个音频采集终端对应设置一个标示名称。在将音频信息发送给语音识别子系统时,对应发送采集该音频信息的音频采集终端的标示名称。如此,使得语音识别子系统可以将识别出的内容,与标示名称对应。再者,通常一个音频采集终端设置在一个座位,供位于该座位的用户使用。使得,该标示名称与用户之间存在对应关系。
在本实施方式中,音频采集子系统可以记录接收的音频信息的接收时间。在将音频信息发送给语音识别子系统时,可以将该接收时间一并发送给语音识别子系统。当然,并不限于将接收时间和音频信息一并发给语音识别子系统,还可以为将音频信息的生成时间和音频信息一并发送给语音识别子系统。
在本实施方式中,在一次录音过程中,音频采集子系统可以持续的将该次录音过程中的全部内容作为一个音频信息。也可以为,音频采集子系统在一次录音过程中,划分多个音频信息。比如,按照录音的时长划分音频信息。例如,每录制20毫秒为一个音频信息,形成一个音频信息。当然,音频信息可以不限于20毫秒,其具体时长可以选自20毫秒至500毫秒。或者,按照数据量进行划分音频信息。例如,每个音频信息最多5MB。或者,按照音频信息中声音波形的连续情况划分音频信息,比如在相邻两个连续的波形之间存在持续一定时长的无声部分,将该音频信息中每个连续的声音波形划分为一个音频信息。
在本实施方式中,所述速记子系统用于提供给记录人员进行输入使用,即记录人员可以根据听到的语音,在记录人员的意志控制下输入的针对语音的内容进行记录的第一文本信息。速记子系统可以接收记录人员操作输入设备所输入的第一文本信息。所述速记子系统可以将记录人员输入的第一文本信息提供给排版子系统,以用于排版子系统进行排版。
在本实施方式中,速记子系统可以记录第一文本信息的时间信息。该时间信息可以是第一文本信息开始输入的时间,也可以是第一文本信息完成输入的时间。速记子系统可以将该时间信息和第一文本信息一并提供给排版子系统。
在本实施方式中,第一文本信息中可以具有对应的发言人的名称。如此使得第一文本信息可以更加直观的表示发言人的身份和内容。具体的,例如,第一文本信息可以为“小明说:‘小张欠我100元钱……’”。
在本实施方式中,语音识别子系统可以针对音频信息进行语音识别,得出表示音频信息中语音的第二文本信息。
在本实施方式中,语音识别子系统可以根据预设算法,从音频信息中采集数据,输出包括所述音频信息的音频数据的特征的特征矩阵。用户的声音会有用户自身的特征,比如音色、语调、语速等等。录制成音频信息时,可以从音频数据中的频率、振幅等角度,体现每个用户自身的声音特征。使得将音频信息按照预设算法生成的特征矩阵,会包括音频信息中音频数据的特征。进而,基于特征矩阵生成的语音特征向量,可以用于表征该音频信息和音频数据。所述预设算法可以是MFCC(Mel Frequency Cepstrum Coefficient)、MFSC(Mel Frequency Spectral Coefficient)、FMFCC(Fractional Mel Frequency CepstrumCoefficient)、DMFCC(Discriminative)、LPCC(Linear Prediction CepstrumCoefficient)等。当然,所属领域技术人员在本说明书技术精髓启示下,还可能采用其它算法实现生成音频信息的特征矩阵,但只要其实现的功能和效果与本说明书方式相同或相似,均应涵盖于本说明书保护范围内。
在本实施方式中,为了进一步区分出音频信息中用户语音的音频数据和非用户语音的音频数据。语音特征向量的生成方法中,还可以包括端点检测处理。进而,可以在特征矩阵中减少将非用户语音的音频数据对应的数据,如此,可以在一定程度上提升生成的语音特征向量与用户之间的关联程度。端点检测处理的方法可以包括但不限于基于能量的端点检测、基于倒谱特征的端点检测、基于信息熵的端点检测、基于自身相关相似距离的端点检测等,在此不再列举。
在本实施方式中,语音识别子系统可以采用语音识别算法对特征矩阵进行处理,得出音频信息中表达的第二文本信息。具体的,例如,语音识别算法可以采用隐式马尔科夫算法或神经网络算法等,对音频信息进行语音识别。
在本实施方式中,语音识别子系统识别出第二文本信息之后,可以将识别的第二文本信息提供给排版子系统。以用于所述排版子系统将第二文本信息和第一文本信息对应排版。在一些情况下,语音识别子系统接收到语音采集子系统提供的与音频信息对应的时间信息和/或标示名称。语音识别子系统可以将时间信息和/或标示名称,与第二文本信息一并提供给排版子系统。
在本实施方式中,所述排版子系统可以对接收的第一文本信息和第二文本信息进行排版。使得存在对应关系的第一文本信息和第二文本信息可以在显示时被对应展示。对应关系包括但不限于:趋于相同时间生成的音频信息和第一文本信息,该音频信息的第二文本信息与所述第一文本信息显示位置较为接近;或者,趋于相同时间生成的音频信息和第一文本信息,该音频信息的第二文本信息与所述第一文本信息具有相同的显示样式;或者,趋于相同时间生成的音频信息和第一文本信息,该音频信息的第二文本信息与所述第一文本信息有趋于接近的时间标签。
在本实施方式中,所述文本更正子系统可以用于接收记录人员对第一文本信息的修改,从而形成最终文本。第一文本信息是记录人员在多人沟通的过程中,根据听到的内容进行快速输入的文本信息。限于记录人员的输入速度,和对多人沟通的理解能力,第一文本信息的内容可能会比较精炼,但可能不够全面。在一些情况下,可能漏掉一些较为重要的内容,或者存在一些内容表达准确。第二文本信息是根据多人沟通过程中的音频信息进行语音识别得到,使得第二文本信息趋于全面记录了多人沟通的内容。但第二文本信息可能存在篇幅过长,重点不够突出的缺陷。如此,在排版子系统针对第一文本信息和第二文本信息进行排版之后,记录人员可以根据第一文本信息和对应的第二文本信息进行比较,修改第一文本信息。使得,第一文本信息可以在具有语言精练,重点突出的特点上,修正可能的表达不准确和漏记录重要内容的问题,使得第一文本信息可以更加的完善。
本说明书实施方式提供一种信息处理系统。所述信息处理系统可以包括音频采集终端和客户端;或者,音频采集终端、客户端和服务器。
在本实施方式中,所述音频采集终端可以用于将用户的语音录制生成音频信息。将所述音频信息提供给音频信息采集子系统。音频采集终端可以是一个独立的产品,其具有外壳,以及在外壳中安装有传声器和数据通信单元。例如,音频采集终端可以是一个麦克风。传声器将声音信号转换成电信号,得到音频信息,数据通信单元可以将音频信息发送至处理子系统。数据通信单元可以是有线连接的接口,也可以是无线通信的模块。具体的,例如,数据通信单元可以是蓝牙模块、Wifi模块或者音频接口等。当然,音频采集终端还可以集成在一个具有一定数据处理能力的客户端中。比如,客户端可以包括智能手机、平板电脑、笔记本电脑、个人数字助理等。
在一个实施方式中,客户端可以主要包括处理器、存储器、显示器等硬件。客户端可以具有较强的数据处理能力。客户端可以对音频信息生成特征矩阵之后,可以进行端点检测处理、降噪处理、语音识别等。具体的,例如,客户端可以是工作站、配置很好的台式电脑或笔记本电脑。
在本实施方式中,客户端可以运行前述音频信息采集子系统、速记子系统、语音识别子系统、排版子系统和文本更正子系统。
在一个实施方式中,客户端可以主要包括网络通信单元、处理器、存储器、显示器等硬件。客户端可以将音频信息通过网络通信单元发送给服务器。客户端也可以对音频信息进行一定处理,比如生成特征矩阵,将特征矩阵发送给服务器。以用于服务器针对音频信息中的内容进行语音识别等。具体的,例如,客户端可以包括:智能手机、平板电脑、台式电脑、笔记本电脑等。
在本实施方式中,客户端可以运行前述音频信息采集子系统、速记子系统、排版子系统和文本更正子系统。
当然,上述只是示例的方式列举了一些客户端。随着科学技术进步,硬件设备的性能可能会有提升,使得目前数据处理能力较弱的电子设备,也可能具备较佳的处理能力。
在本实施方式中,服务器可以是具有一定运算处理能力的电子设备。其可以具有网络通信端子、处理器和存储器等。当然,上述服务器也可以是指运行于所述电子设备中的软体。上述服务器还可以为分布式服务器,可以是具有多个处理器、存储器、网络通信模块等协同运作的系统。或者,服务器还可以为若干服务器形成的服务器集群。
在本实施方式中,服务器可以运行前述语音识别子系统。服务器也可以运行排版子系统,将排版后的数据发送给客户端。
请一并参阅图1和图2。在一个场景示例中,在法院庭审的场景中,书记员使用的客户端可以为台式电脑,以记录庭审过程中法官、原告和被告的发言内容。在法官、原告和被告的座位设置有包括传声器的音频采集终端。音频采集终端可以通过蓝牙通信技术的方式与台式电脑通信,将录制的音频信息输入给台式电脑。
请参阅图3。在本场景示例中,书记员可以使用键盘向台式电脑输入第一文本信息。该第一文本信息可以是书记员听到庭审过程中法官、原告或被告语言表达的内容,也可以是书记员根据法官、原告或被告语言表达的内容进行提炼后的内容。例如,原告张三说:“我在前年四月份借给李四5000元钱,他说过两个月就还给我。结果,过了两个月,我去找他要,他就往后拖着。一直到现在,我去找他四次,他都以各种理由推脱不还钱。实际上,我知道他有钱,他上个月还买了一辆汽车。”。书记员记录的第一文本信息可以为“原告张三:‘在2015年4月份借给李四5000元,约定2015年6月份归还,到期后经张三反复几次催要还款,李四推脱没有还款。张三认为李四有能力偿还欠款。’”。客户端会记录书记员开始输入第一文本信息的时间,具体的,比如10:22:16。
在本场景示例中,设置在张三的座位的音频采集终端,可以录制张三说话的语音形成音频信息。将该音频信息输入给客户端。客户端可以记录接收到音频信息的时间10:22:20。客户端可以将该音频信息、接收时间和音频采集终端的标示名称“发言者1”发送给服务器。
在本场景示例中,服务器针对接收到的音频信息进行语音识别和身份识别。得出音频信息中表达的第二文本信息,即“我在前年四月份借给李四5000元钱。他说过两个月就还给我。结果过了两个月。我去找他要。他就往后拖着。一直到现在我去找他四次。他都以各种理由推脱不还钱。实际上。我知道他有钱。他上个月还买了一辆汽车。”服务器可以将该第二文本信息与音频采集终端的标示名称“发言者1”相对应。反馈给客户端的第二文本信息可以为“发言者1:我在前年四月份借给李四5000元钱。他说过两个月就还给我。结果过了两个月。我去找他要。他就往后拖着。一直到现在我去找他四次。他都以各种理由推脱不还钱。实际上。我知道他有钱。他上个月还买了一辆汽车。”。服务器可以将接收时间和第二文本信息一并反馈给客户端。
在本场景示例中,客户端接收到服务器反馈的第二文本信息。将该第二文本信息对应音频信息的时间,与第一文本信息的时间进行比对,将时间上较为接近第一文本信息和第二文本信息对应显示。
在本场景示例中,将第一文本信息和第二文本信息分别展示在一个窗口中。第一文本信息和第二文本信息对应显示,可以为相对应的第一文本信息和第二文本信息横向上并排显示。
在本场景示例中,在第一文本信息或第二文本信息发生触发事件时,比如书记员使用鼠标点击第一文本信息或第二文本信息。客户端可以播放对应的用于生成第二文本信息的音频信息。
请参阅图4。在本场景示例中,书记员可以根据第二文本信息修改第一文本信息。在最初书记员输入的记录中,可能因为时间较为紧张,漏记录了一些内容,可以根据第二文本信息进行修改。具体的,例如,书记员将“原告张三:‘在2015年4月份借给李四5000元,约定2015年6月份归还,到期后经张三反复几次催要还款,李四推脱没有还款。张三认为李四有能力偿还欠款。’”。书记员记录的第一文本信息中,相较于语音识别得到的第二文本信息,漏记了张三向李四催要还款的次数,以及李四有经济能力购买小汽车的事项。书记员可以对照第二文本信息,将第一文本信息修改为“原告张三:‘在2015年4月份借给李四5000元,约定2015年6月份归还,到期后经张三先后四次催要还款,李四均推脱没有还款。张三认为李四有能力偿还欠款,李四在2017年6月份还购买了一辆汽车。’”。
在本场景示例中,客户端通过对应展示第一文本信息和第二文本信息,给书记员修改第一文本信息带来了便利。书记员可以最终打印由第一文本信息形成的庭审记录。如此,使得庭审记录较为全面准确,并且语言精练、重点突出。
请一并参阅图5。在一个场景示例中,在一个会议中,会议记录人员使用的客户端可以为笔记本电脑。该笔记本电脑中集成有传声器,通过传声器可以将会议过程中参与人员的发言录制成音频信息。
在本场景示例中,会议记录人员可以使用笔记本电脑的键盘输入第一文本信息。第一文本信息可以是会议记录人员听到的会议参与人发言的内容,也可以是会议记录人员根据会议参与人的发言或讨论,进行总结的内容。具体的,例如,在会议讨论中,王五说:“我们这个项目时间上比较紧急,大家要盯紧进度。我们要赶在年底前完成项目验收,所以大家要抓紧时间,研发部是否可以在本月就给出完善的设计方案?”。丁七说:“本月底不行,我们现在只有初步的设计方案,需要采购材料进行初步验证之后,才可能给出比价完善的设计方案。所以具体提供完善的设计方案的时间,要看采购什么时间能够完成原材料采购。”。钱八说:“我们本月底可以完成原材料的采购。”。丁七说:“如果本月底原材料可以到位的话,我们下个月中旬应该可以提供较为完善的设计方案”。王五说:“好的,那我们就定下来本月底采购部完成原材料采购,下个月中旬研发部提供较为完善的设计方案。”。
请一并参阅图6。在本场景示例中,会议记录人员记录的第一文本信息可以包括“王五说:‘本项目时间上较为紧急,需要各部门加快进度’”,“钱八说:‘本月会完成研发部需要的原材料的采购’”,“丁七说:‘采购部在本月完成原材料采购的条件下,下个月可以提供较为完善的设计方案’”。
在本场景示例中,客户端根据会议过程中参与人员的发言录制成音频信息。客户端可以对音频信息进行语音识别和身份识别。得出音频信息中表达的第二文本信息和第二文本信息对应的身份信息。在会议开始时,会议参与人可以先在客户端进行注册,客户端录制会议的音频信息生成标识每个参与人的用户特征向量,并接收输入的身份信息。如此,在会议过程中可以根据音频信息的语音特征向量与用户特征向量进行匹配得出第二文本信息对应的身份信息。
在本场景示例中,客户端根据音频信息识别得出的第二文本信息可以包括:“王五说:‘我们这个项目时间上比较紧急。大家要盯紧进度。我们要赶在年底前完成项目验收。所以大家要抓紧时间。研发部是否可以在本月就给出完善的设计方案。’”。“丁七说:‘本月底不行。我们现在只有初步的设计方案。需要采购材料进行初步验证之后。才可能给出比价完善的设计方案。所以具体提供完善的设计方案的时间。要看采购什么时间能够完成原材料采购。’”。“钱八说:‘我们本月底可以完成原材料的采购。’”。“丁七说:‘如果本月底原材料可以到位的话。我们下个月中旬应该可以提供较为完善的设计方案。’”。“王五说:‘好的。那我们就定下来本月底采购部完成原材料采购。下个月中旬研发部提供较为完善的设计方案。’”。
请一并参阅图7。在本场景示例中,客户端可以根据语义分析的方式,得出第一文本信息对应的第二文本信息。会议记录人员可以根据第二文本信息的内容,修改第一文本信息。比如,将“本项目时间上较为紧急,需要各部门加快进度”,修改为“本项目时间上较为紧急,要在年底完成项目验收,需要各部门加快进度”,将“采购部在本月完成原材料采购的条件下,下个月可以提供较为完善的设计方案”,修改为“采购部在本月完成原材料采购的条件下,下个月中旬可以提供较为完善的设计方案”。
在本场景示例中,会议记录人员完成对会议记录中第一文本信息的修改之后,将第一文本信息形成的会议记录通过电子邮件发送给参会的人员。
请参阅图8。本说明书实施方式提供一种信息处理方法。所述信息处理方法可以应用于客户端。所述信息处理方法可以包括以下步骤。
步骤S10:接收第一输入设备输入的第一文本信息;所述第一文本信息为根据语音生成。
在本实施方式中,第一输入设备可以供用户操作,以实现客户端接收用户的输入。第一输入设备可以是与客户端连接的外设,例如键盘、鼠标、手写板等。第一输入设备也可以是触摸式显示器,其提供给用户触摸输入功能。
在本实施方式中,第一文本信息可以是用户根据听到的语音,按照个人意志表达的文字。具体的,例如,在多人会议过程中,会议记录人员根据听到的大家交流的内容,使用键盘打字输入的文字信息。
在本实施方式中,接收第一文本信息,可以为第一文本信息是用户通过第一输入设备提供给客户端。如此,使得第一文本信息可以是用户根据个人意志所生成的。
在本实施方式中,第一文本信息为根据语音生成,可以为用户根据其听到的语音,在用户意志的支配下向客户端输入的文字。使得,第一文本信息可以包括用户对听到语音的内容的提炼,可以包括用户自身理解的内容,可以包括用户对听到内容的直接阐述等。
在本实施方式中,第一文本信息可以是一句话,或者一个自然段。在一次多人的沟通过程中,可能会有多个人说话,记录人员最终形成的记录中可以包括多条第一文本信息。具体的,例如,记录人员输入的一个参会人员的一次发言,作为一个第一文本信息;或者,记录人员根据几个参会人员表达的观点提炼出一句话作为一个第一文本信息;或者,记录人员将记录一个参会人员发言的内容,分成几个自然段,每个自然段构成一个第一文本信息。当然,所属领域技术人员在本实施方式技术精髓启示下,还可以做出其它变更,但只要其实现的功能和效果,与本申请相同或相似,均应涵盖于本申请保护范围内。
步骤S12:接收第二输入设备录制的音频信息;其中,所述音频信息为根据所述语音录制生成。
在本实施方式中,第二输入设备可以为音频采集终端。第二输入设备可以设置在客户端内的传声器,也可以为客户端通过连接外设的方式连接的传声器。具体的,例如,笔记本电脑中集成有传声器。再例如,台式电脑可以通过USB或者Microphone接口,连接外接的传声器。
在本实施方式中,步骤S10和步骤S12可以不分先后顺序。具体的,例如,在法院的庭审中,原告和被告都可以有传声器,在原告或者被告发言时,传声器可以录制相应的音频信息。在这个过程中,书记员根据听到的原告或被告的发言,通过键盘向客户端输入第一文本信息。
步骤S14:对所述音频信息进行语音识别得到第二文本信息。
在本实施方式中,第二文本信息可以是客户端基于语音识别得到的内容。使得,第二文本信息形成的记录可以趋于全面记录音频信息中语音的对话内容。
在本实施方式中,第二文本信息可以是一句话或者一个自然段。具体的,例如,可以根据一个音频信息,对应生成一个第二文本信息;或者,根据识别出的文字形成一句话,作为一个第二文本信息;或者,将相邻上下文,表达相接近的内容,作为一个第二文本信息;或者,结合身份识别,将一个用户的一次发言的内容,作为一个第二文本信息。
步骤S16:展示所述第一文本信息和所述第二文本信息,其中,所述第一文本信息和所述第二文本信息中内容存在对应关系。
在本实施方式中,客户端可以通过显示器展示第一文本信息和第二文本信息,如此可以便于用户查阅。由于第二文本信息为根据音频信息进行语音识别生成,其能够较为全面记录音频信息的内容,使得用户可以借鉴第二文本信息针对第一文本信息的内容进行修改。具体的,例如,在庭审过程中或者庭审后,书记员可以利用原告或被告的音频信息语音识别得到的第二文本信息,针对书记员自己记录的第一文本信息进行修改,以使得第一文本信息可以更加的准确,给书记员带来了便利。
在本实施方式中,所述对应关系可以包括:趋于相同时间生成的第一文本信息和第二文本信息显示位置较为接近;或者,趋于相同时间生成的第一文本信息和第二文本信息具有相同的显示样式;或者,趋于相同时间生成的第一文本信息和第二文本信息具有趋于接近的时间标签;或者,趋于相同时间生成的音频信息和第一文本信息,该音频信息的第二文本信息与所述第一文本信息显示位置较为接近;或者,趋于相同时间生成的音频信息和第一文本信息,该音频信息的第二文本信息与所述第一文本信息具有相同的显示样式;或者,趋于相同时间生成的音频信息和第一文本信息,该音频信息的第二文本信息与所述第一文本信息有趋于接近的时间标签;趋于表达相同语义的第一文本信息和第二文本信息显示位置较为接近,或者,具有相同显示样式。
本说明书实施方式,通过针对同一个语音场景中,可以分别采用人工输入和录制音频后语音识别的方式得到第一文本信息和第二文本信息。利用第二文本信息可以较为全面的记录语音内容的特点,对第一文本信息进行修改。如此,使得第一文本信息可以较为全面准确,且可以突出重点,以及概要的记录语音的内容。第一文本信息相较于第二文本信息可以具有较小的篇幅,重点相对突出,可以节省阅读者的阅读时间。
请参阅图9,在一个实施方式中,在语音识别的步骤中可以包括以下子步骤。
步骤S20:识别所述音频信息对应的身份信息。
步骤S22:识别所述音频信息中的语音表达的第二文本信息;所述第二文本信息与所述身份信息相关联。
在所述展示的步骤中可以将所述身份信息与对应的第二文本信息对应展示。
在本实施方式中,可以根据音频信息生成特征矩阵;进而,将所述特征矩阵按照多个特征维度进行降维处理,得到多个用于表征特征维度的维度值,所述多个维度值形成所述语音特征向量。可以使用语音特征向量来标识每个用户。
在本实施方式中,可以对所述特征矩阵按照不同的特征维度进行降维处理,得到可以表征每个特征维度的维度值。进一步的,将维度值按照指定顺序排列便可以形成音频信息的语音表征向量。具体的,可以通过卷积或者映射的算法对特征矩阵进行降维处理。在一个具体的示例中,可以采用DNN(Deep Neural Network)、CNN(Convolutional NeuralNetwork)和RNN(Recurrent Neural Network)、深度学习或者上述算法的结合等,从特征矩阵中按照不同维度进行降维。
在本实施方式中,采集的音频信息可以是用户的说话声音的录音。如此,根据音频信息生成的语音表征向量,可以对应表征的音频信息,也可以表征用户的一部分声音特质。由于每个用户生长发育过程,是各部不相同的,使得用户说话的声音,都具有一定的声音特质。进而,可以通过每个用户的声音特质分不同的用户。如此,语音表征向量可以通过表征用户的一部分声音特质,而可以用于标识用户。
在本实施方式中,针对用户采集的音频信息可以是一个或多个,可以对应每个音频信息采用音频信息处理方法生成对应的语音特征向量。当然,在一些情况下,也可以将一个以上音频信息同时进行按照音频信息处理方法进行运算处理,得到语音特征向量。此时,该语音特征向量可以对应该一个以上音频信息。
在本实施方式中,可以根据得到的语音特征向量,确定可以用于标识用户的用户特征向量。具体的,例如,若仅生成了一个语音特征向量,则可以将该语音特征向量作为用户的用户特征向量;若生成了多个语音特征向量,可以将在该多个语音特征向量中,选择一个相对表达用户的声音特质较多的语音特征向量,作为用户的用户特征向量;若生成了多个语音特征向量,还可以为将该多个语音特征向量中的部分或全部,进行进一步运算处理输出用户的用户特征向量。该运算处理可以包括但不限于针对该多个语音特征向量进行相应维度求和之后,再进一步计算均值。当然,还可以有其它算法,比如,运算处理时对多个语音特征向量的加权求和。
在本实施方式中,将语音特征向量与用户特征向量进行匹配,在匹配成功时,将所述用户特征向量关联的个人信息作为所述用户的身份信息。具体的,将语音特征向量与用户特征向量进行匹配的方式,可以为根据二者进行运算,在二者之间符合某种关系时,可以认为匹配成功。具体的,例如,将二者做差后求和,将得到的数值作为匹配值,将该匹配值与一个设定阈值比较,在所述匹配值小于或等于设定阈值的情况下认为所述语音特征向量与所述用户特征向量匹配成功。或者,也可以将所述语音特征向量与所述用户特征向量直接求和,将得到的数值作为匹配值,在所述匹配值大于或等于设定阈值的情况下认为所述语音特征向量与所述用户特征向量匹配成功。
在本实施方式中,在识别用户的身份信息的步骤中,可以为先采集用户的音频信息之后,录入个人信息。如此,可以根据音频信息生成语音特征向量,进而将录入的个人信息与语音特征向量关联。实现可以将语音识别得到的第二文本信息与发出该语音的用户的身份信息相关联,进而在展示时,可以对应展示身份信息和第二文本信息。具体的,所述关联可以为对应存储,或者根据二者中的一个可以确定另一个。具体的,例如,个人信息可以是用户的姓名、昵称或者角色等。所述角色可以为原告或被告。当然,也可以无需录入个人信息,自动为用户分配一个标示名称,将该标示名称与语音特征向量关联。实现可以将语音识别得到的第二文本信息与发出该语音的用户的标示名称相关联,进而在展示时,可以对应展示标示名称和第二文本信息。具体的,例如,标示名称可以为“用户1”。
在本实施方式中,将身份信息与第二文本信息对应展示,如此便于用户阅读,记录中涉及的人员,以及对应人员的发言情况。对应展示的方式,可以为将身份信息显示在第二文本信息的开始或者末尾。
请参阅图10,在一个实施方式中,所述信息处理方法还可以包括以下步骤。
步骤S21:将所述音频信息发送给服务器,以用于所述服务器确定所述音频信息对应的身份信息。
步骤S23:接收所述服务器反馈的所述音频信息对应的身份信息。
相应的,在展示的步骤中,将所述身份信息与对应的第二文本信息对应展示。
在本实施方式中,可以由服务器完成对音频信息对应的身份信息的识别。用户可以预先在服务器中进行注册操作,使得服务器中对应用户的身份信息存储有用户特征向量。服务器可以根据接收的音频信息生成语音特征向量与存储的用户特征向量进行匹配,得出语音特征向量对应的用户特征向量,进而得到音频信息对应的身份信息。当然,服务器中也可以没有预先注册的用户特征向量,服务器可以接收音频信息之后,生成每个音频信息的语音特征向量。针对多个语音特征向量进行聚类,将属于一个用户的语音的语音特征向量聚合在一个数据集中,进而可以得出可以表征用户的用户特征向量。针对每个用户的身份信息,可以按照制定的命名规则为用户特征向量分配用户的标示名称。每个用户特征向量可以对应一个标示名称。
在一个实施方式中,在展示所述第一文本信息和所述第二文本信息的步骤中或者对第一文本信息和第二文本信息进行排版的步骤中,可以包括:将接收到的时间较为接近的第一文本信息和音频信息相对应,以对应展示所述第一文本信息和所述音频信息被识别得出的第二文本信息。
在本实施方式中,客户端接收到用户输入的第一文本信息时,可以记录接收时间。在接收到生成的音频信息时,也可以记录音频信息的接收时间。该接收时间也可以理解为生成时间。
在本实施方式中,第一文本信息和音频信息相对应,可以为第一文本信息和音频信息所表达的内容趋于具有相同的语义。具体的,趋于相同接收的时间的第一文本信息和音频信息,有较大可能性表达相同的语义。如此,将第一文本信息和第二文本信息对应展示,以便于针对第一文本信息或者第二文本信息进行对照修改。具体的,例如,多个用户在开会沟通过程中,会议记录人员可能在听到一个用户说话之后,记录说话的内容,生成第一文本信息。此时,传声器可以将该用户说话的语音录制成音频信息。可见,会议记录人员输入第一文本信息的时间,和传声器录制生成语音的时间可以较为接近,二者都针对该会议中一个用户的发言。使得第一文本信息和第二文本信息之间存在对应。
在本实施方式中,对应展示第一文本信息和第二文本信息的方式可以包括:在一个窗口中,显示第一文本信息和第二文本信息的位置较为接近,比如作为相邻的两段文字;在两个窗口中,可以横向并列展示第一文本信息和第二文本信息;或者,第一文本信息和第二文本信息具有相同的显示样式,比如字体、大小、颜色、背景色等。
在一个实施方式中,在展示所述第一文本信息和所述第二文本信息的步骤中或者在对所述第一文本信息和所述第二文本信息进行排版的步骤中,可以包括:将所述第一文本信息在指定时间范围内生成的音频信息的第二文本信息中,进行语义匹配,得到与所述第一文本信息对应的第二文本信息。
在本实施方式中,第一文本信息是用户根据听到的语音进行输入,而第二文本信息是音频信息进行语音识别得到的。所以,第一文本信息和第二文本信息,都是针对同一场景中,用户的对话语音生成。如此,第一文本信息和第二文本信息在语义上,存在一定的一致性。将第一文本信息在第二文本信息中进行语义分析匹配,得出与第一文本信息语义较为接近的第二文本信息。将得到的语义较为接近的第二文本信息作为与所述第一文本信息对应的第二文本信息。
在本实施方式中,进行语义匹配的方式可以包括:针对第一文本信息进行切词,划分出第一文本信息中包括的词语,将第一文本信息被划分的词语与第二文本信息进行比对。将包括最多个第一文本信息的词语的第二文本信息作为与第一文本信息对应的第二文本信息;或者,将包括最多个第一文本信息词语的近义词的第二文本信息作为第一文本信息对应的第二文本信息;或者,将包括最多个第一文本信息的词语和词语的近义词的第二文本信息,作为与第一文本信息对应的第二文本信息。
在本实施方式中,为了减少运算负荷,可以指定一个时间范围,将第一文本信息在位于该时间范围内生成的音频信息的第二文本信息中进行匹配。该时间范围可以与生成第一文本信息的时间较为接近,该时间范围可以包括生成第一文本信息的时间,也可以不包括生成第一文本信息的时间。在一个实施方式中,在进行语义匹配的步骤中还包括:将接收到所述第一文本信息的时间作为基准时间,根据所述基准时间设置所述指定时间范围,所述基准时间位于所述指定时间范围内。如此,指定时间范围可以包括接收第一文本信息的时间,使得声音信息的时间,与生成第一文本信息的时间较为接近,可以提升匹配到与第一文本信息对应的第二文本信息的速度,进而节省时间和减少运算量。
请参阅图11。在一个实施方式中,所述信息处理方法还可以包括以下步骤。
步骤S26:根据所述第一输入设备的输入对所述第一文本信息进行修改。
在本实施方式中,在展示第一文本信息和第二文本信息之后,用户可以根据第二文本信息的内容,修改第一文本信息。如此,可以使得第一文本信息在具有人工记录的语言精练、重点突出等特点的基础上,进一步的提升了准确性和全面性。再者,也为记录的制作人员带来了便利。
本实施方式还可以包括步骤S28:输出修改后的第一文本信息。
在本实施方式中,输出修改后的第一文本信息可以为将第一文本信息发送至打印设备,或者,将第一文本信息通过邮件发送。
在一个实施方式中,所述信息处理方法还可以包括:在所述第一文本信息或者所述第二文本信息发生触发事件的情况下,播放发生触发事件的第一文本信息或者第二文本信息对应的音频信息。
在本实施方式中,触发事件可以是客户端接收到了点击操作或者划动操作。具体的,例如,用户使用鼠标针对第一文本信息或者第二文本信息进行点击操作,或者,移动鼠标划过第一文本信息或第二文本信息;或者,用户使用触摸显示设备进行了触摸点击操作。
在本实施方式中,第一文本信息或第二文本信息发生触发事件,可以是显示第一文本信息或者第二文本信息的区域发生了触发事件。也可以是对应第一文本信息或第二文本信息设置有播放按钮,在播放按钮发生点击操作时,认为相应的第一文本信息或第二文本信息发生了触发事件。
在本实施方式中,第一文本信息对应音频信息的方式,可以参阅其它实施方式的描述,在此不再赘述。第二文本信息对应的音频信息,可以是被识别得到第二文本信息的音频信息。
在一个实施方式中,所述信息处理方法还可以包括:在所述第一文本信息发生触发事件的情况下,将与所述第一文本信息对应的第二文本信息按照指定样式显示;或者,在所述第二文本信息发生触发事件的情况下,将与所述第二文本信息对应的第一文本信息按照指定样式显示。
在本实施方式中,指定样式可以包括但不限于:字体、大小、颜色、背景色、加粗效果、倾斜效果、下划线等等。
在本实施方式中,在第一文本信息发生触发事件时,将对应的第二文本信息按照指定样式显示,可以比较直观的指示二者的对应关系。还可以便于用户进行查阅对照。指定样式可以与其余文字的样式不同,如此使得发生对应的文本信息的显示状态与其它文字相区别,给用户带来了便利。同理,第二文本信息发生触发事件时,第一文本信息按照指定样式显示。
请参阅图12。本说明书实施方式还提供一种信息处理系统,所述信息处理系统可以包括以下模块。
第一接收模块,用于接收第一输入设备输入的第一文本信息;所述第一文本信息为根据语音生成。
第二接收模块,用于接收第二输入设备录制的音频信息;其中,所述音频信息为根据所述语音录制生成。
识别模块,用于对所述音频信息进行语音识别得到第二文本信息。
展示模块,用于展示所述第一文本信息和所述第二文本信息,其中,所述第一文本信息和所述第二文本信息中内容存在对应关系。
在本实施方式中,电子设备实现的功能和效果可以与其它实施方式对照解释,在此不再赘述。
请参阅图13。本说明书实施方式还提供一种信息处理系统,所述信息处理系统可以包括:输入设备、音频采集终端、显示器和处理器。
所述输入设备,用于接收用户输入的第一文本信息;所述第一文本信息为用户根据语音进行输入。
所述音频采集终端,用于录制音频信息;其中,所述音频信息为根据所述语音录制生成。
所述处理器,用于对所述音频信息进行语音识别得到第二文本信息。
所述显示器,用于展示所述第一文本信息和所述第二文本信息,其中,所述第一文本信息和所述第二文本信息中内容存在对应关系。
在本实施方式中,所述输入设备可以是具有信息输入功能的设备。具体的,例如,输入设备可以是键盘、手写板、手写笔等。当然,输入设备并不限于前述列举。
在本实施方式中,所述音频采集终端包括有传声器。所述传声器可以是将声音信号转换为电信号的能量转换器件。具体的,例如,传声器的具体设计,可以包括但不限于电动式、电容式、压电式、电磁式、碳粒式、半导体式等。
在本实施方式中,所述处理器可以按任何适当的方式实现。例如,所述处理器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application SpecificIntegrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式等等。
在本实施方式中,所述显示器可以提供界面展示。具体的,例如,显示器可以包括根据制造材料的不同,可分为:阴极射线管显示器(Cathode Ray Tube)、等离子显示器(Plasma Display Panel)、液晶显示器(Liquid Crystal Display)、LED显示屏(LightEmitting Diode Panel)等等。当然,显示器并不限于平面显示器,其还可以为弧面显示器、立体显示器等。
本实施方式中提供的信息处理系统可以参见其它实施方式对照解释。
本说明书实施方式还提供一种计算机存储介质。所述计算机存储介质存储有计算机程序指令,所述计算机程序指令被执行时可以实现:接收第一输入设备输入的第一文本信息,所述第一文本信息为根据语音生成;接收第二输入设备录制的音频信息,其中,所述音频信息为根据所述语音录制生成;对所述音频信息进行语音识别得到第二文本信息;展示所述第一文本信息和所述第二文本信息,其中,所述第一文本信息和所述第二文本信息中内容存在对应关系。
在本实施方式中,所述计算机存储介质包括但不限于随机存取存储器(RandomAccess Memory,RAM)、只读存储器(Read-Only Memory,ROM)、缓存(Cache)、硬盘(HardDisk Drive,HDD)或者存储卡(Memory Card)。
本实施方式中提供的计算机存储介质,其计算机程序指令被执行时实现的功能和效果可以参见其它实施方式对照解释。
请参阅图14。本说明书实施方式还提供一种信息处理方法,所述信息处理方法可以包括以下步骤。
步骤S30:接收第一输入设备输入的第一文本信息;所述第一文本信息为根据语音生成。
步骤S32:接收第二输入设备录制的音频信息;其中,所述音频信息为根据所述语音录制生成。
步骤S34:将所述音频信息或所述音频信息的表征信息发送给服务器,以用于所述服务器进行语音识别。
步骤S36:接收所述服务器反馈的语音识别得到的第二文本信息。
步骤S38:展示所述第一文本信息和所述第二文本信息,其中,所述第一文本信息和所述第二文本信息中内容存在对应关系。
在本实施方式中,客户端可以将音频信息发送给服务器,服务器可以对音频信息进行语音识别。服务器可以将语音识别得到的第二文本信息发送给客户端。使得客户端可以展示第一文本信息和第二文本信息。在本实施方式中,服务器对音频信息的处理,可以参阅其它实施方式对照解释,在此不再赘述。
在本实施方式中,客户端和服务器可以基于网络通信协议进行数据传输。网络通信协议包括但不限于HTTP、TCP/IP、FTP等。
在本实施方式中,所述表征信息可以是根据音频信息进行运算生成,可以用于表示所述音频信息。具体的,例如,所述表征信息可以是根据音频信息生成的特征矩阵,或者针对特征矩阵进行端点检测处理之后的数据。
在本实施方式中,由服务器进行语音识别工作,如此减少了客户端的运算负荷。进而降低了对客户端的硬件性能要求。
请参阅图15。本说明书实施方式还提供一种信息处理系统。所述信息处理系统可以包括以下模块。
第一接收模块,用于接收第一输入设备输入的第一文本信息;所述第一文本信息为根据语音生成。
第二接收模块,用于接收第二输入设备录制的音频信息;其中,所述音频信息为根据所述语音录制生成。
发送模块,用于将所述音频信息或所述音频信息的表征信息发送给服务器,以用于所述服务器进行语音识别。
第三接收模块,用于接收所述服务器反馈的语音识别得到的第二文本信息。
展示模块,用于展示所述第一文本信息和所述第二文本信息,其中,所述第一文本信息和所述第二文本信息中内容存在对应关系。
在本实施方式中,电子设备实现的功能和效果可以与其它实施方式对照解释,在此不再赘述。
请参阅图16。本说明书实施方式还提供一种信息处理系统。所述信息处理系统可以包括:输入设备、声音采集终端、网络通信单元、显示器。
所述输入设备,用于接收用户输入的第一文本信息;所述第一文本信息为用户根据语音进行输入。
所述声音采集终端,用于录制音频信息;其中,所述音频信息为根据所述语音录制生成。
所述网络通信单元,用于将所述音频信息或所述音频信息的表征信息发送给服务器,以用于所述服务器进行语音识别;接收所述服务器反馈的语音识别得到的第二文本信息。
所述显示器,用于展示所述第一文本信息和所述第二文本信息,其中,所述第一文本信息和所述第二文本信息中内容存在对应关系。
在本实施方式中,所述网络通信单元可以是依照通信协议规定的标准设置的,用于进行网络连接通信的接口。网络通信单元可以包括但不限于有线通信和/或无线通信的方式。
本实施方式中提供的信息处理系统可以参见其它实施方式对照解释。
本说明书实施方式还提供一种计算机存储介质,所述计算机存储介质存储有计算机程序指令。所述计算机程序指令被执行时可以实现:接收第一输入设备输入的第一文本信息,所述第一文本信息为根据语音生成;接收第二输入设备录制的音频信息,其中,所述音频信息为根据所述语音录制生成;将所述音频信息或所述音频信息的表征信息发送给服务器,以用于所述服务器进行语音识别;接收所述服务器反馈的语音识别得到的第二文本信息;展示所述第一文本信息和所述第二文本信息,其中,所述第一文本信息和所述第二文本信息中内容存在对应关系。
在本实施方式中,所述计算机存储介质包括但不限于随机存取存储器(RandomAccess Memory,RAM)、只读存储器(Read-Only Memory,ROM)、缓存(Cache)、硬盘(HardDisk Drive,HDD)或者存储卡(Memory Card)。
本实施方式中提供的计算机存储介质,其计算机程序指令被执行时实现的功能和效果可以参见其它实施方式对照解释。
请参阅图17。本说明书实施方式还提供一种信息处理方法,所述信息处理方法可以包括以下步骤。
步骤S40:接收客户端发送的音频信息或者音频信息的表征信息。
步骤S42:对所述音频信息或者所述表征信息进行语音识别得到第二文本信息。
步骤S44:将所述第二文本信息发送给所述客户端,以用于所述客户端将所述第二文本信息与第一客户端的第一文本信息进行展示;其中,所述第一文本信息和所述第二文本信息中内容存在对应关系。
在本实施方式中,服务器接收客户端通过网络发送的音频信息或者表征信息。服务器中可以设置有针对音频信息或者表征信息进行语音识别的算法模型。具体的,针对音频信息或表征信息的处理方式,可以参阅前述实施方式中,针对音频信息和表征信息的描述,在此不再赘述。
在本实施方式中,服务器可以对应多个客户端,实现客户端不需要进行语音识别工作,而统一有服务器进行语音识别。如此降低了对客户端的硬件性能要求。再者,由服务器进行统一的语音识别工作,便于对语音识别工作的算法维护和更新升级。
本实施方式中描述的内容,可以参照其它实施方式对照解释,在此不再赘述。
请参阅图9。在一个实施方式中,服务器进行语音识别的步骤中可以包括以下步骤。
步骤S20:识别所述音频信息对应的身份信息。
步骤S22:识别所述音频信息中的语音表达的第二文本信息;所述第二文本信息与所述身份信息相关联。
在本实施方式中,服务器可以识别音频信息对应的身份信息,是的服务器可以将属于同一个用户的第二文本信息,与该用户的身份信息进行关联。服务器将身份信息放入所述第二文本信息中提供给客户端之后,便于用户通过客户端展示的内容阅读。
本实施方式具体实现的功能和效果,可以参照其它实施方式对照解释,在此不再赘述。
请参阅图18。本说明书实施方式还提供一种服务器,所述服务器可以包括以下模块。
接收模块,用于接收客户端发送的音频信息或音频信息的表征信息。
识别模块,用于对所述音频信息或者所述表征信息进行语音识别得到第二文本信息。
发送模块,用于将所述第二文本信息发送给所述客户端,以用于所述客户端将所述第二文本信息与第一客户端的第一文本信息进行展示;其中,所述第一文本信息和所述第二文本信息中内容存在对应关系。
在本实施方式中,服务器实现的功能和效果可以与其它实施方式对照解释,在此不再赘述。
请参阅图19。本说明书实施方式还提供一种电子设备,所述电子设备可以包括:网络通信单元和处理器。
所述网络通信单元,用于接收客户端发送的音频信息或音频信息的表征信息;将所述处理器提供的第二文本信息发送给所述客户端,以用于所述客户端将所述第二文本信息与第一客户端的第一文本信息进行展示;其中,所述第一文本信息和所述第二文本信息中内容存在对应关系。
所述处理器,用于对所述音频信息或者所述表征信息进行语音识别得到第二文本信息。
本实施方式中提供的电子设备,其实现的功能和效果可以参见其它实施方式对照解释。
本说明书实施方式还提供一种计算机存储介质,所述计算机存储介质中存储有计算机程序指令,所述计算机程序指令被执行时可以实现:接收客户端发送的音频信息或音频信息的表征信息;对所述音频信息或者所述表征信息进行语音识别得到第二文本信息;将所述第二文本信息发送给所述客户端,以用于所述客户端将所述第二文本信息与第一客户端的第一文本信息进行展示,其中,所述第一文本信息和所述第二文本信息中内容存在对应关系。
本实施方式中提供的计算机存储介质,其计算机程序指令被执行时实现的功能和效果可以参见其它实施方式对照解释。
请参阅图21。本说明书实施方式还提供一种信息处理方法。所述信息处理方法可以包括以下步骤。
步骤S50:接收第一文本信息;所述第一文本信息为根据语音生成。
步骤S52:接收音频信息;其中,所述音频信息为根据所述语音录制生成。
步骤S54:对所述音频信息进行语音识别得到第二文本信息。
步骤S56:根据所述第一文本信息和所述第二文本信息之间的对应关系进行排版,所述排版后的所述第一文本信息和所述第二文本信息用于展示。
在本实施方式中,执行该信息处理方法的电子设备,可以对音频信息进行语音识别得到第二文本信息。并进一步的,根据第一文本信息和第二文本信息之间的对应关系针对第一文本信息和第二文本信息进行排版。
在本实施方式中,对第一文本信息和第二文本信息进行排版。具体排版的方式可以参阅前述排版子系统的内容,或者其它实施方式对照解释。
本说明书实施方式还提供一种电子设备,所述电子设备包括处理器,所述处理器用于接收第一文本信息,所述第一文本信息为根据语音生成;接收音频信息,其中,所述音频信息为根据所述语音录制生成;对所述音频信息进行语音识别得到第二文本信息;根据所述第一文本信息和所述第二文本信息之间的对应关系进行排版,所述排版后的所述第一文本信息和所述第二文本信息用于展示。
本实施方式中提供的电子设备,其实现的功能和效果可以参见其它实施方式对照解释。
本说明书实施方式还提供一种计算机存储介质,所述计算机存储介质中存储有计算机程序指令,所述计算机程序指令被执行时实现:接收第一文本信息,所述第一文本信息为根据语音生成;接收音频信息,其中,所述音频信息为根据所述语音录制生成;对所述音频信息进行语音识别得到第二文本信息;根据所述第一文本信息和所述第二文本信息之间的对应关系进行排版,所述排版后的所述第一文本信息和所述第二文本信息用于展示。
本实施方式中提供的计算机存储介质,其计算机程序指令被执行时实现的功能和效果可以参见其它实施方式对照解释。
请一并参阅图22和图3。本说明书实施方式还提供一种信息处理方法,所述方法可以包括以下步骤。
步骤S60:接收第一输入设备输入的第一文本信息;所述第一文本信息为根据语音生成。
步骤S62:接收第二输入设备录制的音频信息;其中,所述音频信息为根据所述语音录制生成。
步骤S64:对所述音频信息进行识别得到第二文本信息。
步骤S66:在第一区域展示所述第一文本信息。
步骤S68:在第二区域展示所述第二文本信息,其中,所述第一文本信息和所述第二文本信息中内容存在对应关系,所述第一区域和第二区域位于相同的界面中。
在本实施方式中,可以将一个用于显示器展示的界面至少划分为第一区域和第二区域。其中,第一区域用于展示第一文本信息,第二区域用于展示第二文本信息。如此,通过至少划分第一区域和第二区域,使得可以清晰的区别第一文本信息和第二文本信息,给浏览人员带来便利。
在本实施方式中,第一文本信息和第二文本信息的生成方式不同。第一文本信息可以是记录人员根据个人对语音的理解,输入的内容。使得第一文本信息可以具有较为概括,语言相对简练,重点相对突出的特点。第二文本信息可以是针对音频信息进行语音识别得到的内容。第二文本信息可以具有内容非常全面的特点。但第二文本信息相较于第一文本信息可能存在内容相对冗长,重点不够突出等问题。通过在第一文本信息和第二文本信息中的内容存在对应关系,使得浏览者可以对照查阅第一文本信息和第二文本信息,从而可以实现给阅读者带来便利。
本说明书中的各个实施方式均采用递进的方式描述,各个实施方式之间相同相似的部分互相参见即可,每个实施方式重点说明的都是与其他实施方式的不同之处。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片2。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog2。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本说明书可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本说明书的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本说明书各个实施方式或者实施方式的某些部分所述的方法。
虽然通过实施方式描绘了本说明书,本领域普通技术人员知道,本说明书有许多变形和变化而不脱离本说明书的精神,希望所附的权利要求包括这些变形和变化而不脱离本说明书的精神。
Claims (32)
1.一种信息处理方法,其特征在于,所述方法包括:
接收第一输入设备输入的第一文本信息;所述第一文本信息为根据语音生成;
接收第二输入设备录制的音频信息;其中,所述音频信息为根据所述语音录制生成;
对所述音频信息进行语音识别得到第二文本信息;
展示所述第一文本信息和所述第二文本信息,其中,所述第一文本信息和所述第二文本信息中内容存在对应关系。
2.根据权利要求1所述的方法,其特征在于,在语音识别的步骤中包括:
识别所述音频信息对应的身份信息;
识别所述音频信息中的语音表达的第二文本信息;所述第二文本信息与所述身份信息相关联;
相应的,在所述展示的步骤中,将所述身份信息与对应的第二文本信息对应展示。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括:
将所述音频信息发送给服务器,以用于所述服务器确定所述音频信息对应的身份信息;
接收所述服务器反馈的所述音频信息对应的身份信息;
相应的,在展示的步骤中,将所述身份信息与对应的第二文本信息对应展示。
4.根据权利要求1所述的方法,其特征在于,在展示所述第一文本信息和所述第二文本信息的步骤中包括:将接收到的时间较为接近的第一文本信息和音频信息相对应,以对应展示所述第一文本信息和所述音频信息被识别得出的第二文本信息。
5.根据权利要求1所述的方法,其特征在于,在展示所述第一文本信息和所述第二文本信息的步骤中包括:
将所述第一文本信息在指定时间范围内生成的音频信息的第二文本信息中,进行语义匹配,得到与所述第一文本信息对应的第二文本信息。
6.根据权利要求5所述的方法,其特征在于,在进行语义匹配的步骤中还包括:将接收到所述第一文本信息的时间作为基准时间,根据所述基准时间设置所述指定时间范围,所述基准时间位于所述指定时间范围内。
7.根据权利要求1所述的方法,其特征在于,所述方法还包括:
根据所述第一输入设备的输入对所述第一文本信息进行修改;
输出修改后的第一文本信息。
8.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在所述第一文本信息或者所述第二文本信息发生触发事件的情况下,播放发生触发事件的第一文本信息或者第二文本信息对应的音频信息。
9.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在所述第一文本信息发生触发事件的情况下,将与所述第一文本信息对应的第二文本信息按照指定样式显示;或者,
在所述第二文本信息发生触发事件的情况下,将与所述第二文本信息对应的第一文本信息按照指定样式显示。
10.一种信息处理系统,其特征在于,所述信息处理系统包括:输入设备、音频采集终端、显示器和处理器;
所述输入设备,用于接收用户输入的第一文本信息;所述第一文本信息为用户根据语音进行输入;
所述音频采集终端,用于录制音频信息;其中,所述音频信息为根据所述语音录制生成;
所述处理器,用于对所述音频信息进行语音识别得到第二文本信息;
所述显示器,用于展示所述第一文本信息和所述第二文本信息,其中,所述第一文本信息和所述第二文本信息中内容存在对应关系。
11.一种计算机存储介质,其特征在于,所述计算机存储介质存储有计算机程序指令,所述计算机程序指令被执行时实现:接收第一输入设备输入的第一文本信息,所述第一文本信息为根据语音生成;接收第二输入设备录制的音频信息,其中,所述音频信息为根据所述语音录制生成;对所述音频信息进行语音识别得到第二文本信息;展示所述第一文本信息和所述第二文本信息,其中,所述第一文本信息和所述第二文本信息中内容存在对应关系。
12.一种信息处理方法,其特征在于,所述方法包括:
接收第一输入设备输入的第一文本信息;所述第一文本信息为根据语音生成;
接收第二输入设备录制的音频信息;其中,所述音频信息为根据所述语音录制生成;
将所述音频信息或所述音频信息的表征信息发送给服务器,以用于所述服务器进行语音识别;
接收所述服务器反馈的语音识别得到的第二文本信息;
展示所述第一文本信息和所述第二文本信息,其中,所述第一文本信息和所述第二文本信息中内容存在对应关系。
13.根据权利要求12所述的方法,其特征在于,在展示所述第一文本信息和所述第二文本信息的步骤中包括:将接收到的时间较为接近的第一文本信息和音频信息相对应,以对应展示所述第一文本信息和所述音频信息被识别得出的第二文本信息。
14.根据权利要求12所述的方法,其特征在于,在展示所述第一文本信息和所述第二文本信息的步骤中包括:
将所述第一文本信息在指定时间范围内生成的音频信息的第二文本信息中,进行语义匹配,得到与所述第一文本信息对应的第二文本信息。
15.根据权利要求14所述的方法,其特征在于,在进行语义匹配的步骤中还包括:将接收到所述第一文本信息的时间作为基准时间,根据所述基准时间设置所述指定时间范围,所述基准时间位于所述指定时间范围内。
16.根据权利要求12所述的方法,其特征在于,所述方法还包括:
根据所述第一输入设备的输入对所述第一文本信息进行修改;
输出修改后的第一文本信息。
17.根据权利要求12所述的方法,其特征在于,所述方法还包括:
在所述第一文本信息或者所述第二文本信息发生触发事件的情况下,播放发生触发事件的第一文本信息或者第二文本信息对应的音频信息。
18.根据权利要求12所述的方法,其特征在于,所述方法还包括:
在所述第一文本信息发生触发事件的情况下,将与所述第一文本信息对应的第二文本信息按照指定样式显示;或者,
在所述第二文本信息发生触发事件的情况下,将与所述第二文本信息对应的第一文本信息按照指定样式显示。
19.一种信息处理系统,其特征在于,所述信息处理系统包括:输入设备、音频采集终端、网络通信单元、显示器;
所述输入设备,用于接收用户输入的第一文本信息;所述第一文本信息为用户根据语音进行输入;
所述音频采集终端,用于录制音频信息;其中,所述音频信息为根据所述语音录制生成;
所述网络通信单元,用于将所述音频信息或所述音频信息的表征信息发送给服务器,以用于所述服务器进行语音识别;接收所述服务器反馈的语音识别得到的第二文本信息;
所述显示器,用于展示所述第一文本信息和所述第二文本信息,其中,所述第一文本信息和所述第二文本信息中内容存在对应关系。
20.一种计算机存储介质,其特征在于,所述计算机存储介质存储有计算机程序指令,所述计算机程序指令被执行时实现:接收第一输入设备输入的第一文本信息,所述第一文本信息为根据语音生成;接收第二输入设备录制的音频信息,其中,所述音频信息为根据所述语音录制生成;将所述音频信息或所述音频信息的表征信息发送给服务器,以用于所述服务器进行语音识别;接收所述服务器反馈的语音识别得到的第二文本信息;展示所述第一文本信息和所述第二文本信息,其中,所述第一文本信息和所述第二文本信息中内容存在对应关系。
21.一种信息处理方法,其特征在于,所述方法包括:
接收客户端发送的音频信息或音频信息的表征信息;
对所述音频信息或者所述表征信息进行语音识别得到第二文本信息;
将所述第二文本信息发送给所述客户端,以用于所述客户端将所述第二文本信息与第一客户端的第一文本信息进行展示;其中,所述第一文本信息和所述第二文本信息中内容存在对应关系。
22.根据权利要求21所述的方法,其特征在于,在语音识别的步骤中包括:
识别所述音频信息对应的身份信息;
识别所述音频信息中的语音表达的第二文本信息;所述第二文本信息与所述身份信息相关联。
23.一种电子设备,其特征在于,所述电子设备包括:网络通信单元和处理器;
所述网络通信单元,用于接收客户端发送的音频信息或音频信息的表征信息;将所述处理器提供的第二文本信息发送给所述客户端,以用于所述客户端将所述第二文本信息与第一客户端的第一文本信息进行展示;其中,所述第一文本信息和所述第二文本信息中内容存在对应关系;
所述处理器,用于对所述音频信息或者所述表征信息进行语音识别得到第二文本信息。
24.一种计算机存储介质,其特征在于,所述计算机存储介质中存储有计算机程序指令,所述计算机程序指令被执行时可以实现:接收客户端发送的音频信息或音频信息的表征信息;对所述音频信息或者所述表征信息进行语音识别得到第二文本信息;将所述第二文本信息发送给所述客户端,以用于所述客户端将所述第二文本信息与第一客户端的第一文本信息进行展示,其中,所述第一文本信息和所述第二文本信息中内容存在对应关系。
25.一种信息处理方法,其特征在于,包括:
接收第一文本信息;所述第一文本信息为根据语音生成;
接收音频信息;其中,所述音频信息为根据所述语音录制生成;
对所述音频信息进行语音识别得到第二文本信息;
根据所述第一文本信息和所述第二文本信息之间的对应关系进行排版,所述排版后的所述第一文本信息和所述第二文本信息用于展示。
26.根据权利要求25所述的方法,其特征在于,在对所述第一文本信息和所述第二文本信息进行排版的步骤中包括:将接收到的时间较为接近的第一文本信息和音频信息相对应,以对应展示所述第一文本信息和所述音频信息被识别得出的第二文本信息。
27.根据权利要求25所述的方法,其特征在于,在对所述第一文本信息和所述第二文本信息进行排版的步骤中包括:
将所述第一文本信息在指定时间范围内生成的音频信息的第二文本信息中,进行语义匹配,得到与所述第一文本信息对应的第二文本信息。
28.根据权利要求27所述的方法,其特征在于,在进行语义匹配的步骤中还包括:将接收到所述第一文本信息的时间作为基准时间,根据所述基准时间设置所述指定时间范围,所述基准时间位于所述指定时间范围内。
29.根据权利要求25所述的方法,其特征在于,所述方法还包括:
接收对所述第一文本信息进行修改的输入,对第一文本信息进行修改。
30.一种电子设备,其特征在于,所述电子设备包括处理器,
所述处理器用于接收第一文本信息,所述第一文本信息为根据语音生成;接收音频信息,其中,所述音频信息为根据所述语音录制生成;对所述音频信息进行语音识别得到第二文本信息;根据所述第一文本信息和所述第二文本信息之间的对应关系进行排版,所述排版后的所述第一文本信息和所述第二文本信息用于展示。
31.一种计算机存储介质,其特征在于,所述计算机存储介质中存储有计算机程序指令,所述计算机程序指令被执行时实现:接收第一文本信息,所述第一文本信息为根据语音生成;接收音频信息,其中,所述音频信息为根据所述语音录制生成;对所述音频信息进行语音识别得到第二文本信息;根据所述第一文本信息和所述第二文本信息之间的对应关系进行排版,所述排版后的所述第一文本信息和所述第二文本信息用于展示。
32.一种信息处理方法,其特征在于,所述方法包括:
接收第一输入设备输入的第一文本信息;所述第一文本信息为根据语音生成;
接收第二输入设备录制的音频信息;其中,所述音频信息为根据所述语音录制生成;
对所述音频信息进行识别得到第二文本信息;
在第一区域展示所述第一文本信息;
在第二区域展示所述第二文本信息,其中,所述第一文本信息和所述第二文本信息中内容存在对应关系,所述第一区域和第二区域位于相同的界面中。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710592686.1A CN109285548A (zh) | 2017-07-19 | 2017-07-19 | 信息处理方法、系统、电子设备、和计算机存储介质 |
PCT/CN2018/095081 WO2019015505A1 (zh) | 2017-07-19 | 2018-07-10 | 信息处理方法、系统、电子设备、和计算机存储介质 |
US16/742,753 US11664030B2 (en) | 2017-07-19 | 2020-01-14 | Information processing method, system, electronic device, and computer storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710592686.1A CN109285548A (zh) | 2017-07-19 | 2017-07-19 | 信息处理方法、系统、电子设备、和计算机存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109285548A true CN109285548A (zh) | 2019-01-29 |
Family
ID=65015969
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710592686.1A Pending CN109285548A (zh) | 2017-07-19 | 2017-07-19 | 信息处理方法、系统、电子设备、和计算机存储介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11664030B2 (zh) |
CN (1) | CN109285548A (zh) |
WO (1) | WO2019015505A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111177353A (zh) * | 2019-12-27 | 2020-05-19 | 拉克诺德(深圳)科技有限公司 | 文本记录生成方法、装置、计算机设备及存储介质 |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210342211A1 (en) * | 2019-01-21 | 2021-11-04 | Hewlett-Packard Development Company, L.P. | Fault prediction model training with audio data |
CN112015872A (zh) * | 2019-05-29 | 2020-12-01 | 华为技术有限公司 | 问句识别方法及装置 |
CN111583907B (zh) * | 2020-04-15 | 2023-08-15 | 北京小米松果电子有限公司 | 信息处理方法、装置及存储介质 |
CN111489522A (zh) * | 2020-05-29 | 2020-08-04 | 北京百度网讯科技有限公司 | 用于输出信息的方法、装置和系统 |
CN113761968A (zh) * | 2020-06-01 | 2021-12-07 | 阿里巴巴集团控股有限公司 | 数据处理方法、装置、电子设备及计算机存储介质 |
CN112397090B (zh) * | 2020-11-09 | 2022-11-15 | 电子科技大学 | 一种基于fpga的实时声音分类方法及系统 |
CN113111658B (zh) * | 2021-04-08 | 2023-08-18 | 百度在线网络技术(北京)有限公司 | 校验信息的方法、装置、设备和存储介质 |
KR20240066878A (ko) * | 2022-11-08 | 2024-05-16 | 삼성전자주식회사 | 전자 장치 및 누락된 필기 보완 방법 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1585018A (zh) * | 2004-06-15 | 2005-02-23 | 梁国雄 | 用于庭审的计算机录音信息系统 |
CN105427857A (zh) * | 2015-10-30 | 2016-03-23 | 华勤通讯技术有限公司 | 生成文字记录的方法及系统 |
CN105810207A (zh) * | 2014-12-30 | 2016-07-27 | 富泰华工业(深圳)有限公司 | 会议记录装置及其自动生成会议记录的方法 |
CN106782545A (zh) * | 2016-12-16 | 2017-05-31 | 广州视源电子科技股份有限公司 | 一种将音视频数据转化成文字记录的系统和方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2000046787A2 (en) * | 1999-02-05 | 2000-08-10 | Custom Speech Usa, Inc. | System and method for automating transcription services |
US6477491B1 (en) * | 1999-05-27 | 2002-11-05 | Mark Chandler | System and method for providing speaker-specific records of statements of speakers |
US6671669B1 (en) * | 2000-07-18 | 2003-12-30 | Qualcomm Incorporated | combined engine system and method for voice recognition |
WO2002037223A2 (en) * | 2000-11-06 | 2002-05-10 | Invention Machine Corporation | Computer based integrated text and graphic document analysis |
DE10204924A1 (de) * | 2002-02-07 | 2003-08-21 | Philips Intellectual Property | Verfahren und Vorrichtung zur schnellen mustererkennungsunterstützten Transkription gesprochener und schriftlicher Äußerungen |
US7386454B2 (en) * | 2002-07-31 | 2008-06-10 | International Business Machines Corporation | Natural error handling in speech recognition |
US7516070B2 (en) * | 2003-02-19 | 2009-04-07 | Custom Speech Usa, Inc. | Method for simultaneously creating audio-aligned final and verbatim text with the assistance of a speech recognition program as may be useful in form completion using a verbal entry method |
US7676705B2 (en) * | 2005-12-30 | 2010-03-09 | Sap Ag | User interface messaging system and method permitting deferral of message resolution |
US8019608B2 (en) * | 2008-08-29 | 2011-09-13 | Multimodal Technologies, Inc. | Distributed speech recognition using one way communication |
CN101763382A (zh) * | 2008-12-25 | 2010-06-30 | 新奥特硅谷视频技术有限责任公司 | 一种基于角色和优先级设置的信息处理的方法和装置 |
CN101833985A (zh) * | 2009-03-12 | 2010-09-15 | 新奥特硅谷视频技术有限责任公司 | 一种基于语音识别的法庭庭审录像视频实时标引系统 |
US9236047B2 (en) * | 2010-05-21 | 2016-01-12 | Microsoft Technology Licensing, Llc | Voice stream augmented note taking |
CN106372122B (zh) * | 2016-08-23 | 2018-04-10 | 温州大学瓯江学院 | 一种基于维基语义匹配的文档分类方法及系统 |
CN106782551B (zh) * | 2016-12-06 | 2020-07-24 | 北京华夏电通科技有限公司 | 一种语音识别系统及方法 |
-
2017
- 2017-07-19 CN CN201710592686.1A patent/CN109285548A/zh active Pending
-
2018
- 2018-07-10 WO PCT/CN2018/095081 patent/WO2019015505A1/zh active Application Filing
-
2020
- 2020-01-14 US US16/742,753 patent/US11664030B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1585018A (zh) * | 2004-06-15 | 2005-02-23 | 梁国雄 | 用于庭审的计算机录音信息系统 |
CN105810207A (zh) * | 2014-12-30 | 2016-07-27 | 富泰华工业(深圳)有限公司 | 会议记录装置及其自动生成会议记录的方法 |
CN105427857A (zh) * | 2015-10-30 | 2016-03-23 | 华勤通讯技术有限公司 | 生成文字记录的方法及系统 |
CN106782545A (zh) * | 2016-12-16 | 2017-05-31 | 广州视源电子科技股份有限公司 | 一种将音视频数据转化成文字记录的系统和方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111177353A (zh) * | 2019-12-27 | 2020-05-19 | 拉克诺德(深圳)科技有限公司 | 文本记录生成方法、装置、计算机设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US11664030B2 (en) | 2023-05-30 |
US20200152200A1 (en) | 2020-05-14 |
WO2019015505A1 (zh) | 2019-01-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109285548A (zh) | 信息处理方法、系统、电子设备、和计算机存储介质 | |
CN110265040B (zh) | 声纹模型的训练方法、装置、存储介质及电子设备 | |
CN107481720B (zh) | 一种显式声纹识别方法及装置 | |
CN110517689B (zh) | 一种语音数据处理方法、装置及存储介质 | |
WO2021000497A1 (zh) | 检索方法、装置、计算机设备和存储介质 | |
CN106710593B (zh) | 一种添加账号的方法、终端、服务器 | |
TW201905675A (zh) | 資料更新方法、客戶端及電子設備 | |
CN111653265B (zh) | 语音合成方法、装置、存储介质和电子设备 | |
CN110505504B (zh) | 视频节目处理方法、装置、计算机设备及存储介质 | |
Xia et al. | Audiovisual speech recognition: A review and forecast | |
WO2022057759A1 (zh) | 一种语音转换的方法及相关设备 | |
CN114138960A (zh) | 用户意图识别方法、装置、设备及介质 | |
CN112735371A (zh) | 一种基于文本信息生成说话人视频的方法及装置 | |
CN114429767A (zh) | 视频生成方法、装置、电子设备以及存储介质 | |
CN113901186A (zh) | 电话录音标注方法、装置、设备及存储介质 | |
CN113611316A (zh) | 人机交互方法、装置、设备以及存储介质 | |
CN113743267B (zh) | 一种基于螺旋和文本的多模态视频情感可视化方法及装置 | |
KR102226427B1 (ko) | 호칭 결정 장치, 이를 포함하는 대화 서비스 제공 시스템, 호칭 결정을 위한 단말 장치 및 호칭 결정 방법 | |
CN111222334A (zh) | 命名实体识别方法、装置、设备及介质 | |
CN114047900A (zh) | 业务处理方法、装置、电子设备及计算机可读存储介质 | |
Liu et al. | M3TTS: Multi-modal text-to-speech of multi-scale style control for dubbing | |
CN110795581B (zh) | 图像搜索方法、装置、终端设备及存储介质 | |
CN113051426A (zh) | 音频信息分类方法、装置、电子设备及存储介质 | |
Sartiukova et al. | Remote Voice Control of Computer Based on Convolutional Neural Network | |
Schuller et al. | Speech communication and multimodal interfaces |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190129 |
|
RJ01 | Rejection of invention patent application after publication |