CN107039039A - 列车监控运行系统的基于语音的车载人机交互方法、装置 - Google Patents

列车监控运行系统的基于语音的车载人机交互方法、装置 Download PDF

Info

Publication number
CN107039039A
CN107039039A CN201710426829.1A CN201710426829A CN107039039A CN 107039039 A CN107039039 A CN 107039039A CN 201710426829 A CN201710426829 A CN 201710426829A CN 107039039 A CN107039039 A CN 107039039A
Authority
CN
China
Prior art keywords
vehicle
voice
runtime
train supervision
phonetic entry
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710426829.1A
Other languages
English (en)
Inventor
刘辉
盘宇
王业流
刘海军
张涛
黄露
罗永升
朱雷
殷源
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan CRRC Times Signal and Communication Co Ltd
Original Assignee
Hunan CRRC Times Signal and Communication Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan CRRC Times Signal and Communication Co Ltd filed Critical Hunan CRRC Times Signal and Communication Co Ltd
Priority to CN201710426829.1A priority Critical patent/CN107039039A/zh
Publication of CN107039039A publication Critical patent/CN107039039A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了列车监控运行系统的基于语音的车载人机交互方法、装置,实现LKJ系统的车载显示器的智能化,提高了LKJ系统的车载显示器的可靠性、可维护性和功能扩展性。其技术方案为:借助语音识别技术将语音输入转化为车载端的应用软件的具体操作指令,完全替代了传统的手动输入功能,而且通过语音合成技术播放语音提示。此外,由于车载显示器可以具备了语音采集和播放硬件电路,可以将乘务员的语音内容等进行压缩并记录。

Description

列车监控运行系统的基于语音的车载人机交互方法、装置
技术领域
本发明涉及人机交互技术,尤其涉及应用于列车监控运行系统的车载端上的基于语音识别等技术实现的人机交互方法和装置。
背景技术
列车运行监控系统(LKJ系统)的车载显示器作为车载系统的重要组成部分,承担着实现LKJ系统的人机交互功能。人机交互包含输入和输出两个部分。传统的车载显示器的人机交互是通过以下方式实现的。
1、LKJ系统的车载显示器的输入主要通过物理按键和触摸屏两种方式实现,这两种方式都为机械操作,而机械操作都会存在物理损伤的问题。其中物理按键方式存在操作繁琐,故障率较高问题,而触摸屏方式在列控这种油污环境使用也存在可靠性不高的问题。
2、语音输出是LKJ系统的车载显示器的重要输出方式之一,目前LKJ系统的车载显示器的语音一般采用语音文件或者语音芯片的存储方式。此两种方式在语音内容发生变化的情况下都需要重新制作语音文件以及修改语音软件,维护工作比较繁琐和困难。
3、现在机车上有语音录音板用于记录乘务员通过机车电台与地面的语音通讯内容,乘务员在值乘过程中还会携带一个录音笔记录司机在机车运行过程中与乘务员的语音内容。这两个设备在很大程度上存在功能的重复性,提升了成本,降低了效率。
发明内容
以下给出一个或多个方面的简要概述以提供对这些方面的基本理解。此概述不是所有构想到的方面的详尽综览,并且既非旨在指认出所有方面的关键性或决定性要素亦非试图界定任何或所有方面的范围。其唯一的目的是要以简化形式给出一个或多个方面的一些概念以为稍后给出的更加详细的描述之序。
本发明的目的在于解决上述问题,提供了列车监控运行系统的基于语音的车载人机交互方法、装置,实现LKJ系统的车载端设备的智能化,提高了LKJ系统的车载端设备的可靠性、可维护性和功能扩展性。
本发明的技术方案为:本发明揭示了一种列车监控运行系统的基于语音的车载人机交互方法,包括:
列车监控运行系统的车载端设备采集语音输入;
列车监控运行系统的车载端设备将采集到的语音输入识别为操作指令;
在列车监控运行系统的车载端设备的应用软件中运行识别出的操作指令进行操控。
根据本发明的列车监控运行系统的基于语音的车载人机交互方法的一实施例,方法还包括:
列车监控运行系统的车载端设备采集背景环境噪声,并从采集到的语音输入中去除背景环境噪声。
根据本发明的列车监控运行系统的基于语音的车载人机交互方法的一实施例,方法还包括:
在采集语音输入的步骤之前,通过用户操作使能车载端设备的语音交互功能。
根据本发明的列车监控运行系统的基于语音的车载人机交互方法的一实施例,方法还包括:
车载端设备的应用软件接收到列车监控运行系统的主机发送来的文本数据后,将文本数据合成为语音后播放。
根据本发明的列车监控运行系统的基于语音的车载人机交互方法的一实施例,方法还包括:
车载端设备的应用软件接收到列车监控运行系统的主机发送来的数据记录,连同采集到的语音输入组合成一条记录数据后压缩存储,以使地面能够对车载端的操作和语音进行还原分析。
本发明揭示了一种列车监控运行系统的车载人机交互装置的一实施例,装置包括:
语音输入采集模块,采集语音输入;
语音识别模块,连接语音输入采集模块,将采集到的语音输入识别为操作指令;
应用操控模块,连接语音识别模块,运行识别出的操作指令进行车载端的操控。
本发明揭示了一种列车监控运行系统的车载人机交互装置的一实施例,装置还包括:
噪声采集模块,采集背景环境噪声并在语音识别模块中先从采集到的语音输入中去除背景环境噪声。
本发明揭示了一种列车监控运行系统的车载人机交互装置的一实施例,装置还包括:
语音使能模块,通过用户操作使能车载人机交互装置的语音交互功能。
本发明揭示了一种列车监控运行系统的车载人机交互装置的一实施例,装置还包括:
语音合成模块,接收到列车监控运行系统的主机发送来的文本数据后,将文本数据合成为语音后播放。
本发明揭示了一种列车监控运行系统的车载人机交互装置的一实施例,装置还包括:
语音压缩记录模块,接收到列车监控运行系统的主机发送来的数据记录,连同采集到的语音输入组合成一条记录数据后压缩存储,以使地面能够对车载端的操作和语音进行还原分析。
本发明对比现有技术有如下的有益效果:本发明借助语音识别技术将语音输入转化为车载端的应用软件的具体操作指令,完全替代了传统的手动输入功能,而且通过语音合成技术播放语音提示。此外,由于车载显示器可以具备了语音采集和播放硬件电路,可以将乘务员的语音内容等进行压缩并记录。本发明的方法和装置将语音合成、识别、压缩与记录技术引入到LKJ系统的车载显示器上,解决了现有输入模式的维护操作繁琐、可靠性不高、设备集成度不高等问题。
附图说明
图1示出了本发明的列车监控运行系统的基于语音的车载人机交互方法的第一实施例的流程图。
图2示出了本发明的列车监控运行系统的基于语音的车载人机交互方法的第二实施例的流程图。
图3示出了本发明的列车监控运行系统的基于语音的车载人机交互方法的第三实施例的流程图。
图4示出了本发明的列车监控运行系统的基于语音的车载人机交互方法的第四实施例的流程图。
图5示出了本发明的列车监控运行系统的车载人机交互装置的第一实施例的原理图。
图6示出了本发明的列车监控运行系统的车载人机交互装置的第二实施例的原理图。
图7示出了本发明的列车监控运行系统的车载人机交互装置的第三实施例的原理图。
图8示出了本发明的列车监控运行系统的车载人机交互装置的第四实施例的原理图。
图9示出了图8所示的车载人机交互装置的语音处理流程图。
具体实施方式
在结合以下附图阅读本公开的实施例的详细描述之后,能够更好地理解本发明的上述特征和优点。在附图中,各组件不一定是按比例绘制,并且具有类似的相关特性或特征的组件可能具有相同或相近的附图标记。
列车监控运行系统的基于语音的车载人机交互方法的第一实施例
图1示出了本发明的列车监控运行系统的基于语音的车载人机交互方法的第一实施例。请参见图1,下面是对本实施例的车载人机交互方法的实施步骤的详细描述。
步骤S11:通过用户操作使能车载端设备的语音交互功能。
例如,在车载端设备上安装一个语音控制按钮,当按下按钮时会触发语音操控模式,即向车载设备发出一控制信号,使能其语音交互功能。在本发明中,车载端设备例如是车载显示器。
本步骤并不是一个必须的步骤,例如车载端设备的默认操控模式是语音交互模式,这样就不需要用一个特定的操作去激活语音交互模式。
步骤S12:列车监控运行系统的车载端设备采集语音输入。
采集到的语音输入可以直接作为后续步骤的语音识别的输入。较佳的,车载端设备可以同时采集背景环境噪声,然后从采集到的语音输入中去除背景环境噪声,经过这一优化处理后的语音输入后再进行语音识别。
步骤S13:列车监控运行系统的车载端设备将采集到的语音输入识别为操作指令。
前一步骤中的直接采集得到或者经过优化处理后的语音输入经过语音识别处理后转换为具体的操作指令。
步骤S14:在列车监控运行系统的车载端设备的应用软件中运行识别出的操作指令进行操控。
前一步骤的语音识别出的操作指令发送给应用软件,应用软件收到操作指令后首先判断是否为有效指令,然后根据指令类别进行相应处理。
列车监控运行系统的基于语音的车载人机交互方法的第二实施例
图2示出了本发明的列车监控运行系统的基于语音的车载人机交互方法的第二实施例。请参见图2,下面是对本实施例的车载人机交互方法的实施步骤的详细描述。本实施例的车载人机交互方法包括两部分的处理:语音识别操控和语音合成播放。对于前者,其实施方式和前述的第一实施例中的处理相同,以下分别针对两部分处理进行说明。
首先是语音识别操控的处理,如图2所述如下。
步骤S211:通过用户操作使能车载端设备的语音交互功能。
例如,在车载端设备上安装一个语音控制按钮,当按下按钮时会触发语音操控模式,即向车载设备发出一控制信号,使能其语音交互功能。在本发明中,车载端设备例如是车载显示器。
本步骤并不是一个必须的步骤,例如车载端设备的默认操控模式是语音交互模式,这样就不需要用一个特定的操作去激活语音交互模式。
步骤S212:列车监控运行系统的车载端设备采集语音输入。
采集到的语音输入可以直接作为后续步骤的语音识别的输入。较佳的,车载端设备可以同时采集背景环境噪声,然后从采集到的语音输入中去除背景环境噪声,经过这一优化处理后的语音输入再进行语音识别。
步骤S213:列车监控运行系统的车载端设备将采集到的语音输入识别为操作指令。
前一步骤中的直接采集得到或者经过优化处理后的语音输入经过语音识别处理后转换为具体的操作指令。
步骤S214:在列车监控运行系统的车载端设备的应用软件中运行识别出的操作指令进行操控。
前一步骤的语音识别出的操作指令发送给应用软件,应用软件收到操作指令后首先判断是否为有效指令,然后根据指令类别进行相应处理。
其次是语音合成播放的处理。
步骤S221:车载端设备的应用软件接收列车监控运行系统的主机发送来的文本数据。
这些文本数据例如是车载端设备的操作对应在主机端的处理反馈结果,再经由通信通道回传给车载端的数据。
步骤S222:车载端设备的应用软件将文本数据语音合成为语音数据后进行播放。
通过语音合成技术转换来的语音数据在车载端设备的喇叭等播放组件中进行语音播放。
列车监控运行系统的基于语音的车载人机交互方法的第三实施例
图3示出了本发明的列车监控运行系统的基于语音的车载人机交互方法的第三实施例。请参见图3,下面是对本实施例的车载人机交互方法的实施步骤的详细描述。本实施例的车载人机交互方法包括两部分的处理:语音识别操控和语音压缩记录。对于前者,其实施方式和前述的第一实施例中的处理相同,以下分别针对两部分处理进行说明。
第一部分是语音识别操控的处理,如图3所述如下。
步骤S311:通过用户操作使能车载端设备的语音交互功能。
例如,在车载端设备上安装一个语音控制按钮,当按下按钮时会触发语音操控模式,即向车载设备发出一控制信号,使能其语音交互功能。在本发明中,车载端设备例如是车载显示器。
本步骤并不是一个必须的步骤,例如车载端设备的默认操控模式是语音交互模式,这样就不需要用一个特定的操作去激活语音交互模式。
步骤S312:列车监控运行系统的车载端设备采集语音输入。
采集到的语音输入可以直接作为后续步骤的语音识别的输入。较佳的,车载端设备可以同时采集背景环境噪声,然后从采集到的语音输入中去除背景环境噪声,经过这一优化处理后的语音输入后再进行语音识别。
步骤S313:列车监控运行系统的车载端设备将采集到的语音输入识别为操作指令。
前一步骤中的直接采集得到或者经过优化处理后的语音输入经过语音识别处理后转换为具体的操作指令。
步骤S314:在列车监控运行系统的车载端设备的应用软件中运行识别出的操作指令进行操控。
前一步骤的语音识别出的操作指令发送给应用软件,应用软件收到操作指令后首先判断是否为有效指令,然后根据指令类别进行相应处理。
第二部分是语音压缩记录的处理。
步骤S321:车载端设备的应用软件接收列车监控运行系统的主机发送来的数据记录。
这些数据记录例如是车载端设备的操作对应在主机端的处理反馈结果,再经由通信通道回传给车载端的数据。
步骤S322:车载端设备的应用软件将数据记录连同采集到的对应的语音输入组合成一条记录数据后压缩存储,以使地面能够对车载端的操作和语音进行还原分析。
在一条记录数据中,采集到的语音输入和主机发送来的关键数据记录(例如时间、速度、公里标、站名等)是对应的,即是语音输入和主机数据记录是同一时刻记录的,再组合成一条记录后压缩存储,以便地面能够随时对车载端的操作和语音进行还原分析,还原为语音时间发送时的列车状态和语音输入内容。
这种压缩记录功能可以替代传统的语音记录板和录音笔的功能,通过地面分析软件对乘务员的操作和语音进行还原分析。
列车监控运行系统的基于语音的车载人机交互方法的第四实施例
图4示出了本发明的列车监控运行系统的基于语音的车载人机交互方法的第四实施例。请参见图4,下面是对本实施例的车载人机交互方法的实施步骤的详细描述。本实施例的车载人机交互方法包括三部分的处理:语音识别操控、语音合成播放和语音压缩记录。对于语音识别操控,其实施方式和前述的第一实施例中的处理相同;对于语音合成播放,其实施方式和前述的第二实施例中的处理相同;对于语音压缩记录,其实施方式和前述的第三实施例中的处理相同。以下分别针对三部分处理进行说明。
第一部分是语音识别操控的处理,如图4所述如下。
步骤S411:通过用户操作使能车载端设备的语音交互功能。
例如,在车载端设备上安装一个语音控制按钮,当按下按钮时会触发语音操控模式,即向车载设备发出一控制信号,使能其语音交互功能。在本发明中,车载端设备例如是车载显示器。
本步骤并不是一个必须的步骤,例如车载端设备的默认操控模式是语音交互模式,这样就不需要用一个特定的操作去激活语音交互模式。
步骤S412:列车监控运行系统的车载端设备采集语音输入。
采集到的语音输入可以直接作为后续步骤的语音识别的输入。较佳的,车载端设备可以同时采集背景环境噪声,然后从采集到的语音输入中去除背景环境噪声,经过这一优化处理后的语音输入后再进行语音识别。
步骤S413:列车监控运行系统的车载端设备将采集到的语音输入识别为操作指令。
前一步骤中的直接采集得到或者经过优化处理后的语音输入经过语音识别处理后转换为具体的操作指令。
步骤S414:在列车监控运行系统的车载端设备的应用软件中运行识别出的操作指令进行操控。
前一步骤的语音识别出的操作指令发送给应用软件,应用软件收到操作指令后首先判断是否为有效指令,然后根据指令类别进行相应处理。
第二部分是语音合成播放的处理。
步骤S421:车载端设备的应用软件接收列车监控运行系统的主机发送来的文本数据。
这些文本数据例如是车载端设备的操作对应在主机端的处理反馈结果,再经由通信通道回传给车载端的数据。
步骤S422:车载端设备的应用软件将文本数据语音合成为语音数据后进行播放。
通过语音合成技术转换来的语音数据在车载端设备的喇叭等播放组件中进行语音播放。
第三部分是语音压缩记录的处理。
步骤S431:车载端设备的应用软件接收列车监控运行系统的主机发送来的数据记录。
这些数据记录例如是车载端设备的操作对应在主机端的处理反馈结果,再经由通信通道回传给车载端的数据。
步骤S432:车载端设备的应用软件将数据记录连同采集到的对应的语音输入组合成一条记录数据后压缩存储,以使地面能够对车载端的操作和语音进行还原分析。
在一条记录数据中,采集到的语音输入和主机发送来的关键数据记录(例如时间、速度、公里标、站名等)是对应的,即是语音输入和主机数据记录是同一时刻记录的,再组合成一条记录后压缩存储,以便地面能够随时对车载端的操作和语音进行还原分析,还原为语音时间发送时的列车状态和语音输入内容。
这种压缩记录功能可以替代传统的语音记录板和录音笔的功能,通过地面分析软件对乘务员的操作和语音进行还原分析。
列车监控运行系统的车载人机交互装置的第一实施例
图5示出了本发明的列车监控运行系统的车载人机交互装置的第一实施例的原理。请参见图5,本实施例的车载人机交互装置包括:语音使能模块11、语音输入采集模块12、语音识别模块13、应用操控模块14。
语音使能模块11通过用户操作使能车载人机交互装置的语音交互功能。例如,在车载端设备上安装一个语音控制按钮,当按下按钮时会触发语音操控模式,即向车载设备发出一控制信号,使能其语音交互功能。这一模块并不是一个必须的模块,例如车载人机交互装置的默认操控模式就是语音交互模式,这样就不需要用一个特定的操作去激活语音交互模式。
语音输入采集模块12采集语音输入,采集到的语音输入可以直接作为后续的语音识别模块的输入。
较佳的,在本实施例中还可以包括噪声采集模块15,连接语音识别模块13,采集背景环境噪声并在语音识别模块13中先从采集到的语音输入中去除背景环境噪声,经过这一优化处理后的语音输入再进行语音识别。
语音识别模块13连接语音输入采集模块12,直接采集得到或者经过优化处理后的语音输入经过语音识别处理后转换为具体的操作指令。
应用操控模块14连接语音识别模块13,运行识别出的操作指令进行车载端的操控。语音识别出的操作指令发送给应用软件,应用软件收到操作指令后首先判断是否为有效指令,然后根据指令类别进行相应处理。
列车监控运行系统的车载人机交互装置的第二实施例
图6示出了本发明的列车监控运行系统的车载人机交互装置的第二实施例的原理。请参见图6,本实施例的车载人机交互装置包括:语音使能模块21、语音输入采集模块22、语音识别模块23、应用操控模块24、语音合成模块25。
语音使能模块21通过用户操作使能车载人机交互装置的语音交互功能。例如,在车载端设备上安装一个语音控制按钮,当按下按钮时会触发语音操控模式,即向车载设备发出一控制信号,使能其语音交互功能。这一模块并不是一个必须的模块,例如车载人机交互装置的默认操控模式就是语音交互模式,这样就不需要用一个特定的操作去激活语音交互模式。
语音输入采集模块22采集语音输入,采集到的语音输入可以直接作为后续的语音识别模块的输入。
较佳的,在本实施例中还可以包括噪声采集模块26,连接语音识别模块23,采集背景环境噪声并先在语音识别模块23中从采集到的语音输入中去除背景环境噪声,经过这一优化处理后的语音输入后再进行语音识别。
语音识别模块23连接语音输入采集模块22,直接采集得到或者经过优化处理后的语音输入经过语音识别处理后转换为具体的操作指令。
应用操控模块24连接语音识别模块23,运行识别出的操作指令进行车载端的操控。语音识别出的操作指令发送给应用软件,应用软件收到操作指令后首先判断是否为有效指令,然后根据指令类别进行相应处理。
语音合成模块25接收到列车监控运行系统的主机发送来的文本数据后,将文本数据合成为语音后播放。这些文本数据例如是车载端设备的操作对应在主机端的处理反馈结果,再经由通信通道回传给车载端的数据。通过语音合成技术转换来的语音数据在车载端设备的喇叭等播放组件中进行语音播放。
列车监控运行系统的车载人机交互装置的第三实施例
图7示出了本发明的列车监控运行系统的车载人机交互装置的第三实施例的原理。请参见图7,本实施例的车载人机交互装置包括:语音使能模块31、语音输入采集模块32、语音识别模块33、应用操控模块34、语音压缩记录模块35。
语音使能模块31通过用户操作使能车载人机交互装置的语音交互功能。例如,在车载端设备上安装一个语音控制按钮,当按下按钮时会触发语音操控模式,即向车载设备发出一控制信号,使能其语音交互功能。这一模块并不是一个必须的模块,例如车载人机交互装置的默认操控模式就是语音交互模式,这样就不需要用一个特定的操作去激活语音交互模式。
语音输入采集模块32采集语音输入,采集到的语音输入可以直接作为后续的语音识别模块的输入。
较佳的,在本实施例中还可以包括噪声采集模块36,连接语音识别模块33,采集背景环境噪声并先在语音识别模块33中从采集到的语音输入中去除背景环境噪声,经过这一优化处理后的语音输入再进行语音识别。
语音识别模块33连接语音输入采集模块32,直接采集得到或者经过优化处理后的语音输入经过语音识别处理后转换为具体的操作指令。
应用操控模块34连接语音识别模块33,运行识别出的操作指令进行车载端的操控。语音识别出的操作指令发送给应用软件,应用软件收到操作指令后首先判断是否为有效指令,然后根据指令类别进行相应处理。
语音压缩记录模块35接收到列车监控运行系统的主机发送来的数据记录,连同采集到的语音输入组合成一条记录数据后压缩存储,以使地面能够对车载端的操作和语音进行还原分析。在一条记录数据中,采集到的语音输入和主机发送来的关键数据记录(例如时间、速度、公里标、站名等)是对应的,即是语音输入和主机数据记录是同一时刻记录的,再组合成一条记录后压缩存储,以便地面能够随时对车载端的操作和语音进行还原分析,还原为语音时间发送时的列车状态和语音输入内容。这种压缩记录功能可以替代传统的语音记录板和录音笔的功能,通过地面分析软件对乘务员的操作和语音进行还原分析。
列车监控运行系统的车载人机交互装置的第四实施例
图8示出了本发明的列车监控运行系统的车载人机交互装置的第四实施例的原理。请参见图8,本实施例的车载人机交互装置包括:语音使能模块41、语音输入采集模块42、语音识别模块43、应用操控模块44、语音合成模块45、语音压缩记录模块46。
语音使能模块41通过用户操作使能车载人机交互装置的语音交互功能。例如,在车载端设备上安装一个语音控制按钮,当按下按钮时会触发语音操控模式,即向车载设备发出一控制信号,使能其语音交互功能。这一模块并不是一个必须的模块,例如车载人机交互装置的默认操控模式就是语音交互模式,这样就不需要用一个特定的操作去激活语音交互模式。
语音输入采集模块42采集语音输入,采集到的语音输入可以直接作为后续的语音识别模块的输入。
较佳的,在本实施例中还可以包括噪声采集模块47,连接语音识别模块43,采集背景环境噪声并先在语音识别模块43中从采集到的语音输入中去除背景环境噪声,经过这一优化处理后的语音输入再进行语音识别。
语音识别模块43连接语音输入采集模块42,直接采集得到或者经过优化处理后的语音输入经过语音识别处理后转换为具体的操作指令。
应用操控模块44连接语音识别模块43,运行识别出的操作指令进行车载端的操控。语音识别出的操作指令发送给应用软件,应用软件收到操作指令后首先判断是否为有效指令,然后根据指令类别进行相应处理。
语音合成模块45接收到列车监控运行系统的主机发送来的文本数据后,将文本数据合成为语音后播放。这些文本数据例如是车载端设备的操作对应在主机端的处理反馈结果,再经由通信通道回传给车载端的数据。通过语音合成技术转换来的语音数据在车载端设备的喇叭等播放组件中进行语音播放。
语音压缩记录模块46接收到列车监控运行系统的主机发送来的数据记录,连同采集到的语音输入组合成一条记录数据后压缩存储,以使地面能够对车载端的操作和语音进行还原分析。在一条记录数据中,采集到的语音输入和主机发送来的关键数据记录(例如时间、速度、公里标、站名等)是对应的,即是语音输入和主机数据记录是同一时刻记录的,再组合成一条记录后压缩存储,以便地面能够随时对车载端的操作和语音进行还原分析,还原为语音时间发送时的列车状态和语音输入内容。这种压缩记录功能可以替代传统的语音记录板和录音笔的功能,通过地面分析软件对乘务员的操作和语音进行还原分析。
本实施例的语音处理流程如图9所示,在启动时首先读取配置文件(配置车载端显示器的工作模式)。在按钮控制模式下判断按钮状态,从而判断是否使能语音识别和语音压缩记录功能。在按钮有效状态下语音识别模块根据外部输入的语音信号和噪声信号进行语音识别,根据开始设定好的语音唤醒关键字判断是否启动语音识别并进行识别指令的输出。语音压缩记录模块将采集到的语音与通信数据组合成一条语音记录进行保存,并可以通过地面分析软件对乘务员的操作和语音进行还原分析。此外,语音合成模块根据应用软件发送的语音文本进行语音合成和播放。
本发明为列车运行监控系统的车载端设备(例如车载显示器)集成了语音合成、语音识别、语音压缩和记录功能,增加了显示器输入的可靠性、输出的灵活性,提高了软件的可用性,扩展了显示器的功能。通过构建了一个灵活的带语音合成、识别和压缩记录功能的显示器系统。本发明的通用性强,可以将这种方式应用至其他的人机交互单元。总的来说,本发明降低了列车运行监控系统人机交互介面的操作复杂度,提高了人机交互介面的交互功能,扩展了人机交互介面的语音压缩记录功能。
尽管为使解释简单化将上述方法图示并描述为一系列动作,但是应理解并领会,这些方法不受动作的次序所限,因为根据一个或多个实施例,一些动作可按不同次序发生和/或与来自本文中图示和描述或本文中未图示和描述但本领域技术人员可以理解的其他动作并发地发生。
本领域技术人员将进一步领会,结合本文中所公开的实施例来描述的各种解说性逻辑板块、模块、电路、和算法步骤可实现为电子硬件、计算机软件、或这两者的组合。为清楚地解说硬件与软件的这一可互换性,各种解说性组件、框、模块、电路、和步骤在上面是以其功能性的形式作一般化描述的。此类功能性是被实现为硬件还是软件取决于具体应用和施加于整体系统的设计约束。技术人员对于每种特定应用可用不同的方式来实现所描述的功能性,但这样的实现决策不应被解读成导致脱离了本发明的范围。
结合本文所公开的实施例描述的各种解说性逻辑板块、模块、和电路可用通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其它可编程逻辑器件、分立的门或晶体管逻辑、分立的硬件组件、或其设计成执行本文所描述功能的任何组合来实现或执行。通用处理器可以是微处理器,但在替换方案中,该处理器可以是任何常规的处理器、控制器、微控制器、或状态机。处理器还可以被实现为计算设备的组合,例如DSP与微处理器的组合、多个微处理器、与DSP核心协作的一个或多个微处理器、或任何其他此类配置。
结合本文中公开的实施例描述的方法或算法的步骤可直接在硬件中、在由处理器执行的软件模块中、或在这两者的组合中体现。软件模块可驻留在RAM存储器、闪存、ROM存储器、EPROM存储器、EEPROM存储器、寄存器、硬盘、可移动盘、CD-ROM、或本领域中所知的任何其他形式的存储介质中。示例性存储介质耦合到处理器以使得该处理器能从/向该存储介质读取和写入信息。在替换方案中,存储介质可以被整合到处理器。处理器和存储介质可驻留在ASIC中。ASIC可驻留在用户终端中。在替换方案中,处理器和存储介质可作为分立组件驻留在用户终端中。
在一个或多个示例性实施例中,所描述的功能可在硬件、软件、固件或其任何组合中实现。如果在软件中实现为计算机程序产品,则各功能可以作为一条或更多条指令或代码存储在计算机可读介质上或藉其进行传送。计算机可读介质包括计算机存储介质和通信介质两者,其包括促成计算机程序从一地向另一地转移的任何介质。存储介质可以是能被计算机访问的任何可用介质。作为示例而非限定,这样的计算机可读介质可包括RAM、ROM、EEPROM、CD-ROM或其它光盘存储、磁盘存储或其它磁存储设备、或能被用来携带或存储指令或数据结构形式的合意程序代码且能被计算机访问的任何其它介质。任何连接也被正当地称为计算机可读介质。例如,如果软件是使用同轴电缆、光纤电缆、双绞线、数字订户线(DSL)、或诸如红外、无线电、以及微波之类的无线技术从web网站、服务器、或其它远程源传送而来,则该同轴电缆、光纤电缆、双绞线、DSL、或诸如红外、无线电、以及微波之类的无线技术就被包括在介质的定义之中。如本文中所使用的盘(disk)和碟(disc)包括压缩碟(CD)、激光碟、光碟、数字多用碟(DVD)、软盘和蓝光碟,其中盘(disk)往往以磁的方式再现数据,而碟(disc)用激光以光学方式再现数据。上述的组合也应被包括在计算机可读介质的范围内。
提供对本公开的先前描述是为使得本领域任何技术人员皆能够制作或使用本公开。对本公开的各种修改对本领域技术人员来说都将是显而易见的,且本文中所定义的普适原理可被应用到其他变体而不会脱离本公开的精神或范围。由此,本公开并非旨在被限定于本文中所描述的示例和设计,而是应被授予与本文中所公开的原理和新颖性特征相一致的最广范围。

Claims (10)

1.一种列车监控运行系统的基于语音的车载人机交互方法,其特征在于,包括:
列车监控运行系统的车载端设备采集语音输入;
列车监控运行系统的车载端设备将采集到的语音输入识别为操作指令;
在列车监控运行系统的车载端设备的应用软件中运行识别出的操作指令进行操控。
2.根据权利要求1所述的列车监控运行系统的基于语音的车载人机交互方法,其特征在于,方法还包括:
列车监控运行系统的车载端设备采集背景环境噪声,并从采集到的语音输入中去除背景环境噪声。
3.根据权利要求1所述的列车监控运行系统的基于语音的车载人机交互方法,其特征在于,方法还包括:
在采集语音输入的步骤之前,通过用户操作使能车载端设备的语音交互功能。
4.根据权利要求1所述的列车监控运行系统的基于语音的车载人机交互方法,其特征在于,方法还包括:
车载端设备的应用软件接收到列车监控运行系统的主机发送来的文本数据后,将文本数据合成为语音后播放。
5.根据权利要求1所述的列车监控运行系统的基于语音的车载人机交互方法,其特征在于,方法还包括:
车载端设备的应用软件接收到列车监控运行系统的主机发送来的数据记录,连同采集到的语音输入组合成一条记录数据后压缩存储,以使地面能够对车载端的操作和语音进行还原分析。
6.一种列车监控运行系统的车载人机交互装置,其特征在于,装置包括:
语音输入采集模块,采集语音输入;
语音识别模块,连接语音输入采集模块,将采集到的语音输入识别为操作指令;
应用操控模块,连接语音识别模块,运行识别出的操作指令进行车载端的操控。
7.根据权利要求6所述的列车监控运行系统的车载人机交互装置,其特征在于,装置还包括:
噪声采集模块,采集背景环境噪声并在语音识别模块中先从采集到的语音输入中去除背景环境噪声。
8.根据权利要求6所述的列车监控运行系统的车载人机交互装置,其特征在于,装置还包括:
语音使能模块,通过用户操作使能车载人机交互装置的语音交互功能。
9.根据权利要求6所述的列车监控运行系统的车载人机交互装置,其特征在于,装置还包括:
语音合成模块,接收到列车监控运行系统的主机发送来的文本数据后,将文本数据合成为语音后播放。
10.根据权利要求6所述的列车监控运行系统的车载人机交互装置,其特征在于,装置还包括:
语音压缩记录模块,接收到列车监控运行系统的主机发送来的数据记录,连同采集到的语音输入组合成一条记录数据后压缩存储,以使地面能够对车载端的操作和语音进行还原分析。
CN201710426829.1A 2017-06-08 2017-06-08 列车监控运行系统的基于语音的车载人机交互方法、装置 Pending CN107039039A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710426829.1A CN107039039A (zh) 2017-06-08 2017-06-08 列车监控运行系统的基于语音的车载人机交互方法、装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710426829.1A CN107039039A (zh) 2017-06-08 2017-06-08 列车监控运行系统的基于语音的车载人机交互方法、装置

Publications (1)

Publication Number Publication Date
CN107039039A true CN107039039A (zh) 2017-08-11

Family

ID=59541749

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710426829.1A Pending CN107039039A (zh) 2017-06-08 2017-06-08 列车监控运行系统的基于语音的车载人机交互方法、装置

Country Status (1)

Country Link
CN (1) CN107039039A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113763988A (zh) * 2020-06-01 2021-12-07 中车株洲电力机车研究所有限公司 机车司机室监控信息与lkj监控信息的时间同步方法及系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN2550875Y (zh) * 2002-07-16 2003-05-14 李长水 车载信息语音转换装置
CN1573730A (zh) * 2003-05-26 2005-02-02 日产自动车株式会社 车用信息提供方法和车用信息提供设备
CN201946294U (zh) * 2010-12-21 2011-08-24 佛山市顺德区必达电子科技有限公司 车载语音转换装置
CN102862587A (zh) * 2012-08-20 2013-01-09 泉州市铁通电子设备有限公司 一种铁路车机联控语音分析方法和设备
CN103685524A (zh) * 2013-12-16 2014-03-26 中国科学院深圳先进技术研究院 智能车载终端系统
CN105448294A (zh) * 2015-12-09 2016-03-30 江苏天安智联科技股份有限公司 一种应用于车载设备的智能语音识别系统
CN105912187A (zh) * 2015-12-30 2016-08-31 乐视致新电子科技(天津)有限公司 语音控制方法及其设备
CN106297785A (zh) * 2016-08-09 2017-01-04 董文亮 一种基于车联网的智能服务系统
CN106601232A (zh) * 2017-01-04 2017-04-26 江西沃可视发展有限公司 一种基于语音识别的车载终端人机交互系统

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN2550875Y (zh) * 2002-07-16 2003-05-14 李长水 车载信息语音转换装置
CN1573730A (zh) * 2003-05-26 2005-02-02 日产自动车株式会社 车用信息提供方法和车用信息提供设备
CN201946294U (zh) * 2010-12-21 2011-08-24 佛山市顺德区必达电子科技有限公司 车载语音转换装置
CN102862587A (zh) * 2012-08-20 2013-01-09 泉州市铁通电子设备有限公司 一种铁路车机联控语音分析方法和设备
CN103685524A (zh) * 2013-12-16 2014-03-26 中国科学院深圳先进技术研究院 智能车载终端系统
CN105448294A (zh) * 2015-12-09 2016-03-30 江苏天安智联科技股份有限公司 一种应用于车载设备的智能语音识别系统
CN105912187A (zh) * 2015-12-30 2016-08-31 乐视致新电子科技(天津)有限公司 语音控制方法及其设备
CN106297785A (zh) * 2016-08-09 2017-01-04 董文亮 一种基于车联网的智能服务系统
CN106601232A (zh) * 2017-01-04 2017-04-26 江西沃可视发展有限公司 一种基于语音识别的车载终端人机交互系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
潘梁生: ""列车车载语音识别系统的设计与实现"", 《中国优秀硕士学位论文全文数据库工程科技辑》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113763988A (zh) * 2020-06-01 2021-12-07 中车株洲电力机车研究所有限公司 机车司机室监控信息与lkj监控信息的时间同步方法及系统
CN113763988B (zh) * 2020-06-01 2024-05-28 中车株洲电力机车研究所有限公司 机车司机室监控信息与lkj监控信息的时间同步方法及系统

Similar Documents

Publication Publication Date Title
CN108231065A (zh) 多语者语音识别校正系统
CN107220235A (zh) 基于人工智能的语音识别纠错方法、装置及存储介质
CN109036396A (zh) 一种第三方应用的交互方法及系统
CN110060685A (zh) 语音唤醒方法和装置
CN107210040A (zh) 语音功能的操作方法和支持该方法的电子设备
CN104078035B (zh) 一种演奏乐曲的方法及装置
WO2020139058A1 (en) Cross-device voiceprint recognition
CN112017650B (zh) 电子设备的语音控制方法、装置、计算机设备和存储介质
CN105229725A (zh) 多语言深神经网络
CN110517689A (zh) 一种语音数据处理方法、装置及存储介质
CN105551498A (zh) 一种语音识别的方法及装置
CN106847284A (zh) 电子设备、计算机可读存储介质及语音交互方法
CN108012173A (zh) 一种内容识别方法、装置、设备和计算机存储介质
CN110619897A (zh) 一种会议纪要生成的方法及车载录音系统
CN109192192A (zh) 一种语种识别方法、装置、翻译机、介质和设备
CN113129867B (zh) 语音识别模型的训练方法、语音识别方法、装置和设备
CN101861621A (zh) 自动同步解释系统
CN111653265A (zh) 语音合成方法、装置、存储介质和电子设备
CN110334497A (zh) 显示界面的切换方法和穿戴式电子设备、存储介质
CN107039039A (zh) 列车监控运行系统的基于语音的车载人机交互方法、装置
CN105513610A (zh) 一种声音分析方法及装置
CN110299036A (zh) 交互阅读方法、装置、系统及存储介质
JP7152384B2 (ja) 電子デバイスの音声制御方法、電子デバイスの音声制御装置、コンピュータ機器及び記憶媒体
CN110298150B (zh) 一种基于语音识别的身份验证方法及系统
CN100552657C (zh) 音讯媒体储存及播放装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20170811

RJ01 Rejection of invention patent application after publication