CN111679745A - 音箱控制方法、装置、设备、可穿戴设备及可读存储介质 - Google Patents

音箱控制方法、装置、设备、可穿戴设备及可读存储介质 Download PDF

Info

Publication number
CN111679745A
CN111679745A CN201910180531.6A CN201910180531A CN111679745A CN 111679745 A CN111679745 A CN 111679745A CN 201910180531 A CN201910180531 A CN 201910180531A CN 111679745 A CN111679745 A CN 111679745A
Authority
CN
China
Prior art keywords
sound box
target finger
character
user
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910180531.6A
Other languages
English (en)
Inventor
周浩
吴海全
林敏洁
姜德军
张恩勤
曹磊
师瑞文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Grandsun Electronics Co Ltd
Original Assignee
Shenzhen Grandsun Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Grandsun Electronics Co Ltd filed Critical Shenzhen Grandsun Electronics Co Ltd
Priority to CN201910180531.6A priority Critical patent/CN111679745A/zh
Publication of CN111679745A publication Critical patent/CN111679745A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明涉及音箱控制技术领域,提供了一种音箱控制方法、装置、设备、可穿戴设备及可读存储介质,该方法包括:基于用户目标手指的移动生成与所述目标手指移动时产生的文字轨迹对应的文字信息;将所述文字信息转换成语音信息,并将所述语音信息发送至音箱,以使得所述音箱根据所述语音信息反馈对应的内容。本发明的技术方案,通过将用户的手写内容变成语音信息发送至音箱,实现用户与现有的智能音箱的语音交互,为发声障碍的人群与智能音箱之间进行便捷交互提供了机会,能够适应目前市场上绝大部分具有语音交互功能的智能音箱,可推广性强。

Description

音箱控制方法、装置、设备、可穿戴设备及可读存储介质
技术领域
本发明涉及音箱控制技术领域,尤其涉及一种音箱控制方法、装置、设备、可穿戴设备及可读存储介质。
背景技术
在现有的智能音箱解决方案主要包括App交互,触控交互以及语音交互。其中语音交互更是智能音箱的智能体现。语音交互通过不断提高用户发出的自然语言的识别率来提升用户体验。但是,当音箱的使用者拥有发声障碍时,现有音箱的语音交互则毫无用处。
发明内容
本发明的主要目的是提供一种音箱控制方法、装置、设备、可穿戴设备及可读存储介质,旨在解决现有智能音箱与发声障碍的人群交互困难的问题。
为实现上述目的,本发明实施例第一方面提供的音箱控制方法,包括以下步骤:
基于用户目标手指的移动生成与所述目标手指移动时产生的文字轨迹对应的文字信息;
将所述文字信息转换成语音信息,并将所述语音信息发送至音箱,以使得所述音箱根据所述语音信息反馈对应的内容。
本发明实施例第二方面提供了一种音箱控制装置,包括:
配文字生成模块,用于基于用户目标手指的移动生成与所述目标手指移动时产生的文字轨迹对应的文字信息;
转换模块,用于将所述文字信息转换成语音信息;
传输模块,用于将所述语音信息发送至音箱,以使得所述音箱根据所述语音信息反馈对应的内容。
本发明实施例第三发面提供的一种可穿戴设备,所述可穿戴设备穿戴设于用户手指上,包括采集模块、处理模块和通信模块,所述采集模块用于采集目标手指移动时的运动参数,所述处理模块用于根据采集的运动参数生成目标手指移动时形成的文字轨迹的空间坐标序列,所述通信模块用于将所述空间坐标序列发送移动终端。
本发明实施例第四方面提供的一种音箱控制设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述所述方法的步骤。
本发明实施例第五方面提供的一种可读存储介质,所述可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述所述方法的步骤。
本发明实施例中,基于用户目标手指的移动生成与目标手指移动时产生的文字轨迹对应的文字信息后,将文字信息转换成语音信息,并将语音信息发送至音箱,以使得音箱根据语音信息反馈对应的内容。本发明的技术方案,通过将用户的手写内容变成语音信息发送至音箱,实现用户与现有的智能音箱的语音交互,为发声障碍的人群与智能音箱之间进行便捷交互提供了机会,能够适应目前市场上绝大部分具有语音交互功能的智能音箱,可推广性强。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图示出的结构获得其他的附图。
图1为本发明实施例一提供的音箱控制方法的实现流程示意图;
图2为本发明实施例二提供的音箱控制方法的实现流程示意图;
图3为本发明实施例三提供的音箱控制方法的实现流程示意图;
图4为本发明实施例四提供的音箱控制装置的示意图;
图5为本发明实施例五提供的可穿戴设备的示意图;
图6为本发明实施例六提供的音箱控制设备的硬件结构示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本发明实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
具体实现中,本发明实施例中描述的终端设备包括但不限于诸如具有触摸敏感表面(例如,触摸屏显示器和/或触摸板)的移动电话、膝上型计算机或平板计算机之类的其它便携式设备。还应当理解的是,在某些实施例中,所述设备并非便携式通信设备,而是具有触摸敏感表面(例如,触摸屏显示器和/或触摸板)的台式计算机。
在接下来的讨论中,描述了包括显示器和触摸敏感表面的终端设备。然而,应当理解的是,终端设备可以包括诸如物理键盘、鼠标和/或控制杆的一个或多个其它物理用户接口设备。
终端设备支持各种应用程序,例如以下中的一个或多个:绘图应用程序、演示应用程序、文字处理应用程序、网站创建应用程序、盘刻录应用程序、电子表格应用程序、游戏应用程序、电话应用程序、视频会议应用程序、电子邮件应用程序、即时消息收发应用程序、锻炼支持应用程序、照片管理应用程序、数码相机应用程序、数字摄影机应用程序、web浏览应用程序、数字音乐播放器应用程序和/或数字视频播放器应用程序。
可以在终端设备上执行的各种应用程序可以使用诸如触摸敏感表面的至少一个公共物理用户接口设备。可以在应用程序之间和/或相应应用程序内调整和/或改变触摸敏感表面的一个或多个功能以及终端上显示的相应信息。这样,终端的公共物理架构(例如,触摸敏感表面)可以支持具有对用户而言直观且透明的用户界面的各种应用程序。
另外,在本发明的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
为了说明本发明所述的技术方案,下面通过具体实施例来进行说明。
参见图1,是本发明实施例一提供的音箱控制方法的实现流程示意图,该方法包括:
S11:基于用户目标手指的移动生成与所述目标手指移动时产生的文字轨迹对应的文字信息;
在本实施例中,音箱控制方法的执行主体是音箱控制设备,音箱控制设备可以是手机、平板电脑、笔记本电脑、服务器等终端设备,也可以是具有处理功能的设备或仪器,还可以是具有处理功能的智能音箱本体。在本实施例中,以音效控制设备为移动终端为例进行说明,如移动终端为智能手机。移动终端与音箱进行通信连接,移动终端上安装有处理软件,处理软件能够接收用户的目标手指移动时产生的文字轨迹,并基于预设的算法根据文字轨迹生成与文字轨迹对应的文字信息。目标手指是用户的任一能够书写的手指,用户通过移动手指来书写文字时会产生对应的文字轨迹,文字轨迹中了用户想要传达给音箱的操作指令,通过获取文字轨迹并对文字轨迹进行处理能够得到文字轨迹包含的文字信息。
文字轨迹可以是基于空中书写的一系列连续有规律的点的空间坐标序列,也可以是基于某一平面书写的一系列连续有规律的点的平面坐标序列。可以通过现有的手写识别技术来识别文字轨迹所包含的文字信息,如eJHWR技术。或者是通过现有的图像识别技术识别文字轨迹包含的文字信息。例如基于神经网络的图像识别技术或者基于非线性降维的图像识别技术。
在一具体实施例中,基于用户目标手指在移动终端的触摸屏上移动生成目标手指移动时产生的文字轨迹所对应的文字信息,此时文字轨迹为基于某一平面书写的一系列连续有规律的点的平面坐标序列的集合。移动终端上设置有触摸板或者触摸屏,用户在触摸板或者触摸屏上通过移动手指来书写文字,此时与文字对应的文字轨迹被移动终端的处理软件获取,处理软件基于预设的算法对文字轨迹进行处理得到文字轨迹所包含的文字信息。用户可以通过手指本身来书写文字,也可以通过点读笔等电子笔进行书写。处理软件可以是集成于某一应用程序中的小程序,也可以是专门的应用程序。例如,用户打开移动终端上的处理软件的应用界面,在应用界面的输入框内通过手写方式输入操作指令,如“播放音乐”,此时形成与操作指令对应的文字轨迹,对文字轨迹进行识别处理得到与文字轨迹对应的文字信息。基于用户在移动终端上的输入来获取文字信息,不需要用户购买额外的设备,只需要安装对应的处理软件即可,节约了用户的使用成本。在另外的实施例中,还可以基于用户以其他书写方式获取对应的文字轨迹的文字信息,在此不赘述。
可以理解的是,本实施例中所提到的“文字轨迹”不仅包括用户通过手写输入法书写的文字所形成的轨迹,还包括用户通过拼音或五笔等输入法时形成的多点轨迹,例如通过拼音输入法书写“bofangyinyue”时形成的多点轨迹。
文字信息可以是汉字、或者数字、或者英文代号,在此不限定。在优选地实施例中,文字信息为操作代号+需求内容的组合方式,其中操作代号为数字或者字母,用于指代操作步骤,例如,操作步骤为“播放音乐”,则与“播放音乐”对应的操作代号可以为1或者A。需求内容为与操作步骤对应的内容,可以为用户书写的内容。例如操作步骤为“播放音乐”(代号为“1”),则需求内容对应为需要播放的音乐,例如文字信息为“1小星星”,则表示播放音乐小星星;需求内容为默认的也可以使用代号来替代复杂的汉子也可以用户自定义,例如操作步骤为“切换歌曲”(代号为“2”),则求内容默认为下一曲或上一曲,并由代号“0”表示。例如文字信息为“20”,则表示切换歌曲下一曲。通过使用操作代号能够提高用户的书写速度,加快音箱的反馈。
S12:将所述文字信息转换成语音信息,并将所述语音信息发送至音箱,以使得所述音箱根据所述语音信息反馈对应的内容。
获取文字轨迹对应的文字信息之后,通过语音合成技术将文字信息转换成语音信息。移动终端可以通过播报的方式将语音信息发送至音箱,此时音箱的声音采集装置采集移动终端的播报的声音内容来获取语音信息。或者,移动终端通过无线或者有线的通信方式直接将语音信息发送至音箱,如移动终端通过蓝牙将语音信息传输至音箱。
音箱接收到语音信息后根据语音信息反馈对应的内容。如音箱接收到“播放音乐”的语音信息后,播放最近播放的音乐。
在本实施例中,通过将用户的手写内容变成语音信息发送至音箱,实现用户与现有的智能音箱的语音交互,为发声障碍的人群与智能音箱之间进行便捷交互提供了机会,能够适应目前市场上绝大部分具有语音交互功能的智能音箱,可推广性强。
参见图2,是本发明实施例二提供的音箱控制方法的实现流程示意图,包括步骤S21至步骤S23,其中步骤S21和步骤S22与步骤S11中的细化步骤,步骤S23与步骤S12相同,在此不赘述,详述如下:
S21:获取用户目标手指移动时产生的文字轨迹所对应的空间坐标序列;
在本实施例中,为了不对用户书写的环境和方式进行限制,用户使用目标手指书在空中写文字时或者任意平面书写文字时,获取用户目标手指移动时产生的文字轨迹所对应的空间坐标序列。需要说明的是,空间坐标序列是空间若干个点的三维坐标所形成的坐标序列,其包含了目标手指空中移动时形成的运动轨迹的三维坐标集合。
在一具体实施例中,音箱控制设备接收可穿戴设备发送的目标手指移动时产生的文字轨迹所对应的空间坐标序列。可穿戴设备穿戴于用户目标手指上,当目标手指移动时,可穿戴设备能够检测到目标手指在运动过程中运动参数的变化,并通过采集多个运动参数形成目标手指运动过程中各个轨迹节点的空间坐标,通过多个轨迹节点的空间坐标,形成文字轨迹的空间坐标序列。运动参数包括加速度、角度和方向等。
可穿戴设备可以包括加速计和陀螺仪,通过加速计测量目标手指运动过程中的空间加速度,通过陀螺仪基于角动量守恒原理,可以测量出目标手指运动过程中的角度和维持方向。优选地,加速计为三轴加速计,陀螺仪为三轴陀螺仪。当所述目标手指移动时,所述可穿戴设备根据所述加速计和所述陀螺仪的测量结果计算所述文字轨迹的空间坐标序列。
当用户需要书写文字时,操作可穿戴设备上的“开始”按钮,可穿戴设备进入测量阶段,当书写完成时,操作可穿戴设备上的“结束”按钮,可穿戴设备结束测量,可穿戴设备根据测量结果生成文字轨迹的空间坐标序列,并将生成的文字轨迹的空间坐标序列发送给音箱控制设备。
为了实现音箱控制设备与可穿戴设备的自动连接,减少用户操作,可穿戴设备和音箱控制设备之间通过蓝牙协议连接,当可穿戴设备检测到用户操作“开始”按钮时,搜索附近的蓝牙设备,并当搜索到音箱控制设备时,向音箱控制设备发起匹配请求指令,音箱控制设备接收匹配请求指令后通过匹配请求并建立音箱控制设备与可穿戴设备的连接。
S22:基于预设的解析处理规则和所述文字轨迹的空间坐标序列,识别出所述文字轨迹包含的文字信息。
音箱控制设备获取到文字轨迹所对应的空间坐标序列之后,基于预设的解析处理规则和文字轨迹的空间坐标序列,识别出文字轨迹包含的文字信息。具体地,首先根据文字轨迹的空间坐标序列生成文字轨迹的平面坐标序列。然后生成的平面坐标序列进行二维向量处理得到与文字轨迹对应的矢量图像,最后基于预设的图像识别技术解析并识别出矢量图像对应的文字信息。例如,基于神经网络的图像识别技术或者基于非线性降维的图像识别技术来识别矢量图像对应的文字信息。其中空间坐标序列转换为平面坐标序列可以参考现有的坐标转换技术,在此不限定。
在本实施例中,通过获取目标手指的文字轨迹的空间坐标序列,并对空间坐标序列进行一系列的处理以识别出文字轨迹所包含的文字信息,能够将用户的书写方式不限于平面书写,还可以是空间书写,解除了平面书写的限制。在上述实施例中,通过使用具有可采集和计算空间坐标的可穿戴设备,使得用户对音箱的控制方式和环境更加灵活,可穿戴设备的设置使得音箱控制方法的应用能够适应各种书写环境,不仅限于在触摸屏或者专门的电子屏,不仅能提高用户的体验还能够作为装饰物美化用户形象。
参见图3,是本发明实施三提供的音箱控制方法的实现流程示意图,该方法包括步骤S31至步骤S34,其中步骤S31至S32与步骤S11至S12相同,在此不赘述,不同之处在于,还包括步骤S33和S34,详述如下:
S33:音箱接收所述语音信息,并将所述语音信息上传至云服务器;
S34:接收云服务器的基于所述语音信息的反馈结果,根据所述反馈结果向用户播报对应的反馈内容。
在本实施例中,音箱接收到语音信息后,将语音信息上传至云服务器。云服务器接收到语音信息后,对语音信息进行识别并获知用户意图。云服务器根据用户意图匹配与用户意图相关的资源,例如用户想播放音乐“小星星”,云服务则查找歌曲“小星星”的音频资源,并将歌曲“小星星”的音频资源反馈给音箱。
音箱接收到云服务器的基于语音信息的反馈结果后,根据反馈结果向用户播放或播报对应的反馈内容,例如音箱接收到到云服务器发出的“小星星”的音频资源后,解析音频资源并播放歌曲“小星星”。
需要说明的是,音箱将语音信息上传至云服务器时,同时还会将于音箱对应的唯一识别码发送至云服务器,以使得云服务器根据唯一识别码所指代的地址将反馈结果发送至音箱。唯一识别码可以是网络IP地址,也可以是机器编码,在此不限定。
本实施例通过云服务器来对语音信息进行分析并反馈相应的内容,能够降低音箱制造成本。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
本发明实施例还提供了一种音箱控制装置4,音箱控制装置4包括的各单元用于执行图1对应的实施例中的各步骤。具体请参阅图1对应的实施例中的相关描述。图4示出了本发明实施例四提供的的音箱控制装置4的示意图,包括:
文字生成模块41,用于基于用户目标手指的移动生成与所述目标手指移动时产生的文字轨迹对应的文字信息;
转换模块42,用于将所述文字信息转换成语音信息;
传输模块43,用于将所述语音信息发送至音箱,以使得所述音箱根据所述语音信息反馈对应的内容。
进一步地,文字生成模块41包括信息获取模块411和识别模块412,
信息获取模块411,用于获取用户目标手指移动时产生的文字轨迹所对应的空间坐标序列;
识别模块412,基于预设的解析处理规则和所述文字轨迹的空间坐标序列,识别出所述文字轨迹包含的文字信息。
进一步地,识别模块412包括第一子模块4122和第二子模块4123,
第一子模块4122,用于根据所述文字轨迹的空间坐标序列生成所述文字轨迹的平面坐标序列,对所述文字轨迹的平面坐标序列进行二维向量处理得到所述文字轨迹对应的矢量图形;
第二子模块4123,用于基于预设的图像识别技术解析并识别出所述矢量图形对应的文字信息。
进一步地,信息获取模块411,用于接收可穿戴设备发送的所述目标手指移动时产生的文字轨迹所对应的空间坐标序列,所述可穿戴设备穿戴于所述目标手指上,且所述可穿戴设备包括加速计模块和陀螺仪模块,当所述目标手指移动时,所述可穿戴设备根据所述加速计模块和所述陀螺仪模块的测量结果生成所述文字轨迹的空间坐标序列。
进一步地,文字生成模块41,还用于基于用户目标手指在移动终端的触摸屏上移动生成所述目标手指移动时产生的文字轨迹对应的文字信息。
其中,上述音箱控制装置4中各个模块的功能实现与上述音箱控制方法实施例中各步骤相对应,其功能和实现过程在此处不再一一赘述。
图5是本发明实施例五提供的一种可穿戴设备5,可穿戴设备5包括包括采集模块51、处理模块52和通信模块53,所述采集模块51用于采集目标手指移动时的运动参数,所述处理模块52用于根据采集的运动参数生成目标手指移动时形成的文字轨迹的空间坐标序列,所述通信模块53用于将所述空间坐标序列发送移动终端。
进一步地,采集模块51包括加速计模块511和陀螺仪模块512,加速计模块511用于测量用户手指移动时的运动加速度变化,陀螺仪模块512用于测量用户手指移动时的运动角度变化和方向变化;处理模块52用于根据所述加速计模块和所述陀螺仪模块的测量结果生成用户手指运动时产生的文字轨迹的空间坐标序列。
图6是本发明实施例六提供的音箱控制设备的硬件结构示意图。如图6所示,该实施例音箱控制设备6包括:处理器60、存储器61以及存储在所述存储器61中并可在所述处理器60上运行的计算机程序62,例如音箱控制程序。所述处理器60执行所述计算机程序62时实现上述各个音箱控制方法实施例中的步骤,例如图1所示的步骤S11至S12。或者,所述处理器60执行所述计算机程序62时实现上述各装置实施例中各模块/单元的功能,例如图4所示模块41至43的功能。
示例性的,所述计算机程序62可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器61中,并由所述处理器60执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序62在所述音箱控制设备6中的执行过程。例如,所述计算机程序62可以被分割成文字生成模块、转换模块和传输模块(虚拟装置中的模块),各模块具体功能如下:
文字生成模块,用于基于用户目标手指的移动生成与所述目标手指移动时产生的文字轨迹对应的文字信息;
转换模块,用于将所述文字信息转换成语音信息;
传输模块,用于将所述语音信息发送至音箱,以使得所述音箱根据所述语音信息反馈对应的内容。
所述音箱控制设备6可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述音箱控制设备6可包括,但不仅限于,处理器60、存储器61。本领域技术人员可以理解,图6仅仅是终端设备6的示例,并不构成对音箱控制设备6的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述音箱控制设备6还可以包括输入输出设备、网络接入设备、总线等。
所称处理器60可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器61可以是所述音箱控制设备6的内部存储单元,例如音箱控制设备6的硬盘或内存。所述存储器61也可以是所述音箱控制设备6的外部存储设备,例如所述终端设备上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(SecureDigital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器61还可以既包括所述音箱控制设备6的内部存储单元也包括外部存储设备。所述存储器61用于存储所述计算机程序以及所述终端设备所需的其他程序和数据。所述存储器61还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的实施例中,应该理解到,所揭露的装置/终端设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/终端设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

Claims (10)

1.一种音箱控制方法,其特征在于,包括:
基于用户目标手指的移动生成与所述目标手指移动时产生的文字轨迹对应的文字信息;
将所述文字信息转换成语音信息,并将所述语音信息发送至音箱,以使得所述音箱根据所述语音信息反馈对应的内容。
2.如权利要求1所述的音箱控制方法,其特征在于,所述基于用户目标手指的移动生成与所述目标手指移动时产生的文字轨迹对应的文字信息,包括:
获取用户目标手指移动时产生的文字轨迹所对应的空间坐标序列;
基于预设的解析处理规则和所述文字轨迹的空间坐标序列,识别出所述文字轨迹包含的文字信息。
3.如权利要求2所述的音箱控制方法,其特征在于,所述基于预设的解析处理规则和所述文字轨迹的空间坐标序列,识别出所述文字轨迹包含的文字信息,包括:
根据所述文字轨迹的空间坐标序列生成所述文字轨迹的平面坐标序列,对所述文字轨迹的平面坐标序列进行二维向量处理得到所述文字轨迹对应的矢量图形;
基于预设的图像识别技术解析并识别出所述矢量图形对应的文字信息。
4.如权利要求2所述的音箱控制方法,其特征在于,所述获取用户目标手指移动时产生的文字轨迹所对应的空间坐标序列,包括:
接收可穿戴设备发送的所述目标手指移动时产生的文字轨迹所对应的空间坐标序列,所述可穿戴设备穿戴于所述目标手指上,且所述可穿戴设备包括加速计模块和陀螺仪模块,当所述目标手指移动时,所述可穿戴设备根据所述加速计模块和所述陀螺仪模块的测量结果生成所述文字轨迹的空间坐标序列。
5.如权利要求1所述的音箱控制方法,其特征在于,所述基于用户目标手指的移动生成与所述目标手指移动时产生的文字轨迹对应的文字信息,包括:
基于用户目标手指在移动终端的触摸屏上移动生成所述目标手指移动时产生的文字轨迹对应的文字信息;
所述将所述文字信息转换成语音信息,并将所述语音信息发送至音箱,包括:
通过语音合成技术将所述文字信息转换成语音信息,并通过蓝牙传输方式将所述语音信息发送至音箱。
6.如权利要求1至5中任一项所述的音箱控制方法,其特征在于,还包括:
音箱接收所述语音信息,并将所述语音信息上传至云服务器;
接收云服务器的基于所述语音信息的反馈结果,根据所述反馈结果向用户播报对应的反馈内容。
7.一种音箱控制装置,其特征在于,包括:
文字生成模块,用于基于用户目标手指的移动生成与所述目标手指移动时产生的文字轨迹对应的文字信息;
转换模块,用于将所述文字信息转换成语音信息;
传输模块,用于将所述语音信息发送至音箱,以使得所述音箱根据所述语音信息反馈对应的内容。
8.一种可穿戴设备,其特征在于,所述可穿戴设备穿戴设于用户手指上,包括采集模块、处理模块和通信模块,所述采集模块用于采集目标手指移动时的运动参数,所述处理模块用于根据采集的运动参数生成目标手指移动时形成的文字轨迹的空间坐标序列,所述通信模块用于将所述空间坐标序列发送移动终端。
9.一种音箱控制设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至6任一项所述方法的步骤。
10.一种可读存储介质,所述可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6任一项所述方法的步骤。
CN201910180531.6A 2019-03-11 2019-03-11 音箱控制方法、装置、设备、可穿戴设备及可读存储介质 Pending CN111679745A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910180531.6A CN111679745A (zh) 2019-03-11 2019-03-11 音箱控制方法、装置、设备、可穿戴设备及可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910180531.6A CN111679745A (zh) 2019-03-11 2019-03-11 音箱控制方法、装置、设备、可穿戴设备及可读存储介质

Publications (1)

Publication Number Publication Date
CN111679745A true CN111679745A (zh) 2020-09-18

Family

ID=72451160

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910180531.6A Pending CN111679745A (zh) 2019-03-11 2019-03-11 音箱控制方法、装置、设备、可穿戴设备及可读存储介质

Country Status (1)

Country Link
CN (1) CN111679745A (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002259046A (ja) * 2001-02-28 2002-09-13 Tomoya Sonoda 空中で手描きした文字・記号入力システム
CN102074150A (zh) * 2011-01-12 2011-05-25 无锡工艺职业技术学院 一种聋哑人与外界交流用语句语音相互转换装置
CN102789325A (zh) * 2011-05-20 2012-11-21 索尼公司 用于触摸屏的手写笔型触觉辅助设备和写字板设备
WO2016183932A1 (zh) * 2015-05-21 2016-11-24 中兴通讯股份有限公司 一种移动终端的输入方法、装置及计算机存储介质
CN107223277A (zh) * 2016-12-16 2017-09-29 深圳前海达闼云端智能科技有限公司 一种聋哑人辅助方法、装置以及电子设备
CN108495212A (zh) * 2018-05-09 2018-09-04 惠州超声音响有限公司 一种与智能音响交互的系统
CN108735047A (zh) * 2018-04-10 2018-11-02 杭州电子科技大学 一种基于stm32的手语翻译手套及使用方法
US20180317770A1 (en) * 2017-05-03 2018-11-08 The Florida International University Board Of Trustees Wearable device and methods of using the same
CN109344793A (zh) * 2018-10-19 2019-02-15 北京百度网讯科技有限公司 用于识别空中手写的方法、装置、设备以及计算机可读存储介质
CN109358756A (zh) * 2018-11-26 2019-02-19 张红 一种轨迹采集方法和字迹采集装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002259046A (ja) * 2001-02-28 2002-09-13 Tomoya Sonoda 空中で手描きした文字・記号入力システム
CN102074150A (zh) * 2011-01-12 2011-05-25 无锡工艺职业技术学院 一种聋哑人与外界交流用语句语音相互转换装置
CN102789325A (zh) * 2011-05-20 2012-11-21 索尼公司 用于触摸屏的手写笔型触觉辅助设备和写字板设备
WO2016183932A1 (zh) * 2015-05-21 2016-11-24 中兴通讯股份有限公司 一种移动终端的输入方法、装置及计算机存储介质
CN107223277A (zh) * 2016-12-16 2017-09-29 深圳前海达闼云端智能科技有限公司 一种聋哑人辅助方法、装置以及电子设备
US20180317770A1 (en) * 2017-05-03 2018-11-08 The Florida International University Board Of Trustees Wearable device and methods of using the same
CN108735047A (zh) * 2018-04-10 2018-11-02 杭州电子科技大学 一种基于stm32的手语翻译手套及使用方法
CN108495212A (zh) * 2018-05-09 2018-09-04 惠州超声音响有限公司 一种与智能音响交互的系统
CN109344793A (zh) * 2018-10-19 2019-02-15 北京百度网讯科技有限公司 用于识别空中手写的方法、装置、设备以及计算机可读存储介质
CN109358756A (zh) * 2018-11-26 2019-02-19 张红 一种轨迹采集方法和字迹采集装置

Similar Documents

Publication Publication Date Title
US9348417B2 (en) Multimodal input system
CN102119376B (zh) 触敏显示器的多维导航
US20160103655A1 (en) Co-Verbal Interactions With Speech Reference Point
US20150077345A1 (en) Simultaneous Hover and Touch Interface
US10521105B2 (en) Detecting primary hover point for multi-hover point device
US20150149925A1 (en) Emoticon generation using user images and gestures
US20140354553A1 (en) Automatically switching touch input modes
WO2011010761A1 (ko) 필기 패턴에 따른 필기 정보 입력 장치 및 필기 정보 입력 방법
US20180373357A1 (en) Methods, systems, and media for recognition of user interaction based on acoustic signals
WO2023082703A1 (zh) 语音控制方法、装置、电子设备及可读存储介质
CN110083418A (zh) 信息流中图片的处理方法、设备及计算机可读存储介质
CN113052078A (zh) 空中书写轨迹识别方法、装置、存储介质及电子设备
GB2538360A (en) Improved handwriting data search
US11853483B2 (en) Image processing method and apparatus for smart pen including pressure switches, and electronic device
CN110908568B (zh) 一种虚拟对象的控制方法和装置
CN111679745A (zh) 音箱控制方法、装置、设备、可穿戴设备及可读存储介质
CN108780383B (zh) 基于第二输入选择第一数字输入行为
CN111435442B (zh) 文字选取方法、装置、点读设备、电子设备及存储介质
US11334220B2 (en) Method, apparatus, and computer-readable medium for propagating cropped images over a web socket connection in a networked collaboration workspace
US20160252983A1 (en) Simulation keyboard shortcuts with pen input
CN112306242A (zh) 一种基于书空手势的交互方法和系统
CN113535055A (zh) 一种基于虚拟现实播放点读物的方法、设备及存储介质
CN111461095A (zh) 一种语音点读方法、装置、设备和可读介质
US11899840B2 (en) Haptic emulation of input device
US10248214B2 (en) Wearable device for writing and drawing

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20200918