CN108960200A - 一种基于智能交互的数据处理方法及电子设备 - Google Patents
一种基于智能交互的数据处理方法及电子设备 Download PDFInfo
- Publication number
- CN108960200A CN108960200A CN201810858142.XA CN201810858142A CN108960200A CN 108960200 A CN108960200 A CN 108960200A CN 201810858142 A CN201810858142 A CN 201810858142A CN 108960200 A CN108960200 A CN 108960200A
- Authority
- CN
- China
- Prior art keywords
- picture
- control instruction
- electronic equipment
- target data
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 17
- 230000003993 interaction Effects 0.000 title claims abstract description 10
- 238000000034 method Methods 0.000 claims abstract description 27
- 238000004458 analytical method Methods 0.000 claims description 40
- 238000004422 calculation algorithm Methods 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 12
- 238000005266 casting Methods 0.000 claims description 9
- 230000004044 response Effects 0.000 claims description 8
- 241001269238 Data Species 0.000 abstract description 3
- 230000000875 corresponding effect Effects 0.000 description 40
- 238000010422 painting Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 6
- 230000006698 induction Effects 0.000 description 4
- 230000002452 interceptive effect Effects 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 238000005303 weighing Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000001727 in vivo Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 239000003643 water by type Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种基于智能交互的数据处理方法及电子设备,该方法应用于电子设备,所述方法包括:获取控制指令;响应所述控制指令,对获取的目标数据进行识别,生成识别结果,其中所述目标数据至少包括图片;根据当前使用场景将所述识别结果进行语音播报。该方法能够对图片等目标数据的内容进行识别,并结合当前场景将识别结果进行语音播报,实现了应用该方法的电子设备与用户之间的智能交互,提高了用户的使用体验。
Description
技术领域
本发明涉及智能交互领域,特别涉及一种基于智能交互的数据处理方法及电子设备。
背景技术
目前,随着信息化的不断发展,越来越多的用户都在利用电子设备来进行资讯的阅读等动作,但是对于一些信息用户并不能容易从中获知具体含义,必须要通过仔细的阅读或辨识才能了解具体含义,更不能直接听到相应的语音播报,例如用户在其他事物(如开车)时,并不能仔细的查看一幅图片或翻译一篇外文资料,不能有效利用零碎时间,用户体验差。
发明内容
本发明实施例的目的在于提供一种基于智能交互的数据处理方法及电子设备,该方法能够对图片等目标数据的内容进行识别,并结合当前场景将识别结果进行语音播报。
为了解决上述技术问题,本发明的实施例采用了如下技术方案:一种基于智能交互的数据处理方法,应用于电子设备,所述方法包括:
获取控制指令;
响应所述控制指令,对获取的目标数据进行识别,生成识别结果,其中所述目标数据至少包括图片;
根据当前使用场景将所述识别结果进行语音播报。
作为优选,当所述目标数据为所述图片时,所述的响应所述控制指令,对获取的目标数据进行识别,生成识别结果包括:
将所述图片拆分为多个目标单元;
按照预设权重规则在多个所述目标单元中确定至少一个关键单元;
对所述关键单元进行分析,以确定所述图片的含义。
作为优选,当所述目标数据为所述图片时,所述的响应所述控制指令,对获取的目标数据进行识别,生成识别结果包括:
将所述图片拆分为多个目标单元;
对多个所述目标单元进行分析,并按照预设关联算法对多个所述目标单元之间的关联关系进行分析;
根据多个所述目标单元的分析结果和多个所述关联关系的分析结果确定所述图片的含义。
作为优选,所述的获取控制指令包括:基于接收到的输入语音获取控制指令。
作为优选,所述的基于接收到的输入语音获取控制指令包括:
接收所述输入语音,并对所述输入语音进行语义分析;
基于预设规定将语义分析结果与预存数据进行比对,并在比对结果的相似度符合预设范围时确定所述输入语音对应的控制指令。
作为优选,所述方法还包括:
在进行语音播报的过程中获取交谈语音,并根据所述交谈语音更新所述控制指令。
作为优选,所述的根据当前使用场景将所述识别结果进行语音播报包括:
根据获取的至少一个使用数据,确定电子设备的当前使用场景;
根据所述当前使用场景控制所述语音播报对应的播报模式。
本申请实施例还提供了一种电子设备,包括获取模块、处理模块和播报模块;
所述获取模块配置为获取控制指令;
所述处理模块配置为响应所述控制指令,对获取的目标数据进行识别,生成识别结果,其中所述目标数据至少包括图片;
所述播报模块配置为根据当前使用场景将所述识别结果进行语音播报。
作为优选,当所述目标数据为所述图片时,所述处理模块进一步配置为:
将所述图片拆分为多个目标单元;
按照预设权重规则在多个所述目标单元中确定至少一个关键单元;
对所述关键单元进行分析,以确定所述图片对应的含义。
作为优选,所述获取模块进一步配置为基于接收到的输入语音获取控制指令。
本发明实施例的有益效果在于:该方法能够对图片等目标数据的内容进行识别,并结合当前场景将识别结果进行语音播报,实现了应用该方法的电子设备与用户之间的智能交互,提高了用户的使用体验。
附图说明
图1为本发明实施例的基于智能交互的数据处理方法的流程图;
图2为本发明实施例的图1中步骤S2的一个具体实施例的流程图;
图3为本发明实施例的图1中步骤S1的一个具体实施例的流程图;
图4为本发明实施例的图1中步骤S3的一个具体实施例的流程图;
图5为本发明实施例的电子设备的结构示意图。
具体实施方式
此处参考附图描述本发明的各种方案以及特征。
应理解的是,可以对此处发明的实施例做出各种修改。因此,上述说明书不应该视为限制,而仅是作为实施例的范例。本领域的技术人员将想到在本发明的范围和精神内的其他修改。
包含在说明书中并构成说明书的一部分的附图示出了本发明的实施例,并且与上面给出的对本发明的大致描述以及下面给出的对实施例的详细描述一起用于解释本发明的原理。
通过下面参照附图对给定为非限制性实例的实施例的优选形式的描述,本发明的这些和其它特性将会变得显而易见。
还应当理解,尽管已经参照一些具体实例对本发明进行了描述,但本领域技术人员能够确定地实现本发明的很多其它等效形式,它们具有如权利要求所述的特征并因此都位于借此所限定的保护范围内。
当结合附图时,鉴于以下详细说明,本发明的上述和其他方面、特征和优势将变得更为显而易见。
此后参照附图描述本发明的具体实施例;然而,应当理解,所发明的实施例仅仅是本发明的实例,其可采用多种方式实施。熟知和/或重复的功能和结构并未详细描述以避免不必要或多余的细节使得本发明模糊不清。因此,本文所发明的具体的结构性和功能性细节并非意在限定,而是仅仅作为权利要求的基础和代表性基础用于教导本领域技术人员以实质上任意合适的详细结构多样地使用本发明。
本说明书可使用词组“在一种实施例中”、“在另一个实施例中”、“在又一实施例中”或“在其他实施例中”,其均可指代根据本发明的相同或不同实施例中的一个或多个。
本发明实施例的一种基于智能交互的数据处理方法,应用于电子设备,该电子设备可以为手机、计算机、服务器等多种设备。用户在使用该电子设备时可以进行上述的数据处理方法,满足用户实际使用需求,如图1所示,该方法包括以下步骤:
S1,获取控制指令。具体来说,控制指令是针对电子设备生成的指令,该控制指令可以由用户直接发出也可以由其他关联设备发出,例如该控制指令可以为通过用户操作而生成的控制指令,而用户的操作可以为动作操作,也可以为语音操作。电子设备可以通过其相应的接收设备来获取该控制指令,以对电子设备进行控制。此外,该控制指令可以在使用该数据处理方法的整个过程中均可以被获取到,例如用户开始使用电子设备应用该方法时,或者用户在使用电子设备应用该方法的过程中,均可以获取生成的控制指令,并做出响应。
S2,响应控制指令,对获取的目标数据进行识别,生成识别结果,其中目标数据至少包括图片。具体来说,对获取的控制指令做出响应,根据控制指令做出相应动作,如控制指令为对目标数据进行识别,则开始对获取的目标数据进行获取,如通过拍摄、扫描、读取、感应等方式中至少一种方式来获取目标数据。目标数据具有多种类型,如图片、文字(包括外文文字),影像或者艺术品等多种类型,获取目标数据后将根据目标数据的类型以相对应的识别方式进行识别,从而能够提高识别的效率和准确度,识别的结果是对该目标数据进行信息提取、总结、复述或描述等识别信息,如目标数据为图片时生成的识别结果可以是对该图片进行描述的语音信息或文字信息等数据。而图片的类型和内容可以是多样的,如拍摄的文字的照片、人物图片、风景图片或者特定物品图片(如艺术品照片)等。
S3,根据当前使用场景将识别结果进行语音播报。当前使用场景可以是用户实际使用电子设备应用该数据处理方法时的实际场景,不同的场景对应的语音播报的方式也可能是不同的,如用户正在开车,跑步、过马路或步行等场景,对于不同的当前使用场景在进行语音播报时也会以相对应的播报方式来进行,例如用户正在过马路时可以暂停语音播报,等用户转为步行状态时再进行语音播报;再例如,用户正在开车时需要对发送给用户的图片进行紧急的反馈,此时可以立即对相应的识别结果进行语音播报,以免用户了解图片的情况不及时。
在本申请的一个实施例中,如图2所示,当目标数据为图片时,所述的响应控制指令,对获取的目标数据进行识别,生成识别结果的步骤包括以下步骤:
S21,将图片拆分为多个目标单元。目标单元可以为图片中的具体事物,本实施例中可以针对目标单元分别拆分,以便于对多个目标单元进行识别。在具体拆分时可以根据图片中相同、相似或相关的内容来进行拆分。举例说明,当图片为一幅山水画时,该画中的山和水分别为不同的目标单元,将山对应的第一目标单元与水对应的第二目标单元拆分开来,以便分别对第一目标单元和第二目标单元进行识别。实际拆分操作时,可以将颜色、形态和线条相似的内容作为是相同的目标单元再进行拆分。
S22,按照预设权重规则在多个目标单元中确定至少一个关键单元。在图片中部分目标单元可能为该图片的关键单元,而其他目标单元可能为该图片的非关键单元,如结合上述举例,当图片为一幅山水画时,其中的一个小动物对应了第三目标单元,可以规定在图片中占主导作用的第一目标单元和第二目标单元为关键单元,而对于图片中极少出现的第三目标单元则可以认为是非关键单元。在一个实施例中,可以对关键单元和非关键单元分别赋予不同的权值,而权值较高的关键单元则更能够代表了图片的真实含义。
S23,对关键单元进行分析,以确定图片的含义。在对关键单元进行分析时根据预存储数据来进行具体的判断,如将关键单元的各种特征与数据库中存储的原始目标单元的形态、颜色等相对应的特征进行比对,以确定图片中的每个目标单元的含义(具体是什么),进而生成识别结果。结合上述举例,如可以根据数据库中存储的山的形态、线条、色彩等多方面数据来对第一目标单元进行判断,在对第一目标单元的相应的各个特征进行比对后,能够确定第一目标单元为山。其他的目标单元的分析也是如此,在此不再赘述。从而最终确定整个图片的含义。当然也可以对非关键单元进行分析,但其对最终结果的判断影响权重较低,从而更加丰富了判断依据,更加准确的确定了图片的含义。
在本申请的一个实施例中,当目标数据为所述图片时,所述的响应控制指令,对获取的目标数据进行识别,生成识别结果包括:将图片拆分为多个目标单元;对多个目标单元进行分析,并按照预设关联算法对多个目标单元之间的关联关系进行分析;根据多个目标单元的分析结果和多个关联关系的分析结果确定图片的含义。目标单元可以为图片中的具体事物,可以针对目标单元拆分以便于准确地对每个目标单元进行识别,进而确定图片的含义。在具体拆分时可以根据图片中相同、相似或相关的内容来进行拆分。而对于预设关联算法本实施例中在对多个目标单元进行分析时可以使用同一算法,也可以根据图片中的具体内容来使用不同的预设关联算法,例如如果图片多数为风景画的选用第一预设关联算法,如果图片多数为静物画的选用第二预设关联算法等。而目标单元之间的关联关系能够在一定程度上反应该图片中的目标数据所反映的具体含义,再次结合上述举例,例如山水画中的第一目标单元(山)和第二目标单元(水)交替出现,或者第二目标单元穿插在第一目标单元中,或者一直为临近关系,则该分析结果可以作为判断图片含义生成识别结果的重要依据。根据多个目标单元的分析结果和多个关联关系的分析结果能够分别从两个方面出发进行分析,再将两个分析结果进行整合后以确定图片的含义,进一步提高了判断图片的含义准确性。此外,也可以对图片中的色彩进行分析,进而提高对相同目标单元的识别准确度,如图片中相同蓝色的内容可以认为是蓝天,该分析结果也可以作为判断图片含义生成识别结果的重要依据。
在本申请的一个实施例中,所述的获取控制指令包括:基于接收到的输入语音获取控制指令。具体来说,用户可以通过使用语音的方式来与电子设备进行交互,电子设备对用户的语音交流做出应答,如用户可以发出语音指令,以使电子设备进行接收,从而获取控制指令,该获取控制指令的时间可以是在使用该数据处理方法的整个过程中,如开始使用电子设备时,或在使用电子设备期间等。
在本申请的一个实施例中,如图3所示,所述的基于接收到的输入语音获取控制指令的步骤包括以下步骤:
S11,接收输入语音,并对输入语音进行语义分析。用户发出的语音作为输入语音,其是有不同的含义,因此对输入语音进行语义分析后能够获知用户通过语音所要表达的实际要求或意愿。而在语义分析时可以基于用户的语音发声特点或口音等用语言特征再来进行语义分析,获得更好的分析结果。
S12,基于预设规定将语义分析结果与预存数据进行比对,并在比对结果的相似度符合预设范围时确定输入语音对应的控制指令。具体来说,语义分析结果可以是输入语音与判断含义的关系数据,上述的预存数据也可以是用户的预存语音和实际语义的关系数据(该对应关系数据可以进行修改或更新),而上述的预设规定可以根据不同的用户,或者同一用户的实际使用环境或偏好等因素来具体设定。本实施例中,在比对结果的相似度符合预设范围时确定输入语音对应的控制指令,如根据预设范围认为语义分析结果与预存数据非常接近则认为分析结果可靠性高,从而确定输入语音对应的控制指令,以使电子设备能够对控制指令进行响应。
在本申请的一个实施例中,上述数据处理方法还包括以下步骤:
在进行语音播报的过程中获取交谈语音,并根据交谈语音更新控制指令。用户在使用电子设备的整个过程中,均能够与应用该数据处理方法的电子设备进行语音交谈,而该电子设备也能够根据与用户进行的交谈内容来获取新的指令,并对该指令做出响应。
新的指令可为控制指令的补充,也可以为控制指令的更改,因此为了更好的满足用户的动态想法(不断冒出了新的想法),可以根据交谈语音来更新控制指令,提高电子设备的智能程度。
在本申请的一个实施例中,如图4所示,所述的根据当前使用场景将识别结果进行语音播报的步骤包括以下步骤:
S31,根据获取的至少一个使用数据,确定电子设备的当前使用场景。一方面可以根据不同类型的传感器采集相对应的数据,对采集的数据进行整体分析后确定当前场景。如当电子设备为手机时,可以利用手机的加速传感器(重力感应)、距离感应器、光线感应器、三轴陀螺仪(判断手机角度)、摄像头、GPS传感器、磁力计、接触感应器、虹膜传感器、声音传感器(探知环境声音)中的至少一个设备来采集当前环境中相对应的数据,从而确定当前用户的使用场景。
S32,根据当前使用场景控制语音播报对应的播报模式。播报模式可以根据用户需要来设定,如简短模式、详细模式、抒情模式、概括模式、写实模式或艺术模式等,用户在不同的场景可以使用相对应的播报模式,如用户开车时可以使用简短模式,在尽量短的时间内将目标数据的内容进行语音播报,以免过多分走用户精力;在用户工作时可以使用详细模式,也就是对目标数据的内容进行详细的语音播报,尽量完整的展现出目标数据的整个含义。
本申请实施例还提供了一种电子设备,该电子设备可以为手机、计算机、服务器等多种设备,如图5所示,该电子设备包括获取模块、处理模块和播报模块;
获取模块配置为获取控制指令。具体来说,控制指令是针对电子设备生成的指令,该控制指令可以由用户直接发出也可以由其他关联设备发出,例如该控制指令可以为通过用户操作而生成的控制指令,而用户的操作可以为动作操作,也可以为语音操作。电子设备可以通过获取模块来获取该控制指令,以对电子设备进行控制。此外,该控制指令可以在使用该电子设备的整个过程中均可以被获取模块获取到,例如用户开始使用电子设备时,或者用户在使用电子设备的过程中,获取模块均可以获取生成的控制指令,以使电子设备做出响应。
处理模块配置为响应控制指令,对获取的目标数据进行识别,生成识别结果,其中目标数据至少包括图片。具体来说,处理模块对获取的控制指令做出响应,根据控制指令做出相应动作,如控制指令为对目标数据进行识别,则开始对获取的目标数据进行获取,如通过拍摄、扫描、读取、感应等方式中至少一种方式来获取目标数据。目标数据具有多种类型,如图片、文字(包括外文文字),影像或者艺术品等多种类型,获取模块获取目标数据后处理模块将根据目标数据的类型以相对应的识别方式进行识别,从而能够提高识别的效率和准确度,识别的结果是对该目标数据进行信息提取、总结、复述或描述等识别信息,如目标数据为图片时生成的识别结果可以是对该图片进行描述的语音信息或文字信息等数据。而图片的类型和内容可以是多样的,如拍摄的文字的照片、人物图片、风景图片或者特定物品图片(如艺术品照片)等。
播报模块配置为根据当前使用场景将识别结果进行语音播报。当前使用场景可以是用户实际使用电子设备时的实际场景,不同的场景播报模块对应的语音播报的方式也可能是不同的,如用户正在开车,跑步、过马路或步行等场景,对于不同的当前使用场景在进行语音播报时也会以相对应的播报方式来进行,例如用户正在过马路时可以暂停语音播报,当用户转为步行状态时播报模块再进行语音播报;再例如,用户正在开车时需要对发送给用户的图片进行紧急的反馈,此时播报模块可以立即对相应的识别结果进行语音播报,以免用户了解图片的情况不及时。
在本申请的一个实施例中,当目标数据为所述图片时,处理模块进一步配置为:
将图片拆分为多个目标单元。目标单元可以为图片中的具体事物,本实施例中可以针对目标单元分别拆分,以便于对多个目标单元进行识别。在具体拆分时可以根据图片中相同、相似或相关的内容来进行拆分。举例说明,当图片为一幅山水画时,该画中的山和水分别为不同的目标单元,将山对应的第一目标单元与水对应的第二目标单元拆分开来,以便分别对第一目标单元和第二目标单元进行识别。实际拆分操作时,可以将颜色、形态和线条相似的内容作为是相同的目标单元再进行拆分。
按照预设权重规则在多个目标单元中确定至少一个关键单元。在图片中部分目标单元可能为该图片的关键单元,而其他目标单元可能为该图片的非关键单元,如结合上述举例,当图片为一幅山水画时,其中的一个小动物对应了第三目标单元,可以规定在图片中占主导作用的第一目标单元和第二目标单元为关键单元,而对于图片中极少出现的第三目标单元则可以认为是非关键单元。在一个实施例中,可以对关键单元和非关键单元分别赋予不同的权值,而权值较高的关键单元则更能够代表了图片的真实含义。
对关键单元进行分析,以确定图片对应的含义。在对关键单元进行分析时根据预存储数据来进行具体的判断,如将关键单元的各种特征与数据库中存储的原始目标单元的形态、颜色等相对应的特征进行比对,以确定图片中的每个目标单元的含义(具体是什么),进而生成识别结果。结合上述举例,如可以根据数据库中存储的山的形态、线条、色彩等多方面数据来对第一目标单元进行判断,在对第一目标单元的相应的各个特征进行比对后,能够确定第一目标单元为山。其他的目标单元的分析也是如此,在此不再赘述。从而最终确定整个图片的含义。当然也可以对非关键单元进行分析,但其对最终结果的判断影响权重较低,从而更加丰富了判断依据,更加准确的确定了图片的含义。
在本申请的一个实施例中,当目标数据为所述图片时,处理模块进一步配置为:将图片拆分为多个目标单元;对多个目标单元进行分析,并按照预设关联算法对多个目标单元之间的关联关系进行分析;根据多个目标单元的分析结果和多个关联关系的分析结果确定图片的含义。目标单元可以为图片中的具体事物,可以针对目标单元拆分以便于准确地对每个目标单元进行识别,进而确定图片的含义。在具体拆分时可以根据图片中相同、相似或相关的内容来进行拆分。而对于预设关联算法本实施例中在对多个目标单元进行分析时可以使用同一算法,也可以根据图片中的具体内容来使用不同的预设关联算法,例如如果图片多数为风景画的选用第一预设关联算法,如果图片多数为静物画的选用第二预设关联算法等。而目标单元之间的关联关系能够在一定程度上反应该图片中的目标数据所反映的具体含义,再次结合上述举例,例如山水画中的第一目标单元(山)和第二目标单元(水)交替出现,或者第二目标单元穿插在第一目标单元中,或者一直为临近关系,则该分析结果可以作为判断图片含义生成识别结果的重要依据。根据多个目标单元的分析结果和多个关联关系的分析结果能够分别从两个方面出发进行分析,再将两个分析结果进行整合后以确定图片的含义,进一步提高了判断图片的含义准确性。此外,处理模块也可以对图片中的色彩进行分析,进而提高对相同目标单元的识别准确度,如图片中相同蓝色的内容可以认为是蓝天,该分析结果也可以作为判断图片含义生成识别结果的重要依据。
在本申请的一个实施例中,获取模块进一步配置为基于接收到的输入语音获取控制指令。具体来说,用户可以通过使用语音的方式来与电子设备进行交互,电子设备对用户的语音交流做出应答,如用户可以发出语音指令,以使获取模块进行接收,从而获取控制指令,该获取控制指令的时间可以是在使用该数据处理方法的整个过程中,如开始使用电子设备时,或在使用电子设备期间等。
在本申请的一个实施例中,该电子设备还包括语义模块,语义模块配置为:
接收输入语音,并对输入语音进行语义分析。用户发出的语音作为输入语音,其是有不同的含义,因此语义模块对输入语音进行语义分析后能够获知用户通过语音所要表达的实际要求或意愿。而在语义模块进行语义分析时可以基于用户的语音发声特点或口音等用语言特征再来进行语义分析,获得更好的分析结果。
基于预设规定将语义分析结果与预存数据进行比对,并在比对结果的相似度符合预设范围时确定输入语音对应的控制指令。具体来说,语义分析结果可以是输入语音与判断含义的关系数据,上述的预存数据也可以是用户的预存语音和实际语义的关系数据(该对应关系数据可以进行修改或更新),而上述的预设规定可以根据不同的用户,或者同一用户的实际使用环境或偏好等因素来具体设定。本实施例中,语义模块在比对结果的相似度符合预设范围时确定输入语音对应的控制指令,如根据预设范围认为语义分析结果与预存数据非常接近则认为分析结果可靠性高,从而确定输入语音对应的控制指令,以使电子设备能够对控制指令进行响应。
在本申请的一个实施例中,该电子设备还包括交互模块,交互模块配置为:在进行语音播报的过程中获取交谈语音,并根据交谈语音更新控制指令。交互模块使得用户在使用电子设备的整个过程中,均能够与应用该数据处理方法的电子设备进行语音交谈,而电子设备也能够根据与用户进行的交谈内容来获取新的指令,并对该指令做出响应。新的指令可为控制指令的补充,也可以为控制指令的更改,因此为了更好的满足用户的动态想法(不断冒出了新的想法),电子设备可以根据交谈语音来更新控制指令,提高电子设备的智能程度。
在本申请的一个实施例中,播报模块进一步配置为:
根据获取的至少一个使用数据,确定电子设备的当前使用场景。一方面播报模块可以根据不同类型的传感器采集相对应的数据,对采集的数据进行整体分析后确定当前场景。如当电子设备为手机时,可以利用手机的加速传感器(重力感应)、距离感应器、光线感应器、三轴陀螺仪(判断手机角度)、摄像头、GPS传感器、磁力计、接触感应器、虹膜传感器、声音传感器(探知环境声音)中的至少一个设备来采集当前环境中相对应的数据,从而确定当前用户的使用场景。
根据当前使用场景控制语音播报对应的播报模式。对于播报模式,播报模块可以根据用户需要来设定,如简短模式、详细模式、抒情模式、概括模式、写实模式或艺术模式等,用户在不同的场景可以使用相对应的播报模式,如用户开车时可以使用简短模式,在尽量短的时间内将目标数据的内容进行语音播报,以免过多分走用户精力;在用户工作时可以使用详细模式,也就是对目标数据的内容进行详细的语音播报,尽量完整的展现出目标数据的整个含义。
以上实施例仅为本发明的示例性实施例,不用于限制本发明,本发明的保护范围由权利要求书限定。本领域技术人员可以在本发明的实质和保护范围内,对本发明做出各种修改或等同替换,这种修改或等同替换也应视为落在本发明的保护范围内。
Claims (10)
1.一种基于智能交互的数据处理方法,应用于电子设备,所述方法包括:
获取控制指令;
响应所述控制指令,对获取的目标数据进行识别,生成识别结果,其中所述目标数据至少包括图片;
根据当前使用场景将所述识别结果进行语音播报。
2.根据权利要求1所述的方法,当所述目标数据为所述图片时,所述的响应所述控制指令,对获取的目标数据进行识别,生成识别结果包括:
将所述图片拆分为多个目标单元;
按照预设权重规则在多个所述目标单元中确定至少一个关键单元;
对所述关键单元进行分析,以确定所述图片的含义。
3.根据权利要求1所述的方法,当所述目标数据为所述图片时,所述的响应所述控制指令,对获取的目标数据进行识别,生成识别结果包括:
将所述图片拆分为多个目标单元;
对多个所述目标单元进行分析,并按照预设关联算法对多个所述目标单元之间的关联关系进行分析;
根据多个所述目标单元的分析结果和多个所述关联关系的分析结果确定所述图片的含义。
4.根据权利要求1所述的方法,所述的获取控制指令包括:基于接收到的输入语音获取控制指令。
5.根据权利要求4所述的方法,所述的基于接收到的输入语音获取控制指令包括:
接收所述输入语音,并对所述输入语音进行语义分析;
基于预设规定将语义分析结果与预存数据进行比对,并在比对结果的相似度符合预设范围时确定所述输入语音对应的控制指令。
6.根据权利要求1所述的方法,所述方法还包括:
在进行语音播报的过程中获取交谈语音,并根据所述交谈语音更新所述控制指令。
7.根据权利要求1所述的方法,所述的根据当前使用场景将所述识别结果进行语音播报包括:
根据获取的至少一个使用数据,确定电子设备的当前使用场景;
根据所述当前使用场景控制所述语音播报对应的播报模式。
8.一种电子设备,包括获取模块、处理模块和播报模块;
所述获取模块配置为获取控制指令;
所述处理模块配置为响应所述控制指令,对获取的目标数据进行识别,生成识别结果,其中所述目标数据至少包括图片;
所述播报模块配置为根据当前使用场景将所述识别结果进行语音播报。
9.根据权利要求8所述的电子设备,当所述目标数据为所述图片时,所述处理模块进一步配置为:
将所述图片拆分为多个目标单元;
按照预设权重规则在多个所述目标单元中确定至少一个关键单元;
对所述关键单元进行分析,以确定所述图片对应的含义。
10.根据权利要求8所述的电子设备,所述获取模块进一步配置为基于接收到的输入语音获取控制指令。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810858142.XA CN108960200A (zh) | 2018-07-31 | 2018-07-31 | 一种基于智能交互的数据处理方法及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810858142.XA CN108960200A (zh) | 2018-07-31 | 2018-07-31 | 一种基于智能交互的数据处理方法及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108960200A true CN108960200A (zh) | 2018-12-07 |
Family
ID=64466393
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810858142.XA Pending CN108960200A (zh) | 2018-07-31 | 2018-07-31 | 一种基于智能交互的数据处理方法及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108960200A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111246175A (zh) * | 2020-01-20 | 2020-06-05 | 深圳英飞拓科技股份有限公司 | 一种基于规则的人脸抓拍摄像机语音处理方法、系统和装置 |
CN111782172A (zh) * | 2020-06-24 | 2020-10-16 | 大众问问(北京)信息科技有限公司 | 一种信息展示方法和装置 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160255969A1 (en) * | 2015-03-06 | 2016-09-08 | Wal-Mart Stores, Inc. | Shopping facility assistance systems, devices and methods pertaining to movement of a mobile retail product display |
CN106249895A (zh) * | 2016-08-09 | 2016-12-21 | 清华大学 | 一种机器人识别环境变化时的人机交互方法以及系统 |
CN106389078A (zh) * | 2016-11-24 | 2017-02-15 | 贵州大学 | 一种智能导盲眼镜系统及其导盲方法 |
CN106394443A (zh) * | 2016-09-23 | 2017-02-15 | 上海蔚来汽车有限公司 | 车机播报系统和方法 |
CN106618980A (zh) * | 2016-11-05 | 2017-05-10 | 深圳市前海安测信息技术有限公司 | 可穿戴智能导盲系统 |
CN106773820A (zh) * | 2016-12-02 | 2017-05-31 | 北京奇虎科技有限公司 | 机器人互动方法、装置及机器人 |
CN107393529A (zh) * | 2017-07-13 | 2017-11-24 | 珠海市魅族科技有限公司 | 语音识别方法、装置、终端及计算机可读存储介质 |
CN107506760A (zh) * | 2017-08-04 | 2017-12-22 | 西南大学 | 基于gps定位与视觉图像处理的交通信号检测方法及系统 |
CN108009548A (zh) * | 2018-01-09 | 2018-05-08 | 贵州大学 | 一种智能路牌识别方法及系统 |
CN108052935A (zh) * | 2018-01-30 | 2018-05-18 | 深圳智达机械技术有限公司 | 一种具有识别功能的智能眼镜 |
-
2018
- 2018-07-31 CN CN201810858142.XA patent/CN108960200A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160255969A1 (en) * | 2015-03-06 | 2016-09-08 | Wal-Mart Stores, Inc. | Shopping facility assistance systems, devices and methods pertaining to movement of a mobile retail product display |
CN106249895A (zh) * | 2016-08-09 | 2016-12-21 | 清华大学 | 一种机器人识别环境变化时的人机交互方法以及系统 |
CN106394443A (zh) * | 2016-09-23 | 2017-02-15 | 上海蔚来汽车有限公司 | 车机播报系统和方法 |
CN106618980A (zh) * | 2016-11-05 | 2017-05-10 | 深圳市前海安测信息技术有限公司 | 可穿戴智能导盲系统 |
CN106389078A (zh) * | 2016-11-24 | 2017-02-15 | 贵州大学 | 一种智能导盲眼镜系统及其导盲方法 |
CN106773820A (zh) * | 2016-12-02 | 2017-05-31 | 北京奇虎科技有限公司 | 机器人互动方法、装置及机器人 |
CN107393529A (zh) * | 2017-07-13 | 2017-11-24 | 珠海市魅族科技有限公司 | 语音识别方法、装置、终端及计算机可读存储介质 |
CN107506760A (zh) * | 2017-08-04 | 2017-12-22 | 西南大学 | 基于gps定位与视觉图像处理的交通信号检测方法及系统 |
CN108009548A (zh) * | 2018-01-09 | 2018-05-08 | 贵州大学 | 一种智能路牌识别方法及系统 |
CN108052935A (zh) * | 2018-01-30 | 2018-05-18 | 深圳智达机械技术有限公司 | 一种具有识别功能的智能眼镜 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111246175A (zh) * | 2020-01-20 | 2020-06-05 | 深圳英飞拓科技股份有限公司 | 一种基于规则的人脸抓拍摄像机语音处理方法、系统和装置 |
CN111782172A (zh) * | 2020-06-24 | 2020-10-16 | 大众问问(北京)信息科技有限公司 | 一种信息展示方法和装置 |
CN111782172B (zh) * | 2020-06-24 | 2024-03-12 | 大众问问(北京)信息科技有限公司 | 一种信息展示方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109117862B (zh) | 图像标签识别方法、装置及服务器 | |
KR102494642B1 (ko) | 가상 어시스턴트를 위한 입력 모드 선택 | |
CN110263213B (zh) | 视频推送方法、装置、计算机设备及存储介质 | |
KR20210123399A (ko) | 인공 지능에 기초한 애니메이션 이미지 구동 방법, 및 관련 디바이스 | |
CN103076877B (zh) | 使用姿势与车辆内的移动装置进行交互 | |
CN107336243B (zh) | 基于智能移动终端的机器人控制系统及控制方法 | |
CN113395542B (zh) | 基于人工智能的视频生成方法、装置、计算机设备及介质 | |
CN111556278A (zh) | 一种视频处理的方法、视频展示的方法、装置及存储介质 | |
KR101887637B1 (ko) | 로봇 시스템 | |
WO2022227393A1 (zh) | 图像拍摄方法及装置、电子设备和计算机可读存储介质 | |
CN104808794B (zh) | 一种唇语输入方法和系统 | |
CN111552888A (zh) | 内容推荐方法、装置、设备及存储介质 | |
CN108525305A (zh) | 图像处理方法、装置、存储介质及电子设备 | |
JP2006228061A (ja) | 顔追跡プログラムおよび顔追跡方法 | |
JP2023524119A (ja) | 顔イメージ生成方法、装置、電子機器及び可読記憶媒体 | |
KR20230162078A (ko) | 보컬들의 특성들을 변경하기 위한 신경망들 | |
CN113703585A (zh) | 交互方法、装置、电子设备及存储介质 | |
CN112581571A (zh) | 虚拟形象模型的控制方法、装置、电子设备及存储介质 | |
CN108960200A (zh) | 一种基于智能交互的数据处理方法及电子设备 | |
CN112669422A (zh) | 仿真3d数字人生成方法、装置、电子设备及存储介质 | |
EP2632158A1 (en) | Method and apparatus for processing information of image including a face | |
CN110415318B (zh) | 图像处理方法和装置 | |
CN110222567B (zh) | 一种图像处理方法及设备 | |
CN111950255A (zh) | 诗词生成方法、装置、设备及存储介质 | |
CN117809084A (zh) | 图像识别模型训练方法、基于图像识别的交互方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |