CN109036403A - 信息交互方法及装置 - Google Patents
信息交互方法及装置 Download PDFInfo
- Publication number
- CN109036403A CN109036403A CN201810802129.2A CN201810802129A CN109036403A CN 109036403 A CN109036403 A CN 109036403A CN 201810802129 A CN201810802129 A CN 201810802129A CN 109036403 A CN109036403 A CN 109036403A
- Authority
- CN
- China
- Prior art keywords
- facial expression
- glasses
- expression image
- account
- information exchange
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 68
- 239000011521 glass Substances 0.000 claims abstract description 185
- 230000008921 facial expression Effects 0.000 claims abstract description 176
- 230000002452 interceptive effect Effects 0.000 claims abstract description 22
- 230000001815 facial effect Effects 0.000 claims description 22
- 230000009471 action Effects 0.000 claims description 5
- 230000005540 biological transmission Effects 0.000 claims description 5
- 241000406668 Loxodonta cyclotis Species 0.000 claims description 4
- 230000008569 process Effects 0.000 abstract description 7
- 238000004891 communication Methods 0.000 description 17
- 238000012545 processing Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 8
- 230000005236 sound signal Effects 0.000 description 5
- 238000012546 transfer Methods 0.000 description 5
- 230000003993 interaction Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000000712 assembly Effects 0.000 description 2
- 238000000429 assembly Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 210000003811 finger Anatomy 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- KLDZYURQCUYZBL-UHFFFAOYSA-N 2-[3-[(2-hydroxyphenyl)methylideneamino]propyliminomethyl]phenol Chemical compound OC1=CC=CC=C1C=NCCCN=CC1=CC=CC=C1O KLDZYURQCUYZBL-UHFFFAOYSA-N 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 201000001098 delayed sleep phase syndrome Diseases 0.000 description 1
- 208000033921 delayed sleep phase type circadian rhythm sleep disease Diseases 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000012092 media component Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本公开是关于一种信息交互方法及装置。该方法包括:在第一AR眼镜与第二AR眼镜进行信息交互时,获取输入第一AR眼镜的声音信号;获取该声音信号对应的语音内容;若该语音内容包含第一表情图像对应的第一词语,则将第一表情图像发送至第二AR眼镜,以使第二AR眼镜显示第一表情图像。本公开通过在获取的声音信号对应的语音内容包含表情图像对应的词语时,控制信息交互对象佩戴的AR眼镜显示表情图像,由此信息交互的双方在佩戴AR眼镜进行信息交互时,能够根据信息交互对象说话的内容看到表情图像,从而能够提高信息交互的灵活性和互动性,使信息交互过程得到更丰富的展现。
Description
技术领域
本公开涉及信息技术领域,尤其涉及信息交互方法及装置。
背景技术
人们可以通过面对面聊天的方式或者通过终端设备的通信功能进行信息交互。如何提高信息交互的灵活性,是亟待解决的问题。
发明内容
为克服相关技术中存在的问题,本公开提供一种信息交互方法及装置。
根据本公开实施例的第一方面,提供一种信息交互方法,所述方法应用于第一AR眼镜中,所述方法包括:
在所述第一AR眼镜与第二AR眼镜进行信息交互时,获取输入所述第一AR眼镜的声音信号;
获取所述声音信号对应的语音内容;
若所述语音内容包含第一表情图像对应的第一词语,则将所述第一表情图像发送至所述第二AR眼镜,以使所述第二AR眼镜显示所述第一表情图像。
在一种可能的实现方式中,所述方法还包括:
获取注视点的位置;
根据所述注视点的位置,获取所述第一AR眼镜的信息交互对象的人脸图像;
确定所述人脸图像对应的第二账户,所述第二账户为所述第二AR眼镜登录的账户。
在一种可能的实现方式中,在获取所述声音信号对应的语音内容之后,所述方法还包括:
根据第一账户的表情图像库中表情图像与词语之间的对应关系,判断所述语音内容是否包含所述表情图像库中的表情图像对应的词语,其中,所述第一账户为所述第一AR眼镜登录的账户。
根据本公开实施例的第二方面,提供一种信息交互方法,所述方法应用于第二AR眼镜中,所述方法包括:
获取第一AR眼镜发送的第一表情图像,其中,所述第一表情图像根据第一AR眼镜采集的声音信号对应的语音内容确定;
显示所述第一表情图像。
在一种可能的实现方式中,所述方法还包括:
解析所述第二AR眼镜的信息交互对象的动作;
若所述信息交互对象的动作对应于第二表情图像,则显示所述第二表情图像。
在一种可能的实现方式中,解析所述第二AR眼镜的信息交互对象的动作,包括:
根据第一账户的表情图像库中表情图像与动作之间的对应关系,解析所述信息交互对象的动作是否对应于所述表情图像库中的表情图像,其中,所述第一账户表示所述第一AR眼镜登录的账户。
在一种可能的实现方式中,所述方法还包括:
根据所述第一账户的表情图像库中表情图像与词语之间的动作关系,以及词语与动作之间的对应关系,确定所述第一账户的表情图像库中表情图像与动作之间的对应关系。
根据本公开实施例的第三方面,提供了一种信息交互装置,包括:
第一获取模块,用于在第一AR眼镜与第二AR眼镜进行信息交互时,获取输入所述第一AR眼镜的声音信号;
第二获取模块,用于获取所述声音信号对应的语音内容;
发送模块,用于若所述语音内容包含第一表情图像对应的第一词语,则将所述第一表情图像发送至所述第二AR眼镜,以使所述第二AR眼镜显示所述第一表情图像。
在一种可能的实现方式中,所述装置还包括:
第三获取模块,用于获取注视点的位置;
第四获取模块,用于根据所述注视点的位置,获取所述第一AR眼镜的信息交互对象的人脸图像;
第一确定模块,用于确定所述人脸图像对应的第二账户,所述第二账户为所述第二AR眼镜登录的账户。
在一种可能的实现方式中,所述装置还包括:
判断模块,用于根据第一账户的表情图像库中表情图像与词语之间的对应关系,判断所述语音内容是否包含所述表情图像库中的表情图像对应的词语,其中,所述第一账户为所述第一AR眼镜登录的账户。
根据本公开实施例的第四方面,提供了一种信息交互装置,包括:
第五获取模块,用于获取第一AR眼镜发送的第一表情图像,其中,所述第一表情图像根据第一AR眼镜采集的声音信号对应的语音内容确定;
第一显示模块,用于显示所述第一表情图像。
在一种可能的实现方式中,所述装置还包括:
解析模块,用于解析第二AR眼镜的信息交互对象的动作;
第二显示模块,用于若所述信息交互对象的动作对应于第二表情图像,则显示所述第二表情图像。
在一种可能的实现方式中,所述解析模块用于:
根据第一账户的表情图像库中表情图像与动作之间的对应关系,解析所述信息交互对象的动作是否对应于所述表情图像库中的表情图像,其中,所述第一账户表示所述第一AR眼镜登录的账户。
在一种可能的实现方式中,所述装置还包括:
第二确定模块,用于根据所述第一账户的表情图像库中表情图像与词语之间的动作关系,以及词语与动作之间的对应关系,确定所述第一账户的表情图像库中表情图像与动作之间的对应关系。
根据本公开实施例的第五方面,提供一种信息交互装置,其特征在于,包括:处理器;用于存储处理器可执行指令的存储器;其中,所述处理器被配置为执行上述第一方面所述的方法。
根据本公开实施例的第六方面,提供一种信息交互装置,其特征在于,包括:处理器;用于存储处理器可执行指令的存储器;其中,所述处理器被配置为执行上述第二方面所述的方法。
根据本公开实施例的第七方面,提供一种非临时性计算机可读存储介质,当所述存储介质中的指令由处理器执行时,使得处理器能够执行上述第一方面所述的方法。
根据本公开实施例的第八方面,提供一种非临时性计算机可读存储介质,当所述存储介质中的指令由处理器执行时,使得处理器能够执行上述第二方面所述的方法。
本公开的实施例提供的技术方案可以包括以下有益效果:通过在获取的声音信号对应的语音内容包含表情图像对应的词语时,控制信息交互对象佩戴的AR眼镜显示表情图像,由此信息交互的双方在佩戴AR眼镜进行信息交互时,能够根据信息交互对象说话的内容看到表情图像,从而能够提高信息交互的灵活性和互动性,使信息交互过程得到更丰富的展现。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是根据一示例性实施例示出的一种信息交互方法的流程图。
图2是根据一示例性实施例示出的一种信息交互方法的一示例性的流程图。
图3是根据一示例性实施例示出的一种信息交互方法的流程图。
图4是根据一示例性实施例示出的一种信息交互方法的一示例性的流程图。
图5是根据一示例性实施例示出的一种信息交互装置的框图。
图6是根据一示例性实施例示出的一种信息交互装置的一示例性的框图。
图7是根据一示例性实施例示出的一种信息交互装置的框图。
图8是根据一示例性实施例示出的一种信息交互装置的一示例性的框图。
图9是根据一示例性实施例示出的一种用于信息交互的装置800的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
图1是根据一示例性实施例示出的一种信息交互方法的流程图。该方法应用于第一AR(Augmented Reality,增强现实)眼镜中。本公开实施例可以应用于第一用户与第二用户分别佩戴AR眼镜进行面对面聊天的应用场景中。其中,第一用户佩戴第一AR眼镜,第二用户佩戴第二AR眼镜。第一AR眼镜登录的账户为第一账户,第二AR眼镜登录的账户为第二账户。如图1所示,该方法包括步骤S11至步骤S13。
在步骤S11中,在第一AR眼镜与第二AR眼镜进行信息交互时,获取输入第一AR眼镜的声音信号。
在本公开实施例中,可以将佩戴第一AR眼镜的第一用户说话的声音信号作为输入第一AR眼镜的声音信号。在一种可能的实现方式中,可以将第一账户对应的声音特征作为第一用户的声音特征,根据第一用户的声音特征,辨别接收到的声音信号是否为第一用户说话的声音信号,由此可以从接收到的声音信号中获取第一用户说话的声音信号作为输入第一AR眼镜的声音信号。
在步骤S12中,获取该声音信号对应的语音内容。
在一种可能的实现方式中,第一AR眼镜可以将该声音信号发送至服务器,由服务器对该声音信号进行语音识别,得到该声音信号对应的语音内容,并由服务器将该声音信号对应的语音内容返回给第一AR眼镜。该实现方式通过服务器对声音信号进行语音识别,能够获取较准确的语音内容。
在另一种可能的实现方式中,可以由第一AR眼镜对该声音信号进行语音识别,得到该声音信号对应的语音内容。该实现方式通过第一AR眼镜对声音信号进行语音识别,能够快速获取该声音信号对应的语音内容。
在一种可能的实现方式中,当第一AR眼镜联网时,第一AR眼镜可以将该声音信号发送至服务器,由服务器对该声音信号进行语音识别,得到该声音信号对应的语音内容,并由服务器将该声音信号对应的语音内容返回给第一AR眼镜;当第一AR眼镜未联网时,可以由第一AR眼镜对该声音信号进行语音识别,得到该声音信号对应的语音内容。该实现方式通过在第一AR眼镜联网时由服务器对声音信号进行语音识别,在第一AR眼镜未联网时由第一AR眼镜对声音信号进行语音识别,由此在第一AR眼镜联网时能够获取较准确的语音内容,在第一AR眼镜未联网时也能保证语音识别的可用性。
在一种可能的实现方式中,在获取该声音信号对应的语音内容之后,该方法还包括:根据第一账户的表情图像库中表情图像与词语之间的对应关系,判断该语音内容是否包含该表情图像库中的表情图像对应的词语,其中,第一账户为第一AR眼镜登录的账户。
作为该实现方式的一个示例,可以获取与第一账户关联的即时通信账户的表情图像库,作为第一账户的表情图像库。其中,第一账户以及与第一账户关联的即时通信账户可以均为第一用户使用的账户。第一账户可以通过第一用户的用户标识信息与即时通信账户建立关联。例如,第一用户的用户标识信息可以为第一用户的手机号或者身份证号等。
在一种可能的实现方式中,可以在第一AR眼镜中存储第一账户的表情图像库。
在步骤S13中,若该语音内容包含第一表情图像对应的第一词语,则将第一表情图像发送至第二AR眼镜,以使第二AR眼镜显示第一表情图像。
在一种可能的实现方式中,若该语音内容包含第一词语,且第一账户的表情图像库中仅存在一个与第一词语对应的表情图像,则可以将该与第一词语对应的表情图像确定为第一表情图像。
在一种可能的实现方式中,若该语音内容包含第一词语,且第一账户的表情图像库中存在多个与第一词语对应的表情图像,则可以将多个与第一词语对应的表情图像中被第一用户使用的频率最高的表情图像确定为第一表情图像。
作为该实现方式的一个示例,可以根据与第一账户关联的即时通信账户的表情图像库中各个表情图像被使用的频率,确定各个表情图像被第一用户使用的频率。
在本公开实施例中,表情图像可以为动态图像,也可以为静态图像,在此不作限定。例如,词语“晚安”对应于上床盖被子的表情图像,词语“谢谢老板”对应于卡通形象鞠躬的表情图像。
在一种可能的实现方式中,当第一AR眼镜通过蓝牙等近距离无线通信技术与第二AR眼镜直接相连时,第一AR眼镜可以直接将第一表情图像发送至第二AR眼镜。
在另一种可能的实现方式中,当第一AR眼镜通过蓝牙等近距离无线通信技术与第二AR眼镜直接相连时,第一AR眼镜可以将第一表情图像的标识符发送至第二AR眼镜,第二AR眼镜可以根据第一表情图像的标识符显示第一表情图像。例如,第一表情图像的标识符为[laugh]。
在另一种可能的实现方式中,当第一AR眼镜与第二AR眼镜之间通过路由器进行通信中转时,第一AR眼镜可以将第一表情图像发送至路由器,由路由器将第一表情图像转发至第二AR眼镜。
在另一种可能的实现方式中,当第一AR眼镜与第二AR眼镜之间通过路由器进行通信中转时,第一AR眼镜可以将第一表情图像的标识符发送至路由器,路由器将第一表情图像的标识符转发至第二AR眼镜,第二AR眼镜可以根据第一表情图像的标识符显示第一表情图像。
在另一种可能的实现方式中,当第一AR眼镜与第二AR眼镜之间通过服务器进行通信中转时,第一AR眼镜可以将第一表情图像发送至服务器,由服务器将第一表情图像转发至第二AR眼镜。
在另一种可能的实现方式中,当第一AR眼镜与第二AR眼镜之间通过服务器进行通信中转时,第一AR眼镜可以将第一表情图像的标识符发送至服务器,服务器将第一表情图像的标识符转发至第二AR眼镜,第二AR眼镜可以根据第一表情图像的标识符显示第一表情图像。
在另一种可能的实现方式中,当第一AR眼镜与第二AR眼镜之间通过服务器进行通信中转时,第一AR眼镜可以将第一表情图像的标识符发送至服务器,服务器根据第一表情图像的标识符,获取第一表情图像,并将第一表情图像发送至第二AR眼镜。
本公开实施例通过在获取的声音信号对应的语音内容包含表情图像对应的词语时,控制信息交互对象佩戴的AR眼镜显示表情图像,由此信息交互的双方在佩戴AR眼镜进行信息交互时,能够根据信息交互对象说话的内容看到表情图像,从而能够提高信息交互的灵活性和互动性,使信息交互过程得到更丰富的展现。
图2是根据一示例性实施例示出的一种信息交互方法的一示例性的流程图。如图2所示,该方法可以包括步骤S21至步骤S26。
在步骤S21中,获取注视点的位置。
在本公开实施例中,第一AR眼镜可以通过相关技术手段获取佩戴第一AR眼镜的第一用户的注视点的位置。
在步骤S22中,根据该注视点的位置,获取第一AR眼镜的信息交互对象的人脸图像。
在本公开实施例中,根据注视点的位置,可以确定第一用户注视的区域,从而可以确定第一用户注视的对象。当第一用户注视的对象为人时,可以获取第一用户注视的对象的人脸图像。在本公开实施例中,第一用户注视的对象即为第一AR眼镜的信息交互对象。
在步骤S23中,确定该人脸图像对应的第二账户,第二账户为第二AR眼镜登录的账户。
在一种可能的实现方式中,第一AR眼镜可以将该人脸图像发送至服务器,由服务器对该人脸图像进行识别,确定该人脸图像对应的第二账户,并由服务器将该人脸图像对应的第二账户的信息返回给第一AR眼镜。
在另一种可能的实现方式中,可以由第一AR眼镜对该人脸图像进行识别,确定该人脸图像对应的第二账户。
在另一种可能的实现方式中,当第一AR眼镜联网时,第一AR眼镜可以将该人脸图像发送至服务器,由服务器对该人脸图像进行识别,确定该人脸图像对应的第二账户,并由服务器将该人脸图像对应的第二账户的信息返回给第一AR眼镜;当第一AR眼镜未联网时,可以由第一AR眼镜对该人脸图像进行识别,确定该人脸图像对应的第二账户。
在本公开实施例中,第一AR眼镜将第一表情图像发送至第二AR眼镜,即第一AR眼镜将第一表情图像发送至第二账户。
在步骤S24中,在第一AR眼镜与第二AR眼镜进行信息交互时,获取输入第一AR眼镜的声音信号。
其中,对步骤S24参见上文对步骤S11的描述。
在步骤S25中,获取该声音信号对应的语音内容。
其中,对步骤S25参见上文对步骤S12的描述。
在步骤S26中,若该语音内容包含第一表情图像对应的第一词语,则将第一表情图像发送至第二AR眼镜,以使第二AR眼镜显示第一表情图像。
其中,对步骤S26参见上文对步骤S13的描述。
图3是根据一示例性实施例示出的一种信息交互方法的流程图。该方法应用于第二AR眼镜中。本公开实施例可以应用于第一用户与第二用户分别佩戴AR眼镜进行面对面聊天的应用场景中。其中,第一用户佩戴第一AR眼镜,第二用户佩戴第二AR眼镜。第一AR眼镜登录的账户为第一账户,第二AR眼镜登录的账户为第二账户。如图3所示,该方法包括步骤S31和步骤S32。
在步骤S31中,获取第一AR眼镜发送的第一表情图像,其中,第一表情图像根据第一AR眼镜采集的声音信号对应的语音内容确定。
在步骤S32中,显示第一表情图像。
在本公开实施例中,第二AR眼镜接收到第一AR眼镜发送的第一表情图像后,可以立即显示第一表情图像,以使第二用户立即看到第一表情图像。
在一种可能的实现方式中,可以获取佩戴第二AR眼镜的第二用户的注视点的位置,根据第二用户的注视点的位置,判断第二用户注视的对象是否为第一用户,若是,则可以显示第一表情图像。
本公开实施例通过在信息交互的双方在佩戴AR眼镜进行信息交互时,根据信息交互对象的语音内容显示表情图像,从而能够提高信息交互的灵活性和互动性,使信息交互过程得到更丰富的展现。
图4是根据一示例性实施例示出的一种信息交互方法的一示例性的流程图。如图4所示,该方法可以包括步骤S31至步骤S34。
在步骤S31中,获取第一AR眼镜发送的第一表情图像,其中,第一表情图像根据第一AR眼镜采集的声音信号对应的语音内容确定。
在步骤S32中,显示第一表情图像。
在步骤S33中,解析第二AR眼镜的信息交互对象的动作。
在本公开实施例中,当佩戴第二AR眼镜的第二用户注视的对象为第一用户时,第二AR眼镜的信息交互对象为第一用户。
在一种可能的实现方式中,解析第二AR眼镜的信息交互对象的动作,包括:根据第一账户的表情图像库中表情图像与动作之间的对应关系,解析该信息交互对象的动作是否对应于该表情图像库中的表情图像,其中,第一账户表示第一AR眼镜登录的账户。
在一种可能的实现方式中,可以在第二AR眼镜中存储第一账户的表情图像库。
在一种可能的实现方式中,该方法还包括:根据第一账户的表情图像库中表情图像与词语之间的动作关系,以及词语与动作之间的对应关系,确定第一账户的表情图像库中表情图像与动作之间的对应关系。例如,拇指和食指相交成爱心的动作对应于词语“比心”,词语“比心”对应于表情图像C,则可以确定拇指和食指相交成爱心的动作对应于表情图像C。
在步骤S34中,若该信息交互对象的动作对应于第二表情图像,则显示第二表情图像。
本公开实施例通过在信息交互的双方在佩戴AR眼镜进行信息交互时,根据信息交互对象的动作显示表情图像,从而能够进一步提高信息交互的灵活性和互动性,使信息交互过程得到更丰富的展现。
图5是根据一示例性实施例示出的一种信息交互装置的框图。该信息交互装置可以为第一AR眼镜。如图5所示,该装置包括第一获取模块51、第二获取模块52和发送模块53。
该第一获取模块51被配置为在第一AR眼镜与第二AR眼镜进行信息交互时,获取输入第一AR眼镜的声音信号。
该第二获取模块52被配置为获取该声音信号对应的语音内容。
该发送模块53被配置为若该语音内容包含第一表情图像对应的第一词语,则将第一表情图像发送至第二AR眼镜,以使第二AR眼镜显示第一表情图像。
图6是根据一示例性实施例示出的一种信息交互装置的一示例性的框图。如图6所示:
在一种可能的实现方式中,该装置还包括第三获取模块54、第四获取模块55和第一确定模块56。
该第三获取模块54被配置为获取注视点的位置。
该第四获取模块55被配置为根据该注视点的位置,获取第一AR眼镜的信息交互对象的人脸图像。
该第一确定模块56被配置为确定该人脸图像对应的第二账户,第二账户为第二AR眼镜登录的账户。
在一种可能的实现方式中,该装置还包括判断模块57。
该判断模块57被配置为根据第一账户的表情图像库中表情图像与词语之间的对应关系,判断该语音内容是否包含该表情图像库中的表情图像对应的词语,其中,第一账户为第一AR眼镜登录的账户。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
本公开实施例通过在获取的声音信号对应的语音内容包含表情图像对应的词语时,控制信息交互对象佩戴的AR眼镜显示表情图像,由此信息交互的双方在佩戴AR眼镜进行信息交互时,能够根据信息交互对象说话的内容看到表情图像,从而能够提高信息交互的灵活性和互动性,使信息交互过程得到更丰富的展现。
图7是根据一示例性实施例示出的一种信息交互装置的框图。该信息交互装置可以为第二AR眼镜。如图7所示,该装置包括第五获取模块71和第一显示模块72。
该第五获取模块71被配置为获取第一AR眼镜发送的第一表情图像,其中,第一表情图像根据第一AR眼镜采集的声音信号对应的语音内容确定。
该第一显示模块72被配置为显示第一表情图像。
图8是根据一示例性实施例示出的一种信息交互装置的一示例性的框图。如图8所示:
在一种可能的实现方式中,该装置还包括解析模块73和第二显示模块74。
该解析模块73被配置为解析第二AR眼镜的信息交互对象的动作。
该第二显示模块74被配置为若该信息交互对象的动作对应于第二表情图像,则显示第二表情图像。
在一种可能的实现方式中,该解析模块73被配置为根据第一账户的表情图像库中表情图像与动作之间的对应关系,解析该信息交互对象的动作是否对应于该表情图像库中的表情图像,其中,第一账户表示第一AR眼镜登录的账户。
在一种可能的实现方式中,该装置还包括第二确定模块75。
该第二确定模块75被配置为根据第一账户的表情图像库中表情图像与词语之间的动作关系,以及词语与动作之间的对应关系,确定第一账户的表情图像库中表情图像与动作之间的对应关系。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
本公开实施例通过在信息交互的双方在佩戴AR眼镜进行信息交互时,根据信息交互对象的语音内容显示表情图像,从而能够提高信息交互的灵活性和互动性,使信息交互过程得到更丰富的展现。
图9是根据一示例性实施例示出的一种用于信息交互的装置800的框图。例如,装置800可以是AR眼镜。
参照图9,装置800可以包括以下一个或多个组件:处理组件802,存储器804,电源组件806,多媒体组件808,音频组件810,输入/输出(I/O)的接口812,传感器组件814,以及通信组件816。
处理组件802通常控制装置800的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件802可以包括一个或多个处理器820来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件802可以包括一个或多个模块,便于处理组件802和其他组件之间的交互。例如,处理组件802可以包括多媒体模块,以方便多媒体组件808和处理组件802之间的交互。
存储器804被配置为存储各种类型的数据以支持在装置800的操作。这些数据的示例包括用于在装置800上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器804可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件806为装置800的各种组件提供电力。电源组件806可以包括电源管理系统,一个或多个电源,及其他与为装置800生成、管理和分配电力相关联的组件。
多媒体组件808包括在所述装置800和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件808包括一个前置摄像头和/或后置摄像头。当装置800处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件810被配置为输出和/或输入音频信号。例如,音频组件810包括一个麦克风(MIC),当装置800处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器804或经由通信组件816发送。在一些实施例中,音频组件810还包括一个扬声器,用于输出音频信号。
I/O接口812为处理组件802和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件814包括一个或多个传感器,用于为装置800提供各个方面的状态评估。例如,传感器组件814可以检测到装置800的打开/关闭状态,组件的相对定位,例如所述组件为装置800的显示器和小键盘,传感器组件814还可以检测装置800或装置800一个组件的位置改变,用户与装置800接触的存在或不存在,装置800方位或加速/减速和装置800的温度变化。传感器组件814可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件814还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件814还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件816被配置为便于装置800和其他设备之间有线或无线方式的通信。装置800可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件816经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件816还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置800可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器804,上述指令可由装置800的处理器820执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (18)
1.一种信息交互方法,其特征在于,所述方法应用于第一AR眼镜中,所述方法包括:
在所述第一AR眼镜与第二AR眼镜进行信息交互时,获取输入所述第一AR眼镜的声音信号;
获取所述声音信号对应的语音内容;
若所述语音内容包含第一表情图像对应的第一词语,则将所述第一表情图像发送至所述第二AR眼镜,以使所述第二AR眼镜显示所述第一表情图像。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取注视点的位置;
根据所述注视点的位置,获取所述第一AR眼镜的信息交互对象的人脸图像;
确定所述人脸图像对应的第二账户,所述第二账户为所述第二AR眼镜登录的账户。
3.根据权利要求1所述的方法,其特征在于,在获取所述声音信号对应的语音内容之后,所述方法还包括:
根据第一账户的表情图像库中表情图像与词语之间的对应关系,判断所述语音内容是否包含所述表情图像库中的表情图像对应的词语,其中,所述第一账户为所述第一AR眼镜登录的账户。
4.一种信息交互方法,其特征在于,所述方法应用于第二AR眼镜中,所述方法包括:
获取第一AR眼镜发送的第一表情图像,其中,所述第一表情图像根据第一AR眼镜采集的声音信号对应的语音内容确定;
显示所述第一表情图像。
5.根据权利要求4所述的方法,其特征在于,所述方法还包括:
解析所述第二AR眼镜的信息交互对象的动作;
若所述信息交互对象的动作对应于第二表情图像,则显示所述第二表情图像。
6.根据权利要求5所述的方法,其特征在于,解析所述第二AR眼镜的信息交互对象的动作,包括:
根据第一账户的表情图像库中表情图像与动作之间的对应关系,解析所述信息交互对象的动作是否对应于所述表情图像库中的表情图像,其中,所述第一账户表示所述第一AR眼镜登录的账户。
7.根据权利要求6所述的方法,其特征在于,所述方法还包括:
根据所述第一账户的表情图像库中表情图像与词语之间的动作关系,以及词语与动作之间的对应关系,确定所述第一账户的表情图像库中表情图像与动作之间的对应关系。
8.一种信息交互装置,其特征在于,包括:
第一获取模块,用于在第一AR眼镜与第二AR眼镜进行信息交互时,获取输入所述第一AR眼镜的声音信号;
第二获取模块,用于获取所述声音信号对应的语音内容;
发送模块,用于若所述语音内容包含第一表情图像对应的第一词语,则将所述第一表情图像发送至所述第二AR眼镜,以使所述第二AR眼镜显示所述第一表情图像。
9.根据权利要求8所述的装置,其特征在于,所述装置还包括:
第三获取模块,用于获取注视点的位置;
第四获取模块,用于根据所述注视点的位置,获取所述第一AR眼镜的信息交互对象的人脸图像;
第一确定模块,用于确定所述人脸图像对应的第二账户,所述第二账户为所述第二AR眼镜登录的账户。
10.根据权利要求8所述的装置,其特征在于,所述装置还包括:
判断模块,用于根据第一账户的表情图像库中表情图像与词语之间的对应关系,判断所述语音内容是否包含所述表情图像库中的表情图像对应的词语,其中,所述第一账户为所述第一AR眼镜登录的账户。
11.一种信息交互装置,其特征在于,包括:
第五获取模块,用于获取第一AR眼镜发送的第一表情图像,其中,所述第一表情图像根据第一AR眼镜采集的声音信号对应的语音内容确定;
第一显示模块,用于显示所述第一表情图像。
12.根据权利要求11所述的装置,其特征在于,所述装置还包括:
解析模块,用于解析第二AR眼镜的信息交互对象的动作;
第二显示模块,用于若所述信息交互对象的动作对应于第二表情图像,则显示所述第二表情图像。
13.根据权利要求12所述的装置,其特征在于,所述解析模块用于:
根据第一账户的表情图像库中表情图像与动作之间的对应关系,解析所述信息交互对象的动作是否对应于所述表情图像库中的表情图像,其中,所述第一账户表示所述第一AR眼镜登录的账户。
14.根据权利要求13所述的装置,其特征在于,所述装置还包括:
第二确定模块,用于根据所述第一账户的表情图像库中表情图像与词语之间的动作关系,以及词语与动作之间的对应关系,确定所述第一账户的表情图像库中表情图像与动作之间的对应关系。
15.一种信息交互装置,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为执行权利要求1至3中任意一项所述的方法。
16.一种信息交互装置,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为执行权利要求4至7中任意一项所述的方法。
17.一种非临时性计算机可读存储介质,当所述存储介质中的指令由处理器执行时,使得处理器能够执行权利要求1至3中任意一项所述的方法。
18.一种非临时性计算机可读存储介质,当所述存储介质中的指令由处理器执行时,使得处理器能够执行权利要求4至7中任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810802129.2A CN109036403A (zh) | 2018-07-20 | 2018-07-20 | 信息交互方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810802129.2A CN109036403A (zh) | 2018-07-20 | 2018-07-20 | 信息交互方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109036403A true CN109036403A (zh) | 2018-12-18 |
Family
ID=64643696
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810802129.2A Pending CN109036403A (zh) | 2018-07-20 | 2018-07-20 | 信息交互方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109036403A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111581622A (zh) * | 2020-05-09 | 2020-08-25 | 维沃移动通信有限公司 | 信息处理方法、装置及电子设备 |
CN112506335A (zh) * | 2019-09-16 | 2021-03-16 | Oppo广东移动通信有限公司 | 头戴式设备及其控制方法、装置、系统和存储介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104125139A (zh) * | 2013-04-28 | 2014-10-29 | 腾讯科技(深圳)有限公司 | 一种显示表情的方法和装置 |
US20140324414A1 (en) * | 2013-04-28 | 2014-10-30 | Tencent Technology (Shenzhen) Company Limited | Method and apparatus for displaying emoticon |
CN104298429A (zh) * | 2014-09-25 | 2015-01-21 | 北京搜狗科技发展有限公司 | 一种基于输入的信息展示方法和输入法系统 |
US20150038235A1 (en) * | 2013-07-30 | 2015-02-05 | Gree, Inc. | Program, method, and system of transmitting or receiving message |
CN104394057A (zh) * | 2013-11-04 | 2015-03-04 | 贵阳朗玛信息技术股份有限公司 | 表情推荐方法及装置 |
CN104484058A (zh) * | 2014-12-19 | 2015-04-01 | 天脉聚源(北京)科技有限公司 | 一种输出即时表情图像的方法及装置 |
CN105824419A (zh) * | 2016-03-18 | 2016-08-03 | 苏州佳世达电通有限公司 | 穿戴装置交互系统及穿戴装置交互方法 |
CN106708249A (zh) * | 2015-07-31 | 2017-05-24 | 北京智谷睿拓技术服务有限公司 | 交互方法、交互装置及用户设备 |
CN106789543A (zh) * | 2015-11-20 | 2017-05-31 | 腾讯科技(深圳)有限公司 | 会话中实现表情图像发送的方法和装置 |
US20180157333A1 (en) * | 2016-12-05 | 2018-06-07 | Google Inc. | Information privacy in virtual reality |
-
2018
- 2018-07-20 CN CN201810802129.2A patent/CN109036403A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104125139A (zh) * | 2013-04-28 | 2014-10-29 | 腾讯科技(深圳)有限公司 | 一种显示表情的方法和装置 |
US20140324414A1 (en) * | 2013-04-28 | 2014-10-30 | Tencent Technology (Shenzhen) Company Limited | Method and apparatus for displaying emoticon |
US20150038235A1 (en) * | 2013-07-30 | 2015-02-05 | Gree, Inc. | Program, method, and system of transmitting or receiving message |
CN104394057A (zh) * | 2013-11-04 | 2015-03-04 | 贵阳朗玛信息技术股份有限公司 | 表情推荐方法及装置 |
CN104298429A (zh) * | 2014-09-25 | 2015-01-21 | 北京搜狗科技发展有限公司 | 一种基于输入的信息展示方法和输入法系统 |
CN104484058A (zh) * | 2014-12-19 | 2015-04-01 | 天脉聚源(北京)科技有限公司 | 一种输出即时表情图像的方法及装置 |
CN106708249A (zh) * | 2015-07-31 | 2017-05-24 | 北京智谷睿拓技术服务有限公司 | 交互方法、交互装置及用户设备 |
CN106789543A (zh) * | 2015-11-20 | 2017-05-31 | 腾讯科技(深圳)有限公司 | 会话中实现表情图像发送的方法和装置 |
CN105824419A (zh) * | 2016-03-18 | 2016-08-03 | 苏州佳世达电通有限公司 | 穿戴装置交互系统及穿戴装置交互方法 |
US20180157333A1 (en) * | 2016-12-05 | 2018-06-07 | Google Inc. | Information privacy in virtual reality |
Non-Patent Citations (2)
Title |
---|
廖国良 等: "《交互设计概论》", 30 August 2017 * |
杨磊 等: "《数字媒体技术概论》", 30 September 2017 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112506335A (zh) * | 2019-09-16 | 2021-03-16 | Oppo广东移动通信有限公司 | 头戴式设备及其控制方法、装置、系统和存储介质 |
CN112506335B (zh) * | 2019-09-16 | 2022-07-12 | Oppo广东移动通信有限公司 | 头戴式设备及其控制方法、装置、系统和存储介质 |
CN111581622A (zh) * | 2020-05-09 | 2020-08-25 | 维沃移动通信有限公司 | 信息处理方法、装置及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110662083B (zh) | 数据处理方法、装置、电子设备及存储介质 | |
CN107769881B (zh) | 信息同步方法、装置及系统、存储介质 | |
CN105516754B (zh) | 画面显示控制方法、装置及终端 | |
CN105163366B (zh) | 无线网络连接方法和装置 | |
CN106209800B (zh) | 设备权限共享方法和装置 | |
CN105120301B (zh) | 视频处理方法和装置、智能设备 | |
CN110224901A (zh) | 智能设备交互方法、装置和存储介质 | |
CN105704766B (zh) | 双卡移动终端的控制方法及装置 | |
CN104539871B (zh) | 多媒体通话方法及装置 | |
CN106101433B (zh) | 通知消息显示方法和装置 | |
CN105677023B (zh) | 信息呈现方法及装置 | |
CN109600303A (zh) | 内容分享方法、装置及存储介质 | |
CN105117111A (zh) | 虚拟现实交互画面的渲染方法和装置 | |
CN109039877A (zh) | 一种显示未读消息数量的方法、装置、电子设备及存储介质 | |
CN106993265A (zh) | 基于可穿戴设备的通信方法、终端、可穿戴设备 | |
CN106375178A (zh) | 基于即时通讯的消息显示方法及装置 | |
CN110475134A (zh) | 一种评论内容显示方法、装置、电子设备及存储介质 | |
CN109036403A (zh) | 信息交互方法及装置 | |
CN105430469B (zh) | 音视频数据的播放方法、装置、终端及服务器 | |
CN105187154B (zh) | 响应包接收延时的方法及装置 | |
CN109450894A (zh) | 信息交互方法、装置、系统、服务器用户终端及存储介质 | |
CN107566615B (zh) | 消息处理方法、装置及计算机可读存储介质 | |
CN108989191A (zh) | 撤回图片文件的方法及其控制方法、装置及移动终端 | |
CN110113622A (zh) | 直播中的交互方法、装置、电子设备及存储介质 | |
CN110224991A (zh) | 视联网终端通讯方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20181218 |
|
RJ01 | Rejection of invention patent application after publication |