CN111339442A - 线上好友互动方法及装置 - Google Patents

线上好友互动方法及装置 Download PDF

Info

Publication number
CN111339442A
CN111339442A CN202010116160.8A CN202010116160A CN111339442A CN 111339442 A CN111339442 A CN 111339442A CN 202010116160 A CN202010116160 A CN 202010116160A CN 111339442 A CN111339442 A CN 111339442A
Authority
CN
China
Prior art keywords
voice data
target user
online
emotion
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010116160.8A
Other languages
English (en)
Inventor
邢维
李智勇
常乐乐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing SoundAI Technology Co Ltd
Original Assignee
Beijing SoundAI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing SoundAI Technology Co Ltd filed Critical Beijing SoundAI Technology Co Ltd
Priority to CN202010116160.8A priority Critical patent/CN111339442A/zh
Publication of CN111339442A publication Critical patent/CN111339442A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9536Search customisation based on social or collaborative filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/635Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/65Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/686Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title or artist information, time, location or usage information, user ratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9537Spatial or temporal dependent retrieval, e.g. spatiotemporal queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Library & Information Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明提供了一种线上好友互动方法及装置,该方法包括:接收目标用户发送的好友匹配请求,为目标用户匹配线上好友;建立聊天通道,并向线上好友显示目标用户对应的人物模型;接收目标用户的语音数据,对语音数据进行预处理,获得第一语音数据和第二语音数据;将第一语音数据输入情绪检测模块,触发情绪检测模块输出情绪数据,将情绪数据应用至人物模型,以使人物模型在执行对应的情感动作时,向线上好友输出第二语音数据,实现目标用户对线上好友的互动。应用该方法,为目标用户匹配线上好友后,目标用户通过语音交流与线上好友进行互动,由人物模型表达目标用户的当前情绪,更加真实展示目标用户当前的情绪状态,加深线上好友对目标用户的了解。

Description

线上好友互动方法及装置
技术领域
本发明涉及信息处理技术领域,特别是涉及一种线上好友互动方法及装置。
背景技术
随着科学技术的快速发展,各种互联网应用充斥着人们的生活。各个互联网用户,可以通过应用互联网中的网络聊天工具,与他人进行交流,使人与人之间的交流方式变得简单。现如今的网络聊天工具并不仅仅是用于好友之间进行交流的平台,还可以根据用户的需求,匹配用户心仪的线上好友,为用户扩展自己的朋友圈子。
在现有的线上进行交友过程中,用户应用网络聊天工具通过条件筛选或者随机筛选等方式进行匹配好友,在两者进行匹配的过程中,通常以对方所发布的文字、图片或视频等方式进行初步了解,在通过初步了解后再决定是否添加好友。应用现有的线上交友方式,图片、文字和视频所携带的信息量有限,只能根据有限的信息对对方进行片面的理解,不能真实反映交友双方的情况,且不利于展现自我。
发明内容
本发明所要解决的技术问题是提供一种线上好友互动方法,为目标用户匹配线上好友后,目标用户通过语音交流的方式与线上好友进行互动,通过人物模型表达目标用户的当前情绪,更加真实展示目标用户当前的情绪状态,加深线上好友对目标用户的了解。
本发明还提供了一种线上好友互动装置,用以保证上述方法在实际中的实现及应用。
一种线上好友互动方法,包括:
当接收到目标用户发送的好友匹配请求时,依据所述好友匹配请求为所述目标用户匹配线上好友;
建立聊天通道,并向所述线上好友显示预先建立的所述目标用户对应的人物模型,所述聊天通道用于连接所述目标用户及所述线上好友;
接收所述目标用户向所述聊天通道输入的语音数据,并对所述语音数据进行预处理,获得所述语音数据对应的第一语音数据和第二语音数据;
将所述第一语音数据输入预先训练完成的情绪检测模块,触发所述情绪检测模块输出所述第一语音数据对应的情绪数据,将所述情绪数据应用至所述人物模型,以使所述人物模型在依据所述情绪数据执行对应的情感动作时,向所述线上好友输出所述第二语音数据,实现所述目标用户对所述线上好友的互动。
上述的方法,可选的,所述依据所述好友匹配请求为所述目标用户匹配线上好友,包括:
获取所述好友匹配请求中包含的所述目标用户预先设定的各个用户标签,并对所述目标用户进行定位,获得所述目标用户的位置信息;
依据所述当前位置信息查找在预设查找范围内的各个在线用户,并获取各个所述在线用户预先设定的各个用户标签;
依据所述目标用户的各个用户标签,及每个所述在线用户的各个用户标签,确定每个所述在线用户与所述目标用户之间的匹配度;
将最高匹配度对应的在线用户确定为所述目标用户的线上好友。
上述的方法,可选的,所述对所述语音数据进行预处理,获得所述语音数据对应的第一语音数据和第二语音数据,包括:
对所述语音数据进行降噪处理,并已降噪的语音数据确定为第一语音数据;
检测所述第一语音数据是否包含所述目标用户预先设定的变声标识信息;
若所述第一语音数据包含所述目标用户预先设定的变声标识信息,则将所述第一语音数据进行备份,并将所述第一语音数据输入预先设置的变声系统,触发所述变声系统依据所述变声标识信息对所述第一语音数据进行变声处理,获得第二语音数据。
上述的方法,可选的,建立所述人物模型的过程,还包括:
获取所述目标用户预先设置的各个模型参数;
调用预先设置的3D建模平台,构建初始人物模型,并应用各个所述模型参数调整所述初始人物模型,获得所述目标用户对应的人物模型。
上述的方法,可选的,训练所述情绪检测模块的过程,还包括:
获取预先设置的训练数据集,所述训练数据包含多个训练数据及每个所述训练数据对应的情绪标签;
将各个所述训练数据及各个所述情绪标签输入预先设置的机器学习模型中,触发所述机器学习模型依据各个所述训练数据及各个所述情绪标签进行模型训练;
当所述机器学习模型满足预先设定的训练条件时,将所述机器学习模型确定为情绪检测模块。
一种线上好友互动装置,包括:
匹配单元,用于当接收到目标用户发送的好友匹配请求时,依据所述好友匹配请求为所述目标用户匹配线上好友;
显示单元,用于建立聊天通道,并向所述线上好友显示预先建立的所述目标用户对应的人物模型,所述聊天通道用于连接所述目标用户及所述线上好友;
处理单元,用于接收所述目标用户向所述聊天通道输入的语音数据,并对所述语音数据进行预处理,获得所述语音数据对应的第一语音数据和第二语音数据;
互动单元,用于将所述第一语音数据输入预先训练完成的情绪检测模块,触发所述情绪检测模块输出所述第一语音数据对应的情绪数据,将所述情绪数据应用至所述人物模型,以使所述人物模型在依据所述情绪数据执行对应的情感动作时,向所述线上好友输出所述第二语音数据,实现所述目标用户对所述线上好友的互动。
上述的装置,可选的,所述匹配单元,包括:
获取子单元,用于获取所述好友匹配请求中包含的所述目标用户预先设定的各个用户标签,并对所述目标用户进行定位,获得所述目标用户的位置信息;
查找子单元,用于依据所述当前位置信息查找在预设查找范围内的各个在线用户,并获取各个所述在线用户预先设定的各个用户标签;
第一确定子单元,用于依据所述目标用户的各个用户标签,及每个所述在线用户的各个用户标签,确定每个所述在线用户与所述目标用户之间的匹配度;
第二确定子单元,用于将最高匹配度对应的在线用户为所述目标用户的线上好友。
上述的装置,可选的,所述处理单元,包括:
第一处理子单元,用于对所述语音数据进行降噪处理,并已降噪的语音数据确定为第一语音数据;
检测子单元,用于检测所述第一语音数据是否包含所述目标用户预先设定的变声标识信息;
第二处理子单元,用于若所述第一语音数据包含所述目标用户预先设定的变声标识信息,则将所述第一语音数据进行备份,并将所述第一语音数据输入预先设置的变声系统,触发所述变声系统依据所述变声标识信息对所述第一语音数据进行变声处理,获得第二语音数据。
上述的装置,可选的,还包括:
构建单元,用于获取所述目标用户预先设置的各个模型参数;调用预先设置的3D建模平台,构建初始人物模型,并应用各个所述模型参数调整所述初始人物模型,获得所述目标用户对应的人物模型。
上述的装置,可选的,还包括:
训练单元,用于获取预先设置的训练数据集,所述训练数据包含多个训练数据,及每个所述训练数据对应的情绪标签,所述训练数据为语音数据;将各个所述训练数据及各个所述情绪标签输入预先设置的机器学习模型中,触发所述机器学习模型依据各个所述训练数据及各个所述情绪标签进行模型训练;当所述机器学习模型满足预先设定的训练条件时,将所述机器学习模型确定为情绪检测模块。
一种存储介质,所述存储介质包括存储的指令,其中,在所述指令运行时控制所述存储介质所在的设备执行上述的线上好友互动方法。
一种电子设备,包括存储器,以及一个或者一个以上的指令,其中一个或者一个以上指令存储于存储器中,且经配置以由一个或者一个以上处理器执行上述的线上好友互动方法。
与现有技术相比,本发明包括以下优点:
本发明提供了一种线上好友互动方法,包括:当接收到目标用户发送的好友匹配请求时,依据所述好友匹配请求为所述目标用户匹配线上好友;建立聊天通道,并向所述线上好友显示预先建立的所述目标用户对应的人物模型,所述聊天通道用于连接所述目标用户及所述线上好友;接收所述目标用户向所述聊天通道输入的语音数据,并对所述语音数据进行预处理,获得所述语音数据对应的第一语音数据和第二语音数据;将所述第一语音数据输入预先训练完成的情绪检测模块,触发所述情绪检测模块输出所述第一语音数据对应的情绪数据,将所述情绪数据应用至所述人物模型,以使所述人物模型在依据所述情绪数据执行对应的情感动作时,向所述线上好友输出所述第二语音数据,实现所述目标用户对所述线上好友的互动。应用本发明提供的方法,为目标用户匹配线上好友后,目标用户通过语音交流的方式与线上好友进行互动,通过人物模型表达目标用户的当前情绪,更加真实展示目标用户当前的情绪状态,加深线上好友对目标用户的了解。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明实施例提供的一种线上好友互动方法的方法流程图;
图2为本发明实施例提供的一种线上好友互动方法的又一方法流程图;
图3为本发明实施例提供的一种线上好友互动方法的又一方法流程图;
图4为本发明实施例提供的一种线上好友互动装置的装置结构图;
图5为本发明实施例提供的一种电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本申请中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本发明可用于众多通用或专用的计算装置环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器装置、包括以上任何装置或设备的分布式计算环境等等。
本发明实施例提供了一种线上好友互动方法,该方法可以应用在多种系统平台,其执行主体可以为计算机终端或各种移动设备的处理器,所述方法的方法流程图如图1所示,具体包括:
S101:当接收到目标用户发送的好友匹配请求时,依据所述好友匹配请求为所述目标用户匹配线上好友;
在本发明实施例中,当目标用户需要在线交友时,可通过聊天工具向处理器发送好友匹配请求。处理器可根据目标用户的好友匹配请求,为目标用户匹配线上好友。
S102:建立聊天通道,并向所述线上好友显示预先建立的所述目标用户对应的人物模型,所述聊天通道用于连接所述目标用户及所述线上好友;
在本发明实施例中,在匹配线上好友后,为保证目标用户可以与线上好友进行互动,建立连接目标用户和线上好友的聊天通道。通过该聊天通道,向线上好友显示目标用户对应的人物模型。
需要说明的是,人物模型为3D立体人物模型,该人物模型可以根据目标用户的自身形象进行建立,也可以根据目标用户提供的参数进行建立。该人物模型可以是以3D人脸的形式向线上好友进行显示,也可以是以虚拟的3D全身人体模型的形式向线上好友进行显示。
还需要说明的是,在匹配线上好友时,可以同时匹配多个线上好友,也可以只匹配一个好友。当匹配多个线上好友时,分别建立与每个线上好友之间的聊天通道。其中,该聊天通道可以是为目标用户和线上好友建立的聊天室,也可以是连接目标用户和线上好友之间的聊天窗口。
可选的,在建立聊天通道后,向线上好友显示目标用户对应的人物模型的同时,也可以通过聊天通道向目标用户展示线上好友对应的人物模型。此时,目标用户和线上好友可以通过VOIP语音通话进行交流。
S103:接收所述目标用户向所述聊天通道输入的语音数据,并对所述语音数据进行预处理,获得所述语音数据对应的第一语音数据和第二语音数据;
在本发明实施例中,目标用户通过聊天通道向线上好友发送语音消息,在向线上好友发送语音消息的过程中,以语音数据的形式发送至聊天通道。处理器在接收到目标用户向聊天通道发送的语音数据时,将语音数据进行预处理后获得两个语音数据分别为第一语音数据和第二语音数据。
S104:将所述第一语音数据输入预先训练完成的情绪检测模块,触发所述情绪检测模块输出所述第一语音数据对应的情绪数据,将所述情绪数据应用至所述人物模型,以使所述人物模型在依据所述情绪数据执行对应的情感动作时,向所述线上好友输出所述第二语音数据,实现所述目标用户对所述线上好友的互动。
在本发明实施例中,将第一语音数据输入至情绪检测模块中,以通过该情绪检测模块检测出目标用户在发送该语音数据时的当前用户情绪。当情绪检测模块输出情绪数据时,将该情绪数据应用到该人物模型中。人物模型在获得该情绪数据后,可以根据该情绪数据执行对应的情感动作,并在人物模型执行与该情绪数据对应的情感动作时,向线上好友输出第二语音数据,以使语音数据的输出与人物模型所执行的情感动作保持一致。
可以理解的是,该情绪数据是表达人物情绪的特征信息,当情绪检测模块在输出对应的情绪数据时,可以确定目标用户当前在发送该语音数据时的用户情绪,通过人体模型执行对应的情感动作来表达目标用户当前的用户情绪。其中,用户情绪包括开心、生气、悲伤、惊讶和害怕等。
本发明实施例提供的线上好友互动方法中,在接收到好友匹配请求后为目标用户匹配线上好友,并建立目标用户与线上好友之间的聊天通道,同时将目标用户对应的人物模型向线上好友进行显示。当用户通过聊天通道向线上好友发送语音数据时,对该语音数据进行处理后获得第一语音数据和第二语音数据,并应用情绪检测模块根据第一语音数据获得表征目标用户当前用户情绪的情绪数据。通过人物模型执行情绪数据对应的情感动作,同时发送第二语音数据给线上好友。实现目标用户对线上好友的交互过程。
基于上述实施例提供的方法,该方法可以应用于多种场景,根据上述方法提供实施场景:
目标用户应用聊天工具发送好友匹配请求。当处理器在接收到好友匹配请求后,为目标用户匹配目标用户的线上好友,并建立目标用户与线上好友的聊天通道。在建立聊天通道后,目标用户和线上好友都能显示对方的人物模型。当目标用户通过聊天通道向线上好友发送语音数据时,处理器将语音数据进行预处理,获得两个语音数据分别为第一语音数据和第二语音数据。先将第一语音数据输入到情绪检测模块中,以通过情绪检测模块对第一语音情绪进行检测,确定目标用户当前的用户情绪。当情绪检测模块输出表征目标用户的用户情绪为开心的情绪数据时,将该情绪数据应用到目标用户对应的人物模型中,触发该人物模型执行关于开心的情感动作,同时,人物模型在执行情感动作时,向线上好友输出第二语音数据。其中,人物模型的情感动作与第二语音数据的输出同时发生,实现目标用户与线上好友的交互。
应用本发明方法,为目标用户匹配线上好友后,目标用户通过语音交流的方式与线上好友进行互动,由人物模型表达目标用户的当前情绪,更加真实展示目标用户当前的情绪状态,加深线上好友对目标用户的了解。
可选的,本发明实施例提供的方法中,目标用户与线上好友进行交互的过程中,目标用户与线上好友可以选择不公开个人信息,在进一步了解之后,可以选择向对方公开个人信息,以保证个人信息的安全性。
本发明实施例提供的方法中,基于上述步骤S101中的内容,目标用户需要匹配好友时,为该目标用户匹配线上好友的过程具体如图2所示,具体可以包括:
S201:获取所述好友匹配请求中包含的所述目标用户预先设定的各个用户标签,并对所述目标用户进行定位,获得所述目标用户的位置信息;
在本发明实施例中,用户标签可以是目标用户在发送好友匹配请求前,根据自身特征设置的标签,也可以是目标用户根据交友需求对需要进行交友的好友设定的用户标签。在匹配好友前,可以通过定位设备对目标用户当前的位置进行定位,以确定用户当前所在位置的位置信息。
S202:依据所述当前位置信息查找在预设查找范围内的各个在线用户,并获取各个所述在线用户预先设定的各个用户标签;
在本发明实施例中,在根据查找范围查找各个在现用户的过程中,可以依据目标用户的位置信息,将目标用户当前所在位置为中心点,查找预设范围内的在线用户;也可以依据目标用户的位置信息,确定目标用户当前所在地区,并将目标用户当前所在地区作为查找范围。在查找到各个在线用户后获取每个在线用户预设的各个用户标签。
S203:依据所述目标用户的各个用户标签,及每个所述在线用户的各个用户标签,确定每个所述在线用户与所述目标用户之间的匹配度;
在本发明实施例中,根据目标用户及各个在线用户设置的各个用户标签,确定目标用户与每个在线用户之间的匹配度。即,确定目标用户与各个在线用户之间是否满足对方的交友需求或者自身特征是否与对方相符。结合个人爱好、星座、血型、座右铭等各种标签,确定目标用户与各个在线用户的匹配度。
S204:将最高匹配度对应的在线用户确定为所述目标用户的线上好友。
在本发明实施例中,与目标用户匹配度越高的在线用户,可以确定该在线用户基本满足目标用户的交友标准,并将该匹配度最高的在线用户确定为目标用户的线上好友。
在本发明实施例中,目标用户在进行好友匹配前,可以根据自身条件设置用户标签,也可以根据自身的交友需求为好友设置用户标签。处理器结合目标用户的位置信息和各个用户标签为目标用户匹配线上好友。应用本发明实施例的方法,可以为目标用户匹配心仪的线上好友,提高用户的交友体验。
本发明实施例提供的方法中,基于上述步骤S103中的内容,在建立目标用户与线上好友的聊天通道后,目标用户可以向聊天通道发送语音数据,处理器则对该语音数据进行预处理后获得第一语音数据及第二语音数据,对语音数据进行预处理的过程如图3所示,具体可以包括:
S301:对所述语音数据进行降噪处理,并已降噪的语音数据确定为第一语音数据;
在本发明实施例中,目标用户在向聊天通道输入语音数据时,由于环境或网络等因素,语音数据中可能会存在噪音。在接收到输入聊天通道的语音数据后,需对其进行降噪处理,获得已降噪的语音数据。其中,将该已降噪的语音数据确定为第一语音数据。该第一语音数据可以输入至情绪检测模块中,实现检测目标用户当前的用户情绪的过程。
S302:检测所述第一语音数据是否包含所述目标用户预先设定的变声标识信息;
在本发明实施例中,为增加目标用户与线上好友在互动过程的趣味性,目标用户在向聊天通道输入语音数据前,可以选择对其所输入的语音数据进行变声。因此,在接收到语音数据并在进行降噪处理后,可以检测该第一语音数据中是否含有变声标识信息。
需要说明的是,该变声标识信息表征用户在输入语音数据时,选择将该语音数据进行变声处理的标识信息。
S303:若所述第一语音数据包含所述目标用户预先设定的变声标识信息,则将所述第一语音数据进行备份,并将所述第一语音数据输入预先设置的变声系统,触发所述变声系统依据所述变声标识信息对所述第一语音数据进行变声处理,获得第二语音数据。
在本发明实施例中,若第一语音数据中包含变声标识信息,则表征目标用户选择对该语音数据进行变声处理。在将第一语音数据进行备份后,获得两个相同的第一语音数据。可以选取其中任意一个第一语音数据输入变声系统,由变声系统根据该变声标识信息,确定该目标用户设定的变声频率、变声参数等,并根据变声频率和变声参数将第一语音数据进行变声处理。其中,变声参数包含混响参数、回声参数和锯齿参数等变声的参数。变声系统对第一语音数据进行变声处理后获得的已变声的语音数据则为第二语音数据。
需要说明的是,第二语音数据是直接向线上好友输出的语音数据。例如,用户利用原声输入原声的语音数据,该原声的语音数据在经过降噪和变声处理后,获得变声的语音数据向线上好友进行输出。
本发明实施例提供的线上好友互动方法中,用户在向聊天通道输入语音数据后,先对该语音数据进行降噪处理,剔除语音数据中所携带的噪音。将已降噪的语音数据作为第一语音数据。检测该第一语音数据中是否包含变声标识信息,即判断是否需要对第一语音数据进行变声处理。若该第一语音数据中包含变声标识信息,则证明需要对其进行变声处理。在将第一语音数据进行备份后,通过变声系统对任意一个第一语音数据进行变声处理,获得已变声的语音数据则为第二语音数据。
可选的,若第一语音数据中未包含变声标识信息,则可以表征目标用户未选择对其发送的语音数据进行变声处理。即使第一语音数据中未包含变声标识信息,也将第一语音数据进行备份,获得两个相同的第一语音数据,将任意一个第一语音数据确定为第二语音数据向线上好友输出。
应用本发明实施例提供的方,根据目标用户设定的变声标识信息对语音数据进行变声处理,增加目标用户与线上好友进行互动的趣味性。
本发明实施例提供的方法中,目标用户与线上好友在进行互动的过程中,通过人物模型执行当前情绪对应的情感动作,其中,建立人物模型的过程,具体可以包括:
获取所述目标用户预先设置的各个模型参数;
调用预先设置的3D建模平台,构建初始人物模型,并应用各个所述模型参数调整所述初始人物模型,获得所述目标用户对应的人物模型。
本发明实施例提供线上好友互动方法中,用户可以预先提供建立人物模型的各个模型参数。其中各个模型参数包含人物模型的骨骼参数、缩放参数、皮肤颜色等相关参数。通过调用3D建模平台,预先构建一个虚拟的初始人物模型,再将各个模型参数应用到初始人物模型当中。其中,该3D建模平台可以是Unity3D引擎,可以根据各个模型参数,对该初始人物模型执行对应的捏脸操作,并应用骨骼法,在建立的骨骼上进行蒙皮,根据缩放参数改变初始人物模型的外形,最终获得目标用户需要的人物模型。
需要说明的是,线上好友也可以根据自己设定的模型参数定制化建立属于自己的人物模型,线上好友建立人物模型的过程与上述实施例建立人物模型的过程一致,此处将不复赘述。
应用本发明实施例的方法,将人物模型应用到与线上好友的互动中,增加互动的趣味性,还能使人物模型根据情绪数据执行对应的情感动作使目标用户与线上好友的互动更加真实。
本发明实施例提供的方法中,在获得第一语音数据后,需要将第一语音数据输入至预先训练完成的情绪检测模块当中,以获得第一语音数据对应的情绪数据。其中,对情绪检测模块进行训练的过程,具体可以包括:
获取预先设置的训练数据集,所述训练数据包含多个训练数据及每个所述训练数据对应的情绪标签;
将各个所述训练数据及各个所述情绪标签输入预先设置的机器学习模型中,触发所述机器学习模型依据各个所述训练数据及各个所述情绪标签进行模型训练;
当所述机器学习模型满足预先设定的训练条件时,将所述机器学习模型确定为情绪检测模块。
本发明实施例提供的线上好友交互过程中,该情绪检测模型由机器学习模型进行训练获得。具体的,预先获取预先设的训练数据集,该训练数据集预先存储在云端中,训练数据集中的各个训练数据为云端中存储的语音数据。其中,该训练数据集中除了包含多个训练数据之外,还包括每个训练数据对应的情绪标签。将各个训练数据及其对应情绪标签输入至机器学习模型中后,由机器学习模型根据各个训练数据及情绪标签,调整其内部的机器模型参数。当该机器学习模型满足预先设定的训练条件时,结束训练,并将训练完成的机器学习模型确定为情绪检测模块。
需要说明的是,在训练机器学习模型的过程中,可以从云端中选取预先存储的多个语音数据作为测试数据输入机器学习模型,以使机器学习模型输出对应的测试结果,将各个测试结果分别与其对应的测试数据对应的情绪标签进行校验,获得误差值,当误差值小于预设的误差阈值时,确定该机器学习模型满足预设的训练条件。当误差值不小于预设的误差阈值,则继续对机器学习模型进行训练。
还需要说明的是,训练数据和测试数据为云端实时更新的内部存储的语音数据。在训练机器学习模型时,应用云端中当前所存储的各个语音数据生成训练数据集。
应用本发明实施例提供的方法,通过训练机器学习模型获得情绪检测模块,以通过情绪检测模块实现对语音数据进行检测,获得目标用户对应的情绪数据,真实的反映目标用户的真实情绪。
上述各个实施例的具体实施过程及其衍生方式,均在本发明的保护范围之内。
与图1所述的方法相对应,本发明实施例还提供了一种线上好友互动装置,用于对图1中方法的具体实现,本发明实施例提供的线上好友互动装置可以应用计算机终端或各种移动设备中,其结构示意图如图4所示,具体包括:
匹配单元401,用于当接收到目标用户发送的好友匹配请求时,依据所述好友匹配请求为所述目标用户匹配线上好友;
显示单元402,用于建立聊天通道,并向所述线上好友显示预先建立的所述目标用户对应的人物模型,所述聊天通道用于连接所述目标用户及所述线上好友;
处理单元403,用于接收所述目标用户向所述聊天通道输入的语音数据,并对所述语音数据进行预处理,获得所述语音数据对应的第一语音数据和第二语音数据;
互动单元404,用于将所述第一语音数据输入预先训练完成的情绪检测模块,触发所述情绪检测模块输出所述第一语音数据对应的情绪数据,将所述情绪数据应用至所述人物模型,以使所述人物模型在依据所述情绪数据执行对应的情感动作时,向所述线上好友输出所述第二语音数据,实现所述目标用户对所述线上好友的互动。
本发明实施例提供的装置中,在接收到好友匹配请求后,应用匹配单元为目标用匹配线上好友;在建立双方之间的聊天通道后,通过显示单元为线上好友显示目标用户对应的人物模型。目标用户可以通过聊天通道发送语音数据。当接收到目标用户发送的语音数据后,由处理单元对该语音数据进行预处理,获得第一语音数据和第二语音数据。通过互动单元将第一语音数据输入情绪检测模块,由情绪检测模块对第一语音数据进行处理后得到情绪数据,最终通过人物模型执行情绪数据对应的情感动作以及第二语音数据,实现对线上好友的互动。
应用本发明实施例提供的装置,为目标用户匹配线上好友后,目标用户通过语音交流的方式与线上好友进行互动,通过人物模型表达目标用户的当前情绪,更加真实展示目标用户当前的情绪状态,加深线上好友对目标用户的了解。
本发明实施例提供的装置中,所述匹配单元401,包括:
获取子单元,用于获取所述好友匹配请求中包含的所述目标用户预先设定的各个用户标签,并对所述目标用户进行定位,获得所述目标用户的位置信息;
查找子单元,用于依据所述当前位置信息查找在预设查找范围内的各个在线用户,并获取各个所述在线用户预先设定的各个用户标签;
第一确定子单元,用于依据所述目标用户的各个用户标签,及每个所述在线用户的各个用户标签,确定每个所述在线用户与所述目标用户之间的匹配度;
第二确定子单元,用于将最高匹配度对应的在线用户为所述目标用户的线上好友。
本发明实施例提供的装置中,所述处理单元403,包括:
第一处理子单元,用于对所述语音数据进行降噪处理,并已降噪的语音数据确定为第一语音数据;
检测子单元,用于检测所述第一语音数据是否包含所述目标用户预先设定的变声标识信息;
第二处理子单元,用于若所述第一语音数据包含所述目标用户预先设定的变声标识信息,则将所述第一语音数据进行备份,并将所述第一语音数据输入预先设置的变声系统,触发所述变声系统依据所述变声标识信息对所述第一语音数据进行变声处理,获得第二语音数据。
本发明实施例提供的装置中,还包括:
构建单元,用于获取所述目标用户预先设置的各个模型参数;调用预先设置的3D建模平台,构建初始人物模型,并应用各个所述模型参数调整所述初始人物模型,获得所述目标用户对应的人物模型。
本发明实施例提供的装置中,还包括:
训练单元,用于获取预先设置的训练数据集,所述训练数据包含多个训练数据,及每个所述训练数据对应的情绪标签,所述训练数据为语音数据;将各个所述训练数据及各个所述情绪标签输入预先设置的机器学习模型中,触发所述机器学习模型依据各个所述训练数据及各个所述情绪标签进行模型训练;当所述机器学习模型满足预先设定的训练条件时,将所述机器学习模型确定为情绪检测模块。
以上本发明实施例公开的线上好友互动装置中各个单元及子单元的具体工作过程,可参见本发明上述实施例公开的线上好友互动方法中的对应内容,这里不再进行赘述。
本发明实施例还提供了一种存储介质,所述存储介质包括存储的指令,其中,在所述指令运行时控制所述存储介质所在的设备执行上述线上好友互动方法。
本发明实施例还提供了一种电子设备,其结构示意图如图5所示,具体包括存储器501,以及一个或者一个以上的指令502,其中一个或者一个以上指令502存储于存储器501中,且经配置以由一个或者一个以上处理器503执行所述一个或者一个以上指令502进行以下操作:
当接收到目标用户发送的好友匹配请求时,依据所述好友匹配请求为所述目标用户匹配线上好友;
建立聊天通道,并向所述线上好友显示预先建立的所述目标用户对应的人物模型,所述聊天通道用于连接所述目标用户及所述线上好友;
接收所述目标用户向所述聊天通道输入的语音数据,并对所述语音数据进行预处理,获得所述语音数据对应的第一语音数据和第二语音数据;
将所述第一语音数据输入预先训练完成的情绪检测模块,触发所述情绪检测模块输出所述第一语音数据对应的情绪数据,将所述情绪数据应用至所述人物模型,以使所述人物模型在依据所述情绪数据执行对应的情感动作时,向所述线上好友输出所述第二语音数据,实现所述目标用户对所述线上好友的互动。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统或系统实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的系统及系统实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现。为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (10)

1.一种线上好友互动方法,其特征在于,包括:
当接收到目标用户发送的好友匹配请求时,依据所述好友匹配请求为所述目标用户匹配线上好友;
建立聊天通道,并向所述线上好友显示预先建立的所述目标用户对应的人物模型,所述聊天通道用于连接所述目标用户及所述线上好友;
接收所述目标用户向所述聊天通道输入的语音数据,并对所述语音数据进行预处理,获得所述语音数据对应的第一语音数据和第二语音数据;
将所述第一语音数据输入预先训练完成的情绪检测模块,触发所述情绪检测模块输出所述第一语音数据对应的情绪数据,将所述情绪数据应用至所述人物模型,以使所述人物模型在依据所述情绪数据执行对应的情感动作时,向所述线上好友输出所述第二语音数据,实现所述目标用户对所述线上好友的互动。
2.根据权利要求1所述的方法,其特征在于,所述依据所述好友匹配请求为所述目标用户匹配线上好友,包括:
获取所述好友匹配请求中包含的所述目标用户预先设定的各个用户标签,并对所述目标用户进行定位,获得所述目标用户的位置信息;
依据所述当前位置信息查找在预设查找范围内的各个在线用户,并获取各个所述在线用户预先设定的各个用户标签;
依据所述目标用户的各个用户标签,及每个所述在线用户的各个用户标签,确定每个所述在线用户与所述目标用户之间的匹配度;
将最高匹配度对应的在线用户确定为所述目标用户的线上好友。
3.根据权利要求1所述的方法,其特征在于,所述对所述语音数据进行预处理,获得所述语音数据对应的第一语音数据和第二语音数据,包括:
对所述语音数据进行降噪处理,并已降噪的语音数据确定为第一语音数据;
检测所述第一语音数据是否包含所述目标用户预先设定的变声标识信息;
若所述第一语音数据包含所述目标用户预先设定的变声标识信息,则将所述第一语音数据进行备份,并将所述第一语音数据输入预先设置的变声系统,触发所述变声系统依据所述变声标识信息对所述第一语音数据进行变声处理,获得第二语音数据。
4.根据权利要求1所述的方法,其特征在于,建立所述人物模型的过程,还包括:
获取所述目标用户预先设置的各个模型参数;
调用预先设置的3D建模平台,构建初始人物模型,并应用各个所述模型参数调整所述初始人物模型,获得所述目标用户对应的人物模型。
5.根据权利要求1所述的方法,其特征在于,训练所述情绪检测模块的过程,还包括:
获取预先设置的训练数据集,所述训练数据包含多个训练数据及每个所述训练数据对应的情绪标签;
将各个所述训练数据及各个所述情绪标签输入预先设置的机器学习模型中,触发所述机器学习模型依据各个所述训练数据及各个所述情绪标签进行模型训练;
当所述机器学习模型满足预先设定的训练条件时,将所述机器学习模型确定为情绪检测模块。
6.一种线上好友互动装置,其特征在于,包括:
匹配单元,用于当接收到目标用户发送的好友匹配请求时,依据所述好友匹配请求为所述目标用户匹配线上好友;
显示单元,用于建立聊天通道,并向所述线上好友显示预先建立的所述目标用户对应的人物模型,所述聊天通道用于连接所述目标用户及所述线上好友;
处理单元,用于接收所述目标用户向所述聊天通道输入的语音数据,并对所述语音数据进行预处理,获得所述语音数据对应的第一语音数据和第二语音数据;
互动单元,用于将所述第一语音数据输入预先训练完成的情绪检测模块,触发所述情绪检测模块输出所述第一语音数据对应的情绪数据,将所述情绪数据应用至所述人物模型,以使所述人物模型在依据所述情绪数据执行对应的情感动作时,向所述线上好友输出所述第二语音数据,实现所述目标用户对所述线上好友的互动。
7.根据权利要求6所述的装置,其特征在于,所述匹配单元,包括:
获取子单元,用于获取所述好友匹配请求中包含的所述目标用户预先设定的各个用户标签,并对所述目标用户进行定位,获得所述目标用户的位置信息;
查找子单元,用于依据所述当前位置信息查找在预设查找范围内的各个在线用户,并获取各个所述在线用户预先设定的各个用户标签;
第一确定子单元,用于依据所述目标用户的各个用户标签,及每个所述在线用户的各个用户标签,确定每个所述在线用户与所述目标用户之间的匹配度;
第二确定子单元,用于将最高匹配度对应的在线用户为所述目标用户的线上好友。
8.根据权利要求6所述的装置,其特征在于,所述处理单元,包括:
第一处理子单元,用于对所述语音数据进行降噪处理,并已降噪的语音数据确定为第一语音数据;
检测子单元,用于检测所述第一语音数据是否包含所述目标用户预先设定的变声标识信息;
第二处理子单元,用于若所述第一语音数据包含所述目标用户预先设定的变声标识信息,则将所述第一语音数据进行备份,并将所述第一语音数据输入预先设置的变声系统,触发所述变声系统依据所述变声标识信息对所述第一语音数据进行变声处理,获得第二语音数据。
9.根据权利要求6所述的装置,其特征在于,还包括:
构建单元,用于获取所述目标用户预先设置的各个模型参数;调用预先设置的3D建模平台,构建初始人物模型,并应用各个所述模型参数调整所述初始人物模型,获得所述目标用户对应的人物模型。
10.根据权利要求6所述的装置,其特征在于,还包括:
训练单元,用于获取预先设置的训练数据集,所述训练数据包含多个训练数据,及每个所述训练数据对应的情绪标签,所述训练数据为语音数据;将各个所述训练数据及各个所述情绪标签输入预先设置的机器学习模型中,触发所述机器学习模型依据各个所述训练数据及各个所述情绪标签进行模型训练;当所述机器学习模型满足预先设定的训练条件时,将所述机器学习模型确定为情绪检测模块。
CN202010116160.8A 2020-02-25 2020-02-25 线上好友互动方法及装置 Pending CN111339442A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010116160.8A CN111339442A (zh) 2020-02-25 2020-02-25 线上好友互动方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010116160.8A CN111339442A (zh) 2020-02-25 2020-02-25 线上好友互动方法及装置

Publications (1)

Publication Number Publication Date
CN111339442A true CN111339442A (zh) 2020-06-26

Family

ID=71181817

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010116160.8A Pending CN111339442A (zh) 2020-02-25 2020-02-25 线上好友互动方法及装置

Country Status (1)

Country Link
CN (1) CN111339442A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022183424A1 (zh) * 2021-03-04 2022-09-09 深圳技术大学 基于情绪识别的在线社交方法、装置及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101304391A (zh) * 2008-06-30 2008-11-12 腾讯科技(深圳)有限公司 一种基于即时通讯系统的语音通话方法及系统
CN104881459A (zh) * 2015-05-22 2015-09-02 电子科技大学 一种移动社会网络的好友推荐方法
CN105345818A (zh) * 2015-11-04 2016-02-24 深圳好未来智能科技有限公司 带有情绪及表情模块的3d视频互动机器人
CN106161184A (zh) * 2015-03-30 2016-11-23 重庆邮电大学 消息交互方法和即时通讯服务器及通信系统
CN106710590A (zh) * 2017-02-24 2017-05-24 广州幻境科技有限公司 基于虚拟现实环境的具有情感功能的语音交互系统及方法
CN108228847A (zh) * 2018-01-10 2018-06-29 北京奇艺世纪科技有限公司 用户匹配方法、装置及电子设备
CN110446000A (zh) * 2019-08-07 2019-11-12 三星电子(中国)研发中心 一种生成对话人物形象的方法和装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101304391A (zh) * 2008-06-30 2008-11-12 腾讯科技(深圳)有限公司 一种基于即时通讯系统的语音通话方法及系统
CN106161184A (zh) * 2015-03-30 2016-11-23 重庆邮电大学 消息交互方法和即时通讯服务器及通信系统
CN104881459A (zh) * 2015-05-22 2015-09-02 电子科技大学 一种移动社会网络的好友推荐方法
CN105345818A (zh) * 2015-11-04 2016-02-24 深圳好未来智能科技有限公司 带有情绪及表情模块的3d视频互动机器人
CN106710590A (zh) * 2017-02-24 2017-05-24 广州幻境科技有限公司 基于虚拟现实环境的具有情感功能的语音交互系统及方法
CN108228847A (zh) * 2018-01-10 2018-06-29 北京奇艺世纪科技有限公司 用户匹配方法、装置及电子设备
CN110446000A (zh) * 2019-08-07 2019-11-12 三星电子(中国)研发中心 一种生成对话人物形象的方法和装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022183424A1 (zh) * 2021-03-04 2022-09-09 深圳技术大学 基于情绪识别的在线社交方法、装置及存储介质

Similar Documents

Publication Publication Date Title
US10404629B2 (en) Automatic reply method, device, apparatus, and storage medium
CN107632706B (zh) 多模态虚拟人的应用数据处理方法和系统
CN107704169B (zh) 虚拟人的状态管理方法和系统
WO2019177816A1 (en) Sequence to sequence conversational query understanding
CN110826441B (zh) 交互方法、装置、终端设备及存储介质
US11232789B2 (en) Dialogue establishing utterances without content words
WO2017157174A1 (zh) 一种信息处理方法、设备和终端设备
CN107832720B (zh) 基于人工智能的信息处理方法和装置
JP2005235142A (ja) ユーザ間親密度測定システム及びユーザ間親密度測定プログラム
CN114187394B (zh) 虚拟形象生成方法、装置、电子设备以及存储介质
CN111291151A (zh) 交互方法、装置及计算机设备
CN110808038A (zh) 普通话评测方法、装置、设备及存储介质
CN113703585A (zh) 交互方法、装置、电子设备及存储介质
CN111383138A (zh) 餐饮数据处理方法、装置、计算机设备和存储介质
JP2023120130A (ja) 抽出質問応答を利用する会話型aiプラットフォーム
CN111611365A (zh) 一种对话系统的流程控制方法、装置、设备及存储介质
KR102387400B1 (ko) 통화 중 감정을 인식하여 인식된 감정을 활용하는 방법 및 시스템
CN111339442A (zh) 线上好友互动方法及装置
CN114064943A (zh) 会议管理方法、装置、存储介质及电子设备
KR102375736B1 (ko) 5g 통신 기반의 대화 패턴 분석을 통한 인공지능 아바타 매칭 방법 및 장치
CN112860995A (zh) 交互方法、装置、客户端、服务器以及存储介质
CN117421399A (zh) 对话方法、装置、设备以及存储介质
CN111144125A (zh) 文本信息处理方法、装置、终端设备及存储介质
US11356393B2 (en) Sharing personalized data in an electronic online group user session
CN111553171B (zh) 语料处理方法、装置及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20200626