CN110197659A - 基于用户画像的反馈方法、装置及系统 - Google Patents
基于用户画像的反馈方法、装置及系统 Download PDFInfo
- Publication number
- CN110197659A CN110197659A CN201910357006.7A CN201910357006A CN110197659A CN 110197659 A CN110197659 A CN 110197659A CN 201910357006 A CN201910357006 A CN 201910357006A CN 110197659 A CN110197659 A CN 110197659A
- Authority
- CN
- China
- Prior art keywords
- terminal equipment
- feedback
- user
- model
- portrait
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 68
- 230000008451 emotion Effects 0.000 claims abstract description 18
- 239000002245 particle Substances 0.000 claims abstract description 18
- 238000013507 mapping Methods 0.000 claims abstract description 9
- 238000012545 processing Methods 0.000 claims description 33
- 238000012549 training Methods 0.000 claims description 31
- 230000003542 behavioural effect Effects 0.000 claims description 16
- 238000003860 storage Methods 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 8
- 238000004422 calculation algorithm Methods 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims 1
- 238000004891 communication Methods 0.000 description 62
- 230000036651 mood Effects 0.000 description 27
- 230000006870 function Effects 0.000 description 21
- 238000013461 design Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 9
- 230000004044 response Effects 0.000 description 8
- 208000019901 Anxiety disease Diseases 0.000 description 5
- 230000036506 anxiety Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000003058 natural language processing Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000002996 emotional effect Effects 0.000 description 3
- 238000013480 data collection Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- ZPUCINDJVBIVPJ-LJISPDSOSA-N cocaine Chemical compound O([C@H]1C[C@@H]2CC[C@@H](N2C)[C@H]1C(=O)OC)C(=O)C1=CC=CC=C1 ZPUCINDJVBIVPJ-LJISPDSOSA-N 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 235000012736 patent blue V Nutrition 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000007711 solidification Methods 0.000 description 1
- 230000008023 solidification Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Child & Adolescent Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请实施例提供基于用户画像的反馈方法、装置及系统。可以增加终端设备反馈的丰富性和趣味性,提高用户的体验感受。该方法包括:第一终端设备获取目标用户的用户画像,该用户画像包括用户情绪。第一终端设备将该目标用户的用户画像输入第一模型,得到对应的第一系统反馈方式,该第一系统反馈方式包括以下一种或多种:语音反馈、提示音反馈、震动反馈、灯光反馈、语气词反馈、或屏幕反馈,其中,第一模型用于建立用户画像与系统反馈方式之间的映射关系。
Description
技术领域
本申请涉及通信领域,尤其涉及基于用户画像的反馈方法、装置及系统。
背景技术
目前,用户与终端设备之间的语音交互可以结合基于声音的情绪识别来更准确地还原用户的意图与情感,从而给予用户更自然更人性化的反馈。通常,终端设备可以通过语音识别 (automatic speech recognition,ASR)将用户的声音信息转化为文字,进而可以结合转化得到的文字,通过自然语言处理(natural language processing,NLR)理解用户的意图,以及通过情绪识别确定用户情绪。在获知用户的意图和情绪之后,终端设备可以基于用户的意图和情绪向用户更准确地推送服务。此外,在获知用户的意图和情绪之后,终端设备还可以基于用户的意图和情绪给出合理的自然语言形式的反馈,并通过语音合成(text to speech,TTS) 将自然语言形式的反馈转化为声音信息输出,给出用户基于语音的内容反馈。
然而,现有技术中,在终端设备向用户反馈的过程中,反馈形式固化且单一,不同的终端设备通常只是基于语音的反馈。
发明内容
本申请实施例提供一种基于用户画像的反馈的方法、装置、系统,可以增加终端设备反馈的丰富性和趣味性,提高用户的体验感受。
为达到上述目的,本申请的实施例采用如下技术方案:
第一方面,提供了一种基于用户画像的反馈方法及相应的通信装置,该方法包括:第一终端设备获取目标用户的用户画像,该用户画像包括用户情绪。第一终端设备将该目标用户的用户画像输入第一模型,得到对应的第一系统反馈方式,该第一系统反馈方式包括以下一种或多种:语音反馈、提示音反馈、震动反馈、灯光反馈、语气词反馈、或屏幕反馈,其中,该第一模型用于建立该用户画像与系统反馈方式之间的映射关系。基于该方案,由于第一模型可以根据用户画像确定出多种反馈方式,因此增加了反馈的丰富性和趣味性,提高了用户的体验感受。
在一种可能的设计中,在第一终端设备将目标用户的用户画像输入第一模型之前,本申请实施例提供的基于用户画像的反馈方法还包括:第一终端设备获取第二模型的相关信息,该第二模型的任务和输入分别与该第一模型的任务和输入具有相关性。第一终端设备获取第一数据集,该第一数据集包括不同用户的该用户画像和行为习惯。第一终端设备基于该第二模型的相关信息,对该第一数据集进行模型训练,得到该第一模型。基于该方案,一方面,由于第一终端设备基于第二模型的相关信息训练第一模型,因此可以提高第一模型的训练效率。另一方面,第一终端设备将不同用户的用户画像和行为习惯作为训练数据,可以提高训练得到的第一模型的准确性。
在一种可能的设计中,第一终端设备基于第二模型的相关信息,对第一数据集进行模型训练,得到第一模型,包括:第一终端设备对该第一数据集中的数据进行预处理,得到第一数据向量集。第一终端设备将预定义的系统反馈方式作为真值条件,基于该第二模型的相关信息,对该第一数据向量集通过反向误差传播BP算法进行监督训练,得到该第一模型。
在一种可能的设计中,本申请实施例提供的基于用户画像的反馈方法还包括:第一终端设备获取第二数据集,该第二数据集包括不同用户的该用户画像和行为习惯;第一终端设备对该第二数据集进行模型训练,得到该第二模型。
在一种可能的设计中,用户画像还包括用户特性信息。
在一种可能的设计中,用户特征信息包括以下一项或多项:性别、年龄、民族、国籍、或性格。基于该方案,由于第一终端设备可以根据用户的用户特征信息确定符合用户偏好的反馈方式,因此可以为用户提供更情感化的体验感受。
在一种可能的设计中,本申请实施例提供的基于用户画像的反馈方法还包括:第一终端设备确定第二终端设备对应的第二系统反馈方式,该第二系统反馈方式包括上述第一系统反馈方式中的一种或多种反馈方式。第一终端设备向该第二终端设备发送指示信息,该指示信息指示该第二终端设备执行该第二系统反馈方式对应的反馈。
在一种可能的设计中,第一终端设备确定第二终端设备对应的第二系统反馈方式,包括:第一终端设备确定第二终端设备的类型,第一终端设备根据改第二终端设备的类型确定第二终端设备对应的第二系统反馈方式。基于该方案,由于第一终端设备可以确定需要反馈的第二终端设备以及第二终端设备对应的第二系统反馈方式,因此,当用户发出语音输入后,可以同时存在多个终端设备进行反馈,且该多个终端设备的反馈形式可以不同,从而进一步增加了反馈的多样性。
第二方面,提供了一种通信装置用于实现上述各种方法。该通信装置可以为上述第一方面中的第一终端设备,或者包含上述第一终端设备的装置,或者是上述第一终端设备中包含的装置,比如系统芯片。所述通信装置包括实现上述方法相应的模块、单元、或手段(means),该模块、单元、或means可以通过硬件实现,软件实现,或者通过硬件执行相应的软件实现。该硬件或软件包括一个或多个与上述功能相对应的模块或单元。
第三方面,提供了一种通信装置,包括:处理器和存储器;该存储器用于存储计算机指令,当该处理器执行该指令时,以使该通信装置执行上述任一方面所述的方法。该通信装置可以为上述第一方面中的第一终端设备,或者包含上述第一终端设备的装置,或者是上述第一终端设备中包含的装置,比如系统芯片。
第四方面,提供了一种通信装置,包括:处理器;所述处理器用于与存储器耦合,并读取存储器中的指令之后,根据所述指令执行如上述任一方面所述的方法。该通信装置可以为上述第一方面中的第一终端设备,或者包含上述第一终端设备的装置,或者是上述第一终端设备中包含的装置,比如系统芯片。
第五方面,提供了一种计算机可读存储介质,该计算机可读存储介质中存储有指令,当所述指令在通信装置上运行时,使得通信装置可以执行上述任一方面所述的方法。该通信装置可以为上述第一方面中的第一终端设备,或者包含上述第一终端设备的装置,或者是上述第一终端设备中包含的装置,比如系统芯片。
第六方面,提供了一种包含指令的计算机程序产品,当所述指令在通信装置上运行时,使得所述通信装置可以执行上述任一方面所述的方法。该通信装置可以为上述第一方面中的第一终端设备,或者包含上述第一终端设备的装置,或者是上述第一终端设备中包含的装置,比如系统芯片。
第七方面,提供了一种通信装置(例如,该通信装置可以是芯片或芯片系统),该通信装置包括处理器,用于实现上述任一方面中所涉及的功能。在一种可能的设计中,该通信装置还包括存储器,该存储器,用于保存必要的程序指令和数据。该通信装置是芯片系统时,可以由芯片构成,也可以包含芯片和其他分立器件。
其中,第二方面至第七方面中任一种设计方式所带来的技术效果可参见上述第一方面中不同设计方式所带来的技术效果,此处不再赘述。
第八方面,提供一种通信系统,该通信系统包括上述方面所述的第一终端设备。
附图说明
图1为本申请实施例提供的一种反馈系统的结构示意图;
图2为本申请实施例提供的一种第一终端设备的结构示意图;
图3为本申请实施例提供的一种基于用户画像的反馈方法的流程示意图;
图4为本申请实施例提供的一种第一终端设备唤醒应答示意图;
图5为本申请实施例提供的另一种基于用户画像的反馈方法的流程示意图;
图6为本申请实施例提供的一种第一终端设备的反馈示意图;
图7为本申请实施例提供的一种第一终端设备和第二终端设备联合反馈的示意图;
图8为本申请实施例提供的另一种第一终端设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述。其中,在本申请的描述中,除非另有说明,“/”表示前后关联的对象是一种“或”的关系,例如,A/B 可以表示A或B;本申请中的“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况,其中A,B可以是单数或者复数。并且,在本申请的描述中,除非另有说明,“多个”是指两个或多于两个。“以下至少一项(个)”或其类似表达,是指的这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b,或c中的至少一项(个),可以表示: a,b,c,a-b,a-c,b-c,或a-b-c,其中a,b,c可以是单个,也可以是多个。另外,为了便于清楚描述本申请实施例的技术方案,在本申请的实施例中,采用了“第一”、“第二”等字样对功能和作用基本相同的相同项或相似项进行区分。本领域技术人员可以理解“第一”、“第二”等字样并不对数量和执行次序进行限定,并且“第一”、“第二”等字样也并不限定一定不同。
如图1所示,为本申请实施例提供的一种反馈系统10,该通信系统10包括第一终端设备20,以及与第一终端设备20通过网络连接的一个或多个第二终端设备。本申请实施例中,用户可以与第一终端设备20进行语音交互,第一终端设备可以通过本申请实施例提供的基于用户情绪的反馈方法确定系统反馈方式。可选的,第一终端设备确定的系统反馈方式可以通过不同的第二终端设备进行反馈。
可选的,本申请实施例中的第一终端设备20也可以称之为通信装置,其可以是一个通用设备或者是一个专用设备,本申请实施例对此不作具体限定。
可选的,图1中的第一终端设备20可以通过图2中的通信设备(或通信装置)30来实现。图2所示为本申请实施例提供的通信设备30的结构示意图。该通信设备30包括一个或多个处理器301,通信总线302,以及至少一个通信接口(图2中仅是示例性的以包括通信接口304,以及一个处理器301为例进行说明),可选的还可以包括存储器303。
处理器301可以是一个通用中央处理器(central processing unit,CPU),微处理器,特定应用集成电路(application-specific integrated circuit,ASIC),或一个或多个用于控制本申请方案程序执行的集成电路。
通信总线302可以是外设部件互连标准(peripheral component interconnect,PCI)总线或扩展工业标准结构(extended industry standard architecture,EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。为便于表示,图2中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。该通信总线302用于连接通信设备30中的不同组件,使得不同组件可以通信。
通信接口304,可以是收发模块用于与其他设备或通信网络通信,如以太网,无线接入网(radio access network,RAN),无线局域网(wireless local area networks,WLAN)等。例如,所述收发模块可以是收发器、收发机一类的装置。可选的,所述通信接口304也可以是位于处理器301内的收发电路,用以实现处理器的信号输入和信号输出。
存储器303可以是具有存储功能的装置。例如可以是只读存储器(read-onlymemory,ROM) 或可存储静态信息和指令的其他类型的静态存储设备,随机存取存储器(random access memory,RAM)或者可存储信息和指令的其他类型的动态存储设备,也可以是电可擦可编程只读存储器(electrically erasable programmable read-only memory,EEPROM)、只读光盘 (compact disc read-only memory,CD-ROM)或其他光盘存储、光碟存储(包括压缩光碟、激光碟、光碟、数字通用光碟、蓝光光碟等)、磁盘存储介质或者其他磁存储设备、或者能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。存储器可以是独立存在,通过通信线路302与处理器相连接。存储器也可以和处理器集成在一起。
其中,存储器303用于存储执行本申请方案的计算机执行指令,并由处理器301来控制执行。处理器301用于执行存储器303中存储的计算机执行指令,从而实现本申请实施例中提供的基于用户画像的反馈方法。
或者,可选的,本申请实施例中,也可以是处理器301执行本申请下述实施例提供的基于用户画像的反馈方法中的处理相关的功能,通信接口304负责与其他设备或通信网络通信,本申请实施例对此不作具体限定。
可选的,本申请实施例中的计算机执行指令也可以称之为应用程序代码,本申请实施例对此不作具体限定。
在具体实现中,作为一种实施例,处理器301可以包括一个或多个CPU,例如图2中的 CPU0和CPU1。
在具体实现中,作为一种实施例,通信设备30可以包括多个处理器,例如图2中的处理器301和处理器308。这些处理器中的每一个可以是一个单核(single-CPU)处理器,也可以是一个多核(multi-CPU)处理器。这里的处理器可以指一个或多个设备、电路、和/或用于处理数据(例如计算机程序指令)的处理核。
在具体实现中,作为一种实施例,通信设备30还可以包括输出设备305和输入设备306。输出设备305和处理器301通信,可以以多种方式来显示信息。例如,输出设备305可以是液晶显示器(liquid crystal display,LCD),发光二极管(light emitting diode,LED)显示设备,阴极射线管(cathode ray tube,CRT)显示设备,或投影仪(projector)等。输入设备306 和处理器301通信,可以以多种方式接收用户的输入。例如,输入设备306可以是鼠标、键盘、触摸屏设备或传感设备等。
目前,终端设备向用户反馈的过程中,反馈形式固化且单一,不同的终端设备通常指示基于语音的反馈。基于此,本申请实施例提供一种基于用户画像的反馈方法,在该反馈方法中,第一终端设备获取目标用户的用户画像,并将目标用户的用户画像输入第一模型,得到对应的第一系统反馈方式,其中,第一系统反馈方式包括以下一种或多种:语音反馈、提示音反馈、震动反馈、灯光反馈、语气词反馈、或屏幕反馈,第一模型用于建立用户画像与系统反馈方式之间的映射关系,用户画像包括用户情绪。由于本申请实施例中,第一终端设备可以基于用户画像和第一模型确定出多种形式的反馈方式,增加了反馈的丰富性和趣味性,提高了用户的体验感受。下面将结合图1所示的系统,通过具体实施例对本申请提供的基于用户画像的反馈方法进行详细阐述。
需要说明的是,本申请下述实施例中各个设备之间的消息名字或消息中各参数的名字等只是一个示例,具体实现中也可以是其他的名字,本申请实施例对此不作具体限定。
一种可能的实现方式中,如图3所示,本申请实施例提供的基于用户画像的反馈方法包括如下步骤:
S301、第一终端设备接收目标用户的唤醒指令。
其中,目标用户可以通过第一终端设备预设的语音唤醒词来唤醒第一终端设备。例如,第一终端设备预定的语音唤醒词可以为“你好”,则目标用户可以向第一终端设备输入“你好”的语音来唤醒第一终端设备。需要说明的是,第一终端设备的语音唤醒词也可以包括具体的可识别的语音操作唤醒词,本申请实施例对此不做具体限定。
S302、第一终端设备进行语音应答。
其中,第一终端设备接收到目标用户的唤醒指令后,可以基于语音识别和情绪识别得到应答方式,例如使用应答语气词应答。第一终端设备确定应答语气词后,可以将预设的应答语气词的声音文本通过TTS转换为声音信号输出,并在第一终端设备上显示该应答语气词。示例性的,如图4所示,该应答语气词可以为“嗨,我在听”,第一终端设备可以将其显示在屏幕上,并输出“嗨,我在听”的声音信号。
S303、第一终端设备接收目标用户的语音输入。
其中,第一终端设备唤醒后,目标用户可以向第一终端设备输入语音。相应的,第一终端设备接收目标用户的语音输入。
S304、第一终端设备根据目标用户的语音输入进行意图与情绪识别。
其中,第一终端设备在步骤S303中接收目标用户的语音输入后,可以进行意图与情绪识别,并结合用户的意图与情绪给出对应的意图反馈。可选的,如图5所示,第一终端设备接收目标用户的语音输入后,进行语音识别将目标用户的语音输入转化为文字,并对转化得到的文字进行自然语言处理理解目标用户的意图,同时,第一终端设备对目标用户的语音输入进行情绪识别,结合识别出的目标用户情绪以及目标用户的意图给出符合目标用户当前情绪的意图反馈。示例性的,以目标用户的语音输入为“心情好难过,来点音乐吧”为例,通过自然语言处理后识别到的目标用户意图为“来点音乐”,通过情绪识别后识别到的目标用户的情绪为“悲伤”,则第一终端设备结合目标用户的意图与情绪调音乐服务,并播放风格为悲伤的音乐。
S305、第一终端设备确定系统反馈方式。
其中,第一终端设备可以基于神经网络模型根据用户画像确定对应的系统反馈方式,用户画像包括用户情绪。首先,第一终端设备可以训练用于建立用户画像与系统反馈方式之间的映射关系的第一神经网络模型(以下简称第一模型),然后将用户画像输入第一模型,得到对应的系统反馈方式。
可选的,本申请实施例中,第一终端设备可以使用基于迁移学习的方式训练第一模型。其中,第一终端设备可以先确定一个第二神经网络模型(以下简称第二模型),该第二模型的任务与第一模型的任务具有相关性,且第二模型的输入和第一模型的输入具有相关性,例如,该第二模型可以为根据用户画像确定推荐歌曲的模型。在确定第二模型后,第一终端设备可以获取第二模型的相关信息作为训练第一模型的模型载体,其中,第二模型的相关信息可以为第二模型的网络结构和对应的权值,该网络结构可以为第二模型的整体网络结构,也可以为第二模型的网络结构中的部分网络层。示例性的,第二模型的网络层数可以为4层,每层的大小分别为128,64,32,16,则第一终端设备获取的第二模型的相关信息可以为第二模型的全部4层结构以及每层的权值;或者,第一终端设备获取的第二模型的相关信息也可以为第二模型的第三层和第四层、以及第三层的权值和第四层的权值;或者,也可以为第二模型的其他层和该层对应的权值,本申请实施例对此不做具体限定。
此外,可选的,本申请实施例中,第一终端设备可以获取第一数据集,该第一数据集包括多个不同大众用户的用户画像和行为习惯。其中,行为习惯可以为终端设备识别到用户情绪后检测到的用户对终端设备的操作,例如,终端设备根据用户的语音输入识别到用户的情绪为“悲伤”后,检测到用户将终端设备的灯光调暗,并且将终端设备的音量调小,则终端设备可以记录用户悲伤时的行为习惯为调暗灯光并调小音量。可选的,多个不同大众用户的用户画像和行为习惯可以为不同终端设备收集后将其发送给第一终端设备的,也可以是第一终端设备通过其他方式获取的,本申请实施例对此不做具体限定。
可选的,本申请实施例中,第一终端设备获取到第二模型的相关信息和第一数据集后,可以基于第二模型的相关信息对第一数据集进行模型训练,得到第一模型。其中,第一终端设备可以对第一数据集中的数据进行预处理得到第一数据向量集,并将预定义的系统反馈方式作为真值条件,基于第二模型的相关信息,对第一数据向量集通过反向误差传播(error back propagation,BP)算法进行监督训练,得到第一模型。其中,预定义的系统反馈方式包括以下一种或多种:语音反馈、提示音反馈、震动反馈、灯光反馈、语气词反馈、或屏幕反馈,灯光反馈可以包括呼吸灯反馈和/或提示灯反馈,呼吸灯可以为点光源,提示灯可以为线光源或面光源。基于该方案,由于第一终端设备基于第二模型的相关信息训练第一模型,因此可以提高第一模型的训练效率。另一方面,第一终端设备将不同用户的用户画像和行为习惯作为训练数据,可以提高训练得到的第一模型的准确性。
可选的,本申请实施例中,上述第二模型可以是第一终端设备训练得到的。其中,第一终端设备可以获取第二数据集,对第二数据集进行模型训练得到第二模型,第二数据集包括不同用户的用户画像和行为习惯。需要说明的是,上述第一数据集和第二数据集中的数据可能存在交集,也可能完全不同,本申请实施例对此不做具体限定。示例性的,以第二模型用于建立用户画像与推荐歌曲之间的映射关系为例,第二数据集中的行为习惯可以是终端设备识别到用户情绪后,检测到用户播放的歌曲类型以及歌曲名称。
其中,第一终端设备获取第一模型后,可以使用第一模型确定系统反馈方式。其中,第一终端设备可以先获取目标用户的用户画像,然后将获取到的目标用户的用户画像输入第一模型,得到对应的第一系统反馈方式,该第一系统反馈方式包括以下一种或多种:语音反馈、提示音反馈、震动反馈、灯光反馈、语气词反馈、或屏幕反馈,灯光反馈可以包括呼吸灯反馈和/或提示灯反馈。可选的,如图5所示,第一终端设备可以将识别到的目标用户的情绪输入第一模型,得到对应的第一系统反馈方式。
示例性的,以第一终端设备为智能音箱(带显示屏),目标用户输入“心情难过,来点音乐吧”为例,第一终端设备接收目标用户的语音输入后,识别到用户的情绪为“悲伤”,并将识别到的“悲伤”的情绪输入第一模型,由第一模型对输入的情绪进行匹配,得到“提示灯反馈+提示音反馈+语气词反馈+屏幕反馈”的反馈方式,其中,提示灯反馈方式可以包括提示灯显示暗色调的环形光,光源闪动柔和且缓慢,提示音反馈可以包括“呜呜”的拟声提示音,语气词反馈可以包括以声音信号输出“啊哦,怎么了”的语气词,屏幕反馈可以包括在屏幕上显示“啊哦,怎么了”。如图6所示,第一终端设备确定系统反馈方式后,可以输出反馈指令以执行反馈方式对应的反馈。
可选的,由于终端设备的类型不同,其具有的反馈能力也不同,从而其对应的系统反馈方式也不同,因此,本申请实施例还提供了不同终端设备可能对应的系统反馈方式,如表1 所示,本申请实施例提供了终端设备为手机、手表、和音箱时各自对应的系统反馈方式。
表1
可选的,基于上述反馈方式,如表2所示,本申请实施例还提供每种反馈方式的具体表现形式,并提供在情绪为“快乐”和“悲伤”每种反馈方式的表现形式。
表2
基于本申请实施例提供的基于用户画像的反馈方法,第一终端设备获取目标用户的用户画像后,将目标用户的用户画像输入第一模型,由第一模型确定出对应的第一系统反馈方式,其中,第一系统反馈方式包括语音反馈、提示音反馈、震动反馈、灯光反馈、语气词反馈、或屏幕反馈中的一种或多种。由于第一模型可以根据用户画像确定出多种反馈方式,因此增加了反馈的丰富性和趣味性,提高了用户的体验感受。
此外,不同用户根据地域、年龄、民族等个人特征对不同情绪下的偏好也可能不同,例如,对于印度人来说紫色代表心情宁静和放松,对于其他人群来说紫色可能代表浮躁或忧郁,因此,印度人在情绪“紧张”时可能喜欢将设备的灯光调为紫色,而其他人群在情绪“紧张”时也可能将设备的灯光调为其他颜色。基于此,本申请实施例提供基于用户画像的反馈方法中,可选的,用户画像还包括用户特征信息,用户特征信息包括性别、年龄、民族、国籍或性格等信息中的一种或多种信息。第一终端设备在训练第一模型时获取的第一数据集的用户画像中除包括不同用户的情绪外,还包括不同用户的用户特征信息,因此,在训练第一模型时还可以根据用户特征信息建立类似于情绪<->用户特征<->反馈方式之间的映射关系。例如,第一模型建立的映射关系可以包括“情绪:紧张<->国籍:印度<->反馈方式:提示灯颜色为紫色,屏幕背景颜色为紫色,屏幕中显示“Take it easy””,“情绪:紧张<->国籍:中国<->反馈方式:提示灯颜色为天蓝色,屏幕中显示“深呼吸,放轻松”。
可选的,本申请实施例中,在第一终端设备通过第一模型确定对应的系统反馈方式时,还可以将目标用户的用户特征信息输入第一模型,使得第一终端设备确定出的系统反馈方式更加符合目标用户的偏好,目标用户的用户特征信息可以是第一终端设备预先请求目标用户输入的,也可以是通过其他方式获取的,本申请实施例对此不做具体限定。示例性的,第一终端设备获取到目标用户的情绪为紧张,目标用户的用户特征信息为国籍为印度,则第一终端设备可以通过第一模型确定对应的系统反馈方式为:提示灯颜色为紫色,屏幕背景颜色为紫色,屏幕中显示“Take it easy”。
由于第一终端设备可以根据用户的用户特征信息确定符合用户偏好的反馈方式,因此,基于本申请实施例提供的基于用户画像的反馈方法可以为用户提供更情感化的体验感受。
可选的,本申请实施例中,第一终端设备可能通过网络连接有一个或多个第二终端设备,在该场景下,第一终端设备确定第一系统反馈方式后,还可以确定需要进行反馈的第二终端设备以及与第二终端设备对应的第二系统反馈方式,第二系统反馈方式包括第一系统反馈方式中的一种或多种。其中,第一终端设备确定第一系统反馈方式后,可以通过网络获取与其连接的第二终端设备的信息,根据第二终端设备的信息确定第二终端设备的类型,然后根据第二终端设备的类型确定第二终端设备对应的第二系统反馈方式。可选的,第一终端设备确定第二终端设备的类型后,可以根据类似于表1的规则确定第二终端设备对应的反馈方式。第一终端设备在确定第二终端设备对应的第二系统反馈方式后,可以向第二设备发送指示信息,以指示第二终端设备执行第二系统反馈方式对应的反馈。此外,在该场景下,第一终端设备确定第一系统反馈方式后,也可以根据第一终端设备的类型执行第一系统反馈方式中的反馈。
示例性的,以第一终端设备为智能手机,第二终端设备为智能音箱,目标用户输入“好开心啊,听首歌吧”为例,第一终端设备接收到目标用户的语音输入后,识别到情绪为“开心”,并将识别的“开心”的情绪输入第一模型得到第一系统反馈方式,例如,第一系统反馈方式包括:“提示音反馈:输出“嘤嘤”的拟声提示音、语气词反馈:输出“哇哦,棒极了”的声音信号、屏幕反馈:在屏幕上显示“哇哦,棒极了”、以及提示灯反馈:提示灯颜色为鲜艳色系的颜色,并且升高亮度”。第一终端设备确定第一系统反馈方式后,通过网络获取与其连接的第二终端设备的信息,并确定该第二终端设备为智能音箱,然后可以根据表1中智能音箱对应的反馈方式确定第二终端设备对应的第二反馈方式可以为“提示音反馈:输出“嘤嘤”的拟声提示音、语气词反馈:输出“哇哦,棒极了”的声音信号、屏幕反馈:在屏幕上显示“哇哦,棒极了”、以及提示灯反馈:提示灯颜色为鲜艳色系的颜色,并且升高亮度”。确定第二系统反馈方式后,第一终端设备向第二终端设备发送指示信息,以指示第二终端设备执行第二系统反馈方式对应的反馈。如图7所示,第二终端设备接收到指示信息后,执行第二系统反馈方式对应的反馈,同时,第一终端设备执行如下反馈:“提示音反馈:输出“嘤嘤”的拟声提示音、语气词反馈:输出“哇哦,棒极了”的声音信号、屏幕反馈:在屏幕上显示“哇哦,棒极了”。
由于第一终端设备可以确定需要反馈的第二终端设备以及第二终端设备对应的第二系统反馈方式,因此,当用户发出语音输入后,可以同时存在多个终端设备进行反馈,且该多个终端设备的反馈形式可以不同,从而进一步增加了反馈的多样性。
其中,上述步骤S301至S305中的第一终端设备的动作可以由图2所示的通信装置30 中的处理器301调用存储器303中存储的应用程序代码以指令该通信装置执行,本实施例对此不作任何限制。
可以理解的是,以上各个实施例中,由第一终端设备实现的方法和/或步骤,也可以由可用于第一终端设备的部件(例如芯片或者电路)实现。
上述主要从各个网元之间交互的角度对本申请实施例提供的方案进行了介绍。相应的,本申请实施例还提供了通信装置,该通信装置用于实现上述各种方法。该通信装置可以为上述方法实施例中的第一终端设备,或者包含上述第一终端设备的装置,或者为可用于第一终端设备的部件。可以理解的是,该通信装置为了实现上述功能,其包含了执行各个功能相应的硬件结构和/或软件模块。本领域技术人员应该很容易意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,本申请能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
本申请实施例可以根据上述方法实施例中对通信装置进行功能模块的划分,例如,可以对应各个功能划分各个功能模块,也可以将两个或两个以上的功能集成在一个处理模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。需要说明的是,本申请实施例中对模块的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
比如,以通信装置为上述方法实施例中的第一终端设备为例。图8示出了一种第一终端设备80的结构示意图。该第一终端设备80包括获取模块801和处理模块802。可选的,该第一终端设备80还包括收发模块803。所述收发模块803,也可以称为收发单元用以实现发送和/或接收功能,例如可以是收发电路,收发机,收发器或者通信接口。
其中,获取模块801,用于获取目标用户的用户画像,该用户画像包括用户情绪。处理模块802,用于将该目标用户的用户画像输入第一模型,得到对应的第一系统反馈方式,该第一系统反馈方式包括以下一种或多种:语音反馈、提示音反馈、震动反馈、灯光反馈、语气词反馈、或屏幕反馈,其中,该第一模型用于建立该用户画像与系统反馈方式之间的映射关系。
可选的,获取模块801,还用于获取第二模型的相关信息,该第二模型的任务和输入分别与第一模型的任务和输入具有相关性。获取模块801,还用于获取第一数据集,该第一数据集包括不同用户的该用户画像和行为习惯。处理模块802,还用于基于该第二模型的相关信息,对该第一数据集进行模型训练,得到该第一模型。
可选的,处理模块802,还用于基于该第二模型的相关信息,对该第一数据集进行模型训练,得到该第一模型,包括:处理模块802,用于对该第一数据集中的数据进行预处理,得到第一数据向量集。处理模块802,还用于将预定义的系统反馈方式作为真值条件,基于该第二模型的相关信息,对该第一数据向量集通过反向误差传播BP算法进行监督训练,得到该第一模型。
可选的,获取模块801,还用于获取第二数据集,该第二数据集包括不同用户的该用户画像和行为习惯。处理模块802,还用于对该第二数据集进行模型训练,得到该第二模型。
可选的,处理模块802,还用于确定第二终端设备对应的第二系统反馈方式,该第二系统反馈方式包括该第一系统反馈方式中的一种或多种反馈方式。处理模块802,还用于通过收发模块803向该第二终端设备发送指示信息,该指示信息指示该第二终端设备执行该第二系统反馈方式对应的反馈。
可选的,处理模块802,还用于确定第二终端设备对应的第二系统反馈方式,包括:处理模块802,用于确定第二终端设备的类型。处理模块802,还用于根据第二终端设备的类型确定第二终端设备对应的第二系统反馈方式。
本申请实施例中,处理模块802用于通过收发模块803发送上述信息或消息可以理解为,处理模块802用于获取上述信息或消息之后生成携带上述信息或消息的信号,该信号可以经过或者不经过信号处理由收发模块803发送出去。在此统一说明,以下不再赘述。
其中,上述方法实施例涉及的各步骤的所有相关内容均可以援引到对应功能模块的功能描述,在此不再赘述。
在本实施例中,该第一终端设备80以采用集成的方式划分各个功能模块的形式来呈现。这里的“模块”可以指特定ASIC,电路,执行一个或多个软件或固件程序的处理器和存储器,集成逻辑电路,和/或其他可以提供上述功能的器件。在一个简单的实施例中,本领域的技术人员可以想到该第一终端设备80可以采用图2所示的通信装置30的形式。
比如,图2所示的通信装置30中的处理器301可以通过调用存储器303中存储的计算机执行指令,使得通信装置30执行上述方法实施例中的基于用户画像的反馈方法。
具体的,图8中的获取模块801、处理模块802和收发模块803的功能/实现过程可以通过图2所示的通信装置30中的处理器301调用存储器303中存储的计算机执行指令来实现。或者,图8中的获取模块801和处理模块802的功能/实现过程可以通过图2所示的通信装置 30中的处理器301调用存储器303中存储的计算机执行指令来实现,图8中的收发模块803 的功能/实现过程可以通过图2所示的通信装置30中的通信接口304来实现。
由于本实施例提供的第一终端设备80可执行上述的基于用户画像的反馈方法,因此其所能获得的技术效果可参考上述方法实施例,在此不再赘述。
可选的,本申请实施例还提供了一种通信装置(例如,该通信装置可以是芯片或芯片系统),该通信装置包括处理器,用于实现上述任一方法实施例中的方法。在一种可能的设计中,该通信装置还包括存储器。该存储器,用于保存必要的程序指令和数据,处理器可以调用存储器中存储的程序代码以指令该通信装置执行上述任一方法实施例中的方法。当然,存储器也可以不在该通信装置中。该通信装置是芯片系统时,可以由芯片构成,也可以包含芯片和其他分立器件,本申请实施例对此不作具体限定。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件程序实现时,可以全部或部分地以计算机程序产品的形式来实现。该计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或者数据中心通过有线(例如同轴电缆、光纤、数字用户线 (digital subscriber line,DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可以用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质(例如,软盘、硬盘、磁带),光介质(例如,DVD)、或者半导体介质(例如固态硬盘(solid state disk,SSD))等。本申请实施例中,计算机可以包括前面所述的装置。
尽管在此结合各实施例对本申请进行了描述,然而,在实施所要求保护的本申请过程中,本领域技术人员通过查看所述附图、公开内容、以及所附权利要求书,可理解并实现所述公开实施例的其他变化。在权利要求中,“包括”(comprising)一词不排除其他组成部分或步骤,“一”或“一个”不排除多个的情况。单个处理器或其他单元可以实现权利要求中列举的若干项功能。相互不同的从属权利要求中记载了某些措施,但这并不表示这些措施不能组合起来产生良好的效果。
尽管结合具体特征及其实施例对本申请进行了描述,显而易见的,在不脱离本申请的精神和范围的情况下,可对其进行各种修改和组合。相应地,本说明书和附图仅仅是所附权利要求所界定的本申请的示例性说明,且视为已覆盖本申请范围内的任意和所有修改、变化、组合或等同物。显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。
Claims (18)
1.一种基于用户画像的反馈方法,其特征在于,所述方法包括:
第一终端设备获取目标用户的用户画像,所述用户画像包括用户情绪;
所述第一终端设备将所述目标用户的用户画像输入第一模型,得到对应的第一系统反馈方式,所述第一系统反馈方式包括以下一种或多种:语音反馈、提示音反馈、震动反馈、灯光反馈、语气词反馈、或屏幕反馈,其中,所述第一模型用于建立所述用户画像与系统反馈方式之间的映射关系。
2.根据权利要求1所述的方法,其特征在于,在所述第一终端设备将所述目标用户的用户画像输入第一模型之前,所述方法还包括:
所述第一终端设备获取第二模型的相关信息,所述第二模型的任务和输入分别与所述第一模型的任务和输入具有相关性;
所述第一终端设备获取第一数据集,所述第一数据集包括不同用户的所述用户画像和行为习惯;
所述第一终端设备基于所述第二模型的相关信息,对所述第一数据集进行模型训练,得到所述第一模型。
3.根据权利要求2所述的方法,其特征在于,所述第一终端设备基于所述第二模型的相关信息,对所述第一数据集进行模型训练,得到所述第一模型,包括:
所述第一终端设备对所述第一数据集中的数据进行预处理,得到第一数据向量集;
所述第一终端设备将预定义的系统反馈方式作为真值条件,基于所述第二模型的相关信息,对所述第一数据向量集通过反向误差传播BP算法进行监督训练,得到所述第一模型。
4.根据权利要求2或3所述的方法,其特征在于,所述方法还包括:
所述第一终端设备获取第二数据集,所述第二数据集包括不同用户的所述用户画像和行为习惯;
所述第一终端设备对所述第二数据集进行模型训练,得到所述第二模型。
5.根据权利要求1-4任一项所述的方法,其特征在于,所述用户画像还包括用户特性信息。
6.根据权利要求5所述的方法,其特征在于,所述用户特征信息包括以下一项或多项:性别、年龄、民族、国籍、或性格。
7.根据权利要求1-6任一项所述的方法,其特征在于,所述方法还包括:
所述第一终端设备确定第二终端设备对应的第二系统反馈方式,所述第二系统反馈方式包括所述第一系统反馈方式中的一种或多种反馈方式;
所述第一终端设备向所述第二终端设备发送指示信息,所述指示信息指示所述第二终端设备执行所述第二系统反馈方式对应的反馈。
8.根据权利要求7所述的方法,其特征在于,所述第一终端设备确定所述第二终端设备对应的第二系统反馈方式,包括:
所述第一终端设备确定所述第二终端设备的类型;
所述第一终端设备根据所述第二终端设备的类型确定所述第二终端设备对应的第二系统反馈方式。
9.一种第一终端设备,其特征在于,所述第一终端设备包括:获取模块和处理模块;
所述获取模块,用于获取目标用户的用户画像,所述用户画像包括用户情绪;
所述处理模块,用于将所述目标用户的用户画像输入第一模型,得到对应的第一系统反馈方式,所述第一系统反馈方式包括以下一种或多种:语音反馈、提示音反馈、震动反馈、灯光反馈、语气词反馈、或屏幕反馈,其中,所述第一模型用于建立所述用户画像与系统反馈方式之间的映射关系。
10.根据权利要求9所述的第一终端设备,其特征在于,
所述获取模块,还用于获取第二模型的相关信息,所述第二模型的任务和输入分别与所述第一模型的任务和输入具有相关性;
所述获取模块,还用于获取第一数据集,所述第一数据集包括不同用户的所述用户画像和行为习惯;
所述处理模块,还用于基于所述第二模型的相关信息,对所述第一数据集进行模型训练,得到所述第一模型。
11.根据权利要求10所述的第一终端设备,其特征在于,所述处理模块,还用于基于所述第二模型的相关信息,对所述第一数据集进行模型训练,得到所述第一模型,包括:
所述处理模块,用于对所述第一数据集中的数据进行预处理,得到第一数据向量集;
所述处理模块,还用于将预定义的系统反馈方式作为真值条件,基于所述第二模型的相关信息,对所述第一数据向量集通过反向误差传播BP算法进行监督训练,得到所述第一模型。
12.根据权利要求10或11所述的第一终端设备,其特征在于,
所述获取模块,还用于获取第二数据集,所述第二数据集包括不同用户的所述用户画像和行为习惯;
所述处理模块,还用于对所述第二数据集进行模型训练,得到所述第二模型。
13.根据权利要求9-12任一项所述的第一终端设备,其特征在于,所述用户画像还包括用户特性信息。
14.根据权利要求13所述的第一终端设备,其特征在于,所述用户特征信息包括以下一项或多项:性别、年龄、民族、国籍、或性格。
15.根据权利要求9-14任一项所述的第一终端设备,其特征在于,所述第一终端设备还包括收发模块;
所述处理模块,还用于确定第二终端设备对应的第二系统反馈方式,所述第二系统反馈方式包括所述第一系统反馈方式中的一种或多种反馈方式;
所述处理模块,还用于通过所述收发模块向所述第二终端设备发送指示信息,所述指示信息指示所述第二终端设备执行所述第二系统反馈方式对应的反馈。
16.根据权利要求15所述的第一终端设备,其特征在于,所述处理模块,还用于确定第二终端设备对应的第二系统反馈方式,包括:
所述处理模块,用于设备确定所述第二终端设备的类型;
所述处理模块,还用于根据所述第二终端设备的类型确定所述第二终端设备对应的第二系统反馈方式。
17.一种第一终端设备,其特征在于,所述第一终端设备包括:处理器和存储器;
所述存储器用于存储计算机执行指令,当所述处理器执行所述计算机执行指令时,以使所述第一终端设备执行如权利要求1-8中任意一项所述的方法。
18.一种计算机可读存储介质,其特征在于,包括指令,当其在第一终端设备上运行时,使得所述第一终端设备执行如权利要求1-8中任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910357006.7A CN110197659A (zh) | 2019-04-29 | 2019-04-29 | 基于用户画像的反馈方法、装置及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910357006.7A CN110197659A (zh) | 2019-04-29 | 2019-04-29 | 基于用户画像的反馈方法、装置及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110197659A true CN110197659A (zh) | 2019-09-03 |
Family
ID=67752254
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910357006.7A Pending CN110197659A (zh) | 2019-04-29 | 2019-04-29 | 基于用户画像的反馈方法、装置及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110197659A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111327772A (zh) * | 2020-02-25 | 2020-06-23 | 广州腾讯科技有限公司 | 进行自动语音应答处理的方法、装置、设备及存储介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103456299A (zh) * | 2013-08-01 | 2013-12-18 | 百度在线网络技术(北京)有限公司 | 一种控制语音识别的方法和装置 |
CN103970873A (zh) * | 2014-05-14 | 2014-08-06 | 中国联合网络通信集团有限公司 | 一种音乐推荐方法和系统 |
CN104123938A (zh) * | 2013-04-29 | 2014-10-29 | 富泰华工业(深圳)有限公司 | 语音控制系统、电子装置及语音控制方法 |
CN104915174A (zh) * | 2014-03-11 | 2015-09-16 | 阿里巴巴集团控股有限公司 | 对用户声音信号进行反馈的方法及装置 |
CN108510049A (zh) * | 2018-03-23 | 2018-09-07 | 山东大学 | 基于情感-时空信息的机器人服务自主认知方法及机器人 |
US20180308487A1 (en) * | 2017-04-21 | 2018-10-25 | Go-Vivace Inc. | Dialogue System Incorporating Unique Speech to Text Conversion Method for Meaningful Dialogue Response |
CN108877794A (zh) * | 2018-06-04 | 2018-11-23 | 百度在线网络技术(北京)有限公司 | 用于人机交互的方法、装置、电子设备和计算机可读存储介质 |
CN109117952A (zh) * | 2018-07-23 | 2019-01-01 | 厦门大学 | 一种基于深度学习的机器人情感认知的方法 |
CN109445581A (zh) * | 2018-10-17 | 2019-03-08 | 北京科技大学 | 基于用户行为分析的大规模场景实时渲染方法 |
-
2019
- 2019-04-29 CN CN201910357006.7A patent/CN110197659A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104123938A (zh) * | 2013-04-29 | 2014-10-29 | 富泰华工业(深圳)有限公司 | 语音控制系统、电子装置及语音控制方法 |
CN103456299A (zh) * | 2013-08-01 | 2013-12-18 | 百度在线网络技术(北京)有限公司 | 一种控制语音识别的方法和装置 |
CN104915174A (zh) * | 2014-03-11 | 2015-09-16 | 阿里巴巴集团控股有限公司 | 对用户声音信号进行反馈的方法及装置 |
CN103970873A (zh) * | 2014-05-14 | 2014-08-06 | 中国联合网络通信集团有限公司 | 一种音乐推荐方法和系统 |
US20180308487A1 (en) * | 2017-04-21 | 2018-10-25 | Go-Vivace Inc. | Dialogue System Incorporating Unique Speech to Text Conversion Method for Meaningful Dialogue Response |
CN108510049A (zh) * | 2018-03-23 | 2018-09-07 | 山东大学 | 基于情感-时空信息的机器人服务自主认知方法及机器人 |
CN108877794A (zh) * | 2018-06-04 | 2018-11-23 | 百度在线网络技术(北京)有限公司 | 用于人机交互的方法、装置、电子设备和计算机可读存储介质 |
CN109117952A (zh) * | 2018-07-23 | 2019-01-01 | 厦门大学 | 一种基于深度学习的机器人情感认知的方法 |
CN109445581A (zh) * | 2018-10-17 | 2019-03-08 | 北京科技大学 | 基于用户行为分析的大规模场景实时渲染方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111327772A (zh) * | 2020-02-25 | 2020-06-23 | 广州腾讯科技有限公司 | 进行自动语音应答处理的方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110838286B (zh) | 一种模型训练的方法、语种识别的方法、装置及设备 | |
KR102444165B1 (ko) | 적응적으로 회의를 제공하기 위한 장치 및 방법 | |
CN109447234A (zh) | 一种模型训练方法、合成说话表情的方法和相关装置 | |
US20140172431A1 (en) | Music playing system and music playing method based on speech emotion recognition | |
CN102292766B (zh) | 用于语音处理的方法和装置 | |
CN109272984A (zh) | 用于语音交互的方法和装置 | |
CN105723360A (zh) | 利用情感调节改进自然语言交互 | |
CN109102802A (zh) | 用于处理用户话语的系统 | |
CN110473546A (zh) | 一种媒体文件推荐方法及装置 | |
CN110399837A (zh) | 用户情绪识别方法、装置以及计算机可读存储介质 | |
CN109712644A (zh) | 基于语音识别情绪变化控制led显示效果的方法、用于控制led显示效果的装置及系统 | |
WO2019242414A1 (zh) | 语音处理方法、装置、存储介质及电子设备 | |
US20190371319A1 (en) | Method for human-machine interaction, electronic device, and computer-readable storage medium | |
Kühnel | Quantifying quality aspects of multimodal interactive systems | |
CN110310648A (zh) | 移动终端的控制方法、装置、移动终端及可读存储介质 | |
CN113935332A (zh) | 图书分级方法及图书分级设备 | |
CN110197659A (zh) | 基于用户画像的反馈方法、装置及系统 | |
US20150189166A1 (en) | Method, device and system for improving the quality of photographs | |
WO2021238371A1 (zh) | 生成虚拟角色的方法及装置 | |
CN109979451A (zh) | 用于输出信息的方法和装置 | |
CN110111795B (zh) | 一种语音处理方法及终端设备 | |
CN114630135A (zh) | 一种直播互动方法及装置 | |
US11443738B2 (en) | Electronic device processing user utterance and control method thereof | |
WO2019228140A1 (zh) | 指令执行方法、装置、存储介质及电子设备 | |
TWI498880B (zh) | Automatic Sentiment Classification System with Scale Sound |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190903 |