CN108628504A - 一种生成展示内容的方法与设备 - Google Patents
一种生成展示内容的方法与设备 Download PDFInfo
- Publication number
- CN108628504A CN108628504A CN201710161738.XA CN201710161738A CN108628504A CN 108628504 A CN108628504 A CN 108628504A CN 201710161738 A CN201710161738 A CN 201710161738A CN 108628504 A CN108628504 A CN 108628504A
- Authority
- CN
- China
- Prior art keywords
- information
- physical characteristic
- object content
- characteristic information
- target user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
本申请的目的是提供一种生成展示内容的方法与设备。本申请通过获取目标用户在输入目标内容时的身体特征信息,并基于所述身体特征信息确定所述目标内容的显示效果,然后基于所述显示效果生成所述目标内容对应的展示内容。通过这种方式,无需用户操作即可在用户输入目标内容时自动生成对应的展示内容,且所述展示内容能够更好、更准确的表达所述目标用户的状态,从而可以很好的提高用户体验。
Description
技术领域
本申请涉及通信技术领域,尤其涉及一种生成展示内容的技术。
背景技术
随着网络技术的发展,用户越来越多的通过网络交互软件进行交流,与真实的面对面交流不同,通过交互软件的交互,不能很好的表达用户的心理状态,用户感受不好,而现有技术中,用户产出内容的方案通常是通过用户亲自在实体或虚拟设备上的输入内容、或者通过对某些关键字分析来标记用户当前的情绪状态,从而产生具体的可展示内容。通过用户主动输入的方式,增加了用户负担,而通过对某些关键字分析的方式对用户输入内容的应用比较单一,而且表达用户的情绪状态的准确度不高。
发明内容
本申请的目的是提供一种生成展示内容的方法与设备。
根据本申请的一个方面,提供了一种生成展示内容的方法,其中,该方法包括:
获取目标用户在输入目标内容时的身体特征信息;
基于所述身体特征信息确定所述目标内容的显示效果;
基于所述显示效果生成所述目标内容对应的展示内容。
进一步地,其中,所述基于所述身体特征信息确定所述目标内容的显示效果包括:
基于所述身体特征信息确定所述目标用户在输入目标内容时的心理状态;
基于所述心理状态确定所述目标内容的显示效果。
进一步地,其中,所述基于所述身体特征信息确定所述目标用户在输入目标内容时的心理状态包括:
将所述身体特征信息与样本身体特征信息作比较,基于所述样本身体特征信息对应的心理状态,确定所述目标用户在输入目标内容时的心理状态。
进一步地,其中,所述样本身体特征信息包括自身样本身体特征信息,所述基于所述身体特征信息确定所述目标用户在输入目标内容时的心理状态包括:
当存在自身样本身体特征信息,将所述身体特征信息与自身样本身体特征信息作比较,基于所述自身样本身体特征信息对应的心理状态,确定所述目标用户在输入目标内容时的心理状态。
进一步地,其中,所述目标内容包括文字信息,所述目标内容的显示效果包括对所述文字信息进行文字显示处理,其中所述文字显示处理包括添加文字颜色、文字字体变形、添加文字背景颜色、添加背景图片、添加背景音乐、添加文字显示特效。
进一步地,其中,所述目标内容包括语音信息,所述目标内容的显示效果包括对所述语音信息进行语音显示处理,其中,所述语音显示处理包括添加对应的表情符号、添加背景图片、添加背景音乐。
进一步地,其中,所述目标内容包括视频信息,所述目标内容的显示效果包括对所述视频信息进行视频显示处理,其中,所述视频显示处理包括添加对应的表情符号、添加对应的图片、添加相应的文字信息。
进一步地,其中,所述目标内容包括图片信息,所述目标内容的显示效果包括对所述图片信息进行图片显示处理,其中,所述图片显示处理包括:裁剪图片、美化图片、变形图片。
进一步地,其中,所述身体特征信息包括以下至少任一项:
生理数据信息,所述生理数据信息用以反应所述目标用户在不同心理状态下的生理特征;
行为数据信息,所述行为数据信息用以反应所述目标用户在不同心理状态下的行为特征。
进一步地,其中,所述生理数据信息包括以下至少任一项:脉搏信息;血压信息;心跳信息。
进一步地,其中,所述行为数据信息包括以下至少任一项:面部表情信息;输入速度信息;握持压力信息。
根据本申请的另一方面,还提供了一种生成展示内容的设备,其中,该设备包括:
第一装置,用于获取目标用户在输入目标内容时的身体特征信息;
第二装置,用于基于所述身体特征信息确定所述目标内容的显示效果;
第三装置,用于基于所述显示效果生成所述目标内容对应的展示内容。
进一步地,其中,所述第二装置包括:
第一单元,用于基于所述身体特征信息确定所述目标用户在输入目标内容时的心理状态;
第二单元,用于基于所述心理状态确定所述目标内容的显示效果。
进一步地,其中,所述第一单元用于:
将所述身体特征信息与样本身体特征信息作比较,基于所述样本身体特征信息对应的心理状态,确定所述目标用户在输入目标内容时的心理状态。
进一步地,其中,所述样本身体特征信息包括以下至少任一项:
自身样本身体特征信息;
其他样本身体特征信息;
综合样本身体特征信息。
进一步地,其中,当所述样本身体特征信息包含自身样本身体特征信息,所述第一单元用于:
将所述身体特征信息与自身样本身体特征信息作比较,基于所述自身样本身体特征信息对应的心理状态,确定所述目标用户在输入目标内容时的心理状态。
进一步地,其中,所述目标内容包括文字信息,所述目标内容的显示效果包括对所述文字信息进行文字显示处理,其中所述文字显示处理包括添加文字颜色、文字字体变形、添加文字背景颜色、添加背景图片、添加背景音乐、添加文字显示特效。
进一步地,其中,所述目标内容包括语音信息,所述目标内容的显示效果包括对所述语音信息进行语音显示处理,其中,所述语音显示处理包括添加对应的表情符号、添加背景图片、添加背景音乐。
进一步地,其中,所述目标内容包括视频信息,所述目标内容的显示效果包括对所述视频信息进行视频显示处理,其中,所述视频显示处理包括添加对应的表情符号、添加对应的图片、添加相应的文字信息。
进一步地,其中,所述目标内容包括图片信息,所述目标内容的显示效果包括对所述图片信息进行图片显示处理,其中,所述图片显示处理包括:裁剪图片、美化图片、变形图片。
进一步地,其中,所述身体特征信息包括以下至少任一项:
生理数据信息,所述生理数据信息用以反应所述目标用户在不同心理状态下的生理特征;
行为数据信息,所述行为数据信息用以反应所述目标用户在不同心理状态下的行为特征。
进一步地,其中,所述生理数据信息包括以下至少任一项:脉搏信息;
血压信息;心跳信息。
进一步地,其中,所述行为数据信息包括以下至少任一项:面部表情信息;输入速度信息;握持压力信息。
与现有技术相比,本申请通过获取目标用户在输入目标内容时的身体特征信息,并基于所述身体特征信息确定所述目标内容的显示效果,然后基于所述显示效果生成所述目标内容对应的展示内容。通过这种方式,无需用户操作即可在用户输入目标内容时自动生成对应的展示内容,且所述展示内容能够更好、更准确的表达所述目标用户的状态,从而可以很好的提高用户体验。
而且,本申请还可以基于所述身体特征信息确定所述目标用户在输入目标内容时的心理状态,并基于所述心理状态确定所述目标内容的显示效果。这种方式,通过所述目标用户的心理状态来确定所述目标内容的显示效果,能够很好的表达出所述目标用户在输入所述目标内容时的心理感受和情绪状态,从而拉近了用户的距离,使远距离交互更加真实化。
此外,本申请中的所述目标内容包括以下至少任一项:文字信息、语音信息、视频信息、图片信息等等,这样,所述目标用户无论是发布文字、语音、视频或者图片等等,都可以根据所述目标用户的身体特征信息,生成对应的展示内容,从而丰富了用户的感受。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1示出根据本申请一个方面的一种生成展示内容的方法流程图;
图2示出根据本申请一个优选实施例的一种目标内容为文字信息时对应的显示效果示意图;
图3示出根据本申请另一个优选实施例的一种目标内容为语音信息时对应的显示效果示意图;
图4示出根据本申请又一个优选实施例的一种目标内容为视频信息时对应的显示效果示意图;
图5示出根据本申请另一个方面的一种用于生成展示内容的设备示意图。
附图中相同或相似的附图标记代表相同或相似的部件。
具体实施方式
下面结合附图对本发明作进一步详细描述。
在本申请一个典型的配置中,终端、服务网络的设备和可信方均包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括非暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
为更进一步阐述本申请所采取的技术手段及取得的效果,下面结合附图及较佳实施例,对本申请的技术方案,进行清楚和完整的描述。
图1示出根据本申请一个方面的一种生成展示内容的方法流程图,该方法包括:
S1获取目标用户在输入目标内容时的身体特征信息;
S2基于所述身体特征信息确定所述目标内容的显示效果;
S3基于所述显示效果生成所述目标内容对应的展示内容。
在该实施例中,在所述步骤S1中,获取目标用户在输入目标内容时的身体特征信息,优选地,所述目标内容包括以下至少任一项:文字信息、语音信息、视频信息、图片信息等等。应能理解,当用户在输入目标内容时,由于所述目标用户的情绪状态是不同的,因此会具有不同的身体特征信息,优选地,其中,所述身体特征信息包括但不限于:生理数据信息、行为数据信息。其中,所述生理数据信息用以反应所述目标用户在不同心理状态下的生理特征,所述生理数据信息包括但不限于:脉搏信息、血压信息、心跳信息等等;所述行为数据信息用以反应所述目标用户在不同心理状态下的行为特征,所述行为数据信息包括但不限于:面部表情信息、输入速度信息、握持压力信息。在此,所述身体特征信息仅为举例,其他现有的或者今后可能出现的身体特征信息,如适用于本申请也应包含在本申请的保护范围内,在此,以引用的方式包含于此。
具体地,获取目标用户在输入目标内容时的身体特征信息的方式,可以通过对应的硬件设备进行采集,所述硬件设备包括但不限于陀螺仪、压力传感器、脉搏传感器、血压传感器、温度传感器、血糖检测传感器、摄像头等等;或者可以通过输入所述目标内容对应的设备来获取。在此,所述获取目标用户在输入目标内容时的身体特征信息的方式仅为举例,其他现有的或者今后可能出现的获取目标用户在输入目标内容时的身体特征信息的方式,如适用于本申请也应包含在本申请的保护范围内,在此,以引用的方式包含于此。
继续在该实施例中,在所述步骤S2中,基于所述身体特征信息确定所述目标内容的显示效果,在此,不同的目标内容可以对应不同的显示效果,其中,当所述目标内容包括文字信息时,所述文字信息的显示效果包括对所述文字信息进行文字显示处理,其中,所述文字显示处理包括添加文字颜色、文字字体变形、添加文字背景颜色、添加背景图片、添加背景音乐、添加文字显示特效。
优选地,其中,所述目标内容包括语音信息,所述目标内容的显示效果包括对所述语音信息进行语音显示处理,其中,所述语音显示处理包括添加对应的表情符号、添加背景图片、添加背景音乐。在此,语音信息还可以通过文字信息的形式显示出来,相应地,显示效果可以根据前述文字信息的显示效果呈现。
优选地,其中,所述目标内容包括视频信息,所述目标内容的显示效果包括对所述视频信息进行视频显示处理,其中,所述视频显示处理包括但不限于添加对应的表情符号、添加对应的图片、添加相应的文字信息。
优选地,其中,所述目标内容包括图片信息,所述目标内容的显示效果包括对所述图片信息进行图片显示处理,其中,所述图片显示处理包括:裁剪图片、美化图片、变形图片。例如,在显示图片时,对图片进行滤镜处理,使图片的视觉效果更好。
在此,上述显示效果仅为举例,其他现有的或者今后可能出现的显示效果,如适用于本申请也应包含在本申请的保护范围内,在此,以引用的方式包含于此。用户在实际应用中,可以根据自己的需求选择不同的显示效果。
优选地,其中,所述步骤S2包括:S21(未示出)基于所述身体特征信息确定所述目标用户在输入目标内容时的心理状态;S22(未示出)基于所述心理状态确定所述目标内容的显示效果。
具体地,在所述步骤S21中,基于所述身体特征信息确定所述目标用户在输入目标内容时的心理状态,应能理解,不同身体特征信息对应不同的心理状态,例如,当脉搏或者心跳速度较快时,对应的心理状态会比较激动,例如,比较愤怒等等,又例如,当输入语音信息时,语音的大小或者语速的快慢都会对应不同的心理状态,例如,高兴、伤心、悲痛等等。
优选地,其中,所述步骤S21包括:将所述身体特征信息与样本身体特征信息作比较,基于所述样本身体特征信息对应的心理状态,确定所述目标用户在输入目标内容时的心理状态。
在此,所述样本身体特征信息包括对其他用户、所述目标用户或者其他用户以及所述目标用户的结合等的身体特征信息的历史数据通过机器自动学习、人工训练相结合的方式,确定的不同心理状态所对应的生理和行为特征的范围,比如血压范围、心跳范围、脉搏跳动范围、握持力度的大小以及输入文字的速度范围等等。因此,当获取到所述目标用户的身体特征信息后,将所述身体特征信息与所述样本身体特征信息作比较,从而确定所述目标用户在输入目标内容时的心理状态。
在一种优选的情形中,当所述样本身体特征信息是由所述目标用户的历史身体特征数据确定的自身样本身体特征信息,所述步骤S21包括:当存在自身样本身体特征信息,将所述身体特征信息与自身样本身体特征信息作比较,基于所述自身样本身体特征信息对应的心理状态,确定所述目标用户在输入目标内容时的心理状态。
由于个体差异的不同,每个人的身体特征信息可能会不同,例如,在平静状态下普通成年人的脉搏平均为每分钟75次,而运动员的脉搏在平静状态下每分钟可能低于60次,因此,自身样本身体特征信息能够更好的反应出用户自身的不同心理状态所对应的生理和行为特征的范围,所以当存在自身样本身体特征信息时,优选地将所述获取到的身体特征信息与自身样本身体特征信息作比较,从而确定所述目标用户在输入目标内容时的心理状态。
其中,所述自身样本身体特征信息包括对所述目标用户自身身体特征信息的历史数据通过机器自动学习、人工训练相结合的方式,确定的不同心理状态所对应的生理和行为特征的范围,比如血压范围、心跳范围、脉搏跳动范围、握持力度的大小以及输入文字的速度范围等等。在此,可以根据一个或多个生理和行为特征的范围来确定用户的不同心理状态,例如,通过所述目标用户的自身样本身体特征信息得出,所述目标用户高兴时所对应的心跳范围为A1-B1、对应的血压范围为C1-D1、对应的握持力度为E1-F1,那么可以通过比较获取到的所述目标用户当前的身体特征信息是否在此范围内来确定所述目标用户的心理状态是否为高兴等等,在此,上述示例仅为举例,并不做任何限定。在另一种情形中,当所述样本身体特征信息中不存在由所述目标用户的历史身体特征数据确定的自身样本身体特征信息,而存在由其他用户的历史身体特征数据确定的其他样本身体特征信息,或者存在由所述目标用户及其他用户的历史身体特征数据共同确定的综合样本身体特征信息,则根据由其他用户的历史数据确定的其他样本身体特征信息,或者存在由所述目标用户及其他用户的历史数据共同确定的综合样本身体特征信息来确定所述目标用户的心理状态。
进一步地,在所述步骤S22中,基于所述心理状态确定所述目标内容的显示效果。通过不同的心理状态对应不同的显示效果,这样能够帮助与所述目标用户交流的其他用户可以更好的感知所述目标用户所表达的心理状态,可以更好的促进交流,从而更好的拉近彼此的距离。
在此,也可以通过机器自动学习、人工训练相结合的方式来确定不同的心理状态应该对应哪一种显示效果。例如,当心理状态为开心时,可以将所述目标内容的字体颜色设为亮色系,或者,在呈现所述目标内容时,添加对应的表示开心的表情符号。如图2所示,为当所述目标内容为文字信息、且所述目标用户的心理状态为愉快时对应的显示效果示意图,在此,对所述文字信息添加了文字显示特效,能够更好的表达所述用户的心理状态;如图3所示,为当所述目标内容为语音信息、且所述目标用户的心理状态为愉快时对应的显示效果示意图,在此,为所述语音信息添加了对应的表情符号;又如图4所示,为当所述目标内容为视频信息、且所述目标用户的心理状态为愉快时对应的显示效果示意图,在此,根据视频信息中的人物表情添加了对应的表情符号。本领域普通技术人员可以理解实现上述生成展示内容的一个实施例方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,所述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,包括如下步骤:获取目标用户在输入目标内容时的身体特征信息;基于所述身体特征信息确定所述目标内容的显示效果;基于所述显示效果生成所述目标内容对应的展示内容。其中,所述的存储介质,如ROM/RAM、磁碟、光盘等。
与现有技术相比,本申请通过获取目标用户在输入目标内容时的身体特征信息,并基于所述身体特征信息确定所述目标内容的显示效果,然后基于所述显示效果生成所述目标内容对应的展示内容。通过这种方式,无需用户操作即可在用户输入目标内容时自动生成对应的展示内容,且所述展示内容能够更好、更准确的表达所述目标用户的状态,从而可以很好的提高用户体验。
而且,本申请还可以基于所述身体特征信息确定所述目标用户在输入目标内容时的心理状态,并基于所述心理状态确定所述目标内容的显示效果。这种方式,通过所述目标用户的心理状态来确定所述目标内容的显示效果,能够很好的表达出所述目标用户在输入所述目标内容时的心理感受和情绪状态,从而拉近了用户的距离,使远距离交互更加真实化。
此外,本申请中的所述目标内容包括以下至少任一项:文字信息、语音信息、视频信息、图片信息等等,这样,所述目标用户无论是发布文字、语音、视频或者图片等等,都可以根据所述目标用户的身体特征信息,生成对应的展示内容,从而丰富了用户的感受。
图5示出根据本申请另一个方面的一种生成展示内容的设备示意图,该设备1包括:
第一装置,用于获取目标用户在输入目标内容时的身体特征信息;
第二装置,用于基于所述身体特征信息确定所述目标内容的显示效果;
第三装置,用于基于所述显示效果生成所述目标内容对应的展示内容。
在该实施例中,所述设备1的第一装置获取目标用户在输入目标内容时的身体特征信息,优选地,所述目标内容包括以下至少任一项:文字信息、语音信息、视频信息、图片信息等等。应能理解,当用户在输入目标内容时,由于所述目标用户的情绪状态是不同的,因此会具有不同的身体特征信息,优选地,其中,所述身体特征信息包括但不限于:生理数据信息、行为数据信息。其中,所述生理数据信息用以反应所述目标用户在不同心理状态下的生理特征,所述生理数据信息包括但不限于:脉搏信息、血压信息、心跳信息等等;所述行为数据信息用以反应所述目标用户在不同心理状态下的行为特征,所述行为数据信息包括但不限于:面部表情信息、输入速度信息、握持压力信息。在此,所述身体特征信息仅为举例,其他现有的或者今后可能出现的身体特征信息,如适用于本申请也应包含在本申请的保护范围内,在此,以引用的方式包含于此。
具体地,获取目标用户在输入目标内容时的身体特征信息的方式,可以通过对应的硬件设备进行采集,所述硬件设备包括但不限于陀螺仪、压力传感器、脉搏传感器、血压传感器、温度传感器、血糖检测传感器、摄像头等等,在此,所述硬件设备可以与所述设备1之间进行数据传输;或者可以通过输入所述目标内容对应的设备1来获取。在此,所述获取目标用户在输入目标内容时的身体特征信息的方式仅为举例,其他现有的或者今后可能出现的获取目标用户在输入目标内容时的身体特征信息的方式,如适用于本申请也应包含在本申请的保护范围内,在此,以引用的方式包含于此。
继续在该实施例中,所述设备1的第二装置基于所述身体特征信息确定所述目标内容的显示效果,在此,不同的目标内容可以对应不同的显示效果,其中,当所述目标内容包括文字信息时,所述文字信息的显示效果包括对所述文字信息进行文字显示处理,其中,所述文字显示处理包括添加文字颜色、文字字体变形、添加文字背景颜色、添加背景图片、添加背景音乐、添加文字显示特效。
优选地,其中,所述目标内容包括语音信息,所述目标内容的显示效果包括对所述语音信息进行语音显示处理,其中,所述语音显示处理包括添加对应的表情符号、添加背景图片、添加背景音乐。在此,语音信息还可以通过文字信息的形式显示出来,相应地,显示效果可以根据前述文字信息的显示效果呈现。
优选地,其中,所述目标内容包括视频信息,所述目标内容的显示效果包括对所述视频信息进行视频显示处理,其中,所述视频显示处理包括但不限于添加对应的表情符号、添加对应的图片、添加相应的文字信息。
优选地,其中,所述目标内容包括图片信息,所述目标内容的显示效果包括对所述图片信息进行图片显示处理,其中,所述图片显示处理包括:裁剪图片、美化图片、变形图片。例如,在显示图片时,对图片进行滤镜处理,使图片的视觉效果更好。
在此,上述显示效果仅为举例,其他现有的或者今后可能出现的显示效果,如适用于本申请也应包含在本申请的保护范围内,在此,以引用的方式包含于此。用户在实际应用中,可以根据自己的需求选择不同的显示效果。
优选地,其中,所述第二装置包括:第一单元(未示出),用于基于所述身体特征信息确定所述目标用户在输入目标内容时的心理状态;第二单元(未示出),用于基于所述心理状态确定所述目标内容的显示效果。
具体地,所述第一单元基于所述身体特征信息确定所述目标用户在输入目标内容时的心理状态,应能理解,不同身体特征信息对应不同的心理状态,例如,当脉搏或者心跳速度较快时,对应的心理状态会比较激动,例如,比较愤怒等等,又例如,当输入语音信息时,语音的大小或者语速的快慢都会对应不同的心理状态,例如,高兴、伤心、悲痛等等。
优选地,其中,所述第一单元用于:将所述身体特征信息与样本身体特征信息作比较,基于所述样本身体特征信息对应的心理状态,确定所述目标用户在输入目标内容时的心理状态。
在此,所述样本身体特征信息包括对其他用户、所述目标用户或者其他用户以及所述目标用户的结合等的身体特征信息的历史数据通过机器自动学习、人工训练相结合的方式,确定的不同心理状态所对应的生理和行为特征的范围,比如血压范围、心跳范围、脉搏跳动范围、握持力度的大小以及输入文字的速度范围等等。因此,当获取到所述目标用户的身体特征信息后,将所述身体特征信息与所述样本身体特征信息作比较,从而确定所述目标用户在输入目标内容时的心理状态。
在一种优选的情形中,当所述样本身体特征信息是由所述目标用户的历史身体特征数据确定的自身样本身体特征信息,所述第一单元用于:当存在自身样本身体特征信息,将所述身体特征信息与自身样本身体特征信息作比较,基于所述自身样本身体特征信息对应的心理状态,确定所述目标用户在输入目标内容时的心理状态。
由于个体差异的不同,每个人的身体特征信息可能会不同,例如,在平静状态下普通成年人的脉搏平均为每分钟75次,而运动员的脉搏在平静状态下每分钟可能低于60次,因此,自身样本身体特征信息能够更好的反应出用户自身的不同心理状态所对应的生理和行为特征的范围,所以当存在自身样本身体特征信息时,优选地将所述获取到的身体特征信息与自身样本身体特征信息作比较,从而确定所述目标用户在输入目标内容时的心理状态。
其中,所述自身样本身体特征信息包括对所述目标用户自身身体特征信息的历史数据通过机器自动学习、人工训练相结合的方式,确定的不同心理状态所对应的生理和行为特征的范围,比如血压范围、心跳范围、脉搏跳动范围、握持力度的大小以及输入文字的速度范围等等。在此,可以根据一个或多个生理和行为特征的范围来确定用户的不同心理状态,例如,通过所述目标用户的自身样本身体特征信息得出,所述目标用户高兴时所对应的心跳范围为A1-B1、对应的血压范围为C1-D1、对应的握持力度为E1-F1,那么可以通过比较获取到的所述目标用户当前的身体特征信息是否在此范围内来确定所述目标用户的心理状态是否为高兴等等,在此,上述示例仅为举例,并不做任何限定。在另一种情形中,当所述样本身体特征信息中不存在由所述目标用户的历史身体特征数据确定的自身样本身体特征信息,而存在由其他用户的历史身体特征数据确定的其他样本身体特征信息,或者存在由所述目标用户及其他用户的历史身体特征数据共同确定的综合样本身体特征信息,则根据由其他用户的历史数据确定的其他样本身体特征信息,或者存在由所述目标用户及其他用户的历史数据共同确定的综合样本身体特征信息来确定所述目标用户的心理状态。
进一步地,所述第二单元基于所述心理状态确定所述目标内容的显示效果。通过不同的心理状态对应不同的显示效果,这样能够帮助与所述目标用户交流的其他用户可以更好的感知所述目标用户所表达的心理状态,可以更好的促进交流,从而更好的拉近彼此的距离。
在此,也可以通过机器自动学习、人工训练相结合的方式来确定不同的心理状态应该对应哪一种显示效果。例如,当心理状态为开心时,可以将所述目标内容的字体颜色设为亮色系,或者,在呈现所述目标内容时,添加对应的表示开心的表情符号。如图2所示,为当所述目标内容为文字信息、且所述目标用户的心理状态为愉快时对应的显示效果示意图,在此,对所述文字信息添加了文字显示特效,能够更好的表达所述用户的心理状态;如图3所示,为当所述目标内容为语音信息、且所述目标用户的心理状态为愉快时对应的显示效果示意图,在此,为所述语音信息添加了对应的表情符号;又如图4所示,为当所述目标内容为视频信息、且所述目标用户的心理状态为愉快时对应的显示效果示意图,在此,根据视频信息中的人物表情添加了对应的表情符号。
与现有技术相比,本申请通过获取目标用户在输入目标内容时的身体特征信息,并基于所述身体特征信息确定所述目标内容的显示效果,然后基于所述显示效果生成所述目标内容对应的展示内容。通过这种方式,无需用户操作即可在用户输入目标内容时自动生成对应的展示内容,且所述展示内容能够更好、更准确的表达所述目标用户的状态,从而可以很好的提高用户体验。
而且,本申请还可以基于所述身体特征信息确定所述目标用户在输入目标内容时的心理状态,并基于所述心理状态确定所述目标内容的显示效果。这种方式,通过所述目标用户的心理状态来确定所述目标内容的显示效果,能够很好的表达出所述目标用户在输入所述目标内容时的心理感受和情绪状态,从而拉近了用户的距离,使远距离交互更加真实化。
此外,本申请中的所述目标内容包括以下至少任一项:文字信息、语音信息、视频信息、图片信息等等,这样,所述目标用户无论是发布文字、语音、视频或者图片等等,都可以根据所述目标用户的身体特征信息,生成对应的展示内容,从而丰富了用户的感受。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。装置权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。
Claims (24)
1.一种生成展示内容的方法,其中,该方法包括:
获取目标用户在输入目标内容时的身体特征信息;
基于所述身体特征信息确定所述目标内容的显示效果;
基于所述显示效果生成所述目标内容对应的展示内容。
2.根据权利要求1所述的方法,其中,所述基于所述身体特征信息确定所述目标内容的显示效果包括:
基于所述身体特征信息确定所述目标用户在输入目标内容时的心理状态;
基于所述心理状态确定所述目标内容的显示效果。
3.根据权利要求2所述的方法,其中,所述基于所述身体特征信息确定所述目标用户在输入目标内容时的心理状态包括:
将所述身体特征信息与样本身体特征信息作比较,基于所述样本身体特征信息对应的心理状态,确定所述目标用户在输入目标内容时的心理状态。
4.根据权利要求3所述的方法,其中,所述样本身体特征信息包括以下至少任一项:
自身样本身体特征信息;
其他样本身体特征信息;
综合样本身体特征信息。
5.根据权利要求4所述的方法,其中,当所述样本身体特征信息包含自身样本身体特征信息,所述基于所述身体特征信息确定所述目标用户在输入目标内容时的心理状态包括:
将所述身体特征信息与自身样本身体特征信息作比较,基于所述自身样本身体特征信息对应的心理状态,确定所述目标用户在输入目标内容时的心理状态。
6.根据权利要求1至5中任一项所述的方法,其中,所述目标内容包括文字信息,所述目标内容的显示效果包括对所述文字信息进行文字显示处理,其中,所述文字显示处理包括添加文字颜色、文字字体变形、添加文字背景颜色、添加背景图片、添加背景音乐、添加文字显示特效。
7.根据权利要求1至5中任一项所述的方法,其中,所述目标内容包括语音信息,所述目标内容的显示效果包括对所述语音信息进行语音显示处理,其中,所述语音显示处理包括添加对应的表情符号、添加背景图片、添加背景音乐。
8.根据权利要求1至5中任一项所述的方法,其中,所述目标内容包括视频信息,所述目标内容的显示效果包括对所述视频信息进行视频显示处理,其中,所述视频显示处理包括添加对应的表情符号、添加对应的图片、添加相应的文字信息。
9.根据权利要求1至5中任一项所述的方法,其中,所述目标内容包括图片信息,所述目标内容的显示效果包括对所述图片信息进行图片显示处理,其中,所述图片显示处理包括:裁剪图片、美化图片、变形图片。
10.根据权利要求1至5中任一项所述的方法,其中,所述身体特征信息包括以下至少任一项:
生理数据信息,所述生理数据信息用以反应所述目标用户在不同心理状态下的生理特征;
行为数据信息,所述行为数据信息用以反应所述目标用户在不同心理状态下的行为特征。
11.根据权利要求10所述的方法,其中,所述生理数据信息包括以下至少任一项:
脉搏信息;
血压信息;
心跳信息。
12.根据权利要求10所述的方法,其中,所述行为数据信息包括以下至少任一项:
面部表情信息;
输入速度信息;
握持压力信息。
13.一种生成展示内容的设备,其中,该设备包括:
第一装置,用于获取目标用户在输入目标内容时的身体特征信息;
第二装置,用于基于所述身体特征信息确定所述目标内容的显示效果;
第三装置,用于基于所述显示效果生成所述目标内容对应的展示内容。
14.根据权利要求13所述的设备,其中,所述第二装置包括:
第一单元,用于基于所述身体特征信息确定所述目标用户在输入目标内容时的心理状态;
第二单元,用于基于所述心理状态确定所述目标内容的显示效果。
15.根据权利要求14所述的设备,其中,所述第一单元用于:
将所述身体特征信息与样本身体特征信息作比较,基于所述样本身体特征信息对应的心理状态,确定所述目标用户在输入目标内容时的心理状态。
16.根据权利要求15所述的设备,其中,所述样本身体特征信息包括以下至少任一项:
自身样本身体特征信息;
其他样本身体特征信息;
综合样本身体特征信息。
17.根据权利要求16所述的设备,其中,当所述样本身体特征信息包含自身样本身体特征信息,所述第一单元用于:
将所述身体特征信息与自身样本身体特征信息作比较,基于所述自身样本身体特征信息对应的心理状态,确定所述目标用户在输入目标内容时的心理状态。
18.根据权利要求13至17中任一项所述的设备,其中,所述目标内容包括文字信息,所述目标内容的显示效果包括对所述文字信息进行文字显示处理,其中所述文字显示处理包括添加文字颜色、文字字体变形、添加文字背景颜色、添加背景图片、添加背景音乐、添加文字显示特效。
19.根据权利要求13至17中任一项所述的设备,其中,所述目标内容包括语音信息,所述目标内容的显示效果包括对所述语音信息进行语音显示处理,其中,所述语音显示处理包括添加对应的表情符号、添加背景图片、添加背景音乐。
20.根据权利要求13至17中任一项所述的设备,其中,所述目标内容包括视频信息,所述目标内容的显示效果包括对所述视频信息进行视频显示处理,其中,所述视频显示处理包括添加对应的表情符号、添加对应的图片、添加相应的文字信息。
21.根据权利要求13至17中任一项所述的设备,其中,所述目标内容包括图片信息,所述目标内容的显示效果包括对所述图片信息进行图片显示处理,其中,所述图片显示处理包括:裁剪图片、美化图片、变形图片。
22.根据权利要求13至17中任一项所述的设备,其中,所述身体特征信息包括以下至少任一项:
生理数据信息,所述生理数据信息用以反应所述目标用户在不同心理状态下的生理特征;
行为数据信息,所述行为数据信息用以反应所述目标用户在不同心理状态下的行为特征。
23.根据权利要求22所述的设备,其中,所述生理数据信息包括以下至少任一项:
脉搏信息;
血压信息;
心跳信息。
24.根据权利要求22所述的设备,其中,所述行为数据信息包括以下至少任一项:
面部表情信息;
输入速度信息;
握持压力信息。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710161738.XA CN108628504A (zh) | 2017-03-17 | 2017-03-17 | 一种生成展示内容的方法与设备 |
SG11201908577W SG11201908577WA (en) | 2017-03-17 | 2017-11-29 | A method and a device for generating a presentation content |
PCT/CN2017/113456 WO2018166241A1 (zh) | 2017-03-17 | 2017-11-29 | 一种生成展示内容的方法与设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710161738.XA CN108628504A (zh) | 2017-03-17 | 2017-03-17 | 一种生成展示内容的方法与设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108628504A true CN108628504A (zh) | 2018-10-09 |
Family
ID=63521963
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710161738.XA Pending CN108628504A (zh) | 2017-03-17 | 2017-03-17 | 一种生成展示内容的方法与设备 |
Country Status (3)
Country | Link |
---|---|
CN (1) | CN108628504A (zh) |
SG (1) | SG11201908577WA (zh) |
WO (1) | WO2018166241A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109688264A (zh) * | 2018-12-17 | 2019-04-26 | 咪咕数字传媒有限公司 | 一种电子设备显示状态调整方法、装置及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102323919A (zh) * | 2011-08-12 | 2012-01-18 | 百度在线网络技术(北京)有限公司 | 一种基于用户情绪指示信息显示输入信息的方法与设备 |
CN103926997A (zh) * | 2013-01-11 | 2014-07-16 | 北京三星通信技术研究有限公司 | 一种基于用户的输入确定情绪信息的方法和终端 |
CN105955490A (zh) * | 2016-06-28 | 2016-09-21 | 广东欧珀移动通信有限公司 | 一种基于增强现实的信息处理方法、装置和移动终端 |
-
2017
- 2017-03-17 CN CN201710161738.XA patent/CN108628504A/zh active Pending
- 2017-11-29 SG SG11201908577W patent/SG11201908577WA/en unknown
- 2017-11-29 WO PCT/CN2017/113456 patent/WO2018166241A1/zh active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102323919A (zh) * | 2011-08-12 | 2012-01-18 | 百度在线网络技术(北京)有限公司 | 一种基于用户情绪指示信息显示输入信息的方法与设备 |
CN103926997A (zh) * | 2013-01-11 | 2014-07-16 | 北京三星通信技术研究有限公司 | 一种基于用户的输入确定情绪信息的方法和终端 |
CN105955490A (zh) * | 2016-06-28 | 2016-09-21 | 广东欧珀移动通信有限公司 | 一种基于增强现实的信息处理方法、装置和移动终端 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109688264A (zh) * | 2018-12-17 | 2019-04-26 | 咪咕数字传媒有限公司 | 一种电子设备显示状态调整方法、装置及存储介质 |
CN109688264B (zh) * | 2018-12-17 | 2021-02-12 | 咪咕数字传媒有限公司 | 一种电子设备显示状态调整方法、装置及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
SG11201908577WA (en) | 2019-10-30 |
WO2018166241A1 (zh) | 2018-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11973732B2 (en) | Messaging system with avatar generation | |
US11157700B2 (en) | Mood map for assessing a dynamic emotional or mental state (dEMS) of a user | |
KR102457486B1 (ko) | 인터랙티브 다이얼로그 시스템을 위한 감정 유형 분류 | |
US20200242826A1 (en) | Augmented expression system | |
US20170323158A1 (en) | Identification of Objects in a Scene Using Gaze Tracking Techniques | |
WO2017101094A1 (en) | Avatar animation system | |
CN113892095A (zh) | 基于上下文的媒体策展 | |
CN113892096A (zh) | 动态媒体选择菜单 | |
Martinez | Criteria for defining animation: A revision of the definition of animation in the advent of digital moving images | |
US11455765B2 (en) | Method and apparatus for generating virtual avatar | |
CN108363487B (zh) | 梦境重现模型的构建方法、梦境重现方法及装置 | |
US11362981B2 (en) | System and method for delivering a digital therapeutic from a parsed electronic message | |
US20190260703A1 (en) | System and Method for an Audio-Based Digital Therapeutic Delivery | |
EP3830798A1 (en) | Controlling content included in a spatial mapping | |
US11076794B2 (en) | Predicting thought based on neural mapping | |
KR101988334B1 (ko) | 이동 전화기 및 이동전화기에서 재생되는 미디어 컨텐츠의 효율성 분석 방법 | |
CN115335820A (zh) | 用于大规模增强现实的位置映射 | |
EP3856012B1 (en) | Visualized virtual agent | |
CN108628504A (zh) | 一种生成展示内容的方法与设备 | |
US11412968B2 (en) | System and method for a digital therapeutic delivery of generalized clinician tips (GCT) | |
CN115280357A (zh) | 社交媒体接口 | |
Ryokai et al. | Personal laughter archives: reflection through visualization and interaction | |
US20120059781A1 (en) | Systems and Methods for Creating or Simulating Self-Awareness in a Machine | |
US20240071242A1 (en) | Mixed reality scenario generation for cross-industry training | |
Manna et al. | Demystifying metaverse data from user-technology interaction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20181009 |
|
RJ01 | Rejection of invention patent application after publication |