CN113744445B - 一种比赛投票方法、装置、计算机设备和存储介质 - Google Patents

一种比赛投票方法、装置、计算机设备和存储介质 Download PDF

Info

Publication number
CN113744445B
CN113744445B CN202111040502.3A CN202111040502A CN113744445B CN 113744445 B CN113744445 B CN 113744445B CN 202111040502 A CN202111040502 A CN 202111040502A CN 113744445 B CN113744445 B CN 113744445B
Authority
CN
China
Prior art keywords
emotion
user
target
voting
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111040502.3A
Other languages
English (en)
Other versions
CN113744445A (zh
Inventor
马杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Thunderstone Technology Co ltd
Original Assignee
Beijing Thunderstone Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Thunderstone Technology Co ltd filed Critical Beijing Thunderstone Technology Co ltd
Priority to CN202111040502.3A priority Critical patent/CN113744445B/zh
Publication of CN113744445A publication Critical patent/CN113744445A/zh
Application granted granted Critical
Publication of CN113744445B publication Critical patent/CN113744445B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C13/00Voting apparatus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02438Detecting, measuring or recording pulse rate or heart rate with portable devices, e.g. worn by the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/053Measuring electrical impedance or conductance of a portion of the body
    • A61B5/0531Measuring skin impedance
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1107Measuring contraction of parts of the body, e.g. organ, muscle
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/091Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Cardiology (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Hospice & Palliative Care (AREA)
  • Child & Adolescent Psychology (AREA)
  • Pulmonology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Fuzzy Systems (AREA)
  • Evolutionary Computation (AREA)
  • Dermatology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Dentistry (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)

Abstract

本申请涉及一种比赛投票方法、系统、计算机设备和存储介质,所述方法包括:获取用户欣赏N首歌曲时的N段用户行为,对每一段用户行为进行分析,确定N个情绪值,根据N个情绪值对参赛者进行投票。其中,通过用户真实的用户行为确定用户听歌时候的情绪值,能准确获得用户因当前歌曲的感动程度或者兴奋程度,从而根据准确的情绪值对参赛者进行客观公平的投票,避免观众忽略参赛者的表现而仅仅为自己的爱豆投票的现象。

Description

一种比赛投票方法、装置、计算机设备和存储介质
技术领域
本申请涉及娱乐软件领域,特别是涉及一种比赛投票方法、装置、计算机设备和存储介质。
背景技术
时代变迁,科技发达,影像技术的提升让我们的生活变得多姿多彩。无论是电视还是网络,各种各样的娱乐节目充斥着人们的眼球,带给人们各种各样的情绪。近年来的井喷式的选秀节目更是成为了年轻人的茶余饭后的谈资。
选秀节目中必不可少的一个环节就是投票,现有的投票方式分为线上投票和现场投票,无论哪种投票,基本都是爱豆为自己喜欢的参赛人员进行投票。例如,在现场投票时,很多爱豆就是为了看自己喜欢的参赛人员并支持他而去现场,因此,现场投票也变成了爱豆为自己喜欢的参赛人员进行投票,而不是根据参赛人员的现场表现和实力进行投票,这样的投票方法失去了公平比赛的意义。
发明内容
基于此,有必要针对上述技术问题,提供一种比赛投票方法、装置、计算机设备和存储介质。
第一方面,提供一种比赛投票方法,所述比赛投票方法包括:
获取用户欣赏N首歌曲时的N段用户行为;其中,N为正整数;
对每一段用户行为进行分析,确定N个情绪值;
根据所述N个情绪值对参赛者进行投票。
在其中一个实施例中,所述对每一段用户行为进行分析,确定N个情绪值,包括:
获取目标歌曲的类型;所述目标歌曲为N首歌曲中的一首;
根据目标歌曲的类型,对所述目标歌曲对应的用户行为进行分析,确定情绪值。
在其中一个实施例中,所述根据目标歌曲的类型,对所述目标歌曲对应的用户行为进行分析,确定情绪值,包括:
根据所述目标歌曲的类型,确定与所述类型对应的情绪分析模型;
根据所述情绪分析模型对所述目标歌曲对应的用户行为进行分析,确定情绪值。
在其中一个实施例中,所述根据所述N个情绪值对参赛者进行投票,包括:
对所述N个情绪值进行排序,得到排序结果;
根据所述排序结果对N个参赛者进行投票。
在其中一个实施例中,每段用户行为对应参赛者的标识;
所述根据所述N个情绪值对参赛者进行投票,包括:
获取所述N个情绪值中的最大值,作为目标情绪值;
根据所述目标情绪值确定对应的目标用户行为;
根据所述目标用户行为和参赛者的标识,确定目标参赛者;
对所述目标参赛者进行投票。
第二方面,提供一种比赛投票装置,所述比赛投票装置包括:
行为获取模块,用于获取用户欣赏N首歌曲时的N段用户行为;其中,N为正整数;
情绪值确定模块,用于对每一段用户行为进行分析,确定N个情绪值;
投票模块,用于根据所述N个情绪值对参赛者进行投票。
在其中一个实施例中,所述情绪值确定模块用于:
获取目标歌曲的类型;所述目标歌曲为N首歌曲中的一首;
根据目标歌曲的类型,对所述目标歌曲对应的用户行为进行分析,确定情绪值。
在其中一个实施例中,所述投票模块用于:
对所述N个情绪值进行排序,得到排序结果;
根据所述排序结果对N个参赛者进行投票。
第三方面,提供一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取用户欣赏N首歌曲时的N段用户行为;其中,N为正整数;
对每一段用户行为进行分析,确定N个情绪值;
根据所述N个情绪值对参赛者进行投票。
第四方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取用户欣赏N首歌曲时的N段用户行为;其中,N为正整数;
对每一段用户行为进行分析,确定N个情绪值;
根据所述N个情绪值对参赛者进行投票。
上述比赛投票方法、装置、计算机设备和存储介质,方法包括:获取用户欣赏N首歌曲时的N段用户行为,对每一段用户行为进行分析,确定N个情绪值,根据N个情绪值对参赛者进行投票。其中,通过用户真实的用户行为确定用户听歌时候的情绪值,能准确获得用户因当前歌曲的感动程度或者兴奋程度,从而根据准确的情绪值对参赛者进行客观公平的投票,避免观众忽略参赛者的表现而仅仅为自己的爱豆投票的现象。
附图说明
图1为一个实施例中比赛投票方法的流程示意图;
图2为另一个实施例中比赛投票方法的流程示意图;
图3为一个实施例中比赛投票装置的结构框图;
图4为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在一个实施例中,如图1所示,提供了一种比赛投票方法,包括以下步骤:
步骤101,获取用户欣赏N首歌曲时的N段用户行为;其中,N为正整数;
其中,用户行为包括用户听到歌曲时候的生理信号和非生理信号。生理信号包括自主神经信号和中枢神经信号。自主神经信号包括心率、皮肤阻抗、呼吸等生理信号。中枢神经信号包括大脑发出信号。非生理信号包括面部表情信号。面部表情信号包括面部肌肉运动信号。
其中,在用户欣赏当前歌曲的时候,就会收集当前歌曲的用户行为。每首歌曲对应一段用户行为。
其中,每位用户进入比赛现场的时候,给该用户佩戴一个可穿戴设备,用于采集用户行为。可选地,可穿戴设备带在头上,可穿戴设备上有摄像装置,用于采集面部表情信号。可选地,可穿戴设备带在手腕上,用于采集心率、皮肤阻抗等生理信号。可选地,可穿戴设备带在胸口,用于采集心率、皮肤阻抗、呼吸等生理信号。
其中,现场安装有若干的摄像装置,每个摄像装置用于采集固定区域的人脸图像,进行人脸分割,将包含N个人脸(1、2、3......N)的一张图像分割成N个分割块,并通过人脸识别技术,确定每个分割块的用户的身份(例如,用户标识)。从而在用户(人脸1)欣赏当前歌曲的时候,就会收集当前歌曲的用户(人脸1)的面部表情信号。通过该方法,获得全场每个用户的面部表情信号。
步骤102,对每一段用户行为进行分析,确定N个情绪值;
其中,对生理信号,和/或,非生理信号进行分析,确定每一段用户行为对应的情绪值。
其中,对非生理信号进行分析主要对面部表情信号进行分析。面部表情信号分析方法是根据表情与情绪间的对应关系来识别不同的情绪,在特定情绪状态下人们会产生特定的面部肌肉运动和表情模式,如心情愉悦时嘴角上翘,眼部会出现环形褶皱;愤怒时会皱眉,睁大眼睛等。
对生理信号进行分析主要对自主神经信号和中枢神经信号进行分析。基于自主神经信号的分析方法是指通过测量心率、皮肤阻抗、呼吸等生理信号来识别对应的情绪状态。基于中枢神经信号的分析方法是指通过分析不同情绪状态下大脑发出的不同信号来识别相应的情绪。这种基于生理信号的情绪识别方法不易被伪装,并且与基于非生理信号的识别方法相比识别率更高。
在本发明实施例中,可以在获取到一段用户行为后就进行分析,得到该段用户行为对应的情绪值,也可以在获得N段用户行为后,对每一段用户行为进行分析,得到每段用户行为对应的情绪值。
其中,如步骤101中所述的,进入现场的每个用户都会分配一个用户标识,例如,给用户A佩戴一个可穿戴设备0001,给用户B佩戴一个可穿戴设备0002,可穿戴设备0001采集的用户A的生理信号记为生理信号0001,若可穿戴设备0001可以采集非生理信号,将采集的用户A的非生理信号记为非生理信号0001。可穿戴设备0002采集的用户B的生理信号记为生理信号0002,若可穿戴设备0002可以采集非生理信号,将采集的用户B的非生理信号记为非生理信号0002。
现场安装的摄像装置采集一段视频,该视频里包含用户A和用户B,进行人脸分割及人脸识别,得到用户A的对应的视频,该视频标记为0001,从视频0001中分析用户A的面部表情信号,得到用户A的面部表情信号0001。
在可穿戴设备不可以采集非生理信号的时候,将面部表情信号0001和生理信号0001进行结合,分析用户A的情绪值。将面部表情信号0002和生理信号0002进行结合,分析用户B的情绪值,
在可穿戴设备可以采集非生理信号的时候,将面部表情信号0001、生理信号0001、非生理信号0001进行结合,分析用户A的情绪值。将面部表情信号0002、生理信号0002、非生理信号0002进行结合,分析用户B的情绪值。
其中,人脸分割和人脸识别技术,属于本领域的现有技术,此处不加以赘述。此外,对生理信号或非生理信号进行分析,确定用户情绪值,也属于现有的AI技术(情绪识分析技术)。但是,在本实施例的场景下,利用人脸分割、人脸识别技术和情绪识分析技术,采集面部表情信号,并将面部表情信号和可穿戴设备采集的信号进行结合,分析用户的情绪值,是现有技术中没有的方案。且本发明的方案,通过上述创新性的信息采集、信息结合以及信息分析,可以得到特殊场景(比赛现场)的用户情绪值,从而可以准确得知用户在欣赏到某个参赛者表演时候的感动感染程度,间接获知该参赛者的表现。例如,参赛者唱的不好,用户没有受到感染感动,情绪值没有太大起伏变化。
步骤103,根据所述N个情绪值对参赛者进行投票。
在本发明实施例中,情绪值表示用户听到当前歌曲的情感波动,例如,感动程度或者兴奋程度,例如,当听到两首欢快的歌曲(歌曲A和歌曲B),用户甲听到歌曲A的时候的情绪值是100,用户甲听到歌曲B的时候的情绪值是80,则表示用户甲更喜欢歌曲A,则根据情绪值对唱歌曲A的参赛者投一票,从而根据准确的情绪值对参赛者进行客观公平的投票。
在本发明实施例中,获取用户欣赏N首歌曲时的N段用户行为,对每一段用户行为进行分析,确定N个情绪值,根据N个情绪值对参赛者进行投票。其中,通过用户真实的用户行为确定用户听歌时候的情绪值,能准确获得用户因当前歌曲的感动程度或者兴奋程度,从而根据准确的情绪值对参赛者进行客观公平的投票,避免观众忽略参赛者的表现而仅仅为自己的爱豆投票的现象。
在一个实施例中,如图2所示,提供了一种比赛投票方法,包括以下步骤:
步骤S201,获取用户欣赏N首歌曲时的N段用户行为;其中,N为正整数;
在本发明实施例中,步骤S201的描述和上一实施例中的步骤S101描述的内容一致,此处不再加以赘述。
步骤S202,获取目标歌曲的类型;所述目标歌曲为N首歌曲中的一首;
在本发明实施例中,每首歌曲都有自己的类型,包括伤感类型、放松类型、安静类型、兴奋类型、快乐类型中的至少之一。其中,每首歌可以只有一种类型,也可以有多种类型。
步骤S203,根据目标歌曲的类型,对所述目标歌曲对应的用户行为进行分析,确定情绪值;
在本发明实施例中,每种类型对应一种分析方式,例如,伤感类型对应一种伤感情绪的分析方式,根据该分析方式对用户行为进行分析,确定情绪值。兴奋类型对应一种兴奋情绪的分析方式,根据该分析方式对用户行为进行分析,确定情绪值。
可选地,根据所述目标歌曲的类型,确定与所述类型对应的情绪分析模型;根据所述情绪分析模型对所述目标歌曲对应的用户行为进行分析,确定情绪值。
在本发明实施例中,每种类型对应一种情绪分析模型,伤感类型对应伤感情绪分析模型,放松类型对应放松情绪分析模型,兴奋类型对应兴奋情绪分析模型,等等。
其中,预先采集大量的用户行为,对采集的数据(用户行为)进行训练,得到各种情绪分析模型。例如,采集大量的用户听伤感歌曲或者在伤感时候的行为数据,对采集的行为数据进行训练,得到伤感情绪分析模型。该伤感情绪分析模型的输出结果是一个伤感情绪的情绪值。
其中,关于模型的相关内容,例如,数据采集,确定样本集,模型训练,模型收敛,得到训练好的模型的相关内容都属于现有的技术,此处不加以赘述。
步骤S204,根据所述N个情绪值对参赛者进行投票。
在本发明实施例中,步骤S204的描述和上一实施例中的步骤S103描述的内容一致,此处不再加以赘述。
在本发明实施例中,获取用户欣赏N首歌曲时的N段用户行为,获取目标歌曲的类型,目标歌曲为N首歌曲中的一首,根据目标歌曲的类型,对目标歌曲对应的用户行为进行分析,确定情绪值,根据N个情绪值对参赛者进行投票。其中,通过用户真实的用户行为确定用户听歌时候的情绪值,能准确获得用户因当前歌曲的感动程度或者兴奋程度,从而根据准确的情绪值对参赛者进行客观公平的投票,避免观众忽略参赛者的表现而仅仅为自己的爱豆投票的现象。
在一个实施例中,根据所述N个情绪值对参赛者进行投票,包括:
对所述N个情绪值进行排序,得到排序结果;根据所述排序结果对N个参赛者进行投票。
在本发明实施例中,每个情绪分析模型的输出一个情绪值,例如,伤感情绪分析模型输出伤感情绪的情绪值90,放松情绪分析模型输出放松情绪的情绪值70,兴奋情绪分析模型输出兴奋情绪的情绪值100。对3个情绪值进行排序,得到排序结果,根据排序结果对各参赛者进行投票。可选地,根据参赛者的人数对各参赛者进行投票,例如,有3个参赛者,对情绪值100对应的参赛者投3票,对情绪值90对应的参赛者投2票,对情绪值70对应的参赛者投1票。
其中,获取每个观众在心态平静时候的情绪值,具体获取方式不限定。获取该观众的听歌时候的情绪值与心态平静时候的情绪值的差值的绝对值,可以得知该观众的情绪变化幅度;对每个观众执行上述操作,得到N个情绪变化幅度;根据N个情绪变化幅度,对N个参赛者进行投票。例如,可以按照上述方法对N个情绪变化幅度进行排序,得到排序结果,根据排序结果对N个参赛者进行投票。或者,将N个情绪变化幅度中的最大值,作为目标情绪变化幅度;根据目标情绪变化幅度确定对应的目标用户行为;获取该目标用户行为对应的参赛者,对该参赛者进行投票。
在一个实施例中,每段用户行为对应参赛者的标识;所述根据所述N个情绪值对参赛者进行投票,包括:获取所述N个情绪值中的最大值,作为目标情绪值;根据所述目标情绪值确定对应的目标用户行为;根据所述目标用户行为和参赛者的标识,确定目标参赛者;对所述目标参赛者进行投票。
在本发明实施例中,参赛者与歌曲存在对应关系,歌曲与用户行为存在对应关系,用户行为与情绪值存在对应关系,即参赛者、歌曲、用户行为、情绪值之间存在对应关系。
在本发明实施例中,例如,参赛者甲(参赛者的标识为001)唱了伤感歌曲A,伤感歌曲A对应第一段用户行为,该段用户行为对应参赛者的标识001,伤感情绪分析模型输出伤感情绪的情绪值90,情绪值90对应参赛者的标识001。参赛者乙(参赛者的标识为002)唱了放松歌曲B,放松歌曲B对应第二段用户行为,该段用户行为对应参赛者的标识002,放松情绪分析模型输出放松情绪的情绪值70,情绪值70对应参赛者的标识002。参赛者丙(参赛者的标识为003)唱了兴奋歌曲C,兴奋歌曲C对应第三段用户行为,该段用户行为对应参赛者的标识003,兴奋情绪分析模型输出兴奋情绪的情绪值100,情绪值100对应参赛者的标识003。
之后,获取3个情绪值中的最大值100,作为目标情绪值,根据目标情绪值确定对应的目标用户行为(第三段用户行为),根据目标用户行为和参赛者的标识003,确定目标参赛者为丙,对目标参赛者丙进行投票。
可选地,可以获取每个观众在心态平静时候的情绪值,具体获取方式不限定。获取该观众的听歌时候的情绪值与心态平静时候的情绪值的差值的绝对值,可以得知该观众的情绪变化幅度;对每个观众执行上述操作,得到3个情绪变化幅度;根据3个情绪变化幅度,对3个参赛者进行投票。获取3个情绪值中的最大值100,作为目标情绪值,根据目标情绪值确定对应的目标用户行为(第三段用户行为),根据目标用户行为和参赛者的标识003,确定目标参赛者为丙,对目标参赛者丙进行投票。
应该理解的是,虽然图1和图2的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1和图2中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图3所示,提供了一种比赛投票装置,所述比赛投票装置包括:
行为获取模块301,用于获取用户欣赏N首歌曲时的N段用户行为;其中,N为正整数;
情绪值确定模块302,用于对每一段用户行为进行分析,确定N个情绪值;
投票模块303,用于根据所述N个情绪值对参赛者进行投票。
在可选地一个实施例中,所述情绪值确定模块用于:
获取目标歌曲的类型;所述目标歌曲为N首歌曲中的一首;
根据目标歌曲的类型,对所述目标歌曲对应的用户行为进行分析,确定情绪值。
在可选地一个实施例中,所述情绪值确定模块还用于:
根据所述目标歌曲的类型,确定与所述类型对应的情绪分析模型;
根据所述情绪分析模型对所述目标歌曲对应的用户行为进行分析,确定情绪值。
在可选地一个实施例中,所述投票模块用于:
对所述N个情绪值进行排序,得到排序结果;
根据所述排序结果对N个参赛者进行投票。
在可选地一个实施例中,每段用户行为对应参赛者的标识;所述投票模块用于:
获取所述N个情绪值中的最大值,作为目标情绪值;
根据所述目标情绪值确定对应的目标用户行为;
根据所述目标用户行为和参赛者的标识,确定目标参赛者;
对所述目标参赛者进行投票。
关于比赛投票装置的具体限定可以参见上文中对于比赛投票方法的限定,在此不再赘述。上述比赛投票装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图4所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种比赛投票方法。
本领域技术人员可以理解,图4中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现以下步骤:
获取用户欣赏N首歌曲时的N段用户行为;其中,N为正整数;
对每一段用户行为进行分析,确定N个情绪值;
根据所述N个情绪值对参赛者进行投票。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
获取目标歌曲的类型;所述目标歌曲为N首歌曲中的一首;
根据目标歌曲的类型,对所述目标歌曲对应的用户行为进行分析,确定情绪值。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
根据所述目标歌曲的类型,确定与所述类型对应的情绪分析模型;
根据所述情绪分析模型对所述目标歌曲对应的用户行为进行分析,确定情绪值。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
对所述N个情绪值进行排序,得到排序结果;
根据所述排序结果对N个参赛者进行投票。
在一个实施例中,每段用户行为对应参赛者的标识,处理器执行计算机程序时还实现以下步骤:
获取所述N个情绪值中的最大值,作为目标情绪值;
根据所述目标情绪值确定对应的目标用户行为;
根据所述目标用户行为和参赛者的标识,确定目标参赛者;
对所述目标参赛者进行投票。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取用户欣赏N首歌曲时的N段用户行为;其中,N为正整数;
对每一段用户行为进行分析,确定N个情绪值;
根据所述N个情绪值对参赛者进行投票。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
获取目标歌曲的类型;所述目标歌曲为N首歌曲中的一首;
根据目标歌曲的类型,对所述目标歌曲对应的用户行为进行分析,确定情绪值。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
根据所述目标歌曲的类型,确定与所述类型对应的情绪分析模型;
根据所述情绪分析模型对所述目标歌曲对应的用户行为进行分析,确定情绪值。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
对所述N个情绪值进行排序,得到排序结果;
根据所述排序结果对N个参赛者进行投票。
在一个实施例中,每段用户行为对应参赛者的标识,计算机程序被处理器执行时还实现以下步骤:
获取所述N个情绪值中的最大值,作为目标情绪值;
根据所述目标情绪值确定对应的目标用户行为;
根据所述目标用户行为和参赛者的标识,确定目标参赛者;
对所述目标参赛者进行投票。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (5)

1.一种比赛投票方法,其特征在于,所述比赛投票方法包括:
获取用户欣赏N首歌曲时的N段用户行为,所述用户行为包括用户听到歌曲时候的生理信号和非生理信号;其中,N为正整数;其中,每一段用户行为对应参赛者的标识;
对每一段用户行为进行分析,确定N个情绪值;
对所述N个情绪值进行排序,得到排序结果,其中,排序结果中的每个情绪值对应参赛者的标识;
根据所述排序结果对N个参赛者进行投票;
所述对每一段用户行为进行分析,确定N个情绪值,包括:
获取目标歌曲的类型;所述目标歌曲为N首歌曲中的一首;
根据目标歌曲的类型,对所述目标歌曲对应的用户行为进行分析,确定情绪值;
所述根据目标歌曲的类型,对所述目标歌曲对应的用户行为进行分析,确定情绪值,包括:
根据所述目标歌曲的类型,确定与所述类型对应的情绪分析模型;
根据所述情绪分析模型对所述目标歌曲对应的用户行为进行分析,确定情绪值;
获取每个观众在心态平静时候的情绪值,获取该观众的听歌时候的情绪值与心态平静时候的情绪值的差值的绝对值,可以得知该观众的情绪变化幅度;对每个观众执行上述操作,得到N个情绪变化幅度;根据N个情绪变化幅度,对N个参赛者进行投票。
2.根据权利要求1所述的比赛投票方法,其特征在于,每段用户行为对应参赛者的标识;
所述根据所述N个情绪值对参赛者进行投票,包括:
获取所述N个情绪值中的最大值,作为目标情绪值;
根据所述目标情绪值确定对应的目标用户行为;
根据所述目标用户行为和参赛者的标识,确定目标参赛者;
对所述目标参赛者进行投票;
将N个情绪变化幅度中的最大值,作为目标情绪变化幅度;根据目标情绪变化幅度确定对应的目标用户行为;获取该目标用户行为对应的参赛者,对该参赛者进行投票。
3.一种比赛投票装置,其特征在于,所述比赛投票装置包括:
行为获取模块,用于获取用户欣赏N首歌曲时的N段用户行为,所述用户行为包括用户听到歌曲时候的生理信号和非生理信号;其中,N为正整数;其中,每一段用户行为对应参赛者的标识;
情绪值确定模块,用于对每一段用户行为进行分析,确定N个情绪值;所述对每一段用户行为进行分析,确定N个情绪值,包括:
获取目标歌曲的类型;所述目标歌曲为N首歌曲中的一首;
根据目标歌曲的类型,对所述目标歌曲对应的用户行为进行分析,确定情绪值;
所述根据目标歌曲的类型,对所述目标歌曲对应的用户行为进行分析,确定情绪值,包括:
根据所述目标歌曲的类型,确定与所述类型对应的情绪分析模型;
根据所述情绪分析模型对所述目标歌曲对应的用户行为进行分析,确定情绪值;
投票模块,用于根据所述情绪值对N个参赛者进行投票;
获取每个观众在心态平静时候的情绪值,获取该观众的听歌时候的情绪值与心态平静时候的情绪值的差值的绝对值,可以得知该观众的情绪变化幅度;对每个观众执行上述操作,得到N个情绪变化幅度;根据N个情绪变化幅度,对N个参赛者进行投票。
4.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1或2所述方法的步骤。
5.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1或2所述的方法的步骤。
CN202111040502.3A 2021-09-06 2021-09-06 一种比赛投票方法、装置、计算机设备和存储介质 Active CN113744445B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111040502.3A CN113744445B (zh) 2021-09-06 2021-09-06 一种比赛投票方法、装置、计算机设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111040502.3A CN113744445B (zh) 2021-09-06 2021-09-06 一种比赛投票方法、装置、计算机设备和存储介质

Publications (2)

Publication Number Publication Date
CN113744445A CN113744445A (zh) 2021-12-03
CN113744445B true CN113744445B (zh) 2024-01-05

Family

ID=78736229

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111040502.3A Active CN113744445B (zh) 2021-09-06 2021-09-06 一种比赛投票方法、装置、计算机设备和存储介质

Country Status (1)

Country Link
CN (1) CN113744445B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104462487A (zh) * 2014-12-19 2015-03-25 南开大学 一种融合多信息源的个性化在线新闻评论情绪预测方法
CN108804609A (zh) * 2018-05-30 2018-11-13 平安科技(深圳)有限公司 歌曲推荐方法和装置
CN110493647A (zh) * 2019-07-25 2019-11-22 天脉聚源(杭州)传媒科技有限公司 一种3d虚拟形象投票显示方法、系统、装置和存储介质
KR20210009155A (ko) * 2019-07-16 2021-01-26 마호캐스트 가부시키가이샤 온라인 비디오 플랫폼에서 감정 투표 서비스를 제공하는 사용자 단말, 서버 및 방법
KR20210076528A (ko) * 2019-12-16 2021-06-24 조선대학교산학협력단 감정 인식 방법 및 장치

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4545223B1 (ja) * 2009-06-22 2010-09-15 小山 有 人気投票システム
US20120233633A1 (en) * 2011-03-09 2012-09-13 Sony Corporation Using image of video viewer to establish emotion rank of viewed video
US9305303B2 (en) * 2013-05-07 2016-04-05 Nasdaq, Inc. Webcast systems and methods with audience sentiment feedback and analysis
CN106792170A (zh) * 2016-12-14 2017-05-31 合网络技术(北京)有限公司 视频处理方法及装置
CN108259489A (zh) * 2018-01-11 2018-07-06 武汉斗鱼网络科技有限公司 一种投票数据处理方法、装置及电子设备
CN108877025A (zh) * 2018-06-01 2018-11-23 郑州云海信息技术有限公司 一种投票方法、系统、存储介质和计算机设备
CN108881985A (zh) * 2018-07-18 2018-11-23 南京邮电大学 基于脑电情绪识别的节目评分系统
CN110363084A (zh) * 2019-06-10 2019-10-22 北京大米科技有限公司 一种上课状态检测方法、装置、存储介质及电子
CN113163213B (zh) * 2020-01-22 2023-12-08 腾讯科技(深圳)有限公司 比赛直播方法、设备及存储介质
CN112418068B (zh) * 2020-11-19 2024-09-27 中国平安人寿保险股份有限公司 基于情绪识别的线上培训效果评估方法、装置和设备
CN113314150A (zh) * 2021-05-26 2021-08-27 平安普惠企业管理有限公司 基于语音数据的情绪识别方法、装置及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104462487A (zh) * 2014-12-19 2015-03-25 南开大学 一种融合多信息源的个性化在线新闻评论情绪预测方法
CN108804609A (zh) * 2018-05-30 2018-11-13 平安科技(深圳)有限公司 歌曲推荐方法和装置
KR20210009155A (ko) * 2019-07-16 2021-01-26 마호캐스트 가부시키가이샤 온라인 비디오 플랫폼에서 감정 투표 서비스를 제공하는 사용자 단말, 서버 및 방법
CN110493647A (zh) * 2019-07-25 2019-11-22 天脉聚源(杭州)传媒科技有限公司 一种3d虚拟形象投票显示方法、系统、装置和存储介质
KR20210076528A (ko) * 2019-12-16 2021-06-24 조선대학교산학협력단 감정 인식 방법 및 장치

Also Published As

Publication number Publication date
CN113744445A (zh) 2021-12-03

Similar Documents

Publication Publication Date Title
Wang et al. StudentLife: assessing mental health, academic performance and behavioral trends of college students using smartphones
Hung et al. The idiap wolf corpus: exploring group behaviour in a competitive role-playing game
Paniello et al. Longitudinal follow‐up of adductor spasmodic dysphonia patients after botulinum toxin injection: quality of life results
Yu et al. A hybrid user experience evaluation method for mobile games
CN111790038B (zh) 音乐辅助睡眠的方法、装置、计算机设备及存储介质
CN110019853A (zh) 感兴趣场景识别方法和系统
US20190008466A1 (en) Life log utilization system, life log utilization method, and recording medium
Berglund et al. Annoyance and spectral contrast are cues for similarity and preference of sounds
CN117666790A (zh) 一种基于脑机接口技术的沉浸式口才表达训练系统
CN113744445B (zh) 一种比赛投票方法、装置、计算机设备和存储介质
CN110267109A (zh) 一种健康节目推送方法及装置、机顶盒
KR101745602B1 (ko) 영상정보를 통한 움직임의 양을 기반으로 하는 집단 감성 추론 시스템
CN117271985A (zh) 梦境重构方法及装置
Purabi et al. As you are, so shall you move your head: a system-level analysis between head movements and corresponding traits and emotions
CN115346673A (zh) 一种基于心理健康评估与心理健康疗愈的结合方法
CN114360691A (zh) 心理韧性的训练方法、终端设备及计算机可读存储介质
KR102279632B1 (ko) Vr 롤플레잉 게임 방식의 성격 분석 프로그램
Cummins et al. Sight versus sound: The differential impact of mediated spectator response in sport broadcasts
Schubert Politics under the microscope: Observational methods in political research
Niforatos et al. PulseCam: biophysically driven life logging
Raja et al. Recognition of facial stress system using machine learning with an intelligent alert system
Shreve et al. A study on the discriminability of facs from spontaneous facial expressions
CN116756499B (zh) 一种虚拟数字人的形象评估方法、系统
Zaib et al. Using heart rate and machine learning for VR horror game personalization
CN109727151B (zh) 一种信息处理方法、装置和计算机存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant