CN111586333A - 一种网络视频直播方法及系统 - Google Patents

一种网络视频直播方法及系统 Download PDF

Info

Publication number
CN111586333A
CN111586333A CN202010294359.XA CN202010294359A CN111586333A CN 111586333 A CN111586333 A CN 111586333A CN 202010294359 A CN202010294359 A CN 202010294359A CN 111586333 A CN111586333 A CN 111586333A
Authority
CN
China
Prior art keywords
environment
mode
live broadcast
standard
host
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202010294359.XA
Other languages
English (en)
Inventor
叶光红
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Xinrongdian Technology Co ltd
Original Assignee
Shenzhen Xinrongdian Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Xinrongdian Technology Co ltd filed Critical Shenzhen Xinrongdian Technology Co ltd
Priority to CN202010294359.XA priority Critical patent/CN111586333A/zh
Publication of CN111586333A publication Critical patent/CN111586333A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/152Multipoint control units therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

本发明涉及一种网络视频直播方法及系统,方法包括如下步骤:接收主持人员输入的模式选择指令,根据模式选择指令设定直播模式为线上课堂模式或线上会议模式;获取生物信息和环境参数;根据生物信息判断参与人员是否为真人,若不是真人,则向主持人员发出第一提示;根据直播模式获取预设的标准环境参数;根据直播模式获取环境判断规则;根据环境参数、标准环境参数和环境判断规则判断参与人员是否处于合适的环境中,若处于不合适的环境中,则向参与人员和主持人员发出第二提示;本发明通过使主持人员实时了解参与人员是否真实参与以及参与人员是否处于合适的环境,使主持人员能够实时掌握参与情况。

Description

一种网络视频直播方法及系统
技术领域
本发明涉及网络视频直播技术领域,更具体地说,涉及一种网络视频直播方法和一种网络视频直播系统。
背景技术
网络视频直播是一种新兴的播放形式,它的出现,使得参与人员可以通过网络实时地收听收看主持人员正在进行的活动内容。
线上课堂、线上会议、娱乐直播都是网络视频直播常见的应用场景,但是,线上课堂和线上会议,与娱乐直播之间存在本质上的不同,在这两种应用场景中,主持人员需要实时地掌握参与人员的参与情况,但现有的网络视频直播方法,不能使主持人员实时地掌握参与人员的参与情况,故而无法很好地应用于线上课堂和线上会议。
发明内容
本发明要解决的技术问题在于,针对现有技术的上述缺陷,提供一种网络视频直播方法和一种网络视频直播系统。
本发明解决其技术问题所采用的技术方案是:
一方面,提供了一种网络视频直播方法,其中,所述方法包括如下步骤:
接收主持人员输入的模式选择指令,根据所述模式选择指令设定直播模式为线上课堂模式或线上会议模式;
当所述直播模式设定完成时,获取参与人员的生物信息和参与人员所处环境的环境参数;
根据所述生物信息和预设的人员判断规则,判断参与人员是否为真人,若不是真人,则向主持人员发出第一提示;
根据所述直播模式和预设的模式-标准环境参数对应关系,获取预设的标准环境参数,所述模式-标准环境参数对应关系为,所述直播模式和所述标准环境参数的对应关系;
根据所述直播模式和预设的模式-环境判断规则对应关系,获取环境判断规则,所述模式-环境判断规则对应关系为,所述直播模式和所述环境判断规则的对应关系;
根据所述环境参数、所述标准环境参数和所述环境判断规则判断参与人员是否处于合适的环境中,若处于不合适的环境中,则向参与人员和主持人员发出第二提示。
本发明所述的网络视频直播方法,其中,所述“获取参与人员所处环境的环境参数”的步骤具体为:
根据所述直播模式和预设的模式-环境参数对应关系,获取参与人员所处环境的所述环境参数,所述模式-环境参数对应关系为,所述直播模式和需获取的所述环境参数的对应关系。
本发明所述的网络视频直播方法,其中,在所述“接收主持人员输入的模式选择指令,根据所述模式选择指令设定直播模式为线上课堂模式或线上会议模式”的步骤之前,所述方法还包括步骤:
预设所述模式-环境参数对应关系。
本发明所述的网络视频直播方法,其中,在所述“根据所述环境参数、所述标准环境参数和所述环境判断规则判断参与人员是否处于合适的环境中,若处于不合适的环境中,则向参与人员和主持人员发出第二提示”的步骤之前,所述方法还包括步骤:
根据所述直播模式和预设的模式-标准差异值对应关系,获取标准差异值,所述模式-标准差异值对应关系为,所述直播模式和所述标准差异值的对应关系;
所述环境判断规则为:若所述环境参数和所述标准环境参数之间的差异值大于所述标准差异值,则判定参与人员处于不合适的环境中。
本发明所述的网络视频直播方法,其中,所述“根据所述环境参数、所述标准环境参数和所述环境判断规则判断参与人员是否处于合适的环境中,若处于不合适的环境中,则向参与人员和主持人员发出第二提示”的步骤具体包括如下步骤:
计算所述环境参数和所述标准环境参数之间的差异值;
比较所述差异值和所述标准差异值的大小,若所述差异值大于所述标准差异值,则判定参与人员处于不合适的环境中,向参与人员和主持人员发出所述第二提示。
本发明所述的网络视频直播方法,其中,在所述“接收主持人员输入的模式选择指令,根据所述模式选择指令设定直播模式为线上课堂模式或线上会议模式”的步骤之前,所述方法还包括步骤:
预设所述模式-标准环境参数对应关系、所述模式-环境判断规则对应关系和所述模式-标准差异值对应关系。
本发明所述的网络视频直播方法,其中,所述方法还包括步骤:
接收主持人员发出的动作识别指令,所述动作识别指令包含动作要求;
根据所述动作识别指令,识别参与人员的动作;
当识别出参与人员的动作符合所述动作要求时,向主持人员发出第三提示。
本发明所述的网络视频直播方法,其中,所述生物信息为人脸信息。
另一方面,提供了一种网络视频直播系统,基于上述的网络视频直播方法,其中,所述系统包括:
接收模块,所述接收模块用于接收主持人员输入的模式选择指令,根据所述模式选择指令设定直播模式为线上课堂模式或线上会议模式;
第一获取模块,所述第一获取模块用于当所述直播模式设定完成时,获取参与人员的生物信息和参与人员所处环境的环境参数;
人员判断模块,所述人员判断模块用于根据所述生物信息和预设的人员判断规则,判断参与人员是否为真人,若不是真人,则向主持人员发出第一提示;
第二获取模块,所述第二获取模块用于根据所述直播模式和预设的模式-标准环境参数对应关系,获取预设的标准环境参数,所述模式-标准环境参数对应关系为,所述直播模式和所述标准环境参数的对应关系;
第三获取模块,所述第三获取模块用于根据所述直播模式和预设的模式-环境判断规则对应关系,获取环境判断规则,所述模式-环境判断规则对应关系为,所述直播模式和所述环境判断规则的对应关系;
环境判断模块,所述环境判断模块用于根据所述环境参数、所述标准环境参数和所述环境判断规则判断参与人员是否处于合适的环境中,若处于不合适的环境中,则向参与人员和主持人员发出第二提示。
本发明的有益效果在于:本发明通过使主持人员实时了解参与人员是否真实参与以及参与人员是否处于合适的环境,使主持人员能够实时地掌握参与人员的参与情况,故而可以很好地应用于线上课堂和线上会议。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将结合附图及实施例对本发明作进一步说明,下面描述中的附图仅仅是本发明的部分实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他附图:
图1是本发明实施例一的网络视频直播方法的流程图;
图2是本发明实施例三的的网络视频直播系统的结构图。
具体实施方式
为了使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的技术方案进行清楚、完整的描述,显然,所描述的实施例是本发明的部分实施例,而不是全部实施例。基于本发明的实施例,本领域普通技术人员在没有付出创造性劳动的前提下所获得的所有其他实施例,都属于本发明的保护范围。
实施例一
如图1所示,本发明实施例一提供了一种网络视频直播方法,其特征在于,方法包括如下步骤:
步骤S101:接收主持人员输入的模式选择指令,根据模式选择指令设定直播模式为线上课堂模式或线上会议模式;
步骤S102:当直播模式设定完成时,获取参与人员的生物信息和参与人员所处环境的环境参数;
步骤S103:根据生物信息和预设的人员判断规则,判断参与人员是否为真人,若不是真人,则向主持人员发出第一提示;
步骤S104:根据直播模式和预设的模式-标准环境参数对应关系,获取预设的标准环境参数,模式-标准环境参数对应关系为,直播模式和标准环境参数的对应关系;
步骤S105:根据直播模式和预设的模式-环境判断规则对应关系,获取环境判断规则,模式-环境判断规则对应关系为,直播模式和环境判断规则的对应关系;
步骤S106:根据环境参数、标准环境参数和环境判断规则判断参与人员是否处于合适的环境中,若处于不合适的环境中,则向参与人员和主持人员发出第二提示。
通过获取参与人员的生物信息,根据生物信息和预设的人员判断规则,判断参与人员是否为真人,若不是真人,则向主持人员发出第一提示,此种设置,使得主持人员可以实时了解参与人员是否真实参与,例如,当有参与人员利用本人照片假装参与时,此种设置便可使主持人员掌握此种情况;
若为线上会议,主持人员收到第一提示时,可以记录此参与人员的名字,作为考核的一项参考,也可以利用此第一提示提供的信息采取别的行动,若为线上课堂,主持人员收到第一提示时,可以通过别种方式联系参与人员,劝告其好好参与,也可以利用此第一提示提供的信息采取别的行动;
第一提示可以是文字提示、声音提示、图像提示中的一种或多种。
通过获取参与人员所处环境的环境参数,根据环境参数、标准环境参数和环境判断规则判断参与人员是否处于合适的环境中,若处于不合适的环境中,则向参与人员和主持人员发出第二提示,此种设置,使得主持人员可以实时了解参与人员所处环境的实际情况,例如,当参与人员处于喧哗嘈杂的环境或者马路、菜市场之类的环境中时,主持人员会收到第二提示,依据第二提示,主持人员可以了解到参与人员此时正处于处于喧哗嘈杂的环境或者马路、菜市场之类的不合适环境中,此时,主持人员可以根据第二提示,做出线上课堂或者线上会议推迟开始的决定,或者利用此第二提示提供的信息采取别的行动,再例如,当参与人员处于沙发、床等可能使其以不当姿态参与的不合适环境中时,主持人员会收到第二提示,依据第二提示,主持人员可以了解到参与人员有可能以不当姿态参与,此时,主持人员可以根据第二提示,对参与人员进行劝告和警示,特别是在线上课堂的场景中,参与人员可能为自制力不足的学生,此时,更需要主持人员时时对其进行劝告和警示;
第二提示不仅会发给主持人员,还会发给参与人员,使得参与人员也可以了解自己所处环境是否为合适的环境,若为不合适的环境,参与人员在收到第二提示时,可以依据第二提示进行调整,移动至合适的环境中去;
第二提示可以是文字提示、声音提示、图像提示中的一种或多种。
直播模式有线上课堂模式和线上会议模式两种,主持人员可以依据实际的情况输入模式选择指令设定直播模式,应用范围广泛。
判断参与人员是否处于合适的环境中时,标准环境参数和环境判断规则与直播模式对应,例如,若为线上课堂模式,则标准环境参数和环境判断规则为与线上课堂模式对应的标准环境参数和环境判断规则,使得判断结果更加准确。
本发明通过使主持人员实时了解参与人员是否真实参与以及参与人员是否处于合适的环境,使主持人员能够实时地掌握参与人员的参与情况,故而可以很好地应用于线上课堂和线上会议。
优选的,“获取参与人员所处环境的环境参数”的步骤具体为:
根据直播模式和预设的模式-环境参数对应关系,获取参与人员所处环境的环境参数,模式-环境参数对应关系为,直播模式和需获取的环境参数的对应关系。
模式-环境参数对应关系举例如下:
线上课堂模式对应的环境参数为环境温度、环境湿度、环境声音分贝和环境图像,线上会议模式对应的环境参数为环境声音分贝和环境图像。
获取环境参数时,环境参数与直播模式对应,若直播模式设定为线上课堂模式,则在获取参与人员所处环境的环境参数时,需要获取环境温度、环境湿度、环境声音分贝和环境图像,若直播模式设定为线上会议模式,则在获取参与人员所处环境的环境参数时,仅需要获取环境声音分贝和环境图像,根据直播模式获取与其对应的环境参数,其余的环境参数则不获取,可以有效避免资源浪费。
优选的,在“接收主持人员输入的模式选择指令,根据模式选择指令设定直播模式为线上课堂模式或线上会议模式”的步骤之前,方法还包括步骤:
预设模式-环境参数对应关系。
优选的,在“根据环境参数、标准环境参数和环境判断规则判断参与人员是否处于合适的环境中,若处于不合适的环境中,则向参与人员和主持人员发出第二提示”的步骤之前,方法还包括步骤:
根据直播模式和预设的模式-标准差异值对应关系,获取标准差异值,模式-标准差异值对应关系为,直播模式和标准差异值的对应关系;
环境判断规则为:若环境参数和标准环境参数之间的差异值大于标准差异值,则判定参与人员处于不合适的环境中。
标准差异值和直播模式对应,使得判断结果更加准确。
优选的,“根据环境参数、标准环境参数和环境判断规则判断参与人员是否处于合适的环境中,若处于不合适的环境中,则向参与人员和主持人员发出第二提示”的步骤具体包括如下步骤:
计算环境参数和标准环境参数之间的差异值;
比较差异值和标准差异值的大小,若差异值大于标准差异值,则判定参与人员处于不合适的环境中,向参与人员和主持人员发出第二提示。
优选的,在“接收主持人员输入的模式选择指令,根据模式选择指令设定直播模式为线上课堂模式或线上会议模式”的步骤之前,方法还包括步骤:
预设模式-标准环境参数对应关系、模式-环境判断规则对应关系和模式-标准差异值对应关系。
优选的,生物信息为人脸信息。
生物信息为人脸信息,则可利用现有的人脸识别方法判断参与人员是否为真人。
实施例二
本发明实施例提供了一种网络视频直播方法,本实施例二与实施例一基本相同,相同之处不再赘述,不同之处在于:
方法还包括步骤:
接收主持人员发出的动作识别指令,动作识别指令包含动作要求;
根据动作识别指令,识别参与人员的动作;
当识别出参与人员的动作符合动作要求时,向主持人员发出第三提示。
通过接收主持人员发出的动作识别指令,根据动作识别指令,识别参与人员的动作,当识别出参与人员的动作符合动作要求时,向主持人员发出第三提示,此种设置,增强了互动性,使线上场景更加贴近真实场景,实现了线上场景的拟线下化。
例如,动作识别指令可以为举手指令,动作识别指令包含的动作要求为举手的动作要求,当识别出参与人员举手时,向主持人员发出第三提示,以提示主持人员有参与人员举手示意,当主持人员收到第三提示时,可以了解到有参与人员举手,接着,主持人员可以与该参与人员联系以了解其举手意图,也可以采取别的行动。
实施例三
如图2所示,本发明实施例三提供了一种网络视频直播系统,基于上述的网络视频直播方法,其特征在于,系统包括:
接收模块31,接收模块31用于接收主持人员输入的模式选择指令,根据模式选择指令设定直播模式为线上课堂模式或线上会议模式;
第一获取模块32,第一获取模块32用于当直播模式设定完成时,获取参与人员的生物信息和参与人员所处环境的环境参数;
人员判断模块33,人员判断模块33用于根据生物信息和预设的人员判断规则,判断参与人员是否为真人,若不是真人,则向主持人员发出第一提示;
第二获取模块34,第二获取模块34用于根据直播模式和预设的模式-标准环境参数对应关系,获取预设的标准环境参数,模式-标准环境参数对应关系为,直播模式和标准环境参数的对应关系;
第三获取模块35,第三获取模块35用于根据直播模式和预设的模式-环境判断规则对应关系,获取环境判断规则,模式-环境判断规则对应关系为,直播模式和环境判断规则的对应关系;
环境判断模块36,环境判断模块36用于根据环境参数、标准环境参数和环境判断规则判断参与人员是否处于合适的环境中,若处于不合适的环境中,则向参与人员和主持人员发出第二提示。
本发明通过使主持人员实时了解参与人员是否真实参与以及参与人员是否处于合适的环境,使主持人员能够实时地掌握参与人员的参与情况,故而可以很好地应用于线上课堂和线上会议。
应当理解的是,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,而所有这些改进和变换都应属于本发明所附权利要求的保护范围。

Claims (9)

1.一种网络视频直播方法,其特征在于,所述方法包括如下步骤:
接收主持人员输入的模式选择指令,根据所述模式选择指令设定直播模式为线上课堂模式或线上会议模式;
当所述直播模式设定完成时,获取参与人员的生物信息和参与人员所处环境的环境参数;
根据所述生物信息和预设的人员判断规则,判断参与人员是否为真人,若不是真人,则向主持人员发出第一提示;
根据所述直播模式和预设的模式-标准环境参数对应关系,获取预设的标准环境参数,所述模式-标准环境参数对应关系为,所述直播模式和所述标准环境参数的对应关系;
根据所述直播模式和预设的模式-环境判断规则对应关系,获取环境判断规则,所述模式-环境判断规则对应关系为,所述直播模式和所述环境判断规则的对应关系;
根据所述环境参数、所述标准环境参数和所述环境判断规则判断参与人员是否处于合适的环境中,若处于不合适的环境中,则向参与人员和主持人员发出第二提示。
2.根据权利要求1所述的网络视频直播方法,其特征在于,所述“获取参与人员所处环境的环境参数”的步骤具体为:
根据所述直播模式和预设的模式-环境参数对应关系,获取参与人员所处环境的所述环境参数,所述模式-环境参数对应关系为,所述直播模式和需获取的所述环境参数的对应关系。
3.根据权利要求2所述的网络视频直播方法,其特征在于,在所述“接收主持人员输入的模式选择指令,根据所述模式选择指令设定直播模式为线上课堂模式或线上会议模式”的步骤之前,所述方法还包括步骤:
预设所述模式-环境参数对应关系。
4.根据权利要求1所述的网络视频直播方法,其特征在于,在所述“根据所述环境参数、所述标准环境参数和所述环境判断规则判断参与人员是否处于合适的环境中,若处于不合适的环境中,则向参与人员和主持人员发出第二提示”的步骤之前,所述方法还包括步骤:
根据所述直播模式和预设的模式-标准差异值对应关系,获取标准差异值,所述模式-标准差异值对应关系为,所述直播模式和所述标准差异值的对应关系;
所述环境判断规则为:若所述环境参数和所述标准环境参数之间的差异值大于所述标准差异值,则判定参与人员处于不合适的环境中。
5.根据权利要求4所述的网络视频直播方法,其特征在于,所述“根据所述环境参数、所述标准环境参数和所述环境判断规则判断参与人员是否处于合适的环境中,若处于不合适的环境中,则向参与人员和主持人员发出第二提示”的步骤具体包括如下步骤:
计算所述环境参数和所述标准环境参数之间的差异值;
比较所述差异值和所述标准差异值的大小,若所述差异值大于所述标准差异值,则判定参与人员处于不合适的环境中,向参与人员和主持人员发出所述第二提示。
6.根据权利要求4所述的网络视频直播方法,其特征在于,在所述“接收主持人员输入的模式选择指令,根据所述模式选择指令设定直播模式为线上课堂模式或线上会议模式”的步骤之前,所述方法还包括步骤:
预设所述模式-标准环境参数对应关系、所述模式-环境判断规则对应关系和所述模式-标准差异值对应关系。
7.根据权利要求1所述的网络视频直播方法,其特征在于,所述方法还包括步骤:
接收主持人员发出的动作识别指令,所述动作识别指令包含动作要求;
根据所述动作识别指令,识别参与人员的动作;
当识别出参与人员的动作符合所述动作要求时,向主持人员发出第三提示。
8.根据权利要求1所述的网络视频直播方法,其特征在于,所述生物信息为人脸信息。
9.一种网络视频直播系统,基于权利要求1-8任一所述的网络视频直播方法,其特征在于,所述系统包括:
接收模块,所述接收模块用于接收主持人员输入的模式选择指令,根据所述模式选择指令设定直播模式为线上课堂模式或线上会议模式;
第一获取模块,所述第一获取模块用于当所述直播模式设定完成时,获取参与人员的生物信息和参与人员所处环境的环境参数;
人员判断模块,所述人员判断模块用于根据所述生物信息和预设的人员判断规则,判断参与人员是否为真人,若不是真人,则向主持人员发出第一提示;
第二获取模块,所述第二获取模块用于根据所述直播模式和预设的模式-标准环境参数对应关系,获取预设的标准环境参数,所述模式-标准环境参数对应关系为,所述直播模式和所述标准环境参数的对应关系;
第三获取模块,所述第三获取模块用于根据所述直播模式和预设的模式-环境判断规则对应关系,获取环境判断规则,所述模式-环境判断规则对应关系为,所述直播模式和所述环境判断规则的对应关系;
环境判断模块,所述环境判断模块用于根据所述环境参数、所述标准环境参数和所述环境判断规则判断参与人员是否处于合适的环境中,若处于不合适的环境中,则向参与人员和主持人员发出第二提示。
CN202010294359.XA 2020-04-15 2020-04-15 一种网络视频直播方法及系统 Withdrawn CN111586333A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010294359.XA CN111586333A (zh) 2020-04-15 2020-04-15 一种网络视频直播方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010294359.XA CN111586333A (zh) 2020-04-15 2020-04-15 一种网络视频直播方法及系统

Publications (1)

Publication Number Publication Date
CN111586333A true CN111586333A (zh) 2020-08-25

Family

ID=72124381

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010294359.XA Withdrawn CN111586333A (zh) 2020-04-15 2020-04-15 一种网络视频直播方法及系统

Country Status (1)

Country Link
CN (1) CN111586333A (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102013176A (zh) * 2010-12-01 2011-04-13 曹乃承 在线学习系统
CN103325080A (zh) * 2013-06-21 2013-09-25 电子科技大学 一种基于物联网技术的敬老院智能看护系统及方法
CN108012195A (zh) * 2016-11-01 2018-05-08 北京星辰美豆文化传播有限公司 一种直播方法、装置及其电子设备
US20180262806A1 (en) * 2017-03-13 2018-09-13 DISH Technologies L.L.C. Systems and methods for an adaptive electronic program guide
CN109284737A (zh) * 2018-10-22 2019-01-29 广东精标科技股份有限公司 一种用于智慧教室的学生行为分析和识别系统
CN109684949A (zh) * 2018-12-12 2019-04-26 嘉兴极点科技有限公司 一种基于人工智能的在线教育人机交互方法与系统
CN109982124A (zh) * 2019-03-26 2019-07-05 深圳创维-Rgb电子有限公司 用户场景智能分析方法、装置和存储介质
CN110300311A (zh) * 2019-07-01 2019-10-01 腾讯科技(深圳)有限公司 直播系统中的对战方法、装置、设备及存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102013176A (zh) * 2010-12-01 2011-04-13 曹乃承 在线学习系统
CN103325080A (zh) * 2013-06-21 2013-09-25 电子科技大学 一种基于物联网技术的敬老院智能看护系统及方法
CN108012195A (zh) * 2016-11-01 2018-05-08 北京星辰美豆文化传播有限公司 一种直播方法、装置及其电子设备
US20180262806A1 (en) * 2017-03-13 2018-09-13 DISH Technologies L.L.C. Systems and methods for an adaptive electronic program guide
CN109284737A (zh) * 2018-10-22 2019-01-29 广东精标科技股份有限公司 一种用于智慧教室的学生行为分析和识别系统
CN109684949A (zh) * 2018-12-12 2019-04-26 嘉兴极点科技有限公司 一种基于人工智能的在线教育人机交互方法与系统
CN109982124A (zh) * 2019-03-26 2019-07-05 深圳创维-Rgb电子有限公司 用户场景智能分析方法、装置和存储介质
CN110300311A (zh) * 2019-07-01 2019-10-01 腾讯科技(深圳)有限公司 直播系统中的对战方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
CN112399133B (zh) 一种会议分享方法及装置
Doherty-Sneddon et al. Face-to-face and video-mediated communication: A comparison of dialogue structure and task performance.
JP3930022B2 (ja) 遠隔教育システム、受講確認方法および受講確認プログラム
Zielinski et al. On some biases encountered in modern audio quality listening tests-a review
Bech et al. Perceptual audio evaluation-Theory, method and application
Ko The need for long-term empirical studies in remote interpreting research: A case study of telephone interpreting
Braun Multimedia communication technologies and their impact on interpreting
CN109361527B (zh) 语音会议记录方法及系统
Bucy et al. The micro‐and macrodrama of politics on television: Effects of media format on candidate evaluations
Thery et al. Auralization uses in acoustical design: A survey study of acoustical consultants
CN108198111A (zh) 一种互联网教育平台的资源分享方法及装置
CN108270667A (zh) 一种互联网教育平台及其多用户互动方法
CN111586333A (zh) 一种网络视频直播方法及系统
CN111951135A (zh) 一种用于在线双机位考生的监考方法及系统
CN112508509A (zh) 一种企业培训用远程会议系统
Faulkne et al. Using videoconferencing to deliver a health education program to women health consumers in rural and remote Queensland: An early attempt and future plans
CN115190324A (zh) 线上线下互动直播热度的确定方法、装置及设备
Stenzel et al. Modeling horizontal audio-visual coherence with the psychometric function
Holstein et al. Producing evaluative knowledge: The interactional bases of social science findings
CN112672178B (zh) 用户轮播上台方法、装置、电子设备
CN115098661A (zh) 用于辅助疾病筛查的方法、电子设备及计算机存储介质
Rowden et al. Sentencing by videolink: Up in the air
Jason Using the media to foster self-help groups.
López et al. Study of the audibility of background music in TV programs: Towards a normative proposal
CN109819196B (zh) 基于开会的补会方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20200825

WW01 Invention patent application withdrawn after publication