CN105787087B - 合演视频中搭档的匹配方法和装置 - Google Patents

合演视频中搭档的匹配方法和装置 Download PDF

Info

Publication number
CN105787087B
CN105787087B CN201610143349.XA CN201610143349A CN105787087B CN 105787087 B CN105787087 B CN 105787087B CN 201610143349 A CN201610143349 A CN 201610143349A CN 105787087 B CN105787087 B CN 105787087B
Authority
CN
China
Prior art keywords
video
role
user
score value
user type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610143349.XA
Other languages
English (en)
Other versions
CN105787087A (zh
Inventor
汪倩怡
戴阳刚
时峰
吴发强
崔凌睿
熊涛
高雨
吴运声
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201610143349.XA priority Critical patent/CN105787087B/zh
Publication of CN105787087A publication Critical patent/CN105787087A/zh
Priority to KR1020187017531A priority patent/KR102056998B1/ko
Priority to EP17765683.2A priority patent/EP3432156A4/en
Priority to JP2018531229A priority patent/JP6563140B2/ja
Priority to MYPI2018701974A priority patent/MY192827A/en
Priority to PCT/CN2017/074301 priority patent/WO2017157141A1/zh
Priority to US16/107,704 priority patent/US10380427B2/en
Priority to US16/443,443 priority patent/US10628677B2/en
Application granted granted Critical
Publication of CN105787087B publication Critical patent/CN105787087B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/7867Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title and artist information, manually generated time, location and usage information, user ratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • G06F16/784Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2113Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/036Insert-editing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects

Abstract

本发明涉及一种合演视频中搭档的匹配方法和装置。所述方法包括以下步骤:获取第一用户标识所录制的出演第一角色的视频;获取配置的用户类型以及各用户类型中出演与所述第一角色配对的第二角色的视频和出演所述第二角色的第二用户标识;获取各用户类型中各个第二用户标识对应的出演所述第二角色的视频的总分值;将各用户类型中按照总分值从高到低对各个第二用户标识对应的出演所述第二角色的视频进行排序;分别展示各用户类型下出演所述第二角色的视频的排序结果;获取从排序结果中选取的出演所述第二角色的视频;将选取的出演所述第二角色的视频与出演所述第一角色的视频合成为完整的视频。自动匹配出演第二角色的视频,提高了视频合成的效率。

Description

合演视频中搭档的匹配方法和装置
技术领域
本发明涉及计算机应用领域,特别是涉及一种合演视频中搭档的匹配方法和装置。
背景技术
随着网络技术的发展,越来越多的用户使用网络从事各种社会活动。为了丰富自己的生活,有些用户使用录制设备录制自己扮演角色的视频,并将录制的视频上传到网络,等待其他用户录制对手角色的视频,将角色的视频与对手角色的视频合成为合演视频。
然而,传统的方式是用户录制自己的一半内容后,另外一半内容用一张静态图片或一个动画来填充,等待有人主动来合演,而等待时间太长,大大降低了合演的效率。
发明内容
基于此,有必要针对传统的合演方式中需要等待其他用户主动合演导致合演效率低的问题,提供一种合演视频中搭档的匹配方法,能自动匹配合演搭档,提供合演效率。
此外,还有必要提供一种合演视频中搭档的匹配装置,能自动匹配合演搭档,提供合演效率。
一种合演视频中搭档的匹配方法,包括以下步骤:
获取第一用户标识所录制的出演第一角色的视频;
获取配置的用户类型以及各用户类型中出演与所述第一角色配对的第二角色的视频和出演所述第二角色的第二用户标识;
获取各用户类型中各个第二用户标识对应的出演所述第二角色的视频的总分值;
将各用户类型中按照总分值从高到低对各个第二用户标识对应的出演所述第二角色的视频进行排序;
分别展示各用户类型下出演所述第二角色的视频的排序结果;
获取从所述排序结果中选取的出演所述第二角色的视频;
将选取的出演所述第二角色的视频与出演所述第一角色的视频合成为完整的视频。
一种合演视频中搭档的匹配装置,包括:
第一获取模块,用于获取第一用户标识所录制的出演第一角色的视频;
第二获取模块,用于获取配置的用户类型以及各用户类型中出演与所述第一角色配对的第二角色的视频和出演所述第二角色的第二用户标识;
分值估算模块,用于获取各用户类型中各个第二用户标识对应的出演所述第二角色的视频的总分值;
排序模块,用于将各用户类型中按照总分值从高到低对各个第二用户标识对应的出演所述第二角色的视频进行排序;
展示模块,用于分别展示各用户类型下出演所述第二角色的视频的排序结果;
选取模块,用于获取从所述排序结果中选取的出演所述第二角色的视频;
合成模块,用于将选取的出演所述第二角色的视频与出演所述第一角色的视频合成为完整的视频。
上述合演视频中搭档的匹配方法和装置,获取到各用户类型中出演与第一角色配对的第二角色的视频,对各个视频按照总分值进行排序,并展示排序结果,获取从排序结果中选取的出演第二角色的视频,将出演第一角色的视频和出演第二角色的视频合成为完整的视频,自动根据出演第一角色的视频匹配了出演第二角色的视频,不需要再等待用户主动出演第二角色,提高了视频合成的效率。
附图说明
图1为一个实施例中合演视频中搭档的匹配方法的应用环境示意图;
图2为一个实施例中终端的内部结构示意图;
图3为一个实施例中合演视频搭档的匹配方法的流程图;
图4为一个实施例中获取各用户类型中各个第二用户标识对应的出演该第二角色的视频的总分值的步骤的具体流程图;
图5为用户类型排序的流程图;
图6为合演视频中推荐第二角色的视频的展示示意图;
图7为一个实施例中合演视频中搭档的匹配装置的结构框图;
图8为一个实施例中分值估算模块的内部结构框图;
图9为另一个实施例中合演视频中搭档的匹配装置的结构框图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
可以理解,本发明所使用的术语“第一”、“第二”等可在本文中用于描述各种元件,但这些元件不受这些术语限制。这些术语仅用于将第一个元件与另一个元件区分。举例来说,在不脱离本发明的范围的情况下,可以将第一客户端称为第二客户端,且类似地,可将第二客户端称为第一客户端。第一客户端和第二客户端两者都是客户端,但其不是同一客户端。
图1为一个实施例中合演视频中搭档的匹配方法的应用环境示意图。如图1所示,该应用环境包括终端110和服务器120,终端110与服务器120通过网络进行数据通信。终端110获取到第一用户标识所录制的出演第一角色的视频后,上传到服务器120,服务器120获取出演第一角色配对的第二角色的视频,分别展示各用户类型下的出演第二角色的视频,根据选取的出演第二角色的视频,将选取的出演第二角色的视频与出演第一角色的视频合成为完整的视频。
图2为一个实施例中终端的内部结构示意图。如图2所示,该终端包括通过系统总线连接的处理器、非易失性存储介质、内存、网络接口、声音采集装置、显示屏、扬声器和输入装置。其中,终端的非易失性存储介质存储有操作系统,还包括一种合演视频搭档中的匹配装置。该处理器用于提供计算和控制能力,支撑整个终端的运行,且处理器被配置用于执行合演视频中搭档的匹配方法的流程。网络接口用于与服务器进行网络通信,如发送获取出演第二角色的视频的请求至服务器,接收服务器返回的视频等。终端的显示屏可以是液晶显示屏或者电子墨水显示屏等,输入装置可以是显示屏上覆盖的触摸层,也可以是终端外壳上设置的按键、轨迹球或触控板,也可以是外接的键盘、触控板或鼠标等。该终端可以是手机、平板电脑或者个人数字助理。本领域技术人员可以理解,图2中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的终端的限定,具体的终端可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
图3为一个实施例中合演视频搭档的匹配方法的流程图。如图3所示,一种合演视频中搭档的匹配方法,包括以下步骤:
步骤302,获取第一用户标识所录制的出演第一角色的视频。
本实施例中,第一用户标识用于唯一表示正在出演第一角色的视频的用户身份。第一用户标识可为字符串等。该字符串可为数字、字母和字符中一种或多种组合,例如adc、adc123。第一用户标识还可为手机号码或即时通信号码或电子邮箱等。获取第一用户通过摄像头等设备录制的第一用户出演第一角色的视频。
步骤304,获取配置的用户类型以及各用户类型中出演与该第一角色配对的第二角色的视频和出演该第二角色的第二用户标识。
本实施例中,用户类型可根据需要配置。用户类型可包括第一用户类型、第二用户类型、第三用户类型、第四用户类型、第五用户类型等,不限于此。
例如,用户类型可包括明星、用户好友、用户关注的人、达人、普通用户等。明星是指具有特定身份的人。用户好友是指即时通信好友或手机联系人好友等。用户关注的人是指社交类应用程序中用户所关注的人。达人是指在某一领域非常专业、出类拔萃的人。普通用户是指除了明星、用户好友、用户关注的人和达人外的用户。
获取用户类型时,获取用户类型对应的用户列表,各用户类型的用户列表中记载了该用户类型的所有用户标识及该用户标识所出演过的角色的视频。从该用户列表中查找得到出演第二角色的视频和第二用户标识。
获取各用户类型中出演第二角色的视频和第二用户标识。第二用户标识用于表示出演过第二角色的用户身份。第二用户标识可为字符串等。该字符串可为数字、字母和字符中一种或多种组合,例如adc、adc123。第二用户标识还可为手机号码或即时通信号码或电子邮箱等。例如,获取明星中出演过第二角色的视频和出演的明星的用户标识;获取用户好友中出演过第二角色的视频和出演的用户好友标识;获取用户关注的人中出演过第二角色的视频和出演的用户关注的人的标识;获取达人中出演过第二角色的视频和出演的达人的标识;获取普通用户中出演过第二角色的视频和出演的普通用户的标识。
其中,出演第二角色的用户的标识均为第二用户标识。
步骤306,获取各用户类型中各个第二用户标识对应的出演该第二角色的视频的总分值。
本实施例中,因一个用户类型下可能存在一个或多个第二用户标识对应的出演该第二角色的视频,对每个第二用户标识对应的出演第二角色的视频进行评估分数,得到每个第二用户标识对应的出演第二角色的视频的总分值。
例如,用户类型为明星,明星中存在明星A和明星B均出演过第二角色,获取明星A出演第二角色的视频和明星B出演第二角色的视频,并分别估算得到明星A出演第二角色的视频的总分值和明星B出演第二角色的视频的总分值。
步骤308,将各用户类型中按照总分值从高到低对各个第二用户标识对应的出演该第二角色的视频进行排序。
本实施例中,将每种用户类型下的出演第二角色的视频按照总分值从高到低进行排序,即每种用户类型下出演的第二角色的视频独立排序,不与其他用户类型混合。例如明星类型中的出演第二角色的视频和用户好友类型中的出演第二角色的视频不进行比较排序。此外,也可将各用户类型中出演第二角色的视频按照总分值从低到高进行排序。
当然可以理解的是,在其他实施例中,可将各用户类型下的所有出演第二角色的视频按照总分值从高到低或从低到高进行排序。
步骤310,分别展示各用户类型下出演该第二角色的视频的排序结果。
本实施例中,按照用户类型,展示每种用户类型下出演第二角色的视频的排序结果。例如用户类型为明星,则将明星类型中出演第二角色的视频的排序结果展示在明星类型下;用户类型为用户好友,则将用户好友类型中出演第二角色的视频的排序结果展示在用户好友类型下。
步骤312,获取从该排序结果中选取的出演该第二角色的视频。
本实施例中,从排序结果中选取的出演第二角色的视频可为第一用户自己选择或者系统默认选择。
步骤314,将选取的出演该第二角色的视频与出演该第一角色的视频合成为完整的视频。
本实施例中,将出演第一角色的视频和出演第二角色的视频合成为完整的视频,通常是将出演第一角色的视频分成多段,出演第二角色的视频分成多段,将出演第一角色的视频的多段和第二角色的视频的多段进行交替组合形成完整的视频。
上述合演视频中搭档的匹配方法,获取到各用户类型中出演与第一角色配对的第二角色的视频,对各个视频按照总分值进行排序,并展示排序结果,获取从排序结果中选取的出演第二角色的视频,将出演第一角色的视频和出演第二角色的视频合成为完整的视频,自动根据出演第一角色的视频匹配了出演第二角色的视频,不需要再等待用户主动出演第二角色,提高了视频合成的效率。
图4为一个实施例中获取各用户类型中各个第二用户标识对应的出演该第二角色的视频的总分值的步骤的具体流程图。如图4所示,在一个实施例中,获取各用户类型中各个第二用户标识对应的出演该第二角色的视频的总分值的步骤包括:
步骤402,获取包含该第二用户标识对应的出演该第二角色的视频的反馈分值。
在一个实施例中,步骤402包括:获取包含该第二用户标识对应的出演该第二角色的视频的所有视频的基础分值之和,将该基础分值之和作为该包含该第二用户标识对应的出演该第二角色的视频的反馈分值。
本实施例中,包含第二用户标识对应的出演第二角色的视频的反馈分值,即Feed分值=包含该第二用户标识对应的出演第二角色的视频的所有视频的基础分值之和。例如,包含第二用户标识对应的出演第二角色的视频被合演两次,则Feed分值为包含第二用户标识对应的出演第二角色的视频的基础分值加上合演的两条视频的基础分值所得到的基础分值之和。
举例说明,如用户A好友B出演第二角色的视频为C,视频C被用户D和用户E合演过,则视频C的反馈分值为视频C的基础分值加上用户D与用户B合演的包含视频C的视频的基础分值,再加上用户D与用户B合演的包含视频C的视频的基础分值。
视频的基础分值为播放分值和互动分值之和。播放分值是指判断视频中缩略图好坏的估分值。缩略图好坏是指视频自身质量的好坏,如画面的清晰度、是否失真等。互动分值是指判断视频内容好坏的估分值。视频内容好坏是指录制的视频内容是否观赏性强等。
进一步的,获取包含该第二用户标识对应的出演该第二角色的视频的所有视频的基础分值之和的步骤包括:获取包含该第二用户标识对应的出演该第二角色的视频的播放分值和互动分值,将该播放分值和互动分值之和作为每个包含该第二用户标识对应的出演该第二角色的视频的基础分值,再求取所有基础分值之和。
进一步的,获取包含该第二用户标识对应的出演该第二角色的视频的播放分值和互动分值的步骤包括:
获取该第二用户标识对应的出演该第二角色的视频的播放次数、展示次数、评论次数和点赞次数;
根据该播放次数和展示次数之比,再乘以第一系数因子得到该第二用户标识对应的出演该第二角色的视频的播放分值;
获取该评论次数乘以第二系数因子之积,以及该点赞次数乘以第三系数因子之积,再获取两个积之和与播放次数的比值得到该第二用户标识对应的出演该第二角色的视频的互动分值。
本实施例中,播放次数是指视频被播放的次数。展示次数是指视频被显示的次数。播放分值=a1*播放次数/展示次数。互动分值=(评论次数*a2+点赞次数*a3)/播放次数。
其中,评论次数是指其他用户的评论次数。点赞次数是指其他用户的点赞次数。a1为第一系数因子,a2为第二系数因子,a3为第三系数因子。a1、a2和a3是经过统计信息得出的参数信息,可进行调整。本实施例中,a1为5.6,a2为128,a3为46.1。
步骤404,获取出演该第一角色的第一用户属性信息,以及出演该第二角色的各个第二用户属性信息。
本实施例中,第一用户属性信息和第二用户属性信息均可包括用户的年龄、地理位置、性别、毕业院校、出生地、工作单位等中的一种或多种。
步骤406,根据第一用户属性信息和各个第二用户属性信息得到各个第二用户属性分值。
本实施例中,第二用户属性分值的基础分值为1。当第一用户属性信息和第二用户属性信息满足预定条件时,第二用户属性分值增加对应的属性分值。例如,当第二用户和第一用户性别不同时,第二用户属性分值增加对应的属性因子b1;当第一用户和第二用户在同一地区时,第二用户属性分值增加对应的属性分值b2;当第二用户和第二用户的年龄差值在指定范围内,则第二用户属性分值增加对应的属性分值b3。本实施例中,b1可为0.2,b2可为0.1,b3可为0.2。
步骤408,根据该各个第二用户属性分值和对应反馈分值的乘积得到对应的各个第二用户标识对应的出演该第二角色的视频的总分值。
本实施例中,第二用户标识对应的出演第二角色的视频cp的总分值=各个第二用户属性分值*反馈分值。cp是指完整的视频中单个角色的视频片段集合。
如图5所示,在一个实施例中,上述合演视频中搭档的匹配方法还包括:
步骤502,获取各用户类型的优先级。
本实施例中,用户类型可包括第一用户类型、第二用户类型、第三用户类型、第四用户类型、第五用户类型等。用户类型之间有优先级,例如设置第一用户类型、第二用户类型、第三用户类型、第四用户类型、第五用户类型的优先级为从高到低。
具体地,例如第一用户类型为明星,第二用户类型为用户好友,第三用户类型为用户关注的人,第四用户类型为达人,第五用户类型为普通用户。明星、用户好友、用户关注的人、达人、普通用户的优先级依次降低。
步骤504,按照优先级从高到低将各用户类型进行排列。
步骤506,按照优先级高低展示用户类型。
上述合演视频中搭档的匹配方法,通过给用户类型设置优先级,可方便按照优先级高低对用户类型进行管理,以及根据用户类型的优先级高低推荐出演第二角色的视频。
进一步的,在一个实施例中,上述合演视频搭档的匹配方法还包括:获取各用户类型下允许展示的最大数量。
本实施例中,为每个用户类型设置允许展示的最大数量。例如明星类型的最大数量为2,用户好友类型的最大数量为4,用户关注的人类型的最大数量为2,达人类型的最大数量为2,普通用户类型的最大数量为6等,不限于此。
该分别展示各用户类型下出演该第二角色的视频的排序结果的步骤包括:
若某用户类型下的出演该第二角色的视频的数量超过对应的最大数量时,按照出演该第二角色的视频的总分值从高到低选取该最大数量个视频进行展示;若某用户类型下的出演该第二角色的视频的数量未超过对应的最大数量时,则将该用户类型下的出演该第二角色的视频全部展示。
在一个实施例中,上述合演视频搭档的匹配方法,还包括:查找第一用户类型中出演第二角色的视频,获取n1个视频,若不满足n1个视频,则查找第二用户类型中出演第二角色的视频,获取n2个视频,若不满足n2个视频,则查找第三用户类型中出演第二角色的视频,获取n3个视频,若不满足n3个视频,则查找第四用户类型中出演第二角色的视频,获取n4个视频,若不满足n4个视频,则在第五用户类型中出演第二角色的视频中选出总分值大于分值阈值s的视频,获取n5个视频。
本实施例中,n1、n2、n3、n4、n5、s根据产品需求设置,当前可为2、6、8、10、16、100。n1为第一用户类型所允许的最大数量。n2为第一用户类型允许的最大数量和第二用户类型允许的最大数量之和。n3为第一用户类型、第二用户类型和第三用户类型允许的最大数量之和。n4为第一用户类型、第二用户类型、第三用户类型和第四用户类型允许的最大数量之和。n5为所有用户类型所能展示的最大数量。
在一个实施例中,该将选取的出演该第二角色的视频与出演该第一角色的视频合成为完整的视频的步骤包括:
若高一级的优先级的用户类型中存在出演该第二角色的视频,则在高一级的优先级的用户类型中选取总分值最高的出演该第二角色的视频,将该选取的总分值最高的出演该第二角色的视频作为选取的出演该第二角色的视频;
若高一级的优先级的用户类型中不存在出演该第二角色的视频,则在相邻的下一级的用户类型中选取总分值最高的出演该第二角色的视频,将该选取的总分值最高的出演该第二角色的视频作为选取的出演该第二角色的视频。
例如,第一用户类型优先级高于第二用户类型,第一用户类型中出演第二角色的视频有A1和A2,第二用户类型中出演第二角色的视频有B1和B2,且A1的总分值高于A2的总分值,B1的总分值高于B2。不论B1和A1的总分值高低如何,首先按照用户类型优先级,因第一用户类型的优先级高于第二用户类型,则先从第一用户类型中选取,若第一用户类型中存在出演第二角色的视频,则从第一用户类型中选取总分值最高的视频A1作为选取的出演第二角色的视频,只有当第一用户类型中没有出演第二角色的视频时,才从第二用户类型中选取。
在其他实施例中,也可将所有用户类型中出演第二角色的视频按照总分值高低进行排序,然后将总分值最高的出演第二角色的视频推荐给第一用户。
下面结合具体的应用场景描述合演视频中搭档的匹配方法的实现过程。以用户类型包括明星、用户好友、关注的人、达人和普通用户,明星允许的最大数量为2,好友允许的最大数量为4,关注的人允许的最大数量为2,达人允许的最大数量为2,将明星、用户好友、关注的人、达人和普通用户的数量补全到16。实现过程包括:
(1)获取用户录制的出演第一角色的视频和出演第一角色的用户属性信息。
(2)获取明星、好友、关注的人、达人和普通用户中出演第二角色的视频和出演第二角色的用户属性信息。
(3)将明星、好友、关注的人、达人和普通用户各用户类型中出演第二角色的视频按照总分值从高到低选取对应的最大允许数量的视频。
其中,视频cp的总分值=Feed分值*用户属性分值,Feed分值=含有该视频cp的基础分值的和。基础分值=播放分值+互动分值。播放分值=5.6*播放次数/展示次数。互动分值=(评论次数*128+点赞次数*46.1)/播放次数。用户属性分值=1+异性(+0.2)+是一个地区的(+0.1)+年龄差值在3岁以内(+0.2)。
如图6所示,明星中出演第二角色的视频为A1和A2,好友中出演第二角色的视频为B1、B2、B3、B4,关注的人中出演第二角色的视频为C1、C2,达人中出演第二角色的视频为D1、D2,普通用户中出演第二角色的视频为E1至E6。
图7为一个实施例中合演视频中搭档的匹配装置的结构框图。如图7所示,一种合演视频中搭档的匹配装置,包括第一获取模块702、第二获取模块704、分值估算模块706、排序模块708、展示模块710、选取模块712和合成模块714。其中:
第一获取模块702用于获取第一用户标识所录制的出演第一角色的视频。
第二获取模块704用于获取配置的用户类型以及各用户类型中出演与该第一角色配对的第二角色的视频和出演该第二角色的第二用户标识。
本实施例中,用户类型可根据需要配置。用户类型可包括第一用户类型、第二用户类型、第三用户类型、第四用户类型、第五用户类型等,不限于此。
例如,用户类型可包括明星、用户好友、用户关注的人、达人、普通用户等。明星是指具有特定身份的人。用户好友是指即时通信好友或手机联系人好友等。用户关注的人是指社交类应用程序中用户所关注的人。达人是指在某一领域非常专业、出类拔萃的人。普通用户是指除了明星、用户好友、用户关注的人和达人外的用户。
获取用户类型时,获取用户类型对应的用户列表,各用户类型的用户列表中记载了该用户类型的所有用户标识及该用户标识所出演过的角色的视频。从该用户列表中查找得到出演第二角色的视频和第二用户标识。
分值估算模块706用于获取各用户类型中各个第二用户标识对应的出演该第二角色的视频的总分值。
本实施例中,因一个用户类型下可能存在一个或多个第二用户标识对应的出演该第二角色的视频,对每个第二用户标识对应的出演第二角色的视频进行评估分数,得到每个第二用户标识对应的出演第二角色的视频的总分值。
例如,用户类型为明星,明星中存在明星A和明星B均出演过第二角色,获取明星A出演第二角色的视频和明星B出演第二角色的视频,并分别估算得到明星A出演第二角色的视频的总分值和明星B出演第二角色的视频的总分值。
排序模块708用于将各用户类型中按照总分值从高到低对各个第二用户标识对应的出演该第二角色的视频进行排序。
本实施例中,将每种用户类型下的出演第二角色的视频按照总分值从高到低进行排序,即每种用户类型下出演的第二角色的视频独立排序,不与其他用户类型混合。例如明星类型中的出演第二角色的视频和用户好友类型中的出演第二角色的视频不进行比较排序。此外,也可将各用户类型中出演第二角色的视频按照总分值从低到高进行排序。
展示模块710用于分别展示各用户类型下出演该第二角色的视频的排序结果。
选取模块712用于获取从该排序结果中选取的出演该第二角色的视频。
本实施例中,从排序结果中选取的出演第二角色的视频可为第一用户自己选择或者系统默认选择。
合成模块714用于将选取的出演该第二角色的视频与出演该第一角色的视频合成为完整的视频。
上述合演视频中搭档的匹配装置,获取到各用户类型中出演与第一角色配对的第二角色的视频,对各个视频按照总分值进行排序,并展示排序结果,获取从排序结果中选取的出演第二角色的视频,将出演第一角色的视频和出演第二角色的视频合成为完整的视频,自动根据出演第一角色的视频匹配了出演第二角色的视频,不需要再等待用户主动出演第二角色,提高了视频合成的效率。
图8为一个实施例中分值估算模块的内部结构框图。如图8所示,该分值估算模块706包括反馈分值估算单元7061、信息获取单元7062、属性分值估算单元7063和总分值估算单元7064。其中:
反馈分值估算单元7061用于获取包含该第二用户标识对应的出演该第二角色的视频的反馈分值。
本实施例中,包含第二用户标识对应的出演第二角色的视频的反馈分值,即Feed分值=包含该第二用户标识对应的出演第二角色的视频的所有视频的基础分值之和。例如,包含第二用户标识对应的出演第二角色的视频被合演两次,则Feed分值为包含第二用户标识对应的出演第二角色的视频的基础分值加上合演的两条视频的基础分值所得到的基础分值之和。
举例说明,如用户A好友B出演第二角色的视频为C,视频C被用户D和用户E合演过,则视频C的反馈分值为视频C的基础分值加上用户D与用户B合演的包含视频C的视频的基础分值,再加上用户D与用户B合演的包含视频C的视频的基础分值。
视频的基础分值为播放分值和互动分值之和。播放分值是指判断视频中缩略图好坏的估分值。缩略图好坏是指视频自身质量的好坏,如画面的清晰度、是否失真等。互动分值是指判断视频内容好坏的估分值。视频内容好坏是指录制的视频内容是否观赏性强等。
信息获取单元7062用于获取出演该第一角色的第一用户属性信息,以及出演该第二角色的各个第二用户属性信息。
属性分值估算单元7063用于根据该第一用户属性信息和各个第二用户属性信息得到各个第二用户属性分值。
总分值估算单元7064用于根据该各个第二用户属性分值和对应反馈分值的乘积得到对应的各个第二用户标识对应的出演该第二角色的视频的总分值。
进一步的,反馈分值估算单元7061还用于获取包含该第二用户标识对应的出演该第二角色的视频的所有视频的基础分值之和,将该基础分值之和作为该包含该第二用户标识对应的出演该第二角色的视频的反馈分值。
该反馈分值估算单元7061还用于获取包含该第二用户标识对应的出演该第二角色的视频的播放分值和互动分值,将该播放分值和互动分值之和作为每个包含该第二用户标识对应的出演该第二角色的视频的基础分值,再求取所有基础分值之和。
反馈分值估算单元7061还用于获取该第二用户标识对应的出演该第二角色的视频的播放次数、展示次数、评论次数和点赞次数;
根据该播放次数和展示次数之比,再乘以第一系数因子得到该第二用户标识对应的出演该第二角色的视频的播放分值;以及
获取该评论次数乘以第二系数因子之积,以及该点赞次数乘以第三系数因子之积,再获取两个积之和与播放次数的比值得到该第二用户标识对应的出演该第二角色的视频的互动分值。
图9为另一个实施例中合演视频中搭档的匹配装置的结构框图。如图9所示,一种合演视频中搭档的匹配装置,除了包括第一获取模块702、第二获取模块704、分值估算模块706、排序模块708、展示模块710、选取模块712和合成模块714,还包括类型优先级获取模块716、数量获取模块718。其中:
类型优先级获取模块716用于获取各用户类型的优先级。
该排序模块708还用于按照优先级从高到低将各用户类型进行排列。
该展示模块710还用于按照优先级高低展示用户类型。
数量获取模块718用于获取各用户类型下允许展示的最大数量。
该展示模块710还用于若某用户类型下的出演该第二角色的视频的数量超过对应的最大数量时,按照出演该第二角色的视频的总分值从高到低选取该最大数量个视频进行展示;以及
若某用户类型下的出演该第二角色的视频的数量未超过对应的最大数量时,则将该用户类型下的出演该第二角色的视频全部展示。
该选取模块712还用于若高一级的优先级的用户类型中存在出演该第二角色的视频,则在高一级的优先级的用户类型中选取总分值最高的出演该第二角色的视频,将该选取的总分值最高的出演该第二角色的视频作为选取的出演该第二角色的视频;以及若高一级的优先级的用户类型中不存在出演该第二角色的视频,则在相邻的下一级的用户类型中选取总分值最高的出演该第二角色的视频,将该选取的总分值最高的出演该第二角色的视频作为选取的出演该第二角色的视频。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (18)

1.一种合演视频中搭档的匹配方法,包括以下步骤:
获取第一用户标识所录制的出演第一角色的视频;
获取配置的用户类型以及各用户类型中出演与所述第一角色配对的第二角色的视频和出演所述第二角色的第二用户标识;
获取各用户类型中各个第二用户标识对应的出演所述第二角色的视频的总分值;
将各用户类型中按照总分值从高到低对各个第二用户标识对应的出演所述第二角色的视频进行排序;
分别展示各用户类型下出演所述第二角色的视频的排序结果;
获取从所述排序结果中选取的出演所述第二角色的视频;
将选取的出演所述第二角色的视频与出演所述第一角色的视频合成为完整的视频。
2.根据权利要求1所述的方法,其特征在于,所述获取各用户类型中各个第二用户标识对应的出演所述第二角色的视频的总分值的步骤包括:
获取包含所述第二用户标识对应的出演所述第二角色的视频的反馈分值;
获取出演所述第一角色的第一用户属性信息,以及出演所述第二角色的各个第二用户属性信息;
根据所述第一用户属性信息和各个第二用户属性信息得到各个第二用户属性分值;
根据所述各个第二用户属性分值和对应反馈分值的乘积得到对应的各个第二用户标识对应的出演所述第二角色的视频的总分值。
3.根据权利要求2所述的方法,其特征在于,所述获取包含所述第二用户标识对应的出演所述第二角色的视频的反馈分值的步骤包括:
获取包含所述第二用户标识对应的出演所述第二角色的视频的所有视频的基础分值之和,将所述基础分值之和作为所述包含所述第二用户标识对应的出演所述第二角色的视频的反馈分值。
4.根据权利要求3所述的方法,其特征在于,获取包含所述第二用户标识对应的出演所述第二角色的视频的所有视频的基础分值之和的步骤包括:
获取包含所述第二用户标识对应的出演所述第二角色的视频的播放分值和互动分值,将所述播放分值和互动分值之和作为每个包含所述第二用户标识对应的出演所述第二角色的视频的基础分值,再求取所有基础分值之和。
5.根据权利要求4所述的方法,其特征在于,所述获取包含所述第二用户标识对应的出演所述第二角色的视频的播放分值和互动分值的步骤包括:
获取所述第二用户标识对应的出演所述第二角色的视频的播放次数、展示次数、评论次数和点赞次数;
根据所述播放次数和展示次数之比,再乘以第一系数因子得到所述第二用户标识对应的出演所述第二角色的视频的播放分值;
获取所述评论次数乘以第二系数因子之积,以及所述点赞次数乘以第三系数因子之积,再获取两个积之和与播放次数的比值得到所述第二用户标识对应的出演所述第二角色的视频的互动分值。
6.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取各用户类型的优先级;
按照优先级从高到低将各用户类型进行排列;
按照优先级高低展示用户类型。
7.根据权利要求6所述的方法,其特征在于,所述方法还包括:
获取各用户类型下允许展示的最大数量;
所述分别展示各用户类型下出演所述第二角色的视频的排序结果的步骤包括:
若某用户类型下的出演所述第二角色的视频的数量超过对应的最大数量时,按照出演所述第二角色的视频的总分值从高到低选取所述最大数量个视频进行展示;
若某用户类型下的出演所述第二角色的视频的数量未超过对应的最大数量时,则将所述用户类型下的出演所述第二角色的视频全部展示。
8.根据权利要求6所述的方法,其特征在于,所述将选取的出演所述第二角色的视频与出演所述第一角色的视频合成为完整的视频的步骤包括:
若高一级的优先级的用户类型中存在出演所述第二角色的视频,则在高一级的优先级的用户类型中选取总分值最高的出演所述第二角色的视频,将所述选取的总分值最高的出演所述第二角色的视频作为选取的出演所述第二角色的视频;
若高一级的优先级的用户类型中不存在出演所述第二角色的视频,则在相邻的下一级的用户类型中选取总分值最高的出演所述第二角色的视频,将所述选取的总分值最高的出演所述第二角色的视频作为选取的出演所述第二角色的视频。
9.一种合演视频中搭档的匹配装置,其特征在于,包括:
第一获取模块,用于获取第一用户标识所录制的出演第一角色的视频;
第二获取模块,用于获取配置的用户类型以及各用户类型中出演与所述第一角色配对的第二角色的视频和出演所述第二角色的第二用户标识;
分值估算模块,用于获取各用户类型中各个第二用户标识对应的出演所述第二角色的视频的总分值;
排序模块,用于将各用户类型中按照总分值从高到低对各个第二用户标识对应的出演所述第二角色的视频进行排序;
展示模块,用于分别展示各用户类型下出演所述第二角色的视频的排序结果;
选取模块,用于获取从所述排序结果中选取的出演所述第二角色的视频;
合成模块,用于将选取的出演所述第二角色的视频与出演所述第一角色的视频合成为完整的视频。
10.根据权利要求9所述的装置,其特征在于,所述分值估算模块包括:
反馈分值估算单元,用于获取包含所述第二用户标识对应的出演所述第二角色的视频的反馈分值;
信息获取单元,用于获取出演所述第一角色的第一用户属性信息,以及出演所述第二角色的各个第二用户属性信息;
属性分值估算单元,用于根据所述第一用户属性信息和各个第二用户属性信息得到各个第二用户属性分值;
总分值估算单元,用于根据所述各个第二用户属性分值和对应反馈分值的乘积得到对应的各个第二用户标识对应的出演所述第二角色的视频的总分值。
11.根据权利要求10所述的装置,其特征在于,所述反馈分值估算单元还用于获取包含所述第二用户标识对应的出演所述第二角色的视频的所有视频的基础分值之和,将所述基础分值之和作为所述包含所述第二用户标识对应的出演所述第二角色的视频的反馈分值。
12.根据权利要求11所述的装置,其特征在于,所述反馈分值估算单元还用于获取包含所述第二用户标识对应的出演所述第二角色的视频的播放分值和互动分值,将所述播放分值和互动分值之和作为每个包含所述第二用户标识对应的出演所述第二角色的视频的基础分值,再求取所有基础分值之和。
13.根据权利要求12所述的装置,其特征在于,所述反馈分值估算单元还用于获取所述第二用户标识对应的出演所述第二角色的视频的播放次数、展示次数、评论次数和点赞次数;
根据所述播放次数和展示次数之比,再乘以第一系数因子得到所述第二用户标识对应的出演所述第二角色的视频的播放分值;以及
获取所述评论次数乘以第二系数因子之积,以及所述点赞次数乘以第三系数因子之积,再获取两个积之和与播放次数的比值得到所述第二用户标识对应的出演所述第二角色的视频的互动分值。
14.根据权利要求9所述的装置,其特征在于,所述装置还包括:
类型优先级获取模块,用于获取各用户类型的优先级;
所述排序模块还用于按照优先级从高到低将各用户类型进行排列;
所述展示模块还用于按照优先级高低展示用户类型。
15.根据权利要求14所述的装置,其特征在于,所述装置还包括:
数量获取模块,用于获取各用户类型下允许展示的最大数量;
所述展示模块还用于若某用户类型下的出演所述第二角色的视频的数量超过对应的最大数量时,按照出演所述第二角色的视频的总分值从高到低选取所述最大数量个视频进行展示;以及
若某用户类型下的出演所述第二角色的视频的数量未超过对应的最大数量时,则将所述用户类型下的出演所述第二角色的视频全部展示。
16.根据权利要求14所述的装置,其特征在于,所述选取模块还用于若高一级的优先级的用户类型中存在出演所述第二角色的视频,则在高一级的优先级的用户类型中选取总分值最高的出演所述第二角色的视频,将所述选取的总分值最高的出演所述第二角色的视频作为选取的出演所述第二角色的视频;以及若高一级的优先级的用户类型中不存在出演所述第二角色的视频,则在相邻的下一级的用户类型中选取总分值最高的出演所述第二角色的视频,将所述选取的总分值最高的出演所述第二角色的视频作为选取的出演所述第二角色的视频。
17.一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行如权利要求1至8中任一项所述方法的步骤。
18.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如权利要求1至8中任一项所述方法的步骤。
CN201610143349.XA 2016-03-14 2016-03-14 合演视频中搭档的匹配方法和装置 Active CN105787087B (zh)

Priority Applications (8)

Application Number Priority Date Filing Date Title
CN201610143349.XA CN105787087B (zh) 2016-03-14 2016-03-14 合演视频中搭档的匹配方法和装置
MYPI2018701974A MY192827A (en) 2016-03-14 2017-02-21 Matching method for partners in costarring video, and terminal and computer-readable storage medium
EP17765683.2A EP3432156A4 (en) 2016-03-14 2017-02-21 ADAPTATION PROCESS FOR PARTNERS IN VIDEO WITH COMMON MAIN ROLL AND END UNIT AND COMPUTER READABLE STORAGE MEDIUM
JP2018531229A JP6563140B2 (ja) 2016-03-14 2017-02-21 共演ビデオにおける相手のマッチング方法及び端末並びにコンピュータ読み取り可能記憶媒体
KR1020187017531A KR102056998B1 (ko) 2016-03-14 2017-02-21 합동 공연 비디오에서의 파트너들에 대한 매칭 방법, 및 단말기, 및 컴퓨터 판독가능 저장 매체
PCT/CN2017/074301 WO2017157141A1 (zh) 2016-03-14 2017-02-21 合演视频中搭档的匹配方法、终端、计算机可读存储介质
US16/107,704 US10380427B2 (en) 2016-03-14 2018-08-21 Partner matching method in costarring video, terminal, and computer readable storage medium
US16/443,443 US10628677B2 (en) 2016-03-14 2019-06-17 Partner matching method in costarring video, terminal, and computer readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610143349.XA CN105787087B (zh) 2016-03-14 2016-03-14 合演视频中搭档的匹配方法和装置

Publications (2)

Publication Number Publication Date
CN105787087A CN105787087A (zh) 2016-07-20
CN105787087B true CN105787087B (zh) 2019-09-17

Family

ID=56393512

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610143349.XA Active CN105787087B (zh) 2016-03-14 2016-03-14 合演视频中搭档的匹配方法和装置

Country Status (7)

Country Link
US (2) US10380427B2 (zh)
EP (1) EP3432156A4 (zh)
JP (1) JP6563140B2 (zh)
KR (1) KR102056998B1 (zh)
CN (1) CN105787087B (zh)
MY (1) MY192827A (zh)
WO (1) WO2017157141A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102056998B1 (ko) 2016-03-14 2019-12-17 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 합동 공연 비디오에서의 파트너들에 대한 매칭 방법, 및 단말기, 및 컴퓨터 판독가능 저장 매체

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107911749B (zh) * 2017-10-27 2020-03-03 优酷网络技术(北京)有限公司 一种合演图谱的展示、提供方法、客户端及服务器
CN109740623B (zh) * 2018-11-21 2020-12-04 北京奇艺世纪科技有限公司 一种演员筛选的方法及装置
CN111090469A (zh) * 2019-04-22 2020-05-01 广东小天才科技有限公司 一种基于图像采集设备的显示屏关闭方法及终端设备
CN112565814B (zh) * 2019-09-26 2022-06-14 腾讯科技(深圳)有限公司 视频发布方法、装置、存储介质及服务器
CN114501137B (zh) * 2022-01-25 2024-04-09 中铁七局集团第三工程有限公司 一种亲情耦合沉浸式安全教培视频模板系统

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1346559A4 (en) 2000-11-16 2006-02-01 Mydtv Inc SYSTEM AND METHOD FOR DETERMINING THE POPULARITY OF VIDEO PROGRAM EVENTS
JP2005522112A (ja) * 2002-04-02 2005-07-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 映像番組用の補足情報を提供するための方法及びシステム
JP3918632B2 (ja) * 2002-05-28 2007-05-23 カシオ計算機株式会社 画像配信サーバ、画像配信プログラム、及び画像配信方法
US20070297755A1 (en) * 2006-05-31 2007-12-27 Russell Holt Personalized cutlist creation and sharing system
US20080215984A1 (en) * 2006-12-20 2008-09-04 Joseph Anthony Manico Storyshare automation
US8060255B2 (en) * 2007-09-12 2011-11-15 Disney Enterprises, Inc. System and method of distributed control of an interactive animatronic show
US8364698B2 (en) * 2008-07-11 2013-01-29 Videosurf, Inc. Apparatus and software system for and method of performing a visual-relevance-rank subsequent search
US8364660B2 (en) * 2008-07-11 2013-01-29 Videosurf, Inc. Apparatus and software system for and method of performing a visual-relevance-rank subsequent search
JP2010057050A (ja) * 2008-08-29 2010-03-11 Sharp Corp 情報端末装置、情報配信装置、情報配信システム及びプログラム
US9396258B2 (en) * 2009-01-22 2016-07-19 Google Inc. Recommending video programs
KR101377235B1 (ko) * 2009-06-13 2014-04-10 로레스타, 인코포레이티드 개별적으로 레코딩된 장면의 순차적인 병렬 배치를 위한 시스템
US8744978B2 (en) * 2009-07-21 2014-06-03 Yahoo! Inc. Presenting search results based on user-customizable criteria
US20110047163A1 (en) * 2009-08-24 2011-02-24 Google Inc. Relevance-Based Image Selection
US20110099195A1 (en) * 2009-10-22 2011-04-28 Chintamani Patwardhan Method and Apparatus for Video Search and Delivery
US9043360B2 (en) * 2010-12-17 2015-05-26 Yahoo! Inc. Display entity relationship
JP5706718B2 (ja) * 2011-03-02 2015-04-22 Kddi株式会社 動画合成システム及び方法並びに動画合成プログラム及びその記憶媒体
KR20120119244A (ko) * 2011-04-21 2012-10-31 에스케이플래닛 주식회사 컨텐츠 제작 방법, 이를 위한 시스템 및 이를 위한 단말기
US8341525B1 (en) * 2011-06-03 2012-12-25 Starsvu Corporation System and methods for collaborative online multimedia production
KR101281003B1 (ko) * 2011-06-28 2013-07-08 서울대학교산학협력단 다시점 영상을 이용한 영상 시스템 및 영상 처리 방법
EP2541514A1 (en) * 2011-06-29 2013-01-02 IGT, a Nevada Corporation External video mixing control
JP5776471B2 (ja) * 2011-09-27 2015-09-09 大日本印刷株式会社 画像表示システム
CN103389996A (zh) * 2012-05-10 2013-11-13 上海爱相随信息科技有限公司 网络婚恋智能递进推荐系统
JP5937988B2 (ja) * 2013-03-08 2016-06-22 株式会社エクシング 動画情報配信システム
CN104281599A (zh) 2013-07-02 2015-01-14 北京千橡网景科技发展有限公司 用于向社交网络中的用户推荐信息的方法和装置
US9230041B2 (en) * 2013-12-02 2016-01-05 Qbase, LLC Search suggestions of related entities based on co-occurrence and/or fuzzy-score matching
JP6470503B2 (ja) * 2014-05-20 2019-02-13 キヤノン株式会社 画像照合装置、画像検索システム、画像照合方法、画像検索方法およびプログラム
US20160004778A1 (en) * 2014-05-23 2016-01-07 BuddyNation Inc. Online social networking service with human matchmaking
CN105049325A (zh) * 2015-06-17 2015-11-11 北京乐动卓越科技有限公司 一种基于时间匹配度的目标用户展现方法及系统
US10169797B2 (en) * 2015-12-15 2019-01-01 Costar Realty Information, Inc. Identification of entities based on deviations in value
CN105787087B (zh) * 2016-03-14 2019-09-17 腾讯科技(深圳)有限公司 合演视频中搭档的匹配方法和装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102056998B1 (ko) 2016-03-14 2019-12-17 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 합동 공연 비디오에서의 파트너들에 대한 매칭 방법, 및 단말기, 및 컴퓨터 판독가능 저장 매체

Also Published As

Publication number Publication date
WO2017157141A1 (zh) 2017-09-21
US20180357485A1 (en) 2018-12-13
EP3432156A1 (en) 2019-01-23
JP2019506035A (ja) 2019-02-28
US20190303679A1 (en) 2019-10-03
EP3432156A4 (en) 2019-01-23
CN105787087A (zh) 2016-07-20
US10380427B2 (en) 2019-08-13
US10628677B2 (en) 2020-04-21
MY192827A (en) 2022-09-12
KR20180086223A (ko) 2018-07-30
KR102056998B1 (ko) 2019-12-17
JP6563140B2 (ja) 2019-08-21

Similar Documents

Publication Publication Date Title
CN105787087B (zh) 合演视频中搭档的匹配方法和装置
US11483277B2 (en) Social platform with enhanced privacy and integrated customization features
US8117272B1 (en) Matching social network users
US9143573B2 (en) Tag suggestions for images on online social networks
CN1917463B (zh) 基于用户操作特征对用户信息关联的方法
US9171275B2 (en) Method for determining communicative value
CN103838469B (zh) 好友列表的展示控制方法及系统
JP2015141530A (ja) 情報処理装置、スコア算出方法、プログラム、およびシステム
CN105103181A (zh) 人物选择器
JP6255599B1 (ja) 情報処理システム、情報処理方法、及びプログラム
Park et al. How use of location-based social network (LBSN) services contributes to accumulation of social capital
KR101315800B1 (ko) 태그 기반 개인 정보의 관리 방법
CN108628999A (zh) 一种基于显式和隐式信息的视频推荐方法
US9922379B1 (en) Entity social network management and entity social interactive controls
Ashman et al. Are clickthroughs useful for image labelling?
CN116069970A (zh) 标签化信息生成方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant