CN109661822A - 用于识别匹配内容的系统和方法 - Google Patents
用于识别匹配内容的系统和方法 Download PDFInfo
- Publication number
- CN109661822A CN109661822A CN201680088756.3A CN201680088756A CN109661822A CN 109661822 A CN109661822 A CN 109661822A CN 201680088756 A CN201680088756 A CN 201680088756A CN 109661822 A CN109661822 A CN 109661822A
- Authority
- CN
- China
- Prior art keywords
- group
- fingerprint
- content item
- bit
- computing system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 92
- 238000012360 testing method Methods 0.000 claims abstract description 89
- 238000003860 storage Methods 0.000 claims description 58
- 238000006073 displacement reaction Methods 0.000 claims description 37
- 238000009432 framing Methods 0.000 claims description 32
- 238000012545 processing Methods 0.000 claims description 24
- 230000008859 change Effects 0.000 claims description 6
- 229910002056 binary alloy Inorganic materials 0.000 claims description 3
- 241000208340 Araliaceae Species 0.000 claims description 2
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 claims description 2
- 235000003140 Panax quinquefolius Nutrition 0.000 claims description 2
- 235000008434 ginseng Nutrition 0.000 claims description 2
- 230000006855 networking Effects 0.000 description 120
- 238000005516 engineering process Methods 0.000 description 20
- 230000005236 sound signal Effects 0.000 description 20
- 230000008569 process Effects 0.000 description 17
- 230000000694 effects Effects 0.000 description 14
- 239000013598 vector Substances 0.000 description 12
- 238000004891 communication Methods 0.000 description 11
- 230000003993 interaction Effects 0.000 description 9
- 238000013475 authorization Methods 0.000 description 8
- 238000013500 data storage Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 6
- 210000003811 finger Anatomy 0.000 description 6
- 238000005259 measurement Methods 0.000 description 6
- 238000005457 optimization Methods 0.000 description 6
- 230000004044 response Effects 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000001228 spectrum Methods 0.000 description 5
- 238000006467 substitution reaction Methods 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 239000000872 buffer Substances 0.000 description 3
- 238000004040 coloring Methods 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 241001269238 Data Species 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 235000013399 edible fruits Nutrition 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 235000014510 cooky Nutrition 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000002073 mitogenetic effect Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 230000003997 social interaction Effects 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/233—Processing of audio elementary streams
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/10—Protecting distributed programs or content, e.g. vending or licensing of copyrighted material ; Digital rights management [DRM]
- G06F21/16—Program or content traceability, e.g. by watermarking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/22—Indexing; Data structures therefor; Storage structures
- G06F16/2228—Indexing structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/22—Indexing; Data structures therefor; Storage structures
- G06F16/2228—Indexing structures
- G06F16/2237—Vectors, bitmaps or matrices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/22—Indexing; Data structures therefor; Storage structures
- G06F16/2228—Indexing structures
- G06F16/2255—Hash tables
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/245—Query processing
- G06F16/2455—Query execution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/245—Query processing
- G06F16/2455—Query execution
- G06F16/24568—Data stream processing; Continuous queries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/71—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7847—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
- G06F16/785—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using colour or luminescence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/907—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6209—Protecting access to data via a platform, e.g. using keys or access control rules to a single file or object, e.g. in a secure envelope, encrypted and accessed using a key, or with access control rules appended to the object itself
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
- G06V20/47—Detecting features for summarising video content
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/60—Network streaming of media packets
- H04L65/61—Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
- H04L65/611—Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for multicast or broadcast
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/2187—Live feed
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/23418—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/254—Management at additional data server, e.g. shopping server, rights management server
- H04N21/2541—Rights Management
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/462—Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
- H04N21/4627—Rights management associated to the content
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/835—Generation of protective data, e.g. certificates
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/835—Generation of protective data, e.g. certificates
- H04N21/8358—Generation of protective data, e.g. certificates involving watermark
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computer Security & Cryptography (AREA)
- Software Systems (AREA)
- Library & Information Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Computer Hardware Design (AREA)
- Health & Medical Sciences (AREA)
- Bioethics (AREA)
- General Health & Medical Sciences (AREA)
- Technology Law (AREA)
- Computer Networks & Wireless Communication (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Information Transfer Between Computers (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
系统、方法和非暂时性计算机可读介质可以获得具有多个视频帧的测试内容项。基于与测试内容项对应的一组视频帧确定至少一个视频指纹。使用视频指纹的至少一部分确定至少一个参考内容项。至少部分地基于测试内容项的视频指纹和参考内容项的一个或多个视频指纹确定测试内容项的至少一部分匹配参考内容项的至少一部分。
Description
技术领域
本技术涉及内容匹配的领域。更具体地,本技术涉及用于识别匹配内容项的技术。
背景技术
现今,出于了各种各样的目的,人们经常使用计算设备(或系统)。例如,用户可以使用他们的计算设备互相交互、访问内容、分享内容、并且创建内容。在一些情况下,内容项可以包括来自社交网络的成员的发帖。发帖可以包括文本和媒体内容项,诸如,图像、视频和音频。发帖可以被公布到社交网络以供其他人消费。
发明内容
本公开的各种实施方式可以包括系统、方法和非暂时性计算机可读介质,被配置为:获得具有多个视频帧的测试内容项;基于与测试内容项相对应的一组视频帧生成至少一个视频指纹;使用视频指纹的至少一部分确定至少一个参考内容项;并且至少部分地基于测试内容项的视频指纹和参考内容项的一个或多个视频指纹来确定与参考内容项的至少一部分匹配的测试内容项的至少一部分。
在实施方式中,系统、方法和非暂时性计算机可读介质被配置为:为该组视频帧中的每个视频帧生成相应的特征向量,其中,特征向量包括描述视频帧的一组特征值;将用于该组视频帧的特征向量转换到频域;并且通过量化与视频帧中的一个或多个视频帧相对应的一组频率分量为每个视频帧生成相应的一组比特。
在实施方式中,在视频帧的特征向量中包括的特征值至少对应于视频帧的测量亮度、视频帧的测量着色、或视频帧中的一个或多个像素组之间的测量变化。
在实施方式中,通过应用快速傅立叶变换(FFT)、离散余弦变换(DCT)或两者,将视频帧的特征向量转换到频域。
在实施方式中,系统、方法和非暂时性计算机可读介质被配置为:在频域中内插视频帧,其中,内插使得视频指纹对应于预定的帧速率。
在实施方式中,系统、方法和非暂时性计算机可读介质被配置为:获得与从中生成视频指纹的该组帧中的第一帧相对应的一组比特;至少部分地基于该组比特的第一部分来识别至少一个候选帧;并且基于候选帧来确定参考内容项。
在实施方式中,系统、方法和非暂时性计算机可读介质被配置为:将该组比特的第一部分散列到倒排索引中的二进制数,其中,二进制数参考描述至少一个候选帧的信息。
在实施方式中,描述候选帧的信息标识参考内容项和偏移,偏移标识候选帧在参考内容项中的位置。
在实施方式中,系统、方法和非暂时性计算机可读介质被配置为:获得与从中生成视频指纹的该组帧中的至少一个第一帧相对应的一组比特;至少部分地基于该组比特的第一部分来识别至少一个候选帧;并且确定在对应于第一帧的该组比特与对应于候选帧的一组比特之间的汉明距离满足阈值。
在实施方式中,系统、方法和非暂时性计算机可读介质被配置为:获得与从中生成视频指纹的该组帧中的至少一个第二帧相对应的一组比特;确定与参考内容项中的新帧相对应的一组比特;并且确定在对应于第二帧的该组比特与对应于新帧的一组比特之间的汉明距离满足阈值。
本公开的各种实施方式可以包括系统、方法和非暂时性计算机可读介质,被配置为:使用测试内容项的一个或多个第一指纹和参考内容项的一个或多个第一指纹来评估测试内容项的至少一部分与参考内容项的至少一部分,其中,第一指纹对应于第一类型的媒体;确定满足至少一个验证标准;并且使用测试内容项的一个或多个第二指纹和参考内容项的一个或多个第二指纹来评估测试内容的部分与参考内容的部分,其中,第二指纹对应于与第一类型的媒体不同的第二类型的媒体。
在实施方式中,系统、方法和非暂时性计算机可读介质被配置为:获得与测试内容项的部分相对应的一个或多个第二指纹;获得与参考内容项的部分相对应的一个或多个第二指纹;并且使用测试内容项的第二指纹和参考内容项的第二指纹来确定测试内容项的部分与参考内容项的部分匹配。
在实施方式中,系统、方法和非暂时性计算机可读介质被配置为:使用测试内容项的第一指纹和参考内容项的第一指纹来确定测试内容项的部分不匹配参考内容项的部分。
在实施方式中,系统、方法和非暂时性计算机可读介质被配置为:使用测试内容项的第一指纹和参考内容项的第一指纹来确定测试内容项的部分匹配参考内容项的部分。
在实施方式中,系统、方法和非暂时性计算机可读介质被配置为:确定在阈值时间段内在测试内容项与参考内容项之间确定没有匹配。
在实施方式中,系统、方法和非暂时性计算机可读介质被配置为:确定在阈值帧数内在测试内容项与参考内容项之间确定没有匹配。
在实施方式中,第一指纹和第二指纹对应于以下各项之一:音频指纹、视频指纹、或缩略图指纹。
在实施方式中,第一指纹对应于音频指纹,并且其中,第二指纹对应于视频指纹。
在实施方式中,第一指纹对应于缩略图指纹,并且其中,第二指纹对应于视频指纹。
在实施方式中,系统、方法和非暂时性计算机可读介质被配置为:使用测试内容项的一个或多个第三指纹和参考内容项的一个或多个第三指纹来评估测试内容的部分与参考内容的部分,其中,第三指纹对应于与第一类型的媒体和第二类型的媒体不同的第三类型的媒体。
本公开的各种实施方式可以包括系统、方法和非暂时性计算机可读介质,被配置为:基于与测试内容项相对应的一组帧来生成至少一个指纹;使用指纹的至少一部分生成一组失真指纹;并且使用该组失真指纹确定一个或多个参考内容项,其中,测试内容项是针对至少一个参考内容项来评估,以识别匹配内容。
在实施方式中,系统、方法和非暂时性计算机可读介质被配置为:获得与生成指纹的该组帧中的第一帧相对应的一组比特;并且为该组比特的至少一部分生成一组二进制串置换。
在实施方式中,在每个二进制串中置换一个或多个比特。
在实施方式中,系统、方法和非暂时性计算机可读介质被配置为:为该组比特的部分生成第一组二进制串置换,其中,在每个二进制串中置换一个比特;使用第一组二进制串置换确定没有识别到参考内容项;并且为该组比特的部分生成第二组二进制串置换,其中,在每个二进制串中置换多个比特。
在实施方式中,系统、方法和非暂时性计算机可读介质被配置为:继续分阶段地生成和测试失真,直到阈值中央处理单元(CPU)使用率;和/或达到阈值查询时间。
在实施方式中,系统、方法和非暂时性计算机可读介质被配置为:获得与第一失真指纹相对应的一组比特;至少部分地基于该组比特的一部分来识别至少一个候选帧;并且基于候选帧来确定参考内容项。
在实施方式中,系统、方法和非暂时性计算机可读介质被配置为:将该组比特的部分散列到倒排索引中的二进制数,其中,二进制数参考描述至少一个候选帧和参考内容项的信息。
在实施方式中,系统、方法和非暂时性计算机可读介质被配置为:确定使用一组失真指纹识别参考内容项将不引起计算系统的中央处理单元(CPU)负载超过阈值负载。
在实施方式中,系统、方法和非暂时性计算机可读介质被配置为:使用至少一个指纹确定没有识别到参考内容项。
在实施方式中,系统、方法和非暂时性计算机可读介质被配置为:使用至少一个指纹确定至少一个参考内容项;并且确定在测试内容项与参考内容项之间没有识别到匹配。
在实施方式中,系统、方法和非暂时性计算机可读介质被配置为:使用至少一个指纹确定至少一个参考内容项;并且确定在测试内容项与参考内容项之间的匹配是在阈值匹配距离内。
应当理解,从附图和以下详细说明中所公开的技术的许多其他特征、应用、实施方式和/或变化将是显而易见的。在不背离所公开的技术的原理的情况下,可以采用本文中描述的结构、系统、非暂时性计算机可读介质和方法的附加和/或替代实现方式。
具体地,在所附权利要求中公开了根据本发明的实施方式,涉及一种方法、存储介质、系统和计算机程序产品,其中,可以在另一权利要求类别(例如,系统)中要求保护在一个权利要求类别(例如,方法)中提到的任何特征。所附权利要求中的依赖或引用关系仅出于形式原因而选择。但是,从之前的任何权利要求中(具体而言,多重依赖性)刻意引用的任何主题也可被要求,因此无论所附权利要求选择何种依赖性,权利要求及其特征的任何组合都能被要求。可以要求保护的主题不仅包括所附权利要求中阐述的特征的组合,还包括权利要求中的特征的任何其他组合,其中,权利要求中提及的每个特征可以与权利要求中的任何其他特征或其他特征的组合相结合。此外,本文中描述或描绘的任何实施方式和特征可以以单独的权利要求和/或与本文中描述或描绘的任何实施方式或特征或者与所附权利要求的任何特征的任何组合来要求保护。
附图说明
图1示出了根据本公开的实施方式的示例系统,包括被配置为提供对各种内容项的访问的示例内容提供商模块。
图2示出了根据本公开的实施方式的内容匹配模块的实例。
图3示出了根据本公开的实施方式的指纹化模块的实例。
图4示出了根据本公开的实施方式的存储模块的实例。
图5示出了根据本公开的实施方式的匹配模块的实例。
图6示出了根据本公开的实施方式的用于从帧提取特征值的示例方法。
图7示出了根据本公开的实施方式的用于存储和检索指纹数据的示例倒排索引。
图8A至图8B示出了根据本公开的实施方式的用于识别内容项之间的匹配内容的示例方法。
图9A至图9C示出了根据本公开的实施方式的用于处理直播内容流的示例方法。
图10示出了根据本公开的各种实施方式的用于指纹化内容的示例过程。
图11示出了根据本公开的各种实施方式的用于使用不同类型的指纹匹配内容的示例过程。
图12示出了根据本公开的各种实施方式的用于使用失真指纹匹配内容的示例过程。
图13示出了根据本公开的实施方式的示例系统的网络图,包括可以在各种场景中使用的示例社交网络系统。
图14示出了根据本公开的实施方式的可以在各种场景中使用的计算机系统或计算设备的实例。
为了说明目的,附图仅描绘了所公开的技术的各种实施方式,其中,附图使用相似的参考数字来标识相似的元件。本领域技术人员将从以下讨论中容易地认识到,可以在不背离本文中描述的公开技术的原理的情况下,采用附图中示出的结构和方法的替代实施方式。
具体实施方式
用于识别匹配内容的方法
现今,出于各种各样的目的,人们经常使用计算设备(或系统)。例如,用户可以使用他们的计算设备互相交互、访问内容、分享内容、并且创建内容。在一些情况下,内容项可以包括来自社交网络的成员的发帖。发帖可以包括文本和媒体内容项,诸如,图像、视频和音频。发帖可以被公布到社交网络以供其他人消费。
在常规方法下,内容可以通过内容提供商来进行广播。例如,这样的内容提供商可以通过各种广播媒介(例如,电视、卫星、互联网等)对内容进行广播。在一个实例中,广播可以包括由发布者捕获并流式直播的内容。例如,发布者可以提供作为直播内容流的一部分要进行广播的内容(例如,直播音乐会、电视节目首映等)。这样的事件可以使用例如视频捕获设备(例如,视频相机)和/或音频捕获设备(例如,麦克风)来捕获。然后,该捕获的内容可以由内容提供商(例如,社交网络系统)实时地编码并通过网络(例如,互联网)分发给用户设备。在一些情况下,未经授权的实体可以捕获发布者的直播内容流的副本,并通过内容提供商流式传输复制的内容来作为单独的直播内容流的一部分。例如,当内容正呈现在电视显示器上时,该实体可以录制发布者的直播内容流的视频。在另一实例中,未经授权的实体可以捕获通过不同的媒介(例如,卫星等)广播的事件流,并通过内容提供商公布捕获的流。
在常规方法下,可能难以检测这种未经授权的直播内容流,并且当直播内容流包含受版权保护的内容时,这种困难可能尤其成问题。例如,在常规方法下,内容提供商通常会在内容项已经完全上传到内容提供商之后检查内容项是否侵犯受版权保护的内容项。然后,内容提供商将针对受版权保护的内容项分析上传的内容项,以识别是否有任何部分匹配。虽然这些方法可能足以检测点播服务的内容项中的版权侵犯,但它们通常不足以检测正在流式直播的内容项中的版权侵犯。因此,这种常规方法可能无法有效地解决计算机技术中出现的这些问题和其他问题。
基于计算机技术的改进方法克服了与尤其在计算机技术领域中出现的与常规方法相关联的前述缺点和其他缺点。在各种实施方式中,发布者可以通过社交网络系统提供要流式传输或广播的内容作为直播内容流的一部分。发布者可以指示直播内容流是受版权保护的,并且基于该指示,社交网络系统可以在流式直播内容时生成内容的指纹。例如,这些指纹可以存储在参考数据库中,并用于识别其他直播内容流和/或点播内容项中的复制内容。例如,当发布者的内容正在流式直播时,社交网络系统可以确定是否有任何其他的直播内容流和/或点播内容项全部或部分地匹配发布者的受版权保护的直播内容流。与发布者的直播内容流匹配的内容项的任何部分可能是对版权或其他合法权利的侵权。在这种情况下,可以向未经授权的广播者和/或直播内容流的发布者(例如,版权所有者)通知可能的版权侵权,并且可以采取适当的动作。在一些实施方式中,由未经授权的广播者发布的侵权直播内容流和/或点播内容项自动变得不可通过社交网络系统访问。
图1示出了根据本公开的实施方式的示例系统100,包括被配置为提供对各种内容项的访问的示例内容提供商模块102。如图1的实例中所示,内容提供商模块102可以包括内容上传模块104、直播流模块106、内容模块108和内容匹配模块110。在一些情况下,示例系统100可以包括至少一个数据存储112。在这个附图和本文中的所有附图中示出的部件(例如,模块、元件等)仅是示例性的,并且其他实现方式可以包括附加的、更少的、集成的或不同的部件。可以不示出一些部件,以便不使相关细节晦涩。
在一些实施方式中,内容提供商模块102可以部分或全部地实现为软件、硬件、或其任何组合。通常,如本文中讨论的模块可以与软件、硬件、或其任何组合相关联。在一些实现方式中,可以通过软件例程、软件过程、硬件和/或其任何组合实施或执行模块的一个或多个功能、任务和/或操作。在一些情况下,内容提供商模块102可以部分或全部地实现为在一个或多个计算设备或系统上(诸如,在用户计算设备或客户端计算设备上)运行的软件。在一个实例中,内容提供商模块102或其至少一部分可以实现为在用户计算设备或客户端计算系统(诸如,图13的用户设备1310)上运行的应用(例如,app)、程序或小程序等,或者可以在应用、程序或小程序等内实现。在另一实例中,内容提供商模块102或其至少一部分可以使用包括诸如网络服务器或者云服务器的一个或多个服务器的一个或多个计算设备或系统实现。在一些情况下,内容提供商模块102可以部分或全部地在诸如图13的社交网络系统1330的社交网络系统(或服务)内实现,或者被配置为结合该社交网络系统进行操作。
内容提供商模块102可以被配置为与至少一个数据存储112通信和/或操作,如示例系统100中所示。至少一个数据存储112可以被配置为存储并保持各种类型的数据。例如,数据存储112可以存储描述通过社交网络系统正在流式直播的各种内容的信息或者已经由社交网络系统的用户发布的内容项。这样的信息可以包括例如为直播内容流和为点播内容项生成的指纹(例如,比特序列)。在一些实现方式中,至少一个数据存储112可以存储与社交网络系统(例如,图13的社交网络系统1330)相关联的信息。与社交网络系统相关联的信息可以包括关于用户、社交连接、社交交互、位置、地域围栏区域、地图、地点、事件、页面、团体、帖子、通信、内容、推送、账号设置、隐私设置、社交图谱的数据、以及各种其他类型的数据。在一些实现方式中,至少一个数据存储112可以存储与用户相关联的信息,诸如,用户标识符、用户信息、简档信息、用户指定设置、用户产生或发布的内容、以及各种其他类型的用户数据。
内容提供商模块102可以被配置为向用户提供对通过社交网络系统发布的内容项的访问。例如,用户可以与由在用户的计算设备上运行的软件应用(例如,社交网络应用)提供的界面交互。该界面可以包括用于将内容项发布或上传到社交网络系统的选项。在发布内容项时,内容上传模块104可以用于将描述内容项的数据从计算设备传送到社交网络系统。例如,这样的内容项可以包括文本、图像、音频和视频。社交网络系统可以然后通过社交网络系统提供内容项,包括例如在一个或多个新鲜事中。在一些实施方式中,界面还可以包括用于通过社交网络系统对内容项进行流式直播的选项。在发起直播内容流时,直播流模块106可以用于将描述要流式直播的内容的数据从计算设备传送到社交网络系统。直播流模块106可以利用允许对内容进行流式直播的任何通常已知的技术,包括例如实时消息传送协议(RTMP)。
由软件应用提供的界面还可以用于例如使用内容模块108来访问发布的内容项。例如,内容模块108可以包括用户的新鲜事中的内容项。这样的内容项可以包括点播内容项(例如,视频点播或“VOD”)以及正在流式直播的内容。在该实例中,用户可以在浏览新鲜事时访问内容项。在另一实例中,用户可以通过界面搜索内容项、搜索发布内容项的用户和/或使用与内容项相对应的搜索项来访问内容项。在一个实例中,用户可以选择选项以查看直播内容流,并且作为响应,社交网络系统可以将与直播内容流相对应的数据发送到用户的计算设备。在该实例中,社交网络系统可以继续发送与直播内容流相对应的数据,直到例如直播内容流的发布者中断流式传输或者如果用户选择中断直播内容流的选项为止。内容匹配模块110可以被配置为识别正在流式直播或通过社交网络系统点播可获得的内容项之间的匹配(例如,版权侵犯)。下面将参考图2提供关于内容匹配模块110的更多细节。
图2示出了根据本公开的实施方式的内容匹配模块202的实例。在一些实施方式中,图1的内容匹配模块110可以实现为内容匹配模块202。如图2所示,内容匹配模块202可以包括指纹化模块204、存储模块206、匹配模块208和通知模块210。
在各种实施方式中,指纹化模块204被配置为确定或获得内容项的相应指纹。例如,当社交网络系统接收到流时,可以确定直播内容流的一组指纹。在另一实例中,在将内容项上传到社交网络系统之后,可以为内容项确定一组指纹。在一些实施方式中,流式直播或上传内容项的发布者可以选择指示该内容项受到保护(例如受版权保护)的选项。在这样的实施方式中,响应于选择该选项,可以对直播内容流或上传的内容项进行指纹化和存储,例如,存储在参考数据库(例如,图1的数据存储112)中。存储在该参考数据库中的指纹可以用于确定通过社交网络系统获得的其他内容项(作为直播流或点播视频)是否匹配(例如,侵犯)已被识别为受保护(例如,受版权保护)的内容。
在一些实施方式中,指纹化模块204可以从一个或多个指纹服务获得内容项的指纹,每个指纹服务被配置为使用一种或多种技术确定指纹。例如,可以使用与内容项相对应的视频数据、与内容项相对应的音频数据或两者来确定这样的指纹。下面将参考图3提供关于指纹化模块204的更多细节。
存储模块206可以被配置为管理与各种内容项有关的信息的存储。在各种实施方式中,存储模块206被配置为优化对于内容项获得或生成的指纹的存储。下面将参考图4提供关于存储模块206的更多细节。
在各种实施方式中,匹配模块208被配置为确定内容项之间的相关性的测量。这样的测量可以用于确定内容项(例如,直播内容流和/或点播内容项)是否全部或部分地匹配直播内容流的任何部分、最近流式直播的内容的任何部分和/或通过社交网络系统点播可获得的视频的任何部分。例如,匹配模块208可以确定受保护的直播内容流的一个或多个部分(例如,帧)与候选直播流的一个或多个部分(例如,帧)匹配。在一些实施方式中,匹配模块208可以用于识别和隔离包括已被标记为包括不适当或淫秽内容的任何内容的内容项。下面将参考图5提供关于匹配模块208的更多细节。
通知模块210可以被配置为响应于任何受保护内容被复制(例如,潜在或以其他方式的版权侵权)而采取各种动作。例如,一旦确定在第一内容项(例如,受保护的直播内容流)与第二内容项(例如,候选直播内容流)之间达到阈值内容匹配,通知模块210就可以向广播者通知候选直播内容流存在复制(例如,潜在的版权侵犯)。在一些实施方式中,广播者具有结束候选直播内容流或继续直播内容流的选项。在这样的实施方式中,通过继续直播内容流,广播者声明其流式传输候选直播内容流的权利。在一些情况下,如果广播者结束候选直播内容流,则不需要由发布者执行任何动作,并且取决于实现方式,发布者可以被通知或可以不被通知广播者的直播内容流。然而,如果广播者决定继续候选直播内容流,则通知模块210可以向发布者提供关于匹配内容的信息。在一些实施方式中,发布者可以访问由通知模块210提供的界面,该界面标识发现匹配的候选直播内容流的相应部分。发布者可以访问界面以回放内容项的匹配部分。发布者还可以访问界面,从而:将直播内容流和/或上传内容项标记为复制侵权(例如,版权侵权);不采取任何行动(例如,由于对内容项的合理使用);或例如为受保护(例如,受版权保护的)部分的使用授权。在一些实施方式中,使用户无法通过社交网络系统访问被标记为侵犯发布者的受保护内容的任何直播内容流和/或上传内容项。在一些实施方式中,发布者可以创建匹配规则,该匹配规则指定在向发布者被通知匹配之前要满足的各种标准。例如,在一些实施方式中,发布者可以指定匹配类型(例如,音频、视频、仅视频、仅音频、或音频和视频两者)。在该实例中,如果匹配满足匹配类型,则向发布者通知匹配。在一些实施方式中,发布者可以指定地理区域(例如,特定城市、州、地区、国家、世界范围等)。在该实例中,如果匹配内容源自指定地理区域或者从指定地理区域广播,则向发布者通知匹配。在一些实施方式中,发布者可以指定一个或多个匹配条件,以及如果满足那些条件则要执行的动作。一个示例匹配条件涉及设置匹配持续时间。在该实例中,如果匹配内容的时间长度满足(例如,大于、等于或小于)匹配持续时间,则可以通知发布者。在一些实施方式中,发布者可以指定匹配长度(例如,帧数),并且如果匹配内容满足指定的匹配长度则通知发布者。在一些实施方式中,发布者可以指定被允许使用发布者的受保护内容的一个或多个已批准或列入白名单的用户和/或页面。在这样的实施方式中,如果匹配的内容是由未被批准或未列入白名单的任何用户或页面发布的,则通知发布者。在一些实施方式中,发布者可以将用户和/或页面列入黑名单,并且如果匹配内容源自列入黑名单的用户和/或通过列入黑名单的页面广播则通知发布者。在一些实施方式中,发布者可以指定在满足匹配规则时要执行的一个或多个动作。例如,发布者可以指定针对满足某个规则或某些规则的匹配,应不采取任何操作。在另一实例中,发布者可以指示当匹配满足某个规则或某些规则时应该向发布者发送通知或报告。提供上述匹配规则和条件作为实例,并且在一些实施方式中,发布者可以使用其他约束来创建匹配规则。通常,上述任何示例匹配规则和/或条件可以与其他规则和/或条件相结合。
图3示出了根据本公开的实施方式的指纹化模块302的实例。在一些实施方式中,图2的指纹化模块204可以实现为指纹化模块302。如图3所示,指纹化模块302可以包括音频指纹化模块304、视频指纹化模块306、缩略图指纹化模块308和分布式指纹化模块310。
音频指纹化模块304可以被配置为获得或生成内容项的音频指纹。可以使用各种通常已知的技术来生成这样的音频指纹。在一些实施方式中,音频指纹化模块304从对应于内容项的音频信号获得或生成音频指纹。音频信号可以由一个或多个离散的音频帧构成,每个音频帧对应于音频信号在某个时间的一部分。每个音频帧可以对应于音频信号在某个时间长度(例如,32毫秒、64毫秒、128毫秒等)上的一部分。在一些实施方式中,每个音频帧对应于固定的时间长度。例如,每个音频帧可以表示音频信号的某个部分,并且长度为64毫秒。可以从音频信号中提取的特征的一些实例可以包括频域中的声学特征(例如,在音频信号的幅度谱上计算的频谱特征)、音频信号的Mel频率倒谱系数(MFCC)、音频信号的频谱带宽和频谱平坦度测量、频谱波动、极值频率和音频信号的静音频率。从音频信号中提取的音频特征还可以包括时域中的特征,诸如,音频信号的纹理窗口上的特征向量的均值、标准偏差和协方差矩阵。与上述实例分开地或除了上述实例之外,可以提取其他特征,包括例如在某个时间段内的音频信号的音量改变以及如果音频信号被压缩时音频信号的压缩格式。
音频指纹化模块304可以从音频信号的一个或多个音频帧生成音频指纹。在一些实施方式中,基于由音频信号的某个部分捕获的各种声学和/或感知特性来生成与音频信号的该部分相对应的音频指纹。针对帧计算的音频指纹可以表示为表示音频指纹对应的波形或帧的一组比特(例如,32比特、64比特、128比特等)。在一些实施方式中,音频指纹化模块304预处理音频信号、将音频信号从一个域(例如,时域)变换到另一个域(例如,频域)、对经变换的音频信号进行滤波、并由经滤波的音频信号生成音频指纹。在一些实施方式中,使用离散余弦变换(DCT)来生成音频指纹。在一些实施方式中,当对应于第一音频指纹的一组比特与对应于第二音频指纹的一组比特之间的汉明距离满足阈值时,可以确定第一音频指纹与第二音频指纹之间匹配。描述这种音频指纹生成和匹配的更多细节在美国专利申请号14/153,404和14/552,039中进行了描述,这两者都通过引用结合于此。可以存储针对内容项生成的音频指纹并将其用于识别匹配内容。在一些情况下,内容项的一部分可以包括静音,即,没有可感知的音频。例如,可以基于与内容项相对应的音频波形来确定该内容项的一部分是可听静音的。在一些实施方式中,可以例如通过将那些音频指纹的比特串改变为全零来标记为包含静音内容的部分生成的该音频指纹。在这样的实施方式中,当执行指纹匹配时,可以跳过已被标记为静音的内容项的部分。
在一些实施方式中,每个音频指纹对应于预定的帧速率(例如,每秒8帧、每秒16帧、每秒32帧等)。例如,按每秒16帧,内容项的音频指纹可以对应于一系列帧(例如,16个音频帧)并且可以表示内容项中的一秒音频。在该实例中,对应于音频指纹的16帧中的每一帧可以表示为64比特或64比特整数的组。在一些实施方式中,指纹模块302以相同的预定帧速率生成音频指纹、视频指纹和缩略图指纹。下面将参考图4提供描述音频指纹的存储和检索的更多细节。
视频指纹化模块306可以被配置为获得或生成内容项的视频指纹。在一些实施方式中,在计算视频指纹时,视频指纹化模块306将描述内容项的一组视频帧(例如,8帧、16帧、32帧等)的数据从时域转换到频域。例如,该组帧可以是内容项中的一组连续帧(例如,帧1到帧8、帧1到帧16等)。在这样的实施方式中,视频指纹化模块306确定要用于将帧转换到频域中的该组帧的相应特征值。可以基于与帧对应的一个或多个特征来确定帧的特征值。在一个实例中,可以通过计算帧的亮度来确定帧的特征值,例如,通过平均帧中的像素的值。在另一实例中,可以基于帧中的着色分量(例如,基于RGB颜色模型和/或YUV颜色空间)来确定帧的特征值。该组帧的每个特征值可以包括在阵列或缓冲区中。然后可以将这些特征值变换到一个或多个其他域中。通常,可以应用任何类型的变换。例如,在一些实施方式中,对特征值应用时间-频率变换。在一些实施方式中,对特征值应用空间-频率变换。在一些实施方式中,通过应用快速傅里叶变换(FFT)、离散余弦变换(DCT)或两者来将特征值转换至一不同的域。一旦转换,该组帧随时间的值被表示为频率分量的分布。在一些实施方式中,帧中的对象被分段,并且对这些段应用变换。在一些实施方式中,帧中的区域被分段,并且对这些段应用变换。
在一些实施方式中,每个视频指纹对应于预定的帧速率(例如,每秒8帧、每秒16帧、每秒32帧等)。例如,按每秒16帧,内容项的视频指纹可以对应于一系列的16个帧并且可以表示内容项中的一秒视频。在该实例中,对应于视频指纹的16帧中的每一帧可以表示为64比特或64比特整数的组。在各种实施方式中,视频指纹化模块306可以执行通常已知的内插技术,使得视频指纹对应于预定的帧速率,尽管内容项被指纹化为具有一不同的帧速率。可以使用针对该组帧确定的频谱分量在频域中执行这种内插。例如,可以通过丢弃超过阈值的任何高频系数(例如,低通滤波器)同时保持其余的低频系数来完成两帧的内插。
视频指纹化模块306可以量化这些低频系数以生成对应于视频指纹中包括的帧的一组比特。如上所述,在一些实施方式中,视频指纹对应于帧序列,并且每一帧被表示为64比特或64比特整数的组。在一些实施方式中,如果将8点FFT应用于该组帧,则视频指纹化模块306可以量化四个低频分量以生成表示该组帧中的每一帧的相应64比特。为了计算下一个视频指纹,视频指纹化模块306可以通过丢弃该组中的第一帧的值并且为内容项的下一帧附加对应的值来将该组帧移位一。因此,例如,如果初始的一组帧包括帧1到8的值,则经移位的该组帧将包括帧2到9的值。然后,视频指纹化模块306可以使用如上所述的经移位的该帧组来生成另一视频指纹。在各种实施方式中,视频指纹化模块306继续使该组帧移位以生成视频指纹,直到到达内容项中的最后一帧(例如,直播内容流的结尾或点播内容项文件的结尾)。因此,在这样的实施方式中,指纹对应于被指纹化的内容项的重叠帧。例如,可以从帧1到16确定第一指纹,可以从帧2到17确定第二指纹,可以从帧3到18确定第三指纹,等等。
在一些实施方式中,不是依赖于单个特征值,而是为该组帧中的每一帧确定特征值的向量,并且这些向量用于将该组视频帧变换到频域中。例如,为视频帧确定的特征向量可以描述对应于该帧的各种特征的值。在一些实施方式中,特征值可以描述帧中的一个或多个像素组之间的变化(例如,亮度的变化、着色的变化等)。在这样的实施方式中,可以在帧602中的像素604周围识别第一区域606和第一区域606内的第二区域608,如图6的实例中所示。第一区域606和第二区域608都可以被分段成一组扇区(例如,6个、8个、10个扇区,等)。例如,在图6中,第一区域606被划分为扇区a1、a2、a3、a4、a5、a6、a7和a8,而第二区域608被划分为扇区b1、b2、b3、b4、b5、b6、b7和b8。可以为每个扇区计算特征值。这些特征值可以存储在矩阵610中。接下来,计算每个内部扇区的特征值(例如,b1)与其对应的外部扇区的特征值(例如,a1)之间的差值。这些差值可以存储在矩阵612(例如,f1、f2……f8)中。在一些实施方式中,针对帧602中的每个像素计算这种差值,并且将相应的差值相加以产生矩阵612。可以为如上所述处理的该组视频帧中的每一帧生成矩阵612。作为结果,在一些实施方式中,该组视频帧中的每一帧将由一组值(例如,8个值)的对应特征向量表示。然后,如果需要,可以对该组视频帧的特征向量进行内插,并且例如通过应用离散余弦变换和/或快速傅立叶变换将其转换到频域,如上所述。在一些实施方式中,通过应用通常已知的特征检测方法(例如,定向FAST和旋转BRIEF(ORB:Oriented FAST and Rotated BRIEF))来确定特征向量中包括的一些或所有特征值。
在一些实施方式中,视频指纹化模块306为每一帧生成多于一个指纹。例如,在一些实施方式中,视频指纹化模块306将被指纹化的帧水平地划分为上半部分和下半部分。在这样的实施方式中,为帧的上半部分生成第一指纹,为帧的下半部分生成第二指纹。例如,第一指纹和第二指纹可以各自使用32比特来表示。在一个实例中,这样的方法可以用于区分包括滚动文本(例如,片尾演职员表)的内容项。当然,可以以多种不同的方式(例如,垂直、对角等)划分帧,并且可以生成每个划分部分的相应指纹。在一些实施方式中,在指纹化内容之前,视频指纹化模块306移除与内容相关联的所有颜色信息,并将内容转换为黑白或灰度表示。在一些情况下,视频中的帧可能从其原始状态翻转(例如,水平翻转,垂直翻转等)。这种帧的翻转可能用以防止识别视频中的匹配内容。因此,在一些实施方式中,当对视频的帧进行指纹化时,视频指纹化模块306为处于其原始状态的帧生成指纹,并为处于一个或多个相应翻转状态(例如,水平翻转、垂直翻转等)的帧生成一个或多个单独的指纹。可以存储为内容项生成的视频指纹并将其用于识别匹配内容。下面将参考图4提供描述视频指纹的存储和检索的更多细节。
缩略图指纹化模块308可以被配置为获得或生成内容项的缩略图指纹或图像指纹。在一些实施方式中,当生成内容项的缩略图指纹时,缩略图指纹化模块308以预定的时间间隔(例如,每1秒、每3秒等)捕获内容项中的帧的缩略图快照。这种缩略图快照可以用于使用通常已知的图像指纹化技术生成对应的缩略图指纹。在一些实施方式中,使用一组比特(例如,32比特、64比特、128比特等)来表示每个缩略图指纹。在一些实施方式中,在每个预定的时间间隔,缩略图指纹化模块308以一个或多个比例和/或分辨率捕获多个缩略图快照。在这样的实施方式中,可以为多个缩略图快照生成单独的指纹。尽管在被评估的内容中存在失真,但是这样的多个指纹可以用于识别两个内容项之间的匹配缩略图。可以存储为内容项生成的缩略图指纹并将其用于识别匹配内容。下面将参考图4提供描述视缩略图指纹的存储和检索的更多细节。
在一些实施方式中,当要对指纹内容项进行指纹化时,指纹化模块302为内容项生成音频指纹、视频指纹和/或缩略图指纹。这些指纹可以单独使用或组合使用,以识别包括与指纹化内容项匹配的内容部分(例如,音频、视频、缩略图)的其他内容项。在一些实施方式中,一旦对应于点播内容项的文件可用或上传到例如内容提供商系统(例如,社交网络系统),就可以对点播内容项进行指纹化。在一些实施方式中,一旦内容提供商系统接收到描述直播内容流的数据,就对该直播内容流进行指纹化。
在一些实施方式中,指纹化模块302在内容提供商系统上实现。在这样的实施方式中,在接收到描述内容项的数据之后,内容提供商系统对内容项执行指纹化。在一些实施方式中,指纹化模块302在用户设备上实现。在这样的实施方式中,当描述内容项的数据被发送到内容提供商系统时,由用户设备对内容项执行指纹化。在一些实施方式中,分布式指纹化模块310被配置为使得用户设备和内容提供商系统生成不同类型的指纹。例如,在一些实施方式中,分布式指纹化模块310可以指示用户设备为正被提供给内容提供商系统的内容项生成一种或多种类型的指纹(例如,音频指纹和/或缩略图指纹)。在这样的实施方式中,分布式指纹化模块310可以指示内容提供商系统在接收到内容项时生成一种或多种不同类型的指纹(例如,视频指纹)。这种分布式指纹化可以允许更优化地使用计算资源。
在一些实施方式中,分布式指纹化模块310可以指示用户设备为正被提供给内容提供商系统的内容项生成并发送一个或多个第一类型的指纹(例如,音频指纹)。在这样的实施方式中,如果使用一个或多个第一类型的指纹(例如,音频指纹)识别到内容项与参考内容项之间的匹配,则分布式指纹化模块310可以指示用户设备开始为正在提供的内容项生成并发送一个或多个第二类型的指纹(例如,视频指纹和/或缩略图指纹),以使用附加类型的指纹(例如,视频指纹和/或缩略图指纹)进一步验证匹配的内容。在各种实施方式中,指纹(例如,音频指纹、视频指纹、缩略图指纹)还可以与提供关于从其确定指纹的相应内容项的各种信息的元数据相关联。这样的信息可以包括对应于内容项的标题、描述、关键字或标签。在一些实施方式中,信息可以包括例如,使用通常已知的光学字符识别(OCR)技术从内容项(或对应于内容项的帧)提取的任何文本。
图4示出了根据本公开的实施方式的存储模块402的实例。在一些实施方式中,图2的存储模块206可以实现为存储模块402。如图4所示,存储模块402可以包括索引模块404和优化模块406。
索引模块404可以被配置成存储为内容项生成的指纹(例如,音频指纹、视频指纹、缩略图指纹)。通常,可以使用用于存储和检索数据的任何通常已知的方法来存储这样的指纹。在一些实施方式中,为直播内容流生成的指纹被存储在直播参考数据库中,而为点播内容项生成的指纹被存储在静态参考数据库中。在一些实施方式中,在阈值时间段内(例如,在最近的24小时内、48小时内,得到77等等)提供(例如,流式传输和/或上传)的内容项(例如,直播内容流和点播内容项)的指纹被存储在实时参考数据库中,而超过该阈值时间段提供的内容项的指纹被存储在静态参考数据库中。在这样的实施方式中,存储模块402根据需要基于阈值时间段将内容项的指纹数据从实时参考数据库移动到静态参考数据库,以满足这两个数据库之间的指纹数据的分离。
在一些实施方式中,索引模块404将指纹数据存储在一个或多个数据结构中。使用的数据结构可以根据可用于存储和处理指纹数据的计算资源而变化。在一个实例中,一组计算资源可以证明索引数据结构的使用是合理的,而另一组计算资源可以证明使用倒排索引数据结构是合理的。例如,音频指纹可以存储在第一倒排索引数据结构中,视频指纹可以存储在第二倒排索引数据结构中,并且缩略图指纹可以存储在第三倒排索引数据结构中。如上所述,单独的倒排索引数据结构可以用于存储为直播内容流和点播内容项生成的指纹。图7示出了示例倒排索引数据结构702。在该实例中,倒排索引702包括一组二进制数704。每个二进制数可以参考已经被散列到该二进制数的一组指纹化帧。例如,指纹化帧708和710均被散列到二进制数706。
如上所述,每个指纹可以对应于一组帧,并且每一帧可以表示为一组比特,例如64比特或整数。在一些实施方式中,当将指纹化帧插入倒排索引702中时,对应于指纹化帧的一部分比特用于散列到倒排索引702中的二进制数704之一。例如,对应于指纹化帧708的64比特的前24比特(例如,索引部分)可以被散列到二进制数706。然后可以将指纹化帧708添加到已经被散列到二进制数706的指纹化帧的列表712。在一些实施方式中,当将指纹化帧708添加到列表712时,将其余的比特部分进行存储。因此,在该实例中,存储对应于指纹化帧708的64比特的剩余40比特。在一些实施方式中,指纹化帧708存储有描述生成指纹化帧的内容项的信息(例如,文件标识符、流标识符等)和指示生成指纹的内容项的部分的偏移(例如,时间戳、帧编号等)。
在一些实施方式中,可以使用多个倒排索引来用于指纹存储和匹配。例如,对应于指纹化帧的比特的第一部分可以被散列到第一倒排索引的二进制数之一。第一倒排索引中的该二进制数可以参考第二倒排索引。在该实例中,对应于指纹化帧的比特的第二部分可以被散列到第二倒排索引中的二进制数,以识别已经被散列到该二进制数的指纹化帧的列表。对应于指纹化帧的比特组(整个比特组或比特的其余部分)可以在第二倒排索引中添加到该列表中。例如,64比特的指纹化帧的前24比特可以被散列到第一倒排索引中的二进制数以识别第二倒排索引。在该实例中,64比特的指纹化帧的接下来的20比特可以被散列到第二倒排索引中的二进制数,以识别由该二进制数参考的指纹化帧的列表。这里,64比特的指纹化帧的其余20比特(或所有64比特)可以存储在列表中。指纹化帧可以存储在第二倒排索引中,具有描述生成指纹化帧的内容项的信息(例如,文件标识符、流标识符等)和指示生成指纹化帧的内容项的部分的偏移(例如,时间戳、帧编号等)。
优化模块406可以被配置为管理用于指纹存储和匹配的倒排索引数据结构。例如,在一些实施方式中,优化模块406可以自动更新或清理倒排索引以移除与已经从内容提供商系统移除的内容项相对应的条目。在一些实施方式中,优化模块406可以自动更新或清理倒排索引以移除已经存储了阈值时间段的条目。在一些实施方式中,优化模块406可以对倒排索引进行排序以实现期望的组织。在一个实例中,优化模块406可以对倒排索引中的条目进行排序,使得类似的指纹化帧(例如,彼此具有阈值汉明距离的指纹化帧)被集群或组织成相同(或邻近)的块或二进制数。
图5示出了根据本公开的实施方式的匹配模块502的实例。在一些实施方式中,图2的匹配模块208可以实现为匹配模块502。如图5所示,匹配模块502可以包括指纹匹配模块504、组合匹配模块506、直播处理模块508和失真模块510。
指纹匹配模块504可以被配置为识别第一(或测试)内容项中与一个或多个第二(或参考)内容项中的内容部分匹配的任何内容部分。在各种实施方式中,指纹匹配模块504可以使用与测试内容项相对应的一组指纹(例如,音频指纹、视频指纹、缩略图指纹)来评估测试内容项,并且这些指纹可以用于识别待分析的一个或多个参考内容项。这些参考内容项可能已被识别或指定为受保护(或受版权保护)。通常,可以标记包括与参考内容项中的内容匹配的任何内容的测试内容项,并且可以采取各种动作。例如,可以使用倒排索引数据结构来识别参考内容项,如上所述。
例如,如图8A所示,指纹匹配模块504可以获得从测试内容项生成的视频指纹。视频指纹可以对应于一组帧(例如,16帧),并且每一帧可以表示为一组比特(例如,64比特)。在一些实施方式中,指纹中的帧804的第一部分(例如,前24比特)可以用于散列到倒排索引802中的二进制数806,并且帧804的第二部分(例如,其余的40比特)可以用于验证帧之间的匹配。如上所述,倒排索引802包括一组二进制数,并且每个二进制数可以参考已被散列到该二进制数的一组指纹化帧。例如,在图8A中,二进制数806参考指纹化帧808和指纹化帧810。在该实例中,指纹化帧808和指纹化帧810均为候选匹配。指纹匹配模块504可以评估对应于二进制数806的每个指纹化帧808、810,以确定指纹化帧是否与帧804匹配。在一些实施方式中,指纹匹配模块504确定对应于第一帧的一组比特与对应于第二帧的一组比特之间的汉明距离。在这样的实施方式中,当汉明距离满足阈值时,指纹匹配模块504确定第一帧与第二帧之间的匹配。因此,例如,指纹匹配模块504可以确定对应于帧804的该组比特与对应于指纹化帧808的该组比特之间的汉明距离。如果该汉明距离满足阈值,则识别帧804与指纹化帧808之间的匹配。可以将相同的过程应用于其余的指纹化帧(例如,指纹化帧810),其被帧804所散列到的二进制数806参考以识别任何其他匹配。
当已经识别出测试内容项的帧804与参考内容项的指纹化帧(例如,指纹化帧808)之间的匹配时,指纹匹配模块504可以评估生成匹配的指纹化帧808的参考内容项,以确定测试内容项与参考内容项之间的匹配内容的程度或边界。如上所述,存储在倒排索引802中的每一帧还可以指示生成指纹化帧的参考内容项(例如,文件名、流标识符等)和指示指纹化帧对应的参考内容项的部分的偏移。使用这样的信息,指纹匹配模块504可以访问按照时间顺序为整个参考内容项生成的一组指纹化帧840,如示例图8B所示。指纹匹配模块504还可以访问对应于测试内容项的一组指纹化帧860。在一些实施方式中,指纹匹配模块504以块(例如,一个第二块)处理测试内容项和参考内容项。因此,例如,如果每个指纹对应于每秒16帧,则指纹匹配模块504每秒处理16帧的内容。
如图8B所示,指纹匹配模块504可以针对在测试内容项的指纹化帧804之前的每个对应指纹化帧来评估在参考内容项的匹配指纹化帧808之前的每个指纹化帧。因此,例如,指纹匹配模块504可以计算参考内容项的指纹化帧820与测试内容项的指纹化帧824之间的汉明距离。如果汉明距离满足阈值,则发现内容匹配。指纹匹配模块504可以继续与每个之前帧的这种匹配,直到找不到匹配或者直到达到参考内容项和/或测试内容项的开始。类似地,指纹匹配模块504可以针对在测试内容项中匹配指纹化帧804之后的每个对应指纹化帧来评估在参考内容项中匹配指纹808之后的每个指纹化帧。因此,例如,指纹匹配模块504可以计算参考内容项的指纹化帧822与测试内容项的指纹化帧826之间的汉明距离。如果汉明距离满足阈值,则发现内容匹配。指纹匹配模块504可以继续与每个之后帧的这种匹配,直到没有发现匹配或者直到到达参考内容项和/或测试内容项的结尾。一旦完成这样的匹配,指纹匹配模块504就可以识别测试内容项中的哪个部分832与参考内容项的边界830匹配。该匹配过程可以应用于找出测试内容项的音频指纹与参考内容项的音频指纹、测试内容项的视频指纹与参考内容项的视频指纹、和/或测试内容项的缩略图指纹与参考内容项的缩略图指纹之间的匹配。参考图8A至图8B描述的匹配过程仅是用于确定两个内容项之间的匹配内容的一个示例方法,并且自然地,其他方法也是可能的。在一些实施方式中,对匹配过程进行优化,使得不需要评估测试内容项和参考内容项的所有指纹化帧以确定匹配。例如,一旦识别到测试内容项的第一指纹化帧与参考内容项的第一指纹化帧之间的匹配时,指纹匹配模块504可以跳过测试内容项和参考内容项中的一个或多个中间帧(例如,阈值数量的指纹化帧),然后评估测试内容项的第二指纹化帧和参考内容项的第二指纹化帧。如果第一指纹化帧和第二指纹化帧都匹配,则假设测试内容项和参考内容项的一个或多个中间帧也匹配。在一些实施方式中,匹配过程是双层的,其中第一验证步骤被优化以在一组第一指纹化帧匹配并且第二组指纹化帧匹配时确定匹配,同时跳过对内容项中的阈值数量的中间指纹化帧的评估。在这样的实施方式中,在第二验证步骤期间还单独评估每个中间指纹化帧,以确认匹配的全部长度。
在一些实施方式中,将描述匹配部分830和832的信息提供给各种人员以供进一步审查。在一些实施方式中,如果匹配部分830和832满足阈值时间长度(例如,30秒),则指纹匹配模块504可以自动标记测试内容项以供进一步审查。在一些实施方式中,如果匹配部分830和832满足阈值时间长度(例如,30秒),则指纹匹配模块504可以自动阻止用户访问测试内容项。在一些实施方式中,指纹匹配模块504可以确定测试内容项和参考内容项是重复的(即,测试内容项全部匹配参考内容项全部)。在这样的实施方式中,可以自动删除测试内容项。
组合匹配模块506可以被配置为利用多种类型的指纹(例如,音频、视频、缩略图)来识别测试内容项与参考内容项之间的匹配内容。例如,在一些实施方式中,组合匹配模块506可以使用音频指纹确定测试内容项与参考内容项之间的匹配内容,如上所述。在这样的实施方式中,当使用音频指纹达阈值时间段和/或阈值帧数而没有发现匹配时,组合匹配模块506使用其他类型的指纹(例如,视频指纹和/或缩略图指纹)来补充匹配。在一些实施方式中,组合匹配模块506可以通过附加地使用对应的视频指纹(或缩略图指纹)来验证使用音频指纹确定的内容匹配。例如,这种验证可以用于区分包括受版权保护的音乐的视频广告与音乐视频。类似地,在一些实施方式中,组合匹配模块506可以通过附加地使用对应的音频指纹(或缩略图指纹)来验证使用视频指纹确定的内容匹配。在各种实施方式中,音频指纹和视频指纹是以预定的帧速率生成的。作为结果,组合匹配模块506可以容易地在给定帧的音频指纹与视频指纹之间交叉参考。
在一些实施方式中,可以指示向内容提供商系统提供内容项的用户设备生成和发送内容项的缩略图指纹。在这样的实施方式中,组合匹配模块506可以利用缩略图指纹来识别内容项与参考内容项之间的匹配内容。如果发现匹配,则可以指示用户设备生成并发送内容项的其他类型的指纹(例如,音频指纹和/或视频指纹)。组合匹配模块506可以利用其他类型的指纹来验证使用缩略图指纹确定的帧匹配。例如,如果使用缩略图指纹在内容项的帧与参考内容项的帧之间确定匹配,则组合指纹匹配模块506可以使用与内容项和参考内容项的匹配帧相对应的视频指纹来确认匹配。在一些实施方式中,如果使用缩略图指纹发现匹配,则内容提供商系统可以出于验证目的而开始为内容项生成其他类型的指纹(例如,音频指纹和/或视频指纹)。
通常,在评估点播内容项的内容时,匹配模块502能够识别一个或多个参考内容项并针对点播内容项评估这些参考内容项以识别匹配内容。在一些实施方式中,匹配模块502可以被配置为出于内容匹配的目的而不同地处理直播内容流。例如,在一些实施方式中,直播处理模块508可以被配置为使用滑动窗口来处理在固定部分中接收的直播内容流。在一些实施方式中,直播处理模块508可以限定滑动窗口以包括与固定时间长度(例如,内容的最后20秒)或固定帧数(例如,16帧)相对应的直播内容流的帧。图9A示出了由内容提供商系统从用户设备接收的直播内容流902的示例图。在图9A的实例中,滑动窗口904对应于由帧906和帧908限定的20秒的直播内容流902。在一些实施方式中,当正在接收直播内容流时,直播处理模块508缓冲直播内容流直到满足滑动窗口904的长度。例如,如果滑动窗口对应于20秒的长度,则直播处理模块508缓冲20秒的直播内容流。一旦被缓冲,直播处理模块508就对滑动窗口904中内容的一部分(例如,滑动窗口904中的内容的最后一秒)进行指纹化,如上所述。一旦被指纹化,直播处理模块508就可以确定直播内容流的指纹化部分是否与任何参考内容项匹配。如上所述,匹配过程将尝试通过评估直播内容流902中预先接收的帧来确定匹配内容的边界。在该实例中,当接收到另一秒的直播内容流时,滑动窗口前进以包含直播内容流的最近20秒。图9B示出了在接收到另一秒的直播内容流之后的直播内容流912的示例图。在图9B的实例中,滑动窗口914已经前进到直播内容流的最近20秒,并且现在由帧906和918界定。类似地,在该实例中,直播处理模块508将接收的直播内容流的最后一秒指纹化,并确定指纹化部分是否匹配任何参考内容项。图9C示出了在接收到另一秒的直播内容流之后的直播内容流922的示例图。在图9C的实例中,滑动窗口924已经前进到直播内容流的最近20秒,并且现在由帧906和928界定。类似地,在该实例中,直播处理模块508将接收的直播内容流的最后一秒指纹化,并确定指纹化部分是否匹配任何参考内容项。这种使用滑动窗口处理直播内容流的方法允许最佳地检测参考内容项中的匹配内容。该方法还可以解决参考直播内容流的接收延迟的情况。在这种情况下,内容提供商系统能够确定测试直播内容流与延迟的参考直播内容流之间的匹配内容。在一些实施方式中,可以扩大滑动窗口以便于识别包括重复图案的内容。
在一些情况下,直播内容流可能易受失真的影响,这可能使匹配过程复杂化。例如,用户可以提供使用计算设备捕获的音乐会的直播内容流。这种直播内容流可能是从某个角度和/或缩放级别捕获的。捕获的内容还可能易受由计算设备的摇晃导致的各种旋转的影响。例如,这种失真可能使得难以找到与由授权广播者提供的参考直播内容流(即,受保护或受版权保护的流)的精确匹配。在一些实施方式中,失真模块510被配置为应用各种方法以促进内容匹配,尽管存在这样的失真。
例如,在一些实施方式中,在试图找到直播内容流的指纹化帧的匹配时,失真模块510可以生成一组失真的指纹化帧并尝试使用每个失真的指纹化帧找到匹配。因此,在上面的实例中,在试图找到与直播内容流的最后一秒相对应的指纹化帧的匹配时,失真模块510置换与指纹化帧相对应的一组比特的索引部分(例如,前24比特)。在一些实施方式中,该索引部分用于在一个或多个倒排索引中找到参考内容项,如上所述。在一些实施方式中,失真模块510一次一比特地置换指纹化帧的索引部分。例如,假设使用六比特“010111”表示帧,并且使用前三比特表示索引部分,例如“010”。在该实例中,失真模块510可以一次一比特地置换索引部分以生成以下一组失真:“000”、“011”、“110”。这些失真可以预先加到对应于该帧的其余三个比特,例如“111”,以产生以下一组失真的指纹化帧:“000111”、“001111”、“011111”、“100111”、“101111”、“110111”和“111111”。这些失真的指纹化帧中的每一帧可用于识别一个或多个参考内容项并确定那些参考内容项的哪些部分包括匹配内容,如上所述。在一些实施方式中,失真模块510一次置换指纹化帧的索引部分的多个比特(例如,两比特)以生成附加的失真指纹化帧以识别匹配内容。在上面的实例中,失真模块510可以一次两比特地置换索引部分“010”以生成以下一组失真:“001”、“111”和“100”。在一些实施方式中,不是仅有索引部分失真,失真模块510置换对应于指纹化帧的所有比特。在一些实施方式中,失真模块510对在一组比特中置换的部分(或比特数)进行节流。例如,在一些实施方式中,当试图找到指纹化帧的匹配时置换的部分(或比特数)可以根据中央处理单元(CPU)使用率的量而变化。在一个实例中,当CPU使用率在阈值内时,失真模块510可以置换帧的前24比特,并且当CPU使用率已经达到阈值时,失真模块510可以将置换减少到帧的前16比特。
在确定两个内容项的匹配部分时,这种置换通常会增加要评估的内容量,从而解决可能存在于正在分析的测试内容项中的失真。然而,在一些情况下,可以应用各种调节待评估的内容量的方法以提高系统性能。例如,在一些实施方式中,可以分阶段地生成和测试失真,直到达到阈值中央处理单元(CPU)使用率(例如,百分之70、百分之75等)。例如,可以首先在没有任何失真的情况下评估指纹化帧。如果没有发现匹配,则可以通过一次一比特地置换来使指纹化帧失真。如果使用置换没有发现匹配,则可以通过一次两比特地置换来使指纹化帧失真。在一些实施方式中,可以分阶段地生成和测试失真,直到达到阈值查询时间(例如,150毫秒、200毫秒等)。在这样的实施方式中,当达到阈值查询时间时,中断匹配过程。如上所述,指纹可以对应于某个内容长度(例如,一秒内容)上的一系列帧(例如,16帧)。在一些实施方式中,代替评估对应于指纹的16个指纹化帧中的每一帧,失真模块510可以被配置为跳过对一个或多个指纹化帧的评估(例如,跳过15帧并且仅评估对应于指纹的第16帧)。在一些实施方式中,在评估指纹时,匹配模块502可以被配置为将指纹分段成一组较小的块,并且可以使用通常已知的并行处理技术并行处理该组中的每个块。
图10示出了根据本公开的各种实施方式的用于指纹化内容的示例过程1000。应当理解,除非另有说明,否则在本文中讨论的各种实施方式的范围内,可以存在以类似或可替换的顺序、或者并行执行的附加的、较少的、或替代的步骤。
在框1002处,获得具有多个视频帧的测试内容项。在框1004处,基于与测试内容项相对应的一组视频帧来确定至少一个视频指纹。在框1006处,使用视频指纹的至少一部分来确定至少一个参考内容项。在框1008处,至少部分地基于测试内容项的视频指纹和参考内容项的一个或多个视频指纹来确定测试内容项的至少一部分与参考内容项的至少一部分匹配。
图11示出了根据本公开的各种实施方式的用于使用不同类型的指纹匹配内容的示例过程1100。应当理解,除非另有说明,否则在本文中讨论的各种实施方式的范围内,可以存在以类似或可替换的顺序、或者并行执行的附加的、较少的、或替代的步骤。
在框1102处,使用测试内容项的一个或多个第一指纹和参考内容项的一个或多个第一指纹来评估测试内容项的至少一部分与参考内容项的至少一部分。第一指纹对应于第一类型的媒体。在框1104处,确定满足至少一个验证标准。在框1106处,使用测试内容项的一个或多个第二指纹和参考内容项的一个或多个第二指纹来评估测试内容的部分与参考内容的部分。第二指纹对应于与第一类型的媒体不同的第二类型的媒体。
图12示出了根据本公开的各种实施方式的用于使用失真指纹匹配内容的示例过程1200。应当理解,除非另有说明,否则在本文中讨论的各种实施方式的范围内,可以存在以类似或可替换的顺序、或者并行执行的附加的、较少的、或替代的步骤。
在框1202处,基于与测试内容项相对应的一组帧来确定至少一个指纹。在框1204处,使用指纹的至少一部分生成一组失真指纹。在框1206处,使用该组失真指纹确定一个或多个参考内容项,其中,针对至少一个参考内容项来评估测试内容项,以识别匹配内容。
设想可以存在与本公开的各种实施方式相关联的许多其他用途、应用和/或变化。例如,在一些情况下,用户可以选择是否选择加入利用所公开的技术。所公开的技术还可以保证维持各种隐私设置和偏好并且可以防止泄露保密信息。在另一实例中,本公开的各种实施方式随着时间的推移可以获悉、改善和/或精炼。
社交网络系统-示例实现方式
图13示出了根据本公开的实施方式的可以在各种场景下利用的示例系统1300的网络图。系统1300包括一个或多个用户设备1310、一个或多个外部系统1320、社交网络系统(或服务)1330、以及网络1350。在实施方式中,结合上述实施方式讨论的社交网络服务、提供商、和/或系统可以实现为社交网络系统1330。出于说明的目的,图13中所示的系统1300的实施方式包括单个外部系统1320和单个用户设备1310。然而,在其他实施方式中,系统1300可以包括多个用户设备1310和/或多个外部系统1320。在某些实施方式中,由社交网络提供商运行社交网络系统1330,而外部系统1320独立于社交网络系统1330之处在于外部系统120可以由不同的实体运行。然而,在各种实施方式中,社交网络系统1330和外部系统1320一起运行以将社交网络服务提供给社交网络系统1330的用户(或成员)。在这种意义上,社交网络系统1330提供了平台或主干,诸如外部系统1320的其他系统可以使用该平台或主干将社交网络服务和功能提供给互联网上的用户。
用户设备1310包括一个或多个计算设备(或系统),其可以接收来自用户的输入并且经由网络1350发送和接收数据。在一个实施方式中,例如,用户设备1310是执行与操作系统(OS)、Apple OS X、和/或Linux发行套件兼容的Microsoft Windows的常规计算机系统。在另一实施方式中,用户设备1310可以是计算设备或者具有计算机功能的设备,诸如,智能电话、平板电脑、个人数字助理(PDA)、移动电话、膝上型计算机、可穿戴设备(例如,一副眼镜、手表、手链等)、相机、电器等。用户设备1310被配置为经由网络1350进行通信。例如,用户设备1310可以执行允许用户设备1310的用户与社交网络系统1330交互的浏览器应用等程序。在另一实施方式中,用户设备1310通过由用户设备1310的本地操作系统(诸如,iOS和ANDROID)提供的应用编程接口(API)来与社交网络系统1330交互。用户设备1310被配置为使用有线和/或无线通信系统经由网络1350与外部系统1320和社交网络系统1330通信,网络可以包括局域网和/或广域网的任何组合。
在一个实施方式中,网络1350使用标准通信技术和/或协议。因此,网络1350可以包括使用诸如以太网、802.11、微波存取全球互通(WiMAX)、3G、4G、CDMA、GSM、LTE、数字用户线路(DSL)等技术的链路。类似地,网络1350中使用的网络协议可以包括多协议标签交换(MPLS)、传输控制协议/互联网协议(TCP/IP)、用户数据报协议(UDP)、超文本传输协议(HTTP)、简单邮件传输协议(SMTP)、文件传输协议(FTP)等。可以使用包括超文本标记语言(HTML)和可扩展标记语言(XML)的技术和/或格式表示经由网络1350交换的数据。此外,可以使用诸如安全套接层(SSL)、传输层安全(TLS)、以及互联网协议安全(IPsec)等常规加密技术对所有或一些链路进行加密。
在一个实施方式中,用户设备1310可以通过使用浏览器应用1312处理从外部系统1320和从社交网络系统1330接收的标记语言文档1314而显示来自外部系统1320和/或社交网络系统1330的内容。标记语言文档1314识别内容和描述内容的格式或呈现的一个或多个指令。通过执行标记语言文档1314中包括的指令,浏览器应用1312使用通过标记语言文档1314描述的格式或呈现来显示所识别的内容。例如,标记语言文档1314包括用于生成和显示具有多个帧的网页的指令,该多个帧包括从外部系统1320和社交网络系统1330中检索的文本和/或图像数据。在各种实施方式中,标记语言文档1314包括数据文件,数据文件包括可扩展标记语言(XML)数据、可扩展超文本标记语言(XHTML)数据或其他标记语言数据。此外,标记语言文档1314可以包括JavaScript对象表示法(JSON)数据、JSON与填充(JSONP)、以及JavaScript数据以便于外部系统1320与用户设备1310之间的数据交换。用户设备1310上的浏览器应用1312可以使用JavaScript编译器来解码标记语言文档1314。
标记语言文档1314还可以包括或链接至应用或应用框架,诸如,FLASHTM或UnityTM应用、SilverlightTM应用框架等。
在一个实施方式中,用户设备1310还包括包含指示用户设备1310的用户是否登录到社交网络系统1330的数据的一个或多个小程序(Cookie)1316,其使得能够修改从社交网络系统1330到用户设备1310传送的数据。
外部系统1320包括包含使用网络1350传送给用户设备1310的一个或多个网页1322a、1322b的一个或多个网络服务器。外部系统1320独立于社交网络系统1330。例如,外部系统1320与第一域相关联,而社交网络系统1330与独立的社交网络域相关联。包含在外部系统1320中的网页1322a、1322b包括标记语言文档1314,其识别内容并且包括指定所识别的内容的格式或呈现的指令。如上所述,应当理解,可以存在许多变化或者其他可能性。
社交网络系统1330包括用于包括多个用户的社交网络的一个或多个计算设备,并且向社交网络的用户提供与社交网络的其他用户通信和交互的能力。在一些情况下,社交网络可以由图谱表示,即,包含边与节点的数据结构。其他数据结构也可以用于表示社交网络,包括但不限于数据库、对象、类别、元要素、文件、或任何其他数据结构。社交网络系统1330可以由运营商掌管、管理或控制。社交网络系统1330的运营商可以是人类、自动化应用或用于管理内容、调节策略以及在社交网络系统1330内收集使用度量的一系列应用。可以使用任何类型的运营商。
用户可以加入社交网络系统1330,随后添加连接至社交网络系统1330内他们期望被连接的任何数量的其他用户。如本文中使用的,术语“朋友”指社交网络系统1330中用户经由社交网络系统1330与其形成连接、关联或关系的任何其他用户。例如,在实施方式中,如果社交网络系统1330中的用户表示为社交图谱中的节点,那么术语“朋友”可以指形成在两个用户节点之间并直接连接这两个用户节点的边。
可以由用户明确添加连接或者基于用户的共同特征(例如,是同一教育机构的校友的用户)通过社交网络系统1330自动创建连接。例如,第一用户特定地选择了具体的其他用户成为朋友。社交网络系统1330中的连接通常为双向,但不一定是双向,因此,术语“用户”和“朋友”取决于参考体系。社交网络系统1330中的用户之间的连接通常是双向(“双边”)或者“相互的”,但是,连接也可以是单向或者“单边的”。例如,如果Bob和Joe是社交网络系统1330中的两个用户并且连接至彼此,则Bob和Joe是彼此的连接。另一方面,如果Bob希望连接至Joe以观看由Joe传送至社交网络系统1330的数据,但是Joe不希望形成相互连接,则可以建立单边连接。用户间的连接可以是直接连接;然而,社交网络系统1330的一些实施方式允许通过一个或多个连接级别或分离程度的间接的连接。
除了建立和保持用户之间的连接并且允许用户之间进行交互之外,社交网络系统1330向用户提供对社交网络系统1330支持的各类项目采取动作的能力。这些项目可以包括社交网络系统1330的用户可属于的群或网络(即,人、实体和概念的社交网络)、其中用户可能感兴趣的事件或日历条目、用户可经由社交网络系统1330使用的基于计算机的应用、允许用户经由通过社交网络系统1330提供的服务或通过社交网络系统购买或出售物品的交易、以及用户可在社交网络系统1330上或社交网络系统下执行的与广告的交互。这些仅是用户在社交网络系统1330中可采取的各项的几个示例,并且可以采取许多其他动作。用户可与能够在社交网络系统1330中或者在(独立于社交网络系统1330或经由网络1350耦接至社交网络系统1330的)外部系统1320中表示的任何事物交互。
社交网络系统1330还能够链接各种实体。例如,社交网络系统1330使用户通过API、网页服务或其他通信渠道,彼此以及与外部系统1320或其他实体交互成为可能。社交网络系统1330生成并保持包括通过多个边相互连接的多个节点的“社交图谱”。社交图谱中的每个节点可以表示能够作用于另一节点和/或能够被另一节点作用的实体。社交图谱可以包括各种类型的节点。节点的类型的实例包括用户、非人实体、内容项、网页、群、活动、消息、概念、以及可以由社交网络系统1330中的对象表示的任何其他事物。社交图谱中的两个节点之间的边可以表示在这两个节点之间的特定类型的连接或关联,这可以因节点关系或者因由一个节点在另一个节点上进行的活动而产生。在一些情况下,在节点之间的边线可以加权。边的权重可以表示与边相关联的属性,诸如,节点之间的连接或关联的强度。不同类型的边可以设置有不同权重。例如,可以为在一个用户“点赞”另一用户时创建的边给定一个权重,同时可以为在用户与另一用户成为朋友时创建的边给定不同的权重。
例如,当第一用户将第二用户识别为朋友时,在社交图谱中生成将表示第一用户的节点和表示第二用户的第二节点连接的边。由于各种节点彼此相关或交互,所以社交网络系统1330修改连接各种节点的边,以反映关系和交互。
社交网络系统1330还包括增强用户与社交网络系统1330之间交互的用户生成内容。用户生成内容可以包括用户可添加、上传、发送、或者“发布”到社交网络系统1330的任何事物。例如,用户从用户设备1310将帖子传送至社交网络系统1330。帖子可以包括诸如状态更新或其他文本数据的数据、位置信息、诸如照片等图像、视频、链接、音乐、或其他相似数据和/或媒体。还可通过第三方将内容添加到社交网络系统1330。内容“项”表示社交网络系统1330中的对象。以这种方式,社交网络系统1330的用户被鼓励通过各种通信渠道发布各种类型的媒体的文本和内容项来彼此通信。这种通信增加了用户彼此的交互,并且增加了用户与社交网络系统1330交互的频率。
社交网络系统1330包括网络服务器1332、API请求服务器1334、用户简档存储1336、连接存储1338、动作记录器1340、活动日志1342和授权服务器1344。在本发明的实施方式中,社交网络系统1330可以包括用于各种应用的额外的、更少的、或不同的部件。未示出其他部件,诸如,网络接口、安全机构、负载平衡器、故障转移服务器、管理和网络操作控制台等,以便不使系统的细节晦涩。
用户简档存储1336保持有关用户帐号的信息,包括传记、人口统计和其他类型的描述性信息,诸如,用户声明或者社交网络系统1330推断的工作经历、教育背景、爱好或喜好、位置等。信息被存储在用户简档存储1336中,以便唯一地识别每个用户。社交网络系统1330还将描述不同用户之间的一个或多个连接的数据存储在连接存储1338中。连接信息可以指示具有相似或者共同工作经历、团体成员身份、爱好或者教育背景的用户。此外,社交网络系统1330包括不同用户之间的用户定义联系,从而允许用户指定其与其他用户的关系。例如,用户定义连接允许用户生成与平行于用户实际生活关系的其他用户的关系,诸如,朋友、同事、伙伴等。用户可以从预定类型的连接中选择、或根据需要定义他们自身的连接类型。与社交网络系统1330中的诸如非人实体、贮存区、集群中心、图像、兴趣、页面、外部系统、概念等其他节点的连接也被存储在连接存储1338中。
社交网络系统1330保持关于用户可以与之交互的对象的数据。为了保持该数据,用户简档存储1336和连接存储1338存储通过社交网络系统1330保持的对应类型对象的实例。每种对象类型均具有适合于将适当信息存储到该类型对象的信息字段。例如,用户简档存储1336包括数据结构,该数据结构具有适合于描述用户账号和与用户账号有关的信息的字段。在创建特定类型的新对象时,社交网络系统1330将对应类型的新数据结构初始化、将唯一的对象标识符分配给新对象、并且根据需要将数据添加到对象中。这种情况可能发生在,例如,用户变成社交网络系统1330的用户时、社交网络系统1330在用户简档存储1336中生成用户简档的新实例时、将唯一标识符分配给用户帐号时、以及开始使用由用户提供的信息来填充用户帐号的字段时。
连接存储1338包括适合于描述用户到其他用户的连接、到外部系统1320的连接或者到其他实体的连接的数据结构。连接存储1338还可以将连接类型与用户连接相关联,其可以与用户隐私设置结合使用以调控访问有关用户的信息。在本发明的实施方式中,用户简档存储1336和连接存储1338可被实现为联合数据库。
在连接存储1338、用户简档存储1336、以及活动日志1342中存储的数据使社交网络系统1330能够生成使用节点识别各个对象以及连接节点的边以识别不同对象之间的关系的社交图谱。例如,如果在社交网络系统1330中第一用户与第二用户建立连接,则来自用户简档存储1336中的第一用户和第二用户的用户帐号可用作社交图谱中的节点。通过连接存储1338存储的第一用户与第二用户之间的连接是与第一用户和第二用户相关联的节点之间的边。继续该实例,社交网络系统1330内的第二用户则可向第一用户发送消息。发送消息的动作(其可被存储)是社交图谱中表示第一用户与第二用户的两个节点之间的另一边。此外,可以识别消息本身,并且消息本身可被包括在社交图谱中作为连接至表示第一用户和第二用户的节点的另一节点。
在另一实例中,第一用户可给由社交网络系统1330保存的图像中(或者,可替代地,由社交网络系统1330之外的另一系统保存的图像中)的第二用户加标签。图像本身可由社交网络系统1330中的节点表示。该加标签动作可在第一用户与第二用户之间创建边以及在各个用户与图像之间创建边,该图像也是社交网络中的节点。在又一实施方式中,如果用户确认出席事件,则用户和事件是从用户简档存储1336获得的节点,其中,事件的出席是可从活动日志1342中检索的节点之间的边。通过生成和保持社交图谱,社交网络系统1330包括描述多种不同类型的对象以及这些对象之间的连接和交互的数据,从而提供丰富资源的社交相关信息。
网络服务器1332经由网络1350将社交网络系统1330链接至一个或多个用户设备1310和/或一个或多个外部系统1320。网络服务器1332服务于网页、以及其他有关网络的内容,诸如,Java、JavaScript、Flash、XML等。网络服务器1332可以包括用于接收和路由社交网络系统1330与一个或多个用户设备1310之间的消息的邮件服务器或者其他消息传送功能。该消息可以是即时消息、队列消息(例如,电子邮件)、文本和SMS消息或者任何其他合适的消息传送格式。
API请求服务器1334允许一个或多个外部系统1320和用户设备1310通过调用一个或多个API功能来从社交网络系统1330调用访问信息。API请求服务器1334还可允许外部系统1320通过调用API将信息发送至社交网络系统1330。在一个实施方式中,外部系统1320经由网络1350将API请求发送至社交网络系统1330,并且API请求服务器1334接收API请求。API请求服务器1334通过调用与API请求相关联的API而处理该请求以产生适当的响应,其中,API请求服务器1334经由网络1350将该响应通信给外部系统1320。例如,API请求服务器1334响应于API请求来收集与用户相关联的数据(诸如已经登录到外部系统1320中的用户连接),并且将收集的数据传送给外部系统1320。在另一实施方式中,用户设备1310以与外部系统1320相同的方式经由API与社交网络系统1330通信。
动作日志1340能够从网络服务器1332接收关于用户在社交网络系统1330内和/或外的动作的通信。动作记录器1340利用有关用户动作的信息填充活动日志1342,从而能够使社交网络系统1330发现其用户在社交网络系统1330内和社交网络系统1330之外所采取的各种动作。特定用户对社交网络系统1330中另一节点采取的任何动作可以通过保持在活动日志1342中或者相似数据库中或者其他数据存储库中的信息而与各个用户的账号相关联。例如,由社交网络系统1330内的用户采取的被识别和存储的动作的实例可以包括添加与另一用户的连接、将消息发送给另一用户、从另一用户读取消息、查看与另一用户相关联的内容、参加由另一用户发布的事件、发布图像、尝试发布图像、或者与另一用户或另一对象交互的其他动作。当用户在社交网络系统1330内采取动作时,该动作被记录在活动日志1342中。在一个实施方式中,社交网络系统1330保持活动日志1342作为条目的数据库。当在社交网络系统1330中采取动作时,将有关该动作的条目添加到活动日志1342。活动日志1342可被称为动作日志。
此外,用户动作可与社交网络系统1330之外的实体内发生的概念和动作相关联,诸如独立于社交网络系统1330的外部系统1320。例如,动作记录器1340可从网络服务器1332接收描述用户与外部系统1320的交互的数据。在该实例中,外部系统1320根据社交图谱中的结构化的动作和对象报告用户的交互。
其中用户与外部系统1320交互的动作的其他实例包括:用户表示对外部系统1320或另一实体感兴趣;用户将评论发布至社交网络系统1330,讨论外部系统1320或外部系统1320内的网页1322a;用户将统一资源定位符(URL)或与外部系统1320相关联的其他标识符发布至社交网络系统1330;用户参加与外部系统1320相关联的事件;或者与外部系统1320相关的用户的任何其他动作。因此,活动日志1342可以包括描述社交网络系统1330中的用户与独立于社交网络系统1330的外部系统1320之间的交互的动作。
授权服务器1344强制施加社交网络系统1330中的用户的一种或者多种隐私设置。用户的隐私设置确定与用户相关联的特定信息可如何被分享。隐私设置包括与用户相关联的特定信息的说明和可与其分享信息的实体的说明。可与其分享信息的实体的实例可以包括其他用户、应用、外部系统1320、或者可潜在访问该信息的任何实体。用户能够分享的信息包括诸如简档照片、与用户相关联的电话号码、用户连接、由用户采取的诸如添加连接、更改用户简档信息等的动作的用户帐号信息。
可以不同的粒度级别提供隐私设置规范。例如,隐私设置可以识别待分享给其他用户的特定信息;隐私设置识别工作电话号码或者特定一组相关信息,诸如,包括简档照片、家庭电话号码、以及状态的个人信息。可替代地,隐私设置可应用于与用户相关联的所有信息。还可以各个粒度级别指定可访问特定信息的该组实体的说明。例如,可与其分享信息的各组实体可以包括用户的所有朋友、朋友的所有朋友、所有应用、或者所有外部系统1320。一个实施方式允许该组实体的说明包括实体的列举。例如,用户可提供允许访问某些信息的外部系统1320的列表。另一实施方式允许该说明包括除不允许访问该信息之外的一组实体。例如,用户可允许所有外部系统1320访问用户的工作信息,但指定了不允许访问工作信息的外部系统1320的列表。某些实施方式将不被允许访问特定信息的例外列表称为“黑名单”。由用户指定属于黑名单的外部系统1320被阻止访问隐私设置中指定的该信息。信息的指定的粒度以及与其分享信息的实体的规范的粒度的各种组合是可能的。例如,可与朋友分享所有个人信息,但与朋友的朋友分享所有工作信息。
授权服务器1344包含确定用户的朋友、外部系统1320和/或其他应用以及实体是否可访问与用户相关联的特定信息的逻辑。外部系统1320可能需要授权服务器1344的授权以访问用户的更隐私和敏感的信息,诸如,用户的工作电话号码。授权服务器1344基于用户的隐私设置来确定是否允许另一用户、外部系统1320、应用、或另一实体访问与该用户相关联的信息,包括有关用户采取的动作的信息。
在一些实施方式中,社交网络系统1330可以包括内容提供商模块1346。内容提供商模块1346例如可以实现为图1的内容提供商模块102。如上所述,应当理解,可以存在许多变化或者其他可能性。
硬件实现方式
通过各种机器和计算机系统架构以及各种网络和计算环境可以实现上述过程和特征。图14示出了根据本发明的实施方式的可用于实现本文中描述的一个或多个实施方式的计算机系统1400的实例。计算机系统1400包括用于使得计算机系统1400执行本文中所讨论的过程和特征的一系列指令。计算机系统1400可连接(例如,网络连接)至其他机器。在网络部署中,计算机系统1400可在客户端-服务器网络环境中的服务器机器或者客户端机器的承受能力内运行或者作为对等(或者分布式)网络环境中的对等机器运行。在本发明的实施方式中,计算机系统1400可以是社交网络系统1330、用户设备1310、以及外部系统1420、或者其部件。在本发明的实施方式中,计算机系统1400可以是构成社交网络系统1330的全部或者部分的多个之中的一个服务器。
计算机系统1400包括处理器1402、缓存1404以及一个或多个可执行的模块和驱动器,其存储在计算机可读介质上,针对本文中描述的过程和特征。此外,计算机系统1400包括高性能输入/输出(I/O)总线1406和标准I/O总线1408。主桥1410将处理器1402耦接至高性能I/O总线1406,而I/O总线桥1412使两个总线1406和1408彼此耦接。系统存储器1414和一个或多个网络接口1416耦接至高性能I/O总线1406。计算机系统1400可进一步包括视频存储器和耦接至视频存储器(未示出)的显示设备。大容量存储器1418和I/O端口1420耦接至标准I/O总线1408。计算机系统1400可以可选地包括键盘和定点设备、显示设备或耦接至标准I/O总线1408的其他输入/输出设备(未示出)。共同地,这些元件旨在表示广泛类别的计算机硬件系统,包括但不限于,基于由位于加利福尼亚的圣克拉拉的英特尔公司制造的x86兼容处理器以及由位于加利福尼亚的森尼韦尔的超微半导体(AMD)公司制造的x86兼容处理器以及任何其他合适处理器的计算机系统。
操作系统管理并控制计算机系统1400的操作,包括将数据输入到软件应用(未示出)并且从软件应用输出数据。操作系统提供在系统上执行的软件应用与系统的硬件部件之间的接口。可以使用任何合适的操作系统,诸如,LINUX操作系统、从加利福尼亚库比蒂诺苹果电脑公司可商购的Apple Macintosh操作系统、UNIX操作系统、操作系统、BSD操作系统等。其他实现方式是可能的。
下面将更为详细地描述计算机系统1400的元件。具体地,网络接口1416提供计算机系统1400与任何大范围网络之间的通信,诸如,以太网(例如,IEEE 802.3)网络、底板(backplane)等。大容量存储器1418提供用于数据和编程指令的永久存储器以执行通过上述识别的相应计算系统实现的上述过程和特征,而系统存储器1414(例如,DRAM)在被处理器1402执行时提供用于数据和编程指令的临时存储器。I/O端口1420可以是提供额外外围设备之间的通信的耦接至计算机系统1400的一个或多个串联和/或并联通信端口。
计算机系统1400可以包括各个系统架构并且可重新布置计算机系统1400的各个部件。例如,缓存1404可以在处理器1402的芯片上。可替代地,可以将缓存1404和处理器1402一起打包成“处理器模块”,其中处理器1402被称为“处理器核心”。而且,本发明的某些实施方式既不需要也不包括所有的上述部件。例如,耦接至标准I/O总线1408的外围设备可耦接至高性能I/O总线1406。此外,在一些实施方式中,仅存在单个总线,其中计算机系统1400的部件耦接至该单个总线。此外,计算机系统1400可以包括额外的部件,诸如,额外的处理器、存储装置或存储器。
通常,本文中描述的过程和特征可以实现为操作系统或特定应用的部分、部件、程序、对象、模块、或称为“程序”的一系列指令。例如,一个或多个程序可用于执行本文中描述的特定过程。通常,程序包括计算机系统1400中的各个存储器和存储设备中的一个或多个指令,该一个或多个指令在由一个或多个处理器读取和执行时使得计算机系统1400执行操作以执行本文中所描述的过程和特征。在软件、固件、硬件(例如,专用集成电路)、或者其任何组合中可以实现本文中所描述的过程和特征。
在一个实施方式中,本文中所描述的过程和特征被计算机系统1400实现为独自或统一在分布式计算环境中运行的一系列可执行模块。上述模块可以通过硬件、存储在计算机可读介质上的可执行模块(或机器可读介质)、或者两者的组合来实现。例如,这些模块可以包括由硬件系统中的处理器(诸如,处理器1402)执行的多个或者一系列指令。最初,该系列指令可被存储在存储设备上,诸如,大容量存储器1418。然而,该系列指令可被存储在任何合适的计算机可读存储介质上。此外,该系列指令不需要本地存储,并且可经由网络接口1416从远程存储设备(例如,网络上的服务器)接收。将指令从存储设备(诸如,大容量存储器1418)复制到系统存储器1414内,然后由处理器1402访问和执行。在不同实现方式中,一个或多个模块可以由一个或多个位置中的一个或多个处理器执行,诸如,在并行处理环境中的多个服务器。
计算机可读介质的实例包括但不限于可记录类型的介质,诸如,易失性和非易失性存储器设备;固态存储器;软盘和其他可移除磁盘;硬盘驱动器;磁性介质;光盘(例如,光盘只读存储器(CD ROMS),数字通用盘(DVD));其他类似的非暂时性(或暂时性)有形(或无形)存储介质;或者适用于存储、编码或携带一系列指令以用于由计算机系统1400执行以执行本文中所述的任何一个或多个过程和特征的任何类型的介质。
出于说明的目的,阐述了许多具体细节以提供对本说明的透彻理解。然而,对本领域技术人员显而易见的是,可以在没有这些具体细节的情况下实现本公开的实施方式。在一些情况下,以框图形式示出了模块、结构、过程、特征、以及设备,以避免使本说明变得模糊。在其他情况下,示出了表示数据和逻辑流的功能框图和流程图。可以各种形式组合、分离、移除、记录、并且以不同于明确描述和本文中描写的方式替换框图和流程图中的部件(例如,模块、块、接口、设备、特征等)。
在本说明书中对“一个实施方式”、“实施方式”、“其他实施方式”、“一系列实施方式”、“一些实施方式”、“各种实施方式”等的引用意味着结合实施方式描述的特定特征、设计、结构或特性包括在本公开的至少一个实施方式中。例如,在本说明书中的各处出现的短语“在一个实施方式中”或“在实施方式中”未必全部指同一实施方式,也不是指与其他实施方式相互排斥的单独的或可替换的实施方式。而且,不论是否存在对“实施方式”等的表达引用,都描述各种特征,各种特征可不同地合并且包括在一些实施方式中,但是在其他实施方式中也不同地省略。类似地,描述的各个特征可以是一些实施方式而不是其他实施方式的优选或要求。
原则上,出于可读性和指示性的目的,选择了本文中所使用的语言,并且其不被选择为描绘或限制本发明主题。因此,本发明的范围并不旨在由详细描述来限制,而是由在此基础上针对本申请所发布的任何权利要求来限定。因此,本发明的实施方式的公开旨在是说明性的,而并非限制本发明的范围,本发明的范围在所附权利要求中进行阐述。
Claims (33)
1.一种计算机实现方法,包括:
由计算系统基于与测试内容项对应的一组帧生成至少一个指纹;
由所述计算系统使用至少一部分所述指纹生成一组失真指纹;
并且
由所述计算系统使用所述一组失真指纹确定一个或多个参考内容项,其中,针对至少一个参考内容项评估所述测试内容项,以识别匹配内容。
2.根据权利要求1所述的计算机实现方法,其中,使用至少一部分所述指纹生成所述一组失真指纹进一步包括:
由所述计算系统获得与生成所述指纹的所述一组帧中的第一帧对应的一组比特;并且
由所述计算系统为所述一组比特的至少一部分生成一组二进制串置换。
3.根据权利要求2所述的计算机实现方法,其中,在每个二进制串中置换一个或多个比特。
4.根据权利要求2所述的计算机实现方法,其中,生成所述一组二进制串置换进一步包括:
由所述计算系统为所述一组比特的所述部分生成第一组二进制串置换,其中,在每个二进制串中置换一个比特;
由所述计算系统确定使用所述第一组二进制串置换没有识别到参考内容项;并且
由所述计算系统为所述一组比特的所述部分生成第二组二进制串置换,其中,在每个二进制串中置换多个比特。
5.根据权利要求1所述的计算机实现方法,其中,使用所述一组失真指纹确定一个或多个参考内容项进一步包括:由所述计算系统获得与第一失真指纹对应的一组比特;
由所述计算系统至少部分地基于所述一组比特的一部分识别至少一个候选帧;并且
由所述计算系统基于所述候选帧确定至少一个参考内容项。
6.根据权利要求5所述的计算机实现方法,其中,至少部分地基于所述一组比特的一部分来识别至少一个候选帧,进一步包括:
由所述计算系统将所述一组比特的所述部分散列到倒排索引中的二进制数,其中,所述二进制数参考描述所述至少一个候选帧和所述参考内容项的信息。
7.根据权利要求1所述的计算机实现方法,其中,使用至少一部分所述指纹生成所述一组失真指纹进一步包括:
由所述计算系统确定使用所述一组失真指纹识别参考内容项不会引起所述计算系统的中央处理单元(CPU)负载超过阈值负载。
8.根据权利要求1所述的计算机实现方法,其中,使用至少一部分所述指纹生成所述一组失真指纹进一步包括:
由所述计算系统确定使用所述至少一个指纹没有识别到参考内容项。
9.根据权利要求1所述的计算机实现方法,其中,使用至少一部分所述指纹生成所述一组失真指纹进一步包括:
由所述计算系统使用所述至少一个指纹确定至少一个参考内容项;并且
由所述计算系统确定在所述测试内容项与所述参考内容项之间没有识别到匹配。
10.根据权利要求1所述的计算机实现方法,其中,使用至少一部分所述指纹生成所述一组失真指纹进一步包括:
由所述计算系统使用所述至少一个指纹确定至少一个参考内容项;并且
由所述计算系统确定所述测试内容项与所述参考内容项之间的匹配是在阈值匹配距离内。
11.一种系统,包括:
至少一个处理器;以及
存储指令的存储器,当由所述至少一个处理器执行时,所述指令使得所述系统执行:
基于与测试内容项对应的一组帧生成至少一个指纹;
使用至少一部分所述指纹生成一组失真指纹;并且
使用所述一组失真指纹确定一个或多个参考内容项,其中,针对至少一个参考内容项评估所述测试内容项,以识别匹配内容。
12.根据权利要求11所述的系统,其中,使用至少一部分所述指纹生成所述一组失真指纹进一步使得所述系统执行:
获得与生成所述指纹的所述一组帧中的第一帧对应的一组比特;并且
为所述一组比特的至少一部分生成一组二进制串置换。
13.根据权利要求12所述的系统,其中,在每个二进制串中置换一个或多个比特。
14.根据权利要求12所述的系统,其中,生成所述一组二进制串置换进一步使得所述系统执行:
为所述一组比特的所述部分生成第一组二进制串置换,其中,在每个二进制串中置换一个比特;
确定使用所述第一组二进制串置换没有识别到参考内容项;并且
为所述一组比特的所述部分生成第二组二进制串置换,其中,在每个二进制串中置换多个比特。
15.根据权利要求11所述的系统,其中,使用所述一组失真指纹确定一个或多个参考内容项进一步使得所述系统执行:
获得与第一失真指纹对应的一组比特;
至少部分地基于所述一组比特的一部分识别至少一个候选帧;
并且
基于所述候选帧确定至少一个参考内容项。
16.一种包括指令的非暂时性计算机可读存储介质,当由计算机系统的至少一个处理器执行时,所述指令使得所述计算系统执行方法,所述方法包括:
基于与测试内容项对应的一组帧生成至少一个指纹;
使用至少一部分所述指纹生成一组失真指纹;并且
使用所述一组失真指纹确定一个或多个参考内容项,其中,针对至少一个参考内容项评估所述测试内容项,以识别匹配内容。
17.根据权利要求16所述的非暂时性计算机可读存储介质,其中,使用至少一部分所述指纹生成所述一组失真指纹进一步使得所述计算系统执行:
获得与生成所述指纹的所述一组帧中的第一帧对应的一组比特;并且
为所述一组比特的至少一部分生成一组二进制串置换。
18.根据权利要求17所述的非暂时性计算机可读存储介质,其中,在每个二进制串中置换一个或多个比特。
19.根据权利要求17所述的非暂时性计算机可读存储介质,其中,生成所述一组二进制串置换进一步使得所述计算系统执行:
为所述一组比特的所述部分生成第一组二进制串置换,其中,在每个二进制串中置换一个比特;
确定使用所述第一组二进制串置换没有识别到参考内容项;并且
为所述一组比特的所述部分生成第二组二进制串置换,其中,在每个二进制串中置换多个比特。
20.根据权利要求16所述的非暂时性计算机可读存储介质,其中,使用所述一组失真指纹确定一个或多个参考内容项进一步使得所述计算系统执行:
获得与第一失真指纹对应的一组比特;
至少部分地基于所述一组比特的一部分识别至少一个候选帧;
并且
基于所述候选帧确定至少一个参考内容项。
21.一种计算机实现方法,包括:
由计算系统基于与测试内容项对应的一组帧生成至少一个指纹;
由所述计算系统使用至少一部分所述指纹生成一组失真指纹;
并且
由所述计算系统使用所述一组失真指纹确定一个或多个参考内容项,其中,针对至少一个参考内容项评估所述测试内容项,以识别匹配内容。
22.根据权利要求21所述的计算机实现方法,其中,使用至少一部分所述指纹生成所述一组失真指纹进一步包括:
由所述计算系统获得与生成所述指纹的所述一组帧中的第一帧对应的一组比特;并且
由所述计算系统为所述一组比特的至少一部分生成一组二进制串置换。
23.根据权利要求22所述的计算机实现方法,其中,在每个二进制串中置换一个或多个比特。
24.根据权利要求22或23中任一项所述的计算机实现方法,其中,生成所述一组二进制串置换进一步包括:
由所述计算系统为所述一组比特的所述部分生成第一组二进制串置换,其中,在每个二进制串中置换一个比特;
由所述计算系统确定使用所述第一组二进制串置换没有识别到参考内容项;并且
由所述计算系统为所述一组比特的所述部分生成第二组二进制串置换,其中,在每个二进制串中置换多个比特。
25.根据权利要求25所述的计算机实现方法,包括继续分阶段地生成和测试失真,直到阈值中央处理单元(CPU)使用率;和/或
达到阈值查询时间。
26.根据权利要求21至25中任一项所述的计算机实现方法,使用所述一组失真指纹确定一个或多个参考内容项进一步包括:由所述计算系统获得与第一失真指纹对应的一组比特;
由所述计算系统至少部分地基于所述一组比特的一部分识别至少一个候选帧;并且
由所述计算系统基于所述候选帧确定至少一个参考内容项;
优选地,其中,至少部分地基于所述一组比特的一部分来识别至少一个候选帧,进一步包括:
由所述计算系统将所述一组比特的所述部分散列到倒排索引中的二进制数,其中,所述二进制数参考描述所述至少一个候选帧和所述参考内容项的信息。
27.根据权利要求21至26中任一项所述的计算机实现方法,其中,使用至少一部分所述指纹生成所述一组失真指纹进一步包括:
由所述计算系统确定使用所述一组失真指纹识别参考内容项不会引起所述计算系统的中央处理单元(CPU)负载超过阈值负载;
和/或
由所述计算系统确定使用所述至少一个指纹没有识别到参考内容项;和/或
由所述计算系统使用所述至少一个指纹确定至少一个参考内容项;并且
由所述计算系统确定在所述测试内容项与所述参考内容项之间没有识别到匹配;和/或
由所述计算系统使用所述至少一个指纹确定至少一个参考内容项;并且
由所述计算系统确定在所述测试内容项与所述参考内容项之间的匹配是在阈值匹配距离内。
28.一种系统,包括:
至少一个处理器;以及
存储指令的存储器,当由所述至少一个处理器执行时,所述指令使得所述系统执行:
基于与测试内容项对应的一组帧生成至少一个指纹;
使用至少一部分所述指纹生成一组失真指纹;并且
使用所述一组失真指纹确定一个或多个参考内容项,其中,针对至少一个参考内容项评估所述测试内容项,以识别匹配内容。
29.根据权利要求28所述的系统,其中,使用至少一部分所述指纹生成所述一组失真指纹进一步使得所述系统执行:
获得与生成所述指纹的所述一组帧中的第一帧对应的一组比特;并且
为所述一组比特的至少一部分生成一组二进制串置换;
优选地,其中,在每个二进制串中置换一个或多个比特;和/或优选地,其中,生成所述一组二进制串置换进一步使得所述系统执行:
为所述一组比特的所述部分生成第一组二进制串置换,其中,在每个二进制串中置换一个比特;
确定使用所述第一组二进制串置换没有识别到参考内容项;并且
为所述一组比特的所述部分生成第二组二进制串置换,其中,在每个二进制串中置换多个比特。
30.根据权利要求28或29所述的系统,其中,使用所述一组失真指纹确定一个或多个参考内容项进一步使得所述系统执行:
获得与第一失真指纹对应的一组比特;
至少部分地基于所述一组比特的一部分识别至少一个候选帧;
并且
基于所述候选帧确定至少一个参考内容项。
31.一种包括指令的非暂时性计算机可读存储介质,当由计算机系统的至少一个处理器执行时,所述指令使得所述计算系统执行方法,所述方法包括:
基于与测试内容项对应的一组帧生成至少一个指纹;
使用至少一部分所述指纹生成一组失真指纹;并且
使用所述一组失真指纹确定一个或多个参考内容项,其中,针对至少一个参考内容项评估所述测试内容项,以识别匹配内容。
32.根据权利要求31所述的非暂时性计算机可读存储介质,其中,使用至少一部分所述指纹生成所述一组失真指纹进一步使得所述计算系统执行:
获得与生成所述指纹的所述一组帧中的第一帧对应的一组比特;并且
为所述一组比特的至少一部分生成一组二进制串置换;
优选地,其中,在每个二进制串中置换一个或多个比;和/或
优选地,其中,生成所述一组二进制串置换进一步使得所述计算系统执行:
为所述一组比特的所述部分生成第一组二进制串置换,其中,在每个二进制串中置换一个比特;
确定使用所述第一组二进制串置换没有识别到参考内容项;并且
为所述一组比特的所述部分生成第二组二进制串置换,其中,在每个二进制串中置换多个比特。
33.根据权利要求32所述的非暂时性计算机可读存储介质,其中,使用所述一组失真指纹确定一个或多个参考内容项进一步使得所述计算系统执行:
获得与第一失真指纹对应的一组比特;
至少部分地基于所述一组比特的一部分识别至少一个候选帧;并且
基于所述候选帧确定至少一个参考内容项。
Applications Claiming Priority (9)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662355043P | 2016-06-27 | 2016-06-27 | |
US62/355,043 | 2016-06-27 | ||
US15/290,999 US20170372142A1 (en) | 2016-06-27 | 2016-10-11 | Systems and methods for identifying matching content |
US15/291,002 US10650241B2 (en) | 2016-06-27 | 2016-10-11 | Systems and methods for identifying matching content |
US15/290,999 | 2016-10-11 | ||
US15/291,003 | 2016-10-11 | ||
US15/291,002 | 2016-10-11 | ||
US15/291,003 US20170371963A1 (en) | 2016-06-27 | 2016-10-11 | Systems and methods for identifying matching content |
PCT/US2016/057982 WO2018004720A1 (en) | 2016-06-27 | 2016-10-20 | Systems and methods for identifying matching content |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109661822A true CN109661822A (zh) | 2019-04-19 |
CN109661822B CN109661822B (zh) | 2021-08-20 |
Family
ID=60675542
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680088748.9A Pending CN109643319A (zh) | 2016-06-27 | 2016-10-20 | 用于识别匹配内容的系统和方法 |
CN201680088752.5A Pending CN109643320A (zh) | 2016-06-27 | 2016-10-20 | 用于识别匹配内容的系统和方法 |
CN201680088756.3A Active CN109661822B (zh) | 2016-06-27 | 2016-10-20 | 用于识别匹配内容的系统和方法 |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680088748.9A Pending CN109643319A (zh) | 2016-06-27 | 2016-10-20 | 用于识别匹配内容的系统和方法 |
CN201680088752.5A Pending CN109643320A (zh) | 2016-06-27 | 2016-10-20 | 用于识别匹配内容的系统和方法 |
Country Status (10)
Country | Link |
---|---|
US (4) | US10650241B2 (zh) |
JP (3) | JP6874131B2 (zh) |
KR (3) | KR20190014098A (zh) |
CN (3) | CN109643319A (zh) |
AU (3) | AU2016412718A1 (zh) |
BR (3) | BR112018077294A2 (zh) |
CA (3) | CA3029182A1 (zh) |
IL (3) | IL263919A (zh) |
MX (3) | MX2019000212A (zh) |
WO (6) | WO2018004716A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113645505A (zh) * | 2020-04-27 | 2021-11-12 | 西娜媒体有限公司 | 用于视频内容安全的系统和方法 |
Families Citing this family (69)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9830193B1 (en) | 2014-09-30 | 2017-11-28 | Amazon Technologies, Inc. | Automatic management of low latency computational capacity |
US9146764B1 (en) | 2014-09-30 | 2015-09-29 | Amazon Technologies, Inc. | Processing event messages for user requests to execute program code |
US9678773B1 (en) | 2014-09-30 | 2017-06-13 | Amazon Technologies, Inc. | Low latency computational capacity provisioning |
US9600312B2 (en) | 2014-09-30 | 2017-03-21 | Amazon Technologies, Inc. | Threading as a service |
US9413626B2 (en) | 2014-12-05 | 2016-08-09 | Amazon Technologies, Inc. | Automatic management of resource sizing |
US9733967B2 (en) | 2015-02-04 | 2017-08-15 | Amazon Technologies, Inc. | Security protocols for low latency execution of program code |
US9588790B1 (en) | 2015-02-04 | 2017-03-07 | Amazon Technologies, Inc. | Stateful virtual compute system |
US10623828B2 (en) * | 2015-08-26 | 2020-04-14 | Pcms Holdings, Inc. | Method and systems for generating and utilizing contextual watermarking |
US9910713B2 (en) | 2015-12-21 | 2018-03-06 | Amazon Technologies, Inc. | Code execution request routing |
KR102560635B1 (ko) * | 2015-12-28 | 2023-07-28 | 삼성전자주식회사 | 컨텐트 인식 장치 및 그 동작 방법 |
US11132213B1 (en) | 2016-03-30 | 2021-09-28 | Amazon Technologies, Inc. | Dependency-based process of pre-existing data sets at an on demand code execution environment |
US10013614B2 (en) * | 2016-06-29 | 2018-07-03 | Google Llc | Using an image matching system to improve the quality of service of a video matching system |
US10102040B2 (en) | 2016-06-29 | 2018-10-16 | Amazon Technologies, Inc | Adjusting variable limit on concurrent code executions |
CA3040277A1 (en) | 2016-10-14 | 2018-04-19 | Icu Medical, Inc. | Sanitizing caps for medical connectors |
US20180300701A1 (en) | 2017-04-12 | 2018-10-18 | Facebook, Inc. | Systems and methods for content management |
US10445140B1 (en) | 2017-06-21 | 2019-10-15 | Amazon Technologies, Inc. | Serializing duration-limited task executions in an on demand code execution system |
US10725826B1 (en) * | 2017-06-21 | 2020-07-28 | Amazon Technologies, Inc. | Serializing duration-limited task executions in an on demand code execution system |
US10922551B2 (en) * | 2017-10-06 | 2021-02-16 | The Nielsen Company (Us), Llc | Scene frame matching for automatic content recognition |
US11487806B2 (en) * | 2017-12-12 | 2022-11-01 | Google Llc | Media item matching using search query analysis |
US10713495B2 (en) | 2018-03-13 | 2020-07-14 | Adobe Inc. | Video signatures based on image feature extraction |
US10970471B2 (en) * | 2018-04-23 | 2021-04-06 | International Business Machines Corporation | Phased collaborative editing |
US10853115B2 (en) | 2018-06-25 | 2020-12-01 | Amazon Technologies, Inc. | Execution of auxiliary functions in an on-demand network code execution system |
US11146569B1 (en) | 2018-06-28 | 2021-10-12 | Amazon Technologies, Inc. | Escalation-resistant secure network services using request-scoped authentication information |
US10949237B2 (en) | 2018-06-29 | 2021-03-16 | Amazon Technologies, Inc. | Operating system customization in an on-demand network code execution system |
US11099870B1 (en) | 2018-07-25 | 2021-08-24 | Amazon Technologies, Inc. | Reducing execution times in an on-demand network code execution system using saved machine states |
CN109600622B (zh) * | 2018-08-31 | 2021-04-02 | 北京微播视界科技有限公司 | 音视频信息处理方法、装置和电子设备 |
US10860647B2 (en) * | 2018-09-06 | 2020-12-08 | Gracenote, Inc. | Systems, methods, and apparatus to improve media identification |
US11099917B2 (en) | 2018-09-27 | 2021-08-24 | Amazon Technologies, Inc. | Efficient state maintenance for execution environments in an on-demand code execution system |
US11243953B2 (en) | 2018-09-27 | 2022-02-08 | Amazon Technologies, Inc. | Mapreduce implementation in an on-demand network code execution system and stream data processing system |
CN111093100B (zh) * | 2018-10-23 | 2021-08-24 | 能来(上海)信息技术有限公司 | 一种基于区块链的视频溯源方法 |
US11943093B1 (en) | 2018-11-20 | 2024-03-26 | Amazon Technologies, Inc. | Network connection recovery after virtual machine transition in an on-demand network code execution system |
US11010188B1 (en) | 2019-02-05 | 2021-05-18 | Amazon Technologies, Inc. | Simulated data object storage using on-demand computation of data objects |
US11861386B1 (en) | 2019-03-22 | 2024-01-02 | Amazon Technologies, Inc. | Application gateways in an on-demand network code execution system |
US11106827B2 (en) | 2019-03-26 | 2021-08-31 | Rovi Guides, Inc. | System and method for identifying altered content |
US11134318B2 (en) | 2019-03-26 | 2021-09-28 | Rovi Guides, Inc. | System and method for identifying altered content |
EP3797368B1 (en) * | 2019-03-26 | 2023-10-25 | Rovi Guides, Inc. | System and method for identifying altered content |
KR102225258B1 (ko) | 2019-04-18 | 2021-03-10 | 주식회사 실크로드소프트 | 데이터베이스 시스템에서 효율적인 변경 데이터 캡쳐를 제공하기 위한 컴퓨터 프로그램 |
WO2020231927A1 (en) | 2019-05-10 | 2020-11-19 | The Nielsen Company (Us), Llc | Content-modification system with responsive transmission of reference fingerprint data feature |
WO2020231813A1 (en) | 2019-05-10 | 2020-11-19 | The Nielsen Company (Us), Llc | Content-modification system with responsive transmission of reference fingerprint data feature |
US11373440B2 (en) | 2019-05-10 | 2022-06-28 | Roku, Inc. | Content-modification system with fingerprint data match and mismatch detection feature |
US11354323B2 (en) * | 2019-05-10 | 2022-06-07 | Roku, Inc. | Content-modification system with geographic area-based feature |
US10796159B1 (en) | 2019-05-10 | 2020-10-06 | The Nielsen Company (Us), Llc | Content-modification system with use of multiple fingerprint data types feature |
US11386696B2 (en) | 2019-05-10 | 2022-07-12 | Roku, Inc. | Content-modification system with fingerprint data mismatch and responsive action feature |
US11449545B2 (en) | 2019-05-13 | 2022-09-20 | Snap Inc. | Deduplication of media file search results |
KR20200142787A (ko) * | 2019-06-13 | 2020-12-23 | 네이버 주식회사 | 멀티미디어 신호 인식을 위한 전자 장치 및 그의 동작 방법 |
US11234050B2 (en) | 2019-06-18 | 2022-01-25 | Roku, Inc. | Use of steganographically-encoded data as basis to control dynamic content modification as to at least one modifiable-content segment identified based on fingerprint analysis |
US11119809B1 (en) | 2019-06-20 | 2021-09-14 | Amazon Technologies, Inc. | Virtualization-based transaction handling in an on-demand network code execution system |
US11159528B2 (en) | 2019-06-28 | 2021-10-26 | Amazon Technologies, Inc. | Authentication to network-services using hosted authentication information |
US11115404B2 (en) | 2019-06-28 | 2021-09-07 | Amazon Technologies, Inc. | Facilitating service connections in serverless code executions |
US11190609B2 (en) | 2019-06-28 | 2021-11-30 | Amazon Technologies, Inc. | Connection pooling for scalable network services |
US11700285B2 (en) * | 2019-07-26 | 2023-07-11 | Rovi Guides, Inc. | Filtering video content items |
US11695807B2 (en) * | 2019-07-26 | 2023-07-04 | Rovi Guides, Inc. | Filtering video content items |
US10923158B1 (en) * | 2019-11-25 | 2021-02-16 | International Business Machines Corporation | Dynamic sequential image processing |
US11119826B2 (en) | 2019-11-27 | 2021-09-14 | Amazon Technologies, Inc. | Serverless call distribution to implement spillover while avoiding cold starts |
US11297365B2 (en) * | 2019-12-13 | 2022-04-05 | At&T Intellectual Property I, L.P. | Adaptive bitrate video testing from screen recording |
CN111339368B (zh) * | 2020-02-20 | 2024-04-02 | 同盾控股有限公司 | 基于视频指纹的视频检索方法、装置和电子设备 |
US11714682B1 (en) | 2020-03-03 | 2023-08-01 | Amazon Technologies, Inc. | Reclaiming computing resources in an on-demand code execution system |
US11188391B1 (en) | 2020-03-11 | 2021-11-30 | Amazon Technologies, Inc. | Allocating resources to on-demand code executions under scarcity conditions |
CN111400542B (zh) * | 2020-03-20 | 2023-09-08 | 腾讯科技(深圳)有限公司 | 音频指纹的生成方法、装置、设备及存储介质 |
CN111428211B (zh) * | 2020-03-20 | 2021-06-15 | 浙江传媒学院 | 面向联盟区块链的视频作品多因子确权溯源的存证方法 |
US20220027407A1 (en) * | 2020-07-27 | 2022-01-27 | Audible Magic Corporation | Dynamic identification of unknown media |
US11550713B1 (en) | 2020-11-25 | 2023-01-10 | Amazon Technologies, Inc. | Garbage collection in distributed systems using life cycled storage roots |
US11593270B1 (en) | 2020-11-25 | 2023-02-28 | Amazon Technologies, Inc. | Fast distributed caching using erasure coded object parts |
US11388210B1 (en) | 2021-06-30 | 2022-07-12 | Amazon Technologies, Inc. | Streaming analytics using a serverless compute system |
CN113779597B (zh) * | 2021-08-19 | 2023-08-18 | 深圳技术大学 | 加密文档的存储和相似检索方法、装置、设备及介质 |
US12056217B2 (en) * | 2021-11-03 | 2024-08-06 | AT&T Intellect al Property I, L.P. | Multimedia piracy detection with multi-phase sampling and transformation |
US11417099B1 (en) | 2021-11-08 | 2022-08-16 | 9219-1568 Quebec Inc. | System and method for digital fingerprinting of media content |
US11968280B1 (en) | 2021-11-24 | 2024-04-23 | Amazon Technologies, Inc. | Controlling ingestion of streaming data to serverless function executions |
US12015603B2 (en) | 2021-12-10 | 2024-06-18 | Amazon Technologies, Inc. | Multi-tenant mode for serverless code execution |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102132341A (zh) * | 2008-08-26 | 2011-07-20 | 杜比实验室特许公司 | 鲁棒的媒体指纹 |
CN102460470A (zh) * | 2009-06-11 | 2012-05-16 | 杜比实验室特许公司 | 基于指纹的内容识别趋势分析 |
US20120278326A1 (en) * | 2009-12-22 | 2012-11-01 | Dolby Laboratories Licensing Corporation | Method to Dynamically Design and Configure Multimedia Fingerprint Databases |
CN103729368A (zh) * | 2012-10-13 | 2014-04-16 | 复旦大学 | 一种基于局部频谱图像描述子的鲁棒音频识别方法 |
US20140105447A1 (en) * | 2012-10-15 | 2014-04-17 | Juked, Inc. | Efficient data fingerprinting |
Family Cites Families (86)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6865273B2 (en) | 2002-06-05 | 2005-03-08 | Sony Corporation | Method and apparatus to detect watermark that are resistant to resizing, rotation and translation |
US7363278B2 (en) | 2001-04-05 | 2008-04-22 | Audible Magic Corporation | Copyright detection and protection system and method |
US20030061490A1 (en) | 2001-09-26 | 2003-03-27 | Abajian Aram Christian | Method for identifying copyright infringement violations by fingerprint detection |
US7092584B2 (en) * | 2002-01-04 | 2006-08-15 | Time Warner Entertainment Company Lp | Registration of separations |
KR20050086470A (ko) | 2002-11-12 | 2005-08-30 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 멀티미디어 컨텐츠를 핑거프린트하는 방법 |
US20070128899A1 (en) * | 2003-01-12 | 2007-06-07 | Yaron Mayer | System and method for improving the efficiency, comfort, and/or reliability in Operating Systems, such as for example Windows |
US7610377B2 (en) * | 2004-01-27 | 2009-10-27 | Sun Microsystems, Inc. | Overload management in an application-based server |
US7231405B2 (en) | 2004-05-08 | 2007-06-12 | Doug Norman, Interchange Corp. | Method and apparatus of indexing web pages of a web site for geographical searchine based on user location |
US8406607B2 (en) | 2004-08-12 | 2013-03-26 | Gracenote, Inc. | Selection of content from a stream of video or audio data |
JP2006285907A (ja) | 2005-04-05 | 2006-10-19 | Nippon Hoso Kyokai <Nhk> | 指定流通コンテンツ特定装置、指定流通コンテンツ特定プログラムおよび指定流通コンテンツ特定方法 |
US7516074B2 (en) | 2005-09-01 | 2009-04-07 | Auditude, Inc. | Extraction and matching of characteristic fingerprints from audio signals |
US20070250863A1 (en) | 2006-04-06 | 2007-10-25 | Ferguson Kenneth H | Media content programming control method and apparatus |
US7831531B1 (en) | 2006-06-22 | 2010-11-09 | Google Inc. | Approximate hashing functions for finding similar content |
US20110276993A1 (en) | 2007-04-06 | 2011-11-10 | Ferguson Kenneth H | Media Content Programming Control Method and Apparatus |
US8094872B1 (en) | 2007-05-09 | 2012-01-10 | Google Inc. | Three-dimensional wavelet based video fingerprinting |
US8611422B1 (en) * | 2007-06-19 | 2013-12-17 | Google Inc. | Endpoint based video fingerprinting |
EP2198376B1 (en) * | 2007-10-05 | 2016-01-27 | Dolby Laboratories Licensing Corp. | Media fingerprints that reliably correspond to media content |
JP5061877B2 (ja) | 2007-12-13 | 2012-10-31 | オムロン株式会社 | 動画像同定装置 |
US9177209B2 (en) * | 2007-12-17 | 2015-11-03 | Sinoeast Concept Limited | Temporal segment based extraction and robust matching of video fingerprints |
JP4997179B2 (ja) | 2008-06-11 | 2012-08-08 | 富士通エレクトロニクス株式会社 | 画像処理装置、方法およびプログラム |
US8195689B2 (en) | 2009-06-10 | 2012-06-05 | Zeitera, Llc | Media fingerprinting and identification system |
US9313359B1 (en) * | 2011-04-26 | 2016-04-12 | Gracenote, Inc. | Media content identification on mobile devices |
US8385644B2 (en) | 2008-07-08 | 2013-02-26 | Zeitera, Llc | Digital video fingerprinting based on resultant weighted gradient orientation computation |
US8335786B2 (en) | 2009-05-28 | 2012-12-18 | Zeitera, Llc | Multi-media content identification using multi-level content signature correlation and fast similarity search |
US8189945B2 (en) | 2009-05-27 | 2012-05-29 | Zeitera, Llc | Digital video content fingerprinting based on scale invariant interest region detection with an array of anisotropic filters |
US8498487B2 (en) | 2008-08-20 | 2013-07-30 | Sri International | Content-based matching of videos using local spatio-temporal fingerprints |
US8422731B2 (en) | 2008-09-10 | 2013-04-16 | Yahoo! Inc. | System, method, and apparatus for video fingerprinting |
KR100993601B1 (ko) | 2008-09-16 | 2010-11-10 | (주)위디랩 | 디지털 동영상 컨텐츠의 유사도 측정 방법, 이를 이용한 동영상 컨텐츠의 관리 방법 및 상기 관리 방법을 이용한 동영상 컨텐츠의 관리 시스템 |
JP2010186307A (ja) | 2009-02-12 | 2010-08-26 | Kddi Corp | 動画コンテンツ識別装置および動画コンテンツ識別方法 |
US8934545B2 (en) * | 2009-02-13 | 2015-01-13 | Yahoo! Inc. | Extraction of video fingerprints and identification of multimedia using video fingerprinting |
WO2010135623A1 (en) * | 2009-05-21 | 2010-11-25 | Digimarc Corporation | Robust signatures derived from local nonlinear filters |
US8713068B2 (en) | 2009-06-11 | 2014-04-29 | Yahoo! Inc. | Media identification system with fingerprint database balanced according to search loads |
US8634947B1 (en) * | 2009-10-21 | 2014-01-21 | Michael Merhej | System and method for identifying digital files |
US9197736B2 (en) * | 2009-12-31 | 2015-11-24 | Digimarc Corporation | Intuitive computing methods and systems |
US8594392B2 (en) | 2009-11-18 | 2013-11-26 | Yahoo! Inc. | Media identification system for efficient matching of media items having common content |
JP2011188342A (ja) | 2010-03-10 | 2011-09-22 | Sony Corp | 情報処理装置、情報処理方法及びプログラム |
US8560583B2 (en) * | 2010-04-01 | 2013-10-15 | Sony Computer Entertainment Inc. | Media fingerprinting for social networking |
KR20150095957A (ko) | 2010-05-04 | 2015-08-21 | 샤잠 엔터테인먼트 리미티드 | 미디어 스트림의 샘플을 처리하는 방법 및 시스템 |
US8694533B2 (en) | 2010-05-19 | 2014-04-08 | Google Inc. | Presenting mobile content based on programming context |
BR112012032991B1 (pt) * | 2010-06-22 | 2021-08-10 | Regeneron Pharmaceuticals, Inc | Método para preparar um anticorpo que se liga a um antígeno de interesse |
EP2659663B1 (en) | 2010-12-29 | 2016-04-20 | Telecom Italia S.p.A. | Method and system for syncronizing electronic program guides |
US8731236B2 (en) | 2011-01-14 | 2014-05-20 | Futurewei Technologies, Inc. | System and method for content protection in a content delivery network |
US9367669B2 (en) | 2011-02-25 | 2016-06-14 | Echostar Technologies L.L.C. | Content source identification using matrix barcode |
US8843584B2 (en) | 2011-06-02 | 2014-09-23 | Google Inc. | Methods for displaying content on a second device that is related to the content playing on a first device |
US8805827B2 (en) | 2011-08-23 | 2014-08-12 | Dialogic (Us) Inc. | Content identification using fingerprint matching |
US8805560B1 (en) | 2011-10-18 | 2014-08-12 | Google Inc. | Noise based interest point density pruning |
GB2501224B (en) | 2012-01-10 | 2016-03-09 | Qatar Foundation | Detecting video copies |
US8660296B1 (en) | 2012-01-10 | 2014-02-25 | Google Inc. | Systems and methods for facilitating video fingerprinting using local descriptors |
US8953836B1 (en) | 2012-01-31 | 2015-02-10 | Google Inc. | Real-time duplicate detection for uploaded videos |
US9684715B1 (en) * | 2012-03-08 | 2017-06-20 | Google Inc. | Audio identification using ordinal transformation |
US8838609B1 (en) * | 2012-10-10 | 2014-09-16 | Google Inc. | IDF weighting of LSH bands for live reference ingestion |
US8966571B2 (en) | 2012-04-03 | 2015-02-24 | Google Inc. | Detection of potentially copyrighted content in user-initiated live streams |
US8655029B2 (en) * | 2012-04-10 | 2014-02-18 | Seiko Epson Corporation | Hash-based face recognition system |
US8886635B2 (en) | 2012-05-23 | 2014-11-11 | Enswers Co., Ltd. | Apparatus and method for recognizing content using audio signal |
KR101315970B1 (ko) * | 2012-05-23 | 2013-10-08 | (주)엔써즈 | 오디오 신호를 이용한 콘텐츠 인식 장치 및 방법 |
US9374374B2 (en) | 2012-06-19 | 2016-06-21 | SecureMySocial, Inc. | Systems and methods for securing social media for users and businesses and rewarding for enhancing security |
US8938089B1 (en) | 2012-06-26 | 2015-01-20 | Google Inc. | Detection of inactive broadcasts during live stream ingestion |
US8868223B1 (en) | 2012-07-19 | 2014-10-21 | Google Inc. | Positioning using audio recognition |
US9661361B2 (en) | 2012-09-19 | 2017-05-23 | Google Inc. | Systems and methods for live media content matching |
US20140161263A1 (en) | 2012-12-10 | 2014-06-12 | Microsoft Corporation | Facilitating recognition of real-time content |
US9323840B2 (en) * | 2013-01-07 | 2016-04-26 | Gracenote, Inc. | Video fingerprinting |
US9146990B2 (en) * | 2013-01-07 | 2015-09-29 | Gracenote, Inc. | Search and identification of video content |
US9679583B2 (en) | 2013-03-15 | 2017-06-13 | Facebook, Inc. | Managing silence in audio signal identification |
US20140278845A1 (en) | 2013-03-15 | 2014-09-18 | Shazam Investments Limited | Methods and Systems for Identifying Target Media Content and Determining Supplemental Information about the Target Media Content |
US9728205B2 (en) | 2013-03-15 | 2017-08-08 | Facebook, Inc. | Generating audio fingerprints based on audio signal complexity |
US20140279856A1 (en) | 2013-03-15 | 2014-09-18 | Venugopal Srinivasan | Methods and apparatus to update a reference database |
EP2982006A1 (en) * | 2013-04-02 | 2016-02-10 | Telefonaktiebolaget L M Ericsson (publ) | A radio antenna alignment tool |
US9161074B2 (en) | 2013-04-30 | 2015-10-13 | Ensequence, Inc. | Methods and systems for distributing interactive content |
US9542488B2 (en) * | 2013-08-02 | 2017-01-10 | Google Inc. | Associating audio tracks with video content |
US9466317B2 (en) | 2013-10-11 | 2016-10-11 | Facebook, Inc. | Generating a reference audio fingerprint for an audio signal associated with an event |
US9465995B2 (en) | 2013-10-23 | 2016-10-11 | Gracenote, Inc. | Identifying video content via color-based fingerprint matching |
US20160306811A1 (en) * | 2013-12-26 | 2016-10-20 | Le Holdings (Beijing) Co., Ltd. | Method and system for creating inverted index file of video resource |
US9390727B2 (en) | 2014-01-13 | 2016-07-12 | Facebook, Inc. | Detecting distorted audio signals based on audio fingerprinting |
US9529840B1 (en) * | 2014-01-14 | 2016-12-27 | Google Inc. | Real-time duplicate detection of videos in a massive video sharing system |
US9998748B2 (en) | 2014-04-16 | 2018-06-12 | Disney Enterprises, Inc. | Methods and systems of archiving media files |
WO2015183148A1 (en) | 2014-05-27 | 2015-12-03 | Telefonaktiebolaget L M Ericsson (Publ) | Fingerprinting and matching of content of a multi-media file |
US9558272B2 (en) * | 2014-08-14 | 2017-01-31 | Yandex Europe Ag | Method of and a system for matching audio tracks using chromaprints with a fast candidate selection routine |
US9704507B2 (en) | 2014-10-31 | 2017-07-11 | Ensequence, Inc. | Methods and systems for decreasing latency of content recognition |
US9258604B1 (en) | 2014-11-24 | 2016-02-09 | Facebook, Inc. | Commercial detection based on audio fingerprinting |
US9837101B2 (en) | 2014-11-25 | 2017-12-05 | Facebook, Inc. | Indexing based on time-variant transforms of an audio signal's spectrogram |
US9794719B2 (en) | 2015-06-15 | 2017-10-17 | Harman International Industries, Inc. | Crowd sourced audio data for venue equalization |
US9549125B1 (en) | 2015-09-01 | 2017-01-17 | Amazon Technologies, Inc. | Focus specification and focus stabilization |
US9955196B2 (en) | 2015-09-14 | 2018-04-24 | Google Llc | Selective degradation of videos containing third-party content |
KR101757878B1 (ko) | 2015-12-10 | 2017-07-14 | 삼성전자주식회사 | 컨텐츠 처리장치, 그의 컨텐츠 처리방법, 서버, 서버의 정보 제공방법 및 정보제공 시스템 |
US9930406B2 (en) | 2016-02-29 | 2018-03-27 | Gracenote, Inc. | Media channel identification with video multi-match detection and disambiguation based on audio fingerprint |
CN106126617B (zh) | 2016-06-22 | 2018-11-23 | 腾讯科技(深圳)有限公司 | 一种视频检测方法及服务器 |
-
2016
- 2016-10-11 US US15/291,002 patent/US10650241B2/en active Active
- 2016-10-11 US US15/291,003 patent/US20170371963A1/en not_active Abandoned
- 2016-10-11 US US15/290,999 patent/US20170372142A1/en not_active Abandoned
- 2016-10-12 WO PCT/US2016/056525 patent/WO2018004716A1/en active Application Filing
- 2016-10-12 WO PCT/US2016/056620 patent/WO2018004718A1/en active Application Filing
- 2016-10-12 WO PCT/US2016/056556 patent/WO2018004717A1/en active Application Filing
- 2016-10-20 JP JP2019519957A patent/JP6874131B2/ja active Active
- 2016-10-20 WO PCT/US2016/057979 patent/WO2018004719A1/en active Application Filing
- 2016-10-20 CA CA3029182A patent/CA3029182A1/en not_active Abandoned
- 2016-10-20 AU AU2016412718A patent/AU2016412718A1/en not_active Abandoned
- 2016-10-20 KR KR1020197001812A patent/KR20190014098A/ko active IP Right Grant
- 2016-10-20 KR KR1020197001813A patent/KR20190022661A/ko not_active Application Discontinuation
- 2016-10-20 CN CN201680088748.9A patent/CN109643319A/zh active Pending
- 2016-10-20 CA CA3029311A patent/CA3029311A1/en not_active Abandoned
- 2016-10-20 AU AU2016412717A patent/AU2016412717A1/en not_active Abandoned
- 2016-10-20 MX MX2019000212A patent/MX2019000212A/es unknown
- 2016-10-20 MX MX2019000206A patent/MX2019000206A/es unknown
- 2016-10-20 WO PCT/US2016/057985 patent/WO2018004721A1/en active Application Filing
- 2016-10-20 MX MX2019000220A patent/MX2019000220A/es unknown
- 2016-10-20 BR BR112018077294-1A patent/BR112018077294A2/pt not_active Application Discontinuation
- 2016-10-20 AU AU2016412719A patent/AU2016412719A1/en not_active Abandoned
- 2016-10-20 JP JP2019519958A patent/JP6886513B2/ja active Active
- 2016-10-20 BR BR112018077198-8A patent/BR112018077198A2/pt not_active Application Discontinuation
- 2016-10-20 WO PCT/US2016/057982 patent/WO2018004720A1/en active Application Filing
- 2016-10-20 CN CN201680088752.5A patent/CN109643320A/zh active Pending
- 2016-10-20 JP JP2019519956A patent/JP6997776B2/ja active Active
- 2016-10-20 BR BR112018077230-5A patent/BR112018077230A2/pt not_active Application Discontinuation
- 2016-10-20 CA CA3029190A patent/CA3029190A1/en not_active Abandoned
- 2016-10-20 KR KR1020197001811A patent/KR20190022660A/ko not_active Application Discontinuation
- 2016-10-20 CN CN201680088756.3A patent/CN109661822B/zh active Active
- 2016-12-30 US US15/396,029 patent/US11030462B2/en active Active
-
2018
- 2018-12-23 IL IL263919A patent/IL263919A/en unknown
- 2018-12-23 IL IL263918A patent/IL263918A/en unknown
- 2018-12-23 IL IL263909A patent/IL263909A/en unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102132341A (zh) * | 2008-08-26 | 2011-07-20 | 杜比实验室特许公司 | 鲁棒的媒体指纹 |
CN102460470A (zh) * | 2009-06-11 | 2012-05-16 | 杜比实验室特许公司 | 基于指纹的内容识别趋势分析 |
US20120278326A1 (en) * | 2009-12-22 | 2012-11-01 | Dolby Laboratories Licensing Corporation | Method to Dynamically Design and Configure Multimedia Fingerprint Databases |
CN103729368A (zh) * | 2012-10-13 | 2014-04-16 | 复旦大学 | 一种基于局部频谱图像描述子的鲁棒音频识别方法 |
US20140105447A1 (en) * | 2012-10-15 | 2014-04-17 | Juked, Inc. | Efficient data fingerprinting |
Non-Patent Citations (1)
Title |
---|
MANI MALEK ESMAEILI: "A Robust and Fast Video Copy Detection System Using Content-Based Fingerprinting", 《IEEE TRANSACTIONS ON INFORMATION FORENSICS AND SECURITY》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113645505A (zh) * | 2020-04-27 | 2021-11-12 | 西娜媒体有限公司 | 用于视频内容安全的系统和方法 |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109661822A (zh) | 用于识别匹配内容的系统和方法 | |
CN109690538B (zh) | 用于识别匹配内容的系统和方法 | |
CN109155776A (zh) | 用于识别匹配内容的系统和方法 | |
CN109155050A (zh) | 用于识别匹配内容的系统和方法 | |
EP3264323A1 (en) | Systems and methods for identifying matching content | |
EP3264325A1 (en) | Systems and methods for identifying matching content | |
EP3264324A1 (en) | Systems and methods for identifying matching content | |
EP3264326A1 (en) | Systems and methods for identifying matching content | |
EP3223229A1 (en) | Systems and methods for identifying matching content |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP01 | Change in the name or title of a patent holder | ||
CP01 | Change in the name or title of a patent holder |
Address after: California, USA Patentee after: Yuan platform Co. Address before: California, USA Patentee before: Facebook, Inc. |