JP2019212290A - ビデオを処理する方法及び装置 - Google Patents
ビデオを処理する方法及び装置 Download PDFInfo
- Publication number
- JP2019212290A JP2019212290A JP2019052669A JP2019052669A JP2019212290A JP 2019212290 A JP2019212290 A JP 2019212290A JP 2019052669 A JP2019052669 A JP 2019052669A JP 2019052669 A JP2019052669 A JP 2019052669A JP 2019212290 A JP2019212290 A JP 2019212290A
- Authority
- JP
- Japan
- Prior art keywords
- target video
- information
- video segment
- target
- segment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 171
- 238000012545 processing Methods 0.000 title claims description 48
- 238000003780 insertion Methods 0.000 claims description 67
- 230000037431 insertion Effects 0.000 claims description 67
- 238000000605 extraction Methods 0.000 claims description 30
- 238000004590 computer program Methods 0.000 claims description 10
- 230000004044 response Effects 0.000 claims description 8
- 238000010586 diagram Methods 0.000 description 20
- 239000000284 extract Substances 0.000 description 10
- 238000004891 communication Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000013507 mapping Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000003672 processing method Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000013145 classification model Methods 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 238000012015 optical character recognition Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
- G06V20/47—Detecting features for summarising video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/75—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7837—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7844—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using original textual content or text extracted from visual content or transcript of audio data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/7867—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title and artist information, manually generated time, location and usage information, user ratings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/49—Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/23418—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/235—Processing of additional data, e.g. scrambling of additional data or processing content descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/235—Processing of additional data, e.g. scrambling of additional data or processing content descriptors
- H04N21/2353—Processing of additional data, e.g. scrambling of additional data or processing content descriptors specifically adapted to content descriptors, e.g. coding, compressing or processing of metadata
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/466—Learning process for intelligent management, e.g. learning user preferences for recommending movies
- H04N21/4668—Learning process for intelligent management, e.g. learning user preferences for recommending movies for recommending content, e.g. movies
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/84—Generation or processing of descriptive data, e.g. content descriptors
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Library & Information Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Signal Processing (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Software Systems (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
Description
ステップ201においては、ターゲットビデオとターゲットビデオのターゲットビデオ要素情報を取得する。
Claims (26)
- ビデオを処理する方法であって、
ターゲットビデオと前記ターゲットビデオのターゲットビデオ要素情報を取得するステップと、
前記ターゲットビデオ要素情報に基づき、前記ターゲットビデオからターゲットビデオセグメントを抽出するステップと、
予め設定された、ビデオ要素情報とビデオセグメントのキーワードの決定方法との対応関係に基づき、前記ターゲットビデオセグメントのカテゴリを表すキーワードを取得するステップと、
前記キーワードを予め設定されたタグ情報集合とマッチングし、前記ターゲットビデオセグメントのタグ情報を取得し、前記ターゲットビデオセグメントと前記タグ情報を関連付けて記憶するステップと、
を含む方法。 - 前記ターゲットビデオ要素情報は、前記ターゲットビデオに含まれる画像フレームであり、
前記の、前記ターゲットビデオ要素情報に基づき、前記ターゲットビデオからターゲットビデオセグメントを抽出するステップは、
前記ターゲットビデオに含まれる画像フレームについて、当該画像フレームに対し画像識別を行い、当該画像フレームの画像識別結果を取得するステップと、
画像識別結果と関連しかつ前記ターゲットビデオにおいて連続する画像フレームが存在するビデオセグメントを、ターゲットビデオセグメントとして決定するステップと、
を含む、請求項1に記載の方法。 - 前記予め設定された、ビデオ要素情報とビデオセグメントのキーワードの決定方法との対応関係に基づき、前記ターゲットビデオセグメントのカテゴリを表すキーワードを取得するステップは、
予め設定された、画像識別結果とキーワードとの対応関係に基づき、前記ターゲットビデオセグメントに含まれる画像フレームの画像識別結果に対応するキーワードを、前記ターゲットビデオセグメントのキーワードとして決定することを含む、請求項2に記載の方法。 - 前記ターゲットビデオ要素情報は、前記ターゲットビデオに含まれる画像フレームに対応する文字情報の集合であり、
前記ターゲットビデオ要素情報に基づき、前記ターゲットビデオからターゲットビデオセグメントを抽出するステップは、
前記ターゲットビデオに含まれる画像フレームに対して、当該画像フレームに対応する文字情報が含むターゲット語彙を抽出するステップと、
対応するターゲット語彙に関連する画像フレームが存在するビデオセグメントを、ターゲットビデオセグメントとして決定するステップと、
を含む、請求項1に記載の方法。 - 前記予め設定された、ビデオ要素情報とビデオセグメントのキーワードの決定方法との対応関係に基づき、前記ターゲットビデオセグメントのカテゴリを表すキーワードを取得するステップは、
前記ターゲットビデオセグメントに含まれる画像フレームに対応するターゲット語彙の中から、ターゲット語彙を、前記ターゲットビデオセグメントのキーワードとして選択することを含む、請求項4に記載の方法。 - 前記ターゲットビデオ要素情報は、前記ターゲットビデオに含まれる画像フレームに対応する文字情報の集合と、前記ターゲットビデオの文字概要情報とを含み、
前記ターゲットビデオ要素情報に基づき、前記ターゲットビデオからターゲットビデオセグメントを抽出するステップは、
前記ターゲットビデオに含まれる画像フレームに対して、当該画像フレームに対応する文字情報と前記文字概要情報との類似度を決定するステップと、
予め設定された類似度の閾値より大きい類似度に対応する画像フレームと関連する画像フレームが存在するビデオセグメントを、ターゲットビデオセグメントとして決定するステップと、
を含む、請求項1に記載の方法。 - 前記予め設定された、ビデオ要素情報とビデオセグメントのキーワードの決定方法との対応関係に基づき、前記ターゲットビデオセグメントのカテゴリを表すキーワードを取得するステップは、
前記ターゲットビデオセグメントに含まれる画像フレームに対して、当該画像フレームに対応する文字情報が含むターゲット語彙を抽出するステップと、
前記ターゲットビデオセグメントに含まれる画像フレームに対応するターゲット語彙の中から、ターゲット語彙を、前記ターゲットビデオセグメントのキーワードとして選択するステップと、
を含む、請求項6に記載の方法。 - 前記ターゲットビデオ要素情報は、前記ターゲットビデオに含まれる画像フレームに対応する弾幕情報の集合であり、
前記ターゲットビデオ要素情報に基づき、前記ターゲットビデオからターゲットビデオセグメントを抽出するステップは、
前記ターゲットビデオに含まれる画像フレームに対して、当該画像フレームに対応する弾幕情報の数を決定するステップと、
対応する弾幕情報の数が予め設定された数の閾値より大きくかつターゲットビデオにおいて連続する画像フレームが存在するビデオセグメントを、ターゲットビデオセグメントとして決定するステップと、
を含む、請求項1に記載の方法。 - 前記予め設定された、ビデオ要素情報とビデオセグメントキーワードの決定方法との対応関係に基づき、前記ターゲットビデオセグメントのカテゴリを表すキーワードを取得するステップは、
前記ターゲットビデオセグメントに含まれる画像フレームについて、当該画像フレームに対応する弾幕情報に対して識別を行い、当該画像フレームに対応する弾幕情報が属するカテゴリを表す弾幕カテゴリ情報を、前記ターゲットビデオセグメントのキーワードとして取得することを含む、請求項8に記載の方法。 - 前記ターゲットビデオ要素情報は、前記ターゲットビデオの音入れ情報であり、
前記ターゲットビデオ要素情報に基づき、前記ターゲットビデオからターゲットビデオセグメントを抽出するステップは、
前記音入れ情報に対して音声識別を行い、少なくとも一つの、対応する音入れセグメントの属するカテゴリを表す音入れカテゴリ情報と、音入れカテゴリ情報に対応する、前記音入れ情報に含まれる音入れセグメントとを取得するステップと、
前記少なくとも一つの音入れカテゴリ情報からターゲット音入れカテゴリ情報を選択し、前記ターゲット音入れカテゴリ情報に対応する音入れセグメントが対応するビデオセグメントを、ターゲットビデオセグメントとして決定するステップと、
を含む、請求項1に記載の方法。 - 前記予め設定された、ビデオ要素情報とビデオセグメントキーワードの決定方法との対応関係に基づき、前記ターゲットビデオセグメントのカテゴリを表すキーワードを取得するステップは、
予め設定された、音入れカテゴリ情報と音声識別方法との対応関係に基づき、前記ターゲットビデオセグメントの対応する音入れセグメントに対して識別を行い、前記ターゲットビデオセグメントの対応する音入れセグメントが属するカテゴリを表すキーワードを、前記ターゲットビデオセグメントのキーワードとして取得することを含む、請求項10に記載の方法。 - 推奨情報を生成する方法であって、
ターゲットユーザーが注目する内容を表す注目情報を取得し、前記注目情報を、予め設定されたタグ情報とマッチングするステップであって、前記タグ情報は、請求項1〜11のいずれか一つに記載の方法で得られた、対応するビデオセグメントが存在するものであるステップと、
マッチングの成功が決定したことに応答し、前記ビデオセグメントの推奨に用いられる推奨情報を生成するステップと、
を含む方法。 - ビデオを処理する装置であって、
ターゲットビデオと前記ターゲットビデオのターゲットビデオ要素情報を取得するように配置される取得ユニットと、
前記ターゲットビデオ要素情報に基づき、前記ターゲットビデオからターゲットビデオセグメントを抽出するように配置される抽出ユニットと、
予め設定された、ビデオ要素情報とビデオセグメントキーワードの決定方法との対応関係に基づき、前記ターゲットビデオセグメントのカテゴリを表すキーワードを取得するように配置される決定ユニットと、
前記キーワードを予め設定されたタグ情報集合とマッチングして、前記ターゲットビデオセグメントのタグ情報を取得し、前記ターゲットビデオセグメントと前記タグ情報を関連付けて記憶するように配置される記憶ユニットと、
を含む装置。 - 前記ターゲットビデオ要素情報は、前記ターゲットビデオに含まれる画像フレームであり、
前記抽出ユニットは、
前記ターゲットビデオに含まれる画像フレームについて、当該画像フレームに対し画像識別を行い、当該画像フレームの画像識別結果を取得するように配置される第1の識別モジュールと、
画像識別結果と関連しかつ前記ターゲットビデオにおいて連続する画像フレームが存在するビデオセグメントを、ターゲットビデオセグメントとして決定するように配置される第1の決定モジュールと、
を含む、請求項13に記載の装置。 - 前記決定ユニットは、
予め設定された、画像識別結果とキーワードとの対応関係に基づき、前記ターゲットビデオセグメントに含まれる画像フレームの画像識別結果に対応するキーワードを、前記ターゲットビデオセグメントのキーワードとして決定するようにさらに配置される、請求項14に記載の装置。 - 前記ターゲットビデオ要素情報は、前記ターゲットビデオに含まれる画像フレームに対応する文字情報の集合であり、
前記抽出ユニットは、
前記ターゲットビデオに含まれる画像フレームに対して、当該画像フレームに対応する文字情報が含むターゲット語彙を抽出するように配置される第1の抽出モジュールと、
対応するターゲット語彙に関連する画像フレームが存在するビデオセグメントを、ターゲットビデオセグメントとして決定するように配置される第2の決定モジュールと、
を含む、請求項13に記載の装置。 - 前記決定ユニットは、
前記ターゲットビデオセグメントに含まれる画像フレームに対応するターゲット語彙の中から、ターゲット語彙を、前記ターゲットビデオセグメントのキーワードとして選択するように更に配置される、請求項16に記載の装置。 - 前記ターゲットビデオ要素情報は、前記ターゲットビデオに含まれる画像フレームに対応する文字情報の集合と、前記ターゲットビデオの文字概要情報とを含み、
前記抽出ユニットは、
前記ターゲットビデオに含まれる画像フレームに対して、当該画像フレームに対応する文字情報と前記文字概要情報との類似度を決定するように配置される第3の決定モジュールと、
予め設定された類似度の閾値より大きい類似度に対応する画像フレームと関連する画像フレームが存在するビデオセグメントを、ターゲットビデオセグメントとして決定するように配置される第4の決定モジュールと、
を含む、請求項13に記載の装置。 - 前記決定ユニットは、
前記ターゲットビデオセグメントに含まれる画像フレームに対して、当該画像フレームに対応する文字情報が含むターゲット語彙を抽出するように配置される第2の抽出モジュールと、
前記ターゲットビデオセグメントに含まれる画像フレームに対応するターゲット語彙の中から、ターゲット語彙を、前記ターゲットビデオセグメントのキーワードとして選択するように配置される第1の選択モジュールと、
を含む、請求項18に記載の装置。 - 前記ターゲットビデオ要素情報は、前記ターゲットビデオに含まれる画像フレームに対応する弾幕情報の集合であり、
前記抽出ユニットは、
前記ターゲットビデオに含まれる画像フレームに対して、当該画像フレームに対応する弾幕情報の数を決定するように配置される第5の決定モジュールと、
対応する弾幕情報の数が予め設定された数の閾値より大きくかつターゲットビデオにおいて連続する画像フレームが存在するビデオセグメントを、ターゲットビデオセグメントとして決定するように配置される第6の決定モジュールと、
を含む、請求項13に記載の装置。 - 前記決定ユニットは、
前記ターゲットビデオセグメントに含まれる画像フレームについて、当該画像フレームに対応する弾幕情報に対して識別を行い、当該画像フレームに対応する弾幕情報が属するカテゴリを表す弾幕カテゴリ情報を、前記ターゲットビデオセグメントのキーワードとして取得するように更に配置される、請求項20に記載の装置。 - 前記ターゲットビデオ要素情報は、前記ターゲットビデオの音入れ情報であり、
前記抽出ユニットは、
前記音入れ情報に対して音声識別を行い、対応する音入れセグメントの属するカテゴリを表す少なくとも一つの音入れカテゴリ情報と、前記音入れ情報に含まれ、音入れカテゴリ情報に対応する音入れセグメントとを取得するように配置される第2の識別モジュールと、
少なくとも一つの前記音入れカテゴリ情報からターゲット音入れカテゴリ情報を選択し、前記ターゲット音入れカテゴリ情報に対応する音入れセグメントが対応するビデオセグメントを、ターゲットビデオセグメントとして決定するように配置される第2の選択モジュールと、
を含む、請求項13に記載の装置。 - 前記決定ユニットは、
予め設定された、音入れカテゴリ情報と音声識別方法との対応関係に基づき、前記ターゲットビデオセグメントの対応する音入れセグメントに対して識別を行い、前記ターゲットビデオセグメントの対応する音入れセグメントが属するカテゴリを表すキーワードを、前記ターゲットビデオセグメントのキーワードとして取得するように更に配置される、請求項22に記載の装置。 - 推奨情報を生成する装置であって、
ターゲットユーザーが注目する内容を表す注目情報を取得し、前記注目情報を、予め設定されたタグ情報とマッチングを行うように配置される取得ユニットであって、前記タグ情報は、請求項1〜11のいずれか一つに記載の方法で得られた、対応するビデオセグメントが存在するものである取得ユニットと、
マッチングの成功が決定したことに応答し、ビデオセグメントの推奨に用いられる推奨情報を生成するように配置される生成ユニットと、
を含む装置。 - 一つ以上のプロセッサと、一つ以上のプログラムが記憶されている記憶装置と、を含むサーバーであって、
前記一つ以上のプログラムが前記一つ以上のプロセッサによって実行される場合に、請求項1〜12のいずれか1項に記載の方法が前記一つ以上のプロセッサにより実施される、サーバー。 - コンピュータプログラムが記憶されているコンピュータ可読記憶媒体であって、
前記プログラムがプロセッサによって実行される場合に、請求項1〜12のいずれか1項に記載の方法が実施される、コンピュータ可読記憶媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810585416.2 | 2018-06-08 | ||
CN201810585416.2A CN110582025B (zh) | 2018-06-08 | 2018-06-08 | 用于处理视频的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019212290A true JP2019212290A (ja) | 2019-12-12 |
JP6986527B2 JP6986527B2 (ja) | 2021-12-22 |
Family
ID=65812227
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019052669A Active JP6986527B2 (ja) | 2018-06-08 | 2019-03-20 | ビデオを処理する方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10824874B2 (ja) |
EP (1) | EP3579140A1 (ja) |
JP (1) | JP6986527B2 (ja) |
KR (2) | KR20190139751A (ja) |
CN (1) | CN110582025B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022542206A (ja) * | 2020-06-28 | 2022-09-30 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | インターネットミームの生成方法及び装置、電子装置並びに媒体 |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110149530B (zh) * | 2018-06-15 | 2021-08-24 | 腾讯科技(深圳)有限公司 | 一种视频处理方法和装置 |
CN111126388B (zh) * | 2019-12-20 | 2024-03-29 | 维沃移动通信有限公司 | 图像识别的方法及电子设备 |
CN111177470B (zh) * | 2019-12-30 | 2024-04-30 | 深圳Tcl新技术有限公司 | 视频的处理方法、视频的搜索方法及终端设备 |
CN111416997B (zh) * | 2020-03-31 | 2022-11-08 | 百度在线网络技术(北京)有限公司 | 视频播放方法、装置、电子设备和存储介质 |
CN111522970A (zh) * | 2020-04-10 | 2020-08-11 | 广东小天才科技有限公司 | 习题推荐方法、装置、设备及存储介质 |
CN111626202B (zh) * | 2020-05-27 | 2023-08-29 | 北京百度网讯科技有限公司 | 用于识别视频的方法及装置 |
CN111767796B (zh) * | 2020-05-29 | 2023-12-15 | 北京奇艺世纪科技有限公司 | 一种视频关联方法、装置、服务器和可读存储介质 |
CN111711869B (zh) * | 2020-06-24 | 2022-05-17 | 腾讯科技(深圳)有限公司 | 一种标签数据处理方法、装置以及计算机可读存储介质 |
CN114095738A (zh) * | 2020-07-30 | 2022-02-25 | 京东方科技集团股份有限公司 | 视频及直播处理方法、直播系统、电子设备、终端、介质 |
CN111914102A (zh) * | 2020-08-27 | 2020-11-10 | 上海掌门科技有限公司 | 编辑多媒体数据的方法、电子设备和计算机存储介质 |
CN111970532B (zh) * | 2020-08-27 | 2022-07-15 | 网易(杭州)网络有限公司 | 视频播放方法、装置及设备 |
WO2022061806A1 (zh) * | 2020-09-27 | 2022-03-31 | 深圳市大疆创新科技有限公司 | 影片生成方法、终端设备、拍摄设备及影片生成系统 |
CN112541094A (zh) * | 2020-12-21 | 2021-03-23 | 深圳市前海手绘科技文化有限公司 | 一种动画视频平台视频素材记录方法与装置 |
CN112738556B (zh) * | 2020-12-22 | 2023-03-31 | 上海幻电信息科技有限公司 | 视频处理方法及装置 |
CN113297416A (zh) * | 2021-05-21 | 2021-08-24 | 北京大米科技有限公司 | 视频数据存储方法、装置、电子设备和可读存储介质 |
CN113347491A (zh) * | 2021-05-24 | 2021-09-03 | 北京格灵深瞳信息技术股份有限公司 | 一种视频剪辑方法、装置、电子设备和计算机存储介质 |
CN113343827A (zh) * | 2021-05-31 | 2021-09-03 | 北京达佳互联信息技术有限公司 | 视频处理方法、装置、电子设备及计算机可读存储介质 |
CN113329261B (zh) * | 2021-08-02 | 2021-12-07 | 北京达佳互联信息技术有限公司 | 视频处理方法及装置 |
CN114205653A (zh) * | 2021-12-06 | 2022-03-18 | 广东飞翔云计算有限公司 | 一种基于大数据的预览视频推送方法、装置、设备及存储介质 |
CN114697702B (zh) * | 2022-03-23 | 2024-01-30 | 咪咕文化科技有限公司 | 音视频标记方法、装置、设备及存储介质 |
CN115460459B (zh) * | 2022-09-02 | 2024-02-27 | 百度时代网络技术(北京)有限公司 | 基于ai的视频生成方法、装置和电子设备 |
CN115205766A (zh) * | 2022-09-16 | 2022-10-18 | 北京吉道尔科技有限公司 | 基于区块链的网络安全异常视频大数据检测方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007043679A (ja) * | 2005-06-30 | 2007-02-15 | Hitachi Ltd | 送信装置,受信装置及び通信システム |
JP2009260762A (ja) * | 2008-04-18 | 2009-11-05 | Panasonic Corp | ダイジェスト作成装置 |
JP2011130064A (ja) * | 2009-12-16 | 2011-06-30 | Sony Corp | 情報処理装置および方法、並びにプログラム |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2007043679A1 (ja) | 2005-10-14 | 2009-04-23 | シャープ株式会社 | 情報処理装置およびプログラム |
US8351768B2 (en) * | 2009-07-23 | 2013-01-08 | Microsoft Corporation | Media processing comparison system and techniques |
US20120158686A1 (en) * | 2010-12-17 | 2012-06-21 | Microsoft Corporation | Image Tag Refinement |
KR101236262B1 (ko) | 2011-04-07 | 2013-02-26 | (주) 프람트 | 모바일 콘텐츠 태그 생성 시스템 및 그 방법 |
CN104469508B (zh) * | 2013-09-13 | 2018-07-20 | 中国电信股份有限公司 | 基于弹幕信息内容进行视频定位的方法、服务器和系统 |
US10521671B2 (en) * | 2014-02-28 | 2019-12-31 | Second Spectrum, Inc. | Methods and systems of spatiotemporal pattern recognition for video content development |
US9643722B1 (en) * | 2014-02-28 | 2017-05-09 | Lucas J. Myslinski | Drone device security system |
US20160014482A1 (en) * | 2014-07-14 | 2016-01-14 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and Methods for Generating Video Summary Sequences From One or More Video Segments |
TW201624320A (zh) | 2014-12-30 | 2016-07-01 | 富智康(香港)有限公司 | 影像片段搜尋方法及系統 |
CN105100892B (zh) * | 2015-07-28 | 2018-05-15 | 努比亚技术有限公司 | 视频播放装置及方法 |
US20170139933A1 (en) * | 2015-11-18 | 2017-05-18 | Le Holdings (Beijing) Co., Ltd. | Electronic Device, And Computer-Readable Storage Medium For Quickly Searching Video Segments |
US10390082B2 (en) * | 2016-04-01 | 2019-08-20 | Oath Inc. | Computerized system and method for automatically detecting and rendering highlights from streaming videos |
CN107027060A (zh) * | 2017-04-18 | 2017-08-08 | 腾讯科技(深圳)有限公司 | 视频片段的确定方法和装置 |
CN108024143A (zh) * | 2017-11-03 | 2018-05-11 | 国政通科技股份有限公司 | 一种智能的视频数据处理方法及装置 |
-
2018
- 2018-06-08 CN CN201810585416.2A patent/CN110582025B/zh active Active
-
2019
- 2019-03-13 US US16/352,526 patent/US10824874B2/en active Active
- 2019-03-14 KR KR1020190029042A patent/KR20190139751A/ko not_active Application Discontinuation
- 2019-03-14 EP EP19162866.8A patent/EP3579140A1/en not_active Ceased
- 2019-03-20 JP JP2019052669A patent/JP6986527B2/ja active Active
-
2021
- 2021-04-23 KR KR1020210053261A patent/KR102394756B1/ko active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007043679A (ja) * | 2005-06-30 | 2007-02-15 | Hitachi Ltd | 送信装置,受信装置及び通信システム |
JP2009260762A (ja) * | 2008-04-18 | 2009-11-05 | Panasonic Corp | ダイジェスト作成装置 |
JP2011130064A (ja) * | 2009-12-16 | 2011-06-30 | Sony Corp | 情報処理装置および方法、並びにプログラム |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022542206A (ja) * | 2020-06-28 | 2022-09-30 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | インターネットミームの生成方法及び装置、電子装置並びに媒体 |
JP7297084B2 (ja) | 2020-06-28 | 2023-06-23 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | インターネットミームの生成方法及び装置、電子装置並びに媒体 |
Also Published As
Publication number | Publication date |
---|---|
JP6986527B2 (ja) | 2021-12-22 |
EP3579140A1 (en) | 2019-12-11 |
US10824874B2 (en) | 2020-11-03 |
KR102394756B1 (ko) | 2022-05-04 |
CN110582025B (zh) | 2022-04-01 |
US20190377956A1 (en) | 2019-12-12 |
CN110582025A (zh) | 2019-12-17 |
KR20190139751A (ko) | 2019-12-18 |
KR20210053825A (ko) | 2021-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019212290A (ja) | ビデオを処理する方法及び装置 | |
CN107609152B (zh) | 用于扩展查询式的方法和装置 | |
US20180336193A1 (en) | Artificial Intelligence Based Method and Apparatus for Generating Article | |
CN112533051B (zh) | 弹幕信息显示方法、装置、计算机设备和存储介质 | |
CN108989882B (zh) | 用于输出视频中的音乐片段的方法和装置 | |
CN109543058B (zh) | 用于检测图像的方法、电子设备和计算机可读介质 | |
US20100250554A1 (en) | Adding and processing tags with emotion data | |
CN110069698B (zh) | 信息推送方法和装置 | |
CN109582825B (zh) | 用于生成信息的方法和装置 | |
KR20190011829A (ko) | 컴퓨터 실행 방법, 시스템 및 컴퓨터 판독 가능 매체 | |
CN109036397B (zh) | 用于呈现内容的方法和装置 | |
CN109271556B (zh) | 用于输出信息的方法和装置 | |
JP2020024674A (ja) | 情報をプッシュするための方法及び装置 | |
CN113806588B (zh) | 搜索视频的方法和装置 | |
JP6337183B1 (ja) | テキスト抽出装置、コメント投稿装置、コメント投稿支援装置、再生端末および文脈ベクトル計算装置 | |
CN112818224B (zh) | 信息推荐方法、装置、电子设备及可读存储介质 | |
CN113779381B (zh) | 资源推荐方法、装置、电子设备和存储介质 | |
CN111400586A (zh) | 群组展示方法、终端、服务器、系统及存储介质 | |
CN116821475B (zh) | 基于客户数据的视频推荐方法、装置及计算机设备 | |
CN107977678A (zh) | 用于输出信息的方法和装置 | |
CN110737824B (zh) | 内容查询方法和装置 | |
WO2020042377A1 (zh) | 用于输出信息的方法和装置 | |
CN111723235B (zh) | 音乐内容识别方法、装置及设备 | |
CN112182255A (zh) | 用于存储媒体文件和用于检索媒体文件的方法和装置 | |
JP2019008779A (ja) | テキスト抽出装置、コメント投稿装置、コメント投稿支援装置、再生端末および文脈ベクトル計算装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190605 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200630 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200818 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201113 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210216 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210616 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20210616 |
|
C11 | Written invitation by the commissioner to file amendments |
Free format text: JAPANESE INTERMEDIATE CODE: C11 Effective date: 20210629 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20210812 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20210817 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211129 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6986527 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |