JP7127120B2 - ビデオ分類の方法、情報処理の方法及びサーバー、並びにコンピュータ可読記憶媒体及びコンピュータプログラム - Google Patents
ビデオ分類の方法、情報処理の方法及びサーバー、並びにコンピュータ可読記憶媒体及びコンピュータプログラム Download PDFInfo
- Publication number
- JP7127120B2 JP7127120B2 JP2020515067A JP2020515067A JP7127120B2 JP 7127120 B2 JP7127120 B2 JP 7127120B2 JP 2020515067 A JP2020515067 A JP 2020515067A JP 2020515067 A JP2020515067 A JP 2020515067A JP 7127120 B2 JP7127120 B2 JP 7127120B2
- Authority
- JP
- Japan
- Prior art keywords
- video frame
- video
- feature sequence
- neural network
- frame feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/73—Querying
- G06F16/735—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/75—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/15—Correlation function computation including computation of convolution operations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/48—Matching video sequences
Description
本発明は、コンピュータ技術分野に関し、特に、ビデオ分類技術に関する。
処理対象ビデオを取得し、前記処理対象ビデオには複数のビデオフレームが含まれ、各ビデオフレームが1つの時間特徴に対応することと、
時間特徴サンプリングルールに従って前記処理対象ビデオをサンプリングして、少なくとも1つのビデオフレーム特徴シーケンスを取得し、前記時間特徴サンプリングルールが時間特徴とビデオフレーム特徴シーケンスとの間の対応関係であることと、
第1のニューラルネットワークモデルによって前記少なくとも1つのビデオフレーム特徴シーケンスを処理して、前記少なくとも1つのビデオフレーム特徴シーケンスに対応する特徴表現結果を取得し、前記第1のニューラルネットワークモデルがリカレントニューラルネットワークモデルであることと、
第2のニューラルネットワークモデルによって、前記少なくとも1つのビデオフレーム特徴シーケンスに対応する特徴表現結果を処理して、前記少なくとも1つのビデオフレーム特徴シーケンスに対応する予測結果を取得することと、
前記少なくとも1つのビデオフレーム特徴シーケンスに対応する予測結果に基づいて前記処理対象ビデオのカテゴリを決定することと、
を含む。
処理対象ビデオを取得し、前記処理対象ビデオには複数のビデオフレームが含まれ、各ビデオフレームが1つの時間特徴に対応することと、
時間特徴サンプリングルールに従って前記処理対象ビデオをサンプリングして、少なくとも1つのビデオフレーム特徴シーケンスを取得し、前記時間特徴サンプリングルールが時間特徴とビデオフレーム特徴シーケンスとの間の対応関係であることと、
第1のニューラルネットワークモデルによって前記少なくとも1つのビデオフレーム特徴シーケンスを処理して、前記少なくとも1つのビデオフレーム特徴シーケンスに対応する特徴表現結果を取得し、前記第1のニューラルネットワークモデルがリカレントニューラルネットワークモデルであることと、
第2のニューラルネットワークモデルによって前記少なくとも1つのビデオフレーム特徴シーケンスに対応する特徴表現結果を処理して、前記少なくとも1つのビデオフレーム特徴シーケンスに対応する予測結果を取得し、前記予測結果が前記処理対象ビデオのカテゴリを決定するために使用されることと、
を含む。
処理対象ビデオを取得するための第1の取得モジュールであって、前記処理対象ビデオには複数のビデオフレームが含まれ、各ビデオフレームが1つの時間特徴に対応する第1の取得モジュールと、
時間特徴サンプリングルールに従って前記第1の取得モジュールが取得した前記処理対象ビデオをサンプリングして、少なくとも1つのビデオフレーム特徴シーケンスを取得するための第2の取得モジュールであって、前記時間特徴サンプリングルールが時間特徴とビデオフレーム特徴シーケンスとの間の対応関係である第2の取得モジュールと、
第1のニューラルネットワークモデルによって、前記第2の取得モジュールが取得した前記少なくとも1つのビデオフレーム特徴シーケンスを処理して、前記少なくとも1つのビデオフレーム特徴シーケンスに対応する特徴表現結果を取得するための第1の入力モジュールであって、前記第1のニューラルネットワークモデルがリカレントニューラルネットワークモデルである第1の入力モジュールと、
第2のニューラルネットワークモデルによって、前記第1の入力モジュールによって入力されて得られた前記少なくとも1つのビデオフレーム特徴シーケンスに対応する特徴表現結果を処理して、前記少なくとも1つのビデオフレーム特徴シーケンスに対応する予測結果を取得するための第2の入力モジュールであって、前記予測結果が前記処理対象ビデオのカテゴリを決定するために使用される第2の入力モジュールと、
を含む。
前記メモリは、プログラムを記憶し、
前記プロセッサーは、前記メモリ内のプログラムを実行し、具体的に、
処理対象ビデオを取得し、前記処理対象ビデオには複数のビデオフレームが含まれ、各ビデオフレームが1つの時間特徴に対応するステップと、
時間特徴サンプリングルールに従って前記処理対象ビデオをサンプリングして、少なくとも1つのビデオフレーム特徴シーケンスを取得し、前記時間特徴サンプリングルールが時間特徴とビデオフレーム特徴シーケンスとの間の対応関係であるステップと、
第1のニューラルネットワークモデルによって前記少なくとも1つのビデオフレーム特徴シーケンスを処理して、前記少なくとも1つのビデオフレーム特徴シーケンスに対応する特徴表現結果を取得し、前記第1のニューラルネットワークモデルがリカレントニューラルネットワークモデルであるステップと、
第2のニューラルネットワークモデルによって、前記少なくとも1つのビデオフレーム特徴シーケンスに対応する特徴表現結果を処理して、前記少なくとも1つのビデオフレーム特徴シーケンスに対応する予測結果を取得し、前記予測結果が前記処理対象ビデオのカテゴリを決定するために使用されるステップと、
が含まれ、
前記バスシステムは、前記メモリ及び前記プロセッサーが通信するように、前記メモリ及び前記プロセッサーを接続する。
畳み込みニューラルネットワークCNNを使用して処理対象ビデオにおける各ビデオフレームを処理して、各ビデオフレームに対応する時間特徴を取得することと、
各ビデオフレームに対応する時間特徴に基づいて、処理対象ビデオの時間特徴シーケンスを決定し、時間特徴シーケンスがサンプリングを行うために使用されることと、
を含んでもよい。
時間特徴サンプリングルールに従って少なくとも1つの時間ウィンドウを決定し、各時間ウィンドウには処理対象ビデオにおける少なくとも1つのビデオフレームが含まれることと、
時間特徴シーケンスから各時間ウィンドウに対応するビデオフレーム特徴シーケンスを抽出することと、
を含んでもよい。
少なくとも1つのビデオフレーム特徴シーケンスを第1のニューラルネットワークモデルにおいて前記少なくとも1つのビデオフレーム特徴シーケンスのうち時系列で前半のビデオフレーム特徴シーケンスを時系列の順序で入力される第1のリカレントニューラルネットワーク部分に入力して、第1の表現結果を取得することと、
少なくとも1つのビデオフレーム特徴シーケンスを第1のニューラルネットワークモデルにおいて前記少なくとも1つのビデオフレーム特徴シーケンスのうち時系列で後半のビデオフレーム特徴シーケンスを時系列の逆順序で入力される第2のリカレントニューラルネットワーク部分に入力して、第2の表現結果を取得することと、
第1の表現結果及び第2の表現結果に基づいて、少なくとも1つのビデオフレーム特徴シーケンスに対応する特徴表現結果を計算することと、
を含んでもよい。
は1つのビデオフレーム特徴シーケンスの特徴表現結果を表し、hf T/2は第1の表現結果を表し、hb T/2は第2の表現結果を表し、xtは第t時刻のビデオフレーム特徴シーケンスを表し、GRU()はゲート付き回帰型ユニット(GRU)ニューラルネットワークを採用して処理することを表し、Tは前記処理対象ビデオの総時間を表し、tは1からTまでの1つの整数を表す。
は関数の合成を表す。
少なくとも1つのビデオフレーム特徴シーケンスに対応する特徴表現結果を第2のニューラルネットワークモデルにおける第1のサブモデルに入力して、第3の表現結果を取得することと、
少なくとも1つのビデオフレーム特徴シーケンスに対応する特徴表現結果を第2のニューラルネットワークモデルにおける第2のサブモデルに入力して、第4の表現結果を取得することと、
第3の表現結果及び第4の表現結果に基づいて、少なくとも1つのビデオフレーム特徴シーケンスに対応する予測結果を計算することと、
を含んでもよい。
少なくとも1つのビデオフレーム特徴シーケンスに対応する予測結果及び少なくとも1つのビデオフレーム特徴シーケンスに対応する重み値に基づいて、処理対象ビデオのカテゴリを計算することと、
処理対象ビデオのカテゴリに基づいて処理対象ビデオを分類することと、
を含んでもよい。
0.2×0.01+0.3×0.02+0.5×0.2,0.2×0.02+0.3×0.01+0.5×0.3,0.2×0.9+0.3×0.9+ 0.5×0.8,0.2×0.005+0.3×0.000+0.5×0.01,0.2×1.0+0.3×0.9+0.5×0.7
={0.108,0.157,0.85,0.0075,0.82}
処理対象ビデオを取得するための第1の取得モジュール201であって、前記処理対象ビデオには複数のビデオフレームが含まれ、各ビデオフレームが1つの時間特徴に対応する第1の取得モジュール201と、
時間特徴サンプリングルールに従って前記第1の取得モジュール201が取得した前記処理対象ビデオをサンプリングして、少なくとも1つのビデオフレーム特徴シーケンスを取得するための第2の取得モジュール202であって、前記時間特徴サンプリングルールは時間特徴とビデオフレーム特徴シーケンスとの間の対応関係である第2の取得モジュール202と、
第1のニューラルネットワークモデルによって、前記第2の取得モジュール202が取得した前記少なくとも1つのビデオフレーム特徴シーケンスを処理して、前記少なくとも1つのビデオフレーム特徴シーケンスに対応する特徴表現結果を取得するための第1の入力モジュール203であって、前記第1のニューラルネットワークモデルがリカレントニューラルネットワークモデルである第1の入力モジュール203と、
第2のニューラルネットワークモデルによって、前記第1の入力モジュール203が取得した前記少なくとも1つのビデオフレーム特徴シーケンスに対応する特徴表現結果を処理して、前記少なくとも1つのビデオフレーム特徴シーケンスに対応する予測結果を取得するための第2の入力モジュール204であって、前記予測結果が前記処理対象ビデオのカテゴリを決定するために使用される第2の入力モジュール204と、
を含む。
前記第1の取得モジュール201が処理対象ビデオを取得した後、畳み込みニューラルネットワークCNNを使用して前記処理対象ビデオにおける各ビデオフレームを処理して、前記各ビデオフレームに対応する前記時間特徴を取得するための処理モジュール205と、
前記処理モジュール205によって処理された前記各ビデオフレームに対応する時間特徴に基づいて、前記処理対象ビデオの時間特徴シーケンスを決定するための決定モジュール206であって、前記時間特徴シーケンスはサンプリングを行うために使用される決定モジュール206と、
を含む。
前記第2の取得モジュール202は、
前記時間特徴サンプリングルールに従って少なくとも1つの時間ウィンドウを決定するための決定ユニット2021であって、各時間ウィンドウは前記処理対象ビデオにおける少なくとも1つのビデオフレームを含む決定ユニット2021と、
前記時間特徴シーケンスから前記決定ユニット2021によって決定された各時間ウィンドウに対応するビデオフレーム特徴シーケンスを抽出するための抽出ユニット2022と、
を含む。
前記第1の入力モジュール203は、
前記少なくとも1つのビデオフレーム特徴シーケンスを前記第1のニューラルネットワークモデルにおいて前記少なくとも1つのビデオフレーム特徴シーケンスのうち時系列で前半のビデオフレーム特徴シーケンスを時系列の順序で入力される第1のリカレントニューラルネットワーク部分に入力して、第1の表現結果を取得するための第1の取得ユニット2031と、
前記各ビデオフレーム特徴シーケンスを前記第1のニューラルネットワークモデルにおいて前記少なくとも1つのビデオフレーム特徴シーケンのうち時系列で後半のビデオフレーム特徴シーケンスを時系列の逆順序で入力される第2のリカレントニューラルネットワーク部分に入力して、第2の表現結果を取得するための第2の取得ユニット2032と、
前記第1の取得ユニット2031が取得した前記第1の表現結果及び前記第2の取得ユニット2032が取得した前記第2の表現結果に基づいて、前記少なくとも1つのビデオフレーム特徴シーケンスに対応する特徴表現結果を計算するための第1の計算ユニット2033と、
を含む。
次の式を使用して少なくとも1つのビデオフレーム特徴シーケンスに対応する特徴表現結果を計算するための第1の計算サブユニット20331を含む。
前記第2の入力モジュール204は、
前記各ビデオフレーム特徴シーケンスに対応する特徴表現結果を前記第2のニューラルネットワークモデルにおける第1のサブモデルに入力して、第3の表現結果を取得するための第3の取得ユニット2041と、
前記各ビデオフレーム特徴シーケンスに対応する特徴表現結果を前記第2のニューラルネットワークモデルにおける第2のサブモデルに入力して、第4の表現結果を取得するための第4の取得ユニット2042と、
前記第3の取得ユニット2041が取得した前記第3の表現結果及び前記第4の取得ユニット2042が取得した前記第4の表現結果に基づいて、前記各ビデオフレーム特徴シーケンスに対応する予測結果を計算するための第2の計算ユニット2043と、
を含む。
前記第2の計算ユニット2043は、
次の式を使用して前記各ビデオフレーム特徴シーケンスに対応する予測結果を計算するための第2の計算サブユニット20431を含む。
前記サーバー20はさらに、
前記第2の入力モジュール204が第2のニューラルネットワークモデルによって前記少なくとも1つのビデオフレーム特徴シーケンスに対応する特徴表現結果を処理して、前記少なくとも1つのビデオフレーム特徴シーケンスに対応する予測結果を取得した後、前記少なくとも1つのビデオフレーム特徴シーケンスに対応する前記予測結果及び前記少なくとも1つのビデオフレーム特徴シーケンスに対応する重み値に基づいて、前記処理対象ビデオのカテゴリを計算するための計算モジュール207と、
前記計算モジュール207によって計算された前記処理対象ビデオのカテゴリに基づいて前記処理対象ビデオを分類するための分類モジュール208と、
を含む。
処理対象ビデオを取得し、前記処理対象ビデオには複数のビデオフレームが含まれ、各ビデオフレームが1つの時間特徴に対応し、
時間特徴サンプリングルールに従って、前記処理対象ビデオをサンプリングして、少なくとも1つのビデオフレーム特徴シーケンスを取得し、前記時間特徴サンプリングルールが時間特徴とビデオフレーム特徴シーケンスとの間の対応関係であり、
第1のニューラルネットワークモデルによって、前記少なくとも1つのビデオフレーム特徴シーケンスを処理して、前記少なくとも1つのビデオフレーム特徴シーケンスに対応する特徴表現結果を取得し、前記第1のニューラルネットワークモデルがリカレントニューラルネットワークモデルであり、
第2のニューラルネットワークモデルによって前記少なくとも1つのビデオフレーム特徴シーケンスに対応する特徴表現結果を処理して、前記少なくとも1つのビデオフレーム特徴シーケンスに対応する予測結果を取得し、前記予測結果が前記処理対象ビデオのカテゴリを決定するために使用される、
という機能を有する。
畳み込みニューラルネットワークCNNを採用して前記処理対象ビデオにおける各ビデオフレームを処理して、前記各ビデオフレームに対応する時間特徴を取得するステップと、
前記各ビデオフレームに対応する時間特徴に基づいて、前記処理対象ビデオの時間特徴シーケンスを決定し、前記時間特徴シーケンスがサンプリングを行うために使用されるステップと、
を実行するために使用される。
前記時間特徴サンプリングルールに従って、少なくとも1つの時間ウィンドウを決定し、各時間ウィンドウには前記処理対象ビデオにおける少なくとも1つのビデオフレームが含まれるステップと、
前記時間特徴シーケンスから前記各時間ウィンドウに対応するビデオフレーム特徴シーケンスを抽出するステップと、
を実行するために使用される。
前記少なくとも1つのビデオフレーム特徴シーケンスを前記第1のニューラルネットワークモデルにおいて前記少なくとも1つのビデオフレーム特徴シーケンのうち時系列で前半のビデオフレーム特徴シーケンスを時系列の順序で入力される第1のリカレントニューラルネットワーク部分に入力して、第1の表現結果を取得するステップと、
前記少なくとも1つのビデオフレーム特徴シーケンスを前記第1のニューラルネットワークモデルにおいて前記少なくとも1つのビデオフレーム特徴シーケンのうち時系列で後半のビデオフレーム特徴シーケンスを時系列の逆順序で入力される第2のリカレントニューラルネットワーク部分に入力して、第2の表現結果を取得するステップと、
前記第1の表現結果及び前記第2の表現結果に基づいて、前記少なくとも1つのビデオフレーム特徴シーケンスに対応する特徴表現結果を計算するステップと、
を実行するために使用される。
前記少なくとも1つのビデオフレーム特徴シーケンスに対応する特徴表現結果を前記第2のニューラルネットワークモデルにおける第1のサブモデルに入力して、第3の表現結果を取得するステップと、
前記少なくとも1つのビデオフレーム特徴シーケンスに対応する特徴表現結果を前記第2のニューラルネットワークモデルにおける第2のサブモデルに入力して、第4の表現結果を取得するステップと、
前記第3の表現結果及び前記第4の表現結果に基づいて、前記少なくとも1つのビデオフレーム特徴シーケンスに対応する予測結果を計算するステップと、
を実行するために使用される。
前記少なくとも1つのビデオフレーム特徴シーケンスに対応する前記予測結果及び前記少なくとも1つのビデオフレーム特徴シーケンスに対応する重み値に基づいて、前記処理対象ビデオのカテゴリを計算するステップと、
前記処理対象ビデオのカテゴリに基づいて前記処理対象ビデオを分類するステップと、
を実行するために使用される。
Claims (16)
- コンピュータ装置によって実行されるビデオ分類の方法であって、
処理対象ビデオを取得するステップであり、前記処理対象ビデオに複数のビデオフレームが含まれ、各ビデオフレームが前記処理対象ビデオの中の当該ビデオフレームの再生順序に関連する時間特徴に対応するステップと、
時間特徴サンプリングルールに従って前記処理対象ビデオをサンプリングして、少なくとも1つのビデオフレーム特徴シーケンスを取得するステップであり、前記時間特徴サンプリングルールは1つのビデオフレーム特徴に対応する時間特徴の数を定め、該時間特徴の数に対応する1つ以上のビデオフレームをサンプリングすることを定め、前記ビデオフレーム特徴シーケンスは1つ以上のビデオフレーム特徴を含むステップと、
第1のニューラルネットワークモデルに前記少なくとも1つのビデオフレーム特徴シーケンスを入力して、前記第1のニューラルネットワークモデルの出力として前記少なくとも1つのビデオフレーム特徴シーケンスに対応する特徴表現結果を取得するステップであり、前記特徴表現結果は時間スケールにおいてビデオ特徴を表し、前記第1のニューラルネットワークモデルがリカレントニューラルネットワークモデルであるステップと、
第2のニューラルネットワークモデルに前記少なくとも1つのビデオフレーム特徴シーケンスに対応する特徴表現結果を入力して、前記第2のニューラルネットワークモデルの出力として前記少なくとも1つのビデオフレーム特徴シーケンスの各々について1つ以上の予測結果を取得するステップであり、前記1つ以上の予測結果の各々はビデオフレーム特徴シーケンスが所与の1つ以上のカテゴリの各々に属する可能性を示すステップと、
前記少なくとも1つのビデオフレーム特徴シーケンスの各々について、1つ以上の予測結果の各々と当該ビデオフレーム特徴シーケンスの重要度に対応する重みとの積を計算し、前記処理対象ビデオから取得した全部のビデオフレーム特徴シーケンスについて前記積を合計した値を前記処理対象ビデオが当該カテゴリに属する確率として決定し、前記所与の1つ以上のカテゴリのうち最も高い確率を有するカテゴリを前記処理対象ビデオのカテゴリとして決定するステップと、
を含む方法。 - コンピュータ装置によって実行される情報処理の方法であって、
処理対象ビデオを取得するステップであり、前記処理対象ビデオに複数のビデオフレームが含まれ、各ビデオフレームが前記処理対象ビデオの中の当該ビデオフレームの再生順序に関連する時間特徴に対応するステップと、
時間特徴サンプリングルールに従って前記処理対象ビデオをサンプリングして、少なくとも1つのビデオフレーム特徴シーケンスを取得するステップであり、前記時間特徴サンプリングルールは1つのビデオフレーム特徴に対応する時間特徴の数を定め、該時間特徴の数に対応する1つ以上のビデオフレームをサンプリングすることを定め、前記ビデオフレーム特徴シーケンスは1つ以上のビデオフレーム特徴を含むステップと、
第1のニューラルネットワークモデルに前記少なくとも1つのビデオフレーム特徴シーケンスを入力して、前記第1のニューラルネットワークモデルの出力として前記少なくとも1つのビデオフレーム特徴シーケンスに対応する特徴表現結果を取得するステップであり、前記特徴表現結果は時間スケールにおいてビデオ特徴を表し、前記第1のニューラルネットワークモデルはリカレントニューラルネットワークモデルであるステップと、
第2のニューラルネットワークモデルに前記少なくとも1つのビデオフレーム特徴シーケンスに対応する特徴表現結果を入力して、前記第2のニューラルネットワークモデルの出力として前記少なくとも1つのビデオフレーム特徴シーケンスの各々について1つ以上の予測結果を取得するステップであり、前記1つ以上の予測結果の各々はビデオフレーム特徴シーケンスが所与の1つ以上のカテゴリの各々に属する可能性を示すステップと、
前記少なくとも1つのビデオフレーム特徴シーケンスの各々について、1つ以上の予測結果の各々と当該ビデオフレーム特徴シーケンスの重要度に対応する重みとの積を計算し、前記処理対象ビデオから取得した全部のビデオフレーム特徴シーケンスについて前記積を合計した値を前記処理対象ビデオが当該カテゴリに属する確率として決定し、前記所与の1つ以上のカテゴリのうち最も高い確率を有するカテゴリを前記処理対象ビデオのカテゴリとして決定するステップと、
を含む方法。 - 前記処理対象ビデオを取得した後、前記方法は、
畳み込みニューラルネットワーク(CNN)に前記処理対象ビデオにおける各ビデオフレームを入力して、前記畳み込みニューラルネットワークの出力として前記各ビデオフレームに対応する前記時間特徴を取得するステップをさらに含む請求項2に記載の方法。 - 前記時間特徴サンプリングルールは、1つのビデオフレーム特徴に対応する時間特徴の数を時間ウィンドウとして定め、複数の前記時間ウィンドウに対応する1つ以上のビデオフレームをサンプリングすることを定め、
前記時間特徴サンプリングルールに従って前記処理対象ビデオをサンプリングして、少なくとも1つのビデオフレーム特徴シーケンスを取得するステップは、
前記時間特徴サンプリングルールに従って複数の時間ウィンドウの各々に対応する1つ以上のビデオフレームをサンプリングすることにより、異なる長さを有する複数のビデオフレーム特徴シーケンスを取得する、請求項3に記載の方法。 - 前記第1のニューラルネットワークモデルに前記少なくとも1つのビデオフレーム特徴シーケンスを入力して、前記第1のニューラルネットワークモデルの出力として前記少なくとも1つのビデオフレーム特徴シーケンスに対応する特徴表現結果を取得するステップは、
前記少なくとも1つのビデオフレーム特徴シーケンスを前記第1のニューラルネットワークモデルにおいて前記少なくとも1つのビデオフレーム特徴シーケンスのうち時系列で前半のビデオフレーム特徴シーケンスを時系列の順序で入力される第1のリカレントニューラルネットワーク部分に入力して、第1の表現結果を取得するステップと、
前記少なくとも1つのビデオフレーム特徴シーケンスを前記第1のニューラルネットワークモデルにおいて前記少なくとも1つのビデオフレーム特徴シーケンのうち時系列で後半のビデオフレーム特徴シーケンスを時系列の逆順序で入力される第2のリカレントニューラルネットワーク部分に入力して、第2の表現結果を取得するステップと、
前記第1の表現結果及び前記第2の表現結果の継ぎ合わせとして、前記少なくとも1つのビデオフレーム特徴シーケンスに対応する特徴表現結果を表すステップと、
を含む請求項2に記載の方法。 - 前記第1の表現結果及び前記第2の表現結果の継ぎ合わせとして、前記少なくとも1つのビデオフレーム特徴シーケンスに対応する特徴表現結果を表すステップは、
次の式を使用して前記少なくとも1つのビデオフレーム特徴シーケンスに対応する特徴表現結果を計算するステップを含み、
- 前記第2のニューラルネットワークモデルは、softmax関数に基づく第1のサブモデルと、sigmoid関数に基づく第2のサブモデルと、を含み、
前記第2のニューラルネットワークモデルに前記少なくとも1つのビデオフレーム特徴シーケンスに対応する特徴表現結果を入力して、前記第2のニューラルネットワークモデルの出力として前記少なくとも1つのビデオフレーム特徴シーケンスの各々について1つ以上の予測結果を取得するステップは、
前記少なくとも1つのビデオフレーム特徴シーケンスに対応する特徴表現結果を前記第1のサブモデルに入力して、第3の表現結果を取得するステップと、
前記少なくとも1つのビデオフレーム特徴シーケンスに対応する特徴表現結果を前記第2のサブモデルに入力して、第4の表現結果を取得するステップと、
前記第3の表現結果及び前記第4の表現結果の継ぎ合わせとして、前記少なくとも1つのビデオフレーム特徴シーケンスに対応する予測結果を表すステップと、
を含む請求項2に記載の方法。 - 前記第3の表現結果及び前記第4の表現結果の継ぎ合わせとして、前記少なくとも1つのビデオフレーム特徴シーケンスに対応する予測結果を表すステップは、
次の式を使用して前記少なくとも1つのビデオフレーム特徴シーケンスに対応する予測結果を計算するステップを含み、
なお、前記lableは1つのビデオフレーム特徴シーケンスの予測結果を表し、前記gnは前記第3の表現結果を表し、前記anは前記第4の表現結果を表し、前記σgはsoftmax関数を表し、前記σaはsigmoid関数を表し、前記hは前記ビデオフレーム特徴シーケンスの特徴表現結果を表し、前記Wg及び前記bgは前記第1のサブモデルにおけるパラメータを表し、前記Wa及び前記baは前記第2のサブモデルのパラメータを表し、前記Nは前記特徴表現結果を非線形変換して得られた全体の計算回数を表し、前記nは1から前記Nまでの1つの整数を表す請求項7に記載の方法。 - 前記方法は、
前記処理対象ビデオの前記決定したカテゴリに基づいて前記処理対象ビデオを分類するステップをさらに含む請求項1から8のいずれか1項に記載の方法。 - 処理対象ビデオを取得するための第1の取得モジュールであって、前記処理対象ビデオに複数のビデオフレームが含まれ、各ビデオフレームが前記処理対象ビデオの中の当該ビデオフレームの再生順序に関連する時間特徴に対応する第1の取得モジュールと、
時間特徴サンプリングルールに従って、前記第1の取得モジュールが取得した前記処理対象ビデオをサンプリングして、少なくとも1つのビデオフレーム特徴シーケンスを取得するための第2の取得モジュールであって、前記時間特徴サンプリングルールは1つのビデオフレーム特徴に対応する時間特徴の数を定め、該時間特徴の数に対応する1つ以上のビデオフレームをサンプリングすることを定め、前記ビデオフレーム特徴シーケンスは1つ以上のビデオフレーム特徴を含む第2の取得モジュールと、
第1のニューラルネットワークモデルに、前記第2の取得モジュールが取得した前記少なくとも1つのビデオフレーム特徴シーケンスを入力して、前記第1のニューラルネットワークモデルの出力として前記少なくとも1つのビデオフレーム特徴シーケンスに対応する特徴表現結果を取得するための第1の入力モジュールであって、前記特徴表現結果は時間スケールにおいてビデオ特徴を表し、前記第1のニューラルネットワークモデルはリカレントニューラルネットワークモデルである第1の入力モジュールと、
第2のニューラルネットワークモデルに、前記第1の入力モジュールによって入力されて得られた前記少なくとも1つのビデオフレーム特徴シーケンスに対応する特徴表現結果を入力して、前記第2のニューラルネットワークモデルの出力として前記少なくとも1つのビデオフレーム特徴シーケンスの各々について1つ以上の予測結果を取得するための第2の入力モジュールであって、前記1つ以上の予測結果の各々はビデオフレーム特徴シーケンスが所与の1つ以上のカテゴリの各々に属する可能性を示す第2の入力モジュールと、
前記少なくとも1つのビデオフレーム特徴シーケンスの各々について、1つ以上の予測結果の各々と当該ビデオフレーム特徴シーケンスの重要度に対応する重みとの積を計算し、前記処理対象ビデオから取得した全部のビデオフレーム特徴シーケンスについて前記積を合計した値を前記処理対象ビデオが当該カテゴリに属する確率として決定し、前記所与の1つ以上のカテゴリのうち最も高い確率を有するカテゴリを前記処理対象ビデオのカテゴリとして決定する計算モジュールと、
を含むサーバー。 - 前記計算モジュールによって計算された前記処理対象ビデオのカテゴリに基づいて前記処理対象ビデオを分類するための分類モジュールと、
をさらに含む請求項10に記載のサーバー。 - メモリ、プロセッサー及びバスシステムを含むサーバーであり、
前記メモリはプログラムを記憶するために使用され、
前記プロセッサーは前記メモリ内のプログラムを実行するために使用され、具体的に、
処理対象ビデオを取得するステップであって、前記処理対象ビデオに複数のビデオフレームが含まれ、各ビデオフレームが前記処理対象ビデオの中の当該ビデオフレームの再生順序に関連する時間特徴に対応するステップと、
時間特徴サンプリングルールに従って前記処理対象ビデオをサンプリングして、少なくとも1つのビデオフレーム特徴シーケンスを取得するステップであって、前記時間特徴サンプリングルールは1つのビデオフレーム特徴に対応する時間特徴の数を定め、該時間特徴の数に対応する1つ以上のビデオフレームをサンプリングすることを定め、前記ビデオフレーム特徴シーケンスは1つ以上のビデオフレーム特徴を含むステップと、
第1のニューラルネットワークモデルに前記少なくとも1つのビデオフレーム特徴シーケンスを入力して、前記第1のニューラルネットワークモデルの出力として前記少なくとも1つのビデオフレーム特徴シーケンスに対応する特徴表現結果を取得するステップであって、前記特徴表現結果は時間スケールにおいてビデオ特徴を表し、前記第1のニューラルネットワークモデルはリカレントニューラルネットワークモデルであるステップと、
第2のニューラルネットワークモデルに前記少なくとも1つのビデオフレーム特徴シーケンスに対応する特徴表現結果を入力して、前記第2のニューラルネットワークモデルの出力として前記少なくとも1つのビデオフレーム特徴シーケンスの各々について1つ以上の予測結果を取得するステップであって、前記1つ以上の予測結果の各々はビデオフレーム特徴シーケンスが所与の1つ以上のカテゴリの各々に属する可能性を示すステップと、
前記少なくとも1つのビデオフレーム特徴シーケンスの各々について、1つ以上の予測結果の各々と当該ビデオフレーム特徴シーケンスの重要度に対応する重みとの積を計算し、前記処理対象ビデオから取得した全部のビデオフレーム特徴シーケンスについて前記積を合計した値を前記処理対象ビデオが当該カテゴリに属する確率として決定し、前記所与の1つ以上のカテゴリのうち最も高い確率を有するカテゴリを前記処理対象ビデオのカテゴリとして決定するステップと、
が含まれ、
前記バスシステムは、前記メモリ及び前記プロセッサーが通信するように、前記メモリ及び前記プロセッサーを接続するサーバー。 - 前記プロセッサーは、具体的に、
前記少なくとも1つのビデオフレーム特徴シーケンスを前記第1のニューラルネットワークモデルにおいて前記少なくとも1つのビデオフレーム特徴シーケンスのうち時系列で前半のビデオフレーム特徴シーケンスを時系列の順序で入力される第1のリカレントニューラルネットワーク部分に入力して、第1の表現結果を取得するステップと、
前記少なくとも1つのビデオフレーム特徴シーケンスを前記第1のニューラルネットワークモデルにおいて前記少なくとも1つのビデオフレーム特徴シーケンのうち時系列で後半のビデオフレーム特徴シーケンスを時系列の逆順序で入力される第2のリカレントニューラルネットワーク部分に入力して、第2の表現結果を取得するステップと、
前記第1の表現結果及び前記第2の表現結果の継ぎ合わせとして、前記少なくとも1つのビデオフレーム特徴シーケンスに対応する特徴表現結果を表すステップと、
を実行する請求項12に記載のサーバー。 - 前記第2のニューラルネットワークモデルは、softmax関数に基づく第1のサブモデルと、sigmoid関数に基づく第2のサブモデルと、を含み、
前記プロセッサーは、具体的に、
前記少なくとも1つのビデオフレーム特徴シーケンスに対応する特徴表現結果を前記第1のサブモデルに入力して、第3の表現結果を取得するステップと、
前記少なくとも1つのビデオフレーム特徴シーケンスに対応する特徴表現結果を前記第2のサブモデルに入力して、第4の表現結果を取得するステップと、
前記第3の表現結果及び前記第4の表現結果の継ぎ合わせとして、前記少なくとも1つのビデオフレーム特徴シーケンスに対応する予測結果を表すステップと、
を実行する請求項12に記載のサーバー。 - コンピュータ可読記憶媒体であって、
前記コンピュータ可読記憶媒体はプログラムコードを記憶し、
前記プログラムコードは、請求項2から9のいずれか1項に記載の方法を実行するコンピュータ可読記憶媒体。 - 指令が含まれるコンピュータプログラムであって、
前記指令がコンピュータで実行されるときに、請求項2から9のいずれか1項に記載の方法をコンピュータに実行させるコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710833668.8 | 2017-09-15 | ||
CN201710833668.8A CN109508584B (zh) | 2017-09-15 | 2017-09-15 | 视频分类的方法、信息处理的方法以及服务器 |
PCT/CN2018/100733 WO2019052301A1 (zh) | 2017-09-15 | 2018-08-16 | 视频分类的方法、信息处理的方法以及服务器 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020533709A JP2020533709A (ja) | 2020-11-19 |
JP7127120B2 true JP7127120B2 (ja) | 2022-08-29 |
Family
ID=65723493
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020515067A Active JP7127120B2 (ja) | 2017-09-15 | 2018-08-16 | ビデオ分類の方法、情報処理の方法及びサーバー、並びにコンピュータ可読記憶媒体及びコンピュータプログラム |
Country Status (7)
Country | Link |
---|---|
US (1) | US10956748B2 (ja) |
EP (1) | EP3683723A4 (ja) |
JP (1) | JP7127120B2 (ja) |
KR (1) | KR102392943B1 (ja) |
CN (2) | CN109508584B (ja) |
MA (1) | MA50252A (ja) |
WO (1) | WO2019052301A1 (ja) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11636681B2 (en) * | 2018-11-21 | 2023-04-25 | Meta Platforms, Inc. | Anticipating future video based on present video |
JP7352369B2 (ja) * | 2019-03-29 | 2023-09-28 | 株式会社日立システムズ | 予測モデル評価システム、予測モデル評価方法 |
CN111782734B (zh) * | 2019-04-04 | 2024-04-12 | 华为技术服务有限公司 | 数据压缩、解压方法和装置 |
CN110162669B (zh) * | 2019-04-04 | 2021-07-02 | 腾讯科技(深圳)有限公司 | 视频分类处理方法、装置、计算机设备及存储介质 |
KR102255312B1 (ko) * | 2019-06-07 | 2021-05-25 | 국방과학연구소 | 순환 신경망을 이용한 코덱 분류 시스템 및 코덱 분류 방법 |
CN110516113B (zh) * | 2019-06-13 | 2020-11-17 | 腾讯科技(深圳)有限公司 | 一种视频分类的方法、视频分类模型训练的方法及装置 |
CN113010735B (zh) * | 2019-12-20 | 2024-03-08 | 北京金山云网络技术有限公司 | 一种视频分类方法、装置、电子设备及存储介质 |
CN111144508A (zh) * | 2019-12-30 | 2020-05-12 | 中国矿业大学(北京) | 煤矿副井轨道运输自动控制系统与控制方法 |
CN111104930B (zh) * | 2019-12-31 | 2023-07-11 | 腾讯科技(深圳)有限公司 | 视频处理方法、装置、电子设备及存储介质 |
CN111190600B (zh) * | 2019-12-31 | 2023-09-19 | 中国银行股份有限公司 | 基于gru注意力模型的前端代码自动生成的方法及系统 |
CN111209439B (zh) * | 2020-01-10 | 2023-11-21 | 北京百度网讯科技有限公司 | 视频片段检索方法、装置、电子设备及存储介质 |
CN111209883B (zh) * | 2020-01-13 | 2023-08-04 | 南京大学 | 一种基于多源运动特征融合的时序自适应视频分类方法 |
CN111259779B (zh) * | 2020-01-13 | 2023-08-01 | 南京大学 | 一种基于中心点轨迹预测的视频动作检测方法 |
CN111428660B (zh) * | 2020-03-27 | 2023-04-07 | 腾讯科技(深圳)有限公司 | 视频剪辑方法和装置、存储介质及电子装置 |
US11354906B2 (en) * | 2020-04-13 | 2022-06-07 | Adobe Inc. | Temporally distributed neural networks for video semantic segmentation |
CN111489378B (zh) * | 2020-06-28 | 2020-10-16 | 腾讯科技(深圳)有限公司 | 视频帧特征提取方法、装置、计算机设备及存储介质 |
CN111737521B (zh) * | 2020-08-04 | 2020-11-24 | 北京微播易科技股份有限公司 | 一种视频分类方法和装置 |
CN113204992B (zh) * | 2021-03-26 | 2023-10-27 | 北京达佳互联信息技术有限公司 | 视频质量确定方法、装置、存储介质及电子设备 |
CN113349791A (zh) * | 2021-05-31 | 2021-09-07 | 平安科技(深圳)有限公司 | 异常心电信号的检测方法、装置、设备及介质 |
CN113204655B (zh) * | 2021-07-02 | 2021-11-23 | 北京搜狐新媒体信息技术有限公司 | 多媒体信息的推荐方法、相关装置及计算机存储介质 |
CN113779472A (zh) * | 2021-07-30 | 2021-12-10 | 阿里巴巴(中国)有限公司 | 内容审核方法、装置及电子设备 |
KR102430989B1 (ko) | 2021-10-19 | 2022-08-11 | 주식회사 노티플러스 | 인공지능 기반 콘텐츠 카테고리 예측 방법, 장치 및 시스템 |
CN114443896B (zh) * | 2022-01-25 | 2023-09-15 | 百度在线网络技术(北京)有限公司 | 数据处理方法和用于训练预测模型的方法 |
CN114611584A (zh) * | 2022-02-21 | 2022-06-10 | 上海市胸科医院 | Cp-ebus弹性模式视频的处理方法、装置、设备与介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017111660A (ja) | 2015-12-17 | 2017-06-22 | 日本電信電話株式会社 | 映像パターン学習装置、方法、及びプログラム |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100656373B1 (ko) | 2005-12-09 | 2006-12-11 | 한국전자통신연구원 | 시간구간별 우선순위와 판별정책을 적용하는 유해 동영상판별 방법 및 그 장치 |
US8990132B2 (en) * | 2010-01-19 | 2015-03-24 | James Ting-Ho Lo | Artificial neural networks based on a low-order model of biological neural networks |
CN103544498B (zh) * | 2013-09-25 | 2017-02-08 | 华中科技大学 | 基于自适应抽样的视频内容检测方法与系统 |
CN104331442A (zh) * | 2014-10-24 | 2015-02-04 | 华为技术有限公司 | 视频分类方法和装置 |
US10762894B2 (en) * | 2015-03-27 | 2020-09-01 | Google Llc | Convolutional neural networks |
JP6556509B2 (ja) | 2015-06-16 | 2019-08-07 | Cyberdyne株式会社 | 光音響画像化装置および光源ユニット |
CN104951965B (zh) * | 2015-06-26 | 2017-04-19 | 深圳市腾讯计算机系统有限公司 | 广告投放方法及装置 |
CN104966104B (zh) * | 2015-06-30 | 2018-05-11 | 山东管理学院 | 一种基于三维卷积神经网络的视频分类方法 |
US9697833B2 (en) * | 2015-08-25 | 2017-07-04 | Nuance Communications, Inc. | Audio-visual speech recognition with scattering operators |
CN106503723A (zh) * | 2015-09-06 | 2017-03-15 | 华为技术有限公司 | 一种视频分类方法及装置 |
CN105550699B (zh) * | 2015-12-08 | 2019-02-12 | 北京工业大学 | 一种基于cnn融合时空显著信息的视频识别分类方法 |
US11055537B2 (en) * | 2016-04-26 | 2021-07-06 | Disney Enterprises, Inc. | Systems and methods for determining actions depicted in media contents based on attention weights of media content frames |
CN106131627B (zh) * | 2016-07-07 | 2019-03-26 | 腾讯科技(深圳)有限公司 | 一种视频处理方法、装置及系统 |
US10402697B2 (en) * | 2016-08-01 | 2019-09-03 | Nvidia Corporation | Fusing multilayer and multimodal deep neural networks for video classification |
CN106779467A (zh) * | 2016-12-31 | 2017-05-31 | 成都数联铭品科技有限公司 | 基于自动信息筛选的企业行业分类系统 |
US11263525B2 (en) * | 2017-10-26 | 2022-03-01 | Nvidia Corporation | Progressive modification of neural networks |
US10334202B1 (en) * | 2018-02-28 | 2019-06-25 | Adobe Inc. | Ambient audio generation based on visual information |
US20190286990A1 (en) * | 2018-03-19 | 2019-09-19 | AI Certain, Inc. | Deep Learning Apparatus and Method for Predictive Analysis, Classification, and Feature Detection |
US10860858B2 (en) * | 2018-06-15 | 2020-12-08 | Adobe Inc. | Utilizing a trained multi-modal combination model for content and text-based evaluation and distribution of digital video content to client devices |
US10418957B1 (en) * | 2018-06-29 | 2019-09-17 | Amazon Technologies, Inc. | Audio event detection |
US10699129B1 (en) * | 2019-11-15 | 2020-06-30 | Fudan University | System and method for video captioning |
-
2017
- 2017-09-15 CN CN201710833668.8A patent/CN109508584B/zh active Active
- 2017-09-15 CN CN201910834142.0A patent/CN110532996B/zh active Active
-
2018
- 2018-08-16 EP EP18855424.0A patent/EP3683723A4/en active Pending
- 2018-08-16 KR KR1020197032023A patent/KR102392943B1/ko active IP Right Grant
- 2018-08-16 WO PCT/CN2018/100733 patent/WO2019052301A1/zh unknown
- 2018-08-16 MA MA050252A patent/MA50252A/fr unknown
- 2018-08-16 JP JP2020515067A patent/JP7127120B2/ja active Active
-
2019
- 2019-08-30 US US16/558,015 patent/US10956748B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017111660A (ja) | 2015-12-17 | 2017-06-22 | 日本電信電話株式会社 | 映像パターン学習装置、方法、及びプログラム |
Non-Patent Citations (2)
Title |
---|
Shaoxiang Chen, etal.,Aggregating Frame-level Features for Large-Scale Video classification,arXiv.1707.00803v1,arXiv,2017年07月04日,1-6,https://arxiv.org/pdf/1707.00803 |
原島 博 他,エンサイクロペディア 電子情報通信ハンドブック 第1版 Encyclopedia Electronics,Information and Communication Handbook,第1版,株式会社オーム社,1998年11月30日,76~84 |
Also Published As
Publication number | Publication date |
---|---|
CN110532996A (zh) | 2019-12-03 |
CN110532996B (zh) | 2021-01-22 |
JP2020533709A (ja) | 2020-11-19 |
CN109508584A (zh) | 2019-03-22 |
MA50252A (fr) | 2020-07-22 |
EP3683723A1 (en) | 2020-07-22 |
KR102392943B1 (ko) | 2022-04-29 |
CN109508584B (zh) | 2022-12-02 |
WO2019052301A1 (zh) | 2019-03-21 |
US10956748B2 (en) | 2021-03-23 |
US20190384985A1 (en) | 2019-12-19 |
EP3683723A4 (en) | 2021-06-23 |
KR20190133040A (ko) | 2019-11-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7127120B2 (ja) | ビデオ分類の方法、情報処理の方法及びサーバー、並びにコンピュータ可読記憶媒体及びコンピュータプログラム | |
CN106960219B (zh) | 图片识别方法及装置、计算机设备及计算机可读介质 | |
CN108229667B (zh) | 基于人工神经网络类别的修剪 | |
CN109086811B (zh) | 多标签图像分类方法、装置及电子设备 | |
CN109522450B (zh) | 一种视频分类的方法以及服务器 | |
CN108073902B (zh) | 基于深度学习的视频总结方法、装置及终端设备 | |
US11625433B2 (en) | Method and apparatus for searching video segment, device, and medium | |
WO2022199504A1 (zh) | 内容识别方法、装置、计算机设备和存储介质 | |
CN116686017A (zh) | 一种用于视频动作识别的时间瓶颈注意力体系结构 | |
CN112132847A (zh) | 模型训练方法、图像分割方法、装置、电子设备和介质 | |
CN110096617B (zh) | 视频分类方法、装置、电子设备及计算机可读存储介质 | |
CN109902588B (zh) | 一种手势识别方法、装置及计算机可读存储介质 | |
CN111970536B (zh) | 一种基于音频生成视频的方法和装置 | |
CN113987119A (zh) | 一种数据检索方法、跨模态数据匹配模型处理方法和装置 | |
JP7188856B2 (ja) | 動的な画像解像度評価 | |
CN111488517A (zh) | 用于训练点击率预估模型的方法和装置 | |
CN117217284A (zh) | 一种数据处理方法及其装置 | |
JP2019086979A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP6015504B2 (ja) | ビデオ処理装置、ビデオ処理方法及び設備 | |
CN115063858A (zh) | 视频人脸表情识别模型训练方法、装置、设备及存储介质 | |
US11430219B2 (en) | Explainable video performance prediction | |
CN113689288B (zh) | 基于实体列表的风险识别方法、装置、设备及存储介质 | |
CN112052704A (zh) | 用于检测时序动作的方法和装置 | |
CN116992292A (zh) | 点击率预估模型训练方法和装置、点击率预估方法和装置 | |
CN116524271A (zh) | 卷积神经网络训练方法、装置以及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200317 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210423 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210608 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210906 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211028 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220412 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220711 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220809 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220817 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7127120 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |