JP7417759B2 - ビデオ認識モデルをトレーニングする方法、装置、電子機器、記憶媒体およびコンピュータプログラム - Google Patents
ビデオ認識モデルをトレーニングする方法、装置、電子機器、記憶媒体およびコンピュータプログラム Download PDFInfo
- Publication number
- JP7417759B2 JP7417759B2 JP2022563231A JP2022563231A JP7417759B2 JP 7417759 B2 JP7417759 B2 JP 7417759B2 JP 2022563231 A JP2022563231 A JP 2022563231A JP 2022563231 A JP2022563231 A JP 2022563231A JP 7417759 B2 JP7417759 B2 JP 7417759B2
- Authority
- JP
- Japan
- Prior art keywords
- video
- sample
- feature information
- sample video
- snippet
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 84
- 238000012549 training Methods 0.000 title claims description 43
- 238000004590 computer program Methods 0.000 title claims description 10
- 230000004927 fusion Effects 0.000 claims description 44
- 238000000605 extraction Methods 0.000 claims description 26
- 238000005070 sampling Methods 0.000 claims description 20
- 230000011218 segmentation Effects 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 10
- 238000011176 pooling Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000000638 solvent extraction Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/49—Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Description
本開示は、2021年5月28日に提出した、出願番号が202110589375.6で、発明の名称が「ビデオ認識モデルをトレーニングする方法、装置、機器及び記憶媒体」である中国特許出願に基づく優先権を主張し、当該特許出願の全文を引用により本開示に組み込む。
Claims (17)
- 特徴抽出ネットワークと、複数の残差層と、全結合層とを含むビデオ認識モデルをトレーニングする方法であって、
実際のカテゴリラベルがアノテートされたサンプルビデオを複数のサンプルビデオスニペットに分割するステップと、
前記サンプルビデオスニペットから一部のサンプルビデオフレームをサンプリングし、前記特徴抽出ネットワークに入力して前記サンプルビデオスニペットの特徴情報を得るステップと、
ビデオの入力に応じて変化する畳み込みカーネルを有する動的スニペット融合モジュールにより前記特徴情報を畳み込み融合して融合特徴情報を得るステップであって、前記複数の残差層には少なくとも1つの前記動的スニペット融合モジュールが間隔を置いて設けられ、設けられる前記動的スニペット融合モジュールの数は、認識精度要求と計算量要求とに基づいて決定されるステップと、
前記融合特徴情報を前記全結合層に入力して前記サンプルビデオの予測カテゴリを得るステップと、
前記実際のカテゴリラベルと前記予測カテゴリとの差異に基づいて前記ビデオ認識モデルのパラメータを調整して、トレーニングされたビデオ認識モデルを得るステップと、
を含み、
前記ビデオ認識モデルは、認識対象ビデオからサンプリングした一部のビデオフレームを入力として、当該認識対象ビデオのカテゴリを出力とするモデルであり、
動的スニペット融合モジュールにより前記特徴情報を畳み込み融合して融合特徴情報を得るステップは、
前記特徴情報を予め設定されたスーパーパラメータβに基づいてチャネル次元で第1の特徴情報と第2の特徴情報とに分割するステップと、
畳み込みカーネル生成分岐ネットワークにより前記サンプルビデオに対応する畳み込みカーネルを決定するステップであって、前記第1の特徴情報のチャネル次元はβCであり、前記第2の特徴情報のチャネル次元は(1-β)Cであり、Cは前記特徴情報のチャネル次元であり、βの取り得る範囲は(0,0.5)とされ、畳み込み計算量は、βを調整することにより制御されるステップと、
前記サンプルビデオに対応する畳み込みカーネルを用いて前記第1の特徴情報に対して畳み込みを行い、畳み込み結果を得るステップと、
前記畳み込み結果を前記第2の特徴情報と連結して、前記融合特徴を得るステップと、を含む方法。 - 畳み込みカーネル生成分岐ネットワークにより前記サンプルビデオに対応する畳み込みカーネルを決定するステップは、
前記第1の特徴情報のチャネル次元βCと、前記サンプルビデオのスニペット数と、前記サンプルビデオスニペットのサンプリングフレーム数と、前記サンプルビデオフレームの高さと幅との積を算出するステップと、
前記積を前記畳み込みカーネル生成分岐ネットワークに入力して、前記サンプルビデオに対応する畳み込みカーネルを得るステップと、
を含む請求項1に記載の方法。 - 前記畳み込みカーネル生成分岐ネットワークは、1つのグローバル平均プーリング層と2つの全結合層を含む請求項1又は2に記載の方法。
- サンプルビデオを複数のサンプルビデオスニペットに分割するステップは、
前記サンプルビデオをビデオの長さに応じて均等に分割して前記複数のサンプルビデオスニペットを得るステップを含み、
前記サンプルビデオスニペットから一部のサンプルビデオフレームをサンプリングするステップは、
前記サンプルビデオスニペットを等間隔でサンプリングして、前記一部のサンプルビデオフレームを得るステップを含む
請求項1乃至3のいずれか1項に記載の方法。 - 前記実際のカテゴリラベルと前記予測カテゴリとの差異に基づいてパラメータ調整を行い、前記ビデオ認識モデルを得るステップは、
前記実際のカテゴリラベルと前記予測カテゴリに基づいて、クロスエントロピー損失を計算するステップと、
確率的勾配降下を用いて前記クロスエントロピー損失を最適化し、前記クロスエントロピー損失が収束するまでパラメータの更新を継続し、前記ビデオ認識モデルを得るステップと、
を含む請求項1乃至4のいずれか1項に記載の方法。 - ビデオを認識する方法であって、
認識対象ビデオを取得するステップと、
前記認識対象ビデオを複数の認識すべきビデオスニペットに分割するステップと、
前記認識すべきビデオスニペットから一部の認識すべきビデオフレームをサンプリングし、ビデオ認識モデルに入力して前記認識対象ビデオのカテゴリを得るステップとを含み、
前記ビデオ認識モデルは、請求項1乃至5のいずれか1項に記載の方法によりトレーニングされて得る
方法。 - 前記認識対象ビデオの分割粒度は、前記ビデオ認識モデルをトレーニングするためのサンプルビデオの分割粒度よりも大きい請求項6に記載の方法。
- 特徴抽出ネットワークと、複数の残差層と、全結合層とを含むビデオ認識モデルをトレーニングする装置であって、
実際のカテゴリラベルがアノテートされたサンプルビデオを複数のサンプルビデオスニペットに分割するように構成される分割モジュールと、
前記サンプルビデオスニペットから一部のサンプルビデオフレームをサンプリングし、前記特徴抽出ネットワークに入力して前記サンプルビデオスニペットの特徴情報を得るように構成される抽出モジュールと、
ビデオの入力に応じて変化する畳み込みカーネルを有する動的スニペット融合モジュールにより前記特徴情報を畳み込み融合して融合特徴情報を得るように構成され、前記複数の残差層には少なくとも1つの前記動的スニペット融合モジュールが間隔を置いて設けられ、設けられる前記動的スニペット融合モジュールの数は、認識精度要求と計算量要求とに基づいて決定される融合モジュールと、
前記融合特徴情報を前記全結合層に入力して、前記サンプルビデオの予測カテゴリを得るように構成される予測モジュールと、
前記実際のカテゴリラベルと前記予測カテゴリとの差異に基づいて前記ビデオ認識モデルのパラメータを調整して、トレーニングされたビデオ認識モデルを得るように構成される調整モジュールと、
を備え、
前記ビデオ認識モデルは、認識対象ビデオからサンプリングした一部のビデオフレームを入力として、当該認識対象ビデオのカテゴリを出力とするモデルであり、
前記融合モジュールは、
前記特徴情報を予め設定されたスーパーパラメータβに基づいてチャネル次元で第1の特徴情報と第2の特徴情報とに分割するように構成される分割サブモジュールと、
畳み込みカーネル生成分岐ネットワークにより、前記サンプルビデオに対応する畳み込みカーネルを決定するように構成され、前記第1の特徴情報のチャネル次元はβCであり、前記第2の特徴情報のチャネル次元は(1-β)Cであり、Cは前記特徴情報のチャネル次元であり、βの取り得る範囲は(0,0.5)とされ、畳み込み計算量は、βを調整することにより制御される決定サブモジュールと、
前記サンプルビデオに対応する畳み込みカーネルを用いて前記第1の特徴情報に対して畳み込みを行い、畳み込み結果を得るように構成される畳み込みサブモジュールと、
前記畳み込み結果を前記第2の特徴情報と連結して、前記融合特徴を得るように構成される連結サブモジュールと、
を備える装置。 - 前記決定サブモジュールは、さらに
前記第1の特徴情報のチャネル次元βCと、前記サンプルビデオのスニペット数と、前記サンプルビデオスニペットのサンプリングフレーム数と、前記サンプルビデオフレームの高さと幅との積を算出し、
前記積を前記畳み込みカーネル生成分岐ネットワークに入力して、前記サンプルビデオに対応する畳み込みカーネルを得るように構成される
請求項8に記載の装置。 - 前記畳み込みカーネル生成分岐ネットワークは、1つのグローバル平均プーリング層と2つの全結合層を含む
請求項8又は9に記載の装置。 - 前記分割モジュールは、
前記サンプルビデオをビデオの長さに応じて均等に分割して前記複数のサンプルビデオスニペットを得るようにさらに構成され、
前記抽出モジュールは、
前記サンプルビデオスニペットを等間隔でサンプリングして、前記一部のサンプルビデオフレームを得るようにさらに構成される
請求項8乃至10のいずれか1項に記載の装置。 - 前記調整モジュールは、
前記実際のカテゴリラベルと前記予測カテゴリに基づいて、クロスエントロピー損失を計算し、
確率的勾配降下を用いて前記クロスエントロピー損失を最適化し、前記クロスエントロピー損失が収束するまでパラメータの更新を継続し、前記ビデオ認識モデルを得るようにさらに構成される
請求項8乃至11のいずれか1項に記載の装置。 - ビデオを認識する装置であって、
認識対象ビデオを取得するように構成される取得モジュールと、
前記認識対象ビデオを複数の認識すべきビデオスニペットに分割するように構成される分割モジュールと、
前記認識すべきビデオスニペットから一部の認識すべきビデオフレームをサンプリングしてビデオ認識モデルに入力して前記認識対象ビデオのカテゴリを得るように構成される認識モジュールとを備え、
前記ビデオ認識モデルは、請求項1乃至5のいずれか1項に記載の方法によりトレーニングされて得る
装置。 - 前記認識対象ビデオの分割粒度は、前記ビデオ認識モデルをトレーニングするためのサンプルビデオの分割粒度よりも大きい請求項13に記載の装置。
- 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信可能に接続されるメモリとを備える電子機器であって、
前記メモリには、前記少なくとも1つのプロセッサによって実行可能な指令が記憶され、前記指令が前記少なくとも1つのプロセッサによって実行されると、前記少なくとも1つのプロセッサに請求項1乃至5のいずれか1項に記載の方法または請求項6もしくは請求項7に記載の方法を実行させる
電子機器。 - コンピュータ指令が格納されている非一時的コンピュータ可読記憶媒体であって、
前記コンピュータ指令はコンピュータに請求項1乃至5のいずれか1項に記載の方法または請求項6もしくは請求項7に記載の方法を実行させるために用いられる非一時的コンピュータ可読記憶媒体。 - プロセッサによって実行されると、請求項1乃至5のいずれか1項に記載の方法または請求項6もしくは請求項7に記載の方法が実現されるコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110589375.6 | 2021-05-28 | ||
CN202110589375.6A CN113326767A (zh) | 2021-05-28 | 2021-05-28 | 视频识别模型训练方法、装置、设备以及存储介质 |
PCT/CN2022/075153 WO2022247344A1 (zh) | 2021-05-28 | 2022-01-30 | 视频识别模型训练方法、装置、设备以及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023531132A JP2023531132A (ja) | 2023-07-21 |
JP7417759B2 true JP7417759B2 (ja) | 2024-01-18 |
Family
ID=77422144
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022563231A Active JP7417759B2 (ja) | 2021-05-28 | 2022-01-30 | ビデオ認識モデルをトレーニングする方法、装置、電子機器、記憶媒体およびコンピュータプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230069197A1 (ja) |
JP (1) | JP7417759B2 (ja) |
CN (1) | CN113326767A (ja) |
WO (1) | WO2022247344A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113326767A (zh) * | 2021-05-28 | 2021-08-31 | 北京百度网讯科技有限公司 | 视频识别模型训练方法、装置、设备以及存储介质 |
CN113487247B (zh) * | 2021-09-06 | 2022-02-01 | 阿里巴巴(中国)有限公司 | 数字化生产管理系统、视频处理方法、设备及存储介质 |
CN114218438B (zh) * | 2021-12-23 | 2023-03-21 | 北京百度网讯科技有限公司 | 视频数据处理方法、装置、电子设备和计算机存储介质 |
CN114419508A (zh) * | 2022-01-19 | 2022-04-29 | 北京百度网讯科技有限公司 | 识别方法、训练方法、装置、设备及存储介质 |
CN114882334B (zh) * | 2022-04-29 | 2023-04-28 | 北京百度网讯科技有限公司 | 用于生成预训练模型的方法、模型训练方法及装置 |
CN117011740A (zh) * | 2022-10-20 | 2023-11-07 | 腾讯科技(深圳)有限公司 | 视频检测方法和装置、存储介质及电子设备 |
CN116132752B (zh) * | 2023-04-13 | 2023-12-08 | 北京百度网讯科技有限公司 | 视频对照组构造、模型训练、视频打分方法、装置及设备 |
CN116493392B (zh) * | 2023-06-09 | 2023-12-15 | 北京中超伟业信息安全技术股份有限公司 | 一种纸介质碳化方法及系统 |
CN117612072B (zh) * | 2024-01-23 | 2024-04-19 | 中国科学技术大学 | 一种基于动态时空图的视频理解方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190295228A1 (en) * | 2018-03-21 | 2019-09-26 | Nvidia Corporation | Image in-painting for irregular holes using partial convolutions |
CN111008280B (zh) * | 2019-12-04 | 2023-09-05 | 北京百度网讯科技有限公司 | 一种视频分类方法、装置、设备和存储介质 |
CN111241985B (zh) * | 2020-01-08 | 2022-09-09 | 腾讯科技(深圳)有限公司 | 一种视频内容识别方法、装置、存储介质、以及电子设备 |
CN112232407B (zh) * | 2020-10-15 | 2023-08-18 | 杭州迪英加科技有限公司 | 病理图像样本的神经网络模型训练方法、装置 |
CN113326767A (zh) * | 2021-05-28 | 2021-08-31 | 北京百度网讯科技有限公司 | 视频识别模型训练方法、装置、设备以及存储介质 |
-
2021
- 2021-05-28 CN CN202110589375.6A patent/CN113326767A/zh active Pending
-
2022
- 2022-01-30 WO PCT/CN2022/075153 patent/WO2022247344A1/zh active Application Filing
- 2022-01-30 JP JP2022563231A patent/JP7417759B2/ja active Active
- 2022-11-08 US US17/983,208 patent/US20230069197A1/en active Pending
Non-Patent Citations (1)
Title |
---|
Wenhao Wu et al.,DSANet: Dynamic Segment Aggregation Network for Video-Level Representation Learning,arXiv:2015.12085v1,arxiv.org,2021年05月25日,https://arxiv.org/abs/2015.12085v1 |
Also Published As
Publication number | Publication date |
---|---|
WO2022247344A1 (zh) | 2022-12-01 |
JP2023531132A (ja) | 2023-07-21 |
CN113326767A (zh) | 2021-08-31 |
US20230069197A1 (en) | 2023-03-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7417759B2 (ja) | ビデオ認識モデルをトレーニングする方法、装置、電子機器、記憶媒体およびコンピュータプログラム | |
CN112966522B (zh) | 一种图像分类方法、装置、电子设备及存储介质 | |
JP7358698B2 (ja) | 語義表現モデルの訓練方法、装置、デバイス及び記憶媒体 | |
KR102576344B1 (ko) | 비디오를 처리하기 위한 방법, 장치, 전자기기, 매체 및 컴퓨터 프로그램 | |
CN114612759B (zh) | 视频处理方法、查询视频的方法和模型训练方法、装置 | |
US11816891B2 (en) | Video recognition method and apparatus, electronic device and storage medium | |
US20230090590A1 (en) | Speech recognition and codec method and apparatus, electronic device and storage medium | |
CN114445831A (zh) | 一种图文预训练方法、装置、设备以及存储介质 | |
JP7414907B2 (ja) | 事前訓練済みモデルの決定方法及びその決定装置、電子機器並びに記憶媒体 | |
US20230114673A1 (en) | Method for recognizing token, electronic device and storage medium | |
JP2022006189A (ja) | 画像処理方法、事前トレーニングモデルのトレーニング方法、装置及び電子機器 | |
CN113657468A (zh) | 预训练模型的生成方法、装置、电子设备和存储介质 | |
CN116563669A (zh) | 模型的训练方法、视频分类方法、装置及设备 | |
CN116259064A (zh) | 表格结构识别方法、表格结构识别模型的训练方法及装置 | |
CN115496734A (zh) | 视频内容的质量评价方法、网络训练方法和装置 | |
CN113657466B (zh) | 预训练模型的生成方法、装置、电子设备和存储介质 | |
CN115098729A (zh) | 视频处理方法、样本生成方法、模型训练方法及装置 | |
CN112990046B (zh) | 差异信息获取方法、相关装置及计算机程序产品 | |
KR20220116331A (ko) | 모델 트레이닝 방법, 보행자 재인식 방법, 장치 및 전자 기기 | |
CN114358198A (zh) | 实例分割方法、装置及电子设备 | |
CN113378774A (zh) | 手势识别方法、装置、设备、存储介质以及程序产品 | |
CN113313049A (zh) | 超参数的确定方法、装置、设备、存储介质以及计算机程序产品 | |
CN113344200A (zh) | 用于训练可分离卷积网络的方法、路侧设备及云控平台 | |
CN113362304B (zh) | 清晰度预测模型的训练方法和确定清晰等级的方法 | |
CN115131709B (zh) | 视频类别预测方法、视频类别预测模型的训练方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221018 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221018 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230725 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231023 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240105 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7417759 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |