JP7372487B2 - オブジェクトセグメンテーション方法、オブジェクトセグメンテーション装置及び電子機器 - Google Patents
オブジェクトセグメンテーション方法、オブジェクトセグメンテーション装置及び電子機器 Download PDFInfo
- Publication number
- JP7372487B2 JP7372487B2 JP2022581655A JP2022581655A JP7372487B2 JP 7372487 B2 JP7372487 B2 JP 7372487B2 JP 2022581655 A JP2022581655 A JP 2022581655A JP 2022581655 A JP2022581655 A JP 2022581655A JP 7372487 B2 JP7372487 B2 JP 7372487B2
- Authority
- JP
- Japan
- Prior art keywords
- feature map
- frame
- correlation matrix
- correlation
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000011218 segmentation Effects 0.000 title claims description 109
- 238000000034 method Methods 0.000 title claims description 89
- 239000011159 matrix material Substances 0.000 claims description 261
- 238000000605 extraction Methods 0.000 claims description 10
- 230000004927 fusion Effects 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 8
- 239000013598 vector Substances 0.000 description 38
- 230000002596 correlated effect Effects 0.000 description 26
- 230000000875 corresponding effect Effects 0.000 description 21
- 238000010586 diagram Methods 0.000 description 19
- 238000010606 normalization Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 239000000284 extract Substances 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 4
- 230000018109 developmental process Effects 0.000 description 4
- 238000007493 shaping process Methods 0.000 description 4
- 230000002708 enhancing effect Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000007500 overflow downdraw method Methods 0.000 description 2
- 230000001953 sensory effect Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 101000822695 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C1 Proteins 0.000 description 1
- 101000655262 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C2 Proteins 0.000 description 1
- 101000655256 Paraclostridium bifermentans Small, acid-soluble spore protein alpha Proteins 0.000 description 1
- 101000655264 Paraclostridium bifermentans Small, acid-soluble spore protein beta Proteins 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/49—Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Die Bonding (AREA)
- Apparatuses And Processes For Manufacturing Resistors (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
Description
識別対象ビデオから識別対象フレーム、前記識別対象フレームの前のフレーム、および参照フレームを生成するステップであって、前記参照フレームは、前記識別対象ビデオの第1のフレームであるステップと、
前記識別対象フレーム、前記前のフレーム、および前記参照フレームを符号化ネットワークに入力して、識別対象フレームの特徴マップ、参照フレームのターゲットオブジェクト特徴マップ、および前のフレームのターゲットオブジェクト特徴マップを生成するステップと、
前記識別対象フレームの特徴マップ、前記参照フレームのターゲットオブジェクト特徴マップ、および前記前のフレームのターゲットオブジェクト特徴マップに基づいて、第1の相関行列および第2の相関行列を生成するステップと、
前記第1の相関行列、第2の相関行列、前記参照フレームのターゲットオブジェクト特徴マップ、および前記前のフレームのターゲットオブジェクト特徴マップに基づいて、第1の相関特徴マップおよび第2の相関特徴マップを生成するステップと、
前記第1の相関特徴マップ、前記第2の相関特徴マップ、および前記識別対象フレームの特徴マップに基づいて、現在のフレームのオブジェクトセグメンテーション画像を生成するステップと、を含む、オブジェクトセグメンテーション方法が提供される。
前記識別対象フレームの特徴、前記前のフレームの特徴、および前記参照フレームの特徴を抽出して、識別対象フレームの特徴マップ、前のフレームの特徴マップ、および参照フレームの特徴マップを生成するステップと、
前記参照フレームの特徴マップと前記参照フレームのターゲットオブジェクトマスクとに基づいて、参照フレームのターゲットオブジェクト特徴マップを生成するステップと、
前記前のフレームの特徴マップと前記前のフレームのターゲットオブジェクトマスクとに基づいて、前記前のフレームのターゲットオブジェクト特徴マップを生成するステップと、を含む。
前記識別対象フレームの特徴マップと前記参照フレームのターゲットオブジェクト特徴マップとに基づいて、前記第1の相関行列を生成するステップと、
前記識別対象フレームの特徴マップと前記前のフレームのターゲットオブジェクト特徴マップとに基づいて、前記第2の相関行列を生成するステップと、を含む。
前記識別対象フレームの特徴マップと前記参照フレームのターゲットオブジェクト特徴マップとに基づいて、参照相関行列を生成するステップと、
前記参照相関行列を正規化して、第2の参照相関行列を生成するステップと、
第2の参照相関行列の各行の参照値を生成し、前記参照値に基づいて前記第1の相関行列を生成するステップであって、前記参照値は同じ行内の他の値よりも大きいステップと、を含む。
前記識別対象フレームの特徴マップと前記前のフレームのターゲットオブジェクト特徴マップとに基づいて、前のフレーム相関行列を生成するステップと、
前記前のフレーム相関行列を正規化して、第2の前のフレーム相関行列を生成するステップと、
第2の前のフレーム相関行列の各行の参照値を生成し、前記参照値に基づいて前記第2の相関行列を生成するステップであって、前記参照値は同じ行内の他の値よりも大きいステップと、を含む。
前記第1の相関行列に前記参照フレームのターゲットオブジェクト特徴マップをポイントツーポイントで乗算して、前記第1の相関特徴マップを生成するステップと、
前記第2の相関行列に前記前のフレームのターゲットオブジェクト特徴マップをポイントツーポイントで乗算して、前記第2の相関特徴マップを生成するステップと、を含む。
前記第1の相関特徴マップ、第2の相関特徴マップ、および前記識別対象フレームの特徴マップに基づいて、融合特徴マップを生成するステップと、
前記融合特徴マップを復号化ネットワークに入力して、現在のフレームのオブジェクトセグメンテーション画像を生成するステップと、を含む。
前記第1の相関特徴マップ、前記第2の相関特徴マップ、および前記識別対象フレームの特徴マップを連結することにより、前記融合特徴マップを生成するステップを含む。
識別対象ビデオから識別対象フレーム、前記識別対象フレームの前のフレーム、および参照フレームを生成するように構成されるビデオフレーム生成モジュールであって、前記参照フレームは、前記識別対象ビデオの第1のフレームであるビデオフレーム生成モジュールと、
前記識別対象フレーム、前記前のフレーム、および前記参照フレームを符号化ネットワークに入力して、識別対象フレームの特徴マップ、参照フレームのターゲットオブジェクト特徴マップ、および前のフレームのターゲットオブジェクト特徴マップを生成するように構成される特徴抽出モジュールと、
前記識別対象フレームの特徴マップ、前記参照フレームのターゲットオブジェクト特徴マップ、および前記前のフレームのターゲットオブジェクト特徴マップに基づいて、第1の相関行列および第2の相関行列を生成するように構成される相関行列生成モジュールと、
前記第1の相関行列、第2の相関行列、前記参照フレームのターゲットオブジェクト特徴マップ、および前記前のフレームのターゲットオブジェクト特徴マップに基づいて、第1の相関特徴マップおよび第2の相関特徴マップを生成するように構成される特徴マップ生成モジュールと、
前記第1の相関特徴マップ、前記第2の相関特徴マップ、および前記識別対象フレームの特徴マップに基づいて、現在のフレームのオブジェクトセグメンテーション画像を生成するように構成されるオブジェクトセグメンテーションモジュールと、を含む、オブジェクトセグメンテーション装置を提供される。
前記識別対象フレームの特徴、前記前のフレームの特徴、および前記参照フレームの特徴を抽出して、識別対象フレームの特徴マップ、前のフレームの特徴マップ、および参照フレームの特徴マップを生成するように構成される特徴抽出サブモジュールと、
前記参照フレームの特徴マップと前記参照フレームのターゲットオブジェクトマスクとに基づいて、参照フレームのターゲットオブジェクト特徴マップを生成するように構成される第1のマスクサブモジュールと、
前記前のフレームの特徴マップと前記前のフレームのターゲットオブジェクトマスクとに基づいて、前記前のフレームのターゲットオブジェクト特徴マップを生成するように構成される第2のマスクサブモジュールと、を含む。
前記識別対象フレームの特徴マップと前記参照フレームのターゲットオブジェクト特徴マップとに基づいて、前記第1の相関行列を生成するように構成される第1の相関行列生成サブモジュールと、
前記識別対象フレームの特徴マップと前記前のフレームのターゲットオブジェクト特徴マップとに基づいて、前記第2の相関行列を生成するように構成される第2の相関行列生成サブモジュールと、を含む。
前記識別対象フレームの特徴マップと前記参照フレームのターゲットオブジェクト特徴マップとに基づいて、参照相関行列を生成するように構成される参照相関行列生成ユニットと、
前記参照相関行列を正規化して、第2の参照相関行列を生成するように構成される第2の参照相関行列生成ユニットと、
第2の参照相関行列の各行の参照値を生成し、前記参照値に基づいて前記第1の相関行列を生成するように構成される第1の相関行列生成ユニットであって、前記参照値は同じ行内の他の値よりも大きい第1の相関行列生成ユニットと、を含む。
前記識別対象フレームの特徴マップと前記前のフレームのターゲットオブジェクト特徴マップとに基づいて、前のフレーム相関行列を生成するように構成される前のフレーム相関行列生成ユニットと、
前記前のフレーム相関行列を正規化して、第2の前のフレーム相関行列を生成するように構成される第2の前のフレーム相関行列生成ユニットと、
第2の前のフレーム相関行列の各行の参照値を生成し、前記参照値に基づいて前記第2の相関行列を生成するように構成される第2の相関行列生成ユニットであって、前記参照値は同じ行内の他の値よりも大きい第2の相関行列生成ユニットと、を含む。
前記第1の相関行列に前記参照フレームのターゲットオブジェクト特徴マップをポイントツーポイントで乗算して、前記第1の相関特徴マップを生成するように構成される第1の相関特徴マップ生成サブモジュールと、
前記第2の相関行列に前記前のフレームのターゲットオブジェクト特徴マップをポイントツーポイントで乗算して、前記第2の相関特徴マップを生成するように構成される第2の相関特徴マップ生成サブモジュールと、を含む。
前記第1の相関特徴マップ、第2の相関特徴マップ、および前記識別対象フレームの特徴マップに基づいて、融合特徴マップを生成するように構成される特徴融合サブモジュールと、
前記融合特徴マップを復号化ネットワークに入力して、現在のフレームのオブジェクトセグメンテーション画像を生成するように構成される復号化サブモジュールと、を含む。
前記第1の相関特徴マップ、前記第2の相関特徴マップ、および前記識別対象フレームの特徴マップを連結することにより、前記融合特徴マップを生成するように構成される特徴融合ユニットを含む。
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信可能に接続されたメモリと、を含み、
前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶されており、前記命令が前記少なくとも1つのプロセッサによって実行されることにより、前記少なくとも1つのプロセッサが上記第1の態様のいずれか1項に記載の方法を実行できる、電子機器が提供される。
図面は、本出願をより良く理解するためのものであり、本開示を限定するものではない。
前記第1の相関特徴マップ、前記第2の相関特徴マップ、および前記識別対象フレームの特徴マップを連結することにより、前記融合特徴マップを生成するステップを含む。
前記第1の相関特徴マップ、前記第2の相関特徴マップ、および前記識別対象フレームの特徴マップを連結することにより、前記融合特徴マップを生成するように構成される特徴融合ユニットを含む。
Claims (19)
- 識別対象ビデオから識別対象フレーム、前記識別対象フレームの前のフレーム、および参照フレームを生成するステップであって、前記参照フレームは、前記識別対象ビデオの第1のフレームであるステップと、
前記識別対象フレーム、前記前のフレーム、および前記参照フレームを符号化ネットワークに入力して、識別対象フレームの特徴マップ、参照フレームのターゲットオブジェクト特徴マップ、および前のフレームのターゲットオブジェクト特徴マップを生成するステップと、
前記識別対象フレームの特徴マップ、前記参照フレームのターゲットオブジェクト特徴マップ、および前記前のフレームのターゲットオブジェクト特徴マップに基づいて、第1の相関行列および第2の相関行列を生成するステップと、
前記第1の相関行列、第2の相関行列、前記参照フレームのターゲットオブジェクト特徴マップ、および前記前のフレームのターゲットオブジェクト特徴マップに基づいて、第1の相関特徴マップおよび第2の相関特徴マップを生成するステップと、
前記第1の相関特徴マップ、前記第2の相関特徴マップ、および前記識別対象フレームの特徴マップに基づいて、現在のフレームのオブジェクトセグメンテーション画像を生成するステップと、を含む、
ことを特徴とするオブジェクトセグメンテーション方法。 - 前記識別対象フレームの特徴マップ、参照フレームのターゲットオブジェクト特徴マップ、および前のフレームのターゲットオブジェクト特徴マップを生成するステップは、
前記識別対象フレームの特徴、前記前のフレームの特徴、および前記参照フレームの特徴を抽出して、前記識別対象フレームの特徴マップ、前のフレームの特徴マップ、および参照フレームの特徴マップを生成するステップと、
前記参照フレームの特徴マップと前記参照フレームのターゲットオブジェクトマスクとに基づいて、参照フレームのターゲットオブジェクト特徴マップを生成するステップと、
前記前のフレームの特徴マップと前記前のフレームのターゲットオブジェクトマスクとに基づいて、前記前のフレームのターゲットオブジェクト特徴マップを生成するステップと、を含む、ことを特徴とする請求項1に記載の方法。 - 前記識別対象フレームの特徴マップ、前記参照フレームのターゲットオブジェクト特徴マップ、および前記前のフレームのターゲットオブジェクト特徴マップに基づいて、第1の相関行列および第2の相関行列を生成するステップは、
前記識別対象フレームの特徴マップと前記参照フレームのターゲットオブジェクト特徴マップとに基づいて、前記第1の相関行列を生成するステップと、
前記識別対象フレームの特徴マップと前記前のフレームのターゲットオブジェクト特徴マップとに基づいて、前記第2の相関行列を生成するステップと、を含む、ことを特徴とする請求項1に記載の方法。 - 前記識別対象フレームの特徴マップと前記参照フレームのターゲットオブジェクト特徴マップとに基づいて、前記第1の相関行列を生成するステップは、
前記識別対象フレームの特徴マップと前記参照フレームのターゲットオブジェクト特徴マップとに基づいて、参照相関行列を生成するステップと、
前記参照相関行列を正規化して、第2の参照相関行列を生成するステップと、
第2の参照相関行列の各行の参照値を生成し、前記参照値に基づいて前記第1の相関行列を生成するステップであって、前記参照値は同じ行内の他の値よりも大きいステップと、を含む、ことを特徴とする請求項3に記載の方法。 - 前記識別対象フレームの特徴マップと前記前のフレームのターゲットオブジェクト特徴マップとに基づいて、前記第2の相関行列を生成するステップは、
前記識別対象フレームの特徴マップと前記前のフレームのターゲットオブジェクト特徴マップとに基づいて、前のフレーム相関行列を生成するステップと、
前記前のフレーム相関行列を正規化して、第2の前のフレーム相関行列を生成するステップと、
第2の前のフレーム相関行列の各行の参照値を生成し、前記参照値に基づいて前記第2の相関行列を生成するステップであって、前記参照値は同じ行内の他の値よりも大きいステップと、を含む、ことを特徴とする請求項3に記載の方法。 - 前記第1の相関行列、第2の相関行列、前記参照フレームのターゲットオブジェクト特徴マップ、および前記前のフレームのターゲットオブジェクト特徴マップに基づいて、第1の相関特徴マップおよび第2の相関特徴マップを生成するステップは、
前記第1の相関行列に前記参照フレームのターゲットオブジェクト特徴マップをポイントツーポイントで乗算して、前記第1の相関特徴マップを生成するステップと、
前記第2の相関行列に前記前のフレームのターゲットオブジェクト特徴マップをポイントツーポイントで乗算して、前記第2の相関特徴マップを生成するステップと、を含む、ことを特徴とする請求項1に記載の方法。 - 前記第1の相関特徴マップ、前記第2の相関特徴マップ、および前記識別対象フレームの特徴マップに基づいて、現在のフレームのオブジェクトセグメンテーション画像を生成するステップは、
前記第1の相関特徴マップ、第2の相関特徴マップ、および前記識別対象フレームの特徴マップに基づいて、融合特徴マップを生成するステップと、
前記融合特徴マップを復号化ネットワークに入力して、現在のフレームのオブジェクトセグメンテーション画像を生成するステップと、を含む、ことを特徴とする請求項1に記載の方法。 - 前記第1の相関特徴マップ、第2の相関特徴マップ、および前記識別対象フレームの特徴マップに基づいて、融合特徴マップを生成するステップは、
前記第1の相関特徴マップ、前記第2の相関特徴マップ、および前記識別対象フレームの特徴マップを連結することにより、前記融合特徴マップを生成するステップを含む、ことを特徴とする請求項7に記載の方法。 - 識別対象ビデオから識別対象フレーム、前記識別対象フレームの前のフレーム、および参照フレームを生成するように構成されるビデオフレーム生成モジュールであって、前記参照フレームは、前記識別対象ビデオの第1のフレームであるビデオフレーム生成モジュールと、
前記識別対象フレーム、前記前のフレーム、および前記参照フレームを符号化ネットワークに入力して、識別対象フレームの特徴マップ、参照フレームのターゲットオブジェクト特徴マップ、および前のフレームのターゲットオブジェクト特徴マップを生成するように構成される特徴抽出モジュールと、
前記識別対象フレームの特徴マップ、前記参照フレームのターゲットオブジェクト特徴マップ、および前記前のフレームのターゲットオブジェクト特徴マップに基づいて、第1の相関行列および第2の相関行列を生成するように構成される相関行列生成モジュールと、
前記第1の相関行列、第2の相関行列、前記参照フレームのターゲットオブジェクト特徴マップ、および前記前のフレームのターゲットオブジェクト特徴マップに基づいて、第1の相関特徴マップおよび第2の相関特徴マップを生成するように構成される特徴マップ生成モジュールと、
前記第1の相関特徴マップ、前記第2の相関特徴マップ、および前記識別対象フレームの特徴マップに基づいて、現在のフレームのオブジェクトセグメンテーション画像を生成するように構成されるオブジェクトセグメンテーションモジュールと、を含む、ことを特徴とするオブジェクトセグメンテーション装置。 - 前記特徴抽出モジュールは、
前記識別対象フレームの特徴、前記前のフレームの特徴、および前記参照フレームの特徴を抽出して、前記識別対象フレームの特徴マップ、前のフレームの特徴マップ、および参照フレームの特徴マップを生成するように構成される特徴抽出サブモジュールと、
前記参照フレームの特徴マップと前記参照フレームのターゲットオブジェクトマスクとに基づいて、参照フレームのターゲットオブジェクト特徴マップを生成するように構成される第1のマスクサブモジュールと、
前記前のフレームの特徴マップと前記前のフレームのターゲットオブジェクトマスクとに基づいて、前記前のフレームのターゲットオブジェクト特徴マップを生成するように構成される第2のマスクサブモジュールと、を含む、ことを特徴とする請求項9に記載の装置。 - 前記相関行列生成モジュールは、
前記識別対象フレームの特徴マップと前記参照フレームのターゲットオブジェクト特徴マップとに基づいて、前記第1の相関行列を生成するように構成される第1の相関行列生成サブモジュールと、
前記識別対象フレームの特徴マップと前記前のフレームのターゲットオブジェクト特徴マップとに基づいて、前記第2の相関行列を生成するように構成される第2の相関行列生成サブモジュールと、を含む、ことを特徴とする請求項9に記載の装置。 - 前記第1の相関行列生成サブモジュールは、
前記識別対象フレームの特徴マップと前記参照フレームのターゲットオブジェクト特徴マップとに基づいて、参照相関行列を生成するように構成される参照相関行列生成ユニットと、
前記参照相関行列を正規化して、第2の参照相関行列を生成するように構成される第2の参照相関行列生成ユニットと、
第2の参照相関行列の各行の参照値を生成し、前記参照値に基づいて前記第1の相関行列を生成するように構成される第1の相関行列生成ユニットであって、前記参照値は同じ行内の他の値よりも大きい第1の相関行列生成ユニットと、を含む、ことを特徴とする請求項11に記載の装置。 - 前記第2の相関行列生成サブモジュールは、
前記識別対象フレームの特徴マップと前記前のフレームのターゲットオブジェクト特徴マップとに基づいて、前のフレーム相関行列を生成するように構成される前のフレーム相関行列生成ユニットと、
前記前のフレーム相関行列を正規化して、第2の前のフレーム相関行列を生成するように構成される第2の前のフレーム相関行列生成ユニットと、
第2の前のフレーム相関行列の各行の参照値を生成し、前記参照値に基づいて前記第2の相関行列を生成するように構成される第2の相関行列生成ユニットであって、前記参照値は同じ行内の他の値よりも大きい第2の相関行列生成ユニットと、を含む、ことを特徴とする請求項11に記載の装置。 - 前記特徴マップ生成モジュールは、
前記第1の相関行列に前記参照フレームのターゲットオブジェクト特徴マップをポイントツーポイントで乗算して、前記第1の相関特徴マップを生成するように構成される第1の相関特徴マップ生成サブモジュールと、
前記第2の相関行列に前記前のフレームのターゲットオブジェクト特徴マップをポイントツーポイントで乗算して、前記第2の相関特徴マップを生成するように構成される第2の相関特徴マップ生成サブモジュールと、を含む、ことを特徴とする請求項9に記載の装置。 - 前記オブジェクトセグメンテーションモジュールは、
前記第1の相関特徴マップ、第2の相関特徴マップ、および前記識別対象フレームの特徴マップに基づいて、融合特徴マップを生成するように構成される特徴融合サブモジュールと、
前記融合特徴マップを復号化ネットワークに入力して、現在のフレームのオブジェクトセグメンテーション画像を生成するように構成される復号化サブモジュールと、を含む、ことを特徴とする請求項9に記載の装置。 - 前記特徴融合サブモジュールは、
前記第1の相関特徴マップ、前記第2の相関特徴マップ、および前記識別対象フレームの特徴マップを連結することにより、前記融合特徴マップを生成するように構成される特徴融合ユニットを含む、ことを特徴とする請求項15に記載の装置。 - 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信可能に接続されたメモリと、を含み、
前記メモリには、前記少なくとも1つのプロセッサによって実行される命令が記憶されており、前記命令が前記少なくとも1つのプロセッサによって実行される場合、前記少なくとも1つのプロセッサが請求項1~8のいずれかに記載の方法を実行できる、ことを特徴とする電子機器。 - コンピュータに請求項1~8のいずれかに記載の方法を実行させるためのコンピュータ命令を記憶した、ことを特徴とする非一時的なコンピュータ読み取り可能な記憶媒体。
- プロセッサによって実行される場合、請求項1~8のいずれかに記載の方法を実現する、ことを特徴とするコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110736166.X | 2021-06-30 | ||
CN202110736166.XA CN113570606B (zh) | 2021-06-30 | 2021-06-30 | 目标分割的方法、装置及电子设备 |
PCT/CN2021/136548 WO2023273173A1 (zh) | 2021-06-30 | 2021-12-08 | 目标分割的方法、装置及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023535672A JP2023535672A (ja) | 2023-08-21 |
JP7372487B2 true JP7372487B2 (ja) | 2023-10-31 |
Family
ID=83447698
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022581655A Active JP7372487B2 (ja) | 2021-06-30 | 2021-12-08 | オブジェクトセグメンテーション方法、オブジェクトセグメンテーション装置及び電子機器 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7372487B2 (ja) |
KR (1) | KR20220129093A (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109685805A (zh) | 2019-01-09 | 2019-04-26 | 银河水滴科技(北京)有限公司 | 一种图像分割方法及装置 |
DE102018220274A1 (de) | 2018-11-26 | 2020-05-28 | Osram Gmbh | Verfahren zum gemeinsamen Detektieren, Verfolgen und Klassifizieren von Objekten |
CN111462175A (zh) | 2020-03-11 | 2020-07-28 | 华南理工大学 | 时空卷积孪生匹配网络目标跟踪方法、装置、介质及设备 |
CN112116630A (zh) | 2020-08-19 | 2020-12-22 | 上海闪马智能科技有限公司 | 目标跟踪的方法 |
CN112950640A (zh) | 2021-02-23 | 2021-06-11 | Oppo广东移动通信有限公司 | 视频人像分割方法、装置、电子设备及存储介质 |
-
2021
- 2021-12-08 JP JP2022581655A patent/JP7372487B2/ja active Active
- 2021-12-08 KR KR1020227030785A patent/KR20220129093A/ko not_active Application Discontinuation
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102018220274A1 (de) | 2018-11-26 | 2020-05-28 | Osram Gmbh | Verfahren zum gemeinsamen Detektieren, Verfolgen und Klassifizieren von Objekten |
CN109685805A (zh) | 2019-01-09 | 2019-04-26 | 银河水滴科技(北京)有限公司 | 一种图像分割方法及装置 |
CN111462175A (zh) | 2020-03-11 | 2020-07-28 | 华南理工大学 | 时空卷积孪生匹配网络目标跟踪方法、装置、介质及设备 |
CN112116630A (zh) | 2020-08-19 | 2020-12-22 | 上海闪马智能科技有限公司 | 目标跟踪的方法 |
CN112950640A (zh) | 2021-02-23 | 2021-06-11 | Oppo广东移动通信有限公司 | 视频人像分割方法、装置、电子设备及存储介质 |
Non-Patent Citations (1)
Title |
---|
Ziqin WANG et al.,"RANet: Ranking Attention Network for Fast Video Object Segmentation",2019 IEEE/CVF International Conference on Computer Vision (ICCV),IEEE,2019年10月,pp.3977-3986 |
Also Published As
Publication number | Publication date |
---|---|
JP2023535672A (ja) | 2023-08-21 |
KR20220129093A (ko) | 2022-09-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2023541532A (ja) | テキスト検出モデルのトレーニング方法及び装置、テキスト検出方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム | |
WO2023273173A1 (zh) | 目标分割的方法、装置及电子设备 | |
US20220351390A1 (en) | Method for generating motion capture data, electronic device and storage medium | |
JP7425147B2 (ja) | 画像処理方法、テキスト認識方法及び装置 | |
CN113570610B (zh) | 采用语义分割模型对视频进行目标分割的方法、装置 | |
EP3876197A2 (en) | Portrait extracting method and apparatus, electronic device and storage medium | |
CN113901909B (zh) | 基于视频的目标检测方法、装置、电子设备和存储介质 | |
US20220189083A1 (en) | Training method for character generation model, character generation method, apparatus, and medium | |
CN112862877A (zh) | 用于训练图像处理网络和图像处理的方法和装置 | |
JP2022122989A (ja) | 画像認識モデルを構築するための方法及び装置、画像認識方法及び装置、電子デバイス、コンピュータ可読記憶媒体、並びにコンピュータプログラム | |
CN113591566A (zh) | 图像识别模型的训练方法、装置、电子设备和存储介质 | |
JP2023525462A (ja) | 特徴を抽出するための方法、装置、電子機器、記憶媒体およびコンピュータプログラム | |
CN113326773A (zh) | 识别模型训练方法、识别方法、装置、设备及存储介质 | |
JP7282474B2 (ja) | 暗号化マスク確定方法、暗号化マスク確定装置、電子機器、記憶媒体およびコンピュータプログラム | |
JP2023543964A (ja) | 画像処理方法、画像処理装置、電子機器、記憶媒体およびコンピュータプログラム | |
CN114022887B (zh) | 文本识别模型训练及文本识别方法、装置、电子设备 | |
CN112991274A (zh) | 一种人群计数方法、装置、计算机设备及存储介质 | |
EP4123605A2 (en) | Method of transferring image, and method and apparatus of training image transfer model | |
JP7372487B2 (ja) | オブジェクトセグメンテーション方法、オブジェクトセグメンテーション装置及び電子機器 | |
JP7403673B2 (ja) | モデルトレーニング方法、歩行者再識別方法、装置および電子機器 | |
CN114943995A (zh) | 人脸识别模型的训练方法、人脸识别方法及装置 | |
CN114093006A (zh) | 活体人脸检测模型的训练方法、装置、设备以及存储介质 | |
CN114842066A (zh) | 图像深度识别模型训练方法、图像深度识别方法及装置 | |
CN113610856A (zh) | 训练图像分割模型和图像分割的方法和装置 | |
CN112990046A (zh) | 差异信息获取方法、相关装置及计算机程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221228 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231010 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231019 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7372487 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |