JP2022528294A - 深度を利用した映像背景減算法 - Google Patents
深度を利用した映像背景減算法 Download PDFInfo
- Publication number
- JP2022528294A JP2022528294A JP2021573206A JP2021573206A JP2022528294A JP 2022528294 A JP2022528294 A JP 2022528294A JP 2021573206 A JP2021573206 A JP 2021573206A JP 2021573206 A JP2021573206 A JP 2021573206A JP 2022528294 A JP2022528294 A JP 2022528294A
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- frame
- background
- foreground
- mask
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000011410 subtraction method Methods 0.000 title description 2
- 238000000034 method Methods 0.000 claims abstract description 188
- 230000011218 segmentation Effects 0.000 claims abstract description 103
- 230000008569 process Effects 0.000 claims description 43
- 230000015654 memory Effects 0.000 claims description 27
- 238000001514 detection method Methods 0.000 claims description 21
- 230000002123 temporal effect Effects 0.000 claims description 10
- 230000000877 morphologic effect Effects 0.000 claims description 9
- 238000012795 verification Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims 1
- 238000012545 processing Methods 0.000 description 22
- 238000003860 storage Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 230000001815 facial effect Effects 0.000 description 6
- 239000011521 glass Substances 0.000 description 5
- 238000009877 rendering Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 230000006855 networking Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000003628 erosive effect Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 235000019640 taste Nutrition 0.000 description 1
- 230000029305 taxis Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/143—Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/155—Segmentation; Edge detection involving morphological operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/162—Segmentation; Edge detection involving graph-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/34—Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/446—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering using Haar-like filters, e.g. using integral image techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/162—Detection; Localisation; Normalisation using pixel segmentation or colour matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20036—Morphological image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20072—Graph-based image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20224—Image subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
ブロック214において、選択されたフレームまたは画像の各画素を、前景画素または背景画素に分類する初期セグメンテーションマスクが生成される。いくつかの実装では、初期セグメンテーションマスクは、深度範囲に基づく。各画素の深度値を深度範囲と比較して、深度値が深度範囲の内に存在するかどうかを判定してもよい。深度値が深度範囲の内に存在する場合、その画素は前景画素に分類される。深度値が深度範囲の外であれば、その画素は背景画素に分類される。このようにして生成された初期セグメンテーションマスクは、選択されたフレームの各画素について、その画素が前景画素であるか背景画素であるかを示す値を備えている。いくつかの実装では、深度範囲は、0.5メートルから1.5メートルであってもよい。例えば、この深度範囲は、方法200が映像通話アプリケーション、または映像通話に参加する1人または複数のユーザが、例えば、会議室、机などで、映像をキャプチャするカメラの近くにいる他のアプリケーションに対して実行される場合に適しているかもしれない。異なるアプリケーションでは、異なる深度範囲が使用されてもよく、例えば、それらのアプリケーションの前景オブジェクトとカメラとの間の典型的な距離に基づき深度範囲が選択される。
ここで、「先行背景」は、更新前の背景の画素の色値であり、「新背景」は、トライマップの対応する画素の色値である。「維持された背景」は、更新された背景画像である。先行背景(0.8)と新背景(0.2)との係数は、アプリケーションに応じて選択することができる。いくつかの実装では、係数は、カメラの安定性に関する先行推定値に基づき選択することができる。例えば、固定カメラの場合、先行背景には係数値「0.8」を選択し、新背景には係数値「0.2」を選択してもよい。別の例では、例えば、ハンドヘルドカメラまたは動きを経験する他のカメラの場合、カメラの動きのために履歴データの価値が低くなる可能性があるので、先行背景に対して「0.5」の係数値を選択し、新背景に対して「0.5」の係数値を選択してもよい。
いくつかの実装では、画素色と、維持された背景色とは、赤-緑-青(RGB)色空間であってもよい。確率に基づき重みを算出する工程はさらに、確率が背景確率閾値を満たすかどうかを判定する工程を備えている。例えば、p>0.5の画素が背景確率閾値を満たすように、背景確率閾値は0.5として設定されてもよい。画素が背景確率閾値を満たす場合、重みマップ内の画素に背景重み(例えば、負の値)が割り当てられる。いくつかの実装では、重み値は、カメラの安定性の推定値に基づいてもよく、例えば、カメラが安定している場合には、より高い重み値が使用され、映像のキャプチャ(撮影)中にカメラに動きがある場合には、より低い重み値が使用されてもよい。
ここでR、G、Bは、画素の赤、緑、青の色チャンネル値を意味する。
ここで、wはグローバルコヒーレンス重みであり、Aは予め定義された定数である。
この式は、類似度が低いときにグローバルコヒーレンス重みが指数関数的に低下することを保証しており、例えば、ゼロに近い状態になる。この場合、グローバルコヒーレンス重みは、重みマップの影響を受けない。一方、類似度が高い場合には、グローバルコヒーレンス重みを高くしてもよい。このように、本明細書で説明するグローバルコヒーレンス重みは、フレームの類似度の関数である。
ブロック306では、グレースケール画像に対してヒストグラム均等化が行われる。ブロック306には、ブロック308が続いてもよい。
ここでR、G、およびBは画素の赤、緑、および青の色チャンネル値を指す。
ブロック314では、画像が少なくとも1つの有効な顔を備えているかどうかが判定される。例えば、ブロック314は、検出された各顔に対して実行されてもよい。いくつかの実装では、顔のための顔エリアが、前景画素に分類された画素の少なくとも閾値割合を備えており、顔の顔エリアの画素の少なくとも閾値パーセントが肌色であることが検証された場合、顔が有効であると判定される。いくつかの実装では、前景画素に分類された画素の閾値割合は0.6(60%)であってもよく、肌色である顔の顔エリアの画素の閾値パーセントは0.2(20%)であってもよい。ブロック314で少なくとも有効な顔が検出された場合、ブロック314の後にブロック316が続いてもよい。顔が検出されない場合、ブロック314はブロック320へと続いてもよい。
ブロック402では、色画像、深度マスク(例えば、初期セグメンテーションマスク)、および頭部バウンディングボックスを受け取ってもよい。例えば、色画像は、映像のフレームに対応していてもよく、フレームの画素の色データを備えていてもよい。ブロック402には、ブロック404が続いてもよい。
Claims (20)
- コンピュータが実装するコンピュータ実装方法であって、前記コンピュータ実装方法は、
映像の複数のフレームを受け取る工程であって、各フレームは複数の画素の深度データと色データとを備えている、前記複数のフレームを受け取る工程と、
前記映像の前記複数のフレームの各フレームをダウンサンプリングする工程と、
前記ダウンサンプリングの後、各フレームについて、
前記深度データに基づき、前記フレームの各画素を前景画素または背景画素に分類する初期セグメンテーションマスクを生成する工程と、
前記フレームの各画素を、既知背景、既知前景、または未知のうちの一つに分類するトライマップを決定する工程と、
前記未知に分類された各画素について、その画素の重みを算出するとともに、前記重みを重みマップに格納する工程と、および
前記フレームのバイナリマスクを取得するべく、前記色データ、前記トライマップ、および前記重みマップに基づき微細セグメンテーションを実行する工程と、および
前景映像を取得するべく、各フレームの前記バイナリマスクに基づき前記複数のフレームをアップサンプリングする工程と、
を備えている、コンピュータ実装方法。 - 前記初期セグメンテーションマスクを生成する工程は、
前記画素に関連付けられた深度値が深度範囲の内に存在する場合には前記画素を前記前景画素として設定し、
前記画素に関連付けられた前記深度値が前記深度範囲の外に存在する場合には前記画素を前記背景画素として設定する工程を備えている、
請求項1に記載のコンピュータ実装方法。 - 前記初期セグメンテーションマスクを生成する工程はさらに、モルフォロジカルオープン処理またはモルフォロジカルクロージング処理のうちの1つまたは複数を実行する工程を備えている、
請求項2に記載のコンピュータ実装方法。 - 前記コンピュータ実装方法はさらに、前記色データまたは前記初期セグメンテーションマスクのうちの1つまたは複数に基づき、頭部バウンディングボックスを検出する工程を備えている、
請求項1に記載のコンピュータ実装方法。 - 前記頭部バウンディングボックスを検出する工程は、
前記フレームをグレースケールに変換する工程と、
前記変換後にヒストグラム均等化を実行する工程と、
前記ヒストグラム均等化の後、前記フレーム内の1つまたは複数の顔を、Haarカスケード顔検出によって検出する工程であって、前記1つまたは複数の顔のうちの各顔は、その顔の顔画素を備えている顔エリアに関連付けられる、前記1つまたは複数の顔を前記Haarカスケード顔検出によって検出する工程と、
を備えている、請求項4に記載のコンピュータ実装方法。 - 前記コンピュータ実装方法はさらに、前記1つまたは複数の顔のうちの各顔が有効であるかどうかを判定する工程を備えており、
前記顔の前記顔エリアの画素の閾値割合が初期セグメンテーションマスクにおいて前景画素に分類されるとともに、前記顔の前記顔エリアの画素の少なくとも閾値パーセントが肌色基準を満たすことが検証される場合、前記顔は有効であると判定される、
請求項5に記載のコンピュータ実装方法。 - 前記コンピュータ実装方法はさらに、有効であると判定された各顔について、前記顔に対応する頭部エリアを取得するべく各顔の前記顔エリアを拡大する工程を備えており、
前記頭部バウンディングボックスは、有効であると判定された各顔についての前記頭部エリアを備えている、
請求項6に記載のコンピュータ実装方法。 - 前記コンピュータ実装方法はさらに、前記顔が有効ではないと判定された場合、
頭部を検出するべく前記初期セグメンテーションマスクを分析する工程と、
前記頭部の肌色検証に基づき、前記頭部が有効であるかどうかを判定する工程と、
前記頭部が有効である場合、前記頭部に関連するバウンディングボックスを前記頭部バウンディングボックスとして選択する工程と、
を備えている、請求項6に記載のコンピュータ実装方法。 - 前記初期セグメンテーションマスクを生成する工程は、各画素にマスク値を割り当てる工程を備えており、各前景画素には「255」のマスク値が割り当てられており、各背景画素には「0」のマスク値が割り当てられており、
前記トライマップを決定する工程は、前記頭部バウンディングボックス内に存在しない前記フレームの各画素について、
前記画素の画素位置と、前記初期セグメンテーションマスクのマスク境界との間のLI距離を算出する工程であって、少なくとも1つの前記前景画素が前記初期セグメンテーションマスク内の少なくとも1つの前記背景画素に隣接する位置を前記マスク境界は備えている、前記LI距離を算出する工程と、
前記LI距離が前景距離閾値を満たすとともに、前記画素が前記前景画素に分類される場合、前記画素を前記既知前景に分類する工程と、
前記LI距離が背景距離閾値を満たすとともに、前記画素が前記背景画素に分類される場合、前記画素を前記既知背景に分類する工程と、
前記画素が前記既知前景に分類されないとともに前記既知背景に分類されない場合、前記画素を前記未知に分類する工程と、
を備えている、請求項4に記載のコンピュータ実装方法。 - 前記トライマップを決定する工程はさらに、前記頭部バウンディングボックス内の各画素について、前記画素が前記既知前景であるか、前記既知背景であるか、または前記未知であるかを識別する工程を備えており、
前記識別する工程は、
前記頭部バウンディングボックスに対して決定された内方マスク内に前記画素が存在する場合、前記画素を前記既知前景に分類する工程と、
前記頭部バウンディングボックスに対して決定された外方マスクの外方に前記画素が存在する場合、前記画素を前記既知背景に分類する工程と、
前記画素が前記既知前景および前記既知背景に分類されない場合、前記画素を前記未知に分類する工程と、
を備えている、請求項9に記載のコンピュータ実装方法。 - 前記コンピュータ実装方法はさらに前記識別の前に、
前記頭部バウンディングボックス内の前記頭部の髪エリアの近くに、均一な明るさの背景が存在するかどうかを検出する工程と、
前記均一な明るさの背景が検出された場合、前記頭部バウンディングボックス、前記色データ、および前記初期セグメンテーションマスクに基づき、前記頭部の前記髪エリアの拡張を実行する工程であって、前記髪エリアの拡張を実行した後、前記外方マスクの拡張サイズは増大される、前記髪エリアの拡張を実行する工程と、
を備えている、請求項10に記載のコンピュータ実装方法。 - 前記コンピュータ実装方法はさらに、
前記映像の背景画像を維持する工程であって、前記背景画像は前記映像の各フレームと同じサイズの色画像である、前記背景画像を維持する工程と、
前記微細セグメンテーションを実行する前に、前記トライマップに基づき前記背景画像を更新する工程と、
を備えており、
前記画素の前記重みを算出する工程は、
画素色と、前記背景画像の背景色との間のユークリッド距離を算出する工程と、
前記ユークリッド距離に基づき、前記画素が前記背景画素である確率を決定する工程と、
前記確率が背景確率閾値を満たす場合、前記重みマップにおいて前記画素に背景重みを割り当てる工程と、
を備えている、請求項1に記載のコンピュータ実装方法。 - 前記コンピュータ実装方法はさらに、
肌色検出に基づき、前記フレーム内の1つまたは複数の肌領域を特定する工程であって、前記1つまたは複数の肌領域は顔領域を除外する、前記1つまたは複数の肌領域を特定する工程と、
前記1つまたは複数の肌領域内に存在する前記フレームの各画素に対して、
前記画素を前記未知に分類するとともに、前記重みマップにおいて前記画素にゼロ重みを割り当てる工程と、
前記画素色と、前記背景画像の前記背景色とが類似度閾値を満たしている場合、前記重みマップにおいて前記画素に背景重みを割り当てる工程と、
前記画素色が肌色である場合、前記重みマップにおいて前記画素に前景重みを割り当てる工程と、および
前記画素色と、前記背景画像の前記背景色とが非類似度閾値を満たす場合、前記重みマップにおいて前記画素に前記前景重みを割り当てる工程と、
を備えている、請求項12に記載のコンピュータ実装方法。 - 前記複数のフレームはシーケンスであり、
前記コンピュータ実装方法は各フレームについてさらに、
先行フレームの画素に類似すると分類された前記フレームの画素の割合を決定するべく、前記初期セグメンテーションマスクを、前記シーケンスの直前フレームの先行フレームバイナリマスクと比較する工程と、
前記割合に基づき、グローバルコヒーレンス重みを算出する工程と、
を備えており、
前記画素に対する前記重みを算出するとともに、前記重みを前記重みマップに格納する工程は、前記グローバルコヒーレンス重みと、前記画素と前記先行フレームバイナリマスクのマスク境界との間の距離とに基づき、前記重みを決定する工程を備えている、
請求項1に記載のコンピュータ実装方法。 - 前記画素に対する前記重みは、
対応する画素が前記先行フレームバイナリマスクにおいて前記前景画素に分類された場合には正であり、
前記対応する画素が前記先行フレームバイナリマスクにおいて前記前景画素に分類されなかった場合には負である、
請求項14に記載のコンピュータ実装方法。 - 前記微細セグメンテーションを実行する工程は、前記フレームにグラフカット技術を適用する工程を備えており、
前記グラフカット技術は、前記未知に分類される画素に適用される、
請求項1に記載のコンピュータ実装方法。 - 前記コンピュータ実装方法はさらに、前記微細セグメンテーションを実行した後に、時間的ローパスフィルタを前記バイナリマスクに適用する工程を備えており、
前記時間的ローパスフィルタは、1つまたは複数の先行フレームと、前記フレームとの間の類似度に基づき前記バイナリマスクを更新する、
請求項1に記載のコンピュータ実装方法。 - 1つまたは複数のハードウェアプロセッサによって実行されると、前記1つまたは複数のハードウェアプロセッサに動作を実行させる命令が格納された非一時的なコンピュータ可読媒体であって、前記動作は、
映像の複数のフレームを受け取る工程であって、各フレームは複数の画素の深度データと色データとを備えている、前記複数のフレームを受け取る工程と、
前記映像の前記複数のフレームの各フレームをダウンサンプリングする工程と、
前記ダウンサンプリングの後、各フレームについて、
前記深度データに基づき、前記フレームの各画素を前景画素または背景画素に分類する初期セグメンテーションマスクを生成する工程と、
前記フレームの各画素を、既知背景、既知前景、または未知のうちの一つに分類するトライマップを決定する工程と、
前記未知に分類された各画素について、その画素の重みを算出するとともに、前記重みを重みマップに格納する工程と、および
前記フレームのバイナリマスクを取得するべく、前記色データ、前記トライマップ、および前記重みマップに基づき微細セグメンテーションを実行する工程と、および
前景映像を取得するべく、各フレームの前記バイナリマスクに基づき前記複数のフレームをアップサンプリングする工程と、
を備えている、非一時的なコンピュータ可読媒体。 - 前記コンピュータ可読媒体には、前記1つまたは複数のハードウェアプロセッサによって実行されると、前記1つまたは複数のハードウェアプロセッサに動作を実行させるさらなる命令が格納されており、前記動作は、
前記映像の背景画像を維持する工程であって、前記背景画像は前記映像の各フレームと同じサイズの色画像である、前記背景画像を維持する工程と、
前記微細セグメンテーションを実行する前に、前記トライマップに基づき前記背景画像を更新する工程と、
を備えており、
前記画素の前記重みを算出する工程は、
画素色と、前記背景画像の背景色との間のユークリッド距離を算出する工程と、
前記ユークリッド距離に基づき、前記画素が前記背景画素である確率を決定する工程と、
前記確率が背景確率閾値を満たす場合、前記重みマップにおいて前記画素に背景重みを割り当てる工程と、
を備えている、請求項18に記載の非一時的なコンピュータ可読媒体。 - 1つまたは複数のハードウェアプロセッサと、および、
前記1つまたは複数のハードウェアプロセッサに結合されたメモリであって、前記1つまたは複数のハードウェアプロセッサによって実行されたときに動作を実行する命令が格納される前記メモリと、
を備えているシステムであって、前記動作は、
映像の複数のフレームを受け取る工程であって、各フレームは複数の画素の深度データと色データとを備えている、前記複数のフレームを受け取る工程と、
前記映像の前記複数のフレームの各フレームをダウンサンプリングする工程と、
前記ダウンサンプリングの後、各フレームについて、
前記深度データに基づき、前記フレームの各画素を前景画素または背景画素に分類する初期セグメンテーションマスクを生成する工程と、
前記フレームの各画素を、既知背景、既知前景、または未知のうちの一つに分類するトライマップを決定する工程と、
前記未知に分類された各画素について、その画素の重みを算出するとともに、前記重みを重みマップに格納する工程と、および
前記フレームのバイナリマスクを取得するべく、前記色データ、前記トライマップ、および前記重みマップに基づき微細セグメンテーションを実行する工程と、および
前景映像を取得するべく、各フレームの前記バイナリマスクに基づき前記複数のフレームをアップサンプリングする工程と、
を備えている、システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/512,344 US11195283B2 (en) | 2019-07-15 | 2019-07-15 | Video background substraction using depth |
US16/512,344 | 2019-07-15 | ||
PCT/US2020/028376 WO2021011040A1 (en) | 2019-07-15 | 2020-04-15 | Video background subtraction using depth |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022528294A true JP2022528294A (ja) | 2022-06-09 |
JP7110502B2 JP7110502B2 (ja) | 2022-08-01 |
Family
ID=70554226
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021573206A Active JP7110502B2 (ja) | 2019-07-15 | 2020-04-15 | 深度を利用した映像背景減算法 |
Country Status (6)
Country | Link |
---|---|
US (2) | US11195283B2 (ja) |
EP (1) | EP3814985A1 (ja) |
JP (1) | JP7110502B2 (ja) |
KR (1) | KR102469295B1 (ja) |
CN (1) | CN114072850A (ja) |
WO (1) | WO2021011040A1 (ja) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112912921B (zh) * | 2018-10-11 | 2024-04-30 | 上海科技大学 | 从深度图中提取平面的系统和方法 |
CN111539960B (zh) * | 2019-03-25 | 2023-10-24 | 华为技术有限公司 | 图像处理方法以及相关设备 |
KR20210027894A (ko) * | 2019-09-03 | 2021-03-11 | 삼성전자주식회사 | 주행 보조 시스템, 전자 장치 및 그 동작 방법 |
US11223855B2 (en) * | 2019-09-18 | 2022-01-11 | Loop Now Technologies Inc. | System and method of real-time video overlaying or superimposing display |
US11727587B2 (en) * | 2019-11-12 | 2023-08-15 | Geomagical Labs, Inc. | Method and system for scene image modification |
US11069036B1 (en) * | 2020-01-03 | 2021-07-20 | GE Precision Healthcare LLC | Method and system for real-time and offline de-identification of facial regions from regular and occluded color video streams obtained during diagnostic medical procedures |
US11790535B2 (en) * | 2020-05-12 | 2023-10-17 | True Meeting Inc. | Foreground and background segmentation related to a virtual three-dimensional (3D) video conference |
US11763595B2 (en) * | 2020-08-27 | 2023-09-19 | Sensormatic Electronics, LLC | Method and system for identifying, tracking, and collecting data on a person of interest |
KR20220073444A (ko) * | 2020-11-26 | 2022-06-03 | 삼성전자주식회사 | 오브젝트 추적 방법, 장치 및 그 방법을 수행하는 단말기 |
US11461880B2 (en) * | 2021-01-12 | 2022-10-04 | Adobe Inc. | Generating image masks from digital images utilizing color density estimation and deep learning models |
CN112990300A (zh) * | 2021-03-11 | 2021-06-18 | 北京深睿博联科技有限责任公司 | 前景识别方法、装置、设备及计算机可读存储介质 |
US11893668B2 (en) | 2021-03-31 | 2024-02-06 | Leica Camera Ag | Imaging system and method for generating a final digital image via applying a profile to image information |
US11847788B2 (en) * | 2021-04-15 | 2023-12-19 | Himax Technologies Limited | Depth processor |
US20220405907A1 (en) * | 2021-06-20 | 2022-12-22 | Microsoft Technology Licensing, Llc | Integrated system for detecting and correcting content |
CN113436097B (zh) * | 2021-06-24 | 2022-08-02 | 湖南快乐阳光互动娱乐传媒有限公司 | 一种视频抠图方法、装置、存储介质和设备 |
CN113313730B (zh) * | 2021-07-28 | 2021-10-08 | 北京微吼时代科技有限公司 | 直播场景中获取图像前景区域的方法和装置 |
US11765311B2 (en) | 2021-07-30 | 2023-09-19 | Cisco Technology, Inc. | Transport mechanisms for video stream merging with overlapping video |
CN113449708B (zh) * | 2021-08-31 | 2022-01-07 | 深圳市爱深盈通信息技术有限公司 | 人脸识别方法、装置、设备终端和可读存储介质 |
US12010157B2 (en) | 2022-03-29 | 2024-06-11 | Rovi Guides, Inc. | Systems and methods for enabling user-controlled extended reality |
US20230412785A1 (en) * | 2022-06-17 | 2023-12-21 | Microsoft Technology Licensing, Llc | Generating parallax effect based on viewer position |
CN116433696B (zh) * | 2023-06-14 | 2023-10-20 | 荣耀终端有限公司 | 抠图方法、电子设备及计算机可读存储介质 |
CN116758081B (zh) * | 2023-08-18 | 2023-11-17 | 安徽乾劲企业管理有限公司 | 一种无人机道路桥梁巡检图像处理方法 |
CN116993886B (zh) * | 2023-09-26 | 2024-01-09 | 腾讯科技(深圳)有限公司 | 一种渲染中区域轮廓图的生成方法及相关装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015141633A (ja) * | 2014-01-29 | 2015-08-03 | キヤノン株式会社 | 画像処理装置、画像処理方法、プログラム、及び記憶媒体 |
JP2015186224A (ja) * | 2014-03-26 | 2015-10-22 | 大日本印刷株式会社 | 画像処理装置、画像処理方法、及びプログラム |
WO2016029395A1 (en) * | 2014-08-28 | 2016-03-03 | Qualcomm Incorporated | Temporal saliency map |
US20160171706A1 (en) * | 2014-12-15 | 2016-06-16 | Intel Corporation | Image segmentation using color & depth information |
JP2016122367A (ja) * | 2014-12-25 | 2016-07-07 | カシオ計算機株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2018524732A (ja) * | 2015-07-21 | 2018-08-30 | ソニー株式会社 | 半自動画像セグメンテーション |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080107341A1 (en) * | 2006-11-02 | 2008-05-08 | Juwei Lu | Method And Apparatus For Detecting Faces In Digital Images |
CA2745380C (en) * | 2008-12-11 | 2018-07-17 | Imax Corporation | Devices and methods for processing images using scale space |
US8306333B2 (en) | 2009-12-17 | 2012-11-06 | National Tsing Hua University | Method and system for automatic figure segmentation |
US20170083790A1 (en) * | 2015-09-23 | 2017-03-23 | Behavioral Recognition Systems, Inc. | Detected object tracker for a video analytics system |
-
2019
- 2019-07-15 US US16/512,344 patent/US11195283B2/en active Active
-
2020
- 2020-04-15 CN CN202080044658.6A patent/CN114072850A/zh active Pending
- 2020-04-15 EP EP20724313.0A patent/EP3814985A1/en active Pending
- 2020-04-15 JP JP2021573206A patent/JP7110502B2/ja active Active
- 2020-04-15 KR KR1020217043141A patent/KR102469295B1/ko active IP Right Grant
- 2020-04-15 WO PCT/US2020/028376 patent/WO2021011040A1/en unknown
-
2021
- 2021-11-09 US US17/521,917 patent/US11727577B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015141633A (ja) * | 2014-01-29 | 2015-08-03 | キヤノン株式会社 | 画像処理装置、画像処理方法、プログラム、及び記憶媒体 |
JP2015186224A (ja) * | 2014-03-26 | 2015-10-22 | 大日本印刷株式会社 | 画像処理装置、画像処理方法、及びプログラム |
WO2016029395A1 (en) * | 2014-08-28 | 2016-03-03 | Qualcomm Incorporated | Temporal saliency map |
US20160171706A1 (en) * | 2014-12-15 | 2016-06-16 | Intel Corporation | Image segmentation using color & depth information |
JP2016122367A (ja) * | 2014-12-25 | 2016-07-07 | カシオ計算機株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2018524732A (ja) * | 2015-07-21 | 2018-08-30 | ソニー株式会社 | 半自動画像セグメンテーション |
Also Published As
Publication number | Publication date |
---|---|
US20220067946A1 (en) | 2022-03-03 |
EP3814985A1 (en) | 2021-05-05 |
JP7110502B2 (ja) | 2022-08-01 |
KR20220006657A (ko) | 2022-01-17 |
WO2021011040A1 (en) | 2021-01-21 |
KR102469295B1 (ko) | 2022-11-21 |
US11195283B2 (en) | 2021-12-07 |
US20210019892A1 (en) | 2021-01-21 |
US11727577B2 (en) | 2023-08-15 |
CN114072850A (zh) | 2022-02-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7110502B2 (ja) | 深度を利用した映像背景減算法 | |
CN107771336B (zh) | 基于颜色分布的图像中的特征检测和掩模 | |
CN107430629B (zh) | 计算机呈现中的视觉内容的分优先级显示 | |
WO2022156640A1 (zh) | 一种图像的视线矫正方法、装置、电子设备、计算机可读存储介质及计算机程序产品 | |
US20190222806A1 (en) | Communication system and method | |
US9105088B1 (en) | Image blur with preservation of detail | |
CN112954450B (zh) | 视频处理方法、装置、电子设备和存储介质 | |
US10269100B1 (en) | Accelerated skin smoothing effect | |
US10430694B2 (en) | Fast and accurate skin detection using online discriminative modeling | |
US11887235B2 (en) | Puppeteering remote avatar by facial expressions | |
US11641445B2 (en) | Personalized automatic video cropping | |
US20230146178A1 (en) | Attention based audio adjustment in virtual environments | |
US20200304713A1 (en) | Intelligent Video Presentation System | |
CN114096986A (zh) | 自动地分割和调整图像 | |
CN111382647A (zh) | 一种图片处理方法、装置、设备及存储介质 | |
CN112272296B (zh) | 使用深度和虚拟光的视频照亮 | |
CN111274447A (zh) | 基于视频的目标表情生成方法、装置、介质、电子设备 | |
WO2022226744A1 (en) | Texture completion | |
US20230419580A1 (en) | Systems and Methods for Implementing a Virtual Avatar Model for a Video Conference Session | |
US20230289919A1 (en) | Video stream refinement for dynamic scenes | |
JP2024514728A (ja) | 機械学習を用いた選択的な画像ぼやけ |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211209 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211209 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20211209 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220621 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220720 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7110502 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |