JP7226851B2 - 画像処理の方法および装置並びにデバイス - Google Patents
画像処理の方法および装置並びにデバイス Download PDFInfo
- Publication number
- JP7226851B2 JP7226851B2 JP2021521025A JP2021521025A JP7226851B2 JP 7226851 B2 JP7226851 B2 JP 7226851B2 JP 2021521025 A JP2021521025 A JP 2021521025A JP 2021521025 A JP2021521025 A JP 2021521025A JP 7226851 B2 JP7226851 B2 JP 7226851B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- mask
- video
- region
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims description 40
- 238000012545 processing Methods 0.000 claims description 310
- 238000000034 method Methods 0.000 claims description 180
- 230000015654 memory Effects 0.000 claims description 57
- 238000013528 artificial neural network Methods 0.000 claims description 52
- 230000008569 process Effects 0.000 claims description 46
- 230000011218 segmentation Effects 0.000 claims description 30
- 230000003287 optical effect Effects 0.000 claims description 27
- 241001465754 Metazoa Species 0.000 claims description 26
- 238000004590 computer program Methods 0.000 claims description 22
- 238000012549 training Methods 0.000 claims description 22
- 238000001914 filtration Methods 0.000 claims description 16
- 238000004891 communication Methods 0.000 claims description 15
- 238000010295 mobile communication Methods 0.000 claims description 11
- IRLPACMLTUPBCL-KQYNXXCUSA-N 5'-adenylyl sulfate Chemical compound C1=NC=2C(N)=NC=NC=2N1[C@@H]1O[C@H](COP(O)(=O)OS(O)(=O)=O)[C@@H](O)[C@H]1O IRLPACMLTUPBCL-KQYNXXCUSA-N 0.000 claims description 5
- 230000006870 function Effects 0.000 description 18
- 238000013461 design Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 14
- 230000000694 effects Effects 0.000 description 13
- 238000003384 imaging method Methods 0.000 description 12
- 238000004422 calculation algorithm Methods 0.000 description 8
- 239000003086 colorant Substances 0.000 description 6
- 238000004321 preservation Methods 0.000 description 6
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000007726 management method Methods 0.000 description 4
- 239000000047 product Substances 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 241000282326 Felis catus Species 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000282693 Cercopithecidae Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G06T5/94—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration by the use of local operators
-
- G06T5/60—
-
- G06T5/70—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/35—Categorising the entire scene, e.g. birthday party or wedding scene
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2621—Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Description
[他の考えられる項目]
(項目1)
画像処理方法であって、
第1期間にN1個の画像を撮像する段階と、
第2期間にN2個の画像を撮像する段階であって、上記第1期間および上記第2期間は隣接する期間であり、N1およびN2はどちらも正の整数であり、上記N1個の画像および上記N2個の画像はビデオを形成する、撮像する段階と、
上記N1個の画像の各々から第1ターゲット領域および第1背景領域を決定する段階であって、上記第1背景領域は上記第1ターゲット領域以外の上記画像の領域であり、上記N1個の画像の各々における上記第1ターゲット領域は第1物体に対応する、決定する段階と、
上記N2個の画像の各々から第2ターゲット領域および第2背景領域を決定する段階であって、上記第2背景領域は上記第2ターゲット領域以外の上記画像の領域であり、上記N2個の画像の各々における上記第2ターゲット領域は第2物体に対応する、決定する段階と、
ターゲットビデオを取得するために、第1色処理モードでの上記第1ターゲット領域の処理と、第2色処理モードでの上記第1背景領域の処理と、第3色処理モードでの上記第2ターゲット領域の処理と、第4色処理モードでの上記第2背景領域の処理とを行う段階であって、上記第1色処理モードまたは上記第3色処理モードは、色保持または色強化を含み、上記第2色処理モードまたは上記第4色処理モードは、白黒、暗化、ぼかし、またはレトロモードを含む、行う段階と
を備える方法。
(項目2)
上記第1物体および上記第2物体は同じ物体である、項目1に記載の方法。
(項目3)
上記第1物体および上記第2物体は異なる物体である、項目1に記載の方法。
(項目4)
上記第1色処理モードは上記第3色処理モードと同じであり、上記第2色処理モードは上記第4色処理モードと同じである、項目1から3のいずれか一項に記載の方法。
(項目5)
上記第1色処理モードは上記第3色処理モードと同じであり、上記第2色処理モードは上記第4色処理モードと異なる、項目1から3のいずれか一項に記載の方法。
(項目6)
上記第1色処理モードは上記第3色処理モードと異なり、上記第2色処理モードは上記第4色処理モードと同じである、項目1から3のいずれか一項に記載の方法。
(項目7)
上記第1色処理モードは上記第3色処理モードと異なり、上記第2色処理モードは上記第4色処理モードと異なる、項目1から3のいずれか一項に記載の方法。
(項目8)
上記第1物体または上記第2物体は、ある物体種別(例えば、人物、動物、または植物)の少なくとも1つの個体を含む、項目1から7のいずれか一項に記載の方法。
(項目9)
上記第1物体および上記第2物体はユーザの選択命令に従って決定される、項目1から7のいずれか一項に記載の方法。
(項目10)
上記第1物体および上記第2物体は、予め設定された時間間隔での2つの画像の内容に基づいて端末により別個に決定される、項目1から7のいずれか一項に記載の方法。
(項目11)
画像処理装置であって、
第1期間にN1個の画像を撮像し、かつ、第2期間にN2個の画像を撮像するように構成される撮影モジュールであって、上記第1期間および上記第2期間は隣接する期間であり、N1およびN2はどちらも正の整数であり、上記N1個の画像および上記N2個の画像はビデオを形成する、撮影モジュールと、
上記N1個の画像の各々から第1ターゲット領域および第1背景領域を決定することであって、上記第1背景領域は上記第1ターゲット領域以外の上記画像の領域であり、上記N1個の画像の各々における上記第1ターゲット領域は第1物体に対応する、決定することと、上記N2個の画像の各々から第2ターゲット領域および第2背景領域を決定することであって、上記第2背景領域は上記第2ターゲット領域以外の上記画像の領域であり、上記N2個の画像の各々における上記第2ターゲット領域は第2物体に対応する、決定することとを行うように構成される決定モジュールと、
ターゲットビデオを取得するために、第1色処理モードでの上記第1ターゲット領域の処理と、第2色処理モードでの上記第1背景領域の処理と、第3色処理モードでの上記第2ターゲット領域の処理と、第4色処理モードでの上記第2背景領域の処理とを行うように構成される色処理モジュールであって、上記第1色処理モードまたは上記第3色処理モードは、色保持または色強化を含み、上記第2色処理モードまたは上記第4色処理モードは、白黒、暗化、ぼかし、またはレトロモードを含む、色処理モジュールと
を備える装置。
(項目12)
上記第1物体および上記第2物体は同じ物体または異なる物体である、項目11に記載の装置。
(項目13)
上記第1色処理モードは上記第3色処理モードと同じであり、上記第2色処理モードは上記第4色処理モードと同じであるか、
上記第1色処理モードは上記第3色処理モードと同じであり、上記第2色処理モードは上記第4色処理モードと異なるか、
上記第1色処理モードは上記第3色処理モードと異なり、上記第2色処理モードは上記第4色処理モードと同じであるか、または、
上記第1色処理モードは上記第3色処理モードと異なり、上記第2色処理モードは上記第4色処理モードと異なる、
項目11または12に記載の装置。
(項目14)
上記第1物体または上記第2物体は、ある物体種別(例えば、人物、動物、または植物)の少なくとも1つの個体を含む、項目11から13のいずれか一項に記載の装置。
(項目15)
上記第1物体および上記第2物体はユーザの選択命令に従って決定される、項目11から13のいずれか一項に記載の装置。
(項目16)
上記第1物体および上記第2物体は、予め設定された時間間隔での2つの画像の内容に基づいて端末により別個に決定される、項目11から15のいずれか一項に記載の装置。
(項目17)
カメラ、メモリ、プロセッサ、およびバスを備える端末デバイスであって、上記カメラ、上記メモリ、および上記プロセッサは上記バスを介して接続され、
上記カメラは画像を撮像するように構成され、
上記メモリはコンピュータプログラムおよび命令を記憶するように構成され、
上記プロセッサは、上記メモリに記憶される上記コンピュータプログラム、上記命令、および上記撮像された画像を呼び出して、項目1から10のいずれか一項に記載の方法を実行するように構成される、
端末デバイス。
(項目18)
上記端末デバイスは更にアンテナシステムを備え、上記アンテナシステムは、上記プロセッサの制御下で無線通信信号を送受信してモバイル通信ネットワークとの無線通信を実装し、上記モバイル通信ネットワークは、GSMネットワーク、CDMAネットワーク、3Gネットワーク、4Gネットワーク、5Gネットワーク、FDMAネットワーク、TDMAネットワーク、PDCネットワーク、TACSネットワーク、AMPSネットワーク、WCDMAネットワーク、TDSCDMAネットワーク、Wi-Fiネットワーク、およびLTEネットワークのうちの1または複数を含む、項目17に記載の端末デバイス。
(項目19)
画像処理方法であって、
ビデオを撮影するときに、
ビデオ画像内の主要物体を決定する段階と、
ターゲットビデオを取得するために、上記ビデオ画像内のターゲット領域および背景領域に対して異なる色処理を実行する段階であって、上記ターゲット領域は上記主要物体に対応し、上記背景領域は上記ターゲット領域以外の上記ビデオ画像の領域である、実行する段階と
を備える方法。
(項目20)
上記ビデオ画像内のターゲット領域および背景領域に対して異なる色処理を実行する上記段階は、
上記ビデオ画像内の上記ターゲット領域の色を保持し、上記ビデオ画像内の上記背景領域に対してグレースケール処理を実行する段階
を有する、項目19に記載の方法。
(項目21)
上記ビデオ画像内のターゲット領域および背景領域に対して異なる色処理を実行する上記段階は、
上記ビデオ画像内の上記ターゲット領域の上記色を保持し、上記ビデオ画像内の上記背景領域に対してぼかし処理を実行する段階
を有する、項目19または20に記載の方法。
(項目22)
画像処理装置であって、
ビデオを撮影するように構成される撮影モジュールと、
ビデオ画像内の主要物体を決定するように構成される決定モジュールと、
ターゲットビデオを取得するために、上記ビデオ画像内のターゲット領域および背景領域に対して異なる色処理を実行するように構成される色処理モジュールであって、上記ターゲット領域は上記主要物体に対応し、上記背景領域は上記ターゲット領域以外の上記ビデオ画像の領域である、色処理モジュールと
を備える装置。
(項目23)
上記色処理モジュールは具体的に、
上記ビデオ画像内の上記ターゲット領域の色を保持し、上記ビデオ画像内の上記背景領域に対してグレースケール処理を実行する
ように構成される、項目22に記載の装置。
(項目24)
上記色処理モジュールは具体的に、
上記ビデオ画像内の上記ターゲット領域の上記色を保持し、上記ビデオ画像内の上記背景領域に対してぼかし処理を実行する
ように構成される、項目22または23に記載の装置。
(項目25)
カメラ、メモリ、プロセッサ、およびバスを備える端末デバイスであって、上記カメラ、上記メモリ、および上記プロセッサは上記バスを介して接続され、
上記カメラは画像を撮像するように構成され、
上記メモリはコンピュータプログラムおよび命令を記憶するように構成され、
上記プロセッサは、上記メモリに記憶される上記コンピュータプログラム、上記命令、および上記撮像された画像を呼び出して、項目19から21のいずれか一項に記載の方法を実行するように構成される、
端末デバイス。
[項目1]
画像をリアルタイムで撮影するかビデオをリアルタイムで撮影するために端末により使用される画像処理方法であって、
画像を撮像する段階と、
上記画像において主題および背景が識別されるときに、上記画像内の主要物体領域の色を保持し、上記画像内の背景領域に対して白黒処理またはぼかし処理を実行する段階であって、上記背景領域は上記主要物体領域以外の上記画像の領域である、実行する段階、または、
上記画像において背景のみが識別されるときに、上記画像の背景領域に対して白黒処理またはぼかし処理を実行する段階と、
上記処理された画像に基づいてターゲット画像またはターゲットビデオを生成する段階と
を備え、
上記主要物体領域および/または上記背景領域は、上記画像において、ニューラルネットワークを使用することにより上記画像内の物体の種別に基づいて識別される、
方法。
[項目2]
上記主題の領域を識別するには第1物体種別のマスクが使用され、上記背景領域を識別するには第2物体種別のマスクが使用され、上記第1物体種別は、人物、動物、植物、車両、または別の予め設定された物体種別のうちの少なくとも1つを含み、上記第2物体種別は上記背景であり、上記第1物体種別の上記マスクと上記第2物体種別の上記マスクとは上記ニューラルネットワークに基づいて決定される、項目1に記載の方法。
[項目3]
上記ニューラルネットワークは、トレーニング用のトレーニングデータセットを使用することにより取得され、上記トレーニングデータセットは複数の適用シナリオの入力画像を含む、項目1または2に記載の方法。
[項目4]
上記トレーニングデータセットは更に上記複数の適用シナリオのマスクグラフを含む、項目3に記載の方法。
[項目5]
上記ニューラルネットワークは、上記人物、上記動物、上記植物、上記車両、衣類、または上記別の予め設定された物体種別のうちの少なくとも2つの物体種別を識別することができる、項目2に記載の方法。
[項目6]
上記第1物体種別の上記マスクに対応する上記画像内の画素の数が、第3物体種別のマスクに対応する、上記画像内の画素の数よりも多く、上記第3物体種別は上記第2物体種別と異なる、項目2に記載の方法。
[項目7]
上記第1物体種別の上記マスクは、主要物体の決定優先度が別の物体種別のマスクよりも高い、項目2に記載の方法。
[項目8]
上記主要物体領域は複数の個体を含み、上記複数の個体は同じ物体種別または異なる物体種別に属する、項目1から7のいずれか一項に記載の方法。
[項目9]
上記主要物体領域は、上記ニューラルネットワークを使用することにより上記画像内の上記物体に対して画素レベルのセグメンテーションを実行することによって取得される、項目1から8のいずれか一項に記載の方法。
[項目10]
画像をリアルタイムで撮影するかビデオをリアルタイムで撮影するために端末により使用される画像処理装置であって、
画像を撮像するように構成される撮影モジュールと、
ニューラルネットワークを使用することにより上記画像内の物体の種別に基づいて上記画像内の主要物体領域および/または背景領域を識別するように構成される決定モジュールと、
上記決定モジュールが上記画像内の主題および背景を識別するときに、上記画像内の上記主要物体領域の色を保持し、上記画像内の上記背景領域に対して白黒処理またはぼかし処理を実行することであって、上記背景領域は上記主要物体領域以外の上記画像の領域である、実行すること、または、
上記決定モジュールが上記画像内の背景のみを識別するときに、上記画像の上記背景領域に対して白黒処理またはぼかし処理を実行することと、
上記処理された画像に基づいてターゲット画像またはターゲットビデオを生成することと
を行うように構成される色処理モジュールと
を備える装置。
[項目11]
上記主題の領域を識別するには第1物体種別のマスクが使用され、上記背景領域を識別するには第2物体種別のマスクが使用され、上記第1物体種別は、人物、動物、植物、車両、または別の予め設定された物体種別のうちの少なくとも1つを含み、上記第2物体種別は上記背景であり、上記第1物体種別の上記マスクと上記第2物体種別の上記マスクとは上記ニューラルネットワークに基づいて決定される、項目10に記載の装置。
[項目12]
上記ニューラルネットワークは、トレーニング用のトレーニングデータセットを使用することにより取得され、上記トレーニングデータセットは複数の適用シナリオの入力画像を含む、項目10または11に記載の装置。
[項目13]
上記トレーニングデータセットは更に上記複数の適用シナリオのマスクグラフを含む、項目12に記載の装置。
[項目14]
上記ニューラルネットワークは、上記人物、上記動物、上記植物、上記車両、衣類、または上記別の予め設定された物体種別のうちの少なくとも2つの物体種別を識別することができる、項目11に記載の装置。
[項目15]
上記第1物体種別の上記マスクに対応する上記画像内の画素の数が、第3物体種別のマスクに対応する、上記画像内の画素の数よりも多く、上記第3物体種別は上記第2物体種別と異なる、項目11に記載の装置。
[項目16]
上記第1物体種別の上記マスクは、主要物体の決定優先度が別の物体種別のマスクよりも高い、項目11に記載の装置。
[項目17]
上記主要物体領域は複数の個体を含み、上記複数の個体は同じ物体種別または異なる物体種別に属する、項目10から16のいずれか一項に記載の装置。
[項目18]
上記主要物体領域は、上記ニューラルネットワークを使用することにより上記画像内の上記物体に対して画素レベルのセグメンテーションを実行することによって取得される、項目10から17のいずれか一項に記載の装置。
[項目19]
カメラ、メモリ、プロセッサ、およびバスを備える端末デバイスであって、上記カメラ、上記メモリ、および上記プロセッサは上記バスを介して接続され、
上記カメラは画像を撮像するように構成され、
上記メモリはコンピュータプログラムおよび命令を記憶するように構成され、
上記プロセッサは、上記メモリに記憶される上記コンピュータプログラム、上記命令、および上記撮像された画像を呼び出して、項目1から9のいずれか一項に記載の方法を実行するように構成される、
端末デバイス。
[項目20]
上記端末デバイスは更にアンテナシステムを備え、上記アンテナシステムは、上記プロセッサの制御下で無線通信信号を送受信してモバイル通信ネットワークとの無線通信を実装し、上記モバイル通信ネットワークは、GSMネットワーク、CDMAネットワーク、3Gネットワーク、4Gネットワーク、5Gネットワーク、FDMAネットワーク、TDMAネットワーク、PDCネットワーク、TACSネットワーク、AMPSネットワーク、WCDMAネットワーク、TDSCDMAネットワーク、Wi-Fiネットワーク、またはLTEネットワークのうちの1または複数を含む、項目19に記載の端末デバイス。
[項目21]
画像処理方法であって、
第1期間にN1個の画像を撮像する段階と、
第2期間にN2個の画像を撮像する段階であって、上記N1個の画像および上記N2個の画像は異なる内容に対応し、N1およびN2はどちらも正の整数である、撮像する段階と、
上記N1個の画像の各々から第1ターゲット領域および第1背景領域を決定する段階であって、上記第1背景領域は上記第1ターゲット領域以外の上記画像の領域であり、上記N1個の画像の各々における上記第1ターゲット領域は第1物体に対応する、決定する段階と、
上記N2個の画像の各々から第2ターゲット領域および第2背景領域を決定する段階であって、上記第2背景領域は上記第2ターゲット領域以外の上記画像の領域であり、上記N2個の画像の各々における上記第2ターゲット領域は第2物体に対応する、決定する段階と、
ターゲットビデオを取得するために、第1色処理モードでの上記第1ターゲット領域の処理と、第2色処理モードでの上記第1背景領域の処理と、第3色処理モードでの上記第2ターゲット領域の処理と、第4色処理モードでの上記第2背景領域の処理とを行う段階であって、上記第1色処理モードまたは上記第3色処理モードは、色保持または色強化を含み、上記第2色処理モードまたは上記第4色処理モードは、白黒、暗化、ぼかし、またはレトロモードを含み、上記第1物体および上記第2物体は異なる物体であり、上記ターゲットビデオは、処理されるN1個の画像と処理されるN2個の画像とを含む、行う段階と
を備える方法。
[項目22]
上記第1色処理モードは上記第3色処理モードと同じであり、上記第2色処理モードは上記第4色処理モードと同じであるか、または、
上記第1色処理モードは上記第3色処理モードと同じであり、上記第2色処理モードは上記第4色処理モードと異なるか、または、
上記第1色処理モードは上記第3色処理モードと異なり、上記第2色処理モードは上記第4色処理モードと同じであるか、または、
上記第1色処理モードは上記第3色処理モードと異なり、上記第2色処理モードは上記第4色処理モードと異なる、
項目21に記載の方法。
[項目23]
上記第1物体または上記第2物体は、人物、動物、または植物のうちの少なくとも1つの個体を含む、項目21または22に記載の方法。
[項目24]
ニューラルネットワークが、上記人物、上記動物、上記植物、車両、衣類、または別の予め設定された物体種別のうちの少なくとも2つの物体種別を識別することができる、項目23に記載の方法。
[項目25]
上記第1物体および上記第2物体は、予め設定された時間間隔での2つの画像の内容に基づいて端末により別個に決定される、項目21から24のいずれか一項に記載の方法。
[項目26]
画像処理装置であって、
第1期間にN1個の画像を撮像し、かつ、第2期間にN2個の画像を撮像するように構成される撮影モジュールであって、上記N1個の画像および上記N2個の画像は異なる内容に対応し、N1およびN2はどちらも正の整数である、撮影モジュールと、
上記N1個の画像の各々から第1ターゲット領域および第1背景領域を決定することであって、上記第1背景領域は上記第1ターゲット領域以外の上記画像の領域であり、上記N1個の画像の各々における上記第1ターゲット領域は第1物体に対応する、決定することと、上記N2個の画像の各々から第2ターゲット領域および第2背景領域を決定することであって、上記第2背景領域は上記第2ターゲット領域以外の上記画像の領域であり、上記N2個の画像の各々における上記第2ターゲット領域は第2物体に対応する、決定することとを行うように構成される決定モジュールと、
ターゲットビデオを取得するために、第1色処理モードでの上記第1ターゲット領域の処理と、第2色処理モードでの上記第1背景領域の処理と、第3色処理モードでの上記第2ターゲット領域の処理と、第4色処理モードでの上記第2背景領域の処理とを行うように構成される色処理モジュールであって、上記第1色処理モードまたは上記第3色処理モードは、色保持または色強化を含み、上記第2色処理モードまたは上記第4色処理モードは、白黒、暗化、ぼかし、またはレトロモードを含み、上記第1物体および上記第2物体は異なる物体であり、上記ターゲットビデオは、処理されるN1個の画像と処理されるN2個の画像とを含む、色処理モジュールと
を備える装置。
[項目27]
上記第1色処理モードは上記第3色処理モードと同じであり、上記第2色処理モードは上記第4色処理モードと同じであるか、
上記第1色処理モードは上記第3色処理モードと同じであり、上記第2色処理モードは上記第4色処理モードと異なるか、
上記第1色処理モードは上記第3色処理モードと異なり、上記第2色処理モードは上記第4色処理モードと同じであるか、または、
上記第1色処理モードは上記第3色処理モードと異なり、上記第2色処理モードは上記第4色処理モードと異なる、
項目26に記載の装置。
[項目28]
上記第1物体または上記第2物体は、人物、動物、または植物のうちの少なくとも1つの個体を含む、項目26または27に記載の装置。
[項目29]
ニューラルネットワークが、上記人物、上記動物、上記植物、車両、衣類、または別の予め設定された物体種別のうちの少なくとも2つの物体種別を識別することができる、項目28に記載の装置。
[項目30]
上記第1物体および上記第2物体は、予め設定された時間間隔での2つの画像の内容に基づいて端末により別個に決定される、項目26から29のいずれか一項に記載の装置。
[項目31]
カメラ、メモリ、プロセッサ、およびバスを備える端末デバイスであって、上記カメラ、上記メモリ、および上記プロセッサは上記バスを介して接続され、
上記カメラは画像を撮像するように構成され、
上記メモリはコンピュータプログラムおよび命令を記憶するように構成され、
上記プロセッサは、上記メモリに記憶される上記コンピュータプログラム、上記命令、および上記撮像された画像を呼び出して、項目21から25のいずれか一項に記載の方法を実行するように構成される、
端末デバイス。
[項目32]
上記端末デバイスは更にアンテナシステムを備え、上記アンテナシステムは、上記プロセッサの制御下で無線通信信号を送受信してモバイル通信ネットワークとの無線通信を実装し、上記モバイル通信ネットワークは、GSMネットワーク、CDMAネットワーク、3Gネットワーク、4Gネットワーク、5Gネットワーク、FDMAネットワーク、TDMAネットワーク、PDCネットワーク、TACSネットワーク、AMPSネットワーク、WCDMAネットワーク、TDSCDMAネットワーク、Wi-Fiネットワーク、またはLTEネットワークのうちの1または複数を含む、項目31に記載の端末デバイス。
[項目33]
画像処理方法であって、
ビデオを撮影するときに、
ビデオ画像内の主要物体を決定する段階と、
上記ビデオ画像内のターゲット領域の色を保持し、ターゲットビデオを取得するために上記ビデオ画像内の背景領域に対してグレースケール処理を実行する段階であって、上記ターゲット領域は上記主要物体に対応し、上記背景領域は上記ターゲット領域以外の上記ビデオ画像の領域である、実行する段階と
を備える方法。
[項目34]
ニューラルネットワークが、人物、動物、植物、車両、衣類、または別の予め設定された物体種別のうちの少なくとも2つの物体種別を識別することができる、項目33に記載の方法。
[項目35]
上記背景領域に対してフィルタ処理を実行する段階であって、上記フィルタ処理は、ボケ処理、暗化処理、レトロ処理、フィルム処理、またはテクスチャ重ね合わせ処理のうちの少なくとも1つを含む、実行する段階を更に備える項目33または34に記載の方法。
[項目36]
画像処理装置であって、
ビデオを撮影するように構成される撮影モジュールと、
ビデオ画像内の主要物体を決定するように構成される決定モジュールと、
上記ビデオ画像内のターゲット領域の色を保持し、ターゲットビデオを取得するために上記ビデオ画像内の背景領域に対してグレースケール処理を実行することであって、上記ターゲット領域は上記主要物体に対応し、上記背景領域は上記ターゲット領域以外の上記ビデオ画像の領域である、実行することを行うように構成される色処理モジュールと
を備える装置。
[項目37]
上記色処理モジュールは更に、上記背景領域に対してフィルタ処理を実行するように構成され、上記フィルタ処理は、ボケ処理、暗化処理、レトロ処理、フィルム処理、またはテクスチャ重ね合わせ処理のうちの少なくとも1つを含む、項目36に記載の装置。
[項目38]
上記色処理モジュールは更に、
上記背景領域に対してフィルタ処理を実行することであって、上記フィルタ処理は、ボケ処理、暗化処理、レトロ処理、フィルム処理、またはテクスチャ重ね合わせ処理のうちの少なくとも1つを含む、実行することを行う
ように構成される、項目36または37に記載の装置。
[項目39]
カメラ、メモリ、プロセッサ、およびバスを備える端末デバイスであって、上記カメラ、上記メモリ、および上記プロセッサは上記バスを介して接続され、
上記カメラは画像を撮像するように構成され、
上記メモリはコンピュータプログラムおよび命令を記憶するように構成され、
上記プロセッサは、上記メモリに記憶される上記コンピュータプログラム、上記命令、および上記撮像された画像を呼び出して、項目33から35のいずれか一項に記載の方法を実行するように構成される、
端末デバイス。
Claims (35)
- 画像をリアルタイムで撮影するかビデオをリアルタイムで撮影するために端末により使用される画像処理方法であって、
画像を撮像する段階と、
前記画像において主題および背景が識別されるときに、前記画像内の主要物体領域の色を保持し、前記画像内の背景領域に対して白黒処理またはぼかし処理を実行する段階であって、前記背景領域は前記主要物体領域以外の前記画像の領域である、実行する段階、または、
前記画像において背景のみが識別されるときに、前記画像の背景領域に対して白黒処理またはぼかし処理を実行する段階と、
前記処理された画像に基づいてターゲット画像またはターゲットビデオを生成する段階と
を備え、
前記主要物体領域および/または前記背景領域は、前記画像において、ニューラルネットワークを使用することにより前記画像内の物体の種別に基づいて識別され、
前記識別は、前記画像を、前記ニューラルネットワークに入力して、画像マスクを取得する段階を含み、
前記画像マスクを取得する段階は、前記画像にダウンサンプリングを実行して、第1画像を取得する段階と、
前記第1画像に対してダウンサンプリングおよび畳み込みを実行して、複数の第2画像を取得する段階であって、前記複数の第2画像のそれぞれの各辺は、前記第1画像の対応する各辺に対して、所定の数のべき乗倍の倍数関係を有する、段階と、
対応する前記複数の第2画像から、複数の特徴マップを取得する段階と、
前記複数の特徴マップに対して、畳み込みおよびアップサンプリングを実行して、セマンティック特徴を融合する段階と、を含む、
方法。 - 前記複数の第2画像のそれぞれの各辺は、互いに前記所定の数のべき乗倍の倍数関係を有する、請求項1に記載の方法。
- 前記ビデオをリアルタイムで撮影する際に、オプティカルフローに基づいて、第1フレームのマスクを処理してオプティカルフローベースのマスクを取得する段階と、
前記オプティカルフローベースのマスクと、前記第1フレームより後の第2のフレームのマスクとを比較して、類似度が所定の閾値以上である場合には、前記ビデオにちらつきが生じていないと判定し、前記類似度が前記所定の閾値未満である場合には前記ビデオにちらつきが生じていると判定する段階と、
を含む、
請求項1または2に記載の方法。 - 前記主題の領域を識別するには第1物体種別のマスクが使用され、前記背景領域を識別するには第2物体種別のマスクが使用され、前記第1物体種別は、人物、動物、植物、車両、または別の予め設定された物体種別のうちの少なくとも1つを含み、前記第2物体種別は前記背景であり、前記第1物体種別の前記マスクと前記第2物体種別の前記マスクとは前記ニューラルネットワークに基づいて決定される、請求項1から3のいずれか一項に記載の方法。
- 前記ニューラルネットワークは、トレーニング用のトレーニングデータセットを使用することにより取得され、前記トレーニングデータセットは複数の適用シナリオの入力画像を含む、請求項1から4のいずれか一項に記載の方法。
- 前記トレーニングデータセットは更に前記複数の適用シナリオのマスクグラフを含む、請求項5に記載の方法。
- 前記ニューラルネットワークは、前記人物、前記動物、前記植物、前記車両、衣類、または前記別の予め設定された物体種別のうちの少なくとも2つの物体種別を識別することができる、請求項4に記載の方法。
- 前記第1物体種別の前記マスクに対応する前記画像内の画素の数が、第3物体種別のマスクに対応する、前記画像内の画素の数よりも多く、前記第3物体種別は前記第2物体種別と異なる、請求項4に記載の方法。
- 前記第1物体種別の前記マスクは、主要物体の決定優先度が別の物体種別のマスクよりも高い、請求項4に記載の方法。
- 前記主要物体領域は複数の個体を含み、前記複数の個体は同じ物体種別または異なる物体種別に属する、請求項1から9のいずれか一項に記載の方法。
- 前記主要物体領域は、前記ニューラルネットワークを使用することにより前記画像内の前記物体に対して画素レベルのセグメンテーションを実行することによって取得される、請求項1から10のいずれか一項に記載の方法。
- 画像をリアルタイムで撮影するかビデオをリアルタイムで撮影するために端末により使用される画像処理装置であって、
画像を撮像するように構成される撮影モジュールと、
ニューラルネットワークを使用することにより前記画像内の物体の種別に基づいて前記画像内の主要物体領域および/または背景領域を識別するように構成される決定モジュールと、
前記決定モジュールが前記画像内の主題および背景を識別するときに、前記画像内の前記主要物体領域の色を保持し、前記画像内の前記背景領域に対して白黒処理またはぼかし処理を実行することであって、前記背景領域は前記主要物体領域以外の前記画像の領域である、実行すること、または、
前記決定モジュールが前記画像内の背景のみを識別するときに、前記画像の前記背景領域に対して白黒処理またはぼかし処理を実行することと、
前記処理された画像に基づいてターゲット画像またはターゲットビデオを生成することと
を行うように構成される色処理モジュールと
を備え、
前記決定モジュールは、前記識別をする際に、前記画像を前記ニューラルネットワークに入力することにより取得した画像マスクを使用し、
前記画像マスクを取得することは、前記画像にダウンサンプリングを実行して、第1画像を取得することと、
前記第1画像に対してダウンサンプリングおよび畳み込みを実行して、複数の第2画像を取得することであって、前記複数の第2画像のそれぞれの各辺は、前記第1画像の対応する各辺に対して、所定の数のべき乗倍の倍数関係を有する、ことと、
対応する前記複数の第2画像から、複数の特徴マップを取得することと、
前記複数の特徴マップに対して、畳み込みおよびアップサンプリングを実行して、セマンティック特徴を融合することと、を含む、
装置。 - 前記複数の第2画像のそれぞれの各辺は、互いに前記所定の数のべき乗倍の倍数関係を有する、請求項12に記載の装置。
- 前記ビデオをリアルタイムで撮影する際に、オプティカルフローに基づいて、第1フレームのマスクを処理してオプティカルフローベースのマスクを取得することと、
前記オプティカルフローベースのマスクと、前記第1フレームより後の第2のフレームのマスクとを比較して、類似度が所定の閾値以上である場合には、前記ビデオにちらつきが生じていないと判定し、前記類似度が前記所定の閾値未満である場合には前記ビデオにちらつきが生じていると判定する、判定モジュールを含む、
請求項12または13に記載の装置。 - 前記主題の領域を識別するには第1物体種別のマスクが使用され、前記背景領域を識別するには第2物体種別のマスクが使用され、前記第1物体種別は、人物、動物、植物、車両、または別の予め設定された物体種別のうちの少なくとも1つを含み、前記第2物体種別は前記背景であり、前記第1物体種別の前記マスクと前記第2物体種別の前記マスクとは前記ニューラルネットワークに基づいて決定される、請求項12から14のいずれか一項に記載の装置。
- 前記ニューラルネットワークは、トレーニング用のトレーニングデータセットを使用することにより取得され、前記トレーニングデータセットは複数の適用シナリオの入力画像を含む、請求項12から15のいずれか一項に記載の装置。
- 前記トレーニングデータセットは更に前記複数の適用シナリオのマスクグラフを含む、請求項16に記載の装置。
- 前記ニューラルネットワークは、前記人物、前記動物、前記植物、前記車両、衣類、または前記別の予め設定された物体種別のうちの少なくとも2つの物体種別を識別することができる、請求項15に記載の装置。
- 前記第1物体種別の前記マスクに対応する前記画像内の画素の数が、第3物体種別のマスクに対応する、前記画像内の画素の数よりも多く、前記第3物体種別は前記第2物体種別と異なる、請求項15に記載の装置。
- 前記第1物体種別の前記マスクは、主要物体の決定優先度が別の物体種別のマスクよりも高い、請求項15に記載の装置。
- 前記主要物体領域は複数の個体を含み、前記複数の個体は同じ物体種別または異なる物体種別に属する、請求項12から20のいずれか一項に記載の装置。
- 前記主要物体領域は、前記ニューラルネットワークを使用することにより前記画像内の前記物体に対して画素レベルのセグメンテーションを実行することによって取得される、請求項12から21のいずれか一項に記載の装置。
- カメラ、メモリ、プロセッサ、およびバスを備える端末デバイスであって、前記カメラ、前記メモリ、および前記プロセッサは前記バスを介して接続され、
前記カメラは画像を撮像するように構成され、
前記メモリはコンピュータプログラムおよび命令を記憶するように構成され、
前記プロセッサは、前記メモリに記憶される前記コンピュータプログラム、前記命令、および前記撮像された画像を呼び出して、請求項1から11のいずれか一項に記載の方法を実行するように構成される、
端末デバイス。 - 前記端末デバイスは更にアンテナシステムを備え、前記アンテナシステムは、前記プロセッサの制御下で無線通信信号を送受信してモバイル通信ネットワークとの無線通信を実装し、前記モバイル通信ネットワークは、GSMネットワーク、CDMAネットワーク、3Gネットワーク、4Gネットワーク、5Gネットワーク、FDMAネットワーク、TDMAネットワーク、PDCネットワーク、TACSネットワーク、AMPSネットワーク、WCDMAネットワーク、TDSCDMAネットワーク、Wi-Fiネットワーク、またはLTEネットワークのうちの1または複数を含む、請求項23に記載の端末デバイス。
- 画像処理方法であって、
ビデオを撮影するときに、
ビデオ画像内の主要物体を決定する段階と、
前記ビデオ画像内のターゲット領域の色を保持し、ターゲットビデオを取得するために前記ビデオ画像内の背景領域に対してグレースケール処理を実行する段階であって、前記ターゲット領域は前記主要物体に対応し、前記背景領域は前記ターゲット領域以外の前記ビデオ画像の領域である、実行する段階と
を備え、
前記ターゲット領域および/または前記背景領域は、前記ビデオ画像において、ニューラルネットワークを使用することにより前記ビデオ画像内の物体の種別に基づいて識別され、
前記識別は、前記ビデオ画像を、前記ニューラルネットワークに入力して、画像マスクを取得する段階を含み、
前記画像マスクを取得する段階は、前記ビデオ画像にダウンサンプリングを実行して、第1画像を取得する段階と、
前記第1画像に対してダウンサンプリングおよび畳み込みを実行して、複数の第2画像を取得する段階であって、前記複数の第2画像のそれぞれの各辺は、前記第1画像の対応する各辺に対して、所定の数のべき乗倍の倍数関係を有する、段階と、
対応する前記複数の第2画像から、複数の特徴マップを取得する段階と、
前記複数の特徴マップに対して、畳み込みおよびアップサンプリングを実行して、セマンティック特徴を融合する段階と、を含む、
方法。 - 前記複数の第2画像のそれぞれの各辺は、互いに前記所定の数のべき乗倍の倍数関係を有する、請求項25に記載の方法。
- オプティカルフローに基づいて、第1フレームのマスクを処理してオプティカルフローベースのマスクを取得する段階と、
前記オプティカルフローベースのマスクと、前記第1フレームより後の第2のフレームのマスクとを比較して、類似度が所定の閾値以上である場合には、前記ビデオにちらつきが生じていないと判定し、前記類似度が前記所定の閾値未満である場合には前記ビデオにちらつきが生じていると判定する段階と、
を含む、
請求項25または26に記載の方法。 - 前記ニューラルネットワークが、人物、動物、植物、車両、衣類、または別の予め設定された物体種別のうちの少なくとも2つの物体種別を識別することができる、請求項27に記載の方法。
- 前記背景領域に対してフィルタ処理を実行する段階であって、前記フィルタ処理は、ボケ処理、暗化処理、レトロ処理、フィルム処理、またはテクスチャ重ね合わせ処理のうちの少なくとも1つを含む、実行する段階を更に備える請求項25から28のいずれか一項に記載の方法。
- 画像処理装置であって、
ビデオを撮影するように構成される撮影モジュールと、
ビデオ画像内の主要物体を決定するように構成される決定モジュールと、
前記ビデオ画像内のターゲット領域の色を保持し、ターゲットビデオを取得するために前記ビデオ画像内の背景領域に対してグレースケール処理を実行することであって、前記ターゲット領域は前記主要物体に対応し、前記背景領域は前記ターゲット領域以外の前記ビデオ画像の領域である、実行することを行うように構成される色処理モジュールと
を備え、
前記決定モジュールは、前記ビデオ画像において、ニューラルネットワークを使用することにより前記ビデオ画像内の物体の種別に基づいて前記ターゲット領域および/または前記背景領域を識別し、
前記識別をする際に、前記ビデオ画像を前記ニューラルネットワークに入力することにより取得した画像マスクを使用し、
前記画像マスクを取得することは、前記ビデオ画像にダウンサンプリングを実行して、第1画像を取得することと、
前記第1画像に対してダウンサンプリングおよび畳み込みを実行して、複数の第2画像を取得することであって、前記複数の第2画像のそれぞれの各辺は、前記第1画像の対応する各辺に対して、所定の数のべき乗倍の倍数関係を有する、ことと、
対応する前記複数の第2画像から、複数の特徴マップを取得することと、
前記複数の特徴マップに対して、畳み込みおよびアップサンプリングを実行して、セマンティック特徴を融合することと、を含む、
装置。 - 前記複数の第2画像のそれぞれの各辺は、互いに前記所定の数のべき乗倍の倍数関係を有する、請求項30に記載の装置。
- オプティカルフローに基づいて、第1フレームのマスクを処理してオプティカルフローベースのマスクを取得し、
前記オプティカルフローベースのマスクと、前記第1フレームより後の第2のフレームのマスクとを比較して、類似度が所定の閾値以上である場合には、前記ビデオにちらつきが生じていないと判定し、前記類似度が前記所定の閾値未満である場合には前記ビデオにちらつきが生じていると判定する、判定モジュールを含む、
請求項30または31に記載の装置。 - 前記色処理モジュールは更に、前記背景領域に対してフィルタ処理を実行するように構成され、前記フィルタ処理は、ボケ処理、暗化処理、レトロ処理、フィルム処理、またはテクスチャ重ね合わせ処理のうちの少なくとも1つを含む、請求項30から32のいずれか一項に記載の装置。
- 前記色処理モジュールは更に、
前記背景領域に対してフィルタ処理を実行することであって、前記フィルタ処理は、ボケ処理、暗化処理、レトロ処理、フィルム処理、またはテクスチャ重ね合わせ処理のうちの少なくとも1つを含む、実行することを行う
ように構成される、請求項30から33のいずれか一項に記載の装置。 - カメラ、メモリ、プロセッサ、およびバスを備える端末デバイスであって、前記カメラ、前記メモリ、および前記プロセッサは前記バスを介して接続され、
前記カメラは画像を撮像するように構成され、
前記メモリはコンピュータプログラムおよび命令を記憶するように構成され、
前記プロセッサは、前記メモリに記憶される前記コンピュータプログラム、前記命令、および前記撮像された画像を呼び出して、請求項25から29のいずれか一項に記載の方法を実行するように構成される、
端末デバイス。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811199234.8A CN109816663B (zh) | 2018-10-15 | 2018-10-15 | 一种图像处理方法、装置与设备 |
CN201811199234.8 | 2018-10-15 | ||
PCT/CN2019/091717 WO2020078027A1 (zh) | 2018-10-15 | 2019-06-18 | 一种图像处理方法、装置与设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022505115A JP2022505115A (ja) | 2022-01-14 |
JP7226851B2 true JP7226851B2 (ja) | 2023-02-21 |
Family
ID=66601864
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021521025A Active JP7226851B2 (ja) | 2018-10-15 | 2019-06-18 | 画像処理の方法および装置並びにデバイス |
Country Status (9)
Country | Link |
---|---|
US (1) | US20210241432A1 (ja) |
EP (1) | EP3859670A4 (ja) |
JP (1) | JP7226851B2 (ja) |
KR (1) | KR20210073568A (ja) |
CN (4) | CN113112505B (ja) |
AU (1) | AU2019362347B2 (ja) |
BR (1) | BR112021007094A2 (ja) |
MX (1) | MX2021004295A (ja) |
WO (1) | WO2020078027A1 (ja) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113112505B (zh) * | 2018-10-15 | 2022-04-29 | 华为技术有限公司 | 一种图像处理方法、装置与设备 |
CN111369598B (zh) * | 2020-03-02 | 2021-03-30 | 推想医疗科技股份有限公司 | 深度学习模型的训练方法及装置、应用方法及装置 |
CN113395441A (zh) * | 2020-03-13 | 2021-09-14 | 华为技术有限公司 | 图像留色方法及设备 |
CN111598902B (zh) * | 2020-05-20 | 2023-05-30 | 抖音视界有限公司 | 图像分割方法、装置、电子设备及计算机可读介质 |
CN111726476B (zh) * | 2020-07-06 | 2022-05-31 | 北京字节跳动网络技术有限公司 | 图像处理方法、装置、设备和计算机可读介质 |
CN111815505A (zh) * | 2020-07-14 | 2020-10-23 | 北京字节跳动网络技术有限公司 | 用于处理图像的方法、装置、设备和计算机可读介质 |
US20220070241A1 (en) * | 2020-08-28 | 2022-03-03 | Tmrw Foundation Ip S. À R.L. | System and method enabling interactions in virtual environments with virtual presence |
CN112188260A (zh) * | 2020-10-26 | 2021-01-05 | 咪咕文化科技有限公司 | 视频的分享方法、电子设备及可读存储介质 |
US11335048B1 (en) * | 2020-11-19 | 2022-05-17 | Sony Group Corporation | Neural network-based image colorization on image/video editing applications |
CN113225477A (zh) * | 2021-04-09 | 2021-08-06 | 天津畅索软件科技有限公司 | 一种拍摄方法、装置和相机应用 |
CN113569713A (zh) * | 2021-07-23 | 2021-10-29 | 浙江大华技术股份有限公司 | 视频图像的条纹检测方法及装置、计算机可读存储介质 |
CN114363659A (zh) * | 2021-12-15 | 2022-04-15 | 深圳万兴软件有限公司 | 降低视频闪烁的方法、装置、设备及存储介质 |
CN114422682B (zh) * | 2022-01-28 | 2024-02-02 | 安谋科技(中国)有限公司 | 拍摄方法、电子设备和可读存储介质 |
CN115118948B (zh) * | 2022-06-20 | 2024-04-05 | 北京华录新媒信息技术有限公司 | 一种全景视频中无规则遮挡的修复方法及装置 |
CN115422986B (zh) * | 2022-11-07 | 2023-08-22 | 深圳传音控股股份有限公司 | 处理方法、处理设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002245471A (ja) | 2000-12-07 | 2002-08-30 | Eastman Kodak Co | 被写体内容に基づく修正を有する第2プリントを伴うダブルプリントの写真仕上げサービス |
US20170200279A1 (en) | 2014-08-28 | 2017-07-13 | Xin Zhong | Temporal saliency map |
US20170337693A1 (en) | 2016-05-23 | 2017-11-23 | Intel Corporation | Method and system of real-time image segmentation for image processing |
JP2018045359A (ja) | 2016-09-13 | 2018-03-22 | 富士ゼロックス株式会社 | 画像処理装置及び画像処理プログラム |
Family Cites Families (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100464569C (zh) * | 2007-04-17 | 2009-02-25 | 北京中星微电子有限公司 | 对图像添加特效的方法和系统 |
CN101072289B (zh) * | 2007-06-11 | 2010-06-02 | 北京中星微电子有限公司 | 一种图像特效的自动生成方法及装置 |
CN101790020B (zh) * | 2009-09-28 | 2013-03-20 | 苏州佳世达电通有限公司 | 胶片扫描方法 |
US8355039B2 (en) * | 2010-07-06 | 2013-01-15 | DigitalOptics Corporation Europe Limited | Scene background blurring including range measurement |
CN102567727B (zh) * | 2010-12-13 | 2014-01-01 | 中兴通讯股份有限公司 | 一种背景目标替换方法和装置 |
CN102542593A (zh) * | 2011-09-30 | 2012-07-04 | 中山大学 | 一种基于视频解译的交互式视频风格化渲染方法 |
CN102880873B (zh) * | 2012-08-31 | 2015-06-03 | 公安部第三研究所 | 基于图像分割和语义提取实现人员行为识别的系统及方法 |
TWI542201B (zh) * | 2013-12-26 | 2016-07-11 | 智原科技股份有限公司 | 降低視訊畫面抖動的方法與裝置 |
CN104156947B (zh) * | 2014-07-23 | 2018-03-16 | 小米科技有限责任公司 | 图像分割方法、装置及设备 |
WO2016197303A1 (en) * | 2015-06-08 | 2016-12-15 | Microsoft Technology Licensing, Llc. | Image semantic segmentation |
CN105049695A (zh) * | 2015-07-07 | 2015-11-11 | 广东欧珀移动通信有限公司 | 一种视频录制方法及装置 |
CN105005980B (zh) * | 2015-07-21 | 2019-02-01 | 深圳Tcl数字技术有限公司 | 图像处理方法及装置 |
CN105872509A (zh) * | 2015-11-23 | 2016-08-17 | 乐视致新电子科技(天津)有限公司 | 一种图像对比度调节方法及装置 |
CN105513081A (zh) * | 2015-12-21 | 2016-04-20 | 中国兵器工业计算机应用技术研究所 | 一种多目标的跟踪识别方法 |
JP2018085008A (ja) * | 2016-11-25 | 2018-05-31 | 株式会社ジャパンディスプレイ | 画像処理装置および画像処理装置の画像処理方法 |
CN106846321B (zh) * | 2016-12-08 | 2020-08-18 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 一种基于贝叶斯概率与神经网络的图像分割方法 |
CN108230252B (zh) * | 2017-01-24 | 2022-02-01 | 深圳市商汤科技有限公司 | 图像处理方法、装置以及电子设备 |
WO2018145030A1 (en) * | 2017-02-06 | 2018-08-09 | Intuitive Surgical Operations, Inc. | System and method for extracting multiple feeds from a rolling-shutter sensor |
US10049308B1 (en) * | 2017-02-21 | 2018-08-14 | A9.Com, Inc. | Synthesizing training data |
CN106997595A (zh) * | 2017-03-09 | 2017-08-01 | 广东欧珀移动通信有限公司 | 基于景深的图像颜色处理方法、处理装置及电子装置 |
CN106851124B (zh) * | 2017-03-09 | 2021-03-02 | Oppo广东移动通信有限公司 | 基于景深的图像处理方法、处理装置和电子装置 |
US9965865B1 (en) * | 2017-03-29 | 2018-05-08 | Amazon Technologies, Inc. | Image data segmentation using depth data |
CN107509045A (zh) * | 2017-09-11 | 2017-12-22 | 广东欧珀移动通信有限公司 | 图像处理方法和装置、电子装置和计算机可读存储介质 |
CN107566723B (zh) * | 2017-09-13 | 2019-11-19 | 维沃移动通信有限公司 | 一种拍摄方法、移动终端及计算机可读存储介质 |
CN107798653B (zh) * | 2017-09-20 | 2019-12-24 | 北京三快在线科技有限公司 | 一种图像处理的方法和一种装置 |
CN107665482B (zh) * | 2017-09-22 | 2021-07-23 | 北京奇虎科技有限公司 | 实现双重曝光的视频数据实时处理方法及装置、计算设备 |
US20190130191A1 (en) * | 2017-10-30 | 2019-05-02 | Qualcomm Incorporated | Bounding box smoothing for object tracking in a video analytics system |
CN108010037B (zh) * | 2017-11-29 | 2019-09-13 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置及存储介质 |
CN107948519B (zh) * | 2017-11-30 | 2020-03-27 | Oppo广东移动通信有限公司 | 图像处理方法、装置及设备 |
CN107977940B (zh) * | 2017-11-30 | 2020-03-17 | Oppo广东移动通信有限公司 | 背景虚化处理方法、装置及设备 |
US10528820B2 (en) * | 2017-12-07 | 2020-01-07 | Canon Kabushiki Kaisha | Colour look-up table for background segmentation of sport video |
CN108108697B (zh) * | 2017-12-25 | 2020-05-19 | 中国电子科技集团公司第五十四研究所 | 一种实时无人机视频目标检测与跟踪方法 |
CN108133695B (zh) * | 2018-01-02 | 2020-08-14 | 京东方科技集团股份有限公司 | 一种图像显示方法、装置、设备和介质 |
CN108305223B (zh) * | 2018-01-09 | 2020-11-03 | 珠海格力电器股份有限公司 | 图像背景虚化处理方法及装置 |
CN108234882B (zh) * | 2018-02-11 | 2020-09-29 | 维沃移动通信有限公司 | 一种图像虚化方法及移动终端 |
CN108491889A (zh) * | 2018-04-02 | 2018-09-04 | 深圳市易成自动驾驶技术有限公司 | 图像语义分割方法、装置及计算机可读存储介质 |
CN108648284A (zh) * | 2018-04-10 | 2018-10-12 | 光锐恒宇(北京)科技有限公司 | 一种视频处理的方法和装置 |
CN108648139A (zh) * | 2018-04-10 | 2018-10-12 | 光锐恒宇(北京)科技有限公司 | 一种图像处理方法和装置 |
CN113112505B (zh) * | 2018-10-15 | 2022-04-29 | 华为技术有限公司 | 一种图像处理方法、装置与设备 |
-
2018
- 2018-10-15 CN CN202110285512.7A patent/CN113112505B/zh active Active
- 2018-10-15 CN CN201811199234.8A patent/CN109816663B/zh active Active
- 2018-10-15 CN CN202110287237.2A patent/CN113129312B/zh active Active
-
2019
- 2019-06-18 KR KR1020217014480A patent/KR20210073568A/ko not_active Application Discontinuation
- 2019-06-18 WO PCT/CN2019/091717 patent/WO2020078027A1/zh unknown
- 2019-06-18 JP JP2021521025A patent/JP7226851B2/ja active Active
- 2019-06-18 AU AU2019362347A patent/AU2019362347B2/en active Active
- 2019-06-18 MX MX2021004295A patent/MX2021004295A/es unknown
- 2019-06-18 CN CN201980068271.1A patent/CN112840376B/zh active Active
- 2019-06-18 BR BR112021007094-0A patent/BR112021007094A2/pt unknown
- 2019-06-18 EP EP19873919.5A patent/EP3859670A4/en active Pending
-
2021
- 2021-04-14 US US17/230,169 patent/US20210241432A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002245471A (ja) | 2000-12-07 | 2002-08-30 | Eastman Kodak Co | 被写体内容に基づく修正を有する第2プリントを伴うダブルプリントの写真仕上げサービス |
US20170200279A1 (en) | 2014-08-28 | 2017-07-13 | Xin Zhong | Temporal saliency map |
US20170337693A1 (en) | 2016-05-23 | 2017-11-23 | Intel Corporation | Method and system of real-time image segmentation for image processing |
JP2018045359A (ja) | 2016-09-13 | 2018-03-22 | 富士ゼロックス株式会社 | 画像処理装置及び画像処理プログラム |
Also Published As
Publication number | Publication date |
---|---|
US20210241432A1 (en) | 2021-08-05 |
WO2020078027A1 (zh) | 2020-04-23 |
AU2019362347A1 (en) | 2021-05-27 |
CN113112505B (zh) | 2022-04-29 |
EP3859670A1 (en) | 2021-08-04 |
CN113129312A (zh) | 2021-07-16 |
CN109816663A (zh) | 2019-05-28 |
CN112840376B (zh) | 2022-08-09 |
AU2019362347B2 (en) | 2023-07-06 |
JP2022505115A (ja) | 2022-01-14 |
KR20210073568A (ko) | 2021-06-18 |
CN113129312B (zh) | 2022-10-28 |
MX2021004295A (es) | 2021-08-05 |
CN113112505A (zh) | 2021-07-13 |
BR112021007094A2 (pt) | 2021-07-27 |
CN109816663B (zh) | 2021-04-20 |
EP3859670A4 (en) | 2021-12-22 |
CN112840376A (zh) | 2021-05-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7226851B2 (ja) | 画像処理の方法および装置並びにデバイス | |
JP7266672B2 (ja) | 画像処理方法および画像処理装置、ならびにデバイス | |
US9451173B2 (en) | Electronic device and control method of the same | |
CN107507160B (zh) | 一种图像融合方法、终端及计算机可读存储介质 | |
CN111885294A (zh) | 一种拍摄方法、装置与设备 | |
WO2021036991A1 (zh) | 高动态范围视频生成方法及装置 | |
WO2020192692A1 (zh) | 图像处理方法以及相关设备 | |
US20220319077A1 (en) | Image-text fusion method and apparatus, and electronic device | |
CN116569213A (zh) | 图像区域的语义细化 | |
WO2022252649A1 (zh) | 一种视频的处理方法及电子设备 | |
US10769416B2 (en) | Image processing method, electronic device and storage medium | |
CN117061861B (zh) | 一种拍摄方法、芯片系统和电子设备 | |
RU2791810C2 (ru) | Способ, аппаратура и устройство для обработки и изображения | |
RU2794062C2 (ru) | Устройство и способ обработки изображения и оборудование | |
CN114207669A (zh) | 一种人脸光照图像生成装置及方法 | |
CN117271817A (zh) | 生成分享素材的方法及装置、设备、存储介质 | |
CN115526788A (zh) | 图像处理方法和装置 | |
CN110706163A (zh) | 图像处理方法、终端及计算机存储介质 | |
CN115942122A (zh) | 图像的亮度调整方法、装置、终端及存储介质 | |
CN114911546A (zh) | 图像显示方法、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210514 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220628 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220712 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220926 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230202 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7226851 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |