JP7266672B2 - 画像処理方法および画像処理装置、ならびにデバイス - Google Patents
画像処理方法および画像処理装置、ならびにデバイス Download PDFInfo
- Publication number
- JP7266672B2 JP7266672B2 JP2021520989A JP2021520989A JP7266672B2 JP 7266672 B2 JP7266672 B2 JP 7266672B2 JP 2021520989 A JP2021520989 A JP 2021520989A JP 2021520989 A JP2021520989 A JP 2021520989A JP 7266672 B2 JP7266672 B2 JP 7266672B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- mask
- target
- region
- masks
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 171
- 238000003672 processing method Methods 0.000 title claims description 36
- 238000000034 method Methods 0.000 claims description 144
- 230000008569 process Effects 0.000 claims description 50
- 230000015654 memory Effects 0.000 claims description 36
- 230000011218 segmentation Effects 0.000 claims description 31
- 238000013528 artificial neural network Methods 0.000 claims description 22
- 241001465754 Metazoa Species 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 11
- 238000004891 communication Methods 0.000 claims description 9
- 239000003086 colorant Substances 0.000 claims description 7
- 238000010295 mobile communication Methods 0.000 claims description 5
- IRLPACMLTUPBCL-KQYNXXCUSA-N 5'-adenylyl sulfate Chemical compound C1=NC=2C(N)=NC=NC=2N1[C@@H]1O[C@H](COP(O)(=O)OS(O)(=O)=O)[C@@H](O)[C@H]1O IRLPACMLTUPBCL-KQYNXXCUSA-N 0.000 claims description 2
- 230000006870 function Effects 0.000 description 20
- 230000003287 optical effect Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 14
- 230000000694 effects Effects 0.000 description 14
- 238000013461 design Methods 0.000 description 12
- 238000003384 imaging method Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 230000002708 enhancing effect Effects 0.000 description 4
- 239000000047 product Substances 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 230000007935 neutral effect Effects 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 241000282326 Felis catus Species 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000282693 Cercopithecidae Species 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010924 continuous production Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- -1 mobile phones Substances 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G06T5/94—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
-
- G06T5/60—
-
- G06T5/75—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2621—Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Description
ステップ1は、画像内の被写体のカテゴリに基づいて画像内のターゲット領域および背景領域を決定するステップであって、背景領域は画像のうちのターゲット領域以外の領域である、ステップであり、
ステップ2は、ターゲット画像を取得するために、ターゲット領域および背景領域を異なる色処理モードで処理するステップであって、ターゲット画像内のターゲット領域の色差が、ターゲット画像内の背景領域の色差よりも大きいか、またはターゲット画像内のターゲット領域の輝度がターゲット画像内の背景領域の輝度よりも大きい、ステップである、ステップとを含む。
画像を取得するステップと、
画像内の被写体のカテゴリに基づいて画像内のターゲット領域および背景領域を決定するステップであって、背景領域は画像のうちのターゲット領域以外の領域である、ステップと、
ターゲット画像を取得するために、ターゲット領域および背景領域を異なる色処理モードで処理するステップであって、ターゲット画像内のターゲット領域の色差がターゲット画像内の背景領域の色差よりも大きいか、またはターゲット画像内のターゲット領域の輝度がターゲット画像内の背景領域の輝度よりも大きい、ステップとを含む。
画像を取得するように構成された撮影モジュールと、画像内の被写体のカテゴリに基づいて画像内のターゲット領域および背景領域を決定するように構成された決定モジュールであって、背景領域は画像のうちのターゲット領域以外の領域である、決定モジュールと、ターゲット画像を取得するために、ターゲット領域および背景領域を異なる色処理モードで処理するように構成された色処理モジュールであって、ターゲット画像内のターゲット領域の色差がターゲット画像内の背景領域の色差よりも大きいか、またはターゲット画像内のターゲット領域の輝度がターゲット画像内の背景領域の輝度よりも大きい、色処理モジュールとを備える。
k=2であり、かつ2つのマスクが1つの主被写体マスクと、1つの背景マスクとを含む場合、主被写体マスクに対応する画像領域をターゲット領域として決定し、背景マスクに対応する領域を背景領域として決定するステップと、
kが2より大きく、かつk個のマスク内のk0の主被写体マスクに含まれる画素の数が、事前設定された閾値より大きい場合、k0の主被写体マスクに対応する画像領域をターゲット領域として決定し、残りのマスクに対応する画像領域を背景領域として決定するステップであって、k0はk未満の非負整数である、ステップと、
kが2より大きい場合、最大数の画素を含み、かつk個のマスク内にあるマスクに対応する画像領域をターゲット領域として決定し、残りのマスクに対応する画像領域を背景領域として決定するステップと、
kが2より大きい場合、被写体カテゴリの事前設定された優先順位に基づいてk個のマスクからターゲットマスクを決定し、ターゲットマスクに対応する画像領域をターゲット領域として決定し、残りのマスクに対応する画像領域を背景領域として決定するステップ、または
kが2より大きい場合、ユーザの選択命令に従ってk個のマスクからターゲットマスクを決定し、ターゲットマスクに対応する画像領域をターゲット領域として決定し、残りのマスクに対応する画像領域を背景領域として決定するステップとを含む。方法は、決定モジュールによって特に実行されてよい。
ターゲット領域の色を保持し、背景領域に白黒処理を実行するステップ、
ターゲット領域の色を保持し、背景領域に減光処理を実行するステップ、
ターゲット領域の色を保持し、背景領域にぼかし処理を実行するステップ、
ターゲット領域の色を濃くし、背景領域に白黒処理を実行するステップ、
ターゲット領域の色を濃くし、背景領域に減光処理を実行するステップ、または
ターゲット領域の色を強調し、背景領域にぼかし処理を実行するステップを含む。
取得された各画像に含まれる被写体のカテゴリを決定するステップと、
現在の画像の最初のN0画像において、異なる被写体カテゴリとして決定された同じ被写体を有する隣接する画像のグループの数が、事前設定された閾値以下である場合、画像内の被写体のカテゴリに基づいて現在の画像内のターゲット領域および背景領域を決定するステップであって、背景領域は現在の画像のうちのターゲット領域以外の領域である、ステップと、ターゲット画像を取得するために、ターゲット領域および背景領域を第1の色処理モードおよび第2の色処理モードでそれぞれ処理するステップであって、ターゲット画像内のターゲット領域の色差がターゲット画像内の背景領域の色差よりも大きいか、またはターゲット画像内のターゲット領域の輝度がターゲット画像内の背景領域の輝度よりも大きい、ステップ、
または、現在の画像の最初のN0画像において、異なる被写体カテゴリとして決定された同じ被写体を有する隣接する画像のグループの数が、事前設定された閾値より大きい場合、ターゲット画像を取得するために、現在の画像を第1の色処理モードまたは第2の色処理モードで処理するステップとを含む。
k=2であり、かつ2つのマスクが1つの主被写体マスクと、1つの背景マスクとを含む場合、主被写体マスクに対応する画像領域をターゲット領域として決定し、背景マスクに対応する領域を背景領域として決定するステップと、
kが2より大きく、かつk個のマスク内のk0の主被写体マスクに含まれる画素の数が事前設定された閾値より大きい場合、k0の主被写体マスクに対応する画像領域をターゲット領域として決定し、残りのマスクに対応する画像領域を背景領域として決定するステップであって、k0はk未満の非負整数である、ステップと、
kが2より大きい場合、最大数の画素を含み、かつk個のマスク内であるマスクに対応する画像領域をターゲット領域として決定し、残りのマスクに対応する画像領域を背景領域として決定するステップと、
kが2より大きい場合、被写体カテゴリの事前設定された優先順位に基づいてk個のマスクからターゲットマスクを決定し、ターゲットマスクに対応する画像領域をターゲット領域として決定し、残りのマスクに対応する画像領域を背景領域として決定するステップ、または
kが2より大きい場合、ユーザの選択命令に従ってk個のマスクからターゲットマスクを決定し、ターゲットマスクに対応する画像領域をターゲット領域として決定し、残りのマスクに対応する画像領域を背景領域として決定するステップとを含む。方法は、決定モジュールによって特に実行されてよい。
ターゲット領域の色を保持し、背景領域に白黒処理を実行するステップ、
ターゲット領域の色を保持し、背景領域に減光処理を実行するステップ、
ターゲット領域の色を保持し、背景領域にぼかし処理を実行するステップ、
ターゲット領域の色を濃くし、背景領域に白黒処理を実行するステップ、
ターゲット領域の色を濃くし、背景領域に減光処理を実行するステップ、または
ターゲット領域の色を強調し、背景領域にぼかし処理を実行するステップを含む。
この実施例に関して、特定の実装プロセスにおいて、端末は撮影モードを構成してよい。撮影モードでは、方法は以下のステップを含んでよい。
具体的には、本発明において、ビデオ記録用の画像処理方法は、写真撮影用の画像処理方法と同様であり、写真撮影時に処理される被写体が1つの画像であるのに対して、ビデオ記録時に処理される被写体は連続する映像フレームである、すなわち複数の連続画像である点が異なっている。ビデオ記録で処理される被写体は、完全なビデオであってもよいし、完全なビデオの1つのセグメントであってもよいし、所定の期間の範囲内のユーザが定義したビデオクリップであってもよい。ビデオまたはビデオクリップ内の各画像の処理手順については、実施例1の処理方法を参照されたい。
本発明において、ビデオ記録用の画像処理方法は、写真撮影用の画像処理方法と同様であり、写真撮影時に処理される被写体が1つの画像であるのに対して、ビデオ記録時に処理される被写体は、連続する映像フレームである、すなわち複数の連続する画像である点が異なっている。したがって、各画像の処理手順については、実施例1の処理方法を参照されたい。一部の複雑なビデオ撮影のシナリオでは、画像内のいくつかの領域が誤って検出される場合がある。同じ領域が隣接するフレーム内でターゲットまたは背景として別々にマークされる場合、同じ領域が前述の例示的な色処理方法に従って異なる色に処理され、隣接するフレーム内の同じ領域の色の変化は知覚のちらつきを引き起こす。したがって、処理中にちらつきを特定して除去する必要がある。ちらつきは、被写体カテゴリの決定エラーとして理解され得る。
いくつかの適用シナリオでは、ユーザによって撮影された画像のコンテンツはたいてい変化する。したがって、画像の主被写体もたいてい変化する。ユーザはまた、ビデオスタイルを独立して制御するために、異なる画像内の主被写体の色処理モードを自由に選択することを期待する。
ステップ51:端末がビデオフレームを取得する。
ステップ52:端末が、ビデオから取得した任意のビデオフレーム内の主被写体領域および背景領域を決定する。
ステップ53:端末が、主被写体領域に対していかなる時点においても任意の色処理モードを使用し、背景領域に対してもいかなる時点においても任意の色処理モードを使用する。しかしながら、任意の画像について、色処理後の主被写体領域の輝度または色差は、色処理後の背景領域の輝度または色差よりも大きいことが保証される必要がある。あるいは、任意の画像について、主被写体領域に使用される色処理モードで得られた画像の色差または輝度は、背景領域に使用される色処理モードで得られた画像の色差または輝度よりも大きい。
いくつかの適用シナリオでは、ユーザによって撮影された画像のコンテンツはたいてい変化する。したがって、画像の主被写体もたいてい変化する。ユーザはまた、ビデオスタイルを独立して制御するために、異なる画像内の主被写体の色処理モードを自由に選択することを期待する。とりわけ、色は、期間によって変化する。
いくつかの適用シナリオでは、ユーザによって撮影された画像のコンテンツはたいてい変化する。したがって、画像の主被写体もたいてい変化する。ユーザはまた、ユーザが異なる画像内で強調することを期待するターゲット主被写体を自由に選択することを期待する。例えば、第1の被写体に対応する画像領域は、第1の期間におけるターゲット領域として決定され、第2の被写体に対応する画像領域は、第2の期間におけるターゲット領域として決定され、第1の被写体および第2の被写体は、異なる被写体、異なる個体または異なる被写体カテゴリである。
写真撮影またはビデオ撮影であり得る、画像を取得するように構成された撮影モジュール901であって、モジュールは、前述の実施例でのステップ21、ステップ31、ステップ51、ステップ61、またはステップ71における方法、およびこの方法と同等であり得る方法を実行するように特に構成され、またモジュールは、画像を取り込むようにカメラを制御するために、メモリ内の対応するプログラム命令を呼び出すことによってプロセッサによって実施され得る、撮影モジュール901と、
画像コンテンツに基づいて画像内のターゲット領域および背景領域を決定するように構成された決定モジュール902であって、モジュールは、前述の実施例でのステップ22、ステップ32、ステップ52、ステップ62、またはステップ72における方法、およびこの方法と同等であり得る方法を実行するように特に構成され、またモジュールは、対応するアルゴリズムを実装するために、メモリ内の対応するプログラム命令を呼び出すことによってプロセッサによって実装され得る、決定モジュール902と、
ターゲット画像またはターゲットビデオを取得するために、画像内のターゲット領域および背景領域について異なる色処理モードを使用することで、ターゲット領域の色差が背景領域の色差より大きいか、またはターゲット領域の輝度が背景領域の輝度より大きくなるように構成された色処理モジュール903であって、モジュールは、前述の実施例でのステップ23、ステップ33、ステップ53、ステップ63、またはステップ73における方法、およびこの方法と同等であり得る方法を実行するように特に構成され、またモジュールは、特有のアルゴリズムを使用することによって、メモリ内の対応するプログラム命令を呼び出すことによってプロセッサによって実施され得る、色処理モジュール903とを備える。
写真撮影またはビデオ撮影であり得る、画像を取得するように構成された撮影モジュール1001であって、モジュールは、前述の実施例でのステップ21、ステップ31、ステップ51、ステップ61、またはステップ71における方法、およびこの方法と同等であり得る方法を実行するように特に構成され、またモジュールは、画像を取り込むようにカメラを制御するために、メモリ内の対応するプログラム命令を呼び出すことによってプロセッサによって実施され得る、撮影モジュール1001と、
現在のフレームの最初のN0フレーム内のちらつきのあるフレームの数が、事前設定された閾値より大きいかどうかを判定し、判定結果が、ちらつきのあるフレームの数が事前設定された閾値以下である場合、決定モジュール1003および色処理モジュール1004をトリガし続けて、関連する機能を実行する、または判定結果が、ちらつきのあるフレームの数が、事前設定された閾値よりも大きい場合、ちらつき除去モジュール1005をトリガし続けて、関連する機能を実行する、するように構成された判定モジュール1002であって、モジュール1002は、前述の実施例でのステップ42における方法、およびこの方法と同等であり得る方法を実行するように特に構成され、またモジュールは、対応するアルゴリズムを実装するために、メモリ内の対応するプログラム命令を呼び出すことによってプロセッサによって実施され得る、判定モジュール1002と、
判定モジュール1002が、最初のN0フレームにおけるちらつきのあるフレームの数が事前設定された閾値以下であると判定した場合、画像コンテンツに基づいてターゲット領域および背景領域を決定するように構成された決定モジュール1003であって、モジュールは、前述の実施例でのステップ22、ステップ32、ステップ43、ステップ52、ステップ62またはステップ72における方法、およびこの方法と同等であり得る方法を実行するように特に構成され、またモジュールは、対応するアルゴリズムを実装するために、メモリ内の対応するプログラム命令を呼び出すことによってプロセッサによって実施され得る、決定モジュール1003と、
画像内のターゲット領域および背景領域について、異なる色処理モードを使用することで、ターゲット領域の色差が背景領域の色差より大きいか、またはターゲット領域の輝度が背景領域の輝度より大きくなるように構成された色処理モジュール1004であって、モジュールは、前述の実施例でのステップ23、ステップ33、ステップ44、ステップ53、ステップ63、またはステップ73における方法、およびこの方法と同等であり得る方法を実行するように特に構成され、またモジュールは、特有のアルゴリズムを使用することによって、メモリ内の対応するプログラム命令を呼び出すことによってプロセッサによって実施され得る、色処理モジュール1004と、
判定モジュール1002が、現在のフレームの最初のN0フレーム内のちらつきのあるフレームの数が、事前設定された閾値より大きいと判定した場合、現在のフレームの全ての画像領域に対して同じ色処理方法を使用するように構成されたちらつき除去モジュール1005であって、同じ色処理方法は、前のフレーム内の背景領域の色処理方法と同じであってよい、または前のフレーム内のターゲット領域の色処理方法と同じであってよく、またモジュールは、前述の実施例でのステップ45における方法、およびこの方法と同等であり得る方法を実行するように特に構成され、またモジュールは、特有のアルゴリズムを使用することによって、メモリ内の対応するプログラム命令を呼び出すことによってプロセッサによって実施され得る、ちらつき除去モジュール1005とを備える。
110 無線周波数ユニット
120 メモリ
130 入力ユニット
131 タッチスクリーン
132 別の入力デバイス
133 オン/オフキー
140 表示ユニット
141 表示パネル
150 カメラ
160 オーディオ回路
161 スピーカー
162 マイクロフォン
163 ヘッドセットジャック
170 プロセッサ
180 外部インターフェース
190 電源
900 画像処理装置
901 撮影モジュール
902 決定モジュール
903 色処理モジュール
904 記憶モジュール
1000 画像処理装置
1001 撮影モジュール
1002 判定モジュール
1003 決定モジュール
1004 色処理モジュール
1005 ちらつき除去モジュール
1006 記憶モジュール
A1 主被写体マスク
A2 主被写体マスク
B1 主被写体マスク
B2 主被写体マスク
Claims (7)
- 画像処理方法であって、前記方法が、
N個の画像を取得するステップであって、Nは正の整数であり、前記N個の画像はビデオを構成する、ステップと、
ニューラルネットワークを使用することによって、取得された各画像に含まれる被写体のカテゴリを決定するステップと、
現在の画像の最初のN0画像において、異なる被写体カテゴリとして決定された同じ被写体を有する隣接する画像のグループの数が、事前設定された閾値以下である場合、
前記画像内の前記被写体の前記カテゴリに基づいて前記現在の画像内のターゲット領域および背景領域を決定するステップであって、前記背景領域が前記現在の画像のうちの前記ターゲット領域以外の領域である、ステップと、
ターゲット画像を取得するために、前記ターゲット領域および前記背景領域を第1の色処理モードおよび第2の色処理モードでそれぞれ処理するステップであって、前記第1の色処理モードは前記第2の色処理モードとは異なる、ステップと、
現在の画像の最初のN0画像において、異なる被写体カテゴリとして決定された同じ被写体を有する隣接する画像のグループの数が、事前設定された閾値より大きい場合、
ターゲット画像を取得するために、前記現在の画像を前記第1の色処理モードまたは前記第2の色処理モードで処理するステップであって、前記現在の画像は、前記N個の画像のうちの1つである、ステップと
を含み、
前記画像内の前記被写体の前記カテゴリに基づいて前記現在の画像内のターゲット領域および背景領域を決定する前記ステップが、以下の方式、すなわち、
方式1:k個のマスクを取得するために、前記画像に対してセマンティックセグメンテーションを実行し、前記k個のマスクが異なる被写体カテゴリに対応し、
k=2であり、かつ前記2つのマスクが1つの主被写体マスクと、1つの背景マスクとを含む場合、前記主被写体マスクに対応する画像領域を前記ターゲット領域として決定し、前記背景マスクに対応する領域を前記背景領域として決定する、方式
方式2:k個のマスクを取得するために、前記画像に対してセマンティックセグメンテーションを実行し、前記k個のマスクが異なる被写体カテゴリに対応し、前記k個のマスクが背景マスクおよび主被写体マスクを含み、
kが2より大きく、かつ前記k個のマスク内のk0の主被写体マスクに含まれる画素の数が、事前設定された閾値より大きい場合、前記k0の主被写体マスクに対応する画像領域を前記ターゲット領域として決定し、残りのマスクに対応する画像領域を前記背景領域として決定し、k0はk未満の非負整数である、方式
方式3:k個のマスクを取得するために、前記画像に対してセマンティックセグメンテーションを実行し、前記k個のマスクが異なる被写体カテゴリに対応し、前記k個のマスクが背景マスクおよび主被写体マスクを含み、
kが2より大きい場合、最大数の画素を含み、前記k個のマスク内にある主被写体マスクに対応する画像領域を前記ターゲット領域として決定し、残りのマスクに対応する画像領域を前記背景領域として決定する、方式
方式4:k個のマスクを取得するために、前記画像に対してセマンティックセグメンテーションを実行し、前記k個のマスクが異なる被写体カテゴリに対応し、
kが2より大きい場合、前記被写体カテゴリの事前設定された優先順位に基づいて前記k個のマスクからターゲットマスクを決定し、
前記ターゲットマスクに対応する画像領域を前記ターゲット領域として決定し、残りのマスクに対応する画像領域を前記背景領域として決定する、方式
の1つを含む、方法。 - 前記第1の色処理モードが色を保持するステップを含み、前記第2の色処理モードが、白黒処理するステップ、減光処理するステップ、またはぼかし処理するステップを含む、請求項1に記載の方法。
- 前記被写体の前記カテゴリが、人物、動物、植物、事前設定された被写体、または背景のうちの少なくとも1つを含む、請求項1または2に記載の方法。
- 画像処理装置であって、前記装置が、
N個の画像を取得するように構成された撮影モジュールであって、Nは正の整数であり、前記N個の画像はビデオを構成する、撮影モジュールと、
ニューラルネットワークを使用することによって、取得された各画像に含まれる被写体のカテゴリを決定するように構成された決定モジュールと、
現在の画像の最初のN0画像において、異なる被写体カテゴリとして決定された同じ被写体を有する隣接する画像のグループの数が、事前設定された閾値以下である場合、
前記画像内の前記被写体の前記カテゴリに基づいて前記現在の画像内のターゲット領域および背景領域を決定するように前記決定モジュールを制御し、前記背景領域は前記画像のうちの前記ターゲット領域以外の領域であり、ターゲット画像を取得するために、前記ターゲット領域および前記背景領域を第1の色処理モードおよび第2の色処理モードでそれぞれ処理するように色処理モジュールを制御し、前記第1の色処理モードは前記第2の色処理モードとは異なり、
現在の画像内の前記最初のN0画像において、異なる被写体カテゴリとして決定された同じ被写体を有する隣接する画像のグループの数が、事前設定された閾値より大きい場合、
ターゲット画像を取得するために、前記現在の画像を前記第1の色処理モードまたは前記第2の色処理モードで処理するようにちらつき除去モジュールを制御し、前記現在の画像は前記N個の画像のうちの1つである、ように構成された判定モジュールと
を備え、
前記決定モジュールは、
k個のマスクを取得するために、前記画像に対してセマンティックセグメンテーションを実行し、前記k個のマスクは異なる被写体カテゴリに対応し、前記k個のマスクは背景マスクと、主被写体マスクとを含み、
k=2であり、かつ前記2つのマスクが1つの主被写体マスクと、1つの背景マスクを含む場合、前記主被写体マスクに対応する画像領域を前記ターゲット領域として決定し、前記背景マスクに対応する領域を前記背景領域として決定し、
kが2より大きく、かつ前記k個のマスク内のk0の主被写体マスクに含まれる画素の数が、事前設定された閾値より大きい場合、前記k0の主被写体マスクに対応する画像領域を前記ターゲット領域として決定し、残りのマスクに対応する画像領域を前記背景領域として決定し、k0はk未満の非負整数であり、
kが2より大きい場合、最大数の画素を含み、前記k個のマスク内にある主被写体マスクに対応する画像領域を前記ターゲット領域として決定し、残りのマスクに対応する画像領域を前記背景領域として決定し、
kが2より大きい場合、前記被写体カテゴリの事前設定された優先順位に基づいて前記k個のマスクからターゲットマスクを決定し、前記ターゲットマスクに対応する画像領域を前記ターゲット領域として決定し、残りのマスクに対応する画像領域を前記背景領域として決定する、または
kが2より大きい場合、ユーザの選択命令に従って前記k個のマスクからターゲットマスクを決定し、前記ターゲットマスクに対応する画像領域を前記ターゲット領域として決定し、残りのマスクに対応する画像領域を前記背景領域として決定する、
ようにさらに特に構成される、装置。 - 前記色処理モジュールは、
前記ターゲット領域の色を保持し、前記背景領域に白黒処理、減光処理、またはぼかし処理を実行するように特に構成される、請求項4に記載の装置。 - 端末デバイスであって、前記端末デバイスが、カメラと、メモリと、プロセッサと、バスとを備え、前記カメラ、前記メモリ、および前記プロセッサは、前記バスを介して接続され、
前記カメラは、画像を取り込むように構成され、
前記メモリは、コンピュータプログラムおよび命令を記憶するように構成され、
前記プロセッサは、請求項1から3のいずれか一項に記載の方法を実行するために、前記メモリに記憶された前記コンピュータプログラム、前記命令、および取り込まれた前記画像を呼び出すように構成される、端末デバイス。 - 前記端末デバイスはアンテナシステムをさらに備え、前記アンテナシステムは、前記プロセッサの制御下で、モバイル通信ネットワークとの無線通信を実施するために、無線通信信号を送受信し、前記モバイル通信ネットワークは、以下の、GSMネットワーク、CDMAネットワーク、3Gネットワーク、4Gネットワーク、5Gネットワーク、FDMAネットワーク、TDMAネットワーク、PDCネットワーク、TACSネットワーク、AMPSネットワーク、WCDMAネットワーク、TDSCDMAネットワーク、Wi-Fiネットワーク、およびLTEネットワークのうちの1つまたは複数を含む、請求項6に記載の端末デバイス。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811199216.XA CN109961453B (zh) | 2018-10-15 | 2018-10-15 | 一种图像处理方法、装置与设备 |
CN201811199216.X | 2018-10-15 | ||
PCT/CN2019/091700 WO2020078026A1 (zh) | 2018-10-15 | 2019-06-18 | 一种图像处理方法、装置与设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022505086A JP2022505086A (ja) | 2022-01-14 |
JP7266672B2 true JP7266672B2 (ja) | 2023-04-28 |
Family
ID=67023235
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021520989A Active JP7266672B2 (ja) | 2018-10-15 | 2019-06-18 | 画像処理方法および画像処理装置、ならびにデバイス |
Country Status (9)
Country | Link |
---|---|
US (1) | US20210233248A1 (ja) |
EP (1) | EP3859672A4 (ja) |
JP (1) | JP7266672B2 (ja) |
KR (1) | KR20210073570A (ja) |
CN (4) | CN109961453B (ja) |
AU (1) | AU2019363031A1 (ja) |
BR (1) | BR112021007087A2 (ja) |
MX (1) | MX2021004309A (ja) |
WO (1) | WO2020078026A1 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110717865B (zh) * | 2019-09-02 | 2022-07-29 | 苏宁云计算有限公司 | 图片检测方法及装置 |
CN113111684A (zh) * | 2020-01-10 | 2021-07-13 | 字节跳动有限公司 | 神经网络模型的训练方法、装置和图像处理系统 |
CN113313788A (zh) * | 2020-02-26 | 2021-08-27 | 北京小米移动软件有限公司 | 图像处理方法和装置、电子设备以及计算机可读存储介质 |
CN111598902B (zh) * | 2020-05-20 | 2023-05-30 | 抖音视界有限公司 | 图像分割方法、装置、电子设备及计算机可读介质 |
CN112070656B (zh) * | 2020-08-10 | 2023-08-25 | 上海明略人工智能(集团)有限公司 | 帧数据的修改方法及装置 |
CN113395599A (zh) * | 2020-12-03 | 2021-09-14 | 腾讯科技(深圳)有限公司 | 一种视频处理方法、装置、电子设备及介质 |
CN112653920B (zh) * | 2020-12-18 | 2022-05-24 | 北京字跳网络技术有限公司 | 视频处理方法、装置、设备及存储介质 |
CN112861661B (zh) * | 2021-01-22 | 2022-11-08 | 深圳市慧鲤科技有限公司 | 图像处理方法及装置、电子设备及计算机可读存储介质 |
CN113067983B (zh) * | 2021-03-29 | 2022-11-15 | 维沃移动通信(杭州)有限公司 | 视频处理方法、装置、电子设备和存储介质 |
CN113421275A (zh) * | 2021-05-13 | 2021-09-21 | 影石创新科技股份有限公司 | 图像处理方法、装置、计算机设备和存储介质 |
CN113284080A (zh) * | 2021-06-17 | 2021-08-20 | Oppo广东移动通信有限公司 | 图像处理方法及装置、电子设备及存储介质 |
CN115701129A (zh) * | 2021-07-31 | 2023-02-07 | 荣耀终端有限公司 | 一种图像处理方法及电子设备 |
US11636683B2 (en) * | 2021-09-14 | 2023-04-25 | Black Sesame Technologies Inc. | Precise object segmentation with multi-modal input for realtime video application |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170132758A1 (en) | 2015-11-05 | 2017-05-11 | Facebook, Inc. | Systems and methods for processing content using convolutional neural networks |
US20170337693A1 (en) | 2016-05-23 | 2017-11-23 | Intel Corporation | Method and system of real-time image segmentation for image processing |
WO2018096775A1 (ja) | 2016-11-28 | 2018-05-31 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム |
CN108366203A (zh) | 2018-03-01 | 2018-08-03 | 北京金山安全软件有限公司 | 一种构图方法、装置、电子设备及存储介质 |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101551853A (zh) * | 2008-11-14 | 2009-10-07 | 重庆大学 | 复杂静态彩色背景下的人耳检测方法 |
CN102298781B (zh) * | 2011-08-16 | 2014-06-25 | 长沙中意电子科技有限公司 | 基于颜色和梯度特征的运动阴影检测方法 |
US9139133B2 (en) * | 2012-05-31 | 2015-09-22 | GM Global Technology Operations LLC | Vehicle collision warning system and method |
CN102779348B (zh) * | 2012-06-20 | 2015-01-07 | 中国农业大学 | 无标识运动目标跟踪测量方法 |
CN109711304B (zh) * | 2013-05-21 | 2022-06-14 | 深圳市腾讯计算机系统有限公司 | 一种人脸特征点定位方法及装置 |
AU2013206601A1 (en) * | 2013-06-28 | 2015-01-22 | Canon Kabushiki Kaisha | Variable blend width compositing |
CN104301596B (zh) * | 2013-07-11 | 2018-09-25 | 炬芯(珠海)科技有限公司 | 一种视频处理方法及装置 |
CN104036490B (zh) * | 2014-05-13 | 2017-03-29 | 重庆大学 | 适用于移动通信网络传输中的前景分割方法 |
EP3195201A4 (en) * | 2014-08-28 | 2018-01-10 | Qualcomm Incorporated | Temporal saliency map |
CN104408743A (zh) * | 2014-11-05 | 2015-03-11 | 百度在线网络技术(北京)有限公司 | 图像分割方法和装置 |
CN104751407B (zh) * | 2015-03-11 | 2019-01-25 | 百度在线网络技术(北京)有限公司 | 一种用于对图像进行虚化的方法和装置 |
WO2016197303A1 (en) * | 2015-06-08 | 2016-12-15 | Microsoft Technology Licensing, Llc. | Image semantic segmentation |
JP2017054311A (ja) * | 2015-09-09 | 2017-03-16 | 株式会社デンソー | 物体検出装置 |
CN106529565B (zh) * | 2016-09-23 | 2019-09-13 | 北京市商汤科技开发有限公司 | 目标识别模型训练和目标识别方法及装置、计算设备 |
CN106506962A (zh) * | 2016-11-29 | 2017-03-15 | 维沃移动通信有限公司 | 一种图像处理方法及移动终端 |
CN106846321B (zh) * | 2016-12-08 | 2020-08-18 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 一种基于贝叶斯概率与神经网络的图像分割方法 |
CN108230252B (zh) * | 2017-01-24 | 2022-02-01 | 深圳市商汤科技有限公司 | 图像处理方法、装置以及电子设备 |
CN106960195B (zh) * | 2017-03-27 | 2020-04-03 | 深圳市和巨信息技术有限公司 | 一种基于深度学习的人群计数方法及装置 |
CN107133939A (zh) * | 2017-04-24 | 2017-09-05 | 努比亚技术有限公司 | 一种照片合成方法、设备及计算机可读存储介质 |
US10262236B2 (en) * | 2017-05-02 | 2019-04-16 | General Electric Company | Neural network training image generation system |
CN107507214B (zh) * | 2017-07-06 | 2020-09-11 | 北京华泰诺安探测技术有限公司 | 获取货物图像的方法和装置 |
CN107547775A (zh) * | 2017-09-11 | 2018-01-05 | 郑州仁峰软件开发有限公司 | 多目标空间排列与虚拟背景、前景合成方法 |
CN107665482B (zh) * | 2017-09-22 | 2021-07-23 | 北京奇虎科技有限公司 | 实现双重曝光的视频数据实时处理方法及装置、计算设备 |
KR102177233B1 (ko) * | 2017-09-27 | 2020-11-10 | 구글 엘엘씨 | 고해상도 이미지 세분화를 위한 종단간 네트워크 모델 |
KR102421855B1 (ko) * | 2017-09-28 | 2022-07-18 | 삼성전자주식회사 | 주행 차로를 식별하는 방법 및 장치 |
CN107909081B (zh) * | 2017-10-27 | 2022-04-08 | 东南大学 | 一种深度学习中图像数据集的快速获取和快速标定方法 |
CN108010037B (zh) * | 2017-11-29 | 2019-09-13 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置及存储介质 |
CN107958449A (zh) * | 2017-12-13 | 2018-04-24 | 北京奇虎科技有限公司 | 一种图像合成方法及装置 |
CN108154465B (zh) * | 2017-12-19 | 2022-03-01 | 北京小米移动软件有限公司 | 图像处理方法及装置 |
CN108206917B (zh) * | 2017-12-29 | 2020-09-15 | 南京中兴新软件有限责任公司 | 图像处理的方法及装置、存储介质、电子装置 |
CN108305223B (zh) * | 2018-01-09 | 2020-11-03 | 珠海格力电器股份有限公司 | 图像背景虚化处理方法及装置 |
-
2018
- 2018-10-15 CN CN201811199216.XA patent/CN109961453B/zh active Active
- 2018-10-15 CN CN202110393464.3A patent/CN113298845A/zh active Pending
- 2018-10-15 CN CN202110228022.3A patent/CN113163133A/zh active Pending
-
2019
- 2019-06-18 EP EP19872293.6A patent/EP3859672A4/en active Pending
- 2019-06-18 JP JP2021520989A patent/JP7266672B2/ja active Active
- 2019-06-18 BR BR112021007087-7A patent/BR112021007087A2/pt unknown
- 2019-06-18 KR KR1020217014609A patent/KR20210073570A/ko not_active Application Discontinuation
- 2019-06-18 AU AU2019363031A patent/AU2019363031A1/en active Pending
- 2019-06-18 WO PCT/CN2019/091700 patent/WO2020078026A1/zh unknown
- 2019-06-18 MX MX2021004309A patent/MX2021004309A/es unknown
- 2019-06-18 CN CN201980068151.1A patent/CN112868050A/zh active Pending
-
2021
- 2021-04-15 US US17/231,375 patent/US20210233248A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170132758A1 (en) | 2015-11-05 | 2017-05-11 | Facebook, Inc. | Systems and methods for processing content using convolutional neural networks |
US20170337693A1 (en) | 2016-05-23 | 2017-11-23 | Intel Corporation | Method and system of real-time image segmentation for image processing |
WO2018096775A1 (ja) | 2016-11-28 | 2018-05-31 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム |
CN108366203A (zh) | 2018-03-01 | 2018-08-03 | 北京金山安全软件有限公司 | 一种构图方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
KR20210073570A (ko) | 2021-06-18 |
MX2021004309A (es) | 2021-08-11 |
EP3859672A1 (en) | 2021-08-04 |
AU2019363031A1 (en) | 2021-05-27 |
CN113298845A (zh) | 2021-08-24 |
CN109961453B (zh) | 2021-03-12 |
US20210233248A1 (en) | 2021-07-29 |
CN112868050A (zh) | 2021-05-28 |
JP2022505086A (ja) | 2022-01-14 |
CN109961453A (zh) | 2019-07-02 |
CN113163133A (zh) | 2021-07-23 |
BR112021007087A2 (pt) | 2021-07-20 |
WO2020078026A1 (zh) | 2020-04-23 |
EP3859672A4 (en) | 2021-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7266672B2 (ja) | 画像処理方法および画像処理装置、ならびにデバイス | |
JP7226851B2 (ja) | 画像処理の方法および装置並びにデバイス | |
US9451173B2 (en) | Electronic device and control method of the same | |
WO2020192692A1 (zh) | 图像处理方法以及相关设备 | |
CN113170037B (zh) | 一种拍摄长曝光图像的方法和电子设备 | |
US20220245778A1 (en) | Image bloom processing method and apparatus, and storage medium | |
CN115086567A (zh) | 延时摄影方法和装置 | |
US10769416B2 (en) | Image processing method, electronic device and storage medium | |
EP4340383A1 (en) | Image processing method and related device thereof | |
CN115426449B (zh) | 一种拍照方法和终端 | |
CN113744139A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
RU2791810C2 (ru) | Способ, аппаратура и устройство для обработки и изображения | |
RU2794062C2 (ru) | Устройство и способ обработки изображения и оборудование | |
CN114463191A (zh) | 一种图像处理方法及电子设备 | |
WO2023077938A1 (zh) | 生成视频帧的方法、装置、电子设备及存储介质 | |
CN115526788A (zh) | 图像处理方法和装置 | |
CN116723417A (zh) | 一种图像处理方法和电子设备 | |
CN116721038A (zh) | 颜色修正方法、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210527 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210527 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220418 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220719 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221205 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230306 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230320 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230418 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7266672 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |