JP7152598B2 - 画像処理方法及び装置、電子機器並びに記憶媒体 - Google Patents

画像処理方法及び装置、電子機器並びに記憶媒体 Download PDF

Info

Publication number
JP7152598B2
JP7152598B2 JP2021514431A JP2021514431A JP7152598B2 JP 7152598 B2 JP7152598 B2 JP 7152598B2 JP 2021514431 A JP2021514431 A JP 2021514431A JP 2021514431 A JP2021514431 A JP 2021514431A JP 7152598 B2 JP7152598 B2 JP 7152598B2
Authority
JP
Japan
Prior art keywords
region
interest
determining
image
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021514431A
Other languages
English (en)
Other versions
JP2022502893A (ja
Inventor
高哲峰
李若岱
庄南▲慶▼
▲馬▼▲くん▼
彭悦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Sensetime Technology Co Ltd
Original Assignee
Shenzhen Sensetime Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Sensetime Technology Co Ltd filed Critical Shenzhen Sensetime Technology Co Ltd
Publication of JP2022502893A publication Critical patent/JP2022502893A/ja
Application granted granted Critical
Publication of JP7152598B2 publication Critical patent/JP7152598B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

(関連出願の相互参照)
本願は、2019年09月16日に提出された出願番号201910872325.1、の中国特許出願に基づく優先権を主張し、該中国特許出願の全内容が参照として本開示に組み込まれる。
本開示は、コンピュータビジョン技術分野に関し、画像処理方法及び装置、電子機器並びに記憶媒体に関する。
コンピュータビジョン技術は、装置により人間の視覚機能を模擬する技術であり、人工知能、画像処理などの多くの用途に適用可能である。例えば、顔認識シーンにおいて、撮られた画像に対して顔認識を行うことで、顔に対応する身分を決定することができる。
顔認識において、顔のイメージング品質は、主な要因である。高いイメージング品質は、顔認識の正確度の向上に寄与する。しかしながら、逆光シーンにおいて、顔のイメージング品質が低く、顔画像の認識及び生体判定に不利である。
本開示は、画像処理方法及び装置、電子機器並びに記憶媒体を提供する。
本開示の一態様によれば、画像処理方法を提供する。前記方法は、
現在のシーンでリアルタイムに収集されたターゲット画像に対して人形検出を行い、人形検出結果を得ることと、
前記ターゲット画像の人形検出結果に基づいて、前記ターゲット画像の関心領域を決定することと、
前記関心領域の輝度分布に基づいて、現在のシーンで画像収集に用いられるターゲットパラメータ値を決定することと、を含む。
1つの可能な実施形態において、前記ターゲット画像の人形検出結果に基づいて、前記ターゲット画像の関心領域を決定することは、
前記人形検出結果が前記ターゲット画像に顔領域が存在することを表す場合、前記ターゲット画像における顔領域に基づいて、前記ターゲット画像の前記関心領域を決定することを含む。
1つの可能な実施形態において、前記ターゲット画像における顔領域に基づいて、前記ターゲット画像の前記関心領域を決定することは、
前記ターゲット画像に複数の顔領域が存在する場合、前記複数の顔領域のうちの最大顔領域を決定することと、
前記最大顔領域を前記ターゲット画像の前記関心領域として決定することと、を含む。
1つの可能な実施形態において、前記ターゲット画像の人形検出結果に基づいて、前記ターゲット画像の前記関心領域を決定することは、
前記人形検出結果が前記ターゲット画像に顔領域が存在しないことを表す場合、前記ターゲット画像の中心画像領域を決定することと、
前記中心画像領域を前記ターゲット画像の前記関心領域として決定することと、を含む。
1つの可能な実施形態において、前記ターゲット画像の人形検出結果に基づいて、前記ターゲット画像の関心領域を決定した後、且つ、前記関心領域の輝度分布に基づいて、前記現在のシーンで画像収集に用いられるターゲットパラメータ値を決定する前に、
前記ターゲット画像の関心領域における各画素点の輝度に基づいて、前記関心領域の輝度分布を決定することを更に含む。
1つの可能な実施形態において、前記関心領域の輝度分布に基づいて、前記現在のシーンで画像収集に用いられるターゲットパラメータ値を決定することは、
前記関心領域の平均輝度を決定することと、
前記関心領域の輝度分布に基づいて、前記関心領域の境界輝度を決定することと、
前記関心領域の平均輝度及び前記境界輝度に基づいて、前記関心領域のターゲット輝度を決定することと、
輝度と画像収集パラメータとのマッピング関係に基づいて、前記ターゲット輝度に対応するターゲットパラメータ値を決定することと、を含む。
1つの可能な実施形態において、前記関心領域の平均輝度を決定することは、
前記関心領域における各画素点に対応する重みを決定することと、
前記関心領域における各画素点に対応する重み及び各画素点の輝度に基づいて、前記関心領域の平均輝度を決定することと、を含む。
1つの可能な実施形態において、前記関心領域における各画素点に対応する重みを決定することは、
前記関心領域における画素点と前記関心領域の領域中心との距離に基づいて、前記関心領域における各画素点に対応する重みを決定することであって、画素点と前記関心領域の領域中心との距離は、前記画素点に対応する重みと正に相関する、ことを含む。
1つの可能な実施形態において、前記関心領域の輝度分布に基づいて、前記関心領域の境界輝度を決定することは、
前記関心領域の輝度分布において、輝度参照値範囲内に対応する画素点の数を決定することであって、前記輝度参照値範囲は、前記輝度分布における最小輝度値から輝度参照値までの輝度範囲であり、前記輝度参照値は、前記輝度分布におけるいずれか1つの輝度値である、ことと、
前記関心領域の画素点総数のうち、前記輝度参照値範囲内に対応する画素点の数により占められる割合を決定することと、
前記画素点割合が所定の割合以上である場合、前記輝度参照値を前記関心領域の境界輝度として決定することと、を含む。
1つの可能な実施形態において、前記関心領域の平均輝度及び前記境界輝度に基づいて、前記関心領域のターゲット輝度を決定することは、
事前設定された所望の境界輝度を取得することと、
前記所望の境界輝度と前記境界輝度との比を決定することと、
前記所望の境界輝度と前記境界輝度との比及び前記関心領域の平均輝度に基づいて、前記関心領域のターゲット輝度を決定することと、を含む。
1つの可能な実施形態において、前記方法は、
前記ターゲットパラメータ値を用いて、前記現在のシーンに対して画像収集を行うことを更に含む。
1つの可能な実施形態において、前記ターゲットパラメータ値は、
露光値、露光時間及びゲインのうちの少なくとも1つを含む。
本開示のもう1つの態様によれば、画像処理装置を提供する。前記装置は、
現在のシーンでリアルタイムに収集されたターゲット画像に対して人形検出を行い、人形検出結果を得るように構成される検出モジュールと、
前記ターゲット画像の人形検出結果に基づいて、前記ターゲット画像の関心領域を決定するように構成される第1決定モジュールと、
前記関心領域の輝度分布に基づいて、現在のシーンで画像収集に用いられるターゲットパラメータ値を決定するように構成される第2決定モジュールと、を備える。
1つの可能な実施形態において、前記第1決定モジュールは更に、
前記人形検出結果が前記ターゲット画像に顔領域が存在することを表す場合、前記ターゲット画像における顔領域に基づいて、前記ターゲット画像の前記関心領域を決定するように構成される。
1つの可能な実施形態において、前記第1決定モジュールは更に、
前記ターゲット画像に複数の顔領域が存在する場合、前記複数の顔領域のうちの最大顔領域を決定し、
前記最大顔領域を前記ターゲット画像の前記関心領域として決定するように構成される。
1つの可能な実施形態において、前記第1決定モジュールは更に、
前記人形検出結果が前記ターゲット画像に顔領域が存在しないことを表す場合、前記ターゲット画像の中心画像領域を決定し、
前記中心画像領域を前記ターゲット画像の前記関心領域として決定するように構成される。
1つの可能な実施形態において、前記第1決定モジュールは更に、
前記ターゲット画像の人形検出結果に基づいて、前記ターゲット画像の関心領域を決定した後、且つ、前記関心領域の輝度分布に基づいて、前記現在のシーンで画像収集に用いられるターゲットパラメータ値を決定する前に、前記ターゲット画像の関心領域における各画素点の輝度に基づいて、前記関心領域の輝度分布を決定するように構成される。
1つの可能な実施形態において、前記第2決定モジュールは更に、
前記関心領域の平均輝度を決定し、
前記関心領域の輝度分布に基づいて、前記関心領域の境界輝度を決定し、
前記関心領域の平均輝度及び前記境界輝度に基づいて、前記関心領域のターゲット輝度を決定し、
輝度と画像収集パラメータとのマッピング関係に基づいて、前記ターゲット輝度に対応するターゲットパラメータ値を決定するように構成される。
1つの可能な実施形態において、前記第2決定モジュールは更に、
前記関心領域における各画素点に対応する重みを決定し、
前記関心領域における各画素点に対応する重み及び各画素点の輝度に基づいて、前記関心領域の平均輝度を決定するように構成される。
1つの可能な実施形態において、前記第2決定モジュールは更に、
前記関心領域における画素点と前記関心領域の領域中心との距離に基づいて、前記関心領域における各画素点に対応する重みを決定するように構成され、画素点と前記関心領域の領域中心との距離は、前記画素点に対応する重みと正に相関する。
1つの可能な実施形態において、前記第2決定モジュールは更に、
前記関心領域の輝度分布において、輝度参照値範囲内に対応する画素点の数を決定するように構成され、前記輝度参照値範囲は、前記輝度分布における最小輝度値から輝度参照値までの輝度範囲であり、前記輝度参照値は、前記輝度分布におけるいずれか1つの輝度値であり、
前記第2決定モジュールは更に、前記関心領域の画素点総数のうち、前記輝度参照値範囲内に対応する画素点の数により占められる割合を決定し、
前記画素点割合が所定の割合以上である場合、前記輝度参照値を前記関心領域の境界輝度として決定するように構成される。
1つの可能な実施形態において、前記第2決定モジュールは更に、
事前設定された所望の境界輝度を取得し、
前記所望の境界輝度と前記境界輝度との比を決定し、
前記所望の境界輝度と前記境界輝度との比及び前記関心領域の平均輝度に基づいて、前記関心領域のターゲット輝度を決定するように構成される。
1つの可能な実施形態において、前記装置は、
前記ターゲットパラメータ値を用いて、前記現在のシーンに対して画像収集を行うように構成される収集モジュールを更に備える。
1つの可能な実施形態において、前記ターゲットパラメータ値は、
露光値、露光時間及びゲインのうちの少なくとも1つを含む。
本開示のもう1つの態様によれば、電子機器を提供する。前記電子機器は、
プロセッサと、
プロセッサによる実行可能な命令を記憶するためのメモリと、を備え、
前記プロセッサは、上記画像処理方法を実行するように構成される。
本開示の一態様によれば、コンピュータ可読記憶媒体を提供する。前記コンピュータ可読記憶媒体には、コンピュータに上記画像処理方法を実行させるためのコンピュータプログラムを記憶している。
例えば、本願は以下の項目を提供する。
(項目1)
現在のシーンでリアルタイムに収集されたターゲット画像に対して人形検出を行い、人形検出結果を得ることと、
前記ターゲット画像の人形検出結果に基づいて、前記ターゲット画像の関心領域を決定することと、
前記関心領域の輝度分布に基づいて、現在のシーンで画像収集に用いられるターゲットパラメータ値を決定することと、を含む、画像処理方法。
(項目2)
前記ターゲット画像の人形検出結果に基づいて、前記ターゲット画像の関心領域を決定することは、
前記人形検出結果が前記ターゲット画像に顔領域が存在することを表す場合、前記ターゲット画像における顔領域に基づいて、前記ターゲット画像の前記関心領域を決定することを含むことを特徴とする
項目1に記載の方法。
(項目3)
前記ターゲット画像における顔領域に基づいて、前記ターゲット画像の前記関心領域を決定することは、
前記ターゲット画像に複数の顔領域が存在する場合、前記複数の顔領域のうちの最大顔領域を決定することと、
前記最大顔領域を前記ターゲット画像の前記関心領域として決定することと、を含むことを特徴とする
項目2に記載の方法。
(項目4)
前記ターゲット画像の人形検出結果に基づいて、前記ターゲット画像の前記関心領域を決定することは、
前記人形検出結果が前記ターゲット画像に顔領域が存在しないことを表す場合、前記ターゲット画像の中心画像領域を決定することと、
前記中心画像領域を前記ターゲット画像の前記関心領域として決定することと、を含むことを特徴とする
項目1に記載の方法。
(項目5)
前記ターゲット画像の人形検出結果に基づいて、前記ターゲット画像の関心領域を決定した後、且つ、前記関心領域の輝度分布に基づいて、前記現在のシーンで画像収集に用いられるターゲットパラメータ値を決定する前に、
前記ターゲット画像の関心領域における各画素点の輝度に基づいて、前記関心領域の輝度分布を決定することを更に含むことを特徴とする
項目1に記載の方法。
(項目6)
前記関心領域の輝度分布に基づいて、前記現在のシーンで画像収集に用いられるターゲットパラメータ値を決定することは、
前記関心領域の平均輝度を決定することと、
前記関心領域の輝度分布に基づいて、前記関心領域の境界輝度を決定することと、
前記関心領域の平均輝度及び前記境界輝度に基づいて、前記関心領域のターゲット輝度を決定することと、
輝度と画像収集パラメータとのマッピング関係に基づいて、前記ターゲット輝度に対応するターゲットパラメータ値を決定することと、を含むことを特徴とする
項目1から5のうちいずれか一項に記載の方法。
(項目7)
前記関心領域の平均輝度を決定することは、
前記関心領域における各画素点に対応する重みを決定することと、
前記関心領域における各画素点に対応する重み及び各画素点の輝度に基づいて、前記関心領域の平均輝度を決定することと、を含むことを特徴とする
項目6に記載の方法。
(項目8)
前記関心領域における各画素点に対応する重みを決定することは、
前記関心領域における画素点と前記関心領域の領域中心との距離に基づいて、前記関心領域における各画素点に対応する重みを決定することであって、画素点と前記関心領域の領域中心との距離は、前記画素点に対応する重みと正に相関する、ことを含むことを特徴とする
項目7に記載の方法。
(項目9)
前記関心領域の輝度分布に基づいて、前記関心領域の境界輝度を決定することは、
前記関心領域の輝度分布において、輝度参照値範囲内に対応する画素点の数を決定することであって、前記輝度参照値範囲は、前記輝度分布における最小輝度値から輝度参照値までの輝度範囲であり、前記輝度参照値は、前記輝度分布におけるいずれか1つの輝度値である、ことと、
前記関心領域の画素点総数のうち、前記輝度参照値範囲内に対応する画素点の数により占められる割合を決定することと、
前記画素点割合が所定の割合以上である場合、前記輝度参照値を前記関心領域の境界輝度として決定することと、を含むことを特徴とする
項目6に記載の方法。
(項目10)
前記関心領域の平均輝度及び前記境界輝度に基づいて、前記関心領域のターゲット輝度を決定することは、
事前設定された所望の境界輝度を取得することと、
前記所望の境界輝度と前記境界輝度との比を決定することと、
前記所望の境界輝度と前記境界輝度との比及び前記関心領域の平均輝度に基づいて、前記関心領域のターゲット輝度を決定することと、を含むことを特徴とする
項目6に記載の方法。
(項目11)
前記ターゲットパラメータ値を用いて、前記現在のシーンに対して画像収集を行うことを更に含むことを特徴とする
項目1から5又は7から10のうちいずれか一項に記載の方法。
(項目12)
前記ターゲットパラメータ値は、
露光値、露光時間及びゲインのうちの少なくとも1つを含むことを特徴とする
項目11に記載の方法。
(項目13)
現在のシーンでリアルタイムに収集されたターゲット画像に対して人形検出を行い、人形検出結果を得るように構成される検出モジュールと、
前記ターゲット画像の人形検出結果に基づいて、前記ターゲット画像の関心領域を決定するように構成される第1決定モジュールと、
前記関心領域の輝度分布に基づいて、現在のシーンで画像収集に用いられるターゲットパラメータ値を決定するように構成される第2決定モジュールと、を備える、画像処理装置。
(項目14)
前記第1決定モジュールは更に、
前記人形検出結果が前記ターゲット画像に顔領域が存在することを表す場合、前記ターゲット画像における顔領域に基づいて、前記ターゲット画像の前記関心領域を決定するように構成されることを特徴とする
項目13に記載の装置。
(項目15)
前記第1決定モジュールは更に、
前記ターゲット画像に複数の顔領域が存在する場合、前記複数の顔領域のうちの最大顔領域を決定し、
前記最大顔領域を前記ターゲット画像の前記関心領域として決定するように構成されることを特徴とする
項目14に記載の装置。
(項目16)
前記第1決定モジュールは更に、
前記人形検出結果が前記ターゲット画像に顔領域が存在しないことを表す場合、前記ターゲット画像の中心画像領域を決定し、
前記中心画像領域を前記ターゲット画像の前記関心領域として決定するように構成されることを特徴とする
項目13に記載の装置。
(項目17)
前記第1決定モジュールは更に、前記ターゲット画像の人形検出結果に基づいて、前記ターゲット画像の関心領域を決定した後、且つ、前記関心領域の輝度分布に基づいて、前記現在のシーンで画像収集に用いられるターゲットパラメータ値を決定する前に、前記ターゲット画像の関心領域における各画素点の輝度に基づいて、前記関心領域の輝度分布を決定するように構成されることを特徴とする
項目13に記載の装置。
(項目18)
前記第2決定モジュールは更に、
前記関心領域の平均輝度を決定し、
前記関心領域の輝度分布に基づいて、前記関心領域の境界輝度を決定し、
前記関心領域の平均輝度及び前記境界輝度に基づいて、前記関心領域のターゲット輝度を決定し、
輝度と画像収集パラメータとのマッピング関係に基づいて、前記ターゲット輝度に対応するターゲットパラメータ値を決定するように構成されることを特徴とする
項目13から17のうちいずれか一項に記載の装置。
(項目19)
前記第2決定モジュールは更に、
前記関心領域における各画素点に対応する重みを決定し、
前記関心領域における各画素点に対応する重み及び各画素点の輝度に基づいて、前記関心領域の平均輝度を決定するように構成されることを特徴とする
項目18に記載の装置。
(項目20)
前記第2決定モジュールは更に、
前記関心領域における画素点と前記関心領域の領域中心との距離に基づいて、前記関心領域における各画素点に対応する重みを決定するように構成され、画素点と前記関心領域の領域中心との距離は、前記画素点に対応する重みと正に相関することを特徴とする
項目19に記載の装置。
(項目21)
前記第2決定モジュールは更に、
前記関心領域の輝度分布において、輝度参照値範囲内に対応する画素点の数を決定するように構成され、前記輝度参照値範囲は、前記輝度分布における最小輝度値から輝度参照値までの輝度範囲であり、前記輝度参照値は、前記輝度分布におけるいずれか1つの輝度値であり、
前記第2決定モジュールは更に、前記関心領域の画素点総数のうち、前記輝度参照値範囲内に対応する画素点の数により占められる割合を決定し、
前記画素点割合が所定の割合以上である場合、前記輝度参照値を前記関心領域の境界輝度として決定するように構成されることを特徴とする
項目18に記載の装置。
(項目22)
前記第2決定モジュールは更に、
事前設定された所望の境界輝度を取得し、
前記所望の境界輝度と前記境界輝度との比を決定し、
前記所望の境界輝度と前記境界輝度との比及び前記関心領域の平均輝度に基づいて、前記関心領域のターゲット輝度を決定するように構成されることを特徴とする
項目18に記載の装置。
(項目23)
前記ターゲットパラメータ値を用いて、前記現在のシーンに対して画像収集を行うように構成される収集モジュールを更に備えることを特徴とする
項目13から16又は19から22のうちいずれか一項に記載の装置。
(項目24)
前記ターゲットパラメータ値は、
露光値、露光時間及びゲインのうちの少なくとも1つを含むことを特徴とする
項目23に記載の装置。
(項目25)
プロセッサによる実行可能な命令を記憶するためのメモリと、
前記メモリに記憶された命令を呼び出して、項目1から12のうちいずれか一項に記載の方法を実行するように構成されるプロセッサと、を備える電子機器。
(項目26)
コンピュータに項目1から12のうちいずれか一項に記載の方法を実行させるためのコンピュータプログラム命令を記憶したコンピュータ可読記憶媒体。
本開示の実施例において、現在のシーンでリアルタイムに収集されたターゲット画像を取得し、続いて、ターゲット画像に対して人形検出を行い、人形検出結果を得る。更に、ターゲット画像の人形検出結果に基づいて、ターゲット画像の関心領域を決定する。最後に、決定された関心領域の輝度分布に基づいて、現在のシーンで画像収集に用いられるターゲットパラメータ値を決定する。従って、逆光又は強光等のシーンであっても、ターゲット画像に対して人形検出を行うことで得られた人形検出結果に基づいて、現在のシーンにおける好適な収集パラメータ値を決定することもできる。これにより、画像収集装置は、決定した収集パラメータ値に基づいて、現在のシーンに対して画像収集を行い、収集した画像フレームに、高い顔品質を持たせ、後続の顔認識の正確率を向上させることができる。
上記の一般的な説明及び後述する細部に関する説明は、例示及び説明のためのものに過ぎず、本開示を限定するものではないことが理解されるべきである。
本開示の他の特徴及び態様は、下記の図面に基づく例示的な実施例の詳細な説明を参照すれば明らかになる。
本開示の実施例による画像処理方法の一例を示すフローチャートである。 本開示の実施例による画像処理方法の一例の適用シーンを示す図である。 本開示の実施例による画像収集に用いられるターゲットパラメータ値の決定の一例を示すフローチャートである。 本開示の実施例による画像処理方法の一例を示すフローチャートである。 本開示の実施例による画像処理装置の一例を示すブロック図である。 本開示の実施例による電子機器の一例を示すブロック図である。
ここで添付した図面は、明細書に引き入れて本明細書の一部分を構成し、本開示に適合する実施例を示し、かつ、明細書とともに本開示の技術的解決手段を解釈することに用いられる。
以下、図面を参照しながら本開示の種々の例示的な実施例、特徴及び態様を詳しく説明する。図面における同一の符号は、同一または類似する機能を有する要素を示す。図面は、実施例の種々の態様を示しているが、特別な説明がない限り、必ずしも比率どおりの図面ではない。
ここで使用した「例示的」という用語は「例、実施例として用いられるか、または説明のためのものである」ことを意味する。ここで、「例示的なもの」として説明される如何なる実施例は、他の実施例より好適または有利であると必ずしも解釈されるべきではない。
本明細書において、用語「及び/又は」は、関連対象の関連関係を説明するためのものであり、3通りの関係が存在することを表す。例えば、A及び/又はBは、Aのみが存在すること、AとBが同時に存在すること、Bのみが存在するという3つの場合を表す。また、本明細書において、用語「少なくとも1つ」は、複数のうちのいずれか1つ又は複数のうちの少なくとも2つの任意の組み合わせを表す。例えば、A、B、Cのうちの少なくとも1つを含むことは、A、B及びCからなる集合から選ばれるいずれか1つ又は複数の要素を含むことを表す。
なお、本開示をより良く説明するために、以下の具体的な実施形態において具体的な細部を多く記載した。当業者は、これら具体的な詳細に関わらず、本開示は同様に実施可能であると理解すべきである。本発明の主旨を明確にするために、一部の実例において、当業者に熟知されている方法、手段、素子及び回路については詳しく説明しないことにする。
本開示の実施例で提供される画像処理方法は、現在のシーンでリアルタイムに収集されたターゲット画像に対して人形検出を行い、人形検出結果を得て、該ターゲット画像の人形検出結果に基づいて、ターゲット画像に含まれる関心領域を決定し、ターゲット画像の関心領域における各画素点の輝度に基づいて、関心領域の輝度分布を決定し、関心領域の輝度分布に基づいて、現在のシーンで画像収集に用いられるターゲットパラメータ値を決定することができる。これにより、ターゲット画像に対して人形検出を行うことで得られた人形検出結果に基づいて、現在のシーンに適する収集パラメータ値を決定することができる。従って、決定された収集パラメータに基づいて、現在のシーンに対して画像収集を行うことができる。現在のシーンが逆光又は強光シーンであっても、決定した収集パラメータ値に基づいて収集パラメータを調整し、撮られた画像に、高い顔品質を持たせ、後続の顔認識の正確率を向上させることができる。
関連技術において、逆光シーンで収集された画像フレームにおいて、画像フレームの背景輝度が大きく、画像フレームにおける顔領域が暗く、顔品質が低く、顔認識の効果に影響を与えてしまう。本開示の実施例で提供される画像処理方法は、強光、暗光及び逆光などのような撮影に不利である環境に適用し、様々な環境における顔のイメージング品質を向上させることができる。
図1は、本開示の実施例による画像処理方法を示すフローチャートである。該画像処理方法は、端末装置又は他のタイプの電子機器により実行されてもよい。ここで、端末装置は、ゲートデバイス、ユーザ装置(User Equipment:UE)、携帯機器、ユーザ端末、端末、セルラ電話、コードレス電話、パーソナルデジタルアシスタント(Personal Digital Assistant:PDA)、ハンドヘルドデバイス、コンピューティングデバイス、車載機器、ウェアブル機器などであってもよい。
幾つかの可能な実施形態において、該画像処理方法は、プロセッサによりメモリに記憶されているコンピュータ可読命令を呼び出すことで実現することができる。以下、画像処理端末を実行主体として本開示の実施例の画像処理方法を説明する。画像処理端末は、上記端末装置又は他のタイプの電子機器であってもよい。
図1に示すように、前記画像処理方法は下記ステップを含んでもよい。
S11において、現在のシーンでリアルタイムに収集されたターゲット画像に対して人形検出を行い、人形検出結果を得る。
本開示の実施例において、画像処理端末1は、現在のシーンでリアルタイムに画像収集を行い、リアルタイムに収集されたターゲット画像を得ることができる。又は、図2は、本開示の実施例による画像処理方法の一例の適用シーンを示す図である。図2に示すように、画像処理端末1は、他の装置2からネットワーク3を経由して伝送されたリアルタイムに収集又は撮像したターゲット画像を受信することで、リアルタイムに収集されたターゲット画像を得ることができる。例えば、画像収集装置(例えば、カメラ、画像センサ)、撮像装置(例えば、カメラ、モニタ)等の他の装置2によりリアルタイムに収集又は撮像されたターゲット画像を受信することで、リアルタイムに収集されたターゲット画像を得ることができる。ターゲット画像は、単独の画像であってもよく、又は、ターゲット画像は、ビデオストリームにおける1つの画像フレームであってもよい。画像処理端末は、ターゲット画像を得て、ターゲット画像に対して人形検出を行い、人形検出結果を得る。該人形検出結果は、ターゲット画像のある領域に対して検出を行うことで得られた検出結果であってもよい。例えば、顔領域の検出結果、上半身領域の検出結果であってもよい。
1つの可能な実施形態において、画像処理端末は、構築した人形検出ネットワークを利用してターゲット画像に対して人形検出を行うことができる。人形検出ネットワークは、構築したニューラルネットワークを訓練することで得られたものであってもよい。例えば、従来のニューラルネットワーク構造を利用してニューラルネットワークを構築することができる。実際の適用シーンに応じて、ニューラルネットワーク構造を設計し、ニューラルネットワークを構築することもできる。ニューラルネットワークを構築し、訓練画像を構築したニューラルネットワークに入力し、構築したニューラルネットワークを利用して訓練画像に対して人形検出を行い、人形検出結果を得る。続いて、該人形検出結果を訓練画像のアノテーション結果と比較し、比較結果を得る。比較結果を利用して、構築したニューラルネットワークのモデルパラメータを調整し、構築したニューラルネットワークモデルの人形検出結果をアノテーション結果と一致させる。従って、構築したニューラルネットワークモデルにより、人形検出ネットワークを得ることができる。ここで、強光及び暗光等のような劣悪な撮像環境で収集された画像を訓練画像とすることができる。人形検出ネットワークは、ターゲット画像の人形輪郭に対して検出を行うことができる。顔認識シーンにおいて、得られた人形検出結果は、顔領域の検出結果であってもよい。
S12において、ターゲット画像の人形検出結果に基づいて、ターゲット画像の関心領域を決定する。
本開示の実施例において、画像処理端末は、ターゲット画像の人形検出結果に基づいて、ターゲット画像に顔領域が存在するかどうかを決定することができる。ターゲット画像に顔領域が存在するかどうかに基づいて、異なる方式でターゲット画像の関心領域を決定することができる。例えば、ターゲット画像に顔領域が存在すれば、顔領域をターゲット画像の関心領域としてもよい。ターゲット画像に顔領域が存在しなければ、ターゲット画像の一部の画像領域をターゲット画像の関心領域としてもよい。例えば、上半部分の画像領域、下半部分の画像領域等の画像領域をターゲット画像の関心領域とする。ここの関心領域は、画像処理プロセスで注目される画像領域と理解されてもよい。ターゲット画像の関心領域を決定することで、該画像に対する画像処理を容易にすることができる。
1つの可能な実施形態において、前記人形検出結果が前記ターゲット画像に顔領域が存在することを表す場合、前記ターゲット画像における顔領域に基づいて、前記ターゲット画像の前記関心領域を決定する。
該実施形態において、ターゲット画像に、1つ以上の顔領域が存在してもよい。人形検出結果が、ターゲット画像に1つの顔領域が存在することを表すと、該顔領域をターゲット画像の関心領域とすることができる。人形検出結果が、ターゲット画像に複数の顔領域が存在することを表すと、複数の顔領域から少なくとも1つの顔領域を選択し、選択された少なくとも1つの顔領域をターゲット画像の関心領域とする。例えば、複数の顔領域から、ターゲット画像の中間部分に位置する少なくとも1つの顔領域を選択する。従って、ターゲット画像における顔領域により、関心領域を決定し、更に、決定された関心領域に対して更に画像処理を行うことができ、画像処理の効率及び正確率を向上させる。
該実施形態の一例において、前記ターゲット画像に複数の顔領域が存在する場合、前記複数の顔領域のうちの最大顔領域を決定し、続いて、前記最大顔領域を前記ターゲット画像の前記関心領域として決定する。
該例において、ターゲット画像に複数の顔領域が存在すると、複数の顔領域の大きさを比較し、続いて、比較結果に基づいて、複数の顔領域のうちの最大顔領域を決定し、最大顔領域をターゲット画像の関心領域とする。従って、複数の顔領域から1つの最も関心のある顔領域を関心領域として選択する。これにより、画像処理プロセスにおいて、関心領域以外の他の画像領域を考慮する必要がなく、画像処理の効率及び正確率を向上させることができる。
1つの可能な実施形態において、前記人形検出結果が前記ターゲット画像に顔領域が存在しないことを表す場合、前記ターゲット画像の中心画像領域を決定し、続いて前記中心画像領域を前記ターゲット画像の前記関心領域として決定する。
該実施形態において、画像収集プロセスで、顔領域は一般的に、ターゲット画像の中心画像領域に位置するために、人形検出により、顔領域が検出されなかった場合、ターゲット画像の中心画像領域をターゲット画像の関心領域とすることができる。例えば、ターゲット画像を複数の画像領域に分ける。例えば、ターゲット画像を9個又は25個などのような複数の領域に平均に分ける。続いて、複数の領域のうちの中心画像領域をターゲット画像の関心領域として決定する。例えば、9個の画像領域のうち、ターゲット画像の中心に位置する1つの画像領域を関心領域として決定する。これにより、ターゲット画像から顔領域が検出されなかった場合にも、ターゲット画像の関心領域を決定することもできる。更に、決定した関心領域に対して更に画像処理を行い、画像処理の効率及び正確率を向上させることができる。
本開示の実施例において、ターゲット画像の関心領域を決定し、ターゲット画像の関心領域における各画素点の輝度に基づいて、関心領域の輝度分布を得る。該輝度分布は、輝度ヒストグラム等で表されてもよい。
S13において、関心領域の輝度分布に基づいて、現在のシーンで画像収集に用いられるターゲットパラメータ値を決定する。
関心領域の輝度分布に基づいて、現在のシーンで画像収集に用いられるターゲットパラメータ値を得ることができる。該ターゲットパラメータ値は、現在の撮像環境に適するパラメータ値である。該ターゲットパラメータ値による作用下で、十分に露光された顔品質が高い画像を得ることができる。これにより、例えば、強光及び暗光など、様々な劣悪な撮像環境に適応する。
ここで、画像収集を行う時、画像収集パラメータを用いる必要がある。該画像収集パラメータは、画像収集過程で設定された撮像パラメータであってもよい。ターゲットパラメータ値は、現在のシーンでの画像収集パラメータである。画像収集パラメータ又はターゲットパラメータ値は、露光値、露光時間及びゲインのうちの1つ又は複数であってもよい。ここで、露光値は、レンズの通光能力を表すパラメータであり、可以是シャッタースピード値と絞り値との組み合わせであってもよい。露光時間は、シャッターの開放から閉鎖までの時間間隔であってもよい。ゲインは、収集されたビデオ信号を増幅する場合の倍数であってもよい。画像収集パラメータは、設定されてもよい。画像収集パラメータが異なる場合、同一のシーンで撮像を行うことで得られた画像も異なる。従って、画像収集パラメータを調整することで、画像品質が高い画像を得ることができる。
1つの可能な実施形態において、現在のシーンでのターゲットパラメータ値を決定し、前記画像収集パラメータを前記ターゲットパラメータ値に調整し、前記ターゲットパラメータ値を利用して、前記現在のシーンに対して画像収集を行う。
該実施形態において、画像処理端末は、画像収集機能を有する。現在のシーンに対して撮像を行うことができる。画像処理端末は、現在のシーンで画像収集に用いられるターゲットパラメータ値を決定し、画像収集パラメータをターゲットパラメータ値と設定し、ターゲットパラメータ値による作用下で、現在のシーンに対して引き続き撮像を行い、収集した画像を得る。該画像は、画像収集パラメータがターゲットパラメータ値である場合に得られた画像である。ターゲットパラメータ値が最適化されたパラメータ値であるため、該画像は、高い画像品質を有する。顔認識シーンにおいて、該画像は、高い顔品質を有し、後続の顔認識の速度及び正確率を向上させることができる。
ここで、画像処理端末は、画像収集機能を有しない場合、画像処理端末は、決定されたターゲットパラメータ値を画像収集装置に送信する。従って、画像収集装置は、ターゲットパラメータ値を利用して、現在のシーンに対して撮像を行うことができる。
本開示の実施例で提供される画像処理方法は、関心領域の輝度分布に基づいて、画像収集に用いられるターゲットパラメータ値を決定することができる。これにより、逆光、強光及び弱光などのシーンで撮られた顔画像の品質が低いという問題を解決することができる。本開示の実施例は、画像収集に用いられるターゲットパラメータ値の決定の実施形態を更に提供する。
図3は、本開示の実施例による画像収集に用いられるターゲットパラメータ値の決定の一例を示すフローチャートである。図3に示すように、上記ステップS13は、下記ステップを含んでもよい。
S131において、関心領域の平均輝度を決定する。
ここで、関心領域における各画素点の輝度に基づいて、関心領域の平均輝度を決定することができる。例えば、関心領域に含まれる画素点の数を統計し、続いて、関心領域における全ての画素点の輝度を加算し、関心領域の総輝度を得る。続いて、総輝度を関心領域に含まれる画素点の数で除算し、関心領域の平均輝度を得る。
1つの可能な実施形態において、前記関心領域における各画素点に対応する重みを決定し、続いて、前記関心領域における各画素点に対応する重み及び各画素点の輝度に基づいて、前記関心領域の平均輝度を決定することができる。
該実施形態において、関心領域における各画素点に対して、対応する重みを設定する。例えば、関心領域における特に注目した画像部分に含まれる画素点に対して、大きな重みを設定する。これにより、関心領域の平均輝度を決定する時、特に注目した画像部分が大きな貢献を与えるようにする。又は、関心領域における画素点に対して同一の重みを設定してもよい。例えば、関心領域が顔領域である場合、関心領域における画素点に対して、同一の重み値を設定してもよい。関心領域における各画素点に対応する重みを決定し、各画素点の輝度に対して加重加算を行い、加重加算で得られた総輝度を関心領域における画素点の重みの和で除算し、関心領域の平均輝度を得る。
該実施形態の一例において、前記人形検出結果が、前記ターゲット画像に顔が存在することを表す場合、前記関心領域における画素点と前記関心領域の領域中心との距離に基づいて、前記関心領域における各画素点に対応する重みを決定することができる。ここで、画素点と前記関心領域の領域中心との距離は、前記画素点に対応する重みと正に相関する。画素点と前記関心領域の領域中心との距離が近いほど、前記画素点に対応する重みが大きくなる。
該例において、人形検出結果が、前記ターゲット画像に顔領域が存在しないことを表すと、関心領域は、ターゲット画像の中心画像領域であってもよい。関心領域における画素点と関心領域の領域中心との距離に基づいて、関心領域における画素点に対して、対応する重みを設定する。画素点と前記関心領域の領域中心との距離は、前記画素点に対応する重みと正に相関する。例えば、領域中心に近い画素点に対して、大みな重みを設定し、領域中心に遠い画素点に対して小さな重みを設定する。つまり、中間部分に位置する画素点であるほど、重みが大きくなる。例えば、中間部分の画素点の重みは、8であり、領域中心に遠い外層部分の画素点の重みは4であり、関心領域内の最外層部分の画素点の重みは、1である。ここで、関心領域を複数の画像部分に分ける。各画像部分における画素点は、同じ重みを有してもよい。これにより、顔領域がターゲット画像の中心に位置する確率が大きいため、中間部分の画素点の重みを大きく設定し、顔領域の画素点が平均輝度に与える貢献を最大限保留する。
S132において、関心領域の輝度分布に基づいて、関心領域の境界輝度を決定する。
ここで、関心領域の輝度分布は、輝度ヒストグラムで表されてもよい。輝度ヒストグラムの横座標は、輝度値であってもよい。輝度ヒストグラムの縦座標は、輝度値に対応する画素点の数であってもよい。関心領域の輝度分布に基づいて、関心領域の境界輝度を決定することができる。該境界輝度は、1つの輝度値であってもよい。該輝度値以内に対応する画素点は、関心領域の大部分の画素点を含んでもよい。又は、該境界輝度は、1つの輝度区間であってもよい。該輝度区間内に対応する画素点は、関心領域の大部分の画素点を含んでもよい。
1つの可能な実施形態において、前記関心領域の輝度分布において、輝度参照値範囲内に対応する画素点の数を決定し、続いて前記関心領域の画素点総数のうち、前記輝度参照値範囲内に対応する画素点の数により占められる割合を決定する。前記画素点の割合が所定の割合以上である場合、前記画素点の割合が所定の割合以上である輝度参照値を前記関心領域の境界輝度として決定する。
該実施形態において、境界輝度は、1つの輝度値であってもよい。関心領域の輝度ヒストグラムについて、いずれか1つの輝度値を輝度参照値として、続いて、該輝度参照値範囲内に対応する画素点の数を統計する。該輝度参照値の範囲は、輝度ヒストグラムにおける最小輝度値から該輝度参照値までの輝度範囲であってもよい。関心領域における画素点の総数のうち、該輝度参照値範囲内に対応する画素点の数により占められる割合が所定の割合以上である場合、例えば、画素点の総数のうち、輝度参照値範囲内に対応する画素点の数により占められる割合が99%に達した場合、該輝度参照値を境界輝度として決定することができる。
S133において、関心領域の平均輝度及び境界輝度に基づいて、関心領域のターゲット輝度を決定する。
ここで、関心領域の平均輝度及び境界輝度を決定し、関心領域の平均輝度及び境界輝度に基づいて、関心領域に適するターゲット輝度を決定する。該ターゲット輝度で、関心領域における画素点が合理的な輝度値を有すると認められ、過度な露光又は露光不足による画像品質の低下が発生することがない。従って、決定されたターゲット輝度に基づいて、画像収集パラメータのターゲットパラメータ値を決定することができる。
1つの可能な実施形態において、事前設定された所望の境界輝度を取得し、続いて、前記所望の境界輝度と前記境界輝度との比を決定し、前記所望の境界輝度と前記境界輝度との比及び前記関心領域の平均輝度に基づいて、前記関心領域のターゲット輝度を決定する。
該実施形態において、所望の境界輝度は、十分な画像露光で決定された境界輝度であってもよい。実際の適用シーンに応じて設定されてもよい。事前設定された所望の境界輝度を取得し、所望の境界輝度と境界輝度との比を算出し、続いて、該比に関心領域の平均輝度を乗算することで、関心領域のターゲット輝度を得る。例えば、所望の境界輝度が200であり、関心領域の境界輝度が100であるとすれば、関心領域の平均輝度が低く、関心領域内の画像品質が低く、該関心領域に対する顔認識が困難であることを表す。これにより、所望の境界輝度200と関心領域の境界輝度100との比2に関心領域の平均輝度を乗算して、ターゲット輝度を得る。該ターゲット輝度は、平均輝度の2倍である。従って、関心領域の平均輝度がターゲット輝度に達した場合、関心領域が高い画像品質を有することを表す。更に、決定されたターゲット輝度に基づいて、画像収集パラメータのターゲットパラメータ値を決定する。これにより、ターゲットパラメータ値による作用下で、顔品質が高い画像を撮る。
S134において、輝度と画像収集パラメータとのマッピング関係に基づいて、前記ターゲット輝度に対応するターゲットパラメータ値を決定する。
ここで、画像の輝度と画像収集パラメータとの間に一定のマッピング関係が存在する。例えば、画像の露光時間が長いほど、画像の輝度が大きくなる。従って、画像の輝度と画像収集パラメータとのマッピング関係に基づいて、ターゲット輝度に対応するターゲットパラメータ値を決定することができる。例えば、露光値、露光時間及びゲインのうちの1つ又は複数を決定する。これにより、画像処理端末は、画像収集パラメータを最適な露光値に調整することができる。
本開示の実施例で提供される画像処理方法は、ターゲット画像に対して人形検出を行うことで得られた人形検出結果に基づいて、現在のシーンの画像収集に適するパラメータ値を決定する。現在のシーンが逆光又は強光シーンであっても、撮られた画像に高い顔品質を持たせ、後続の顔認識の正確率を向上させることもできる。
図4は、本開示の実施例による画像処理方法の一例を示すフローチャートである。図4に示すように、一例において、画像処理方法は、下記ステップを含んでもよい。
S301において、リアルタイムに収集されたターゲット画像を取得する。
ここで、画像処理端末は、画像収集機能を有し、現在のシーンでリアルタイムに撮像することができる。例えば、ゲートシーンにおいて、画像処理端末は、ゲートの前に位置するユーザに対してリアルタイムな画像収集を行い、ターゲット画像を得る。
S302において、人形検出ネットワークを利用してターゲット画像に対して人形検出を行い、人形検出結果を得る。
ここで、人形検出ネットワームは、構築したニューラルネットワークを訓練することで得られたものであってもよい。得られた人形検出結果は、ターゲット画像における顔領域の検出結果であってもよい。
S303において、人形検出結果に基づいて、ターゲット画像に顔領域が存在するかどうかを判定する。
S304において、ターゲット画像に顔領域が存在する場合、1つ又は複数の顔領域のうちの最大顔領域を関心領域とし、S306を実行する。
S305において、ターゲット画像に顔領域が存在しない場合、ターゲット画像の中心画像領域を関心領域とし、S306を実行する。
ここで、中心画像領域は、ターゲット画像の領域中心の所在する領域であってもよい。例えば、ターゲット画像を9個の領域に平均に分ける。ここで、中心画像領域は、9個の領域のうち、中心に位置する領域であってもよい。
S306において、関心領域に対して輝度ヒストグラム統計を行い、関心領域の輝度ヒストグラムを得る。
S307において、輝度ヒストグラムにおける画素点の輝度及び画素点に対して設定した重みに基づいて、関心領域の平均輝度を算出する。
S308において、輝度ヒストグラムに基づいて、輝度参照値範囲内の輝度分布を算出し、輝度参照値範囲内の輝度分布が関心領域の総輝度の99%に達した時、該輝度参照値を境界輝度として決定する。
S309において、境界輝度、事前設定された所望の境界輝度及び平均輝度に基づいて、ターゲット輝度を算出する。
S310において、ターゲット輝度に基づいて、設定されるべき最適な露光値及び/又はゲイン値を算出する。
ここで、比例-積分-微分(Proportion-Integral-Differential:PID)コントローラを利用して、ターゲット輝度により最適な露光値及び/又はゲイン値を得ることができる。
S311において、得られた最適な露光値及び/又はゲイン値を感光チップに設定し、S301を実行する。
ここで、画像信号処理(Image Signal Processing:ISP)ユニットにより、得られた最適な露光値及び/又はゲイン値をカメラの感光チップに設定し、続いて、最適な露光値及び/又はゲイン値を利用して、引き続き次のターゲット画像を収集する。
本開示の実施例で提供される画像処理方法は、人形検出ネットワークを利用してターゲット画像における顔領域に対して検出を行い、関心領域を決定し、続いて、ターゲット画像の関心領域における各画素点の輝度に基づいて、関心領域の輝度分布を決定し、関心領域の輝度分布に基づいて最適な露光値を得る。これにより、逆光、暗光及び強光シーンでの顔画像収集及び顔検出に好適に対処することができる。たま、付加的なコストを追加する必要がなく、ユーザ体験を向上させることができる。
本開示に言及した上記各方法の実施例は、原理や論理から逸脱しない限り、互いに組み合わせることで組み合わせた実施例を構成することができ、紙数に限りがあるため、本開示において逐一説明しないことが理解されるべきである。
なお、本開示は、画像処理装置、電子機器、コンピュータ可読記憶媒体及びプログラムを更に提供する。上記はいずれも、本開示で提供されるいずれか1つのビデオ処理方法を実現させるためのものである。対応する技術的解決手段及び説明は、方法に関連する記述を参照されたい。ここで、詳細な説明を省略する。
具体的な実施形態の上記方法において、各ステップの記述順番は、厳しい実行順番として実施過程を限定するものではなく、各ステップの具体的な実行順番はその機能及び考えられる内在的論理により決まることは、当業者であれば理解すべきである。
図5は、本開示の実施例による画像処理装置を示すブロック図である。図5に示すように、前記画像処理装置は、
現在のシーンでリアルタイムに収集されたターゲット画像に対して人形検出を行い、人形検出結果を得るように構成される検出モジュール41と、
前記ターゲット画像の人形検出結果に基づいて、前記ターゲット画像の関心領域を決定するように構成される第1決定モジュール42と、
前記関心領域の輝度分布に基づいて、現在のシーンで画像収集に用いられるターゲットパラメータ値を決定するように構成される第2決定モジュール43と、を備える。
1つの可能な実施形態において、前記第1決定モジュール42は更に、
前記人形検出結果が前記ターゲット画像に顔領域が存在することを表す場合、前記ターゲット画像における顔領域に基づいて、前記ターゲット画像の前記関心領域を決定するように構成される。
1つの可能な実施形態において、前記第1決定モジュール42は更に、
前記ターゲット画像に複数の顔領域が存在する場合、前記複数の顔領域のうちの最大顔領域を決定し、
前記最大顔領域を前記ターゲット画像の前記関心領域として決定するように構成される。
1つの可能な実施形態において、前記第1決定モジュール42は更に、
前記人形検出結果が前記ターゲット画像に顔領域が存在しないことを表す場合、前記ターゲット画像の中心画像領域を決定し、
前記中心画像領域を前記ターゲット画像の前記関心領域として決定するように構成される。
1つの可能な実施形態において、前記第1決定モジュール42は更に、前記ターゲット画像の人形検出結果に基づいて、前記ターゲット画像の関心領域を決定した後、且つ、前記関心領域の輝度分布に基づいて、前記現在のシーンで画像収集に用いられるターゲットパラメータ値を決定する前に、前記ターゲット画像の関心領域における各画素点の輝度に基づいて、前記関心領域の輝度分布を決定するように構成される。
1つの可能な実施形態において、前記第2決定モジュール43は更に、
前記関心領域の平均輝度を決定し、
前記関心領域の輝度分布に基づいて、前記関心領域の境界輝度を決定し、
前記関心領域の平均輝度及び前記境界輝度に基づいて、前記関心領域のターゲット輝度を決定し、
輝度と画像収集パラメータとのマッピング関係に基づいて、前記ターゲット輝度に対応するターゲットパラメータ値を決定するように構成される。
1つの可能な実施形態において、前記第2決定モジュール43は更に、
前記関心領域における各画素点に対応する重みを決定し、
前記関心領域における各画素点に対応する重み及び各画素点の輝度に基づいて、前記関心領域の平均輝度を決定するように構成される。
1つの可能な実施形態において、前記第2決定モジュール43は更に、
前記関心領域における画素点と前記関心領域の領域中心との距離に基づいて、前記関心領域における各画素点に対応する重みを決定するように構成され、画素点と前記関心領域の領域中心との距離は、前記画素点に対応する重みと正に相関する。
1つの可能な実施形態において、前記第2決定モジュール43は更に、
前記関心領域の輝度分布において、輝度参照値範囲内に対応する画素点の数を決定するように構成され、前記輝度参照値範囲は、前記輝度分布における最小輝度値から輝度参照値までの輝度範囲であり、前記輝度参照値は、前記輝度分布におけるいずれか1つの輝度値であり、
前記第2決定モジュール43は更に、前記関心領域の画素点総数のうち、前記輝度参照値範囲内に対応する画素点の数により占められる割合を決定し、
前記画素点割合が所定の割合以上である場合、前記輝度参照値を前記関心領域の境界輝度として決定するように構成される。
1つの可能な実施形態において、前記第2決定モジュール43は更に、
事前設定された所望の境界輝度を取得し、
前記所望の境界輝度と前記境界輝度との比を決定し、
前記所望の境界輝度と前記境界輝度との比及び前記関心領域の平均輝度に基づいて、前記関心領域のターゲット輝度を決定するように構成される。
1つの可能な実施形態において、前記装置は、
前記ターゲットパラメータ値を用いて、前記現在のシーンに対して画像収集を行うように構成される収集モジュールを更に備える。
1つの可能な実施形態において、前記ターゲットパラメータ値は、
露光値、露光時間及びゲインのうちの少なくとも1つを含む。
幾つかの実施例において、本開示の実施例で提供される装置における機能及びモジュールは、上記方法実施例に記載の方法を実行するために用いられ、具体的な実施形態は上記方法実施例の説明を参照されたい。簡潔化のために、ここで詳細な説明を省略する。
本開示の実施例はコンピュータ可読記憶媒体を更に提供する。該コンピュータ可読記憶媒体にはコンピュータプログラム命令が記憶されており、前記コンピュータプログラム命令がプロセッサにより実行される時、上記方法を実現させる。コンピュータ可読記憶媒体は不揮発性コンピュータ可読記憶媒体であってもよい。
本開示の実施例は電子機器を更に提供する。該電子機器は、プロセッサと、プロセッサによる実行可能な命令を記憶するように構成されるメモリと、を備え、プロセッサは、上記方法を実行するように構成される。
電子機器は、端末、サーバ又は他の形態の機器として提供されてもよい。
図6は一例示的な実施例による電子機器800を示すブロック図である。例えば、電子機器800は、携帯電話、コンピュータ、デジタル放送端末、メッセージング装置、ゲームコンソール、タブレットデバイス、医療機器、フィットネス機器、パーソナルデジタルアシスタントなどの端末であってもよい。
図6を参照すると、電子機器800は、処理コンポーネント802、メモリ804、電源コンポーネント806、マルチメディアコンポーネント808、オーディオコンポーネント810、入力/出力(Input Output:I/O)インタフェース812、センサコンポーネント814及び通信コンポーネント816のうちの1つ又は複数を備えてもよい。
処理コンポーネント802は一般的には、電子機器800の全体操作を制御する。例えば、表示、通話呼、データ通信、カメラ操作及び記録操作に関連する操作を制御する。処理コンポーネント802は、指令を実行するための1つ又は複数のプロセッサ820を備えてもよい。それにより上記方法の全て又は一部のステップを実行する。なお、処理コンポーネント802は、他のユニットとのインタラクションのために、1つ又は複数のモジュールを備えてもよい。例えば、処理コンポーネント802はマルチメディアモジュールを備えることで、マルチメディアコンポーネント808と処理コンポーネント802とのインタラクションに寄与する。
メモリ804は、各種のデータを記憶することで電子機器800における操作をサポートするように構成される。これらのデータの例として、電子機器800上で操作れる如何なるアプリケーション又は方法の命令、連絡先データ、電話帳データ、メッセージ、イメージ、ビデオ等を含む。メモリ804は任意のタイプの揮発性または不揮発性記憶装置、あるいはこれらの組み合わせにより実現される。例えば、スタティックランダムアクセスメモリ(SRAM)、電気的消去可能なプログラマブル読み出し専用メモリ(EEPROM)、電気的に消去可能なプログラマブル読出し専用メモリ(EPROM)、プログラマブル読出し専用メモリ(PROM)、読出し専用メモリ(ROM)、磁気メモリ、フラッシュメモリ、磁気もしくは光ディスクを含む。
電源コンポーネント806は電子機器800の様々なユニットに電力を提供する。電源コンポーネント806は、電源管理システム、1つ又は複数の電源、及び電子機器800のための電力生成、管理、分配に関連する他のユニットを備えてもよい。
マルチメディアコンポーネント808は、上記電子機器800とユーザとの間に出力インタフェースを提供するためのスクリーンを備える。幾つかの実施例において、スクリーンは、液晶ディスプレイ(LCD)及びタッチパネル(TP)を含む。スクリーンは、タッチパネルを含むと、タッチパネルとして実現され、ユーザからの入力信号を受信する。タッチパネルは、タッチ、スライド及びパネル上のジェスチャを感知する1つ又は複数のタッチセンサを備える。上記タッチセンサは、タッチ又はスライド動作の境界を感知するだけでなく、上記タッチ又はスライド操作に関連する持続時間及び圧力を検出することもできる。幾つかの実施例において、マルチメディアコンポーネント808は、フロントカメラ及び/又はリアカメラを備える。電子機器800が、撮影モード又はビデオモードのような操作モードであれば、フロントカメラ及び/又はリアカメラは外部からのマルチメディアデータを受信することができる。各フロントカメラ及びリアカメラは固定した光学レンズシステム又は焦点及び光学ズーム能力を持つものであってもよい。
オーディオコンポーネント810は、オーディオ信号を出力及び/又は入力するように構成される。例えば、オーディオコンポーネント810は、マイクロホン(MIC)を備える。電子機器800が、通話モード、記録モード及び音声識別モードのような操作モードであれば、マイクロホンは、外部からのオーディオ信号を受信するように構成される。受信したオーディオ信号を更にメモリ804に記憶するか、又は通信コンポーネント816を経由して送信することができる。幾つかの実施例において、オーディオコンポーネント810は、オーディオ信号を出力するように構成されるスピーカーを更に備える。
I/Oインタフェース812は、処理コンポーネント802と周辺インタフェースモジュールとの間のインタフェースを提供する。上記周辺インタフェースモジュールは、キーボード、クリックホイール、ボタン等であってもよい。これらのボタンは、ホームボダン、ボリュームボタン、スタートボタン及びロックボタンを含むが、これらに限定されない。
センサコンポーネント814は、1つ又は複数のセンサを備え、電子機器800のために様々な状態の評価を行うように構成される。例えば、センサコンポーネント814は、電子機器800のオン/オフ状態、ユニットの相対的な位置決めを検出することができる。例えば、上記ユニットが電子機器800のディスプレイ及びキーパッドである。センサコンポーネント814は電子機器800又は電子機器800における1つのユニットの位置の変化、ユーザと電子機器800との接触の有無、電子機器800の方位又は加速/減速及び電子機器800の温度の変動を検出することもできる。センサコンポーネント814は近接センサを備えてもよく、いかなる物理的接触もない場合に周囲の物体の存在を検出するように構成される。センサコンポーネント814は、CMOS又はCCD画像センサのような光センサを備えてもよく、結像に適用されるように構成される。幾つかの実施例において、該センサコンポーネント814は、加速度センサ、ジャイロセンサ、磁気センサ、圧力センサ又は温度センサを備えてもよい。
通信コンポーネント816は、電子機器800と他の機器との有線又は無線方式の通信に寄与するように構成される。電子機器800は、WiFi、2G又は3G、又はそれらの組み合わせのような通信規格に基づいた無線ネットワークにアクセスできる。一例示的な実施例において、通信コンポーネント816は放送チャネルを経由して外部放送チャネル管理システムからの放送信号又は放送関連する情報を受信する。一例示的な実施例において、上記通信コンポーネント816は、近接場通信(NFC)モジュールを更に備えることで近距離通信を促進する。例えば、NFCモジュールは、無線周波数識別(RFID)技術、赤外線データ協会(IrDA)技術、超広帯域(UWB)技術、ブルートゥース(登録商標)(BT)技術及び他の技術に基づいて実現される。
例示的な実施例において、電子機器800は、1つ又は複数の特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)、デジタル信号処理機器(DSPD)、プログラマブルロジックデバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)、コントローラ、マイクロコントローラ、マイクロプロセッサ又は他の電子素子により実現され、上記方法を実行するように構成されてもよい。
例示的な実施例において、コンピュータプログラム命令を記憶したメモリ804のような不揮発性コンピュータ可読記憶媒体を更に提供する。上記コンピュータプログラム命令は、電子機器800のプロセッサ820により実行され上記方法を完了する。
本開示は、システム、方法及び/又はコンピュータプログラム製品であってもよい。コンピュータプログラム製品は、コンピュータ可読記憶媒体を備えてもよく、プロセッサに本開示の各態様を実現させるためのコンピュータ可読プログラム命令がそれに記憶されている。
コンピュータ可読記憶媒体は、命令実行装置に用いられる命令を保持又は記憶することができる有形装置であってもよい。コンピュータ可読記憶媒体は、例えば、電気記憶装置、磁気記憶装置、光記憶装置、電磁記憶装置、半導体記憶装置又は上記の任意の組み合わせであってもよいが、これらに限定されない。コンピュータ可読記憶媒体のより具体的な例(非網羅的なリスト)は、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、消去可能なプログラマブル読み出し専用メモリ(EPROM又はフラッシュ)、スタティックランダムアクセスメモリ(SRAM)、ポータブルコンパクトディスク読み出し専用メモリ(CD-ROM)、デジタル多目的ディスク(DVD)、メモリスティック、フレキシブルディスク、命令が記憶されているパンチカード又は凹溝内における突起構造のような機械的符号化装置、及び上記任意の適切な組み合わせを含む。ここで用いられるコンピュータ可読記憶媒体は、電波もしくは他の自由に伝搬する電磁波、導波路もしくは他の伝送媒体を通って伝搬する電磁波(例えば、光ファイバケーブルを通過する光パルス)、または、電線を通して伝送される電気信号などの、一時的な信号それ自体であると解釈されるべきではない。
ここで説明されるコンピュータ可読プログラム命令を、コンピュータ可読記憶媒体から各コンピューティング/処理装置にダウンロードすることができるか、又は、インターネット、ローカルエリアネットワーク、ワイドエリアネットワーク及び/又は無線ネットワークのようなネットワークを経由して外部コンピュータ又は外部記憶装置にダウンロードすることができる。ネットワークは、伝送用銅線ケーブル、光ファイバー伝送、無線伝送、ルータ、ファイアウォール、交換機、ゲートウェイコンピュータ及び/又はエッジサーバを含んでもよい。各コンピューティング/処理装置におけるネットワークインターフェースカード又はネットワークインタフェースは、ネットワークからコンピュータ可読プログラム命令を受信し、該コンピュータ可読プログラム命令を転送し、各コンピューティング/処理装置におけるコンピュータ可読記憶媒体に記憶する。
本開示の操作を実行するためのコンピュータ可読プログラム命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又は1つ又は複数のプログラミング言語で記述されたソースコード又はターゲットコードであってもよい。前記プログラミング言語は、Smalltalk、C++などのようなオブジェクト指向プログラミング言語と、「C」プログラミング言語又は類似したプログラミング言語などの従来の手続型プログラミング言語とを含む。コンピュータ可読プログラム命令は、ユーザコンピュータ上で完全に実行してもよく、ユーザコンピュータ上で部分的に実行してもよく、独立したソフトウェアパッケージとして実行してもよく、ユーザコンピュータ上で部分的に実行してリモートコンピュータ上で部分的に実行してもよく、又はリモートコンピュータ又はサーバ上で完全に実行してもよい。リモートコンピュータの場合に、リモートコンピュータは、任意の種類のネットワーク(ローカルエリアネットワーク(LAN)やワイドエリアネットワーク(WAN)を含む)を通じてユーザのコンピュータに接続するか、または、外部のコンピュータに接続することができる(例えばインターネットサービスプロバイダを用いてインターネットを通じて接続する)。幾つかの実施例において、コンピュータ可読プログラム命令の状態情報を利用して、プログラマブル論理回路、フィールドプログラマブルゲートアレイ(FPGA)又はプログラマブル論理アレイ(PLA)のような電子回路をカスタマイズする。該電子回路は、コンピュータ可読プログラム命令を実行することで、本開示の各態様を実現させることができる。
ここで、本開示の実施例の方法、装置(システム)及びコンピュータプログラム製品のフローチャート及び/又はブロック図を参照しながら、本開示の各態様を説明する。フローチャート及び/又はブロック図の各ブロック及びフローチャート及び/又はブロック図における各ブロックの組み合わせは、いずれもコンピュータ可読プログラム命令により実現できる。
これらのコンピュータ可読プログラム命令は、汎用コンピュータ、専用コンピュータまたはその他プログラマブルデータ処理装置のプロセッサに提供でき、それによって機器を生み出し、これら命令はコンピュータまたはその他プログラマブルデータ処理装置のプロセッサにより実行される時、フローチャート及び/又はブロック図における1つ又は複数のブロック中で規定している機能/操作を実現する装置を生み出した。これらのコンピュータ可読プログラム命令をコンピュータ可読記憶媒体に記憶してもよい。これらの命令によれば、コンピュータ、プログラマブルデータ処理装置及び/又は他の装置は特定の方式で動作する。従って、命令が記憶されているコンピュータ可読記憶媒体は、フローチャート及び/又はブロック図おける1つ又は複数のブロック中で規定している機能/操作を実現する各態様の命令を含む製品を備える。
コンピュータ可読プログラム命令をコンピュータ、他のプログラマブルデータ処理装置又は他の装置にロードしてもよい。これにより、コンピュータ、他のプログラマブルデータ処理装置又は他の装置で一連の操作の工程を実行して、コンピュータで実施されるプロセスを生成する。従って、コンピュータ、他のプログラマブルデータ処理装置又は他の装置で実行される命令により、フローチャート及び/又はブロック図における1つ又は複数のブロック中で規定している機能/操作を実現させる。
図面におけるフローチャート及びブック図は、本開示の複数の実施例によるシステム、方法及びコンピュータプログラム製品の実現可能なアーキテクチャ、機能および操作を例示するものである。この点で、フローチャート又はブロック図における各ブロックは、1つのモジュール、プログラムセグメント又は命令の一部を表すことができる。前記モジュール、プログラムセグメント又は命令の一部は、1つまたは複数の所定の論理機能を実現するための実行可能な命令を含む。いくつかの取り替えとしての実現中に、ブロックに表記される機能は図面中に表記される順序と異なる順序で発生することができる。例えば、二つの連続するブロックは実際には基本的に並行して実行でき、場合によっては反対の順序で実行することもでき、これは関係する機能から確定する。ブロック図及び/又はフローチャートにおける各ブロック、及びブロック図及び/又はフローチャートにおけるブロックの組み合わせは、所定の機能又は操作を実行するための専用ハードウェアベースシステムにより実現するか、又は専用ハードウェアとコンピュータ命令の組み合わせにより実現することができる。
以上は本発明の各実施例を説明したが、前記説明は例示的なものであり、網羅するものではなく、且つ開示した各実施例に限定されない。説明した各実施例の範囲と趣旨から脱逸しない場合、当業者にとって、多くの修正及び変更は容易に想到しえるものである。本明細書に用いられる用語の選択は、各実施例の原理、実際の応用、或いは市場における技術の改善を最もよく解釈すること、或いは他の当業者が本明細書に開示された各実施例を理解できることを目的とする。
本開示の実施例において、現在のシーンでリアルタイムに収集されたターゲット画像を取得し、続いて、ターゲット画像に対して人形検出を行い、人形検出結果を得る。更に、ターゲット画像の人形検出結果に基づいて、ターゲット画像の関心領域を決定する。最後に、決定された関心領域の輝度分布に基づいて、現在のシーンで画像収集に用いられるターゲットパラメータ値を決定する。従って、逆光又は強光等のシーンであっても、ターゲット画像に対して人形検出を行うことで得られた人形検出結果に基づいて、現在のシーンにおける好適な収集パラメータ値を決定することもできる。これにより、画像収集装置は、決定した収集パラメータ値に基づいて、現在のシーンに対して画像収集を行い、収集した画像フレームに、高い顔品質を持たせ、後続の顔認識の正確率を向上させることができる。

Claims (13)

  1. 画像処理方法であって、
    現在のシーンでリアルタイムに収集されたターゲット画像に対して人形検出を行い、人形検出結果を得ることと、
    前記ターゲット画像の人形検出結果に基づいて、前記ターゲット画像の関心領域を決定することと、
    前記関心領域の輝度分布に基づいて、現在のシーンで画像収集に用いられるターゲットパラメータ値を決定すること
    を含み、
    前記関心領域の輝度分布に基づいて、前記現在のシーンで画像収集に用いられるターゲットパラメータ値を決定することは、
    前記関心領域の平均輝度を決定することと、
    前記関心領域の輝度分布に基づいて、前記関心領域の境界輝度を決定することと、
    前記関心領域の平均輝度及び前記境界輝度に基づいて、前記関心領域のターゲット輝度を決定することと、
    輝度と画像収集パラメータとのマッピング関係に基づいて、前記ターゲット輝度に対応するターゲットパラメータ値を決定することと
    を含む、画像処理方法。
  2. 前記ターゲット画像の人形検出結果に基づいて、前記ターゲット画像の関心領域を決定することは、
    前記人形検出結果が前記ターゲット画像に顔領域が存在することを表す場合、前記ターゲット画像における顔領域に基づいて、前記ターゲット画像の前記関心領域を決定することを含む請求項1に記載の画像処理方法。
  3. 前記ターゲット画像における顔領域に基づいて、前記ターゲット画像の前記関心領域を決定することは、
    前記ターゲット画像に複数の顔領域が存在する場合、前記複数の顔領域のうちの最大顔領域を決定することと、
    前記最大顔領域を前記ターゲット画像の前記関心領域として決定すること
    を含む請求項2に記載の画像処理方法。
  4. 前記ターゲット画像の人形検出結果に基づいて、前記ターゲット画像の前記関心領域を決定することは、
    前記人形検出結果が前記ターゲット画像に顔領域が存在しないことを表す場合、前記ターゲット画像の中心画像領域を決定することと、
    前記中心画像領域を前記ターゲット画像の前記関心領域として決定すること
    を含む請求項1に記載の画像処理方法。
  5. 前記画像処理方法は、
    前記ターゲット画像の人形検出結果に基づいて、前記ターゲット画像の関心領域を決定した後、且つ、前記関心領域の輝度分布に基づいて、前記現在のシーンで画像収集に用いられるターゲットパラメータ値を決定する前に、
    前記ターゲット画像の関心領域における各画素点の輝度に基づいて、前記関心領域の輝度分布を決定することを更に含む請求項1に記載の画像処理方法。
  6. 前記関心領域の平均輝度を決定することは、
    前記関心領域における各画素点に対応する重みを決定することと、
    前記関心領域における各画素点に対応する重み及び各画素点の輝度に基づいて、前記関心領域の平均輝度を決定すること
    を含む請求項に記載の画像処理方法。
  7. 前記関心領域における各画素点に対応する重みを決定することは、
    前記関心領域における画素点と前記関心領域の領域中心との距離に基づいて、前記関心領域における各画素点に対応する重みを決定することであって、画素点と前記関心領域の領域中心との距離は、前記画素点に対応する重みと正に相関する、ことを含む請求項に記載の画像処理方法。
  8. 前記関心領域の輝度分布に基づいて、前記関心領域の境界輝度を決定することは、
    前記関心領域の輝度分布において、輝度参照値範囲内に対応する画素点の数を決定することであって、前記輝度参照値範囲は、前記輝度分布における最小輝度値から輝度参照値までの輝度範囲であり、前記輝度参照値は、前記輝度分布におけるいずれか1つの輝度値である、ことと、
    前記関心領域の画素点総数のうち、前記輝度参照値範囲内に対応する画素点の数により占められる割合を決定することと、
    前記画素点割合が所定の割合以上である場合、前記輝度参照値を前記関心領域の境界輝度として決定すること
    を含む請求項に記載の画像処理方法。
  9. 前記関心領域の平均輝度及び前記境界輝度に基づいて、前記関心領域のターゲット輝度を決定することは、
    事前設定された所望の境界輝度を取得することと、
    前記所望の境界輝度と前記境界輝度との比を決定することと、
    前記所望の境界輝度と前記境界輝度との比及び前記関心領域の平均輝度に基づいて、前記関心領域のターゲット輝度を決定すること
    を含む請求項に記載の画像処理方法。
  10. 前記画像処理方法は、前記ターゲットパラメータ値を用いて、前記現在のシーンに対して画像収集を行うことを更に含み、
    前記ターゲットパラメータ値は、露光値、露光時間及びゲインのうちの少なくとも1つを含む請求項19のうちいずれか一項に記載の画像処理方法。
  11. 画像処理装置であって、
    現在のシーンでリアルタイムに収集されたターゲット画像に対して人形検出を行い、人形検出結果を得るように構成されている検出モジュールと、
    前記ターゲット画像の人形検出結果に基づいて、前記ターゲット画像の関心領域を決定するように構成されている第1決定モジュールと、
    前記関心領域の平均輝度を決定し、前記関心領域の輝度分布に基づいて、前記関心領域の境界輝度を決定し、前記関心領域の平均輝度及び前記境界輝度に基づいて、前記関心領域のターゲット輝度を決定し、輝度と画像収集パラメータとのマッピング関係に基づいて、現在のシーンで画像収集に用いられるターゲットパラメータ値を決定するように構成されている第2決定モジュール
    を備える、画像処理装置。
  12. 電子機器であって、
    プロセッサによる実行可能な命令を記憶するためのメモリと、
    前記メモリに記憶された命令を呼び出して、請求項1~10のうちいずれか一項に記載の画像処理方法を実行するように構成されているプロセッサ
    を備える電子機器。
  13. 求項1~10のうちいずれか一項に記載の画像処理方法を実行することをコンピュータに行わせるためのコンピュータプログラム命令を記憶したコンピュータ読み取り可能な記憶媒体。
JP2021514431A 2019-09-16 2020-06-30 画像処理方法及び装置、電子機器並びに記憶媒体 Active JP7152598B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910872325.1A CN110569822A (zh) 2019-09-16 2019-09-16 图像处理方法及装置、电子设备和存储介质
CN201910872325.1 2019-09-16
PCT/CN2020/099580 WO2021051949A1 (zh) 2019-09-16 2020-06-30 一种图像处理方法及装置、电子设备和存储介质

Publications (2)

Publication Number Publication Date
JP2022502893A JP2022502893A (ja) 2022-01-11
JP7152598B2 true JP7152598B2 (ja) 2022-10-12

Family

ID=68780166

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021514431A Active JP7152598B2 (ja) 2019-09-16 2020-06-30 画像処理方法及び装置、電子機器並びに記憶媒体

Country Status (7)

Country Link
US (1) US20220076006A1 (ja)
JP (1) JP7152598B2 (ja)
KR (1) KR20210065180A (ja)
CN (1) CN110569822A (ja)
SG (1) SG11202112936XA (ja)
TW (1) TWI755833B (ja)
WO (1) WO2021051949A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110569822A (zh) * 2019-09-16 2019-12-13 深圳市商汤科技有限公司 图像处理方法及装置、电子设备和存储介质
CN113051978A (zh) * 2019-12-27 2021-06-29 广州慧睿思通科技股份有限公司 一种人脸识别方法、电子设备以及可读介质
CN111582036B (zh) * 2020-04-09 2023-03-07 天津大学 可穿戴设备下基于形状和姿态的跨视角人物识别方法
CN112752031B (zh) * 2020-07-31 2024-02-06 腾讯科技(深圳)有限公司 图像采集检测方法、装置、电子设备及存储介质
CN112101139B (zh) * 2020-08-27 2024-05-03 普联国际有限公司 人形检测方法、装置、设备及存储介质
CN112616028A (zh) * 2020-12-15 2021-04-06 深兰人工智能(深圳)有限公司 车载相机参数调整方法、装置、电子设备及存储介质
CN112733650B (zh) * 2020-12-29 2024-05-07 深圳云天励飞技术股份有限公司 目标人脸检测方法、装置、终端设备及存储介质
CN112800969B (zh) * 2021-01-29 2022-04-19 深圳市爱深盈通信息技术有限公司 图像质量调节方法和系统、ai处理方法、门禁系统
CN114845062B (zh) * 2022-04-29 2024-04-02 深圳市联洲国际技术有限公司 图像的处理方法、非易失性存储介质、处理器与电子设备
CN115086632B (zh) * 2022-05-23 2024-05-31 奥比中光科技集团股份有限公司 三维图像系统、图像传感器的增益调节方法及存储介质
CN115601327B (zh) * 2022-10-18 2023-10-10 上海宇佑船舶科技有限公司 主推进柴油机组的故障检测方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007251558A (ja) 2006-03-15 2007-09-27 Omron Corp 画像処理装置および画像処理方法、並びにプログラム
JP2010177779A (ja) 2009-01-27 2010-08-12 Canon Inc 撮像装置、制御方法、及びプログラム
CN106791472A (zh) 2016-12-29 2017-05-31 努比亚技术有限公司 一种曝光方法及终端

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4402710B2 (ja) * 2007-09-18 2010-01-20 オリンパス株式会社 撮像装置
CN101399924B (zh) * 2007-09-25 2010-05-19 展讯通信(上海)有限公司 基于亮度直方图的自动曝光方法和装置
CN101247479B (zh) * 2008-03-26 2010-07-07 北京中星微电子有限公司 一种基于图像中目标区域的自动曝光方法
JP6259185B2 (ja) * 2012-12-21 2018-01-10 キヤノン株式会社 撮像装置及びその制御方法、プログラム並びに記憶媒体
CN104038704B (zh) * 2014-06-12 2018-08-07 小米科技有限责任公司 逆光人像场景的拍摄处理方法及装置
CN107343156B (zh) * 2017-07-10 2020-03-13 Oppo广东移动通信有限公司 人脸区域自动曝光控制的调整方法和装置
CN107197170A (zh) * 2017-07-14 2017-09-22 维沃移动通信有限公司 一种曝光控制方法及移动终端
US10990778B2 (en) * 2017-10-30 2021-04-27 Electronics And Telecommunications Research Institute Apparatus and method for recognizing barcode based on image detection
CN108462832A (zh) * 2018-03-19 2018-08-28 百度在线网络技术(北京)有限公司 用于获取图像的方法及装置
CN109308687A (zh) * 2018-09-06 2019-02-05 百度在线网络技术(北京)有限公司 用于调节图像亮度的方法和装置
CN109472738B (zh) * 2018-10-26 2024-03-08 深圳市商汤科技有限公司 图像光照校正方法及装置、电子设备和存储介质
CN110099222B (zh) * 2019-05-17 2021-05-07 睿魔智能科技(深圳)有限公司 一种拍摄设备的曝光调整方法、装置、存储介质及设备
CN110569822A (zh) * 2019-09-16 2019-12-13 深圳市商汤科技有限公司 图像处理方法及装置、电子设备和存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007251558A (ja) 2006-03-15 2007-09-27 Omron Corp 画像処理装置および画像処理方法、並びにプログラム
JP2010177779A (ja) 2009-01-27 2010-08-12 Canon Inc 撮像装置、制御方法、及びプログラム
CN106791472A (zh) 2016-12-29 2017-05-31 努比亚技术有限公司 一种曝光方法及终端

Also Published As

Publication number Publication date
TW202113670A (zh) 2021-04-01
WO2021051949A1 (zh) 2021-03-25
US20220076006A1 (en) 2022-03-10
SG11202112936XA (en) 2021-12-30
JP2022502893A (ja) 2022-01-11
KR20210065180A (ko) 2021-06-03
TWI755833B (zh) 2022-02-21
CN110569822A (zh) 2019-12-13

Similar Documents

Publication Publication Date Title
JP7152598B2 (ja) 画像処理方法及び装置、電子機器並びに記憶媒体
WO2021196401A1 (zh) 图像重建方法及装置、电子设备和存储介质
TWI773945B (zh) 錨點確定方法、電子設備和儲存介質
US9674395B2 (en) Methods and apparatuses for generating photograph
CN106408603B (zh) 拍摄方法及装置
CN111340731B (zh) 图像处理方法及装置、电子设备和存储介质
CN104811609A (zh) 拍摄参数调整方法和装置
CN110580688B (zh) 一种图像处理方法、装置、电子设备及存储介质
US20230111361A1 (en) Method and apparatus for processing video data
WO2020114236A1 (zh) 关键点检测方法、装置、电子设备及存储介质
WO2017000491A1 (zh) 获取虹膜图像的方法、装置及红膜识别设备
CN108040204B (zh) 一种基于多摄像头的图像拍摄方法、装置及存储介质
JP2021175172A (ja) 画像撮影方法、画像撮影装置および記憶媒体
TW202230277A (zh) 目標對象曝光方法、儲存介質及電子設備
CN109376674B (zh) 人脸检测方法、装置及存储介质
CN109447258B (zh) 神经网络模型的优化方法及装置、电子设备和存储介质
CN112669231B (zh) 图像处理方法、图像处理模型的训练方法、装置、介质
CN111416936B (zh) 图像处理方法、装置、电子设备及存储介质
CN111507131B (zh) 活体检测方法及装置、电子设备和存储介质
CN110110742B (zh) 多特征融合方法、装置、电子设备及存储介质
CN113506321B (zh) 图像处理方法及装置、电子设备和存储介质
CN114338956B (zh) 图像处理方法、图像处理装置及存储介质
JP7339939B2 (ja) 撮影プレビュー画像を表示する方法、装置及び記憶媒体
CN116843603A (zh) 一种图像处理方法及装置、电子设备、存储介质
CN110910304B (zh) 图像处理方法、装置、电子设备及介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210315

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210315

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220512

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220902

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220929

R150 Certificate of patent or registration of utility model

Ref document number: 7152598

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150