JP2019212275A - 画像処理方法、画像処理装置および電子機器 - Google Patents

画像処理方法、画像処理装置および電子機器 Download PDF

Info

Publication number
JP2019212275A
JP2019212275A JP2018225453A JP2018225453A JP2019212275A JP 2019212275 A JP2019212275 A JP 2019212275A JP 2018225453 A JP2018225453 A JP 2018225453A JP 2018225453 A JP2018225453 A JP 2018225453A JP 2019212275 A JP2019212275 A JP 2019212275A
Authority
JP
Japan
Prior art keywords
image
noise reduction
network
detail enhancement
detail
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018225453A
Other languages
English (en)
Other versions
JP6803899B2 (ja
Inventor
▲海▼斌 ▲黄▼
▲海▼斌 ▲黄▼
Hai Bin Huang
奇豪 巫
qi hao Wu
奇豪 巫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Kuangshi Technology Co Ltd
Original Assignee
Beijing Kuangshi Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Kuangshi Technology Co Ltd filed Critical Beijing Kuangshi Technology Co Ltd
Publication of JP2019212275A publication Critical patent/JP2019212275A/ja
Application granted granted Critical
Publication of JP6803899B2 publication Critical patent/JP6803899B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/60Image enhancement or restoration using machine learning, e.g. neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/62Detection or reduction of noise due to excess charges produced by the exposure, e.g. smear, blooming, ghost image, crosstalk or leakage between pixels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20182Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Geometry (AREA)

Abstract

【課題】画像処理技術分野に関し、画像処理方法、装置及び電子機器を提供する。【解決手段】画像処理方法は、処理待ち画像に対してノイズリダクション処理を行ってノイズリダクション画像を生成し、ノイズリダクション画像から抽出された対象領域画像に対してディテール強化処理を行ってディテール強化画像を生成し、ノイズリダクション画像をディテール強化画像と融合させて出力画像を得る。【効果】対象領域画像に対してディテール強化処理を行うため、得られる出力画像はより鮮鋭であり、表示効果がより良好になる。【選択図】図2

Description

本開示は、画像処理技術分野に関し、特に、画像処理方法、装置、および電子機器に関する。
光が足りない場合には、スマートフォンのような電子機器によって撮影された画像には、局所的なノイズが多く、撮影対象物のディテールが失われることがしばしば発生する。電子機器によって暗い環境で撮影された写真の場合、現在の画像処理技術は通常、ノイズリダクション方法を使用して画像内のノイズの一部を除去するが、既存のノイズリダクション方法によると、スミアの感じが強くて、画像の重要な部分のディーテルを復元することができないため、画像の歪みを引き起こす可能性がある。
そこで、本開示の目的は、画像の鮮鋭度を向上させ、既存のノイズリダクション方法による画像の歪みを改善することができる画像処理方法、装置及び電子機器を提供することである。
上記目的を達成するために、本開示は、以下の技術案を提供する。
第1方面では、本開示の一実施形態は、
処理待ち画像に対してノイズリダクション処理を行ってノイズリダクション画像を生成するステップと、
前記ノイズリダクション画像から撮影対象物に対応する対象領域画像を抽出するステップと、
前記対象領域画像に対してディテール強化処理を行ってディテール強化画像を生成するステップと、
前記ノイズリダクション画像を前記ディテール強化画像と融合させて出力画像を取得するステップと
を含む、画像処理方法を提供する。
第1方面を参照する上で、本開示の実施例は第1方面の第1の可能な実施態様を提供する。前記処理待ち画像に対してノイズリダクション処理を行ってノイズリダクション画像を生成するステップは、
前記処理待ち画像をノイズリダクションネットワークに入力して前記ノイズリダクションネットワークの出力を前記ノイズリダクション画像とすることを含み、前記ノイズリダクションネットワークは、畳み込み-逆畳み込みニューラルネットワークを利用し、前記ノイズリダクション画像と前記処理待ち画像は同じサイズである。
第1方面の第1の可能な実施形態を参照する上で、本開示の実施例は、第1方面の第2の可能な実施態様を提供する。ここで、前記畳み込み-逆畳み込みニューラルネットワークは、畳み込みニューラルネットワークと逆畳み込みニューラルネットワークを含み、
前記畳み込みニューラルネットワークは、少なくとも一つの畳み込みレイヤーを備え、前記少なくとも一つの畳み込みレイヤーの各畳み込みレイヤーは、1つ又は複数の第1の畳み込みカーネルを備え、前記第1の畳み込みカーネルによって、前記処理待ち画像の画素行列にわたってノイズリダクション特徴マップを取得し、
前記逆畳み込みニューラルネットワークは、畳み込みニューラルネットワークと対称する構造を利用し、前記逆畳み込みニューラルネットワークは、少なくとも一つの逆畳み込みレイヤーを備え、前記少なくとも一つの逆畳み込みレイヤーの各逆畳み込みレイヤーは、対応する畳み込みレイヤと同じ数の第2の畳み込みカーネルを備え、前記第2の畳み込みカーネルによって、前記ノイズリダクション特徴マップの特徴行列にわたってノイズリダクション画像を取得する。
第1方面を参照する上で、本開示の実施例は、第1方面の第3の可能な実施態様を提供する。ここで、前記ノイズリダクション画像から撮影対象物に対応する対象領域画像を抽出するステップは、
畳み込みニューラルネットワークを利用する対象抽出ネットワークにより、前記ノイズリダクション画像における前記撮影対象物の存在領域を特定することと、
前記ノイズリダクション画像から前記撮影対象物の存在領域を分離して前記対象領域画像を取得することと、を含む。
第1方面を参照する上で、本開示の実施例は、第1方面の第4の可能な実施態様を提供する。前記対象領域画像に対してディテール強化処理を行ってディテール強化画像を生成するステップは、
前記対象領域画像をディテール強化ネットワークに入力し、前記ディテール強化ネットワークの出力を前記ディテール強化画像とすることを含み、前記ディテール強化ネットワークは、畳み込み-逆畳み込みニューラルネットワークを利用し、前記ディテール強化画像と前記対象領域イメージは同じサイズである。
第1方面を参照する上で、本開示の実施例は、第1方面の第5の可能な実施態様を提供する。前記ノイズリダクション画像を前記詳細強化画像と融合させて出力画像を得るステップは、
前記ディテール強化画像で、前記ノイズリダクション画像における前記対象領域画像を置き換えるステップと、
前記ディテール強化画像と前記ノイズリダクション画像とが交差する境界領域を線形的に融合するステップと、を含む。
第1方面の第5の可能な実施態様を参照する上で、本開示の実施例は、第1方面の第6の可能な実施態様を提供する。前記ディテール強化画像で、前記ノイズリダクション画像における前記対象領域画像を置き換えるステップは、
次の式により、前記置き換え処理を実現すること、を含み、
Figure 2019212275

ただし、R_finalは出力画像であり、R_206は前記ディテール強化画像であり、R_202は前記ノイズリダクション画像であり、aは前記対象領域画像の前記ノイズリダクション画像における存在領域であり、1−aは前記ノイズリダクション画像における対象領域画像以外の領域である。
第1方面の第5の可能な実施態様を参照する上で、本開示の実施例は、第1方面の第7の可能な実施態様を提供する。前記ディテール強化画像と前記ノイズリダクション画像とが交差する境界領域を線形的に融合するステップは、
平滑化フィルタリングまたはウェーブレット再構成(wavelet reconstruction)により、前記ディテール強化画像と前記ノイズリダクション画像とが交差する境界領域を線形融合すること、を含む。
第1方面の第1ないし第4の可能な実施態様のいずれか一つを参照する上で、本開示の実施例は、第1方面の第8の可能な実施態様を提供する。ここで、前記処理待ち画像に対してノイズリダクション処理を行うステップの前に、この方法は、さらに、
複数の訓練画像ペアを含む訓練画像サンプルセットを取得するステップと、
前記訓練画像サンプルセットを使用して前記ノイズリダクションネットワーク、対象抽出ネットワーク、およびディテール強化ネットワークを訓練するステップと、を含む。
第1方面の第8の可能な実施態様を参照する上で、本開示の実施例は、第1方面の第9の可能な実施態様を提供する。各訓練画像ペアは、同じ撮影環境でそれぞれ取得された第1画像と第2画像とを含み、
前記第1画像を取得するステップは、設定された第1の露光時間および第1の感度パラメータに従って前記第1画像を取得することを含み、
前記第2画像を取得するステップは、設定された第2の露光時間および第2の感度パラメータに従って前記第2画像を取得することを含み、
前記第2の露光時間は前記第1の露光時間よりも長く、前記第2の感度パラメータは前記第1の感度パラメータよりも小さい。
第1方面の第6の可能な実施態様を参照する上で、本開示の実施例は、第1方面の第7の可能な実施態様を提供する。ここで、前記第2の露光時間は前記第1の露光時間の4−8倍である。
第1方面を参照する上で、本開示の実施例は、第1方面の第7の可能な実施態様を提供する。前記処理待ち画像に対してノイズリダクション処理を行うステップの前に、前記方法は、さらに、
現在の撮影環境における光の輝度が、設定された輝度閾値未満であるか否かを判断するステップと、
そうである場合、撮影された画像を処理待ち画像とするステップと、を含む。
第2方面では、本開示の実施例は、さらに、画像処理装置を提供する。前記画像処理装置は、
処理待ち画像に対してノイズリダクション処理を行ってノイズリダクション画像を生成するノイズリダクションモジュールと、
前記ノイズリダクション画像から撮影対象物に対応する対象領域画像を抽出する対象抽出モジュールと、
前記対象領域画像に対してディテール強化処理を行ってディテール強化画像を生成するディテール強化モジュールと、
前記ノイズリダクション画像を前記ディテール強化画像と融合させて出力画像を得る融合モジュールと、を備える。
第3方面では、本開示の実施例は、画像収集装置、メモリ、およびプロセッサを備える電子機器を提供する。
前記画像収集装置は、画像データを収集するために用いられ、
前記メモリには、プロセッサ上で実行可能なコンピュータプログラムが格納されており、前記コンピュータプログラムが、前記プロセッサによって実行される時に第1方面のいずれか一つの方法に記載のステップを実現する。
第4方面では、本開示の実施例は、コンピュータ読み取り可能な記憶媒体を提供する。前記コンピュータ読み取り可能な記憶媒体にはコンピュータプログラムが格納されており、前記コンピュータプログラムが、プロセッサによって実行される時に第1方面のいずれか一つの方法に記載のステップを実現する。
本開示の実施例によれば、以下の有益な効果を奏する。
本開示の実施例によって提供される画像処理方法、装置、及び電子機器は、処理待ち画像に対してノイズリダクション処理を行ってノイズリダクション画像を得た後、ノイズリダクション画像から抽出した対象領域画像に対してディテール強化処理を行ってディテール強化画像を得る。そして、ノイズリダクション画像をディテール強化画像と融合させて出力画像を得る。対象領域画像に対してディテール強化処理を行うため、既存のノイズリダクション方法に起因する画像歪みの問題が改善され、得られる出力画像がより鮮鋭になり、表示効果が向上される。
本開示の他の特徴および利点は、以下の説明に記載される。あるいは、いくつかの特徴および利点は、明細書から推論または疑義なく確定できる、または本明細書に記載される技術の実施によって得られる。
本開示の上記の目的、特徴および利点は、添付の特許請求の範囲の記載からより明らかになるであろう。
本開示の具体的な実施形態または先行技術における技術案をより明確に説明するために、以下、具体的な実施形態または先行技術の説明に必要とされる図面を簡単に説明する。以下で説明する図面は、本開示のいくつかの実施形態であり、当業者は、これらの図面に基づいて、創造的な作業なしに、他の図面を得ることができるのは、明らかであろう。
本開示の一実施例に係る電子機器の概略構成図である。 本開示の一実施例に係る画像処理方法のフローチャートである。 本開示の一実施例に係る畳み込み-逆畳み込みニューラルネットワークの概略構成図である。 本開示の一実施例に係る画像処理装置の構成ブロック図である。
本開示の実施例の目的、技術案及び利点をより明らかにするために、以下、図面を参照しながら、本開示の技術案を明確かつ完全に説明する。説明する実施例は、本開示の一部の実施例であり、全ての実施例ではないことは、明らかであろう。本開示の実施例に基づいて、当業者によって創造的な作業なしに得られる他のすべての実施例は、本開示の保護範囲内にある。以下、本開示の実施例について詳細に説明する。
実施例1:
まず、図1を参照して、本開示の一実施例に係る画像処理方法及び装置を実現するための電子機器100の一例を説明する。
図1に示すように、電子機器100は、1つ以上のプロセッサ102、1つ以上の記憶装置104、入力装置106、出力装置108、および画像収集装置110を備え、これらの構成要素は、バスシステム112及び/又は他の形態の接続機構(図示せず)によって相互接続されている。図1に示す電子機器100の構成要素および構造は、単なる例示であり、限定するものではなく、必要に応じて他の構成要素および構成を有してもよいことに留意すべきである。
前記プロセッサ102は、中央処理装置(CPU)またはデータ処理能力及び/又は命令実行能力を有する他の形式の処理装置であってもよく、前記電子機器100内の他の構成要素を制御して所望の機能を実行させることができる。
前記記憶装置104は、揮発性メモリ及び/又は不揮発性メモリなどの様々な形態のコンピュータ読み取り可能な記憶媒体を含む1つ以上のコンピュータプログラム製品を含む。前記揮発性メモリは、例えば、ランダムアクセスメモリ(Random Access Memory:RAM)及び/又はキャッシュなどを含む。前記不揮発性メモリは、例えば、読み取り専用メモリー(Read Only Memory:ROM)、ハードディスク、フラッシュメモリ等を含む。1つ以上のコンピュータプログラム命令を前記コンピュータ読み取り可能な記憶媒体に格納することができ、プロセッサ102は、後述する本開示の実施形態におけるクライアント機能(プロセッサによって実装される)及び/又は他の所望の機能を実現するためにプログラム命令を実行することができる。様々なアプリケーションおよび様々なデータ、例えばアプリケーションによって使用及び/又は生成される様々なデータなども、前記コンピュータ読み取り可能な記憶媒体に格納されることができる。
前記入力装置106は、ユーザが命令を入力するために使用する装置であり、キーボード、マウス、マイクロホン、タッチスクリーンなどのうちの1つ以上を備えることができる。
前記出力装置108は、様々な情報(例えば、画像または音声)を外部(例えば、ユーザ)に出力することができ、さらに、ディスプレイ、スピーカなどの1つ以上を備えることができる。
前記画像収集装置110は、ユーザが所望する画像(例えば、写真、ビデオなど)を撮影し、他の構成要素によって使用されるように撮影した画像を記憶装置104に格納することができる。
例示的には、本開示の一実施例による画像処理方法および装置を実施するための例示的な電子機器は、スマートフォンまたはタブレットなどの移動端末として実装されてもよい。
実施例2:
本実施例は、画像処理方法を提供する。添付図面のフローチャートに示す各ステップは、コンピュータによって実行可能な命令セットであるコンピュータシステム上で実行されてもよい。フローチャートにおいて論理的な順序を示すが、場合によっては、示されている順序とは異なる順序で示したステップ又は説明したステップを実行してもよい。以下、本実施例について詳細に説明する。
図2は、本開示の一実施例に係る画像処理方法のフローチャートを示す。図2に示すように、該方法は、ステップS202、ステップS204、ステップS206、及びステップS208を含む。
ステップS202において、処理待ち画像に対してノイズリダクション処理を行ってノイズリダクション画像を生成する。
処理待ち画像は、スマートフォンまたは電子カメラなどの電子機器によって撮影された画像であってもよい。例えば、撮影環境が暗い場合、光が足りないため、電子機器の感光素子によって撮影されたダーク画像は、通常、局所的なノイズが多く、撮影対象物のディテールが失われることが発生する。上記のダーク画像に対して、本開示の実施例によって提供される画像処理方法を利用して処理すれば、より鮮鋭な画像を得ることができる。
電子機器によって撮影された画像を、いずれも処理待ち画像として処理し、本開示の実施例によって提供される画像処理方法によって処理してもよい。電子機器の電力を節約して電子機器の撮影を高速化するために、ダーク画像のような、鮮鋭化処理すべき画像のみを処理待ち画像としてもよい。例えば、電子機器によって写真をとる場合、まず、現在の撮影環境における光の輝度が、設定された輝度閾値未満であるか否かを判断してもよい。具体的には、現在の撮影環境における光の輝度は、感光センサなどの感光素子によって感知してもよい。現在の撮影環境における光の輝度が設定された輝度の閾値よりも小さい場合には、電子機器によって現在撮影された画像はダーク画像とみなされ、該ダーク画像を処理待ち画像として画像処理を行う。
処理待ち画像に対して、事前に訓練されたノイズリダクションネットワークによってノイズリダクション処理を行ってもよい。処理待ち画像をノイズリダクションネットワークに入力し、ノイズリダクションネットワークが出力するノイズリダクション画像を取得する。ノイズリダクション画像は、処理待ち画像と同じサイズである。ノイズリダクションネットワークは、図3に示す畳み込み-逆畳み込みニューラルネットワーク利用することができる。該畳み込み-逆畳み込みニューラルネットワークは、畳み込みニューラルネットワークと逆畳み込みニューラルネットワークとを含む。ここで、畳み込みニューラルネットワークと逆畳み込みニューラルネットワークは、対称する構造を取ることができる。
畳み込みニューラルネットワークは、処理待ち画像のノイズを低減し、処理待ち画像のノイズリダクション特徴マップを得ることに用いられる。逆畳み込みニューラルネットワークは、ノイズリダクション特徴マップを処理待ち画像のサイズにマッピングし、処理待ち画像と同じサイズのノイズリダクション画像を得ることに用いられる。
例示的に、ノイズリダクションネットワークの畳み込みニューラルネットワークは、少なくとも一つの畳み込みレイヤーを備え、前記少なくとも一つの畳み込みレイヤーの各畳み込みレイヤーは、入力画像の画素行列から画像ノイズを低減して有用な情報を抽出するための第1の畳み込みカーネルを一つ以上備える。第1の畳み込みカーネルによって、あるステップ長に従って入力画像の画素行列にわたって少なくとも1つのノイズリダクション特徴値を得る。ノイズリダクション特徴マップは、少なくとも1つのノイズリダクション特徴値から構成される。ここで、第1の畳み込みレイヤーの入力画像は処理待ち画像であり、残りの畳み込みレイヤーの入力画像は直前の畳み込みレイヤーの出力画像である。逆畳み込み演算は、畳み込み演算の逆演算であり、ノイズリダクションネットワークの逆畳み込みニューラルネットワークは、畳み込みニューラルネットワークと対称する構造を利用してもよい。逆畳み込みニューラルネットワークは、少なくとも一つの逆畳み込みレイヤーを備える。それに、少なくとも一つの逆畳み込みレイヤーにおける各層の逆畳み込みレイヤーは、対応する畳み込みレイヤーと同じ数の第2の畳み込みカーネルを備えることができる。逆畳み込みレイヤーを通過した後に、処理待ち画像と同じサイズのノイズリダクション画像を得ることができる。
例えば、図3に示すように、サイズ256×256×3の処理待ち画像をノイズリダクションネットワークに入力し、畳み込みニューラルネットワークによって16×16×512のノイズリダクション特徴マップを得る。ノイズリダクション特徴マップは、逆畳み込みニューラルネットワークを通過した後に、256×256×3のノイズリダクション画像を得ることができる。
ステップS204において、ノイズリダクション画像から撮影対象物に対応する対象領域画像を抽出する。
本開示の実施例において、撮影対象物は、歩行者であってもよいし、人体の一部(例えば、顔)であってもよいし、動物や物体、例えば、あるランドマークビルや何らかのアイコンロゴなどであってもよい。本実施例では、これを限定しない。
ある実施例では、対象抽出ネットワークによってノイズリダクション画像における撮影対象物の存在領域を特定してもよい。対象抽出ネットワークには、順次接続された畳み込みレイヤー、深層残留ネットワーク、地域推奨ネットワーク、関心領域プーリングレイヤー、及び完全接続レイヤーを備える畳み込みニューラルネットワークを利用することができる。対象抽出ネットワークは、一つの畳み込みレイヤー、複数の深層残留ネットワーク、一つの地域推奨ネットワーク、一つの関心領域プーリングレイヤー、および一つの完全接続レイヤーを備えることができる。
例えば、撮影対象物が人の顔である場合、対象抽出ネットワークは、人の顔の特徴を識別するための予め訓練された畳み込みニューラルネットワークを利用することができる。あるステップ長で、矩形のスライディングウィンドウを使用してノイズ画像上にスライドし、スライディングウィンドウ内の画像を畳み込みニューラルネットワークの入力とする。畳み込みニューラルネットワークの出力が0であれば、人の顔が検出されていないことを意味する。畳み込みニューラルネットワークの出力が1であれば、人の顔が検出されたことを意味する。人の顔が位置する領域を、撮影対象物の存在領域として特定し、ノイズリダクション画像から撮影対象物の存在領域を分離して対象領域画像を得る。
なお、ノイズリダクション画像から抽出される対象領域の画像は、1つである可能性もあるし、複数である可能性もある。例えば、ノイズリダクション画像に複数の人の顔が含まれる場合には、複数の対象領域画像を抽出できる。
ステップS206において、対象領域画像に対してディテール強化処理を行ってディテール強化画像を生成する。
対象領域画像を事前に訓練されたディテール強化ネットワークに入力し、ディテール強化ネットワークの出力をディテール強化画像とする。ディテール強化ネットワークは、図3に示す畳み込み-逆畳み込みニューラルネットワークを利用してもよい。ディテール強化ネットワークが出力するディテール強化画像は、対象領域画像と同じサイズである。
ノイズリダクションネットワークのネットワーク構造と同様に、ディテール強化ネットワークは、畳み込みニューラルネットワークおよび逆畳み込みニューラルネットワークを備えてもよい。畳み込みニューラルネットワークおよび逆畳み込みニューラルネットワークは、対称する構造を利用することができる。
畳み込みニューラルネットワークは、対象領域画像のディテール特徴を抽出してディテール特徴マップを得るために用いられる。逆畳み込みニューラルネットワークは、ディテール特徴マップを対象領域画像サイズにマッピングして処理待ち画像と同じサイズのディテール強化画像を得るために用いられる。
例えば、ディテール強化ネットワークの畳み込みニューラルネットワークは、少なくとも一つの畳み込みレイヤーを備え、各畳み込みレイヤは、入力画像の画素行列からディテール特徴情報を抽出するための1つ又は複数の畳み込みカーネルを備える。畳み込みカーネルによって、あるステップ長に従って入力画像の画素行列にわたって少なくとも1つのディテール特徴値を取得する。ディテール特徴マップは、少なくとも1つのディテール特徴値から構成される。ここで、第1の畳み込みレイヤの入力画像は、対象領域画像であり、残りの畳み込みレイヤの入力画像は、直前の畳み込みレイヤの出力画像である。ディテール強化ネットワークの逆畳み込みニューラルネットワークは、畳み込みニューラルネットワークと対称する構造を利用することができる。それに、逆畳み込みレイヤの各レイヤは、対応する畳み込みレイヤと同じ数の畳み込みカーネルを備えることができる。逆畳み込みレイヤを通過した後、対象領域画像と同じサイズのディテール強化画像を得ることができる。
ノイズリダクション画像から複数の対象領域画像が抽出された場合には、各対象領域画像を個別にディテール強化ネットワークに入力して対応するディテール強化画像を得ることができる。即ち、複数の対象領域画像に応じて、複数のディテール強化画像を得る。
ステップS208では、ノイズリダクション画像をディテール強化画像と融合させて出力画像を得る。
ディテール強化画像でノイズリダクション画像における対象領域画像を置き換えることができる。ディテール強化画像とノイズリダクション画像とが交差する境界領域を線形融合(linear resolution)することにより、より鮮鋭な出力画像を得ることができる。
上記したディテール強化画像でノイズリダクション画像における対象領域画像を置き換える処理は、以下の式で表すことができる。
Figure 2019212275
ただし、R_finalは出力画像であり、R_206はステップS206で得られたディテール強化画像であり、R_202はステップS202で得られたノイズリダクション画像であり、aは対象領域画像のノイズリダクション画像における存在領域である。1−aはノイズリダクション画像における対象領域画像以外の領域である。
ディテール強化画像とノイズリダクション画像とが交差する境界領域については、平滑化フィルタリングやウェーブレット再構成により線形融合を行うことができる。
複数のディテール強化画像がある場合、各ディテール強化画像で、ノイズリダクション画像における対応する対象領域画像を置き換えてから、各ディテール強化画像とノイズリダクション画像とが交差する境界領域を線形融合してより鮮鋭な出力画像を得ることにしてもよい。
上記したノイズリダクションネットワーク、対象抽出ネットワーク及びディテール強化ネットワークを画像のディテール強化に直接適用してより正確で信頼性の高い結果を出力するためには、事前にノイズリダクションネットワーク、対象抽出ネットワーク及びディテール強化ネットワークを訓練する必要がある。以下、ノイズリダクションネットワーク、対象抽出ネットワーク、およびディテール強化ネットワークの訓練プロセスについて詳細に説明する。
複数の訓練画像ペアを含む訓練画像サンプルセットを取得する。各訓練画像ペアは、同じ撮影環境においてそれぞれ取得される一つの第1画像および一つの第2画像を含む。第1画像は初期画像とも呼ばれ、第2画像はクリア画像とも呼ばれる。初期画像は、設定された第1の露光時間および第1の感度パラメータに従って撮影されたものであり、クリア画像は、設定された第2の露光時間および第2の感度パラメータに従って撮影されたものである。第2の露光時間は第1の露光時間よりも長く、第2の感度パラメータは第1の感度パラメータよりも小さい。
例えば、撮影環境が暗い場合には、通常の撮影パラメータ(第1の露光時間と第1の感度パラメータを含む)を用いて電子機器により初期画像が撮影される。電子機器の感光素子で受光される光が足りないため、初期画像にはノイズが多く、被写体のディテールが失われるという現象がある。暗い光の下でクリア画像を得るためには、同一の撮影環境において、電子機器が画像を撮影する時の露光時間を長くして光の入射量を増加させる。露光時間を長くすると同時に、感度パラメータを下げて露光オーバーを防止する。すなわち、設定された第2の露光時間および第2の感度パラメータに応じて、クリア画像が撮影される。例えば、第2の露光時間は、第1の露光時間の4−8倍であってもよい。第2の感度パラメータは、設定された最小値よりも大きい、かつ、第1の感度パラメータよりも小さいとしてもよい。上記の方法により、多数の訓練画像ペアを取得して訓練画像サンプルセットを形成することができる。
ノイズリダクションネットワーク、対象抽出ネットワークまたはディテール強化ネットワークを訓練する場合、訓練画像サンプルセットから一つの訓練画像ペアをランダムに選択してそのうちの初期画像をノイズリダクションネットワークに入力する。初期画像は、まず、ノイズリダクションネットワークの畳み込みニューラルネットワークを通過して初期画像のノイズリダクション特徴マップを得る。ノイズリダクション特徴マップは、少なくとも1つのノイズリダクション特徴値を含む。次に、逆畳み込みニューラルネットワークを通過し、初期画像のノイズリダクション特徴マップを初期画像のサイズにマッピングして、初期画像のノイズリダクション画像を得る。対象抽出ネットワークにより、初期画像のノイズリダクション画像における撮影対象物の存在領域を特定して初期画像の対象領域画像を取得する。初期画像の対象領域画像をディテール強化ネットワークに入力する。初期画像の対象領域画像は、まず、ディテール強化ネットワークの畳み込みニューラルネットワークを通過して初期画像の対象領域画像に対応するディテール特徴マップを得る。次に、逆畳み込みニューラルネットワークを通過し、ディテール特徴マップを対象領域画像のサイズにマッピングして初期画像の対象領域画像に対応するディテール強化画像を得る。該ディテール強化画像を初期画像のノイズリダクション画像と融合させて初期画像に対応する出力画像を得る。
初期画像に対応する出力画像とクリア画像とを比較し、前記初期画像に対応する出力画像とクリア画像との間の誤差が設定誤差未満になるまで、ノイズリダクションネットワーク、対象抽出ネットワーク、およびディテール強化ネットワークのパラメータを調整することで、ノイズリダクションネットワーク、対象抽出ネットワーク、およびディテール強化ネットワークの訓練を完了した後、現在のパラメータをノイズリダクションネットワーク、対象抽出ネットワーク、およびディテール強化ネットワークのパラメータとする。
本開示の実施例によって提供される画像処理方法は、処理待ち画像に対してノイズリダクション処理を行ってノイズリダクション画像を得た後、ノイズリダクション画像から抽出した対象領域画像に対してディテール強化処理を行ってディテール強化画像を得て、ノイズリダクション画像をディテール強化画像と融合させて出力画像を得る。対象領域画像に対してディテール強化処理を行うため、得られる出力画像はより鮮鋭であり、表示効果がより良好となる。特に、ダーク画像を処理する場合、ダーク画像の欠落したディテールを補完して強化し、画像の鮮鋭度を改善することができる。
本開示の実施例におけるノイズリダクションネットワークとディテール強化ネットワークの両方は、畳み込み-逆畳み込みニューラルネットワークを利用し、ノイズリダクション及びディテール強化の効果を高め、画像処理の効率を改善する。同時に、本開示の実施例は、撮影パラメータを調整することによって暗い光の下でクリア画像を取得し、クリア画像と初期画像とから訓練画像ペアを構成し、ノイズリダクションネットワーク、対象抽出ネットワークおよびディテール強化ネットワークを訓練することで、ノイズネットワーク、対象抽出ネットワーク、およびディテール強化ネットワーク内の各パラメータの精度を向上させる。
実施例3:
第2の実施例の画像処理方法に対応して、本実施例は、画像処理装置を提供する。図4は、本開示の一実施例に係る画像処理装置の概略構成図である。図4に示すように、該画像処理装置は、
処理待ち画像に対してノイズリダクション処理を行ってノイズリダクション画像を生成するノイズリダクションモジュール41と、
ノイズリダクション画像から撮影対象物に対応する対象領域画像を抽出する対象抽出モジュール42と、
対象領域画像に対してディテール強化処理を行ってディテール強化画像を生成するディテール強化モジュール43と、
ノイズリダクション画像をディテール強化画像と融合させて出力画像を得る融合モジュール44と、を備える。
ノイズリダクションモジュール41は、さらに、処理待ち画像をノイズリダクションネットワークに入力し、ノイズリダクションネットワークの出力をノイズリダクション画像とすることに用いられる。ノイズリダクションネットワークは、畳み込み-逆畳み込みニューラルネットワークを利用する。ノイズリダクションネットワークが出力するノイズリダクション画像は、処理待ち画像と同じサイズである。畳み込み-逆畳み込みニューラルネットワークは、畳み込みニューラルネットワークおよび逆畳み込みニューラルネットワークを備える。畳み込みニューラルネットワークは、少なくとも一つの畳み込みレイヤーを備え、少なくとも1つの畳み込みレイヤーにおける各畳み込みレイヤーは、少なくとも1つの第1の畳み込みカーネルを備える。第1の畳み込みカーネルによって、処理待ち画像の画素行列にわたってノイズリダクション特徴マップを得る。逆畳み込みニューラルネットワークは、畳み込みニューラルネットワークと対称する構造を利用する。逆畳み込みニューラルネットワークは、少なくとも1つの逆畳み込みレイヤーを備え、少なくとも1つの逆畳み込みレイヤーにおける各逆畳み込みレイヤーは、対応する畳み込みレイヤーと同じ数の第2の畳み込みカーネルを備える。第2の畳み込みカーネルによって、ノイズリダクション特徴マップの特徴行列にわたってノイズリダクション画像を得る。
対象抽出モジュール42は、さらに、対象抽出ネットワークにより、ノイズリダクション画像における撮影対象物の存在領域を特定することに用いられる。対象抽出ネットワークは、畳み込みニューラルネットワークを利用する。ノイズリダクション画像から撮影対象物の存在領域を分離して対象領域画像を取得する。
ディテール強化モジュール43は、さらに、対象領域画像をディテール強化ネットワークに入力し、ディテール強化ネットワークの出力をディテール強化画像とすることに用いられる。ディテール強化ネットワークは、畳み込み-逆畳み込みニューラルネットワークを利用する。ディテール強化画像と対象領域画像とは同じサイズである。
融合モジュール44は、さらに、ディテール強化画像で、ノイズリダクション画像における対象領域画像を置き換えることと、ディテール強化画像とノイズリダクション画像とが交差する境界領域を線形融合することに用いられる。
さらに、上記画像処理装置は、さらに、訓練モジュールを備えてもよい。訓練モジュールは、ノイズリダクションモジュール41に接続され、複数の訓練画像ペアを含む訓練画像サンプルセットを取得することに用いられる。訓練画像サンプルセットを利用して前記ノイズリダクションネットワーク、対象抽出ネットワーク、及びディテール強化ネットワークを訓練する。各訓練画像ペアは、同じ撮影環境でそれぞれ取得された一つの第1画像と一つの第2画像とを含む。第1画像を取得するステップは、設定された第1の露光時間および第1の感度パラメータに従って初期画像を取得することを含む。第2画像を取得するステップは、設定された第2の露光時間および第2の感度パラメータに従って、クリア画像を取得することを含む。第2の露光時間は第1の露光時間よりも長く、第2の感度パラメータは第1の感度パラメータよりも小さい。
上記画像処理装置は、さらに、判断モジュールを備えてもよい。判断モジュールは、訓練モジュールとノイズリダクションモジュール41との間に接続され、現在の撮影環境における光の輝度が設定輝度閾値未満であるか否かを判断する。そうである場合、撮影された画像を処理待ち画像とする。
本実施例によって提供される装置の原理および技術的効果は、前述した実施例と同様であるため、説明の便宜上、装置実施例において言及されないところは、前述した方法実施例の対応する内容を参照すればよい。
本開示の実施例に係る画像処理装置は、処理待ち画像に対してノイズリダクション処理を行ってノイズリダクション画像を得た後、ノイズリダクション画像から抽出した対象領域画像に対してディテール強化処理を行ってディテール強化画像を得て、ノイズリダクション画像をディテール強化画像と融合させて出力画像を得る。対象領域画像に対してディテール強化処理を行うため、得られる出力画像はより鮮鋭であり、表示効果がより良好になる。
また、本開示の実施例は、画像収集装置と、メモリと、プロセッサとを備える電子機器を提供する。画像収集装置は、画像データを収集する。メモリには、プロセッサ上で実行可能なコンピュータプログラムが格納されている。プロセッサは、コンピュータプログラムを実行する時に前述の方法実施例によって提供される方法のステップを実現する。
さらに、本実施例は、コンピュータ読み取り可能な記憶媒体を提供する。前記コンピュータ読み取り可能な記憶媒体にはコンピュータプログラムが格納されている。前記コンピュータプログラムは、前記プロセッサによって実行される時に前記方法実施例によって提供される方法のステップを実行する。
本開示の実施例によって提供される画像処理方法および装置のコンピュータプログラム製品は、プログラムコードを格納したコンピュータ読み取り可能な記憶媒体を含む。前記プログラムコードに含まれる命令は、前述の方法実施例で説明した方法を実行するために用いられる。具体的な実現については、方法実施例を参照すればよいので、ここではその説明を省略する。
前記の機能は、ソフトウェア機能ユニットの形で実装されてスタンドアロン製品として販売または使用される場合、コンピュータ読み取り可能な記憶媒体に格納されてもよい。このような理解に基づいて、本開示の技術的解決策は、事実上、或いは、従来技術に寄与する部分、またはその技術的解決策の一部は、ソフトウェア製品の形で具体化されてもよい。このコンピュータソフトウェア製品は、記憶媒体に格納されており、コンピュータ(パーソナルコンピュータ、サーバ、またはネットワークデバイスなどであり得る)に本開示の各実施例に記載の方法の全て又は一部のステップを実行させるためのいくつかの命令を含む。上記記憶媒体には、Uディスク、携帯型のハードディスク、ROM、RAM、磁気ディスク、光ディスクなどのようなプログラムコードを記憶可能な媒体が含まれる。
最後に、上記の実施例は本開示の特定の実施例に過ぎず、本開示の技術的解決策を説明するためのものであり、本開示を限定するものではない。本開示の保護範囲はこれに限定されない。以上、前記実施例を参照しながら本開示を詳細に説明したが、当業者であれば、本開示が開示した技術的範囲内で、上記実施例に記載の技術案を修正したり、容易に変更したり、一部の技術的特徴を置き換えたりすることが可能であることは言うまでもない。このような修正、変更、または置換は、本開示の実施例の技術的解決策の精神および範囲から逸脱することなく、本開示の保護範囲内にある。よって、本開示の保護範囲は、添付の特許請求の範囲に従うべきである。

Claims (14)

  1. 処理待ち画像に対してノイズリダクション処理を行ってノイズリダクション画像を生成するステップと、
    前記ノイズリダクション画像から撮影対象物に対応する対象領域画像を抽出するステップと、
    前記対象領域画像に対してディテール強化処理を行ってディテール強化画像を生成するステップと、
    前記ノイズリダクション画像を前記ディテール強化画像と融合させて出力画像を得るステップと
    を含むことを特徴とする、画像処理方法。
  2. 前記処理待ち画像に対してノイズリダクション処理を行ってノイズリダクション画像を生成するステップは、
    前記処理待ち画像をノイズリダクションネットワークに入力し、前記ノイズリダクションネットワークの出力を前記ノイズリダクション画像とすることを含み、
    前記ノイズリダクションネットワークは、畳み込み-逆畳み込みニューラルネットワークを利用し、
    前記ノイズリダクション画像と前記処理待ち画像は同じサイズである
    ことを特徴とする、請求項1に記載の画像処理方法。
  3. 前記畳み込み-逆畳み込みニューラルネットワークは、畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)及び逆畳み込みニューラルネットワーク(Deconvolution neural network)を含み、
    前記畳み込みニューラルネットワークは、少なくとも一つの畳み込みレイヤーを備え、前記少なくとも一つの畳み込みレイヤーにおける各畳み込みレイヤーは、1つ又は複数の第1畳み込みカーネルを備え、前記第1畳み込みカーネルによって、前記処理待ち画像の画素行列にわたってからノイズリダクション特徴マップを取得し、
    前記逆畳み込みニューラルネットワークは、前記畳み込みニューラルネットワークと対称する構造を利用し、前記逆畳み込みニューラルネットワークは、少なくとも一つの逆畳み込みレイヤーを備え、前記少なくとも一つの逆畳み込みレイヤーにおける各逆畳み込みレイヤーは、対応する畳み込みレイヤーと同じ数の第2畳み込みカーネルを備え、第2畳み込みカーネルによって、前記ノイズリダクション特徴マップの特徴行列にわたってからノイズリダクション画像を得る
    ことを特徴とする、請求項2に記載の画像処理方法。
  4. 前記ノイズリダクション画像から撮影対象物に対応する対象領域画像を抽出するステップは、
    畳み込みニューラルネットワークを利用する対象抽出ネットワークにより、前記ノイズリダクション画像内における前記撮影対象物の存在領域を特定することと、
    前記ノイズリダクション画像から前記撮影対象物の存在領域を分離して前記対象領域画像を得ることと
    を含むことを特徴とする、請求項1に記載の画像処理方法。
  5. 前記対象領域画像に対してディテール強化処理を行ってディテール強化画像を生成するステップは、
    前記対象領域画像をディテール強化ネットワークに入力し、前記ディテール強化ネットワークの出力を前記ディテール強化画像とすることを含み、
    前記ディテール強化ネットワークは、畳み込み-逆畳み込みニューラルネットワークを利用し、
    前記ディテール強化画像と前記対象領域画像は同じサイズである
    ことを特徴とする、請求項1に記載の画像処理方法。
  6. 前記ノイズリダクション画像を前記ディテール強化画像と融合させて出力画像を得るステップは、
    前記ディテール強化画像で、前記ノイズリダクション画像における前記対象領域画像を置き換えるステップと、
    前記ディテール強化画像と前記ノイズリダクション画像とが交差する境界領域を線形的に融合するステップと
    を含むことを特徴とする、請求項1に記載の画像処理方法。
  7. 前記ディテール強化画像で前記ノイズリダクション画像における前記対象領域画像を置き換えるステップは、
    次の式により、前記置換処理を実現するステップを含み、
    Figure 2019212275

    ただし、R_finalは出力画像であり、R_206は前記ディテール強化画像であり、R_202は前記ノイズリダクション画像であり、aは前記対象領域画像の前記ノイズリダクション画像における存在領域であり、1−aは前記ノイズリダクション画像における前記対象領域画像以外の領域である
    ことを特徴とする、請求項6に記載の画像処理方法。
  8. 前記ディテール強化画像と前記ノイズリダクション画像とが交差する境界領域を線形的に融合するステップは、
    平滑化フィルタリングまたはウェーブレット再構成(wavelet reconstruction)によって、前記ディテール強化画像と前記ノイズリダクション画像とが交差する境界領域を線形的に融合することを含む
    ことを特徴とする、請求項6に記載の画像処理方法。
  9. 前記処理待ち画像に対してノイズリダクション処理を行うステップの前に、さらに、
    複数の訓練画像ペアを含む訓練画像サンプルセットを取得するステップと、
    前記訓練画像サンプルセットを利用してノイズリダクションネットワーク、前記対象抽出ネットワーク、またはディテール強化ネットワークを訓練するステップと
    を含むことを特徴とする、請求項2ないし5のいずれか一項に記載の画像処理方法。
  10. 各訓練画像ペアは、同じ撮影環境でそれぞれ取得された一つの第1画像と一つの第2画像とを含み、
    前記第1画像を取得するステップは、設定された第1の露光時間および第1の感度パラメータに従って前記第1画像を撮影して取得することを含み、
    前記第2画像を取得するステップは、設定された第2の露光時間および第2の感度パラメータに従って前記第2画像を撮影して取得することを含み、
    前記第2の露光時間は前記第1の露光時間よりも長く、前記第2の感度パラメータは前記第1の感度パラメータよりも小さい
    ことを特徴とする、請求項9に記載の画像処理方法。
  11. 前記処理待ち画像に対してノイズリダクション処理を行うステップの前に、さらに、
    現在の撮影環境における光の輝度が、設定された輝度閾値未満であるか否かを判断するステップと、
    そうである場合、撮影した画像を前記処理待ち画像とするステップと
    を含むことを特徴とする、請求項1に記載の画像処理方法。
  12. 処理待ち画像に対してノイズリダクション処理を行ってノイズリダクション画像を生成するノイズリダクションモジュールと、
    前記ノイズリダクション画像から前記撮影対象物に対応する対象領域画像を抽出する対象抽出モジュールと、
    前記対象領域画像に対してディテール強化処理を行ってディテール強化画像を生成するディテール強化モジュールと、
    前記ノイズリダクション画像を前記ディテール強化画像と融合させて出力画像を得る融合モジュールと
    を備えることを特徴とする、画像処理装置。
  13. 画像収集装置と、メモリと、プロセッサとを備える電子機器であって、
    前記画像収集装置は、画像データを収集することに用いられ、
    前記メモリには、プロセッサ上で動作可能なコンピュータプログラムが格納され、前記プロセッサにより、前記コンピュータプログラムを実行する時に請求項1ないし11のいずれか1項に記載の方法のステップを実現する
    ことを特徴とする、電子機器。
  14. コンピュータプログラムが格納されたコンピュータ読み取り可能な記憶媒体であって、前記コンピュータプログラムがプロセッサによって実行される時に請求項1ないし11のいずれか一項に記載の方法のステップを実行する、ことを特徴とするコンピュータ読み取り可能な記憶媒体。

JP2018225453A 2018-06-07 2018-11-30 画像処理方法、画像処理装置および電子機器 Active JP6803899B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201810583369.8A CN108737750A (zh) 2018-06-07 2018-06-07 图像处理方法、装置及电子设备
CN201810583369.8 2018-06-07

Publications (2)

Publication Number Publication Date
JP2019212275A true JP2019212275A (ja) 2019-12-12
JP6803899B2 JP6803899B2 (ja) 2020-12-23

Family

ID=63932445

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018225453A Active JP6803899B2 (ja) 2018-06-07 2018-11-30 画像処理方法、画像処理装置および電子機器

Country Status (5)

Country Link
US (1) US10949952B2 (ja)
EP (1) EP3579180A1 (ja)
JP (1) JP6803899B2 (ja)
KR (1) KR102172234B1 (ja)
CN (1) CN108737750A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111353958A (zh) * 2020-02-28 2020-06-30 北京东软医疗设备有限公司 图像处理方法、装置及系统
KR20210086493A (ko) * 2019-12-30 2021-07-08 포항공과대학교 산학협력단 디포커스 맵 추정을 위한 기계 학습 방법 및 장치

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109379625B (zh) * 2018-11-27 2020-05-19 Oppo广东移动通信有限公司 视频处理方法、装置、电子设备和计算机可读介质
CN109816599B (zh) * 2018-12-07 2020-12-29 西安电子科技大学 一种基于小波分解卷积神经网络的图像条带噪声抑制方法
CN111353331B (zh) * 2018-12-20 2023-09-05 浙江欣奕华智能科技有限公司 一种目标物的检测方法、检测装置及机器人
CN109863874B (zh) * 2019-01-30 2021-12-14 深圳大学 一种基于机器视觉的果蔬采摘方法、采摘装置及存储介质
KR102663537B1 (ko) * 2019-01-31 2024-05-08 삼성전자 주식회사 전자 장치 및 이미지 처리 방법
CN110072052B (zh) * 2019-04-09 2021-08-27 Oppo广东移动通信有限公司 基于多帧图像的图像处理方法、装置、电子设备
CN110378854B (zh) * 2019-07-17 2021-10-26 上海商汤智能科技有限公司 机器人图像增强方法及装置
CN110458771B (zh) * 2019-07-29 2022-04-08 深圳市商汤科技有限公司 图像处理方法及装置、电子设备和存储介质
CN110490118A (zh) * 2019-08-14 2019-11-22 厦门美图之家科技有限公司 图像处理方法及装置
CN110782421B (zh) * 2019-09-19 2023-09-26 平安科技(深圳)有限公司 图像处理方法、装置、计算机设备及存储介质
US11893482B2 (en) * 2019-11-14 2024-02-06 Microsoft Technology Licensing, Llc Image restoration for through-display imaging
CN110991457B (zh) * 2019-11-26 2023-12-08 北京达佳互联信息技术有限公司 二维码处理方法、装置、电子设备及存储介质
CN110910333B (zh) * 2019-12-12 2023-03-14 腾讯科技(深圳)有限公司 图像处理方法和图像处理设备
CN111047537A (zh) * 2019-12-18 2020-04-21 清华大学深圳国际研究生院 一种图像去噪中恢复细节的系统
CN111311543B (zh) * 2020-01-17 2022-09-02 苏州科达科技股份有限公司 图像清晰度检测方法、系统、设备及存储介质
KR102359860B1 (ko) * 2020-01-20 2022-02-09 주식회사 아이도트 뇌동맥류 파열 예측 시스템
KR20210101768A (ko) * 2020-02-11 2021-08-19 삼성전자주식회사 이미지 처리를 수행하는 전자 장치 및 그 방법
CN111325737B (zh) * 2020-02-28 2024-03-15 上海志唐健康科技有限公司 低剂量ct图像处理方法、装置和计算机设备
CN111489321B (zh) * 2020-03-09 2020-11-03 淮阴工学院 基于派生图和Retinex的深度网络图像增强方法和系统
CN113379609B (zh) * 2020-03-10 2023-08-04 Tcl科技集团股份有限公司 一种图像处理方法、存储介质及终端设备
CN111402166A (zh) * 2020-03-18 2020-07-10 上海嘉沃光电科技有限公司 图像去噪方法及装置、服务终端及计算机可读存储介质
CN115335852A (zh) * 2020-03-31 2022-11-11 华为技术有限公司 一种基于神经网络的图像处理方法及装置
CN111476741B (zh) * 2020-04-28 2024-02-02 北京金山云网络技术有限公司 图像的去噪方法、装置、电子设备和计算机可读介质
CN113658050A (zh) * 2020-05-12 2021-11-16 武汉Tcl集团工业研究院有限公司 一种图像的去噪方法、去噪装置、移动终端及存储介质
CN111553867B (zh) * 2020-05-15 2023-05-26 华润数字科技有限公司 一种图像去模糊方法、装置、计算机设备及存储介质
CN111709891B (zh) * 2020-06-12 2023-11-24 北京小米松果电子有限公司 图像去噪模型的训练方法、图像去噪方法、装置及介质
CN111696064B (zh) * 2020-06-15 2023-08-18 北京金山云网络技术有限公司 图像处理方法、装置、电子设备及计算机可读介质
US11842460B1 (en) * 2020-06-19 2023-12-12 Apple Inc. Burst image fusion and denoising using end-to-end deep neural networks
CN113962873A (zh) * 2020-07-21 2022-01-21 武汉Tcl集团工业研究院有限公司 一种图像去噪方法、存储介质及终端设备
CN114066738A (zh) * 2020-07-31 2022-02-18 北京小米移动软件有限公司 图像处理方法、装置、电子设备及存储介质
CN112184722B (zh) * 2020-09-15 2024-05-03 上海传英信息技术有限公司 图像处理方法、终端及计算机存储介质
CN113067980A (zh) * 2021-03-23 2021-07-02 北京澎思科技有限公司 图像采集方法、装置、电子设备及存储介质
CN113128389A (zh) * 2021-04-14 2021-07-16 Oppo广东移动通信有限公司 图像处理方法及装置、计算机可读存储介质和电子设备
CN113139925B (zh) * 2021-04-25 2024-04-12 西安石油大学 一种肺炎图像处理方法、系统及存储介质
CN112905832B (zh) * 2021-05-07 2021-08-03 广东众聚人工智能科技有限公司 复杂背景细粒度图像检索系统及方法
KR20220159852A (ko) * 2021-05-26 2022-12-05 엘지이노텍 주식회사 이미지 처리 모듈
CN113344832A (zh) * 2021-05-28 2021-09-03 杭州睿胜软件有限公司 图像处理方法及装置、电子设备和存储介质
CN113344200B (zh) * 2021-06-17 2024-05-28 阿波罗智联(北京)科技有限公司 用于训练可分离卷积网络的方法、路侧设备及云控平台
CN113506225A (zh) * 2021-06-17 2021-10-15 展讯半导体(南京)有限公司 图像处理方法、系统、电子设备及存储介质
CN113592733A (zh) * 2021-07-22 2021-11-02 北京小米移动软件有限公司 图像处理方法、装置、存储介质及电子设备
CN113610731B (zh) * 2021-08-06 2023-08-08 北京百度网讯科技有限公司 用于生成画质提升模型的方法、装置及计算机程序产品
CN113852759B (zh) * 2021-09-24 2023-04-18 豪威科技(武汉)有限公司 图像增强方法及拍摄装置
CN114052693B (zh) * 2021-10-26 2023-08-08 珠海脉动时代健康科技有限公司 心率分析方法、装置及设备
US20230153957A1 (en) * 2021-11-15 2023-05-18 Samsung Electronics Co., Ltd. System and method for training of noise model using noisy signal pairs
KR20230071633A (ko) * 2021-11-16 2023-05-23 삼성전자주식회사 영상에서 인지적 노이즈를 제거하는 영상 처리 방법 및 장치
CN113903075A (zh) * 2021-12-10 2022-01-07 中科视语(北京)科技有限公司 类别估计方法、装置、电子设备及存储介质
CN116468619B (zh) * 2023-03-01 2024-02-06 山东省人工智能研究院 一种基于多特征反馈融合的医学影像去噪方法
CN116229375B (zh) * 2023-05-06 2023-08-25 山东卫肤药业有限公司 一种基于无光源培育箱内部环境成像方法
CN117197014B (zh) * 2023-09-12 2024-02-20 南京诺源医疗器械有限公司 一种可降噪的肺部医学图像融合方法、系统和电子设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000184267A (ja) * 1998-12-17 2000-06-30 Sony Corp 映像信号処理装置
JP2004021374A (ja) * 2002-06-13 2004-01-22 Fuji Xerox Co Ltd 画像処理方法、画像処理装置、プログラム、記憶媒体
JP2008165312A (ja) * 2006-12-27 2008-07-17 Konica Minolta Holdings Inc 画像処理装置及び画像処理方法
JP2012044564A (ja) * 2010-08-20 2012-03-01 Sanyo Electric Co Ltd 撮像装置
WO2018048507A1 (en) * 2016-09-06 2018-03-15 Han Xiao Neural network for generating synthetic medical images
US20180130202A1 (en) * 2016-11-04 2018-05-10 Sichuan University Kind of dr radiography lung contour extraction method based on fully convolutional network

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020172419A1 (en) 2001-05-15 2002-11-21 Qian Lin Image enhancement using face detection
US7574016B2 (en) * 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
US20070113242A1 (en) 2005-11-16 2007-05-17 Fetkovich John E Selective post-processing of compressed digital video
KR100796849B1 (ko) * 2006-09-04 2008-01-22 삼성전자주식회사 휴대 단말기용 파노라마 모자이크 사진 촬영 방법
KR101731113B1 (ko) * 2010-08-25 2017-04-28 엘지디스플레이 주식회사 2d-3d 영상 변환 방법 및 이를 이용한 입체 영상 표시장치
KR101689867B1 (ko) * 2010-09-15 2016-12-27 삼성전자주식회사 영상을 처리하는 방법, 이를 수행하는 영상처리장치 및 의료영상시스템
JP6395423B2 (ja) * 2014-04-04 2018-09-26 キヤノン株式会社 画像処理装置、制御方法及びプログラム
CN106027931B (zh) * 2016-04-14 2018-03-16 平安科技(深圳)有限公司 视频录制方法及服务器
JP6685827B2 (ja) * 2016-05-09 2020-04-22 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
CN106056562B (zh) * 2016-05-19 2019-05-28 京东方科技集团股份有限公司 一种人脸图像处理方法、装置及电子设备
US10129485B2 (en) * 2016-06-10 2018-11-13 Microsoft Technology Licensing, Llc Methods and systems for generating high dynamic range images
EP3350767B1 (en) * 2016-06-17 2020-06-03 Huawei Technologies Co., Ltd. Exposure-related intensity transformation
CN106169181B (zh) * 2016-06-30 2019-04-26 北京奇艺世纪科技有限公司 一种图像处理方法及系统
CN106204449B (zh) * 2016-07-06 2019-09-10 安徽工业大学 一种基于对称深度网络的单幅图像超分辨率重建方法
CN107491771A (zh) 2017-09-21 2017-12-19 百度在线网络技术(北京)有限公司 人脸检测方法和装置
JP7087331B2 (ja) * 2017-10-05 2022-06-21 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000184267A (ja) * 1998-12-17 2000-06-30 Sony Corp 映像信号処理装置
JP2004021374A (ja) * 2002-06-13 2004-01-22 Fuji Xerox Co Ltd 画像処理方法、画像処理装置、プログラム、記憶媒体
JP2008165312A (ja) * 2006-12-27 2008-07-17 Konica Minolta Holdings Inc 画像処理装置及び画像処理方法
JP2012044564A (ja) * 2010-08-20 2012-03-01 Sanyo Electric Co Ltd 撮像装置
WO2018048507A1 (en) * 2016-09-06 2018-03-15 Han Xiao Neural network for generating synthetic medical images
US20180130202A1 (en) * 2016-11-04 2018-05-10 Sichuan University Kind of dr radiography lung contour extraction method based on fully convolutional network

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
VIJAY BADRINARAYANAN: "SegNet:A Deep Convolutional Encoder-Decoder Architecture for Robust Semantic Pixel-Wise Labelling", CORP, JPN7020000317, 27 May 2015 (2015-05-27), US, ISSN: 0004208853 *
XIAO-JIAO MAO: "Image Denoising Using Very Deep Fully Convolutional Encoder-Decoder Networks with Symmetric Skip Con", CORP, JPN7020000316, 30 March 2016 (2016-03-30), JP, pages 1 - 15, ISSN: 0004208852 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210086493A (ko) * 2019-12-30 2021-07-08 포항공과대학교 산학협력단 디포커스 맵 추정을 위한 기계 학습 방법 및 장치
KR102363049B1 (ko) * 2019-12-30 2022-02-15 포항공과대학교 산학협력단 디포커스 맵 추정을 위한 기계 학습 방법 및 장치
CN111353958A (zh) * 2020-02-28 2020-06-30 北京东软医疗设备有限公司 图像处理方法、装置及系统
US11645736B2 (en) 2020-02-28 2023-05-09 Beijing Neusoft Medical Equipment Co., Ltd. Image processing methods, apparatuses and systems
CN111353958B (zh) * 2020-02-28 2023-07-25 北京东软医疗设备有限公司 图像处理方法、装置及系统

Also Published As

Publication number Publication date
US10949952B2 (en) 2021-03-16
CN108737750A (zh) 2018-11-02
EP3579180A1 (en) 2019-12-11
KR102172234B1 (ko) 2020-10-30
US20190378247A1 (en) 2019-12-12
KR20190143785A (ko) 2019-12-31
JP6803899B2 (ja) 2020-12-23

Similar Documents

Publication Publication Date Title
JP6803899B2 (ja) 画像処理方法、画像処理装置および電子機器
CN109376667B (zh) 目标检测方法、装置及电子设备
CN110428366B (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
KR102278776B1 (ko) 이미지 처리 방법, 기기, 및 장치
Zhang et al. Gradient-directed multiexposure composition
Jinno et al. Multiple exposure fusion for high dynamic range image acquisition
Li et al. Multi-exposure fusion with CNN features
Prabhakar et al. Towards practical and efficient high-resolution HDR deghosting with CNN
US8654201B2 (en) Method for deblurring an image
US7868922B2 (en) Foreground/background segmentation in digital images
WO2021022983A1 (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
Tang et al. Joint implicit image function for guided depth super-resolution
WO2017113048A1 (zh) 一种图像融合方法、装置及终端设备
CN113837079B (zh) 显微镜的自动对焦方法、装置、计算机设备和存储介质
Cho et al. Registration Based Non‐uniform Motion Deblurring
KR101664123B1 (ko) 필터링에 기반하여 고스트가 없는 hdri를 생성하는 장치 및 방법
JP2007157063A (ja) 画像処理装置及び画像処理方法、並びにコンピュータ・プログラム
CN111163265A (zh) 图像处理方法、装置、移动终端及计算机存储介质
CN113329146B (zh) 一种脉冲相机模拟方法与装置
WO2017173578A1 (zh) 一种图像增强方法及装置
JP2011040993A (ja) 被写体追尾プログラム、およびカメラ
Paramanand et al. Shape from sharp and motion-blurred image pair
CN114298942A (zh) 图像去模糊方法及装置、计算机可读介质和电子设备
US9338354B2 (en) Motion blur estimation and restoration using light trails
Choi et al. A method for fast multi-exposure image fusion

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201201

R150 Certificate of patent or registration of utility model

Ref document number: 6803899

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150