JP6814849B2 - 画像処理方法及び装置 - Google Patents

画像処理方法及び装置 Download PDF

Info

Publication number
JP6814849B2
JP6814849B2 JP2019132704A JP2019132704A JP6814849B2 JP 6814849 B2 JP6814849 B2 JP 6814849B2 JP 2019132704 A JP2019132704 A JP 2019132704A JP 2019132704 A JP2019132704 A JP 2019132704A JP 6814849 B2 JP6814849 B2 JP 6814849B2
Authority
JP
Japan
Prior art keywords
image
frame
images
offset
brightness
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019132704A
Other languages
English (en)
Other versions
JP2020031422A (ja
Inventor
レイ,ホア
チェン,カイ
ワン,リジェン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ArcSoft Corp Ltd
Original Assignee
ArcSoft Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ArcSoft Corp Ltd filed Critical ArcSoft Corp Ltd
Publication of JP2020031422A publication Critical patent/JP2020031422A/ja
Application granted granted Critical
Publication of JP6814849B2 publication Critical patent/JP6814849B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/646Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/10Image enhancement or restoration using non-spatial domain filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/77Circuits for processing the brightness signal and the chrominance signal relative to each other, e.g. adjusting the phase of the brightness signal relative to the colour signal, correcting differential gain or differential phase
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
    • H04N5/211Ghost signal cancellation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Picture Signal Circuits (AREA)

Description

本発明の実施例は、画像処理技術に関し、特に画像処理方法及び装置に関する。
光源が安定しない(例えば日常照明では、電源が交流であるため、光源の輝度は交流の振幅の変動に伴って変化する)ため、カメラ(デジタルカメラ、携帯電話のカメラなどを含む)で撮影されたビデオには、光源の変化に伴ってフレームとフレームとの間の明暗揺れひいては色揺れ現象が発生する。このような現象は、特に撮影フレームレート(ビデオを撮影する時に用いられるフレームレートで、ビデオを再生する時に用いられるフレームレートと区別するもの)が高フレームレート(毎秒240フレーム以上)であるビデオの場合に非常に顕著である。
現在、光源の周波数が60Hzで、フレームレートが毎秒240フレームであるビデオに対して、隣接する2つのフレームを重畳平均することによりビデオの輝度及び色揺れ現象を明らかに改善することができる。原理上、撮影フレームレートが光源の周波数の整数倍であるビデオであればいずれも隣接する複数のフレームを重畳する方法により輝度揺れ現象(ビデオの各フレームの画像の平均輝度又は画像における各画素の輝度がフレーム数の変化に伴って明暗揺れを起こす現象)及び色揺れ現象(各色チャネルの輝度揺れの不一致により色が輝度揺れに伴って変化する現象)を改善することができる。
しかしながら、該解決手段は、撮影フレームレートが光源の周波数の整数倍であるビデオのみに対して明らかな効果を有し、他のビデオに対して効果が明らかではない。また、該方法により処理されたビデオには、ビデオを撮影する時に高速移動物体が存在する場合、移動物体のゴーストが発生する。
本発明の実施例は、ビデオに存在する輝度又は色揺れを解消可能な画像処理方法及び装置を提供する。
(1)本発明の1つの実施例において、ビデオの各フレームの画像に対して輝度調整を行うことと、輝度調整された各フレームの画像に対してオフセット補償を行うことと、オフセット補償された各フレームの画像の画素に対して時間領域フィルタリングを行うこととを含む画像処理方法を提供する。
(2)前記ビデオの各フレームの画像に対して輝度調整を行うことは、前記各フレームの画像に対して、赤色Rチャネル、緑色Gチャネル及び青色Bチャネルの3つの色チャネルの色平均値をそれぞれ統計する処理と、予め設定された第1のフィルタリングスキームを採用して、それぞれ各色チャネルの色平均値に基づいて対応する色チャネルに対して第1の時間領域フィルタリングを行う処理をそれぞれ行うことを含む(1)に記載の画像処理方法。
(3)前記輝度調整された各フレームの画像に対してオフセット補償を行うことは、予め設定されたオフセット補償アルゴリズムを採用して、輝度調整されたビデオの任意の隣接する2つのフレームの画像間のオフセットを取得し、前記オフセットを補償することにより、前記ビデオの任意の隣接する2つのフレームの画像の同じ画像座標での画像コンテンツを一致させることを含む(1)に記載の画像処理方法。
(4)前記オフセット補償された各フレームの画像の画素に対して時間領域フィルタリングを行うことは、予め設定された第2のフィルタリングスキームを採用して各フレームのビデオ画像における各画素に対して第2の時間領域フィルタリングを行うことにより、現フレームの画像と現フレームより前のフレームの画像との線形重畳を行うことを含む(1)に記載の画像処理方法。
(5)輝度調整された各フレームの画像に対してオフセット補償を行った後、画像に移動物体が含まれるか否かを判断することをさらに含む(3)に記載の画像処理方法。
(6)前記画像に移動物体が含まれるか否かを判断することは、現フレームの画像と直前フレームの画像をそれぞれブロック化して、複数の第1のブロック化画像を取得することと、予め設定された差異計算アルゴリズムに基づいて、前記現フレームの画像と前記直前フレームの画像の対応する2つの第1のブロック化画像の差異をそれぞれ計算することと、前記2つの第1のブロック化画像の差異を予め設定された差異閾値と比較することと、前記2つの第1のブロック化画像の差異が前記差異閾値以上である場合、前記2つの第1のブロック化画像が類似しないと判定するとともに、前記2つの第1のブロック化画像の、前記現フレームの画像と前記直前フレームの画像における対応する画像領域に移動物体が含まれると判定し、前記2つの第1のブロック化画像の差異が前記差異閾値より小さい場合、前記2つの第1のブロック化画像が類似すると判定するとともに、前記2つの第1のブロック化画像の、前記現フレームの画像と前記直前フレームの画像における、対応する画像領域に移動物体が含まれないと判定することとを含む(5)に記載の画像処理方法。
(7)前記輝度調整されたビデオの任意の隣接する2つのフレームの画像間のオフセットを取得することは、輝度調整された現フレームの画像と直前フレームの画像をそれぞれブロック化して、複数の第2のブロック化画像を取得することと、前記現フレームの画像と前記直前フレームの画像における対応する2つの第2のブロック化画像間のオフセットをそれぞれ計算することと、前記複数の第2のブロック化画像から移動物体を含む第2のブロック化画像を排除し、残りの第2のブロック化画像のオフセットの平均値を前記現フレームの画像と前記直前フレームの画像との間のオフセットとすることとを含む(3)に記載の画像処理方法。
(8)いずれかのフレームの画像に移動物体が含まれると判断した後、前記移動物体が含まれる画像領域の画素値が1で、前記移動物体が含まれない画像領域の画素値が0である該フレームの画像のマスク画像を生成することと、予め設定された融合アルゴリズムに基づいて、前記マスク画像を用いて、画素に前記時間領域フィルタリングが行われた対応するフレームの画像と、画素に時間領域フィルタリングが行われなかった対応するフレームの画像とを融合させることにより、前記移動物体が含まれる前記画像領域を保持することとをさらに含む(6)に記載の画像処理方法。
(9)融合した各フレームの画像に対して空間領域フィルタリングを行うことをさらに含むことを特徴とする(8)に記載の画像処理方法。
(10)本発明の別の実施例において、プロセッサと、命令が記憶されているコンピュータ可読記憶媒体とを含む画像処理装置であって、前記プロセッサにより前記命令が実行されると、(1)〜(9)のいずれか1項に記載の画像処理方法が実現されることを特徴とする画像処理装置を提供する。
本発明の実施例は、ビデオの各フレームの画像に対して輝度調整を行うことと、輝度調整された各フレームの画像に対してオフセット補償を行うことと、オフセット補償された各フレームの画像の画素に対して時間領域フィルタリングを行うこととを含む。該実施例の解決手段によれば、ビデオに存在する輝度又は色揺れを効果的に解消する。
本発明の実施例の他の特徴及び利点は以下の明細書に説明され、かつ、部分的に明細書から明らかになるか、又は本発明を実施することにより理解される。本発明の実施例の目的及び他の利点は、明細書、特許請求の範囲及び図面に特に指摘された構造により実現することができる。
図面は、本発明の技術的解決手段をさらに理解するためのものであり、かつ明細書の一部を構成し、本願の実施例と共に本発明の技術的解決手段を解釈するためのものであり、本発明の技術的解決手段を限定するものではない。
本発明の実施例に係る画像処理方法のフローチャートである。 本発明の実施例に係るビデオの各フレームの画像に対して輝度調整を行う方法のフローチャートである。 本発明の実施例に係る輝度調整されたビデオの任意の隣接する2つのフレームの画像間のオフセットを取得する方法のフローチャートである。 本発明の実施例に係る画像に移動物体が含まれるか否かを判断する方法のフローチャートである。 本発明の実施例に係る移動物体が含まれる画像を画像融合させる方法のフローチャートである。 本発明の実施例に係るビデオ画像が縮小された上でビデオ画像を処理する方法のフローチャートである。 本発明の実施例に係る画像処理装置の構成を示すブロック図である。
本発明の目的、技術的解決手段及び利点をより明らかにするために,以下、図面を参照しながら本発明の実施例を詳細に説明する。なお、本願における実施例と実施例における特徴は、矛盾しない限り、互いに任意に組み合わせることができる。
図面のフローチャートに示されるステップは、一組のコンピュータ実行可能な命令を含むコンピュータシステムにおいて実行することができる。かつ、フローチャートにおいて論理的な順序が示されるが、いくつかの場合では、それとは異なる順序で、示されるか又は説明されるステップを実行してもよい。
(実施例1)
画像処理方法は、図1に示すように、S101〜S103を含むことができる。
S101、ビデオの各フレームの画像に対して輝度調整を行う。
S102、輝度調整された各フレームの画像に対してオフセット補償を行う。
S103、オフセット補償された各フレームの画像の画素に対して時間領域フィルタリングを行う。
本発明の実施例において、ビデオの各フレームの画像に対して、まず全体の輝度調整を行い、その後に画像マッチングを実施し、すなわち輝度調整された各フレームの画像に対してオフセット補償を行い、画像マッチングの結果に基づいて時間領域フィルタリングを行って、高速撮影ビデオの変動光源下で発生する輝度揺れ現象を効果的に低減し、ビデオに存在する輝度又は色揺れを解消する。
本発明の実施例において、具体的な輝度調整、画像マッチング及び時間領域フィルタリングの方法、アルゴリズム及び装置はいずれも制限されず、異なる応用シーンに基づいて、従来の任意の方法、アルゴリズム又は装置により実現することができる。
なお、本発明の実施例において、該実施例の解決手段は、高フレームレート(例えば毎秒240フレーム以上のフレームレート)に適用することができ、フレームレートが毎秒240フレーム以上、毎秒960フレーム以下のビデオを含むが、それらに限定されない。光源の周波数は、60HZ及び50HZを含むが、それらに限定されない。本発明の実施例の解決手段を採用可能な任意のビデオはいずれも本発明の実施例の保護範囲内にある。
(実施例2)
該実施例は実施例1を基に、輝度調整の具体的な実施形態を示す。
本発明の実施例において、図2に示すように、前記ビデオの各フレームの画像に対して輝度調整を行うことは、前記各フレームの画像に対して以下のステップS201〜S202の処理をそれぞれ行うことを含むことができる。
S201、それぞれ赤色Rチャネル、緑色Gチャネル及び青色Bチャネルの3つの色チャネルの色平均値を統計する。
S202、予め設定された第1のフィルタリングスキームを採用して、それぞれ各色チャネルの色平均値に基づいて、対応する色チャネルに対して第1の時間領域フィルタリングを行う。
本発明の実施例において、各フレームの画像に対して、3つの色チャネルの色平均値をそれぞれ統計し、現フレームの画像のRGBの3つの色チャネルの色平均値をそれぞれR、G、Bとする。予め設定された第1のフィルタリングスキームを採用して、それぞれ3つの色チャネルの色平均値に対して第1の時間領域フィルタリングを行うことができる。
本発明の実施例において、該第1のフィルタリングスキームは、有限インパルス応答フィルタ又は無限インパルス応答フィルタを含むが、それらに限定されない。
本発明の実施例において、ここでRを例としてどのように有限インパルス応答フィルタにより時間領域フィルタリングを行うかを説明する。現フレームの画像よりiフレーム前の画像のRチャネルの色平均値をRt−iとし、Rチャネルの色平均値に対する時間領域フィルタリングは、以下の関係式で説明することができる。
Figure 0006814849

ここで、Rt_tfはRチャネルの時間領域フィルタリングの結果であり、βはフィルタリング係数である。ω=Rt_tf/Rとし、現フレームの画像における各画素のRチャネルの画素値にωを乗算し、該フレームの画像における各画素のRチャネルの画素値とする。
本発明の実施例において、他のチャネル(Gチャネル及びBチャネル)に対して同様の処理を行うことにより、現フレームの画像における各画素の各色チャネルの色平均値に対する時間領域フィルタリングを実現し、また、時間領域フィルタリングした結果を利用して各画素の各色チャネルの画素値を調整し、それによりビデオの各フレームの画像に対する輝度調整を実現し、ここで重複説明を省略する。
(実施例3)
該実施例は実施例1又は実施例2を基に、画像マッチングの具体的な実施形態を示す。
本発明の実施例において、前記輝度調整された各フレームの画像に対してオフセット補償を行うことは、予め設定されたオフセット補償アルゴリズムを採用して、輝度調整されたビデオの任意の隣接する2つのフレームの画像間のオフセットを取得し、前記オフセットを補償することにより、前記ビデオの任意の隣接する2つのフレームの画像の同じ画像座標での画像コンテンツを一致させることを含むことができる。
本発明の実施例において、カメラのぶれ(例えば手でカメラを持つ時の手ぶれによるカメラのぶれ)に起因し、現フレームの画像は直前フレームの画像に対して一定のオフセットを有し、このように2つのフレームの画像の同じ画像座標での画像コンテンツが一致しないことを引き起こし、このような現象は後続の画像の時間領域フィルタリングに悪影響を与える。オフセットの他にカメラの回転が存在する可能性もあるが、隣接する2つのフレームの画像のみを考慮すれば、カメラの回転を無視することができる。画像マッチングの目的は画像間のオフセットを見つけ、オフセットの補償により、画像コンテンツが一致しないという現象を解消することである。
本発明の実施例において、ビデオの任意の隣接する2つのフレームの画像の同じ画像座標での画像コンテンツが一致することは、任意の隣接する2つのフレームの画像の間では、画像コンテンツが同じである任意の2つの領域の同じ画像座標での位置が同じであるか、又は、位置の偏差量が予め設定された偏差閾値以下であることを指すことができる。
本発明の実施例において、該オフセット補償アルゴリズムは、テンプレートマッチングアルゴリズム及び/又は特徴点に基づくマッチングアルゴリズムを含むが、それらに限定されず、以下、それぞれ2種類のオフセット補償アルゴリズムを詳細に説明する。
本発明の実施例において、最も簡単なオフセット補償アルゴリズムは典範的なテンプレートマッチングアルゴリズムであってもよい。その基本原理を以下のように簡単に説明することができる。参照画像からテンプレート画像の大きさと同じ領域を切り出して、切り出し画像とし、テンプレート画像を切り出し画像と比較して、それらの差異を計算する。そのうち、画像の差異を評価する技術指標は、正規化相互相関、平均絶対差、誤差二乗和及び絶対誤差和などを含むが、それらに限定されない。切り出し画像の参照画像における開始位置の範囲を人為的に設定し、この範囲内の全ての切り出し画像とテンプレート画像との差異を計算し、最小差異に対応する切り出し画像の開始位置をテンプレート画像及び参照画像のオフセットとすることができる。
本発明の実施例において、特徴点に基づくマッチングアルゴリズムの基本原理を以下のように簡単に説明することができる。マッチング対象の2つの画像から特徴点をそれぞれ抽出し、特徴点マッチングアルゴリズムにより特徴点マッチングペアを求め、これらの特徴点マッチングペアに基づいて2つの画像間のオフセットを計算する。
本発明の実施例において、特徴点を抽出するアルゴリズムも複数種あり、例えば、典範的なSIFTアルゴリズム(SIFT、すなわちScale−invariant feature transform、スケール不変特徴変換)、HARRISアルゴリズムなどを含むが、それらに限定されない。
本発明の実施例において、特徴点マッチングアルゴリズムはSIFTアルゴリズム、SURF(Speeded Up Robust Features、スピードアップロバスト特性)アルゴリズムなどを含むが、それらに限定されない。
本発明の実施例において、これらの特徴点マッチングに基づいて2つの画像間のオフセットを計算する他、特徴点のオプティックフローを求め(例えば、典範的なLucas−Kanadeアルゴリズムを採用する)、異常なオプティックフローを排除する(簡単な方法としては、1つの閾値を設定し、この閾値以上のオプティックフローを異常なオプティックフローとし、この閾値未満のオプティックフローを非異常オプティックフローとする)ことにより、残りの特徴点のオプティックフローを平均して画像全体のオフセットとすることができる。
(実施例4)
該実施例は実施例3を基に、移動物体のオフセット補償過程への影響を解消するために、画像のオフセットを取得する別の具体的な実施形態を示す。
本発明の実施例において、図3に示すように、前記輝度調整されたビデオの任意の隣接する2つのフレームの画像間のオフセットを取得することは、以下のS301〜S303を含むことができる。
S301、輝度調整された現フレームの画像と直前フレームの画像をそれぞれブロック化して、複数の第2のブロック化画像を取得する。
S302、前記現フレームの画像と前記直前フレームの画像における対応する2つの第2のブロック化画像間のオフセットをそれぞれ計算する。
S303、前記複数の第2のブロック化画像から移動物体を含む第2のブロック化画像を排除するとともに、残りの第2のブロック化画像のオフセットの平均値を前記現フレームの画像と前記直前フレームの画像との間のオフセットとする。
本発明の実施例において、移動物体のオフセット補償への影響を解消するために、まず画像をブロック化し、各画像ブロック(すなわち、上記第2のブロック化画像)に対応するオフセットをそれぞれ計算し、次に移動物体の影響を受ける画像ブロックを排除し、その他の画像ブロックのオフセットの平均値を求めて画像全体のオフセットとする。
(実施例5)
該実施例は実施例3又は実施例4を基に、オフセット補償されたビデオに対してさらなる時間領域フィルタリングを行う具体的な実施形態を示す。
本発明の実施例において、前記オフセット補償された各フレームの画像の画素に対して時間領域フィルタリングを行うことは、予め設定された第2のフィルタリングスキームを採用して、各フレームのビデオ画像における各画素に対して第2の時間領域フィルタリングを行うことにより、現フレームの画像と現フレームより前の画像との線形重畳を行うことを含むことができる。
本発明の実施例において、該ステップにおける時間領域フィルタリング(すなわち第2の時間領域フィルタリング)はステップS101における時間領域フィルタリング(すなわち第1の時間領域フィルタリング)と類似し、相違点は該ステップにおいて各画素毎に時間領域フィルタリングを行うことである。
なお、本発明の実施例において、該第1の時間領域フィルタリング及び第2の時間領域フィルタリングは2つの異なるステップにおける時間領域フィルタリングを区別するためのものに過ぎず、2回の時間領域フィルタリングの具体的なスキーム及び実施順序などを制限するためのものではない。第1の時間領域フィルタリングと第2の時間領域フィルタリングは同じ又は異なる時間領域フィルタリングスキームを採用することができる。
本発明の実施例において、該第2のフィルタリングスキームは、有限インパルス応答フィルタ又は無限インパルス応答フィルタを含むが、それらに限定されない。
本発明の実施例において、以下、有限インパルス応答フィルタによるフィルタリングを例として詳細に説明する。具体的には、有限インパルス応答フィルタによるフィルタリングは、下記関係式で実現することができる。
Figure 0006814849

ここで、Iは現フレームの画像であり、It−iは現フレームの画像よりiフレーム前の画像であり、Iはビデオの第1のフレームの画像であり、It_tfは時間領域フィルタリングの結果であり、(x、y)は画像画素座標であり、αはフィルタリング係数である。
本発明の実施例において、ビデオの各フレームのフレーム画像に対して時間領域フィルタリングを行い、フィルタリングした結果は現フレームの画像と過去フレームの画像(すなわち現フレームより前の画像)との線形重畳である。
(実施例6)
該実施例は実施例3又は実施例4を基に、ビデオ中の移動物体がぼやけないか又はゴースト現象が発生しないように、かつ、上記実施例の4種類の解決手段を円滑に実施するように、画像に移動物体が含まれるか否かを判断する実施例の解決手段を示し、具体的な実施形態を示す。
本発明の実施例において、前記方法は、輝度調整された各フレームの画像に対してオフセット補償を行った後、画像における移動物体を判断することをさらに含むことができる。
本発明の実施例において、図4に示すように、前記画像に移動物体が含まれるか否かを判断することは、以下のS401〜S404を含むことができる。
S401、現フレームの画像と直前フレームの画像をそれぞれブロック化して、複数の第1のブロック化画像を取得する。
S402、予め設定された差異計算アルゴリズムに基づいて、前記現フレームの画像と前記直前フレームの画像における対応する2つの第1のブロック化画像の差異をそれぞれ計算する。
S403、前記2つの第1のブロック化画像の差異を予め設定された差異閾値と比較する。
S404、前記2つの第1のブロック化画像の差異が前記差異閾値以上である場合、前記2つの第1のブロック化画像が類似しないと判定するとともに、前記2つの第1のブロック化画像の、前記現フレームの画像と前記直前フレームの画像における対応する画像領域に移動物体が含まれると判定し、前記2つの第1のブロック化画像の差異が前記差異閾値より小さい場合、前記2つの第1のブロック化画像が類似すると判定するとともに、前記2つの第1のブロック化画像の、前記現フレームの画像と前記直前フレームの画像における対応する画像領域に移動物体が含まれないと判定する。
本発明の実施例において、現フレームの画像と直前フレームの画像を比較する前に、まず現フレームの画像と直前フレームの画像をブロック化し、各小ブロック内で、現フレームの画像と直前フレームの画像との間の差異を計算し(該差異の取得は、正規化相互相関、平均絶対差、誤差二乗和及び絶対誤差和などのアルゴリズムで実現されてもよいがそれらに限定されない)、この2つのフレームの画像がこの小ブロック内で類似するか否かを判断するための1つの閾値を予め設定することができ、差異が該閾値以上である場合に類似しないと判断し、そうでない場合に類似すると判断することができる。判断結果が類似しないことを示す場合、該領域に移動物体が含まれると判断することができ、そうでない場合に該領域に移動物体が含まないと判断することができる。
なお、本発明の実施例において、該実施例における第1のブロック化画像と前述の実施例における第2のブロック化画像は2つの異なる呼称又は符号に過ぎず、異なる目的のための2回のブロック化動作において取得されたブロック化画像を主に区別し、混乱を避けるためのものであり、いかなる順番、大きさなどの属性の区別もない。
なお、本発明の実施例において、該ステップは、輝度調整された各フレームの画像に対してオフセット補償を行った後に行ってもよいし、輝度調整された各フレームの画像に対してオフセット補償を行う前に行ってもよく、その具体的な実施時間及び順序を詳細に制限しない。
(実施例7)
該実施例は実施例6を基に、ビデオ中の移動物体がぼやけないか又はゴースト現象が発生しないように、さらなる具体的な実施形態を示す。
本発明の実施例において、図5に示すように、該方法はさらにS501〜S502を含むことができる。
S501、いずれかのフレームの画像に移動物体が含まれると判断した後、前記移動物体が含まれる画像領域の画素値が1で、前記移動物体が含まれない画像領域の画素値が0である該フレームの画像のマスク画像を生成する。
S502、予め設定された融合アルゴリズムに基づいて、前記マスク画像を用いて、画素に前記時間領域フィルタリング(すなわち第2の時間領域フィルタリング)が行われた対応するフレームの画像と、画素に時間領域フィルタリング(すなわち第2の時間領域フィルタリング)が行われなかった対応するフレームの画像とを融合させることにより、前記移動物体が含まれる前記画像領域を保持する。
本発明の実施例において、いずれかのフレームの画像に移動物体が含まれると判断した場合、該運動画像の、二値画像であるマスク画像Mを1つ生成してよく、そのうち、移動物体がある領域の画素値が1であり、移動物体がない領域の画素値が0である。
本発明の実施例において、移動物体判断の結果に基づいて、マスク画像Mを用いて、時間領域フィルタリングを経た対応するフレームの画像と、画素に時間領域フィルタリングが行われなかった対応するフレームの画像とを融合させることにより、移動物体が含まれる画像領域を保持することができ、それにより時間領域フィルタリングによる移動物体のぼやけ、ゴーストなどの現象を解消する。
本発明の実施例において、画素に前記時間領域フィルタリング(すなわち第2の時間領域フィルタリング)が行われた対応する当該フレーム画像、及び、画素に時間領域フィルタリングが行われなかった対応する当該フレーム画像は、いずれも上記マスク画像に対応するフレームの画像を指す。
本発明の実施例において、該マスク画像Mに基づいて下記関係式で画像融合を実現することができる。
Figure 0006814849

ここで、Iは融合された結果であり、It_tfは画像の時間領域フィルタリングの結果であり、Iは現フレームの画像であり、x、yは画像の座標である。
本発明の実施例において、上記関係式により、時間領域フィルタリングが行われた現フレームの画像と時間領域フィルタリングが行われなかった現フレームの画像との簡単な重ね合わせを実現することができ、すなわち移動物体が含まれる領域は現フレームの画像の画素値を採用するのに対し、移動物体が含まれない領域は時間領域フィルタリングが行われて得られた結果の画素値を採用する。
本発明の実施例において、該予め設定された融合アルゴリズムは、典範的なラプラシアンピラミッド融合アルゴリズムをさらに含むことができる。
本発明の実施例において、典範的なラプラシアンピラミッド融合アルゴリズムの基本原理は以下のとおりである。まず一連のぼやけた画像G、G…Gを生成し、ここでGが原画像であり、後の各層の画像Gはいずれも上層の画像Gi−1に対して畳み込みブラー(convolutional blurring)及びダウンサンプリングを行うことにより生成され、例えばGはGに対して畳み込みブラー及びダウンサンプリングを行うことにより得られ、畳み込みブラーカーネルは一般的にガウシアンカーネルが用いられるため、この一連の画像はガウシアンピラミッドとも呼ばれる。ぼやけた画像シーケンスがガウシアンブラーカーネルによって生成されない場合があるが、説明を簡単にするために、ここでぼやけた画像G、G…Gのシーケンスをガウシアンピラミッドで表す。ラプラシアンピラミッドをL、L…Lと表記する場合、ラプラシアンピラミッドの各層の画像は、L=G-expand(Gi+1)という等式により得られてよい。ここでexpand関数はアップサンプリングとして理解することができる。すなわち、ラプラシアンピラミッドの各層は、いずれもガウシアンピラミッドにおける該層に対応する画像からガウシアンピラミッドにおける次の層の画像のアップサンプリングされた画像を減算して得られる。最後の層L=Gに注意すべきである。ラプラシアンピラミッドにより画像を再構成することは上記過程の逆過程である。したがって、ラプラシアンピラミッドにより融合するステップを以下のように説明する。
1、時間領域フィルタリングの結果It_tfと現フレームIに対してラプラシアンピラミッドを構築し、それぞれLIt_tfとLIとする。
2、マスク画像Mに対してガウシアンピラミッドを構築し、GMと記す。
3、新たなラプラシアンピラミッドLSを構築する。
Figure 0006814849

ここでlはピラミッドの層数の下付き文字であり、正整数であり、x,yは画像の座標である。
4、LS再構成画像により結果画像を得る。
(実施例8)
該実施例は実施例7を基に、以上のステップを経て残された残像を除去するために、さらなる具体的な実施形態を示す。
本発明の実施例において、前記方法は、融合された各フレームの画像に対して空間領域フィルタリングを行うことをさらに含むことができる。
本発明の実施例において、時間領域フィルタリングとは、フレームとフレームとの間のフィルタリングであり、空間領域フィルタリングとは、単一のフレームの画像をフィルタリングすることを指し、主な目的は以上のステップを経て残された残像を除去することである。
本発明の実施例において、空間領域フィルタリング方法は、例えばガイデットフィルタ(guided filter)、バイラテラルフィルタ(bilateral filter)などのエッジ保存フィルタ(edge preserved filter)を含むが、それらに限定されない。画像融合の結果に対して画像の空間領域フィルタリングを行って最終的な結果を得る。
(実施例9)
該実施例は上記任意の実施例を基に、ビデオ画像を縮小した上でビデオ画像を処理する具体的な実施形態を示す。
本発明の実施例において、実施例9は実施例1〜8の主なフローと基本的に一致し、主な相違点は実施例9における大部分の動作が小画像上で行われることである。そのフローチャートを図6に示す。具体的には以下のとおりである。全体の輝度調整を行った後に画像を縮小し、全体の輝度調整が行われた画像をIと表記し、Iを縮小した画像をIと表記する。その後にIに対して画像位置合わせ(すなわちオフセット補償)、第2の時間領域フィルタリング、移動物体の判断、画像融合、空間領域フィルタリングを行い(これらのステップは実施例1〜8と同じであり)、結果をIsfと記す。これにより差異画像ΔIを求めることができる。
Figure 0006814849

ここでx,yは画像の座標である。その後、差異画像ΔIをIと同じサイズに拡大し、拡大された差異画像ΔIを得、ΔIをIに重ね合わせて最終的な結果Iを得る。ここで、x,yは画像の座標である。
Figure 0006814849
本発明の実施例において、縮小された画像上で大部分の処理を行い、次に処理後の結果と処理前の小画像の差異画像を拡大して大画像に応用し、該実施例の解決手段は効果を保証する前提で演算時間を大幅に短縮することができる。
(実施例10)
画像処理装置1は、図7に示すように、プロセッサ11と、前記プロセッサ11により実行されると、上記いずれか1つの実施例に記載の画像処理方法を実現する命令が記憶されているコンピュータ可読記憶媒体12とを含む。
本発明の実施例は、ビデオの各フレームの画像に対して輝度調整を行うことと、輝度調整された各フレームの画像に対してオフセット補償を行うことと、オフセット補償された各フレームの画像の画素に対して時間領域フィルタリングを行うこととを含む。該実施例の解決手段によれば、ビデオに存在する輝度又は色揺れを効果的に解消し、移動物体を良好に保持することにより、ぼやけず、残像又はゴーストがない。
本発明の実施例において開示される技術は、静止画像、動態画像(例えばビデオ)に適用することができ、例えばデジタルカメラ、携帯電話、集積デジタルカメラを有する電子機器、安全又はビデオ監視システム、医療撮像システムなどの如何なる適切なタイプの画像処理装置にも適用することができる。
(ハードウェアとの結合)
当業者であれば理解されるように、本明細書に開示された方法における全部又はいくつかのステップ、システム、装置における機能モジュール/ユニットはソフトウェア、ファームウェア、ハードウェア及びそれらの適切な組み合わせとして実施されてもよい。ハードウェアの実施形態において、以上の説明で言及した機能モジュール/ユニットの間の分割は必ずしも物理コンポーネントの分割に対応するとは限らず、例えば、1つの物理コンポーネントは複数の機能を有してもよいか、又は1つの機能又はステップは複数の物理コンポーネントが協力して実行してもよい。いくつかのコンポーネント又は全てのコンポーネントは、デジタル信号プロセッサ又はマイクロプロセッサのようなプロセッサにより実行されるソフトウェアとして実施されてもよいか、又はハードウェアとして実施されてもよいか、又は特定用途向け集積回路のような集積回路として実施されてもよい。このようなソフトウェアは、コンピュータ記憶媒体(又は非一時的な媒体)及び通信媒体(又は一時的な媒体)を含むことができるコンピュータ可読媒体に分布することができる。当業者に周知のように、用語のコンピュータ記憶媒体は情報(コンピュータ可読命令、データ構造、プログラムモジュール、又は他のデータなど)を記憶するための任意の方法又は技術において実施される揮発性及び不揮発性、リムーバブル及び非リムーバブル媒体を含む。コンピュータ記憶媒体は、RAM、ROM、EEPROM、フラッシュメモリ又は他のメモリ技術、CD−ROM、デジタル多機能ディスク(DVD)又は他の光ディスク記憶装置、磁気カセット、磁気テープ、磁気ディスク記憶装置又は他の磁気記憶装置、又は所望の情報を記憶し、かつコンピュータによりアクセス可能な任意の他の媒体を含むが、それらに限定されない。また、当業者に周知のように、通信媒体は、一般的にコンピュータ可読命令、データ構造、プログラムモジュール、又は搬送波又は他の伝送メカニズムのような変調データ信号中の他のデータを含み、かついかなる情報配信媒体を含むことができる。

Claims (10)

  1. ビデオの各フレームの画像に対して輝度調整を行うことと、
    輝度調整を行った後、各フレームの画像に対して縮小処理を行うことと、
    輝度調整された各フレームの縮小された画像に対してオフセット補償を行うことと、
    オフセット補償された各フレームの縮小された画像の画素に対して時間領域フィルタリングを行うこととを含む画像処理方法。
  2. 前記ビデオの各フレームの画像に対して輝度調整を行うことは、
    前記各フレームの画像に対して、
    赤色Rチャネル、緑色Gチャネル及び青色Bチャネルの3つの色チャネルの色平均値をそれぞれ統計する処理と、
    予め設定された第1のフィルタリングスキームを採用して、それぞれ各色チャネルの色平均値に基づいて対応する色チャネルに対して第1の時間領域フィルタリングを行う処理とをそれぞれ行うことを含むことを特徴とする請求項1に記載の画像処理方法。
  3. 前記輝度調整された各フレームの画像に対してオフセット補償を行うことは、予め設定されたオフセット補償アルゴリズムを採用して、輝度調整されたビデオの任意の隣接する2つのフレームの画像間のオフセットを取得し、前記オフセットを補償することにより、前記ビデオの任意の隣接する2つのフレームの画像の同じ画像座標での画像コンテンツを一致させることを含むことを特徴とする請求項1に記載の画像処理方法。
  4. 前記オフセット補償された各フレームの画像の画素に対して時間領域フィルタリングを行うことは、予め設定された第2のフィルタリングスキームを採用して、各フレームのビデオ画像における各画素に対して第2の時間領域フィルタリングを行うことにより、現フレームの画像と現フレームに位置するフレームの画像との線形重畳を行うことを含むことを特徴とする請求項1に記載の画像処理方法。
  5. 輝度調整された各フレームの画像に対してオフセット補償を行った後、画像に移動物体が含まれるか否かを判断することをさらに含むことを特徴とする請求項3に記載の画像処理方法。
  6. 前記画像に移動物体が含まれるか否かを判断することは、
    現フレームの画像と直前フレームの画像をそれぞれブロック化して、複数の第1のブロック化画像を取得することと、
    予め設定された差異計算アルゴリズムに基づいて、前記現フレームの画像と前記直前フレームの画像における対応する2つの第1のブロック化画像の差異をそれぞれ計算することと、
    前記2つの第1のブロック化画像の差異を予め設定された差異閾値と比較することと、
    前記2つの第1のブロック化画像の差異が前記差異閾値以上である場合、前記2つの第1のブロック化画像が類似しないと判定するとともに、前記2つの第1のブロック化画像の、前記現フレームの画像と前記直前フレームの画像における対応する画像領域に移動物体が含まれると判定し、前記2つの第1のブロック化画像の差異が前記差異閾値より小さい場合、前記2つの第1のブロック化画像が類似すると判定するとともに、前記2つの第1のブロック化画像の、前記現フレームの画像と前記直前フレームの画像における対応する画像領域に移動物体が含まれないと判定することとを含むことを特徴とする請求項5に記載の画像処理方法。
  7. 前記輝度調整されたビデオの任意の隣接する2つのフレームの画像間のオフセットを取得することは、
    輝度調整された現フレームの画像と直前フレームの画像をそれぞれブロック化して、複数の第2のブロック化画像を取得することと、
    前記現フレームの画像と前記直前フレームの画像における対応する2つの第2のブロック化画像間のオフセットをそれぞれ計算することと、
    前記複数の第2のブロック化画像から移動物体を含む第2のブロック化画像を排除し、残りの第2のブロック化画像のオフセットの平均値を前記現フレームの画像と前記直前フレームの画像との間のオフセットとすることとを含むことを特徴とする請求項3に記載の画像処理方法。
  8. いずれかのフレームの画像に移動物体が含まれると判断した後、前記移動物体が含まれる画像領域の画素値が1で、前記移動物体が含まれない画像領域の画素値が0である該フレームの画像のマスク画像を生成することと、
    予め設定された融合アルゴリズムに基づいて、前記マスク画像を用いて、画素に前記時間領域フィルタリングが行われた対応するフレームの画像と、画素に時間領域フィルタリングが行われなかった対応するフレームの画像とを融合させることにより、前記移動物体が含まれる前記画像領域を保持することとをさらに含むことを特徴とする請求項6に記載の画像処理方法。
  9. 融合された各フレームの画像に対して空間領域フィルタリングを行うことをさらに含むことを特徴とする請求項8に記載の画像処理方法。
  10. プロセッサと、命令が記憶されているコンピュータ可読記憶媒体とを含む画像処理装置であって、
    前記プロセッサにより前記命令が実行されると、請求項1〜9のいずれか1項に記載の画像処理方法が実現されることを特徴とする画像処理装置。
JP2019132704A 2018-08-22 2019-07-18 画像処理方法及び装置 Active JP6814849B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201810961926.5 2018-08-22
CN201810961926.5A CN110858895B (zh) 2018-08-22 2018-08-22 一种图像处理方法和装置

Publications (2)

Publication Number Publication Date
JP2020031422A JP2020031422A (ja) 2020-02-27
JP6814849B2 true JP6814849B2 (ja) 2021-01-20

Family

ID=69586383

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019132704A Active JP6814849B2 (ja) 2018-08-22 2019-07-18 画像処理方法及び装置

Country Status (5)

Country Link
US (1) US11373279B2 (ja)
JP (1) JP6814849B2 (ja)
KR (1) KR102315471B1 (ja)
CN (1) CN110858895B (ja)
TW (1) TWI741305B (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109767401B (zh) * 2019-01-15 2021-02-12 深圳看到科技有限公司 画面优化方法、装置、终端及对应的存储介质
CN111935425B (zh) * 2020-08-14 2023-03-24 字节跳动有限公司 视频降噪方法、装置、电子设备及计算机可读介质
CN115359085B (zh) * 2022-08-10 2023-04-04 哈尔滨工业大学 一种基于检出点时空密度判别的密集杂波抑制方法

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2687670B2 (ja) 1990-04-19 1997-12-08 松下電器産業株式会社 動き検出回路および手ぶれ補正装置
JPH11122513A (ja) 1997-10-09 1999-04-30 Matsushita Electric Ind Co Ltd 蛍光灯フリッカー補正装置及びそれを使用したカメラ
US6747757B1 (en) * 1998-05-20 2004-06-08 Fuji Photo Film Co., Ltd. Image processing method and apparatus
KR100405150B1 (ko) 2001-06-29 2003-11-10 주식회사 성진씨앤씨 시공간 적응적 잡음 제거/고화질 복원 방법 및 이를응용한 고화질 영상 입력 장치
US7570305B2 (en) * 2004-03-26 2009-08-04 Euresys S.A. Sampling of video data and analyses of the sampled data to determine video properties
JP2006024993A (ja) * 2004-07-06 2006-01-26 Matsushita Electric Ind Co Ltd 撮像信号処理装置
JP2007180808A (ja) * 2005-12-27 2007-07-12 Toshiba Corp 映像符号化装置、映像復号化装置、及び映像符号化方法
JP2008109370A (ja) 2006-10-25 2008-05-08 Sanyo Electric Co Ltd 画像補正装置及び方法並びに撮像装置
JP4245045B2 (ja) * 2006-12-26 2009-03-25 ソニー株式会社 撮像装置、撮像信号処理方法及びプログラム
TWI351212B (en) * 2006-12-28 2011-10-21 Altek Corp Brightness adjusting method
WO2009005326A2 (en) * 2007-07-04 2009-01-08 Lg Electronics Inc. Digital broadcasting system and method of processing data
JP2009069185A (ja) * 2007-09-10 2009-04-02 Toshiba Corp 映像処理装置及び映像処理方法
US8484028B2 (en) * 2008-10-24 2013-07-09 Fuji Xerox Co., Ltd. Systems and methods for document navigation with a text-to-speech engine
US8538200B2 (en) * 2008-11-19 2013-09-17 Nec Laboratories America, Inc. Systems and methods for resolution-invariant image representation
US8681185B2 (en) * 2009-03-05 2014-03-25 Ostendo Technologies, Inc. Multi-pixel addressing method for video display drivers
JP5374220B2 (ja) * 2009-04-23 2013-12-25 キヤノン株式会社 動きベクトル検出装置およびその制御方法、ならびに撮像装置
KR101089029B1 (ko) 2010-04-23 2011-12-01 동명대학교산학협력단 광류를 이용한 방범용 차량 감지 시스템
CN101964863B (zh) * 2010-05-07 2012-10-24 镇江唐桥微电子有限公司 一种自适应的时空域视频图像降噪方法
US8683377B2 (en) * 2010-05-12 2014-03-25 Adobe Systems Incorporated Method for dynamically modifying zoom level to facilitate navigation on a graphical user interface
US8786625B2 (en) * 2010-09-30 2014-07-22 Apple Inc. System and method for processing image data using an image signal processor having back-end processing logic
CN105049566A (zh) * 2010-12-27 2015-11-11 罗姆股份有限公司 呼入通话单元
US20130169834A1 (en) * 2011-12-30 2013-07-04 Advanced Micro Devices, Inc. Photo extraction from video
JP5362878B2 (ja) 2012-05-09 2013-12-11 株式会社日立国際電気 画像処理装置及び画像処理方法
US9292959B2 (en) * 2012-05-16 2016-03-22 Digizig Media Inc. Multi-dimensional stacking with self-correction
US9495783B1 (en) * 2012-07-25 2016-11-15 Sri International Augmented reality vision system for tracking and geolocating objects of interest
JP6429500B2 (ja) * 2013-06-14 2018-11-28 キヤノン株式会社 光学機器、交換レンズ及び像ぶれ補正方法
CN104995908B (zh) * 2014-02-07 2018-01-30 株式会社摩如富 图像处理装置以及图像处理方法
US9389069B2 (en) * 2014-03-26 2016-07-12 Alces Technology, Inc. Compact 3D depth capture systems
JP5909711B1 (ja) * 2015-06-15 2016-04-27 パナソニックIpマネジメント株式会社 動線分析システム及び動線表示方法
JP6558579B2 (ja) * 2015-12-24 2019-08-14 パナソニックIpマネジメント株式会社 動線分析システム及び動線分析方法
US20170209125A1 (en) * 2016-01-22 2017-07-27 General Electric Company Diagnostic system and method for obtaining measurements from a medical image
US10497130B2 (en) * 2016-05-10 2019-12-03 Panasonic Intellectual Property Management Co., Ltd. Moving information analyzing system and moving information analyzing method
JP6789682B2 (ja) * 2016-06-13 2020-11-25 キヤノン株式会社 撮像装置、その制御方法、及びプログラム
CN106504717B (zh) * 2016-12-27 2018-01-12 惠科股份有限公司 一种显示装置的驱动方法及显示装置
CN106878787B (zh) * 2017-03-08 2020-02-14 深圳创维-Rgb电子有限公司 电视影院模式实现方法及装置
US20190028766A1 (en) * 2017-07-18 2019-01-24 Audible Magic Corporation Media classification for media identification and licensing
WO2019067497A1 (en) * 2017-09-27 2019-04-04 Equifax Inc. SYNCHRONIZATION OF DATA INPUT FIELDS WITH CORRESPONDING IMAGE REGIONS

Also Published As

Publication number Publication date
KR20200022334A (ko) 2020-03-03
TWI741305B (zh) 2021-10-01
CN110858895B (zh) 2023-01-24
US11373279B2 (en) 2022-06-28
JP2020031422A (ja) 2020-02-27
CN110858895A (zh) 2020-03-03
KR102315471B1 (ko) 2021-10-20
US20200065949A1 (en) 2020-02-27
TW202009876A (zh) 2020-03-01

Similar Documents

Publication Publication Date Title
US9591237B2 (en) Automated generation of panning shots
US10771697B2 (en) Still image stabilization/optical image stabilization synchronization in multi-camera image capture
JP6814849B2 (ja) 画像処理方法及び装置
US9378543B2 (en) Temporally coherent local tone mapping of high dynamic range video
CN104103050B (zh) 一种基于局部策略的真实视频复原方法
US20140218557A1 (en) Image processing method, image processing apparatus, non-transitory computer-readable medium, and image-pickup apparatus
US9361679B2 (en) Temporally coherent local tone mapping of HDR video
BRPI0809149A2 (pt) Dispositivo e método de processamento de image, e dispositivo e método e exibição de imagem
US10306210B2 (en) Image processing apparatus and image capturing apparatus
JP2013192224A (ja) ブラー映像及びノイズ映像で構成されたマルチフレームを用いて非均一モーションブラーを除去する方法及び装置
JP2009251839A (ja) 画像信号処理回路、画像表示装置、および画像信号処理方法
WO2023273868A1 (zh) 图像降噪方法、装置、终端、存储介质
WO2019013217A1 (ja) 補正装置、撮像装置、補正装置の制御方法、および制御プログラム
Eilertsen The high dynamic range imaging pipeline
JP2018061130A (ja) 画像処理装置、画像処理方法、及びプログラム
TW202025085A (zh) 圖像處理設備和方法
CN113099132B (zh) 视频处理方法、装置、电子设备、存储介质及程序产品
JP2010197541A (ja) プロジェクター、画像補正方法、画像補正装置及びプロジェクションシステム
WO2012014009A1 (en) Method for generating multi-view images from single image
CN111311498B (zh) 图像鬼影剔除方法及装置、存储介质、终端
WO2014088259A1 (ko) 단일 영상을 이용한 hdr 영상 생성 장치 및 방법
WO2012176526A1 (ja) 立体画像処理装置、立体画像処理方法、及びプログラム
CN113766114B (zh) 图像处理方法、装置、电子设备及存储介质
Romanenko et al. Image matching in Bayer RAW domain to remove ghosting in multi-exposure image fusion
Xue et al. P‐5.6: Synergistic Low‐Light Image Enhancement: A Fusion of Dark Channel Dehazing and K‐means Clustering

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190718

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190725

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201221

R150 Certificate of patent or registration of utility model

Ref document number: 6814849

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250