JP7455620B2 - 動画像処理装置及び動画像処理方法 - Google Patents

動画像処理装置及び動画像処理方法 Download PDF

Info

Publication number
JP7455620B2
JP7455620B2 JP2020042011A JP2020042011A JP7455620B2 JP 7455620 B2 JP7455620 B2 JP 7455620B2 JP 2020042011 A JP2020042011 A JP 2020042011A JP 2020042011 A JP2020042011 A JP 2020042011A JP 7455620 B2 JP7455620 B2 JP 7455620B2
Authority
JP
Japan
Prior art keywords
frame
light
pixel
afterimage
motion information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020042011A
Other languages
English (en)
Other versions
JP2021145212A (ja
Inventor
峰樹 田岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Priority to JP2020042011A priority Critical patent/JP7455620B2/ja
Priority to KR1020200115378A priority patent/KR20210114848A/ko
Priority to US17/021,360 priority patent/US11330210B2/en
Publication of JP2021145212A publication Critical patent/JP2021145212A/ja
Application granted granted Critical
Publication of JP7455620B2 publication Critical patent/JP7455620B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
    • H04N5/211Ghost signal cancellation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/62Detection or reduction of noise due to excess charges produced by the exposure, e.g. smear, blooming, ghost image, crosstalk or leakage between pixels
    • H04N25/626Reduction of noise due to residual charges remaining after image readout, e.g. to remove ghost images or afterimages
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/17Colour separation based on photon absorption depth, e.g. full colour resolution obtained simultaneously at each pixel location
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/62Detection or reduction of noise due to excess charges produced by the exposure, e.g. smear, blooming, ghost image, crosstalk or leakage between pixels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
    • H04N25/771Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components comprising storage means other than floating diffusion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/646Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Color Television Image Signal Generators (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Description

本発明は、動画像処理装置及び動画像処理方法に関する。
デジタルカメラ(Digital Camera)等で用いられる光電変換部材は、シリコン(Silicon)を単一材料として用いて発展してきた。しかしながら、シリコンを単一材料として用いると、バンドギャップ(Band Gap)が固定となり、かつ、表面にしか色フィルタ(Filter)を構成することができないため、赤色(Red)の画素、緑色(Green)の画素、及び、青色(Blue)の画素を面方向に配列する以外に、単板でカラー撮像を行うことができない。以下、赤色を「Red」または「R」、緑色を「Green」または「G」、青色を「Blue」または「B」と称する場合がある。
また、上記のような光電変換部材を用いて、より高解像度の被写体を撮像すると、輝度モアレ(Moire)や色モアレが発生してしまう場合がある。そのため、輝度モアレや色モアレを抑制するために、撮像装置に光学ローパスフィルタ(Low Pass Filter)を搭載する必要が生じる。しかしながら、撮像装置に光学ローパスフィルタを搭載すると、解像度が低下してしまう。
そこで、特許文献1では、Blueの画素及びRedの画素を配列したシリコン膜を半導体製造工程により形成し、形成したシリコン膜の上層に、Green波長を吸収する有機光電膜を配置するという手法が開示されている。特許文献1に記載された光電変換部材では、当該光電変換部材の全面にGreenの波長を吸収する画素が存在するため、理論的に輝度モアレが発生せず、色モアレも大幅に抑制することができる。
特許第4700947号公報
しかしながら、特許文献1に記載された光電変換部材を用いて、Greenの光電変換を行った場合には、シリコンに比べて有機材料の応答が遅いため、強い光を受光後に急激に消灯した場合に、Green画素だけが残像となって残るという問題が発生する。
例えば、車のヘッドライトを直近で受けた場合、または、真夏の快晴時の太陽を直視した場合等では、ヘッドライト光、太陽光等の強い光が、1フレーム(Frame)期間内に消灯しても、次のフレームに残像が発生する場合がある。
一方、画像のダイナミックレンジ(Dynamic Range)は、8ビット(bit)の場合に、256階調である。よって、ヘッドライト光、太陽光等の強い光を256値内に抑えて表現すると、他の被写体は、相対的に小さい値になって、黒っぽい画像になってしまうという現象が発生する。一般的に、ヘッドライト光、太陽光等の光源を詳細に撮影することはない。よって、通常、そのような光源は、飽和(Saturation)したものとして表現される。つまり、光源は、8ビット階調では255、10ビット階調では1023の最大値として表現される。
光電変換部材の特性より、強い光を受光した場合に発生したキャリアが、強い光の消灯後、消滅するまでの残存量は、計算により理論的に得られる。このため、ヘッドライト光、太陽光等の強い光の光強度が分かれば、残像に寄与するキャリア数は、求めることが可能である。しかしながら、前述のように、光源は、飽和したものとして表現されるので、実際に、センサ(Sensor)に入射する強い光の光強度を測定することは困難である。よって、残像に寄与するキャリア数を精度よく求めることができない。このようなことから、動画像の画質を向上させる上で、残像の除去等を行うことが所望されている。
本発明はこのような問題点に関してなされたものであって、強い光の消灯後に発生する残像の除去等により、動画像の画質を向上させることができる動画像処理装置及び動画像処理方法を提供する。
本発明にかかる動画像処理装置は、動画像を構成する第1フレーム、前記第1フレームよりも時間が経過した第2フレーム、及び、前記第2フレームよりも時間が経過した第3フレームを含む複数のフレームのうち、残像を発生させるスポット光を受光した複数の画素を含む飽和領域が形成された前記第1フレームにおいて、前記飽和領域のフレーム上の位置情報を抽出する位置情報抽出部と、前記第2フレームにおいて、前記飽和領域の前記位置情報に対応する残像領域の画像データを残像領域データとして抽出する残像領域抽出部と、前記第2フレームにおける画像の第1特徴点、及び、前記第3フレームにおける画像の第2特徴点を抽出する特徴点抽出部と、前記第1特徴点と前記第2特徴点との間のマッチングによって、前記第2フレームと前記第3フレームとの間の第1動き情報を検出する動き情報検出部と、検出した前記第1動き情報を用いて、前記残像領域の第2動き情報を算出する動き情報算出部と、算出した前記第2動き情報に基づいて、前記第3フレームにおいて前記残像領域にマッチングした候補領域の画像データを候補領域データとして抽出する候補領域抽出部と、前記候補領域データを用いて、前記残像領域データを補正する残像領域補正部と、を備える。
また、前記複数のフレームは、第1光を光電変換する複数の第1画素と、前記第1光と異なる波長の第2光を光電変換する複数の第2画素と、前記複数の第1画素及び前記複数の第2画素よりも前記第1光及び前記第2光が入射する側に設けられ、前記第1光及び前記第2光とは異なる波長の第3光を光電変換する複数の第3画素と、を有するイメージセンサから出力されたものである。
さらに、前記残像領域補正部は、前記候補領域データにおける前記第1画素が受光した前記第1光の輝度を示す第1画素値及び前記第2画素が受光した前記第2光の輝度を示す第2画素値と、前記第3画素が受光した前記第3光の輝度を示す第3画素値との比率と、前記残像領域データにおける前記第1画素値及び前記第2画素値とを用いて、前記残像領域データの前記第3画素値を補正する。
前記飽和領域は、画素値が最大値を示す隣り合った複数の前記第1画素、前記第2画素及び前記第3画素を含む。
また、前記動き情報算出部は、前記残像領域の近傍における前記第1特徴点の前記第1動き情報を用いて、前記第2動き情報を算出する。
さらに、前記動き情報算出部は、前記残像領域の周辺における複数の前記第1特徴点の複数の前記第1動き情報を用いて、前記第2動き情報を算出する。
前記第1画素は、赤色の光を光電変換し、前記第2画素は、青色の光を光電変換し、前記第3画素は、緑色の光を光電変換する。
また、前記第1画素及び前記第2画素の光電変換部材は、シリコンを含み、前記第3画素の光電変換部材は、有機半導体を含む。
本発明にかかる動画像処理方法は、動画像を構成する第1フレーム、前記第1フレームよりも時間が経過した第2フレーム、及び、前記第2フレームよりも時間が経過した第3フレームを含む複数のフレームのうち、残像を発生させるスポット光を受光した複数の画素を含む飽和領域が形成された前記第1フレームにおいて、前記飽和領域のフレーム上の位置情報を抽出する位置情報抽出ステップと、前記第2フレームにおいて、前記飽和領域の前記位置情報に対応する残像領域の画像データを残像領域データとして抽出する残像領域抽出ステップと、前記第2フレームにおける画像の第1特徴点、及び、前記第3フレームにおける画像の第2特徴点を抽出する特徴点抽出ステップと、前記第1特徴点と前記第2特徴点との間のマッチングによって、前記第2フレームと前記第3フレームとの間の第1動き情報を検出する動き情報検出ステップと、検出した前記第1動き情報を用いて、前記残像領域の第2動き情報を算出する動き情報算出ステップと、算出した前記第2動き情報に基づいて、前記第3フレームにおいて前記残像領域にマッチングした候補領域の画像データを候補領域データとして抽出する候補領域抽出ステップと、前記候補領域データを用いて、前記残像領域データを補正する残像領域補正ステップと、を備える。
また、前記複数のフレームを、第1光を光電変換する複数の第1画素と、前記第1光と異なる波長の第2光を光電変換する複数の第2画素と、前記複数の第1画素及び前記複数の第2画素よりも前記第1光及び前記第2光が入射する側に設けられ、前記第1光及び前記第2光とは異なる波長の第3光を光電変換する複数の第3画素と、を有するイメージセンサから出力させるフレーム生成ステップをさらに備える。
さらに、前記残像領域補正ステップは、前記候補領域データにおける前記第1画素が受光した前記第1光の輝度を示す第1画素値及び前記第2画素が受光した前記第2光の輝度を示す第2画素値と、前記第3画素が受光した前記第3光の輝度を示す第3画素値との比率と、前記残像領域データにおける前記第1画素値及び前記第2画素値とを用いて、前記残像領域データの前記第3画素値を補正する。
前記位置情報抽出ステップにおいて、前記飽和領域は、画素値が最大値を示す隣り合った複数の前記第1画素、前記第2画素及び前記第3画素を含む。
また、前記動き情報算出ステップは、前記残像領域の近傍における前記第1特徴点の前記第1動き情報を用いて、前記第2動き情報を算出する。
さらに、前記動き情報算出ステップは、前記残像領域の周辺における複数の前記第1特徴点の複数の前記第1動き情報を用いて、前記第2動き情報を算出する。
前記フレーム生成ステップにおいて、前記第1画素は、赤色の光を光電変換し、前記第2画素は、青色の光を光電変換し、前記第3画素は、緑色の光を光電変換する。
また、前記フレーム生成ステップにおいて、前記第1画素及び前記第2画素の光電変換部材は、シリコンを含み、前記第3画素の光電変換部材は、有機半導体を含む。
本発明により、強い光の消灯後に発生する残像の除去等により、動画像の画質を向上させることができる動画像処理装置及び動画像処理方法を提供する。
実施形態に係る撮像装置を例示した構成図である。 実施形態に係る撮像装置において、イメージセンサの構成を例示した断面図である。 実施形態に係る撮像装置において、イメージセンサを照射光が入射する側から見た図である。 実施形態に係る撮像装置において、イメージセンサから出力された複数のフレームを例示した図である。 実施形態に係る撮像装置において、動画像処理装置の構成を例示した図である。 実施形態に係る動画像処理装置において、位置情報抽出部が飽和領域として抽出しない領域を例示した図である。 実施形態に係る動画像処理装置において、位置情報抽出部が飽和領域として抽出しない領域の各画素の画素値を例示したグラフであり、横軸は、画素の位置を示し、縦軸は、画素値を示す。 実施形態に係る動画像処理装置において、位置情報抽出部が飽和領域として抽出する領域を例示した図である。 実施形態に係る動画像処理装置において、位置情報抽出部が飽和領域として抽出する領域の各画素の画素値を例示したグラフであり、横軸は、画素の位置を示し、縦軸は、画素値を示す。 実施形態に係る動画像処理装置において、残像領域抽出部が残像領域として抽出する領域を例示した図である。 実施形態に係る動画像処理装置において、特徴点抽出部が第2フレーム及び第3フレームから抽出した特徴点を例示した図である。 実施形態に係る動画像処理装置において、動き情報検出部が検出した動き情報を例示した図である。 実施形態に係る動画像処理装置において、動き情報算出部が算出した動き情報を例示した図である。 実施形態に係る動画像処理装置において、第3フレームにおける候補領域の各画素の画素値を例示したグラフであり、横軸は画素の位置を示し、縦軸は画素値を示す。 実施形態に係る動画像処理装置において、第2フレームにおける残像領域の各画素の画素値を例示したグラフであり、横軸は画素の位置を示し、縦軸は画素値を示す。 実施形態に係る動画像処理方法を例示したフローチャート図である。 実施形態の変形例1に係る撮像装置において、イメージセンサから出力された複数のフレームを例示した図である。 実施形態の変形例2に係る撮像装置において、イメージセンサから出力された複数のフレームを例示した図である。
説明の明確化のため、以下の記載及び図面は、適宜、省略、及び簡略化がなされている。また、各図面において、同一の要素には同一の符号が付されており、必要に応じて重複説明は省略されている。
(実施形態)
以下、実施形態に係る動画像処理装置を説明する。まず、動画像処理装置が組み込まれる撮像装置の構成として、イメージセンサ及び動画像処理装置の構成を説明する。そして、動画像処理装置の動作として、動画像処理方法を説明する。
<撮像装置の構成>
図1は、実施形態に係る撮像装置を例示した構成図である。図1に示すように、撮像装置1は、イメージセンサ10及び動画像処理装置20を備えている。撮像装置1は、これら以外に、他の部品等を含んでもよい。撮像装置1は、イメージセンサ10が撮像した複数のフレーム30を、動画像処理装置20によって処理して動画像40として出力する。まず、イメージセンサ10を説明する。
<イメージセンサ>
図2は、実施形態に係る撮像装置1において、イメージセンサの構成を例示した断面図である。図3は、実施形態に係る撮像装置1において、イメージセンサを照射光が入射する側から見た図である。図2及び図3に示すように、イメージセンサ10は、Redの光を光電変換する複数の画素Rと、Blueの光を光電変換する複数の画素Bと、Greenの光を光電変換する複数の画素Gと、を有している。
なお、イメージセンサ10の各画素が光電変換する光は、相互に波長が異なれば、Redの光、Blueの光、Greenの光に限らない。したがって、イメージセンサ10は、第1光を光電変換する複数の第1画素と、第1光と異なる波長の第2光を光電変換する複数の第2画素と、第1光及び第2光とは異なる波長の第3光を光電変換する複数の第3画素と、を有していればよい。図2及び図3の場合には、第1光は、Redの光であり、第2光は、Blueの光であり、第3光は、Greenの光である。第1画素は、画素Rであり、第2画素は、画素Bであり、第3画素は、画素Gである。各光は、相互に中心波長が異なれば、ある程度の波長の範囲を有してもよい。
イメージセンサ10は、例えば、基板11及び有機光電膜12を有している。イメージセンサ10は、これら以外に、電極、配線等を有しているが、図では省略している。有機光電膜12は、基板11上に形成されている。基板11は、例えば、シリコン基板であり、光電変換部材としてシリコンを含んでいる。有機光電膜12は、例えば、光電変換部材として有機半導体を含んでいる。照射光は、有機光電膜12側から入射する。
複数の画素R及び複数の画素Bは、基板11に形成されている。複数の画素Gは、有機光電膜12に形成されている。よって、画素R及び画素Bの光電変換部材は、シリコンを含み、画素Gの光電変換部材は、有機半導体を含む。また、複数の画素Gは、複数の画素R及び複数の画素BよりもRedの光、Blueの光及びGreenの光が入射する側に設けられている。
複数の画素R、複数の画素B及び複数の画素Gは、基板11の上面に平行な面内でマトリックス状に配置されている。例えば、基板11の上面に平行な面内において直交する2方向をX軸方向及びY軸方向とすると、各画素は、(x、y)の座標で示される位置に配置されている。ここで、xは、例えば、Y軸方向に直線状に配列した画素列の1番目~P番目の列のいずれかを示し、yは、X軸方向に直線状に配列した画素ラインの1番目~Q番目のラインのいずれかを示す。
複数の画素R及び複数の画素Bは、Z軸方向から見て、基板11の上面に、例えば、市松模様状に配置されている。複数の画素Gは、Z軸方向から見て、有機光電膜12に、例えば、マトリックス状に配置されている。なお、複数の画素R、複数の画素B及び複数の画素Gの配置は、市松模様状及びマトリックス状に限らず、ハニカム状等でもよい。
各画素R~Gで光電変換された信号は、基板11に形成された図示しない駆動回路を介して、動画像40を構成する複数のフレーム30として出力される。
図4は、実施形態に係る撮像装置1において、イメージセンサ10から出力された複数のフレーム30を例示した図である。図4に示すように、複数のフレーム30は、例えば、第1フレーム31、第2フレーム32及び第3フレーム33を含む。第2フレーム32は、第1フレーム31よりも時間が経過したフレーム30である。第3フレーム33は、第2フレーム32よりも時間が経過したフレーム30である。
第1フレーム31、第2フレーム32及び第3フレーム33は、経時順に並んでいれば、連続してもよいし、各フレーム30の間に、1つまたは複数のフレーム30が挿入されてもよい。したがって、第1フレーム31を、第2フレーム32よりもNフレーム前のフレーム30とし、第3フレーム33を、第2フレームよりもMフレーム後のフレーム30とした場合には、N=1でもよいし、N≧2でもよい。また、M=1でもよいし、M≧2でもよい。第1フレーム31、第2フレーム32及び第3フレーム33を含む複数のフレーム30は、動画像40を構成する。
第2フレーム32を、イメージセンサ10から出力される時を基準にして、現在のフレーム30または現在の画像と呼び、第1フレーム31を、過去のフレーム30または過去の画像と呼び、第3フレーム33を、未来のフレーム30または未来の画像と呼ぶ場合がある。
例えば、図4に示すように、第1フレーム31~第3フレーム33には、車及び車の背景が対象物として撮像されている。対象物をオブジェクト(Object)と呼ぶ。第1フレーム31~第3フレーム33は、実際はカラーで撮像されたものである。
第1フレーム31(過去の画像)には、スポット(Spot)光SPと呼ばれる強い光が受光されている。具体的には、車のヘッドライトが点灯して、ヘッドライト光を撮像した複数の画素は、スポット光SPを受光している。
第2フレーム32(現在の画像)には、スポット光SPの影響により、Greenの光を受光した画素Gのみ画素値が下がりきらず、Greenの残像ZAが発生している。図では、ヘッドライト部分の残像ZAをグレー色で色付けしている。実際のカラーの画像では、Greenの残像ZAとなっている。
第3フレーム33(未来の画像)には、スポット光SPの影響がなくなり、残像ZAは消滅している。本実施形態の動画像処理装置20は、イメージセンサ10から出力された動画像40を構成する複数のフレーム30を処理して出力する。動画像処理装置20が行う処理のうち、具体的な一つの処理は、スポット光SP等の強い光の消灯後に発生するGreenの残像ZAの除去である。
<動画像処理装置>
動画像処理装置20は、例えば、演算処理、制御処理等を行うCPU(Central Processing Unit)、CPUによって実行される演算プログラム、制御プログラム等が記憶されたROM(Read Only Memory)、各種のデータなどを記憶するRAM(Random Access Memory)、外部と信号の入出力を行うインターフェイス部(I/F)、などからなるマイクロコンピュータを中心として構成されている。CPU、ROM、RAM及びインターフェイス部は、データバスなどを介して相互に接続されている。以下で、動画像処理装置20の各構成を説明する。
図5は、実施形態に係る撮像装置1において、動画像処理装置20の構成を例示した図である。図5に示すように、動画像処理装置20は、位置情報抽出部21、残像領域抽出部22、特徴点抽出部23、動き情報検出部24、動き情報算出部25、候補領域抽出部26、残像領域補正部27を備えている。動画像処理装置20は、各部21~27を制御する図示しない制御部を備えてもよい。動画像処理装置20は、各部21~27を連携させることにより、イメージセンサ10から入力された動画像40を構成する複数のフレーム30を処理して出力する。
図5には、動画像40を構成する第1フレーム31、第2フレーム32及び第3フレーム33の別の例も示している。各フレーム31~33には、携帯機器のLEDライトを含む部分が撮像されている。
<位置情報抽出部>
図5に示すように、位置情報抽出部21は、第1フレーム31において、飽和領域51の位置情報を抽出する。飽和領域51は、残像ZAを発生させるスポット光SPを受光した複数の画素を含む領域である。言い換えれば、スポット光SPを受光して残像ZAが発生すると予測される領域である。
具体的には、飽和領域51は、図5の第1フレームにおけるLEDライトの部分である。飽和領域51は、画素R、画素B及び画素Gともに、最大値の画素値を示す画素が密集し、画素値が最大値を示す隣り合った複数の画素G、画素B及び画素Gを含む領域である。以下で、図を参照しながら、飽和領域51として抽出されない例(図6及び図7)と、飽和領域として抽出される例(図8及び図9)を説明する。
図6は、実施形態に係る動画像処理装置20において、位置情報抽出部21が飽和領域51として抽出しない領域を例示した図である。図7は、実施形態に係る動画像処理装置20において、位置情報抽出部21が飽和領域51として抽出しない領域の各画素の画素値を例示したグラフであり、横軸は、画素の位置を示し、縦軸は、画素値を示す。図7において、画素値は、輝度と相関させて示されている。
図6に示すように、車は、ヘッドライトを点灯している。しかしながら、この場合には、ヘッドライト光は、残像を発生させるスポット光SPのように強い光ではない。よって、イメージセンサ10は、残像ZAを発生させるスポット光SPを受光していない。
図7に示すように、所定の領域において、1つの画素のみ最大値になっている場合には、残像ZAを発生させる光強度を有するスポット光SPであることは少ない。すなわち、最大値を超えても、それが孤立した画素の場合には、残像ZAが発生する光強度である可能性は低い。よって、この場合には、位置情報抽出部21は、飽和領域51として抽出しない。画素値の最大値に対応する輝度よりも大きい輝度の光を受光した画素は、飽和(Saturation)したものとして最大値で表現される。
画素値は、画素が受光した光の輝度を示し、輝度が大きいほど大きい画素値を示す。輝度を示すダイナミックレンジを、8ビット(bit)で表現すると、0~255の256階調となる。この場合の最大値は、255である。また、輝度を示すダイナミックレンジを、10ビット(bit)で表現すると、0~1023の1024階調となる。この場合の最大値は、1023である。
車のヘッドライト光、真夏の快晴時の太陽光等のように、強い光を256階調または1024階調内に収まるように表現すると、肉眼で認識できる通常の被写体は、黒に近い階調になって区別がつかなくなるという現象が発生する。一般的な撮影において、車のヘッドライト光、真夏の快晴時の太陽光等の光源を詳細に撮影することは目的とはなりにくく、そのような強い光は、飽和したものとして、最大値で表現される。
図8は、実施形態に係る動画像処理装置20において、位置情報抽出部21が飽和領域51として抽出する領域を例示した図である。図9は、実施形態に係る動画像処理装置20において、位置情報抽出部21が飽和領域51として抽出する領域の各画素の画素値を例示したグラフであり、横軸は、画素の位置を示し、縦軸は、画素値を示す。
図8に示す車が点灯したヘッドライトは、強い光を放出している。この場合には、イメージセンサ10は、残像ZAを発生させるスポット光SPを受光している。よって、スポット光SPを受光した複数の画素を含む飽和領域51が形成される。
図9に示すように、所定の領域において、最大値を示す画素がクラスタ(Cluster)化している場合には、位置情報抽出部21は、飽和領域51として抽出する。スポット光SPのように、極端に強い光を受けた場合には、その散乱による強度の裾野があることが多い。よって、強度の裾野による最大値を示す画素が連続することになる。これにより、飽和領域51においては、画素R、画素B及び画素Gともに、最大値の画素値を示す画素が密集している。つまり、スポット光SPを受光した画素を含む飽和領域51は、画素R、画素B及び画素Gともに、最大値の画素値を示す画素が密集し、領域当たり所定数以上の最大値を示した画素が存在する。飽和領域51は、画素値が最大値を示す隣り合った複数の画素G、画素B及び画素Gを含む。
位置情報抽出部21は、動画像40を構成する複数のフレーム30のうち、飽和領域51が形成された第1フレーム31において、飽和領域51のフレーム30上の位置情報を抽出する。例えば、位置情報抽出部21は、図8に示すように、第1フレーム31において、フレーム30上のX=p~p+a及びY=q~q+bの範囲の画素が含まれた領域を、飽和領域51として抽出する。ここで、p及びp+aは、X軸方向の画素列の番号を示し、q及びq+bは、Y軸方向の画素ラインの番号を示す。
<残像領域抽出部>
図10は、実施形態に係る動画像処理装置20において、残像領域抽出部22が残像領域52として抽出する領域を例示した図である。図5及び図10に示すように、残像領域抽出部22は、第2フレーム32において、飽和領域51の位置情報に対応する残像領域52の画像データを残像領域データとして抽出する。
具体的には、残像領域抽出部22は、第2フレーム32において、フレーム30上のX=p~p+a及びY=q~q+bの範囲の画素が含まれた領域を、残像領域52として抽出する。残像領域52は、スポット光SPを受光して残像ZAが発生した複数の画素を含んでいる。残像領域抽出部22は、残像領域52の画像データを、残像領域データとして抽出する。残像領域抽出部22は、残像領域データを、第2フレーム32から、例えば、矩形状に切り出す。
<特徴点抽出部>
図11は、実施形態に係る動画像処理装置20において、特徴点抽出部23が第2フレーム32及び第3フレーム33から抽出した特徴点を例示した図である。図11に示すように、特徴点抽出部23は、第2フレーム32における画像の複数の特徴点32a~32i、及び、第3フレーム33における画像の複数の特徴点33a~33iを抽出する。
特徴点抽出部23は、第2フレーム32における撮像されたオブジェクトの縁(Edge)、先端(Peak)等の変化の大きい部分を特徴点32a~32iとして抽出する。同様に、特徴点抽出部23は、第3フレーム33における撮像されたオブジェクトの縁、先端等の変化の大きい部分を特徴点33a~33iとして抽出する。
特徴点の抽出方法として、例えば、ORB(Oriented Fast and Rotated Brief)、SURF(Speeded Up Robust Features)、SIFT(Scale Invariant Feature Transform)等が挙げられる。
<動き情報検出部>
図12は、実施形態に係る動画像処理装置20において、動き情報検出部24が検出した動き情報を例示した図である。図12に示すように、動き情報検出部24は、第2フレーム32における特徴点32a~32iと、第3フレーム33における特徴点33a~33iとの間のマッチング(Matching)によって、第2フレーム32と第3フレーム33との間の動き情報V1を検出する。動き情報V1は、例えば、動きベクトル(Vector)である。動き情報V1は、各特徴点32a~32iと各特徴点33a~33iとの間に検出されるが、総称して、動き情報V1と呼ぶ。
動き情報検出部24は、まず、抽出した各特徴点32a~32i及び各特徴点33a~33iについて特徴分類を行う。そして、動き情報検出部24は、第2フレーム32における各特徴点32a~32iと、第3フレーム33における各特徴点33a~33iとの間でマッチングを行う。通常は、フレーム30内のオブジェクトがどのように移動したかを判断する。例えば、第2フレーム32と、第3フレーム33との間で、各特徴点32a~32i及び各特徴点33a~33iのマッチングを行い、各特徴点同士のペア(Pair)を構築する。このペアが2つのフレーム30間で、どのように移動したかが動き情報V1となる。
<動き情報算出部>
動き情報算出部25は、検出した動き情報V1を用いて、残像領域52の動き情報V2を算出する。残像領域抽出部22が抽出した残像領域52は、前述のように、通常、矩形状で与えられる。この矩形状の残像領域52を代表する動き情報V2は、例えば、残像領域52内の特徴点の動き情報V1と同様でもよい。しかしながら、特徴点のマッチングにより、動き情報V2が即座に決まらない場合がある。例えば、この矩形内に特徴点があるとは限らず、また、矩形内に特徴点があったとしても、第3フレーム33とのマッチングが成立するとは限らない場合がある。
このため、特徴点のマッチングにより、動き情報V2が即座に決まらない場合には、動き情報算出部25は、例えば、以下の2つの方法によって、残像領域52の動きベクトルV2を算出する。
1.残像領域52の近傍の特徴点マッチングによる動きベクトルV1を流用する。すなわち、動き情報算出部25は、残像領域52の近傍における特徴点の動き情報V1を用いて、動き情報V2を算出する。
2.残像領域52の周辺の動き情報V1からの算術平均により残像領域52の動きベクトルV2を算出する。すなわち、動き情報算出部25は、残像領域52の周辺における複数の特徴点の複数の動き情報V1を用いて、動き情報V2を算出する等の方法により、残像領域52の動き情報V2を求める。算術平均としては、残像領域52の中心から各特徴点との距離により荷重平均をとる方法が考えられる。
図13は、実施形態に係る動画像処理装置20において、動き情報算出部25が算出した動き情報V2を例示した図である。図13に示すように、動き情報算出部25は、上述した算出方法によって、残像領域52の第2動き情報V2を算出する。
<候補領域抽出部>
候補領域抽出部26は、算出した動き情報V2に基づいて、第3フレーム33において残像領域52にマッチングした候補領域53の画像データを候補領域データとして抽出する。具体的には、候補領域抽出部26は、動き情報算出部25が算出した残像領域52の動きベクトルV2から、残像領域52を補償するための候補領域53を第3フレーム33から抽出する。さらに、候補領域抽出部26は、候補領域53の画像データを第3フレーム33から抽出する。
<残像領域補正部>
残像領域補正部27は、候補領域データを用いて、残像領域データを補正する。残像領域補正部27は、例えば、候補領域データにおける画素Rが受光したRedの光の輝度を示す画素値R3及び画素Bが受光したBlueの光の輝度を示す画素値B3と、画素Gが受光したGrrenの光の輝度を示す画素値G3との比率と、残像領域データにおける画素Rが受光したRedの光の輝度を示す画素値R2及び画素Bが受光したBlueの光の輝度を示す画素値B2とを用いて、残像領域データの画素Gが受光したGreenの光の輝度を示す画素値G2を補正する。このように、残像領域補正部27は、Greenの残像の原因となる第2フレーム32の画素Gの画素値G2を補正する。この処理を、図を参照して説明する。
図14は、実施形態に係る動画像処理装置20において、第3フレーム33における候補領域53の各画素の画素値を例示したグラフであり、横軸は、画素の位置を示し、縦軸は、画素値を示す。図15は、実施形態に係る動画像処理装置20において、第2フレーム32における残像領域52の各画素の画素値を例示したグラフであり、横軸は、画素の位置を示し、縦軸は、画素値を示す。各図とも、Redの画素R、Greenの画素G及びBlueの画素Bの画素値を示している。
第2フレーム32における画素R及び画素B、並びに、第3フレーム33における画素R、画素B及び画素Gには、残像ZAが発生していない。よって、本来は、第2フレーム32から抽出された残像領域52の画素値R2、画素値B2及び画素値G2の割合は、第3フレーム33から抽出された候補領域53の画素値R3、画素値B3及び画素値G3の割合と、同じと考えられる。そこで、残像が発生した第2フレーム32の画素Gの画素値G2を、例えば、以下の(1)式で補正した画素値G2cで補正する。
G2c={R2*(G3/R3)+B2*(G3/B3)}/2 (1)
なお、補正する方法としては、(1)式に限らない。例えば、残像領域52及び候補領域53において、画素値R2及びR3が、画素値B2及びB3よりも大きい場合には、下記の(2)式を用いてもよい。
G2c=R2*(G3/R3) (2)
逆に、画素値B2及びB3が、画素値R2及びR3よりも大きい場合には、下記の(3)式を用いてもよい。
G2c=B2*(G3/B3) (3)
なお、画素値G2cを求める方法は、第3フレーム33の画素値R3、画素値B3及び画素値G3、並びに、第2フレーム32の画素値R2及び画素値B2のいずれかを用いる方法であれば、(1)式~(3)式に限らない。
このようにして、残像領域補正部27は、第2フレーム32から抽出された残像領域52の画像データを、第3フレーム33から抽出された候補領域53の画像データを用いて補正する。具体的には、残像領域補正部27は、残像領域52の画素値G2を、候補領域53の画素値R3、画素値B3及び画素値G3、並びに、残像領域52の画素値R3及び画素値B3のうち、少なくともいずれかを用いて補正する。
<動画像処理方法>
次に、実施形態に係る動画像処理装置20の動作として、動画像処理方法を説明する。図16は、実施形態に係る動画像処理方法を例示したフローチャート図である。
図16のステップS11に示すように、動画像処理装置20は、第1フレーム31において、飽和領域51の位置情報を抽出する。具体的には、位置情報抽出部21は、動画像40を構成する第1フレーム31、第1フレーム31よりも時間が経過した第2フレーム32、及び、第2フレーム32よりも時間が経過した第3フレーム33を含む複数のフレーム30のうち、残像ZAを発生させるスポット光SPを受光した複数の画素を含む飽和領域51が形成された第1フレーム31において、飽和領域51のフレーム30上の位置情報を抽出する。なお、ステップS11において、飽和領域51は、画素値が最大値を示す隣り合った複数の画素R、画素B及び画素Gを含む。
次に、ステップS12に示すように、動画像処理装置20は、第2フレーム32において、残像領域データを抽出する。具体的には、残像領域抽出部22は、第2フレーム32において、飽和領域51の位置情報に対応する残像領域52の画像データを残像領域データとして抽出する。
次に、ステップS13に示すように、動画像処理装置20は、第2フレーム32の特徴点及び第3フレーム33の特徴点を抽出する。具体的には、特徴点抽出部23は、第2フレーム32における画像の特徴点32a~32i、及び、第3フレーム33における画像の特徴点33a~33iを抽出する。
次に、ステップS14に示すように、動画像処理装置20は、第2フレーム32と第3フレーム33との間の動き情報V1を検出する。具体的には、動き情報検出部24は、特徴点32a~32iと特徴点33a~33iとの間のマッチングによって、第2フレーム32と第3フレーム33との間の動き情報V1を検出する。
次に、ステップS15に示すように、動画像処理装置20は、残像領域52の動き情報V2を算出する。具体的には、動き情報算出部25は、検出した動き情報V1を用いて、残像領域52の動き情報V2を算出する。
例えば、動き情報算出部25は、残像領域52の近傍における特徴点の動き情報V1を用いて、動き情報V2を算出してもよい。あるいは、動き情報算出部25は、残像領域52の周辺における複数の特徴点の複数の動き情報V1を用いて、動き情報V2を算出してもよい。例えば、動き情報算出部25は、残像領域52の中心から各特徴点との距離により荷重平均を用いて、動き情報V2を算出してもよい。
次に、ステップS16に示すように、動画像処理装置20は、第3フレーム33において、候補領域データを抽出する。具体的には、候補領域抽出部26は、算出した動き情報V2に基づいて、第3フレーム33において残像領域52にマッチングした候補領域53の画像データを候補領域データとして抽出する。
次に、ステップS17に示すように、動画像処理装置20は、候補領域データを用いて、残像領域データを補正する。具体的には、残像領域補正部27は、候補領域データを用いて、残像領域データを補正する。
ステップS17の残像領域を補正ステップは、例えば、候補領域データにおける画素Rが受光したRedの光の輝度を示す画素値R3及び画素Bが受光したBlueの光の輝度を示す画素値B3と、画素Gが受光したGreenの光の輝度を示す画素値G3との比率と、残像領域データにおける画素値R2及び画素値B2とを用いて、残像領域データの画素値G2を補正してもよい。このようにして、動画像40を構成する複数のフレーム30を処理して、動画像40を出力する。
なお、動画像処理方法は、複数のフレームを、イメージセンサ10から出力させるフレーム生成ステップをさらに備えてもよい。ここで、イメージセンサ10は、第1光を光電変換する複数の第1画素と、第1光と異なる波長の第2光を光電変換する複数の第2画素と、複数の第1画素及び複数の第2画素よりも第1光及び第2光が入射する側に設けられ、第1光及び第2光とは異なる波長の第3光を光電変換する複数の第3画素と、を有してもよい。
フレーム生成ステップにおいて、第1画素は、Redの光を光電変換し、第2画素は、Blueの光を光電変換し、第3画素は、Greenの光を光電変換してもよい。また、第1画素及び第2画素の光電変換部材は、シリコンを含み、第3画素の光電変換部材は、有機半導体を含んでもよい。
<変形例1>
次に、変形例1を説明する。変形例1は、フレームレート(Frame Rate)が大きい場合の例である。図17は、実施形態の変形例1に係る撮像装置1において、イメージセンサ10から出力された複数のフレーム30を例示した図である。
例えば、フレームレートが30fps(frame per second)の場合には、イメージセンサ10が出力したフレーム30に残像ZAが発生しても、動画像処理装置20は、次のフレーム30において残像ZAを除去することができる。すなわち、動画像処理装置20は、第1フレーム31、第2フレーム32及び第3フレーム33を連続するように処理することができる。
しかしながら、図17に示すように、フレームレートが30fpsよりも大きくなった場合には、第1フレーム31、第2フレーム32及び第3フレーム33の各フレーム30間に、残像ZAの影響が異なる複数のフレーム30が存在することになる。例えば、第2フレーム32のNフレーム前の第1フレーム31において、スポット光SPを受光する。第2フレーム32のMフレーム後の第3フレーム33で残像ZAが消滅する。例えば、M=3、N=3の場合には、フレームレートは、180fpsに相当する。
このような場合には、M+N+1フレーム30の画像データを保持することにより、動画像処理装置20は、残像ZAを除去することができる。具体的には、第1フレーム31と第3フレーム33との間のM+N-1フレームの各フレームを、第2フレーム32として、補正処理を行う。この場合に、残像ZAが消滅する第3フレーム33が、スポット光SPを受光した第1フレーム31から何フレームになるかが問題となるが、それについては、予め設定してもよいし、ダミーの動画像40から決定してもよい。
<変形例2>
次に、変形例2を説明する。変形例2は、第1フレーム31から第3フレーム33に渡って、フレーム30上のオブジェクトの位置が移動する例である。
図18は、実施形態の変形例2に係る撮像装置1において、イメージセンサ10から出力された複数のフレーム30を例示した図である。図18に示すように、第1フレーム31から第3フレーム33に渡って、フレーム30上の車の位置は右方向に移動している。それに伴い、フレーム30上のヘッドライトの位置も右方向に移動している。
第1フレーム31は、残像ZAを発生させるスポット光SPを受光した複数の画素を含む飽和領域51を有している。位置情報抽出部21は、飽和領域51のフレーム30上の位置情報を抽出する。
残像領域抽出部22は、第2フレーム32において、飽和領域51の位置情報に対応する残像領域52を抽出する。第2フレーム32では、ヘッドライトの位置が右方向に移動しているので、残像領域52は、ヘッドライトを含んでいない。
候補領域抽出部26は、第3フレーム33において、上述した方法によって算出した動き情報V2を用いて、残像領域52にマッチングした候補領域53を抽出する。このように、動画像処理装置20は、飽和領域51にポジションで対応する残像領域52を抽出する。そして、動画像処理装置20は、残像領域52にオブジェクトで対応する候補領域53を抽出する。よって、第1フレーム31から第3フレーム33に渡って、フレーム30上のオブジェクトの位置が移動している場合でも、動画像処理装置20は、残像ZAを含む残像領域52を、候補領域53を用いて補正することができる。
次に、本実施形態の効果を説明する。本実施形態の動画像処理装置20は、スポット光SPを受光した飽和領域51に対応する残像領域52を、残像ZAのない候補領域53を用いて補正するので、ヘッドライト光、太陽光等の強い光の消灯後に発生するGreenの残像ZAを除去することができる。これにより、動画像40の画質を向上することができる。
また、残像領域52を補正する際には、候補領域53における画素値R3及びB3と、画素値G3との比率と、残像領域52における画素値R2及びB2とを用いて、残像領域52における画素値G2を補正する。よって、残像領域52のGreenの残像ZAを精度よく除去することができる。
残像ZAを除去する方法として、フレーム30上の画素から発生するキャリア数を用いる方法が考えられる。この方法は、まず、スポット光SPを受光した第1フレーム31における各画素に発生したキャリア数を計算する。そして、発生したキャリア数から残留キャリア数を光電変換部材の特性より理論的に計算する。残留キャリア数は、残像ZAに相当するキャリア数である。次に、残像ZAが発生した第2フレーム32のキャリア数から残留キャリア数を引き算する。これにより、残像ZAを除去できるように考えられるかもしれない。
しかしながら、実際の画像は、スポット光SPの輝度を測定するような撮像はしておらず、スポット光SPの部分は飽和しているとして、ダイナミックレンジの最大値で表現されている。したがって、スポット光SPの部分は飽和しているので、残留キャリアは、実際よりも低く見積もられ、発生したキャリア数から残留キャリア数を正確に計算することはできない。よって、残像ZAが発生した第2フレーム32から残留キャリア数を引き算しても、精度よく残像ZAを除去することができない。
これに対して、本実施形態の動画像処理方法は、残像ZAが発生した第2フレーム32の残像領域52を、第3フレーム33の候補領域53を用いて補正しているので、キャリア数の計算をする必要がない。よって、残像ZAを精度よく除去することができ、画質を向上させることができる。
本発明は、上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。また、動画像処理方法をコンピュータに実行させる以下の動画像処理プログラムも実施形態の技術思想の範囲である。
動画像を構成する第1フレーム、前記第1フレームよりも時間が経過した第2フレーム、及び、前記第2フレームよりも時間が経過した第3フレームを含む複数のフレームのうち、残像を発生させるスポット光を受光した複数の画素を含む飽和領域が形成された前記第1フレームにおいて、前記飽和領域のフレーム上の位置情報を抽出させ、
前記第2フレームにおいて、前記飽和領域の前記位置情報に対応する残像領域の画像データを残像領域データとして抽出させ、
前記第2フレームにおける画像の第1特徴点、及び、前記第3フレームにおける画像の第2特徴点を抽出させ、
前記第1特徴点と前記第2特徴点との間のマッチングによって、前記第2フレームと前記第3フレームとの間の第1動き情報を検出させ、
検出した前記第1動き情報を用いて、前記残像領域の第2動き情報を算出させ、
算出した前記第2動き情報に基づいて、前記第3フレームにおいて前記残像領域にマッチングした候補領域の画像データを候補領域データとして抽出させ、
前記候補領域データを用いて、前記残像領域データを補正させる、
ことをコンピュータに実行させる動画像処理プログラム。
1 撮像装置
10 イメージセンサ
11 基板
12 有機光電膜
20 動画像処理装置
21 位置情報抽出部
22 残像領域抽出部
23 特徴点抽出部
24 動き情報検出部
25 動き情報算出部
26 候補領域抽出部
27 残像領域補正部
30 フレーム
31 第1フレーム
32 第2フレーム
32a、32b、32c、32d、32e、32f、32g、32h、32i 特徴点
33 第3フレーム
33a、33b、33c、33d、33e、33f、33g、33h、33i 特徴点
40 動画像
51 飽和領域
52 残像領域
53 候補領域
SP スポット光
V1、V2 動き情報
ZA 残像

Claims (16)

  1. 動画像を構成する第1フレーム、前記第1フレームよりも時間が経過した第2フレーム、及び、前記第2フレームよりも時間が経過した第3フレームを含む複数のフレームのうち、残像を発生させるスポット光を受光した複数の画素を含む飽和領域が形成された前記第1フレームにおいて、前記飽和領域のフレーム上の位置情報を抽出する位置情報抽出部と、
    前記第2フレームにおいて、前記飽和領域の前記位置情報に対応する残像領域の画像データを残像領域データとして抽出する残像領域抽出部と、
    前記第2フレームにおける画像の第1特徴点、及び、前記第3フレームにおける画像の第2特徴点を抽出する特徴点抽出部と、
    前記第1特徴点と前記第2特徴点との間のマッチングによって、前記第2フレームと前記第3フレームとの間の第1動き情報を検出する動き情報検出部と、
    検出した前記第1動き情報を用いて、前記残像領域の第2動き情報を算出する動き情報算出部と、
    算出した前記第2動き情報に基づいて、前記第3フレームにおいて前記残像領域にマッチングした候補領域の画像データを候補領域データとして抽出する候補領域抽出部と、
    前記候補領域データを用いて、前記残像領域データを補正する残像領域補正部と、
    を備えた動画像処理装置。
  2. 前記複数のフレームは、
    第1光を光電変換する複数の第1画素と、
    前記第1光と異なる波長の第2光を光電変換する複数の第2画素と、
    前記複数の第1画素及び前記複数の第2画素よりも前記第1光及び前記第2光が入射する側に設けられ、前記第1光及び前記第2光とは異なる波長の第3光を光電変換する複数の第3画素と、
    を有するイメージセンサから出力されたものである、
    請求項1に記載の動画像処理装置。
  3. 前記残像領域補正部は、前記候補領域データにおける前記第1画素が受光した前記第1光の輝度を示す第1画素値及び前記第2画素が受光した前記第2光の輝度を示す第2画素値と、前記第3画素が受光した前記第3光の輝度を示す第3画素値との比率と、前記残像領域データにおける前記第1画素値及び前記第2画素値とを用いて、前記残像領域データの前記第3画素値を補正する、
    請求項2に記載の動画像処理装置。
  4. 前記飽和領域は、画素値が最大値を示す隣り合った複数の前記第1画素、前記第2画素及び前記第3画素を含む、
    請求項2または3に記載の動画像処理装置。
  5. 前記動き情報算出部は、前記残像領域の近傍における前記第1特徴点の前記第1動き情報を用いて、前記第2動き情報を算出する、
    請求項2~4のいずれか1項に記載の動画像処理装置。
  6. 前記動き情報算出部は、前記残像領域の周辺における複数の前記第1特徴点の複数の前記第1動き情報を用いて、前記第2動き情報を算出する、
    請求項2~4のいずれか1項に記載の動画像処理装置。
  7. 前記第1画素は、赤色の光を光電変換し、前記第2画素は、青色の光を光電変換し、前記第3画素は、緑色の光を光電変換する、
    請求項2~6のいずれか1項に記載の動画像処理装置。
  8. 前記第1画素及び前記第2画素の光電変換部材は、シリコンを含み、前記第3画素の光電変換部材は、有機半導体を含む、
    請求項2~7のいずれか1項に記載の動画像処理装置。
  9. 動画像を構成する第1フレーム、前記第1フレームよりも時間が経過した第2フレーム、及び、前記第2フレームよりも時間が経過した第3フレームを含む複数のフレームのうち、残像を発生させるスポット光を受光した複数の画素を含む飽和領域が形成された前記第1フレームにおいて、前記飽和領域のフレーム上の位置情報を抽出する位置情報抽出ステップと、
    前記第2フレームにおいて、前記飽和領域の前記位置情報に対応する残像領域の画像データを残像領域データとして抽出する残像領域抽出ステップと、
    前記第2フレームにおける画像の第1特徴点、及び、前記第3フレームにおける画像の第2特徴点を抽出する特徴点抽出ステップと、
    前記第1特徴点と前記第2特徴点との間のマッチングによって、前記第2フレームと前記第3フレームとの間の第1動き情報を検出する動き情報検出ステップと、
    検出した前記第1動き情報を用いて、前記残像領域の第2動き情報を算出する動き情報算出ステップと、
    算出した前記第2動き情報に基づいて、前記第3フレームにおいて前記残像領域にマッチングした候補領域の画像データを候補領域データとして抽出する候補領域抽出ステップと、
    前記候補領域データを用いて、前記残像領域データを補正する残像領域補正ステップと、
    を備えた動画像処理方法。
  10. 前記複数のフレームを、
    第1光を光電変換する複数の第1画素と、
    前記第1光と異なる波長の第2光を光電変換する複数の第2画素と、
    前記複数の第1画素及び前記複数の第2画素よりも前記第1光及び前記第2光が入射する側に設けられ、前記第1光及び前記第2光とは異なる波長の第3光を光電変換する複数の第3画素と、
    を有するイメージセンサから出力させるフレーム生成ステップをさらに備えた、
    請求項9に記載の動画像処理方法。
  11. 前記残像領域補正ステップは、前記候補領域データにおける前記第1画素が受光した前記第1光の輝度を示す第1画素値及び前記第2画素が受光した前記第2光の輝度を示す第2画素値と、前記第3画素が受光した前記第3光の輝度を示す第3画素値との比率と、前記残像領域データにおける前記第1画素値及び前記第2画素値とを用いて、前記残像領域データの前記第3画素値を補正する、
    請求項10に記載の動画像処理方法。
  12. 前記位置情報抽出ステップにおいて、
    前記飽和領域は、画素値が最大値を示す隣り合った複数の前記第1画素、前記第2画素及び前記第3画素を含む、
    請求項10または11に記載の動画像処理方法。
  13. 前記動き情報算出ステップは、前記残像領域の近傍における前記第1特徴点の前記第1動き情報を用いて、前記第2動き情報を算出する、
    請求項10~12のいずれか1項に記載の動画像処理方法。
  14. 前記動き情報算出ステップは、前記残像領域の周辺における複数の前記第1特徴点の複数の前記第1動き情報を用いて、前記第2動き情報を算出する、
    請求項10~12のいずれか1項に記載の動画像処理方法。
  15. 前記フレーム生成ステップにおいて、
    前記第1画素は、赤色の光を光電変換し、前記第2画素は、青色の光を光電変換し、前記第3画素は、緑色の光を光電変換する、
    請求項10~14のいずれか1項に記載の動画像処理方法。
  16. 前記フレーム生成ステップにおいて、
    前記第1画素及び前記第2画素の光電変換部材は、シリコンを含み、前記第3画素の光電変換部材は、有機半導体を含む、
    請求項10~15のいずれか1項に記載の動画像処理方法。
JP2020042011A 2020-03-11 2020-03-11 動画像処理装置及び動画像処理方法 Active JP7455620B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020042011A JP7455620B2 (ja) 2020-03-11 2020-03-11 動画像処理装置及び動画像処理方法
KR1020200115378A KR20210114848A (ko) 2020-03-11 2020-09-09 동영상 처리 장치 및 동영상 처리 방법
US17/021,360 US11330210B2 (en) 2020-03-11 2020-09-15 Methods and apparatuses for processing moving images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020042011A JP7455620B2 (ja) 2020-03-11 2020-03-11 動画像処理装置及び動画像処理方法

Publications (2)

Publication Number Publication Date
JP2021145212A JP2021145212A (ja) 2021-09-24
JP7455620B2 true JP7455620B2 (ja) 2024-03-26

Family

ID=77665173

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020042011A Active JP7455620B2 (ja) 2020-03-11 2020-03-11 動画像処理装置及び動画像処理方法

Country Status (3)

Country Link
US (1) US11330210B2 (ja)
JP (1) JP7455620B2 (ja)
KR (1) KR20210114848A (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004073450A (ja) 2002-08-16 2004-03-11 Canon Inc X線撮影装置
JP2006269923A (ja) 2005-03-25 2006-10-05 Fuji Photo Film Co Ltd 光電変換膜積層型カラー固体撮像素子
WO2016152007A1 (ja) 2015-03-25 2016-09-29 パナソニックIpマネジメント株式会社 画像処理装置およびこれを備えた監視システムならびに画像処理方法
JP2018504943A (ja) 2014-12-03 2018-02-22 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 医療用x線画像における信号補償のための装置および方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4700947B2 (ja) 2004-10-20 2011-06-15 富士フイルム株式会社 光電変換膜積層型単板式カラー固体撮像装置
JP4804387B2 (ja) * 2007-03-15 2011-11-02 キヤノン株式会社 画像処理装置、撮像装置及び画像処理プログラム
JP2009254660A (ja) 2008-04-18 2009-11-05 Hitachi Medical Corp X線撮影装置
JP6652290B2 (ja) 2015-08-31 2020-02-19 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP6585195B2 (ja) 2016-01-26 2019-10-02 富士フイルム株式会社 撮像装置、及び、画像データ生成方法
CA3033242A1 (en) * 2016-08-09 2018-02-15 Contrast, Inc. Real-time hdr video for vehicle control
US11128809B2 (en) * 2019-02-15 2021-09-21 Samsung Electronics Co., Ltd. System and method for compositing high dynamic range images

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004073450A (ja) 2002-08-16 2004-03-11 Canon Inc X線撮影装置
JP2006269923A (ja) 2005-03-25 2006-10-05 Fuji Photo Film Co Ltd 光電変換膜積層型カラー固体撮像素子
JP2018504943A (ja) 2014-12-03 2018-02-22 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 医療用x線画像における信号補償のための装置および方法
WO2016152007A1 (ja) 2015-03-25 2016-09-29 パナソニックIpマネジメント株式会社 画像処理装置およびこれを備えた監視システムならびに画像処理方法
US20180033120A1 (en) 2015-03-25 2018-02-01 Panasonic Intellectual Property Management Co., Ltd. Image processing device, monitoring system provided with same, and image processing method

Also Published As

Publication number Publication date
KR20210114848A (ko) 2021-09-24
US20210289153A1 (en) 2021-09-16
US11330210B2 (en) 2022-05-10
JP2021145212A (ja) 2021-09-24

Similar Documents

Publication Publication Date Title
JP5767485B2 (ja) 画像処理装置及び制御方法
WO2009153836A1 (en) Method and apparatus for motion blur and ghosting prevention in imaging system
WO2014038629A1 (ja) 移動体検出方法
CN110428391B (zh) 用以去除鬼影假象的图像融合方法及装置
WO2023108545A1 (en) Method for constructing defect detection model of micro led array panel, apparatures for dectectig pixel defect and devices
US10116865B2 (en) Image processing apparatus and image processing method for calculating motion vector between images with different in-focus positions
JP7455620B2 (ja) 動画像処理装置及び動画像処理方法
US7450167B2 (en) Method for improving image quality
US10742914B2 (en) Head-wearable imaging apparatus with two imaging elements corresponding to a user left eye and right eye, method, and computer readable storage medium for correcting a defective pixel among plural pixels forming each image captured by the two imaging elements based on defective-pixel related position information
JP4940661B2 (ja) 画像処理装置、画像処理方法および撮像装置
JP4337356B2 (ja) 画像信号のノイズを低減する信号処理装置、信号処理プログラムおよび信号処理方法
US7636494B2 (en) Method and apparatus for correcting pixel image signal intensity
JPH04309078A (ja) ビデオデータの動き検出装置および方法
KR101946946B1 (ko) 이미지 처리 장치 및 이의 이미지 처리 방법
US9013626B2 (en) Signal processing circuit of solid-state imaging element, signal processing method of solid-state imaging element, and electronic apparatus
JP2011114760A (ja) カメラモジュールの検査方法
JP6016000B1 (ja) 超解像処理方法、超解像処理装置及び超解像処理システム
JP2006279897A (ja) 画像センサ、追跡装置及び被写体追跡方法
JP2005210164A (ja) 欠陥画素補正装置
JP2005210164A5 (ja)
JP2006013812A (ja) 歪み検出システムおよび歪み検出方法
JP4114633B2 (ja) 画像処理装置および方法
JP2018110299A (ja) 画像処理方法、画像処理装置、および、撮像装置
JP2005175145A (ja) 固体撮像素子の補正方法
JP2023082340A (ja) 画像処理装置および画像処理方法、撮像装置、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240313

R150 Certificate of patent or registration of utility model

Ref document number: 7455620

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150