JP2021182670A - 画像処理装置、撮像装置、画像処理方法、およびプログラム - Google Patents

画像処理装置、撮像装置、画像処理方法、およびプログラム Download PDF

Info

Publication number
JP2021182670A
JP2021182670A JP2020086731A JP2020086731A JP2021182670A JP 2021182670 A JP2021182670 A JP 2021182670A JP 2020086731 A JP2020086731 A JP 2020086731A JP 2020086731 A JP2020086731 A JP 2020086731A JP 2021182670 A JP2021182670 A JP 2021182670A
Authority
JP
Japan
Prior art keywords
component
image
information
image processing
reflection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020086731A
Other languages
English (en)
Other versions
JP2021182670A5 (ja
Inventor
圭太 中村
Keita Nakamura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020086731A priority Critical patent/JP2021182670A/ja
Priority to US17/307,213 priority patent/US11842570B2/en
Publication of JP2021182670A publication Critical patent/JP2021182670A/ja
Publication of JP2021182670A5 publication Critical patent/JP2021182670A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/28Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for polarising
    • G02B27/286Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for polarising for controlling or changing the state of polarisation, e.g. transforming one polarisation state into another
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/815Camera processing pipelines; Components thereof for controlling the resolution by using a single image
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/28Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for polarising
    • G02B27/283Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for polarising used for beam splitting or combining

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Vascular Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ophthalmology & Optometry (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)

Abstract

【課題】画像における被写体の質感の変化を抑制しつつ映り込み情報を処理することが可能な画像処理装置を提供する。【解決手段】画像処理装置1は、入力画像における処理領域の各画素の輝度情報を映り込み成分1rと被写体成分Isとに分離する反射成分分離部12と、映り込み成分が第1の成分Ibまたは第2の成分ILのいずれであるかを判定する判定部13と、第1の成分に基づいて第1の情報を生成する背景像処理部14と、第1の情報と第2の成分と被写体成分とに基づいて出力画像を生成する画像生成部15とを有する。【選択図】図1

Description

本発明は、画像処理装置および画像処理方法に関する。
従来、カメラの画角外にある物体からの光が被写体の一部で反射してセンサに入射することで画像に生じる映り込み情報を、画像処理によって除去する方法が知られている。特許文献1には、偏光センサを用いて取得した偏光情報を利用して、画像の成分を鏡面反射成分(映り込み情報)と拡散反射成分(被写体情報)とに分離することで、鏡面反射成分のみを除去する方法が開示されている。
特許第6409088号公報
鏡面反射成分は、映り込んだ物体の情報だけでなく被写体の質感の情報も含んでいる。このため、特許文献1に開示されている方法により鏡面反射成分を除去すると、被写体の質感が変化してしまう。
そこで本発明は、画像における被写体の質感の変化を抑制しつつ映り込み情報を処理することが可能な画像処理装置、撮像装置、画像処理方法、およびプログラムを提供することを目的とする。
本発明の一側面としての画像処理装置は、入力画像における処理領域の各画素の輝度情報を映り込み成分と被写体成分とに分離する分離部と、前記映り込み成分が第1の成分または第2の成分のいずれであるかを判定する判定部と、前記第1の成分に基づいて第1の情報を生成する処理部と、前記第1の情報と前記第2の成分と前記被写体成分とに基づいて出力画像を生成する画像生成部とを有する。
本発明の他の目的及び特徴は、以下の実施例において説明される。
本発明によれば、画像における被写体の質感の変化を抑制しつつ映り込み情報を処理することが可能な画像処理装置、撮像装置、画像処理方法、およびプログラムを提供することができる。
各実施例における画像処理装置のブロック図である。 各実施例における画像処理方法の模式図である。 各実施例における3つの輝度情報から求められる近似曲線を示す図である。 各実施例における平滑化フィルターと、平滑化フィルターを畳み込み積分される画素領域を示す図である。 実施例1における画像処理方法のフローチャートである。 実施例2における撮像装置のブロック図である。 実施例3における撮像装置のブロック図である。 実施例3における撮像装置の撮像素子の画素配列図である。
以下、本発明の実施例について、図面を参照しながら詳細に説明する。
まず、図1および図2を参照して、各実施例における画像処理装置および画像処理方法について説明する。図1は、画像処理装置1のブロック図である。図2は、画像処理装置1により実施される画像処理方法の模式図である。
画像処理装置1は、選択部11、反射成分分離部(分離部)12、判定部13、背景像処理部(処理部)14、および画像生成部15を備えている。選択部11は、画像処理装置1に入力された入力画像21の一部の領域を背景像処理領域(処理領域)22として選択する。背景像処理領域22として選択される領域は、1つの領域または複数の領域のいずれでもよい。背景像処理領域22は、映り込みを起こしやすい対象が含まれる領域である。映り込みを起こしやすい対象とは、例えば目や眼鏡、窓ガラス、水面などが挙げられる。図2に示される例において、選択部11は、入力画像21中に破線で示される目を含む2つの領域を背景像処理領域22として選択している。
反射成分分離部12は、背景像処理領域22の各画素の輝度情報I(輝度成分)を被写体成分Isと映り込み成分Irとに分離する。ここでは、主に被写体自身の情報が含まれている輝度成分を被写体成分Is、主に周囲の物体や光源などの映り込んだ物体の情報が含まれている輝度成分を映り込み成分Irとする。また、被写体成分Isからなる画像を被写体像23、映り込み成分Irからなる画像を映り込み像24とする。
輝度情報Iを被写体成分Isと映り込み成分Irとに分離する方法としては、例えば偏光情報を利用して分離する方法が知られている。偏光情報は、特定の偏光方位の光を選択的に透過する偏光素子をカメラやレンズの前に取り付け、偏光素子の向きを変えながら撮影した複数枚の偏光画像から算出することができる。複数枚の偏光画像は、互いに向きの異なる複数の偏光素子をセンサの各画素に取り付けた偏光センサを利用して取得することもできる。
複数枚の偏光画像で同じ位置にある画素の輝度情報Iと、各偏光画像を取得したときの偏光素子の角度(向き)θとの関係は、余弦関数で近似することができる。図3は、θ=0度、45度、90度で取得した偏光画像で同じ位置にある画素の3つの輝度情報I(白丸)と、3つの輝度情報Iから求められる近似曲線(破線)をそれぞれ示す。偏光画像の輝度情報から推定された近似曲線は、曲線の最小値Imin、最大値Imax、曲線が最大となる偏光素子の角度(向き)θmaxを用いて、以下の式(1)のように表される。
Figure 2021182670
ここでは、Imin、Imax、θmaxの3つを合わせて偏光情報とする。なお、偏光情報は式(1)を一意に表す係数であれば、Imin、Imax、θmaxの3つの組に限定されるものではない。例えば、Imaxの代わりにImaxとIminとの差Imax−Imin、θmaxの代わりに曲線が最小となる偏光素子の角度(向き)θminとしてもよい。
一般に、被写体の表面で鏡面反射した光は偏光度が大きく、拡散反射した光は偏光度が小さい。また、拡散反射した光は主に被写体自身の情報が含まれた被写体成分であり、鏡面反射した光は主に周囲の物体や光源などの映り込んだ物体の情報が含まれた映り込み成分である。すなわち、映り込み成分は偏光素子の向きに応じて変化するが、被写体成分は偏光素子の向きによらず略一定である。したがって、偏光素子の角度(向き)θに依らない成分である最小値Iminを被写体成分Is、それ以外の成分を映り込み成分Irと推定することができる。
また、二色性反射モデルに基づいて分離する方法も知られている。二色性反射モデルによれば、物体からの反射光は、物体色の被写体成分Isと光源色の映り込み成分Irとの和で表すことができる。したがって、光源色と物体色を推定することで、それぞれの色の成分を被写体成分Isと映り込み成分Irとして分離することができる。
また、その他の方法として、視差情報を利用する方法もある。視差情報は、同じ被写体を異なる位置のカメラで撮影した複数の画像から得られる。異なる位置のカメラで撮影した画像では、背景像処理領域22、被写体像23、および、映り込み像24の画像内における相対位置が異なり、これらの位置のずれ量が視差として求められる。背景像処理領域22と被写体像23との視差は略同等であるが、映り込み像24は背景像処理領域22と視差が異なり、背景像処理領域22に対する映り込み像24の相対位置が変化する。したがって、背景像処理領域22に対して相対位置が変化しない成分を被写体成分Is、相対位置が変化する成分を映り込み成分Irと推定することができる。
判定部13は、映り込み成分Irが背景成分Ibまたは光源成分ILのいずれであるかを判定する。例えば、判定部13は、主に周囲の物体の情報からなる映り込み成分Irを背景成分Ibと判定し、主に光源の情報からなる映り込み成分Irを光源成分ILと判定する。また、背景成分Ibからなる画像を背景像25、光源成分ILからなる画像を光源像26とする。
映り込み成分Irが背景成分Ibまたは光源成分ILのいずれであるかの判定の基準としては、例えば、映り込み成分Ir(映り込み像24)の輝度情報や色情報を用いることができる。また、映り込み成分Ir(映り込み像24)の形状に基づいて判定してもよい。輝度情報による判定は、例えば輝度値の大小によってなされる。一般に、映り込んだ光源の像は、映り込んだ周囲の物体の像と比べて輝度値が大きい。したがって、判定部13は、映り込み成分Irの中で比較的大きい成分を光源成分ILとして判定する。例えば、判定部13は、背景像処理領域22内の映り込み成分Irの平均値よりも大きい成分を光源成分ILとして判定する。すなわち判定部13は、輝度値が所定値よりも小さい場合に映り込み成分Irが背景成分Ibであると判定し、輝度値が所定値よりも大きい場合、映り込み成分Irが光源成分ILであると判定する。または、判定部13は、映り込み成分Irと被写体成分Isとを合わせた画素の輝度情報が飽和輝度値の8割以上の画素の映り込み成分Irを光源成分ILと判定してもよい。色情報を用いた判定では、判定部13は、例えば、推定または指定した光源色と同等の色情報を有する映り込み成分Irを光源成分ILとして判定する。
なお、これらの基準は一例であり、任意の基準を用いることができる。また、基準は予め与えられてもよいが、適宜設定してもよい。また、各画素の映り込み成分Irの判定には各画素の情報のみ用いてもよいが、近傍画素の情報を含めて判定してもよい。
背景像処理部14は、背景像25に処理を加えて処理背景像27を生成する。処理背景像27の各画素の輝度情報を処理背景成分Ib’とする。背景像処理部14での処理としては、例えば、背景成分に対応する背景像25に対する高周波成分の除去(解像度を低下させること)、輝度情報の除去(輝度値を低下させること)、色情報の変更、別画像による置き換え、または、モザイク処理などが挙げられる。
高周波成分を除去する方法は、例えば画像に平滑化フィルターを畳み込み積分する平滑化処理がある。平滑化処理は周辺画素の値の平均値や重み付き平均値を各画素の値とすることで、近傍画素との差を小さくし、高周波成分を除去する。図4は、一例として、5×5画素の平滑化フィルター41と、平滑化フィルター41を畳み込み積分される画像の一部である5×5画素の画素領域42とを示す図である。平滑化フィルター41と画素領域42の各画素内にはそれぞれ、フィルターの画素値f(i,j)と画像の画素値I(i,j)が記されており、(i,j)は各画素の位置を表している。平滑化フィルター41を畳み込み積分して得られる位置(0,0)の画素の画素値I’(0,0)は、以下の式(2)のように表される。
Figure 2021182670
なお、フィルターの画素値f(i,j)は、各画素で全て等しくてもよいし、ガウシアンフィルタのように画素ごとに異なっていてもよい。
また、画像をフーリエ変換して空間周波数ごとの情報にし、高周波成分を0としたあと逆変換することで高周波成分を除去した画像を生成する方法もある。また、例えば画像をモノクロ化することで色情報を除去したり、各画素の輝度値を小さくすることで輝度情報を除去したりすることができる。別画像による置き換えは、予め用意した画像リストの中から背景像25に近い画像を選択し置き換えることや、背景像をレタッチした画像で置き換えることで行うことができる。
背景像処理部14は、前述の処理を複数の領域に実施してもよく、または、一つのみの領域に実施してもよい。また、背景像25の全体に同じ処理を実施してもよく、または、背景像25の一部ごとに異なる処理を実施してもよい。
画像生成部15は、背景像処理領域22における被写体像23と光源像26と処理背景像27、および、背景像処理領域22以外の領域における入力画像を合成して生成画像(出力画像)28を生成する。生成画像28の各画素の輝度情報は、背景像処理領域22以外の領域では入力画像の輝度情報Iとなり、背景像処理領域22では被写体成分Isと光源成分ILと処理背景成分Ib’との和になる。
なお、生成画像28において背景像処理領域22の境界付近で処理の有無によってエッジが生じるような弊害が発生する場合がある。そのような場合、背景像処理領域22の境界付近を遷移領域とし、輝度情報を入力画像の輝度情報Iと被写体成分Is、光源成分IL、処理背景成分Ib’の和との平均値として生成画像28を生成するなどしてもよい。
画像処理装置1で生成された生成画像28は、被写体や映り込んだ光源の情報を保ったまま、映り込んだ周囲の物体の情報が除去された画像になっている。したがって、被写体の情報の喪失や質感の変化を抑制しながら、映り込んだ周囲の物体の情報を除去することができている。なお各実施例において、画像処理装置1が行う画像処理と同等の画像処理方法をプログラムなどで実行してもよい。
次に、図5を参照して、本発明の実施例1における画像処理方法について説明する。図5は、本実施例における画像処理方法のフローチャートである。本実施例の画像処理方法は、図1を参照して説明した画像処理装置1の選択部11、反射成分分離部12、判定部13、背景像処理部14、または画像生成部15により実行される。
まずステップS101において、画像処理装置1の選択部11は、画像を入力する(入力画像21を取得する)。続いてステップS102において、選択部11は、入力画像21の被写体から目を検出する。続いてステップS103において、選択部11は、入力画像21から検出された目を含む領域を背景像処理領域22として選択する。なお、被写体から目を検出する方法は、公知の種々の技術を用いることができる。
続いてステップS104において、反射成分分離部12は、顔認証を行う。続いてステップS105において、反射成分分離部12は、顔認証により個人を特定できたか否かを判定する。個人を特定できない場合、ステップS106に進み、画像処理装置1は、画像処理が中断したことを通知する。画像処理装置1は、例えば、外部の表示装置に処理が中断したことを知らせる表示などをしてもよい。一方、個人を特定できた場合、ステップS107に進む。
ステップS107において、反射成分分離部12は、二色性反射モデルに基づいて、背景像処理領域22の各画素の輝度情報を映り込み成分Irと被写体成分Is(すなわち目の成分)とに分離する。本実施例において、反射成分分離部12は、顔認証により特定された個人と紐づけられた目の色情報を物体色として与えることで、物体色の被写体成分Isと光源色の映り込み成分Irに分離する。
続いてステップS108において、判定部13は、映り込み成分Irが背景成分Ib(第1の成分)または光源成分IL(第2の成分)のいずれであるかを判定する。本実施例において、判定部13は、輝度値が背景像処理領域22における最大値の半分以上である画素の映り込み成分Irを光源成分IL、それ以外の映り込み成分Irを背景成分Ibとする。
続いてステップS109において、背景像処理部(処理部)14は、フィルターのサイズを算出する。続いてステップS110において、背景像処理部14は、背景像25に対して平滑化処理を行い、高周波成分を除去する。すなわち背景像処理部14は、背景成分Ibに基づいて処理背景像27(第1の情報)を生成する。
背景像処理部14は、背景像25に対して平滑化処理を行い、高周波成分を除去する。本実施例において、平滑化処理は、フィルターのサイズがF1×F2画素で画素値が全て等しい平滑化フィルターを背景像25に畳み込み積分することで行われる。フィルターのサイズF1、F2はそれぞれ奇数値であり、背景像処理領域22の大きさに基づいて決定される。背景像処理領域22の大きさは、背景像処理領域22に外接する長方形のうち面積が最小となる長方形の大きさN1×N2画素で表す。このときフィルターのサイズF1、F2は、N1/F1、N2/F2が略10となるように決定される。フィルターサイズを前述のようにすることで、平滑化処理後の画像の解像度が背景像処理領域22内を略10×10画素としたときの解像度程度となり、映り込んだ物体の判別が困難になる。なお、平滑化処理の際には、外接する長方形の2辺が画像の画素配列方向と一致するように背景像処理領域22を回転処理してから平滑化フィルターを背景像25に畳み込み積分する。その後、平滑化処理された背景像25を逆回転処理することで処理背景像27を生成する。
続いてステップS111において、画像生成部15は、背景像処理領域22における処理背景像27と光源成分IL(光源像26)と被写体成分Is(被写体像23)と、背景像処理領域22以外の領域の入力画像とを合成して、生成画像28を生成する。
本実施例の画像処理装置1で得られた生成画像28は、入力画像21と比較すると、背景像25の高周波成分が除去され、映り込んだ物体の判別を困難にすることができる。一方、被写体像23や光源像26には変化がないため、被写体の情報が失われず質感の変化を抑制することができる。
次に、図6を参照して、本発明の実施例2における撮像装置について説明する。図6は、本実施例における撮像装置2のブロック図である。撮像装置2は、画像処理装置1、光学系202、撮像素子203、および照明装置204を備えている。撮像素子203は、光学系202からの光を受光し、入力画像を生成する。撮像装置2において、被写体で反射された照明装置204からの照明光が光学系202により撮像素子203上に結像され、撮像素子203から得られた画像が入力画像21として画像処理装置1に入力される。
本実施例では、照明装置204として白色のリング形状の照明が用いられ、照明装置204の情報として照明光の色情報と形状情報が画像処理装置1の判定部13に入力される。判定部13は、映り込み像24の色情報および形状情報を判定基準の一つとして用いる。すなわち判定部13は、映り込み成分Irに対応する映り込み像24から照明光の色情報(白色)と形状情報(リング形状)に近い形状の像を抽出し、抽出された像のうち輝度値が基準値(所定値)以上の像を光源像26と判定する。光源情報を既知の情報として反射成分の判定に利用することで、照明装置204によって意図的に付与した光源成分をより正確に判定することができる。これにより、意図した質感に近い生成画像28を得ることができる。
また、本実施例の画像処理装置1の背景像処理部14は、背景像25を別画像で置き換える。置き換える画像は、予め用意した画像リストの中から背景像25に近い画像を選択することができる。置き換え処理の際、置き換える画像に対して、画像サイズを背景像処理領域22の大きさに合わせて拡大縮小する処理や、全体の輝度を背景像25の輝度に合わせる処理を行うことができる。背景像25を別画像で置き換えることにより、背景像25の持つ情報を消去することができ、情報流出の可能性を低減することができる。
次に、図7および図8を参照して、本発明の実施例3における撮像装置について説明する。図7は、本実施例における撮像装置3のブロック図である。図8は、本実施例における撮像素子303の画素配列図である。撮像装置3は、画像処理装置1、光学系302、撮像素子303、および、偏光情報算出部(算出部)304を備えている。撮像素子303は、光学系302からの光を受光する。
光学系302は、被写体からの反射光を撮像素子303上に結像し、撮像素子303から得られた画像が偏光情報算出部304へ入力される。本実施例において、撮像素子303は、0度、45度、90度、135度の角度(向き)の複数の偏光素子が各画素に配置された偏光撮像素子である。図8中の各画素の数字1、2、3、4はそれぞれ、各画素の偏光素子の角度(0度、45度、90度、135度)を表している。
偏光情報算出部304は、撮像素子303の偏光素子の向きが同じ画素で得られた情報をそれぞれ補間処理することで、各画素において異なる4つの偏光素子の向きで取得した輝度情報を得る。そして偏光情報算出部304は、各画素において、得られた4つの輝度値と各輝度値を得た偏光素子の角度(向き)とに基づいて、式(1)で表される近似曲線を求める。本実施例において、偏光情報算出部304は、得られた4つの輝度値と、各輝度値を得た偏光素子の角度に対して式(1)から算出される輝度値の差の二乗和が最小となる最小値Imin、最大値Imax、角度θminを偏光情報として算出する。偏光情報算出部304で算出された偏光情報からなる画像は、入力画像21として画像処理装置1に入力される。
選択部11は、最小値Iminに関するImin情報からなる画像を用いて背景像処理領域22を選択する。Imin情報からなる画像は、主に被写体自身の情報からなるため、目や窓ガラスなど映り込みを起こしやすい対象を検出する際に映り込みによる検出精度の低下が起こりにくい。反射成分分離部12は、Imin情報を被写体成分Isとし、Imax−Imin情報を映り込み成分Irとする。判定部13は、最大値Imaxが基準値(所定値)以下の成分を背景成分Ibと判定する。背景像処理部14は、背景像25の輝度情報を0とする処理を行う。すなわち背景像処理部14は、各画素の処理背景成分Ib’=0とした処理背景像27を生成する。
画像生成部15は、背景像処理領域22内の被写体像23、光源像26、処理背景像27と、背景像処理領域22外の入力画像とから生成画像28を生成する。背景像処理領域22内での偏光情報は、Imin=Is、Imax=Is+ILとなり、θmaxは入力画像のθmaxと同じとなる。本実施例において、生成画像28の各画素の輝度情報Iは、3つの係数k1、k2、k3を用いて、以下の式(3)で算出することができる。
Figure 2021182670
3つの係数k1、k2、k3を変えて画像を生成することで、被写体の質感を変化させることができる。なお、3つの係数k1、k2、k3は全画素で同じでもよいが各画素で異なっていてもよい。
以上のように、本実施例の撮像装置3は、互いに異なる向きに配置された複数の偏光素子によりそれぞれ取得された複数の偏光画像から偏光情報を算出する偏光情報算出部304を有する。そして反射成分分離部12は、偏光情報に基づいて、複数の偏光素子の向きに依らないと判定される成分を被写体成分Isとし、被写体成分Isとは異なる成分を映り込み成分Irとして分離する。
本実施例の画像処理装置1で得られた画像は、入力画像21と比較すると、背景像25の輝度情報が0となり、映り込んだ物体の情報が失われている。また、偏光情報を用いることで被写体の質感を変化させ、より好ましい質感の画像を得ることができる。
(その他の実施例)
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
各実施例によれば、画像における被写体の質感の変化を抑制しつつ映り込み情報を処理することが可能な画像処理装置、撮像装置、画像処理方法、およびプログラムを提供することができる。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
1 画像処理装置
12 反射成分分離部(分離部)
13 判定部
14 背景像処理部(処理部)
15 画像生成部

Claims (15)

  1. 入力画像における処理領域の各画素の輝度情報を映り込み成分と被写体成分とに分離する分離部と、
    前記映り込み成分が第1の成分または第2の成分のいずれであるかを判定する判定部と、
    前記第1の成分に基づいて第1の情報を生成する処理部と、
    前記第1の情報と前記第2の成分と前記被写体成分とに基づいて出力画像を生成する画像生成部と、を有することを特徴とする画像処理装置。
  2. 前記処理部は、前記第1の成分に対応する背景像の解像度を低下させて前記第1の情報を生成することを特徴とする請求項1に記載の画像処理装置。
  3. 前記処理部は、前記第1の成分に対応する背景像の色情報を変更して前記第1の情報を生成することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記処理部は、前記第1の成分に対応する背景像の輝度値を低下させて前記第1の情報を生成することを特徴とする請求項1乃至3のいずれか一項に記載の画像処理装置。
  5. 前記処理部は、前記第1の成分に対応する背景像を別画像で置き換えて前記第1の情報を生成することを特徴とする請求項1乃至4のいずれか一項に記載の画像処理装置。
  6. 前記処理部は、前記第1の成分に対応する背景像に対してモザイク処理を行って前記第1の情報を生成することを特徴とする請求項1乃至5のいずれか一項に記載の画像処理装置。
  7. 前記入力画像の一部を前記処理領域として選択する選択部を更に有し、
    前記選択部は、前記入力画像から検出された目を含む領域を前記処理領域とすることを特徴とする請求項1乃至6のいずれか一項に記載の画像処理装置。
  8. 前記判定部は、前記映り込み成分の輝度情報を用いて、該映り込み成分が前記第1の成分または前記第2の成分のいずれであるかを判定することを特徴とする請求項1乃至7のいずれか一項に記載の画像処理装置。
  9. 前記輝度情報は、前記映り込み成分の輝度値であり、
    前記判定部は、
    前記輝度値が所定値よりも小さい場合、前記映り込み成分が前記第1の成分であると判定し、
    前記輝度値が前記所定値よりも大きい場合、前記映り込み成分が前記第2の成分であると判定することを特徴とする請求項1乃至7のいずれか一項に記載の画像処理装置。
  10. 前記判定部は、前記映り込み成分の色情報を用いて、該映り込み成分が前記第1の成分または前記第2の成分のいずれあるかを判定することを特徴とする請求項1乃至9のいずれか一項に記載の画像処理装置。
  11. 前記判定部は、前記映り込み成分の形状を用いて、該映り込み成分が前記第1の成分または前記第2の成分のいずれあるかを判定することを特徴とする請求項1乃至10のいずれか一項に記載の画像処理装置。
  12. 互いに異なる向きに配置された複数の偏光素子によりそれぞれ取得された複数の偏光画像から偏光情報を算出する算出部を更に有し、
    前記分離部は、前記偏光情報に基づいて、前記複数の偏光素子の向きに依らないと判定される成分を前記被写体成分とし、該被写体成分とは異なる成分を前記映り込み成分として分離することを特徴とする請求項1乃至11のいずれか一項に記載の画像処理装置。
  13. 請求項1乃至12のいずれか一項に記載の画像処理装置と、前記入力画像を生成する撮像素子とを有することを特徴とする撮像装置。
  14. 入力画像における処理領域の各画素の輝度情報を映り込み成分と被写体成分とに分離するステップと、
    前記映り込み成分が第1の成分または第2の成分のいずれであるかを判定するステップと、
    前記第1の成分に基づいて第1の情報を生成するステップと、
    前記第1の情報と前記第2の成分と前記被写体成分とに基づいて出力画像を生成するステップと、を有することを特徴とする画像処理方法。
  15. 請求項14に記載の画像処理方法をコンピュータに実行させることを特徴とするプログラム。
JP2020086731A 2020-05-18 2020-05-18 画像処理装置、撮像装置、画像処理方法、およびプログラム Pending JP2021182670A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020086731A JP2021182670A (ja) 2020-05-18 2020-05-18 画像処理装置、撮像装置、画像処理方法、およびプログラム
US17/307,213 US11842570B2 (en) 2020-05-18 2021-05-04 Image processing apparatus, image pickup apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020086731A JP2021182670A (ja) 2020-05-18 2020-05-18 画像処理装置、撮像装置、画像処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2021182670A true JP2021182670A (ja) 2021-11-25
JP2021182670A5 JP2021182670A5 (ja) 2023-05-12

Family

ID=78512691

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020086731A Pending JP2021182670A (ja) 2020-05-18 2020-05-18 画像処理装置、撮像装置、画像処理方法、およびプログラム

Country Status (2)

Country Link
US (1) US11842570B2 (ja)
JP (1) JP2021182670A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023149218A1 (ja) * 2022-02-03 2023-08-10 ソニーセミコンダクタソリューションズ株式会社 画像処理装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6728401B1 (en) * 2000-08-17 2004-04-27 Viewahead Technology Red-eye removal using color image processing
US8131116B2 (en) * 2006-08-31 2012-03-06 Panasonic Corporation Image processing device, image processing method and image processing program
US9082068B1 (en) * 2014-05-06 2015-07-14 Xerox Corporation Color shift printing without using special marking materials
JP6409088B2 (ja) 2016-04-28 2018-10-17 シャープ株式会社 画像処理方法および画像処理装置
JP6697986B2 (ja) * 2016-09-07 2020-05-27 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および画像領域分割方法
US11055905B2 (en) * 2019-08-08 2021-07-06 Adobe Inc. Visually augmenting images of three-dimensional containers with virtual elements

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023149218A1 (ja) * 2022-02-03 2023-08-10 ソニーセミコンダクタソリューションズ株式会社 画像処理装置

Also Published As

Publication number Publication date
US11842570B2 (en) 2023-12-12
US20210357675A1 (en) 2021-11-18

Similar Documents

Publication Publication Date Title
US7551800B2 (en) Detection of airborne flash artifacts using preflash image
JP6159298B2 (ja) 複数スケールの規格化された相互相関を用いた、hdr画像処理におけるゴーストアーティファクトの検出および除去方法
WO2011061940A1 (ja) 画像処理方法および画像処理装置
US20150043808A1 (en) Image processing apparatus, image processing method, and imaging apparatus
JP2020537382A (ja) デュアルカメラベースの撮像のための方法および装置ならびに記憶媒体
JP6608658B2 (ja) 反射抑制を伴う画像撮影装置および方法
US20070286514A1 (en) Minimizing image blur in an image projected onto a display surface by a projector
US8873881B2 (en) Dust detection system and digital camera
TWI462054B (zh) Estimation Method of Image Vagueness and Evaluation Method of Image Quality
CN108154491B (zh) 一种图像反光消除方法
JP2007285754A (ja) 欠陥検出方法および欠陥検出装置
JP2007258869A (ja) 画像のトリミング方法および装置並びにプログラム
JP2021182670A (ja) 画像処理装置、撮像装置、画像処理方法、およびプログラム
JP3860540B2 (ja) エントロピーフィルタ及び該フィルタを用いた領域抽出法
TWI746947B (zh) 用於偵測在一視訊序列中之移動之方法、電腦可讀媒體、移動偵測組件及攝影機
JP2002247439A (ja) 画像入力装置、画像入力方法、およびその方法をコンピュータで実行するためのプログラムが格納されているコンピュータが読み取り可能な記録媒体
JP2017157043A (ja) 画像処理装置、撮像装置、及び、画像処理方法
KR101390455B1 (ko) 물리적 기반의 반사 분리에 의한 획득 이미지 품질 개선 방법
JP4524616B2 (ja) 撮影装置、撮影画像の画像処理方法及びプログラム
JP6436840B2 (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
JP2008015979A (ja) パターン検出方法、パターン検出プログラム、パターン検出装置、及び撮像装置
JP6666735B2 (ja) 画像処理装置、撮像装置、画像処理装置の制御方法及びプログラム
JP7452677B2 (ja) フォーカス判定装置、虹彩認証装置、フォーカス判定方法、及び、プログラム
JP2017212678A (ja) 画像処理装置、撮像装置、画像処理方法、プログラム、記憶媒体
JP2003346165A (ja) ワーク境界の検出方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230501

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230501

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240328

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240604