JP6574878B2 - 画像処理装置及び画像処理方法、撮像装置、プログラム、並びに記憶媒体 - Google Patents

画像処理装置及び画像処理方法、撮像装置、プログラム、並びに記憶媒体 Download PDF

Info

Publication number
JP6574878B2
JP6574878B2 JP2018136075A JP2018136075A JP6574878B2 JP 6574878 B2 JP6574878 B2 JP 6574878B2 JP 2018136075 A JP2018136075 A JP 2018136075A JP 2018136075 A JP2018136075 A JP 2018136075A JP 6574878 B2 JP6574878 B2 JP 6574878B2
Authority
JP
Japan
Prior art keywords
frame
image
subject area
color information
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2018136075A
Other languages
English (en)
Other versions
JP2018207497A (ja
Inventor
勇人 ▲高▼橋
勇人 ▲高▼橋
喜則 渡辺
喜則 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018136075A priority Critical patent/JP6574878B2/ja
Publication of JP2018207497A publication Critical patent/JP2018207497A/ja
Application granted granted Critical
Publication of JP6574878B2 publication Critical patent/JP6574878B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)

Description

本発明は、被写体の暗部領域を再現するための画像処理技術に関する。
暗いシーンで被写体にストロボを発光せずに撮影を行うと、被写体の凹凸などにより、被写体の一部が影となり、薄暗くなった画像や、黒く潰れた画像になってしまうことがある。また、暗いシーンでストロボを発光して撮影を行うと、暗いシーンで灯りの雰囲気を残すことができないため、撮影画像に色補正などを行い画像を加工する必要がある。
一方、暗いシーンの動画撮影において被写体周辺の光量と被写体の動きによって、被写体の一部が光の当たらない暗部領域となってしまうことがある。この暗部領域は、輝度情報と共に色情報も失われてしまうため、フレームによって被写体と背景の境界が不明確になる場合がある。
このような画像の色補正や暗部領域の失われた画素情報に関して、特許文献1には、可視光画像から得た色情報と、可視光以外の波長の画像、例えば赤外光画像から得た輝度情報とを合成し、暗部の色情報を補正する技術が記載されている。
特開2011−239259号公報
しかしながら、上記特許文献1には、被写体の一部が暗部領域となってしまったときの色情報の補正方法や、暗部領域における失われた色情報の補正方法について何ら記述されていない。
本発明は、上記課題に鑑みてなされ、その目的は、被写体の暗部領域を再現することができる画像処理技術を実現することである。
上記課題を解決し、目的を達成するために、本発明の画像処理装置は、第1の波長の光から生成された第1の画像を所定のフレームレートで取得する第1の画像取得手段と、第2の波長の光から生成された第2の画像を所定のフレームレートで取得する第2の画像取得手段と、前記第1の画像の第1のフレームから検出された被写体領域と、前記第1のフレームに対応する前記第2の画像の第3のフレームから検出された被写体領域との、差分領域を検出する検出手段と、前記第2の画像の前記第3のフレームから検出された被写体領域と第4のフレームから検出された被写体領域との動きベクトルを求める算出手段と、前記第1の画像の前記第1のフレームのうち、前記差分領域に含まれる第1の画素の位置に対応する、前記第2の画像の第4のフレームに対応する前記第1の画像の第2のフレームにおける推定位置を、前記動きベクトルに基づいて求める推定手段と、前記第2のフレームから検出された被写体領域の色情報と前記第1のフレームから検出された被写体領域の色情報の比率、および、前記第2のフレームの前記推定位置の画素における色情報に応じて、前記第1の画像の前記第1のフレームの前記第1の画素の色情報を補正する補正手段と、を有する。
本発明によれば、被写体の暗部領域を再現することができる。
本発明に係る実施形態の撮像装置の構成を示すブロック図。 図1の信号処理部の構成を示すブロック図。 実施形態1の色補正処理部の機能ブロック図。 実施形態1の色補正処理を示すフローチャート。 可視光画像(a)と赤外光画像(b)を例示する図。 可視光画像の輝度分布情報(a)と赤外光画像の輝度分布情報(b)を例示する図。 実施形態1の色補正が実行された可視光画像を例示する図。 実施形態2の色補正処理を示すフローチャート。 実施形態3の色補正処理部の機能ブロック図。 実施形態3の色補正処理を示すフローチャート。 赤外光画像から抽出された被写体領域(a)と可視光画像から抽出された被写体領域(b)を例示する図。 実施形態4の色補正処理部の機能ブロック図。 実施形態4の色補正処理を示すフローチャート。 実施形態4の色補正処理の手順を模式的に示す図。 図14(a)の可視光画像と図14(b)の赤外光画像の各フレームから求められる共通領域(a)と差分領域(b)をそれぞれ示す図。 図14(b)の赤外光画像から抽出された被写体領域を例示する図。 図16(a)、(b)の被写体領域の特徴点から求められる形状変化量を示す図。 被写体領域の形状変化量から画素移動位置を推定する方法を説明する図。 可視光画像を複数ブロックに分割した各ブロック内の画素情報から得られた色情報を示す図。 図19に示すブロック単位の色情報のうち、赤外光画像の被写体領域に対応する色情報の拡大図。 実施形態4の変形例として複数フレーム間にわたって色補正処理を行う方法を説明する図。 図21(a)の可視光画像と、図21(b)の赤外光画像の各フレームから求められる共通領域(a)と差分領域(b)をそれぞれ示す図。
以下に、本発明を実施するための形態について詳細に説明する。尚、以下に説明する実施の形態は、本発明を実現するための一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。また、後述する各実施形態の一部を適宜組み合わせて構成しても良い。
以下、本発明の画像処理装置を、動画や静止画を撮影するデジタルカメラなどの撮像装置により実現した例について説明するが、本発明は撮像装置を内蔵または追加可能な携帯電話やスマートフォン、タブレット、パーソナルコンピュータ、ゲーム機などの電子機器にも適用可能である。
<装置構成>図1を参照して、本実施形態の撮像装置(以下、カメラ)の構成および機能について説明する。
図1において、光学系100は、ズームレンズやフォーカスレンズを含むレンズ群、絞り機能を備えるシャッターを含み、被写体から反射した可視光および赤外光を透過し撮像素子に結像する。
第1および第2の撮像部101、108はそれぞれ、被写体像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子を含む。第1および第2のA/D変換部102、109はそれぞれ、撮像素子から出力されるアナログ信号をデジタル信号に変換する。
第1および第2のタイミングジェネレータ(TG)106、111は、第1および第2の撮像部101、108の各撮像素子を駆動する駆動パルス(タイミング信号)を生成する。
第1および第2の撮像素子駆動部105、110はそれぞれ、第1および第2のTG106、111の駆動パルスに従って、第1および第2の撮像部101、108の各撮像素子の撮像動作を制御する。各撮像素子で生成されたアナログ信号は、CPU107の指令に従って各TG106、111から与えられる駆動パルスに基づいて順次読み出され、各A/D変換部102、109によりデジタル信号に変換されて信号処理部104に送出される。
CPU107は、カメラ本体の種々の制御を司るために、演算部、ROM、RAM、通信I/F(インターフェース)などを有する。CPU107は、ROMに記憶された所定のプログラムに基づいて、カメラの各部を駆動し、AF、撮影、画像処理と記録などの一連の動作を実行する。
操作部103は、ユーザからの各種操作を受け付ける各種スイッチ、ボタン、タッチパネルなどの操作部材からなり、例えば、電源スイッチ、シャッタースイッチ、録画スイッチ、モード切替スイッチなどを含む。モード切替スイッチは、CPU107の動作モードを静止画撮影モード、動画記録モード、再生モードなどに切り替える。
信号処理部104は、各撮像部101、108で撮像され、各A/D変換部102、109から出力される静止画や動画などの画像データに対して、所定の画素補間、リサイズ、後述する色補正やガンマ処理といった各種信号処理を行う。
データバス112は、各種データや制御情報などをカメラの各ブロックに送出するための伝送路として機能する。
信号処理部104により各種信号処理が施された画像データは、データバス112を介してメモリ制御部113、表示制御部115、記録制御部118、圧縮/伸張部117に送出される。
メモリ制御部113は、画像データのメモリ114への書き込みや読み出しを制御する。メモリ114は例えばDRAMであり、信号処理部104から出力される画像データや、表示部116に表示するための画像データを格納する。また、メモリ114は、画像データの圧縮/伸張処理における作業用メモリとしても使用される。メモリ114は、所定枚数の静止画や所定時間の動画および音声を格納するのに十分な記憶容量を備えている。
表示制御部115は、信号処理部104から出力されメモリ114に格納された画像データや記録媒体119から読み出されメモリ114に格納された画像データを表示用のアナログ信号に変換して表示部116に表示する。表示部116は、LCDなどの表示器にアナログ信号に応じた表示を行う。また、表示制御部115は、信号処理部104から出力されメモリ114に格納された画像データを表示用のアナログ信号に変換して表示部116に逐次転送して表示することで、電子ビューファインダとして機能し、ライブビュー画像表示を行える。なお、表示部116には、表示部116に対する接触を検知可能なタッチパネルを一体的に構成することができる。この場合、後述する追尾処理において追尾する被写体をユーザが指定するための手段として、タッチパネルが用いられる。
記録制御部118は、画像データの記録媒体119への書き込みや読み出しを制御する。記録媒体119は、メモリカードやハードディスクなどであり、半導体メモリや磁気ディスクなどを含む。
圧縮/伸張部117は、信号処理部104から出力されメモリ114に格納されている画像データを、静止画ならばJPEG、動画ならばH.264などの所定のフォーマットまたはビットレートで圧縮符号化して静止画や動画のファイルを生成する。また、圧縮/伸張部117は、記録媒体119に記録されている静止画ファイルや動画ファイルを所定のビットレートおよびフォーマットで復号し、メモリ制御部113を介してメモリ114に格納する。
圧縮/伸張部117で復号されてメモリ114に格納される画像データは表示制御部115に送出されて表示部116に表示される。
上記構成において、光学系100を透過した光は、例えばハーフミラーやプリズムにより、第1および第2の撮像部101、108に同時に送出される。
第1および第2の撮像部101、108の各撮像素子には、例えば、入射光の波長帯域を制限するための光学フィルタが内蔵されている。これにより、第1の撮像部101は可視光の波長帯域(第1の波長)の光のみを受光し、第2の撮像部108は赤外光の波長帯域(第2の波長)のみ受光するように構成されている。
可視光の被写体像は第1の撮像部101で光電変換されて、アナログ信号として第1のA/D変換部102に送出され、第1のA/D変換部102でデジタル信号に変換されて信号処理部104に送出される。同様に、赤外光の被写体像は第2の撮像部108で光電変換されて、アナログ信号として第2のA/D変換部109に送出され、第2のA/D変換部109でデジタル信号に変換されて信号処理部104に送出される。
第1の撮像素子駆動部105は、第1のTG106からの駆動パルスに基づき、撮像素子の各画素信号を読み出すための制御を行い、可視光の被写体像の露光時間を制御しながら第1の撮像部101から可視光画像を取得する。同様に、第2の撮像素子駆動部110は、第2のTG111からの駆動パルスに基づき、撮像素子の各画素信号を読み出すための制御を行い、赤外光の被写体像の露光時間を制御しながら第2の撮像部108から赤外光画像を取得する。
CPU107は、信号処理部104のパラメータやTG106、111の駆動パルスなどを切り替える。
<信号処理部の構成>次に、図2を参照して、信号処理部104の構成および機能について説明する。
図2において、第1のA/D変換部102から出力される可視光の画像信号は、第1のセンサ補正部200によって、光学系100で生じる色収差や撮像素子のゲインばらつき、欠陥画素判定、欠陥画素補正などの画素補間処理が施される。第1のセンサ補正部200から出力されるデジタル信号は、第1の現像処理部201により現像処理が施され画像データが生成される。ここで現像処理とは、例えばベイヤー画像を同時化処理、ガンマ補正処理などを行いRGB(ベイヤー画像)からYCrCb変換後の可視光画像データを生成することである。
同様に、第2のA/D変換部109から出力される赤外光の画像信号は、第2のセンサ補正部202によって、光学系100で生じる色収差や撮像素子のゲインばらつき、欠陥画素判定、欠陥画素補正などの画素補間処理が施される。第2のセンサ補正部202から出力されるデジタル信号は、第2の現像処理部203により現像処理が施され画像データが生成される。第2の現像処理部203では、例えば、格子配列状の赤外光の画像信号を輝度情報として、フィルタ処理、ガンマ補正処理などを行い、赤外光画像データを生成する。
第1および第2の各現像処理部201、203からの出力データは、補正処理部204に送出されると共に、データバス112を介してメモリ114に記録される。
(概要説明1)
以下に説明する実施形態1〜3は、赤外光画像から被写体の形状や陰影(輝度分布)を求め、可視光画像の被写体領域における高輝度領域の色情報(明度、彩度、色相)を用いて、暗部領域の色情報の補正を行う画像処理方法に関する。
[実施形態1]以下、実施形態1の可視光画像の色補正処理について説明する。
図3は、本実施形態の色補正処理を実現するための図2の補正処理部204の機能ブロックを示している。
図3において、可視光画像取得部301は、例えば、図1および図2に示す第1の撮像部101、第2のA/D変換部102、第1のセンサ補正部200、第1の現像処理部201に対応する。また、赤外光画像取得部302は、例えば、図1および図2に示す第2の撮像部108、第2のA/D変換部109、第2のセンサ補正部202、第2の現像処理部203に対応する。
輝度情報比較部303は、可視光画像データの輝度分布情報と赤外光画像データの輝度分布情報とを比較する。
色補正部304は、輝度情報比較部303による比較結果を用いて、可視光画像の被写体領域における暗部領域の色情報を補正する。
<色補正処理>次に、図4ないし図7を参照して、図2の補正処理部204による可視光画像の被写体領域における暗部領域の色補正処理について説明する。
図4は、図2の補正処理部204による可視光画像データの被写体領域における暗部領域の色補正処理を示すフローチャートである。
なお、図4に示す処理は、CPU107がROMに格納されたプログラムをRAMに展開して実行することにより実現される。
図4において、S401では、信号処理部104は、可視光画像取得部301および赤外光画像取得部302により赤外光画像データ(図5(a))と可視光画像データ(図5(b))を取得する。
図6(a)と図6(b)はそれぞれ、赤外光画像の被写体領域の一部の輝度分布情報と可視光画像の被写体領域の一部の輝度分布情報を例示しており、各画像内の輝度分布情報が最大値10、最小値0として正規化されている。図6(a)に示す赤外光画像の輝度分布の中で、画素601、604を着目領域とすると、輝度情報比較部303は、図6(b)に示す可視光画像の輝度分布のうち、着目領域601に対応する領域602と着目領域601との間の正規化された輝度値の差分、ならびに着目領域604に対応する領域605と着目領域604との間の正規化された輝度情報の差分を算出する(S402)。
S403では、色補正部304は、S402で算出した差分値を取得し、取得した差分値が小さくなる輝度情報を持つ領域を、可視光画像における着目領域に対応する領域の近傍から探索する。図6の例では、赤外光画像の領域601の輝度値は3、領域601に対応する可視光画像の領域602の輝度値は1であり、差分値は2となる。同様に、領域604と領域605の輝度情報の差分値は1である。領域602の近傍領域603の輝度値3、領域605の近傍領域606の輝度値7であり、もともとの可視光画像の領域602、605と比べて差分値が小さくなることがわかる。
そこで、S403では、色補正部304は、可視光画像の領域603の色情報を取得し、同様に、領域606の色情報を取得する。
S404では、色補正部304は、取得した領域603の色情報を用いて領域602の色情報を補正し、領域606の色情報を用いて領域605の色情報を補正する。
上述した色補正処理によれば、可視光画像の被写体の暗部領域について色補正がなされた、図7に示すような画像が出力される。
本実施形態のように可視光画像と赤外光画像との間に差分が生じる原因の1つに散乱量の違いがある。赤外光は可視光に比べて散乱量が小さく、赤外光の方がより遠くに光が届きやすい。そのため、被写体からの反射光量が少なく、暗くなっている(可視光が届いていない)状態でも、赤外光では感知することが可能となる。後述する実施形態2および3についても同様のことが言える。
また、本実施形態では1つの画素領域の色情報を用いて暗部領域の色情報を補正していたが、複数の画素領域の色情報を用いて補正を行っても良い。
また、本実施形態の赤外光画像の着目領域や可視光画像の画素領域は画素単位であっても、複数画素から構成される画素群であっても良い。
また、本実施形態の赤外光画像の着目領域の決定方法は、ユーザが画像に応じて任意に決定できる構成であっても、予め設定された条件に基づき決定される構成であっても良い。
[実施形態2]次に、図8を参照して、実施形態2の可視光画像の色補正処理について説明する。
本実施形態は、赤外光画像の着目領域の輝度情報と、着目領域に対応する可視光画像の輝度情報との間の差分の大きさに応じて、可視光画像の被写体領域における暗部領域の色補正処理を実施するか否かを判定する。
なお、本実施形態の装置構成は実施形態1と同様である。
図8は、本実施形態の色補正処理を示すフローチャートである。
図8において、S801、S802、S804は、図4のS401、S402、S403と同様である。
S803では、色補正部304は、S802で算出された差分値を取得し、取得した差分値と予め設定された閾値とを比較する。比較の結果、差分値が閾値以下の場合は、色補正処理は実施せずに処理を終了する。一方、差分値が閾値より大きい場合は、色補正部304は、着目領域に対応する可視光画像の暗部領域の色情報を補正する(S805)。ここで、閾値が1に設定されていた場合、図6の例では領域601と602の輝度情報の差分値は2であるため、S803の条件を満たす領域601に対してS404と同様に色補正処理を実施する。これに対して、領域604と605の輝度情報の差分値は1であるため、S803の条件を満たさない領域604に対する色補正処理は実施しない。すなわち、輝度情報の差分が閾値以下の可視光画像の領域に対する色補正処理は実施しない。
本実施形態によれば、可視光画像の被写体の暗部領域について色補正がなされた、図7に示すような画像が出力される。
本実施形態においても実施形態1と同様に、1つの領域の色情報を用いて別の領域の色情報を補正していたが、複数の領域の色情報を用いて補正を行っても良い。
また、本実施形態の赤外光画像の着目領域の決定方法は、ユーザが画像に応じて任意に決定できる構成であっても、予め設定された条件に基づき決定される構成であっても良い。
また、閾値と輝度情報の差分値との関係は、本実施形態の限りではない。
また、本実施形態では、可視光画像の輝度情報と赤外光画像の輝度情報の差分値を用いて色補正処理を実施するか否かを判定しているが、可視光画像および/または赤外光画像の輝度の信号レベルの大きさによって重みづけを行った上で、補正処理を実施するか判定する構成としても良い。この場合、例えば着目領域に対応する可視光画像の領域の輝度の信号レベルが小さいほど、色補正が実施されやすくなるような重みづけを行うことにより、輝度情報の差分値が1の領域であっても、可視光画像と赤外光画像の輝度の信号レベルが例えば9:10ならば補正処理を実施せず、0:1の場合は実施するというような構成となる。
[実施形態3]次に、図9ないし図11を参照して、実施形態3の可視光画像の色補正処理について説明する。
本実施形態は、赤外光画像と可視光画像の各輝度情報の差分値を比較する代わりに、赤外光画像から抽出した被写体領域に対応する可視光画像の領域のうち、高輝度領域の色情報を用いて暗部領域の色補正処理を実施する。
図9は、本実施形態の色補正処理を実現するための図2の補正処理部204の機能ブロックを示している。
図9において、可視光画像取得部901は、例えば、図1および図2に示す第1の撮像部101、第2のA/D変換部102、第1のセンサ補正部200、第1の現像処理部201に対応する。また、赤外光画像取得部902は、例えば、図1および図2に示す第2の撮像部108、第2のA/D変換部109、第2のセンサ補正部202、第2の現像処理部203に対応する。
被写体領域抽出部903は、赤外光画像データから被写体領域を抽出する。色補正部904は、被写体領域抽出部903により抽出された被写体領域に対応する可視光画像の領域のうち、彩度情報または輝度情報が高い領域から色情報を取得し、この色情報を用いて可視光画像データの暗部領域の色情報を補正する。
図10は、本実施形態の色補正処理を示すフローチャートである。
図10において、S1001、S1005は、図4のS401、S404と同様である。
S1002では、被写体領域抽出部903は、赤外光画像から被写体領域として、例えば人物の顔領域を抽出する。図11(a)では、赤外光画像から抽出された被写体領域1101が斜線で示されている。
S1003では、色補正部904は、赤外光画像から抽出された被写体領域に対応する可視光画像の領域を抽出する。図11(b)では、可視光画像から抽出された領域1102が点斜線で示されている。また、色補正部904は、可視光画像から抽出された領域1102の彩度情報または輝度情報を取得する。
S1004では、色補正部904は、可視光画像の領域1102から暗部領域を抽出し、領域1102のうち、暗部領域よりも彩度情報または輝度情報が高い値を持つ領域を探索し、該当する領域の色情報を取得する。
S1005では、色補正部904は、暗部領域よりも彩度情報または輝度情報が高い値を持つ領域から取得した色情報を用いて暗部領域の色情報を補正する。
本実施形態によれば、可視光画像の被写体領域における暗部領域について色補正がなされた、図7に示すような画像が出力される。
本実施形態では、暗部領域に対する色補正処理を実施するか否かの判定については言及していないが、暗部領域の彩度情報や輝度情報と予め設定された閾値との比較により、色補正を実施するか否かを判定する構成としても良い。
また、本実施形態では、可視光画像の被写体領域のうち、暗部領域よりも彩度情報または輝度情報が高い領域から色情報を取得しているが、被写体の種別や被写体の向きや形状を判別し、判別した結果に応じて色情報を取得する領域を決定しても良い。
(概要説明2)
以下に説明する実施形態4は、動画撮影において、赤外光画像により被写体を追尾しつつ、赤外光画像の被写体領域についてフレーム間の形状変化を求め、赤外光画像の被写体領域に対応する可視光画像の画素移動位置を求め、可視光画像における移動前と移動後の画素の色情報(明度、彩度、色相)の変化を求めて、フレーム間の画素の色情報を補正していく。
このようにして、動画撮影される可視光画像の暗部領域の色情報を補正することができる。
図14は、上述した可視光画像の暗部領域の色情報を補正する手順を模式的に示している。
図14(a)は、可視光画像における3フレーム分の画像データを示し、斜線1402は光が乏しく影となる領域に対応し、交差線1401は被写体領域に対応する。
図14(b)は、赤外光画像における3フレーム分の画像データを示している。赤外光画像は赤外光の波長帯域が可視光に比べて長いことから、例えば赤外光を被写体に照射して、被写体の形状(領域)を可視光よりも正確に求めることができる。また、赤外光を被写体に照射しても、可視光画像を撮像する撮像素子とは受光する光の波長帯域が異なるため可視光画像には影響しないという利点もある。
図14(c)は、可視光画像の各フレームの被写体領域1401における暗部領域(領域1402と重なる領域)の色情報が赤外光画像から求めた当該領域の形状と輝度分布とに基づいて補正された3フレーム分の画像データを示している。
このように、赤外光画像から被写体領域の形状(領域)と陰影(輝度分布)を求め、可視光画像から被写体領域の陰影(輝度分布)を求め、可視光画像の被写体領域における暗部領域の色情報が、可視光画像の被写体領域から算出される特徴色情報で補間される。
[実施形態4]まず、実施形態4の可視光画像の色補正処理について説明する。
本実施形態では、図1で説明したように、可視光を受光する第1の撮像部101と赤外光を受光する第2の撮像部108の駆動を個別に制御できるように2つの駆動部105、110を設けている。その理由は、例えば、可視光画像とは異なるタイミングで、赤外光画像を高いフレームレートで取得することで後述する追尾処理精度を向上させるためである。
図12は、本実施形態の色補正処理を実現するための図2の補正処理部204の機能ブロックを示している。
図12において、補正処理部204に入力される第1の可視光画像データ1200、第2の可視光画像データ1201は、所定のフレームレートに応じた時間間隔で撮影された可視光画像の各フレーム画像に対応するデータである。第1および第2の可視光画像データ1200、1201は、例えば、第1の現像処理部201から出力される画像データやメモリ114から読み出された画像データとなる。
同様に、補正処理部204に入力される第3の赤外光画像データ1202、第4の赤外光画像データ1203は、所定のフレームレートに応じた時間間隔で撮影された赤外光画像の各フレーム画像に対応するデータである。第3および第4の赤外光画像データ1202、1203は、例えば、第2の現像処理部203から出力される画像データやメモリ114から読み出された画像データとなる。
ここで、第1の可視光画像データ1200と第3の赤外光画像データ1202は同じ時間に撮影された画像データであり、第2の可視光画像データ1201と第4の赤外光画像データ1203は同じ時間に撮影された画像データとする。
第1の被写体追尾部1204は、第1の可視光画像データ1200を用いて被写体追尾処理を行う。例えば、第1の被写体領域抽出部1206は、第1の可視光画像データ1200から、ユーザが予め指定した追尾する被写体について、例えば色差信号や輝度信号によるパターンマッチングを用いて被写体領域情報を抽出する。同様に、第2の被写体領域抽出部1207は、第2の可視光画像データ1201から被写体領域情報を抽出する。
第1および第2の被写体領域抽出部1206、1207により抽出された第1および第2の可視光画像データ1200、1201の被写体領域情報は、特徴色抽出部1215および領域比較部1214に送出される。
第1の被写体追尾部1204ではさらに、第1の移動量検出部1208が、第1および第2の可視光画像データ1200、1201における特徴点の移動量を算出し、ベクトル情報として色補正部1216に送出する。この特徴点は、例えば、第1の被写体領域抽出部1206や第2の被写体領域抽出部1207によって抽出された被写体領域の外形形状から求めても良い。
同様に、第2の被写体追尾部1205は、第3の赤外光画像データ1202を用いて被写体追尾処理を行う。例えば、第3の被写体領域抽出部1209は、第3の赤外光画像データ1202から、ユーザが予め指定した追尾する被写体について、例えば赤外光の輝度信号によるパターンマッチングを用いて被写体の領域情報を抽出する。同様に、第4の被写体領域抽出部1210は、第4の赤外光画像データ1203から被写体の領域情報を抽出する。
第3および第4の被写体領域抽出部1209、1210により抽出された第3および第4の赤外光画像データ1202、1203の被写体領域情報は、特徴色抽出部1215、領域比較部1214、および形状変化取得部1212に送出される。
第2の被写体追尾部1205ではさらに、第2の移動量検出部1211が、第3および第4の赤外光画像データ1202、1203における特徴点の移動量を算出し、ベクトル情報として形状変化取得部1212および色補正部1216に送出する。
また、形状変化取得部1212は、第3および第4の被写体領域抽出部1209、1210によって抽出された被写体領域情報と、第2の移動量検出部1211によって抽出された第3および第4の赤外光画像データ1202、1203における特徴点のベクトル情報とに基づいてフレーム間の被写体領域の形状変化量を求め、画素移動位置推定部1213に送出する。
画素移動位置推定部1213は、形状変化量と領域比較部1214による比較結果とに基づいて被写体領域内の画素移動位置をベクトル演算によって求める。
図16は、図14(b)に示す3フレーム分の赤外光画像からフレームごとの被写体領域を抽出したものである。また、図17は、例えば図16(a)、(b)についてそれらの特徴点から形状変化量を求めた結果を示している。
形状変化取得部1212は、図17に示すような3フレーム分の赤外光画像から抽出した被写体領域に関する特徴点の移動量をベクトル情報として取得する。
次に、画素移動位置推定部1213は、例えば、被写体領域が図16(a)から(b)に時間的に変化することで、図17におけるx点がどこに移動するかを推定する。
上述のように形状変化を求めて画素移動位置を推定する方法はいくつかあるが、本実施形態では、例えば図18に示すようなx点の近傍にある特徴点の変化量ベクトルYおよびZを用いて、x点の位置座標からベクトル計算によって推定移動量ベクトルXを求める。
このようにして、図17に示すx点の移動位置はx’点となり、同様な計算方法で、赤外光画像である図14(b)に示すd’点に対応した参照画素として前フレームのd点が求められる。そして、この参照画素の位置情報を可視光画像の位置座標に置き換えることで、可視光画像である図14(a)に示すb’点に対応した参照画素としてb点の色情報を取得する。
次に、領域比較部1214は、第1ないし第4の被写体領域抽出部1206、1207、1209、1210により得られる被写体領域のフレーム間の差分領域情報として、例えば、可視光画像の被写体領域のフレーム間の差分領域情報や、赤外光画像の被写体領域のフレーム間の差分領域情報を取得する。さらに、時間的に同じフレーム間の可視光画像と赤外光画像の被写体領域の差分領域情報を取得する。
図15は、領域比較部1214により得られたフレーム間の被写体領域情報を示し、図14(a)に示す3フレーム分の可視光画像と、図14(b)に示す3フレーム分の赤外光画像から求められる共通領域(a)と差分領域(b)をそれぞれ示している。
領域比較部1214により得られた差分領域情報は、画素移動位置推定部1213が赤外光画像における被写体領域の参照画素のフレーム間の移動位置を求める際にパラメータとして使用される。
次に、形状変化取得部1212により求められ被写体領域の形状変化量から、画素移動位置推定部1213が補正対象となる参照画素の位置情報を求め、色補正部1216へ送出される。
特徴色抽出部1215では、可視光画像1200、1201および赤外光画像1202、1203の各フレームの被写体領域情報から各被写体領域内の特徴色が算出される。この特徴色は、例えば、被写体領域を複数のブロックに分割し、各ブロック内の画素情報を積分して得られるブロック単位の色情報で表される。
図19は、図14(a)に示すa点、b点を含むフレームについて水平32ブロック、垂直24ブロックに分割し、各ブロック内の画素情報を積分して得られた色情報を示している。また、図20は、図19に示すブロック単位の色情報について、赤外光画像から得られた被写体領域を破線で示し、この被写体領域内のブロック単位の積分情報を斜線で示している。このように、被写体が単一色を持つ物体であったとすると、図20の斜線で示すブロックが持つ画素情報の平均値が特徴色となる。
色補正部1216は、上記被写体領域の差分領域情報と特徴色情報と特徴点の位置情報とを用いて可視光画像の暗部領域の色情報を補正する。
<色補正処理>ここで、図13を参照して、図2の補正処理部204による可視光画像データの暗部領域の色補正処理について説明する。
なお、以下の説明では、ユーザが追尾する被写体を指定し、動画撮影が開始された状態であるとする。
S1301では、第1の被写体追尾部1204が、可視光画像の時間的に異なる2つのフレームにより被写体の追尾処理を行う。
S1302では、第1の移動量検出部1208が、第1および第2の可視光画像データ1200、1201における特徴点の移動量を算出し、第1および第2の被写体領域抽出部1206、1207が各フレームの被写体領域情報を取得する。
S1303では、第2の被写体追尾部1205が、赤外光画像の時間的に異なる2つのフレームにより被写体の追尾処理を行う。
S1304では、第2の移動量検出部1211が、第3および第4の赤外光画像データ1202、1203における特徴点の移動量を算出し、第3および第4の被写体領域抽出部1209、1210が各フレームの被写体領域情報を取得する。
S1305では、特徴色抽出部1215が、第1および第2の可視光画像のフレームと、S1302及びS1304で取得した被写体領域情報から被写体領域内の特徴色情報を算出する。
S1306では、領域比較部1214が、S1302で取得した可視光画像の2つのフレーム間の被写体領域情報を比較して差分値Mを求めると共に、S1304で取得した赤外光画像の2つのフレーム間の被写体領域の差分値Nを求める。ここで、本実施形態では、時間的に後のフレームの被写体領域から前のフレームの被写体領域を減算した値を差分値MおよびNとする。例えば、図14(a)に示す可視光画像では影(暗部)1402の影響により被写体領域1401は、時間が経過するにつれて図15(a)に示すように抽出できる被写体領域が小さくなるため、フレーム間の差分値Mは大きくなる。これに対して、図14(b)に示す赤外光画像では被写体の形状は変化するものの、影の影響を受けないのでフレーム間の差分値Nに大きな変化は生じない。
また、S1306では、差分値MとNを比較し、差分値MとNの差が予め設定された閾値Xよりも大きいか判定する。
ここで、閾値Xは、上述したように、時間の経過に応じて、赤外光画像の被写体領域の差分値Nに変化はないが、可視光画像の被写体領域の差分値Mには変化がある場合の各画像の被写体領域の差分値の変化の大きさを判定するために用いられる。例えば、閾値Xは赤外光画像から求めた被写体領域を1とし、L(整数)で分周した値を用い、Lを10とすると、閾値Xは1/10となる。
そして、差分値Mが差分値Nに対して閾値より大きい場合は、被写体領域に対する暗部の影響が大きいと判定できるので、暗部領域の色補正を行う一方、閾値以下の場合は被写体領域に対する暗部の影響が小さいと判定できるので、暗部領域の色補正は行わない。なお、S1306で赤外光画像の被写体領域についても差分値Nを求めたのは、被写体自身の動きにより変化する被写体領域を色補正を行うか否かの判定に加味するためである。
S1307では、領域比較部1214は、可視光画像の被写体領域について、時間的に前のフレームと後のフレームのどちらの被写体領域が大きいか、つまり、どちらのフレームの画像の方が暗部領域が小さいかを判定する。判定の結果、前のフレームの被写体領域の方が大きい場合はS1308に進み、後のフレームの被写体領域の方が大きい場合はS1309に進む。
S1308では、領域比較部1214は、後のフレームの可視光画像と赤外光画像の間の被写体領域の差分を求める。例えば、図14(a)の例では、後のフレームの可視光画像の被写体領域の方が小さい、つまり、暗部領域が大きいので、後のフレームについて、図15(b)に示すような可視光画像と赤外光画像の間の被写体領域の差分を求める。
S1309では、領域比較部1214は、同様に、前のフレームの可視光画像と赤外光画像の間の被写体領域の差分を求める。
S1310では、形状変化取得部1212が、赤外光画像のフレーム間の被写体領域情報と、被写体領域における特徴点のベクトル情報とから、被写体領域の形状変化量を求める。また、画素移動位置推定部1213が、上記形状変化量とS1308、S1309で求められた差分領域内の特徴点の移動位置情報を赤外光画像から求める。ここでは、例えば、図14(b)の赤外光画像のフレームにおいて、図15(b)の差分領域に含まれるd’点から前のフレームのd点を求める。
S1311では、色補正部1216が、S1310で求めた特徴点の移動位置情報から、可視光画像における赤外光画像の特徴点と同じ位置の色情報を抽出する。ここでは、例えば、図14(b)の赤外光画像のフレームから求めたd点について、同一時間に取得された可視光画像のフレームである図14(a)のb点から色情報を抽出する。
S1312では、色補正部1216が、S1305で算出された特徴色情報について可視光画像のフレーム間で比較する。例えば可視光画像の被写体領域から特徴色情報を算出した場合、図15(a)の可視光画像のフレーム間で共通の被写体領域内の色情報が特徴色情報として算出され、これらの特徴色情報のフレーム間の変化量が求められる。
S1313では、色補正部1216は、S1312で求められた特徴色情報の変化量を重みづけ係数として、S1311で得られた特徴点の色情報を用いて、差分領域における色情報を補正する。
ここで、図14(a)のb’点における色補正処理について説明する。
前のフレームにおける被写体領域は網線で示した部分である。この被写体領域は単一色を持つ物体であるとする。また、図15(a)のような可視光画像の被写体領域に対して、被写体領域内の色情報をブロックごとに積分して求められた特徴色情報を(R1,G1,B1)とする。次に、b’点を含むフレームにおいて同様に求められた特徴色情報を(R2,G2,B2)とする。これにより、例えばS=R2/R1、T=G2/G1、U=B2/B1のように各色の特徴色情報の比率を重みづけ係数とする。
そして、b点の色情報が(Rb,Gb,Bb)であるとすると、b’点において補正される色情報は、b点の色情報(Rb,Gb,Bb)に重みづけ係数(S,T,U)を乗算して得られる色情報(S*Rb、T*Gb、U*Bb)となる。
なお、本実施形態では、被写体が単一色を持つ場合を例示したが、複数の色情報を持つ場合は、特徴色を抽出する際に被写体領域内を任意の領域に分割しブロックごとに積分した結果を用いれば良い。この場合、次のフレームから得られる特徴色情報も複数になるので、特徴色同士の色変化係数は、図15(a)に示す共通領域における特徴色情報から求めて、それぞれの平均値を重みづけ係数としても良い。
また、本実施形態では、特徴点の色情報から補正する画素位置の色情報を求めたが、もともと補正する画素位置にある色情報も用いて補正処理を行っても良い。
また、例えばフレームごとに画像全体を領域分割し、画像全体の特徴色情報を用いてフレームごとに求めた重みづけ係数を補間しても良い。これにより、例えば、次フレームで可視光画像の被写体領域がすべて暗部になった場合であっても、それより前のフレーム間の重みづけ係数の変化とそのフレームにおける画像全体の特徴色情報から重みづけ係数を求めることができる。よって、色補正によって生じるフレーム間の違和感を軽減することが可能となる。
なお、フレーム間の特徴色情報の変化量を重みづけ係数とした理由は、可視光画像の暗部領域以外の領域についてフレーム間の輝度信号や色差信号と同じような変化量で補正データを生成することで、フレーム間の色変化に違和感が発生しないようにするためである。
また、色補正処理にRGBデータを用いたがYUVデータとして演算しても良い。この場合、輝度信号と色差信号で異なる重みづけ係数によって補正データを生成することも考えられる。
上述したように、本実施形態による可視光画像の暗部領域の色補正処理が実行される。
ここで、第1および第2の可視光画像1200、1201は、第1の現像処理部201の出力をそのまま使用する場合やメモリ114から読み出す場合が考えられる。更に、メモリ114から読み出す場合には、既に前のフレームの暗部領域の色補正処理が実行された可視光画像データをメモリ114から読み出して、次のフレームの暗部領域の色補正に用いることも可能である。この場合、図14(c)に示す既に補正済みのB点からB’点の色情報が補正され、同様にB’点からB’’点の色情報が補正されるため、通常の可視光画像の撮影では失われてしまう暗部領域の色情報が補正されながらフレーム間で受け継がれていくため、暗部領域の色情報を再現するための有効な手段となり得る。
以上のように、本実施形態によれば、暗いシーンの動画撮影において被写体周辺の光量と被写体の動きによって、被写体領域の一部に暗部領域が発生しても、暗部領域の色情報を補正しながら動画を記録することが可能となる。
なお、本実施形態では、可視光と赤外光で光学系を共通とし、光学フィルタで光の波長帯域を分離する構成としたが、例えば可視光と赤外光で異なる光学系を持つような構成にしても良い。
また、本実施形態では、時間的に前後するフレーム間での処理を説明したが、数フレーム分の画像データをメモリ114に蓄積し、数フレーム間にわたって色補正処理を行っても良い。例えば、図21に示すように被写体2101が暗い領域2102から明るい領域2103へ移動する場合を考える。この場合、図21(b)の赤外光画像の前フレームのc点から次フレームのc’点が予測できているにもかかわらず、図21(a)の可視光画像におけるa点は、次フレームのa’点からは十分な色情報を取得することができない。このような場合は、赤外光画像の前フレームのc点から次フレームのc’点を予測した後、c点とc’点が図22(a)に示す共通領域に含まれない場合は、a点を含む可視光画像のフレームと、c点を含む赤外光画像のフレームをメモリ114に保持しておく。この場合、図22(b)に示す可視光画像と赤外光画像の差分領域を用いてフレームを保持するか否かを判定しても良い。
その後、赤外光画像のc’点を含むフレームと次フレームについても同様の判定処理を行い、例えば図21(b)のc’’点が、図22(a)の共通領域に含まれる場合、a’’点から色情報を抽出してa’点の色情報を補正する。a’点の色情報が補正された場合は、その後にa点の色情報を補正する。
このように、複数フレームにわたる画素移動位置情報と、可視光画像と赤外光画像の共通領域情報または差分領域情報とを用いることで、図21に示すように被写体が暗い領域から明るい領域へ移動するシーンであっても暗部領域の色補正を行うことができる。
[他の実施形態]本発明は、以下の処理を実行することによっても実現される。即ち、上記実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。
101…第1の撮像部、104…信号処理部、107…CPU、108…第2の撮像部、204…補正処理部、301…可視光画像取得部、302…赤外光画像取得部、304、1216…色補正部、1212…形状変化取得部、1213…画素移動位置推定部

Claims (10)

  1. 第1の波長の光から生成された第1の画像を所定のフレームレートで取得する第1の画像取得手段と、
    第2の波長の光から生成された第2の画像を所定のフレームレートで取得する第2の画像取得手段と、
    前記第1の画像の第1のフレームから検出された被写体領域と、前記第1のフレームに対応する前記第2の画像の第3のフレームから検出された被写体領域との、差分領域を検出する検出手段と、
    前記第2の画像の前記第3のフレームから検出された被写体領域と第4のフレームから検出された被写体領域との動きベクトルを求める算出手段と、
    前記第1の画像の前記第1のフレームのうち、前記差分領域に含まれる第1の画素の位置に対応する、前記第2の画像の第4のフレームに対応する前記第1の画像の第2のフレームにおける推定位置を、前記動きベクトルに基づいて求める推定手段と、
    前記第2のフレームから検出された被写体領域の色情報と前記第1のフレームから検出された被写体領域の色情報の比率、および、前記第2のフレームの前記推定位置の画素における色情報に応じて、前記第1の画像の前記第1のフレームの前記第1の画素の色情報を補正する補正手段と、を有することを特徴とする画像処理装置。
  2. 前記差分領域は、前記第2の画像の前記第3のフレームからは検出されるが、前記第1の画像の前記第1のフレームからは検出されない被写体領域であることを特徴とする請求項1に記載の画像処理装置。
  3. 前記第1の画像の前記第2のフレームは、前記第1の画像の前記第1のフレームよりも、検出された被写体領域が大きいフレームであることを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記補正手段は、前記第2のフレームから検出された被写体領域の色情報に対する前記第1のフレームから検出された被写体領域の色情報の比率を、前記第2のフレームの前記推定位置の画素における色情報に乗算することで、前記第1の画像の前記第1のフレームの前記第1の画素の色情報を補正することを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
  5. 前記補正手段は、前記第1の画像の第1のフレームから検出された被写体領域と前記第2のフレームから検出された被写体領域との差分と、前記第2の画像の第3のフレームから検出された被写体領域と前記第4のフレームから検出された被写体領域との差分との違いが、閾値よりも大きい場合に、前記第1の画像の前記第1のフレームの前記第1の画素の色情報を補正することを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。
  6. 前記第1の波長の光は可視光を含み、前記第2の波長の光は赤外光を含むことを特徴とする請求項1から5のいずれか1項に記載の画像処理装置。
  7. 第1の波長の光から生成された第1の画像を所定のフレームレートで生成する第1の撮像素子と、
    第2の波長の光から生成された第2の画像を所定のフレームレートで生成する第2の撮像素子と、
    前記第1の画像の第1のフレームから検出された被写体領域と、前記第1のフレームに対応する前記第2の画像の第3のフレームから検出された被写体領域との、差分領域を検出する検出手段と、
    前記第2の画像の前記第3のフレームから検出された被写体領域と第4のフレームから検出された被写体領域との動きベクトルを求める算出手段と、
    前記第1の画像の前記第1のフレームのうち、前記差分領域に含まれる第1の画素の位置に対応する、前記第2の画像の第4のフレームに対応する前記第1の画像の第2のフレームにおける推定位置を、前記動きベクトルに基づいて求める推定手段と、
    前記第2のフレームから検出された被写体領域の色情報と前記第1のフレームから検出された被写体領域の色情報の比率、および、前記第2のフレームの前記推定位置の画素における色情報に応じて、前記第1の画像の前記第1のフレームの前記第1の画素の色情報を補正する補正手段と、を有することを特徴とする撮像装置。
  8. 第1の波長の光から生成された第1の画像を所定のフレームレートで取得し、
    第2の波長の光から生成された第2の画像を所定のフレームレートで取得し、
    前記第1の画像の第1のフレームから検出された被写体領域と、前記第1のフレームに対応する前記第2の画像の第3のフレームから検出された被写体領域との、差分領域を検出し、
    前記第2の画像の前記第3のフレームから検出された被写体領域と第4のフレームから検出された被写体領域との動きベクトルを求め、
    前記第1の画像の前記第1のフレームのうち、前記差分領域に含まれる第1の画素の位置に対応する、前記第2の画像の第4のフレームに対応する前記第1の画像の第2のフレームにおける推定位置を、前記動きベクトルに基づいて算出し、
    前記第2のフレームから検出された被写体領域の色情報と前記第1のフレームから検出された被写体領域の色情報の比率、および、前記第2のフレームの前記推定位置の画素における色情報に応じて、前記第1の画像の前記第1のフレームの前記第1の画素の色情報を補正することを特徴とする画像処理方法。
  9. コンピュータを、請求項1から6のいずれか1項に記載された画像処理装置の各手段として機能させるためのプログラム。
  10. コンピュータを、請求項1から6のいずれか1項に記載された画像処理装置の各手段として機能させるためのプログラムを記憶したコンピュータ読み取り可能な記憶媒体。
JP2018136075A 2018-07-19 2018-07-19 画像処理装置及び画像処理方法、撮像装置、プログラム、並びに記憶媒体 Expired - Fee Related JP6574878B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018136075A JP6574878B2 (ja) 2018-07-19 2018-07-19 画像処理装置及び画像処理方法、撮像装置、プログラム、並びに記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018136075A JP6574878B2 (ja) 2018-07-19 2018-07-19 画像処理装置及び画像処理方法、撮像装置、プログラム、並びに記憶媒体

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014159759A Division JP6450107B2 (ja) 2014-08-05 2014-08-05 画像処理装置及び画像処理方法、プログラム、記憶媒体

Publications (2)

Publication Number Publication Date
JP2018207497A JP2018207497A (ja) 2018-12-27
JP6574878B2 true JP6574878B2 (ja) 2019-09-11

Family

ID=64958327

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018136075A Expired - Fee Related JP6574878B2 (ja) 2018-07-19 2018-07-19 画像処理装置及び画像処理方法、撮像装置、プログラム、並びに記憶媒体

Country Status (1)

Country Link
JP (1) JP6574878B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7279365B2 (ja) * 2019-01-09 2023-05-23 株式会社Jvcケンウッド 表示制御装置、表示装置、表示制御方法及びプログラム
KR102610542B1 (ko) * 2019-03-07 2023-12-07 삼성전자주식회사 적외선 센서를 이용하여 이미지 데이터의 색상을 조절하기 위한 전자 장치 및 방법
JP7363112B2 (ja) * 2019-06-12 2023-10-18 日本電気株式会社 画像処理装置、画像処理回路、画像処理方法
JPWO2021193779A1 (ja) * 2020-03-27 2021-09-30
CN114143443B (zh) * 2020-09-04 2024-04-05 聚晶半导体股份有限公司 双传感器摄像系统及其摄像方法
WO2023223704A1 (ja) * 2022-05-20 2023-11-23 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5172482B2 (ja) * 2008-06-06 2013-03-27 本田技研工業株式会社 車両周辺監視装置
JP2009301494A (ja) * 2008-06-17 2009-12-24 Sumitomo Electric Ind Ltd 画像処理装置及び画像処理方法
JP4702441B2 (ja) * 2008-12-05 2011-06-15 ソニー株式会社 撮像装置及び撮像方法
JP2012044339A (ja) * 2010-08-16 2012-03-01 Fujifilm Corp 撮像装置及びパノラマ画像データ生成方法

Also Published As

Publication number Publication date
JP2018207497A (ja) 2018-12-27

Similar Documents

Publication Publication Date Title
JP6574878B2 (ja) 画像処理装置及び画像処理方法、撮像装置、プログラム、並びに記憶媒体
JP5089405B2 (ja) 画像処理装置及び画像処理方法並びに撮像装置
JP6317577B2 (ja) 映像信号処理装置及びその制御方法
JP5845464B2 (ja) 画像処理装置及び画像処理方法並びにデジタルカメラ
KR101913837B1 (ko) 파노라마 영상 생성 방법 및 이를 적용한 영상기기
JP5784587B2 (ja) 画像選択および結合の方法およびデバイス
JP6420540B2 (ja) 画像処理装置及びその制御方法、プログラム、記憶媒体
JP6223059B2 (ja) 撮像装置、その制御方法およびプログラム
US8860840B2 (en) Light source estimation device, light source estimation method, light source estimation program, and imaging apparatus
US11089211B2 (en) Image processing apparatus, image processing method, and program for switching between two types of composite images
JP7285791B2 (ja) 画像処理装置、および出力情報制御方法、並びにプログラム
WO2016008359A1 (zh) 物体运动轨迹图像的合成方法、装置及计算机存储介质
JP4916378B2 (ja) 撮像装置、画像処理装置、画像ファイル及び階調補正方法
JP2009159559A (ja) 撮影装置及びそのプログラム
US8681235B2 (en) Apparatus for processing digital image signal that obtains still image at desired point in time and method of controlling the apparatus
US20170134648A1 (en) Image processing apparatus, method for controlling image processing apparatus, image pickup apparatus, method for controlling image pickup apparatus, and recording medium
JP6450107B2 (ja) 画像処理装置及び画像処理方法、プログラム、記憶媒体
JP2017224939A (ja) 撮像装置
JP2015211233A (ja) 画像処理装置および画像処理装置の制御方法
JP2008172395A (ja) 撮像装置、画像処理装置、方法およびプログラム
JP6702792B2 (ja) 画像処理装置およびその制御方法
JP4026516B2 (ja) 画像処理装置及び方法
JP6632385B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
US11050928B2 (en) Image capturing control apparatus, image capturing apparatus, control method, and storage medium
JP2018026743A (ja) 画像処理装置、制御方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190617

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190719

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190819

R151 Written notification of patent or utility model registration

Ref document number: 6574878

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees