JP2015177510A - カメラシステム、画像処理方法及びプログラム - Google Patents

カメラシステム、画像処理方法及びプログラム Download PDF

Info

Publication number
JP2015177510A
JP2015177510A JP2014054784A JP2014054784A JP2015177510A JP 2015177510 A JP2015177510 A JP 2015177510A JP 2014054784 A JP2014054784 A JP 2014054784A JP 2014054784 A JP2014054784 A JP 2014054784A JP 2015177510 A JP2015177510 A JP 2015177510A
Authority
JP
Japan
Prior art keywords
image
image data
processing
data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014054784A
Other languages
English (en)
Inventor
真史 ▲濱▼武
真史 ▲濱▼武
Masashi Hamatake
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2014054784A priority Critical patent/JP2015177510A/ja
Publication of JP2015177510A publication Critical patent/JP2015177510A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】2つのカメラで撮影された画像を繋ぎ合わせて高画質な合成画像を生成する。【解決手段】第1画像処理を行うことにより第1画像データを生成する第1画像生成部と、第2画像処理を行うことにより第2画像データを生成する第2画像生成部と、第3画像処理を行うことにより第1検出画像データを生成する第1検出画像生成部と、第4画像処理を行うことにより第2検出画像データを生成する第2検出画像生成部と、第1検出画像データの一部を切り出すことによりテンプレート画像を生成する切出部と、テンプレートマッチング処理によりテンプレート画像と、第2検出画像データとを比較し、テンプレート画像に一致する第2検出画像データの画像領域の位置を示す位置データを取得する比較部と、位置データに基づいて第1画像データと第2画像データとを繋ぎ合わせることにより合成画像データを生成する合成部と、を備える。【選択図】図1

Description

本発明はカメラシステム、画像処理方法及びプログラムに関する。
2つの画像を1つに繋ぎ合わせて合成するにあたり、繋ぎ目を補正(繋ぎ補正処理)することにより画像を合成する技術が知られている。例えば繋ぎ補正処理は、画角180度の2つの魚眼レンズで撮影された画像を1つに合成して全方位画像を得る場合等に使用されている。
繋ぎ補正処理には静的繋ぎ処理及び動的繋ぎ処理がある。静的繋ぎ処理は、入力画像の特徴によらず、予め決められた座標同士の画素値をアルファブレンドする補正を行う。一方、動的繋ぎ処理は、入力画像の特徴に応じて判定された座標同士の画素値をアルファブレンドする補正を行う。動的繋ぎ処理を行う理由は、被写体までの距離によって画像のずれ方が異なるためである。例えば被写体までの距離が遠い場合はずれ量が小さく、近い場合はずれ量が大きくなるという現象が発生する。また、その他の動的繋ぎ処理を行う理由として、2つのカメラ装置の組み付けによるずれ量の誤差や温度変動によるずれ量の誤差を改善することも挙げられる。
入力画像の特徴を検出し、2つの画像を繋ぐ画素の座標を決定する技術としてテンプレートマッチング処理が知られている。テンプレートマッチング処理では、テンプレート画像をサーチ画像の中で順番に移動させながら、テンプレート画像とテンプレート画像に重なるサーチ画像の画像領域の類似度を計算する。そして類似度の最も高い画像領域の座標が2つの画像を繋ぐ画素の座標として決定される。
特許文献1には、マルチカメラシステムにおけるカメラの配置やカメラ光軸の向きが動的に変化した場合に精度よく対象物を認識するために、少なくとも2台の撮像機器から得られる画像の重なり程度に応じて画像認識処理を切り替えるマルチカメラシステムの発明が開示されている。
しかしながら従来の動的繋ぎ処理(テンプレートマッチング処理)は、特徴の少ない領域において繋ぎ精度が落ち画質が劣化するため、2つの画像が滑らかに繋がらないという問題があった。この理由は特徴の少ない領域に対してテンプレートマッチングを行うと、複数個所で画像が一致する可能性があり、正しい位置を判断することが難しいためである。また、従来の動的繋ぎ処理(テンプレートマッチング処理)を、2つのカメラ装置で撮影された画像に使用する場合、繋ぎ精度が落ち、2つの画像が滑らかに繋がらず画質が劣化するという問題があった。この理由は各カメラでAE(Auto Exposure:自動露出)処理やAWB(Auto White Balance:オートホワイトバランス)処理を行うためである。特に一方の画像が日向で撮影され、もう一方の画像が日陰で撮影された場合等は、一方の画像が明るめで、もう一方の画像が暗めになり、画像全体の輝度が異なる領域に対してテンプレートマッチングを行うことになるので、想定外の個所で画像が一致する可能性が高くなる。
本発明は、上記に鑑みてなされたものであって、2つのカメラで撮影された画像を繋ぎ合わせて高画質な合成画像を生成することができるカメラシステム、画像処理方法及びプログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、第1カメラにより撮影された第1撮影画像データ、及び第2カメラにより撮影された第2撮影画像データを、テンプレートマッチング処理を使用して繋ぎ合わせることにより合成画像データを生成するカメラシステムであって、前記第1撮影画像データに、前記合成画像データの画質を調整するための第1画像処理を行うことにより第1画像データを生成する第1画像生成部と、前記第2撮影画像データに、前記合成画像データの画質を調整するための第2画像処理を行うことにより第2画像データを生成する第2画像生成部と、前記第1撮影画像データに、前記テンプレートマッチング処理の精度を向上させるための第3画像処理を行うことにより第1検出画像データを生成する第1検出画像生成部と、前記第2撮影画像データに、前記テンプレートマッチング処理の精度を向上させるための第4画像処理を行うことにより第2検出画像データを生成する第2検出画像生成部と、前記第1検出画像データの一部を切り出すことによりテンプレート画像を生成する切出部と、前記テンプレートマッチング処理により前記テンプレート画像と、前記第2検出画像データとを比較し、前記テンプレート画像に一致する前記第2検出画像データの画像領域の位置を示す位置データを取得する比較部と、前記位置データに基づいて前記第1画像データと前記第2画像データとを繋ぎ合わせることにより前記合成画像データを生成する合成部と、を備える。
本発明によれば、2つのカメラで撮影された画像を繋ぎ合わせて高画質な合成画像を生成することができるという効果を奏する。
図1は実施形態のカメラシステムのシステム構成の例を示す図である。 図2は実施形態のカメラシステムの画像処理のフローを示す図である。 図3は実施形態の第1画像生成部の構成の例を示す図である。 図4は実施形態の第2画像生成部の構成の例を示す図である。 図5は実施形態の第1検出画像生成部の構成の例を示す図である。 図6は実施形態の第2検出画像生成部の構成の例を示す図である。 図7は実施形態のヒストグラム拡大処理について説明するための図である。 図8は実施形態のガンマ処理について説明するための図である。 図9は実施形態のフィルタ処理による強調処理を説明するための図である。 図10は実施形態のフィルタ処理による平滑処理を説明するための図である。 図11は実施形態の色補正処理を説明するための図である。 図12は実施形態の少値化処理を説明するための図である。 図13は特徴の少ない画像端部の領域の画素値の分布の例を示す図である。 図14は図13(a),(b)の領域にヒストグラム拡大処理を行った場合の例を示す図である。 図15は輝度が極度に低い画像端部の領域の画素値の分布の例を示す図である。 図16は図15の領域にガンマ処理を行った場合の例を示す図である。 図17は所定の色相角内の画素値に色相回転を行うことにより色補正処理をする場合の例を示す図である。 図18は図15の領域に少値化処理を行った場合の例を示す図である。
以下に添付図面を参照して、カメラシステム、画像処理方法及びプログラムの実施形態を詳細に説明する。
図1は実施形態のカメラシステム100のシステム構成の例を示す図である。カメラシステム100は、第1カメラ40a、第2カメラ40b、信号処理部50、操作部18、ROM19、メモリ20及び表示部21を備える。
まず第1カメラ40aについて説明する。第1カメラ40aは、CCD(Charge Coupled Device)部1a及び第1AFE(Analog Front End)部30aを備える。
CCD部1aは図1では図示されていない鏡胴ユニットに設置した撮影レンズ系を通して入射される被写体画像を取得する固体撮像素子である。鏡胴ユニットはズームレンズやフォーカスレンズ等を有する撮影レンズ系、絞りユニット、メカシャッタユニットを備える。撮影レンズ系、絞りユニット及びメカシャッタユニットの各駆動ユニットは、モータドライバによって駆動される。モータドライバは信号処理部50の制御部(CPU15)からの駆動信号により駆動制御される。CCD部1aは、CCD部1aを構成する複数の画素上に色分解フィルタとしてのRGB原色フィルタが配置されている。CCD部1aはRGB3原色に対応した電気信号(アナログRGB画像信号)を第1AFE(Analog Front End)部30aに入力する。
第1AFE(Analog Front End)部30aはCCD部1aから受け付けた電気信号(アナログRGB画像信号)をデジタル信号(12ビットの第1RAW−RGBデータ)に変換する。第1AFE(Analog Front End)部30aは、CDS(correlated double sampling:相関2重サンプリング)部2a、AGC(Automatic Gain Control)部3a、ADC(Analog Digital Converter)部4a及びTG(Timing Generator)部5aを備える。
CDS部2aはCCD部1aからアナログRGB画像信号を受け付け、アナログRGB画像信号をサンプリング(相関2重サンプリング)する。CDS部2aはサンプリングされたアナログRGB画像信号をAGC部3aに入力する。AGC部3aは入力されたアナログRGB画像信号が弱い場合には感度を上げ、逆に入力されたアナログRGB画像信号が強い場合には感度を下げてADC部4aに出力する。ADC部4aはAGC部3aでゲイン調整されたアナログRGB画像信号を、第1RAW−RGBデータ(第1撮影画像データ)としてデジタル信号に変換する。ADC部4aは第1RAW−RGBデータを信号処理部50に入力する。TG部5aはCCD部1a部、CDS部2a、AGC部3a及びADC部4aに駆動タイミング信号を入力する。TG部5aは、CCD部1a部には駆動タイミング信号として画面水平同期信号(HD)及び画面垂直同期信号(VD)を入力する。
第2カメラ40bは、CCD部1b及び第2AFE部30bを備える。第2AFE部30bは、CDS部2b、AGC部3b、ADC部4b及びTG部5bを備える。第2カメラ40bの構成の説明は第1AFE部30aと同じなので省略する。
信号処理部50は、CCDI/F6a、CCDI/F6b、第1画像生成部7a、第2画像生成部7b、第1検出画像生成部8a、第2検出画像生成部8b、切出部9、比較部10、合成部11、変倍部12、圧縮部13、メモリコントローラ14、CPU(Central Processing Unit)15、出力制御部16及びメディアI/F17を備える。
CCDI/F6aはTG部5aに駆動タイミング信号を入力し、この駆動タイミング信号に合わせてADC部4aから出力される第1RAW−RGBデータを受け付ける。またCCDI/F6aは、第1RAW−RGBデータから、AF(自動合焦)評価値、AE(自動露出)評価値及びAWB(オートホワイトバランス)評価値を算出する。
CCDI/F6aは高周波成分抽出フィルタの出力積分値や、近接画素の輝度差の積分値によってAF評価値を算出する。合焦状態にあるときは、被写体のエッジ部分がはっきりとしているため、第1RAW−RGBデータの高周波成分が一番高くなる。これを利用して、AF動作時(合焦検出動作時)には、CCDI/F6aは撮影レンズ系内の各フォーカスレンズ位置でAF評価値を算出し、AF評価値が極大になる点を合焦位置として検出する。
またCCDI/F6aはRAW−RGBデータにおけるRGB値の積分値からAWB評価値を算出する。CCDI/F6aは、例えばCCD部1aの全画素の受光面に対応した撮像画面を256エリア(ブロック)に等分割(水平16分割、垂直16分割)した後、それぞれのエリア(ブロック)のRGB積算値を算出する。そしてCPU15は、算出されたRGB積算値を読み出し、適正なホワイトバランスとなるゲインを算出する。CPU15はRGB積算値の分布から被写体の光源の色温度に合わせたAWBの制御値を決定する。第1画像生成部7aは、第1画像データをYUVデータに変換処理するときに、このAWBの制御値を使用してホワイトバランスを合わせる。
またCCDI/F6aはRAW−RGBデータにおけるRGB値の積分値からAE評価値を算出する。CCDI/F6aは画面のそれぞれのエリア(ブロック)の輝度を算出して、輝度分布から適正な露光量を決定する。CPU15は決定された露光量に基づいて、露光条件(CCD部1aの電子シャッタ回数、絞りユニットの絞り値及びNDフィルタの出し入れ等)を設定する。
CCDI/F6aは第1RAW−RGBデータを、メモリコントローラ14を介してメモリ20に記憶する。
同様に、CCDI/F6bはTG部5bに駆動タイミング信号を入力し、この駆動タイミング信号に合わせてADC部5bから出力される第2RAW−RGBデータ(第2撮影画像データ)を受け付ける。またCCDI/F6aは、第2RAW−RGBデータから、AF(自動合焦)評価値、AE(自動露出)評価値及びAWB(オートホワイトバランス)評価値を算出する。CCDI/F6bは第2RAW−RGBデータを、メモリコントローラ14を介してメモリ20に入力する。
第1画像生成部7aはメモリコントローラ14を介してメモリ20から第1RAW−RGBデータを読み出す。第1画像生成部7aは第1RAW−RGBデータにヒストグラム拡大処理、フィルタ処理、ガンマ処理、色補正処理及び少値化処理等の第1画像処理(第1画像信号処理)を行うことにより第1画像データを生成する。ヒストグラム拡大処理、フィルタ処理、ガンマ処理、色補正処理及び少値化処理については後述する。また第1画像生成部7aは第1画像データをRGB形式又はYUV形式に変換する。第1画像生成部7aは第1画像データと、RGB形式又はYUV形式の第1画像データとを、メモリコントローラ14を介してメモリ20に記憶する。
なおYUVデータは、輝度データ(Y)及び色差データで色を表現する形式である。色差データは輝度データと青色(B)成分データの差分(U)、及び輝度データと赤色(R)成分データの差分により表現される。
同様に、第2画像生成部7bはメモリコントローラ14を介してメモリ20から第2RAW−RGBデータを読み出す。第2画像生成部7bは第2RAW−RGBデータにヒストグラム拡大処理、フィルタ処理、ガンマ処理、色補正処理及び少値化処理等の第2画像処理を行うことにより第2画像データを生成する。また第2画像生成部7bは第2画像データを、RGB形式又はYUV形式に変換する。第2画像生成部7bは第2画像データと、RGB形式又はYUV形式の第2画像データとを、メモリコントローラ14を介してメモリ20に記憶する。
第1検出画像生成部8aは、メモリコントローラ14を介してメモリ20から第1RAW−RGBデータを読み出す。第1検出画像生成部8aは、第1RAW−RGBデータにヒストグラム拡大処理、フィルタ処理、ガンマ処理、色補正処理及び少値化処理等の第3画像処理を行うことにより第1検出画像データを生成する。また第1検出画像生成部8aは第1検出画像データを、RGB形式又はYUV形式に変換する。第1検出画像生成部8aは第1検出画像データと、RGB形式又はYUV形式の第1検出画像データとを、メモリコントローラ14を介してメモリ20に記憶する。第1検出画像データは、画像比較処理(テンプレートマッチング処理)で使用されるテンプレート画像データに利用される。画像比較処理(テンプレートマッチング処理)については後述する。
第2検出画像生成部8bは、メモリコントローラ14を介してメモリ20から第2RAW−RGBデータを読み出す。第2検出画像生成部8bは、第2RAW−RGBデータにヒストグラム拡大処理、フィルタ処理、ガンマ処理、色補正処理及び少値化処理等の第4画像処理を行うことにより第2検出画像データを生成する。また第2検出画像生成部8bは第2検出画像データを、RGB形式又はYUV形式に変換する。第2検出画像生成部8bは第2検出画像データと、RGB形式又はYUV形式の第2検出画像データとを、メモリコントローラ14を介してメモリ20に記憶する。第2検出画像データは、画像比較処理(テンプレートマッチング処理)で使用されるサーチ画像データとして利用される。画像比較処理(テンプレートマッチング処理)については後述する。
切出部9はメモリコントローラ14を介してメモリ20から第1検出画像データを読み出す。切出部9は第1検出画像データに切出処理(トリミング処理)を行うことにより、第1検出画像データの一部を切り出してテンプレート画像データを生成する。切出部9はテンプレート画像データを、メモリコントローラ14を介してメモリ20に記憶する。
比較部10はメモリコントローラ14を介してメモリ20からサーチ画像データ(第2検出画像データ)及びテンプレート画像データを読み出す。比較部10はサーチ画像データの画像領域と、テンプレート画像データとを比較する画像比較処理(テンプレートマッチング処理)を行う。比較部10はテンプレート画像データと一致したサーチ画像データの画像領域の位置を示す位置データを、メモリコントローラ14を介してメモリ20に記憶する。
合成部11はメモリコントローラ14を介してメモリ20から第1画像データ、第2画像データ及び位置データを読み出す。合成部11は、位置データに基づいて第1画像データと第2画像データとを繋ぎ合わせることにより合成画像データを生成する。
変倍部12は画像データのサイズを、表示出力する画像のサイズ又はメモリカード23等に記憶する画像のサイズに合わせて変更する。圧縮部13は画像データを圧縮する。圧縮部13は画像データをメモリカード23等にJPEG形式などで記憶する場合に、当該画像データを受け付けて圧縮する。メモリコントローラ14はメモリ20のデータの読み出し及び書き込みを制御する。
CPU15は操作部18からの操作入力情報に基づき、ROM19に記憶された制御プログラムに基づいてカメラシステム100のシステムを制御する。出力制御部16は画像データを表示部21又は外部出力装置22に出力(表示)する制御を行う。メディアI/F17はメモリカード23のデータの読み込み又は書き込みを行うためのインタフェースである。
操作部18はレリーズボタン、電源ボタン、撮影・再生切替ダイアル、広角側ズームスイッチ、望遠側ズームスイッチ、メニューボタン及び確定ボタン等であり、撮影者の操作によって所定の動作指示信号をCPU15に入力する。ROM19はカメラシステム100のシステムを制御する制御プログラム等を記憶する。メモリ20はデータを一時的に記憶する。メモリ20は、例えばSDRAM(Synchronous Dynamic Random Access Memory)である。表示部21は出力制御部16から受け付けたデータを表示する。表示部21は、例えばLCD(Liquid Crystal Display)である。外部出力装置22は出力制御部16から受け付けたデータを表示する。外部出力装置22は、例えばTVである。メモリカード23はカメラシステム100から取り外し可能な記憶媒体である。
図2は実施形態のカメラシステムにおける画像データのフローを示す図である。まず第1画像生成部7aは、第1RAW−RGBデータにヒストグラム拡大処理、フィルタ処理、ガンマ処理、色補正処理及び少値化処理等の第1画像処理を行うことにより第1画像データを生成する。
同様に、第2画像生成部7bは第2RAW−RGBデータにヒストグラム拡大処理、フィルタ処理、ガンマ処理、色補正処理及び少値化処理等の第2画像処理を行うことにより第2画像データを生成する。
次に、第1検出画像生成部8aは、第1RAW−RGBデータにヒストグラム拡大処理、フィルタ処理、ガンマ処理、色補正処理及び少値化処理等の第3画像処理を行うことにより第1検出画像データを生成する。
同様に、第2検出画像生成部8bは、第2RAW−RGBデータにヒストグラム拡大処理、フィルタ処理、ガンマ処理、色補正処理及び少値化処理等の第4画像処理を行うことにより第2検出画像データ(サーチ画像データ)を生成する。
次に、切出部9は第1検出画像に切出処理(トリミング処理)を行うことにより、テンプレート画像データを生成する。次に、比較部10はサーチ画像データの画像領域と、テンプレート画像データとを比較する画像比較処理(テンプレートマッチング処理)を行う。比較部10はテンプレート画像データと一致したサーチ画像データの画像領域の位置を示す位置データを取得する。
ここで比較部10のテンプレートマッチング処理について説明する。テンプレートマッチング処理では、テンプレート画像データを第2検出画像データ(サーチ画像データ)の中で順番に移動させながら、テンプレート画像データと、テンプレート画像データに重なる第2検出画像データ(サーチ画像データ)の画像領域の類似度を計算する。類似度計算には大きくは2種類あり、SSD(Sum of Squared Difference)方式とSAD(Sum of Absolute Difference)方式がある。
SSDは下記式(1)により所定領域内の各画素値の差の2乗和を計算する方式である。
SSD=ΣΣ(I(x,y)−T(x,y))・・・(1)
一方、SADは下記式(2)により所定領域内の各画素値の差の絶対値の和を計算する方式である。
SAD=ΣΣ|I(x,y)−T(x,y)|・・・(2)
ここで、I(x,y)は第2検出画像データ(サーチ画像データ)の画素値である。またT(x,y)はテンプレート画像データの画素値である。SSD方式の場合は画素値の差の2乗を計算し、SAD方式の場合は画素値の差の絶対値を計算する。その後、所定領域の水平方向及び垂直方向の演算結果の和を計算する。これによりテンプレート画像データと、第2検出画像データ(サーチ画像データ)内のテンプレート画像に重なる画像領域の類似度がわかる。値が小さいほど類似しており、完全一致している場合には値が0となる。
比較部10は、2つの入力画像の画像合成を行うため、テンプレート画像データとして第1検出画像データの端部領域を使い、第2検出画像データ(サーチ画像データ)内の端部との類似度を計算する。また、本処理はRGB形式の3版それぞれの画像に対して行ってもよいし、YUV形式の3版それぞれの画像に対して行ってもよい。また前処理(ヒストグラム拡大処理、フィルタ処理、ガンマ処理、色補正処理及び少値化処理等)に応じて使用する形式や版数を切り替えてもよい。
次に、合成部11は比較部10で取得された位置データ(最も類似度が高い画素位置の座標)に基づいて、第1画像データと第2画像データとを繋ぎ合わせることにより合成画像データを生成する。合成部11は合成画像を生成する際に、類似度が最も高い2つの画素の平均値を採用してもよいし、第1画像データ及び第2画像データの注目画素周辺の画素の情報を加味し重み付けにより計算された類似度を採用してもよい。
次に、第1画像生成部7a、第2画像生成部7b、第1検出画像生成部8a及び第2検出画像生成部8bの構成について説明する。
図3は実施形態の第1画像生成部7aの構成の例を示す図である。第1画像生成部7aは、ヒストグラム拡大処理部71a、ガンマ処理部72a、フィルタ処理部73a、色補正処理部74a及び少値化処理部75aを備える。第1画像生成部7aは、ヒストグラム拡大処理部71a、ガンマ処理部72a、フィルタ処理部73a、色補正処理部74a及び少値化処理部75aのうち少なくとも1つを動作させ、合成画像データの画質を調整するための第1画像処理を行うことにより第1画像データを生成する。
図4は実施形態の第2画像生成部7bの構成の例を示す図である。第2画像生成部7bは、ヒストグラム拡大処理部71b、ガンマ処理部72b、フィルタ処理部73b、色補正処理部74b及び少値化処理部75bを備える。第2画像生成部7bは、ヒストグラム拡大処理部71b、ガンマ処理部72b、フィルタ処理部73b、色補正処理部74b及び少値化処理部75bのうち少なくとも1つを動作させ、合成画像データの画質を調整するための第2画像処理を行うことにより第2画像データを生成する。
図5は実施形態の第1検出画像生成部8aの構成の例を示す図である。第1検出画像生成部8aは、ヒストグラム拡大処理部81a、ガンマ処理部82a、フィルタ処理部83a、色補正処理部84a及び少値化処理部85aを備える。第1検出画像生成部8aは、ヒストグラム拡大処理部81a、ガンマ処理部82a、フィルタ処理部83a、色補正処理部84a及び少値化処理部85aのうち少なくとも1つを動作させ、テンプレートマッチング処理の精度を向上させるための第3画像処理を行うことにより第1検出画像データを生成する。
図6は実施形態の第2検出画像生成部8bの構成の例を示す図である。第2検出画像生成部8bは、ヒストグラム拡大処理部81b、ガンマ処理部82b、フィルタ処理部83b、色補正処理部84b及び少値化処理部85bを備える。第2検出画像生成部8bは、ヒストグラム拡大処理部81b、ガンマ処理部82b、フィルタ処理部83b、色補正処理部84b及び少値化処理部85bのうち少なくとも1つを動作させ、テンプレートマッチング処理の精度を向上させるための第4画像処理を行うことにより第2検出画像データを生成する。
図3乃至図6に示すように、第1画像生成部7a、第2画像生成部7b、第1検出画像生成部8a及び第2検出画像生成部8bの構成は同じである。そのため図3を参照して第1画像生成部7aの構成について説明し、第2画像生成部7b、第1検出画像生成部8a及び第2検出画像生成部8bの構成の説明は省略する。
ヒストグラム拡大処理部71aは第1RAW−RGBデータにヒストグラム拡大処理を行う。ヒストグラム拡大処理は、画素値がある範囲に偏って分布している画像(例えば全体として明るい画像)の画素値の範囲を、より広い範囲の画素値の分布に広げるように画素値の変換処理を行う。ヒストグラム拡大処理により画像のコントラストを上げることが可能となる。
図7は実施形態のヒストグラム拡大処理について説明するための図である。図7(a)はヒストグラム拡大処理前の画素値(8bit)の分布の例を示す。図7(b)はヒストグラム拡大処理後の画素値(8bit)の分布の例を示す。ヒストグラム拡大処理部71aは下記式(3)によりヒストグラム拡大処理を行う。
出力画素値=入力画素値*255/(最大値−最小値)
−最小値*255/(最大値−最小値)・・・(3)
ここで最大値はヒストグラム拡大したい所定範囲内にある最大の値を持つ画素値である。また最小値はヒストグラム拡大したい所定範囲内にある最小の値を持つ画素値である。
図3に戻り、ガンマ処理部72aは第1RAW−RGBデータにガンマ処理を行う。ガンマ処理は、入力画素値に応じて出力画素値が一意に決定される1:1のテーブル変換を行うことで画素値の変換処理を行う。非線形処理であるため変換テーブルの形状により地肌除去の処理等を行うことも可能である。
図8は実施形態のガンマ処理について説明するための図である。図8(a)はガンマ処理を行わない場合を示す。図8(b)はガンマ処理を行う場合の入力画素値(8bit)と出力画素値(8bit)との対応の例を示す。ガンマ処理部72aは入力画素値に応じて出力画素値を一意に決定する1:1のテーブル変換を行うことにより、図8(b)のように画素値の変換処理を行う。図8(b)のように画素値の変換する場合、ある程度の明るめの画素値を持つ画素が全て255に変換されることにより地肌除去され、画像全体が明るくなる。
図3に戻り、フィルタ処理部73aは第1RAW−RGBデータにフィルタ処理を行う。フィルタ処理は、画像の特徴に応じて、エッジ部分をくっきりさせるためのエッジ強調(強調処理)や、画像の非エッジ部分を滑らかにするための平滑化(平滑処理)を行う。
図9は実施形態のフィルタ処理による強調処理を説明するための図である。図9の横軸は画像の位置と、当該位置の画素値(8bit)とを示す。図9の縦軸は読値データを示す。白丸が入力画素値を示し、黒丸が出力画素値を示す。なお入力画素値と出力画素値とが等しい場合は、出力画素値も白丸で示されている。フィルタ処理部73aは図9に示す係数を使用して下記式(4)によりフィルタ処理を行うことにより、第1RAW−RGBデータに強調処理を行う。
出力画素値=Σ(入力画素値*係数)・・・(4)
図10は実施形態のフィルタ処理による平滑処理を説明するための図である。図10の横軸は画像の位置と、当該位置の画素値(8bit)とを示す。図10の縦軸は読値データを示す。白丸が入力画素値を示し、黒丸が出力画素値を示す。なお入力画素値と出力画素値とが等しい場合は、出力画素値も白丸で示されている。フィルタ処理部73aは図10に示す係数を使用して下記式(5)によりフィルタ処理を行うことにより、第1RAW−RGBデータに平滑処理を行う。
出力画素値={Σ(入力画素値*係数)}/(係数の合計値)・・・(5)
フィルタ処理部73aは、図9(図10)で示す処理を水平方向及び垂直方向に行い、各注目画素に対して繰り返すことにより第1RAW−RGBデータの強調処理(平滑処理)を行う。
図3に戻り、色補正処理部74aは第1RAW−RGBデータに色補正処理を行う。色補正処理は、ゲインや色相回転を行い画素値情報の変換を行う。モノクロ出力にする場合は所定の処理により1つの信号のみに変換すること等も可能である。
図11は実施形態の色補正処理を説明するための図である。色補正処理部74aは第1RAW−RGBデータをYUV形式に変換し、YUV形式の第1RAW−RGBデータの色差UVの色相を補正対象にする。具体的には、色補正処理部74aは次式(6)によるマトリクス演算で色相角の補正を行う。
Figure 2015177510
また色補正処理部74aはYUV形式の第1RAW−RGBデータの色差UVの彩度を補正対象にする。具体的には、色補正処理部74aは次式(7)及び(8)による演算で色差UVのゲインの補正を行う。
出力画素値_U=U_Gain×入力画素値_U・・・(7)
出力画素値_V=V_Gain×入力画素値_V・・・(8)
図3に戻り、少値化処理部75aは第1RAW−RGBデータに少値化処理を行う。少値化処理は、データ量を減らすため単純2値化処理、又は単純4値化処理等により出力階調数を落とす処理を行う。
図12は実施形態の少値化処理を説明するための図である。図12(a)は少値化処理を行わない場合を示す。図12(b)は少値化処理を行う場合の入力画素値(8bit)と出力画素値(8bit)との対応の例を示す。図12(b)は0〜255の範囲のデータを持つ入力画素値を、単純4値化閾値等により出力階調数を落として0〜3の範囲のデータを持つ出力画素値に変換する処理を行う場合の例である。
上述したように、第1画像生成部7a、第2画像生成部7b、第1検出画像生成部8a及び第2検出画像生成部8bは、それぞれがヒストグラム拡大処理、フィルタ処理、ガンマ処理、色補正処理及び少値化処理等の画像処理を行う機能ブロックを備える。第1画像生成部7a(第2画像生成部7b)が生成する第1画像データ(第2画像データ)は、合成部11により合成画像データとして最終的にユーザに参照される画像データである。一方、第1検出画像生成部8a(第2検出画像生成部8b)が生成する第1検出画像データ(第2検出画像データ)は、テンプレートマッチング処理に使用される画像データである。
実施形態のカメラシステム100では、第1検出画像生成部8a(第2検出画像生成部8b)がヒストグラム拡大処理、フィルタ処理、ガンマ処理、色補正処理及び少値化処理等の第3画像処理(第4画像処理)を行う機能ブロックを備えることにより、第1画像生成部7a(第2画像生成部7b)によって第1画像処理(第2画像処理)された第1画像データ(第2画像データ)を使用しない。これにより実施形態のカメラシステム100はテンプレートマッチング処理の精度を上げることができる。
まず第1検出画像生成部8a(第2検出画像生成部8b)のヒストグラム拡大処理部81a(ヒストグラム拡大処理部81b)のヒストグラム拡大処理によりテンプレートマッチング処理の精度を上げる場合について説明する。
例えば実施形態のカメラシステム100により屋外を撮影した場合、第1カメラ40aが撮影する範囲は日陰領域となり、第2カメラ40bが撮影する範囲は日向領域となる場合がある。この状況で第1カメラ40aにより取得された第1RAW−RGBデータ及び第2カメラ40bにより取得された第2RAW−RGBデータにAEの最適化を行うと、第1RAW−RGBデータは暗めの画像になり、第2RAW−RGBデータは明るめの画像となる。このような現象は、屋外のみならず屋内でも発生し、一般に2つのカメラ装置を使用する場合、撮影条件や被写体が異なることにより多少の差はあれ必ず発生する現象である。
図13は特徴の少ない画像端部の領域の画素値の分布の例を示す図である。図13(a)は第1RAW−RGBデータの画像端部の領域の画素値の分布の例を示す図である。図13(b)は第2RAW−RGBデータの画像端部の領域の画素値の分布の例を示す図である。図13の横軸はテンプレートマッチングを行う画像端部の領域の画素位置を示す。図13の縦軸は画素値を示す。図13の例は、マッチング精度が悪い箇所、つまり画像の凹凸が少ない箇所を示している。この状況では、第1RAW−RGBデータは、AE処理の影響により、全体の傾向として暗めの画素が分布しており、一方、第2RAW−RGBデータは、AE処理の影響により、全体の傾向として明るめの画素が分布している。この状態でテンプレートマッチングを行うとマッチング精度が落ちる現象が発生する。更に第1画像生成部7a(第2画像生成部7b)により第1画像処理(第2画像処理)された第1画像データ(第2画像データ)によりテンプレートマッチングを行うと、テンプレートマッチング処理用に最適化された画像処理ではないため、更にマッチング精度が落ちる可能性がある。
そこで実施形態のカメラシステム100では、第1検出画像生成部8aのヒストグラム拡大処理部81aが、図13(a)に例示された第1RAW−RGBデータにヒストグラム拡大処理を行うことで、ダイナミックレンジを広く、かつ、揃えることでマッチング精度の向上を図る(図14参照)。
同様に第2検出画像生成部8bのヒストグラム拡大処理部81bが、図13(b)に例示された第2RAW−RGBデータにヒストグラム拡大処理を行うことで、ダイナミックレンジを広く、かつ、揃えることでマッチング精度の向上を図る(図14参照)。
このとき、第1RAW−RGBデータ(第2RAW−RGBデータ)をYUV形式に変換し、Y(輝度)の画素値にヒストグラム拡大処理を行い、Y(輝度)の画素値に基づいてテンプレートマッチング処理を行うことで精度が向上する。この理由は、一般的に、AE処理アルゴリズムはY(輝度)の最適化を行う処理であり、逆に言うと、このAE処理アルゴリズム自体により第1RAW−RGBデータ(第2RAW−RGBデータ)にY(輝度)の差分を発生させてしまっているためY(輝度)に補正を行うことが有効となるためである。
同様に、例えば屋外を撮影した場合、第1カメラ40aから出力される第1RAW−RGBデータは夕焼けの赤みがかった日向領域を含み、第2カメラ40bから出力される第2RAW−RGBデータは日陰領域を含む場合がある。この場合、AWBの最適化を行うことで第1RAW−RGBデータは夕焼けを正しく再現させるため赤みを帯び、第2RAW−RGBデータはホワイトバランスがあっているという状態になる。
この場合も、第1検出画像生成部8a(第2検出画像生成部8b)のヒストグラム拡大処理部81a(ヒストグラム拡大処理部81b)が、ヒストグラム拡大処理を行うことで同様の効果が得られる。ただし、この際、テンプレートマッチングに使用する画素値はYUV形式のUV(色差)に行うことで精度が向上する。この理由は、一般に、AWB処理自体のアルゴリズムが色味(色差)の最適化を行う処理であり、逆に言うと、AWB処理アルゴリズム自体により第1RAW−RGBデータ(第2RAW−RGBデータ)にUVの差分を発生させてしまっているため、UV(色差)に補正を行うことが有効となる。
ここで、ヒストグラム拡大処理をどの版に行うかの判定は、従来のAE検波処理及びAWB検波処理を利用することにより判定可能である。そもそもAE処理/AWB処理は現時点の輝度値またはホワイトバランスを検知し、その検波結果に応じて最適化を図っているため、現時点の輝度値又はホワイトバランスを把握する機能を備えている。その結果に基づき、第1RAW−RGBデータ(第2RAW−RGBデータ)の輝度値が大きくずれているのか、第1RAW−RGBデータ(第2RAW−RGBデータ)のホワイトバランスが大きくずれているのかは、それぞれのAEとAWBの検波値を正規化し、所定の判定閾値により、どちらのずれが大きいかを判定することができる。
第1検出画像生成部8a(第2検出画像生成部8b)のヒストグラム拡大処理部81a(ヒストグラム拡大処理部81b)のヒストグラム拡大処理では、極端にコントラストが強調された画像データが第1検出画像データ(第2検出画像データ)として生成されるが、第1画像データ(第2画像データ)に影響は与えない。すなわち最終的にユーザに参照される合成画像データのコントラストに影響を与えることなく、テンプレートマッチング処理の精度を上げることができるので、高画質な合成画像データを生成することができる。
次に第1検出画像生成部8a(第2検出画像生成部8b)のガンマ処理部82a(ガンマ処理部82b)のガンマ処理によりテンプレートマッチング処理の精度を上げる場合について説明する。
図15は輝度が極度に低い画像端部の領域の画素値の分布の例を示す図である。図16は図15の領域にガンマ処理を行った場合の例を示す図である。図15及び図16の横軸はテンプレートマッチングを行う画像端部の領域の画素位置を示す。図15及び図16の縦軸は画素値を示す。
ガンマ処理の利点は、入力画素値に応じて出力画素値が一意に決定される1:1のテーブル変換を行う非線形処理であることである。つまり、入力画素値に応じて、コントラストをつける箇所を限定することが可能となる。例えば図15は輝度が極度に低い画像端部の状態を表しているが、一般に輝度が極度に低い画像領域では、当該部分のダイナミックレンジを挙げるためゲインが多くかかることによるノイズの混入が懸念される。ヒストグラム拡大処理を行うことでコントラスト向上によるマッチング精度の向上を図る方法では、画像領域の輝度が極度に低い状態の場合、デバイス特有のノイズ(被写体ではないデファクト)のコントラストも向上されマッチング精度が低下する。
そこで第1検出画像生成部8a(第2検出画像生成部8b)のガンマ処理部82a(ガンマ処理部82b)がガンマ処理を行い、入力画素値に応じてコントラストをつけることでマッチング精度を向上させる。この際、テンプレートマッチングに使用する画素値はRGB形式のR、G、B、又はYUV形式のY、U、Vをデバイスの特性に合わせて選択することで精度が向上する。この理由は、一般に、どの版のノイズの状態が悪いかは、センサそれぞれの個体差によって異なったり、各センサメーカに応じて異なったりするので、そのデバイスの特性に応じて画像形式や版を選択することが有効となるためである。
第1検出画像生成部8a(第2検出画像生成部8b)のガンマ処理部82a(ガンマ処理部82b)のガンマ処理では、極端にコントラストが強調された画像データが第1検出画像データ(第2検出画像データ)として生成されるが、第1画像データ(第2画像データ)に影響は与えない。すなわち最終的にユーザに参照される合成画像データのコントラストに影響を与えることなく、テンプレートマッチング処理の精度を上げることができるので、高画質な合成画像データを生成することができる。
次に第1検出画像生成部8a(第2検出画像生成部8b)のフィルタ処理部83a(フィルタ処理部83b)のフィルタ処理によりテンプレートマッチング処理の精度を上げる場合について説明する。
フィルタ処理の利点は、入力画素値(注目画素値)及び周辺画素値に応じて出力画素値が一意に決定されるマトリクス演算を行う非線形処理であることである。フィルタ処理部83aはマトリクス係数を選択することにより画像周波数に応じた強調処理をかけ、コントラストをつける箇所を限定することができる。またフィルタ処理部83aはフィルタ処理により画像の特徴に応じて画像のエッジ部分及び非エッジ部分を判定することができ、エッジ部分には強い強調をかけることでコントラストをつける箇所を限定することが可能となる。つまりフィルタ処理部83aは入力画素値(注目画素値)及び周辺画素値に応じて、コントラストをつける箇所を限定することができる。
例えば上述の図15は輝度が極度に低い画像端部の状態を表しているが、上述したようにヒストグラム拡大処理を行うことでコントラスト向上によるマッチング精度の向上を図る方法では、画像領域の輝度が極度に低い状態の場合、デバイス特有のノイズ(被写体ではないデファクト)のコントラストも向上されマッチング精度が低下する。
そこで第1検出画像生成部8a(第2検出画像生成部8b)のフィルタ処理部83a(フィルタ処理部83b)がフィルタ処理を行い、入力画素値(注目画素値)及び周辺画素値に応じてコントラストをつけることでマッチング精度を向上させる。ガンマ処理の場合と同様に、テンプレートマッチングに使用する画素値はRGB形式のR、G、B、又はYUV形式のY、U、Vをデバイスの特性に合わせて選択することで精度が向上する。
次に第1検出画像生成部8a(第2検出画像生成部8b)の色補正処理部84a(色補正処理部84b)の色補正処理によりテンプレートマッチング処理の精度を上げる場合について説明する。
色補正処理の利点は、入力画素値にゲイン調整や色相回転を行い出力画素値の決定を行う非線形処理である。図17は所定の色相角内の画素値に色相回転を行うことにより色補正処理をする場合の例を示す図である。図17(a)は色相回転前の画素値の位置関係を示す。図17(b)は色相回転後の画素値の位置関係を示す。図17に示すように、所定の色相角内の画素値を、極端に変更することで、コントラストをつける箇所を限定することができる。例えば、ある程度の色差情報を持つ画素であれば、第1検出画像生成部8a(第2検出画像生成部8b)の輝度が異なっていても、色相角はほぼ一定である特性を利用し、図17のように極端に色相角を変更することでテンプレートマッチング処理の精度が向上する。
次に第1検出画像生成部8a(第2検出画像生成部8b)の色補正処理部84a(色補正処理部84b)の色補正処理によりテンプレートマッチング処理の精度を上げる場合について説明する。
色補正処理の利点は、入力画素値にゲイン調整や色相回転を行い出力画素値の決定を行う非線形処理である。図17は所定の色相角内の画素値に色相回転を行うことにより色補正処理をする場合の例を示す図である。図17(a)は色相回転前の画素値の位置関係を示す。図17(b)は色相回転後の画素値の位置関係を示す。図17に示すように、所定の色相角内の画素値を、極端に変更することで、コントラストをつける箇所を限定することができる。例えば、ある程度の色差情報を持つ画素であれば、第1検出画像生成部8a(第2検出画像生成部8b)の輝度が異なっていても、色相角はほぼ一定である特性を利用し、図17のように極端に色相角を変更することでテンプレートマッチング処理の精度が向上する。
次に第1検出画像生成部8a(第2検出画像生成部8b)の少値化処理部85a(少値化処理部85b)の少値化処理によりテンプレートマッチング処理の精度を上げる場合について説明する。
少値化処理の利点は、単純4値化処理等により出力階調数を落とし不要な階調データを削除可能なことである。つまり、入力画素値に応じて、コントラストをつける箇所を限定することが可能となる。例えば、上述の図15は輝度が極度に低い画像端部の状態を表しているが、上述したようにヒストグラム拡大処理を行うことでコントラスト向上によるマッチング精度の向上を図る方法では、画像領域の輝度が極度に低い状態の場合、デバイス特有のノイズ(被写体ではないデファクト)のコントラストも向上されマッチング精度が低下する。
そこで第1検出画像生成部8a(第2検出画像生成部8b)の少値化処理部85a(少値化処理部85b)が少値化処理を行い、入力画素値に応じてコントラストをつけることでマッチング精度を向上させる。図18は図15の領域に少値化処理を行った場合の例を示す図である。図18の横軸はテンプレートマッチングを行う画像端部の領域の画素位置を示す。図18の縦軸は画素値を示す。図18は画素値の階調数を落として0〜3の範囲のデータを持つ画素値に変換する処理を行う場合の例である。ガンマ処理及びフィルタ処理の場合と同様に、テンプレートマッチングに使用する画素値はRGB形式のR、G、B、又はYUV形式のY、U、Vをデバイスの特性に合わせて選択することで精度が向上する。
以上説明したように、実施形態のカメラシステム100は、第1検出画像生成部8a(第2検出画像生成部8b)がヒストグラム拡大処理、フィルタ処理、ガンマ処理、色補正処理及び少値化処理等の第3画像処理(第4画像処理)を行う機能ブロックを備える(図5及び図6参照)。これにより最終的にユーザに参照される合成画像データに影響を与えることなく、テンプレートマッチング処理の精度を上げることができるので、高画質な合成画像データを生成することができる。
なお上述の説明では、簡単のため、第1カメラ40a及び第2カメラ40bの2つのカメラを備える場合について説明したが、3つ以上の複数のカメラにより撮影された画像に上述の実施形態のカメラシステム100の画像処理方法を適用してもよい。
また上述の機能ブロック(第1画像生成部7a、第2画像生成部7b、第1検出画像生成部8a、第2検出画像生成部8b、切出部9、比較部10及び合成部11)はカメラシステム100が実行するプログラムとして提供されてもよい。
カメラシステム100で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、メモリカード、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記憶媒体に記憶されてコンピュータ・プログラム・プロダクトとして提供される。
またカメラシステム100で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。またカメラシステム100が実行するプログラムを、ダウンロードさせずにインターネット等のネットワーク経由で提供するように構成してもよい。
またカメラシステム100のプログラムを、ROM19等に予め組み込んで提供するように構成してもよい。
カメラシステム100で実行されるプログラムは、上述した各機能ブロック(第1画像生成部7a、第2画像生成部7b、第1検出画像生成部8a、第2検出画像生成部8b、切出部9、比較部10及び合成部11)を含むモジュール構成となっている。当該各機能ブロックは、実際のハードウェアとしては、CPU15がROM19等の記憶媒体からプログラムを読み出して実行することにより、上記各機能ブロックがメモリ20上にロードされる。すなわち上記各機能ブロックは、メモリ20上に生成される。
7a 第1画像生成部
7b 第2画像生成部
8a 第1検出画像生成部
8b 第2検出画像生成部
9 切出部
10 比較部
11 合成部
15 CPU
19 ROM
20 メモリ
40a 第1カメラ
40b 第2カメラ
50 信号処理部
100 カメラシステム
特開2009−077092号公報

Claims (4)

  1. 第1カメラにより撮影された第1撮影画像データ、及び第2カメラにより撮影された第2撮影画像データを、テンプレートマッチング処理を使用して繋ぎ合わせることにより合成画像データを生成するカメラシステムであって、
    前記第1撮影画像データに、前記合成画像データの画質を調整するための第1画像処理を行うことにより第1画像データを生成する第1画像生成部と、
    前記第2撮影画像データに、前記合成画像データの画質を調整するための第2画像処理を行うことにより第2画像データを生成する第2画像生成部と、
    前記第1撮影画像データに、前記テンプレートマッチング処理の精度を向上させるための第3画像処理を行うことにより第1検出画像データを生成する第1検出画像生成部と、
    前記第2撮影画像データに、前記テンプレートマッチング処理の精度を向上させるための第4画像処理を行うことにより第2検出画像データを生成する第2検出画像生成部と、
    前記第1検出画像データの一部を切り出すことによりテンプレート画像を生成する切出部と、
    前記テンプレートマッチング処理により前記テンプレート画像と、前記第2検出画像とを比較し、前記テンプレート画像に一致する前記第2検出画像データの画像領域の位置を示す位置データを取得する比較部と、
    前記位置データに基づいて前記第1画像データと前記第2画像データとを繋ぎ合わせることにより前記合成画像データを生成する合成部と、
    を備えるカメラシステム。
  2. 前記第1画像処理、前記第2画像処理、前記第3画像処理及び前記第4画像処理のそれぞれは、ヒストグラム拡大処理、フィルタ処理、ガンマ処理、色補正処理及び少値化処理のうちの少なくとも1つの画像処理である
    請求項1に記載のカメラシステム。
  3. 第1カメラにより撮影された第1撮影画像データ、及び第2カメラにより撮影された第2撮影画像データを、テンプレートマッチング処理を使用して繋ぎ合わせることにより合成画像データを生成するカメラシステムの画像処理方法であって、
    前記第1撮影画像データに、前記合成画像データの画質を調整するための第1画像処理を行うことにより第1画像データを生成するステップと、
    前記第2撮影画像データに、前記合成画像データの画質を調整するための第2画像処理を行うことにより第2画像データを生成するステップと、
    前記第1撮影画像データに、前記テンプレートマッチング処理の精度を向上させるための第3画像処理を行うことにより第1検出画像データを生成するステップと、
    前記第2撮影画像データに、前記テンプレートマッチング処理の精度を向上させるための第4画像処理を行うことにより第2検出画像データを生成するステップと、
    前記第1検出画像データの一部を切り出すことによりテンプレート画像を生成するステップと、
    前記テンプレートマッチング処理により前記テンプレート画像と、前記第2検出画像データとを比較し、前記テンプレート画像に一致する前記第2検出画像データの画像領域の位置を示す位置データを取得するステップと、
    前記位置データに基づいて前記第1画像データと前記第2画像データとを繋ぎ合わせることにより前記合成画像データを生成するステップと、
    を含む画像処理方法。
  4. 第1カメラにより撮影された第1撮影画像データ、及び第2カメラにより撮影された第2撮影画像データを、テンプレートマッチング処理を使用して繋ぎ合わせることにより合成画像データを生成するカメラシステムを、
    前記第1撮影画像データに、前記合成画像データの画質を調整するための第1画像処理を行うことにより第1画像データを生成する第1画像生成部と、
    前記第2撮影画像データに、前記合成画像データの画質を調整するための第2画像処理を行うことにより第2画像データを生成する第2画像生成部と、
    前記第1撮影画像データに、前記テンプレートマッチング処理の精度を向上させるための第3画像処理を行うことにより第1検出画像データを生成する第1検出画像生成部と、
    前記第2撮影画像データに、前記テンプレートマッチング処理の精度を向上させるための第4画像処理を行うことにより第2検出画像データを生成する第2検出画像生成部と、
    前記第1検出画像データの一部を切り出すことによりテンプレート画像を生成する切出部と、
    前記テンプレートマッチング処理により前記テンプレート画像と、前記第2検出画像データとを比較し、前記テンプレート画像に一致する前記第2検出画像データの画像領域の位置を示す位置データを取得する比較部と、
    前記位置データに基づいて前記第1画像データと前記第2画像データとを繋ぎ合わせることにより前記合成画像データを生成する合成部と
    して機能させるためのプログラム。
JP2014054784A 2014-03-18 2014-03-18 カメラシステム、画像処理方法及びプログラム Pending JP2015177510A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014054784A JP2015177510A (ja) 2014-03-18 2014-03-18 カメラシステム、画像処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014054784A JP2015177510A (ja) 2014-03-18 2014-03-18 カメラシステム、画像処理方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2015177510A true JP2015177510A (ja) 2015-10-05

Family

ID=54256223

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014054784A Pending JP2015177510A (ja) 2014-03-18 2014-03-18 カメラシステム、画像処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2015177510A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5911633B1 (ja) * 2015-10-07 2016-04-27 株式会社LinkPro 画像処理装置
CN107293245A (zh) * 2016-04-12 2017-10-24 辛纳普蒂克斯日本合同会社 图像处理装置、压缩电路、显示驱动器、显示装置以及图像处理方法
WO2021134996A1 (zh) * 2019-12-30 2021-07-08 研祥智能科技股份有限公司 Led支架缺陷判定方法及系统
WO2023080338A1 (ko) * 2021-11-02 2023-05-11 삼성전자 주식회사 복수의 카메라들을 이용해 얼굴 인증을 수행하는 전자 장치 및 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1021393A (ja) * 1996-06-28 1998-01-23 Mitsubishi Electric Corp 画像処理装置
JPH1083442A (ja) * 1996-09-09 1998-03-31 Canon Inc 画像合成方法
JP2010276487A (ja) * 2009-05-29 2010-12-09 Hitachi High-Technologies Corp テンプレートマッチング用テンプレート作成方法、及びテンプレート作成装置
JP2011097179A (ja) * 2009-10-27 2011-05-12 Nikon Corp 撮像装置および画像解析コンピュータプログラム
JP2012070389A (ja) * 2010-03-19 2012-04-05 Fujifilm Corp 撮像装置、方法およびプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1021393A (ja) * 1996-06-28 1998-01-23 Mitsubishi Electric Corp 画像処理装置
JPH1083442A (ja) * 1996-09-09 1998-03-31 Canon Inc 画像合成方法
JP2010276487A (ja) * 2009-05-29 2010-12-09 Hitachi High-Technologies Corp テンプレートマッチング用テンプレート作成方法、及びテンプレート作成装置
JP2011097179A (ja) * 2009-10-27 2011-05-12 Nikon Corp 撮像装置および画像解析コンピュータプログラム
JP2012070389A (ja) * 2010-03-19 2012-04-05 Fujifilm Corp 撮像装置、方法およびプログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5911633B1 (ja) * 2015-10-07 2016-04-27 株式会社LinkPro 画像処理装置
JP2017072966A (ja) * 2015-10-07 2017-04-13 株式会社LinkPro 画像処理装置
CN107293245A (zh) * 2016-04-12 2017-10-24 辛纳普蒂克斯日本合同会社 图像处理装置、压缩电路、显示驱动器、显示装置以及图像处理方法
CN107293245B (zh) * 2016-04-12 2021-06-22 辛纳普蒂克斯日本合同会社 图像处理装置、压缩电路、显示驱动器、显示装置以及图像处理方法
WO2021134996A1 (zh) * 2019-12-30 2021-07-08 研祥智能科技股份有限公司 Led支架缺陷判定方法及系统
WO2023080338A1 (ko) * 2021-11-02 2023-05-11 삼성전자 주식회사 복수의 카메라들을 이용해 얼굴 인증을 수행하는 전자 장치 및 방법

Similar Documents

Publication Publication Date Title
US10567722B2 (en) Image processing apparatus, image processing method, imaging apparatus, and recording medium
EP2134079B1 (en) Image processing apparatus, imaging apparatus, image processing method and program
US9148561B2 (en) Image capturing apparatus, executable autoexposure bracketing and control method thereof
US9996907B2 (en) Image pickup apparatus and image processing method restricting an image stabilization range during a live view operation
JP6157242B2 (ja) 画像処理装置及び画像処理方法
US8587671B2 (en) Digital image processing apparatus, an image processing method, and a recording medium storing the image processing method for obtaining an out-of-focus image by using a plurality of images
US9826167B2 (en) Imaging apparatus and imaging method which perform focus adjustment while performing live-view display
US20180182075A1 (en) Image processing apparatus, image capturing apparatus, method of image processing, and storage medium
KR101728042B1 (ko) 디지털 촬영 장치 및 이의 제어 방법
US9025050B2 (en) Digital photographing apparatus and control method thereof
KR20150109177A (ko) 촬영 장치, 그 제어 방법, 및 컴퓨터 판독가능 기록매체
JP2017022610A (ja) 画像処理装置、画像処理方法
US9892497B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP2010193099A (ja) 撮像装置およびその制御方法
JP2015177510A (ja) カメラシステム、画像処理方法及びプログラム
US9247150B2 (en) Image capturing apparatus, exposure control method, and computer-readable recording medium
JP6108680B2 (ja) 撮像装置及びその制御方法、プログラム、並びに記憶媒体
JP2010011153A (ja) 撮像装置、撮像方法及びプログラム
JP5335964B2 (ja) 撮像装置およびその制御方法
JP2015050733A (ja) 露出制御装置、その制御方法、および制御プログラム、並びに撮像装置
JP6157274B2 (ja) 撮像装置、情報処理方法及びプログラム
US10298865B2 (en) Image processing apparatus, image capturing apparatus, method for controlling image processing apparatus, and non-transitory computer-readable storage medium for correcting image corresponding to change in state of an optical member
US10447937B2 (en) Image processing apparatus, imaging apparatus, image processing method, and storage medium that perform image processing based on an image processing parameter set for a first object area, and information on a positional relationship between an object in a second object area and an object in the first object area
JP5091734B2 (ja) 撮像装置および撮像方法
KR20110047540A (ko) 디지털 카메라 및 그 제어방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170316

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171226

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180814