JP2008187230A - カメラ、画像処理プログラム、および画像処理方法 - Google Patents

カメラ、画像処理プログラム、および画像処理方法 Download PDF

Info

Publication number
JP2008187230A
JP2008187230A JP2007016436A JP2007016436A JP2008187230A JP 2008187230 A JP2008187230 A JP 2008187230A JP 2007016436 A JP2007016436 A JP 2007016436A JP 2007016436 A JP2007016436 A JP 2007016436A JP 2008187230 A JP2008187230 A JP 2008187230A
Authority
JP
Japan
Prior art keywords
image
light emitting
foreground area
information
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007016436A
Other languages
English (en)
Inventor
Maki Suzuki
真樹 鈴木
Yasuhiro Masudo
靖博 益戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2007016436A priority Critical patent/JP2008187230A/ja
Publication of JP2008187230A publication Critical patent/JP2008187230A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

【課題】画像内の前景領域を特定すること。
【解決手段】CPU108は、右閃光装置111のみを発光させて取得した画像R、左閃光装置112のみを発光させて取得した画像L、およびいずれの閃光装置も発光させないで、あるいは両方とも発光させて取得した画像Nを読み込み、画像Rと画像Lとに基づいて、閃光装置を発光させたことによる影の影響を低減した画像Tを生成する。そして、画像Nと画像Tとに基づいて、画像N内における前景領域に関する情報である前景領域情報を生成する。
【選択図】図1

Description

本発明は、取得した画像内から前景を抽出するための処理を実行するカメラ、画像内から前景を抽出するための画像処理プログラム、および画像処理方法に関する。
次のような画像処理装置が知られている。この画像処理装置は、被写体を照明して画像を撮影した場合に発生する照明ムラに関する情報を記憶しておき、被写体を照明して得た画像、被写体を照明せずに得た画像、および照明ムラに関する情報に基づいて、照明ムラを除去した画像を生成するものである(例えば、特許文献1)。
特開2003−304443号公報
しかしながら、従来の画像処理装置では、照明ムラを低減した画像を得ることはできるが、被写体を照明することによって生じる被写体の影の影響は残ってしまう。このため、従来の画像処理装置を用いて生成した画像から前景領域を特定して、前景領域に関する情報を生成した場合には、影の影響を受けて前景領域に関する情報の精度が低下してしまう可能性があった。
本発明は、被写体を照明する第1の発光部のみを発光させて取得した第1の画像、撮影光学系を基点として第1の発光部が配置される領域と反対側の領域に配置され、被写体を照明する第2の発光部のみを発光させて取得した第2の画像、および第1の発光部と第2の発光部のいずれも発光させないで、あるいは両方とも発光させて取得した第3の画像を読み込み、第1の画像と前記第2の画像とに基づいて、第1の発光部を発光させたことによる被写体の影、および第2の発光部を発光させたことによる被写体の影の影響をそれぞれ低減した第4の画像を生成し、第3の画像と第4の画像とに基づいて、第3の画像内における前景領域に関する情報である前景領域情報を生成することを特徴とする。
本発明では、第3の画像と前景領域情報とを対応付けて出力することが好ましい。
また、前景領域情報に基づいて、第3の画像における前景領域と背景領域とを区別し、前景領域と背景領域とに異なる画像処理を施すようにしてもよい。
本発明によれば、精度の高い前景領域に関する情報を生成することができる。
図1は、本実施の形態におけるカメラの一実施の形態の構成を示すブロック図である。カメラ100は、例えばデジタルスチルカメラ(DSC)であって、レンズ101と、撮像素子102と、画像処理回路103と、メモリインタフェース104と、メモリ105と、表示装置106と、操作部材107と、CPU108と、フラッシュメモリ109と、発光制御回路110と、右閃光装置111と、左閃光装置112と、接続IF113とを備えている。
レンズ101は、複数の光学レンズ群から構成される撮影光学系である。図1では複数の光学レンズ郡を代表して1枚のレンズで表している。撮像素子102は、例えばCCDやCMOSが用いられ、レンズ101により結像した被写体像を撮像して画像を取得する。そして、取得した画像の画像信号を画像処理回路103へ出力する。なお、撮像素子103は、使用者による操作部材107に含まれるレリーズボタンが押下されることにより被写体像の撮像を行う。
画像処理回路103は、撮像素子102から入力されるアナログ画像信号をデジタル画像信号に変換(A/D変換)する。また、画像処理回路103は、A/D変換後のデジタル画像信号(画像データ)に対して、公知の階調補正処理や輪郭強調処理などの種々の画像処理を施した後、所定の画像形式に圧縮して画像ファイルを生成し、メモリインタフェース104へ出力する。
メモリインタフェース104は、例えばメモリカードスロットであって、スロット内に格納されたメモリ105、例えばメモリカード内に画像ファイルを記録する。なお、画像処理回路103は、内蔵メモリとしてのフラッシュメモリ109に画像ファイルを出力して記録することもできる。
表示装置106は、例えばカメラ100の背面に搭載されたTFTモニタであって、CPU108からの指示に基づいて、メモリ105内に記録された画像の再生画像やカメラ100を設定するためのメニュー画面等を表示する。操作部材107は、使用者によって操作される種々のスイッチやボタンを含んでいる。例えば、操作部材107には、電源ボタン、再生ボタン、モードスイッチ、レリーズボタン、ズームボタン、メニューボタン、十字ボタンなどが含まれる。
CPU108は、カメラ100が備える各要素を制御する。また、フラッシュメモリ109に記録されたプログラムを読み込んで、後述する種々の処理を実行する。発光制御回路110は、CPU108からの指示に基づいて、後述する右閃光装置111および左閃光装置112をそれぞれ制御する。接続IF113は、外部の機器、例えばパーソナルコンピュータなどを接続するための接続用インターフェースである。この接続IFとしては、例えば、外部の機器と有線接続するためのUSBモジュールや、無線接続するための無線モジュールが用いられる。
本実施の形態におけるカメラ100は、被写体を照明する閃光装置として、第1の発光部である右閃光装置111と、第2の発光部である左閃光装置112との2つの閃光装置を備えている。図2は、カメラ100本体への右閃光装置111および左閃光装置112の配置例を示した図である。図2に示すように、右閃光装置111および左閃光装置112は、カメラ100の前面に、レンズ101に対して左右対称に配置されている。このように2つの閃光装置を配置することによって、右閃光装置111を発光して被写体を右側から照明したり、左閃光装置112を発光して被写体を左側から照明したりすることができる。また、左右の閃光装置を共に発光させれば、被写体を左右両側から照明することができる。
本実施の形態では、CPU108は、撮像素子102、および発光制御回路110を制御して、右閃光装置111のみを発光させて撮影した画像R(第1の画像)、左閃光装置112のみを発光させて撮影した画像L(第2の画像)、および右閃光装置111および左閃光装置112のいずれも発光させないで撮影した画像N(第3の画像)の3枚の画像を、それぞれ構図を変化させずに順次取得して、フラッシュメモリ109に記録する。そして、これらの3枚の画像に基づいて、画像N内における前景領域、例えば主要被写体が存在している領域と、それ以外の背景領域とを区別する。具体的には、CPU108は次のように処理する。
本実施の形態では、例えば、前景領域として区別する被写体とカメラ100とが図3に示す位置関係で配置されている場合について説明する。図3に示す例では、被写体として小さな円柱(円柱小)3aおよび大きな円柱(円柱大)3bとが壁3cをバックに配置されている。すなわち、カメラ100から見ると、一番手前に円柱小3aが配置され、その後に円柱大3bが配置され、背景として壁3cが存在している。なお、カメラ(DSC)100は、三脚などに固定されており、その撮影範囲は変化しないものとする。この図3に示す位置関係で配置された被写体をカメラ100を使用して撮影した場合には、上述した画像N、画像R、および画像Lは、図4に示すようになる。
図4(a)は、図3に示す位置関係で配置された被写体を撮影した画像Nの具体例を示す図である。また、図4(b)は画像Lを、図4(c)は画像Rをそれぞれ示す図である。図4(b)および(c)に示すように、画像Lおよび画像Rにおいては、閃光装置を発光させたことによって被写体である円柱小3aおよび円柱大3bが照明され、また、これに伴って背景上に被写体の影ができている。すなわち、図4(b)に示す画像Lにおいては、左閃光装置112を発光させて被写体を左側から照明しているので、円柱小3aおよび円柱大3bの右側に影4aができている。また、図4(c)に示す画像Rにおいては、右閃光装置を発光させて被写体を右側から照明しているので、円柱小3aの左側に影4bが、円柱大3bの左側に影4cがそれぞれできている。これに対して、閃光装置を発光せずに撮影した図4(a)に示す画像Nには、影は発生していない。
CPU108は、画像Rおよび画像Lに基づいて、右閃光装置111を発光させたことによる被写体の影、および左閃光装置112を発光させたことによる被写体の影の影響をそれぞれ低減した画像(第4の画像)を生成する。このために、CPU108は、まず画像Rの画素の値から画素Rの画素と対応する位置、すなわち座標値が同一の画像Lの画素の値を減算して画像Rと画像Lの差分をとり、負となる領域を画像Rの影領域として判定する。これによって、図5(b)に示すように、図4(c)に示した画像Rにおける影4bおよび4cに相当する影領域5bおよび5cを特定することができる。
そして、CPU108は、画像Rの影領域5bおよび5cと画像内における位置および大きさが同じ領域の画素の値を画像Lから抽出し、画像Rの影領域5bおよび5cの画素の値を、画像Lから抽出した対応する画素の値に置き換える。これによって、図4(b)および(c)に示したように、画像Rにおける影4bおよび4cは、画像L上には存在していないことから、画像Rにおける影領域5bおよび5cの画素の値を、影が発生していない領域の画素の値に置き換えることができ、図5(c)に示すような影の影響を低減した画像Tを生成することができる。
なお、本実施の形態では、上述したように、画像Rの画素の値から画像Lの対応する画素の値を減算して差分をとった場合について説明するが、その逆、すなわち画像Lの画素の値から画像Rの対応する画素の値を減算して差分をとって負となる領域を画像Lの影領域として判定するようにしてもよい。この場合には、図5(a)に示すように、図4(b)に示した画像Lにおける影4aに相当する影領域5aを特定することができる。そして、CPU108は、画像Lの影領域5aと画像内における位置および大きさが同じ領域の画素の値を画像Rから抽出し、画像Lの影領域5aの画素の値を画像Rから抽出した対応する画素の値に置き換える。これによって、図5(c)に示すような影の影響を低減した画像Tを生成することができる。
次に、CPU108は、生成した画像Tの画素の値から画像Nの対応する画素の値を減算することによって差分画像を算出する。これにより、画像Tでは、右閃光装置111および左閃光装置112で被写体が照明されているが、画像Nでは被写体が照明されていないことから、この被写体部分の輝度差を表した差分画像を得ることができる。そして、CPU108は、算出した差分画像を所定の閾値を用いて二値化することによって、図6(b)に示すような、閃光装置で照明された被写体部分、すなわち前景領域の画素を「1」とし、それ以外の背景領域の画素を「0」とした輝度差領域MAPを生成する。この輝度差領域MAPは、前景領域と背景領域との間の輝度差を表した前景領域に関する情報である前景領域情報に相当し、後述するように、画像Nから前景領域である被写体領域を抽出するために用いられる。
本実施の形態におけるカメラ100では、CPU108は、生成した輝度差領域MAP、および輝度差領域MAPに基づいて画像Nに対して画像処理を施した処理済画像の少なくともいずれか一方を接続IF113を介して接続された外部の機器に出力する。ここでは、CPU108は、使用者によってあらかじめ設定された出力モードに応じて出力対象とする情報を決定する場合の処理について説明する。
なお、CPU108は、外部の機器に処理済画像を出力する場合には、次のように処理済画像を生成する。CPU108は、図6(b)に示す生成した輝度差領域MAP内の輝度が高い高輝度領域を特定し、図6(a)に示す画像N内から高輝度領域に相当する領域を抽出する。これによって、図6(c)に示すように、画像N内から被写体である円柱小3aおよび円柱大3bを含む領域を前景領域として抽出することができる。そして、CPU108は、抽出した前景領域と、それ以外の背景領域とを区別し、それぞれに異なる画像処理を施して、処理済画像を生成する。
例えば、CPU108は、背景領域に対して平滑化フィルタ、例えば5画素×5画素の大きさの平滑化フィルタをかけて、背景領域のみをぼかした処理済画像を生成する。または、前景領域のみ輝度を上げて、前景領域を際立たせた処理済画像を生成する。あるいは、背景領域には平滑化フィルタをかけてぼかし、前景領域は輝度を上げるようにしてもよい。
例えば、カメラ100は、使用者が設定可能な出力モードとして、次の(A)〜(D)に示す4つのモードを備えており、CPU108は各モードに応じて必要な情報を外部の機器へ出力する。
(A)第1の出力モード
第1の出力モードは、輝度差領域MAPと画像Nとを対応付けて出力するためのモードである。第1の出力モードが設定されている場合には、画像処理回路103で、画像NをJpeg等の所定のファイル形式に圧縮し、EXIF形式の画像ファイルを生成しておく。そして、CPU108は、画像Nの画像ファイルのEXIF情報内に輝度差領域MAPを格納することで、輝度差領域MAPと画像Nとを対応付ける。そして生成した画像ファイルを外部の機器へ出力する。また、輝度差MAPを所定のファイル形式に圧縮してファイル名を付与し、画像Nの画像ファイルのEXIF情報内に輝度差領域MAPのファイル名を格納することで輝度差領域MAPと画像Nとを対応付けてもよい。
(B)第2の出力モード
第2の出力モードは、上述した処理済画像のみを出力するためのモードである。第2の出力モードが設定されている場合には、画像処理回路103で、処理済画像をJpeg等の所定のファイル形式に圧縮して画像ファイルを生成しておく。そして、CPU108は、処理済画像の画像ファイルを外部の機器へ出力する。
(C)第3の出力モード
第3の出力モードは、輝度差領域MAPと処理済画像とを対応付けて出力するためのモードである。第3の出力モードが設定されている場合には、画像処理回路103で、処理済画像をJpeg等の所定のファイル形式に圧縮し、EXIF形式の画像ファイルを生成しておく。そして、CPU108は、処理済画像の画像ファイルのEXIF情報内に輝度差領域MAPを格納することで、輝度差領域MAPと処理済画像とを対応付ける。そして生成した画像ファイルを外部の機器へ出力する。また、輝度差MAPを所定のファイル形式に圧縮してファイル名を付与し、処理済画像の画像ファイルのEXIF情報内に輝度差領域MAPのファイル名を格納することで輝度差領域MAPと処理済画像とを対応付けてもよい。
(D)第4の出力モード
第4の出力モードは、輝度差領域MAP、画像N、および処理済画像を対応付けて出力するためのモードである。第4の出力モードが設定されている場合には、画像処理回路103で輝度差領域MAP、画像N、および処理済画像のそれぞれをJpeg等の所定のファイル形式に圧縮してEXIF画像ファイルを生成しておく。そして、CPU108は、各画像ファイルのファイル名をそれぞれのファイルのEXIF情報内に互いに格納することで、それぞれを対応付ける。その後、各画像ファイルを外部の機器へ出力する。
なお、第1の出力モードが設定されている場合には、カメラ100から輝度差領域MAPと画像Nとを取得した外部の機器側で、前景領域を抽出して画像処理が行なわれる。これによって、CPU108は処理済画像を生成する必要がないため、CPU108の負荷を低減することができる。
図7は、本実施の形態におけるCPU108の処理を示すフローチャートである。図7に示す処理は、使用者によって操作部材107に含まれるレリーズボタンが押下されると起動する画像処理プログラムとして実行される。
ステップS10において、撮像素子102を制御して、右閃光装置111および左閃光装置112のいずれも発光させないで撮影した画像Nを取得する。その後、ステップS20へ進み、撮像素子102、および発光制御回路110を制御して、右閃光装置111のみを発光させて撮影した画像Rを取得する。その後、ステップS30へ進み、左閃光装置112のみを発光させて撮影した画像Lを取得する。その後、ステップS40へ進む。
ステップS40では、撮影した画像N、R、およびLをそれぞれ読み込んで、画像Rの画素の値から画像Lの対応する画素の値を減算して差分をとり、負となる領域を画像Rの影領域として判定する。その後、ステップS50へ進み、画像Rの影領域と画像内における位置および大きさが同じ領域の画素の値を画像Lから抽出し、画像Rの影領域の画素の値を画像Lから抽出した対応する画素の値に置き換えることで、画像Rにおける影の影響を低減した画像Tを生成することができる。その後、ステップS60へ進み、生成した画像Tの画素の値から画像Nの対応する画素の値を減算することによって差分画像を算出して、ステップS70へ進む。
ステップS70では、算出した差分画像を所定の閾値を用いて二値化することによって、閃光装置で照明された被写体部分に相当する前景領域と、それ以外の背景領域との間の輝度差を表した輝度差領域MAP、すなわち前景領域の画素を「1」とし、それ以外の背景領域の画素を「0」とした輝度差領域MAPを生成する。その後、ステップS80へ進み、使用者によって出力モードとして上述した第1〜第4の出力モードのいずれが設定されているかを判断する。
ステップS80で第1の出力モードが設定されていると判断した場合には、ステップS81へ進み、上述したように輝度差領域MAPと画像Nとを対応付けて外部の機器へ出力し、処理を終了する。第2の出力モードが設定されていると判断した場合には、ステップS82へ進み、上述したように画像N内の前景領域と背景領域とに異なる画像処理を施した処理済画像を生成して、ステップS83へ進む。ステップS83では、処理済画像のみを外部の機器へ出力し、処理を終了する。
また、ステップS80で第3の出力モードが設定されていると判断した場合には、ステップS84へ進み、ステップS82と同様に処理済画像を生成する。その後、ステップS85へ進み、輝度差領域MAPと処理済画像とを対応付けて外部の機器へ出力して、処理を終了する。第4の出力モードが設定されていると判断した場合には、ステップS86へ進み、ステップS82と同様に処理済画像を生成する。その後、ステップS87へ進み、輝度差領域MAP、画像N、および処理済画像を対応付けて外部の機器へ出力して、処理を終了する。
以上説明した本実施の形態によれば、以下のような作用効果を得ることができる。
(1)第1の発光部である右閃光装置111のみを発光させて撮影した第1の画像である画像R、撮影光学系を基点として右閃光装置111が配置される領域と反対側の領域に配置された左閃光装置112のみを発光させて撮影した第2の画像である画像L、および右閃光装置111と左閃光装置112のいずれも発光させないで撮影した第3の画像である画像Nを取得する。そして、画像Rと画像Lとに基づいて、右閃光装置111を発光させたことによる被写体の影、および左閃光装置112を発光させたことによる被写体の影の影響をそれぞれ低減した第4の画像である画像Tを生成し、画像Nと画像Tとに基づいて、画像N内における前景領域に関する情報である前景領域情報、すなわち前景領域の画素を「1」とし、それ以外の背景領域の画素を「0」とした輝度差領域MAPを生成するようにした。これによって、左右の閃光装置で被写体を照明して被写体を明るく写した画像RとLとを得て、それぞれの画像から影の影響を排除した上で画像Nに基づいて輝度差領域MAPを生成することができ、画像N内の前景領域を精度高く特定することができる。
(2)使用者によって出力モードとして第1の出力モードが設定されている場合には、輝度差領域MAPと画像Nとを対応付けて外部の機器へ出力するようにした。これによって、外部の機器で画像Nから被写体領域を抽出することができる。
(3)使用者によって出力モードとして第2の出力モードが設定されている場合には、生成した処理済画像のみを出力するようにした。これによって、外部の機器ですぐに処理済画像を利用することができる。
(4)使用者によって出力モードとして第3の出力モードが設定されている場合には、輝度差領域MAPと処理済画像とを対応付けて出力するようにした。これによって、外部の機器で輝度差領域MAPに基づいて処理済画像内の前景領域と背景領域とを再度区別することができ、改めて前景領域と背景領域とに異なる画像処理を施すことが可能になる。
(5)使用者によって出力モードとして第4の出力モードが設定されている場合には、輝度差領域MAP、画像N、および処理済画像を対応付けて出力するようにした。これによって、上述した第2の出力モードにおける効果と第3の出力モードにおける効果の両方を得ることができる。
(6)前景領域情報に基づいて、画像Nにおける前景領域と背景領域とを区別し、前景領域と背景領域とに異なる画像処理を施して、処理済画像を生成するようにした。これによって、前景領域に相当する被写体とその他の背景とに異なる画像処理を施して、被写体を効果的に表した画像を生成することができる。
―変形例―
なお、上述した実施の形態のカメラは、以下のように変形することもできる。
(1)上述した実施の形態では、図2に示したように、右閃光装置111と左閃光装置112とをレンズ101に対して左右対称に配置する例について説明した。しかしながら、右閃光装置111と左閃光装置112の配置位置は、それぞれの閃光装置のみを発光させて被写体を照明した場合に、影が左右に発生するような配置位置であれば、図2に示した例に限定されない。また、人物などのように縦長の被写体を前景領域として抽出する場合には、影が左右に発生することが好ましいが、横長の被写体を前景領域として抽出する場合には、影が縦方向に発生する方が好ましい。よって、横長の被写体を主な撮影の対象とするカメラにおいては、2つの閃光装置をレンズ101に対して上下に配置するようにしてもよい。換言すれば、2つの閃光装置が、撮影光学系、すなわちレンズ101を基点として反対側の領域に配置されるようにすれば、その配置位置はレンズ101の左右または上下に限定されない。
(2)上述した実施の形態では、使用者によって設定された出力モードに応じた情報を外部の機器に出力する例について説明した。しかしながら、使用者によって設定された出力モードに応じた情報をメモリ105に記録するようにしてもよい。
(3)上述した実施の形態では、使用者によって操作部材107に含まれるレリーズボタンが押下されたときに図7に示す処理を実行して、画像N、画像R、および画像Lを取得し、これらの画像に基づいて輝度差領域MAPを生成し、使用者によって設定された出力モードに応じた情報を外部の機器に出力する例について説明した。しかしながら、使用者によってレリーズボタンが押下された時点では、画像N、画像R、および画像Lの撮影のみを行ってフラッシュメモリ109に記録しておくようにしてもよい。そして、撮影処理が完了した後に輝度差領域MAPを生成し、使用者によって設定された出力モードに応じた情報を外部の機器に出力するようにしてもよい。これによって、画像撮影時のCPU108の負荷を低減することができ、撮影処理を高速化することができる。
(4)上述した実施の形態では、CPU108が画像N、画像R、および画像Lに基づく輝度差領域MAPを生成する例について説明した。しかしながら、カメラ100では、画像N、画像R、および画像Lの撮影のみを行って、これらの画像を外部の機器へ出力するようにしてもよい。そして、外部の機器側で画像N、画像R、および画像Lに基づく輝度差領域MAPを生成するようにしてもよい。これによって、CPU108の負荷を低減することができる。
(5)上述した実施の形態では、画像Nは、右閃光装置111および左閃光装置112のいずれも発光させないで撮影する例について説明した。しかしながら、画像Nを右閃光装置111および左閃光装置112の両方を弱めに発光させて撮影してもよい。この場合、画像Nを撮影したときよりも右閃光装置111を強めに発光させて画像Rを撮影し、画像Rを撮影したときよりも左閃光装置112を強めに発光させて画像Lを撮影すれば、画像Nと、画像RおよびLとの間の被写体領域の輝度差が発生することになり、上述した輝度差領域MAPを作成することができる。これによって、撮影場所が暗い場合であっても、画像Nの撮影時に被写体像を捉えることができる。
なお、本発明の特徴的な機能を損なわない限り、本発明は、上述した実施の形態における構成に何ら限定されない。
カメラの一実施の形態の構成を示すブロック図である。 カメラへの右閃光装置および左閃光装置の搭載例を示す図である。 カメラと被写体との位置関係を示す図である。 画像N、R、およびLの具体例を示す図である。 影の影響を低減した画像の生成例を示す図である。 輝度差領域MAPの具体例、および画像Nからの被写体抽出の具体例を示す図である。 CPU108によって実行される処理の流れを示すフローチャートである。
符号の説明
100 カメラ、101 レンズ、102 撮像素子、103 画像処理回路、104 メモリインタフェース、105 メモリ、106 表示装置、107 操作部材、108 CPU、109 フラッシュメモリ、110 発光制御回路、111 右閃光装置、112 左閃光装置、113 接続IF

Claims (7)

  1. 撮影光学系により結像した被写体像を撮像素子で撮像して画像を取得する画像取得手段と、
    被写体を照明する第1の発光部と、
    前記撮影光学系を基点として前記第1の発光部が配置される領域と反対側の領域に配置され、被写体を照明する第2の発光部と、
    前記第1の発光部のみを発光させて前記画像取得手段で取得した第1の画像、前記第2の発光部のみを発光させて前記画像取得手段で取得した第2の画像、および前記第1の発光部と前記第2の発光部のいずれも発光させないで、あるいは両方とも発光させて前記画像取得手段で取得した第3の画像を順次撮影する撮影制御手段と、
    前記第1の画像と前記第2の画像とに基づいて、前記第1の発光部を発光させたことによる前記被写体の影、および前記第2の発光部を発光させたことによる前記被写体の影の影響をそれぞれ低減した第4の画像を生成する画像生成手段と、
    前記第3の画像と前記第4の画像とに基づいて、前記第3の画像内における前景領域に関する情報である前景領域情報を生成する情報生成手段とを備えることを特徴とするカメラ。
  2. 請求項1に記載のカメラにおいて、
    前記第3の画像と、前記前景領域情報とを対応付けて外部の機器に出力する出力手段をさらに備えることを特徴とするカメラ。
  3. 請求項1に記載のカメラにおいて、
    前記前景領域情報に基づいて、前記第3の画像における前景領域と背景領域とを区別し、前記前景領域と前記背景領域とに異なる画像処理を施す画像処理手段をさらに備えることを特徴とするカメラ。
  4. コンピュータに、
    被写体を照明する第1の発光部のみを発光させて取得した第1の画像、撮影光学系を基点として前記第1の発光部が配置される領域と反対側の領域に配置され、被写体を照明する第2の発光部のみを発光させて取得した第2の画像、および前記第1の発光部と前記第2の発光部のいずれも発光させないで、あるいは両方とも発光させて取得した第3の画像を読み込む読込手順と、
    前記第1の画像と前記第2の画像とに基づいて、前記第1の発光部を発光させたことによる前記被写体の影、および前記第2の発光部を発光させたことによる前記被写体の影の影響をそれぞれ低減した第4の画像を生成する画像生成手順と、
    前記第3の画像と前記第4の画像とに基づいて、前記第3の画像内における前景領域に関する情報である前景領域情報を生成する情報生成手順とを実行させるための画像処理プログラム。
  5. 被写体を照明する第1の発光部のみを発光させて取得した第1の画像、撮影光学系を基点として前記第1の発光部が配置される領域と反対側の領域に配置され、被写体を照明する第2の発光部のみを発光させて取得した第2の画像、および前記第1の発光部と前記第2の発光部のいずれも発光させないで、あるいは両方とも発光させて取得した第3の画像を読み込み、
    前記第1の画像と前記第2の画像とに基づいて、前記第1の発光部を発光させたことによる前記被写体の影、および前記第2の発光部を発光させたことによる前記被写体の影の影響をそれぞれ低減した第4の画像を生成し、
    前記第3の画像と前記第4の画像とに基づいて、前記第3の画像内における前景領域に関する情報である前景領域情報を生成することを特徴とする画像処理方法。
  6. 請求項5に記載の画像処理方法において、
    前記第3の画像と、前記前景領域情報とを対応付けて出力することを特徴とする画像処理方法。
  7. 請求項5に記載の画像処理方法において、
    前記前景領域情報に基づいて、前記第3の画像における前景領域と背景領域とを区別し、前記前景領域と前記背景領域とに異なる画像処理を施すことを特徴とする画像処理方法。
JP2007016436A 2007-01-26 2007-01-26 カメラ、画像処理プログラム、および画像処理方法 Pending JP2008187230A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007016436A JP2008187230A (ja) 2007-01-26 2007-01-26 カメラ、画像処理プログラム、および画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007016436A JP2008187230A (ja) 2007-01-26 2007-01-26 カメラ、画像処理プログラム、および画像処理方法

Publications (1)

Publication Number Publication Date
JP2008187230A true JP2008187230A (ja) 2008-08-14

Family

ID=39730007

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007016436A Pending JP2008187230A (ja) 2007-01-26 2007-01-26 カメラ、画像処理プログラム、および画像処理方法

Country Status (1)

Country Link
JP (1) JP2008187230A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009237927A (ja) * 2008-03-27 2009-10-15 Nippon Telegr & Teleph Corp <Ntt> 画像合成方法及び装置
JP2010056797A (ja) * 2008-08-27 2010-03-11 Sharp Corp 画像処理装置、画像形成装置、画像処理方法、画像処理プログラム及びコンピュータ読み取り可能な記録媒体
US8355177B2 (en) 2008-08-27 2013-01-15 Sharp Kabushiki Kaisha Image processing apparatus, image forming apparatus, image processing method, and computer-readable storage medium containing image processing program
US9521281B2 (en) 2009-04-07 2016-12-13 Sharp Kabushiki Kaisha Image processing apparatus including first image processing section performing first image processing on image data to be supplied to image output apparatus and second image processing section performing second image processing on image data to be supplied to image display device, and image forming apparatus including the image processing apparatus

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009237927A (ja) * 2008-03-27 2009-10-15 Nippon Telegr & Teleph Corp <Ntt> 画像合成方法及び装置
JP2010056797A (ja) * 2008-08-27 2010-03-11 Sharp Corp 画像処理装置、画像形成装置、画像処理方法、画像処理プログラム及びコンピュータ読み取り可能な記録媒体
JP4763026B2 (ja) * 2008-08-27 2011-08-31 シャープ株式会社 画像処理装置、画像形成装置、画像処理方法、画像処理プログラム及びコンピュータ読み取り可能な記録媒体
US8355177B2 (en) 2008-08-27 2013-01-15 Sharp Kabushiki Kaisha Image processing apparatus, image forming apparatus, image processing method, and computer-readable storage medium containing image processing program
CN101662564B (zh) * 2008-08-27 2013-07-10 夏普株式会社 图像处理装置、图像形成装置以及图像处理方法
US9019566B2 (en) 2008-08-27 2015-04-28 Sharp Kabushiki Kaisha Image processing apparatus, image forming apparatus, image processing method, and computer-readable storage medium containing image processing program
US9521281B2 (en) 2009-04-07 2016-12-13 Sharp Kabushiki Kaisha Image processing apparatus including first image processing section performing first image processing on image data to be supplied to image output apparatus and second image processing section performing second image processing on image data to be supplied to image display device, and image forming apparatus including the image processing apparatus

Similar Documents

Publication Publication Date Title
TWI288360B (en) Image processor
US8582891B2 (en) Method and apparatus for guiding user with suitable composition, and digital photographing apparatus
JP2007053537A (ja) 撮像装置
TWI596940B (zh) 低電力智能影像擷取
JP2008227569A (ja) 撮影装置、電子機器、撮影制御方法、及び、撮影制御プログラム
JP5824972B2 (ja) 撮像装置、フレームレート制御装置、撮像制御方法及びプログラム
WO2015196896A1 (zh) 对焦状态的提示方法和拍摄装置
JPWO2010073619A1 (ja) 撮像装置
JP2008092515A (ja) 電子カメラ、画像処理装置およびプログラム
JP2009111716A (ja) 撮像装置、プログラムおよびテンプレート生成方法
JP2008187230A (ja) カメラ、画像処理プログラム、および画像処理方法
JP2008209306A (ja) カメラ
JP2009188953A (ja) 撮像装置及び撮像方法
JP4570171B2 (ja) 情報処理装置および記録媒体
JP4632417B2 (ja) 撮像装置、及びその制御方法
JP2008067298A (ja) 撮影装置及びプログラム
JP2010081244A (ja) 撮像装置及び撮像方法、画像処理プログラム
JP2012050121A (ja) 撮像装置、撮像方法および撮像プログラム
JP2004287808A (ja) 携帯型情報端末装置
JP4054918B2 (ja) 撮像装置、撮影制御方法及び撮影制御プログラム
JP2009044243A (ja) デジタルカメラ、および画像処理システム
JP2008182499A (ja) 画像処理装置、および画像処理プログラム
JP2009005251A (ja) 画像処理装置
JP2010087646A (ja) カメラ装置及び画像切り出し方法、プログラム
JP2010016671A (ja) カメラ、および情報処理装置