JP4760973B2 - 撮像装置及び画像処理方法 - Google Patents
撮像装置及び画像処理方法 Download PDFInfo
- Publication number
- JP4760973B2 JP4760973B2 JP2009278378A JP2009278378A JP4760973B2 JP 4760973 B2 JP4760973 B2 JP 4760973B2 JP 2009278378 A JP2009278378 A JP 2009278378A JP 2009278378 A JP2009278378 A JP 2009278378A JP 4760973 B2 JP4760973 B2 JP 4760973B2
- Authority
- JP
- Japan
- Prior art keywords
- subject
- image
- imaging
- background
- alignment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 title claims description 296
- 238000003672 processing method Methods 0.000 title claims description 13
- 238000000034 method Methods 0.000 claims description 81
- 230000008569 process Effects 0.000 claims description 79
- 238000000605 extraction Methods 0.000 claims description 60
- 238000006243 chemical reaction Methods 0.000 claims description 32
- 239000002131 composite material Substances 0.000 claims description 19
- 230000008602 contraction Effects 0.000 claims description 18
- 230000002194 synthesizing effect Effects 0.000 claims description 13
- 230000015572 biosynthetic process Effects 0.000 claims description 8
- 238000003786 synthesis reaction Methods 0.000 claims description 8
- 238000003860 storage Methods 0.000 claims description 6
- 239000007787 solid Substances 0.000 claims description 4
- 239000000470 constituent Substances 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 87
- 230000009466 transformation Effects 0.000 description 48
- 239000000203 mixture Substances 0.000 description 34
- 239000013598 vector Substances 0.000 description 20
- 239000011159 matrix material Substances 0.000 description 19
- 230000006870 function Effects 0.000 description 12
- 238000002372 labelling Methods 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 9
- 238000011156 evaluation Methods 0.000 description 7
- 230000000295 complement effect Effects 0.000 description 6
- 238000005520 cutting process Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000002156 mixing Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 241000282693 Cercopithecidae Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 239000011248 coating agent Substances 0.000 description 1
- 238000000576 coating method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/174—Segmentation; Edge detection involving the use of two or more images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20224—Image subtraction
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
背景内に被写体が存在する被写体存在画像を撮像する第1撮像手段と、前記被写体存在画像の撮像の際の撮像条件と同じ撮像条件で、前記背景と同一の背景内に前記被写体の存在しない前記背景画像を撮像する第2撮像手段と、前記被写体存在画像と前記背景画像との位置合わせを行う位置合わせ手段と、前記位置合わせ手段により位置合わせされた前記被写体存在画像と前記背景画像との間で対応する各画素の差分情報を生成する差分生成手段と、前記差分生成手段により生成された前記差分情報に基づいて、前記被写体存在画像から被写体が含まれる被写体領域を抽出する被写体抽出手段と、を備え、前記被写体抽出手段は、前記差分生成手段により生成された前記差分情報に基づいて、所定値よりも小さい画素集合を除くことにより前記被写体存在画像から前記被写体領域を特定して抽出し、前記被写体存在画像から前記被写体領域を抽出する際に、前記背景画像の特徴量に応じて前記所定値よりも小さい画素集合を除く処理を行うか否かを決定することを特徴としている。
請求項2に記載の発明の撮像装置は、
背景内に被写体が存在する被写体存在画像を撮像する第1撮像手段と、前記被写体存在画像の撮像の際の撮像条件と同じ撮像条件で、前記背景と同一の背景内に前記被写体の存在しない前記背景画像を撮像する第2撮像手段と、前記被写体存在画像と前記背景画像との位置合わせを行う位置合わせ手段と、前記位置合わせ手段により位置合わせされた前記被写体存在画像と前記背景画像との間で対応する各画素の差分情報を生成する差分生成手段と、前記差分生成手段により生成された前記差分情報に基づいて、前記被写体存在画像から被写体が含まれる被写体領域を抽出する被写体抽出手段と、を備え、前記被写体抽出手段は、前記差分生成手段により生成された前記差分情報に基づいて、所定値よりも小さい画素集合を除くことにより前記被写体存在画像から前記被写体領域を特定して抽出し、前記被写体存在画像から前記被写体領域を抽出する際に、手ぶれ量に応じて収縮膨張を行うことで前記被写体存在画像から前記所定値よりも小さい画素集合を除くことを特徴としている。
請求項3に記載の発明の撮像装置は、
背景内に被写体が存在する被写体存在画像を撮像する第1撮像手段と、前記被写体存在画像の撮像の際の撮像条件と同じ撮像条件で、前記背景と同一の背景内に前記被写体の存在しない前記背景画像を撮像する第2撮像手段と、前記被写体存在画像と前記背景画像との位置合わせを行う位置合わせ手段と、前記位置合わせ手段により位置合わせされた前記被写体存在画像と前記背景画像との間で対応する各画素の差分情報を生成する差分生成手段と、前記差分生成手段により生成された前記差分情報に基づいて、前記被写体存在画像から被写体が含まれる被写体領域を抽出する被写体抽出手段と、被写体までの距離が所定値以上である否かを判定する距離判定手段と、を備え、前記位置合わせ手段は、前記距離判定手段により被写体までの距離が前記所定値以上であると判定された場合には、前記所定値未満である場合に比べて簡略化された位置合わせを行うことを特徴としている。
請求項4に記載の発明の撮像装置は、
背景内に被写体が存在する被写体存在画像を撮像する第1撮像手段と、前記被写体存在画像の撮像の際の撮像条件と同じ撮像条件で、前記背景と同一の背景内に前記被写体の存在しない前記背景画像を撮像する第2撮像手段と、前記被写体存在画像と前記背景画像との位置合わせを行う位置合わせ手段と、前記位置合わせ手段により位置合わせされた前記被写体存在画像と前記背景画像との間で対応する各画素の差分情報を生成する差分生成手段と、前記差分生成手段により生成された前記差分情報に基づいて、前記被写体存在画像から被写体が含まれる被写体領域を抽出する被写体抽出手段と、前記第1撮像手段による前記被写体存在画像の撮像の際と前記第2撮像手段による前記背景画像の撮像の際とで当該撮像装置本体の位置が相対的に変化したか否かを判定する位置判定手段と、を備え、前記位置判定手段により当該撮像装置本体の位置が相対的に変化していないと判定された場合には、前記位置合わせ手段による位置合わせを省略することを特徴としている。
請求項5に記載の発明の撮像装置は、
背景内に被写体が存在する被写体存在画像を撮像する第1撮像手段と、前記被写体存在画像の撮像の際の撮像条件と同じ撮像条件で、前記背景と同一の背景内に前記被写体の存在しない前記背景画像を撮像する第2撮像手段と、前記被写体存在画像と前記背景画像との位置合わせを行う位置合わせ手段と、前記位置合わせ手段により位置合わせされた前記被写体存在画像と前記背景画像との間で対応する各画素の差分情報を生成する差分生成手段と、前記差分生成手段により生成された前記差分情報に基づいて、前記被写体存在画像から被写体が含まれる被写体領域を抽出する被写体抽出手段と、前記第2撮像手段により撮像された背景画像の無地度が所定値以上であるか否かを判定する無地度判定手段と、を備え、前記無地度判定手段により前記無地度が所定値以上であると判定された場合には、前記位置合わせ手段による位置合わせを省略することを特徴としている。
前記背景画像から抽出した特徴点に基づいて、前記被写体存在画像の各画素の座標変換式を算出する座標変換式算出手段を更に備え、前記差分生成手段は、前記座標変換式算出手段により算出された前記座標変換式に従って各画素が座標変換された被写体存在画像と前記背景画像との間で対応する各画素の差分情報を生成することを特徴としている。
前記被写体抽出手段は、抽出された被写体領域内で、当該被写体領域の構成画素数における所定比率以下の領域を被写体を構成する有効領域とみなすことを特徴としている。
前記被写体存在画像内で前記被写体抽出手段により抽出された前記被写体領域の位置を特定して位置情報を生成する位置情報生成手段を更に備えることを特徴としている。
前記被写体存在画像と前記位置情報とを対応付けて記憶する記憶手段を更に備えることを特徴としている。
前記被写体抽出手段により抽出された被写体領域に係る被写体領域情報に基づいて、所定の背景と前記被写体領域の画像を合成した合成画像を生成する合成手段を更に備えることを特徴としている。
前記被写体抽出手段により抽出された被写体領域に係る被写体領域情報に基づいて、所定の背景と前記被写体領域の画像を合成した合成画像を生成する合成手段を更に備え、前記合成手段は、前記位置情報生成手段により生成された前記位置情報に基づいて、前記合成画像を生成することを特徴としている。
前記合成手段は、前記合成画像として、所定の単一色背景と前記被写体領域の画像を合成した被写体切り抜き画像を生成することを特徴としている。
前記合成手段は、前記合成画像として、所定の背景と前記被写体切り抜き画像を合成した被写体合成画像を生成することを特徴としている。
前記合成画像と前記位置情報とを対応付けて記憶する記憶手段を更に備えることを特徴としている。
表示手段を更に備え、前記第2撮像手段による前記背景画像の撮像の際に、前記第1撮像手段により撮像された前記被写体存在画像を半透過の表示態様で前記表示手段に表示することを特徴としている。
表示手段を更に備え、前記合成手段により合成された前記合成画像を前記表示手段に表示することを特徴としている。
背景内に被写体が存在する被写体存在画像を撮像する第1撮像ステップと、前記被写体存在画像の撮像の際の撮像条件と同じ撮像条件で、前記背景と同一の背景内に前記被写体の存在しない前記背景画像を撮像する第2撮像ステップと、前記被写体存在画像と前記背景画像との位置合わせを行う位置合わせステップと、前記位置合わせステップにより位置合わせされた前記被写体存在画像と前記背景画像との間で対応する各画素の差分情報を生成する差分生成ステップと、前記差分生成ステップにより生成された前記差分情報に基づいて、前記被写体存在画像から被写体が含まれる被写体領域を抽出する被写体抽出ステップと、を実行させることを特徴とし、前記被写体抽出ステップは、前記差分生成ステップにより生成された前記差分情報に基づいて、所定値よりも小さい画素集合を除くことにより前記被写体存在画像から前記被写体領域を特定して抽出し、前記被写体存在画像から前記被写体領域を抽出する際に、前記背景画像の特徴量に応じて前記所定値よりも小さい画素集合を除く処理を行うか否かを決定することを特徴としている。
請求項18に記載の発明の画像処理方法は、
背景内に被写体が存在する被写体存在画像を撮像する第1撮像ステップと、前記被写体存在画像の撮像の際の撮像条件と同じ撮像条件で、前記背景と同一の背景内に前記被写体の存在しない前記背景画像を撮像する第2撮像ステップと、前記被写体存在画像と前記背景画像との位置合わせを行う位置合わせステップと、前記位置合わせステップにより位置合わせされた前記被写体存在画像と前記背景画像との間で対応する各画素の差分情報を生成する差分生成ステップと、前記差分生成ステップにより生成された前記差分情報に基づいて、前記被写体存在画像から被写体が含まれる被写体領域を抽出する被写体抽出ステップと、を実行させることを特徴とし、前記被写体抽出ステップは、前記差分生成ステップにより生成された前記差分情報に基づいて、所定値よりも小さい画素集合を除くことにより前記被写体存在画像から前記被写体領域を特定して抽出し、前記被写体存在画像から前記被写体領域を抽出する際に、手ぶれ量に応じて収縮膨張を行うことで前記被写体存在画像から前記所定値よりも小さい画素集合を除くことを特徴としている。
請求項19に記載の発明の画像処理方法は、
背景内に被写体が存在する被写体存在画像を撮像する第1撮像ステップと、前記被写体存在画像の撮像の際の撮像条件と同じ撮像条件で、前記背景と同一の背景内に前記被写体の存在しない前記背景画像を撮像する第2撮像ステップと、前記被写体存在画像と前記背景画像との位置合わせを行う位置合わせステップと、前記位置合わせステップにより位置合わせされた前記被写体存在画像と前記背景画像との間で対応する各画素の差分情報を生成する差分生成ステップと、前記差分生成ステップにより生成された前記差分情報に基づいて、前記被写体存在画像から被写体が含まれる被写体領域を抽出する被写体抽出ステップと、被写体までの距離が所定値以上である否かを判定する距離判定ステップと、を実行させることを特徴とし、前記位置合わせステップは、前記距離判定ステップにより被写体までの距離が前記所定値以上であると判定された場合には、前記所定値未満である場合に比べて簡略化された位置合わせを行うことを特徴としている。
請求項20に記載の発明の画像処理方法は、
背景内に被写体が存在する被写体存在画像を撮像する第1撮像ステップと、前記被写体存在画像の撮像の際の撮像条件と同じ撮像条件で、前記背景と同一の背景内に前記被写体の存在しない前記背景画像を撮像する第2撮像ステップと、前記被写体存在画像と前記背景画像との位置合わせを行う位置合わせステップと、前記位置合わせステップにより位置合わせされた前記被写体存在画像と前記背景画像との間で対応する各画素の差分情報を生成する差分生成ステップと、前記差分生成ステップにより生成された前記差分情報に基づいて、前記被写体存在画像から被写体が含まれる被写体領域を抽出する被写体抽出ステップと、前記第1撮像ステップによる前記被写体存在画像の撮像の際と前記第2撮像ステップによる前記背景画像の撮像の際とで当該撮像装置本体の位置が相対的に変化したか否かを判定する位置判定ステップと、を実行させることを特徴とし、前記位置判定ステップにより当該撮像装置本体の位置が相対的に変化していないと判定された場合には、前記位置合わせステップによる位置合わせを省略することを特徴としている。
請求項21に記載の発明の画像処理方法は、
背景内に被写体が存在する被写体存在画像を撮像する第1撮像ステップと、前記被写体存在画像の撮像の際の撮像条件と同じ撮像条件で、前記背景と同一の背景内に前記被写体の存在しない前記背景画像を撮像する第2撮像ステップと、前記被写体存在画像と前記背景画像との位置合わせを行う位置合わせステップと、前記位置合わせステップにより位置合わせされた前記被写体存在画像と前記背景画像との間で対応する各画素の差分情報を生成する差分生成ステップと、前記差分生成ステップにより生成された前記差分情報に基づいて、前記被写体存在画像から被写体が含まれる被写体領域を抽出する被写体抽出ステップと、前記第2撮像ステップにより撮像された背景画像の無地度が所定値以上であるか否かを判定する無地度判定ステップと、を備え、前記無地度判定ステップにより前記無地度が所定値以上であると判定された場合には、前記位置合わせステップによる位置合わせを省略することを特徴としている。
図1は、本発明を適用した一実施形態の撮像装置100の概略構成を示すブロック図である。
具体的には、図1に示すように、撮像装置100は、レンズ部1と、電子撮像部2と、撮像制御部3と、画像データ生成部4と、画像メモリ5と、特徴量演算部6と、ブロックマッチング部7と、画像処理部8と、記録媒体9と、表示制御部10と、表示部11と、操作入力部12と、ジャイロセンサ部14と、CPU13とを備えている。
また、撮像制御部3と、特徴量演算部6と、ブロックマッチング部7と、画像処理部8と、CPU13は、例えば、カスタムLSI1Aとして設計されている。
また、レンズ部1は、図示は省略するが、被写体Sの撮像の際に、ズームレンズを光軸方向に移動させるズーム駆動部、フォーカスレンズを光軸方向に移動させる合焦駆動部等を備えていても良い。
さらに、撮像制御部3は、撮像条件の調整制御として、AE(自動露出処理)やAWB(自動ホワイトバランス)等を行う。
また、撮像制御部3は、被写体存在画像P1の撮像後に、当該被写体存在画像P1の撮像の際の撮像条件を固定した状態を維持する。そして、ユーザによるシャッタボタン12aの二回目の撮像指示操作に基づいて、撮像制御部3は、レンズ部1を通過した被写体存在画像P1の背景と同一の背景内に被写体Sの存在しない背景画像P2(図7(c)参照)の光学像を、被写体存在画像P1の撮像後に固定された撮像条件で電子撮像部2により二次元の画像信号に変換させ、当該電子撮像部2の撮像領域から背景画像P2に係る画像フレームを読み出させる。
ここで、撮像レンズ部1、電子撮像部2及び撮像制御部3は、背景内に被写体Sが存在する被写体存在画像P1を所定の撮像条件で撮像する第1撮像手段、及び、被写体存在画像P1の撮像の際の所定の撮像条件と同じ撮像条件で、被写体存在画像P1の背景と同一の背景内に被写体Sの存在しない背景画像P2を撮像する第2撮像手段を構成している。
カラープロセス回路から出力される輝度信号Y及び色差信号Cb,Crは、図示しないDMAコントローラを介して、バッファメモリとして使用される画像メモリ5にDMA転送される。
ここで、特徴抽出処理とは、多数の候補ブロックから追跡に都合の良い特徴性の高いものを選択する処理である。具体的には、各候補ブロックの勾配共分散行列を求め、その行列の最小固有値や、Harrisオペレータと呼ばれる演算の結果を評価値として、評価値の高いものを絶対閾値や相対順位で選別する。これにより、追跡に不適切な平坦であったりランダム性が高かったりする領域を排除して、追跡に適切である物体や模様のコーナー(角)のような領域をテンプレートとして選択する。
位置合わせ部8aは、背景画像P2から抽出した特徴点に基づいて、被写体存在画像P1と背景画像との位置合わせを行う。即ち、位置合わせ部8aは、背景画像P2から抽出した特徴点に基づいて、背景画像P2に対する被写体存在画像P1の各画素の座標変換式を算出する座標変換式算出部8bを具備し、この座標変換式算出部8bにより算出された座標変換式に従って被写体存在画像P1を座標変換して背景画像P2と位置合わせを行う。
具体的には、座標変換式算出部8bは、ブロックマッチング部7により算出された複数のテンプレートの動きベクトルを多数決により演算して、統計的に所定%(例えば、50%)以上となると判断された動きベクトルを全体の動きベクトルとして、当該動きベクトルに係る特徴点対応を用いて被写体存在画像P1の射影変換行列を算出する。そして、位置合わせ部8aは、射影変換行列に従って被写体存在画像P1を座標変換して背景画像P2と位置合わせを行う。
ここで、座標変換式算出部8bは、背景画像P2から抽出した特徴点に基づいて、被写体存在画像P1の各画素の座標変換式を算出する座標変換式算出手段を構成している。また、位置合わせ部8aは、被写体存在画像P1と背景画像P2との位置合わせを行う位置合わせ手段を構成している。
即ち、ブロックマッチング部7は、例えば、特徴抽出処理にて抽出されたテンプレートを市松模様状に直和分割して、当該テンプレートから2つのサブテンプレートを設定する。そして、これら2つのサブテンプレートが被写体存在画像P1内のどこに対応するかを探索領域の中で座標をオフセットしながら、各々のオフセットに関して画素値の相違度を評価し、最も良くマッチすると評価されるオフセットを特定する。そして、算出された2つのサブテンプレートの評価値を合算してテンプレートの評価値を算出し、相違度の評価値が最も良かった背景画像P2と被写体存在画像P1間の2つのサブテンプレート及びテンプレートの各々の最適なオフセットをサブテンプレートのサブ動きベクトル及びテンプレートの動きベクトルとする。
その後、位置合わせ部8aは、ブロックマッチング部7により算出されたテンプレートの動きベクトルと2つのサブテンプレートの各々のサブ動きベクトルとの一致度を判定して、これらが近いと判断されれば当該特徴点対応を有効とし、近くないと判断されれば当該特徴点対応を無効として除外することで、統計的に算出される全体の動きベクトルの信頼度を向上させることができる。
差分生成部8cは、具体的には、位置合わせ部8aにより射影変換行列に従って各画素が座標変換された被写体存在画像P1のYUVデータと背景画像P2のYUVデータの各々に対してローパスフィルタを用いて高周波成分を除去した後、これら画像間で対応する各画素の相違度Dを下記式に基づいて算出して相違度マップを生成する。
相違度D=(Y - Y’)2 + { (U - U’)2 + (V - V’)2} * k
なお、上記式にあっては、背景画像P2のYUVデータを「Y」、「U」、「V」で表し、座標変換後の被写体存在画像P1のYUVデータを「Y’」、「U’」、「V’」で表す。また、kは、輝度信号Yと色差信号U、Vの配分を変更するための係数である。
ここで、差分生成部8cは、被写体存在画像P1と背景画像P2との間で対応する各画素の差分情報を生成する差分生成手段を構成している。
被写体領域抽出部8dは、具体的には、相違度マップを所定の閾値で2値化した後、背景画像P2に所定量以上の特徴がある場合には、細かいノイズや手ぶれによる相違が存在する領域を除去するための収縮処理を行って所定値よりも小さい画素集合や手ぶれによる細線画素集合を除いた後、同じ連結成分を構成する画素集合に同じ番号を付けるラベリング処理を行って一番大きな島のパターンを被写体領域として抽出する。その後、前述の収縮分を修正するための膨張処理を行った後、被写体領域内のみのラベリング処理を行うことで被写体領域ラベルに対して所定の比率より小さいラベルの画素集合を被写体領域に置き換えることで穴埋めも行う。
一方、背景画像P2に所定量以上の特徴がない場合には、被写体存在画像P1で被写体Sを適正に特定することができると考えられることから、被写体領域抽出部8dは、2値化処理後の相違度マップに対する収縮処理及び膨張処理、ラベリング処理等を行わない。
ここで、被写体領域抽出部8dは、被写体存在画像P1と背景画像P2との間で対応する各画素の差分情報に基づいて、被写体存在画像P1から被写体Sが含まれる被写体領域を抽出する被写体抽出手段を構成している。
アルファマップMとは、被写体存在画像P1の各画素について、被写体領域の画像を所定の背景に対してアルファブレンディングする際の重みをアルファ値(0≦α≦1)として表したものである。
位置情報生成部8eは、具体的には、上記の一番大きな島の部分が1、その他の部分が0である2値化された相違度マップに対してローパスフィルタを施して境界部分に中間値を生じさせることでアルファ値を作成する。この場合、被写体領域がアルファ値が1となり、被写体存在画像P1の所定の背景に対する透過度が0%となる。一方、被写体の背景部分はアルファ値が0となり、当該被写体存在画像P1の透過度が100%となる。そして、境界付近はアルファ値が0<α<1であるので、被写体存在画像P1と背景の画像は混ざり合うこととなる。
ここで、位置情報生成部8eは、被写体存在画像P1内で被写体領域の位置を特定して位置情報を生成する位置情報生成手段を構成している。
画像合成部8fは、具体的には、アルファマップMにおける1の補数(1−α)を用いて単一色背景画像P3から被写体領域を切り抜いた画像を作成して、当該被写体領域が切り抜かれた画像と、アルファマップMを用いて被写体存在画像P1から切り抜かれた被写体Sを合成して被写体切り抜き画像P4を生成する。
ここで、画像合成部8fは、位置情報に基づいて、所定の背景と被写体領域の画像を合成した被写体切り抜き画像P4を生成する合成手段を構成している。
具体的には、表示制御部10は、VRAM、VRAMコントローラ、デジタルビデオエンコーダなどを備えている。そして、デジタルビデオエンコーダは、CPU13の制御下にて画像メモリ5から読み出されてVRAM(図示略)に記憶されている輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから定期的に読み出して、これらのデータを元にビデオ信号を発生して表示部11に出力する。
また、表示部11は、撮像モードとして被写体切り抜きモード(後述)が設定されている場合であって背景画像P2の撮像の際に、ライブビュー画像に重畳させて、被写体存在画像P1の半透過の表示態様の画像とともに、背景画像P2の撮像指示メッセージ(例えば、「被写体のない背景画像を半透過の画像と重なるように撮影して下さい」(図7(c)参照)等)を表示する。
ここで、被写体存在画像の半透過の表示態様とは、被写体存在画像が透明と不透明の中間で表示された状態であり、当該被写体存在画像に重畳して後側に表示されるライブビュー画像の輪郭や色彩や明暗などを透過する程度の表示態様のことである。
ここで、表示部11は、画像合成部8fにより生成された被写体切り抜き画像P4を表示する表示手段を構成している。
また、記録媒体9は、記憶手段として、画像処理部8の位置情報生成部8eにより生成されたアルファマップMと、被写体切り抜き画像P4の画像データをそれぞれ圧縮した上で対応付けて、当該被写体切り抜き画像P4の画像データの拡張子を「.jpe」として保存する。ここで、アルファマップMは、例えば、階調が8bit程度のデータであり、同じ値が続く領域が多いので圧縮効率が高く、被写体切り抜き画像P4の画像データに比べて少ない容量で保存することができる。
ここで、ジャイロセンサ部14及びCPU13は、被写体存在画像P1の撮像の際と背景画像P2の撮像の際とで当該撮像装置100本体の位置が相対的に変化したか否かを判定する位置判定手段を構成している。
図2及び図3は、被写体切り抜き処理に係る動作の一例を示すフローチャートである。また、図4(a)及び図4(b)は、射影変換の画像変換モデルの一例を示す図であり、このうち、図4(a)は、相似変換モデルの一例を示す図であり、図4(b)は、合同変換モデルの一例を示す図である。また、図5は、被写体切り抜き処理における被写体抽出処理に係る動作の一例を示すフローチャートである。また、図6は、被写体切り抜き処理における被写体切り抜き画像生成処理に係る動作の一例を示すフローチャートである。また、図7(a)〜図7(c)並びに図8(a)〜図8(c)は、被写体切り抜き処理を説明するための画像の一例を模式的に示す図である。
図2に示すように、先ず、CPU13は、表示制御部10に、撮像レンズ部1、電子撮像部2及び撮像制御部3による被写体Sの撮像により生成された複数の画像フレームに基づいてライブビュー画像を表示部11の表示画面に表示させるとともに、当該ライブビュー画像に重畳させて、被写体存在画像P1の撮像指示メッセージ(例えば、「切り抜きたい被写体を撮影して下さい」等)を表示部11の表示画面に表示させる(ステップS1;図7(a)参照)。
その後、ユーザによる操作入力部12のシャッタボタン12aが撮像指示操作(全押し操作)されたタイミングで、CPU13は、被写体存在画像P1の光学像を所定の撮像条件で電子撮像部2により撮像させる(ステップS3)。また、このとき、被写体存在画像P1の撮像直前に、CPU13は、不動状態判定の初期化関数を呼んで、ジャイロセンサ部14からのジャイロデータの取得を開始する。具体的には、CPU13は、フレーム同期信号ごとに不動状態判定モニタタスクを呼び出し、その都度ジャイロセンサ部14から出力されたジャイロデータを取得し、撮像装置100の不動状態を継続してモニタする。
また、CPU13は、被写体存在画像P1の撮像後、撮像制御部3を制御して、当該被写体存在画像P1の撮像の際の合焦位置や露出条件やホワイトバランス等の撮像条件を固定した状態を維持させる(ステップS5)。
続けて、CPU13は、被写体存在画像P1の撮像から背景画像P2の撮像まで撮像装置100の不動状態が継続していたか否かの判定情報を不動状態判定モニタタスクより取得する(ステップS8)。
その後、CPU13は、画像データ生成部4に、電子撮像部2から転送された背景画像P2の画像フレームに基づいて、背景画像P2のYUVデータ(図8(a)参照)を生成させて、当該YUVデータを画像メモリ5に一時記憶させる(ステップS9)。
ここで、被写体距離が1m未満であると判定されると(ステップS10;YES)、CPU13は、射影変換の画像変形モデルとして相似変換(拡大縮小、回転、水平平行移動、垂直平行移動の自由度(パラメータ数が4つ)の変形に係る相似変換モデル(図4(a)参照)を指定する(ステップS11)。被写体距離が1m未満である場合に、射影変換に相似変換モデルを用いるのは、例えば、典型的な一例として、1回目の被写体存在画像P1の撮像後に、ユーザ自身が被写体を画角に入れないように移動させる行為を行う場合、撮像装置100が大きく移動して、特に前後方向については、半透過の画像を参照しても同じ位置に戻すのは困難な場合が多いからである。
一方、被写体距離が1m未満ではないと判定されると(ステップS10;NO)、CPU13は、射影変換の画像変形モデルとして合同変換(回転(回転角度は0〜2°程度を想定し、cosθ=1に近似する)、水平平行移動、垂直平行移動の自由度(パラメータ数が3つ)の変形)に係る合同変換モデル(図4(b)参照)を指定する(ステップS12)。被写体距離が1m未満ではない場合に、射影変換に合同変換モデルを用いるのは、被写体距離が遠い場合、撮像装置100の前後の動きによる撮像への影響がほとんどないためであり、不必要な自由度を与えないことにより、ノイズや被写体の影響による信頼性の低い動きベクトルの影響を排除し、より精度の高い位置合わせ変換行列を得ることが可能だからである。
具体的には、特徴量演算部6は、背景画像P2のYUVデータに基づいて、所定数(或いは、所定数以上)の特徴の高いブロック領域(特徴点)を選択して、当該ブロックの内容をテンプレートとして抽出する。そして、ブロックマッチング部7は、特徴抽出処理にて抽出されたテンプレートの画素値が最適にマッチする位置を被写体存在画像P1内にて探索して、画素値の相違度の評価値が最も良かった背景画像P2と被写体存在画像P1間の最適なオフセットを当該テンプレートの動きベクトルとして算出する。そして、画像処理部8の座標変換式算出部8bは、ブロックマッチング部7により算出された複数のテンプレートの動きベクトルに基づいて全体の動きベクトルを統計的に算出し、当該動きベクトルに係る特徴点対応を用いて被写体存在画像P1の射影変換行列を算出する。
ここで、射影変換行列の算出が成功したと判定されると(ステップS14;YES)、CPU13は、画像処理部8の位置合わせ部8aに、算出された射影変換行例に基づいて被写体存在画像P1を射影変換することで、被写体存在画像P1のYUVデータと背景画像P2のYUVデータとを位置合わせする処理を行わせる(ステップS15)。
ここで、不動状態が継続していたと判定されると(ステップS16;YES)、例えば、撮像装置100が三脚に固定された状態で被写体存在画像P1及び背景画像P2の撮像が行われ、被写体存在画像P1の撮像から背景画像P2の撮像まで不動状態が継続していた場合には、CPU13は、背景の位置がほとんど変わっていないと認識し、画像処理部8の位置合わせ部8aによる位置合わせのための射影変換処理を省略する。
ここで、背景が無地であると判定されると(ステップS17;YES)、画像処理部8の位置合わせ部8aによる位置合わせのための射影変換処理を省略する。即ち、例えば、背景がのっぺりとしていて模様が何もない場合、位置合わせは困難になるが、位置ずれしても被写体領域抽出には影響が小さいため、被写体存在画像P1と背景画像P2とを位置合わせする処理を省略しても問題が無い。つまり、例えば、背景に模様がある場合、位置ずれしてしまうと位置ずれ箇所が差分となって現れ、被写体領域との判別が困難になるが、背景に模様がない場合、位置ずれしても背景箇所は無地のパターン同士の比較になるため、差分値となって現れないためである。
図5に示すように、画像処理部8の差分生成部8cは、被写体領域の抽出用に、被写体存在画像P1のYUVデータと背景画像P2のYUVデータの各々に対してローパスフィルタをかけて各画像の高周波成分を除去する(ステップS211)。その後、差分生成部8cは、ローパスフィルタをかけた被写体存在画像P1と背景画像P2との間で対応する各画素について相違度Dを下記式に基づいて算出して相違度マップを生成する(ステップS212)。
相違度D=(Y - Y’)2 + { (U - U’)2 + (V - V’)2} * k
ここで、背景画像P2に所定量以上の特徴があると判定されると(ステップS214;YES)、被写体領域抽出部8dは、収縮処理における収縮量を所定値又は被写体存在画像P1の射影変換行列に基づいて算出する(ステップS215)。この際、もともとの画像ノイズだけではなく、手ぶれによって相違領域が生じることもある。その場合は手ぶれ量に応じて収縮量を変化させる、即ち、ジャイロセンサ部14の出力が大きければ収縮量を大きく、ジャイロセンサ部14の出力が小さければ収縮量を小さく調整する。
そして、被写体領域抽出部8dは、算出した収縮量に従って、相違度マップから細かいノイズや手ぶれにより相違が生じた領域を除去するために収縮処理を行う(ステップS216)。
このように、相違度マップの収縮膨張を手ぶれ量を考慮して行うことができ、相違度マップから手ぶれにより相違が生じた領域を適正に除去することができる。
次に、被写体領域抽出部8dは、収縮分を修正するための膨張処理を行う(ステップS219)。
その後、被写体領域抽出部8dは、被写体領域内のみのラベリング処理を行って、被写体領域の構成画素数における所定比率以下の領域を有効領域に置き換える(ステップS220)。
これにより、被写体抽出処理を終了する。
その後、CPU13は、画像処理部8に、被写体Sの画像を所定の単一色背景画像P3と合成した被写体切り抜き画像P4を生成する被写体切り抜き画像生成処理を行わせる(ステップS21)。
図6に示すように、画像処理部8の画像合成部8fは、被写体存在画像P1、単一色背景画像P3及びアルファマップMを読み出して画像メモリ5に展開する(ステップS231)。
ここで、全ての画素について処理していないと判定されると(ステップS236;NO)、画像合成部8fは、処理対象を次の画素に移動させて(ステップS237)、処理をステップS233に移行させる。
上記の処理を、ステップS236にて全ての画素について処理したと判定されるまで(ステップS236;YES)、繰り返すことで、画像合成部8fは、被写体Sの画像を所定の単一色背景画像P3と合成した被写体切り抜き画像P4の画像データを生成させる。
これにより、被写体切り抜き画像生成処理を終了する。
これにより、被写体切り抜き処理を終了する。
図9は、被写体合成画像生成処理に係る動作の一例を示すフローチャートである。
被写体合成画像生成処理は、CPU13が、画像処理部8の画像合成部8fに、背景用画像(図示略)と被写体切り抜き画像を合成して被写体合成画像を生成させる処理である。
続けて、画像合成部8fは、画像メモリ5に展開した当該背景用画像と当該被写体切り抜き画像を用いて、画像合成処理を行う(ステップS35)。
図10は、画像合成処理に係る動作の一例を示すフローチャートである。
図10に示すように、画像合成部8fは、「.jpe」で保存されているアルファマップMを読み出して画像メモリ5に展開する(ステップS351)。
ここで、全ての画素について処理していないと判定されると(ステップS356;NO)、画像合成部8fは、処理対象を次の画素に移動させて(ステップS357)、処理をステップS353に移行させる。
上記の処理を、ステップS356にて全ての画素について処理したと判定されるまで(ステップS356;YES)、繰り返すことで、画像合成部8fは、被写体切り抜き画像P4と背景用画像とを合成した被写体合成画像の画像データを生成させる。
これにより、画像合成処理を終了する。
従って、背景画像P2の撮像を被写体存在画像P1の撮像の際の所定の撮像条件と同一の撮像条件で行うことで、被写体存在画像P1と同一の撮像条件で撮像された背景画像P2を取得することができ、被写体画像P1と背景画像P2とで背景部分の明るさや色合いをほぼ等しくさせるとともに、背景画像P2のボケ具合や当該画像全体に対する大きさをほぼ等しくさせて、被写体存在画像P1からの被写体領域の抽出の精度を向上させることができる。また、固定された撮像条件は被写体存在画像P1の撮像の際のものなので、背景画像P2に撮像条件を合わせた場合と比較するならば、切り出された被写体はより適切な画像となる。
即ち、背景画像P2から抽出した特徴点に基づいて、被写体存在画像P1の各画素の射影変換行列を算出して、当該射影変換行列に従って各画素が射影変換された被写体存在画像P1と背景画像P2との間で対応する各画素の相違度マップを生成することができる。特徴点の抽出を背景画像P2から行うことで、被写体S上の特徴点を選ぶことが避けられ、これら2枚の画像で明らかに異なる画像部分に基づいた座標変換を行うことが避けられ、精度の高い座標変換を行うことができるので、被写体存在画像P1と背景画像P2との間の各画素の対応付けを適正に行うことができ、被写体領域の抽出をより適正に行うことができる。
このとき、背景画像P2に所定量以上の特徴があるか否かに応じて、2値化処理後の相違度マップに対する収縮処理及び膨張処理、ラベリング処理を行うか否かを決定するので、背景画像P2に所定量以上の特徴がない場合には、被写体存在画像P1で被写体Sを適正に特定することができると考えられることから、収縮処理や膨張処理等を行う必要はなく、被写体抽出処理の高速化を図ることができる。
そして、当該アルファマップMに基づいて、所定の単一色背景画像P3と被写体領域の画像を合成した被写体切り抜き画像P4を生成し、当該被写体切り抜き画像P4を表示部11の表示画面に表示させるので、ユーザは切り抜かれた被写体Sを確認することができ、当該被写体Sの切り抜きが適正に行われたか否かを把握することができる。即ち、被写体存在画像P1から被写体Sのみを切り出して全く異なる単一色背景画像P3を背景として被写体切り抜き画像P4を合成すると、既に撮り貯めた写真に対して変化を与えて楽しむことができ、その際に、被写体切り抜き画像P4を表示部11の表示画面に表示することで、被写体Sの切り抜きが適正に行われたか否かを把握することができる。
このとき、被写体切り抜き画像P4は、アルファマップMに基づいて、背景領域と被写体領域の境界付近が単一色背景画像の単一色とブレンドして作成されるので、被写体Sの切り抜き境界部分が単一色と適度に混ざり合った自然な画像にすることができる。
即ち、既に撮り貯めた画像に対して被写体切り抜き画像P4を合成する場合に、記録媒体9に背景内に被写体Sが存在する被写体存在画像P1と、背景内に被写体Sが存在しない背景画像P2を2つ保存しておくと、合成のたびに被写体Sの切り抜きを行わなければならず切り抜き処理の時間がかかってしまうといった問題がある。さらに、切り出した被写体Sの品質が予め分からないといった問題もある。
しかしながら、被写体切抜き画像P4を、当該アルファマップMと対応付けて一ファイルで保存しておくことで、所定の背景用画像を背景として切り抜き合成を行う場合であっても、そのたびに被写体領域の特定を行わなくて済み、処理時間の短縮化を図ることができる。さらに、被写体切抜き画像P4を、被写体領域が抽出された被写体存在画像P1とは別の異なるファイルとして保存されているので、合成前に被写体切り抜き画像P4や被写体存在画像P1を表示部11の表示画面に表示して、切り抜かれた被写体Sの品質の確認を行うことができる。これにより、被写体切り抜き合成の利便性を上げることができる。
例えば、上記実施形態にあっては、被写体切り抜き処理(図2及び図3参照)にて、被写体距離の判定(ステップS10)、不動状態の判定(ステップS16)、背景の無地判定(ステップS17)をこの順に行うようにしたが、これらの判定処理の順序はこれに限られるものではない。
即ち、図11及び図12に示すように、背景の無地判定(ステップS101)を先に行なった後、不動状態の判定(ステップS102)を行って、最後に被写体距離の判定(ステップS103)を行うようにしても良い。
具体的には、図11に示すように、背景画像P2のYUVデータ(図8(a)参照)を画像メモリ5に一時記憶した後(ステップS9)、CPU13は、特徴量演算部6に、背景画像P2の画像データに基づいて、背景が無地であるか否かを判定させる(ステップS101)。
ここで、背景が無地であると判定されると(ステップS101;YES)、画像処理部8の位置合わせ部8aによる位置合わせのための射影変換処理を省略し、図12に示すように、CPU13は、画像処理部8に、被写体存在画像P1から被写体Sが含まれる被写体領域を抽出する被写体抽出処理を行わせる(ステップS19)。
ここで、不動状態が継続していたと判定されると(ステップS102;YES)、画像処理部8の位置合わせ部8aによる位置合わせのための射影変換処理を省略し、CPU13は、処理をステップS19に移行させる。
ここで、被写体距離が1m未満であると判定されると(ステップS103;YES)、CPU13は、射影変換の画像変形モデルとして相似変換モデル(図4(a)参照)を指定する(ステップS104)。一方、被写体距離が1m未満ではないと判定されると(ステップS103;NO)、CPU13は、射影変換の画像変形モデルとして合同変換モデル(図4(b)参照)を指定する(ステップS105)。
その後、CPU13は、画像処理部8に、射影変換行列の算出が成功したか否かを判定させる(ステップS107)。ここで、射影変換行列の算出が成功したと判定されると(ステップS107;YES)、CPU13は、画像処理部8の位置合わせ部8aに、算出された射影変換行例に基づいて被写体存在画像P1を射影変換することで、被写体存在画像P1のYUVデータと背景画像P2のYUVデータとを位置合わせする処理を行わせる(ステップS108)。
続けて、CPU13は、処理をステップS19に移行させる。
なお、背景の無地判定よりも先に撮像装置100の不動状態の判定を行っても良く、不動状態が継続していたと判定された場合にも同様に、被写体存在画像P1を射影変換する必要がなくなり、被写体切り抜き処理をより高速に行うことができる。
また、上記実施形態では、撮像装置100が不動状態であるか否かの判定を、ジャイロセンサ部14から出力されたジャイロデータに基づいて行うようにしたが、これに限られるものではなく、例えば、撮像装置100の三脚固定部(図示略)に三脚が固定されているか否かに応じて行うようにしても良い。即ち、被写体存在画像P1と背景画像P2の撮像の際に、三脚固定部(図示略)に三脚が固定されている場合には、撮像装置100の不動状態が継続していたと判定し、三脚固定部(図示略)に三脚が固定されていない場合には、不動状態が継続していなかったと判定するようにしても良い。
なお、無地度は、各ブロック内における画素の各色成分の標準偏差や分散によりばらつきを測定することで算出してもよいし、近接画素間の各色成分の差の絶対値または二乗値の合計で算出してもよい。また、無地度の算出に、画素の色情報を含まないグレースケールを用いてもよく、前述と同様に、画素の値の標準偏差や分散によりばらつきを測定してもよいし、近接画素間の値の差の絶対値または二乗値の合計で算出してもよい。さらに、画像上のノイズ量が予測または定義できる場合は、あらかじめその値以下は無視する事でノイズ影響を排除してもよい。
即ち、上記実施形態における被写体抽出処理は一例であって、被写体存在画像P1からの被写体Sの抽出を適正に行うことができる限り、処理内容は適宜任意に変更することができる。
即ち、例えば、電子撮像部2をCMOSイメージセンサから構成した場合には、各画素が電荷の蓄積を開始するタイミングが異なることにより高速に移動する被写体を撮像するとフォーカルプレーンひずみが発生してしまう虞があるため、これを防止するために、シャッタ制御部(図示略)により駆動制御されるメカニカルシャッタ(図示略)を搭載して露出時間を制御するようにしても良い。
即ち、プログラムを記憶するプログラムメモリ(図示略)に、第1撮像制御処理ルーチン、第2撮像制御処理ルーチン、位置合わせ処理ルーチン、差分生成処理ルーチン、被写体抽出処理ルーチン、座標変換式算出処理ルーチン、位置情報生成処理ルーチン、合成処理ルーチンを含むプログラムを記憶しておく。そして、第1撮像制御処理ルーチンによりCPU13を、背景内に被写体Sが存在する被写体存在画像P1を撮像手段に撮像させる第1撮像制御手段として機能させるようにしても良い。また、第2撮像制御処理ルーチンによりCPU13を、被写体存在画像P1の撮像の際の撮像条件と同じ撮像条件で、背景と同一の背景内に被写体Sの存在しない背景画像P2を撮像させる第2撮像制御手段として機能させるようにしても良い。また、位置合わせ処理ルーチンによりCPU13を、写体存在画像P1と背景画像P2との位置合わせを行う位置合わせ手段として機能させるようにしても良い。また、差分生成処理ルーチンによりCPU13を、被写体存在画像P1と背景画像P2との間で対応する各画素の差分情報を生成させる差分生成手段として機能させるようにしても良い。また、被写体抽出処理ルーチンによりCPU13を、生成された差分情報に基づいて、被写体存在画像P1から被写体Sが含まれる被写体領域を抽出する被写体抽出手段として機能させるようにしても良い。また、座標変換式算出処理ルーチンによりCPU13を、背景画像P2から抽出した特徴点に基づいて、前記被写体存在画像P1の各画素の座標変換式を算出する座標変換式算出手段として機能させるようにしても良い。また、位置情報生成処理ルーチンによりCPU13を、被写体存在画像P1内で抽出された被写体領域の位置を特定して位置情報を生成する位置情報生成手段として機能させるようにしても良い。また、合成処理ルーチンによりCPU13を、生成された位置情報に基づいて、所定の背景と被写体領域の画像を合成した被写体切り抜き画像P4を生成する合成手段として機能させるようにしても良い。
1 レンズ部
2 電子撮像部
3 撮像制御部
6 特徴量演算部
7 ブロックマッチング部
8 画像処理部
8a 位置合わせ部
8b 座標変換式算出部
8c 差分生成部
8d 被写体領域抽出部
8e 位置情報生成部
8f 画像合成部
11 表示部
13 CPU
14 ジャイロセンサ部
Claims (21)
- 背景内に被写体が存在する被写体存在画像を撮像する第1撮像手段と、
前記被写体存在画像の撮像の際の撮像条件と同じ撮像条件で、前記背景と同一の背景内に前記被写体の存在しない前記背景画像を撮像する第2撮像手段と、
前記被写体存在画像と前記背景画像との位置合わせを行う位置合わせ手段と、
前記位置合わせ手段により位置合わせされた前記被写体存在画像と前記背景画像との間で対応する各画素の差分情報を生成する差分生成手段と、
前記差分生成手段により生成された前記差分情報に基づいて、前記被写体存在画像から被写体が含まれる被写体領域を抽出する被写体抽出手段と、
を備え、
前記被写体抽出手段は、
前記差分生成手段により生成された前記差分情報に基づいて、所定値よりも小さい画素集合を除くことにより前記被写体存在画像から前記被写体領域を特定して抽出し、
前記被写体存在画像から前記被写体領域を抽出する際に、前記背景画像の特徴量に応じて前記所定値よりも小さい画素集合を除く処理を行うか否かを決定することを特徴とする撮像装置。 - 背景内に被写体が存在する被写体存在画像を撮像する第1撮像手段と、
前記被写体存在画像の撮像の際の撮像条件と同じ撮像条件で、前記背景と同一の背景内に前記被写体の存在しない前記背景画像を撮像する第2撮像手段と、
前記被写体存在画像と前記背景画像との位置合わせを行う位置合わせ手段と、
前記位置合わせ手段により位置合わせされた前記被写体存在画像と前記背景画像との間で対応する各画素の差分情報を生成する差分生成手段と、
前記差分生成手段により生成された前記差分情報に基づいて、前記被写体存在画像から被写体が含まれる被写体領域を抽出する被写体抽出手段と、
を備え、
前記被写体抽出手段は、
前記差分生成手段により生成された前記差分情報に基づいて、所定値よりも小さい画素集合を除くことにより前記被写体存在画像から前記被写体領域を特定して抽出し、前記被写体存在画像から前記被写体領域を抽出する際に、手ぶれ量に応じて収縮膨張を行うことで前記被写体存在画像から前記所定値よりも小さい画素集合を除くことを特徴とする撮像装置。 - 背景内に被写体が存在する被写体存在画像を撮像する第1撮像手段と、
前記被写体存在画像の撮像の際の撮像条件と同じ撮像条件で、前記背景と同一の背景内に前記被写体の存在しない前記背景画像を撮像する第2撮像手段と、
前記被写体存在画像と前記背景画像との位置合わせを行う位置合わせ手段と、
前記位置合わせ手段により位置合わせされた前記被写体存在画像と前記背景画像との間で対応する各画素の差分情報を生成する差分生成手段と、
前記差分生成手段により生成された前記差分情報に基づいて、前記被写体存在画像から被写体が含まれる被写体領域を抽出する被写体抽出手段と、
被写体までの距離が所定値以上である否かを判定する距離判定手段と、
を備え、
前記位置合わせ手段は、
前記距離判定手段により被写体までの距離が前記所定値以上であると判定された場合には、前記所定値未満である場合に比べて簡略化された位置合わせを行うことを特徴とする撮像装置。 - 背景内に被写体が存在する被写体存在画像を撮像する第1撮像手段と、
前記被写体存在画像の撮像の際の撮像条件と同じ撮像条件で、前記背景と同一の背景内に前記被写体の存在しない前記背景画像を撮像する第2撮像手段と、
前記被写体存在画像と前記背景画像との位置合わせを行う位置合わせ手段と、
前記位置合わせ手段により位置合わせされた前記被写体存在画像と前記背景画像との間で対応する各画素の差分情報を生成する差分生成手段と、
前記差分生成手段により生成された前記差分情報に基づいて、前記被写体存在画像から被写体が含まれる被写体領域を抽出する被写体抽出手段と、
前記第1撮像手段による前記被写体存在画像の撮像の際と前記第2撮像手段による前記背景画像の撮像の際とで当該撮像装置本体の位置が相対的に変化したか否かを判定する位置判定手段と、
を備え、
前記位置判定手段により当該撮像装置本体の位置が相対的に変化していないと判定された場合には、前記位置合わせ手段による位置合わせを省略することを特徴とする撮像装置。 - 背景内に被写体が存在する被写体存在画像を撮像する第1撮像手段と、
前記被写体存在画像の撮像の際の撮像条件と同じ撮像条件で、前記背景と同一の背景内に前記被写体の存在しない前記背景画像を撮像する第2撮像手段と、
前記被写体存在画像と前記背景画像との位置合わせを行う位置合わせ手段と、
前記位置合わせ手段により位置合わせされた前記被写体存在画像と前記背景画像との間で対応する各画素の差分情報を生成する差分生成手段と、
前記差分生成手段により生成された前記差分情報に基づいて、前記被写体存在画像から被写体が含まれる被写体領域を抽出する被写体抽出手段と、
前記第2撮像手段により撮像された背景画像の無地度が所定値以上であるか否かを判定する無地度判定手段と、
を備え、
前記無地度判定手段により前記無地度が所定値以上であると判定された場合には、前記位置合わせ手段による位置合わせを省略することを特徴とする撮像装置。 - 前記背景画像から抽出した特徴点に基づいて、前記被写体存在画像の各画素の座標変換式を算出する座標変換式算出手段を更に備え、
前記差分生成手段は、
前記座標変換式算出手段により算出された前記座標変換式に従って各画素が座標変換された被写体存在画像と前記背景画像との間で対応する各画素の差分情報を生成することを特徴とする請求項1〜5の何れか一項に記載の撮像装置。 - 前記被写体抽出手段は、
抽出された被写体領域内で、当該被写体領域の構成画素数における所定比率以下の領域を被写体を構成する有効領域とみなすことを特徴とする請求項1〜6の何れか一項に記載の撮像装置。 - 前記被写体存在画像内で前記被写体抽出手段により抽出された前記被写体領域の位置を特定して位置情報を生成する位置情報生成手段
を更に備えることを特徴とする請求項1〜7の何れか一項に記載の撮像装置。 - 前記被写体存在画像と前記位置情報とを対応付けて記憶する記憶手段
を更に備えることを特徴とする請求項8に記載の撮像装置。 - 前記被写体抽出手段により抽出された被写体領域に係る被写体領域情報に基づいて、所定の背景と前記被写体領域の画像を合成した合成画像を生成する合成手段
を更に備えることを特徴とする請求項1〜7の何れか一項に記載の撮像装置。 - 前記被写体抽出手段により抽出された被写体領域に係る被写体領域情報に基づいて、所定の背景と前記被写体領域の画像を合成した合成画像を生成する合成手段を更に備え、
前記合成手段は、前記位置情報生成手段により生成された前記位置情報に基づいて、前記合成画像を生成することを特徴とする請求項8に記載の撮像装置。 - 前記合成手段は、
前記合成画像として、所定の単一色背景と前記被写体領域の画像を合成した被写体切り抜き画像を生成することを特徴とする請求項11に記載の撮像装置。 - 前記合成手段は、
前記合成画像として、所定の背景と前記被写体切り抜き画像を合成した被写体合成画像を生成することを特徴とする請求項12に記載の撮像装置。 - 前記合成画像と前記位置情報とを対応付けて記憶する記憶手段
を更に備えることを特徴とする請求項11〜13の何れか一項に記載の撮像装置。 - 表示手段を更に備え、
前記第2撮像手段による前記背景画像の撮像の際に、前記第1撮像手段により撮像された前記被写体存在画像を半透過の表示態様で前記表示手段に表示することを特徴とする請求項1〜14の何れか一項に記載の撮像装置。 - 表示手段を更に備え、
前記合成手段により合成された前記合成画像を前記表示手段に表示することを特徴とする請求項10〜13の何れか一項に記載の撮像装置。 - 背景内に被写体が存在する被写体存在画像を撮像する第1撮像ステップと、
前記被写体存在画像の撮像の際の撮像条件と同じ撮像条件で、前記背景と同一の背景内に前記被写体の存在しない前記背景画像を撮像する第2撮像ステップと、
前記被写体存在画像と前記背景画像との位置合わせを行う位置合わせステップと、
前記位置合わせステップにより位置合わせされた前記被写体存在画像と前記背景画像との間で対応する各画素の差分情報を生成する差分生成ステップと、
前記差分生成ステップにより生成された前記差分情報に基づいて、前記被写体存在画像から被写体が含まれる被写体領域を抽出する被写体抽出ステップと、
を実行させることを特徴とし、
前記被写体抽出ステップは、
前記差分生成ステップにより生成された前記差分情報に基づいて、所定値よりも小さい画素集合を除くことにより前記被写体存在画像から前記被写体領域を特定して抽出し、
前記被写体存在画像から前記被写体領域を抽出する際に、前記背景画像の特徴量に応じて前記所定値よりも小さい画素集合を除く処理を行うか否かを決定することを特徴とする撮像装置の画像処理方法。 - 背景内に被写体が存在する被写体存在画像を撮像する第1撮像ステップと、
前記被写体存在画像の撮像の際の撮像条件と同じ撮像条件で、前記背景と同一の背景内に前記被写体の存在しない前記背景画像を撮像する第2撮像ステップと、
前記被写体存在画像と前記背景画像との位置合わせを行う位置合わせステップと、
前記位置合わせステップにより位置合わせされた前記被写体存在画像と前記背景画像との間で対応する各画素の差分情報を生成する差分生成ステップと、
前記差分生成ステップにより生成された前記差分情報に基づいて、前記被写体存在画像から被写体が含まれる被写体領域を抽出する被写体抽出ステップと、
を実行させることを特徴とし、
前記被写体抽出ステップは、
前記差分生成ステップにより生成された前記差分情報に基づいて、所定値よりも小さい画素集合を除くことにより前記被写体存在画像から前記被写体領域を特定して抽出し、前記被写体存在画像から前記被写体領域を抽出する際に、手ぶれ量に応じて収縮膨張を行うことで前記被写体存在画像から前記所定値よりも小さい画素集合を除くことを特徴とする撮像装置の画像処理方法。 - 背景内に被写体が存在する被写体存在画像を撮像する第1撮像ステップと、
前記被写体存在画像の撮像の際の撮像条件と同じ撮像条件で、前記背景と同一の背景内に前記被写体の存在しない前記背景画像を撮像する第2撮像ステップと、
前記被写体存在画像と前記背景画像との位置合わせを行う位置合わせステップと、
前記位置合わせステップにより位置合わせされた前記被写体存在画像と前記背景画像との間で対応する各画素の差分情報を生成する差分生成ステップと、
前記差分生成ステップにより生成された前記差分情報に基づいて、前記被写体存在画像から被写体が含まれる被写体領域を抽出する被写体抽出ステップと、
被写体までの距離が所定値以上である否かを判定する距離判定ステップと、
を実行させることを特徴とし、
前記位置合わせステップは、
前記距離判定ステップにより被写体までの距離が前記所定値以上であると判定された場合には、前記所定値未満である場合に比べて簡略化された位置合わせを行うことを特徴とする撮像装置の画像処理方法。 - 背景内に被写体が存在する被写体存在画像を撮像する第1撮像ステップと、
前記被写体存在画像の撮像の際の撮像条件と同じ撮像条件で、前記背景と同一の背景内に前記被写体の存在しない前記背景画像を撮像する第2撮像ステップと、
前記被写体存在画像と前記背景画像との位置合わせを行う位置合わせステップと、
前記位置合わせステップにより位置合わせされた前記被写体存在画像と前記背景画像との間で対応する各画素の差分情報を生成する差分生成ステップと、
前記差分生成ステップにより生成された前記差分情報に基づいて、前記被写体存在画像から被写体が含まれる被写体領域を抽出する被写体抽出ステップと、
前記第1撮像ステップによる前記被写体存在画像の撮像の際と前記第2撮像ステップによる前記背景画像の撮像の際とで当該撮像装置本体の位置が相対的に変化したか否かを判定する位置判定ステップと、
を実行させることを特徴とし、
前記位置判定ステップにより当該撮像装置本体の位置が相対的に変化していないと判定された場合には、前記位置合わせステップによる位置合わせを省略することを特徴とする撮像装置の画像処理方法。 - 背景内に被写体が存在する被写体存在画像を撮像する第1撮像ステップと、
前記被写体存在画像の撮像の際の撮像条件と同じ撮像条件で、前記背景と同一の背景内に前記被写体の存在しない前記背景画像を撮像する第2撮像ステップと、
前記被写体存在画像と前記背景画像との位置合わせを行う位置合わせステップと、
前記位置合わせステップにより位置合わせされた前記被写体存在画像と前記背景画像との間で対応する各画素の差分情報を生成する差分生成ステップと、
前記差分生成ステップにより生成された前記差分情報に基づいて、前記被写体存在画像から被写体が含まれる被写体領域を抽出する被写体抽出ステップと、
前記第2撮像ステップにより撮像された背景画像の無地度が所定値以上であるか否かを判定する無地度判定ステップと、
を備え、
前記無地度判定ステップにより前記無地度が所定値以上であると判定された場合には、前記位置合わせステップによる位置合わせを省略することを特徴とする撮像装置の画像処理方法。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009278378A JP4760973B2 (ja) | 2008-12-16 | 2009-12-08 | 撮像装置及び画像処理方法 |
KR1020090121554A KR101156991B1 (ko) | 2008-12-16 | 2009-12-09 | 촬상 장치, 화상 처리 방법 및 기록 매체 |
US12/636,997 US20100149210A1 (en) | 2008-12-16 | 2009-12-14 | Image capturing apparatus having subject cut-out function |
EP09179218.4A EP2199978B1 (en) | 2008-12-16 | 2009-12-15 | Image capturing apparatus having subject cut-out function |
TW098142814A TWI414178B (zh) | 2008-12-16 | 2009-12-15 | 攝像裝置、影像處理方法及記錄媒體 |
CN200910253478A CN101764934A (zh) | 2008-12-16 | 2009-12-16 | 摄像装置及图像处理方法 |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008319633 | 2008-12-16 | ||
JP2008319633 | 2008-12-16 | ||
JP2009001484 | 2009-01-07 | ||
JP2009001484 | 2009-01-07 | ||
JP2009278378A JP4760973B2 (ja) | 2008-12-16 | 2009-12-08 | 撮像装置及び画像処理方法 |
Related Child Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010285244A Division JP2011072034A (ja) | 2008-12-16 | 2010-12-22 | 撮像装置、画像処理方法及びプログラム |
JP2010285245A Division JP4803319B2 (ja) | 2008-12-16 | 2010-12-22 | 撮像装置、画像処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010183560A JP2010183560A (ja) | 2010-08-19 |
JP4760973B2 true JP4760973B2 (ja) | 2011-08-31 |
Family
ID=42077660
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009278378A Active JP4760973B2 (ja) | 2008-12-16 | 2009-12-08 | 撮像装置及び画像処理方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20100149210A1 (ja) |
EP (1) | EP2199978B1 (ja) |
JP (1) | JP4760973B2 (ja) |
KR (1) | KR101156991B1 (ja) |
CN (1) | CN101764934A (ja) |
TW (1) | TWI414178B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9270883B2 (en) | 2012-11-30 | 2016-02-23 | Canon Kabushiki Kaisha | Image processing apparatus, image pickup apparatus, image pickup system, image processing method, and non-transitory computer-readable storage medium |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5322416B2 (ja) * | 2007-09-12 | 2013-10-23 | 株式会社メガチップス | ブロックマッチング回路及びデータ更新方法 |
JP2010226558A (ja) | 2009-03-25 | 2010-10-07 | Sony Corp | 画像処理装置、画像処理方法、及び、プログラム |
US8830300B2 (en) * | 2010-03-11 | 2014-09-09 | Dolby Laboratories Licensing Corporation | Multiscalar stereo video format conversion |
JP5565227B2 (ja) * | 2010-09-13 | 2014-08-06 | カシオ計算機株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP5494386B2 (ja) * | 2010-09-17 | 2014-05-14 | カシオ計算機株式会社 | 画像処理装置、撮像装置、画像処理方法、及びプログラム |
JP5621473B2 (ja) * | 2010-09-28 | 2014-11-12 | カシオ計算機株式会社 | 画像処理装置、及びその方法 |
TWI413019B (zh) | 2010-12-07 | 2013-10-21 | Novatek Microelectronics Corp | 影像調整電路及影像調整方法 |
CN102572453A (zh) * | 2010-12-17 | 2012-07-11 | 联咏科技股份有限公司 | 影像调整电路及影像调整方法 |
TWI484823B (zh) * | 2011-02-18 | 2015-05-11 | Pixart Imaging Inc | 影像系統及其去干擾方法 |
CN102812497B (zh) | 2011-03-03 | 2016-06-08 | 松下知识产权经营株式会社 | 能够提供随后体验影像的影像提供装置、影像提供方法 |
JP2012234258A (ja) * | 2011-04-28 | 2012-11-29 | Sony Corp | 画像処理装置と画像処理方法およびプログラム |
JP2012249175A (ja) * | 2011-05-30 | 2012-12-13 | Olympus Imaging Corp | 撮像装置、表示方法およびプログラム |
JP2013013063A (ja) * | 2011-06-03 | 2013-01-17 | Panasonic Corp | 撮像装置及び撮像システム |
CN103067679B (zh) * | 2011-10-20 | 2015-09-16 | 四川长虹电器股份有限公司 | 一种电视机本地图片显示方法 |
US10036877B2 (en) * | 2013-02-05 | 2018-07-31 | Vanderbilt University | Microlens array for enhanced imaging of multiregion targets |
CN104038700B (zh) * | 2014-06-26 | 2017-11-14 | Tcl集团股份有限公司 | 一种拍照方法及装置 |
JP6516510B2 (ja) * | 2015-03-02 | 2019-05-22 | キヤノン株式会社 | 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体 |
CN106161977A (zh) * | 2016-07-19 | 2016-11-23 | 卢锦霞 | 采用灯光寻找物体轮廓的拍摄抠图方法 |
JP6956659B2 (ja) * | 2018-03-19 | 2021-11-02 | 三菱電機株式会社 | 画像処理装置およびレーザ照射装置 |
US11089279B2 (en) * | 2018-12-06 | 2021-08-10 | Htc Corporation | 3D image processing method, camera device, and non-transitory computer readable storage medium |
CN113947652A (zh) * | 2020-07-15 | 2022-01-18 | 北京芯海视界三维科技有限公司 | 实现目标物体定位的方法、装置及显示器件 |
CN112017352B (zh) * | 2020-09-03 | 2022-12-06 | 平安科技(深圳)有限公司 | 证件鉴伪方法、装置、设备及可读存储介质 |
JP2022082127A (ja) * | 2020-11-20 | 2022-06-01 | キヤノン株式会社 | 撮像システム及び表示装置とその制御方法 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69635101T2 (de) * | 1995-11-01 | 2006-06-01 | Canon K.K. | Verfahren zur Extraktion von Gegenständen und dieses Verfahren verwendendes Bildaufnahmegerät |
JP3679512B2 (ja) * | 1996-07-05 | 2005-08-03 | キヤノン株式会社 | 画像抽出装置および方法 |
US6453069B1 (en) * | 1996-11-20 | 2002-09-17 | Canon Kabushiki Kaisha | Method of extracting image from input image using reference image |
JP4261630B2 (ja) * | 1998-02-04 | 2009-04-30 | キヤノン株式会社 | 画像符号化装置及び方法、画像符号化プログラムが記録されたコンピュータ可読記録媒体 |
JP3782368B2 (ja) * | 2002-03-29 | 2006-06-07 | 株式会社東芝 | 物体画像切り出し方法及びプログラム並びに物体画像切り出し装置 |
JP2003338977A (ja) * | 2002-05-20 | 2003-11-28 | Casio Comput Co Ltd | 撮像装置及び画像合成方法 |
CN100477745C (zh) * | 2002-08-09 | 2009-04-08 | 夏普株式会社 | 图像合成装置和图象合成方法 |
JP3983623B2 (ja) * | 2002-08-09 | 2007-09-26 | シャープ株式会社 | 画像合成装置、画像合成方法、画像合成プログラム、および画像合成プログラムを記録した記録媒体 |
US7024054B2 (en) * | 2002-09-27 | 2006-04-04 | Eastman Kodak Company | Method and system for generating a foreground mask for a composite image |
JP3801137B2 (ja) * | 2003-01-21 | 2006-07-26 | コニカミノルタホールディングス株式会社 | 侵入物体検出装置 |
US7574070B2 (en) * | 2003-09-30 | 2009-08-11 | Canon Kabushiki Kaisha | Correction of subject area detection information, and image combining apparatus and method using the correction |
JP4340968B2 (ja) * | 2004-05-07 | 2009-10-07 | ソニー株式会社 | 画像処理装置および方法、記録媒体、並びにプログラム |
WO2006033178A1 (ja) * | 2004-09-22 | 2006-03-30 | Polygon Magic, Inc. | 画像処理装置、方法、およびプログラム |
JP2006121275A (ja) * | 2004-10-20 | 2006-05-11 | Fuji Photo Film Co Ltd | 撮影方法および撮影装置 |
US7447337B2 (en) * | 2004-10-25 | 2008-11-04 | Hewlett-Packard Development Company, L.P. | Video content understanding through real time video motion analysis |
WO2007076891A1 (en) * | 2005-12-30 | 2007-07-12 | Telecom Italia S.P.A. | Average calculation in color space, particularly for segmentation of video sequences |
US8565525B2 (en) * | 2005-12-30 | 2013-10-22 | Telecom Italia S.P.A. | Edge comparison in segmentation of video sequences |
JP5246159B2 (ja) * | 2007-06-08 | 2013-07-24 | 株式会社ニコン | 撮像装置、画像表示装置、プログラム |
JP4807432B2 (ja) * | 2009-03-31 | 2011-11-02 | カシオ計算機株式会社 | 撮像装置、画像処理方法及びプログラム |
-
2009
- 2009-12-08 JP JP2009278378A patent/JP4760973B2/ja active Active
- 2009-12-09 KR KR1020090121554A patent/KR101156991B1/ko active IP Right Grant
- 2009-12-14 US US12/636,997 patent/US20100149210A1/en not_active Abandoned
- 2009-12-15 EP EP09179218.4A patent/EP2199978B1/en active Active
- 2009-12-15 TW TW098142814A patent/TWI414178B/zh active
- 2009-12-16 CN CN200910253478A patent/CN101764934A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9270883B2 (en) | 2012-11-30 | 2016-02-23 | Canon Kabushiki Kaisha | Image processing apparatus, image pickup apparatus, image pickup system, image processing method, and non-transitory computer-readable storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP2010183560A (ja) | 2010-08-19 |
CN101764934A (zh) | 2010-06-30 |
KR20100069582A (ko) | 2010-06-24 |
TWI414178B (zh) | 2013-11-01 |
EP2199978B1 (en) | 2016-03-02 |
TW201043014A (en) | 2010-12-01 |
KR101156991B1 (ko) | 2012-07-03 |
EP2199978A1 (en) | 2010-06-23 |
US20100149210A1 (en) | 2010-06-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4760973B2 (ja) | 撮像装置及び画像処理方法 | |
JP5105550B2 (ja) | 画像合成装置及びプログラム | |
JP5051156B2 (ja) | 画像処理装置及びプログラム | |
JP4798236B2 (ja) | 撮像装置、画像処理方法及びプログラム | |
JP4947136B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP5326758B2 (ja) | カメラ、画像処理装置、および画像処理プログラム | |
JP5267279B2 (ja) | 画像合成装置及びプログラム | |
JP2011066827A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP4595660B2 (ja) | 撮影装置、撮影画像処理方法及びプログラム | |
JP5493839B2 (ja) | 撮像装置、画像合成方法及びプログラム | |
JP4803319B2 (ja) | 撮像装置、画像処理方法及びプログラム | |
JP5636660B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP5476900B2 (ja) | 画像合成装置、画像合成方法及びプログラム | |
JP2011041041A (ja) | 撮像装置、撮像方法及びプログラム | |
JP2010278701A (ja) | 画像合成装置、画像合成方法及びプログラム | |
JP5494537B2 (ja) | 画像処理装置及びプログラム | |
JP5381207B2 (ja) | 画像合成装置及びプログラム | |
JP2023125905A (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP5402361B2 (ja) | 撮像装置、画像処理方法及びプログラム | |
JP5310361B2 (ja) | 撮像装置、画像処理方法及びプログラム | |
JP5565227B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2011135619A (ja) | 画像処理装置及びプログラム | |
JP2011175663A (ja) | 撮像装置、画像処理方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101021 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101026 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101222 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20101222 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110510 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110523 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140617 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4760973 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |