JP2010041586A - 撮像装置 - Google Patents
撮像装置 Download PDFInfo
- Publication number
- JP2010041586A JP2010041586A JP2008204453A JP2008204453A JP2010041586A JP 2010041586 A JP2010041586 A JP 2010041586A JP 2008204453 A JP2008204453 A JP 2008204453A JP 2008204453 A JP2008204453 A JP 2008204453A JP 2010041586 A JP2010041586 A JP 2010041586A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- viewpoint
- image
- shielding object
- shielding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Processing (AREA)
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
Abstract
【課題】遮蔽物が静止状態であっても、遮蔽物を除去した画像データを生成すること。
【解決手段】表示効果部15によって、メモリ5に格納した1枚目の撮影画像、例えば視点Aの画像データと、メモリ5に更新格納しているこれから撮影しようとしている1枚目とは視点の異なる2枚目の画像の候補画像データ、例えば視点Bの画像データとを半透明に重なった状態で表示デバイス17に表示し、レリーズボタン18が押されると、遮蔽物除去画像生成部1は、メモリ5に格納された視点Aの画像データと撮影してメモリ5に格納した2枚目の画像データである視点Bの画像データとに基づいて、遮蔽物を除去した遮蔽物除去画像データを生成する。
【選択図】図4
【解決手段】表示効果部15によって、メモリ5に格納した1枚目の撮影画像、例えば視点Aの画像データと、メモリ5に更新格納しているこれから撮影しようとしている1枚目とは視点の異なる2枚目の画像の候補画像データ、例えば視点Bの画像データとを半透明に重なった状態で表示デバイス17に表示し、レリーズボタン18が押されると、遮蔽物除去画像生成部1は、メモリ5に格納された視点Aの画像データと撮影してメモリ5に格納した2枚目の画像データである視点Bの画像データとに基づいて、遮蔽物を除去した遮蔽物除去画像データを生成する。
【選択図】図4
Description
本発明は、撮像装置に関し、特に、当該撮像装置と主要被写体との間に位置する遮蔽物を除去した画像データを生成可能な撮像装置に関する。
撮像装置を用いて様々なシーンで撮影を行うとき、当該撮像装置と主要被写体との間に遮蔽物が存在していることがある。このような場合、各シーンの撮影時に、主要被写体が遮蔽物に隠れてしまい所望の画像を得ることができないことがある。
これに対して特許文献1は、人や車両等の運動している遮蔽物であれば、この遮蔽物の運動視差から背景画像を抽出して遮蔽物を除去する手法を提案する。この特許文献1は、異なる時刻に撮影された複数の画像データを各画素毎に比較し、所定時間変化を検出しなかった画素を背景画像として抽出し、かつかかる処理を監視区域内の全ての画素について行うことにより遮蔽物を除去した背景のみの画像データを生成することを開示する。
このような手法を用いれば、主要被写体の前方に遮蔽物が存在している場合であっても、遮蔽物を除去した画像データを得ることができる。
特開2001−43458号公報
しかしながら、特許文献1の手法による遮蔽物の除去は、遮蔽物に動きがあることを前提としている。このため、遮蔽物が静止状態にある場合には遮蔽物を除去することができない。
本発明は、かかる事情を鑑みてなされたものであり、遮蔽物が静止状態であっても、遮蔽物を除去した画像データを生成できる撮像装置を提供することを目的とする。
本発明の主要な局面に係る撮像装置は、遮蔽物に遮蔽された主要被写体を複数の視点から撮影する少なくとも1つの撮像手段と、少なくとも1つの撮像手段の撮影により取得される視点の異なる複数の画像データを重ね合わせた表示用画像データを生成する表示用画像生成手段と、視点の異なる複数の画像データに基づいて遮蔽物を除去した遮蔽物除去画像データを生成する遮蔽物除去画像生成手段とを具備する。
本発明の主要な局面に係る撮像装置は、遮蔽物に遮蔽された主要被写体を複数の視点から撮影する少なくとも1つの撮像手段と、少なくとも1つの撮像手段に撮影指示を通知する撮影指示手段と、撮影指示手段により撮影指示が通知される前に、少なくとも1つの撮像手段の撮影により取得される視点の異なる複数の画像データを重ね合わせた表示用画像データを生成する表示用画像生成手段と、表示用画像生成手段で生成された表示用画像データをリアルタイムに更新して表示する表示手段と、撮影指示手段により撮影指示が通知されると、視点の異なる複数の画像データに基づいて遮蔽物を除去した遮蔽物除去画像データを生成する遮蔽物除去画像生成手段と、遮蔽物除去画像生成手段で生成された遮蔽物除去画像データを記録する記録部とを具備する。
本発明は、遮蔽物が静止状態であっても、遮蔽物を除去した画像データを生成できる撮像装置を提供できる。
以下、本発明の第1の実施の形態について図面を参照して説明する。
図1は撮像装置に適用される遮蔽物除去画像生成部1の構成図を示す。この遮蔽物除去画像生成部1は、視点の異なる複数の画像データに基づいて遮蔽物を除去した画像データを生成するもので、視差検出部2と、遮蔽領域抽出部3と、遮蔽領域変換部4とを有する。なお、遮蔽物除去画像生成部1のこれら視差検出部2、遮蔽領域抽出部3及び遮蔽領域変換部4は、メモリ5に接続されている。
図1は撮像装置に適用される遮蔽物除去画像生成部1の構成図を示す。この遮蔽物除去画像生成部1は、視点の異なる複数の画像データに基づいて遮蔽物を除去した画像データを生成するもので、視差検出部2と、遮蔽領域抽出部3と、遮蔽領域変換部4とを有する。なお、遮蔽物除去画像生成部1のこれら視差検出部2、遮蔽領域抽出部3及び遮蔽領域変換部4は、メモリ5に接続されている。
視差検出部2は、視点の異なる複数の画像データ間、例えば視点Aの画像データDaと視点Bの画像データDbとの視差情報Dpを取得する。遮蔽領域抽出部3は、視差検出部2により取得した視差情報Dpに基づいて遮蔽領域情報Dcを抽出する。遮蔽領域変換部4は、遮蔽領域抽出部3により抽出した遮蔽領域情報Dcに基づいて画像データDa及び画像データDbに対し処理を行って遮蔽領域部分を除去した遮蔽物除去画像データDrを生成する。メモリ5は、DRAM等により成り、画像データDaや画像データDb、視差検出部2により取得された視差情報Dp、遮蔽領域抽出部3により抽出された遮蔽領域情報Dc、遮蔽領域変換部4により変換された遮蔽物除去画像データDr等のデータを一時的に格納する。
次に、遮蔽物除去画像生成部1により互いに異なる視点の複数枚の画像データ、例えば図2(a)に示す視点Aの画像データDaと同図(b)視点Bの画像データDbとに基づいて複数の遮蔽物6を除去した遮蔽物除去画像データDrを生成する際のデータの流れについて説明する。
図2(a)、(b)に示す視点A、Bの各画像データDa、Dbには、複数の遮蔽物6が主要被写体7の前方に写り込んだ画像データとなっている。この例は、互いに並行でかつ上下方向に複数等間隔に配置された複数の遮蔽物6が主要被写体7と該遮蔽物除去画像生成部1を適用した撮像装置との間に設けられた状態で撮像を行った場合を示している。この遮蔽物6は、例えば柵である。なお、同図(a)、(b)に示す遮蔽物6は、一例であって、互いに平行である必要は無く、等間隔に配置されている必要も無く、さらに複数である必要もなく、例えば1本でもよい。又、遮蔽物6は、例えば金網のように互いに交差する複数本の細線のようなものであってもよい。
図2(a)、(b)に示す視点A、Bの各画像データDa、Dbには、複数の遮蔽物6が主要被写体7の前方に写り込んだ画像データとなっている。この例は、互いに並行でかつ上下方向に複数等間隔に配置された複数の遮蔽物6が主要被写体7と該遮蔽物除去画像生成部1を適用した撮像装置との間に設けられた状態で撮像を行った場合を示している。この遮蔽物6は、例えば柵である。なお、同図(a)、(b)に示す遮蔽物6は、一例であって、互いに平行である必要は無く、等間隔に配置されている必要も無く、さらに複数である必要もなく、例えば1本でもよい。又、遮蔽物6は、例えば金網のように互いに交差する複数本の細線のようなものであってもよい。
視点Aに対して視点Bは、その視点位置を異ならしたもので、例えば視点Aの位置から左右方向(この例では左方向)に移動した位置である。すなわち、視点Bは、この例では視点Aから複数の遮蔽物6の配置方向(上下方向)に対して垂直方向(左右方向)に移動した位置である。視点Aと視点Bとは、例えば遮蔽物6の形状に応じて撮像装置の位置をそのままにして、その撮像装置の配置角度を変えることにより得てもよい。
なお、複数の遮蔽物6は、上下方向に配置されるに限らず、左右方向又は傾斜方向に配置されるものもある。このような場合、視点Bは、視点Aから複数の遮蔽物6の配置方向(左右方向又は傾斜方向)に対して垂直方向に移動した位置に配置されることが望ましい。
視差検出部2は、メモリ5から視点Aの画像データDaと視点Bの画像データDbとを取得し、これら画像データDaと画像データDbとの画像間の視差を検出する。具体的に視差検出部2は、例えば、公知のブロックマッチング演算を用いて画像データDaと画像データDbとの間の視差を検出する。視差検出部2は、ブロックマッチング演算を実施した結果、例えば、図2(a)に示すA−1領域と同図(b)に示すB−1領域とが対応していることを検出すると、これらA−1領域の座標とB−1領域の座標との差分を求め、この座標の差分を視差として出力する。又、視差検出部2は、ブロックマッチング演算を実施した結果、例えば、図2(a)に示すA−2領域と同図(b)に示すB−2領域とにおいても上記同様に、これらA−2領域とB−2領域とが対応していることを検出すると、これらA−2領域の座標とB−2領域の座標との差分を求め、この座標の差分を視差として出力する。
しかるに、視差検出部2は、視点の異なる2つの画像データ間、例えば各画像データDa、Dbの対応関係すなわち相関を求め、これら画像データDa、Db間で対応する各領域毎の座標の差分を視差として求め、この視差情報Dpをメモリ5に格納する。なお、視差情報Dpは、各画像データDa、Dbの全画素に対して求めることも可能であるが、演算時間短縮の為、画素数を減らして算出することも可能である。
次に、遮蔽領域抽出部3は、メモリ5から視差情報Dpを読み出し、この視差情報Dpに基づいて遮蔽領域を抽出する。具体的に遮蔽領域抽出部3は、例えば、2つの画像データDa、Dbにおいて、視差の大きい画素には遮蔽物を示す領域として例えば「0」を割り当て、視差の小さい画素には主要被写体7を示すものとして例えば「1」を割り当てるような二値化を行い、この二値化の結果を遮蔽領域情報Dcとしてメモリ5に格納する。
ここで、二値化の閾値は、ユーザが任意に設定できるようにしてもよいし、2つの画像データDa、Db等の画面全体の視差分布から自動的に求められるようにしてもよい。なお、図2(a)、(b)に示す例では、A−1領域とB−1領域との間は、視差(座標の差分)が大きく、A−2領域とB−2領域との間は、視差(座標の差分)が小さい。これにより、遮蔽領域抽出部3は、A−1領域を遮蔽物6と認識し、A−2領域を主要被写体7と認識する。
次に、遮蔽領域変換部4は、メモリ5から遮蔽領域情報Dcと視点Aの画像データDaと視点Bの画像データDbとを読み出し、これら遮蔽領域情報Dcと視点Aの画像データDaと視点Bの画像データDbとに基づいて遮蔽物6を除去した遮蔽物除去画像データDrを生成する。
具体的に遮蔽領域変換部4は、先ず、遮蔽領域情報Dcに基づいて視点Aの画像データDaを主要被写体7の領域と遮蔽物6の領域とに分割する。次に、遮蔽領域変換部4は、主要被写体7の領域と遮蔽物6の領域とに対してそれぞれ異なる処理を施して合成する。これら異なる処理は、例えば、主要被写体7の領域と判断された部分に対して視点Aの画像データを用い、遮蔽物6の領域と判断された部分に対して視点Bの画像データを用いて合成する。これにより、視点Aの画像データ中で遮蔽物6によって遮蔽されて見えなかった部分を、視点Bの画像データにより補うことが可能となる。しかるに、遮蔽領域変換部4は、視点Aの画像データ中で遮蔽物6によって遮蔽されて見えなかった部分を視点Bの画像データにより補うような遮蔽領域の変換処理を行い、この遮蔽領域の変換処理を行った画像データを遮蔽物除去画像データDrとしてメモリ5に格納する。図3は遮蔽物除去画像データDrの一例を示す。
具体的に遮蔽領域変換部4は、先ず、遮蔽領域情報Dcに基づいて視点Aの画像データDaを主要被写体7の領域と遮蔽物6の領域とに分割する。次に、遮蔽領域変換部4は、主要被写体7の領域と遮蔽物6の領域とに対してそれぞれ異なる処理を施して合成する。これら異なる処理は、例えば、主要被写体7の領域と判断された部分に対して視点Aの画像データを用い、遮蔽物6の領域と判断された部分に対して視点Bの画像データを用いて合成する。これにより、視点Aの画像データ中で遮蔽物6によって遮蔽されて見えなかった部分を、視点Bの画像データにより補うことが可能となる。しかるに、遮蔽領域変換部4は、視点Aの画像データ中で遮蔽物6によって遮蔽されて見えなかった部分を視点Bの画像データにより補うような遮蔽領域の変換処理を行い、この遮蔽領域の変換処理を行った画像データを遮蔽物除去画像データDrとしてメモリ5に格納する。図3は遮蔽物除去画像データDrの一例を示す。
このような遮蔽物除去画像生成部1であれば、視点の異なる複数の画像データ間、例えば視点Aからの撮影により取得された画像データDaと視点Bからの撮影により取得された画像データDbとの視差情報Dpを取得し、この視差情報Dpに基づいて遮蔽領域情報Dcを抽出し、この遮蔽領域情報Dcに基づいて処理を行って遮蔽領域部分を除去した遮蔽物除去画像データDrに変換する。これにより、異なる視点の複数の画像データに基づいて遮蔽物6を除去した遮蔽物除去画像データDrを得ることができる。例えば、遮蔽物除去画像生成部1に図2(a)、(b)に示すような異なる視点の複数の画像データDa、Dbを入力すれば、図3に示すような遮蔽物6を除去した遮蔽物除去画像データDrを得ることができる。
次に、遮蔽物除去画像生成部1を適用した撮像装置の全体について説明する。なお、図1と同一部分には同一符号を付してその詳しい説明は省略する。
図4は上記図1に示す遮蔽物除去画像生成部1を適用した撮像装置の構成図を示す。この撮像装置には、レンズや絞り等の光学系10が備えられている。この光学系10を通った主要被写体7を含む光像は、撮像素子11に入射する。この撮像素子11は、固体撮像素子(CCD)又はCMOSイメージセンサ等から成り、入射した光像を画像データに変換する。なお、光学系10及び撮像素子11から成る撮像手段として単眼カメラを用いることが可能である。
図4は上記図1に示す遮蔽物除去画像生成部1を適用した撮像装置の構成図を示す。この撮像装置には、レンズや絞り等の光学系10が備えられている。この光学系10を通った主要被写体7を含む光像は、撮像素子11に入射する。この撮像素子11は、固体撮像素子(CCD)又はCMOSイメージセンサ等から成り、入射した光像を画像データに変換する。なお、光学系10及び撮像素子11から成る撮像手段として単眼カメラを用いることが可能である。
画像処理部12は、撮像素子11から出力された画像データを入力し、この画像データに対して例えばノイズ除去や画像フォーマット変換等の画像処理を行う。この画像処理部12は、メモリ5に接続されている。この画像処理部12は、画像処理して取得した画像データ、例えば上記視点Aからの撮影により取得された画像データDaと上記視点Bからの撮影により取得された画像データDbとをメモリ5に格納する。
メモリ5には、遮蔽物除去画像生成部1が接続されると共に、記憶部14と、表示効果部15とが接続されている。遮蔽物除去画像生成部1は、上記同様に、視差検出部2と、遮蔽領域抽出部3と、遮蔽領域変換部4とを有する。
記憶部14は、記録画像データとして例えば視点Aからの撮影により取得された画像データDaや、視点Bからの撮影により取得された画像データDb、遮蔽物を除去した遮蔽物除去画像データDr等の記録すべき記録画像データを格納する。この記憶部14は、例えば、XDカードやSDカード、CFカード等に代表される記録メディアカードである。
表示効果部15は、複数の画像データが互いに透過状態となる表示用画像データ、例えば視点Aからの撮影により取得された画像データDaと視点Bからの撮影により取得された画像データDbとを重ね合わせて互いに透過状態となる表示用画像データとしての半透明画像データを生成する。この表示効果部15には、表示制御部16が接続されている。なお、後述するように、ライブビュー画像の表示を行う場合には、表示効果部15は、メモリ5からの画像データDaをそのまま表示制御部16へ出力する。
表示制御部16には、例えば薄膜トランジスタ(TFT)液晶ディスプレイ等の表示デバイス17が接続されている。この表示制御部16は、表示デバイス17のタイミングに従って、例えば表示効果部15により生成された表示用画像データとしての半透明画像データ又は表示効果部15からそのまま出力されてきたメモリ5からの画像データを表示デバイス17に出力する。
記憶部14は、記録画像データとして例えば視点Aからの撮影により取得された画像データDaや、視点Bからの撮影により取得された画像データDb、遮蔽物を除去した遮蔽物除去画像データDr等の記録すべき記録画像データを格納する。この記憶部14は、例えば、XDカードやSDカード、CFカード等に代表される記録メディアカードである。
表示効果部15は、複数の画像データが互いに透過状態となる表示用画像データ、例えば視点Aからの撮影により取得された画像データDaと視点Bからの撮影により取得された画像データDbとを重ね合わせて互いに透過状態となる表示用画像データとしての半透明画像データを生成する。この表示効果部15には、表示制御部16が接続されている。なお、後述するように、ライブビュー画像の表示を行う場合には、表示効果部15は、メモリ5からの画像データDaをそのまま表示制御部16へ出力する。
表示制御部16には、例えば薄膜トランジスタ(TFT)液晶ディスプレイ等の表示デバイス17が接続されている。この表示制御部16は、表示デバイス17のタイミングに従って、例えば表示効果部15により生成された表示用画像データとしての半透明画像データ又は表示効果部15からそのまま出力されてきたメモリ5からの画像データを表示デバイス17に出力する。
制御部13には、レリーズボタン18が接続されている。レリーズボタン18は、ユーザによって押し操作されたときのレリーズタイミングを制御部13に通知する。この制御部13は、レリーズボタン18が押し操作されたことを検出すると共に、撮像装置全体の動作を例えばコントロールする。なお、制御部13は、撮像装置全体の動作をコントロールするので、図4中に光学系10や撮像素子11、画像処理部12、遮蔽物除去画像生成部1、記憶部14、表示効果部15、表示制御部16、表示デバイス17との間に矢印を付すべきであるが、図面が煩雑化することから省略する。
次に、上記の如く構成された撮像装置の動作について図5に示す撮像動作フローチャートに従って説明する。
例えば図示しないメニューボタン操作に応じたメニュー選択等のユーザの所定の操作より遮蔽物除去モードが選択されると、制御部13は、ステップS501において、例えば図2(a)に示すような視点Aにおける主要被写体7を含むライブビュー画像の表示デバイス17への表示を実行させる。すなわち、光学系10を通った主要被写体7を含む光像は、撮像素子11に入射する。この撮像素子11は、入射した光像を画像データに変換する。画像処理部12は、撮像素子11から出力された画像データを入力し、この画像データに対して例えばノイズ除去や画像フォーマット変換等の画像処理を行い、この画像処理して取得した画像データ、例えば上記視点Aの画像データDaをメモリ5に格納する。
例えば図示しないメニューボタン操作に応じたメニュー選択等のユーザの所定の操作より遮蔽物除去モードが選択されると、制御部13は、ステップS501において、例えば図2(a)に示すような視点Aにおける主要被写体7を含むライブビュー画像の表示デバイス17への表示を実行させる。すなわち、光学系10を通った主要被写体7を含む光像は、撮像素子11に入射する。この撮像素子11は、入射した光像を画像データに変換する。画像処理部12は、撮像素子11から出力された画像データを入力し、この画像データに対して例えばノイズ除去や画像フォーマット変換等の画像処理を行い、この画像処理して取得した画像データ、例えば上記視点Aの画像データDaをメモリ5に格納する。
表示制御部16は、メモリ5から所定のタイミングで画像データDaを取得し、表示デバイス17に送る。これにより、表示デバイス17には、視点Aからの主要被写体7を含む画像が表示される。この表示デバイス17に表示される視点Aからの主要被写体7を含む画像は、後述するように主要被写体7を含む状況をリアルタイムに表示するライブビュー画像になる。なお、表示効果部15は、本ステップS501において、メモリ5からの画像データDaをそのまま表示制御部16へ出力するものとする。
表示デバイス17への視点Aからの主要被写体7を含む画像の表示がステップS501において完了すると、制御部13は、ステップS502に移り、視点Aの画像データDaの撮影指示待ちの状態になる。すなわち、制御部13は、当該ステップS502において、ユーザによってレリーズボタン18が押印されたか否かを判断する。この判断の結果、ユーザによるレリーズボタン18の押印を検出すると、制御部13は、ステップS503に移り、撮像装置の各部に視点Aの画像データDaの撮影及びその記録を実行させる。
すなわち、光学系10を通った視点Aの主要被写体7を含む光像は、撮像素子11に入射する。この撮像素子11は、入射した光像を画像データに変換する。画像処理部12は、撮像素子11から出力された画像データを入力し、この画像データに対して例えばノイズ除去や画像フォーマット変換等の画像処理を行い、この画像処理して取得した画像データ、例えば視点Aの画像データDaとしてメモリ5に格納する。又、視点Aの画像データDaは、記憶部14にも格納される。なお、視点Aの画像データDaは、例えばJPEG等の静止画圧縮処理を施した後に記憶部14に格納してもよい。
一方、所定時間内にレリーズボタン18の押印を検出しなければ、制御部13は、ステップS501に戻る。これにより、新たに撮像素子11に入射された視点Aの主要被写体7を含む光像の画像データDaは、上記同様に、画像処理部12により画像処理され、メモリ5などを経由して表示デバイス17に表示更新される。しかるに、レリーズボタン18の押印を検出しなければ、制御部13は、各ステップS501、S502を繰り返すことで、撮像素子11は視点Aの主要被写体7を含む光像の撮影を行い続け、かつ表示デバイス17は視点Aの主要被写体7を含む光像の画像データDaの更新を行い続ける。これにより、表示デバイス17には、視点Aの主要被写体7を含む状況がリアルタイムに表示される。このとき、撮像素子11により撮影される画像は、視点Aにおけるライブビュー画像、若しくは視点Aの候補画像と呼ぶ。
視点Aの画像データDaの撮影及び記録が終了すると、ユーザは、好適には、視点Aとは異なる視点Bで撮影を行うように撮像装置の位置や主要被写体7に対する撮影方向を変更する。
次に、制御部13は、ステップS504において、視点Aの画像データDaと視点Bのライブビュー画像とを互いに半透明な画像状態として重ね合わせ、次のステップS505において、重ね合わせた結果を表示デバイス17に表示させる。
すなわち、光学系10を通った視点Bの主要被写体7を含む光像は、撮像素子11に入射する。この撮像素子11は、入射した光像を画像データに変換する。画像処理部12は、撮像素子11から出力された画像データを入力し、この画像データに対して例えばノイズ除去や画像フォーマット変換等の画像処理を行い、この画像処理して取得した画像データを、例えば視点Bの主要被写体7を含む画像データDbとしてメモリ5に格納する。ここで、上記ステップS503において視点Aの画像データDaをメモリ5及び記憶部14に格納及び記憶した後は、メモリ5における視点Aの画像データDaが上書きされることがないように、視点Bの画像データDbは別の記憶エリアに格納する。なお、視点Bからの主要被写体7を含む画像データDbは、視点Bの候補画像データと呼ぶ。このとき、撮像素子11は、視点Bの主要被写体7を含む光像の撮影を行い続けるので、メモリ5に格納される視点Bからの主要被写体7を含む視点Bの候補画像データDbは、リアルタイムに更新される視点Bにおけるライブビュー画像データとなる。
このように視点Bにおけるライブビュー画像データを取得しているとき、表示効果部15は、ステップS504において、視点Aの画像データDaと、視点Bのライブビュー画像データとを互いに半透明で重ね合わせた半透明の画像データを生成する。この半透明画像データを生成する手法は、例えば、式(1)に示すようなアルファ・ブレンディング法を一般的に良く用いる。このアルファ・ブレンディング法は、係数αの値を変えることで、2つの画像データ、例えば視点Aの画像データDaと視点Bのライブビュー画像との混ぜ合わせ比率を調整することができる。
本実施の形態において、視点Aの画像データを(R1,G1,B1)とし、視点Bのライブビュー画像を(R2,G2,B2)とし、取得する半透明画像を(R’,G’,B’)とし、混ぜ合わせ比率をαとして、下記の式(1)に代入することで、半透明画像データを生成することが可能となる。なお、色空間をRGBではなく、YCbCrで表現する場合は、下記の式(2)を用いて半透明画像データ(Y’,Cb’,Cr’)を生成しても同様の効果を得ることができるが、本撮像装置は、色空間の表現方法に限定されるものではなく、適宜変形可能である。
R’=R1×(1−α)+R2×α
G’=G1×(1−α)+G2×α
B’=B1×(1−α)+B2×α
但し、(0≦α≦1) …(1)
Y’=Y1×(1−α)+Y2×α
Cb’=Cb1×(1−α)+Cb2×α
Cr’=Cr1×(1−α)+Cr2×α
但し、(0≦α≦1) …(2)
又、視点Aの画像データと視点Bのライブビュー画像データとを半透明処理する前に、視点Aの画像データ又は視点Bのライブビュー画像データのうちいずれか一方にモノクローム処理やセピア処理を施し、この後に、半透明処理を行ってもよい。この場合、単に半透明処理を行う場合と比較して、ユーザは、どちらが視点Aの画像データで、どちらが視点Bのライブビュー画像データであるのかを認識しやすいという利点がある。
G’=G1×(1−α)+G2×α
B’=B1×(1−α)+B2×α
但し、(0≦α≦1) …(1)
Y’=Y1×(1−α)+Y2×α
Cb’=Cb1×(1−α)+Cb2×α
Cr’=Cr1×(1−α)+Cr2×α
但し、(0≦α≦1) …(2)
又、視点Aの画像データと視点Bのライブビュー画像データとを半透明処理する前に、視点Aの画像データ又は視点Bのライブビュー画像データのうちいずれか一方にモノクローム処理やセピア処理を施し、この後に、半透明処理を行ってもよい。この場合、単に半透明処理を行う場合と比較して、ユーザは、どちらが視点Aの画像データで、どちらが視点Bのライブビュー画像データであるのかを認識しやすいという利点がある。
半透明画像データの生成処理が終了すると、制御部13は、ステップS505において、表示制御部16によって半透明画像データを表示デバイス17に表示させる。これにより、表示デバイス17には、視点Aの画像データDaと、視点Bのライブビュー画像データとを互いに半透明で重ね合わせた半透明画像データが表示される。
この表示デバイス17への半透明画像データの表示が終了すると、制御部13は、ステップS506に移り、視点Bの画像データの撮影指示待ち状態になる。
ここで、視点Bの画像データを撮影するためのレリーズボタン18が所定時間内に押印されなければ、制御部13は、ステップS504〜S506の動作を各部に繰り返し実行させ、視点Aの画像データDaと視点Bのライブビュー画像とを半透明で重ね合わせた半透明画像データを表示デバイス17に表示し続ける。このとき、視点Bのライブビュー画像(視点Bの候補画像)は、時間の経過と共に変化するので、半透明画像データも更新し続けることになる。
しかるに、既に撮影済の視点Aの画像データDaと視点Bのライブビュー画像とが半透明で重なった状態で表示デバイス17に更新され表示続けられるので、ユーザは、視点Aの画像データDaを見ながら視点Bのライブビュー画像を見ることにより、視点Bの画像の構図を決定することが可能になる。これにより、最適な視点Bの画像の構図を決定した状態で、視点Bの画像の撮影を実行することが可能になる。ここで、最適な視点Bの画像の構図とは、視点Aの画像データDaと視点Bのライブビュー画像との間において、主要被写体7のずれが少なく、かつ遮蔽物6が重ならないような構図である。つまり、主要被写体7の視差を小さくし、遮蔽物6の視差を大きくするような構図である。
ここで、視点Bの画像データを撮影するためのレリーズボタン18が所定時間内に押印されなければ、制御部13は、ステップS504〜S506の動作を各部に繰り返し実行させ、視点Aの画像データDaと視点Bのライブビュー画像とを半透明で重ね合わせた半透明画像データを表示デバイス17に表示し続ける。このとき、視点Bのライブビュー画像(視点Bの候補画像)は、時間の経過と共に変化するので、半透明画像データも更新し続けることになる。
しかるに、既に撮影済の視点Aの画像データDaと視点Bのライブビュー画像とが半透明で重なった状態で表示デバイス17に更新され表示続けられるので、ユーザは、視点Aの画像データDaを見ながら視点Bのライブビュー画像を見ることにより、視点Bの画像の構図を決定することが可能になる。これにより、最適な視点Bの画像の構図を決定した状態で、視点Bの画像の撮影を実行することが可能になる。ここで、最適な視点Bの画像の構図とは、視点Aの画像データDaと視点Bのライブビュー画像との間において、主要被写体7のずれが少なく、かつ遮蔽物6が重ならないような構図である。つまり、主要被写体7の視差を小さくし、遮蔽物6の視差を大きくするような構図である。
最適な視点Bの画像の構図が決定したときに、レリーズボタン18が押印されると、制御部13は、ステップS507〜S509を実行し、例えば上記図3に示すような遮蔽物6を除去した遮蔽物除去画像データDrを生成するための制御を行う。すなわち、光学系10を通った視点Bの主要被写体7を含む光像は、撮像素子11に入射する。この撮像素子11は、入射した光像を画像データに変換する。画像処理部12は、撮像素子11から出力された画像データを入力し、この画像データに対して例えばノイズ除去や画像フォーマット変換等の画像処理を行い、この画像処理して取得した画像データ、例えば視点Bの画像データDbとしてメモリ5に格納する。
次に、視差検出部2は、ステップS507において、メモリ5から視点Aの画像データDaと視点Bの画像データDbとを取得し、これら画像データDaと画像データDbとの画像間の相関を求め、これら画像データDa、Db間で対応する各領域毎の座標の差分を視差として求め、この視差情報Dpをメモリ5に格納する。
次に、遮蔽領域抽出部3は、メモリ5から視差情報Dpを読み出し、この視差情報Dpに基づいて遮蔽領域を抽出する。具体的に遮蔽領域抽出部3は、例えば、2つの画像データDa、Dbにおいて、視差の大きい画素に遮蔽物を示す領域として例えば「0」を割り当て、視差の小さい画素に主要被写体7を示すものとして例えば「1」を割り当てるような二値化を行い、この二値化の結果を遮蔽領域情報Dcとしてメモリ5に格納する。
次に、遮蔽領域抽出部3は、メモリ5から視差情報Dpを読み出し、この視差情報Dpに基づいて遮蔽領域を抽出する。具体的に遮蔽領域抽出部3は、例えば、2つの画像データDa、Dbにおいて、視差の大きい画素に遮蔽物を示す領域として例えば「0」を割り当て、視差の小さい画素に主要被写体7を示すものとして例えば「1」を割り当てるような二値化を行い、この二値化の結果を遮蔽領域情報Dcとしてメモリ5に格納する。
次に、遮蔽領域変換部4は、ステップS508において、メモリ5から遮蔽領域情報Dcと視点Aの画像データDaと視点Bの画像データDbとを読み出し、これら遮蔽領域情報Dcと視点Aの画像データDaと視点Bの画像データDbとに基づいて例えば図3に示すような遮蔽物6を除去した遮蔽物除去画像データDrを生成する。
この後、遮蔽領域変換部4は、ステップS509において、遮蔽物除去画像データDrを記憶部14に格納する。このとき、記憶部14に格納する前に、遮蔽物除去画像データDrを例えばJPEG等の画像圧縮を施して記憶部14に格納してもよい。
この後、遮蔽領域変換部4は、ステップS509において、遮蔽物除去画像データDrを記憶部14に格納する。このとき、記憶部14に格納する前に、遮蔽物除去画像データDrを例えばJPEG等の画像圧縮を施して記憶部14に格納してもよい。
このように上記第1の実施の形態によれば、視点の異なる複数の画像データ間、例えば視点Aからの撮影により取得された画像データDaと視点Bからの撮影により取得された画像データDbとの視差情報Dpを取得し、この視差情報Dpに基づいて遮蔽領域情報Dcを抽出し、この遮蔽領域情報Dcに基づいて処理を行って遮蔽領域部分を除去した遮蔽物除去画像データDrに変換する。これにより、視点の異なる複数の画像データに基づいて遮蔽物6を除去した遮蔽物除去画像データDrを生成することが可能になる。特に、遮蔽物6が静止状態であっても当該遮蔽物6を除去することが可能である。
視差の大きさの違いを利用して遮蔽物6を除去するので、ユーザが2枚の画像を撮影する際に、好適には、主要被写体7の視差を小さくし、遮蔽物6の視差を大きくするように画像の構図を決定すれば、遮蔽物6を確実に除去したより良い遮蔽物除去画像データDrを得ることができる。
特に、1枚目に撮影した画像、例えば視点Aの画像データDaと、これから撮影しようとしている2枚目の画像、例えば視点Bの候補画像データとが半透明に重なった状態で表示デバイス17に表示されるので、ユーザは、視点Aの画像データDaと視点Bの候補画像データとの重なりを見ることにより視差を確認しながら2枚目の画像の構図を決定することが可能になる。これにより、ユーザにとって使い勝手の良い撮像装置を提供することが可能となる。
なお、上記図5に示す撮像動作フローチャートを用いた説明では、説明を簡略化する為に各処理をステップ毎に区切り、ステップの処理が終了してから次のステップに移行するように説明したが、実際には、例えば時間的に連続する前後の各ステップで同時に処理を実行することも可能である。例えば、視点Aの画像データDaと視点Bのライブビュー画像とを半透明で重ね合わせるステップS504と、重ね合わせた結果を表示デバイス17に表示するステップS505とは、ステップS504の完了後にステップS505を実行するように説明したが、実際には、ステップS504とステップS505とは、ステップS504において視点Aの画像データDaと視点Bのライブビュー画像との重ね合せの処理が終了した各画素から順次ステップS505に移って重ね合わせた結果の各画素を表示デバイス17に表示してもよい。これによりステップS504とステップS505とは、略同時に実行することが可能である。
又、重ね合わせた結果を表示デバイス17に表示するステップS505と視点Bの画像の撮影待ちを行うステップS506とに関しても必ずしも重ね合わせた結果の表示が終了してからレリーズボタン18の検出を実施する必要はなく、同時に実行することが可能である。ステップS505における重ね合わせた結果の表示中に、ステップS506のレリーズボタン18の押し操作の検出を行った場合は、直ちにステップS507の処理を実行することで、レリーズタイムラグを短縮することも可能である。
上記実施の形態は、視点の異なる2つの画像データに基づいて遮蔽物除去処理を行う例について説明したが、これに限らず、複数の画像データ、例えば3つの画像データに基づいて遮蔽物除去処理を行うことも可能である。この場合、先ず、視点の異なる1枚目と2枚目との2つの画像データに基づいて第1の遮蔽物除去画像データを生成する。次に、第1の遮蔽物除去画像データとライブビュー画像データとを重ね合わせて半透明の表示を行う。次に、3枚目の撮影を実施して3枚目の画像データを取得する。次に、最初の第1の遮蔽物除去画像データと3枚目の画像データとに基づいて遮蔽物除去処理を行って最終的な第2の遮蔽物除去画像データを生成する。
又、遮蔽物除去画像データの生成は、次の通りでもよい。先ず、1枚目の画像データと2枚目のライブビュー画像とを重ね合わせて表示デバイス17に半透明な状態で表示する。次に、2枚目の画像の撮影を行ってその画像データを取得する。次に、1枚目の画像データと3枚目のライブビュー画像とを重ね合わせて表示デバイス17に半透明な状態で表示する。次に、3枚目の画像の撮影を行う。最後に、1枚目と2枚目と3枚目の各画像データに基づいて遮蔽物除去処理を行って最終的な遮蔽物除去画像データを生成することも可能である。なお、4枚以上の画像データを使った場合でも遮蔽物除去画像データを生成することが可能なことは言うまでもない。
次に、上記第1の実施の形態の変形例について説明する。なお、撮像装置の構成は、図4に示す構成と同一であるので、当該図4を援用して説明する。又、上記図5に示す撮像動作フローチャートと同一ステップには同一ステップの符号を付してその詳しい説明は省略する。
図6は撮像動作フローチャートを示す。この撮像動作フローチャートは、例えば視点Aの画像データが予め記憶部14に格納されている状態で、障害物除去モードに移行した場合を示す。
記憶部14には、予め記録画像データとして例えば視点Aで撮影された画像データDaが記憶されている。
ユーザの所定の操作より遮蔽物除去モードが選択されると、画像処理部12は、ステップS601において、制御部13の制御により記憶部14から記録画像データとして例えば視点Aで撮影された画像データDaを取得し、メモリ5に視点Aの画像データとして展開する。このとき、展開する画像データは、最後に撮影されて記憶部14に記録された記録画像データであっても良いし、ユーザが任意の記録画像データを選択できるようにしても構わない。
次に、上記同様に、表示効果部15は、上記ステップS504において、視点Aの画像データDaと、視点Bのライブビュー画像とを重ね合わせて互いに半透明の画像データを生成する。
図6は撮像動作フローチャートを示す。この撮像動作フローチャートは、例えば視点Aの画像データが予め記憶部14に格納されている状態で、障害物除去モードに移行した場合を示す。
記憶部14には、予め記録画像データとして例えば視点Aで撮影された画像データDaが記憶されている。
ユーザの所定の操作より遮蔽物除去モードが選択されると、画像処理部12は、ステップS601において、制御部13の制御により記憶部14から記録画像データとして例えば視点Aで撮影された画像データDaを取得し、メモリ5に視点Aの画像データとして展開する。このとき、展開する画像データは、最後に撮影されて記憶部14に記録された記録画像データであっても良いし、ユーザが任意の記録画像データを選択できるようにしても構わない。
次に、上記同様に、表示効果部15は、上記ステップS504において、視点Aの画像データDaと、視点Bのライブビュー画像とを重ね合わせて互いに半透明の画像データを生成する。
次に、表示制御部16は、ステップS505において、半透明画像データを表示デバイス17に表示する。この表示デバイス17への半透明画像データの表示が終了すると、制御部13は、ステップS506に移り、視点Bの画像データの撮影指示待ち状態になる。
次に、制御部13は、ステップS506において、レリーズボタン18が押印されたことを検出すると、上記同様に、ステップS507〜S509を実行し、例えば上記図3に示すような遮蔽物6を除去した遮蔽物除去画像データDrを生成するための制御を行う。すなわち、光学系10を通った視点Bの主要被写体7を含む光像は、撮像素子11によって画像データに変換され、画像処理部12は、撮像素子11から出力された画像データに対して画像処理を行って例えば視点Bの画像データDbとしてメモリ5に格納する。
次に、制御部13は、ステップS506において、レリーズボタン18が押印されたことを検出すると、上記同様に、ステップS507〜S509を実行し、例えば上記図3に示すような遮蔽物6を除去した遮蔽物除去画像データDrを生成するための制御を行う。すなわち、光学系10を通った視点Bの主要被写体7を含む光像は、撮像素子11によって画像データに変換され、画像処理部12は、撮像素子11から出力された画像データに対して画像処理を行って例えば視点Bの画像データDbとしてメモリ5に格納する。
次に、視差検出部2は、ステップS507において、メモリ5から視点Aの画像データDaと視点Bの画像データDbとを取得し、これら画像データDaと画像データDbとの画像間の相関を求め、これら画像データDa、Db間で対応する各領域毎の座標の差分を視差として求め、この視差情報Dpをメモリ5に格納する。
次に、遮蔽領域抽出部3は、メモリ5から視差情報Dpを読み出し、この視差情報Dpに基づいて遮蔽領域情報Dcを抽出する。
次に、遮蔽領域変換部4は、ステップS508において、メモリ5から遮蔽領域情報Dcと視点Aの画像データDaと視点Bの画像データDbとを読み出し、これら遮蔽領域情報Dcと視点Aの画像データDaと視点Bの画像データDbとに基づいて例えば図3に示すような遮蔽物6を除去した遮蔽物除去画像データDrを生成する。
この後、遮蔽領域変換部4は、ステップS509において、遮蔽物除去画像データDrを記憶部14に格納する。
次に、遮蔽領域抽出部3は、メモリ5から視差情報Dpを読み出し、この視差情報Dpに基づいて遮蔽領域情報Dcを抽出する。
次に、遮蔽領域変換部4は、ステップS508において、メモリ5から遮蔽領域情報Dcと視点Aの画像データDaと視点Bの画像データDbとを読み出し、これら遮蔽領域情報Dcと視点Aの画像データDaと視点Bの画像データDbとに基づいて例えば図3に示すような遮蔽物6を除去した遮蔽物除去画像データDrを生成する。
この後、遮蔽領域変換部4は、ステップS509において、遮蔽物除去画像データDrを記憶部14に格納する。
このように上記変形例によれば、既に撮影が行われて記憶部14に格納されている例えば視点Aの画像データDaを読み出し、この視点Aの画像データDaと例えば視点Bやその他の新たな視点からの撮影により取得された画像データDbとの視差情報Dpに基づいて遮蔽領域情報Dcを抽出し、この遮蔽領域情報Dcに基づいて遮蔽物除去画像データDrを生成する。これにより、既に撮影が行われて記憶部14に格納されている例えば視点Aの画像データDaに対しても新たな視点から撮影を行って取得された画像データを追加で撮影することでも遮蔽物6を除去した遮蔽物除去画像データDrを生成できる。
この場合も、上記同様に、表示効果部15によって視点Aの画像データDaと新たな視点から撮影を行おうとしているときのライブビュー画像とを用いて半透明の画像データを生成して表示デバイス17に表示するので、ユーザは、視差を確認しながら2枚目の画像の構図を決定することが可能であり、ユーザにとって使い勝手の良いものとなる。
このように例えば視点Aの画像データDaに対しても新たな視点から撮影を行って取得された画像データを追加で撮影する場合、視点Aの画像データDaを撮影するときの1枚目の撮影条件と、追加で撮影するときの2枚目の撮影条件とを同一にすることが望ましい。ここでの撮影条件は、例えば絞り、ISO感度、シャッタ速度、ホワイトバランスゲイン値、ズーム位置、フォーカス位置、フラッシュの有無等、撮像装置により使用される撮影パラメータを示す。例えば、1枚目の撮影画像を記録するときに例えば記録画像の一部にヘッダ情報として当該撮影条件を記録することが可能であり、2枚目の撮影を行う前に、ヘッダ情報を解析することで、1枚目の撮影条件を取得することが可能になる。これにより、撮影条件を合わせた撮影が可能となる。室内での撮影のように照明により発生するフリッカの影響を受ける環境下では、被写体の明るさそのものが変化するので、フリッカを検出した場合は、敢えて撮影条件を合わせないことも可能である。
次に、本発明の第2の実施の形態について図面を参照して説明する。なお、図4に示す部分と同一部分には、同一符号を付してその詳しい説明は省略する。又、上記図5に示す撮像動作フローチャートと同一ステップには同一ステップの符号を付してその詳しい説明は省略する。
図7は遮蔽物除去画像生成部1を適用した撮像装置の構成図を示す。本装置は、上記第1の実施の形態の装置から表示効果部15を除いている。なお、表示効果部15は、上記第1の実施の形態の装置から除かずに、オン(ON)−オフ(OFF)の切り替えを可能とし、オフ状態にしておいてもよい。
図8は撮像動作フローチャートを示す。この撮像動作フローチャートは、上記図5に示す撮像動作フローチャートから各ステップS504、S505、S506を除き、かつ各ステップS701〜S704を追加している。
図7は遮蔽物除去画像生成部1を適用した撮像装置の構成図を示す。本装置は、上記第1の実施の形態の装置から表示効果部15を除いている。なお、表示効果部15は、上記第1の実施の形態の装置から除かずに、オン(ON)−オフ(OFF)の切り替えを可能とし、オフ状態にしておいてもよい。
図8は撮像動作フローチャートを示す。この撮像動作フローチャートは、上記図5に示す撮像動作フローチャートから各ステップS504、S505、S506を除き、かつ各ステップS701〜S704を追加している。
次に、上記の如く構成された撮像装置の動作について図8に示す撮像動作フローチャートに従って説明する。
ユーザの所定の操作より遮蔽物除去モードが選択されると、制御部13は、上記同様に、ステップS501において、例えば図2(a)に示すような視点Aにおける主要被写体7を含むライブビュー画像を表示デバイス17に表示させる制御を行う。
次に、制御部13は、ステップS502に移り、ユーザによってレリーズボタン18が押印されたか否かを判断する、視点Aの画像データDaの撮影指示待ちの状態になる。この判断の結果、ユーザによるレリーズボタン18の押印を検出すると、制御部13は、ステップS503に移り、各部に視点Aの画像データDaの撮影及びその記録を実行させる。すなわち、光学系10を通った視点Aの主要被写体7を含む光像は、撮像素子11に入射する。画像処理部12は、撮像素子11から出力された画像データを入力して画像処理を行い、この画像処理して取得した画像データ、例えば視点Aの画像データDaとして例えばメモリ5に格納する。視点Aの画像データDaは、例えばJPEG等の静止画圧縮処理を施した後にメモリ5又は記憶部14に格納する。
ユーザの所定の操作より遮蔽物除去モードが選択されると、制御部13は、上記同様に、ステップS501において、例えば図2(a)に示すような視点Aにおける主要被写体7を含むライブビュー画像を表示デバイス17に表示させる制御を行う。
次に、制御部13は、ステップS502に移り、ユーザによってレリーズボタン18が押印されたか否かを判断する、視点Aの画像データDaの撮影指示待ちの状態になる。この判断の結果、ユーザによるレリーズボタン18の押印を検出すると、制御部13は、ステップS503に移り、各部に視点Aの画像データDaの撮影及びその記録を実行させる。すなわち、光学系10を通った視点Aの主要被写体7を含む光像は、撮像素子11に入射する。画像処理部12は、撮像素子11から出力された画像データを入力して画像処理を行い、この画像処理して取得した画像データ、例えば視点Aの画像データDaとして例えばメモリ5に格納する。視点Aの画像データDaは、例えばJPEG等の静止画圧縮処理を施した後にメモリ5又は記憶部14に格納する。
次に、ユーザは、好適には、視点Aとは異なる視点Bで撮影を行うように撮像装置の位置や主要被写体7に対する撮影方向を変更する。このとき、光学系10を通った視点Bの主要被写体7を含む光像は、撮像素子11に入射する。この撮像素子11は、入射した光像を画像データに変換する。画像処理部12は、撮像素子11から出力された画像データを入力し、この画像データに対して例えばノイズ除去や画像フォーマット変換等の画像処理を行い、この画像処理して取得した画像データ、例えば視点Bの画像データDbとしてメモリ5に格納する。このとき、撮像素子11は、視点Bの主要被写体7を含む光像の撮影を行い続けるので、メモリ5に格納される視点Bからの主要被写体7を含む視点Bの候補画像データDbは、リアルタイムに更新される視点Bにおけるライブビュー画像データとなる。
視差検出部2は、ステップS701において、メモリ5から視点Aの画像データDaと視点Bのライブビュー画像とを取得し、これら視点Aの画像データDaと視点Bのライブビュー画像との画像間の視差を検出し、この視差情報Dpをメモリ5に格納する。
次に、遮蔽領域抽出部3は、ステップS702において、メモリ5から視差情報Dpを読み出し、この視差情報Dpに基づいて遮蔽領域情報Dcを抽出する。
次に、遮蔽領域変換部4は、メモリ5から遮蔽領域情報Dcと視点Aの画像データDaと視点Bのライブビュー画像とを読み出し、これら遮蔽領域情報Dcと視点Aの画像データDaと視点Bのライブビュー画像とに基づいて例えば図3に示すような遮蔽物6を除去した遮蔽物除去画像データDrを生成する。この遮蔽物除去画像データDrは、例えばメモリ5に格納される。
次に、表示制御部16は、ステップS703において、メモリ5から遮蔽物除去画像データDrを読み出し、この遮蔽物除去画像データDrを表示デバイス17に表示する。
次に、制御部13は、ステップS704において、レリーズボタン18が押印されたか否かを検出する。所定時間内にレリーズボタン18の押印が検出されなければ、制御部13は、上記各ステップS701〜S704の実行を繰り返す。
次に、遮蔽領域抽出部3は、ステップS702において、メモリ5から視差情報Dpを読み出し、この視差情報Dpに基づいて遮蔽領域情報Dcを抽出する。
次に、遮蔽領域変換部4は、メモリ5から遮蔽領域情報Dcと視点Aの画像データDaと視点Bのライブビュー画像とを読み出し、これら遮蔽領域情報Dcと視点Aの画像データDaと視点Bのライブビュー画像とに基づいて例えば図3に示すような遮蔽物6を除去した遮蔽物除去画像データDrを生成する。この遮蔽物除去画像データDrは、例えばメモリ5に格納される。
次に、表示制御部16は、ステップS703において、メモリ5から遮蔽物除去画像データDrを読み出し、この遮蔽物除去画像データDrを表示デバイス17に表示する。
次に、制御部13は、ステップS704において、レリーズボタン18が押印されたか否かを検出する。所定時間内にレリーズボタン18の押印が検出されなければ、制御部13は、上記各ステップS701〜S704の実行を繰り返す。
このとき、視点Bのライブビュー画像(視点Bの候補画像)は、時間の経過と共に変化するので、遮蔽物6を除去した遮蔽物除去画像データDrは、リアルタイムで更新されながら表示デバイス17に連続して表示される。しかるに、視点Bのライブビュー画像を用いて視点Aの画像データから遮蔽物6を除去した画像が表示デバイス17上で更新され続けて表示される。
これにより、ユーザは、レリーズボタン18を押印する前に、表示デバイス17に連続して表示される遮蔽物6を除去した遮蔽物除去画像データDrを見ることにより遮蔽物除去効果を確認することができる。そして、当該効果を確認した上で、主要被写体を含む画像の最適な構図を決定し、視点Bの画像データの撮影を実行することが可能になる。
次に、制御部13は、ステップS704において、レリーズボタン18が押印されたことを検出すると、上記同様に、ステップS507〜S509を実行し、例えば上記図3に示すような遮蔽物6を除去した遮蔽物除去画像データDrを生成するための制御を行う。すなわち、光学系10を通った視点Bの主要被写体7を含む光像は、撮像素子11によって画像データに変換され、画像処理部12は、撮像素子11から出力された画像データに対して画像処理を行って例えば視点Bの画像データDbとしてメモリ5に格納する。
次に、視差検出部2は、ステップS507において、メモリ5から視点Aの画像データDaと視点Bの画像データDbとを取得し、これら画像データDaと画像データDbとの画像間の相関を求め、これら画像データDa、Db間で対応する各領域毎の座標の差分を視差として求め、この視差情報Dpをメモリ5に格納する。
次に、遮蔽領域抽出部3は、メモリ5から視差情報Dpを読み出し、この視差情報Dpに基づいて遮蔽領域情報Dcを抽出する。
次に、遮蔽領域変換部4は、ステップS508において、メモリ5から遮蔽領域情報Dcと視点Aの画像データDaと視点Bの画像データDbとを読み出し、これら遮蔽領域情報Dcと視点Aの画像データDaと視点Bの画像データDbとに基づいて例えば図3に示すような遮蔽物6を除去した遮蔽物除去画像データDrを生成する。
この後、遮蔽領域変換部4は、ステップS509において、遮蔽物除去画像データDrを記憶部14に格納する。
次に、遮蔽領域抽出部3は、メモリ5から視差情報Dpを読み出し、この視差情報Dpに基づいて遮蔽領域情報Dcを抽出する。
次に、遮蔽領域変換部4は、ステップS508において、メモリ5から遮蔽領域情報Dcと視点Aの画像データDaと視点Bの画像データDbとを読み出し、これら遮蔽領域情報Dcと視点Aの画像データDaと視点Bの画像データDbとに基づいて例えば図3に示すような遮蔽物6を除去した遮蔽物除去画像データDrを生成する。
この後、遮蔽領域変換部4は、ステップS509において、遮蔽物除去画像データDrを記憶部14に格納する。
このように上記第2の実施の形態によれば、視点Aの画像データDaと視点Bのライブビュー画像とに基づいて例えば図3に示すような遮蔽物6を除去した遮蔽物除去画像データDrを生成し、この遮蔽物除去画像データDrを表示デバイス17に表示する。これにより、ユーザは、レリーズボタン18を押印する前に、表示デバイス17に表示される遮蔽物6を除去した遮蔽物除去画像データDrを見ることによって遮蔽物除去の効果を確認することができる。そして、当該効果を確認した上で、主要被写体を含む画像の最適な構図を決定し、視点Bの画像データの撮影を実行することが可能になる。しかるに、ユーザにとって使い勝手の良いものとなる。
なお、上記第2の実施の形態では、制御部13は、ステップS704において、レリーズボタン18が押印されたことを検出すると、次のステップS507において、視点Aの画像データDaと視点Bの画像データDbとの相関を求め、遮蔽物6を認識し、次のステップS508において、視点Aの画像データにおける遮蔽物6による遮蔽部分を視点Bの画像データDbを用いて補正して遮蔽物6を除去した遮蔽物除去画像データDrを生成し、ステップS509において、遮蔽物除去画像データDrを記憶部14に格納するように各部を制御しているが、これに限らず、レリーズボタン18が押印されたことを検出すると、ステップS702において例えばメモリ5に格納され表示デバイス17に表示されている遮蔽物6を除去した遮蔽物除去画像データDrを、そのまま直ちに記憶部14に格納するように各部を制御してもよい。
次に、本発明の第3の実施の形態について図面を参照して説明する。なお、撮像装置の構成は、図4に示す構成と同一であるので、当該図4を援用して説明する。又、上記図5及び図8に示す撮像動作フローチャートと同一ステップには同一ステップの符号を付してその詳しい説明は省略する。
表示効果部15は、上記第1の実施形態では、表示用の半透明画像を生成していたが、本実施の形態では、遮蔽領域を強調表示するものとなる。
図9は撮像動作フローチャートを示す。この撮像動作フローチャートは、上記図8に示す撮像動作フローチャートから各ステップS702、S703を除き、かつ各ステップS802、S803を追加している。
表示効果部15は、上記第1の実施形態では、表示用の半透明画像を生成していたが、本実施の形態では、遮蔽領域を強調表示するものとなる。
図9は撮像動作フローチャートを示す。この撮像動作フローチャートは、上記図8に示す撮像動作フローチャートから各ステップS702、S703を除き、かつ各ステップS802、S803を追加している。
次に、上記の如く構成された撮像装置の動作について図9に示す撮像動作フローチャートに従って説明する。
ユーザの所定の操作より遮蔽物除去モードが選択されると、制御部13は、上記同様に、ステップS501において、例えば図2(a)に示すような視点Aにおける主要被写体7を含むライブビュー画像を表示デバイス17に表示させる制御を実行する。
次に、制御部13は、ステップS502に移り、ユーザによってレリーズボタン18が押印されたか否かを判断する。すなわち、視点Aの画像データDaの撮影指示待ちの状態になる。この判断の結果、ユーザによるレリーズボタン18の押印を検出すると、制御部13は、ステップS503に移り、各部に視点Aの画像データDaの撮影及びその記録を実行させる。すなわち、光学系10を通った視点Aの主要被写体7を含む光像は、撮像素子11に入射する。画像処理部12は、撮像素子11から出力された画像データを入力して画像処理を行い、この画像処理して取得した画像データ、例えば視点Aの画像データDaとして例えばメモリ5に格納する。
ユーザの所定の操作より遮蔽物除去モードが選択されると、制御部13は、上記同様に、ステップS501において、例えば図2(a)に示すような視点Aにおける主要被写体7を含むライブビュー画像を表示デバイス17に表示させる制御を実行する。
次に、制御部13は、ステップS502に移り、ユーザによってレリーズボタン18が押印されたか否かを判断する。すなわち、視点Aの画像データDaの撮影指示待ちの状態になる。この判断の結果、ユーザによるレリーズボタン18の押印を検出すると、制御部13は、ステップS503に移り、各部に視点Aの画像データDaの撮影及びその記録を実行させる。すなわち、光学系10を通った視点Aの主要被写体7を含む光像は、撮像素子11に入射する。画像処理部12は、撮像素子11から出力された画像データを入力して画像処理を行い、この画像処理して取得した画像データ、例えば視点Aの画像データDaとして例えばメモリ5に格納する。
次に、ユーザは、好適には、視点Aとは異なる視点Bで撮影を行うように撮像装置の位置や主要被写体7に対する撮影方向を変更する。このとき、光学系10を通った視点Bの主要被写体7を含む光像は、撮像素子11に入射する。この撮像素子11は、入射した光像を画像データに変換する。画像処理部12は、撮像素子11から出力された画像データを入力し、この画像データに対して例えばノイズ除去や画像フォーマット変換等の画像処理を行い、この画像処理して取得した画像データ、例えば視点Bの画像データDbとしてメモリ5に格納する。このとき、撮像素子11は、視点Bの主要被写体7を含む光像の撮影を行い続けるので、メモリ5に格納される視点Bからの主要被写体7を含む視点Bの候補画像データDbは、リアルタイムに更新される視点Bにおけるライブビュー画像データとなる。
次に、視差検出部2は、ステップS701において、メモリ5から視点Aの画像データDaと視点Bのライブビュー画像とを取得し、これら視点Aの画像データDaと視点Bのライブビュー画像との画像間の視差を検出し、この視差情報Dpをメモリ5に格納する。次に、遮蔽領域抽出部3は、メモリ5から視差情報Dpを読み出し、この視差情報Dpに基づいて遮蔽領域情報Dcを抽出する。
次に、表示効果部15は、ステップS802において、遮蔽領域抽出部3により抽出した遮蔽領域情報Dcに基づいて遮蔽領域に対して表示効果を施した画像、例えば遮蔽領域を強調した画像データを生成する。ここで、表示効果の方法としては、例えば、遮蔽物6として認識された領域を、特定色に置き換えて表示する、又は特定色の表示のオン・オフを所定の周期で繰り返すことにより点滅表示してもよい。この場合、好ましくは、特定色の表示は、例えば赤色等の目立つ色であることが良い。また、特定色の種類を変更設定できるようにしてもよい。特定色の表示のオン・オフの点滅周期も変更設定できるようにしても良い。これにより、遮蔽物6を強調表示することが可能となる。
一方、必ずしも遮蔽物6として認識された領域のみに処理を施す必要はなく、遮蔽物6以外の領域に処理を施すことも可能である。例えば、遮蔽物6以外の領域に例えばモノクローム・セピア処理を施すことで、遮蔽物6をより強調して表示することも可能である。
なお、表示効果部15は、視点Bのライブビュー画像に対して表示効果を施す例について説明したが、これに限らず、例えば視点Aの画像データDaに対して表示効果を施しても良い。この場合、表示効果部15は、視点Aの画像データDaと遮蔽領域情報Dcとをメモリ5から取得し、視点Aの画像データDaのうち遮蔽領域と判断された領域に対して表示効果を施すことも可能である。
次に、表示制御部16は、ステップS803において、例えば遮蔽領域を強調した画像データを表示デバイス17に表示する。
次に、表示制御部16は、ステップS803において、例えば遮蔽領域を強調した画像データを表示デバイス17に表示する。
次に、制御部13は、ステップS704において、レリーズボタン18が押印されたか否かを検出する。レリーズボタン18の押印が検出されなければ、制御部13は、上記各ステップS701、S802、S803、S704の動作を各部に繰り返し実行させる。このとき、視点Bのライブビュー画像(視点Bの候補画像)は、時間の経過と共に変化するので、例えば遮蔽領域を強調した画像データがリアルタイムで更新されながら表示デバイス17に連続して表示される。
しかるに、例えば遮蔽領域を強調した画像データが表示デバイス17上で更新され続けて表示される。これにより、ユーザは、レリーズボタン18を押印する前に、例えば遮蔽領域を強調した画像データを見ることにより遮蔽物6が認識されているか否かを確認することができる。そして、遮蔽物6が認識されていることを確認した上で、主要被写体を含む画像の最適な構図を決定し、視点Bの画像データの撮影を実行することが可能になる。
次に、制御部13は、ステップS704においてレリーズボタン18が押印されたことを検出すると、上記同様に、ステップS507〜S509を実行し、例えば上記図3に示すような遮蔽物6を除去した遮蔽物除去画像データDrを生成するための制御を行う。すなわち、光学系10を通った視点Bの主要被写体7を含む光像は、撮像素子11によって画像データに変換され、画像処理部12は、撮像素子11から出力された画像データに対して画像処理を行って例えば視点Bの画像データDbとしてメモリ5に格納する。
次に、視差検出部2は、ステップS507において、メモリ5から視点Aの画像データDaと視点Bの画像データDbとを取得し、これら画像データDaと画像データDbとの画像間の相関を求め、これら画像データDa、Db間で対応する各領域毎の座標の差分を視差として求め、この視差情報Dpをメモリ5に格納する。
次に、遮蔽領域抽出部3は、メモリ5から視差情報Dpを読み出し、この視差情報Dpに基づいて遮蔽領域を抽出する。
次に、遮蔽領域変換部4は、ステップS508において、メモリ5から遮蔽領域情報Dcと視点Aの画像データDaと視点Bの画像データDbとを読み出し、これら遮蔽領域情報Dcと視点Aの画像データDaと視点Bの画像データDbとに基づいて例えば図3に示すような遮蔽物6を除去した遮蔽物除去画像データDrを生成する。
この後、遮蔽領域変換部4は、ステップS509において、遮蔽物除去画像データDrを記憶部14に格納する。
次に、遮蔽領域抽出部3は、メモリ5から視差情報Dpを読み出し、この視差情報Dpに基づいて遮蔽領域を抽出する。
次に、遮蔽領域変換部4は、ステップS508において、メモリ5から遮蔽領域情報Dcと視点Aの画像データDaと視点Bの画像データDbとを読み出し、これら遮蔽領域情報Dcと視点Aの画像データDaと視点Bの画像データDbとに基づいて例えば図3に示すような遮蔽物6を除去した遮蔽物除去画像データDrを生成する。
この後、遮蔽領域変換部4は、ステップS509において、遮蔽物除去画像データDrを記憶部14に格納する。
このように上記第3の実施の形態によれば、表示効果部15によって遮蔽領域に対して表示効果を施した画像、例えば遮蔽領域を強調した画像データを生成する。これにより、ユーザは、2枚目の画像を撮影するためにレリーズボタン18を押印する前に、遮蔽物6が正しく認識されたかを確認することが可能である。そして、ユーザは、予め遮蔽物6が正しく認識されたかを確認した状態で撮影を行うことができるので、ユーザにとって使い勝手が良くなる。
なお、上記第3の実施の形態では、表示効果部15により遮蔽領域の強調等の表示効果の処理を施しているが、遮蔽領域の強調等の表示効果の処理は、例えば遮蔽領域変換部4に持たせてもよい。遮蔽領域変換部4は、主要被写体領域と遮蔽領域部分とにそれぞれ異なる処理を施して合成するので、当該遮蔽領域変換部4に多少の機能の変更を加えることで、表示効果処理を行うことも可能となる。
次に、本発明の第4の実施の形態について図面を参照して説明する。なお、撮像装置の構成は、図4に示す構成と同一であるので、当該図4を援用して説明する。又、上記図5及び図8に示す撮像動作フローチャートと同一ステップには同一ステップの符号を付してその詳しい説明は省略する。
図10は撮像動作フローチャートを示す。この撮像動作フローチャートにおいて、各ステップS501〜S505、S507〜S509は、上記図5に示す当該各ステップと同一であり、各ステップS701〜S703は、上記図8に示す当該各ステップと同一であり、ステップS901は、本実施の形態において追加したステップで、レリーズボタン18の押印の状況、すなわち全押し又は半押しを検出する。全押しは、レリーズボタン18が強く押された状態であり、半押しは、レリーズボタン18が弱く押された状態である。一般的にも半押しで焦点調節を行い、全押しで撮影を行う撮像装置が良く知られている。
図10は撮像動作フローチャートを示す。この撮像動作フローチャートにおいて、各ステップS501〜S505、S507〜S509は、上記図5に示す当該各ステップと同一であり、各ステップS701〜S703は、上記図8に示す当該各ステップと同一であり、ステップS901は、本実施の形態において追加したステップで、レリーズボタン18の押印の状況、すなわち全押し又は半押しを検出する。全押しは、レリーズボタン18が強く押された状態であり、半押しは、レリーズボタン18が弱く押された状態である。一般的にも半押しで焦点調節を行い、全押しで撮影を行う撮像装置が良く知られている。
次に、上記の如く構成された撮像装置の動作について図10に示す撮像動作フローチャートに従って説明する。
ユーザの所定の操作より遮蔽物除去モードが選択されると、制御部13は、上記同様に、ステップS501において、例えば図2(a)に示すような視点Aにおける主要被写体7を含むライブビュー画像を表示デバイス17に表示させる制御を実行する。
次に、制御部13は、ステップS502において、ユーザの操作によってレリーズボタン18が押印(この場合は全押し)されたか否かを判断する。すなわち、視点Aの画像の撮影指示待ちの状態になる。ユーザの操作によりレリーズボタン18が押印されると、制御部13は、ステップS503に移り、各部に視点Aの画像データDaの撮影及びその記録を実行させる。
ユーザの所定の操作より遮蔽物除去モードが選択されると、制御部13は、上記同様に、ステップS501において、例えば図2(a)に示すような視点Aにおける主要被写体7を含むライブビュー画像を表示デバイス17に表示させる制御を実行する。
次に、制御部13は、ステップS502において、ユーザの操作によってレリーズボタン18が押印(この場合は全押し)されたか否かを判断する。すなわち、視点Aの画像の撮影指示待ちの状態になる。ユーザの操作によりレリーズボタン18が押印されると、制御部13は、ステップS503に移り、各部に視点Aの画像データDaの撮影及びその記録を実行させる。
次に、視点Aの画像データDaの撮影及び記録が終了すると、ユーザは、好適には、視点Aとは異なる視点Bで撮影を行うように撮像装置の位置や主要被写体7に対する撮影方向を変更する。
次に、制御部13は、ステップS504において、視点Aの画像データDaと視点Bのライブビュー画像とを互いに半透明な画像状態として重ね合わせ、次のステップS505において、当該重ね合わせた結果を表示デバイス17に表示させる。
次に、制御部13は、ステップS504において、視点Aの画像データDaと視点Bのライブビュー画像とを互いに半透明な画像状態として重ね合わせ、次のステップS505において、当該重ね合わせた結果を表示デバイス17に表示させる。
次に、制御部13は、ステップS901において、レリーズボタン18の押印の状況、すなわち全押し又は半押しのいずれか一方がなされた状況であるかを判断する。なお、レリーズボタン18が押されて無い状態が所定時間続いていれば、制御部13は、上記各ステップS504〜S505、S901の動作を各部に繰り返し実行させる。
レリーズボタン18の押印状況の判断の結果、レリーズボタン18が全押しされると、制御部13は、ステップS507〜S509を実行し、例えば上記図3に示すような遮蔽物6を除去した遮蔽物除去画像データDrを生成するための制御を行う。すなわち、光学系10を通った視点Bの主要被写体7を含む光像は、撮像素子11によって画像データに変換され、画像処理部12は、撮像素子11から出力された画像データに対して画像処理を行って例えば視点Bの画像データDbとしてメモリ5に格納する。
次に、視差検出部2は、ステップS507において、メモリ5から視点Aの画像データDaと視点Bの画像データDbとを取得し、これら画像データDaと画像データDbとの画像間の相関を求め、これら画像データDa、Db間で対応する各領域毎の座標の差分を視差として求め、この視差情報Dpをメモリ5に格納する。
次に、遮蔽領域抽出部3は、メモリ5から視差情報Dpを読み出し、この視差情報Dpに基づいて遮蔽領域情報Dcを抽出する。
次に、遮蔽領域変換部4は、ステップS508において、メモリ5から遮蔽領域情報Dcと視点Aの画像データDaと視点Bの画像データDbとを読み出し、これら遮蔽領域情報Dcと視点Aの画像データDaと視点Bの画像データDbとに基づいて例えば図3に示すような遮蔽物6を除去した遮蔽物除去画像データDrを生成する。
この後、遮蔽領域変換部4は、ステップS509において、遮蔽物除去画像データDrを記憶部14に格納する。
次に、遮蔽領域抽出部3は、メモリ5から視差情報Dpを読み出し、この視差情報Dpに基づいて遮蔽領域情報Dcを抽出する。
次に、遮蔽領域変換部4は、ステップS508において、メモリ5から遮蔽領域情報Dcと視点Aの画像データDaと視点Bの画像データDbとを読み出し、これら遮蔽領域情報Dcと視点Aの画像データDaと視点Bの画像データDbとに基づいて例えば図3に示すような遮蔽物6を除去した遮蔽物除去画像データDrを生成する。
この後、遮蔽領域変換部4は、ステップS509において、遮蔽物除去画像データDrを記憶部14に格納する。
一方、レリーズボタン18の押印状況の判断の結果、レリーズボタン18が半押しされると、視差検出部2は、ステップS701において、メモリ5から視点Aの画像データDaと視点Bのライブビュー画像とを取得し、これら視点Aの画像データDaと視点Bのライブビュー画像との画像間の視差を検出し、この視差情報Dpをメモリ5に格納する。
次に、遮蔽領域抽出部3は、ステップS702において、メモリ5から視差情報Dpを読み出し、この視差情報Dpに基づいて遮蔽領域情報Dcを抽出する。
次に、遮蔽領域変換部4は、メモリ5から遮蔽領域情報Dcと視点Aの画像データDaと視点Bのライブビュー画像とを読み出し、これら遮蔽領域情報Dcと視点Aの画像データDaと視点Bのライブビュー画像とに基づいて例えば図3に示すような遮蔽物6を除去した遮蔽物除去画像データDrを生成する。この遮蔽物除去画像データDrは、例えばメモリ5に格納される。
次に、表示制御部16は、ステップS703において、メモリ5から遮蔽物除去画像データDrを読み出し、この遮蔽物除去画像データDrを表示デバイス17に表示する。
再び、制御部13は、ステップS901において、レリーズボタン18の押印の状況、すなわち全押し又は半押しのいずれか一方がなされた状況であるかを判断する。なお、レリーズボタン18が半押しの状態が続いていれば、制御部13は、上記各ステップS701〜S703を繰り返し実行させる。
レリーズボタン18が全押しされると、制御部13は、上記同様に、各ステップS507〜ステップS509を実行し、例えば上記図3に示すような遮蔽物6を除去した遮蔽物除去画像データDrを生成するための制御を行う。
次に、遮蔽領域抽出部3は、ステップS702において、メモリ5から視差情報Dpを読み出し、この視差情報Dpに基づいて遮蔽領域情報Dcを抽出する。
次に、遮蔽領域変換部4は、メモリ5から遮蔽領域情報Dcと視点Aの画像データDaと視点Bのライブビュー画像とを読み出し、これら遮蔽領域情報Dcと視点Aの画像データDaと視点Bのライブビュー画像とに基づいて例えば図3に示すような遮蔽物6を除去した遮蔽物除去画像データDrを生成する。この遮蔽物除去画像データDrは、例えばメモリ5に格納される。
次に、表示制御部16は、ステップS703において、メモリ5から遮蔽物除去画像データDrを読み出し、この遮蔽物除去画像データDrを表示デバイス17に表示する。
再び、制御部13は、ステップS901において、レリーズボタン18の押印の状況、すなわち全押し又は半押しのいずれか一方がなされた状況であるかを判断する。なお、レリーズボタン18が半押しの状態が続いていれば、制御部13は、上記各ステップS701〜S703を繰り返し実行させる。
レリーズボタン18が全押しされると、制御部13は、上記同様に、各ステップS507〜ステップS509を実行し、例えば上記図3に示すような遮蔽物6を除去した遮蔽物除去画像データDrを生成するための制御を行う。
このように上記第4の実施の形態によれば、1枚目の視点Aの画像データと、これから撮影しようとしている視点Bのライブビュー画像とに基づいて当該視点Aの画像データと視点Bのライブビュー画像とを半透明状態で重ね合わせて表示デバイス17に表示し、レリーズボタン18を半押しすると、遮蔽物6を除去した遮蔽物除去画像データDrを表示デバイス17に表示する。これにより、ユーザは、レリーズボタン18を押す前に、主要被写体を含む画像の最適な構図を決定でき、レリーズボタン18を半押しすることにより遮蔽物6の除去効果を確認でき、その後にレリーズボタン18を全押しすることにより撮影を行うことが可能となる。
なお、本実施の形態は、上記第1と上記第2の実施形態とを組み合わせたものであるが、上記第1と上記第3の実施形態とを組み合わせることも可能である。この場合、上記図10に示す各ステップS702〜S703を、上記各ステップS802〜S803に変更することで実現することができる。又、3種類以上の表示効果を組み合わせることも可能である。
次に、上記第4の実施の形態の変形例について説明する。なお、撮像装置の構成は、図4に示す構成と同一であるので、当該図4を援用して説明する。又、上記図10に示す撮像動作フローチャートと同一ステップには同一ステップの符号を付してその詳しい説明は省略する。
上記第4の実施の形態は、視点Aの画像データと視点Bのライブビュー画像とを用いていたが、本変形例では、視点Aの画像データを縮小した縮小画像データと視点Bのライブビュー画像を縮小した縮小ライブビュー画像とを用いる。視点Aの画像データと視点Bのライブビュー画像との各縮小は、例えば各画素の間引き処理により行う。
上記第4の実施の形態は、視点Aの画像データと視点Bのライブビュー画像とを用いていたが、本変形例では、視点Aの画像データを縮小した縮小画像データと視点Bのライブビュー画像を縮小した縮小ライブビュー画像とを用いる。視点Aの画像データと視点Bのライブビュー画像との各縮小は、例えば各画素の間引き処理により行う。
図11は撮像動作フローチャートを示す。この撮像動作フローチャートにおいて、各ステップS1001〜S1008は、本変形例で追加したステップである。
次に、上記の如く構成された撮像装置の動作について図10に示す撮像動作フローチャートに従って説明する。
ユーザの所定の操作より遮蔽物除去モードが選択されると、制御部13は、上記同様に、ステップS501において、例えば図2(a)に示すような視点Aにおける主要被写体7を含むライブビュー画像を表示デバイス17に表示させる。
次に、制御部13は、ステップS502において、ユーザの操作によってレリーズボタン18が押印(この場合は全押し)されたか否かを判断する。すなわち、視点Aの画像の撮影待ちの状態になる。ユーザの操作によりレリーズボタン18が押印されると、制御部13は、ステップS503に移り、各部に視点Aの画像データDaの撮影及びその記録を実行させる。
ユーザの所定の操作より遮蔽物除去モードが選択されると、制御部13は、上記同様に、ステップS501において、例えば図2(a)に示すような視点Aにおける主要被写体7を含むライブビュー画像を表示デバイス17に表示させる。
次に、制御部13は、ステップS502において、ユーザの操作によってレリーズボタン18が押印(この場合は全押し)されたか否かを判断する。すなわち、視点Aの画像の撮影待ちの状態になる。ユーザの操作によりレリーズボタン18が押印されると、制御部13は、ステップS503に移り、各部に視点Aの画像データDaの撮影及びその記録を実行させる。
次に、画像処理部12は、ステップS1001において、メモリ5に格納された上記視点Aの画像データDaを縮小して縮小画像データを生成し、この縮小画像データをメモリ5に格納する。この画像処理部12は、メモリ5から読み出した視点Aの画像データDaに対して例えば公知のニアレストネイバー、バイリニア、バイキューピック等の方法によって縮小処理を実施することが可能である。
次に、ユーザは、視点Aとは異なる視点Bで撮影を行うように撮像装置の位置や主要被写体7に対する撮影方向を変更する。画像処理部12は、ステップS1002において、上記同様に、例えば図2(b)に示すような視点Bのライブビュー画像を生成する。そして、画像処理部12は、視点Bのライブビュー画像を縮小して視点Bの縮小ライブビュー画像データを生成し、この縮小ライブビュー画像データをメモリ5に格納する。この画像処理部12は、上記同様に、例えば公知のニアレストネイバー、バイリニア、バイキューピック等の方法によって視点Bの画像データDbの縮小処理を実施することが可能である。
なお、画像処理部12は、その内部を縮小画像と非縮小画像とを同時に処理できる構成にすれば、上記ステップS503と上記ステップS1001とを同時に実行することが可能である。
又、視点Aの画像データを記録する際、公知のサムネイル画像やスクリーンネイル画像のように本画像とは別の縮小画像も併せて記録する場合がある。この場合、視点Aの画像データのサイズと、他のサムネイル画像やスクリーンネイル画像のような記録に関わる縮小画像のサイズとを同じサイズにすれば、画像処理部12における演算量を削減することができる。
なお、画像処理部12は、その内部を縮小画像と非縮小画像とを同時に処理できる構成にすれば、上記ステップS503と上記ステップS1001とを同時に実行することが可能である。
又、視点Aの画像データを記録する際、公知のサムネイル画像やスクリーンネイル画像のように本画像とは別の縮小画像も併せて記録する場合がある。この場合、視点Aの画像データのサイズと、他のサムネイル画像やスクリーンネイル画像のような記録に関わる縮小画像のサイズとを同じサイズにすれば、画像処理部12における演算量を削減することができる。
次に、ステップS1003に移り、表示効果部15に、視点Aの縮小画像データと視点Bの縮小ライブビュー画像データとを互いに半透明な画像状態として重ね合わせて互いに半透明の画像データを生成させる。
次に、表示制御部16は、ステップS1004において、上記生成された半透明画像データを表示デバイス17に表示する。
次に、表示制御部16は、ステップS1004において、上記生成された半透明画像データを表示デバイス17に表示する。
次に、制御部13は、ステップS901において、レリーズボタン18の押印の状況、すなわち全押し又は半押しのいずれか一方がなされた状況であるかを判断する。なお、レリーズボタン18が押されて無い状態が所定時間続いていれば、制御部13は、上記各ステップS1002〜S1004、S901を繰り返す。
一方、レリーズボタン18が半押しされると、制御部13は、ステップS1005に移り、上記同様に、例えば図2(b)に示すような視点Bのライブビュー画像を連続して生成するための制御を行う。そして、画像処理部12は、視点Bのライブビュー画像を縮小して視点Bの縮小ライブビュー画像データを生成し、この縮小ライブビュー画像データをメモリ5に格納する。
次に、視差検出部2は、ステップS1006において、視点Aの縮小画像データと視点Bの縮小ライブビュー画像データとの相関を求めて遮蔽物6を認識する。
次に、遮蔽領域抽出部3は、ステップS1007において、視点Aの縮小画像データにおける遮蔽物6による遮蔽部分を視点Bの縮小ライブビュー画像データを用いて補正する。すなわち、当該補正により遮蔽物6を除去した縮小遮蔽物除去画像データDrをリアルタイムに連続して更新して生成する。この更新された縮小遮蔽物除去画像データDrは、例えばメモリ5に格納される。
次に、表示制御部16は、ステップS1008において、メモリ5から縮小遮蔽物除去画像データDrを読み出し、この縮小遮蔽物除去画像データDrをリアルタイムに更新しながら表示デバイス17に表示する。
次に、遮蔽領域抽出部3は、ステップS1007において、視点Aの縮小画像データにおける遮蔽物6による遮蔽部分を視点Bの縮小ライブビュー画像データを用いて補正する。すなわち、当該補正により遮蔽物6を除去した縮小遮蔽物除去画像データDrをリアルタイムに連続して更新して生成する。この更新された縮小遮蔽物除去画像データDrは、例えばメモリ5に格納される。
次に、表示制御部16は、ステップS1008において、メモリ5から縮小遮蔽物除去画像データDrを読み出し、この縮小遮蔽物除去画像データDrをリアルタイムに更新しながら表示デバイス17に表示する。
再び、制御部13は、ステップS901において、レリーズボタン18の押印の状況、すなわち全押し又は半押しのいずれか一方がなされた状況であるかを判断する。なお、レリーズボタン18が半押しの状態が続いていれば、制御部13は、上記各ステップS1005〜S1008を繰り返す。
レリーズボタン18が全押しされると、制御部13は、上記同様に、各ステップS507〜ステップS509を実行し、遮蔽物除去画像データDrを記憶部14に格納させる。
レリーズボタン18が全押しされると、制御部13は、上記同様に、各ステップS507〜ステップS509を実行し、遮蔽物除去画像データDrを記憶部14に格納させる。
このように上記第4の実施の形態の変形例によれば、視点Aの画像データDaを縮小して縮小画像データを生成し、視点Bのライブビュー画像を縮小して視点Bの縮小ライブビュー画像データを生成し、これら視点Aの縮小画像データと視点Bの縮小ライブビュー画像データとを互いに半透明な画像状態として重ね合わせて表示デバイス17に表示し、この状態で、レリーズボタン18が半押しされると、視点Aの縮小画像データと視点Bの縮小ライブビュー画像データとの相関を求めて遮蔽物6を認識し、視点Aの縮小画像データにおける遮蔽物6による遮蔽部分を視点Bの縮小ライブビュー画像データを用いて補正して遮蔽物6を除去した縮小遮蔽物除去画像データDrをリアルタイムに連続して更新して生成する。これにより、縮小処理を施さない場合と比べて演算量を減らすことが可能となる。従って、表示のリアルタイム性を損なわず、消費電力を削減可能な撮像装置を提供することが可能となる。
なお、上記変形例の撮像動作フローチャートでは、視点Aの縮小画像データと視点Bの縮小ライブビュー画像データとを互いに半透明な画像状態として重ね合わせて表示する上記各ステップS1003、S1006〜S1007において縮小画像データを用いているが、遮蔽物6を除去した遮蔽物除去画像データDrを生成する上記各ステップS507〜S508においては縮小画像データでなく等倍の画像データを用いている。これにより、遮蔽物除去画像データDr等の記録画像の画質を保ったままで、演算量を削減することが可能である。
遮蔽物除去画像データDr等の記録画像を生成する各ステップS507〜S508においても、縮小画像を用いることも可能である。例えば、遮蔽物6を認識するステップS507に縮小画像データを用い、かつ遮蔽物6の領域を補正するステップS508において等倍の画像データを用いる。これによっても、さらに演算量を削減することも可能である。
又、以上の説明においては、縮小画像データは、画像処理部12で生成する例を示したが、撮像素子11の駆動方法を制御することにより、公知の画素加算読み出しやライン間引き読み出しを行うことで、縮小画像データを生成することも可能である。
次に、本発明の第5の実施の形態について図面を参照して説明する。なお、図4と同一部分には同一符号を付してその詳しい説明は省略する。
図12は撮像装置の構成図を示す。本装置は、上記第1の実施の形態に、第2の撮像系200として第2の光学系20、第2の撮像素子21、第2の画像処理部22を追加したものである。なお、光学系10、撮像素子11、画像処理部12は、第1の撮像系100とし、以下それぞれ第1の光学系10、第1の撮像素子11、第1の画像処理部12と称する。
図12は撮像装置の構成図を示す。本装置は、上記第1の実施の形態に、第2の撮像系200として第2の光学系20、第2の撮像素子21、第2の画像処理部22を追加したものである。なお、光学系10、撮像素子11、画像処理部12は、第1の撮像系100とし、以下それぞれ第1の光学系10、第1の撮像素子11、第1の画像処理部12と称する。
このような構成であれば、第1の撮像系100において、第1の光学系10を通った主要被写体7を含む光像は、第1の撮像素子11に入射する。この第1の撮像素子11は、入射した光像を画像データに変換する。第1の画像処理部12は、第1の撮像素子11から出力された画像データを入力し、この画像データに対して例えばノイズ除去や画像フォーマット変換等の画像処理を行い、この画像処理して取得した画像データを、例えば上記視点Aの画像データDaとしてメモリ5に格納する。
一方、第2の撮像系200において、第2の光学系20を通った主要被写体7を含む光像は、第2の撮像素子21に入射する。この第2の撮像素子21は、入射した光像を画像データに変換する。第2の画像処理部22は、第2の撮像素子21から出力された画像データを入力し、この画像データに対して例えばノイズ除去や画像フォーマット変換等の画像処理を行い、この画像処理して取得した画像データを、例えば上記視点Bの画像データDbとしてメモリ5に格納する。
このように上記第5の実施の形態によれば、第1の撮像系100と第2の撮像系200との2系統の撮像系を設けたので、撮像装置を視点Aの位置から視点Bの位置に移動することなく、例えば視点Aと視点Bとの複数の視点の画像データを取得することができる。
そして、上記第1乃至第4の実施の形態と同様に、撮影前に半透明表示や遮蔽物除去画像の表示や遮蔽物強調表示等を行った上で、撮影を行い、遮蔽物除去画像を得ることが可能である。
ここでは、複眼カメラの例として、二眼カメラの例を示したが、三眼カメラや四眼カメラであっても適用可能なことは言うまでもない。
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
1:遮蔽物除去画像生成部、2:視差検出部、3:遮蔽領域抽出部、4:遮蔽領域変換部、5:メモリ、6:遮蔽物、7:主要被写体、10:(第1の)光学系、11:(第1の)撮像素子、12:(第1の)画像処理部、13:制御部、14:記憶部、15:表示効果部、16:表示制御部、17:表示デバイス、18:レリーズボタン、100:第1の撮像系、200:第2の撮像系、20:第2の光学系、21:第2の撮像素子、22:第2の画像処理部。
Claims (16)
- 遮蔽物に遮蔽された主要被写体を複数の視点から撮影する少なくとも1つの撮像手段と、
前記少なくとも1つの撮像手段の撮影により取得される前記視点の異なる複数の画像データを重ね合わせた表示用画像データを生成する表示用画像生成手段と、
前記視点の異なる前記複数の画像データに基づいて前記遮蔽物を除去した遮蔽物除去画像データを生成する遮蔽物除去画像生成手段と、
を具備することを特徴とする撮像装置。 - 遮蔽物に遮蔽された主要被写体を複数の視点から撮影する少なくとも1つの撮像手段と、
前記少なくとも1つの撮像手段に撮影指示を通知する撮影指示手段と、
前記撮影指示手段により前記撮影指示が通知される前に、前記少なくとも1つの撮像手段の撮影により取得される前記視点の異なる複数の画像データを重ね合わせた表示用画像データを生成する表示用画像生成手段と、
前記表示用画像生成手段で生成された前記表示用画像データをリアルタイムに更新して表示する表示手段と、
前記撮影指示手段により撮影指示が通知されると、前記視点の異なる前記複数の画像データに基づいて前記遮蔽物を除去した遮蔽物除去画像データを生成する遮蔽物除去画像生成手段と、
前記遮蔽物除去画像生成手段で生成された前記遮蔽物除去画像データを記録する記録部と、
を具備することを特徴とする撮像装置。 - 前記表示用画像生成手段は、前記視点の異なる前記複数の画像データを重畳して当該複数の画像データが互いに透過状態となる前記表示用画像データを生成することを特徴とする請求項1又は2記載の撮像装置。
- 前記表示用画像生成手段は、前記複数の視点のうち第1の視点からの撮影により取得された第1の視点の画像データと第2の視点からリアルタイムな撮影により取得される第2の視点の撮影候補画像データとに基づいて前記表示用画像データを生成し、
前記遮蔽物除去画像生成手段は、前記第1の視点の画像データと前記第2の視点の撮影候補画像データとに基づいて前記遮蔽物除去画像データを生成する、
ことを特徴とする請求項1又は2記載の撮像装置。 - 前記第1の視点の画像データを予め格納するメモリを有し、
前記表示用画像生成手段は、前記メモリから前記第1の視点の画像データを読み出し、前記第1の視点の画像データと第2の視点からリアルタイムな撮影により取得される第2の視点の撮影候補画像データとに基づいて前記表示用画像データを生成する、
ことを特徴とする請求項1又は2記載の撮像装置。 - 前記遮蔽物除去画像生成手段は、前記視点の異なる前記複数の画像データに基づいて前記遮蔽物により遮蔽される領域を抽出し、当該抽出した遮蔽領域を除去した前記遮蔽物除去画像データを生成することを特徴とする請求項1又は2記載の撮像装置。
- 前記遮蔽物除去画像生成手段は、前記視点の異なる前記複数の画像データに基づいて前記遮蔽物により遮蔽される領域を抽出し、
前記表示用画像生成手段は、前記遮蔽物除去画像生成手段により抽出された遮蔽領域に対して強調表示処理を施して前記遮蔽物除去画像データを生成することを特徴とする請求項1又は2記載の撮像装置。 - 前記表示用画像生成手段は、前記遮蔽領域に対する前記強調表示処理として特定色に置き換える、前記特定色を点滅表示する、又はモノクローム・セピア処理を含む特定の処理を施すことを特徴とする請求項7記載の撮像装置。
- 前記撮影指示を通知する前に撮影準備指示を通知する撮影準備指示手段を有し、
前記表示用画像生成手段は、前記撮影準備指示手段から前記撮影準備指示が通知される前後においてそれぞれ異なる前記各表示用画像データの生成に変更する、
ことを特徴とする請求項1又は2記載の撮像装置。 - 前記撮影指示手段は、レリーズボタンを有し、当該レリーズボタンに対する全押しにより前記撮影指示を通知し、半押しにより前記撮影準備指示を通知することを特徴とする請求項2又は9記載の撮像装置。
- 前記表示用画像生成手段は、前記撮影準備指示が通知される前に、前記視点の異なる前記複数の画像データを重畳して当該複数の画像データが互いに透過状態となる前記表示用画像データを生成し、
前記遮蔽物除去画像生成手段は、前記撮影準備指示が通知された後に、前記視点の異なる前記複数の画像データに基づいて前記遮蔽物により遮蔽される領域を抽出し、当該抽出した遮蔽領域を除去した前記遮蔽物除去画像データを生成する、
ことを特徴とする請求項9記載の撮像装置。 - 前記視点の異なる複数の画像データの画素数を減少する画像処理手段を有し、
前記表示用画像生成手段は、前記画像処理手段により前記画素数の減少した前記複数の画像データを重ね合わせて前記表示用画像データを生成することを特徴とする請求項1又は2記載の撮像装置。 - 前記視点の異なる複数の画像データの画素数を減少する画像処理部を有し、
前記表示用画像生成手段は、前記撮影準備指示が通知される前に、前記画像処理手段により前記画素数の減少した前記複数の画像データを重畳して当該複数の画像データが互いに透過状態となる前記表示用画像データを生成し、
前記遮蔽物除去画像生成手段は、前記撮影準備指示が通知された後に、前記画素数を減少した画像データに基づいて前記遮蔽物により遮蔽される領域を抽出し、当該抽出した遮蔽領域を除去した前記遮蔽物除去画像データを生成する、
ことを特徴とする請求項9記載の撮像装置。 - 前記遮蔽物除去画像生成手段は、前記複数の画像データとの画像間の視差の情報を検出する視差検出部と、
前記視差検出部により検出された前記視差情報に基づいて前記複数の画像データのうちいずれか1つの画像データ中における前記遮蔽物により遮蔽された遮蔽領域を抽出する遮蔽領域抽出部と、
前記遮蔽領域抽出部により抽出された前記遮蔽領域の情報と前記複数の画像データとに基づいて前記遮蔽物を除去した前記遮蔽物除去画像データを生成する遮蔽領域変換部と、
を有することを特徴とする請求項1又は2記載の撮像装置。 - 第1の視点からの撮影により第1の視点の画像データを取得する第1の光学系と、
第2の視点からの撮影により第2の視点の画像データを取得する第2の光学系と、
を有し、
前記表示用画像生成手段は、前記第1の光学系により取得された前記第1の視点の画像データと前記第2の光学系により取得された前記第2の視点の画像データとを重ね合わせた前記表示用画像データを生成する、
ことを特徴とする請求項1又は2記載の撮像装置。 - 前記第2の視点は、前記第1の視点から前記遮蔽物の配置方向に対して垂直方向に移動した位置になることを特徴とする請求項4記載の撮像装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008204453A JP2010041586A (ja) | 2008-08-07 | 2008-08-07 | 撮像装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008204453A JP2010041586A (ja) | 2008-08-07 | 2008-08-07 | 撮像装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010041586A true JP2010041586A (ja) | 2010-02-18 |
Family
ID=42013622
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008204453A Withdrawn JP2010041586A (ja) | 2008-08-07 | 2008-08-07 | 撮像装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010041586A (ja) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4763847B1 (ja) * | 2010-08-30 | 2011-08-31 | 楽天株式会社 | 画像変換装置、画像処理装置、ならびに、画像処理システム |
JP4783859B1 (ja) * | 2010-08-30 | 2011-09-28 | 楽天株式会社 | 画像変換装置、画像処理システム、画像変換方法、プログラム、ならびに、情報記録媒体 |
JP2012182582A (ja) * | 2011-02-28 | 2012-09-20 | Olympus Imaging Corp | 撮像装置 |
CN103581518A (zh) * | 2012-07-19 | 2014-02-12 | 奥林巴斯映像株式会社 | 摄像装置 |
JP2015002529A (ja) * | 2013-06-18 | 2015-01-05 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
JP2015035799A (ja) * | 2013-07-09 | 2015-02-19 | キヤノン株式会社 | 情報処理装置、撮像装置、情報処理システム、情報処理方法およびプログラム |
JP2016180681A (ja) * | 2015-03-24 | 2016-10-13 | 株式会社フジタ | 地盤崩壊検知システム |
JP2017005288A (ja) * | 2015-06-04 | 2017-01-05 | 株式会社クリプトン | 画像合成装置及び画像合成方法 |
WO2017043331A1 (ja) * | 2015-09-09 | 2017-03-16 | ソニー株式会社 | 画像処理装置、及び、画像処理方法 |
WO2018168405A1 (ja) * | 2017-03-16 | 2018-09-20 | 富士フイルム株式会社 | 画像合成装置、画像合成方法及びプログラム |
JP2019024258A (ja) * | 2013-07-09 | 2019-02-14 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP2019511871A (ja) * | 2016-06-09 | 2019-04-25 | グーグル エルエルシー | 視覚的な障害物を通して写真を撮影する方法 |
WO2019082415A1 (ja) * | 2017-10-26 | 2019-05-02 | シャープ株式会社 | 画像処理装置、撮像装置、画像処理装置の制御方法、画像処理プログラムおよび記録媒体 |
CN113747058A (zh) * | 2021-07-27 | 2021-12-03 | 荣耀终端有限公司 | 基于多摄像头的图像内容屏蔽方法和装置 |
-
2008
- 2008-08-07 JP JP2008204453A patent/JP2010041586A/ja not_active Withdrawn
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101477937B1 (ko) * | 2010-08-30 | 2014-12-30 | 라쿠텐 인코포레이티드 | 화상 처리 장치, 화상 처리 방법 및 정보 기록 매체 |
JP4783859B1 (ja) * | 2010-08-30 | 2011-09-28 | 楽天株式会社 | 画像変換装置、画像処理システム、画像変換方法、プログラム、ならびに、情報記録媒体 |
CN103081454A (zh) * | 2010-08-30 | 2013-05-01 | 乐天株式会社 | 商品摄影装置、商品摄影方法、图像变换装置、图像处理装置、图像处理系统、程序及信息记录介质 |
KR101412878B1 (ko) * | 2010-08-30 | 2014-06-26 | 라쿠텐 인코포레이티드 | 상품 촬영 장치, 상품 촬영 방법, 화상 변환 장치, 화상 처리 장치, 화상 처리 시스템, 프로그램, 및, 정보 기록 매체 |
JP4763847B1 (ja) * | 2010-08-30 | 2011-08-31 | 楽天株式会社 | 画像変換装置、画像処理装置、ならびに、画像処理システム |
JP2012182582A (ja) * | 2011-02-28 | 2012-09-20 | Olympus Imaging Corp | 撮像装置 |
CN103581518A (zh) * | 2012-07-19 | 2014-02-12 | 奥林巴斯映像株式会社 | 摄像装置 |
CN103581518B (zh) * | 2012-07-19 | 2016-12-28 | 奥林巴斯株式会社 | 摄像装置 |
JP2015002529A (ja) * | 2013-06-18 | 2015-01-05 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
JP2019024258A (ja) * | 2013-07-09 | 2019-02-14 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP2015035799A (ja) * | 2013-07-09 | 2015-02-19 | キヤノン株式会社 | 情報処理装置、撮像装置、情報処理システム、情報処理方法およびプログラム |
JP2016180681A (ja) * | 2015-03-24 | 2016-10-13 | 株式会社フジタ | 地盤崩壊検知システム |
JP2017005288A (ja) * | 2015-06-04 | 2017-01-05 | 株式会社クリプトン | 画像合成装置及び画像合成方法 |
WO2017043331A1 (ja) * | 2015-09-09 | 2017-03-16 | ソニー株式会社 | 画像処理装置、及び、画像処理方法 |
US10748264B2 (en) | 2015-09-09 | 2020-08-18 | Sony Corporation | Image processing apparatus and image processing method |
JP2019511871A (ja) * | 2016-06-09 | 2019-04-25 | グーグル エルエルシー | 視覚的な障害物を通して写真を撮影する方法 |
JP2020181595A (ja) * | 2016-06-09 | 2020-11-05 | グーグル エルエルシー | 視覚的な障害物を通して写真を撮影する方法 |
US11050948B2 (en) | 2016-06-09 | 2021-06-29 | Google Llc | Taking photos through visual obstructions |
JP7072606B2 (ja) | 2016-06-09 | 2022-05-20 | グーグル エルエルシー | 視覚的な障害物を通して写真を撮影する方法 |
WO2018168405A1 (ja) * | 2017-03-16 | 2018-09-20 | 富士フイルム株式会社 | 画像合成装置、画像合成方法及びプログラム |
JPWO2018168405A1 (ja) * | 2017-03-16 | 2020-01-16 | 富士フイルム株式会社 | 画像合成装置、画像合成方法及びプログラム |
US11170477B2 (en) | 2017-03-16 | 2021-11-09 | Fujifilm Corporation | Image composition apparatus, image composition method, and program |
WO2019082415A1 (ja) * | 2017-10-26 | 2019-05-02 | シャープ株式会社 | 画像処理装置、撮像装置、画像処理装置の制御方法、画像処理プログラムおよび記録媒体 |
JPWO2019082415A1 (ja) * | 2017-10-26 | 2020-11-05 | シャープ株式会社 | 画像処理装置、撮像装置、画像処理装置の制御方法、画像処理プログラムおよび記録媒体 |
CN113747058A (zh) * | 2021-07-27 | 2021-12-03 | 荣耀终端有限公司 | 基于多摄像头的图像内容屏蔽方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2010041586A (ja) | 撮像装置 | |
JP5036599B2 (ja) | 撮像装置 | |
JP5127787B2 (ja) | 複眼撮影装置及びその制御方法 | |
US20130113875A1 (en) | Stereoscopic panorama image synthesizing device, multi-eye imaging device and stereoscopic panorama image synthesizing method | |
GB2485036A (en) | Preventing subject occlusion in a dual lens camera PIP display | |
KR20090088325A (ko) | 화상 처리 장치, 화상 처리 방법 및 촬상 장치 | |
JP2010166558A (ja) | 撮像装置 | |
JP5526233B2 (ja) | 立体視用画像撮影装置およびその制御方法 | |
US9253406B2 (en) | Image capture apparatus that can display review image, image capture method, and storage medium | |
KR20140047533A (ko) | 화상 처리 장치, 화상 처리 방법 및 기억 매체 | |
JP6786311B2 (ja) | 画像処理装置、画像処理方法、コンピュータプログラムおよび記憶媒体 | |
US20130083169A1 (en) | Image capturing apparatus, image processing apparatus, image processing method and program | |
JP6261397B2 (ja) | 撮像装置及びその制御方法 | |
JP2017060010A (ja) | 撮像装置、撮像装置の制御方法、およびプログラム | |
JP2011035643A (ja) | 多眼撮影方法および装置、並びにプログラム | |
JP2010288253A (ja) | 画像処理装置および方法並びにプログラム | |
JP2020107956A (ja) | 撮像装置、撮像方法およびプログラム | |
JP2013247543A (ja) | 撮像装置、表示装置、および画像処理方法、並びにプログラム | |
TWI504936B (zh) | 影像處理裝置 | |
JP6961423B2 (ja) | 画像処理装置、撮像装置、画像処理装置の制御方法、プログラムおよび記録媒体 | |
JP2009200981A (ja) | ビデオカメラ | |
JP2008282077A (ja) | 撮像装置および画像処理方法並びにそのプログラム | |
JP2009169884A (ja) | 撮影装置および撮影装置の制御方法、画像再生装置および方法並びにプログラム | |
JP2012186538A (ja) | 電子カメラ、画像表示装置、プログラム及び記録媒体 | |
JP5110713B2 (ja) | 多眼撮影装置、スルー画像表示方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20111101 |