JP6851551B2 - 撮像装置、撮像方法、及びプログラム - Google Patents

撮像装置、撮像方法、及びプログラム Download PDF

Info

Publication number
JP6851551B2
JP6851551B2 JP2020525299A JP2020525299A JP6851551B2 JP 6851551 B2 JP6851551 B2 JP 6851551B2 JP 2020525299 A JP2020525299 A JP 2020525299A JP 2020525299 A JP2020525299 A JP 2020525299A JP 6851551 B2 JP6851551 B2 JP 6851551B2
Authority
JP
Japan
Prior art keywords
image
imaging
area
unit
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020525299A
Other languages
English (en)
Other versions
JPWO2019239715A1 (ja
Inventor
内田 亮宏
亮宏 内田
田中 康一
康一 田中
入江 公祐
公祐 入江
慎也 藤原
慎也 藤原
伸一郎 藤木
伸一郎 藤木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Application granted granted Critical
Publication of JP6851551B2 publication Critical patent/JP6851551B2/ja
Publication of JPWO2019239715A1 publication Critical patent/JPWO2019239715A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description


本開示は、撮像装置、撮像方法、及びプログラムに関する。

従来、電子部品画像及び実写映像の被写体の所定の視点からの距離同士を画素毎に比較し、比較結果に基づいて電子部品画像と実写映像とを合成する技術が開示されている(特許文献1参照)。

また、所定の被写体が撮像されている動画像から被写体が映されている領域を含むように生成された被写体動画像に対して、被写体毎に個別に、被写体動画像に対して行われた操作内容に応じた画像処理を行う技術が開示されている(特許文献2参照)。この技術では、画像処理が施された被写体動画像と、他の動画像とを合成する。

また、画像上の複数の位置それぞれに画像の奥行き方向の距離に係る距離情報を有する原画像と、原画像の一部と入れ替わる入替用画像とを取得し、取得した原画像の一部を抽出した抽出画像と、入替用画像とを合成する技術が開示されている(特許文献3参照)。

特開平5−244630号公報 再公表特許第2016/152633号 特開2012−252648号公報

ところで、撮像により得られた画像から主要被写体を抽出し、抽出した主要被写体と別の画像の背景とを合成する技術が知られている。この技術として、例えば、画像の背景領域が特定の色(例えば、緑又は青等)となる設備を用いて撮像を行うクロマキー技術が知られている。

クロマキー技術では、画像の背景領域を特定の色に統一するために、背景領域が特定の色となる設備が用いられる結果、屋内のスタジオ等において撮像を行う必要がある等、撮像場所が限定されてしまう。一方、屋外において画像を撮像した場合は、撮像により得られた画像の背景領域をユーザが手作業により指定する等、手間がかかってしまい、簡易に合成用の画像を生成することができない。

一般的に行われている画像の合成の手間を低減するために、撮像の際に得られる距離情報から背景領域を特定し、背景領域が特定の色に統一された合成用の画像を簡易に生成できることが望ましい。しかしながら、特許文献1〜3に記載の技術では、画像の背景領域を特定の色に統一することについては考慮されていない。

本開示は、以上の事情を鑑みて成されたものであり、撮像場所が限定されることなく、簡易に合成用の画像を生成することができる撮像装置、撮像方法、及びプログラムを提供することを目的とする。

上記目的を達成するために、本開示の撮像装置は、撮像により画像を取得する撮像部と、撮像部による撮像により取得された画像内の主要被写体領域と背景領域とを切り分けるための距離閾値を設定する設定部と、画像を撮像する際に得られる距離情報から画像内の距離マップを生成する生成部と、距離マップにおける距離が距離閾値を超える領域を画像の背景領域と判定する判定部と、画像の背景領域を特定の色に変換する画像処理を行う画像処理部と、画像処理を経た画像を記憶部に記憶する制御を行う記憶制御部と、を備えている。

なお、本開示の撮像装置は、画像の記録開始の指示が入力される前に距離閾値が視認可能なライブビュー画像を表示部に表示する制御を行う表示制御部を更に備えてもよい。

また、本開示の撮像装置は、表示制御部が、距離閾値を設定するための情報を表示部に更に表示する制御を行ってもよい。

また、本開示の撮像装置は、生成部が、ライブビュー画像について、距離マップを生成し、画像処理部は、ライブビュー画像の背景領域を特定の色に変換する画像処理を行い、表示制御部は、画像処理を経たライブビュー画像を表示部に表示する制御を行ってもよい。

また、本開示の撮像装置は、記憶制御部が、画像処理が行われる前の画像を記憶部に更に記憶する制御を行ってもよい。

また、本開示の撮像装置は、自装置を含む複数の撮像装置により撮像を行う場合、判定部が、複数の撮像装置の各々により生成された距離マップを用いて画像の主要被写体領域と背景領域とを切り分けてもよい。

また、本開示の撮像装置は、判定部が、自装置が生成した距離マップにおける主要被写体領域であって当該領域の周辺が背景領域である主要被写体領域について、他の撮像装置により生成された距離マップにおける対応する領域が背景領域である場合、周辺が背景領域である主要被写体領域を背景領域と判定してもよい。

また、本開示の撮像装置は、判定部が、自装置が生成した距離マップにおける背景領域であって当該領域の周辺が主要被写体領域である背景領域について、他の撮像装置により生成された距離マップにおける対応する領域が主要被写体領域である場合、周辺が主要被写体領域である背景領域を主要被写体領域と判定してもよい。

また、本開示の撮像装置は、生成部が、撮像部による撮像により取得された動画像の各フレームの画像について距離マップを生成し、記憶制御部が、画像処理を経た動画像を記憶部に記憶する制御を行ってもよい。

また、本開示の撮像装置は、動画像におけるフレーム間の距離マップの変化から自装置が動いた方向及び動いた量を検出する検出部を更に備え、記憶制御部が、更に、画像処理を経た動画像に対応付けて自装置が動いた方向及び動いた量を記憶部に記憶する制御を行ってもよい。

一方、上記目的を達成するために、本開示の撮像方法は、撮像により画像を取得する撮像部を備えた撮像装置が実行する撮像方法であって、撮像部による撮像により取得された画像内の主要被写体領域と背景領域とを切り分けるための距離閾値を設定し、画像を撮像する際に得られる距離情報から画像内の距離マップを生成し、距離マップにおける距離が距離閾値を超える領域を画像の背景領域と判定し、画像の背景領域を特定の色に変換する画像処理を行い、画像処理を経た画像を記憶部に記憶する制御を行う。

また、上記目的を達成するために、本開示のプログラムは、撮像により画像を取得する撮像部を備えた撮像装置を制御するコンピュータに、撮像部による撮像により取得された画像内の主要被写体領域と背景領域とを切り分けるための距離閾値を設定し、画像を撮像する際に得られる距離情報から画像内の距離マップを生成し、距離マップにおける距離が距離閾値を超える領域を画像の背景領域と判定し、画像の背景領域を特定の色に変換する画像処理を行い、画像処理を経た画像を記憶部に記憶する制御を行う処理を実行させる。

本開示によれば、撮像場所が限定されることなく、簡易に合成用の画像を生成することができる。

各実施形態に係る撮像装置のハードウェア構成の一例を示すブロック図である。 第1実施形態〜第5実施形態に係る撮像装置が備える制御部の機能的な構成の一例を示すブロック図である。 第1実施形態に係る撮像処理の一例を示すフローチャートである。 各実施形態に係るライブビュー画像の一例を示す図である。 各実施形態に係るAFエリアを説明するための図である。 各実施形態に係る背景領域が特定の色に変換された画像の一例を示す図である。 第2実施形態に係る撮像処理の一例を示すフローチャートである。 第2実施形態に係る背景領域が特定の色に変換されたライブビュー画像の一例を示す図である。 第3実施形態に係る撮像処理の一例を示すフローチャートである。 第4実施形態に係る複数の撮像装置の一例を示す概略平面図である。 第4実施形態に複数の撮像装置の各々による領域の判定結果の一例を示す図である。 第4実施形態に係る撮像処理の一例を示すフローチャートである。 第5実施形態に係る撮像装置が備える制御部の機能的な構成の一例を示すブロック図である。 第5実施形態に係る撮像処理の一例を示すフローチャートである。

以下、図面を参照して、本開示の技術を実施するための形態例を詳細に説明する。

[第1実施形態]

まず、図1を参照して、本実施形態に係る撮像装置10の構成を説明する。図1に示すように、撮像装置10は、制御部20、撮像部24、液晶ディスプレイ等の表示部25、入力部26、及び通信I/F(InterFace)27を備えている。また、制御部20は、CPU(Central Processing Unit)21、一時記憶領域としてのメモリ22、及びフラッシュメモリ等の不揮発性の記憶部23を備えている。CPU21、メモリ22、記憶部23、撮像部24、表示部25、入力部26、及び通信I/F27は、バス28に接続される。制御部20が、撮像装置10を制御するコンピュータの一例である。撮像装置10の例としては、デジタルカメラが挙げられる。

記憶媒体としての記憶部23には、撮像プログラム30が記憶される。CPU21は、記憶部23から撮像プログラム30を読み出してからメモリ22に展開し、展開した撮像プログラム30を実行する。

撮像部24は、CCD(Charge Coupled Device)イメージセンサ等の撮像素子及び撮像レンズを含み、撮像により画像を取得する。また、本実施形態に係る撮像部24は、像面位相差AF(AutoFocus)等の画角内の周縁部まで測距可能なAF制御が可能とされている。入力部26は、ダイヤル、レリーズボタン、十字キー、及び表示部25と一体化されたタッチパネル等を含む。通信I/F27は、撮像装置10が外部装置と通信を行う場合に用いられる。

次に、図2を参照して、本実施形態に係る制御部20の機能的な構成について説明する。図2に示すように、制御部20は、設定部40、表示制御部42、生成部44、判定部46、画像処理部48、及び記憶制御部50を含む。CPU21が撮像プログラム30を実行することにより、設定部40、表示制御部42、生成部44、判定部46、画像処理部48、及び記憶制御部50として機能する。

設定部40は、撮像部24による撮像により取得された画像内の主要被写体領域と背景領域とを切り分けるための距離閾値を受け付け、受け付けた距離閾値を設定する。また、設定部40は、画像の記録開始の指示の入力を受け付ける。表示制御部42は、設定部40により画像の記録開始の指示の入力が受け付けられる前に、ライブビュー画像を表示部25に表示する制御を行う。本実施形態では、表示制御部42は、距離閾値を設定するための情報を、ライブビュー画像に重畳させて表示部25に表示する制御を行う。ライブビュー画像は、スルー画像と称されることもある。

生成部44は、設定部40により画像の記録開始の指示の入力が受け付けられると、撮像部24による撮像により取得された動画像の各フレームの画像について、撮像部24が画像を撮像する際に得られた距離情報から画像内の距離マップを生成する。本実施形態では、生成部44は、像面位相差AFにより画像内の各AFエリアについて得られた距離情報を含む距離マップを生成する。像面位相差AFにより距離マップを生成する手法としては、例えば、特開2014−52505号公報の手法が挙げられる。なお、生成部44は、例えば、特開2006−279546号公報の手法により距離マップを生成してもよい。

判定部46は、生成部44により生成された距離マップにおける距離が、設定部40により設定された距離閾値を超える領域を画像の背景領域と判定する。また、判定部46は、生成部44により生成された距離マップにおける距離が、設定部40により設定された距離閾値以下の領域を画像の主要被写体領域と判定する。

画像処理部48は、撮像部24による撮像により取得された画像における判定部46により背景領域と判定された領域を特定の色(例えば、緑色等)に変換する画像処理を行う。記憶制御部50は、画像処理部48による画像処理を経た画像を記憶部23に記憶する制御を行う。

次に、図3を参照して、本実施形態に係る撮像装置10の作用を説明する。CPU21が撮像プログラム30を実行することによって、図3に示す撮像処理が実行される。図3に示す撮像処理は、例えば、撮像装置10の電源スイッチがオン状態とされた場合に実行される。なお、図3に示す撮像処理が実行されている間は、撮像部24により予め設定されたフレームレートで動画像が撮像されているものとする。

図3のステップS10で、表示制御部42は、ライブビュー画像を表示部25に表示する制御を開始する。具体的には、表示制御部42は、予め設定されたフレームレートで撮像部24による撮像により取得された画像を表示部25に表示する制御を行うことによって、ライブビュー画像を表示部25に表示する制御を行う。更に、表示制御部42は、距離閾値を設定するための情報を、ライブビュー画像に重畳させて表示部25に表示する制御を行う。

本実施形態では、一例として図4に示すように、表示制御部42は、距離閾値を設定するための情報として、所定の範囲の距離を指定可能な目盛りを、ライブビュー画像に重畳させて表示部25に表示する制御を行う。また、本実施形態では、距離閾値を視認可能にするために、距離を表す数字も目盛りに表示される。ユーザは、表示部25に表示された目盛り上で距離閾値を指定する。なお、図4の例では、距離閾値として5mが指定された場合を示している。また、図4に示すように、本実施形態では、人を主要被写体とし、人以外を背景とする場合について説明する。

ステップS12で、設定部40は、表示部25に表示された目盛り上の指定された位置に対応する距離閾値を受け付け、受け付けた距離閾値を設定する。ステップS14で、設定部40は、画像の記録開始の指示の入力が受け付けられたか否かを判定する。この判定が否定判定となった場合は、処理はステップS12に戻り、肯定判定となった場合は、処理はステップS16に移行する。

ステップS16で、生成部44は、前述したように、撮像部24が画像を撮像する際に得られた距離情報から画像内の距離マップを生成する。本ステップS16の処理により、一例として図5に示される画像内の各AFエリアに対応する距離情報を含む距離マップが生成される。本実施形態では、AFエリアは複数の画素を含むサイズの領域とされている。

ステップS18で、判定部46は、ステップS16の処理により生成された距離マップにおける距離が、ステップS12の処理により設定された距離閾値を超える領域を画像の背景領域と判定する。また、判定部46は、ステップS16の処理により生成された距離マップにおける距離が、ステップS12の処理により設定された距離閾値以下の領域を画像の主要被写体領域と判定する。

ステップS20で、判定部46は、ステップS18の処理により背景領域と判定された領域のうち、主要被写体領域との境界の領域について、輪郭を検出する画像処理を行うことによって、画素単位で背景領域を特定する。なお、この輪郭を検出する画像処理としては、例えば、画像の輝度を1次微分することによって勾配を求める手法等の公知の手法を適用することができる。

ステップS22で、画像処理部48は、撮像部24による撮像により取得された画像におけるステップS20の処理により背景領域と特定された領域を特定の色に変換する画像処理を行う。本ステップS22の処理により、一例として図6に示すように、人以外の領域が背景領域として特定の色に変換される。ステップS24で、記憶制御部50は、ステップS22の処理による画像処理を経た画像を記憶部23に記憶する制御を行う。

ステップS26で、設定部40は、入力部26を介して画像の記録を終了する指示が受け付けられたか否かを判定する。この判定が否定判定となった場合は、処理はステップS16に戻り、肯定判定となった場合は、撮像処理が終了する。すなわち、ステップS16からステップS24までの処理が、予め設定されたフレームレートに従って、撮像部24による撮像により取得された動画像の各フレームの画像について実行される。

以上説明したように、本実施形態によれば、距離マップにおける距離が距離閾値を超える領域を画像の背景領域と判定し、画像の背景領域を特定の色に変換する画像処理を行っている。従って、撮像場所が限定されることなく、簡易に合成用の画像を生成することができる。

[第2実施形態]

開示の技術の第2実施形態を説明する。なお、撮像装置10のハードウェア構成は、第1実施形態と同様であるため、説明を省略する。また、本実施形態に係る撮像装置10では、ライブビュー画像において背景領域を特定の色に変換するか否かを設定することが可能とされている。

まず、図2を参照して、本実施形態に係る制御部20の機能的な構成について説明する。なお、ここでは、第1実施形態と異なる機能を有する機能部についてのみ説明する。

生成部44は、ライブビュー画像についても同様に、撮像部24が画像を撮像する際に得られた距離情報から画像内の距離マップを生成する。判定部46は、ライブビュー画像についても同様に、生成部44により生成された距離マップにおける距離が、設定部40により設定された距離閾値を超える領域を背景領域と判定する。また、判定部46は、ライブビュー画像についても同様に、生成部44により生成された距離マップにおける距離が、設定部40により設定された距離閾値以下の領域を主要被写体領域と判定する。

画像処理部48は、ライブビュー画像についても同様に、撮像部24による撮像により取得された画像における判定部46により背景領域と判定された領域を特定の色に変換する画像処理を行う。表示制御部42は、画像処理部48による画像処理を経たライブビュー画像を表示部25に表示する制御を行う。

次に、図7を参照して、本実施形態に係る撮像装置10の作用を説明する。CPU21が撮像プログラム30を実行することによって、図7に示す撮像処理が実行される。図7に示す撮像処理は、例えば、撮像装置10の電源スイッチがオン状態とされた場合に実行される。なお、図7に示す撮像処理が実行されている間は、撮像部24により予め設定されたフレームレートで動画像が撮像されているものとする。また、図7における図3と同一の処理を実行するステップについては、同一のステップ番号を付して説明を省略する。

図7のステップS12の処理が終了すると、処理はステップS30に移行する。ステップS30で、生成部44は、ライブビュー画像において背景領域を特定の色に変換する設定がされているか否かを判定する。この判定が肯定判定となった場合は、処理はステップS32に移行する。ステップS32で、生成部44は、ステップS16と同様に、撮像部24が画像を撮像する際に得られた距離情報から画像内の距離マップを生成する。

ステップS34で、判定部46は、ステップS18と同様に、ステップS32の処理により生成された距離マップにおける距離が、ステップS12の処理により設定された距離閾値を超える領域を背景領域と判定する。また、判定部46は、ステップS32の処理により生成された距離マップにおける距離が、ステップS12の処理により設定された距離閾値以下の領域を主要被写体領域と判定する。

ステップS36で、判定部46は、ステップS20と同様に、ステップS34の処理により背景領域と判定された領域のうち、主要被写体領域との境界の領域について、輪郭を検出する画像処理を行うことによって、画素単位で背景領域を特定する。

ステップS38で、画像処理部48は、ステップS22と同様に、撮像部24による撮像により取得された画像におけるステップS36の処理により背景領域と特定された領域を特定の色に変換する画像処理を行う。ステップS40で、表示制御部42は、ステップS38による画像処理を経た画像を、ライブビュー画像として表示部25に表示する制御を行う。更に、表示制御部42は、距離閾値を設定するための情報を、ライブビュー画像に重畳させて表示部25に表示する制御を行う。ステップS40の処理が終了すると、処理はステップS14に移行する。

一方、ステップS30の判定が否定判定となった場合、処理はステップS42に移行する。ステップS42で、表示制御部42は、撮像部24による撮像により取得された画像を、ライブビュー画像として表示部25に表示する制御を行う。ステップS42の処理が終了すると、処理はステップS14に移行する。

以上の処理により、一例として図8に示すように、ユーザが入力部26を操作することにより、背景領域が特定の色に変換されていない通常のライブビュー画像と、背景領域が特定の色に変換されたライブビュー画像とを切り替えることができる。

また、ユーザは、背景領域が特定の色に変換されたライブビュー画像の特定の色の領域を確認することによって、画像の記録を開始する前に距離閾値を視認することができる結果、適切な距離閾値を設定することができる。

[第3実施形態]

開示の技術の第3実施形態を説明する。なお、撮像装置10のハードウェア構成は、第1実施形態と同様であるため、説明を省略する。また、本実施形態に係る撮像装置10では、背景領域を特定の色に変換する前の画像も記録するか否かを設定することが可能とされている。

まず、図2を参照して、本実施形態に係る制御部20の機能的な構成について説明する。なお、ここでは、第1実施形態及び第2実施形態と異なる機能を有する機能部についてのみ説明する。

記憶制御部50は、画像処理部48による画像処理を経た画像を記憶部23に記憶する制御を行う。更に、記憶制御部50は、背景領域を特定の色に変換する前の画像も記録する設定がされている場合、画像処理部48による画像処理前のオリジナルの画像も記憶部23に記憶する制御を行う。

次に、図9を参照して、本実施形態に係る撮像装置10の作用を説明する。CPU21が撮像プログラム30を実行することによって、図9に示す撮像処理が実行される。図9に示す撮像処理は、例えば、撮像装置10の電源スイッチがオン状態とされた場合に実行される。なお、図9に示す撮像処理が実行されている間は、撮像部24により予め設定されたフレームレートで動画像が撮像されているものとする。また、図9における図7と同一の処理を実行するステップについては、同一のステップ番号を付して説明を省略する。

図9のステップS14の判定が肯定判定となった場合、処理はステップS50に移行する。ステップS50で、記憶制御部50は、背景領域を特定の色に変換する前の画像も記録する設定がされているか否かを判定する。この判定が肯定判定となった場合は、処理はステップS52に移行し、否定判定となった場合は、処理はステップS16に移行する。

ステップS52で、記憶制御部50は、撮像部24による撮像により取得された画像を記憶部23に記憶する制御を行う。ステップS52の処理が終了すると、処理はステップS16に移行する。すなわち、ステップS50からステップS24までの処理が、予め設定されたフレームレートに従って、撮像部24による撮像により取得された動画像の各フレームの画像について実行される。

以上説明したように、本実施形態によれば、特定の色に変換された背景領域が実際の背景領域と異なる場合でも、オリジナルの画像を用いることによって動画全体が使用できなくなってしまうことを防止することができる。

[第4実施形態]

開示の技術の第4実施形態を説明する。なお、撮像装置10のハードウェア構成は、第1実施形態と同様であるため、説明を省略する。本実施形態では、一例として図10に示すように、複数台(図10の例では2台)の撮像装置10により画像を撮像する場合について説明する。なお、2台の撮像装置10を区別して説明する場合は、撮像装置10A、及び10Bのように、符号の末尾にアルファベットを付して説明する。

まず、図2を参照して、本実施形態に係る制御部20の機能的な構成について説明する。なお、ここでは、第1実施形態〜第3実施形態と異なる機能を有する機能部についてのみ説明する。

判定部46は、自装置を含む各撮像装置10により生成された距離マップを用いて、自装置の撮像部24による撮像により取得された画像の主要被写体領域と背景領域とを切り分ける。なお、以下では、自装置の撮像部24による撮像により取得された画像を「第1画像」といい、自装置の生成部44により生成された距離マップを「第1距離マップ」という。また、以下では、他の撮像装置10の撮像部24による撮像により取得された画像を「第2画像」といい、他の撮像装置10の生成部44により生成された距離マップを「第2距離マップ」という。

具体的には、判定部46は、第1画像及び第2画像を用いてパターンマッチングを行い、各撮像装置10のAFエリアの対応付けを行う。この対応付けにより、一例として図11に示すように、各撮像装置10により生成された距離マップの対応する領域が対応付けられる。なお、図11における斜線で網掛けされた領域は主要被写体領域、すなわち、距離マップのその領域に対応する距離が距離閾値以下の領域を表す。また、図11における斜線で網掛けされていない領域は背景領域、すなわち、距離マップのその領域に対応する距離が距離閾値を超える領域を表す。

図11に示すように、距離マップにおける主要被写体領域であって当該領域の周辺が背景領域である主要被写体領域A、及び背景領域であって当該領域の周辺が主要被写体領域である背景領域Bの各領域は、判定誤りであると考えられる。

そこで、本実施形態では、判定部46は、第1実施形態と同様に第1距離マップと距離閾値との比較による領域の判定を行った後、更に、以下に示すように判定を行うことによって判定結果を補正する。すなわち、この場合、判定部46は、対応付けが行われた第1距離マップにおける主要被写体領域であって当該領域の周辺が背景領域である主要被写体領域Aについて、第2距離マップにおける対応する領域が背景領域である場合、その主要被写体領域Aを背景領域であると判定する。また、この場合、判定部46は、対応付けが行われた第1距離マップにおける背景領域であって当該領域の周辺が主要被写体領域である背景領域Bについて、第2距離マップにおける対応する領域が主要被写体領域である場合、その背景領域Bを主要被写体領域であると判定する。

次に、図12を参照して、本実施形態に係る撮像装置10の作用を説明する。CPU21が撮像プログラム30を実行することによって、図12に示す撮像処理が実行される。図12に示す撮像処理は、例えば、撮像装置10の電源スイッチがオン状態とされた場合に実行される。なお、図12に示す撮像処理が実行されている間は、撮像部24により予め設定されたフレームレートで動画像が撮像されているものとする。また、図12における図9と同一の処理を実行するステップについては、同一のステップ番号を付して説明を省略する。

また、本実施形態では、図12に示す撮像処理が各撮像装置10によって実行される場合について説明するが、これに限定されない。例えば、複数の撮像装置10のうち、主となる1台の撮像装置10を決めて、主となる1台の撮像装置10によって図12に示す撮像処理が実行される形態としてもよい。この場合、主となる1台の撮像装置10以外の撮像装置10は、図12に示す撮像処理におけるステップS10からステップS18までの処理を実行する形態が例示される。

図12のステップS18の処理が終了すると、処理はステップS60に移行する。ステップS60で、判定部46は、他の撮像装置10から、第2画像、第2距離マップ、及び第2距離マップの各領域が主要被写体領域であるか又は背景領域であるかの判定結果を、通信I/F27を介して取得する。例えば、本ステップS60の処理を撮像装置10Aの判定部46が実行する場合、撮像装置10Aの判定部46は、撮像装置10Bの撮像部24による撮像により取得された第2画像を取得する。また、この場合、撮像装置10Aの判定部46は、撮像装置10BがステップS16の処理を実行することによって生成された第2距離マップを取得する。また、この場合、撮像装置10Aの判定部46は、撮像装置10BがステップS18の処理を実行することによって生成された判定結果を取得する。

ステップS62で、判定部46は、自装置の撮像部24による撮像により取得された第1画像、及びステップS60の処理により取得された第2画像を用いてパターンマッチングを行い、各撮像装置10のAFエリアの対応付けを行う。

ステップS64で、判定部46は、前述したように、ステップS60の処理により取得された第2距離マップ及び判定結果を用いて、ステップS18の処理による判定結果を補正する。具体的には、判定部46は、ステップS62の処理により対応付けが行われた第1距離マップにおける主要被写体領域であって当該領域の周辺が背景領域である主要被写体領域Aについて、第2距離マップにおける対応する領域が背景領域である場合、その主要被写体領域Aを背景領域であると判定する。また、判定部46は、対応付けが行われた第1距離マップにおける背景領域であって当該領域の周辺が主要被写体領域である背景領域Bについて、第2距離マップにおける対応する領域が主要被写体領域である場合、その背景領域Bを主要被写体領域であると判定する。

ステップS64の処理が終了すると、処理はステップS20に移行する。ステップS20以降の処理は、ステップS64の処理による補正後の判定結果を用いて行われる。

以上説明したように、本実施形態によれば、複数の撮像装置10が生成した距離マップを用いて、主要被写体領域と背景領域とを切り分けているため、背景領域の判定精度を向上させることができる。

[第5実施形態]

開示の技術の第5実施形態を説明する。なお、撮像装置10のハードウェア構成は、第1実施形態と同様であるため、説明を省略する。

まず、図13を参照して、本実施形態に係る制御部20の機能的な構成について説明する。なお、ここでは、第1実施形態〜第4実施形態と異なる機能を有する機能部についてのみ説明する。図13に示すように、制御部20は、設定部40、表示制御部42、生成部44、判定部46、画像処理部48、記憶制御部50、及び検出部52を含む。CPU21が撮像プログラム30を実行することにより、設定部40、表示制御部42、生成部44、判定部46、画像処理部48、記憶制御部50、及び検出部52として機能する。

検出部52は、撮像部24による撮像により取得された動画像におけるフレーム間の距離マップの変化から自装置が動いた方向及び動いた量を検出する。記憶制御部50は、画像処理部48による画像処理を経た動画像に対応付けて、検出部52により検出された自装置が動いた方向及び動いた量を記憶部23に記憶する制御を行う。

次に、図14を参照して、本実施形態に係る撮像装置10の作用を説明する。CPU21が撮像プログラム30を実行することによって、図14に示す撮像処理が実行される。図14に示す撮像処理は、例えば、撮像装置10の電源スイッチがオン状態とされた場合に実行される。なお、図14に示す撮像処理が実行されている間は、撮像部24により予め設定されたフレームレートで動画像が撮像されているものとする。また、図14における図9と同一の処理を実行するステップについては、同一のステップ番号を付して説明を省略する。

図14のステップS18が終了すると、処理はステップS70に移行する。ステップS70で、検出部52は、撮像部24による撮像により取得された1つ前のフレームの画像に対応する距離マップと今回のフレームの画像に対応する距離マップとの変化から自装置が動いた方向及び動いた量を検出する。ステップS70が終了すると、ステップS20及びステップS22の処理が行われ、処理はステップS24Aに移行する。

ステップS24Aで、記憶制御部50は、ステップS22の処理による画像処理を経た画像と、その画像に対応付けて、ステップS70の処理により検出された自装置が動いた方向及び動いた量を記憶部23に記憶する制御を行う。

以上説明したように、本実施形態によれば、撮像装置10が動いた方向及び動いた量を動画像に対応付けて記憶している。従って、この撮像装置10が動いた方向及び動いた量に合わせて画像を合成することによって、合成にかかる手間を低減することができる。

なお、上記各実施形態において、画像処理部48が画像の背景領域を特定の色に変換する場合に、主要被写体領域で使用されていない色を特定の色として選択する形態としてもよい。

また、上記第2実施形態において、ライブビュー画像を表示部25に表示する際に、背景領域を特定の色に変換するのではなく、背景領域を点滅させて表示してもよいし、背景領域を縞模様によって表示してもよい。

また、上記第5実施形態では、動画像におけるフレーム間の距離マップの変化から撮像装置10が動いた方向及び動いた量を検出する場合について説明したが、これに限定されない。例えば、動画像におけるフレーム間の背景領域の輝度分布又は色分布の変化から撮像装置10が動いた方向及び動いた量を検出する形態としてもよい。

また、上記各実施形態では、ユーザが入力した距離閾値を受け付ける場合について説明したが、これに限定されない。例えば、設定部40が、撮像部24による撮像により取得された画像から距離閾値を導出し、導出した距離閾値を設定する形態としてもよい。この場合、設定部40が、距離マップのデータに基づいて距離のヒストグラムを作成し、ヒストグラムの形状に基づいて距離閾値を導出する形態が例示される。具体的には、例えば、設定部40は、距離のヒストグラムの山を2分割する距離の値を、距離閾値として導出する。この形態例では、表示制御部42は、ユーザが距離閾値を設定するための情報を、ライブビュー画像に重畳させて表示部25に表示する制御を行わなくてもよい。

また、上記各実施形態でCPUがソフトウェア(プログラム)を実行することにより実行した各種処理を、CPU以外の各種のプロセッサが実行してもよい。この場合のプロセッサとしては、FPGA(Field-Programmable Gate Array)等の製造後に回路構成を変更可能なPLD(Programmable Logic Device)、及びASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が例示される。また、上記各種処理を、これらの各種のプロセッサのうちの1つで実行してもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGA、及びCPUとFPGAとの組み合わせ等)で実行してもよい。また、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路である。

また、上記各実施形態では、撮像プログラム30が記憶部23に予め記憶(インストール)されている態様を説明したが、これに限定されない。撮像プログラム30は、CD−ROM(Compact Disk Read Only Memory)、DVD−ROM(Digital Versatile Disk Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の記録媒体に記録された形態で提供されてもよい。また、撮像プログラム30は、ネットワークを介して外部装置からダウンロードされる形態としてもよい。

上記記載から、以下の付記項1に記載の撮像装置を把握することができる。

[付記項1]

撮像により画像を取得する撮像装置と、

プロセッサと、

を備え、

前記プロセッサは、

前記撮像装置による撮像により取得された画像内の主要被写体領域と背景領域とを切り分けるための距離閾値を設定し、

前記画像を撮像する際に得られる距離情報から前記画像内の距離マップを生成し、

前記距離マップにおける距離が前記距離閾値を超える領域を前記画像の背景領域と判定し、

前記画像の前記背景領域を特定の色に変換する画像処理を行い、

前記画像処理を経た画像を記憶する撮像装置。

10、10A、10B 撮像装置

20 制御部

21 CPU

22 メモリ

23 記憶部

24 撮像部

25 表示部

26 入力部

27 通信I/F

28 バス

30 撮像プログラム

40 設定部

42 表示制御部

44 生成部

46 判定部

48 画像処理部

50 記憶制御部

52 検出部

A 主要被写体領域

B 背景領域

Claims (12)

  1. 撮像により画像を取得する撮像部と、
    前記撮像部による撮像により取得された画像内の主要被写体領域と背景領域とを切り分けるための距離閾値を設定する設定部と、
    前記画像を撮像する際に得られる距離情報から前記画像内の距離マップを生成する生成部と、
    前記距離マップにおける距離が前記距離閾値を超える領域を前記画像の背景領域と判定する判定部と、
    前記画像の前記背景領域を特定の色に変換する画像処理を行う画像処理部と、
    前記画像処理を経た画像を記憶部に記憶する制御を行う記憶制御部と、
    を備え、
    自装置を含む複数の撮像装置により撮像を行う場合、前記判定部は、前記複数の撮像装置の各々により生成された距離マップを用いて前記自装置により撮像された画像の前記主要被写体領域と前記背景領域とを切り分け
    前記判定部は、自装置が生成した距離マップにおける主要被写体領域であって当該領域の周辺が背景領域である主要被写体領域について、他の撮像装置により生成された距離マップにおける対応する領域が背景領域である場合、前記周辺が背景領域である主要被写体領域を背景領域と判定する
    撮像装置。
  2. 撮像により画像を取得する撮像部と、
    前記撮像部による撮像により取得された画像内の主要被写体領域と背景領域とを切り分けるための距離閾値を設定する設定部と、
    前記画像を撮像する際に得られる距離情報から前記画像内の距離マップを生成する生成部と、
    前記距離マップにおける距離が前記距離閾値を超える領域を前記画像の背景領域と判定する判定部と、
    前記画像の前記背景領域を特定の色に変換する画像処理を行う画像処理部と、
    前記画像処理を経た画像を記憶部に記憶する制御を行う記憶制御部と、
    を備え、
    自装置を含む複数の撮像装置により撮像を行う場合、前記判定部は、前記複数の撮像装置の各々により生成された距離マップを用いて前記自装置により撮像された画像の前記主要被写体領域と前記背景領域とを切り分け、
    前記判定部は、自装置が生成した距離マップにおける背景領域であって当該領域の周辺が主要被写体領域である背景領域について、他の撮像装置により生成された距離マップにおける対応する領域が主要被写体領域である場合、前記周辺が主要被写体領域である背景領域を主要被写体領域と判定する
    撮像装置。
  3. 画像の記録開始の指示が入力される前に前記距離閾値が視認可能なライブビュー画像を表示部に表示する制御を行う表示制御部
    を更に備えた請求項1又は請求項2に記載の撮像装置。
  4. 前記表示制御部は、前記距離閾値を設定するための情報を前記表示部に更に表示する制御を行う
    請求項に記載の撮像装置。
  5. 前記生成部は、前記ライブビュー画像について、前記距離マップを生成し、
    前記画像処理部は、前記ライブビュー画像の前記背景領域を特定の色に変換する画像処理を行い、
    前記表示制御部は、前記画像処理を経たライブビュー画像を前記表示部に表示する制御を行う
    請求項又は請求項に記載の撮像装置。
  6. 前記記憶制御部は、前記画像処理が行われる前の画像を前記記憶部に更に記憶する制御を行う
    請求項1から請求項の何れか1項に記載の撮像装置。
  7. 前記生成部は、前記撮像部による撮像により取得された動画像の各フレームの画像について前記距離マップを生成し、
    前記記憶制御部は、前記画像処理を経た動画像を前記記憶部に記憶する制御を行う
    請求項1から請求項の何れか1項に記載の撮像装置。
  8. 前記動画像におけるフレーム間の前記距離マップの変化から自装置が動いた方向及び動いた量を検出する検出部を更に備え、
    前記記憶制御部は、更に、前記画像処理を経た動画像に対応付けて前記動いた方向及び動いた量を前記記憶部に記憶する制御を行う
    請求項に記載の撮像装置。
  9. 撮像により画像を取得する撮像部を備えた撮像装置が実行する撮像方法であって、
    前記撮像部による撮像により取得された画像内の主要被写体領域と背景領域とを切り分けるための距離閾値を設定し、
    前記画像を撮像する際に得られる距離情報から前記画像内の距離マップを生成し、
    前記距離マップにおける距離が前記距離閾値を超える領域を前記画像の背景領域と判定し、
    前記画像の前記背景領域を特定の色に変換する画像処理を行い、
    前記画像処理を経た画像を記憶部に記憶する制御を行い、
    自装置を含む複数の撮像装置により撮像を行う場合、前記複数の撮像装置の各々により生成された距離マップを用いて前記自装置により撮像された画像の前記主要被写体領域と前記背景領域とを切り分け
    自装置が生成した距離マップにおける主要被写体領域であって当該領域の周辺が背景領域である主要被写体領域について、他の撮像装置により生成された距離マップにおける対応する領域が背景領域である場合、前記周辺が背景領域である主要被写体領域を背景領域と判定する
    撮像方法。
  10. 撮像により画像を取得する撮像部を備えた撮像装置が実行する撮像方法であって、
    前記撮像部による撮像により取得された画像内の主要被写体領域と背景領域とを切り分けるための距離閾値を設定し、
    前記画像を撮像する際に得られる距離情報から前記画像内の距離マップを生成し、
    前記距離マップにおける距離が前記距離閾値を超える領域を前記画像の背景領域と判定し、
    前記画像の前記背景領域を特定の色に変換する画像処理を行い、
    前記画像処理を経た画像を記憶部に記憶する制御を行い、
    自装置を含む複数の撮像装置により撮像を行う場合、前記複数の撮像装置の各々により生成された距離マップを用いて前記自装置により撮像された画像の前記主要被写体領域と前記背景領域とを切り分け、
    自装置が生成した距離マップにおける背景領域であって当該領域の周辺が主要被写体領域である背景領域について、他の撮像装置により生成された距離マップにおける対応する領域が主要被写体領域である場合、前記周辺が主要被写体領域である背景領域を主要被写体領域と判定する
    撮像方法。
  11. 撮像により画像を取得する撮像部を備えた撮像装置を制御するコンピュータに、
    前記撮像部による撮像により取得された画像内の主要被写体領域と背景領域とを切り分けるための距離閾値を設定し、
    前記画像を撮像する際に得られる距離情報から前記画像内の距離マップを生成し、
    前記距離マップにおける距離が前記距離閾値を超える領域を前記画像の背景領域と判定し、
    前記画像の前記背景領域を特定の色に変換する画像処理を行い、
    前記画像処理を経た画像を記憶部に記憶する制御を行い、
    自装置を含む複数の撮像装置により撮像を行う場合、前記複数の撮像装置の各々により生成された距離マップを用いて前記自装置により撮像された画像の前記主要被写体領域と前記背景領域とを切り分け
    自装置が生成した距離マップにおける主要被写体領域であって当該領域の周辺が背景領域である主要被写体領域について、他の撮像装置により生成された距離マップにおける対応する領域が背景領域である場合、前記周辺が背景領域である主要被写体領域を背景領域と判定する
    処理を実行させるためのプログラム。
  12. 撮像により画像を取得する撮像部を備えた撮像装置を制御するコンピュータに、
    前記撮像部による撮像により取得された画像内の主要被写体領域と背景領域とを切り分けるための距離閾値を設定し、
    前記画像を撮像する際に得られる距離情報から前記画像内の距離マップを生成し、
    前記距離マップにおける距離が前記距離閾値を超える領域を前記画像の背景領域と判定し、
    前記画像の前記背景領域を特定の色に変換する画像処理を行い、
    前記画像処理を経た画像を記憶部に記憶する制御を行い、
    自装置を含む複数の撮像装置により撮像を行う場合、前記複数の撮像装置の各々により生成された距離マップを用いて前記自装置により撮像された画像の前記主要被写体領域と前記背景領域とを切り分け、
    自装置が生成した距離マップにおける背景領域であって当該領域の周辺が主要被写体領域である背景領域について、他の撮像装置により生成された距離マップにおける対応する領域が主要被写体領域である場合、前記周辺が主要被写体領域である背景領域を主要被写体領域と判定する
    処理を実行させるためのプログラム。
JP2020525299A 2018-06-11 2019-04-17 撮像装置、撮像方法、及びプログラム Active JP6851551B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018111461 2018-06-11
JP2018111461 2018-06-11
PCT/JP2019/016505 WO2019239715A1 (ja) 2018-06-11 2019-04-17 撮像装置、撮像方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP6851551B2 true JP6851551B2 (ja) 2021-03-31
JPWO2019239715A1 JPWO2019239715A1 (ja) 2021-04-22

Family

ID=68842097

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020525299A Active JP6851551B2 (ja) 2018-06-11 2019-04-17 撮像装置、撮像方法、及びプログラム

Country Status (2)

Country Link
JP (1) JP6851551B2 (ja)
WO (1) WO2019239715A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7043707B2 (ja) * 2020-06-30 2022-03-30 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド シーン認識装置、撮像装置、シーン認識方法、及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001352440A (ja) * 2000-06-07 2001-12-21 Olympus Optical Co Ltd 画像処理装置
JP2011048627A (ja) * 2009-08-27 2011-03-10 Kddi Corp マスク画像を抽出する方法及びプログラム並びにボクセルデータを構築する方法及びプログラム
JP2013140437A (ja) * 2011-12-28 2013-07-18 Canon Inc 画像処理装置および画像処理方法
JP2017054337A (ja) * 2015-09-10 2017-03-16 ソニー株式会社 画像処理装置および方法
JP2017103564A (ja) * 2015-11-30 2017-06-08 キヤノン株式会社 制御装置、制御方法、およびプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001352440A (ja) * 2000-06-07 2001-12-21 Olympus Optical Co Ltd 画像処理装置
JP2011048627A (ja) * 2009-08-27 2011-03-10 Kddi Corp マスク画像を抽出する方法及びプログラム並びにボクセルデータを構築する方法及びプログラム
JP2013140437A (ja) * 2011-12-28 2013-07-18 Canon Inc 画像処理装置および画像処理方法
JP2017054337A (ja) * 2015-09-10 2017-03-16 ソニー株式会社 画像処理装置および方法
JP2017103564A (ja) * 2015-11-30 2017-06-08 キヤノン株式会社 制御装置、制御方法、およびプログラム

Also Published As

Publication number Publication date
JPWO2019239715A1 (ja) 2021-04-22
WO2019239715A1 (ja) 2019-12-19

Similar Documents

Publication Publication Date Title
JP4715527B2 (ja) 撮影装置、撮影画像の画像処理方法及びプログラム
US7868922B2 (en) Foreground/background segmentation in digital images
US9697589B2 (en) Signal processing apparatus, imaging apparatus, signal processing method and program for correcting deviation of blurring in images
US20150278996A1 (en) Image processing apparatus, method, and medium for generating color image data
JP6418879B2 (ja) 画像処理装置、その制御方法、および制御プログラム、並びに撮像装置
JP5331128B2 (ja) 撮像装置
JP6218377B2 (ja) 画像処理装置及び画像処理方法
US8441554B2 (en) Image capturing apparatus capable of extracting subject region from captured image
JP2016151955A (ja) 画像処理装置、撮像装置、距離計測装置、および画像処理方法
WO2013190862A1 (ja) 画像処理装置及び画像処理方法
US20100246968A1 (en) Image capturing apparatus, image processing method and recording medium
KR101599885B1 (ko) 디지털 촬영 장치 및 촬영 방법
JP6851551B2 (ja) 撮像装置、撮像方法、及びプログラム
US20200366843A1 (en) Image processing apparatus and image processing method, and program
WO2018003281A1 (ja) 撮像装置と制御方法およびプログラム
JP6780749B2 (ja) 撮像装置、画像処理装置、撮像方法及びプログラム
JP2011234229A (ja) 撮像装置
JP5131399B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2010016693A (ja) 電子カメラ
JP2012222508A (ja) 画像処理装置および画像処理プログラム
JP5565227B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6097597B2 (ja) 画像処理装置及びその制御方法
JP6150558B2 (ja) 追尾処理装置およびその制御方法
JP2016001823A (ja) 画像補正装置、画像補正方法、及び、プログラム
JP2011254145A (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201203

A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A5211

Effective date: 20201203

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201203

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20201203

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210309

R150 Certificate of patent or registration of utility model

Ref document number: 6851551

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250