JP5526233B2 - 立体視用画像撮影装置およびその制御方法 - Google Patents

立体視用画像撮影装置およびその制御方法 Download PDF

Info

Publication number
JP5526233B2
JP5526233B2 JP2012522554A JP2012522554A JP5526233B2 JP 5526233 B2 JP5526233 B2 JP 5526233B2 JP 2012522554 A JP2012522554 A JP 2012522554A JP 2012522554 A JP2012522554 A JP 2012522554A JP 5526233 B2 JP5526233 B2 JP 5526233B2
Authority
JP
Japan
Prior art keywords
image
corresponding point
image data
stereoscopic
corresponding points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012522554A
Other languages
English (en)
Other versions
JPWO2012002157A1 (ja
Inventor
宏一 矢作
康一 田中
恒史 遠藤
和田  哲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2012522554A priority Critical patent/JP5526233B2/ja
Publication of JPWO2012002157A1 publication Critical patent/JPWO2012002157A1/ja
Application granted granted Critical
Publication of JP5526233B2 publication Critical patent/JP5526233B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/221Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)

Description

この発明は,立体視用画像撮影装置およびその制御方法に関する。
特許文献1には,カメラを移動させながら得られる多数の画像群(第1の画像群)について隣合う画像間同士で特徴点の対応付けを行い,上記特徴点の対応付け情報を用いて第1の画像群の中から視点間隔が一定の画像群(第2の画像群)を得るものが記載されている。第2の画像群によって立体画像が構成される。
特開2006−113807号公報
しかしながら,視点間隔が一定であっても隣合う画像同士において対応づけられる特徴点の数が少ないと,立体視に違和感が生じるおそれがある。
この発明は,立体視に適する画像を簡便に得ることができるようにすることを目的とする。
この発明による立体視用画像撮影装置は,被写体を撮像し,撮像によって得られる画像データを出力する撮像手段を備え,上記撮像手段から出力される左目用視点および右目用視点からの被写体像を表す画像データから立体視用画像ファイルを生成するものであり,左目用視点または右目用視点のいずれか一方の基準視点から得られる第1画像データを用いて検出される複数の特徴点のそれぞれに対応する対応点を,左目用視点または右目用視点のいずれか他方の上記基準視点と異なる視点から得られる第2画像データを用いて探索する対応点探索手段,上記対応点探索手段による探索によって見つかった対応点の数が第1の閾値以上であるかどうかを判断する対応点数判断手段,上記対応点数判断手段によって対応点数が第1の閾値未満と判断された場合に,上記基準視点と異なる視点からの再度の撮像によって得られる,新たな第2画像データを用いて上記対応点探索および上記対応点数判断を再実行する、上記対応点探索手段および対応点数判断手段を制御する制御手段,ならびに上記対応点数判断手段によって対応点数が第1の閾値以上と判断された場合に,判断の際の第1画像データおよび第2画像データを用いて立体画像ファイルを作成する立体画像ファイル作成手段を備える。上記第1の閾値はあらかじめ定められる数であってもよいし,上記第2画像データによって表される第2画像を構成する画素数に対する割合によって定められる数であってもよい。
この発明は,上記立体視用画像撮影装置の制御方法も提供する。この方法は,被写体を撮像し,撮像によって得られる画像データを出力する撮像手段を備え,上記撮像手段から出力される左目用視点および右目用視点からの被写体像を表す画像データから立体視用画像データを生成する立体視用画像撮影装置の制御方法であって,対応点探索手段が,左目用視点または右目用視点のいずれか一方の基準視点から得られる第1画像データを用いて検出される複数の特徴点のそれぞれに対応する対応点を,左目用視点または右目用視点のいずれか他方の上記基準視点と異なる視点から得られる第2画像データを用いて探索し,対応点数判断手段が,上記対応点探索手段による探索によって見つかった対応点の数が第1の閾値以上であるかどうかを判断し,制御手段が,上記対応点数判断手段によって対応点数が第1の閾値未満と判断された場合に,上記基準視点と異なる視点からの再度の撮像によって得られる,新たな第2画像データを用いて上記対応点探索および上記対応点数判断を再実行するように,上記対応点探索手段および上記対応点数判断手段を制御し,立体画像ファイル作成手段が,上記対応点数判断手段によって対応点数が第1の閾値以上と判断された場合に,そのときの第1画像データおよび第2画像データを用いて立体画像ファイルを作成する。
基準視点(たとえば左目用視点)から得られる第1画像と,上記基準視点と異なる視点(たとえば右目用視点)から得られる第2画像が用いられて,第1画像から検出される特徴点に対応する対応点が第2画像から探索される。探索によって見つかった対応点の数が第1の閾値以上であれば,その第1画像を表す第1画像データおよび第2画像を表す第2画像データから立体画像ファイルが作成される。他方,対応点の数が第1の閾値に満たない場合には,再度の撮像によって得られる,新たな第2画像データが用いられて対応点の探索および探索によって見つかった対応点の数が第1の閾値以上であるかの判断が再度実行される。
第2画像データと新たな第2画像データとは,いずれも上記基準視点と異なる視点(たとえば右目用視点)から被写体を撮像(撮影)することによって得られる画像データであることは共通するが,その撮影タイミングが異なり,したがって異なる画像データであることを意味する。対応点数が第1の閾値未満と判断された場合に,その後に上記基準視点と異なる視点から上記被写体が再撮影されることによって得られる画像データを上記新たな第2画像データとしてもよいし,あらかじめの複数回の撮像によって得られる上記基準視点と異なる視点からの複数の第2画像データの中から選択される一の第2画像データを上記新たな第2画像データとして用いてもよい。
この発明によると,第1画像と,第1画像から検出される特徴点に対応する対応点を多く含む第2画像とによって立体画像ファイルが作成される。視点が異なりかつ構図が比較的合致する第1画像および第2画像から立体画像ファイルが構成されるので,立体視に適する立体画像を得ることができる。
第1の閾値以上の数の対応点を持つ第2画像データが得られるまで(対応点探索手段による探索によって見つかった対応点の数が,対応点数判断手段によって第1の閾値以上であると判断されるまで),上記基準視点と異なる視点からの撮像,上記対応点探索および上記対応点数判断を繰返してもよい。
好ましくは,上記対応点数判断手段による所定回数の判断処理,または所定時間内における上記対応点数判断手段による複数回の判断処理を終えた時点において,第1の閾値以上の数の対応点を持つ第2画像データが未取得の場合に,上記第1の閾値を下げる閾値低減手段がさらに備えられる。長時間にわたって立体画像ファイルの作成に至らない状況を回避することができる。
一実施態様では,上記対応点探索手段による探索によって見つかった対応点ごとに,上記特徴点と上記対応点との視差値を算出する視差値算出手段を備え,上記対応点数判断手段は,上記対応点探索手段による探索によって見つかった対応点のうち,所定視差値を持つ対応点の数が第2の閾値以上であるかどうかを判断するものである。この場合,上記所定視差値を持つ対応点の数が第2の閾値以上と判断された場合に上記立体画像ファイルの作成に進み,上記所定視差値を持つ対応点の数が第2の閾値未満と判断された場合に新たな第2画像データを用いた上記対応点探索および上記対応点数判断の再実行に進む。立体視に適する視差値(所定視差値)を有する第1画像と第2画像の組が立体画像ファイルとされるので,立体視を行いやすい立体画像ファイルを得ることができる。第2の閾値も,あらかじめ定められる数であってもよいし,上記第2画像データによって表される第2画像を構成する画素数に対する割合によって定められる数であってもよい。
他の実施態様では,上記対応点数判断手段は,上記対応点数探索手段による探索によって見つかった対応点のうち,限界視差値以上の視差値を持つ対応点の数が第3の閾値未満であるかどうかをさらに判断するものである。この場合には,上記所定視差値を持つ対応点の数が第2の閾値以上,かつ上記限界視差値以上の視差値を持つ対応点の数が上記第3の閾値未満と判断された場合に上記立体画像ファイルの作成に進み,上記所定視差値を持つ対応点の数が第2の閾値未満または上記限界視差値以上の視差値を持つ対応点の数が上記第3の閾値以上と判断された場合に,新たな第2画像データを用いた上記対応点探索および上記対応点数判断の再実行に進む。第2画像中に大きすぎる視差値(限界視差値以上の視差値)(立体視に適さない視差値)を有する対応点が所定数(第3の閾値)以上見つかった場合には,新たな第2画像データを用いた処理に進むことができる。第3の閾値も,あらかじめ定められる数であってもよいし,上記第2画像データによって表される第2画像を構成する画素数に対する割合によって定められる数であってもよい。
上記視差値算出手段は,上記特徴点の座標値から上記特徴点に対応する対応点の座標値を減算することによって対応点ごとの上記視差値を算出するものであり,上記対応点数判断手段は,正の視差値が算出された対応点または負の視差値が算出された対応点のいずれかを優先して用いるものであってもよい。奥まり感または飛出感のいずれかが強調された立体画像を表す立体画像ファイルを得ることができる。
好ましくは,上記対応点探索手段による対応点探索に用いられる第2画像データによって表される第2画像を複数の領域に分割する領域分割手段を備え,上記対応点数判断手段は,上記領域分割手段によって分割された複数の分割領域のそれぞれについて,分割領域に含まれる対応点の数が第4の閾値以上であるかどうかを判断する。画像全体にわたって対応点が多数存在する第2画像が立体画像ファイルを構成する画像として選ばれるので,画像全体にわたって立体視可能が立体画像ファイルを得ることができる。第4の閾値も,あらかじめ定められる数であってもよいし,分割領域を構成する画素数に対する割合によって定められる数であってもよい。
他の実施態様では,輝度または色の変化の少ない画像平坦領域を検出する画像平坦領域検出手段を備え,上記対応点探索手段は,上記画像平坦領域検出手段によって検出された画像平坦領域を除く残り画像領域を上記対応点探索の範囲とする。対応点が探索されにくい画像平坦領域を対応点探索範囲から除外することによって,対応点探索処理の効率化を図ることができる。なお、ここでいう「画像平坦領域」とは、画像内にてエッジや輪郭が検出されない特徴点の存在しない領域を言うものである。
さらに,上記第2画像の左右の端部の所定領域を除く残り画像領域を上記対応点探索の範囲としてもよい。オーバーラップする画像部分が少ないことがある画像の左右端部を対応点探索範囲から除外することによって対応点探索処理の効率化を図ることができる。
立体視用画像撮影装置は,動画撮影によって得られる画像データを上記第1画像データおよび第2画像データとして用いるものであってもよい。
上記第2画像データによって表わされる第2の被写体像には含まれているが上記第1画像データによって表わされる第1の被写体像には含まれていない第1の死角領域または上記第1の被写体像には含まれているが上記第2の被写体像には含まれていない第2の死角領域の少なくとも一方の死角領域の大きさが第5の閾値以上であるかどうかを判断する死角領域判断手段をさらに備えてもよい。この場合,上記制御手段は,たとえば,上記死角領域判断手段によって,上記第1の死角領域または上記2の死角領域の少なくとも一方の死角領域の大きさが第5の閾値以上と判断された場合に,上記基準視点と異なる視点からの再度の撮像によって得られる,新たな第2画像データを用いて上記対応点探索および上記対応点数判断を再実行するように,上記対応点探索手段および対応点数判断手段を制御するものであり,上記立体画像ファイル作成手段は,たとえば,上記死角領域判断手段によって,上記第1の死角領域または上記第2の死角領域の少なくとも一方の死角領域の大きさが第5の閾値未満と判断された場合に,そのときの第1画像データおよび第2画像データを用いて立体画像ファイルを作成するものである。
また,上記対応点数判断手段は,上記対応点探索手段によって見つかった対応点のうち,視差値の絶対値が第6の閾値以上のものを除く、すなわち、第6の閾値未満の所定視差値をもつ対応点の数が,第1の閾値以上であるかどうかを判断するものでもよい。
さらに,上記第2画像データによって表わされる第2の被写体像から主要被写体像を検出する主要被写体像検出手段をさらに備えてもよい。この場合,上記対応点探索手段は,たとえば,上記第1画像データを用いて検出される複数の特徴点のそれぞれに対応する対応点を,上記主要被写体像検出手段によって検出された主要被写体像の中から探索するものとなろう。
被写体を撮影するときのディジタル・スチル・カメラの位置関係を示す斜視図である。 ディジタル・スチル・カメラの電気的構成を示すブロック図である。 第1実施例におけるディジタル・スチル・カメラの動作を示すフローチャートである。 左目用画像と右目用画像の画像例を示す。 左目用画像と右目用画像の画像例を示す。 左目用画像と右目用画像の画像例を示す。 第1実施例の変形例におけるディジタル・スチル・カメラの動作を示すフローチャートである。 右目用画像と,画像平坦領域,画像左端領域および画像右端領域との関係を示す。 第2実施例のディジタル・スチル・カメラの動作を示すフローチャートである。 左目用画像と右目用画像の画像例を示す。 第3実施例のディジタル・スチル・カメラの処理を示すフローチャートである。 対応点ごとの視差を,破線で示す右目用画像に重合わせて示す。 ディジタル・スチル・カメラの処理を示すフローチャートである。 右目用画像の画像例を示す。 ディジタル・スチル・カメラの処理を示すフローチャートである。 視差ヒストグラムの一例である。 ディジタル・スチル・カメラの処理を示すフローチャートである。 左目用画像と右目用画像の画像例を示す。
(第1実施例)
図1は,この発明の実施例を示すもので,被写体を撮影するときのディジタル・スチル・カメラ1の位置関係を示している。
この実施例によるディジタル・スチル・カメラ1は,同一の被写体を複数回撮影することによって得られる画像から,立体視可能な画像(以下,立体画像という)を得るものである。立体画像を得るために,ディジタル・スチル・カメラ1はその位置(視点)が移動させられ,移動の前後のそれぞれにおいて視点を異ならせて被写体が撮影される。図1はユーザがディジタル・スチル・カメラ1を用いて左目用視点(基準視点)から1回目の撮影を行い,その後被写体に向かって右方向に移動して右目用視点から2回目の撮影を行うときのディジタル・スチル・カメラ1の位置関係を示している。以下の説明では,移動前の撮影によって得られる画像を「左目用画像」とし,移動後の撮影によって得られる画像を「右目用画像」とする。もちろん,移動前の撮影によって得られる画像を「右目用画像」とし,移動後の撮影によって得られる画像を「左目用画像」としてもよい。この場合には,ユーザ(ディジタル・スチル・カメラ1)の移動方向は被写体に向かって左方向となる。いずれにしても左目用画像および右目用画像の2つの画像から立体画像は構成される。
図2はディジタル・スチル・カメラ1の電気的構成を示すブロック図である。なお,ディジタル・スチル・カメラ(静止画を得るもの)に限らず,ディジタル・ムービ・カメラ(動画を得るもの)にもこの発明の実施例は適用することができる。
ディジタル・スチル・カメラ1の全体的な動作はCPU2によって統括される。
ディジタル・スチル・カメラ1は固体撮像素子(CCD,CMOSなど)15を備え,固体撮像素子15の前方に撮像レンズ11,絞り12,赤外線カット・フィルタ13および光学的ロウパス・フィルタ(OLPF)14が設けられている。
ディジタル・スチル・カメラ1は操作器3を備えている。操作器3には電源ボタン,モード設定ダイアル,二段ストローク・タイプのシャッタ・レリーズ・ボタンなどが含まれる。操作器3から出力される操作信号はCPU2に入力する。モード設定ダイアルによって設定されるモードには撮影モード,再生モードなどがある。撮影モードの中にはさらに通常撮影モード,立体撮影モードなどがある。
またディジタル・スチル・カメラ1には,ストロボ撮像のための発光装置4および発光装置4から出射される出射光の反射光を受光するための受光装置5が設けられている。
ディジタル・スチル・カメラ1の電源がオンされ,撮影モードが設定されると,被写体像を表す光線束が,撮像レンズ11,絞り12,赤外線カット・フィルタ13および光学的ロウパス・フィルタ14を介して固体撮像素子15の受光面に入射する。固体撮像素子15の受光面上に被写体像が結像し,被写体像を表すアナログ映像信号が固体撮像素子15から出力する。固体撮像素子15によって一定周期で被写体が撮像され,一定周期で被写体像を表すアナログ映像信号が1フレーム分ずつ出力される。
固体撮像素子15から出力された被写体像を表すアナログ映像信号はアナログ信号処理装置16に入力する。アナログ信号処理装置16は相関二重サンプリング回路,信号増幅器などを含み,ここで相関二重サンプリング,信号増幅などが行われる。アナログ信号処理装置16から出力されたアナログ映像信号はアナログ/ディジタル変換回路17に入力し,ここでディジタル画像データに変換される。ディジタル画像データはデータバス32を介してメモリ制御回路21に与えられる。メモリ制御回路21の制御のもと,ディジタル画像データはメイン・メモリ22に一時的に記録される。CPU2とメモリ制御回路21等とは制御ライン31によって接続されている。
ディジタル画像データはメイン・メモリ22から読出され,データバス32を介してディジタル信号処理回路23に入力する。ディジタル信号処理回路23では白バランス調整,ガンマ補正などの所定のディジタル信号処理が行われる。ディジタル信号処理回路23においてディジタル信号処理が行われたデータは表示制御回路28に与えられる。表示制御回路28によって表示装置29が制御されることにより表示画面上に被写体像が表示される。
シャッタ・レリーズ・ボタンの第一段階の押下があると,レンズ駆動回路6によってレンズ11が駆動されて焦点合わせが行われる。メイン・メモリ22から読出される画像データに基づいてディジタル信号処理回路23において輝度データが得られ,輝度データは積算回路25に入力して積算される。積算値を表すデータはCPU2に与えられて露出量が算出される。算出された露出量となるように絞り12の開口が絞り駆動回路7によって制御され,固体撮像素子15のシャッタ速度が撮像素子駆動回路8によって制御される。
シャッタ・レリーズ・ボタンの第二段階の押下があると,アナログ/ディジタル変換回路17から出力された画像データはメイン・メモリ22に記録される。メイン・メモリ22から読み出された画像データに対し,上述のようにディジタル信号処理回路23において所定のディジタル信号処理が行われる。ディジタル信号処理回路23から出力された画像データは圧縮伸張処理回路24においてデータ圧縮される。圧縮された画像データが外部メモリ制御回路26の制御によってメモリ・カード27に記録される。
操作器3において再生モードが設定されると,メモリ・カード27に記録されている圧縮画像データが読出される。読出された圧縮画像データは圧縮伸張処理回路24において伸張された後,表示制御回路28に与えられる。表示装置29の表示画面上に再生画像が表示される。
上述したように,ディジタル・スチル・カメラ1は立体画像を得ることができる。立体画像を得る場合には,操作器3のモード選択ダイアルが用いられて立体撮影モードが選択される。立体撮影モードが選択されたときのディジタル・スチル・カメラ1の動作について,以下詳細に説明する。
図3は立体撮影モードがモード設定ダイアルによって設定されているときのディジタル・スチル・カメラ1の動作を示すフローチャートである。図4,図5および図6は,いずれもディジタル・スチル・カメラ1を用いた撮影によって得られた,左目用画像と右目用画像の画像例を示している。
図3に示すフローチャートにおいて,対応点探索処理(ステップ43,44),対応点数カウント処理(ステップ45),対応点数に基づく判断処理(ステップ46),立体画像作成処理(ステップ47)は,上述したディジタル信号処理回路23またはCPU2によって行われる。もちろん,これらの処理を実行する専用のハードウエア回路(対応点探索処理回路,対応点数カウント回路,判断回路および立体画像作成回路など)をディジタル・スチル・カメラ1に別途設けてもよい。このことは,後述する他の実施例でも同様である。
シャッタ・レリーズ・ボタンが押下されることによって左目用画像の撮影が行われ,左目用画像データがメイン・メモリ22に記憶される(ステップ41)。その後,ディジタル・スチル・カメラ1が右方向に移動させられて,再びシャッタ・レリーズ・ボタンが押下されて右目用画像の撮影が行われる。右目用画像データもメイン・メモリ22に記憶される(ステップ42)。左目用画像の撮影が行われるディジタル・スチル・カメラ1の位置(視点)と右目用画像の撮影が行われるディジタル・スチル・カメラ1の位置は互いに異なるが,いずれの撮影においても同一の被写体が撮影されるものとする(図1参照)。
メイン・メモリ22に記憶された左目用画像データおよび右目用画像データが用いられて対応点探索処理が行われる(ステップ43)。
対応点探索処理では,メイン・メモリ22に記憶されている左目用画像データまたは右目用画像データの一方を用いて,画像中の物体の角や線分の交点等を検出してこれを特徴点(特徴画素)とし,他方の画像における上記特徴点と相関の高い画素(これを対応点と呼ぶ)を探索する処理が行われる。対応点探索処理はテンプレートマッチング等によって局所的に行われ,複数回の対応点探索処理によって画像全体に対する処理が実行される(ステップ44でNO)。対応点探索処理において一般に複数の特徴点が検出され,かつ複数の対応点が探索されて見つけられる。この実施例では左目用画像L1を用いて特徴点が検出され,右目用画像R1〜R3を用いて上記特徴点に対応する対応点が探索されるものとする。図4〜図6には左側に左目用画像L1が示され,右側に右目用画像R1〜R3が示されている。上述の探索によって見つかった複数の対応点が右目用画像R1〜R3上に黒丸によって強調して示されている。左目用画像L1において検出される複数の特徴点の図示は省略されている。
対応点探索処理が完了すると(ステップ44でYES),見つかった対応点の数がカウントされ(ステップ45),対応点数が,所定の閾値(第1の閾値。たとえば,1%であるが,1%で無くともよい。),ここでは右目用画像R1の全画素数(左目用画像L1の全画素数と同じであるのは言うまでもない)の1%以上であるかどうかが判断される(ステップ46)。たとえば,右目用画像R1が横1,024画素,縦768 画素から構成されている場合,全画素数(1,024×768=786,432)の1%は約7,864画素である。対応点探索処理において見つかった対応点の数が7,864以上であるかどうかが判断される。
対応点数が全画素数の1%に満たない場合(ステップ46でNO),例えば、ユーザに対し再度の撮影が必要な旨の表示がなされ、その後、ユーザにより右目用画像が再び撮影される(ステップ42)。或いは、対応点数が全画素数の1%に満たない場合(ステップ46でNO),例えば、全自動により右目用画像が再び撮影される(ステップ42)。図4を参照して,図4に示す右目用画像R1は左目用画像L1から得られる特徴点に対応する対応点の数が少ない(全画素数の1%に満たない)例を示している。この場合に上述のように右目用画像の再撮影が行われる。再撮影によって得られた右目用画像R2(図5)を表す画像データが,1回目の撮影によって得られた右目用画像R1を表す画像データに代えてまたは加えてメイン・メモリ22に新たに記憶される。左目用画像L1を表す画像データはそのままメイン・メモリ22に保持される。
再撮影によって得られた新たな右目用画像R2が用いられて対応点が探索され,見つかった対応点数がカウントされる(ステップ42〜45)。二回目以降の対応点探索処理では,一回目の対応点探索処理において既に検出されている左目用画像L1の特徴点が用いられ,その特徴点に対応する対応点が,新たに得られた右目用画像R2から探索される。
二度目の撮影によって得られた右目用画像R2の対応点の数も全画素数の1%に満たない場合には,さらに三度目の右目用画像の撮影が行われ(ステップ46でNO,ステップ42),対応点探索処理および対応点数のカウント処理が繰返される(ステップ43〜45)。
図6を参照して,図6に示す右目用画像R3は対応点の数が多い(全画素数の1%以上)(図示の便宜上,すべての対応点は示されていない)例を示している。対応点数が全画素数の1%以上である場合(ステップ46でYES ),メイン・メモリ22に記憶されているそのときの左目用画像および右目用画像,ここでは左目用画像L1と右目用画像R3の2つの画像を表す画像データから立体画像ファイルが作成される(ステップ47)。立体画像ファイルには,左目用画像L1を表す画像データおよび右目用画像R3を表す画像データを含むマルチピクチャーフォーマットにしたがうデータが記録される。作成された立体画像ファイルが外部メモリ制御回路26によってメモリ・カード27に記録されて保存される(ステップ48)。立体撮影モードにおける一連の処理が終了する。
上述した実施例において,複数回の撮影によって得られる右目用画像R1,R2,R3は,たとえば連写(1秒間に複数駒の撮影が行われるタイミングのそれぞれでの撮影)によって得られる。ユーザがディジタル・スチル・カメラ1を両手で持っている場合,一般に連写のそれぞれのタイミングでディジタル・スチル・カメラ1の向きが異なるのが通常であるから,複数回の撮影のうちに対応点の数の多い右目用画像を得られる可能性が高い。
左目用画像から得られる特徴点に対応する右目用画像中の対応点の数が少ない場合,その2つの画像を用いると立体視が困難または立体視に違和感が生じることがある。上述のように,対応点数が所定閾値(上述の実施例では,全画素数の1パーセント)よりも少ない場合には右目用画像の撮影を再度行い,所定閾値以上の対応点を有する右目用画像が得られると,その右目用画像を用いて立体画像が構成される。視点が異なりかつ構図が比較的一致している左目用画像と右目用画像の組から立体画像ファイルが作成されるので,立体視に適した左目用画像と右目用画像の組(立体画像)を得ることができる。
上述した第1実施例において,あらかじめ定められた撮影回数(処理回数)またはあらかじめ定められた時間内での複数回の撮影を終えても対応点数が所定閾値以上とならなかった場合には,閾値を下げて(ステップ46の判断に用いられるパーセント値を小さくする),低められた閾値を用いて再撮影に進むかどうかを判断してもよい。このことは後述する他の実施例でも同様である。
また,上述した第1実施例では,右目用画像R1,R2,R3が撮影されるたびに対応点探索処理(ステップ43,44),対応点数カウント処理(ステップ45),対応点数に基づく判断処理(ステップ46)が行われているが,一定時間連続撮影してあらかじめ複数の右目用画像を得ておき,その後に複数の右目用画像のそれぞれについて対応点探索処理(ステップ43,44),対応点数カウント処理(ステップ45),および対応点数に基づく判断処理(ステップ46)を行うようにしてもよい。このことは後述する他の実施例でも同様である。
(変形例)
図7は第1実施例の変形例におけるディジタル・スチル・カメラ1の動作を示すフローチャートである。図3に示す第1実施例のフローチャートと同一の処理には同一符号を付し,重複した詳細な説明は避ける。
第1実施例では,左目用画像および右目用画像の全領域を用いて対応点探索処理を行っている。第1実施例の変形例では,後述する画像平坦領域および画像左右端領域を除外して,これらの画像平坦領域および画像左右端領域を除く残り領域を処理対象にして対応点探索処理が行われる。
図8は,右目用画像R3と,画像平坦領域FA,画像左端領域LAおよび画像右端領域RAとの関係を示している。
左目用画像および右目用画像の撮影を終え,対応点探索処理に進む前に,画像平坦領域の検出処理が行われる(ステップ51)。画像平坦領域の検出処理では,右目用画像を処理対象にして,たとえばバンドパスフィルタが用いられて高周波成分が抽出され,抽出された高周波成分を用いて輝度変化の少ない領域を検出する処理が行われる。検出された輝度変化の少ない領域が画像平坦領域FAとされる。例えば、画像全体の輝度変化の範囲が0〜255である場合には、画像平坦領域における輝度の変化は、±2すなわち約1%の範囲をいう。画像平坦領域検出処理はディジタル信号処理回路23またはCPU2によって行われる。輝度変化の少ない領域に代えてたとえば各画素の色ベクトルから色変化の少ない領域を検出し,これを画像平坦領域FAとしてもよい。
画像左端領域LAおよび画像右端領域RAは,いずれも右目用画像R3の横方向画素数の10%の画素数の横幅wを持つ。右目用画像R3の左端から右向きの上記横幅w分の範囲が画像左端領域LAとされ,右目用画像R3の右端から左向きの横幅w分の範囲が画像右端領域RAとされる。検出された画像平坦領域FAと,画像左端領域LAと,画像右端領域RAとを除く残りの領域について,上述した対応点検索処理が行われる(ステップ43A)。
輝度変化または色変化の少ない画像平坦領域FAは対応点が検出されにくい。画像平坦領域FAをあらかじめ処理領域から除くことによって対応点探索処理の効率化が図られる。また,画像の左右端は左目用画像と右目用画像のオーバーラップが少ないことがあり,対応点が無いまたは見つかりにくい領域である。画像左端領域LAおよび画像右端領域RAについても対応点探索処理から除外することによって,対応点探索処理の効率化が図られる。
(第2実施例)
図9は第2実施例のディジタル・スチル・カメラ1の動作を示すフローチャートである。図3に示す第1実施例のフローチャートと同一処理には同一符号を付し,重複した詳細な説明は避ける。図10はディジタル・スチル・カメラ1による撮像によって得られた左目用画像と右目用画像の画像例を示している。図10に示す画像例を参照して第2実施例のディジタル・スチル・カメラ1の処理を説明する。
第2実施例では,対応点が探索される右目用画像が複数のエリアに分割され,分割エリアごとに対応点数がカウントされる。そして分割エリアのそれぞれの対応点数が所定の閾値以上であるかどうかが判断される。
図10を参照して,右目用画像R1が縦方向および横方向のそれぞれで3等分され,合計9つの分割エリアd1〜d9が規定されている。もちろん,さらに少数またはさらに多数の分割エリアを規定することもできる。また,分割エリアのすべてを同一形状(同一画素数)とせずに,たとえば右目用画像R1の中央部分のエリアと,その中央エリアを取囲む周辺エリアといった,互いに形状の異なる分割エリアを規定してもよい。
左目用画像が撮影され,その後ディジタル・スチル・カメラ1が右方向に移動させられて右目用画像が撮影され,得られた左目用画像と右目用画像が用いられて対応点探索処理が行われるのは,上述した第1実施例と同じである(ステップ41〜44)。
右目用画像R1に分割エリアd1〜d9が規定され,分割エリアd1〜d9ごとの対応点数がカウントされる(ステップ61)。
すべての分割エリアd1〜d9について,各分割エリアに含まれる対応点数がその分割エリアの画素数の1%(第4の閾値。1%でなくともよい)以上あるかどうかが判断される(ステップ62)。
図10に示す右目用画像R1を分割する分割エリアd1〜d9の場合,9つの分割エリアd1〜d9のそれぞれの対応点数が,分割エリアd1〜d9のそれぞれの画素数の1%以上あるかどうかが判断される。もちろん,分割エリアd1〜d9の画素数が等しい(等分割されている場合)には,カウントされた対応点数が最も少ない分割エリアのみについて,その対応点数が分割エリアの画素数の1パーセント以上あるかどうかを判断してもよい。
対応点数が分割エリアの画素数の1パーセントに満たない,そのような分割エリアが存在する場合,再度の右目用画像の撮影が行われる。2度目(さらには3度目)の撮影によって得られた右目用画像が新たに用いられて,上述の処理が繰返されるのは第1実施例と同様である(ステップ62でNO,ステップ42〜44,ステップ61)。
すべての分割エリアの対応点数が分割エリアの画素数の1%以上であれば(ステップ62でYES ),右目用画像のさらなる撮影は行われず,そのときの左目用画像および右目用画像が用いられて立体画像ファイルが作成され,メモリ・カード27に保存される(ステップ47,48)。
分割エリアd1〜d9のすべてにおいて多数の対応点が含まれる右目用画像が用いられて立体画像ファイルが作成されるので,画像全体において立体視が可能な立体画像を得ることができる。
第2実施例においても,上述した第1実施例の変形例(図8参照)と同様に,画像平坦領域FAおよび画像左右端領域LA,RAを除く残りの領域を処理対象にして,対応点探索処理を行うようにしてもよい。この場合,上記画像平坦領域FAおよび画像左右端領域LA,RAを除いて得られる分割エリアの画素数が,ステップ62の判断において用いられる。
(第3実施例)
図11は第3実施例のディジタル・スチル・カメラ1の処理を示すフローチャートである。図3に示す第1実施例のフローチャートと同一処理には同一符号を付し重複説明を避ける。
第1実施例および第2実施例では右目用画像から探索される対応点それ自体の数に着目して,右目用画像を立体画像ファイルを構成する画像とすべきかどうか(再撮影すべきかどうか)を判断している。第3実施例では,第1,第2実施例と異なり,対応点それ自体の数に代えて,特徴点とその特徴点に対応する対応点との間隔,すなわち対応点ごとの視差をも考慮して,右目用画像を立体画像を構成する画像とすべきかどうか(再撮影すべきかどうか)を判断する。
図12は,第3実施例のディジタル・スチル・カメラ1の処理において用いられる視差を,破線で示す右目用画像R3に重合わせて示すものである。
視差を表す値(以下,視差値という)は,左目用画像における特徴点の横座標値からその特徴点に対応する右目用画像中の対応点の横座標値を減算することによって,対応点ごとに算出される。特徴点および対応点の位置によって視差値はプラス(+)の値またはマイナス(−)の値となる。図12において,黒丸および黒色の太線によってマイナスの値を持つ視差値が示されている。白丸および白色の太線によってプラスの値を持つ視差値が示されている。太線の長さは視差値の大きさを示している。立体画像とされたとき,たとえばマイナスの視差値を有する対応点は奥行き方向に奥まっているかのように視認され,プラスの視差値を有する対応点は手前方向に飛び出しているかのように視認される。
第3実施例においても,第1実施例および第2実施例と同様にして対応点探索処理が行われる。すなわち,左目用画像から特徴点が検出されかつ検出された特徴点に対応する対応点が右目用画像から探索される(ステップ41〜43)。その後,上述のように,検出された特徴点の横座標値からその特徴点に対応する対応点の横座標値を減算することによって,その特徴点と対応点の組についての視差値が画素数によって算出される(ステップ71)。対応点ごとに視差値の算出は行われる。
複数の対応点のうち,所定の大きさ(絶対値)の視差値を有する対応点の数がカウントされる(ステップ72)。たとえば,右目用画像R3の横方向画素数の4%〜6%の画素数に相当する視差値を有する対応点の数がカウントされる。右目用画像R3の横方向画素数が1,024画素とすると,その4%〜6%,すなわち41〜61画素の範囲の視差値を有する対応点の数がカウントされることになる。
所定の大きさの視差値を有する対応点の数が,全画素数の0.2 %(第2の閾値。0.2%でなくともよい。)以上であるかどうかが判断される(ステップ73)。たとえば,右目用画像R3が横1,024ピクセル縦768 ピクセルから構成されている場合,全画素数の0.2 %は約1,572ピクセルである。カウントされた所定の大きさの視差値を有する対応点の数が1,572以上であるかどうかが判断される。
所定視差値を有する対応点の数が全画素数の0.2 %に満たない場合(ステップ73でNO),第1実施例および第2実施例と同様に,右目用画像の再撮影が行われ(ステップ42),新たに得られた右目用画像が用いられて上述の処理が繰返される(ステップ43,44,71〜73)。所定視差値を有する対応点の数が全画素数の0.2 %以上であれば,立体画像ファイルの作成および保存に進む(ステップ73でYES ,ステップ47,48)。
立体視に適する視差値を有する対応点を多く含む右目用画像が用いられて立体画像ファイルが構成されるので,立体視に適した立体画像を得ることができる。
上述した第3実施例では,視差値の大きさ(絶対値)を用いた処理が行われているが,マイナスの視差値を有する対応点,またはプラスの視差値を有する対応点のいずれかを優先して上述と同様の処理を行うようにしてもよい。たとえば,マイナスの視差値を有する対応点のみを用いると,マイナスの視差値を有する対応点を多く含む右目用画像が用いられて立体画像ファイルが生成される。奥行き感が強調された立体画像が得られやすくなる。プラスの視差値を有する対応点のみを用いると,プラスの視差値を有する対応点を多く含む右目用画像が用いられて立体画像ファイルが生成される。飛出し感が強調された立体画像が得られやすくなる。
第3実施例においても,第1実施例の変形例と同様に,画像平坦領域および画像左右端領域を除く残りの領域を処理対象にして対応点探索処理を行うようにしてもよい。また,第2実施例と同様に,右目用画像を複数の分割エリアに分割し,分割エリアごとに所定の大きさの視差値を有する対応点の数をカウントして,すべての分割エリアに所定数以上の所定の大きさの視差値を有する対応点が存在する右目用画像を用いて立体画像ファイルを作成するようにしてもよい。
大きすぎる視差値を有する対応点が右目用画像に多数存在すると,立体視に違和感が生じることがある。上記第3実施例においてさらに,立体視に適さない視差値(限界視差値という)以上の視差値を有する対応点が多数見つかった場合には再度の右目用画像の撮影を行うようにしてもよい。たとえば,右目用画像の横方向画素数の10%の画素数に相当する視差値が限界視差値とされる。限界視差値以上の視差値を有する対応点の数が所定の閾値(右目用画像の全画素数に対する所定割合によって定められる値。第3の閾値。)以上見つかった場合に,再度の右目用画像の撮影が行われる。限界視差値以上の視差値を有する対応点の数が所定の閾値未満であれば立体画像ファイルの作成に進む。
上述の第1〜第3実施例では,静止画撮影によって得られた左目用画像L1および右目用画像R3を用いて一つの立体画像ファイルを生成する例を説明したが,立体画像ファイルを連続して生成することによって,立体視可能な動画像を得ることもできる。この場合,被写体像が連続撮像され,図3,図7,図9,図11に示すフローチャートの処理が連続して繰返されて多数の立体画像ファイルが作成される。多数の立体画像ファイルが連続再生されることによって立体視可能な動画像が視認される。
(その他の変形例等)
図13および図14は,第3実施例の変形例を示すものである。図13は,ディジタル・スチル・カメラ1の処理を示すフローチャートである。図13の処理において,図11に示す処理と同一の処理については同一符号を付す。図14は視差値が示されている右目用画像の一例である。
第3実施例では,画像全体の対応点の視差を考慮して,右目用画像を再撮影するかどうかを判断しているが,図13および図14に示す変形例では,主要被写体像内の対応点の視差を考慮して右目用画像を再撮影するかどうかが判断される。
上述のように,右目用画像R3が得られ(ステップ42),対応点が探索されたものとする(ステップ43,44,図6参照)。
つづいて,得られた右目用画像R3から主要被写体が検出される(ステップ81)。右目用画像R3の主要被写体は,熊の画像OBであるとすると,その熊の画像OBが検出される。たとえば,位置,画像に対する割合,合焦の程度などを利用して主要被写体が検出される。
主要被写体が検出されると,その主要被写体OB中に存在する各対応点の視差値が算出される(ステップ82)。視差値は,上述したのと同様に対応点ごとに画素数で表される。
図14は,上述のように,右目用画像R3に視差値が示されている。視差値が分りやすくなるように,被写体像は破線で示されている。主要被写体OB中に存在する対応点について視差値が示されており,主要被写体OB以外の画像部分については視差値は算出されない。もっとも,主要被写体OB以外の画像部分についての視差値を算出し,後述するカウント対象から主要被写体OB以外の画像部分についての視差値を排除するようにしてもよい。
主要被写体OB中に存在する各対応点についての視差値が算出されると,上述したのと同様に,それらの視差値のうち,主要被写体の視差が立体画像の視差として適切な範囲の所定の大きさ(絶対値)の視差値を有する対応点の数がカウントされる(ステップ72)。この場合も,上述したのと同様に,たとえば,右目用画像R3の横方向の画素数の4%〜6%の画素数に相当する視差値を有する対応点の数がカウントされる。右目用画像R3の横方向の画素数が1,024画素とすると,その4%〜6%,すなわち41〜61画素の範囲の視差値を有する対応点の数がカウントされる。
つづいて,所定の大きさの視差値を有する対応点の数が,主要被写体の画素数の0.3%(第2の閾値)以上であるかが判断される(ステップ83)。たとえば,主要被写体の画素数が50,000ピクセルであれば,そのような対応点の数が150以上であるかどうかが判断される。
所定視差値を有する対応点の数が主要被写体OBの画素数の0.3%に満たない場合(ステップ83でNO),右目用画像の再撮影が行われる(ステップ42)。新たに得られた右目用画像についてステップ43,44,81,82,72,83の処理が繰り返される。所定視差値を有する対応点の数が主要被写体OBの画素数の0.3%以上の場合(ステップ83でYES),そのときに得られた右目用画像と左目用画像とから立体画像ファイルが作成される(ステップ47)。作成された立体画像ファイルがメモリ・カード27に保存される(ステップ48)。主要被写体について特に適切に立体視できる画像が得られる。
図15および図16は,上述した第3実施例のさらに他の変形例を示している。図15は,ディジタル・スチル・カメラ1の処理を示すフローチャートであり,図11に示す処理と同一の処理については同一符号が付されている。図16は,視差値のヒストグラムを示している。横軸が視差値であり,縦軸がその視差値をもつ対応点の数である。
図15および図16に示す変形例では,上述したように各対応点の視差値が算出されるが,大きな視差値の対応点についてはカウント対象から除外される。
上述のように左目用画像および右目用画像が得られ,右画像全体について対応点が算出される(ステップ41〜44,71)(上述のように主要被写体を検出し,主要被写体について対応点の視差値を算出するようにしてもよい)。対応点が算出されると,図16に示すように,視差値ヒストグラムが生成される。
生成された視差値ヒストグラムを利用して,所定の大きさ(絶対値)(第6の閾値)以上の視差値を有する対応点を除く対応点の数がカウントされる(ステップ91)。たとえば,右目用画像R3の横方向画素数の8%以上の画素数に相当する視差値を有する対応点が除外され,残りの対応点の数がカウントされる。右目用画像R3の横方向の画素数を1,024画素とすると,その8%,すなわち81画素以上の視差値を有する対応点がカウントから除外される(絶対値で81画素未満の視差値を有する対応点がカウントされる)。
カウントされた対応点の数が,右目用画像R3の全画素数の0.3%(第1の閾値)以上であるかどうかが判断される(ステップ46)。カウントされた対応点の数が0.3%に満たない場合(ステップ46でNO),右目用画像の再撮影が行われ(ステップ42),新たに得られた右目用画像を用いて上述したステップ42〜44,71,91,46の処理が繰り返される。カウントされた対応点の数が右目用画像R3の全画素数の0.3%以上であれば(ステップ46でYES),立体画像ファイルの作成およびその保存が行われる(ステップ47,48)。
図17および図18は,第1実施例の変形例をさらに示している。図17は,ディジタル・スチル・カメラ1の処理を示すフローチャートであり,図3に示す処理と同一の処理については同一符号が付されている。図18は,左目用画像および右目用画像の一例である。
左目用画像は,左目の視点で撮影され,右目用画像は,右目の視点で撮影されるから,左目用画像または右目用画像のうち,一方の画像には表示されるが他方の画像には表示されない領域(死角領域,オクルージョン領域)が生じる。
図18を参照して,左目用画像L1に含まれている主要被写体OBLの左側には左目用画像L1には表示されているが,右目用画像R4には表示されない死角領域BLがハッチングで図示されている。また,右目用画像R4に含まれている主要被写体OBRの右側には右目用画像R4には表示されているが,左目用画像L1には表示されない死角領域BRがハッチングで図示されている。この変形例では,これらの死角領域BLおよびBR(少なくとも一方の領域でもよい)が考慮される。
図17を参照して,上述した対応点がカウントされ(ステップ45),対応点の数が右目用画像R4の全画素数の1%以上あるかどうかが判断される(ステップ46)。
対応点の数が右目用画像R4の全画素数の1%以上あった場合には(ステップ46でYES),右目用画像L1から死角領域BLが検出され,左目用画像R4から死角領域BRが検出される(ステップ101)。これらの死角領域BLおよびBRは,左目用画像L1と右目用画像R4とを対応する画素ごとに比較することにより容易に検出できる。
左目用画像L1の死角領域BLと右目用画像R4の死角領域BRとが検出されると,左目用画像L1の死角領域BLが左目用画像L1の5%(第5の閾値)以上であり,かつ右目用画像R4の死角領域BRが右目用画像R4の5%以上であるかどうかが判断される(ステップ102)。死角領域BLおよびBRのいずれもが,それぞれに対応する画像の5%未満であれば(ステップ102でNO),左目用画像L1と右目用画像R4とから立体画像を生成しても死角領域が少ないので,違和感の少ない立体画像が得られる。上述したように,左目用画像L1と右目用画像R4とから立体画像ファイルが生成され,メモリ・カード27に保存される(ステップ47,48)。死角領域BLおよびBRの少なくとも一方が,対応する画像の5%以上であると(ステップ102でYES),立体的に見えない部分が比較的多いと考えられるので,右目用画像が再撮影される。ステップ42〜46,101,102の処理が繰り返される。
死角領域の部分は立体的に見えないが,立体的に見えない部分を少なくできる。
上述した変形例では,死角領域BLが左目用画像L1の5%以上ある場合,または死角領域BRが右目用画像R4の5%以上ある場合には,右目用画像R4が再撮影されているが,死角領域BLが左目用画像L1の5%以上あり,かつ死角領域BRが右目用画像R4の5%以上ある場合に,右目用画像R4が再撮影されるようにしてもよい。
さらに,対応点数が全画素数の1%未満であると判断された場合に,あらかじめ複数回の撮像によって得られる複数の右目用画像の中から選択される一の右目用画像を,新たな右目用画像として用いて上述したステップ43等の処理を行うようにしてもよい。このことは,第1実施例に限らず,上述した他の実施例,変形例についても同様である。
1 ディジタル・スチル・カメラ
2 CPU
3 操作器
15 固体撮像素子
23 ディジタル信号処理回路
27 メモリ・カード

Claims (20)

  1. 被写体を撮像し,撮像によって得られる画像データを出力する撮像手段を備え,上記撮像手段から出力される左目用視点および右目用視点からの被写体像を表す画像データから立体視用画像ファイルを生成する立体視用画像撮影装置であって,
    左目用視点または右目用視点のいずれか一方の基準視点から得られる第1画像データを用いて検出される複数の特徴点のそれぞれに対応する対応点を,左目用視点または右目用視点のいずれか他方の上記基準視点と異なる視点から得られる第2画像データを用いて探索する対応点探索手段,
    上記対応点探索手段による探索によって見つかった対応点の数が第1の閾値以上であるかどうかを判断する対応点数判断手段,
    上記対応点数判断手段によって対応点数が第1の閾値未満と判断された場合に,上記基準視点と異なる視点からの再度の撮像によって得られる,新たな第2画像データを用いて上記対応点探索および上記対応点数判断を再実行する,上記対応点探索手段および対応点数判断手段を制御する制御手段,ならびに
    上記対応点数判断手段によって対応点数が第1の閾値以上と判断された場合に,該判断の際の第1画像データおよび第2画像データを用いて立体画像ファイルを作成する立体画像ファイル作成手段,
    を備える立体視用画像撮影装置。
  2. 第1の閾値以上の数の対応点を持つ第2画像データが得られるまで上記基準視点と異なる視点からの撮像,上記対応点探索および上記対応点数判断が繰返してなる,
    請求項1に記載の立体視用画像撮影装置。
  3. 上記対応点数判断手段による所定回数の判断処理,または所定時間内における上記対応点数判断手段による複数回の判断処理を終えた時点において,第1の閾値以上の数の対応点を持つ第2画像データが未取得の場合に,上記第1の閾値を下げる閾値低減手段をさらに備える,
    請求項1または2に記載の立体視用画像撮影装置。
  4. 上記第1の閾値は,上記第2画像データによって表される第2画像の画素数に対する所定割合によって定められる,
    請求項1から3のいずれか一項に記載の立体視用画像撮影装置。
  5. 上記対応点探索手段による探索によって見つかった対応点ごとに,上記特徴点と上記対応点との間の視差値を算出する視差値算出手段を備え,
    上記対応点数判断手段は,
    上記対応点探索手段による探索によって見つかった対応点のうち,所定視差値を持つ対応点の数が,第2の閾値以上であるかどうかを判断するものであり,
    上記所定視差値を持つ対応点の数が第2の閾値以上と判断された場合に上記立体画像ファイルの作成に進み,
    上記所定視差値を持つ対応点の数が第2の閾値未満と判断された場合に,新たな第2画像データを用いた上記対応点探索および上記対応点数判断の再実行に進む,
    請求項1に記載の立体視用画像撮影装置。
  6. 上記対応点数判断手段は,
    上記対応点探索手段による探索によって見つかった対応点のうち,限界視差値以上の視差値を持つ対応点の数が第3の閾値未満であるかどうかをさらに判断するものであり,
    上記所定視差値を持つ対応点の数が第2の閾値以上,かつ上記限界視差値以上の視差値を持つ対応点の数が上記第3の閾値未満と判断された場合に,上記立体画像ファイルの作成に進み,
    上記所定視差値を持つ対応点の数が第2の閾値未満または上記限界視差値以上の視差値を持つ対応点の数が上記第3の閾値以上と判断された場合に,新たな第2画像データを用いた上記対応点探索および上記対応点数判断の再実行に進む,
    請求項5に記載の立体視用画像撮影装置。
  7. 上記第2の閾値は,上記第2画像データによって表される第2画像の画素数に対する所定割合によって定められる,
    請求項5に記載の立体視用画像撮影装置。
  8. 上記第2および3の閾値は,上記第2画像データによって表される第2画像の画素数に対する所定割合によって定められる,
    請求項6に記載の立体視用画像撮影装置。
  9. 上記視差値算出手段は,上記特徴点の座標値から上記特徴点に対応する対応点の座標値を減算することによって対応点ごとの上記視差値を算出するものであり,
    上記対応点数判断手段は,
    正の視差値が算出された対応点または負の視差値が算出された対応点のいずれかを優先して用いるものである,
    請求項5に記載の立体視用画像撮影装置。
  10. 上記対応点探索手段による対応点探索に用いられる第2画像データによって表される第2画像を複数の領域に分割する領域分割手段を備え,
    上記対応点数判断手段は,
    上記領域分割手段によって分割された複数の分割領域のそれぞれについて,分割領域に含まれる上記対応点の数が第4の閾値以上であるかどうかを判断する,
    請求項1から6のいずれか一項に記載の立体視用画像撮影装置。
  11. 上記第4の閾値は,上記分割領域を構成する画素数に対する所定割合によって定められる,
    請求項10に記載の立体視用画像撮影装置。
  12. 上記対応点数判断手段によって対応点数が上記第1の閾値未満と判断された場合に,その後に上記基準視点と異なる視点から上記被写体が撮影されることによって得られる画像データを,上記新たな第2画像データとして用いる,
    請求項1に記載の立体視用画像撮影装置。
  13. 上記対応点数判断手段によって対応点数が上記第1の閾値未満と判断された場合に,あらかじめの複数回の撮像によって得られる上記基準視点と異なる視点からの複数の第2画像データの中から選択される一の第2画像データを,上記新たな第2画像データとして用いる,
    請求項1に記載の立体視用画像撮影装置。
  14. 輝度または色の変化の少ない画像平坦領域を検出する画像平坦領域検出手段を備え,
    上記対応点探索手段は,
    上記画像平坦領域検出手段によって検出された画像平坦領域を除く残り画像領域を上記対応点探索の範囲とする,
    請求項1から13のいずれか一項に記載の立体視用画像撮影装置。
  15. 上記対応点探索手段は,上記第2画像データによって表わされる第2画像の左右の端部の所定領域を除く残り画像領域を上記対応点探索の範囲とする,
    請求項1から13のいずれか一項に記載の立体視用画像撮影装置。
  16. 動画撮影によって得られる画像データを,上記第1画像データおよび第2画像データとして用いる,
    請求項1から15のいずれか一項に記載の立体視用画像撮影装置。
  17. 上記第2画像データによって表わされる第2の被写体像には含まれているが上記第1画像データによって表わされる第1の被写体像には含まれていない第1の死角領域または上記第1の被写体像には含まれているが上記第2の被写体像には含まれていない第2の死角領域の少なくとも一方の死角領域の大きさが第5の閾値以上であるかどうかを判断する死角領域判断手段をさらに備え,
    上記制御手段は,
    上記死角領域判断手段によって,上記第1の死角領域または上記2の死角領域の少なくとも一方の死角領域の大きさが第5の閾値以上と判断された場合に,上記基準視点と異なる視点からの再度の撮像によって得られる,新たな第2画像データを用いて上記対応点探索および上記対応点数判断を再実行する,上記対応点探索手段および対応点数判断手段を制御するものであり,
    上記立体画像ファイル作成手段は,
    上記死角領域判断手段によって,上記第1の死角領域または上記第2の死角領域の少なくとも一方の死角領域の大きさが第5の閾値未満と判断された場合に,該判断の際の第1画像データおよび第2画像データを用いて立体画像ファイルを作成するものである,
    請求項1に記載の立体視用画像撮影装置。
  18. 上記対応点数判断手段は,
    上記対応点探索手段によって見つかった対応点のうち,視差値の絶対値が第6の閾値未満の所定視差値をもつ対応点の数が,第1の閾値以上であるかどうかを判断するものである,
    請求項1に記載の立体視用画像撮影装置。
  19. 上記第2画像データによって表わされる第2像から主要被写体像を検出する主要被写体像検出手段をさらに備え,
    上記対応点探索手段は,
    上記第1画像データを用いて検出される複数の特徴点のそれぞれに対応する対応点を,上記主要被写体像検出手段によって検出された主要被写体像の中から探索するものである,
    請求項5に記載の立体視用画像撮影装置。
  20. 被写体を撮像し,撮像によって得られる画像データを出力する撮像手段を備え,上記撮像手段から出力される左目用視点および右目用視点からの被写体像を表す画像データから立体視用画像データを生成する立体視用画像撮影装置の制御方法であって,
    対応点探索手段が,左目用視点または右目用視点のいずれか一方の基準視点から得られる第1画像データを用いて検出される複数の特徴点のそれぞれに対応する対応点を,左目用視点または右目用視点のいずれか他方の上記基準視点と異なる視点から得られる第2画像データを用いて探索し,
    対応点数判断手段が,上記対応点探索手段による探索によって見つかった対応点の数が,第1の閾値以上であるかどうかを判断し,
    制御手段が,上記対応点数判断手段によって対応点数が第1の閾値未満と判断された場合に,上記基準視点と異なる視点からの再度の撮像によって得られる,新たな第2画像データを用いて上記対応点探索および上記対応点数判断を再実行する,上記対応点探索手段および上記対応点数判断手段を制御し,
    立体画像ファイル作成手段が,上記対応点数判断手段によって対応点数が第1の閾値以上と判断された場合に,該判断の際の第1画像データおよび第2画像データを用いて立体画像ファイルを作成する,
    立体視用画像撮影装置の制御方法。
JP2012522554A 2010-06-28 2011-06-16 立体視用画像撮影装置およびその制御方法 Expired - Fee Related JP5526233B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012522554A JP5526233B2 (ja) 2010-06-28 2011-06-16 立体視用画像撮影装置およびその制御方法

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2010145728 2010-06-28
JP2010145728 2010-06-28
JP2011007406 2011-01-18
JP2011007406 2011-01-18
PCT/JP2011/063793 WO2012002157A1 (ja) 2010-06-28 2011-06-16 立体視用画像撮影装置およびその制御方法
JP2012522554A JP5526233B2 (ja) 2010-06-28 2011-06-16 立体視用画像撮影装置およびその制御方法

Publications (2)

Publication Number Publication Date
JPWO2012002157A1 JPWO2012002157A1 (ja) 2013-08-22
JP5526233B2 true JP5526233B2 (ja) 2014-06-18

Family

ID=45401882

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012522554A Expired - Fee Related JP5526233B2 (ja) 2010-06-28 2011-06-16 立体視用画像撮影装置およびその制御方法

Country Status (4)

Country Link
US (1) US9774841B2 (ja)
JP (1) JP5526233B2 (ja)
CN (1) CN102959942B (ja)
WO (1) WO2012002157A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101706216B1 (ko) * 2012-04-03 2017-02-13 한화테크윈 주식회사 고밀도 삼차원 영상 재구성 장치 및 방법
KR101207343B1 (ko) * 2012-08-30 2012-12-04 재단법인대구경북과학기술원 영상 밝기 조절 방법 및 그 장치와, 스테레오 카메라
JP2014053655A (ja) * 2012-09-05 2014-03-20 Panasonic Corp 画像表示装置
JP5343159B1 (ja) * 2012-09-21 2013-11-13 株式会社東芝 画像処理装置、画像処理方法および画像処理プログラム
JP6342128B2 (ja) * 2013-08-23 2018-06-13 キヤノンメディカルシステムズ株式会社 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置
JP2015233270A (ja) * 2014-05-13 2015-12-24 キヤノン株式会社 撮像装置およびその制御方法
CN108615014B (zh) * 2018-04-27 2022-06-21 京东方科技集团股份有限公司 一种眼睛状态的检测方法、装置、设备和介质
CN109194945A (zh) * 2018-08-02 2019-01-11 维沃移动通信有限公司 一种图像处理方法及终端
JP7132501B2 (ja) * 2018-11-01 2022-09-07 ミツミ電機株式会社 測距カメラ

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1023465A (ja) * 1996-07-05 1998-01-23 Canon Inc 撮像方法及び装置
JPH1066106A (ja) * 1996-08-22 1998-03-06 Canon Inc 複眼カメラシステム
JPH10155110A (ja) * 1996-11-22 1998-06-09 Canon Inc 撮像方法及び装置並びに記憶媒体
JPH1155606A (ja) * 1997-07-31 1999-02-26 Konami Co Ltd 画像プリント作成ゲーム装置
JP2003069879A (ja) * 2001-08-29 2003-03-07 Ricoh Co Ltd 画像入力装置およびプログラム
JP2006013851A (ja) * 2004-06-25 2006-01-12 Sharp Corp 撮像表示装置および撮像表示方法
JP2009064193A (ja) * 2007-09-05 2009-03-26 Toshiba Corp 解像度変換装置及び方法
JP2009212728A (ja) * 2008-03-03 2009-09-17 Ntt Docomo Inc 立体映像処理装置及び立体映像処理方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6445814B2 (en) * 1996-07-01 2002-09-03 Canon Kabushiki Kaisha Three-dimensional information processing apparatus and method
CN1375799A (zh) * 2002-04-15 2002-10-23 上海罗莱照相器材厂 立体照片数码合成方法
JP2006113807A (ja) 2004-10-14 2006-04-27 Canon Inc 多視点画像の画像処理装置および画像処理プログラム
KR100715026B1 (ko) * 2005-05-26 2007-05-09 한국과학기술원 단일카메라 전방향 양안시 영상 획득 장치
US7605817B2 (en) * 2005-11-09 2009-10-20 3M Innovative Properties Company Determining camera motion
US8005284B2 (en) * 2006-12-07 2011-08-23 Kabushiki Kaisha Toshiba Three dimensional image processing apparatus and x-ray diagnosis apparatus

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1023465A (ja) * 1996-07-05 1998-01-23 Canon Inc 撮像方法及び装置
JPH1066106A (ja) * 1996-08-22 1998-03-06 Canon Inc 複眼カメラシステム
JPH10155110A (ja) * 1996-11-22 1998-06-09 Canon Inc 撮像方法及び装置並びに記憶媒体
JPH1155606A (ja) * 1997-07-31 1999-02-26 Konami Co Ltd 画像プリント作成ゲーム装置
JP2003069879A (ja) * 2001-08-29 2003-03-07 Ricoh Co Ltd 画像入力装置およびプログラム
JP2006013851A (ja) * 2004-06-25 2006-01-12 Sharp Corp 撮像表示装置および撮像表示方法
JP2009064193A (ja) * 2007-09-05 2009-03-26 Toshiba Corp 解像度変換装置及び方法
JP2009212728A (ja) * 2008-03-03 2009-09-17 Ntt Docomo Inc 立体映像処理装置及び立体映像処理方法

Also Published As

Publication number Publication date
WO2012002157A1 (ja) 2012-01-05
CN102959942A (zh) 2013-03-06
US20130093847A1 (en) 2013-04-18
JPWO2012002157A1 (ja) 2013-08-22
CN102959942B (zh) 2016-04-20
US9774841B2 (en) 2017-09-26

Similar Documents

Publication Publication Date Title
JP5526233B2 (ja) 立体視用画像撮影装置およびその制御方法
JP5390707B2 (ja) 立体パノラマ画像合成装置、撮像装置並びに立体パノラマ画像合成方法、記録媒体及びコンピュータプログラム
JP5235798B2 (ja) 撮影装置及びその制御方法
JP5214826B2 (ja) 立体パノラマ画像作成装置、立体パノラマ画像作成方法及び立体パノラマ画像作成プログラム並びに立体パノラマ画像再生装置、立体パノラマ画像再生方法及び立体パノラマ画像再生プログラム、記録媒体
JP5127787B2 (ja) 複眼撮影装置及びその制御方法
JP5371845B2 (ja) 撮影装置及びその表示制御方法並びに3次元情報取得装置
US10587860B2 (en) Imaging apparatus and method for controlling same
JP5612774B2 (ja) 追尾枠の初期位置設定装置およびその動作制御方法
JP2011135246A (ja) 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
US20110012991A1 (en) Moving image recording method and apparatus, and moving image coding method and moving image coder
JP2011087128A (ja) 複眼カメラ及び被写体判別方法
US20130027520A1 (en) 3d image recording device and 3d image signal processing device
JP2009128969A (ja) 撮像装置および方法並びにプログラム
JPWO2012026185A1 (ja) 撮像装置およびその動作制御方法
JP2008281385A (ja) 画像処理装置
US20120236126A1 (en) Image pickup device, image pickup method, program, and integrated circuit
JP2011048295A (ja) 複眼撮影装置及びその姿勢検出方法
WO2012002039A1 (ja) 代表画像決定装置および画像圧縮装置ならびにそれらの動作制御方法およびそのプログラム
JP2013175805A (ja) 表示装置および撮像装置
JP2011146825A (ja) ステレオ画像撮影装置およびその方法
JP2011091463A (ja) 3d撮像装置およびその動作制御方法
JP2013046343A (ja) 画像撮像装置
JP2014134723A (ja) 画像処理装置、画像処理方法およびプログラム
JP5197469B2 (ja) 前方被写体像抽出装置およびその動作制御方法
JP7134601B2 (ja) 画像処理装置、画像処理方法、撮像装置及び撮像装置の制御方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140401

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140414

R150 Certificate of patent or registration of utility model

Ref document number: 5526233

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees