JP5522018B2 - 画像処理装置、画像処理方法及び画像処理プログラム - Google Patents

画像処理装置、画像処理方法及び画像処理プログラム Download PDF

Info

Publication number
JP5522018B2
JP5522018B2 JP2010279342A JP2010279342A JP5522018B2 JP 5522018 B2 JP5522018 B2 JP 5522018B2 JP 2010279342 A JP2010279342 A JP 2010279342A JP 2010279342 A JP2010279342 A JP 2010279342A JP 5522018 B2 JP5522018 B2 JP 5522018B2
Authority
JP
Japan
Prior art keywords
image
unit
orientation
detected
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010279342A
Other languages
English (en)
Other versions
JP2012129790A (ja
Inventor
輝幸 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2010279342A priority Critical patent/JP5522018B2/ja
Priority to US13/316,964 priority patent/US8965105B2/en
Priority to CN201110418246.7A priority patent/CN102572492B/zh
Publication of JP2012129790A publication Critical patent/JP2012129790A/ja
Application granted granted Critical
Publication of JP5522018B2 publication Critical patent/JP5522018B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • G06T5/80
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Description

開示の技術は画像処理装置、画像処理方法及び画像処理プログラムに関する。
撮影装置による撮影では、撮影対象の被写体等に応じて、撮影光軸回りの画像の向きとして、画像の長手方向がおよそ水平となる向き(横撮影)又は画像の長手方向がおよそ鉛直となる向き(縦撮影)が選択される。このため、両眼視差に相当する差、或いは両眼視差に近似する差を有する立体画像の撮影に際しても、所望の向きで撮影したいというニーズが存在する。
上記のニーズを満たすための技術として、撮影装置に複数の撮像部を設け、撮影する画像の向きに応じて、個々の撮像部を撮影光軸回りに回転可能な構成の撮影装置が知られている。また、単一の撮像部を設けた撮影装置に三軸加速度センサを搭載し、センサ出力に基づいてパンニング操作を検出する関連技術も知られている(特許文献1〜3参照)。
特開平10−224820号公報 特開2009−177565号公報 特開2009−103980号公報
立体画像は、画像上での視差の方向が観賞者の両眼の並ぶ方向に対応する向きで表示する必要がある。このため、撮影装置を、所望の向きで立体画像を撮影可能な構成とした場合、立体画像を表示する等の立体画像の出力時に、画像を表示する際の画像の向きを検知することが必須となる。画像を表示する際の画像の向きは、例えば撮影時の画像の向きから検知することができる。また、撮影時の画像の向きは、例えば撮影光軸回りに回転可能な複数の撮像部が設けられた撮影装置によって撮影された立体画像であれば、撮影時における撮像部の撮影光軸回りの向きに基づいて検知できる。また、例えば単一の撮像部と三軸加速度センサが設けられた撮影装置によって撮影された立体画像については、撮影時の三軸加速度センサの出力に基づいて撮影時の画像の向きを検知できる。
しかしながら、上記技術では、撮影された画像の画像データ以外に、画像を表示する際の画像の向きを検知するために、撮影装置の構成(機種)毎に種類の異なる情報を取得する必要が生ずる。そして、立体画像の表示等の出力を行う機能を撮影装置に搭載する場合、画像を表示する際の画像の向き検知に利用する情報の種類が撮影装置の構成毎に相違していると、上記機能を実現するプログラムを撮影装置の構成に拘わらず共通化することが困難となる。すなわち、上記機能を実現するプログラムの汎用性を確保できず、上記機能を実現するプログラムを撮影装置の構成毎(機種毎)に開発する必要が生ずる。また、立体画像の表示等の出力を行う出力装置を撮影装置と別に設ける場合には、出力装置に、撮影装置の構成を認識し、画像の向きを検知する処理の内容を撮影装置の構成に応じて切り替える機能を搭載する必要が生ずる。
開示の技術は、被写体との相対位置が互いに異なる位置で撮影された複数の画像から、画像を表示する際の画像の向きを判定することが目的である。
開示の技術は、被写体との相対位置が互いに異なる位置で撮影された第1の画像と第2の画像との間の視差に関係が薄い第1の位置ずれを検出し、第1の画像及び第2の画像の少なくとも一方に対し、検出した第1の位置ずれを補正する。そして開示の技術は、位置ずれ補正後の第1の画像と第2の画像との間に残存している第2の位置ずれの方向を検出し、検出した第2の位置ずれの方向に基づき、第1の画像及び第2の画像を表示する際の画像の向きを判定する。
開示の技術は、被写体との相対位置が互いに異なる位置で撮影された複数の画像から、画像を表示する際の画像の向きを判定できる、という効果を有する。
実施形態で説明した立体画像取得装置の概略ブロック図である。 (A)は横撮影、(B)は縦撮影における撮影位置の移動に応じた撮影画像の変化の一例を各々示すイメージ図である。 (A)は撮影画像の一例、(B)は(A)の画像と異なる撮影位置で撮影された画像の一例、(C)は(B),(C)の画像に対して背景領域の位置ずれ補正を行って重ね合わせた画像の一例を各々示すイメージ図である。 (A)は横撮影の場合、(B)は縦撮影の場合の画像中の画像部の移動方向を各々示すイメージ図である。 (A)は撮影画像の一例、(B)は(A)の画像と異なる撮影位置で撮影されかつ手振れ等により画像中の画像部の位置が撮影位置の移動方向と直交する方向に変動した画像の一例、(C)は(A),(B)の画像に対して背景領域の位置ずれ補正を行って重ね合わせた画像の一例を各々示すイメージ図である。 第1実施形態で説明した立体画像取得処理を示すフローチャートである。 背景領域の位置ずれ検出処理を示すフローチャートである。 前景領域の位置ずれ検出処理を示すフローチャートである。 (A)は横撮影基準の場合、(B)は縦撮影基準の場合の画像の向き判定処理を各々示すフローチャートである。 第2実施形態で説明した立体画像取得処理を示すフローチャートである。 (A)は横撮影基準の場合、(B)は縦撮影基準の場合の画像データ保存処理を各々示すフローチャートである。 立体画像取得装置をプログラムによって実現する態様におけるハードウェア構成の一例を示す概略ブロック図である。 立体画像取得装置の他の構成を示す概略ブロック図である。 画像加工部による画像加工処理を説明するための、(A)は撮影時の画像の向きの一例、(B)は撮影画像の一例、(C)は撮影画像から切り出された矩形状領域の一例、(D)は回転処理を経た画像(矩形状領域)の一例を各々示すイメージ図である。
以下、図面を参照して開示の技術の実施形態の一例を詳細に説明する。
〔第1実施形態〕
図1には、本実施形態に係る立体画像取得装置10が示されている。立体画像取得装置10は、画像取得部12、第1の画像保持部14、第2の画像保持部16、第1の位置ずれ検出部18、画像変換部20、第2の位置ずれ検出部22、第3の位置ずれ検出部24、撮影方向判定部26及び画像保存処理部28を備えている。なお、立体画像取得装置10の各機能部は例えば電子回路等で実現することができ、立体画像取得装置10は、例えば半導体集積回路、より詳しくはASIC(Application Specific Integrated Circuit)等で実現することができる。また立体画像取得装置10は、利用者による操作入力を受け付ける入力デバイスである操作部30を更に備えていてもよい。
画像取得部12は複数の画像の画像データを順に取得する。画像取得部12は例えばCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子を含む撮像部であってもよい。なお、画像取得部12が上記の撮像部である場合としては、例えば本実施形態に係る立体画像取得装置10が、上記の撮像部が設けられた電子機器(例えば撮影装置(一例を図2(A),(B)に示す)や携帯端末等)に内蔵された態様が挙げられる。また画像取得部12は、外部に設けた撮像部、或いは、画像データを記憶する記憶部を備えた外部の情報処理装置から通信によって画像データを取得する通信ユニットであってもよい。なお、画像取得部12が上記の通信ユニットである場合としては、例えば本実施形態に係る立体画像取得装置10が、上記の通信ユニットが設けられた電子機器(例えばサーバやPC(Personal Computer)等のコンピュータ等)に内蔵された態様が挙げられる。
第1の画像保持部14及び第2の画像保持部16は、それぞれ画像取得部12によって取得された画像データを保持する処理部である。第1の画像保持部14は画像取得部12によって取得された初回の画像データ(第1の画像データ)を保持する。なお、ここでいう初回の画像データは、画像取得部12から最初に出力された画像データであってもよいし、立体画像取得装置10に設けられた操作部30が操作された後に、画像取得部12から最初に出力された画像データであってもよい。また、第2の画像保持部16は、画像取得部12によって取得された最新の画像データ(第2の画像データ)を保持する。従って、第2の画像保持部16に保持されている画像データは、画像取得部12によって新たな画像データが取得される度に更新される。
第1の位置ずれ検出部18は、第1の画像保持部14に保持されている第1の画像データと第2の画像保持部16に保持されている第2の画像データとを比較する。そして、第1の画像データが表す第1の画像中の背景領域と第2の画像データが表す第2の画像中の背景領域との位置ずれを検出する。なお、第1の位置ずれ検出部18は、後述する第2の位置ずれ検出部22又は第3の位置ずれ検出部24によって画像中の前景領域を表す前景情報が設定されている場合に、前景領域を除外した領域を画像中の背景領域と認識する。
画像変換部20は、第1の位置ずれ検出部18によって検出された背景領域の位置ずれに基づき、第1の画像から、第2の画像中の背景領域の位置を基準とする第1の画像中の背景領域の位置ずれを補正した変換画像を生成する。第2の位置ずれ検出部22は、画像変換部20によって生成された変換画像と、第2の画像保持部16に保持されている第2の画像データが表す第2の画像と、を比較し、両画像中の前景領域の第1方向(例えば画像長手方向)に沿った位置のずれを検出する。第3の位置ずれ検出部24は、画像変換部20によって生成された変換画像と、第2の画像保持部16に画像データが保持されている第2の画像と、を比較し、両画像中の前景領域の第1方向に直交する方向に沿った位置のずれを検出する。
撮影方向判定部26は、第2の位置ずれ検出部22及び第3の位置ずれ検出部24によって水平/垂直の各方向毎に検出された位置ずれ量に基づいて、第1の画像と第2の画像とが立体画像の条件を満たしているか否か判定する。また、立体画像の条件を満たしていると判定した場合に、第1の画像及び第2の画像の撮影方向(撮影光軸回りの向き)が横向き(横撮影)か縦向き(縦撮影)かを判定する。なお、本実施形態は、立体画像を表示する際の画像の向きを、第1の画像及び第2の画像が撮影された際の画像の向きと同じにすることを前提としている。このため、上記の撮影方向は撮影時の画像の向き及び立体画像を表示する際の画像の向きを表しており、上記の撮影方向の判定により、撮影時の画像の向き及び立体画像を表示する際の画像の向きが判定される。
画像保存処理部28は、撮影方向判定部26によって第1の画像と第2の画像とが立体画像の条件を満たしていると判定した場合に、第1の画像保持部14と第2の画像保持部16にそれぞれ保持している第1及び第2の画像を保存する。なお、第1の画像と第2の画像とが立体画像の条件を満たしていると判定する迄の間、第2の画像保持部16に保持されている画像データは、画像取得部12によって新たな画像データが取得される度に更新される。また、第1の画像と第2の画像とが立体画像の条件を満たしていると判定されると、画像保存処理部28は、第1の画像保持部14に保持されている第1の画像データ及び第2の画像保持部16に保持されている第2の画像データを立体画像生成用に保存する。また画像保存処理部28は、撮影方向判定部26によって判定された撮影方向を表す情報を、保存する第1の画像データ及び第2の画像データに属性情報として付加する。
次に、本実施形態の作用の説明に先立ち、まず立体画像について説明する。図2(A),(B)は、撮影装置34からの距離の小さい順に円錐状の物体32A、円柱状の物体32B、直方体状の物体32Cが配置された被写体を、単一の撮像部を備えた撮影装置34により撮影位置を水平方向へ移動させながら複数回撮影した場合が示されている。図2(A),(B)に示すように、撮影位置の移動に伴って各物体の撮影画像上の位置も移動する(但し、図2(A),(B)の例では物体32Bが撮影画像の中央付近に位置するように各回の撮影における撮影光軸の方向が調整されている)。この撮影光軸の方向調整を行わない場合、物体と撮影位置の距離が大きくなるに従い、撮影位置の移動量に対する物体に対応する画像部の撮影画像上の位置の移動量は小さくなる。この現象は奥行き手がかり(depth cue)と称されている。
単一の撮像部を備えた撮影装置34を用いる場合、立体画像を生成するための画像の撮影は、図2(A),(B)に示すように、撮影位置を一定方向(通常は水平方向)へ移動させながら、画像の撮影を複数回行うことによって成される。これにより、図3(A),(B)に示すような複数の画像36,38が得られる。この複数の画像36,38に対し、個々の画像中に存在する、撮影位置との距離が最も大きく背景領域に属する物体(この例では物体32C)に相当する画像部の位置が一致するように位置ずれを補正して合成することで、図3(C)に示す立体画像40が得られる。図3(C)に示す立体画像40には、位置ずれ補正の基準として用いた物体32Cよりも撮影位置との距離が小さい物体32A,Bに相当する画像部に局所的な位置ずれが生じているが、この局所的な位置ずれは視差と称されている。立体画像を立体視した観賞者は、立体画像上の視差の大きさ(視差量)が適切で、かつ立体画像上での視差の方向が観賞者の両眼の並ぶ方向に対応していれば、立体画像40から前述の奥行き手がかりを知覚して立体感を得ることができる。
ところで、図2(A)は、撮影時の撮影光軸回りの画像の向きを画像の長手方向がおよそ水平となる向きにした、所謂横撮影であり、図2(B)は、撮影時の撮影光軸回りの画像の向きを画像の長手方向がおよそ鉛直となる向きにした、所謂縦撮影である。立体画像を生成するための画像の撮影に、単一の撮像部を備えた撮影装置34を用いる場合、撮像部を回転させる機構を必要とすることなく、撮影時の撮影装置34の向きを回転させるのみで、横撮影/縦撮影を選択できるという利点を有する。但し、立体画像の観賞時には立体画像上での視差の方向を観賞者の両眼の並ぶ方向に対応させる必要があるので、撮影時の撮影光軸回りの画像の向き、すなわち横撮影で撮影されたか縦撮影で撮影されたかを判定する必要がある。
撮影位置を一定方向へ移動させながら画像の撮影が複数回行われる場合、画像中の被写体に相当する画像部の位置は撮影位置の移動方向に対応する方向へ移動する。このため、例として図4(A)に矢印で示すように画像中の画像部の移動方向が画像の長手方向に一致していれば横撮影と判定し、例として図4(B)に矢印で示すように画像中の画像部の移動方向が画像の長手方向と直交していれば縦撮影と判定することは可能である。しかし、撮影位置の移動中に手振れ等によって撮影光軸が撮影位置の移動方向と直交する方向に変動すると、これに伴って画像中の画像部の位置も撮影位置の移動方向と直交する方向に変動するので、撮影時の撮影光軸回りの画像の向きの誤判定が生ずる恐れがある。
一方、手振れ等は撮影光軸の方向の変動は引き起すが、手振れ等があっても撮影位置自体の変動は生じない。撮影位置を変化させずに撮影光軸の方向のみを変化させて撮影を行った場合、撮影光軸方向の変化前後に撮影した画像に画像中の被写体に相当する画像部の位置ずれが生ずるが、立体画像を得るための位置ずれ補正を行えば両画像は前景領域も含めてほぼ一致する。例として図5(B)には、図5(A)に示す画像36を撮影した後、撮影位置を移動させずに撮影光軸の方向を鉛直下方向へ変化させることで、画像中の被写体に相当する画像部の位置を鉛直下方向に対応する方向へ変化させた画像42を示す。図5(A),(B)に示す画像36,42に対して立体画像を得るための位置ずれ補正を行った場合、図5(C)に画像44として示すように、画像36,42は前景領域も含めてほぼ一致する。
これは撮影位置が変化していないために撮影装置からの被写体の見え方が変化しないことに起因する。言い換えれば、撮影位置を変化させない限り視差は発生しないので、視差の方向は立体画像の撮影のために行われた撮影位置の移動の方向に一致する。そして、撮影時の撮影位置の移動方向は撮影者の両眼の並ぶ方向と同じであるので、視差の方向から撮影時の撮影光軸回りの画像の向き及び立体画像を表示する際の画像の向きを判定できる。本実施形態ではこれを利用し、以下で説明するように、立体画像を得るための位置ずれ補正を行った後の画像上での視差の方向を検出し、検出した方向に基づいて撮影時の撮影光軸回りの画像の向き及び立体画像を表示する際の画像の向きを判定している。
次に本実施形態の作用として、立体画像取得装置10で行われる立体画像取得処理について、図6を参照して説明する。図6に示す立体画像取得処理では、まず画像取得部12によって単一のフレームの画像データが取得され、取得された画像データは第1の画像の画像データとして第1の画像保持部14に保持される(ステップ50)。続いて、画像取得部12によって次の単一のフレームの画像データが取得され、取得された画像データは第2の画像の画像データとして第2の画像保持部16に保持される(ステップ52)。
なお、ステップ50,52で画像取得部12によって取得される画像データは、単一の撮像部を備えた撮影装置34等を用い、撮影位置を水平方向へ移動させながら被写体を繰り返し撮影する撮影操作が行われることで得られた一連の画像データのうちの1つである。また、上記の撮影操作は、撮影位置を水平方向へ移動させながら、画像の中央付近に被写体が位置するように撮影光軸の向きを調整する動作を伴うものであってもよい。
次のステップ54では、第1の位置ずれ検出部18によって背景領域の位置ずれ検出処理が行われる。この処理は、第1の画像保持部14に画像データが保持された第1の画像と、第2の画像保持部16に画像データが保持された第2の画像と、の背景領域の位置ずれを検出し、検出した位置ずれを補正するための補正量を演算する処理であり、詳細は後述する。ステップ56では、画像変換部20により、背景領域の位置ずれ検出処理で演算された補正量に基づき、第1の画像から、第2の画像に対する第1の画像の背景領域の位置ずれが補正された位置ずれ補正画像が生成される。
ステップ58では、第2の位置ずれ検出部22及び第3の位置ずれ検出部24によって前景領域の位置ずれ検出処理が各々行われる。この前景領域の位置ずれ検出処理では、第2の位置ずれ検出部22により、画像変換部20によって生成された位置ずれ補正画像と第2の画像との前景領域の第1方向に沿った位置ずれ量が検出される。また、第3の位置ずれ検出部24により、位置ずれ補正画像と第2の画像との第2方向に沿った位置ずれ量が検出される。なお、前景領域の位置ずれ検出処理の詳細についても後述する。
ステップ60では、撮影方向判定部26により、第2の位置ずれ検出部22及び第3の位置ずれ検出部24によって各々検出された前景領域の位置ずれ量の少なくとも一方が予め設定された閾値以上になったか否かが判定される。この判定で用いる閾値の具体例については後述するが、前景領域の位置ずれ量は立体画像の視差量に相当しており、上記の閾値としては、前景領域の位置ずれ量が立体画像の視差量として適切な値か否かを判定可能な値が設定される。ステップ60の判定が否定された場合はステップ52に戻り、ステップ60の判定が肯定される迄ステップ52〜ステップ60を繰り返す。これにより、前景領域の位置ずれ量が閾値以上となる迄、画像取得部12による画像データの取得、第2の画像保持部16に保持された画像データの更新(第2の画像の更新)が繰り返される。
前景領域の位置ずれ量が閾値以上になると、ステップ60の判定が肯定されてステップ62へ移行し、撮影方向判定部26により、前景領域の位置ずれ量に基づいて撮影時の撮影光軸回りの画像の向きを判定する画像の向き判定処理が行われる。この画像の向き判定処理の詳細についても後述する。次のステップ64において、画像保存処理部28は、第1の画像保持部14から第1の画像の画像データを読み出すと共に、第2の画像保持部16から第2の画像の画像データを読み出す。また、画像の向き判定処理で判定された画像の向きを表す向き情報を生成する。そして、生成した向き情報を、読み出した第1の画像の画像データ及び第2の画像の画像データを含む立体画像データに属性情報として付加し、向き情報を属性情報として付加した立体画像データを保存して処理を終了する。
なお、立体画像データに属性情報として付加した向き情報は、立体画像データが表す立体画像を表示する際に参照される。そして、立体画像上での視差の方向が観賞者の両眼の並ぶ方向に対応するように、必要に応じて立体画像が回転された後に表示される。
次に、立体画像取得処理(図6)のステップ54で行われる背景領域の位置ずれ検出処理の詳細について、図7を参照して説明する。第1の位置ずれ検出部18は、まず背景領域の位置ずれ検出処理のステップ70で前景領域情報が設定されているか否か判定する。前景領域情報は、画像中の前景領域の位置及び範囲を規定する情報であり、後述する第2の位置ずれ検出処理によって設定される。従って、前景領域情報は、背景領域の位置ずれ検出処理の初回の実行時には未設定であり、背景領域の位置ずれ検出処理の2回以降の実行時には、第2の位置ずれ検出処理が実行されていることで設定されている可能性がある。
前景領域情報が設定されていない場合はステップ70の判定が否定され、第1の位置ずれ検出部18は、第1の画像の全領域から特徴点を抽出し(ステップ72)、抽出した全ての特徴点を第1の画像中の背景領域の特徴点に設定する(ステップ74)。一方、前景領域情報が設定されている場合は上記判定が肯定され、第1の位置ずれ検出部18は、第1の画像の背景領域の特徴点に設定していた特徴点のうち、前景領域情報が表す前景領域内に存在している特徴点を背景領域の特徴点から除外する(ステップ76)。
次に、第1の位置ずれ検出部18は、第2の画像から特徴点を抽出し(ステップ78)、第1の画像の背景領域の特徴点と第2の画像から抽出した特徴点を対応付ける処理を行う(ステップ80)。なお、特徴点の対応付けは、具体的な実現手法として、例えば平面射影変換の技術、より具体的にはハートレーの8点アルゴリズム(Hartley's 8-point algorithm)やその他のアルゴリズムなどを適用することができる。そして第1の位置ずれ検出部18は、対応付けた第1の画像と第2の画像との特徴点の位置ずれに基づき、背景領域の位置ずれを補正するための補正量を演算し(ステップ82)、背景領域の位置ずれ検出処理を終了する。
次に、立体画像取得処理(図6)のステップ58で行われる前景領域の位置ずれ検出処理の詳細について、図8を参照して説明する。ステップ90では、第2の位置ずれ検出部22により、画像変換部20によって生成された位置ずれ補正画像に対する第2画像の第1方向(例えば画像長手方向)に沿った動きベクトルが演算される。なお、位置ずれ補正画像は第2画像との背景領域の位置ずれが補正された画像であるので、上記で演算される動きベクトルは位置ずれ補正画像と第2画像との第1方向に沿った前景領域の位置ずれ量に相当する。
次のステップ92において、第2の位置ずれ検出部22は、まず、画像を複数個のブロック(部分領域)に分割したときの個々のブロックを単位として、先に演算した第1方向に沿った動きベクトルを探索する。動きベクトルは、位置ずれ補正画像と第2画像とに位置ずれが生じているブロックで0よりも大きな値となり、位置ずれ補正画像と第2画像との位置ずれ量が大きくなるに従ってより大きな値となる。第2の位置ずれ検出部22は、第1方向に沿った動きベクトルの値が0よりも大きい各ブロックにおける第1方向に沿った動きベクトルの値(例えば最大値)を、第1方向に沿った前景領域の位置ずれ量として算出する。
またステップ94では、第3の位置ずれ検出部24により、位置ずれ補正画像に対する第2画像の第2方向(例えば画像長手方向に直交する方向)に沿った動きベクトルが演算される。なお、上記で演算される動きベクトルは位置ずれ補正画像と第2画像との第2方向に沿った前景領域の位置ずれ量に相当する。
次のステップ96において、第3の位置ずれ検出部24は、まず、画像を複数個のブロック(部分領域)に分割したときの個々のブロックを単位として、先に演算した第2方向に沿った動きベクトルを探索する。そして第3の位置ずれ検出部24は、第2方向に沿った動きベクトルの値が0よりも大きい各ブロックにおける第2方向に沿った動きベクトルの値(例えば最大値)を、第2方向に沿った前景領域の位置ずれ量として算出する。
次のステップ98において、第2の位置ずれ検出部22及び第3の位置ずれ検出部24は、前景領域情報が未設定であれば、算出した前景領域の位置ずれ量が予め設定された閾値を越えているブロックが前景領域に含まれるように前景領域情報を設定する。また、第2の位置ずれ検出部22及び第3の位置ずれ検出部24は、既に前景領域情報を設定していた場合、前景領域の位置ずれ量が新たに閾値を越えたブロックが前景領域に追加されるように前景領域情報を更新する。そして前景領域の位置ずれ検出処理を終了する。
次に、立体画像取得処理(図6)のステップ62で撮影方向判定部26によって行われる画像の向き判定処理の詳細について説明する。一般に、被写体の撮影に用いられる撮影装置は、撮影時の標準的な画像の向きとして横撮影又は縦撮影が予め設定されている。画像取得部12によって取得された画像データが、撮影時の標準的な画像の向きが横撮影の撮影装置で撮影された画像の画像データであった場合には、画像の向き判定処理として図9(A)に示す処理が行われる。
すなわち、撮影方向判定部26は、図9(A)に示す画像の向き判定処理のステップ100において、水平基準方向に沿った位置ずれ量が予め設定された閾値以上か否か判定する。上記の水平基準方向は、撮影時の標準的な画像の向きで撮影された画像における被写体の水平方向に対応する画像上の方向であり、撮影時の標準的な画像の向きが横撮影の場合、水平基準方向は画像長手方向となる。撮影方向判定部26は、第2の位置ずれ検出部22又は第3の位置ずれ検出部24によって検出された画像長手方向に沿った前景領域の位置ずれ量を前記閾値と比較することで上記ステップ100の判定を行う。なお、上記の閾値としては、例えば立体画像取得処理(図6)のステップ60の判定で用いた閾値と同一の閾値を用いることができる。
ステップ100の判定が肯定された場合、視差の方向は水平基準方向である画像長手方向に一致していると判断できる。このため、撮影方向判定部26は、ステップ100の判定が肯定された場合は、撮影時の画像の撮影光軸回りの向きを表す向き情報に「横撮影」を表す情報を設定する(ステップ102)。この場合、立体画像の表示に際しては、上記の向き情報に基づき、画像長手方向が表示する画像の水平方向となる向きで立体画像が表示される。また、ステップ100の判定が否定された場合、視差の方向は水平基準方向である画像長手方向に直交する方向に一致していると判断できる。このため、撮影方向判定部26は、ステップ100の判定が否定された場合は、撮影時の画像の撮影光軸回りの向きを表す向き情報に「縦撮影」を表す情報を設定する(ステップ104)。この場合、立体画像の表示に際しては、上記の向き情報に基づき、画像長手方向に直交する方向が表示する画像の水平方向となる向きで立体画像が表示される。そして図9(A)に示す画像の向き判定処理を終了する。
一方、画像取得部12によって取得された画像データが、撮影時の標準的な画像の向きが縦撮影の撮影装置で撮影された画像の画像データであった場合には、画像の向き判定処理として図9(B)に示す処理が行われる。すなわち、撮影方向判定部26は、図9(B)に示す画像の向き判定処理のステップ106において、水平基準方向に沿った位置ずれ量が予め設定された閾値以上か否か判定する。撮影時の標準的な画像の向きが縦撮影の場合、上記の水平基準方向は画像長手方向に直交する方向となる。撮影方向判定部26は、第2の位置ずれ検出部22又は第3の位置ずれ検出部24によって検出された画像長手方向に直交する方向に沿った前景領域の位置ずれ量を前記閾値と比較することで上記ステップ106の判定を行う。なお、上記の閾値としても、例えば立体画像取得処理(図6)のステップ60の判定で用いた閾値と同一の閾値を用いることができる。
ステップ106の判定が肯定された場合、視差の方向は水平基準方向である画像長手方向に直交する方向に一致していると判断できる。このため、撮影方向判定部26は、ステップ106の判定が肯定された場合は、撮影時の撮影光軸回りの画像の向きを表す向き情報に「縦撮影」を表す情報を設定する(ステップ108)。この場合、立体画像の表示に際しては、上記の向き情報に基づき、画像長手方向に直交する方向が表示する画像の水平方向となる向きで立体画像が表示される。また、ステップ106の判定が否定された場合、視差の方向は画像長手方向に一致していると判断できる。このため、撮影方向判定部26は、ステップ106の判定が否定された場合は、撮影時の撮影光軸回りの画像の向きを表す向き情報に「横撮影」を表す情報を設定する(ステップ110)。この場合、立体画像の表示に際しては、上記の向き情報に基づき、画像長手方向が表示する画像の水平方向となる向きで立体画像が表示される。そして図9(B)に示す画像の向き判定処理を終了する。
次に、立体画像取得処理(図6)のステップ60、図9(A)の画像の向き判定処理のステップ100、図9(B)の画像の向き判定処理のステップ106の各判定で用いる閾値の具体例について説明する。この閾値は、前景領域の位置ずれ量が立体画像の視差量として適正な値か否かを判定するための基準値である。観賞者が立体画像から立体感を得られ、かつ立体画像中の物体の画面からの極度の飛び出しも抑制できる適正な視差量には或る範囲があるため、閾値にも下限値と上限値が存在する。
人の目は平行視、すなわち眼間距離の視差がついたものが無限遠であり、平行より外に目を離して見ることができない。このため、背景領域における視差量が人の平均的な眼間距離を超える立体画像は、左右の画像を脳の中で単一の画像として融像できず、立体画像として鑑賞できなくなる。従って、前景領域の位置ずれ量に対する閾値の下限値は、立体画像の背景領域における視差量が眼間距離を越えないように設定される。一例として、最大画面サイズ60インチ(横幅約130cm程度)の家庭用テレビの画面に2Mpixel(1920×1080pixel)の立体画像を表示する場合、人の平均的な眼間距離=6.5cmに基づき、閾値の下限値は画面上のpixel数換算で1920×(6.5/130)で約100pixelとなる。
また、前景領域の位置ずれ量に対する閾値の上限値は、立体画像中の物体の画面からの極度の飛び出しが抑制されるように設定される。一例として、立体画像中の物体の画面からの飛び出しを鑑賞距離の半分まで許容するとすれば、先の例では100pixelの逆視差をさらに加えることになるので、閾値の上限値は画面上のpixel数換算で100+100=200pixelとなる。
前述の各判定は、より詳しくは、前景領域の位置ずれ量を閾値の上限値及び下限値と各々比較し、前景領域の位置ずれ量が閾値の上限値以下かつ下限値以上であれば判定が肯定されるようにしてもよい。また、前景領域の位置ずれ量を閾値の上限値と下限値の間の値(例えば上限値と下限値の平均値)と比較し、前景領域の位置ずれ量が比較した値以上であれば判定が肯定されるようにしてもよい。
〔第2実施形態〕
次に開示の技術の第2実施形態を説明する。なお、第2実施形態は上述した第1実施形態と同一の構成であるので、各部分に同一の符号を付して構成の説明を省略し、第1実施形態と異なる部分についてのみ説明する。
本第2実施形態では、立体画像取得装置10によって図10に示す立体画像取得処理が行われる。本第2実施形態に係る立体画像取得処理は、ステップ62で撮影方向判定部26によって画像の向き判定処理が行われた後、次のステップ66で画像保存処理部28によって画像データ保存処理が行われる。ここで、画像取得部12によって取得された画像データが、撮影時の標準的な画像の向きが横撮影の撮影装置で撮影された画像の画像データであった場合、上記の画像データ保存処理として図11(A)に示す処理が画像保存処理部28によって行われる。
すなわち、画像保存処理部28は、図11(A)に示す画像データ保存処理のステップ120において、撮影方向判定部26によって判定された撮影時の撮影光軸回りの画像の向きが横撮影か否か判定する。撮影時の撮影光軸回りの画像の向きが横撮影と判定されていた場合はステップ124へ移行する。また、撮影時の撮影光軸回りの画像の向きが縦撮影と判定されていた場合、画像保存処理部28は、ステップ122において、第1の画像保持部14から第1の画像の画像データを読み出すと共に、第2の画像保持部16から第2の画像の画像データを読み出す。そして画像保存処理部28は、読み出した両画像データを、両画像データが表す画像を90°回転させた画像を表す画像データへ各々変換し、ステップ124へ移行する。
画像保存処理部28は、ステップ124において、第1の画像の画像データ及び第2の画像の画像データを含む立体画像データを保存し、処理を終了する。上記処理では、撮影時の撮影光軸回りの画像の向きが撮影時の標準的な画像の向きと相違していた場合に、画像を90°回転させた画像を表す画像データが立体画像データとして保存される。従って、保存された立体画像データが表す立体画像の表示に際しては、撮影時の標準的な画像の向きが横撮影の場合の水平基準方向である画像長手方向が観賞者の両眼の並ぶ方向(表示する画像の水平方向)に対応するように一律に表示させることができる。これにより、撮影時の撮影光軸回りの画像の向きに応じて表示する立体画像を回転させる処理を行うことなく、立体画像上での視差の方向を観賞者の両眼の並ぶ方向に対応するように立体画像を表示することができる。
また、画像取得部12によって取得された画像データが、撮影時の標準的な画像の向きが縦撮影の撮影装置で撮影された画像の画像データであった場合、画像データ保存処理として図11(B)に示す処理が画像保存処理部28によって行われる。図11(B)に示す画像データ保存処理のステップ130において、画像保存処理部28は、撮影方向判定部26によって判定された撮影時の撮影光軸回りの画像の向きが縦撮影か否か判定する。撮影時の撮影光軸回りの画像の向きが縦撮影と判定されていた場合はステップ134へ移行する。また、撮影時の撮影光軸回りの画像の向きが横撮影と判定されていた場合、画像保存処理部28は、ステップ132において、第1の画像保持部14から第1の画像の画像データを読み出すと共に、第2の画像保持部16から第2の画像の画像データを読み出す。そして画像保存処理部28は、読み出した両画像データを、両画像データが表す画像を90°回転させた画像を表す画像データへ各々変換し、ステップ134へ移行する。
画像保存処理部28は、ステップ134において、第1の画像の画像データ及び第2の画像の画像データを含む立体画像データを保存し、処理を終了する。上記処理においても、撮影時の撮影光軸回りの画像の向きが撮影時の標準的な画像の向きと相違していた場合に、画像を90°回転させた画像を表す画像データが立体画像データとして保存される。従って、保存された立体画像データが表す立体画像の表示に際しては、撮影時の標準的な画像の向きが縦撮影の場合の水平基準方向である画像長手方向に直交する方向が観賞者の両眼の並ぶ方向に対応するように一律に表示させることができる。これにより、撮影時の撮影光軸回りの画像の向きに応じて表示する立体画像を回転させる処理を行うことなく、立体画像上での視差の方向を観賞者の両眼の並ぶ方向に対応するように立体画像を表示することができる。
〔第3実施形態〕
次に開示の技術の第3実施形態を説明する。図12には、立体画像取得装置10として機能することが可能なコンピュータ140が示されている。
コンピュータ140はCPU142、メモリ144、不揮発性の記憶部146を備え、これらはバス148を介して互いに接続されている。なお、記憶部146はHDD(Hard Disk Drive)やフラッシュメモリ等によって実現できる。記録媒体としての記憶部146には、コンピュータ140を立体画像取得装置10として機能させるための立体画像取得プログラム150が記憶されている。CPU142は、立体画像取得プログラム150を記憶部146から読み出してメモリ144に展開し、立体画像取得プログラム150が有するプロセスを順次実行する。
立体画像取得プログラム150は、画像取得プロセス152、第1の画像保持プロセス154、第2の画像保持プロセス156、第1の位置ずれ検出プロセス158、画像変換プロセス160を有する。また、立体画像取得プログラム150は、第2の位置ずれ検出プロセス162、第3の位置ずれ検出プロセス164、撮影方向判定プロセス166及び画像保存処理プロセス168を有する。
CPU142は、画像取得プロセス152を実行することで、図1に示した画像取得部12と同様の動作を行なう。具体的には、画像取得プロセス152は、通信線を介してコンピュータ140と接続された外部機器から通信によって複数の画像の画像データを順に取得する処理を行う。なお、上記の外部機器は、撮影装置であってもよいし、画像データを記憶する記憶部を備えた外部の情報処理装置であってもよい。
CPU142は、第1の画像保持プロセス154を実行することで、図1に示した第1の画像保持部14と同様の動作を行なう。具体的には、第1の画像保持プロセス154は、画像取得プロセス152によって取得された画像データを保持する処理行う。
CPU142は、第2の画像保持プロセス156を実行することで、図1に示した第2の画像保持部16と同様の動作を行なう。具体的には、第2の画像保持プロセス156は、画像取得プロセス152によって取得された画像データを保持する処理行う。
CPU142は、第1の位置ずれ検出プロセス158を実行することで、図1に示した第1の位置ずれ検出部18と同様の動作を行なう。具体的には、第1の位置ずれ検出プロセス158は、第1の画像データが表す第1の画像中の背景領域と第2の画像データが表す第2の画像中の背景領域との位置ずれを検出する処理を行う。
CPU142は、画像変換プロセス160を実行することで、図1に示した画像変換部20と同様の動作を行なう。具体的には、画像変換プロセス160は、背景領域の位置ずれ量に基づき、第1の画像から、第2の画像中の背景領域の位置を基準とする第1の画像中の背景領域の位置ずれを補正した変換画像を生成する処理を行う。
CPU142は、第2の位置ずれ検出プロセス162を実行することで、図1に示した第2の位置ずれ検出部22と同様の動作を行なう。具体的には、第2の位置ずれ検出プロセス162は、変換画像と第2の画像とを比較し、両画像中の前景領域の第1方向に沿った位置のずれを検出する処理を行う。
CPU142は、第3の位置ずれ検出プロセス164を実行することで、図1に示した第3の位置ずれ検出部24と同様の動作を行なう。具体的には、第3の位置ずれ検出プロセス164は、変換画像と第2の画像とを比較し、両画像中の前景領域の第2方向に沿った位置のずれを検出する処理を行う。
CPU142は、撮影方向判定プロセス166を実行することで、図1に示した撮影方向判定部26と同様の動作を行なう。具体的には、撮影方向判定プロセス166は、第1の画像と第2の画像とが立体画像の条件を満たしているか否か、及び、第1の画像及び第2の画像の撮影方向が横向きか縦向きかを判定する処理を行う。
CPU142は、画像保存処理プロセス168を実行することで、図1に示した画像保存処理部28と同様の動作を行なう。具体的には、画像保存処理プロセス168は、第1の画像データ及び第2の画像データを立体画像生成用に保存すると共に、撮影方向を表す情報を属性情報として付加する処理を行う。
このように、立体画像取得プログラム150を実行したコンピュータ140は、立体画像取得装置10として機能することになる。なお、ここでは立体画像取得プログラム150を記憶部146から読み出す場合を例示したが、立体画像取得プログラム150は、任意の記録媒体から読み出して実行することができる。
上述のように、本実施形態に係る立体画像取得装置10及び立体画像取得プログラム150は、撮影時に画像の向きを検出したり検出結果を取得する構成を必要とすることなく、撮影された複数の画像から撮影時の画像の向きを判定することができる。また、立体画像を表示する際の画像の向きも判定することができる。また、画像の撮影に用いられた撮影装置の構成に応じて撮影時の画像の向きを判定する処理を切り替える必要がなくなり、画像の撮影に用いられた撮影装置の構成に拘わらず、同一の処理で撮影時の画像の向きを判定することができる。
なお、上記では第1の画像を非基準画像、第2の画像を基準画像とし、背景領域の位置ずれ補正を第1の画像に対して行う態様を説明したが、これに限られるものではない。例えば、第1の画像を基準画像、第2の画像を非基準画像とし、背景領域の位置ずれ補正を第2の画像に対して行うように画像変換部20を構成してもよい。この場合、第2の位置ずれ検出部22及び第3の位置ずれ検出部24は、第1の画像と画像変換部20によって生成された変換画像との前景領域の位置のずれを検出するように構成すればよい。
また、上記では水平基準方向についての前景領域の位置ずれ量が閾値以上か否かに基づいて画像の向きを判定する態様(図9(A)のステップ100、図9(B)のステップ106)を説明したが、これに限られるものではない。例えば、上記の判定に代えて、前景領域の位置ずれ量がより大きい方向が画像長手方向か画像長手方向に直交する方向かを判定するようにしてもよい。この場合、画像長手方向の方が前景領域の位置ずれ量が大きければ画像の向きを横撮影と判断し、画像長手方向に直交する方向の方が前景領域の位置ずれ量が大きければ画像の向きを縦撮影と判断することができる。
また、上記では立体画像生成用の画像の撮影に際し、撮影者が撮影位置を移動させる操作を行う態様を説明したが、これに限られるものではない。立体画像生成用の画像は、例えば、およそ一定方向に移動する乗物(例えば車両等)に乗っている撮影者が、乗物外の被写体を複数回撮影する等のように、撮影者が撮影位置を移動させる特段の操作を行わなくても撮影可能である。
更に、上記では単一の撮像部を備えた撮影装置34を用いて立体画像生成用の画像を撮影する例を説明したが、これに限られるものでもない。例えば複数の撮像部を備えた撮影装置を用い、複数の撮像部のうちの何れか1つの撮像部によって撮影した立体画像生成用の画像に対し、開示の技術を適用して撮影時の画像の向き及び立体画像を表示する際の画像の向きを判定するようにしてもよい。複数の撮像部を備えた撮影装置を用いる場合であっても、複数の撮像部のうちの何れか1つの撮像部によって立体画像生成用の画像を撮影することで、任意の基線長での撮影が可能になるという利点がある。
また、上記では撮像部を回転させる機構を有さない撮影装置によって立体画像生成用の画像が撮影される例を説明したが、開示の技術はこれに限らず、撮像部を回転させる機構を有する撮影装置によって撮影された画像の向きの判定にも適用可能である。この場合も、撮影時の画像の向きを検知する構成を撮影装置に設けたり、画像の向きの検知結果を取得する処理を行うことなく、立体画像を表示する際の画像の向きを判定することができる。
更に、上記では、撮影時の画像の向きとして縦撮影又は横撮影が選択されることを前提に、撮影時の画像の向きが縦撮影か横撮影かを判定することで、立体画像を表示する際の画像の向きを判定する態様を説明したが、これに限られるものではない。例として図13には、開示の技術の他の実施形態に係る立体画像取得装置200が示されている。なお、以下では、立体画像取得装置200のうち、第1実施形態で説明した立体画像取得装置10と同一の部分に同一の符号を付して説明を省略し、立体画像取得装置10と異なる部分についてのみ説明する。
立体画像取得装置200は、第2の位置ずれ検出部22及び第3の位置ずれ検出部24に代えて第4の位置ずれ検出部24を、撮影方向判定部26に代えて撮影方向判定部204を備えており、更に、画像加工処理部206を備えている。立体画像取得装置200では、縦撮影及び横撮影以外を含む任意の向きで撮影された画像の画像データが画像取得部12によって取得される。このため、第4の位置ずれ検出部24は、画像変換部20によって生成された変換画像と、第2の画像保持部16に保持されている第2の画像データが表す第2の画像と、の前景領域の位置ずれを3以上の複数の方向について各々検出する。そして、3以上の複数の方向のうち検出した前景領域の位置ずれ量が最大の方向を前景領域の位置ずれの方向として検出し、検出した前景領域の位置ずれの方向と、その方向に沿った前景領域の位置ずれ量を出力する。
表示方向判定部204は、第4の位置ずれ検出部24から出力された前景領域の位置ずれ量が閾値以上か否かを判定することで、第1の画像と第2の画像とが立体画像の条件を満たしているか否か判定する。そして、前景領域の位置ずれ量が閾値以上となり、立体画像の条件を満たしていると判定したときの前景領域の位置ずれの方向を、立体画像を表示する際の画像の水平方向と判定する。
画像加工処理部206は、表示方向判定部204によって判定された立体画像を表示する際の画像の水平方向が、変換画像及び第2の画像の外縁の辺と平行又は直交しているか否か判定する。この判定が肯定された場合、画像加工処理部206は表示方向判定部204によって判定された立体画像を表示する際の画像の水平方向をそのまま出力する。
一方、例として図14(A)に示すように、縦撮影及び横撮影と異なる向きで被写体が撮影された場合、図14(B)に矢印210で示すように、前景領域の位置ずれの方向(立体画像を表示する際の画像の水平方向)は画像の外縁の辺と非平行かつ非直交となる。この場合、画像加工処理部206は、図14(B)に破線で示すように、変換画像及び第2の画像から、立体画像を表示する際の画像の水平方向と平行又は直交する辺で囲まれた矩形状の画像領域を各々切り出す。また、立体画像を表示する際の画像の水平方向と、変換画像及び第2の画像の外縁の辺の方向との角度差に基づき、切り出した矩形状の画像領域を、当該領域を囲む辺が変換画像及び第2の画像の外縁の辺と平行又は直交するように回転させる(図14(C)参照)。
上記処理により、立体画像を表示する際に、判定された立体画像を表示する際の画像の水平方向に応じて表示する立体画像を回転させる処理を行うことなく、立体画像上での視差の方向が観賞者の両眼の並ぶ方向に対応するように立体画像を表示することができる。なお、上記処理に加えて、回転させた矩形状の画像領域が変換画像及び第2の画像と同サイズとなるように拡大する処理を更に行ってもよい。また、先に説明した図12と同様に、コンピュータを立体画像取得装置200として機能させるための立体画像取得プログラムを、コンピュータによって記憶部から読み出させて実行させることで、当該コンピュータを立体画像取得装置200として機能させることも可能である。
また、上記では単一の撮像部によって順に撮影された単一の画像群に対して撮影時の画像の向きを判定する態様を説明したが、これに限られるものでもない。立体動画像を生成するために複数の撮像部によって複数の動画像を並列に撮影する場合、立体画像を鑑賞する観賞者の両眼の並ぶ方向を想定し、撮影した複数の動画像の間で想定した方向に視差が生ずるように複数の撮像部の位置関係が決定される。このため、開示の技術は、上記の複数の動画像に対する撮影時の画像の向きの判定にも適用可能である。
更に、上記では立体画像取得プログラム150が記憶部146に記憶されている態様を説明したが、立体画像取得プログラム150は、CD−ROMやDVD−ROM、USBメモリ等の可搬型の記録媒体に記録されている形態で提供することも可能である。
本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
10 立体画像取得装置
12 画像取得部
14 第1の画像保持部
16 第2の画像保持部
18 第1の位置ずれ検出部
20 画像変換部
22 第2の位置ずれ検出部
24 第3の位置ずれ検出部
26 撮影方向判定部
28 画像保存処理部
140 コンピュータ
142 CPU
144 メモリ
146 記憶部
150 立体画像取得プログラム

Claims (14)

  1. 第1の画像と、前記第1の画像に対して第1及び第2の位置ずれを有する第2の画像とを入力し、前記第1の画像と前記第2の画像間の第1の位置ずれを検出する第1検出部と、
    前記第1の画像及び前記第2の画像の少なくとも一方に対し、前記第1検出部によって検出された前記第1の位置ずれを補正する補正部と、
    前記補正部による補正後に前記第1の画像と前記第2の画像との間に残存している第2の位置ずれの方向を検出する第2検出部と、
    前記第2検出部によって検出された前記第2の位置ずれの方向に基づき、前記第1の画像及び前記第2の画像を表示する際の画像の向きを判定する判定部と、
    を含む画像処理装置。
  2. 前記判定部は、前記第2検出部によって検出された前記第2の位置ずれの方向を、前記第1の画像及び前記第2の画像を表示する際の画像の水平方向と判定する請求項1記載の画像処理装置。
  3. 前記第2検出部は、前記補正部によって位置ずれ補正が行われた後の前記第1の画像と前記第2の画像との間に残存している前記第2の位置ずれを画像上の複数の方向について各々検出し、前記複数の方向のうち検出した前記第2の位置ずれの大きさがより大きい方向を前記第2の位置ずれの方向として検出する請求項1又は請求項2記載の画像処理装置。
  4. 前記第1の画像及び前記第2の画像は、被写体との相対位置が水平方向に互いに異なる位置で撮影された画像であり、
    前記第2検出部は、被写体に対する撮影光軸回りの向きが第1の向きで撮影された画像における前記水平方向に対応する第1方向、及び、前記第1方向と直交する画像上の第2方向について前記第2の位置ずれ量を各々検出し、前記第1方向及び前記第2方向のうち検出した位置ずれの大きさがより大きい方向を前記第2の位置ずれの方向として検出し、
    前記判定部は、前記第2検出部によって検出された前記第2の位置ずれの方向が前記第1方向の場合には、撮影時の画像の向きが前記第1の向きで、かつ前記第1方向が前記画像を表示する際の画像の水平方向と判定し、前記第2検出部によって検出された前記第2の位置ずれの方向が前記第2方向の場合には、撮影時の画像の向きが前記第1の向きと直交する第2の向きで、かつ前記第2方向が前記画像を表示する際の画像の水平方向と判定する請求項3記載の画像処理装置。
  5. 前記第1検出部で検出された第1の位置ずれは、背景領域の位置ずれであり、
    前記補正部は、前記第1検出部によって検出された背景領域の位置ずれの補正を、前記第1の画像及び前記第2の画像のうちの予め定められた一方の画像に対して行う請求項1〜請求項4の何れか1項記載の画像処理装置。
  6. 前記第2検出部は、前記第1の画像と前記第2の画像との間の第2の位置ずれとして、前記第1の画像と前記第2の画像と間の前景の視差に対応する位置ずれを検出する請求項1〜請求項5の何れか1項記載の画像処理装置。
  7. 前記第2検出部は、前記補正部による位置ずれ補正後の前記第1の画像と前記第2の画像との間に残存している前記第2の位置ずれの方向を検出すると共に、画像中の前記第2の位置ずれの大きさが所定値以上の領域を前景領域として設定し、
    前記第1検出部は、前記第2検出部によって前記前景領域が設定されている場合には、画像中の前記前景領域を除外した領域に対して前記第1の位置ずれの検出を行う請求項6記載の画像処理装置。
  8. 前記第1の画像及び前記第2の画像を各々取得する画像取得部と、
    前記画像取得部によって取得された前記第1の画像を保持する第1の画像保持部と、
    前記画像取得部によって取得された前記第2の画像を保持する第2の画像保持部と、
    を更に備え、
    前記第1検出部は、前記第1の画像保持部に保持された前記第1の画像と前記第2の画像保持部に保持された前記第2の画像との間の前記第1の位置ずれを検出する請求項1〜請求項7の何れか1項記載の画像処理装置。
  9. 前記画像取得部は複数の画像を1つずつ順次取得し、
    前記第2の画像保持部は、前記画像取得部によって新たな画像が取得される度に、前記第2の画像として保持している画像を取得された前記新たな画像へ更新する請求項8記載の画像処理装置。
  10. 前記判定部によって判定された画像の向きを表す情報を、前記第1の画像及び前記第2の画像の属性情報として前記第1の画像及び前記第2の画像の画像データに付加する属性付加部を更に備えた請求項1〜請求項9の何れか1項記載の画像処理装置。
  11. 前記第1の画像及び前記第2の画像の画像データを保存すると共に、前記画像データが表す画像の向きが前記判定部によって判定された画像の向きと相違している場合は、前記画像データを保存する前に、前記画像データが表す画像の向きが前記判定部によって判定された画像の向きに一致するように前記画像データを変換する画像保存処理部を更に備えた請求項1〜請求項9の何れか1項記載の画像処理装置。
  12. 前記第1の画像及び前記第2の画像は外縁が矩形状であり、
    前記第2検出部は、前記補正部によって位置ずれ補正が行われた前記第1の画像及び前記第2の画像との間に残存している前記第2の位置ずれを画像上の3以上の方向について各々検出し、前記3以上の方向のうち検出した前記第2の位置ずれの大きさがより大きい方向を前記第2の位置ずれの方向として検出し、
    前記判定部は、前記第2検出部によって検出された前記第2の位置ずれの方向を、前記第1の画像及び前記第2の画像を表示する際の画像の水平方向と判定し、
    前記判定部によって判定された前記画像を表示する際の画像の水平方向が、前記第1の画像及び前記第2の画像の外縁の辺と非平行かつ非直交の方向である場合に、前記画像を表示する際の画像の水平方向と平行又は直交する辺で囲まれた矩形状の領域を前記第1の画像及び前記第2の画像から各々切り出し、切り出した矩形状の領域を、当該領域を囲む辺が前記第1の画像及び前記第2の画像の外縁の辺と平行又は直交するように回転させる処理を行う画像加工部を更に備えた請求項1、請求項3、請求項5〜請求項11の何れか1項記載の画像処理装置。
  13. 第1の画像と、前記第1の画像に対して第1及び第2の位置ずれを有する第2の画像とを入力し、前記第1の画像と前記第2の画像間の第1の位置ずれを検出する第1検出ステップと、
    前記第1の画像及び前記第2の画像の少なくとも一方に対し、前記第1検出ステップで検出された前記第1の位置ずれを補正する補正ステップと、
    前記補正ステップにおける補正後の前記第1の画像と前記第2の画像との間に残存している第2の位置ずれの方向を検出する第2検出ステップと、
    前記第2検出ステップで検出された前記第2の位置ずれの方向に基づき、前記第1の画像及び前記第2の画像を表示する際の画像の向きを判定する判定ステップと、
    を含む画像処理方法。
  14. コンピュータに、
    第1の画像と、前記第1の画像に対して第1及び第2の位置ずれを有する第2の画像とを入力し、前記第1の画像と前記第2の画像間の第1の位置ずれを検出する第1検出ステップと、
    前記第1の画像及び前記第2の画像の少なくとも一方に対し、前記第1検出ステップで検出された前記第1の位置ずれを補正する補正ステップと、
    前記補正ステップにおける補正後の前記第1の画像と前記第2の画像との間に残存している第2の位置ずれの方向を検出する第2検出ステップと、
    前記第2検出ステップで検出された前記第2の位置ずれの方向に基づき、前記第1の画像及び前記第2の画像を表示する際の画像の向きを判定する判定ステップと、
    を含む処理を実行させるための画像処理プログラム。

JP2010279342A 2010-12-15 2010-12-15 画像処理装置、画像処理方法及び画像処理プログラム Expired - Fee Related JP5522018B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010279342A JP5522018B2 (ja) 2010-12-15 2010-12-15 画像処理装置、画像処理方法及び画像処理プログラム
US13/316,964 US8965105B2 (en) 2010-12-15 2011-12-12 Image processing device and method
CN201110418246.7A CN102572492B (zh) 2010-12-15 2011-12-14 图像处理设备和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010279342A JP5522018B2 (ja) 2010-12-15 2010-12-15 画像処理装置、画像処理方法及び画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2012129790A JP2012129790A (ja) 2012-07-05
JP5522018B2 true JP5522018B2 (ja) 2014-06-18

Family

ID=46233866

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010279342A Expired - Fee Related JP5522018B2 (ja) 2010-12-15 2010-12-15 画像処理装置、画像処理方法及び画像処理プログラム

Country Status (3)

Country Link
US (1) US8965105B2 (ja)
JP (1) JP5522018B2 (ja)
CN (1) CN102572492B (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5631229B2 (ja) * 2011-01-31 2014-11-26 キヤノン株式会社 撮像装置、その制御方法及びプログラム
JP2012252321A (ja) * 2011-05-10 2012-12-20 Canon Inc 画像撮影システムおよびその制御方法
JP5924020B2 (ja) * 2012-02-16 2016-05-25 セイコーエプソン株式会社 プロジェクター、及び、プロジェクターの制御方法
JP5773944B2 (ja) * 2012-05-22 2015-09-02 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法
CN103795922A (zh) * 2014-01-24 2014-05-14 厦门美图网科技有限公司 一种移动终端的摄像头智能校正方法
CN105306921A (zh) * 2014-06-18 2016-02-03 中兴通讯股份有限公司 一种基于移动终端的三维照片拍摄方法及移动终端
US20160109952A1 (en) * 2014-10-17 2016-04-21 Top Victory Investments Ltd. Method of Controlling Operating Interface of Display Device by User's Motion
JP2017005314A (ja) * 2015-06-04 2017-01-05 キヤノン株式会社 撮像装置
EP3352448B1 (en) 2015-09-18 2023-03-01 Sony Group Corporation Image processing device, image processing method, program and imaging system
JP2017151493A (ja) * 2016-02-22 2017-08-31 富士ゼロックス株式会社 画像処理装置、画像読み取り装置及びプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3802630B2 (ja) * 1996-12-28 2006-07-26 オリンパス株式会社 立体画像生成装置および立体画像生成方法
JPH10224820A (ja) 1997-02-07 1998-08-21 Canon Inc 複眼カメラ装置
US7151258B2 (en) * 2003-07-24 2006-12-19 Topcon Corporation Electron beam system and electron beam measuring and observing methods
KR100728115B1 (ko) * 2005-11-04 2007-06-13 삼성에스디아이 주식회사 입체 영상 표시 장치 및 그 구동 방법
US7844077B2 (en) * 2007-07-06 2010-11-30 Topcon Corporation Location measuring device and method
JP2009103980A (ja) 2007-10-24 2009-05-14 Fujifilm Corp 撮影装置、画像処理装置、及び撮影システム
JP2009177565A (ja) 2008-01-25 2009-08-06 Fujifilm Corp 複眼カメラ及び撮影方法
JP4737573B2 (ja) * 2009-02-05 2011-08-03 富士フイルム株式会社 3次元画像出力装置及び方法
JP5405264B2 (ja) * 2009-10-20 2014-02-05 任天堂株式会社 表示制御プログラム、ライブラリプログラム、情報処理システム、および、表示制御方法

Also Published As

Publication number Publication date
CN102572492B (zh) 2014-09-24
CN102572492A (zh) 2012-07-11
US8965105B2 (en) 2015-02-24
US20120154544A1 (en) 2012-06-21
JP2012129790A (ja) 2012-07-05

Similar Documents

Publication Publication Date Title
JP5522018B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP5472328B2 (ja) ステレオカメラ
JP5917017B2 (ja) 画像処理装置及びその制御方法、並びにプログラム
EP2549762B1 (en) Stereovision-image position matching apparatus, stereovision-image position matching method, and program therefor
JP5792662B2 (ja) 視差算出装置、距離算出装置及び視差算出方法
US8768043B2 (en) Image display apparatus, image display method, and program
CN102986233B (zh) 图像摄像装置
JP4775474B2 (ja) 撮像装置、撮像制御方法、及びプログラム
JP5803467B2 (ja) 画像処理装置および撮像装置、ならびに画像処理方法
EP2693736A1 (en) Imaging device, photographing guide displaying method for imaging device, and non-transitory computer readable medium
US9596455B2 (en) Image processing device and method, and imaging device
JP5547356B2 (ja) 撮影装置、方法、記憶媒体及びプログラム
JP6155471B2 (ja) 画像生成装置、撮像装置および画像生成方法
JP2014035597A (ja) 画像処理装置、コンピュータプログラム、記録媒体及び画像処理方法
US20130343635A1 (en) Image processing apparatus, image processing method, and program
US9591284B2 (en) Visually-assisted stereo acquisition from a single camera
JP5999089B2 (ja) 撮影装置
JP2013074473A (ja) パノラマ撮像装置
JP2012253451A (ja) 撮像装置及びプログラム
JP5402719B2 (ja) 立体画像撮影装置、立体画像撮影方法および立体画像撮影プログラム
KR20150016871A (ko) 촬상 장치, 표시 장치, 촬상 방법 및 촬상 프로그램
JP6066765B2 (ja) 撮像装置、その制御方法、および制御プログラム
JP2013078038A (ja) 撮像装置、画像処理方法、およびプログラム
JP2012120016A (ja) 端末装置及びその処理方法とプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140311

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140324

R150 Certificate of patent or registration of utility model

Ref document number: 5522018

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees