JP6038489B2 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP6038489B2
JP6038489B2 JP2012123892A JP2012123892A JP6038489B2 JP 6038489 B2 JP6038489 B2 JP 6038489B2 JP 2012123892 A JP2012123892 A JP 2012123892A JP 2012123892 A JP2012123892 A JP 2012123892A JP 6038489 B2 JP6038489 B2 JP 6038489B2
Authority
JP
Japan
Prior art keywords
image
subject
parallax
image processing
parallax value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012123892A
Other languages
English (en)
Other versions
JP2013251656A (ja
Inventor
真一 有田
真一 有田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2012123892A priority Critical patent/JP6038489B2/ja
Publication of JP2013251656A publication Critical patent/JP2013251656A/ja
Application granted granted Critical
Publication of JP6038489B2 publication Critical patent/JP6038489B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、2つ以上の視差を有する画像からユーザの指定した被写体までの距離を取得し、上記被写体を画面上に実物大で表示可能な画像処理装置に関するものである。
現在、インターネットを利用した買い物のシステムを利用するユーザ数が増加しており、店舗に行かずに商品を手軽に購入することが可能となっている。このとき、実際の商品を確認することなく、表示装置に表示された商品の画像や提供されたデータから判断するため、実際の商品の大きさが認識しにくいことが問題となっている。これは、撮影時のカメラと商品の位置、角度の関係によって画面内での商品の占める割合が異なり、表示時にはどのような位置関係で撮影されたものであるのか判別ができないことや、表示装置の大きさによって実際に表示される大きさが異なるため、画像から実際の寸法を認識することが難しい。そのため、実際の寸法で表示する実物大表示を行う技術がある。
特許文献1には、2つの平行に配置されたカメラからの視差を有する画像の視差量に基づいて被写体までの距離を算出し、該算出した距離と上記2つのカメラの画角情報を用いて実物大で表示されるように処理する技術が記載されている。
特許文献2には、撮像装置で撮影をする際に被写体までの距離を取得し、その被写体距離情報や垂直方向/水平方向の画角情報を画像データに埋め込み、表示装置は、画像データ中の上記被写体距離情報及び画角情報法に基づいて画面サイズに応じた実物大表示を行うことが記載されている。
特開2000−224612号公報 特開2010−78677号公
しかしながら、特許文献1では、複数の被写体が撮影された場合にどの被写体の距離を検出し実物大で表示させるかを指定することができない。また、被写体の視差によって距離を算出する際に、視差算出には視差を有する画像間でマッチングをとり、画素の平均2乗誤差の最小値を視差とするが、特徴の少ない領域では誤差の大きな要因となるため、被写体領域に対してマッチングする際に被写体によっては距離精度が低下する課題があるが、そのような被写体領域の選択方法に関しては述べられていない。また、映像データをそのまま転送し処理しており、記録された画像データに関しての記載がされておらず、記録後の画像データを用いて被写体までの距離を検出し、実物大で表示させる際には問題となる。
また、特許文献2では標準化されたフォーマットを使用し、データの転送など既存のシステムを使うことが可能であるが、被写体距離情報が付加された画像データを用いてでのみ処理が可能であるため、撮影時に被写体距離情報を取得する必要がある。そのため、例えば撮像装置に距離計測のための装置や機能が必要になる問題がある。また、被写体距離情報はどの被写体に対しての距離情報であるのか判別ができないことや、複数の被写体が存在する場合にはユーザの求める被写体に対しての実物大表示ができるとは限らないという問題がある。また、実際には被写体には厚みがあるが、被写体の前面側か背面側かのどの奥行き部分を基準としてディスプレイ面に実物大として表示するのか指定ができず、例えば奥側の部分を基準とした実物大表示をユーザが見たいと思ってもファイル中に記録された被写体距離情報が被写体の前面を基準とした値であれば、そのような奥側を基準とした表示にすることができない。
本発明は、上述の実情を鑑みてなされたもので、既存の撮像装置で撮影された画像やフォーマットを用いることが可能であり、実物大表示等のためには、2つ以上の視差を有する画像から精度よく被写体までの距離を算出することができる画像処理装置を提供することを目的とする。
上記課題を解決するために、本発明の第1の技術手段は、2つ以上の視差を有する画像の画像データとその付属情報を用いて、前記視差を有する画像のうちの1を表示し、該画像内のユーザ指定された被写体までの距離を検出する画像処理装置であって、ユーザから前記被写体を含む領域の指定が入力されるユーザ入力部と、前記指定された領域におけるエッジ領域を検出するエッジ領域抽出部と、前記エッジ領域上の視差値を算出する視差値算出部と、前記算出したエッジ領域上の視差値に基づいて被写体までの距離を算出する距離情報算出部とを有することを特徴としたものである。
本発明の第2の技術手段は、第1の技術手段において、前記距離情報算出部によって算出された被写体までの距離と、表示画面の大きさとから、該表示画面に前記被写体が実物大表示される画像を生成する画像変換部を有することを特徴としたものである。
本発明の第3の技術手段は、第1または第2の技術手段において、前記視差値算出部が、前記エッジ領域抽出部により抽出されたエッジ領域から前記視差を有する画像の視差の方向に対して45度以上の角度をなすエッジ領域上の視差値を算出することを特徴としたものである。
本発明の第4の技術手段は、第1〜第3のいずれか1の技術手段において、前記視差値算出部が算出した前記エッジ領域上の視差値の分布を解析して被写体領域の視差値を判定し、該被写体領域の視差値から代表視差値を取得する視差値解析部を有し、前記距離情報算出部が、前記代表視差値に基づいて前記被写体までの距離を算出することを特徴としたものである。
本発明の第5の技術手段は、第4の技術手段において、前記代表視差値が、前記被写体領域中の前面領域の視差値であることを特徴としたものである。
本発明の第6の技術手段は、第4の技術手段において、前記代表視差値が、前記被写体領域中の視差値の平均値であることを特徴としたものである。
本発明によれば、実物大表示等のために距離情報を算出する領域をユーザが指定可能であり、複数の被写体が撮影された画像であっても指定された領域に対してエッジ情報を利用した視差算出をすることで、被写体の厚みも考慮した距離情報を取得できる。したがって、精度の良い実物大表示等を行うことができる。また、従来の立体撮像装置や標準化されたフォーマットを扱うことが可能であり、コスト増を抑えることができる。
本発明に関わる立体画像撮像装置の概略構成例を示すブロック図である。 本発明にて扱われる画像ファイルのファイル構成例を説明する図である。 本発明の画像処理装置の構成例を示した概略ブロック図である。 図3の画像処理部の構成例を示した概略ブロック図である。 本発明において視差算出に用いられるブロックマッチング法について説明する図である。
以下、本発明に係わる画像処理装置について図面を参照しながら説明する。
本発明の画像処理装置は、立体画像撮影装置で撮影された2つ以上の視差を有する画像を記録した画像ファイルを用いることができる。ここでまず、画像処理装置の説明の前に、立体画像撮像装置と画像ファイルについて説明する。
本例において、立体画像撮像装置は既存のものであり、画像ファイルには標準化されたファイルフォーマットで記録されたものを用いた場合で説明する。
図1は、立体画像撮像装置(以下、撮像装置)100の概略構成を示すブロック図である。
図の撮像装置100は、立体画像を撮影するもので、撮像部101と画像記録部102から構成される。
撮像部101は、2組のレンズ、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)のセンサから構成される撮像モジュールとそれらを制御する制御部、メモリなどから構成され、ユーザによって撮影されたそれぞれの画像データと撮影時の設定情報である撮影情報を画像記録部102へ出力する。
画像記録部102は、画像処理部103、符号化部104、付属情報生成部105、ファイル生成部106を備え、撮像部101から得られた画像データと撮影情報を画像ファイルとして記録する処理を行い、記録媒体への記録またはネットワークなどへの出力を行う。
撮像装置100全体の動作に関して詳細に説明する。
撮像部101は平行に配置された2組の撮像モジュールを備え、視点位置の異なる画像データである画像1a、画像1bがそれぞれ生成される。ここで、画像1aは被写体に向かって左側の撮像モジュールで撮影された画像であり、画像2aは右側の撮像モジュールで撮影された画像であり、2つの画像は左右方向の視差を有する。撮像部101で生成された2つの画像データは画像処理部103へと出力される。また、このとき、撮影時の画角を示す、焦点距離情報などの撮影時の設定情報である撮影情報を付属情報生成部105へと出力する。
また、画像処理部103は、どのような処理を行ったかを示す情報を画像処理情報として付属情報生成部105に出力する。画像処理情報は例えば、画像のサイズ変更をした場合のサイズ情報などである。
符号化部104は画像処理部103から得られた画像1b、画像2bの符号化を行う。符号化部104は、例えば、JPEG(Joint Photographic Experts Group)画像として圧縮する場合には、それぞれの画像データに対してJPEG圧縮処理を行い、圧縮画像データを生成し、ビットマップなど非圧縮画像として記録する場合には、このような圧縮処理は行わずに目的のデータ形式に合わせて画像データを出力する。また、符号化部104はどのような符号化を行ったかを示す符号化情報を付属情報生成部105に出力する。本例では、画像1b、画像2bのデータをJPEG圧縮処理した画像1c、画像2cが出力されるものとする。
付属情報生成部105では撮像部101と画像処理部103、符号化部104からそれぞれ得られた撮影情報、処理情報と符号化情報を基に、画像ファイルの付属情報として記録可能なように変換した付属情報を生成し、ファイル生成部106へと出力する。
次にファイル生成部106の処理に関して説明する。ファイル生成部106は、符号化部104とから入力された画像データ(画像1c、画像2c)と付属情報生成部105から付属情報とを関連付けて一つのファイルとして記録する。
ここで、ファイル構成に関して図2に示す。近年では立体撮像装置の記録フォーマットとしてCIPA(一般社団法人カメラ映像機器工業会)規格であるCIPA DC−007 マルチピクチャーフォーマット(MPF:Multi-Picture Format)を扱う機器が増えてきており、画像1c、画像2cを該規格に沿った形で記録するものとする。図2では、画像1c、画像2cはそれぞれExif(Exchangeable Image File Format)で規定されるファイルフォーマット構成で連続して記録される。
画像1c、画像2cはJPEG圧縮して記録され、付属情報はヘッダ部分のAPP(アプリケーションマーカセグメント)にExif規格やMPF規格に沿った形で記録される。なお、Exif付属情報はAPP1に記録され、MPF付属情報はAPP2に記録される。Exif付属情報として、画像1c、画像2cに関する撮像素子、撮像機器の情報や露光時間、Fナンバーなどの撮影条件や画像読み出しに関する情報が記録される。また、MPF付属情報として、両画像の視点位置との関係を示す基線長や輻輳角情報、または立体、パノラマなど用途を識別する情報などが記録される。
また、先頭画像である画像1cのMPF付属情報には、MP Index IFDによって画像2cの記録位置やサイズ、MPF構造でいくつの画像が記録されているかを示す画像数に関する情報などの情報が記録される。
ここで各画像データの両端のSOI、EOIはそれぞれの画像の領域の開始と終了とを識別するための情報である。
本例では画像1c、画像2cを上述した標準化されたMPFで記録するものとしている。
上述のように構成されている撮像装置100で生成された画像ファイルは、フラッシュメモリやハードディスクへ記録された形態で、またはネットワークを通じた形態で、立体画像撮像装置100から画像処理装置へ出力される。
図3は、本発明の画像処理装置の構成例を示した概略ブロック図である。
図の画像処理装置200は画像データ読み出し部201、画像処理部202、表示部203、ユーザ入力部204によって構成される。
画像データ読み出し部201は、画像ファイルを読み込み、ファイルのヘッダ部分に記録された情報から2つの視差を持った画像データである画像1、画像2と付属情報とに分離して画像処理部202へ出力する。画像データ読み出し部201は、例えば画像ファイルのヘッダ部分の管理情報からファイル形式の判別や付属情報、画像データ位置を判別し、2つのJPEG画像データとExif付属情報やMPフォーマット付属情報などを抽出する。この場合、MPF形式のファイルフォーマットであることを識別し、ヘッダ領域のExif付属情報から焦点距値や画像サイズなど個々の画像に係わる情報を抽出し、MPフォーマット付属情報から左右画像データの先頭のアドレス(格納位置)を識別して、それぞれの画像データを分離する。分離された画像データと付属情報は画像処理部202へと入力される。
本例では上述したようにMPF形式の画像ファイルを用いた処理を行っているが、これに制限されることなく、画像のファイル構成は2つの視差を有する画像を左右方向や上下方向に並べて結合して1枚の画像とした構成でも構わない。その場合、例えばExifのMakernote内に画像ファイルの構成を示す情報を記録するなどファイルのヘッダ部分にデータ構成の識別情報を付加し、その情報から左右画像のデータ領域を判定して2つの画像データを抽出し、必要な付属情報を抽出すればよく、あとは本実施例と同様な処理をすればよい。
また、画像データ読み出し部201は、2つの視差を有する画像のうちの一つである画像1を表示部203に出力して表示させ、ユーザはその表示された画像を見ながらユーザ入力部204を通じて距離情報の取得や実物大表示を行いたい被写体を選択するための領域指定を行う。
なお、撮像装置から直接画像データとして受信する構成でもよい。例えば、HDMIで接続して視差を有する画像をHDMI規格に準じた映像データとして受信した場合には、同様に2つの視差を有する画像データと付属情報とを抽出して画像処理部202などへ出力する。
画像処理部202は、ユーザによって選択された被写体や領域の距離の算出や、その算出した距離情報と、表示部203の表示画面の大きさを示す表示サイズ情報とから、表示部203で表示した場合にユーザの選択した被写体が実物大サイズとなるような画像1’を生成する。画像処理部202の詳細な構成や動作は後で説明する。
表示部203は、例えば液晶パネルなどから構成され、画像データ読み出し部201によって出力された画像や画像処理部202によって生成された画像を表示する。また、表示部203は、ユーザが指定した領域を明示するように、例えば指定された領域や被写体がハイライトされるなど画像上に選択領域を重畳して表示させる。
ユーザ入力部204はユーザによって画像上の点や領域を指定するためのものであり、指定された画像上の座標などの指定領域情報を画像処理部202へと出力する。ユーザ入力部204は、例えばマウスで構成され、マウスで選択することでマウスポインタの位置情報が出力される。また、表示部203と一体型のものとしてタッチパネル液晶で構成され、ユーザが画像上の領域を指で指定するものでも構わない。
ユーザが実物大表示する被写体を指定する時の指定方法は、ユーザが対象の被写体を囲むように領域を指定する。例えば、被写体を中心に対角の2点を選択し、その四角形の領域を指定領域とする。また、4点やそれ以上の点(座標)を指定し、選択した点で囲まれる領域をユーザの指定領域情報とし、この領域に被写体がほぼ入るように選択してもらうようにする。このとき、選択時の点や選択領域は目で見て分かりやすくするために画像上に重畳して表示するのが望ましい。領域の選択の際には被写体全体が含まれるように選択することが望ましいが、それに制約されず、領域中の被写体の占める割合がある程度あれば被写体領域が選択領域からはみ出していても構わない。また、領域の選択は被写体内部のエッジ成分のある領域や周辺の輪郭部分などが含まれるように指定することが望ましい。このようにして選択された画像上の領域はユーザ指定領域情報として画像処理部202へと出力される。
ここで、画像処理部202に関して詳細に説明する。
図4は図3の画像処理部202の構成例を示した概略ブロック図を示している。画像処理部202はエッジ領域抽出部210、視差値算出部211、視差値解析部212、カメラパラメータ取得部213、距離情報算出部214、画像変換部215から構成される。
エッジ領域抽出部210は、ユーザ入力部204からのユーザ指定領域情報と画像データ読み出し部201から入力された画像1とから、表示部203に表示中の画像であってユーザによって指定された領域の画像領域についてエッジ検出を行い、そのエッジの領域を抽出し、エッジ情報として出力する。エッジ情報は座標値を示した情報でも構わないし、エッジ部分のみを抽出した画像データでも構わない。例えば、エッジ部分を2値化した画像データでもよい。
視差値算出部211はユーザ指定領域情報に対応した視差値を算出する。例えば、画像1上でのある点における対応点を画像2上から判定し、そのずれ量を求めてこのずれ量を視差値とする。対応点とは左右画像すなわち視差を有する画像に写る被写体上の同じ特徴点を示し、撮影時の撮像モジュールの位置が異なるため左右画像で同じ特徴点が異なった座標位置に現れる。本例では2つの画像は平行配置された撮像モジュールによって撮影された画像であるものとする。これは、視差算出パラメータから輻輳角0、つまり平行配置であるとの情報によって判定して次に記載する視差値算出処理を行う。ここで、本処理における視差算出に関して概要を説明する。
本例の視差算出はブロックマッチング法を用い、ブロック単位での類似度により2つの画像間で同じ被写体の特徴点位置を検出し、そのずれ量(視差)を検出する。この特徴点に係る画像1、画像2中の2つの点を対応点と呼ぶ。対応点の探索を行うために評価関数としてSAD(Sum of Absolute Difference)を用いる。SADでは画像1、画像2のそれぞれで注目画素を中心にウィンドウを設定し、設定したウィンドウ間の各画素の輝度の差を求め、その各画素間から得られた輝度の差の和を算出する。同様な処理を画像2側の注目画素を変えながら行い、値が最も小さい注目画素が対応点であるとする。
ここで、上述の処理内容を具体的に説明する。図5(A)には被写体Xを水平方向に視点の異なる位置から撮影した場合の概要図を示している。左視点から撮影された画像は画像1であり、右視点から撮影された画像は画像2になる。このとき、撮影された画像を図5(B)に示している。図5(B)では視点位置が異なることで、被写体Xの位置がそれぞれの画像で異なる位置に存在することが分かる。
画像1を基準に視差を算出する場合において被写体Xの一つの頂点を特徴点とした際のブロックマッチングの説明をする。図5(C)に示すように、この特徴点が画像1上の画素aに存在するとした場合に、画素aを中心とした3×3の大きさのウィンドウM1を設定する。次に、画像2において画素aと同一の位置にある画素a’0を探索開始点として設定し、3×3のウィンドウM2を設定する。次に設定したウィンドウ間の各画素の輝度の差を求め、その各画素間から得られた輝度の差の和を算出する。例えば、図7(D)のように、それぞれの設定したウィンドウの画素の値をX1〜X9、X’1〜X‘9とすると、以下のような計算を行いSAD値を求める。
Figure 0006038489
平行配置されたカメラで撮影された視差を有する画像は無限遠が視差0であり、近くの被写体になるほど視差が付く。このとき、画像1を基準として画像2が右視点の場合には、画像2上の特徴点が左側に移動する。そこで、探索方向を左側として画素a’0から左方向に注目画素を変更していき、上述したSAD値を順次求め、得られたSAD値の中で最小値をとる注目画素を対応点とする。この場合、対応点である画像2上の画素a’1が最も値が小さい結果となった。
本例では基準画像は画像1であり、画像1と画像2のサイズは1920×1080、ウィンドウサイズは注目画素を中心に15×15として設定して視差算出を行っている。なお、ここでは上記のように画像やブロックサイズを設定したが、これに限定されるものではなく精度や処理量を考慮し、適宜設定すればよい。また、本実施例ではSADを用いたブロックマッチングによって求めたが、他の評価関数を用いたブロックマッチングや特徴点を検出し、その特徴量(類似性)で対応点を求める特徴点マッチングなど他の手法でも構わない。
このようにして画像1上の各点に対応する対応点を画像2から求めるが、このときの画像1上の点はエッジ情報を基準としたものとし、エッジ領域抽出部210から得られたエッジ情報に含まれる画素に対して行うことで指定領域に対するエッジ部分の視差値を取得する。これは、対応点を検出する際にあまり特徴のない領域は隣接領域との差分が検出しにくく、エラーが出やすくなるためである。つまり、エッジ上の画素であれば比較的精度よく視差を算出することが可能であり、エラーの出やすい領域をなくすことで誤差の要因を低減することができる。例えば、ユーザが被写体領域の1点を選択して視差を算出するシステムとした場合、選択した点が特徴量の少ない画素であればうまく対応点が検出できない場合があり、大きな誤差となる。このように、被写体を含むような領域を選択し、その領域のエッジに対して視差算出することで精度よく被写体に対する視差情報を取得することができる。また、エッジ上の視差は2つの撮像モジュールの配置方向に対して垂直な方向に強いエッジ成分を有する画素の視差を取得するのが望ましい。これは、視差算出の際には2つの撮像モジュールの配置方向に対応点を探索して視差を検出するため、2つの撮像モジュールの配置方向と同じ方向に一致するエッジ上の画素は隣接画素との見分けがつけにくく、視差算出の誤差が大きくなる可能性があるためである。逆に撮像モジュールの配置方向に垂直な成分が強い場合には、隣接画素との違いを識別し易くなるため、算出された視差の精度がよくなる。このように、撮像モジュールの配置方向と垂直方向に強いエッジ成分を有する画素を優先的に選択し、撮像モジュールの配置方向に一致するエッジ成分が強い画素を除外するなど行い、エッジ方向と撮像モジュールの配置方向を考慮してエッジ上の領域(画素)を選定して視差を算出することで視差値の精度を向上させることができる。このように視差値の精度を向上することで、後述する距離情報算出部214にて被写体までの距離をより正確に取得することができる。撮像モジュールの配置方向にほぼ一致する方向のエッジを有する画素を除外することで精度の向上が可能であるが、さらに誤差の要因を低減させるために、例えば、撮像モジュールの配置方向に対してエッジの方向が45度以上の角度のあるエッジを抽出し、そのエッジ上の視差を算出するのが望ましい。また、上記の撮像モジュールの配置方向は視差を有する画像の視差の方向と一致している。撮像モジュールの配置方向を取得するためには画像ファイルの付属情報の撮影時の撮像モジュールの配置情報に関するタグから取得するのでもよいし、2つの視差を有する画像から対応点の位置を検出し、その位置関係から取得するのでもよく、取得方法に制約はないものとする。このようにして得られたエッジ上の視差情報は視差値解析部212に出力される。
視差値解析部212は得られたエッジ上の視差値から被写体の視差値の抽出を行う。被写体の視差値は視差値算出部211によって算出されたエッジ上の視差値の分布を解析することで取得する。視差算出は被写体を含む指定領域のエッジ上の画素に対して行っており、統計をとることで被写体と背景の視差を分類することができる。つまり、被写体と背景領域が含まれる状態で領域が指定されたとした場合、指定領域のエッジ上の視差値の分布を解析すると、被写体領域の視差値はある程度近い視差範囲で分布し、背景領域の視差分布に比べて視差値の大きなところに分布する。つまり、連続的又は近い視差範囲にかたまった分布が2つ以上存し、そのうち視差値の大きな方の視差分布のかたまりが被写体領域の視差分布に該当する。これは通常、被写体は手前側(撮像装置側)に配置しているので背景の視差分布に対して大きな値をもつことから、被写体領域の視差値の分布とみなすことができる。例えば、ある指定領域内のエッジ上の視差値の分布を解析した際に、0〜17と135〜165に視差値をもつ画素が多く検出されたとすると視差値の小さな範囲0〜17が背景領域の視差範囲であり、135〜165が被写体領域の視差範囲となる。またこのとき、被写体は厚みをもつが、被写体領域の視差分布の幅を検出することで厚みも判定することができる。上記の場合であれば、被写体の視差範囲が135〜165と検出できたので、これが被写体の厚みに該当する。
本例では視差値の分布から被写体領域と背景領域を分離して検出したが、これに制限されることなく、画像から被写体領域を検出し、その領域のエッジ上の視差値を取得するのでもよい。この場合も、得られた被写体の視差値の分布を解析することで被写体の厚みを判定することができる。
このようにして得られた被写体領域の視差分布から代表視差情報を求める。代表視差情報とは被写体全体を一つの視差値で表した場合の視差値であり、例えば、被写体前面を基準とする場合であるなら前面部分の視差値を代表視差値とし、前面までの距離や実物大表示時に前面部分を基準とした実物大表示とすることができる。本例では上記のように被写体の前面部分の視差値、つまりは被写体視差分布のうち値の大きな視差値を代表視差値とするが、これに制限されるものではなく、代表視差値は例えば被写体領域の視差値の平均値としたり、被写体の背面部分の視差値としたり、ユーザによって指定させたりするなど用途に応じて選択するものでもよい。このようにして検出された被写体の代表視差情報は距離情報算出部214へと出力される。
カメラパラメータ取得部213は、画像データ読み出し部201からの付属情報に基づいてカメラの外部パラメータや内部パラメータを取得する。
ここで、カメラの外部パラメータとは2つの画像がどのような配置の撮像モジュールによって撮影されたかを示す情報であり、例えば2つの撮像モジュール間の距離である基線長や撮像モジュールの光軸の相対的角度を示す輻輳角などがある。MPFの場合、輻輳角は平行配置であれば0が記録されている。
また、カメラの内部パラメータとは、撮影時の焦点距離やセンサの画素ピッチなどである。
カメラパラメータ取得部213ではこのような2つの画像が平行配置か輻輳がある状態で撮影されたのかの情報や焦点距離などの情報を距離情報算出部214へ距離算出パラメータとして出力する。
距離情報算出部214は、視差値解析部212によって算出された代表視差情報とカメラパラメータ取得部213からの距離算出パラメータとに基づいて、被写体までの距離情報を算出する。ここでの距離情報は撮影時の実空間における撮像装置から被写体までの距離である。ここで、代表視差値をD、焦点距離をf、基線長をB、センサすなわち撮像素子の画素ピッチをPとすると、被写体までの実空間上の距離Zは下記のように表すことができる。
Z=(B×f)/(D×P)
このようにして算出された被写体までの距離情報Zは画像変換部215へと出力される。
画像変換部215は、入力された距離情報を画像に重畳した画像を生成したり、表示サイズ情報から表示部に表示された際に被写体が実物大の大きさとなるような画像へ変換したりする。実物大の大きさとなるような画像は、例えば、距離情報から距離Zにおける画像1の1画素に対応する大きさと、表示サイズ情報から得られるディスプレイの画素サイズとの比率を拡大率として設定し、被写体を中心に画像をその拡大率分だけ拡大・縮小処理を実行して実物大表示用画像(画像1’)を生成する。ディスプレイの画素サイズは表示サイズ情報としての画面の縦又は横の長さとそれに対応する画素数から求めるものでも構わない。
距離Zにおける画像1の1画素に対応する大きさとはセンサ上の1画素が距離Zの平面上に投影されたものとみなせるので、その大きさはZ*P/fと示せる。本例ではこの値とディスプレイの画素サイズとの比率を拡大率としている。
実物大画像生成処理では画像1全体を実物大表示画像へ拡大・縮小処理するのでもよいし、さらに実物大表示の対象となっている領域がわかるように対象領域をハイライト表示するなど明示するのが望ましい。例えば、被写体領域を枠で囲って表示したり、被写体領域外の領域の輝度を下げて暗くし、被写体領域を明示するのでもよい。複数の被写体の配置された画像ではどの被写体が実物大であるのか、また同一の被写体であってもどの部分を基準に実物大表示としているのか分かりづらいが、対象領域を明示することで実物大となっている部分が視認しやすくなる。また、上記ではハイライト表示の例を示したが、被写体領域を切り出して実物大表示画像へ拡大・縮小処理するのでもよい。単純に全体を拡大、縮小処理した場合では指定した被写体とは異なる距離範囲に配置される被写体も同様に拡大・縮小されるため、複数の被写体の配置された画像では違和感のある表示となる場合があるが、同じ距離範囲の被写体領域だけ切り出して拡大・縮小処理すれば視認しやすくなる。また、被写体が正対していない場合に、被写体と正対するように射影変換処理するなど、視点位置が変わるような処理を行い、正対した面を実物大のサイズで表示するのでもよい。この場合、被写体の正面から見た画像が実物大で表示されるため、被写体の大きさが分かりやすくなる。このようにして生成された実物大表示画像データである画像1’は表示部203に出力される。表示部203ではユーザの指定した被写体が実物大表示で表示される。
このように、ユーザが被写体が含まれるように領域を設定し、そのエッジ情報を基にした視差算出と距離情報への変換を行うことで、精度よく被写体までの距離算出が行え、その結果、実際の被写体と同じ寸法で表示される実物大表示が可能となる。これらは既存の立体撮像装置で撮影された画像ファイルであっても処理することが可能であり、画像が複数の被写体を含む場合であっても任意の被写体の実物大表示画像を得ることができる。
100…立体画像撮像装置、101…撮像部、102…画像記録部、103…画像処理部、104…符号化部、105…付属情報生成部、106…ファイル生成部、201…画像データ読み出し部、202…画像処理部、203…表示部、204…ユーザ入力部、210…エッジ領域抽出部、211…視差値算出部、212…視差値解析部、213…カメラパラメータ取得部、214…距離情報算出部、215…画像変換部。

Claims (8)

  1. 視差を有する2つ以上の画像の画像データを用いて、前記2つ以上の画像のうちの1を表示し、該画像内の被写体までの距離を算出する画像処理装置であって、
    前記表示された画像上のユーザが指定した領域をユーザ指定領域として受け付けるユーザ入力部と
    前記ユーザ指定領域に含まれる被写体の視差値を算出する視差値算出部と、
    前記差値に基づいて前記被写体までの距離を算出する距離情報算出部と、
    を有し、
    前記距離情報算出部は、前記ユーザ指定領域に含まれる被写体以外の領域の視差値を、前記被写体までの距離の算出に用いない
    ことを特徴とする画像処理装置。
  2. 前記距離情報算出部によって算出された被写体までの距離と、表示画面の大きさとから、該表示画面に前記被写体が実物大表示される画像を生成する画像変換部を有することを特徴とする請求項1に記載の画像処理装置。
  3. 前記ユーザ指定領域におけるエッジ領域を検出するエッジ領域抽出部をさらに有し、
    前記視差値算出部は、前記エッジ領域上の視差値を算出する
    ことを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記視差値算出部は、前記エッジ領域抽出部により抽出されたエッジ領域から前記視差
    を有する2つ以上の画像の視差の方向に対して45度以上の角度をなすエッジ領域上の視差値を算出することを特徴とした請求項に記載の画像処理装置。
  5. 前記視差値算出部が算出した前記エッジ領域上の視差値の分布を解析して、他の領域の視差値と比べて視差値が大きい領域を被写体領域として検出する視差値解析部をさらに有する
    ことを特徴とする請求項3または4に記載の画像処理装置。
  6. 前記視差値解析部は、前記被写体領域の視差値を判定し、該被写体領域の視差値から代表視差値を取得し、
    前記距離情報算出部は、前記代表視差値に基づいて前記被写体までの距離を算出することを特徴とする請求項に記載の画像処理装置。
  7. 前記代表視差値は、前記被写体領域中の前面領域の視差値であることを特徴とする請求項に記載の画像処理装置。
  8. 前記代表視差値は、前記被写体領域中の視差値の平均値であることを特徴とする請求項に記載の画像処理装置。
JP2012123892A 2012-05-31 2012-05-31 画像処理装置 Expired - Fee Related JP6038489B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012123892A JP6038489B2 (ja) 2012-05-31 2012-05-31 画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012123892A JP6038489B2 (ja) 2012-05-31 2012-05-31 画像処理装置

Publications (2)

Publication Number Publication Date
JP2013251656A JP2013251656A (ja) 2013-12-12
JP6038489B2 true JP6038489B2 (ja) 2016-12-07

Family

ID=49849960

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012123892A Expired - Fee Related JP6038489B2 (ja) 2012-05-31 2012-05-31 画像処理装置

Country Status (1)

Country Link
JP (1) JP6038489B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106373156A (zh) 2015-07-20 2017-02-01 小米科技有限责任公司 通过图像确定空间参数的方法、装置及终端设备
CN115191111A (zh) * 2020-02-26 2022-10-14 佳能株式会社 图像处理设备和图像处理设备的控制方法
JP2021189904A (ja) * 2020-06-02 2021-12-13 Tvs Regza株式会社 情報連携システム、サーバ装置、課金サーバ装置、および、プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07334800A (ja) * 1994-06-06 1995-12-22 Matsushita Electric Ind Co Ltd 車両認識装置
JP3461135B2 (ja) * 1999-01-28 2003-10-27 日本電信電話株式会社 立体画像入出力装置
JP2001082954A (ja) * 1999-09-13 2001-03-30 Fujitsu Ten Ltd 画像処理装置及び画像処理測距方法
JP2007174192A (ja) * 2005-12-21 2007-07-05 Pioneer Electronic Corp コンテンツ配信装置、表示装置、コンテンツ配信方法、表示方法、プログラム、および記録媒体
JP5129707B2 (ja) * 2008-09-24 2013-01-30 株式会社日立システムズ 画像実寸表示システムおよび画像実寸表示方法ならびにそのためのプログラム
JP2010204782A (ja) * 2009-03-02 2010-09-16 Sony Computer Entertainment Inc 画像処理装置、画像処理方法およびデータ構造
JP2011234177A (ja) * 2010-04-28 2011-11-17 Panasonic Corp 立体音響再生装置及び再生方法

Also Published As

Publication number Publication date
JP2013251656A (ja) 2013-12-12

Similar Documents

Publication Publication Date Title
US20210314547A1 (en) Methods, systems, and computer-readable storage media for generating three-dimensional (3d) images of a scene
US8508580B2 (en) Methods, systems, and computer-readable storage media for creating three-dimensional (3D) images of a scene
JP5472328B2 (ja) ステレオカメラ
US9344701B2 (en) Methods, systems, and computer-readable storage media for identifying a rough depth map in a scene and for determining a stereo-base distance for three-dimensional (3D) content creation
US20150278996A1 (en) Image processing apparatus, method, and medium for generating color image data
JP5821457B2 (ja) 画像処理装置、および、画像処理装置の制御方法ならびに当該方法をコンピュータに実行させるためのプログラム
KR102207856B1 (ko) 사용자의 손 영역을 검출하기 위한 사용자 손 검출 장치 및 그 동작 방법
WO2014000663A1 (zh) 一种实现立体成像的方法及装置
TWI399972B (zh) 影像產生裝置及程式
JP2011203811A (ja) 画像処理装置、画像処理方法、画像処理プログラム、及び複眼デジタルカメラ
US8896670B2 (en) Image processing device, image processing method, and program
JP2009047497A (ja) 立体撮像装置および立体撮像装置の制御方法並びにプログラム
JP6038489B2 (ja) 画像処理装置
JP2013044597A (ja) 画像処理装置および方法、プログラム
US20200267374A1 (en) Data recording apparatus, image capturing apparatus, data recording method, and storage medium
JP2011077679A (ja) 立体画像表示装置
US8600151B2 (en) Producing stereoscopic image
US9832376B2 (en) Image display apparatus, image capturing apparatus, image display method, and storage medium for distinguishing reconstructable image data from normal image data
KR101718309B1 (ko) 색상 정보를 활용한 자동 정합·파노라믹 영상 생성 장치 및 방법
JP2013150071A (ja) 符号化装置、符号化方法、プログラム及び記憶媒体
JP2017028606A (ja) 撮像装置
JP6022212B2 (ja) 空間情報算出システム
JP2014134723A (ja) 画像処理装置、画像処理方法およびプログラム
JP6161874B2 (ja) 撮像装置、長さ計測方法及びプログラム
JP6066765B2 (ja) 撮像装置、その制御方法、および制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150401

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20150909

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150911

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150915

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160408

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161102

R150 Certificate of patent or registration of utility model

Ref document number: 6038489

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees