JP6113411B2 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP6113411B2
JP6113411B2 JP2012038205A JP2012038205A JP6113411B2 JP 6113411 B2 JP6113411 B2 JP 6113411B2 JP 2012038205 A JP2012038205 A JP 2012038205A JP 2012038205 A JP2012038205 A JP 2012038205A JP 6113411 B2 JP6113411 B2 JP 6113411B2
Authority
JP
Japan
Prior art keywords
parallax
image
image processing
imaging
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012038205A
Other languages
English (en)
Other versions
JP2013078101A (ja
JP2013078101A5 (ja
Inventor
奈保 澁久
奈保 澁久
徳井 圭
圭 徳井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2012038205A priority Critical patent/JP6113411B2/ja
Priority to US14/342,581 priority patent/US20140205185A1/en
Priority to PCT/JP2012/066986 priority patent/WO2013038781A1/ja
Publication of JP2013078101A publication Critical patent/JP2013078101A/ja
Publication of JP2013078101A5 publication Critical patent/JP2013078101A5/ja
Application granted granted Critical
Publication of JP6113411B2 publication Critical patent/JP6113411B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、立体画像を生成する画像処理装置に関する。
複数の撮像手段を備えた複眼撮像装置が知られている。複眼撮像装置は、複数の撮像手段において撮像された画像を処理することで、立体画像撮影やパノラマ撮影のような高機能撮像を実現している。立体画像を立体画像表示装置で視聴するときには、左眼には左眼用画像を、右眼には右眼用画像を、それぞれ表示させることで立体視が可能である。このような立体視は、同一の被写体を異なる位置から撮像した複数の画像間に含まれる視差を利用して立体表示することにより行うことができる。
このような複眼撮像装置において、撮像した2視点画像を立体画像表示装置で視聴すると、実風景と比較して、背景−被写体間の間隔が狭く感じられたり、被写体に厚みがないように知覚されたりすることがある。これは、撮像時及び表示時に生じる立体画像特有の空間の歪みであり、視聴者が立体画像を視聴する際に感じる違和感の原因の一つとなっている。この立体画像特有の歪みを定量化するために、撮像時と表示時のパラメータを用いる方法がある。特許文献1によれば、立体画像を生成するシステムをシンプルに構成できると共に、左右画像を撮像する際に手間をかけることなく、幾何学的な空間歪みによる不自然さを確認することができるとされている。
特開2005−26756号公報
しかしながら、特許文献1では幾何学的な空間歪みを確認できるものの、具体的に空間歪みを補正する方法までは開示されていなかった。また、空間歪みを補正することで、背景−被写体間の間隔が拡大するため、被写体の厚みのなさがより強調されるという問題があった。
本発明は上記の課題を鑑みて発明されたものであり、立体画像の撮像及び表示時に発生する空間歪みを補正することができ、立体感のある高画質な画像を得ることができる画像処理装置を得ることを目的とするものである。
本発明は上述した課題を解決するために、以下の技術手段を備えている。
本発明の第1の技術手段は、立体画像から算出した視差情報を取得する情報取得部と、前記立体画像の視差を変換する画像処理部と、を備える画像処理装置であって、前記視差情報の隣接視差の差が所定の範囲内であるとき、前記画像処理部は、前記立体画像の視差を変換した後、前記隣接視差の差が拡大しているときは、前記隣接視差との差が小さくなるように視差を補間することを特徴としたものである。
第2の技術手段は、第1の技術手段において、前記画像処理部における前記変換は、前記立体画像の視差を圧縮、または、拡大する変換であることを特徴としたものである。
第3の技術手段は、第2の技術手段において、前記情報取得部は、更に立体画像を撮像した撮像条件情報と前記立体画像を表示する表示部の表示条件情報とを取得し、前記画像処理部は、前記撮像条件情報と前記表示条件情報とに基づいて、前記立体画像の視差を変換することを特徴としたものである。
第4の技術手段は、第3の技術手段において、前記画像処理部は、前記撮像条件情報が有するカメラ間隔より、前記表示条件情報が有する両眼間隔が大きいときと、前記カメラ間隔より前記両眼間隔が小さいときとで視差を変換する方向を反対にすることを特徴としたものである。
第5の技術手段は、第3または第4の技術手段において、前記所定の範囲を、前記撮像条件情報、前記表示条件情報、及び前記視差情報とに基づいて算出された視差と、入力視差との間とすることを特徴としたものである。
の技術手段は、第の技術手段において、前記視差変換により出力される視差は、前記撮像条件情報、前記表示条件情報、及び前記視差情報に基づいて算出された視差と、入力視差とで表される範囲内に収めることを特徴としたものである。
の技術手段は、第の技術手段において、前記画像処理部は、前記撮像条件情報から算出できる輻輳点までの距離の被写体を視差0に近づけることを特徴としたものである。
本発明によれば、立体画像の撮像及び表示時に発生する空間歪みを補正し、立体感のある高画質な画像を得ることができる。
本発明による画像処理装置を用いた画像表示装置の第1実施形態を示す図である。 立体画像を撮像したときの撮像条件を説明する図である。 立体画像を視聴するときの表示条件を表す図である。 立体画像を構成する左眼用画像と、その左眼用画像に対応する視差情報を表した図である。 図4の立体画像を撮像したときの撮像距離Lbと、立体画像を立体画像表示装置で視聴したときの知覚距離Ldを表した図である。 立体画像を視聴するときに、知覚距離Ldが視距離Lsよりも長くなり、ディスプレイ面よりも奥側に立体画像が知覚される状態を説明する図である。 撮像距離Lbと知覚距離Ldの関係を説明する図である。 視差変換テーブルを説明する図である。 入力視差と視差変換テーブルにより変換された出力視差との関係を示す図である。 視差情報に被写体構造補正部を適用した例を示す図である。 被写体構造補正処理の様子を説明する図である。 被写体構造補正処理の様子を説明する他の図である。 被写体構造補正処理の画素変換の様子を説明する図である。 知覚位置調整を行ったときの撮像距離Lbと知覚距離Ldの関係を表す図である。 知覚位置調整を行ったときの撮像距離Lbと知覚距離Ldの関係を表す他の図である。 知覚位置調整を行ったときの撮像距離Lbと知覚距離Ldの関係を表す更に他の図である。 入力視差と視差変換テーブルにより変換された出力視差との関係を示す図である。 本発明による画像処理装置を用いた画像撮像装置の実施形態を示す図である。 撮像部の輻輳角を説明する図である。 輻輳点位置の被写体がディスプレイ面に知覚されるときの撮像距離と知覚距離Ldの関係を説明する図である。 本発明による画像処理装置を用いた画像表示装置の第4実施形態を示す図である。 実施形態1から3の視差変換では、主要被写体が前景に存在する場合、十分な立体感が得られないことを説明する図である。 視差変換後の知覚距離が所定の範囲内に収まっていることを表す図である。 主要被写体の位置が特定できている場合の視差変換方法を説明する図である。 主要被写体の位置が特定できている場合に、重みづけのパラメータを調整することで主要被写体より後ろにある被写体の立体感を変化できることを表す図である。
以下、図面を用いて本発明を詳細に説明する。なお、各図における構成は、理解しやすいように誇張して記載しており、実際の間隔や大きさとは異なる。
(実施形態1)
図1は本発明による画像処理装置を用いた画像表示装置の第1実施形態を示す図である。本実施形態の画像表示装置1は、記憶部10、情報取得部20、画像処理部30および表示部40より構成される。また、情報取得部20と画像処理部30は、本発明の画像処理装置に相当するものである。
記憶部10は、立体画像およびその立体画像が撮像されたときの撮像条件情報が保存されたハードディスク装置やメモリーカード等の記録媒体によって構成されている。情報取得部20は、記憶部10から立体画像およびその立体画像に付随する撮像条件情報を取得する。
画像処理部30は、情報取得部20が取得した立体画像に対して画像処理を行う。表示部40は、画像処理部30からの立体画像を取得し、後述する立体画像表示方式で表示する。
次に、情報取得部20と画像処理部30をより詳細に説明する。
本実施形態の情報取得部20は、立体画像取得部21、視差情報取得部22、撮像条件取得部23および表示条件保持部24によって構成されている。
立体画像取得部21は、記憶部10から立体画像を取得し、その立体画像を画像処理部30へ送る。視差情報取得部22は、記憶部10から立体画像を取得し、画素などの所定の単位ごとの視差を検出し、その視差を画素単位で表す視差情報を生成する。ここでは、立体画像を構成する左眼用画像と右眼用画像のうち、左眼用画像を基準として視差算出を行う。すなわち、左眼用画像に対応した視差情報を算出するということである。視差情報取得部22は、算出した視差情報を画像処理部30へ送る。
撮像条件取得部23は、記憶部10から立体画像に対応する撮像条件情報を取得し、画像処理部30へ送る。
図2は、立体画像を撮像したときの撮像条件情報を説明する図である。撮像条件を表す情報は、カメラ間隔dcと、カメラ焦点距離dfと、カメラ画素ピッチPcである。カメラ間隔dcとは、2視点の画像を撮像したとき、1視点目の画像を撮像した位置p1と、2視点目の画像を撮像した位置p2との間の距離のことである。2台のカメラを用いた場合は、カメラ間の距離となる。1台のカメラを水平方向にスライドさせて撮像した場合は、カメラの移動量がカメラ間隔dcとなる。このカメラの移動量は図示されないセンサから入力されてもよいし、撮像画像中の自然特徴量から算出してもよい。
カメラ焦点距離dfとは、カメラの撮像素子とレンズ間の距離のことであり、単焦点レンズの場合は固定値となる。ズームレンズの場合は、ズーム倍率により焦点距離が変わるため、図示しないセンサから焦点距離dfを取得する。画素ピッチPcとは、カメラの受光素子の精細さを表す指標で、隣り合う画素間の距離のことである。カメラ画素ピッチは画素数と撮像素子のサイズから計算でき、1つの撮像素子に固有の値である。
図1の表示条件保持部24は、保持している表示条件情報を、画像処理部30へ送る。この表示条件情報は予め設定されていてもよいし、ユーザ入力により設定されたり、図示しない検出装置により検出されたりしてもよい。検出装置により検出すると、様々な表示装置に対して自動で本発明を適用できるようになるため好適である。
図3は立体画像を視聴するときの表示条件を表す図である。表示条件を表す情報は、視距離Lsと、両眼間隔de、ディスプレイ画素ピッチPdである。視距離Lsは、視聴者とディスプレイ面Dとの距離のことである。視距離Lsにはディスプレイを見るときの標準的な距離を割り当てることができ、例えばディスプレイサイズの高さの3倍にしてもよいし、図示しないディスプレイに搭載されたカメラを用いて視聴者の顔を認識し、視聴者の顔の大きさから、視距離を設定してもよい。
両眼感覚deは、視聴者の左眼e1と右眼e2間の距離のことである。両眼間隔deは、一般的な子供の左眼と右眼間の距離である50mmに設定してもよいし、一般的な大人の両眼距離である65mmに設定してもよいし、表示装置に搭載された図示しないカメラを用いて視聴者の眼を認識し、視聴者の左眼と右眼の長さを測定した結果を用いてもよい。
ディスプレイ画素ピッチPdとは、ディスプレイ上の隣り合う画素間の距離のことである。ディスプレイ画素ピッチPdは解像度とディスプレイサイズから計算でき、1つのディスプレイに固有の値である。なお、撮像条件情報及び表示条件情報は、長さを表す単位、例えばミリメートルで表されているものとする。
画像処理部30は、上述した情報取得部20から情報を取得し、立体画像に処理を施す。画像処理部30は、撮像条件情報と表示条件情報に基づいて、入力される立体画像の知覚位置の歪みを補正することを特徴とする。
ここで知覚位置の歪みについて、図4と5を用いて詳しく説明する。図4は、立体画像を構成する左眼用画像と右眼用画像のうち、左眼用画像(図4(A))とその左眼用画像に対応する視差情報を表した図(図4(B))である。次に、図5は図4の立体画像を撮像したときの撮像距離Lb(図5(A))と、立体画像を立体画像表示装置で視聴したときの知覚距離Ld(図5(B))を表した図である。
図4の立体画像は、視差0の値が無限遠となるように、視差Hcピクセルだけ左眼用画像を左側へ平行移動させる。つまり、視差Hcを有する被写体が視差0、すなわちディスプレイ面に知覚されることとなる。ここで撮像距離Lbとは、被写体とカメラの位置を結ぶ直線の距離のことで、知覚距離Ldとは、被写体が知覚される位置と視聴者の位置を結ぶ直線の距離のことである。
図5に示すように、撮像した立体画像をそのまま視聴すると、撮像及び表示時に発生する空間の歪みにより遠方の被写体は、被写体−背景間の距離が圧縮され(被写体間距離501から503へ)、手前にある被写体は被写体間の距離が拡大され(被写体間距離500から502へ)、不自然な立体画像となってしまう。この圧縮と拡大は、ディスプレイ面を境に反対となる。そこで、撮像距離Lbと知覚距離Ldが線形の関係になるような視差変換、すなわち知覚位置調整を行う。さらに、知覚位置調整後、被写体間の視差の差が拡大した領域の視差補正を行うことで、被写体が厚みを持って知覚されるようにする。
ここで、知覚距離歪みについて詳しく説明を加える。撮像条件情報と表示条件情報を用い、知覚距離Ldを算出する。知覚距離Ldとは、図3に示すように、視聴者の左眼e1とディスプレイ面Dにおける左眼画像上の点p4が結ぶ線と、被験者の右眼e2とディスプレイ面Dにおける右眼画像上の点p3が結ぶ線とが交わる点xと、視聴者までの位置のことである。この左眼画像上の点p4と右眼画像上の点p3を結ぶ線の長さが視差dであり、図3は視差が正の値のときの例である。視差dが正の値とは、左眼用画像上の点p4が右眼用画像上の点p3よりも右に位置することを表す。視差dが負の値のときは、図6に示すように知覚距離Ldが視距離Lsよりも長くなり、ディスプレイ面Dよりも奥側に立体画像が知覚される。また、視差0のときは、知覚距離Ldと視距離Lsが等しくなり、ディスプレイ面D上に立体画像が知覚される。
以上に記した撮像条件および表示条件を表す情報を用いると、視聴者の眼から立体画像までの距離である知覚距離Ldは以下の式(1)で表される。
従って、カメラ間隔dcと両眼間隔deが、撮像距離Lbと知覚距離Ldとの関係に影響を及ぼす。
図7は、撮像距離Lbと知覚距離Ldの関係を説明する図で、横軸は撮像距離Lbを表し、縦軸は知覚距離Ldを表している。
図7に示すように、撮像条件であるカメラ間隔dcと両眼間隔deが同一の場合、撮像距離Lbと知覚距離Ldは線形となる。図7では線800にあたり、撮像距離Lbと知覚距離Ldが同一になっている。しかしながら、カメラ間隔dcと両眼間隔deが同一ではない場合、表示される立体画像に空間歪みが発生してしまう。例えば、両眼間隔deよりもカメラ間隔dcが広い場合、箱庭効果が発生する。
箱庭効果とは、ディスプレイ面Dより奥側の知覚距離Ldが、撮像距離Lbに対し、拡大される現象のことである。このとき、ディスプレイ面Dより手前側の知覚距離Ldは、圧縮される。つまり、立体視した被写体が、実際の被写体よりも小さく知覚されるという空間の歪みが発生する。図7では線801にあたり、ディスプレイ面Dに相当する点rより撮像距離Lbが長い領域では、撮像距離Lbが大きくなるにつれて知覚距離Ldが拡大されている。また、ディスプレイ面Dに相当する点rより撮像距離Lbが短い領域では、撮像距離Lbが小さくなるにつれて知覚距離が圧縮される。
また、両眼間隔deよりもカメラ間隔dcが狭い場合、書き割効果と呼ばれる空間の歪みが発生する。書き割り効果とは、ディスプレイ面Dより奥側に知覚される知覚距離Ldが、撮像距離Lbよりも、圧縮される現象のことである。書き割り効果とは、撮像距離Lbに対し、知覚距離Ldが圧縮される。このとき、ディスプレイ面Dより手前側の知覚距離Ldは、拡大される。つまり、立体視した被写体が、実際の被写体よりも厚みがないように知覚されたり、背景−被写体間の間隔が狭まって知覚されたりする。図7では線802にあたり、ディスプレイ面Dに相当する点rより撮像距離Lbが長い領域では、ディスプレイ面Dより奥側において、知覚距離Ldが圧縮されている。また、ディスプレイ面Dに相当する点rより撮像距離Lbが短い領域では、撮像距離Lbが小さくなるにつれて知覚距離が拡大される。
そこで、画像表示装置1は、カメラ間隔dcと両眼間隔deが同一ではない場合であっても、撮像距離Lbと知覚距離Ldが線形に近づくように視差を補正することで、空間歪みのない立体画像を表示することができる。
画像処理部30は、知覚位置調整部32、被写体構造補正部33および画像生成部31によって構成される。知覚位置調整部32は、視差情報に適用する視差変換テーブルを生成し、視差情報とともに被写体構造補正部33に送る。
視差変換テーブルの構成を図8に示す。この視差変換テーブル900は、入力視差Iと出力視差Oの関係を表しており、この入力視差Iを用いて算出した撮像距離Lbと、出力視差Oを用いて算出した知覚距離Ldが同一になることが特徴である。変換テーブルの生成には以下の式(2)を用いる。
Ziは入力視差、Zoは出力視差を表す。式(2)を用いて、入力視差Ziとそれに対応する出力視差Zoを格納した、視差変換テーブルを作成する。この視差変換テーブルを用いると、撮像距離Lbと知覚距離Ldとの関係が線形となる視差情報を生成することができる。
入力視差と視差変換テーブルにより変換された出力視差との関係を図9に示す。図9は横軸が入力視差、縦軸が出力視差である。視差変換処理を行わなければ、A0の直線となる。視差変換テーブルにより変換された後の入力視差と出力視差の関係はA1となり、視差変換テーブルにより非線形にマッピングされている。撮像距離Lbが長い、すなわち視差値が小さいほど圧縮されていた奥行きが拡大されている。また、撮像距離Lbが短い、すなわち視差値が大きいほど拡大されていた奥行きが圧縮されている。
例えば、入力視差の任意の2点(A,B)の長さと、それに対応する出力視差の2点(A’,B’)の長さが異なっている。すなわち、撮像距離Lbに応じて視差の変化量を変えているため、奥行きが拡大されている位置は奥行きを圧縮させ、圧縮されている位置は拡大させることで、撮像距離Lbと知覚距離Ldの関係を線形に近付くように変換させている。知覚位置調整部32は、作成した視差変換テーブルと視差情報とを被写体構造補正部33に供給する。
上記図9の例は、撮像距離Lbが長い、すなわち視差値が小さい領域で視差を拡大して奥行きを圧縮するもので、両眼間隔deよりもカメラ間隔dcが広い図7の線801を補正するものである。これに対して、両眼間隔deよりもカメラ間隔dcが狭い図7の線802を補正する場合、これとは逆に撮像距離Lbが長い、すなわち視差値が小さい領域で視差を圧縮して奥行きを拡大する必要がある。つまり、視差を圧縮する方向、または視差を拡大する方向に変換する際に、撮像条件情報が有するカメラ間隔より表示条件情報が有する両眼間隔が大きいときと、上記のカメラ間隔より両眼間隔が小さいときとで視差を変換する方向を反対にする。これにより、カメラ間隔と両眼間隔との関係に応じて適切な視差の変換を行うことができる。
また、画像処理部は、画像処理部が出力する出力立体画像の視差が正のときと負のときとで、視差を変換する方向、つまり視差を圧縮する方向、または視差を拡大する方向を反対にする。撮像した立体画像をそのまま視聴する場合、撮像距離Lbに対する知覚距離Ldの圧縮と拡大はディスプレイ面を境に反対となる。ディスプレイ面Dよりも手前側に立体画像が知覚されるとき視差は正であり、ディスプレイ面よりも奥側に立体画像が知覚されるときには視差は負である。従って、視差が正のときと負のときとで、視差を変換する方向を反対方向にする。
被写体構造補正部33は、知覚位置調整部32から供給される視差変換テーブルと視差情報とに基づいて、視差変換テーブル適用後の視差エッジ付近の視差の階調数を増加させた視差情報を生成する。これは、視差変換により被写体間の視差が拡大されるため、拡大された視差を補間することを意味する。
図10に視差情報1000に被写体構造補正部を適用した例を示す。入力視差1001では隣接視差の差が1であるが、視差変換テーブル適用後の出力視差1002では隣接視差の差が4となり、被写体間の視差が拡大されている。すなわち、立体空間特有の歪みが4倍になっていることを意味する。この歪みを補正するために、被写体構造補正部33では、入力視差上で視差エッジ、すなわち視差変化点1004を検出し、その視差変化点から次に検出される視差変化点間において階調数増加処理を施す。被写体構造補正部33から出力される視差情報1003は、視差情報が補間されているため、空間の歪みが補正される。
以下、被写体構造補正部33の処理内容を詳しく述べる。
図11に被写体構造補正部33の処理の様子を示す。
図11は横軸が視差情報の横軸の位置を表し、縦軸が視差を表している。
まず、視差情報1100から視差変化点1104を検出する。この視差変化点1104とは、視差情報1100において注目画素(視差変化点1104)の視差に対して前画素1103の視差がしきい値1105以上変化している点のことである。この注目画素1104の視差変換後視差情報1101の画素1106と、前画素1103の視差変換後視差情報1101の画素1107間を幅1108分だけ補間する。この例での補間とは、画素1107に1ずつ値を足していって画素1106に近付くように補間すること、もしくは画素1106に1ずつ値を引いていって画素1107に近付くように補間することを表す。
また、図12に示すように非線形に近似してもよい。すなわち、この画素補間方法は、線形近似でも良いし、曲線近似でもよい。特に、近傍の画素を解析し、被写体の凹凸に沿うように補間すると被写体本来の形状により近づくため好適である。被写体の形状は、例えば、周辺画素の明るさの変化の仕方などによって推定することができる。視差変化点以外の視差は、視差変換テーブルにより、撮像距離Lbと知覚距離Ldとが線形に対応する視差に変換する。
図13は被写体構造補正適用結果を示す図で、図13(A)に入力視差画像を示し、図13(B)に被写体構造補正後の視差画像を示す。被写体構造補正後の視差画像は、入力視差情報と比較し、視差エッジ付近の階調数が増加しているため、被写体が丸みを帯びて知覚されやすくなる。以上の処理を施すことにより、被写体間や被写体−背景間に現れる視差の不連続部分を補間することができ、立体空間特有の歪みを補正することができる。この被写体構造補正部33は、補正を行った後の視差情報を画像生成部31に供給する。
画像生成部31は、立体画像取得部21から供給される立体画像と、被写体構造補正部33から供給される視差情報とに基づいて、立体画像を構成する左眼用画像と右眼用画像のうち、左眼用画像に対して処理を施す。具体的には、左眼用画像の画素を、被写体構造補正部33から供給される視差情報に基づいて移動させる。画素を移動させた後、出力画像中に対応づかなかった画素に対しては、近傍の画素から補間する。
ここで、左眼用画像と右眼用画像本来の視差を考慮するために、被写体構造補正部33から供給される視差情報の値から、視差情報取得部22から供給される視差情報の値を減算しておく。変換後の左眼用画像と、入力された右眼用画像を用いて立体画像を生成する。こうすることで、立体感特有の歪みが補正された立体画像を生成することができる。生成した左眼用画像と右眼用画像とで構成される立体画像を、表示部40に供給する。ここで、視差変換テーブルに画素の移動量を与えて処理を行うようにしても同様の効果を得ることができる。
以上のように、本発明に係る画像表示装置は、記憶部から読みだされた撮像条件情報と表示条件情報とに基づいて、その撮像条件情報に対応する立体画像の視差を補正するので、カメラ間隔dcと両眼間隔deが同一ではない場合であっても、より自然な立体画像を表示することができる。特に、画像表示装置は、被写体間の視差の不連続性を補間することができるので、書き割り効果などの立体化空間の歪みを補正することができる。
なお、本実施形態では、撮像距離Lbと知覚距離Ldとが線形になるように視差変換を行ったが、主要被写体を設定し、その主要被写体が有する視差が0に近い値になるように視差変換を行ってもよい。これは、主要被写体に選ばれた被写体が、立体視し易いディスプレイ面付近に表示されるため、好適である。主要被写体は、所定の方法で指定されもしくは検出される。例えば、図示されない入力装置によってユーザが主要被写体を指定しても良いし、画像処理により被写体の顔を認識し、その認識された顔を主要被写体として検出してもよい。
また、本実施形態では、視差情報取得部22によって視差情報を生成したが、記憶媒体から読みだしてもよい。このとき、記録媒体には、立体画像とそれに対応する視差情報及び撮像条件情報が記録されている必要がある。こうすることにより、視差情報取得部にて複雑な計算が不要となるため、処理時間が短縮される。
また、本実施形態では、記憶部10から立体画像と撮像条件情報を取得したが、撮像部から取得してもよい。撮像部は、少なくとも2台のカメラで構成され、それぞれ左眼用画像と右眼用画像を取得するためのものであり、撮像レンズ及びCCD等の撮像素子を備えている。撮像制御部により、撮像レンズを用いてのフォーカス位置およびズーム倍率、シャッタ等の駆動が制御されている。また、少なくとも2台のカメラは所定の間隔を空けて配置されており、カメラ間の光軸は平行に配置されている。このとき、撮像条件情報も少なくとも2台の撮像部のうちどちらか一方の条件情報を取得する。
また、本実施形態では、画像生成部31から表示部40へ立体画像を出力したが、記録装置に出力してもよい。記録装置は、画像生成部31から供給された、左画像と右画像から構成される立体画像を記録する。
また、本実施形態の表示部40は、視聴者がメガネをかけて視聴するメガネ式立体表示装置であってもよいし、視聴者が裸眼で立体視可能な裸眼式立体表示装置でもよい。メガネ式立体表示装置のときの立体画像表示方式は、左眼用画像と右眼用画像を交互に切り替えて表示させる時分割方式や、偏光方向を異ならせて重ね合わせて表示させる偏光方式を用いれば良い。裸眼立体表示装置のときの立体画像表示方式は、パララックスバリアと呼ばれるスリット状の開口部の裏側に左眼用画像と右眼用画像を交互に配置するパララックスバリア方式や、かまぼこ状のレンチキュラレンズを配置することで左眼用画像と右眼用画像を空間的に分離するレンチキュラ方式を用いればよい。
(実施形態2)
第2実施形態は、第1実施形態とは異なる知覚位置補正方法を用いた形態である。なお、前述した第1実施形態と同様の機能を果たす部分には、同一の符合を付して、重複する説明を適宜省略する。
第2の実施形態は、上記図1に示す第1の実施形態と同じ構成によって実施されるが、画像処理部30の知覚位置調整部32の動作が第1の実施形態とは異なり、視差変換後の立体画像の視差範囲を所定の範囲内に収める処理を行う。具体的には、立体画像を表示する立体画像表示装置に合わせて、視聴者が立体視可能な範囲に収まった立体画像を生成する。
知覚位置調整部32は、視差情報に適用する視差変換テーブルを生成し、視差情報とともに被写体構造補正部33に送る。この視差変換テーブルを用いることにより、撮像距離Lbと知覚距離Ldとの関係が線形に近付き、かつ、図14のように視聴者が立体視可能な範囲に収まった視差情報を提供することができる。以下、視差変換テーブルの作成方法を述べる。
撮像条件情報を用いることで、撮像距離Lbの最大値及び最小値は、視差情報の最大値MAX_DEPと最小値MIN_DEPから算出できる。視差情報からの視差の最大値及び最小値の算出は、視差算出失敗による雑音の影響を排除するために、視差情報中の一定の面積を有する領域、例えば全画素の1%の領域、を占める視差とすると好適である。この視差情報の最大値MAX_DEPと最小値MIN_DEPから、撮像距離Lbの最大値MAX_DISを式(3)から、最小値MIN_DISを式(4)から算出する。
次に、表示条件情報とディスプレイ上の視差を用いて、知覚距離Ldの最大値MAX_Cと最小値MIN_Cを算出する。ディスプレイ上の視差の最小値MIN_Eと最大値MAX_Eは、例えば3Dコンソーシアムが発行している3DC安全ガイドライン内に記されている値を用いてもよいし、図示しない入力装置からユーザが入力した値を用いてもよい。このとき、最大値MAX_及び最小値MIN_ともに単位はピクセルで表される。MAX_が正の値、MIN_が負の値のとき、被写体は飛び出しと引っ込み両方の奥行きを有する。
また、撮像シーンが遠景の場合、図15に示すように知覚距離Ldのディスプレイ上の視差の最大値MAX_Eを0付近の値に設定することで、撮像された被写体が奥側に引っ込んで知覚されるようになる。さらに、撮像シーンがマクロの場合、図16に示すように知覚距離Ldのディスプレイ上の視差の最小値MIN_Eを0付近の値に設定することで、撮像された被写体が手前に飛び出して知覚されるようになる。このような撮像シーンは、視差情報を解析して決定してもよいし、図示しない入力装置から読みだしても良い。
この視差の最小値MIN_Eと最大値MAX_Eから、表示時の知覚距離Ldの最大値MAX_Cを式(5)から、最小値MIN_Cを式(6)から算出する。

算出した撮像距離Lbと知覚距離Ldが一致するように、視差を変換する。入力視差情報の視差をZi、出力視差情報の視差をZoとすると、視差変換は式(7)(8)(9)
で表される。
この視差変換式を用いて、入力視差Ziとそれに対応する出力視差Zoを格納した、視差変換テーブルを作成する。この視差変換を行うことにより、撮像距離Lbと知覚距離Ldとの関係を線形に近づけることができ、かつ、視聴者が立体視可能な範囲に収まった視差情報を生成することができる。入力視差と視差変換テーブルにより変換された出力視差との関係を図17に示す。
出力視差が負の値、すなわちディスプレイ面後方の引っ込み方向に知覚される視差ほど圧縮されていた奥行きが拡大されている。また、出力視差が正の値、すなわちディスプレイ面前方の飛び出し方向に知覚される視差ほど拡大されていた奥行きが圧縮されている。入力視差における任意の2点の差B2と、出力視差における任意の2点の差B1を比較すると、B1<B2となり、奥行きが圧縮されている。入力視差における任意の2点の差B3と、出力視差における任意の2点の差B4とを比較すると、B4>B3となり、奥行きが拡大されている。すなわち、撮像距離Lbに応じて視差の変化量を変えているため、奥行きが拡大されている位置は奥行きを圧縮させ、圧縮されている位置は拡大させることで、撮像距離Lbと知覚距離Ldの関係を線形に近付くように変換させている。
以上、説明した通り、本実施形態では立体画像を表示する画像表示装置に合わせて、視聴者が立体視可能な範囲に収まった立体画像を生成することができる。
(実施形態3)
図18は本発明による画像処理装置を用いた第3実施形態にあたる画像撮像装置を示す図である。図18に示す構成のうち、図1の構成と同じ構成には同じ符号を付してある。
重複する説明については適宜省略する。
図18の画像撮像装置2の構成は、主に記憶部10の代わりに第1撮像部51および第2撮像部52からなる撮像部50が設けられている点が、図1の構成とは異なる。図18の画像撮像装置では、立体画像の撮像方法に関わらず、立体画像特有の空間歪みが補正された立体画像を生成することができる。
具体的には、第1撮像部51は第2撮像部52と所定の間隔だけ離れた位置に配置される。第1撮像部51は、第2撮像部52と同期し、第2撮像部52と同時に、第2撮像部52と同一の撮像条件で撮像を行う。第1撮像部51は、その結果得られる画像データを左眼用の画像データとして立体画像取得部21に供給する。また、第1撮像部51は、カメラ間隔dc、輻輳角α、カメラピクセルピッチPc及びカメラ焦点距離dfを撮像条件情報として、撮像条件取得部に供給する。図19に示すように、第1撮像部と第2撮像部の輻輳角αとは、第1撮像部の光軸q1と第2撮像部の光軸q2とが成す角のことである。光軸q1と光軸q2との交点F1が輻輳点である。
知覚位置調整部32では、図20に示すように輻輳点上の被写体がディスプレイ面に表示されるような視差変換テーブルを作成する。そのためには、以下の式(10)で撮像部の輻輳角から輻輳点位置を算出する。
輻輳点F1がディスプレイ面、すなわち視距離Lsの位置と同じになるように、視差変換を行う。つまり、画像処理部30は、撮像部の撮像条件情報をから算出できる輻輳点までの距離の被写体を視差0に近づける処理を行う。具体的には、MAX_DISの値をFに、MAX_Cの値を視距離Lsにする。
画像生成部31は、立体画像取得部21から供給される立体画像と、被写体構造補正部33から供給される視差情報とに基づいて、立体画像を構成する左眼用画像と右眼用画像のうち、左眼用画像に対して処理を施す。
具体的には、左眼用画像の画素を、被写体構造補正部から供給される視差情報に基づいて移動させる。画素を移動させた後、出力画像中に対応づかなかった画素に対しては、近傍の画素から補完する。生成した眼用画像と、入力された左眼用画像を用いて立体画像を生成する。こうすることで、輻輳点にある被写体がディスプレイ面に表示され、かつ立体感特有の歪みが補正された立体画像を生成することができる。視差変換処理を施した後の眼用画像とその入力の左眼用画像とで構成される立体画像を、表示部40に供給する。
以上のように、画像撮像装置2は、輻輳角を有する撮像部から読みだされた立体画像であっても、撮像条件情報と表示条件情報とに基づいて、輻輳点に位置する被写体が視距離Ls、すなわちディスプレイ面に表示することができ、かつ、カメラ間隔dcと両眼間隔deが同一でない場合であっても、その撮像条件に対応する立体画像の視差を補正するので、より自然な立体画像を表示することができる。
(実施形態4)
実施形態1で示した画像処理により、視差を変換することで立体感のある画像を得ることができるが、撮影された立体画像の最大視差と最小視差の範囲内で視差変換を行うとき、被写体の位置によっては効果が十分に得られない場合がある。そこで、図21に示すような視差の変換を行うことで、立体感を得ることができる。
図21の曲線2101は、撮影した画像の被写体の撮像位置と、その被写体を立体視したときに知覚される位置との関係を表したものである。これを、知覚曲線2101とする。また、図21の線2103は、撮影した画像の最小撮像距離2106と最小知覚距離2108との交点2104と、最大撮像距離2107と最大知覚距離2109との交点2105を結んだ直線である。
本実施形態では、視差変換方法を知覚距離や撮像距離で説明して行く。この知覚距離、撮像距離は、実施例1に詳細に記載した通り、視差値、撮像条件及び表示条件から算出することができる。立体画像に対して、視差変換を施すことによって、撮像距離と知覚距離の関係を変化させることができる。
実施形態1では撮影されるシーン全体に対して空間の歪みを補正したが、本実施形態では、図21の知覚曲線2101と、線2103の間に収まるように、空間の歪みを補正する。例えば、被写体が大きな視差値を有する場合、図22の2103ように補正すると、その被写体に割り当てられる視差値の幅が小さくなる。すなわち、視差値の小さい背景と、視差値の大きい前景との差は大きくなり立体感は向上するが、被写体の厚みが小さくなってしまう場合がある。
図22を用いて詳しく説明する。被写体の厚みを2203、撮影画像を立体視したときに知覚できる被写体の厚みを2204、補正後の立体画像を立体視したときに知覚できる被写体の厚みを2205とする。撮影画像を立体視したときに知覚できる被写体の厚み2204よりも、補正後の立体画像を立体視したときに知覚できる被写体の厚み2205が小さくなっている。撮像距離2203内に主要被写体が存在する場合、主要被写体の立体感を十分に得ることができない。そこで、図21の線2102のような補正をすることで被写体の厚みを保持しつつ、被写体と背景の間の歪みを補正することで立体感のある画像を得る。
線2102は、知覚曲線2101と線2103内にプロットされる、直線、曲線、もしくは直線と曲線の複合で表現できる。例えば、図23の線2301の様に2本の直線で表しても良い。さらに、知覚曲線2101と線2103との重みづけ平均として視差変換の特性を定義しておくと、ユーザが外部から重みづけのパラメータを調整することで立体感を変化させることができるため好適である。
図21の線2102は、知覚曲線2101と線2103の重みが等しくなるように設定した例である。これは、撮影画像に視差変換を施さずに立体視した場合の被写体の位置と、線2103で視差変換を施した場合の被写体の位置との中間地点に、線2102で視差変換を施した場合の被写体が知覚されるということである。つまり、知覚曲線2101の重みが大きくなるように設定した場合、背景付近の視差が圧縮され、前景の視差が拡大される。すなわち、書き割り効果や箱庭効果のような空間の歪みが発生する、元画像の立体感に近付く。
線2103の重みが大きくなるように設定した場合、背景付近の視差が拡大され、前景の視差が圧縮される。すなわち、空間の歪みが補正され、実空間の立体感に近付く。この重みづけ平均により算出された特性により、ユーザは撮影した立体画像の立体感を、実空間に近付かせたり、前景の立体感を強調するためにわざと空間を歪ませたり、と変化させることができる。
特に、主要被写体の位置が特定できている場合、図24の線2401の様に、主要被写体2402より後に存在する被写体、すなわち、主要被写体2402が有する視差よりも小さい視差を有する被写体に対し、視差変換処理を施すと好適である。
主要被写体の視差値は、視差のヒストグラムから算出することができる。例えば、画像を複数領域に分割して、各領域の最頻値から被写体の視差値を推定することができる。推定された主要被写体の視差値と、撮影シーンの最大視差までの間は視差の値を保持するようにし、主要被写体の視差値と、撮影シーンの最小視差までの間は空間の歪みが減少するように補正する。このとき、推定された被写体の視差値は、被写体の代表視差値であるため、推定された視差値よりも小さい視差値を境界として処理すると好適である。すなわち、推定された視差値の後側を境界に、視差値の補正が変化するようにする。
距離で言い換えると、主要被写体の撮像位置2402と、最小撮像位置2408との間に含まれる被写体と、主要被写体の撮像位置2402と最大撮像位置2407との間に含まれる被写体とで、視差変換方法を変更する。図24では、主要被写体より手前にある被写体には視差変換を施さず、後ろにある被写体には、撮像距離と再現距離の関係が線形になるように視差変換を施している。
すなわち、図24の線2401は、主要被写体より後にある被写体に対し、主要被写体位置2402と最小知覚距離2405の交点2403と、最大撮像距離2407と最大知覚距離2406の交点2404を結んだ直線のような関係になるように視差変換を施す。こうすることで、主要被写体の厚みを保ったまま、圧縮されている背景の立体感を強調することができる。
さらに、図25に示す様に、知覚曲線2101と線2401との重みづけ平均として視差変換の特性を定義しておくと、ユーザが外部から重みづけのパラメータを調整することで、主要被写体の立体感は変化させずに、主要被写体より後ろにある被写体の立体感を変化させることができるため好適である。
図25の線2501は、知覚曲線2101と線2401に重みづけを施した例である。知覚曲線2101の重みが大きくなるように設定した場合、背景付近の視差が圧縮され、主要被写体より後ろにある前景の視差が拡大される。すなわち、書き割り効果や箱庭効果のような空間の歪みが発生する。線2401の重みが大きくなるように設定した場合、背景付近の視差が拡大され、主要被写体より後ろにある前景の視差が圧縮される。すなわち、空間の歪みが補正され、実空間の立体感に近付く。この重みづけ平均により算出された特性により、ユーザは撮影した立体画像の主要被写体の立体感は損なわずに、主要被写体より後ろにある立体感を実空間に近付かせたり、立体感を強調するためにわざと空間を歪ませたり、と変化させることができる。
以上の方法は、実施形態2および3に示した方法と組み合わせることも可能である。また、実施形態1に示した、被写体構造補正部での処理である、拡大した視差を補間する方法を適用することもできる。
1…画像表示装置、2…画像撮像装置、10…記憶部、20…情報取得部、21…立体画像取得部、22…視差情報取得部、23…撮像条件取得部、24…表示条件保持部、30…画像処理部、31…画像生成部、32…知覚位置調整部、33…被写体構造補正部、40…表示部、50…撮像部、51…第1撮像部、52…第2撮像部、500…被写体間距離、1001…入力視差、1002…出力視差、1003…視差情報、1004…視差変化点、1100…視差情報、1101…視差変換後視差情報、1103…前画素、1104…視差変化点、1105…しきい値、1106…画素、1107…画素、1108…幅。

Claims (7)

  1. 立体画像から算出した視差情報を取得する情報取得部と、
    前記立体画像の視差を変換する画像処理部と、を備える画像処理装置であって、
    前記視差情報の隣接視差の差が所定の範囲内であるとき、
    前記画像処理部は、前記立体画像の視差を変換した後、前記変換の前の隣接視差の差が所定のしきい値以上であるときは、前記変換の後の隣接視差の差が小さくなるように視差を補間することを特徴とする画像処理装置。
  2. 前記画像処理部における前記変換は、前記立体画像の視差を圧縮、または、拡大する変換であることを特徴とする請求項1に記載の画像処理装置。
  3. 前記情報取得部は、更に立体画像を撮像した撮像条件情報と前記立体画像を表示する表示部の表示条件情報とを取得し、
    前記画像処理部は、前記撮像条件情報と前記表示条件情報とに基づいて、前記立体画像の視差を変換することを特徴とする請求項2に記載の画像処理装置。
  4. 前記画像処理部は、前記撮像条件情報が有するカメラ間隔より、前記表示条件情報が有する両眼間隔が大きいときと、前記カメラ間隔より前記両眼間隔が小さいときとで視差を変換する方向を反対にすることを特徴とする請求項3に記載の画像処理装置。
  5. 前記画像処理部は、前記補間の後の前記立体画像の視差範囲を、前記撮像条件情報、前記表示条件情報、及び前記視差情報に基づいて算出された視差と、入力視差との間とすることを特徴とする請求項3または4に記載の画像処理装置。
  6. 前記画像処理部は、前記撮像条件情報から算出できる輻輳点までの距離の被写体を視差0に近づけることを特徴とする請求項5に記載の画像処理装置。
  7. 立体画像から算出した視差情報を取得する情報取得部と、
    前記立体画像の視差を変換する画像処理部と、を備える画像処理装置であって、
    前記視差情報の隣接視差の差が所定の範囲内である前記立体画像の画素領域において、前記画像処理部は、前記視差情報の隣接視差の差が所定のしきい値以上変化している視差変化点の視差を変換し、当該変換の変換量は、前記変換の前において前記視差変化点の視差と視差が同じである点における視差の変換の変換量よりも小さいことを特徴とする画像処理装置。
JP2012038205A 2011-09-13 2012-02-24 画像処理装置 Expired - Fee Related JP6113411B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012038205A JP6113411B2 (ja) 2011-09-13 2012-02-24 画像処理装置
US14/342,581 US20140205185A1 (en) 2011-09-13 2012-07-03 Image processing device, image pickup device, and image display device
PCT/JP2012/066986 WO2013038781A1 (ja) 2011-09-13 2012-07-03 画像処理装置、画像撮像装置および画像表示装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011199168 2011-09-13
JP2011199168 2011-09-13
JP2012038205A JP6113411B2 (ja) 2011-09-13 2012-02-24 画像処理装置

Publications (3)

Publication Number Publication Date
JP2013078101A JP2013078101A (ja) 2013-04-25
JP2013078101A5 JP2013078101A5 (ja) 2015-03-12
JP6113411B2 true JP6113411B2 (ja) 2017-04-12

Family

ID=47883025

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012038205A Expired - Fee Related JP6113411B2 (ja) 2011-09-13 2012-02-24 画像処理装置

Country Status (3)

Country Link
US (1) US20140205185A1 (ja)
JP (1) JP6113411B2 (ja)
WO (1) WO2013038781A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017026705A1 (ko) * 2015-08-07 2017-02-16 삼성전자 주식회사 360도 3d 입체 영상을 생성하는 전자 장치 및 이의 방법
KR102458339B1 (ko) 2015-08-07 2022-10-25 삼성전자주식회사 360도 3d 입체 영상을 생성하는 전자 장치 및 이의 방법
WO2021229679A1 (ja) * 2020-05-12 2021-11-18 日本電信電話株式会社 情報処理装置、情報処理方法、およびプログラム
KR20220107831A (ko) * 2021-01-26 2022-08-02 삼성전자주식회사 디스플레이 장치 및 그 제어 방법

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0715748A (ja) * 1993-06-24 1995-01-17 Canon Inc 画像記録再生装置
US5625408A (en) * 1993-06-24 1997-04-29 Canon Kabushiki Kaisha Three-dimensional image recording/reconstructing method and apparatus therefor
JP3089306B2 (ja) * 1993-08-26 2000-09-18 松下電器産業株式会社 立体画像撮像及び表示装置
JP3653790B2 (ja) * 1995-05-23 2005-06-02 松下電器産業株式会社 立体電子ズーム装置及び立体画質制御装置
JPH10155104A (ja) * 1996-11-22 1998-06-09 Canon Inc 複眼撮像方法及び装置並びに記憶媒体
DE69733233T2 (de) * 1996-09-11 2006-01-19 Canon K.K. Bildverarbeitung zur dreidimensionalen Wiedergabe von Bilddaten auf der Anzeige eines Bildaufnahmegeräts
US6762794B1 (en) * 1997-12-03 2004-07-13 Canon Kabushiki Kaisha Image pick-up apparatus for stereoscope
JP3938122B2 (ja) * 2002-09-20 2007-06-27 日本電信電話株式会社 擬似3次元画像生成装置および生成方法並びにそのためのプログラムおよび記録媒体
JP4259913B2 (ja) * 2003-05-08 2009-04-30 シャープ株式会社 立体画像処理装置、立体画像処理プログラムおよびそのプログラムを記録した記録媒体
JP2005353047A (ja) * 2004-05-13 2005-12-22 Sanyo Electric Co Ltd 立体画像処理方法および立体画像処理装置
KR20100135032A (ko) * 2009-06-16 2010-12-24 삼성전자주식회사 2차원 영상의 3차원 영상 변환 장치 및 방법
US20110032341A1 (en) * 2009-08-04 2011-02-10 Ignatov Artem Konstantinovich Method and system to transform stereo content
JP5505881B2 (ja) * 2010-02-02 2014-05-28 学校法人早稲田大学 立体映像制作装置およびプログラム
JP5446949B2 (ja) * 2010-02-03 2014-03-19 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
RU2010123652A (ru) * 2010-06-10 2011-12-20 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." (KR) Система и способ визуализации стереоизображений и многовидовых изображений для управления восприятием глубины стереоскопического изображения, создаваемого телевизионным приемником
US20120062698A1 (en) * 2010-09-08 2012-03-15 Electronics And Telecommunications Research Institute Apparatus and method for transmitting/receiving data in communication system
KR101752690B1 (ko) * 2010-12-15 2017-07-03 한국전자통신연구원 변이 맵 보정 장치 및 방법
JP5824896B2 (ja) * 2011-06-17 2015-12-02 ソニー株式会社 画像処理装置および方法、並びにプログラム
US9525858B2 (en) * 2011-07-06 2016-12-20 Telefonaktiebolaget Lm Ericsson (Publ) Depth or disparity map upscaling
US9300946B2 (en) * 2011-07-08 2016-03-29 Personify, Inc. System and method for generating a depth map and fusing images from a camera array
KR20130073459A (ko) * 2011-12-23 2013-07-03 삼성전자주식회사 멀티-뷰 생성 방법 및 장치
KR20130084850A (ko) * 2012-01-18 2013-07-26 삼성전자주식회사 시차 값을 생성하는 영상 처리 방법 및 장치
US9445076B2 (en) * 2012-03-14 2016-09-13 Qualcomm Incorporated Disparity vector construction method for 3D-HEVC

Also Published As

Publication number Publication date
US20140205185A1 (en) 2014-07-24
JP2013078101A (ja) 2013-04-25
WO2013038781A1 (ja) 2013-03-21

Similar Documents

Publication Publication Date Title
JP5963422B2 (ja) 撮像装置、表示装置、コンピュータプログラムおよび立体像表示システム
KR101629479B1 (ko) 능동 부화소 렌더링 방식 고밀도 다시점 영상 표시 시스템 및 방법
JP5186614B2 (ja) 画像処理装置および画像処理方法
JP2013005259A (ja) 画像処理装置、および画像処理方法、並びにプログラム
WO2010140332A1 (ja) 立体画像表示装置
EP1704730A1 (en) Method and apparatus for generating a stereoscopic image
KR20060063575A (ko) 스테레오 카메라의 영상왜곡 보정 장치 및 그 방법
JP5420076B2 (ja) 再生装置、複眼撮像装置、再生方法及びプログラム
JP6585938B2 (ja) 立体像奥行き変換装置およびそのプログラム
JPWO2013065543A1 (ja) 視差調節装置及び方法、撮影装置、再生表示装置
JP6113411B2 (ja) 画像処理装置
CN107209949B (zh) 用于产生放大3d图像的方法和系统
JP5840022B2 (ja) 立体画像処理装置、立体画像撮像装置、立体画像表示装置
JP5502211B2 (ja) 立体画像処理装置および立体画像処理方法
KR100439341B1 (ko) 시각 피로 감소를 위한 스테레오 영상의 초점심도 조정장치 및 그 방법
JP6166985B2 (ja) 画像生成装置および画像生成プログラム
JP2012105172A (ja) 画像生成装置、画像生成方法、コンピュータプログラムおよび記録媒体
KR101192121B1 (ko) 양안시차 및 깊이 정보를 이용한 애너그리프 영상 생성 방법 및 장치
KR101939243B1 (ko) 입체 깊이 조정 및 초점 조정
JP2013242378A (ja) 撮像装置、表示方法、およびプログラム
JP3088852B2 (ja) 3次元画像入力装置
KR20040018858A (ko) 시각 피로 감소를 위한 스테레오 영상의 초점심도 조정장치 및 그 방법
WO2013015217A1 (ja) 立体画像処理装置および立体画像処理方法
WO2012108406A1 (ja) 立体画像印画装置及び立体画像印画方法
JP6179282B2 (ja) 3次元画像表示装置及び3次元画像表示方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150127

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150127

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20150909

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170315

R150 Certificate of patent or registration of utility model

Ref document number: 6113411

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees