JP2011160347A - 記録装置および記録方法、画像処理装置および画像処理方法、並びにプログラム - Google Patents

記録装置および記録方法、画像処理装置および画像処理方法、並びにプログラム Download PDF

Info

Publication number
JP2011160347A
JP2011160347A JP2010022372A JP2010022372A JP2011160347A JP 2011160347 A JP2011160347 A JP 2011160347A JP 2010022372 A JP2010022372 A JP 2010022372A JP 2010022372 A JP2010022372 A JP 2010022372A JP 2011160347 A JP2011160347 A JP 2011160347A
Authority
JP
Japan
Prior art keywords
image data
eye
shooting
imaging device
parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010022372A
Other languages
English (en)
Other versions
JP5446949B2 (ja
JP2011160347A5 (ja
Inventor
Takafumi Morifuji
孝文 森藤
Masami Ogata
昌美 緒形
Suguru Ushiki
卓 牛木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010022372A priority Critical patent/JP5446949B2/ja
Priority to CN2011100327236A priority patent/CN102164292A/zh
Priority to US13/015,563 priority patent/US20110187834A1/en
Publication of JP2011160347A publication Critical patent/JP2011160347A/ja
Publication of JP2011160347A5 publication Critical patent/JP2011160347A5/ja
Application granted granted Critical
Publication of JP5446949B2 publication Critical patent/JP5446949B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators

Abstract

【課題】より自然な3D画像を表示することができるようにする。
【解決手段】画像取得部21は、カメラ11から入力される画像データとカメラ12から入力される画像データを3D画像データとして取得する。撮影条件取得部22は、カメラ11から入力される3D画像データの撮影時の撮影条件を表す撮影条件情報を取得する。記録制御部23は、3D画像データと撮影条件情報とを対応付けて記録媒体13に記録させる。本発明は、例えば、3D画像データを記録する記録装置に適用することができる。
【選択図】図1

Description

本発明は、記録装置および記録方法、画像処理装置および画像処理方法、並びにプログラムに関し、特に、より自然な3D画像を表示することができるようにした記録装置および記録方法、画像処理装置および画像処理方法、並びにプログラムに関する。
映画等のコンテンツとしては2D画像が主流であるが、最近では、3D画像が注目を集めている。
3D画像を再生する再生装置は、例えば2台のカメラにより同時に撮影された各画像を交互に表示する。このとき、ユーザは、例えば、画像の切り替えに同期したシャッタ付き眼鏡を装着し、1台目のカメラで撮影された画像を左目だけで見て、2台目のカメラで撮影された画像を右目だけで見る。これにより、ユーザは3D画像を見ることができる。
また、3D画像を再生する再生装置としては、3D画像に対してテロップを合成して表示する装置もある(例えば、特許文献1参照)。
特開平10−327430号公報
このような3D画像を再生する再生装置では、記録されている3D画像がそのまま表示されるが、撮影条件と表示条件が対応していない場合、3D画像の表示面に垂直な方向の表示位置が3D画像の撮像時の被写体の撮像面に垂直な方向の位置と大きく異なることなどによって、不自然な3D画像が表示されてしまう。
即ち、従来の3D画像を再生する再生装置では、3D画像の撮影条件を認識することができないので、撮影条件と表示条件に適するように3D画像を表示することができず、自然な3D画像を表示することが困難である。
本発明は、このような状況に鑑みてなされたものであり、より自然な3D画像を表示することができるようにするものである。
本発明の第1の側面の記録装置は、3D画像データを取得する画像取得手段と、前記3D画像データの撮影時の撮影条件を表す撮影条件情報を取得する撮影条件取得手段と、前記3D画像データと前記撮影条件情報とを対応付けて記録媒体に記録させる記録制御手段とを備える記録装置である。
本発明の第1の側面の記録方法およびプログラムは、本発明の第1の側面の記録装置に対応する。
本発明の第1の側面においては、3D画像データが取得され、前記3D画像データの撮影時の撮影条件を表す撮影条件情報が取得され、前記3D画像データと前記撮影条件情報とが対応付けて記録媒体に記録される。
本発明の第2の側面の画像処理装置は、3D画像データと前記3D画像データの撮影時の撮影条件を表す撮影条件情報が対応付けて記録されている記録媒体から読み出された前記3D画像データと前記撮影条件情報を取得する取得手段と、前記3D画像データの表示条件を表す表示条件情報と、前記撮影条件情報とに基づいて、前記3D画像データの視差を補正する視差制御手段と、前記視差制御手段により視差が補正された前記3D画像データに基づいて、3D画像を表示部に表示させる表示制御手段とを備える画像処理装置である。
本発明の第2の側面の画像処理方法およびプログラムは、本発明の第2の側面の画像処理装置に対応する。
本発明の第2の側面においては、3D画像データと前記3D画像データの撮影時の撮影条件を表す撮影条件情報が対応付けて記録されている記録媒体から読み出された前記3D画像データと前記撮影条件情報が取得され、前記3D画像データの表示条件を表す表示条件情報と、前記撮影条件情報とに基づいて、前記3D画像データの視差が補正され、視差が補正された前記3D画像データに基づいて、3D画像が表示部に表示される。
本発明の第1の側面によれば、3D画像データに対応付けて撮影条件情報を提供することができる。これにより、その3D画像データに対応する3D画像を表示する装置において、より自然な3D画像を表示することができる。
また、本発明の第2の側面によれば、より自然な3D画像を表示することができる。
本発明を適用した記録システムの第1実施の形態の構成例を示すブロック図である。 カメラ11における撮影条件を表すパラメータを示す図である。 3D画像データの表示条件を表すパラメータを示す図である。 撮影距離と表示距離との関係を示す図である。 撮影距離と表示距離との関係を示す他の図である。 記録装置の記録制御処理を説明するフローチャートである。 図1の記録媒体を再生する再生システムの構成例を示すブロック図である。 表示距離の算出方法を説明する図である。 図7の再生装置の画像処理を説明するフローチャートである。 図1の記録媒体を再生する再生システムの他の構成例を示すブロック図である。 3D画像データの補正方法について説明する図である。 図10の再生装置の画像処理を説明するフローチャートである。 本発明を適用した記録システムの第2実施の形態の構成例を示すブロック図である。 図13の記録媒体を再生する再生システムの構成例を示すブロック図である。 図14の再生装置の画像処理を説明するフローチャートである。 本発明を適用した記録システムの第3実施の形態の構成例を示すブロック図である。 図16の記録媒体を再生する再生システムの構成例を示すブロック図である。 図17の視差制御部による視差の補正を説明する図である。 図17の再生装置の画像処理を説明するフローチャートである。 コンピュータの一実施の形態の構成例を示す図である。
<第1実施の形態>
[記録装置の第1実施の形態の構成例]
図1は、本発明を適用した記録システムの第1実施の形態の構成例を示すブロック図である。
図1の記録システム1は、カメラ11(左目用撮影装置)、カメラ12(右目用撮影装置)、および記録装置10により構成される。記録システム1では、カメラ11およびカメラ12により同時に撮影された画像を3D画像として記録媒体13に記録する。
具体的には、カメラ11は、カメラ12と所定の間隔だけ離れた位置に配置される。カメラ11は、カメラ12と同期し、カメラ12と同時に、カメラ12と同一の撮影条件で撮影を行う。カメラ11は、その結果得られる画像データを3D画像のうちの左目用の画像の画像データとして記録装置10に供給する。また、カメラ11は、撮影時の撮影条件を表す情報である撮影条件情報を記録装置10に供給する。
カメラ12は、カメラ11と所定の間隔だけ離れた位置に配置される。カメラ12は、カメラ11と同期し、カメラ11と同時に、カメラ11と同一の撮影条件で撮影を行う。カメラ12は、その結果得られる画像データを3D画像のうちの右目用の画像の画像データとして記録装置10に供給する。
なお、ここでは、撮影条件情報がカメラ11から記録装置10に入力されるようにするが、撮影条件情報は、カメラ11とカメラ12の少なくとも一方から記録装置10に入力されればよい。
記録装置10は、画像取得部21、撮影条件取得部22、および記録制御部23により構成される。
記録装置10の画像取得部21は、カメラ11から入力される左目用の画像データとカメラ12から入力される右目用の画像データを取得する。画像取得部21は、左目用の画像データと右目用の画像データを3D画像の画像データ(以下、3D画像データという)として記録制御部23に供給する。
撮影条件取得部22は、カメラ11から入力される撮影条件情報を取得し、記録制御部23に供給する。
記録制御部23は、画像取得部21から供給される3D画像データと、撮影条件取得部22から供給される撮影条件情報を対応付けて記録媒体13に記録させる。
[撮影条件情報の説明]
図2乃至図5は、図1の記録システム1において3D画像データとともに記録される撮影条件情報を説明する図である。
図2は、カメラ11における撮影条件を表すパラメータを示す図である。
図2に示すように、カメラ11における撮影条件を表すパラメータとしては、カメラ11とカメラ12の間隔であるカメラ間隔(撮影装置間隔)d、カメラ11の画角α、輻輳角γ、光軸交点までの距離L、撮影距離L、仮想画面幅W´などがある。
なお、輻輳角γとは、カメラ11の光軸とカメラ12の光軸の交点を通る、カメラ11の位置とカメラ12の位置を結ぶ直線への垂線と、カメラ11の光軸とのなす角である。
また、光軸交点までの距離Lとは、カメラ11の光軸とカメラ12の光軸の交点と、カメラ11の位置とカメラ12の位置を結ぶ直線との距離である。また、撮影距離Lとは、被写体と、カメラ11の位置とカメラ12の位置を結ぶ直線との距離である。仮想画面幅W´とは、カメラ11から光軸上に視距離L(後述する図3)だけ被写体側に向かった位置に垂直な面の画角α内の幅である。
なお、図示は省略するが、カメラ12における撮影条件を表すパラメータも、カメラ11がカメラ12に代わるだけで、カメラ11における撮影条件を表すパラメータと同様である。
図3は、記録媒体13に記録されている3D画像データの表示条件を表すパラメータを示す図である。
図3に示すように、表示条件を表すパラメータとしては、視聴者の両眼間隔d、視角β、視距離L、画面幅W、左目用の画面と右目用の画面の水平方向のずれである視差Hなどがある。
なお、視距離Lとは、視聴者から表示面までの表示面に垂直な方向(以下、奥行方向という)の距離であり、画面幅Wは、表示面の視差Hの方向の幅、即ち表示面の水平方向の幅である。
以上のような撮影条件および表示条件を表すパラメータを用いると、視聴者の目から3D画像までの奥行方向の距離である表示距離Lは、以下の式(1)で表される。
Figure 2011160347
従って、図4および図5に示すように、画面幅Wが、撮影距離Lと表示距離Lとの関係に影響を及ぼす。
具体的には、図4のグラフにおいて横軸は撮影距離Lを表し、縦軸は表示距離Lを表している。また、図5のグラフにおいて横軸は撮影距離Lを表し、縦軸はL/Lを表している。さらに、図4および図5のグラフ上の各種の線は、それぞれ、画像倍率(Magnification of image)aが0.1,0.5,1,1.2,2,5,10のときを表している。
図4および図5に示すように、画像倍率aが1である場合、即ち、画面幅Wが仮想画面幅W´と同一である場合、撮影距離Lと表示距離Lは同一となる。しかしながら、画像倍率aが1ではない場合、撮影距離Lと表示距離Lは異なり、表示される3D画像が不自然な画像となる。
そこで、記録装置10は、撮影条件情報として、カメラ間隔d、画角α、および輻輳角γを3D画像データとともに記録媒体13に記録する。これにより、後述するように、記録媒体13を再生する再生装置において、画像倍率aが1ではない場合であっても、撮影距離Lと表示距離Lが同一となるように、視差Hを補正することができる。その結果、より自然な3D画像を表示することができる。
なお、視差Hが両眼間隔dより大きい場合、左目と右目の焦点が合わず、3D画像は見えない。また、ここでは、撮影条件情報に含まれるカメラ間隔dは、長さ単位(例えば、ミリメートル)で表されるものとする。
[記録装置の処理の説明]
図6は、記録装置10の記録制御処理を説明するフローチャートである。この記録制御処理は、画像データおよび撮影条件情報が入力されたとき開始される。
ステップS1において、画像取得部21は、カメラ11から入力される左目用の画像データとカメラ12から入力される右目用の画像データを3D画像データとして取得する。そして、画像取得部21は、その3D画像データを記録制御部23に供給する。
ステップS2において、撮影条件取得部22は、カメラ11から入力される撮影条件情報を取得し、記録制御部23に供給する。
ステップS3において、記録制御部23は、画像取得部21から供給される3D画像データと撮影条件取得部22から供給される撮影条件情報を対応付けて記録媒体13に記録させ、処理を終了する。
以上のように、記録装置10は、3D画像データに対応付けて撮影条件情報を記録媒体13に記録させるので、3D画像データに対応付けて撮影条件情報を提供することができる。
[再生システムの構成例]
図7は、図1の記録媒体13を再生する再生システムの構成例を示すブロック図である。
図7の再生システム40は、再生装置(画像処理装置)50と表示装置51により構成される。再生システム40は、記録媒体13に記録されている撮影条件情報に基づいて、表示距離Lが撮影距離Lと同一になるように3D画像データの視差Hを補正し、補正後の3D画像データに基づいて3D画像を表示する。
具体的には、再生装置50は、読出制御部61、画像取得部62、視差検出部63、表示条件保持部64、表示奥行き算出部(表示距離算出手段)65、撮影条件取得部66、実空間奥行き算出部(撮影距離算出手段)67、視差制御部68、および表示制御部69により構成される。
読出制御部61は、記録媒体13から3D画像データと、それに対応する撮影条件情報を読み出す。読出制御部61は、3D画像データを画像取得部62に供給し、撮影条件情報を撮影条件取得部66に供給する。
画像取得部62は、読出制御部61から供給される3D画像データを取得し、視差検出部63と視差制御部68に供給する。
視差検出部63は、画像取得部62から供給される3D画像データに基づいて、画素等の所定の単位ごとの視差を検出し、その視差を画素単位で表す視差マップを生成する。視差検出部63は、視差マップを表示奥行き算出部65、実空間奥行き算出部67、および視差制御部68に供給する。
表示条件保持部64は、3D画像の表示条件を表す情報である表示条件情報として、視距離L、両眼間隔d、画面幅W、および表示装置51のドットピッチを保持している。なお、ここでは、表示条件情報は、長さを表す単位(例えば、ミリメートル)で表されるものとする。また、表示条件情報は、予め設定されていてもよいし、ユーザ入力により設定されたり、図示せぬ検出装置により検出されたりしてもよい。表示条件保持部64は、保持している表示条件情報を表示奥行き算出部65、実空間奥行き算出部67、および視差制御部68に供給する。
表示奥行き算出部65は、視差検出部63からの視差マップと、表示条件保持部64からの表示条件情報とを用いて、記録媒体13に記録されている3D画像データに基づいて3D画像を表示した際の表示距離Lを算出する。この算出方法については、後述する図8を参照して説明する。表示奥行き算出部65は、算出された表示距離Lを実空間奥行き算出部67に供給する。
撮影条件取得部66は、読出制御部61から供給される撮影条件情報を取得し、実空間奥行き算出部67および視差制御部68に供給する。
実空間奥行き算出部67は、視差検出部63からの視差マップ、表示条件保持部64からの表示条件情報、表示奥行き算出部65からの表示距離L、および撮影条件取得部66からの撮影条件情報を用いて式(1)を演算し、撮影距離Lを求める。
具体的には、実空間奥行き算出部67は、撮影条件情報に含まれるカメラ間隔dと表示条件情報に含まれる両眼間隔dを用いてカメラ間隔比(Camera separation ratio)aを算出する。また、実空間奥行き算出部67は、撮影条件情報に含まれるカメラ間隔dと輻輳角γとを用いて、光軸交点までの距離Lを算出する。さらに、実空間奥行き算出部67は、撮影条件情報に含まれる画角αと表示条件情報に含まれる視距離Lを用いて仮想画面幅W´を算出し、その仮想画面幅W´と表示条件情報に含まれる画面幅Wを用いて画像倍率aを算出する。また、実空間奥行き算出部67は、視差マップが表す画素単位の視差に表示装置51のドットピッチを乗算し、長さ単位の視差Hを得る。
そして、実空間奥行き算出部67は、表示距離L、表示条件情報に含まれる視距離Lおよび両眼間隔d、並びに算出されたカメラ間隔比a、画像倍率a、光軸交点までの距離L、および視差Hを用いて式(1)を演算する。その結果、実空間奥行き算出部67は撮影距離Lを得る。実空間奥行き算出部67は、撮影距離Lを視差制御部68に供給する。
視差制御部68は、視差検出部63からの視差マップ、表示条件保持部64からの表示条件情報、撮影条件取得部66からの撮影条件情報、および実空間奥行き算出部67からの撮影距離Lに基づいて、表示距離Lが撮影距離Lと同一になるための視差Hの補正量を画素単位で求める。
具体的には、視差制御部68は、実空間奥行き算出部67と同様に、撮影条件情報および表示条件情報を用いてカメラ間隔比a、画像倍率a、および光軸交点までの距離Lを算出する。また、視差制御部68は、表示距離Lを実空間奥行き算出部67からの撮影距離Lにする。そして、視差制御部68は、その表示距離L、実空間奥行き算出部67からの撮影距離L、表示条件情報に含まれる視距離Lおよび両眼間隔d、並びに算出されたカメラ間隔比a、画像倍率a、および光軸交点までの距離Lを用いて式(1)を演算する。その結果、視差制御部68は、表示距離Lが撮影距離Lと同一になるための視差Hを得る。そして、視差制御部68は、その長さ単位の視差Hから表示装置51のドットピッチを除算した結果得られる画素単位の視差Hと視差マップが表す画素単位の視差Hの差分を、画素単位の視差Hの補正量とする。
視差制御部68は、画素単位の視差Hの補正量に基づいて、画像取得部62から供給される3D画像データの視差Hを補正する。具体的には、視差制御部68は、視差Hの補正量だけ、左目用の画像データと右目用の画像データの表示位置の間隔をずらす。視差制御部68は、補正後の3D画像データを表示制御部69に供給する。
表示制御部69は、視差制御部68から供給される3D画像データに基づいて3D画像を表示装置51に表示させる。具体的には、表示制御部69は、3D画像データを構成する左目用の画像データに対応する左目用の画像と、右目用の画像データに対応する右目用の画像を交互に表示装置51に表示させる。このとき、ユーザは、例えば、左目用の画像と右目用の画像の切り替えに同期したシャッタ付き眼鏡を装着し、左目用の画像を左目だけで見て、右目用の画像を右目だけで見る。これにより、ユーザは3D画像を見ることができる。
[表示距離の算出方法の説明]
図8は、図7の表示奥行き算出部65における表示距離Lの算出方法を説明する図である。
図8に示すように、表示距離Lと視距離Lの差分と、表示距離Lの比は、視差Hと両眼距離dの比と同一である。従って、表示奥行き算出部65は、表示条件情報に含まれる視距離Lおよび両眼距離d、並びに視差検出部63からの視差マップが表す画素単位の視差に表示装置51のドットピッチを乗算した結果得られる長さ単位の視差Hを用いて式(2)を演算し、表示距離Lを算出する。
Figure 2011160347
[再生装置の処理の説明]
図9は、図7の再生装置50の画像処理を説明するフローチャートである。この再生装置50は、例えば、ユーザにより記録媒体13に記録されている3D画像データの再生が指令されたとき開始される。
ステップS11において、読出制御部61は、記録媒体13から3D画像データを読み出し、3D画像データを画像取得部62に供給する。
ステップS12において、画像取得部62は、読出制御部61から供給される3D画像データを取得し、視差検出部63と視差制御部68に供給する。
ステップS13において、視差検出部63は、画像取得部62から供給される3D画像データに基づいて、画素等の所定の単位ごとの視差を検出し、その視差を画素単位で表す視差マップを生成する。視差検出部63は、視差マップを表示奥行き算出部65、実空間奥行き算出部67、および視差制御部68に供給する。
ステップS14において、表示奥行き算出部65は、視差検出部63からの視差マップが表す視差に表示装置51のドットピッチを乗算した結果得られる長さ単位の視差Hと、表示条件保持部64からの表示条件情報に含まれる視距離Lおよび両眼距離dとを用いて式(2)の演算を行い、表示距離Lを算出する。表示奥行き算出部65は、算出された表示距離Lを実空間奥行き算出部67に供給する。
ステップS15において、読出制御部61は、ステップS11で読み出された3D画像データに対応付けて記録媒体13に記録されている撮影条件情報を読み出す。読出制御部61は、撮影条件情報を撮影条件取得部66に供給する。
ステップS16において、撮影条件取得部66は、読出制御部61から供給される撮影条件情報を取得し、実空間奥行き算出部67および視差制御部68に供給する。
ステップS17において、実空間奥行き算出部67は、視差検出部63からの視差マップ、表示条件保持部64からの表示条件情報、表示奥行き算出部65からの表示距離L、および撮影条件取得部66からの撮影条件情報を用いて式(1)を演算し、撮影距離L、即ち実空間における被写体の奥行き位置を算出する。そして、実空間奥行き算出部67は、撮影距離Lを視差制御部68に供給する。
ステップS18において、視差制御部68は、視差検出部63からの視差マップ、表示条件保持部64からの表示条件情報、撮影条件取得部66からの撮影条件情報、および実空間奥行き算出部67からの撮影距離Lに基づいて、表示距離Lが撮影距離Lと同一になるための視差Hの補正量を画素単位で求める。
ステップS19において、視差制御部68は、画素単位の視差Hの補正量に基づいて、画像取得部62から供給される3D画像データの視差Hを補正し、表示制御部69に供給する。
ステップS20において、表示制御部69は、視差制御部68から供給される補正後の3D画像データに基づいて3D画像を表示装置51に表示させ、処理を終了する。
以上のように、再生装置50は、記録媒体13から読み出された撮影条件情報と表示条件情報とに基づいて、その撮影条件情報に対応する3D画像データの視差を補正するので、画面幅Wが仮想画面幅W´と同一ではない場合であっても、より自然な3D画像を表示することができる。
特に、再生装置50は、表示距離Lが撮影距離Lと同一になるように3D画像データの視差を補正するので、実空間における被写体により近い自然な3D画像を表示することができる。
[再生システムの他の構成例]
図10は、図1の記録媒体13を再生する再生システムの他の構成例を示すブロック図である。
図10に示す構成のうち、図7の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図10の再生システム70の構成は、主に、図7の再生装置50の視差検出部63の代わりに視差検出部81を有する再生装置80が設けられている点が図7の構成と異なる。図10の再生装置80では、視差検出部81が、撮影条件情報に基づいて3D画像データを補正し、補正後の3D画像データに基づいて視差マップを生成する。
具体的には、視差検出部81には、撮影条件取得部66から撮影条件情報が供給される。視差検出部81は、その撮影条件に基づいて、画像取得部62から供給される3D画像データを補正する。この補正方法については、後述する図11を参照して詳細に説明する。視差検出部81は、補正後の3D画像データに基づいて、画素等の所定の単位ごとの視差を検出し、その視差を画素単位で表す視差マップを生成する。視差検出部81は、図7の視差検出部63と同様に、視差マップを表示奥行き算出部65、実空間奥行き算出部67、および視差制御部68に供給する。
[3D画像データの補正方法の説明]
図11は、図10の視差検出部81における3D画像データの補正方法について説明する図である。
図11に示すように、視差検出部81は、撮影条件情報に含まれる輻輳角γが0ではない場合、即ち3D画像が交差法で見られる場合、輻輳角γおよび画角αに基づいて、3D画像データを台形補正する。具体的には、視差検出部81は、輻輳角γおよび画角αに基づいて、3D画像データを構成する右目用画像データに対応する右目用画像91Aの、カメラ11の位置とカメラ12の位置を結ぶ直線に対する傾きが0になるように右目用画像91Aを補正し、右目用画像92Aとする。同様に、視差検出部81は、輻輳角γおよび画角αに基づいて、左目用画像データに対応する左目用画像91Bの、カメラ11の位置とカメラ12の位置を結ぶ直線に対する傾きが0になるように左目用画像91Bを補正し、左目用画像92Bとする。
このようにして台形補正が行われることにより、カメラ11の位置とカメラ12の位置を結ぶ直線に対する右目用画像92Aの傾きと左目用画像92Bの傾きが同一となり、右目用画像92Aと左目用画像92Bのマッチング精度が向上する。その結果、視差検出の精度が向上する。
[再生装置の処理の説明]
図12は、図10の再生装置80の画像処理を説明するフローチャートである。この再生装置80は、例えば、ユーザにより記録媒体13に記録されている3D画像データの再生が指令されたとき開始される。
ステップS30およびS31の処理は、図9のステップS11およびS12の処理と同様であり、ステップS32およびS33の処理は、図9のステップS15およびS16の処理と同様であるので、説明は省略する。
ステップS33の処理後、ステップS34において、視差検出部81は、撮影条件取得部66から供給される撮影条件情報に含まれる輻輳角γが0であるかどうかを判定する。ステップS34で輻輳角γが0ではないと判定された場合、ステップS35において、視差検出部81は、輻輳角γと画角αに基づいて、画像取得部62から供給される3D画像データを台形補正し、処理をステップS36に進める。
一方、ステップS34で輻輳角γが0であると判定された場合、ステップS35の処理はスキップされ、処理はステップS36に進む。
ステップS36において、視差検出部81は、ステップS35の処理で台形補正された3D画像データまたはステップS35の処理が行われなかった3D画像データに基づいて、画素等の所定の単位ごとの視差を検出し、その視差を画素単位で表す視差マップを生成する。そして、視差検出部81は、視差マップを表示奥行き算出部65、実空間奥行き算出部67、および視差制御部68に供給し、処理をステップS37に進める。
ステップS37乃至S41の処理は、図9のステップS14およびS17乃至S20の処理と同様であるので、説明は省略する。
<第2実施の形態>
図13は、本発明を適用した記録システムの第2実施の形態の構成例を示すブロック図である。
図13に示す構成のうち、図1の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図13の記録システム100の構成は、主に、カメラ11の代わりにカメラ101が設けられる点が図1の構成と異なる。図13の記録システム100では、カメラ101が、撮影条件情報として、カメラ間隔d、画角α、および輻輳角γのほか、撮影距離Lに関する情報(以下、撮影距離情報という)も記録装置10に入力し、その撮影条件情報が記録媒体102に記録される。
具体的には、カメラ101は、図1のカメラ11と同様に、カメラ12と所定の間隔だけ離れた位置に配置される。カメラ101は、カメラ11と同様に、カメラ12と同期し、カメラ12と同時に、カメラ12と同一の撮影条件で撮影を行う。カメラ101は、カメラ11と同様に、その結果得られる画像データを左目用の画像データとして記録装置10に供給する。また、カメラ101は、カメラ間隔d、画角α、輻輳角γ、および撮影距離情報を撮影条件情報として記録装置10に供給する。
なお、撮影距離情報としては、カメラ101における焦点距離またはズーム率の少なくとも一方などがある。また、ここでは、撮影条件情報がカメラ101から記録装置10に入力されるようにしているが、撮影条件情報がカメラ12から記録装置10に入力される場合には、撮影距離情報として、カメラ12における焦点距離またはズーム率の少なくとも一方などが用いられる。なお、ここでは、焦点距離は、長さを表す単位(例えば、ミリメートル)で表されるものとする。
[再生システムの構成例]
図14は、図13の記録媒体102を再生する再生システムの構成例を示すブロック図である。
図14に示す構成のうち、図7の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図14の再生システム120の構成は、主に、再生装置50の代わりに再生装置121が設けられる点が図7の構成と異なる。図14の再生システム120では、再生装置121において撮影距離情報を用いて撮影距離Lが求められ、その撮影距離Lと表示距離Lが同一となるように、3D画像データの視差Hが補正される。
具体的には、再生装置121は、読出制御部61、画像取得部62、視差検出部63、表示条件保持部64、撮影条件取得部66、視差制御部68、表示制御部69、および実空間奥行き算出部131により構成される。
再生装置121の実空間奥行き算出部131は、撮影条件取得部66から供給される撮影条件に含まれる撮影距離情報を用いて撮影距離Lを算出し、視差制御部68に供給する。
[再生装置の処理の説明]
図15は、図14の再生装置121の画像処理を説明するフローチャートである。この再生装置121は、例えば、ユーザにより記録媒体102に記録されている3D画像データの再生が指令されたとき開始される。
図15のステップS51乃至S54の処理は、図9のステップS11、S12,S15、およびS16の処理と同様であるので説明は省略する。
ステップS54の処理後、ステップS55において、実空間奥行き算出部131は、撮影条件取得部66から供給される撮影条件に含まれる撮影距離情報を用いて撮影距離Lを算出し、視差制御部68に供給する。そして処理はステップS56に進む。
ステップS56乃至S58の処理は、図9のステップS18乃至S20の処理と同様であるので説明は省略する。
以上のように、記録媒体102には、撮影条件情報として撮影距離情報が記録されるので、再生装置121は、撮影距離Lを算出するために表示距離Lを算出する必要がなく、容易に撮影距離Lを求めることができる。
なお、第1実施の形態および第2実施の形態では、撮影条件情報に画角αが含まれたが、画角αの代わりに、長さ単位(例えば、ミリメートル)で表される焦点距離Lとカメラ11(12,101)のフレームサイズSが含まれるようにしてもよい。この場合、再生装置50(121)は、以下の式(3)の関係に基づいて焦点距離LとフレームサイズSから画角αを求め、上述した撮影条件情報に含まれる画角αと同様に用いる。
Figure 2011160347
なお、フレームサイズSは、長さ単位ではなく、画素単位で表されるようにしてもよい。即ち、フレームサイズSは、カメラ11(12,101)のセンサのピクセル数であってもよい。この場合、撮影条件情報にはさらにカメラ11(12,101)のセンサのドットピッチが含まれ、画素単位のフレームサイズSとカメラ11(12,101)のセンサのドットピッチを乗算した値が、式(3)におけるフレームサイズSとして用いられる。
<第3実施の形態>
図16は、本発明を適用した記録システムの第3実施の形態の構成例を示すブロック図である。
図16に示す構成のうち、図1の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図16の記録システム150の構成は、主に、カメラ11の代わりにカメラ151が設けられる点が図1の構成と異なる。図16の記録システム150では、カメラ101が、撮影条件情報として、カメラ間隔d、および輻輳角γを記録装置10に入力し、その撮影条件情報が記録媒体152に記録される。
具体的には、カメラ151は、図1のカメラ11と同様に、カメラ12と所定の間隔だけ離れた位置に配置される。カメラ151は、カメラ11と同様に、カメラ12と同期し、カメラ12と同時に、カメラ12と同一の撮影条件で撮影を行う。カメラ151は、カメラ11と同様に、その結果得られる画像データを左目用画像のデータとして記録装置10に供給する。また、カメラ101は、カメラ間隔d、および輻輳角γを撮影条件情報として記録装置10に供給する。
[再生システムの構成例]
図17は、図16の記録媒体152を再生する再生システムの構成例を示すブロック図である。
図17に示す構成のうち、図7の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図17の再生システム170の構成は、主に、再生装置50の代わりに再生装置171が設けられる点が図7の構成と異なる。図17の再生システム170では、撮影条件情報として記録媒体152に記録されているカメラ間隔dと両眼間隔dの差分に対応する画素分だけ3D画像データの視差Hを補正する。
具体的には、再生装置121は、読出制御部61、画像取得部62、撮影条件取得部66、表示制御部69、表示条件保持部181、および視差制御部182により構成される。
再生装置121の表示条件保持部181は、表示条件情報として、両眼間隔dと表示装置51のドットピッチを保持している。表示条件保持部181は、保持している表示条件情報を視差制御部182に供給する。
視差制御部182は、表示条件保持部181からの表示条件情報と、撮影条件取得部66からの撮影条件情報に基づいて、画像取得部62から供給される3D画像データの視差Hの補正量を画素単位で求める。
具体的には、視差制御部182は、撮影条件情報に含まれる輻輳角γが0である場合、即ち3D画像が平行法で見られる場合、表示条件情報に含まれる両眼間隔dから撮影条件情報に含まれるカメラ間隔dを減算して差分(d−d)を求め、その差分(d−d)から表示条件情報に含まれる表示装置51のドットピッチを除算する。そして、視差制御部182は、その結果得られる画素数を視差Hの補正量とする。
また、視差制御部182は、画素単位の視差Hの補正量に基づいて、画像取得部62から供給される3D画像データの視差Hを補正する。視差制御部68は、補正後の3D画像データを表示制御部69に供給する。
[視差の補正の説明]
図18は、図17の視差制御部182による視差の補正を説明する図である。
図18に示すように、輻輳角γが0である場合、視差制御部182は、視差Hの補正量である差分(d−d)に対応する画素数分だけ、左目用の画像データと右目用の画像データの表示位置の間隔をずらす。
これにより、より自然な3D画像を表示することができる。これに対して、視差Hの補正が行われない場合、3D画像全体の表示距離Lが撮影距離Lに比べて短くなったり、長くなったりする。即ち、3D画像全体が不自然に飛び出したり、引っ込んだりする。
[再生装置の処理の説明]
図19は、図17の再生装置171の画像処理を説明するフローチャートである。この再生装置171は、例えば、ユーザにより記録媒体152に記録されている3D画像データの再生が指令されたとき開始される。
図19のステップS71乃至S74の処理は、図9のステップS11、S12,S15、およびS16の処理と同様であるので説明は省略する。
ステップS74の処理後、ステップS75において、視差制御部182は、表示条件保持部181からの表示条件情報と撮影条件取得部66からの撮影条件情報に基づいて、カメラ間隔dと両眼間隔dの差分(d−d)に対応する画素数を視差Hの補正量として求める。
ステップS76およびS77の処理は、図9のステップS19およびS20の処理と同様であるので、説明は省略する。
なお、本実施の形態では、カメラ間隔dが長さ単位で表されているものとしたが、カメラ間隔dは画素単位で表されるようにしてもよい。この場合、例えば、撮影条件情報には、さらにカメラ11(12,101,151)のセンサのドットピッチが含まれ、画素単位のカメラ間隔dにカメラセンサのドットピッチを乗算したものが、上述した説明におけるカメラ間隔dとして用いられる。例えば、第3の実施の形態では、視差Hの補正量が、両眼間隔dから、画素単位のカメラ間隔dとカメラセンサのドットピッチを乗算したものを減算して長さ単位の差分を求め、その差分から表示装置51のドットピッチを除算することにより求められる。
なお、本発明は、記録媒体を再生する再生装置だけでなく、記録媒体から再生された3D画像データと撮影条件情報を受信する画像処理装置にも適用することができる。
[本発明を適用したコンピュータの説明]
次に、上述した記録装置および再生装置の一連の処理は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。
そこで、図20は、上述した記録装置および再生装置の一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示している。
プログラムは、コンピュータに内蔵されている記録媒体としての記憶部208やROM(Read Only Memory)202に予め記録しておくことができる。
あるいはまた、プログラムは、リムーバブルメディア211に格納(記録)しておくことができる。このようなリムーバブルメディア211は、いわゆるパッケージソフトウエアとして提供することができる。ここで、リムーバブルメディア211としては、例えば、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリ等がある。
なお、プログラムは、上述したようなリムーバブルメディア211からドライブ210を介してコンピュータにインストールする他、通信網や放送網を介して、コンピュータにダウンロードし、内蔵する記憶部208にインストールすることができる。すなわち、プログラムは、例えば、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送することができる。
コンピュータは、CPU(Central Processing Unit)201を内蔵しており、CPU201には、バス204を介して、入出力インタフェース205が接続されている。
CPU201は、入出力インタフェース205を介して、ユーザによって、入力部206が操作等されることにより指令が入力されると、それに従って、ROM202に格納されているプログラムを実行する。あるいは、CPU201は、記憶部208に格納されたプログラムを、RAM(Random Access Memory)203にロードして実行する。
これにより、CPU201は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU201は、その処理結果を、必要に応じて、例えば、入出力インタフェース205を介して、出力部207から出力、あるいは、通信部209から送信、さらには、記憶部208に記録等させる。
なお、入力部206は、キーボードや、マウス、マイク等で構成される。また、出力部207は、LCD(Liquid Crystal Display)やスピーカ等で構成される。
ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。
また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。
さらに、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
また、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
10 記録装置, 13 記録媒体, 21 画像取得部, 22 撮影条件取得部, 50 再生装置, 62 画像取得部, 66 撮影条件取得部, 63 視差検出部, 65 表示奥行き算出部, 67 実空間奥行き算出部, 68 視差制御部, 69 表示制御部, 80 再生装置, 81 視差検出部, 102 記録媒体, 121 再生装置, 131 実空間奥行き算出部, 152 記録媒体, 171 再生装置, 182 視差制御部

Claims (15)

  1. 3D画像データを取得する画像取得手段と、
    前記3D画像データの撮影時の撮影条件を表す撮影条件情報を取得する撮影条件取得手段と、
    前記3D画像データと前記撮影条件情報とを対応付けて記録媒体に記録させる記録制御手段と
    を備える記録装置。
  2. 前記撮影条件情報は、
    前記3D画像データのうちの左目用の画像データを撮影する左目用撮影装置と、前記3D画像データのうちの右目用の画像データを撮影する右目用撮影装置との間隔である撮影装置間隔と、
    前記左目用撮影装置および前記右目用撮影装置の画角と、
    前記左目用撮影装置の光軸と前記右目用撮影装置の光軸の交点を通る、前記左目用撮影装置の位置と前記右目用撮影装置の位置を結ぶ直線への垂線と、前記左目用撮影装置または前記右目用撮影装置の光軸とのなす角である輻輳角と
    を含む
    請求項1に記載の記録装置。
  3. 前記撮影条件情報は、さらに、被写体と、前記左目用撮影装置の位置と前記右目用撮影装置の位置を結ぶ直線との距離である撮影距離に関する情報を含む
    請求項2に記載の記録装置。
  4. 前記撮影距離に関する情報は、前記左目用撮影装置または前記右目用撮影装置における焦点距離、もしくは、前記左目用撮影装置または前記右目用撮影装置におけるズーム率の少なくとも一方である
    請求項3に記載の記録装置。
  5. 前記撮影条件情報は、
    前記3D画像データのうちの左目用の画像データを撮影する左目用撮影装置と、前記3D画像データのうちの右目用の画像データを撮影する右目用撮影装置との間隔である撮影装置間隔と、

    前記左目用撮影装置の光軸と前記右目用撮影装置の光軸の交点を通る、前記左目用撮影装置の位置と前記右目用撮影装置の位置を結ぶ直線への垂線と、前記左目用撮影装置または前記右目用撮影装置の光軸とのなす角である輻輳角と
    を含む
    請求項1に記載の記録装置。
  6. 記録装置が、
    3D画像データを取得する画像取得ステップと、
    前記3D画像データの撮影時の撮影条件を表す撮影条件情報を取得する撮影条件取得ステップと、
    前記3D画像データと前記撮影条件情報とを対応付けて記録媒体に記録させる記録制御ステップと
    を含む記録方法。
  7. コンピュータに、
    3D画像データを取得する画像取得ステップと、
    前記3D画像データの撮影時の撮影条件を表す撮影条件情報を取得する撮影条件取得ステップと、
    前記3D画像データと前記撮影条件情報とを対応付けて記録媒体に記録させる記録制御ステップと
    を含む処理を実行させるためのプログラム。
  8. 3D画像データと前記3D画像データの撮影時の撮影条件を表す撮影条件情報が対応付けて記録されている記録媒体から読み出された前記3D画像データと前記撮影条件情報を取得する取得手段と、
    前記3D画像データの表示条件を表す表示条件情報と、前記撮影条件情報とに基づいて、前記3D画像データの視差を補正する視差制御手段と、
    前記視差制御手段により視差が補正された前記3D画像データに基づいて、3D画像を表示部に表示させる表示制御手段と
    を備える画像処理装置。
  9. 前記3D画像データの視差を検出する視差検出手段と、
    前記視差検出手段により検出された前記視差と前記表示条件情報を用いて、前記取得手段により取得された前記3D画像データに対応する3D画像を表示した際の、視聴者からその3D画像までの前記表示部の表示面に垂直な方向の距離である表示距離を算出する表示距離算出手段と、
    前記視差検出手段により検出された前記視差、前記表示距離、前記表示条件情報、および前記撮影条件情報を用いて、前記3D画像データを撮影した際の、被写体と、前記3D画像データのうちの左目用の画像データを撮影する左目用撮影装置の位置と前記3D画像データのうちの右目用の画像データを撮影する右目用撮影装置の位置を結ぶ直線との距離である撮影距離を算出する撮影距離算出手段と
    をさらに備え、
    前記撮影条件情報は、
    前記左目用撮影装置と前記右目用撮影装置との間隔である撮影装置間隔と、
    前記左目用撮影装置および前記右目用撮影装置の画角と、
    前記左目用撮影装置の光軸と前記右目用撮影装置の光軸の交点を通る、前記左目用撮影装置の位置と前記右目用撮影装置の位置を結ぶ直線への垂線と、前記左目用撮影装置または前記右目用撮影装置の光軸とのなす角である輻輳角と
    を含み、
    前記表示条件情報は、
    前記視聴者の両眼間隔と、
    前記視聴者から前記表示面までの前記表示面に垂直な方向の距離である視距離と、
    前記表示面の前記視差の方向の幅である画面幅と
    を含み、
    前記視差制御手段は、視差補正後の前記3D画像データの表示距離が前記撮影距離と同一になるように、前記3D画像データの視差を補正する
    請求項8に記載の画像処理装置。
  10. 前記視差検出手段は、前記輻輳角が0ではない場合、前記輻輳角と前記画角に基づいて前記3D画像データを台形補正し、台形補正後の前記3D画像データの視差を検出する
    請求項9に記載の画像処理装置。
  11. 前記撮影条件情報を用いて、前記3D画像データを撮影した際の、被写体と、前記3D画像データのうちの左目用の画像データを撮影する左目用撮影装置の位置と前記3D画像データのうちの右目用の画像データを撮影する右目用撮影装置の位置を結ぶ直線との距離である撮影距離を算出する撮影距離算出手段
    をさらに備え、
    前記撮影条件情報は、
    前記左目用撮影装置と前記右目用撮影装置との間隔である撮影装置間隔と、
    前記左目用撮影装置および前記右目用撮影装置の画角と、
    前記左目用撮影装置の光軸と前記右目用撮影装置の光軸の交点を通る、前記左目用撮影装置の位置と前記右目用撮影装置の位置を結ぶ直線への垂線と、前記左目用撮影装置または前記右目用撮影装置の光軸とのなす角である輻輳角と、
    前記撮影距離に関する情報と
    を含み、
    前記表示条件情報は、
    前記視聴者の両眼間隔と、
    前記視聴者から前記表示部の表示面までの前記表示面に垂直な方向の距離である視距離と、
    前記表示面の前記視差の方向の幅である画面幅と
    を含み、
    前記撮影距離算出手段は、前記撮影距離に関する情報に基づいて前記撮影距離を算出し、
    前記視差制御手段は、視差補正後の前記3D画像データに対応する3D画像を表示した際の、視聴者からその3D画像までの前記表示面に垂直な方向の距離である表示距離が前記撮影距離と同一になるように、前記3D画像データの視差を補正する
    請求項8に記載の画像処理装置。
  12. 前記撮影距離に関する情報は、前記左目用撮影装置または前記右目用撮影装置における焦点距離、もしくは、前記左目用撮影装置または前記右目用撮影装置におけるズーム率の少なくとも一方である
    請求項11に記載の画像処理装置。
  13. 前記撮影条件情報は、
    前記左目用撮影装置と前記右目用撮影装置との間隔である撮影装置間隔と、
    前記左目用撮影装置の光軸と前記右目用撮影装置の光軸の交点を通る、前記左目用撮影装置の位置と前記右目用撮影装置の位置を結ぶ直線への垂線と、前記左目用撮影装置または前記右目用撮影装置の光軸とのなす角である輻輳角と
    を含み、
    前記表示条件情報は、
    前記視聴者の両眼間隔と、
    前記表示部のドットピッチと
    を含み、
    前記視差制御手段は、前記輻輳角が0である場合、前記両眼間隔から前記撮影装置間隔を減算して前記ドットピッチを除算し、その結果得られる画素数分だけ前記3D画像データの視差を補正する
    請求項8に記載の画像処理装置。
  14. 画像処理装置が、
    3D画像データと前記3D画像データの撮影時の撮影条件を表す撮影条件情報が対応付けて記録されている記録媒体から読み出された前記3D画像データと前記撮影条件情報を取得する取得ステップと、
    前記3D画像データの表示条件を表す表示条件情報と、前記撮影条件情報とに基づいて、前記3D画像データの視差を補正する視差制御ステップと、
    前記視差制御ステップの処理により視差が補正された前記3D画像データに基づいて、3D画像を表示部に表示させる表示制御ステップと
    を含む画像処理方法。
  15. コンピュータに、
    3D画像データと前記3D画像データの撮影時の撮影条件を表す撮影条件情報が対応付けて記録されている記録媒体から読み出された前記3D画像データと前記撮影条件情報を取得する取得ステップと、
    前記3D画像データの表示条件を表す表示条件情報と、前記撮影条件情報とに基づいて、前記3D画像データの視差を補正する視差制御ステップと、
    前記視差制御ステップの処理により視差が補正された前記3D画像データに基づいて、3D画像を表示部に表示させる表示制御ステップと
    ステップを含む処理を実行させるためのプログラム。
JP2010022372A 2010-02-03 2010-02-03 画像処理装置および画像処理方法、並びにプログラム Expired - Fee Related JP5446949B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010022372A JP5446949B2 (ja) 2010-02-03 2010-02-03 画像処理装置および画像処理方法、並びにプログラム
CN2011100327236A CN102164292A (zh) 2010-02-03 2011-01-27 记录装置和方法、图像处理装置和图像处理方法与程序
US13/015,563 US20110187834A1 (en) 2010-02-03 2011-01-27 Recording device and recording method, image processing device and image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010022372A JP5446949B2 (ja) 2010-02-03 2010-02-03 画像処理装置および画像処理方法、並びにプログラム

Publications (3)

Publication Number Publication Date
JP2011160347A true JP2011160347A (ja) 2011-08-18
JP2011160347A5 JP2011160347A5 (ja) 2013-03-14
JP5446949B2 JP5446949B2 (ja) 2014-03-19

Family

ID=44341290

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010022372A Expired - Fee Related JP5446949B2 (ja) 2010-02-03 2010-02-03 画像処理装置および画像処理方法、並びにプログラム

Country Status (3)

Country Link
US (1) US20110187834A1 (ja)
JP (1) JP5446949B2 (ja)
CN (1) CN102164292A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013038781A1 (ja) * 2011-09-13 2013-03-21 シャープ株式会社 画像処理装置、画像撮像装置および画像表示装置
CN103686118A (zh) * 2012-09-19 2014-03-26 珠海扬智电子科技有限公司 影像深度调整方法与装置

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130024504A (ko) * 2011-08-31 2013-03-08 삼성전기주식회사 삼차원 카메라 시스템 및 주시각 조정 방법
JP5611469B2 (ja) * 2011-09-09 2014-10-22 富士フイルム株式会社 立体撮像装置および方法
JP2013172292A (ja) * 2012-02-21 2013-09-02 Sony Corp 撮像装置及び撮像素子アレイ
CN105812653B (zh) * 2015-01-16 2019-05-10 奥林巴斯株式会社 摄像装置和摄像方法
KR102336447B1 (ko) * 2015-07-07 2021-12-07 삼성전자주식회사 촬영 장치 및 그 동작 방법
WO2017169014A1 (ja) * 2016-03-30 2017-10-05 ソニー・オリンパスメディカルソリューションズ株式会社 医療用立体観察装置、医療用立体観察方法、及びプログラム
US10885676B2 (en) * 2016-12-27 2021-01-05 Samsung Electronics Co., Ltd. Method and apparatus for modifying display settings in virtual/augmented reality
WO2019113966A1 (zh) * 2017-12-15 2019-06-20 深圳市道通智能航空技术有限公司 一种避障方法、装置和无人机

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0795622A (ja) * 1993-09-21 1995-04-07 Olympus Optical Co Ltd 立体画像撮影装置、立体画像表示装置および立体画像記録および/または再生装置
JPH089421A (ja) * 1994-06-20 1996-01-12 Sanyo Electric Co Ltd 立体映像装置
JP2003209858A (ja) * 2002-01-17 2003-07-25 Canon Inc 立体画像生成方法及び記録媒体
JP2005073013A (ja) * 2003-08-26 2005-03-17 Sharp Corp 立体画像表示装置、立体画像表示方法、その方法をコンピュータに実行させるためのプログラム及びそのプログラムを記録した記録媒体

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6762794B1 (en) * 1997-12-03 2004-07-13 Canon Kabushiki Kaisha Image pick-up apparatus for stereoscope
JP5362189B2 (ja) * 2006-05-10 2013-12-11 株式会社トプコン 画像処理装置及びその処理方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0795622A (ja) * 1993-09-21 1995-04-07 Olympus Optical Co Ltd 立体画像撮影装置、立体画像表示装置および立体画像記録および/または再生装置
JPH089421A (ja) * 1994-06-20 1996-01-12 Sanyo Electric Co Ltd 立体映像装置
JP2003209858A (ja) * 2002-01-17 2003-07-25 Canon Inc 立体画像生成方法及び記録媒体
JP2005073013A (ja) * 2003-08-26 2005-03-17 Sharp Corp 立体画像表示装置、立体画像表示方法、その方法をコンピュータに実行させるためのプログラム及びそのプログラムを記録した記録媒体

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013038781A1 (ja) * 2011-09-13 2013-03-21 シャープ株式会社 画像処理装置、画像撮像装置および画像表示装置
JP2013078101A (ja) * 2011-09-13 2013-04-25 Sharp Corp 画像処理装置、画像撮像装置および画像表示装置
CN103686118A (zh) * 2012-09-19 2014-03-26 珠海扬智电子科技有限公司 影像深度调整方法与装置

Also Published As

Publication number Publication date
JP5446949B2 (ja) 2014-03-19
CN102164292A (zh) 2011-08-24
US20110187834A1 (en) 2011-08-04

Similar Documents

Publication Publication Date Title
JP5446949B2 (ja) 画像処理装置および画像処理方法、並びにプログラム
JP5418127B2 (ja) 画像処理装置および方法、並びにプログラム
JP5638974B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2019511024A (ja) パノラマフレームを生成するプロセスにおけるフレームの適応ステッチング
WO2011043249A1 (ja) 画像処理装置および方法、並びにプログラム
WO2011043248A1 (ja) 画像処理装置および方法、並びにプログラム
JP2011010128A (ja) 再生装置、撮像装置、及びその制御方法
JP3857988B2 (ja) 立体画像処理方法および装置
JP5420075B2 (ja) 立体画像再生装置、その視差調整方法、視差調整プログラム、及び撮影装置
NO340415B1 (no) Anordning og program for generering av stereografisk billedfremvisning
JP2011176541A (ja) 立体映像処理装置および方法、並びにプログラム
JP2011160347A5 (ja)
JP5374641B2 (ja) 3d映像記録装置及び3d映像信号処理装置
JP2011171813A (ja) 撮像装置及び立体画像表示方法
US9161018B2 (en) Methods and systems for synthesizing stereoscopic images
KR101615152B1 (ko) 화상 처리 장치 및 방법, 화상 재생 장치 및 방법, 그리고 프로그램
JP5931062B2 (ja) 立体画像処理装置、立体画像処理方法、及びプログラム
JP2013247543A (ja) 撮像装置、表示装置、および画像処理方法、並びにプログラム
WO2012014009A1 (en) Method for generating multi-view images from single image
TW201327019A (zh) 利用多畫面三維相機拍攝具視角彈性視點合成全景三維影像的技術
WO2012086298A1 (ja) 撮影装置、方法及びプログラム
KR20150031662A (ko) 동영상 장치 및 그것의 동영상 생성 및 재생 방법
JP2012100015A (ja) 三次元映像再生装置
JP2012094997A (ja) 撮影機器
JP5644862B2 (ja) 立体視動画像生成装置、立体視動画像生成方法、立体視動画像生成プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130125

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131216

LAPS Cancellation because of no payment of annual fees