JP2011004203A - 画像処理装置、および画像処理方法、並びにプログラム - Google Patents

画像処理装置、および画像処理方法、並びにプログラム Download PDF

Info

Publication number
JP2011004203A
JP2011004203A JP2009145987A JP2009145987A JP2011004203A JP 2011004203 A JP2011004203 A JP 2011004203A JP 2009145987 A JP2009145987 A JP 2009145987A JP 2009145987 A JP2009145987 A JP 2009145987A JP 2011004203 A JP2011004203 A JP 2011004203A
Authority
JP
Japan
Prior art keywords
image
display
image display
allowable
executed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009145987A
Other languages
English (en)
Other versions
JP5299111B2 (ja
Inventor
Tatsu Kuwahara
立 桑原
Kazuya Yokoyama
和也 横山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009145987A priority Critical patent/JP5299111B2/ja
Priority to EP10158703A priority patent/EP2265031B1/en
Priority to AT10158703T priority patent/ATE536704T1/de
Priority to US12/759,111 priority patent/US8451321B2/en
Priority to CN2010101815482A priority patent/CN101931824B/zh
Publication of JP2011004203A publication Critical patent/JP2011004203A/ja
Application granted granted Critical
Publication of JP5299111B2 publication Critical patent/JP5299111B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • H04N13/359Switching between monoscopic and stereoscopic modes

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】伝送遅延等による同期したLR画像の取得が出来ない場合の3D/2D表示切り換えを行う構成を提供する。
【解決手段】L画像(左眼用画像)とR画像(右眼用画像)を受信し、三次元画像(3D)画像表示を行う画像処理装置において、同一撮影時間のLR画像ペアが取得できない場合、異なる撮影時間のLR画像を適用した三次元画像表示において発生するオブジェクト結像位置誤差が予め既定した許容誤差以下であるか否かを判定し、許容誤差以下である場合のみ異なる撮影時間のLR画像を適用した三次元画像表示を実行し、許容誤差以下でない場合は二次元画像表示を実行する。本構成により奥行き感の違和感を発生させない三次元画像表示が可能となる。
【選択図】図1

Description

本発明は、画像処理装置、および画像処理方法、並びにプログラムに関する。さらに詳細には、三次元(3D:3Dimension)画像表示に適用する画像を撮影する複数のカメラの撮影画像を、ネットワークを介して受信して表示部に表示する画像処理装置、および画像処理方法、並びにプログラムに関する。
近年、三次元画像、すなわち、3D(3−Dimension)画像の表示システムの開発。利用が盛んに行われている。3D画像を表示する代表的な方式には、パッシブ・ステレオ方式と、アクティブ・ステレオ方式がある。
パッシブ・ステレオ方式は、例えば偏光フィルタを用いて特定の方向に振動する光のみを通過させて左右の眼用の画像を分離して左眼用と右眼用の画像を観察者の左右の眼に観察させる方式である。画像表示装置の表示画像を構成する出力光が観察者の眼へ到達するまでに、光は偏光フィルタを介して左眼用と右眼用に分離される。例えば、観察者は偏光眼鏡を装着することにより、左眼用の画像光を右眼に入力せず左眼のみに入力し、右眼用の画像光を左眼に入力せず右眼のみに入力するようにする。このようにして、左眼用と右眼用の画像の各々を観察者の左右の眼に入力させて立体視を実現する方式である。
一方、アクティブ・ステレオ方式は、例えば時分割方式と呼ばれ、画像表示装置のフレーム切り替えタイミングに同期したシャッタ式眼鏡を用いて、左右の画像の分離を実現する方式である。画像表示装置は左右の眼用の画像をフレーム毎に切り替えて表示し、観察者が装着したシャッタ式眼鏡は左眼用画像を表示している時は右眼を隠し、右眼用画像を表示している時は左眼を隠すという仕組みである。
上述のような方式によって3D画像の表示を行うためには、複数の異なる視点からの撮影画像が必要である。例えば左眼用画像を撮影するカメラLと、右眼用画像を撮影するカメラRの撮影画像である。
例えばこれらの2つのカメラの撮影画像をネットワークを介して転送し、遠隔地のPCやTV等の画像処理装置で受信して表示する場合、カメラLとカメラRの同じ時間に撮影された2つの画像を確実に受信して表示データを生成する処理が必要となる。なお、このようなシステムについては、例えば特許文献1(特開2005−94073号公報)、特許文献2(特開2006−140618号公報)、特許文献3(特表平11-504167号公報)などに記載がある。
しかし、ネットワーク通信においてデータ転送パケットの消失や遅延を完全に防ぐことは困難である。例えば時間t1に撮影されたカメラLの画像は受信しているが、同じ時間t1に撮影されたカメラRの画像が受信されていないといった事態が発生することがある。このような場合データ受信側では正しい3D画像が表示できない。
例えば、データ受信と表示を行う装置側において、カメラLの画像t,t+1・・・の画像が受信できているにもかかわらず、カメラRの画像については、時間t−1の撮影画像までしか受信できていない場合、画像を時間t−1の画像で停止状態にせざる得ない。
あるいは、カメラLの撮影画像については、時間t,t+1・・・の時間推移に従った正しい画像を表示し、カメラRの撮影画像については時間t−1の画像のまま表示するといった処理である。しかし、このようなLR画像の非同期画像の表示処理を行うと、3D画像としての正しい立体感が失われることになる。
特開2005−94073号公報 特開2006−140618号公報 特表平11-504167号公報
本発明は、例えば上記問題点に鑑みてなされたものであり、三次元画像を構成する複数視点からの画像、例えば左眼用画像と右眼用画像をネットワークを介して転送し、受信側において3D画像の表示を行うシステムにおいて、複数視点画像の取得状況や画像状況に応じて三次元(3D)画像と二次元(2D)画像を切り替えて表示する画像処理装置、および画像処理方法、並びにプログラムを提供するものである。
本発明の第1の側面は、
三次元画像表示に適用するL画像(左眼用画像)とR画像(右眼用画像)を含む通信データを受信する受信部と、
前記通信データから撮影時間を含む属性情報を取得する属性情報取得部と、
前記通信データに含まれる画像および属性情報の解析を実行して、解析結果に基づいて、三次元画像表示と二次元画像表示の切り換え処理を行う出力制御部を有し、
前記出力制御部は、
同一撮影時間のL画像とR画像のペアが取得済みである場合は三次元画像表示を実行し、
同一撮影時間のL画像とR画像のペアが取得済みでない場合は、異なる撮影時間のLR画像を適用した三次元画像表示において発生するオブジェクト結像位置誤差が、予め既定したオブジェクト結像位置許容誤差以下であるか否かを判定し、許容誤差以下である場合は、異なる撮影時間のLR画像を適用した三次元画像表示を実行し、許容誤差以下でない場合は、三次元画像表示を停止して二次元画像表示を実行する画像処理装置にある。
さらに、本発明の画像処理装置の一実施態様において、前記出力制御部は、前記異なる撮影時間のLR画像に含まれる移動オブジェクトから、最大移動速度を持つ移動オブジェクトのフレーム間の動きベクトルVを算出し、該動きベクトルVと、3D画像の表示面における両眼許容視差ずれ量δWsを適用して、許容撮影時間差(δT)を算出し、前記異なる撮影時間のLR画像の撮影時間差が前記許容撮影時間差(δT)以下である場合に、前記異なる撮影時間のLR画像を適用した三次元画像表示を実行し、前記許容撮影時間差(δT)以下でない場合は、三次元画像表示を停止して二次元画像表示を実行する。
さらに、本発明の画像処理装置の一実施態様において、前記出力制御部は、前記動きベクトルからオブシェクトの速度Vsを取得し、前記許容撮影時間差(δT)を、
δT=δWs/Vs
上記式に従って算出する処理を実行する。
さらに、本発明の画像処理装置の一実施態様において、前記出力制御部は、3D画像の表示面における両眼許容視差ずれ量δWsのx方向の両眼許容視差ずれ量(δWsx)とy方向の両眼許容視差ずれ量(δWsy)を取得し、前記フレーム間の動きベクトルVによって既定されるx方向の速度(Vsx)とy方向の速度(Vsy)を取得し、δWsx/Vsxと、δWsy/Vsyの各値中、より小さい値を前記許容撮影時間差(δT)として算出する処理を実行する。
さらに、本発明の画像処理装置の一実施態様において、前記出力制御部は、予め設定された許容撮影時間差(δT)を取得し、前記異なる撮影時間のLR画像の撮影時間差が前記許容撮影時間差(δT)以下である場合に、前記異なる撮影時間のLR画像を適用した三次元画像表示を実行し、前記許容撮影時間差(δT)以下でない場合は、三次元画像表示を停止して二次元画像表示を実行する。
さらに、本発明の画像処理装置の一実施態様において、前記出力制御部は、三次元画像表示を停止して二次元画像表示を実行する場合に、前記通信データに格納された属性情報中の優先度情報を参照し、優先度の高い画像を選択して二次元画像表示を実行する。
さらに、本発明の第2の側面は、
画像処理装置において実行する画像処理方法であり、
通信部が、三次元画像表示に適用するL画像(左眼用画像)とR画像(右眼用画像)を含む通信データを受信する受信ステップと、
属性情報取得部が、前記通信データから撮影時間を含む属性情報を取得する属性情報取得ステップと、
出力制御部が、前記通信データに含まれる画像および属性情報の解析を実行して、解析結果に基づいて、三次元画像表示と二次元画像表示の切り換え処理を行う出力制御ステップを有し、
前記出力制御ステップは、
同一撮影時間のL画像とR画像のペアが取得済みである場合は三次元画像表示を実行し、
同一撮影時間のL画像とR画像のペアが取得済みでない場合は、異なる撮影時間のLR画像を適用した三次元画像表示において発生するオブジェクト結像位置誤差が、予め既定したオブジェクト結像位置許容誤差以下であるか否かを判定し、許容誤差以下である場合は、異なる撮影時間のLR画像を適用した三次元画像表示を実行し、許容誤差以下でない場合は、三次元画像表示を停止して二次元画像表示を実行するステップである画像処理方法にある。
さらに、本発明の第3の側面は、
画像処理装置において画像処理を実行させるプログラムであり、
通信部に、三次元画像表示に適用するL画像(左眼用画像)とR画像(右眼用画像)を含む通信データを受信させる受信ステップと、
属性情報取得部に、前記通信データから撮影時間を含む属性情報を取得させる属性情報取得ステップと、
出力制御部に、前記通信データに含まれる画像および属性情報の解析を実行させて、解析結果に基づいて、三次元画像表示と二次元画像表示の切り換え処理を行わせる出力制御ステップを有し、
前記出力制御ステップは、
同一撮影時間のL画像とR画像のペアが取得済みである場合は三次元画像表示を実行し、
同一撮影時間のL画像とR画像のペアが取得済みでない場合は、異なる撮影時間のLR画像を適用した三次元画像表示において発生するオブジェクト結像位置誤差が、予め既定したオブジェクト結像位置許容誤差以下であるか否かを判定し、許容誤差以下である場合は、異なる撮影時間のLR画像を適用した三次元画像表示を実行し、許容誤差以下でない場合は、三次元画像表示を停止して二次元画像表示を実行するステップであるプログラムにある。
なお、本発明のプログラムは、例えば、様々なプログラム・コードを実行可能な画像処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、画像処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。
本発明のさらに他の目的、特徴や利点は、後述する本発明の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
本発明の一実施例によれば、L画像(左眼用画像)とR画像(右眼用画像)を含む通信データを受信し、受信データに基づいて三次元画像(3D)画像表示を行う画像処理装置において、同一撮影時間のL画像とR画像のペアが取得済みである場合は三次元画像表示を実行し、同一撮影時間のL画像とR画像のペアが取得済みでない場合は、異なる撮影時間のLR画像を適用した三次元画像表示において発生するオブジェクト結像位置誤差が、予め既定したオブジェクト結像位置許容誤差以下であるか否かを判定し、許容誤差以下である場合は異なる撮影時間のLR画像を適用した三次元画像表示を実行し、許容誤差以下でない場合は三次元画像表示を停止して二次元画像表示を実行する構成とした。本構成により、異なる撮影時間のLR画像ペアを用いた三次元画像表示においても奥行き感の違和感を発生させない画像とすることが可能となる。
本発明の画像処理装置を利用した処理の概要と画像処理装置の構成例について説明する図である。 本発明の一実施例において、カメラから画像処理装置に転送されるパケットの構成例について説明する図である。 本発明の一実施例に係る画像処理装置の構成例について説明する図である。 三次元(3D)画像の表示処理零について説明する図である。 撮影時間の同期したLR画像が取得できない場合の三次元(3D)画像表示処理例について説明する図である。 三次元(3D)画像表示におけるオブジェクトの見え方について説明する図である。 三次元(3D)画像表示において満足すべき条件について説明する図である。 三次元(3D)画像表示において、撮影時間が一致した同期画像表示と、撮影時間が不一致の画像を適用した場合の表示例について説明する図である。 本発明の一実施例における画像処理装置において、3D画像表示と2D画像表示のいずれを実行するかを判定する際に適用するパラメータについて説明する図である。 本発明の一実施例の画像処理装置における3D画像表示と2D画像表示のいずれを実行するかを判定する処理シーケンスを説明するフローチャートを示す図である。 本発明の一実施例の画像処理装置における3D画像表示と2D画像表示のいずれを実行するかを判定する処理シーケンス中の[δT]算出処理を説明するフローチャートを示す図である。 本発明の一実施例の画像処理装置における3D画像表示と2D画像表示のいずれを実行するかを判定する処理シーケンス中の[δWs]算出処理を説明するフローチャートを示す図である。
以下、図面を参照しながら本発明の画像処理装置、および画像処理方法、並びにプログラムの詳細について説明する。説明は、以下の項目に従って行う。
1.本発明の画像処理装置の構成と処理の概要について
2.3D画像の表示例と3D画像表示の条件について
3.本発明の画像処理装置の実行する処理の詳細について
[1.本発明の画像処理装置の構成と処理の概要について]
まず、図1以下を参照して本発明の画像処理装置の構成例と処理の概要について説明する。図1には、三次元画像(3D画像)を構成する複数視点の画像を撮影するカメラ101,102と、ネットワーク103、画像処理装置120を示している。
カメラL101は三次元画像(3D画像)を構成する左眼用画像を撮影し、カメラ102は右眼用画像を撮影する。撮影画像は画像データに対する属性情報とともにパケット化され、ネットワーク103を介して画像処理装置120に転送される。画像処理装置120はカメラL101、カメラR102から送信されるパケットを受信し、画像データを取得して表示部124に表示する。
画像処理装置120は、受信部121、パケット解析部122、出力制御部123、表示部124、制御部125、メモリ126を有する。
受信部121は、カメラL101、カメラR102から送信されるパケットを受信する。受信パケットは、パケット解析部122において解析され、画像データ、属性情報等が取り出される。属性情報には、たとえば各撮影画像フレームの撮影時間情報などが含まれる。
取り出されたデータは出力制御部123に転送され、カメラL101、カメラR102の撮影画像を利用して3D表示画像を表示部124に表示する。なお、本発明の画像処理装置120は、カメラL101、カメラR102の撮影画像の受信状況や画像内容の解析に基づいて、三次元(3D)画像の表示と二次元(2D)画像の表示を切り換える処理を行う。この処理の詳細については後述する。
制御部125は、受信部121、パケット解析部122、出力制御部123、表示部124の処理の統括的制御を実行する。例えばメモリ126に格納されたプログラムに従ってた制御を実行する。
なお、3D画像の表示方式としては、前述したように、パッシブ・ステレオ方式と、アクティブ・ステレオ方式がある。パッシブ・ステレオ方式は、例えば、偏光フィルタを用いて特定の方向に振動する光のみを通過させて左右の眼用の画像を分離して左眼用と右眼用の画像を観察者の左右の眼に観察させる方式である。
アクティブ・ステレオ方式は、例えば時分割方式と呼ばれ、画像表示装置のフレーム切り替えタイミングに同期したシャッタ式眼鏡を用いて、左右の画像の分離を実現する方式である。
本発明の画像処理装置120はパッシブ・ステレオ方式、アクティブ・ステレオ方式いずれの方式も適用可能である。本発明の画像処理装置120は、カメラL101、カメラR102から送信されるパケットから同一時刻に撮影された画像のペアを取得して上記いずれかの方式に従った3D画像の表示を行う。
しかし、ネットワーク103を介したパケット転送に際しては、所定の確率でパケットの消失や遅延が発生する。本発明の画像処理装置120は、この様なパケットの消失や遅延などの事態に対応する処理を実行する。具体的には、画像処理装置120の出力制御部123において、カメラL101、カメラR102の撮影画像の取得状況と画像内容を解析する。
例えば、カメラL101、カメラR102において同一時刻に撮影された画像ペアの受信が確認された場合は、画像ペアを利用した3D画像の表示を行う。また、カメラL101、カメラR102において同一時刻に撮影された画像ペアの一方が受信できていない状況が発生した場合、カメラL101、カメラR102の異なる撮影時間の画像を組み合わせて表示した場合に違和感のない3D画像の表示が可能か否かを判定する。
違和感のない3D画像の表示が可能な場合は時間差のあるLR画像を用いて3D画像の表示を行い、不可能と判定した場合は3D画像の表示を停止して、カメラL101、カメラR102いずれかの撮影画像を用いて2D画像としての表示を行う。
図2に、カメラL101、カメラR102の撮影した画像の転送に利用されるパケット構成例を示す。図2(a)に示すパケット構成は、カメラL101、およびカメラR102から出力されるパケット構成例を示している。カメラL101、およびカメラR102は同様の構成を持つパケットを設定して、宛先を画像処理装置120としてネットワーク103に出力する。
パケットは図2(a)に示すようにアドレス情報等を含むヘッダの後に転送用実データとしてのペイロードが設定された構成を持つ。ペイロードには複数の撮影画像フレームデータと、各画像フレームに対応する属性情報(SEI:Supplemental Enhancement Information)が含まれる。画像フレームデータは例えばMPEG符号化データとして格納される。
属性情報(SEI)には、図2(b)に示すように、カメラグループの識別子であるグループIDや、カメラLの撮影画像であるかカメラRの撮影画像であるかを示す画像種別(L/R画像)情報などからなる画像情報、撮影時間情報、伝送遅延時間許容量、優先度情報などが含まれる。
撮影時間情報は、カメラL101.カメラR102に共通の時刻情報である。例えばインターネットを介して取得される標準時間などの時間情報を各カメラが利用して各撮影画像フレームの撮影時間として設定する。
伝送遅延時間許容量は、例えば予め設定された時間、あるいはユーザの設定した時間情報であり、同一時刻に撮影された他方のカメラの撮影画像に対する遅延許容時間を示す情報である。
優先度情報は、画像処理装置120において、3D画像表示を停止して二次元(2D)画像表示を行う場合に、LR画像のどのカメラの画像を優先して利用するかを記録した情報である。
これらの情報を含む属性情報が各撮影画像フレームに対応付けて設定される。1つのパケットには複数の画像フレームと属性情報が格納される。
なお、図2には属性情報格納領域としてSEIを示しているが、属性情報の格納部は、図2に示すようなSEIフィールドに限らず、様々な設定が可能である。例えばパケットに任意のデータを格納可能なフィールド、例えばユーザデータフィールドなどを設定しこれらのフィールドに属性情報を格納する構成としてもよい。また画像データ格納パケットと別の属性情報格納パケットを利用する構成としてもよい。
次に、図3を参照して画像処理装置120の内部構成の詳細と処理について説明する。カメラL101とカメラR102から送信される撮影データを含むデータパケットは、画像処理装置120の受信部121において受信され、パケット解析部122に入力される。
パケット解析部122は、図3に示すようにデコード部201、属性情報取得部202を有する。デコード部201は、例えばMPEG符号化された画像データの復号処理を行い、復号結果を出力制御部123の受信情報検証部211に出力する。属性情報取得部202は、先に図2を参照して説明した画像フレーム対応の属性情報としてパケットに格納された画像種別(L/R画像)情報、撮影時間情報や伝送遅延時間許容量を取得して、これらを出力制御部123の受信情報検証部211に出力する。
出力制御部123の受信情報検証部211は、デコード部201から入力する画像情報と、属性情報取得部202から入力する属性情報、およびメモリ213に格納されたパラメータを利用したデータ処理を実行して3D画像の出力を行うか、2D画像の出力を行うかを決定する。
3D/2D切り替え制御部212は、受信情報検証部211の決定に従って、表示部124に対して3D画像の表示、または2D画像の表示を実行する。
すなわち、前述のように、カメラL101、カメラR102において同一時刻に撮影された画像ペアを受信している場合は3D画像の表示を行う。画像ペアの一方が受信できていない場合は、異なる撮影時間の画像を組み合わせて表示しても違和感のない3D画像の表示が可能であると判定した場合は、撮影時間差のあるLR画像を用いて3D画像の表示を行い、不可能と判定した場合は3D画像の表示を停止して、カメラL101、カメラR102いずれかの撮影画像を用いて2D画像としての表示を行う。例えば先に図2を参照して説明した属性情報中の優先度情報に従って画像を選択して2D画像表示を行う。
[2.3D画像の表示例と3D画像表示の条件について]
次に、3D画像の表示例と3D画像表示の条件について説明する。
まず、図4を参照して表示部124に表示する3D画像の例について説明する。図4には、以下の各方式の3D画像表示例を示している。
(1)アクティブ・ステレオ方式
(2)パッシブ・ステレオ方式
(1)アクティブ・ステレオ方式は、図4(1)に示すように、カメラLの撮影画像であるL画像とカメラRの撮影画像であるR画像を時系列に交互に表示し、観察者が左右の眼対応の液晶シャッタメガネを装着してL画像を左眼で観察しR画像を右眼で観察する方式である。
(2)パッシブ・ステレオ方式は、図に示すように、表示部に出力する1フレーム画像をL画像とR画像を交互に並べた画像とする。L画像とR画像は偏光画像であり、観察者の装着した偏光眼鏡により、L画像部分は左眼によって観察され、R画像部分は右眼によって観察される。
(1)アクティブ・ステレオ方式では、同一時間に撮影されたL画像とR画像を交互に出力する。また、(2)パッシブ・ステレオ方式では、同一時間に撮影されたL画像とR画像を用いて1フレーム画像を生成して出力する。
図4に示す例は、撮影時刻t01〜t03のLR画像が全て取得済みであり、これらの取得画像を用いれば、(1),(2)のいずれの方式でも正しい3D画像の表示、観察が可能となる。
しかし、L画像、R画像のいずれか一方の画像を格納したパケットの消失や遅延が発生すると、図4に示すような同一の撮影時間t01〜t03の各々のLR画像ペアを用いた表示処理が不可能となる場合がある。
具体例について、図5を参照して説明する。図5に示す例は、L画像については、時間t01〜t03の各撮影時間の画像を取得できているが、R画像については、時間t01の画像のみが取得され、時間t02,t03の撮影画像が取得できない場合の処理例を示している。
このような場合、(1),(2)のいずれの方式でも、例えば、撮影時間t01のL/R画像のペアを利用した3D画像表示までは問題なく行われるが、時間t02以降は、R画像が未取得であり、正常な3D画像の表示が出来なくなる。
この場合の処理例としては、例えば、
(a)撮影時間t01までの表示後、表示を停止して、撮影時刻t02のL/R画像のペアが取得できるまで待機する。
(b)撮影時間t01までの表示後、L画像については、撮影時間t02,t03の画像を利用し、R画像については撮影時間t01の画像を継続して利用する。この例を図5に示している。
上記(a)の処理を行った場合、表示画像が中断することになる。また(b)の処理を行うと、正しい3D画像が表示できず、正しい奥行き感が得られない違和感のある画像が出力されてしまう場合がある。
本発明の画像処理装置120の出力制御部123では、受信情報検証部211において、受信情報(画像と属性情報)を解析して、カメラL101、カメラR102の異なる撮影時間の画像を組み合わせて表示した場合に違和感のない3D画像の表示が可能か否かを判定する。可能な場合は撮影時間差のあるLR画像を用いて3D画像の表示を行い、不可能と判定した場合は3D画像の表示を停止して、カメラL101、カメラR102いずれかの撮影画像を用いて2D画像としての表示を行う。
このように、本発明の画像処理装置120の出力制御部123は、カメラL101、カメラR102の異なる撮影時間の画像を組み合わせて表示した場合に違和感のない3D画像の表示が可能か否かを判定する処理を行う。この具体的な処理の説明の前に、まず、3D画像の表示における奥行き感の得られる原理について、図6を参照して説明する。
図6には、観察者の左眼301、右眼302、表示面310と、オブジェクト結像位置320を示している。表示面は例えばTV、ディスプレイ、あるいはスクリーンなど、先に図4、図5を参照して説明した3D画像が表示される表示面である。オブジェクト結像位置320は、観察者によって感じられるオブジェクトの位置を示している。
表示面310にはL画像とR画像の各々に同一のオブジェクトが表示され、それぞれの表示位置が異なって表示される。図に示すL画像オブジェクト表示位置311、R画像オブジェクト表示位置312である。L画像オブジェクト表示位置311のオブジェクトは観察者の左眼301によってのみ観察され、R画像オブジェクト表示位置312のオブジェクトは、観察者の右眼302によってのみ観察される。この結果として、観察者が感ずるオブジェクト位置は、図に示すオブジェクト結像位置320となる。
すなわち、観察者にとってのオブジェクト位置は、目から[Do]の距離に感じられる。
目とオブジェクト間の距離を[Do]、
目と表示面間の距離を[Ds]、
としたとき、DoとDsとの関係は以下の式(数式1)によって示すことができる。
Do=(We/(We−Ws))Ds・・・(数式1)
なお、
We:観察者の左右の眼の間隔、
Ws:L画像とR画像の表示面における同一オブジェクトの表示位置の間隔
である。
例えば、同一時刻のLR画像が取得できていれば、図6に示す表示面310には、L画像オブジェクト表示位置311、R画像オブジェクト表示位置312にオブジェクトが表示される。この結果、オブジェクト結像位置320にオブジェクトが位置するように感ずることができる。
オブジェクトが移動オブジェクトでない場合、同一時刻のLR画像を用いなくても、異なる撮影時間、例えば撮影時間t01のL画像と、撮影時間t02のR画像を用いたとしても、図6に示す表示面310の、L画像オブジェクト表示位置311、R画像オブジェクト表示位置312の各表示位置は移動しない。従ってこのような場合には、撮影時間t01のL画像と、撮影時間t02のR画像を組み合わせて3D表示を行っても違和感のない3D画像表示が可能となる。
しかし、オブジェクトが移動オブジェクトである場合には問題が発生する。オブジェクトが移動オブジェクトである場合に、異なる撮影時間のLR画像の組み合わせると、L画像オブジェクト表示位置311と、R画像オブジェクト表示位置312の間隔Wsは異なってくる。この結果、オブジェクト結像位置320は前後にずれてしまい、正しいオブジェクト位置感覚が得られなくなる。
例えば、結像位置の許容誤差を図に示すように[δDo]とする。この結像位置許容誤差[δDo]から、表示面310上の、L画像オブジェクト表示位置311とR画像オブジェクト表示位置312の間隔、すなわち両眼視差の許容ずれ量[δWs]を算出できる。
この算出処理について図7を参照して説明する。図7に示すように、
結像位置許容誤差[δDo]と、両眼視差許容ずれ量[δWs]との関係は、以下の式(数式2)によって表すことができる。
δWs=WeDs((1/Do)−(1/(Do−δDo))・・・(数式2)
また、
δDoがDoに対して十分小さい場合は、上記式(数式2)は、以下の式(数式3)によって示すことができる。
δWs=WeDs(δDo/Do)・・・(数式3)
このように、画像内のオブジェクトが移動していない場合、異なる撮影時間の画像を利用しても、図6に示すL画像オブジェクト表示位置311や、R画像オブジェクト表示位置312の位置は変化しない。しかし、画像内のオブジェクトが移動している場合、異なる撮影時間の画像を利用すると、図6に示すL画像オブジェクト表示位置311や、R画像オブジェクト表示位置312の位置が変化する。
従って、例えば、図5を参照して説明したような異なる撮影時間のLR画像を組み合わせた場合に、3D画像としての正しい奥行き感が損なわれるのは、画像内に移動オブジェクトが存在する場合である。
画像内のオブジェクトの移動速度を[Vs]とし、LR画像の撮影時間の差を[δT]とすると、[δT]の時間間隔によってオブジェクトは画像内を[Vs・δT]の距離移動することになる。
従って、上記式(数式2または数式3)における両眼視差許容ずれ量[δWs]を[Vs・δT]とすれば、画像内の最大移動速度[Vs]を持つオブジェクトが存在する場合、LR画像の許容される撮影時間の差を[δT]として決定することができる。
本発明の画像処理装置120は、出力制御部123の受信情報解析部211において、LR画像と属性情報の解析を行って、まず、同一撮影時間のLR画像の組み合わせが取得できているか否かを判断する。
取得できている場合は、同一撮影時間のLR画像の組み合わせによる3D画像表示を行う。一方、同一撮影時間のLR画像の組み合わせが取得できていない場合、画像内の最大移動速度[Vs]を持つオブジェクトを検出し、さらにLR画像の許容される撮影時間差[δT]を算出する。この許容時間差[δT]以内のLR画像の組み合わせが出力可能であれば、その撮影時間の差があるLR画像を組み合わせて3D画像の出力を行う。
一方、許容時間差[δT]以内のLR画像の組み合わせが出力できないと判断した場合は、3D画像表示を2D画像表示に切り換える処理を行う。この場合、例えば先に図2を参照して説明した属性情報中の優先度情報に従って画像を選択して2D画像表示を行う。あるいは、LR画像中、遅延していない画像であるL画像またはR画像の一方の画像を右眼用および左眼用画像として利用した2D画像出力を実行する。
図8を参照して、画像内における移動オブジェクトの具体的な例について説明する。図8には、
(a)同一撮影時間に撮影された同期LR画像による3D画像表示例、
(b)異なる撮影時間に撮影された非同期LR画像による3D画像表示例、
これらの画像例を示している。
丸いオブジェクトが曲線で示すオブジェクト軌跡370に沿って移動している場合の例である。
(a)同一撮影時間に撮影されたLR画像の同期表示例において、L画像オブジェクト表示位置351、R画像オブジェクト表示位置352は、先に図5を参照して説明したL画像オブジェクト表示位置311、R画像オブジェクト表示位置312に対応する。すなわち、同一の撮影時間のLR撮影画像のオブジェクト表示位置であり、観察者は、この各表示位置のオブジェクトをそれぞれ左眼、右眼で観察することで、正常なオブジェクト位置を認識することができる。
L画像オブジェクト表示位置351と、R画像オブジェクト表示位置352との距離、すなわち両眼視差は[Wsx]であり、前述の式(数式1)に従ったオブジェクト距離[Do]の位置にオブジェクト位置を認識することができる。
一方、(b)異なる撮影時間に撮影された非同期LR画像による3D画像表示例は、例えば撮影時間[t03]のR画像と、それより前の撮影時間[t01]のL画像の組み合わせにおけるL画像オブジェクト表示位置361、R画像オブジェクト表示位置362を示している。
この場合、L画像オブジェクト表示位置361と、R画像オブジェクト表示位置362とのx方向の距離は、図に示すように[Wsx+δWsx]となる。すなわち、本来の同期したLR画像の組み合わせに誤差[δWsx]が加算されている。この加算分が、観察者のオブジェクトの結像位置を前後にずらす要因となる。すなわち、先に図6を参照して説明した目とオブジェクト間の距離[Do]を前後にずらす要因となる。
本発明の画像処理装置は、予め結像位置許容誤差[δDo]を既定し、異なる撮影時間のLR画像を組み合わせた3D画像表示を行った場合のオブジェクト結像位置のずれが、結像位置許容誤差[δDo]以下になるか否かを判定する。オブジェクト結像位置のずれが、結像位置許容誤差[δDo]以下になる場合は、そのLR画像ペア、すなわち異なる撮影時間のLR画像ペアを利用した3D画像表示を実行する。オブジェクト結像位置のずれが、結像位置許容誤差[δDo]以下にならない場合は、3D画像表示を停止し2D画像表示に切り換える処理を実行する。
例えば、時間t01までは同一撮影時間のLR画像を用いて3D表示を実行し、その後、一方の画像、例えばL画像のみを撮影時間t02,t03の画像を利用し、R画像のみを撮影時間t01の画像の利用を続けたと想定する。図8に示すオブジェクトがライン370に沿って右方向に移動しているとする。この場合、L画像のオブジェクトのみが右方向に移動し、R画像のオブジェクトの位置が移動しないことになる。この場合、観察者は、図8に示すオブジェクトが次第に手前に迫ってくるように感じられる。その後、例えば時間t05のLR撮影画像が取得でき、これらの撮影時間t05のLR画像による3D画像の表示を行うと、今まで次第に前方に迫っていたオブジェクトが突然、後方に移動するように感じられることになる。
このようにオブジェクトの不自然な動きを観察者に感じさせないためには、撮影時間の異なるLR画像を利用した3D画像表示において発生するオブジェクト結像位置の誤差が、図6を参照して説明したオブジェクト結像位置許容誤差[δDo]以下となるように制御すればよい。
なお、オブジェクトの移動方向の成分にy方向成分が存在する場合、L画像オブジェクト表示位置361と、R画像オブジェクト表示位置362との表示位置はy方向にもずれが発生する。すなわち、図8(b)に示すように、L画像オブジェクト表示位置361と、R画像オブジェクト表示位置362とのy方向の距離は、図に示すように[Wsy+δWsy]となる。
y方向のずれは、オブジェクトが二重に見えるといった問題を発生させる。従ってy方向にも許容ずれ量[δWsy]を予め設定し、利用予定のLR画像におけるy方向のオブジェクト表示位置のずれが許容ずれ量[δWsy]以下であれば3D画像としての表示処理を実行するといった処理を行う。
具体的には、例えば、[δWsx]と[δWsy]の2つの許容値を設定または算出して、いずれか小さい値を持つ許容値を採用して3D/2D画像切り換え判定処理を行う構成とする。この具体的な処理例については、後段でフローチャートを参照して説明する。なお、y方向のずれは、オブジェクトが二重に見えるといった問題を発生させる。従ってy方向のオブジェクト表示位置のずれが検出された場合は3D表示を停止し2D表示に移行するといった処理を行う構成としてもよい。
[3.本発明の画像処理装置の実行する処理の詳細について]
次に、図9以下を参照して、本発明の画像処理装置の実行する処理の詳細について説明する。上述したように、本発明の画像処理装置120は、出力制御部123の受信情報解析部211において、LR画像と属性情報の解析を行って、同一撮影時間のLR画像の組み合わせが得られるか否かをまず判断する。得られる場合は、同一撮影時間のLR画像の組み合わせによる3D画像表示を行う。
一方、同一撮影時間のLR画像の組み合わせが得られない場合、画像内の最大移動速度[Vs]を持つオブジェクトを検出し、さらにLR画像の許容される撮影時間差[δT]を算出する。この許容時間差[δT]以内のLR画像の組み合わせが出力可能であれば、その撮影時間の差があるLR画像を組み合わせて3D画像の出力を行う。
一方、許容時間差[δT]以内のLR画像の組み合わせが出力できないと判断した場合は、3D画像表示を2D画像表示に切り換える処理を行う。この場合、例えば先に図2を参照して説明した属性情報中の優先度情報に従って画像を選択して2D画像表示を行う。あるいはLR画像中、遅延していない画像であるL画像またはR画像の一方の画像を右眼用および左眼用画像として利用した2D画像出力を実行する。
受信情報解析部211において取得または算出するパラメータについて、図9を参照して説明する。受信情報解析部211において取得または算出するパラメータは、以下の通りである。
(1)目とオブジェクトの距離(結像位置)[Do]
(2)結像位置許容誤差[δDo]
(3)目と表示面間の距離[Ds]
(4)両目の間隔[We]
(5)両眼視差(LR画像における表示面のオブジェクト表示位置ずれ)[Ws]
(6)フレーム間動きベクトル(最大値)[V]
(7)両眼視差許容ずれ量[δWs]
(8)LR画像表示タイミングの許容ずれ量(許容撮影時間差)[δT]
上記(1)〜(8)の算出または取得処理例について説明する。
(1)目とオブジェクトの距離(結像位置)[Do]は、先に説明した式(数式1)に従って、両眼視差[Ws]、目と表示面間距離[Ds]、両目の間隔[We]を用いて算出される。
(2)結像位置許容誤差[δDo]
(3)目と表示面間の距離[Ds]
(4)両目の間隔[We]
これらの値は、予め設定済みの値をメモリ213に格納しておく。
(5)両眼視差(LR画像における表示面のオブジェクト表示位置ずれ)[Ws]
この値は、目と表示面間の距離[Ds]と、受信画像の解析によって算出する。
(6)フレーム間動きベクトル(最大値)[V]
この値は、受信画像の解析によって算出する。なお、フレーム間動きベクトル(最大値)[V]は、フレーム間において最大速度で移動するオブジェクトの移動速度[Vs]と移動方向情報が含まれる。
(7)両眼視差許容ずれ量[δWs]
この値は、先に説明した式(数式2)または式(数式3)を適用して、目と表示面間の距離[Ds]、目とオブジェクトの距離(結像位置)[Do]、結像位置許容誤差[δDo]、両目の間隔[We]を利用して算出する。あるいは予め設定された固定値をメモリ213に格納し、これを利用する構成としてもよい。
(8)LR画像表示タイミングの許容ずれ量(許容撮影時間差)[δT]
この値は、上記の両眼視差許容ずれ量[δWs]と画像解析によって算出されるフレーム間動きベクトル(最大値)[V]を利用して算出する。
すなわち、δT=δWs/Vs
上記式に従って算出する。
Vsは、フレーム間動きベクトル(最大値)[V]の大きさ、すなわちオブジェクトの移動速度である。
以下、出力制御部123の実行する表示画像決定シーケンスについて図10〜図12に示すフローチャートを参照して説明する。
図10は、出力制御部123の実行する表示画像決定シーケンスの全体を説明するフローチャートである。
図11は、図10に示すステップS103の処理、すなわち、LR画像表示タイミングの許容ずれ量[δT]の算出シーケンスの詳細を説明するフローチャートである。
図12は、図11に示すステップS203の処理、すなわち、両眼視差許容ずれ量[δWs]の算出シーケンスの詳細を説明するフローチャートである。
まず、図10に示すフローチャートを参照して出力制御部123の実行する表示画像決定シーケンスの全体について説明する。
ステップS101において、出力制御部123の受信情報検証部211は、L画像とR画像との同期した画像表示が可能か否かを判定する。すなわち、パケット消失やパケット遅れがなく、同一撮影時刻のLR画像の取得、表示が可能か否かを判定する。可能であると判定した場合は、ステップS106に進み、同一撮影時刻のLR画像を利用して先に図4を参照して説明したアクティブ・ステレオ方式、またはパッシブ・ステレオ方式に従った3D画像の表示処理を実行する。
ステップS101の判定がNo、すなわち、L画像またはR画像の受信の遅れがあり、同期したLR画像表示ができないと判断した場合は、ステップS102に進む。
ステップS102では、取得済みのL画像とR画像の属性情報から)LR画像表示タイミングの許容ずれ量(許容撮影時間差)[δT]が取得できるか否かを判定する。LR画像表示タイミングの許容ずれ量(許容撮影時間差)[δT]は、図2を参照して説明したパケットの属性情報中の伝送遅延時間許容量に対応する。
受信パケットの属性情報から伝送遅延時間許容量が取得できた場合、この値をLR画像表示タイミングの許容ずれ量(許容撮影時間差)[δT]として設定する。
一方、受信パケットの属性情報から伝送遅延時間許容量が取得できない場合は、ステップS103に進み、[δT]の算出処理を実行する。
[δT]の取得または算出処理の後、ステップS104に進む。ステップS104では、利用予定のL画像とR画像の撮影時間の時間差と、取得または算出した許容撮影時間差[δT]とを比較する。
利用予定のL画像とR画像の撮影時間の時間差は、図2を参照して説明したパケットの属性情報中の撮影時間の差分として算出する。
ステップS104において、利用予定のL画像とR画像の撮影時間の時間差が、許容撮影時間[δT]以下であると判定した場合は、ステップS104の判定はYesとなる。この場合は、これらのLR画像を組み合わせた三次元(3D)画像表示を行っても大きな違和感を発生させることがないと判断し、ステップS106に進み、撮影時間の差が許容撮影時間[δT]以下のLR画像を利用して先に図4を参照して説明したアクティブ・ステレオ方式、またはパッシブ・ステレオ方式に従った3D画像の表示処理を実行する。
一方、ステップS104において、利用予定のL画像とR画像の撮影時間の時間差が、許容撮影時間差[δT]以下でないと判定した場合は、ステップS104の判定はNoとなる。この場合は、これらのLR画像を組み合わせた三次元(3D)画像表示を行った場合、大きな違和感を発生させると判断し、ステップS105に進み、あし画像を停止し2D画像表示に切り換える。具体的には、例えば先に図2を参照して説明した属性情報中の優先度情報に従って画像を選択して2D画像表示を行う。あるいはLR画像中、遅延していない画像であるL画像またはR画像の一方の画像を右眼用および左眼用画像として利用した2D画像出力を実行する。
図10のフローチャートにおけるステップS103の処理、すなわち、LR画像表示タイミングの許容ずれ量(許容撮影時間差)[δT]の算出シーケンスの詳細について、図11を参照して説明する。
ステップS201において、L画像またはR画像の画像フレームから最大動きベクトルVを算出する。この処理には、LRいずれか一方の画像の連続フレームを利用する。
連続フレームから最大速度で移動するオブジェクトのフレーム間の移動状態を解析し、最大動きベクトルVを算出する。なおベクトル[V]にはオブジェクトの移動速度[Vs]と移動方向情報が含まれる。移動速度は、移動距離とフレームの時間間隔から求めることができる。ベクトルVは2次元ベクトルであり(Vx.Vy)として表現される。Vx,Vyの各々はそれぞれx方向のオブジェクト移動速度と、y方向のオブジェクト移動速度である。
次に、ステップS202において、両眼視差許容ずれ量[δWs]が取得可能か否かを判定する。両眼視差許容ずれ量[δWs]は予め既定値としてメモリ213に格納する設定としてもよく、この場合は、メモリ213から両眼視差許容ずれ量[δWs]を取得し、ステップS204に進む。
一方、両眼視差許容ずれ量[δWs]がメモリ213の格納値として設定されていない場合は、ステップS203に進み、両眼視差許容ずれ量[δWs]を算出して、その後、ステップS204に進む。ステップS203における両眼視差許容ずれ量[δWs]の算出処理については後述する。
ステップS204では、以下の式(数式4)に従って、LR画像表示タイミングの許容ずれ量(許容撮影時間差)[δT]を算出する。
δT=min(δWsx/Vx,δWsy/Vy)・・・(数式4)
上記式において、
δWsxは、両眼視差許容ずれ量[δWs]のx方向成分、
δWsyは、両眼視差許容ずれ量[δWs]のy方向成分、
である。
また、min(a,b)はa,bの小さい値を選択することを意味している。
なお、両眼視差許容ずれ量[δWs]のxy方向成分である[δWsx],[δWsy]は、先に図8を参照して説明した通り、同期LR画像におけるオブジェクトの表示位置からのx,y方向のずれを示す値である。
なお、両眼視差許容ずれ量[δWs]のy方向成分である[δWsy]については、少なくとも予め定めた規定値としてメモリ213に格納しておく。x方向成分である[δWsx]については、メモリ213に格納しておいてもよいし、ステップS203において算出してもよい。
次に、ステップS203における両眼視差許容ずれ量[δWs]の算出処理の詳細について、図12に示すフローチャートを参照して説明する。
まず、ステップS301において、先の図11のフローにおけるステップS201において求めた最大動きベクトル[V]を持つオブジェクトのL画像とR画像の起点位置のずれ[Ws]を取得する。なお、ここで利用するLR画像は、3D画像表示に適用しようとする撮影時間の異なるLR画像ペアである。先に図6(b)を参照して説明した異なる撮影時間のLR画像である。
ステップS302では、先に説明した式(数式1)に従って、目とオブジェクト間の距離[Do]を算出する。すなわち、
Do=(We/(We−Ws))Ds・・・(数式1)
上記式に従って、目とオブジェクト間の距離[Do]を算出する。
なお、
We:観察者の左右の眼の間隔、
Ws:L画像とR画像の表示面における同一オブジェクトの表示位置の間隔
Ds:目と表示面間の距離、
である。We,Dsはメモリ213に格納された値を適用する。
次に、ステップS303において、x方向の両眼視差許容ずれ量[δWsx]を算出する。両眼視差許容ずれ量[δWsx]の算出処理は、先に説明した式(数式2)を適用して実行する。すなわち、
δWsx=WeDs((1/Do)−(1/(Do−δDo))・・・(数式2)
上記式を適用してx方向の両眼視差許容ずれ量[δWsx]算出する。
なお、
We:観察者の左右の眼の間隔、
Ds:目と表示面間の距離、
Do:目とオブジェクト間の距離、
δDo:結像位置許容誤差、
である。We,Ds,δDoは、既定値であり、メモリ213に格納された値を適用する。Doは、ステップS302で算出した値を適用する。
なお、上記式(数式2)の代わりに式(数式3)を適用してx方向の両眼視差許容ずれ量[δWsx]算出する構成としてもよい。すなわち、
δWs=WeDs(δDo/Do)・・・(数式3)
上記式を適用してx方向の両眼視差許容ずれ量[δWsx]を算出する設定としてもよい。
このようにして算出されたx方向の両眼視差許容ずれ量[δWsx]を算出し、図11に示すステップS204で、[δWsx/Vx]と[δWsy/Vy]の小さい方をLR画像表示タイミングの許容ずれ量(許容撮影時間差)[δT]とする。
図10のステップS104では、この処理によって算出された[δT]、すなわち、LR画像表示タイミングの許容ずれ量(許容撮影時間差)[δT]と、表示しようとするLR画像の撮影時間差[Δt]と比較する。すなわち、下式(数式5)が成立するか否かを判定する。
表示予定のLR画像の撮影時間差[Δt]≦許容撮影時間差[δT]・・・(数式5)
上記式(数式5)が成立した場合は、観察者に違和感を与えないと判断して、表示予定のLR画像を利用して3D表示を実行する(ステップS106)。
上記式(数式5)が成立しない場合は、観察者に違和感を与えなると判断して、表示予定のLR画像を利用した3D表示を停止し、LR画像のいずれか一方の画像を両眼に確認可能な画像とした2D画像表示を実行する(ステップS105)。
このように、本発明の画像処理装置は、撮影時間の同期したLR画像が取得できない場合、異なる撮影時間のLR画像を利用した3D画像表示において発生するオブジェクト結像位置ずれや両眼視差ずれが、予め設定した許容値以下になるか否かを画像に含まれるオブジェクトの移動状況に基づいて判定し、許容値以下になる場合に3D画像表示を実行する構成としたので、撮影時間が同期したLR画像が取得できない場合でも違和感のない3D画像表示を行うことができる。
すなわち、本願発明の処理においては、異なる撮影時間のLR画像を利用した3D画像表示において発生する、
オブジェクト結像位置ずれが、結像位置許容誤差[δDo]以下、
両眼視差ずれが、両眼視差許容ずれ量[δWs]以下、
このような状態のLR画像の組み合わせが得られる場合に3D画像表示を行うものである。
なお、両眼視差許容ずれ量[δWs]と、LR画像表示タイミングの許容ずれ量(許容撮影時間差)[δT]とは、最大速度の移動オブジェクトの移動速度をVsとしたとき、
δWs=Vs・δT
上記式の関係である。
従って、LR画像表示タイミングの許容ずれ量(許容撮影時間差)[δT]が予め付与されている場合は、[δT]と、利用予定のLR画像の撮影時間の差を比較するのみで、3D画像表示を行うか2D画像表示に切り換えるかを判定可能となる。
LR画像表示タイミングの許容ずれ量(許容撮影時間差)[δT]が予め付与されていない場合であっても、図10に示すステップS103の処理、すなわち、図11、図12を参照して説明した処理によって[δT]を算出することが可能である。
すなわち、両眼視差許容ずれ量[δWs]と画像解析によって算出されるフレーム間動きベクトル(最大値)[V]を利用して下式に従って算出する。
すなわち、δT=δWs/Vs
Vsは、フレーム間動きベクトル(最大値)[V]の大きさ、すなわちオブジェクトの移動速度である。なお、フローチャートでは、x成分、y成分、各々について個別に算出して判定を行う構成として説明したが、x,y成分に分解することなく、上記式に従って、δTを算出して、算出したδTにより判定を行う構成としてもよい。
従って、[δT]が規定値として設定されていない場合でも、結像位置許容誤差[δDo]が設定されていれば、結像位置許容誤差[δDo]以内の画像表示を行うことが可能か否かを判定できる。従って、判定結果に基づいて、撮影時間の異なるLR画像を適用して3D画像表示を行えば、その表示処理によるオブジェクト結像位置の誤差は、結像位置許容誤差[δDo]以内の誤差になることが保証され、違和感のない3D画像観察が可能となる。
なお、図10〜図12を参照して説明したフローチャートにおいて示した各演算に適用する値について、その一部をメモリ213から取得し、一部をカメラからの受信パケット中の属性情報から取得する設定として説明したが、例えばこれらの値は、カメラの送信パケット内にすべて含めておく設定としてもよいし、あるいは外部サーバから取得する設定としてもよい。
以上、特定の実施例を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本発明の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
以上、説明したように、本発明の一実施例構成によれば、L画像(左眼用画像)とR画像(右眼用画像)を含む通信データを受信し、受信データに基づいて三次元画像(3D)画像表示を行う画像処理装置において、同一撮影時間のL画像とR画像のペアが取得済みである場合は三次元画像表示を実行し、同一撮影時間のL画像とR画像のペアが取得済みでない場合は、異なる撮影時間のLR画像を適用した三次元画像表示において発生するオブジェクト結像位置誤差が、予め既定したオブジェクト結像位置許容誤差以下であるか否かを判定し、許容誤差以下である場合は異なる撮影時間のLR画像を適用した三次元画像表示を実行し、許容誤差以下でない場合は三次元画像表示を停止して二次元画像表示を実行する構成とした。本構成により、異なる撮影時間のLR画像ペアを用いた三次元画像表示においても奥行き感の違和感を発生させない画像とすることが可能となる。
101 カメラL
102 カメラR
103 ネットワーク
120 画像処理装置
121 受信部
122 パケット解析部
123 出力制御部
124 表示部
125 制御部
126 メモリ
201 デコード部
202 属性情報取得部
211 受信情報検証部
212 3D/2D切り換え制御部
213 メモリ
301 左眼
302 右眼
310 表示面
311 L画像オブジェクト表示位置
312 R画像オブジェクト表示位置
320 オブジェクト結像位置
351 L画像オブジェクト表示位置
352 R画像オブジェクト表示位置
361 L画像オブジェクト表示位置
362 R画像オブジェクト表示位置
370 オブジェクト軌跡

Claims (8)

  1. 三次元画像表示に適用するL画像(左眼用画像)とR画像(右眼用画像)を含む通信データを受信する受信部と、
    前記通信データから撮影時間を含む属性情報を取得する属性情報取得部と、
    前記通信データに含まれる画像および属性情報の解析を実行して、解析結果に基づいて、三次元画像表示と二次元画像表示の切り換え処理を行う出力制御部を有し、
    前記出力制御部は、
    同一撮影時間のL画像とR画像のペアが取得済みである場合は三次元画像表示を実行し、
    同一撮影時間のL画像とR画像のペアが取得済みでない場合は、異なる撮影時間のLR画像を適用した三次元画像表示において発生するオブジェクト結像位置誤差が、予め既定したオブジェクト結像位置許容誤差以下であるか否かを判定し、許容誤差以下である場合は、異なる撮影時間のLR画像を適用した三次元画像表示を実行し、許容誤差以下でない場合は、三次元画像表示を停止して二次元画像表示を実行する画像処理装置。
  2. 前記出力制御部は、
    前記異なる撮影時間のLR画像に含まれる移動オブジェクトから、最大移動速度を持つ移動オブジェクトのフレーム間の動きベクトルVを算出し、該動きベクトルVと、3D画像の表示面における両眼許容視差ずれ量δWsを適用して、許容撮影時間差(δT)を算出し、前記異なる撮影時間のLR画像の撮影時間差が前記許容撮影時間差(δT)以下である場合に、前記異なる撮影時間のLR画像を適用した三次元画像表示を実行し、前記許容撮影時間差(δT)以下でない場合は、三次元画像表示を停止して二次元画像表示を実行する請求項1に記載の画像処理装置。
  3. 前記出力制御部は、
    前記動きベクトルからオブシェクトの速度Vsを取得し、前記許容撮影時間差(δT)を、
    δT=δWs/Vs
    上記式に従って算出する処理を実行する請求項2に記載の画像処理装置。
  4. 前記出力制御部は、
    3D画像の表示面における両眼許容視差ずれ量δWsのx方向の両眼許容視差ずれ量(δWsx)とy方向の両眼許容視差ずれ量(δWsy)を取得し、
    前記フレーム間の動きベクトルVによって既定されるx方向の速度(Vsx)とy方向の速度(Vsy)を取得し、
    δWsx/Vsxと、δWsy/Vsyの各値中、より小さい値を前記許容撮影時間差(δT)として算出する処理を実行する請求項2に記載の画像処理装置。
  5. 前記出力制御部は、
    予め設定された許容撮影時間差(δT)を取得し、前記異なる撮影時間のLR画像の撮影時間差が前記許容撮影時間差(δT)以下である場合に、前記異なる撮影時間のLR画像を適用した三次元画像表示を実行し、前記許容撮影時間差(δT)以下でない場合は、三次元画像表示を停止して二次元画像表示を実行する請求項1に記載の画像処理装置。
  6. 前記出力制御部は、
    三次元画像表示を停止して二次元画像表示を実行する場合に、
    前記通信データに格納された属性情報中の優先度情報を参照し、優先度の高い画像を選択して二次元画像表示を実行する請求項1に記載の画像処理装置。
  7. 画像処理装置において実行する画像処理方法であり、
    通信部が、三次元画像表示に適用するL画像(左眼用画像)とR画像(右眼用画像)を含む通信データを受信する受信ステップと、
    属性情報取得部が、前記通信データから撮影時間を含む属性情報を取得する属性情報取得ステップと、
    出力制御部が、前記通信データに含まれる画像および属性情報の解析を実行して、解析結果に基づいて、三次元画像表示と二次元画像表示の切り換え処理を行う出力制御ステップを有し、
    前記出力制御ステップは、
    同一撮影時間のL画像とR画像のペアが取得済みである場合は三次元画像表示を実行し、
    同一撮影時間のL画像とR画像のペアが取得済みでない場合は、異なる撮影時間のLR画像を適用した三次元画像表示において発生するオブジェクト結像位置誤差が、予め既定したオブジェクト結像位置許容誤差以下であるか否かを判定し、許容誤差以下である場合は、異なる撮影時間のLR画像を適用した三次元画像表示を実行し、許容誤差以下でない場合は、三次元画像表示を停止して二次元画像表示を実行するステップである画像処理方法。
  8. 画像処理装置において画像処理を実行させるプログラムであり、
    通信部に、三次元画像表示に適用するL画像(左眼用画像)とR画像(右眼用画像)を含む通信データを受信させる受信ステップと、
    属性情報取得部に、前記通信データから撮影時間を含む属性情報を取得させる属性情報取得ステップと、
    出力制御部に、前記通信データに含まれる画像および属性情報の解析を実行させて、解析結果に基づいて、三次元画像表示と二次元画像表示の切り換え処理を行わせる出力制御ステップを有し、
    前記出力制御ステップは、
    同一撮影時間のL画像とR画像のペアが取得済みである場合は三次元画像表示を実行し、
    同一撮影時間のL画像とR画像のペアが取得済みでない場合は、異なる撮影時間のLR画像を適用した三次元画像表示において発生するオブジェクト結像位置誤差が、予め既定したオブジェクト結像位置許容誤差以下であるか否かを判定し、許容誤差以下である場合は、異なる撮影時間のLR画像を適用した三次元画像表示を実行し、許容誤差以下でない場合は、三次元画像表示を停止して二次元画像表示を実行するステップであるプログラム。
JP2009145987A 2009-06-19 2009-06-19 画像処理装置、および画像処理方法、並びにプログラム Expired - Fee Related JP5299111B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2009145987A JP5299111B2 (ja) 2009-06-19 2009-06-19 画像処理装置、および画像処理方法、並びにプログラム
EP10158703A EP2265031B1 (en) 2009-06-19 2010-03-31 Image processing apparatus, image processing method, and program
AT10158703T ATE536704T1 (de) 2009-06-19 2010-03-31 Bildverarbeitungsvorrichtung, bildverarbeitungsverfahren und programm
US12/759,111 US8451321B2 (en) 2009-06-19 2010-04-13 Image processing apparatus, image processing method, and program
CN2010101815482A CN101931824B (zh) 2009-06-19 2010-05-20 图像处理设备和图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009145987A JP5299111B2 (ja) 2009-06-19 2009-06-19 画像処理装置、および画像処理方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2011004203A true JP2011004203A (ja) 2011-01-06
JP5299111B2 JP5299111B2 (ja) 2013-09-25

Family

ID=42331082

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009145987A Expired - Fee Related JP5299111B2 (ja) 2009-06-19 2009-06-19 画像処理装置、および画像処理方法、並びにプログラム

Country Status (5)

Country Link
US (1) US8451321B2 (ja)
EP (1) EP2265031B1 (ja)
JP (1) JP5299111B2 (ja)
CN (1) CN101931824B (ja)
AT (1) ATE536704T1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012114731A1 (ja) * 2011-02-24 2012-08-30 富士フイルム株式会社 画像表示装置および方法、並びにプログラム

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2967324B1 (fr) * 2010-11-05 2016-11-04 Transvideo Procede et dispositif de controle du dephasage entre cameras stereoscopiques
JP2012129768A (ja) * 2010-12-15 2012-07-05 Seiko Epson Corp 書画カメラ、書画カメラの制御方法、プログラムおよび表示処理システム
US20130120528A1 (en) * 2011-01-09 2013-05-16 Thomson Licensing Video processing apparatus and method for detecting a temporal synchronization mismatch
JP5092033B2 (ja) * 2011-03-28 2012-12-05 株式会社東芝 電子機器、表示制御方法及び表示制御プログラム
JP5735330B2 (ja) * 2011-04-08 2015-06-17 株式会社ソニー・コンピュータエンタテインメント 画像処理装置および画像処理方法
US8643699B2 (en) * 2011-04-26 2014-02-04 Mediatek Inc. Method for processing video input by detecting if picture of one view is correctly paired with another picture of another view for specific presentation time and related processing apparatus thereof
JP6058257B2 (ja) * 2011-07-06 2017-01-11 アイキューブド研究所株式会社 画像出力装置、画像出力方法、およびプログラム
ITTO20120208A1 (it) * 2012-03-09 2013-09-10 Sisvel Technology Srl Metodo di generazione, trasporto e ricostruzione di un flusso video stereoscopico
FR2993739B1 (fr) * 2012-07-19 2015-04-10 Transvideo "procede de prise de vues stereoscopiques et dispositif d'affichage mettant en œuvre un tel procede"
US9008427B2 (en) 2013-09-13 2015-04-14 At&T Intellectual Property I, Lp Method and apparatus for generating quality estimators

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07322302A (ja) * 1994-05-23 1995-12-08 Sanyo Electric Co Ltd 立体動画像再生装置
JP2003319419A (ja) * 2002-04-25 2003-11-07 Sharp Corp データ復号装置
JP2004166885A (ja) * 2002-11-19 2004-06-17 Sophia Co Ltd 遊技機
JP2004357156A (ja) * 2003-05-30 2004-12-16 Sharp Corp 映像受信装置および映像再生装置
JP2008306602A (ja) * 2007-06-08 2008-12-18 Canon Inc 画像表示システム、及びその制御方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5661518A (en) 1994-11-03 1997-08-26 Synthonics Incorporated Methods and apparatus for the creation and transmission of 3-dimensional images
JP3634677B2 (ja) 1999-02-19 2005-03-30 キヤノン株式会社 画像の補間方法、画像処理方法、画像表示方法、画像処理装置、画像表示装置、及びコンピュータプログラム記憶媒体
JP4238679B2 (ja) 2003-09-12 2009-03-18 ソニー株式会社 映像記録再生装置
CN101006733B (zh) * 2004-08-18 2010-05-05 夏普株式会社 图像数据显示装置
JP2006140618A (ja) 2004-11-10 2006-06-01 Victor Co Of Japan Ltd 3次元映像情報記録装置及びプログラム
US7486981B2 (en) * 2004-11-15 2009-02-03 Given Imaging Ltd. System and method for displaying an image stream
JP4160572B2 (ja) * 2005-03-31 2008-10-01 株式会社東芝 画像処理装置及び画像処理方法
KR100828358B1 (ko) * 2005-06-14 2008-05-08 삼성전자주식회사 영상 디스플레이 모드 전환 방법, 장치, 및 그 방법을 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체
JP4681595B2 (ja) 2007-12-11 2011-05-11 株式会社日立情報システムズ 情報トレーシングシステム及び情報トレーシング方法、情報トレーシングプログラム
JP4657313B2 (ja) * 2008-03-05 2011-03-23 富士フイルム株式会社 立体画像表示装置および方法並びにプログラム
US20100194860A1 (en) * 2009-02-03 2010-08-05 Bit Cauldron Corporation Method of stereoscopic 3d image capture using a mobile device, cradle or dongle

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07322302A (ja) * 1994-05-23 1995-12-08 Sanyo Electric Co Ltd 立体動画像再生装置
JP2003319419A (ja) * 2002-04-25 2003-11-07 Sharp Corp データ復号装置
JP2004166885A (ja) * 2002-11-19 2004-06-17 Sophia Co Ltd 遊技機
JP2004357156A (ja) * 2003-05-30 2004-12-16 Sharp Corp 映像受信装置および映像再生装置
JP2008306602A (ja) * 2007-06-08 2008-12-18 Canon Inc 画像表示システム、及びその制御方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012114731A1 (ja) * 2011-02-24 2012-08-30 富士フイルム株式会社 画像表示装置および方法、並びにプログラム

Also Published As

Publication number Publication date
CN101931824B (zh) 2012-11-28
EP2265031B1 (en) 2011-12-07
CN101931824A (zh) 2010-12-29
US8451321B2 (en) 2013-05-28
EP2265031A1 (en) 2010-12-22
US20100321472A1 (en) 2010-12-23
JP5299111B2 (ja) 2013-09-25
ATE536704T1 (de) 2011-12-15

Similar Documents

Publication Publication Date Title
JP5299111B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
KR101185870B1 (ko) 3d 입체 영상 처리 장치 및 방법
JP5732888B2 (ja) 表示装置及び表示方法
WO2017141511A1 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
JP4748251B2 (ja) 映像変換方法および映像変換装置
KR20120030005A (ko) 화상 처리 장치 및 방법과 입체 화상 표시 장치
US20120007949A1 (en) Method and apparatus for displaying
JP6089383B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP5347987B2 (ja) 映像処理装置
JP5863356B2 (ja) ステレオ動画像の撮像装置、撮像方法、ステレオ動画像の表示装置、表示方法及びプログラム
KR101826025B1 (ko) 사용자 인터렉션이 가능한 3d 영상 콘텐츠 생성 시스템 및 방법
WO2013042392A1 (ja) 立体画像評価装置
CN108632600B (zh) 反映用户交互信息来播放立体图像的方法及装置
JP5871113B2 (ja) 立体画像生成装置、立体画像生成方法及び立体画像生成プログラム
JP2013070286A (ja) 表示制御プログラム、表示制御システム、表示制御装置、および、表示制御方法
KR102094848B1 (ko) (초)다시점 미디어의 라이브 스트리밍 방법 및 장치
JP2017525197A (ja) 立体視ビデオ生成
JP2014175813A (ja) 立体映像表示方法および装置
JP2014192877A (ja) 3d立体視画像作成方法、3d立体視画像作成システム及び3d立体視画像作成プログラム
JP5742886B2 (ja) 立体映像符号化装置、立体映像復号装置及び立体映像符号化システム、並びに、立体映像符号化プログラム及び立体映像復号プログラム
US20160103330A1 (en) System and method for adjusting parallax in three-dimensional stereoscopic image representation
JP2012133179A (ja) 立体視装置、及び立体視装置の制御方法
JP2012142800A (ja) 画像処理装置及び画像処理方法、並びにコンピューター・プログラム
JP2012022149A (ja) 表示システムおよび表示方法
JP2011119810A (ja) 映像処理装置および映像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130603

R151 Written notification of patent or utility model registration

Ref document number: 5299111

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees