JP2010068121A - 画像データ解析装置、および画像データ解析方法、並びにプログラム - Google Patents

画像データ解析装置、および画像データ解析方法、並びにプログラム Download PDF

Info

Publication number
JP2010068121A
JP2010068121A JP2008231181A JP2008231181A JP2010068121A JP 2010068121 A JP2010068121 A JP 2010068121A JP 2008231181 A JP2008231181 A JP 2008231181A JP 2008231181 A JP2008231181 A JP 2008231181A JP 2010068121 A JP2010068121 A JP 2010068121A
Authority
JP
Japan
Prior art keywords
image
depth information
unit
right image
discrimination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008231181A
Other languages
English (en)
Other versions
JP4636149B2 (ja
Inventor
Yasutaka Hirasawa
康孝 平澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008231181A priority Critical patent/JP4636149B2/ja
Priority to US12/555,691 priority patent/US8345086B2/en
Priority to CN200910169135XA priority patent/CN101674491B/zh
Publication of JP2010068121A publication Critical patent/JP2010068121A/ja
Application granted granted Critical
Publication of JP4636149B2 publication Critical patent/JP4636149B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】時分割表示型の立体表示映像データを構成する左画像と右画像の正確な識別処理を実行する。
【解決手段】時分割表示型の立体表示映像データを構成する左画像または右画像いずれか一方の画像を適用して画像内の領域の前後関係を判別する単眼奥行き情報判別部と、左画像および右画像と仮定する複数画像を適用して領域の前後関係を判別する両眼奥行き情報判別部と、この2つの判別結果を検証し一致度が高い場合は両眼奥行き情報判別部の仮定と一致する左右画像識別情報を出力し、一致度が低い場合は仮定と逆の左右画像識別情報を出力する。この処理により立体表示映像データを構成する画像の正確な左右画像識別が可能となり、識別情報を利用した制御により正しい奥行き感の得られる立体画像表示および観察が可能となる。
【選択図】図1

Description

本発明は、画像データ解析装置、および画像データ解析方法、並びにプログラムに関する。特に時分割方式による立体表示画像を正しく観察可能とするための画像解析を行う画像データ解析装置、および画像データ解析方法、並びにプログラムに関する。
特に時分割立体映像データ中の各フレームが左画像であるか右画像であるかを示す情報が映像データ中に付加されていないような時分割立体映像データの各フレームが左画像であるか右画像であるかを識別して、適切な立体視を実現するための画像表示制御や、表示画像の観察用メガネや偏光器の制御を行う制御信号を生成する装置、および方法、並びにプログラムに関する。
一般に、テレビ・映画等の映像メディアでは映像データは平面上に表示される。そのため、表示されている映像を人が観察しても、その映像に関する奥行き情報を知覚することはできない。ステレオ視の原理を用いることで、平面上に映像データを表示していても観察者に奥行きを知覚させることが可能であることは古くから知られており、実用化もなされていたが、一般に広く普及している状況ではなかった。
ところが、近年、ステレオ視が可能な仕組みを搭載した3Dテレビが実際に商品として販売され始め、さらに一般の放送網を利用した立体映像放送のテスト運用なども始まっている。また、3D映画の上映に対応した映画館が顕著に増えつつあるなど、3Dの映像を視聴するための環境が急速に普及しつつある。
ステレオ視では人間の左右の目それぞれに異なる視点から撮影した映像を呈示することで、左右の映像の視差による奥行き知覚、または輻輳による奥行き知覚を発生させる。その結果、平面上に表示された映像データであっても人間は奥行きを知覚することができる。なお、立体映像表示処理に関する従来技術を開示した文献としては、例えば特許文献1〜6がある。
ステレオ視において、左右の目それぞれに異なる映像を呈示する方法は数多く提案されているが、その一つが時分割方式である。時分割方式では左右の目それぞれに呈示されるべき異なる映像(*以後、左目のみに呈示されるべき映像を左画像、右目のみに呈示されるべき映像を右画像と呼ぶことがある)を交互に呈示する。例えば左画像を偶数番目のフレームとして、右画像を奇数番目のフレームとして交互に表示する。
観察者は、左右の眼交互に開閉を繰り返す例えば液晶シャッターメガネを装着して画像を観察する。左画像が提示されているタイミングで液晶シャッターメガネの左目側を開状態にして右目側を閉状態にする。この制御により、観察者の右目への入射光を遮断して左目のみで画像を観察させる。右画像が提示されているタイミングでは、観察者の左目への映像の入射を遮断して、右目のみで画像を観察させる。これにより、観察者は左目では左画像のみを、右目では右画像のみを知覚するので立体視が実現される。
あるいは、右画像と左画像をそれぞれ右円偏光または左円偏光へと偏光された右円偏光または左円偏光画像として表示して、偏光メガネを利用して右画像と左画像をそれぞれ右目と左目交互に観察する構成もある。
上述のように、時分割方式の立体映像表示構成について、液晶シャッターメガネや偏光メガネを利用した方式が知られており実用化されている。しかしながら、時分割方式の立体映像表示システムにおいては、例えば液晶シャッターメガネを用いる場合、左右画像の表示タイミングと液晶シャッターメガネの左右の開閉とが同期していないと適切な立体視は実現されない。すなわち、左画像が提示されているときに液晶シャッターメガネの右が開き、右画像が提示されているときにメガネの左が開くような、左右の映像が逆転した事態に陥ると、観察者はすべての奥行きが逆転した映像を観察することになり、本来手前に存在するべきものを奥に、奥に存在するべきものを手前に認識し、強い違和感・不快感・疲労感などを感じることになる。
上述のような左右の映像の逆転現象が発生することを防ぐために、特許文献7(特開平05−14932号公報)では、左右の識別信号を映像信号に重畳し、この識別信号に基づいてシャッターメガネを駆動する立体テレビジョン信号処理方式が開示されている。しかしながら、この方式では予め映像信号に左右の識別信号を重畳するという作業が必要となる。また、識別信号が重畳されていない時分割立体表示方式の映像データに対応することはできない。
上記の他にも、観察者が左右の映像が逆転して表示されていると感じた場合に、左右の表示タイミングを反転させることが可能なスイッチを設けているシャッターメガネの駆動装置も存在する。しかしながら、必ずしもすべての観察者が左右映像の逆転現象の発生を的確に認識できるとは限らない。さらには、映像データ中の左右画像のフレームが常に確実に交互に配置されているかどうかは定かではない。また、複数の異なる映像データを連続して再生する場合にも、左右画像の表示タイミングが一定であるとは限らない。よって、左右映像の逆転現象が発生する度にスイッチの操作をおこなわなければならない。
特開平9−107562号公報 特開平8−30806号公報 特開平10−51812号公報 特開2000−209614号公報 特開2005−151534号公報 特開平6−194602号公報 特開平05−14932号公報
本発明は、例えば上述の問題点に鑑みてなされたものであり、時分割方式の立体画像表示、すなわち左目用の左画像と右目用の右画像とを交互に表示する立体画像表示処理を行う構成において、観察者が左画像は左目で観察し、右画像は右目で観察し、逆の眼で観察してしまうといった誤った処理を防ぐための制御を可能とした画像データ解析装置、および画像データ解析方法、並びにプログラムを提供することを目的とする。
本発明の第1の側面は、
左目用の左画像と右目用の右画像から構成される時分割表示型の立体映像データを入力し、左画像または右画像のいずれか一方の画像を適用して画像フレームに含まれる領域の前後関係を判別する単眼奥行き情報判別部と、
前記時分割表示型の立体映像データを入力し、左画像と仮定する画像と、右画像と仮定する画像を選択し、選択した左画像および右画像を含む複数画像を適用して画像フレームに含まれる領域の前後関係を判別する両眼奥行き情報判別部と、
前記単眼奥行き情報判別部の第1判別結果と、前記両眼奥行き情報判別部の第2判別結果を入力して2つの判別結果の比較を行い、両判別結果の一致度が高い場合は、前記両眼奥行き情報判別部の設定した仮定が正しいと判断し、前記立体映像データを構成する各画像フレームが左画像であるか右画像であるかの識別情報を、前記仮定と一致させた識別情報として出力する左右画像識別部と、
を有する画像データ解析装置にある。
さらに、本発明の画像データ解析装置の一実施態様において、前記左右画像識別部は、前記単眼奥行き情報判別部の第1判別結果と、前記両眼奥行き情報判別部の第2判別結果の一致度が低い場合は、前記両眼奥行き情報判別部の設定した仮定が誤りであると判断し、前記立体映像データを構成する各画像フレームが左画像であるか右画像であるかの識別情報を、前記仮定と逆の設定とした識別情報として出力する構成である。
さらに、本発明の画像データ解析装置の一実施態様において、前記単眼奥行き情報判別部、および、前記両眼奥行き情報判別部は、それぞれ複数の領域についての複数の判別結果を生成する構成であり、前記左右画像識別部は、前記単眼奥行き情報判別部の複数の第1判別結果と、前記両眼奥行き情報判別部の複数の第2判別結果を入力して比較を行い、一致度が予め設定した閾値以上である場合は、前記両眼奥行き情報判別部の設定した仮定が正しいと判断し、前記立体映像データを構成する各画像フレームが左画像であるか右画像であるかの識別情報を、前記仮定と一致させた識別情報として出力し、一致度が予め設定した閾値未満である場合は、前記両眼奥行き情報判別部の設定した仮定が誤りであると判断し、前記立体映像データを構成する各画像フレームが左画像であるか右画像であるかの識別情報を、前記仮定と逆の設定とした識別情報として出力する構成である。
さらに、本発明の画像データ解析装置の一実施態様において、前記両眼奥行き情報判別部は、前記時分割表示型の立体映像データを構成する画像フレームを偶数フレームと奇数フレームに分割し、偶数フレームを左画像、奇数フレームを右画像とする仮定、あるいはその逆の仮定を設定して、該仮定の下で左画像および右画像を含む複数画像を適用して画像フレームに含まれる領域の前後関係を判別する処理を行う構成である。
さらに、本発明の画像データ解析装置の一実施態様において、前記両眼奥行き情報判別部は、選択した左画像および右画像を含む複数画像を適用したステレオマッチング処理を実行して、画像フレームに含まれる領域の前後関係を判別する処理を行う構成である。
さらに、本発明の画像データ解析装置の一実施態様において、前記単眼奥行き情報判別部は、左画像または右画像のいずれか一方の画像を適用して画像フレームに含まれる領域の撮像ボケ、または領域の垂直方向の位置関係から、画像フレームに含まれる領域の前後関係を判別する処理を行う構成である。
さらに、本発明の画像データ解析装置の一実施態様において、前記単眼奥行き情報判別部は、左画像または右画像のいずれか一方の複数画像を適用して移動する2つの領域をトラッキングし、重なりを検知することで2つの領域の前後関係を判別する処理を行う構成である。
さらに、本発明の第2の側面は、
左目用の左画像と右目用の右画像から構成される時分割表示型の立体映像データを入力し、左画像または右画像のいずれか一方の画像を適用して画像フレームに含まれる領域の前後関係を判別する単眼奥行き情報判別部と、
前記時分割表示型の立体映像データを入力し、左画像と仮定する画像と、右画像と仮定する画像を選択し、選択した左画像および右画像を含む複数画像を適用して画像フレームに含まれる領域の前後関係を判別する両眼奥行き情報判別部と、
前記単眼奥行き情報判別部の第1判別結果と、前記両眼奥行き情報判別部の第2判別結果を入力して2つの判別結果の比較を行い、両判別結果の一致度が高い場合は、前記両眼奥行き情報判別部の設定した仮定が正しいと判断し、前記立体映像データを構成する各画像フレームが左画像であるか右画像であるかの識別情報を、前記仮定と一致させた識別情報として出力する左右画像識別部と、
前記立体映像データを構成する画像フレーム単位で切り替わる液晶シャッターメガネ対応のシャッター駆動信号を出力するシャッター駆動信号出力部と、
前記左右画像識別部から出力される識別信号と、前記シャッター駆動信号出力部から出力されるシャッター駆動信号を入力し、前記識別信号に応じて前記シャッター駆動信号を変更して液晶シャッターメガネに対する制御信号として出力する信号反転部を有する液晶シャッター制御装置にある。
さらに、本発明の液晶シャッター制御装置の一実施態様において、前記信号反転部は、前記左右画像識別部から出力される識別信号と、前記シャッター駆動信号出力部から出力されるシャッター駆動信号との排他的論理和演算を実行して、排他的論理和演算結果を液晶シャッターメガネに対する制御信号として出力する構成である。
さらに、本発明の第3の側面は、
左目用の左画像と右目用の右画像から構成される時分割表示型の立体映像データを入力し、左画像または右画像のいずれか一方の画像を適用して画像フレームに含まれる領域の前後関係を判別する単眼奥行き情報判別部と、
前記時分割表示型の立体映像データを入力し、左画像と仮定する画像と、右画像と仮定する画像を選択し、選択した左画像および右画像を含む複数画像を適用して画像フレームに含まれる領域の前後関係を判別する両眼奥行き情報判別部と、
前記単眼奥行き情報判別部の第1判別結果と、前記両眼奥行き情報判別部の第2判別結果を入力して2つの判別結果の比較を行い、両判別結果の一致度が高い場合は、前記両眼奥行き情報判別部の設定した仮定が正しいと判断し、前記立体映像データを構成する各画像フレームが左画像であるか右画像であるかの識別情報を、前記仮定と一致させた識別情報として出力する左右画像識別部と、
前記立体映像データを構成する画像フレーム単位で切り替わる偏光器対応の偏光器駆動信号を出力する偏光器駆動信号出力部と、
前記左右画像識別部から出力される識別信号と、前記偏光器駆動信号出力部から出力される偏光器駆動信号を入力し、前記識別信号に応じて前記偏光器駆動信号を変更して偏光器に対する制御信号として出力する信号反転部を有する偏光制御装置にある。
さらに、本発明の偏光制御装置の一実施態様において、前記信号反転部は、前記左右画像識別部から出力される識別信号と、前記偏光器駆動信号出力部から出力される偏光器駆動信号との排他的論理和演算を実行して、排他的論理和演算結果を偏光器に対する制御信号として出力する構成である。
さらに、本発明の第4の側面は、
画像データ解析装置において実行する画像データ解析方法であり、
単眼奥行き情報判別部が、左目用の左画像と右目用の右画像から構成される時分割表示型の立体映像データを入力し、左画像または右画像のいずれか一方の画像を適用して画像フレームに含まれる領域の前後関係を判別する単眼奥行き情報判別ステップと、
両眼奥行き情報判別部が、前記時分割表示型の立体映像データを入力し、左画像と仮定する画像と、右画像と仮定する画像を選択し、選択した左画像および右画像を含む複数画像を適用して画像フレームに含まれる領域の前後関係を判別する両眼奥行き情報判別ステップと、
左右画像識別部が、前記単眼奥行き情報判別部の第1判別結果と、前記両眼奥行き情報判別部の第2判別結果を入力して2つの判別結果の比較を行い、両判別結果の一致度が高い場合は、前記両眼奥行き情報判別部の設定した仮定が正しいと判断し、前記立体映像データを構成する各画像フレームが左画像であるか右画像であるかの識別情報を、前記仮定と一致させた識別情報として出力する左右画像識別ステップと、
を有する画像データ解析方法にある。
さらに、本発明の第5の側面は、
画像データ解析装置において画像データ解析処理を実行させるプログラムであり、
単眼奥行き情報判別部に、左目用の左画像と右目用の右画像から構成される時分割表示型の立体映像データを入力し、左画像または右画像のいずれか一方の画像を適用して画像フレームに含まれる領域の前後関係を判別させる単眼奥行き情報判別ステップと、
両眼奥行き情報判別部に、前記時分割表示型の立体映像データを入力し、左画像と仮定する画像と、右画像と仮定する画像を選択し、選択した左画像および右画像を含む複数画像を適用して画像フレームに含まれる領域の前後関係を判別させる両眼奥行き情報判別ステップと、
左右画像識別部に、前記単眼奥行き情報判別部の第1判別結果と、前記両眼奥行き情報判別部の第2判別結果を入力して2つの判別結果の比較を行わせ、両判別結果の一致度が高い場合は、前記両眼奥行き情報判別部の設定した仮定が正しいと判断し、前記立体映像データを構成する各画像フレームが左画像であるか右画像であるかの識別情報を、前記仮定と一致させた識別情報として出力させる左右画像識別ステップと、
を有するプログラムにある。
なお、本発明のプログラムは、例えば、様々なプログラム・コードを実行可能な汎用システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、コンピュータ・システム上でプログラムに応じた処理が実現される。
本発明のさらに他の目的、特徴や利点は、後述する本発明の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
本発明の一実施例構成によれば、時分割表示型の立体表示映像データを入力し、入力データを構成する画像フレームが右目用の右画像であるか左目用の左画像であるかを正確に識別する。左画像または右画像のいずれか一方の画像を適用して画像に含まれる領域の前後関係を判別する単眼奥行き情報判別部と、左画像と仮定する画像と、右画像と仮定する画像を含む複数画像を適用して領域の前後関係を判別する両眼奥行き情報判別部と、これら2つの奥行き情報判別部の2つの判別結果を比較して一致度が高い場合は、両眼奥行き情報判別部の設定した仮定が正しいと判断して、その仮定と一致する左右画像識別情報を出力し、一致度が低い場合は仮定が正しくないと判断して、仮定と逆の左右画像識別情報を出力する。この処理によって、時分割表示型の立体表示映像データを構成する各画像の正しい左右画像識別が可能となり、この識別情報を利用した制御によって正しい奥行き感の得られる立体画像表示および観察が可能となる。
以下、図面を参照しながら本発明の画像データ解析装置、および画像データ解析方法、並びにプログラムの詳細について説明する。説明は以下の項目に従って行う。
(1)画像データ解析装置の構成および原理説明
(2)液晶シャッター制御装置としての利用例
(3)偏光制御装置としての利用例
(1)画像データ解析装置の構成および原理説明
図1に本発明の一実施例に係る画像データ解析装置の基本構成を示す。図1に示すように、本発明の一実施例に係る画像データ解析装置100は、単眼奥行き情報判別部101、両眼奥行き情報判別部102、左右画像識別部103を有する。
画像データ解析装置100には、時分割方式の立体映像データ10が入力される。時分割方式の立体映像データ10は、左目のみに呈示されるべき画像フレームである左画像、右目のみに呈示されるべき画像フレームである右画像が交互に並べられた映像データである。例えば偶数フレームが左目のみに呈示されるべき左画像、奇数フレームが右目のみに呈示される右画像、あるいはその逆の組み合わせとなる。
単眼奥行き情報判別部101には立体映像データ10を構成するフレームの内、一方の目用の画像のみが入力される。本実施例では、偶数フレームのみが入力されるものとして説明する。単眼奥行き情報判別部101は、入力された偶数フレームを参照し、フレーム中の複数の領域に関して、その奥行きを判別し、結果を左右画像識別部103に出力する。
一方、両眼奥行き情報判別部102には立体映像データ10を構成する全てのフレームが入力される。すなわち、左目のみに呈示されるべき画像フレームである左画像、右目のみに呈示されるべき画像フレームである右画像が交互に並べられた映像データの構成フレームの全てが入力される。
両眼奥行き情報判別部102は、入力された立体映像データの偶数フレームと奇数フレームを参照し、例えば偶数フレームを左画像と仮定した上でフレーム中の複数の領域に関して、ステレオマッチングによりその奥行きを判別し、結果を左右画像識別部103に出力する。
左右画像識別部103は、単眼奥行き情報判別部101により入力された複数の領域の奥行きと、両眼奥行き情報判別部102により入力された複数の領域の奥行きとが矛盾しているかどうかを調べることによって、立体映像データ10の偶数フレームと奇数フレームのいずれが左画像でいずれが右画像であるのかを識別し、その結果を出力する。各部の詳細を以下に説明する。
まず、単眼奥行き情報判別部101について説明する。
単眼奥行き情報判別部101には立体映像データ10を構成するフレームの内、右目用の画像である右画像、または左目用の画像である左画像の一方の画像のみが入力されるすなわち、偶数フレームまたは奇数フレームのいずれか一方のみが入力される。
以後、単眼奥行き情報判別部101には、偶数フレームのみが入力されるとして説明をおこなう。単眼奥行き情報判別部101は入力された偶数フレームの1つの画像フレームに含まれる2つ以上の領域を選択し、それらの領域の奥行き方向の前後関係を偶数フレームのみを用いて検出する。
この左目用の左画像、あるいは右目用の右画像のいずれか一方の目用の画像フレームから奥行き方向の前後関係を検出する方法には様々な手法が適用可能である。例えば、1枚のフレームから領域の前後関係を推測する既存技術としては、領域の撮像ボケから推測する方法や、領域の垂直方向の位置関係などから、下にあるものほど手前にあると推測する方法などがある。
また、複数のフレーム(但し、偶数フレームのみ)を利用して領域の前後関係を推測する方法としては、移動する2つの領域をトラッキングし、重なりを検知することで2つの領域の奥行き方向の前後関係を検出する方法などがある。
単眼奥行き情報判別部101は、例えばこれらの方法を適用して画像フレームを構成する複数の領域や、画像フレームに存在するオブジェクトの前後関係を検出する。なお、この際、奥行き方向の前後関係のみが検出されれば良く、各領域の具体的な奥行きを検出する必要はない。
単眼奥行き情報判別部101の実行する単眼奥行き情報判別処理の具体例について説明する。
単眼奥行き情報判別部101は、例えば画像フレームを構成する複数の領域の前後関係、すなわち各領域が、画像フレームを撮影したカメラに近い位置にあるか遠い位置にあるかの検出を行う。例えば、6つの領域A・B・C・D・E・Fを奥行き検出の対象として設定した場合、6つの領域A〜Fの前後関係を全て明らかにする。つまり、6つの領域A〜Fが手前から奥に向って、どのような順で並んでいるかを検出する。
あるいは、例えばAとB、CとD、EとFという領域の組に関して、それぞれの組の領域の前後関係を明らかにする。すなわち、例えばAはBよりも手前にあり、DはCよりも手前にあり、EはFよりも手前にあるといった情報を検出する。
いずれの場合でも、単眼奥行き情報判別部101は、フレーム中の複数の領域に関して、相対的な前後関係を検出し、その結果を左右画像識別部103に出力する。
続いて、両眼奥行き情報判別部102の処理について説明する。両眼奥行き情報判別部102には、立体映像データ10を構成する偶数フレームおよび奇数フレームが共に入力される。
両眼奥行き情報判別部102は、例えば偶数フレームを左画像と仮定し、奇数フレームを右画像と仮定した上で、ステレオマッチングにより、単眼奥行き情報判別部101が用いたと同じ複数の領域、あるいはオブジェクトの奥行きを検出する。
両眼奥行き情報判別部102は、左画像と右画像の双方の画像を用いてステレオマッチングを行って単眼奥行き情報判別部101が用いたと同じ複数の領域、あるいはオブジェクトの奥行きを検出する。ステレオマッチングの手法としては、様々な手法が適用可能である。例えばブロックマッチングに基づく方法や、動的計画法に基づく方法が利用可能である。
例えば、上述したように単眼奥行き情報判別部101が、偶数フレーム(例えば左画像)のみから6つの領域A・B・C・D・E・Fについての前後関係を判別する場合、両眼奥行き情報判別部102も、6つの領域A・B・C・D・E・Fについての前後関係を偶数および奇数フレーム、すなわち左画像と右画像を用いて判別する。
左画像と仮定されるフレームと右画像と仮定されるフレームを用いることによって、これら6つの領域のディスパリティを検出することができ、6つの領域A〜Fの奥行き方向の前後関係が明らかになる。または、両眼奥行き情報判別部102は、例えばAとB、CとD、EとFという領域の組に関して、それぞれの組の領域の前後関係を明らかにする設定としてもよい。すなわち、例えばAはBよりも手前にあり、DはCよりも手前にあり、EはFよりも手前にあるといった情報を検出する設定としてもよい。
以上のいずれの場合でも、両眼奥行き情報判別部102は、領域間の奥行き方向の前後関係を検出すれば十分であり、具体的な奥行き量を検出する必要はない。両眼奥行き情報判別部102は検出した複数の領域に関する前後関係の結果を左右画像識別部103に出力する。
単眼奥行き情報判別部101と、両眼奥行き情報判別部102の処理態様、例えば、
(1)A〜Fのすべての前後関係を明らかにする
(2)A〜Fの2つの組、AとB、CとD、EとFという領域の組に関して、それぞれの組の領域の前後関係を明らかにする
これら(1),(2)の処理のいずれかを行うかは、どちらでもよいが、2つの判別部とも同様の処理を行うことが好ましい。
最後に左右画像識別部103の処理について説明する。左右画像識別部103は、上述の単眼奥行き情報判別部101および両眼奥行き情報判別部102により得られた、複数の領域、あるいはオブジェクトの前後関係が一致するか否かを検証する。
さらに単眼奥行き情報判別部101および両眼奥行き情報判別部102の判定結果の一致、または不一致情報に基づいて、入力された立体映像データの偶数フレームが左画像であるのか右画像であるのか、奇数フレームが右画像であるのか左画像であるのかを識別する。
具体的には、単眼奥行き情報判別部101から得られた複数の領域の前後関係と、両眼奥行き情報判別部102から得られた複数の領域の前後関係が一致している場合、左右画像識別部103は、偶数フレームまたは奇数フレームの内、両眼奥行き情報判別部102がステレオマッチングの際に左画像であると仮定したフレームを左画像と識別し、残りのフレームを右画像であると識別する。
一方、単眼奥行き情報判別部101から得られた複数の領域の前後関係と、両眼奥行き情報判別部102から得られた複数の領域の前後関係が一致しない場合、左右画像識別部103は、偶数フレームまたは奇数フレームの内、両眼奥行き情報判別部102がステレオマッチングの際に左画像であると仮定したフレームを右画像と識別し、残りのフレームを左画像であると識別する。
以下、単眼奥行き情報判別部101および両眼奥行き情報判別部102が、AとB、CとD、EとFという領域の組に関する奥行きの前後関係を解析し、その結果を入力した場合の左右画像識別部103の処理例について説明する。
両眼奥行き情報判別部102は、
偶数フレームを左目用の左画像、
奇数フレームを右目用の右画像、
この仮定の下にステレオマッチングをおこなうものとする。
なお、領域Aが領域Bより奥に存在する(画像を撮影したカメラから遠い)との判定を、
A>B
と表現する。
例えば、単眼奥行き情報判別部101や両眼奥行き情報判別部102の各々は、
[A>B、C>D、E>F]といった情報を、左右画像識別部103に出力する。
[A>B、C>D、E>F]は、
AはBよりも奥(カメラから遠い)にあり、CはDよりも奥にあり、EはFよりも奥にあるということを意味する。
以下、
(a)単眼奥行き情報判別部101と両眼奥行き情報判別部102の判別結果が完全に一致する場合
(b)単眼奥行き情報判別部101と両眼奥行き情報判別部102の判別結果が全て不一致である場合
(c)単眼奥行き情報判別部101と両眼奥行き情報判別部102の判別結果が一部一致し、一部不一致の場合
(c1)一致する割合が大きい場合
(c2)不一致の割合が大きい場合
これらの(a)〜(c)の各ケースについて説明する。
(a)単眼奥行き情報判別部101と両眼奥行き情報判別部102の判別結果が完全に一致する場合
単眼奥行き情報判別部101と両眼奥行き情報判別部102の判別結果が完全に一致する場合は、例えば以下の例である。
単眼奥行き情報判別部101の出力→[A>B、C<D、E>F]、
両眼奥行き情報判別部102の出力→[A>B、C<D、E>F]、
このような判別結果が、左右画像識別部103に入力された場合の処理は以下の通りである。
単眼奥行き情報判別部101の判別結果と両眼奥行き情報判別部102の判別結果とが一致している。この場合、左右画像識別部103は、両眼奥行き情報判別部102の奥行き判別処理において設定した仮定、すなわち、
「偶数フレームが左画像であり奇数フレームが右画像」
この仮定は正しいと判断する。結果として、左右画像識別部103は、両眼奥行き情報判別部102の実行した判別処理において設定した仮定、すなわち、
「偶数フレームが左画像であり奇数フレームが右画像」
この情報を左右画像識別結果として出力する。
(b)単眼奥行き情報判別部101と両眼奥行き情報判別部102の判別結果が全て、不一致である場合
単眼奥行き情報判別部101と両眼奥行き情報判別部102の判別結果が完全に不一致である場合は、例えば以下の例である。
単眼奥行き情報判別部101の出力→[A>B、C<D、E>F]、
両眼奥行き情報判別部102の出力→[A<B、C>D、E<F]、
このような判別結果が、左右画像識別部103に入力された場合の処理は以下の通りである。
この場合、単眼奥行き情報判別部101の判別結果と両眼奥行き情報判別部102の判別結果とが全て一致していない。この場合、左右画像識別部103は、両眼奥行き情報判別部102の奥行き判別処理において設定した仮定、すなわち、
「偶数フレームが左画像であり奇数フレームが右画像」
この仮定は誤りであると判断する。結果として、左右画像識別部103は、両眼奥行き情報判別部102の実行した判別処理において設定した仮定と逆の設定、すなわち、
「偶数フレームが右画像であり奇数フレームが左画像」
この情報を左右画像識別結果として出力する。
(c)単眼奥行き情報判別部101と両眼奥行き情報判別部102の判別結果が一部一致し、一部不一致の場合
単眼奥行き情報判別部101と両眼奥行き情報判別部102の判別結果が一部一致し、一部不一致の場合は、
(c1)一致する割合が大きい
(c2)不一致の割合が大きい
上記(c1),(c2)のケースによって異なる処理となる。
(c1)一致する割合が大きい場合は、例えば以下の例である。
単眼奥行き情報判別部101の出力→[A>B、C<D、E>F]、
両眼奥行き情報判別部102の出力→[A>B、C<D、E<F]、
このような場合である。
上記例では、単眼奥行き情報判別部101の判別結果と両眼奥行き情報判別部102の判別結果とが概ね一致している。この場合、左右画像識別部103は、両眼奥行き情報判別部102の奥行き判別処理において設定した仮定、すなわち、
「偶数フレームが左画像であり奇数フレームが右画像」
この仮定は正しいと判断する。結果として、左右画像識別部103は、両眼奥行き情報判別部102の実行した判別処理において設定した仮定、すなわち、
「偶数フレームが左画像であり奇数フレームが右画像」
この情報を左右画像識別結果として出力する。
(c1)不一致の割合が大きい場合は、例えば以下の例である。
単眼奥行き情報判別部101の出力→[A>B、C<D、E>F]、
両眼奥行き情報判別部102の出力→[A>B、C>D、E<F]、
このような場合である。
上記例では、単眼奥行き情報判別部101の判別結果と両眼奥行き情報判別部102の判別結果とが概ね不一致である。この場合、左右画像識別部103は、両眼奥行き情報判別部102の奥行き判別処理において設定した仮定、すなわち、
「偶数フレームが左画像であり奇数フレームが右画像」
この仮定は誤りであると判断する。結果として、左右画像識別部103は、両眼奥行き情報判別部102の実行した判別処理において設定した仮定と逆の設定、すなわち、
「偶数フレームが右画像であり奇数フレームが左画像」
この情報を左右画像識別結果として出力する。
このように左右画像識別部103は、単眼奥行き情報判別部101および両眼奥行き情報判別部102から得られる複数の領域に関する前後関係が矛盾しない場合には両眼奥行き情報判別部102が行ったステレオマッチングの際の仮定を正しいと判断する。左右画像識別部103は、両眼奥行き情報判別部102が行ったステレオマッチングの際の仮定と同じ結論を左右画像識別結果として出力する。すなわち、偶数フレームが左画像であるか右画像であるか、奇数フレームが右画像であるか左画像であるかを両眼奥行き情報判別部102の仮定と同じ結果として出力する。
また、複数の領域に関する前後関係が矛盾する場合には両眼奥行き情報判別部102がおこなったステレオマッチングの際の仮定を誤りであると判断する。左右画像識別部103は、両眼奥行き情報判別部102が行ったステレオマッチングの際の仮定と逆の結論を左右画像識別結果として出力する。すなわち、偶数フレームが左画像であるか右画像であるか、奇数フレームが右画像であるか左画像であるかを両眼奥行き情報判別部102の仮定と逆の設定とした結果を出力する。
以上説明したように、左右画像識別部103は、単眼奥行き情報判別部101の複数の第1判別結果と、両眼奥行き情報判別部102の複数の第2判別結果を入力して比較を行い、一致度が予め設定した閾値(たとえば1/2)以上である場合は、両眼奥行き情報判別部102の設定した仮定が正しいと判断して、立体映像データ10を構成する各画像フレームが左画像であるか右画像であるかの識別情報を、両眼奥行き情報判別部102の設定した仮定と一致させた情報として出力する。
また、一致度が予め設定した閾値未満である場合は、両眼奥行き情報判別部102の設定した仮定が誤りであると判断し、立体映像データ10を構成する各画像フレームが左画像であるか右画像であるかの識別情報を、両眼奥行き情報判別部102の設定した仮定と逆の設定とした識別情報として出力する。
左右画像識別部103は、以上のような処理を行うことで、左画像と右画像の正しい識別結果を生成して出力する。
次に、左右画像識別部103が上述した処理を行うことで左画像と右画像の識別が可能となる原理的な理由について、図2から図6を参照して説明する。
図2は、立体映像データの左画像と右画像の撮影時の状況を上から見た図を示している。図2(a)のように、2つのカメラ220,230で立体映像データの左画像と右画像を撮影する状況において、撮影対象に含まれるオブジェクト211,212と、各カメラ220,230の撮像面240に写るオブジェクト画像の位置等の関係を説明する図である。被写体となるオブジェクト211,212を異なる位置にある左右のカメラ220,230で撮影する。オブジェクト211は、オブジェクト212よりも奥の位置(カメラから遠い位置)にある。
図2(b)は、図2(a)の拡大図である。図2(b)には、カメラ220のカメラ中心221、カメラ230のカメラ中心231を示している。左右の各カメラで撮影されるオブジェクトの像は、図2(b)に示す撮像面240の撮像オブジェクト225,226,235,236のようになる。
左側の左目用の左画像を撮影するカメラ220は、オブジェクト211,212について白色で示す撮像オブジェクト225と、撮像オブジェクト226を持つ画像を撮影する。
右側の右目用の右画像を撮影するカメラ230は、オブジェクト211,212について黒色で示す撮像オブジェクト235と、撮像オブジェクト236を持つ画像を撮影する。
この撮影結果として得られる画像フレームは、図3に示す(a)左画像、(b)右画像となる。
(a)左画像に示す画像フレーム320には、撮像オブジェクト225,226が撮影されている。
(b)右画像に示す画像フレーム330には、撮像オブジェクト235,236が撮影されている。
時分割方式の立体画像表示処理に際しては、(a),(b)の左画像フレーム320と右画像フレーム330を連続的に表示する。すなわち例えば左画像からなる偶数フレームと右画像からなる奇数フレームを交互に表示する、表示が十分に高速であれば、左画像と右画像は重なって見える。図3に示す(c)表示画像350である。シャッターメガネを用いることで、左画像は左目のみに、右画像は右目のみに、知覚されることとなり立体映像として認識される。
図3に示す(a)左画像フレーム320と、(b)右画像フレーム330を持つ映像フレームを、本発明の画像データ解析装置100に入力して処理を行った場合の処理例について説明する。
まず、単眼奥行き情報判別部101は、例えば図3(a)の左画像フレーム320を用いて2つ以上の領域の奥行きの前後関係を判別する。簡単のため、撮像オブジェクト225,226が2つの奥行き判別領域であるとする。以下、撮像オブジェクト225を領域225、撮像オブジェクト226を領域226と表現する。
単眼奥行き情報判別部101は領域225および領域226の奥行きの前後関係を判定する。ここでは、領域226は領域225よりも手前にあると判別し、この結果を左右画像識別部103に出力したものとする。
一方、両眼奥行き情報判別部102は、図3(a)の左画像フレーム320と図3(b)の右画像フレーム330を用いて、ステレオマッチングにより領域225および領域226の前後関係を判別する。
この処理を行う場合、両眼奥行き情報判別部102は、入力する立体映像データを構成する連続フレーム、例えば偶数フレームと、奇数フレームのそれぞれについて、一方を左画像、他方を右画像と仮定して、その仮定の下にステレオマッチング処理を実行して、各領域またはオブジェクトの前後関係の判定を行う。
しかし、両眼奥行き情報判別部102の設定する仮定は正しい場合もあるが、誤った仮定を行う場合もある。以下、
(A)両眼奥行き情報判別部102の設定する仮定が正しい場合の処理例
(B)両眼奥行き情報判別部102の設定する仮定が正しくない場合の処理例
これらの処理例について説明する。
(A)両眼奥行き情報判別部102の設定する仮定が正しい場合の処理例
まず、正しい仮定が両眼奥行き情報判別部102により行われた場合の処理について説明する。正しい仮定とは、この例の場合、
図3(a)の画像フレーム320が、左目用の左画像フレームであり、
図3(b)の画像フレーム330が、右目用の右画像フレームである、
とする仮定である。
上記の仮定に基づいて、画像フレーム320と画像フレーム330から距離推定を行う処理について図4を参照して説明する。図4は、画像フレーム320と画像フレーム330に撮影された各撮像オブジェクトに対応する領域225,226,235,236の画像フレーム中の位置情報と、予め取得済みのカメラ220,230のカメラ位置情報とを用いて、オブジェクト411,412の推定位置を求める処理を説明する図である。
図4は、図2と同様のカメラ配置において撮影された2つの画像から、オブジェクト411,412の実際の位置を推定する処理を説明する図である。図に示す点線で示すオブジェクト411,412は、以下に説明する処理によって推定されるオブジェクト位置を示している。
図4(b)は、図4(a)の拡大図である。図4(b)に示す撮像面440は、図3に示す画像フレーム320と画像フレーム330を撮影したカメラ内の位置に対応する。画像フレーム320と画像フレーム330を用いたステレオマッチングにより、画像フレーム320の領域226と画像フレーム330の領域236とが同一のオブジェクトを撮影した結果得られた像であることが分かる。撮像面440上のこれらの領域226,236と撮影したカメラのカメラ中心221,231とを結んで得られる交点の位置がオブジェクト412の実際の位置であると推定される。
オブジェクト412の位置推定は以下のようにして行われる。
左画像であると仮定した図3に示す画像フレーム320に含まれる領域226、すなわち図4に示す領域226を、左画像を撮影した左カメラ220のカメラ中心221と結ぶ。
同様に、右画像であると仮定した図3に示す画像フレーム330に含まれる領域236、すなわち図4に示す領域236を、右画像を撮影した右カメラ230のカメラ中心231と結ぶ。
この2つの線の交点の位置が領域226,236に対応するオブジェクト412の推定位置として求められる。
オブジェクト411の位置推定は以下のようにして行われる。
左画像であると仮定した図3に示す画像フレーム320に含まれる領域225、すなわち図4に示す領域225を、左画像を撮影した左カメラ220のカメラ中心221と結ぶ。
また、右画像であると仮定した図3に示す画像フレーム330に含まれる領域235、すなわち図4に示す領域235を、右画像を撮影した右カメラ230のカメラ中心231と結ぶ。
この2つの線の交点の位置が領域225,235に対応するオブジェクト411の推定位置として求められる。
結果として、両眼奥行き情報判別部102は、
領域225,235に対応するオブジェクト411は、領域226,236に対応するオブジェクト412よりも奥に位置する(カメラから離れた位置にある)と判定する。
この結果は、両眼奥行き情報判別部102から左右画像識別部103に出力される。
すなわち、
図3に示す左画像として仮定した画像フレーム320の領域226は領域225よりも手前にあるとの判断結果、
[領域225>領域226]
この結果を両眼奥行き情報判別部102は、左右画像識別部103に出力する。
単眼奥行き情報判別部101が、上記判断結果と同じ判断結果、すなわち領域226は領域225よりも手前にあると判別し、
[領域225>領域226]
この結果を左右画像識別部103に出力しているとする。
この場合、左右画像識別部103は、単眼奥行き情報判別部101の判別結果と、両眼奥行き情報判別部102の判別結果が一致することを確認する。この結果、左右画像識別部103は、両眼奥行き情報判別部102の判別処理において適用した仮定、すなわち、
「図3に示す画像フレーム320が左画像であり画像フレーム330が右画像」
この仮定は正しいと判断する。結果として、左右画像識別部103は、両眼奥行き情報判別部102の実行した判別処理において設定した仮定と同じ設定とした情報、例えば、「偶数フレームが左画像であり奇数フレームが右画像」
このような情報を左右画像識別結果として出力する。
(B)両眼奥行き情報判別部102の設定する仮定が正しくない場合の処理例
続いて、両眼奥行き情報判別部102の設定する仮定が正しくない場合の処理例について図5、図6を参照して説明する。
正しい仮定は、先に図3を参照して説明したように、
図3(a)の画像フレーム320が、左目用の左画像フレームであり、
図3(b)の画像フレーム330が、右目用の右画像フレームである、
とする仮定である。
一方、正しくない仮定は、その逆の仮定である。この正しくない仮定は、図5に示すように、
図5(a)の画像フレーム520(図3(a)に相当)を、右目用の右画像フレームし、
図5(b)の画像フレーム530(図3(b)に相当)を、左目用の左画像フレーム、
とする仮定である。
この場合、この誤った判断に基づく時分割方式の立体画像表示処理を行うと、図5に示す(c)表示画像550となる。シャッターメガネを用いてこの表示画像を観察すると、本来の左画像が右目で観察され、本来の右画像が左目で観察されてしまい、奥行感が実際のものと異なって知覚されることとなる。
図5に示す誤った仮定に基づいて、両眼奥行き情報判別部102が、画像フレーム520と画像フレーム530から距離推定を行う処理について図6を参照して説明する。図6は、画像フレーム520と画像フレーム530に撮影された各撮像オブジェクトに対応する領域525,526,535,536の画像フレーム中の位置情報と、予め取得済みのカメラ520,530のカメラ位置情報とを用いて、オブジェクト581,582の推定位置を求める処理を説明する図である。
図6は、図2、図4に示したと同様のカメラ配置において撮影された2つの画像から、オブジェクト581,582の実際の位置を推定する処理を説明する図である。図に示す点線で示すオブジェクト581,582は、以下に説明する処理によって推定されるオブジェクト位置を示している。
図6(b)は、図6(a)の拡大図である。図6(b)に示す撮像面540は、図5に示す画像フレーム520と画像フレーム530を撮影したカメラ内の位置に対応する。画像フレーム520と画像フレーム530を用いたステレオマッチングにより、画像フレーム520の領域526と画像フレーム530の領域536とが同一のオブジェクトを撮影した結果得られた像であることが分かる。撮像面540上のこれらの領域526,536と撮影したカメラのカメラ中心221,231とを結んで得られる交点の位置がオブジェクト582の位置であると推定される。
オブジェクト582の位置推定は以下のようにして行われる。
右画像であると誤った仮定をした図5に示す画像フレーム520に含まれる領域526、すなわち図6に示す領域526は、右画像を撮影した右カメラ230のカメラ中心231と結ぶ。
同様に、左画像であると誤った仮定をした図5に示す画像フレーム530に含まれる領域536、すなわち図6に示す領域536を、左画像を撮影した左カメラ220のカメラ中心221と結ぶ。
この2つの線の交点の位置が領域526,536に対応するオブジェクト582の実際の位置として推定される。
オブジェクト581の位置推定は以下のようにして行われる。
右画像であると誤って仮定した図5に示す画像フレーム520に含まれる領域525、すなわち図6に示す領域525を、右画像を撮影した右カメラ230のカメラ中心231と結ぶ。
また、左画像であると誤って仮定した図5に示す画像フレーム530に含まれる領域535、すなわち図6に示す領域535を、左画像を撮影した左カメラ220のカメラ中心221と結ぶ。
この2つの線の交点の位置が領域225,235に対応するオブジェクト581の実際の位置として推定される。
結果として、両眼奥行き情報判別部102は、
領域525,535に対応するオブジェクト581は、領域526,536に対応するオブジェクト582よりも手前に位置する(カメラに近い位置にある)と判定する。
この結果は、両眼奥行き情報判別部102から左右画像識別部103に出力される。
すなわち、
図5に示す右画像として仮定した画像フレーム520の領域526は領域525よりも奥にあるとの判断結果、
[領域526>領域525]
この結果を両眼奥行き情報判別部102は、左右画像識別部103に出力する。
単眼奥行き情報判別部101が、上記判断結果と異なる判断結果、すなわち領域526は領域525よりも手前にあると判別し、
[領域525>領域526]
この結果を左右画像識別部103に出力しているとする。
この場合、左右画像識別部103は、単眼奥行き情報判別部101の判別結果と、両眼奥行き情報判別部102の判別結果が一致しないことを確認する。この結果、左右画像識別部103は、両眼奥行き情報判別部102の判別処理において適用した仮定、すなわち、
「図5に示す画像フレーム520が右画像であり画像フレーム530が左画像」
この仮定は誤りであると判断する。結果として、左右画像識別部103は、両眼奥行き情報判別部102の実行した判別処理において設定した仮定と逆の設定とした情報、例えば、「偶数フレームが左画像であり奇数フレームが右画像」
このような情報を左右画像識別結果として出力する。
上述したように、単眼奥行き情報判別部101が、左目または右目に用の画像のみに基づいて判断した領域またはオブジェクトの前後関係情報と、両眼奥行き情報判別部102が設定した左画像と右画像の仮定の下でステレオマッチングによって判断した領域またはオブジェクトの前後関係情報が一致する場合と、不一致となる場合が発生する。
一致する場合は、両眼奥行き情報判別部102が設定した左画像と右画像の仮定が正しい場合である。不一致となる場合は、両眼奥行き情報判別部102が設定した左画像と右画像の仮定が正しくない場合である。左右画像識別部103は、この分析を行って左右画像識別結果を出力する。
すなわち、単眼奥行き情報判別部101から入力する領域またはオブジェクトの前後関係情報と、両眼奥行き情報判別部102から入力する領域またはオブジェクトの前後関係情報が一致する場合には、両眼奥行き情報判別部102の実行した判別処理において設定した仮定を正しいと判断してその仮定に一致する情報を左右画像識別結果として出力する。
一方、単眼奥行き情報判別部101から入力する領域またはオブジェクトの前後関係情報と、両眼奥行き情報判別部102から入力する領域またはオブジェクトの前後関係情報が一致しない場合には、両眼奥行き情報判別部102の実行した判別処理において設定した仮定が正しくないと判断してその仮定と逆の情報を左右画像識別結果として出力する。
以上のような処理によって、本発明のデータ解析装置100は入力された時分割の立体映像データを構成する偶数フレームおよび奇数フレームのいずれが左画像であり、いずれが右画像であるかを正しく識別し、識別結果を出力する。
次に、本発明のデータ解析装置100の解析結果を利用した装置構成例として、立体映像観察用の液晶シャッターメガネの駆動制御を行う装置と、立体映像表示処理に適用する偏光器の制御装置の構成例について説明する。
(2)液晶シャッター制御装置としての利用例
図7に、図1〜図6を参照して説明した画像データ解析装置100による左画像と右画像の判別結果を、立体映像観察用の液晶シャッターメガネの駆動制御を行う液晶シャッター制御装置として利用した構成例を示す。
図7に示す液晶シャッター制御装置600は、図1〜図6を参照して説明した画像データ解析装置100を有し、さらに、シャッター駆動信号出力部601、信号反転部602を有する。
立体映像データ10は、時分割方式の立体映像データであり、左目用の左画像と、右目用の右画像が異なるフレームとして交互に現れるデータである。図1の画像データ解析装置100に対する入力データと同様のデータである。立体映像データ10は、液晶シャッター制御装置600に入力されるとともに、表示装置620に入力されて表示される。
表示装置620は、時分割方式の立体映像データを左画像と右画像を交互に表示する。この画像は、液晶シャッターメガネ630を装着したユーザ(図示せず)によって観察される。液晶シャッター制御装置600は、液晶シャッターメガネ630の液晶シャッターの駆動信号を出力する。
すなわち、液晶シャッター制御装置600は、表示装置620において左目用の左画像が出力されるタイミングで、液晶シャッターメガネ630の右目の液晶シャッターを閉じ、左目の液晶シャッターを開けるように制御する制御信号を出力する。また、表示装置620において右目用の右画像が出力されるタイミングで、液晶シャッターメガネ630の左目の液晶シャッターを閉じ、右目の液晶シャッターを開けるように制御する制御信号を出力する。
シャッター駆動信号出力部601は、例えば立体映像データ10の垂直同期信号に基づき、液晶シャッターメガネ630を駆動するための信号を生成して出力する。これは、例えば図8(b)に示すような矩形波である。信号が[HIGH]の場合には液晶シャッターメガネ630の左が開口し、信号が[LOW]の場合には液晶シャッターメガネ630の右が開口するものとする。図8(a)は、表示装置620に表示される画像の切り替えシーケンスを示している。[LEFT]は左画像、[RIGHT]は右画像である。
表示装置620に左目用の左画像が表示されているときに信号が[HIGH]となり、右画像が表示されているときに信号が[LOW]となれば、液晶シャッターメガネ630を装着したユーザは、左画像を左目で観察し、右画像を右目で観察することができ、適切な立体視が実現される。
しかし、シャッター駆動信号出力部601は映像信号と同期した信号を発生することは可能であるが、表示されているフレームの左右の別を判別することはできないので、右画像が表示されているときに信号が[HIGH]となり、左画像が表示されているときに信号が[LOW]となる可能性がある。なお、シャッター駆動信号出力部601が出力する信号は、偶数フレームが表示されるタイミングで[HIGH]となり奇数フレームが表示されるタイミングで[LOW]となるものとする。但し、これは逆であっても構わない。逆の場合は、以下に説明する画像データ解析装置100内の両眼奥行き情報判別部が、偶数フレームと奇数フレームのいずれを左画像と仮定するかも同様に逆になる。
図7に示す液晶シャッター制御装置600内の画像データ解析装置100の処理について説明する。画像データ解析装置100は、図1〜図6を参照して説明したように、立体映像データ10を入力して、立体映像データ10を構成する偶数フレームおよび奇数フレームのいずれが左画像であるか右画像であるかを識別し、その結果を出力する。具体的には、偶数フレームが左画像で奇数フレームが右画像の場合には[LOW]信号、奇数フレームが左画像で偶数フレームが右画像の場合には[HIGH]信号を出力する。
次に、信号反転部602の処理について説明する。信号反転部602は、既に説明した画像データ解析装置100の出力及び、シャッター駆動信号出力部601の出力の排他的論理和(XOR)を出力する。信号反転部602の出力は、通信ケーブルあるいは無線通信、赤外線などにより液晶シャッターメガネ630に供給され、液晶シャッターメガネ630の左右の目に対応するシャッターを交互に駆動する。
以上の構成により液晶シャッターメガネ630が、表示装置620に表示される左画像と右画像に同期して制御される。表示装置620において左目用の左画像が出力されるタイミングで、液晶シャッターメガネ630の右目の液晶シャッターを閉じ、左目の液晶シャッターを開口する。また、表示装置620において右目用の右画像が出力されるタイミングで、液晶シャッターメガネ630の左目の液晶シャッターを閉じ、右目の液晶シャッターを開口する。このような制御を行う制御信号が液晶シャッター制御装置600から液晶シャッターメガネ630に出力される。
図8は、図7の各部で得られる信号を示している。
図8(a)は、表示装置620に表示される画像の切り替えシーケンスを示している。[LEFT]は左画像、[RIGHT]は右画像である。時間t1において、左画像が連続している。
従って、時間t1以前は、偶数フレームが左画像、奇数フレームが右画像であった場合、時間t1以降は、偶数フレームが右画像、奇数フレームが左画像に入れ替わってしまっている。
図8(b)は、シャッター駆動信号出力部601の出力であり、既に述べたように偶数フレームが表示されているタイミングで[HIGH]となり、奇数フレームが表示されているタイミングで[LOW]となる矩形波である。
図8(c)は、画像データ解析装置100の出力であり、偶数フレームが左画像である間は[LOW]の信号を出力しており、偶数フレームが[右画像]になったと同時に[HIGH]の信号を出力する。
図8(b)に示すシャッター駆動信号出力部601の出力と、図8(c)に示す画像データ解析装置100の出力が、信号反転部602に入力され、これらの2つの信号の排他的論理和(XOR)信号を生成して液晶シャッターメガネ630に供給される。
図8(d)に示す信号が信号反転部602が生成して出力する信号となる。図8(d)に示す信号は、(b),(c)の信号の排他的論理和(XOR)結果である。この図8(d)に示す信号は、図8(a)に示す表示装置の画像表示タイミングと併せて観察すると理解されるように、左画像[LEFT]が表示されるタイミングにおいては常に[HIGH]となっており、右画像[RIGHT]が表示されるタイミングにおいては常に[LOW]となっている。よって、液晶シャッターメガネ630が、この図8(d)に示す信号、すなわち、液晶シャッター制御装置600の出力に基づいて動作することにより、表示装置620に表示される左画像は観察者の左目のみに入射し、右画像は右目のみに入射する。この制御によって、観察者は正しい立体画像の観察が可能となる。
表示装置620において、左画像と右画像とが確実に交互に表示されるとは限らない。例えば、図8(a)に示すように時間t1の前後において、左画像[LEFT]が続けて表示されてしまうことがある。このような場合、シャッター駆動信号出力部601の出力(図8(b))のみでシャッターメガネ630の制御を行うと、時間t1以降において、シャッターメガネ630を装着した観察者は、表示装置620に表示される左画像を右目で観察し、右画像を左目で観察することになり、正しい奥行き感が得られなくなってしまう。
しかし、本発明の構成では、画像データ解析装置100において、左画像と右画像の判別を正しく行っており、この結果に基づいて、シャッター駆動信号出力部601の出力を変更する制御を行っている。この結果、時間t1以前においても、時間t1以降においても、表示装置620に左画像[LEFT]が表示されるタイミングにおいては常に[HIGH]、右画像[RIGHT]が表示されるタイミングにおいては常に[LOW]となる信号(図8(d))による制御が可能となる。
この結果、表示装置620に表示される左画像は観察者の左目のみに入射し、右画像は右目のみに入射するような正確なシャッターメガネ630の制御が可能となり、この制御によって、観察者は正しい立体画像を観察することができる。
(3)偏光制御装置としての利用例
次に、図1〜図6を参照して説明した画像データ解析装置100による左画像と右画像の判別結果を、立体映像表示に適用する偏光器の制御装置として利用した構成例について説明する。
図9に本発明の偏光制御装置700の構成例を示す。図9に示す偏光制御装置700は、図1〜図6を参照して説明した画像データ解析装置100を有し、さらに、偏光器駆動信号出力部701、信号反転部702を有する。
立体映像データ10は、時分割方式の立体映像データであり、左目用の左画像と、右目用の右画像が異なるフレームとして交互に現れるデータである。図1の画像データ解析装置100に対する入力データと同様のデータである。立体映像データ10は、偏光制御装置700に入力されるとともに、投影装置711に入力され、偏光器712を介してスクリーン713に表示される。
投影装置711は例えばプロジェクタや映写機などであり、投影装置711からの投影光は偏光器712を通過し、右円偏光または左円偏光へと偏光される。観察者は、偏光メガネを着用してスクリーン713に投影されている映像を観察する。偏光メガネには、例えば左目側は左円偏光の光線のみを透過し、右目側は右円偏光の光線のみを透過するような偏光フィルタによって構成される。
偏光制御装置700は、立体映像データ10を解析し、投影装置711が現在投影している映像が左画像か右画像かを判別し、偏光器712を、左画像が投影されているときには左円偏光に偏光し、右画像が投影されているときには右円偏光に偏光するように駆動させる制御信号を生成して偏光器712に出力する。
各信号のシーケンスは、先に図8を参照して説明した液晶シャッター制御装置の場合と同様である。図9に示す偏光制御装置700の各構成部の信号パターンを図8を参照して説明する。
図8(a)は、投影装置711に提供される画像の切り替えシーケンスを示している。[LEFT]は左画像、[RIGHT]は右画像である。時間t1において、左画像が連続している。
従って、時間t1以前は、偶数フレームが左画像、奇数フレームが右画像であった場合、時間t1以降は、偶数フレームが右画像、奇数フレームが左画像に入れ替わってしまっている。
図8(b)は、偏光器駆動信号出力部701の出力に対応する。偶数フレームの表示るタイミングで[HIGH]となり、奇数フレームが表示されているタイミングで[LOW]となる矩形波である。
図8(c)は、画像データ解析装置100の出力であり、偶数フレームが左画像である間は[LOW]の信号を出力しており、偶数フレームが[右画像]になったと同時に[HIGH]の信号を出力する。
図8(b)に示す偏光器駆動信号出力部701の出力と、図8(c)に示す画像データ解析装置100の出力が、信号反転部702に入力され、これらの2つの信号の排他的論理和(XOR)信号を生成して偏光器712に供給される。
図8(d)に示す信号が信号反転部702が生成して偏光器712に出力する信号となる。図8(d)に示す信号は、(b),(c)の信号の排他的論理和(XOR)結果である。この図8(d)に示す信号は、図8(a)に示す投影装置711に提供される画像の切り替えタイミングと併せて観察すると理解されるように、左画像[LEFT]が提供され、表示されるタイミングにおいては常に[HIGH]となっており、右画像[RIGHT]が提供され表示されるタイミングにおいては常に[LOW]となっている。よって、偏光器712が、この図8(d)に示す信号、すなわち、偏光制御装置700の出力に基づいて動作することにより、左画像が投影されるときには左円偏光に偏光し、右画像が投影されるときには右円偏光に偏光するように駆動させることが可能となる。
結果として、スクリーン713に投影される左画像は、正しく左円偏光がなされた画像となり、観察者の装着した偏光メガネによって、左円偏光の光線のみを透過する左目側でのみ観察される。また、スクリーン713に投影される右画像は、正しく右円偏光がなされた画像となり、観察者の装着した偏光メガネによって、右円偏光の光線のみを透過する右目側でのみ観察される。この制御によって、観察者は正しい立体画像の観察が可能となる。
投影装置711に提供される立体映像データ10が左画像と右画像とが確実に交互に表示されるとは限らない。例えば、図8(a)に示すように時間t1の前後において、左画像[LEFT]が続けて提供されてしまうことがある。このような場合、偏光器駆動信号出力部701の出力(図8(b))のみで偏光器712の制御を行うと、時間t1以降において、観察者は、スクリーン713に表示される左画像を右目で観察し、右画像を左目で観察することになり、正しい奥行き感が得られなくなってしまう。
しかし、本発明の構成では、画像データ解析装置100において、左画像と右画像の判別を正しく行っており、この結果に基づいて、偏光器駆動信号出力部701の出力を変更する制御を行っている。この結果、時間t1以前においても、時間t1以降においても、スクリーン713に左画像[LEFT]が表示されるタイミングにおいては常に[HIGH]、右画像[RIGHT]が表示されるタイミングにおいては常に[LOW]となる信号(図8(d))による偏光器712の制御が可能となる。
この結果、スクリーン713に表示される左画像は観察者の左目のみに入射し、右画像は右目のみに入射するような正確な偏光制御が可能となり、この制御によって、観察者は正しい立体画像を観察することができる。
図9は、投影装置711から投影された光を、偏光器712を介してスクリーン713に投影して、スクリーン713に投影された画像を偏光メガネを装着した観察者が観察する構成例であった。
図10に、スクリーン投影型とは異なる構成を持つ偏光制御型のシステム例を示す。図10に示す構成では、表示装置711を用いている。表示装置721は、例えばテレビやPCモニタ等によって構成される。表示装置721は、立体映像データ10を表示する。すなわち、左画像と右画像を交互に表示する。
表示装置721に表示された光は偏光器722を通過し、右円偏光または左円偏光へと偏光される。観察者は、偏光メガネを着用して表示装置721から偏光器722を通過した画像を観察する。偏光メガネには、例えば左目側は左円偏光の光線のみを透過し、右目側は右円偏光の光線のみを透過するような偏光フィルタによって構成される。
この構成において、偏光器722の偏光制御信号を偏光制御装置700から提供する。図10に示す偏光制御装置700は図9を参照して説明したと同様の構成を有する。すなわち、図1〜図6を参照して説明した画像データ解析装置100を有し、さらに、偏光器駆動信号出力部701、信号反転部702を有する。
各構成部の信号は、図8を参照して説明した信号となる。すなわち、
図8(a)は、表示装置721に提供される画像の切り替えシーケンス、
図8(b)は、偏光器駆動信号出力部701の出力に対応する。
図8(c)は、画像データ解析装置100の出力に対応する。
図8(d)は、信号反転部702が生成して偏光器722に出力する信号となる。
図8(d)に示す信号反転部702が生成して偏光器722に出力する信号は、図8(b)に示す偏光器駆動信号出力部701の出力と、図8(c)に示す画像データ解析装置100の出力との排他的論理和(XOR)信号である。
この図8(d)に示す信号は、図8(a)に示す表示装置721に提供される画像の切り替えタイミングと併せて観察すると理解されるように、左画像[LEFT]が提供され、表示されるタイミングにおいては常に[HIGH]となっており、右画像[RIGHT]が提供され表示されるタイミングにおいては常に[LOW]となっている。よって、偏光器722が、この図8(d)に示す信号、すなわち、偏光制御装置700の出力に基づいて動作することにより、左画像が表示されるときには左円偏光に偏光し、右画像が表示されるときには右円偏光に偏光するように駆動させることが可能となる。
結果として、偏光器722を介して偏光メガネを装着した観察者が観察する左画像は、正しく左円偏光がなされた画像となり、観察者の装着した偏光メガネによって、左円偏光の光線のみを透過する左目側でのみ観察される。また、観察者が観察する右画像は、正しく右円偏光がなされた画像となり、右円偏光の光線のみを透過する右目側でのみ観察される。この制御によって、観察者は正しい立体画像の観察が可能となる。
本発明の構成では、画像データ解析装置100において、左画像と右画像の判別を正しく行っており、この結果に基づいて、偏光器駆動信号出力部701の出力を変更する制御を行っている。この結果、時間t1前後、いずれのタイミングにおいても、左画像[LEFT]の表示タイミングにおいては常に[HIGH]、右画像[RIGHT]の表示タイミングにおいては常に[LOW]となる信号(図8(d))による偏光器722の制御が行われる。この結果、表示装置721に表示される左画像は観察者の左目のみに入射し、右画像は右目のみに入射するような正確な偏光制御が可能となり、この制御によって、観察者は正しい立体画像を観察することができる。
以上、特定の実施例を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本発明の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
以上、説明したように、本発明の一実施例構成によれば、時分割表示型の立体表示映像データを入力し、入力データを構成する画像フレームが右目用の右画像であるか左目用の左画像であるかを正確に識別する。左画像または右画像のいずれか一方の画像を適用して画像に含まれる領域の前後関係を判別する単眼奥行き情報判別部と、左画像と仮定する画像と、右画像と仮定する画像を含む複数画像を適用して領域の前後関係を判別する両眼奥行き情報判別部と、これら2つの奥行き情報判別部の2つの判別結果を比較して一致度が高い場合は、両眼奥行き情報判別部の設定した仮定が正しいと判断して、その仮定と一致する左右画像識別情報を出力し、一致度が低い場合は仮定が正しくないと判断して、仮定と逆の左右画像識別情報を出力する。この処理によって、時分割表示型の立体表示映像データを構成する各画像の正しい左右画像識別が可能となり、この識別情報を利用した制御によって正しい奥行き感の得られる立体画像表示および観察が可能となる。
本発明の一実施例に係る画像データ解析装置の構成例について説明する図である。 立体映像データの左画像と右画像の撮影時の状況と、カメラ、オブジェクト、および撮影画像に含まれるオブジェクトの位置関係について説明する図である。 立体映像データを構成する左画像と右画像、各画像に含まれるオブジェクトまたは領域の位置関係について説明する図である。 立体映像データを構成する左画像と右画像、各画像に含まれるオブジェクトまたは領域の位置から、オブジェクトの実際の位置を推定する処理について説明する図である。 立体映像データを構成する左画像と右画像を逆に設定した場合の画像に含まれるオブジェクトまたは領域の位置関係について説明する図である。 立体映像データを構成する左画像と右画像を逆に設定した場合におけるオブジェクト位置を推定処理について説明する図である。 画像データ解析装置による左画像と右画像の判別結果を、立体映像観察用の液晶シャッターメガネの駆動制御を行う液晶シャッター制御装置として利用した構成例を示す図である。 液晶シャッター制御装置における各構成部の信号シーケンスおよび信号パターンについて説明する図である。 画像データ解析装置による左画像と右画像の判別結果を、偏光器の制御を行う偏光制御装置として利用した構成例を示す図である。 画像データ解析装置による左画像と右画像の判別結果を、偏光器の制御を行う偏光制御装置として利用した構成例を示す図である。
符号の説明
10 入力映像データ
100 画像データ解析装置
101 単眼奥行き情報判別部
102 両眼奥行き情報判別部
103 左右画像識別部
211,212 オブジェクト(領域)
220,230 カメラ
221,231 カメラ中心
225,226,235,236 撮像オブジェクト
240 撮像面
320,330 画像フレーム
350 表示画像
411,412 オブジェクト
440 撮像面
520,530 画像フレーム
525,526,535,536 撮像オブジェクト
540 撮像面
550 表示画像
600 液晶シャッター制御装置
601 シャッター駆動制御信号出力部
602 信号反転部
620 表示装置
630 液晶シャッターメガネ
700 偏光制御装置
701 偏光器駆動信号出力部
702 信号反転部
711 投影装置
712 偏光器
713 スクリーン
721 表示装置
722 偏光器

Claims (13)

  1. 左目用の左画像と右目用の右画像から構成される時分割表示型の立体映像データを入力し、左画像または右画像のいずれか一方の画像を適用して画像フレームに含まれる領域の前後関係を判別する単眼奥行き情報判別部と、
    前記時分割表示型の立体映像データを入力し、左画像と仮定する画像と、右画像と仮定する画像を選択し、選択した左画像および右画像を含む複数画像を適用して画像フレームに含まれる領域の前後関係を判別する両眼奥行き情報判別部と、
    前記単眼奥行き情報判別部の第1判別結果と、前記両眼奥行き情報判別部の第2判別結果を入力して2つの判別結果の比較を行い、両判別結果の一致度が高い場合は、前記両眼奥行き情報判別部の設定した仮定が正しいと判断し、前記立体映像データを構成する各画像フレームが左画像であるか右画像であるかの識別情報を、前記仮定と一致させた識別情報として出力する左右画像識別部と、
    を有する画像データ解析装置。
  2. 前記左右画像識別部は、
    前記単眼奥行き情報判別部の第1判別結果と、前記両眼奥行き情報判別部の第2判別結果の一致度が低い場合は、前記両眼奥行き情報判別部の設定した仮定が誤りであると判断し、前記立体映像データを構成する各画像フレームが左画像であるか右画像であるかの識別情報を、前記仮定と逆の設定とした識別情報として出力する構成である請求項1に記載の画像データ解析装置。
  3. 前記単眼奥行き情報判別部、および、前記両眼奥行き情報判別部は、それぞれ複数の領域についての複数の判別結果を生成する構成であり、
    前記左右画像識別部は、
    前記単眼奥行き情報判別部の複数の第1判別結果と、前記両眼奥行き情報判別部の複数の第2判別結果を入力して比較を行い、
    一致度が予め設定した閾値以上である場合は、前記両眼奥行き情報判別部の設定した仮定が正しいと判断し、前記立体映像データを構成する各画像フレームが左画像であるか右画像であるかの識別情報を、前記仮定と一致させた識別情報として出力し、
    一致度が予め設定した閾値未満である場合は、前記両眼奥行き情報判別部の設定した仮定が誤りであると判断し、前記立体映像データを構成する各画像フレームが左画像であるか右画像であるかの識別情報を、前記仮定と逆の設定とした識別情報として出力する構成である請求項1に記載の画像データ解析装置。
  4. 前記両眼奥行き情報判別部は、
    前記時分割表示型の立体映像データを構成する画像フレームを偶数フレームと奇数フレームに分割し、
    偶数フレームを左画像、奇数フレームを右画像とする仮定、あるいはその逆の仮定を設定して、該仮定の下で左画像および右画像を含む複数画像を適用して画像フレームに含まれる領域の前後関係を判別する処理を行う構成である請求項1に記載の画像データ解析装置。
  5. 前記両眼奥行き情報判別部は、
    選択した左画像および右画像を含む複数画像を適用したステレオマッチング処理を実行して、画像フレームに含まれる領域の前後関係を判別する処理を行う構成である請求項1に記載の画像データ解析装置。
  6. 前記単眼奥行き情報判別部は、
    左画像または右画像のいずれか一方の画像を適用して画像フレームに含まれる領域の撮像ボケ、または領域の垂直方向の位置関係から、画像フレームに含まれる領域の前後関係を判別する処理を行う構成である請求項1に記載の画像データ解析装置。
  7. 前記単眼奥行き情報判別部は、
    左画像または右画像のいずれか一方の複数画像を適用して移動する2つの領域をトラッキングし、重なりを検知することで2つの領域の前後関係を判別する処理を行う構成である請求項1に記載の画像データ解析装置。
  8. 左目用の左画像と右目用の右画像から構成される時分割表示型の立体映像データを入力し、左画像または右画像のいずれか一方の画像を適用して画像フレームに含まれる領域の前後関係を判別する単眼奥行き情報判別部と、
    前記時分割表示型の立体映像データを入力し、左画像と仮定する画像と、右画像と仮定する画像を選択し、選択した左画像および右画像を含む複数画像を適用して画像フレームに含まれる領域の前後関係を判別する両眼奥行き情報判別部と、
    前記単眼奥行き情報判別部の第1判別結果と、前記両眼奥行き情報判別部の第2判別結果を入力して2つの判別結果の比較を行い、両判別結果の一致度が高い場合は、前記両眼奥行き情報判別部の設定した仮定が正しいと判断し、前記立体映像データを構成する各画像フレームが左画像であるか右画像であるかの識別情報を、前記仮定と一致させた識別情報として出力する左右画像識別部と、
    前記立体映像データを構成する画像フレーム単位で切り替わる液晶シャッターメガネ対応のシャッター駆動信号を出力するシャッター駆動信号出力部と、
    前記左右画像識別部から出力される識別信号と、前記シャッター駆動信号出力部から出力されるシャッター駆動信号を入力し、前記識別信号に応じて前記シャッター駆動信号を変更して液晶シャッターメガネに対する制御信号として出力する信号反転部を有する液晶シャッター制御装置。
  9. 前記信号反転部は、
    前記左右画像識別部から出力される識別信号と、前記シャッター駆動信号出力部から出力されるシャッター駆動信号との排他的論理和演算を実行して、排他的論理和演算結果を液晶シャッターメガネに対する制御信号として出力する構成である請求項8に記載の液晶シャッター制御装置。
  10. 左目用の左画像と右目用の右画像から構成される時分割表示型の立体映像データを入力し、左画像または右画像のいずれか一方の画像を適用して画像フレームに含まれる領域の前後関係を判別する単眼奥行き情報判別部と、
    前記時分割表示型の立体映像データを入力し、左画像と仮定する画像と、右画像と仮定する画像を選択し、選択した左画像および右画像を含む複数画像を適用して画像フレームに含まれる領域の前後関係を判別する両眼奥行き情報判別部と、
    前記単眼奥行き情報判別部の第1判別結果と、前記両眼奥行き情報判別部の第2判別結果を入力して2つの判別結果の比較を行い、両判別結果の一致度が高い場合は、前記両眼奥行き情報判別部の設定した仮定が正しいと判断し、前記立体映像データを構成する各画像フレームが左画像であるか右画像であるかの識別情報を、前記仮定と一致させた識別情報として出力する左右画像識別部と、
    前記立体映像データを構成する画像フレーム単位で切り替わる偏光器対応の偏光器駆動信号を出力する偏光器駆動信号出力部と、
    前記左右画像識別部から出力される識別信号と、前記偏光器駆動信号出力部から出力される偏光器駆動信号を入力し、前記識別信号に応じて前記偏光器駆動信号を変更して偏光器に対する制御信号として出力する信号反転部を有する偏光制御装置。
  11. 前記信号反転部は、
    前記左右画像識別部から出力される識別信号と、前記偏光器駆動信号出力部から出力される偏光器駆動信号との排他的論理和演算を実行して、排他的論理和演算結果を偏光器に対する制御信号として出力する構成である請求項10に記載の偏光制御装置。
  12. 画像データ解析装置において実行する画像データ解析方法であり、
    単眼奥行き情報判別部が、左目用の左画像と右目用の右画像から構成される時分割表示型の立体映像データを入力し、左画像または右画像のいずれか一方の画像を適用して画像フレームに含まれる領域の前後関係を判別する単眼奥行き情報判別ステップと、
    両眼奥行き情報判別部が、前記時分割表示型の立体映像データを入力し、左画像と仮定する画像と、右画像と仮定する画像を選択し、選択した左画像および右画像を含む複数画像を適用して画像フレームに含まれる領域の前後関係を判別する両眼奥行き情報判別ステップと、
    左右画像識別部が、前記単眼奥行き情報判別部の第1判別結果と、前記両眼奥行き情報判別部の第2判別結果を入力して2つの判別結果の比較を行い、両判別結果の一致度が高い場合は、前記両眼奥行き情報判別部の設定した仮定が正しいと判断し、前記立体映像データを構成する各画像フレームが左画像であるか右画像であるかの識別情報を、前記仮定と一致させた識別情報として出力する左右画像識別ステップと、
    を有する画像データ解析方法。
  13. 画像データ解析装置において画像データ解析処理を実行させるプログラムであり、
    単眼奥行き情報判別部に、左目用の左画像と右目用の右画像から構成される時分割表示型の立体映像データを入力し、左画像または右画像のいずれか一方の画像を適用して画像フレームに含まれる領域の前後関係を判別させる単眼奥行き情報判別ステップと、
    両眼奥行き情報判別部に、前記時分割表示型の立体映像データを入力し、左画像と仮定する画像と、右画像と仮定する画像を選択し、選択した左画像および右画像を含む複数画像を適用して画像フレームに含まれる領域の前後関係を判別させる両眼奥行き情報判別ステップと、
    左右画像識別部に、前記単眼奥行き情報判別部の第1判別結果と、前記両眼奥行き情報判別部の第2判別結果を入力して2つの判別結果の比較を行わせ、両判別結果の一致度が高い場合は、前記両眼奥行き情報判別部の設定した仮定が正しいと判断し、前記立体映像データを構成する各画像フレームが左画像であるか右画像であるかの識別情報を、前記仮定と一致させた識別情報として出力させる左右画像識別ステップと、
    を有するプログラム。
JP2008231181A 2008-09-09 2008-09-09 画像データ解析装置、および画像データ解析方法、並びにプログラム Expired - Fee Related JP4636149B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008231181A JP4636149B2 (ja) 2008-09-09 2008-09-09 画像データ解析装置、および画像データ解析方法、並びにプログラム
US12/555,691 US8345086B2 (en) 2008-09-09 2009-09-08 Apparatus, method, and computer program for analyzing image data
CN200910169135XA CN101674491B (zh) 2008-09-09 2009-09-09 用于分析图像数据的设备、方法和计算机程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008231181A JP4636149B2 (ja) 2008-09-09 2008-09-09 画像データ解析装置、および画像データ解析方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2010068121A true JP2010068121A (ja) 2010-03-25
JP4636149B2 JP4636149B2 (ja) 2011-02-23

Family

ID=41798915

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008231181A Expired - Fee Related JP4636149B2 (ja) 2008-09-09 2008-09-09 画像データ解析装置、および画像データ解析方法、並びにプログラム

Country Status (3)

Country Link
US (1) US8345086B2 (ja)
JP (1) JP4636149B2 (ja)
CN (1) CN101674491B (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011125148A1 (ja) * 2010-04-01 2011-10-13 Necディスプレイソリューションズ株式会社 立体映像表示システムおよび立体表示調整方法
CN102457736A (zh) * 2010-10-25 2012-05-16 宏碁股份有限公司 提供即时三维视讯的方法与即时三维视讯系统
WO2013108310A1 (ja) * 2012-01-18 2013-07-25 パナソニック株式会社 立体画像検査装置、立体画像処理装置、および立体画像検査方法
JP2013207491A (ja) * 2012-03-28 2013-10-07 Casio Comput Co Ltd 表示装置、同期方法及びプログラム
JP2014519216A (ja) * 2011-04-19 2014-08-07 インスティテュート フューア ランドファンクテクニック ゲーエムベーハー 立体ビデオ信号をデコードするための方法およびシステム
KR101928555B1 (ko) 2012-02-08 2018-12-14 삼성디스플레이 주식회사 입체영상 표시장치 및 이를 포함하는 입체영상 시스템

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2350792B1 (en) * 2008-10-10 2016-06-22 Qualcomm Incorporated Single camera tracker
TW201129078A (en) * 2010-02-01 2011-08-16 Chunghwa Picture Tubes Ltd Stereoscopic image displaying method
GB2478776B (en) * 2010-03-18 2015-08-19 Snell Ltd Analysis of stereoscopic images
US20130038693A1 (en) * 2010-04-27 2013-02-14 Thomson Licensing Method and apparatus for reducing frame repetition in stereoscopic 3d imaging
CN101852921B (zh) * 2010-05-28 2012-01-25 四川长虹电器股份有限公司 立体眼镜系统及其设置识别码的方法
JP5761601B2 (ja) * 2010-07-01 2015-08-12 株式会社リコー 物体識別装置
US8446461B2 (en) * 2010-07-23 2013-05-21 Superd Co. Ltd. Three-dimensional (3D) display method and system
JP2012053741A (ja) * 2010-09-02 2012-03-15 Sony Corp 画像処理装置、画像処理方法及びコンピュータプログラム
KR20120030639A (ko) * 2010-09-20 2012-03-29 삼성전자주식회사 디스플레이장치 및 그 영상처리방법
CN102045577B (zh) * 2010-09-27 2013-03-27 昆山龙腾光电有限公司 用于三维立体显示的观察者跟踪系统及三维立体显示系统
US8760517B2 (en) 2010-09-27 2014-06-24 Apple Inc. Polarized images for security
CN102447916A (zh) * 2010-09-30 2012-05-09 宏碁股份有限公司 立体影像显示装置与方法
CN102034092B (zh) * 2010-12-03 2012-09-05 北京航空航天大学 基于独立多自由度视觉模块的主动复合双目快速目标搜索与捕获系统
GB2534504B (en) 2011-03-11 2016-12-28 Snell Ltd Analysis of stereoscopic images
AU2012253292B2 (en) 2011-05-12 2015-10-29 Apple Inc. Presence sensing
US20120287031A1 (en) 2011-05-12 2012-11-15 Apple Inc. Presence sensing
KR101986706B1 (ko) * 2012-10-15 2019-06-10 삼성디스플레이 주식회사 유기전계발광 표시장치 및 그 구동방법
JP2015114307A (ja) * 2013-12-16 2015-06-22 ソニー株式会社 画像処理装置と画像処理方法および撮像装置
CN104392219A (zh) * 2014-11-21 2015-03-04 上海箩箕技术有限公司 生物信息识别方法及装置
US10817594B2 (en) 2017-09-28 2020-10-27 Apple Inc. Wearable electronic device having a light field camera usable to perform bioauthentication from a dorsal side of a forearm near a wrist
CN107832377B (zh) * 2017-10-30 2021-09-21 北京小米移动软件有限公司 图像信息显示方法、装置及系统、存储介质
US11958373B1 (en) 2019-10-21 2024-04-16 State Farm Mutual Automobile Insurance Company Electric vehicle charging management system and method
CN110826470A (zh) * 2019-11-01 2020-02-21 复旦大学 基于深度主动学习的眼底图像左右眼识别方法
CN111582799B (zh) * 2020-05-09 2023-05-05 广州信天翁信息科技有限公司 一种物品画像的构建方法及装置
CN112967332B (zh) * 2021-03-16 2023-06-16 清华大学 基于门控成像的双目深度估计方法、装置及计算机设备
CN117201760A (zh) * 2022-07-26 2023-12-08 惠州Tcl移动通信有限公司 基于3d显示技术的图像显示装置及方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0514932A (ja) * 1991-06-28 1993-01-22 Hitachi Denshi Ltd 立体テレビジヨン信号処理方式

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3182009B2 (ja) 1992-12-24 2001-07-03 日本電信電話株式会社 両眼立体視装置
JP3214688B2 (ja) 1994-02-01 2001-10-02 三洋電機株式会社 2次元映像を3次元映像に変換する方法及び3次元映像信号生成装置
KR100358021B1 (ko) * 1994-02-01 2003-01-24 산요 덴키 가부시키가이샤 2차원영상을3차원영상으로변환시키는방법및입체영상표시시스템
JP2983844B2 (ja) 1994-07-14 1999-11-29 三洋電機株式会社 3次元画像変換方法
US6553184B1 (en) 1994-03-14 2003-04-22 Sanyo Electric Co., Ltd. Method of converting two dimensional images into three-dimensional images
WO1997023097A2 (en) * 1995-12-19 1997-06-26 Philips Electronics N.V. Parallactic depth-dependent pixel shifts
ES2120878B1 (es) * 1996-01-05 1999-06-01 Alejo Trevijano Jose Javier Sistema estereoscopico electronico.
JP3005474B2 (ja) 1996-08-07 2000-01-31 三洋電機株式会社 2次元映像を3次元映像に変換する装置および方法
WO1998004087A1 (fr) * 1996-07-18 1998-01-29 Sanyo Electric Co., Ltd. Dispositif et procede pour convertir des signaux video bidimensionnels en signaux video tridimensionnels
US6088052A (en) * 1997-01-08 2000-07-11 Recherches Point Lab Inc. 3D stereoscopic video display system
JP2000209614A (ja) 1999-01-14 2000-07-28 Sony Corp 立体映像システム
US6448952B1 (en) * 1999-01-26 2002-09-10 Denso Corporation Stereoscopic image display device
TW483242B (en) * 2001-05-09 2002-04-11 Novatek Microelectronics Corp Color code decoding circuit for 3D display and the method thereof
ES2332708T3 (es) * 2001-07-23 2010-02-11 Koninklijke Philips Electronics N.V. Aparato y procedimiento de procesamiento de imagenes estereoscopicas.
US6603535B1 (en) * 2002-08-30 2003-08-05 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Stereo imaging velocimetry system and method
JP4214976B2 (ja) 2003-09-24 2009-01-28 日本ビクター株式会社 擬似立体画像作成装置及び擬似立体画像作成方法並びに擬似立体画像表示システム
US7262767B2 (en) * 2004-09-21 2007-08-28 Victor Company Of Japan, Limited Pseudo 3D image creation device, pseudo 3D image creation method, and pseudo 3D image display system
JP4270347B2 (ja) * 2005-12-26 2009-05-27 オリンパス株式会社 距離演算装置
CA2653815C (en) * 2006-06-23 2016-10-04 Imax Corporation Methods and systems for converting 2d motion pictures for stereoscopic 3d exhibition

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0514932A (ja) * 1991-06-28 1993-01-22 Hitachi Denshi Ltd 立体テレビジヨン信号処理方式

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011125148A1 (ja) * 2010-04-01 2011-10-13 Necディスプレイソリューションズ株式会社 立体映像表示システムおよび立体表示調整方法
JP5561800B2 (ja) * 2010-04-01 2014-07-30 Necディスプレイソリューションズ株式会社 立体映像表示システムおよび立体表示調整方法
CN102457736A (zh) * 2010-10-25 2012-05-16 宏碁股份有限公司 提供即时三维视讯的方法与即时三维视讯系统
JP2014519216A (ja) * 2011-04-19 2014-08-07 インスティテュート フューア ランドファンクテクニック ゲーエムベーハー 立体ビデオ信号をデコードするための方法およびシステム
WO2013108310A1 (ja) * 2012-01-18 2013-07-25 パナソニック株式会社 立体画像検査装置、立体画像処理装置、および立体画像検査方法
JP5493055B2 (ja) * 2012-01-18 2014-05-14 パナソニック株式会社 立体画像検査装置、立体画像処理装置、および立体画像検査方法
KR101928555B1 (ko) 2012-02-08 2018-12-14 삼성디스플레이 주식회사 입체영상 표시장치 및 이를 포함하는 입체영상 시스템
JP2013207491A (ja) * 2012-03-28 2013-10-07 Casio Comput Co Ltd 表示装置、同期方法及びプログラム

Also Published As

Publication number Publication date
US20100060720A1 (en) 2010-03-11
CN101674491A (zh) 2010-03-17
CN101674491B (zh) 2012-03-21
US8345086B2 (en) 2013-01-01
JP4636149B2 (ja) 2011-02-23

Similar Documents

Publication Publication Date Title
JP4636149B2 (ja) 画像データ解析装置、および画像データ解析方法、並びにプログラム
US8456518B2 (en) Stereoscopic camera with automatic obstruction removal
US8203599B2 (en) 3D image display apparatus and method using detected eye information
JP2010062695A (ja) 画像処理装置、および画像処理方法、並びにプログラム
US8044997B2 (en) Method, apparatus, and program for processing stereoscopic videos
KR101275542B1 (ko) 3차원 화상표시장치 및 3차원 화상표시방법
TW548960B (en) Method and apparatus of flicker reduction for LC shutter glasses
US20110080470A1 (en) Video reproduction apparatus and video reproduction method
JP2011004388A (ja) 多視点映像表示装置および方法
EP2541948B1 (en) Stereoscopic image display method and display timing controller
JP2011211450A (ja) 立体映像表示装置、立体映像撮像装置および立体映像表示方法
EP2466362A2 (en) Method and apparatus for providing stereoscopic image
US20120212589A1 (en) Playback methods and playback apparatuses for processing multi-view content
JPH10322724A (ja) 立体視検査装置および立体視検査プログラムを記録したコンピュータ読み取り可能な記録媒体
JP5474530B2 (ja) 立体画像表示装置
JP2006267767A (ja) 画像表示装置
US9530236B2 (en) Time code display device and time code display method
KR20160042277A (ko) 3차원 안경 및 이의 구동 방법
JP4475201B2 (ja) 立体画像表示装置及び立体画像表示装置システム
KR101192121B1 (ko) 양안시차 및 깊이 정보를 이용한 애너그리프 영상 생성 방법 및 장치
US20140071248A1 (en) Display control apparatus, image capture apparatus, control method and storage medium
RU2691884C1 (ru) Телевизионное устройство для формирования стереоскопического изображения
JP2011077984A (ja) 映像処理装置
JP2011146869A (ja) 映像視聴装置及びその制御方法
JP2012133179A (ja) 立体視装置、及び立体視装置の制御方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100716

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101008

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101026

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101108

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131203

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131203

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees