JP2011119810A - 映像処理装置および映像処理方法 - Google Patents

映像処理装置および映像処理方法 Download PDF

Info

Publication number
JP2011119810A
JP2011119810A JP2009273057A JP2009273057A JP2011119810A JP 2011119810 A JP2011119810 A JP 2011119810A JP 2009273057 A JP2009273057 A JP 2009273057A JP 2009273057 A JP2009273057 A JP 2009273057A JP 2011119810 A JP2011119810 A JP 2011119810A
Authority
JP
Japan
Prior art keywords
video data
subject
background
distance
stereoscopic video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009273057A
Other languages
English (en)
Inventor
Norio Kurashige
規夫 倉重
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2009273057A priority Critical patent/JP2011119810A/ja
Publication of JP2011119810A publication Critical patent/JP2011119810A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】原映像データである立体映像データと大きさの異なる加工立体映像データを生成した場合においても、立体映像データを表示するときと同様に立体感を適切に知覚させる。
【解決手段】映像処理装置100は、撮像時に、両眼視差による立体映像を知覚させるための立体映像データ160中の被写体174と背景176とを分離し、さらにそれぞれの撮像ユニット110との距離を導出しておき、立体映像データ160のサイズを変更して加工立体映像データ190を生成する際には、被写体と背景の距離に基づいて加工立体映像データ190の被写体もしくは背景のいずれか一方または両方の視差を変更する。
【選択図】図1

Description

本発明は、両眼視差によって立体映像を知覚させるための映像処理装置および映像処理方法に関する。
近年、ディスプレイ上に、水平視差(両眼視差)を有する2つの映像を提示し、観察者に対してあたかも被写体が立体的に存在するように知覚させる映像処理装置が脚光を浴びている。かかる映像処理装置で用いられる2つの映像は、視点の異なる2つの撮像部で撮像された映像である。
このような2つの撮像部の光軸の間隔(基線長)は、観察者に立体映像を正しく知覚してもらうため人の眼の間隔に合わせて配置され、2つの撮像部の輻輳角も、その輻輳点が人の眼の焦点に合うように調整される。このとき、観察者の眼の間隔と異なる基線長や観察者の焦点と異なる輻輳点で撮像すると、再生時において、観察者は立体映像の結像位置に違和感を覚え、眼の疲労を感じることになる。
そこで、立体映像を撮像したときの基線長と、その再生時における観察者の眼の間隔が異なった場合においても、視認される画像の大きさが実際の大きさと同等に感じる違和感のない立体映像を得ることが可能な補間技術が開示されている(例えば、特許文献1)。また、眼の疲労を少なくし得る立体映像をユーザが知覚できるように輻輳点を制御する技術も開示されている(例えば、特許文献2)。
特開平8−126034号公報 特許3089306号公報
ところで、従来の2次元映像では、2次元映像の撮像状態や、再生開始位置を確認するため、2次元映像を縮小したサムネイルを表示することができた。そこで、立体映像を知覚させるための立体映像データを生成する場合においても、立体映像データの撮像状態を確認したり、その撮像状態に応じて撮像時の輻輳角を決めたりするためサムネイルを表示したいといった要望がある。
しかし、立体映像データを縮小したサムネイルを表示する、即ち、意図的に大きさの異なる立体映像を表示しようとすると、立体映像の大きさが変わった分、両眼視差が小さくなり、本来の立体感を観察者に正しく知覚させることができないといった問題が生じ得る。上述した特許文献1や特許文献2の技術は、撮像時と表示時とで同じ大きさの立体映像を提供することを前提としているので、かかる技術を採用したとしても、立体感の劣化を免れることはできない。
このような状況下では、立体映像データのサムネイルに基づいて撮像状態の確認や撮像した立体映像データの削除等の整理をする場合、特に立体感の有無によって削除や編集の採否を判断する場合、サムネイルのみではその立体感を正しく把握することができず、結局、元の立体映像を確認してから取捨の選択をしなければならなかった。
本発明は、このような課題に鑑み、原映像データである立体映像データと大きさの異なる加工立体映像データを生成した場合においても、立体映像データを表示するときと同様に立体感を適切に知覚させることが可能な、映像処理装置および映像処理方法を提供することを目的としている。
上記課題を解決するために、本発明の映像処理装置は、それぞれの光軸が略平行または撮像方向で交わり、両眼視差による立体映像を知覚させるための立体映像データを生成する2つの撮像部を有する撮像ユニットと、2つの撮像部による立体映像データの生成と並行して、撮像ユニットと撮像対象との距離を取得し、取得した撮像ユニットと撮像対象との距離に基づいて、立体映像データ中の任意の被写体と立体映像データ中の被写体以外の領域である背景とを分離して、立体映像データ中の被写体の占有領域を示す被写体領域情報と、立体映像データ中の背景の占有領域を示す背景領域情報と、を生成する領域情報生成部と、被写体と2つの撮像部との距離を示す被写体距離情報と、背景と2つの撮像部との距離を示す背景距離情報とを導出する距離導出部と、立体映像データと、被写体領域情報と、背景領域情報と、被写体距離情報と、背景距離情報と、を関連づけて保持するデータ保持部と、観察者の眼間距離を示す眼間距離情報と、観察者と立体表示部との距離を示す視聴予定距離情報とを取得する距離取得部と、データ保持部に保持された立体映像データのサイズを変更して加工立体映像データを生成すると共に、データ保持部に保持された被写体領域情報と、背景領域情報と、被写体距離情報と、背景距離情報と、距離取得部が取得した眼間距離情報と、視聴予定距離情報とに基づき、加工立体映像データの被写体もしくは背景のいずれか一方または両方の視差を変更する映像生成部と、生成された加工立体映像データを立体表示部に表示する表示制御部と、を備えていることを特徴とする。
データ保持部は、輻輳点までの距離を示す輻輳点距離情報も立体映像データに関連づけて保持し、映像生成部は、輻輳点を基準にして、被写体もしくは背景のいずれか一方または両方の視差を変更してもよい。
上記課題を解決するために、本発明の他の映像処理装置は、それぞれの光軸が略平行または撮像方向で交わり、両眼視差による立体映像を知覚させるための立体映像データを生成する2つの撮像部を有する撮像ユニットと、2つの撮像部による立体映像データの生成と並行して、撮像ユニットと撮像対象との距離を取得し、取得した撮像ユニットと撮像対象との距離に基づいて、立体映像データ中の任意の被写体と立体映像データ中の被写体以外の領域である背景とを分離して、立体映像データ中の被写体の占有領域を示す被写体領域情報と、立体映像データ中の背景の占有領域を示す背景領域情報と、を生成する領域情報生成部と、立体映像データと、被写体領域情報と、背景領域情報と、を関連づけて保持するデータ保持部と、データ保持部に保持された立体映像データのサイズを変更して加工立体映像データを生成すると共に、データ保持部に保持された被写体領域情報と、背景領域情報と、サイズの変更比率とに基づき、加工立体映像データの被写体もしくは背景のいずれか一方または両方の視差を変更する映像生成部と、生成された加工立体映像データを立体表示部に表示する表示制御部と、を備えていることを特徴とする。
映像生成部は、被写体の視差を背景と独立して変更した場合に欠落する背景の部分映像を他の背景の映像で補正してもよい。
映像処理装置は、被写体の視差を変更することによって被写体の映像が映像枠からはみ出す場合、映像枠からはみ出ないように視差を再設定する視差再設定部をさらに備えてもよい。
上記課題を解決するために、本発明の映像処理方法は、それぞれの光軸が略平行または撮像方向で交わる2つの撮像部を用いて両眼視差による立体映像を知覚させるための立体映像データを生成し、2つの撮像部を有する撮像ユニットと撮像対象との距離を取得し、取得した撮像ユニットと撮像対象との距離に基づいて、立体映像データ中の任意の被写体と立体映像データ中の被写体以外の領域である背景とを分離して、立体映像データ中の被写体の占有領域を示す被写体領域情報と、立体映像データ中の背景の占有領域を示す背景領域情報と、を生成し、被写体と2つの撮像部との距離を示す被写体距離情報と、背景と2つの撮像部との距離を示す背景距離情報とを導出し、観察者の眼間距離を示す眼間距離情報と、観察者と立体表示部との距離を示す視聴予定距離情報とを取得し、立体映像データのサイズを変更して加工立体映像データを生成すると共に、被写体領域情報と、背景領域情報と、被写体距離情報と、背景距離情報と、眼間距離情報と、視聴予定距離情報とに基づき、加工立体映像データの被写体もしくは背景のいずれか一方または両方の視差を変更し、生成した加工立体映像データを立体表示部に表示することを特徴とする。
上記課題を解決するために、本発明の他の映像処理方法は、それぞれの光軸が略平行または撮像方向で交わる2つの撮像部を用いて両眼視差による立体映像を知覚させるための立体映像データを生成し、2つの撮像部を有する撮像ユニットと撮像対象との距離を取得し、取得した撮像ユニットと撮像対象との距離に基づいて、立体映像データ中の任意の被写体と立体映像データ中の被写体以外の領域である背景とを分離して、立体映像データ中の被写体の占有領域を示す被写体領域情報と、立体映像データ中の背景の占有領域を示す背景領域情報と、を生成し、立体映像データのサイズを変更して加工立体映像データを生成すると共に、被写体領域情報と、背景領域情報と、サイズの変更比率とに基づき、加工立体映像データの被写体もしくは背景のいずれか一方または両方の視差を変更し、生成した加工立体映像データを立体表示部に表示することを特徴とする。
以上説明したように本発明は、原映像データである立体映像データと大きさの異なる加工立体映像データを生成した場合においても、立体映像データを表示するときと同様に立体感を適切に知覚させることを可能にする。したがって観察者は、加工立体映像データを通じて、実際の立体映像データの立体感を鮮明に実感することができる。
第1の実施形態における映像処理装置の概略的な機能を示した機能ブロック図である。 第1の実施形態における映像処理装置の一例を示した外観図である。 第1の実施形態におけるサイドバイサイド方式の立体映像データを説明するための説明図である。 第1の実施形態における被写体と背景とを定義するための説明図である。 第1の実施形態における眼間距離情報や視聴予定距離情報の取得動作を説明するための説明図である。 第1の実施形態における立体映像データの大きさを変更したときの結像位置を説明するための説明図である。 第1の実施形態における映像生成部の視差変更処理について説明した説明図である。 第1の実施形態における映像生成部の視差変更処理の他の例について説明した説明図である。 第1の実施形態における映像生成部の視差変更処理のさらに他の例について説明した説明図である。 第1の実施形態における映像生成部の補正動作を説明するための説明図である。 第1の実施形態における映像生成部の他の補正動作を説明するための説明図である。 第1の実施形態における映像生成部の視差変更処理のさらに他の例について説明した説明図である。 第1の実施形態における立体映像表示方法の全体的な流れを示したフローチャートである。 第2の実施形態における映像処理装置の概略的な機能を示した機能ブロック図である。 第2の実施形態における立体映像表示方法の全体的な流れを示したフローチャートである。
以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値などは、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書及び図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。
立体映像を知覚させるための立体映像データを生成する場合においても、立体映像データの撮像状態を確認したり、その撮像状態に応じて撮像時の輻輳角を決めたりするため、立体映像データの大きさを意図的に異ならせたサムネイル等の加工立体映像データを表示したいといった要望がある。本実施形態の映像処理装置では、このような加工立体映像データを生成した場合においても、立体映像データを表示するときと同様に立体感を適切に(正しく)知覚させることを目的とする。以下、かかる映像処理装置の構成を説明し、その後で映像処理方法の処理の流れを詳述する。
(第1の実施形態:映像処理装置100)
図1は、映像処理装置100の概略的な機能を示した機能ブロック図であり、図2は、映像処理装置100の一例を示した外観図である。図1に示すように、映像処理装置100は、撮像ユニット110と、距離測定部112と、映像処理部114と、データ保持部116と、操作部118と、立体表示部120と、映像圧縮部122と、外部出力部124と、中央制御部126とを含んで構成される。ここでは、映像処理装置100としてビデオカメラを挙げているが、デジタルスチルカメラ等、撮像が可能な様々な電子機器を採用することができる。
撮像ユニット110は、図2に示すように、それぞれの光軸104a、104bが略平行または撮像方向で交わり、撮像者が映像処理装置100の本体102を水平に把持した際に、その光軸104a、104bが同じ水平位置となるように配置される2つの撮像部110a、110bで構成される。撮像ユニット110では、それぞれの撮像部110a、110bにおいて撮像された、観察者の左眼に知覚させるための左眼用映像データと観察者の右眼に知覚させるための右眼用映像データとを併合し、両眼視差によって立体映像を知覚させるための立体映像データを生成する。立体映像データは、動画および静止画のいずれでも形成可能である。
撮像時において、観察者が立体映像を知覚するときの観察状態を踏まえ、撮像ユニット110は、被写体を基準にした左眼と右眼とがなす角である輻輳角を最適な角度に設定する。その設定された輻輳角から導出可能な輻輳点までの距離を示す輻輳点距離情報を、立体映像データの映像サイズと共にデータ保持部116に保持する。
また、立体映像を知覚させるための立体映像データは、左眼用映像データと右眼用映像データの物理的配置または時間的配置の違いによってサイドバイサイド方式、トップアンドボトム方式等、様々な方式によって形成される。以下では、代表的にサイドバイサイド方式を通じて説明を行うが、他の方式を用いても本実施形態を実施可能なのは言うまでもない。
図3は、サイドバイサイド方式の立体映像データ160を説明するための説明図である。サイドバイサイド方式の立体映像データ160は、有効映像の左半分または右半分の一方に左眼用映像データ162を、他方に右眼用映像データ164を並べて構成される。なお、有効映像とは映像全体から非表示領域(ブランク期間)を除いた映像のことである。そして、後述する表示制御部144によって、左眼用映像データ162(図3(b)中「L」で示す)および右眼用映像データ164(図3(b)中「R」で示す)を隔行で(1ラインおきに)配置し直すラインシーケンシャル処理が施されると、図3(b)に示すような立体表示データ166が生成され、観察者は、後述する立体表示部120を通じて左右視差による立体映像を知覚することが可能となる。
距離測定部112は、光切断法に基づいて光の反射に費やす時間(TOF:Time Of Flight)を測定し、撮像ユニット110と撮像範囲内に存在する撮像対象との距離を、例えば、画素単位で測定する。
映像処理部114は、撮像ユニット110で生成された立体映像データ160に対して、R(Red)G(Green)B(Blue)処理(γ補正や色補正)、エンハンス処理、ノイズ低減処理などの映像信号処理を行う。所定の映像信号処理が行なわれた立体映像データ160は、データ保持部116に一時的に保持される。
データ保持部116は、RAM(Random Access Memory)、フラッシュメモリ、HDD(Hard Disk Drive)等で構成され、立体映像データ160や、後述する被写体領域情報、背景領域情報、被写体距離情報、背景距離情報等の情報を一時的に保持する。このような各情報は立体映像データ160のヘッダ情報やメタ情報として関連づけられる。
操作部118は、レリーズスイッチを含む操作キー、十字キー、ジョイスティック、後述する立体表示部120の表示面に配されたタッチパネル等のスイッチから構成され、撮像者の操作入力を受け付ける。
立体表示部(ビューファインダ)120は、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等で構成され、例えば偏光特性が隔行で(1ライン毎に)異なるように形成される。そして、後述する表示制御部144によってラインシーケンシャル処理が施された、図3(b)に示す立体表示データ166を表示する。撮像者は、撮像時において、このような立体表示部120を通じて立体表示データ166を立体的に知覚し、その知覚した立体映像に基づいて操作部118を操作することで、被写体を所望する位置および占有面積で捉えることが可能となる。
ここでは、立体表示部120として、ラインシーケンシャル方式が採用されているので、立体表示データ166に含まれる被写体や背景は、交差視(交差法)および平行視(平行法)のいずれの立体表示も可能であり、視差によっては、立体表示部120の表示面より手前側または奥側のいずれの位置にも被写体や背景を結像させることができる。
また、立体表示部120は、表示方式として、ラインシーケンシャル方式に限られず、例えば、左眼用映像と右眼用映像とを1フレーム毎に交互に表示し電子シャッター式眼鏡を通じて視認させるフレームシーケンシャル方式、レンティキュラレンズを介して右眼用映像と左眼用映像それぞれの光の進行方向を制御するレンティキュラー方式等を用いてもよい。
映像圧縮部122は、中央制御部126の制御指令により、データ保持部116に保持された立体映像データ160を、M−JPEG(モーションJPEG)やMPEG(Moving Picture Experts Group)−2、H.264などの所定の符号化方式で符号化した符号データとし、任意の記録媒体168に記録する。任意の記録媒体168としては、DVD(Digital Versatile Disk)やBD(Blu-ray Disc)といった光ディスク媒体や、RAM、EEPROM、不揮発性RAM、フラッシュメモリ、HDD等の媒体を適用することができる。
外部出力部124は、後述する表示制御部144によってラインシーケンシャル処理が施された、図3(b)に示す立体表示データ166を、例えば、映像処理装置100に接続された表示装置170に出力する。表示装置170は、立体表示部120同様、液晶ディスプレイ、有機ELディスプレイ等で構成され、例えば、偏光特性が1ライン毎に異なるように形成される。外部出力部134は、このような1ライン毎に偏光が異なっている表示装置170に対して、ラインシーケンシャル処理が施された立体表示データ166を出力することができる。
中央制御部126は、中央処理装置(CPU)、プログラム等が格納されたROM、ワークエリアとしてのRAM等を含む半導体集積回路により、映像処理装置100全体を管理および制御する。また、本実施形態において、中央制御部126は、被写体指定部130、領域情報生成部132、距離導出部134、距離取得部136、映像生成部138、視差再設定部140、報知部142、表示制御部144としても機能する。
被写体指定部130は、操作部118としての例えばタッチパネルの操作入力を通じて撮像者により指示される、被写体としての認識を所望する立体映像データ160中の撮像対象を指定する。また、被写体指定部130は、そのような撮像対象を、例えば映像全体に対して相対移動している等の条件に基づいて自動的に指定することもできる。
領域情報生成部132は、撮像ユニット110の2つの撮像部110a、110bによる立体映像データ160の生成と並行して、撮像ユニット110と、撮像範囲内に存在する撮像対象との距離を取得し、取得した撮像ユニット110と撮像対象との距離に基づいて、立体映像データ160中の任意の被写体と、立体映像データ160中の被写体以外の領域である背景とを分離して、立体映像データ160中の被写体の占有領域を示す被写体領域情報と、立体映像データ160中の背景の占有領域を示す背景領域情報と、を生成する。
具体的に、領域情報生成部132は、距離測定部112に、立体映像データ160の撮像対象と撮像ユニット110との距離を画素毎に測定させる。そして、領域情報生成部132は、被写体指定部130で指定された撮像対象に基づいて被写体を特定、グループ化し、他の映像から分離する。
図4は、被写体174と背景176とを定義するための説明図である。ここでは説明の便宜上、立体映像データ160の左眼用映像データ162を挙げて説明する。図4中央に示したように、被写体指定部130を通じて撮像対象の一部172が指定されると、領域情報生成部132は、その撮像対象の一部172を構成する画素群の撮像ユニット110との距離を特定し、その画素群とほぼ等距離(所定範囲内)にあるすべての画素を被写体174としてグループ化する。
被写体174のグループ化は以下の手順で行われる。まず、領域情報生成部132は、立体映像データ160の左眼用映像データ162と右眼用映像データ164それぞれについてライン毎に順次画素の距離を読み出し、図4の如く、例えば第1ラインを水平右方向に読み出しているときに、指定した被写体の一部172を構成する画素の撮像ユニット110との距離、例えば10mを中心とした所定の距離範囲内(不感帯)、例えば±1m内に、他の画素Aの距離が相当する場合、その画素Aを当該ラインにおける被写体174の開始画素としてラインに関連づけて保持する。
そして、被写体174と見なせる所定の距離範囲から逸脱すると、逸脱した画素の一つ手前の画素Bを終了画素としてラインに関連づけて保持する。こうして全ラインにおける開始画素と終了画素とが導出されると、その被写体174の左眼用映像データ162および右眼用映像データ164中の占有領域を示す被写体領域情報を生成し、データ保持部116に保持する。
このとき、図4の第2ラインのように一つの被写体174に関して、開始画素(画素Cおよび画素E)および終了画素(画素Dおよび画素F)が複数存在する場合はその数分だけ保持する。また、開始画素および終了画素の数が多くなり上限値に達すると、開始画素と終了画素との距離が大きい方を優先したり、被写体174として特定された撮像対象の一部172との距離が近い方を優先したりして、その数を制限する。
そして、領域情報生成部132は、立体映像データ160中において被写体174として特定されていない領域、即ち、被写体174を特定するための開始画素から終了画素までの画素に含まれない、被写体174周りの領域すべてを背景176としてグループ化する。例えば、第1ラインに関して説明すると、画素Aから画素Bまでを除く、当該左眼用映像データ162のライン左端の画素Gから画素Aまで、および画素Bからライン右端の画素Lまでが背景176に相当する。そして、領域情報生成部132は、左眼用映像データ162(立体映像データ160)中の背景176の占有領域を示す背景領域情報も生成し、データ保持部116に保持させる。
このような被写体174や背景176を特定するのは以下の理由に基づく。つまり、撮像ユニット110や映像処理部114によって単純に生成された立体映像データ160のみでは、事後的にその立体映像データ160を解析して被写体174や背景176の距離を特定するのは非常に困難であり、特定精度も低くなる。ここでは、領域情報生成部132によって撮像の際に、被写体174と背景176とを分離し、それを立体映像データ160に関連づけておくことで、事後的に立体映像データ160中の被写体174や背景176を容易に特定することができ、また、その特定精度の向上を図ることが可能となる。
被写体174や背景176は、いずれも一方が基準(基準面)となった場合には、他方が一方を基準として飛び出したり引っ込んだりすることで立体感を形成する。尚、立体映像データ160の表示位置にあたる上述した輻輳点は、基準にはなり得るが理論上そこには何らの映像も存在しないので立体感を形成する対象とはならない。また、以下では、理解を容易にするため、図4の如く被写体174が1の場合(すべての被写体174を一体的に扱う場合も含む)を説明するが、被写体指定部130で被写体174が複数指定されると、その指定された数だけ被写体174をそれぞれ独立して取り扱うことも可能である。
距離導出部134は、領域情報生成部132で被写体174を特定する際に参照した各画素の撮像ユニット110との距離を用いて、被写体174と撮像ユニット110との距離を示す被写体距離情報を導出する。同様に、領域情報生成部132で背景176を特定する際に参照した各画素の撮像ユニット110との距離を用いて、背景176と撮像ユニット110との距離を示す背景距離情報とを導出する。
このとき、被写体距離情報や背景距離情報は被写体174や背景176に対応した数あれば(ここでは一つずつあれば)足りるので、距離導出部134で参照された被写体174や背景176を構成するすべての画素の撮像ユニット110との距離の平均値や代表値を用いることとする。ただし、被写体174が複数特定されている場合、被写体距離情報も複数となる。このとき、背景距離情報が無限遠等、上限値を越えている場合、現実性のある所定の値に置換するか、その旨を示すフラグを立てて後段の処理に移行する。
距離取得部136は、観察者の眼間距離を示す眼間距離情報や、観察者と立体表示部120との距離を示す視聴予定距離情報を、操作部118を通じて、または予め設定されたデフォルト値を参照して取得する。
図5は、眼間距離情報や視聴予定距離情報の取得動作を説明するための説明図である。撮像者は、図5に示す設定画面178において、操作部118としての立体表示部120の表示面に配されたタッチパネルや各操作キーを通じて、「眼間距離」や「視聴予定距離」に並置されたテキストボックス180に眼間距離である「6」cmや、視聴予定距離である「15」cmを入力する。
距離取得部136によって眼間距離情報や視聴予定距離情報を取得する構成により、観察者(撮像者)は、以下で生成される加工立体映像データの立体感を適切に知覚することができる。
映像生成部138は、データ保持部116に保持された立体映像データ160のサイズを変更して加工立体映像データを生成すると共に、その加工立体映像データの被写体174もしくは背景176のいずれか一方または両方の視差を変更する。
具体的に、映像生成部138は、データ保持部116に保持された立体映像データ160とその立体映像データ160の映像サイズを読み出し、それを拡大または縮小して予めサイズが定められた加工立体映像データに変更する。例えば、加工立体映像データとしてサムネイルが形成される場合、映像生成部138は、立体映像データ160を、縦横比を維持してサムネイルの所定のサイズに縮小する。
図6は、立体映像データ160の大きさを変更したときの結像位置を説明するための説明図である。図6(a)のように左眼用映像データ162に被写体174aと背景176aとが配され、右眼用映像データ164に被写体174bと背景176bとが配されている場合、左眼182と左眼用映像データ162の被写体174aや背景176aとを結ぶ直線と、右眼184と右眼用映像データ164の被写体174bや背景176bとを結ぶ直線とが交差する点で両者の映像が結像され(被写体174は結像位置186で、背景176は表示面と等しい結像位置188で結像され)、観察者は、立体映像を知覚することができる。
例えば、被写体174の結像位置186の立体表示部120(輻輳点)からの距離K、即ち、立体表示部120から飛び出して見える距離Kは、左眼用映像データ162と右眼用映像データ164での被写体174の視差をH、観察者の眼間距離をI、観察者と立体表示部120との視聴予定距離(輻輳点距離)をJとすると、下記の数式1で表される。
K=(H/(H+I))×J …(数式1)
したがって、視差H=1cm、眼間距離I=6cm、視聴予定距離J=15cmとすると、立体表示部120からの距離K=1/7×15=2.14cmとなり、被写体174は2.14cm飛び出して見えることとなる。
このとき、立体表示部120から飛び出して見える距離Kが視聴予定距離Jに近づきすぎると、観察者の眼に負担がかかり疲れやすくなるので、撮像ユニット110では、距離Kが視聴予定距離Jに近づかないように輻輳角を制御している。
ここで、図6(b)に示すように、映像生成部138が、立体映像データ160を、サイズの変更比率1/10で縮小して加工立体映像データ190を生成した場合、立体表示部120に表示された立体映像データ160の視差H’は、縮小前の視差Hである1cmから0.1cmへと短くなるので、視差H’以外を同一の条件として数式1を計算すると、立体表示部120からの距離K’は、0.25cmとなる。これは、本来2.14cm立体表示部120から手前に飛び出して見えるべき被写体174が0.25cm手前にしか飛び出して見えず、立体感が損なわれてしまうことを示している。
このような事象は、立体表示部120の手前側に被写体174等を結像する場合に限られず、立体表示部120の奥側に結像する場合にも生じ得る。即ち、本来、奥に引っ込んで見えるべき被写体174が立体表示部120の近くまで寄った位置で結像し、やはり立体感が損なわれることとなる。
そこで、映像生成部138は、データ保持部116に保持された被写体領域情報と、背景領域情報と、被写体距離情報と、背景距離情報と、距離取得部136が取得した眼間距離情報Iと、視聴予定距離情報Jとに基づき、サイズを変更した加工立体映像データ190の被写体174もしくは背景176のいずれか一方または両方の視差を変更する。
図7は、映像生成部138の視差変更処理について説明した説明図である。ここでは、説明の便宜上、被写体174の視差を変更する例を挙げて説明する。映像生成部138は、まず、被写体距離情報と背景距離情報とから、その差分距離を導出し、それを立体表示部120から飛び出して見える距離Kとする。
元となる立体映像データ160と同等の立体感を出すための加工立体映像データ190の被写体174の視差Hは、数式1を変形した数式2から求められる。
H=(K/(J−K))×I …(数式2)
したがって、距離取得部136が取得した眼間距離情報Iおよび視聴予定距離情報Jと、上述した立体表示部120から飛び出して見える距離Kとを代入することで、必要な視差Hが求まる。
映像生成部138は、このように導出された視差Hを当該立体表示部120の映像サイズに換算し直した換算値を求め、加工立体映像データ190における被写体174の視差を広げる方向に換算値分変更する。かかる事象では交差視を要するので、具体的に、加工立体映像データ190の左眼用映像データ192における被写体174aを右方向に移動、もしくは、加工立体映像データ190の右眼用映像データ194における被写体174bを左方向に移動のいずれか一方または両方を実行する。このうち図7では、矢印で示したように被写体174bを左方向に移動する例を挙げている。ここで、映像生成部138は、データ保持部116に保持された被写体領域情報と、背景領域情報とに基づいて、移動する被写体174bを背景176から分離する。
また、当該立体表示部120の表示面の物理的なサイズが把握できる場合、その表示面の物理的なサイズも立体映像データ160の映像サイズと共に考慮して上記の換算値を求めることで、映像サイズのみならず、立体表示部120の表示面の物理的なサイズが異なる場合であっても、適切な立体感を得ることが可能となる。
このように視差が変更された被写体174は、背景176に対して視差Hを有し、それがサイズの小さな加工立体映像データ190であっても、図7に示すように、立体映像データ160と同等の距離Kで飛び出して見え、立体表示部120に対する相対的な結像位置186が維持されることとなる。
図8は、映像生成部138の視差変更処理の他の例について説明した説明図である。図7では、背景176を基準として被写体174の視差を変更する例を挙げたが、ここでは、被写体174を基準として背景176の視差を変更する例を挙げて説明する。映像生成部138は、まず、被写体距離情報と背景距離情報とから、その差分距離を導出し、それを立体表示部120より引っ込んで見える距離Kとする。
そして図7同様に、映像生成部138は、数式2を用いて視差Hを導出し、導出された視差Hを当該立体表示部120の映像サイズに換算し直した換算値を求め、加工立体映像データ190における、今度は背景176の視差を、図7の場合同様に広げる方向に換算値分変更する。この場合、平行視を要するので、具体的に、左眼用映像データ192における被写体174aを左方向に移動、もしくは、右眼用映像データ194における被写体174bを右方向に移動のいずれか一方または両方を実行する。このうち図8では、矢印で示したように被写体174bを右方向に移動する例を挙げている。
このように視差が変更された背景176は、被写体174に対して視差Hを有し、それがサイズの小さな加工立体映像データ190の映像であっても、立体映像データ160と同等の距離Kで引っ込んで見え、立体表示部120に対する相対的な結像位置が維持されることとなる。
また、撮像ユニット110の2つの撮像部110a、110bそれぞれの光軸104a、104bが撮像方向で交わる場合、即ち、輻輳角(輻輳点)を有する場合、データ保持部116は、撮像ユニット110から輻輳点までの距離を示す輻輳点距離情報も立体映像データ160に関連づけて保持しており、このとき、映像生成部138は、被写体174または背景176を基準にするのみならず、輻輳点を基準にして、被写体174もしくは背景176のいずれか一方または両方の視差を変更することもできる。このように輻輳点を基準にするか、上述したように被写体174または背景176を基準にするかは、例えば、操作部118を通じて撮像者に選択させることができる。
図9は、映像生成部138の視差変更処理のさらに他の例について説明した説明図である。図9(a)では、輻輳点196が、被写体174や背景176の後方(遠く)に設定されており、結像位置の関係は、撮像者側から、被写体174、背景176、輻輳点196といった順になる。また、表示時には、輻輳点196の位置は、立体表示部120の表示面の位置となる。
このとき、映像生成部138は、まず、被写体距離情報と背景距離情報と輻輳点距離情報とから、輻輳点196に対する被写体174と背景176との相対距離を導出して、それぞれ立体表示部120から飛び出して見える距離とし、数式2を用いて、被写体174および背景176それぞれの視差を求める。
映像生成部138は、このように導出されたそれぞれの視差に基づいて、図7同様、例えば、加工立体映像データ190の右眼用映像データ194の被写体174bおよび背景176bを左方向にそれぞれ視差分移動する。ここでも、被写体174bと背景176bとは、データ保持部116に保持された被写体領域情報と、背景領域情報とによって分離される。
こうして視差が変更された被写体174および背景176は、輻輳点196に対して視差が広がり、それがサイズの小さな加工立体映像データ190の映像であっても、立体映像データ160と同等の距離で飛び出して見え、立体表示部120に対する相対的な結像位置が維持されることとなる。
また、図9(b)では、輻輳点196が、被写体174と背景176の間に設定されており、結像位置の関係は、撮像者側から、被写体174、輻輳点196、背景176といった順になる。
このとき、映像生成部138は、まず、被写体距離情報と背景距離情報と輻輳点距離情報とから、輻輳点196に対する被写体174と背景176との相対距離を導出して、被写体174が飛び出して見える距離と背景176が引っ込んで見える距離とし、数式2を用いて、被写体174および背景176それぞれの視差を求める。
映像生成部138は、このように導出されたそれぞれの視差に基づいて、右眼用映像データ194の被写体174bを左方向に、背景176bを右方向にそれぞれ視差分移動する。
こうして、輻輳点196に対して視差が広がり、それがサイズの小さな加工立体映像データ190の映像であっても、立体映像データ160と同等の距離で被写体174は飛び出して見え、背景176は引っ込んで見える。
さらに、図9(c)では、輻輳点196が、被写体174と背景176の前方(近く)に設定されており、結像位置の関係は、撮像者側から、輻輳点196、被写体174、背景176といった順になる。
このとき、映像生成部138は、まず、被写体距離情報と背景距離情報と輻輳点距離情報とから、輻輳点196に対する被写体174と背景176との相対距離を導出して、それぞれ引っ込んで見える距離とし、数式2を用いて、被写体174および背景176それぞれの視差を求める。
映像生成部138は、このように導出されたそれぞれの視差に基づいて、右眼用映像データ194の被写体174bおよび背景176bを右方向にそれぞれ視差分移動する。
こうして視差が変更された被写体174および背景176は、輻輳点196に対して視差が広がり、それがサイズの小さな加工立体映像データ190の映像であっても、立体映像データ160と同等の距離で引っ込んで見える。
以上説明した映像生成部138の視差変更処理では、例えば、被写体174の視差を広げるため、左眼用映像データ192もしくは右眼用映像データ194のいずれか一方または両方の被写体174を移動している。また、被写体174のみを移動するため、データ保持部116に保持された被写体領域情報と、背景領域情報とによって被写体174と背景176とを分離している。したがって、映像生成部138は、例えば、左眼用映像データ192内で分離された被写体174を切り出して、その切り出した被写体映像を視差H分だけ水平方向に移動してまた背景176に重畳している。
ここで、被写体領域情報と、背景領域情報とが存在しない場合、PrewittフィルタやSobelフィルタ等において線、エッジ検出を行い、顔画像等予め決められたパターン画像とのマッチング処理を行なうことで被写体174を切り出すこともできる。しかし、かかるフィルタを用いて、一度平面化された映像から被写体174を分離することができたとしても、その正確な距離を把握する術がないので、立体感の劣化を免れることはできない。
また、映像生成部138は、被写体174単位で視差を変更した場合に欠落する背景の部分映像を、他の背景の映像、例えば、加工立体映像データ190の他方の映像データの映像や、時系列で所定数前方のフレームや所定数後方のフレームの映像データで補正する。
図10は、映像生成部138の補正動作を説明するための説明図である。ここでは、加工立体映像データ190の左眼用映像データ192および右眼用映像データ194において被写体174の相対的位置が重ならない場合を説明する。このような状況下で、映像生成部138が右眼用映像データ194における被写体174bのみを切り出して視差を変更する場合、即ち、図10(a)のように分離された被写体174bを左方向に移動した場合、被写体174b移動後の背景176には欠落(空白)部分198が生じる。
左眼用映像データ192と右眼用映像データ194とで映像データに対する被写体174の位置が重ならない場合、図10(b)に示すように、右眼用映像データ194における移動前の被写体174bの相対位置に相当する左眼用映像データ192の部分200には背景176が撮像されているはずなので、右眼用映像データ194における被写体174b移動後の背景の欠落部分198を、それに相当する左眼用映像データ192の部分200で補間する。例えば、背景176が基準となって被写体174の視差を変更する場合、背景176は視差を有していないので、左眼用映像データ192の部分200と右眼用映像データ194の欠落部分198とに本来存在すべき背景176の映像はほぼ等しくなる。したがって、欠落部分198を他方の眼用の映像データの部分200の映像で補間することで、違和感のないほぼシームレスな映像を生成できる。
図11は、映像生成部138の他の補正動作を説明するための説明図である。ここでは、加工立体映像データ190の左眼用映像データ192および右眼用映像データ194において被写体174の相対的位置が重なる場合を説明する。ここで、映像生成部138が右眼用映像データ194における被写体174のみを切り出して視差を設ける場合、図10の場合同様、被写体174移動後の背景176には欠落部分198が生じる。
図11(a)のように、左眼用映像データ192と右眼用映像データ194とで映像データに対する被写体174の相対位置が重なっている場合、右眼用映像データ194における移動前の被写体174bの位置に相当する左眼用映像データ192の位置には被写体174aが配されているので、そこから右眼用映像データ194における被写体174b移動後の背景の欠落部分198を取り出すわけにいかない。
そこで、同一の視点における他の時刻、即ち、図11(b)で示すように、右眼用映像データ194の他のフレーム202の背景の欠落部分198に相当する部分200で欠落部分198を補間する。このとき、時間差のあるフレーム同士がパン、ズームされていなければ、背景176は視差を有していないので、異なるフレームにおいて相対的位置が等しい背景176の映像はほぼ等しくなる。したがって、欠落部分198を他のフレーム202の部分200の映像で補間することで、違和感のないほぼシームレスな映像を生成できる。
しかし、上述した処理を用いても背景176の欠落を完全に補完できない場合があり得る。そのような場合、被写体174と背景176とに一体的に視差を施してもよい。
図12は、映像生成部138の視差変更処理のさらに他の例について説明した説明図である。被写体174と背景176との相対距離がその絶対距離に対して短い場合や、被写体174または背景176の視差の変更量が加工立体映像データ190に対してさほど大きくない場合には、被写体174と背景176とに独立して視差を付けても実益がない。したがって、映像生成部138は、被写体174と背景176とを分離せず、図12に示すように、右眼用映像データ194の被写体174bと背景176bとを左方向に一体的に視差分移動させる。かかる移動によって生じる背景176の欠落部分198は、上述した補間処理に準じて他の映像から補間する。こうして、被写体174と背景176とが一体的に立体感を創出することができる。
本実施形態において、映像生成部138は、立体映像データ160の映像サイズを縮小する、例えばサムネイルについて説明しているが、かかる場合に限られず、立体映像データ160の映像サイズを拡大する場合にも本実施形態を適用することができる。映像サイズを拡大する場合、何ら加工しないと視差が増え、意図に反し立体感が強調されすぎてしまい、違和感や眼の疲労を招いてしまう。
映像生成部138は、立体映像データ160の映像サイズを拡大して加工立体映像データ190を生成すると共に、その加工立体映像データ190中の被写体174や背景176を上述したような処理を通じて視差を狭める方向に変更し、観察者に立体感を適切に知覚させることが可能となる。
また、上述した実施形態では、映像生成部138が、立体映像データ160中における、例えば、撮像開始点の1フレームを静止画の加工立体映像データ190として加工する例を挙げたが、他の特定のタイミングのフレームを加工立体映像データ190として加工してもよいし、立体映像データ160の複数フレーム、例えば動画に対して加工立体映像データ190を生成することもできる。
視差再設定部140は、映像生成部138が被写体174の視差を変更することによって被写体174の映像が映像枠からはみ出す場合、映像枠からはみ出ないように視差を再設定する。本実施形態では、適切な視差により原映像データである立体映像データ160の立体感を維持することを目的としている。しかし、例えば、加工立体映像データ190が立体映像データ160を縮小したものだとすると、小さな映像領域でその大きな視差を表現しなければならなくなる。そうすると、導出された視差によっては被写体174の一部が加工立体映像データ190の映像枠からはみ出す場合が生じ得る。
当該映像処理装置100においては、被写体174の映像が左眼用映像データ192および右眼用映像データ194の両方に存在してはじめて立体映像として知覚されるため、加工立体映像データ190の映像枠からはみ出した被写体174は立体映像を構成しないことになる。そこで、視差再設定部140は、映像生成部138が、立体映像が知覚されなくなるまで視差を広げるのを制限し、加工立体映像データ190の映像枠内にその視差が収まるように視差を再設定している。こうして、被写体174が部分的に欠落するのを回避しつつ、最大限立体感を知覚させることが可能となる。
また、視差再設定部140は、視差を制限するのみならず、視差の変更を左眼用映像データ192および右眼用映像データ194の両方で分担して被写体174の欠落を防止することもできる。この場合、左眼用映像データ192または右眼用映像データ194の一方でのみ視差を変更する場合に比べ、映像枠からはみ出すまでに約2倍の余裕があるので視差を制限することなく被写体174を枠内に収めることが可能となる。
報知部142は、視差の変更量である(被写体174の結像位置186の立体表示部120からの距離K/視聴予定距離J)が所定閾値、例えば1/5を超えると、即ち、視差の変更量が大きくなると、その旨を、立体表示部120を通じて所定の態様、例えばOSD(on-screen display)や加工立体映像データ190の枠のマーキング等で報知する。かかる構成により、観察者は、立体表示部120に表示された加工立体映像データ190が本実施形態による視差変更処理を過剰に受けていることを視覚的に把握することができる。
また、報知部142は、視差の変更量が大きい旨のみならず、視差の変更量自体をその変更量が把握できる態様で報知する。例えば、報知部142は、視差の変更量を、具体的な数値や、バー表示、色の変化等を通じて明示的に示す。かかる構成により、観察者は、観察対象の加工立体映像データ190にどの程度視差がついているのか具体的に把握することができる。
表示制御部144は、映像生成部138が生成した、または視差再設定部140によって視差が再設定された加工立体映像データ190を、報知部142による視差の変更量に関する表示と共に立体表示部120に表示する。このとき、表示制御部144は、立体表示部120の表示形式に合わせて、加工立体映像データ190の左眼用映像データ192と右眼用映像データ194とを併合し、例えば、ラインシーケンシャル方式、フレームシーケンシャル方式等の立体表示データ166を生成している。
以上説明した映像処理装置100により、原映像データである立体映像データ160と大きさの異なる加工立体映像データ190を生成した場合においても、立体映像データ160を表示するときと同様に立体感を適切に知覚させることが可能となる。したがって、観察者は、強調された加工立体映像データ190を通じて、実際の立体映像データ160の立体感を鮮明に実感することができる。
(映像処理方法)
次に、上述した映像処理装置100を用いて、両眼視差による立体映像を表示する映像処理方法を具体的に説明する。
図13は、立体映像表示方法の全体的な流れを示したフローチャートである。現在の状態が撮像モードであれば(S300のYES)、映像処理装置100の撮像ユニット110における2つの撮像部110a、110bは立体映像データを生成する(S302)。
このとき撮像者が、その立体映像データ160中の被写体174の指定を所望している場合(S304のYES)、被写体指定部130は、操作部118であるタッチパネルを通じて撮像者により指示される立体映像データ160中の撮像対象を被写体174の一部172として指定する(S306)。このようにして被写体174が指定されると(S308のYES)、領域情報生成部132は、距離測定部112に、撮像ユニット110と立体映像データ160の撮像対象との距離を画素毎に測定させて、撮像ユニット10と撮影対象との距離を取得し、立体映像データ160中の任意の被写体174と背景176とを分離して、被写体領域情報と背景領域情報とを生成し(S310)、距離導出部134は、被写体距離情報と背景距離情報とを導出する(S312)。撮像モードでは、このような立体映像データ160の生成と各情報の生成、導出を繰り返す。
撮像者が撮像モードを終了し(S300のNO)、現在の状態を撮像した立体映像データ160の確認モード、即ち、加工立体映像データ190の生成処理に移行すると(S314のYES)、距離取得部136は、操作部118を通じて、眼間距離情報と視聴予定距離情報とを取得し(S316)、映像生成部138は、立体映像データ160のサイズを変更した加工立体映像データ190を生成し(S318)、上述した被写体領域情報と、背景領域情報と、被写体距離情報と、背景距離情報と、眼間距離情報と、視聴予定距離情報とに基づき、立体映像データ160の被写体174もしくは背景176のいずれか一方または両方の視差を変更する(S320)。
ここで、視差再設定部140は、被写体174の視差を変更することによって被写体174の映像が加工立体映像データ190の映像枠からはみ出すか否か判断し(S322)、映像枠からはみ出すようであれば(S322のYES)、被写体174の映像が加工立体映像データ190の映像枠からはみ出ないように視差を再設定する(S324)。また、報知部142は、視差の変更量K/Jが所定閾値を超えているか否か判断し(S326)、所定閾値を超えていれば(S326のYES)、その旨を、立体表示部120を通じて所定の態様で報知する(S328)。そして、表示制御部144は、生成された加工立体映像データ190を立体表示部120に表示する(S330)。
かかる映像処理方法を用いることで、原映像データである立体映像データ160と大きさの異なる加工立体映像データ190を生成した場合においても、立体映像データ160を表示するときと同様に立体感を適切に知覚させることが可能となる。したがって、観察者は、強調された加工立体映像データ190を通じて、実際の立体映像データ160の立体感を鮮明に実感することができる。
(第2の実施形態:映像処理装置400)
上述した第1の実施形態では、被写体距離情報、背景距離情報、輻輳点距離情報、眼間距離情報および視聴予定距離情報を取得し、数式2を用いて、加工立体映像データ190の変更すべき視差Hを導出した。本実施形態では、加工立体映像データ190へのサイズの変更比率が把握できる場合において、そのサイズの変更比率を用いて加工立体映像データ190の変更すべき視差Hを導出する。
図14は、映像処理装置400の概略的な機能を示した機能ブロック図である。図14に示すように、映像処理装置400は、撮像ユニット110と、距離測定部112と、映像処理部114と、データ保持部116と、操作部118と、立体表示部120と、映像圧縮部122と、外部出力部124と、中央制御部426とを含んで構成される。また、中央制御部426は、被写体指定部130、領域情報生成部132、映像生成部438、視差再設定部140、報知部142、表示制御部144としても機能する。
第1の実施形態における構成要素として既に述べた撮像ユニット110と、距離測定部112と、映像処理部114と、データ保持部116と、操作部118と、立体表示部120と、映像圧縮部122と、外部出力部124と、被写体指定部130と、領域情報生成部132と、視差再設定部140と、報知部142と、表示制御部144とは、実質的に機能が同一なので重複説明を省略し、ここでは、構成が相違する中央制御部426の映像生成部438を主に説明する。
映像生成部438は、データ保持部116に保持された立体映像データ160のサイズを変更して加工立体映像データ190を生成すると共に、その加工立体映像データ190の被写体174もしくは背景176のいずれか一方または両方の視差を変更する。
具体的に、映像生成部438は、データ保持部116に保持された立体映像データ160とその立体映像データ160の映像サイズを読み出し、それを拡大または縮小して予めサイズが定められた加工立体映像データ190に変更する。例えば、加工立体映像データ190としてサムネイルが形成される場合、映像生成部438は、立体映像データ160を、縦横比を維持してサムネイルの所定のサイズに縮小する。
そして、図6を用いて説明したように、例えば、被写体174の結像位置186の立体表示部120(輻輳点)からの距離K、即ち、立体表示部120から飛び出して見える距離Kは、左眼用映像データ162と右眼用映像データ164での被写体174の視差をH、観察者の眼間距離をI、観察者と立体表示部120との視聴予定距離(輻輳点距離)をJとすると、上述した数式1(K=(H/(H+I))×J)で表される。このとき、加工立体映像データ190の生成により、映像サイズがサイズの変更比率α倍になると、加工立体映像データ190において飛び出して見える距離K’は数式3で表される。
K’=(H’/(H’+I))×J=(αH/(αH+I))×J…(数式3)
したがって、立体感が損なわれることとなる。
ここで、上記サイズの変更比率αが把握されている場合、数式3におけるH’=αHの要素に、サイズの変更比率αの逆数、即ち1/αを乗算することでH’は立体映像データ160の視差Hとなる。そうすると飛び出して見える距離K’も原映像データである立体映像データ160の飛び出して見える距離Kと等しくなる。例えば、図6を用いて説明したように、眼間距離I=6cm、視聴予定距離J=15cmの条件で、視差H’が0.1cmになっている場合に、この0.1cmにサイズの変更比率1/10の逆数である10を乗ずると視差Hが1cmとなり、立体表示部120から飛び出して見える距離Kも本来の2.14cmとなる。
映像生成部438は、このように導出された視差Hを当該立体表示部120の映像サイズに換算し直した換算値を求め、加工立体映像データ190における被写体174の視差を広げる方向に換算値分変更する。ここで、映像生成部438は、データ保持部116に保持された被写体領域情報と、背景領域情報とに基づいて、移動する被写体174を背景176から分離する。
また、この理論は、交差視および平行視のいずれにおいても、視差を広げる方向に移動させれば適用できる。即ち、輻輳点の前後どちらにあるかに拘わらず被写体174や背景176の立体感を容易に復元することが可能となる。
(映像処理方法)
次に、上述した映像処理装置400を用いて、両眼視差による立体映像を表示する映像処理方法を具体的に説明する。
図15は、立体映像表示方法の全体的な流れを示したフローチャートである。ここでも、第1の実施形態において既に説明した処理については、同一の符号を付すことによってその詳細な説明を省略し、相違する処理を主に説明する。
撮像者が撮像モードを終了し(S300のNO)、現在の状態を撮像した立体映像データ160の確認モード、即ち、加工立体映像データ190の生成処理に移行すると(S314のYES)、映像生成部438は、立体映像データ160のサイズを変更した加工立体映像データ190を生成し(S318)、データ保持部116に保持された被写体領域情報と、背景領域情報と、サイズの変更比率αとに基づき、立体映像データ160の被写体もしくは背景のいずれか一方または両方の視差を変更する(S520)。
そして、第1の実施形態同様、視差再設定部140や報知部142によって、視差の再設定処理(S324)や報知処理(S328)が実行された後、表示制御部144は、生成された加工立体映像データ190を立体表示部120に表示する(S330)。
かかる映像処理方法を用いることで、原映像データである立体映像データ160と大きさの異なる加工立体映像データ190を生成した場合においても、立体映像データ160を表示するときと同様に立体感を適切に知覚させることが可能となる。したがって、観察者は、強調された加工立体映像データ190を通じて、実際の立体映像データ160の立体感を鮮明に実感することができる。
以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明はかかる実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
なお、本明細書の映像処理方法の各工程は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいはサブルーチンによる処理を含んでもよい。
本発明は、両眼視差によって立体映像を知覚させるための映像処理装置および映像処理方法に利用することができる。
100、400 …映像処理装置
104a、104b …光軸
110a、110b …撮像部
112 …距離測定部
116 …データ保持部
120 …立体表示部
132 …領域情報生成部
134 …距離導出部
136 …距離取得部
138、438 …映像生成部
140 …視差再設定部
142 …報知部
160 …立体映像データ
174 …被写体
176 …背景
190 …加工立体映像データ
196 …輻輳点

Claims (7)

  1. それぞれの光軸が略平行または撮像方向で交わり、両眼視差による立体映像を知覚させるための立体映像データを生成する2つの撮像部を有する撮像ユニットと、
    前記2つの撮像部による前記立体映像データの生成と並行して、前記撮像ユニットと撮像対象との距離を取得し、取得した前記撮像ユニットと撮像対象との距離に基づいて、前記立体映像データ中の任意の被写体と前記立体映像データ中の前記被写体以外の領域である背景とを分離して、前記立体映像データ中の前記被写体の占有領域を示す被写体領域情報と、前記立体映像データ中の前記背景の占有領域を示す背景領域情報と、を生成する領域情報生成部と、
    前記被写体と前記2つの撮像部との距離を示す被写体距離情報と、前記背景と前記2つの撮像部との距離を示す背景距離情報とを導出する距離導出部と、
    前記立体映像データと、前記被写体領域情報と、前記背景領域情報と、前記被写体距離情報と、前記背景距離情報と、を関連づけて保持するデータ保持部と、
    観察者の眼間距離を示す眼間距離情報と、前記観察者と立体表示部との距離を示す視聴予定距離情報とを取得する距離取得部と、
    前記データ保持部に保持された前記立体映像データのサイズを変更して加工立体映像データを生成すると共に、前記データ保持部に保持された前記被写体領域情報と、前記背景領域情報と、前記被写体距離情報と、前記背景距離情報と、前記距離取得部が取得した前記眼間距離情報と、前記視聴予定距離情報とに基づき、前記加工立体映像データの前記被写体もしくは前記背景のいずれか一方または両方の視差を変更する映像生成部と、
    生成された前記加工立体映像データを立体表示部に表示する表示制御部と、
    を備えていることを特徴とする映像処理装置。
  2. 前記データ保持部は、輻輳点までの距離を示す輻輳点距離情報も前記立体映像データに関連づけて保持し、
    前記映像生成部は、前記輻輳点を基準にして、前記被写体もしくは前記背景のいずれか一方または両方の視差を変更することを特徴とする請求項1に記載の映像処理装置。
  3. それぞれの光軸が略平行または撮像方向で交わり、両眼視差による立体映像を知覚させるための立体映像データを生成する2つの撮像部を有する撮像ユニットと、
    前記2つの撮像部による前記立体映像データの生成と並行して、前記撮像ユニットと撮像対象との距離を取得し、取得した前記撮像ユニットと撮像対象との距離に基づいて、前記立体映像データ中の任意の被写体と前記立体映像データ中の前記被写体以外の領域である背景とを分離して、前記立体映像データ中の前記被写体の占有領域を示す被写体領域情報と、前記立体映像データ中の前記背景の占有領域を示す背景領域情報と、を生成する領域情報生成部と、
    前記立体映像データと、前記被写体領域情報と、前記背景領域情報と、を関連づけて保持するデータ保持部と、
    前記データ保持部に保持された前記立体映像データのサイズを変更して加工立体映像データを生成すると共に、前記データ保持部に保持された前記被写体領域情報と、前記背景領域情報と、前記サイズの変更比率とに基づき、前記加工立体映像データの前記被写体もしくは前記背景のいずれか一方または両方の視差を変更する映像生成部と、
    生成された前記加工立体映像データを立体表示部に表示する表示制御部と、
    を備えていることを特徴とする映像処理装置。
  4. 前記映像生成部は、前記被写体の視差を前記背景と独立して変更した場合に欠落する背景の部分映像を他の背景の映像で補正することを特徴とする請求項1から3のいずれか1項に記載の映像処理装置。
  5. 前記被写体の視差を変更することによって前記被写体の映像が映像枠からはみ出す場合、前記映像枠からはみ出ないように視差を再設定する視差再設定部をさらに備えることを特徴とする請求項1から4のいずれか1項に記載の映像処理装置。
  6. それぞれの光軸が略平行または撮像方向で交わる2つの撮像部を用いて両眼視差による立体映像を知覚させるための立体映像データを生成し、
    前記2つの撮像部を有する撮像ユニットと撮像対象との距離を取得し、取得した前記撮像ユニットと撮像対象との距離に基づいて、前記立体映像データ中の任意の被写体と前記立体映像データ中の前記被写体以外の領域である背景とを分離して、前記立体映像データ中の前記被写体の占有領域を示す被写体領域情報と、前記立体映像データ中の前記背景の占有領域を示す背景領域情報と、を生成し、
    前記被写体と前記2つの撮像部との距離を示す被写体距離情報と、前記背景と前記2つの撮像部との距離を示す背景距離情報とを導出し、
    観察者の眼間距離を示す眼間距離情報と、前記観察者と立体表示部との距離を示す視聴予定距離情報とを取得し、
    前記立体映像データのサイズを変更して加工立体映像データを生成すると共に、前記被写体領域情報と、前記背景領域情報と、前記被写体距離情報と、前記背景距離情報と、前記眼間距離情報と、前記視聴予定距離情報とに基づき、前記加工立体映像データの前記被写体もしくは前記背景のいずれか一方または両方の視差を変更し、
    生成した前記加工立体映像データを立体表示部に表示することを特徴とする映像処理方法。
  7. それぞれの光軸が略平行または撮像方向で交わる2つの撮像部を用いて両眼視差による立体映像を知覚させるための立体映像データを生成し、
    前記2つの撮像部を有する撮像ユニットと撮像対象との距離を取得し、取得した前記撮像ユニットと撮像対象との距離に基づいて、前記立体映像データ中の任意の被写体と前記立体映像データ中の前記被写体以外の領域である背景とを分離して、前記立体映像データ中の前記被写体の占有領域を示す被写体領域情報と、前記立体映像データ中の前記背景の占有領域を示す背景領域情報と、を生成し、
    前記立体映像データのサイズを変更して加工立体映像データを生成すると共に、前記被写体領域情報と、前記背景領域情報と、前記サイズの変更比率とに基づき、前記加工立体映像データの前記被写体もしくは前記背景のいずれか一方または両方の視差を変更し、
    生成した前記加工立体映像データを立体表示部に表示することを特徴とする映像処理方法。
JP2009273057A 2009-12-01 2009-12-01 映像処理装置および映像処理方法 Pending JP2011119810A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009273057A JP2011119810A (ja) 2009-12-01 2009-12-01 映像処理装置および映像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009273057A JP2011119810A (ja) 2009-12-01 2009-12-01 映像処理装置および映像処理方法

Publications (1)

Publication Number Publication Date
JP2011119810A true JP2011119810A (ja) 2011-06-16

Family

ID=44284638

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009273057A Pending JP2011119810A (ja) 2009-12-01 2009-12-01 映像処理装置および映像処理方法

Country Status (1)

Country Link
JP (1) JP2011119810A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013013008A (ja) * 2011-06-30 2013-01-17 Fujitsu Semiconductor Ltd 画像処理装置および画像処理方法
WO2014141654A1 (ja) * 2013-03-13 2014-09-18 パナソニック株式会社 測距装置、撮像装置および測距方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013013008A (ja) * 2011-06-30 2013-01-17 Fujitsu Semiconductor Ltd 画像処理装置および画像処理方法
WO2014141654A1 (ja) * 2013-03-13 2014-09-18 パナソニック株式会社 測距装置、撮像装置および測距方法
JPWO2014141654A1 (ja) * 2013-03-13 2017-02-16 パナソニックIpマネジメント株式会社 測距装置、撮像装置および測距方法

Similar Documents

Publication Publication Date Title
JP5299214B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP5963422B2 (ja) 撮像装置、表示装置、コンピュータプログラムおよび立体像表示システム
WO2011122177A1 (ja) 立体映像表示装置、立体映像撮像装置および立体映像表示方法
WO2013099169A1 (ja) ステレオ撮影装置
US8373745B2 (en) Image processing apparatus, image display apparatus, image apparatus, and image processing method
JP2012156680A (ja) 3d画像処理装置
WO2013108339A1 (ja) ステレオ撮影装置
US11785197B2 (en) Viewer-adjusted stereoscopic image display
JP2005167310A (ja) 撮影装置
JP5546633B2 (ja) 立体画像再生装置、立体画像再生システム及び立体画像再生方法
JP5420075B2 (ja) 立体画像再生装置、その視差調整方法、視差調整プログラム、及び撮影装置
JP5220951B1 (ja) 立体映像出力装置及び立体映像出力方法
JP5486697B2 (ja) 立体動画再生装置、立体動画再生プログラムならびにその記録媒体、立体ディスプレイ装置、立体撮像装置及び立体動画再生方法
JP5750457B2 (ja) 立体動画処理装置、立体動画処理プログラム及びその記録媒体、立体撮像装置並びに立体動画処理方法
JP5466773B2 (ja) 立体動画再生装置、立体動画再生プログラムならびにその記録媒体、立体ディスプレイ装置、立体撮像装置及び立体動画再生方法
JPWO2011155212A1 (ja) 立体画像表示装置、立体撮像装置、及び方法
JP5347987B2 (ja) 映像処理装置
JP5562122B2 (ja) 画像処理装置及びその制御方法
JP2011119810A (ja) 映像処理装置および映像処理方法
JP2012105172A (ja) 画像生成装置、画像生成方法、コンピュータプログラムおよび記録媒体
WO2013042392A1 (ja) 立体画像評価装置
JP2012182678A (ja) 立体映像処理装置および立体映像処理方法
JP2012142800A (ja) 画像処理装置及び画像処理方法、並びにコンピューター・プログラム
JP2015029215A (ja) 立体画像処理装置
JP2011119825A (ja) 映像処理装置および映像処理方法

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20111012