JP2009239388A - 立体動画像処理装置および方法並びにプログラム - Google Patents

立体動画像処理装置および方法並びにプログラム Download PDF

Info

Publication number
JP2009239388A
JP2009239388A JP2008079633A JP2008079633A JP2009239388A JP 2009239388 A JP2009239388 A JP 2009239388A JP 2008079633 A JP2008079633 A JP 2008079633A JP 2008079633 A JP2008079633 A JP 2008079633A JP 2009239388 A JP2009239388 A JP 2009239388A
Authority
JP
Japan
Prior art keywords
depth
frame
moving image
adjustment
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008079633A
Other languages
English (en)
Other versions
JP4695664B2 (ja
JP2009239388A5 (ja
Inventor
Tomonori Masuda
智紀 増田
Mikio Watanabe
幹夫 渡辺
Takeshi Ota
毅 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2008079633A priority Critical patent/JP4695664B2/ja
Priority to US12/410,816 priority patent/US8044997B2/en
Priority to KR1020090025518A priority patent/KR101551492B1/ko
Priority to EP09004370.4A priority patent/EP2106150B1/en
Publication of JP2009239388A publication Critical patent/JP2009239388A/ja
Publication of JP2009239388A5 publication Critical patent/JP2009239388A5/ja
Application granted granted Critical
Publication of JP4695664B2 publication Critical patent/JP4695664B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/002Eyestrain reduction by processing stereoscopic signals or controlling stereoscopic devices

Abstract

【課題】立体動画像のシーンの切り替え時において、立体視を行うユーザの疲労感を軽減できるようにする。
【解決手段】画像入力部2が、複数のフレームからなる立体視可能な立体動画像の入力を受け付ける。シーン検出部3が、立体動画像のシーンの切り替わり位置を検出する。奥行き感調整処理4が、シーンの切り替わり位置における奥行き感が徐々に変更されるように、立体動画像の奥行き感を調整する奥行き感調整処理を立体動画像に施すことにより処理済み立体動画像を生成する。
【選択図】図1

Description

本発明は、立体視可能な立体動画像を処理するための立体動画像処理装置および方法並びに立体動画像処理方法をコンピュータに実行させるためのプログラムに関するものである。
複数の画像を組み合わせて表示することにより、視差を利用して立体視できることが知られている。このような立体視ができる立体画像は、同一の被写体を異なる位置から複数のカメラを用いて撮影することにより複数の画像を取得し、複数の画像に含まれる被写体の視差を利用して複数の画像を合成することにより生成することができる。
具体的には、複数の画像の色を例えば赤と青のように異ならせて重ね合わせたり、複数の画像の偏光方向を異ならせて重ね合わせることにより、複数の画像を合成して立体画像を生成することができる。この場合、立体画像を表示して、赤青メガネや偏光メガネ等の画像分離メガネを用いて表示された立体画像を目の自動焦点機能により融合視することにより、画像を立体視することができる(アナグリフ方式、偏光フィルタ方式)。
また、偏光メガネ等を使用しなくても、パララックスバリア方式およびレンチキュラー方式のように、立体画像を立体視可能な3D液晶に表示して立体視することも可能である。この場合、複数の画像を垂直方向に短冊状に切り取って交互に配置することにより、立体画像が生成される。また、画像分離メガネを使用したり、光学素子を液晶に貼ることで左右の画像の光線方向を変えながら、左右の画像を交互に表示することにより、立体画像を表示することも可能である(時分割方式)。
また、立体動画像を再生する際にどのように表示を行うかをあらかじめ設定しておく手法が提案されている(特許文献1参照)。特許文献1に記載された手法は、例えば立体動画像を再生する際には、最初の数秒間のみ立体視できない2次元動画像を表示した後に立体動画像に切り替える等の設定を行うことができる。
また、立体動画像および立体視できない2次元動画像が混在している場合に、立体表示と2次元表示との切り替えを徐々に行うことにより、切り替え時の違和感や不快感を解消する手法も提案されている(特許文献2参照)。
特開2004−200813号公報 特開2004−328566号公報
ところで、立体動画像を撮影する場合には、録画の開始、停止、ズーム倍率の変更等の操作が行われると撮影されるシーンが変更され、その結果、シーンの切り替わり位置の前後において奥行き感が変更されることとなる。しかしながら、立体視はユーザの目の自動焦点機能により画像の奥行き感を実現するものであるため、シーンの奥行き感が突然切り替わると、立体視を行うユーザに非常に疲労感が残るものとなる。ここで、特許文献1に記載された手法は、あらかじめ2次元動画像と立体動画像とをどのように表示するかを設定しておくものであるため、立体動画像のシーンの切り替え時には適用できない。また、特許文献2に記載された手法は、2次元動画像と立体動画像との切り替えを徐々に行うものであるため、動画像内におけるシーンの切り替えには適用できない。
本発明は上記事情に鑑みなされたものであり、立体動画像のシーンの切り替え時において、立体視を行うユーザの疲労感を軽減できるようにすることを目的とする。
本発明による立体動画像処理装置は、複数のフレームからなる立体視可能な立体動画像の入力を受け付ける動画像入力手段と、
前記立体動画像のシーンの切り替わり位置を検出するシーン検出手段と、
前記シーンの切り替わり位置における奥行き感が徐々に変更されるように、前記立体動画像の奥行き感を調整する奥行き感調整処理を前記立体動画像に施すことにより処理済み立体動画像を生成する奥行き感調整手段とを備えたことを特徴とするものである。
なお、本発明による立体動画像処理装置においては、前記奥行き感調整手段を、処理対象シーンの前のシーンの最終フレームに続いて、該処理対象シーンの先頭フレームに対応する2次元フレームが表示され、該2次元フレームに続いて前記先頭フレームの奥行き感となるまで該2次元フレームの奥行き感が連続して変化する所定数の奥行き感調整フレームが表示され、該奥行き感調整フレームに続いて前記先頭フレームおよび該先頭フレームに続くフレームが表示されるよう、前記奥行き感調整処理を前記立体動画像に施す手段としてもよい。
この場合、前記奥行き感調整手段を、前記先頭フレームの奥行き感が大きいほど、前記所定数を大きくする手段としてもよい。
「2次元フレーム」とは、奥行き感が略0のフレームであり、先頭フレームに含まれる対応する画素間の視差量をなくすように、先頭フレームをモーフィング等によって加工することにより生成することができる。なお、立体動画像は複数の動画像を立体視可能なように合成することにより生成されているため、合成前の複数の動画像が立体動画像とともに入力された場合には、合成前の動画像を用いて2次元フレームを生成するようにしてもよい。
また、本発明による立体動画像処理装置においては、前記奥行き感調整手段を、処理対象シーンの前のシーンの最終フレームに続いて、該最終フレームに相当する奥行き感を有する、該処理対象シーンの先頭フレームまたは前記最終フレームに対応する奥行き感調整先頭フレームが表示され、該奥行き感調整先頭フレームに続いて前記先頭フレームの奥行き感となるまで該奥行き感調整先頭フレームの奥行き感が連続して変化する所定数の奥行き感調整フレームが表示され、該奥行き感調整フレームに続いて前記先頭フレームおよび該先頭フレームに続くフレームが表示されるよう、前記奥行き感調整処理を前記立体動画像に施す手段としてもよい。
この場合、前記奥行き感調整手段を、前記最終フレームと前記先頭フレームとの奥行き感の差が大きいほど、前記所定数を大きくする手段としてもよい。
また、本発明による立体動画像処理装置においては、前記奥行き感調整手段を、処理対象シーンの前のシーンの最終フレームに続いて、該処理対象シーンの先頭フレームに対応する2次元フレームが表示され、該2次元フレームに続いて前記処理対象シーンにおける基準フレームの奥行き感となるまで、前記処理対象シーンの奥行き感が連続して変化する、前記先頭フレームから前記基準フレームまでのフレーム数に対応する数の奥行き感調整フレームが表示され、該奥行き感調整フレームに続いて前記基準フレームおよび該基準フレームに続くフレームが表示されるよう、前記奥行き感調整処理を前記立体動画像に施す手段としてもよい。
この場合、前記奥行き感調整手段を、前記先頭フレームの奥行き感が大きいほど、前記先頭フレームから前記基準フレームまでのフレーム数を多くする手段としてもよい。
またこの場合、前記奥行き感調整手段を、前記処理対象シーンのフレーム数と、前記先頭フレームから前記基準フレームまでのフレーム数との比較結果に応じた前記奥行き感調整処理を、前記立体動画像に施す手段としてもよい。
また、本発明による立体動画像処理装置においては、前記奥行き感調整手段を、処理対象シーンの前のシーンの最終フレームに続いて、該最終フレームに相当する奥行き感を有する、該処理対象シーンの先頭フレームに対応する奥行き感調整先頭フレームが表示され、該奥行き感調整先頭フレームに続いて前記処理対象シーンにおける基準フレームの奥行き感となるまで、前記処理対象シーンの奥行き感が連続して変化する、前記先頭フレームから前記基準フレームまでのフレーム数に対応する数の奥行き感調整フレームが表示され、該奥行き感調整フレームに続いて前記基準フレームおよび該基準フレームに続くフレームが表示されるよう、前記奥行き感調整処理を前記立体動画像に施す手段としてもよい。
この場合、前記奥行き感調整手段を、前記最終フレームと前記先頭フレームとの奥行き感の差が大きいほど、前記奥行き感調整先頭フレームから前記基準フレームまでのフレーム数を多くする手段としてもよい。
またこの場合、前記奥行き感調整手段を、前記処理対象シーンのフレーム数と、前記先頭フレームから前記基準フレームまでのフレーム数との比較結果に応じて、前記奥行き感調整処理を前記立体動画像に施す手段としてもよい。
本発明による立体動画像処理方法は、複数のフレームからなる立体視可能な立体動画像の入力を受け付け、
前記立体動画像のシーンの切り替わり位置を検出し、
前記シーンの切り替わり位置における奥行き感が徐々に変更されるように、前記立体動画像の奥行き感を調整する奥行き感調整処理を前記立体動画像に施すことにより処理済み立体動画像を生成することを特徴とするものである。
なお、本発明による立体動画像処理方法をコンピュータに実行させるためのプログラムとして提供してもよい。
本発明によれば、複数のフレームからなる立体視可能な立体動画像の入力が受け付けられ、立体動画像のシーンの切り替わり位置が検出され、シーンの切り替わり位置における奥行き感が徐々に変更されるように、立体動画像の奥行き感が調整される。このため、立体動画像のシーンが切り替わる際に奥行き感が突然切り替わることがなくなり、その結果、立体視を行うユーザの疲労感を軽減することができる。
以下、図面を参照して本発明の実施形態について説明する。図1は本発明の第1の実施形態による立体動画像処理装置の構成を示す概略ブロック図である。図1に示すように第1の実施形態による立体動画像処理装置1は、画像入力部2、シーン検出部3、奥行き感調整部4、各種入力を行うキーボードおよびマウス等からなる入力部5、各種表示を行う液晶モニタ等の表示部6並びに制御部7を備え、各部がバス8により接続されている。
画像入力部2は、立体動画像処理装置1に処理の対象となる立体動画像M0の画像ファイルを入力するものであり、画像ファイルが記録されたメディアから画像ファイルを読み出すメディアドライブ、ネットワーク経由で画像ファイルの入力を受け付ける有線または無線のインターフェース等、画像ファイルを入力するための公知の種々の手段を用いることができる。本実施形態においては、画像入力部2をメディア2Aから画像ファイルを読み出すものとする。なお、画像ファイルはMPEG等の圧縮方式により圧縮されているため、画像入力部2は、入力された画像ファイルを伸長して、その後の処理に供するものである。
シーン検出部3は、画像入力部2により入力された画像ファイルに含まれる画像データにより表される立体動画像M0のシーンの切り替わり位置を検出する。具体的には、立体動画像M0に含まれる各フレーム間の差分を算出し、あるフレーム間の差分がその前後のフレーム間の差分と大きく異なる場合に、そのフレーム間をシーンの切り替わり位置として検出する。なお、立体動画像M0を表示部5に再生し、ユーザにシーンの切り替わり位置を入力させることにより、シーンの切り替わり位置を検出するようにしてもよい。また、立体動画像M0にはシーンの切り替わり位置を示すチャプターマークが付与されている場合がある。このような場合には、チャプターマークの位置をシーンの切り替わり位置として検出してもよい。なお、チャプターマークは、立体動画像M0の画像ファイルに付与されている場合もあるが、立体動画像M0の画像ファイルとは別ファイルとして入力される場合もある。
奥行き感調整部4は、処理対象のシーンについて、そのシーンの開始時にシーンの奥行き感が徐々に変更されるように奥行き感調整処理を行う。図2は第1の実施形態において入力された立体動画像の各シーンにおける奥行き感を示す図である。なお、第1の実施形態においては、立体動画像M0には奥行き感が異なる3つのシーンS1,S2,S3が含まれているものとする。また、第1の実施形態においては、最初のシーンS1の開始時には何ら処理を行わないものであり、シーンS1に続くシーンS2,S3の切り替わり位置において処理を行うものである。
ここで、立体動画像M0は、水平方向に異なる位置から撮影することにより取得した2つの動画像から生成され、2つの動画像に含まれる被写体の視差を利用して立体視を実現するものである。したがって、シーンの奥行き感は視差に依存するものであり、シーン内の画像における最大視差と最小視差との差が大きいほど奥行き感が大きくなる。本実施形態においては、シーンのフレームの各画素における最大視差と最小視差との差を奥行き感として用いるものとする。なお、立体動画像M0を表示部5に再生し、ユーザに各シーンの奥行き感を入力させるようにしてもよい。また、立体動画像M0によっては、奥行き感を求めるために必要な撮影時の焦点位置、ズーム位置、カメラ間の基線長および輻輳角等の奥行き感情報が付与されていたり、奥行き感情報が画像ファイルとは別ファイルとして装置1に入力される場合がある。このような場合には、立体動画像M0に付与された奥行き感情報または入力された奥行き感情報を取得し、奥行き感情報から奥行き感を求めるようにしてもよい。
なお、同一シーン内においても被写体の奥行き感は時間の経過とともに変化する場合があるが、本実施形態においては、同一シーンにおいては奥行き感は一定であるものとして説明する。
第1の実施形態においては、奥行き感調整部4は、まず処理対象シーンの先頭フレームFrTについて、奥行き感のない2次元フレームFrT0を生成する。ここで、先頭フレームFrTは含まれる被写体に対応する各画素が視差を有するものとなっているため、奥行き感調整部4は、先頭フレームFrTをモーフィング等により加工して、先頭フレームFrTにおける各画素について視差がない2次元フレームFrT0を生成する。そして、2次元フレームFrT0から先頭フレームFrTの奥行き感となるまで、先頭フレームFrTの奥行き感が連続して変化する所定数の奥行き感調整フレームFrTi(iはフレーム数)を生成する。なお、奥行き感調整フレームFrTiは、先頭フレームFrTと同一の画像となる。そして、処理対象シーンとその前のシーンとの間に2次元フレームFrT0および奥行き感調整フレームFrTiを挿入することにより、奥行き感調整処理を立体動画像に施す。
図3は第1の実施形態における奥行き感調整処理を説明するための図である。なお、第1の実施形態および以降の実施形態においては、処理対象シーンの前のシーンの最終フレームFrLに含まれる被写体が円形であり、処理対象シーンの先頭フレームFrTに含まれる被写体が正方形であるとする。また、第1の実施形態および以降の実施形態においては、各フレームにおける被写体の視差を、実線および破線で示した2つの被写体のずれ量にて示す。なお、第1の実施形態および以降の実施形態においては、便宜上視差を表すために2つの被写体を実線および破線にて示しているが、実際のフレームは、立体視を行うことにより1つの被写体が奥行き感を持って視認されるものである。
まず、奥行き感調整部4は、処理対象シーンの前のシーンの最終フレームFrLに続いて、処理対象シーンの先頭フレームFrTに対応する2次元フレームFrT0が表示され、2次元フレームFrT0に続いて所定数(ここでは4つ)の奥行き感調整フレームFrT1〜FrT4が表示され、奥行き感調整フレームFrT1〜FrT4に続いて先頭フレームFrTおよび先頭フレームFrTに続くフレームが表示されるよう、シーン間に2次元フレームFrT0および奥行き感調整フレームFrT1〜FrT4を挿入することにより、奥行き感調整処理を立体動画像M0に施す。これにより、処理済み立体動画像M1が生成される。
図4は第1の実施形態により生成される処理済み立体動画像M1の奥行き感を示す図である。図4に示すように処理済み立体動画像M1の各シーンS1〜S3の間には、2次元フレームFrT0および奥行き感調整フレームFrTiが挿入されることにより、各シーンの開始位置において、先頭フレームFrTの奥行き感が0から先頭フレームFrTの奥行き感となるまで徐々に変化し、奥行き感が先頭フレームFrTの奥行き感となるとそのシーンの再生が開始されることとなる。なお、第1の実施形態においては、各シーン間に挿入されるフレーム数は一定であるため、各シーン間においては、2次元フレームFrT0および奥行き感調整フレームFrTiが、フレーム数に応じた時間Δt1再生されることとなる。また、各シーンの再生時間に変更はないため、処理済み立体動画像M1の再生時間は、立体動画像M0よりも挿入されたフレーム数の分長くなる。
制御部7は、CPU7A、各種処理を行う際の作業領域となるRAM7B、および装置1の動作プログラムおよび各種定数等を記憶したROM7Cを備えてなり、装置1の各部の動作を制御する。
次いで、第1の実施形態において行われる処理について説明する。図5は第1の実施形態において行われる処理を示すフローチャートである。立体動画像M0に対する処理の指示が入力部5から行われることにより制御部7が処理を開始し、画像入力部2がメディア2Aから立体動画像M0を読み出し(ステップST1)、シーン検出部3が立体動画像M0のシーンの切り替わり位置を検出する(ステップST2)。そして、奥行き感調整部4が奥行き感調整処理を立体動画像M0に施し、処理済み立体動画像M1を生成する(ステップST3)。
図6は第1の実施形態における奥行き感調整処理のフローチャートである。奥行き感調整部4は、処理対象シーンを最初のシーンに設定し(ステップST11)、処理対象シーンの先頭フレームFrTに対応する2次元フレームFrT0を生成する(ステップST12)。なお、ここでいう最初のシーンとは、立体動画像M0の最初のシーンの次のシーン、すなわち図3に示すシーンS2を意味する。
次いで、2次元フレームFrT0から先頭フレームFrTの奥行き感となるまで、奥行き感が連続して変化する所定数の奥行き感調整フレームFrTiを生成する(ステップST13)。そして、処理対象シーンおよびその前のシーンとの間に2次元フレームFrT0および奥行き感調整フレームFrTiを挿入する(フレーム挿入、ステップST14)。
続いて、奥行き感調整部4は、すべてのシーンの処理を終了したか否かを判定し(ステップST15)、ステップST15が否定されると、処理対象シーンを次のシーンに変更し(ステップST16)、ステップST12に戻る。ステップST15が肯定されると、奥行き感調整処理を終了する。
図5に戻り、制御部7は処理済み立体動画像M1をメディア2Aに記録し(ステップST4)、処理を終了する。
このように、第1の実施形態においては、シーンの切り替わり位置における奥行き感が徐々に変更されるように、立体動画像の奥行き感を調整するようにしたため、立体動画像のシーンが切り替わる際に奥行き感が突然切り替わることがなくなり、その結果、立体視を行うユーザの疲労感を軽減することができる。
次いで、本発明の第2の実施形態について説明する。なお、第2の実施形態による立体動画像処理装置は、第1の実施形態による立体動画像処理装置と同一の構成を有し、奥行き感調整部4が行う処理のみが異なるため、ここでは構成についての詳細な説明は省略する。なお、第2の実施形態および以降の実施形態においては、図2に示すように第1の実施形態と同一のシーンS1〜S3を含む立体動画像M0を処理の対象とする。
第2の実施形態においては、奥行き感調整部4は、処理対象シーンの先頭フレームFrTについて、処理対象シーンの前のシーンの最終フレームFrLに相当する奥行き感を有する奥行き感調整先頭フレームFrTc0を生成する。ここで、最終フレームFrLと先頭フレームFrTとは奥行き感が異なるため、奥行き感調整部4は、先頭フレームFrTの奥行き感が最終フレームFrLの奥行き感と同一となるように、先頭フレームFrTをモーフィング等により加工して、奥行き感調整先頭フレームFrTc0を生成する。そして、奥行き感調整先頭フレームFrTc0の奥行き感から先頭フレームFrTの奥行き感となるまで、先頭フレームFrTの奥行き感が連続して変化する所定数の奥行き感調整フレームFrTci(iはフレーム数)を生成する。なお、奥行き感調整フレームFrTciは、先頭フレームFrTと同一の画像となる。そして、シーン間に奥行き感調整先頭フレームFrTc0および奥行き感調整フレームFrTciを挿入することにより、奥行き感調整処理を立体動画像に施す。
図7は第2の実施形態における奥行き感調整処理を説明するための図である。まず、奥行き感調整部4は、処理対象シーンの前のシーンの最終フレームFrLに続いて、処理対象シーンの先頭フレームFrTに対応する奥行き感調整先頭フレームFrTc0が表示され、奥行き感調整先頭フレームFrTc0に続いて所定数(ここでは4つ)の奥行き感調整フレームFrTc1〜FrTc4が表示され、奥行き感調整フレームFrTc1〜FrTc4に続いて先頭フレームFrTおよび先頭フレームFrTに続くフレームが表示されるよう、シーン間に奥行き感調整先頭フレームFrTc0および奥行き感調整フレームFrTc1〜FrTc4を挿入することにより、奥行き感調整処理を立体動画像M0に施す。これにより、処理済み立体動画像M1が生成される。
図8は第2の実施形態により生成される処理済み立体動画像M1の奥行き感を示す図である。図8に示すように処理済み立体動画像M1の各シーンS1〜S3の間には、奥行き感調整先頭フレームFrTc0および奥行き感調整フレームFrTciが挿入されることにより、各シーンの開始位置において前のシーンの奥行き感からそのシーンの奥行き感となるまで、先頭フレームFrTの奥行き感が徐々に変化し、奥行き感が先頭フレームFrTの奥行き感となるとそのシーンの再生が開始されることとなる。なお、第2の実施形態においては、各シーン間に挿入されるフレーム数は一定であるため、各シーン間においては、奥行き感調整先頭フレームFrTc0および奥行き感調整フレームFrTciが、フレーム数に応じた時間Δt2再生されることとなる。また、各シーンの再生時間に変更はないため、処理済み立体動画像M1の再生時間は、立体動画像M0よりも挿入されたフレーム数の分長くなる。
次いで、第2の実施形態において行われる処理について説明する。図9は第2の実施形態における奥行き感調整処理のフローチャートである。奥行き感調整部4は、処理対象シーンを最初のシーンに設定し(ステップST21)、処理対象シーンの先頭フレームFrTに対応する奥行き感調整先頭フレームFrTc0を生成する(ステップST22)。
次いで、奥行き感調整先頭フレームFrTc0から先頭フレームFrTの奥行き感となるまで、奥行き感が連続して変化する所定数の奥行き感調整フレームFrTciを生成する(ステップST23)。そして、処理対象シーンおよびその前のシーンとの間に奥行き感調整先頭フレームFrTc0および奥行き感調整フレームFrTciを挿入する(フレーム挿入、ステップST24)。
続いて、奥行き感調整部4は、すべてのシーンの処理を終了したか否かを判定し(ステップST25)、ステップST25が否定されると、処理対象シーンを次のシーンに変更し(ステップST26)、ステップST22に戻る。ステップST24が肯定されると、奥行き感調整処理を終了する。
なお、上記第1の実施形態においては、2次元フレームFrT0および所定数の奥行き感調整フレームFrTiをフレーム間に挿入しているため、フレーム間における奥行き感が切り替わる時間は一定時間Δt1となっている。
しかしながら、シーン間に挿入されるフレーム数が一定であると、シーンの奥行き感が大きい場合に急激に奥行き感が切り替わることとなってしまう。このため、シーンの奥行き感が大きいほど奥行き感調整フレームFrTiの数を大きくするようにしてもよい。以下、これを第3の実施形態として説明する。
図10は第3の実施形態における奥行き感調整処理のフローチャートである。奥行き感調整部4は、処理対象シーンを最初のシーンに設定し(ステップST31)、処理対象シーンの先頭フレームFrTに対応する2次元フレームFrT0を生成する(ステップST32)。
次いで、奥行き感調整部4は、処理対象シーンの奥行き感に応じて奥行き感調整フレームFrTiの数を設定する(フレーム数設定、ステップST33)。具体的には、奥行き感に比例して大きくなるように奥行き感調整フレームFrTiの数を設定する。そして、2次元フレームFrT0から先頭フレームFrTの奥行き感となるまで、奥行き感が連続して変化する設定されたフレーム数の奥行き感調整フレームFrTiを生成する(ステップST34)。そして、処理対象シーンおよびその前のシーンとの間に2次元フレームFrT0および奥行き感調整フレームFrTiを挿入する(フレーム挿入、ステップST35)。
続いて、奥行き感調整部4は、すべてのシーンの処理を終了したか否かを判定し(ステップST36)、ステップST36が否定されると、処理対象シーンを次のシーンに変更し(ステップST37)、ステップST32に戻る。ステップST36が肯定されると、奥行き感調整処理を終了する。
図11は第3の実施形態により生成される処理済み立体動画像M1の奥行き感を示す図である。図11に示すように処理済み立体動画像M1の各シーンS1〜S3の間には、2次元フレームFrT0およびシーンの奥行き感に応じた数の奥行き感調整フレームFrTiが挿入されることにより、各シーンの開始位置において先頭フレームFrTの奥行き感が0から先頭フレームFrTの奥行き感となるまで徐々に変化し、奥行き感が先頭フレームFrTの奥行き感となるとそのシーンの再生が開始されることとなる。また、シーンの奥行き感が大きいほど挿入される奥行き感調整フレームFrTiの数が大きくなるため、各シーン間においては、2次元フレームFrT0および奥行き感調整フレームFrTiが、挿入されたフレーム数に応じた時間Δt3,Δt4再生されることとなる。なお、シーンS3はシーンS2よりも奥行き感が大きいため、Δt4>Δt3となっている。また、各シーンの再生時間に変更はないため、処理済み立体動画像M1の再生時間は、立体動画像M0よりも挿入されたフレーム数の分長くなる。
このように、シーンの奥行き感が大きいほど挿入される奥行き感調整フレームFrTiの数を大きくすることにより、シーンの切り替わりにおいて奥行き感が急激に変化することがなくなるため、立体視を行うユーザの疲労感をより軽減することができる。
なお、第2の実施形態においても、第3の実施形態と同様に、処理対象シーンの前のシーンの最終フレームFrLの奥行き感と、処理対象シーンの奥行き感との差が大きいほど、奥行き感調整先頭フレームFrTciの数を大きくするようにしてもよい。以下、これを第4の実施形態として説明する。
図12は第4の実施形態における奥行き感調整処理のフローチャートである。奥行き感調整部4は、処理対象シーンを最初のシーンに設定し(ステップST41)、処理対象シーンの先頭フレームFrTに対応する奥行き感調整先頭フレームFrTc0を生成する(ステップST42)。
次いで、奥行き感調整部4は、処理対象シーンの前のシーンの最終フレームFrLと、処理対象心の先頭フレームFrTとの奥行き感の差に応じて奥行き感調整フレームFrTciの数を設定する(フレーム数設定、ステップST43)。具体的には、奥行き感の差に比例して大きくなるように奥行き感調整フレームFrTciの数を設定する。そして奥行き感調整先頭フレームFrTc0から先頭フレームFrTの奥行き感となるまで、奥行き感が連続して変化する設定されたフレーム数の奥行き感調整フレームFrTciを生成する(ステップST44)。そして、処理対象シーンおよびその前のシーンとの間に奥行き感調整先頭フレームFrTc0および奥行き感調整フレームFrTciを挿入する(フレーム挿入、ステップST45)。
続いて、奥行き感調整部4は、すべてのシーンの処理を終了したか否かを判定し(ステップST46)、ステップST46が否定されると、処理対象シーンを次のシーンに変更し(ステップST47)、ステップST42に戻る。ステップST46が肯定されると、奥行き感調整処理を終了する。
図13は第4の実施形態により生成される処理済み立体動画像M1の奥行き感を示す図である。図13に示すように処理済み立体動画像M1の各シーンS1〜S3の間には、奥行き感調整先頭フレームFrTc0および前のシーンの奥行き感との差に応じた数の奥行き感調整フレームFrTciが挿入されることにより、各シーンの開始位置において前のシーンの奥行き感から先頭フレームFrTの奥行き感となるまで、先頭フレームFrTの奥行き感が徐々に変化し、奥行き感が先頭フレームFrTの奥行き感となるとそのシーンの再生が開始されることとなる。また、シーン間の奥行き感の差が大きいほど挿入される奥行き感調整フレームFrTciの数が大きくなるため、各シーン間においては、奥行き感調整先頭フレームFrTc0および奥行き感調整フレームFrTciが、挿入されたフレーム数に応じた時間Δt5,Δt6再生されることとなる。なお、シーンS2,S3間の奥行き感の差はシーンS1,S2間の奥行き感の差よりも大きいため、Δt6>Δt5となっている。また、各シーンの再生時間に変更はないため、処理済み立体動画像M1の再生時間は、立体動画像M0よりも挿入されたフレーム数の分長くなる。
次いで、本発明の第5の実施形態について説明する。なお、第5の実施形態による立体動画像処理装置は、第1の実施形態による立体動画像処理装置と同一の構成を有し、奥行き感調整部4が行う処理のみが異なるため、ここでは構成についての詳細な説明は省略する。
第5の実施形態においては、奥行き感調整部4は、処理対象シーンの先頭フレームFrTからその途中の基準フレームFrBまでのフレームについて、奥行き感が0から基準フレームFrBの奥行き感となるまで、処理対象シーンの奥行き感が連続して変化するように、奥行き感調整処理を立体動画像M0に施す。
図14は第5の実施形態における奥行き感調整処理を説明するための図である。なお、第5の実施形態および以降の実施形態において、処理対象シーンの前のシーンの最終フレームFrLに含まれる被写体が円形であり、処理対象シーンの先頭フレームFrTに含まれる被写体が正方形であり、処理対象シーンにおいて正方形の被写体が画面左から右に移動しているものとする。まず、奥行き感調整部4は、処理対象シーンの前のシーンの最終フレームFrLに続いて、処理対象シーンの先頭フレームFrTに対応する2次元フレームFrT0が表示され、2次元フレームFrT0に続いて処理対象シーンにおける先頭から6フレーム目の基準フレームFrBの奥行き感となるまで、処理対象シーンの奥行き感が連続して変化する、先頭フレームFrT0と基準フレームFrBとの間のフレーム数(−ここでは4つ)に対応する数の奥行き感調整フレームFr1〜Fr4が表示され、奥行き感調整フレームFr1〜Fr4に続いて基準フレームFrBおよび基準フレームにFrB続くフレームが表示されるよう、奥行き感調整処理を立体動画像M0に施す。すなわち、処理対象シーンの先頭フレームFrTから基準フレームFrBの1つ前までのフレームを、2次元フレームFrT0および奥行き感調整フレームFr1〜Fr4と置換することにより、奥行き感調整処理を立体動画像M0に施す。これにより、処理済み立体動画像M1が生成される。
図15は第5の実施形態により生成される処理済み立体動画像M1の奥行き感を示す図である。図15に示すように処理済み立体動画像M1の各シーンS1〜S3の間においては、シーンの先頭フレームFrTから基準フレームFrBの1つ前までのフレームが、2次元フレームFrT0および奥行き感調整フレームFriと置換されることにより、各シーンの開始位置において奥行き感が0から基準フレームFrBの奥行き感となるまで徐々に変化することとなる。なお、第5の実施形態においては、先頭フレームFrTから基準フレームFrBまでのフレーム数は一定であるため、各シーンの開始位置においては、2次元フレームFrT0および奥行き感調整フレームFriが、フレーム数に応じた時間Δt7再生されることとなる。また、各シーン間にはフレームは何ら挿入されないため、処理済み立体動画像M1の再生時間は、立体動画像M0の再生時間と同一となる。
次いで、第5の実施形態において行われる処理について説明する。図16は第5の実施形態における奥行き感調整処理のフローチャートである。奥行き感調整部4は、処理対象シーンを最初のシーンに設定し(ステップST51)、処理対象シーンのフレーム数と、先頭フレームFrT0から基準フレームFrBまでのフレーム数(基準フレーム数)との差がしきい値Th1を越えるか否かを判定する(ステップST52)。なお、ステップST52の処理を行うのは、処理対象シーンの長さと比較して、奥行き感が切り替わるシーンの長さが長すぎるものとなってしまうことを防止するためである。また、処理対象シーンのフレーム数と基準フレーム数との差に代えて、比率を用いてもよい。ステップST52が肯定されると、処理対象シーンの先頭フレームFrTに対応する2次元フレームFrT0を生成する(ステップST53)。
次いで、2次元フレームFrT0から基準フレームFrBの奥行き感となるまで、処理対象シーンの先頭フレームFrT0から基準フレームFrBまでのフレームについての奥行き感が連続して変化する、所定数の奥行き感調整フレームFriを生成する(ステップST54)。そして、処理対象シーンの先頭フレームFrT0から基準フレームFrBの1つ前までのフレームを、2次元フレームFrT0および奥行き感調整フレームFriと置換する(フレーム置換、ステップST55)。
続いて、奥行き感調整部4は、すべてのシーンの処理を終了したか否かを判定し(ステップST56)、ステップST56が否定されると、処理対象シーンを次のシーンに変更し(ステップST57)、ステップST53に戻る。ステップST56が肯定されると、奥行き感調整処理を終了する。
なお、ステップST52が否定されると、他の奥行き感調整処理を行い(ステップST58)、ステップST56の処理に進む。ここで、他の奥行き感調整処理としては、上記第1から第4の実施形態の奥行き感調整処理を用いることができる。なお、奥行き感調整処理を行わないようにしてもよい。
このように、第5の実施形態においては、シーンの切り替わり位置における奥行き感が徐々に変更されるように、立体動画像の奥行き感を調整するようにしたため、立体動画像のシーンが切り替わる際に奥行き感が突然切り替わることがなくなり、その結果、立体視を行うユーザの疲労感を軽減することができる。また、処理済み立体動画像M1の再生時間は、処理前の立体動画像M0の再生時間と変わらないため、奥行き感調整処理により、立体道画像M0の画像ファイルの容量が増えてしまうことを防止できる。
次いで、本発明の第6の実施形態について説明する。なお、第6の実施形態による立体動画像処理装置は、第1の実施形態による立体動画像処理装置と同一の構成を有し、奥行き感調整部4が行う処理のみが異なるため、ここでは構成についての詳細な説明は省略する。
第6の実施形態においては、奥行き感調整部4は、第2の実施形態と同様に、処理対象シーンの先頭フレームFrTについて、処理対象シーンの前のシーンの最終フレームFrLに相当する奥行き感を有する奥行き感調整先頭フレームFrTc0を生成する。そして、処理対象シーンの先頭フレームFrTから基準フレームFrBまでのフレームについて、奥行き感が奥行き感調整先頭フレームFrTc0から基準フレームFrBの奥行き感となるまで、処理対象シーンの奥行き感が連続して変化するように、奥行き感調整処理を立体動画像に施す。
図17は第6の実施形態における奥行き感調整処理を説明するための図である。まず、奥行き感調整部4は、処理対象シーンの前のシーンの最終フレームFrLに続いて、処理対象シーンの先頭フレームFrTに対応する奥行き感調整先頭フレームFrTc0が表示され、奥行き感調整先頭フレームFrTc0に続いて処理対象シーンにおける先頭から6フレーム目の基準フレームFrBの奥行き感となるまで、処理対象シーンの奥行き感が連続して変化する、先頭フレームFrT0と基準フレームFrBとの間のフレーム数(ここでは4つ)に対応する数の奥行き感調整フレームFrc1〜Frc4が表示され、奥行き感調整フレームFrc1〜Frc4に続いて基準フレームFrBおよび基準フレームにFrB続くフレームが表示されるよう、奥行き感調整処理を立体動画像M0に施す。すなわち、処理対象シーンの先頭フレームFrTから基準フレームFrBの1つ前までのフレームを、奥行き感調整先頭フレームFrTc0および奥行き感調整フレームFrc1〜Frc4と置換することにより、奥行き感調整処理を立体動画像M0に施す。これにより、処理済み立体動画像M1が生成される。
図18は第6の実施形態により生成される処理済み立体動画像M1の奥行き感を示す図である。図18に示すように処理済み立体動画像M1の各シーンS1〜S3の間においては、シーンの先頭フレームFrTから基準フレームFrBの1つ前までのフレームが、奥行き感調整先頭フレームFrTc0および奥行き感調整フレームFrciと置換されることにより、各シーンの開始位置において奥行き感が前のシーンの奥行き感から基準フレームFrBの奥行き感となるまで徐々に変化することとなる。なお、第6の実施形態においては、先頭フレームFrTから基準フレームFrBまでのフレーム数は一定であるため、各シーンの開始位置においては、奥行き感調整先頭フレームFrTc0および奥行き感調整フレームFrciが、フレーム数に応じた時間Δt8再生されることとなる。また、各シーン間にはフレームは何ら挿入されないため、処理済み立体動画像M1の再生時間は、立体動画像M0の再生時間と同一となる。
次いで、第6の実施形態において行われる処理について説明する。図19は第6の実施形態における奥行き感調整処理のフローチャートである。奥行き感調整部4は、処理対象シーンを最初のシーンに設定し(ステップST61)、処理対象シーンのフレーム数と、先頭フレームFrTから基準フレームFrBまでのフレーム数(基準フレーム数)との差がしきい値Th1を越えるか否かを判定する(ステップST62)。なお、処理対象シーンのフレーム数と基準フレーム数との差に代えて、比率を用いてもよい。ステップST62が肯定されると、処理対象シーンの先頭フレームFrTに対応する奥行き感調整先頭フレームFrTc0を生成する(ステップST63)。
次いで、奥行き感調整先頭フレームFrTc0から基準フレームFrBの奥行き感となるまで、処理対象シーンの先頭フレームFrT0から基準フレームFrBまでのフレームについての奥行き感が連続して変化する、所定数の奥行き感調整フレームFrciを生成する(ステップST64)。そして、処理対象シーンの先頭フレームFrTから基準フレームFrBの1つ前までのフレームを、奥行き感調整先頭フレームFrTc0および奥行き感調整フレームFrciと置換する(フレーム置換、ステップST65)。
続いて、奥行き感調整部4は、すべてのシーンの処理を終了したか否かを判定し(ステップST66)、ステップST66が否定されると、処理対象シーンを次のシーンに変更し(ステップST67)、ステップST62に戻る。ステップST66が肯定されると、奥行き感調整処理を終了する。
なお、ステップST62が否定されると、他の奥行き感調整処理を行い(ステップST68)、ステップST66の処理に進む。ここで、他の奥行き感調整処理としては、上記第1から第4の実施形態の奥行き感調整処理を用いることができる。なお、奥行き感調整処理を行わないようにしてもよい。
なお、上記第5の実施形態においては、2次元フレームFrT0および所定数の奥行き感調整フレームFriを、先頭フレームFrTから基準フレームFrBまでのフレームと置換しているため、フレーム間における奥行き感が切り替わる時間は一定時間Δt7となっている。
しかしながら、シーン間に挿入されるフレーム数が一定であると、シーンの奥行き感が大きい場合に急激に奥行き感が切り替わることとなってしまう。このため、シーンの奥行き感が大きいほど奥行き感調整フレームFriの数を増加させるようにしてもよい。以下、これを第7の実施形態として説明する。
図20は第7の実施形態における奥行き感調整処理のフローチャートである。奥行き感調整部4は、処理対象シーンを最初のシーンに設定し(ステップST71)、処理対象シーンの奥行き感に応じて奥行き感調整フレームFriの数を設定する(フレーム数設定、ステップST72)。具体的には、奥行き感に比例して大きくなるように奥行き感調整フレームFriの数を設定する。そして、先頭フレームFrTから設定された数のフレームの次のフレームを基準フレームFrBに設定し(ステップST73)、処理対象シーンのフレーム数と、先頭フレームFrT0から基準フレームFrBまでのフレーム数(基準フレーム数)との差がしきい値Th1を越えるか否かを判定する(ステップST74)。なお、処理対象シーンのフレーム数と基準フレーム数との差に代えて、比率を用いてもよい。ステップST74が肯定されると、処理対象シーンの先頭フレームFrTに対応する2次元フレームFrT0を生成する(ステップST75)。
次いで、2次元フレームFrT0から基準フレームFrBの奥行き感となるまで、奥行き感が連続して変化する設定されたフレーム数の奥行き感調整フレームFriを生成する(ステップST76)。
そして、処理対象シーンの先頭フレームFrTから基準フレームFrBの1つ前までのフレームを、2次元フレームFrT0および奥行き感調整フレームFriと置換する(フレーム置換、ステップST77)。
続いて、奥行き感調整部4は、すべてのシーンの処理を終了したか否かを判定し(ステップST78)、ステップST78が否定されると、処理対象シーンを次のシーンに変更し(ステップST79)、ステップST72に戻る。ステップST78が肯定されると、奥行き感調整処理を終了する。
なお、ステップST75が否定されると、他の奥行き感調整処理を行い(ステップST80)、ステップST78の処理に進む。ここで、他の奥行き感調整処理としては、上記第1から第4の実施形態の奥行き感調整処理を用いることができる。なお、奥行き感調整処理を行わないようにしてもよい。
図21は第7の実施形態により生成される処理済み立体動画像M1の奥行き感を示す図である。図21に示すように処理済み立体動画像M1の各シーンS1〜S3の間においては、シーンの先頭フレームFrTから基準フレームFrBの1つ前までのフレームが、2次元フレームFrT0および奥行き感調整フレームFriと置換されることにより、各シーンの開始位置において奥行き感が0から基準フレームFrBの奥行き感となるまで徐々に変化することとなる。また、シーンの奥行き感が大きいほど挿入される奥行き感調整フレームFriの数が大きくなるため、各シーンの開始位置においては、2次元フレームFrT0および奥行き感調整フレームFrTiが、挿入されたフレーム数に応じた時間Δt9,Δt10再生されることとなる。なお、シーンS3はシーンS2よりも奥行き感が大きいため、Δt10>Δt9となっている。また、各シーン間にはフレームは何ら挿入されないため、処理済み立体動画像M1の再生時間は、立体動画像M0の再生時間と同一となる。
このように、シーンの奥行き感が大きいほど奥行き感調整フレームFriの数を大きくすることにより、シーンの切り替わりにおいて奥行き感が急激に変化することがなくなるため、立体視を行うユーザの疲労感をより軽減することができる。
なお、第6の実施形態においても、第7の実施形態と同様に、処理対象シーンの前のシーンの最終フレームFrLの奥行き感と、処理対象シーンの奥行き感との差が大きいほど、奥行き感調整先頭フレームFrciの数を多くするようにしてもよい。以下、これを第8の実施形態として説明する。
図22は第8の実施形態における奥行き感調整処理のフローチャートである。奥行き感調整部4は、処理対象シーンを最初のシーンに設定し(ステップST91)、処理対象シーンの奥行き感に応じて奥行き感調整フレームFriの数を設定する(フレーム数設定、ステップST92)。具体的には、奥行き感に比例して大きくなるように奥行き感調整フレームFriの数を設定する。そして、先頭フレームFrTから設定された数のフレームの次のフレームを基準フレームFrBに設定し(ステップST93)、処理対象シーンのフレーム数と、先頭フレームFrT0から基準フレームFrBまでのフレーム数(基準フレーム数)との差がしきい値Th1を越えるか否かを判定する(ステップST94)。なお、処理対象シーンのフレーム数と基準フレーム数との差に代えて、比率を用いてもよい。ステップST94が肯定されると、処理対象シーンの先頭フレームFrTに対応する奥行き感調整先頭フレームFrTc0を生成する(ステップST95)。
次いで、奥行き感調整先頭フレームFrTc0から基準フレームFrBの奥行き感となるまで、奥行き感が連続して変化する設定されたフレーム数の奥行き感調整フレームFrciを生成する(ステップST96)。そして、処理対象シーンの先頭フレームFrTから基準フレームFrBの1つ前までのフレームを、奥行き感調整先頭フレームFrTc0および奥行き感調整フレームFricと置換する(フレーム置換、ステップST97)。
続いて、奥行き感調整部4は、すべてのシーンの処理を終了したか否かを判定し(ステップST98)、ステップST98が否定されると、処理対象シーンを次のシーンに変更し(ステップST99)、ステップST92に戻る。ステップST98が肯定されると、奥行き感調整処理を終了する。
なお、ステップST94が否定されると、他の奥行き感調整処理を行い(ステップST100)、ステップST98の処理に進む。ここで、他の奥行き感調整処理としては、上記第1から第4の実施形態の奥行き感調整処理を用いることができる。なお、奥行き感調整処理を行わないようにしてもよい。
図23は第8の実施形態により生成される処理済み立体動画像M1の奥行き感を示す図である。図23に示すように処理済み立体動画像M1の各シーンS1〜S3の間においては、シーンの先頭フレームFrTから基準フレームFrBの1つ前までのフレームが、奥行き感調整先頭フレームFrTc0および奥行き感調整フレームFrciと置換されることにより、各シーンの開始位置において前のシーンの奥行き感から基準フレームFrBの奥行き感となるまで奥行き感が徐々に変化することとなる。また、シーンの奥行き感が大きいほど奥行き感調整フレームFriの数が大きくなるため、各シーンの開始位置においては、奥行き感調整先頭フレームFrTc0および奥行き感調整フレームFrTciが、挿入されたフレーム数に応じた時間Δt11,Δt12再生されることとなる。なお、シーンS3はシーンS2よりも奥行き感が大きいため、Δt12>Δt11となっている。また、各シーン間にはフレームは何ら挿入されないため、処理済み立体動画像M1の再生時間は、立体動画像M0の再生時間と同一となる。
なお、上記第2および第4の実施形態においては、処理対象シーンの先頭フレームFrTについての奥行き感調整先頭フレームFrTc0および奥行き感調整フレームFrTciを生成しているが、処理対象シーンの先頭フレームFrTに代えて、処理対象シーンの前のシーンの最終フレームFrLについて、奥行き感が処理対象シーンの先頭フレームFrTの奥行き感となるまで連続して変化する奥行き感調整フレームを生成して、シーン間に挿入するようにしてもよい。この場合、各シーンの再生が終了すると、各シーンの最終フレームFrLの奥行き感が、次のシーンの先頭フレームFrTの奥行き感となるまで徐々に変化し、奥行き感が次のシーンの先頭フレームFrTの奥行き感となると、その次のシーンの再生が開始されることとなる。
また、上記各実施形態においては、2次元フレームFrT0および奥行き感調整先頭フレームFrTc0を、先頭フレームFrTまたは最終フレームFrLをモーフィング等によって加工することにより生成しているが、立体動画像M0は複数の動画像を立体視可能なように合成することにより生成されているため、合成前の複数の動画像が立体動画像M0とともに装置1に入力された場合には、合成前の動画像を用いて2次元フレームFrT0および奥行き感調整先頭フレームを生成するようにしてもよい。
以上、本発明の実施形態に係る装置1について説明したが、コンピュータを、上記のシーン検出部3および奥行き感調整部4に対応する手段として機能させ、図5,6,9,10,12,16,19,20,22に示すような処理を行わせるプログラムも、本発明の実施形態の1つである。また、そのようなプログラムを記録したコンピュータ読取り可能な記録媒体も、本発明の実施形態の1つである。
本発明の第1の実施形態による立体動画像処理装置の構成を示す概略ブロック図 第1の実施形態において入力された立体動画像の各シーンにおける奥行き感を示す図 第1の実施形態における奥行き感調整処理を説明するための図 第1の実施形態により生成される処理済み立体動画像の奥行き感を示す図 第1の実施形態において行われる処理を示すフローチャート 第1の実施形態における奥行き感調整処理のフローチャート 第2の実施形態における奥行き感調整処理を説明するための図 第2の実施形態により生成される処理済み立体動画像の奥行き感を示す図 第2の実施形態における奥行き感調整処理のフローチャート 第3の実施形態における奥行き感調整処理のフローチャート 第3の実施形態により生成される処理済み立体動画像の奥行き感を示す図 第4の実施形態における奥行き感調整処理のフローチャート 第4の実施形態により生成される処理済み立体動画像の奥行き感を示す図 第5の実施形態における奥行き感調整処理を説明するための図 第5の実施形態により生成される処理済み立体動画像の奥行き感を示す図 第5の実施形態における奥行き感調整処理のフローチャート 第6の実施形態における奥行き感調整処理を説明するための図 第6の実施形態により生成される処理済み立体動画像の奥行き感を示す図 第6の実施形態における奥行き感調整処理のフローチャート 第7の実施形態における奥行き感調整処理のフローチャート 第7の実施形態により生成される処理済み立体動画像の奥行き感を示す図 第8の実施形態における奥行き感調整処理のフローチャート 第8の実施形態により生成される処理済み立体動画像の奥行き感を示す図
符号の説明
1 立体動画像処理装置
2 画像入力部
3 シーン検出部
4 奥行き感調整部
5 入力部
6 表示部
7 制御部

Claims (13)

  1. 複数のフレームからなる立体視可能な立体動画像の入力を受け付ける動画像入力手段と、
    前記立体動画像のシーンの切り替わり位置を検出するシーン検出手段と、
    前記シーンの切り替わり位置における奥行き感が徐々に変更されるように、前記立体動画像の奥行き感を調整する奥行き感調整処理を前記立体動画像に施すことにより処理済み立体動画像を生成する奥行き感調整手段とを備えたことを特徴とする立体動画像処理装置。
  2. 前記奥行き感調整手段は、処理対象シーンの前のシーンの最終フレームに続いて、該処理対象シーンの先頭フレームに対応する2次元フレームが表示され、該2次元フレームに続いて前記先頭フレームの奥行き感となるまで該2次元フレームの奥行き感が連続して変化する所定数の奥行き感調整フレームが表示され、該奥行き感調整フレームに続いて前記先頭フレームおよび該先頭フレームに続くフレームが表示されるよう、前記奥行き感調整処理を前記立体動画像に施す手段であることを特徴とする請求項1記載の立体動画像処理装置。
  3. 前記奥行き感調整手段は、前記先頭フレームの奥行き感が大きいほど、前記所定数を大きくする手段であることを特徴とする請求項2記載の立体動画像処理装置。
  4. 前記奥行き感調整手段は、処理対象シーンの前のシーンの最終フレームに続いて、該最終フレームに相当する奥行き感を有する、該処理対象シーンの先頭フレームまたは前記最終フレームに対応する奥行き感調整先頭フレームが表示され、該奥行き感調整先頭フレームに続いて前記先頭フレームの奥行き感となるまで該奥行き感調整先頭フレームの奥行き感が連続して変化する所定数の奥行き感調整フレームが表示され、該奥行き感調整フレームに続いて前記先頭フレームおよび該先頭フレームに続くフレームが表示されるよう、前記奥行き感調整処理を前記立体動画像に施す手段であることを特徴とする請求項1記載の立体動画像処理装置。
  5. 前記奥行き感調整手段は、前記最終フレームと前記先頭フレームとの奥行き感の差が大きいほど、前記所定数を大きくする手段であることを特徴とする請求項4記載の立体動画像処理装置。
  6. 前記奥行き感調整手段は、処理対象シーンの前のシーンの最終フレームに続いて、該処理対象シーンの先頭フレームに対応する2次元フレームが表示され、該2次元フレームに続いて前記処理対象シーンにおける基準フレームの奥行き感となるまで、前記処理対象シーンの奥行き感が連続して変化する、前記先頭フレームから前記基準フレームまでのフレーム数に対応する数の奥行き感調整フレームが表示され、該奥行き感調整フレームに続いて前記基準フレームおよび該基準フレームに続くフレームが表示されるよう、前記奥行き感調整処理を前記立体動画像に施す手段であることを特徴とする請求項1記載の立体動画像処理装置。
  7. 前記奥行き感調整手段は、前記先頭フレームの奥行き感が大きいほど、前記先頭フレームから前記基準フレームまでのフレーム数を多くする手段であることを特徴とする請求項6記載の立体動画像処理装置。
  8. 前記奥行き感調整手段は、前記処理対象シーンのフレーム数と、前記先頭フレームから前記基準フレームまでのフレーム数との比較結果に応じた前記奥行き感調整処理を、前記立体動画像に施す手段であることを特徴とする請求項6または7記載の立体動画像処理装置。
  9. 前記奥行き感調整手段は、処理対象シーンの前のシーンの最終フレームに続いて、該最終フレームに相当する奥行き感を有する、該処理対象シーンの先頭フレームに対応する奥行き感調整先頭フレームが表示され、該奥行き感調整先頭フレームに続いて前記処理対象シーンにおける基準フレームの奥行き感となるまで、前記処理対象シーンの奥行き感が連続して変化する、前記先頭フレームから前記基準フレームまでのフレーム数に対応する数の奥行き感調整フレームが表示され、該奥行き感調整フレームに続いて前記基準フレームおよび該基準フレームに続くフレームが表示されるよう、前記奥行き感調整処理を前記立体動画像に施す手段であることを特徴とする請求項1記載の立体動画像処理装置。
  10. 前記奥行き感調整手段は、前記最終フレームと前記先頭フレームとの奥行き感の差が大きいほど、前記奥行き感調整先頭フレームから前記基準フレームまでのフレーム数を多くする手段であることを特徴とする請求項8記載の立体動画像処理装置。
  11. 前記奥行き感調整手段は、前記処理対象シーンのフレーム数と、前記先頭フレームから前記基準フレームまでのフレーム数との比較結果に応じて、前記奥行き感調整処理を前記立体動画像に施す手段であることを特徴とする請求項9または10記載の立体動画像処理装置。
  12. 複数のフレームからなる立体視可能な立体動画像の入力を受け付け、
    前記立体動画像のシーンの切り替わり位置を検出し、
    前記シーンの切り替わり位置における奥行き感が徐々に変更されるように、前記立体動画像の奥行き感を調整する奥行き感調整処理を前記立体動画像に施すことにより処理済み立体動画像を生成することを特徴とする立体動画像処理方法。
  13. 複数のフレームからなる立体視可能な立体動画像の入力を受け付ける手順と、
    前記立体動画像のシーンの切り替わり位置を検出する手順と、
    前記シーンの切り替わり位置における奥行き感が徐々に変更されるように、前記立体動画像の奥行き感を調整する奥行き感調整処理を前記立体動画像に施すことにより処理済み立体動画像を生成する手順とを有することを特徴とする立体動画像処理方法をコンピュータに実行させるためのプログラム。
JP2008079633A 2008-03-26 2008-03-26 立体動画像処理装置および方法並びにプログラム Active JP4695664B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2008079633A JP4695664B2 (ja) 2008-03-26 2008-03-26 立体動画像処理装置および方法並びにプログラム
US12/410,816 US8044997B2 (en) 2008-03-26 2009-03-25 Method, apparatus, and program for processing stereoscopic videos
KR1020090025518A KR101551492B1 (ko) 2008-03-26 2009-03-25 입체 동화상 처리 장치 및 방법 그리고 프로그램
EP09004370.4A EP2106150B1 (en) 2008-03-26 2009-03-26 Method, apparatus, and program for processing stereoscopic videos

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008079633A JP4695664B2 (ja) 2008-03-26 2008-03-26 立体動画像処理装置および方法並びにプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011037984A Division JP5351915B2 (ja) 2011-02-24 2011-02-24 立体動画像処理装置および方法並びにプログラム

Publications (3)

Publication Number Publication Date
JP2009239388A true JP2009239388A (ja) 2009-10-15
JP2009239388A5 JP2009239388A5 (ja) 2010-10-21
JP4695664B2 JP4695664B2 (ja) 2011-06-08

Family

ID=40823522

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008079633A Active JP4695664B2 (ja) 2008-03-26 2008-03-26 立体動画像処理装置および方法並びにプログラム

Country Status (4)

Country Link
US (1) US8044997B2 (ja)
EP (1) EP2106150B1 (ja)
JP (1) JP4695664B2 (ja)
KR (1) KR101551492B1 (ja)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010199740A (ja) * 2009-02-23 2010-09-09 Fujifilm Corp 立体画像表示装置及び立体画像表示方法
WO2010123053A1 (ja) * 2009-04-24 2010-10-28 ソニー株式会社 画像情報処理装置、撮像装置、画像情報処理方法およびプログラム
WO2011062110A1 (ja) * 2009-11-20 2011-05-26 ソニー株式会社 受信装置、送信装置、通信システム、受信装置の制御方法、及びプログラム
JP2011142662A (ja) * 2011-02-24 2011-07-21 Fujifilm Corp 立体動画像処理装置および方法並びにプログラム
WO2011105220A1 (ja) * 2010-02-24 2011-09-01 ソニー株式会社 立体映像処理装置および方法、並びにプログラム
JP2011182399A (ja) * 2010-02-26 2011-09-15 Sony Europe Ltd 画像カット方法および画像カット装置
WO2011148587A1 (ja) * 2010-05-28 2011-12-01 パナソニック株式会社 立体視映像の再生装置、集積回路、プログラム
JP2011259453A (ja) * 2011-07-06 2011-12-22 Fujifilm Corp 立体画像表示装置及び立体画像表示方法
JP2011259452A (ja) * 2011-07-06 2011-12-22 Fujifilm Corp 立体画像表示装置及び立体画像表示方法
WO2012014708A1 (ja) * 2010-07-26 2012-02-02 富士フイルム株式会社 画像処理装置、方法およびプログラム
JP2012054862A (ja) * 2010-09-03 2012-03-15 Sony Corp 画像処理装置および画像処理方法
WO2012056722A1 (ja) * 2010-10-29 2012-05-03 富士フイルム株式会社 立体視画像表示装置および方法並びにプログラム
WO2012063595A1 (ja) * 2010-11-11 2012-05-18 シャープ株式会社 立体画像表示装置、立体画像表示方法、立体画像表示方法をコンピュータに実行させるためのプログラム、及びそのプログラムを記録した記録媒体
WO2012086298A1 (ja) * 2010-12-24 2012-06-28 富士フイルム株式会社 撮影装置、方法及びプログラム
JP2012129710A (ja) * 2010-12-14 2012-07-05 Canon Inc 表示制御装置、表示制御方法及びプログラム
WO2012098803A1 (ja) * 2011-01-17 2012-07-26 コニカミノルタホールディングス株式会社 画像処理装置、画像処理方法、およびプログラム
WO2012105120A1 (ja) * 2011-02-03 2012-08-09 富士フイルム株式会社 立体動画再生装置、立体動画再生プログラムならびにその記録媒体、立体ディスプレイ装置、立体撮像装置及び立体動画再生方法
WO2012127843A1 (ja) * 2011-03-24 2012-09-27 富士フイルム株式会社 立体画像処理装置及び立体画像処理方法
JP2012186652A (ja) * 2011-03-04 2012-09-27 Toshiba Corp 電子機器、画像処理方法及び画像処理プログラム
WO2013015217A1 (ja) * 2011-07-25 2013-01-31 シャープ株式会社 立体画像処理装置および立体画像処理方法
WO2013014836A1 (ja) * 2011-07-26 2013-01-31 パナソニック株式会社 動画編集装置、動画編集方法、プログラムおよび集積回路
JP2013026770A (ja) * 2011-07-20 2013-02-04 Nissan Motor Co Ltd 車輌用映像表示装置
JP2013545184A (ja) * 2010-10-29 2013-12-19 トムソン ライセンシング 3次元画像にグラフィックオブジェクトを散りばめる3次元画像生成方法及びこれに用いられる表示装置
WO2013186962A1 (ja) * 2012-06-11 2013-12-19 パナソニック株式会社 映像処理装置、撮影装置、およびプログラム
JP2014022888A (ja) * 2012-07-17 2014-02-03 Canon Inc 撮像装置および撮像装置の制御方法
US8976234B2 (en) 2011-09-29 2015-03-10 Fujifilm Corporation Method for controlling display of stereoscopic image, apparatus for controlling display of stereoscopic image, and imaging apparatus

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5361618B2 (ja) * 2009-09-04 2013-12-04 キヤノン株式会社 画像処理装置及びその制御方法
GB2478164A (en) 2010-02-26 2011-08-31 Sony Corp Calculating misalignment between a stereoscopic image pair based on feature positions
JP2011223481A (ja) * 2010-04-14 2011-11-04 Sony Corp データ構造、画像処理装置、画像処理方法、およびプログラム
CN102939748B (zh) * 2010-04-14 2015-12-16 三星电子株式会社 用于产生用于具有字幕的数字广播的广播比特流的方法和设备以及用于接收用于具有字幕的数字广播的广播比特流的方法和设备
US8472786B2 (en) * 2010-06-17 2013-06-25 Fujifilm Corporation Stereoscopic image display control apparatus and method of controlling operation of same
JP2012029216A (ja) * 2010-07-27 2012-02-09 Sony Corp 再生装置、再生方法、およびプログラム
US9565415B2 (en) * 2010-09-14 2017-02-07 Thomson Licensing Method of presenting three-dimensional content with disparity adjustments
JP4964355B2 (ja) * 2010-09-30 2012-06-27 パナソニック株式会社 立体映像符号化装置、立体映像撮影装置、および立体映像符号化方法
KR101682208B1 (ko) 2010-10-22 2016-12-02 삼성전자주식회사 디스플레이 장치 및 방법
JP5050094B2 (ja) * 2010-12-21 2012-10-17 株式会社東芝 映像処理装置及び映像処理方法
JP5699609B2 (ja) * 2011-01-06 2015-04-15 ソニー株式会社 画像処理装置および画像処理方法
US9041774B2 (en) 2011-01-07 2015-05-26 Sony Computer Entertainment America, LLC Dynamic adjustment of predetermined three-dimensional video settings based on scene content
US8619094B2 (en) 2011-01-07 2013-12-31 Sony Computer Entertainment America Llc Morphological anti-aliasing (MLAA) of a re-projection of a two-dimensional image
US9183670B2 (en) 2011-01-07 2015-11-10 Sony Computer Entertainment America, LLC Multi-sample resolving of re-projection of two-dimensional image
US8514225B2 (en) 2011-01-07 2013-08-20 Sony Computer Entertainment America Llc Scaling pixel depth values of user-controlled virtual object in three-dimensional scene
CN103329165B (zh) * 2011-01-07 2016-08-24 索尼电脑娱乐美国公司 放缩三维场景中的用户控制的虚拟对象的像素深度值
JP2012247891A (ja) * 2011-05-26 2012-12-13 Sony Corp 画像処理装置、画像処理方法、およびプログラム
JP2012253643A (ja) * 2011-06-06 2012-12-20 Sony Corp 画像処理装置および方法、並びにプログラム
JP2013017146A (ja) * 2011-07-06 2013-01-24 Sony Corp 表示制御装置、表示制御方法およびプログラム
DE102011107765B3 (de) * 2011-07-18 2012-12-06 3Ality Digital Systems, Llc Verfahren zum Glätten von Übergängen zwischen Szenen eines Stereofilms sowie Steuerung oder Regelung mehrerer 3D-Kameras
WO2013081435A1 (ko) * 2011-12-02 2013-06-06 엘지전자 주식회사 3d 영상 표시 장치 및 방법
KR102131745B1 (ko) * 2012-01-04 2020-07-08 인터디지탈 매디슨 페이튼트 홀딩스 3d 이미지 시퀀스의 처리
JP6145779B2 (ja) * 2012-02-02 2017-06-14 サン パテント トラスト 符号化方法、復号方法、符号化装置、および復号装置
EP2675172B1 (en) * 2012-06-14 2020-06-10 BlackBerry Limited System and method for stereoscopic 3-d rendering
US9628770B2 (en) 2012-06-14 2017-04-18 Blackberry Limited System and method for stereoscopic 3-D rendering
KR101469483B1 (ko) * 2012-06-20 2014-12-05 엘지디스플레이 주식회사 3d 액정 표시장치의 구동장치 및 그 구동방법
CN102883175B (zh) * 2012-10-23 2015-06-17 青岛海信信芯科技有限公司 深度图提取、判断视频场景切换及深度图边缘优化方法
CN103024419A (zh) * 2012-12-31 2013-04-03 青岛海信信芯科技有限公司 一种视频图像处理方法及系统
WO2014204364A1 (en) * 2013-06-19 2014-12-24 Telefonaktiebolaget L M Ericsson (Publ) 3d video switching with gradual depth transition
US10783681B2 (en) * 2017-09-13 2020-09-22 International Business Machines Corporation Artificially tiltable image display
KR102649670B1 (ko) 2023-07-28 2024-03-20 (주)코드쓰리 실감형 콘텐츠 제공 시스템 및 그 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1040420A (ja) * 1996-07-24 1998-02-13 Sanyo Electric Co Ltd 奥行き感制御方法
JPH10172004A (ja) * 1996-12-04 1998-06-26 Canon Inc 立体画像表示方法
JPH11164328A (ja) * 1997-11-27 1999-06-18 Toshiba Corp 立体映像表示装置
JP2004328566A (ja) * 2003-04-28 2004-11-18 Sharp Corp コンテンツ表示装置およびコンテンツ表示プログラム
JP2005109568A (ja) * 2003-09-26 2005-04-21 Sanyo Electric Co Ltd 映像表示装置及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7254265B2 (en) * 2000-04-01 2007-08-07 Newsight Corporation Methods and systems for 2D/3D image conversion and optimization
US6678323B2 (en) * 2001-01-24 2004-01-13 Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of Industry Through Communications Research Centre Bandwidth reduction for stereoscopic imagery and video signals
JP4183499B2 (ja) 2002-12-16 2008-11-19 三洋電機株式会社 映像ファイル処理方法及び映像処理方法
JP3698702B2 (ja) * 2003-01-30 2005-09-21 株式会社ソフィア 画像表示装置
JP5059024B2 (ja) * 2005-12-19 2012-10-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3d画像表示方法及び装置
RU2007135972A (ru) * 2007-09-28 2009-04-10 Георгий Русланович Вяхирев (RU) Система отображения информации в псевдообъемном виде на двухмерном дисплее

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1040420A (ja) * 1996-07-24 1998-02-13 Sanyo Electric Co Ltd 奥行き感制御方法
JPH10172004A (ja) * 1996-12-04 1998-06-26 Canon Inc 立体画像表示方法
JPH11164328A (ja) * 1997-11-27 1999-06-18 Toshiba Corp 立体映像表示装置
JP2004328566A (ja) * 2003-04-28 2004-11-18 Sharp Corp コンテンツ表示装置およびコンテンツ表示プログラム
JP2005109568A (ja) * 2003-09-26 2005-04-21 Sanyo Electric Co Ltd 映像表示装置及びプログラム

Cited By (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010199740A (ja) * 2009-02-23 2010-09-09 Fujifilm Corp 立体画像表示装置及び立体画像表示方法
WO2010123053A1 (ja) * 2009-04-24 2010-10-28 ソニー株式会社 画像情報処理装置、撮像装置、画像情報処理方法およびプログラム
US8698877B2 (en) 2009-04-24 2014-04-15 Sony Corporation Image information processing apparatus, image capture apparatus, image information processing method, and program
US9438895B2 (en) 2009-11-20 2016-09-06 Sony Corporation Receiving apparatus, transmitting apparatus, communication system, control method of the receiving apparatus and program
JP2011130403A (ja) * 2009-11-20 2011-06-30 Sony Corp 受信装置、送信装置、通信システム、受信装置の制御方法、及びプログラム
WO2011062110A1 (ja) * 2009-11-20 2011-05-26 ソニー株式会社 受信装置、送信装置、通信システム、受信装置の制御方法、及びプログラム
WO2011105220A1 (ja) * 2010-02-24 2011-09-01 ソニー株式会社 立体映像処理装置および方法、並びにプログラム
JP2011176541A (ja) * 2010-02-24 2011-09-08 Sony Corp 立体映像処理装置および方法、並びにプログラム
US9013561B2 (en) 2010-02-24 2015-04-21 Sony Corporation Stereoscopic video processing apparatus, method, and program
CN102804792A (zh) * 2010-02-24 2012-11-28 索尼公司 立体视频处理设备、方法和程序
JP2011182399A (ja) * 2010-02-26 2011-09-15 Sony Europe Ltd 画像カット方法および画像カット装置
CN102474650B (zh) * 2010-05-28 2014-12-17 松下电器产业株式会社 立体观察影像的再现装置、集成电路、再现方法
US8712225B2 (en) 2010-05-28 2014-04-29 Panasonic Corporation Playback device for stereoscopic viewing, integrated circuit, and program
WO2011148587A1 (ja) * 2010-05-28 2011-12-01 パナソニック株式会社 立体視映像の再生装置、集積回路、プログラム
CN102474650A (zh) * 2010-05-28 2012-05-23 松下电器产业株式会社 立体观察影像的再现装置、集成电路、程序
WO2012014708A1 (ja) * 2010-07-26 2012-02-02 富士フイルム株式会社 画像処理装置、方法およびプログラム
JP5336662B2 (ja) * 2010-07-26 2013-11-06 富士フイルム株式会社 画像処理装置、方法およびプログラム
JPWO2012014708A1 (ja) * 2010-07-26 2013-09-12 富士フイルム株式会社 画像処理装置、方法およびプログラム
JP2012054862A (ja) * 2010-09-03 2012-03-15 Sony Corp 画像処理装置および画像処理方法
US8842972B2 (en) 2010-09-03 2014-09-23 Sony Corporation Image processing device and image processing method
WO2012056722A1 (ja) * 2010-10-29 2012-05-03 富士フイルム株式会社 立体視画像表示装置および方法並びにプログラム
JP2013545184A (ja) * 2010-10-29 2013-12-19 トムソン ライセンシング 3次元画像にグラフィックオブジェクトを散りばめる3次元画像生成方法及びこれに用いられる表示装置
JP2012105153A (ja) * 2010-11-11 2012-05-31 Sharp Corp 立体画像表示装置、立体画像表示方法、立体画像表示方法をコンピュータに実行させるためのプログラム、及びそのプログラムを記録した記録媒体
WO2012063595A1 (ja) * 2010-11-11 2012-05-18 シャープ株式会社 立体画像表示装置、立体画像表示方法、立体画像表示方法をコンピュータに実行させるためのプログラム、及びそのプログラムを記録した記録媒体
JP2012129710A (ja) * 2010-12-14 2012-07-05 Canon Inc 表示制御装置、表示制御方法及びプログラム
US8711208B2 (en) 2010-12-24 2014-04-29 Fujifilm Corporation Imaging device, method and computer readable medium
JP5453552B2 (ja) * 2010-12-24 2014-03-26 富士フイルム株式会社 撮影装置、方法及びプログラム
WO2012086298A1 (ja) * 2010-12-24 2012-06-28 富士フイルム株式会社 撮影装置、方法及びプログラム
WO2012098803A1 (ja) * 2011-01-17 2012-07-26 コニカミノルタホールディングス株式会社 画像処理装置、画像処理方法、およびプログラム
JP5466773B2 (ja) * 2011-02-03 2014-04-09 富士フイルム株式会社 立体動画再生装置、立体動画再生プログラムならびにその記録媒体、立体ディスプレイ装置、立体撮像装置及び立体動画再生方法
US8982189B2 (en) 2011-02-03 2015-03-17 Fujifilm Corporation 3D video reproduction device, non-transitory recording medium, 3D display device, 3D imaging device, and 3D video reproduction method
WO2012105120A1 (ja) * 2011-02-03 2012-08-09 富士フイルム株式会社 立体動画再生装置、立体動画再生プログラムならびにその記録媒体、立体ディスプレイ装置、立体撮像装置及び立体動画再生方法
JP2011142662A (ja) * 2011-02-24 2011-07-21 Fujifilm Corp 立体動画像処理装置および方法並びにプログラム
JP2012186652A (ja) * 2011-03-04 2012-09-27 Toshiba Corp 電子機器、画像処理方法及び画像処理プログラム
US9053567B2 (en) 2011-03-24 2015-06-09 Fujifilm Corporation Stereoscopic image processing device and stereoscopic image processing method
WO2012127843A1 (ja) * 2011-03-24 2012-09-27 富士フイルム株式会社 立体画像処理装置及び立体画像処理方法
JP5507003B2 (ja) * 2011-03-24 2014-05-28 富士フイルム株式会社 立体画像処理装置及び立体画像処理方法
JP2011259453A (ja) * 2011-07-06 2011-12-22 Fujifilm Corp 立体画像表示装置及び立体画像表示方法
JP2011259452A (ja) * 2011-07-06 2011-12-22 Fujifilm Corp 立体画像表示装置及び立体画像表示方法
JP2013026770A (ja) * 2011-07-20 2013-02-04 Nissan Motor Co Ltd 車輌用映像表示装置
JP2013026943A (ja) * 2011-07-25 2013-02-04 Sharp Corp 立体画像処理装置および立体画像処理方法
WO2013015217A1 (ja) * 2011-07-25 2013-01-31 シャープ株式会社 立体画像処理装置および立体画像処理方法
US8855472B2 (en) 2011-07-26 2014-10-07 Panasonic Corporation Video editing apparatus, video editing method, program, and integrated circuit
JPWO2013014836A1 (ja) * 2011-07-26 2015-02-23 パナソニック株式会社 動画編集装置、動画編集方法、プログラムおよび集積回路
WO2013014836A1 (ja) * 2011-07-26 2013-01-31 パナソニック株式会社 動画編集装置、動画編集方法、プログラムおよび集積回路
US8976234B2 (en) 2011-09-29 2015-03-10 Fujifilm Corporation Method for controlling display of stereoscopic image, apparatus for controlling display of stereoscopic image, and imaging apparatus
WO2013186962A1 (ja) * 2012-06-11 2013-12-19 パナソニック株式会社 映像処理装置、撮影装置、およびプログラム
JP2014022888A (ja) * 2012-07-17 2014-02-03 Canon Inc 撮像装置および撮像装置の制御方法

Also Published As

Publication number Publication date
US8044997B2 (en) 2011-10-25
EP2106150A3 (en) 2012-08-29
KR101551492B1 (ko) 2015-09-08
JP4695664B2 (ja) 2011-06-08
KR20090102705A (ko) 2009-09-30
US20090244268A1 (en) 2009-10-01
EP2106150B1 (en) 2013-12-11
EP2106150A2 (en) 2009-09-30

Similar Documents

Publication Publication Date Title
JP4695664B2 (ja) 立体動画像処理装置および方法並びにプログラム
JP4608563B2 (ja) 立体画像表示装置および方法並びにプログラム
CN102165785B (zh) 三维成像装置和方法
JP5414947B2 (ja) ステレオ撮影装置
JP5140210B2 (ja) 撮影装置および画像処理方法
JP4637942B2 (ja) 3次元表示装置および方法並びにプログラム
JP5204350B2 (ja) 撮影装置、再生装置、および画像処理方法
US20120263372A1 (en) Method And Apparatus For Processing 3D Image
JP5204349B2 (ja) 撮影装置、再生装置、および画像処理方法
JP5266126B2 (ja) 画像表示装置および方法並びにプログラム
JP2005167310A (ja) 撮影装置
JP2008103820A (ja) 立体画像処理装置
JP2006128818A (ja) 立体映像・立体音響対応記録プログラム、再生プログラム、記録装置、再生装置及び記録メディア
JP5647740B2 (ja) 視差調節装置及び方法、撮影装置、再生表示装置
JP4895312B2 (ja) 3次元表示装置および方法並びにプログラム
JP2006128816A (ja) 立体映像・立体音響対応記録プログラム、再生プログラム、記録装置、再生装置及び記録メディア
JP5351915B2 (ja) 立体動画像処理装置および方法並びにプログラム
JP4852169B2 (ja) 3次元表示装置および方法並びにプログラム
JP5049231B2 (ja) 3次元表示装置および方法並びにプログラム
JP5049376B2 (ja) 立体画像表示装置および方法並びにプログラム
JP2014175813A (ja) 立体映像表示方法および装置
WO2012039340A1 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2012065330A (ja) 3次元表示装置および方法並びにプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100531

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100903

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20100903

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20100916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100928

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101130

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110201

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110225

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140304

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4695664

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250