JP2012147160A - 立体画像処理装置 - Google Patents

立体画像処理装置 Download PDF

Info

Publication number
JP2012147160A
JP2012147160A JP2011002896A JP2011002896A JP2012147160A JP 2012147160 A JP2012147160 A JP 2012147160A JP 2011002896 A JP2011002896 A JP 2011002896A JP 2011002896 A JP2011002896 A JP 2011002896A JP 2012147160 A JP2012147160 A JP 2012147160A
Authority
JP
Japan
Prior art keywords
video
data
depth direction
parallax
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011002896A
Other languages
English (en)
Inventor
Masaki Mekawa
正起 女川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Personal Computers Ltd
Original Assignee
NEC Personal Computers Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Personal Computers Ltd filed Critical NEC Personal Computers Ltd
Priority to JP2011002896A priority Critical patent/JP2012147160A/ja
Publication of JP2012147160A publication Critical patent/JP2012147160A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】3D映像の奥行き感に合わせて字幕を表示することができる。
【解決手段】デマルチプレクサ部11により映像ストリーム、字幕の符号化されたストリームを抽出し、映像デコード部12により映像ストリームを複合し、左右の映像データを生成し、字幕デコード部13により字幕ストリームを複合して文字列データや位置データを抽出し、映像視差抽出部14により左映像データと右映像データとの比較を行い、その映像の視差量データを抽出し、字幕視差設定部15により、映像の視差量データから映像中の人物像の奥行き方向の位置を判定し、該奥行き方向の位置に応じて字幕データの奥行き方向の位置を設定し、映像表示制御部16により左右の映像データと字幕データとの重ね合わせを行い、生成された左右の映像データから3D映像を生成する。
【選択図】図1

Description

本発明は、3D映像を再生する場合でも、3D映像の奥行き感に合わせて字幕を表示することが可能な立体画像処理装置に関する。
従来、デジタル放送での字幕サービスにあっては、ARIB(Association of Radio Industries and Businesses,電波産業会)規格に基づいて放送されている地上デジタル放送やBS/CSデジタル放送において、字幕付きサービスが行われている。
テレビジョン受像機による字幕の表示では、表示位置を指定するためのパラメータを持っており、サービス(番組)によってはこの表示位置情報を使って画面内のキャラクタの位置に合わせた字幕表示を行うことがある。
ところで、3D放送については、3Dコンテンツの拡大により3Dテレビ受像機が普及し、これに伴って、デジタル放送での3D映像サービスが実施されつつある。
そして、3D映像サービスにおいても、画面内のキャラクタの位置に合わせて奥行き感のある字幕表示を行うことが要望されている。
しかしながら、現在のデジタル放送規格では、字幕情報に奥行方向の位置情報が含まれていないため、字幕は全てが常に同じ奥行位置として映像との重ね合わせが行われる。
特許文献1には、字幕データと距離パラメータとを多重化し、多重化されたデータストリームを伝送路またはメディアを介して復号システムに伝送しておき、立体表示装置において、字幕をユーザから所定の奥行き方向の距離にあるように表示する技術について開示されている。
特許文献2には、映像表示装置に表示される人物の口を検出し、人物の口の表示位置の情報を取得しておき、映像表示装置に表示される字幕を検出し、人物の口の表示位置の情報および字幕の表示位置の情報を用いて、人物の口から字幕を覆う吹き出し図形の映像信号を生成して表示する技術について開示されている。
特開2004−274125号公報 特開2008−278380号公報
しかしながら、3D映像サービスにおいて、字幕表示位置の調整によりキャラクタのセリフを表現する場合、これらの位置情報は画面内の水平位置と垂直位置のみであり、奥行きを表す情報を持っていなかった。
このため、近年台頭してきたARIB規格に基づいた3D放送サービスにあっては、図8に示すように、それぞれのキャラクタP1,P2が有する奥行き感と、表示される字幕J1,J2の奥行き感とが合わないため、視認上の違和感が生じるといった問題があった。
上記問題を解決するために、3Dコンテンツを作成する段階で、字幕を映像に直接埋め込むことで字幕の奥行き感を実現することが考えられるが、この場合、字幕が不要なユーザにまで常に字幕を表示した状態でサービスが提供されてしまうといった問題があった。
そこで、3D映像を再生する場合でも、3D映像の奥行き感に合わせて字幕を表示することが切望されている。
本発明は、3D映像を再生する場合でも、3D映像の奥行き感に合わせて字幕を表示することが可能な立体画像処理装置を提供することを目的とする。
上記課題を解決するたに、請求項1記載の発明は、立体映像情報の再生時に、前記立体映像情報に字幕情報を付加して表示する立体画像処理装置であって、立体映像情報に含まれる左映像と右映像を比較して映像の視差量を抽出する映像視差抽出手段と、前記抽出された映像の視差量から映像中の人物像の奥行き方向の位置を判定し、該奥行き方向の位置に応じて字幕情報の奥行き方向の位置を設定する字幕視差設定手段と、を備えたことを特徴とする。
本発明によれば、3D映像を再生する場合でも、3D映像の奥行き感に合わせて字幕を表示することができる。
本発明の第1実施形態に係る立体画像処理装置の構成について説明するためのブロック図である。 図1に示す映像デコード部12により生成されたサイドバイサイド方式の左映像データ21Lと右映像データ21Rとを示す図である。 図1に示す映像視差抽出部14により抽出された視差量データの分布を示す図である。 本発明の第1実施形態に係る立体画像処理装置により出力される3D映像を示す図である。 本発明の第2実施形態に係る立体画像処理装置の字幕視差設定部15により処理される視差量データの分布グラフC1(a)と、平均化処理を施した後の分布グラフC2(b)とを示す図である。 本発明の第5実施形態に係る立体画像処理装置の構成について説明するためのブロック図である。 本発明の第6実施形態に係る立体画像処理装置の構成について説明するためのブロック図である。 従来の立体画像処理装置により出力される3D映像を示す図である。
以下に、本発明の実施形態について図面を参照して説明する。
<第1実施形態>
図1を参照して、本発明の第1実施形態に係る立体画像処理装置の構成について説明する。
図1に示す立体画像処理装置は、デマルチプレクサ部11、映像デコード部12、字幕デコード部13、映像視差抽出部14、字幕視差設定部15、映像表示制御部16を備えている。
デマルチプレクサ部11は、テレビジョン受信部(図示しない)またはDVD駆動部(図示しない)からARIB規格に基づいたストリームが入力されており、受信したストリームから映像ストリーム、音声ストリーム、字幕の符号化されたストリームを抽出する。なお、第1実施形態においては、上記音声ストリームについては直接の関係がないのでその詳細な説明を省略する。
映像デコード部12は、符号化された映像ストリームを複合し、生のサイドバイサイド方式の左右の映像データを生成する。
字幕デコード部13は、符号化された字幕ストリームを複合し、字幕データをなす表示する文字列データや位置データ(画面内の水平位置と垂直位置)を抽出し、字幕データとして出力する。
映像視差抽出部14は、生のサイドバイサイド方式の左右の映像データについて、左映像データと右映像データとの比較を行い、その映像の視差量データを抽出する。
字幕視差設定部15は、映像の視差量データから映像中の人物像の奥行き方向の位置を判定し、該奥行き方向の位置に応じて字幕データの奥行き方向の位置を視差調整して字幕データの奥行き方向の位置として設定し、設定後の字幕データ(文字列データや位置データ(画面内の水平位置、垂直位置、奥行き方向の位置))を出力する。
すなわち、字幕視差設定部15は、映像中の人物像の奥行き方向の位置に応じて、字幕データの奥行き方向の位置が人物像の奥行き方向の位置と同程度になるように視差調整して字幕データの奥行き方向の位置として設定し、設定後の字幕データ(文字列データや位置データ(画面内の水平位置、垂直位置、奥行き方向の位置))を出力する。
映像表示制御部16は、デコードされたサイドバイサイド方式の左右の映像データと、設定後の字幕データとの重ね合わせを行い、サイドバイサイド方式の左右の映像データを生成し、次に、生成されたサイドバイサイド方式の左右の映像データからラインバイライン方式の3D映像を生成してモニタ(図示しない)に出力し、3D映像をモニタから表示させる。
ここで、図1に示す立体画像処理装置の動作について説明する。
デマルチプレクサ部11では、テレビジョン受信部(図示しない)またはDVD駆動部(図示しない)から受信したストリームから映像ストリーム、音声ストリーム、字幕の符号化されたストリームを抽出する。次いで、映像デコード部12は、符号化された映像ストリームを複合し、生のサイドバイサイド方式の左右の映像データを生成する。次いで、字幕デコード部13は、符号化された字幕ストリームを複合し、字幕データをなす文字列データや位置データ(画面内の水平位置と垂直位置)を抽出し、字幕データとして出力する。
ここで、例えば、映像デコード部12により生成された生のサイドバイサイド方式の左右の映像データとして、図2に示すような左映像データ21Lと右映像データ21Rとが、映像視差抽出部14に入力される。図2において、人物像P1が画面手前に、人物像P2が画面奥にそれぞれ示されている。
映像視差抽出部14は、生のサイドバイサイド方式の左右の映像データについて、左映像データと右映像データとの比較を行い、その映像の視差量データを抽出する。
この結果、図2に示すような左映像データ21Lと右映像データ21Rとが映像視差抽出部14に入力されると、図3に示すような視差量データの分布が抽出される。
なお、図3は、図2に示す左映像データ21L上の「A」点と右映像データ21R上の「A」点がなすA−A線(図示しない)上の視差量データの分布である。図3は、縦軸区を奥行き方向に設定しており、人物像P1の領域、人物像P2の領域がそれぞれ示されている。
次いで、字幕視差設定部15は、デコードされた字幕の位置データ(水平位置と垂直位置)に対応する、映像の視差量データから映像中の人物像の奥行き方向の位置を判定し、該奥行き方向の位置に応じて字幕データの奥行き方向の位置を視差調整して字幕データの奥行き方向の位置として設定し、設定後の字幕データ(文字列データや位置データ(画面内の水平位置、垂直位置、奥行き方向の位置))を出力する。
ここで、図3に示すように、字幕視差設定部15では、デコードされた字幕の位置データにより字幕の水平方向の位置(X)が設定され、さらに、映像の視差量データから、人物像P1、人物像P2に対して表示される字幕J1,J2の奥行き方向の位置(シフト量とシフト方向)がそれぞれ設定される。
次いで、映像表示制御部16は、デコードされたサイドバイサイド方式の左右の映像データと、設定後の字幕データとの重ね合わせをそれぞれ行い、サイドバイサイド方式の左右の映像データを生成し、次に、生成されたサイドバイサイド方式の左右の映像データからラインバイライン方式の3D映像を生成してモニタに出力し、図4に示すような3D映像がモニタから表示させる。なお、図4においては、字幕J1,J2についての背景色が淡いほど近くに、濃いほど遠くに視認されるように表現している。
この結果、3D映像を再生する段階で、3D映像の奥行き感に合わせて字幕を表示することができる。
<第2実施形態>
次に、本発明の第2実施形態に係る立体画像処理装置の構成について説明する。なお、第2実施形態は、第1実施形態と同様に図1に適用して説明することとする。第2実施形態の特徴は、第1実施形態に用いた字幕視差設定部15での処理内容を変更したことにある。
ここで、第2実施形態の特徴である字幕視差設定部15の説明に先だって、上述した映像視差抽出部14の動作について説明する。
詳しくは、映像視差抽出部14では、左映像データおよび右映像データをそれぞれ同一サイズ(例えば、8画素×8画素を1個のブロックとする)の複数のブロック(例えば、32×32個のブロックとする)に分割し、左映像データと右映像データとの対応するブロック同士を相対的にシフトして評価値の差分が最小となるシフト量を選択することで各ブロックにおける占有度の高いオブジェクト(人物像P1,P2)の水平視差ベクトル(水平視差のシフト量とシフト方向)を導出することが可能となる。
映像視差抽出部14では、左映像データと右映像データとを所定サイズ、例えば、8×8画素といった複数のブロックに分割し、分割されたすべてのブロックに対して対応するブロック同士を抽出して比較する。
映像視差抽出部14では、分割された複数のブロック毎にシフト量とシフト方向とが異なる場合、その平均値、最小値または最大値のいずれかを水平視差ベクトルとする。
なお、第2実施形態において説明した水平視差ベクトルは、第1実施形態において説明した視差量に相当するものである。図3に示す視差量データの分布は、分割された複数のブロック毎にシフト量平均値を視差量データとして示している。
映像視差抽出部14では、抽出した左右一対のブロックの一方のブロックに対して他方のブロックを水平方向に相対的に所定画素分(例えば、30画素分程度)段階的にシフトし、両ブロックの重畳部分の中央領域における評価値の差分を求める。そして、その評価値が最小となる状態、例えば、シフト量(n画素)とシフト方向(右)とが水平視差ベクトルとなる。ここでは、左映像のブロックに対して右映像のブロックをシフトしたが左映像および右映像のいずれのブロックを基準として他方をシフトしてもよい。
字幕視差設定部15は、デコードされた字幕の位置データにより示される位置領域に対応する、映像の視差量データの分布領域について平均化後の分布グラフC2から、映像中の人物像の奥行き方向の位置を判定し、該奥行き方向の位置(シフト量とシフト方向)に応じて字幕データの奥行き方向の位置を視差調整して字幕データの奥行き方向の位置(シフト量とシフト方向)として設定し、設定後の字幕データ(文字列データや位置データ(画面内の水平位置、垂直位置、奥行き方向の位置))を出力する。
ここで、図5(b)に示すように、デコードされた字幕の位置データにより字幕の水平方向の位置(X)が設定され、さらに、映像の視差量データの平均化後の分布グラフC2から、人物像P1、人物像P2に対して表示される字幕J1,J2の奥行き方向の位置(シフト量とシフト方向)がそれぞれ設定される。
次に、第2実施形態に係る立体画像処理装置の字幕視差設定部15の動作について説明する。
映像内の視差量データの全体分布データを生成するには、字幕視差設定部15において、視差量データをそのまま抽出ブロツクサイズごとに分布させ、視差量データを抽出した後に、上下左右ブロック間のタップ数を用いて平均化すればよい。例えば、図5(a)に示すように、視差量データの分布グラフC1を抽出した後に、上下左右ブロック間のタップ数を用いて平均化すれば、図5(b)に示すように平均化後の分布グラフC2が求まる。
次いで、字幕視差設定部15は、デコードされた字幕の位置データに対応する、映像の視差量データの分布について平均化後の分布グラフC2から、映像中の人物像の奥行き方向の位置を判定し、該奥行き方向の位置に応じて字幕データの奥行き方向の位置を視差調整して字幕データの奥行き方向の位置として設定し、設定後の字幕データ(文字列データや位置データ(画面内の水平位置、垂直位置、奥行き方向の位置))を出力する。
ここで、図5(b)に示すように、デコードされた字幕の位置データにより字幕の水平方向の位置(X)が設定され、さらに、映像の視差量データの平均化後の分布グラフC2から、人物像P1、人物像P2に対して表示される字幕J1,J2の奥行き方向の位置(シフト量とシフト方向)がそれぞれ設定される。
このように、映像の視差量データを平均化した後の分布グラフC2に基づいて、映像中の人物像の奥行き方向の位置を判定することで、字幕の奥行き方向の位置の誤判定を防止することができ、さらに誤判定による後設定を防止することができる。
<第3実施形態>
次に、本発明の第3実施形態に係る立体画像処理装置の構成について説明する。なお、第3実施形態は、第2実施形態と同様に図1に適用して説明することとする。第3実施形態の特徴は、第2実施形態に用いた字幕視差設定部15での処理内容を変更したことにある。
本実施形態に係る立体画像処理装置の字幕視差設定部15の動作について説明する。
字幕視差設定部15において、デコードされた字幕の位置データで示される表示領域内にある映像の視差量データの分布について、奥行き方向で最も手前にくる値を、映像中の人物像の奥行き方向の位置として判定し、該奥行き方向の位置に応じて字幕データの奥行き方向の位置を視差調整して字幕データの奥行き方向の位置として設定し、設定後の字幕データ(文字列データや位置データ(画面内の水平位置、垂直位置、奥行き方向の位置))を出力する。
ここで、図3(b)に示すように、デコードされた字幕の位置データにより字幕の水平方向の位置(X)が設定され、さらに、字幕の位置データで示される表示領域内にある映像の視差量データの最も手前にくる値から、人物像P1、人物像P2に対して表示される字幕J1,J2の奥行き方向の位置(シフト量とシフト方向)がそれぞれ設定される。
このように、字幕の位置データで示される表示領域内にある映像の視差量データの分布について、奥行き方向で最も手前にくる値から、字幕の奥行き方向の位置を設定することで、キャラクタに関する最も手前にくる奥行き方向の位置に字幕の奥行き方向の位置を合わせることができる。
<第4実施形態>
次に、本発明の第4実施形態に係る立体画像処理装置の構成について説明する。なお、第4実施形態は、第2実施形態と同様に図1に適用して説明することとする。第4実施形態の特徴は、第2実施形態に用いた字幕視差設定部15での処理内容を変更したことにある。
本実施形態に係る立体画像処理装置の字幕視差設定部15の動作について説明する。
字幕視差設定部15において、デコードされた字幕の位置データで示される表示領域内にある映像の視差量データの分布について、平均化した後の分布グラフから奥行き方向の位置を判定し、該奥行き方向の位置に応じて字幕データの奥行き方向の位置を視差調整して字幕データの奥行き方向の位置として設定し、設定後の字幕データ(文字列データや位置データ(画面内の水平位置、垂直位置、奥行き方向の位置))を出力する。
なお、上記平均化については、字幕データで示される表示領域内に対応する映像の視差量データの分布に対して、水平方向および垂直方向において画素数分の平均を算出することで、平均値を求めることができる。
ここで、図5(b)に示すように、デコードされた字幕の位置データにより字幕の水平方向の位置(X)が設定され、さらに、字幕の位置データで示される表示領域内に対応する映像の視差量データの平均化後の分布グラフC2から、人物像P1、人物像P2に対して表示される字幕J1,J2の奥行き方向の位置(シフト量とシフト方向)がそれぞれ設定される。
このように、字幕の位置データで示される表示領域内にある映像の視差量データを平均化した後の分布グラフC2に基づいて、字幕の奥行き方向の位置を判定することで、字幕の奥行き方向の位置の誤判定を防止することができ、さらに誤判定による後設定を防止することができる。
<第5実施形態>
次に、図6を参照して、本発明の第5実施形態に係る立体画像処理装置の構成について説明する。なお、第5実施形態の特徴は、映像解析部17、字幕視差設定部18を備えたことにある。また、図1に示す構成と同一符号を有する図6に示す構成については、第1実施形態と同様であるので、その説明を省略する。
映像解析部17は、復号された映像データのうち、1フレーム分の静止画像を示す映像データを定期的に取得して解析することにより、モニタに表示される人物像の口部分を検出するとともに、この人物像の口部分の表示位置データを取得する。即ち、映像データ(即ち、動画用フレームメモリに書き込まれる輝度信号と色差信号)によって示される1フレーム分の静止画像に対して、パターンマッチング等の画像処理を行うことによって映像データを解析し、モニタに表示される人物像の口部分を定期的に検出する。
そして、映像解析部17は、検出された人物像の口部分の情報(即ち、検出された人物像の口部分の表示位置の情報や、検出された人物像の口部分の数や、検出された人物像の口部分の特徴に関する情報等)を取得し、これらの情報を字幕視差設定部18へ出力する。なお、本実施形態においては、映像解析部17は、モニタに表示される人物像の口部分を検出して、検出された人物像の口部分の情報を取得しているが、モニタに表示される顔や頭等の人物の一部を検出して、検出された顔や頭等の人物像の一部の情報を取得するようにしてもよい。
字幕視差設定部18は、字幕デコード部13によりデコードされた字幕のテキストデータと、映像解析部17により検出された人物像の口部分の位置データに対応する、映像の視差量データの分布から、人物像の口部分の位置の奥行き方向の位置を判定し、該奥行き方向の位置に応じて字幕データの奥行き方向の位置を視差調整して字幕データの奥行き方向の位置として設定し、設定後の字幕データ(文字列データや位置データ(画面内の水平位置、垂直位置、奥行き方向の位置))を出力する。
ここで、図6に示す立体画像処理装置の動作について説明する。
映像解析部17は、復号された映像データのうち、1フレーム分の静止画像を示す映像データを解析することにより、モニタに表示される人物像の口部分を検出するとともに、この人物像の口部分の表示位置データを取得する。
字幕視差設定部18は、字幕デコード部13によりデコードされた字幕のテキストデータと、映像解析部17により検出された人物像の口部分の位置データに対応する、映像の視差量データの分布から、人物像の口部分の位置の奥行き方向の位置を判定し、該奥行き方向の位置に応じて字幕データの奥行き方向の位置を視差調整して字幕データの奥行き方向の位置として設定し、設定後の字幕データ(文字列データや位置データ(画面内の水平位置、垂直位置、奥行き方向の位置))を出力する。
ここで、字幕視差設定部18により、人物像の口部分の位置データに対応する、映像の視差量データの分布に基づいて、人物像の口部分の位置の近傍に表示すべき字幕の奥行き方向の位置を判定して字幕自体の奥行き方向の位置を設定され、人物像の口部分の位置に表示すべき字幕データが出力される。
次いで、映像表示制御部16は、デコードされたサイドバイサイド方式の左右の映像データと、設定後の字幕データとの重ね合わせを行い、サイドバイサイド方式の左右の映像データを生成し、次に、生成されたサイドバイサイド方式の左右の映像データからラインバイライン方式の3D映像を生成してモニタに出力し、図4に示すような3D映像がモニタから表示させる。
この結果、3D映像を再生する段階で、3D映像の人物像の奥行き感に合わせて人物像の口部分の位置に字幕を表示することができる。
<第6実施形態>
次に、図7を参照して、本発明の第6実施形態に係る立体画像処理装置の構成について説明する。なお、第6実施形態の特徴は、音声認識部19を備えたことにある。また、図6に示す構成と同一符号を有する図7に示す構成については、第5実施形態と同様であるので、その説明を省略する。
音声認識部19は、符号化された音声ストリームを複合して音声データを生成し、さらに、音データから音声を認識し音声のテキストデータを生成する。
ここで、図6に示す立体画像処理装置の動作について説明する。
字幕視差設定部18は、音声認識部19により音声認識された発話者の音声のテキストデータと、映像解析部17により検出された人物像の口部分の位置データに対応する、映像の視差量データの分布から、人物像の口部分の位置の奥行き方向の位置を判定し、該奥行き方向の位置に応じて字幕データの奥行き方向の位置を視差調整して字幕データの奥行き方向の位置として設定し、設定後の字幕データ(文字列データや位置データ(画面内の水平位置、垂直位置、奥行き方向の位置))を出力する。
なお、字幕視差設定部18では、文字列データや位置データ(画面内の水平位置、垂直位置、奥行き方向の位置)を有する字幕データを出力しているが、上記文字列データや位置データを有する吹出枠データを生成して出力してもよい。
次いで、映像表示制御部16は、デコードされたサイドバイサイド方式の左右の映像データと、設定後の字幕データとの重ね合わせを行い、サイドバイサイド方式の左右の映像データを生成し、次に、生成されたサイドバイサイド方式の左右の映像データからラインバイライン方式の3D映像を生成してモニタに出力し、図4に示すような3D映像がモニタから表示させる。
この結果、3D映像を再生する段階で、3D映像の人物像の奥行き感に合わせて人物像の口部分の位置に字幕を表示することができる。
<その他の実施形態1>
上記第1〜第6実施形態においては、映像デコード部12から出力される左右の映像データとして、サイドバイサイド方式の左右の映像データのみが記載されていますが、本発明の実施形態はこのような方式に限定されることなく、右目と左目の映像データを個別に参照できる方式であればよく、例えば、トップアンドボトム方式、Blue-Rayに利用されているマルチビュービデオコーディングであればよい。
<その他の実施形態2>
上記第1〜第6実施形態においては、モニタに出力される3D映像として、映像表示制御部16ではラインバイライン方式への変換のみが記載されていますが、本発明の実施形態はこのような方式に限定されることなく、フレームシーケンシャル方式、チェツカーサンプリング方式であればよい。
本発明は、テレビジョン受信機、DVDプレイヤ、パーソナルコンピュータ等を用いて立体映像情報を再生することに利用できる。
11 デマルチプレクサ部
12 映像デコード部
13 字幕デコード部
14 映像視差抽出部
15 字幕視差設定部
16 映像表示制御部
17 映像解析部
18 字幕視差設定部
19 音声認識部
21L 左映像データ
21R 右映像データ

Claims (6)

  1. 立体映像情報の再生時に、前記立体映像情報に字幕情報を付加して表示する立体画像処理装置であって、
    立体映像情報に含まれる左映像と右映像を比較して映像の視差量を抽出する映像視差抽出手段と、
    前記抽出された映像の視差量から映像中の人物像の奥行き方向の位置を判定し、該奥行き方向の位置に応じて字幕情報の奥行き方向の位置を設定する字幕視差設定手段と、を備えたことを特徴とする立体画像処理装置。
  2. 前記字幕視差設定手段は、前記視差量に関する上下左右ブロック間で平均化した後のグラフから、人物像の奥行き方向の位置を判定する、ことを特徴とする請求項1記載の立体画像処理装置。
  3. 前記字幕視差設定手段は、字幕情報の位置情報で示される表示領域内にある映像の視差量について、奥行き方向で最も手前にくる値を、字幕の奥行き方向の位置として判定する、ことを特徴とする請求項1記載の立体画像処理装置。
  4. 前記字幕視差設定手段は、前記字幕情報の位置情報で示される表示領域内にある映像の視差量について、平均化した後の部分から奥行き方向の位置を判定する、ことを特徴とする請求項1記載の立体画像処理装置。
  5. 前記映像情報を解析して人物像の口部分を検出し、該人物像の口部分の水平位置情報および垂直位置情報を取得する映像解析手段を備え、
    前記字幕視差設定手段は、前記人物像の口部分の水平位置情報および垂直位置情報に対応する、映像の視差量の部分から、前記人物像の口部分の位置の奥行き方向の位置を判定する、ことを特徴とする請求項1記載の立体画像処理装置。
  6. 前記立体映像情報とともに入力される音声情報に対して音声認識処理を施してテキスト情報を取得する音声認識手段を備え、
    前記字幕視差設定手段は、前記映像解析手段により検出された人物像の口部分の水平位置情報および垂直位置情報に対応する、映像の視差量から人物像の口部分の位置の奥行き方向の位置を判定し、該奥行き方向の位置に応じて字幕情報の奥行き方向の位置を設定し、前記音声認識手段により取得された発話者の音声に関する文字列を、設定後の字幕情報として出力する、ことを特徴とする請求項5記載の立体画像処理装置。
JP2011002896A 2011-01-11 2011-01-11 立体画像処理装置 Pending JP2012147160A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011002896A JP2012147160A (ja) 2011-01-11 2011-01-11 立体画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011002896A JP2012147160A (ja) 2011-01-11 2011-01-11 立体画像処理装置

Publications (1)

Publication Number Publication Date
JP2012147160A true JP2012147160A (ja) 2012-08-02

Family

ID=46790298

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011002896A Pending JP2012147160A (ja) 2011-01-11 2011-01-11 立体画像処理装置

Country Status (1)

Country Link
JP (1) JP2012147160A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017203667A1 (ja) * 2016-05-26 2017-11-30 楽天株式会社 表示制御システム、表示制御方法及び表示制御プログラム

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH089421A (ja) * 1994-06-20 1996-01-12 Sanyo Electric Co Ltd 立体映像装置
JPH10234016A (ja) * 1997-02-21 1998-09-02 Hitachi Ltd 映像信号処理装置及びそれを備えた映像表示装置及び記録再生装置
JP2003296743A (ja) * 2002-03-29 2003-10-17 Fuji Photo Film Co Ltd 画像処理装置
JP2003346188A (ja) * 2002-05-27 2003-12-05 Canon Inc 立体画像形成システム
JP2004049638A (ja) * 2002-07-22 2004-02-19 Olympus Corp 内視鏡装置
JP2006325165A (ja) * 2005-05-20 2006-11-30 Excellead Technology:Kk テロップ発生装置、テロップ発生プログラム、及びテロップ発生方法
JP2008278380A (ja) * 2007-05-02 2008-11-13 Sanyo Electric Co Ltd 画像データ処理装置
JP2009146034A (ja) * 2007-12-12 2009-07-02 National Institute Of Information & Communication Technology 多視点画像奥行値抽出装置、その方法およびそのプログラム
JP2010086228A (ja) * 2008-09-30 2010-04-15 Fujifilm Corp 3次元表示装置および方法並びにプログラム
US20100220175A1 (en) * 2009-02-27 2010-09-02 Laurence James Claydon Systems, apparatus and methods for subtitling for stereoscopic content
JP2010258872A (ja) * 2009-04-27 2010-11-11 Mitsubishi Electric Corp 立体映像および音声記録方法、立体映像および音声再生方法、立体映像および音声記録装置、立体映像および音声再生装置、立体映像および音声記録媒体
WO2011001852A1 (ja) * 2009-06-29 2011-01-06 ソニー株式会社 画像データ送信装置、制御方法およびプログラム

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH089421A (ja) * 1994-06-20 1996-01-12 Sanyo Electric Co Ltd 立体映像装置
JPH10234016A (ja) * 1997-02-21 1998-09-02 Hitachi Ltd 映像信号処理装置及びそれを備えた映像表示装置及び記録再生装置
JP2003296743A (ja) * 2002-03-29 2003-10-17 Fuji Photo Film Co Ltd 画像処理装置
JP2003346188A (ja) * 2002-05-27 2003-12-05 Canon Inc 立体画像形成システム
JP2004049638A (ja) * 2002-07-22 2004-02-19 Olympus Corp 内視鏡装置
JP2006325165A (ja) * 2005-05-20 2006-11-30 Excellead Technology:Kk テロップ発生装置、テロップ発生プログラム、及びテロップ発生方法
JP2008278380A (ja) * 2007-05-02 2008-11-13 Sanyo Electric Co Ltd 画像データ処理装置
JP2009146034A (ja) * 2007-12-12 2009-07-02 National Institute Of Information & Communication Technology 多視点画像奥行値抽出装置、その方法およびそのプログラム
JP2010086228A (ja) * 2008-09-30 2010-04-15 Fujifilm Corp 3次元表示装置および方法並びにプログラム
US20100220175A1 (en) * 2009-02-27 2010-09-02 Laurence James Claydon Systems, apparatus and methods for subtitling for stereoscopic content
JP2010258872A (ja) * 2009-04-27 2010-11-11 Mitsubishi Electric Corp 立体映像および音声記録方法、立体映像および音声再生方法、立体映像および音声記録装置、立体映像および音声再生装置、立体映像および音声記録媒体
WO2011001852A1 (ja) * 2009-06-29 2011-01-06 ソニー株式会社 画像データ送信装置、制御方法およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017203667A1 (ja) * 2016-05-26 2017-11-30 楽天株式会社 表示制御システム、表示制御方法及び表示制御プログラム

Similar Documents

Publication Publication Date Title
KR101801017B1 (ko) 3d 비디오 포맷 검출
JPH11289555A (ja) 立体映像表示装置
US20110141233A1 (en) Three-dimensional image data transmission device, three-dimensional image data transmission method, three-dimensional image data reception device, and three-dimensional image data reception method
JP2015092669A (ja) 3dビデオ及び補助データの結合
JPWO2010122775A1 (ja) 映像処理装置及び映像処理方法
EP2615835A2 (en) Method and apparatus for processing video image
CA2742036C (en) Image data transmission apparatus, image data transmission method, image data reception apparatus, image data reception method, and image data transmission and reception system
KR20100046584A (ko) 영상 디코딩 방법, 영상 출력 방법, 영상 처리 방법 및 그 장치
JP4996720B2 (ja) 画像処理装置、画像処理プログラム、及び画像処理方法
JP5390016B2 (ja) 映像処理装置
CN102111633A (zh) 图像处理装置和图像处理方法
JP5390017B2 (ja) 映像処理装置
JP5354664B2 (ja) デジタルデータ受信機、及び、プログラム
JP2007300323A (ja) 字幕表示制御システム
JP5110978B2 (ja) 送信装置、受信装置及び再生装置
JP5371727B2 (ja) 立体映像処理装置及び立体映像処理装置の制御方法
US20130120529A1 (en) Video signal processing device and video signal processing method
JP2012147160A (ja) 立体画像処理装置
KR101899324B1 (ko) 3d 입체 영상을 제공하는 디스플레이 장치 및 방법
WO2011114745A1 (ja) 映像再生装置
KR100977079B1 (ko) 동영상의 자막 표시 방법
US20130010056A1 (en) Reproduction apparatus
JP2007110310A (ja) 映像表示装置
KR20110051074A (ko) 3차원 영상 디스플레이 방법과 이를 구현하기 위한 3차원 디스플레이 장치
RU2574357C2 (ru) Устройство и способ передачи данных изображения, устройство и способ приема данных изображения и система передачи и приема данных изображения

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140612

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140617

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150210

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20151027