JP2010206362A - 映像処理装置、映像処理方法及びそれをコンピュータに実行させるためのプログラム - Google Patents

映像処理装置、映像処理方法及びそれをコンピュータに実行させるためのプログラム Download PDF

Info

Publication number
JP2010206362A
JP2010206362A JP2009047795A JP2009047795A JP2010206362A JP 2010206362 A JP2010206362 A JP 2010206362A JP 2009047795 A JP2009047795 A JP 2009047795A JP 2009047795 A JP2009047795 A JP 2009047795A JP 2010206362 A JP2010206362 A JP 2010206362A
Authority
JP
Japan
Prior art keywords
video
shadow
area
foreground
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009047795A
Other languages
English (en)
Other versions
JP4963124B2 (ja
Inventor
Takeaki Suenaga
健明 末永
Kenichiro Yamamoto
健一郎 山本
Masahiro Shioi
正宏 塩井
Ikuko Tsubaki
郁子 椿
Kenji Tsukuba
健史 筑波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2009047795A priority Critical patent/JP4963124B2/ja
Publication of JP2010206362A publication Critical patent/JP2010206362A/ja
Application granted granted Critical
Publication of JP4963124B2 publication Critical patent/JP4963124B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】従来の2次元対応の表示システムを変更することなく、映像に対して知覚する立体感や奥行き感を向上させるようにする。
【解決手段】映像取得部12が入力映像を取得する。次に奥行き情報取得部11が入力映像に対応する奥行き情報を取得し、距離感知覚オブジェクトを配置する位置を決定する。映像分割部13は、決定された距離感知覚オブジェクト配置位置に基づき入力映像を距離感知覚オブジェクトの前に配置する部分(前景)と、距離感知覚オブジェクトの後ろに配置する部分(背景)に分割する。距離感知覚オブジェクト生成部14が、分割後の映像に合わせて合成する距離感知覚オブジェクトを生成する。一方、影領域生成部15が、距離感知覚オブジェクトに掛かる影を分割後の入力映像の前景部分から作成する。映像合成部16が、これら分割された入力映像、距離感知覚オブジェクト、影を合成して出力する。
【選択図】図1

Description

本発明は、入力映像に対し立体感や奥行き感を高める処理を行う映像処理装置、映像処理方法及びそれをコンピュータに実行させるためのプログラムに関する。
テレビなどの平面画像では、動画像、静止画像をより高品位・高画質に見せるために映像の立体感や奥行き感を高める様々な手法が提案されている。例えば、立体感を高める方法として用いられている両眼視差を利用した立体視では、左右の目それぞれに視差を持つ異なった画像を送ることで、錯覚を起こさせ、立体感、奥行き感を感じさせる。左右の目それぞれに異なる画像を送る為には、例えば特許文献1に示すように左目用画像と右目用画像を交互に表示するディスプレイの周波数に同期して、左右のシャッタを切り替えて光路を遮断する眼鏡を用いた方式や、視差をもつ左右2枚のRGB画像を赤色画像と青色画像に変換し、その2枚を重畳した画像を赤と青の眼鏡を通して見るアナグリフ方式、特許文献2に示すように、一つのディスプレイ上で左右の視差画像各々を異なる偏光で出力し、偏光眼鏡を用いる偏光眼鏡方式などが上げられる。
他方、絵画の世界では、遠近法、陰影法、前進色と後退色の組み合わせなどの絵画的テクニックを利用して立体感や奥行き感を高めることが行われている。トリックアート(トロンプ・ルイユとも呼ばれる)はこれら手法を利用して作成される絵画作品であり、平面作品にオブジェクトを描き、前述の手法を駆使して該オブジェクトとの適切な重畳関係を描写することで、二次元に描いた絵の一部が現実世界の三次元空間に飛び出しているように錯覚させることで、立体感を高めることが出来る。例えば、絵の中に描写されている額縁から絵の一部をはみ出させ、適切な陰影描写を行うことで、はみ出した部分がまるで絵から飛び出しているかのように見せる作品などが良く知られている。
特開昭60−7291号公報 特開平1−171390号公報
上記特許文献に示されるような、立体感や奥行き感を強調するシステムでは、特殊なフィルタや眼鏡などを必要とするため、現行の2次元対応の表示システム(ディスプレイ)を置き換える必要があった。また、上記特許文献に記されるような技術で作成された映像を視聴する場合、視聴者は特殊な眼鏡の装着を義務付けられるなど、視聴方法を著しく制限するものであった。
本発明は、上記の問題を鑑み、従来の2次元対応の表示システムを変更することなく、映像中の各オブジェクトの奥行き情報に基づく映像処理を行うことで、視聴者に負担や制限を強いることなく、映像に対して知覚する立体感や奥行き感を向上させる技術を提供することを目的とする。
本発明は、入力される映像の立体感、奥行き感を高める映像処理装置であって、
入力映像を取得する映像取得部と、撮影された映像内の各オブジェクトの奥行き情報を取得する奥行き情報取得部と、前記入力映像を、前記奥行き情報に基づいて、所定の奥行き位置より手前の映像を前景領域、所定の奥行き位置より奥の映像を背景領域として2つに分割する映像分割部と、前記前景領域と、前記背景領域との間の奥行き位置に挿入する、距離感知覚のためのオブジェクトの映像を生成する距離感知覚オブジェクト生成部と、前記前景領域の影領域を生成する影領域生成部と、前記前景領域、前記背景領域、前記距離感知覚オブジェクト及び前記影領域を奥行き情報に基づいて合成した映像を作成する映像合成部と、を備えることを特徴とする。
また、前記映像処理装置において、前記影領域生成部は、前記前景領域の前記距離感知覚オブジェクト対する影領域を生成することを特徴とする。
また、前記映像処理装置において、影が生じる方向の影方向情報を取得する影方向取得部を備え、前記影領域生成部は、前記影方向取得部で取得した影方向情報に基づいて影領域を生成することを特徴とする。
また、前記映像処理装置において、前記前景領域の拡大及び前記背景領域の縮小のうち少なくともいずれか1つの変形をする映像変形部を備え、前記影領域生成部は、拡大された前記前景領域に基づいて前景領域の影を生成し、前記映像合成部は、前記前景領域が拡大された場合は、拡大前衛領域と、その拡大前景領域の影領域を用いることを特徴とする。
また、前記映像処理装置において、前記距離感知覚オブジェクト生成部で生成されるオブジェクトは、枠オブジェクトであることを特徴とする。
また、前記映像処理装置において、前記距離感知覚オブジェクト生成部で生成されるオブジェクトは、壁オブジェクトであることを特徴とする。
また、前記映像処理装置において、入力される映像は、動画像または静止画像であることを特徴とする。
また、本発明は、入力される映像の立体感、奥行き感を高める映像処理方法であって、
入力映像を取得する映像取得ステップと、撮影された映像内の各オブジェクトの奥行き情報を取得する奥行き情報取得ステップと、前記入力映像を、前記奥行き情報に基づいて、所定の奥行き位置より手前の映像を前景領域、所定の奥行き位置より奥の映像を背景領域として2つに分割する映像分割ステップと、前記前景領域と、前記背景領域との間の奥行き位置に挿入する、距離感知覚のためのオブジェクトの映像を生成する距離感知覚オブジェクト生成ステップと、前記前景領域の影領域を生成する影領域生成ステップと、前記前景領域、前記背景領域、前記距離感知覚オブジェクト及び前記影領域を奥行き情報に基づいて合成した映像を作成する映像合成ステップと、を備えることを特徴とする。
また、前記映像処理方法において、前記影領域生成ステップでは、前記前景領域の前記距離感知覚オブジェクト対する影領域を生成することを特徴とする。
また、前記映像処理方法において、影が生じる方向の影方向情報を取得する影方向所得ステップを備え、前記影領域生成ステップは、前記影方向取得ステップで取得した影方向情報に基づいて影領域を生成することを特徴とする。
また、前記映像処理方法において、前記前景領域の拡大及び前記背景領域の縮小のうち少なくともいずれか1つの変形をする映像変形ステップを備え、前記影領域生成ステップは、拡大された前記前景領域に基づいて前景領域の影を生成し、前記映像合成ステップは、前記前景領域が拡大された場合は、拡大前衛領域と、その拡大前景領域の影領域を用いることを特徴とする。
また、本発明は、前記映像処理方法をコンピュータに実行させるためのプログラムであってもよい。
本発明の映像処理装置によれば、奥行き情報に基づいて、前景領域と背景領域の間に額やカーテンなどの距離感知覚のためのオブジェクトを挿入しているので、特殊な表示システムや特殊な眼鏡の装着などを必要とせず、映像処理のみによって立体感、奥行き感の強調を施した映像を取得することができる。また、前景領域や枠オブジェクト等の影を生成するので、さらに、立体感や奥行き感を強調した映像を取得できる。
さらに、前景領域や背景領域を拡大縮小する映像変形を行うと、より遠近感を強調した映像を得ることができるので、立体感や奥行き感を高めた映像が取得できる。
本発明の第1の実施の形態による映像処理映像処理装置の一構成例を示す機能ブロック図である。 図1に示す本発明の第1の実施の形態による映像処理映像処理装置の一構成例の一変形例を示す機能ブロック図である。 映像処理映像処理装置における動作の流れを示すフローチャート図である。 入力映像を示す図である。 入力映像に対応する奥行き画像を示す図である。 奥行き情報に基づき分割された前景画像並びに背景画像を示す図である。 合成する額縁を示した図である。 図1に示す本発明の第1の実施の形態による映像処理映像処理装置の一構成例の一変形例を示す機能ブロック図である。 図1に示す本発明の第1の実施の形態による映像処理映像処理装置の一構成例の一変形例を示す機能ブロック図である。 本発明の第1の実施の形態による合成後の出力映像の例を示した図である。 合成する影領域を示した図である。 影領域の合成手法について説明した図である。 本発明の第2の実施の形態による、壁を用いた映像処理の例を示した図である。 本発明の第2の実施の形態による合成後の出力映像の例を示した図である。 本発明の第3の実施の形態による映像処理映像処理装置の一構成例を示す機能ブロック図である。 本発明の第3の実施の形態による合成後の出力映像の例を示した図である。
図面を参照しながら、本発明の各実施の形態による映像処理装置について説明を行う。
<第1の実施の形態>
図1は、本発明の第1の実施の形態による映像処理装置の一構成例を示す機能ブロック図である。
図1に示すように、本実施形態による映像処理装置10は、奥行き情報を取得する奥行き情報取得部11と、入力映像を取得する映像取得部12と、奥行き情報取得部11で得られた奥行き情報を基に映像取得部12から得た映像を分割する映像分割部13と、分割された映像に合わせて映像内に擬似的な平面を定義するオブジェクトを生成する距離感知覚オブジェクト生成部14と、影領域を生成する影領域生成部15と、これら生成された距離感知覚オブジェクト、影並びに分割された映像を合成し、立体感、奥行き感を強調した映像を出力部17に出力する映像合成部16と、を含んで構成される。
図2は映像処理装置10における動作の流れを示すフローチャート図である。処理が開始されると(開始)、映像取得部12が入力映像を取得する(ステップS1)。次に奥行き情報取得部11が入力映像に対応する奥行き情報を取得し(ステップS2)、距離感知覚オブジェクトを配置する位置を決定する(ステップS3)。本実施例では、奥行き情報は入力映像とともに外部から取得するものとしている。映像分割部13は、決定された距離感知覚オブジェクト配置位置に基づき入力映像を距離感知覚オブジェクトの前に配置する部分(前景)と、距離感知覚オブジェクトの後ろに配置する部分(背景)に分割する(ステップS4)。距離感知覚オブジェクト生成部14が、分割後の映像に合わせて合成する距離感知覚オブジェクトを生成する(ステップS5)。一方、影領域生成部15が、距離感知覚オブジェクトに掛かる影を分割後の入力映像の前景部分から作成する(ステップS6)。最後に、映像合成部16が、これら分割された入力映像、距離感知覚オブジェクト、影を合成の後出力し(ステップS7)、処理を終了する(終了)。
上記フローチャートでは、ステップS2において、奥行き情報を入力映像とともに外部から取得するものとして説明を行ったが、入力映像から奥行き情報を計算する形としても良い。たとえば、図3に示す映像処理装置20のように、奥行き情報取得部21を設け、映像取得部12で取得した入力映像から奥行き情報を計算して取得するような形としても良い。なお、図1、図3中の各部のうち、同じ記号で示されるブロックは同一の機能をもつものとする。
以下に、本実施の形態による映像処理装置10の各構成部について、さらに詳細に説明する。
(奥行き情報取得部11の説明)
まず、奥行き情報取得部11について説明を行う。映像処理装置10は、映像取得部12から得られる入力画像に対応した奥行き情報を取得する奥行き情報取得部11を有する。ここで、奥行き情報とは、入力映像に映っている各オブジェクト(例えば、人、車、木、壁など)と、撮影者(カメラ)との距離を示す情報である。本実施例では、奥行き情報は撮影時に取得され、映像処理装置10に送信されるものとする。撮影時の奥行き情報取得方法としては、たとえばステレオ法を応用し、位置をずらした2つのカメラで同一オブジェクトを撮影した際の撮像面での位置のずれを基に距離を求めることとしても良いし、カメラに備えられた赤外線照射装置からオブジェクトに照射された赤外線の反射光の強弱を測定することで取得するものとしても良い。
本実施形態では、奥行き情報は撮影時に入力映像とは別に取得されるものとしているが、本実施例の変形例として、奥行き情報を図3に示すように入力映像から計算するものとしてもよい。入力映像からの奥行き情報の計算には、たとえば、特開平9−161074号公報に示される技術を用いる。また、入力映像がなんらかの方式で符号化されている場合、その符号化情報から奥行き情報を作成しても良い。例えばMPEG(Moving Picture Experts Group)によって作られた標準動画規格の一つであるMPEG−4(Moving Picture Expert Group phase4)では背景や人物などのオブジェクト単位で符号化することが可能である。入力映像が該機能を用いて、背景と人物が別々に符号化されていた場合は、この情報を用いて、「カメラと背景の距離」より「カメラと人物の距離」が近くなるような奥行き情報を作成する。
(映像取得部12の説明)
映像取得部12について説明する。映像取得部12は立体感、奥行き感を向上させる映像処理を行う元となる映像を取得する。ここでの映像は、静止画像でも動画像でも良く、何らかの符号化方式、例えばJPEG(Joint Photographic Experts Group)やMPEG−2(Moving Picture Expert Group phase2)などで圧縮されたものであっても、非圧縮のものであっても良い。入力映像が符号化されたものであった場合は、本ブロックで適切に復号(例えばRGB形式やYUV形式)される。以下、本実施例では、復号後の画像について処理を行うものとする。また、本実施例で行われる映像処理については、説明を簡単にするため、静止画または1フレームに対して処理を行うものとして説明を行っているが、入力映像が動画である場合、連続する各フレームに対して同様の処理を行うものとする。
(映像分割部13の説明)
次に、映像分割部13について説明する。映像分割部13は、映像取得部12で取得した入力映像を、奥行き情報取得部11で取得した奥行き情報に基づき、距離感知覚オブジェクト生成部14(詳細は後述)で生成する距離感知覚オブジェクトの前に表示する前景と、同距離感知覚オブジェクトの後ろに表示する背景とに分離する。
ここで図を用いてさらに詳細に説明する。今、図4に示す入力画像31と、図5に示すような入力画像31に対応する奥行き情報を持つ奥行き画像32があったとする。ここで、奥行き画像32は撮影者(カメラ)とオブジェクトの距離を5段階の奥行きとして示しており、奥行き情報表33に示すように距離の近い順に1、2、…、5で示され、入力画像31の各画素に対応して奥行き1〜5のいずれかの値が入っているものとする。ここでは説明の簡単のために、奥行き情報を5段階で示すものとするが、奥行き情報は5段階未満乃至は5段階以上でも良く、もちろん無段階で示すものとしても問題はない。
このとき、映像分割部13は閾値Thに基づき、入力映像を前景と背景に分割する。入力画像31の各画素に対応する全ての奥行き情報Depth(n)において、Th>Depth(n)の場合は対応する入力画像31の画素Px(n)を背景として、Th≦Depth(n)の場合は同画素Px(n)を前景とする。この分割判定を示すC言語プログラムを以下に示す。
if(Th>Depth(n)){
Px(n)=背景
}else{
Px(n)=前景
ここで、あらかじめ設定されている閾値Thが2であるとすると、最終的に、入力画像31は距離画像32に基づき、図6に示す前景領域34(映像35中の実線で囲まれた白色領域)と背景領域36(映像37中の実線で囲まれた白色領域)に分割される。
本実施例では、閾値Thは予め映像処理装置10に記録されている値として説明を行ったが、映像処理装置10を使用するユーザが自由に設定できる値としても良い。また、閾値Thを計算で求めても良い。たとえば、下記式1は、奥行き画像32に基づき、その距離の平均を閾値Thとする例である。
Th=(ΣDepth(n))/n(但し、n=0、1、2、…、i) …(式1)
(距離感知覚オブジェクト生成部14の説明)
距離感知覚オブジェクト生成部14について説明を行う。距離感知覚オブジェクト生成部14は、映像分割部A4で決定された前景部領域と背景部領域に基づき、入力映像に合成する距離感知覚オブジェクトを生成する。ここで距離感知覚オブジェクトとは、入力映像中の前景と背景との間の奥行き位置に挿入することで前景または背景との相対的な距離感を与え、視聴者に立体感、奥行き感を知覚させるためのオブジェクトである。ここでいう挿入する奥行き位置とは、前述の奥行き情報の閾値とした位置をいう。本実施例では、図7に示すように、距離感知覚オブジェクトとして、映像の外周を囲う枠オブジェクトである額縁37を生成する。ここでは、額縁の形状、色などはあらかじめ映像処理装置10で決定されているものとするが、ユーザが任意の形状、色の額縁を登録できるようにし、これを合成することとしても良い。
また、本実施例では、生成される額縁37を立体的に見せるための額縁37自身の陰影についても、あらかじめ決められているものとするが、これは入力から得られる情報に基づいて入力映像内での前衛領域の陰影と合わせることで、より一体感の増す額縁を生成することができる。たとえば、図8に示すように、映像処理装置10の変形例である映像処理装置40は、影方向取得部41を備えることによって、距離感知覚オブジェクト生成部14と影領域生成部15(後述)において、該ブロックから得た影の方向に基づき、入力画像と同じ方向の陰影を構築することが可能である。ここでの影方向取得部41への入力は、例えば、撮影時の照明条件から導き出した、各オブジェクトの影の方向である。
また、影の方向が入力画像から推定可能である場合、図9に示すように、映像処理装置20の変形例である映像処理映像処理装置50は、映像取得部12から得られた入力画像から計算によって影の方向を求める影方向取得部51を設けることによって、影の方向を得ることができる。勿論影の方向をユーザが指定する形とすることで、ユーザの好みの方向に陰影をつけることとしても良い。
本実施例では、映像の外周を囲う枠オブジェクトとして額縁を例に説明を行ったが、このオブジェクトが額縁以外のものでも良いことは言うまでも無い。例えば、窓の枠や図10(a)の映像61に示すような折りたたまれたカーテン62などを配置しても良い。
(影領域生成部15の説明)
次に影領域生成部15について説明を行う。影領域生成部15は、主に映像分割部13で決定された前景部領域から、影領域を生成する。図6に示したような、前景領域34が取得される時、この領域をあらかじめ映像処理装置10に設定されている色で塗りつぶした影領域64(図11参照)を得る。
(映像合成部16の説明)
最後に映像合成部16について説明する。映像合成部16では図10(b)映像63に示すように、映像分割部13で得られた背景領域36、距離感知覚オブジェクト生成部14で生成された額縁37、影領域生成部15で生成された影64、映像分割部13で得られた前景領域34を順に合成する。まず、背景領域34に額縁37を重畳する。次に影領域64を重畳する。この時、影領域64の重畳する位置(x,y)は、前景オブジェクトの位置(u,v)から相対的に下記式2で求められる。
x=u+a
y=v+b …(式2)
これは即ち、図12(a)中の映像71に示すように、影領域64の位置(x,y)は、前景領域34の位置(u,v)からx軸方向にa、y軸方向にbだけ平行移動させた位置である。ここで、a、bは映像処理装置10にあらかじめ登録されている任意の値である。映像合成部16は位置(x,y)に影領域64を重畳するが、図12(b)の映像72に示すように額縁37と重なる領域74のみ影領域を描写するものとし、それ以外の領域(73)は描写を行わない。なお、描写する影領域74に透過処理やぼかし処理など、より実際の影に近付け、立体感、奥行き感を得るための映像処理を加えることとしても良い。また、本実施例では、a、bは映像処理装置10にあらかじめ登録されているものとしたが、ユーザが自由に設定できるものとしても良いし、図8に示す影方向取得部41や、図9に示す影方向取得部51から得られる影方向情報を基に決定するものとしても良い。最後に前景領域341を合成し、出力部17に合成した映像65(図10(c))を出力する。
こうして、奥行き情報に基づいて、前景領域と背景領域の間に額やカーテンなどの距離感知覚のための枠オブジェクトを挿入しているので、従来の2次元の表示システムであっても、立体感や奥行き感が高まった映像が表示できる。さらに、前景領域や枠オブジェクト等の影も生成する場合は、さらに、立体感や奥行き感が高まる。特に枠オブジェクトに前景領域の影を生成した場合は、前景領域と枠オブジェクトの奥行き配置がより明確になる効果がある。
<第2の実施の形態>
次に、本発明の第2の実施の形態について説明する。本実施の形態では、入力映像に額縁ではなく壁を合成する点において第1の実施の形態とは異なる。
本発明の第2の実施の形態による映像処理装置は、図1の映像処理装置10と同じである。
本実施の形態による映像処理装置10では、映像処理装置10の距離感知覚オブジェクト生成部14で生成されるオブジェクトが第1の実施の形態に示した額縁37に代えて、前景と背景を隔てるオブジェクトである壁が生成される点を特徴とする。
距離感知覚オブジェクト生成部14は、映像分割部13で決定された前景部領域と背景部領域に基づき、入力映像31に合成する壁を生成する。本実施例では、図5で示すような奥行き情報32が取得されているものとし、前景と背景を分割する閾値Thが奥行き4であるものとし、これに基づき入力映像31を図13(a)に示す前景領域82と、図13(b)に示す背景領域84に分割する。
映像合成部16は、図13(c)に示す映像86に示すように、第1の実施の形態と同様、背景領域84、壁領域87、影領域88、前景領域82の順に重畳し、図14(a)に示す最終的な合成映像91を得る。
本実施例では、映像合成部16は影領域88のうち、壁領域87と重なる部分を描写するものとし、第1の実施の形態と同様、透過処理やぼかし処理など、より実際の影に近付け、立体感、奥行き感を得るための映像処理を加えることとしても良い。また、前景領域内の奥行き情報に応じて、局所的に影領域に加える映像処理を変化させることとしても良い。図14(b)の合成映像92は、図5の奥行き情報に基づき、奥行き情報が1の前景領域に対応する影領域94に対してだけぼかし処理を行い、奥行き情報が1より大きい前景領域に対応する影領域93には映像処理を行わない様子を示した図である。また、図14(c)に示す映像95の例の壁領域87aのように、壁領域は任意の大きさで生成され、この大きさをユーザが決定、または映像処理装置10にあらかじめ設定されているものとする。
本実施例では、前景と背景を隔てる距離感知覚オブジェクトとして壁を例に説明を行ったが、このオブジェクトが壁以外のものでも良いことは言うまでも無い。例えば、電柱などの柱や、木などのオブジェクトを配置しても良い。
こうして、奥行き情報に基づいて、前景領域と背景領域の間に壁や柱などの距離感知覚のためのオブジェクトを挿入しているので、従来の2次元の表示システムであっても、立体感や奥行き感が高まった映像が表示できる。さらに、前景領域やオブジェクト等の影も生成する場合は、さらに、立体感や奥行き感が高まる。特にオブジェクトに前景領域の影を生成した場合は、前景領域とオブジェクトの奥行き配置がより明確になる効果がある。
<第3の実施の形態>
次に、本発明の第3の実施の形態について説明する。本実施の形態では、入力映像を奥行き情報に基づき変形させる点を特徴とする。
本発明の第3の実施の形態によるシステムの一構成例を示す機能ブロック図を図15に示す。
本実施の形態による映像処理装置100では、第1の実施の形態に示した映像処理装置10の各ブロックに加えて、映像変形部101が備えられている点を特徴とする。図15では、図1の各機能部と同等の機能を持つ各機能部には同名の機能部の名称並びに記号を付している。
映像変形部101は、映像分割部13で分割された前景並びに背景を任意の変換法で変形させる。例えば、映像分割部13で入力映像31が図6に示したように前景34と背景36に分割された後、映像変形部101が背景領域36を任意の縮小率aで縮小する。この後、距離感知覚オブジェクトの生成、影の生成、映像合成を行う。図16(a)に示すように、これによって得られた変形後の背景領域112を新たな背景とし、得られた出力映像111は前景と背景の遠近感をより強調した映像となると共に、図10に示した出力画像65では額縁に隠れていた領域も表示することが可能となる。同様に、映像分割部13により分割処理された後、図16(b)の映像113に示すように、映像変形部101が任意の拡大率bで拡大した前景領域114を新たな前景領域とすることで、より遠近感を強調した映像を得ることが出来る。本実施例では、前景または背景のどちらかのみを変形させる例を示したが、両方に変形処理を適用しても良い。また、変形させるための変換方法についても、単純な拡大縮小処理以外の変換方法、例えば、奥行き情報取得部から得られる奥行き情報に基づき、遠近法変換を用いることとしても良い。
なお、図15に示した本実施形態は、図1の映像処理装置10に映像変形部101を加えたものであるが、これに限るものではない。図3、図8、図9の映像処理装置20,40,50に映像変形部101を加えたものであってもよい。
このように、前景領域や背景領域を拡大縮小する映像変形を行うと、より遠近感を強調した映像を得ることができるので、立体感や奥行き感を高めた映像を表示できる。
上述したように、上記各実施の形態に係る映像処理装置の機能は、コンピュータによって実現することができる。その場合、このような機能の処理内容を記述したプログラムが提供され、そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリなどがある。
また、プログラムをサーバコンピュータの記憶装置に格納しておき、そのプログラムを、サーバコンピュータからネットワークを介して他のコンピュータに転送することもできる。プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムまたはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納し、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行することができる。
10,20,40,50,100 映像処理装置
11,21 奥行き情報取得部
12 映像取得部
13 映像分割部
14 距離感知覚オブジェクト生成部
15 影領域生成部
16 映像合成部
17 出力部
41,51 影方向取得部
101 映像変形部

Claims (12)

  1. 入力される映像の立体感、奥行き感を高める映像処理装置であって、
    入力映像を取得する映像取得部と、
    撮影された映像内の各オブジェクトの奥行き情報を取得する奥行き情報取得部と、
    前記入力映像を、前記奥行き情報に基づいて、所定の奥行き位置より手前の映像を前景領域、所定の奥行き位置より奥の映像を背景領域として2つに分割する映像分割部と、
    前記前景領域と、前記背景領域との間の奥行き位置に挿入する、距離感知覚のためのオブジェクトの映像を生成する距離感知覚オブジェクト生成部と、
    前記前景領域の影領域を生成する影領域生成部と、
    前記前景領域、前記背景領域、前記距離感知覚オブジェクト及び前記影領域を奥行き情報に基づいて合成した映像を作成する映像合成部と、
    を備えることを特徴とする映像処理装置。
  2. 前記影領域生成部は、前記前景領域の前記距離感知覚オブジェクト対する影領域を生成することを特徴とする請求項1に記載の映像処理装置。
  3. 影が生じる方向の影方向情報を取得する影方向取得部を備え、
    前記影領域生成部は、前記影方向取得部で取得した影方向情報に基づいて影領域を生成することを特徴とする請求項1又は2に記載の映像処理装置。
  4. 前記前景領域の拡大及び前記背景領域の縮小のうち少なくともいずれか1つの変形をする映像変形部を備え、
    前記影領域生成部は、拡大された前記前景領域に基づいて前景領域の影を生成し、
    前記映像合成部は、前記前景領域が拡大された場合は、拡大前衛領域と、その拡大前景領域の影領域を用いることを特徴とする請求項1、2又は3に記載の映像処理装置。
  5. 前記距離感知覚オブジェクト生成部で生成されるオブジェクトは、枠オブジェクトであることを特徴とする請求項1乃至4に記載の映像処理装置。
  6. 前記距離感知覚オブジェクト生成部で生成されるオブジェクトは、壁オブジェクトであることを特徴とする請求項1乃至5のいずれかに記載の映像処理装置。
  7. 入力される映像は、動画像または静止画像であることを特徴とする請求項1乃至6のいずれかに記載の映像処理装置。
  8. 入力される映像の立体感、奥行き感を高める映像処理方法であって、
    入力映像を取得する映像取得ステップと、
    撮影された映像内の各オブジェクトの奥行き情報を取得する奥行き情報取得ステップと、
    前記入力映像を、前記奥行き情報に基づいて、所定の奥行き位置より手前の映像を前景領域、所定の奥行き位置より奥の映像を背景領域として2つに分割する映像分割ステップと、
    前記前景領域と、前記背景領域との間の奥行き位置に挿入する、距離感知覚のためのオブジェクトの映像を生成する距離感知覚オブジェクト生成ステップと、
    前記前景領域の影領域を生成する影領域生成ステップと、
    前記前景領域、前記背景領域、前記距離感知覚オブジェクト及び前記影領域を奥行き情報に基づいて合成した映像を作成する映像合成ステップと、
    を備えることを特徴とする映像処理方法。
  9. 前記影領域生成ステップでは、前記前景領域の前記距離感知覚オブジェクト対する影領域を生成することを特徴とする請求項8に記載の映像処理装置。
  10. 影が生じる方向の影方向情報を取得する影方向所得ステップを備え、
    前記影領域生成ステップは、前記影方向取得ステップで取得した影方向情報に基づいて影領域を生成することを特徴とする請求項8又は9に記載の映像処理方法。
  11. 前記前景領域の拡大及び前記背景領域の縮小のうち少なくともいずれか1つの変形をする映像変形ステップを備え、
    前記影領域生成ステップは、拡大された前記前景領域に基づいて前景領域の影を生成し、
    前記映像合成ステップは、前記前景領域が拡大された場合は、拡大前衛領域と、その拡大前景領域の影領域を用いることを特徴とする請求項8、9又は10に記載の映像処理方法。
  12. 請求項8乃至11のいずれかに記載の映像処理方法をコンピュータに実行させるためのプログラム。
JP2009047795A 2009-03-02 2009-03-02 映像処理装置、映像処理方法及びそれをコンピュータに実行させるためのプログラム Expired - Fee Related JP4963124B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009047795A JP4963124B2 (ja) 2009-03-02 2009-03-02 映像処理装置、映像処理方法及びそれをコンピュータに実行させるためのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009047795A JP4963124B2 (ja) 2009-03-02 2009-03-02 映像処理装置、映像処理方法及びそれをコンピュータに実行させるためのプログラム

Publications (2)

Publication Number Publication Date
JP2010206362A true JP2010206362A (ja) 2010-09-16
JP4963124B2 JP4963124B2 (ja) 2012-06-27

Family

ID=42967432

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009047795A Expired - Fee Related JP4963124B2 (ja) 2009-03-02 2009-03-02 映像処理装置、映像処理方法及びそれをコンピュータに実行させるためのプログラム

Country Status (1)

Country Link
JP (1) JP4963124B2 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012070305A (ja) * 2010-09-27 2012-04-05 Toshiba Corp 画像処理装置
WO2012096332A1 (ja) * 2011-01-14 2012-07-19 シャープ株式会社 立体画像処理装置、立体画像処理方法およびプログラム
JP2012168642A (ja) * 2011-02-10 2012-09-06 Ntt Docomo Inc オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム
JP2012215852A (ja) * 2011-03-25 2012-11-08 Semiconductor Energy Lab Co Ltd 画像処理方法、表示装置
WO2012153475A1 (ja) * 2011-05-11 2012-11-15 パナソニック株式会社 描画合成装置
WO2013011608A1 (ja) * 2011-07-19 2013-01-24 パナソニック株式会社 画像符号化装置とその集積回路、および画像符号化方法
JP2013070266A (ja) * 2011-09-22 2013-04-18 Toshiba Corp 画像処理装置、画像処理方法および画像処理プログラム
JP2013157671A (ja) * 2012-01-26 2013-08-15 Sony Corp 画像処理装置、画像処理方法、プログラム、端末装置及び画像処理システム
JP2014042238A (ja) * 2012-08-23 2014-03-06 Stmicroelectronics (Canada) Inc 3dビジュアルコンテントのデプスベースイメージスケーリング用の装置及び方法
KR101671739B1 (ko) * 2015-05-27 2016-11-02 연세대학교 산학협력단 가상 프레임을 이용한 2차원 영상의 입체 효과 생성 장치 및 그 방법
US20170061677A1 (en) * 2015-08-25 2017-03-02 Samsung Electronics Co., Ltd. Disparate scaling based image processing device, method of image processing, and electronic system including the same
JP2018010223A (ja) * 2016-07-15 2018-01-18 オムロン株式会社 光デバイス及び立体表示方法
CN115334296A (zh) * 2022-07-01 2022-11-11 深圳市安博斯技术有限公司 一种立体图像显示方法和显示装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7010122B2 (ja) * 2018-04-11 2022-01-26 日本電信電話株式会社 映像生成装置、映像生成方法、およびプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11259682A (ja) * 1997-10-22 1999-09-24 Sony Corp 画像処理装置および方法、並びに提供媒体
JP2000512833A (ja) * 1997-04-18 2000-09-26 エイ・ティ・アンド・ティ・コーポレーション 単眼視キューの統合による奥行き知覚の改善
JP2004145448A (ja) * 2002-10-22 2004-05-20 Toshiba Corp 端末装置、サーバ装置および画像加工方法
JP2004297766A (ja) * 2003-03-11 2004-10-21 Japan Science & Technology Agency 共存在空間コミュニケーションシステム
JP2007110360A (ja) * 2005-10-13 2007-04-26 Ntt Comware Corp 立体画像処理装置およびプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000512833A (ja) * 1997-04-18 2000-09-26 エイ・ティ・アンド・ティ・コーポレーション 単眼視キューの統合による奥行き知覚の改善
JPH11259682A (ja) * 1997-10-22 1999-09-24 Sony Corp 画像処理装置および方法、並びに提供媒体
JP2004145448A (ja) * 2002-10-22 2004-05-20 Toshiba Corp 端末装置、サーバ装置および画像加工方法
JP2004297766A (ja) * 2003-03-11 2004-10-21 Japan Science & Technology Agency 共存在空間コミュニケーションシステム
JP2007110360A (ja) * 2005-10-13 2007-04-26 Ntt Comware Corp 立体画像処理装置およびプログラム

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012070305A (ja) * 2010-09-27 2012-04-05 Toshiba Corp 画像処理装置
US9143755B2 (en) 2010-09-27 2015-09-22 Kabushiki Kaisha Toshiba Image processing device
WO2012096332A1 (ja) * 2011-01-14 2012-07-19 シャープ株式会社 立体画像処理装置、立体画像処理方法およびプログラム
JP2012147399A (ja) * 2011-01-14 2012-08-02 Sharp Corp 立体画像処理装置、立体画像処理方法およびプログラム
CN103314597A (zh) * 2011-01-14 2013-09-18 夏普株式会社 立体图像处理装置、立体图像处理方法以及程序
JP2012168642A (ja) * 2011-02-10 2012-09-06 Ntt Docomo Inc オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム
JP2012215852A (ja) * 2011-03-25 2012-11-08 Semiconductor Energy Lab Co Ltd 画像処理方法、表示装置
US10484660B2 (en) 2011-03-25 2019-11-19 Semiconductor Energy Laboratory Co., Ltd. Image processing method and display device
US10051255B2 (en) 2011-03-25 2018-08-14 Semiconductor Energy Laboratory Co., Ltd. Image processing method and display device
JP2017033577A (ja) * 2011-03-25 2017-02-09 株式会社半導体エネルギー研究所 画像処理方法
US9313479B2 (en) 2011-03-25 2016-04-12 Semiconductor Energy Laboratory Co., Ltd. Image processing method and display device
WO2012153475A1 (ja) * 2011-05-11 2012-11-15 パナソニック株式会社 描画合成装置
US9076267B2 (en) 2011-07-19 2015-07-07 Panasonic Intellectual Property Corporation Of America Image coding device, integrated circuit thereof, and image coding method
JPWO2013011608A1 (ja) * 2011-07-19 2015-02-23 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 画像符号化装置とその集積回路、および画像符号化方法
WO2013011608A1 (ja) * 2011-07-19 2013-01-24 パナソニック株式会社 画像符号化装置とその集積回路、および画像符号化方法
JP2013070266A (ja) * 2011-09-22 2013-04-18 Toshiba Corp 画像処理装置、画像処理方法および画像処理プログラム
US9317957B2 (en) 2012-01-26 2016-04-19 Sony Corporation Enhancement of stereoscopic effect of an image through use of modified depth information
JP2013157671A (ja) * 2012-01-26 2013-08-15 Sony Corp 画像処理装置、画像処理方法、プログラム、端末装置及び画像処理システム
JP2014042238A (ja) * 2012-08-23 2014-03-06 Stmicroelectronics (Canada) Inc 3dビジュアルコンテントのデプスベースイメージスケーリング用の装置及び方法
US9838669B2 (en) 2012-08-23 2017-12-05 Stmicroelectronics (Canada), Inc. Apparatus and method for depth-based image scaling of 3D visual content
KR101671739B1 (ko) * 2015-05-27 2016-11-02 연세대학교 산학협력단 가상 프레임을 이용한 2차원 영상의 입체 효과 생성 장치 및 그 방법
US20170061677A1 (en) * 2015-08-25 2017-03-02 Samsung Electronics Co., Ltd. Disparate scaling based image processing device, method of image processing, and electronic system including the same
JP2018010223A (ja) * 2016-07-15 2018-01-18 オムロン株式会社 光デバイス及び立体表示方法
US10895759B2 (en) 2016-07-15 2021-01-19 Omron Corporation Optical device and method of three-dimensional display
CN115334296A (zh) * 2022-07-01 2022-11-11 深圳市安博斯技术有限公司 一种立体图像显示方法和显示装置

Also Published As

Publication number Publication date
JP4963124B2 (ja) 2012-06-27

Similar Documents

Publication Publication Date Title
JP4963124B2 (ja) 映像処理装置、映像処理方法及びそれをコンピュータに実行させるためのプログラム
JP4903240B2 (ja) 映像処理装置、映像処理方法及びコンピュータプログラム
JP5654138B2 (ja) 3dヒューマンマシンインターフェースのためのハイブリッドリアリティ
EP2299726B1 (en) Video communication method, apparatus and system
KR101185870B1 (ko) 3d 입체 영상 처리 장치 및 방법
KR101385514B1 (ko) 깊이 맵 정보를 이용한 입체 영상 변환 방법 및 장치
JP5763184B2 (ja) 3次元画像に対する視差の算出
TWI523488B (zh) 處理包含在信號中的視差資訊之方法
JP5521913B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
TWI428007B (zh) 視訊處理裝置及方法
JP2010273333A5 (ja)
JP5755571B2 (ja) 仮想視点画像生成装置、仮想視点画像生成方法、制御プログラム、記録媒体、および立体表示装置
JP2012120057A (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP6033625B2 (ja) 多視点画像生成装置、画像生成方法、表示装置、プログラム、及び、記録媒体
JP4214529B2 (ja) 奥行き信号生成装置、奥行き信号生成プログラム、擬似立体画像生成装置、及び擬似立体画像生成プログラム
TW201249175A (en) Method and system for utilizing depth information as an enhancement layer
JP2007312407A (ja) 立体画像表示装置およびその方法
KR19990057669A (ko) 가상 스테레오 영상을 이용한 2차원 연속 영상의 3차원 영상 변환 장치 및 방법
KR101028342B1 (ko) 2차원 플래시 애니메이션을 입체 3차원 플래시 애니메이션으로 변환하는 방법
JP3091644B2 (ja) 2次元画像の3次元化方法
JP4815004B2 (ja) 多視点画像符号化装置
JP7011728B2 (ja) 画像データ出力装置、コンテンツ作成装置、コンテンツ再生装置、画像データ出力方法、コンテンツ作成方法、およびコンテンツ再生方法
JP2011176822A (ja) 画像処理装置、立体表示装置及び画像処理方法
JP2012142800A (ja) 画像処理装置及び画像処理方法、並びにコンピューター・プログラム
JP2011119926A (ja) 映像処理装置、映像処理方法及びコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111007

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120131

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20120208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120321

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120321

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150406

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees