JP4963124B2 - Video processing apparatus, video processing method, and program for causing computer to execute the same - Google Patents
Video processing apparatus, video processing method, and program for causing computer to execute the same Download PDFInfo
- Publication number
- JP4963124B2 JP4963124B2 JP2009047795A JP2009047795A JP4963124B2 JP 4963124 B2 JP4963124 B2 JP 4963124B2 JP 2009047795 A JP2009047795 A JP 2009047795A JP 2009047795 A JP2009047795 A JP 2009047795A JP 4963124 B2 JP4963124 B2 JP 4963124B2
- Authority
- JP
- Japan
- Prior art keywords
- video
- area
- shadow
- foreground
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、入力映像に対し立体感や奥行き感を高める処理を行う映像処理装置、映像処理方法及びそれをコンピュータに実行させるためのプログラムに関する。 The present invention relates to a video processing apparatus, a video processing method, and a program for causing a computer to execute a process for enhancing stereoscopic effect and depth feeling on an input video.
テレビなどの平面画像では、動画像、静止画像をより高品位・高画質に見せるために映像の立体感や奥行き感を高める様々な手法が提案されている。例えば、立体感を高める方法として用いられている両眼視差を利用した立体視では、左右の目それぞれに視差を持つ異なった画像を送ることで、錯覚を起こさせ、立体感、奥行き感を感じさせる。左右の目それぞれに異なる画像を送る為には、例えば特許文献1に示すように左目用画像と右目用画像を交互に表示するディスプレイの周波数に同期して、左右のシャッタを切り替えて光路を遮断する眼鏡を用いた方式や、視差をもつ左右2枚のRGB画像を赤色画像と青色画像に変換し、その2枚を重畳した画像を赤と青の眼鏡を通して見るアナグリフ方式、特許文献2に示すように、一つのディスプレイ上で左右の視差画像各々を異なる偏光で出力し、偏光眼鏡を用いる偏光眼鏡方式などが上げられる。
For flat images such as televisions, various methods have been proposed for enhancing the three-dimensionality and depth of video in order to make moving images and still images appear with higher quality and higher image quality. For example, in stereoscopic viewing using binocular parallax, which is used as a method to enhance stereoscopic effect, send different images with parallax to the left and right eyes, creating an illusion and feeling a sense of depth and depth. Let In order to send different images to the left and right eyes, for example, as shown in
他方、絵画の世界では、遠近法、陰影法、前進色と後退色の組み合わせなどの絵画的テクニックを利用して立体感や奥行き感を高めることが行われている。トリックアート(トロンプ・ルイユとも呼ばれる)はこれら手法を利用して作成される絵画作品であり、平面作品にオブジェクトを描き、前述の手法を駆使して該オブジェクトとの適切な重畳関係を描写することで、二次元に描いた絵の一部が現実世界の三次元空間に飛び出しているように錯覚させることで、立体感を高めることが出来る。例えば、絵の中に描写されている額縁から絵の一部をはみ出させ、適切な陰影描写を行うことで、はみ出した部分がまるで絵から飛び出しているかのように見せる作品などが良く知られている。 On the other hand, in the world of painting, three-dimensionality and depth are enhanced by using painting techniques such as perspective, shading, and a combination of forward and backward colors. Trick art (also known as Tromp-Rouille) is a painting created using these methods. Draw an object on a two-dimensional work and use the method described above to describe the appropriate superposition relationship with the object. So, by making the illusion that a part of the picture drawn in two dimensions protrudes into the three-dimensional space of the real world, the three-dimensional effect can be enhanced. For example, works that make a part of the picture protrude from the picture frame depicted in the picture and make the shadow appear as if it protrudes from the picture are shown well. Yes.
上記特許文献に示されるような、立体感や奥行き感を強調するシステムでは、特殊なフィルタや眼鏡などを必要とするため、現行の2次元対応の表示システム(ディスプレイ)を置き換える必要があった。また、上記特許文献に記されるような技術で作成された映像を視聴する場合、視聴者は特殊な眼鏡の装着を義務付けられるなど、視聴方法を著しく制限するものであった。 In a system that emphasizes a three-dimensional effect or a depth sensation as shown in the above-mentioned patent document, a special filter, glasses, and the like are required. Therefore, the current two-dimensional display system (display) has to be replaced. Further, when viewing a video created by the technique described in the above-mentioned patent document, the viewer is required to wear special glasses, and the viewing method is significantly limited.
本発明は、上記の問題を鑑み、従来の2次元対応の表示システムを変更することなく、映像中の各オブジェクトの奥行き情報に基づく映像処理を行うことで、視聴者に負担や制限を強いることなく、映像に対して知覚する立体感や奥行き感を向上させる技術を提供することを目的とする。 In view of the above problems, the present invention imposes a burden on or restrictions on a viewer by performing video processing based on depth information of each object in a video without changing a conventional two-dimensional display system. The purpose is to provide a technique for improving the perceived stereoscopic and depth perception of video.
本発明は、入力される映像の立体感、奥行き感を高める映像処理装置であって、
入力映像を取得する映像取得部と、撮影された映像内の各オブジェクトの奥行き情報を取得する奥行き情報取得部と、前記入力映像を、前記奥行き情報に基づいて、所定の奥行き位置より手前の映像を前景領域、所定の奥行き位置より奥の映像を背景領域として2つに分割する映像分割部と、前記前景領域と、前記背景領域との間の奥行き位置に挿入する、距離感知覚のためのオブジェクトの映像を生成する距離感知覚オブジェクト生成部と、前記前景領域の影領域を生成する影領域生成部と、前記前景領域、前記背景領域、前記距離感知覚オブジェクト及び前記影領域を奥行き情報に基づいて合成した映像を作成する映像合成部と、を備え、前記映像合成部は、前記距離感知覚オブジェクトと重なる領域のみに前記影領域を合成し、前記影領域生成部は、影領域の位置座標を、前景領域の位置座標のx軸、y軸に、予め設定した値を加えて求めることを特徴とする。
The present invention is a video processing device that enhances the three-dimensionality and depth of an input video,
A video acquisition unit that acquires an input video, a depth information acquisition unit that acquires depth information of each object in the captured video, and a video in front of a predetermined depth position based on the depth information. Is inserted into a foreground area, a video dividing unit that divides an image deeper than a predetermined depth position into two as a background area, and a depth position between the foreground area and the background area. A depth perception object generation unit that generates a video of an object, a shadow region generation unit that generates a shadow region of the foreground region, the depth information including the foreground region, the background region, the distance perception object, and the shadow region. comprising a video synthesizing unit for creating an image synthesized on the basis, wherein the image combining unit to the shadow area synthesized only in a region overlapping with the sense of distance perception objects, the shadow Frequency creating unit, the position coordinates of the shadow area, x-axis coordinates of the foreground area, the y-axis, and obtains by adding a preset value.
また、前記映像処理装置において、前記映像合成部は、前記前景領域の奥行き情報に応じて、前記影領域に加える映像処理を変化させることを特徴とする。
ここで、前記映像処理は、透過処理あるいはぼかし処理である。
In the video processing apparatus, the video composition unit may change video processing applied to the shadow area according to depth information of the foreground area .
Here, the video processing is transmission processing or blurring processing.
また、前記映像処理装置において、前記前景領域の拡大変形をしあるいは変形せず、且つ前記背景領域の縮小変形をする映像変形部を備え、前記影領域生成部は、前記映像変形部の処理後の拡大された前記前景領域に基づいて前景領域の影を生成することを特徴とする。 Further, in the image processing apparatus, without increasing deformation of or deformation of the foreground area, and includes an image deformation unit for a reduced deformation of the background area, the shadow area generation unit, after the processing of the image deforming unit and generating the shadow of the foreground area based on expanded the foreground regions of.
また、本発明は、入力される映像の立体感、奥行き感を高める映像処理方法であって、
入力映像を取得する映像取得ステップと、撮影された映像内の各オブジェクトの奥行き情報を取得する奥行き情報取得ステップと、前記入力映像を、前記奥行き情報に基づいて、所定の奥行き位置より手前の映像を前景領域、所定の奥行き位置より奥の映像を背景領域として2つに分割する映像分割ステップと、前記前景領域と、前記背景領域との間の奥行き位置に挿入する、距離感知覚のためのオブジェクトの映像を生成する距離感知覚オブジェクト生成ステップと、前記前景領域の影領域を生成する影領域生成ステップと、前記前景領域、前記背景領域、前記距離感知覚オブジェクト及び前記影領域を奥行き情報に基づいて合成した映像を作成する映像合成ステップと、を備え、前記映像合成ステップは、前記距離感知覚オブジェクトと重なる領域のみに前記影領域を合成し、前記影領域生成ステップでは、影領域の位置座標を、前景領域の位置座標のx軸、y軸に、予め設定した値を加えて求めることを特徴とする。
In addition, the present invention is a video processing method for enhancing the stereoscopic effect and depth feeling of an input video,
A video acquisition step for acquiring an input video, a depth information acquisition step for acquiring depth information of each object in the captured video, and a video in front of a predetermined depth position based on the depth information. A foreground region, a video dividing step of dividing an image deeper than a predetermined depth position into two as a background region, and a depth position between the foreground region and the background region, for distance perception A depth perception object generation step for generating a video of an object, a shadow region generation step for generating a shadow region of the foreground region, and the foreground region, the background region, the distance perception object, and the shadow region as depth information. A video compositing step for creating a composite video based on the distance perception object, A region only combining the shadow area, in the shadow region generating step, the position coordinates of the shadow area, x-axis coordinates of the foreground area, the y-axis, and characterized by obtaining by adding a preset value To do.
また、前記映像処理方法において、前記映像合成ステップでは、前記前景領域の奥行き情報に応じて、前記影領域に加える映像処理を変化させることを特徴とする。 In the video processing method, in the video composition step, video processing applied to the shadow area is changed according to depth information of the foreground area .
また、前記映像処理方法において、前記前景領域の拡大変形をしあるいは変形せず、且つ前記背景領域の縮小変形をする映像変形ステップを備え、前記影領域生成ステップは、前記映像変形部の処理後の前記前景領域に基づいて前景領域の影を生成することを特徴とする。 The image processing method may further include an image transformation step for enlarging or deforming the foreground area and for reducing or deforming the background area , and the shadow area generation step is performed after the processing of the image transformation unit. and generating the shadow of the foreground area based of the foreground region.
また、本発明は、前記映像処理方法の各ステップをコンピュータに実行させるためのプログラムであってもよい。 Further, the present invention may be a program for causing a computer to execute each step of the video processing method.
本発明の映像処理装置によれば、奥行き情報に基づいて、前景領域と背景領域の間に額やカーテンなどの距離感知覚のためのオブジェクトを挿入しているので、特殊な表示システムや特殊な眼鏡の装着などを必要とせず、映像処理のみによって立体感、奥行き感の強調を施した映像を取得することができる。また、前景領域や枠オブジェクト等の影を生成するので、さらに、立体感や奥行き感を強調した映像を取得できる。 According to the video processing apparatus of the present invention, since a distance perception object such as a forehead or a curtain is inserted between the foreground area and the background area based on the depth information, a special display system or a special It is possible to acquire an image with a three-dimensional effect and a depth feeling enhanced only by image processing without requiring wearing glasses. In addition, since shadows such as foreground areas and frame objects are generated, it is possible to acquire a video that further enhances the stereoscopic effect and the depth effect.
さらに、前景領域や背景領域を拡大縮小する映像変形を行うと、より遠近感を強調した映像を得ることができるので、立体感や奥行き感を高めた映像が取得できる。 Furthermore, if the video transformation is performed to enlarge or reduce the foreground area or the background area, it is possible to obtain a video that emphasizes perspective, and thus it is possible to acquire a video with enhanced stereoscopic effect and depth.
図面を参照しながら、本発明の各実施の形態による映像処理装置について説明を行う。 An image processing apparatus according to each embodiment of the present invention will be described with reference to the drawings.
<第1の実施の形態>
図1は、本発明の第1の実施の形態による映像処理装置の一構成例を示す機能ブロック図である。
図1に示すように、本実施形態による映像処理装置10は、奥行き情報を取得する奥行き情報取得部11と、入力映像を取得する映像取得部12と、奥行き情報取得部11で得られた奥行き情報を基に映像取得部12から得た映像を分割する映像分割部13と、分割された映像に合わせて映像内に擬似的な平面を定義するオブジェクトを生成する距離感知覚オブジェクト生成部14と、影領域を生成する影領域生成部15と、これら生成された距離感知覚オブジェクト、影並びに分割された映像を合成し、立体感、奥行き感を強調した映像を出力部17に出力する映像合成部16と、を含んで構成される。
<First Embodiment>
FIG. 1 is a functional block diagram showing a configuration example of a video processing apparatus according to the first embodiment of the present invention.
As shown in FIG. 1, the
図2は映像処理装置10における動作の流れを示すフローチャート図である。処理が開始されると(開始)、映像取得部12が入力映像を取得する(ステップS1)。次に奥行き情報取得部11が入力映像に対応する奥行き情報を取得し(ステップS2)、距離感知覚オブジェクトを配置する位置を決定する(ステップS3)。本実施例では、奥行き情報は入力映像とともに外部から取得するものとしている。映像分割部13は、決定された距離感知覚オブジェクト配置位置に基づき入力映像を距離感知覚オブジェクトの前に配置する部分(前景)と、距離感知覚オブジェクトの後ろに配置する部分(背景)に分割する(ステップS4)。距離感知覚オブジェクト生成部14が、分割後の映像に合わせて合成する距離感知覚オブジェクトを生成する(ステップS5)。一方、影領域生成部15が、距離感知覚オブジェクトに掛かる影を分割後の入力映像の前景部分から作成する(ステップS6)。最後に、映像合成部16が、これら分割された入力映像、距離感知覚オブジェクト、影を合成の後出力し(ステップS7)、処理を終了する(終了)。
FIG. 2 is a flowchart showing an operation flow in the
上記フローチャートでは、ステップS2において、奥行き情報を入力映像とともに外部から取得するものとして説明を行ったが、入力映像から奥行き情報を計算する形としても良い。たとえば、図3に示す映像処理装置20のように、奥行き情報取得部21を設け、映像取得部12で取得した入力映像から奥行き情報を計算して取得するような形としても良い。なお、図1、図3中の各部のうち、同じ記号で示されるブロックは同一の機能をもつものとする。
In the flowchart described above, the depth information is acquired from the outside together with the input video in step S2, but the depth information may be calculated from the input video. For example, like the
以下に、本実施の形態による映像処理装置10の各構成部について、さらに詳細に説明する。
Hereinafter, each component of the
(奥行き情報取得部11の説明)
まず、奥行き情報取得部11について説明を行う。映像処理装置10は、映像取得部12から得られる入力画像に対応した奥行き情報を取得する奥行き情報取得部11を有する。ここで、奥行き情報とは、入力映像に映っている各オブジェクト(例えば、人、車、木、壁など)と、撮影者(カメラ)との距離を示す情報である。本実施例では、奥行き情報は撮影時に取得され、映像処理装置10に送信されるものとする。撮影時の奥行き情報取得方法としては、たとえばステレオ法を応用し、位置をずらした2つのカメラで同一オブジェクトを撮影した際の撮像面での位置のずれを基に距離を求めることとしても良いし、カメラに備えられた赤外線照射装置からオブジェクトに照射された赤外線の反射光の強弱を測定することで取得するものとしても良い。
(Description of depth information acquisition unit 11)
First, the depth information acquisition unit 11 will be described. The
本実施形態では、奥行き情報は撮影時に入力映像とは別に取得されるものとしているが、本実施例の変形例として、奥行き情報を図3に示すように入力映像から計算するものとしてもよい。入力映像からの奥行き情報の計算には、たとえば、特開平9−161074号公報に示される技術を用いる。また、入力映像がなんらかの方式で符号化されている場合、その符号化情報から奥行き情報を作成しても良い。例えばMPEG(Moving Picture Experts Group)によって作られた標準動画規格の一つであるMPEG−4(Moving Picture Expert Group phase4)では背景や人物などのオブジェクト単位で符号化することが可能である。入力映像が該機能を用いて、背景と人物が別々に符号化されていた場合は、この情報を用いて、「カメラと背景の距離」より「カメラと人物の距離」が近くなるような奥行き情報を作成する。 In this embodiment, the depth information is acquired separately from the input video at the time of shooting. However, as a modification of this embodiment, the depth information may be calculated from the input video as shown in FIG. For example, a technique disclosed in Japanese Patent Laid-Open No. 9-161074 is used to calculate depth information from an input video. Further, when the input video is encoded by some method, depth information may be created from the encoded information. For example, in MPEG-4 (Moving Picture Expert Group phase 4), which is one of the standard moving picture standards created by MPEG (Moving Picture Experts Group), it is possible to encode in units of objects such as backgrounds and persons. If the input video is encoded using this function and the background and the person are encoded separately, this information can be used to make the “camera and person distance” closer than the “camera and background distance”. Create information.
(映像取得部12の説明)
映像取得部12について説明する。映像取得部12は立体感、奥行き感を向上させる映像処理を行う元となる映像を取得する。ここでの映像は、静止画像でも動画像でも良く、何らかの符号化方式、例えばJPEG(Joint Photographic Experts Group)やMPEG−2(Moving Picture Expert Group phase2)などで圧縮されたものであっても、非圧縮のものであっても良い。入力映像が符号化されたものであった場合は、本ブロックで適切に復号(例えばRGB形式やYUV形式)される。以下、本実施例では、復号後の画像について処理を行うものとする。また、本実施例で行われる映像処理については、説明を簡単にするため、静止画または1フレームに対して処理を行うものとして説明を行っているが、入力映像が動画である場合、連続する各フレームに対して同様の処理を行うものとする。
(Description of video acquisition unit 12)
The
(映像分割部13の説明)
次に、映像分割部13について説明する。映像分割部13は、映像取得部12で取得した入力映像を、奥行き情報取得部11で取得した奥行き情報に基づき、距離感知覚オブジェクト生成部14(詳細は後述)で生成する距離感知覚オブジェクトの前に表示する前景と、同距離感知覚オブジェクトの後ろに表示する背景とに分離する。
(Description of video dividing unit 13)
Next, the
ここで図を用いてさらに詳細に説明する。今、図4に示す入力画像31と、図5に示すような入力画像31に対応する奥行き情報を持つ奥行き画像32があったとする。ここで、奥行き画像32は撮影者(カメラ)とオブジェクトの距離を5段階の奥行きとして示しており、奥行き情報表33に示すように距離の近い順に1、2、…、5で示され、入力画像31の各画素に対応して奥行き1〜5のいずれかの値が入っているものとする。ここでは説明の簡単のために、奥行き情報を5段階で示すものとするが、奥行き情報は5段階未満乃至は5段階以上でも良く、もちろん無段階で示すものとしても問題はない。
Here, it demonstrates still in detail using a figure. Assume that there is an
このとき、映像分割部13は閾値Thに基づき、入力映像を前景と背景に分割する。入力画像31の各画素に対応する全ての奥行き情報Depth(n)において、Th>Depth(n)の場合は対応する入力画像31の画素Px(n)を背景として、Th≦Depth(n)の場合は同画素Px(n)を前景とする。この分割判定を示すC言語プログラムを以下に示す。
At this time, the
if(Th>Depth(n)){
Px(n)=背景
}else{
Px(n)=前景
}
if (Th> Depth (n)) {
Px (n) = background} else {
Px (n) = foreground}
ここで、あらかじめ設定されている閾値Thが2であるとすると、最終的に、入力画像31は距離画像32に基づき、図6に示す前景領域34(映像35中の実線で囲まれた白色領域)と背景領域36(映像37中の実線で囲まれた白色領域)に分割される。
Here, if the preset threshold Th is 2, finally, the
本実施例では、閾値Thは予め映像処理装置10に記録されている値として説明を行ったが、映像処理装置10を使用するユーザが自由に設定できる値としても良い。また、閾値Thを計算で求めても良い。たとえば、下記式1は、奥行き画像32に基づき、その距離の平均を閾値Thとする例である。
In the present embodiment, the threshold value Th is described as a value recorded in advance in the
Th=(ΣDepth(n))/n(但し、n=0、1、2、…、i) …(式1) Th = (ΣDepth (n)) / n (where n = 0, 1, 2,..., I) (Equation 1)
(距離感知覚オブジェクト生成部14の説明)
距離感知覚オブジェクト生成部14について説明を行う。距離感知覚オブジェクト生成部14は、映像分割部A4で決定された前景部領域と背景部領域に基づき、入力映像に合成する距離感知覚オブジェクトを生成する。ここで距離感知覚オブジェクトとは、入力映像中の前景と背景との間の奥行き位置に挿入することで前景または背景との相対的な距離感を与え、視聴者に立体感、奥行き感を知覚させるためのオブジェクトである。ここでいう挿入する奥行き位置とは、前述の奥行き情報の閾値とした位置をいう。本実施例では、図7に示すように、距離感知覚オブジェクトとして、映像の外周を囲う枠オブジェクトである額縁37を生成する。ここでは、額縁の形状、色などはあらかじめ映像処理装置10で決定されているものとするが、ユーザが任意の形状、色の額縁を登録できるようにし、これを合成することとしても良い。
(Description of Distance Perception Object Generation Unit 14)
The distance perception
また、本実施例では、生成される額縁37を立体的に見せるための額縁37自身の陰影についても、あらかじめ決められているものとするが、これは入力から得られる情報に基づいて入力映像内での前衛領域の陰影と合わせることで、より一体感の増す額縁を生成することができる。たとえば、図8に示すように、映像処理装置10の変形例である映像処理装置40は、影方向取得部41を備えることによって、距離感知覚オブジェクト生成部14と影領域生成部15(後述)において、該ブロックから得た影の方向に基づき、入力画像と同じ方向の陰影を構築することが可能である。ここでの影方向取得部41への入力は、例えば、撮影時の照明条件から導き出した、各オブジェクトの影の方向である。
Further, in this embodiment, the shadow of the
また、影の方向が入力画像から推定可能である場合、図9に示すように、映像処理装置20の変形例である映像処理映像処理装置50は、映像取得部12から得られた入力画像から計算によって影の方向を求める影方向取得部51を設けることによって、影の方向を得ることができる。勿論影の方向をユーザが指定する形とすることで、ユーザの好みの方向に陰影をつけることとしても良い。
Further, when the shadow direction can be estimated from the input image, as shown in FIG. 9, the video processing
本実施例では、映像の外周を囲う枠オブジェクトとして額縁を例に説明を行ったが、このオブジェクトが額縁以外のものでも良いことは言うまでも無い。例えば、窓の枠や図10(a)の映像61に示すような折りたたまれたカーテン62などを配置しても良い。 In the present embodiment, the frame object has been described as an example of the frame object that surrounds the outer periphery of the video, but it goes without saying that this object may be other than the frame. For example, a window frame or a folded curtain 62 as shown in the image 61 of FIG.
(影領域生成部15の説明)
次に影領域生成部15について説明を行う。影領域生成部15は、主に映像分割部13で決定された前景部領域から、影領域を生成する。図6に示したような、前景領域34が取得される時、この領域をあらかじめ映像処理装置10に設定されている色で塗りつぶした影領域64(図11参照)を得る。
(Description of the shadow region generation unit 15)
Next, the shadow
(映像合成部16の説明)
最後に映像合成部16について説明する。映像合成部16では図10(b)映像63に示すように、映像分割部13で得られた背景領域36、距離感知覚オブジェクト生成部14で生成された額縁37、影領域生成部15で生成された影64、映像分割部13で得られた前景領域34を順に合成する。まず、背景領域34に額縁37を重畳する。次に影領域64を重畳する。この時、影領域64の重畳する位置(x,y)は、前景オブジェクトの位置(u,v)から相対的に下記式2で求められる。
(Description of video composition unit 16)
Finally, the
x=u+a
y=v+b …(式2)
x = u + a
y = v + b (Formula 2)
これは即ち、図12(a)中の映像71に示すように、影領域64の位置(x,y)は、前景領域34の位置(u,v)からx軸方向にa、y軸方向にbだけ平行移動させた位置である。ここで、a、bは映像処理装置10にあらかじめ登録されている任意の値である。映像合成部16は位置(x,y)に影領域64を重畳するが、図12(b)の映像72に示すように額縁37と重なる領域74のみ影領域を描写するものとし、それ以外の領域(73)は描写を行わない。なお、描写する影領域74に透過処理やぼかし処理など、より実際の影に近付け、立体感、奥行き感を得るための映像処理を加えることとしても良い。また、本実施例では、a、bは映像処理装置10にあらかじめ登録されているものとしたが、ユーザが自由に設定できるものとしても良いし、図8に示す影方向取得部41や、図9に示す影方向取得部51から得られる影方向情報を基に決定するものとしても良い。最後に前景領域34を合成し、出力部17に合成した映像65(図10(c))を出力する。
That is, as shown in the image 71 in FIG. 12A, the position (x, y) of the shadow area 64 is in the a and y axis directions from the position (u, v) of the
こうして、奥行き情報に基づいて、前景領域と背景領域の間に額やカーテンなどの距離感知覚のための枠オブジェクトを挿入しているので、従来の2次元の表示システムであっても、立体感や奥行き感が高まった映像が表示できる。さらに、前景領域や枠オブジェクト等の影も生成する場合は、さらに、立体感や奥行き感が高まる。特に枠オブジェクトに前景領域の影を生成した場合は、前景領域と枠オブジェクトの奥行き配置がより明確になる効果がある。 In this way, since the frame object for perception of distance such as a forehead or a curtain is inserted between the foreground area and the background area based on the depth information, even in a conventional two-dimensional display system, And images with enhanced depth can be displayed. Furthermore, when a shadow such as a foreground region or a frame object is also generated, the stereoscopic effect and the depth effect are further enhanced. In particular, when the shadow of the foreground area is generated in the frame object, there is an effect that the depth arrangement of the foreground area and the frame object becomes clearer.
<第2の実施の形態>
次に、本発明の第2の実施の形態について説明する。本実施の形態では、入力映像に額縁ではなく壁を合成する点において第1の実施の形態とは異なる。
<Second Embodiment>
Next, a second embodiment of the present invention will be described. This embodiment is different from the first embodiment in that a wall is combined with an input video instead of a frame.
本発明の第2の実施の形態による映像処理装置は、図1の映像処理装置10と同じである。
The video processing apparatus according to the second embodiment of the present invention is the same as the
本実施の形態による映像処理装置10では、映像処理装置10の距離感知覚オブジェクト生成部14で生成されるオブジェクトが第1の実施の形態に示した額縁37に代えて、前景と背景を隔てるオブジェクトである壁が生成される点を特徴とする。
In the
距離感知覚オブジェクト生成部14は、映像分割部13で決定された前景部領域と背景部領域に基づき、入力映像31に合成する壁を生成する。本実施例では、図5で示すような奥行き情報32が取得されているものとし、前景と背景を分割する閾値Thが奥行き4であるものとし、これに基づき入力映像31を図13(a)に示す前景領域82と、図13(b)に示す背景領域84に分割する。
The distance perception
映像合成部16は、図13(c)に示す映像86に示すように、第1の実施の形態と同様、背景領域84、壁領域87、影領域88、前景領域82の順に重畳し、図14(a)に示す最終的な合成映像91を得る。
As shown in the video 86 shown in FIG. 13C, the
本実施例では、映像合成部16は影領域88のうち、壁領域87と重なる部分を描写するものとし、第1の実施の形態と同様、透過処理やぼかし処理など、より実際の影に近付け、立体感、奥行き感を得るための映像処理を加えることとしても良い。また、前景領域内の奥行き情報に応じて、局所的に影領域に加える映像処理を変化させることとしても良い。図14(b)の合成映像92は、図5の奥行き情報に基づき、奥行き情報が1の前景領域に対応する影領域94に対してだけぼかし処理を行い、奥行き情報が1より大きい前景領域に対応する影領域93には映像処理を行わない様子を示した図である。また、図14(c)に示す映像95の例の壁領域87aのように、壁領域は任意の大きさで生成され、この大きさをユーザが決定、または映像処理装置10にあらかじめ設定されているものとする。
In the present embodiment, the
本実施例では、前景と背景を隔てる距離感知覚オブジェクトとして壁を例に説明を行ったが、このオブジェクトが壁以外のものでも良いことは言うまでも無い。例えば、電柱などの柱や、木などのオブジェクトを配置しても良い。 In this embodiment, the description has been given by taking the wall as an example of the distance perception object separating the foreground and the background, but it goes without saying that this object may be other than the wall. For example, poles such as utility poles and objects such as trees may be arranged.
こうして、奥行き情報に基づいて、前景領域と背景領域の間に壁や柱などの距離感知覚のためのオブジェクトを挿入しているので、従来の2次元の表示システムであっても、立体感や奥行き感が高まった映像が表示できる。さらに、前景領域やオブジェクト等の影も生成する場合は、さらに、立体感や奥行き感が高まる。特にオブジェクトに前景領域の影を生成した場合は、前景領域とオブジェクトの奥行き配置がより明確になる効果がある。 Thus, since objects for distance perception such as walls and pillars are inserted between the foreground area and the background area based on the depth information, even in a conventional two-dimensional display system, An image with a deep sense of depth can be displayed. Further, when a shadow such as a foreground area or an object is also generated, the stereoscopic effect and the depth effect are further enhanced. In particular, when the shadow of the foreground area is generated on the object, there is an effect that the depth arrangement of the foreground area and the object becomes clearer.
<第3の実施の形態>
次に、本発明の第3の実施の形態について説明する。本実施の形態では、入力映像を奥行き情報に基づき変形させる点を特徴とする。
<Third Embodiment>
Next, a third embodiment of the present invention will be described. The present embodiment is characterized in that the input video is deformed based on the depth information.
本発明の第3の実施の形態によるシステムの一構成例を示す機能ブロック図を図15に示す。 FIG. 15 is a functional block diagram showing a configuration example of a system according to the third embodiment of the present invention.
本実施の形態による映像処理装置100では、第1の実施の形態に示した映像処理装置10の各ブロックに加えて、映像変形部101が備えられている点を特徴とする。図15では、図1の各機能部と同等の機能を持つ各機能部には同名の機能部の名称並びに記号を付している。
The
映像変形部101は、映像分割部13で分割された前景並びに背景を任意の変換法で変形させる。例えば、映像分割部13で入力映像31が図6に示したように前景34と背景36に分割された後、映像変形部101が背景領域36を任意の縮小率aで縮小する。この後、距離感知覚オブジェクトの生成、影の生成、映像合成を行う。図16(a)に示すように、これによって得られた変形後の背景領域112を新たな背景とし、得られた出力映像111は前景と背景の遠近感をより強調した映像となると共に、図10に示した出力画像65では額縁に隠れていた領域も表示することが可能となる。同様に、映像分割部13により分割処理された後、図16(b)の映像113に示すように、映像変形部101が任意の拡大率bで拡大した前景領域114を新たな前景領域とすることで、より遠近感を強調した映像を得ることが出来る。本実施例では、前景または背景のどちらかのみを変形させる例を示したが、両方に変形処理を適用しても良い。また、変形させるための変換方法についても、単純な拡大縮小処理以外の変換方法、例えば、奥行き情報取得部から得られる奥行き情報に基づき、遠近法変換を用いることとしても良い。
The video transformation unit 101 transforms the foreground and background divided by the
なお、図15に示した本実施形態は、図1の映像処理装置10に映像変形部101を加えたものであるが、これに限るものではない。図3、図8、図9の映像処理装置20,40,50に映像変形部101を加えたものであってもよい。
In addition, although this embodiment shown in FIG. 15 adds the image | video deformation | transformation part 101 to the
このように、前景領域や背景領域を拡大縮小する映像変形を行うと、より遠近感を強調した映像を得ることができるので、立体感や奥行き感を高めた映像を表示できる。 As described above, when the video deformation is performed to enlarge or reduce the foreground area or the background area, it is possible to obtain an image in which the perspective is emphasized, and thus it is possible to display an image with enhanced stereoscopic effect and depth.
上述したように、上記各実施の形態に係る映像処理装置の機能は、コンピュータによって実現することができる。その場合、このような機能の処理内容を記述したプログラムが提供され、そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリなどがある。 As described above, the functions of the video processing devices according to the above embodiments can be realized by a computer. In that case, a program describing the processing content of such a function is provided, and the processing function is realized on the computer by executing the program on the computer. The program describing the processing contents can be recorded on a computer-readable recording medium. Examples of the computer-readable recording medium include a magnetic recording device, an optical disk, a magneto-optical recording medium, and a semiconductor memory.
また、プログラムをサーバコンピュータの記憶装置に格納しておき、そのプログラムを、サーバコンピュータからネットワークを介して他のコンピュータに転送することもできる。プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムまたはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納し、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行することができる。 It is also possible to store the program in a storage device of a server computer and transfer the program from the server computer to another computer via a network. The computer that executes the program stores, for example, the program recorded in the portable recording medium or the program transferred from the server computer in its own storage device, reads the program from its own storage device, and performs processing according to the program Can be executed.
10,20,40,50,100 映像処理装置
11,21 奥行き情報取得部
12 映像取得部
13 映像分割部
14 距離感知覚オブジェクト生成部
15 影領域生成部
16 映像合成部
17 出力部
41,51 影方向取得部
101 映像変形部
10, 20, 40, 50, 100
Claims (8)
入力映像を取得する映像取得部と、
撮影された映像内の各オブジェクトの奥行き情報を取得する奥行き情報取得部と、
前記入力映像を、前記奥行き情報に基づいて、所定の奥行き位置より手前の映像を前景領域、所定の奥行き位置より奥の映像を背景領域として2つに分割する映像分割部と、
前記前景領域と、前記背景領域との間の奥行き位置に挿入する、距離感知覚のためのオブジェクトの映像を生成する距離感知覚オブジェクト生成部と、
前記前景領域の影領域を生成する影領域生成部と、
前記前景領域、前記背景領域、前記距離感知覚オブジェクト及び前記影領域を奥行き情報に基づいて、前記距離感値合成した映像を作成する映像合成部と、
を備え、
前記映像合成部は、前記距離感知覚オブジェクトと重なる領域のみに前記影領域を合成し、
前記影領域生成部は、影領域の位置座標を、前景領域の位置座標のx軸、y軸に、予め設定した値を加えて求めることを特徴とする映像処理装置。 A video processing device that enhances the three-dimensionality and depth of the input video,
A video acquisition unit for acquiring the input video;
A depth information acquisition unit that acquires depth information of each object in the captured video;
A video dividing unit that divides the input video into two based on the depth information, with a video in front of a predetermined depth position as a foreground region and a video deeper than the predetermined depth position as a background region;
A distance sensation perception object generating unit that generates an image of an object for distance sensation inserted into a depth position between the foreground region and the background region;
A shadow area generator for generating a shadow area of the foreground area;
A video synthesizing unit that creates a video obtained by synthesizing the distance sensation values based on the depth information of the foreground area, the background area, the distance perception object, and the shadow area;
With
The video composition unit synthesizes the shadow region only in a region overlapping with the distance perception object ,
The image processing apparatus according to claim 1, wherein the shadow area generation unit obtains the position coordinates of the shadow area by adding preset values to the x-axis and y-axis of the position coordinates of the foreground area .
前記影領域生成部は、前記映像変形部の処理後の前記前景領域に基づいて前景領域の影を生成することを特徴とする請求項1から3のいずれかに記載の映像処理装置。 A video deformation unit that performs an enlargement deformation of the foreground region or a deformation of the background region and a reduction deformation of the background region;
The shadow area generation unit, a video processing apparatus according to any one of claims 1 to 3, characterized in that to produce a shadow of the foreground area based on the foreground area after processing of the image deforming unit.
入力映像を取得する映像取得ステップと、
撮影された映像内の各オブジェクトの奥行き情報を取得する奥行き情報取得ステップと、
前記入力映像を、前記奥行き情報に基づいて、所定の奥行き位置より手前の映像を前景領域、所定の奥行き位置より奥の映像を背景領域として2つに分割する映像分割ステップと、
前記前景領域と、前記背景領域との間の奥行き位置に挿入する、距離感知覚のためのオブジェクトの映像を生成する距離感知覚オブジェクト生成ステップと、
前記前景領域の影領域を生成する影領域生成ステップと、
前記前景領域、前記背景領域、前記距離感知覚オブジェクト及び前記影領域を奥行き情報に基づいて合成した映像を作成する映像合成ステップと、
を備え、
前記映像合成ステップは、前記距離感知覚オブジェクトと重なる領域のみに前記影領域を合成し、
前記影領域生成ステップでは、影領域の位置座標を、前景領域の位置座標のx軸、y軸に、予め設定した値を加えて求めることを特徴とする映像処理方法。 A video processing method that enhances the three-dimensionality and depth of the input video,
A video acquisition step for acquiring the input video;
A depth information acquisition step of acquiring depth information of each object in the captured video;
A video dividing step of dividing the input video into two based on the depth information, with a video before a predetermined depth position as a foreground region and a video deeper than the predetermined depth position as a background region;
A distance sensation object generating step for generating an image of an object for distance sensation inserted into a depth position between the foreground region and the background region;
A shadow region generating step for generating a shadow region of the foreground region;
A video synthesis step of creating a video in which the foreground area, the background area, the distance perception object, and the shadow area are synthesized based on depth information;
With
In the video composition step, the shadow area is synthesized only in an area overlapping with the sense of distance object ,
In the shadow area generating step, the position coordinates of the shadow area are obtained by adding preset values to the x-axis and y-axis of the position coordinates of the foreground area .
前記影領域生成ステップは、前記映像変形ステップの処理後の前記前景領域に基づいて前景領域の影を生成することを特徴とする請求項5又は6に記載の映像処理方法。 An image transformation step for performing an enlargement deformation of the foreground region or a deformation of the background region and a reduction deformation of the background region,
The video processing method according to claim 5 or 6 , wherein the shadow region generation step generates a shadow of a foreground region based on the foreground region after the processing of the video transformation step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009047795A JP4963124B2 (en) | 2009-03-02 | 2009-03-02 | Video processing apparatus, video processing method, and program for causing computer to execute the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009047795A JP4963124B2 (en) | 2009-03-02 | 2009-03-02 | Video processing apparatus, video processing method, and program for causing computer to execute the same |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010206362A JP2010206362A (en) | 2010-09-16 |
JP4963124B2 true JP4963124B2 (en) | 2012-06-27 |
Family
ID=42967432
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009047795A Expired - Fee Related JP4963124B2 (en) | 2009-03-02 | 2009-03-02 | Video processing apparatus, video processing method, and program for causing computer to execute the same |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4963124B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11398007B2 (en) * | 2018-04-11 | 2022-07-26 | Nippon Telegraph And Telephone Corporation | Video generation device, video generation method, program, and data structure |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5254297B2 (en) | 2010-09-27 | 2013-08-07 | 株式会社東芝 | Image processing device |
JP5036088B2 (en) * | 2011-01-14 | 2012-09-26 | シャープ株式会社 | Stereoscopic image processing apparatus, stereoscopic image processing method, and program |
JP5377537B2 (en) * | 2011-02-10 | 2013-12-25 | 株式会社エヌ・ティ・ティ・ドコモ | Object display device, object display method, and object display program |
JP2012215852A (en) * | 2011-03-25 | 2012-11-08 | Semiconductor Energy Lab Co Ltd | Image processing method and display device |
WO2012153475A1 (en) * | 2011-05-11 | 2012-11-15 | パナソニック株式会社 | Rendering/compositing device |
US9076267B2 (en) | 2011-07-19 | 2015-07-07 | Panasonic Intellectual Property Corporation Of America | Image coding device, integrated circuit thereof, and image coding method |
JP5711634B2 (en) * | 2011-09-22 | 2015-05-07 | 株式会社東芝 | Image processing apparatus, image processing method, and image processing program |
JP6024110B2 (en) * | 2012-01-26 | 2016-11-09 | ソニー株式会社 | Image processing apparatus, image processing method, program, terminal device, and image processing system |
US9838669B2 (en) | 2012-08-23 | 2017-12-05 | Stmicroelectronics (Canada), Inc. | Apparatus and method for depth-based image scaling of 3D visual content |
KR101671739B1 (en) * | 2015-05-27 | 2016-11-02 | 연세대학교 산학협력단 | Apparatus and Method for Making 3D Effect on 2D Image using Virtual Window Frame |
KR20170024275A (en) * | 2015-08-25 | 2017-03-07 | 삼성전자주식회사 | Image processing apparatus, method of processing image and electronic system including the same |
JP6645371B2 (en) | 2016-07-15 | 2020-02-14 | オムロン株式会社 | Optical device and stereoscopic display method |
CN115334296A (en) * | 2022-07-01 | 2022-11-11 | 深圳市安博斯技术有限公司 | Stereoscopic image display method and display device |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6157733A (en) * | 1997-04-18 | 2000-12-05 | At&T Corp. | Integration of monocular cues to improve depth perception |
JPH11259682A (en) * | 1997-10-22 | 1999-09-24 | Sony Corp | Processor and method for image processing, and providing medium |
JP2004145448A (en) * | 2002-10-22 | 2004-05-20 | Toshiba Corp | Terminal device, server device, and image processing method |
JP3790760B2 (en) * | 2003-03-11 | 2006-06-28 | 独立行政法人科学技術振興機構 | Coexistence space communication system |
JP2007110360A (en) * | 2005-10-13 | 2007-04-26 | Ntt Comware Corp | Stereoscopic image processing apparatus and program |
-
2009
- 2009-03-02 JP JP2009047795A patent/JP4963124B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11398007B2 (en) * | 2018-04-11 | 2022-07-26 | Nippon Telegraph And Telephone Corporation | Video generation device, video generation method, program, and data structure |
Also Published As
Publication number | Publication date |
---|---|
JP2010206362A (en) | 2010-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4963124B2 (en) | Video processing apparatus, video processing method, and program for causing computer to execute the same | |
JP4903240B2 (en) | Video processing apparatus, video processing method, and computer program | |
JP5654138B2 (en) | Hybrid reality for 3D human machine interface | |
TWI523488B (en) | A method of processing parallax information comprised in a signal | |
EP2299726B1 (en) | Video communication method, apparatus and system | |
KR101385514B1 (en) | Method And Apparatus for Transforming Stereoscopic Image by Using Depth Map Information | |
JP5521913B2 (en) | Image processing apparatus, image processing method, and program | |
TWI428007B (en) | Apparatus and method for video processing | |
JP2010063083A (en) | Image processor, image processing method, and program | |
JP5755571B2 (en) | Virtual viewpoint image generation device, virtual viewpoint image generation method, control program, recording medium, and stereoscopic display device | |
WO2014083752A1 (en) | Alternate viewpoint image generating device and alternate viewpoint image generating method | |
JP2012120057A (en) | Image processing device, image processing method, and program | |
JP5521608B2 (en) | Image processing apparatus, image processing method, and program | |
JP6033625B2 (en) | Multi-viewpoint image generation device, image generation method, display device, program, and recording medium | |
JP4214529B2 (en) | Depth signal generation device, depth signal generation program, pseudo stereoscopic image generation device, and pseudo stereoscopic image generation program | |
KR19990057669A (en) | Apparatus and method for three-dimensional image conversion of two-dimensional continuous image using virtual stereo image | |
KR101028342B1 (en) | Converting method of two-dimensional flash animation into stereoscopy three-dimensional flash animation | |
JP5464129B2 (en) | Image processing apparatus and parallax information generating apparatus | |
JP3091644B2 (en) | 3D image conversion method for 2D images | |
JP4815004B2 (en) | Multi-view image encoding device | |
JP7011728B2 (en) | Image data output device, content creation device, content playback device, image data output method, content creation method, and content playback method | |
JP2011176822A (en) | Image processing apparatus, 3d display apparatus, and image processing method | |
JP2011119926A (en) | Video processing apparatus, video processing method and computer program | |
JP2012142800A (en) | Image processing device, image processing method, and computer program | |
JP4419139B2 (en) | Depth signal generation device, depth signal generation program, pseudo stereoscopic image generation device, and pseudo stereoscopic image generation program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110223 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110729 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110809 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111007 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20111101 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120131 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20120208 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120321 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120321 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150406 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |