JP4963124B2 - Video processing apparatus, video processing method, and program for causing computer to execute the same - Google Patents

Video processing apparatus, video processing method, and program for causing computer to execute the same Download PDF

Info

Publication number
JP4963124B2
JP4963124B2 JP2009047795A JP2009047795A JP4963124B2 JP 4963124 B2 JP4963124 B2 JP 4963124B2 JP 2009047795 A JP2009047795 A JP 2009047795A JP 2009047795 A JP2009047795 A JP 2009047795A JP 4963124 B2 JP4963124 B2 JP 4963124B2
Authority
JP
Japan
Prior art keywords
video
area
shadow
foreground
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009047795A
Other languages
Japanese (ja)
Other versions
JP2010206362A (en
Inventor
健明 末永
健一郎 山本
正宏 塩井
郁子 椿
健史 筑波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2009047795A priority Critical patent/JP4963124B2/en
Publication of JP2010206362A publication Critical patent/JP2010206362A/en
Application granted granted Critical
Publication of JP4963124B2 publication Critical patent/JP4963124B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、入力映像に対し立体感や奥行き感を高める処理を行う映像処理装置、映像処理方法及びそれをコンピュータに実行させるためのプログラムに関する。   The present invention relates to a video processing apparatus, a video processing method, and a program for causing a computer to execute a process for enhancing stereoscopic effect and depth feeling on an input video.

テレビなどの平面画像では、動画像、静止画像をより高品位・高画質に見せるために映像の立体感や奥行き感を高める様々な手法が提案されている。例えば、立体感を高める方法として用いられている両眼視差を利用した立体視では、左右の目それぞれに視差を持つ異なった画像を送ることで、錯覚を起こさせ、立体感、奥行き感を感じさせる。左右の目それぞれに異なる画像を送る為には、例えば特許文献1に示すように左目用画像と右目用画像を交互に表示するディスプレイの周波数に同期して、左右のシャッタを切り替えて光路を遮断する眼鏡を用いた方式や、視差をもつ左右2枚のRGB画像を赤色画像と青色画像に変換し、その2枚を重畳した画像を赤と青の眼鏡を通して見るアナグリフ方式、特許文献2に示すように、一つのディスプレイ上で左右の視差画像各々を異なる偏光で出力し、偏光眼鏡を用いる偏光眼鏡方式などが上げられる。   For flat images such as televisions, various methods have been proposed for enhancing the three-dimensionality and depth of video in order to make moving images and still images appear with higher quality and higher image quality. For example, in stereoscopic viewing using binocular parallax, which is used as a method to enhance stereoscopic effect, send different images with parallax to the left and right eyes, creating an illusion and feeling a sense of depth and depth. Let In order to send different images to the left and right eyes, for example, as shown in Patent Document 1, the left and right shutters are switched to synchronize with the frequency of the display that alternately displays the left eye image and the right eye image, thereby blocking the optical path. An anaglyph method in which two right and left RGB images having parallax are converted into a red image and a blue image, and an image obtained by superimposing the two images is viewed through red and blue glasses, as shown in Patent Document 2. As described above, a polarized glasses method using polarized glasses by outputting left and right parallax images with different polarizations on one display can be raised.

他方、絵画の世界では、遠近法、陰影法、前進色と後退色の組み合わせなどの絵画的テクニックを利用して立体感や奥行き感を高めることが行われている。トリックアート(トロンプ・ルイユとも呼ばれる)はこれら手法を利用して作成される絵画作品であり、平面作品にオブジェクトを描き、前述の手法を駆使して該オブジェクトとの適切な重畳関係を描写することで、二次元に描いた絵の一部が現実世界の三次元空間に飛び出しているように錯覚させることで、立体感を高めることが出来る。例えば、絵の中に描写されている額縁から絵の一部をはみ出させ、適切な陰影描写を行うことで、はみ出した部分がまるで絵から飛び出しているかのように見せる作品などが良く知られている。   On the other hand, in the world of painting, three-dimensionality and depth are enhanced by using painting techniques such as perspective, shading, and a combination of forward and backward colors. Trick art (also known as Tromp-Rouille) is a painting created using these methods. Draw an object on a two-dimensional work and use the method described above to describe the appropriate superposition relationship with the object. So, by making the illusion that a part of the picture drawn in two dimensions protrudes into the three-dimensional space of the real world, the three-dimensional effect can be enhanced. For example, works that make a part of the picture protrude from the picture frame depicted in the picture and make the shadow appear as if it protrudes from the picture are shown well. Yes.

特開昭60−7291号公報JP 60-7291 A 特開平1−171390号公報JP-A-1-171390

上記特許文献に示されるような、立体感や奥行き感を強調するシステムでは、特殊なフィルタや眼鏡などを必要とするため、現行の2次元対応の表示システム(ディスプレイ)を置き換える必要があった。また、上記特許文献に記されるような技術で作成された映像を視聴する場合、視聴者は特殊な眼鏡の装着を義務付けられるなど、視聴方法を著しく制限するものであった。   In a system that emphasizes a three-dimensional effect or a depth sensation as shown in the above-mentioned patent document, a special filter, glasses, and the like are required. Therefore, the current two-dimensional display system (display) has to be replaced. Further, when viewing a video created by the technique described in the above-mentioned patent document, the viewer is required to wear special glasses, and the viewing method is significantly limited.

本発明は、上記の問題を鑑み、従来の2次元対応の表示システムを変更することなく、映像中の各オブジェクトの奥行き情報に基づく映像処理を行うことで、視聴者に負担や制限を強いることなく、映像に対して知覚する立体感や奥行き感を向上させる技術を提供することを目的とする。   In view of the above problems, the present invention imposes a burden on or restrictions on a viewer by performing video processing based on depth information of each object in a video without changing a conventional two-dimensional display system. The purpose is to provide a technique for improving the perceived stereoscopic and depth perception of video.

本発明は、入力される映像の立体感、奥行き感を高める映像処理装置であって、
入力映像を取得する映像取得部と、撮影された映像内の各オブジェクトの奥行き情報を取得する奥行き情報取得部と、前記入力映像を、前記奥行き情報に基づいて、所定の奥行き位置より手前の映像を前景領域、所定の奥行き位置より奥の映像を背景領域として2つに分割する映像分割部と、前記前景領域と、前記背景領域との間の奥行き位置に挿入する、距離感知覚のためのオブジェクトの映像を生成する距離感知覚オブジェクト生成部と、前記前景領域の影領域を生成する影領域生成部と、前記前景領域、前記背景領域、前記距離感知覚オブジェクト及び前記影領域を奥行き情報に基づいて合成した映像を作成する映像合成部と、を備え、前記映像合成部は、前記距離感知覚オブジェクトと重なる領域のみに前記影領域を合成し、前記影領域生成部は、影領域の位置座標を、前景領域の位置座標のx軸、y軸に、予め設定した値を加えて求めることを特徴とする。
The present invention is a video processing device that enhances the three-dimensionality and depth of an input video,
A video acquisition unit that acquires an input video, a depth information acquisition unit that acquires depth information of each object in the captured video, and a video in front of a predetermined depth position based on the depth information. Is inserted into a foreground area, a video dividing unit that divides an image deeper than a predetermined depth position into two as a background area, and a depth position between the foreground area and the background area. A depth perception object generation unit that generates a video of an object, a shadow region generation unit that generates a shadow region of the foreground region, the depth information including the foreground region, the background region, the distance perception object, and the shadow region. comprising a video synthesizing unit for creating an image synthesized on the basis, wherein the image combining unit to the shadow area synthesized only in a region overlapping with the sense of distance perception objects, the shadow Frequency creating unit, the position coordinates of the shadow area, x-axis coordinates of the foreground area, the y-axis, and obtains by adding a preset value.

また、前記映像処理装置において、前記映像合成部は、前記前景領域の奥行き情報に応じて、前記影領域に加える映像処理を変化させることを特徴とする。
ここで、前記映像処理は、透過処理あるいはぼかし処理である。
In the video processing apparatus, the video composition unit may change video processing applied to the shadow area according to depth information of the foreground area .
Here, the video processing is transmission processing or blurring processing.

また、前記映像処理装置において、前記前景領域の拡大変形をしあるいは変形せず、且つ前記背景領域の縮小変形をする映像変形部を備え、前記影領域生成部は、前記映像変形部の処理後の拡大された前記前景領域に基づいて前景領域の影を生成することを特徴とする。 Further, in the image processing apparatus, without increasing deformation of or deformation of the foreground area, and includes an image deformation unit for a reduced deformation of the background area, the shadow area generation unit, after the processing of the image deforming unit and generating the shadow of the foreground area based on expanded the foreground regions of.

また、本発明は、入力される映像の立体感、奥行き感を高める映像処理方法であって、
入力映像を取得する映像取得ステップと、撮影された映像内の各オブジェクトの奥行き情報を取得する奥行き情報取得ステップと、前記入力映像を、前記奥行き情報に基づいて、所定の奥行き位置より手前の映像を前景領域、所定の奥行き位置より奥の映像を背景領域として2つに分割する映像分割ステップと、前記前景領域と、前記背景領域との間の奥行き位置に挿入する、距離感知覚のためのオブジェクトの映像を生成する距離感知覚オブジェクト生成ステップと、前記前景領域の影領域を生成する影領域生成ステップと、前記前景領域、前記背景領域、前記距離感知覚オブジェクト及び前記影領域を奥行き情報に基づいて合成した映像を作成する映像合成ステップと、を備え、前記映像合成ステップは、前記距離感知覚オブジェクトと重なる領域のみに前記影領域を合成し、前記影領域生成ステップでは、影領域の位置座標を、前景領域の位置座標のx軸、y軸に、予め設定した値を加えて求めることを特徴とする。
In addition, the present invention is a video processing method for enhancing the stereoscopic effect and depth feeling of an input video,
A video acquisition step for acquiring an input video, a depth information acquisition step for acquiring depth information of each object in the captured video, and a video in front of a predetermined depth position based on the depth information. A foreground region, a video dividing step of dividing an image deeper than a predetermined depth position into two as a background region, and a depth position between the foreground region and the background region, for distance perception A depth perception object generation step for generating a video of an object, a shadow region generation step for generating a shadow region of the foreground region, and the foreground region, the background region, the distance perception object, and the shadow region as depth information. A video compositing step for creating a composite video based on the distance perception object, A region only combining the shadow area, in the shadow region generating step, the position coordinates of the shadow area, x-axis coordinates of the foreground area, the y-axis, and characterized by obtaining by adding a preset value To do.

また、前記映像処理方法において、前記映像合成ステップでは、前記前景領域の奥行き情報に応じて、前記影領域に加える映像処理を変化させることを特徴とする。 In the video processing method, in the video composition step, video processing applied to the shadow area is changed according to depth information of the foreground area .

また、前記映像処理方法において、前記前景領域の拡大変形をしあるいは変形せず、且つ前記背景領域の縮小変形をする映像変形ステップを備え、前記影領域生成ステップは、前記映像変形部の処理後の前記前景領域に基づいて前景領域の影を生成することを特徴とする。 The image processing method may further include an image transformation step for enlarging or deforming the foreground area and for reducing or deforming the background area , and the shadow area generation step is performed after the processing of the image transformation unit. and generating the shadow of the foreground area based of the foreground region.

また、本発明は、前記映像処理方法の各ステップをコンピュータに実行させるためのプログラムであってもよい。 Further, the present invention may be a program for causing a computer to execute each step of the video processing method.

本発明の映像処理装置によれば、奥行き情報に基づいて、前景領域と背景領域の間に額やカーテンなどの距離感知覚のためのオブジェクトを挿入しているので、特殊な表示システムや特殊な眼鏡の装着などを必要とせず、映像処理のみによって立体感、奥行き感の強調を施した映像を取得することができる。また、前景領域や枠オブジェクト等の影を生成するので、さらに、立体感や奥行き感を強調した映像を取得できる。   According to the video processing apparatus of the present invention, since a distance perception object such as a forehead or a curtain is inserted between the foreground area and the background area based on the depth information, a special display system or a special It is possible to acquire an image with a three-dimensional effect and a depth feeling enhanced only by image processing without requiring wearing glasses. In addition, since shadows such as foreground areas and frame objects are generated, it is possible to acquire a video that further enhances the stereoscopic effect and the depth effect.

さらに、前景領域や背景領域を拡大縮小する映像変形を行うと、より遠近感を強調した映像を得ることができるので、立体感や奥行き感を高めた映像が取得できる。   Furthermore, if the video transformation is performed to enlarge or reduce the foreground area or the background area, it is possible to obtain a video that emphasizes perspective, and thus it is possible to acquire a video with enhanced stereoscopic effect and depth.

本発明の第1の実施の形態による映像処理映像処理装置の一構成例を示す機能ブロック図である。It is a functional block diagram which shows the example of 1 structure of the video processing video processing apparatus by the 1st Embodiment of this invention. 図1に示す本発明の第1の実施の形態による映像処理映像処理装置の一構成例の一変形例を示す機能ブロック図である。It is a functional block diagram which shows the modification of the example of 1 structure of the video processing video processing apparatus by the 1st Embodiment of this invention shown in FIG. 映像処理映像処理装置における動作の流れを示すフローチャート図である。It is a flowchart figure which shows the flow of operation | movement in a video processing video processing apparatus. 入力映像を示す図である。It is a figure which shows an input image | video. 入力映像に対応する奥行き画像を示す図である。It is a figure which shows the depth image corresponding to an input image | video. 奥行き情報に基づき分割された前景画像並びに背景画像を示す図である。It is a figure which shows the foreground image and background image which were divided | segmented based on the depth information. 合成する額縁を示した図である。It is the figure which showed the frame to synthesize | combine. 図1に示す本発明の第1の実施の形態による映像処理映像処理装置の一構成例の一変形例を示す機能ブロック図である。It is a functional block diagram which shows the modification of the example of 1 structure of the video processing video processing apparatus by the 1st Embodiment of this invention shown in FIG. 図1に示す本発明の第1の実施の形態による映像処理映像処理装置の一構成例の一変形例を示す機能ブロック図である。It is a functional block diagram which shows the modification of the example of 1 structure of the video processing video processing apparatus by the 1st Embodiment of this invention shown in FIG. 本発明の第1の実施の形態による合成後の出力映像の例を示した図である。It is the figure which showed the example of the output image | video after the synthesis | combination by the 1st Embodiment of this invention. 合成する影領域を示した図である。It is the figure which showed the shadow area | region to synthesize | combine. 影領域の合成手法について説明した図である。It is a figure explaining the synthetic | combination method of the shadow area | region. 本発明の第2の実施の形態による、壁を用いた映像処理の例を示した図である。It is the figure which showed the example of the video processing using the wall by the 2nd Embodiment of this invention. 本発明の第2の実施の形態による合成後の出力映像の例を示した図である。It is the figure which showed the example of the output image | video after a synthesis | combination by the 2nd Embodiment of this invention. 本発明の第3の実施の形態による映像処理映像処理装置の一構成例を示す機能ブロック図である。It is a functional block diagram which shows the example of 1 structure of the video processing video processing apparatus by the 3rd Embodiment of this invention. 本発明の第3の実施の形態による合成後の出力映像の例を示した図である。It is the figure which showed the example of the output image | video after a synthesis | combination by the 3rd Embodiment of this invention.

図面を参照しながら、本発明の各実施の形態による映像処理装置について説明を行う。   An image processing apparatus according to each embodiment of the present invention will be described with reference to the drawings.

<第1の実施の形態>
図1は、本発明の第1の実施の形態による映像処理装置の一構成例を示す機能ブロック図である。
図1に示すように、本実施形態による映像処理装置10は、奥行き情報を取得する奥行き情報取得部11と、入力映像を取得する映像取得部12と、奥行き情報取得部11で得られた奥行き情報を基に映像取得部12から得た映像を分割する映像分割部13と、分割された映像に合わせて映像内に擬似的な平面を定義するオブジェクトを生成する距離感知覚オブジェクト生成部14と、影領域を生成する影領域生成部15と、これら生成された距離感知覚オブジェクト、影並びに分割された映像を合成し、立体感、奥行き感を強調した映像を出力部17に出力する映像合成部16と、を含んで構成される。
<First Embodiment>
FIG. 1 is a functional block diagram showing a configuration example of a video processing apparatus according to the first embodiment of the present invention.
As shown in FIG. 1, the video processing apparatus 10 according to the present embodiment includes a depth information acquisition unit 11 that acquires depth information, a video acquisition unit 12 that acquires input video, and a depth obtained by the depth information acquisition unit 11. A video dividing unit 13 that divides the video obtained from the video acquisition unit 12 based on the information, a distance-sensitive perception object generating unit 14 that generates an object that defines a pseudo plane in the video according to the divided video, and And a shadow region generation unit 15 that generates a shadow region, and the generated distance perception object, the shadow, and the divided video, and outputs a video in which the stereoscopic effect and the depth feeling are emphasized to the output unit 17 Part 16.

図2は映像処理装置10における動作の流れを示すフローチャート図である。処理が開始されると(開始)、映像取得部12が入力映像を取得する(ステップS1)。次に奥行き情報取得部11が入力映像に対応する奥行き情報を取得し(ステップS2)、距離感知覚オブジェクトを配置する位置を決定する(ステップS3)。本実施例では、奥行き情報は入力映像とともに外部から取得するものとしている。映像分割部13は、決定された距離感知覚オブジェクト配置位置に基づき入力映像を距離感知覚オブジェクトの前に配置する部分(前景)と、距離感知覚オブジェクトの後ろに配置する部分(背景)に分割する(ステップS4)。距離感知覚オブジェクト生成部14が、分割後の映像に合わせて合成する距離感知覚オブジェクトを生成する(ステップS5)。一方、影領域生成部15が、距離感知覚オブジェクトに掛かる影を分割後の入力映像の前景部分から作成する(ステップS6)。最後に、映像合成部16が、これら分割された入力映像、距離感知覚オブジェクト、影を合成の後出力し(ステップS7)、処理を終了する(終了)。   FIG. 2 is a flowchart showing an operation flow in the video processing apparatus 10. When the process is started (start), the video acquisition unit 12 acquires the input video (step S1). Next, the depth information acquisition unit 11 acquires depth information corresponding to the input video (step S2), and determines a position where the distance perception object is arranged (step S3). In this embodiment, the depth information is acquired from the outside together with the input video. The video dividing unit 13 divides the input video into a portion (foreground) that is arranged in front of the distance-sensitive object and a portion (background) that is arranged behind the distance-sensitive object based on the determined distance-sensitive object. (Step S4). The distance sensation perception object generation unit 14 generates a distance sensation perception object to be synthesized according to the divided video (step S5). On the other hand, the shadow area generation unit 15 creates a shadow applied to the distance perception object from the foreground portion of the divided input video (step S6). Finally, the video synthesis unit 16 synthesizes the divided input video, distance perception object, and shadow after synthesis (step S7), and ends the processing (end).

上記フローチャートでは、ステップS2において、奥行き情報を入力映像とともに外部から取得するものとして説明を行ったが、入力映像から奥行き情報を計算する形としても良い。たとえば、図3に示す映像処理装置20のように、奥行き情報取得部21を設け、映像取得部12で取得した入力映像から奥行き情報を計算して取得するような形としても良い。なお、図1、図3中の各部のうち、同じ記号で示されるブロックは同一の機能をもつものとする。   In the flowchart described above, the depth information is acquired from the outside together with the input video in step S2, but the depth information may be calculated from the input video. For example, like the video processing device 20 shown in FIG. 3, the depth information acquisition unit 21 may be provided, and the depth information may be calculated and acquired from the input video acquired by the video acquisition unit 12. In addition, the block shown with the same symbol among each part in FIG. 1, FIG. 3 shall have the same function.

以下に、本実施の形態による映像処理装置10の各構成部について、さらに詳細に説明する。   Hereinafter, each component of the video processing apparatus 10 according to the present embodiment will be described in more detail.

(奥行き情報取得部11の説明)
まず、奥行き情報取得部11について説明を行う。映像処理装置10は、映像取得部12から得られる入力画像に対応した奥行き情報を取得する奥行き情報取得部11を有する。ここで、奥行き情報とは、入力映像に映っている各オブジェクト(例えば、人、車、木、壁など)と、撮影者(カメラ)との距離を示す情報である。本実施例では、奥行き情報は撮影時に取得され、映像処理装置10に送信されるものとする。撮影時の奥行き情報取得方法としては、たとえばステレオ法を応用し、位置をずらした2つのカメラで同一オブジェクトを撮影した際の撮像面での位置のずれを基に距離を求めることとしても良いし、カメラに備えられた赤外線照射装置からオブジェクトに照射された赤外線の反射光の強弱を測定することで取得するものとしても良い。
(Description of depth information acquisition unit 11)
First, the depth information acquisition unit 11 will be described. The video processing apparatus 10 includes a depth information acquisition unit 11 that acquires depth information corresponding to an input image obtained from the video acquisition unit 12. Here, the depth information is information indicating the distance between each object (for example, a person, a car, a tree, a wall, etc.) reflected in the input video and the photographer (camera). In this embodiment, the depth information is acquired at the time of shooting and is transmitted to the video processing apparatus 10. As a depth information acquisition method at the time of shooting, for example, a stereo method may be applied, and a distance may be obtained based on a positional shift on the imaging surface when the same object is shot with two cameras whose positions are shifted. Further, it may be obtained by measuring the intensity of reflected infrared light irradiated to an object from an infrared irradiation device provided in the camera.

本実施形態では、奥行き情報は撮影時に入力映像とは別に取得されるものとしているが、本実施例の変形例として、奥行き情報を図3に示すように入力映像から計算するものとしてもよい。入力映像からの奥行き情報の計算には、たとえば、特開平9−161074号公報に示される技術を用いる。また、入力映像がなんらかの方式で符号化されている場合、その符号化情報から奥行き情報を作成しても良い。例えばMPEG(Moving Picture Experts Group)によって作られた標準動画規格の一つであるMPEG−4(Moving Picture Expert Group phase4)では背景や人物などのオブジェクト単位で符号化することが可能である。入力映像が該機能を用いて、背景と人物が別々に符号化されていた場合は、この情報を用いて、「カメラと背景の距離」より「カメラと人物の距離」が近くなるような奥行き情報を作成する。   In this embodiment, the depth information is acquired separately from the input video at the time of shooting. However, as a modification of this embodiment, the depth information may be calculated from the input video as shown in FIG. For example, a technique disclosed in Japanese Patent Laid-Open No. 9-161074 is used to calculate depth information from an input video. Further, when the input video is encoded by some method, depth information may be created from the encoded information. For example, in MPEG-4 (Moving Picture Expert Group phase 4), which is one of the standard moving picture standards created by MPEG (Moving Picture Experts Group), it is possible to encode in units of objects such as backgrounds and persons. If the input video is encoded using this function and the background and the person are encoded separately, this information can be used to make the “camera and person distance” closer than the “camera and background distance”. Create information.

(映像取得部12の説明)
映像取得部12について説明する。映像取得部12は立体感、奥行き感を向上させる映像処理を行う元となる映像を取得する。ここでの映像は、静止画像でも動画像でも良く、何らかの符号化方式、例えばJPEG(Joint Photographic Experts Group)やMPEG−2(Moving Picture Expert Group phase2)などで圧縮されたものであっても、非圧縮のものであっても良い。入力映像が符号化されたものであった場合は、本ブロックで適切に復号(例えばRGB形式やYUV形式)される。以下、本実施例では、復号後の画像について処理を行うものとする。また、本実施例で行われる映像処理については、説明を簡単にするため、静止画または1フレームに対して処理を行うものとして説明を行っているが、入力映像が動画である場合、連続する各フレームに対して同様の処理を行うものとする。
(Description of video acquisition unit 12)
The video acquisition unit 12 will be described. The video acquisition unit 12 acquires a video that is a source for performing video processing for improving a stereoscopic effect and a sense of depth. The video here may be a still image or a moving image, and even if it is compressed by some encoding method, for example, JPEG (Joint Photographic Experts Group) or MPEG-2 (Moving Picture Expert Group phase 2). It may be compressed. If the input video is encoded, it is appropriately decoded (for example, RGB format or YUV format) in this block. Hereinafter, in this embodiment, it is assumed that processing is performed on the decoded image. In addition, the video processing performed in this embodiment has been described as processing on a still image or one frame for the sake of simplicity. However, when the input video is a moving image, the video processing is continuous. The same processing is performed for each frame.

(映像分割部13の説明)
次に、映像分割部13について説明する。映像分割部13は、映像取得部12で取得した入力映像を、奥行き情報取得部11で取得した奥行き情報に基づき、距離感知覚オブジェクト生成部14(詳細は後述)で生成する距離感知覚オブジェクトの前に表示する前景と、同距離感知覚オブジェクトの後ろに表示する背景とに分離する。
(Description of video dividing unit 13)
Next, the video dividing unit 13 will be described. The video dividing unit 13 uses the distance perception object generation unit 14 (described later in detail) to generate the distance perception object based on the depth information acquired by the depth information acquisition unit 11 based on the input video acquired by the video acquisition unit 12. The foreground to be displayed in front is separated from the background to be displayed behind the same distance perception object.

ここで図を用いてさらに詳細に説明する。今、図4に示す入力画像31と、図5に示すような入力画像31に対応する奥行き情報を持つ奥行き画像32があったとする。ここで、奥行き画像32は撮影者(カメラ)とオブジェクトの距離を5段階の奥行きとして示しており、奥行き情報表33に示すように距離の近い順に1、2、…、5で示され、入力画像31の各画素に対応して奥行き1〜5のいずれかの値が入っているものとする。ここでは説明の簡単のために、奥行き情報を5段階で示すものとするが、奥行き情報は5段階未満乃至は5段階以上でも良く、もちろん無段階で示すものとしても問題はない。   Here, it demonstrates still in detail using a figure. Assume that there is an input image 31 shown in FIG. 4 and a depth image 32 having depth information corresponding to the input image 31 shown in FIG. Here, the depth image 32 shows the distance between the photographer (camera) and the object as five levels of depth. As shown in the depth information table 33, the depth image 32 is indicated by 1, 2,... It is assumed that any value of depth 1 to 5 is included corresponding to each pixel of the image 31. Here, for simplicity of explanation, the depth information is shown in five stages, but the depth information may be less than five stages or more than five stages. Of course, there is no problem even if the depth information is shown steplessly.

このとき、映像分割部13は閾値Thに基づき、入力映像を前景と背景に分割する。入力画像31の各画素に対応する全ての奥行き情報Depth(n)において、Th>Depth(n)の場合は対応する入力画像31の画素Px(n)を背景として、Th≦Depth(n)の場合は同画素Px(n)を前景とする。この分割判定を示すC言語プログラムを以下に示す。   At this time, the video dividing unit 13 divides the input video into the foreground and the background based on the threshold Th. In all depth information Depth (n) corresponding to each pixel of the input image 31, when Th> Depth (n), the pixel Px (n) of the corresponding input image 31 is used as a background and Th ≦ Depth (n) In this case, the same pixel Px (n) is used as the foreground. A C language program showing this division determination is shown below.

if(Th>Depth(n)){
Px(n)=背景
}else{
Px(n)=前景
if (Th> Depth (n)) {
Px (n) = background} else {
Px (n) = foreground}

ここで、あらかじめ設定されている閾値Thが2であるとすると、最終的に、入力画像31は距離画像32に基づき、図6に示す前景領域34(映像35中の実線で囲まれた白色領域)と背景領域36(映像37中の実線で囲まれた白色領域)に分割される。   Here, if the preset threshold Th is 2, finally, the input image 31 is based on the distance image 32, and the foreground area 34 (a white area surrounded by a solid line in the video 35) shown in FIG. ) And the background area 36 (a white area surrounded by a solid line in the video 37).

本実施例では、閾値Thは予め映像処理装置10に記録されている値として説明を行ったが、映像処理装置10を使用するユーザが自由に設定できる値としても良い。また、閾値Thを計算で求めても良い。たとえば、下記式1は、奥行き画像32に基づき、その距離の平均を閾値Thとする例である。   In the present embodiment, the threshold value Th is described as a value recorded in advance in the video processing apparatus 10, but may be a value that can be freely set by a user using the video processing apparatus 10. Further, the threshold Th may be obtained by calculation. For example, the following Equation 1 is an example in which the average of the distance is set as the threshold Th based on the depth image 32.

Th=(ΣDepth(n))/n(但し、n=0、1、2、…、i) …(式1)   Th = (ΣDepth (n)) / n (where n = 0, 1, 2,..., I) (Equation 1)

(距離感知覚オブジェクト生成部14の説明)
距離感知覚オブジェクト生成部14について説明を行う。距離感知覚オブジェクト生成部14は、映像分割部A4で決定された前景部領域と背景部領域に基づき、入力映像に合成する距離感知覚オブジェクトを生成する。ここで距離感知覚オブジェクトとは、入力映像中の前景と背景との間の奥行き位置に挿入することで前景または背景との相対的な距離感を与え、視聴者に立体感、奥行き感を知覚させるためのオブジェクトである。ここでいう挿入する奥行き位置とは、前述の奥行き情報の閾値とした位置をいう。本実施例では、図7に示すように、距離感知覚オブジェクトとして、映像の外周を囲う枠オブジェクトである額縁37を生成する。ここでは、額縁の形状、色などはあらかじめ映像処理装置10で決定されているものとするが、ユーザが任意の形状、色の額縁を登録できるようにし、これを合成することとしても良い。
(Description of Distance Perception Object Generation Unit 14)
The distance perception object generation unit 14 will be described. The distance sensation object generating unit 14 generates a distance sensation object to be combined with the input image based on the foreground area and the background area determined by the image dividing unit A4. Here, the sense of distance object is inserted in the depth position between the foreground and the background in the input video to give a sense of relative distance from the foreground or the background, and the viewer perceives a three-dimensional effect and a sense of depth. It is an object to make it. The depth position to be inserted here refers to a position that is a threshold value of the depth information described above. In the present embodiment, as shown in FIG. 7, a frame 37 that is a frame object surrounding the outer periphery of the video is generated as the distance perception object. Here, the shape, color, and the like of the frame are determined in advance by the video processing apparatus 10, but it is also possible to allow the user to register a frame of an arbitrary shape and color and combine them.

また、本実施例では、生成される額縁37を立体的に見せるための額縁37自身の陰影についても、あらかじめ決められているものとするが、これは入力から得られる情報に基づいて入力映像内での前衛領域の陰影と合わせることで、より一体感の増す額縁を生成することができる。たとえば、図8に示すように、映像処理装置10の変形例である映像処理装置40は、影方向取得部41を備えることによって、距離感知覚オブジェクト生成部14と影領域生成部15(後述)において、該ブロックから得た影の方向に基づき、入力画像と同じ方向の陰影を構築することが可能である。ここでの影方向取得部41への入力は、例えば、撮影時の照明条件から導き出した、各オブジェクトの影の方向である。   Further, in this embodiment, the shadow of the frame 37 itself for making the generated frame 37 appear three-dimensionally is determined in advance, but this is based on the information obtained from the input. By combining with the shadow of the avant-garde area in the frame, it is possible to generate a frame that increases the sense of unity. For example, as shown in FIG. 8, a video processing device 40 which is a modified example of the video processing device 10 includes a shadow direction acquisition unit 41, so that a distance sensation object generation unit 14 and a shadow region generation unit 15 (described later). The shadow in the same direction as the input image can be constructed based on the direction of the shadow obtained from the block. The input to the shadow direction acquisition unit 41 here is, for example, the direction of the shadow of each object derived from the illumination conditions at the time of shooting.

また、影の方向が入力画像から推定可能である場合、図9に示すように、映像処理装置20の変形例である映像処理映像処理装置50は、映像取得部12から得られた入力画像から計算によって影の方向を求める影方向取得部51を設けることによって、影の方向を得ることができる。勿論影の方向をユーザが指定する形とすることで、ユーザの好みの方向に陰影をつけることとしても良い。   Further, when the shadow direction can be estimated from the input image, as shown in FIG. 9, the video processing video processing device 50, which is a modification of the video processing device 20, uses the input image obtained from the video acquisition unit 12. The shadow direction can be obtained by providing the shadow direction acquisition unit 51 for obtaining the shadow direction by calculation. Of course, it is also possible to add a shadow to the user's favorite direction by making the direction of the shadow designated by the user.

本実施例では、映像の外周を囲う枠オブジェクトとして額縁を例に説明を行ったが、このオブジェクトが額縁以外のものでも良いことは言うまでも無い。例えば、窓の枠や図10(a)の映像61に示すような折りたたまれたカーテン62などを配置しても良い。   In the present embodiment, the frame object has been described as an example of the frame object that surrounds the outer periphery of the video, but it goes without saying that this object may be other than the frame. For example, a window frame or a folded curtain 62 as shown in the image 61 of FIG.

(影領域生成部15の説明)
次に影領域生成部15について説明を行う。影領域生成部15は、主に映像分割部13で決定された前景部領域から、影領域を生成する。図6に示したような、前景領域34が取得される時、この領域をあらかじめ映像処理装置10に設定されている色で塗りつぶした影領域64(図11参照)を得る。
(Description of the shadow region generation unit 15)
Next, the shadow area generation unit 15 will be described. The shadow area generation unit 15 generates a shadow area mainly from the foreground part area determined by the video division unit 13. When the foreground area 34 as shown in FIG. 6 is acquired, a shadow area 64 (see FIG. 11) is obtained by filling this area with the color set in the video processing apparatus 10 in advance.

(映像合成部16の説明)
最後に映像合成部16について説明する。映像合成部16では図10(b)映像63に示すように、映像分割部13で得られた背景領域36、距離感知覚オブジェクト生成部14で生成された額縁37、影領域生成部15で生成された影64、映像分割部13で得られた前景領域34を順に合成する。まず、背景領域34に額縁37を重畳する。次に影領域64を重畳する。この時、影領域64の重畳する位置(x,y)は、前景オブジェクトの位置(u,v)から相対的に下記式2で求められる。
(Description of video composition unit 16)
Finally, the video composition unit 16 will be described. As shown in the video 63 in FIG. 10B, the video composition unit 16 generates the background region 36 obtained by the video division unit 13, the frame 37 generated by the distance perception object generation unit 14, and the shadow region generation unit 15. The generated shadow 64 and the foreground area 34 obtained by the video dividing unit 13 are combined in order. First, the frame 37 is superimposed on the background area 34. Next, the shadow region 64 is superimposed. At this time, the position (x, y) at which the shadow region 64 overlaps is obtained by the following expression 2 relative to the position (u, v) of the foreground object.

x=u+a
y=v+b …(式2)
x = u + a
y = v + b (Formula 2)

これは即ち、図12(a)中の映像71に示すように、影領域64の位置(x,y)は、前景領域34の位置(u,v)からx軸方向にa、y軸方向にbだけ平行移動させた位置である。ここで、a、bは映像処理装置10にあらかじめ登録されている任意の値である。映像合成部16は位置(x,y)に影領域64を重畳するが、図12(b)の映像72に示すように額縁37と重なる領域74のみ影領域を描写するものとし、それ以外の領域(73)は描写を行わない。なお、描写する影領域74に透過処理やぼかし処理など、より実際の影に近付け、立体感、奥行き感を得るための映像処理を加えることとしても良い。また、本実施例では、a、bは映像処理装置10にあらかじめ登録されているものとしたが、ユーザが自由に設定できるものとしても良いし、図8に示す影方向取得部41や、図9に示す影方向取得部51から得られる影方向情報を基に決定するものとしても良い。最後に前景領域34を合成し、出力部17に合成した映像65(図10(c))を出力する。 That is, as shown in the image 71 in FIG. 12A, the position (x, y) of the shadow area 64 is in the a and y axis directions from the position (u, v) of the foreground area 34 in the x axis direction. Is a position translated by b. Here, a and b are arbitrary values registered in the video processing apparatus 10 in advance. The video composition unit 16 superimposes the shadow area 64 at the position (x, y), but only the area 74 that overlaps the frame 37 as shown in the video 72 of FIG. Region (73) is not depicted. It should be noted that the shadow region 74 to be drawn may be added with video processing such as transmission processing and blurring processing so as to get closer to the actual shadow and to obtain a three-dimensional effect and a sense of depth. In the present embodiment, a and b are registered in advance in the video processing apparatus 10, but may be set freely by the user, the shadow direction acquisition unit 41 shown in FIG. It is good also as what determines based on the shadow direction information obtained from the shadow direction acquisition part 51 shown in FIG. Finally, the foreground area 34 is synthesized, and the synthesized image 65 (FIG. 10C) is output to the output unit 17.

こうして、奥行き情報に基づいて、前景領域と背景領域の間に額やカーテンなどの距離感知覚のための枠オブジェクトを挿入しているので、従来の2次元の表示システムであっても、立体感や奥行き感が高まった映像が表示できる。さらに、前景領域や枠オブジェクト等の影も生成する場合は、さらに、立体感や奥行き感が高まる。特に枠オブジェクトに前景領域の影を生成した場合は、前景領域と枠オブジェクトの奥行き配置がより明確になる効果がある。   In this way, since the frame object for perception of distance such as a forehead or a curtain is inserted between the foreground area and the background area based on the depth information, even in a conventional two-dimensional display system, And images with enhanced depth can be displayed. Furthermore, when a shadow such as a foreground region or a frame object is also generated, the stereoscopic effect and the depth effect are further enhanced. In particular, when the shadow of the foreground area is generated in the frame object, there is an effect that the depth arrangement of the foreground area and the frame object becomes clearer.

<第2の実施の形態>
次に、本発明の第2の実施の形態について説明する。本実施の形態では、入力映像に額縁ではなく壁を合成する点において第1の実施の形態とは異なる。
<Second Embodiment>
Next, a second embodiment of the present invention will be described. This embodiment is different from the first embodiment in that a wall is combined with an input video instead of a frame.

本発明の第2の実施の形態による映像処理装置は、図1の映像処理装置10と同じである。   The video processing apparatus according to the second embodiment of the present invention is the same as the video processing apparatus 10 of FIG.

本実施の形態による映像処理装置10では、映像処理装置10の距離感知覚オブジェクト生成部14で生成されるオブジェクトが第1の実施の形態に示した額縁37に代えて、前景と背景を隔てるオブジェクトである壁が生成される点を特徴とする。   In the video processing apparatus 10 according to the present embodiment, the object generated by the distance perception object generation unit 14 of the video processing apparatus 10 is an object that separates the foreground from the background instead of the frame 37 shown in the first embodiment. It is characterized in that a wall is generated.

距離感知覚オブジェクト生成部14は、映像分割部13で決定された前景部領域と背景部領域に基づき、入力映像31に合成する壁を生成する。本実施例では、図5で示すような奥行き情報32が取得されているものとし、前景と背景を分割する閾値Thが奥行き4であるものとし、これに基づき入力映像31を図13(a)に示す前景領域82と、図13(b)に示す背景領域84に分割する。   The distance perception object generation unit 14 generates a wall to be combined with the input video 31 based on the foreground area and the background area determined by the video division unit 13. In this embodiment, it is assumed that the depth information 32 as shown in FIG. 5 is acquired, the threshold Th for dividing the foreground and the background is depth 4, and based on this, the input video 31 is shown in FIG. Are divided into a foreground area 82 and a background area 84 shown in FIG.

映像合成部16は、図13(c)に示す映像86に示すように、第1の実施の形態と同様、背景領域84、壁領域87、影領域88、前景領域82の順に重畳し、図14(a)に示す最終的な合成映像91を得る。   As shown in the video 86 shown in FIG. 13C, the video composition unit 16 superimposes the background region 84, the wall region 87, the shadow region 88, and the foreground region 82 in this order as in the first embodiment. A final composite image 91 shown in FIG.

本実施例では、映像合成部16は影領域88のうち、壁領域87と重なる部分を描写するものとし、第1の実施の形態と同様、透過処理やぼかし処理など、より実際の影に近付け、立体感、奥行き感を得るための映像処理を加えることとしても良い。また、前景領域内の奥行き情報に応じて、局所的に影領域に加える映像処理を変化させることとしても良い。図14(b)の合成映像92は、図5の奥行き情報に基づき、奥行き情報が1の前景領域に対応する影領域94に対してだけぼかし処理を行い、奥行き情報が1より大きい前景領域に対応する影領域93には映像処理を行わない様子を示した図である。また、図14(c)に示す映像95の例の壁領域87aのように、壁領域は任意の大きさで生成され、この大きさをユーザが決定、または映像処理装置10にあらかじめ設定されているものとする。   In the present embodiment, the video composition unit 16 draws a portion of the shadow area 88 that overlaps the wall area 87, and is closer to the actual shadow, such as transmission processing and blurring processing, as in the first embodiment. It is also possible to add video processing for obtaining a three-dimensional effect and a sense of depth. Further, the video processing applied locally to the shadow area may be changed according to the depth information in the foreground area. Based on the depth information in FIG. 5, the synthesized video 92 in FIG. 14B performs blurring processing only on the shadow area 94 corresponding to the foreground area whose depth information is 1, so that the depth information is larger than 1. It is the figure which showed a mode that image processing was not performed to the corresponding shadow area | region 93. FIG. Further, like the wall area 87a in the example of the image 95 shown in FIG. 14C, the wall area is generated with an arbitrary size, and this size is determined by the user or set in the video processing apparatus 10 in advance. It shall be.

本実施例では、前景と背景を隔てる距離感知覚オブジェクトとして壁を例に説明を行ったが、このオブジェクトが壁以外のものでも良いことは言うまでも無い。例えば、電柱などの柱や、木などのオブジェクトを配置しても良い。   In this embodiment, the description has been given by taking the wall as an example of the distance perception object separating the foreground and the background, but it goes without saying that this object may be other than the wall. For example, poles such as utility poles and objects such as trees may be arranged.

こうして、奥行き情報に基づいて、前景領域と背景領域の間に壁や柱などの距離感知覚のためのオブジェクトを挿入しているので、従来の2次元の表示システムであっても、立体感や奥行き感が高まった映像が表示できる。さらに、前景領域やオブジェクト等の影も生成する場合は、さらに、立体感や奥行き感が高まる。特にオブジェクトに前景領域の影を生成した場合は、前景領域とオブジェクトの奥行き配置がより明確になる効果がある。   Thus, since objects for distance perception such as walls and pillars are inserted between the foreground area and the background area based on the depth information, even in a conventional two-dimensional display system, An image with a deep sense of depth can be displayed. Further, when a shadow such as a foreground area or an object is also generated, the stereoscopic effect and the depth effect are further enhanced. In particular, when the shadow of the foreground area is generated on the object, there is an effect that the depth arrangement of the foreground area and the object becomes clearer.

<第3の実施の形態>
次に、本発明の第3の実施の形態について説明する。本実施の形態では、入力映像を奥行き情報に基づき変形させる点を特徴とする。
<Third Embodiment>
Next, a third embodiment of the present invention will be described. The present embodiment is characterized in that the input video is deformed based on the depth information.

本発明の第3の実施の形態によるシステムの一構成例を示す機能ブロック図を図15に示す。   FIG. 15 is a functional block diagram showing a configuration example of a system according to the third embodiment of the present invention.

本実施の形態による映像処理装置100では、第1の実施の形態に示した映像処理装置10の各ブロックに加えて、映像変形部101が備えられている点を特徴とする。図15では、図1の各機能部と同等の機能を持つ各機能部には同名の機能部の名称並びに記号を付している。   The video processing apparatus 100 according to the present embodiment is characterized in that a video deformation unit 101 is provided in addition to each block of the video processing apparatus 10 shown in the first embodiment. In FIG. 15, each functional unit having the same function as each functional unit in FIG. 1 is given the name and symbol of the functional unit having the same name.

映像変形部101は、映像分割部13で分割された前景並びに背景を任意の変換法で変形させる。例えば、映像分割部13で入力映像31が図6に示したように前景34と背景36に分割された後、映像変形部101が背景領域36を任意の縮小率aで縮小する。この後、距離感知覚オブジェクトの生成、影の生成、映像合成を行う。図16(a)に示すように、これによって得られた変形後の背景領域112を新たな背景とし、得られた出力映像111は前景と背景の遠近感をより強調した映像となると共に、図10に示した出力画像65では額縁に隠れていた領域も表示することが可能となる。同様に、映像分割部13により分割処理された後、図16(b)の映像113に示すように、映像変形部101が任意の拡大率bで拡大した前景領域114を新たな前景領域とすることで、より遠近感を強調した映像を得ることが出来る。本実施例では、前景または背景のどちらかのみを変形させる例を示したが、両方に変形処理を適用しても良い。また、変形させるための変換方法についても、単純な拡大縮小処理以外の変換方法、例えば、奥行き情報取得部から得られる奥行き情報に基づき、遠近法変換を用いることとしても良い。   The video transformation unit 101 transforms the foreground and background divided by the video division unit 13 using an arbitrary conversion method. For example, after the input video 31 is divided into the foreground 34 and the background 36 as shown in FIG. 6 by the video division unit 13, the video transformation unit 101 reduces the background region 36 at an arbitrary reduction ratio a. Thereafter, generation of a distance perception object, generation of a shadow, and video composition are performed. As shown in FIG. 16A, the transformed background region 112 obtained as a result is used as a new background, and the obtained output video 111 is a video in which the perspective between the foreground and the background is further emphasized. In the output image 65 shown in FIG. 10, it is possible to display an area hidden in the frame. Similarly, after being divided by the video dividing unit 13, as shown in the video 113 in FIG. 16B, the foreground region 114 enlarged by the video transformation unit 101 at an arbitrary magnification b is set as a new foreground region. In this way, it is possible to obtain an image that emphasizes perspective. In the present embodiment, an example in which only either the foreground or the background is deformed has been shown, but deformation processing may be applied to both. In addition, as a conversion method for deformation, perspective conversion may be used based on a conversion method other than simple enlargement / reduction processing, for example, depth information obtained from a depth information acquisition unit.

なお、図15に示した本実施形態は、図1の映像処理装置10に映像変形部101を加えたものであるが、これに限るものではない。図3、図8、図9の映像処理装置20,40,50に映像変形部101を加えたものであってもよい。   In addition, although this embodiment shown in FIG. 15 adds the image | video deformation | transformation part 101 to the image processing apparatus 10 of FIG. 1, it is not restricted to this. The video processing unit 20, 40, 50 shown in FIGS. 3, 8, and 9 may be added with the video transformation unit 101.

このように、前景領域や背景領域を拡大縮小する映像変形を行うと、より遠近感を強調した映像を得ることができるので、立体感や奥行き感を高めた映像を表示できる。   As described above, when the video deformation is performed to enlarge or reduce the foreground area or the background area, it is possible to obtain an image in which the perspective is emphasized, and thus it is possible to display an image with enhanced stereoscopic effect and depth.

上述したように、上記各実施の形態に係る映像処理装置の機能は、コンピュータによって実現することができる。その場合、このような機能の処理内容を記述したプログラムが提供され、そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリなどがある。   As described above, the functions of the video processing devices according to the above embodiments can be realized by a computer. In that case, a program describing the processing content of such a function is provided, and the processing function is realized on the computer by executing the program on the computer. The program describing the processing contents can be recorded on a computer-readable recording medium. Examples of the computer-readable recording medium include a magnetic recording device, an optical disk, a magneto-optical recording medium, and a semiconductor memory.

また、プログラムをサーバコンピュータの記憶装置に格納しておき、そのプログラムを、サーバコンピュータからネットワークを介して他のコンピュータに転送することもできる。プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムまたはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納し、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行することができる。   It is also possible to store the program in a storage device of a server computer and transfer the program from the server computer to another computer via a network. The computer that executes the program stores, for example, the program recorded in the portable recording medium or the program transferred from the server computer in its own storage device, reads the program from its own storage device, and performs processing according to the program Can be executed.

10,20,40,50,100 映像処理装置
11,21 奥行き情報取得部
12 映像取得部
13 映像分割部
14 距離感知覚オブジェクト生成部
15 影領域生成部
16 映像合成部
17 出力部
41,51 影方向取得部
101 映像変形部
10, 20, 40, 50, 100 Video processing devices 11, 21 Depth information acquisition unit 12 Video acquisition unit 13 Video division unit 14 Distance perception object generation unit 15 Shadow region generation unit 16 Video composition unit 17 Output units 41, 51 Shadow Direction acquisition unit 101 Video transformation unit

Claims (8)

入力される映像の立体感、奥行き感を高める映像処理装置であって、
入力映像を取得する映像取得部と、
撮影された映像内の各オブジェクトの奥行き情報を取得する奥行き情報取得部と、
前記入力映像を、前記奥行き情報に基づいて、所定の奥行き位置より手前の映像を前景領域、所定の奥行き位置より奥の映像を背景領域として2つに分割する映像分割部と、
前記前景領域と、前記背景領域との間の奥行き位置に挿入する、距離感知覚のためのオブジェクトの映像を生成する距離感知覚オブジェクト生成部と、
前記前景領域の影領域を生成する影領域生成部と、
前記前景領域、前記背景領域、前記距離感知覚オブジェクト及び前記影領域を奥行き情報に基づいて、前記距離感値合成した映像を作成する映像合成部と、
を備え、
前記映像合成部は、前記距離感知覚オブジェクトと重なる領域のみに前記影領域を合成し
前記影領域生成部は、影領域の位置座標を、前景領域の位置座標のx軸、y軸に、予め設定した値を加えて求めることを特徴とする映像処理装置。
A video processing device that enhances the three-dimensionality and depth of the input video,
A video acquisition unit for acquiring the input video;
A depth information acquisition unit that acquires depth information of each object in the captured video;
A video dividing unit that divides the input video into two based on the depth information, with a video in front of a predetermined depth position as a foreground region and a video deeper than the predetermined depth position as a background region;
A distance sensation perception object generating unit that generates an image of an object for distance sensation inserted into a depth position between the foreground region and the background region;
A shadow area generator for generating a shadow area of the foreground area;
A video synthesizing unit that creates a video obtained by synthesizing the distance sensation values based on the depth information of the foreground area, the background area, the distance perception object, and the shadow area;
With
The video composition unit synthesizes the shadow region only in a region overlapping with the distance perception object ,
The image processing apparatus according to claim 1, wherein the shadow area generation unit obtains the position coordinates of the shadow area by adding preset values to the x-axis and y-axis of the position coordinates of the foreground area .
前記映像合成部は、前記前景領域の奥行き情報に応じて、前記影領域に加える映像処理を変化させることを特徴とする請求項1に記載の映像処理装置。   The video processing apparatus according to claim 1, wherein the video synthesis unit changes video processing to be added to the shadow area in accordance with depth information of the foreground area. 前記映像処理は、透過処理あるいはぼかし処理であることを特徴とする請求項2に記載の映像処理装置。   The video processing apparatus according to claim 2, wherein the video processing is transmission processing or blurring processing. 前記前景領域の拡大変形をしあるいは変形せず、且つ前記背景領域の縮小変形をする映像変形部を備え、
前記影領域生成部は、前記映像変形部の処理後の前記前景領域に基づいて前景領域の影を生成することを特徴とする請求項1からのいずれかに記載の映像処理装置。
A video deformation unit that performs an enlargement deformation of the foreground region or a deformation of the background region and a reduction deformation of the background region;
The shadow area generation unit, a video processing apparatus according to any one of claims 1 to 3, characterized in that to produce a shadow of the foreground area based on the foreground area after processing of the image deforming unit.
入力される映像の立体感、奥行き感を高める映像処理方法であって、
入力映像を取得する映像取得ステップと、
撮影された映像内の各オブジェクトの奥行き情報を取得する奥行き情報取得ステップと、
前記入力映像を、前記奥行き情報に基づいて、所定の奥行き位置より手前の映像を前景領域、所定の奥行き位置より奥の映像を背景領域として2つに分割する映像分割ステップと、
前記前景領域と、前記背景領域との間の奥行き位置に挿入する、距離感知覚のためのオブジェクトの映像を生成する距離感知覚オブジェクト生成ステップと、
前記前景領域の影領域を生成する影領域生成ステップと、
前記前景領域、前記背景領域、前記距離感知覚オブジェクト及び前記影領域を奥行き情報に基づいて合成した映像を作成する映像合成ステップと、
を備え、
前記映像合成ステップは、前記距離感知覚オブジェクトと重なる領域のみに前記影領域を合成し、
前記影領域生成ステップでは、影領域の位置座標を、前景領域の位置座標のx軸、y軸に、予め設定した値を加えて求めることを特徴とする映像処理方法。
A video processing method that enhances the three-dimensionality and depth of the input video,
A video acquisition step for acquiring the input video;
A depth information acquisition step of acquiring depth information of each object in the captured video;
A video dividing step of dividing the input video into two based on the depth information, with a video before a predetermined depth position as a foreground region and a video deeper than the predetermined depth position as a background region;
A distance sensation object generating step for generating an image of an object for distance sensation inserted into a depth position between the foreground region and the background region;
A shadow region generating step for generating a shadow region of the foreground region;
A video synthesis step of creating a video in which the foreground area, the background area, the distance perception object, and the shadow area are synthesized based on depth information;
With
In the video composition step, the shadow area is synthesized only in an area overlapping with the sense of distance object ,
In the shadow area generating step, the position coordinates of the shadow area are obtained by adding preset values to the x-axis and y-axis of the position coordinates of the foreground area .
前記映像合成ステップでは、前記前景領域の奥行き情報に応じて、前記影領域に加える映像処理を変化させることを特徴とする請求項に記載の映像処理方法。 6. The video processing method according to claim 5 , wherein, in the video synthesis step, video processing applied to the shadow area is changed according to depth information of the foreground area. 前記前景領域の拡大変形をしあるいは変形せず、且つ前記背景領域の縮小変形をする映像変形ステップを備え、
前記影領域生成ステップは、前記映像変形ステップの処理後の前記前景領域に基づいて前景領域の影を生成することを特徴とする請求項又はに記載の映像処理方法。
An image transformation step for performing an enlargement deformation of the foreground region or a deformation of the background region and a reduction deformation of the background region,
The video processing method according to claim 5 or 6 , wherein the shadow region generation step generates a shadow of a foreground region based on the foreground region after the processing of the video transformation step.
請求項乃至のいずれかに記載の映像処理方法の各ステップをコンピュータに実行させるためのプログラム。 The program for making a computer perform each step of the video processing method in any one of Claim 5 thru | or 7 .
JP2009047795A 2009-03-02 2009-03-02 Video processing apparatus, video processing method, and program for causing computer to execute the same Expired - Fee Related JP4963124B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009047795A JP4963124B2 (en) 2009-03-02 2009-03-02 Video processing apparatus, video processing method, and program for causing computer to execute the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009047795A JP4963124B2 (en) 2009-03-02 2009-03-02 Video processing apparatus, video processing method, and program for causing computer to execute the same

Publications (2)

Publication Number Publication Date
JP2010206362A JP2010206362A (en) 2010-09-16
JP4963124B2 true JP4963124B2 (en) 2012-06-27

Family

ID=42967432

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009047795A Expired - Fee Related JP4963124B2 (en) 2009-03-02 2009-03-02 Video processing apparatus, video processing method, and program for causing computer to execute the same

Country Status (1)

Country Link
JP (1) JP4963124B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11398007B2 (en) * 2018-04-11 2022-07-26 Nippon Telegraph And Telephone Corporation Video generation device, video generation method, program, and data structure

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5254297B2 (en) 2010-09-27 2013-08-07 株式会社東芝 Image processing device
JP5036088B2 (en) * 2011-01-14 2012-09-26 シャープ株式会社 Stereoscopic image processing apparatus, stereoscopic image processing method, and program
JP5377537B2 (en) * 2011-02-10 2013-12-25 株式会社エヌ・ティ・ティ・ドコモ Object display device, object display method, and object display program
JP2012215852A (en) * 2011-03-25 2012-11-08 Semiconductor Energy Lab Co Ltd Image processing method and display device
WO2012153475A1 (en) * 2011-05-11 2012-11-15 パナソニック株式会社 Rendering/compositing device
US9076267B2 (en) 2011-07-19 2015-07-07 Panasonic Intellectual Property Corporation Of America Image coding device, integrated circuit thereof, and image coding method
JP5711634B2 (en) * 2011-09-22 2015-05-07 株式会社東芝 Image processing apparatus, image processing method, and image processing program
JP6024110B2 (en) * 2012-01-26 2016-11-09 ソニー株式会社 Image processing apparatus, image processing method, program, terminal device, and image processing system
US9838669B2 (en) 2012-08-23 2017-12-05 Stmicroelectronics (Canada), Inc. Apparatus and method for depth-based image scaling of 3D visual content
KR101671739B1 (en) * 2015-05-27 2016-11-02 연세대학교 산학협력단 Apparatus and Method for Making 3D Effect on 2D Image using Virtual Window Frame
KR20170024275A (en) * 2015-08-25 2017-03-07 삼성전자주식회사 Image processing apparatus, method of processing image and electronic system including the same
JP6645371B2 (en) 2016-07-15 2020-02-14 オムロン株式会社 Optical device and stereoscopic display method
CN115334296A (en) * 2022-07-01 2022-11-11 深圳市安博斯技术有限公司 Stereoscopic image display method and display device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6157733A (en) * 1997-04-18 2000-12-05 At&T Corp. Integration of monocular cues to improve depth perception
JPH11259682A (en) * 1997-10-22 1999-09-24 Sony Corp Processor and method for image processing, and providing medium
JP2004145448A (en) * 2002-10-22 2004-05-20 Toshiba Corp Terminal device, server device, and image processing method
JP3790760B2 (en) * 2003-03-11 2006-06-28 独立行政法人科学技術振興機構 Coexistence space communication system
JP2007110360A (en) * 2005-10-13 2007-04-26 Ntt Comware Corp Stereoscopic image processing apparatus and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11398007B2 (en) * 2018-04-11 2022-07-26 Nippon Telegraph And Telephone Corporation Video generation device, video generation method, program, and data structure

Also Published As

Publication number Publication date
JP2010206362A (en) 2010-09-16

Similar Documents

Publication Publication Date Title
JP4963124B2 (en) Video processing apparatus, video processing method, and program for causing computer to execute the same
JP4903240B2 (en) Video processing apparatus, video processing method, and computer program
JP5654138B2 (en) Hybrid reality for 3D human machine interface
TWI523488B (en) A method of processing parallax information comprised in a signal
EP2299726B1 (en) Video communication method, apparatus and system
KR101385514B1 (en) Method And Apparatus for Transforming Stereoscopic Image by Using Depth Map Information
JP5521913B2 (en) Image processing apparatus, image processing method, and program
TWI428007B (en) Apparatus and method for video processing
JP2010063083A (en) Image processor, image processing method, and program
JP5755571B2 (en) Virtual viewpoint image generation device, virtual viewpoint image generation method, control program, recording medium, and stereoscopic display device
WO2014083752A1 (en) Alternate viewpoint image generating device and alternate viewpoint image generating method
JP2012120057A (en) Image processing device, image processing method, and program
JP5521608B2 (en) Image processing apparatus, image processing method, and program
JP6033625B2 (en) Multi-viewpoint image generation device, image generation method, display device, program, and recording medium
JP4214529B2 (en) Depth signal generation device, depth signal generation program, pseudo stereoscopic image generation device, and pseudo stereoscopic image generation program
KR19990057669A (en) Apparatus and method for three-dimensional image conversion of two-dimensional continuous image using virtual stereo image
KR101028342B1 (en) Converting method of two-dimensional flash animation into stereoscopy three-dimensional flash animation
JP5464129B2 (en) Image processing apparatus and parallax information generating apparatus
JP3091644B2 (en) 3D image conversion method for 2D images
JP4815004B2 (en) Multi-view image encoding device
JP7011728B2 (en) Image data output device, content creation device, content playback device, image data output method, content creation method, and content playback method
JP2011176822A (en) Image processing apparatus, 3d display apparatus, and image processing method
JP2011119926A (en) Video processing apparatus, video processing method and computer program
JP2012142800A (en) Image processing device, image processing method, and computer program
JP4419139B2 (en) Depth signal generation device, depth signal generation program, pseudo stereoscopic image generation device, and pseudo stereoscopic image generation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111007

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120131

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20120208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120321

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120321

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150406

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees