JP6242104B2 - Image processing apparatus, image processing method and program - Google Patents

Image processing apparatus, image processing method and program Download PDF

Info

Publication number
JP6242104B2
JP6242104B2 JP2013157915A JP2013157915A JP6242104B2 JP 6242104 B2 JP6242104 B2 JP 6242104B2 JP 2013157915 A JP2013157915 A JP 2013157915A JP 2013157915 A JP2013157915 A JP 2013157915A JP 6242104 B2 JP6242104 B2 JP 6242104B2
Authority
JP
Japan
Prior art keywords
eye image
image
image processing
eye
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013157915A
Other languages
Japanese (ja)
Other versions
JP2015029206A5 (en
JP2015029206A (en
Inventor
元久 伊藤
元久 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013157915A priority Critical patent/JP6242104B2/en
Publication of JP2015029206A publication Critical patent/JP2015029206A/en
Publication of JP2015029206A5 publication Critical patent/JP2015029206A5/ja
Application granted granted Critical
Publication of JP6242104B2 publication Critical patent/JP6242104B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)

Description

本発明は、特に、立体映像を処理するために用いて好適な画像処理装置、画像処理方法及びプログラムに関する。   In particular, the present invention relates to an image processing apparatus, an image processing method, and a program that are suitably used to process a stereoscopic video.

近年、デジタル技術の進歩に伴い、立体映像を撮影したり編集したりすることが可能な機器が普及しつつある。例えば、従来は大規模な装置が必要であった立体映像の撮影が、近年では手持ちのカムコーダで可能となっている。このように立体映像を容易に撮影できる機器が普及したことに伴い、立体映像の数も急激に増加している。   In recent years, with advances in digital technology, equipment capable of capturing and editing stereoscopic video is becoming widespread. For example, three-dimensional video photography, which conventionally required a large-scale device, has become possible with a hand-held camcorder in recent years. Thus, with the widespread use of devices that can easily capture 3D images, the number of 3D images is also rapidly increasing.

現在の立体映像の多くは、視差を利用して視聴者に立体感を知覚させる映像である。ここで視差とは、右眼で見た映像と左眼で見た映像との違いである。この原理によれば、右眼用の映像と左眼用の映像とが視差を持つと、脳がそれぞれの映像の違いを処理し、右眼の網膜が視覚した映像と左眼の網膜が視覚した映像とを融合して立体感を知覚する。立体映像を表示する装置は、右眼用の映像は右眼で視覚し、左眼用の映像は左眼で視覚するように、空間的に右眼の映像と左眼の映像とを分離して表示するか、あるいは時間的に右眼の映像と左眼の映像とを分離して表示する。   Most of the current stereoscopic images are images that make the viewer perceive a stereoscopic effect using parallax. Here, parallax is the difference between an image viewed with the right eye and an image viewed with the left eye. According to this principle, if the image for the right eye and the image for the left eye have parallax, the brain processes the difference between the respective images, and the image seen by the retina of the right eye and the retina of the left eye The three-dimensional effect is perceived by fusing it with the The device for displaying stereoscopic images separates the image of the right eye and the image of the left eye spatially so that the image for the right eye is viewed with the right eye and the image for the left eye is viewed with the left eye Or the image of the right eye and the image of the left eye are separated and displayed temporally.

しかし、同一の対象物に対して、右眼で視覚した映像と左眼で視覚した映像との間に垂直方向の位置に差(垂直視差)が存在すると、脳は右眼用の映像と左眼用の映像とを融合することが困難である。したがって、垂直視差が存在する立体映像は、視聴者に違和感や疲労感を与えてしまう。   However, if there is a difference (vertical parallax) in the vertical position between the image viewed with the right eye and the image viewed with the left eye for the same object, the brain displays the image for the right eye and the left It is difficult to fuse with the image for the eye. Therefore, the stereoscopic video in which the vertical parallax is present gives the viewer a sense of discomfort or fatigue.

そこで、垂直視差を軽減する技術が提案されている。特許文献1に記載の技術では、まず、左眼用の映像と右眼用の映像とに含まれる主要オブジェクトを特定する。そして、この主要オブジェクトの位置の差を予め定めた値とするように左眼用の映像内あるいは右眼用の映像内の少なくとも一方の主要オブジェクトの位置を変更して垂直視差を軽減している。また、特許文献2に記載の技術では、左右の映像において、対象物の特徴点の垂直方向の差を算出し、この差の分だけ右眼用の映像を垂直方向に平行移動して垂直視差を軽減している。さらに、特許文献3に記載の技術では、左眼用の映像および右眼用の映像に対して、アフィン変換を適用して垂直視差を軽減した後に、トリミングを施すようにしている。   Therefore, techniques for reducing the vertical parallax have been proposed. In the technology described in Patent Document 1, first, main objects included in the image for the left eye and the image for the right eye are specified. Then, the position of at least one of the main objects in the image for the left eye or in the image for the right eye is changed to reduce the vertical parallax so that the difference between the positions of the main objects becomes a predetermined value. . Further, in the technique described in Patent Document 2, in the left and right images, the difference in the vertical direction of the feature points of the object is calculated, and the image for the right eye is vertically translated by the difference to perform vertical parallax. To reduce. Furthermore, in the technology described in Patent Document 3, trimming is performed on the left-eye video and the right-eye video after applying affine transformation to reduce vertical parallax.

特開2011−81630号公報JP 2011-81630 A 特許第4763827号公報Patent No. 4763827 gazette 特許第4225768号公報Patent No. 4225768

特許文献1に記載の技術では、飛び出し量によらず垂直視差が予め定めた値未満である場合には垂直視差の軽減を実施しない。しかしながら、飛び出し量が大きいと脳内の立体感融合に与える影響も大きく、垂直視差が小さい場合であっても立体感融合に与える影響が大きいため、垂直視差の影響を十分に軽減できない課題が存在する。さらに、垂直視差の許容量を小さくすると処理の対象になるオブジェクトの数が増加し、処理の負荷が増加する課題も存在する。   The technique described in Patent Document 1 does not reduce the vertical parallax when the vertical parallax is less than a predetermined value regardless of the projection amount. However, if the amount of pop-out is large, the influence on three-dimensional sense fusion in the brain is also large, and even if the vertical parallax is small, the influence on three-dimensional sense fusion is large. Do. Furthermore, when the allowable amount of vertical parallax is reduced, the number of objects to be processed increases, and the processing load also increases.

また、特許文献2に記載の技術では、右眼用の映像のみ使用して垂直視差を軽減しているため、右眼用の映像の対象が大きく移動することになり、映像が不自然になって違和感が生じる課題が存在する。さらに、特許文献3に記載の技術では、トリミングを実施するため、画角が変化して違和感が生じる課題が存在する。   Further, in the technology described in Patent Document 2, since the vertical parallax is reduced using only the image for the right eye, the target of the image for the right eye is largely moved, and the image becomes unnatural. There is a problem that causes discomfort. Furthermore, in the technique described in Patent Document 3, there is a problem that the angle of view changes to cause a sense of discomfort because trimming is performed.

本発明は前述の問題点に鑑み、処理負荷が大きくならないようにして違和感と疲労感とを軽減した立体映像を生成できるようにすることを目的としている。   SUMMARY OF THE INVENTION In view of the above-described problems, the present invention has an object of generating a stereoscopic image in which discomfort and fatigue are reduced by preventing the processing load from increasing.

本発明に係る画像処理装置は、右眼映像及び左眼映像から抽出したオブジェクトの位置情報を判定する判定手段と、前記右眼映像から抽出された第1オブジェクトの前記右眼映像内における位置と、前記左眼映像から抽出された第2オブジェクトであって前記第1オブジェクトに対応する第2オブジェクトの前記左眼映像内における位置と、の垂直方向における差が、前記第1オブジェクトの前記右眼映像内における位置と前記第2オブジェクトの前記左眼映像内における位置との水平方向における差に基づいて定められる閾値よりも大きい場合、前記垂直方向における差が小さくなるように、前記第1オブジェクト及び前記第2オブジェクトのうち少なくとも何れかの位置を変更する映像処理手段と、を有することを特徴とする。 The image processing apparatus according to the present invention includes: a determining means for determining the positional information of the object that has issued the right eye image and the left eye image or et extracted, the first in the right eye image of the object extracted from the right eye image The difference in the vertical direction between the position and the position of the second object in the left-eye image which is the second object extracted from the left-eye image and corresponds to the first object is the difference of the first object The first difference is smaller than a threshold determined based on a difference between a position in the right-eye image and a position in the left-eye image of the second object in the horizontal direction. And image processing means for changing the position of at least one of the object and the second object .

本発明によれば、処理負荷が大きくならないようにして違和感と疲労感とを軽減した立体映像を生成することができる。   According to the present invention, it is possible to generate a stereoscopic image with reduced discomfort and fatigue, without increasing the processing load.

本発明の第1の実施形態に係る画像処理装置の機能構成例を示すブロック図である。It is a block diagram showing an example of functional composition of an image processing device concerning a 1st embodiment of the present invention. 右眼映像及び左眼映像における垂直視差を説明するための図である。It is a figure for demonstrating the vertical parallax in a right-eye image and a left-eye image. 対象物から位置情報を抽出する手順を説明するための図である。It is a figure for demonstrating the procedure which extracts positional information from a target object. 1つの対象物における垂直視差の一例を示す図である。It is a figure which shows an example of the perpendicular | vertical parallax in one target object. 垂直視差をなくすように対象物を移動させる手順を説明するための図である。It is a figure for demonstrating the procedure which moves an object so that vertical parallax may be eliminated. 本発明の第1の実施形態において、垂直視差をなくすように対象物を移動させる処理手順の一例を示すフローチャートである。In the first embodiment of the present invention, it is a flowchart showing an example of a processing procedure for moving the object to eliminate the vertical parallax. 本発明の第2の実施形態に係る画像処理装置の機能構成例を示すブロック図である。It is a block diagram showing an example of functional composition of an image processing device concerning a 2nd embodiment of the present invention. 本発明の第2の実施形態において、垂直視差をなくすように対象物を移動させる処理手順の一例を示すフローチャートである。In the 2nd embodiment of the present invention, it is a flow chart which shows an example of the processing procedure which moves a subject so that vertical parallax may be eliminated.

以下、添付の図面に沿って本発明の実施形態を説明する。
(第1の実施形態)
図1は、本実施形態に係る画像処理装置10の機能構成例を示すブロック図である。
図1において、対象物抽出部11は、入力された立体映像から対象物を抽出し、その位置情報を映像処理部12に出力する。映像処理部12は、抽出された対象物が有する垂直視差を軽減するために、立体映像において対象物の位置を移動させる。
Hereinafter, an embodiment of the present invention will be described with reference to the attached drawings.
First Embodiment
FIG. 1 is a block diagram showing an example of the functional configuration of an image processing apparatus 10 according to the present embodiment.
In FIG. 1, the object extraction unit 11 extracts an object from the input stereoscopic video, and outputs the position information to the video processing unit 12. The image processing unit 12 moves the position of the object in the stereoscopic image in order to reduce the vertical parallax of the extracted object.

ここで、入力される立体映像の様式は、対応する右眼映像と左眼映像とが同時に入力可能な様式ならば何でよい。例えばフレーム・シーケンシャル方式のように、対応する右眼映像と左眼映像とに時間差が存在する様式を使用する場合は、前段にフレームバッファを設置する。そして、このフレームバッファに、対応する右眼映像と左眼映像とを同期させた後に、対象物抽出部11及び映像処理部12に立体映像を出力する。   Here, the style of the stereoscopic video to be input may be any mode as long as the corresponding right-eye video and left-eye video can be simultaneously input. For example, when using a mode in which there is a time difference between the corresponding right-eye video and left-eye video, as in the frame sequential system, a frame buffer is installed at the front stage. Then, after the corresponding right-eye video and left-eye video are synchronized to this frame buffer, a stereoscopic video is output to the object extraction unit 11 and the video processing unit 12.

次に、図2(a)及び図2(b)を参照しながら垂直視差について説明する。図2において、右眼映像20及び左眼映像21には、それぞれ2本の樹木22、23と人間24とが存在しており、右眼映像20及び左眼映像21では、同一の対象であっても垂直方向の位置が異なっている。例えば、左端の樹木22は、その幹の下端を右眼映像20と左眼映像21とで比較すると差d1の分だけ位置が異なっている。同様に、中央の人間24は、その腰の位置を右眼映像20と左眼映像21とで比較すると、差d2の分だけ位置が異なっている。さらに、右端の樹木23は、幹の下端の位置が右眼映像20と左眼映像21とで差d3の分だけ異なっている。このように、同一の対象における垂直位置の差を垂直視差と称して以下に説明する。   Next, the vertical parallax will be described with reference to FIGS. 2 (a) and 2 (b). In FIG. 2, two trees 22 and 23 and a human 24 exist in the right-eye image 20 and the left-eye image 21 respectively, and the right-eye image 20 and the left-eye image 21 are the same target. But the vertical position is different. For example, when the lower end of the trunk of the tree 22 at the left end is compared between the right eye image 20 and the left eye image 21, the position is different by the difference d 1. Similarly, when the position of the waist is compared between the right-eye image 20 and the left-eye image 21, the central human 24 is different in position by a difference d2. Furthermore, in the tree 23 at the right end, the position of the lower end of the trunk is different between the right-eye image 20 and the left-eye image 21 by the difference d3. Thus, the difference between the vertical positions of the same object is referred to as vertical parallax and described below.

映像から対象物を抽出する手法については、公知の手法が複数存在するが、本実施形態では背景差分法を用いるものとする。本実施形態では、対象物の輪郭が判明すればよく、さらに立体映像が有する輝度の範囲が不明であり、輝度の変化に対して耐性を有する手法を適用する必要があることから、背景差分法を適用する。なお、他の方法によって立体映像から対象物を抽出するようにしてもよい。   There are a plurality of known methods for extracting an object from a video, but in the present embodiment, the background subtraction method is used. In the present embodiment, it is only necessary to identify the contour of the object, and further, the range of the luminance of the stereoscopic video is unknown, and it is necessary to apply a method having resistance to changes in luminance. Apply. The object may be extracted from the stereoscopic video by another method.

対象物抽出部11は、位置情報を生成するために、対象物の位置座標を算出する。本実施形態では、対象物の位置座標を、対象物に外接する矩形の対角線の交点座標と定義する。なお、その他の方法により位置座標を定義してもよい。   The object extraction unit 11 calculates position coordinates of an object to generate position information. In the present embodiment, position coordinates of the object are defined as intersection coordinates of a diagonal of a rectangle circumscribing the object. The position coordinates may be defined by another method.

対象物抽出部11が生成して出力する位置情報には、少なくとも対象物を識別する識別子と、対象物の位置座標とを含むものとする。ここで、識別子は、対象物を一意に識別できればよく、その形式を問わない。本実施形態では、0から始まる正の整数を使用する。   The position information generated and output by the object extraction unit 11 includes at least an identifier for identifying the object and position coordinates of the object. Here, the identifier may be in any form as long as it can uniquely identify the object. In the present embodiment, a positive integer starting from 0 is used.

続いて、図3を参照しながら対象物抽出部11の動作について詳しく説明する。まず、右眼映像20及び左眼映像21のそれぞれから対象物を抽出し、抽出した対象物に対して一意の識別子を付加する。例えば図3(b)に示すように、対象物抽出部11は、図3(a)に示す右眼映像20及び左眼映像21それぞれに存在する2本の樹木と人間とを対象物31として抽出する。   Subsequently, the operation of the object extraction unit 11 will be described in detail with reference to FIG. First, an object is extracted from each of the right-eye image 20 and the left-eye image 21, and a unique identifier is added to the extracted object. For example, as shown in FIG. 3B, the object extraction unit 11 sets two trees present in the right eye image 20 and the left eye image 21 shown in FIG. Extract.

次に、抽出した対象物に外接する矩形を算出する。このとき、抽出した対象物が画面の枠線に接している場合は、外接する矩形を画面の枠外にまで設定するものとする。例えば図3(c)に示すように、対象物抽出部11は、対象物31である左端の樹木に接する形で外接する矩形32を算出する。   Next, a rectangle circumscribing the extracted object is calculated. At this time, when the extracted object is in contact with the frame line of the screen, the circumscribed rectangle is set to the outside of the screen frame. For example, as shown in FIG. 3C, the object extraction unit 11 calculates a rectangle 32 circumscribed in contact with the tree at the left end which is the object 31.

次に、外接する矩形に対して対角線の交点を算出して位置座標とする。図3(d)に示すように、外接する矩形32の対角線の交点を求め、その座標を位置座標33とする。   Next, with respect to the circumscribed rectangle, the intersection point of the diagonal line is calculated to be position coordinates. As shown in FIG. 3D, the intersection of the diagonals of the circumscribed rectangle 32 is determined, and the coordinates thereof are set as position coordinates 33.

次に、対象物に付加した識別子と位置座標の垂直座標値とから位置情報を生成して映像処理部12に出力する。図3(e)に示すように、すべての対象物31に対して位置情報を生成して出力する。   Next, position information is generated from the identifier added to the object and the vertical coordinate value of the position coordinate, and is output to the video processing unit 12. As shown in FIG. 3E, position information is generated and output for all the objects 31.

次に、対象物抽出部11で算出した位置座標と垂直視差との関係について図4(a)及び図4(b)を参照しながら説明する。本実施形態では、図4(b)に示すように右眼映像20を基に算出した位置座標33の垂直方向の座標値と、左眼映像21を基に算出した位置座標33の垂直方向の座標値との差分を取り、その絶対値を垂直視差DG(n)とする。ここで、nは対象物31を識別する識別子であり、垂直視差DG(n)は、対象物31毎に算出される。なお、対象物31の垂直方向の座標値、及び対象物31を識別する識別子は共に位置情報に存在している。   Next, the relationship between the position coordinates calculated by the object extraction unit 11 and the vertical parallax will be described with reference to FIGS. 4 (a) and 4 (b). In the present embodiment, as shown in FIG. 4B, the coordinate value in the vertical direction of the position coordinate 33 calculated based on the right eye image 20 and the vertical direction of the position coordinate 33 calculated based on the left eye image 21 The difference from the coordinate value is taken, and the absolute value is taken as the vertical disparity DG (n). Here, n is an identifier for identifying the object 31, and the vertical parallax DG (n) is calculated for each object 31. The coordinate values in the vertical direction of the object 31 and the identifier for identifying the object 31 are both present in the position information.

続いて、映像処理部12が対象物を移動し、対象物が有する垂直視差を軽減する動作について図5を参照しながら説明する。ここで、画面左端に存在する樹木を対象物31の例として説明する。また、左端の樹木に付加した識別子を'0'とする。   Subsequently, an operation in which the video processing unit 12 moves the object and reduces the vertical parallax of the object will be described with reference to FIG. Here, a tree existing at the left end of the screen will be described as an example of the object 31. Also, let the identifier attached to the leftmost tree be '0'.

図5(a)に示すように、左端の樹木の位置座標33は、右眼映像20と左眼映像21とで位置が異なっている。右眼映像20上の左端の樹木は左眼映像21に比べて相対的に画面の下方向に位置している。そして、それぞれの位置座標33の垂直方向の座標値の差分である垂直視差はDG(0)である。   As shown in FIG. 5A, the position coordinates 33 of the tree at the left end are different in position between the right-eye image 20 and the left-eye image 21. The tree at the left end of the right-eye image 20 is positioned in the lower direction of the screen relative to the left-eye image 21. The vertical parallax, which is the difference between the coordinate values in the vertical direction of each position coordinate 33, is DG (0).

映像処理部12は、この垂直視差DG(0)を軽減するため、図5(b)に示すように、右眼映像20上の左端の樹木を上方に移動させ、反対に左眼映像21上の左端の樹木を下方に移動させる。図5(b)に示す移動方向43は、それぞれ左端の樹木の移動方向を示している。ここで、右眼映像20上の左端の樹木及び左眼映像21上の左端の樹木それぞれの移動量が同じである場合には、図5(c)に示すように、垂直視差DG(0)の1/2分移動して垂直視差DG(0)が0になる。   In order to reduce the vertical parallax DG (0), the video processing unit 12 moves the tree at the left end on the right-eye video 20 upward as shown in FIG. 5B, and conversely, on the left-eye video 21. Move the tree at the left end of the down. Movement directions 43 shown in FIG. 5B indicate the movement directions of the trees at the left end. Here, when the movement amounts of the tree at the left end on the right-eye image 20 and the tree at the left end on the left-eye image 21 are the same, as shown in FIG. 5C, the vertical parallax DG (0) The vertical parallax DG (0) becomes 0 by moving by 1/2 of.

図5(d)は、右眼映像20と左眼映像21とに存在する2本の樹木及び人間に対して、移動が完了した状態を示している。図5(d)に示すように、2本の樹木及び人間は、位置座標の垂直方向の座標値の差分が0になり、垂直視差がなくなっている。   FIG. 5D shows a state in which movement has been completed for two trees and humans present in the right-eye image 20 and the left-eye image 21. As shown in FIG. 5D, in the case of two trees and humans, the difference between the coordinate values in the vertical direction of the position coordinates is 0, and the vertical parallax is eliminated.

続いて、図6のフローチャートを参照しながら、映像処理部12の詳細な動作について説明する。
図6は、映像処理部12による詳細な処理手順の一例を示すフローチャートである。以下、図6の説明において、対象物を識別する識別子をnとし、対象とする映像のフレームに存在する対象物の個数をmとする。本実施形態では、対象物を識別する識別子nに0から始まる正の整数を使用していることから、識別子nの範囲は0≦n≦m−1である。また、識別子nの対象物の位置座標のうち垂直方向(y軸)の座標値は以下のように定義する。
右眼映像20上の垂直方向(y軸)の座標値:Gry(n)
左眼映像21上の垂直方向(y軸)の座標値:Gly(n)
とする。この座標値Gry(n)、Gly(n)は、対象物抽出部11が算出し、位置情報に含まれているものとする。
Subsequently, the detailed operation of the video processing unit 12 will be described with reference to the flowchart of FIG.
FIG. 6 is a flowchart showing an example of a detailed processing procedure by the video processing unit 12. Hereinafter, in the description of FIG. 6, an identifier for identifying an object is n, and the number of objects present in a frame of a target image is m. In the present embodiment, since a positive integer starting from 0 is used as the identifier n for identifying the object, the range of the identifier n is 0 ≦ n ≦ m−1. Further, among position coordinates of the object of the identifier n, coordinate values in the vertical direction (y axis) are defined as follows.
Coordinate values in the vertical direction (y-axis) on the right-eye image 20: Gry (n)
Coordinate values in the vertical direction (y-axis) on the left-eye image 21: Gly (n)
I assume. The coordinate values Gry (n) and Gly (n) are calculated by the object extraction unit 11 and included in the position information.

まず、図6のステップS601において、識別子nの開始値として0を代入する。そして、識別子nが終了値であるm−1になるまで、ステップS602からステップS610までの各動作を繰り返す。   First, in step S601 in FIG. 6, 0 is substituted as the start value of the identifier n. Then, each operation from step S602 to step S610 is repeated until the identifier n becomes m-1 which is the end value.

ステップS602においては、識別子nの対象物が有する水平視差Py(n)を、右眼映像20及び左眼映像21の位置座標から算出する。そして、ステップS603において、識別子nnの対象物の垂直視差DG(n)を、以下の式により算出する。
DG(n)=|Gly(n)−Gry(n)|
ここで、演算子'||'は絶対値を演算する演算子とする。
In step S602, the horizontal parallax Py (n) of the object with the identifier n is calculated from the position coordinates of the right-eye video 20 and the left-eye video 21. Then, in step S603, the vertical parallax DG (n) of the object of the identifier nn is calculated by the following equation.
DG (n) = | Gly (n) -Gry (n) |
Here, the operator '||' is an operator that calculates an absolute value.

次に、ステップS604において、垂直視差DG(n)と、垂直視差の許容量とを比較する。ここで、垂直視差の許容量は、水平視差Py(n)に依存する。この比較の結果、垂直視差の許容量を求める函数をf(Py(n))とした場合に、垂直視差DG(n)が函数f(Py(n))未満である場合は、垂直視差DG(n)は軽減しないようにする。したがって、垂直視差DG(n)を軽減する処理を行わず、次の識別子(n+1)に関してステップS602から処理を開始する。一方、ステップS604の比較の結果、垂直視差DG(n)が許容量以上(函数f(Py(n))以上)である場合は、対象物が有する垂直視差DG(n)を、後述するステップS605からステップS610の各処理により軽減する。   Next, in step S604, the vertical parallax DG (n) and the allowable amount of vertical parallax are compared. Here, the allowable amount of vertical parallax depends on the horizontal parallax Py (n). As a result of this comparison, when the function for obtaining the allowable amount of vertical parallax is f (Py (n)), when the vertical parallax DG (n) is less than the function f (Py (n)), the vertical parallax DG Do not reduce (n). Therefore, the process for reducing the vertical parallax DG (n) is not performed, and the process is started from step S602 for the next identifier (n + 1). On the other hand, if the vertical parallax DG (n) is equal to or larger than the allowable amount (the function f (Py (n)) or more) as a result of the comparison in step S604, the vertical parallax DG (n) included in the object will be described later. It reduces by each processing of S605 to step S610.

水平視差に対する垂直視差の許容量は、表示装置、表示装置の設置環境、あるいは表示装置の映像処理方式に依存し、一意ではない。そこで、予め複数の水平視差ごとに垂直視差を変化させ、これ以上垂直視差を大きくなると立体視融合が不可能になる限界の垂直視差を求めておく。そして、この限界の垂直視差に1以下の係数を乗じた値を垂直視差の許容量とする。このように、水平視差と垂直視差の許容量との関係を表す函数fを定義する。この函数によれば、水平視差が大きいほど垂直視差の許容量は小さくなる。   The allowable amount of vertical parallax with respect to horizontal parallax depends on the display device, the installation environment of the display device, or the image processing method of the display device, and is not unique. Therefore, the vertical parallax is changed in advance for each of a plurality of horizontal parallaxes, and the vertical parallax which is a limit at which stereoscopic fusion can not be performed when the vertical parallax is further increased is obtained. Then, a value obtained by multiplying the limit vertical parallax by a coefficient of 1 or less is taken as the allowable amount of vertical parallax. Thus, a function f is defined that represents the relationship between horizontal parallax and vertical parallax tolerance. According to this function, the larger the horizontal parallax, the smaller the allowable amount of vertical parallax.

なお、本実施形態では水平視差に対する垂直視差の許容量を函数で定義したが、定義の手法を函数に限定するものではない。例えば、対応表を使用してステップS604で比較してもよい。   In the present embodiment, the allowable amount of vertical parallax with respect to horizontal parallax is defined by a function, but the method of definition is not limited to a function. For example, the comparison table may be used to compare in step S604.

ステップS605においては、識別子nの対象物が画面の上辺あるいは下辺に接しているか否かを判定する。対象物が画面の上辺あるいは下辺に接している場合は、画面の上辺あるいは下辺で形状が途切れていて、右眼映像20と左眼映像21とで、対象物の形状が異なることがある。このとき、移動して垂直方向の位置を合わせると、右眼映像20と左眼映像21とで対象物の形状が異なるため、立体視融合が困難にあり、脳内混乱を引き起こす。そこで、対象物が画面の上辺あるいは下辺に接しているか否かによって、垂直視差を軽減する動作を変更する。   In step S605, it is determined whether the object of the identifier n is in contact with the upper side or the lower side of the screen. When the object is in contact with the upper side or the lower side of the screen, the shape may be interrupted at the upper side or the lower side of the screen, and the shape of the object may be different between the right eye image 20 and the left eye image 21. At this time, when moving and aligning the position in the vertical direction, the shape of the object is different between the right-eye image 20 and the left-eye image 21, so that stereoscopic fusion is difficult and confusion in the brain is caused. Therefore, the operation to reduce the vertical parallax is changed depending on whether the object is in contact with the upper side or the lower side of the screen.

まず、ステップS605の判定の結果、識別子nの対象物に関して右眼映像20と左眼映像21とで共に画面の上辺にも下辺にも接していない場合はステップS606に進む。一方、右眼映像20上の識別子nの対象物は画面の上辺にも下辺にも接していないが、左眼映像21上の識別子nの対象物が画面の上辺あるいは下辺に接している場合はステップS607に進む。   First, as a result of the determination in step S605, if neither the upper side nor the lower side of the screen is in contact with the right eye image 20 and the left eye image 21 for the object of the identifier n, the process proceeds to step S606. On the other hand, although the object of the identifier n on the right-eye image 20 is not in contact with the upper side or the lower side of the screen, when the object of the identifier n in the left-eye image 21 is in contact with the upper side or the lower side of the screen It progresses to step S607.

さらに、右眼映像20上の識別子nの対象物は画面の上辺あるいは下辺に接しているが、左眼映像21上の識別子nの対象物は画面の上辺にも下辺にも接していない場合は、ステップS608に進む。また、識別子nの対象物に関して右眼映像20と左眼映像21とで共に画面の上辺あるいは下辺に接している場合は、垂直視差DG(n)を軽減する処理を行わないようにする。したがって、次の識別子(n+1)に関してステップS602から処理を開始する。   Furthermore, the object of the identifier n on the right-eye image 20 is in contact with the upper side or the lower side of the screen, but the object of the identifier n on the left-eye image 21 is not in contact with the upper side or the lower side of the screen Proceed to step S608. When both the right-eye image 20 and the left-eye image 21 touch the upper side or the lower side of the screen with respect to the object of the identifier n, the process of reducing the vertical parallax DG (n) is not performed. Therefore, the process starts from step S602 for the next identifier (n + 1).

ステップS606においては、識別子nの対象物に関して右眼映像20と左眼映像21とで共に画面の上辺にも下辺にも接していない場合の移動ベクトルを算出する。この場合、右眼映像20及び左眼映像21双方の対象物を同じ距離だけ移動し、その移動先は垂直方向位置の中間点になる。ステップS606で算出する右眼映像20上の対象物の移動ベクトルは、{0,(Gly(n)−Gry(n))/2}である。一方、左眼映像21上の対象物の移動ベクトルも、{0,(Gry(n)−Gly(n))/2}である。   In step S606, a movement vector is calculated in the case where neither the upper side nor the lower side of the screen is in contact with the right-eye image 20 and the left-eye image 21 for the object of the identifier n. In this case, the objects of both the right-eye image 20 and the left-eye image 21 are moved by the same distance, and the movement destination is the midpoint of the vertical position. The movement vector of the object on the right-eye image 20 calculated in step S606 is {0, (Gly (n) -Gry (n)) / 2}. On the other hand, the movement vector of the object on the left eye image 21 is also {0, (Gry (n) -Gly (n)) / 2}.

ステップS607においては、右眼映像20上の識別子nの対象物は画面の上辺にも下辺にも接していないが、左眼映像21上の識別子nの対象物が画面の上辺あるいは下辺に接している場合の移動ベクトルを算出する。この場合、左眼映像21上の対象物を移動させず、右眼映像20上の対象物のみを移動させ、移動先は、左眼映像21上の対象物の位置である。ステップS607で算出する右眼映像20上の対象物の移動ベクトルは、{0,Gly(n)−Gry(n)}である。なお、左眼映像21上の対象物の移動ベクトルは0とする。   In step S607, although the object of the identifier n on the right eye image 20 is not in contact with the upper side or the lower side of the screen, the object of the identifier n in the left eye image 21 is in contact with the upper side or the lower side of the screen Calculate the movement vector in the case of In this case, only the object on the right-eye image 20 is moved without moving the object on the left-eye image 21, and the movement destination is the position of the object on the left-eye image 21. The movement vector of the object on the right eye image 20 calculated in step S607 is {0, Gly (n) -Gry (n)}. Note that the movement vector of the object on the left eye image 21 is 0.

ステップS608においては、右眼映像20上の識別子nの対象物は画面の上辺あるいは下辺に接しているが、左眼映像21上の識別子nの対象物は画面の上辺にも下辺にも接していない場合の移動ベクトルを算出する。この場合、右眼映像20上の対象物を移動させず、左眼映像21上の対象物のみを移動させ、移動先は、右眼映像20上の対象物の位置である。ステップS608で算出する左眼映像21上の対象物の移動ベクトルは、{0,Gry(n)−Gly(n)}である。なお、右眼映像20上の対象物の移動ベクトルは0とする。   In step S608, the object of identifier n on the right-eye image 20 is in contact with the upper or lower side of the screen, but the object of identifier n in the left-eye image 21 is in contact with the upper or lower side of the screen Calculate the movement vector when there is not. In this case, only the object on the left eye image 21 is moved without moving the object on the right eye image 20, and the movement destination is the position of the object on the right eye image 20. The movement vector of the object on the left-eye image 21 calculated in step S608 is {0, Gry (n) -Gly (n)}. Note that the movement vector of the object on the right-eye image 20 is zero.

ステップS609においては、識別子nの対象物を右眼映像20または左眼映像21から切り出し、切り出した対象物を移動させる。このとき、ステップS606、ステップS607、またはステップS608で算出した移動ベクトルを基に対象物を移動させる。本実施形態では、対象物を切り出する方法及び移動させる方法についてはどのような公知の方法を用いてもよい。そして、ステップS610において、ステップS609で切り出して移動した対象物の移動元領域を、その周辺領域の映像で充填する。以上のように図6の処理を立体映像のフレームごとに行う。   In step S609, the object of the identifier n is cut out from the right eye image 20 or the left eye image 21, and the cut out object is moved. At this time, the object is moved based on the movement vector calculated in step S606, step S607, or step S608. In the present embodiment, any known method may be used as a method of cutting out an object and a method of moving it. Then, in step S610, the moving source area of the target object extracted and moved in step S609 is filled with the image of the peripheral area. As described above, the process of FIG. 6 is performed for each frame of the stereoscopic video.

以上のように本実施形態によれば、水平視差と垂直視差の許容量との関係を表す函数fを定義し、垂直視差が函数fによって与えられた許容量未満である場合には、対象物を移動させないようにした。これにより、飛び出し量の大きい対象物とそうでない対象物とで垂直視差を軽減する基準が異なるため、処理負荷が大きくならないようにして違和感及び疲労感をより軽減させることができる。   As described above, according to the present embodiment, a function f representing the relationship between the horizontal parallax and the allowable amount of vertical parallax is defined, and when the vertical parallax is less than the allowable amount given by the function f, the object Did not move the As a result, the criteria for reducing the vertical parallax are different between the object with a large pop-out amount and the other object, so that the processing load does not increase, and discomfort and fatigue can be further reduced.

(第2の実施形態)
以下、本発明に係る第2の実施形態について説明する。
図7は、本実施形態に係る画像処理装置70の機能構成例を示すブロック図である。本実施形態に係る画像処理装置70は、対象物抽出部71、映像処理部72及び動きベクトル算出部73を少なくとも有している。なお、対象物抽出部71は、第1の実施形態に係る対象物抽出部11と同様であるため、説明は省略する。
Second Embodiment
Hereinafter, a second embodiment according to the present invention will be described.
FIG. 7 is a block diagram showing an example of a functional configuration of the image processing apparatus 70 according to the present embodiment. The image processing apparatus 70 according to the present embodiment at least includes an object extraction unit 71, a video processing unit 72, and a motion vector calculation unit 73. In addition, since the target object extraction part 71 is the same as the target object extraction part 11 which concerns on 1st Embodiment, description is abbreviate | omitted.

映像処理部72は、対象物が有する垂直視差を軽減させるために対象物を移動させる。本実施形態では第1の実施形態とは異なり、位置情報のみならず動きベクトル算出部73が生成する動きベクトル情報も用いて、対象物が有する垂直視差を軽減する。   The image processing unit 72 moves the object to reduce the vertical parallax of the object. In this embodiment, unlike the first embodiment, not only position information but also motion vector information generated by the motion vector calculation unit 73 is used to reduce the vertical parallax of the object.

動きベクトル算出部73は、入力された立体映像と対象物抽出部71で得られた位置情報とを基に対象物が有する動きベクトルMV(n)を算出し、動きベクトル情報を映像処理部72に出力する。ここで、nは対象物を識別する識別子である。   The motion vector calculation unit 73 calculates the motion vector MV (n) of the object based on the input three-dimensional video and the position information obtained by the object extraction unit 71, and the motion vector information is processed by the image processing unit 72. Output to Here, n is an identifier for identifying an object.

次に、映像処理部72の動作について図8のフローチャートを参照しながら詳しく説明する。
図8は、映像処理部72による詳細な処理手順の一例を示すフローチャートである。なお、各変数の定義は図6と同様であるため、説明は省略する。
Next, the operation of the video processing unit 72 will be described in detail with reference to the flowchart of FIG.
FIG. 8 is a flowchart showing an example of a detailed processing procedure by the video processing unit 72. In addition, since the definition of each variable is the same as that of FIG. 6, description is abbreviate | omitted.

図8において、ステップS601からS610までの処理の内容は、図6と同様であるため、説明は省略する。ステップS606において移動ベクトルを算出すると、次にステップS801において、1つ前のフレームと当該フレームとの間に、シーンの切替えが存在したか否かを判定する。この判定の結果、シーンの切替えが存在する場合は、1つ前のフレームと当該フレームとの間に相関関係は存在しないため、ステップS606で算出した移動ベクトルをそのまま使用することができる。したがってこの場合はステップS609に進む。一方、ステップS801の判定の結果、シーンの切替えが存在しない場合は、1つ前のフレームと当該フレームとの間に相関関係が存在するため、ステップS606で算出した移動ベクトルの妥当性を判定する必要が生じる。そこで、移動ベクトルの妥当性についてステップS802及びS803で判定する。   In FIG. 8, the contents of the processing from step S601 to step S610 are the same as those in FIG. When the movement vector is calculated in step S606, it is next determined in step S801 whether or not there is a scene switch between the immediately preceding frame and the frame. As a result of this determination, when there is a scene switch, there is no correlation between the immediately preceding frame and the frame, so the movement vector calculated in step S606 can be used as it is. Therefore, in this case, the process proceeds to step S609. On the other hand, as a result of the determination in step S801, if there is no scene switching, there is a correlation between the immediately preceding frame and the frame, so the validity of the movement vector calculated in step S606 is determined. A need arises. Therefore, the validity of the movement vector is determined in steps S802 and S803.

まず、ステップS802において、対象物が移動したものとして仮定し、1つ前のフレームと当該フレームとの間で識別子nの対象物が有する動きベクトルMV'(n)の垂直成分MV'y(n)を算出する。ここで、1つ前のフレームにおける対象物に対して垂直視差を軽減する補正を施した後の位置座標をGk(n)とし、位置座標Gk(n)の垂直方向の成分をGky(n)とする。また、当該フレームにおける移動したと仮定した対象物の位置座標をGk+1(n)とする。この場合、位置座標Gk+1(n)の垂直方向の成分は、{(Gry(n)+Gly(n))/2}である。よって、動きベクトルMV'(n)の垂直成分MV'y(n)は、以下のように算出される。
MV'y(n)=(Gry(n)+Gly(n))/2−Gky(n)
First, in step S802, it is assumed that the object has moved, and the vertical component MV ′ y (n) of the motion vector MV ′ (n) of the object of the identifier n between the immediately preceding frame and the frame is Calculate). Here, let Gk (n) be the position coordinate of the object in the immediately preceding frame after correction to reduce the vertical parallax, and Gky (n) be the vertical component of the position coordinate Gk (n). I assume. Further, position coordinates of an object assumed to have moved in the frame are set to Gk + 1 (n). In this case, the vertical component of the position coordinates Gk + 1 (n) is {(Gry (n) + Gly (n)) / 2}. Therefore, the vertical component MV'y (n) of the motion vector MV '(n) is calculated as follows.
MV'y (n) = (Gry (n) + Gly (n)) / 2-Gky (n)

次に、ステップS803において、ステップS802で算出した動きベクトルMV'(n)の垂直成分MV'y(n)の符号と、動きベクトル算出部73が算出した動きベクトルMV(n)の垂直成分MVy(n)の符号とを比較する。ステップS803では、以下に示す論理式を用いて比較を実施する。
((MVy(n)≧0)&&(MV'y(n)≧0))||
((MVy(n)<0)&&(MV'y(n)<0))
ここで、演算子'&&'は論理積を実施する演算子とし、演算子'||'は論理和を実施する演算子とする。
Next, in step S803, the sign of the vertical component MV'y (n) of the motion vector MV '(n) calculated in step S802 and the vertical component MVy of the motion vector MV (n) calculated by the motion vector calculation unit 73. Compare with the sign of (n). In step S803, comparison is performed using a logical expression shown below.
(((MVy (n) ≧ 0) &&(MV'y (n) ≧ 0)) ||
((MVy (n) <0) &&(MV'y (n) <0))
Here, the operator '&&' is an operator that performs a logical product, and the operator '||' is an operator that performs a logical sum.

この比較の結果、上記論理式の条件を満たす場合は、垂直視差を軽減するために対象物を移動しても、動きベクトルと移動方向とが同一であり、視聴者が違和感を覚えることはない。そこで、ステップS606で算出した移動ベクトルをそのまま用いることができるため、ステップS609に進む。   As a result of this comparison, when the condition of the above logical expression is satisfied, even if the object is moved to reduce the vertical parallax, the motion vector and the moving direction are the same, and the viewer does not feel discomfort . Therefore, since the movement vector calculated in step S606 can be used as it is, the process proceeds to step S609.

一方、ステップS803の比較の結果、上記論理式の条件を満たさない場合は、対象物をそのまま移動させると動きベクトルと干渉し、視聴者が違和感を覚えるおそれがある。そこで、ステップS804において、移動先の再設定と移動ベクトルの再算出とを実施する。移動先の再設定及び移動ベクトルの再算出は、動きベクトルMV(n)の垂直成分MVy(n)の符号を基に、以下に示す規準で実施する。   On the other hand, as a result of comparison in step S803, when the condition of the above logical expression is not satisfied, if the object is moved as it is, it interferes with the motion vector, and the viewer may feel discomfort. Therefore, in step S804, resetting of the movement destination and recalculation of the movement vector are performed. Relocation of the moving destination and recalculation of the motion vector are performed based on the sign of the vertical component MVy (n) of the motion vector MV (n) according to the following criteria.

(1)(MVy(n)<0)&&(Gly(n)<Gry(n))である場合は、移動先を左眼映像21上の対象物の位置とする。すなわち、右眼映像における移動ベクトルを{0,(Gly(n)−Gry(n))/2}とし、左眼映像における移動ベクトルを{0,0}とする。   (1) If (MVy (n) <0) && (Gly (n) <Gry (n)), the movement destination is the position of the object on the left eye image 21. That is, the movement vector in the right-eye image is {0, (Gly (n) -Gry (n)) / 2}, and the movement vector in the left-eye image is {0, 0}.

(2)(MVy(n)<0)&&(Gly(n)≧Gry(n))である場合は、移動先を右眼映像20上の対象物の位置とする。すなわち、右眼映像における移動ベクトルを{0,0}とし、左眼映像における移動ベクトルを{0,(Gry(n)−Gly(n))/2}とする。   (2) When (MVy (n) <0) && (Gly (n) ≧ Gry (n)), the movement destination is the position of the object on the right eye image 20. That is, the movement vector in the right-eye image is {0, 0}, and the movement vector in the left-eye image is {0, (Gry (n) -Gly (n)) / 2}.

(3)(MVy(n)≧0)&&(Gly(n)<Gry(n))である場合は、移動先を右眼映像20上の対象物の位置とする。すなわち、右眼映像における移動ベクトルを{0,0}とし、左眼映像における移動ベクトルを{0,(Gry(n)−Gly(n))/2}とする。   (3) If (MVy (n) ≧ 0) && (Gly (n) <Gry (n)), the movement destination is the position of the object on the right eye image 20. That is, the movement vector in the right-eye image is {0, 0}, and the movement vector in the left-eye image is {0, (Gry (n) -Gly (n)) / 2}.

(4)(MVy(n)≧0)&&(Gly(n)≧Gry(n))である場合は、移動先を左眼映像21上の対象物の位置とする。すなわち、右眼映像における移動ベクトルを{0,(Gly(n)−Gry(n))/2}とし、左眼映像における移動ベクトルを{0,0}とする。   (4) If (MVy (n) ≧ 0) && (Gly (n) ≧ Gry (n)), the movement destination is the position of the object on the left eye image 21. That is, the movement vector in the right-eye image is {0, (Gly (n) -Gry (n)) / 2}, and the movement vector in the left-eye image is {0, 0}.

ステップS609では、以上のようにステップS804で再算した移動ベクトルを用いて、識別子nの対象物を移動させることとなる。   In step S609, the object of the identifier n is moved using the movement vector recalculated in step S804 as described above.

以上のように本実施形態によれば、動きベクトルを反映させて対象物の移動量及び移動方向を決定するようにした。これにより動いている対象物を含む立体映像に対しても違和感や疲労感をより軽減させることができる。   As described above, according to the present embodiment, the movement amount and the movement direction of the object are determined by reflecting the motion vector. In this way, it is possible to further reduce the sense of discomfort and the feeling of fatigue with respect to a stereoscopic image including a moving object.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention is also realized by executing the following processing. That is, software (program) for realizing the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU or the like) of the system or apparatus reads the program. It is a process to execute.

11 対象物抽出部
12 映像処理部
11 object extraction unit 12 video processing unit

Claims (7)

右眼映像及び左眼映像から抽出したオブジェクトの位置情報を判定する判定手段と、
前記右眼映像から抽出された第1オブジェクトの前記右眼映像内における位置と、前記左眼映像から抽出された第2オブジェクトであって前記第1オブジェクトに対応する第2オブジェクトの前記左眼映像内における位置と、の垂直方向における差が、前記第1オブジェクトの前記右眼映像内における位置と前記第2オブジェクトの前記左眼映像内における位置との水平方向における差に基づいて定められる閾値よりも大きい場合、前記垂直方向における差が小さくなるように、前記第1オブジェクト及び前記第2オブジェクトのうち少なくとも何れかの位置を変更する映像処理手段と、
を有することを特徴とする画像処理装置。
A determination unit that determines position information of an object extracted from the right-eye video and the left-eye video;
The position in the right-eye image of the first object extracted from the right-eye image, and the left-eye image of the second object corresponding to the first object, the second object extracted from the left-eye image The difference between the position in the vertical direction and the position in the vertical direction is a threshold value determined based on the difference in the horizontal direction between the position of the first object in the right eye image and the position of the second object in the left eye image Video processing means for changing the position of at least one of the first object and the second object so that the difference in the vertical direction becomes smaller,
An image processing apparatus comprising:
前記右眼映像及び前記左眼映像から動きベクトルを算出する算出手段をさらに有し、
前記映像処理手段は、前記算出手段によって算出された動きベクトルに基づいて、前記オブジェクトの前記垂直方向における差を小さくするための移動ベクトルを決定することを特徴とする請求項1に記載の画像処理装置。
The image processing apparatus further comprises calculation means for calculating a motion vector from the right eye image and the left eye image,
The image processing according to claim 1, wherein the image processing means determines a movement vector for reducing the difference in the vertical direction of the object based on the motion vector calculated by the calculation means. apparatus.
前記判定手段は、前記抽出したオブジェクトに外接する矩形における対角線の交点の座標を前記位置情報として判定することを特徴とする請求項1又は2に記載の画像処理装置。 The determination means is an image processing apparatus according to claim 1 or 2, characterized in that to determine the intersection of diagonal lines of the coordinates in the rectangle circumscribing the extracted object as the position information. 前記映像処理手段は、前記右眼映像から抽出された前記第1オブジェクトが前記右眼映像の上辺及び下辺のうち少なくとも何れかに達している否か、及び前記左眼映像から抽出された前記第2オブジェクトが前記左眼映像の上辺及び下辺のうち少なくとも何れかに達しているか否かの判定結果に応じて、前記第1オブジェクト及び前記第2オブジェクトのうち少なくとも一方の前記垂直方向における差を小さくするための移動量を算出することを特徴とする請求項1〜の何れか1項に記載の画像処理装置。 The image processing means determines whether the first object extracted from the right-eye image has reached at least one of the upper side and the lower side of the right-eye image, and the first object extracted from the left-eye image The difference in the vertical direction of at least one of the first object and the second object is reduced according to the determination result as to whether or not the two objects reach at least one of the upper side and the lower side of the left eye image. The image processing apparatus according to any one of claims 1 to 3 , wherein an amount of movement of the image processing apparatus is calculated. 前記映像処理手段は、前記右眼映像から抽出された前記第1オブジェクトが前記右眼映像の上辺又は下辺に達し、前記左眼映像から抽出された前記第2オブジェクトが前記左眼映像の上辺及び下辺に達していないと判定した場合、前記第1オブジェクト及び前記第2オブジェクトのうち前記第2オブジェクトの位置を前記垂直方向における差を小さくするために変更することを特徴とする請求項1〜の何れか1項に記載の画像処理装置。 The image processing means may be configured such that the first object extracted from the right eye image reaches the upper side or the lower side of the right eye image, and the second object extracted from the left eye image is the upper side of the left eye image and If it is determined not to reach the lower side, it claims 1-4, characterized in that to change the position of the second object of the first object and the second object in order to reduce the difference in the vertical direction The image processing apparatus according to any one of the above. 右眼映像及び左眼映像から抽出したオブジェクトの位置情報を判定する判定工程と、
前記右眼映像から抽出された第1オブジェクトの前記右眼映像内における位置と、前記左眼映像から抽出された第2オブジェクトであって前記第1オブジェクトに対応する第2オブジェクトの前記左眼映像内における位置と、の垂直方向における差が、前記第1オブジェクトの前記右眼映像内における位置と前記第2オブジェクトの前記左眼映像内における位置との水平方向における差に基づいて定められる閾値よりも大きい場合、前記垂直方向における差が小さくなるように、前記第1オブジェクト及び前記第2オブジェクトのうち少なくとも何れかの位置を変更する映像処理工程と、
を有することを特徴とする画像処理方法。
A determination step of determining position information of an object extracted from the right-eye video and the left-eye video;
The position in the right-eye image of the first object extracted from the right-eye image, and the left-eye image of the second object corresponding to the first object, the second object extracted from the left-eye image The difference between the position in the vertical direction and the position in the vertical direction is a threshold value determined based on the difference in the horizontal direction between the position of the first object in the right eye image and the position of the second object in the left eye image And the image processing step of changing the position of at least one of the first object and the second object so as to reduce the difference in the vertical direction,
An image processing method comprising:
コンピュータを、請求項1〜の何れか1項に記載の画像処理装置の各手段として機能させるためのプログラム。 The program for functioning a computer as each means of the image processing apparatus in any one of Claims 1-5 .
JP2013157915A 2013-07-30 2013-07-30 Image processing apparatus, image processing method and program Active JP6242104B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013157915A JP6242104B2 (en) 2013-07-30 2013-07-30 Image processing apparatus, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013157915A JP6242104B2 (en) 2013-07-30 2013-07-30 Image processing apparatus, image processing method and program

Publications (3)

Publication Number Publication Date
JP2015029206A JP2015029206A (en) 2015-02-12
JP2015029206A5 JP2015029206A5 (en) 2016-09-08
JP6242104B2 true JP6242104B2 (en) 2017-12-06

Family

ID=52492647

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013157915A Active JP6242104B2 (en) 2013-07-30 2013-07-30 Image processing apparatus, image processing method and program

Country Status (1)

Country Link
JP (1) JP6242104B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109945442B (en) * 2019-03-31 2021-04-27 邯郸美的制冷设备有限公司 Air conditioner, control method of air conditioner, and computer-readable storage medium

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003061116A (en) * 2001-08-09 2003-02-28 Olympus Optical Co Ltd Stereoscopic video image display device
WO2012153378A1 (en) * 2011-05-06 2012-11-15 富士通株式会社 Stereoscopic image generation device, stereoscopic image generation method, stereoscopic image generation program

Also Published As

Publication number Publication date
JP2015029206A (en) 2015-02-12

Similar Documents

Publication Publication Date Title
JP6951565B2 (en) Depth estimation methods and devices, electronic devices and media
US9767611B2 (en) Information processing apparatus and method for estimating depth values using an approximate plane
EP2568355A2 (en) Combined stereo camera and stereo display interaction
KR100517517B1 (en) Method for reconstructing intermediate video and 3D display using thereof
KR101938205B1 (en) Method for depth video filtering and apparatus thereof
US10762688B2 (en) Information processing apparatus, information processing system, and information processing method
Cheng et al. Spatio-temporally consistent novel view synthesis algorithm from video-plus-depth sequences for autostereoscopic displays
Eng et al. Gaze correction for 3D tele-immersive communication system
US20130038600A1 (en) System and Method of Processing 3D Stereoscopic Image
JP2008535116A (en) Method and apparatus for three-dimensional rendering
JP7184748B2 (en) A method for generating layered depth data for a scene
KR20210001254A (en) Method and apparatus for generating virtual view point image
US9082210B2 (en) Method and apparatus for adjusting image depth
US20170257614A1 (en) Three-dimensional auto-focusing display method and system thereof
JP6242104B2 (en) Image processing apparatus, image processing method and program
JP6719945B2 (en) Information processing apparatus, information processing method, information processing system, and program
JP5464129B2 (en) Image processing apparatus and parallax information generating apparatus
JP5307051B2 (en) Stereoscopic image adjusting apparatus and adjusting method
KR101451236B1 (en) Method for converting three dimensional image and apparatus thereof
WO2020178289A1 (en) Processing of depth maps for images
JP2012105172A (en) Image generation device, image generation method, computer program, and record medium
KR20140120000A (en) Device and method for producing stereoscopic subtitles by analysing three-dimensional space
JPH07296195A (en) Device and method for image processing
KR100447778B1 (en) Apparatus for Embodying Stereo/Multiview Realistic Mixed Reality using Pose Estimation and Method Thereof
JP2002077941A (en) Apparatus and method for generating depth image as well as computer readable recording medium recording program to execute the method in computer

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160720

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171107

R151 Written notification of patent or utility model registration

Ref document number: 6242104

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151