JP2012004862A - Video processing method, video processing device and video processing program - Google Patents

Video processing method, video processing device and video processing program Download PDF

Info

Publication number
JP2012004862A
JP2012004862A JP2010138103A JP2010138103A JP2012004862A JP 2012004862 A JP2012004862 A JP 2012004862A JP 2010138103 A JP2010138103 A JP 2010138103A JP 2010138103 A JP2010138103 A JP 2010138103A JP 2012004862 A JP2012004862 A JP 2012004862A
Authority
JP
Japan
Prior art keywords
frequency
frequency component
image
moving image
parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010138103A
Other languages
Japanese (ja)
Other versions
JP5545059B2 (en
Inventor
Yuichi Kobayashi
裕一 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toppan Inc
Original Assignee
Toppan Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toppan Printing Co Ltd filed Critical Toppan Printing Co Ltd
Priority to JP2010138103A priority Critical patent/JP5545059B2/en
Publication of JP2012004862A publication Critical patent/JP2012004862A/en
Application granted granted Critical
Publication of JP5545059B2 publication Critical patent/JP5545059B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To enable stereoscopic appearance of an in-plane part of a target object to be naturally enhanced.SOLUTION: A video processing method comprises at least: frequency decomposition means for performing spatial frequency decomposition to the spatial frequency component of a two-dimensional image to calculate frequency components; counting means for counting each of the frequency components obtained via the frequency decomposition means; determination means for determining a dynamic property of the scene from the result obtained via the counting means; parallax amount designation means for designating a parallax amount to be given to an image to be three-dimensionalized based on the result obtained via the determination means; parallax amount allocation means for allocating the parallax amount to the frequency components obtained by the decomposition; frequency composition means for combining each frequency component obtained via the parallax amount allocation means; image conversion means for outputting a left eye image and a right eye image which enable a binocular stereoscopic vision from the result obtained by the frequency composition means; and the video output means for outputting a video from plural images.

Description

この発明は、動画像を立体視した際に立体感を操作する(強調あるいは抑制する)ことを可能にする動画像処理方法、動画像処理装置およびプログラムに関する。   The present invention relates to a moving image processing method, a moving image processing apparatus, and a program that enable a stereoscopic effect to be manipulated (emphasized or suppressed) when a moving image is stereoscopically viewed.

人間の視覚の立体視処理では、左右それぞれの眼で見た画像(映像)に基づいて、立体を認識する。したがって、画像(映像)を立体的に見せるためには、左眼用画像(映像)および右眼用画像(映像)の一組の画像(映像)が必要である。
2次元画像にある加工を加えることにより、平面的な画像を立体的に見せる方法、いわゆる「立体視」技術が知られている。その中に、1枚の2次元画像から左眼用と右眼用の2つの画像を生成する技術がある。これは、画像中の注目物体(被写物体)に対する両眼の視差を算出し、これに基づいた量だけ画像の各画素位置を水平方向にシフトすることにより左眼用画像と右眼用画像を生成する処理である。
In human visual stereoscopic processing, a stereoscopic image is recognized based on an image (video) viewed with the left and right eyes. Therefore, in order to make an image (video) appear three-dimensionally, a set of images (video) for the left eye image (video) and the right eye image (video) is required.
A so-called “stereoscopic” technique is known in which a two-dimensional image is processed to make a planar image appear stereoscopically. Among them, there is a technique for generating two images for the left eye and right eye from one two-dimensional image. This calculates the binocular parallax with respect to the object of interest (the object to be imaged) in the image, and shifts each pixel position of the image in the horizontal direction by an amount based on the parallax. Is a process for generating

両眼視差を算出する方法として、明度や彩度などの色情報に基づいて、実際の物体の奥行き(カメラからの相対距離)を概算する方法がある。
例えば、特許文献1では、画像の遠近を表す画像特徴量として、各領域毎の高周波数成分の積算値、輝度コントラスト、輝度積算値および彩度積算値を定め、これらのいずれか或は組合せから各領域間に差が出るように奥行き補正量を算出し、その大小から遠近の度合いを決定する方法が開示されている。
この方法では、領域間に都合よく前後関係を付けるように奥行き量を補正するが、そのために適切な画像特徴量を選択するものであり、様々な場合に対応し得る柔軟性があるが、逆に、自動的に決定するなどの決定力に欠ける。さらに、同一面内などの領域内部に前後関係を与えることが困難な対象には不適切といえる。
As a method for calculating binocular parallax, there is a method of estimating the actual depth (relative distance from the camera) of an object based on color information such as brightness and saturation.
For example, in Patent Document 1, an integrated value of high frequency components, luminance contrast, integrated luminance value, and integrated saturation value for each region are defined as image feature amounts representing the perspective of an image, and any one or combination thereof is determined. A method is disclosed in which the depth correction amount is calculated so that a difference is produced between the regions, and the degree of perspective is determined from the magnitude.
In this method, the depth amount is corrected so as to conveniently give a front-to-back relationship between regions. For this purpose, an appropriate image feature amount is selected, and there is flexibility to cope with various cases. In addition, it lacks decisive power such as automatic determination. Furthermore, it can be said that it is inappropriate for an object in which it is difficult to give a context within a region such as the same plane.

両眼立体視を前提として、立体感を調整する方法が数多く提供されている。
例えば、特許文献1では、映像中の注目領域の移動量に応じた動きベクトルの平均値を求め、その平均値と比較した大小関係から、注目領域が被写体であるか背景であるかを決定し、被写体と背景との間の差分に応じて水平位相量を調節する方法が提示されている。しかし、この方法では背景自体や被写体の面の内部に立体感を与えることはできない。
また、特許文献2では、映像信号のエッジ情報を求め、エッジ情報の密な領域を前景に、疎な領域を背景とみなして前後関係を求め、前景には大きく、背景には小さく視差を与える方法が提示されている。しかし、この方法ではエッジが密な領域全体を対象とするため、毛皮や織物などの細かい構造が密集した素材に対しては、面全体が前景の対象となって背景を特定できず、前後関係が求まらない。
さらに特許文献3では、一般に被写体にピントが合っている映像が多いことから、近くにあるものほど、高周波数成分、コントラスト、輝度および彩度が高いと考え、高周波の積算値、輝度コントラスト、輝度積算値および彩度積算値が多い領域ほど、前方に存在する物体と判断して奥行き補正量を決定し、この奥行き量に対して線形に視差量を対応付ける方法が提示されている。しかし、この方法は領域間に視差を与える事を目的としており、例えば面積の小さい領域内部に視差を与える目的に対しては不適切である。
Many methods for adjusting the stereoscopic effect are provided on the premise of binocular stereoscopic vision.
For example, in Patent Document 1, an average value of motion vectors corresponding to the amount of movement of a region of interest in a video is obtained, and whether the region of interest is a subject or a background is determined from the magnitude relationship compared with the average value. A method for adjusting the horizontal phase amount in accordance with the difference between the subject and the background is presented. However, this method cannot give a stereoscopic effect to the background itself or the inside of the subject surface.
Further, in Patent Document 2, edge information of a video signal is obtained, and a front-rear relationship is obtained by regarding a dense area of edge information as a foreground and a sparse area as a background, and a large parallax is given to the foreground and a small background. A method is presented. However, since this method targets the entire region with dense edges, the background cannot be specified because the entire surface is the target of the foreground, and the background cannot be specified for materials with dense structures such as fur and fabric. I can't find it.
Further, in Patent Document 3, since there are generally many images in which the subject is in focus, it is considered that the closer the object is, the higher the high frequency component, contrast, luminance, and saturation, and the higher frequency integrated value, luminance contrast, luminance A method is proposed in which the depth correction amount is determined by determining that an area having a larger integrated value and saturated integrated value is an object existing ahead, and the parallax amount is linearly associated with the depth amount. However, this method is intended to give parallax between areas, and is inappropriate for the purpose of giving parallax inside a small area, for example.

一方、プルフリッヒ効果とよばれる、明るい刺激の方が暗い刺激よりも早く点灯されたように感じる知覚特性を利用して立体効果を得る方法が知られている。例えば、特許文献4では、左眼に映じる映像と右眼に映じる映像とに時間差を設定して擬似的な3次元映像を生成する方法が提示されている。しかし、この方法は左右眼からの距離が異なる対象に対して有効であり、例えば左右に移動する物体の立体感を増強するのに有効であるが、前後に移動する対象などではそれほど有効とは言えない。   On the other hand, there is known a method for obtaining a three-dimensional effect by using a perceptual characteristic called a Pulfrich effect, in which a bright stimulus feels as if it is lit earlier than a dark stimulus. For example, Patent Document 4 proposes a method of generating a pseudo three-dimensional video by setting a time difference between a video image projected on the left eye and a video image projected on the right eye. However, this method is effective for objects with different distances from the left and right eyes.For example, it is effective for enhancing the stereoscopic effect of an object that moves left and right. I can not say.

以上のように従来の方法では、対象物の個々の面内の立体感(素材表面の厚み感など)を再現したり、さらに面が時間的に手前や奥行き方向に変位する様子を強調したりすることは困難な問題であった。   As described above, the conventional method reproduces the three-dimensional effect (such as the thickness of the material surface) within each surface of the target object, and further emphasizes how the surface is displaced forward and in the depth direction. It was a difficult problem to do.

特許第3235776号公報Japanese Patent No. 3235776 特開平10−336702号公報Japanese Patent Laid-Open No. 10-336702 特開平10−191397号公報Japanese Patent Laid-Open No. 10-191397 特許第3249335号公報Japanese Patent No. 3249335

「ウェーブレットビギナーズガイド」、榊原 進 著、東京電機大学出版局、1995“Wavelet Beginners Guide”, Susumu Sugawara, Tokyo Denki University Press, 1995 「ウェーブレットと直交関数系」、G.G.ウォルター著、榊原 進、萬代 武史、芦野 隆一 訳、東京電機大学出版局、2001“Wavelets and Orthogonal Function Systems”, G. G. By Walter Susumu Sugawara, Takeshi Sasayo, Translated by Ryuichi Kanno, Tokyo Denki University Press, 2001

このように従来の技術は、画像(映像)中の領域(例えば、個々の物体)間、あるいは個々の面の間で視差を与えて前後感や奥行き感を与えることで立体感を増強することを目的としており、個々の面内部や領域内部の立体感を操作することは考慮していない。そのため、従来の技術をそのまま面内部や領域内部に適用すると、二重像になったり、二層に見えるなど不自然で違和感の強い立体視になる問題がある。   As described above, the conventional technique enhances the stereoscopic effect by giving a sense of front and back and a sense of depth by giving parallax between regions (for example, individual objects) in an image (video) or between individual surfaces. It does not take into account manipulating the stereoscopic effect inside individual surfaces or areas. Therefore, if the conventional technique is applied to the inside of the surface or the area as it is, there is a problem that a stereoscopic image becomes unnatural and has a strong sense of incongruity, such as a double image or a double layer.

この発明は、上記問題に鑑みて、物体の面や領域内部、細部構造や素材に由来する表面の起伏や厚みを直接の処理対象として、両眼立体視した際に自然な立体感を感じさせることを可能にする、ならびに面が時間的に手前側や奥行き方向に変位する際の立体感を強調することを可能にする、さらに1本の2次元動画像だけから左眼用動画像および右眼用動画像を生成することを可能にする動画像処理方法を提供することを目的とする。   In view of the above problems, the present invention makes a natural three-dimensional feel when binocularly viewed with the object surface, the area inside, the undulation and thickness of the surface derived from the detailed structure and material as the direct processing target. In addition, it is possible to emphasize the stereoscopic effect when the surface is displaced in the near side or the depth direction with respect to time. Further, the left-eye moving image and the right are obtained from only one two-dimensional moving image. An object of the present invention is to provide a moving image processing method capable of generating an ophthalmic moving image.

上記の課題を解決するための手段として、第1の発明は、1本の2次元動画像の空間周波数成分を空間周波数分解して周波数成分を算出する周波数分解手段と、
立体化したい画像に与えるべき視差量を指定する視差量指定手段と、
分解して得られた周波数成分に、前記視差量を割り当てる視差量割当手段と、
前記視差量割当手段を経て得られた各周波数成分を合成する周波数合成手段と、
前記周波数合成手段で得られた結果から、両眼立体視を可能とする左眼用画像および右眼用画像を出力する画像変換手段と、複数のフレーム画像をまとめて動画像を出力する動画像出力手段と、
を少なくとも含むことを特徴とする動画像処理方法である。
As means for solving the above problems, the first invention is a frequency decomposition means for calculating a frequency component by spatial frequency decomposition of a spatial frequency component of one two-dimensional moving image;
A parallax amount designation means for designating a parallax amount to be given to an image to be three-dimensionalized;
Parallax amount allocating means for allocating the parallax amount to the frequency component obtained by the decomposition;
Frequency synthesis means for synthesizing each frequency component obtained through the parallax amount allocation means;
From the result obtained by the frequency synthesizing unit, an image converting unit that outputs a left-eye image and a right-eye image that enables binocular stereoscopic vision, and a moving image that outputs a moving image by combining a plurality of frame images Output means;
Is a moving image processing method characterized by including at least.

また、第2の発明は、複数のフレーム画像に渡って前記周波数分解手段を経て得られる各周波数成分を計数する計数手段と、前記計数手段を経て得られる結果から場面の動的性質を判定する判定手段と、をさらに含むことを特徴とする請求項1に記載の動画像処理方法である。   According to a second aspect of the present invention, the dynamic property of the scene is determined from the counting means for counting each frequency component obtained through the frequency resolving means over a plurality of frame images, and the result obtained through the counting means. The moving image processing method according to claim 1, further comprising determination means.

また、第3の発明は、前記視差量は、動画像データにおいて、ズームイン場面ないし面が手前側に変位する領域に対して大きく、ズームアウト場面ないし面が奥行き側に変位する領域に対して小さくなるように漸次的に与えることを特徴とする請求項2に記載の動画像処理方法である。   In the third invention, the amount of parallax is large in a moving image data with respect to a zoom-in scene or a region where the surface is displaced toward the near side, and is small with respect to a zoom-out scene or a region where the surface is displaced toward the depth side. The moving image processing method according to claim 2, wherein the moving image processing method is given gradually.

また、第4の発明は、前記視差量割当手段で視差量が割り当てられる周波数成分は、前記2次元画像の明度の周波数成分であることを特徴とする請求項1乃至請求項3に記載の動画像処理方法である。   According to a fourth aspect of the present invention, the frequency component to which the parallax amount is allocated by the parallax amount allocating means is a frequency component of brightness of the two-dimensional image. This is an image processing method.

また、第5の発明は、前記視差量割当手段で視差量が割り当てられる周波数成分は、前記2次元画像の明度の高周波数成分であることを特徴とする請求項1乃至請求項3に記載の動画像処理方法である。   According to a fifth aspect of the present invention, the frequency component to which the parallax amount is allocated by the parallax amount allocating unit is a high frequency component of brightness of the two-dimensional image. This is a moving image processing method.

また、第6の発明は、前記視差量割当手段で視差量が割り当てられる周波数成分は、前記2次元画像の明度の低周波数成分であることを特徴とする請求項1乃至請求項3のいずれかに記載の動画像処理方法である。   Further, according to a sixth aspect of the invention, the frequency component to which the parallax amount is assigned by the parallax amount allocating means is a low frequency component of brightness of the two-dimensional image. The moving image processing method described in the above.

また、第7の発明は、前記視差量は、水平視差であることを特徴とする請求項1乃至6のいずれかに記載の動画像処理方法である。   The seventh invention is the moving image processing method according to any one of claims 1 to 6, wherein the parallax amount is horizontal parallax.

また、第8の発明は、前記水平視差は、画像の明度の大きい成分に対して大きく、明度の小さい成分に対しては小さく与えることを特徴とする請求項7に記載の動画像処理方法である。   The eighth aspect of the present invention is the moving image processing method according to claim 7, wherein the horizontal parallax is large for a component having a high lightness and small for a component having a low lightness. is there.

また、第9の発明は、前記水平視差は、画像の彩度の大きい成分に対して大きく、彩度の小さい成分に対しては小さく与えることを特徴とする請求項7に記載の動画像処理方法である。   The ninth aspect of the present invention is the moving image processing according to claim 7, wherein the horizontal parallax is given to a component having a high saturation in an image and small to a component having a low saturation. Is the method.

また、第10の発明は、動画像を入力して複数のフレーム画像を出力する動画像入力手段と、1枚のフレーム画像の空間周波数成分を空間周波数分解して周波数成分を算出する周波数分解手段と、立体化したい画像に与えるべき視差量を指定する視差量指定手段と、分解して得られた周波数成分に、前記視差量を割り当てる視差量割当手段と、前記視差量割当手段を経て得られた各周波数成分を合成する周波数合成手段と、
前記周波数合成手段で得られた結果から、両眼立体視を可能とする左眼用画像および右眼用画像を出力する画像出力手段と、フレーム画像をまとめて動画像を出力する動画像出力手段と、
を少なくとも含むことを特徴とする動画像処理装置である。
The tenth invention is a moving image input means for inputting a moving image and outputting a plurality of frame images, and a frequency resolving means for calculating a frequency component by spatially resolving a spatial frequency component of one frame image. And a parallax amount specifying means for specifying the parallax amount to be given to the image to be three-dimensionalized, a parallax amount assigning means for assigning the parallax amount to the frequency component obtained by the decomposition, and the parallax amount assigning means. Frequency synthesis means for synthesizing each frequency component,
From the result obtained by the frequency synthesizing means, an image output means for outputting a left-eye image and a right-eye image capable of binocular stereoscopic vision, and a moving image output means for outputting a moving image by combining frame images When,
A moving image processing apparatus including at least

また、第11の発明は、複数のフレーム画像に渡って前記周波数分解手段を経て得られる各周波数成分を計数する計数手段と、前記計数手段を経て得られる結果から場面の動的性質を判定する判定手段と、をさらに含むことを特徴とする請求項10に記載の動画像処理装置である。   According to an eleventh aspect of the present invention, there is provided counting means for counting each frequency component obtained through the frequency resolving means over a plurality of frame images, and determining a dynamic property of the scene from the result obtained through the counting means. The moving image processing apparatus according to claim 10, further comprising a determination unit.

また、第12の発明は、前記視差量は、動画像データにおいて、ズームイン場面ないし面が手前側に変位する領域に対して大きく、ズームアウト場面ないし面が奥行き側に変位する領域に対して小さくなるように漸次的に与えることを特徴とする請求項11に記載の動画像処理装置である。   In a twelfth aspect of the invention, the amount of parallax is large in a moving image data with respect to a zoom-in scene or a region where the surface is displaced to the near side, and is small with respect to a zoom-out scene or a region where the surface is displaced to the depth side. The moving image processing apparatus according to claim 11, wherein the moving image processing apparatus is gradually given so as to satisfy.

また、第13の発明は、前記視差量割当手段で視差量が割り当てられる周波数成分は、前記2次元画像の明度の周波数成分であることを特徴とする請求項10に記載の動画像処理装置である。   The thirteenth aspect of the present invention is the moving image processing apparatus according to claim 10, wherein the frequency component to which the parallax amount is allocated by the parallax amount allocating unit is a frequency component of brightness of the two-dimensional image. is there.

また、第14の発明は、前記視差量割当手段で視差量が割り当てられる周波数成分は、前記2次元画像の明度の高周波数成分であることを特徴とする請求項10に記載の動画像処理装置。   The fourteenth aspect of the present invention is the moving image processing apparatus according to claim 10, wherein the frequency component to which the parallax amount is allocated by the parallax amount allocating unit is a high frequency component of brightness of the two-dimensional image. .

また、第15の発明は、前記視差量割当手段で視差量が割り当てられる周波数成分は、前記2次元画像の明度の低周波数成分であることを特徴とする請求項10に記載の動画像処理装置である。   The fifteenth aspect of the present invention is the moving image processing apparatus according to claim 10, wherein the frequency component to which the parallax amount is allocated by the parallax amount allocating unit is a low frequency component of brightness of the two-dimensional image. It is.

また、第16の発明は、前記視差量は、水平視差であることを特徴とする請求項10乃至15のいずれかに記載の動画像処理装置である。   The sixteenth aspect of the present invention is the moving image processing apparatus according to any one of claims 10 to 15, wherein the parallax amount is horizontal parallax.

また、第17の発明は、前記水平視差は、画像の明度の大きい成分に対して大きく、明度の小さい成分に対しては小さく与えることを特徴とする、請求項16に記載の動画像処理装置である。   The seventeenth aspect of the present invention is the moving image processing apparatus according to claim 16, wherein the horizontal parallax is large for a component having a high lightness and small for a component having a low lightness. It is.

また、第18の発明は、前記水平視差は、画像の彩度の大きい成分に対して大きく、彩度の小さい成分に対しては小さく与えることを特徴とする、請求項16に記載の動画像処理装置である。   The eighteenth aspect of the present invention is the moving image according to claim 16, wherein the horizontal parallax is given to a component having a high saturation of an image and is given a small value to a component having a low saturation. It is a processing device.

また、第19の発明は、請求項1から請求項8のいずれかに記載の画像処理方法を演算装置に実行させることを特徴とする動画像処理プログラムである。   According to a nineteenth aspect of the present invention, there is provided a moving image processing program that causes an arithmetic device to execute the image processing method according to any one of the first to eighth aspects.

第1の発明によれば、対象物の面の1枚のフレーム画像に対し、空間周波数分解を適用して個々の周波数成分に分解し、所望の空間周波数成分に対して所定の水平視差量を与えて、周波数合成することにより左眼用画像および右眼用画像を生成することによって、両眼立体視可能な観察条件で、物体表面の立体感を違和感なく強調したり抑制したりすることが可能となる。
また、本発明は、特に物体表面の厚み感を強調する性能に優れており、人間が厚みを感じる対象物、例えば絨毯、毛皮、毛織物、厚手の布地、衣類などの素材に対して特に有効である。また、元々立体視用に撮影した映像でなくても、擬似的に視差を生成することができるため、既存の映像から擬似的にステレオ映像を生成する際に活用することができる。
これらを両眼立体視環境で観察することにより、違和感なく面の立体感が強調ないし抑制される。
例えば1台の撮像機器で撮影した映像、もしくはアニメーション映像から、両眼立体視用の映像もしくはアニメーション映像を容易に実現することができ、両眼立体視可能な観察環境においてリアルな擬似立体視を実現可能になる。
According to the first aspect of the present invention, the spatial frequency decomposition is applied to one frame image of the surface of the object to be decomposed into individual frequency components, and a predetermined horizontal parallax amount is obtained for the desired spatial frequency component. Given, by generating the left-eye image and right-eye image by frequency synthesis, it is possible to enhance or suppress the stereoscopic effect on the object surface without a sense of incongruity under viewing conditions that allow binocular stereoscopic viewing. It becomes possible.
In addition, the present invention is particularly effective in enhancing the thickness of the object surface, and is particularly effective for materials that humans feel thickness, such as carpets, furs, woolen fabrics, thick fabrics, and clothing. is there. Further, since the parallax can be generated in a pseudo manner even if the video is not originally taken for stereoscopic viewing, it can be utilized when generating a pseudo stereo video from an existing video.
By observing these in a binocular stereoscopic environment, the stereoscopic effect on the surface is enhanced or suppressed without a sense of incongruity.
For example, it is possible to easily realize binocular stereoscopic video or animation video from video captured by a single imaging device or animation video, and to realize realistic pseudo stereoscopic vision in an observation environment where binocular stereoscopic vision is possible. It becomes feasible.

また、第2の発明によれば、複数のフレーム画像間で周波数成分の分布を比較することによって、映像の場面の分類を行い、場面の種類に応じて面の立体感を強調したり抑制したりすることが可能となる。   Further, according to the second invention, the distribution of frequency components among a plurality of frame images is compared to classify video scenes, and the stereoscopic effect of the surface is enhanced or suppressed according to the type of scene. It becomes possible to do.

また、第3の発明によれば、動画像データ(複数の連続するフレーム画像)から、ズームインないしズームアウト場面、あるいは、時間軸に沿って面が手前側および奥行き側に変化する領域を検出して、ズームイン場面ないし手前側に変位する領域には時間的に増加する水平視差量を与えて、ズームアウト場面ないし奥行き側に変位する領域には時間的に減少する水平視差量を与えることによって、両眼立体視可能な観察条件で、時間的に変位する物体表面の立体感を違和感なく強調したり抑制したりすることが可能となる。   According to the third invention, a zoom-in or zoom-out scene or a region where the surface changes to the near side and the depth side along the time axis is detected from the moving image data (a plurality of continuous frame images). By giving a horizontal parallax amount that increases in time to a zoom-in scene or an area that shifts to the near side, and giving a horizontal parallax amount that decreases in time to a zoom-out scene or an area that shifts to the depth side, It is possible to enhance or suppress the stereoscopic effect of the object surface that is displaced in time without any sense of incongruity under viewing conditions that allow binocular stereoscopic viewing.

また、第4の発明によれば、明度の空間周波数成分を分解することによって、物体表面の立体感を違和感なく強調したり抑制したりすることが可能となる。
明度成分と色度成分とを分離して、明度成分だけを処理することによって、色彩の変化を最大限に抑制しつつ、効果的に立体感を強調ないし抑制することができる。
Further, according to the fourth invention, it is possible to enhance or suppress the stereoscopic effect on the object surface without a sense of incongruity by decomposing the spatial frequency component of brightness.
By separating the lightness component and the chromaticity component and processing only the lightness component, it is possible to effectively enhance or suppress the stereoscopic effect while suppressing the color change to the maximum.

また、第5の発明によれば、明度の高周波数成分を分解、処理することによって、物体表面の立体感を違和感なく強調したり抑制したりすることが可能となる。
特に、人の視覚が中・高周波数成分に対しては主に明度成分に対して感度が高いことから、明度の高周波数成分に対して本発明を適用することで、立体感を違和感無く効果的に得ることができる。
この発明は、特に、厚手の毛皮など毛が密集した素材の細部の表面立体感を強調するのに適している。また、映像中でカメラが徐々に接近してズームインする場面や徐々に離れるズームアウト場面における立体感の強調や抑制に有効である。
Further, according to the fifth aspect, it is possible to enhance or suppress the stereoscopic effect on the object surface without a sense of incongruity by decomposing and processing the high-frequency component of brightness.
In particular, since human vision is highly sensitive to lightness components mainly for medium and high frequency components, applying the present invention to high frequency components of lightness has an effective effect on stereoscopic effect. Can be obtained.
The present invention is particularly suitable for emphasizing the surface three-dimensional effect of details of materials with dense hair such as thick fur. In addition, it is effective for enhancing and suppressing the stereoscopic effect in a scene where the camera gradually approaches and zooms in and in a zoom-out scene where the camera gradually moves away.

また、第6の発明によれば、明度の高周波数成分を分解、処理することによって、物体表面の立体感を違和感なく強調したり抑制したりすることが可能となる。
明度の低周波数成分は、主に対象物の表面形状(表面全体に渡る面積の大きな凹凸形状)を反映するため、表面形状の立体感を効果的に強調ないし抑制することができる。
例えば、この発明は犬や猫などの動物の毛の動画像において、背中、腹部、臀部など、あるいは空中に浮遊する雲や砂漠の砂丘の盛り上がり、海面の波のうねりなどの対象物の比較的広い面積の立体感を強調ないし抑制するのに適している。また、動画像においてカメラが徐々に遠写しになるズームアウトする場面において、対象物の面を広く映し出す際に有効である。
Further, according to the sixth aspect, it is possible to enhance or suppress the stereoscopic effect on the object surface without a sense of incongruity by decomposing and processing the high-frequency component of brightness.
Since the low frequency component of the brightness mainly reflects the surface shape of the object (uneven shape with a large area over the entire surface), the three-dimensional effect of the surface shape can be effectively enhanced or suppressed.
For example, the present invention relates to a moving image of hair of an animal such as a dog or a cat, and is used to relatively detect an object such as a back, an abdomen, a buttocks, or a cloud floating in the air, a sand dune in the air, or a wave of sea waves. It is suitable for emphasizing or suppressing a three-dimensional effect over a wide area. Further, it is effective for projecting a wide area of an object in a zoomed out scene where the camera gradually takes a long distance in a moving image.

また、第7の発明によれば、視差量に水平視差を採用することによって、両眼立体視可能な観察条件で、物体表面の立体感を違和感なく強調したり抑制したりすることが可能となる。   Further, according to the seventh invention, by adopting horizontal parallax as the parallax amount, it is possible to enhance or suppress the stereoscopic effect on the object surface without a sense of incongruity under the observation conditions where binocular stereoscopic vision is possible. Become.

また、第8の発明によれば、視差量に水平視差を採用し、画像の明度の大きい成分に対して大きく、明度の小さい成分に対しては小さく与えることによって、物体表面の立体感を違和感なく強調したり抑制したりすることが可能となる。
特に、表面構造に多層の網目状の構造を有する素材、例えば多層のガーゼや綿、毛織物、あるいはナイロンタワシなどの場合、表面に近いほど反射が強く明るく、奥に行くほど反射が弱く暗いため、明度の大きい成分に大きい視差量を与え、明度の小さい成分に小さい視差量を与えることにより、表面側と奥側との奥行き差を漸次的に強調することができ、その結果、奥行き感を自然に強調することができる。
According to the eighth aspect of the invention, horizontal parallax is adopted as the amount of parallax, and the stereoscopic effect on the surface of the object is uncomfortable by giving a large value to a component with high brightness and a small value with respect to a component having low brightness. It is possible to emphasize and suppress without any loss.
In particular, in the case of a material having a multi-layered network structure on the surface structure, such as multi-layer gauze, cotton, woolen fabric, or nylon scrubbing, the reflection is strong and bright as it is closer to the surface, and the reflection is weak and dark as it goes deeper. By giving a large amount of parallax to a component with high brightness and giving a small amount of parallax to a component with low brightness, the depth difference between the front side and the back side can be gradually emphasized, resulting in a natural sense of depth. Can be emphasized.

また、第9の発明によれば、視差量に水平視差を採用し、彩度の大きい成分に対して大きく、彩度の小さい成分に対しては小さく与えることによって、物体表面の立体感を違和感なく強調したり抑制したりすることが可能となる。
これは、近くにある対象物体の面の彩度が強く、遠くにある対象物体の面の彩度が弱くなる経験則に依拠しており、例えば派手な色使いの衣装やカーテン、ペルシャ絨毯などの色彩鮮やかな素材の表面立体感を得たい場合に有効であり、また、映像におけるズームイン/ズームアウトの際の物体表面の立体感の変化を再現する場面に有効である。
According to the ninth aspect of the present invention, the horizontal parallax is adopted as the parallax amount, and the stereoscopic effect on the object surface is uncomfortable by giving a large value to a component with high saturation and a small value with respect to a component with low saturation. It is possible to emphasize and suppress without any loss.
This is based on the rule of thumb that the saturation of the surface of the target object in the vicinity is strong and the saturation of the surface of the target object in the distance is weak. For example, costumes and curtains with flashy colors, Persian carpets, etc. This is effective when it is desired to obtain a three-dimensional surface effect of a colorful material, and is effective for reproducing a change in the three-dimensional effect on the object surface during zoom-in / zoom-out in an image.

第10の発明によれば、対象物の面の1枚のフレーム画像に対し、空間周波数分解を適用して個々の周波数成分に分解し、所望の空間周波数成分に対して所定の水平視差量を与えて、周波数合成することにより左眼用画像および右眼用画像を生成することによって、両眼立体視可能な観察条件で、物体表面の立体感を違和感なく強調したり抑制したりすることが可能となる。
また、本発明は、特に物体表面の厚み感を強調する性能に優れており、人間が厚みを感じる対象物、例えば絨毯、毛皮、毛織物、厚手の布地、衣類などの素材に対して特に有効である。また、元々立体視用に撮影した映像でなくても、擬似的に視差を生成することができるため、既存の映像から擬似的にステレオ映像を生成する際に活用することができる。
これらを両眼立体視環境で観察することにより、違和感なく面の立体感が強調ないし抑制される。
例えば1台の撮像機器で撮影した画像や映像、もしくはアニメーション映像から、両眼立体視用の画像や映像もしくはアニメーション映像を容易に実現することができ、両眼立体視可能な観察環境においてリアルな擬似立体視を実現可能になる。
According to the tenth aspect, the spatial frequency decomposition is applied to one frame image of the surface of the object to be decomposed into individual frequency components, and a predetermined horizontal parallax amount is obtained for the desired spatial frequency component. Given, by generating the left-eye image and right-eye image by frequency synthesis, it is possible to enhance or suppress the stereoscopic effect on the object surface without a sense of incongruity under viewing conditions that allow binocular stereoscopic viewing. It becomes possible.
In addition, the present invention is particularly effective in enhancing the thickness of the object surface, and is particularly effective for materials that humans feel thickness, such as carpets, furs, woolen fabrics, thick fabrics, and clothing. is there. Further, since the parallax can be generated in a pseudo manner even if the video is not originally taken for stereoscopic viewing, it can be utilized when generating a pseudo stereo video from an existing video.
By observing these in a binocular stereoscopic environment, the stereoscopic effect on the surface is enhanced or suppressed without a sense of incongruity.
For example, a binocular stereoscopic image, video, or animation can be easily realized from an image, video, or animation captured by a single imaging device, which is realistic in a binocular stereoscopic viewing environment. Pseudo stereoscopic vision can be realized.

また、第11の発明によれば、明度の空間周波数成分を分解することによって、物体表面の立体感を違和感なく強調したり抑制したりすることが可能になる。複数のフレーム画像間で周波数成分の分布を比較することによって、映像の場面の分類を行い、場面の種類に応じて面の立体感を強調したり抑制したりすることが可能となる。   According to the eleventh aspect, by decomposing the spatial frequency component of the brightness, it is possible to enhance or suppress the stereoscopic effect on the object surface without a sense of incongruity. By comparing the distribution of frequency components among a plurality of frame images, it is possible to classify the scenes of the video and enhance or suppress the stereoscopic effect of the surface according to the type of the scene.

また、第12の発明によれば、動画像データ(複数の連続するフレーム画像)から、ズームインないしズームアウト場面、あるいは、時間軸に沿って面が手前側および奥行き側に変化する領域を検出して、ズームイン場面ないし手前側に変位する領域には時間的に増加する水平視差量を与えて、ズームアウト場面ないし奥行き側に変位する領域には時間的に減少する水平視差量を与えることによって、両眼立体視可能な観察条件で、時間的に変位する物体表面の立体感を違和感なく強調したり抑制したりすることが可能となる。
また、本発明は、特に物体表面の厚み感を強調する性能に優れており、人間が厚みを感じる対象物、例えば絨毯、毛皮、毛織物、厚手の布地、衣類などの素材に対して特に有効である。また、元々立体視用に撮影した画像や映像でなくても、擬似的に視差を生成することができるため、既存の画像や映像から擬似的にステレオ画像やステレオ映像を生成する際に活用することができる。
これらを両眼立体視環境で観察することにより、違和感なく面の立体感が強調ないし抑制される。
According to the twelfth aspect, a zoom-in or zoom-out scene or a region where the surface changes to the near side and the depth side along the time axis is detected from moving image data (a plurality of continuous frame images). By giving a horizontal parallax amount that increases in time to a zoom-in scene or an area that shifts to the near side, and giving a horizontal parallax amount that decreases in time to a zoom-out scene or an area that shifts to the depth side, It is possible to enhance or suppress the stereoscopic effect of the object surface that is displaced in time without any sense of incongruity under viewing conditions that allow binocular stereoscopic viewing.
In addition, the present invention is particularly effective in enhancing the thickness of the object surface, and is particularly effective for materials that humans feel thickness, such as carpets, furs, woolen fabrics, thick fabrics, and clothing. is there. In addition, since it is possible to generate a pseudo-parallax even if it is not an image or video originally taken for stereoscopic viewing, it is utilized when generating a pseudo-stereo image or stereo video from an existing image or video. be able to.
By observing these in a binocular stereoscopic environment, the stereoscopic effect on the surface is enhanced or suppressed without a sense of incongruity.

また、第13の発明によれば、明度の空間周波数成分を分解することによって、物体表面の立体感を違和感なく強調したり抑制したりすることが可能となる。
明度成分と色度成分とを分離して、明度成分だけを処理することによって、色彩の変化を最大限に抑制しつつ、効果的に立体感を強調ないし抑制することができる。
According to the thirteenth invention, it is possible to enhance or suppress the stereoscopic effect on the object surface without a sense of incongruity by decomposing the spatial frequency component of brightness.
By separating the lightness component and the chromaticity component and processing only the lightness component, it is possible to effectively enhance or suppress the stereoscopic effect while suppressing the color change to the maximum.

また、第14の発明によれば、明度の高周波数成分を分解、処理することによって、物体表面の立体感を違和感なく強調したり抑制したりすることが可能となる。
特に、人の視覚が中・高周波成分高周波数成分に対しては主に明度成分に対して感度が高いことから、明度の高周波成分高周波数成分に対して本発明を適用することで、立体感を違和感無く効果的に得ることができる。
この発明は、特に、厚手の毛皮など毛が密集した素材の細部の表面立体感を強調するのに適している。また、映像においてカメラが徐々に接近してズームインする場面や、対象物体の面をより接写して映じる場面に有効である。
Further, according to the fourteenth aspect, by decomposing and processing the high-frequency component of brightness, it is possible to enhance or suppress the stereoscopic effect on the object surface without a sense of incongruity.
In particular, since human vision is highly sensitive to lightness components mainly for medium / high frequency components and high frequency components, the present invention is applied to high frequency components and high frequency components of lightness. Can be obtained effectively without a sense of incongruity.
The present invention is particularly suitable for emphasizing the surface three-dimensional effect of details of materials with dense hair such as thick fur. Also, it is effective for scenes where the camera gradually approaches and zooms in on the video, and scenes where the surface of the target object is more closely projected.

また、第15の発明によれば、明度の高周波成分高周波数成分を分解、処理することによって、物体表面の立体感を違和感なく強調したり抑制したりすることが可能となる。
明度の低周波成分低周波数成分は、主に対象物の表面形状(表面全体に渡る面積の大きな凹凸形状)を反映するため、表面形状の立体感を効果的に強調ないし抑制することができる。
例えば、この発明は犬や猫などの動物の毛の動画像において、背中、腹部、臀部など、あるいは空中に浮遊する雲や砂漠の砂丘の盛り上がり、海面の波のうねりなどの対象物の比較的広い面積の立体感を強調ないし抑制するのに適している。また、映像においてカメラが徐々に遠写しになるズームアウトする場面において、対象物の面を広く映し出す際に有効である。
According to the fifteenth aspect, it is possible to enhance or suppress the stereoscopic effect on the object surface without a sense of incongruity by decomposing and processing the high-frequency component and the high-frequency component of brightness.
Low-frequency component of brightness The low-frequency component mainly reflects the surface shape of the object (uneven shape having a large area over the entire surface), so that the stereoscopic effect of the surface shape can be effectively enhanced or suppressed.
For example, the present invention relates to a moving image of hair of an animal such as a dog or a cat, and is used to relatively detect an object such as a back, an abdomen, a buttocks, or a cloud floating in the air, a sand dune in the air, or a wave of sea waves. It is suitable for emphasizing or suppressing a three-dimensional effect over a wide area. In addition, it is effective in projecting a wide area of the object in a zoom-out scene where the camera gradually takes a long distance in the video.

また、第16の発明によれば、視差量に水平視差を採用することによって、両眼立体視可能な観察条件で、物体表面の立体感を違和感なく強調したり抑制したりすることが可能となる。   Further, according to the sixteenth aspect, by adopting horizontal parallax as the parallax amount, it is possible to enhance or suppress the stereoscopic effect on the object surface without a sense of incongruity under viewing conditions that allow binocular stereoscopic viewing. Become.

また、第17の発明によれば、視差量に水平視差を採用し、画像の明度の大きい成分に対して大きく、明度の小さい成分に対しては小さく与えることによって、物体表面の立体感を違和感なく強調したり抑制したりすることが可能となる。
特に、表面構造に多層の網目状の構造を有する素材、例えば多層のガーゼや綿、毛織物、あるいはナイロンタワシなどの場合、表面に近いほど反射が強く明るく、奥に行くほど反射が弱く暗いため、明度の大きい成分に大きい視差量を与え、明度の小さい成分に小さい視差量を与えることにより、表面側と奥側との奥行き差を漸次的に強調することができ、その結果、奥行き感を自然に強調することができる。
Further, according to the seventeenth aspect, by adopting horizontal parallax as the amount of parallax, giving a large value to a component having a high lightness and a small value to a component having a low lightness, the stereoscopic effect on the object surface is uncomfortable. It is possible to emphasize and suppress without any loss.
In particular, in the case of a material having a multi-layered network structure on the surface structure, such as multi-layer gauze, cotton, woolen fabric, or nylon scrubbing, the reflection is strong and bright as it is closer to the surface, and the reflection is weak and dark as it goes deeper. By giving a large amount of parallax to a component with high brightness and giving a small amount of parallax to a component with low brightness, the depth difference between the front side and the back side can be gradually emphasized, resulting in a natural sense of depth. Can be emphasized.

また、第18の発明によれば、視差量に水平視差を採用し、彩度の大きい成分に対して大きく、彩度の小さい成分に対しては小さく与えることによって、物体表面の立体感を違和感なく強調したり抑制したりすることが可能となる。
これは、近くにある対象物体の面の彩度が強く、遠くにある対象物体の面の彩度が弱くなる経験則に依拠しており、例えば派手な色使いの衣装やカーテン、ペルシャ絨毯などの色彩鮮やかな素材の表面立体感を得たい場合に有効であり、また、映像におけるズームイン/ズームアウトの際の物体表面の立体感の変化を再現する場面に有効である。
According to the eighteenth aspect of the invention, by adopting horizontal parallax as the amount of parallax, giving a large value for a component with high saturation and a small value for a component with low saturation, the stereoscopic effect on the object surface is uncomfortable. It is possible to emphasize and suppress without any loss.
This is based on the rule of thumb that the saturation of the surface of the target object in the vicinity is strong and the saturation of the surface of the target object in the distance is weak. For example, costumes and curtains with flashy colors, Persian carpets, etc. This is effective when it is desired to obtain a three-dimensional surface effect of a colorful material, and is effective for reproducing a change in the three-dimensional effect on the object surface during zoom-in / zoom-out in an image.

また、第19の発明によれば、本発明をパソコンなどの演算装置に実行させることによって、両眼立体視可能な観察条件で、物体表面の立体感を違和感なく強調したり抑制したりすることが可能となる。
また、第1乃至19の発明によれば、映像において、本発明における高周波数成分の立体感強調手法と低周波数成分の立体感強調手法とを時間軸上で適宜選択して適用することによって、水面のうねりなどの粘性物体の動きや、風にたなびく旗などの布地のうねりなどの動きを強調ないし抑制することが可能となる。
In addition, according to the nineteenth invention, by causing the present invention to be executed by a computing device such as a personal computer, the stereoscopic effect on the object surface can be emphasized or suppressed without a sense of incongruity under viewing conditions that allow binocular stereoscopic viewing. Is possible.
According to the first to nineteenth inventions, in the video, by appropriately selecting and applying the high-frequency component stereoscopic effect enhancement method and the low-frequency component stereoscopic effect enhancement method of the present invention on the time axis, It is possible to emphasize or suppress the movement of viscous objects such as swells on the water surface and the movement of cloths such as flags fluttering in the wind.

本発明の動画像処理方法の一例を示した概要図。The schematic diagram showing an example of the moving picture processing method of the present invention. 本発明の動画像処理方法の一例を示した処理フロー図。The processing flowchart which showed an example of the moving image processing method of this invention. 本発明の周波数分解処理の一例を示した処理フロー図。The processing flowchart which showed an example of the frequency decomposition process of this invention. 本発明の視差量割当処理の一例を示した処理フロー図。The processing flowchart which showed an example of the parallax amount allocation process of this invention. 本発明の周波数合成処理の一例を示した処理フロー図。The processing flowchart which showed an example of the frequency synthesis process of this invention. ウェーブレット変換・逆変換の概念を示す説明図。Explanatory drawing which shows the concept of wavelet transformation and reverse transformation. Daubechiesウェーブレット(第10次)のウェーブレット関数およびスケーリング関数の形状を示す図。The figure which shows the shape of the wavelet function and scaling function of a Daubechies wavelet (10th order). 本発明により生成された動画像を表示する、観察対象物体の両眼視差画像の提示が可能な動画像提示環境の一例を示す概念図。The conceptual diagram which shows an example of the moving image presentation environment which can display the binocular parallax image of the observation target object which displays the moving image produced | generated by this invention. 図8の環境で観察者が知覚しうる単一の仮想的画像の様子を示す概念図。The conceptual diagram which shows the mode of the single virtual image which an observer can perceive in the environment of FIG.

以下、図面を参照して、この発明の実施の形態について説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図8は、本発明を用いて生成された動画像を表示するための、観察対象物体の両眼視差動画像の提示が可能な動画像提示環境の一例である。また、図9は、図8の環境で観察者が知覚しうる単一の仮想的動画像の様子を示す概念図の一例である。   FIG. 8 is an example of a moving image presentation environment in which a binocular differential image of an observation target object can be displayed for displaying a moving image generated using the present invention. FIG. 9 is an example of a conceptual diagram showing a state of a single virtual moving image that can be perceived by an observer in the environment of FIG.

左眼用画像1と右眼用画像2に表示された画像は、融像用ミラー3に反射し、観察者の両眼でそれぞれ観察される。双方の画像に同一の画像を表示した場合には、画像とミラーの適切な配置によって、観察者には図9に示すように単一の仮想的画像4が正面に存在するかのような知覚をもたらす。
また、画像とミラーの配置を変更することで視差角が変化し、画像までの距離感が変化する.また、画像とミラーの配置を変更することなく、双方の画像に表示されている画像に対して、それぞれに異なる量の平行移動を加えることによっても視差角が変化し距離感が変化する。
The images displayed in the left-eye image 1 and the right-eye image 2 are reflected by the fusion mirror 3 and are observed with both eyes of the observer. When the same image is displayed on both images, the viewer can perceive as if a single virtual image 4 exists in front as shown in FIG. 9 by appropriate arrangement of the image and the mirror. Bring.
In addition, changing the arrangement of the image and the mirror changes the parallax angle, which changes the sense of distance to the image. In addition, the parallax angle changes and the sense of distance also changes by adding different amounts of translation to the images displayed in both images without changing the arrangement of the images and mirrors.

図1は、本発明の動画像処理方法の一例を示した概要図である。   FIG. 1 is a schematic diagram showing an example of a moving image processing method of the present invention.

動画像入力手段S1において、立体化したい動画像を本発明の装置に入力する。
動画像入力手段S1では、ハードディスクデバイス等の記憶装置もしくはネットワークを通じた通信回線もしくは映像機器等に接続した映像信号線などから動画像データVinを入力する。
In the moving image input means S1, a moving image to be three-dimensionalized is input to the apparatus of the present invention.
The moving picture input unit S1, and inputs the moving image data V in the like the video signal line connected like a communication line or a video apparatus via a storage device or a network such as a hard disk device.

次に、画像変換手段S2において、前記画像入力手段から入力した動画像Vinを複数のフレーム画像に変換し、時刻tのフレーム画像I(x,y,t)に対し、明度画像L(x,y,t)および色度画像C(x,y,t)、C(x,y,t)および彩度画像S(x,y,t)を出力する。 Then, the image conversion unit S2, converts the moving image V in input from said image input means into a plurality of frame images, the frame image I at time t (x, y, t) with respect to the brightness image L (x , Y, t), the chromaticity image C 1 (x, y, t), C 2 (x, y, t), and the saturation image S (x, y, t) are output.

次に、視差量指定手段S3において、立体化したい画像に与えるべき視差量を本発明の装置に入力する。視差量入力手段S3aは、視差量Hを入力する。これは例えば、コンピュータ端末上に提示した入力画面から任意の数値を入力する、ないし複数の候補値の中から選択することなどで実現できる。あるいは、ボタンやダイヤル等を配した入力装置等を介して入力しても良い。   Next, the parallax amount designating unit S3 inputs the parallax amount to be given to the image to be three-dimensionalized to the apparatus of the present invention. The parallax amount input means S3a inputs the parallax amount H. This can be realized, for example, by inputting an arbitrary numerical value from an input screen presented on a computer terminal or by selecting from a plurality of candidate values. Or you may input via the input device etc. which arranged the button, the dial, etc.

本発明の視差量は、両眼視差を想定しており、観察者の両眼の方向に平行な方向の視差や、視差画像の横方向(画像の水平方向)の水平視差を対象としており、それらを適宜調整する。   The parallax amount of the present invention assumes binocular parallax, and is intended for parallax in a direction parallel to the direction of both eyes of the observer and horizontal parallax in the horizontal direction of the parallax image (the horizontal direction of the image) Adjust them accordingly.

例えば、視差量入力手段S3aでは、水平視差量Hとして、所定の数値hを与える(H=h)。次に、補正係数指定手段S3bにおいて、前記画像変換手段S2において出力された明度成分画像L(x,y,t)および彩度成分画像S(x,y,t)を受け取り、数値k、明度vの単調増加関数f(v)、彩度sの単調増加関数g(s)、のうちいずれかの形式で視差補正係数Kを設定する(K=k、K=f(v)、K=g(s))。   For example, the parallax amount input means S3a gives a predetermined numerical value h as the horizontal parallax amount H (H = h). Next, the correction coefficient designating unit S3b receives the lightness component image L (x, y, t) and the saturation component image S (x, y, t) output from the image conversion unit S2, and receives the numerical value k and the lightness. The parallax correction coefficient K is set in any one of the monotonically increasing function f (v) of v and the monotonic increasing function g (s) of the saturation s (K = k, K = f (v), K = g (s)).

ここで、視差の補正係数を明度の単調増加関数として与えるのは、光の反射の性質から、対象物表面のより表層部分はより明るく見え、逆により深奥部分はより暗く見えることに対応している。   Here, the parallax correction coefficient is given as a monotonically increasing function of brightness, because of the nature of light reflection, the surface layer portion of the object surface appears brighter, and conversely the deeper portion appears darker. Yes.

また、視差の補正係数を彩度の単調増加関数として与えるのは、人間の視覚にはより近くの対象は色鮮やかに見え、逆により遠くの対象は色が弱く見えることから、対象物表面のより表層部分は色鮮やか、すなわち彩度が高くなり、逆により深奥部分は色が薄い、すなわち彩度が低くなることに対応している。   Also, the parallax correction factor is given as a monotonically increasing function of saturation because the closer to the human eye looks brighter and the farther away the object appears to be weaker. Further, the surface layer portion is vivid, that is, the saturation is high, and conversely, the deep portion corresponds to the light color, that is, the saturation is low.

続いて、周波数選択手段S4において、前記画像変換手段S2から受け取ったフレーム画像の最大分解レベルMを算出し、分解レベル1からMまでの間で所望の分解レベルを選択する。   Subsequently, the frequency selection means S4 calculates the maximum decomposition level M of the frame image received from the image conversion means S2, and selects a desired decomposition level from decomposition levels 1 to M.

ここで、分解レベルとは画像を周波数成分に分解する際の分解回数に相当する。例えば、画像の最小構成単位である画素を単位として周波数を規定する場合、最も細かい、すなわち最も高周波なのは、2画素を1波長とする場合になる。これが分解レベル1で周波数1/2に当たる。次に分解レベル2ではその半分の周波数1/4になり、以下同様に繰り返して、分解レベルnでは周波数1/2になる。
なお、各分解レベルにおける周波数の値は、周波数を規定する際の単位の大きさに依存する。
Here, the decomposition level corresponds to the number of decompositions when an image is decomposed into frequency components. For example, when the frequency is defined in units of pixels, which are the minimum structural unit of an image, the finest, that is, the highest frequency is when two pixels are one wavelength. This corresponds to the frequency 1/2 at the decomposition level 1. Next, at decomposition level 2, the frequency becomes ½ of the frequency, and thereafter, the same is repeated, and at decomposition level n, frequency becomes 1/2 n .
Note that the frequency value at each decomposition level depends on the unit size when the frequency is defined.

次に、周波数分解手段S5において、前記画像変換手段S2で変換された画像を空間周波数分解する。   Next, the frequency decomposition means S5 performs spatial frequency decomposition on the image converted by the image conversion means S2.

ここで、2次元画像を空間周波数分解して個々の周波数成分を算出する場合、さまざまな画像信号に対して行うことができる。たとえば、明度成分や色度成分を空間周波数分解して個々の周波数成分を算出する方法が挙げられる。
本発明は人間の立体視に関するため、視知覚的に有意味な信号に対して適用するのが適切と考えられる。画像の信号成分である明度成分と色度成分に関しては、人間の視知覚の空間周波数の知覚に関して、明度成分に対する感度特性がバンドパス型を示すのに対して、色度成分に対する感度特性がローパス型を示し、中・高周波数成分の知覚には主として明度成分が利用されることから、本発明における空間周波数の処理は明度成分に対して行なうのが好ましい。以下、明度成分を適用する場合を用いて説明する。
Here, when calculating individual frequency components by spatial frequency decomposition of a two-dimensional image, it can be performed on various image signals. For example, there is a method of calculating individual frequency components by spatially resolving lightness components and chromaticity components.
Since the present invention relates to human stereoscopic vision, it is considered appropriate to apply it to signals that are meaningful in terms of visual perception. Regarding the lightness component and chromaticity component, which are image signal components, the sensitivity characteristic for the lightness component shows a bandpass type, while the sensitivity characteristic for the chromaticity component is low-passed, with respect to the spatial frequency perception of human visual perception. Since the lightness component is mainly used for the perception of the medium and high frequency components, the spatial frequency processing in the present invention is preferably performed on the lightness component. Hereinafter, the case where the brightness component is applied will be described.

次に、計数手段S6において、分解した周波数成分を所定のフレーム数に渡って計数する。ここで、所定のフレーム数とは動画像の内容に合わせて適応的に決めるのが適切であるが、変化の早い対象には小さく、変化の遅い対象には大きく設定するのがよい。
さて、計数の方法としては色々と考えられるが、例えば、ヒストグラムを用いる方法がある。所定のフレーム数の画像に渡り、各周波数成分のヒストグラムを求める。
Next, in the counting means S6, the decomposed frequency components are counted over a predetermined number of frames. Here, it is appropriate that the predetermined number of frames is adaptively determined according to the content of the moving image, but it is preferable to set a small value for an object that changes quickly and a large value for an object that changes slowly.
There are various counting methods. For example, there is a method using a histogram. A histogram of each frequency component is obtained over an image having a predetermined number of frames.

次に、判定手段S7において、前記計数手段S6から計数結果を受け取り、ズームイン場面か、ズームアウト場面か、或いはその他場面であるかを判定して、フレームfの関数K(f)を出力する。
判定の方法としては、ズームイン場面およびズームアウト場面、さらにその他の場面を学習用映像として用意し、それぞれヒストグラムを算出し、例えば判別分析法などの統計的手法によってそれぞれの分類閾値を算出して利用する方法が考えられる。
あるいは、各時間毎に、所定のフレーム数に渡るヒストグラムを逐次算出し、ヒストグラムの分布形状およびピーク位置を比較し、形状が類似で、かつ、ピーク位置が低周波側へシフトする場面はズームイン場面として、形状が類似で、かつ、ピーク位置が高周波側へシフトする場面はズームアウト場面として、それぞれ判定する方法などが考えられる。
ここで、関数K(f)としては、ズームイン場面では、場面の全フレーム数(開始フレームfから終了フレームf)に渡って0から1まで単調増加する関数を、またズームアウト場面では全フレーム数に渡って1から0まで単調減少する関数として、その他の場面ではK(f)=1のように設定する。
最も単純な例としては、
のように与えることができるが、もちろん、これらに限るわけではなく、単調増加、および単調減少の範囲内で様々な関数を選択することが可能である。
Next, the determination means S7 receives the counting result from the counting means S6, determines whether it is a zoom-in scene, a zoom-out scene, or another scene, and outputs the function K 2 (f) of the frame f. .
Judgment methods include zoom-in and zoom-out scenes, and other scenes as learning videos. Each histogram is calculated, and the classification threshold is calculated and used by a statistical method such as discriminant analysis. A way to do this is possible
Alternatively, a histogram over a predetermined number of frames is sequentially calculated at each time, and the distribution shape and peak position of the histogram are compared, and the scene where the shape is similar and the peak position shifts to the low frequency side is a zoom-in scene For example, a method of determining a scene where the shape is similar and the peak position shifts to the high frequency side as a zoom-out scene can be considered.
Here, as the function K 2 (f), in the zoom-in scene, a function that monotonically increases from 0 to 1 over the total number of frames of the scene (start frame f 1 to end frame f 2 ), and in the zoom-out scene, As a function that monotonously decreases from 1 to 0 over the total number of frames, K 2 (f) = 1 is set in other scenes.
The simplest example is
However, the present invention is not limited to these, and various functions can be selected within the range of monotonic increase and monotonic decrease.

そして、視差量補正手段S8において、前記視差量指定手段S3aから所定の視差量Hを受け取り、前記補正係数指定手段S3bから視差補正係数Kを受け取り、さらに前記判定手段S7から場面に応じたフレームの関数K(f)を受け取り、視差補正量H’としてH’=K×K(f)×Hを算出する。
ここで、関数としては、例えば、明度画像L(x,y,t)の明度の最大値をVmax、最小値をVminとすると、v=L(x,y,t)としてf(v)=v/(Vmax−Vmin)のように線形に与えることができる。彩度の関数g(s)としても、同様に、彩度画像S(x,y,t)の彩度の最大値をSmax、最小値をSminとすると、s=S(x,y,t)としてg(s)=s/(Smax−Smin)のように線形に与えることができる。もちろん、これらに限るわけではなく、単調増加の範囲内で様々な関数を選択することが可能である。
Frame At parallax amount correcting means S8, receives predetermined parallax amount H from the parallax amount specifying means S3a, receives the parallax correction factor K 1 from the correction coefficient specifying means S3b, in response to the further scene from said determination means S7 The function K 2 (f) is received, and H ′ = K 1 × K 2 (f) × H is calculated as the parallax correction amount H ′.
Here, as a function, for example, assuming that the maximum value of the brightness of the brightness image L (x, y, t) is Vmax and the minimum value is Vmin, f = (v) = It can be given linearly as v / (Vmax−Vmin). Similarly, as the saturation function g (s), assuming that the maximum value of the saturation of the saturation image S (x, y, t) is Smax and the minimum value is Smin, s = S (x, y, t ) Can be linearly given as g (s) = s / (Smax−Smin). Of course, the present invention is not limited to these, and various functions can be selected within a monotonically increasing range.

次に、視差量割当手段S9において、前記周波数分解手段S5で得られた周波数成分に、前記視差量指定手段S8で補正した視差補正量H’を割り当てる。   Next, in the parallax amount assigning unit S9, the parallax correction amount H ′ corrected by the parallax amount specifying unit S8 is assigned to the frequency component obtained by the frequency decomposing unit S5.

このとき、視差補正量H’は、画像の種類によって、高周波数成分は所定の水平視差量だけ左右にシフトされ、その他の周波数成分はシフトされないようにする手法や、低周波数成分は所定の水平視差量だけ左右にシフトされ、その他の周波数成分はシフトされない手法や、所定の水平視差量に、定数、ないし明度成分の単調増加関数で与えられる補正係数を乗じた値を新たな水平視差量として採用し、所望の周波数成分をシフトする手法、所定の水平視差量に、定数、ないし彩度成分の単調増加関数で与えられる補正係数を乗じた値を新たな水平視差量として採用し、所望の周波数成分をシフトする手法を適宜選択して、もしくはそれらを組み合わせて視差量を割り当てる。   At this time, the parallax correction amount H ′ is a method in which the high frequency component is shifted to the left and right by a predetermined horizontal parallax amount and the other frequency components are not shifted depending on the type of image. A new horizontal parallax amount that is shifted left and right by the amount of parallax and other frequency components are not shifted, or a value obtained by multiplying a predetermined horizontal parallax amount by a constant or a correction coefficient given by a monotonically increasing function of the brightness component Adopting a method of shifting the desired frequency component, adopting a value obtained by multiplying a predetermined horizontal parallax amount by a constant or a correction coefficient given by a monotonically increasing function of the saturation component as a new horizontal parallax amount, A method for shifting the frequency component is appropriately selected, or a combination thereof is used to assign the parallax amount.

具体的には、前記周波数分解手段S5から受け取った各周波数成分F(x,y,t)のうち、1が割り当てられた分解レベルiの周波数成分に対しては水平視差量として視差補正量H’を水平方向に対称に割り当て、0が割り当てられた分解レベルiの周波数成分に対しては水平視差量を割り当てずに、左眼用の周波数成分画像F (x,y,t)、および右眼用の周波数成分画像F (x,y,t)を次式のように生成する。 Specifically, among the frequency components F i (x, y, t) received from the frequency resolving means S5, the parallax correction amount as the horizontal parallax amount for the frequency component of decomposition level i to which 1 is assigned. H ′ is assigned symmetrically in the horizontal direction, and the frequency component image F i L (x, y, t) for the left eye is not assigned to the frequency component of decomposition level i to which 0 is assigned without assigning a horizontal parallax amount. , And the frequency component image F i R (x, y, t) for the right eye is generated as follows.

次に、周波数合成手段S10において、分解した各周波数成分を合成して画像を構成する。
周波数合成手段S10では、前記周波数分解方法とは逆方向に処理を進める。分解レベルnの低周波画像および分解レベルnのウェーブレット係数にウェーブレット逆変換を適用して分解レベルn−1の低周波画像が得られる。次に、分解レベルn−1の低周波画像とウェーブレット係数にウェーブレット逆変換を適用することにより分解レベルn−2の低周波画像が得られる。この操作を順次繰り返すことにより、分解レベル0の画像すなわち元の画像を再構成することができる。
Next, in the frequency synthesizer S10, an image is constructed by synthesizing the decomposed frequency components.
In the frequency synthesizer S10, the process proceeds in the opposite direction to the frequency decomposition method. An inverse wavelet transform is applied to the decomposition level n low frequency image and the decomposition level n wavelet coefficients to obtain a decomposition level n-1 low frequency image. Next, by applying wavelet inverse transformation to the low-frequency image at decomposition level n-1 and the wavelet coefficients, a low-frequency image at decomposition level n-2 is obtained. By sequentially repeating this operation, an image at the decomposition level 0, that is, the original image can be reconstructed.

ウェーブレット変換によって周波数分解することにより、各分解レベル毎のウェーブレット係数が得られる。分解レベルはツースケール関係により、2のべき乗分の1の空間解像度に対応しており、例えば、分解レベルiは、原画像の空間解像度の   By performing frequency decomposition by wavelet transform, wavelet coefficients for each decomposition level are obtained. The decomposition level corresponds to a spatial resolution of one power of 2 due to the two-scale relationship. For example, the decomposition level i is the spatial resolution of the original image.

倍の空間解像度に対応し、これは原画像の Twice the spatial resolution, which is

倍の空間周波数成分に相当する。 This corresponds to a double spatial frequency component.

そこで、所望の周波数成分、すなわち、所望の分解レベルのウェーブレット係数には水平視差を与え、その他のウェーブレット係数には水平視差を与えずに、前記合成方法を適用することにより、所望の周波数成分だけに水平視差が付与された左眼用画像   Therefore, by applying the synthesis method without applying horizontal parallax to a desired frequency component, that is, a wavelet coefficient having a desired decomposition level, and applying no horizontal parallax to other wavelet coefficients, only the desired frequency component is obtained. Left eye image with horizontal parallax

および右眼用画像が得られる。 And right-eye images are obtained.

次に、画像変換手段S11において、周波数合成手段S10で得られた結果を所望の形式の画像として出力する。
具体的には、画像出力手段S11は、前記周波数合成手段から左眼用周波数合成画像
Next, the image conversion means S11 outputs the result obtained by the frequency synthesis means S10 as an image of a desired format.
Specifically, the image output unit S11 outputs the frequency composite image for the left eye from the frequency synthesis unit.

および右眼用周波数合成画像 And right eye frequency composite image

を受け取り、前記画像変換手段S2から色度画像C(x,y,t)、C(x,y,t)を受け取り、これらから色変換を適用して所望の二次元画像である左眼用画像I(x,y,t)と右眼用画像I(x,y,t)を出力する。 And chromaticity images C 1 (x, y, t) and C 2 (x, y, t) are received from the image conversion means S2, and color conversion is applied from these to the left, which is a desired two-dimensional image. An image for eye I L (x, y, t) and an image for right eye I R (x, y, t) are output.

動画像出力手段S12は、前記画像変換手段S11から各フレームの左眼用画像I(x,y,t)と右眼用画像I(x,y,t)を受け取り、左眼用動画像と右眼用動画像を出力する。 The moving image output unit S12 receives the left-eye image I L (x, y, t) and the right-eye image I R (x, y, t) of each frame from the image conversion unit S11, and receives the left-eye moving image. The image and the moving image for the right eye are output.

結果を画像として出力する媒体は画像を表示できるものであれば特に限定するものではなく、液晶ディスプレイやプラズマ、CRT、有機ELなどが挙げられる。   The medium for outputting the result as an image is not particularly limited as long as the image can be displayed, and examples thereof include a liquid crystal display, plasma, CRT, and organic EL.

図2は、本発明の動画像処理方法の一例を示した処理フロー図である。以降は図2の処理フローを用いて本発明の一形態を説明する。
まず、動画像入力処理P1において、処理すべき2次元動画像データVinを入力する。
FIG. 2 is a processing flowchart showing an example of the moving image processing method of the present invention. Hereinafter, an embodiment of the present invention will be described using the processing flow of FIG.
First, the moving image input process P1, corresponding to the three-dimensional moving image data V in to be processed.

次に、画像変換処理P2において、前記動画像入力処理P1において読み取った2次元動画像データVinをフレーム画像I(x,y,t)に分解し、さらに各フレーム画像を明度成分と色度成分とに分離し、明度成分の2次元画像L(x,y,t)および色度成分の2次元画像C(x,y,t)、C(x,y,t)および彩度成分の2次元画像S(x,y,t)にそれぞれ変換する。 Then, the image conversion processing P2, 2-dimensional moving image data V in the frame image I read in the moving image input process P1 (x, y, t) is decomposed into further luminance component and a chromaticity of each frame image The two-dimensional image L (x, y, t) of the lightness component, the two-dimensional image C 1 (x, y, t), C 2 (x, y, t) of the chromaticity component, and the saturation Each component is converted into a two-dimensional image S (x, y, t).

なお、色情報を明度情報と色度情報に分離する方法としては、Y(R−Y)(B−Y)ないしCIELABないしHSVなどのいずれかの表色系を用いればよい。ここで、最も一般的に用いられている二次元画像の表色系としてRGB表色系を基準にすると、Y(R−Y)(B−Y)の場合は放送用に用いられ、明度Yは式1で算出し、彩度Sは式2で算出する。   As a method for separating the color information into lightness information and chromaticity information, any color system such as Y (R−Y) (BY), CIELAB, or HSV may be used. Here, when the RGB color system is used as a reference for the most commonly used two-dimensional image color system, Y (R−Y) (BY) is used for broadcasting, and brightness Y Is calculated by Equation 1, and the saturation S is calculated by Equation 2.

Y=0.299R+0.587G+0.114B (式1)   Y = 0.299R + 0.587G + 0.114B (Formula 1)

一方、視差量入力処理P3においては、まず、前記視差量入力手段S3aを介して視差量Hを入力する。これは例えば、コンピュータ端末上に提示した入力画面から任意の値を入力する、ないし複数の候補値の中から選択することなどで実現できる。あるいは、ボタンやダイヤル等を配した入力装置等から入力しても良い。   On the other hand, in the parallax amount input process P3, first, the parallax amount H is input via the parallax amount input means S3a. This can be realized, for example, by inputting an arbitrary value from an input screen presented on a computer terminal or by selecting from a plurality of candidate values. Or you may input from the input device etc. which arranged the button, the dial, etc.

補正係数算出処理P4においては、前記画像変換P2から明度画像L(x,y,t)および彩度画像S(x,y,t)を受け取り、処理数値k、明度vの関数f(v)、彩度sの関数g(s)のうちいずれかの形式で補正係数Kを算出する(K=k、K=f(v)、K=g(s))。   In the correction coefficient calculation process P4, the brightness image L (x, y, t) and the saturation image S (x, y, t) are received from the image conversion P2, and the function f (v) of the processing numerical value k and the brightness v is received. Then, the correction coefficient K is calculated in one of the functions g (s) of the saturation s (K = k, K = f (v), K = g (s)).

ここで、明度の関数f(v)としては、例えば、明度画像L(x,y,t)の明度の最大値をVmax、最小値をVminとすると、v=L(x,y,t)としてf(v)=v/(Vmax−Vmin)のように線形に与えることができる。彩度の関数g(s)としても、同様に、彩度画像S(x,y,t)の彩度の最大値をSmax、最小値をSminとすると、s=S(x,y,t)としてg(s)=s/(Smax−Smin)のように線形に与えることができる。もちろん、これらに限るわけではなく、単調増加の範囲内で様々な関数を選択することが可能である。   Here, as the brightness function f (v), for example, when the maximum brightness value of the brightness image L (x, y, t) is Vmax and the minimum value is Vmin, v = L (x, y, t). As f (v) = v / (Vmax−Vmin). Similarly, as the saturation function g (s), assuming that the maximum value of the saturation of the saturation image S (x, y, t) is Smax and the minimum value is Smin, s = S (x, y, t ) Can be linearly given as g (s) = s / (Smax−Smin). Of course, the present invention is not limited to these, and various functions can be selected within a monotonically increasing range.

次に、時刻の変数tに1を代入する。本実施例では時刻をフレーム番号で代用することとし、これは一番初めのフレーム番号を代入することを意味する。
次に、最大分解レベル算出処理P5において、前記画像変換処理P2において出力された時刻tの明度成分画像L(x,y,t)を受け取り、横幅widthおよび高さheightを読み取り、widthとheightの小さい方の値を超えない最大の2のべき乗数を算出し、そのべき数を最大分解レベルとしてMに代入する。
Next, 1 is substituted into the time variable t. In this embodiment, the time is substituted by the frame number, which means that the first frame number is substituted.
Next, in the maximum decomposition level calculation process P5, the brightness component image L (x, y, t) output at the time t output in the image conversion process P2 is received, the width width and height height are read, and the width and height are read. The maximum power of 2 that does not exceed the smaller value is calculated, and that power is substituted into M as the maximum decomposition level.

次に、周波数選択処理P6においては、前記最大分解レベル算出処理P5から最大分解レベルMを受け取り、分解レベル1からMまでの間で所望の分解レベルを指定し、各分解レベルに応じて視差を与えるか否かを指定するリストであるlist(i)に格納する。ここでは、分解レベル数が小さいほど高周波数を表し、レベル数が大きいほど低周波数を表す。   Next, in the frequency selection process P6, the maximum decomposition level M is received from the maximum decomposition level calculation process P5, a desired decomposition level is designated between decomposition levels 1 to M, and the parallax is determined according to each decomposition level. It is stored in list (i) which is a list for designating whether to give or not. Here, a smaller frequency represents a higher frequency, and a larger level represents a lower frequency.

選択の仕方については、画像の被写体の性質に応じた処理を指示するために、高周波数成分だけを処理する場合には高周波数成分の分解レベルを選択し、低周波数成分だけを処理する場合には低周波数成分の分解レベルを選択し、所望の周波数だけを処理したい場合には所望の周波数成分の分解レベルだけを選択し、周波数に関わらず処理する場合には全分解レベルを選択する。   As for the selection method, in order to instruct the processing according to the nature of the subject of the image, when processing only the high frequency component, select the decomposition level of the high frequency component, and when processing only the low frequency component Selects the decomposition level of the low frequency component, selects only the decomposition level of the desired frequency component when processing only the desired frequency, and selects the entire decomposition level when processing regardless of the frequency.

視差を指定するリストであるlist(i)の実現方法としては、例えば、分解レベルiを選択する場合にはlist(i)=1を、選択しない場合にはlist(i)=0を与えて出力する。list(i)は、周波数成分分割数をMとすると、例えば長さMビットのデータとして実現可能であるし、あるいは大きさMの配列として実現することも可能である。   As a method for realizing list (i), which is a list for specifying parallax, for example, list (i) = 1 is given when the decomposition level i is selected, and list (i) = 0 is given when not selected. Output. If the frequency component division number is M, list (i) can be realized, for example, as data of length M bits, or can be realized as an array of size M.

一方、時刻tを含む複数のフレームに渡る場面を解析する。まず、時刻の変数t’にtを代入する。ここで、tは参照する複数フレームの先頭フレームを表す(t≦t)。
周波数分解処理P7においては、前記画像変換処理P2で算出した明度画像から時刻t'の明度画像L(x,y,t’)を、分解レベル1から前記最大分解レベル算出処理で求めた最大分解レベルMまで順次空間周波数変換して、各分解レベルの周波数成分画像F(x,y,t’)を算出する。
On the other hand, a scene over a plurality of frames including time t is analyzed. First, t 1 is substituted for the time variable t ′. Here, t 1 represents the first frame of a plurality of frames to be referred to (t 1 ≦ t).
In the frequency resolution process P7, the maximum resolution obtained from the brightness level L (x, y, t ′) at the time t ′ from the brightness image calculated in the image conversion process P2 from the resolution level 1 by the maximum resolution level calculation process. The frequency component images F i (x, y, t ′) of the respective decomposition levels are calculated by sequentially performing spatial frequency conversion up to the level M.

ここで、周波数成分の分解方法について説明する。図3は本発明の周波数分解処理の一例を示した処理フロー図である。まず、c=L(x,y,t’)として、分解レベルをiとして、iに1を代入し(P7b)、1回目の空間周波数変換を適用する(P7c)。これにより分解レベル1の分解係数c、dが求められる(P7d)。
次にiの値に1を加算した値でiを更新し(P7e)、最大分解レベル数Mと比較する(P7f)。iの値がM以下であれば、cに対して再度P7cからP7fまでの処理を適用して分解レベル2の分解係数、c、dを求め、以下、P7cからP7fまでの処理を繰り返して各分解係数c、dを順次算出する。iの値がMを超えた時点で周波数分解処理を終了する。その結果、各分解レベルにおける周波数成分画像F(x,y,t’)=cが得られる。
Here, a frequency component decomposition method will be described. FIG. 3 is a process flow diagram showing an example of the frequency decomposition process of the present invention. First, c 0 = L (x, y, t ′), the decomposition level is i, 1 is substituted for i (P7b), and the first spatial frequency transformation is applied (P7c). Thereby, decomposition coefficients c 1 and d 1 of decomposition level 1 are obtained (P7d).
Next, i is updated with a value obtained by adding 1 to the value of i (P7e), and is compared with the maximum number of decomposition levels M (P7f). If the value of i is M or less, decomposition coefficients of decomposition level 2 by applying processing again from P7c against c 1 until P7F, the determined c 2, d 2, less, the processing from P7c to P7F The decomposition coefficients c i and d i are sequentially calculated by repeating. When the value of i exceeds M, the frequency decomposition process is terminated. As a result, a frequency component image F i (x, y, t ′) = c i at each decomposition level is obtained.

次に、周波数変換の方法については、従来は特に音響技術分野で多くの方法が考案されており、例えばフーリエ変換法やウェーブレット変換法などが代表的である。本発明では、(色々な周波数変換の方法を適宜利用することも可能だが)より好適な例として、空間的局在精度の高いウェーブレット変換法を適用する場合をここでは紹介する。
ウェーブレット変換は、ツースケール関係と正規直交系条件をみたす2種類の関数(スケーリング関数とウェーブレット関数)を用いて信号を分解・生成する方法である。ウェーブレット変換の基本的内容は、例えば「非特許文献1」などで説明されている。又、ウェーブレットを構成するための関数系に関しては、例えば「非特許文献2」で説明されている。
ウェーブレット関数の例としては、Daubechiesウェーブレットや、カーディナル・スプライン・ウェーブレット、等がある。性質が素直で滑らかなウェーブレット関数は、本発明には好適である。
Next, with regard to the frequency conversion method, many methods have been devised, particularly in the field of acoustic technology. For example, the Fourier transform method and the wavelet transform method are representative. In the present invention, a case where a wavelet transform method with high spatial localization accuracy is applied is introduced here as a more preferable example (although various frequency conversion methods can be used as appropriate).
The wavelet transform is a method for decomposing and generating a signal using two types of functions (scaling function and wavelet function) that satisfy a two-scale relationship and an orthonormal system condition. The basic content of the wavelet transform is described in, for example, “Non-Patent Document 1”. The function system for constructing the wavelet is described in, for example, “Non-Patent Document 2”.
Examples of wavelet functions include Daubechies wavelets and cardinal spline wavelets. A wavelet function that is straightforward and smooth in nature is suitable for the present invention.

処理対象となる画像から、画像の幅と高さが互いに等しく、その値が2のべき乗に等しい面積最大の領域を抽出して処理画像とする。この画像に対して、所望のウェーブレット関数のスケーリング係数およびウェーブレット係数を用意して、ウェーブレット変換を行なう。図6に示すように、ウェーブレット変換を一回行なう毎に、周波数が半減するとともに、高周波数成分と低周波数成分に分解される。ここで、変換前の原画像の状態を分解レベル0、変換を一回適用した場合を分解レベル1、変換をn回繰り返した状態を分解レベルnと呼ぶ。したがって、変換をn回まで繰り返した際、元の画像の空間周波数を最高周波数として、その1/2倍、1/4倍、・・・、1/2倍の周波数成分にそれぞれ分解される。 From the image to be processed, a region having the maximum area and the width and height of the image are equal to each other and the value is equal to a power of 2 is extracted as a processed image. For this image, a scaling factor and a wavelet coefficient of a desired wavelet function are prepared, and wavelet transformation is performed. As shown in FIG. 6, every time wavelet transform is performed, the frequency is halved and decomposed into a high frequency component and a low frequency component. Here, the state of the original image before conversion is called decomposition level 0, the case where the conversion is applied once is called decomposition level 1, and the state where the conversion is repeated n times is called decomposition level n. Therefore, when the repeated conversion to n times, as the highest frequency spatial frequency of the original image, its 1/2, 1/4-fold, ..., are disassembled into 1/2 n times the frequency component .

分解レベルkの分解成分と分解レベルk−1(0<k<n)の分解成分との間には、以下の関係が成り立つ。   The following relationship holds between the decomposition component at decomposition level k and the decomposition component at decomposition level k-1 (0 <k <n).

これらの式は、原信号cおよび、原信号を所定の水平視差量Hだけ右にシフトした左眼用信号 These formulas represent the original signal ck and the left eye signal obtained by shifting the original signal to the right by a predetermined horizontal parallax amount H.

および、原信号を所定の水平視差量Hだけ左にシフトした右眼用信号 And a signal for the right eye obtained by shifting the original signal to the left by a predetermined horizontal parallax amount H

がフィルター: Is a filter:

によって、解像度の一段階低い信号: Depending on the resolution one step lower:

に分解できることを表している。ここで、関数 This means that it can be disassembled. Where the function

は、ウェーブレット関数と呼ばれ、また、関数 Is called a wavelet function, also a function

は、スケーリング関数と呼ばれる。 Is called a scaling function.

図7にDaubechiesウェーブレット(第10次)のウェーブレット関数およびスケーリング関数の波形を示す。   FIG. 7 shows waveforms of the Daubechies wavelet (10th order) wavelet function and scaling function.

次に、周波数計数手段P8において、前記周波数分解手段P7から各周波数成分を受け取り、当該フレーム画像の各周波数成分を計数して、計数結果hist(i)を更新する。
続いて、時刻変数t’の値に増分時間Δtを加えて更新し、場面の最終時刻tと比較し(t≦t),tより小さければ再びP7、P8の処理を実行することを繰り返す。
Next, the frequency counting means P8 receives each frequency component from the frequency decomposing means P7, counts each frequency component of the frame image, and updates the counting result hist (i).
Subsequently, the value of the time variable t ′ is updated by adding the increment time Δt, compared with the final time t 2 of the scene (t ≦ t 2 ), and if smaller than t 2 , the processes of P7 and P8 are executed again. repeat.

場面の最終時刻に達した後、場面判定処理P9において、前記周波数計数手段P8から受け取った計数結果hist(i)の分布形状およびピーク位置のシフト量を計算して、ズームイン場面/ズームアウト場面/その他場面を判定して、各場面ごとに適した補正係数K(t)を設定する。
例えば、各時刻ごとに所定のフレーム(時刻tからtまで)に渡るhist(i)を算出し、ヒストグラムの分布形状およびピーク位置を比較し、形状が類似で、かつ、ピーク位置が低周波側へシフトする場面はズームイン場面として、形状が類似で、かつ、ピーク位置が高周波側へシフトする場面はズームアウト場面として、それぞれ判定する。
ここで、関数K(t)(t≦t≦t)としては、ズームイン場面では、場面の全フレーム数(開始フレームtから終了フレームt)に渡って0から1まで単調増加する関数を、またズームアウト場面では全フレーム数に渡って1から0まで単調減少する関数として、その他の場面ではK(t)=1のように設定する。
最も単純な例としては、
のように与えることができるが、もちろん、これらに限るわけではなく、単調増加、および単調減少の範囲内で様々な関数を選択することが可能である。
After reaching the final time of the scene, in the scene determination process P9, the distribution shape of the count result hist (i) received from the frequency counting means P8 and the shift amount of the peak position are calculated, and the zoom-in scene / zoom-out scene / Other scenes are determined, and a correction coefficient K 2 (t) suitable for each scene is set.
For example, hist (i) over a predetermined frame (from time t 1 to t 2 ) is calculated at each time, and the distribution shape and peak position of the histogram are compared, the shapes are similar, and the peak position is low A scene shifting to the frequency side is determined as a zoom-in scene, and a scene having a similar shape and a peak position shifting to the high-frequency side is determined as a zoom-out scene.
Here, as a function K 2 (t) (t 1 ≦ t ≦ t 2 ), in a zoomed-in scene, it increases monotonically from 0 to 1 over the total number of frames (start frame t 1 to end frame t 2 ). In the zoom-out scene, a function that monotonously decreases from 1 to 0 over the entire number of frames, and K 2 (t) = 1 is set in other scenes.
The simplest example is
However, the present invention is not limited to these, and various functions can be selected within the range of monotonic increase and monotonic decrease.

次に、視差量補正処理P10において、前記画像変換処理P2から明度成分画像L(x,y,t)および彩度成分画像S(x,y,t)を受け取り、前記視差量入力処理P3から所定の視差量Hを受け取り、前記補正係数算出処理P4から補正係数Kを受け取り、さらに前記場面判定処理P9から場面に応じたフレームの関数K(t)を受け取り、視差補正量H’としてH’=K×K(t)×Hを算出する。 Next, in the parallax amount correction processing P10, the lightness component image L (x, y, t) and the saturation component image S (x, y, t) are received from the image conversion processing P2, and from the parallax amount input processing P3. A predetermined parallax amount H is received, a correction coefficient K is received from the correction coefficient calculation process P4, and a frame function K 2 (t) corresponding to the scene is received from the scene determination process P9, and the parallax correction amount H ′ is H '= K 1 × K 2 (t) × H is calculated.

視差量割当処理P11においては、前記視差量補正処理P10から視差補正量H’を受け取り、前記周波数選択処理P6から指示リストlist(i)を受け取り、前記周波数分解処理P7から算出した各周波数成分画像F(x,y,t)を受け取り、指定された分解レベルiの周波数成分画像F(x,y,t)に対して視差補正量H’を水平視差として与えて、左眼用周波数成分画像F (x,y,t)および右眼用周波数成分画像F (x,y,t)を出力する。 In the parallax amount allocation processing P11, the parallax correction amount H ′ is received from the parallax amount correction processing P10, the instruction list list (i) is received from the frequency selection processing P6, and each frequency component image calculated from the frequency resolution processing P7 is received. F i (x, y, t) is received, the parallax correction amount H ′ is given as a horizontal parallax to the frequency component image F i (x, y, t) of the designated decomposition level i, and the frequency for the left eye The component image F i L (x, y, t) and the right-eye frequency component image F i R (x, y, t) are output.

続いて視差量割当処理P11について詳細に説明する。図4は本発明の視差量割当処理P11の一例を示した処理フロー図である。
まず、前記周波数選択処理P6から選択リストlist(i)を受け取り、前記視差量補正処理P10から視差補正量H’を受け取り、前記周波数分解処理P7から分解レベル1からMまでの各周波数成分画像F(x,y,t)を受け取る。
いま分解レベルiに1を代入し(P11a)、list(i)の値を1と比較し(P11b)、一致すれば分解レベルiの周波数成分画像F(x,y,t)に対称に水平視差を与えて、分解レベルiの左眼用周波数成分画像F (x,y,t)および右眼用周波数成分画像F (x,y,t)を算出する。具体的には、分解レベルiの周波数成分画像F(x,y,t)に水平右方向に視差H’を与えて分解レベルiの左眼用周波数成分画像
Next, the parallax amount allocation process P11 will be described in detail. FIG. 4 is a process flow diagram showing an example of the parallax amount allocation process P11 of the present invention.
First, the selection list list (i) is received from the frequency selection process P6, the parallax correction amount H ′ is received from the parallax amount correction process P10, and each frequency component image F from the frequency resolution process P7 to the decomposition levels 1 to M is received. i (x, y, t) is received.
Now, 1 is assigned to the decomposition level i (P11a), the value of list (i) is compared with 1 (P11b), and if they match, the frequency component image F i (x, y, t) at the decomposition level i is symmetrical. Given the horizontal parallax, the frequency component image F i L (x, y, t) for the left eye and the frequency component image F i R (x, y, t) for the right eye at the decomposition level i are calculated. Specifically, a frequency component image for the left eye at the decomposition level i by giving a parallax H ′ in the horizontal right direction to the frequency component image F i (x, y, t) at the decomposition level i.

を算出し、同様に分解レベルiの周波数成分画像F(x,y,t)に水平左方向に視差H’を与えて分解レベルiの右眼用周波数成分画像 Similarly, the frequency component image Fi (x, y, t) at the decomposition level i is given a parallax H ′ in the horizontal left direction, and the frequency component image for the right eye at the decomposition level i is calculated.

を算出する。この処理(P11eからP11iまで)をxの値が0からwidthまでxの値を1ずつ増やしながら行い、さらにyの値が0からheightまでyの値を1ずつ増やしながら繰り返し処理する。
一方、list(i)の値が1と一致しなければ、分解レベルiの周波数成分画像F(x,y,t)を分解レベルiの左眼用周波数成分画像F (x,y,t)および右眼用周波数成分画像F (x,y,t)に代入する(F (x,y,t)=F(x,y,t),F (x,y,t)=F(x,y,t))。この処理(P11jからP11nまで)をxの値が0からwidthまでxの値を1ずつ増やしながら行い、さらにyの値が0からheightまでyの値を1ずつ増やしながら繰り返し処理する。
次にiの値に1を加算してMと比較し、M以下であれば同様の処理(P11bからP11oまで)を再度行なうことを繰り返し、Mを超えた時点で処理を終了する。
Is calculated. This process (from P11e to P11i) is repeated while increasing the value of x by 1 from the value of x to 0 to width, and further, while increasing the value of y by 1 from the value of y to 0 to height.
On the other hand, if the value of list (i) does not match 1, the frequency component image F i (x, y, t) at the decomposition level i is converted to the frequency component image F i L (x, y for the left eye at the decomposition level i). , T) and the frequency component image F i R (x, y, t) for the right eye are substituted into (F i L (x, y, t) = F i (x, y, t), F i R (x , Y, t) = F i (x, y, t)). This process (from P11j to P11n) is repeated while increasing the value of x by 1 from the value of x to 0 to width, and is further repeated while increasing the value of y by 1 from the value of y to 0 to height.
Next, 1 is added to the value of i and compared with M. If it is less than or equal to M, the same processing (from P11b to P11o) is repeated again, and the processing ends when M is exceeded.

次に、時刻変数tの値を時間増分Δtだけ加算した値で更新し、最終フレーム時刻Tと比較する。もし、tの値がT以下であれば、P5からP11までの一連の処理を実行することを繰り返す。tの値がTを超えたら次の処理P12へ進む。   Next, the value of the time variable t is updated with a value obtained by adding the time increment Δt and compared with the last frame time T. If the value of t is less than or equal to T, the series of processing from P5 to P11 is repeated. If the value of t exceeds T, the process proceeds to the next process P12.

周波数合成処理P12においては、前記視差量割当処理P11において所望の周波数成分に対して所定の水平視差が与えられた左眼用周波数成分画像F (x,y,t)および右眼用周波数成分画像F (x,y,t)から、分解レベルMから始めて、周波数分解処理の逆変換を適用して1段階低い分解レベルM−1の周波数画像を算出して、この処理を分解レベルが0になるまで順次繰り返して行なって、最終的に分解レベル0の左眼用周波数画像F (x,y,t)および右眼用周波数画像F (x,y,t)が得られる。 In the frequency synthesizing process P12, the left-eye frequency component image F i L (x, y, t) to which a predetermined horizontal parallax is given to the desired frequency component in the parallax amount allocation process P11 and the right-eye frequency. From the component image F i R (x, y, t), starting from the decomposition level M, the inverse transform of the frequency decomposition process is applied to calculate a frequency image of the decomposition level M−1 that is one step lower, and this process is decomposed It repeats sequentially until the level becomes 0, and finally the frequency image F 0 L (x, y, t) for the left eye and the frequency image F 0 R (x, y, t) for the right eye at the decomposition level 0 are finally obtained. Is obtained.

続いて周波数合成処理P12について詳細に説明する。
図6において左から右へ進む矢印のフローを、逆方向の右から左へと進めることを考える。最大分解レベルMにおける低周波数成分と高周波数成分を用いて、ウェーブレット逆変換を一回行なう毎に、周波数が2倍に増すとともに、分解レベルが1つ少ないレベルの低周波数成分に合成される。したがって、変換をM回繰り返した際、最大分解レベルの、その2倍、4倍、・・・、2倍の周波数成分にそれぞれ合成される。2倍の周波数成分とは、分解を行なっていないレベルを表し、結局元の画像の周波数成分が合成されることになる。
以下、具体的に処理を説明する。
また、図5は本発明の周波数合成処理の一例を示した処理フロー図である。
前記視差量割当処理P11から、分解レベル1からMまでの各左眼用周波数成分画像F (x,y,t)および右眼用周波数成分画像F (x,y,t)を受け取る。
いま、分解レベルをiとして、まずiに最大分解レベル数Mを代入する(P12a)。左眼用周波数成分画像
Next, the frequency synthesis process P12 will be described in detail.
In FIG. 6, let us consider that the flow of an arrow going from left to right is advanced from right to left in the reverse direction. Using the low-frequency component and the high-frequency component at the maximum decomposition level M, the frequency is doubled each time the wavelet inverse transformation is performed, and the decomposition level is reduced to one less frequency component. Therefore, when the conversion is repeated M times, frequency components of the maximum decomposition level are doubled, quadrupled,..., 2M times. The frequency component of 2M times represents a level where decomposition is not performed, and the frequency component of the original image is synthesized after all.
Hereinafter, the processing will be specifically described.
FIG. 5 is a process flow diagram showing an example of the frequency synthesis process of the present invention.
From the parallax amount allocation processing P11, the frequency component images F i L (x, y, t) for the left eye and the frequency component images F i R (x, y, t) for the right eye from the decomposition levels 1 to M are obtained. receive.
Now, assuming that the decomposition level is i, first, the maximum decomposition level number M is substituted for i (P12a). Left eye frequency component image

および右眼用周波数成分画像 And right eye frequency component images

に前記周波数変換P8cの逆変換(式3)および(式4)を適用して(P12b)、分解レベルの1つ少ないレベルの左眼用周波数成分画像 The frequency component image for the left eye having a level one less than the decomposition level is obtained by applying inverse transformations (Equation 3) and (Equation 4) of the frequency transformation P8c to (P12b).

および右眼用周波数成分画像 And right eye frequency component images

を算出する。 Is calculated.

次にiの値を1減らした値で更新して1と比較する。もし1以上であれば、再度逆変換処理(P12bからP12eまで)を適用し、0であれば処理を終了する。これにより、最終的に左眼用周波数合成画像   Next, the value of i is updated with a value reduced by 1 and compared with 1. If it is 1 or more, the inverse transformation process (from P12b to P12e) is applied again, and if it is 0, the process ends. As a result, the frequency composite image for the left eye is finally obtained.

および右眼用周波数合成画像 And right eye frequency composite image

が得られる。 Is obtained.

次に、画像変換処理P13において、前記周波数合成処理P12の出力である左眼用周波数画像   Next, in the image conversion process P13, the frequency image for the left eye which is the output of the frequency synthesis process P12

および右眼用周波数画像 And right eye frequency image

を受け取り、さらに前記画像変換処理P2において分離した色度画像C(x,y,t)およびC(x,y,t)を受け取り、元の画像I(x,y,t)と同一の画像形式に変換して、左眼用2次元画像I(x,y,t)および右眼用2次元画像I(x,y,t)を出力する。 And the chromaticity images C 1 (x, y, t) and C 2 (x, y, t) separated in the image conversion processing P2 are received and are the same as the original image I (x, y, t). The left-eye two-dimensional image I L (x, y, t) and the right-eye two-dimensional image I R (x, y, t) are output.

最後に、動画像出力処理P14において、前記画像変換処理P13から各フレーム画像の左眼用2次元画像I(x,y,t)および右眼用2次元画像I(x,y,t)を受け取り、左眼用動画像Vおよび右眼用動画像VRを出力する。 Finally, in the moving image output process P14, the left-eye two-dimensional image I L (x, y, t) and the right-eye two-dimensional image I R (x, y, t) of each frame image from the image conversion process P13. ) And outputs a left-eye moving image V L and a right-eye moving image V R.

今回は、本発明を説明するために、一例として静止画像を用いた。本発明は二次元画像全般を対象としており、その適用対象は静止画像に限らない。例えば、二次元映像の各フレーム画像、CG(コンピュータ・グラフィクス)画像、および3DCG映像の各フレーム画像等にも、同様に適用可能である。   This time, a still image is used as an example to explain the present invention. The present invention is intended for general two-dimensional images, and the application target is not limited to still images. For example, the present invention can be similarly applied to each frame image of 2D video, CG (computer graphics) image, and each frame image of 3DCG video.

本発明は、1枚の二次元画像を画像処理して両眼立体視用の左眼用画像および右眼用画像を生成する方法であって、最近普及しつつある3D映画に代表される立体画像や立体映像全般に適用可能である。   The present invention is a method for generating a left-eye image and a right-eye image for binocular stereoscopic viewing by image processing a single two-dimensional image, and is a stereoscopic image represented by a 3D movie that has recently become widespread. It can be applied to images and stereoscopic images in general.

1・・・左眼用画像
2・・・右眼用画像
3・・・融像用ミラー
4・・・仮想的画像
5・・・視差角
D1・・・Daubechiesウェーブレット(第10次)のスケーリング関数
D2・・・Daubechiesウェーブレット(第10次)のウェーブレット関数
P1・・・動画像入力処理
P2・・・画像変換処理
P3・・・視差量入力処理
P4・・・補正係数算出処理
P5・・・最大分解レベル算出処理
P6・・・周波数選択処理
P7・・・周波数分解処理
P7a・・・分解レベルを変数iに設定
P7b・・・iに1を設定
P7c・・・周波数変換処理
P7d・・・分解係数を格納
P7e・・・iの値を1加算
P7f・・・iの値をMと比較
P8・・・周波数計数処理
P9・・・場面判定処理
P10・・・視差量補正処理
P11・・・視差量割当処理
P11a・・・変数iに1を設定
P11b・・・list(i)の値を1と比較
P11c・・・変数x,yに0を設定
P11d・・・変数x,yに0を設定
P11e・・・左眼用および右眼用周波数成分に周波数成分をx方向に右および左に対称に水平視差H’を設定したものを設定
P11f・・・変数xの値を1加算する
P11g・・・変数xの値をwidthと比較
P11h・・・変数yの値を1換算する
P11i・・・変数yの値をheightと比較
P11j・・・左眼用および右眼用周波数成分に周波数成分を設定
P11k・・・変数xの値を1加算する
P11l・・・変数xの値をwidthと比較
P11m・・・変数yの値を1換算する
P11n・・・変数yの値をheightと比較
P11o・・・変数iの値を1加算
P11p・・・変数iの値をMと比較
P12・・・周波数合成処理
P12a・・・変数iにMを設定
P12b・・・分解レベルiの分解係数および分解画像から周波数逆変換
P12c・・・分解レベルi−1の分解画像を算出
P12d・・・変数iの値を1減じる
P12e・・・変数iの値を1と比較
P13・・・画像変換処理
P14・・・動画像出力処理

S1・・・動画像入力手段
S2・・・画像変換手段
S3・・・視差量指定手段
S3a・・・視差量入力手段
S3b・・・補正係数指定手段
S4・・・周波数選択手段
S5・・・周波数分解手段
S6・・・計数手段
S7・・・判定手段
S8・・・視差量補正手段
S9・・・視差量割当手段
S10・・・周波数合成手段
S11・・・画像変換手段
S12・・・動画像出力手段
DESCRIPTION OF SYMBOLS 1 ... Left eye image 2 ... Right eye image 3 ... Fusion mirror 4 ... Virtual image 5 ... Parallax angle D1 ... Daubechies wavelet (10th order) scaling Function D2 ... Daubechies wavelet (10th order) wavelet function P1 ... Moving picture input process P2 ... Image conversion process P3 ... Parallax amount input process P4 ... Correction coefficient calculation process P5 ... Maximum decomposition level calculation process P6... Frequency selection process P7... Frequency decomposition process P7a... Set decomposition level to variable i P7b... Set 1 to P7c. Store decomposition factor P7e ... Add 1 to the value P7f ... Compare the value of i with M P8 ... Frequency counting process P9 ... Scene determination process P10 ... Parallax amount correction process P11 ...・ Visual Quantity allocation processing P11a: set 1 to variable i P11b: compare value of list (i) to 1 P11c: set 0 to variables x, y P11d: set 0 to variables x, y Setting P11e: Left eye and right eye frequency components set with frequency components set to be horizontally and parallax H 'symmetrically right and left in the x direction P11f: P11g for adding 1 to the value of variable x・ ・ ・ Compare variable x with width P11h ・ ・ ・ Convert variable y to 1 P11i ・ ・ ・ Compare variable y with height P11j ・ ・ ・ Left and right eye frequency components Set component P11k ... Add 1 to variable x P11l ... Compare variable x to width P11m ... Convert variable y to 1 P11n ... Variable y to height Comparison P11o: Add 1 to the value of variable i P11p ... Compare the value of variable i to M P12... Frequency synthesis processing P12a... M is set to variable i P12b... Frequency inverse transform P12c... Decomposition image at decomposition level i-1 is calculated from decomposition coefficient and decomposition image at decomposition level P12d .. P12e to reduce the value of variable i by 1 ... Compare the value of variable i to 1 P13 ... Image conversion processing P14 ... Moving image output processing

S1 ... Moving image input means S2 ... Image conversion means S3 ... Parallax amount designation means S3a ... Parallax amount input means S3b ... Correction coefficient designation means S4 ... Frequency selection means S5 ... Frequency decomposing means S6 ... counting means S7 ... determining means S8 ... parallax amount correcting means S9 ... parallax amount allocating means S10 ... frequency synthesizing means S11 ... image converting means S12 ... moving image Image output means

Claims (19)

1枚の2次元画像の空間周波数成分を空間周波数分解して周波数成分を算出する周波数分解手段と、立体化したい画像に与えるべき視差量を指定する視差量指定手段と、
分解して得られた周波数成分に、前記視差量を割り当てる視差量割当手段と、
前記視差量割当手段を経て得られた各周波数成分を合成する周波数合成手段と、
前記周波数合成手段で得られた結果から、両眼立体視を可能とする左眼用画像および右眼用画像を出力する画像変換手段と、複数の画像をまとめて動画像を出力する動画像出力手段と、
を少なくとも含むことを特徴とする動画像処理方法。
A frequency resolving means for calculating a frequency component by spatially resolving a spatial frequency component of one two-dimensional image; a parallax amount specifying means for specifying a parallax amount to be given to an image to be three-dimensionalized;
Parallax amount allocating means for allocating the parallax amount to the frequency component obtained by the decomposition;
Frequency synthesis means for synthesizing each frequency component obtained through the parallax amount allocation means;
From the result obtained by the frequency synthesizing means, an image converting means for outputting a left-eye image and a right-eye image capable of binocular stereoscopic vision, and a moving image output for outputting a moving image by combining a plurality of images Means,
A moving image processing method comprising:
前記周波数分解手段を経て得られる各周波数成分を計数する計数手段と、前記計数手段を経て得られる結果から場面の動的性質を判定する判定手段と、をさらに含むことを特徴とする請求項1に記載の動画像処理方法。   2. The method according to claim 1, further comprising: counting means for counting each frequency component obtained through the frequency resolving means; and determining means for judging a dynamic property of a scene from a result obtained through the counting means. The moving image processing method described in 1. 前記視差量割当手段で視差量が割り当てられる周波数成分は、前記2次元画像の明度の周波数成分であることを特徴とする請求項1に記載の動画像処理方法。   The moving image processing method according to claim 1, wherein the frequency component to which the parallax amount is allocated by the parallax amount allocating unit is a frequency component of brightness of the two-dimensional image. 前記視差量割当手段で視差量が割り当てられる周波数成分は、前記2次元画像の明度の高周波数成分であることを特徴とする請求項1に記載の動画像処理方法。   The moving image processing method according to claim 1, wherein the frequency component to which the parallax amount is allocated by the parallax amount allocating unit is a high-frequency component of brightness of the two-dimensional image. 前記視差量割当手段で視差量が割り当てられる周波数成分は、前記2次元画像の明度の低周波数成分であることを特徴とする請求項1に記載の動画像処理方法。   The moving image processing method according to claim 1, wherein the frequency component to which the parallax amount is allocated by the parallax amount allocating unit is a low frequency component of brightness of the two-dimensional image. 前記視差量は、水平視差であることを特徴とする請求項1乃至5のいずれかに記載の動画像処理方法。   6. The moving image processing method according to claim 1, wherein the amount of parallax is horizontal parallax. 前記水平視差は、画像の明度の大きい成分に対して大きく、明度の小さい成分に対しては小さく与えることを特徴とする請求項6に記載の動画像処理方法。   The moving image processing method according to claim 6, wherein the horizontal parallax is given to a component having a high lightness of the image and small to a component having a low lightness. 前記水平視差は、画像の彩度の大きい成分に対して大きく、彩度の小さい成分に対しては小さく与えることを特徴とする請求項6に記載の動画像処理方法。   The moving image processing method according to claim 6, wherein the horizontal parallax is given to a component having a high saturation of an image and is given a small value to a component having a low saturation. 前記水平視差は、動画像データにおいて、ズームイン場面ないし面が手前側に変位する領域に対して大きく、ズームアウト場面ないし面が奥行き側に変位する領域に対して小さくなるように漸次的に与えることを特徴とする請求項6に記載の動画像処理方法。   In the moving image data, the horizontal parallax is gradually given so as to be large for a zoom-in scene or a region where the surface is displaced toward the front side and to be small for a zoom-out scene or a region where the surface is displaced toward the depth side. The moving image processing method according to claim 6. 1枚の2次元画像の空間周波数成分を空間周波数分解して周波数成分を算出する周波数分解手段と、前記周波数分解手段を経て得られる各周波数成分を計数する計数手段と、前記計数手段を経て得られる結果から場面の動的性質を判定する判定手段と、前記判定手段を経て得られる結果に基づいて立体化したい画像に与えるべき視差量を指定する視差量指定手段と、
分解して得られた周波数成分に、前記視差量を割り当てる視差量割当手段と、
前記視差量割当手段を経て得られた各周波数成分を合成する周波数合成手段と、
前記周波数合成手段で得られた結果から、両眼立体視を可能とする左眼用画像および右眼用画像を出力する画像変換手段と、複数の画像をまとめて動画像を出力する動画像出力手段と、
を少なくとも含むことを特徴とする動画像処理装置。
A frequency resolving means for calculating a frequency component by spatially resolving a spatial frequency component of one two-dimensional image, a counting means for counting each frequency component obtained through the frequency resolving means, and a value obtained via the counting means. Determination means for determining the dynamic properties of the scene from the obtained results, and a parallax amount specifying means for specifying the amount of parallax to be given to the image to be three-dimensionalized based on the result obtained through the determination means;
Parallax amount allocating means for allocating the parallax amount to the frequency component obtained by the decomposition;
Frequency synthesis means for synthesizing each frequency component obtained through the parallax amount allocation means;
From the result obtained by the frequency synthesizing means, an image converting means for outputting a left-eye image and a right-eye image capable of binocular stereoscopic vision, and a moving image output for outputting a moving image by combining a plurality of images Means,
A moving image processing apparatus comprising:
前記周波数分解手段を経て得られる各周波数成分を計数する計数手段と、前記計数手段を経て得られる結果から場面の動的性質を判定する判定手段と、をさらに含むことを特徴とする請求項10に記載の動画像処理装置。   11. The apparatus according to claim 10, further comprising: a counting unit that counts each frequency component obtained through the frequency resolving unit; and a determination unit that determines a dynamic property of the scene from a result obtained through the counting unit. The moving image processing apparatus according to 1. 前記視差量割当手段で視差量が割り当てられる周波数成分は、前記2次元画像の明度の周波数成分であることを特徴とする請求項10に記載の動画像処理装置。   11. The moving image processing apparatus according to claim 10, wherein the frequency component to which the parallax amount is allocated by the parallax amount allocating unit is a frequency component of brightness of the two-dimensional image. 前記視差量割当手段で視差量が割り当てられる周波数成分は、前記2次元画像の明度の高周波数成分であることを特徴とする請求項10に記載の動画像処理装置。   The moving image processing apparatus according to claim 10, wherein the frequency component to which the parallax amount is allocated by the parallax amount allocating unit is a high frequency component of brightness of the two-dimensional image. 前記視差量割当手段で視差量が割り当てられる周波数成分は、前記2次元画像の明度の低周波数成分であることを特徴とする請求項10に記載の動画像処理装置。   The moving image processing apparatus according to claim 10, wherein the frequency component to which the parallax amount is allocated by the parallax amount allocating unit is a low frequency component of brightness of the two-dimensional image. 前記視差量は、水平視差であることを特徴とする請求項10乃至14のいずれかに記載の動画像処理装置。   The moving image processing apparatus according to claim 10, wherein the amount of parallax is horizontal parallax. 前記水平視差は、画像の明度の大きい成分に対して大きく、明度の小さい成分に対しては小さく与えることを特徴とする、請求項15に記載の動画像処理装置。   16. The moving image processing apparatus according to claim 15, wherein the horizontal parallax is given to a component having a high lightness of the image and small to a component having a low lightness. 前記水平視差は、画像の彩度の大きい成分に対して大きく、彩度の小さい成分に対しては小さく与えることを特徴とする、請求項15に記載の動画像処理装置。   The moving image processing apparatus according to claim 15, wherein the horizontal parallax is given to a component having a high saturation in an image and small to a component having a low saturation. 前記水平視差は、動画像データにおいて、ズームイン場面ないし面が手前側に変位する領域に対して大きく、ズームアウト場面ないし面が奥行き側に変位する領域に対して小さくなるように漸次的に与えることを特徴とする請求項15に記載の動画像処理装置。   In the moving image data, the horizontal parallax is gradually given so as to be large for a zoom-in scene or a region where the surface is displaced toward the front side and to be small for a zoom-out scene or a region where the surface is displaced toward the depth side. The moving image processing apparatus according to claim 15. 請求項1から請求項9のいずれかに記載の画像処理方法を演算装置に実行させることを特徴とする動画像処理プログラム。   A moving image processing program that causes an arithmetic device to execute the image processing method according to claim 1.
JP2010138103A 2010-06-17 2010-06-17 Moving image processing method, moving image processing apparatus, and moving image processing program Active JP5545059B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010138103A JP5545059B2 (en) 2010-06-17 2010-06-17 Moving image processing method, moving image processing apparatus, and moving image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010138103A JP5545059B2 (en) 2010-06-17 2010-06-17 Moving image processing method, moving image processing apparatus, and moving image processing program

Publications (2)

Publication Number Publication Date
JP2012004862A true JP2012004862A (en) 2012-01-05
JP5545059B2 JP5545059B2 (en) 2014-07-09

Family

ID=45536338

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010138103A Active JP5545059B2 (en) 2010-06-17 2010-06-17 Moving image processing method, moving image processing apparatus, and moving image processing program

Country Status (1)

Country Link
JP (1) JP5545059B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012160922A (en) * 2011-01-31 2012-08-23 Toshiba Corp Image signal processing apparatus and image signal processing method
JP2015511433A (en) * 2012-01-25 2015-04-16 テクニシェ・ユニヴェルシテイト・デルフト Adaptive multidimensional data decomposition

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000209614A (en) * 1999-01-14 2000-07-28 Sony Corp Stereoscopic video system
JP2005353047A (en) * 2004-05-13 2005-12-22 Sanyo Electric Co Ltd Three-dimensional image processing method and three-dimensional image processor
JP2007329902A (en) * 2006-05-08 2007-12-20 Matsushita Electric Ind Co Ltd Image processing method, image processing device, program, storage medium and integrated circuit

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000209614A (en) * 1999-01-14 2000-07-28 Sony Corp Stereoscopic video system
JP2005353047A (en) * 2004-05-13 2005-12-22 Sanyo Electric Co Ltd Three-dimensional image processing method and three-dimensional image processor
JP2007329902A (en) * 2006-05-08 2007-12-20 Matsushita Electric Ind Co Ltd Image processing method, image processing device, program, storage medium and integrated circuit

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012160922A (en) * 2011-01-31 2012-08-23 Toshiba Corp Image signal processing apparatus and image signal processing method
JP2015511433A (en) * 2012-01-25 2015-04-16 テクニシェ・ユニヴェルシテイト・デルフト Adaptive multidimensional data decomposition

Also Published As

Publication number Publication date
JP5545059B2 (en) 2014-07-09

Similar Documents

Publication Publication Date Title
EP2259601B1 (en) Image processing method, image processing device, and recording medium
RU2692432C2 (en) Method and apparatus for three-dimensional image forming
JP5587894B2 (en) Method and apparatus for generating a depth map
JP4903240B2 (en) Video processing apparatus, video processing method, and computer program
JP6147275B2 (en) Stereoscopic image processing apparatus, stereoscopic image processing method, and program
CN100565589C (en) The apparatus and method that are used for depth perception
JP5673032B2 (en) Image processing apparatus, display apparatus, image processing method, and program
KR101377733B1 (en) -up-scaling
JP2011019202A (en) Image signal processing apparatus and image display
US8094148B2 (en) Texture processing apparatus, method and program
WO2012056685A1 (en) 3d image processing device, 3d imaging device, and 3d image processing method
JP2007264722A (en) Image processor
Didyk et al. Apparent stereo: The cornsweet illusion can enhance perceived depth
Berretty et al. Real-time rendering for multiview autostereoscopic displays
JP2015012429A (en) Image processing apparatus, image processing method, and image processing program
CN114514746B (en) System and method for motion adaptive filtering as pre-processing for video encoding
JP5545059B2 (en) Moving image processing method, moving image processing apparatus, and moving image processing program
WO2015186284A1 (en) Image processing device, image processing method, and program
JP5515864B2 (en) Image processing method, image processing apparatus, and image processing program
JP2013172214A (en) Image processing device and image processing method and program
JP5254297B2 (en) Image processing device
JP2013156955A (en) Image processing device, image processing method, and image processing program
JP5711634B2 (en) Image processing apparatus, image processing method, and image processing program
Ryu et al. 47‐2: Monocular Depth Perception Enhancement Based on Joint Shading/Contrast Model and Motion Parallax (JSM)
JP5807570B2 (en) Image processing apparatus, image processing method, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130521

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140415

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140428

R150 Certificate of patent or registration of utility model

Ref document number: 5545059

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250