JPH1040420A - Method for controlling sense of depth - Google Patents

Method for controlling sense of depth

Info

Publication number
JPH1040420A
JPH1040420A JP8195082A JP19508296A JPH1040420A JP H1040420 A JPH1040420 A JP H1040420A JP 8195082 A JP8195082 A JP 8195082A JP 19508296 A JP19508296 A JP 19508296A JP H1040420 A JPH1040420 A JP H1040420A
Authority
JP
Japan
Prior art keywords
depth
change
factor
sensation
sense
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8195082A
Other languages
Japanese (ja)
Inventor
Yukinori Matsumoto
幸則 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP8195082A priority Critical patent/JPH1040420A/en
Publication of JPH1040420A publication Critical patent/JPH1040420A/en
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity

Abstract

PROBLEM TO BE SOLVED: To evade a sudden change in parallax angle at the time of processing a three-dimensional(3D) moving image by controlling sense of depth at the time of displaying a subject as a 3D moving image by executing conversion processing for easing a change in the depth sense factor of the subject in the time direction. SOLUTION: A 3D moving image generating device 30 is provided with a frame data storing part 32 having FIFO structure for successively storing a right eye picture inputted as frame data, a depth conversion part 38 for inputting depth information, a scene change detection part 40, and so on. In the structure, a right eye picture and depth information are received from a stereoscopic camera and a parallax angle based on the depth information is applied to generate a right eye picture. A moment sharply changing the depth is detected by the scene change detection part 40 and a change in the depth is moderated by the depth conversion part 38. Since the depth change is moderated, a change in the parallax angle is also moderated.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、奥行き感制御方
法に関する。この発明は特に、立体動画像を撮影、生成
または表示等する際に、その画像に立体感を持たせる手
段である奥行きを制御する方法に関する。
The present invention relates to a depth control method. In particular, the present invention relates to a method for controlling depth, which is a means for giving a three-dimensional effect to a stereoscopic moving image when shooting, generating, displaying, or the like.

【0002】[0002]

【従来の技術】VR(バーチャル・リアリティ)技術の
ひとつに、映像の立体表示を挙げることができる。これ
は、観視者の左右両目に与える映像を操作することによ
り、疑似的に立体感を現出せしめる画像処理技術であ
る。こうした立体画像を生成するために、被写体をステ
レオカメラで撮影する方法が知られている。
2. Description of the Related Art One of VR (virtual reality) techniques is a three-dimensional display of an image. This is an image processing technique for producing a pseudo three-dimensional effect by manipulating images provided to the left and right eyes of a viewer. In order to generate such a stereoscopic image, a method of photographing a subject with a stereo camera is known.

【0003】図6はステレオカメラによる立体画像の生
成原理を示す図である。同図では、2台のカメラ2、4
がステレオカメラを構成し、これらが被写体である人
6、自動車8、山10を撮影している。2台のカメラ
2、4と被写体を結んだときに生じる角度は視差角度と
呼ばれ、人6を見たときの視差角度は同図のα、同様に
自動車8、山10の視差角度はそれぞれβ、γである。
視差角度をこのように定義する場合、観視者に近い被写
体ほど視差角度が大きくなり、理論的には無限遠の被写
体について視差角度がゼロになる。この視差角度によ
り、被写体の奥行き感が生じる。
FIG. 6 is a diagram showing the principle of generating a stereoscopic image by a stereo camera. In the figure, two cameras 2, 4
Constitute a stereo camera, which captures a subject 6, a car 8, and a mountain 10 as subjects. The angle generated when the two cameras 2 and 4 are connected to the subject is called a parallax angle, and the parallax angle when the person 6 is viewed is α in FIG. β and γ.
When the parallax angle is defined in this manner, the parallax angle becomes larger for a subject closer to the viewer, and theoretically the parallax angle becomes zero for a subject at infinity. This parallax angle gives a sense of depth to the subject.

【0004】ここで奥行き感とは観視者の目から見た被
写体の遠近感をいう。被写体またはその部位ごとに奥行
き感が異なれば、画像上にいろいろな遠近感が生じ、立
体感が生まれる。奥行き感を発生させる要因(以下「奥
行き感要因」という)は上述の視差角度であるが、これ
と観視者から被写体までの距離、すなわち奥行きには簡
単な関係がある。奥行きをz、視差角度をθ、ステレオ
カメラの間隔dとし、θが小さければ、z=d/θとな
る。従って、奥行きzを奥行き感要因と捉えることもで
きる。図6の場合、人6、自動車8、山10の奥行きは
それぞれ、Z1、Z2、Z3である。
Here, the sense of depth refers to the sense of perspective of a subject viewed from the eyes of a viewer. If the sense of depth is different for each subject or each part thereof, various perspectives are generated on the image, and a three-dimensional effect is generated. The factor that generates the depth sensation (hereinafter, referred to as “depth sensation factor”) is the above-described parallax angle, and there is a simple relationship between this and the distance from the viewer to the subject, that is, the depth. Let z be the depth, θ be the parallax angle, and d be the distance between the stereo cameras. If θ is small, then z = d / θ. Therefore, the depth z can be considered as a factor of the depth feeling. In the case of FIG. 6, the depths of the person 6, the car 8, and the mountain 10 are Z1, Z2, and Z3, respectively.

【0005】実際に立体画像を表示するときには、例え
ば左のカメラ2の映像を観視者の左目に与え、右のカメ
ラ4の映像を右目に与える。システムによっては一方の
目の画像、例えば右目用画像と、視差角度または奥行き
をセットにして表示装置に送り、表示装置の側で前記視
差角度または奥行きをもとに左目用画像を生成し、右目
用画像と合わせて表示することもある。
When a stereoscopic image is actually displayed, for example, the image of the left camera 2 is given to the left eye of the viewer, and the image of the right camera 4 is given to the right eye. Depending on the system, an image of one eye, for example, a right-eye image and a parallax angle or depth are set and sent to a display device, and a left-eye image is generated on the display device side based on the parallax angle or depth, and a right-eye image is generated. It may be displayed together with the image for use.

【0006】このように、観視者の目は視差角度などの
奥行き感要因に基づいて被写体の遠近を感知するもので
あるが、この視差角度が何度も急変すると視覚疲労が促
進されることが知られている。とくに、映像のシーンが
切り替わるとき、比較的大きな視差角度の変化が発生し
やすい。例えば、カメラのすぐ前にある花瓶のシーンの
後に遠景のシーンに移ったとき、シーンの継ぎ目で視差
角度が突然小さくなる。視差角度の急変を避けるため
に、立体動画像を作成するとき、最近では以下のような
配慮がなされている。
As described above, the viewer's eyes sense the perspective of the subject based on the depth perception factor such as the parallax angle. If the parallax angle suddenly changes many times, visual fatigue is promoted. It has been known. In particular, when a video scene is switched, a relatively large change in the parallax angle is likely to occur. For example, when moving to a distant scene after a vase scene just in front of the camera, the parallax angle suddenly decreases at the scene joint. In order to avoid a sudden change in the parallax angle, the following considerations have recently been made when creating a three-dimensional moving image.

【0007】1.カメラマンが同じような視差角度の被
写体、すなわち奥行きが大体等しい被写体を連続的に撮
影する。前述の花瓶から遠景へシーンチェンジするとき
は、いったん中間的な距離にある被写体のシーンを挟む
よう撮影する。
[0007] 1. The cameraman continuously shoots subjects having similar parallax angles, that is, subjects having substantially equal depths. When the scene is changed from the vase to the distant view, the subject is once photographed so as to sandwich the scene of the subject at an intermediate distance.

【0008】2.カメラマンは自由に撮影するかわり
に、後の映像編集の際に視差角度が大きくならないよう
な順序でシーンの並べ換えを行う。
[0008] 2. Instead of shooting freely, the cameraman rearranges the scenes in an order that does not increase the parallax angle during the subsequent video editing.

【0009】シーンチェンジの際の視差角度に対する配
慮の必要性は、例えば「3次元映像の基礎」(泉武博監
修NHK放送技術研究所編、オーム社)の83ページ
に、「…カットつなぎに際して、急激な奥行き変化が生
じないようする必要性を示している」などのように記述
されている。
The necessity of considering the parallax angle at the time of a scene change is described in, for example, page 83 of “Basics of 3D video” (edited by NHK Science and Technical Research Laboratories edited by Takehiro Izumi, Ohmsha). It indicates the necessity to prevent a sudden change in depth. "

【0010】[0010]

【発明が解決しようとする課題】しかしながら、前述の
1.2.のような方法は多分にカメラマンや編集者のノ
ウハウまたは経験に負うところが大きい。従って、この
ようなノウハウ等を持つ者がいなければ立体画像の作成
に支障が生じる。また、仮にこのような者がいても、撮
影または編集に注意が必要であり、そのための労力と時
間が発生する。この結果、比較的単純な撮影原理であり
ながら、実際には立体画像の作成、表示等の処理に面倒
な制約があることが認識されつつある。
However, the above-mentioned 1.2. Such a method depends largely on the know-how or experience of photographers and editors. Therefore, if there is no person having such know-how, there will be a problem in creating a stereoscopic image. Even if there is such a person, attention must be paid to shooting or editing, which requires labor and time. As a result, it has been recognized that there is a troublesome restriction on processing such as creation and display of a stereoscopic image in spite of a relatively simple photographing principle.

【0011】本発明はこうした課題に鑑みてなされたも
のであり、その目的は、立体動画像の処理に際し、急激
な視差角度の変化を回避する奥行き感制御方法を提供す
ることにある。また本発明は、例えばシーンチェンジの
ように視差角度の変化が画面全体に生じる場合だけでな
く、例えば画面の手前に突然人が入ってきたときのよう
に画面の一部に生じる場合にも良好な奥行きの制御方法
を提供する。
The present invention has been made in view of the above problems, and an object of the present invention is to provide a depth sense control method for avoiding a sudden change in parallax angle when processing a three-dimensional moving image. Also, the present invention is suitable not only when the change in the parallax angle occurs over the entire screen such as a scene change, but also when the change occurs on a part of the screen such as when a person suddenly enters the front of the screen. A depth control method.

【0012】[0012]

【課題を解決するための手段】[Means for Solving the Problems]

(1)本発明の奥行き感制御方法は、被写体の奥行き感
要因の変化を時間方向に緩和する変換処理を施すことに
より、その被写体が立体動画像として表示される際の奥
行き感を制御するものである。
(1) The depth sense control method of the present invention controls a sense of depth when a subject is displayed as a three-dimensional moving image by performing a conversion process for reducing a change in a factor of the depth sense of the subject in a time direction. It is.

【0013】ここで「被写体」とは、画像枠に入るもの
すべてをいい、必ずしもカメラで撮影されたものである
必要はない。本明細書では、例えばコンピュータ・グラ
フィックスのキャラクターなども被写体に含まれるもの
とする。奥行き感要因は、視差角度、奥行きのいずれか
であるが、後述の画面上視差と考えてもよい。「被写体
の奥行き感要因の変化」とは、例えば図6の人6から山
10へシーンチェンジしたとき、奥行きがZ1からZ3
に変化することを指している。一方、「その被写体が立
体動画像として表示される際の奥行き感」とは、その画
像を見た者に知覚される奥行き感をいう。「変化を時間
方向に緩和する」とは、ある期間で発生する変化を低減
することをいう。例えばシーンチェンジの際に奥行きが
変わる場合、シーンチェンジ自体はある瞬間に発生する
ため、奥行きの時間変化率は理論上無限大になる。本発
明では、この変化の継続時間をある程度延ばすことによ
り、奥行きの変化を時間方向に緩和しながら画像の奥行
き感を制御する。
[0013] Here, the "subject" means everything that falls within the image frame, and does not necessarily need to be photographed by a camera. In this specification, for example, it is assumed that a subject includes a computer graphics character and the like. The depth sensation factor is either the parallax angle or the depth, but may be considered to be the on-screen parallax described later. The “change in the depth sense factor of the subject” refers to, for example, when the scene changes from the person 6 to the mountain 10 in FIG.
To change. On the other hand, “the sense of depth when the subject is displayed as a three-dimensional moving image” refers to the sense of depth perceived by a person who has viewed the image. “Reducing the change in the time direction” means reducing the change that occurs in a certain period. For example, when the depth changes at the time of a scene change, the scene change itself occurs at a certain moment, and the temporal change rate of the depth becomes theoretically infinite. In the present invention, by extending the duration of the change to some extent, the depth change of the image is controlled while the change in the depth is reduced in the time direction.

【0014】なお、本発明は奥行きを制御するものであ
るから、「奥行きの制御がなされた立体動画像を生産す
る方法」と解釈することもできる。
Since the present invention controls the depth, it can be interpreted as "a method of producing a stereoscopic moving image in which the depth is controlled".

【0015】(2)本発明のある態様では、(1)のと
き、前記被写体が立体動画像として表示される際の奥行
き感要因の時間変化率を考慮して、前記変換処理を行
う。すなわち、変化率が大きくならないよう、例えば一
定の上限を設けた上で緩和処理を行うなどの配慮をな
す。
(2) In one aspect of the present invention, in the case of (1), the conversion process is performed in consideration of a time change rate of a depth sensation factor when the subject is displayed as a three-dimensional moving image. That is, consideration is given to, for example, performing a relaxation process after setting a certain upper limit so that the rate of change does not increase.

【0016】(3)本発明の別の態様では、(1)のと
き、前記変換処理の継続時間を考慮して、その変換処理
を行う。すなわち、変換処理にある程度長い時間をとれ
ば緩和の効果は大きくなるため、こうした配慮をなす。
(3) In another aspect of the present invention, in the case of (1), the conversion processing is performed in consideration of the duration of the conversion processing. That is, if the conversion process takes a relatively long time, the effect of the relaxation becomes large, and thus such consideration is made.

【0017】(4)本発明のある態様では、立体動画像
に含まれる情景の切替点付近において、一方の情景の奥
行き感要因を複数の表示単位画像に亘って徐々に他方の
情景の奥行き感要因に近づけていく変換処理を施す。
(4) In one aspect of the present invention, near the switching point of the scene included in the three-dimensional moving image, the depth sense factor of one scene is gradually changed over the plurality of display unit images to the depth sense of the other scene. Perform a conversion process that approaches the factor.

【0018】ここで「情景」とは、撮影の対象がある程
度一定している映像の単位であり、シーンまたはカット
はその例である。また「表示単位画像」とは、例えばフ
レームやピクチャのように、表示の単位となる画像をい
う。例えば切替前の情景に関する奥行きをZ、切替後の
情景に関する奥行きをZ’とするとき、切替前、切替
後、または切替を挟む期間など、切替点付近でZを複数
の表示単位画像に亘って、すなわちある程度時間をかけ
て徐々にZ’に近づけていく。
Here, the "scene" is a unit of video in which the object to be photographed is fixed to some extent, and a scene or a cut is an example. The “display unit image” refers to an image serving as a display unit, such as a frame or a picture. For example, when the depth relating to the scene before switching is Z, and the depth relating to the scene after switching is Z ′, Z is displayed over a plurality of display unit images near the switching point, such as before switching, after switching, or during a period between switching. That is, it gradually approaches Z 'over a certain period of time.

【0019】(5)本発明の別の態様では、画像の一部
領域の奥行き感要因が変化するとき、その一部領域の奥
行き感要因の時間的変化を緩和するとともに、画像各領
域の奥行き感の関係を再構築するために前記一部領域以
外の領域の奥行き感要因に対しても所定の変換処理を施
す。
(5) According to another aspect of the present invention, when the depth sensation factor of a partial region of an image changes, the temporal change of the depth sensation factor of the partial region is reduced, and the depth of each region of the image is reduced. In order to reconstruct a sense relationship, a predetermined conversion process is also performed on a depth sense factor in an area other than the partial area.

【0020】ここで、画像の一部領域の奥行き感要因が
変化する例として、新たな被写体が移動してカメラから
近い位置に現れた場合がある。この場合、その被写体の
領域(以下「注目領域」という)において奥行きが急変
するため、注目領域の奥行きをいちどに変化させるので
はなく、ある程度時間をかけながら変化させていく。こ
の場合、例えば注目領域のもとの奥行きが「100」、
新たに出現した被写体(以下「注目体」という)の奥行
きが「60」であるとすれば、この領域の奥行きを、 100→80→60 などのように、徐々に変化させていく。これにより、注
目領域に関する視差角度の急変が回避される。
Here, as an example in which a factor of a sense of depth in a partial area of an image changes, a new subject may move and appear at a position close to the camera. In this case, since the depth changes abruptly in the area of the subject (hereinafter, referred to as “attention area”), the depth of the attention area is not changed at once, but is changed over time to some extent. In this case, for example, the original depth of the attention area is “100”,
Assuming that the depth of a newly appearing subject (hereinafter, referred to as a “target body”) is “60”, the depth of this area is gradually changed, such as 100 → 80 → 60. This avoids a sudden change in the parallax angle for the attention area.

【0021】一方、注目体の奥行きは、現実には60で
ある。従って、注目領域以外の領域(以下「通常領域」
という)の中に、仮に奥行き「70」の被写体が存在す
れば、この被写体は本来注目体よりも遠くに表示される
べきである。しかし、注目領域の奥行きが100または
80という数字をとる間、奥行き「70」の被写体は注
目体よりも近くに表示されてしまう。このため本発明で
は、画像各領域の奥行き感の関係を再構築するために、
通常領域の奥行き感要因も変化させる。
On the other hand, the depth of the object of interest is actually 60. Therefore, a region other than the region of interest (hereinafter, “normal region”)
), A subject having a depth of “70” should be displayed farther than the target object. However, while the depth of the attention area takes a number of 100 or 80, the subject having the depth “70” is displayed closer than the object of interest. Therefore, in the present invention, in order to reconstruct the relationship of the sense of depth of each region of the image,
The depth sense factor of the normal area is also changed.

【0022】(6)(5)のとき本発明のある態様で
は、注目領域の奥行き感要因の時間的変化、および通常
領域の奥行き感要因の時間的変化をともに抑制すべく、
これらの両方を考慮して奥行き感を制御する。上述の例
の場合、通常領域に含まれる被写体のうち、例えば奥行
き「70」のものの奥行きが「100」に変更されると
する。この変化の量は30であり、これによってこの被
写体の領域の視差角度も変化する。従って、本発明では
注目領域の奥行きの時間的変化だけでなく、通常領域の
奥行きの時間的変化も考慮して奥行きを制御する。
(6) In the case of (5), in one aspect of the present invention, in order to suppress both the temporal change of the depth sensation factor of the attention area and the temporal change of the depth sensation factor of the normal area,
The sense of depth is controlled in consideration of both of these. In the case of the above-described example, it is assumed that, for example, among subjects included in the normal region, the depth of a subject having a depth of “70” is changed to “100”. The amount of this change is 30, which also changes the parallax angle of this subject area. Therefore, in the present invention, the depth is controlled in consideration of not only the temporal change of the depth of the attention area but also the temporal change of the depth of the normal area.

【0023】(7)(6)のとき本発明のある態様で
は、注目領域の奥行き感要因の時間的変化、および通常
領域の奥行き感要因の時間的変化の大きさを総合的に評
価するエネルギー式を導入して奥行き感を制御する。
「エネルギー式」とは、評価上の意義を極値に有する式
という意味であり、この式により、注目領域の奥行きの
時間的変化、および通常領域の奥行きの時間的変化をと
もに低減する協調点を見い出すものである。
(7) In the case of (6), in one embodiment of the present invention, the energy for comprehensively evaluating the temporal change of the depth sensation factor of the attention area and the temporal change of the depth sensation factor of the normal area is calculated. An expression is introduced to control the sense of depth.
The “energy formula” means a formula having an evaluation significance at an extreme value, and is used to reduce the temporal change of the depth of the attention area and the temporal change of the depth of the normal area. To find out.

【0024】(8)(6)のとき本発明のある態様で
は、注目領域の奥行き感要因の時間的変化率、または通
常領域の奥行き感要因の時間変化率のうち少なくとも一
方の上限を定める最大変化率制限式を導入して奥行き感
を制御する。
(8) In the case of (6), according to an aspect of the present invention, the maximum rate for determining at least one of the upper limit of the temporal change rate of the depth sensation factor of the attention area or the temporal change rate of the depth sensation factor of the normal area is set. Controlling the sense of depth by introducing a rate-of-change limiting formula.

【0025】[0025]

【発明の実施の形態】実施形態1. 実施形態1では、制御すべき奥行き感要因
として被写体の奥行きを選ぶ。図1は本実施形態の奥行
き感制御方法を実施する立体動画像生成装置30の構成
図である。この装置は、例えば立体ムービーや立体テレ
ビの内部に設けることができる。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiment 1 FIG . In the first embodiment, the depth of the subject is selected as the depth feeling factor to be controlled. FIG. 1 is a configuration diagram of a three-dimensional moving image generation device 30 that implements the depth feeling control method of the present embodiment. This device can be provided inside a stereoscopic movie or stereoscopic television, for example.

【0026】同図のごとく、この装置はステレオカメラ
等で撮影された画像のうち、右目用画像をその奥行き情
報とともに入力し、左目用画像を生成する。生成された
左目用画像と右目用画像は、同期がとられた後、出力さ
れる。出力された左右目用画像はそれぞれ図示しない表
示装置に送られ、立体表示が行われる。
As shown in the figure, the apparatus inputs a right-eye image together with depth information from images taken by a stereo camera or the like, and generates a left-eye image. The generated left-eye image and right-eye image are output after being synchronized. The output images for the left and right eyes are respectively sent to a display device (not shown), and stereoscopic display is performed.

【0027】この装置はまず、フレームデータとして入
力される右目用画像を順次記憶するFIFO構造のフレ
ームデータ記憶部32と、奥行き情報が入力される奥行
き変換部38およびシーンチェンジ検出部40をもつ。
フレームデータ記憶部32は、後述のごとく複数のフレ
ームに亘って奥行きを徐々に変化させる際、その計算中
フレームデータを一時的に格納するテンポラリーバッフ
ァとして利用される。
This apparatus has a frame data storage unit 32 having a FIFO structure for sequentially storing right-eye images input as frame data, a depth conversion unit 38 to which depth information is input, and a scene change detection unit 40.
The frame data storage unit 32 is used as a temporary buffer for temporarily storing frame data during the calculation when the depth is gradually changed over a plurality of frames as described later.

【0028】シーンチェンジ検出部40は、入力された
各フレームの奥行き情報をもとに、シーンチェンジの箇
所を検出する。このとき、例えばフレームsの画像各領
域の奥行きが Zsmin〜Zsmax 、その直後のフレームtの
それが Ztmin〜Ztmax の範囲にあるとすれば、それぞれ
のフレームの平均の奥行きの差の絶対値D、 D=|(Zsmin +Zsmax )/2−(Ztmin +Ztmax )/2| (式1) が、あるしきい値を超えればシーンチェンジがあったと
判断する。ただしこの検出は、奥行きの平均値の差では
なく、分散の差などに基づいてもよい。
The scene change detecting section 40 detects the location of a scene change based on the input depth information of each frame. At this time, for example, assuming that the depth of each area of the image of the frame s is in the range of Zsmin to Zsmax and that of the frame t immediately after that is in the range of Ztmin to Ztmax, the absolute value D of the average depth difference of each frame, If D = | (Zsmin + Zsmax) / 2− (Ztmin + Ztmax) / 2 | (Equation 1) exceeds a certain threshold value, it is determined that a scene change has occurred. However, this detection may be based on a difference in variance or the like, instead of a difference in average value of depth.

【0029】奥行き変換部38は、シーンチェンジが検
出されたとき、それ以降の複数のフレームに亘って奥行
きが徐々に変化するよう、入力された奥行きを変換す
る。式1の場合、フレームtで急に奥行きが Ztmin〜Zt
max になるのではなく、フレームt以降の数フレームに
亘り、Zsmin が次第に Ztmin へ、Zsmax が次第に Ztm
ax へ近づくようフレームt以降の各フレームに対応さ
せるべき奥行きを変換する。ただし、シーンチェンジが
ない間は、奥行き変換部38は入力された奥行き情報を
そのまま出力する。
When a scene change is detected, the depth converter 38 converts the input depth so that the depth gradually changes over a plurality of frames thereafter. In the case of Equation 1, the depth suddenly changes from Ztmin to Zt at frame t.
Rather than becoming max, Zsmin gradually becomes Ztmin and Zsmax gradually becomes Ztm over several frames after frame t.
The depth corresponding to each frame after the frame t is converted so as to approach ax. However, while there is no scene change, the depth conversion unit 38 outputs the input depth information as it is.

【0030】奥行き変換部38の出力は左目用画像生成
部36へ与えられる。左目用画像生成部36は、奥行き
変換部38から出力された奥行きが例えばフレームsに
関するものであれば、フレームsのデータをフレームデ
ータ記憶部32から読み出し、この右目用画像データお
よび入力された奥行きをもとに既知の方法で左目用画像
を生成する。生成した左目用画像は図示しない表示装置
に与えられる。
The output of the depth converter 38 is provided to the left-eye image generator 36. If the depth output from the depth conversion unit 38 is, for example, related to the frame s, the left-eye image generation unit 36 reads the data of the frame s from the frame data storage unit 32, and reads the right-eye image data and the input depth. Is used to generate a left-eye image. The generated left-eye image is provided to a display device (not shown).

【0031】タイミング調整部34は、生成された左目
用画像とそれに対応する右目用画像の出力タイミングを
合わせる同期化回路である。ここから右目用画像が左目
用画像とタイミングが合った状態で出力され、これが表
示装置に与えられる。
The timing adjustment section 34 is a synchronization circuit for adjusting the output timings of the generated left-eye image and the corresponding right-eye image. From this, the right-eye image is output in a state where the timing matches the left-eye image, and is provided to the display device.

【0032】図2は、立体動画像生成装置30による奥
行きの制御を示す図である。同図(a)は奥行き感制御
を行わない従来の場合、同図(b)は本装置によって制
御を行う場合を比較して示している。
FIG. 2 is a diagram showing depth control by the three-dimensional moving image generator 30. As shown in FIG. FIG. 3A shows a conventional case in which depth control is not performed, and FIG. 4B shows a case in which control is performed by the present apparatus.

【0033】同図では、右目用画像のフレーム1〜13
が装置に連続的に入力されている。ここではフレーム1
〜4までがあるシーンS1、フレーム5以降が別のシー
ンS2であるとし、シーンS1における各フレームの画
像各領域の奥行きがすべて Z1min〜Z1max (平均を Z1a
ve と表記)、シーンS2のそれがすべて Z2min〜Z2ma
x (平均を Z2ave)にあるとしている。すなわちこの場
合、シーンチェンジが起きるフレーム4と5の間で奥行
きが急変し、この奥行きからそのまま左目用画像を生成
すれば、同図(a)に示すごとく、この切替点で視差角
度が大きく変化する。
In the figure, frames 1 to 13 of the right-eye image are shown.
Are continuously input to the device. Here is frame 1
4 is a scene S1 and a frame 5 and subsequent frames are another scene S2, and the depth of each image region of each frame in the scene S1 is Z1min to Z1max (the average is Z1a
ve) and that of scene S2 are all Z2min ~ Z2ma
x (mean Z2ave). That is, in this case, the depth changes suddenly between frames 4 and 5 where a scene change occurs, and if the left-eye image is generated as it is from this depth, the parallax angle greatly changes at this switching point as shown in FIG. I do.

【0034】一方、同図(b)ではシーンチェンジの
後、奥行きが徐々に変化している。奥行きは、実際には
フレームごとの離散値をとるはずであるが、ここでは模
式的に連続値として描いている。本装置によって処理を
行う場合、まず図1のシーンチェンジ検出部40が各フ
レームの奥行きを読み込み、連続するフレームどうしの
奥行きの差を計算する。ここでは、フレーム4とフレー
ム5の間で、 |Z1ave −Z2ave | を計算したとき、この値が大きいと判定され、シーンチ
ェンジが検出される。
On the other hand, in FIG. 3B, the depth gradually changes after the scene change. Although the depth should actually take a discrete value for each frame, it is schematically depicted here as a continuous value. When processing is performed by the present apparatus, first, the scene change detection unit 40 in FIG. 1 reads the depth of each frame and calculates the difference between the depths of consecutive frames. Here, when | Z1ave−Z2ave | is calculated between frames 4 and 5, this value is determined to be large, and a scene change is detected.

【0035】つづいて、奥行き変換部38でフレーム5
以降のフレームに与えるべき奥行きを操作する。奥行き
操作の際の規則として、例えば次の2つの方法が考えら
れる。
Subsequently, the depth conversion unit 38 outputs the frame 5
Manipulate the depth to be given to subsequent frames. For example, the following two methods can be considered as rules for the depth operation.

【0036】1.奥行きの操作をすべきフレーム数を決
めておく 2.奥行きの変化率の上限を決めておく 1.の規則は、奥行きの変化を緩和するとき、その緩和
処理の継続時間を考慮するといってもよい。具体的には
1.の場合、例えば「シーンチェンジ直後のフレームを
含め、n枚のフレームを使って奥行きを徐々に変化させ
る」という規則を定めることができる。図2(b)がこ
の規則に則っていると見れば上記nは4に相当し、フレ
ーム5〜8の4枚のフレームにおいて奥行きが操作され
ている。この規則を採用するとき、シーンチェンジが比
較的短時間で起こる場合は上記nを小さ目の値にとり、
そうでなければ大きくとるような制御も可能である。
1. 1. Determine the number of frames to be operated for depth. Determine the upper limit of the rate of change of depth. May mitigate the change in depth by taking into account the duration of the mitigation process. Specifically, 1. In the case of, for example, a rule that “the depth is gradually changed using n frames including the frame immediately after the scene change” can be defined. If it is considered that FIG. 2B complies with this rule, the above n corresponds to 4, and the depth is manipulated in four frames 5 to 8. When adopting this rule, if a scene change occurs in a relatively short time, set the above n to a small value,
Otherwise, it is possible to take a large control.

【0037】一方、2.の場合は1.と異なり、奥行き
が操作されるフレームの数は原則として問題にしない。
例えば図2(b)の場合、フレーム4に含まれる奥行き
の最大値 Z1max からフレーム5の最大値 Z2max を結
ぶ直線Lの傾きの絶対値がある値を超えないよう奥行き
を制御する。従って、Z1max と Z2max の差が倍になれ
ば、奥行きの操作がなされるフレームの枚数も倍にな
る。この規則を採用する場合、視差角度の変化率をある
数値以下に抑えることが容易になる。
On the other hand, 2. If 1. In contrast, the number of frames whose depth is manipulated does not matter in principle.
For example, in the case of FIG. 2B, the depth is controlled so that the absolute value of the inclination of the straight line L connecting the maximum value Z1max of the depth included in the frame 4 to the maximum value Z2max of the frame 5 does not exceed a certain value. Therefore, if the difference between Z1max and Z2max is doubled, the number of frames for which the depth operation is performed is also doubled. When this rule is adopted, it is easy to suppress the rate of change of the parallax angle to a certain value or less.

【0038】こうして奥行きの変換が終われば、変換後
の奥行きを左目用画像生成部36に投入し、ここで右目
用画像の各フレームとそのフレームに対応する奥行きを
もとに、左目用画像を生成する。生成された左目用画像
は、タイミング調整部34を経た右目用画像とともに後
段の表示装置に出力される。
When the depth conversion is completed in this way, the converted depth is input to the left-eye image generation unit 36, where the left-eye image is converted based on each frame of the right-eye image and the depth corresponding to the frame. Generate. The generated left-eye image is output to the subsequent display device together with the right-eye image that has passed through the timing adjustment unit 34.

【0039】以上が本実施形態の内容である。本実施形
態によれば、観視者が最終的に表示される立体動画像を
見たとき、視差角度が急激に変化する場面が減るため、
視覚疲労を軽減することができる。なお、本実施形態に
ついては以下のような変形例も考えられる。
The above is the contents of the present embodiment. According to the present embodiment, when the viewer sees the finally displayed stereoscopic moving image, the number of scenes in which the parallax angle changes rapidly decreases,
Visual fatigue can be reduced. Note that the present embodiment may have the following modifications.

【0040】(1)ここではシーンチェンジ直後のフレ
ームを先頭に奥行きの操作を行ったが、これは別のフレ
ームを先頭にしてもよい。例えば、シーンチェンジのタ
イミングを挟むよう図2のフレーム3〜6の4枚の奥行
きを操作してもよいし、シーンチェンジ前のフレーム1
〜4の4枚を利用してもよい。
(1) Here, the depth operation is performed starting from the frame immediately after the scene change, but this operation may be started from another frame. For example, the depths of four frames 3 to 6 in FIG. 2 may be operated so as to sandwich the timing of the scene change, or the frame 1 before the scene change may be operated.
4 to 4 may be used.

【0041】(2)図2(b)では2つのシーン間で奥
行きを直線的に変換したが、別の変換方法をもちいるこ
ともできる。例えば、フレーム4の奥行きとフレーム9
の奥行きを滑らかにつなぐtanh関数などによる非線
形変換を用いてもよい。
(2) In FIG. 2B, the depth is linearly converted between the two scenes. However, another conversion method may be used. For example, the depth of frame 4 and frame 9
May be used as a non-linear transformation using a tanh function or the like that smoothly connects the depths of.

【0042】(3)本実施形態ではシーンチェンジを検
出した上で奥行きの変換を行ったが、原理的には、シー
ンチェンジの有無に関係なく任意のフレーム間の奥行き
の差を徐々に変化させていくことができる。その場合、
図1のシーンチェンジ検出部40は設けなくてよい。
(3) In this embodiment, the depth conversion is performed after detecting a scene change, but in principle, the depth difference between arbitrary frames is gradually changed regardless of the presence or absence of a scene change. You can go. In that case,
The scene change detection unit 40 in FIG. 1 does not need to be provided.

【0043】(4)本実施形態の立体動画像生成装置3
0は立体ムービーや立体テレビの内部に設けることがで
きるが、これらの再生側装置側ではなく、撮影側、編集
側装置に適用することもできる。例えば撮影された映像
に対してその場で奥行きの変換を行うステレオカメラシ
ステムの一部や、放送局等の画像編集装置に本発明を組
み込むこともできる。
(4) Three-dimensional moving image generating apparatus 3 of the present embodiment
0 can be provided inside a three-dimensional movie or a three-dimensional television, but can also be applied to the photographing side and the editing side device, not to the reproducing side device side. For example, the present invention can be incorporated into a part of a stereo camera system that converts the depth of a captured video on the spot, or an image editing apparatus such as a broadcasting station.

【0044】(5)本実施形態では、ステレオカメラで
撮影された被写体に関する奥行きの制御を説明したが、
本発明は例えばコンピュータ・グラフィックスの動画に
ついても適用可能である。その場合も、フレームやシー
ンの切替のときに奥行きが徐々に変化するよう画像を生
成または表示すればよい。
(5) In the present embodiment, the control of the depth of the subject photographed by the stereo camera has been described.
The present invention is also applicable to, for example, moving images of computer graphics. In such a case, an image may be generated or displayed so that the depth gradually changes when switching frames or scenes.

【0045】(6)本発明によって奥行きを制御した
後、その奥行きと立体表示のもとになる画像を組み合わ
せてネットワークで画像を伝送したり、画像媒体に記録
してこれを流通させることもできる。すなわち本発明
は、被写体の現実の奥行きの変化が時間方向に緩和され
た状態で生成された画像を通信する方法、被写体の現実
の奥行きの変化が時間方向に緩和された状態で生成され
た画像を記録した媒体という形で応用が可能である。
(6) After controlling the depth according to the present invention, the image can be transmitted over a network by combining the depth and the image that is the basis of the three-dimensional display, or can be recorded on an image medium and distributed. . That is, the present invention provides a method for communicating an image generated in a state where the change in the actual depth of a subject is reduced in the time direction, and an image generated in a state in which the change in the actual depth of the subject is reduced in the time direction. Can be applied in the form of a medium on which is recorded.

【0046】(7)本実施形態では、右目用画像と奥行
き情報を入力し、左目用画像を生成した。それ以外に、 1.右目用画像と左目用画像および奥行き情報を入力
し、それぞれ入力を修正して得られる左目用画像と右目
用画像を出力する。
(7) In the present embodiment, a right-eye image and depth information are input to generate a left-eye image. Other than that, A right-eye image, a left-eye image, and depth information are input, and a left-eye image and a right-eye image obtained by correcting the input are output.

【0047】2.右目用画像と左目用画像の中間画像お
よび奥行き情報を入力し、それぞれ中間画像から合成し
て得られる左目用画像と右目用画像を出力する。
2. An intermediate image and depth information of the right-eye image and the left-eye image are input, and a left-eye image and a right-eye image obtained by combining the intermediate images are output.

【0048】という態様が考えられる。特にこの1.の
場合、個々の画像の修正量が少なく、良好な画像品質が
実現できる。
The following is conceivable. Especially this 1. In the case of (1), the amount of correction of each image is small, and good image quality can be realized.

【0049】(8)本実施形態では、制御の対象として
奥行きzをとったが、これは視差角度であってもよい
し、画面上視差であってもよい。その場合、図1の立体
動画像生成装置の奥行き変換部38に投入される情報
は、奥行き情報の代わりに視差角度情報または画面上視
差情報などとなる。なお、画面上視差とは、被写体が表
示装置のスクリーン位置において持つ視差をいう。その
意味合いは図7に示すとおりであり、同図の場合、画面
上視差はfe/zで与えられる。
(8) In the present embodiment, the depth z is taken as an object to be controlled, but this may be a parallax angle or a parallax on a screen. In this case, the information input to the depth conversion unit 38 of the three-dimensional moving image generating device in FIG. 1 is disparity angle information or on-screen disparity information instead of depth information. Note that the on-screen parallax refers to the parallax that the subject has at the screen position of the display device. The meaning is as shown in FIG. 7, and in this case, the on-screen parallax is given by fe / z.

【0050】実施形態2.実施形態1では、主にシーン
チェンジによる奥行きの急変に対応したが、実際は同じ
シーンの中でも画像の一部領域、すなわち注目領域の奥
行きが急変することがある。本実施形態は、こうした場
合を考慮した奥行き感制御方法に関する。
Embodiment 2 The first embodiment mainly deals with a sudden change in the depth due to a scene change. However, actually, even in the same scene, the depth of a partial area of an image, that is, the attention area may suddenly change. The present embodiment relates to a depth sensation control method considering such a case.

【0051】本実施形態の前提となる技術は、本出願人
が先に特願平7−257141号で提案した奥行きまた
は視差角度の変換方法の一部(以下「前提技術」とい
う)である。前提技術は、撮影された映像の奥行きまた
は視差角度を線形または非線形変換によって所定の範囲
に収めるというもので、本願同様、視覚疲労などの解消
を目的としている。前提技術では、あるフレームに注目
領域が出現した場合、この領域の奥行きも含めてすべて
の領域の奥行きを所定の範囲に変換するが、本実施形態
ではこの変換動作の速さや程度を調整するものである。
The technology on which the present embodiment is based is a part of a depth or parallax angle conversion method proposed by the present applicant in Japanese Patent Application No. 7-257141 (hereinafter referred to as "prerequisite technology"). The prerequisite technique is to limit the depth or parallax angle of a captured image to a predetermined range by linear or non-linear conversion, and aims to eliminate visual fatigue and the like as in the present application. In the base technology, when a region of interest appears in a certain frame, the depth of all regions including the depth of this region is converted into a predetermined range. In the present embodiment, the speed and degree of the conversion operation are adjusted. It is.

【0052】図3は隣接する2枚のフレーム(t-1 )と
フレームtの対応関係、およびフレームtに出現した注
目領域60を説明する図である。同図は背景に山、その
前に自動車がある映像であり、フレームtでボールがカ
メラの至近距離に現われている。このボールが注目領域
60を形成する。
FIG. 3 is a view for explaining the correspondence between two adjacent frames (t-1) and the frame t, and the attention area 60 appearing in the frame t. The figure shows an image in which a mountain is in the background and a car is in front of the mountain. This ball forms the attention area 60.

【0053】いま自動車、山、ボールの奥行きをそれぞ
れ Zcar 、Zmnt、Zball とし、仮にこれらを線形変換で
所望の範囲 ZMIN 〜ZMAX(以下「理想範囲」と呼ぶ)に
一律に収めようとすれば、フレーム(t-1 )では、 ZMIN=aZcar+b ZMAX=aZmnt+b という変換式からa、b(以下a、bを「奥行き変換係
数」ともよぶ)を計算することにより、変換規則が決ま
る。一方、フレームtではボールの出現により、 ZMIN=aZball +b ZMAX=aZmnt+b を満たす新たな奥行き変換係数a、bが決まる。この結
果、自動車の奥行きがフレーム(t-1 )からフレームt
に移行する瞬間に急に大きくなるなど、ボール以外の背
景の視差角度が変化する。この変化量が大きい場合、視
覚疲労のみならず画像が不自然になるという問題が発生
する。
If the depths of a car, a mountain, and a ball are Zcar, Zmnt, and Zball, respectively, and these are to be uniformly set within a desired range ZMIN to ZMAX (hereinafter, referred to as an “ideal range”) by linear transformation, In the frame (t-1), a conversion rule is determined by calculating a and b (hereinafter, a and b are also referred to as "depth conversion coefficients") from a conversion formula of ZMIN = aZcar + bZMAX = aZmnt + b. On the other hand, in the frame t, new depth conversion coefficients a and b satisfying ZMIN = aZball + bZMAX = aZmnt + b are determined by the appearance of the ball. As a result, the depth of the vehicle changes from frame (t-1) to frame t.
The parallax angle of the background other than the ball changes, for example, it suddenly becomes larger at the moment of transition to. If the amount of change is large, there arises a problem that not only the visual fatigue but also the image becomes unnatural.

【0054】図4は本実施形態の立体動画像生成装置5
0の構成図である。同図において図1と対応する部分に
は同じ符号を与え、以下異なる部分を中心に説明する。
FIG. 4 shows a three-dimensional moving image generating apparatus 5 according to this embodiment.
FIG. In the figure, parts corresponding to those in FIG. 1 are given the same reference numerals, and different parts will be mainly described below.

【0055】立体動画像生成装置50は、図1のシーン
チェンジ検出部40のかわりに、エネルギー演算部52
を持つ。エネルギー演算部52には、装置外部からフレ
ーム間の対応点情報、すなわち対応点の位置を特定する
ための情報が与えられている。本実施形態では、対応点
が存在しない点、例えば図3のボールの内部の点に関す
る対応点情報は与えられないものとする。逆に、注目領
域60以外の領域、すなわち通常領域については必ず対
応点情報が与えられるものとする。
The three-dimensional moving image generator 50 includes an energy calculator 52 instead of the scene change detector 40 shown in FIG.
have. The energy calculation unit 52 is provided with corresponding point information between frames, that is, information for specifying the position of the corresponding point, from outside the apparatus. In the present embodiment, it is assumed that no corresponding point information is provided for a point having no corresponding point, for example, a point inside the ball in FIG. Conversely, it is assumed that corresponding point information is always given to an area other than the attention area 60, that is, a normal area.

【0056】エネルギー演算部52にはまた、奥行き情
報も与えられる。奥行き情報は注目領域60であるかど
うかを問わず、各フレームの全領域または全画素につい
て与えられるものとする。本実施形態では、注目領域6
0の奥行きの時間的変化、すなわちフレーム(t-1 )か
らフレームtへの奥行きの変化、および通常領域の奥行
きの時間的変化をともに抑制すべく、これらの両方を考
慮して奥行きを制御する。エネルギー演算部52では、
注目領域60の奥行きの時間的変化と、通常領域の奥行
きの時間的変化の大きさをエネルギー式によって総合的
に評価し、両者をともに低減する協調点を見い出す。こ
こで図3のごとく、フレームtの点Piはフレーム(t-1
)の点Pi に対応する点(以下「対応点」という)で
ある。以下、被写体の現実の奥行きを Zxx で、表示用
の奥行きを ZAxx で表現するものとし、以下のようにパ
ラメータを表記する。
The energy calculator 52 is also provided with depth information. It is assumed that the depth information is given for all regions or all pixels of each frame, regardless of whether or not the region of interest 60. In the present embodiment, the attention area 6
In order to suppress both the temporal change of the depth of 0, that is, the change of the depth from the frame (t-1) to the frame t and the temporal change of the depth of the normal region, the depth is controlled in consideration of both of them. . In the energy calculation unit 52,
The magnitude of the temporal change in the depth of the attention area 60 and the temporal change in the depth of the normal area are comprehensively evaluated by an energy equation, and a coordination point that reduces both of them is found. Here, as shown in FIG. 3, the point Pi of the frame t is located at the frame (t-1).
) (Hereinafter referred to as “corresponding point”). Hereinafter, the actual depth of the subject is represented by Zxx, and the depth for display is represented by ZAxx, and the parameters are represented as follows.

【0057】 ・Z(i,t) :時刻tにおける点Pi の現実の奥行き ・ZA(i,t ) :時刻tにおける点Pi の表示用奥行き ・Zmin(t) :時刻tにおける映像全体の現実の奥行きの最小値 ・Zmax(t) :時刻tにおける映像全体の現実の奥行きの最大値 ・ZAmin(t) :時刻tにおける映像全体の表示用奥行きの最小値 ・ZAmax(t) :時刻tにおける映像全体の表示用奥行きの最大値 ・ZMIN、ZMAX :表示用奥行きの理想範囲の最小値と最大値 ここで、tを(t-1 )におきかえれば、それぞれフレー
ム(t-1 )に関するパラメータとなる。Zmin(t) 、ZAmi
n(t) には映像全体が考慮されるため、ボールの奥行き
も反映されている点に注意すべきである。このとき、エ
ネルギー演算部52で行われるエネルギーの計算の式は
以下の通りである。
Z (i, t): actual depth of point Pi at time t ZA (i, t): display depth of point Pi at time t Zmin (t): actuality of the entire video at time t Zmax (t): Maximum value of the actual depth of the entire image at time t. ZAmin (t): Minimum value of the display depth of the entire image at time t. ZAmax (t): At time t. The maximum value of the display depth of the entire video • ZMIN, ZMAX: The minimum and maximum values of the ideal range of the display depth. Here, if t is replaced with (t-1), the parameters relating to the frame (t-1) are respectively used. Becomes Zmin (t), ZAmi
It should be noted that the depth of the ball is also reflected in n (t) since the whole image is considered. At this time, the formula of the energy calculation performed by the energy calculation unit 52 is as follows.

【0058】 E=Σ( ZA(i,t-1)−(aZ(i,t) +b ))2 +k(ZMIN−(aZmin(t) +b))2 +k(ZMAX−(aZmax(t) +b))2 (式2) この第1項のΣは、すべての対応点に関する総和であ
り、この項が通常領域の奥行きの変動を抑制するよう作
用する。第1項は通常領域に関する評価を与えるもので
あり、この計算には注目領域60内部の点は含まれな
い。
E = Σ (ZA (i, t−1) − (aZ (i, t) + b)) 2 + k (ZMIN− (aZmin (t) + b)) 2 + k (ZMAX− (aZmax (t) + b) )) 2 (Equation 2) Σ in the first term is the sum of all the corresponding points, and this term acts to suppress the fluctuation of the depth of the normal region. The first term gives an evaluation relating to the normal area, and this calculation does not include points inside the attention area 60.

【0059】一方、第2、3項は前提技術の変換方法に
相当する項で、各フレームの奥行きを理想範囲に収める
よう作用する。これらの項の計算には注目領域60も考
慮される。これらの項に掛かるkは適当な結合係数であ
る。kが大きいほど前提技術の制御に近づき、小さいほ
ど時刻tにおける変換後の奥行き、すなわち表示用奥行
きが、時刻(t-1 )における表示用奥行きに近づく。こ
こでエネルギー演算は、dE/da=0、dE/db=
0となるa、bを見い出す計算であり、この計算によっ
て、注目領域における奥行きの変化率、および通常領域
における奥行きの変動をともに抑制する協調点が見い出
される。エネルギー演算部52では、このエネルギー演
算をフレームごとに行い、その時点で最適な奥行き変換
係数a、bを求めてこれを奥行き変換部38に通知す
る。奥行き変換部38では、通知された奥行き変換係数
を用いて奥行きに対する線形変換を行い、この変換結果
をもとに左目用画像生成部36で左目用画像が生成され
る。
On the other hand, the second and third terms are equivalent to the conversion method of the base technology, and operate to keep the depth of each frame within an ideal range. The attention area 60 is also considered in the calculation of these terms. K applied to these terms is an appropriate coupling coefficient. The larger the value of k, the closer to the control of the base technology, and the smaller the value of k, the closer the depth after conversion at time t, that is, the depth for display, to the depth for display at time (t-1). Here, the energy calculation is as follows: dE / da = 0, dE / db =
This is a calculation for finding a and b that become 0. With this calculation, a coordination point that suppresses both the rate of change of the depth in the attention area and the change in the depth in the normal area is found. The energy calculation unit 52 performs this energy calculation for each frame, obtains the optimum depth conversion coefficients a and b at that time, and notifies the depth conversion coefficients to the depth conversion unit 38. The depth conversion unit 38 performs a linear conversion on the depth by using the notified depth conversion coefficient, and the left-eye image generation unit 36 generates a left-eye image based on the conversion result.

【0060】図5は、エネルギー演算部52によるエネ
ルギー演算の結果、奥行き変換部38で奥行きが変換さ
れる様子を示す図である。同図では、観視者の視線方向
をz軸としている。注目領域60が出現せず、かつ以前
に出現した注目領域の影響がすでに消えている安定的な
期間(以下「安定期間」という)では各フレームの表示
用奥行きがこの範囲に収まる。
FIG. 5 is a diagram showing how the depth conversion unit 38 converts the depth as a result of the energy calculation by the energy calculation unit 52. In the figure, the line of sight of the viewer is the z-axis. During a stable period in which the attention area 60 does not appear and the effect of the attention area that has appeared before has already disappeared (hereinafter referred to as “stable period”), the display depth of each frame falls within this range.

【0061】同図には4段に及んで奥行きの範囲が示さ
れるが、このうち第4段の範囲76は、フレーム(t-1
)に関する現実の奥行きの範囲である。これが前回の
処理で第3段の範囲74に変換され、フレーム(t-1 )
としての表示用奥行きの範囲74がすでに確定している
ものとする。同図では、フレーム(t-1 )が安定期間に
あり、その表示用奥行きが理想範囲に一致している。
FIG. 9 shows a range of depth extending to four levels, of which the range 76 of the fourth level is the frame (t-1).
) Is the real depth range. This is converted to the third range 74 in the previous processing, and the frame (t-1)
It is assumed that the display depth range 74 has already been determined. In the figure, the frame (t-1) is in the stable period, and its display depth matches the ideal range.

【0062】この状態にて、つづいてフレームtの処理
が行われる。まず、フレームtが撮影され、映像全体の
現実の奥行きの範囲が同図第2段のような範囲72にあ
ったとする。ここではこの範囲72が理想範囲よりも大
きな方向に飛び出している。
In this state, the processing of frame t is performed. First, it is assumed that the frame t is photographed, and the range of the actual depth of the entire video is in the range 72 as shown in the second row in FIG. Here, this range 72 protrudes in a direction larger than the ideal range.

【0063】一方、第1段の範囲70は奥行き変換部3
8によって元の範囲72が変換された結果得られる表示
用奥行きの範囲である。ここでは上述したエネルギー演
算により、直前のフレームの表示用奥行き範囲、および
理想範囲がともに考慮された結果、両者の間の範囲が得
られている。式2の第1項については、同図のごとくフ
レーム(t-1 )の点Pi における奥行き ZA(i,t-1)
と、フレームtの点Piの現実の奥行き Zi が考慮さ
れ、この点の奥行きが ZA(i,t) に変換されている。
On the other hand, the first range 70 is the depth conversion unit 3.
8, the original range 72 is a display depth range obtained as a result of the conversion. Here, as a result of considering the display depth range and the ideal range of the immediately preceding frame by the above-described energy calculation, a range between the two is obtained. As for the first term of Expression 2, as shown in the figure, the depth ZA (i, t-1) at the point Pi of the frame (t-1)
And the actual depth Zi of the point Pi of the frame t is considered, and the depth of this point is converted to ZA (i, t).

【0064】図3のフレームt以降のフレームに注目領
域60がそのまま留まる場合、本実施形態によれば、最
終的にすべての奥行きが再び理想範囲に収まる。この根
拠を説明する。
In the case where the attention area 60 remains in the frame after the frame t in FIG. 3, according to the present embodiment, all the depths finally fall within the ideal range again. The grounds will be described.

【0065】まず、時刻(t-1) において求められた奥行
き変換係数をat-1 、bt-1 、時刻tにおいて求められ
たそれらをat 、bt とする。一方、式2のEを第1項
と第2、3項に分け、以下のように表記する。
[0065] First, the time (t-1) a t- 1 the depth transform coefficients determined in, b t-1, those obtained at time t and a t, b t. On the other hand, E in Equation 2 is divided into a first term, a second term, and a third term, and are expressed as follows.

【0066】 E=E1+kE2 (式3) ただし、E1=Σ(ZA(i,t-1) −(aZ(i,t)+b))2 E2=(ZMIN−(aZmin(t) +b))2 +(ZMAX−(aZmax
(t) +b))2 時間が経過した後のフレームの奥行きの範囲が理想範囲
に一致するがどうかは、このE2によって評価できる。
すなわち、このE2が時間に対して一様に減少すれば、
いずれかの時点でフレームの奥行きの範囲が理想範囲に
一致する。ここで、時刻(t-1) 、tにおける式3を以下
のように表記する。
E = E1 + kE2 (Equation 3) where E1 = Σ (ZA (i, t−1) − (aZ (i, t) + b)) 2 E2 = (ZMIN− (aZmin (t) + b)) 2 + (ZMAX- (aZmax
(t) + b)) Whether or not the depth range of the frame after two hours has elapsed matches the ideal range can be evaluated by E2.
That is, if this E2 decreases uniformly over time,
At any point, the depth range of the frame matches the ideal range. Here, Expression 3 at time (t-1) and t is described as follows.

【0067】 E(t-1) =E1(t-1) +kE2(t-1) (式4) E(t) =E1(t) +kE2(t) (式5) ただし、奥行き変換係数は式4ではat-1 、bt-1 、式
5ではat 、bt である。
E (t−1) = E1 (t−1) + kE2 (t−1) (Expression 4) E (t) = E1 (t) + kE2 (t) (Expression 5) in 4 a t-1, b t -1, in formula 5 a t, a b t.

【0068】ここで仮に、時刻tにおいても時刻(t-1)
のときの奥行き変換係数at-1 、bt-1 を用いた状況を
考え、この場合の式を式5をもとに、 E(t)'=E1(t)'+kE2(t)' (式6) と表記する。このとき、時刻(t-1) のときの奥行き変換
係数を用いているため、2つのフレームの通常領域の奥
行きは一致し、E1(t)'はゼロとなる。したがって、式
6は以下のように変形できる。
Here, even at time t, time (t-1)
Considering the situation using the depth conversion coefficients a t−1 and b t−1 at the time of (5), the equation in this case is expressed as E (t) ′ = E1 (t) ′ + kE2 (t) ′ based on Equation 5. (Equation 6). At this time, since the depth conversion coefficient at the time (t-1) is used, the depths of the normal regions of the two frames match, and E1 (t) 'becomes zero. Therefore, Equation 6 can be modified as follows.

【0069】 E(t)'=kE2(t)'=kE2(t-1) (式7) 一方、時刻tにおいて最適な数値として求められた奥行
き変換係数at 、btはE(t) を最小にするものである
から、当然、 E(t) ≦ E(t)' (式8) が成立する。ここで式5および式7から、 E2(t) −E2(t-1) =(E(t) −E1(t) −E(t)')
/k が得られる。ここで式8およびE1(t) が正であること
を考慮すれば、 E2(t) −E2(t-1) ≦0 となり、E2の一様減少性が証明される。従って、本実
施形態のように画像の一部領域の奥行きが急変するよう
な場合でも、その変化を緩和しながら最終的に奥行きを
理想範囲に収めることが可能になる。
E (t) ′ = kE2 (t) ′ = kE2 (t−1) (Equation 7) On the other hand, the depth conversion coefficients a t and b t obtained as the optimal numerical values at the time t are E (t) Is minimized, so that E (t) ≦ E (t) ′ (Equation 8) holds. Here, from Equations 5 and 7, E2 (t) −E2 (t−1) = (E (t) −E1 (t) −E (t) ′)
/ K is obtained. Here, considering that Equation 8 and E1 (t) are positive, E2 (t) −E2 (t−1) ≦ 0, and the uniform decreasing property of E2 is proved. Therefore, even when the depth of a partial area of an image changes suddenly as in the present embodiment, it is possible to finally reduce the depth to an ideal range while relaxing the change.

【0070】図8は被写体の現実の奥行きと、それから
エネルギー計算式によって変換された表示用奥行きとの
関係を示す図である。図中、太い実線は表示用奥行き、
破線は現実の奥行きを示し、時刻T0 で急に近いところ
に新たな被写体が現れている。同図の矢印80、82に
示すごとく、T0 で一旦表示用奥行きが理想範囲の上下
にはみ出る形となり、以降これが時間の経過とともに理
想範囲に収まっていく。
FIG. 8 is a diagram showing the relationship between the actual depth of the subject and the display depth converted by the energy calculation formula. In the figure, the thick solid line indicates the display depth,
Broken line indicates the actual depth, a new object suddenly closer has appeared at time T 0. As shown by arrows 80 and 82 in the figure, at T 0 , the display depth once protrudes above and below the ideal range, and thereafter falls within the ideal range with the passage of time.

【0071】なお、実施形態2についても実施形態1同
様の変形例があるほか、以下のような変形例も考えられ
る。
The second embodiment has the same modifications as the first embodiment, and the following modifications are also conceivable.

【0072】(1)本実施形態では、エネルギー計算式
である式2に従って得られた表示用奥行きに忠実に従っ
て画像を生成した。しかしながら、計算の結果理想範囲
を超える奥行きが生じた場合、その超える部分を理想範
囲の上限または下限の近い方に一律に変更する修正を施
した後、表示してもよい。
(1) In the present embodiment, an image is generated in accordance with the display depth obtained according to the energy calculation equation (2). However, when the calculation results in a depth exceeding the ideal range, the portion beyond the ideal range may be displayed after being corrected to uniformly change the upper limit or the lower limit closer to the ideal range.

【0073】(2)本実施形態では、注目領域と通常領
域の両方を考慮するためにエネルギー計算を行ったが、
これを最大変化率制限計算で行ってもよい。最大変化率
制限計算とは、注目領域の奥行きの時間変化率、または
通常領域の奥行きの時間変化率のうち少なくとも一方の
上限を定めて行う計算をいう。この計算例を示す。ここ
では最大変化率、すなわち変化率の上限をULと書き、
変化率を「隣接するフレーム間における表示用奥行きの
変化」と定義する。この条件で、まず、 KMIN = MIN(ZA(i,t-1))-ZMIN KMAX = MAX(ZA(i,t-1))-ZMAX とおくことにより、次の1、2の処理を行う。
(2) In this embodiment, the energy calculation is performed in order to consider both the attention area and the normal area.
This may be performed by the maximum change rate limit calculation. The maximum change rate restriction calculation refers to a calculation performed by setting at least one upper limit of the time change rate of the depth of the attention area or the time change rate of the depth of the normal area. An example of this calculation will be described. Here, the maximum change rate, that is, the upper limit of the change rate is written as UL,
The rate of change is defined as "change in display depth between adjacent frames". Under these conditions, first, KMIN = MIN (ZA (i, t-1))-ZMIN KMAX = MAX (ZA (i, t-1))-ZMAX, thereby performing the following processes 1 and 2. .

【0074】1.if (|KMIN|≦ UL) then ZMINTMP =
ZMIN ; else if ( KMIN > UL) then ZMINTMP = MIN(ZA(i,t-
1)) - UL ; else if ( KMIN <-UL) then ZMINTMP = MIN(ZA(i,t-
1)) + UL ; 2.if (|KMIN|≦ UL) then ZMINTMP = ZMIN ; else if ( KMIN > UL) then ZMINTMP = MIN(ZA(i,t-
1)) - UL ; else if ( KMIN <-UL) then ZMINTMP = MIN(ZA(i,t-
1)) + UL ; つづいて、 ZMINTMP = aZmin(t-1) + b ZMAXTMP = aZmax(t-1) + b から変換係数a、bを定める。
1. if (| KMIN | ≦ UL) then ZMINTMP =
ZMIN; else if (KMIN> UL) then ZMINTMP = MIN (ZA (i, t-
1))-UL; else if (KMIN <-UL) then ZMINTMP = MIN (ZA (i, t-
1)) + UL; if (| KMIN | ≦ UL) then ZMINTMP = ZMIN; else if (KMIN> UL) then ZMINTMP = MIN (ZA (i, t-
1))-UL; else if (KMIN <-UL) then ZMINTMP = MIN (ZA (i, t-
1)) + UL; Then, the conversion coefficients a and b are determined from ZMINTMP = aZmin (t-1) + bZMAXTMP = aZmax (t-1) + b.

【0075】この計算は、奥行きを線形変する際、対応
点のうち最も変化率の大きい点(以下、変化率最大点と
呼ぶ)はもともと奥行きが最大、最小のいずれかである
ことに着目している。そして、変化率最大点における変
化率がある上限以下になるようa、bを決めるものであ
る。具体的には1.の第1行において、フレーム(t-1
)の表示用奥行きの最小値が ZMIN より小さくとも、
その差がUL以下であれば、フレームtでは表示用奥行
きの最小値を直接 ZMIN に変更している。この2枚のフ
レーム間の変化率はUL以下に収まるためである。一
方、1.の第2行では、フレーム(t-1 )の表示用奥行
きの最小値が ZMIN よりも小さく、その差がULを超え
ていれば、フレームtでは表示用奥行きの最小値を直接
ZMIN に変更せず、ULの分だけ ZMIN に近づけてい
る。従って、この2枚のフレーム間の変化率はULちょ
うどになる。以降、数枚のフレームで最終的に ZMIN に
収めていく。
In this calculation, when the depth is changed linearly, attention is paid to the fact that the point having the largest change rate among the corresponding points (hereinafter referred to as the maximum change rate point) originally has either the maximum or the minimum depth. ing. Then, a and b are determined so that the change rate at the maximum change rate point is equal to or less than an upper limit. Specifically, 1. In the first row of the frame (t-1
), Even if the minimum display depth is less than ZMIN,
If the difference is equal to or less than UL, the minimum value of the display depth is directly changed to ZMIN in frame t. This is because the rate of change between these two frames falls below UL. On the other hand, 1. In the second row, the minimum display depth of the frame (t-1) is smaller than ZMIN and if the difference exceeds UL, the minimum display depth of the frame (t-1) is directly
Instead of changing to ZMIN, it is approaching ZMIN by UL. Therefore, the rate of change between these two frames is exactly UL. After that, it will be finally stored in ZMIN in several frames.

【0076】以下、同様に考えばよく、いずれの場合も
変化率はULを超えない。このようにa、bを決める限
り、変化率最大点以外の点の変化率も線形変換によって
一様に圧縮されるため、必ず変化率の上限未満となる。
Hereinafter, the same can be considered, and in any case, the rate of change does not exceed UL. As long as a and b are determined in this way, the change rates at points other than the maximum change rate point are also uniformly compressed by the linear conversion, and therefore always fall below the upper limit of the change rate.

【0077】図9は被写体の現実の奥行きと、それから
最大変化率制限方式によって変換された表示用奥行きと
の関係を示す図である。図中の表記は図8に従う。同図
の矢印84、86のごとく、変化率の上限が制限されて
いるため、図8とは異なる振る舞いとなる。時刻T0
被写体が至近距離に現れた結果、その前のフレームの表
示用奥行きの最小値が図中 Zs に変換されている。この
フレーム間の変化量、すなわち変化率はULである。一
方、時刻T0 以降のフレームについては、それらの表示
用奥行きの最小値が同様にULずつ ZMIN に近づいてい
く。従って、矢印84と矢印86の傾きは等しい。図9
の場合、理想範囲に対する収束が一様に生じるため、収
束の所要時間が短い点に特徴がある。
FIG. 9 is a diagram showing the relationship between the actual depth of the subject and the display depth converted therefrom by the maximum rate-of-change limiting method. The notation in the figure complies with FIG. Since the upper limit of the rate of change is limited as indicated by arrows 84 and 86 in the figure, the behavior differs from that in FIG. As a result of the object appearing at a close distance at time T 0 , the minimum value of the display depth of the previous frame is converted to Zs in the figure. The amount of change between frames, that is, the change rate, is UL. On the other hand, the time T 0 after the frame, the minimum value of those of the display depth approaches the similarly ZMIN by UL. Therefore, the inclinations of the arrow 84 and the arrow 86 are equal. FIG.
In the case of (1), the convergence to the ideal range occurs uniformly, so that the time required for convergence is short.

【0078】[0078]

【発明の効果】本発明の奥行き感制御方法によれば、立
体動画像に含まれる被写体の現実の奥行きの変化が時間
方向に緩和されるため、視差角度の変化を緩和すること
ができる。この結果、従来のようにカメラマンや画像編
集者のノウハウや人手作業に頼ることなく、良好な立体
動画像を容易に得ることができる。
According to the depth sense control method of the present invention, the change in the actual depth of the subject included in the three-dimensional moving image is reduced in the time direction, so that the change in the parallax angle can be reduced. As a result, a good three-dimensional moving image can be easily obtained without relying on the know-how and manual work of a cameraman or an image editor as in the related art.

【0079】画像の奥行きの変化率を考慮して前記緩和
を行う場合は、例えば視差角度の変化率に上限を設ける
ことができるため、視覚疲労解消の面から好ましい。緩
和処理の継続時間を考慮する場合も同様である。
When the above-described relaxation is performed in consideration of the rate of change of the depth of the image, for example, an upper limit can be set for the rate of change of the parallax angle, which is preferable from the viewpoint of eliminating visual fatigue. The same applies when considering the duration of the relaxation process.

【0080】情景の切替点付近において、一方の情景の
奥行きを複数の表示単位画像に亘って徐々に変化させ、
次第に他方の情景の奥行きに近づける場合は、いわゆる
シーンチェンジなど比較的視差角度が急変しやすい場面
に良好に対処できる。
In the vicinity of the scene switching point, the depth of one scene is gradually changed over a plurality of display unit images,
When gradually approaching the depth of the other scene, it is possible to properly cope with a scene in which the parallax angle tends to change relatively abruptly, such as a so-called scene change.

【0081】注目領域の奥行きの時間的変化と通常領域
の奥行きの時間的変化をともに考慮する場合は、両方の
領域の奥行きの変化に伴う視覚疲労を軽減するだけでな
く、立体表示の不自然さを低減することもできる。これ
ら2つの時間的変化をエネルギー式や最大変化率制限式
によって評価する場合、評価の客観性のみならず、最終
的には画像の奥行きが理想範囲に収まることが保証され
る。
When both the temporal change of the depth of the attention area and the temporal change of the depth of the normal area are considered, not only the visual fatigue due to the change of the depth of both areas is reduced, but also the unnaturalness of the stereoscopic display. Can also be reduced. When these two temporal changes are evaluated by the energy equation or the maximum rate-of-change limiting equation, it is guaranteed that not only the objectivity of the evaluation but also that the depth of the image finally falls within the ideal range.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 実施形態1の奥行き感制御方法を実施する立
体動画像生成装置の構成図である。
FIG. 1 is a configuration diagram of a three-dimensional moving image generation device that implements a depth feeling control method according to a first embodiment.

【図2】 実施形態1の立体動画像生成装置による奥行
きの制御を示す図である。
FIG. 2 is a diagram illustrating depth control by the three-dimensional moving image generation device according to the first embodiment.

【図3】 実施形態2において、隣接する2枚のフレー
ム(t-1 )とフレームtの対応関係、およびフレームt
に出現した注目領域を説明する図である。
FIG. 3 is a diagram illustrating a relationship between two adjacent frames (t−1) and a frame t according to the second embodiment;
FIG. 6 is a diagram for explaining an attention area that has appeared in FIG.

【図4】 実施形態2の立体動画像生成装置の構成図で
ある。
FIG. 4 is a configuration diagram of a three-dimensional moving image generation device according to a second embodiment.

【図5】 実施形態2のエネルギー演算部によるエネル
ギー演算の結果、奥行き変換部で奥行きが変換される様
子を示す図である。
FIG. 5 is a diagram illustrating a state in which depth is converted by a depth conversion unit as a result of energy calculation by the energy calculation unit according to the second embodiment.

【図6】 ステレオカメラによる立体画像の生成原理を
示す図である。
FIG. 6 is a diagram showing a principle of generating a stereoscopic image by a stereo camera.

【図7】 画面上視差の意味を説明する図である。FIG. 7 is a diagram illustrating the meaning of on-screen parallax.

【図8】 被写体の現実の奥行きと、それからエネルギ
ー計算式によって変換された表示用奥行きとの関係を示
す図である。
FIG. 8 is a diagram showing the relationship between the actual depth of the subject and the display depth converted from the actual depth by an energy calculation formula.

【図9】 被写体の現実の奥行きと、それから最大変化
率制限方式によって変換された表示用奥行きとの関係を
示す図である。
FIG. 9 is a diagram showing the relationship between the actual depth of a subject and the display depth converted therefrom by the maximum rate-of-change limiting method.

【符号の説明】[Explanation of symbols]

30,50 立体動画像生成装置、32 フレームデー
タ記憶部、34 タイミング調整部、36 左目用画像
生成部、38 奥行き変換部、40 シーンチェンジ検
出部、52 エネルギー演算部、60 注目領域、7
0,72,74奥行きの範囲。
30, 50 stereoscopic video generation device, 32 frame data storage unit, 34 timing adjustment unit, 36 left eye image generation unit, 38 depth conversion unit, 40 scene change detection unit, 52 energy calculation unit, 60 attention area, 7
Range of 0, 72, 74 depth.

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 被写体の奥行き感要因の変化を時間方向
に緩和する変換処理を施すことにより、その被写体が立
体動画像として表示される際の奥行き感を制御すること
を特徴とする奥行き感制御方法。
1. A depth sensation control that performs a conversion process for mitigating a change in a depth sensation factor of a subject in a time direction, thereby controlling a depth sensation when the subject is displayed as a three-dimensional moving image. Method.
【請求項2】 前記被写体が立体動画像として表示され
る際の奥行き感要因の時間変化率を考慮して、前記変換
処理を行う請求項1に記載の奥行き感制御方法。
2. The depth sensation control method according to claim 1, wherein the conversion processing is performed in consideration of a time change rate of a depth sensation factor when the subject is displayed as a three-dimensional moving image.
【請求項3】 前記変換処理の継続時間を考慮して、そ
の変換処理を行う請求項1に記載の奥行き感制御方法。
3. The depth sense control method according to claim 1, wherein the conversion processing is performed in consideration of a continuation time of the conversion processing.
【請求項4】 立体動画像に含まれる情景の切替点付近
において、一方の情景の奥行き感要因を複数の表示単位
画像に亘って徐々に他方の情景の奥行き感要因に近づけ
ていく変換処理を施すことを特徴とする奥行き感制御方
法。
4. A conversion process in which a depth sensation factor of one scene gradually approaches a depth sensation factor of another scene over a plurality of display unit images near a switching point of a scene included in a three-dimensional moving image. A method of controlling a sense of depth, which is performed.
【請求項5】 画像の一部領域の奥行き感要因が変化す
るとき、その一部領域の奥行き感要因の時間的変化を緩
和するとともに、画像各領域の奥行き感の関係を再構築
するために前記一部領域以外の領域の奥行き感要因に対
しても所定の変換処理を施すことを特徴とする奥行き感
制御方法。
5. When the depth sensation factor of a partial area of an image changes, to temporally change the depth sensation factor of the partial area, and to reconstruct the relationship of the depth sensation of each area of the image. A depth feeling control method, wherein a predetermined conversion process is also performed on a depth feeling factor in an area other than the partial area.
【請求項6】 請求項5に記載の奥行き感制御方法にお
いて、 前記一部領域の奥行き感要因の時間的変化、および前記
一部領域以外の領域の奥行き感要因の時間的変化をとも
に抑制すべく、これらの両方を考慮して奥行き感を制御
することを特徴とする奥行き感制御方法。
6. The depth sensation control method according to claim 5, wherein a temporal change in a depth sensation factor in the partial area and a temporal change in a depth sensation factor in an area other than the partial area are both suppressed. A depth sensation control method characterized by controlling the depth sensation in consideration of both of these.
【請求項7】 請求項6に記載の奥行き感制御方法にお
いて、 前記一部領域の奥行き感要因の時間的変化、および前記
一部領域以外の領域の奥行き感要因の時間的変化を総合
的に評価するエネルギー式を導入して奥行き感を制御す
る奥行き感制御方法。
7. The depth sensation control method according to claim 6, wherein a temporal change of the depth sensation factor of the partial area and a temporal change of the depth sensation factor of an area other than the partial area are comprehensively calculated. A depth sense control method that controls the sense of depth by introducing an energy formula to be evaluated.
【請求項8】 請求項6に記載の奥行き感制御方法にお
いて、 前記一部領域の奥行き感要因の時間変化率、または前記
一部領域以外の領域の奥行き感要因の時間変化率のうち
少なくとも一方の上限を定める最大変化率制限式を導入
して奥行き感を制御する奥行き感制御方法。
8. The depth sense control method according to claim 6, wherein at least one of a time change rate of the depth sense factor of the partial area and a time change rate of the depth sense factor of the area other than the partial area. Depth control method that controls the depth sensation by introducing a maximum rate-of-change limiting formula that defines the upper limit of the depth.
JP8195082A 1996-07-24 1996-07-24 Method for controlling sense of depth Pending JPH1040420A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8195082A JPH1040420A (en) 1996-07-24 1996-07-24 Method for controlling sense of depth

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8195082A JPH1040420A (en) 1996-07-24 1996-07-24 Method for controlling sense of depth

Publications (1)

Publication Number Publication Date
JPH1040420A true JPH1040420A (en) 1998-02-13

Family

ID=16335257

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8195082A Pending JPH1040420A (en) 1996-07-24 1996-07-24 Method for controlling sense of depth

Country Status (1)

Country Link
JP (1) JPH1040420A (en)

Cited By (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001202532A (en) * 1999-11-17 2001-07-27 Korea Advanced Inst Of Sci Technol Method for generating stereoscopic picture by using z buffer
WO2003058556A1 (en) * 2002-01-07 2003-07-17 Koninklijke Philips Electronics N.V. Method of and scaling unit for scaling a three-dimensional model and display apparatus
JP2009520392A (en) * 2005-12-19 2009-05-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3D image display method and apparatus
JP2009239388A (en) * 2008-03-26 2009-10-15 Fujifilm Corp Method, apparatus, and program for processing stereoscopic video
JP2009239389A (en) * 2008-03-26 2009-10-15 Fujifilm Corp Method, apparatus, and program for displaying stereoscopic image
JP2010154479A (en) * 2008-12-26 2010-07-08 Fujifilm Corp Apparatus and program for reproducing stereoscopic image, and image capturing apparatus
JP2010529521A (en) * 2007-05-11 2010-08-26 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method, apparatus and system for processing depth related information
JP2010199740A (en) * 2009-02-23 2010-09-09 Fujifilm Corp Apparatus and method of displaying stereoscopic images
JP2010206774A (en) * 2009-02-05 2010-09-16 Fujifilm Corp Three-dimensional image output device and method
WO2010123053A1 (en) * 2009-04-24 2010-10-28 ソニー株式会社 Image information processing device, image pick-up device, image information processing method, and program
JP2010278878A (en) * 2009-05-29 2010-12-09 Fujifilm Corp Stereoscopic image device and display image switching method thereof
CN101951525A (en) * 2009-07-09 2011-01-19 索尼公司 Image processing equipment, image processing method and program
JP2011015256A (en) * 2009-07-03 2011-01-20 Sony Corp Image capturing apparatus, image processing method, and program
JP2011055521A (en) * 2010-10-07 2011-03-17 Fujifilm Corp Three-dimensional image display apparatus and method and program
JP2011055421A (en) * 2009-09-04 2011-03-17 Canon Inc Video processing apparatus and control method thereof
CN102006494A (en) * 2010-11-26 2011-04-06 北京新岸线网络技术有限公司 Method and device for adjusting three-dimensional (3D) video signal
JP2011124941A (en) * 2009-12-14 2011-06-23 Mitsubishi Electric Corp Apparatus and method for producing three-dimensional video
JP2011142662A (en) * 2011-02-24 2011-07-21 Fujifilm Corp Apparatus, method, and program for processing stereoscopic video
WO2011105220A1 (en) * 2010-02-24 2011-09-01 ソニー株式会社 Three-dimensional video processing apparatus, method therefor, and program
EP2387243A2 (en) * 2009-01-12 2011-11-16 LG Electronics Inc. Video signal processing method and apparatus using depth information
JP2011254176A (en) * 2010-05-31 2011-12-15 Canon Inc Image processor and control method thereof
JP2011257784A (en) * 2010-06-04 2011-12-22 Mitsubishi Electric Corp Image processing device, image processing method and image processing display apparatus
WO2012002280A1 (en) * 2010-06-28 2012-01-05 富士フイルム株式会社 Method and device for displaying stereoscopic image
JP2012009010A (en) * 2010-05-25 2012-01-12 Mitsubishi Electric Corp Image processing device, image processing method and image display device
WO2012014708A1 (en) * 2010-07-26 2012-02-02 富士フイルム株式会社 Image processing device, method and program
US20120027376A1 (en) * 2010-07-27 2012-02-02 Sony Corporation Reproducing apparatus, reproducing method, and program therefor
US20120033046A1 (en) * 2010-08-06 2012-02-09 Sony Corporation Image processing apparatus, image processing method, and program
JP2012095276A (en) * 2010-09-28 2012-05-17 Fujifilm Corp Three-dimensional image editing device and three-dimensional image editing method
JP2012129710A (en) * 2010-12-14 2012-07-05 Canon Inc Display controller, display control method, and program
JP2012257303A (en) * 2012-08-07 2012-12-27 Fujifilm Corp Stereoscopic image display device and stereoscopic image display method
WO2013014836A1 (en) * 2011-07-26 2013-01-31 パナソニック株式会社 Video editing device, video editing method, program, and integrated circuit
CN102972036A (en) * 2010-06-30 2013-03-13 富士胶片株式会社 Playback device, compound-eye imaging device, playback method and program
JP2013126106A (en) * 2011-12-14 2013-06-24 Konica Minolta Inc Image processing method, image processing system, and image processing program
EP2649803A1 (en) * 2010-12-08 2013-10-16 Thomson Licensing Method and system for 3d display with adaptive disparity
JP2013540402A (en) * 2010-10-04 2013-10-31 クゥアルコム・インコーポレイテッド 3D video control system for adjusting 3D video rendering based on user preferences
JP2013247577A (en) * 2012-05-28 2013-12-09 Toshiba Corp Three-dimensional image generation device and three-dimensional image generation method
US8994796B2 (en) 2011-07-06 2015-03-31 Fujifilm Corporation Stereo image display apparatus and stereo image display method
WO2015145933A1 (en) * 2014-03-26 2015-10-01 パナソニックIpマネジメント株式会社 Virtual image display device, head-up display system, and vehicle
US9565415B2 (en) 2010-09-14 2017-02-07 Thomson Licensing Method of presenting three-dimensional content with disparity adjustments
WO2017022302A1 (en) * 2015-08-03 2017-02-09 ソニー株式会社 Information processing device, information processing method, and program
WO2022201305A1 (en) * 2021-03-23 2022-09-29 日本電信電話株式会社 Image processing device, method, and program
WO2022201319A1 (en) * 2021-03-23 2022-09-29 日本電信電話株式会社 Image processing device, method, and program

Cited By (77)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6603475B1 (en) 1999-11-17 2003-08-05 Korea Advanced Institute Of Science And Technology Method for generating stereographic image using Z-buffer
JP2001202532A (en) * 1999-11-17 2001-07-27 Korea Advanced Inst Of Sci Technol Method for generating stereoscopic picture by using z buffer
KR100918007B1 (en) 2002-01-07 2009-09-18 코닌클리즈케 필립스 일렉트로닉스 엔.브이. Method of and scaling unit for scaling a three-dimensional model and display apparatus
WO2003058556A1 (en) * 2002-01-07 2003-07-17 Koninklijke Philips Electronics N.V. Method of and scaling unit for scaling a three-dimensional model and display apparatus
JP2005514710A (en) * 2002-01-07 2005-05-19 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method, scaling unit and display device for scaling 3D model
CN1303573C (en) * 2002-01-07 2007-03-07 皇家飞利浦电子股份有限公司 Method of and scaling unit for scaling a three-dimensional model and display apparatus
US8493379B2 (en) 2005-12-19 2013-07-23 Koninklijke Philips N.V. Method of identifying pattern in a series of data
JP2009520392A (en) * 2005-12-19 2009-05-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3D image display method and apparatus
JP2010529521A (en) * 2007-05-11 2010-08-26 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method, apparatus and system for processing depth related information
EP2153669B1 (en) * 2007-05-11 2012-02-01 Koninklijke Philips Electronics N.V. Method, apparatus and system for processing depth-related information
KR101452172B1 (en) * 2007-05-11 2014-10-21 코닌클리케 필립스 엔.브이. Method, apparatus and system for processing depth-related information
EP2106150A3 (en) * 2008-03-26 2012-08-29 FUJIFILM Corporation Method, apparatus, and program for processing stereoscopic videos
JP2009239388A (en) * 2008-03-26 2009-10-15 Fujifilm Corp Method, apparatus, and program for processing stereoscopic video
JP2009239389A (en) * 2008-03-26 2009-10-15 Fujifilm Corp Method, apparatus, and program for displaying stereoscopic image
US8044997B2 (en) 2008-03-26 2011-10-25 Fujifilm Corporation Method, apparatus, and program for processing stereoscopic videos
JP2010154479A (en) * 2008-12-26 2010-07-08 Fujifilm Corp Apparatus and program for reproducing stereoscopic image, and image capturing apparatus
EP2387243A4 (en) * 2009-01-12 2012-12-26 Lg Electronics Inc Video signal processing method and apparatus using depth information
EP2387243A2 (en) * 2009-01-12 2011-11-16 LG Electronics Inc. Video signal processing method and apparatus using depth information
JP2010206774A (en) * 2009-02-05 2010-09-16 Fujifilm Corp Three-dimensional image output device and method
US8120606B2 (en) 2009-02-05 2012-02-21 Fujifilm Corporation Three-dimensional image output device and three-dimensional image output method
JP4737573B2 (en) * 2009-02-05 2011-08-03 富士フイルム株式会社 3D image output apparatus and method
JP2010199740A (en) * 2009-02-23 2010-09-09 Fujifilm Corp Apparatus and method of displaying stereoscopic images
CN102067616A (en) * 2009-04-24 2011-05-18 索尼公司 Image information processing device, image pick-up device, image information processing method, and program
US8698877B2 (en) 2009-04-24 2014-04-15 Sony Corporation Image information processing apparatus, image capture apparatus, image information processing method, and program
WO2010123053A1 (en) * 2009-04-24 2010-10-28 ソニー株式会社 Image information processing device, image pick-up device, image information processing method, and program
JP2010258723A (en) * 2009-04-24 2010-11-11 Sony Corp Image information processing device, imaging apparatus, image information processing method, and program
TWI416937B (en) * 2009-04-24 2013-11-21 Sony Corp An image information processing apparatus, an image capturing apparatus, a video information processing method, and a program
US20110261160A1 (en) * 2009-04-24 2011-10-27 Sony Corporation Image information processing apparatus, image capture apparatus, image information processing method, and program
JP2010278878A (en) * 2009-05-29 2010-12-09 Fujifilm Corp Stereoscopic image device and display image switching method thereof
JP2011015256A (en) * 2009-07-03 2011-01-20 Sony Corp Image capturing apparatus, image processing method, and program
CN101951525A (en) * 2009-07-09 2011-01-19 索尼公司 Image processing equipment, image processing method and program
JP2011055421A (en) * 2009-09-04 2011-03-17 Canon Inc Video processing apparatus and control method thereof
EP2306740A1 (en) * 2009-09-04 2011-04-06 Canon Kabushiki Kaisha Video processing apparatus and control method therefor
US8610774B2 (en) 2009-09-04 2013-12-17 Canon Kabushiki Kaisha Video processing apparatus for displaying video data on display unit and control method therefor
JP2011124941A (en) * 2009-12-14 2011-06-23 Mitsubishi Electric Corp Apparatus and method for producing three-dimensional video
JP2011176541A (en) * 2010-02-24 2011-09-08 Sony Corp Three-dimensional video processing apparatus and method, and program thereof
EP2541949A4 (en) * 2010-02-24 2014-03-12 Sony Corp Three-dimensional video processing apparatus, method therefor, and program
CN102804792A (en) * 2010-02-24 2012-11-28 索尼公司 Three-dimensional video processing apparatus, method therefor, and program
WO2011105220A1 (en) * 2010-02-24 2011-09-01 ソニー株式会社 Three-dimensional video processing apparatus, method therefor, and program
EP2541949A1 (en) * 2010-02-24 2013-01-02 Sony Corporation Three-dimensional video processing apparatus, method therefor, and program
US9013561B2 (en) 2010-02-24 2015-04-21 Sony Corporation Stereoscopic video processing apparatus, method, and program
JP2012009010A (en) * 2010-05-25 2012-01-12 Mitsubishi Electric Corp Image processing device, image processing method and image display device
JP2011254176A (en) * 2010-05-31 2011-12-15 Canon Inc Image processor and control method thereof
JP2011257784A (en) * 2010-06-04 2011-12-22 Mitsubishi Electric Corp Image processing device, image processing method and image processing display apparatus
WO2012002280A1 (en) * 2010-06-28 2012-01-05 富士フイルム株式会社 Method and device for displaying stereoscopic image
US9258552B2 (en) 2010-06-30 2016-02-09 Fujifilm Corporation Playback device, compound-eye image pickup device, playback method and non-transitory computer readable medium
CN102972036A (en) * 2010-06-30 2013-03-13 富士胶片株式会社 Playback device, compound-eye imaging device, playback method and program
JP5336662B2 (en) * 2010-07-26 2013-11-06 富士フイルム株式会社 Image processing apparatus, method, and program
WO2012014708A1 (en) * 2010-07-26 2012-02-02 富士フイルム株式会社 Image processing device, method and program
JPWO2012014708A1 (en) * 2010-07-26 2013-09-12 富士フイルム株式会社 Image processing apparatus, method, and program
US20120027376A1 (en) * 2010-07-27 2012-02-02 Sony Corporation Reproducing apparatus, reproducing method, and program therefor
CN102378023A (en) * 2010-08-06 2012-03-14 索尼公司 Image processing apparatus, image processing method, and program
US20120033046A1 (en) * 2010-08-06 2012-02-09 Sony Corporation Image processing apparatus, image processing method, and program
JP2012039335A (en) * 2010-08-06 2012-02-23 Sony Corp Image processing system, image processing method, and program
US9565415B2 (en) 2010-09-14 2017-02-07 Thomson Licensing Method of presenting three-dimensional content with disparity adjustments
JP2012095276A (en) * 2010-09-28 2012-05-17 Fujifilm Corp Three-dimensional image editing device and three-dimensional image editing method
JP2013540402A (en) * 2010-10-04 2013-10-31 クゥアルコム・インコーポレイテッド 3D video control system for adjusting 3D video rendering based on user preferences
JP2011055521A (en) * 2010-10-07 2011-03-17 Fujifilm Corp Three-dimensional image display apparatus and method and program
CN102006494A (en) * 2010-11-26 2011-04-06 北京新岸线网络技术有限公司 Method and device for adjusting three-dimensional (3D) video signal
EP2649803A1 (en) * 2010-12-08 2013-10-16 Thomson Licensing Method and system for 3d display with adaptive disparity
JP2014500674A (en) * 2010-12-08 2014-01-09 トムソン ライセンシング Method and system for 3D display with adaptive binocular differences
CN103404155A (en) * 2010-12-08 2013-11-20 汤姆逊许可公司 Method and system for 3d display with adaptive disparity
EP2649803A4 (en) * 2010-12-08 2014-10-22 Thomson Licensing Method and system for 3d display with adaptive disparity
JP2012129710A (en) * 2010-12-14 2012-07-05 Canon Inc Display controller, display control method, and program
JP2011142662A (en) * 2011-02-24 2011-07-21 Fujifilm Corp Apparatus, method, and program for processing stereoscopic video
US9877014B2 (en) 2011-07-06 2018-01-23 Fujifilm Corporation Stereo image display apparatus and stereo image display method
US8994796B2 (en) 2011-07-06 2015-03-31 Fujifilm Corporation Stereo image display apparatus and stereo image display method
WO2013014836A1 (en) * 2011-07-26 2013-01-31 パナソニック株式会社 Video editing device, video editing method, program, and integrated circuit
US8855472B2 (en) 2011-07-26 2014-10-07 Panasonic Corporation Video editing apparatus, video editing method, program, and integrated circuit
JP2013126106A (en) * 2011-12-14 2013-06-24 Konica Minolta Inc Image processing method, image processing system, and image processing program
JP2013247577A (en) * 2012-05-28 2013-12-09 Toshiba Corp Three-dimensional image generation device and three-dimensional image generation method
JP2012257303A (en) * 2012-08-07 2012-12-27 Fujifilm Corp Stereoscopic image display device and stereoscopic image display method
WO2015145933A1 (en) * 2014-03-26 2015-10-01 パナソニックIpマネジメント株式会社 Virtual image display device, head-up display system, and vehicle
JPWO2015145933A1 (en) * 2014-03-26 2017-04-13 パナソニックIpマネジメント株式会社 Virtual image display device, head-up display system, and vehicle
WO2017022302A1 (en) * 2015-08-03 2017-02-09 ソニー株式会社 Information processing device, information processing method, and program
WO2022201305A1 (en) * 2021-03-23 2022-09-29 日本電信電話株式会社 Image processing device, method, and program
WO2022201319A1 (en) * 2021-03-23 2022-09-29 日本電信電話株式会社 Image processing device, method, and program

Similar Documents

Publication Publication Date Title
JPH1040420A (en) Method for controlling sense of depth
JP5429896B2 (en) System and method for measuring potential eye strain from stereoscopic video
JP6073307B2 (en) Display signal generation method and apparatus
US6747610B1 (en) Stereoscopic image display apparatus capable of selectively displaying desired stereoscopic image
EP0961506B1 (en) Autostereoscopic display
US8254668B2 (en) Method and apparatus for processing three-dimensional images
US20050253924A1 (en) Method and apparatus for processing three-dimensional images
US6198484B1 (en) Stereoscopic display system
US7944444B2 (en) 3D image processing apparatus and method
US20050219239A1 (en) Method and apparatus for processing three-dimensional images
US20020191841A1 (en) Image processing method and apparatus
US9118894B2 (en) Image processing apparatus and image processing method for shifting parallax images
WO2005060271A1 (en) Method and apparatus for generating a stereoscopic image
US9161018B2 (en) Methods and systems for synthesizing stereoscopic images
JP6207640B2 (en) 2D image stereoscopic display device
JP3091644B2 (en) 3D image conversion method for 2D images
JPH03236698A (en) Picture generating device for both eye stereoscopic view
Tseng et al. Automatically optimizing stereo camera system based on 3D cinematography principles
CN113632458A (en) System, algorithm and design for wide angle camera perspective experience
JP7377861B2 (en) Image generation device and method
KR102659115B1 (en) Image generating device and method therefor
WO2016149446A1 (en) Methods, systems and tools for 3d animation
Laldin Perceived Acceleration in Stereoscopic Animation