JPH09179998A - Three-dimensional image display system - Google Patents

Three-dimensional image display system

Info

Publication number
JPH09179998A
JPH09179998A JP33623995A JP33623995A JPH09179998A JP H09179998 A JPH09179998 A JP H09179998A JP 33623995 A JP33623995 A JP 33623995A JP 33623995 A JP33623995 A JP 33623995A JP H09179998 A JPH09179998 A JP H09179998A
Authority
JP
Japan
Prior art keywords
image
depth
focus
input
parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP33623995A
Other languages
Japanese (ja)
Inventor
Takeshi Tono
豪 東野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP33623995A priority Critical patent/JPH09179998A/en
Publication of JPH09179998A publication Critical patent/JPH09179998A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To obtain perception to depth even with a single eye with images, such as stereoscopic paired images, which give a stereoscopic effect by being viewed with both the eyes. SOLUTION: An image input part 1 is equipped with a left-eye camera 11 and a right-eye camera 12 and images which give a stereoscopic effect through both the eyes like stereoscopic paired images are inputted. Then a depth information calculation part 2 finds parallax from the images by a parallax calculation part 21 and calculates depth information by a depth calculation part 22 from the parallax. Then a focus effect image generation part 4 generates an image introducing an effect of focus on the basis of the said depth information according to the specification parameters of depth for focusing and a range of focusing inputted by a user through a camera parameter input part 3 and displays the image interactively at an image display part 5. Here, the focus position, etc., is continuously varied from the camera parameter input part 3 to obtain a feeling of depth even when the image is viewed with a single eye.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、両眼で見ることに
より奥行き感を得られる画像から、焦点の合う奥行きお
よび範囲をユーザが制御しつつ、焦点の効果を取り入れ
た画像を対話的に表示する事により、単眼でも奥行き感
を知覚する事を可能とする画像表示システムに関するも
のである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention interactively displays an image in which the effect of the focus is incorporated, while the user controls the depth and range of the focus from the image in which the sense of depth can be obtained by viewing with both eyes. By doing so, the present invention relates to an image display system capable of perceiving a sense of depth even with a single eye.

【0002】[0002]

【従来の技術】従来より、視差を有する2枚の画像(以
下、ステレオペア画像と呼ぶ)を、左右の目で別々に見
ることによって、奥行き感を得る立体視を可能とする手
法が知られている。
2. Description of the Related Art Conventionally, there has been known a method for enabling stereoscopic viewing with a sense of depth by viewing two images having parallax (hereinafter referred to as stereo pair images) separately by the left and right eyes. ing.

【0003】一方、複数の写真から奥行き情報を得る手
段として、一定の航路から撮影された複数の航空写真か
ら等高線を得るために用いられている手法が知られてい
る。この手法は、三角測量の原理により幾何学的に対象
物までの距離を求めるものであるが、上記ステレオペア
画像からは、こうした手法を用いないかぎり、奥行き情
報は得られない。
On the other hand, as a means for obtaining depth information from a plurality of photographs, a method used for obtaining contour lines from a plurality of aerial photographs taken from a certain route is known. This method geometrically obtains the distance to the object by the principle of triangulation, but depth information cannot be obtained from the stereo pair image unless such a method is used.

【0004】また、3次元情報を有した画像の表示に
は、画像内の物体に回転や移動等(手前側は速く動か
し、奥側はゆっくり動かす)の操作をユーザが対話的に
施す事によって、単眼でも3次元的知覚が得られるよう
にする手法がある。
In order to display an image having three-dimensional information, the user interactively performs an operation such as rotation or movement (moving fast on the front side and slowly moving on the back side) on an object in the image. , There is a method for obtaining a three-dimensional perception even with a single eye.

【0005】[0005]

【発明が解決しようとする課題】上記従来の3次元画像
表示手法は、主にコンピュータグラフィックス等の既に
3次元情報を有した比較的小さな物体の可視化に用いら
れており、ステレオペア画像撮影用のステレオカメラで
撮影した風景や人物等、あらかじめ3次元情報を有しな
い自然画像への応用は困難であった。
The above-mentioned conventional three-dimensional image display method is mainly used for visualizing a relatively small object such as computer graphics which already has three-dimensional information. It was difficult to apply it to natural images such as landscapes and people photographed by the stereo camera, which do not have three-dimensional information in advance.

【0006】本発明の目的は、ステレオペア画像等、両
眼を使って立体感を得る事のできる画像をもとに、ユー
ザが対話的に焦点等を制御しつつ表示する事によって、
単眼でも奥行きに対する知覚を得る事を可能とする3次
元画像表示システムを提供することにある。
An object of the present invention is to display an image, such as a stereo pair image, in which the user can interactively control the focus and the like, based on an image that can obtain a stereoscopic effect using both eyes.
An object of the present invention is to provide a three-dimensional image display system capable of obtaining a perception of depth even with a single eye.

【0007】[0007]

【課題を解決するための手段】上記の目的を達成するた
め、本発明は、両眼立体視を可能とする画像を入力する
画像入力手段と、前記画像入力手段によって得られた左
目および右目用画像信号から視差を求める手段と、前記
視差をもとに奥行きを求める手段と、カメラパラメータ
を連続的に変化させることができるカメラパラメータ入
力手段と、前記入力されたカメラパラメータと前記奥行
きを基に焦点効果を有する画像を作成する手段と、前記
作成された焦点効果を有する画像を出力する表示手段
と、を有することを特徴とする3次元画像表示システム
を手段とする。
In order to achieve the above object, the present invention provides an image input means for inputting an image enabling binocular stereoscopic vision, and a left eye and a right eye obtained by the image input means. Means for obtaining parallax from image signals, means for obtaining depth based on the parallax, camera parameter input means capable of continuously changing camera parameters, and based on the input camera parameters and the depth A three-dimensional image display system is provided which has a means for creating an image having a focus effect and a display means for outputting the created image having a focus effect.

【0008】上記の3次元画像表示システムにおいて、
視差を求める手段を、左目および右目用画像信号の相互
相関をとることにより視差を求めるものとするのが、視
差を容易、正確に求めることができる点で好適である。
In the above three-dimensional image display system,
It is preferable to obtain the parallax by obtaining the cross-correlation of the left-eye and right-eye image signals, as the means for obtaining the parallax, because it is possible to obtain the parallax easily and accurately.

【0009】また、本発明は、画素毎に奥行き情報を持
った画像信号に対し、カメラパラメータを連続的に変化
させることができるカメラパラメータ入力手段と、前記
入力されたカメラパラメータに応じて前記奥行き情報を
基に焦点効果を有する画像を作成する手段と、前記作成
された焦点効果を有する画像を出力する表示手段と、を
有することを特徴とする3次元画像表示システムを目的
を達成するための手段とする。
Further, according to the present invention, a camera parameter input means capable of continuously changing a camera parameter for an image signal having depth information for each pixel, and the depth according to the input camera parameter. A three-dimensional image display system having a means for creating an image having a focus effect based on information and a display means for outputting the created image having a focus effect. Use it as a means.

【0010】以上の3次元画像表示システムでは、焦点
効果を有する画像を作成する手段は、入力されたカメラ
パラメータと奥行き情報を基に点像分布関数を求める手
段と、前記点像分布関数と画像信号の畳み込み演算を行
う手段と、で構成するのが、正確な焦点効果画像を作成
できる点で好適である。
In the above-mentioned three-dimensional image display system, means for creating an image having a focus effect are means for obtaining a point spread function based on input camera parameters and depth information, and the point spread function and the image. It is preferable that it is configured with a means for performing a convolution calculation of a signal, because an accurate focus effect image can be created.

【0011】あるいは、焦点効果を有する画像を作成す
る手段は、入力されたカメラパラメータと奥行き情報を
基に画像信号に対してフィルタリング処理を施すもので
構成するのが、簡易に焦点効果画像を作成できる点で好
適である。
Alternatively, the means for creating an image having a focus effect is configured by subjecting the image signal to filtering processing based on the input camera parameters and depth information. It is preferable in that it can be done.

【0012】本発明では、ステレオペア画像等の両眼で
立体感を得ることが可能となる画像をカメラやスキャナ
等から入力し、その入力した画像から奥行き情報を算出
し、ユーザからの焦点を合わせる奥行きや焦点の合う範
囲等のカメラパラメータの指定に応じて、前記の奥行き
情報を元に焦点の効果を取り入れた画像を、対話的に作
成して表示することにより、焦点を合わせる奥行きや焦
点の合う範囲の連続的な変化で、単眼でも奥行き感を得
られるようにし、片目の不自由な人でも奥行き感を得る
事を可能とする。
According to the present invention, an image such as a stereo pair image which enables a stereoscopic effect to be obtained with both eyes is input from a camera or a scanner, depth information is calculated from the input image, and the focus from the user is determined. Depending on the camera parameters such as the depth of focus and the range of focus, etc., the depth and focus of focus can be adjusted by interactively creating and displaying an image that incorporates the focus effect based on the depth information. By continuously changing the matching range, it is possible to obtain a sense of depth even with a single eye, and it is possible for a person with one eye disability to obtain a sense of depth.

【0013】[0013]

【発明の実施の形態】次に、本発明の実施の形態につい
て図面を参照して説明する。
Next, embodiments of the present invention will be described with reference to the drawings.

【0014】図1は、本発明の第1の実施例の構成を示
すブロック図であって、左目用、右目用の2枚のステレ
オペア画像を対象とした場合の概要を示している。
FIG. 1 is a block diagram showing the configuration of the first embodiment of the present invention, and shows an outline in the case of targeting two stereo pair images for the left eye and the right eye.

【0015】画像入力部1において、ステレオペア画像
の左目用と右目用の画像を別々に入力する。ここで、入
力とはアナログデータである写真からスキャナ等の入力
機器を用いてディジタルデータに変換して入力する場合
と、ディジタルカメラ等を用いて被写体を直接ディジタ
ルデータとして入力する場合がある。図1は、後者の例
を示し、左目カメラ11と右目カメラ12を備えて、各
撮影画像を画像入力処理部13に入力してステレオペア
画像を得る。
In the image input unit 1, left-eye and right-eye images of stereo pair images are input separately. Here, the input may be conversion from a photograph, which is analog data, into digital data by using an input device such as a scanner, and may be input by using a digital camera or the like, and the subject may be directly input as digital data. FIG. 1 shows the latter example, which includes a left-eye camera 11 and a right-eye camera 12 and inputs each captured image to the image input processing unit 13 to obtain a stereo pair image.

【0016】奥行き情報算出部2は、視差算出部21と
奥行き算出部22を備えて、画像入力部1で入力された
画像を元に、各画素毎に奥行き情報を算出する。奥行き
情報とは、カメラレンズから算出対象画素までの距離の
事である。奥行き情報算出方法はいくつか考えられる
が、これについては後述する。
The depth information calculation unit 2 includes a parallax calculation unit 21 and a depth calculation unit 22, and calculates depth information for each pixel based on the image input by the image input unit 1. The depth information is the distance from the camera lens to the calculation target pixel. There are several possible depth information calculation methods, which will be described later.

【0017】カメラパラメータ入力部3では、ユーザが
キーボード、マウス等の入力装置を用いて、カメラパラ
メータを入力する。ここでカメラパラメータとは、焦点
を合わせる位置(ここでは、これを合焦位置と呼ぶ)ま
での距離および該合焦位置の前後に広がる焦点の合って
いる範囲、すなわち被写界深度である。合焦位置までの
距離については、直接入力する場合と、画像上で焦点を
合わせたい位置(画素)をマウス等で指示して該画素の
奥行きを合焦位置までの距離とする場合とがある。詳細
な入力方法については後述する。
In the camera parameter input section 3, the user inputs camera parameters using an input device such as a keyboard and a mouse. Here, the camera parameters are a distance to a focus position (herein referred to as a focus position) and a focus range spreading before and after the focus position, that is, a depth of field. Regarding the distance to the in-focus position, there are cases where it is directly input, and there is a case where the position (pixel) to be focused on the image is designated with a mouse or the like and the depth of the pixel is taken as the distance to the in-focus position. . The detailed input method will be described later.

【0018】焦点効果画像作成部4は、点分布関数算出
部41と畳み込み演算処理部42を備えて、カメラパラ
メータ入力部3で入力された合焦位置までの距離および
被写界深度の双方もしくは一方と奥行き情報算出部2で
算出された奥行き情報を元にレンズの効果をシミュレー
トした1枚の画像を作成する。この処理により1枚の画
像中で焦点の合っている部分と焦点の合っていない部分
が混在した焦点効果を有する画像が作成される。この作
成方法の詳細については後述する。
The focus effect image creation unit 4 includes a point distribution function calculation unit 41 and a convolution calculation processing unit 42, and both the distance to the focus position input by the camera parameter input unit 3 and the depth of field or Based on one side and the depth information calculated by the depth information calculation unit 2, one image simulating the effect of the lens is created. By this processing, an image having a focusing effect in which a focused portion and a non-focused portion are mixed in one image is created. Details of this creating method will be described later.

【0019】画像表示部5では、焦点効果画像作成部4
で作成された画像がディスプレイに表示される。ユーザ
は該表示画像を見て、再度カメラパラメータ入力部3に
戻って異なったカメラパラメータを入力し、異なった焦
点効果の画像を表示する。この操作を繰り返し、異なっ
た焦点効果の画像を連続的に見る事によって、ユーザは
奥行き感を得る事が可能となる。
In the image display section 5, the focus effect image creating section 4
The image created by is displayed on the display. The user views the displayed image, returns to the camera parameter input unit 3 again, and inputs different camera parameters to display images with different focus effects. By repeating this operation and continuously viewing images with different focus effects, the user can obtain a sense of depth.

【0020】次に、図1における奥行き情報算出部2の
詳細を説明する。前述したように、奥行き情報算出部2
は、視差算出部21と奥行き算出部22に分けられる。
Next, details of the depth information calculation unit 2 in FIG. 1 will be described. As described above, the depth information calculation unit 2
Is divided into a parallax calculation unit 21 and a depth calculation unit 22.

【0021】まず、視差算出部21について説明する。
視差とは、左右それぞれの画像中の同じ対象物に対する
画素位置のずれを指す。図2は、ステレオペア画像を撮
影する状況を真上から見た場合を示している。以降、説
明を簡単化するために、視差は水平方向すなわちx方向
のみを考え、垂直方向すなわち方向には考えないことと
する。人間の目は水平方向に並んでいるため、この条件
は十分現実にかなっている。
First, the parallax calculator 21 will be described.
Parallax refers to a shift in pixel position with respect to the same object in each of the left and right images. FIG. 2 shows a situation in which a stereo pair image is photographed from directly above. Hereinafter, in order to simplify the explanation, it is assumed that the parallax is considered only in the horizontal direction, that is, the x direction, and not in the vertical direction, that is, the direction. Since the human eyes are aligned horizontally, this condition is fully realistic.

【0022】図2において、被写体6上の点Oが左目用
画像fl上ではレンズ71を通して位置xlに、右目用画
像frではレンズ72を通してxrに結像しているとす
る。この結像している位置を対応点と呼ぶ。この場合、
視差dxは、それぞれの対応点の位置の差、すなわち、 dx=xl−xr と定義される。
In FIG. 2, it is assumed that the point O on the subject 6 is imaged on the left-eye image f l through the lens 71 at a position x l and on the right-eye image f r through the lens 72 at x r . This imaged position is called a corresponding point. in this case,
Parallax dx is the difference between the positions of the corresponding points, i.e., it is defined as dx = x l -x r.

【0023】上記定義式にしたがって視差を求めるため
には、左右の画像上で対応点を抽出する必要があり、以
下にその一例として、正規化相互相関(Normali
zed Cross Correlation)法によ
る例を示す。
In order to obtain the parallax according to the above definition formula, it is necessary to extract corresponding points on the left and right images, and as an example thereof, the normalized cross correlation (Normali) will be described below.
An example according to the zed Cross Correlation) method will be shown.

【0024】左目用画像(左目用カメラで撮影した画
像)をfl、右目用画像(右目用カメラで撮影した画
像)をfrとすると、正規化相互相関値φNCCは、次式の
ように定義される。
If the left-eye image (image captured by the left-eye camera) is f l and the right-eye image (image captured by the right-eye camera) is f r , the normalized cross-correlation value φ NCC is given by the following equation. Is defined in.

【0025】[0025]

【数1】 [Equation 1]

【0026】ここで、 Ml,Mr:それぞれ、fl,frの平均値 σl,σr:それぞれ、fl,frの標準偏差 N:画素数 i,j:それぞれ、横縦の画素を示す添え字であり、i
軸は、両目を結んだ方向、j軸はi軸に垂直であって重
力の方向と一致する方向である。
[0026] Here, M l, M r: each f l, the average value sigma l of f r, sigma r: each f l, f the standard deviation of the r N: number of pixels i, j: respectively, horizontal and vertical Is a subscript indicating the pixel of
The axis is the direction connecting both eyes, and the j axis is the direction perpendicular to the i axis and coinciding with the direction of gravity.

【0027】Σによる総和は、i,jの上限値まで行
う。
The summation by Σ is performed up to the upper limit value of i, j.

【0028】上式の操作イメージを図3に示す。まず、
図3(a)に示す左目用画像flから画素位置i,jを
中心とする任意の大きさの画像(これを検索ブロック
(図3中の211)と呼ぶ)を取り出す。次に、図3
(b)に示す右目用画像fr上で、画素位置i+h,j
+kを中心とする前記検索ブロック211と同じ大きさ
の領域を取り出し、定義式にしたがって、φNCCを計算
する。この操作を、h,kを変化させながら任意の範囲
(これを探索範囲(図3中の212)と呼ぶ)内で繰り
返す。探索範囲212内でφNCCが最大となる画素位置
i+h,j+kが左目用画像fl上の画素位置i,jに
対する対応点となり、前述したように、x方向のみ考慮
する場合、hが視差dxとなる。以上の操作を左目用画
像flの全ての画素位置i,jについて繰り返す。
The operation image of the above equation is shown in FIG. First,
An image of an arbitrary size centered on the pixel position i, j (this is called a search block (211 in FIG. 3)) is extracted from the left-eye image f l shown in FIG. 3A. Next, FIG.
(B) on the right-eye image f r as shown in the pixel position i + h, j
A region of the same size as the search block 211 centering around + k is taken out, and φ NCC is calculated according to the definition formula. This operation is repeated within an arbitrary range (this is called a search range (212 in FIG. 3)) while changing h and k. The pixel position i + h, j + k at which φ NCC is maximum in the search range 212 is the corresponding point to the pixel position i, j on the left-eye image f l , and as described above, when only the x direction is considered, h is the parallax dx. Becomes The above operation is repeated for all pixel positions i, j of the left-eye image f l .

【0029】以上説明したのが、正規化相互相関法を用
いた対応点算出方法であるが、この他にも高い空間周波
数成分を含む画像に対して有効なDot Produc
tCorrelation法や、高速処理が可能なフー
リエ変換を用いるPhase Correlation
法等の手法がある。本発明に於いては、対応点を抽出で
きれば、上記以外でも、いかなる手法を用いてもよい。
Although the corresponding point calculation method using the normalized cross-correlation method has been described above, the Dot Product effective for an image containing a high spatial frequency component is also available.
Phase Correlation using tCorrelation method or Fourier transform capable of high-speed processing
There are methods such as the law. In the present invention, any method other than the above may be used as long as the corresponding points can be extracted.

【0030】続いて、図1における奥行き算出部22
は、上記視差算出部21で求められた視差を元に各画素
毎にその奥行きを算出する。奥行きzは、図2における
左右のレンズ71,72間の距離bおよび、レンズの焦
点距離fを用いて次式で表され、すべての(i,j)に
ついて計算する。
Subsequently, the depth calculation unit 22 in FIG.
Calculates the depth of each pixel based on the parallax calculated by the parallax calculation unit 21. The depth z is represented by the following equation using the distance b between the left and right lenses 71 and 72 in FIG. 2 and the focal length f of the lens, and is calculated for all (i, j).

【0031】[0031]

【数2】 [Equation 2]

【0032】上式は、レンズ71,72の光軸が平行で
ある等の撮影条件を満たす理想的な場合で、現実にはこ
の条件を満たすのは困難であり、補正等の処理が必要と
なる。写真計測のような厳密な測定を必要とする場合で
はなく、娯楽用途が主な対象となる本発明では、これら
の条件が満たされる、すなわち上式が適用可能であると
仮定しても差し支えない。また、上式におけるパラメー
タbおよびfが不明の場合、bは人間の目の平均間隔、
fは一般的なカメラの標準レンズである50mmとして
差し支えない。しかし、これらもパラメータとしてシス
テム中で変更可能である。
The above formula is an ideal case where the photographing conditions such as the optical axes of the lenses 71 and 72 are parallel, and it is difficult to satisfy this condition in reality, and it is necessary to perform correction processing. Become. It is safe to assume that these conditions are met, i.e. the above equations are applicable, in the present invention, which is primarily intended for entertainment applications, rather than requiring rigorous measurements such as photographic measurements. . If the parameters b and f in the above equation are unknown, b is the average distance between human eyes,
f may be 50 mm which is a standard lens of a general camera. However, these can also be changed in the system as parameters.

【0033】図4は、図1におけるカメラパラメータ入
力部3および画像表示部5のインタフェース構成例を示
す図である。画像表示部5の画面の画像表示領域51に
は、焦点効果を施した画像が表示される。パラメータを
まだ入力していない初期画面は、適当なデフォルト値
(例えば、全領域に焦点が合っている)で表示される。
画像表示領域51の下部にはマウス等のポインティング
デバイスによるポインタ(本例では、マウスポインタ5
2とする)で制御可能なスライダーがある。スライダー
により、パラメータは連続的に変化する。スライダーに
は2つの機能を受け持つ部分があり、1つは合焦点位置
53の制御機能を受け持つ合焦位置制御スライダー54
である。他の一つは、合焦位置の前後に広がる被写界深
度の制御機能を受け持つ被写界深度制御スライダー55
である。マウスポインタ52により、合焦点位置53を
左右に移動するか、合焦点位置制御スライダー54の左
右にある三角形をクリックすることで、合焦位置が近か
ら遠、あるいは遠から近に調節される。また、被写界深
度を示す被写界深度制御スライダー55の左右にある三
角形をクリックすることで、被写界深度を広げたり狭め
たりすることが可能となる。また、合焦位置は、画像表
示領域51に表示されている画像中の任意の位置をマウ
スポインタ52等を用いてクリックすることにより、該
位置の画素を持っている奥行きを合焦位置とすることも
可能である。これらスライダー54,55およびマウス
ポインタ52によって対話的にカメラパラメータが入力
される都度、画像表示領域51に後述の焦点効果画像が
表示される。
FIG. 4 is a diagram showing an interface configuration example of the camera parameter input unit 3 and the image display unit 5 in FIG. In the image display area 51 on the screen of the image display unit 5, an image with a focus effect is displayed. Initial screens for which no parameters have been entered are displayed with appropriate default values (eg, full area in focus).
At the bottom of the image display area 51, there is a pointer (in this example, the mouse pointer 5) using a pointing device such as a mouse.
There is a slider that can be controlled by 2). The slider changes the parameters continuously. The slider has a portion responsible for two functions, and one is a focus position control slider 54 responsible for the control function of the focus position 53.
It is. The other one is a depth-of-field control slider 55 which controls the depth of field that spreads before and after the focus position.
It is. By moving the in-focus position 53 to the left or right with the mouse pointer 52 or clicking a triangle on the left and right of the in-focus position control slider 54, the in-focus position is adjusted from near to far or from far to near. Also, by clicking the triangles on the left and right of the depth of field control slider 55 that indicates the depth of field, it is possible to widen or narrow the depth of field. As for the in-focus position, by clicking an arbitrary position in the image displayed in the image display area 51 with the mouse pointer 52 or the like, the depth having the pixel at the position is set as the in-focus position. It is also possible. Each time a camera parameter is interactively input by the sliders 54, 55 and the mouse pointer 52, a focus effect image described later is displayed in the image display area 51.

【0034】次に、図1における焦点効果画像作成部4
について説明する。前述したように、焦点効果画像作成
部4は、点像分布関数算出部41と畳み込み演算処理部
42に分けられる。
Next, the focus effect image forming section 4 in FIG.
Will be described. As described above, the focus effect image creation unit 4 is divided into the point spread function calculation unit 41 and the convolution calculation processing unit 42.

【0035】図5は、合焦位置およびその前後にある点
物体がどのように結像するかを示した図である。図から
わかるように、合焦位置にある点物体Bは結像面で点物
体として結像するが、合焦点位置より近い位置にある点
物体Aおよび遠い位置にある点物体Cは結像面におい
て、ある分布を持ったぼけ像となる。この“ぼけ具合”
を表すのが、点像分布関数(Point Spread
Function;PSF)であり、レンズと物体と
の距離をパラメータとして有する。PSFは点物体がど
のように結像するかを示す関数であるので、広がりを持
った物体の結像を得るためには、PSFと物体との畳み
込み演算を行えばよい。
FIG. 5 is a diagram showing how a point object at the focus position and point objects before and after the focus position form an image. As can be seen from the figure, the point object B at the in-focus position is imaged as a point object on the imaging plane, but the point object A at a position closer to the in-focus position and the point object C at a far position are the imaging surface. At, a blurred image with a certain distribution is obtained. This "blur condition"
Is the point spread function (Point Spread).
Function (PSF) and has the distance between the lens and the object as a parameter. Since the PSF is a function indicating how a point object is imaged, the convolution operation between the PSF and the object may be performed in order to obtain an image of the object having a spread.

【0036】図1における焦点効果画像作成部4では、
点像分布関数算出部41において、既に奥行き情報算出
部2で求めてある奥行き、カメラパラメータ入力部3で
指定された合焦点位置および被写界深度のパラメータを
PSFに代入し、画素毎にPSFを決定しつつ、畳み込
み演算処理部42において、前記で決定されたPSF
と、画像入力部1で入力した実画像(flあるいはfr
との畳み込み演算を行い、“ぼけ”をシミュレートした
焦点効果を有する画像を作成する。畳み込み演算は、P
SFと実画像をそれぞれフーリエ変換し、フーリエ空間
で乗算した後、フーリエ逆変換しても同じ結果が得られ
る。入力されたステレオペア画像を撮影したレンズのP
SFがわかっていればそれを用いればよいが、わかって
いない場合は、ガウス関数で近似する等、適当に仮定し
てもよい。あるいは、光学的に忠実にシミュレートを要
求しない場合には、PSFを用いずに、合焦位置からの
ずれをパラメータとして適当にぼかすローパスフィルタ
等でフィルタリング処理してもよい。
In the focus effect image creating section 4 in FIG.
In the point spread function calculating unit 41, the depth, the focus position and the depth of field parameters specified by the camera parameter input unit 3 which have already been obtained by the depth information calculating unit 2 are substituted into the PSF, and the PSF is calculated for each pixel. Is determined, the convolution operation processing unit 42 determines the PSF determined above.
And the actual image (f l or f r ) input by the image input unit 1
By performing a convolution calculation with and, an image having a focus effect simulating "blur" is created. The convolution operation is P
The same result can be obtained by performing Fourier transform on each of the SF and the actual image, and then performing the inverse Fourier transform after multiplication in the Fourier space. P of the lens that shot the input stereo pair image
If the SF is known, it may be used, but if it is not known, an appropriate assumption may be made such as approximation with a Gaussian function. Alternatively, when the simulation is not required faithfully optically, the filtering process may be performed by a low-pass filter or the like that appropriately blurs the deviation from the focus position as a parameter without using the PSF.

【0037】次に、本発明の第2の実施の形態例につい
て説明する。本実施の形態例は、コンピュータグラフィ
ックス等、画像信号作成時にあらかじめ奥行き情報が与
えられている画像を対象としている。したがって奥行き
情報を、与えられた画像信号から算出する必要はなく、
前述の本発明の第1の実施の形態例を説明した図1の構
成のうち、画像入力部1と奥行き情報算出部2は不要で
あり、カメラパラメータ入力部3、焦点効果画像作成部
4および画像表示部5が本第2の実施の形態例の構成に
相当する。本実施の形態例では、画像入力部からの画像
信号に代えてコンピュータグラフィックス等からの画像
信号を焦点効果画像作成部4の畳み込み演算処理部42
へ入力し、奥行き情報算出部からの奥行き情報に代えて
コンピュータグラフィックス等からの当該画像信号に関
する奥行き情報を点像分布関数算出部41ヘ入力すれば
よい。
Next, a second embodiment of the present invention will be described. The present embodiment is intended for an image such as computer graphics to which depth information is given in advance when an image signal is created. Therefore, it is not necessary to calculate depth information from a given image signal,
The image input unit 1 and the depth information calculation unit 2 in the configuration of FIG. 1 for explaining the first embodiment of the present invention described above are unnecessary, and the camera parameter input unit 3, the focus effect image creation unit 4, and the The image display unit 5 corresponds to the configuration of the second embodiment. In the present embodiment, an image signal from computer graphics or the like is used instead of the image signal from the image input unit, and the convolution operation processing unit 42 of the focus effect image creation unit 4 is used.
Instead of the depth information from the depth information calculation unit, the depth information regarding the image signal from computer graphics or the like may be input to the point spread function calculation unit 41.

【0038】[0038]

【発明の効果】以上説明したように本発明は、奥行き情
報を持った画像あるいは、ステレオペア画像等の両眼立
体視を行う画像を入力した後、焦点を合わせる位置、被
写界深度をユーザが対話的に制御し、焦点効果を取り入
れた画像を連続的に表示できるようにしたので、単眼で
も奥行き感を得ることが可能となり、片目の不自由な人
でも奥行きに対する知覚を得る事が可能となる効果があ
る。
As described above, according to the present invention, after inputting an image having depth information or an image for stereoscopic vision such as a stereo pair image, the position to be focused and the depth of field are set by the user. It is possible to control the image interactively and continuously display images incorporating the focus effect, so it is possible to obtain a sense of depth even with a single eye, and it is possible for people with one eye disability to perceive depth. There is an effect.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施の形態例を示す図であっ
て、ステレオペア画像を入力する場合に適用した例を示
すブロック図である。
FIG. 1 is a diagram showing a first embodiment of the present invention, and is a block diagram showing an example applied when a stereo pair image is input.

【図2】上記実施の形態例におけるステレオペア画像を
撮影する状況を示す図である。
FIG. 2 is a diagram showing a situation in which a stereo pair image is photographed in the above embodiment.

【図3】(a)、(b)は上記実施の形態例における正
規化相互相関法を用いた視差を求める例の概要を示す図
である。
3A and 3B are diagrams showing an outline of an example of obtaining parallax using a normalized cross-correlation method in the above-described embodiment.

【図4】上記実施の形態例におけるカメラパラメータ入
力部および画像表示部のインタフェース構成例を示す図
である。
FIG. 4 is a diagram illustrating an interface configuration example of a camera parameter input unit and an image display unit in the above-described embodiment.

【図5】上記実施の形態例において、合焦位置およびそ
の前後にある点物体がどのように結像するかを示す図で
ある。
FIG. 5 is a diagram showing how an in-focus position and point objects before and after the in-focus position are imaged in the embodiment.

【符号の説明】[Explanation of symbols]

1…画像入力部 11…左目カメラ 12…右目カメラ 13…画像入力処理部 2…奥行き情報算出部 21…視差算出部 22…奥行き算出部 3…カメラパラメータ入力部 4…焦点効果画像作成部 41…点像分布関数算出部 42…畳み込み演算処理部 5…画像表示部 51…画像表示領域 52…マウスポインタ 54…合焦点位置制御スライダー 55…被写界深度制御スライダー DESCRIPTION OF SYMBOLS 1 ... Image input part 11 ... Left eye camera 12 ... Right eye camera 13 ... Image input processing part 2 ... Depth information calculation part 21 ... Parallax calculation part 22 ... Depth calculation part 3 ... Camera parameter input part 4 ... Focus effect image creation part 41 ... Point spread function calculation unit 42 ... Convolution calculation processing unit 5 ... Image display unit 51 ... Image display area 52 ... Mouse pointer 54 ... Focus position control slider 55 ... Depth of field control slider

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 両眼立体視を可能とする画像を入力する
画像入力手段と、 前記画像入力手段によって得られた左目および右目用画
像信号から視差を求める手段と、 前記視差をもとに奥行きを求める手段と、 カメラパラメータを連続的に変化させることができるカ
メラパラメータ入力手段と、 前記入力されたカメラパラメータと前記奥行きを基に焦
点効果を有する画像を作成する手段と、 前記作成された焦点効果を有する画像を出力する表示手
段と、 を有することを特徴とする3次元画像表示システム。
1. An image input unit for inputting an image enabling binocular stereoscopic vision, a unit for obtaining a parallax from image signals for the left and right eyes obtained by the image input unit, and a depth based on the parallax. Determining means, camera parameter input means capable of continuously changing camera parameters, means for creating an image having a focus effect based on the input camera parameters and the depth, and the created focus. A three-dimensional image display system comprising: a display unit that outputs an image having an effect.
【請求項2】 視差を求める手段は、左目および右目用
画像信号の相互相関をとることにより視差を求めるもの
であることを特徴とする請求項1記載の3次元画像表示
システム。
2. The three-dimensional image display system according to claim 1, wherein the means for obtaining the parallax obtains the parallax by taking a cross-correlation of the left-eye and right-eye image signals.
【請求項3】 画素毎に奥行き情報を持った画像信号に
対し、カメラパラメータを連続的に変化させることがで
きるカメラパラメータ入力手段と、 前記入力されたカメラパラメータに応じて前記奥行き情
報を基に焦点効果を有する画像を作成する手段と、 前記作成された焦点効果を有する画像を出力する表示手
段と、 を有することを特徴とする3次元画像表示システム。
3. A camera parameter input unit capable of continuously changing camera parameters for an image signal having depth information for each pixel, and based on the depth information according to the input camera parameters. A three-dimensional image display system comprising: a unit that creates an image having a focus effect; and a display unit that outputs the created image having a focus effect.
【請求項4】 カメラパラメータには、焦点を合わせる
位置および焦点を合わせる範囲のいずれか、または双方
を含むことを特徴とする請求項1または請求項2または
請求項3のいずれかに記載の3次元画像表示システム。
4. The camera parameter according to claim 1, 2 or 3, wherein either one of a focus position and a focus range or both of them are included. Dimensional image display system.
【請求項5】 焦点効果を有する画像を作成する手段
は、 入力されたカメラパラメータと奥行き情報を基に点像分
布関数を求める手段と、前記点像分布関数と画像信号の
畳み込み演算を行う手段と、 を有することを特徴とする請求項1から請求項4までの
いずれかに記載の3次元画像表示システム。
5. A means for creating an image having a focus effect is means for obtaining a point spread function based on input camera parameters and depth information, and means for performing a convolution operation of the point spread function and an image signal. The three-dimensional image display system according to any one of claims 1 to 4, further comprising:
【請求項6】 焦点効果を有する画像を作成する手段
は、 入力されたカメラパラメータと奥行き情報を基に画像信
号に対してフィルタリング処理を施すものであることを
特徴とする請求項1から請求項4までのいずれかに記載
の3次元画像表示システム。
6. The method according to claim 1, wherein the means for creating an image having a focus effect performs a filtering process on the image signal based on the input camera parameter and depth information. The three-dimensional image display system according to any one of 4 to 4.
JP33623995A 1995-12-25 1995-12-25 Three-dimensional image display system Pending JPH09179998A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP33623995A JPH09179998A (en) 1995-12-25 1995-12-25 Three-dimensional image display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP33623995A JPH09179998A (en) 1995-12-25 1995-12-25 Three-dimensional image display system

Publications (1)

Publication Number Publication Date
JPH09179998A true JPH09179998A (en) 1997-07-11

Family

ID=18297082

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33623995A Pending JPH09179998A (en) 1995-12-25 1995-12-25 Three-dimensional image display system

Country Status (1)

Country Link
JP (1) JPH09179998A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002165760A (en) * 2000-11-30 2002-06-11 Topcon Corp Apparatus for photographing fundus image
US7483563B2 (en) 2003-06-27 2009-01-27 Ricoh Company, Ltd. Image processing apparatus and method
JP2015108837A (en) * 2015-01-07 2015-06-11 キヤノン株式会社 Image processing apparatus and image processing method
US9332190B2 (en) 2011-12-02 2016-05-03 Canon Kabushiki Kaisha Image processing apparatus and image processing method
CN106959076A (en) * 2017-02-20 2017-07-18 广州视源电子科技股份有限公司 Portrait distance detection method and system based on camera
US11962889B2 (en) 2023-03-14 2024-04-16 Apple Inc. User interface for camera effects

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002165760A (en) * 2000-11-30 2002-06-11 Topcon Corp Apparatus for photographing fundus image
JP4570238B2 (en) * 2000-11-30 2010-10-27 株式会社トプコン Fundus image capturing device
US7483563B2 (en) 2003-06-27 2009-01-27 Ricoh Company, Ltd. Image processing apparatus and method
US9332190B2 (en) 2011-12-02 2016-05-03 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP2015108837A (en) * 2015-01-07 2015-06-11 キヤノン株式会社 Image processing apparatus and image processing method
CN106959076A (en) * 2017-02-20 2017-07-18 广州视源电子科技股份有限公司 Portrait distance detection method and system based on camera
US11962889B2 (en) 2023-03-14 2024-04-16 Apple Inc. User interface for camera effects

Similar Documents

Publication Publication Date Title
JP5036132B2 (en) Critical alignment of parallax images for autostereoscopic display
EP1704730B1 (en) Method and apparatus for generating a stereoscopic image
JP3579162B2 (en) 3D CG image generation device
US9582918B2 (en) Techniques for producing creative stereo parameters for stereoscopic computer animation
US20040066555A1 (en) Method and apparatus for generating stereoscopic images
EP1570436B1 (en) Parallax scanning through scene object position manipulation
CN101247530A (en) Three-dimensional image display apparatus and method for enhancing stereoscopic effect of image
JP2006212056A (en) Imaging apparatus and three-dimensional image formation apparatus
EP0707287B1 (en) Image processing apparatus and method
JP6585938B2 (en) Stereoscopic image depth conversion apparatus and program thereof
JP2018500690A (en) Method and system for generating magnified 3D images
KR101212223B1 (en) Device taking a picture and method to generating the image with depth information
US20130342536A1 (en) Image processing apparatus, method of controlling the same and computer-readable medium
JPH09179998A (en) Three-dimensional image display system
KR20020037097A (en) The apparatus and Method for Vergence Control of a Parallel-Axis Camera using Signal Processing
KR100927234B1 (en) Method, apparatus for creating depth information and computer readable record-medium on which program for executing method thereof
EP3130273B1 (en) Stereoscopic visualization system and method for endoscope using shape-from-shading algorithm
Galabov A real time 2D to 3D image conversion techniques
JP4270695B2 (en) 2D-3D image conversion method and apparatus for stereoscopic image display device
EP2442272A1 (en) Method and device for digital image processing
US20240015392A1 (en) Kamera-Assistenzsystem
KR100400209B1 (en) Apparatus for generating three-dimensional moving pictures from tv signals
JPH06259573A (en) Three-dimensional graphics data generator
JP3992607B2 (en) Distance image generating apparatus and method, program therefor, and recording medium
JP2024005644A (en) Focusing control device, display device, and image transmission device