JP2887398B2 - Multiple camera correction method - Google Patents

Multiple camera correction method

Info

Publication number
JP2887398B2
JP2887398B2 JP1297686A JP29768689A JP2887398B2 JP 2887398 B2 JP2887398 B2 JP 2887398B2 JP 1297686 A JP1297686 A JP 1297686A JP 29768689 A JP29768689 A JP 29768689A JP 2887398 B2 JP2887398 B2 JP 2887398B2
Authority
JP
Japan
Prior art keywords
camera
image
cameras
correction
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP1297686A
Other languages
Japanese (ja)
Other versions
JPH03158977A (en
Inventor
英明 境野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP1297686A priority Critical patent/JP2887398B2/en
Publication of JPH03158977A publication Critical patent/JPH03158977A/en
Application granted granted Critical
Publication of JP2887398B2 publication Critical patent/JP2887398B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】 [発明の目的] (産業上の利用分野) 本発明は、複数カメラを用いた場合の各カメラ間の幾
何学的な補正を行う複数カメラ補正方法に関するもので
ある。
DETAILED DESCRIPTION OF THE INVENTION [Object of the Invention] (Industrial application field) The present invention relates to a multiple camera correction method for performing geometric correction between cameras when using multiple cameras.

(従来の技術) 複数のカメラを用いて画像を取込む場合、各カメラか
らは映像信号レベルと幾何学レベルにおいて、同一レベ
ルの出力が望まれる。このような複数のカメラを用いた
場合の従来のカメラ補正方法としては、例えば、第8図
のフローチャートに示すような方法がある。同図は、複
数のカメラからの輝度信号レベル補正に関する部分が示
されており、各カメラ入力部にテスト用の色度パターン
が入力され(ステップ41)、入力された信号がAD変換部
でディジタル化される(ステップ42)。シェーディング
部において、画像の照明ムラが軽減される(ステップ4
3)。同一のレベルに規正された信号は、ガンマ補正部
により、画像のリアル性を高めるために、非線形変換が
施される(ステップ44)。次いで、色分離部を通じて、
R、G、Bの多重化された原色信号がR、G、Bに分離
される(ステップ45)。以上の映像信号の補正が各カメ
ラについて、同一のプロセッサーで時分割で行われる。
(Prior Art) When capturing an image using a plurality of cameras, it is desired that each camera output the same level at the video signal level and the geometric level. As a conventional camera correction method using such a plurality of cameras, for example, there is a method as shown in a flowchart of FIG. The figure shows a portion related to the correction of the luminance signal levels from a plurality of cameras. A chromaticity pattern for a test is input to each camera input unit (step 41), and the input signal is converted into a digital signal by an AD conversion unit. (Step 42). In the shading unit, the illumination unevenness of the image is reduced (Step 4
3). The signals regulated to the same level are subjected to non-linear conversion by the gamma correction unit in order to enhance the realism of the image (step 44). Then, through the color separation unit,
The multiplexed primary color signals of R, G, and B are separated into R, G, and B (step 45). The above correction of the video signal is performed for each camera by the same processor in a time-division manner.

一方、幾何学的な補正に関しては、カメラに取付けて
ある調整用のネジ等により機械的に補正が行われる。
On the other hand, geometric correction is mechanically performed by an adjusting screw or the like attached to the camera.

(発明が解決しようとする課題) 従来の複数カメラを用いた場合の各カメラ間の幾何学
的補正は、カメラに取付けてある調整用のネジ等により
機械的に行われていたため、その精度は一画素に比べて
かなり粗く、高い精度で統一のとれた画像を再生するこ
とが難しいという問題があった。
(Problems to be Solved by the Invention) When a conventional multiple camera is used, the geometric correction between the cameras is mechanically performed by an adjusting screw or the like attached to the camera. There is a problem that it is difficult to reproduce a uniform image with high precision, which is considerably coarser than one pixel.

そこで、本発明は、複数カメラを用いた場合の各カメ
ラ間の幾何学的補正を高精度に行うことができて、高い
精度で統一のとれた画像を再生することのできる複数カ
メラ補正方法を提供することを目的とする。
Therefore, the present invention provides a multiple camera correction method capable of performing geometric correction between each camera with high accuracy when using multiple cameras and reproducing uniform images with high accuracy. The purpose is to provide.

[発明の構成] (課題を解決するための手段) 本発明は上記課題を解決するために、複数カメラを用
いた場合の各カメラ間の幾何学的補正を含む複数カメラ
補正方法であって、ワイヤーフレーム構造の立体を前記
各カメラから入力し、画像処理により前記立体の画像に
おける当該立体を構成する直線の空間的な歪み具合を検
出し、この検出された歪み具合に応じて前記各カメラか
らの前記立体の入力画像を補正することにより前記各カ
メラ間の幾何学的補正を行うことを要旨とする。
[Configuration of the Invention] (Means for Solving the Problems) In order to solve the above problems, the present invention provides a multiple camera correction method including geometric correction between cameras when using multiple cameras, A solid having a wire frame structure is input from each of the cameras, and a spatial distortion state of a straight line constituting the solid in the stereoscopic image is detected by image processing, and from each of the cameras according to the detected distortion degree. The gist is that geometric correction between the cameras is performed by correcting the three-dimensional input image.

(作用) 上記構成において、画像処理により立体の画像におけ
る当該立体を構成する直線の空間的な歪み具合を検出
し、この検出された歪み具合に応じて各カメラからの立
体の入力画像を補正することにより、各カメラ間の幾何
学的補正が高精度に行われる。したがって高い精度で統
一のとれた画像を再生することが可能となる。
(Operation) In the above configuration, spatial distortion of a straight line constituting the solid in a three-dimensional image is detected by image processing, and a three-dimensional input image from each camera is corrected in accordance with the detected degree of distortion. Thus, the geometric correction between the cameras is performed with high accuracy. Therefore, it is possible to reproduce a uniform image with high accuracy.

(実施例) この実施例の複数カメラ補正方法は、基本的には次の
ような処理により行われる。即ち、まず入力カメラ部の
複数のカメラより格子状の模様をつけた透明な立体を入
力し、第一段階で各カメラからの輝度信号を映像信号レ
ベル処理部で補正を行う。次いで、第二段階で各カメラ
からの格子模様の歪み具合の補正を気化学的ひずみ補正
処理部で行ない、伝送部を通じてつなぎ目のない各カメ
ラからの合成画像を伝送し、表示部で合成画像を表示す
るものである。
(Embodiment) The multiple camera correction method of this embodiment is basically performed by the following processing. That is, first, a transparent solid body having a lattice pattern is input from a plurality of cameras of the input camera unit, and a luminance signal from each camera is corrected by a video signal level processing unit in a first stage. Next, in the second step, the degree of distortion of the lattice pattern from each camera is corrected by the chemical-chemical distortion correction processing unit, the combined image from each seamless camera is transmitted through the transmission unit, and the combined image is displayed on the display unit. To display.

以下、上記の処理を、第1図ないし第7図を用いて、
さらに詳細に説明する。
Hereinafter, the above processing will be described with reference to FIGS. 1 to 7.
This will be described in more detail.

第1図は、複数カメラを用いる場合のカメラ相互の輝
度信号レベルと幾何学的なずれを補正するための処理の
流れを示すフローチャートである。複数カメラに入力す
る景観として、色付き矩形格子模様を付けた透明な立体
をカメラ入力部より入力する(ステップ1、2)。そし
て、各カメラからの映像信号出力を映像信号レベル処理
部で第1の補正を行う(ステップ3)。この補正の内容
は、前記第8図を用いて説明した場合とほぼ同様にして
行う。
FIG. 1 is a flowchart showing the flow of processing for correcting a luminance signal level and a geometrical deviation between cameras when a plurality of cameras are used. As a landscape to be input to a plurality of cameras, a transparent solid with a colored rectangular lattice pattern is input from a camera input unit (steps 1 and 2). Then, the video signal output from each camera is subjected to a first correction by a video signal level processing unit (step 3). The contents of this correction are performed in substantially the same manner as described with reference to FIG.

次いで、第2の補正として、幾何学ひずみ補正処理部
で、立体上及び内部の格子模様に関して画像処理により
格子を構成する直線を検出する。次に、各直線が相対的
になす角度を検出する。矩形格子を入力したことから格
子の歪み具合が分る。検出された各カメラの歪み具合か
ら、各カメラからの入力画像に対して補正を施す(ステ
ップ4)。カメラ相互の補正を行った画像は伝送部より
表示部に伝送される(ステップ5、6)。
Next, as a second correction, the geometric distortion correction processing unit detects a straight line forming a grid by image processing on a three-dimensional and internal grid pattern. Next, an angle between the straight lines is detected. From the input of the rectangular lattice, the degree of distortion of the lattice is known. Based on the detected degree of distortion of each camera, correction is performed on the input image from each camera (step 4). The image corrected by the cameras is transmitted from the transmission unit to the display unit (steps 5 and 6).

第2図は、カメラからの画像に対して、幾何学的な補
正を行うために入力する立体10を示している。立体10
は、その内部の格子模様が見えるように、ワイヤーフレ
ーム構造をなしている。画像処理上、各方向のワイヤー
フレームを構成する各直線7、8、9、11、12、13、1
4、15、16を容易に検出し、これを識別できるように、
各方向の直線はそれぞれ数種の色で塗りわけられてい
る。横方向の直線14、15、16は色相0度から120度、縦
方向の直線7、8、9は色相121度から239度、奥行き方
向の直線11、12、13は色相240度から359度の色で塗りわ
けられている。また、カメラに入力した後の画像と原画
像との差分を見やすくするために、予めワイヤーフレー
ムを構成する各直線のなす角度は直角としてある。
FIG. 2 shows a solid 10 input for performing geometric correction on an image from a camera. 3D
Has a wire frame structure so that the lattice pattern inside can be seen. In image processing, each straight line 7, 8, 9, 11, 12, 13, 1 constituting a wire frame in each direction
To make it easy to detect 4, 15, 16 and identify it,
The straight lines in each direction are painted in several colors. The horizontal straight lines 14, 15, and 16 have a hue of 0 to 120 degrees, the vertical straight lines 7, 8, and 9 have a hue of 121 to 239 degrees, and the straight lines 11, 12, and 13 have a hue of 240 to 359 degrees. Are painted in different colors. In addition, in order to make it easy to see the difference between the image input to the camera and the original image, the angle between the straight lines forming the wire frame is set to a right angle in advance.

第3図は、立体10(以下、ワイヤーフレームというと
きも同符号を用いる)の一部である矩形格子をカメラよ
り入力したときの典型的な歪みの例を示している。カメ
ラに入力する前のワイヤーフレームの一部17を構成する
各直線は、同図(a)に示すように直角をなしている。
しかし、各カメラの設置の仕方により、ワイヤーフレー
ムの画像を歪む。カメラが左右方向に位置ずれがある場
合は、画像は同図(b)、(c)のように歪み、カメラ
が上下方向に位置ずれがある場合は、画像は同図
(d)、(e)のように歪む。
FIG. 3 shows an example of a typical distortion when a rectangular grid, which is a part of the solid body 10 (hereinafter also referred to as a wire frame, using the same reference numeral), is input from a camera. Each straight line constituting a part 17 of the wire frame before input to the camera is at a right angle as shown in FIG.
However, the image of the wire frame is distorted depending on how each camera is installed. When the camera is displaced in the left-right direction, the image is distorted as shown in FIGS. 4B and 4C, and when the camera is displaced in the up-down direction, the images are shown in FIGS. Distorted like).

第4図は、立体10の一部である格子画像に対して、細
線化を行い、直線のなす角度を検出することに関して説
明するための図である。同図(a)に示すように、矩形
格子の画像を入力した場合には、同図(b)の拡大図に
示すように、各直線の幅は一様ではない。そこで、同図
(c)に示すように、各直線に対して、画像処理によ
り、細線化を施す。このような処理過程は、各直線のな
す角度を検出する場合には、不可欠である。
FIG. 4 is a diagram for explaining that thinning is performed on a lattice image that is a part of the three-dimensional object 10 and the angle between straight lines is detected. As shown in FIG. 7A, when a rectangular grid image is input, the width of each straight line is not uniform as shown in the enlarged view of FIG. Therefore, as shown in FIG. 3C, each line is thinned by image processing. Such a process is indispensable when detecting the angle between the straight lines.

第5図は、ワイヤーフレーム画像からの各直線の空間
的な歪み量を検出する方法に関して説明するための図で
ある。直線の検出には、画像処理の分野で広く用いられ
ているhough変換アルゴリズムを適用している。ワイヤ
ーフレーム画像に対して、RGBからHSV変換を施し、色相
情報をもとに(ステップ21)、縦、横、奥行き方向の直
線成分を検出する(ステップ22)。各奥行き方向におけ
る縦と横方向の直線成分をhough変換を用いて検出する
(ステップ23)。縦、横方向の直線がなす角度を検出
し、各方向に対する歪み量を検出する(ステップ24)。
FIG. 5 is a diagram for describing a method of detecting a spatial distortion amount of each straight line from a wire frame image. To detect a straight line, a hough transform algorithm widely used in the field of image processing is applied. The wireframe image is subjected to the HSV conversion from RGB, and based on the hue information (step 21), the linear components in the vertical, horizontal, and depth directions are detected (step 22). The vertical and horizontal linear components in each depth direction are detected using the hough transform (step 23). The angle formed by the vertical and horizontal straight lines is detected, and the amount of distortion in each direction is detected (step 24).

第6図は、色付きワイヤーフレームを検出する際に用
いるカラー空間に関して説明するための図である。RGB
カラー空間情報としてカメラより取込まれたワイヤーフ
レーム画像は、縦、横、奥行き方向の各方向の直線成分
を容易に識別できるように、HSVカラー空間に変換す
る。H26、S25、V27はそれぞれ色相、彩度、明度を表し
ている(同図(a))。色相はここでは、赤色28を基準
に0度から360度の値をとる(同図(b))。例えば、6
0度ずつの色相に応じた色は、赤色R、黄色Y、緑色
G、シアンC、青色b、マゼンタMに対応する。明度は
正規化された「0」から「1」の値をとる場合、最小値
「0」は黒色、最大値「1」は白色を表す。彩度は明度
の値に比例する。ワイヤーフレーム10は、縦、横、奥行
きの各方向の直線の抽出を色相情報をもとに行なうよう
にするために、横方向の直線に塗る色は、色相0度から
120度29、縦方向は、121度から240度30、奥行き方向
は、241度から260度31の色相に分布する色を選択する
(同図(c))。
FIG. 6 is a diagram for explaining a color space used when detecting a colored wire frame. RGB
The wire frame image captured from the camera as the color space information is converted into the HSV color space so that the linear components in the vertical, horizontal, and depth directions can be easily identified. H26, S25, and V27 represent hue, saturation, and lightness, respectively (FIG. 10A). Here, the hue takes a value of 0 to 360 degrees with reference to the red color 28 (FIG. 9B). For example, 6
The colors corresponding to the hue of each 0 degree correspond to red R, yellow Y, green G, cyan C, blue b, and magenta M. When the brightness takes a value from “0” to “1” normalized, the minimum value “0” represents black and the maximum value “1” represents white. Saturation is proportional to the value of lightness. In order to perform extraction of straight lines in each of the vertical, horizontal, and depth directions based on the hue information, the wire frame 10 changes the color of the horizontal straight line from 0 degree.
A color distributed in the hue of 120 degrees 29, the vertical direction is 121 degrees to 240 degrees 30, and the depth direction is 241 degrees to 260 degrees 31 is selected (FIG. 10C).

第7図は、直線を検出する際に用いるhough変換の原
理について説明するための図である。検出すべき直線上
の任意の点32、33、34のx、yの座標値が、極座標形式
で表される次式のような直線ρの上にあるとした場合、 ρ=x・cosθ+y・sinθ 直線ρで各点を既知量として三つの直線ρ、ρ、ρ
を記述することができる。
FIG. 7 is a diagram for explaining the principle of the hough transform used when detecting a straight line. Assuming that the x and y coordinate values of arbitrary points 32, 33, and 34 on the straight line to be detected are on a straight line ρ represented by the following equation expressed in a polar coordinate format, ρ = x · cos θ + y · three straight lines ρ 1 , ρ 2 , ρ
3 can be described.

ρ=x1・cosθ+y1・sinθ ρ=x2・cosθ+y2・sinθ ρ=x3・cosθ+y3・sinθ これら三つの直線を横軸に角度35、縦軸に原点36と各
点との距離をとり(第7図(a))、グラフを描くと3
7、38、39のような正弦曲線が得られる(同図
(b))。このグラフにおいて、三つの曲線の交点40
は、検出したい直線に相当する。このようにしてカメラ
より取込んだワイヤーフレーム画像から各方向の直線を
検出する。
ρ 1 = x 1 · cos θ + y 1 · sin θ ρ 2 = x 2 · cos θ + y 2 · sin θ ρ 3 = x 3 · cos θ + y 3 · sin θ (Fig. 7 (a)) and draw the graph to get 3
Sinusoidal curves such as 7, 38, and 39 are obtained (FIG. 9B). In this graph, the intersection 40 of the three curves
Represents a straight line to be detected. In this way, straight lines in each direction are detected from the wire frame image captured from the camera.

以上の処理により、映像信号レベルの補正及び幾何学
的補正が全て電子的に高い精度で行われる。
Through the above processing, the correction of the video signal level and the geometric correction are all performed electronically with high accuracy.

[発明の効果] 以上説明したように、本発明によれば、ワイヤーフレ
ーム構造の立体を各カメラから入力し、画像処理により
その立体の画像における当該立体を構成する直線の空間
的な歪み具合を検出し、この検出された歪み具合に応じ
て各カメラからの立体の入力画像を補正することにより
各カメラ間の幾何学的補正を行うようにしたため、各カ
メラ間の幾何学的補正が高精度に行われて、高い精度で
統一のとれた画像を再生することができるという利点が
ある。
[Effects of the Invention] As described above, according to the present invention, a solid having a wire frame structure is input from each camera, and the spatial distortion of a straight line constituting the solid in an image of the solid is determined by image processing. Detects and corrects the three-dimensional input image from each camera according to the detected degree of distortion to perform geometric correction between each camera. This has the advantage that a uniform image can be reproduced with high accuracy.

【図面の簡単な説明】[Brief description of the drawings]

第1図ないし第7図は本発明に係る複数カメラ補正方法
の実施例を説明するための図で、第1図は全体の処理の
流れを説明するためのフローチャート、第2図はワイヤ
ーフレーム構造の立体を示す斜視図、第3図はカメラに
入力した立体画像の歪みの例を示す図、第4図は立体画
像を構成する直線の細線化処理を説明するための図、第
5図はワイヤーフレームの歪み量検出方法を説明するた
めのフローチャート、第6図はHSVカラー空間を説明す
るための図、第7図は直線検出の原理を説明するための
図、第8図は従来方法における映像信号レベル補正を説
明するためのフローチャートである。 10:ワイヤーフレーム構造の立体、 7、8、9、11、12、13、14、15、16:立体を構成する
各直線。
1 to 7 are diagrams for explaining an embodiment of a method for correcting a plurality of cameras according to the present invention. FIG. 1 is a flowchart for explaining the overall processing flow, and FIG. 2 is a wire frame structure. FIG. 3 is a diagram showing an example of distortion of a stereoscopic image input to a camera, FIG. 4 is a diagram for explaining thinning processing of a straight line constituting the stereoscopic image, and FIG. 6 is a flowchart for explaining a method of detecting the amount of distortion of a wire frame, FIG. 6 is a diagram for explaining an HSV color space, FIG. 7 is a diagram for explaining the principle of straight line detection, and FIG. 5 is a flowchart for explaining video signal level correction. 10: solid body with a wire frame structure 7, 8, 9, 11, 12, 13, 14, 15, 16: each straight line constituting the solid body.

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】複数カメラを用いた場合の各カメラ間の幾
何学的補正を含む複数カメラ補正方法であって、ワイヤ
ーフレーム構造の立体を前記各カメラから入力し、画像
処理により前記立体の画像における当該立体を構成する
直線の空間的な歪み具合を検出し、この検出された歪み
具合に応じて前記各カメラからの前記立体の入力画像を
補正することにより前記各カメラ間の幾何学的補正を行
うことを特徴とする複数カメラ補正方法。
1. A multi-camera correction method including a geometric correction between cameras when a plurality of cameras are used, wherein a three-dimensional image having a wire frame structure is input from each of the cameras, and the three-dimensional image is processed by image processing. The spatial correction of the straight line forming the three-dimensional object is detected, and the three-dimensional input image from each of the cameras is corrected in accordance with the detected degree of distortion, thereby performing geometric correction between the cameras. A multiple camera correction method.
JP1297686A 1989-11-17 1989-11-17 Multiple camera correction method Expired - Fee Related JP2887398B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1297686A JP2887398B2 (en) 1989-11-17 1989-11-17 Multiple camera correction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1297686A JP2887398B2 (en) 1989-11-17 1989-11-17 Multiple camera correction method

Publications (2)

Publication Number Publication Date
JPH03158977A JPH03158977A (en) 1991-07-08
JP2887398B2 true JP2887398B2 (en) 1999-04-26

Family

ID=17849836

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1297686A Expired - Fee Related JP2887398B2 (en) 1989-11-17 1989-11-17 Multiple camera correction method

Country Status (1)

Country Link
JP (1) JP2887398B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006135003A1 (en) * 2005-06-15 2006-12-21 Hitachi Medical Corporation Magnetic resonance imaging device

Also Published As

Publication number Publication date
JPH03158977A (en) 1991-07-08

Similar Documents

Publication Publication Date Title
US6823083B1 (en) Saturation correcting apparatus and method
US5087126A (en) Method of estimating colors for color image correction
US8526719B2 (en) Method of converting color image into grayscale image and recording medium storing program for performing the same
JP2018098630A5 (en)
JP2000311243A (en) Image color correction method and device
JP2006325201A (en) Detection, correction fading and processing in hue, saturation and luminance directions
EP1774767A1 (en) Maintenance of hue in a saturation-controlled color image
CN107680142B (en) Method for improving out-of-gamut color overlay mapping
KR100566564B1 (en) Method and apparatus for detecting color temperature
KR101548236B1 (en) Color compansation method for 3D Image
CN104933671B (en) Color of image fusion method
US7046277B2 (en) Image interpolating device, including interpolation and modification processors
WO2012159586A1 (en) Color distortion correction method and device for imaging systems and image output systems
JP7450170B2 (en) Projection image adjustment system and method
US6747698B2 (en) Image interpolating device
JP2887398B2 (en) Multiple camera correction method
KR101266919B1 (en) System for converting color of images cinematograph and method thereof
US5815159A (en) Spatially mapped monochrome display in a color image
JP2014225182A (en) Image projection system, image processing apparatus, and program
US8478027B2 (en) Image processing apparatus, image reproducing system and computer-readable medium
JP5280940B2 (en) Specific color detection circuit
JP6590955B2 (en) Imaging apparatus and color correction method
US20060291015A1 (en) Applying multiple imaging processes to digital images
KR100408508B1 (en) Method and apparatus for processing color, signal using color difference plane separation
JP5494249B2 (en) Image processing apparatus, imaging apparatus, and image processing program

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees