JP3270620B2 - Image input method - Google Patents

Image input method

Info

Publication number
JP3270620B2
JP3270620B2 JP08277294A JP8277294A JP3270620B2 JP 3270620 B2 JP3270620 B2 JP 3270620B2 JP 08277294 A JP08277294 A JP 08277294A JP 8277294 A JP8277294 A JP 8277294A JP 3270620 B2 JP3270620 B2 JP 3270620B2
Authority
JP
Japan
Prior art keywords
image
green
red
blue
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP08277294A
Other languages
Japanese (ja)
Other versions
JPH07296143A (en
Inventor
保日児 渡部
保 望月
一成 中根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP08277294A priority Critical patent/JP3270620B2/en
Publication of JPH07296143A publication Critical patent/JPH07296143A/en
Application granted granted Critical
Publication of JP3270620B2 publication Critical patent/JP3270620B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、三次元物体を二次元画
像撮像する場合の画像入力方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image input method for capturing a two-dimensional image of a three-dimensional object.

【0002】[0002]

【従来の技術】従来、三次元物体を二次元画像として撮
像する際には、CCDのようなエリアセンサ(またはラ
インセンサ)を用いて、光学系から入力する二次元情報
を記録していた。また、同時に三次元物体の位置情報を
得る機能を備えていても、その情報を利用して二次元情
報を補正していなかった。
2. Description of the Related Art Conventionally, when capturing a three-dimensional object as a two-dimensional image, an area sensor (or a line sensor) such as a CCD is used to record two-dimensional information input from an optical system. Further, even if a function for obtaining position information of a three-dimensional object is provided at the same time, the two-dimensional information is not corrected using the information.

【0003】[0003]

【発明が解決しようとする課題】三次元物体を二次元画
像として撮像するためには、例えば光学系を通じて、三
次元物体を二次元画像としてセンサ上に撮影しなければ
ならない。しかし、光学系は、平行投影ではなく、透視
投影となり、しかも焦点位置以外では、一点に結像する
わけではない。そのため、たとえば、カラー画像入力
時、センサを複数配置(例えば、センサとしてそれぞれ
赤、緑、青の3つのセンサを有する)する場合、この焦
点に対するずれがそれぞれ撮像素子画素上のずれとして
記録され、結果として、それらを統合した際、焦点の合
っている位置以外では色ずれを生じることになる。これ
は、高精細画像入力の際に顕著となり、撮像時に焦点の
合っている位置以外では、二次元画像を部分的に拡大し
ても見るに耐えないという欠点があった。
In order to capture a three-dimensional object as a two-dimensional image, the three-dimensional object must be captured as a two-dimensional image on a sensor, for example, through an optical system. However, the optical system is not a parallel projection but a perspective projection, and does not form an image at a single point except for the focal position. Therefore, for example, when a plurality of sensors are arranged at the time of inputting a color image (for example, three sensors of red, green, and blue are provided as sensors), the deviation from the focus is recorded as the deviation on the image sensor pixel, As a result, when they are integrated, a color shift occurs at a position other than the in-focus position. This is remarkable at the time of inputting a high-definition image, and there is a drawback that a part of the two-dimensional image cannot be viewed even if the two-dimensional image is partially enlarged at a position other than an in-focus position at the time of imaging.

【0004】本発明は、このような問題点を解決するた
めになされたものであり、その目的は、高精細な画像入
力を可能とし、焦点の合っていない部分での色ずれを補
正可能とする画像入力方法を提供することにある。
SUMMARY OF THE INVENTION The present invention has been made to solve such a problem, and an object of the present invention is to enable high-definition image input and to correct a color shift in an unfocused portion. It is an object of the present invention to provide an image input method.

【0005】[0005]

【0006】[0006]

【0007】[0007]

【課題を解決するための手段】 発明では、三次元物体
を二次元のカラー画像として撮像する場合に、まず、計
測手段と光学および撮像系によって撮像対象の三次元物
体の距離画像および赤、緑、青のカラー画像を獲得し、
次に、前記計測手段と前記光学系のレンズの物理的配置
から前記距離画像の位置補正を行なって前記カラー画像
と同一位置に配置し、次に、前記カラー画像または距離
画像の解像度に従い全ての画素に対して該距離画像の値
に従って赤、緑、青それぞれの画素におけるずれを計算
し該計算したそれぞれのずれに従って前記赤、緑、青の
カラー画像から赤、緑、青の画素を引き出してカラー画
像を合成し、入力する画像入力方法を手段とする。
According to the present invention, when a three-dimensional object is imaged as a two-dimensional color image, first, a distance image of the three-dimensional object to be imaged and red, Green and blue color images,
Next, the position of the distance image is corrected based on the physical arrangement of the measuring unit and the lens of the optical system, and the distance image is arranged at the same position as the color image. Calculate the shift in each pixel of red, green, and blue according to the value of the distance image for the pixel, and extract the red, green, and blue pixels from the red, green, and blue color images according to the calculated shifts. An image input method for synthesizing and inputting color images is used as means.

【0008】[0008]

【作用】本発明では、三次元物体を光学および撮像系に
て撮像した二次元画像において、撮像対象の三次元物体
の位置情報によって、三次元形状に起因する光学および
撮像系からの位置の相違で発生する撮像した画素のずれ
を、光学および撮像素子配置の特性を補正することによ
り補正して、高精細な画像入力を可能とし、例えば、カ
ラー画像入力において、色ずれのない画像を入力可能と
する。
According to the present invention, in a two-dimensional image obtained by imaging a three-dimensional object with an optical and imaging system, the difference in position from the optical and imaging systems due to the three-dimensional shape is determined by the position information of the three-dimensional object to be imaged. The displacement of the imaged pixels caused by the above is corrected by correcting the characteristics of the optical and the image pickup device arrangement, thereby enabling high-definition image input. For example, in a color image input, an image without color shift can be input. And

【0009】[0009]

【実施例】以下、本発明の実施例を、図面を参照して詳
細に説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0010】本実施例では、光学系としては単純なレン
ズを仮定し、撮像系としては複数のリニアセンサ(それ
ぞれを赤、緑、青とする)を用いたものを仮定し、三次
元位置情報を獲得する手段としては、赤外レーザ光を用
いたレンジセンサを仮定する。しかし、本発明は、上記
構成の場合のみで作用するものではなく、三次元物体の
位置情報を獲得するためには、その他の手段でもかまわ
ないし、光学系、撮像系としてもその他のものであって
も構わない。
In this embodiment, it is assumed that a simple lens is used as an optical system, and a plurality of linear sensors (each of which is red, green, and blue) are used as an image pickup system. Is assumed to be a range sensor using infrared laser light. However, the present invention does not operate only in the case of the above-described configuration, and other means may be used to obtain the position information of the three-dimensional object, and other means may be used as the optical system and the imaging system. It does not matter.

【0011】図1に、本実施例における撮像系、光学系
および三次元の撮像対象を示す。
FIG. 1 shows an image pickup system, an optical system, and a three-dimensional object to be picked up in this embodiment.

【0012】ここでは、リニアセンサを用いたものを例
に用いることから、光学および撮像系109が、移動方
向110に移動しつつ、撮像対象101の二次元画像を
入力する。
Here, since a system using a linear sensor is used as an example, the optical and imaging system 109 inputs a two-dimensional image of the object 101 while moving in the moving direction 110.

【0013】ここで、図1(a)に示すように、赤セン
サ102、緑センサ103、青センサ104を用いて、
カラー画像を入力するが、その際、レンズ105を通し
て、これら3つのセンサに到着するのは、それぞれ、撮
像対象101上の赤撮像位置108、緑撮像位置10
7、青撮像位置106の情報であり、各センサはこれら
のそれぞれの情報をとらえることになる。
Here, as shown in FIG. 1A, using a red sensor 102, a green sensor 103, and a blue sensor 104,
A color image is input. At this time, the three images that arrive at these three sensors through the lens 105 are the red imaging position 108 and the green imaging position 10 on the imaging target 101, respectively.
7. The information of the blue imaging position 106, and each sensor captures the information of each of them.

【0014】図1(b)に示すように、例えば、撮像対
象101の位置が異なれば、その各々の撮像位置もまた
異なる。
As shown in FIG. 1B, for example, if the position of the object 101 to be imaged is different, the imaging position of each object is also different.

【0015】このため、撮像対象101の形状によっ
て、赤センサ102、緑センサ103、青センサ104
でとらえる画像は、変化することになり、これが、三次
元物体のカラー画像入力の際の色ずれとなる。
Therefore, the red sensor 102, the green sensor 103, and the blue sensor 104 depend on the shape of the object 101 to be imaged.
Will change, and this will be a color shift when a color image of a three-dimensional object is input.

【0016】そこで、光学および撮像系109にレンジ
センサ111を備えることで、レンズ105と、撮像対
象101との距離112を計測する。
Therefore, by providing the range sensor 111 in the optical and image pickup system 109, the distance 112 between the lens 105 and the image pickup object 101 is measured.

【0017】これを、光学および撮像系109が、移動
方向110に移動して、撮像対象101をすべてとらえ
るまで、繰り返す。
This is repeated until the optical and imaging system 109 moves in the movement direction 110 and captures all the objects to be imaged 101.

【0018】図2は、レンジセンサ111が入力した距
離画像113、赤センサ102が入力した赤画像11
4、緑センサ103が入力した緑画像115、青センサ
114が入力した青画像116を表している。ここで、
距離画像113は、図1(b)が示すとおり、レンジセ
ンサ111とレンズ105の物理的位置関係に基づき位
置補正することでレンズ105の中心軸(光軸100)
上で撮影対象101をとらえる映像とすることができ
る。しかし、赤センサ102、緑センサ103、青セン
サ104の物理的位置によって、赤画像114、緑画像
115、青画像116は画素それぞれで若干ずつずれて
いることになる。
FIG. 2 shows a distance image 113 input by the range sensor 111 and a red image 11 input by the red sensor 102.
4, a green image 115 input by the green sensor 103 and a blue image 116 input by the blue sensor 114. here,
As shown in FIG. 1B, the distance image 113 is subjected to position correction based on the physical positional relationship between the range sensor 111 and the lens 105, and thereby the central axis of the lens 105 (optical axis 100).
An image capturing the object to be shot 101 can be obtained. However, the red image 114, the green image 115, and the blue image 116 are slightly shifted from each other depending on the physical positions of the red sensor 102, the green sensor 103, and the blue sensor 104.

【0019】図3は、ある光学および撮影系109の特
性における状況をモデル化した図である。計測距離11
7は、距離画像113から画像中での三次元位置として
得ることができる。光学および撮影系109から焦点距
離118だけ離れた位置においては、赤画像114、緑
画像115、青画像116ともに、同一位置をとらえて
いるが、それ以外の距離では、ずれ119だけ、異な
る。このずれは、光学および撮影系109のレンズ10
5との関係において、特性120という傾きとして考え
ることができる。従って、計測距離117をL、焦点距
離118をF、特性120を傾きfとすれば、撮影対象
101上のある位置でのずれdは、 d=f*(F−L) として得ることができる。
FIG. 3 is a diagram in which a situation in the characteristics of a certain optical and photographing system 109 is modeled. Measurement distance 11
7 can be obtained from the distance image 113 as a three-dimensional position in the image. At the position distant from the optical and imaging system 109 by the focal length 118, the red image 114, the green image 115, and the blue image 116 capture the same position, but at other distances, they differ by a shift 119. This shift is caused by the lens 10 of the optical and imaging system 109.
5, the characteristic 120 can be considered as a slope. Therefore, if the measurement distance 117 is L, the focal length 118 is F, and the characteristic 120 is the inclination f, the displacement d at a certain position on the imaging target 101 can be obtained as d = f * (FL). .

【0020】したがって、距離画像113の値にしたが
って、赤画像114、緑画像115、青画像116の各
画素をこのずれdに従って、ずらしながら合成すること
によって、色ずれのない二次元カラー画像を得ることが
できる。
Therefore, by combining the pixels of the red image 114, the green image 115, and the blue image 116 according to the shift d in accordance with the value of the distance image 113, a two-dimensional color image without color shift is obtained. be able to.

【0021】図4に本実施例の処理フローチャートを示
す。光学特性は、赤、緑、青それぞれに、fr,fg,f
bとして既知とする。まず、光学および撮像系によっ
て、撮像対象の距離画像およびカラー画像を獲得する
(ステップS1)。次に、レンジセンサと光学レンズの
物理的配置から、距離画像の位置補正を行ない、カラー
画像と同一位置に配置する(ステップS2)。次に、カ
ラー画像(または距離画像)の解像度に従い全ての画素
に対して、 (1)距離画像の値に従って、赤、緑、青それぞれの画
素におけるずれを計算する(ステップS3)。
FIG. 4 shows a processing flowchart of this embodiment. Optical properties, red, green, and blue, respectively, f r, f g, f
It is known as b . First, a distance image and a color image of an imaging target are acquired by an optical system and an imaging system (step S1). Next, the position of the range image is corrected based on the physical arrangement of the range sensor and the optical lens, and the range image is arranged at the same position as the color image (step S2). Next, for all the pixels according to the resolution of the color image (or the distance image), (1) The shift in each of the red, green, and blue pixels is calculated according to the value of the distance image (step S3).

【0022】dr=fr*(F−L) dg=fg*(F−L) db=fb*(F−L) (2)それぞれのずれdr,dg,dbに従って、赤、
緑、青毎にそれぞれdr,dg,dbずれた位置の画素を
引き出して合成する(ステップS4)。最後に、その合
成されたカラー画像を出力する(ステップS5)。以上
で終了する。
[0022] d r = f r * (F -L) d g = f g * (F-L) d b = f b * (F-L) (2) each of the deviation d r, d g, d b According to the red,
Green, respectively d r for each blue, d g, synthesized pull out the pixels of position shifted d b (step S4). Finally, the combined color image is output (step S5). This is the end.

【0023】本実施例による補正の例として、図5
(a)に、三次元物体の位置によって補正する以前に赤
画像114、緑画像115、青画像116を統合した補
正以前のカラー画像121の模写図を、図5(b)に、
補正後の二次元カラー画像122、および補正後カラー
画像122の一部(眼球の輝き)の模写図を、示す。補
正以前のカラー画像121では、色ずれが発生し精細度
が低下し、眼球の輝きも見えない。これに対し、本実施
例による補正後のカラー画像122では、色ずれが補正
され、眼球の輝きもはっきり見える。
FIG. 5 shows an example of correction according to this embodiment.
FIG. 5A is a schematic view of a color image 121 before correction in which the red image 114, the green image 115, and the blue image 116 are integrated before correction based on the position of the three-dimensional object, and FIG.
The two-dimensional color image 122 after correction and a part of the corrected color image 122 (brightness of an eyeball) are shown. In the color image 121 before the correction, a color shift occurs, the definition is reduced, and the glow of the eyeball is not seen. On the other hand, in the corrected color image 122 according to the present embodiment, the color misregistration is corrected, and the glow of the eyeball is clearly visible.

【0024】[0024]

【発明の効果】以上の説明で明らかなように、本発明に
よれば、撮像対象の三次元物体の位置情報を用いて、光
学系および撮像素子配置の特性を補正することによっ
て、三次元物体の位置の相違で発生するカラー画素のず
れを補正して二次元画像を補正するため、焦点位置以外
でも色ずれのない高精細なカラー画像入力を行なうこと
ができる。
As is apparent from the above description, according to the present invention, the three-dimensional object is corrected by correcting the characteristics of the optical system and the image pickup device arrangement using the position information of the three-dimensional object to be imaged. for correcting the two-dimensional image by correcting the deviation of the color pixels that occur in different positions, other than the focal position
However, a high-definition color image without color shift can be input.

【0025】[0025]

【0026】[0026]

【図面の簡単な説明】[Brief description of the drawings]

【図1】(a),(b)は本発明の一実施例を説明する
撮像系、光学系および三次元対象を示す図
FIGS. 1A and 1B are diagrams showing an imaging system, an optical system, and a three-dimensional object for explaining an embodiment of the present invention;

【図2】(a),(b),(c),(d)は上記実施例
におけるレンジセンサの入力画像を示す図
FIGS. 2A, 2B, 2C, and 2D are diagrams showing input images of a range sensor in the embodiment.

【図3】上記実施例における光学系、撮像系の特性モデ
ル図
FIG. 3 is a characteristic model diagram of an optical system and an imaging system in the embodiment.

【図4】上記実施例における処理例を示すフローチャー
FIG. 4 is a flowchart showing a processing example in the embodiment.

【図5】(a),(b)は上記実施例による補正例を示
す図
FIGS. 5A and 5B are diagrams showing an example of correction according to the embodiment.

【符号の説明】[Explanation of symbols]

101…撮像対象 102…赤センサ 103…緑センサ 104…青センサ 105…レンズ 106…青撮像位置 107…緑撮像位置 108…赤撮像位置 109…光学および撮像系 110…移動方向 111…レンジセンサ 112…距離 113…距離画像 114…赤画像 115…緑画像 116…青画像 117…計測距離 118…焦点距離 119…ずれ 120…特性 121…補正以前カラー画像 122…補正後カラー画像 DESCRIPTION OF SYMBOLS 101 ... Imaging target 102 ... Red sensor 103 ... Green sensor 104 ... Blue sensor 105 ... Lens 106 ... Blue imaging position 107 ... Green imaging position 108 ... Red imaging position 109 ... Optical and imaging system 110 ... Moving direction 111 ... Range sensor 112 ... Distance 113 ... Distance image 114 ... Red image 115 ... Green image 116 ... Blue image 117 ... Measurement distance 118 ... Focal length 119 ... Displacement 120 ... Characteristics 121 ... Color image before correction 122 ... Color image after correction

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平2−23790(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06T 1/00 400 G06T 3/00 200 ────────────────────────────────────────────────── ─── Continuation of the front page (56) References JP-A-2-23790 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) G06T 1/00 400 G06T 3/00 200

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 三次元物体を二次元のカラー画像として
撮像する場合に、まず、計測手段と光学および撮像系に
よって撮像対象の三次元物体の距離画像および赤、緑、
青のカラー画像を獲得し、次に、前記計測手段と前記光
学系のレンズの物理的配置から前記距離画像の位置補正
を行なって前記カラー画像と同一位置に配置し、次に、
前記カラー画像または距離画像の解像度に従い全ての画
素に対して該距離画像の値に従って赤、緑、青それぞれ
の画素におけるずれを計算し該計算したそれぞれのずれ
に従って前記赤、緑、青のカラー画像から赤、緑、青の
画素を引き出してカラー画像を合成し、入力することを
特徴とする画像入力方法。
When capturing a three-dimensional object as a two-dimensional color image, first, a distance image of the three-dimensional object to be captured and red, green,
Obtain a blue color image, then perform the position correction of the distance image from the physical arrangement of the measuring means and the lens of the optical system, and arrange it at the same position as the color image,
According to the resolution of the color image or the distance image, the shift of each pixel of red, green, and blue is calculated according to the value of the distance image for all pixels, and the red, green, and blue color images are calculated according to the calculated shifts. An image input method comprising: extracting red, green, and blue pixels from a color image; synthesizing a color image;
JP08277294A 1994-04-21 1994-04-21 Image input method Expired - Fee Related JP3270620B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP08277294A JP3270620B2 (en) 1994-04-21 1994-04-21 Image input method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP08277294A JP3270620B2 (en) 1994-04-21 1994-04-21 Image input method

Publications (2)

Publication Number Publication Date
JPH07296143A JPH07296143A (en) 1995-11-10
JP3270620B2 true JP3270620B2 (en) 2002-04-02

Family

ID=13783734

Family Applications (1)

Application Number Title Priority Date Filing Date
JP08277294A Expired - Fee Related JP3270620B2 (en) 1994-04-21 1994-04-21 Image input method

Country Status (1)

Country Link
JP (1) JP3270620B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010079328A (en) * 2008-09-24 2010-04-08 Nec Corp Device and method for image correction
KR102029680B1 (en) * 2012-04-16 2019-10-08 삼성전자주식회사 Image processing apparatus and method for determining distortion of synthesized image

Also Published As

Publication number Publication date
JPH07296143A (en) 1995-11-10

Similar Documents

Publication Publication Date Title
JP5066851B2 (en) Imaging device
US6211911B1 (en) Image processing apparatus
US8570427B2 (en) Image-capturing device having focus adjustment function, image creation method including focus adjustment function, and program product for image-capturing device having focus adjustment function
JP4852591B2 (en) Stereoscopic image processing apparatus, method, recording medium, and stereoscopic imaging apparatus
JP4976310B2 (en) Imaging device
US5646679A (en) Image combining method and apparatus
US6977674B2 (en) Stereo-image capturing device
JP5963606B2 (en) Imaging apparatus and control method thereof
US7742087B2 (en) Image pickup device
CN103444183B (en) Color imaging element and imaging device
JP2010230879A (en) Double eye camera device
JP2009284188A (en) Color imaging apparatus
JP2002071309A (en) Three-dimensional image-detecting device
JP5348258B2 (en) Imaging device
JP2001174696A (en) Color image pickup unit
JP4581512B2 (en) Three-dimensional image processing apparatus, optical axis adjustment method, and optical axis adjustment support method
US20210019899A1 (en) Imaging device, distance measurement method, distance measurement program, and recording medium
JP2010103949A (en) Apparatus, method and program for photographing
JP2019168479A (en) Controller, imaging device, method for control, program, and, and storage medium
JP3270620B2 (en) Image input method
JP5363872B2 (en) Image correction apparatus and program thereof
JP6257260B2 (en) Imaging apparatus and control method thereof
JP2006135823A (en) Image processor, imaging apparatus and image processing program
JPH06292052A (en) Still picture image pickup device
JPH10262176A (en) Video image forming method

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090118

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090118

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100118

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110118

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110118

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120118

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130118

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees