JP2000304508A - Three-dimensional input device - Google Patents

Three-dimensional input device

Info

Publication number
JP2000304508A
JP2000304508A JP11108814A JP10881499A JP2000304508A JP 2000304508 A JP2000304508 A JP 2000304508A JP 11108814 A JP11108814 A JP 11108814A JP 10881499 A JP10881499 A JP 10881499A JP 2000304508 A JP2000304508 A JP 2000304508A
Authority
JP
Japan
Prior art keywords
data
light
pixel
matching means
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11108814A
Other languages
Japanese (ja)
Other versions
JP3991501B2 (en
Inventor
Hidekazu Ide
英一 井手
Hiroshi Uchino
浩志 内野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP10881499A priority Critical patent/JP3991501B2/en
Publication of JP2000304508A publication Critical patent/JP2000304508A/en
Application granted granted Critical
Publication of JP3991501B2 publication Critical patent/JP3991501B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

PROBLEM TO BE SOLVED: To realize three-dimensional input which is not dependent on projection angle information of reference light, obtain three-dimensional input data of high precision, independently of precision of projection angle control, and improve reliability of data. SOLUTION: Three-dimensional input equipment 1 projecting reference light U comprises a pair of imaging systems 20A, 20B which image an object at positions isolated from each other, a first matching means 311 which makes pixel positions of a first and a second imaging surfaces correspond with each other on the basis of imaging data when the reference light is projected, a second matching means 312 which makes pixel positions of the first and second imaging surfaces correspond with each other on the basis of imaging data when the reference light is not projected, and a selecting means 313 selecting either one out of the two obtained correspondences. Data D corresponding to a light receiving angle decided by the selected correspondence relation are outputted.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、物体に参照光を投
射して物体を走査し、物体形状を特定するためのデータ
を出力する3次元入力装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional input device for projecting reference light onto an object, scanning the object, and outputting data for specifying the shape of the object.

【0002】[0002]

【従来の技術】レンジファインダと呼称される非接触型
の3次元入力装置は、接触型に比べて高速の計測が可能
であることから、CGシステムやCADシステムへのデ
ータ入力、身体計測、ロボットの視覚認識などに利用さ
れている。
2. Description of the Related Art A non-contact type three-dimensional input device called a range finder can perform higher-speed measurement than a contact type, and therefore can input data to a CG system or a CAD system, measure a body, and use a robot. It is used for visual recognition.

【0003】レンジファインダに好適な計測方法として
スリット光投影法(光切断法ともいう)が知られてい
る。この方法は、物体を光学的に走査して距離画像(3
次元画像)を得る方法であり、特定の参照光を投射して
物体を撮影する能動的計測方法の一種である。距離画像
は、物体上の複数の部位の3次元位置を示す画素の集合
である。スリット光投影法では、参照光として投射ビー
ムの断面が直線帯状であるスリット光が用いられる。走
査中のある時点では物体の一部が照射され、撮像面には
照射部分の起伏に応じて曲がった輝線が現れる。したが
って、走査中に周期的に撮像面の各画素の輝度をサンプ
リングすることにより、物体形状を特定する一群のデー
タ(3次元入力データ)を得ることができる。
[0003] As a measurement method suitable for a range finder, a slit light projection method (also called a light cutting method) is known. In this method, an object is optically scanned and a distance image (3
Dimensional image), which is a type of active measurement method for projecting a specific reference beam to photograph an object. The distance image is a set of pixels indicating three-dimensional positions of a plurality of parts on the object. In the slit light projection method, slit light in which a cross section of a projection beam has a linear band shape is used as reference light. At a certain point during the scanning, a part of the object is irradiated, and a bright line that is curved according to the undulation of the irradiated part appears on the imaging surface. Accordingly, a group of data (three-dimensional input data) for specifying the object shape can be obtained by periodically sampling the luminance of each pixel on the imaging surface during scanning.

【0004】従来においては、撮像面内の輝線の位置に
基づいて、物体で反射して撮像面に入射したスリット光
の入射角度を求め、その入射角度と当該スリット光の投
射角度と基線長(投射の起点と受光基準点との距離)と
から三角測量の手法で物体の位置を算出していた。つま
り、参照光の投射方向と受光方向とに基づく位置演算が
行われていた。なお、特開平10−2722号の装置の
ように参照光としてスポット光(ビーム断面が点状)を
用いる場合にも、投射方向と受光方向とに基づいて物体
の位置が算出されていた。
Conventionally, the incident angle of slit light reflected by an object and incident on the imaging surface is determined based on the position of the bright line in the imaging surface, and the incident angle, the projection angle of the slit light, and the base line length ( The position of the object is calculated from the distance between the projection start point and the light receiving reference point) by triangulation. That is, the position calculation based on the projection direction and the light receiving direction of the reference light has been performed. It should be noted that the position of the object is calculated based on the projection direction and the light receiving direction even when spot light (beam section is point-shaped) is used as the reference light as in the device of JP-A-10-2722.

【0005】[0005]

【発明が解決しようとする課題】従来においては、3次
元入力データの精度が参照光の投射角度制御の精度に依
存し、このために十分に高い精度の3次元入力データが
得られなかったり、精度を確保するために高価な部品を
用いなければならなかったり、投光系の取付け姿勢の調
整に手間がかかったりするという問題があった。精度の
確保が難しい理由としては、投光系は参照光を偏向する
可動機構を有しており、その動作は温度、湿度などの使
用環境の変化の影響を受け易いことが挙げられる。
Conventionally, the accuracy of the three-dimensional input data depends on the accuracy of the control of the projection angle of the reference light, so that sufficiently high accuracy of the three-dimensional input data cannot be obtained. There have been problems that expensive components must be used to ensure accuracy, and that it takes time to adjust the mounting posture of the light projecting system. The reason why it is difficult to ensure accuracy is that the light projection system has a movable mechanism for deflecting the reference light, and its operation is easily affected by changes in the use environment such as temperature and humidity.

【0006】本発明は、参照光の投射角度情報によらな
い3次元入力を実現し、投射角度制御の精度に係わらず
高精度の3次元入力データを得るとともに、データの信
頼性を高めることを目的としている。他の目的は、動作
モードの多様化による実用性の向上を図ることにある。
The present invention realizes a three-dimensional input that does not depend on the projection angle information of the reference light, obtains highly accurate three-dimensional input data regardless of the accuracy of the projection angle control, and improves the reliability of the data. The purpose is. Another object is to improve practicality by diversifying operation modes.

【0007】[0007]

【課題を解決するための手段】本発明においては、参照
光で照らされた状態の物体と環境光で照らされた状態の
物体とを互いに離れた2点のそれぞれを視点として順に
撮影し、視点間の距離と各視点からみた物体上の注目点
の方位(視点どうしを結ぶ直線に対する傾き)とから三
角測量の手法で物体の位置を算出する。その際、注目点
の方位を特定するために、参照光を投射したときの視点
の異なる2個の撮影像についての画素の対応検索(マッ
チング)に加えて、参照光を投射しないときの撮影像に
ついても対応検索を行う。物体の形状や配色によって
は、参照光を投射しない場合の対応検索の方が信頼性が
高くなる。2種の対応検索の結果を適切に選択すること
により、データの信頼性を高めることができる。
According to the present invention, an object illuminated by reference light and an object illuminated by environmental light are sequentially photographed using two points apart from each other as viewpoints. The position of the object is calculated by a triangulation method from the distance between the points and the azimuth of the point of interest on the object viewed from each viewpoint (inclination with respect to a straight line connecting the viewpoints). At this time, in order to specify the direction of the point of interest, in addition to the pixel correspondence search (matching) for two captured images having different viewpoints when projecting the reference light, the captured image when the reference light is not projected A corresponding search is also performed for. Depending on the shape and color scheme of the object, the correspondence search when the reference light is not projected has higher reliability. By properly selecting the results of the two types of correspondence search, the reliability of the data can be improved.

【0008】請求項1の発明の装置は、入力対象の物体
を走査するように起点から前記物体に向かって参照光を
投射する投光系と、第1の位置で前記物体を撮影するた
めの第1の撮影系と、前記第1の位置から離れた第2の
位置で前記物体を撮影するための第2の撮影系と、前記
参照光を投射して前記物体を前記第1及び第2の撮影系
によって同時に撮影したときの撮影データに基づいて、
前記第1の撮影系の撮影面と前記第2の撮影系の撮影面
との間での前記物体上の同一点からの光が入射する画素
位置どうしを対応づける第1マッチング手段と、前記参
照光を投射せずに前記物体を前記第1及び第2の撮影系
によって撮影したときの撮影データに基づいて、前記第
1の撮影系の撮影面と前記第2の撮影系の撮影面との間
での前記物体上の同一点からの光が入射する画素位置ど
うしを対応づける第2マッチング手段と、前記第1の撮
影系の撮影面における各画素について、前記第1マッチ
ング手段によって得られた対応関係及び前記第2マッチ
ング手段によって得られた対応関係の一方を選択する選
択手段とを有し、前記選択手段によって選択された対応
関係で決まる前記第1及び第2の位置のそれぞれでの受
光角度に応じたデータを前記物体の位置情報として出力
する3次元入力装置である。
According to a first aspect of the present invention, there is provided an apparatus for projecting a reference beam from a starting point toward an object to be scanned so as to scan an object to be inputted, and an apparatus for photographing the object at a first position. A first photographing system, a second photographing system for photographing the object at a second position away from the first position, and projecting the reference light to project the object into the first and second images. Based on the shooting data when shooting at the same time with the shooting system of
First matching means for associating pixel positions where light from the same point on the object is incident between the imaging surface of the first imaging system and the imaging surface of the second imaging system; and Based on photographing data when the object is photographed by the first and second photographing systems without projecting light, a photographing surface of the first photographing system and a photographing surface of the second photographing system are compared. Second matching means for associating pixel positions where light from the same point on the object is incident between the first and second imaging means, and each pixel on an imaging surface of the first imaging system is obtained by the first matching means. Selecting means for selecting one of the correspondence and the correspondence obtained by the second matching means, and receiving light at each of the first and second positions determined by the correspondence selected by the selection means Depends on the angle It is a three-dimensional input device which outputs the data as the positional information of the object.

【0009】請求項2の発明の3次元入力装置におい
て、前記選択手段は、前記第1マッチング手段によって
得られた対応関係及び前記第2マッチング手段によって
得られた対応関係のうち、信頼度の大きい方を選択す
る。
In the three-dimensional input device according to the second aspect of the present invention, the selecting means has a higher reliability among the correspondence obtained by the first matching means and the correspondence obtained by the second matching means. Choose one.

【0010】請求項3の発明の3次元入力装置におい
て、前記選択手段は、前記第1マッチング手段によって
得られた対応関係の信頼度が第1基準値より小さく、且
つ前記第2マッチング手段によって得られた対応関係の
信頼度が第2基準値より大きい場合のみにおいて、前記
第2マッチング手段によって得られた対応関係を選択す
る。
[0010] In the three-dimensional input device according to the third aspect of the present invention, the selecting means is configured such that the reliability of the correspondence obtained by the first matching means is smaller than a first reference value, and the reliability is obtained by the second matching means. Only when the reliability of the obtained correspondence is larger than the second reference value, the correspondence obtained by the second matching means is selected.

【0011】請求項4の発明の3次元入力装置は、前記
選択手段によって選択された対応関係が、前記第1マッ
チング手段及び前記第2マッチング手段のどちらによっ
て得られたかを示す識別データを、前記データと対応づ
けて出力する。
According to a fourth aspect of the present invention, in the three-dimensional input device, the identification data indicating which of the first matching means and the second matching means the correspondence selected by the selecting means is obtained. Output in association with the data.

【0012】請求項5の発明の3次元入力装置は、前記
第1マッチング手段によって得られた対応関係で決まる
前記第1及び第2の位置のそれぞれでの受光角度に応じ
たデータを出力する第1モードと、前記選択手段によっ
て選択された対応関係で決まる前記第1及び第2の位置
のそれぞれでの受光角度に応じたデータを出力する第2
モードと、前記第2マッチング手段によって得られた対
応関係で決まる前記第1及び第2の位置のそれぞれでの
受光角度に応じたデータを出力する第3モードとが設け
られ、これらのうちの任意の1つを動作モードとして選
択するものである。
According to a fifth aspect of the present invention, there is provided a three-dimensional input device for outputting data corresponding to a light receiving angle at each of the first and second positions determined by the correspondence obtained by the first matching means. A second mode for outputting data corresponding to a light receiving angle at each of the first mode and the first position determined by the correspondence selected by the selection unit;
And a third mode for outputting data corresponding to the light receiving angle at each of the first and second positions determined by the correspondence obtained by the second matching means. Is selected as the operation mode.

【0013】[0013]

【発明の実施の形態】図1は本発明に係る3次元入力装
置1の機能ブロック図である。3次元入力装置1は、ス
リット光Uを投射する投光系10と、同一構成の2個の
撮影系20A,20Bと、同一構成の2個の受光信号処
理部30A,30Bとを有している。
FIG. 1 is a functional block diagram of a three-dimensional input device 1 according to the present invention. The three-dimensional input device 1 includes a light projecting system 10 that projects slit light U, two imaging systems 20A and 20B having the same configuration, and two light reception signal processing units 30A and 30B having the same configuration. I have.

【0014】投光系10は、光源としての半導体レーザ
12、ビーム整形のためのレンズ群13、及び投射角度
を変更するビーム偏向手段としてのガルバノミラー14
からなり、撮影系20A,20Bの中間に配置されてい
る。レンズ群13は、コリメータレンズとシリンドリカ
ルレンズとで構成される。ガルバノミラー14には、投
光制御回路32からD/A変換器33を介して偏向制御
信号が与えられる。
The light projecting system 10 includes a semiconductor laser 12 as a light source, a lens group 13 for beam shaping, and a galvanomirror 14 as beam deflecting means for changing a projection angle.
And is arranged in the middle of the imaging systems 20A and 20B. The lens group 13 includes a collimator lens and a cylindrical lens. The galvanomirror 14 is provided with a deflection control signal from the light projection control circuit 32 via the D / A converter 33.

【0015】撮影系20Aは、受光レンズ21、ビーム
スプリッタ22、スリット光Uで照射された物体Qを撮
影して距離画像を得るためのイメージセンサ24A、物
体Qのカラー撮影のためのカラーイメージセンサ25
A、及びズーミングとフォーカシングとを可能にするレ
ンズ駆動機構26からなる。ビームスプリッタ22は、
半導体レーザ12の発光波長域(例えば中心波長685
nm)の光と可視光とを分離する。同様に撮影系20B
も受光レンズ21、ビームスプリッタ22、イメージセ
ンサ24B、カラーイメージセンサ25B、及びレンズ
駆動機構26からなる。イメージセンサ24A,24B
及びカラーイメージセンサ25A,25Bは2次元撮像
デバイス(エリアセンサ)である。これらセンサとし
て、CCDセンサ、CMOSセンサを使用することがで
きる。
The photographing system 20A includes a light receiving lens 21, a beam splitter 22, an image sensor 24A for photographing the object Q irradiated with the slit light U to obtain a distance image, and a color image sensor for photographing the object Q in color. 25
A, and a lens drive mechanism 26 that enables zooming and focusing. The beam splitter 22
The emission wavelength range of the semiconductor laser 12 (for example, center wavelength 685
nm) and visible light. Similarly, the shooting system 20B
Also, it comprises a light receiving lens 21, a beam splitter 22, an image sensor 24B, a color image sensor 25B, and a lens driving mechanism 26. Image sensors 24A, 24B
The color image sensors 25A and 25B are two-dimensional imaging devices (area sensors). As these sensors, a CCD sensor or a CMOS sensor can be used.

【0016】各イメージセンサ24A,24Bの出力は
A/D変換器35で所定ビット数の受光データに変換さ
れ、逐次にメモリ回路37に転送される。メモリ回路3
7では受光データの値に応じて後述の受光角度θA,θ
Bを特定する時間重心TA,TBが記憶される。カラー
イメージセンサ25の出力はA/D変換器36で受光デ
ータに変換され、カラー画像メモリ38によって逐次に
記憶される。記憶されたカラー画像はステレオ視法によ
る3次元入力に用いられる。メモリ回路37及びカラー
画像メモリ38のアドレス指定はメモリ制御回路39が
担う。
The outputs of the image sensors 24A and 24B are converted into light receiving data of a predetermined number of bits by an A / D converter 35, and are sequentially transferred to a memory circuit 37. Memory circuit 3
7, a light receiving angle θA, θ described later according to the value of the light receiving data.
The time centers of gravity TA and TB specifying B are stored. The output of the color image sensor 25 is converted into light receiving data by an A / D converter 36, and is sequentially stored by a color image memory 38. The stored color image is used for three-dimensional input by stereo vision. Addressing of the memory circuit 37 and the color image memory 38 is performed by the memory control circuit 39.

【0017】3次元入力装置1を制御するCPU31は
制御対象に適時に指示を与える。また、CPU31は、
受光信号処理部30A,30Bのそれぞれのメモリ回路
37から時間重心TA,TBを取り込むとともに、2個
の画像メモリ38のそれぞれからカラー画像を読み出
し、2種のマッチング処理を行って距離データを生成す
る。距離データは適時に3次元入力データとして図示し
ない外部装置に出力される。その際、受光信号処理部3
0A,30Bの少なくとも一方のカラー画像メモリ38
によって記憶されているカラー画像も参考情報として出
力される。外部装置としては、コンピュータ、ディスプ
レイ、記憶装置などがある。CPU31には、後述の時
間重心画像どうしのマッチングを行うブロック311、
カラー画像どうしのマッチングを行うブロック312、
及び2種のマッチングの結果の一方を選択するブロック
313の各機能を実現するデータ処理プログラムが組み
込まれている。
The CPU 31 for controlling the three-dimensional input device 1 gives an instruction to the control target in a timely manner. Further, the CPU 31
The time centroids TA and TB are fetched from the respective memory circuits 37 of the light receiving signal processing units 30A and 30B, and a color image is read from each of the two image memories 38 to perform two types of matching processing to generate distance data. . The distance data is output to a not-shown external device as three-dimensional input data as appropriate. At this time, the light receiving signal processing unit 3
0A and / or 30B color image memory 38
Is also output as reference information. The external device includes a computer, a display, a storage device, and the like. The CPU 31 includes a block 311 for performing matching between temporal centroid images described later,
A block 312 for matching between color images,
And a data processing program for realizing each function of the block 313 for selecting one of the two types of matching results.

【0018】3次元入力装置1においては、距離データ
の生成に関して3つのモードが設けられている。第1モ
ードでは、時間重心画像のマッチングの結果のみに基づ
いて距離データを得る。第2モードでは、時間重心画像
のマッチングの結果及びカラー画像のマッチングの結果
の一方を所定条件に則して選択して距離データを得る。
第3モードでは、カラー画像のマッチングの結果のみに
基づいて距離データを得る。これらモードは物体の形状
や配色などに応じて適宜選択される。例えば、物体の色
が一様な場合は、カラー画像のマッチングの信頼性は低
いので、第1モードが適している。逆に参照光の反射率
が低い物体の場合は、時間重心画像のマッチングの信頼
性は低いので、第3モードが適している。また、反射率
の異なる部分が混在する物体の場合は、第2モードが適
している。
The three-dimensional input device 1 is provided with three modes for generating distance data. In the first mode, distance data is obtained based only on the result of matching of the time-center-of-gravity images. In the second mode, distance data is obtained by selecting one of the result of matching of the temporal barycenter image and the result of matching of the color image in accordance with a predetermined condition.
In the third mode, distance data is obtained based only on the result of color image matching. These modes are appropriately selected according to the shape and color arrangement of the object. For example, when the color of an object is uniform, the reliability of color image matching is low, so the first mode is suitable. Conversely, in the case of an object having a low reflectance of the reference light, the third mode is suitable because the reliability of matching of the temporal barycenter image is low. The second mode is suitable for an object in which portions having different reflectivities are mixed.

【0019】CPU31はモード指定部51の状態判別
によって指定モードを検知する。モード指定部51とし
ては、操作パネル、操作パネルとは別に設けられたディ
ップスイッチ、遠隔操作のためのインタフェースなどが
ある。
The CPU 31 detects the designated mode by determining the state of the mode designating section 51. The mode designation unit 51 includes an operation panel, a dip switch provided separately from the operation panel, an interface for remote operation, and the like.

【0020】図2は投射の模式図である。3次元入力装
置1は、ガルバノミラー14の反射面上の点を起点Cと
して仮想面VSを走査するようにスリット光Uを投射す
る。仮想面VSは、イメージセンサ24で撮影可能な空
間(画角内の範囲)の奥行き方向と直交する断面に相当
する。そして、仮想面VSのうちのイメージセンサ24
A,24Bにおける各画素に対応した範囲agが、3次
元入力のサンプリング区画となる。図2においては、投
光の起点C、及び視点(受光の主点)A,Bが一直線上
に配置されており、起点Cの位置は視点A,Bの中間で
ある。ここで、視点A,Bは垂直方向に沿って並び、ス
リット光Uのスリット長さ方向は水平方向であるものと
する。
FIG. 2 is a schematic diagram of the projection. The three-dimensional input device 1 projects the slit light U so as to scan the virtual surface VS with a point on the reflection surface of the galvanometer mirror 14 as a starting point C. The virtual plane VS corresponds to a cross section orthogonal to the depth direction of the space (range within the angle of view) that can be photographed by the image sensor 24. Then, the image sensor 24 of the virtual surface VS
A range ag corresponding to each pixel in A and 24B is a sampling section for three-dimensional input. In FIG. 2, a starting point C of light projection and viewpoints (principal points of light reception) A and B are arranged on a straight line, and the position of the starting point C is intermediate between the viewpoints A and B. Here, the viewpoints A and B are arranged along the vertical direction, and the slit length direction of the slit light U is the horizontal direction.

【0021】図3は時間重心の説明図である。3次元入
力装置1は、撮像面S2上でのスリット幅がピッチpv
で並ぶ画素gの複数個分となる比較的に幅の広いスリッ
ト光Uを物体Qに投射する。具体的にはスリット光Uの
幅を5画素分程度とする。スリット光Uは起点Cを中心
に図の上下方向に等角速度で偏向される。物体Qで反射
したスリット光Uは結像の主点A(ズームレンズの後側
主点)を通って撮像面S2に入射する。スリット光Uの
投射中に撮像面S2の各画素gの受光量を周期的にサン
プリングすることにより、物体Q(厳密には物体像)が
走査される。サンプリング周期(撮像周期)毎にイメー
ジセンサ24A,24Bから1フレーム分の光電変換信
号が出力される。
FIG. 3 is an explanatory diagram of the time center of gravity. In the three-dimensional input device 1, the slit width on the imaging surface S2 has a pitch pv
A relatively wide slit light U corresponding to a plurality of pixels g arranged in a row is projected on the object Q. Specifically, the width of the slit light U is set to about 5 pixels. The slit light U is deflected around the starting point C at a constant angular velocity in the vertical direction in the figure. The slit light U reflected by the object Q passes through the principal point A of imaging (the principal point on the rear side of the zoom lens) and enters the imaging surface S2. The object Q (strictly speaking, an object image) is scanned by periodically sampling the amount of light received by each pixel g on the imaging surface S2 during the projection of the slit light U. One frame of photoelectric conversion signal is output from the image sensors 24A and 24B for each sampling cycle (imaging cycle).

【0022】物体Qの表面が平面であって光学系の特性
によるノイズがないものとすると、撮像面S2の各画素
gの受光量は、当該画素gがにらむ範囲(厳密にはその
中心)の物体表面agをスリット光Uの光軸が通過する
時点で最大となり、その時間的な分布は正規分布に近く
なる。図3では撮像面S2における垂直方向のj番目の
画素gj が注目され、その受光量の推移が図3(b)に
示されている。図3(b)の例ではn回目のサンプリン
グ時点Tn とその1つ前の(n−1)回目のサンプリン
グ時点Tn-1 との間で受光量が最大になっている。この
ように注目した1つの画素gにおける受光量が最大にな
る時点、すなわち輝度分布曲線の頂上付近の変曲点を
“時間重心”と定義する。ただし、離散的なサンプリン
グデータの大小判別による時間重心の検出では、検出結
果(図3の例では時点Tn )と実際の時間重心との間に
最大でサンプリング周期の1/2のずれが生じる。
Assuming that the surface of the object Q is flat and there is no noise due to the characteristics of the optical system, the amount of light received by each pixel g on the imaging surface S2 is within the range (strictly, the center) of the pixel g. It becomes maximum when the optical axis of the slit light U passes through the object surface ag, and its temporal distribution is close to a normal distribution. In FIG. 3, attention is paid to the j-th pixel g j in the vertical direction on the imaging surface S2, and the transition of the amount of received light is shown in FIG. Received light amount between the n-th sampling time T n and the preceding (n-1) th sampling time T n-1 in the example of FIG. 3 (b) is the largest. The point at which the amount of received light in one pixel g of interest in this manner is maximized, that is, the inflection point near the top of the luminance distribution curve is defined as "time barycenter". However, in the detection of the time barycenter by discriminating the magnitude of the discrete sampling data, there is a maximum shift of サ ン プ リ ン グ of the sampling period between the detection result (time point T n in the example of FIG. 3) and the actual time barycenter. .

【0023】ここで、主点Aと撮像面S2の各画素gと
の位置関係から、各画素gに対するスリット光Uの入射
角度が一義的に決まる。したがって、時間重心は、「特
定の角度(これを受光角度θAという)でスリット光U
が主点Aに入射する時刻」ということもできる。
Here, the incident angle of the slit light U with respect to each pixel g is uniquely determined from the positional relationship between the principal point A and each pixel g on the imaging surface S2. Therefore, the time barycenter is “the slit light U at a specific angle (this is called the light receiving angle θA).
At the time of incidence on the principal point A ".

【0024】図4は投射角度情報によらない距離画像の
生成要領を説明するための図、図5は時間重心画像どう
しのマッチングの模式図である。投射角度情報によらな
い物体Qの3次元入力の概要は次のとおりである。
FIG. 4 is a diagram for explaining a method of generating a distance image that does not depend on projection angle information, and FIG. 5 is a schematic diagram of matching between time centroid images. The outline of the three-dimensional input of the object Q not depending on the projection angle information is as follows.

【0025】第1モード及び第2モードではスリット光
Uを投射し、2個のイメージセンサ24によるフレーム
周期の撮影に同期させてガルバノミラー14の偏向角を
制御する。このとき、2個のイメージセンサ24A,2
4Bを同一タイミングで駆動する。つまり、物体Qを視
点A,Bから同時に撮影する。そして、各イメージセン
サ24A,24Bの各画素が、刻々と偏向されていくス
リット光Uのどの時点の投射により照らされたかを検知
する。
In the first mode and the second mode, the slit light U is projected, and the deflection angle of the galvanometer mirror 14 is controlled in synchronization with the photographing of the two image sensors 24 at the frame period. At this time, the two image sensors 24A, 2A
4B are driven at the same timing. That is, the object Q is photographed simultaneously from the viewpoints A and B. Then, each pixel of each of the image sensors 24A and 24B is detected at which point in time the projection of the slit light U deflected by the moment is illuminated.

【0026】一方のイメージセンサ24Aの出力に基づ
いて、撮影面S2の各画素gについて時間重心TAを検
出し、検出結果の集合である時間重心画像GAをメモリ
に記録する。このとき、撮像面S2の水平方向(主走査
方向)の画素位置を示す水平アドレスiと、垂直方向の
画素位置を示す垂直アドレスjとによって個々の時間重
心TAを記録するメモリ空間を指定する。同様に、他方
のイメージセンサ24Bの出力に基づいて、撮影面S2
の各画素gについて時間重心TBを検出し、検出結果の
集合である時間重心画像GBをメモリに記録する。
Based on the output of one image sensor 24A, a time barycenter TA is detected for each pixel g on the photographing surface S2, and a time barycenter image GA, which is a set of detection results, is recorded in a memory. At this time, a memory space for recording each time barycenter TA is specified by a horizontal address i indicating a pixel position in the horizontal direction (main scanning direction) of the imaging surface S2 and a vertical address j indicating a pixel position in the vertical direction. Similarly, based on the output of the other image sensor 24B, the photographing surface S2
, A time barycenter TB is detected for each pixel g, and a time barycenter image GB, which is a set of detection results, is recorded in the memory.

【0027】一方のイメージセンサ24Aにおける水平
方向iA番目で垂直方向jA番目の画素giAjAに注目す
ると、画素giAjAに対応した視線上の点Pをスリット光
Uが通過する際にその出力が最大となる。このとき、他
方のイメージセンサ24Bの出力に注目すると、点Pを
通る視線に対応した画素giBjBの出力が最大となる。こ
こで、時間重心画像GAと時間重心画像GBとについ
て、垂直方向にエピポラー拘束が成り立っているとする
と、画素giAjAの水平方向位置iAに対して、画素g
iBjBの水平方向位置iBは一意に決まる。また、画素g
iAjAの垂直方向位置jAに対する画素giBjBの垂直方向
位置jBは、時間重心画像GB中の水平方向位置iBの
画素列のうち、画素giAjAの出力が最大となった時刻と
同時刻に出力が最大となった画素を見つければ判る。し
たがって、イメージセンサ24A,24Bの各画素の出
力が最大となる時刻である時間重心TAiAjA,TBiBjB
を把握すれば、時間重心画像GAの各画素に対応する時
間重心画像GBの画素を見つけ出すことができる。
Focusing on the pixel g iAjA of the iA-th horizontal direction and the jA-th vertical direction in one image sensor 24A, when the slit light U passes through a point P on the line of sight corresponding to the pixel g iAjA , the output becomes maximum. Becomes At this time, paying attention to the output of the other image sensor 24B, the output of the pixel giBjB corresponding to the line of sight passing through the point P becomes the maximum. Here, assuming that the epipolar constraint is established in the vertical direction with respect to the temporal center-of-gravity image GA and the temporal center-of-gravity image GB, the pixel g iAjA and the pixel g
The horizontal position iB of iBjB is uniquely determined. Also, the pixel g
vertical position jB pixel g IBjB for vertical position jA of IAjA, among the pixel columns in the horizontal direction position iB time centroid in the image GB, output time and the time at which the output of the pixel g IAjA becomes maximum You can tell if you find the largest pixel. Therefore, the time centroids TA iAjA , TB iBjB , which are the times at which the output of each pixel of the image sensors 24A, 24B is maximum.
, It is possible to find out the pixel of the temporal centroid image GB corresponding to each pixel of the temporal centroid image GA.

【0028】点Pが時間重心画像GAの画素giAjAに対
応するとき、画素giAjAの位置で決まる受光角度θA
iAjAと視点Aの空間座標とによって特定される直線上に
点Pが存在することになる。同様に点Pが時間重心画像
GBの画素giBjBに対応するとき、画素giBjBの位置で
決まる受光角度θBiBjBと視点Bの空間座標とによって
特定される直線上に点Pが存在することになる。つま
り、これら2つの直線の交点が点Pである。したがっ
て、受光角度θAiBjB,θBiBjB及び基線長Lに基づい
て、三角測量の原理を適用して、視点A,Bを通る基線
と点Pとの奥行き方向の距離DiAjAを算出することがで
き、視点A,Bと点Pとの相対位置を特定することがで
きる。そして、以上の処理を時間重心画像GAの各画素
gについて行えば、物体Qについて画素数分のサンプリ
ング点の3次元位置情報(距離画像)が得られる。
When the point P corresponds to the pixel g iAjA of the time barycenter image GA, the light receiving angle θA determined by the position of the pixel g iAjA
The point P exists on a straight line specified by iAjA and the spatial coordinates of the viewpoint A. Similarly when the point P corresponds to the pixel g IBjB time centroid image GB, to the presence of a point P on the line specified by the spatial coordinates of the light receiving angle .theta.B IBjB and viewpoint B determined by the position of the pixel g IBjB Become. That is, the point of intersection of these two straight lines is point P. Therefore, based on the light receiving angles θA iBjB , θB iBjB and the base length L, the distance Di AjA in the depth direction between the base line passing through the viewpoints A and B and the point P can be calculated by applying the principle of triangulation. , The relative position between the viewpoints A and B and the point P can be specified. Then, if the above processing is performed for each pixel g of the temporal center-of-gravity image GA, three-dimensional position information (distance images) of sampling points of the object Q for the number of pixels can be obtained.

【0029】次に、時間重心TA,TBを検出するため
の回路の具体的な構成を説明する。なお、以下では画素
位置の区別が必要な場合を除いて、画素位置を表す添字
iAjAiBjBの記述を省略する。
Next, a specific configuration of a circuit for detecting the time centroids TA and TB will be described. In the following, a subscript representing a pixel position is used unless it is necessary to distinguish the pixel position.
The description of iAjA and iBjB is omitted.

【0030】図6はメモリ回路の第1例のブロック図で
ある。例示のメモリ回路37は、2個のメモリ371,
376、比較器377、及びインデックスジェネレータ
378から構成されている。
FIG. 6 is a block diagram of a first example of the memory circuit. The example memory circuit 37 includes two memories 371,
376, a comparator 377, and an index generator 378.

【0031】メモリ371にはA/D変換器35から受
光データD35が入力され、メモリ376にはインデッ
クスジェネレータ378からフレーム番号Tが入力され
る。。比較器377は、イメージセンサ24の画素毎に
最新の入力データであるt番目のフレームの受光データ
D35と以前にメモリ371に書き込まれた受光データ
D35とを比較し、最新の受光データD35が以前の受
光データD35より大きい場合にメモリ371,376
に対して書込みを許可する。これを受けて各メモリ37
1,376は上書き形式で最新の入力データを記憶す
る。比較結果が逆の場合は各メモリ371,376にお
いて以前の記憶内容が保持される。したがって、走査が
終了した時点において、メモリ371は各画素g毎に受
光データD35の最大値を記憶し、メモリ376は各画
素毎に受光データD35が最大となったフレームの番号
Tを記憶することになる。各フレームの撮影は一定周期
で行われるので、フレーム番号Tは走査期間中の時刻
(走査開始からの経過時間)を表す。つまり、メモリ3
76が記憶するフレーム番号Tは上述の時間重心TAiA
jA,TBiBjBに相当し、受光角度θAiAjA,θBiBjB
対応を特定する情報である。
The memory 371 receives data from the A / D converter 35.
The optical data D35 is input, and the
Frame number T is input from the
You. . The comparator 377 is provided for each pixel of the image sensor 24.
Received data of the t-th frame that is the latest input data
D35 and received light data previously written to memory 371
D35 is compared with the latest received light data D35.
When the data is larger than the optical data D35, the memories 371 and 376
Write is permitted for. In response to this, each memory 37
1,376 stores the latest input data in an overwrite format
You. When the comparison result is reversed, the data is stored in each of the memories 371 and 376.
And the previous stored contents are retained. Therefore, the scan
At the time of completion, the memory 371 receives the data for each pixel g.
The maximum value of the optical data D35 is stored.
The number of the frame in which the received light data D35 is maximum for each element
T will be stored. Shooting of each frame is a fixed cycle
, The frame number T is the time during the scanning period.
(Elapsed time from the start of scanning). That is, the memory 3
The frame number T stored in 76 is the time barycenter TA described above.iA
jA, TBiBjBAnd the light receiving angle θAiAjA, ΘBiBjBof
This is information for specifying the correspondence.

【0032】この例によれば、比較的に簡単な回路構成
によって時間重心TAiAjA,TBiB jBを検知することが
できる。ただし、検知の分解能はイメージセンサ24の
撮影周期に依存する。分解能の向上を図ったものが次の
第2例である。
According to this example, a relatively simple circuit configuration
By time center of gravity TAiAjA, TBiB jBCan detect
it can. However, the resolution of the detection is
Depends on the shooting cycle. The resolution improvement is as follows.
This is a second example.

【0033】図7はメモリ回路の第2例のブロック図、
図8は撮影面における輝度分布と受光データとの関係を
示す図である。図7において図6に対応した要素には図
6と同一の符号を付してある。
FIG. 7 is a block diagram of a second example of the memory circuit.
FIG. 8 is a diagram showing the relationship between the luminance distribution on the photographing surface and the received light data. 7, the elements corresponding to FIG. 6 are denoted by the same reference numerals as in FIG.

【0034】第2例のメモリ回路37bは、メモリ37
1に加えてそれと同サイズの4個のメモリ372,37
3,374,375を設け、計4個の1フレームディレ
イメモリ379a〜dを介在させて各メモリ372〜3
75のデータ入力をメモリ371に対して順に1フレー
ムずつ遅らせるように構成したものである。すなわち、
メモリ回路37bでは、各画素gについて連続した5フ
レームの受光データD35が同時に記憶される。比較器
377は、入力が2フレーム遅れの第3番目のメモリ3
73の入力と出力とを比較する。メモリ373の入力デ
ータ値が出力データ値(以前に書き込まれたデータ値)
より大きい場合に、メモリ371〜375及びメモリ3
76の書込みが許可される。
The memory circuit 37b of the second example includes a memory 37
1 plus 4 memories 372, 37 of the same size
3, 374, and 375, and each of the memories 372 to 3 is provided with a total of four 1-frame delay memories 379a to 379d.
The configuration is such that 75 data inputs are sequentially delayed one frame at a time with respect to the memory 371. That is,
In the memory circuit 37b, five consecutive frames of light receiving data D35 for each pixel g are simultaneously stored. The comparator 377 has a third memory 3 whose input is delayed by two frames.
Compare the 73 inputs and outputs. The input data value of the memory 373 is the output data value (the previously written data value)
If larger, the memory 371 to 375 and the memory 3
76 writes are allowed.

【0035】各走査が終了した時点において、メモリ3
73は各画素g毎に受光データD35の最大値を記憶す
ることになる。また、メモリ371,372,374,
375によって、受光データD35が最大となったフレ
ームの2つ前、1つ前、1つ後、2つ後の計4フレーム
の受光データD35が記憶されることになる。そして、
メモリ376は、各画素g毎に受光データD35が最大
となったフレームの番号Tを記憶することになる。
At the end of each scan, the memory 3
Reference numeral 73 stores the maximum value of the light receiving data D35 for each pixel g. Also, the memories 371, 372, 374,
With 375, the received light data D35 of two frames before, one before, one after, and two after the frame where the received light data D35 is maximum are stored. And
The memory 376 stores the number T of the frame in which the light receiving data D35 is maximum for each pixel g.

【0036】ここで、図8(a)のように、撮影面に結
像したスリット光像の幅が5画素分であり、輝度分布が
単一峰の山状であるものとする。このとき、1つの画素
gに注目すると、図8(b)のように輝度分布に応じた
変化の受光データが得られる。したがって、メモリ37
1〜375に記憶されている5フレーム分の受光データ
D35に基づいて重心演算を行うことにより、フレーム
周期(つまり画素ピッチ)よりも細かな刻みで時間重心
TA,TBを算出することができる。図8(b)の例で
は、時間重心TA(TB)はt回目と(t+1)回目の
サンプリング時刻間にある。
Here, as shown in FIG. 8A, it is assumed that the width of the slit light image formed on the photographing surface is 5 pixels and the luminance distribution is a single-peak mountain-like shape. At this time, paying attention to one pixel g, light reception data of a change corresponding to the luminance distribution is obtained as shown in FIG. Therefore, the memory 37
By performing the center of gravity calculation based on the light receiving data D35 for five frames stored in 1 to 375, the time centers of gravity TA and TB can be calculated in finer increments than the frame period (that is, the pixel pitch). In the example of FIG. 8B, the time barycenter TA (TB) is between the t-th and (t + 1) -th sampling times.

【0037】この第2例によれば分解能が向上するが、
輝度分布によっては所望の精度が得られないという問題
がある。すなわち、実際の撮影では、光学系の特性など
に起因して結像に何らかのノイズが加わる。このため、
輝度分布に複数のピークが生じたり、平坦でピークの不
明瞭な輝度分布となったりする。輝度分布が理想形状か
ら大きく外れると、重心演算の信頼性が低下する。
According to the second example, the resolution is improved.
There is a problem that desired accuracy cannot be obtained depending on the luminance distribution. That is, in actual shooting, some noise is added to the image due to the characteristics of the optical system and the like. For this reason,
A plurality of peaks are generated in the luminance distribution, or the luminance distribution is flat and the peaks are unclear. If the luminance distribution deviates greatly from the ideal shape, the reliability of the center-of-gravity calculation decreases.

【0038】このようなノイズの影響は、輝度の最大値
が得られたフレームとその前後の各数フレームを合わせ
た程度の短い期間ではなく、十分に長い期間の輝度分布
に基づいて重心演算を行うことによって低減することが
できる。それを実現するのが次の第3例である。
The influence of such noise is caused by the calculation of the center of gravity based on the luminance distribution in a sufficiently long period, not in a period as short as the sum of the frame in which the maximum value of luminance is obtained and several frames before and after the frame. By doing so, it can be reduced. This is realized in the following third example.

【0039】図9はメモリ回路の第3例のブロック図、
図10は図9に係る重心の概念図である。第3例のメモ
リ回路37cは、メモリ3710、定常光データ記憶部
3720、減算部3730、第1加算部3740、第2
加算部3750、及び除算部3760から構成され、各
画素g毎にフレーム数分の受光データD35に基づいて
時間重心を算出する。
FIG. 9 is a block diagram of a third example of the memory circuit.
FIG. 10 is a conceptual diagram of the center of gravity according to FIG. The memory circuit 37c of the third example includes a memory 3710, a steady light data storage unit 3720, a subtraction unit 3730, a first addition unit 3740, and a second
It comprises an adder 3750 and a divider 3760, and calculates the time centroid based on the light receiving data D35 for the number of frames for each pixel g.

【0040】メモリ3710は、物体Qに対する走査で
得られた所定数qのフレームの受光データD35を記憶
する。各画素gのT番目(T=1〜q)のフレームの受
光データ値をxT と表す。定常光データ記憶部3720
は、スリット光U以外の不要入射光量を表す定常光デー
タを記憶する。定常光データはスリット光Uが入射して
いないときの受光データD35に基づいて算出される。
その値sは、予め定めた固定値でもよいし、受光データ
D35を用いてリアルタイムで求めてもよい。固定値と
する場合には、受光データD35が8ビット(256階
調)である場合に、例えば「5」「6」又は「10」な
どとする。減算部3730は、メモリ3710から読み
出された受光データD35の値xT から定常光データの
値sを差し引く。ここで、減算部3730からの出力デ
ータの値をあらためてXT とする。第1加算部3740
は、画素g毎にq個の受光データD35について、それ
ぞれの値XT とそれに対応したフレーム番号Tとの乗算
を行い、得られた積の合計値を出力する。第2加算部3
750は、画素g毎にq個の受光データD35の値XT
の総和を出力する。除算部3760は、第1加算部37
40の出力値を第2加算部3750の出力値で除し、得
られた時間重心TA,TBを出力する。
The memory 3710 stores light reception data D35 of a predetermined number q of frames obtained by scanning the object Q. The light receiving data values of a frame of T th pixel g (T = 1 to q) is represented as x T. Stationary light data storage unit 3720
Stores steady light data representing the amount of unnecessary incident light other than the slit light U. The steady light data is calculated based on the received light data D35 when the slit light U is not incident.
The value s may be a predetermined fixed value, or may be obtained in real time using the received light data D35. In the case of a fixed value, when the light receiving data D35 is 8 bits (256 gradations), for example, "5", "6", or "10" is used. Subtraction unit 3730 subtracts the value s of the stationary light data from the value x T of the light reception data D35 read from the memory 3710. Here, the value of the output data from the subtraction unit 3730 is set to X T again. First adder 3740
, For the q received light data D35 for each pixel g, performs multiplication of each value X T and the frame number T corresponding thereto, and outputs the sum of the resulting product. Second adder 3
750 is a value X T of q light receiving data D35 for each pixel g.
Output the sum of The division unit 3760 includes the first addition unit 37
The output value of 40 is divided by the output value of second adder 3750, and the obtained time centroids TA and TB are output.

【0041】以上の3次元入力はスリット光投影法を用
いるものであったが、ステレオ視法を用いて投射角度情
報によらない3次元入力を行うこともできる。図11は
カラー画像どうしのマッチングの説明図である。
Although the above-described three-dimensional input uses the slit light projection method, a three-dimensional input that does not depend on projection angle information can be performed by using a stereo vision method. FIG. 11 is an explanatory diagram of matching between color images.

【0042】第2モード及び第3モードでは、スリット
光Uを投射せずにせずに視点A,Bから物体Qのカラー
撮影を行う。一方のカラーイメージセンサ25Aで撮影
したカラー画像CAと、他方のカラーイメージセンサ2
5Bで撮影したカラー画像CBとの間で垂直方向にエピ
ポラー拘束が成り立っているとすると、カラー画像CA
中の画素PA(iA,jA)の対応点であるカラー画像
CB中の画素PB’(iB,jB’)の探索方向は、画
素PAの水平方向位置iAに対して水平方向位置iBと
一意に決まる。なお、イメージセンサ24A,24Bと
カラーイメージセンサ25A,25Bとで画像サイズと
各画素が一致しているものとする。カラー画像間の対応
点探索には、周知の相関法を用いる。ここで、その内容
を簡単に説明する。
In the second and third modes, color photographing of the object Q is performed from the viewpoints A and B without projecting the slit light U. A color image CA captured by one color image sensor 25A and another color image sensor 2
Assuming that an epipolar constraint is established in the vertical direction between the color image CB and the color image CB taken in 5B, the color image CA
The search direction of the pixel PB ′ (iB, jB ′) in the color image CB, which is the corresponding point of the pixel PA (iA, jA) in the middle, is unique to the horizontal position iB with respect to the horizontal position iA of the pixel PA. Decided. It is assumed that the image size and each pixel of the image sensors 24A and 24B and the color image sensors 25A and 25B match. A well-known correlation method is used for searching for corresponding points between color images. Here, the contents will be briefly described.

【0043】図12は相関の一般例を示す図、図13は
信頼度値の一例を示す図である。相関法では、画像の局
所的パターンを比較することにより、画素の対応づけを
行う。カラー画像CAの注目画素PAについて、それを
中心とするウインドウWを設定し、カラー画像CBの探
索方向に沿った画素列(水平方向位置iBの画素列上)
における各画素を中心とするウインドウWとの類似度を
調べる。ウインドウWについては、例えば3×3,5×
5,3×5というように奇数×奇数の構成の適切なサイ
ズを選定する。カラー画像CBのウインドウWのうち、
類似度が最も高く、且つ相関曲線のピーク形状が十分に
急峻なウインドウWの中心画素PB’(iB,jB’)
を注目画素PAの対応点とする。
FIG. 12 is a diagram showing a general example of correlation, and FIG. 13 is a diagram showing an example of a reliability value. In the correlation method, pixels are associated by comparing local patterns of images. For the target pixel PA of the color image CA, a window W is set around the target pixel PA, and a pixel column along the search direction of the color image CB (on the pixel column at the horizontal position iB)
Is checked for the similarity with the window W centered on each pixel. For the window W, for example, 3 × 3, 5 ×
An appropriate size of an odd × odd configuration such as 5, 3 × 5 is selected. Of the window W of the color image CB,
The center pixel PB ′ (iB, jB ′) of the window W having the highest similarity and having a sufficiently sharp correlation curve peak shape.
Is the corresponding point of the target pixel PA.

【0044】ここでは、類似度の評価に、いわゆる相関
値を用いる。相関値Sは次式によって計算される。
Here, a so-called correlation value is used for evaluating the similarity. The correlation value S is calculated by the following equation.

【0045】[0045]

【数1】 相関値Sは、「−1〜+1」の範囲内にあり、「1」に
近いほど、両ウィンドウWの類似度が高い。対応点は、
図12のような曲線のピークを探すことにより決定す
る。相関値Sが広い範囲にわたって一定であれば、それ
は画像パターンが変化しないことを意味し、たとえ相関
値が大きくても、対応点は特定できない。また、ピーク
が存在しても、ピークの相関値が十分に大きくない場合
は、ピーク位置の画素を対応点に決定するのは不適切で
ある。ピークが存在し、ピークの相関値Sが十分に大き
い場合に、注目画素PA(iA,jA)の対応点として
画素PB’(iB,jB’)を決定する。ここで、信頼
度値RC を次のようにして決定する。ピークが存在して
いないときには定数「0」を、ピークが存在していると
きには定数「1」を相関値に乗じて信頼度値とする。こ
のとき負の値を示すものは強制的に「0」にする。
(Equation 1) The correlation value S is in the range of “−1 to +1”, and the closer to “1”, the higher the similarity between the two windows W. The corresponding points are
It is determined by searching for the peak of the curve as shown in FIG. If the correlation value S is constant over a wide range, it means that the image pattern does not change. Even if the correlation value is large, the corresponding point cannot be specified. Also, even if a peak exists, if the correlation value of the peak is not sufficiently large, it is inappropriate to determine the pixel at the peak position as the corresponding point. When a peak exists and the correlation value S of the peak is sufficiently large, the pixel PB ′ (iB, jB ′) is determined as a corresponding point of the target pixel PA (iA, jA). Here, the reliability value RC is determined as follows. When a peak does not exist, a constant “0” is multiplied by a constant “1” when a peak exists, and the result is used as a reliability value. At this time, a value indicating a negative value is forcibly set to “0”.

【0046】上述したCPU31の機能要素であって本
発明の選択手段に相当するブロック313(図1参照)
は、ブロック311が時間重心画像どうしのマッチング
で求めた対応点についての相関値ST から算出される信
頼度値RT と、ブロック312がカラー画像どうしのマ
ッチングで求めた対応点についての相関値SC とから算
出される信頼度値RC とを比較し、より「1」に近い値
を示した方を対応点として選択する。本実施形態では、
時間重心画像どうしのマッチングには、相関法を用いて
いないので、相関値ST に定数「1」を乗じて信頼度値
T とし、ここで負の値を示すものは強制的に「0」に
する。また、対応点が見つからなかったときも信頼度値
T を強制的に「0」にする。又は、信頼度値RT があ
らかじめ設定された基準値Raより小さく且つ信頼度値
C があらかじめ設定された基準値Rbより大きいとき
のみ、カラー画像どうしのマッチングで求めた対応点を
選択するように構成する。
A block 313 (see FIG. 1) which is a functional element of the CPU 31 and corresponds to the selecting means of the present invention.
Has a confidence value R T, which is calculated from the correlation value S T of the corresponding points block 311 is determined by the matching of the time center between images, the correlation values for corresponding points block 312 is determined by the matching of each other color image S C and the reliability value R C calculated from S C are compared, and the one showing a value closer to “1” is selected as the corresponding point. In this embodiment,
The matching time center between images, is not used a correlation method, the correlation value S T is multiplied by the constant "1" as the reliability value R T in here indicates a negative value forced "0 ". Also, when no corresponding point is found, the reliability value RT is forcibly set to "0". Alternatively, only when the reliability value R T is smaller than a predetermined reference value Ra and the reliability value R C is larger than a predetermined reference value Rb, a corresponding point obtained by matching between color images is selected. To be configured.

【0047】このような対応点の選択を、イメージセン
サ24Aの撮影面S2(画素配列はカラーイメージセン
サ25Aと同一)の画素毎に行うことにより、スリット
光投影法とステレオ視法とを併用することになり、両者
の長所を生かして距離データDの信頼度を高めることが
できる。
By selecting such a corresponding point for each pixel of the photographing surface S2 (the pixel arrangement is the same as that of the color image sensor 25A) of the image sensor 24A, the slit light projection method and the stereo vision method are used together. That is, the reliability of the distance data D can be enhanced by taking advantage of both.

【0048】図14は3次元入力装置1の概略の動作を
示すフローチャートである。上述の第3モードであるカ
ラーモードが指定されている場合は、投射を行わずに撮
影系20A,20Bによる物体Qのカラー撮影を行い
(#1、#2)、カラー画像CAの各画素に対応するカ
ラー画像CBの画素を探索する(#3)。そして、この
カラー画像どうしのマッチングの結果に基づいて距離デ
ータDを算出して出力する(#4)。ここでの出力は、
外部装置へのデータ伝送、又は装置内のメモリへの記録
(データ蓄積)を意味する。
FIG. 14 is a flowchart showing the general operation of the three-dimensional input device 1. When the color mode, which is the third mode described above, is designated, color imaging of the object Q is performed by the imaging systems 20A and 20B without performing projection (# 1, # 2), and each pixel of the color image CA is A corresponding pixel of the color image CB is searched (# 3). Then, distance data D is calculated and output based on the result of matching between the color images (# 4). The output here is
It means data transmission to an external device or recording (data storage) in a memory in the device.

【0049】ステップ#1のモード判別でカラーモード
でない場合は、半導体レーザ12及びガルバノミラー1
4をオンして走査を開始する(#5)。視点A,Bでの
撮影で得られた受光データD35を記録する(#6)。
走査が終わって半導体レーザ12をオフにした後、投射
を行わずに撮影系20A,20Bにより物体Qのカラー
撮影を行う(#7、#8)。そして、再びモード判別を
行う(#9)。
If it is determined in step # 1 that the mode is not the color mode, the semiconductor laser 12 and the galvanomirror 1
4 is turned on to start scanning (# 5). The light receiving data D35 obtained by photographing at the viewpoints A and B is recorded (# 6).
After the scanning is completed and the semiconductor laser 12 is turned off, color imaging of the object Q is performed by the imaging systems 20A and 20B without performing projection (# 7, # 8). Then, the mode is determined again (# 9).

【0050】第2モードである対応点選択モードが指定
されている場合は、時間重心画像GA,GBどうしのマ
ッチングを行って対応の信頼度値RT を算出するととも
に、カラー画像CA,CBどうしのマッチングを行って
対応の信頼度値RC を算出する(#10、#11)。そ
して、信頼度値RT ,RC を比較し、上述の要領で画素
毎に一方の対応づけを選択する(#12)。その後、カ
ラーモードの場合と同様に距離データDを算出して出力
する(#4)。ただし、対応点選択モードでは、どちら
のマッチングの結果に基づく距離データDであるかを示
す識別データDsを距離データDに付加して出力する。
When the corresponding point selection mode, which is the second mode, is designated, the temporal center-of-gravity images GA and GB are matched to calculate the corresponding reliability value RT , and the color images CA and CB are combined. And the corresponding reliability value RC is calculated (# 10, # 11). Then, the reliability values R T and R C are compared, and one of the associations is selected for each pixel as described above (# 12). Thereafter, the distance data D is calculated and output as in the case of the color mode (# 4). However, in the corresponding point selection mode, identification data Ds indicating which matching result is the distance data D is added to the distance data D and output.

【0051】ステップ#9で対応点選択モードでない場
合、すなわち第1モードが指定されている場合は、時間
重心画像GA,GBどうしのマッチングの結果に基づい
て距離データDを算出して出力する(#13、#4)。
If the mode is not the corresponding point selection mode in step # 9, that is, if the first mode is designated, the distance data D is calculated and output based on the result of matching between the temporal centroid images GA and GB ( # 13, # 4).

【0052】なお、カラー画像を参考情報として出力し
ない構成とする場合は、ステップ#9のモード判別とス
テップ#8のカラー撮影との順序を入れ替え、第1モー
ドのときにはカラー撮影を行わないようにしてもよい。
When the color image is not output as the reference information, the order of the mode discrimination in step # 9 and the color photographing in step # 8 is changed so that the color photographing is not performed in the first mode. You may.

【0053】図15は投光と受光との位置関係の設定例
を示す図である。投光系10及び受光系20の配置にお
いては、必ずしも投光の起点C及び受光の主点(視点)
A,Bが一直線上に並ぶ図15(a)又は(b)のよう
な構成にする必要はない。例えば、物体側からみて3個
の点A,B,CがL字状に並ぶ図15(c)の構成、T
字状に並ぶ図15(d)の構成を採用してもよい。特
に、図15(b)又は(d)のように視点Aと視点Bと
の間に起点Cを配置すれば、視点A,Bと起点Cとが異
なることにより発生するオクルージョンを軽減すること
ができる。その際には投光の起点Cと各視点A,Bとの
距離dを等しくするのが好ましい。
FIG. 15 is a diagram showing an example of setting the positional relationship between light projection and light reception. In the arrangement of the light projecting system 10 and the light receiving system 20, the starting point C of light projection and the main point (viewpoint) of light reception are not necessarily required.
It is not necessary to adopt a configuration as shown in FIG. 15A or 15B in which A and B are aligned. For example, when the three points A, B, and C are arranged in an L-shape when viewed from the object side, the configuration of FIG.
The configuration of FIG. 15D arranged in a character shape may be adopted. In particular, if the starting point C is arranged between the viewpoint A and the viewpoint B as shown in FIG. 15B or 15D, occlusion generated due to the difference between the viewpoints A and B and the starting point C can be reduced. it can. In this case, it is preferable to make the distance d between the projection point C and each of the viewpoints A and B equal.

【0054】[0054]

【発明の効果】請求項1乃至請求項5の発明によれば、
参照光の投射角度情報によらない3次元入力が実現され
て、投射角度制御の精度に係わらず高精度の3次元入力
データを得ることが可能になるとともに、データの信頼
性を高めることができる。
According to the first to fifth aspects of the present invention,
A three-dimensional input that does not depend on the projection angle information of the reference light is realized, so that highly accurate three-dimensional input data can be obtained regardless of the accuracy of the projection angle control, and the reliability of the data can be improved. .

【0055】請求項5の発明によれば、動作モードの多
様化による実用性の向上を図ることができる。
According to the fifth aspect of the present invention, the practicality can be improved by diversifying the operation modes.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る3次元入力装置の機能ブロック図
である。
FIG. 1 is a functional block diagram of a three-dimensional input device according to the present invention.

【図2】投射の模式図である。FIG. 2 is a schematic diagram of projection.

【図3】時間重心の説明図である。FIG. 3 is an explanatory diagram of a time center of gravity.

【図4】投射角度情報によらない距離画像の生成要領を
説明するための図である。
FIG. 4 is a diagram for explaining a method of generating a distance image that does not depend on projection angle information.

【図5】時間重心画像どうしのマッチングの模式図であ
る。
FIG. 5 is a schematic diagram of matching between time centroid images.

【図6】メモリ回路の第1例のブロック図である。FIG. 6 is a block diagram of a first example of a memory circuit.

【図7】メモリ回路の第2例のブロック図である。FIG. 7 is a block diagram of a second example of the memory circuit.

【図8】撮影面における輝度分布と受光データとの関係
を示す図である。
FIG. 8 is a diagram illustrating a relationship between a luminance distribution on a photographing surface and received light data.

【図9】メモリ回路の第3例のブロック図である。FIG. 9 is a block diagram of a third example of the memory circuit.

【図10】図9に係る重心の概念図である。FIG. 10 is a conceptual diagram of a center of gravity according to FIG. 9;

【図11】カラー画像どうしのマッチングの説明図であ
る。
FIG. 11 is an explanatory diagram of matching between color images.

【図12】相関の一般例を示す図である。FIG. 12 is a diagram illustrating a general example of correlation.

【図13】信頼度値の一例を示す図である。FIG. 13 is a diagram illustrating an example of a reliability value.

【図14】3次元入力装置1の概略の動作を示すフロー
チャートである。
FIG. 14 is a flowchart showing a schematic operation of the three-dimensional input device 1.

【図15】投光と受光との位置関係の設定例を示す図で
ある。
FIG. 15 is a diagram illustrating a setting example of a positional relationship between light projection and light reception.

【符号の説明】[Explanation of symbols]

Q 物体 1 3次元入力装置 C 起点 U スリット光(参照光) 10 投光系 A 視点(第1の位置) B 視点(第2の位置) 20A,20B 撮影系 D35 受光データ(撮影データ) CA,CB カラー画像(撮影データ) 311 ブロック(第1マッチング手段) 312 ブロック(第2マッチング手段) 313 ブロック(選択手段) TA,TB 時間重心 θA,θB 受光角度 D 距離データ(位置情報) Ra 基準値 Rb 基準値 51 モード指定部 Ds 識別データ Q Object 1 3D input device C Starting point U Slit light (reference light) 10 Projection system A Viewpoint (first position) B Viewpoint (second position) 20A, 20B Imaging system D35 Light reception data (imaging data) CA, CB color image (photographing data) 311 blocks (first matching means) 312 blocks (second matching means) 313 blocks (selection means) TA, TB time center of gravity θA, θB light receiving angle D distance data (position information) Ra reference value Rb Reference value 51 Mode specification part Ds identification data

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06F 15/62 415 Fターム(参考) 2F065 AA04 AA53 BB05 DD06 FF01 FF02 FF05 FF09 GG06 HH05 JJ03 JJ05 JJ26 LL06 LL08 LL13 LL62 MM16 QQ01 QQ03 QQ24 QQ25 QQ26 QQ27 QQ29 QQ31 QQ36 QQ38 QQ41 2H059 AA07 AA18 5B057 BA02 BA11 BA21 CA13 CB13 CC01 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G06F 15/62 415 F Term (Reference) 2F065 AA04 AA53 BB05 DD06 FF01 FF02 FF05 FF09 GG06 HH05 JJ03 JJ05 JJ26 LL06 LL08 LL08 LL13 LL62 MM16 QQ01 QQ03 QQ24 QQ25 QQ26 QQ27 QQ29 QQ31 QQ36 QQ38 QQ41 2H059 AA07 AA18 5B057 BA02 BA11 BA21 CA13 CB13 CC01

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】入力対象の物体を走査するように起点から
前記物体に向かって参照光を投射する投光系と、 第1の位置で前記物体を撮影するための第1の撮影系
と、 前記第1の位置から離れた第2の位置で前記物体を撮影
するための第2の撮影系と、 前記参照光を投射して前記物体を前記第1及び第2の撮
影系によって同時に撮影したときの撮影データに基づい
て、前記第1の撮影系の撮影面と前記第2の撮影系の撮
影面との間での前記物体上の同一点からの光が入射する
画素位置どうしを対応づける第1マッチング手段と、 前記参照光を投射せずに前記物体を前記第1及び第2の
撮影系によって撮影したときの撮影データに基づいて、
前記第1の撮影系の撮影面と前記第2の撮影系の撮影面
との間での前記物体上の同一点からの光が入射する画素
位置どうしを対応づける第2マッチング手段と、 前記第1の撮影系の撮影面における各画素について、前
記第1マッチング手段によって得られた対応関係及び前
記第2マッチング手段によって得られた対応関係の一方
を選択する選択手段とを有し、 前記選択手段によって選択された対応関係で決まる前記
第1及び第2の位置のそれぞれでの受光角度に応じたデ
ータを前記物体の位置情報として出力することを特徴と
する3次元入力装置。
A projection system for projecting reference light from an origin to the object so as to scan an object to be input; a first imaging system for imaging the object at a first position; A second photographing system for photographing the object at a second position distant from the first position, and the object is simultaneously photographed by the first and second photographing systems by projecting the reference light. Pixel positions where light from the same point on the object is incident between the imaging surface of the first imaging system and the imaging surface of the second imaging system based on the imaging data at that time. First matching means, based on photographing data when the object is photographed by the first and second photographing systems without projecting the reference light,
A second matching unit that associates pixel positions where light from the same point on the object is incident between the imaging surface of the first imaging system and the imaging surface of the second imaging system; and Selecting means for selecting one of the correspondence obtained by the first matching means and the correspondence obtained by the second matching means for each pixel on the imaging surface of the first imaging system; A data corresponding to a light receiving angle at each of the first position and the second position determined by the correspondence selected according to the information as position information of the object.
【請求項2】前記選択手段は、前記第1マッチング手段
によって得られた対応関係及び前記第2マッチング手段
によって得られた対応関係のうち、信頼度の大きい方を
選択する請求項1記載の3次元入力装置。
2. The method according to claim 1, wherein said selecting means selects one of the correspondence obtained by said first matching means and the correspondence obtained by said second matching means having a higher reliability. Dimension input device.
【請求項3】前記選択手段は、前記第1マッチング手段
によって得られた対応関係の信頼度が第1基準値より小
さく、且つ前記第2マッチング手段によって得られた対
応関係の信頼度が第2基準値より大きい場合のみにおい
て、前記第2マッチング手段によって得られた対応関係
を選択する請求項1記載の3次元入力装置。
3. The method according to claim 2, wherein the reliability of the correspondence obtained by the first matching means is smaller than a first reference value, and the reliability of the correspondence obtained by the second matching means is a second reliability. The three-dimensional input device according to claim 1, wherein the correspondence obtained by the second matching means is selected only when the value is larger than a reference value.
【請求項4】前記選択手段によって選択された対応関係
が、前記第1マッチング手段及び前記第2マッチング手
段のどちらによって得られたかを示す識別データを、前
記データと対応づけて出力する請求項1乃至請求項3の
いずれかに記載の3次元入力装置。
4. An identification data indicating which of the first matching means and the second matching means has obtained the correspondence selected by the selecting means is output in association with the data. The three-dimensional input device according to claim 3.
【請求項5】前記第1マッチング手段によって得られた
対応関係で決まる前記第1及び第2の位置のそれぞれで
の受光角度に応じたデータを出力する第1モードと、前
記選択手段によって選択された対応関係で決まる前記第
1及び第2の位置のそれぞれでの受光角度に応じたデー
タを出力する第2モードと、前記第2マッチング手段に
よって得られた対応関係で決まる前記第1及び第2の位
置のそれぞれでの受光角度に応じたデータを出力する第
3モードとが設けられ、これらのうちの任意の1つを動
作モードとして選択する請求項1乃至請求項4のいずれ
かに記載の3次元入力装置。
5. A first mode for outputting data corresponding to a light receiving angle at each of the first and second positions determined by the correspondence obtained by the first matching means, and a mode selected by the selecting means. A second mode for outputting data corresponding to the light receiving angle at each of the first and second positions determined by the corresponding relationship, and the first and second modes determined by the corresponding relationship obtained by the second matching means. 5. A third mode for outputting data corresponding to the light receiving angle at each of the positions is provided, and any one of these is selected as an operation mode. 6. 3D input device.
JP10881499A 1999-04-16 1999-04-16 3D input device Expired - Fee Related JP3991501B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10881499A JP3991501B2 (en) 1999-04-16 1999-04-16 3D input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10881499A JP3991501B2 (en) 1999-04-16 1999-04-16 3D input device

Publications (2)

Publication Number Publication Date
JP2000304508A true JP2000304508A (en) 2000-11-02
JP3991501B2 JP3991501B2 (en) 2007-10-17

Family

ID=14494190

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10881499A Expired - Fee Related JP3991501B2 (en) 1999-04-16 1999-04-16 3D input device

Country Status (1)

Country Link
JP (1) JP3991501B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002170100A (en) * 2000-11-30 2002-06-14 Olympus Optical Co Ltd Inter-image correspondence searching device and inter- image correspondence searching method
JP2007033264A (en) * 2005-07-27 2007-02-08 Noritsu Koki Co Ltd Device and method for taking identity picture
JP2009002912A (en) * 2007-06-25 2009-01-08 Nippon Steel Corp Method and device for measuring 3-dimensional profile of luminescent object
CN102939562A (en) * 2010-05-19 2013-02-20 深圳泰山在线科技有限公司 Object projection method and object projection sysytem
JP2018004357A (en) * 2016-06-29 2018-01-11 キヤノン株式会社 Information processor, method for controlling information processor, and program
CN108932752A (en) * 2017-05-24 2018-12-04 富士施乐株式会社 The method of editing device and editor's three-dimensional shape data for three-dimensional shape data
JP2020514713A (en) * 2016-12-27 2020-05-21 ジェラルド ディルク スミッツ System and method for machine perception
US11531257B2 (en) 2007-10-10 2022-12-20 Gerard Dirk Smits Method, apparatus, and manufacture for a tracking camera or detector with fast asynchronous triggering
US11714170B2 (en) 2015-12-18 2023-08-01 Samsung Semiconuctor, Inc. Real time position sensing of objects
US11829059B2 (en) 2020-02-27 2023-11-28 Gerard Dirk Smits High resolution scanning of remote objects with fast sweeping laser beams and signal recovery by twitchy pixel array
US12025807B2 (en) 2018-04-13 2024-07-02 Gerard Dirk Smits System and method for 3-D projection and enhancements for interactivity

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002170100A (en) * 2000-11-30 2002-06-14 Olympus Optical Co Ltd Inter-image correspondence searching device and inter- image correspondence searching method
JP2007033264A (en) * 2005-07-27 2007-02-08 Noritsu Koki Co Ltd Device and method for taking identity picture
JP2009002912A (en) * 2007-06-25 2009-01-08 Nippon Steel Corp Method and device for measuring 3-dimensional profile of luminescent object
US11531257B2 (en) 2007-10-10 2022-12-20 Gerard Dirk Smits Method, apparatus, and manufacture for a tracking camera or detector with fast asynchronous triggering
CN102939562A (en) * 2010-05-19 2013-02-20 深圳泰山在线科技有限公司 Object projection method and object projection sysytem
US11714170B2 (en) 2015-12-18 2023-08-01 Samsung Semiconuctor, Inc. Real time position sensing of objects
JP2018004357A (en) * 2016-06-29 2018-01-11 キヤノン株式会社 Information processor, method for controlling information processor, and program
JP2020514713A (en) * 2016-12-27 2020-05-21 ジェラルド ディルク スミッツ System and method for machine perception
US11709236B2 (en) 2016-12-27 2023-07-25 Samsung Semiconductor, Inc. Systems and methods for machine perception
JP7329444B2 (en) 2016-12-27 2023-08-18 ジェラルド ディルク スミッツ Systems and methods for machine perception
CN108932752B (en) * 2017-05-24 2023-06-13 富士胶片商业创新有限公司 Editing apparatus for three-dimensional shape data and method of editing three-dimensional shape data
CN108932752A (en) * 2017-05-24 2018-12-04 富士施乐株式会社 The method of editing device and editor's three-dimensional shape data for three-dimensional shape data
US12025807B2 (en) 2018-04-13 2024-07-02 Gerard Dirk Smits System and method for 3-D projection and enhancements for interactivity
US11829059B2 (en) 2020-02-27 2023-11-28 Gerard Dirk Smits High resolution scanning of remote objects with fast sweeping laser beams and signal recovery by twitchy pixel array

Also Published As

Publication number Publication date
JP3991501B2 (en) 2007-10-17

Similar Documents

Publication Publication Date Title
KR20200071960A (en) Method and Apparatus for Vehicle Detection Using Lidar Sensor and Camera Convergence
CN113034612B (en) Calibration device, method and depth camera
JP2000304508A (en) Three-dimensional input device
JP4193342B2 (en) 3D data generator
JPS6215479A (en) Auto tracking distance measuring instrument
CN113160416B (en) Speckle imaging device and method for coal flow detection
JP2000283721A (en) Three-dimensional input device
JPH09145318A (en) Three-dimensional measuring equipment
JPH10124646A (en) Three-dimensional measuring device
US10685448B2 (en) Optical module and a method for objects' tracking under poor light conditions
JP3221384B2 (en) 3D coordinate measuring device
US6297881B1 (en) Three-dimensional measurement method and three-dimensional measurement device
JPH109853A (en) Distance-measuring type omnibearing visual sensor
JP4158300B2 (en) 3D input method and 3D input device
JP3324367B2 (en) 3D input camera
JP4032556B2 (en) 3D input device
CN112804439A (en) Device and method for adaptively shooting moving target
JPH11223516A (en) Three dimensional image pickup device
JPH0252204A (en) Measuring instrument for three-dimensional coordinate
JP2000088539A (en) Method and apparatus for three-dimensional inputting
JP3525712B2 (en) Three-dimensional image capturing method and three-dimensional image capturing device
JP2000171222A (en) Method and device for three-dimensional input
JP2731681B2 (en) 3D measurement system
JPH09145319A (en) Method and equipment for three-dimensional measurement
JP2000171223A (en) Three-dimensional input device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050615

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20050704

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050922

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070703

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070716

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100803

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110803

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120803

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120803

Year of fee payment: 5

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130803

Year of fee payment: 6

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees