JP2001183120A - Method and device for three-dimensional input - Google Patents

Method and device for three-dimensional input

Info

Publication number
JP2001183120A
JP2001183120A JP36611499A JP36611499A JP2001183120A JP 2001183120 A JP2001183120 A JP 2001183120A JP 36611499 A JP36611499 A JP 36611499A JP 36611499 A JP36611499 A JP 36611499A JP 2001183120 A JP2001183120 A JP 2001183120A
Authority
JP
Japan
Prior art keywords
light
reflected
slit
positions
dimensional input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP36611499A
Other languages
Japanese (ja)
Other versions
JP4158300B2 (en
Inventor
Akira Yahashi
暁 矢橋
Hidekazu Ide
英一 井手
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP36611499A priority Critical patent/JP4158300B2/en
Publication of JP2001183120A publication Critical patent/JP2001183120A/en
Application granted granted Critical
Publication of JP4158300B2 publication Critical patent/JP4158300B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain three-dimensional input data depending upon variance in the sensitivity between pixels of a photodetection device by actualizing three- dimensional input which does not use projection angle information of slit lights. SOLUTION: Slit lights which have mutually different irradiation patterns for an object body Q to be inputted are projected on the object body at the same time or divisionally plural times so that the object body is scanned, reflected lights of the slit lights reflected by the body Q are photodetected at 1st and 2nd positions which are distant from each other at the same time, and the position relations among positions of the body Q is calculated from the photodetection angles of the reflected lights reflected at the respective positions act the 1st and 2nd positions and the distance between the 1st and 2nd positions.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、物体にスリット光
を投射して物体を走査し、物体形状に応じたデータを得
る3次元入力方法及び3次元入力装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional input method and a three-dimensional input device for projecting slit light onto an object to scan the object and obtain data corresponding to the shape of the object.

【0002】[0002]

【従来の技術】非接触型の3次元入力装置は、接触型に
比べて高速の計測が可能であることから、CGシステム
やCADシステムへのデータ入力、身体計測、ロボット
の視覚認識などに利用されている。
2. Description of the Related Art A non-contact type three-dimensional input device is capable of measuring at a higher speed than a contact type, and is used for data input to a CG system or a CAD system, body measurement, visual recognition of a robot, and the like. Have been.

【0003】物体を光学的に走査して形状情報を得る能
動的計測方法としてスリット光投影法(光切断法ともい
う)が知られている。一般に、スリット光投影法で用い
られるスリット光のビームの断面は直線帯状である。走
査中のある時点では物体の一部が照射され、撮像面には
照射部分の起伏に応じて曲がった輝線が現れる。したが
って、走査中に周期的に撮像面の各画素の輝度をサンプ
リングすることにより、物体形状を特定する一群のデー
タ(3次元入力データ)を得ることができる。
[0003] A slit light projection method (also referred to as a light cutting method) is known as an active measurement method for obtaining shape information by optically scanning an object. Generally, the cross section of the slit light beam used in the slit light projection method is a straight band. At a certain point during the scanning, a part of the object is irradiated, and a bright line that is curved according to the undulation of the irradiated part appears on the imaging surface. Accordingly, a group of data (three-dimensional input data) for specifying the object shape can be obtained by periodically sampling the luminance of each pixel on the imaging surface during scanning.

【0004】従来においては、撮像面内の輝線の位置に
基づいて、物体で反射して撮像面に入射したスリット光
の入射角度を求め、その入射角度と当該スリット光の投
射角度と基線長(投射の起点と受光基準点との距離)と
から三角測量の手法で物体の位置を算出していた。つま
り、スリット光の投射方向と受光方向とに基づいて位置
演算が行われていた。
Conventionally, the incident angle of slit light reflected by an object and incident on the imaging surface is determined based on the position of the bright line in the imaging surface, and the incident angle, the projection angle of the slit light, and the base line length ( The position of the object is calculated from the distance between the projection start point and the light receiving reference point) by triangulation. That is, the position calculation is performed based on the projection direction and the light receiving direction of the slit light.

【0005】[0005]

【発明が解決しようとする課題】従来においては、3次
元入力データの精度がスリット光の投射角度制御の精度
に依存し、このために十分に高い精度の3次元入力デー
タが得られなかったり、精度を確保するために高価な部
品を用いなければならなかったり、投光系の取付け姿勢
の調整に手間がかかったりするという問題があった。精
度の確保が難しい理由としては、投光系はスリット光を
偏向する可動機構を有しており、その動作は温度、湿度
などの使用環境の変化の影響を受け易いことが挙げられ
る。
Conventionally, the accuracy of three-dimensional input data depends on the accuracy of control of the projection angle of the slit light. For this reason, three-dimensional input data with sufficiently high accuracy cannot be obtained. There have been problems that expensive components must be used to ensure accuracy, and that it takes time to adjust the mounting posture of the light projecting system. The reason why it is difficult to ensure the accuracy is that the light projecting system has a movable mechanism for deflecting the slit light, and its operation is easily affected by changes in the use environment such as temperature and humidity.

【0006】なお、パターン光投影を行うステレオ視測
距装置においては、エピポーラ拘束された複数の画像の
特徴点のマッチングによって複数の視点からみた物体位
置の方位が求められ、それらの方位に基づいて三角測量
の手法で物体位置が算出される。この3次元入力方法で
は、3次元入力データの精度がパターン光投射の精度に
は依存しないものの、マッチングの精度に依存する。受
光デバイスの画素間の感度のばらつきもマッチングに影
響する。
In a stereo vision ranging apparatus that performs pattern light projection, the orientation of an object position viewed from a plurality of viewpoints is obtained by matching feature points of a plurality of epipolar-constrained images, and based on those orientations. The object position is calculated by a triangulation method. In this three-dimensional input method, the accuracy of three-dimensional input data does not depend on the accuracy of pattern light projection, but depends on the accuracy of matching. Variations in sensitivity between pixels of the light receiving device also affect matching.

【0007】本発明は、スリット光の投射角度情報を用
いない3次元入力を実現し、投射角度制御の精度及び受
光デバイスの画素間の感度のばらつきに係わらず高精度
の3次元入力データを得ることを目的としている。
The present invention realizes three-dimensional input without using the projection angle information of the slit light, and obtains high-precision three-dimensional input data irrespective of the accuracy of projection angle control and the variation in sensitivity between pixels of the light receiving device. It is intended to be.

【0008】[0008]

【課題を解決するための手段】本発明においては、本出
願人が既に提案した3次元入力方法(特願平10−25
7870号)を適用し、検出光としてのスリット光で部
分的に照らされた状態の物体を互いに離れた2点のそれ
ぞれを視点として撮像し、視点間の距離と各視点からみ
た物体上の照射部分の方位(視点どうしを結ぶ直線に対
する傾き)とから三角測量の手法で照射部分の位置を算
出する。
According to the present invention, a three-dimensional input method (Japanese Patent Application No. 10-25 / 1998) already proposed by the present applicant has been proposed.
No. 7870), an object partially illuminated with slit light as detection light is imaged as two points apart from each other as viewpoints, and the distance between the viewpoints and the irradiation on the object viewed from each viewpoint. The position of the irradiated part is calculated from the azimuth of the part (inclination with respect to the straight line connecting the viewpoints) by a triangulation method.

【0009】加えて、本発明においては、ビーム断面形
状が異なり又は偏向方向(走査方向)に対する傾きが異
なるといった、照射パターンの異なる2以上のスリット
光を同時に又は時間的にずらして投射する。
In addition, in the present invention, two or more slit lights having different irradiation patterns, such as different beam cross-sectional shapes or different inclinations with respect to the deflection direction (scanning direction), are simultaneously or temporally shifted.

【0010】単一のスリット光のみで物体を走査する場
合、2つの視点の撮像面について、スリット像の通過時
刻が同一であって且つステレオ視におけるエピポーラ拘
束条件を満たす画素どうしを対応点とする。通常、エピ
ポーラ拘束条件はモデルを基にに解析学的に求める。実
際の装置とモデルとの違いは撮像系のキャリブレーショ
ンにより補正する。撮像系の光軸、イメージセンサの位
置や姿勢に関する補正は可能である。しかし、レンズの
歪曲収差やレンズ個体毎の歪み(加工や組み立て誤差に
起因する)については補正できない。このため、3次元
入力に誤差が生じる。
In the case where an object is scanned only by a single slit light, pixels having the same slit image passing time and satisfying the epipolar constraint condition in stereo vision are set as corresponding points on the imaging planes of the two viewpoints. . Usually, the epipolar constraint is analytically determined based on the model. The difference between the actual device and the model is corrected by calibration of the imaging system. It is possible to correct the optical axis of the imaging system and the position and orientation of the image sensor. However, it is not possible to correct distortion of the lens and distortion of each lens (due to processing and assembly errors). For this reason, an error occurs in the three-dimensional input.

【0011】これに対して、照射パターンの異なる複数
のスリット光を投射して物体を走査する場合は、エピポ
ーラ拘束条件下での対応点探索を行わなくてもよく、撮
像系の位置ずれを補正してエピポーラ拘束条件を満たす
ために撮影像の平行化処理を行う必要もない。
On the other hand, when an object is scanned by projecting a plurality of slit lights having different irradiation patterns, it is not necessary to search for a corresponding point under epipolar constraint conditions, and the positional deviation of the imaging system is corrected. In addition, it is not necessary to perform the parallelization processing of the captured image in order to satisfy the epipolar constraint condition.

【0012】図1及び図2は本発明の原理説明図であ
る。ここでは、互いに傾きの異なる直線帯状の第1及び
第2のスリット光U1,U2を順に用いて、計2回の走
査を行うものとする。
FIG. 1 and FIG. 2 are explanatory diagrams of the principle of the present invention. Here, it is assumed that scanning is performed a total of two times using the first and second slit lights U1 and U2 in the form of straight bands having different inclinations from each other.

【0013】図1(a)において、スリット光U1の長
さ方向は水平方向であり、物体Qはスリット光U1を垂
直方向に偏向することにより走査される。走査に同期し
てフレーム周期毎に物体Qが撮影される。各撮影時点に
おいて、垂直方向に並ぶ撮像面SA,SBには、物体Q
における走査位置の起伏に応じたスリット像u1A,u
1Bがそれぞれ結像する。また、図1(b)において、
スリット光U2の長さ方向は垂直方向であり、物体Qは
スリット光U2を水平方向に偏向することにより走査さ
れる。この走査においても、撮像面SA,SBには物体
Qにおける走査位置の起伏に応じたスリット像u2A,
u2Bがそれぞれ結像する。
In FIG. 1A, the length direction of the slit light U1 is horizontal, and the object Q is scanned by deflecting the slit light U1 in the vertical direction. The object Q is photographed every frame period in synchronization with the scanning. At each photographing time point, the object Q
Images u1A, u corresponding to the undulation of the scanning position at
1B respectively form an image. Also, in FIG.
The length direction of the slit light U2 is the vertical direction, and the object Q is scanned by deflecting the slit light U2 in the horizontal direction. Also in this scan, the slit images u2A, u2A,
u2B forms an image.

【0014】第1の走査中に撮像面SAの各画素をスリ
ット像が通過した時刻を示す時間重心画像GA1を求
め、同様に撮像面SBについても時間重心画像GB1を
求める。また、第2の走査についても、各撮像面SA,
SBに対応した時間重心画像GA2,GB2を求める。
なお、本明細書において、時間重心画像とは、単純に各
画素の受光量が最大となる時期を検出して得た輝度ピー
ク時刻画像を含み、重心演算で得られるものに限らな
い。
A time barycenter image GA1 indicating the time when the slit image passes through each pixel of the image pickup surface SA during the first scan is obtained, and a time barycenter image GB1 is similarly obtained for the image pickup surface SB. Also, for the second scan, each imaging surface SA,
Time barycenter images GA2 and GB2 corresponding to SB are obtained.
In this specification, the time barycenter image includes a luminance peak time image obtained by simply detecting a time when the amount of received light of each pixel becomes maximum, and is not limited to a barycenter calculation.

【0015】図2のように、例えば第1の走査で得られ
た時間重心画像GA1のある画素g(ia列,ja行)
に注目する。この画素gが物体Qの点Pに対応している
とする。画素gの輝度ピーク時刻を示す値がT1である
とすると、時間重心画像GB1における点Pに対応した
画素の値もT1である。なぜなら、時間重心画像GA
1,GB1は同時に撮影された情報に基づいているから
である。注目画素gの対応点の候補は、時間重心画像G
B1の画素のうちの値がT1の画素に絞られる。同様
に、第2の走査で得られた時間重心画像GA2のia列
ja行の画素gに注目する。画素gの輝度ピーク時刻を
示す値がT2であるとすると、時間重心画像GB2にお
ける点Pに対応した画素の値もT2である。注目画素g
の対応点の候補は、時間重心画像GB2の画素のうちの
値がT2の画素に絞られる。
As shown in FIG. 2, for example, a certain pixel g (column ia, row ja) of the temporal barycenter image GA1 obtained in the first scan
Pay attention to. It is assumed that the pixel g corresponds to the point P of the object Q. Assuming that the value indicating the luminance peak time of the pixel g is T1, the value of the pixel corresponding to the point P in the time barycenter image GB1 is also T1. Because the time center of gravity image GA
This is because GB1 and GB1 are based on information captured simultaneously. The candidate for the corresponding point of the pixel of interest g is the temporal centroid image G
The value of the pixels of B1 is narrowed down to the pixels of T1. Similarly, attention is paid to the pixel g in the ia column and the ja row of the temporal center-of-gravity image GA2 obtained in the second scan. Assuming that the value indicating the luminance peak time of the pixel g is T2, the value of the pixel corresponding to the point P in the time barycenter image GB2 is also T2. Attention pixel g
Are narrowed down to pixels having a value of T2 among the pixels of the temporal barycenter image GB2.

【0016】したがって、時間重心画像GB1と時間重
心画像GB2とで共通の候補(ib列jb行の画素
g’)が、注目画素gの対応点となる。各画素について
の受光角度はレンズ中心と画素位置との関係で一義的に
定まるので、対応点が見つかれば三角測量の手法で点P
の位置を算出することができる。なお、対応点検出の精
度をさらに向上させるために、3組以上の時間重心画像
を使用してもよい。
Therefore, a common candidate (pixel g ′ in ib column and jb row) between the time barycenter image GB1 and the time barycenter image GB2 is a corresponding point of the target pixel g. Since the light receiving angle for each pixel is uniquely determined by the relationship between the lens center and the pixel position, if a corresponding point is found, the point P is determined by triangulation.
Can be calculated. Note that, in order to further improve the accuracy of the corresponding point detection, three or more sets of temporal centroid images may be used.

【0017】請求項1の発明の方法は、入力対象の物体
に向かってそれを走査するように検出光を投射し、前記
物体で反射した前記検出光である反射光を、互いに離れ
た第1及び第2の位置で同時に受光し、前記物体におけ
る複数の部位の位置関係を、各部位で反射した反射光に
ついての前記第1及び第2の位置での受光角度と、前記
第1及び第2の位置どうしの距離とに基づいて算出する
3次元入力方法であって、前記検出光として、前記物体
に対する照射パターンが互いに異なる複数のスリット光
を投射し、前記複数のスリット光のそれぞれに対応した
受光データに基づいて、前記各部位で反射した反射光に
ついての前記第1及び第2の位置での受光角度を特定す
るものである。
According to the first aspect of the present invention, the detection light is projected toward an object to be input so as to scan the object, and the reflected light, which is the detection light reflected by the object, is reflected by the first separated light. And the light receiving angles at the first and second positions with respect to the reflected light reflected at each part, and the first and second light receiving angles at the first and second positions. A three-dimensional input method for calculating based on the distance between the positions of the plurality of slit lights, wherein a plurality of slit lights having different irradiation patterns with respect to the object are projected as the detection light, and the plurality of slit lights correspond to each of the plurality of slit lights. Based on the light reception data, the light reception angle at the first and second positions with respect to the light reflected at each of the portions is specified.

【0018】請求項2の発明の3次元入力方法は、前記
複数のスリット光を同時に投射するものである。請求項
3の発明の3次元入力方法は、前記複数のスリット光を
複数回に分けて投射するものである。
According to a third aspect of the present invention, the plurality of slit lights are simultaneously projected. In a three-dimensional input method according to a third aspect of the present invention, the plurality of slit lights are projected a plurality of times.

【0019】請求項4の発明の装置は、入力対象の物体
に向かってそれを走査するように検出光を投射する投光
系と、前記物体で反射した前記検出光である反射光を、
互いに離れた第1及び第2の位置で同時に受光する撮像
系とを備え、前記物体における複数の部位のそれぞれで
反射した反射光についての前記第1及び第2の位置での
受光角度に応じた測定データを、前記複数の部位の位置
情報として出力する3次元入力装置であって、前記投光
系が、前記検出光として前記物体に対する照射パターン
が互いに異なる複数のスリット光を投射し、前記複数の
スリット光のそれぞれに対応した受光データに基づい
て、前記各部位で反射した反射光についての前記第1及
び第2の位置での受光角度を特定するものである。
According to a fourth aspect of the present invention, there is provided an apparatus for projecting a detection light so as to scan an object to be input toward the object, and a reflected light which is the detection light reflected by the object.
An imaging system that receives light at the first and second positions that are separated from each other at the same time, and that corresponds to the light receiving angles at the first and second positions with respect to the light reflected at each of the plurality of portions of the object. A three-dimensional input device that outputs measurement data as position information of the plurality of parts, wherein the light projection system projects, as the detection light, a plurality of slit lights having different irradiation patterns on the object from each other, Based on the received light data corresponding to each of the slit lights, the light receiving angles at the first and second positions with respect to the reflected light reflected at the respective portions are specified.

【0020】請求項5の発明の3次元入力装置におい
て、前記検出光の投射の起点は、前記第1の位置と前記
第2の位置との間の位置である。請求項6の発明の3次
元入力装置において、前記検出光の投射の起点は、前記
第1及び第2の位置の双方に対して等距離の位置であ
る。
In the three-dimensional input device according to a fifth aspect of the present invention, a starting point of the projection of the detection light is a position between the first position and the second position. 7. The three-dimensional input device according to claim 6, wherein a starting point of the projection of the detection light is a position equidistant from both the first and second positions.

【0021】[0021]

【発明の実施の形態】図3は第1実施形態に係る3次元
入力装置の機能ブロック図である。3次元入力装置1
は、スリット光Uを投射する投光系10、同一構成の2
個の撮像系20A,20Bからなる受光系20、同一構
成の2個の受光信号処理回路30A,30B、及びスリ
ット光Uの傾きを切り換えるための回動機構34を有し
ている。
FIG. 3 is a functional block diagram of a three-dimensional input device according to a first embodiment. 3D input device 1
Is a light projecting system 10 for projecting slit light U;
The light receiving system 20 includes two imaging systems 20A and 20B, two light receiving signal processing circuits 30A and 30B having the same configuration, and a rotating mechanism 34 for switching the inclination of the slit light U.

【0022】投光系10は、光源としての半導体レーザ
12、ビーム整形のためのレンズ群13、及び投射角度
を変更するビーム偏向手段としてのガルバノミラー14
からなる。レンズ群13は、コリメータレンズとシリン
ドリカルレンズとで構成される。ガルバノミラー14に
は、投光制御回路32からD/A変換器33を介して偏
向制御信号が与えられる。投光系10の全体又は一部が
投光の起点(又はその付近)を中心に回動することによ
り、物体Qに対して照射パターンの異なるスリット光U
の投射が実現される。
The light projecting system 10 includes a semiconductor laser 12 as a light source, a lens group 13 for beam shaping, and a galvanomirror 14 as beam deflecting means for changing a projection angle.
Consists of The lens group 13 includes a collimator lens and a cylindrical lens. The galvanomirror 14 is provided with a deflection control signal from the light projection control circuit 32 via the D / A converter 33. When the whole or a part of the light projecting system 10 rotates around the starting point of the light projection (or in the vicinity thereof), the slit light U having a different irradiation pattern with respect to the object Q is obtained.
Projection is realized.

【0023】各撮像系20A,20Bは、受光レンズ2
1、ビームスプリッタ22、物体Qの形状を計測するた
めのイメージセンサ24、モニター用の2次元画像を得
るためのカラーイメージセンサ25、及びズーミングと
フォーカシングとを可能にするレンズ駆動機構26から
なる。ビームスプリッタ22は、半導体レーザ12の発
光波長域(例えば中心波長685nm)の光と可視光と
を分離する。イメージセンサ24及びカラーイメージセ
ンサ25はCCDエリアセンサである。イメージセンサ
24及びカラーイメージセンサ25としてCMOSエリ
アセンサを使用してもよい。イメージセンサ24の出力
は、受光信号処理回路30A,30Bにおいて所定ビッ
ト数の受光データにA/D変換される。そして、受光信
号処理回路30A,30B内のメモリ回路で、受光デー
タに基づいて受光角度を特定するデータが記憶される。
Each of the imaging systems 20A and 20B includes a light receiving lens 2
1, a beam splitter 22, an image sensor 24 for measuring the shape of the object Q, a color image sensor 25 for obtaining a two-dimensional image for monitoring, and a lens driving mechanism 26 for enabling zooming and focusing. The beam splitter 22 separates light in the emission wavelength range (for example, center wavelength 685 nm) of the semiconductor laser 12 from visible light. The image sensor 24 and the color image sensor 25 are CCD area sensors. A CMOS area sensor may be used as the image sensor 24 and the color image sensor 25. The output of the image sensor 24 is A / D converted into light reception data of a predetermined number of bits in light reception signal processing circuits 30A and 30B. Then, data for specifying the light receiving angle based on the light receiving data is stored in a memory circuit in the light receiving signal processing circuits 30A and 30B.

【0024】3次元入力装置1を制御するCPU31
は、制御対象に適時に指示を与えるとともに、各受光信
号処理回路30A,30Bのメモリ回路からデータを読
み出して距離演算を行う。演算結果は適時に3次元入力
データとして図示しない外部装置に出力される。その
際、受光信号処理回路30A,30Bの少なくとも一方
で記憶されている2次元カラー画像も出力される。外部
装置としては、コンピュータ、ディスプレイ、記憶装置
などがある。
CPU 31 for controlling the three-dimensional input device 1
Gives an instruction to the control target in a timely manner, reads data from a memory circuit of each of the light receiving signal processing circuits 30A and 30B, and performs a distance calculation. The calculation result is output to an external device (not shown) as three-dimensional input data at an appropriate time. At this time, a two-dimensional color image stored in at least one of the light receiving signal processing circuits 30A and 30B is also output. The external device includes a computer, a display, a storage device, and the like.

【0025】以上の構成の3次元入力装置1は、ガルバ
ノミラー14の反射面上の点を起点として、まず垂直方
向に仮想面を走査するようにスリット光Uを投射する。
仮想面は、イメージセンサ24の撮像エリアを受光レン
ズ21で逆投影した平面に相当する。そして、仮想面の
うちのイメージセンサ24における各画素gに対応した
範囲が、3次元入力のサンプリング区画となる。図3の
構成においては、投光の起点、及び2つの視点(受光の
主点)が一直線上に配置され、2つの視点は垂直方向に
沿って並んでいる。垂直方向に走査が終わると、ガルバ
ノミラー14を90°回転させて、水平方向に走査する
ようにスリット光Uを投射する。
The three-dimensional input device 1 having the above-described configuration projects the slit light U so as to scan a virtual surface in the vertical direction, starting from a point on the reflection surface of the galvanometer mirror 14.
The virtual plane corresponds to a plane obtained by back-projecting the imaging area of the image sensor 24 with the light receiving lens 21. Then, a range of the virtual surface corresponding to each pixel g in the image sensor 24 is a sampling section for three-dimensional input. In the configuration of FIG. 3, the starting point of light projection and two viewpoints (principal points of light reception) are arranged on a straight line, and the two viewpoints are arranged in the vertical direction. When the scanning in the vertical direction ends, the galvanomirror 14 is rotated by 90 ° and the slit light U is projected so as to scan in the horizontal direction.

【0026】各方向の走査においては、ガルバノミラー
14の偏向に同期させて2個のイメージセンサ24によ
るフレーム周期の撮影を行う。このとき、2個のイメー
ジセンサ24を同一タイミングで駆動する。つまり、物
体Qを2つの視点から同時に撮影する。そして、各イメ
ージセンサ24の各画素が、刻々と偏向されていくスリ
ット光Uのどの時点の投射により照らされたかを検知す
る。図1及び図2で説明したとおり、2個のイメージセ
ンサ24の出力によって走査毎に2個ずつ得られる計4
つの時間重心画像を用いて対応点を探索すれば、物体Q
について画素数分のサンプリング点の3次元位置情報が
得られる。
In scanning in each direction, the two image sensors 24 take a picture at a frame period in synchronization with the deflection of the galvanometer mirror 14. At this time, the two image sensors 24 are driven at the same timing. That is, the object Q is photographed simultaneously from two viewpoints. Then, each pixel of each image sensor 24 is detected at which point in time the projection of the slit light U, which is deflected every moment, is illuminated. As described with reference to FIGS. 1 and 2, two outputs are obtained for each scan by the outputs of the two image sensors 24.
When the corresponding point is searched using the two temporal centroid images, the object Q
, Three-dimensional position information of sampling points for the number of pixels is obtained.

【0027】次に、輝度ピーク時刻を検出するための回
路の具体的な構成を説明する。図4はメモリ回路の第1
例のブロック図である。例示のメモリ回路37は、2個
のメモリ371,376、比較器377、及びインデッ
クスジェネレータ378から構成されている。
Next, a specific configuration of a circuit for detecting the luminance peak time will be described. FIG. 4 shows the first circuit of the memory circuit.
FIG. 3 is a block diagram of an example. The exemplary memory circuit 37 includes two memories 371 and 376, a comparator 377, and an index generator 378.

【0028】メモリ371にはA/D変換器から受光デ
ータD35が入力され、メモリ376にはインデックス
ジェネレータ378からフレーム番号Tが入力される。
比較器377は、イメージセンサ24の画素毎に最新の
入力データであるt番目のフレームの受光データD35
と以前にメモリ371に書き込まれた受光データD35
とを比較し、最新の受光データD35が以前の受光デー
タD35より大きい場合にメモリ371,376に対し
て書込みを許可する。これを受けて各メモリ371,3
76は最新の入力データの上書きを行う。比較結果が逆
の場合は各メモリ371,376において以前の記憶内
容が保持される。したがって、走査が終了した時点にお
いて、メモリ371は画素毎に受光データD35の最大
値を記憶し、メモリ376は画素毎に受光データD35
が最大となったフレームの番号Tを記憶することにな
る。各フレームの撮像は一定周期で行われるので、フレ
ーム番号Tは走査期間中の時刻(走査開始からの経過時
間)を表す。
The memory 371 receives light receiving data D35 from the A / D converter, and the memory 376 receives the frame number T from the index generator 378.
The comparator 377 calculates, for each pixel of the image sensor 24, the received light data D35 of the t-th frame which is the latest input data.
And light receiving data D35 previously written in the memory 371
And writing is permitted to the memories 371 and 376 when the latest received light data D35 is larger than the previous received light data D35. In response to this, each memory 371, 3
76 overwrites the latest input data. If the comparison result is reversed, the previous storage contents are held in the memories 371 and 376. Therefore, when the scanning is completed, the memory 371 stores the maximum value of the light receiving data D35 for each pixel, and the memory 376 stores the maximum value of the light receiving data D35 for each pixel.
Will be stored as the frame number T in which. Since the imaging of each frame is performed at a fixed period, the frame number T indicates a time during the scanning period (elapsed time from the start of scanning).

【0029】この例によれば、比較的に簡単な回路構成
によって受光角度を検知することができる。ただし、受
光角度の検知の分解能はイメージセンサ24の画素ピッ
チに依存する。分解能の向上を図ったものが次の第2例
である。
According to this example, the light receiving angle can be detected by a relatively simple circuit configuration. However, the resolution for detecting the light receiving angle depends on the pixel pitch of the image sensor 24. The second example in which the resolution is improved is as follows.

【0030】図5はメモリ回路の第2例のブロック図、
図6は撮像面における輝度分布と受光データとの関係を
示す図である。図5において図4に対応した要素には図
4と同一の符号を付してある。
FIG. 5 is a block diagram of a second example of the memory circuit.
FIG. 6 is a diagram showing the relationship between the luminance distribution on the imaging surface and the received light data. 5, the elements corresponding to FIG. 4 are denoted by the same reference numerals as in FIG.

【0031】第2例のメモリ回路37bは、メモリ37
1に加えてそれと同サイズの4個のメモリ372,37
3,374,375を設け、計4個の1フレームディレ
イメモリ379a〜dを介在させて各メモリ372〜3
75のデータ入力をメモリ371に対して順に1フレー
ムずつ遅らせるように構成したものである。すなわち、
メモリ回路37bでは、各画素について連続した5フレ
ームの受光データD35が同時に記憶される。比較器3
77は、入力が2フレーム遅れの第3番目のメモリ37
3の入力と出力とを比較する。メモリ373の入力デー
タ値が出力データ値(以前に書き込まれたデータ値)よ
り大きい場合に、メモリ371〜375及びメモリ37
6の書込みが許可される。
The memory circuit 37b of the second example includes a memory 37
1 plus 4 memories 372, 37 of the same size
3, 374, and 375, and each of the memories 372 to 3 is provided with a total of four 1-frame delay memories 379a to 379d.
The configuration is such that 75 data inputs are sequentially delayed one frame at a time with respect to the memory 371. That is,
In the memory circuit 37b, five consecutive frames of light receiving data D35 are simultaneously stored for each pixel. Comparator 3
77 is a third memory 37 whose input is delayed by two frames.
3 is compared with the input. When the input data value of the memory 373 is larger than the output data value (the previously written data value), the memories 371 to 375 and the memory 37
6 is allowed.

【0032】各走査が終了した時点において、メモリ3
73は各画素g毎に受光データD35の最大値を記憶す
ることになる。また、メモリ371,372,374,
375によって、受光データD35が最大となったフレ
ームの2つ前、1つ前、1つ後、2つ後の計4フレーム
の受光データD35が記憶されることになる。そして、
メモリ376は、画素毎に受光データD35が最大とな
ったフレームの番号Tを記憶することになる。
At the end of each scan, the memory 3
Reference numeral 73 stores the maximum value of the light receiving data D35 for each pixel g. Also, the memories 371, 372, 374,
With 375, the received light data D35 of two frames before, one before, one after, and two after the frame where the received light data D35 is maximum are stored. And
The memory 376 stores, for each pixel, the number T of the frame in which the light receiving data D35 is maximum.

【0033】ここで、図6(a)のように、撮像面に結
像したスリット像の幅が5画素分であり、輝度分布が単
一峰の山状であるものとする。このとき、1つの画素に
注目すると、図6(b)のように輝度分布に応じた変化
の受光データが得られる。したがって、メモリ371〜
375に記憶されている5フレーム分の受光データD3
5に基づいて重心演算を行うことにより、フレーム周期
(つまり画素ピッチ)よりも細かな刻みで輝度が最大と
なる時刻TA,TBを算出することができる。図6
(b)の例では、時刻TA(TB)はt回目と(t+
1)回目のサンプリング時刻間にある。
Here, as shown in FIG. 6A, it is assumed that the width of the slit image formed on the imaging surface is 5 pixels and the luminance distribution is a single-peak mountain shape. At this time, paying attention to one pixel, light reception data of a change corresponding to the luminance distribution is obtained as shown in FIG. Therefore, the memory 371-
Light receiving data D3 for 5 frames stored in 375
By performing the center-of-gravity calculation based on No. 5, it is possible to calculate the times TA and TB at which the luminance becomes the maximum at intervals smaller than the frame period (that is, the pixel pitch). FIG.
In the example of (b), the time TA (TB) is the t-th time and (t +
1) It is between the sampling times.

【0034】この第2例によれば分解能が向上するが、
輝度分布によっては所望の精度が得られないという問題
がある。すなわち、実際の撮像では、光学系の特性など
に起因して結像に何らかのノイズが加わる。このため、
輝度分布に複数のピークが生じたり、平坦でピークの不
明瞭な輝度分布となったりする。輝度分布が理想形状か
ら大きく外れると、重心演算の信頼性が低下する。
According to the second example, the resolution is improved.
There is a problem that desired accuracy cannot be obtained depending on the luminance distribution. That is, in actual imaging, some noise is added to the image formation due to characteristics of the optical system and the like. For this reason,
A plurality of peaks are generated in the luminance distribution, or the luminance distribution is flat and the peaks are unclear. If the luminance distribution deviates greatly from the ideal shape, the reliability of the center-of-gravity calculation decreases.

【0035】このようなノイズの影響は、輝度の最大値
が得られたフレームとその前後の各数フレームを合わせ
た程度の短い期間ではなく、十分に長い期間の輝度分布
に基づいて重心演算を行うことによって低減することが
できる。それを実現するのが次の第3例である。
The influence of such noise is caused by the calculation of the center of gravity based on the luminance distribution in a sufficiently long period, not in a short period in which the frame in which the maximum luminance value is obtained and several frames before and after the frame. By doing so, it can be reduced. This is realized in the following third example.

【0036】図7はメモリ回路の第3例のブロック図で
ある。第3例のメモリ回路37cは、メモリ3710、
定常光データ記憶部3720、減算部3730、第1加
算部3740、第2加算部3750、及び除算部376
0から構成され、画素毎にフレーム数分の受光データD
35に基づいて重心(時間重心)を算出する。
FIG. 7 is a block diagram of a third example of the memory circuit. The memory circuit 37c of the third example includes a memory 3710,
Stationary light data storage unit 3720, subtraction unit 3730, first addition unit 3740, second addition unit 3750, and division unit 376
0, and the received light data D for the number of frames for each pixel.
The center of gravity (time center of gravity) is calculated based on 35.

【0037】メモリ3710は、物体Qに対する走査で
得られた所定数kのフレームの受光データD35を記憶
する。各画素のT番目(T=1〜k)のフレームの受光
データ値をxT と表す。定常光データ記憶部3720
は、スリット光U以外の不要入射光量を表す定常光デー
タを記憶する。定常光データはスリット光Uが入射して
いないときの受光データD35に基づいて算出される。
その値sは、予め定めた固定値でもよいし、受光データ
D35を用いてリアルタイムで求めてもよい。固定値と
する場合には、受光データD35が8ビット(256階
調)である場合に、例えば「5」「6」又は「10」な
どとする。減算部3730は、メモリ3710から読み
出された受光データD35の値xT から定常光データの
値sを差し引く。ここで、減算部3730からの出力デ
ータの値をあらためてXT とする。第1加算部3740
は、画素g毎にk個の受光データD35について、それ
ぞれの値XT とそれに対応したフレーム番号Tとの乗算
を行い、得られた積の合計値を出力する。第2加算部3
750は、画素g毎にk個の受光データD35の値X T
の総和を出力する。除算部3760は、第1加算部37
40の出力値を第2加算部3750の出力値で除し、得
られた重心を時刻TA(又はTB)として出力する。
The memory 3710 scans the object Q
The obtained light reception data D35 of the predetermined number k of frames is stored.
I do. Light reception of the T-th (T = 1 to k) frame of each pixel
Data value xTIt expresses. Stationary light data storage unit 3720
Is the steady light data representing the amount of unnecessary incident light other than the slit light U.
Data. Steady-state light data shows that slit light U is incident
It is calculated based on the received light data D35 when there is no such data.
The value s may be a fixed value determined in advance, or the received light data
It may be obtained in real time using D35. Fixed value and
In this case, the received light data D35 has 8 bits (256 floors).
), For example, “5”, “6” or “10”
What The subtraction unit 3730 reads from the memory 3710.
The value x of the output light receiving data D35TFrom steady light data
Subtract the value s. Here, the output data from subtraction section 3730 is output.
Data value XTAnd First adder 3740
Is obtained for k light receiving data D35 for each pixel g.
Each value XTMultiplication with the corresponding frame number T
And outputs the total value of the obtained products. Second adder 3
750 is a value X of k pieces of light reception data D35 for each pixel g. T
Output the sum of The division unit 3760 includes the first addition unit 37
40 is divided by the output value of the second adder 3750 to obtain
The obtained center of gravity is output as time TA (or TB).

【0038】図8は投光と受光との位置関係の設定例を
示す図である。投光系10及び受光系20の配置におい
ては、必ずしも投光の起点C及び受光の主点(視点)
A,Bが一直線上に並ぶ図8(a)又は(b)のような
構成にする必要はない。例えば、物体からの観察におい
て3個の点A,B,CがL字状に並ぶ図8(c)の構
成、T字状に並ぶ図8(d)の構成を採用してもよい。
特に、図8(b)又は(d)のように視点Aと視点Bと
の間に起点Cを配置すれば、視点A,Bと起点Cとが異
なることにより発生するオクルージョンを軽減すること
ができる。その際には投光の起点Cと各視点A,Bとの
距離dを等しくするのが好ましい。また、図8(b)〜
(d)の構成では視点間の距離Lを図8(a)の構成と
比べて大きくすることができる。
FIG. 8 is a diagram showing an example of setting the positional relationship between light emission and light reception. In the arrangement of the light projecting system 10 and the light receiving system 20, the starting point C of light projection and the main point (viewpoint) of light reception are not necessarily required.
It is not necessary to adopt a configuration as shown in FIG. 8A or 8B in which A and B are arranged on a straight line. For example, the configuration of FIG. 8C in which three points A, B, and C are arranged in an L-shape or the configuration of FIG. 8D in which the three points A, B, and C are arranged in a T-shape in observation from an object may be adopted.
In particular, if the origin C is arranged between the viewpoint A and the viewpoint B as shown in FIG. 8B or 8D, occlusion caused by the difference between the viewpoints A and B and the origin C can be reduced. it can. In this case, it is preferable to make the distance d between the projection point C and each of the viewpoints A and B equal. In addition, FIG.
In the configuration of (d), the distance L between the viewpoints can be made larger than in the configuration of FIG.

【0039】図9はスリット光の照射パターンの変形例
を示す図である。図9(a)の例の1回目の走査では、
直線帯状のスリット光Uの長さ方向を水平方向にとり走
査方向M2を垂直方向とし、2回目の走査では、スリッ
ト光Uの長さ方向を垂直方向にとり走査方向M2を水平
方向とする。1回目の走査と2回目の走査とでスリット
光Uの傾きの差が90°であって位置差感度が大きい。
すなわち、複数の走査の間でスリット傾斜の差が大きい
ほど対応点候補の分布が拡がり、真の対応点を探索の精
度が高くなる(重なり部分が小であるから)。
FIG. 9 is a view showing a modification of the irradiation pattern of the slit light. In the first scan in the example of FIG.
In the second scanning, the length direction of the slit light U is set to the vertical direction, and the scanning direction M2 is set to the horizontal direction. The difference in the inclination of the slit light U between the first scan and the second scan is 90 °, and the position difference sensitivity is large.
In other words, as the difference between the slit inclinations among a plurality of scans increases, the distribution of corresponding point candidates increases, and the accuracy of searching for a true corresponding point increases (because the overlapping portion is small).

【0040】なお、イメージセンサ24の読出しについ
ては、フレーム毎に撮像面の全体を読出し対象とする形
態と、各フレームでスリット像の結像が予想される部分
のみを読出し対象とする形態とがある。前者にはイメー
ジセンサの駆動制御が簡単という長所がある。後者を採
用すれば、読出し時間を短縮することができる。
The image sensor 24 can be read out by reading the entire imaging surface for each frame or reading only the portion where the slit image is expected to be formed in each frame. is there. The former has an advantage that the drive control of the image sensor is simple. If the latter is adopted, the reading time can be reduced.

【0041】図9(b)の例では、1回目の走査のスリ
ット光U1は走査方向M2である垂直方向に対して右上
がりに傾いており、2回目の走査のスリット光U2は右
下がりに傾いている。1回目及び2回目の走査の方向が
同一であるので、投光系の機構構成が簡単になるという
長所がある。
In the example of FIG. 9B, the slit light U1 of the first scan is inclined upward to the right with respect to the vertical direction which is the scanning direction M2, and the slit light U2 of the second scan is inclined downward to the right. Leaning. Since the first and second scanning directions are the same, there is an advantage that the mechanism configuration of the light projecting system is simplified.

【0042】図9(c)の例では、1回目の走査のスリ
ット光U1は走査方向M2に対して右上がりに傾いた互
いに平行な複数の短いスリット光の集合であり、2回目
の走査のスリット光U2は右下がりに傾いた互いに平行
な複数のスリット光の集合である。図9(b)と同様の
長所があり、且つ位置差感度は図9(b)の例より大き
い。各回の走査で複数の短いスリット光を使用するの
で、複数個の対応点が発生する場合がある。しかし、対
応点の存在し得る領域を限定することで容易に1個に決
定することができる。
In the example of FIG. 9C, the slit light U1 of the first scan is a set of a plurality of short slit lights parallel to each other and inclined upward to the right with respect to the scanning direction M2. The slit light U2 is a set of a plurality of parallel slit lights inclined downward to the right. There is an advantage similar to that of FIG. 9B, and the position difference sensitivity is larger than the example of FIG. 9B. Since a plurality of short slit lights are used in each scan, a plurality of corresponding points may be generated. However, it can be easily determined to be one by limiting the area where the corresponding point may exist.

【0043】図10は第2実施形態に係るスリット光の
照射パターンを示す図である。上述した第1実施形態は
2回の走査を行うものであった。これに対して、第2実
施形態では、照射パターンの異なる第1及び第2のスリ
ット光U1,U2を同時に投射して1回の走査で物体の
3次元入力を行う。第2実施形態も基本的には図3の装
置構成で実現可能である。ただし、回動機構34は不要
であり、投光系10は固定でよい。光源12を複数にす
るか又は適当なビーム分離手段を設けることにより、複
数のスリット光U1,U2を投射することができる。
FIG. 10 is a diagram showing an irradiation pattern of slit light according to the second embodiment. In the first embodiment described above, two scans are performed. On the other hand, in the second embodiment, the first and second slit lights U1 and U2 having different irradiation patterns are simultaneously projected to perform three-dimensional input of an object in one scan. The second embodiment can also be basically realized by the device configuration of FIG. However, the rotating mechanism 34 is unnecessary, and the light projecting system 10 may be fixed. By providing a plurality of light sources 12 or providing appropriate beam separating means, a plurality of slit lights U1 and U2 can be projected.

【0044】図10(a)の例では、第1のスリット光
U1は走査方向M2に対して右下がりに傾いた直線状で
あり、第2のスリット光U2は右上がりに傾いた直線状
である。図10(b)の例では、第1及び第2のスリッ
ト光U1,U2は互いが対称関係となるジグザグ状であ
る。これらの例において、スリット光U1及びスリット
光U2は、撮像面の各画素でのスリット像の受光時期
(通過時刻)がΔt以上ずれるように、走査方向M2に
離されている。Δtは2つのスリット像の受光時期を区
別して検知するのに必要な時間である。
In the example of FIG. 10A, the first slit light U1 is a straight line inclined downward to the right with respect to the scanning direction M2, and the second slit light U2 is a straight line inclined upward to the right. is there. In the example of FIG. 10B, the first and second slit lights U1 and U2 are in a zigzag shape having a symmetrical relationship with each other. In these examples, the slit light U1 and the slit light U2 are separated in the scanning direction M2 so that the light receiving timing (passing time) of the slit image at each pixel on the imaging surface is shifted by Δt or more. Δt is a time required to detect the light receiving timing of the two slit images separately.

【0045】スリット光U1,U2を同時に投射する場
合にも、照射パターンが異なっているので、図1及び図
2で説明した原理に基づいて視点(A,B)間の対応点
探索を行うことができる。
Even when the slit lights U1 and U2 are simultaneously projected, since the irradiation patterns are different, it is necessary to search for a corresponding point between the viewpoints (A, B) based on the principle described with reference to FIGS. Can be.

【0046】視点Aでの受光データに基づいて、各スリ
ット光U1,U2に対応した時間重心画像GA1,GA
2(図2参照)を作成する。視点Bについても各スリッ
ト光U1,U2に対応した時間重心画像GB1,GB2
を作成する。一方の視点Aに対応した時間重心画像GA
1,GA2における同一画素位置の画素に注目する。注
目画素は物体上の点Pに対応するものとする。スリット
光U1に対応した時間重心画像GA1における注目画素
gの値(輝度ピーク時刻)がT1で、スリット光U2に
対応した時間重心画像GA2における注目画素gの値が
T2(=T1+ΔT)であったとする。この場合、他方
の視点Bに対応した時間重心画像GB1,GB2におい
て、次の2つの条件を満たす画素の組が存在する。
Based on the received light data at the viewpoint A, the time barycenter images GA1, GA corresponding to the respective slit lights U1, U2
2 (see FIG. 2). Regarding the viewpoint B, the time barycenter images GB1 and GB2 corresponding to the respective slit lights U1 and U2
Create Time barycenter image GA corresponding to one viewpoint A
Attention is paid to pixels at the same pixel position in GA1 and GA2. It is assumed that the target pixel corresponds to the point P on the object. The value (luminance peak time) of the pixel of interest g in the temporal barycenter image GA1 corresponding to the slit light U1 is T1, and the value of the pixel of interest g in the temporal barycenter image GA2 corresponding to the slit light U2 is T2 (= T1 + ΔT). I do. In this case, in the time barycenter images GB1 and GB2 corresponding to the other viewpoint B, there is a set of pixels satisfying the following two conditions.

【0047】1.各画像GB1,GB2における画素位
置が互いに等しい。2.画像GB1の画素の値はT1
で、画像GB2の画素の値はT2である。これら条件を
満たす画素の組が注目画素gの対応点である。すなわ
ち、この画素の組の画素位置が、物体上の点Pに対応し
た視点Bにおける受光角度を示す情報である。
1. Pixel positions in the images GB1 and GB2 are equal to each other. 2. The pixel value of the image GB1 is T1
The pixel value of the image GB2 is T2. A set of pixels satisfying these conditions is a corresponding point of the target pixel g. That is, the pixel position of this set of pixels is information indicating the light receiving angle at the viewpoint B corresponding to the point P on the object.

【0048】以上のようにして対応点を決定すればよい
ので、視点間のエピポーラ拘束条件を満たす必要はな
く、受光系の組み立ての制約が緩和される。画像の平行
化処理で画素位置を補正する必要もない。第2実施形態
は、1回の走査で所定サンプリング数の3次元データが
得られるので、高速性が要求される動体の3次元入力に
好適である。人体測定においても、より高速である方
が、被測定者が静止しなければならない時間が短いので
好ましい。
Since it is only necessary to determine the corresponding points as described above, it is not necessary to satisfy the epipolar constraint between viewpoints, and the restrictions on the assembly of the light receiving system are relaxed. There is no need to correct pixel positions in the image parallelization process. The second embodiment is suitable for three-dimensional input of a moving object requiring high speed because three-dimensional data of a predetermined sampling number can be obtained by one scan. In human body measurement as well, a higher speed is preferable because the time during which the subject has to stand still is short.

【0049】図11は第2実施形態に係るデータ処理の
説明図である。一方の視点(例えばA)のイメージセン
サ24により得られた所定フレーム数分の受光データの
うち、1つの画素に注目してデータ値(スリット像の輝
度)をフレーム番号順にプロットすると、図11のよう
にスリット光U1,U2のそれぞれの反射光の通過に伴
う2つの輝度ピークが現れる。スリット光U1,U2の
投射に際して上述の間隔(Δt)を適切に設定すれば、
ピークどうしが明確に分離する。
FIG. 11 is an explanatory diagram of data processing according to the second embodiment. Of the received light data of a predetermined number of frames obtained by the image sensor 24 at one viewpoint (for example, A), when one pixel is focused on and the data value (the brightness of the slit image) is plotted in the order of the frame number, FIG. Thus, two luminance peaks appear as the reflected lights of the slit lights U1 and U2 pass. If the above-mentioned interval (Δt) is appropriately set when projecting the slit lights U1 and U2,
The peaks are clearly separated.

【0050】最大ピーク時刻T1,T2を求めるために
2つの閾値th1,th2を設定する。フレーム番号の
小さい方から輝度を調べていき、最初に閾値th2を超
えたフレーム番号Tp1を検出する。そのフレーム番号
Tp1から番号の小さくなる側及び大きくなる側の双方
に検索していき、輝度が閾値th1より大きい連続した
フレーム番号の範囲TR1を見つける。続いて、見つけ
た範囲TR1の最大フレーム番号の次のフレーム番号か
ら順に番号が大きくなる側について輝度を調べていき、
閾値th2を超えたフレーム番号Tp2を検出する。フ
レーム番号Tp2から両側に検索していき、輝度が閾値
th1より大きい連続したフレーム番号の範囲TR2を
見つける。このようにして見つけた範囲TR1,TR2
のそれぞれについて重心演算を行い、スリット光U1に
対応した時間重心T1とスリット光U2に対応した時間
重心T2とを求める。同様の処理を全ての画素について
行い、時間重心画像GA1,GA2を得る。また、視点
Bについても同様の処理を行って時間重心画像GB1,
GB2を得る。なお、時間重心画像GA2,GB2は各
画素について求めた時間重心T2を記録するのではな
く、各画素についての時間重心T1と時間重心T2との
時間差を記憶するものであってもよい。
To determine the maximum peak times T1 and T2, two thresholds th1 and th2 are set. The luminance is checked from the smaller frame number, and the frame number Tp1 exceeding the threshold th2 is detected first. From the frame number Tp1, the search is performed both on the side where the number decreases and on the side where the number increases, and a range TR1 of continuous frame numbers whose luminance is greater than the threshold th1 is found. Subsequently, the luminance is examined on the side where the number increases in order from the frame number next to the maximum frame number of the found range TR1,
The frame number Tp2 exceeding the threshold th2 is detected. Searching from both sides from the frame number Tp2, a range TR2 of continuous frame numbers whose luminance is larger than the threshold th1 is found. Ranges TR1 and TR2 found in this way
Are calculated for each of the above, and a time center of gravity T1 corresponding to the slit light U1 and a time center of gravity T2 corresponding to the slit light U2 are obtained. The same process is performed for all pixels to obtain temporal centroid images GA1 and GA2. Further, the same processing is performed for the viewpoint B, and the time barycenter image GB1,
Obtain GB2. The time barycenter images GA2 and GB2 do not record the time barycenter T2 obtained for each pixel, but may store a time difference between the time barycenter T1 and the time barycenter T2 for each pixel.

【0051】以上の実施例では、2パターンのスリット
光を投射するものであったが、3パターン以上のスリッ
ト光を投射して、より精度の高い対応点探索を実現して
もよい。スリット光のビームの断面は直線状に限らず、
曲線状であってもかまわない。また、スポット光を偏向
して疑似的にスリット光を形成して走査を行ってもよ
い。
In the above embodiment, two patterns of slit light are projected. However, three or more patterns of slit light may be projected to realize a more accurate corresponding point search. The cross section of the slit light beam is not limited to a straight line,
It may be curved. Further, scanning may be performed by deflecting the spot light to form a slit light in a pseudo manner.

【0052】[0052]

【発明の効果】請求項1乃至請求項6の発明によれば、
スリット光の投射角度情報を用いない3次元入力を実現
し、投射角度制御の精度及び受光デバイスの画素間の感
度のばらつきに係わらず高精度の3次元入力データを得
ることができる。
According to the first to sixth aspects of the present invention,
A three-dimensional input that does not use the projection angle information of the slit light is realized, and highly accurate three-dimensional input data can be obtained regardless of the accuracy of the projection angle control and the variation in sensitivity between pixels of the light receiving device.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の原理説明図である。FIG. 1 is a diagram illustrating the principle of the present invention.

【図2】本発明の原理説明図である。FIG. 2 is a diagram illustrating the principle of the present invention.

【図3】第1実施形態に係る3次元入力装置の機能ブロ
ック図である。
FIG. 3 is a functional block diagram of the three-dimensional input device according to the first embodiment.

【図4】メモリ回路の第1例のブロック図である。FIG. 4 is a block diagram of a first example of a memory circuit.

【図5】メモリ回路の第2例のブロック図である。FIG. 5 is a block diagram of a second example of the memory circuit.

【図6】撮像面における輝度分布と受光データとの関係
を示す図である。
FIG. 6 is a diagram illustrating a relationship between a luminance distribution on an imaging surface and received light data.

【図7】メモリ回路の第3例のブロック図である。FIG. 7 is a block diagram of a third example of the memory circuit.

【図8】投光と受光との位置関係の設定例を示す図であ
る。
FIG. 8 is a diagram illustrating a setting example of a positional relationship between light projection and light reception.

【図9】スリット光の照射パターンの変形例を示す図で
ある。
FIG. 9 is a diagram showing a modification of the irradiation pattern of the slit light.

【図10】第2実施形態に係るスリット光の照射パター
ンを示す図である。
FIG. 10 is a view showing an irradiation pattern of slit light according to a second embodiment.

【図11】第2実施形態に係るデータ処理の説明図であ
る。
FIG. 11 is an explanatory diagram of data processing according to the second embodiment.

【符号の説明】[Explanation of symbols]

1 3次元入力装置 A 視点(第1の位置) B 視点(第2の位置) Q 物体 U,U1,U2 スリット光 L 視点間の距離 10 投光系 20 撮像系 1 3D input device A viewpoint (first position) B viewpoint (second position) Q object U, U1, U2 Slit light L distance between viewpoints 10 Projection system 20 Imaging system

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2F065 AA04 AA53 BB05 CC16 FF01 FF02 FF05 FF09 FF31 FF42 GG06 HH05 HH18 JJ03 JJ05 JJ26 LL04 LL06 LL08 LL13 LL20 LL46 LL62 MM16 QQ00 QQ01 QQ02 QQ03 QQ23 QQ24 QQ25 QQ26 QQ27 QQ28 QQ29 2F112 AC06 BA01 BA20 CA08 DA01 DA05 DA06 DA10 DA15 DA21 DA25 DA40 FA03 FA05 FA07 FA21 FA50  ──────────────────────────────────────────────────続 き Continuing on the front page F term (reference) 2F065 AA04 AA53 BB05 CC16 FF01 FF02 FF05 FF09 FF31 FF42 GG06 HH05 HH18 JJ03 JJ05 JJ26 LL04 LL06 LL08 LL13 LL20 LL46 LL62 MM16 QQQ QQ QQ QQ QQ QQ QQ BA01 BA20 CA08 DA01 DA05 DA06 DA10 DA15 DA21 DA25 DA40 FA03 FA05 FA07 FA21 FA50

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】入力対象の物体に向かってそれを走査する
ように検出光を投射し、 前記物体で反射した前記検出光である反射光を、互いに
離れた第1及び第2の位置で同時に受光し、 前記物体における複数の部位の位置関係を、各部位で反
射した反射光についての前記第1及び第2の位置での受
光角度と、前記第1及び第2の位置どうしの距離とに基
づいて算出する3次元入力方法であって、 前記検出光として、前記物体に対する照射パターンが互
いに異なる複数のスリット光を投射し、 前記複数のスリット光のそれぞれに対応した受光データ
に基づいて、前記各部位で反射した反射光についての前
記第1及び第2の位置での受光角度を特定することを特
徴とする3次元入力方法。
1. A detection light is projected toward an input target object so as to scan the input object, and reflected light, which is the detection light reflected by the object, is simultaneously reflected at first and second positions separated from each other. Receiving the light, the positional relationship between the plurality of parts in the object, the light receiving angle at the first and second positions with respect to the reflected light reflected at each part, and the distance between the first and second positions. A three-dimensional input method that calculates a plurality of slit lights having different irradiation patterns with respect to the object as the detection light, based on light reception data corresponding to each of the plurality of slit lights. A three-dimensional input method characterized by specifying a light receiving angle at the first and second positions with respect to light reflected at each part.
【請求項2】前記複数のスリット光を同時に投射する請
求項1記載の3次元入力方法。
2. The three-dimensional input method according to claim 1, wherein said plurality of slit lights are projected simultaneously.
【請求項3】前記複数のスリット光を複数回に分けて投
射する請求項1記載の3次元入力方法。
3. The three-dimensional input method according to claim 1, wherein the plurality of slit lights are projected a plurality of times.
【請求項4】入力対象の物体に向かってそれを走査する
ように検出光を投射する投光系と、 前記物体で反射した前記検出光である反射光を、互いに
離れた第1及び第2の位置で同時に受光する撮像系とを
備え、 前記物体における複数の部位のそれぞれで反射した反射
光についての前記第1及び第2の位置での受光角度に応
じた測定データを、前記複数の部位の位置情報として出
力する3次元入力装置であって、 前記投光系は、前記検出光として前記物体に対する照射
パターンが互いに異なる複数のスリット光を投射し、 前記複数のスリット光のそれぞれに対応した受光データ
に基づいて、前記各部位で反射した反射光についての前
記第1及び第2の位置での受光角度を特定することを特
徴とする3次元入力装置。
4. A light projecting system for projecting detection light toward an input target object so as to scan the object, and first and second separated light beams, which are the detection light reflected by the object, are separated from each other. And an imaging system that receives light at the same position at the same time. The measurement data corresponding to the light receiving angles at the first and second positions with respect to the reflected light reflected at each of the plurality of parts of the object, A three-dimensional input device that outputs as the position information, wherein the light projecting system projects a plurality of slit lights having different irradiation patterns on the object as the detection light, and corresponds to each of the plurality of slit lights. A three-dimensional input device, wherein a light receiving angle at the first and second positions with respect to light reflected at each of the portions is specified based on light receiving data.
【請求項5】前記検出光の投射の起点は、前記第1の位
置と前記第2の位置との間の位置である請求項4記載の
3次元入力装置。
5. The three-dimensional input device according to claim 4, wherein a starting point of the projection of the detection light is a position between the first position and the second position.
【請求項6】前記検出光の投射の起点は、前記第1及び
第2の位置の双方に対して等距離の位置である請求項5
記載の3次元入力装置。
6. A starting point of projection of the detection light is at a position equidistant from both the first and second positions.
3. The three-dimensional input device according to claim 1.
JP36611499A 1999-12-24 1999-12-24 3D input method and 3D input device Expired - Fee Related JP4158300B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP36611499A JP4158300B2 (en) 1999-12-24 1999-12-24 3D input method and 3D input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP36611499A JP4158300B2 (en) 1999-12-24 1999-12-24 3D input method and 3D input device

Publications (2)

Publication Number Publication Date
JP2001183120A true JP2001183120A (en) 2001-07-06
JP4158300B2 JP4158300B2 (en) 2008-10-01

Family

ID=18485969

Family Applications (1)

Application Number Title Priority Date Filing Date
JP36611499A Expired - Fee Related JP4158300B2 (en) 1999-12-24 1999-12-24 3D input method and 3D input device

Country Status (1)

Country Link
JP (1) JP4158300B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007132715A (en) * 2005-11-08 2007-05-31 Univ Chuo Three-dimensional measuring method, measuring device, restoring method, and restoring device
JP2008275366A (en) * 2007-04-26 2008-11-13 Tokyo Institute Of Technology Stereoscopic 3-d measurement system
JP2010502947A (en) * 2006-08-30 2010-01-28 ユーエスエヌアール・コッカムス・キャンカー・カンパニー Scanner system for charger
JP2011158386A (en) * 2010-02-02 2011-08-18 Kurabo Ind Ltd Non-contact three-dimensional measuring apparatus and method
JP2012047637A (en) * 2010-08-27 2012-03-08 Kurabo Ind Ltd Non-contact three-dimensional measurement equipment and non-contact three-dimensional measurement method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007132715A (en) * 2005-11-08 2007-05-31 Univ Chuo Three-dimensional measuring method, measuring device, restoring method, and restoring device
JP2010502947A (en) * 2006-08-30 2010-01-28 ユーエスエヌアール・コッカムス・キャンカー・カンパニー Scanner system for charger
JP2008275366A (en) * 2007-04-26 2008-11-13 Tokyo Institute Of Technology Stereoscopic 3-d measurement system
JP2011158386A (en) * 2010-02-02 2011-08-18 Kurabo Ind Ltd Non-contact three-dimensional measuring apparatus and method
JP2012047637A (en) * 2010-08-27 2012-03-08 Kurabo Ind Ltd Non-contact three-dimensional measurement equipment and non-contact three-dimensional measurement method

Also Published As

Publication number Publication date
JP4158300B2 (en) 2008-10-01

Similar Documents

Publication Publication Date Title
CN109458928B (en) Laser line scanning 3D detection method and system based on scanning galvanometer and event camera
US6600168B1 (en) High speed laser three-dimensional imager
US6549288B1 (en) Structured-light, triangulation-based three-dimensional digitizer
US6438507B1 (en) Data processing method and processing device
JP2004530144A (en) How to provide image information
JP2006276012A (en) Measuring system for obtaining six degrees of freedom of object
CN102538679B (en) Image correlation displacement sensor
CN105190235A (en) Compensation of a structured light scanner that is tracked in six degrees-of-freedom
JP2003130621A (en) Method and system for measuring three-dimensional shape
JP2019101000A (en) Distance measurement point group data measurement system and control program
US11259000B2 (en) Spatiotemporal calibration of RGB-D and displacement sensors
WO2022050279A1 (en) Three-dimensional measurement device
US20040021877A1 (en) Method and system for determining dimensions of optically recognizable features
JP3991501B2 (en) 3D input device
JPH05332737A (en) Form measuring device
JPH1144533A (en) Preceding vehicle detector
JP2008275366A (en) Stereoscopic 3-d measurement system
US20210156881A1 (en) Dynamic machine vision sensor (dmvs) that performs integrated 3d tracking
JP4158300B2 (en) 3D input method and 3D input device
JP2004126905A (en) Image processor
JP2001338280A (en) Three-dimensional space information input device
JP2003279332A (en) Three-dimensional shape input unit and method for detecting positional deviation
JP2001324313A (en) Three-dimensional shape measuring instrument
JP4032556B2 (en) 3D input device
JP3253328B2 (en) Distance video input processing method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050615

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20050704

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050922

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070724

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080624

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080707

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110725

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120725

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120725

Year of fee payment: 4

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120725

Year of fee payment: 4

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130725

Year of fee payment: 5

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees