JP2000088539A - Method and apparatus for three-dimensional inputting - Google Patents

Method and apparatus for three-dimensional inputting

Info

Publication number
JP2000088539A
JP2000088539A JP25787098A JP25787098A JP2000088539A JP 2000088539 A JP2000088539 A JP 2000088539A JP 25787098 A JP25787098 A JP 25787098A JP 25787098 A JP25787098 A JP 25787098A JP 2000088539 A JP2000088539 A JP 2000088539A
Authority
JP
Japan
Prior art keywords
light
reference light
image
point
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP25787098A
Other languages
Japanese (ja)
Inventor
Hidekazu Ide
英一 井手
Toshio Norita
寿夫 糊田
Hiroshi Uchino
浩志 内野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP25787098A priority Critical patent/JP2000088539A/en
Priority to US09/393,384 priority patent/US6556307B1/en
Publication of JP2000088539A publication Critical patent/JP2000088539A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To realize three-dimensional inputting without recourse to angle-of- projection information on a reference light, and to obtain high-precision three- dimensional input data regardless of the precision of angle-of-projection control. SOLUTION: A reference light is projected toward a virtual surface so as to scan it, and the reference light reflected by a substance Q is received simultaneously at a first position A and a second position B separated from each other, and a point of time when the reference light reflected by the substance passes each sampling section being a fractionized virtual surface is detected, and the position of the substance Q is computed in each sampling section, on the basis of an angle of light reception θA of the reference light at the first position A, an angle of light reception θB of the reference light at the second position B, and the distance L between the first and second positions A, B.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、物体に参照光を投
射して物体を走査し、物体形状を特定するデータを得る
3次元入力方法及び3次元入力装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional input method and a three-dimensional input device for projecting reference light onto an object to scan the object and obtaining data for specifying the shape of the object.

【0002】[0002]

【従来の技術】レンジファインダと呼称される非接触型
の3次元入力装置は、接触型に比べて高速の計測が可能
であることから、CGシステムやCADシステムへのデ
ータ入力、身体計測、ロボットの視覚認識などに利用さ
れている。
2. Description of the Related Art A non-contact type three-dimensional input device called a range finder can perform higher-speed measurement than a contact type, and therefore can input data to a CG system or a CAD system, measure a body, and use a robot. It is used for visual recognition.

【0003】レンジファインダに好適な計測方法として
スリット光投影法(光切断法ともいう)が知られてい
る。この方法は、物体を光学的に走査して距離画像(3
次元画像)を得る方法であり、特定の参照光を投射して
物体を撮影する能動的計測方法の一種である。距離画像
は、物体上の複数の部位の3次元位置を示す画素の集合
である。スリット光投影法では、参照光として投射ビー
ムの断面が直線帯状であるスリット光が用いられる。走
査中のある時点では物体の一部が照射され、撮像面には
照射部分の起伏に応じて曲がった輝線が現れる。したが
って、走査中に周期的に撮像面の各画素の輝度をサンプ
リングすることにより、物体形状を特定する一群のデー
タ(3次元入力データ)を得ることができる。
[0003] As a measurement method suitable for a range finder, a slit light projection method (also called a light cutting method) is known. In this method, an object is optically scanned and a distance image (3
Dimensional image), which is a type of active measurement method for projecting a specific reference beam to photograph an object. The distance image is a set of pixels indicating three-dimensional positions of a plurality of parts on the object. In the slit light projection method, slit light in which a cross section of a projection beam has a linear band shape is used as reference light. At a certain point during the scanning, a part of the object is irradiated, and a bright line that is curved according to the undulation of the irradiated part appears on the imaging surface. Accordingly, a group of data (three-dimensional input data) for specifying the object shape can be obtained by periodically sampling the luminance of each pixel on the imaging surface during scanning.

【0004】従来においては、撮像面内の輝線の位置に
基づいて、物体で反射して撮像面に入射したスリット光
の入射角度を求め、その入射角度と当該スリット光の投
射角度と基線長(投射の起点と受光基準点との距離)と
から三角測量の手法で物体の位置を算出していた。つま
り、参照光の投射方向と受光方向とに基づく位置演算が
行われていた。なお、特開平10−2722号の装置の
ように参照光としてスポット光(ビーム断面が点状)を
用いる場合にも、投射方向と受光方向とに基づいて物体
の位置が算出されていた。
Conventionally, the incident angle of slit light reflected by an object and incident on the imaging surface is determined based on the position of the bright line in the imaging surface, and the incident angle, the projection angle of the slit light, and the base line length ( The position of the object is calculated from the distance between the projection start point and the light receiving reference point) by triangulation. That is, the position calculation based on the projection direction and the light receiving direction of the reference light has been performed. It should be noted that the position of the object is calculated based on the projection direction and the light receiving direction even when spot light (beam section is point-shaped) is used as the reference light as in the device of JP-A-10-2722.

【0005】[0005]

【発明が解決しようとする課題】従来においては、3次
元入力データの精度が参照光の投射角度制御の精度に依
存し、このために十分に高い精度の3次元入力データが
得られなかったり、精度を確保するために高価な部品を
用いなければならなかったり、投光系の取付け姿勢の調
整に手間がかかったりするという問題があった。精度の
確保が難しい理由としては、投光系は参照光を偏向する
可動機構を有しており、その動作は温度、湿度などの使
用環境の変化の影響を受け易いことが挙げられる。
Conventionally, the accuracy of the three-dimensional input data depends on the accuracy of the control of the projection angle of the reference light, so that sufficiently high accuracy of the three-dimensional input data cannot be obtained. There have been problems that expensive components must be used to ensure accuracy, and that it takes time to adjust the mounting posture of the light projecting system. The reason why it is difficult to ensure accuracy is that the light projection system has a movable mechanism for deflecting the reference light, and its operation is easily affected by changes in the use environment such as temperature and humidity.

【0006】なお、パターン光投影を行うステレオ視測
距装置においては、エピポラー拘束された複数の画像の
特徴点のマッチングによって複数の視点からみた物体位
置の方位が求めれら、それらの方位に基づいて三角測量
の手法で物体位置が算出される。この3次元入力方法で
は、3次元入力データの精度がパターン光投射の精度に
は依存しないものの、マッチングの精度に依存する。受
光デバイスの画素間の感度のばらつきもマッチングに影
響する。
In a stereo vision ranging apparatus that performs pattern light projection, the orientations of object positions as viewed from a plurality of viewpoints are obtained by matching feature points of a plurality of epipolar-constrained images, and based on those orientations. The object position is calculated by a triangulation method. In this three-dimensional input method, the accuracy of three-dimensional input data does not depend on the accuracy of pattern light projection, but depends on the accuracy of matching. Variations in sensitivity between pixels of the light receiving device also affect matching.

【0007】本発明は、参照光の投射角度情報によらな
い3次元入力を実現し、投射角度制御の精度に係わらず
高精度の3次元入力データを得ることを目的としてい
る。
An object of the present invention is to realize three-dimensional input that does not depend on projection angle information of reference light, and to obtain highly accurate three-dimensional input data regardless of the accuracy of projection angle control.

【0008】[0008]

【課題を解決するための手段】本発明においては、参照
光で部分的に照らされた状態の物体を互いに離れた2点
のそれぞれを視点として撮像し、視点間の距離と各視点
からみた物体上の照射部分の方位(視点どうしを結ぶ直
線に対する傾き)とから三角測量の手法で照射部分の位
置を算出する。
According to the present invention, an object partially illuminated by reference light is imaged at two points apart from each other as viewpoints, and the distance between the viewpoints and the object viewed from each viewpoint are taken. The position of the irradiated part is calculated from the azimuth of the upper irradiated part (inclination with respect to the straight line connecting the viewpoints) by a triangulation method.

【0009】請求項1の発明の方法は、仮想面に向かっ
てそれを走査するように参照光を投射し、物体で反射し
た前記参照光を、互いに離れた第1及び第2の位置で同
時に受光し、物体で反射した前記参照光が前記仮想面を
細分化した各サンプリング区画を通過する時点を検出
し、検出した各時点における前記第1及び第2の位置の
それぞれでの前記参照光の受光角度と、前記第1及び第
2の位置どうしの距離とに基づいて、前記各サンプリン
グ区画毎に前記物体の位置を算出する3次元入力方法で
ある。
According to a first aspect of the present invention, a reference light is projected so as to scan the virtual surface toward a virtual surface, and the reference light reflected by an object is simultaneously reflected at first and second positions separated from each other. Receiving and detecting a point in time at which the reference light reflected by the object passes through each sampling section obtained by subdividing the virtual plane, and detecting the reference light at each of the first and second positions at each detected time. A three-dimensional input method for calculating a position of the object for each of the sampling sections based on a light receiving angle and a distance between the first and second positions.

【0010】請求項2の発明の装置は、仮想面に向かっ
てそれを走査するように参照光を投射する投光系と、物
体で反射した前記参照光を互いに離れた第1及び第2の
位置で同時に受光して電気信号に変換する撮像系と、前
記各位置に対応した電気信号に基づいて、物体で反射し
た前記参照光が前記仮想面を細分化した各サンプリング
区画を通過する時点を検出する信号処理手段とを備え、
前記信号処理手段の検出した各時点における前記第1及
び第2の位置のそれぞれでの前記参照光の受光角度に応
じたデータを、前記物体における複数の部位の位置情報
として出力する3次元入力装置である。
According to a second aspect of the present invention, there is provided an apparatus for projecting a reference light so as to scan the virtual surface toward a virtual surface, and a first and a second system which separate the reference light reflected by an object from each other. An imaging system that receives light simultaneously at a position and converts it into an electric signal, and based on the electric signal corresponding to each position, determines when the reference light reflected by an object passes through each sampling section obtained by subdividing the virtual plane. Signal processing means for detecting,
A three-dimensional input device that outputs data corresponding to the light receiving angle of the reference light at each of the first and second positions at each time point detected by the signal processing unit as position information of a plurality of parts of the object. It is.

【0011】請求項3の発明の3次元入力装置におい
て、前記参照光の投射の起点は、前記第1の位置と前記
第2の位置との間の位置である。請求項4の発明の3次
元入力装置において、前記参照光の投射の起点は、前記
第1及び第2の位置の双方に対して等距離の位置であ
る。
In the three-dimensional input device according to the present invention, the starting point of the projection of the reference light is a position between the first position and the second position. 5. The three-dimensional input device according to claim 4, wherein a starting point of the projection of the reference light is a position equidistant from both the first and second positions.

【0012】[0012]

【発明の実施の形態】図1は第1実施形態に係る3次元
入力装置1の機能ブロック図である。3次元入力装置1
は、スリット光Uを投射する投光系10と、同一構成の
2個の撮像系20A,20Bからなる受光系20と、同
一構成の2個の受光信号処理部30A,30Bとを有し
ている。
FIG. 1 is a functional block diagram of a three-dimensional input device 1 according to a first embodiment. 3D input device 1
Has a light projecting system 10 that projects slit light U, a light receiving system 20 including two imaging systems 20A and 20B having the same configuration, and two light receiving signal processing units 30A and 30B having the same configuration. I have.

【0013】投光系10は、光源としての半導体レーザ
12、ビーム整形のためのレンズ群13、及び投射角度
を変更するビーム偏向手段としてのガルバノミラー14
からなる。レンズ群13は、コリメータレンズとシリン
ドリカルレンズとで構成される。ガルバノミラー14に
は、投光制御回路32からD/A変換器33を介して偏
向制御信号が与えられる。
The light projecting system 10 includes a semiconductor laser 12 as a light source, a lens group 13 for beam shaping, and a galvanomirror 14 as beam deflecting means for changing a projection angle.
Consists of The lens group 13 includes a collimator lens and a cylindrical lens. The galvanomirror 14 is provided with a deflection control signal from the light projection control circuit 32 via the D / A converter 33.

【0014】各撮像系20A,20Bは、受光レンズ2
1、ビームスプリッタ22、物体Qの形状を表す距離画
像を得るためのイメージセンサ24、モニター用の2次
元画像を得るためのカラーイメージセンサ25、及びズ
ーミングとフォーカシングとを可能にするレンズ駆動機
構26からなる。ビームスプリッタ22は、半導体レー
ザ12の発光波長域(例えば中心波長670nm)の光
と可視光とを分離する。イメージセンサ24及びカラー
イメージセンサ25はCCDエリアセンサである。ただ
し、CMOSエリアセンサをカラーイメージセンサ25
として使用してもよい。イメージセンサ24の出力はA
/D変換器35で所定ビット数の受光データに変換さ
れ、逐次にメモリ回路37に転送される。メモリ回路3
7では受光データの値に応じて後述の受光角度θA,θ
Bを特定するデータ(TA,TB)が記憶される。カラ
ーイメージセンサ25の出力はA/D変換器36で受光
データに変換され、カラー画像メモリ38によって逐次
に記憶される。メモリ回路37及びカラー画像メモリ3
8のアドレス指定はメモリ制御回路39が担う。
Each of the imaging systems 20A and 20B includes a light receiving lens 2
1, a beam splitter 22, an image sensor 24 for obtaining a range image representing the shape of the object Q, a color image sensor 25 for obtaining a two-dimensional image for monitoring, and a lens driving mechanism 26 for enabling zooming and focusing Consists of The beam splitter 22 separates light in the emission wavelength range (for example, center wavelength 670 nm) of the semiconductor laser 12 from visible light. The image sensor 24 and the color image sensor 25 are CCD area sensors. However, the CMOS area sensor is replaced with the color image sensor 25.
You may use as. The output of the image sensor 24 is A
The data is converted into light receiving data of a predetermined number of bits by the / D converter 35 and sequentially transferred to the memory circuit 37. Memory circuit 3
7, a light receiving angle θA, θ described later according to the value of the light receiving data.
Data (TA, TB) specifying B is stored. The output of the color image sensor 25 is converted into light receiving data by an A / D converter 36, and is sequentially stored by a color image memory 38. Memory circuit 37 and color image memory 3
The address designation of 8 is performed by the memory control circuit 39.

【0015】3次元入力装置1を制御するCPU31
は、制御対象に適時に指示を与えるとともに、各受光信
号処理部30A,30Bのメモリ回路37からデータを
読み出して距離画像データを得る演算を行う。距離画像
データは適時に3次元入力データとして図示しない外部
装置に出力される。その際、受光信号処理部30A,3
0Bの少なくとも一方のカラー画像メモリ38によって
記憶されている2次元カラー画像も出力される。外部装
置としては、コンピュータ、ディスプレイ、記憶装置な
どがある。
CPU 31 for controlling the three-dimensional input device 1
Gives an instruction to the control target in a timely manner, and performs an operation of reading data from the memory circuit 37 of each of the light receiving signal processing units 30A and 30B to obtain distance image data. The distance image data is output as appropriate three-dimensional input data to an external device (not shown). At this time, the light receiving signal processing sections 30A, 3
The two-dimensional color image stored in at least one of the color image memories 38 is also output. The external device includes a computer, a display, a storage device, and the like.

【0016】図2は投射の模式図、図3は距離画像デー
タの生成要領を説明するための図、図4は撮像における
視差を示す図である。3次元入力装置1は、ガルバノミ
ラー14の反射面上の点を起点Cとして仮想面VSを走
査するようにスリット光Uを投射する。仮想面VSは、
イメージセンサ24で撮像可能な空間(画角内の範囲)
の奥行き方向と直交する断面に相当する。そして、仮想
面VSのうちのイメージセンサ24における各画素gに
対応した範囲が、3次元入力のサンプリング区画とな
る。図2においては、投光の起点C、及び視点(受光の
主点)A,Bが一直線上に配置されている。ここで、視
点A,Bは垂直方向に沿って並び、スリット光Uのスリ
ット長さ方向は水平方向であるものとする。
FIG. 2 is a schematic diagram of the projection, FIG. 3 is a diagram for explaining the generation procedure of the distance image data, and FIG. 4 is a diagram showing parallax in imaging. The three-dimensional input device 1 projects the slit light U so as to scan the virtual surface VS with a point on the reflection surface of the galvanometer mirror 14 as a starting point C. The virtual plane VS is
Space that can be imaged by image sensor 24 (range within angle of view)
Corresponds to a cross section orthogonal to the depth direction. Then, a range of the virtual plane VS corresponding to each pixel g in the image sensor 24 is a three-dimensional input sampling section. In FIG. 2, a starting point C of light projection and viewpoints (principal points of light reception) A and B are arranged on a straight line. Here, the viewpoints A and B are arranged along the vertical direction, and the slit length direction of the slit light U is the horizontal direction.

【0017】物体Qの3次元入力の概要は次のとおりで
ある。2個のイメージセンサ24によるフレーム周期の
撮像に同期させてガルバノミラー14の偏向角を制御す
る。このとき、2個のイメージセンサ24を同一タイミ
ングで駆動する。つまり、物体Qを視点A,Bから同時
に撮像する。そして、各イメージセンサ24の各画素
が、刻々と偏向されていくスリット光Uのどの時点の投
射により照らされたかを検知する。
The outline of the three-dimensional input of the object Q is as follows. The deflection angle of the galvanomirror 14 is controlled in synchronization with the imaging of the frame period by the two image sensors 24. At this time, the two image sensors 24 are driven at the same timing. That is, the object Q is imaged simultaneously from the viewpoints A and B. Then, each pixel of each image sensor 24 is detected at which point in time the projection of the slit light U, which is deflected every moment, is illuminated.

【0018】一方の撮像系20Aのイメージセンサ24
における水平方向iA番目で垂直方向jA番目の画素g
iAjAに注目すると、画素giAjAに対応した視線上の点P
をスリット光Uが通過する際にその出力が最大となる。
このとき、他方の撮像系20Bのイメージセンサ24の
出力に注目すると、点Pを通る視線に対応した画素g
iBjBの出力が最大となる。ここで、撮像系20Aで撮像
される第1画像と撮像系20Bで撮像される第2画像と
について、垂直方向にエピポラー拘束が成り立っている
とすると、画素giAjAの水平方向位置iAに対して、画
素giBjBの水平方向位置iBは一意に決まる。また、画
素giAjAの垂直方向位置jAに対する画素giBjBの垂直
方向位置jBは、第2画像中の水平方向位置iBの画素
列のうち、画素giAjAの出力が最大となった時刻と同時
刻に出力が最大となった画素を見つければ判る。したが
って、撮像系20A,20Bのイメージセンサ24の各
画素の出力が最大となる時刻(輝度ピーク時刻)TA
iAjA,TBiBjBを把握すれば、第1画像中の各画素に対
応する第2画像中の画素を見つけ出すことができる。
The image sensor 24 of one image pickup system 20A
Pixel g in the iA-th horizontal direction and the jA-th vertical direction in
iAjANote that pixel giAjAPoint P on the line of sight corresponding to
When the slit light U passes through, the output becomes maximum.
At this time, the image sensor 24 of the other imaging system 20B
Focusing on the output, the pixel g corresponding to the line of sight passing through the point P
iBjBOutput becomes maximum. Here, imaging is performed by the imaging system 20A.
And a second image captured by the imaging system 20B.
Has an epipolar constraint in the vertical direction
Then the pixel giAjAFor the horizontal position iA of
Prime giBjBIs determined uniquely in the horizontal direction iB. Also,
Prime giAjAG for the vertical position jA ofiBjBVertical
The direction position jB is a pixel at the horizontal position iB in the second image.
Pixel g in the columniAjAAt the same time as the output of
You can tell if you find the pixel that has the maximum output every moment. But
Therefore, each of the image sensors 24 of the imaging systems 20A and 20B
Time (luminance peak time) TA at which the output of the pixel becomes maximum
iAjA, TBiBjBIs known, each pixel in the first image is
A corresponding pixel in the second image can be found.

【0019】点Pが第1画像の画素giAjAに対応すると
き、画素giAjAの位置で決まる受光角度θAiAjAと視点
Aの空間座標とによって特定される直線上に点Pが存在
することになる。同様に点Pが第2画像の画素giBjB
対応するとき、画素giBjBの位置で決まる受光角度θB
iBjBと視点Bの空間座標とによって特定される直線上に
点Pが存在することになる。つまり、これら2つの直線
の交点が点Pである。したがって、受光角度θAiBjB
θBiBjB及び視点間距離Lに基づいて、三角測量の原理
を適用して、視点A,Bを通る基線と点Pとの奥行き方
向の距離DiAjAを算出することができ、視点A,Bと点
Pとの相対位置を特定することができる。そして、以上
の処理を第1画像の各画素gについて行えば、物体Qに
ついて画素数分のサンプリング点の3次元位置情報が得
られる。
The point when P corresponds to the pixel g IAjA of the first image, in the presence of a point P on the line specified by the spatial coordinates of the light receiving angle .theta.A IAjA and the viewpoint A determined by the position of the pixel g IAjA Become. Similarly, when the point P corresponds to the pixel g iBjB of the second image, the light receiving angle θB determined by the position of the pixel g iBjB
The point P exists on a straight line specified by iBjB and the spatial coordinates of the viewpoint B. That is, the point of intersection of these two straight lines is point P. Therefore, the light receiving angle θA iBjB ,
Based on θB iBjB and the distance L between viewpoints, the principle of triangulation is applied to calculate the depth DiAjA between the base line passing through the viewpoints A and B and the point P, and the viewpoints A and B can be calculated. The relative position with respect to the point P can be specified. Then, if the above processing is performed for each pixel g of the first image, three-dimensional position information of the sampling points of the object Q for the number of pixels can be obtained.

【0020】次に、輝度ピーク時刻を検出するための回
路の具体的な構成を説明する。なお、以下では画素位置
の区別が必要な場合を除いて、画素位置を表す添
iAjAiB jBの記述を省略する。
Next, a specific configuration of a circuit for detecting a luminance peak time will be described. Incidentally, unless the following necessary to distinguish the pixel position in which the index represents the pixel position IAjA, omitted the description of iB jB.

【0021】図5はメモリ回路の第1例のブロック図で
ある。例示のメモリ回路37は、2個のメモリ371,
376、比較器377、及びインデックスジェネレータ
378から構成されている。
FIG. 5 is a block diagram of a first example of the memory circuit. The example memory circuit 37 includes two memories 371,
376, a comparator 377, and an index generator 378.

【0022】メモリ371にはA/D変換器35から受
光データD35が入力され、メモリ376にはインデッ
クスジェネレータ378からフレーム番号Tが入力され
る。。比較器377は、イメージセンサ24の画素毎に
最新の入力データであるt番目のフレームの受光データ
D35と以前にメモリ371に書き込まれた受光データ
D35とを比較し、最新の受光データD35が以前の受
光データD35より大きい場合にメモリ371,376
に対して書込みを許可する。これを受けて各メモリ37
1,376は最新の入力データの上書きを行う。比較結
果が逆の場合は各メモリ371,376において以前の
記憶内容が保持される。したがって、走査が終了した時
点において、メモリ371は各画素g毎に受光データD
35の最大値を記憶し、メモリ376は各画素毎に受光
データD35が最大となったフレームの番号Tを記憶す
ることになる。各フレームの撮像は一定周期で行われる
ので、フレーム番号Tは走査期間中の時刻(走査開始か
らの経過時間)を表す。つまり、メモリ376が記憶す
るフレーム番号Tは上述の時刻TAiAjA,TBiBjBに相
当し、受光角度θAiAjA,θBiBjBの対応を特定する情
報である。
The memory 371 receives the light receiving data D35 from the A / D converter 35, and the memory 376 receives the frame number T from the index generator 378. . The comparator 377 compares, for each pixel of the image sensor 24, the received light data D35 of the t-th frame, which is the latest input data, with the received light data D35 previously written in the memory 371. Memory 371, 376
Write is permitted for. In response to this, each memory 37
1, 376 overwrites the latest input data. If the comparison result is reversed, the previous storage contents are held in the memories 371 and 376. Therefore, when the scanning is completed, the memory 371 stores the light receiving data D for each pixel g.
The maximum value of 35 is stored, and the memory 376 stores the number T of the frame having the maximum light receiving data D35 for each pixel. Since the imaging of each frame is performed at a fixed period, the frame number T indicates a time during the scanning period (elapsed time from the start of scanning). That is, the frame number T stored in the memory 376 corresponds to the above-mentioned times TA iAjA and TB iBjB , and is information for specifying the correspondence between the light receiving angles θA iAjA and θB iBjB .

【0023】この例によれば、比較的に簡単な回路構成
によって受光角度θAiAjA,θBiB jBを検知することが
できる。ただし、受光角度の検知の分解能はイメージセ
ンサ24の画素ピッチに依存する。分解能の向上を図っ
たものが次の第2例である。
According to this example, the light receiving angles θA iAjA and θB iB jB can be detected with a relatively simple circuit configuration. However, the resolution for detecting the light receiving angle depends on the pixel pitch of the image sensor 24. The second example in which the resolution is improved is as follows.

【0024】図6はメモリ回路の第2例のブロック図、
図7は撮像面における輝度分布と受光データとの関係を
示す図である。図6において図5に対応した要素には図
5と同一の符号を付してある。
FIG. 6 is a block diagram of a second example of the memory circuit.
FIG. 7 is a diagram showing the relationship between the luminance distribution on the imaging surface and the received light data. 6, the elements corresponding to FIG. 5 are denoted by the same reference numerals as in FIG.

【0025】第2例のメモリ回路37bは、メモリ37
1に加えてそれと同サイズの4個の2個のメモリ37
2,373,374,375を設け、計4個の1フレー
ムディレイメモリ379a〜dを介在させて各メモリ3
72〜375のデータ入力をメモリ371に対して順に
1フレームずつ遅らせるように構成したものである。す
なわち、メモリ回路37bでは、各画素gについて連続
した5フレームの受光データD35が同時に記憶され
る。比較器377は、入力が2フレーム遅れの第3番目
のメモリ373の入力と出力とを比較する。メモリ37
3の入力データ値が出力データ値(以前に書き込まれた
データ値)より大きい場合に、メモリ372〜375及
びメモリ376の書込みが許可される。
The memory circuit 37b of the second example includes a memory 37
1 plus 4 2 memories 37 of the same size
2, 373, 374, and 375, and a total of four 1-frame delay memories 379a to 379d intervene in each memory 3.
The configuration is such that the data input of 72 to 375 is delayed by one frame to the memory 371 in order. That is, in the memory circuit 37b, five consecutive frames of received light data D35 are simultaneously stored for each pixel g. The comparator 377 compares the input and the output of the third memory 373 whose input is delayed by two frames. Memory 37
If the input data value of No. 3 is larger than the output data value (the previously written data value), writing to the memories 372 to 375 and the memory 376 is permitted.

【0026】各走査が終了した時点において、メモリ3
73は各画素g毎に受光データD35の最大値を記憶す
ることになる。また、メモリ371,372,374,
375によって、受光データD35が最大となったフレ
ームの2つ前、1つ前、1つ後、2つ後の計4フレーム
の受光データD35が記憶されることになる。そして、
メモリ376は、各画素g毎に受光データD35が最大
となったフレームの番号Tを記憶することになる。
At the end of each scan, the memory 3
Reference numeral 73 stores the maximum value of the light receiving data D35 for each pixel g. Also, the memories 371, 372, 374,
With 375, the received light data D35 of two frames before, one before, one after, and two after the frame where the received light data D35 is maximum are stored. And
The memory 376 stores the number T of the frame in which the light receiving data D35 is maximum for each pixel g.

【0027】ここで、図7(a)のように、撮像面に結
像したスリット光像の幅が5画素分であり、輝度分布が
単一峰の山状であるものとする。このとき、1つの画素
gに注目すると、図7(b)のように輝度分布に応じた
変化の受光データが得られる。したがって、メモリ37
1〜375に記憶されている5フレーム分の受光データ
D35に基づいて重心演算を行うことにより、フレーム
周期(つまり画素ピッチ)よりも細かな刻みで時刻T
A,TBを算出することができる。図7(b)の例で
は、時刻TA(TB)はt回目と(t+1)回目のサン
プリング時刻間にある。
Here, as shown in FIG. 7A, it is assumed that the width of the slit light image formed on the imaging surface is 5 pixels and the luminance distribution is a single-peak mountain-like shape. At this time, paying attention to one pixel g, light reception data of a change according to the luminance distribution is obtained as shown in FIG. 7B. Therefore, the memory 37
The center of gravity is calculated based on the light receiving data D35 for five frames stored in the memory cells 1 to 375, so that the time T can be calculated in finer increments than the frame period (that is, the pixel pitch).
A and TB can be calculated. In the example of FIG. 7B, the time TA (TB) is between the t-th sampling time and the (t + 1) -th sampling time.

【0028】この第2例によれば分解能が向上するが、
輝度分布によっては所望の精度が得られないという問題
がある。すなわち、実際の撮像では、光学系の特性など
に起因して結像に何らかのノイズが加わる。このため、
輝度分布に複数のピークが生じたり、平坦でピークの不
明瞭な輝度分布となったりする。輝度分布が理想形状か
ら大きく外れると、重心演算の信頼性が低下する。
According to the second example, the resolution is improved.
There is a problem that desired accuracy cannot be obtained depending on the luminance distribution. That is, in actual imaging, some noise is added to the image formation due to characteristics of the optical system and the like. For this reason,
A plurality of peaks are generated in the luminance distribution, or the luminance distribution is flat and the peaks are unclear. If the luminance distribution deviates greatly from the ideal shape, the reliability of the center-of-gravity calculation decreases.

【0029】このようなノイズの影響は、輝度の最大値
が得られたフレームとその前後の各数フレームを合わせ
た程度の短い期間ではなく、十分に長い期間の輝度分布
に基づいて重心演算を行うことによって低減することが
できる。それを実現するのが次の第3例である。
The influence of such noise is caused by the calculation of the center of gravity based on the luminance distribution in a sufficiently long period, not a short period in which the frame in which the maximum value of the luminance is obtained and the several frames before and after the frame. By doing so, it can be reduced. This is realized in the following third example.

【0030】図8はメモリ回路の第3例のブロック図、
図9は図8に係る重心の概念図である。第3例のメモリ
回路37cは、メモリ3710、定常光データ記憶部3
720、減算部3730、第1加算部3740、第2加
算部3750、及び除算部3760から構成され、各画
素g毎にフレーム数分の受光データD35に基づいて重
心(時間重心)を算出する。
FIG. 8 is a block diagram of a third example of the memory circuit.
FIG. 9 is a conceptual diagram of the center of gravity according to FIG. The memory circuit 37c of the third example includes a memory 3710, a stationary light data storage unit 3,
720, a subtractor 3730, a first adder 3740, a second adder 3750, and a divider 3760, and calculates a centroid (time centroid) for each pixel g based on the light receiving data D35 for the number of frames.

【0031】メモリ3710は、物体Qに対する走査で
得られた所定数kのフレームの受光データD35を記憶
する。各画素gのT番目(T=1〜k)のフレームの受
光データ値をxT と表す。定常光データ記憶部3720
は、スリット光U以外の不要入射光量を表す定常光デー
タを記憶する。定常光データはスリット光Uが入射して
いないときの受光データD35に基づいて算出される。
その値sは、予め定めた固定値でもよいし、受光データ
D35を用いてリアルタイムで求めてもよい。固定値と
する場合には、受光データD35が8ビット(256階
調)である場合に、例えば「5」「6」又は「10」な
どとする。減算部3730は、メモリ3710から読み
出された受光データD35の値xT から定常光データの
値sを差し引く。ここで、減算部3730からの出力デ
ータの値をあらためてXT とする。第1加算部3740
は、画素g毎にk個の受光データD35について、それ
ぞれの値XT とそれに対応したフレーム番号Tとの乗算
を行い、得られた積の合計値を出力する。第2加算部3
750は、画素g毎にk個の受光データD35の値XT
の総和を出力する。除算部3760は、第1加算部37
40の出力値を第2加算部3750の出力値で除し、得
られた重心を時刻TA(又はTB)として出力する。
The memory 3710 stores received light data D35 of a predetermined number k of frames obtained by scanning the object Q. The light receiving data values of a frame of T th pixel g (T = 1 to k) is expressed as x T. Stationary light data storage unit 3720
Stores steady light data representing the amount of unnecessary incident light other than the slit light U. The steady light data is calculated based on the received light data D35 when the slit light U is not incident.
The value s may be a predetermined fixed value, or may be obtained in real time using the received light data D35. In the case of a fixed value, for example, “5”, “6”, or “10” when the light reception data D35 is 8 bits (256 gradations). Subtraction unit 3730 subtracts the value s of the stationary light data from the value x T of the light reception data D35 read from the memory 3710. Here, the value of the output data from the subtraction unit 3730 is set to X T again. First adder 3740
, For the k received light data D35 for each pixel g, performs multiplication of each value X T and the frame number T corresponding thereto, and outputs the sum of the resulting product. Second adder 3
750 is a value X T of k light receiving data D35 for each pixel g.
Output the sum of The division unit 3760 includes the first addition unit 37
The output value of 40 is divided by the output value of second adder 3750, and the obtained center of gravity is output as time TA (or TB).

【0032】図10は投光と受光との位置関係の設定例
を示す図である。投光系10及び受光系20の配置にお
いては、必ずしも投光の起点C及び受光の主点(視点)
Cが一直線上に並ぶ図10(a)又は(b)のような構
成にする必要はない。例えば、物体側からみて3個の点
A,B,CがL字状に並ぶ図10(c)の構成、T字状
に並ぶ図10(d)の構成を採用してもよい。特に、図
10(b)又は(d)のように視点Aと視点Bとの間に
起点Cを配置すれば、視点A,Bと起点Cとが異なるこ
とにより発生するオクルージョンを軽減することができ
る。その際には投光の起点Cと各視点A,Bとの距離d
を等しくするのが好ましい。
FIG. 10 is a diagram showing an example of setting the positional relationship between light emission and light reception. In the arrangement of the light projecting system 10 and the light receiving system 20, the starting point C of light projection and the main point (viewpoint) of light reception are not necessarily required.
It is not necessary to adopt a configuration as shown in FIG. 10A or 10B in which C is aligned. For example, the configuration shown in FIG. 10C in which three points A, B, and C are arranged in an L shape when viewed from the object side, or the configuration shown in FIG. 10D in which the three points A, B, and C are arranged in a T shape may be adopted. In particular, if the origin C is arranged between the viewpoint A and the viewpoint B as shown in FIG. 10B or 10D, occlusion caused by the difference between the viewpoints A and B and the origin C can be reduced. it can. In this case, the distance d between the starting point C of the light projection and each of the viewpoints A and B
Are preferably equal.

【0033】図11は第2実施形態に係る3次元入力装
置2の機能ブロック図である。図11及び以下の各図に
おいて図1と同一の符号を付した構成要素の機能は上述
の3次元入力装置1と同一である。
FIG. 11 is a functional block diagram of the three-dimensional input device 2 according to the second embodiment. In FIG. 11 and the following drawings, the functions of the components denoted by the same reference numerals as those in FIG. 1 are the same as those of the above-described three-dimensional input device 1.

【0034】第2実施形態は、スリット光ではなくビー
ム断面が点状のスポット光Vを投射し、1次元のイメー
ジセンサ(ラインセンサ)27を用いて撮像を行うもの
である。
In the second embodiment, spot light V having a beam cross section is projected instead of slit light, and imaging is performed using a one-dimensional image sensor (line sensor) 27.

【0035】3次元入力装置2は、投光系10bと、同
一構成の2個の撮像系20Ab,20Bbからなる受光
系20bと、同一構成の2個の受光信号処理部30A
b,30Bbとを有している。投光系10bは、半導体
レーザ12、コリメータレンズ13b、及びガルバノミ
ラー14bからなる。
The three-dimensional input device 2 includes a light projecting system 10b, a light receiving system 20b including two imaging systems 20Ab and 20Bb having the same configuration, and two light receiving signal processing units 30A having the same configuration.
b, 30Bb. The light projecting system 10b includes a semiconductor laser 12, a collimator lens 13b, and a galvanomirror 14b.

【0036】各撮像系20Ab,20Bbは、受光レン
ズ21、レンズ駆動機構26、赤外カットフィルタF
1、バンドパスフィルタF2、フィルタ切換え機構2
8、及び3次元入力とモニター撮影とに兼用のイメージ
センサ27からなる。イメージセンサ27は、RGBの
各色に対応した画素列を有する3ラインCCDセンサで
ある。モニター撮影のときには赤外カットフィルタF1
を用いる。また、3次元入力のときにはレーザ波長域の
光を透過させるバンドパスフィルタF2を用い、イメー
ジセンサ27のRの画素列の出力のみを受光情報として
用いる。
Each of the imaging systems 20Ab and 20Bb includes a light receiving lens 21, a lens driving mechanism 26, an infrared cut filter F
1. Bandpass filter F2, filter switching mechanism 2
8, and an image sensor 27 that is used for both three-dimensional input and monitor shooting. The image sensor 27 is a three-line CCD sensor having a pixel row corresponding to each color of RGB. In case of monitor shooting, infrared cut filter F1
Is used. In the case of three-dimensional input, a bandpass filter F2 that transmits light in a laser wavelength range is used, and only the output of the R pixel row of the image sensor 27 is used as light reception information.

【0037】スポット光Vによる場合も、時刻TA,T
Bを検出することにより、物体Q上の点Pの位置を算出
することができる。その原理はスリット光Uによる場合
と同様であるので、ここではその説明を省略する。
In the case of using the spot light V, the time TA, T
By detecting B, the position of point P on object Q can be calculated. Since the principle is the same as that of the case using the slit light U, the description is omitted here.

【0038】図12は回転によって全周囲入力〔図12
(a)〕、全方位入力〔図12(b)〕を実現する装置
構成例を示す図、図13及び図14はミラーによって全
方位入力(図13)、全周囲入力(図14)を実現する
装置構成例を示す図である。
FIG. 12 shows an input of the entire circumference by rotation [FIG.
(A)], a diagram showing an example of an apparatus configuration for realizing omnidirectional input (FIG. 12 (b)). FIGS. 13 and 14 realize omnidirectional input (FIG. 13) and omnidirectional input (FIG. 14) using mirrors. FIG. 3 is a diagram showing an example of a device configuration for performing the above.

【0039】図12(a)の3次元入力装置3は、投光
及び撮像を行う光学系40と物体Qを乗せて回転するタ
ーンテーブル45とを備えている。光学系40は、フィ
ルタを切り換えて1個のイメージセンサで3次元入力と
カラー撮影とを行うように構成されている。ターンテー
ブル45は、ある方向から物体Qを走査して重心を求め
ると、所定角度だけ回転する。光学系40による走査と
ターンテーブル45の回転とをN回繰り返すことによ
り、物体Qの外周面の最大360°の角度範囲にわたる
3次元入力が可能である。光学系40にはN回分のデー
タ記憶が可能な容量のメモリを設けられている。何回目
の走査のデータであるからn ×θというかたちで方向成
分が求められるので、測定対象物の空間上での3次元位
置データが得られることになる。なお、物体Qを静止さ
せてその周囲を光学系40が回るように構成してもよ
い。
The three-dimensional input device 3 shown in FIG. 12A includes an optical system 40 for projecting light and capturing an image, and a turntable 45 for rotating with an object Q placed thereon. The optical system 40 is configured to perform three-dimensional input and color imaging with one image sensor by switching filters. When the turntable 45 scans the object Q from a certain direction to find the center of gravity, the turntable 45 rotates by a predetermined angle. By repeating the scanning by the optical system 40 and the rotation of the turntable 45 N times, it is possible to perform a three-dimensional input over the maximum 360 ° angle range of the outer peripheral surface of the object Q. The optical system 40 is provided with a memory capable of storing data N times. Since the direction component is obtained in the form of n × θ because of the data of the scan of the third time, three-dimensional position data in the space of the object to be measured can be obtained. It should be noted that the object Q may be stationary and the optical system 40 may rotate around the object Q.

【0040】図12(b)の3次元入力装置4では、タ
ーンテーブル46の上に光学系41が取り付けられてい
る。3次元入力装置4を用いれば、空洞を有した物体の
内壁面の全方位3次元入力が可能となる。
In the three-dimensional input device 4 shown in FIG. 12B, an optical system 41 is mounted on a turntable 46. The use of the three-dimensional input device 4 enables omnidirectional three-dimensional input of the inner wall surface of a hollow object.

【0041】図13は、凸型の曲面ミラー211,21
2を使用した全方位3次元入力装置5の構成例を示す。
曲面ミラ一211,212をそれらの反射面を下側に向
けて同心配置するとともに、各曲面ミラ一211,21
2の下方に1個ずつ撮像装置(例えばビデオカメラ)2
0Ae,20Beをその光軸がミラー軸と一致するよう
に配置する。曲面ミラ一211,212は、例えば双曲
面のように、軸対称で且つ軸を含む平面による断面がそ
の傾きを単調に増加させる曲線である形状をしている。
これにより、撮像装置20Ae,20Beと投光系10
eを含む光学系自身が写っている範囲を除いて、図中の
E1,E2の範囲の軸まわり全周の画像が、撮像装置2
0Ae,20Beの中に取り込まれる。
FIG. 13 shows convex curved mirrors 211 and 21.
2 shows an example of the configuration of an omnidirectional three-dimensional input device 5 that uses an input device 2.
The curved mirrors 211 and 212 are arranged concentrically with their reflecting surfaces facing downward, and the curved mirrors 211 and 212 are arranged concentrically.
Imaging device (for example, video camera) 2 one by one below 2
0Ae and 20Be are arranged such that their optical axes coincide with the mirror axes. Each of the curved mirrors 211 and 212 has, for example, a hyperboloid, and has a shape in which a cross section of a plane including an axis and having an axis is a curve that monotonically increases its inclination.
Thereby, the imaging devices 20Ae, 20Be and the light projecting system 10
Except for the range in which the optical system itself including e is shown, the image around the axis in the range of E1 and E2 in the figure is taken by the imaging device 2.
It is taken into 0Ae and 20Be.

【0042】投光系10eは、曲面ミラ一211,21
2の軸上に配置され、光源12、レンズ13e、走査ミ
ラー15及びミラー回転機構18を備えている。光源1
2から発せられた光は、レンズ13eにより適切な径を
有するビームに整えられ、走査ミラー15で反射して投
射される。走査ミラー15は、曲面ミラ一軸と垂直な軸
周り(図中のM2方向)の角度制御が可能であり、角度
範囲E内のビーム偏向をする。これを副走査とする。例
えばガルバノスキャナのような角度制御機構付きの走査
ミラー15を使用すれば、この副走査を実現することが
できる。
The light projecting system 10e includes curved mirrors 211 and 21.
And a light source 12, a lens 13e, a scanning mirror 15, and a mirror rotating mechanism 18. Light source 1
The light emitted from 2 is adjusted to a beam having an appropriate diameter by the lens 13e, and is reflected and projected by the scanning mirror 15. The scanning mirror 15 can control the angle around an axis perpendicular to one axis of the curved mirror (in the direction M2 in the figure), and deflects the beam within the angle range E. This is referred to as sub-scanning. For example, if a scanning mirror 15 having an angle control mechanism such as a galvano scanner is used, this sub-scanning can be realized.

【0043】ミラー回転機構18は、副走査中の走査ミ
ラー15を、それのみ又はレンズ13e及び光源12の
少なくとも一方とともに曲面ミラー軸周り(図中M1方
向)に回転させる。これによって、ビームは曲面ミラー
軸周り、すなわち撮像装置の光軸周りに全周を走査す
る。これを主走査とする。
The mirror rotating mechanism 18 rotates the scanning mirror 15 during sub-scanning alone or together with at least one of the lens 13e and the light source 12 around the curved mirror axis (in the direction M1 in the figure). Thereby, the beam scans all around the curved mirror axis, that is, around the optical axis of the imaging device. This is called main scanning.

【0044】主走査の1周期(方向M1の1回転)に対
し、走査ミラー15の角度を副走査方向M2の分解能分
だけ変化させる。これを角度範囲Eで片道1副走査の期
間に繰り返せば、角度範囲Eで曲面ミラー軸周り全周の
範囲をビームで走査することができる。
The angle of the scanning mirror 15 is changed by an amount corresponding to the resolution in the sub-scanning direction M2 for one cycle of the main scanning (one rotation in the direction M1). If this is repeated in the one-way sub-scanning period in the angle range E, the beam can scan the entire range around the curved mirror axis in the angle range E.

【0045】主走査の1周期は、撮像装置20Ae,2
0Beの露光時間以下になるように設定する。ビームの
投射角、すなわち走査ミラー15の副走査方向M2の偏
角φにおける全方位に投射したビームの反射光による軌
跡を撮像することができる。撮像する毎に走査ミラー1
5の角度を副走査方向M2の分解能分だけ変化させる。
この動作を繰り返しながら、上述の第1画像としての重
心画像A(時刻TAを示す画素の集合)を作成するとと
もに、第2画像としての重心画像B(時刻TBを示す画
素の集合)を作成する。
One cycle of the main scanning is performed by the imaging devices 20Ae and 2Ae.
The exposure time is set to be equal to or shorter than 0Be exposure time. The trajectory of reflected light of the beam projected in all directions at the beam projection angle, that is, the deflection angle φ of the scanning mirror 15 in the sub-scanning direction M2 can be imaged. Scanning mirror 1 every time an image is taken
5 is changed by the resolution in the sub-scanning direction M2.
By repeating this operation, the barycenter image A (a set of pixels indicating the time TA) as the above-described first image is created, and the center of gravity image B (a set of pixels indicating the time TB) is created as the second image. .

【0046】この二枚の時間重心画像A,Bにおいて
は、画像中心位置(曲面ミラー軸に相当する位置)から
放射状方向にエピポラー拘束が成立する。重心画像Aを
基準とし、重心画像A内の各画素gに対応する重心画像
Bの画素を求める。曲面ミラー211,212と撮像装
置20Ae,20Beとの位置関係、曲面ミラー21
1,212の形状定義式から各画素gに対する視線(直
線の式)を求める。重心画像A,Bの対応する画素どう
しの視線の交点を求めることで、物体Qの垂直方向と奥
行き方向の位置が求められる。また、重心画像Aの各画
素gと画像中心位置とから方位角を求めることかでき
る。したがって、重心画像A中の各画素gに対する空間
上の3次元位置を算出することが可能である。
In these two time centroid images A and B, epipolar constraints are established in a radial direction from the image center position (the position corresponding to the curved mirror axis). With reference to the center-of-gravity image A, a pixel of the center-of-gravity image B corresponding to each pixel g in the center-of-gravity image A is obtained. Positional relationship between curved mirrors 211 and 212 and imaging devices 20Ae and 20Be, curved mirror 21
The line of sight (straight line formula) for each pixel g is obtained from the shape definition formulas 1, 212. By finding the intersection of the line of sight of the corresponding pixels of the centroid images A and B, the position of the object Q in the vertical direction and the depth direction is obtained. Further, the azimuth can be obtained from each pixel g of the center-of-gravity image A and the image center position. Therefore, it is possible to calculate a three-dimensional position in space with respect to each pixel g in the center-of-gravity image A.

【0047】図14は、逆円錐台状の曲面ミラー220
を使用した全方位3次元入力装置6の構成例を示す。内
面が反射面となっている曲面ミラー220をその軸を鉛
直方向に向けて配置する。ミラー形状は、ミラー軸鉛直
上向きに座標軸hをとり、ある高さhに対するミラー断
面半径をr、h軸に対するミラー面の角度をθmとおい
て、以下の式で表わすことができる。
FIG. 14 shows a curved mirror 220 having an inverted truncated cone shape.
2 shows an example of the configuration of an omnidirectional three-dimensional input device 6 that uses the same. The curved mirror 220 whose inner surface is a reflection surface is arranged with its axis oriented in the vertical direction. The mirror shape can be expressed by the following equation, with the coordinate axis h taken vertically upward on the mirror axis, the mirror cross-sectional radius with respect to a certain height h as r, and the angle of the mirror surface with respect to the h-axis as θm.

【0048】r=h・tanθm+R ここでRは、h=0に対するrの値である。曲面ミラー
220の内側に入力対象の物体(図示の例では人体)Q
が置かれているとする。曲面ミラー220の上方に撮像
装置20Af,20Bf及び投光系10fが、それらの
光軸をミラー軸と一致させるように配置されている。曲
面ミラー220における逆円錐台の頂角、撮像装置20
Af,20Bfとの距離、及び撮像の画角を適切に設定
することによって、撮像装置20Af,20Bfは曲面
ミラー220を介して、頂点付近を除いた物体Qの全周
の像をひとつの画像の中に捉えることができる。投光系
10fは、ミラー軸を中心として光ビームの投射方位を
方向M1に回転させることが可能である。これを主走査
とする。同時に、光ビームの投射角θを鉛直面内で方向
M2に走査することができるものとする。これを副走査
とする。方向M1の走査は、モーターなどの動力源を使
用して投光系10fの一部または全部を回転運動させる
ことで実現できる。また、方向M2の変化は、例えばガ
ルバノスキャナのような走査デバイスを使用すれば容易
に可能である。なお、投光系10fは、撮像装置20A
f,20Bfの視野の中で、ミラーの反射面が存在せず
3次元情報の入力に関与しない中央付近の円形の領域内
に収まるように、その大きさや形状、及び鉛直方向の設
置位置を定める。
R = h · tan θm + R where R is the value of r for h = 0. An object to be input (a human body in the illustrated example) Q inside the curved mirror 220
Is located. Above the curved mirror 220, the imaging devices 20Af, 20Bf and the light projecting system 10f are arranged so that their optical axes coincide with the mirror axes. Apex angle of inverted truncated cone in curved mirror 220, imaging device 20
By appropriately setting the distance to Af and 20Bf and the angle of view of imaging, the imaging devices 20Af and 20Bf can use the curved mirror 220 to convert the image of the entire circumference of the object Q excluding the vicinity of the vertex into one image. Can be caught inside. The light projecting system 10f can rotate the projection direction of the light beam about the mirror axis in the direction M1. This is called main scanning. At the same time, it is assumed that the projection angle θ of the light beam can be scanned in the direction M2 in the vertical plane. This is referred to as sub-scanning. The scanning in the direction M1 can be realized by rotating a part or all of the light projecting system 10f using a power source such as a motor. The change in the direction M2 can be easily achieved by using a scanning device such as a galvano scanner. In addition, the light projecting system 10f includes the imaging device 20A.
In the field of view of f, 20Bf, the size, shape, and vertical installation position are determined so that the mirror does not exist and does not participate in the input of three-dimensional information. .

【0049】物体Q上の点Pの像が、撮像装置20Af
で撮影した画像において画像中心位置からの像高rPA
点PAiとして観測されているとする。この3次元入力
本装置6は軸対称であるので、簡単化のために、以下で
は方位角を固定して、ミラー軸を含むある鉛直断面内に
着目して説明する。
The image of the point P on the object Q is
Is assumed to be observed as a point PAi at an image height r PA from the image center position in the image captured at. Since the three-dimensional input device 6 is axially symmetric, for simplicity, the azimuth will be fixed and the following description will focus on a certain vertical section including the mirror axis.

【0050】点Pは次の式で表現される直線x’上に存
在する。 r=h tan〔atan(rPA/H)+2θm〕+Rhx[H
tan〔atan(rPA/H)+2θm〕+rPA]/(H tanθ
m+rPA) ただし、ここで撮像装置20Afのレンズ系の主点位置
をh=hx=0、主点と結像面との距離をH、h=hx
に対するrの値をRhxとしている。
The point P exists on a straight line x 'expressed by the following equation. r = h tan [atan (r PA / H) + 2θm] + Rhx [H
tan [atan (r PA / H) + 2θm ] + r PA] / (H tanθ
m + r PA ) Here, the principal point position of the lens system of the imaging device 20Af is h = hx = 0, the distance between the principal point and the imaging plane is H, h = hx
Is set to Rhx.

【0051】また、物体Q上の点Pの像が、撮像装置2
0Bfで撮影した画像において画像中心位置からの像高
PBの点PBiとして観測されているとする。このとき
点Pは次の式で表現される直線y’上に存在する。 r=h tan〔atan(rPB/H)+2θm〕+Rhy[H
tan〔atan(rPB/H)+2θm〕+rPB]/(H tanθ
m+rPB) ただし、ここで撮像装置20Afのレンズ系の主点位置
をh=hx=0、撮像装置20Bfのレンズ系の主点と
結像面との距離をH、h=hyに対するrの値をRhy
としている。
The image of the point P on the object Q is
It is assumed that an image captured at 0Bf is observed as a point PBi at an image height r PB from the image center position. At this time, the point P exists on a straight line y 'expressed by the following equation. r = h tan [atan (r PB / H) + 2θm] + Rhy [H
tan [atan (r PB / H) + 2θm ] + r PB] / (H tanθ
m + r PB ) Here, the principal point position of the lens system of the imaging device 20Af is h = hx = 0, the distance between the principal point of the lens system of the imaging device 20Bf and the imaging surface is H, and the value of r for h = hy. To Rhy
And

【0052】これらのことから、点P(画像において点
Pi)の位置(奥行き方向の位置:r、垂直方向の位
置:h)は直線x’と直線y’との交点として定まるこ
とになる。したがって、点Pの位置は、撮像装置20A
f,20Bfで観測された点PAi,PBiから算出す
ることが可能である。また、点PAiと画像中心位置と
から方位角を求めることかできるので、撮像面のの各画
素に対する空間上の3次元位置を算出することが可能で
ある。
From these facts, the position of the point P (point Pi in the image) (position in the depth direction: r, position in the vertical direction: h) is determined as the intersection of the straight line x 'and the straight line y'. Therefore, the position of the point P is determined by the imaging device 20A.
f, 20Bf, it is possible to calculate from the points PAi, PBi observed. Further, since the azimuth can be determined from the point PAi and the image center position, it is possible to calculate the three-dimensional position in space with respect to each pixel on the imaging surface.

【0053】一部繰り返しになるが、3次元入力の過程
を説明する。主走査の1周期は撮像装置20Af,20
Bfの露光時間以下になるように設定する。1主走査
で、ビームの投射角すなわち走査ミラー15の偏角θに
おける全方位に投射したビームの反射光による軌跡を撮
像することができる。撮像する毎に、偏角θを副走査方
向M2の分解能分だけ変化させる。この動作を繰り返し
ながら、撮像装置20Afを用いて上述の第1の画像と
しての重心画像Aを作成し、同時に撮像装置20Bfを
用いて上述の第2の画像としての重心画像Bを作成す
る。
The process of three-dimensional input will be described, although it will be partially repeated. One cycle of main scanning is performed by the imaging devices 20Af and 20Af.
The exposure time is set to be equal to or shorter than the exposure time of Bf. In one main scan, the trajectory of reflected light of the beam projected in all directions at the beam projection angle, that is, the deflection angle θ of the scanning mirror 15 can be imaged. Each time an image is taken, the argument θ is changed by the resolution in the sub-scanning direction M2. By repeating this operation, the center-of-gravity image A as the above-described first image is created using the imaging device 20Af, and at the same time, the center-of-gravity image B as the above-described second image is created using the imaging device 20Bf.

【0054】この二枚の重心画像A,Bにおいては画像
中心位置を中心とする放射状方向にエピポラー拘束が成
立する。重心画像Aを基準とし、重心画像A内の各画素
に対応する重心画像B内の画素を求める(エピポラー拘
束が成立する方向にて)。曲面ミラー220と撮像装置
20Af,20Bfとの位置関係、曲面ミラー220の
形状定義式から各画素に対する視線(直線の式)を求め
る。重心画像A,Bの対応する画素どうしの視線の交点
を求めることで、垂直方向と奥行き方向の位置が求めら
れる。また、重心画像Aの各画素と画像中心位置とから
方位角を求めることかできる。したがって、重心画像A
の各画素に対する空間上の3次元位置を算出することが
可能である。
In these two center-of-gravity images A and B, an epipolar constraint is established in a radial direction with the image center position as a center. With reference to the center-of-gravity image A, a pixel in the center-of-gravity image B corresponding to each pixel in the center-of-gravity image A is determined (in a direction in which the epipolar constraint is satisfied). From the positional relationship between the curved mirror 220 and the imaging devices 20Af and 20Bf, and the shape definition formula of the curved mirror 220, the line of sight (straight line formula) for each pixel is obtained. By obtaining the intersection of the line of sight of the corresponding pixels of the centroid images A and B, the positions in the vertical direction and the depth direction are obtained. Further, the azimuth can be obtained from each pixel of the center-of-gravity image A and the image center position. Therefore, the center of gravity image A
It is possible to calculate a three-dimensional position in space for each pixel of.

【0055】[0055]

【発明の効果】請求項1乃至請求項4の発明によれば、
参照光の投射角度情報によらない3次元入力を実現し、
投射角度制御の精度に係わらず高精度の3次元入力デー
タを得ることができる。
According to the first to fourth aspects of the present invention,
Realize three-dimensional input that does not depend on projection angle information of reference light,
Highly accurate three-dimensional input data can be obtained regardless of the accuracy of the projection angle control.

【図面の簡単な説明】[Brief description of the drawings]

【図1】第1実施形態に係る3次元入力装置の機能ブロ
ック図である。
FIG. 1 is a functional block diagram of a three-dimensional input device according to a first embodiment.

【図2】投射の模式図である。FIG. 2 is a schematic diagram of projection.

【図3】距離画像データの生成要領を説明するための図
である。
FIG. 3 is a diagram for explaining a point of generation of distance image data.

【図4】撮像における視差を示す図である。FIG. 4 is a diagram illustrating parallax in imaging.

【図5】メモリ回路の第1例のブロック図である。FIG. 5 is a block diagram of a first example of a memory circuit.

【図6】メモリ回路の第2例のブロック図である。FIG. 6 is a block diagram of a second example of the memory circuit.

【図7】撮像面における輝度分布と受光データとの関係
を示す図である。
FIG. 7 is a diagram illustrating a relationship between a luminance distribution on an imaging surface and received light data.

【図8】メモリ回路の第3例のブロック図である。FIG. 8 is a block diagram of a third example of the memory circuit.

【図9】図8に係る重心の概念図である。9 is a conceptual diagram of the center of gravity according to FIG.

【図10】投光と受光との位置関係の設定例を示す図で
ある。
FIG. 10 is a diagram illustrating a setting example of a positional relationship between light projection and light reception.

【図11】第2実施形態に係る3次元入力装置2の機能
ブロック図である。
FIG. 11 is a functional block diagram of a three-dimensional input device 2 according to a second embodiment.

【図12】回転によって全周囲入力又は全方位入力を実
現する装置構成例を示す図である。
FIG. 12 is a diagram illustrating an example of a device configuration that realizes omnidirectional input or omnidirectional input by rotation.

【図13】ミラーによって全方位入力を実現する装置構
成例を示す図である。
FIG. 13 is a diagram showing an example of an apparatus configuration for realizing omnidirectional input by a mirror.

【図14】ミラーによって全周囲入力を実現する装置構
成例を示す図である。
FIG. 14 is a diagram illustrating an example of a device configuration that realizes omnidirectional input by a mirror.

【符号の説明】[Explanation of symbols]

1〜6 3次元入力装置 A 視点(第1の位置) B 視点(第2の位置) P 点(物体上の特定部位) U,V 参照光 L 距離(視点間の距離) VS 仮想面 TA,TB 時刻(サンプリング区画を通過する時点) θA,θB 受光角度 10 投光系 20 撮像系 37 メモリ回路(信号処理手段) 1-6 3D input device A viewpoint (first position) B viewpoint (second position) P point (specific part on object) U, V reference light L distance (distance between viewpoints) VS virtual plane TA, TB time (time when passing through the sampling section) θA, θB Light receiving angle 10 Light projecting system 20 Imaging system 37 Memory circuit (signal processing means)

───────────────────────────────────────────────────── フロントページの続き (72)発明者 内野 浩志 大阪府大阪市中央区安土町二丁目3番13号 大阪国際ビル ミノルタ株式会社内 Fターム(参考) 2F065 AA04 AA17 AA53 FF01 FF02 FF04 FF09 GG06 HH04 HH05 JJ02 JJ03 JJ05 JJ25 JJ26 LL00 LL08 LL13 LL19 LL22 LL26 LL62 MM04 MM16 PP13 QQ00 QQ01 QQ03 QQ17 QQ23 QQ24 QQ25 QQ26 QQ27 QQ29 QQ31  ────────────────────────────────────────────────── ─── Continued on the front page (72) Inventor Hiroshi Uchino 2-3-13 Azuchicho, Chuo-ku, Osaka-shi, Osaka F-term (reference) 2F065 AA04 AA17 AA53 FF01 FF02 FF04 FF09 GG06 HH04 HH05 JJ02 JJ03 JJ05 JJ25 JJ26 LL00 LL08 LL13 LL19 LL22 LL26 LL62 MM04 MM16 PP13 QQ00 QQ01 QQ03 QQ17 QQ23 QQ24 QQ25 QQ26 QQ27 QQ29 QQ31

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】仮想面に向かってそれを走査するように参
照光を投射し、 物体で反射した前記参照光を、互いに離れた第1及び第
2の位置で同時に受光し、 物体で反射した前記参照光が前記仮想面を細分化した各
サンプリング区画を通過する時点を検出し、 検出した各時点における前記第1及び第2の位置のそれ
ぞれでの前記参照光の受光角度と、前記第1及び第2の
位置どうしの距離とに基づいて、前記各サンプリング区
画毎に前記物体の位置を算出することを特徴とする3次
元入力方法。
1. A reference light is projected so as to scan it toward a virtual surface, and the reference light reflected by an object is simultaneously received at first and second positions separated from each other, and reflected by an object. Detecting a point in time at which the reference light passes through each of the sampling sections obtained by subdividing the virtual plane; and detecting a reception angle of the reference light at each of the first and second positions at each of the detected times; And calculating a position of the object for each of the sampling sections based on the distance between the second position and the second position.
【請求項2】仮想面に向かってそれを走査するように参
照光を投射する投光系と、 物体で反射した前記参照光を互いに離れた第1及び第2
の位置で同時に受光して電気信号に変換する撮像系と、 前記各位置に対応した電気信号に基づいて、物体で反射
した前記参照光が前記仮想面を細分化した各サンプリン
グ区画を通過する時点を検出する信号処理手段とを備
え、 前記信号処理手段の検出した各時点における前記第1及
び第2の位置のそれぞれでの前記参照光の受光角度に応
じたデータを、前記物体における複数の部位の位置情報
として出力することを特徴とする3次元入力装置。
2. A light projecting system for projecting a reference light so as to scan the virtual surface toward a virtual surface, and a first and a second light sources which separate the reference light reflected by an object from each other.
An imaging system that receives light at the same time and converts it into an electric signal, and based on the electric signal corresponding to each position, a point in time at which the reference light reflected by the object passes through each sampling section obtained by subdividing the virtual plane. Signal processing means for detecting the position of the reference light at each of the first and second positions at each time point detected by the signal processing means. A three-dimensional input device for outputting as position information.
【請求項3】前記参照光の投射の起点は、前記第1の位
置と前記第2の位置との間の位置である請求項2記載の
3次元入力装置。
3. The three-dimensional input device according to claim 2, wherein a starting point of the projection of the reference light is a position between the first position and the second position.
【請求項4】前記参照光の投射の起点は、前記第1及び
第2の位置の双方に対して等距離の位置である請求項3
記載の3次元入力装置。
4. A projection starting point of said reference light is located at a position equidistant from both said first and second positions.
3. The three-dimensional input device according to claim 1.
JP25787098A 1998-09-11 1998-09-11 Method and apparatus for three-dimensional inputting Pending JP2000088539A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP25787098A JP2000088539A (en) 1998-09-11 1998-09-11 Method and apparatus for three-dimensional inputting
US09/393,384 US6556307B1 (en) 1998-09-11 1999-09-10 Method and apparatus for inputting three-dimensional data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25787098A JP2000088539A (en) 1998-09-11 1998-09-11 Method and apparatus for three-dimensional inputting

Publications (1)

Publication Number Publication Date
JP2000088539A true JP2000088539A (en) 2000-03-31

Family

ID=17312330

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25787098A Pending JP2000088539A (en) 1998-09-11 1998-09-11 Method and apparatus for three-dimensional inputting

Country Status (1)

Country Link
JP (1) JP2000088539A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006220425A (en) * 2005-02-08 2006-08-24 Matsushita Electric Ind Co Ltd Visual inspection device and visual inspection method for printed circuit board
JP2011191253A (en) * 2010-03-16 2011-09-29 Sanpa Kogyo Kk Laser shape recognition sensor and measuring device
DE112021004600T5 (en) 2020-11-25 2023-06-29 Fanuc Corporation THREE-DIMENSIONAL MEASUREMENT DEVICE AND THREE-DIMENSIONAL MEASUREMENT PROCEDURE
DE112021004793T5 (en) 2020-09-07 2023-07-06 Fanuc Corporation Device for three-dimensional measurements

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006220425A (en) * 2005-02-08 2006-08-24 Matsushita Electric Ind Co Ltd Visual inspection device and visual inspection method for printed circuit board
JP2011191253A (en) * 2010-03-16 2011-09-29 Sanpa Kogyo Kk Laser shape recognition sensor and measuring device
DE112021004793T5 (en) 2020-09-07 2023-07-06 Fanuc Corporation Device for three-dimensional measurements
DE112021004600T5 (en) 2020-11-25 2023-06-29 Fanuc Corporation THREE-DIMENSIONAL MEASUREMENT DEVICE AND THREE-DIMENSIONAL MEASUREMENT PROCEDURE

Similar Documents

Publication Publication Date Title
US10401143B2 (en) Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device
US10088296B2 (en) Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device
CN102538679B (en) Image correlation displacement sensor
US6556307B1 (en) Method and apparatus for inputting three-dimensional data
JP3991501B2 (en) 3D input device
JP3941631B2 (en) Three-dimensional imaging apparatus and method
JP2927179B2 (en) 3D shape input device
JP2000283721A (en) Three-dimensional input device
JPH09145318A (en) Three-dimensional measuring equipment
JP2000088539A (en) Method and apparatus for three-dimensional inputting
US6297881B1 (en) Three-dimensional measurement method and three-dimensional measurement device
JP4158300B2 (en) 3D input method and 3D input device
JP2004193947A (en) Three-dimensional imaging apparatus and method
JPH05322526A (en) Three dimensional form measuring apparatus
JP4032556B2 (en) 3D input device
JP2000171222A (en) Method and device for three-dimensional input
JP3360505B2 (en) Three-dimensional measuring method and device
JP2673196B2 (en) 3D shape sensor
JP3695169B2 (en) 3D input method and 3D input device
JP2000171223A (en) Three-dimensional input device
JPH09145320A (en) Three-dimensional input camera
JPH02151828A (en) All-azimuth observation device
JP2731681B2 (en) 3D measurement system
JPH11230720A (en) Three-dimensional information measuring method and equipment
JP2000171225A (en) Method and device for three-dimensional input

Legal Events

Date Code Title Description
A977 Report on retrieval

Effective date: 20040917

Free format text: JAPANESE INTERMEDIATE CODE: A971007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041102

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050315