JP2000171223A - Three-dimensional input device - Google Patents
Three-dimensional input deviceInfo
- Publication number
- JP2000171223A JP2000171223A JP10347696A JP34769698A JP2000171223A JP 2000171223 A JP2000171223 A JP 2000171223A JP 10347696 A JP10347696 A JP 10347696A JP 34769698 A JP34769698 A JP 34769698A JP 2000171223 A JP2000171223 A JP 2000171223A
- Authority
- JP
- Japan
- Prior art keywords
- light
- data
- projection
- angle
- dimensional input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、物体に参照光を投
射して物体を走査し、物体形状を特定するデータを得る
3次元入力装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional input device for projecting reference light onto an object, scanning the object, and obtaining data for specifying the shape of the object.
【0002】[0002]
【従来の技術】レンジファインダと呼称される非接触型
の3次元入力装置は、接触型に比べて高速の計測が可能
であることから、CGシステムやCADシステムへのデ
ータ入力、身体計測、ロボットの視覚認識などに利用さ
れている。2. Description of the Related Art A non-contact type three-dimensional input device called a range finder can perform higher-speed measurement than a contact type, and therefore can input data to a CG system or a CAD system, measure a body, and use a robot. It is used for visual recognition.
【0003】レンジファインダに好適な計測方法として
スリット光投影法(光切断法ともいう)が知られてい
る。この方法は、物体を光学的に走査して距離画像(3
次元画像)を得る方法であり、特定の参照光を投射して
物体を撮影する能動的計測方法の一種である。距離画像
は、物体上の複数の部位の3次元位置を示す画素の集合
である。スリット光投影法では、参照光として投射ビー
ムの断面が直線帯状であるスリット光が用いられる。走
査中のある時点では物体の一部が照射され、撮像面には
照射部分の起伏に応じて曲がった輝線が現れる。したが
って、走査中に周期的に撮像面の各画素の輝度をサンプ
リングすることにより、物体形状を特定する一群のデー
タ(3次元入力データ)を得ることができる。[0003] As a measurement method suitable for a range finder, a slit light projection method (also called a light cutting method) is known. In this method, an object is optically scanned and a distance image (3
Dimensional image), which is a type of active measurement method for projecting a specific reference beam to photograph an object. The distance image is a set of pixels indicating three-dimensional positions of a plurality of parts on the object. In the slit light projection method, slit light in which a cross section of a projection beam has a linear band shape is used as reference light. At a certain point during the scanning, a part of the object is irradiated, and a bright line that is curved according to the undulation of the irradiated part appears on the imaging surface. Accordingly, a group of data (three-dimensional input data) for specifying the object shape can be obtained by periodically sampling the luminance of each pixel on the imaging surface during scanning.
【0004】従来においては、撮像面内の輝線の位置に
基づいて、物体で反射して撮像面に入射したスリット光
の入射角度を求め、その入射角度と当該スリット光の投
射角度と基線長(投射の起点と受光基準点との距離)と
から三角測量の手法で物体の位置を算出していた。つま
り、参照光の投射方向と受光方向とに基づく位置演算が
行われていた。なお、特開平10−2722号の装置の
ように参照光としてスポット光(ビーム断面が点状)を
用いる場合にも、投射方向と受光方向とに基づいて物体
の位置が算出されていた。Conventionally, the incident angle of slit light reflected by an object and incident on the imaging surface is determined based on the position of the bright line in the imaging surface, and the incident angle, the projection angle of the slit light, and the base line length ( The position of the object is calculated from the distance between the projection start point and the light receiving reference point) by triangulation. That is, the position calculation based on the projection direction and the light receiving direction of the reference light has been performed. It should be noted that the position of the object is calculated based on the projection direction and the light receiving direction even when spot light (beam section is point-shaped) is used as the reference light as in the device of JP-A-10-2722.
【0005】[0005]
【発明が解決しようとする課題】従来においては、3次
元入力データの精度が参照光の投射角度制御の精度に依
存し、このために十分に高い精度の3次元入力データが
得られなかったり、精度を確保するために高価な部品を
用いなければならなかったり、投光系の取付け姿勢の調
整に手間がかかったりするという問題があった。精度の
確保が難しい理由としては、投光系は参照光を偏向する
可動機構を有しており、その動作は温度、湿度などの使
用環境の変化の影響を受け易いことが挙げられる。Conventionally, the accuracy of the three-dimensional input data depends on the accuracy of the control of the projection angle of the reference light, so that sufficiently high accuracy of the three-dimensional input data cannot be obtained. There have been problems that expensive components must be used to ensure accuracy, and that it takes time to adjust the mounting posture of the light projecting system. The reason why it is difficult to ensure accuracy is that the light projection system has a movable mechanism for deflecting the reference light, and its operation is easily affected by changes in the use environment such as temperature and humidity.
【0006】本発明は、参照光の投射角度情報によらな
い3次元入力を実現し、投射角度制御の精度に係わらず
高精度の3次元入力データを得ることを可能にするとと
もに、動作モードの多様化による利便性の向上を図るこ
とを目的としている。The present invention realizes three-dimensional input that does not depend on the projection angle information of the reference light, makes it possible to obtain high-precision three-dimensional input data irrespective of the accuracy of the projection angle control. The purpose is to improve convenience through diversification.
【0007】[0007]
【課題を解決するための手段】本発明においては、参照
光又は環境光で部分的に照らされた状態の物体を互いに
離れた2点のそれぞれを視点として撮像し、視点間の距
離と各視点からみた物体上の照射部分の方位(視点どう
しを結ぶ直線に対する傾き)とから三角測量の手法で物
体の位置を高精度に算出したデータ又は算出のためのデ
ータを出力するモードと、従来と同様に投射角度と受光
角度とから三角測量の手法で物体の部分の位置を算出し
たデータ又は算出のためのデータを出力するモードとを
設ける。According to the present invention, an object which is partially illuminated by reference light or environmental light is imaged at two points apart from each other as viewpoints, and the distance between the viewpoints and each viewpoint is determined. A mode in which the position of the object is calculated with high accuracy or data for calculation by the triangulation method from the orientation of the irradiated part on the object (inclination with respect to the straight line connecting the viewpoints), as in the conventional case And a mode for outputting data obtained by calculating the position of the object portion by the triangulation method from the projection angle and the light receiving angle or data for calculation.
【0008】投射角度情報を用いないで位置を算出する
モードでは、物体のサンプリング点数に視点の数を乗じ
た数のデータを記録する必要があり、投射角度情報を用
いるモードと比べて扱うデータの量が多い。したがっ
て、高精度が必要でない用途の場合に投射角度情報を用
いるモードを選択すれば、データの伝送や記録の負担を
低減することができる。In the mode in which the position is calculated without using the projection angle information, it is necessary to record data of the number obtained by multiplying the number of sampling points of the object by the number of viewpoints. Large amount. Therefore, if a mode that uses the projection angle information is selected for an application that does not require high accuracy, the burden of data transmission and recording can be reduced.
【0009】請求項1の発明の装置は、物体に向かって
それを走査するように参照光を投射する投光系と、互い
に離れた第1及び第2の位置で同時に前記物体を撮像す
る撮像系とを有し、択一的に選択可能な第1モード及び
第2モードが設けられ、前記第1モードにおいては、前
記第1及び第2の位置のそれぞれに対応した撮像データ
に基づいて、前記物体における複数の部位のそれぞれに
ついて、当該部位で反射した光の前記第1及び第2の位
置のそれぞれでの受光角度を検出し、検出した1組の受
光角度に応じたデータを当該部位の位置情報として出力
し、前記第2モードにおいては、前記参照光の投射制御
データと前記第1の位置に対応した撮像データとに基づ
いて、前記物体における複数の部位のそれぞれについ
て、当該部位で反射した前記参照光の投射角度及び前記
第1の位置での受光角度を検出し、検出した投射角度及
び受光角度に応じたデータを当該部位の位置情報として
出力する3次元入力装置である。According to a first aspect of the present invention, there is provided a light projecting system for projecting reference light toward an object so as to scan the object, and an imaging system for simultaneously imaging the object at first and second positions separated from each other. And a first mode and a second mode that are alternatively selectable are provided. In the first mode, based on imaging data corresponding to each of the first and second positions, For each of the plurality of portions of the object, the light receiving angle at each of the first and second positions of the light reflected by the portion is detected, and data corresponding to the detected set of light receiving angles is obtained for the portion. The position information is output, and in the second mode, each of the plurality of parts of the object is reflected by the part based on the projection control data of the reference light and the imaging data corresponding to the first position. It was detected projection angle and acceptance angle in the first position of the reference light, a three-dimensional input device which outputs data corresponding to projection angle and acceptance angle were detected as positional information of the site.
【0010】請求項2の発明の3次元入力装置におい
て、前記参照光の投射の起点は、前記第1及び第2の位
置の双方に対して等距離の位置である。In the three-dimensional input device according to the second aspect of the present invention, the starting point of the projection of the reference light is a position equidistant from both the first and second positions.
【0011】請求項3の発明の3次元入力装置におい
て、前記参照光の投射の起点は、前記第2の位置の近傍
である。In the three-dimensional input device according to the third aspect of the present invention, the starting point of the projection of the reference light is near the second position.
【0012】[0012]
【発明の実施の形態】図1は第1実施形態に係る3次元
入力装置1の機能ブロック図である。FIG. 1 is a functional block diagram of a three-dimensional input device 1 according to a first embodiment.
【0013】3次元入力装置1は、スリット光Uを投射
する投光系10と、同一構成の2個の撮像系20A,2
0Bからなる受光系20と、同一構成の2個の受光信号
処理部30A,30Bとを有している。The three-dimensional input device 1 includes a light projecting system 10 for projecting the slit light U and two imaging systems 20A, 20 having the same configuration.
0B, and two light receiving signal processing units 30A and 30B having the same configuration.
【0014】投光系10は、光源としての半導体レーザ
12、ビーム整形のためのレンズ群13、及び投射角度
を変更するビーム偏向手段としてのガルバノミラー14
からなる。レンズ群13は、コリメータレンズとシリン
ドリカルレンズとで構成される。ガルバノミラー14に
は、投光制御回路32からD/A変換器33を介して偏
向制御信号が与えられる。The light projecting system 10 includes a semiconductor laser 12 as a light source, a lens group 13 for beam shaping, and a galvanomirror 14 as beam deflecting means for changing a projection angle.
Consists of The lens group 13 includes a collimator lens and a cylindrical lens. The galvanomirror 14 is provided with a deflection control signal from the light projection control circuit 32 via the D / A converter 33.
【0015】各撮像系20A,20Bは、受光レンズ2
1、ビームスプリッタ22、物体Qの形状を表す距離画
像を得るためのイメージセンサ24、モニター用の2次
元画像を得るためのカラーイメージセンサ25、及びズ
ーミングとフォーカシングとを可能にするレンズ駆動機
構26からなる。ビームスプリッタ22は、半導体レー
ザ12の発光波長域(例えば中心波長670nm)の光
と可視光とを分離する。イメージセンサ24及びカラー
イメージセンサ25は2次元撮像デバイス(エリアセン
サ)である。これらセンサとして、CCDセンサ、CM
OSセンサを使用することができる。イメージセンサ2
4の出力はA/D変換器35で所定ビット数の受光デー
タに変換され、逐次にメモリ回路37に転送される。メ
モリ回路37では受光データの値に応じて後述の受光角
度θA,θBを特定するデータ(TA,TB)が記憶さ
れる。カラーイメージセンサ25の出力はA/D変換器
36で受光データに変換され、カラー画像メモリ38に
よって逐次に記憶される。メモリ回路37及びカラー画
像メモリ38のアドレス指定はメモリ制御回路39が担
う。Each of the imaging systems 20A and 20B includes a light receiving lens 2
1, a beam splitter 22, an image sensor 24 for obtaining a range image representing the shape of the object Q, a color image sensor 25 for obtaining a two-dimensional image for monitoring, and a lens driving mechanism 26 for enabling zooming and focusing Consists of The beam splitter 22 separates light in the emission wavelength range (for example, center wavelength 670 nm) of the semiconductor laser 12 from visible light. The image sensor 24 and the color image sensor 25 are two-dimensional imaging devices (area sensors). These sensors include CCD sensors, CMs
An OS sensor can be used. Image sensor 2
The output of No. 4 is converted into light receiving data of a predetermined number of bits by the A / D converter 35, and is sequentially transferred to the memory circuit 37. The memory circuit 37 stores data (TA, TB) for specifying light receiving angles θA, θB, which will be described later, according to the value of the light receiving data. The output of the color image sensor 25 is converted into light receiving data by an A / D converter 36, and is sequentially stored by a color image memory 38. Addressing of the memory circuit 37 and the color image memory 38 is performed by the memory control circuit 39.
【0016】3次元入力装置1を制御するCPU31
は、制御対象に適時に指示を与えるとともに、受光信号
処理部30A,30Bの両方又は片方のメモリ回路37
からデータを読み出して距離画像データを得る演算を行
う。距離画像データは適時に3次元入力データとして図
示しない外部装置に出力される。その際、受光信号処理
部30A,30Bの少なくとも一方のカラー画像メモリ
38によって記憶されている2次元カラー画像も出力さ
れる。外部装置としては、コンピュータ、ディスプレ
イ、記憶装置などがある。CPU 31 for controlling the three-dimensional input device 1
Gives an instruction to the control target in a timely manner and both or one of the memory circuits 37 of the light receiving signal processing units 30A and 30B.
An operation is performed to read out the data from and obtain the distance image data. The distance image data is output as appropriate three-dimensional input data to an external device (not shown). At this time, the two-dimensional color image stored in the color image memory 38 of at least one of the light receiving signal processing units 30A and 30B is also output. The external device includes a computer, a display, a storage device, and the like.
【0017】3次元入力装置1においては、投射角度情
報を用いないで2箇所の受光角度情報によって距離画像
データを得る第1のモード(これを高精度モードとい
う)と、投射角度情報と1箇所の受光角度情報とによっ
て距離画像データを得る第2のモード(これを通常モー
ドという)とが設けられている。CPU31はモード指
定部51の状態判別によって指定モードを検知する。モ
ード指定部51としては、操作パネル、操作パネルとは
別に設けられたディップスイッチ、遠隔操作のためのイ
ンタフェースなどがある。In the three-dimensional input device 1, a first mode in which distance image data is obtained by using two pieces of light-receiving angle information without using projection angle information (this is called a high-accuracy mode); And a second mode for obtaining distance image data based on the received light angle information (this is called a normal mode). The CPU 31 detects the designated mode by determining the state of the mode designating section 51. The mode designation unit 51 includes an operation panel, a dip switch provided separately from the operation panel, an interface for remote operation, and the like.
【0018】通常モードにおける演算には、2個の撮像
系20A,20Bのどちらの出力を用いることができ
る。しかし、3次元入力装置1では、投光系10から遠
い位置に配置された撮像系20Aの出力を用いる。これ
は、投光系10に近い撮像系20Bの出力を用いる場合
と比べて基線長L’(図10参照)が長くなり、三角測
量の精度が高まるからである。Either one of the two imaging systems 20A and 20B can be used for the calculation in the normal mode. However, in the three-dimensional input device 1, the output of the imaging system 20A arranged at a position far from the light projecting system 10 is used. This is because the base line length L '(see FIG. 10) is longer than in the case where the output of the imaging system 20B close to the light projecting system 10 is used, and the accuracy of triangulation is improved.
【0019】図2は投射の模式図、図3は高精度モード
における距離画像データの生成要領を説明するための
図、図4は撮像における視差を示す図である。FIG. 2 is a schematic diagram of the projection, FIG. 3 is a diagram for explaining the generation procedure of the distance image data in the high-accuracy mode, and FIG. 4 is a diagram showing parallax in imaging.
【0020】3次元入力装置1は、ガルバノミラー14
の反射面上の点を起点Cとして仮想面VSを走査するよ
うにスリット光Uを投射する。仮想面VSは、イメージ
センサ24で撮像可能な空間(画角内の範囲)の奥行き
方向と直交する断面に相当する。そして、仮想面VSの
うちのイメージセンサ24における各画素gに対応した
範囲が、3次元入力のサンプリング区画となる。図2に
おいては、投光の起点C、及び視点(受光の主点)A,
Bが一直線上に配置されている。ここで、視点A,Bは
垂直方向に沿って並び、スリット光Uのスリット長さ方
向は水平方向であるものとする。The three-dimensional input device 1 includes a galvanomirror 14
The slit light U is projected so as to scan the virtual surface VS with a point on the reflection surface as a starting point C. The virtual plane VS corresponds to a cross section orthogonal to the depth direction of a space (a range within an angle of view) in which the image sensor 24 can capture an image. Then, a range of the virtual plane VS corresponding to each pixel g in the image sensor 24 is a three-dimensional input sampling section. In FIG. 2, a starting point C of light projection and a viewpoint (principal point of light reception) A
B are arranged on a straight line. Here, the viewpoints A and B are arranged along the vertical direction, and the slit length direction of the slit light U is the horizontal direction.
【0021】高精度モードにおける物体Qの3次元入力
の概要は次のとおりである。The outline of the three-dimensional input of the object Q in the high-accuracy mode is as follows.
【0022】2個のイメージセンサ24によるフレーム
周期の撮像に同期させてガルバノミラー14の偏向角を
制御する。このとき、2個のイメージセンサ24を同一
タイミングで駆動する。つまり、物体Qを視点A,Bか
ら同時に撮像する。そして、各イメージセンサ24の各
画素が、刻々と偏向されていくスリット光Uのどの時点
の投射により照らされたかを検知する。The deflection angle of the galvanomirror 14 is controlled in synchronization with the image pick-up in the frame period by the two image sensors 24. At this time, the two image sensors 24 are driven at the same timing. That is, the object Q is imaged simultaneously from the viewpoints A and B. Then, each pixel of each image sensor 24 is detected at which point in time the projection of the slit light U, which is deflected every moment, is illuminated.
【0023】一方の撮像系20Aのイメージセンサ24
における水平方向iA番目で垂直方向jA番目の画素g
iAjAに注目すると、画素giAjAに対応した視線上の点P
をスリット光Uが通過する際にその出力が最大となる。
このとき、他方の撮像系20Bのイメージセンサ24の
出力に注目すると、点Pを通る視線に対応した画素g
iBjBの出力が最大となる。ここで、撮像系20Aで撮像
される第1画像と撮像系20Bで撮像される第2画像と
について、垂直方向にエピポラー拘束が成り立っている
とすると、画素giAjAの水平方向位置iAに対して、画
素giBjBの水平方向位置iBは一意に決まる。また、画
素giAjAの垂直方向位置jAに対する画素giBjBの垂直
方向位置jBは、第2画像中の水平方向位置iBの画素
列のうち、画素giAjAの出力が最大となった時刻と同時
刻に出力が最大となった画素を見つければ判る。したが
って、撮像系20A,20Bのイメージセンサ24の各
画素の出力が最大となる時刻(輝度ピーク時刻)TA
iAjA,TBiBjBを把握すれば、第1画像中の各画素に対
応する第2画像中の画素を見つけ出すことができる。The image sensor 24 of one image pickup system 20A
Pixel g in the iA-th horizontal direction and the jA-th vertical direction in
iAjANote that pixel giAjAPoint P on the line of sight corresponding to
When the slit light U passes through, the output becomes maximum.
At this time, the image sensor 24 of the other imaging system 20B
Focusing on the output, the pixel g corresponding to the line of sight passing through the point P
iBjBOutput becomes maximum. Here, imaging is performed by the imaging system 20A.
And a second image captured by the imaging system 20B.
Has an epipolar constraint in the vertical direction
Then the pixel giAjAFor the horizontal position iA of
Prime giBjBIs determined uniquely in the horizontal direction iB. Also,
Prime giAjAG for the vertical position jA ofiBjBVertical
The direction position jB is a pixel at the horizontal position iB in the second image.
Pixel g in the columniAjAAt the same time as the output of
You can tell if you find the pixel that has the maximum output every moment. But
Therefore, each of the image sensors 24 of the imaging systems 20A and 20B
Time (luminance peak time) TA at which the output of the pixel becomes maximum
iAjA, TBiBjBIs known, each pixel in the first image is
A corresponding pixel in the second image can be found.
【0024】点Pが第1画像の画素giAjAに対応すると
き、画素giAjAの位置で決まる受光角度θAiAjAと視点
Aの空間座標とによって特定される直線上に点Pが存在
することになる。同様に点Pが第2画像の画素giBjBに
対応するとき、画素giBjBの位置で決まる受光角度θB
iBjBと視点Bの空間座標とによって特定される直線上に
点Pが存在することになる。つまり、これら2つの直線
の交点が点Pである。したがって、受光角度θAiBjB,
θBiBjB及び視点間距離Lに基づいて、三角測量の原理
を適用して、視点A,Bを通る基線と点Pとの奥行き方
向の距離DiAjAを算出することができ、視点A,Bと点
Pとの相対位置を特定することができる。そして、以上
の処理を第1画像の各画素gについて行えば、物体Qに
ついて画素数分のサンプリング点の3次元位置情報が得
られる。The point when P corresponds to the pixel g IAjA of the first image, in the presence of a point P on the line specified by the spatial coordinates of the light receiving angle .theta.A IAjA and the viewpoint A determined by the position of the pixel g IAjA Become. Similarly, when the point P corresponds to the pixel g iBjB of the second image, the light receiving angle θB determined by the position of the pixel g iBjB
The point P exists on a straight line specified by iBjB and the spatial coordinates of the viewpoint B. That is, the point of intersection of these two straight lines is point P. Therefore, the light receiving angle θA iBjB ,
Based on θB iBjB and the distance L between viewpoints, the principle of triangulation is applied to calculate the depth DiAjA between the base line passing through the viewpoints A and B and the point P, and the viewpoints A and B can be calculated. The relative position with respect to the point P can be specified. Then, if the above processing is performed for each pixel g of the first image, three-dimensional position information of the sampling points of the object Q for the number of pixels can be obtained.
【0025】次に、輝度ピーク時刻を検出するための回
路の具体的な構成を説明する。なお、以下では画素位置
の区別が必要な場合を除いて、画素位置を表す添
字iAjA,iB jBの記述を省略する。Next, a specific configuration of a circuit for detecting a luminance peak time will be described. Incidentally, unless the following necessary to distinguish the pixel position in which the index represents the pixel position IAjA, omitted the description of iB jB.
【0026】図5はメモリ回路の第1例のブロック図で
ある。FIG. 5 is a block diagram of a first example of the memory circuit.
【0027】例示のメモリ回路37は、2個のメモリ3
71,376、比較器377、及びインデックスジェネ
レータ378から構成されている。The example memory circuit 37 includes two memories 3
71, 376, a comparator 377, and an index generator 378.
【0028】メモリ371にはA/D変換器35から受
光データD35が入力され、メモリ376にはインデッ
クスジェネレータ378からフレーム番号Tが入力され
る。。比較器377は、イメージセンサ24の画素毎に
最新の入力データであるt番目のフレームの受光データ
D35と以前にメモリ371に書き込まれた受光データ
D35とを比較し、最新の受光データD35が以前の受
光データD35より大きい場合にメモリ371,376
に対して書込みを許可する。これを受けて各メモリ37
1,376は上書き形式で最新の入力データを記憶す
る。比較結果が逆の場合は各メモリ371,376にお
いて以前の記憶内容が保持される。したがって、走査が
終了した時点において、メモリ371は各画素g毎に受
光データD35の最大値を記憶し、メモリ376は各画
素毎に受光データD35が最大となったフレームの番号
Tを記憶することになる。各フレームの撮像は一定周期
で行われるので、フレーム番号Tは走査期間中の時刻
(走査開始からの経過時間)を表す。つまり、メモリ3
76が記憶するフレーム番号Tは上述の時刻TAiAjA,
TBiBjBに相当し、受光角度θAiAjA,θBiBjBの対応
を特定する情報である。The memory 371 receives light receiving data D 35 from the A / D converter 35, and the memory 376 receives a frame number T from the index generator 378. . The comparator 377 compares, for each pixel of the image sensor 24, the received light data D35 of the t-th frame, which is the latest input data, with the received light data D35 previously written in the memory 371. Memory 371, 376
Write is permitted for. In response to this, each memory 37
Reference numeral 1376 stores the latest input data in an overwrite format. If the comparison result is reversed, the previous storage contents are held in the memories 371 and 376. Therefore, when the scanning is completed, the memory 371 stores the maximum value of the light receiving data D35 for each pixel g, and the memory 376 stores the frame number T of the frame having the maximum light receiving data D35 for each pixel. become. Since the imaging of each frame is performed at a fixed period, the frame number T indicates a time during the scanning period (elapsed time from the start of scanning). That is, the memory 3
76 stores the frame number T described above at the time TA iAjA ,
This is information that corresponds to TB iBjB and specifies the correspondence between the light receiving angles θA iAjA and θB iBjB .
【0029】この例によれば、比較的に簡単な回路構成
によって輝度ピーク時刻TAiAjA,TBiBjBを検知する
ことができる。ただし、投光角度の検知の分解能はイメ
ージセンサ24の撮像周期に依存する。分解能の向上を
図ったものが次の第2例である。According to this example, the luminance peak times TA iAjA and TB iBjB can be detected with a relatively simple circuit configuration. However, the resolution of the projection angle detection depends on the imaging cycle of the image sensor 24. The second example in which the resolution is improved is as follows.
【0030】図6はメモリ回路の第2例のブロック図、
図7は撮像面における輝度分布と受光データとの関係を
示す図である。図6において図5に対応した要素には図
5と同一の符号を付してある。FIG. 6 is a block diagram of a second example of the memory circuit.
FIG. 7 is a diagram showing the relationship between the luminance distribution on the imaging surface and the received light data. 6, the elements corresponding to FIG. 5 are denoted by the same reference numerals as in FIG.
【0031】第2例のメモリ回路37bは、メモリ37
1に加えてそれと同サイズの4個のメモリ372,37
3,374,375を設け、計4個の1フレームディレ
イメモリ379a〜dを介在させて各メモリ372〜3
75のデータ入力をメモリ371に対して順に1フレー
ムずつ遅らせるように構成したものである。すなわち、
メモリ回路37bでは、各画素gについて連続した5フ
レームの受光データD35が同時に記憶される。比較器
377は、入力が2フレーム遅れの第3番目のメモリ3
73の入力と出力とを比較する。メモリ373の入力デ
ータ値が出力データ値(以前に書き込まれたデータ値)
より大きい場合に、メモリ371〜375及びメモリ3
76の書込みが許可される。The memory circuit 37b of the second example includes a memory 37
1 plus 4 memories 372, 37 of the same size
3, 374, and 375, and each of the memories 372 to 3 is provided with a total of four 1-frame delay memories 379a to 379d.
The configuration is such that 75 data inputs are sequentially delayed one frame at a time with respect to the memory 371. That is,
In the memory circuit 37b, five consecutive frames of light receiving data D35 for each pixel g are simultaneously stored. The comparator 377 has a third memory 3 whose input is delayed by two frames.
Compare the 73 inputs and outputs. The input data value of the memory 373 is the output data value (the previously written data value)
If larger, the memory 371 to 375 and the memory 3
76 writes are allowed.
【0032】各走査が終了した時点において、メモリ3
73は各画素g毎に受光データD35の最大値を記憶す
ることになる。また、メモリ371,372,374,
375によって、受光データD35が最大となったフレ
ームの2つ前、1つ前、1つ後、2つ後の計4フレーム
の受光データD35が記憶されることになる。そして、
メモリ376は、各画素g毎に受光データD35が最大
となったフレームの番号Tを記憶することになる。At the end of each scan, the memory 3
Reference numeral 73 stores the maximum value of the light receiving data D35 for each pixel g. Also, the memories 371, 372, 374,
With 375, the received light data D35 of two frames before, one before, one after, and two after the frame where the received light data D35 is maximum are stored. And
The memory 376 stores the number T of the frame in which the light receiving data D35 is maximum for each pixel g.
【0033】ここで、図7(a)のように、撮像面に結
像したスリット光像の幅が5画素分であり、輝度分布が
単一峰の山状であるものとする。このとき、1つの画素
gに注目すると、図7(b)のように輝度分布に応じた
変化の受光データが得られる。したがって、メモリ37
1〜375に記憶されている5フレーム分の受光データ
D35に基づいて重心演算を行うことにより、フレーム
周期(つまり画素ピッチ)よりも細かな刻みで時刻T
A,TBを算出することができる。図7(b)の例で
は、時刻TA(TB)はt回目と(t+1)回目のサン
プリング時刻間にある。Here, as shown in FIG. 7A, it is assumed that the width of the slit light image formed on the image pickup surface is 5 pixels and the luminance distribution is a single-peak mountain-like shape. At this time, paying attention to one pixel g, light reception data of a change according to the luminance distribution is obtained as shown in FIG. 7B. Therefore, the memory 37
The center of gravity is calculated based on the light receiving data D35 for five frames stored in the memory cells 1 to 375, so that the time T can be calculated in finer increments than the frame period (that is, the pixel pitch).
A and TB can be calculated. In the example of FIG. 7B, the time TA (TB) is between the t-th sampling time and the (t + 1) -th sampling time.
【0034】この第2例によれば分解能が向上するが、
輝度分布によっては所望の精度が得られないという問題
がある。すなわち、実際の撮像では、光学系の特性など
に起因して結像に何らかのノイズが加わる。このため、
輝度分布に複数のピークが生じたり、平坦でピークの不
明瞭な輝度分布となったりする。輝度分布が理想形状か
ら大きく外れると、重心演算の信頼性が低下する。According to the second example, the resolution is improved.
There is a problem that desired accuracy cannot be obtained depending on the luminance distribution. That is, in actual imaging, some noise is added to the image formation due to characteristics of the optical system and the like. For this reason,
A plurality of peaks are generated in the luminance distribution, or the luminance distribution is flat and the peaks are unclear. If the luminance distribution deviates greatly from the ideal shape, the reliability of the center-of-gravity calculation decreases.
【0035】このようなノイズの影響は、輝度の最大値
が得られたフレームとその前後の各数フレームを合わせ
た程度の短い期間ではなく、十分に長い期間の輝度分布
に基づいて重心演算を行うことによって低減することが
できる。それを実現するのが次の第3例である。The influence of such noise is caused by the calculation of the center of gravity based on the luminance distribution in a sufficiently long period, not in a short period in which the frame in which the maximum luminance value is obtained and several frames before and after the frame. By doing so, it can be reduced. This is realized in the following third example.
【0036】図8はメモリ回路の第3例のブロック図、
図9は図8に係る重心の概念図である。FIG. 8 is a block diagram of a third example of the memory circuit.
FIG. 9 is a conceptual diagram of the center of gravity according to FIG.
【0037】第3例のメモリ回路37cは、メモリ37
10、定常光データ記憶部3720、減算部3730、
第1加算部3740、第2加算部3750、及び除算部
3760から構成され、各画素g毎にフレーム数分の受
光データD35に基づいて重心(時間重心)を算出す
る。The memory circuit 37c of the third example includes a memory 37
10, constant light data storage unit 3720, subtraction unit 3730,
The first adder 3740, the second adder 3750, and the divider 3760 calculate the center of gravity (time center of gravity) for each pixel g based on the light reception data D35 for the number of frames.
【0038】メモリ3710は、物体Qに対する走査で
得られた所定数kのフレームの受光データD35を記憶
する。各画素gのT番目(T=1〜k)のフレームの受
光データ値をxT と表す。定常光データ記憶部3720
は、スリット光U以外の不要入射光量を表す定常光デー
タを記憶する。定常光データはスリット光Uが入射して
いないときの受光データD35に基づいて算出される。
その値sは、予め定めた固定値でもよいし、受光データ
D35を用いてリアルタイムで求めてもよい。固定値と
する場合には、受光データD35が8ビット(256階
調)である場合に、例えば「5」「6」又は「10」な
どとする。減算部3730は、メモリ3710から読み
出された受光データD35の値xT から定常光データの
値sを差し引く。ここで、減算部3730からの出力デ
ータの値をあらためてXT とする。第1加算部3740
は、画素g毎にk個の受光データD35について、それ
ぞれの値XT とそれに対応したフレーム番号Tとの乗算
を行い、得られた積の合計値を出力する。第2加算部3
750は、画素g毎にk個の受光データD35の値XT
の総和を出力する。除算部3760は、第1加算部37
40の出力値を第2加算部3750の出力値で除し、得
られた重心を時刻TA(又はTB)として出力する。The memory 3710 stores received light data D35 of a predetermined number k of frames obtained by scanning the object Q. The light receiving data values of a frame of T th pixel g (T = 1 to k) is expressed as x T. Stationary light data storage unit 3720
Stores steady light data representing the amount of unnecessary incident light other than the slit light U. The steady light data is calculated based on the received light data D35 when the slit light U is not incident.
The value s may be a predetermined fixed value, or may be obtained in real time using the received light data D35. In the case of a fixed value, for example, “5”, “6”, or “10” when the light reception data D35 is 8 bits (256 gradations). Subtraction unit 3730 subtracts the value s of the stationary light data from the value x T of the light reception data D35 read from the memory 3710. Here, the value of the output data from the subtraction unit 3730 is set to X T again. First adder 3740
, For the k received light data D35 for each pixel g, performs multiplication of each value X T and the frame number T corresponding thereto, and outputs the sum of the resulting product. Second adder 3
750 is a value X T of k light receiving data D35 for each pixel g.
Output the sum of The division unit 3760 includes the first addition unit 37
The output value of 40 is divided by the output value of second adder 3750, and the obtained center of gravity is output as time TA (or TB).
【0039】図10は通常モードにおける距離画像デー
タの生成要領を説明するための図である。FIG. 10 is a diagram for explaining the procedure for generating range image data in the normal mode.
【0040】通常モードでは、一方の撮像系20Aのイ
メージセンサ24によるフレーム周期の撮像に同期させ
てガルバノミラー14の偏向角を制御する。そして、高
精度モードと同様に、イメージセンサ24の各画素が刻
々と偏向されていくスリット光Uのどの時点の投射によ
り照らされたかを検知する。イメージセンサ24におけ
る水平方向iA番目で垂直方向jA番目の画素giAjAに
注目すると、画素giA jAに対応した視線上の点Pをスリ
ット光Uが通過する際にその出力が最大となる。画素g
iAjAの出力が最大となった時刻における投射角度(振り
角)θCiAjAは偏向開始から当該時刻までの経過時間
(フレーム数)と単位偏向角(ステップ角度)とから算
出することができる。物体Q上の点Pが第1画像の画素
giAjAに対応するとき、画素giAjAの位置で決まる受光
角度θAiAjAと視点Aの空間座標とによって特定される
直線上に点Pが存在する。また、点Pは投射角度θC
iAjAと起点Cの空間座標とによって特定される平面上に
存在する。この平面と上述の直線との交点が点Pであ
る。したがって、受光角度θAiBjB、投射角度θ
CiAjA、及び基線長L’に基づいて、三角測量の原理を
適用して、視点Aを通る基線と点Pとの奥行き方向の距
離D’iAjAを算出することができ、視点Aと点Pとの相
対位置を特定することができる。そして、以上の処理を
第1画像の各画素gについて行えば、物体Qについて画
素数分のサンプリング点の3次元位置情報が得られる。
通常モードにおいても図6又は図8の回路を用い、得ら
れたデータに基づいて重心演算を行うことにより、3次
元入力の分解能を高めることができる。In the normal mode, the deflection angle of the galvanomirror 14 is controlled in synchronization with the frame period image pick-up by the image sensor 24 of one image pickup system 20A. Then, similarly to the high-accuracy mode, it detects at which point in time each of the pixels of the image sensor 24 is illuminated by the projection of the slit light U that is deflected. Focusing on the iA-th horizontal pixel and the jA-th vertical pixel g iAjA of the image sensor 24, the output becomes maximum when the slit light U passes through a point P on the line of sight corresponding to the pixel g iA jA . Pixel g
The projection angle (swing angle) θC at the time when the output of iAjA becomes maximum can be calculated from the elapsed time (number of frames) from the start of deflection to the time and the unit deflection angle (step angle). When the point P on the object Q corresponding to pixel g IAjA of the first image, there is a point P on the line specified by the spatial coordinates of the light receiving angle .theta.A IAjA and the viewpoint A determined by the position of the pixel g iAjA. Point P is the projection angle θC
It exists on a plane specified by iAjA and the spatial coordinates of the starting point C. The point of intersection of this plane and the straight line is point P. Therefore, the light receiving angle θA iBjB and the projection angle θ
Based on C iAjA and the base line length L ′, the distance D ′ iAjA between the base line passing through the viewpoint A and the point P can be calculated by applying the principle of triangulation, and the viewpoint A and the point P can be calculated. Relative position can be specified. Then, if the above processing is performed for each pixel g of the first image, three-dimensional position information of the sampling points of the object Q for the number of pixels can be obtained.
Also in the normal mode, by using the circuit of FIG. 6 or FIG. 8 and performing the center of gravity calculation based on the obtained data, the resolution of the three-dimensional input can be increased.
【0041】図11は3次元入力装置1の概略の動作を
示すフローチャートである。FIG. 11 is a flowchart showing the general operation of the three-dimensional input device 1.
【0042】半導体レーザ12及びガルバノミラー14
をオンして走査を開始する(#1)。視点A,Bでの撮
像で得られた受光データを記録するとともに、各フレー
ムにおける投射角度を示す投射角データを記録する(#
2)。そして、走査が終了すると(#3)、次のように
モードに応じた出力処理を行う。ここでの出力は、外部
装置へのデータ伝送、又は装置内のメモリへの記録(デ
ータ蓄積)を意味する。高精度モードの場合は、視点
A,Bの受光データを用いて距離データDを算出して出
力する(#4〜#6)。このとき、必要に応じて両視点
A,Bの受光データも出力する。通常モードの場合は、
視点Aの受光データと投射角データとを用いて距離デー
タD’を算出して出力する(#4、#7、#8)。必要
に応じて受光データ及び投射角データも出力する。Semiconductor laser 12 and galvanometer mirror 14
Is turned on to start scanning (# 1). The received light data obtained by the imaging at the viewpoints A and B is recorded, and the projection angle data indicating the projection angle in each frame is recorded (#
2). When the scanning is completed (# 3), an output process corresponding to the mode is performed as follows. The output here means data transmission to an external device or recording (data accumulation) in a memory in the device. In the case of the high-accuracy mode, the distance data D is calculated and output using the light receiving data of the viewpoints A and B (# 4 to # 6). At this time, light reception data of both viewpoints A and B are also output as necessary. In normal mode,
The distance data D 'is calculated and output using the light receiving data of the viewpoint A and the projection angle data (# 4, # 7, # 8). It also outputs light reception data and projection angle data as needed.
【0043】図12は投光と受光との位置関係の設定例
を示す図である。FIG. 12 is a diagram showing an example of setting the positional relationship between light emission and light reception.
【0044】投光系10及び受光系20の配置において
は、必ずしも投光の起点C及び受光の主点(視点)A,
Bが一直線上に並ぶ図12(a)又は(b)のような構
成にする必要はない。例えば、物体側からみて3個の点
A,B,CがL字状に並ぶ図12(c)の構成、T字状
に並ぶ図12(d)の構成を採用してもよい。特に、図
12(b)又は(d)のように視点Aと視点Bとの間に
起点Cを配置すれば、視点A,Bと起点Cとが異なるこ
とにより発生するオクルージョンを軽減することができ
る。その際には投光の起点Cと各視点A,Bとの距離d
を等しくするのが好ましい。高精度モード及び通常モー
ドの両方の測定精度を高くするには、視点A,Bの距離
が大きく、且つ投光の起点Cと視点Aとの距離が大き
い、図12(c)の構成が望ましい。In the arrangement of the light projecting system 10 and the light receiving system 20, the starting point C of the light projecting and the main points (viewpoints) A of the light receiving are not necessarily required.
It is not necessary to adopt a configuration as shown in FIG. 12A or 12B in which B is aligned. For example, the configuration of FIG. 12C in which three points A, B, and C are arranged in an L shape when viewed from the object side, or the configuration of FIG. 12D in which the three points A, B, and C are arranged in a T shape may be adopted. In particular, if the starting point C is arranged between the viewpoint A and the viewpoint B as shown in FIG. 12B or 12D, occlusion caused by the difference between the viewpoints A and B and the starting point C can be reduced. it can. In this case, the distance d between the starting point C of the light projection and each of the viewpoints A and B
Are preferably equal. In order to increase the measurement accuracy in both the high-accuracy mode and the normal mode, the configuration shown in FIG. 12C in which the distance between the viewpoints A and B is large and the distance between the starting point C of light projection and the viewpoint A is large. .
【0045】図13は第2実施形態に係る3次元入力装
置2の機能ブロック図である。図13において図1と同
一の符号を付した構成要素の機能は上述の3次元入力装
置1と同一である。FIG. 13 is a functional block diagram of the three-dimensional input device 2 according to the second embodiment. In FIG. 13, the functions of the components denoted by the same reference numerals as those in FIG. 1 are the same as those of the above-described three-dimensional input device 1.
【0046】第2実施形態は、スリット光ではなくビー
ム断面が点状のスポット光Vを投射し、1次元のイメー
ジセンサ(ラインセンサ)27を用いて撮像を行うもの
である。In the second embodiment, spot light V having a beam cross section is projected instead of slit light, and imaging is performed using a one-dimensional image sensor (line sensor) 27.
【0047】3次元入力装置2は、投光系10bと、同
一構成の2個の撮像系20Ab,20Bbからなる受光
系20bと、同一構成の2個の受光信号処理部30A
b,30Bbとを有しており、CPU31bにより制御
される。投光系10bは、半導体レーザ12、コリメー
タレンズ13b、及びガルバノミラー14bからなる。The three-dimensional input device 2 includes a light projecting system 10b, a light receiving system 20b including two imaging systems 20Ab and 20Bb having the same configuration, and two light receiving signal processing units 30A having the same configuration.
b, 30Bb, and is controlled by the CPU 31b. The light projecting system 10b includes a semiconductor laser 12, a collimator lens 13b, and a galvanomirror 14b.
【0048】各撮像系20Ab,20Bbは、受光レン
ズ21、レンズ駆動機構26、赤外カットフィルタF
1、バンドパスフィルタF2、フィルタ切換え機構2
8、及び3次元入力とモニター撮影とに兼用のイメージ
センサ27からなる。イメージセンサ27は、RGBの
各色に対応した画素列を有する3ラインCCDセンサで
ある。モニター撮影のときには赤外カットフィルタF1
を用いる。また、3次元入力のときにはレーザ波長域の
光を透過させるバンドパスフィルタF2を用い、イメー
ジセンサ27のRの画素列の出力のみを受光情報として
用いる。Each of the imaging systems 20Ab and 20Bb includes a light receiving lens 21, a lens driving mechanism 26, an infrared cut filter F
1. Bandpass filter F2, filter switching mechanism 2
8, and an image sensor 27 that is used for both three-dimensional input and monitor shooting. The image sensor 27 is a three-line CCD sensor having a pixel row corresponding to each color of RGB. In case of monitor shooting, infrared cut filter F1
Is used. In the case of three-dimensional input, a bandpass filter F2 that transmits light in a laser wavelength range is used, and only the output of the R pixel row of the image sensor 27 is used as light reception information.
【0049】スポット光Vによる場合も、時刻TA,T
Bを検出することにより、物体Q上の点Pの位置を算出
することができる。その原理はスリット光Uによる場合
と同様であるので、ここではその説明を省略する。In the case of using the spot light V, the time TA, T
By detecting B, the position of point P on object Q can be calculated. Since the principle is the same as that of the case using the slit light U, the description is omitted here.
【0050】図14は回転によって全周囲入力又は全方
位入力を実現する装置構成例を示す図である。FIG. 14 is a diagram showing an example of a device configuration for realizing omnidirectional input or omnidirectional input by rotation.
【0051】図14(a)の3次元入力装置3は、投光
及び撮像を行う光学系40と物体Qを乗せて回転するタ
ーンテーブル45とを備え、全周囲入力を実現する。光
学系40は、フィルタを切り換えて1個のイメージセン
サで3次元入力とカラー撮影とを行うように構成されて
いる。ターンテーブル45は、ある方向から物体Qを走
査して重心を求めると、所定角度だけ回転する。光学系
40による走査とターンテーブル45の回転とをN回繰
り返すことにより、物体Qの外周面の最大360°の角
度範囲にわたる3次元入力が可能である。光学系40に
はN回分のデータ記憶が可能な容量のメモリが設けられ
ている。何回目の走査のデータであるからn ×θという
かたちで方向成分が求められるので、測定対象物の空間
上での3次元位置データが得られることになる。なお、
物体Qを静止させてその周囲を光学系40が回るように
構成してもよい。The three-dimensional input device 3 shown in FIG. 14A includes an optical system 40 for projecting light and capturing an image, and a turntable 45 for rotating with an object Q mounted thereon, and realizes a omnidirectional input. The optical system 40 is configured to perform three-dimensional input and color imaging with one image sensor by switching filters. When the turntable 45 scans the object Q from a certain direction to find the center of gravity, the turntable 45 rotates by a predetermined angle. By repeating the scanning by the optical system 40 and the rotation of the turntable 45 N times, it is possible to perform a three-dimensional input over the maximum 360 ° angle range of the outer peripheral surface of the object Q. The optical system 40 is provided with a memory capable of storing data N times. Since the direction component is obtained in the form of n × θ because of the data of the scan of the third time, three-dimensional position data in the space of the object to be measured can be obtained. In addition,
The object Q may be stationary and the optical system 40 may rotate around the object Q.
【0052】図14(b)の3次元入力装置4では、タ
ーンテーブル46の上に光学系41が取り付けられてい
る。3次元入力装置4を用いれば、3次元入力装置3と
同様の動作により、空洞を有した物体の内壁面の全方位
3次元入力が可能となる。In the three-dimensional input device 4 shown in FIG. 14B, an optical system 41 is mounted on a turntable 46. If the three-dimensional input device 4 is used, the same operation as the three-dimensional input device 3 enables omnidirectional three-dimensional input of the inner wall surface of an object having a cavity.
【0053】以上の実施形態においては、撮像面の各画
素の輝度ピーク時刻、すなわち各画素についての時間的
な輝度分布の重心(時間重心)を検出して距離データを
算出する例を挙げたが、これに限るものではない。各フ
レームにおいて輝度が最大である画素の位置、すなわち
各サンプリング時刻での空間的な輝度分布の重心(空間
重心)を検出して距離データを算出することもできる。
参照光の偏向による走査に代えてカラーまたはモノクロ
のテクスチャー画像を用いるステレオ視法により、視点
A,Bから物体Q上の同一点をにらむ角度を求めてもよ
い。In the above embodiment, an example has been described in which distance data is calculated by detecting the luminance peak time of each pixel on the imaging surface, that is, the centroid (temporal centroid) of the temporal luminance distribution for each pixel. However, the present invention is not limited to this. It is also possible to calculate the distance data by detecting the position of the pixel having the highest luminance in each frame, that is, the centroid (spatial centroid) of the spatial luminance distribution at each sampling time.
The angle at which the same point on the object Q is viewed from the viewpoints A and B may be obtained by stereo vision using a color or monochrome texture image instead of scanning by deflection of the reference light.
【0054】[0054]
【発明の効果】請求項1乃至請求項3の発明によれば、
参照光の投射角度情報によらない3次元入力が実現され
て、投射角度制御の精度に係わらず高精度の3次元入力
データを得ることが可能になるとともに、位置算出に用
いるデータが異なるモードを用途に応じて使い分けるこ
とができる。According to the first to third aspects of the present invention,
A three-dimensional input that does not depend on the projection angle information of the reference light is realized, so that highly accurate three-dimensional input data can be obtained regardless of the accuracy of the projection angle control. It can be used properly depending on the application.
【図1】第1実施形態に係る3次元入力装置の機能ブロ
ック図である。FIG. 1 is a functional block diagram of a three-dimensional input device according to a first embodiment.
【図2】投射の模式図である。FIG. 2 is a schematic diagram of projection.
【図3】高精度モードにおける距離画像データの生成要
領を説明するための図である。FIG. 3 is a diagram for explaining a method of generating distance image data in a high-accuracy mode.
【図4】撮像における視差を示す図である。FIG. 4 is a diagram illustrating parallax in imaging.
【図5】メモリ回路の第1例のブロック図である。FIG. 5 is a block diagram of a first example of a memory circuit.
【図6】メモリ回路の第2例のブロック図である。FIG. 6 is a block diagram of a second example of the memory circuit.
【図7】撮像面における輝度分布と受光データとの関係
を示す図である。FIG. 7 is a diagram illustrating a relationship between a luminance distribution on an imaging surface and received light data.
【図8】メモリ回路の第3例のブロック図である。FIG. 8 is a block diagram of a third example of the memory circuit.
【図9】図8に係る重心の概念図である。9 is a conceptual diagram of the center of gravity according to FIG.
【図10】通常モードにおける距離画像データの生成要
領を説明するための図である。FIG. 10 is a diagram for explaining a method of generating distance image data in a normal mode.
【図11】3次元入力装置の概略の動作を示すフローチ
ャートである。FIG. 11 is a flowchart illustrating a schematic operation of the three-dimensional input device.
【図12】投光と受光との位置関係の設定例を示す図で
ある。FIG. 12 is a diagram illustrating a setting example of a positional relationship between light projection and light reception.
【図13】第2実施形態に係る3次元入力装置2の機能
ブロック図である。FIG. 13 is a functional block diagram of a three-dimensional input device 2 according to a second embodiment.
【図14】回転によって全周囲入力又は全方位入力を実
現する装置構成例を示す図である。FIG. 14 is a diagram showing an example of a device configuration for realizing omnidirectional input or omnidirectional input by rotation.
【符号の説明】 1〜4 3次元入力装置 A 視点(第1の位置) B 視点(第2の位置) P 点(物体上の部位) U,V 参照光 TA,TB 時刻(サンプリング区画を通過する時点) θA,θB 受光角度 10 投光系 20 撮像系 D,D’ 距離データ(位置情報) D35 受光データ(撮像データ)[Description of Signs] 1 to 4 3D input device A viewpoint (first position) B viewpoint (second position) P point (part on object) U, V Reference light TA, TB time (pass through sampling section) ΘA, θB Reception angle 10 Projection system 20 Imaging system D, D 'Distance data (position information) D35 Reception data (imaging data)
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2F065 AA04 AA31 DD03 FF04 FF09 GG06 HH04 HH05 JJ03 JJ16 JJ23 JJ26 LL08 LL10 LL13 LL37 QQ02 QQ03 QQ23 QQ24 QQ25 QQ26 QQ29 ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 2F065 AA04 AA31 DD03 FF04 FF09 GG06 HH04 HH05 JJ03 JJ16 JJ23 JJ26 LL08 LL10 LL13 LL37 QQ02 QQ03 QQ23 QQ24 QQ25 QQ26 QQ29
Claims (3)
光を投射する投光系と、互いに離れた第1及び第2の位
置で同時に前記物体を撮像する撮像系とを有し、択一的
に選択可能な第1モード及び第2モードが設けられ、 前記第1モードにおいては、前記第1及び第2の位置の
それぞれに対応した撮像データに基づいて、前記物体に
おける複数の部位のそれぞれについて、当該部位で反射
した光の前記第1及び第2の位置のそれぞれでの受光角
度を検出し、検出した1組の受光角度に応じたデータを
当該部位の位置情報として出力し、 前記第2モードにおいては、前記参照光の投射制御デー
タと前記第1の位置に対応した撮像データとに基づい
て、前記物体における複数の部位のそれぞれについて、
当該部位で反射した前記参照光の投射角度及び前記第1
の位置での受光角度を検出し、検出した投射角度及び受
光角度に応じたデータを当該部位の位置情報として出力
することを特徴とする3次元入力装置。An imaging system for projecting a reference beam toward an object so as to scan the object, and an imaging system for simultaneously imaging the object at first and second positions separated from each other; A first mode and a second mode, which can be selectively selected, are provided. In the first mode, a plurality of portions of the object are determined based on imaging data corresponding to the first and second positions. For each of them, a light receiving angle at each of the first and second positions of light reflected by the part is detected, and data corresponding to the detected set of light receiving angles is output as position information of the part, In the second mode, based on the projection control data of the reference light and the imaging data corresponding to the first position, for each of the plurality of portions of the object,
The projection angle of the reference light reflected by the portion and the first
A three-dimensional input device, which detects a light receiving angle at a position of (i) and outputs data corresponding to the detected projection angle and detected light angle as position information of the part.
第2の位置の双方に対して等距離の位置である請求項1
記載の3次元入力装置。2. A projection starting point of the reference light is located at a position equidistant from both the first and second positions.
3. The three-dimensional input device according to claim 1.
置の近傍である請求項1記載の3次元入力装置。3. The three-dimensional input device according to claim 1, wherein a starting point of the projection of the reference light is near the second position.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10347696A JP2000171223A (en) | 1998-12-08 | 1998-12-08 | Three-dimensional input device |
US09/455,536 US6411918B1 (en) | 1998-12-08 | 1999-12-07 | Method and apparatus for inputting three-dimensional data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10347696A JP2000171223A (en) | 1998-12-08 | 1998-12-08 | Three-dimensional input device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2000171223A true JP2000171223A (en) | 2000-06-23 |
Family
ID=18391964
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP10347696A Pending JP2000171223A (en) | 1998-12-08 | 1998-12-08 | Three-dimensional input device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2000171223A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022113877A1 (en) * | 2020-11-25 | 2022-06-02 | ファナック株式会社 | Three-dimensional-measurement device and three-dimensional-measurement method |
-
1998
- 1998-12-08 JP JP10347696A patent/JP2000171223A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022113877A1 (en) * | 2020-11-25 | 2022-06-02 | ファナック株式会社 | Three-dimensional-measurement device and three-dimensional-measurement method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109458928B (en) | Laser line scanning 3D detection method and system based on scanning galvanometer and event camera | |
JP4004316B2 (en) | Surveying device and method for acquiring image data using surveying device | |
WO1990009561A2 (en) | Laser range imaging system using projective geometry | |
US6556307B1 (en) | Method and apparatus for inputting three-dimensional data | |
CN114296057A (en) | Method, device and storage medium for calculating relative external parameter of distance measuring system | |
JP3991501B2 (en) | 3D input device | |
JP3893169B2 (en) | 3D measuring device | |
JP3925266B2 (en) | Three-dimensional shape input device and displacement detection method | |
JP3941631B2 (en) | Three-dimensional imaging apparatus and method | |
JP2000283721A (en) | Three-dimensional input device | |
JP2001311612A (en) | Shape input device | |
JPH09145318A (en) | Three-dimensional measuring equipment | |
JP2002022424A (en) | Three-dimensional measuring apparatus | |
JP2002022425A (en) | Three-dimensional image input device | |
JP4158300B2 (en) | 3D input method and 3D input device | |
US6297881B1 (en) | Three-dimensional measurement method and three-dimensional measurement device | |
JP2000088539A (en) | Method and apparatus for three-dimensional inputting | |
JP2000171222A (en) | Method and device for three-dimensional input | |
JP2000171223A (en) | Three-dimensional input device | |
JP3324367B2 (en) | 3D input camera | |
US6411918B1 (en) | Method and apparatus for inputting three-dimensional data | |
JP4032556B2 (en) | 3D input device | |
JP2004193947A (en) | Three-dimensional imaging apparatus and method | |
JP2000171225A (en) | Method and device for three-dimensional input | |
JPH07190773A (en) | Optical three-dimensional position detecting device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20050615 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20050704 |