JP2001141457A - Three-dimensional measuring apparatus - Google Patents

Three-dimensional measuring apparatus

Info

Publication number
JP2001141457A
JP2001141457A JP32189299A JP32189299A JP2001141457A JP 2001141457 A JP2001141457 A JP 2001141457A JP 32189299 A JP32189299 A JP 32189299A JP 32189299 A JP32189299 A JP 32189299A JP 2001141457 A JP2001141457 A JP 2001141457A
Authority
JP
Japan
Prior art keywords
point
image
representative
distance
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP32189299A
Other languages
Japanese (ja)
Inventor
Noriyuki Nobuyuki
宣之 沖須
Koichi Kanbe
幸一 掃部
Takuto Joko
琢人 上古
Yuji Taguchi
裕治 田口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP32189299A priority Critical patent/JP2001141457A/en
Publication of JP2001141457A publication Critical patent/JP2001141457A/en
Pending legal-status Critical Current

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve the problem that the problem point of a three-dimensional measuring apparatus by a stereo method, namely, characteristic point detection must be performed on the whole screen of two screens, the substantially coincident overlapping method of the distribution pattern of the characteristics must be searched, judgment must be performed on which overlapping method is the most rational when a plurality of the methods exist, extensive calculation processing such as the calculation of a distance in regard to each point is needed, and a long calculation time is needed. SOLUTION: A photographing and ranging device 1 provided with a photographing part 3 capable of stereo photographing and a ranging part 4 capable of point ranging is put at a position looking over an intersection point 20 in which a traffic accident occurs to be photographed. The distance 24 up to a point P is measured by the ranging part 4, and a corresponding point in the two images photographed by the photographing part 3 is specified. Thereby since the correspondence of each point of the two images can be performed, the calculation of the extensive correspondence is not needed as the conventional.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ステレオ法による
3次元計測のための演算時間を短縮し、また、測定精度
を向上させる3次元計測装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional measuring device for shortening the operation time for three-dimensional measurement by the stereo method and improving the measurement accuracy.

【0002】更に、本発明は、特に交通事故等が発生し
た際に警察官が作成する調書に含まれる現場見取り図を
作成するため利用されるのに適した3次元計測装置に関
する。
Further, the present invention relates to a three-dimensional measuring apparatus which is particularly suitable for being used for preparing a floor plan included in a record prepared by a police officer when a traffic accident or the like occurs.

【0003】[0003]

【従来の技術】交通事故が発生すると、事故の状況を特
定するために聞き取り調査とともに事故現場の記録がと
られる。現場見取り図はこの記録の重要な要素であり、
事故発生場所、道路の幅、現場付近の建物、信号機やガ
ードレールその他の構築物、事故車輌の位置、向き、ス
リップ痕、これらの相対位置関係が子細に記入される。
2. Description of the Related Art When a traffic accident occurs, a record of the accident site is taken together with a hearing survey to identify the situation of the accident. A floor plan is an important element of this record,
The location where the accident occurred, the width of the road, buildings near the site, traffic lights and guardrails and other structures, the location, orientation, slip marks and the relative positional relationship of the accident vehicle are described in detail.

【0004】現場見取り図の作成に当たり、巻き尺等に
より事故車輌、関連構築物等の寸法及び相互の距離の計
測が行われ、この計測結果が見取り図へ書き込まれる
が、これらの計測は、人手により行われるので、計測の
際警察官が二次的交通事故に巻き込まれたり、多くの場
合この計測は部分又は全体の交通を遮断して行われ、比
較的長時間かかるので交通渋滞を招く等の問題があっ
た。
[0004] In preparing the site sketch, the dimensions of the accident vehicle, related structures and the like and the distance to each other are measured using a tape measure or the like, and the measurement results are written in the sketch. However, these measurements are performed manually. Police officers are involved in secondary traffic accidents during measurement, and in many cases, this measurement is performed with partial or entire traffic blocked, and it takes a relatively long time to cause traffic jams. Was.

【0005】このような問題に対処するため、特許第2
881753号公報にみられるような位置計測作図装置
を用いて、このような作業を短時間に簡単にできるよう
にする試みがなされている。
To cope with such a problem, Japanese Patent No.
Attempts have been made to use a position measurement plotting device such as that disclosed in Japanese Patent No. 817553 to simplify such work in a short time.

【0006】上記公報に開示されている位置計測作図装
置は、事故車輌、道路構築物等の要所にマーカーを置き
又は取り付け、計測位置検出手段付のカメラで撮影しマ
ーカーを検出することにより計測位置検出データと併せ
て現場見取り図が作成されるものである。
The position measurement plotting device disclosed in the above publication places or attaches a marker at a key point such as an accident vehicle or a road structure, and detects the marker by photographing with a camera equipped with a measurement position detecting means. A site plan is created together with the detection data.

【0007】上記マーカーは関連するものに全て取り付
けられるので、数が多くなり、しかも必ずしも取り付け
が容易なものだけではないため、結局取り付け作業に多
くの時間が必要となる。
[0007] Since the above-mentioned markers are all attached to related items, the number of markers is large, and it is not always easy to attach the markers.

【0008】これまで、3次元計測のために多くの計測
方法が考えられてきている。
[0008] Many measurement methods have been considered for three-dimensional measurement.

【0009】ステレオ法は、人間の両眼視のように対象
物を2つのカメラによって撮影して2つの画像を得、こ
の画像の視差に基づく微妙な違いから、対象物の距離情
報を得るものである。
The stereo method obtains two images by photographing an object with two cameras, as in human binocular vision, and obtains distance information of the object from a subtle difference based on the parallax of the images. It is.

【0010】この方法では、対象物上の各点が2つの画
像上のどの点に対応するのかを同定できることが前提と
なり、この点を他の条件から推定する必要がある。
In this method, it is assumed that it is possible to identify which point on the object corresponds to which point on the two images, and it is necessary to estimate this point from other conditions.

【0011】上記推定のために、各画像の明るさ等を画
面領域上で微分する等の処理を施して、エッジ等の特徴
点(又は線)が検出される。こうすることにより、2つ
の画像上の特徴点(又は線)の分布パターンが求められ
る。
For the above estimation, processing such as differentiating the brightness and the like of each image on the screen area is performed, and feature points (or lines) such as edges are detected. In this way, a distribution pattern of feature points (or lines) on two images is obtained.

【0012】この2つの分布パターンを重ね合わせたと
き、おおよそ一致する場合、これをもって、このパター
ン上の各点を対応点と推定する。
When the two distribution patterns are approximately coincident when they are superimposed, each point on this pattern is estimated as a corresponding point.

【0013】これによって対象物上の特徴点についての
各画像上の対応点が特定できたので、これらの点の距離
を計算することができる。また、特徴点以外の点につい
ては特徴点から面が推定されて、その上の点の位置が計
算される。
[0013] Since the corresponding points on each image with respect to the feature points on the object can thus be specified, the distance between these points can be calculated. For points other than the feature points, a surface is estimated from the feature points, and the positions of points on the surface are calculated.

【0014】特徴が全くない、例えば、単一色で一定濃
度の平らな壁だけからなる対象物の場合、当然に特徴点
の検出ができないため、対象物の3次元位置を測定する
ことができない。
In the case of an object having no feature at all, for example, an object consisting of only a flat wall of a single color and a fixed density, it is naturally impossible to detect a feature point, and thus it is impossible to measure the three-dimensional position of the object.

【0015】また、対象物が等間隔に並んだ模様等だけ
からなっている場合、特徴点を検出することはできたと
しても、この分布パターンがおおよそ重なり合うような
重ね合わせ方が幾通りも存在することになるため、この
対応関係の判断を誤ると誤った測定結果を得ることにな
る。
In the case where the object consists only of patterns and the like arranged at equal intervals, even if the feature points can be detected, there are a number of overlapping methods in which the distribution patterns substantially overlap. Therefore, an erroneous determination of the correspondence results in an erroneous measurement result.

【0016】更に、特徴点検出は2画面の全画面につい
てそれぞれ行わなければならないこと、特徴の分布パタ
ーンのおおよそ一致する重ね合わせ方を探し出すこと、
この重ね合わせ方が複数ある時、どの重ね合わせ方が最
も合理的なのかを判断すること、各点に関して距離の計
算を行うこと等の、膨大な計算処理が必要になり、長い
計算時間が必要になる。
Further, the feature point detection must be performed for each of the two screens, and a method of superimposing the distribution pattern of the features that roughly matches is searched for.
When there are multiple superposition methods, enormous calculation processing such as judging which superposition method is most reasonable and calculating the distance for each point is required, requiring a long calculation time become.

【0017】この方法によれば、現場撮影は1回(2つ
のカメラによって同時に2つの画像が得られる場合)、
又は、2回(1つのカメラを移動し、それぞれの位置毎
に撮影する場合)で済むので、先に述べた二次的交通事
故や交通の遮断の問題は少なくなるが、上に述べたよう
に、その後の画像処理の時間が長くなる特徴がある。
According to this method, field shooting is performed once (when two images are obtained simultaneously by two cameras),
Alternatively, since only two times (one camera is moved and each position is photographed), the problems of secondary traffic accidents and traffic interruptions described above are reduced, but as described above. Another feature is that the time required for the subsequent image processing becomes longer.

【0018】一方、タイムオブフライト法では、光ビー
ムが対象物に当てられ、対象物によって反射した光が検
出される。この際、光ビームの往復の時間を計測するこ
とにより、光ビームが当たった対象物上の一点までの距
離が求められる。この距離と光ビームの方向とから、対
象物の一点の3次元データを得ることができる。
On the other hand, in the time-of-flight method, a light beam is applied to an object, and light reflected by the object is detected. At this time, by measuring the round trip time of the light beam, the distance to one point on the object hit by the light beam can be obtained. From this distance and the direction of the light beam, three-dimensional data of one point of the object can be obtained.

【0019】この方法では、対象物の各点についてそれ
ぞれ上記測定が行われ、この点の数が非常に多いので、
一点一点についての測定時間は短くても、全体では長い
時間がかかることになる。
In this method, the above measurement is performed for each point of the object, and the number of points is very large.
Although the measurement time for each point is short, it takes a long time as a whole.

【0020】このため、この方法では、その後の画像処
理時間は短いが、現場での測定時間が長くなるという特
徴がある。
For this reason, this method is characterized in that the subsequent image processing time is short, but the measurement time on site is long.

【0021】[0021]

【発明が解決しようとする課題】本発明は、上に述べた
ステレオ法における問題点、すなわち、特徴点検出を2
画面の全画面についてそれぞれ行わなければならないこ
と、特徴の分布パターンのおおよそ一致する重ね合わせ
方を探し出さなければならないこと、この重ね合わせ方
が複数ある時、どの重ね合わせ方が最も合理的なのかを
判断しなければならないこと、各点に関して距離の計算
を行うこと等の、膨大な計算処理が必要になり、長い計
算時間が必要になること、を解決することを課題とす
る。
SUMMARY OF THE INVENTION The present invention solves the above-mentioned problem in the stereo method, that is, the feature point detection is performed in two steps.
What must be done for each of the entire screens, how to find a superimposition that roughly matches the feature distribution pattern, and when there are multiple superpositions, which one is the most reasonable It is an object of the present invention to solve the problem that an enormous calculation process such as calculation of distance for each point is required and a long calculation time is required.

【0022】本発明は、ステレオ法にタイムオブフライ
ト法等にみられるポイント測距法を併用することによ
り、上記課題解決をはかることを更なる課題とする。
Another object of the present invention is to solve the above-mentioned problem by using a point ranging method such as a time-of-flight method in combination with a stereo method.

【0023】[0023]

【課題を解決するための手段】本発明の第1番目の発明
の解決手段は、請求項1に記載されているとおり、撮像
手段と、測距手段と、第1の対応点決定手段と、第2の
対応点決定手段と、3次元データ作成手段とを備えた3
次元計測装置であって、撮像手段によって測定物が撮像
され、測距手段によって測定物の代表点(P)が測距さ
れる。第1及び第2の対応点決定手段によって、それぞ
れ第1及び第2の画像上の上記代表点(P)に対応する
点(Q)(R)が求められ、このデータに基づいて3次
元データ作成手段が3次元データを作成する。
According to a first aspect of the present invention, as set forth in claim 1, an image pickup means, a distance measuring means, a first corresponding point determining means, 3 provided with second corresponding point determining means and three-dimensional data creating means
In the dimension measuring device, an image of a measurement object is captured by an imaging unit, and a distance measurement unit measures a representative point (P) of the measurement object. The points (Q) and (R) corresponding to the representative points (P) on the first and second images, respectively, are obtained by the first and second corresponding point determining means, and three-dimensional data is obtained based on the data. Creation means creates three-dimensional data.

【0024】本発明の第2番目の発明の解決手段は、請
求項2に記載されているとおり、代表点指定手段と、測
距手段と、第1の対応点決定手段と、第2の対応点決定
手段と、相対位置指定手段と、3次元データ作成手段
と、を有する3次元計測装置であって、代表点指定手段
によって撮像手段で撮影した第1の画像上の代表点
(Q)が指定され、測距手段によって上記代表点指定手
段で指定した複数の代表点(P)が測距される。第1及
び第2の対応点決定手段は、それぞれ、撮像手段で撮影
した第2の画像上の上記代表点(Q)に対応する点
(R)及び 上記第2の画像上の上記代表点(R)以外
の対応点を求める。相対位置指定手段によって、上記第
1の画像と上記第2の画像を撮像した相対位置が指定さ
れる。3次元データ作成手段は、上記第1及び第2の対
応点決定手段と、上記相対位置指定手段から得られたデ
ータに基づいて3次元データを作成する。
According to a second aspect of the present invention, as set forth in claim 2, a representative point specifying means, a distance measuring means, a first corresponding point determining means, and a second corresponding means are provided. A three-dimensional measuring device comprising a point determining means, a relative position specifying means, and a three-dimensional data creating means, wherein a representative point (Q) on a first image photographed by an imaging means by the representative point specifying means is A plurality of representative points (P) designated and designated by the representative point designation means are measured by the distance measurement means. The first and second corresponding point determination means respectively determine a point (R) corresponding to the representative point (Q) on the second image captured by the imaging means and the representative point ( Find corresponding points other than R). The relative position at which the first image and the second image are captured is specified by a relative position specifying unit. The three-dimensional data creating means creates three-dimensional data based on the data obtained from the first and second corresponding point determining means and the relative position designating means.

【0025】本発明の第3番目の発明の解決手段は、請
求項3に記載されているとおり、代表点指定手段と、測
距手段と、範囲決定手段と、第1の対応点決定手段と、
第2の対応点決定手段と、相対位置指定手段と、3次元
データ作成手段と、を有する3次元計測装置であって、
代表点指定手段によって、撮像手段で撮影した第1の画
像上の代表点が指定され、測距手段によって、上記代表
点指定手段で指定した複数の代表点が測距され、範囲決
定手段によって、撮像手段で撮影した第2の画像におけ
る代表点に対応する点を求める範囲が決められる。第1
の対応点決定手段によって、上記範囲決定手段によって
決定された範囲に応じて、上記第2の画像上の上記代表
点に対応する点が求められ、第2の対応点決定手段によ
って、上記第2の画像上の上記代表点以外の対応点が求
められる。相対位置指定手段によって、上記第1の画像
と上記第2の画像を撮像した相対位置が指定され、3次
元データ作成手段は、上記第1及び第2の対応点決定手
段と、上記相対位置指定手段から得られたデータに基づ
いて3次元データを作成する。
According to a third aspect of the present invention, as set forth in claim 3, a representative point specifying unit, a distance measuring unit, a range determining unit, and a first corresponding point determining unit are provided. ,
A three-dimensional measuring apparatus comprising: a second corresponding point determining unit; a relative position specifying unit; and a three-dimensional data creating unit,
A representative point on the first image photographed by the imaging means is designated by the representative point designating means, a plurality of representative points designated by the representative point designating means are measured by the distance measuring means, and a range deciding means is designated by: A range for obtaining a point corresponding to the representative point in the second image captured by the imaging unit is determined. First
The point corresponding to the representative point on the second image is determined by the corresponding point determining means according to the range determined by the range determining means, and the second corresponding point determining means determines the point corresponding to the second point. The corresponding points other than the representative points on the image are obtained. The relative position designating means designates a relative position at which the first image and the second image are taken, and the three-dimensional data creating means comprises: the first and second corresponding point determining means; Three-dimensional data is created based on the data obtained from the means.

【0026】本発明の第4番目の発明の解決手段は、請
求項4に記載されているとおり、撮像ステップと、測距
ステップと、第1の対応点決定ステップと、第2の対応
点決定ステップと、3次元データ作成ステップとからな
る3次元計測方法であって、撮像ステップにおいて測定
物が撮像され、測距ステップにおいて、測定点と撮像位
置までの距離が測定される。第1の対応点決定ステップ
において、第1の画像での上記測定点に対応する第1の
対応点が、また、第2の対応点決定ステップにおいて、
第2の画像での上記測定点に対応する第2の対応点が、
それぞれ求められる。3次元データ作成ステップにおい
て、上記測定点と上記撮像位置までの距離と、上記第1
及び上記第2の対応点とから3次元データが作成され
る。
According to a fourth aspect of the present invention, as set forth in claim 4, an image capturing step, a distance measuring step, a first corresponding point determining step, and a second corresponding point determining step. In a three-dimensional measurement method including a step and a three-dimensional data creation step, an object is imaged in an imaging step, and a distance between a measurement point and an imaging position is measured in a distance measurement step. In the first corresponding point determining step, a first corresponding point corresponding to the measurement point in the first image is provided in the second corresponding point determining step.
A second corresponding point corresponding to the measurement point in the second image is
Required respectively. In the three-dimensional data creation step, the distance between the measurement point and the imaging position and the first
Then, three-dimensional data is created from the second corresponding point.

【0027】本発明の第5番目の発明の解決手段は、請
求項5に記載されているとおり、撮像ステップと、代表
点指定ステップと、測距ステップと、第1の対応点決定
ステップと、第2の対応点決定ステップと、相対位置指
定ステップと、3次元データ作成ステップと、からなる
3次元計測方法であって、撮像ステップにおいて、測定
物を撮像して複数の画像が得られる。代表点指定ステッ
プにおいて、上記撮像ステップによって撮像された第1
の画像の代表点が指定され、測距ステップにおいて、上
記第1の画像の上記代表点に対応する測定物上の点と撮
像位置までの距離が測定される。第1の対応点決定ステ
ップにおいて、上記第2の画像で、上記第1の画像の上
記複数の代表点に対応する第1の対応点が求められ、第
2の対応点決定ステップにおいて、上記第2の画像で、
上記第1の画像の上記複数の代表点以外の第2の対応点
が求められる。相対位置指定ステップにおいて、上記第
1の画像と上記第2の画像を撮像した相対位置が指定さ
れ、3次元データ作成ステップにおいて、上記第1及び
第2の対応点と上記相対位置のデータに基づいて3次元
データが作成される。
According to a fifth aspect of the present invention, as set forth in claim 5, an imaging step, a representative point designating step, a distance measuring step, a first corresponding point determining step, This is a three-dimensional measurement method including a second corresponding point determination step, a relative position designation step, and a three-dimensional data creation step. In the imaging step, an object is imaged to obtain a plurality of images. In the representative point designation step, the first image captured in the imaging step
In the ranging step, the distance between the point on the object corresponding to the representative point of the first image and the imaging position is measured. In the first corresponding point determining step, a first corresponding point corresponding to the plurality of representative points of the first image is obtained in the second image, and in the second corresponding point determining step, the first corresponding point is determined. In the image of 2,
A second corresponding point other than the plurality of representative points of the first image is obtained. In the relative position designation step, a relative position at which the first image and the second image are captured is designated, and in the three-dimensional data creation step, based on the data of the first and second corresponding points and the relative position. Thus, three-dimensional data is created.

【0028】本発明の第6番目の発明の解決手段は、請
求項6に記載されているとおり、撮像ステップと、代表
点指定ステップと、測距ステップと、範囲決定ステップ
と、第1の対応点決定ステップと、第2の対応点決定ス
テップと、相対位置指定ステップと、3次元データ作成
ステップと、からなる3次元計測方法であって、撮像ス
テップにおいて、測定物を撮像して複数の画像が得ら
れ、代表点指定ステップにおいて、上記撮像ステップに
よって撮像された第1の画像の代表点が複数指定され
る。測距ステップにおいて、上記第1の画像の上記代表
点に対応する測定物上の点と撮像位置までの距離が測定
され、範囲決定ステップにおいて、上記第2の画像にお
ける上記代表点に対応する点を求める範囲が決められ
る。第1の対応点決定ステップにおいて、上記第2の画
像で、上記第1の画像の上記複数の代表点に対応する第
1の対応点が求められ、第2の対応点決定ステップにお
いて、上記第2の画像で、上記第1の画像の上記複数の
代表点以外の第2の対応点が求められる。相対位置指定
ステップにおいて、上記第1の画像と上記第2の画像を
撮像した相対位置が指定され、3次元データ作成ステッ
プにおいて、上記第1及び第2の対応点と上記相対位置
のデータに基づいて3次元データが作成される。
According to a sixth aspect of the present invention, as set forth in claim 6, an image capturing step, a representative point specifying step, a distance measuring step, a range determining step, and a first corresponding step. A three-dimensional measurement method including a point determination step, a second corresponding point determination step, a relative position designation step, and a three-dimensional data creation step. Is obtained, and in the representative point specifying step, a plurality of representative points of the first image picked up in the image pickup step are specified. In the distance measuring step, a distance between a point on the object corresponding to the representative point of the first image and the imaging position is measured, and in the range determining step, a point corresponding to the representative point in the second image is measured. Is determined. In the first corresponding point determining step, a first corresponding point corresponding to the plurality of representative points of the first image is obtained in the second image, and in the second corresponding point determining step, the first corresponding point is determined. In the second image, a second corresponding point other than the plurality of representative points of the first image is obtained. In the relative position designation step, a relative position at which the first image and the second image are captured is designated, and in the three-dimensional data creation step, based on the data of the first and second corresponding points and the relative position. Thus, three-dimensional data is created.

【0029】[0029]

【実施例】図1は、本発明の3次元計測装置の概要を示
す全体図である。
FIG. 1 is an overall view showing an outline of a three-dimensional measuring apparatus according to the present invention.

【0030】3次元計測装置は、撮影・測距装置1及び
演算装置2から構成されている。撮影・測距装置1は、
更に、撮影部3及び測距部4から構成されている。
The three-dimensional measuring device comprises a photographing / ranging device 1 and an arithmetic device 2. The photographing / ranging device 1
Further, it is composed of a photographing unit 3 and a distance measuring unit 4.

【0031】撮影部3は、いわゆるステレオ撮影装置か
らなり、2つの撮影窓5、6を通して撮影される画像は
デジタル画像である。また、この撮影部3の裏面は、モ
ニターディスプレイ9と操作部10が備えられている。
The photographing section 3 comprises a so-called stereo photographing device, and the images photographed through the two photographing windows 5 and 6 are digital images. A monitor display 9 and an operation unit 10 are provided on the back surface of the imaging unit 3.

【0032】測距部4は、ポイント測距装置からなり、
タイムオブフライト法によって測距対象物上の点までの
距離を測定するため、光線投影窓7、受光窓8を有して
いる。
The distance measuring unit 4 comprises a point distance measuring device.
In order to measure the distance to a point on the object to be measured by the time-of-flight method, a light projection window 7 and a light receiving window 8 are provided.

【0033】撮影部3で撮影された撮影画像、測距部4
で測定された測定データの他、撮影条件、測定条件など
のデータは記録メディア11を介して演算装置2に送ら
れる。記録メディア11を媒介させる代わりに、通信線
を介してこれらのデータを演算装置2に送るようにする
こともできる。
An image photographed by the photographing unit 3 and a distance measuring unit 4
In addition to the measurement data measured in step (1), data such as photographing conditions and measurement conditions are sent to the arithmetic unit 2 via the recording medium 11. Instead of mediating the recording medium 11, these data can be sent to the arithmetic unit 2 via a communication line.

【0034】演算装置2は、モニターディスプレイ1
2、演算部13、操作部14を備えており、それぞれ、
演算部13にはパーソナルコンピュータを、また、操作
部14にはキーボード、マウス等を利用することができ
る。
The arithmetic unit 2 includes a monitor display 1
2, an operation unit 13 and an operation unit 14.
A personal computer can be used for the operation unit 13, and a keyboard, a mouse, and the like can be used for the operation unit 14.

【0035】図2は、本発明の撮影・測距装置1の使用
状況をあらわした斜視図である。
FIG. 2 is a perspective view showing the usage of the photographing / ranging apparatus 1 of the present invention.

【0036】撮影・測距装置1は交差点20につながる
道路上に置かれ、交差点20を撮影、測定している。こ
の図2において、点線22は撮影窓6で撮影される画像
の画角を、また、点線23は撮影窓5で撮影される画像
の画角をそれぞれ示している。撮影・測距装置1は支持
装置21によって支持されている。
The photographing / ranging device 1 is placed on a road leading to the intersection 20, and photographs and measures the intersection 20. In FIG. 2, a dotted line 22 indicates the angle of view of the image shot through the shooting window 6, and a dotted line 23 indicates the angle of view of the image shot through the shooting window 5. The photographing / ranging device 1 is supported by a support device 21.

【0037】撮影・測距装置1から点Pまでの距離(矢
印24)が測距部4によって測定される。
The distance (arrow 24) from the photographing / ranging device 1 to the point P is measured by the ranging unit 4.

【0038】図3は、撮影・測距装置1で撮影、測距を
行なっている様子を真上から見たところを簡易的に表し
た説明図である。
FIG. 3 is an explanatory diagram simply showing a state in which photographing and ranging are performed by the photographing / ranging device 1 when viewed from directly above.

【0039】撮影・測距装置1内には、撮影窓6の前方
を撮影するための撮影レンズ32と撮影レンズ32によ
って結像した像を読み取るためのCCD(電荷結合素
子)30、及び、撮影窓5の前方を撮影するための撮影
レンズ33と撮影レンズ33によって結像した像を読み
取るためのCCD31が備えられている。
A photographing lens 32 for photographing the front of the photographing window 6, a CCD (Charge Coupled Device) 30 for reading an image formed by the photographing lens 32, and a photographing / ranging device 1. A photographing lens 33 for photographing the front of the window 5 and a CCD 31 for reading an image formed by the photographing lens 33 are provided.

【0040】この図3において、LはCCD30とCC
D31の撮影光軸間の距離、Kは測距部4の光軸と撮影
レンズ32の撮影光軸との距離であり、これらは、既知
の値である。
In FIG. 3, L is the CCD 30 and CC
D31, the distance between the photographing optical axes, and K, the distance between the optical axis of the distance measuring unit 4 and the photographing optical axis of the photographing lens 32, are known values.

【0041】また、角度α及び角度βは、被測距点Pと
各撮影レンズの中心を通る線とそれぞれの撮影レンズ3
2及び33の光軸がなす角度である。
The angles α and β are the distance between the point P to be measured and the center of each photographing lens and each photographing lens 3.
The angle between the optical axes 2 and 33.

【0042】ステレオ法では、図3のL、α、βから、
いわゆる三角測距の原理によって、被測距点Pまでの距
離QPまたはRPが求められる。そして、α、βはそれ
ぞれ、CCD30、31上での被測距点Pの像Q、Rの
位置から、次式 α = arctan( b/u ) β = arctan( b/v ) によって求めることができる。なお、ここで、bは撮影
レンズ32、33とCCD30、31との距離であり、
これは撮影レンズ32、33の焦点距離及びレンズ繰り
出し量とから求められる。実際は、CCD30で撮影さ
れた画像で被測距点Pが写っている位置Qを指定し、C
CD31で撮影された画像でQに対応する位置Rを求め
る。
In the stereo method, from L, α and β in FIG.
The distance QP or RP to the point P to be measured is obtained by the so-called triangulation principle. Α and β can be obtained from the positions of the images Q and R of the distance-measuring point P on the CCDs 30 and 31 according to the following equations α = arctan (b / u) β = arctan (b / v). it can. Here, b is the distance between the imaging lenses 32 and 33 and the CCDs 30 and 31,
This is obtained from the focal lengths of the photographing lenses 32 and 33 and the lens extension amounts. Actually, the position Q at which the distance-measuring point P is shown in the image taken by the CCD 30 is designated, and C
A position R corresponding to Q is obtained from an image captured by the CD 31.

【0043】この対応点は、通常、相関演算法により自
動的に求める方法が採用されている。
Usually, a method of automatically finding the corresponding points by a correlation operation method is adopted.

【0044】しかしながら、この方法によると、相関演
算の範囲が画面全体にわたるため、極めて長い演算時間
が必要となり、更に、画像的に類似しているところを対
応点と誤りやすいため、これをより正確に峻別するため
に更に長い時間が必要となるといった不具合がある。
However, according to this method, since the range of the correlation operation is over the entire screen, an extremely long operation time is required. Further, since a similar point in the image is easily mistaken for a corresponding point, it is more accurate. However, there is a problem that a longer time is required to make a distinction.

【0045】この不具合を解決するために、本発明では
測距部4が設けられている。
In order to solve this problem, a distance measuring unit 4 is provided in the present invention.

【0046】まず、測距部4によって、測距部4から点
Pまでの距離SPが測定される。この測定の結果、距離
SP及び角度γ(測距部4の光軸の向きと点Pの方向と
のなす角度)が求められる。
First, the distance SP from the distance measuring unit 4 to the point P is measured by the distance measuring unit 4. As a result of this measurement, the distance SP and the angle γ (the angle between the direction of the optical axis of the distance measuring unit 4 and the direction of the point P) are obtained.

【0047】図3の△PSAにおいて、距離Kの値は既
知であり、距離SP及び角度γ(=∠PSA)が求めれ
たので、αは、α=180°−∠PSA の式によって
求められる。
In the ΔPSA of FIG. 3, since the value of the distance K is known and the distance SP and the angle γ (= ΔPSA) have been determined, α is determined by the equation α = 180 ° −ΔPSA.

【0048】角度αが求められれば、距離bと角度αと
から、CCD30上の点Qとその光軸との距離uが求め
られる。距離Lも既知であるので、△PSCにおいても
同様の計算を行なえば、光軸と像Rの距離vが求まる。
When the angle α is obtained, the distance u between the point Q on the CCD 30 and its optical axis is obtained from the distance b and the angle α. Since the distance L is also known, if the same calculation is performed for the △ PSC, the distance v between the optical axis and the image R can be obtained.

【0049】このようにして、点Qの対応点Rが求めら
れる。
In this way, the point R corresponding to the point Q is obtained.

【0050】現実的には、測距誤差や測距部4、CCD
30、31それぞれの間での相対位置関係の誤差などに
より、点Qと点Rの対応付けにも誤差が重畳される。上
記の方法の場合、点Qは正確に決まらなくても点Qの対
応点Rが正確に決まればよいので、まず点Q、点Rを上
記方法にて決めてから、その点Rの近傍、例えば点Rを
中心とした半径20画素程度の円形領域において相関演
算により、正確な点Rの位置を決めるようにする。
In reality, the distance measurement error, the distance measurement unit 4, the CCD
An error is also superimposed on the correspondence between the point Q and the point R due to an error in the relative positional relationship between each of the points 30 and 31. In the case of the above method, since the corresponding point R of the point Q may be determined accurately even if the point Q is not determined accurately, first, the points Q and R are determined by the above method, and then the vicinity of the point R, For example, an accurate position of the point R is determined by a correlation operation in a circular area having a radius of about 20 pixels around the point R.

【0051】以上のように本発明方法によれば、相関演
算する範囲が限定できるので、高速に演算することがで
き、また、この範囲内に画像的に類似しているところが
他にない(又はあっても極めて少ない)ことから、画像
的に類似しているところを対応点と誤る可能性も小さく
できる。なお、実際に相関演算を行うべき領域を限定す
るあるいは対応点の誤認をできるだけ回避するために、
上記領域が定められているのであるから、この領域の形
状は、必ずしも円形である必要はなく、矩形、その他計
算しやすい任意の形状とすることができる。
As described above, according to the method of the present invention, the range in which the correlation calculation is performed can be limited, so that the calculation can be performed at high speed, and there is no other image similarity in this range (or (Even if there is very little), it is possible to reduce the possibility that an image similarity is mistaken for a corresponding point. In addition, in order to limit the area where the correlation calculation should be actually performed or to avoid erroneous recognition of the corresponding point as much as possible
Since the above-mentioned area is defined, the shape of this area does not necessarily have to be circular, but may be rectangular or any other shape that is easy to calculate.

【0052】実際の測距においては、上記方法により測
定する点(以下、代表対応点)は画面内に複数個指定す
る。それらは、偏りなく配置されることが理想である。
In actual distance measurement, a plurality of points to be measured by the above method (hereinafter, representative corresponding points) are designated on the screen. Ideally, they should be placed evenly.

【0053】しかし、上記の方法では、測距部4とCC
D30の撮像系との間に視差により、まず測距の際に点
Pを決め、その後点Q、点Rを決めることになるため、
代表対応点の配置状況を把握するのは必ずしも容易なこ
とではない。
However, in the above method, the distance measuring unit 4 and the CC
Due to parallax between the imaging system of D30 and the point P, the point P is determined at the time of distance measurement, and then the points Q and R are determined.
It is not always easy to grasp the arrangement status of the representative corresponding points.

【0054】一方、CCD30によって得られた画像を
見てまず点Qを決め、それから測距部4により点Pまで
の距離を測定し、そして点Qの対応点Rを求める手順で
あれば、画像を見て代表対応点を決められるので、代表
対応点の配置状況を把握するのは容易である。あるい
は、あらかじめ代表対応点の配置が決められている場合
にも適している。
On the other hand, if the procedure is such that the point Q is first determined by looking at the image obtained by the CCD 30, then the distance to the point P is measured by the distance measuring unit 4, and the corresponding point R of the point Q is determined. , The representative corresponding point can be determined, so that it is easy to grasp the arrangement state of the representative corresponding point. Or, it is also suitable when the arrangement of the representative corresponding points is determined in advance.

【0055】図10は、このような場合における、撮影
・測距装置1で撮影、測距を行なっている様子を真上か
ら見たところを簡易的に表した説明図である。図3の場
合と比べて可動ミラー34がある点で相違する。この可
動ミラー34の位置を動かすことにより、光路を測距部
4とCCD30とに切り替えられるようになっているの
で、測距部4とCCD30との視差は生じない。
FIG. 10 is an explanatory diagram simply showing a state in which photographing and ranging are performed by the photographing / ranging device 1 in such a case as viewed from directly above. 3 in that the movable mirror 34 is provided. By moving the position of the movable mirror 34, the optical path can be switched between the distance measuring unit 4 and the CCD 30, so that no parallax occurs between the distance measuring unit 4 and the CCD 30.

【0056】この構成では、まずCCD30の画像にて
点Pに相当する点Qを指定し、次に測距部4にてSPの
距離を測定する。そして測距部4とCCD30の幾何学
的配置から、距離SPを基にPAの距離を求めることが
できる。
In this configuration, first, a point Q corresponding to the point P is specified in the image of the CCD 30, and then the distance measuring unit 4 measures the SP distance. Then, the PA distance can be obtained based on the distance SP from the geometric arrangement of the distance measuring unit 4 and the CCD 30.

【0057】△PACにおいて、PA、AC(=L)、
および、角度α(=∠PAC)が求まるので、角度βが
わかり、点Rが決まる。
In PAC, PA, AC (= L),
Further, since the angle α (= ∠PAC) is obtained, the angle β is known, and the point R is determined.

【0058】図4は実際の測距を説明するための図であ
って、図2に示される交差点を撮影した画像をモニター
ディスプレイ9(又は12)に表示したものである。そ
して、ここに表示された画像には、図示のように格子状
の点線が、また、それらの交点には○が、重ねて表示さ
れている。
FIG. 4 is a view for explaining the actual distance measurement, in which an image of the intersection shown in FIG. 2 is displayed on the monitor display 9 (or 12). In the image displayed here, grid-like dotted lines are displayed as shown in the figure, and 交 is superimposed on the intersection thereof.

【0059】本発明では、図4の○の位置を代表対応点
とし、これらの点を上記に示したように測距部4を使用
しての対応付けが行なわれる。そして、残りの対応点は
相関演算法のみにより求められる。なお、ここでは、撮
影・測距装置1が図10のような構成のものとして説明
する。
In the present invention, the positions of circles in FIG. 4 are set as representative corresponding points, and these points are associated with each other using the distance measuring unit 4 as described above. Then, the remaining corresponding points are obtained only by the correlation operation method. Here, the description will be made assuming that the photographing / ranging device 1 has a configuration as shown in FIG.

【0060】図6は対応付けの手順の概略を示した説明
図である。
FIG. 6 is an explanatory diagram showing an outline of a procedure of association.

【0061】ステップ1において、第1の撮影画像(撮
影レンズ32を通してCCD30によって得られた画
像)の代表対応点(Q)を指定し、距離(SP)を測定
する。この図では代表対応点が1点のみ指定されている
が、図4のように複数の点を指定することが望ましく、
複数の点を指定することによって精度を向上させること
ができる。一方、あまりに多くの点を指定すると距離の
測定に時間を要するので、適宜の数の代表対応点を指定
する必要がある。
In step 1, the representative corresponding point (Q) of the first photographed image (the image obtained by the CCD 30 through the photographing lens 32) is designated, and the distance (SP) is measured. In this figure, only one representative corresponding point is designated, but it is desirable to designate a plurality of points as shown in FIG.
The accuracy can be improved by specifying a plurality of points. On the other hand, if too many points are specified, it takes time to measure the distance, so it is necessary to specify an appropriate number of representative corresponding points.

【0062】次に、ステップ2において、第2の撮影画
像(撮影レンズ33を通してCCD31によって得られ
た画像)での代表対応点(R)の対応付け範囲の決定を
行う。この時点ではまだ代表対応点(R)は特定されて
いない。ここで、対応付けをするための演算範囲を決定
する。演算範囲は、上記に説明したように、第2の撮影
画像での代表対応点(R)を求め、その近傍、例えば半
径20画素程度の円形領域とすることができる。そし
て、演算範囲のみについて演算処理し、代表対応点
(R)を特定する。
Next, in step 2, the correspondence range of the representative corresponding point (R) in the second photographed image (the image obtained by the CCD 31 through the photographing lens 33) is determined. At this point, the representative corresponding point (R) has not been specified yet. Here, the calculation range for associating is determined. As described above, the calculation range may be a representative corresponding point (R) in the second captured image, and may be a neighborhood thereof, for example, a circular area having a radius of about 20 pixels. Then, only the calculation range is calculated, and the representative corresponding point (R) is specified.

【0063】そして、第2の撮影画像上の残りの対応点
の対応付け範囲を決定する(ステップ3)。この場合の
相関演算範囲は、着目対応点の近くにある代表対応点付
近に限定して行なう(ステップ4)。これは、従来の相
関演算法と同じ考え方で、隣接代表対応点間において被
写体の距離が急激に変化していることが少ないという、
前提に立っている。この方法では、代表対応点が間違っ
て対応付けされていると、残りの対応点の対応付けも間
違ってしまうが、本発明では代表対応点が正確に対応付
けできているので、このような問題は発生しない。代表
対応点(P)を複数指定している場合は、代表対応点ま
での領域を相関演算(ステップ5)し、3次元データが
算出(ステップ6)される。
Then, the correspondence range of the remaining corresponding points on the second photographed image is determined (step 3). The correlation calculation range in this case is limited to the vicinity of the representative corresponding point near the corresponding point of interest (step 4). This is based on the same concept as the conventional correlation calculation method, and it is rare that the distance of the subject is rapidly changed between adjacent representative corresponding points.
Standing on the premise. In this method, if the representative corresponding points are incorrectly associated, the remaining corresponding points will also be incorrectly associated. However, in the present invention, since the representative corresponding points can be accurately associated, such a problem occurs. Does not occur. When a plurality of representative corresponding points (P) are designated, the area up to the representative corresponding point is correlated (step 5), and three-dimensional data is calculated (step 6).

【0064】代表対応点の指定方法は、図4のような代
表点をあらかじめ決定しておれば、その他の周辺装置を
用いることなく代表点を測定できる。
In the method of designating the representative corresponding point, if the representative point as shown in FIG. 4 is determined in advance, the representative point can be measured without using other peripheral devices.

【0065】それ以外にも、第7図に示すように、モニ
ターディスプレイ9に画像を表示し、使用者がその画像
を見ながら操作部10にて指定してもよい。そうするこ
とによって、無駄な対応点を測定することがなくなり、
時間が短縮できる。
Alternatively, as shown in FIG. 7, an image may be displayed on the monitor display 9 and the user may designate the image using the operation unit 10 while viewing the image. By doing so, you will not have to measure unnecessary corresponding points,
Time can be reduced.

【0066】図7において、モニターディスプレイ9上
に代表点候補○92が表示されている。操作部10のポ
インター101を操作し、代表点とするところの代表点
候補○92にカーソルが移動したとき、操作部10のボ
タン102を押すことによってその代表点候補○92が
指定代表点●91となる。任意の代表点候補○92を指
定代表点●91にすることによって、代表点を決定する
ことができる。
In FIG. 7, a representative point candidate 92 92 is displayed on the monitor display 9. When the pointer 101 of the operation unit 10 is operated and the cursor is moved to the representative point candidate 92 92 as the representative point, the representative point candidate 92 92 is designated by pressing the button 102 of the operation unit 10 ● 91. Becomes A representative point can be determined by setting an arbitrary representative point candidate # 92 to a designated representative point ● 91.

【0067】この方法とは異なる他の代表点決定方法を
採用することができる。図8は、この方法の一つであっ
て、エッジ検出による自動的な代表点決定方法を説明す
るための説明図である。
Another representative point determining method different from this method can be adopted. FIG. 8 is an explanatory diagram for explaining an automatic representative point determination method based on edge detection, which is one of the methods.

【0068】第8図の画面右から左方向に図示した矢印
の方向に画像をスキャンし、画像上のエッジ部分を検出
する。エッジ部分の検出には、画像領域内の明るさが急
激に変化する箇所を探すことによってエッジ部分を検出
する周知の方法を利用することができ、このエッジ部分
を代表点として決定する。
The image is scanned in the direction of the arrow shown from the right to the left in FIG. 8 to detect an edge portion on the image. For the detection of the edge portion, a well-known method of detecting the edge portion by searching for a portion in the image area where the brightness changes rapidly can be used, and this edge portion is determined as a representative point.

【0069】この方法においては、スキャン間隔を狭く
すると、検出されるエッジの数が多くなり、代表点があ
まりにも多く登録される結果、全体の演算時間が長くな
るので、スキャン間隔を適当な間隔Mとすることが重要
である。
In this method, if the scan interval is narrowed, the number of edges to be detected increases, and too many representative points are registered. As a result, the entire calculation time becomes long. M is important.

【0070】図9は、更に別な代表点決定方法を説明す
るための説明図である。
FIG. 9 is an explanatory diagram for explaining still another representative point determining method.

【0071】この代表点決定方法では、代表点を分布さ
せた複数のパターン、図9に示すように例えばA〜C、
があらかじめ用意される。使用者は、この中から最も現
場の状況に最も適すると考えられるパターンを選択す
る。
In this representative point determination method, a plurality of patterns in which representative points are distributed, for example, as shown in FIG.
Are prepared in advance. The user selects a pattern considered to be most suitable for the on-site situation from among these.

【0072】中心部分に被写体がある場合などは、Aで
示すように中央の5点に代表点があるパタンが適してお
り、一方、中央が交差点の中心である場合など、特徴的
な画像が中央になく、背景にビルが並んでいる場合など
は、Bで示すようなパターンを選択することが望まし
い。さらに、背景が空である場合などはCのパターンを
選択する。
When a subject is located at the center, a pattern having five representative points at the center as shown by A is suitable. On the other hand, a characteristic image such as when the center is the center of an intersection is suitable. When buildings are not arranged in the center but are lined up in the background, it is desirable to select a pattern indicated by B. Further, when the background is empty, the pattern of C is selected.

【0073】いずれにせよ、特徴部分に代表点が多く配
置されているようなパターンを選択することが望まし
い。なお、代表対応点の個数は図示の例に限られるもの
ではない。
In any case, it is desirable to select a pattern in which many representative points are arranged in the characteristic portion. The number of representative corresponding points is not limited to the illustrated example.

【0074】図5は本発明装置で見取り図を作成するフ
ローを示している。
FIG. 5 shows a flow of creating a sketch with the device of the present invention.

【0075】まず、CCD30、31で撮影を行ない
(#1)、第1の画像(CCD30の撮影画像)での代
表対応点を指定する(#2)。次に、その各代表対応点
を測距部4により測距する(#3)。
First, photographing is performed by the CCDs 30 and 31 (# 1), and a representative corresponding point in the first image (the photographed image of the CCD 30) is designated (# 2). Next, each representative corresponding point is measured by the distance measuring unit 4 (# 3).

【0076】そして、2枚の撮影画像及び各測距データ
を記録メディア11を介して演算装置2に送る。演算装
置2では、その測距データ及び測距部4、CCD30、
31それぞれの間での相対位置関係とから、第2の画像
(CCD31の撮影画像)での代表対応点の対応付け演
算の範囲を求め(#4)、対応付け演算を行う(#
5)。
Then, the two photographed images and the respective distance measurement data are sent to the arithmetic unit 2 via the recording medium 11. In the arithmetic unit 2, the distance measurement data and the distance measurement unit 4, the CCD 30,
From the relative positional relationship among the respective images 31, the range of the corresponding calculation of the representative corresponding point in the second image (the image captured by the CCD 31) is obtained (# 4), and the corresponding calculation is performed (#).
5).

【0077】その代表対応点の対応付け演算の結果か
ら、残りの対応点の対応付け演算の範囲を求め(#
6)、対応付け演算を行う(#7)。
From the result of the operation of associating the representative corresponding points, the range of the operation of associating the remaining corresponding points is obtained (#
6), and perform an association calculation (# 7).

【0078】そして、すべての対応点の対応付けが終了
すると、3次元データが算出できる(#8)。その3次
元データから見取り図(例えば鳥瞰図)が得られる(#
9)。
When all the corresponding points have been associated, three-dimensional data can be calculated (# 8). A sketch (for example, a bird's eye view) is obtained from the three-dimensional data (#
9).

【0079】以上の実施例では、撮影・測距装置1がC
CDのような撮影手段を2台備えた構成が採られている
が、撮影手段(CCD)を1つしか備えていない撮影・
測距装置1を利用することもでき、この場合、その位置
を変えて2回に分けた撮影を行う方法が採られる。
In the above embodiment, the photographing / ranging device 1 is
Although a configuration having two photographing means such as a CD is adopted, a photographing and photographing apparatus having only one photographing means (CCD) is provided.
The distance measuring device 1 can also be used, and in this case, a method of changing the position and performing shooting twice is adopted.

【0080】[0080]

【発明の効果】本発明は、ステレオ法にタイムオブフラ
イト法等にみられるポイント測距法を併用することによ
り、従来のように、特徴点検出を2画面の全画面につい
てそれぞれ行わなければならない、特徴の分布パターン
のおおよそ一致する重ね合わせ方を探し出さなければな
らない、この重ね合わせ方が複数ある時、どの重ね合わ
せ方が最も合理的なのかを判断しなければならない、と
いったステレオ法による3次元計測の問題が少なくな
り、これにより、膨大な計算処理が必要でなくなるの
で、長い計算時間が不要になるという効果を奏する。
According to the present invention, characteristic points must be detected for all two screens as in the prior art by using the point ranging method such as the time-of-flight method in combination with the stereo method. The stereo method, such as finding out how to superimpose the distribution pattern of the feature approximately. If there are multiple superposition methods, it is necessary to determine which one is the most reasonable. The problem of dimension measurement is reduced, which eliminates the need for enormous calculation processing, and has the effect of eliminating long calculation time.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の3次元計測装置の概要を示す全体図で
ある。
FIG. 1 is an overall view showing an outline of a three-dimensional measuring apparatus of the present invention.

【図2】本発明の撮影・測距装置1の使用状況をあらわ
した斜視図である。
FIG. 2 is a perspective view showing a usage state of the photographing / ranging apparatus 1 of the present invention.

【図3】撮影・測距装置1で撮影、測距を行なっている
様子を真上から見たところを簡易的に表した説明図であ
る。
FIG. 3 is an explanatory diagram simply showing a state in which photographing and ranging are performed by the photographing / ranging device 1 when viewed from directly above.

【図4】図4は実際の測距を説明するための図であっ
て、図2に示される交差点を撮影した画像をモニターデ
ィスプレイ9(又は12)に表示したものである。
FIG. 4 is a diagram for explaining actual distance measurement, in which an image of the intersection shown in FIG. 2 is displayed on a monitor display 9 (or 12).

【図5】本発明装置で見取り図を作成するフローを説明
するための図である。
FIG. 5 is a diagram for explaining a flow of creating a sketch with the device of the present invention.

【図6】対応付けの手順の概略を示した説明図である。FIG. 6 is an explanatory diagram showing an outline of a procedure of association.

【図7】図7において、代表点を決定するために代表点
候補○92と指定代表点●91が表示されているモニタ
ーディスプレイ9の図である。
FIG. 7 is a diagram of the monitor display 9 in which a representative point candidate ○ 92 and a designated representative point ● 91 are displayed in order to determine a representative point.

【図8】エッジ検出による自動的な代表点決定方法を説
明するための説明図である。
FIG. 8 is an explanatory diagram for explaining an automatic representative point determination method based on edge detection.

【図9】別な代表点決定方法を説明するための説明図で
ある。
FIG. 9 is an explanatory diagram for explaining another representative point determination method.

【図10】撮影・測距装置1で撮影、測距を行なってい
る様子を真上から見たところを簡易的に表した図3とは
別の説明図である。
FIG. 10 is an explanatory diagram different from FIG. 3, which simply shows a state in which photographing and ranging are performed by the photographing / ranging device 1 when viewed from directly above.

【符号の説明】[Explanation of symbols]

1 撮影・測距装置 2 演算装置 3 撮影部 4 測距部 5、6 撮影窓 7 光線投影窓 8 受光窓 9、12 モニターディスプレイ 10、14 操作部 20 交差点 21 支持装置 30、31 CCD 32、33 撮影レンズ 34 可動ミラー REFERENCE SIGNS LIST 1 photographing / ranging device 2 arithmetic unit 3 photographing unit 4 distance measuring unit 5, 6 photographing window 7 ray projection window 8 light receiving window 9, 12 monitor display 10, 14 operation unit 20 intersection 21 support device 30, 31 CCD 32, 33 Shooting lens 34 Movable mirror

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G01S 17/08 G01S 17/46 5L096 17/46 G08G 1/00 J G06T 7/00 G01B 11/24 K 7/60 G06F 15/62 415 G08G 1/00 15/70 350J (72)発明者 上古 琢人 大阪府大阪市中央区安土町二丁目3番13号 大阪国際ビル ミノルタ株式会社内 (72)発明者 田口 裕治 大阪府大阪市中央区安土町二丁目3番13号 大阪国際ビル ミノルタ株式会社内 Fターム(参考) 2F065 AA04 AA06 AA53 BB05 CC11 CC14 CC40 DD06 FF04 FF05 FF11 JJ03 JJ05 JJ26 QQ28 QQ38 QQ41 SS02 SS13 2F112 AC03 AD01 BA05 CA08 CA12 DA00 DA01 FA03 FA38 FA41 5B057 AA16 CA08 CA13 CB08 CB13 DA07 DB03 DB09 DC02 5H180 AA01 CC04 EE15 5J084 AA05 AB01 AD01 BB02 EA04 5L096 AA09 BA08 CA05 DA02 EA45 FA66 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G01S 17/08 G01S 17/46 5L096 17/46 G08G 1/00 J G06T 7/00 G01B 11/24 K 7 / 60 G06F 15/62 415 G08G 1/00 15/70 350J (72) Inventor Takuto Ueko 2-13-13 Azuchicho, Chuo-ku, Osaka-shi, Osaka Osaka International Building Minolta Co., Ltd. (72) Inventor Taguchi Yuji 2-3-1, Azuchicho, Chuo-ku, Osaka-shi, Osaka F-term (reference) 2F065 AA04 AA06 AA53 BB05 CC11 CC14 CC40 DD06 FF04 FF05 FF11 JJ03 JJ05 JJ26 QQ28 QQ38 QQ41 SS02 SS13 2F112 AD01 BA05 CA08 CA12 DA00 DA01 FA03 FA38 FA41 5B057 AA16 CA08 CA13 CB08 CB13 DA07 DB03 DB09 DC02 5H180 AA01 CC04 EE15 5J084 AA05 AB01 AD01 BB02 EA04 5L0 96 AA09 BA08 CA05 DA02 EA45 FA66

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 測定物を撮像する撮像手段と、 測定物の代表点(P)を測距する測距手段と、 撮像した第1の画像上の上記代表点(P)に対応する点
(Q)を求める第1の対応点決定手段と、 撮像した第2の画像上の上記代表点(P)に対応する点
(R)を求める第2の対応点決定手段と、 上記測距手段と、第1及び第2の対応点決定手段とから
得られたデータに基づいて3次元データを作成する3次
元データ作成手段と、を有することを特徴とする3次元
計測装置。
1. An imaging means for imaging an object, a distance measuring means for measuring a representative point (P) of the object, and a point (P) corresponding to the representative point (P) on the imaged first image. First corresponding point determining means for obtaining Q), second corresponding point determining means for obtaining a point (R) corresponding to the representative point (P) on the captured second image, and the distance measuring means A three-dimensional data creating means for creating three-dimensional data based on data obtained from the first and second corresponding point determining means.
【請求項2】 撮像手段で撮影した第1の画像上の代表
点(Q)を指定する代表点指定手段と、 上記代表点指定手段で指定した複数の代表点(P)を測
距する測距手段と、 撮像手段で撮影した第2の画像上の上記代表点(Q)に
対応する点(R)を求める第1の対応点決定手段と、 上記第2の画像上の上記代表点(R)以外の対応点を求
める第2の対応点決定手段と、 上記第1の画像と上記第2の画像を撮像した相対位置を
指定する相対位置指定手段と、 上記第1及び第2の対応点決定手段と、上記相対位置指
定手段から得られたデータに基づいて3次元データを作
成する3次元データ作成手段と、を有することを特徴と
する3次元計測装置。
2. A representative point designating means for designating a representative point (Q) on a first image photographed by an imaging means, and a distance measurement for a plurality of representative points (P) designated by said representative point designating means. Distance means; first corresponding point determining means for obtaining a point (R) corresponding to the representative point (Q) on the second image photographed by the imaging means; R) second corresponding point determining means for obtaining a corresponding point other than R); relative position specifying means for specifying a relative position at which the first image and the second image are captured; and the first and second correspondences A three-dimensional measuring apparatus comprising: a point determining means; and three-dimensional data creating means for creating three-dimensional data based on data obtained from the relative position designating means.
【請求項3】 撮像手段で撮影した第1の画像上の代表
点を指定する代表点指定手段と、 上記代表点指定手段で指定した複数の代表点を測距する
測距手段と、 撮像手段で撮影した第2の画像における代表点に対応す
る点を求める範囲を決める範囲決定手段と、 上記範囲決定手段によって決定された範囲に応じて、上
記第2の画像上の上記代表点に対応する点を求める第1
の対応点決定手段と、 上記第2の画像上の上記代表点以外の対応点を求める第
2の対応点決定手段と、 上記第1の画像と上記第2の画像を撮像した相対位置を
指定する相対位置指定手段と、 上記第1及び第2の対応点決定手段と、上記相対位置指
定手段から得られたデータに基づいて3次元データを作
成する3次元データ作成手段と、を有することを特徴と
する3次元計測装置。
3. A representative point designating means for designating a representative point on a first image photographed by an image taking means; a distance measuring means for measuring a distance of a plurality of representative points designated by said representative point designating means; Range determining means for determining a range for obtaining a point corresponding to the representative point in the second image captured in step 2, and corresponding to the representative point on the second image according to the range determined by the range determining means First to find points
Corresponding point determining means, second corresponding point determining means for obtaining a corresponding point other than the representative point on the second image, and specifying a relative position where the first image and the second image are captured Relative position designating means, the first and second corresponding point determining means, and three-dimensional data creating means for creating three-dimensional data based on data obtained from the relative position designating means. Characteristic three-dimensional measuring device.
【請求項4】 測定物を撮像する撮像ステップと、 測定点と撮像位置までの距離を測定する測距ステップ
と、 第1の画像での上記測定点に対応する第1の対応点を求
める第1の対応点決定ステップと、 第2の画像での上記測定点に対応する第2の対応点を求
める第2の対応点決定ステップと、 上記測定点と上記撮像位置までの距離と、上記第1及び
上記第2の対応点とから3次元データを作成する3次元
データ作成ステップと、からなることを特徴とする3次
元計測方法。
4. An imaging step of imaging a measurement object, a distance measurement step of measuring a distance between a measurement point and an imaging position, and a first corresponding point corresponding to the measurement point in the first image. A first corresponding point determining step; a second corresponding point determining step of obtaining a second corresponding point corresponding to the measurement point in the second image; a distance between the measurement point and the imaging position; A three-dimensional data creation step of creating three-dimensional data from the first and the second corresponding points.
【請求項5】 測定物を撮像して複数の画像を得る撮像
ステップと、 上記撮像ステップによって撮像された第1の画像の代表
点を複数指定する代表点指定ステップと、 上記第1の画像の上記代表点に対応する測定物上の点と
撮像位置までの距離を測定する測距ステップと、 上記第2の画像で、上記第1の画像の上記複数の代表点
に対応する第1の対応点を求める第1の対応点決定ステ
ップと、 上記第2の画像で、上記第1の画像の上記複数の代表点
以外の第2の対応点を求める第2の対応点決定ステップ
と、 上記第1の画像と上記第2の画像を撮像した相対位置を
指定する相対位置指定ステップと、 上記第1及び第2の対応点と上記相対位置のデータに基
づいて3次元データを作成する3次元データ作成ステッ
プと、からなることを特徴とする3次元計測方法。
5. An image capturing step of capturing an image of a measurement object to obtain a plurality of images; a representative point specifying step of specifying a plurality of representative points of a first image captured by the image capturing step; A distance measuring step of measuring a distance from a point on a measurement object corresponding to the representative point to an imaging position; and a first correspondence corresponding to the plurality of representative points of the first image in the second image. A first corresponding point determining step of obtaining a point; a second corresponding point determining step of obtaining a second corresponding point other than the plurality of representative points of the first image in the second image; A relative position designating step of designating a relative position where the first image and the second image are captured; and three-dimensional data for creating three-dimensional data based on the data of the first and second corresponding points and the relative position. And a creating step. 3D measurement method.
【請求項6】 測定物を撮像して複数の画像を得る撮像
ステップと、 上記撮像ステップによって撮像された第1の画像の代表
点を複数指定する代表点指定ステップと、 上記第1の画像の上記代表点に対応する測定物上の点と
撮像位置までの距離を測定する測距ステップと、 上記第2の画像における上記代表点に対応する点を求め
る範囲を決める範囲決定ステップと、 上記第2の画像で、上記第1の画像の上記複数の代表点
に対応する第1の対応点を求める第1の対応点決定ステ
ップと、 上記第2の画像で、上記第1の画像の上記複数の代表点
以外の第2の対応点を求める第2の対応点決定ステップ
と、 上記第1の画像と上記第2の画像を撮像した相対位置を
指定する相対位置指定ステップと、 上記第1及び第2の対応点と上記相対位置のデータに基
づいて3次元データを作成する3次元データ作成ステッ
プと、からなることを特徴とする3次元計測方法。
6. An image capturing step of capturing an image of a measurement object to obtain a plurality of images; a representative point specifying step of specifying a plurality of representative points of a first image captured by the image capturing step; A distance measuring step of measuring a distance between a point on a measurement object corresponding to the representative point and an imaging position; a range determining step of determining a range to obtain a point corresponding to the representative point in the second image; A first corresponding point determining step of obtaining a first corresponding point corresponding to the plurality of representative points of the first image in the second image; and the plurality of the first image in the second image. A second corresponding point determining step of obtaining a second corresponding point other than the representative point of the above; a relative position specifying step of specifying a relative position where the first image and the second image are captured; Between the second corresponding point and the relative position Three-dimensional measurement method, wherein the three-dimensional data creation step of creating a three-dimensional data based on the over data, in that it consists of.
JP32189299A 1999-11-12 1999-11-12 Three-dimensional measuring apparatus Pending JP2001141457A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32189299A JP2001141457A (en) 1999-11-12 1999-11-12 Three-dimensional measuring apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32189299A JP2001141457A (en) 1999-11-12 1999-11-12 Three-dimensional measuring apparatus

Publications (1)

Publication Number Publication Date
JP2001141457A true JP2001141457A (en) 2001-05-25

Family

ID=18137576

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32189299A Pending JP2001141457A (en) 1999-11-12 1999-11-12 Three-dimensional measuring apparatus

Country Status (1)

Country Link
JP (1) JP2001141457A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012008026A (en) * 2010-06-25 2012-01-12 Meidensha Corp Trolley wire position measuring device
JP2012057960A (en) * 2010-09-06 2012-03-22 Topcon Corp Point group position data processor, point group position data processing method, point group position data processing system, and point group position data processing program
WO2015099193A1 (en) * 2013-12-26 2015-07-02 Ricoh Company, Ltd. Parallax operation system, information processing apparatus, information processing method, and recording medium
CN109544934A (en) * 2018-12-19 2019-03-29 同济大学 Efficiency safety monitoring system based on urban intersection mixed traffic flow three-dimensional track

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012008026A (en) * 2010-06-25 2012-01-12 Meidensha Corp Trolley wire position measuring device
JP2012057960A (en) * 2010-09-06 2012-03-22 Topcon Corp Point group position data processor, point group position data processing method, point group position data processing system, and point group position data processing program
WO2015099193A1 (en) * 2013-12-26 2015-07-02 Ricoh Company, Ltd. Parallax operation system, information processing apparatus, information processing method, and recording medium
JP2015143679A (en) * 2013-12-26 2015-08-06 株式会社リコー Parallax calculation system, information processing device, information processing method and program
EP3087342A4 (en) * 2013-12-26 2017-01-04 Ricoh Company, Ltd. Parallax operation system, information processing apparatus, information processing method, and recording medium
KR101815407B1 (en) * 2013-12-26 2018-01-04 가부시키가이샤 리코 Parallax operation system, information processing apparatus, information processing method, and recording medium
US10198830B2 (en) 2013-12-26 2019-02-05 Ricoh Company, Ltd. Parallax operation system, information processing apparatus, information processing method, and recording medium
CN109544934A (en) * 2018-12-19 2019-03-29 同济大学 Efficiency safety monitoring system based on urban intersection mixed traffic flow three-dimensional track

Similar Documents

Publication Publication Date Title
JP4537557B2 (en) Information presentation system
JP4003623B2 (en) Image processing system using a pivotable surveillance camera
JP2010219825A (en) Photographing device for three-dimensional measurement
CN107687818A (en) Three-dimensional measurement method and three-dimensional measurement device
JP2000207693A (en) Obstacle detector on vehicle
JP2001317915A (en) Three-dimensional measurement apparatus
WO2022052409A1 (en) Automatic control method and system for multi-camera filming
JP2005140547A (en) 3-dimensional measuring method, 3-dimensional measuring device and computer program
JP2003130642A (en) Telemetry and telemeter
JP2002099902A (en) Image processing device for measuring three-dimensional information of object through binocular stereoscopic vision, its method, and storage medium with measurement program stored therein
JP2001141457A (en) Three-dimensional measuring apparatus
JPH09210649A (en) Three dimensional measurement device
US6616347B1 (en) Camera with rotating optical displacement unit
JP4006296B2 (en) Displacement measuring method and displacement measuring apparatus by photogrammetry
JP3221384B2 (en) 3D coordinate measuring device
JP3696335B2 (en) Method for associating each measurement point of multiple images
JPH10320558A (en) Calibration method, corresponding point search method and device therefor, focus distance detection method and device therefor, three-dimensional position information detection method and device therefor, and recording medium
JP2004045321A (en) Position measuring system
JP2002352231A (en) Method and device for detecting end point of human body
JPS6256814A (en) Calibration system for three-dimensional position measuring camera
JPH10320560A (en) Image measuring instrument
JPH1096607A (en) Object detector and plane estimation method
JPH10318715A (en) Image measuring apparatus
JP4153322B2 (en) Method and apparatus for associating measurement points in photogrammetry
JP4280572B2 (en) Automatic orientation method using special marks

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050613