JP2000146546A - Method and apparatus for forming three-dimensional model - Google Patents
Method and apparatus for forming three-dimensional modelInfo
- Publication number
- JP2000146546A JP2000146546A JP10317217A JP31721798A JP2000146546A JP 2000146546 A JP2000146546 A JP 2000146546A JP 10317217 A JP10317217 A JP 10317217A JP 31721798 A JP31721798 A JP 31721798A JP 2000146546 A JP2000146546 A JP 2000146546A
- Authority
- JP
- Japan
- Prior art keywords
- data
- distance data
- color
- distance
- color image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、レーザスキャン距
離計等の距離計測装置によりプラント構造物等を計測
し、計測した距離データから3次元モデルを生成する方
法及びそのための装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for measuring a plant structure or the like with a distance measuring device such as a laser scan distance meter, and generating a three-dimensional model from the measured distance data, and an apparatus therefor.
【0002】[0002]
【従来の技術】各種の計測対象の形状を接触及び非接触
にて、計測対象の形状の3次元情報を得ている。計測対
象を複数の視点から撮影し、それによって得られた各3
次元情報を適切に合成することにより、計測対象の全体
の3次元モデルを生成することができる。レーザスキャ
ン距離計を用いた計測では、3次元情報として数万〜数
百万以上の多量のデータが得られ、計測対象の構造毎に
データをグループ化する作業は、コンピュータとの対話
方式で手作業にて行っている。2. Description of the Related Art Three-dimensional information of a shape of a measurement object is obtained by contacting and non-contacting various shapes of the measurement object. The object to be measured is photographed from multiple viewpoints, and each 3
By appropriately combining the dimensional information, a three-dimensional model of the entire measurement target can be generated. In the measurement using a laser scan distance meter, a large amount of data of tens of thousands to several millions or more is obtained as three-dimensional information, and the work of grouping data for each structure to be measured is manually performed in an interactive manner with a computer. Going by work.
【0003】[0003]
【発明が解決しようとする課題】上述した距離データの
グルーピングは各距離データについてオペレータがモニ
タ上で手作業により構造物毎にグループ指定することに
より行っている。しかし、扱う距離データは、広範囲を
細部まで表現しようとしたときに多量な計測点数とな
り、その作業には多大な労力と時間が必要となる。The above-described grouping of distance data is performed by the operator manually specifying a group for each structure on the monitor for each distance data. However, the distance data to be handled requires a large number of measurement points when trying to express a wide range in detail, and the work requires a great deal of labor and time.
【0004】したがって、本発明の目的は、3次元情報
としての多量のデータをグループ化する作業を迅速に行
うことにある。Accordingly, an object of the present invention is to quickly perform a work of grouping a large amount of data as three-dimensional information.
【0005】[0005]
【課題を解決するための手段】本発明の目的を達成する
に、本発明に係わる装置は3次元モデル生成装置におい
て、計測対象の距離データを計測する手段,色データを
撮影する手段,距離データと色データを対応づける手
段,色データにより距離データをグループ化する手段,
色データでグループ化できない距離データは削除する
か、あるいは近傍のグループ化された距離データと合致
するグループに距離データを追加する手段、各グループ
毎に面や円筒といった3次元基本立体にフィッティング
手段とから構成し、色データと距離データとで構造物毎
にグループ化することを特徴とする。In order to achieve the object of the present invention, an apparatus according to the present invention is a three-dimensional model generating apparatus, comprising: means for measuring distance data of a measuring object; means for photographing color data; Means for associating data with color data, means for grouping distance data by color data,
Means for deleting distance data that cannot be grouped by color data, or adding distance data to groups that match the grouped distance data in the vicinity, and means for fitting to a three-dimensional basic solid such as a plane or a cylinder for each group And is grouped by color data and distance data for each structure.
【0006】[0006]
【発明の実態の形態】以下、本発明の実施例を図を用い
て説明する。Embodiments of the present invention will be described below with reference to the drawings.
【0007】第1の実施例は、以下の通りである。The first embodiment is as follows.
【0008】図1は、本発明の3次元モデル生成装置1
を示した構成図である。図2に3次元モデル生成処理の
概念図を示す。FIG. 1 shows a three-dimensional model generating apparatus 1 according to the present invention.
FIG. FIG. 2 shows a conceptual diagram of the three-dimensional model generation processing.
【0009】3次元モデルの生成に必要な距離データを
取得するためのレーザスキャン距離計20と色データを
取得するためのデジタルカメラ21を組合せる。金属部
分からの反射光の入力を避けるためカメラのレンズに偏
光フィルタを装着してもよい。A laser scanning rangefinder 20 for obtaining distance data necessary for generating a three-dimensional model is combined with a digital camera 21 for obtaining color data. A polarizing filter may be attached to the camera lens in order to avoid input of reflected light from the metal part.
【0010】デジタルカメラは視野角がレーザスキャン
距離計よりも広く、画素数がレーザスキャン距離計の計
側点数以上のものを使用する。A digital camera having a viewing angle wider than that of a laser scanning distance meter and having a number of pixels equal to or greater than the number of measuring points of the laser scanning distance meter is used.
【0011】計測時には、レーザスキャン距離計とデジ
タルカメラを組合せたフレームを三脚22等により、計
測中にレーザスキャン距離計とデジタルカメラが動かな
いように固定する。At the time of measurement, a frame in which the laser scan distance meter and the digital camera are combined is fixed by a tripod 22 or the like so that the laser scan distance meter and the digital camera do not move during the measurement.
【0012】計測対象が、例えば壁と配管であった場
合、レーザスキャン距離計20で計測した距離データ2
3とデジタルカメラ21により撮影したカラー画像24
を色データにより壁,配管といった構造物毎に距離デー
タをグループ化する。When the object to be measured is, for example, a wall and a pipe, the distance data 2 measured by the laser scan distance meter 20 is used.
3 and a color image 24 taken by the digital camera 21
Is grouped by color data for each structure such as a wall and a pipe.
【0013】グループ化した距離データ毎に、円柱2
5,直方体26,円錐柱27等の3次元立体にフィッテ
ィングして最も一致する3次元立体を選択し、モデル化
する。図3に3次元モデル生成処理フローを示す。先ず
プラント構造物の相対位置を計測するためにレーザスキ
ャン距離計により距離データを取得し(ステップ10)、
デジタルカメラ等によりカラー画像を撮影する(ステッ
プ11)。For each grouped distance data, a cylinder 2
5. A three-dimensional solid that best fits by fitting to a three-dimensional solid such as a rectangular parallelepiped 26 and a conical column 27 is selected and modeled. FIG. 3 shows a three-dimensional model generation processing flow. First, distance data is acquired by a laser scan distance meter to measure the relative position of the plant structure (Step 10),
A color image is photographed by a digital camera or the like (step 11).
【0014】取得したレーザスキャン距離計のデータは
距離データ記憶部2,カラー画像はフレームメモリ3に
記憶する。The acquired data of the laser scanning distance meter is stored in a distance data storage unit 2, and the color image is stored in a frame memory 3.
【0015】色データによる距離データのグループ化の
前に、記憶した距離データとカラー画像の色データの対
応づけをマッチング処理部4にて行う(ステップ1
2)。Before the grouping of the distance data by the color data, the stored distance data is associated with the color data of the color image by the matching processing unit 4 (step 1).
2).
【0016】図4にレーザスキャン距離計の光軸中心P
O とY方向の視野角θY,デジタルカメラの光軸中心C
O とカメラY方向の視野角θcYの関係を示す。FIG. 4 shows the optical axis center P of the laser scanning distance meter.
O , viewing angle θY in Y direction, optical camera center C of digital camera
The relationship between O and the viewing angle θcY in the camera Y direction is shown.
【0017】データの対応づけは、画像の画素数および
1画素当たりの長さと距離データのX,Y,Z方向距離
データの関係により行う。The association of data is performed based on the relationship between the number of pixels of the image, the length per pixel, and the distance data in the X, Y, and Z directions.
【0018】先ず、数1で示すカラー画像の1画素あた
りの長さLcを図4に示すレーザスキャン距離計で計測
した中心P点のZ方向距離データLとカメラY方向の視
野角θcYと画像のY方向の画素数nより求める。First, the length Lc per pixel of the color image represented by Formula 1 is measured by the laser scan distance meter shown in FIG. 4, the distance data L in the Z direction at the center P, the viewing angle θcY in the camera Y direction, and the image. From the number n of pixels in the Y direction.
【0019】[0019]
【数1】 (Equation 1)
【0020】Lc:1画素あたりの長さ(mm) L:中心点PのZ方向の距離(mm) θcY:デジタルカメラの縦方向の画角 n:カラー画像の縦方向の画素数 次に、各データの対応づけの前処理として、レーザスキ
ャン距離計の光軸中心PO とデジタルカメラの光軸中心
CO の位置を合わせる。Lc: Length per pixel (mm) L: Distance of center point P in Z direction (mm) θcY: Vertical angle of view of digital camera n: Number of pixels of color image in vertical direction as a pretreatment correspondence of each data, align the optical axis center C O of the optical axis center P O and the digital camera of the laser scanning rangefinder.
【0021】CO−PO間が画像上で何画素に相当するか
をレーザスキャン距離計20とデジタルカメラ21を組
合せたときの光軸中心の距離LO と、1画素あたりの長
さLcから求めて、光軸を合わせる。光軸を合わせれ
ば、各データの対応づけは、各距離データのX,Yの距
離座標と画像の1画素あたりの長さにより行える。The number of pixels on the image between C O and P O corresponds to the distance L O of the center of the optical axis when the laser scan rangefinder 20 and the digital camera 21 are combined, and the length Lc per pixel. And adjust the optical axis. If the optical axes are aligned, the association of each data can be performed based on the X and Y distance coordinates of each distance data and the length per pixel of the image.
【0022】色データPiに対応する距離データは、数
2により求められ、数式により求めた距離座標に対応す
る距離データを全距離データから抽出することで、デー
タの対応づけができる。The distance data corresponding to the color data Pi is obtained by Expression 2, and the distance data corresponding to the distance coordinates obtained by the mathematical expression can be extracted from all the distance data to associate the data.
【0023】[0023]
【数2】 (Equation 2)
【0024】Pi:画像アドレス(Pi(X),Pi
(Y))の色情報の距離データ L:中心点PのZ方向の距離(mm) θcX:デジタルカメラの横方向の画角 θcY:デジタルカメラの縦方向の画角 m:カラー画像の横方向の画素数 n:カラー画像の縦方向の画素数 Pi(X):カラー画像の横方向のアドレス Pi(Y):カラー画像の縦方向のアドレス マッチング処理終了後、カラー画像の画素のアドレスと
それに対応する距離データをデータ記憶部7に記憶す
る。Pi: image address (Pi (X), Pi)
(Y)) Color information distance data L: distance in the Z direction of center point P (mm) θcX: horizontal angle of view of digital camera θcY: vertical angle of view of digital camera m: horizontal direction of color image N: the number of pixels in the vertical direction of the color image Pi (X): the address in the horizontal direction of the color image Pi (Y): the address in the vertical direction of the color image The corresponding distance data is stored in the data storage unit 7.
【0025】次にフレームメモリ3に記憶したカラー画
像とデータ記憶部7に記憶した距離データを用いて、距
離データをグループ化する(ステップ13)。Next, the distance data is grouped using the color image stored in the frame memory 3 and the distance data stored in the data storage unit 7 (step 13).
【0026】距離データのグループ化の処理フローを図
5に示す。色データの色差によりグループ化範囲を設定
して領域を分割し(ステップ20)、更に分割した領域
において、輝度により細分化する(ステップ21)。FIG. 5 shows a processing flow for grouping distance data. The area is divided by setting a grouping range based on the color difference of the color data (step 20), and the divided areas are further subdivided by luminance (step 21).
【0027】先ず、色差により画像データをグループ化
する。色差によるグループ化の処理は図6の手順にて行
う。フレームメモリ3のカラー画像を色データ識別部5
に送信し、カラー画像からTVやVTRなどの映像のフ
ォーマットであるYUV信号で色差情報を抽出する(ス
テップ31)。First, image data is grouped by color difference. The grouping process based on the color difference is performed according to the procedure shown in FIG. The color image in the frame memory 3 is stored in the color data
To extract color difference information from the color image using a YUV signal which is a video format such as a TV or VTR (step 31).
【0028】色の違いはU濃度値とV濃度値の差によっ
て表せる。画像中全てのU濃度値とV濃度値の差をとり
(ステップ32)、縦軸を画素数、横軸をU濃度値とV
濃度値の差としてヒストグラムを作成する(ステップ3
3)。The color difference can be represented by the difference between the U density value and the V density value. The difference between all U density values and V density values in the image is calculated (step 32), the vertical axis represents the number of pixels, and the horizontal axis represents the U density value and V density.
A histogram is created as the difference between the density values (step 3
3).
【0029】構造物の色が例えば3種類である場合、ヒ
ストグラムは図7に示すように、同色毎に山を形成す
る。If the structure has three colors, for example, the histogram forms a peak for each color, as shown in FIG.
【0030】データの区切りかたとして、U濃度値とV
濃度値の差の最小値から最大値の方向に画素数を計数
し、計数する画素数が0となった範囲で、1つのグルー
プとみなし、計数した範囲を色によるグループ化範囲と
して設定する。As a method of dividing data, U density value and V
The number of pixels is counted in the direction from the minimum value of the density value to the maximum value, and the range in which the number of pixels to be counted becomes 0 is regarded as one group, and the counted range is set as a grouping range by color.
【0031】次に計数する画素数が0以上になるまで移
動し、同様に色によるグループ化範囲を設定する(ステ
ップ34)。Next, the movement is performed until the number of pixels to be counted becomes 0 or more, and similarly, a grouping range by color is set (step 34).
【0032】この処理を最大値の位置になるまで繰り返
す。This process is repeated until the position of the maximum value is reached.
【0033】計数の範囲は、U濃度値とV濃度値の差は
小刻みに画素数が0となることが考えられるので、ある
程度の幅をもたせて計数する。また、設定したグループ
化範囲の計数した画素数が極端に少ない場合はプラント
の構造物とは判断せずに、グループ化範囲として設定し
ない。In the range of the counting, the difference between the U density value and the V density value is considered to have a small width and the number of pixels is assumed to be small. If the number of counted pixels in the set grouping range is extremely small, it is not determined as a plant structure and is not set as a grouping range.
【0034】設定したグループ化範囲によりカラー画像
の領域を分割し(ステップ35)、各領域をフレームメ
モリ3に記憶する。The area of the color image is divided according to the set grouping range (step 35), and each area is stored in the frame memory 3.
【0035】構造物の配置の違いによる明るさの違い及
びモノクロカラー(白〜灰〜黒)は色差では判別できな
い。明るさやモノクロカラーは輝度により判別できるの
で、各領域において、更に輝度によりグループを細分化
する。輝度による細分化の処理は図8の手順にて行う。The difference in brightness and the monochrome color (white to gray to black) due to the difference in the arrangement of the structures cannot be distinguished from the color difference. Since the brightness and the monochrome color can be determined by the luminance, the groups are further subdivided by the luminance in each area. The subdivision processing based on the luminance is performed according to the procedure shown in FIG.
【0036】先ず、YUV信号から輝度情報にあたるY
輝度値を抽出し(ステップ40)、色差によるグループ
化と同様に縦軸を画素数、横軸をY輝度値としてヒスト
グラムを作成する(ステップ41)。First, Y corresponding to luminance information from the YUV signal
A luminance value is extracted (step 40), and a histogram is created with the number of pixels on the vertical axis and the Y luminance value on the horizontal axis as in the case of grouping by color difference (step 41).
【0037】構造物の色が例えば白と灰色である場合、
ヒストグラムは図9に示すように、山を形成する。灰色
は白よりも輝度値が低いので左側に、白は輝度値が高い
ので、右側に山ができる。データの区切りかたは、色差
によるグループ化と同様の方法で、グループ化範囲を設
定する(ステップ42)。When the color of the structure is, for example, white and gray,
The histogram forms a peak as shown in FIG. Gray has a lower luminance value than white, so white has a higher luminance value, and white has a higher luminance value. The grouping range of the data is set in the same manner as the grouping based on the color difference (step 42).
【0038】設定したグループ化範囲の計数した画素数
が極端に少ない場合はプラントの構造物とは判断せず
に、グループ化範囲として設定しない。When the number of counted pixels in the set grouping range is extremely small, it is not determined as a plant structure and is not set as a grouping range.
【0039】設定したグループ化範囲により各領域の画
像を細分化し(ステップ43)、各領域番号を付けて、
領域内の全画素のアドレスをグループデータ記憶部6に
記憶する。The image of each area is subdivided according to the set grouping range (step 43), and each area is numbered.
The addresses of all the pixels in the area are stored in the group data storage unit 6.
【0040】データ記憶部7において、記憶されている
距離データとグループデータを付き合わせて、グループ
毎に画素アドレスと距離データを整理する。In the data storage unit 7, the stored pixel data and the distance data are arranged for each group by associating the stored distance data with the group data.
【0041】距離データとグループデータを付き合わせ
の際に、近傍の複数の距離データとの距離間隔を算出
し、他の近傍の距離データ間隔と比較し、突飛な距離デ
ータは削除する。グループ化されなかった距離データも
削除する。When matching the distance data with the group data, a distance interval between a plurality of nearby distance data is calculated, compared with other nearby distance data intervals, and eccentric distance data is deleted. The distance data that is not grouped is also deleted.
【0042】整理した距離データをフィッティング処理
部8に各グループの距離データを送信し、距離データを
基に3次元立体へのフィッティングを行う(ステップ1
4)。The rearranged distance data is transmitted to the fitting processing unit 8 as distance data of each group, and fitting to a three-dimensional solid is performed based on the distance data (step 1).
4).
【0043】3次元立体とは、円筒,直方体等の立体形
状である。図10にフィッティングの処理を示す。The three-dimensional solid is a three-dimensional shape such as a cylinder or a rectangular parallelepiped. FIG. 10 shows the fitting process.
【0044】例えば、図11に示すような配管28の距
離データ29の場合、左手前の距離データ30と右奥の
距離データ31といった離れた小領域の距離データを抽
出し(ステップ60)、どの3次元立体にフィットする
かを調べる。For example, in the case of the distance data 29 of the pipe 28 as shown in FIG. 11, distance data of a small small area such as the distance data 30 on the front left and the distance data 31 on the right back is extracted (step 60). Check if it fits in a 3D solid.
【0045】フィッティングは、図12に示すように3
次元立体32の大きさや位置等を変えながら、最小二乗
差分法により各距離データとその位置に対応する3次元
立体位置の間隔dの二乗の総和が最小となる3次元立体
と大きさ,位置等を決定する(ステップ61)。The fitting was performed as shown in FIG.
While changing the size, position, etc. of the three-dimensional solid 32, the least-squares difference method is used to minimize the sum of the squares of the distance d between each distance data and the three-dimensional solid position corresponding to the position, and the size, position, etc. Is determined (step 61).
【0046】軸方向は、離れた小領域でフィッティング
して決定した3次元立体の中心から求められる(ステッ
プ62)。決定したフィッティングの情報をモデル生成
部9に送信し、図13に示すように、距離データから三
角形を形成して面を作成して、グループ毎にモデル化す
る(ステップ15)。面の作成は、ドローネ網を生成す
る方法を適用してもよい。The axial direction is obtained from the center of the three-dimensional solid determined by fitting in a small area at a distance (step 62). The information of the determined fitting is transmitted to the model generating unit 9, and as shown in FIG. 13, a triangle is formed from the distance data to create a surface, and modeled for each group (step 15). The method of generating the Delaunay net may be applied to the creation of the surface.
【0047】次に、第2の実施例を以下に説明する。Next, a second embodiment will be described below.
【0048】本発明の第2実施例は、第1実施例を一部
変更した例であって、変更した部分を以下に説明し、第
1実施例と同一な部分は省略する。The second embodiment of the present invention is an example in which the first embodiment is partially changed. The changed portions will be described below, and the same portions as those in the first embodiment will be omitted.
【0049】図14に距離データのグループ化処理フロ
ーを示す。色データの色差によりグループ化範囲を設定
して領域を分割し(ステップ70)、更に分割した領域
において、輝度により細分化する(ステップ71)。FIG. 14 shows a flow chart of the distance data grouping process. An area is divided by setting a grouping range based on the color difference of the color data (step 70), and the divided areas are further subdivided by luminance (step 71).
【0050】色データによりグループ化されない距離デ
ータは、近傍のグループ化された距離データとの距離か
ら、どのグループに属するかを判定し、追加する。The distance data that is not grouped by the color data is added to a group to which it belongs based on the distance from the nearby grouped distance data.
【0051】色差と輝度によりグループ化されなかった
距離データが、どのグループに属するかの判定処理手順
を図15に示す。FIG. 15 shows a procedure for determining to which group the distance data not grouped by the color difference and the luminance belong.
【0052】グループ化されなかった距離データの近傍
のグループデータを検索し(ステップ50)、グループ
化されなかった画素アドレスの距離データとその近傍の
グループ化されている距離データを用いて距離データ間
の距離を算出し(ステップ51)、が最も短い距離デー
タのグループにグループ化されなかったデータを追加す
る(ステップ52)。The group data in the vicinity of the ungrouped distance data is searched (step 50), and the distance data between the ungrouped pixel address and the grouped distance data in the vicinity is used to determine the distance data. Is calculated (step 51), and the ungrouped data is added to the shortest distance data group (step 52).
【0053】ここで用いる画素アドレス近傍の範囲は、
グループ化されなかったデータが近傍に多く分布するこ
とも考えられるので、3×3画素から5×5画素と順に
大きくし、グループ化されたデータが少なくとも2点以
上あることを確認したときの範囲とする。The range around the pixel address used here is:
Since it is conceivable that a large amount of ungrouped data is distributed in the vicinity, the range is increased from 3 × 3 pixels to 5 × 5 pixels in order to confirm that there are at least two or more grouped data. And
【0054】構造物を視覚的に判断し易くするためには
以下の内容が装備されることが望ましい。In order to facilitate visual judgment of the structure, the following contents are desirably provided.
【0055】即ち、計測した距離データから図13に示
すように距離データを繋ぎ合わせて三角形の面を生成
し、その面に3頂点の距離データに対応する色データに
より面に色を塗る。That is, a triangular surface is generated from the measured distance data by connecting the distance data as shown in FIG. 13, and the surface is colored with color data corresponding to the three vertex distance data.
【0056】距離データから単純に生成した面データで
は構造物を視覚的に判断しにくいが、面データに色を塗
ることで、構造物を視覚的に判断しやすいモデルを生成
することができる。Although it is difficult to visually judge a structure with plane data simply generated from distance data, it is possible to generate a model in which a structure can be easily visually judged by coloring the plane data.
【0057】さらに、好ましくは、各データを合成する
際には、そのデータの計測装置の自己位置が認知出来る
とよい。Further, preferably, when synthesizing each data, it is preferable that the self-position of the measuring device of the data can be recognized.
【0058】計測装置33を図16に示す。カラー画像
と距離データを複数の異なる視点から計測した場合に、
各計測データを合成しなければならない。FIG. 16 shows the measuring device 33. When measuring color images and distance data from multiple different viewpoints,
Each measurement data must be synthesized.
【0059】合成する際には、計測装置33の位置や角
度の情報が必要であり、計測装置33の位置や角度の情
報を取得するために計測装置33に自己位置検出センサ
34を取り付ける。At the time of synthesis, information on the position and angle of the measuring device 33 is required, and a self-position detecting sensor 34 is attached to the measuring device 33 in order to obtain information on the position and angle of the measuring device 33.
【0060】自己位置検出センサ34を具備することに
より、データの合成の自動化ができる。The provision of the self-position detecting sensor 34 enables the automatic synthesis of data.
【0061】距離データ,画像データ,自己位置情報は
メモリ35に記録し、各データの合成を行う。The distance data, the image data, and the self-position information are recorded in the memory 35, and each data is synthesized.
【0062】自己位置センサ34の精度が合成に必要な
精度がでない場合には、計測範囲をオーバーラップさ
せ、大まかな位置合わせに自己位置センサの情報を使用
し、細部の位置合わせは、オーバーラップ範囲の色デー
タや距離データにより、最適フィッティングを行い、各
データを合成する。自己位置距離は、加速度センサやジ
ャイロ,GPSの信号により求めてもよい。When the accuracy of the self-position sensor 34 is not the accuracy required for the synthesis, the measurement ranges are overlapped, the information of the self-position sensor is used for rough positioning, and the positioning of the details is not overlapped. Optimal fitting is performed based on the range color data and distance data, and the respective data are synthesized. The self-position distance may be obtained from a signal from an acceleration sensor, a gyro, or a GPS.
【0063】第3の実施例を以下に説明する。The third embodiment will be described below.
【0064】この実施例は、第1実施例を一部変更した
例であって、変更した部分を以下に説明し、第1実施例
と同一な部分は省略する。本実施例の装置の構造を図1
7に示す。This embodiment is an example in which the first embodiment is partially changed. The changed portions will be described below, and the same portions as the first embodiment will be omitted. FIG. 1 shows the structure of the apparatus of this embodiment.
FIG.
【0065】デジタルカメラのレンズにレーザスキャン
距離計の受光部と同じフィルタを装着する。例えば、レ
ーザ光の波長が680nmである場合、その波長のみを
通すフィルタを装着することにより、デジタルカメラの
画像としては、レーザ光のみ表示される。The same filter as that of the light receiving section of the laser scan distance meter is mounted on the lens of the digital camera. For example, when the wavelength of a laser beam is 680 nm, only a laser beam is displayed as an image of a digital camera by attaching a filter that passes only that wavelength.
【0066】計側点とカラー画像の色データを対応して
検出する処理手順を図18に示す。先ず、フィルタを装
着しないでデジタルカメラにより画像を取込み、フレー
ムメモリ3に記憶する(ステップ80)。FIG. 18 shows a processing procedure for detecting the measuring point and the color data of the color image in correspondence with each other. First, an image is captured by a digital camera without installing a filter, and stored in the frame memory 3 (step 80).
【0067】次にフィルタを装着し、レーザスキャン距
離計により距離データを計測させ、計測点にレーザ光が
あたると同時にデジタルカメラから画像を取り込む。Next, a filter is mounted, and distance data is measured by a laser scanning range finder. At the same time when a laser beam hits a measuring point, an image is taken in from a digital camera.
【0068】デジタルカメラの画像の取り込みとレーザ
スキャン距離計の距離データの取り込みの速度は予め連
動するように調整する。取り込んだ距離データは逐次、
距離データ記憶部2に送信し、カラー画像は画像処理部
10に送信する(ステップ81)。The speed of capturing the image of the digital camera and the speed of capturing the distance data of the laser scan rangefinder are adjusted in advance so as to be linked. The captured distance data is
The color image is transmitted to the distance data storage unit 2, and the color image is transmitted to the image processing unit 10 (step 81).
【0069】画像処理部10によりカラー画像を所定の
しきい値で二値化し(ステップ82)、二値化画像を一時
保存しておき、次に送信されてきた画像を二値化した画
像と一時保存していた画像の論理和をとり(ステップ8
3)、その結果を一時保存する。The color image is binarized by the image processing unit 10 at a predetermined threshold value (step 82), the binarized image is temporarily stored, and the next transmitted image is binarized with the binarized image. OR the temporarily stored image (step 8
3), temporarily store the result.
【0070】二値化はレーザ光を白、背景が黒となるよ
うにしきい値を予め設定する。この処理を、レーザスキ
ャン距離計の計測が終了するまで繰り返す(ステップ8
4)。In the binarization, the threshold value is set in advance so that the laser beam becomes white and the background becomes black. This process is repeated until the measurement by the laser scanning rangefinder is completed (step 8).
4).
【0071】論理和の画像は、レーザスキャン距離計の
計測点がプロットされている画像となるので、フレーム
メモリ3に記憶しているカラー画像を読み込み(ステッ
プ85)、両画像を画像間演算することにより、計側点
に対応する色データを求めることができる(ステップ8
6)。Since the image of the logical sum is an image in which the measurement points of the laser scan distance meter are plotted, the color image stored in the frame memory 3 is read (step 85), and the two images are operated between the images. Thus, the color data corresponding to the measuring point can be obtained (step 8).
6).
【0072】計側点に対応する色データと距離データを
マッチング処理部4に送信し、距離データと色データと
の対応づけを行う。The color data and the distance data corresponding to the measuring point are transmitted to the matching processing unit 4 to associate the distance data with the color data.
【0073】以降の処理は第1実施例と同様である。The subsequent processing is the same as in the first embodiment.
【0074】[0074]
【発明の効果】本発明によれば、従来、多量な距離デー
タのグルーピングは各距離データについてオペレータが
モニタ上で手作業により構造物毎にグループ指定し、労
力と時間を要していた作業を、距離データと色データに
より自動的に距離データをグループ化することで作業の
軽減が可能な3次元モデル生成方法及び装置を提供でき
る。また、色付きの距離データにした発明にあっては、
視覚的に分かりやすく表示できるという効果が得られ
る。According to the present invention, grouping a large amount of distance data conventionally requires an operator to manually specify a group for each structure on a monitor for each distance data, which requires labor and time. In addition, it is possible to provide a method and apparatus for generating a three-dimensional model capable of reducing work by automatically grouping distance data based on distance data and color data. Also, in the invention in which the distance data is colored,
The effect of being able to display visually intelligibly is obtained.
【図1】本発明の装置構成を示す説明図である。FIG. 1 is an explanatory diagram showing a device configuration of the present invention.
【図2】本発明の3次元モデル生成処理の概念を示す説
明図である。FIG. 2 is an explanatory diagram illustrating the concept of a three-dimensional model generation process according to the present invention.
【図3】本発明の3次元モデル生成処理フローを示す説
明図である。FIG. 3 is an explanatory diagram showing a three-dimensional model generation processing flow of the present invention.
【図4】距離データと色データの対応づけを示す説明図
である。FIG. 4 is an explanatory diagram showing correspondence between distance data and color data.
【図5】本発明の色データによるグループ化処理を示す
説明図である。FIG. 5 is an explanatory diagram showing a grouping process using color data according to the present invention.
【図6】本発明の色差によるグループ化処理を示す説明
図である。FIG. 6 is an explanatory diagram showing a grouping process based on color difference according to the present invention.
【図7】本発明の色差のヒストグラム処理によるグラフ
の説明図である。FIG. 7 is an explanatory diagram of a graph obtained by the color difference histogram processing of the present invention.
【図8】本発明の輝度によるグループ化処理を示す説明
図である。FIG. 8 is an explanatory diagram showing a grouping process based on luminance according to the present invention.
【図9】本発明の輝度のヒストグラム処理によるグラフ
の説明図である。FIG. 9 is an explanatory diagram of a graph obtained by the luminance histogram processing of the present invention.
【図10】本発明のフィッティング処理を示す説明図で
ある。FIG. 10 is an explanatory diagram showing a fitting process of the present invention.
【図11】本発明のフィッティング処理に用いる領域を
示す説明図である。FIG. 11 is an explanatory diagram showing regions used for fitting processing of the present invention.
【図12】本発明のフィッティング処理の詳細を示す説
明図である。FIG. 12 is an explanatory diagram showing details of fitting processing of the present invention.
【図13】本発明のモデル化を示す説明図である。FIG. 13 is an explanatory diagram showing modeling of the present invention.
【図14】本発明の第2実施例の色データと距離データ
によるグループ化処理を示す説明図である。FIG. 14 is an explanatory diagram showing a grouping process using color data and distance data according to the second embodiment of the present invention.
【図15】本発明の第2実施例の距離データによるグル
ープ化処理を示す説明図である。FIG. 15 is an explanatory diagram showing a grouping process based on distance data according to the second embodiment of the present invention.
【図16】本発明の計測装置の構成を示す説明図であ
る。FIG. 16 is an explanatory diagram showing a configuration of a measuring device of the present invention.
【図17】本発明の第2実施例の装置構成を示す説明図
である。FIG. 17 is an explanatory diagram showing a device configuration of a second embodiment of the present invention.
【図18】本発明の計側点とカラー画像の色データを対
応して検出する手順を示す説明図である。FIG. 18 is an explanatory diagram showing a procedure for detecting the measuring point and the color data of the color image in correspondence with each other according to the present invention.
1…3次元モデル生成装置、2…距離データ記憶部、3
…フレームメモリ、4…マッチング処理部、5…色デー
タ識別部、6…グループデータ記憶部、7…データ記憶
部、8…フィッティング処理部、9…モデル生成部、1
0…画像処理部、20…レーザスキャン距離計、21…
デジタルカメラ、22…三脚、23…距離データ、24
…カラー画像、25…円柱、26…直方体、27…円錐
柱、28…配管、29…配管の距離データ、30…左手
前の距離データ、31…右奥の距離データ、32…3次
元立体、33…計測装置、35…メモリ。DESCRIPTION OF SYMBOLS 1 ... 3D model generation apparatus, 2 ... distance data storage part, 3
... frame memory, 4 ... matching processing section, 5 ... color data identification section, 6 ... group data storage section, 7 ... data storage section, 8 ... fitting processing section, 9 ... model generation section, 1
0: Image processing unit, 20: Laser scan distance meter, 21:
Digital camera, 22 ... tripod, 23 ... distance data, 24
... Color image, 25 ... Cylinder, 26 ... Rectangle, 27 ... Conical column, 28 ... Pipe, 29 ... Pipe distance data, 30 ... Left front distance data, 31 ... Right back distance data, 32 ... Three-dimensional solid, 33: measuring device, 35: memory.
───────────────────────────────────────────────────── フロントページの続き (72)発明者 菊池 孝司 茨城県日立市幸町三丁目1番1号 株式会 社日立製作所日立工場内 (72)発明者 田中 敬二 茨城県日立市幸町三丁目1番1号 株式会 社日立製作所日立工場内 Fターム(参考) 2F065 AA04 AA53 BB06 BB07 DD06 JJ03 JJ26 LL04 LL22 MM16 QQ04 QQ24 QQ27 QQ38 QQ43 UU05 5B046 AA02 FA16 5B057 CA01 DA12 DB06 DB08 DC19 ──────────────────────────────────────────────────続 き Continuing on the front page (72) Koji Kikuchi, Inventor 3-1-1, Sachimachi, Hitachi-City, Ibaraki Prefecture Inside the Hitachi Works, Hitachi, Ltd. (72) Keiji Tanaka 3-1-1, Sachimachi, Hitachi-City, Ibaraki Prefecture No. 1 F-term in Hitachi, Ltd. Hitachi Plant (reference) 2F065 AA04 AA53 BB06 BB07 DD06 JJ03 JJ26 LL04 LL22 MM16 QQ04 QQ24 QQ27 QQ38 QQ43 UU05 5B046 AA02 FA16 5B057 CA01 DA12 DB06 DB08 DC19
Claims (6)
装置と構造物のカラー画像を撮影する装置によって得た
距離データとカラー画像の色データを両装置の位置関係
や視野角により両データの対応づけを行い、色データあ
るいは色データと距離データに基づいて距離データを構
造物毎にグループ化し、各グループ毎に面や円筒といっ
た3次元基本立体にフィッティングさせて、各グループ
毎にモデル化する3次元モデル生成方法。1. An apparatus for measuring the relative distance of an object to be measured and a distance image obtained by an apparatus for photographing a color image of a structure and color data of a color image, based on a positional relationship between the two apparatuses and a viewing angle. The distance data is grouped for each structure based on the color data or the color data and the distance data, and each group is fitted to a three-dimensional basic solid such as a plane or a cylinder, and is modeled for each group 3D model generation method.
タを構造物毎にグループ化する方法において、色データ
に基づいて距離データを構造物毎にグループ化し、色デ
ータでグループ化できない距離データを削除するか、あ
るいは近傍のグループ化された距離データとの比較によ
り最も距離データが合致するグループに距離データを追
加することを特徴とする3次元モデル生成方法。2. The method according to claim 1, wherein the distance data of the object to be measured is grouped for each structure, the distance data is grouped for each structure based on the color data, and the distance cannot be grouped by the color data. A method of generating a three-dimensional model, wherein data is deleted or distance data is added to a group having the best distance data by comparison with nearby grouped distance data.
装置と構造物のカラー画像を撮影する装置によって得た
距離データとカラー画像の色データを両装置の位置関係
や視野角により両データの対応づけを行い、色付きの距
離データ群を頂点とする平面データ群を生成してモデル
化する3次元モデル生成方法。3. The distance data obtained by a device for measuring the relative distance of an object to be measured and the color data of a color image obtained by a device for photographing a color image of a structure, and the color data of the color image are obtained based on the positional relationship between the two devices and the viewing angle. And a three-dimensional model generation method of generating and modeling plane data groups having the colored distance data groups as vertices.
ラー画像を撮影する手段,距離データを記憶する手段,
カラー画像を記憶する手段,距離データとカラー画像の
色データを対応づける手段,色データあるいは色データ
と距離データにより距離データをグループ化する手段、
各グループ毎に面や円筒といった3次元基本立体にフィ
ッティングさせ、グループ化したデータ毎にモデル化す
る手段からなることを特徴とする3次元モデル生成装
置。4. A means for measuring distance data of a measuring object, a means for photographing a color image, a means for storing distance data,
Means for storing a color image, means for associating distance data with color data of a color image, means for grouping distance data by color data or color data and distance data,
A three-dimensional model generating apparatus comprising means for fitting each group to a three-dimensional basic solid such as a plane or a cylinder and modeling each grouped data.
て、計測対象の距離データを計測する手段,カラー画像
を撮影する手段,距離データを記憶する手段,カラー画
像を記憶する手段,距離データとカラー画像の色データ
を対応づける手段,色データにより距離データをグルー
プ化する手段,色データでグループ化できない距離デー
タを削除するか、あるいは近傍グループの距離データと
合致するグループに距離データを追加する手段、各グル
ープ毎に面や円筒といった3次元基本立体にフィッティ
ングさせ、グループ化したデータ毎にモデル化する手段
からなることを特徴とする3次元モデル生成装置。5. A three-dimensional model generating apparatus according to claim 4, wherein: means for measuring distance data of a measuring object; means for photographing a color image; means for storing distance data; means for storing a color image; Means for associating color data of a color image; means for grouping distance data by color data; deleting distance data that cannot be grouped by color data; or adding distance data to a group that matches the distance data of a neighboring group 3. A three-dimensional model generating apparatus, comprising: means for fitting a three-dimensional basic solid such as a plane or a cylinder for each group, and modeling each grouped data.
ラー画像を撮影する手段,距離データを記憶する手段,
カラー画像を記憶する手段,距離データとカラー画像の
色データを対応づける手段,色付きの距離データ群を頂
点とする平面データ群を生成してモデル化する手段から
なることを特徴とする3次元モデル生成装置。6. A means for measuring distance data of a measurement object, a means for photographing a color image, a means for storing distance data,
A three-dimensional model comprising: means for storing a color image; means for associating distance data with color data of a color image; and means for generating and modeling plane data groups having the colored distance data groups as vertices. Generator.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10317217A JP2000146546A (en) | 1998-11-09 | 1998-11-09 | Method and apparatus for forming three-dimensional model |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10317217A JP2000146546A (en) | 1998-11-09 | 1998-11-09 | Method and apparatus for forming three-dimensional model |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2000146546A true JP2000146546A (en) | 2000-05-26 |
Family
ID=18085789
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP10317217A Pending JP2000146546A (en) | 1998-11-09 | 1998-11-09 | Method and apparatus for forming three-dimensional model |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2000146546A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002032742A (en) * | 2000-07-13 | 2002-01-31 | Sony Corp | System and method for three-dimensional image generation and program providing medium |
JP2005258792A (en) * | 2004-03-11 | 2005-09-22 | Olympus Corp | Apparatus, method and program for generating image |
WO2005088970A1 (en) * | 2004-03-11 | 2005-09-22 | Olympus Corporation | Image generation device, image generation method, and image generation program |
WO2012070160A1 (en) * | 2010-11-26 | 2012-05-31 | Empire Technology Development Llc | Air purification system and method using an ultrasonic wave |
JP2014521099A (en) * | 2011-07-21 | 2014-08-25 | アーノルド ベルトラン | Digital mobile measuring device |
KR101448152B1 (en) * | 2008-03-26 | 2014-10-07 | 삼성전자주식회사 | Distance measuring sensor having vertical photogate and three dimensional color image sensor having the same |
JP2015115071A (en) * | 2013-12-10 | 2015-06-22 | ダッソー システムズDassault Systemes | Laser scan re-engineering of 3d cad models |
WO2018074252A1 (en) * | 2016-10-19 | 2018-04-26 | ソニー株式会社 | Image processing device and image processing method |
WO2023042604A1 (en) * | 2021-09-14 | 2023-03-23 | パナソニックIpマネジメント株式会社 | Dimension measurement device, dimension measurement method, and program |
-
1998
- 1998-11-09 JP JP10317217A patent/JP2000146546A/en active Pending
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4568967B2 (en) * | 2000-07-13 | 2010-10-27 | ソニー株式会社 | 3D image generation system, 3D image generation method, and program recording medium |
JP2002032742A (en) * | 2000-07-13 | 2002-01-31 | Sony Corp | System and method for three-dimensional image generation and program providing medium |
JP2005258792A (en) * | 2004-03-11 | 2005-09-22 | Olympus Corp | Apparatus, method and program for generating image |
WO2005088970A1 (en) * | 2004-03-11 | 2005-09-22 | Olympus Corporation | Image generation device, image generation method, and image generation program |
KR101448152B1 (en) * | 2008-03-26 | 2014-10-07 | 삼성전자주식회사 | Distance measuring sensor having vertical photogate and three dimensional color image sensor having the same |
WO2012070160A1 (en) * | 2010-11-26 | 2012-05-31 | Empire Technology Development Llc | Air purification system and method using an ultrasonic wave |
CN103209749A (en) * | 2010-11-26 | 2013-07-17 | 英派尔科技开发有限公司 | Air purification system and method using an ultrasonic wave |
US8845785B2 (en) | 2010-11-26 | 2014-09-30 | Empire Technology Development Llc | Air purification system and method using an ultrasonic wave |
CN103209749B (en) * | 2010-11-26 | 2015-04-22 | 英派尔科技开发有限公司 | Air purification system and method using an ultrasonic wave |
US9403114B2 (en) | 2010-11-26 | 2016-08-02 | Empire Technology Development Llc | Air purification system and method using an ultrasonic wave |
US9518818B2 (en) | 2011-07-21 | 2016-12-13 | Bertrand Arnold | Digital movement measuring device |
JP2014521099A (en) * | 2011-07-21 | 2014-08-25 | アーノルド ベルトラン | Digital mobile measuring device |
JP2015115071A (en) * | 2013-12-10 | 2015-06-22 | ダッソー システムズDassault Systemes | Laser scan re-engineering of 3d cad models |
JP7061427B2 (en) | 2013-12-10 | 2022-04-28 | ダッソー システムズ | 3D CAD model redesigned by laser scan |
WO2018074252A1 (en) * | 2016-10-19 | 2018-04-26 | ソニー株式会社 | Image processing device and image processing method |
CN109844813A (en) * | 2016-10-19 | 2019-06-04 | 索尼公司 | Image processing apparatus and image processing method |
JPWO2018074252A1 (en) * | 2016-10-19 | 2019-08-08 | ソニー株式会社 | Image processing apparatus and image processing method |
US10970916B2 (en) | 2016-10-19 | 2021-04-06 | Sony Corporation | Image processing apparatus and image processing method |
CN109844813B (en) * | 2016-10-19 | 2023-11-07 | 索尼公司 | Image processing apparatus and image processing method |
WO2023042604A1 (en) * | 2021-09-14 | 2023-03-23 | パナソニックIpマネジメント株式会社 | Dimension measurement device, dimension measurement method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10237532B2 (en) | Scan colorization with an uncalibrated camera | |
TWI253006B (en) | Image processing system, projector, information storage medium, and image processing method | |
US9443308B2 (en) | Position and orientation determination in 6-DOF | |
US6781618B2 (en) | Hand-held 3D vision system | |
US6031941A (en) | Three-dimensional model data forming apparatus | |
JP7300948B2 (en) | Survey data processing device, survey data processing method, program for survey data processing | |
JP5633058B1 (en) | 3D measuring apparatus and 3D measuring method | |
US9182220B2 (en) | Image photographing device and method for three-dimensional measurement | |
JP2000146546A (en) | Method and apparatus for forming three-dimensional model | |
JP4193342B2 (en) | 3D data generator | |
JPH10122819A (en) | Method and device for calibration | |
JPH1144533A (en) | Preceding vehicle detector | |
US20230162442A1 (en) | Image processing apparatus, image processing method, and storage medium | |
JP2005174151A (en) | Three-dimensional image display device and method | |
CN116563370A (en) | Distance measurement method and speed measurement method based on monocular computer vision | |
JPH08136222A (en) | Method and device for three-dimensional measurement | |
JP2961140B2 (en) | Image processing method | |
Amini et al. | Development of a new stereo‐panorama system based on off‐the‐shelf stereo cameras | |
JP4409924B2 (en) | Three-dimensional image display apparatus and method | |
JP2739319B2 (en) | 3D shape reproduction device | |
JP2002135807A (en) | Method and device for calibration for three-dimensional entry | |
JP4427305B2 (en) | Three-dimensional image display apparatus and method | |
CN106324976B (en) | Test macro and test method | |
JPH0534117A (en) | Image processing method | |
EP1492054A1 (en) | Method and apparatus for capturing and displaying a three-dimensional scene |