JP2018106643A - Spatial model processor - Google Patents

Spatial model processor Download PDF

Info

Publication number
JP2018106643A
JP2018106643A JP2016255908A JP2016255908A JP2018106643A JP 2018106643 A JP2018106643 A JP 2018106643A JP 2016255908 A JP2016255908 A JP 2016255908A JP 2016255908 A JP2016255908 A JP 2016255908A JP 2018106643 A JP2018106643 A JP 2018106643A
Authority
JP
Japan
Prior art keywords
plane
spatial model
reference plane
local
density image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016255908A
Other languages
Japanese (ja)
Other versions
JP6396982B2 (en
Inventor
裕子 世木
Yuko Segi
裕子 世木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2016255908A priority Critical patent/JP6396982B2/en
Publication of JP2018106643A publication Critical patent/JP2018106643A/en
Application granted granted Critical
Publication of JP6396982B2 publication Critical patent/JP6396982B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To facilitate correction of a spatial model generated by position alignment of a plurality of local regions with a three-dimensionally measured point group.SOLUTION: Spatial model storage means 20 stores a spatial model obtained by integrating, for each of a plurality of local regions in a space, a local spatial model formed with a dot group at a local coordinate system of the local region with a common coordinate system common to the plurality of local regions. Reference plane estimation means 30 detects a portion corresponding to an object plane where an area in the spatial model is largest, and estimates a plane along the aforementioned portion as a reference plane. Input means 41 causes a user to input a line segment expressing a position, on the reference plane, of the object plane orthogonal to the reference plane. Spatial model correction means 32 sets a target surface including the aforementioned line segment and orthogonal to the estimated reference plane, extracts, from the spatial model, a focused portion corresponding to the target surface and having a position and a shape, and moves the local spatial model in a manner such that the focused portion matches the target surface at the common coordinate system.SELECTED DRAWING: Figure 2

Description

本発明は、空間モデルを補正する空間モデル処理装置に関し、特に複数の局所領域を三次元計測した点群を位置合わせすることにより生成された空間モデルを補正する空間モデル処理装置に関する。   The present invention relates to a spatial model processing apparatus that corrects a spatial model, and more particularly to a spatial model processing apparatus that corrects a spatial model generated by aligning a point group obtained by three-dimensionally measuring a plurality of local regions.

広い空間の三次元モデル(空間モデル)を生成する場合には、空間中を移動しながら互いにオーバーラップを持たせて局所領域ごとに三次元計測し、各局所領域の計測で得られた複数のポイントクラウド(点群)を位置合わせして連結していた。   When generating a three-dimensional model (spatial model) of a wide space, three-dimensional measurement is performed for each local area with overlapping each other while moving in the space, and multiple local areas obtained by measurement of each local area are measured. Point cloud (point cloud) was aligned and connected.

すなわち、オーバーラップ部分の点群が表す形状等を手掛かりに、複数の局所領域をそれぞれのローカル座標系にて三次元計測した複数の点群を共通座標系に変換することで位置合わせし、これらを連結して空間モデルを生成していた。   In other words, using the shape represented by the point cloud of the overlap part as a clue, the multiple local areas are three-dimensionally measured in each local coordinate system, and then converted into a common coordinate system to align them. To generate a spatial model.

特開2016−170031号公報JP 2006-170031 A

しかしながら、局所領域の中には無地の壁のような広い平面が支配的で二次元的にも三次元的にも特徴が少ないものが含まれ得る。また、局所領域の中にはドア越しに三次元計測した隣の部屋を含む局所領域であって当該隣の部屋に関する特徴が少ない局所領域が含まれ得る。そのため、特徴の少ない局所領域に関しては位置合わせ誤差が生じやすく、複数の局所領域を連結した空間モデルには局所的な座標変換のズレが生じていた。局所領域ごとのズレは微小であっても、連結する局所領域が増えるほどズレが蓄積し、空間モデル全体でみると大きなズレとなる場合があった。例えば、本来、平面である壁が屈曲した壁になったり、複数の平面が隙間を有して重なった層状の壁になったりすることが起こる。   However, the local region may include a plain surface such as a plain wall that is dominant and has few features in two or three dimensions. In addition, the local area may include a local area that includes an adjacent room that is three-dimensionally measured through the door and has few features related to the adjacent room. For this reason, an alignment error is likely to occur in a local region with few features, and a local coordinate transformation shift occurs in a spatial model in which a plurality of local regions are connected. Even if the displacement for each local region is very small, the displacement accumulates as the number of local regions to be connected increases, and there may be a large displacement in the entire spatial model. For example, a wall that is originally a flat surface may be a bent wall, or a plurality of flat surfaces may be layered walls with gaps.

このようなズレは、局所領域の特徴の少なさに起因するため、抜本的に減少させるためには情報の追加が必要である。例えば、利用者が空間モデル中で局所領域のローカル座標系を移動させる(回転・並進させる)、または利用者が空間モデル中にマーカーを設定して新たな特徴を加えるなど、利用者が介在しなければ抜本的に減少させることができない。   Such a shift is caused by a small number of features in the local region. Therefore, in order to drastically reduce the information, it is necessary to add information. For example, the user moves the local coordinate system of the local area in the spatial model (rotates or translates), or the user sets a marker in the spatial model to add a new feature. Without it, it cannot be drastically reduced.

ところが、利用者が三次元座標系のデータを補正する作業は多大な労力とスキルが必要であった。例えば、壁等が支配的な局所領域については手がかりの少ない大きな平面に対する作業となり、ドア越しの隣の部屋を含む局所領域については計測範囲の狭い隣の部屋の部分に対して行うセンシティブな作業となるため、多くの試行錯誤や経験が必要となる。   However, the work for correcting the data of the three-dimensional coordinate system by the user requires a great deal of labor and skill. For example, for a local area where walls are dominant, work is done on a large plane with few clues, and for a local area including the next room through the door, it is a sensitive work to be performed on the part of the next room with a narrow measurement range. Therefore, a lot of trial and error and experience are required.

本発明は上記問題を鑑みてなされたものであり、多大な労力とスキルを必要とせずに、三次元座標系の空間モデルを補正できる空間モデル処理装置を提供することを目的とする。   The present invention has been made in view of the above problems, and an object thereof is to provide a spatial model processing apparatus capable of correcting a spatial model of a three-dimensional coordinate system without requiring a great deal of labor and skill.

(1)本発明に係る空間モデル処理装置は、基準平面とする物体平面と当該基準平面に対し垂直な物体平面とが存在する空間について、三次元計測により得られた点群で構成された空間モデルを補正する装置であって、前記空間内の複数の局所領域それぞれについて当該局所領域のローカル座標系での前記点群で構成された局所空間モデルを前記複数の局所領域に共通する共通座標系にて統合した前記空間モデルを記憶している空間モデル記憶手段と、前記空間モデルにおいて面積が最大である物体平面に対応する部分を検出し、当該部分に沿った平面を前記基準平面として推定する基準平面推定手段と、前記基準平面に対し垂直な物体平面の前記基準平面上での位置を表す線分を利用者に入力させる入力手段と、前記線分を含み前記基準平面推定手段が推定した推定基準平面に垂直な目標面を設定し、前記空間モデルから前記目標面に対応する位置及び形状を有する注目部分を抽出し、前記共通座標系において前記目標面に前記注目部分が整合するように前記局所空間モデルを移動する空間モデル補正手段と、を備える。   (1) The space model processing device according to the present invention is a space composed of point groups obtained by three-dimensional measurement in a space where an object plane serving as a reference plane and an object plane perpendicular to the reference plane exist. An apparatus for correcting a model, wherein a common coordinate system is used for each of a plurality of local regions in the space, the local space model including the point cloud in the local coordinate system of the local region being shared by the plurality of local regions And a space model storage means for storing the space model integrated in step (b), a portion corresponding to the object plane having the largest area in the space model is detected, and a plane along the portion is estimated as the reference plane Reference plane estimation means, input means for allowing a user to input a line segment representing the position of the object plane perpendicular to the reference plane on the reference plane, and the reference plane including the line segment A target plane perpendicular to the estimation reference plane estimated by the estimation unit is set, a target portion having a position and a shape corresponding to the target surface is extracted from the spatial model, and the target portion on the target plane in the common coordinate system And a spatial model correction unit that moves the local spatial model so as to match.

(2)上記(1)に記載の空間モデル処理装置は、前記空間モデルを前記推定基準平面に投影した投影像における前記点群の密度に応じて画素値を定めた密度画像を生成する密度画像生成手段と、前記密度画像を表示する表示手段と、をさらに備え、前記入力手段は、前記利用者に当該密度画像上にて前記線分を入力させるものとすることができる。   (2) The spatial model processing device according to (1) above generates a density image in which pixel values are determined according to the density of the point group in a projection image obtained by projecting the spatial model onto the estimation reference plane. The image processing apparatus may further include a generation unit and a display unit that displays the density image, and the input unit may cause the user to input the line segment on the density image.

(3)上記(2)に記載の空間モデル処理装置において、前記密度画像生成手段は、前記空間モデルから、前記推定基準平面に垂直であり且つ互いに直交する2平面を検出し、当該2平面それぞれの前記推定基準平面への投影像である線分の方向を前記密度画像の水平方向及び垂直方向に設定する構成とすることができる。   (3) In the spatial model processing device according to (2), the density image generation unit detects two planes perpendicular to the estimation reference plane and orthogonal to each other from the spatial model, and each of the two planes. The direction of the line segment that is the projection image on the estimated reference plane is set to the horizontal direction and the vertical direction of the density image.

本発明の空間モデル処理装置によれば、少ない労力とスキルで効果的に三次元座標系の空間モデルを補正することが可能となる。   According to the spatial model processing apparatus of the present invention, it is possible to effectively correct a spatial model of a three-dimensional coordinate system with little effort and skill.

本発明の実施形態に係る空間モデル処理装置の概略の構成を示すブロック図である。It is a block diagram which shows the structure of the outline of the space model processing apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る空間モデル処理装置の概略の機能ブロック図である。It is a functional block diagram of the outline of the space model processing apparatus which concerns on embodiment of this invention. 補正処理前の空間モデルである点群の一例を示す図である。It is a figure which shows an example of the point group which is a space model before correction | amendment processing. 最大平面およびこれに垂直で互いに直角をなす2平面を用いた空間モデルの座標変換を説明する模式図である。It is a schematic diagram explaining the coordinate transformation of the space model using the maximum plane and two planes perpendicular to this and perpendicular to each other. 図3で例示した空間モデルから生成した密度画像と当該密度画像上に入力された線分群の例を示す模式図である。FIG. 4 is a schematic diagram illustrating an example of a density image generated from the space model illustrated in FIG. 3 and a line segment group input on the density image. 図5で例示した線分群から算出された目標面群の例を示す模式図である。It is a schematic diagram which shows the example of the target surface group calculated from the line segment group illustrated in FIG. 図3で例示した空間モデルを図6で示した目標面群に基づいて補正した空間モデルを示す模式図である。FIG. 7 is a schematic diagram illustrating a spatial model obtained by correcting the spatial model illustrated in FIG. 3 based on the target plane group illustrated in FIG. 6. 空間モデル処理装置の動作の概略のフロー図である。It is a schematic flowchart of operation | movement of a space model processing apparatus. 空間モデル処理装置の動作の概略のフロー図である。It is a schematic flowchart of operation | movement of a space model processing apparatus.

以下、本発明の実施の形態(以下実施形態という)である空間モデル処理装置1について、図面に基づいて説明する。空間モデル処理装置1は、基準平面に対し平行な物体平面と垂直な物体平面とが存在する空間について、三次元計測により得られた点群で構成された空間モデルを補正する。   Hereinafter, a spatial model processing apparatus 1 according to an embodiment of the present invention (hereinafter referred to as an embodiment) will be described with reference to the drawings. The space model processing device 1 corrects a space model composed of point groups obtained by three-dimensional measurement for a space in which an object plane parallel to a reference plane and a perpendicular object plane exist.

例えば、三次元計測はRGBDカメラなどの三次元計測装置を用いて行うことができる。RGBDカメラは、投射したレーザー光が物体表面との往復にかかる時間から距離を計測するTOF(Time Of Flight)方式の距離センサ、および当該距離センサと同期して同一視野のRGB画像を撮影するカラーカメラを組み合わせた装置である。ここで、距離センサはレーザー光を二次元的に走査し、走査範囲内の複数の反射点の方向および距離を計測する。そして、当該方向および距離に基づいて、反射点からなる点群の三次元座標が、三次元計測装置の位置姿勢を基準としたローカル座標系にて決定される。なお、三次元計測装置は、距離画像を取得する距離センサと濃淡画像を取得するモノクロカメラとを組み合わせたものであってもよい。また距離センサはTOF方式に限らず、パターン光投影方式など他の方式を採るものであってもよい。   For example, three-dimensional measurement can be performed using a three-dimensional measurement device such as an RGBD camera. The RGBD camera is a TOF (Time Of Flight) type distance sensor that measures the distance from the time it takes for the projected laser light to reciprocate with the object surface, and a color that captures an RGB image of the same field of view in synchronization with the distance sensor. It is a device that combines cameras. Here, the distance sensor scans the laser beam two-dimensionally and measures the directions and distances of a plurality of reflection points within the scanning range. Based on the direction and distance, the three-dimensional coordinates of the point group including the reflection points are determined in a local coordinate system based on the position and orientation of the three-dimensional measuring apparatus. Note that the three-dimensional measurement apparatus may be a combination of a distance sensor that acquires a distance image and a monochrome camera that acquires a grayscale image. Further, the distance sensor is not limited to the TOF method, and may employ another method such as a pattern light projection method.

例えば、建物の1フロアには、水平面を基準平面として、これに平行な物体平面として床や天井が存在し、一方、複数の部屋や区画の間に垂直な物体平面として壁などが存在する。このような複数の部屋、区画などが並んだ空間全体の三次元計測は上述したようにそれぞれ当該空間の一部である複数の局所領域での三次元計測に分けて行われる。具体的には、RGBDカメラのような三次元計測装置を各局所領域に設置して計測する。そのため、各局所領域にて物体を三次元計測して得られる点群は、局所領域ごとに設定された座標系(ローカル座標系)での三次元座標データで表される。そして各局所領域にて得られた点群で構成される局所空間モデルを、複数の局所領域に共通する共通座標系にて統合して全体的な空間モデルが生成される。本発明の空間モデル処理装置1は、空間モデルを構成する複数の局所空間モデルの間の位置関係のズレを補正する処理を行う。   For example, on one floor of a building, a horizontal plane is used as a reference plane, and floors and ceilings exist as object planes parallel to the horizontal plane, while walls and the like exist as vertical object planes between a plurality of rooms and sections. As described above, the three-dimensional measurement of the entire space in which a plurality of rooms, sections, and the like are arranged is divided into the three-dimensional measurement in a plurality of local regions that are a part of the space. Specifically, a three-dimensional measuring device such as an RGBD camera is installed in each local area and measured. Therefore, a point group obtained by three-dimensionally measuring an object in each local region is represented by three-dimensional coordinate data in a coordinate system (local coordinate system) set for each local region. Then, a local space model composed of point groups obtained in each local region is integrated in a common coordinate system common to a plurality of local regions to generate an overall space model. The spatial model processing apparatus 1 according to the present invention performs a process of correcting a positional relationship shift between a plurality of local spatial models constituting a spatial model.

図1は空間モデル処理装置1の概略の構成を示すブロック図である。空間モデル処理装置1は記憶部2、制御部3およびユーザーインターフェース部4を含んで構成される。   FIG. 1 is a block diagram showing a schematic configuration of the space model processing apparatus 1. The spatial model processing device 1 includes a storage unit 2, a control unit 3, and a user interface unit 4.

記憶部2はROM(Read Only Memory)、RAM(Random Access Memory)等の記憶装置である。記憶部2は、各種プログラムや各種データを記憶し、制御部3との間でこれらの情報を入出力する。   The storage unit 2 is a storage device such as a ROM (Read Only Memory) or a RAM (Random Access Memory). The storage unit 2 stores various programs and various data, and inputs / outputs such information to / from the control unit 3.

制御部3はCPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置を用いて構成される。制御部3は記憶部2からプログラムを読み出して実行することで、後述する各手段として機能する。また、制御部3は各種データを記憶部2に記憶させ、各種データを記憶部2から読み出す。制御部3はユーザーインターフェース部4とも接続され、ユーザーインターフェース部4に画像等を出力して表示させ、また、利用者がユーザーインターフェース部4を用いて入力した座標値等を取得する。   The control unit 3 is configured using an arithmetic device such as a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or an MCU (Micro Control Unit). The control unit 3 reads out and executes the program from the storage unit 2 to function as each unit described later. In addition, the control unit 3 stores various data in the storage unit 2 and reads the various data from the storage unit 2. The control unit 3 is also connected to the user interface unit 4 to output and display an image or the like on the user interface unit 4 and acquire a coordinate value or the like input by the user using the user interface unit 4.

ユーザーインターフェース部4は制御部3から入力された画像等を利用者に対して表示し、また、利用者が操作して入力した座標値等を制御部3に出力する装置である。具体的には、ユーザーインターフェース部4は、液晶ディスプレイまたはCRT(Cathode Ray Tube)等の表示装置、およびマウスなどのポインティングデバイスまたはキーボード等の操作入力装置からなる。   The user interface unit 4 is a device that displays an image or the like input from the control unit 3 to the user, and outputs a coordinate value or the like input by operating by the user to the control unit 3. Specifically, the user interface unit 4 includes a display device such as a liquid crystal display or CRT (Cathode Ray Tube), and a pointing device such as a mouse or an operation input device such as a keyboard.

図2は空間モデル処理装置1の概略の機能ブロック図である。記憶部2は空間モデル記憶手段20などとして機能する。また、制御部3は基準平面推定手段30、密度画像生成手段31および空間モデル補正手段32などとして機能する。ユーザーインターフェース部4は表示手段40および入力手段41として機能する。   FIG. 2 is a schematic functional block diagram of the space model processing apparatus 1. The storage unit 2 functions as the space model storage unit 20 or the like. The control unit 3 also functions as a reference plane estimation unit 30, a density image generation unit 31, a spatial model correction unit 32, and the like. The user interface unit 4 functions as display means 40 and input means 41.

空間モデル記憶手段20は、複数の局所領域ごとの三次元点群(局所空間モデル)と、それらの三次元点群を統合した空間モデルとを記憶する。ここで、上述したように各局所領域に対応して三次元計測が行われるが、各局所領域の具体的な範囲は実質的に三次元計測装置の各計測位置での空間的な計測範囲によって定まる。また、既に述べたように、各局所領域を計測した三次元点群は局所領域ごとのローカル座標系で表されている。一方、全局所領域の三次元点群を統合した空間モデルは、全局所領域にて共通に用いる共通座標系で表されている。   The spatial model storage unit 20 stores a three-dimensional point group (local space model) for each of a plurality of local regions and a spatial model obtained by integrating these three-dimensional point groups. Here, as described above, three-dimensional measurement is performed corresponding to each local region, but the specific range of each local region is substantially determined by the spatial measurement range at each measurement position of the three-dimensional measurement device. Determined. Further, as already described, the three-dimensional point group obtained by measuring each local region is represented by a local coordinate system for each local region. On the other hand, a spatial model in which three-dimensional point groups of all local regions are integrated is represented by a common coordinate system that is commonly used in all local regions.

各局所空間モデルを共通座標系に統合するに際しては、隣り合う局所領域の重複部分での整合性が得られるようにローカル座標系を共通座標系にて回転・並進させることによって(移動させることによって)局所空間モデルを位置合わせしている。具体的には、隣り合う局所領域の三次元点群が表す表面形状どうしの重複部分での相違(誤差)の極小化が図られる。また、この重複部分での三次元点群が表す表面形状の相違と共に、当該三次元点群のRGB値の相違または濃淡値の相違の極小化を図るように位置合わせを行ってもよい。このように位置合わせをして生成された空間モデルが空間モデル補正手段32による補正処理の対象データとして予め記憶部2に記憶される。また、記憶部2には、当該補正処理後の空間モデルを記憶することができる。   When integrating each local space model into a common coordinate system, by rotating and translating the local coordinate system in the common coordinate system (by moving it) so as to obtain consistency in the overlapping part of adjacent local regions ) The local space model is aligned. Specifically, the difference (error) in the overlapping portion between the surface shapes represented by the three-dimensional point groups of the adjacent local regions is minimized. Further, in addition to the difference in the surface shape represented by the three-dimensional point group in the overlapping portion, the alignment may be performed so as to minimize the difference in the RGB value or the difference in the gray value of the three-dimensional point group. The spatial model generated by such alignment is stored in advance in the storage unit 2 as target data for correction processing by the spatial model correction unit 32. The storage unit 2 can store the spatial model after the correction process.

図3は補正処理前の空間モデルである点群の一例を示す図であり、当該空間モデルは2つの部屋を含んでいる。図3(a)に示す空間モデル100は斜め上方から部屋を眺めた斜視図に当たり、図3(b)に示す空間モデル110は図3(a)に示す点群を部屋の真上から眺めた平面図に当たる。この空間モデルは2つの部屋それぞれの中で三次元計測して得られた2つの局所空間モデルを位置合わせして統合している。   FIG. 3 is a diagram illustrating an example of a point group that is a space model before correction processing, and the space model includes two rooms. The space model 100 shown in FIG. 3A corresponds to a perspective view of the room viewed obliquely from above, and the space model 110 shown in FIG. 3B shows the point cloud shown in FIG. 3A viewed from directly above the room. Hit the top view. In this space model, two local space models obtained by three-dimensional measurement in two rooms are aligned and integrated.

図3(b)において、2つの部屋は中央部とその左側とに位置する。三次元点群111および三次元点群113は左側の部屋に対応する局所領域にて計測された点群であり、三次元点群112および三次元点群114は中央部の部屋に対応する局所領域にて計測された点群である。三次元点群111および三次元点群112は2つの部屋を仕切る同じ壁に対応し、本来1つの平面をなすはずであるが、壁の特徴の少なさが原因で位置合わせ誤差が生じたため、両点群111,112間にズレが存在する。また、三次元点群113および三次元点群114は本来直線上に並ぶ壁であるが、部屋間を連結するための特徴がドア越しの計測でしか得られず、部屋間の連結部の特徴の少なさが原因で位置合わせ誤差が生じ、その誤差が波及して両点群113,114は直線上に整列していない。   In FIG.3 (b), two rooms are located in the center part and the left side. The three-dimensional point group 111 and the three-dimensional point group 113 are point groups measured in a local region corresponding to the left room, and the three-dimensional point group 112 and the three-dimensional point group 114 are local corresponding to the central room. It is a point cloud measured in a region. The three-dimensional point group 111 and the three-dimensional point group 112 correspond to the same wall separating the two rooms, and should originally form one plane, but because of the alignment error due to the small number of wall features, There is a gap between the two point groups 111 and 112. The three-dimensional point group 113 and the three-dimensional point group 114 are originally walls arranged in a straight line, but the feature for connecting the rooms can be obtained only by measurement through the door, and the feature of the connecting part between the rooms is An alignment error occurs due to a small amount of the error, and the error spills over and the point groups 113 and 114 are not aligned on a straight line.

基準平面推定手段30は、空間モデル記憶手段20から空間モデルを読み出し、読み出した空間モデルから面積が最大の物体平面に対応する部分を検出し、当該部分に沿った平面を基準平面として推定する。そして、基準平面推定手段30は検出した基準平面の情報を密度画像生成手段31および空間モデル補正手段32に出力する。具体的には、例えば、基準平面推定手段30は、空間モデルを構成する点群を解析して複数の平面を検出し、検出した複数の平面の中から面積が最大である平面を決定し、決定した平面の共通座標系における法線ベクトルと原点からの距離とを算出する。基準平面の向きは当該法線ベクトルにより決定される。また、共通座標系の原点と基準平面との距離は任意に設定でき、例えば、最大平面と同じ距離とすることができる。   The reference plane estimation unit 30 reads a space model from the space model storage unit 20, detects a portion corresponding to the object plane having the largest area from the read space model, and estimates a plane along the portion as a reference plane. The reference plane estimation unit 30 then outputs the detected reference plane information to the density image generation unit 31 and the space model correction unit 32. Specifically, for example, the reference plane estimation unit 30 detects a plurality of planes by analyzing the point group constituting the space model, determines a plane having the maximum area from the detected plurality of planes, The normal vector in the common coordinate system of the determined plane and the distance from the origin are calculated. The orientation of the reference plane is determined by the normal vector. Further, the distance between the origin of the common coordinate system and the reference plane can be arbitrarily set, and can be set to the same distance as the maximum plane, for example.

なお、基準平面推定手段30は空間モデルから面積が最大の物体平面に対応する部分として点群を抽出した後、当該点群から基準平面を定める処理とすることもできる。この場合、当該点群に対応する平面の面積は点群の分布範囲に基づいて判断することができる。また、点群が物体表面にて密度一定になるようにダウンサンプリング処理などがされている場合には、点群の構成点の数に基づいて平面の面積を判断することもできる。   Note that the reference plane estimation unit 30 may extract the point group as a portion corresponding to the object plane having the largest area from the space model and then determine the reference plane from the point group. In this case, the area of the plane corresponding to the point group can be determined based on the distribution range of the point group. In addition, when downsampling processing or the like is performed so that the density of the point group is constant on the object surface, the area of the plane can be determined based on the number of constituent points of the point group.

ここで、典型的には、室内空間を計測した空間モデルからは床面が最大の物体平面として検出され、屋外空間を計測した空間モデルからは地面が最大の物体平面として検出されるので、基準平面として空間モデルにおける水平面が推定される。   Here, typically, the floor is detected as the largest object plane from the spatial model that measures the indoor space, and the ground is detected as the largest object plane from the spatial model that measures the outdoor space. A horizontal plane in the space model is estimated as a plane.

密度画像生成手段31は空間モデル記憶手段20から空間モデルを読み出し、読み出した空間モデルを構成する点群を、基準平面推定手段30から入力された基準平面(推定基準平面)に投影する。そして、密度画像生成手段31はその投影像における点群の密度に応じて画素値を定めた密度画像を生成する。例えば、密度画像生成手段31は点群の密度に応じて輝度値を設定した密度画像を生成する。   The density image generation unit 31 reads the space model from the space model storage unit 20 and projects a point group constituting the read space model onto the reference plane (estimated reference plane) input from the reference plane estimation unit 30. Then, the density image generation unit 31 generates a density image in which pixel values are determined according to the density of the point group in the projection image. For example, the density image generating unit 31 generates a density image in which the luminance value is set according to the density of the point group.

具体的には、まず、密度画像生成手段31は、空間モデルを構成する全ての点を推定基準平面に投影するとともに推定基準平面の投影領域を密度画像の各画素に対応するブロックに等分割し、ブロックごとに投影点を計数する。次に、密度画像生成手段31は、ブロックの投影点数が多いほど当該ブロックと対応する画素に高い輝度値を設定して密度画像を生成する。例えば、投影点数が0個の輝度値を0、全ブロック中の最大投影点数の輝度値を255と定め、各画素に対応するブロックの投影点数と比例した輝度値を設定することができる。この場合、推定基準平面に垂直な物体平面の位置に対応する画素の輝度値が高輝度となり、典型的には、壁と対応する直線的な領域が特に高輝度となる。そのため密度画像は利用者が壁の位置を視認し易い画像となる。   Specifically, first, the density image generating unit 31 projects all points constituting the spatial model onto the estimation reference plane and equally divides the projection area of the estimation reference plane into blocks corresponding to the pixels of the density image. The projection points are counted for each block. Next, the density image generation means 31 generates a density image by setting a higher luminance value for the pixel corresponding to the block as the number of projection points of the block increases. For example, it is possible to set a luminance value that is proportional to the number of projection points of a block corresponding to each pixel by setting the luminance value of 0 projection points to 0 and the luminance value of the maximum number of projection points in all blocks to 255. In this case, the luminance value of the pixel corresponding to the position of the object plane perpendicular to the estimation reference plane is high luminance, and typically a linear region corresponding to the wall is particularly high luminance. Therefore, the density image is an image in which the user can easily recognize the position of the wall.

なお、輝度値の高低は逆にしてもよい。つまりブロックの投影点数が多いほど当該ブロックと対応する画素に低い輝度値を設定して密度画像を生成してもよい。その場合は、典型的には、壁と対応する直線的な領域が特に低輝度となり、やはり密度画像は利用者が壁の位置を視認し易い画像となる。   The brightness value may be reversed. That is, the density image may be generated by setting a lower luminance value to the pixel corresponding to the block as the number of projection points of the block is larger. In that case, typically, a linear region corresponding to the wall has particularly low luminance, and the density image is an image in which the user can easily recognize the position of the wall.

また、密度画像生成手段31は、空間モデルから推定基準平面に垂直であり且つ互いに直交する2平面を検出し、当該2平面それぞれの推定基準平面への投影像である線分の方向を密度画像の水平方向(X軸方向)および垂直方向(Y軸方向)に設定する。その際、当該2平面として、推定基準平面に垂直であり且つ互いに直交するという条件を満たす平面のペアのうち面積が大きなペアを優先して検出するのがよい。例えば、密度画像生成手段31は上記平面のペアのうち、一方の面積が最大のペア、或いは合計面積が最大のペアを検出することができる。多くの場合、部屋などの互いに交わる壁の角度は直角であるので、このように密度画像の座標軸を設定することで、後述する利用者による入力線分が密度画像のX軸方向またはY軸方向に平行な線分となる可能性が高くなり、利用者による容易かつ正確な入力を得やすくなる。   Further, the density image generating means 31 detects two planes that are perpendicular to the estimation reference plane and orthogonal to each other from the spatial model, and the direction of the line segment that is a projection image of each of the two planes on the estimation reference plane is determined as the density image. Are set in the horizontal direction (X-axis direction) and the vertical direction (Y-axis direction). At this time, as the two planes, it is preferable to preferentially detect a pair having a large area among a pair of planes that satisfy the condition of being perpendicular to the estimation reference plane and orthogonal to each other. For example, the density image generating means 31 can detect the pair having the largest area or the pair having the largest total area among the plane pairs. In many cases, the angles of walls intersecting each other, such as a room, are right angles. Thus, by setting the coordinate axis of the density image in this way, an input line segment by the user described later is in the X-axis direction or Y-axis direction of the density image. Therefore, it becomes easy to obtain an easy and accurate input by the user.

推定基準平面に沿ってX軸、Y軸を設定することは、推定基準平面の法線方向をZ軸として、空間モデルについて直交座標系XYZを定義することに相当する。つまり、基準平面推定手段30および密度画像生成手段31によりそれぞれ検出される最大平面およびこれに垂直で互いに直角をなす2平面を用いて空間モデルの座標変換がなされる。図4は当該座標変換を説明する模式図である。空間モデル200は空間モデル記憶手段20に予め記憶される空間モデルであり、図3に例示した空間モデル100と同じである。空間モデル200の座標系は任意に設定され得る。例えば、或る1つの局所領域に設置されたRGBDカメラの撮影面の直交する2つの座標軸がX軸、Y軸となり、カメラの光軸方向にZ軸が設定され得る。基準平面推定手段30は空間モデル200から最大平面に対応する部分として例えば、床面に対応する点群210を検出し、これに沿った水平面を基準平面として推定する。また、例えば、密度画像生成手段31は基準平面に垂直な面として、空間モデル200にて床面に立設された壁のうち、最大平面である床面に次いで大きい面積を有する壁に対応する点群220と、当該壁に直交する別の壁に対応する点群230とを検出する。そして、推定基準平面の法線方向をZ軸、点群220により定義される平面を推定基準平面に投影して得られる線分の方向をY軸、また点群230により定義される平面を推定基準平面に投影して得られる線分の方向をX軸とする直交座標系XYZが定義され、これに対応して点群の座標が変換された空間モデル240が生成される。   Setting the X axis and the Y axis along the estimation reference plane corresponds to defining the orthogonal coordinate system XYZ for the spatial model with the normal direction of the estimation reference plane as the Z axis. That is, the coordinate conversion of the space model is performed using the maximum plane detected by the reference plane estimation unit 30 and the density image generation unit 31 and two planes perpendicular to and perpendicular to each other. FIG. 4 is a schematic diagram for explaining the coordinate transformation. The space model 200 is a space model stored in advance in the space model storage unit 20, and is the same as the space model 100 illustrated in FIG. The coordinate system of the space model 200 can be set arbitrarily. For example, two orthogonal coordinate axes of the imaging surface of an RGBD camera installed in a certain local area become the X axis and the Y axis, and the Z axis can be set in the optical axis direction of the camera. The reference plane estimation means 30 detects, for example, a point group 210 corresponding to the floor surface as a portion corresponding to the maximum plane from the space model 200, and estimates a horizontal plane along this as a reference plane. In addition, for example, the density image generation unit 31 corresponds to a wall having the second largest area after the floor surface which is the largest plane among the walls erected on the floor surface in the space model 200 as a surface perpendicular to the reference plane. A point group 220 and a point group 230 corresponding to another wall orthogonal to the wall are detected. The normal direction of the estimated reference plane is the Z axis, the direction of the line segment obtained by projecting the plane defined by the point group 220 onto the estimated reference plane is the Y axis, and the plane defined by the point group 230 is estimated. An orthogonal coordinate system XYZ having the X-axis as the direction of the line segment obtained by projection onto the reference plane is defined, and a space model 240 in which the coordinates of the point group are converted corresponding to this is generated.

表示手段40は密度画像生成手段31で生成した密度画像を表示する。具体的には、ユーザーインターフェース部4の表示装置が表示手段40として機能する。   The display unit 40 displays the density image generated by the density image generation unit 31. Specifically, the display device of the user interface unit 4 functions as the display unit 40.

入力手段41は基準平面に対し垂直な物体平面の基準平面上での位置を表す線分を利用者に入力させる。具体的には、ユーザーインターフェース部4の入力装置が入力手段41として機能する。入力手段41は密度画像上で利用者に線分の位置を指定させるように構成するのが好適である。典型的には、室内であれば部屋を構成する壁、屋外であれば建物などを構成する壁を表す線分が入力される。なお、入力手段41により利用者が入力した線分は、後述する空間モデル補正手段32にて、局所空間モデルの位置補正に際して目標となる垂直平面の位置を指定するものとして用いられる。   The input means 41 allows the user to input a line segment representing the position on the reference plane of the object plane perpendicular to the reference plane. Specifically, the input device of the user interface unit 4 functions as the input unit 41. The input means 41 is preferably configured to allow the user to specify the position of the line segment on the density image. Typically, a line that represents a wall that forms a room if it is indoors and a wall that forms a building if it is outdoor are input. Note that the line segment input by the user using the input unit 41 is used by the spatial model correction unit 32 to be described later to designate the position of the target vertical plane when correcting the position of the local space model.

図5は図3で例示した空間モデル100,110から生成した密度画像300(図5(a))と密度画像300上に入力された線分群310の例(図5(b))を示す模式図である。   FIG. 5 is a schematic diagram illustrating a density image 300 (FIG. 5A) generated from the space models 100 and 110 illustrated in FIG. 3 and an example of a line segment group 310 input on the density image 300 (FIG. 5B). FIG.

空間モデル補正手段32は、入力手段41で入力された線分を含む平面であり、且つ基準平面推定手段30で推定した基準平面(推定基準平面)に垂直である平面を補正処理における目標面として設定する。そして空間モデル補正手段32は、空間モデル記憶手段20に記憶した空間モデルから目標面に対応する位置および形状を有する注目部分を抽出し、共通座標系において目標面に注目部分が整合するように局所空間モデルを回転・並進させる移動操作を行う。具体的には、空間モデル補正手段32により抽出される注目部分は目標面に対応した位置および形状に分布した点群であり、空間モデル補正手段32は当該点群の分布領域が目標面に略重複するように局所空間モデルを移動し、これにより座標が変換された点群からなる補正後の空間モデルが生成される。補正された空間モデルは空間モデル記憶手段20に記憶される。この記憶処理は、補正後の空間モデルで補正前の空間モデルを更新する処理としてもよい。   The space model correction unit 32 is a plane including the line segment input by the input unit 41 and is perpendicular to the reference plane (estimated reference plane) estimated by the reference plane estimation unit 30 as a target plane in the correction process. Set. Then, the spatial model correction unit 32 extracts a target portion having a position and a shape corresponding to the target surface from the spatial model stored in the spatial model storage unit 20 and locally matches the target portion with the target surface in the common coordinate system. Move operation to rotate and translate the space model. Specifically, the portion of interest extracted by the space model correction unit 32 is a point group distributed in a position and shape corresponding to the target plane, and the space model correction unit 32 has a distribution area of the point group approximately on the target plane. The local space model is moved so as to overlap with each other, thereby generating a corrected space model composed of a point group whose coordinates are converted. The corrected space model is stored in the space model storage means 20. This storage process may be a process of updating the uncorrected space model with the corrected space model.

図6は図5で例示した線分群310から算出された目標面群400の例を示す模式図であり、目標面群400が配置された空間を斜め上方から眺めた斜視図に当たる。   FIG. 6 is a schematic diagram illustrating an example of the target surface group 400 calculated from the line group 310 illustrated in FIG. 5, and corresponds to a perspective view of the space in which the target surface group 400 is disposed as viewed obliquely from above.

図7は図3で例示した空間モデル100,110を図6で示した目標面群400に基づいて補正した空間モデル500を示す模式図であり、部屋の真上方向から見た平面図に当たる。すなわち、図3(b)が補正前の空間モデルを上から見た図であり、図7は補正後の空間モデルを上から見た図である。図7に示す壁の三次元点群501,502それぞれは、図3で例示した壁の三次元点群111,112に対応する。図7には、三次元点群111,112に生じていたズレが三次元点群501,502では補正されて、両点群501,502はほぼ一直線に並んでいることが示されている。同様に、図3で例示した壁の三次元点群113,114のそれぞれに対応する壁の三次元点群503,504についてもズレが補正されてほぼ一直線に並んでいる。   FIG. 7 is a schematic diagram showing a space model 500 obtained by correcting the space models 100 and 110 illustrated in FIG. 3 based on the target surface group 400 shown in FIG. 6, and corresponds to a plan view seen from directly above the room. That is, FIG. 3B is a diagram of the spatial model before correction viewed from above, and FIG. 7 is a diagram of the spatial model after correction viewed from above. The wall three-dimensional point groups 501 and 502 shown in FIG. 7 correspond to the wall three-dimensional point groups 111 and 112 illustrated in FIG. FIG. 7 shows that the deviation generated in the three-dimensional point groups 111 and 112 is corrected in the three-dimensional point groups 501 and 502, and the two point groups 501 and 502 are arranged substantially in a straight line. Similarly, the three-dimensional point groups 503 and 504 of the walls corresponding to the three-dimensional point groups 113 and 114 of the wall illustrated in FIG. 3 are also corrected and aligned in a substantially straight line.

次に空間モデル処理装置1の動作について説明する。図8および図9は空間モデル処理装置1の動作の概略のフロー図である。   Next, the operation of the space model processing apparatus 1 will be described. FIG. 8 and FIG. 9 are schematic flowcharts of the operation of the space model processing apparatus 1.

制御部3は空間モデル記憶手段20から空間モデルを読み出すとともに(ステップS1)、基準平面推定手段30として動作する。基準平面推定手段30は、空間モデルを構成する三次元点群が表す空間形状の中から平面を検出する(ステップS2)。具体的には、基準平面推定手段30は三次元点群に含まれる点ごとに共通座標系における法線ベクトルおよび原点からの距離を定義し、三次元点群に含まれる点を法線ベクトルの方向および原点からの距離についてクラスタリングすることにより各点を平面ごとのクラスタに分ける。なお、例えば、各点での法線ベクトルは、当該点の近傍の点を用いて推定される微小面の向きに基づいて定義することができ、原点からの距離は当該微小推定面を含む平面に原点から下ろした垂線の長さに基づいて定義することができる。また、基準平面推定手段30は、後のステップで再利用するためにクラスタリング結果を記憶部2に記憶させる。   The control unit 3 reads the spatial model from the spatial model storage unit 20 (step S1) and operates as the reference plane estimation unit 30. The reference plane estimation means 30 detects a plane from the spatial shape represented by the three-dimensional point group constituting the space model (step S2). Specifically, the reference plane estimation means 30 defines a normal vector in the common coordinate system and a distance from the origin for each point included in the three-dimensional point group, and the point included in the three-dimensional point group is determined as a normal vector. By clustering the direction and distance from the origin, each point is divided into clusters for each plane. Note that, for example, the normal vector at each point can be defined based on the orientation of the minute surface estimated using points in the vicinity of the point, and the distance from the origin is a plane including the minute estimated surface. Can be defined based on the length of the perpendicular drawn from the origin. In addition, the reference plane estimation unit 30 stores the clustering result in the storage unit 2 for reuse in a later step.

基準平面推定手段30はステップS2で検出した平面の中から最大平面を検出し、基準平面を推定する(ステップS3)。例えば、点群が物体表面にて密度一定になるようにダウンサンプリングされている場合には、基準平面推定手段30は平面ごとのクラスタのうち帰属する点の数が最も多いものを最大平面のクラスタと決定することができる。基準平面推定手段30は共通座標系における最大平面の法線ベクトル(a,b,c)と原点からの距離dとを算出し、その結果に基づいて推定基準平面の平面方程式ax+by+cz+d=0を導出する。   The reference plane estimation means 30 detects the maximum plane from the planes detected in step S2, and estimates the reference plane (step S3). For example, when the point cloud is down-sampled so as to have a constant density on the object surface, the reference plane estimation unit 30 determines the cluster having the largest number of belonging points among the clusters for each plane. Can be determined. The reference plane estimation means 30 calculates the normal vector (a, b, c) of the maximum plane in the common coordinate system and the distance d from the origin, and derives the plane equation ax + by + cz + d = 0 of the estimated reference plane based on the result. To do.

制御部3は密度画像生成手段31として動作し、読み出した空間モデルが密度画像生成手段31に入力される。密度画像生成手段31は、空間モデルの三次元点群に対して推定基準平面を共通座標系にてZ=0の平面とする座標変換を行う(ステップS4)。具体的には、密度画像生成手段31は共通座標系において、ステップS3で算出した推定基準平面に関し原点からの距離を0とし法線ベクトルのX成分およびY成分をそれぞれ0とするような座標変換式を導出し、算出した座標変換式により三次元点群に含まれる各点の座標を変換する。ちなみに推定基準平面の平面方程式はcz=0となる。   The control unit 3 operates as the density image generation unit 31, and the read spatial model is input to the density image generation unit 31. The density image generating means 31 performs coordinate conversion on the three-dimensional point group of the space model with the estimated reference plane as a plane of Z = 0 in the common coordinate system (step S4). Specifically, the density image generating means 31 performs coordinate transformation in the common coordinate system so that the distance from the origin is 0 and the X and Y components of the normal vector are 0 respectively with respect to the estimated reference plane calculated in step S3. An expression is derived, and the coordinates of each point included in the three-dimensional point group are converted by the calculated coordinate conversion expression. Incidentally, the plane equation of the estimated reference plane is cz = 0.

密度画像生成手段31は、空間モデルを構成する三次元点群が表す空間形状の中から推定基準平面に略垂直であり、且つ互いに略垂直な2平面を検出する(ステップS5)。例えば、平面ごとの上述のクラスタについて、面積の大きい順に、共通座標系における法線ベクトルを算出し、推定基準平面の法線ベクトルとなす角度を算出する。なお、面積の大きい順とする代わりに、帰属する点の数の多い順で近似してもよい。算出した角度が85度〜95度であれば垂直とみなして当該平面を第一平面の候補として選出する。さらに平面ごとの上述のクラスタについて、選出した第一平面の候補に次いで面積の大きい順に、法線ベクトルを算出して、選出した第一平面の候補の法線ベクトルとなす角度を算出する。算出した角度が85度〜95度であれば垂直とみなし、当該平面と第一平面の候補とをそれぞれ第二平面、第一平面と決定する。第二平面が決定できなかった場合はこれまでに選出した第一平面の候補のクラスタを除いて再度、第一平面の候補の選出からやり直す。なお、ステップS2でのクラスタリング結果を流用する代わりに密度画像生成手段31がステップS2の説明で述べたクラスタリングを再度行ってもよい。   The density image generating means 31 detects two planes that are substantially perpendicular to the estimation reference plane and are substantially perpendicular to each other from among the spatial shapes represented by the three-dimensional point group constituting the spatial model (step S5). For example, with respect to the above-described cluster for each plane, normal vectors in the common coordinate system are calculated in descending order of area, and an angle formed with the normal vector of the estimation reference plane is calculated. In addition, you may approximate in the order with many number of points instead of making it into the order with a big area. If the calculated angle is 85 degrees to 95 degrees, the plane is regarded as vertical and the plane is selected as a candidate for the first plane. Further, with respect to the above-described cluster for each plane, normal vectors are calculated in descending order of area after the selected first plane candidate, and an angle formed with the selected normal vector of the first plane is calculated. If the calculated angle is 85 degrees to 95 degrees, it is regarded as vertical, and the candidate for the plane and the first plane are determined as the second plane and the first plane, respectively. If the second plane cannot be determined, the first plane candidate cluster selected so far is removed and the first plane candidate is selected again. Note that instead of diverting the clustering result in step S2, the density image generating means 31 may perform the clustering described in the description of step S2 again.

密度画像生成手段31は、ステップS5で決定した2平面のそれぞれが共通座標系XYZにおけるX=0の平面、Y=0の平面となるように座標変換する(ステップS6)。さらに、密度画像生成手段31は、密度画像の生成の便宜上、空間モデルを構成する三次元点群のX座標の最小値XMINおよびY座標の最小値YMINを求め、点(XMIN,YMIN,0)に共通座標系の原点を移動させる座標変換を行う(ステップS7)。このように原点を移動させることで、空間モデルを構成する全ての点群のX座標、Y座標が非負値となり、表示装置の画像における一般的な水平座標および垂直座標の定義に合わせることができる。 The density image generating unit 31 performs coordinate conversion so that each of the two planes determined in step S5 becomes a plane of X = 0 and a plane of Y = 0 in the common coordinate system XYZ (step S6). Further, the density image generation means 31 obtains the X coordinate minimum value X MIN and the Y coordinate minimum value Y MIN of the three-dimensional point group constituting the spatial model for the convenience of density image generation, and the point (X MIN , Y Coordinate conversion for moving the origin of the common coordinate system to MIN , 0) is performed (step S7). By moving the origin in this way, the X and Y coordinates of all point groups constituting the space model become non-negative values, and can be adjusted to the definitions of general horizontal coordinates and vertical coordinates in the image of the display device. .

密度画像生成手段31は、空間モデルを構成する全ての三次元点群を推定基準平面であるZ=0へ投影し(ステップS8)、投影点の密度に応じた輝度値を設定して、密度画像を生成する(ステップS9)。密度画像生成手段31は生成した密度画像をユーザーインターフェース部4に出力する。   The density image generation unit 31 projects all three-dimensional point groups constituting the spatial model onto the estimation reference plane Z = 0 (step S8), sets a luminance value according to the density of the projection points, and sets the density. An image is generated (step S9). The density image generation unit 31 outputs the generated density image to the user interface unit 4.

ユーザーインターフェース部4は表示手段40および入力手段41として機能し、密度画像を表示装置に表示し(ステップS10)、利用者からの補正完了の旨の入力有無を確認する(ステップS11)。ステップS11にて補正完了の旨があるまで後述する空間モデルの補正処理がループ処理で実行され、一方、補正完了の旨が入力されると(ステップS11にてYESの場合)、当該補正処理は終了される。なお、ステップS10にて、既にループ処理が開始されている場合には、目標面を指定する線分として既に入力されているものを密度画像に重畳して表示する。   The user interface unit 4 functions as the display unit 40 and the input unit 41, displays the density image on the display device (step S10), and confirms whether or not the correction completion from the user is input (step S11). The correction process of the spatial model, which will be described later, is executed in a loop process until there is a correction completion in step S11. On the other hand, when the correction completion is input (YES in step S11), the correction process is Is terminated. In step S10, when the loop process has already been started, the line already specified as the line segment for designating the target surface is displayed superimposed on the density image.

ステップS11にて補正完了の旨の入力がなければ(ステップS11にてNOの場合)、空間モデルを補正する一連の処理S12〜S18が実行される。まず、制御部3が利用者による線分入力を受け付ける(ステップS12)。具体的には、入力手段41をなすマウス等が利用者により操作されて密度画像上に線分が入力されると、当該線分の座標が入力手段41から制御部3に出力される。また、入力された線分は記憶部2に記憶され、一方、制御部3は既に入力されている線分を記憶部2から読み出す。   If there is no input indicating that the correction is completed in step S11 (NO in step S11), a series of processes S12 to S18 for correcting the space model are executed. First, the control part 3 receives the line segment input by a user (step S12). Specifically, when a mouse or the like forming the input unit 41 is operated by the user and a line segment is input on the density image, the coordinates of the line segment are output from the input unit 41 to the control unit 3. Also, the input line segment is stored in the storage unit 2, while the control unit 3 reads the already input line segment from the storage unit 2.

制御部3は線分を入力されると空間モデル補正手段32として動作する。空間モデル補正手段32は、共通座標系において、利用者により入力された各線分を含み、推定基準平面に垂直な目標面を算出する(ステップS13)。各目標面はその算出の基礎となった線分の両端点それぞれにおける推定基準平面に対する垂線である2つの側辺と、当該2側辺の間を横方向に渡された上辺および下辺とで囲まれた四角形で規定する。目標面の下辺は2側辺それぞれと最大平面との交点の間を結ぶ線分で規定される。目標面の上辺は空間モデルにおける高さの最大値を有し最大平面に水平な線分とすればよい。   When the line segment is input, the control unit 3 operates as the spatial model correction unit 32. The space model correction unit 32 calculates a target plane that includes each line segment input by the user and is perpendicular to the estimated reference plane in the common coordinate system (step S13). Each target plane is surrounded by two sides that are perpendicular to the estimated reference plane at each end point of the line segment that is the basis of the calculation, and an upper side and a lower side that are passed horizontally between the two sides. Specified by a square. The lower side of the target surface is defined by a line segment that connects between the intersections of the two sides and the maximum plane. The upper side of the target plane may be a line segment having a maximum height in the space model and horizontal to the maximum plane.

空間モデル補正手段32は、空間モデルを構成する三次元点群が表す空間形状の中から目標面と対応する平面を検出する(ステップS14)。具体的には、各平面のクラスタから平面の法線を算出するとともに各目標面の法線を算出し、各平面と各目標面との間で法線がなす角度および面間の距離を比較し、各目標面との法線の向きの差および距離が所定値未満である平面を当該目標面と対応する平面として検出する。ちなみに、面間の距離は例えば、平面に対応する三次元点群の中央点から目標面へ下ろした垂線の長さとすることができる。また上記所定値は予めの実験を通じて見積もった位置合わせ誤差の上限値とすることができる(例えば、実空間での10cmに相当する値)。また空間モデル補正手段32は、対応する平面が検出されない目標面を以降の処理対象から除外する。なお、ステップS2でのクラスタリング結果を流用する代わりに空間モデル補正手段32がステップS14で改めてクラスタリングを行ってもよい。   The space model correction unit 32 detects a plane corresponding to the target surface from the space shape represented by the three-dimensional point group constituting the space model (step S14). Specifically, the normal of the plane is calculated from the cluster of each plane and the normal of each target surface is calculated, and the angle formed by the normal between each plane and each target surface and the distance between the surfaces are compared. Then, a plane whose normal line direction difference and distance from each target plane is less than a predetermined value is detected as a plane corresponding to the target plane. Incidentally, the distance between the surfaces can be, for example, the length of a perpendicular line from the center point of the three-dimensional point group corresponding to the plane to the target surface. The predetermined value can be an upper limit value of the alignment error estimated through a previous experiment (for example, a value corresponding to 10 cm in real space). In addition, the space model correction unit 32 excludes a target surface from which a corresponding plane is not detected from subsequent processing targets. Note that the spatial model correction unit 32 may perform clustering again in step S14 instead of diverting the clustering result in step S2.

空間モデル補正手段32は、空間モデルを構成する三次元点群が表す平面のそれぞれがどの局所領域に含まれているかを特定する(ステップS15)。この処理では、最大平面のクラスタを除く各平面のクラスタが帰属する局所領域を特定する。   The spatial model correction unit 32 identifies which local region each of the planes represented by the three-dimensional point group constituting the spatial model is included (step S15). In this process, the local region to which the cluster of each plane other than the cluster of the maximum plane belongs is specified.

空間モデル補正手段32は、ステップS15で平面を含むと特定された局所領域のそれぞれについて、当該平面とステップS14にて当該平面との対応が検出された目標面との回転・並進に関する位置の差を算出する(ステップS16)。この差は両者の位置姿勢が似ているほど0に近くなり、ずれているほど大きくなる。   The spatial model correction unit 32 determines, for each local region identified as including a plane in step S15, the difference in position regarding rotation / translation between the plane and the target plane for which the correspondence between the plane is detected in step S14. Is calculated (step S16). This difference becomes closer to 0 as the positions and orientations of the two are similar, and becomes larger as they are shifted.

空間モデル補正手段32は、ステップS16にて算出した差を空間モデル全体にて最小化する各局所領域の補正量を算出する(ステップS17)。局所領域の三次元点群は、共通座標系において既に位置合わせされているため、隣り合う局所領域の三次元点群間の回転・並進量の差は0(つまり回転・並進を表す同次変換行列が単位行列)に近い値になっている。この状況において、目標面と局所領域にて当該目標面に対応する平面との回転・並進量の差を小さくするという追加条件を課し、局所領域の対応平面の位置姿勢を目標面に近づけ、且つ共通座標系における局所領域の三次元点群の位置姿勢ができるだけそのまま保たれるように最適化を行う。   The space model correction unit 32 calculates a correction amount for each local region that minimizes the difference calculated in step S16 in the entire space model (step S17). Since the 3D point cloud of the local region is already aligned in the common coordinate system, the difference in the rotation / translation amount between the 3D point clouds of the adjacent local regions is 0 (that is, the homogeneous transformation representing rotation / translation). The matrix is close to the identity matrix. In this situation, imposing an additional condition of reducing the difference in rotation / translation amount between the target plane and the plane corresponding to the target plane in the local area, the position and orientation of the corresponding plane in the local area is brought closer to the target plane, In addition, optimization is performed so that the position and orientation of the three-dimensional point group in the local area in the common coordinate system is maintained as much as possible.

この最適化処理の手法の一例を説明する。空間モデルを構成する局所領域(または局所空間モデル)の個数をNとし、第i局所空間モデル(1≦i≦N)をPとする。 An example of this optimization processing method will be described. The number of local area (or local space model) constituting a spatial model is N, the i local spatial model (1 ≦ i ≦ N) and P i.

重複領域を有する任意の2つのPとPとについて、重複領域での局所空間モデルの対応付けを行って、互いに対応付けられたPの部分とPの部分との間の回転並進パラメータRti_jを求める。つまり、互いに対応付けられたPの部分とPの部分との一方にRti_jに相当する座標変換を行うと、他方に好適に整合する。Rti_jは並進の3自由度(x,y,z)および回転の3自由度(ρ,θ,φ)からなるベクトルで表現できる。具体的には、
Rti_j=(ρi_j,θi_j,φi_j,xi_j,yi_j,zi_j
という形式となる。
For any two P i and P j having an overlapping region, the local space model is correlated in the overlapping region, and the rotational translation between the P i and P j portions associated with each other The parameter Rt i_j is obtained. That is, when performing a coordinate transformation corresponding to Rt I_j to one of the parts and P j moieties of P i associated with each other, suitably matched to the other. Rt i — j can be expressed by a vector composed of three degrees of freedom of translation (x, y, z) and three degrees of freedom of rotation (ρ, θ, φ). In particular,
Rt i_j = (ρ i_j , θ i_j , φ i_j , x i_j , y i_j , z i_j )
It becomes the form.

また共通座標系にて位置合わせされたPの並進の3自由度(x,y,z)および回転の3自由度(ρ,θ,φ)からなる位置姿勢パラメータをベクトルXで表す。具体的には、
=(ρ,θ,φ,x,y,z
という形式となる。
A position and orientation parameter composed of three degrees of freedom (x, y, z) of translation and three degrees of freedom of rotation (ρ, θ, φ) of P i aligned in the common coordinate system is represented by a vector X i . In particular,
X i = (ρ i , θ i , φ i , x i , y i , z i )
It becomes the form.

重複領域を有する2つのP,Pについての位置姿勢の差(X−X)がRti_jに相当するものであれば、Rti_jに基づく座標変換によりP,Pの位置姿勢は整合するが、一般には(X−X)はRti_jによる座標変換で相殺できるとは限らず、この場合、P,Pの位置姿勢は完全には整合せず、(X−X)−Rti_jが誤差として残る。 Two P i with overlapping regions, as long as the difference in position and orientation of P j (X i -X j) corresponds to Rt I_j, P i, the position and orientation of P j by the coordinate conversion based on Rt I_j Although aligned generally (X i -X j) is not necessarily be canceled by coordinate conversion by Rt I_j, in this case, P i, the position and orientation of the P j are not completely matched, (X i -X j) -Rt i_j remains as an error.

空間モデル処理装置1へ補正対象として入力される空間モデルは例えば、重複領域を有する2つのP,Pについての(X−X)とRti_jとの差(マハラノビス距離)を空間モデル全体で最小化するように局所空間モデルを位置合わせされている。具体的には、重複領域を有する2つのP,Pの全ての組み合わせについての上記マハラノビス距離の総和として次式で定義する誤差εを最小化するようにXが定められる。ここで、Ci_jはベクトルXの6つの要素に対応する共分散行列である。 The spatial model input as a correction target to the spatial model processing device 1 is, for example, the difference between the (X i −X j ) and Rt i_j (Mahalanobis distance) for two P i and P j having overlapping regions. The local space model is aligned to minimize the whole. Specifically, X i is determined so as to minimize the error ε A defined by the following equation as the sum of the Mahalanobis distances for all combinations of two P i and P j having overlapping regions. Here, C i — j is a covariance matrix corresponding to the six elements of the vector X i .

Figure 2018106643
Figure 2018106643

このように位置合わせされた空間モデルは上述したように、局所空間モデルの重複部分の本来同じ平面間にズレが生じ得る。これに対して空間モデル補正手段32は上述の追加条件により、利用者の指示に基づく目標面に局所空間モデルの対応平面の位置姿勢が近づくように誘導して、位置合わせされた空間モデルを上述のズレが縮小・解消するように修正する。   As described above, the spatial model aligned in this way may be displaced between the originally same planes of the overlapping portions of the local space model. On the other hand, the space model correction means 32 guides the position and orientation of the corresponding plane of the local space model to approach the target surface based on the user's instruction according to the above-described additional conditions, and the aligned space model is described above. Correct the gap so that it is reduced or eliminated.

具体的には、上述した空間モデルにおける局所空間モデルの位置合わせと同様、マハラノビス距離を用いて定義した誤差の最小化により当該修正を行うことができる。ここで、目標面に対応する平面を有する任意のPについて、当該平面と目標面との間の回転並進パラメータをRti_refと表す。Rti_refはRti_jと同様の6成分のベクトルで表現できる。また、目標面の位置姿勢パラメータをXと同様の6成分のベクトルXrefで表す。 Specifically, the correction can be performed by minimizing an error defined by using the Mahalanobis distance, as in the above-described alignment of the local space model in the space model. Here, for any P i having a plane corresponding to the target surface, it represents the rotation translation parameters between the plane and the target surface and Rt i_ref. Rt i_ref can be expressed by a six-component vector similar to Rt i_j . Further, the position and orientation parameter of the target surface is represented by a six-component vector X ref similar to X i .

空間モデル補正手段32はPと目標面との位置姿勢パラメータの差分(X−Xref)とRti_refとに関するマハラノビス距離を空間モデル全体で最小化するようにXを修正する。具体的には、ステップS17にて、目標面に対応する平面を有する全てのPについての上記マハラノビス距離の総和として次式で定義する誤差εを用い、当該誤差εを最小化するXが求められる。そして、当該Xの補正前のXに対する差が位置姿勢の補正量として算出される。ここで、Ci_refはCi_jと同様、共分散行列である。 The spatial model correction unit 32 corrects X i so as to minimize the Mahalanobis distance regarding the difference (X i −X ref ) between the position and orientation parameters between P i and the target plane and Rt i_ref in the entire spatial model. Specifically, at step S17, using the error epsilon R defined by the following equation as the sum of the Mahalanobis distances for all P i having a plane corresponding to the target surface, to minimize the error epsilon R X i is required. The difference from the X i before correction of the X i is calculated as a correction amount of the position and orientation. Here, C i_ref is a covariance matrix, similar to C i_j .

Figure 2018106643
Figure 2018106643

つまり、空間モデル補正手段32は、既に行われている位置合わせに加えて、目標面への整合を図る修正を行うことで、例えばε=ε+εで定義される誤差の和εが最小化されるXが最適な局所領域の配置として与えられる。なお、εにおけるεとεとの重みは変更することができ、例えば、定数λ(但しλ>0)を用いて、εは一般的にε=λ・ε+(1−λ)・εとすることができる。 In other words, the spatial model correction unit 32 performs correction for alignment with the target surface in addition to the alignment that has already been performed, so that the error sum ε defined by, for example, ε = ε A + ε R is minimized. X i is given as an optimal local region arrangement. Note that the weights of ε A and ε R in ε can be changed. For example, using a constant λ (where λ> 0), ε is generally ε = λ · ε A + (1−λ). · ε can be R.

空間モデル補正手段32は、各局所領域の局所空間モデルを、ステップS17にて算出した当該局所領域についての補正量だけ回転・並進させて空間モデルを補正し、補正した空間モデルを空間モデル記憶手段20に記憶させる(ステップS18)。つまり、各局所領域のローカル座標を変換する補正が行われ、各局所領域の三次元点群に含まれる点のそれぞれは、補正量だけ回転・並進される。補正の後、処理はステップS10に戻される。   The spatial model correcting unit 32 corrects the spatial model by rotating and translating the local spatial model of each local region by the correction amount for the local region calculated in step S17, and the corrected spatial model is stored in the spatial model storage unit. 20 (step S18). That is, correction for converting the local coordinates of each local region is performed, and each point included in the three-dimensional point group of each local region is rotated and translated by the correction amount. After correction, the process returns to step S10.

[変形例]
上記実施形態においては、入力手段41はユーザ操作に応じて線分を入力する例を示したが、入力手段41はUSBインターフェースなどの外部からのファイル入力手段であってもよい。すなわち、入力手段41は床面など基準平面に対応する平面上での1または複数の線分が描かれた画像ファイルを読み込み、当該ファイルの線分を目標面の位置を表す線分情報として入力する。
[Modification]
In the above-described embodiment, the input unit 41 inputs a line segment in response to a user operation. However, the input unit 41 may be an external file input unit such as a USB interface. That is, the input means 41 reads an image file in which one or more line segments are drawn on a plane corresponding to a reference plane such as a floor surface, and inputs the line segments of the file as line segment information indicating the position of the target plane. To do.

なお、その場合、密度画像生成手段31による密度画像の生成および表示手段40による密度画像の表示は省略することもできる。   In this case, the generation of the density image by the density image generation unit 31 and the display of the density image by the display unit 40 can be omitted.

あるいは、その場合、密度画像を利用して、ユーザに画像ファイルに描かれた画像の回転・並進を指示入力させてもよい。例えば、表示手段40は読み込んだファイルの画像を密度画像に重畳して表示し、ユーザから密度画像上の2点とそれらの点に対応する画像ファイル中の線分上の2点とをマウスで入力させ、線分上の2点を密度画像上の2点に一致させる二次元の回転・並進を画像ファイルに対して行い、回転・並進後の線分を空間モデル補正手段32に出力する。   Alternatively, in that case, the density image may be used to cause the user to input an instruction for rotation / translation of the image drawn in the image file. For example, the display means 40 superimposes and displays the image of the read file on the density image, and the mouse displays two points on the density image and two points on the line segment in the image file corresponding to those points. Two-dimensional rotation / translation is performed on the image file so that two points on the line segment coincide with two points on the density image, and the line segment after the rotation / translation is output to the space model correction means 32.

1 空間モデル処理装置、2 記憶部、3 制御部、4 ユーザーインターフェース部、20 空間モデル記憶手段、30 基準平面推定手段、31 密度画像生成手段、32 空間モデル補正手段、40 表示手段、41 入力手段。   DESCRIPTION OF SYMBOLS 1 Spatial model processing apparatus, 2 Storage part, 3 Control part, 4 User interface part, 20 Spatial model storage means, 30 Reference plane estimation means, 31 Density image generation means, 32 Spatial model correction means, 40 Display means, 41 Input means .

Claims (3)

基準平面とする物体平面と当該基準平面に対し垂直な物体平面とが存在する空間について、三次元計測により得られた点群で構成された空間モデルを補正する空間モデル処理装置であって、
前記空間内の複数の局所領域それぞれについて当該局所領域のローカル座標系での前記点群で構成された局所空間モデルを前記複数の局所領域に共通する共通座標系にて統合した前記空間モデルを記憶している空間モデル記憶手段と、
前記空間モデルにおいて面積が最大である物体平面に対応する部分を検出し、当該部分に沿った平面を前記基準平面として推定する基準平面推定手段と、
前記基準平面に対し垂直な物体平面の前記基準平面上での位置を表す線分を利用者に入力させる入力手段と、
前記線分を含み前記基準平面推定手段が推定した推定基準平面に垂直な目標面を設定し、前記空間モデルから前記目標面に対応する位置及び形状を有する注目部分を抽出し、前記共通座標系において前記目標面に前記注目部分が整合するように前記局所空間モデルを移動する空間モデル補正手段と、
を備えたことを特徴とする空間モデル処理装置。
A space model processing device for correcting a space model composed of point clouds obtained by three-dimensional measurement for a space in which an object plane serving as a reference plane and an object plane perpendicular to the reference plane exist,
For each of a plurality of local regions in the space, the spatial model in which the local space model composed of the point group in the local coordinate system of the local region is integrated in a common coordinate system common to the plurality of local regions is stored. A spatial model storage means,
A reference plane estimating means for detecting a portion corresponding to the object plane having the largest area in the spatial model and estimating a plane along the portion as the reference plane;
Input means for allowing a user to input a line segment representing a position on the reference plane of an object plane perpendicular to the reference plane;
A target plane that includes the line segment and is perpendicular to the estimated reference plane estimated by the reference plane estimation means is set, and a portion of interest having a position and shape corresponding to the target plane is extracted from the spatial model, and the common coordinate system A spatial model correcting means for moving the local spatial model so that the target portion is aligned with the target surface at
A spatial model processing device comprising:
前記空間モデルを前記推定基準平面に投影した投影像における前記点群の密度に応じて画素値を定めた密度画像を生成する密度画像生成手段と、
前記密度画像を表示する表示手段と、をさらに備え、
前記入力手段は、前記利用者に当該密度画像上にて前記線分を入力させること、
を特徴とする請求項1に記載の空間モデル処理装置。
Density image generation means for generating a density image in which pixel values are determined according to the density of the point group in a projection image obtained by projecting the spatial model onto the estimation reference plane;
Display means for displaying the density image,
The input means allows the user to input the line segment on the density image;
The spatial model processing apparatus according to claim 1, wherein:
前記密度画像生成手段は、前記空間モデルから、前記推定基準平面に垂直であり且つ互いに直交する2平面を検出し、当該2平面それぞれの前記推定基準平面への投影像である線分の方向を前記密度画像の水平方向及び垂直方向に設定すること、を特徴とする請求項2に記載の空間モデル処理装置。   The density image generation means detects two planes that are perpendicular to the estimation reference plane and orthogonal to each other from the spatial model, and determine the direction of the line segment that is a projection image of each of the two planes on the estimation reference plane. The spatial model processing apparatus according to claim 2, wherein the density image is set in a horizontal direction and a vertical direction.
JP2016255908A 2016-12-28 2016-12-28 Spatial model processor Active JP6396982B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016255908A JP6396982B2 (en) 2016-12-28 2016-12-28 Spatial model processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016255908A JP6396982B2 (en) 2016-12-28 2016-12-28 Spatial model processor

Publications (2)

Publication Number Publication Date
JP2018106643A true JP2018106643A (en) 2018-07-05
JP6396982B2 JP6396982B2 (en) 2018-09-26

Family

ID=62788104

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016255908A Active JP6396982B2 (en) 2016-12-28 2016-12-28 Spatial model processor

Country Status (1)

Country Link
JP (1) JP6396982B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111311742A (en) * 2020-03-27 2020-06-19 北京百度网讯科技有限公司 Three-dimensional reconstruction method, three-dimensional reconstruction device and electronic equipment
WO2021220346A1 (en) * 2020-04-27 2021-11-04 三菱電機株式会社 Elevator 3-d data processing device
JP7097125B1 (en) 2021-12-22 2022-07-07 株式会社セルシス Video generation method and image generation program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112912927A (en) 2018-10-18 2021-06-04 富士通株式会社 Calculation method, calculation program, and information processing apparatus

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09138870A (en) * 1995-11-15 1997-05-27 Canon Inc Picture processor and picture processing method
JP2006098256A (en) * 2004-09-30 2006-04-13 Ricoh Co Ltd Three-dimensional surface model preparing system, image processing system, program, and information recording medium

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09138870A (en) * 1995-11-15 1997-05-27 Canon Inc Picture processor and picture processing method
JP2006098256A (en) * 2004-09-30 2006-04-13 Ricoh Co Ltd Three-dimensional surface model preparing system, image processing system, program, and information recording medium

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111311742A (en) * 2020-03-27 2020-06-19 北京百度网讯科技有限公司 Three-dimensional reconstruction method, three-dimensional reconstruction device and electronic equipment
JP2021157773A (en) * 2020-03-27 2021-10-07 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド Three-dimensional reconstruction method, three-dimensional reconstruction apparatus, and electronic device
JP7366878B2 (en) 2020-03-27 2023-10-23 アポロ インテリジェント ドライビング テクノロジー(ペキン)カンパニー リミテッド 3D reconstruction method, 3D reconstruction device and electronic equipment
WO2021220346A1 (en) * 2020-04-27 2021-11-04 三菱電機株式会社 Elevator 3-d data processing device
JP7420231B2 (en) 2020-04-27 2024-01-23 三菱電機株式会社 Elevator 3D data processing equipment
JP7097125B1 (en) 2021-12-22 2022-07-07 株式会社セルシス Video generation method and image generation program
WO2023119715A1 (en) * 2021-12-22 2023-06-29 株式会社セルシス Video generation method and image generation program
JP2023093276A (en) * 2021-12-22 2023-07-04 株式会社セルシス Video generation method and image generation program

Also Published As

Publication number Publication date
JP6396982B2 (en) 2018-09-26

Similar Documents

Publication Publication Date Title
US10896497B2 (en) Inconsistency detecting system, mixed-reality system, program, and inconsistency detecting method
JP5548482B2 (en) Position / orientation measuring apparatus, position / orientation measuring method, program, and storage medium
JP6396982B2 (en) Spatial model processor
JP5248806B2 (en) Information processing apparatus and information processing method
CN105026997B (en) Optical projection system, semiconductor integrated circuit and image correcting method
JP5671281B2 (en) Position / orientation measuring apparatus, control method and program for position / orientation measuring apparatus
US10930008B2 (en) Information processing apparatus, information processing method, and program for deriving a position orientation of an image pickup apparatus using features detected from an image
JP6092530B2 (en) Image processing apparatus and image processing method
JP6352208B2 (en) 3D model processing apparatus and camera calibration system
KR101260132B1 (en) Stereo matching process device, stereo matching process method, and recording medium
WO2015049853A1 (en) Dimension measurement device, dimension measurement method, dimension measurement system, and program
JP2017106959A (en) Projection device, projection method, and computer program for projection
CN109523595A (en) A kind of architectural engineering straight line corner angle spacing vision measuring method
KR101453143B1 (en) Stereo matching process system, stereo matching process method, and recording medium
JP2019020997A (en) Information processing apparatus, control method thereof, and program
JP2008309595A (en) Object recognizing device and program used for it
JPH07103715A (en) Method and apparatus for recognizing three-dimensional position and attitude based on visual sense
Chen et al. Low cost and efficient 3D indoor mapping using multiple consumer RGB-D cameras
JP2004030408A (en) Three-dimensional image display apparatus and display method
JP2015155911A (en) Dimension measurement method
JP2005174151A (en) Three-dimensional image display device and method
JPH07152810A (en) Environment model creating device
JP2013148467A (en) Measurement device, method, and program
JP4409924B2 (en) Three-dimensional image display apparatus and method
US20230334809A1 (en) Three-dimensional data scale setting method and three-dimensional data scale setting program

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180821

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180830

R150 Certificate of patent or registration of utility model

Ref document number: 6396982

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250