JP2017036998A - Color information determination device and image generation device - Google Patents

Color information determination device and image generation device Download PDF

Info

Publication number
JP2017036998A
JP2017036998A JP2015158439A JP2015158439A JP2017036998A JP 2017036998 A JP2017036998 A JP 2017036998A JP 2015158439 A JP2015158439 A JP 2015158439A JP 2015158439 A JP2015158439 A JP 2015158439A JP 2017036998 A JP2017036998 A JP 2017036998A
Authority
JP
Japan
Prior art keywords
point
color information
data
color
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2015158439A
Other languages
Japanese (ja)
Inventor
徳裕 中村
Tokuhiro Nakamura
徳裕 中村
晃仁 関
Akihito Seki
晃仁 関
雅起 山崎
Masaki Yamazaki
雅起 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2015158439A priority Critical patent/JP2017036998A/en
Publication of JP2017036998A publication Critical patent/JP2017036998A/en
Abandoned legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a color information determination device capable of providing an easily viewable image, and an image generation device.SOLUTION: A color information determination device is constituted of a first acquisition section and a determination section. The first acquisition section acquires point group data being measured by measuring instruments including a distance meter, including a plurality of point data representing individual positions of a plurality of points included in an object including a first portion and representing a three-dimensional shape of the object and information related to a positional relation of the distance meter to the object when the point group data are measured. The determination section determines color information for each of the plurality of point data based on arrangement information based on at least any of a position, a shape and a size of the first portion and information related to the positional relation of the distance meter.SELECTED DRAWING: Figure 1

Description

本発明の実施形態は、色情報決定装置および画像生成装置に関する。   Embodiments described herein relate generally to a color information determination device and an image generation device.

対象物の3次元形状を計測したデータを用いて、画像を生成することができる。このような画像を用いて、例えば、対象物のうちの任意の部分の形状を確認することができる。このような画像において、見易い画像を提供することが望まれる。   An image can be generated using data obtained by measuring the three-dimensional shape of the object. Using such an image, for example, the shape of an arbitrary part of the object can be confirmed. In such an image, it is desired to provide an easy-to-see image.

特開2011−223582号公報JP 2011-223582 A

本発明の実施形態は、見易い画像を提供することができる色情報決定装置および画像生成装置を提供する。   Embodiments of the present invention provide a color information determination device and an image generation device that can provide an easy-to-see image.

本発明の実施形態によれば、第1取得部と、決定部と、を備えた色情報決定装置が提供される。前記第1取得部は、距離計を含む計測器によって計測され、第1部分を含む対象物に含まれる複数の点のそれぞれの位置を表す複数の点データを含み、前記対象物の3次元形状を表す点群データと、前記点群データが計測されたときの前記距離計の前記対象物に対する位置関係に関する情報と、を取得する。前記決定部は、前記第1部分の位置、形状及び大きさの少なくともいずれかに基づく配置情報と、前記距離計の前記位置関係に関する前記情報と、に基づいて前記複数の点データのそれぞれについて色情報を決定する。   According to the embodiment of the present invention, a color information determination device including a first acquisition unit and a determination unit is provided. The first acquisition unit is measured by a measuring instrument including a distance meter, and includes a plurality of point data representing respective positions of a plurality of points included in the object including the first portion, and the three-dimensional shape of the object And information regarding the positional relationship of the distance meter with respect to the object when the point cloud data is measured. The determination unit is configured to color each of the plurality of point data based on arrangement information based on at least one of a position, a shape, and a size of the first portion and the information on the positional relationship of the distance meter. Determine information.

第1の実施形態に係る色情報決定装置を例示するブロック図である。1 is a block diagram illustrating a color information determination device according to a first embodiment. 第1の実施形態に係る色情報決定装置を例示する模式図である。It is a schematic diagram which illustrates the color information determination apparatus which concerns on 1st Embodiment. 第1の実施形態に係る色情報決定装置の処理を例示するフローチャートである。It is a flowchart which illustrates the process of the color information determination apparatus which concerns on 1st Embodiment. 点群データを例示する模式図である。It is a schematic diagram which illustrates point cloud data. 図5(a)〜図5(c)は、色情報が割り付けられた点群データを例示する模式図である。FIG. 5A to FIG. 5C are schematic views illustrating point group data to which color information is assigned. 第1の実施形態に係る画像生成装置を例示するブロック図である。1 is a block diagram illustrating an image generation apparatus according to a first embodiment. 第1の実施形態に係る画像生成装置の処理を例示するフローチャートである。3 is a flowchart illustrating processing of the image generation apparatus according to the first embodiment. 図8(a)〜図8(c)は、表示画像生成部における処理を例示する模式図である。FIG. 8A to FIG. 8C are schematic views illustrating processing in the display image generation unit. 第2の実施形態に係る色情報決定装置を例示するブロック図である。It is a block diagram which illustrates the color information deciding device concerning a 2nd embodiment. 第2の実施形態に係る色情報決定装置の処理を例示するフローチャートである。It is a flowchart which illustrates the process of the color information determination apparatus which concerns on 2nd Embodiment. 計測対象面群の算出を例示するフローチャートである。It is a flowchart which illustrates calculation of a measurement object surface group. 計測対象面群の算出を例示する模式図である。It is a schematic diagram which illustrates calculation of a measurement object surface group. 第2の実施形態に係る画像生成装置を例示するブロック図である。It is a block diagram which illustrates the image generation device concerning a 2nd embodiment. 第2の実施形態に係る画像生成装置の処理を例示するフローチャートである。6 is a flowchart illustrating processing of an image generation apparatus according to a second embodiment.

以下に、各実施の形態について図面を参照しつつ説明する。
なお、図面は模式的または概念的なものであり、各部分の厚みと幅との関係、部分間の大きさの比率などは、必ずしも現実のものと同一とは限らない。また、同じ部分を表す場合であっても、図面により互いの寸法や比率が異なって表される場合もある。
なお、本願明細書と各図において、既出の図に関して前述したものと同様の要素には同一の符号を付して詳細な説明は適宜省略する。
Each embodiment will be described below with reference to the drawings.
The drawings are schematic or conceptual, and the relationship between the thickness and width of each part, the size ratio between the parts, and the like are not necessarily the same as actual ones. Further, even when the same part is represented, the dimensions and ratios may be represented differently depending on the drawings.
Note that, in the present specification and each drawing, the same elements as those described above with reference to the previous drawings are denoted by the same reference numerals, and detailed description thereof is omitted as appropriate.

(第1の実施形態)
図1は、第1の実施形態に係る色情報決定装置を例示するブロック図である。
図1に表したように、本実施形態に係る色情報決定装置101は、第1取得部1と、決定部2と、を含む。決定部2は、計測方向決定部21と色情報決定部22とを含む。本実施形態に係る色情報決定装置101は、対象物の3次元形状を表す点群データに対して色情報を決定する装置である。例えば、色情報決定装置101は、点群データに色情報を割り付ける。
(First embodiment)
FIG. 1 is a block diagram illustrating a color information determination device according to the first embodiment.
As illustrated in FIG. 1, the color information determination apparatus 101 according to the present embodiment includes a first acquisition unit 1 and a determination unit 2. The determination unit 2 includes a measurement direction determination unit 21 and a color information determination unit 22. The color information determination device 101 according to the present embodiment is a device that determines color information for point cloud data representing a three-dimensional shape of an object. For example, the color information determination apparatus 101 assigns color information to point cloud data.

点群データは、例えば、レーザスキャナやレーザレンジファインダ等の測域センサ(距離計)を有する計測器を用いて計測される。
第1取得部1は、計測された点群データと、計測時の距離計(計測器)の位置と、計測時の距離計(計測器)の姿勢と、を取得する。
決定部2は、後述の計測対象物と、取得された距離計の姿勢と、の関係に応じて、点群データに色情報を割り付ける。
The point cloud data is measured using a measuring instrument having a range sensor (distance meter) such as a laser scanner or a laser range finder, for example.
The first acquisition unit 1 acquires the measured point cloud data, the position of a distance meter (measurement device) at the time of measurement, and the attitude of the distance meter (measurement device) at the time of measurement.
The determination unit 2 assigns color information to the point cloud data in accordance with the relationship between a measurement object described later and the acquired attitude of the distance meter.

例えば、色情報が割り付けられた点群データに基づいて、対象物の3次元形状を表す形状データをディスプレイ等に表示することができる。これにより、見易く色付けされた画像を得ることができる。例えば、使用者は、このような画像上において、形状データによって表された形状上の2点を計測基準点として選択する。形状データに基づいて、選択された2点間の距離を算出することができる。これにより、使用者は、点群データが計測された対象物の、例えば任意の部分の寸法や長さを得ることができる。   For example, shape data representing the three-dimensional shape of the object can be displayed on a display or the like based on point cloud data to which color information is assigned. Thereby, it is possible to obtain a color image that is easy to see. For example, the user selects two measurement points on the shape represented by the shape data on such an image. Based on the shape data, the distance between the two selected points can be calculated. Thereby, the user can obtain, for example, the size and length of an arbitrary portion of the object whose point cloud data is measured.

実施形態に係る装置(色情報決定装置、および、後述の画像生成装置)に含まれる各ブロックには、CPU(Central Processing Unit)やメモリなどを含む演算装置を用いることができる。実施形態に係る装置の一部または全部には、LSI(Large Scale Integration)等の集積回路またはIC(Integrated Circuit)チップセットを用いることができる。図示した各ブロックに個別の回路を用いてもよいし、一部または全部を集積した回路を用いてもよい。各ブロック同士が一体として設けられてもよいし、一部のブロックが別に設けられてもよい。また、各ブロックのそれぞれにおいて、その一部が別に設けられてもよい。集積化には、LSIに限らず、専用回路または汎用プロセッサを用いてもよい。また、取得部には有線又は無線を介して外部と通信する入出力インターフェースや入出力端子を用いることができる。   An arithmetic device including a CPU (Central Processing Unit), a memory, and the like can be used for each block included in the devices (color information determination device and image generation device described later) according to the embodiment. An integrated circuit such as an LSI (Large Scale Integration) or an IC (Integrated Circuit) chip set can be used for part or all of the apparatus according to the embodiment. An individual circuit may be used for each block shown, or a circuit in which a part or all of the blocks are integrated may be used. Each block may be provided integrally, or a part of the blocks may be provided separately. In addition, a part of each block may be provided separately. The integration is not limited to an LSI, and a dedicated circuit or a general-purpose processor may be used. In addition, an input / output interface or an input / output terminal that communicates with the outside through a wired or wireless connection can be used as the acquisition unit.

図示した各ブロックは、通信網を介して、直接的、または間接的に、相互に通信可能な形態となっている。例えば、各ブロックは、形状データ等を相互に送受信することが可能である。通信網の種類は、任意である。例えば、各ブロックは、建物内に設置されたLAN(Local Area Network)を介して、相互に通信可能な形態であってもよい。また、各ブロックは、インターネット等のネットワーク(クラウド)を介して、相互に通信可能な形態であってもよい。なお、実施形態の説明において例示するブロック図は、実施形態に係る装置(色情報決定装置および画像生成装置)の要部構成の一例であり、必ずしも実際のプログラムモジュールの構成とは一致しない場合がある。各ブロックは、別々の装置であって、別々に設置されていてもよい。   Each block shown in the figure is configured to be able to communicate with each other directly or indirectly via a communication network. For example, each block can transmit and receive shape data and the like. The type of communication network is arbitrary. For example, the blocks may be configured to communicate with each other via a LAN (Local Area Network) installed in a building. In addition, the blocks may be in a form that can communicate with each other via a network (cloud) such as the Internet. The block diagram illustrated in the description of the embodiment is an example of a main configuration of the apparatus (color information determination apparatus and image generation apparatus) according to the embodiment, and may not necessarily match the actual configuration of the program module. is there. Each block is a separate device and may be installed separately.

図2は、第1の実施形態に係る色情報決定装置の使用状況を例示する模式図である。
3次元形状が計測される対象物60は、第1部分P1を含む。
図2に表したように、対象物60は、Z軸方向(第1延在方向)に延在する。例えば、対象物60の形状は、Z軸方向に延在する筒状の部分を含む。第1部分P1は、Z軸方向に対して例えば垂直な方向、または、Z軸方向に対して例えば平行な方向、を基準として配置された部材等である。なお、Z軸方向に対して垂直な方向をX軸方向とし、Z軸方向およびX軸方向に対して垂直な方向をY軸方向とする。
FIG. 2 is a schematic view illustrating the usage status of the color information determination device according to the first embodiment.
The target object 60 whose three-dimensional shape is measured includes a first portion P1.
As illustrated in FIG. 2, the object 60 extends in the Z-axis direction (first extending direction). For example, the shape of the object 60 includes a cylindrical portion that extends in the Z-axis direction. The first portion P1 is a member or the like that is arranged on the basis of, for example, a direction perpendicular to the Z-axis direction or a direction parallel to the Z-axis direction. A direction perpendicular to the Z-axis direction is defined as an X-axis direction, and a direction perpendicular to the Z-axis direction and the X-axis direction is defined as a Y-axis direction.

3次元空間では、X軸方向はZ軸を回転軸とした回転方向に対して自由度を有するため、任意に決定してもよい。例えば、後述する計測対象物が繰り返し現れる方向をX軸方向とすることが望ましい。または、具体的な計測対象物が決まっている場合、その対象物が有する部分(例えば必ず存在すると想定される部分)を基準として、X軸方向を設定することが望ましい。例えば、エレベータ昇降路の場合には、エレベータ扉の足元に存在する敷居が伸びる方向をX軸方向とするなどが考えられる。   In the three-dimensional space, the X-axis direction has a degree of freedom with respect to the rotation direction with the Z axis as the rotation axis, and may be arbitrarily determined. For example, it is desirable that the direction in which the measurement object described later appears repeatedly is the X-axis direction. Alternatively, when a specific measurement target is determined, it is desirable to set the X-axis direction with reference to a portion (for example, a portion assumed to be present) that the target has. For example, in the case of an elevator hoistway, the direction in which the sill present at the foot of the elevator door extends may be the X-axis direction.

図2に表した例では、対象物60は、エレベータ昇降路(エレベータ昇降路の内部)であり、第1部分P1は、エレベータ昇降路内に設置されたブラケット61である。この例では、エレベータ昇降路は、さらに、レール62と、壁63と、壁64と、を含む。   In the example shown in FIG. 2, the object 60 is an elevator hoistway (inside the elevator hoistway), and the first portion P1 is a bracket 61 installed in the elevator hoistway. In this example, the elevator hoistway further includes a rail 62, a wall 63, and a wall 64.

壁63および壁64は、互いに対向するエレベータ昇降路の内壁面であり、Z軸方向に延在する。レール62は、エレベータ籠の進行方向を制御するために取り付けられた部材であり、Z軸方向に延在する。ブラケット61は、レールを支えるために壁面に取り付けられる部材である。例えば、複数のブラケット61がエレベータ昇降路内においてZ軸方向に沿って繰り返し配置される。   The wall 63 and the wall 64 are inner wall surfaces of the elevator hoistway facing each other, and extend in the Z-axis direction. The rail 62 is a member that is attached to control the traveling direction of the elevator car, and extends in the Z-axis direction. The bracket 61 is a member attached to the wall surface to support the rail. For example, the plurality of brackets 61 are repeatedly arranged along the Z-axis direction in the elevator hoistway.

例えば、使用者は、計測された3次元の点群データを用いて、ブラケット61間の距離等を計測する。この場合のブラケット61のように、寸法や長さ等の計測の対象に係る部分を「計測対象物」と称する。第1部分P1は、換言すると、計測対象物である。   For example, the user measures the distance between the brackets 61 using the measured three-dimensional point cloud data. Like the bracket 61 in this case, a portion related to a measurement target such as a dimension or a length is referred to as a “measurement target”. In other words, the first part P1 is a measurement object.

使用者は、3次元の形状データを用いて、壁63と壁64との間の距離、または、壁63とレール62との間の距離などを計測してもよい。この場合、計測対象物は、壁63、壁64およびレール62のいずれかである。但し、計測対象物は、上記の例に限られず、例えば対象物60のうちの任意の部分を計測対象物(第1部分)として選択することができる。   The user may measure the distance between the wall 63 and the wall 64 or the distance between the wall 63 and the rail 62 using the three-dimensional shape data. In this case, the measurement object is one of the wall 63, the wall 64, and the rail 62. However, the measurement target is not limited to the above example, and for example, any part of the target 60 can be selected as the measurement target (first part).

なお、以下の実施形態の説明では、説明の便宜上、対象物60がエレベータ昇降路(以下、昇降路)およびその内部に設けられた部材等である場合について説明する。   In the following description of the embodiments, for convenience of explanation, a case will be described in which the object 60 is an elevator hoistway (hereinafter, hoistway), a member provided therein, and the like.

例えば、距離計71を有する計測器75が昇降路内に設置される。例えば、計測器75は、エレベータ籠の上に設置される。移動可能なエレベータ籠上に設置されることで、計測器75は、昇降路内を広範囲に亘って計測することができる。例えば、距離計71の計測器75全体における配置は、予め規定されている。   For example, a measuring instrument 75 having a distance meter 71 is installed in the hoistway. For example, the measuring instrument 75 is installed on an elevator car. By being installed on a movable elevator car, the measuring instrument 75 can measure the inside of the hoistway over a wide range. For example, the arrangement of the distance meter 71 in the entire measuring instrument 75 is defined in advance.

距離計71は、3次元距離計測装置(測域センサ)であり、具体的には、レーザレンジファインダ等が用いられる。例えば、距離計71は、昇降路内にレーザ光を照射し、照射したレーザ光の反射光を測定する。これにより、距離計71は、距離計71から対象物60との間の距離を測定する。距離計71は、例えば、対象物60上の複数の点(領域)にレーザ光を照射する。これにより、距離計71は、対象物60上の複数の点のそれぞれと距離計71との間の距離を測定する。   The distance meter 71 is a three-dimensional distance measuring device (range sensor), and specifically, a laser range finder or the like is used. For example, the distance meter 71 irradiates the hoistway with laser light and measures the reflected light of the irradiated laser light. Thereby, the distance meter 71 measures the distance between the distance meter 71 and the object 60. For example, the distance meter 71 irradiates a plurality of points (regions) on the object 60 with laser light. Thereby, the distance meter 71 measures the distance between each of the plurality of points on the object 60 and the distance meter 71.

距離計71には、ステレオカメラを用いてもよい。ステレオカメラを用いた場合には、画像に基づいて、画像上の各画素において、対象物の奥行を推定する。これにより、3次元点群を得ることができる。   A stereo camera may be used for the distance meter 71. When a stereo camera is used, the depth of the object is estimated at each pixel on the image based on the image. Thereby, a three-dimensional point group can be obtained.

このようにして距離計71によって対象物60の3次元形状を表す点群データを得ることができる。なお、実施形態における点群データの取得方法は、上記の距離計71を用いる方法に限られない。   In this way, point cloud data representing the three-dimensional shape of the object 60 can be obtained by the distance meter 71. In addition, the acquisition method of the point cloud data in the embodiment is not limited to the method using the distance meter 71 described above.

点群データは、複数の点データを含む。複数の点データのそれぞれは、対象物60上の複数の点のそれぞれの位置を表す位置情報である。なお、点群データは、計測対象物上の点に関する点データを含む。
色情報決定装置101は、上記のような複数の点データのそれぞれについて色情報を決定する。これにより、複数の点データのそれぞれに色が割り付けられる。
The point cloud data includes a plurality of point data. Each of the plurality of point data is position information representing the position of each of the plurality of points on the object 60. The point cloud data includes point data related to points on the measurement object.
The color information determination apparatus 101 determines color information for each of the plurality of point data as described above. As a result, a color is assigned to each of the plurality of point data.

次に、色情報決定装置101の各ブロックについて順に説明する。
図3は、第1の実施形態に係る色情報決定装置の処理を例示するフローチャートである。
第1取得部1は、距離計71(計測器75)から昇降路の3次元形状を表現する点群データを取得する(ステップS101)。
Next, each block of the color information determination apparatus 101 will be described in order.
FIG. 3 is a flowchart illustrating the process of the color information determination device according to the first embodiment.
The first acquisition unit 1 acquires point cloud data representing the three-dimensional shape of the hoistway from the distance meter 71 (measurement device 75) (step S101).

さらに、第1取得部1は、点群データが計測されたときの距離計71(計測器75)の対象物60に対する位置関係の情報を取得する。この位置関係の情報は、距離計71の位置の情報と、距離計71の姿勢の情報と、を含む。例えば、第1取得部1は、計測開始時の距離計71の位置データと、計測開始時の距離計71の姿勢データと、を取得する。   Furthermore, the 1st acquisition part 1 acquires the information of the positional relationship with respect to the target object 60 of the distance meter 71 (measurement device 75) when point cloud data are measured. This positional relationship information includes information on the position of the distance meter 71 and information on the attitude of the distance meter 71. For example, the first acquisition unit 1 acquires the position data of the distance meter 71 at the start of measurement and the posture data of the distance meter 71 at the start of measurement.

位置の情報は、例えば、第1取得部1で取得される点群データが定義されている座標系の原点を基準とした場合の3次元座標として表される。また例えば、計測開始時の距離計71の位置を原点としてもよい。   The position information is represented as, for example, three-dimensional coordinates with reference to the origin of the coordinate system in which the point cloud data acquired by the first acquisition unit 1 is defined. For example, the position of the distance meter 71 at the start of measurement may be used as the origin.

ここで、距離計71の姿勢データとは、距離計71の向きの情報である。姿勢データは、第1取得部1で取得される点群データが定義されている座標系における3つのベクトル(以下、3つの姿勢ベクトル)によって表される。この3つのベクトルは、距離計71の物理的な向きと対応しているとする。   Here, the attitude data of the distance meter 71 is information on the direction of the distance meter 71. The posture data is represented by three vectors (hereinafter, three posture vectors) in the coordinate system in which the point cloud data acquired by the first acquisition unit 1 is defined. These three vectors correspond to the physical orientation of the distance meter 71.

以下説明の便宜上、3つの姿勢ベクトルのそれぞれの方向を、X’方向、Y’方向、Z’方向とする。すなわち、3つの姿勢ベクトルをX’、Y’及びZ’と表す。ここで、X’方向は、距離計71の上方を示すベクトルと、距離計71の前方向を示すベクトルと、を含む平面の法線ベクトルに沿った方向である。Y’方向は、距離計71の上方を示すベクトルに沿った方向である。Z’方向は距離計71の前方向を示すベクトルに沿った方向である。なお、距離計71の前方向とは、例えば、距離計71から距離計71が距離を計測する計測領域(計測点)へ向かう方向をいう。   Hereinafter, for convenience of explanation, the directions of the three orientation vectors are defined as an X ′ direction, a Y ′ direction, and a Z ′ direction. That is, the three posture vectors are represented as X ′, Y ′, and Z ′. Here, the X ′ direction is a direction along a normal vector of a plane including a vector indicating the upper side of the distance meter 71 and a vector indicating the front direction of the distance meter 71. The Y ′ direction is a direction along a vector indicating the upper side of the distance meter 71. The Z ′ direction is a direction along a vector indicating the forward direction of the distance meter 71. The forward direction of the distance meter 71 refers to, for example, a direction from the distance meter 71 toward the measurement region (measurement point) where the distance meter 71 measures the distance.

以下では、簡単のため、Z’方向が昇降路の天井方向を向いているとし、X’方向がX軸方向を向いているとする。つまり、距離計71の昇降路に対する向きが定められている場合について説明する。ここで、距離計71の昇降路に対する向きは、Z’方向(距離計71の向きを示すベクトル)と、前述のZ軸方向(昇降路の形状を示すベクトル)と、の関係、及び、X’方向とX軸方向との関係により定まる。すなわち、以下の説明では、Z’方向とZ軸方向とが互いに平行であり、X’方向とX軸方向とが互いに平行であるとする。位置データも、同様に、第1取得部1で取得される点群データが定義されている座標系によって定義されているとする。これにより、距離計71の昇降路に対する位置および距離計71の昇降路に対する向き(姿勢)が取得される。   Hereinafter, for the sake of simplicity, it is assumed that the Z ′ direction faces the ceiling direction of the hoistway and the X ′ direction faces the X-axis direction. That is, the case where the direction of the distance meter 71 with respect to the hoistway is determined will be described. Here, the direction of the distance meter 71 with respect to the hoistway is the relationship between the Z ′ direction (vector indicating the direction of the distance meter 71) and the aforementioned Z-axis direction (vector indicating the shape of the hoistway), and X It depends on the relationship between the 'direction and the X-axis direction. That is, in the following description, it is assumed that the Z ′ direction and the Z axis direction are parallel to each other, and the X ′ direction and the X axis direction are parallel to each other. Similarly, it is assumed that the position data is defined by a coordinate system in which the point cloud data acquired by the first acquisition unit 1 is defined. Thereby, the position with respect to the hoistway of the distance meter 71 and the direction (posture) of the distance meter 71 with respect to the hoistway are acquired.

なお、第1取得部1は、上記の点群データ、姿勢データおよび位置データの少なくともいずれかを記憶した外部記憶からデータを取得してもよい。外部記憶装置は、ハードディスクやCDなどの記憶メディアに限られず、通信網で接続されたサーバを含む。   The first acquisition unit 1 may acquire data from an external storage that stores at least one of the above point cloud data, posture data, and position data. The external storage device is not limited to a storage medium such as a hard disk or a CD, but includes a server connected via a communication network.

姿勢データおよび位置データの取得は、外部記憶からの取得および計測器75からの取得、に限られない。例えば、点群データの位置座標を対象に主成分分析を行い、固有値に対応する主軸を、固有値が大きい順に、姿勢ベクトルX’、Y’、Z’としてもよい。同様に、点群データの位置座標を平均したものを計測器の位置としてもよい。   The acquisition of the posture data and the position data is not limited to the acquisition from the external storage and the acquisition from the measuring instrument 75. For example, the principal component analysis may be performed on the position coordinates of the point cloud data, and the principal axes corresponding to the eigenvalues may be set as the posture vectors X ′, Y ′, and Z ′ in descending order of the eigenvalues. Similarly, it is good also considering what averaged the position coordinate of point cloud data as a position of a measuring device.

例えば、計測の対象に係る計測対象物は、色情報決定装置101の外部から指定される。例えば、使用者が、昇降路の壁面(壁63や壁64等)、ブラケット61およびレール62などからいずれかを選択する。これにより、計測対象物が指定される。   For example, the measurement object related to the measurement target is specified from outside the color information determination apparatus 101. For example, the user selects one of the hoistway wall surfaces (wall 63, wall 64, etc.), bracket 61, rail 62, and the like. Thereby, a measurement object is designated.

計測方向決定部21は、まず、指定された計測対象物に対応する計測対象情報を取得する(ステップS102)。その後、計測方向決定部21は、計測対象情報に基づいて基準方向(基準方向ベクトル)を決定する(ステップS103)。基準方向ベクトルは、色情報決定部22が点群データの色情報を決定するときの基準となるベクトルである。   The measurement direction determination unit 21 first acquires measurement target information corresponding to the designated measurement target (step S102). Thereafter, the measurement direction determination unit 21 determines a reference direction (reference direction vector) based on the measurement target information (step S103). The reference direction vector is a vector serving as a reference when the color information determination unit 22 determines the color information of the point cloud data.

まず、ステップS102において取得される計測対象情報は、計測対象物の昇降路における位置、計測対象物の形状、及び計測対象物の大きさの少なくともいずれかに基づく配置の情報である。   First, the measurement target information acquired in step S102 is arrangement information based on at least one of the position of the measurement target in the hoistway, the shape of the measurement target, and the size of the measurement target.

具体的には、例えば、ブラケット61が計測対象物として指定された場合、昇降路内には、複数の計測対象物(ブラケット61)が並んでいる。例えば、計測対象物は、特定の方向に向かって所定の間隔で配置されている。このとき、計測対象情報は、計測対象物が繰り返し配置されている方向を示すベクトルである。例えば、使用者は、計測現場に距離計71を設置する際に、距離計71から見て各計測対象物が繰り返し並んでいる方向を確認することができる。そして、その方向が計測対象情報として記録される。その後、寸法計測を行う際には、計測対象情報と、姿勢ベクトルと、に基づいて基準方向ベクトルが求められる。
壁63とレール62との間の距離を測定する場合には、計測対象物(第1部分)として、例えば壁63が指定される。このとき、計測対象情報は、壁63(第1部分)からレール62(第2部分)へ向かう方向を示すベクトルである。例えば、計測対象情報は、壁63及びレール62が延在する第1方向Dzに対して垂直な第2方向Dxを示すベクトルである。また、この第2方向Dxは、壁63(第1部分)からレール62(第2部分)へ向かう方向を示す。
Specifically, for example, when the bracket 61 is designated as a measurement object, a plurality of measurement objects (brackets 61) are arranged in the hoistway. For example, the measurement objects are arranged at predetermined intervals in a specific direction. At this time, the measurement target information is a vector indicating the direction in which the measurement target is repeatedly arranged. For example, when installing the distance meter 71 at the measurement site, the user can check the direction in which the measurement objects are repeatedly arranged as viewed from the distance meter 71. The direction is recorded as measurement target information. Thereafter, when dimension measurement is performed, a reference direction vector is obtained based on the measurement target information and the posture vector.
When measuring the distance between the wall 63 and the rail 62, for example, the wall 63 is designated as the measurement object (first portion). At this time, the measurement target information is a vector indicating a direction from the wall 63 (first portion) to the rail 62 (second portion). For example, the measurement target information is a vector indicating a second direction Dx perpendicular to the first direction Dz in which the wall 63 and the rail 62 extend. The second direction Dx indicates a direction from the wall 63 (first portion) toward the rail 62 (second portion).

例えば、図2に関して説明したように、計測対象物の昇降路における配置は、Z軸方向に応じて規定されている。そして、距離計71の向き(Z’方向)は、例えばZ軸方向に対して平行である。これにより、距離計71から見たときの各計測対象物が並ぶ方向等を得ることができる。すなわち、計測対象情報を得ることができる。   For example, as described with reference to FIG. 2, the arrangement of the measurement object in the hoistway is defined according to the Z-axis direction. The direction of the distance meter 71 (Z ′ direction) is, for example, parallel to the Z-axis direction. Thereby, the direction etc. in which each measurement object is located when viewed from the distance meter 71 can be obtained. That is, measurement target information can be obtained.

計測対象情報は、距離計71の配置に応じた姿勢データによって決定される座標系上に定義される。
計測対象情報を正確に与えることは難しい場合があるが、実利用を考えた場合、計測対象情報は大まかに定義されていれば良い。
The measurement target information is defined on a coordinate system determined by attitude data corresponding to the arrangement of the distance meter 71.
Although it may be difficult to give the measurement target information accurately, the measurement target information only needs to be roughly defined in consideration of actual use.

例えば、距離計71の前方に向かう方向に沿って計測対象物が並んでいる場合には、Z’方向のベクトルを計測対象情報としてもよい。距離計71の前方に向かう方向と距離計71の上方に向かう方向との中間付近の方向に沿って計測対象物が並んでいる場合には、Y’方向のベクトルとZ’方向のベクトルとの和を計測対象情報としてもよい。   For example, when measurement objects are arranged along the direction toward the front of the distance meter 71, a vector in the Z ′ direction may be used as the measurement object information. When the measurement objects are arranged along a direction near the middle between the direction toward the front of the distance meter 71 and the direction toward the upper side of the distance meter 71, the vector of the Y ′ direction and the vector of the Z ′ direction are The sum may be used as measurement target information.

昇降路内では、事前に計測対象物や計測対象情報がわかっている。さらに、昇降路内では、姿勢データがある程度再現されるように距離計71が設置可能である。このような場合には、計測対象情報を再利用可能である。姿勢データの再現のためには、例えば、距離計71の特定の部分とエレベータの扉方向との位置関係などを予め決めておく。事前に距離計71の昇降路に対する設置方法を決めることで、姿勢データを再現することができる。   In the hoistway, the measurement object and the measurement object information are known in advance. Further, a distance meter 71 can be installed in the hoistway so that the posture data is reproduced to some extent. In such a case, the measurement target information can be reused. In order to reproduce the attitude data, for example, the positional relationship between a specific portion of the distance meter 71 and the door direction of the elevator is determined in advance. By determining the installation method of the distance meter 71 with respect to the hoistway in advance, the posture data can be reproduced.

以下に、基準方向ベクトル「v_base」の算出手順の例を示す。
(ステップS102)
使用者等によって、計測対象物が指定される。例えばプルダウンメニューなどの選択機能を有するGUI(Graphical User Interface)等を用いて、計測対象物を選択することにより、計測対象物の指定が行われる。計測対象物が指定されたら、計測方向決定部21は、指定された計測対象物に対応する計測対象情報を選択する。
An example of the procedure for calculating the reference direction vector “v_base” is shown below.
(Step S102)
A measurement object is specified by a user or the like. For example, the measurement target is specified by selecting the measurement target using a GUI (Graphical User Interface) having a selection function such as a pull-down menu. When the measurement object is designated, the measurement direction determination unit 21 selects measurement object information corresponding to the designated measurement object.

(ステップS103)
計測対象情報として与えられた方向ベクトルvを、姿勢データの座標系から点群データの座標系に変換する。
(Step S103)
A direction vector v given as measurement target information is converted from a coordinate system of posture data to a coordinate system of point cloud data.

これには、まず、回転行列Rを求める。回転行列Rは、例えば、X、Y、Zで表される姿勢からX’、Y’、Z’で表される姿勢への回転行列として求められる。これを用いた以下の式によって、第1取得部1で取得された姿勢ベクトルを基底とする座標系から、点群データの座標系への変換を行うことができる。
v_base=Rv
このように、基準方向ベクトルv_baseは、計測対象情報(方向ベクトルv)に座標変換が行われたベクトルである。
For this, first, a rotation matrix R is obtained. The rotation matrix R is obtained, for example, as a rotation matrix from the posture represented by X, Y, Z to the posture represented by X ′, Y ′, Z ′. By using the following expression using this, it is possible to convert the coordinate system based on the posture vector acquired by the first acquisition unit 1 to the coordinate system of the point cloud data.
v_base = Rv
As described above, the reference direction vector v_base is a vector obtained by performing coordinate conversion on the measurement target information (direction vector v).

以上、説明したように、計測対象物の昇降路内の配置情報と、距離計71の昇降路に対する位置姿勢(距離計71の対象物60に対する位置関係)と、に基づいて計測対象情報および基準方向ベクトルが与えられる。   As described above, the measurement object information and the reference based on the arrangement information of the measurement object in the hoistway and the position and orientation of the distance meter 71 with respect to the hoistway (positional relationship of the distance meter 71 with respect to the object 60). A direction vector is given.

その後、色情報決定部22は、基準方向ベクトルと位置データとによって定義される平面から点群データによって表された各点の位置までの距離を求める(ステップS104)。その後、色情報決定部22は、ステップS104で求められた値に応じて、点群データに色情報を割り付ける(ステップS105)。点群データによって表された複数の点のそれぞれについての処理は、互いに同様である。そこで以下では、ある1点(第1点)についての処理を示す。   Thereafter, the color information determination unit 22 obtains a distance from the plane defined by the reference direction vector and the position data to the position of each point represented by the point cloud data (step S104). Thereafter, the color information determination unit 22 assigns color information to the point cloud data according to the value obtained in step S104 (step S105). Processing for each of the plurality of points represented by the point cloud data is the same as each other. Therefore, in the following, processing for a certain point (first point) will be described.

(ステップS104)
基準方向ベクトルと位置データとによって定義される平面の方程式を用いて、第1点までの距離base_distを算出する。平面は、例えば、基準方向ベクトルに対して垂直な平面である。
(Step S104)
A distance base_dist to the first point is calculated using a plane equation defined by the reference direction vector and the position data. The plane is, for example, a plane perpendicular to the reference direction vector.

(ステップS105)
色付けの際の基準距離として、予め定められた基準距離color_base(第1距離)が与えられる。基準距離color_baseの値は、任意である。この基準距離color_baseを用いて、以下のような式により、距離の値を1.0までの値に正規化する。正規化された値に基づいて、第1点に割り当てる色を決定する。
color_base’=mod(color_base,base_dist)/base_dist
ここで、mod(a,b)は、aをbで除算したときの剰余を求める関数である。
0.0〜1.0の間に色の基準を設定する。例えば、色の基準として、複数の基準値と、各基準値に対応する色と、を設定する。設定された色の基準を参照して第1点の色を決定する。
(Step S105)
A predetermined reference distance color_base (first distance) is given as a reference distance for coloring. The value of the reference distance color_base is arbitrary. Using this reference distance color_base, the distance value is normalized to a value up to 1.0 by the following equation. Based on the normalized value, a color to be assigned to the first point is determined.
color_base '= mod (color_base, base_dist) / base_dist
Here, mod (a, b) is a function for obtaining a remainder when a is divided by b.
A color reference is set between 0.0 and 1.0. For example, a plurality of reference values and a color corresponding to each reference value are set as the color reference. The color of the first point is determined with reference to the set color standard.

具体的には、算出値(color_base’)が基準値のいずれかと同じであれば、その基準値に対応する色を第1点の色として採用する。算出値が基準値のいずれとも異なる場合は、当該算出値よりも大きい基準値のうち当該算出値に最も近い基準値と、当該算出値よりも小さい値のうち当該算出値に最も近い基準値と、を用いた線形補間により色を求める。   Specifically, if the calculated value (color_base ') is the same as any of the reference values, the color corresponding to the reference value is adopted as the first point color. When the calculated value is different from any of the reference values, a reference value closest to the calculated value among reference values larger than the calculated value and a reference value closest to the calculated value among values smaller than the calculated value are The color is obtained by linear interpolation using.

例えば、色の基準の基準値を、0.0、0.33、および0.66とする。0.0に対応する色を(R(赤),G(緑),B(青))=(255,0,0)とし、0.33に対応する色を(R,G,B)=(0,255,0)とし、0.66に対応する色を(R,G,B)=(0,0,225)とする。基準値同士の間の値の色については、当該値よりも大きい基準値の色と、当該値よりも小さい基準値の色と、に基づいて線形補間により求める。   For example, the reference value of the color reference is set to 0.0, 0.33, and 0.66. The color corresponding to 0.0 is (R (red), G (green), B (blue)) = (255, 0, 0), and the color corresponding to 0.33 is (R, G, B) = (0, 255, 0), and the color corresponding to 0.66 is (R, G, B) = (0, 0, 225). The color of the value between the reference values is obtained by linear interpolation based on the reference value color larger than the value and the reference value color smaller than the value.

例えば、color_base’=0.2の場合には、0.2から0.0までの距離および0.2から0.33までの距離に応じて、(R,G,B)=(255,0,0)と(R,G,B)=(0,255,0)とをブレンドすることで、色が決定される。
図4は、点群データを例示する模式図である。
点群データによって表された複数の点は、例えば、第1〜第4点D1〜D4を含む。
第1〜第4点D1〜D4は、直線状に配置されている。例えば、第1〜第4点D1〜D4は、ステップS104において定義された平面の法線の方向に並んでいる。
For example, when color_base ′ = 0.2, (R, G, B) = (255, 0) depending on the distance from 0.2 to 0.0 and the distance from 0.2 to 0.33. , 0) and (R, G, B) = (0,255,0), the color is determined.
FIG. 4 is a schematic diagram illustrating point cloud data.
The plurality of points represented by the point cloud data includes, for example, first to fourth points D1 to D4.
The first to fourth points D1 to D4 are arranged linearly. For example, the first to fourth points D1 to D4 are arranged in the direction of the normal line of the plane defined in step S104.

第3点D3は、第1点D1と第2点D2との間に位置する。第4点D4は、第1点D1と第3点D3との間に位置する。
第1点D1と第3点D3との間の距離Laは、基準距離color_baseである。第2点D2と第3点D3との間の距離Lbは、基準距離color_baseである。すなわち、第3点D3は、第1点D1と第2点D2とを結ぶ線分の中点に位置する。
第1点D1と第4点D4との間の距離Lcは、基準距離color_baseよりも短い。
The third point D3 is located between the first point D1 and the second point D2. The fourth point D4 is located between the first point D1 and the third point D3.
A distance La between the first point D1 and the third point D3 is a reference distance color_base. A distance Lb between the second point D2 and the third point D3 is a reference distance color_base. That is, the third point D3 is located at the midpoint of the line segment connecting the first point D1 and the second point D2.
The distance Lc between the first point D1 and the fourth point D4 is shorter than the reference distance color_base.

点群データは、第1〜第4点データを含む。第1〜第4点データは、それぞれ、第1〜第4点D1〜D4に対応する。   The point cloud data includes first to fourth point data. The first to fourth point data correspond to the first to fourth points D1 to D4, respectively.

第1点D1(第1点データ)について決定される色は、第2点D2(第2点データ)について決定される色と同じである。
第3点D3(第3点データ)について決定される色は、第2点D2(第2点データ)について決定される色と同じである。
第4点D4(第4点データ)について決定される色は、第1点D1(第1点データ)について決定される色とは異なる。
このように、割り付けられる色情報は周期性を有する。すなわち、決定部で割り付けられる色は、あらかじめ定められた距離で同一の色に戻る。
The color determined for the first point D1 (first point data) is the same as the color determined for the second point D2 (second point data).
The color determined for the third point D3 (third point data) is the same as the color determined for the second point D2 (second point data).
The color determined for the fourth point D4 (fourth point data) is different from the color determined for the first point D1 (first point data).
As described above, the assigned color information has periodicity. That is, the color assigned by the determination unit returns to the same color at a predetermined distance.

以上説明したようにして、複数の点(複数の点データ)のそれぞれに色が割り付けられる。これにより、色情報に対応して対象物60上の各点に色が割り付けられる。なお、色の基準を等間隔に設ける必要はなく、色の基準のピッチを任意に調整してもよい。また、色の基準として設定される色も任意である。   As described above, a color is assigned to each of a plurality of points (a plurality of point data). Thereby, a color is allocated to each point on the object 60 corresponding to the color information. In addition, it is not necessary to provide the color reference at equal intervals, and the pitch of the color reference may be arbitrarily adjusted. The color set as the color reference is also arbitrary.

なお、計測対象情報が1つのベクトルである場合を説明したが、これに限るものではない。2つ以上のベクトルを同時に評価しても良い。例えば、四方の壁を計測対象物とした場合には、互いに向かい合う壁と交差するようなベクトルが2つ得られる。その場合には、それぞれの計測対象情報についてbase_distを算出し、最も値の小さいもの、または最も値の大きいものを最終的なbase_distとして色を割り付けることとしても良い。   In addition, although the case where measurement object information was one vector was demonstrated, it does not restrict to this. Two or more vectors may be evaluated simultaneously. For example, when four walls are used as the measurement object, two vectors that intersect with the walls facing each other are obtained. In this case, base_dist may be calculated for each piece of measurement target information, and the color having the smallest value or the largest value may be assigned as the final base_dist.

また、上記では、計測対象情報を点群データの座標系に変換することで処理を行ったが、これに限るものではない。点群データの各点の座標pを姿勢データの座標系に変換することとしても良い。この場合、変換後の座標p’は、位置データをt、回転行列Rを、X’、Y’、Z’で表される姿勢からX、Y、Zで表される姿勢への回転行列とした場合に、以下の式で求めることができる。
p’=R(p−t)
計測対象情報はそのまま基準方向ベクトルとなり、base_distを求めるための平面は基準方向ベクトルと原点によって定義される。
In the above description, the processing is performed by converting the measurement target information to the coordinate system of the point cloud data. However, the present invention is not limited to this. The coordinates p of each point of the point cloud data may be converted into the coordinate system of the attitude data. In this case, the coordinate p ′ after conversion is the position data t, the rotation matrix R, and the rotation matrix from the posture represented by X ′, Y ′, Z ′ to the posture represented by X, Y, Z. In this case, it can be obtained by the following formula.
p ′ = R (pt)
The measurement object information is directly used as a reference direction vector, and a plane for obtaining base_dist is defined by the reference direction vector and the origin.

近年の社会インフラの老朽化の進行に伴い、それらの維持管理、および修繕に対する要求が増加している。それは身近なインフラの1つであるエレベータにおいても例外ではなく、リプレースに対する需要が増大している。リプレースの際には、すでにリプレース前のエレベータを構成する設備が存在している。それらを新規の設備で入れ替えるために、既存設備の寸法を計測して、エレベータ昇降路に適した建材を決定する。しかしながら、建物の利便性の観点から稼働中のエレベータを長時間停止しておくことは難しい。そのため、計測作業を行うことが可能なのは限られた熟練の技術者のみとなっていた。   With the progress of aging social infrastructure in recent years, demands for maintenance and repair of these have increased. This is no exception in elevators, one of the familiar infrastructures, and demand for replacement is increasing. At the time of replacement, there are already facilities that constitute the elevator before replacement. In order to replace them with new equipment, the dimensions of the existing equipment are measured and building materials suitable for the elevator hoistway are determined. However, it is difficult to stop the operating elevator for a long time from the viewpoint of the convenience of the building. Therefore, only a limited number of skilled engineers can perform the measurement work.

これに対し、ある地点から対象物までの3次元距離が計測できるレーザレンジファインダなどの機材を用いて、エレベータ昇降路内の3次元形状データ(形状データ)を取得するという方法がある。このような機材を用いた方法は、3次元計測と呼ばれる。この方法には、エレベータを停止する時間が短くてすむ、熟練の技術が必要ない、リプレース計画を立てる段階でエレベータ昇降路内の形状を再確認できるなどの利点がある。   On the other hand, there is a method of acquiring three-dimensional shape data (shape data) in an elevator hoistway using equipment such as a laser range finder that can measure a three-dimensional distance from a certain point to an object. A method using such equipment is called three-dimensional measurement. This method has advantages such that the time for stopping the elevator is short, skilled techniques are not required, and the shape in the elevator hoistway can be reconfirmed at the stage of making a replacement plan.

ところで、リプレースのために最終的に必要なデータは寸法であるため、3次元計測の場合には、のちほど形状データから寸法が計測される。一般的なリプレース作業においては、壁面間の内寸や、レールから壁面までの距離、レールを支えるために壁面に一定間隔で取り付けられるブラケット間の距離などが測られることになる。つまり、おおよそ同一に近い方向を向いた面を繰り返し計測することになる。このようなシチュエーションは、エレベータ昇降路内に限らず、工場内の配管を把持するガイドや、工場内のレールを固定する固定具など、さまざまな場所に現れる。   By the way, since the data finally required for replacement is a dimension, in the case of three-dimensional measurement, the dimension is measured later from the shape data. In a general replacement operation, the inner dimensions between the wall surfaces, the distance from the rail to the wall surface, the distance between brackets attached to the wall surface at regular intervals to support the rail, and the like are measured. In other words, the measurement is repeated for a surface facing in a direction that is approximately the same. Such a situation appears not only in the elevator hoistway but also in various places such as a guide for gripping piping in the factory and a fixture for fixing the rail in the factory.

前述したように、ディスプレイに表示された形状データ上において、計測基準点を選択するなどの方法によって、計測を行うことができる。このとき、設定された計測基準点によって計測される寸法を明確にするため、計測基準点を端点とする線分を定義し、ディスプレイに表示することが多い。寸法計測は複数回行われるため、計測基準点の組合せを明確にする意味でもこの方法は有用である。   As described above, measurement can be performed by a method such as selecting a measurement reference point on the shape data displayed on the display. At this time, in order to clarify the dimension measured by the set measurement reference point, a line segment having the measurement reference point as an end point is often defined and displayed on the display. Since the dimension measurement is performed a plurality of times, this method is also useful for clarifying the combination of measurement reference points.

このように、形状データから寸法を得ようとする場合には、ディスプレイに表示されたレンダリング結果から計測位置を決定する。しかし、形状データのみからでは、距離感や形状の傾き具合などを把握しにくい場合がある。すなわち、計測対象の識別が難しい場合がある。   Thus, when it is going to obtain a dimension from shape data, a measurement position is determined from the rendering result displayed on the display. However, it may be difficult to grasp the sense of distance, the inclination of the shape, or the like only from the shape data. That is, it may be difficult to identify the measurement target.

これに対して、昇降路内をカメラによって撮像する方法がある。撮像された画像と形状データとを併せて表示することで、計測対象の識別が容易となる。しかし、計測対象がカメラの視点から隠れている場合や、計測対象がカメラの画角の外に位置する場合には、画像は助けにならない。   On the other hand, there is a method of imaging the inside of the hoistway with a camera. By displaying the captured image and the shape data together, the measurement target can be easily identified. However, the image is not helpful when the measurement target is hidden from the viewpoint of the camera or when the measurement target is located outside the angle of view of the camera.

視点からの距離に応じて、点群に色付けを行う参考例の方法もある。色付けを行うことによって、視点からの距離が互いに異なる2点は、互いに異なる色で表示される。これにより、計測対象の識別を容易とすることができる。しかしながら、寸法計測を考えた場合、計測対象に適した色付けを行わないと、かえって計測対象が識別しづらくなってしまう。例えば、視線ベクトルに対して直交する法線ベクトルを持つ2つの平面間の距離を計測したい場合、単純に視点からの距離に基づいて色づけを行うと、2つの平面は単色で着色されない。このため、却って計測対象が見難くなってしまう。   There is also a reference method for coloring a point group according to the distance from the viewpoint. By performing coloring, two points having different distances from the viewpoint are displayed in different colors. Thereby, identification of a measuring object can be made easy. However, when dimension measurement is considered, unless the coloring suitable for the measurement target is performed, it becomes difficult to identify the measurement target. For example, when it is desired to measure the distance between two planes having a normal vector orthogonal to the line-of-sight vector, if the coloring is simply performed based on the distance from the viewpoint, the two planes are not colored in a single color. For this reason, it becomes difficult to see the measurement target.

これに対して、実施形態では、計測器の昇降路に対する位置関係や、計測対象物の昇降路における配置情報(すなわち計測対象情報)に基づいて、基準方向ベクトルが算出される。そして、基準方向ベクトルに基づいて点群データに色情報が割り付けられる。これにより、複数存在する計測対象物のうち選択された計測対象物またはその一部の前後関係を、色で表現することが可能となる。   On the other hand, in the embodiment, the reference direction vector is calculated based on the positional relationship of the measuring instrument with respect to the hoistway and the arrangement information of the measurement object in the hoistway (that is, measurement target information). Then, color information is assigned to the point cloud data based on the reference direction vector. Thereby, it becomes possible to express the anteroposterior relation of the selected measurement object or a part thereof among the plurality of measurement objects.

図5(a)〜図5(c)は、色情報が割り付けられた点群データを例示する模式図である。
例えば、図5(a)に示したような第1位置C1(視点)を設定する。例えば、点群データに基づいて、第1位置C1から昇降路をZ軸方向に沿って見た画像が生成される。
図5(b)および図5(c)は、実施形態に係る色情報決定装置101によって色情報が割り付けられた点群データに基づいて生成された画像を例示する。図5(b)および図5(c)において、ハッチングの濃度は、画像の色を表す。すなわち、ハッチングの濃度が互いに異なる領域は、互いに異なる色で表示されている領域を意味する。
FIG. 5A to FIG. 5C are schematic views illustrating point group data to which color information is assigned.
For example, the first position C1 (viewpoint) as shown in FIG. For example, based on the point cloud data, an image in which the hoistway is viewed along the Z-axis direction from the first position C1 is generated.
FIG. 5B and FIG. 5C illustrate an image generated based on the point cloud data to which color information is assigned by the color information determination apparatus 101 according to the embodiment. In FIG. 5B and FIG. 5C, the hatching density represents the color of the image. In other words, areas having different hatching densities mean areas displayed in different colors.

例えば、壁63からレール62までの距離が計測される場合を考える。このとき、例えば、使用者は、計測対象物として壁63を選択する。この場合、計測対象情報(または基準方向ベクトル)が示す方向は、例えば、図5(a)に示した方向Dbとなる。方向Dbは、例えば、Z軸方向に対して垂直な方向である。この方向Dbに基づいて色情報が点群データに割り付けられる。これにより、例えば、図5(b)に示すような画像が得られる。図5(b)では、X軸方向に沿った凹凸やY軸方向に沿った凹凸が把握しやすいように、色が付されている。例えば、壁63の色は、レール62の色と異なるため、壁63とレール62との前後関係が把握しやすい。   For example, consider a case where the distance from the wall 63 to the rail 62 is measured. At this time, for example, the user selects the wall 63 as the measurement object. In this case, the direction indicated by the measurement target information (or the reference direction vector) is, for example, the direction Db shown in FIG. The direction Db is, for example, a direction perpendicular to the Z-axis direction. Based on this direction Db, color information is assigned to the point cloud data. Thereby, for example, an image as shown in FIG. 5B is obtained. In FIG. 5B, colors are added so that the unevenness along the X-axis direction and the unevenness along the Y-axis direction can be easily grasped. For example, since the color of the wall 63 is different from the color of the rail 62, the front-rear relationship between the wall 63 and the rail 62 is easy to grasp.

例えば、ブラケット61同士の間の距離が計測される場合を考える。このとき、例えば、使用者は、計測対象物としてブラケット61を選択する。この場合、計測対象情報(または基準方向ベクトル)が示す方向は、例えば、図5(a)に示した方向Dcとなる。方向Dcは、例えば、Z軸方向に対して平行な方向である。この方向Dcに基づいて色情報が点群データに割り付けられる。これにより、例えば、図5(c)に示すような画像が得られる。図5(c)では、Z軸方向に沿った凹凸が把握しやすいように、色が付されている。例えば、壁63には、Z軸方向に沿って周期的に色が付されている。そして、1つのブラケット61は、例えば単色で表される。これにより、2つのブラケット61の位置が把握しやすい。   For example, consider a case where the distance between the brackets 61 is measured. At this time, for example, the user selects the bracket 61 as the measurement object. In this case, the direction indicated by the measurement target information (or the reference direction vector) is, for example, the direction Dc shown in FIG. The direction Dc is, for example, a direction parallel to the Z-axis direction. Based on this direction Dc, color information is assigned to the point cloud data. Thereby, for example, an image as shown in FIG. 5C is obtained. In FIG. 5 (c), colors are added so that the unevenness along the Z-axis direction can be easily grasped. For example, the wall 63 is periodically colored along the Z-axis direction. One bracket 61 is represented by a single color, for example. Thereby, it is easy to grasp the positions of the two brackets 61.

実施形態によれば、面の傾きや、繰り返し現れる計測箇所の前後関係が把握しやすくなる。これにより、見易い画像を提供することができる。また、距離計71の姿勢ベクトル、昇降路の延在方向(Z軸方向)を示すベクトル、計測対象物の配置を示すベクトル(計測対象情報)などの複数の種類のベクトルを1つの座標系において適切に処理することが難しいことがある。これに対して、前述のステップS101〜S105によれば、これらを適切に処理して色情報を割り付けることができる。   According to the embodiment, it becomes easy to grasp the inclination of the surface and the front-rear relationship of the measurement locations that appear repeatedly. Thereby, an easy-to-see image can be provided. A plurality of types of vectors such as a posture vector of the distance meter 71, a vector indicating the extending direction of the hoistway (Z-axis direction), a vector indicating the arrangement of the measurement object (measurement target information), and the like in one coordinate system. It can be difficult to handle properly. On the other hand, according to the above-described steps S101 to S105, it is possible to appropriately process these and assign color information.

図6は、第1の実施形態に係る画像生成装置を例示するブロック図である。
図7は、第1の実施形態に係る画像生成装置の処理を例示するフローチャートである。
図6に表したように、本実施形態に係る画像生成装置201は、色情報決定装置101と、表示画像生成部3と、第2取得部4と、を含む。
画像生成装置201に含まれる色情報決定装置101には、図1〜図5に関して説明した色情報決定装置と同様の説明を適用することができる。
FIG. 6 is a block diagram illustrating an image generation apparatus according to the first embodiment.
FIG. 7 is a flowchart illustrating the process of the image generation device according to the first embodiment.
As illustrated in FIG. 6, the image generation device 201 according to the present embodiment includes a color information determination device 101, a display image generation unit 3, and a second acquisition unit 4.
The same description as the color information determination apparatus described with reference to FIGS. 1 to 5 can be applied to the color information determination apparatus 101 included in the image generation apparatus 201.

この例では、計測器75は、撮像機73(カメラ)をさらに含む(図2を参照)。得られた点群データに基づいて、第1画像が生成される。第1画像は、例えば、使用者に表示される表示画像である。   In this example, the measuring instrument 75 further includes an imaging device 73 (camera) (see FIG. 2). A first image is generated based on the obtained point cloud data. The first image is, for example, a display image displayed to the user.

例えば、撮像機73と距離計71との位置関係は、予め規定されている。計測器75の全体における撮像機73の配置は、予め規定されている。撮像機73は、昇降路(対象物60)の少なくとも一部を撮像する。例えば、撮像機73は、複数の画像(以下、第2画像という)を撮像する。   For example, the positional relationship between the imaging device 73 and the distance meter 71 is defined in advance. The arrangement of the imaging device 73 in the entire measuring instrument 75 is defined in advance. The imaging device 73 images at least a part of the hoistway (target object 60). For example, the imaging device 73 captures a plurality of images (hereinafter referred to as second images).

まず、ステップS106において、第2取得部4は、撮像機73によって撮像された第2画像と、当該第2画像が撮像された時の撮像機73の対象物60に対する位置関係の情報を取得する。この位置関係の情報は、撮像機73の位置の情報(位置データ)と、撮像機73の姿勢の情報(姿勢データ)と、を含む。ここで、撮像機73の姿勢データとは、撮像機73の向きの情報である。   First, in step S <b> 106, the second acquisition unit 4 acquires the second image captured by the image capturing device 73 and information on the positional relationship of the image capturing device 73 with respect to the object 60 when the second image is captured. . This positional relationship information includes information on the position of the image pickup device 73 (position data) and information on the posture of the image pickup device 73 (posture data). Here, the attitude data of the image pickup device 73 is information on the orientation of the image pickup device 73.

姿勢データおよび位置データを得る方法としては、ジャイロやGPSなどのセンサを組み合わせる方法や、カメラ画像から撮像機73自身の運動(計測器75の運動)を推定する方法、これらを組み合わせる方法などがある。これにより、撮像機73の昇降路に対する位置、および、撮像機73の昇降路に対する向き(姿勢)、が取得される。   As a method for obtaining posture data and position data, there are a method of combining sensors such as a gyroscope and a GPS, a method of estimating the motion of the image pickup device 73 itself (motion of the measuring device 75) from a camera image, and a method of combining these. . Thereby, the position with respect to the hoistway of the imaging device 73 and the direction (posture) of the imaging device 73 with respect to the hoistway are acquired.

例えば、姿勢データは、撮像機73の前方向を示すベクトル(ベクトルZ’)と、撮像機73の上方向を示すベクトル(ベクトルY’)と、これらのベクトルを含む平面の法線ベクトル(ベクトルX’)と、によって表される。なお、撮像機73の前方向とは、撮像機73から撮像機73が撮像する領域(撮像領域)へ向かう方向をいう。例えば、撮像機73の姿勢データは、距離計71の姿勢データと同じ座標系によって表される。   For example, the posture data includes a vector (vector Z ′) indicating the forward direction of the image pickup device 73, a vector (vector Y ′) indicating the upward direction of the image pickup device 73, and a normal vector (vector) of a plane including these vectors. X ′). Note that the forward direction of the image pickup device 73 refers to a direction from the image pickup device 73 toward an area (image pickup region) where the image pickup device 73 takes an image. For example, the attitude data of the imaging device 73 is represented by the same coordinate system as the attitude data of the distance meter 71.

このように、第2取得部4は、第2画像、撮像時の姿勢データおよび位置データを取得する。以下では、撮像機73によって撮像された第2画像と、当該第2画像が撮像された時の撮像機73の姿勢データと、当該第2画像が撮像された時の撮像機73の位置データと、の組を、センサ画像データと称する。例えば、第2取得部4は、複数のセンサ画像データを取得する。センサ画像データの数は、取得された第2画像の数と同じである。   Thus, the second acquisition unit 4 acquires the second image, the posture data and the position data at the time of imaging. Hereinafter, the second image captured by the image capturing device 73, the attitude data of the image capturing device 73 when the second image is captured, and the position data of the image capturing device 73 when the second image is captured. , Is referred to as sensor image data. For example, the second acquisition unit 4 acquires a plurality of sensor image data. The number of sensor image data is the same as the number of acquired second images.

ステップS107〜S109において、表示画像生成部3は、色情報が決定された(割り付けられた)点群データに基づいて、第1画像を生成する。
まず、表示画像生成部3に第1画像を生成するための視点の情報が入力される。そして、表示画像生成部3は、与えられた視点においてCGレンダリングを行う。
In steps S107 to S109, the display image generation unit 3 generates a first image based on the point cloud data for which color information is determined (allocated).
First, viewpoint information for generating a first image is input to the display image generation unit 3. Then, the display image generation unit 3 performs CG rendering at a given viewpoint.

視点の情報は、視点の位置(第1位置C1)と、視線の向きと、を含む。視点の位置(第1位置C1)は、3次元空間内の任意の位置でよい。視点の向きは、例えば、視線方向(第1方向Da)のベクトル(LookAtベクトル)と、視点から見た上方向を示すベクトル(Upベクトル)と、によって表される。第1画像は、第1位置C1から第1方向Daに沿って対象物60を見た画像である。   The viewpoint information includes the viewpoint position (first position C1) and the direction of the line of sight. The position of the viewpoint (first position C1) may be an arbitrary position in the three-dimensional space. The direction of the viewpoint is represented by, for example, a vector (LookAt vector) in the line-of-sight direction (first direction Da) and a vector (Up vector) indicating the upward direction viewed from the viewpoint. The first image is an image of the object 60 viewed from the first position C1 along the first direction Da.

以下に、表示画像生成部3における処理の流れを示す。
(ステップS107)
表示画像生成部3は、与えられた視点に対応するセンサ画像データが存在するかを判定する。具体的には、表示画像生成部3は、第2取得部4で取得した複数のセンサ画像データのなかに、予め定められた基準に適合するセンサ画像データが存在するかを調べる。
Below, the flow of the process in the display image generation part 3 is shown.
(Step S107)
The display image generation unit 3 determines whether there is sensor image data corresponding to the given viewpoint. Specifically, the display image generation unit 3 checks whether sensor image data that meets a predetermined criterion exists among the plurality of sensor image data acquired by the second acquisition unit 4.

予め定められた基準は、例えば、2つの値(第1値および第2値)について定められた基準である。表示画像生成部3は、第1値が予め定められた第1閾値以下であり、かつ、第2値が予め定められた第2閾値以下であるときに、センサ画像データが基準に適合していると判定する。   The predetermined reference is, for example, a reference determined for two values (first value and second value). When the first value is less than or equal to a predetermined first threshold value and the second value is less than or equal to a predetermined second threshold value, the display image generation unit 3 matches the sensor image data with the reference. It is determined that

ここで、第1値は、撮像機73の位置データと、視点の位置と、に基づく値である。具体的には、第1値は、視点の位置(第1位置C1)と、撮像機73の位置と、の間の距離である。
第2値は、視点の向きと、撮像機73の姿勢データと、に基づく値である。第2値は、少なくとも、第1方向(視線方向)と第2方向(撮像機73の前方向)との間の角度に基づく。具体的には、第2値は、以下の第1〜第3角度によって定義される。第1角度は、視点のLookAtベクトルと、撮像機73のベクトルZ’と、のなす角度である。第2角度は、視点のUpベクトルと、撮像機73のベクトルY’と、のなす角度である。第3角度は、LookAtベクトルおよびUpベクトルに対して垂直なベクトルと、撮像機73のベクトルX’とのなす角度である。例えば、第2値は、第1角度、第2角度および第3角度の総和として定義される。第2値は、第1角度、第2角度および第3角度の最大値として定義されてもよい。なお、第1閾値の値、および、第2閾値の値は、任意である。
Here, the first value is a value based on the position data of the imaging device 73 and the position of the viewpoint. Specifically, the first value is the distance between the position of the viewpoint (first position C1) and the position of the imaging device 73.
The second value is a value based on the orientation of the viewpoint and the attitude data of the imaging device 73. The second value is based on at least the angle between the first direction (line-of-sight direction) and the second direction (front direction of the image pickup device 73). Specifically, the second value is defined by the following first to third angles. The first angle is an angle formed by the LookAt vector of the viewpoint and the vector Z ′ of the image pickup device 73. The second angle is an angle formed by the viewpoint Up vector and the vector Y ′ of the image pickup device 73. The third angle is an angle formed by a vector perpendicular to the LookAt vector and the Up vector and the vector X ′ of the image pickup device 73. For example, the second value is defined as the sum of the first angle, the second angle, and the third angle. The second value may be defined as the maximum value of the first angle, the second angle, and the third angle. Note that the value of the first threshold and the value of the second threshold are arbitrary.

基準に適合するセンサ画像データが存在する場合、表示画像生成部3は、ステップS108に進む。基準に適合するセンサ画像データが存在しない場合、表示画像生成部3は、ステップS109に進む。   If there is sensor image data that meets the reference, the display image generation unit 3 proceeds to step S108. If there is no sensor image data that matches the reference, the display image generation unit 3 proceeds to step S109.

(ステップS108)
図8(a)〜図8(c)は、表示画像生成部における処理を例示する模式図である。
図8(a)に表したように、ステップS108において、表示画像生成部3は、センサ画像データの第2画像を、ビューボリューム76内に配置してレンダリングする。これにより、例えば、図8(b)に示すような画像77が生成される。なお、この時のビューボリューム76は、撮像機73の画角や焦点距離等から求められる。画像認識の分野で一般的に行われるカメラキャリブレーションにより撮像機73の内部パラメータを求め、それに基づいてビューボリューム76を設定してもよい。
(Step S108)
FIG. 8A to FIG. 8C are schematic views illustrating processing in the display image generation unit.
As illustrated in FIG. 8A, in step S <b> 108, the display image generation unit 3 arranges and renders the second image of the sensor image data in the view volume 76. Thereby, for example, an image 77 as shown in FIG. 8B is generated. Note that the view volume 76 at this time is obtained from the angle of view, focal length, and the like of the image pickup device 73. The internal parameters of the image pickup device 73 may be obtained by camera calibration generally performed in the field of image recognition, and the view volume 76 may be set based on the internal parameters.

(ステップS109)
図7に表したように、表示画像生成部3は、ステップS107の後またはステップS108の後に、ステップS109を行う。表示画像生成部3は、視点の情報に基づいて、色が割り付けられた点群データ78をレンダリングする。このとき、ステップS108によって画像77が生成されている場合には、表示画像生成部3は、画像77に点群データ78を追記する。追記する際には、アルファブレンディングによって、ステップS108の結果と、点群データ78のレンダリングの結果と、をブレンドしてもよい。例えば、図8(c)のような画像が得られる。なお、この時に用いられるビューボリュームは、ステップS108と同様の方法で求められる。つまり、ステップS109で用いられるビューボリュームは、撮像機73のパラメータから求められたビューボリュームと共通である。この場合、センサ画像データの第2画像が示す場所と、点群をレンダリングした結果が示す場所とは同じとなる。これにより、第2画像から対象物60のテクスチャなどの視覚的な情報を得ることができるとともに、点群データに割り付けられた色から対象物60の奥行を把握することができる。
(Step S109)
As illustrated in FIG. 7, the display image generation unit 3 performs step S109 after step S107 or after step S108. The display image generation unit 3 renders the point cloud data 78 to which colors are assigned based on the viewpoint information. At this time, when the image 77 is generated in step S <b> 108, the display image generation unit 3 adds the point cloud data 78 to the image 77. When additionally writing, the result of step S108 and the result of rendering the point cloud data 78 may be blended by alpha blending. For example, an image as shown in FIG. 8C is obtained. The view volume used at this time is obtained by the same method as in step S108. That is, the view volume used in step S109 is the same as the view volume obtained from the parameters of the imaging device 73. In this case, the location indicated by the second image of the sensor image data is the same as the location indicated by the result of rendering the point cloud. Thereby, visual information such as the texture of the object 60 can be obtained from the second image, and the depth of the object 60 can be grasped from the color assigned to the point cloud data.

以上説明したように、ステップS108およびステップS109によって、点群データをレンダリングして得られる第1画像と、撮像機73によって撮像された第2画像と、が重畳される。第2画像によって、計測箇所に関するイメージを把握することができる。さらに、点群の色によって2次元画像からは把握することができない奥行感を把握することが可能となる。   As described above, in step S108 and step S109, the first image obtained by rendering the point cloud data and the second image captured by the imaging device 73 are superimposed. With the second image, an image related to the measurement location can be grasped. Furthermore, it becomes possible to grasp the depth feeling that cannot be grasped from the two-dimensional image by the color of the point cloud.

(第2の実施形態)
図9は、第2の実施形態に係る色情報決定装置を例示するブロック図である。
図10は、第2の実施形態に係る色情報決定装置の処理を例示するフローチャートである。
図9に表したように、本実施形態に係る色情報決定装置102は、第1取得部1bと、決定部2bと、指定部5と、を含む。決定部2bは、計測方向決定部21bと、色情報決定部22と、を含む。
(Second Embodiment)
FIG. 9 is a block diagram illustrating a color information determination device according to the second embodiment.
FIG. 10 is a flowchart illustrating the processing of the color information determination device according to the second embodiment.
As illustrated in FIG. 9, the color information determination apparatus 102 according to the present embodiment includes a first acquisition unit 1b, a determination unit 2b, and a designation unit 5. The determination unit 2 b includes a measurement direction determination unit 21 b and a color information determination unit 22.

第1取得部1bは、第1の実施形態に関して説明した第1取得部1と同様に、点群データ等を取得する(ステップS101)。さらに、第1取得部1bは、点群データから算出された表面データを取得する(ステップS201)。表面データは、対象物60の3次元形状を表す複数の面に関する情報を含む。表面データは、点群データを良く近似する。   The 1st acquisition part 1b acquires point cloud data etc. similarly to the 1st acquisition part 1 explained about a 1st embodiment (Step S101). Furthermore, the first acquisition unit 1b acquires surface data calculated from the point cloud data (step S201). The surface data includes information regarding a plurality of surfaces representing the three-dimensional shape of the object 60. The surface data closely approximates the point cloud data.

例えば、表面データは、複数の3角形面によって3次元形状を表現する。各3角形面には、一意な面IDが定義されている。3次元形状は、4角形以上の多角形面によって表現されてもよく、曲面などによってパラメトリック表現されてもよい。この場合には、多角形面や曲面などを3角形面に変換すればよい。   For example, the surface data represents a three-dimensional shape by a plurality of triangular surfaces. A unique surface ID is defined for each triangular surface. The three-dimensional shape may be expressed by a polygonal surface having a quadrangle or more, or may be parametrically expressed by a curved surface or the like. In this case, a polygonal surface or a curved surface may be converted into a triangular surface.

表面データは、例えば、点群データと同様に、外部の記憶装置から取得される。外部から表面データが取得されない場合、点群データから3角形面を構成することで、表面データを生成することができる。例えば、レーザレンジファインダによって点が得られている場合、レーザレンジファインダのディテクタを用いて面を構成する方法がある。また、ステレオカメラの奥行推定によって点が得られている場合、ピクセルの隣接関係を用いて面を構成する方法がある。この他にも、点群から面を直接推定する方法など、種々の方法がある。   For example, the surface data is acquired from an external storage device in the same manner as the point cloud data. When surface data is not acquired from the outside, surface data can be generated by constructing a triangular surface from point cloud data. For example, when a point is obtained by a laser range finder, there is a method of configuring a surface using a detector of the laser range finder. In addition, when a point is obtained by depth estimation of a stereo camera, there is a method of constructing a surface using pixel adjacency relationships. In addition, there are various methods such as a method of directly estimating a surface from a point cloud.

使用者は、例えば入力デバイスを介して、指定部5に計測したい箇所に関する情報を入力する。指定部5は、使用者の入力に基づいて、計測基準点を指定する(ステップS202)。計測基準点は、表面データの複数の面のうちの1つの上に指定される。指定部5における処理には、CG分野で用いられるポリゴンデータのピッキング処理が用いられる。なお、入力デバイスには、タッチペン、タッチパネル、マウス、またはキーボードなど任意のデバイスが用いられる。   For example, the user inputs information regarding a location to be measured to the designation unit 5 via an input device. The designation unit 5 designates a measurement reference point based on the user input (step S202). The measurement reference point is designated on one of the plurality of surfaces of the surface data. For the processing in the designation unit 5, polygon data picking processing used in the CG field is used. Note that an arbitrary device such as a touch pen, a touch panel, a mouse, or a keyboard is used as the input device.

計測方向決定部21bは、指定部5によって指定された計測基準点と、表面データと、に基づいて、基準方向ベクトルを算出する(ステップS203)。第2の実施形態では、第1の実施形態に関して説明したような計測対象物の指定は行われない。
以下にステップS203の詳細について説明する。
まず、指定部5で指定された計測基準点から計測対象面群を算出する。計測対象面群とは、計測基準点が含まれる三角形面の近傍でかつ平面とみなせる三角形面の面IDの集合である。
The measurement direction determination unit 21b calculates a reference direction vector based on the measurement reference point designated by the designation unit 5 and the surface data (step S203). In the second embodiment, the measurement object as described with respect to the first embodiment is not specified.
Details of step S203 will be described below.
First, a measurement target surface group is calculated from the measurement reference point designated by the designation unit 5. The measurement target surface group is a set of surface IDs of triangular surfaces that can be regarded as a plane in the vicinity of the triangular surface including the measurement reference point.

図11は、計測対象面群の算出を例示するフローチャートである。
図12は、計測対象面群の算出を例示する模式図である。
図11に示したステップS1201において、計測基準点を含む3角形面(以下、第1面F1という)の面IDをスタック1に追加する。
その後、スタック1から1つの面IDを1つ取り出し(ステップS1202)、評価済み面リストにステップS1202において取り出された面IDを追加する(ステップS1203)。
FIG. 11 is a flowchart illustrating the calculation of the measurement target surface group.
FIG. 12 is a schematic diagram illustrating the calculation of the measurement target surface group.
In step S1201 shown in FIG. 11, the surface ID of a triangular surface (hereinafter referred to as the first surface F1) including the measurement reference point is added to the stack 1.
Thereafter, one surface ID is extracted from the stack 1 (step S1202), and the surface ID extracted in step S1202 is added to the evaluated surface list (step S1203).

その後、探索対象面F2を算出する(ステップS1204)。探索対象面F2は、ステップS1202において取り出した面IDに対応する3角形面(探索基準面F3)と稜線を共有し、かつ、評価済み面リストに面IDが登録されていない3角形面である。例えば、複数の探索対象面F2(探索対象面群)が算出される。   Thereafter, the search target surface F2 is calculated (step S1204). The search target surface F2 is a triangular surface that shares a ridge line with the triangular surface (search reference surface F3) corresponding to the surface ID extracted in step S1202 and whose surface ID is not registered in the evaluated surface list. . For example, a plurality of search target surfaces F2 (search target surface group) are calculated.

その後、探索対象面群から未評価の探索対象面F2を1つ選択し(ステップS1205)、選択された面の面IDを評価済み面リストに追加する(ステップS1206)。選択された探索対象面F2の法線ベクトルVn2と、探索基準面F3の法線ベクトルVn3とのなす角度θnを算出する(ステップS1207)。
その後、角度θnが予め定められた閾値以下であるかを判定する(ステップS1208)。角度θnが閾値よりも大きい場合には、ステップS1210に進む。角度θnが閾値以下の場合には、探索対象面F2の向きが探索基準面F3の向きと同じであると見なして、ステップS1209に進む。ステップS1209では、当該探索対象面F2の面IDをスタック1と計測対象面群に追加する。
Thereafter, one unevaluated search target surface F2 is selected from the search target surface group (step S1205), and the surface ID of the selected surface is added to the evaluated surface list (step S1206). An angle θn formed between the normal vector Vn2 of the selected search target surface F2 and the normal vector Vn3 of the search reference surface F3 is calculated (step S1207).
Thereafter, it is determined whether the angle θn is equal to or smaller than a predetermined threshold (step S1208). If the angle θn is larger than the threshold value, the process proceeds to step S1210. When the angle θn is equal to or smaller than the threshold value, it is assumed that the direction of the search target surface F2 is the same as the direction of the search reference surface F3, and the process proceeds to step S1209. In step S1209, the surface ID of the search target surface F2 is added to the stack 1 and the measurement target surface group.

その後、探索対象面群に含まれる全ての探索対象面F2が評価済みであるかを判定する(ステップS1210)。未評価の探索対象面F2が存在する場合には、ステップS1205からステップS1210までの処理を繰り返す。未評価の探索対象面F2が存在しない場合には、ステップS1211に進む。ステップS1211では、スタック1が空であるかを判定する。スタック1が空でない場合は、ステップS1202からステップS1211までの処理を繰り返す。スタック1が空である場合は、処理を終了する。   Thereafter, it is determined whether all search target planes F2 included in the search target plane group have been evaluated (step S1210). If there is an unevaluated search target surface F2, the processing from step S1205 to step S1210 is repeated. If there is no unevaluated search target surface F2, the process proceeds to step S1211. In step S1211, it is determined whether stack 1 is empty. If the stack 1 is not empty, the processing from step S1202 to step S1211 is repeated. If the stack 1 is empty, the process ends.

以上のように、図11のフローチャートに従って処理を繰り返す。これにより、計測対象面群が得られる。1つの計測基準点につき最低1セットの計測対象面群が算出される。   As described above, the processing is repeated according to the flowchart of FIG. Thereby, a measurement object surface group is obtained. At least one set of measurement target surface groups is calculated for each measurement reference point.

求められた計測対象面群から基準方向ベクトルを算出する。基準方向ベクトルは、以下の式により求められる。

Figure 2017036998

「N」は、計測対象面群に含まれる面の数である。「i」は、計測対象面群に含まれる面の通し番号である。「v_normali」は、計測対象面群に含まれるi番目の面の正規化された法線ベクトルである。基準方向ベクトルは、例えば、計測基準点を含む第1面F1の法線の方向に基づいて算出されたベクトルである。 A reference direction vector is calculated from the obtained measurement target plane group. The reference direction vector is obtained by the following equation.

Figure 2017036998

“N” is the number of surfaces included in the measurement target surface group. “I” is a serial number of a surface included in the measurement target surface group. “V_normal i ” is a normalized normal vector of the i-th surface included in the measurement target surface group. The reference direction vector is a vector calculated based on, for example, the direction of the normal line of the first surface F1 including the measurement reference point.

基準方向ベクトル(v_base)の算出方法は、上記に限られない。基準方向ベクトルの算出には、面群の代表ベクトルを決定する種々の方法が利用可能である。 例えば、計測対象面群に含まれる面を構成する頂点の位置座標に対して主成分分析を行う。そして、最小の固有値に対応する主軸を基準方向ベクトルとしてもよい。例えば、計測対象面群に含まれる面を構成する頂点に対して2次以上の多項式を当てはめる。その多項式曲面への計測基準点の写像の位置における法線ベクトルを基準方向ベクトルとしてもよい。   The calculation method of the reference direction vector (v_base) is not limited to the above. For calculating the reference direction vector, various methods for determining the representative vector of the surface group can be used. For example, the principal component analysis is performed on the position coordinates of the vertices constituting the surface included in the measurement target surface group. The main axis corresponding to the smallest eigenvalue may be used as the reference direction vector. For example, a quadratic or higher order polynomial is applied to the vertices constituting the surfaces included in the measurement target surface group. The normal vector at the position of the measurement reference point mapped onto the polynomial curved surface may be used as the reference direction vector.

その後、図10に表したように、基準方向ベクトルによって定義される平面(計測対象面群に対応する平面)と、点群データによって表された各点と、の間の距離を求める(ステップS104)。例えば、基準方向ベクトルに沿って測った距離が求められる。その後、ステップS104で求められた値に応じて、点群データに色情報を割り付ける(ステップS105)。   Thereafter, as shown in FIG. 10, the distance between the plane defined by the reference direction vector (the plane corresponding to the measurement target plane group) and each point represented by the point group data is obtained (step S104). ). For example, the distance measured along the reference direction vector is obtained. Thereafter, color information is assigned to the point cloud data according to the value obtained in step S104 (step S105).

すなわち、色情報決定部22は、第1面F1を含む平面と、対象物60上の複数の点のそれぞれと、の間の距離に応じて点群データに色情報を割り付ける。ここで、第1面F1を含む平面は、例えば、表面データの複数の面の一部である。当該一部は、第1面F1を含み、実質的に平面と見なすことができる。なお、ステップS104、ステップS105には、第1の実施形態に関する説明との同様の説明を適用可能である。   That is, the color information determination unit 22 assigns color information to the point cloud data according to the distance between the plane including the first surface F1 and each of the plurality of points on the object 60. Here, the plane including the first surface F1 is, for example, a part of a plurality of surfaces of the surface data. The part includes the first surface F1 and can be regarded as a substantially flat surface. Note that the same description as that of the first embodiment can be applied to step S104 and step S105.

以上によれば、使用者が計測のために1点を指示した段階で、一定方向に向けて配置されている計測対象物が見やすくなるような色付けが、例えば自動的に行われる。このため、もう一方の計測基準点の入力が容易になる。また、同じ計測対象物を測り続ける限り、計測対象物は、例えば常に見やすく色づけされている。このため、一定方向に向けて配置されている計測対象物の連続計測が容易となる。   According to the above, at the stage where the user designates one point for measurement, for example, coloring that makes it easy to see the measurement object arranged in a certain direction is automatically performed. For this reason, it becomes easy to input the other measurement reference point. Further, as long as the same measurement object is continuously measured, the measurement object is, for example, always easy to see and colored. For this reason, continuous measurement of the measurement object arranged in a fixed direction becomes easy.

図13は、第2の実施形態に係る画像生成装置を例示するブロック図である。
図14は、第2の実施形態に係る画像生成装置の処理を例示するフローチャートである。
図13に表したように、本実施形態に係る画像生成装置202は、色情報決定装置102と、表示画像生成部3と、第2取得部4と、を含む。
画像生成装置202に含まれる色情報決定装置102には、図9〜図12に関して説明した色情報決定装置と同様の説明を適用することができる。
表示画像生成部3および第2取得部4には、第1の実施形態に係る画像生成装置201と同様の説明を適用することができる。
FIG. 13 is a block diagram illustrating an image generation apparatus according to the second embodiment.
FIG. 14 is a flowchart illustrating the processing of the image generation apparatus according to the second embodiment.
As illustrated in FIG. 13, the image generation device 202 according to the present embodiment includes a color information determination device 102, a display image generation unit 3, and a second acquisition unit 4.
The same description as the color information determination device described with reference to FIGS. 9 to 12 can be applied to the color information determination device 102 included in the image generation device 202.
The same description as the image generation device 201 according to the first embodiment can be applied to the display image generation unit 3 and the second acquisition unit 4.

図14に示したステップS101〜ステップS105は、図10に関して説明したステップS101〜ステップS105と同様である。これらの処理によって、点群データに色情報が割り付けられる。   Steps S101 to S105 illustrated in FIG. 14 are the same as Steps S101 to S105 described with reference to FIG. Through these processes, color information is assigned to the point cloud data.

さらに、画像生成装置202は、ステップS106〜ステップS109を実行する。画像生成装置202におけるステップS106〜ステップS109は、図7に関して説明した処理と同様である。   Further, the image generation device 202 executes Steps S106 to S109. Steps S106 to S109 in the image generation apparatus 202 are the same as the processes described with reference to FIG.

以上により、使用者が指定した計測基準点の情報に基づいて、点群データに色情報が割り付けられ、使用者に見易い画像を表示することができる。さらに、点群データをレンダリングして得られる画像とカメラ画像とが重畳される。これにより、さらに対象物の形状の把握が容易となり、計測基準点の設定が容易となる。   As described above, based on the information of the measurement reference point designated by the user, color information is assigned to the point cloud data, and an image that is easy for the user to view can be displayed. Furthermore, the image obtained by rendering the point cloud data and the camera image are superimposed. Thereby, it becomes easier to grasp the shape of the object, and the measurement reference point can be easily set.

以上、実施形態として色情報決定装置および画像生成装置を例示して説明したが、実施形態は、この色情報決定装置における処理や画像生成装置における処理をコンピュータに実行させるためのプログラムの形態であってもよい。または、実施形態は、このプログラムを記録したコンピュータ読み取り可能な記録媒体の形態であってもよい。   As described above, the color information determination device and the image generation device have been described as examples. However, the embodiment is a form of a program for causing a computer to execute processing in the color information determination device and processing in the image generation device. May be. Alternatively, the embodiment may be in the form of a computer-readable recording medium that records this program.

上記の記録媒体としては、具体的には、CD-ROM(-R/-RW)、光磁気ディスク、HD(ハードディスク)、DVD-ROM(-R/-RW/-RAM)、FD(フレキシブルディスク)、フラッシュメモリ、メモリカードや、メモリスティック及びその他各種ROMやRAM等が想定できる。   Specific examples of the recording medium include CD-ROM (-R / -RW), magneto-optical disk, HD (hard disk), DVD-ROM (-R / -RW / -RAM), and FD (flexible disk). ), A flash memory, a memory card, a memory stick, and other various ROMs and RAMs.

実施形態によれば、見易い画像を提供することができる色情報決定装置および画像生成装置が提供できる。   According to the embodiment, a color information determination device and an image generation device that can provide an easy-to-view image can be provided.

なお、本願明細書において、「垂直」及び「平行」は、厳密な垂直及び厳密な平行だけではなく、例えば製造工程におけるばらつきなどを含むものであり、実質的に垂直及び実質的に平行であれば良い。   In the present specification, “vertical” and “parallel” include not only strictly vertical and strictly parallel, but also include, for example, variations in the manufacturing process, and may be substantially vertical and substantially parallel. It ’s fine.

以上、具体例を参照しつつ、本発明の実施の形態について説明した。しかし、本発明の実施形態は、これらの具体例に限定されるものではない。例えば、第1取得部、第2取得部、決定部、計測方向決定部、色情報決定部、表示画像生成部、指定部などの各要素の具体的な構成に関しては、当業者が公知の範囲から適宜選択することにより本発明を同様に実施し、同様の効果を得ることができる限り、本発明の範囲に包含される。
また、各具体例のいずれか2つ以上の要素を技術的に可能な範囲で組み合わせたものも、本発明の要旨を包含する限り本発明の範囲に含まれる。
The embodiments of the present invention have been described above with reference to specific examples. However, embodiments of the present invention are not limited to these specific examples. For example, regarding a specific configuration of each element such as a first acquisition unit, a second acquisition unit, a determination unit, a measurement direction determination unit, a color information determination unit, a display image generation unit, a designation unit, etc. As long as the present invention can be carried out in the same manner and the same effect can be obtained by appropriately selecting from the above, it is included in the scope of the present invention.
Moreover, what combined any two or more elements of each specific example in the technically possible range is also included in the scope of the present invention as long as the gist of the present invention is included.

その他、本発明の実施の形態として上述した色情報決定装置および画像表示装置を基にして、当業者が適宜設計変更して実施し得る全ての色情報決定装置および画像表示装置も、本発明の要旨を包含する限り、本発明の範囲に属する。   In addition, based on the color information determination device and the image display device described above as the embodiments of the present invention, all color information determination devices and image display devices that can be implemented by those skilled in the art with appropriate design changes are also included in the present invention. As long as the gist is included, it belongs to the scope of the present invention.

その他、本発明の思想の範疇において、当業者であれば、各種の変更例及び修正例に想到し得るものであり、それら変更例及び修正例についても本発明の範囲に属するものと了解される。   In addition, in the category of the idea of the present invention, those skilled in the art can conceive of various changes and modifications, and it is understood that these changes and modifications also belong to the scope of the present invention. .

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

1、1b…第1取得部、 2、2b…決定部、 3…表示画像生成部、 4…第2取得部、 5…指定部、 21、21b…計測方向決定部、 22…色情報決定部、 60…対象物、 61…ブラケット、 62…レール、 63、64…壁、 71…距離計、 73…撮像機、 75…計測器、 76…ビューボリューム、 77…画像、 78…点群データ、 101、102…色情報決定装置、 201、202…画像生成装置、 C1…第1位置、 D1〜D4 第1〜第4点、 Da、Db、Dc…方向、 F1…第1面、 F2…探索対象面、 F3…探索基準面、 La、Lb、Lc…距離、 P1…第1部分、 S101〜S109、S1201〜S1211、S201〜S203…ステップ、 Vn2、Vn3…法線ベクトル   DESCRIPTION OF SYMBOLS 1, 1b ... 1st acquisition part, 2, 2b ... Determination part, 3 ... Display image generation part, 4 ... Second acquisition part, 5 ... Designation part 21, 21b ... Measurement direction determination part, 22 ... Color information determination part , 60 ... object, 61 ... bracket, 62 ... rail, 63, 64 ... wall, 71 ... distance meter, 73 ... imaging device, 75 ... measuring instrument, 76 ... view volume, 77 ... image, 78 ... point cloud data, DESCRIPTION OF SYMBOLS 101,102 ... Color information determination apparatus, 201, 202 ... Image generation apparatus, C1 ... 1st position, D1-D4 1st-4th point, Da, Db, Dc ... Direction, F1 ... 1st surface, F2 ... Search Target plane, F3 ... search reference plane, La, Lb, Lc ... distance, P1 ... first part, S101-S109, S1201-S1211, S201-S203 ... step, Vn2, Vn3 ... normal vector

Claims (14)

距離計を含む計測器によって計測され、第1部分を含む対象物に含まれる複数の点のそれぞれの位置を表す複数の点データを含み、前記対象物の3次元形状を表す点群データと、
前記点群データが計測されたときの前記距離計の前記対象物に対する位置関係に関する情報と、
を取得する第1取得部と、
前記第1部分の位置、形状及び大きさの少なくともいずれかに基づく配置情報と、前記距離計の前記位置関係に関する前記情報と、に基づいて前記複数の点データのそれぞれについて色情報を決定する決定部と、
を備えた色情報決定装置。
Point cloud data representing a three-dimensional shape of the target object, including a plurality of point data measured by a measuring instrument including a distance meter and representing each position of a plurality of points included in the target object including the first portion;
Information on the positional relationship of the distance meter with respect to the object when the point cloud data is measured;
A first acquisition unit for acquiring
Determination to determine color information for each of the plurality of point data based on arrangement information based on at least one of the position, shape, and size of the first portion and the information on the positional relationship of the distance meter And
A color information determination device.
前記対象物は、第1延在方向に延在した部分を有し、
前記第1部分は、前記第1延在方向を基準にした方向に基づいて配置される請求項1記載の色情報決定装置。
The object has a portion extending in the first extending direction,
The color information determination apparatus according to claim 1, wherein the first portion is arranged based on a direction based on the first extending direction.
前記第1延在方向を基準にした前記方向は、前記第1延在方向に対して平行な方向、および、前記第1延在方向に対して垂直な方向のいずれかである請求項2記載の色情報決定装置。   3. The direction based on the first extending direction is one of a direction parallel to the first extending direction and a direction perpendicular to the first extending direction. Color information determination device. 前記決定部は、
前記第1部分の前記配置情報と、前記距離計の前記位置関係に関する前記情報と、に基づいて基準方向を算出する計測方向決定部と、
前記基準方向に基づいて前記色情報を決定する色情報決定部と、
を含む請求項1〜3のいずれか1つに記載の色情報決定装置。
The determination unit
A measurement direction determining unit that calculates a reference direction based on the arrangement information of the first part and the information on the positional relationship of the distance meter;
A color information determination unit that determines the color information based on the reference direction;
The color information determination device according to claim 1, comprising:
前記色情報は、前記点群データが計測されたときの前記距離計の位置と前記基準方向とによって算出される平面と、前記複数の点のそれぞれと、の間の距離に基づいて決定される請求項4記載の色情報決定装置。   The color information is determined based on a distance between a plane calculated by the position of the distance meter when the point cloud data is measured and the reference direction, and each of the plurality of points. The color information determination apparatus according to claim 4. 距離計を含む計測器によって計測され、対象物に含まれる複数の点のそれぞれの位置を表す複数の点データを含み、前記対象物の3次元形状を表す点群データを取得する第1取得部と、
前記点群データから算出され前記対象物の前記3次元形状を表す複数の面の1つの上に基準点を指定する指定部と、
前記複数の面の前記1つに基づく平面と、前記複数の点のそれぞれと、の間の距離に応じて前記複数の点データのそれぞれについて色情報を決定する決定部と、
を備えた色情報決定装置。
A first acquisition unit that is measured by a measuring instrument including a distance meter and includes a plurality of point data representing the positions of a plurality of points included in the object, and acquires point cloud data representing the three-dimensional shape of the object When,
A designation unit for designating a reference point on one of a plurality of surfaces calculated from the point cloud data and representing the three-dimensional shape of the object;
A determining unit that determines color information for each of the plurality of point data according to a distance between the plane based on the one of the plurality of surfaces and each of the plurality of points;
A color information determination device.
前記決定部は、
前記基準点と前記複数の面とに基づいて基準方向を算出する計測方向決定部と、
前記基準方向に基づいて前記色情報を決定する色情報決定部と、
を含む請求項6記載の色情報決定装置。
The determination unit
A measurement direction determination unit that calculates a reference direction based on the reference point and the plurality of surfaces;
A color information determination unit that determines the color information based on the reference direction;
The color information determination apparatus according to claim 6, comprising:
前記基準方向は、前記複数の面の前記1つの法線の方向に基づいて算出される請求項6または7に記載の色情報決定装置。   The color information determination apparatus according to claim 6 or 7, wherein the reference direction is calculated based on a direction of the one normal line of the plurality of surfaces. 前記複数の面の前記1つに基づく前記平面は、前記基準方向に基づいて算出される請求項7または8に記載の色情報決定装置。   The color information determination apparatus according to claim 7 or 8, wherein the plane based on the one of the plurality of faces is calculated based on the reference direction. 前記複数の点は、第1点と、第2点と、第1点と第2点との間に位置する第3点と、を含み、
前記第1点と前記第3点との間の距離は、第1距離であり、
前記第2点と前記第3点との間の距離は、前記第1距離であり、
前記複数の点データは、前記第1点に対応する第1点データと、前記第2点に対応する第2点データと、前記第3点に対応する第3点データと、を含み、
前記第1点データについて決定される色は、前記第2点データについて決定される色と同じであり、
前記第3点データについて決定される色は、前記第2点データについて決定される色と同じである請求項1〜9のいずれか1つに記載の色情報決定装置。
The plurality of points includes a first point, a second point, and a third point located between the first point and the second point,
The distance between the first point and the third point is a first distance;
The distance between the second point and the third point is the first distance;
The plurality of point data includes first point data corresponding to the first point, second point data corresponding to the second point, and third point data corresponding to the third point,
The color determined for the first point data is the same as the color determined for the second point data;
The color information determination apparatus according to claim 1, wherein the color determined for the third point data is the same as the color determined for the second point data.
前記複数の点は、前記第1点と前記第3点との間に位置する第4点をさらに含み、
前記第1点と前記第4点との間の距離は、前記第1距離よりも短く、
前記複数の点データは、前記第4点に対応する第4点データをさらに含み、
前記第4点データについて決定される色は、前記第1点データについて決定される前記色とは異なる請求項10記載の色情報決定装置。
The plurality of points further includes a fourth point located between the first point and the third point;
The distance between the first point and the fourth point is shorter than the first distance,
The plurality of point data further includes fourth point data corresponding to the fourth point,
The color information determination apparatus according to claim 10, wherein the color determined for the fourth point data is different from the color determined for the first point data.
請求項1〜11のいずれか1つに記載の色情報決定装置と、
前記色情報が決定された前記点群データに基づいて、3次元空間内の第1位置から第1方向に沿って前記対象物を見た第1画像を生成する表示画像生成部と、
を備えた画像生成装置。
The color information determination device according to any one of claims 1 to 11,
A display image generating unit that generates a first image of the object viewed from a first position in a three-dimensional space along a first direction based on the point cloud data for which the color information is determined;
An image generation apparatus comprising:
第2取得部をさらに備え、
前記計測器は、前記対象物を撮像する撮像機をさらに含み、
前記第2取得部は、前記撮像機によって前記対象物の撮像領域が撮像された第2画像と、前記第2画像が撮像されたときの前記対象物に対する前記撮像機の位置関係と、を取得し、
前記撮像機の前記位置関係は、前記撮像機の前記対象物に対する位置と、前記撮像機から前記撮像領域へ向かう第2方向と、を含み、
前記表示画像生成部は、前記第1位置と前記撮像機の前記位置との間の距離が第1閾値以下であり、前記第1方向と前記第2方向との間の角度に基づく値が第2閾値以下である場合に、前記第1画像と前記第2画像とを重畳させる請求項12記載の画像生成装置。
A second acquisition unit;
The measuring instrument further includes an imager that images the object,
The second acquisition unit acquires a second image in which an imaging region of the object is imaged by the imaging device, and a positional relationship of the imaging device with respect to the object when the second image is imaged. And
The positional relationship of the image pickup device includes a position of the image pickup device with respect to the object and a second direction from the image pickup device toward the image pickup area,
In the display image generation unit, a distance between the first position and the position of the imaging device is equal to or less than a first threshold, and a value based on an angle between the first direction and the second direction is a first value. The image generation apparatus according to claim 12, wherein the first image and the second image are superimposed when the threshold value is equal to or less than two thresholds.
前記計測器と前記撮像機の位置関係は、予め規定されている請求項13記載の画像生成装置。   The image generation apparatus according to claim 13, wherein a positional relationship between the measuring instrument and the imaging device is defined in advance.
JP2015158439A 2015-08-10 2015-08-10 Color information determination device and image generation device Abandoned JP2017036998A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015158439A JP2017036998A (en) 2015-08-10 2015-08-10 Color information determination device and image generation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015158439A JP2017036998A (en) 2015-08-10 2015-08-10 Color information determination device and image generation device

Publications (1)

Publication Number Publication Date
JP2017036998A true JP2017036998A (en) 2017-02-16

Family

ID=58048516

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015158439A Abandoned JP2017036998A (en) 2015-08-10 2015-08-10 Color information determination device and image generation device

Country Status (1)

Country Link
JP (1) JP2017036998A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110603570A (en) * 2017-05-10 2019-12-20 富士通株式会社 Object recognition method, device, system, and program
WO2021220346A1 (en) * 2020-04-27 2021-11-04 三菱電機株式会社 Elevator 3-d data processing device
JP2022534269A (en) * 2019-06-28 2022-07-28 上海交通大学 Method and system for control and presentation of initial viewing angle based on 3D point cloud

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110603570A (en) * 2017-05-10 2019-12-20 富士通株式会社 Object recognition method, device, system, and program
CN110603570B (en) * 2017-05-10 2023-08-04 富士通株式会社 Object recognition method, device, system, and program
JP2022534269A (en) * 2019-06-28 2022-07-28 上海交通大学 Method and system for control and presentation of initial viewing angle based on 3D point cloud
JP7317401B2 (en) 2019-06-28 2023-07-31 上海交通大学 Method and system for control and presentation of initial viewing angle based on 3D point cloud
US11836882B2 (en) 2019-06-28 2023-12-05 Shanghai Jiao Tong University Three-dimensional point cloud-based initial viewing angle control and presentation method and system
WO2021220346A1 (en) * 2020-04-27 2021-11-04 三菱電機株式会社 Elevator 3-d data processing device
JPWO2021220346A1 (en) * 2020-04-27 2021-11-04
JP7420231B2 (en) 2020-04-27 2024-01-23 三菱電機株式会社 Elevator 3D data processing equipment

Similar Documents

Publication Publication Date Title
US9984177B2 (en) Modeling device, three-dimensional model generation device, modeling method, program and layout simulator
JP6486069B2 (en) Image processing apparatus, inspection apparatus, inspection method, and image processing program
JP5132832B1 (en) Measuring apparatus and information processing apparatus
JP6753107B2 (en) Distance measuring device, distance measuring method and program
JP2017118396A (en) Program, device and method for calculating internal parameter of depth camera
WO2020031950A1 (en) Measurement calibration device, measurement calibration method, and program
US11580696B2 (en) Surveying data processing device, surveying data processing method, and surveying data processing program
EP3226212A1 (en) Modeling device, three-dimensional model generating device, modeling method, and program
JP2017026487A (en) Shape measurement device, shape measurement system and shape measurement method
JP2016099665A (en) Viewpoint position calculation device, image generation device, viewpoint position calculation method, image generation method, viewpoint position calculation program, and image generation program
JP2018024502A (en) Elevator machine room drawing generation device, elevator machine room modeling data generation device, elevator machine room drawing generation method, and elevator machine room modeling data generation method
WO2021181647A1 (en) Image processing device, image processing method, and computer-readable medium
JP6821326B2 (en) Information processing equipment, measurement systems, information processing methods and programs
JP2017036998A (en) Color information determination device and image generation device
WO2020110164A1 (en) Display data generation device, display data generation method, and display data generation program
JP2020013351A (en) Three-dimensional map generation device and program
JP6318576B2 (en) Image projection system, image processing apparatus, image projection method, and program
JP2019144153A (en) Reproduction method, reproduction device, and reproduction program of electric wire shape, and evaluation method, evaluation device, and evaluation program of point group accuracy
KR20210023200A (en) System and method for measuring volume of point cloud
JP2013092888A (en) Data processor
JP2017026488A (en) Distance measuring device, distance measurement system, distance measurement method and distance measurement program
JP2020091590A (en) Display data generation apparatus, display data generation method, and display data generation program
JP2005084012A (en) Skin shape measuring method and skin shape measuring device
US11436799B2 (en) Information processing apparatus and non-transitory computer readable medium
JP7338788B2 (en) DETECTION DEVICE, DETERMINATION METHOD, AND PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180202

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20180521