JP7390978B2 - Annotation support device and method - Google Patents

Annotation support device and method Download PDF

Info

Publication number
JP7390978B2
JP7390978B2 JP2020092697A JP2020092697A JP7390978B2 JP 7390978 B2 JP7390978 B2 JP 7390978B2 JP 2020092697 A JP2020092697 A JP 2020092697A JP 2020092697 A JP2020092697 A JP 2020092697A JP 7390978 B2 JP7390978 B2 JP 7390978B2
Authority
JP
Japan
Prior art keywords
image
data
annotation
pointing
predetermined part
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020092697A
Other languages
Japanese (ja)
Other versions
JP2021188971A (en
Inventor
隆史 松本
直樹 平井
慶一 宮谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimizu Corp
Original Assignee
Shimizu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimizu Corp filed Critical Shimizu Corp
Priority to JP2020092697A priority Critical patent/JP7390978B2/en
Publication of JP2021188971A publication Critical patent/JP2021188971A/en
Application granted granted Critical
Publication of JP7390978B2 publication Critical patent/JP7390978B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、例えば建造物の保存にかかる部位にアノテーションを付与するのに好適なアノテーション支援装置および方法に関するものである。 TECHNICAL FIELD The present invention relates to an annotation support device and method suitable for annotating, for example, parts of a building that need to be preserved.

従来、歴史建造物の保存・修復計画などにおいて、3Dスキャナで立体データを取得する作業が行われている。これは、作業前の建物・部材の状態を立体的な3次元形状データとして保存しておき、修復後に比較のため参照可能にすることや、曲面の天井や梁などの立体構造を3次元形状データとして取得し、保存・修復計画に活かすことなどに利用されている。 BACKGROUND ART Conventionally, 3D scanners have been used to acquire three-dimensional data in projects such as preservation and restoration plans for historical buildings. This saves the state of buildings and components before work as three-dimensional three-dimensional shape data, which can be referenced for comparison after restoration, and also allows three-dimensional structures such as curved ceilings and beams to be saved in three-dimensional shape data. It is acquired as data and used for conservation and restoration plans.

例えば、歴史的礼拝堂のデータ取得作業では、空間全体を大型3Dスキャナで数回に分けてスキャンし、ハンディ3Dスキャナでレリーフなどの細かいオブジェクトをスキャンすることが行われている。 For example, when acquiring data on a historical chapel, the entire space is scanned in several batches using a large 3D scanner, and small objects such as reliefs are scanned using a handheld 3D scanner.

また、文化財建造物の保存活用計画においては、建造物の保存にかかる部分の設定をし、それぞれの部位に対して、5段階の基準によって保護の方針を設定する作業が行われている。 In addition, in the preservation and utilization plan for cultural property buildings, work is being done to determine the parts of the building that need to be preserved and to set protection policies for each part based on five-stage criteria.

一方、工事作業者が鏡吹きされたコンクリート表面上でその地山状況を視認しながら施工作業を行うことができる技術として、例えば特許文献1に記載のものが知られている。この特許文献1は、切羽面を含む領域をデジタルカメラにて撮影して、切羽情報画像を生成する一方、切羽面をコンクリートで鏡吹きし、この鏡吹きしたコンクリート表面に切羽情報画像を投影した後、投影した画像に基づき装薬孔位置等の施工情報を決定し、決定した施工情報の表示情報を切羽情報画像に追加して切羽情報更新画像を生成し、切羽情報更新画像を切羽面に投影するものである。 On the other hand, a technique described in Patent Document 1, for example, is known as a technique that allows a construction worker to perform construction work on a mirror-blown concrete surface while visually checking the ground condition. In Patent Document 1, an area including the face is photographed with a digital camera to generate a face information image, and the face is mirror-blown with concrete, and the face information image is projected onto the mirror-blown concrete surface. After that, construction information such as the position of the charging hole is determined based on the projected image, display information of the determined construction information is added to the face information image to generate a face information update image, and the face information update image is displayed on the face. It is something that is projected.

また、ポインティング位置の検出技術として、例えば特許文献2に記載のものが知られている。この特許文献2は、2次元画像表示スクリーンと、2次元画像表示スクリーンの裏面に画像光を照射する2次元画像光照射装置と、2次元画像表示スクリーンの表面に光を照射するポインタと、2次元画像表示スクリーンの裏面を撮影する撮影装置と、撮影装置による撮像結果が入力される制御装置とを備えており、制御装置が、撮影結果から照射された光をポインティング位置として検出するようになっている。 Further, as a pointing position detection technique, for example, the technique described in Patent Document 2 is known. This patent document 2 discloses a two-dimensional image display screen, a two-dimensional image light irradiation device that irradiates image light onto the back surface of the two-dimensional image display screen, a pointer that irradiates light onto the front surface of the two-dimensional image display screen, It is equipped with a photographing device that photographs the back side of the dimensional image display screen, and a control device into which the imaging results from the photographing device are input, and the control device detects the light emitted from the photographic results as the pointing position. ing.

特開2018-150720号公報Japanese Patent Application Publication No. 2018-150720 特許第4814700号公報Patent No. 4814700

ところで、上記の文化財建造物の保存にかかる部分の設定では、現地で調査従事者が部位の評価をし野帳に記録した内容を、写真や図面などの資料と対応させ、報告書などにまとめる作業を要しており、大変な労力がかかっていた。一方、3Dスキャナによる形状データの取得では、部材の位置やテクスチャなどのデータを取得できるが、建造物の部位にアノテーションをしていくことはできない。すなわち、データに対して関連する情報(メタデータ)を注釈として付与することができない。このため、アノテーション作業を、現地で対象物を観察しながら行うことのできる技術が求められていた。 By the way, when determining the preservation of the above-mentioned cultural heritage buildings, the survey staff evaluate the parts on site and record them in field notebooks, which are then matched with materials such as photographs and drawings, and compiled into reports. It required a lot of work to put together, and it took a lot of effort. On the other hand, when obtaining shape data using a 3D scanner, data such as the position and texture of members can be obtained, but it is not possible to annotate parts of a building. That is, it is not possible to add related information (metadata) to data as annotations. For this reason, there is a need for technology that allows annotation work to be performed while observing objects on site.

本発明は、上記に鑑みてなされたものであって、現地で対象物を観察しながらアノテーションを付与することができるアノテーション支援装置および方法を提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide an annotation support device and method that can annotate an object while observing it on-site.

上記した課題を解決し、目的を達成するために、本発明に係るアノテーション支援装置は、対象物の所定の部位にアノテーションを付与する作業を支援するための支援装置であって、対象物の3次元データを取得する3次元データ取得手段と、取得した3次元データに基づいて、対象物の画像を生成する画像生成手段と、生成した画像における所定の部位にユーザの操作によりアノテーションを付与するアノテーション付与手段と、生成した画像を対応する対象物の表面に投射する投射手段とを備え、画像生成手段は、所定の部位にアノテーションが付与されたアノテーション付き画像を生成し、投射手段は、生成したアノテーション付き画像を投射することを特徴とする。 In order to solve the above-mentioned problems and achieve the purpose, an annotation support device according to the present invention is a support device for supporting the work of annotating a predetermined part of an object, and includes three parts of the object. A three-dimensional data acquisition means for acquiring dimensional data, an image generation means for generating an image of an object based on the acquired three-dimensional data, and an annotation for annotating a predetermined part of the generated image by a user's operation. and a projection means for projecting the generated image onto the surface of the corresponding object, the image generation means generates an annotated image in which a predetermined part is annotated, and the projection means It is characterized by projecting images with annotations.

また、本発明に係る他のアノテーション支援装置は、上述した発明において、ユーザの操作により対象物における所定の部位をポインティングするポインティング手段をさらに備え、3次元データ取得手段は、ポインティングした部位の3次元データを取得することを特徴とする。 In addition, another annotation support device according to the present invention, in the above-described invention, further includes pointing means for pointing to a predetermined part of the object by a user's operation, and the three-dimensional data acquisition means includes a three-dimensional It is characterized by acquiring data.

また、本発明に係るアノテーション支援方法は、対象物の所定の部位にアノテーションを付与する作業を支援するための支援方法であって、対象物の3次元データを取得するステップと、取得した3次元データに基づいて、対象物の画像を生成するステップと、生成した画像における所定の部位にユーザの操作によりアノテーションを付与するステップと、所定の部位にアノテーションが付与されたアノテーション付き画像を生成し、生成したアノテーション付き画像を対応する対象物の表面に投射することを特徴とする。 Further, the annotation support method according to the present invention is a support method for supporting the task of annotating a predetermined part of a target object, and includes a step of acquiring three-dimensional data of the target object, and a step of acquiring three-dimensional data of the target object; a step of generating an image of the object based on the data; a step of annotating a predetermined part in the generated image by a user's operation; generating an annotated image in which the predetermined part is annotated; It is characterized by projecting the generated annotated image onto the surface of the corresponding object.

また、本発明に係る他のアノテーション支援方法は、上述した発明において、ユーザの操作により対象物における所定の部位をポインティングし、ポインティングした部位の3次元データを取得することを特徴とする。 Further, another annotation support method according to the present invention is characterized in that, in the above-described invention, a predetermined part of the object is pointed by a user's operation, and three-dimensional data of the pointed part is acquired.

本発明に係るアノテーション支援装置によれば、対象物の所定の部位にアノテーションを付与する作業を支援するための支援装置であって、対象物の3次元データを取得する3次元データ取得手段と、取得した3次元データに基づいて、対象物の画像を生成する画像生成手段と、生成した画像における所定の部位にユーザの操作によりアノテーションを付与するアノテーション付与手段と、生成した画像を対応する対象物の表面に投射する投射手段とを備え、画像生成手段は、所定の部位にアノテーションが付与されたアノテーション付き画像を生成し、投射手段は、生成したアノテーション付き画像を投射するので、現地で対象物を観察しながらアノテーションを付与することができるという効果を奏する。 According to the annotation support device according to the present invention, it is a support device for supporting the work of annotating a predetermined part of an object, and includes a three-dimensional data acquisition means for acquiring three-dimensional data of the object; An image generating means that generates an image of a target object based on the acquired three-dimensional data; an annotation adding means that annotates a predetermined part of the generated image according to a user's operation; and an object to which the generated image corresponds. The image generating means generates an annotated image in which a predetermined part is annotated, and the projecting means projects the generated annotated image, so that the image can be projected onto the surface of the target object on-site. This has the effect that annotations can be added while observing.

また、本発明に係る他のアノテーション支援装置によれば、ユーザの操作により対象物における所定の部位をポインティングするポインティング手段をさらに備え、3次元データ取得手段は、ポインティングした部位の3次元データを取得するので、現地でポインティングした部位を目視確認しながらアノテーション作業を実施することができるという効果を奏する。 Further, according to another annotation support device according to the present invention, the device further includes pointing means for pointing to a predetermined part of the target object by a user's operation, and the three-dimensional data acquisition means acquires three-dimensional data of the pointed part. Therefore, the annotation work can be carried out while visually checking the pointed part on-site.

また、本発明に係るアノテーション支援方法によれば、対象物の所定の部位にアノテーションを付与する作業を支援するための支援方法であって、対象物の3次元データを取得するステップと、取得した3次元データに基づいて、対象物の画像を生成するステップと、生成した画像における所定の部位にユーザの操作によりアノテーションを付与するステップと、所定の部位にアノテーションが付与されたアノテーション付き画像を生成し、生成したアノテーション付き画像を対応する対象物の表面に投射するので、現地で対象物を観察しながらアノテーションを付与することができるという効果を奏する。 Further, according to the annotation support method according to the present invention, there is provided a support method for supporting the work of annotating a predetermined part of a target object, which includes a step of acquiring three-dimensional data of the target object, and a step of acquiring three-dimensional data of the target object; A step of generating an image of the object based on the three-dimensional data, a step of annotating a predetermined part in the generated image by a user's operation, and generating an annotated image in which the predetermined part is annotated. However, since the generated annotated image is projected onto the surface of the corresponding object, it is possible to add annotations while observing the object on-site.

また、本発明に係る他のアノテーション支援方法によれば、ユーザの操作により対象物における所定の部位をポインティングし、ポインティングした部位の3次元データを取得するので、現地でポインティングした部位を目視確認しながらアノテーション作業を実施することができるという効果を奏する。 Furthermore, according to another annotation support method according to the present invention, a predetermined part of a target object is pointed by a user's operation, and three-dimensional data of the pointed part is obtained, so that the pointed part can be visually confirmed on site. This has the effect that annotation work can be performed while

図1は、本発明に係るアノテーション支援装置の実施の形態を示す概略構成図である。FIG. 1 is a schematic configuration diagram showing an embodiment of an annotation support device according to the present invention. 図2は、ポインティング方法の説明図であり、(1)は実施例1、(2)は実施例2、(3)は実施例3である。FIG. 2 is an explanatory diagram of the pointing method, in which (1) is the first embodiment, (2) is the second embodiment, and (3) is the third embodiment. 図3は、アノテーション付き画像データの全体像の一例を示す概略図である。FIG. 3 is a schematic diagram showing an example of an overall image of annotated image data. 図4は、本発明に係るアノテーション支援方法の実施の形態を示す概略フロー図である。FIG. 4 is a schematic flow diagram showing an embodiment of the annotation support method according to the present invention. 図5は、ポインティング方法に関する概略フロー図である。FIG. 5 is a schematic flow diagram regarding the pointing method. 図6は、本発明に係るアノテーション支援方法の実施の形態の変形例を示す概略フロー図である。FIG. 6 is a schematic flow diagram showing a modification of the embodiment of the annotation support method according to the present invention.

以下に、本発明に係るアノテーション支援装置および方法の実施の形態を図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of an annotation support apparatus and method according to the present invention will be described in detail below with reference to the drawings. Note that the present invention is not limited to this embodiment.

(アノテーション支援装置)
まず、本発明に係るアノテーション支援装置の実施の形態について説明する。
図1に示すように、本実施の形態に係るアノテーション支援装置10は、対象物の所定の部位にアノテーション(例えばレーティング・備考など)を付与する作業を支援するための支援装置である。このアノテーション支援装置10は、入出力部12と、ポインティングデバイス14と、PC16(パーソナルコンピュータ)と、処理部18と、記憶部20とを備える。
(Annotation support device)
First, an embodiment of an annotation support device according to the present invention will be described.
As shown in FIG. 1, an annotation support device 10 according to the present embodiment is a support device for supporting the task of adding annotations (for example, ratings, notes, etc.) to a predetermined portion of an object. This annotation support device 10 includes an input/output section 12, a pointing device 14, a PC 16 (personal computer), a processing section 18, and a storage section 20.

入出力部12は、3Dスキャナとプロジェクタが一体化した可搬性のものである。3Dスキャナは、周囲をスキャンして対象物の位置形状に関する3Dデータ(3次元データ)を取得する3次元データ取得手段である。この3Dスキャナは、ポインティングデバイス14でポインティングした部位(ポインティング位置)を示す3Dデータを取得可能である。プロジェクタは、所定の画像(アノテーション付き画像を含む)を対象物の表面に投射する投射手段である。 The input/output unit 12 is a portable unit that integrates a 3D scanner and a projector. A 3D scanner is a three-dimensional data acquisition means that scans the surroundings and acquires 3D data (three-dimensional data) regarding the position and shape of a target object. This 3D scanner is capable of acquiring 3D data indicating a region pointed with the pointing device 14 (pointing position). A projector is a projection device that projects a predetermined image (including an annotated image) onto the surface of an object.

ポインティングデバイス14は、作業者が対象物Sにおける部位を指定するためのポインティング手段である。このポインティングデバイス14には、図示しない登録ボタンや指示ボタンなどの操作ボタンが備わっており、例えば部位を指定した状態で登録ボタンをクリックすると、部位を登録指定した旨の信号を処理部18に発信する。また、登録が完了されると、その旨の信号を処理部18から受信する。 The pointing device 14 is a pointing means for an operator to specify a region on the object S. This pointing device 14 is equipped with operation buttons such as a registration button and an instruction button (not shown). For example, when the registration button is clicked with a region specified, a signal indicating that the region has been designated for registration is sent to the processing unit 18. do. Further, when the registration is completed, a signal to that effect is received from the processing unit 18.

このポインティングデバイス14は、対象物Sにおける部位を現地で指定することが可能であればいかなるデバイスを用いることができる。例えば、図2(1)に示すような指し棒やペンシル型のデバイスの先端で部位を指定してもよいし、スマートフォンやタブレット端末と一体化したものを用いてもよい。また、図2(2)に示すように、現地で天井など届かない箇所をポインティングするために、指定したい位置にレーザー光を照射するものでもよい。また、ポインティングデバイス14によるポインティングは、一点を指定する方式に限るものではない。例えば、図2(3)に示すように、ボタンのドラッグ操作などにより囲われた領域Rを指定できるようにしてもよい。 Any device can be used as the pointing device 14 as long as it is possible to specify a part of the object S on-site. For example, the region may be designated with the tip of a pointer or pencil-type device as shown in FIG. 2(1), or a device integrated with a smartphone or tablet terminal may be used. Alternatively, as shown in FIG. 2(2), a laser beam may be emitted to a desired location in order to point to a location that cannot be reached, such as a ceiling, on site. Further, pointing by the pointing device 14 is not limited to the method of specifying one point. For example, as shown in FIG. 2(3), the enclosed area R may be specified by dragging a button or the like.

PC16は、ディスプレイ等の表示装置と、キーボード、マウス等の操作インターフェースを持つパーソナルコンピュータであり、アノテーション付与手段として機能する。PC16は例えばタブレット端末で構成してもよい。このPC16は、記憶部20から画像データを取得して、取得した画像を表示装置上に表示する。ユーザは、表示装置上に表示された画像を参照して、この画像における所定の部位に、操作インターフェースを使用してアノテーションを付与することができる。ただし、どの部分にどのようなアノテーションを付与するかについては、現場で部位の状態を見ないと判断できないものがあるため、このアノテーション付与作業は現場で行うことが望ましい。例えば、どこまでを一つの部材とみなすかの判断、一つの部材の中で塗装が浮いている範囲の判断、劣化度合で一つの部材を2つの部位に分けてナンバリングする場合の判断は、現場で部位の状態を見なければ難しい。 The PC 16 is a personal computer having a display device such as a display and an operation interface such as a keyboard and a mouse, and functions as an annotation adding means. The PC 16 may be configured with a tablet terminal, for example. This PC 16 acquires image data from the storage unit 20 and displays the acquired image on a display device. The user can refer to the image displayed on the display device and add an annotation to a predetermined portion of the image using the operation interface. However, it is preferable to carry out this annotation work on-site, as it is impossible to determine which annotation should be added to which part without seeing the condition of the part on-site. For example, judgments are made on-site, such as how far to consider one part, the extent to which paint is floating within one part, and the numbering of parts when dividing one part into two parts based on the degree of deterioration. It's difficult to tell without looking at the condition of the parts.

付与されたアノテーションは、画像内の部位の位置を示す3Dデータと紐付されたアノテーションデータとして記憶部20に記憶される。なお、このPC16を用いて、アノテーションを追加・編集できるようにしてもよい。 The added annotation is stored in the storage unit 20 as annotation data associated with 3D data indicating the position of the region within the image. Note that the PC 16 may be used to add and edit annotations.

処理部18は、入出力部12、ポインティングデバイス14、PC16とそれぞれ接続しており、これらとの間でデータを送受信して各種処理を行うものであり、画像生成手段として機能する。具体的には、処理部18は、入出力部12の3Dスキャナから送信される3Dデータに基づいて、対象物Sの画像を生成する処理を行う一方で、生成した画像データを入出力部12のプロジェクタと、PC16とに送信する処理を行う。また、この処理部18は、PC16から送信されるアノテーションデータに基づいて、所定の部位(例えば、ポインティング位置に対応する位置)にアノテーションが付与されたアノテーション付き画像を生成する処理を行う。 The processing section 18 is connected to the input/output section 12, the pointing device 14, and the PC 16, and performs various processes by transmitting and receiving data to and from these, and functions as an image generating means. Specifically, the processing unit 18 performs a process of generating an image of the object S based on the 3D data transmitted from the 3D scanner of the input/output unit 12 , while transmitting the generated image data to the input/output unit 12 . The process of transmitting the data to the projector and the PC 16 is performed. The processing unit 18 also performs a process of generating an annotated image in which a predetermined part (for example, a position corresponding to the pointing position) is annotated based on the annotation data transmitted from the PC 16.

また、この処理部18は、ポインティングデバイス14から部位を登録指定した旨の信号を受信すると、入出力部12の3Dスキャナに3Dスキャン指令を送信する。こうして、ポインティング位置を示す3Dデータを取得するためのスキャンを3Dスキャナに実行させる。そして、入出力部12の3Dスキャナから送信されたポインティング位置を示す3Dデータを用いて、ポインティング位置を検出する処理を行う。ポインティング位置は、ポインティングデバイス14から部位を登録指定した旨の信号を受信する前の3Dデータとの差分を利用して検出することができる。なお、処理部18と、入出力部12、ポインティングデバイス14、PC16との接続は直接接続方式でもよいし、ネットワーク等を経由した接続方式でもよい。 Further, upon receiving a signal from the pointing device 14 indicating that a region has been designated for registration, the processing section 18 transmits a 3D scan command to the 3D scanner of the input/output section 12 . In this way, the 3D scanner is caused to perform a scan to obtain 3D data indicating the pointing position. Then, using 3D data indicating the pointing position transmitted from the 3D scanner of the input/output unit 12, a process of detecting the pointing position is performed. The pointing position can be detected using the difference between the 3D data and the 3D data before receiving a signal from the pointing device 14 indicating that the region has been designated for registration. Note that the processing unit 18, the input/output unit 12, the pointing device 14, and the PC 16 may be connected by a direct connection method or by a connection method via a network or the like.

記憶部20は、処理部18に送受信される各種データを記憶するものである。例えば、入出力部12の3Dスキャナから送信される3Dデータ、処理部18が生成した画像データ、PC16から送信されるアノテーションデータなどを記憶する。 The storage unit 20 stores various data sent to and received from the processing unit 18. For example, 3D data transmitted from the 3D scanner of the input/output unit 12, image data generated by the processing unit 18, annotation data transmitted from the PC 16, etc. are stored.

上記構成の動作および作用について、対象物における各部材(部位)に部材番号(アノテーション)を付与する作業を例にとり説明する。
まず、図2(1)に示すように、対象物Sのある空間内に入出力部12を設置する。続いて、入出力部12に備わる3Dスキャナで周囲の3Dデータを取得する。処理部18は、3Dデータに基づいて画像を生成する。
The operation and effect of the above configuration will be explained by taking as an example the work of assigning a member number (annotation) to each member (part) of a target object.
First, as shown in FIG. 2(1), the input/output unit 12 is installed in a space where the object S is located. Next, a 3D scanner provided in the input/output unit 12 acquires surrounding 3D data. The processing unit 18 generates an image based on the 3D data.

次に、ユーザがポインティングデバイス14で対象部位を差しながら登録ボタンをクリックすると、処理部18は、3Dスキャナを通じてポインティング位置(対象部位)を検出する。処理部18は、記憶部20のアノテーションデータを参照して、ポインティング位置にアノテーションが付与されたアノテーション付き画像を生成する。入出力部12に備わるプロジェクタは、対象部位にむけてアノテーション付き画像を投射してプロジェクションマッピングを行う。こうすることで、対象部位の上に番号(図の例では5)が投影表示される。 Next, when the user clicks the registration button while pointing at the target region with the pointing device 14, the processing unit 18 detects the pointing position (target region) through the 3D scanner. The processing unit 18 refers to the annotation data in the storage unit 20 and generates an annotated image in which the pointing position is annotated. A projector included in the input/output unit 12 projects an annotated image toward a target region to perform projection mapping. By doing this, a number (5 in the illustrated example) is projected and displayed on the target region.

なお、この投影された画像の3Dデータを3Dスキャナで再取得してもよい。こうすることで、ポインティング位置が3Dデータ上のどの位置かを特定し、データとして保持することができる。この作業を繰り返し行うことで、3Dデータ上の各箇所に順次番号が付与されていく。また、現場でリアルタイムに番号が投影されるので作業進捗も容易に確認することができる。この一連の作業によって、全体として、例えば図3に示すようなアノテーション付き画像データを取得することができる。 Note that the 3D data of this projected image may be reacquired using a 3D scanner. By doing so, it is possible to specify which position on the 3D data the pointing position is and hold it as data. By repeating this process, numbers are sequentially assigned to each location on the 3D data. Additionally, since the numbers are projected in real time on-site, you can easily check the work progress. Through this series of operations, annotated image data as shown in FIG. 3, for example, can be obtained as a whole.

また、後の工程で、もしくは上記の作業と平行して、登録した各ポインティング位置に対して、PC16などを用いてアノテーションを追加・編集できるようにしてもよい。また、PC16の表示装置上で、例えば投げ縄ツールなどにより複数のポイントを領域Rで指定して(図2(3)を参照)、一括編集できるようにしてもよい。 Further, in a later step or in parallel with the above operation, it may be possible to add and edit annotations to each registered pointing position using the PC 16 or the like. Further, on the display device of the PC 16, a plurality of points may be designated in the area R using, for example, a lasso tool (see FIG. 2(3)), so that batch editing can be performed.

また、ユーザがポインティングデバイス14で対象部位を差しながら登録ボタンをクリックする前に、ユーザはPC16に表示させた画像を見ながら、画像内の所定の部材に番号を付与する作業を行っていてもよい。この場合、付与された番号は部材と紐付されてアノテーションデータとして記憶部20に記憶される。 Furthermore, before the user clicks the registration button while pointing at the target region with the pointing device 14, the user may be looking at the image displayed on the PC 16 and assigning numbers to predetermined members in the image. good. In this case, the assigned number is associated with the member and stored in the storage unit 20 as annotation data.

また、全体のアノテーション付き画像データが得られた後に、3Dデータ上で番号を表示したものを画像として出力し、各部材を指示する位置に、部材の名称と基準とを紐付けたアノテーションを表示した説明図を簡単に取得することもできる。 In addition, after obtaining the entire annotated image data, the number displayed on the 3D data is output as an image, and an annotation linking the name of the member and the reference is displayed at the position indicating each member. You can also easily obtain explanatory diagrams.

上記の実施の形態においては、PC16上でアノテーションを追加・編集する場合を例にとり説明したが、本発明はこれに限るものではなく、処理部18がアノテーションを追加・編集するための編集用入出力インターフェース機能を有してもよい。このようにしても上記と同様の作用効果を奏することができる。 In the above embodiment, the case where annotations are added/edited on the PC 16 has been described as an example, but the present invention is not limited to this, and the processing unit 18 uses editing tools for adding/editing annotations. It may also have an output interface function. Even in this case, the same effects as described above can be achieved.

本実施の形態によれば、3Dデータによる画像の生成とその部位の指定を、現地でポインティング箇所を確認しながら行うことができ、各部位にアノテーションが付与された建物のデータ生成を容易にすることができる。また、アノテーション作業の進捗をリアルタイムにプロジェクションマッピングによってフィードバックすることができる。このため、作業員がアノテーション作業の漏れを現場で目視確認しながらポインティングの作業を進めることができる。また、複数の作業員でポインティングの作業をすることもできる。このため、現場でのポインティングの作業効率を向上することができる。 According to the present embodiment, it is possible to generate an image using 3D data and specify its part while checking the pointing location on-site, making it easy to generate data for a building with annotations added to each part. be able to. Additionally, the progress of annotation work can be fed back in real time through projection mapping. Therefore, the worker can proceed with the pointing work while visually checking for omissions in the annotation work on site. In addition, pointing work can be performed by multiple workers. Therefore, the efficiency of pointing work on site can be improved.

(アノテーション支援方法)
次に、本発明に係るアノテーション支援方法の実施の形態について説明する。
図4に示すように、本実施の形態のアノテーション支援方法は、現地の空間に入出力部12を設定する(ステップS11)。次に、周囲を3Dスキャンし、3Dデータを保持する(ステップS12、13)。記憶部20において、既に前の3Dデータが有る場合には(ステップS14でYes)、前のデータと現在の3Dデータを統合して(ステップS22)、ステップS15に進める。一方、既に前の3Dデータがない場合には(ステップS14でNo)、そのままステップS15に進める。
(Annotation support method)
Next, an embodiment of the annotation support method according to the present invention will be described.
As shown in FIG. 4, the annotation support method of this embodiment sets the input/output unit 12 in the local space (step S11). Next, the surrounding area is 3D scanned and 3D data is held (steps S12, 13). If the previous 3D data already exists in the storage unit 20 (Yes in step S14), the previous data and the current 3D data are integrated (step S22), and the process proceeds to step S15. On the other hand, if there is no previous 3D data (No in step S14), the process directly advances to step S15.

次に、ユーザがポインティングデバイス14の登録ボタンで部位を登録する(ステップS15)。処理部18は、3Dデータ上の部位の位置に番号(アノテーション)を付与したアノテーション付き画像を生成し(ステップS16)、プロジェクタは、この画像をプロジェクションマッピングする(ステップS17)。ポインティングデバイス14で次の部位が登録されれば(ステップS18でYes)、ステップS15に戻り処理を繰り返す。登録されなければ(ステップS18でNo)、そのままステップS19に進める。 Next, the user registers the body part using the registration button of the pointing device 14 (step S15). The processing unit 18 generates an annotated image in which numbers (annotations) are assigned to the positions of parts on the 3D data (step S16), and the projector performs projection mapping on this image (step S17). If the next part is registered with the pointing device 14 (Yes in step S18), the process returns to step S15 and repeats the process. If it is not registered (No in step S18), the process directly advances to step S19.

次に、次のスキャン位置にするか否かを判断する(ステップS19)。スキャン位置を変える場合は(ステップS19でYes)、入出力部12を移動して(ステップS23)、ステップS11に戻り処理を繰り返す。スキャン位置を変えない場合は(ステップS19でNo)、追加で登録・修正するか否かを判断する(ステップS20)。追加で登録・修正する場合は(ステップS20でYes)、PC16上に3Dデータを描画し(ステップS24)、画面上で部位に番号を登録・修正し(ステップS25)、ステップS21に進める。追加で登録・修正しない場合は(ステップS20でNo)、そのままステップS21に進める。 Next, it is determined whether to move to the next scanning position (step S19). If the scanning position is to be changed (Yes in step S19), the input/output section 12 is moved (step S23), and the process returns to step S11 to repeat the process. If the scanning position is not changed (No in step S19), it is determined whether to additionally register or modify the scan position (step S20). If additional registration/correction is desired (Yes in step S20), 3D data is drawn on the PC 16 (step S24), a number is registered/corrected for the part on the screen (step S25), and the process proceeds to step S21. If no additional registration or correction is to be made (No in step S20), the process directly advances to step S21.

通し番号を付与しなおす場合は(ステップS21でYes)、付与した番号をソーティングし(ステップS26)、処理を終了する。通し番号を付与しなおさない場合は(ステップS21でNo)、そのまま処理を終了する。 If serial numbers are to be assigned again (Yes in step S21), the assigned numbers are sorted (step S26), and the process ends. If the serial number is not to be re-assigned (No in step S21), the process ends.

このように、一回のスキャンで建物内全体の3Dデータを取得できないために複数回に分けてスキャンする場合や、詳細部分を別途ハンディ3Dスキャナでスキャンする場合は、先に3Dデータを統合して建物内全体をカバーしてから、ポインティング作業に入ることが望ましい。 In this way, if you are unable to obtain 3D data for the entire building in a single scan and have to scan it multiple times, or if you want to scan detailed areas separately using a handy 3D scanner, you can integrate the 3D data first. It is recommended that you cover the entire building before starting the pointing operation.

次に、上記のステップS15~S17のポインティング作業における処理フローについて説明する。
図5に示すように、まず、ポインティングデバイス14の登録ボタンをクリックすると(ステップS1)、処理部18によって、3Dデータにより生成した画像におけるポイント位置が認識される(ステップS2)。認識したポイント位置に向けてプロジェクタが画像を投射する(ステップS3)。その後、対象物に画像が投射されている状態を3Dスキャナで再スキャンする(ステップS4)。こうすることで、3Dデータ上でポイント位置を保持することができる(ステップS5)。
Next, the processing flow in the pointing work in steps S15 to S17 will be described.
As shown in FIG. 5, first, when the registration button of the pointing device 14 is clicked (step S1), the processing unit 18 recognizes the point position in the image generated from 3D data (step S2). The projector projects an image toward the recognized point position (step S3). Thereafter, the state in which the image is projected onto the target object is rescanned using a 3D scanner (step S4). By doing so, the point position can be held on the 3D data (step S5).

本実施の形態によれば、3Dデータによる画像の生成とその部位の指定を、現地でポインティング箇所を確認しながら行うことができ、各部位にアノテーションが付与された建物のデータ生成を容易にすることができる。また、アノテーション作業の進捗をリアルタイムにプロジェクションマッピングによってフィードバックすることができる。このため、作業員がアノテーション作業の漏れを現場で目視確認しながらポインティングの作業を進めることができる。また、複数の作業員でポインティングの作業をすることもできる。このため、現場でのポインティングの作業効率を向上することができる。 According to the present embodiment, it is possible to generate an image using 3D data and specify its part while checking the pointing location on-site, making it easy to generate data for a building with annotations added to each part. be able to. Additionally, the progress of annotation work can be fed back in real time through projection mapping. Therefore, the worker can proceed with the pointing work while visually checking for omissions in the annotation work on site. In addition, pointing work can be performed by multiple workers. Therefore, the efficiency of pointing work on site can be improved.

(変形例)
次に、本実施の形態に係るアノテーション支援方法の変形例について説明する。この変形例のようにしても、上記と同様の作用効果を奏することができる。
(Modified example)
Next, a modification of the annotation support method according to this embodiment will be described. Even with this modification, the same effects as described above can be achieved.

図6に示すように、まず、現地の空間に入出力部12を設置し、周囲を3Dスキャンする(ステップS31)。続いて、ポインティングデバイス14の指示ボタンをクリックして(ステップS32)、ポインティングデバイス14の位置を3Dスキャナで再スキャンし、3Dデータを取得(撮像)する(ステップS33)。 As shown in FIG. 6, first, the input/output unit 12 is installed in the local space, and the surrounding area is 3D scanned (step S31). Subsequently, the user clicks the instruction button on the pointing device 14 (step S32), and the position of the pointing device 14 is rescanned with the 3D scanner to acquire (image) 3D data (step S33).

次に、ポインティングデバイス14の指示位置に向けてプロジェクタが画像を投射する(ステップS34)。ポインティングデバイス14を移動した場合は(ステップS35でYes)、ステップS33に戻り処理を繰り返す。ポインティングデバイス14を移動しない場合は(ステップS35でNo)、ポインティングデバイス14で登録ボタンをクリックして(ステップS36)、画像がプロジェクションマッピングされている状態を再スキャンし、3Dデータを取得(撮像)する(ステップS37)。次に、ステップS31のデータと、ステップS37のデータの差分により投射画像の位置を3Dデータ上で特定し(ステップS38)、投射画像の位置を対象物形状の位置と対応付けて保持する(ステップS39)。この後、次のポイントが有る場合は(ステップS40でYes)、ステップS32に戻り処理を繰り返す。次のポイントがない場合は(ステップS40でNo)、処理を終了する。 Next, the projector projects an image toward the position indicated by the pointing device 14 (step S34). If the pointing device 14 has been moved (Yes in step S35), the process returns to step S33 and repeats the process. If you do not want to move the pointing device 14 (No in step S35), click the registration button on the pointing device 14 (step S36), rescan the projection mapped image, and acquire 3D data (imaging). (Step S37). Next, the position of the projected image is specified on the 3D data based on the difference between the data in step S31 and the data in step S37 (step S38), and the position of the projected image is stored in correspondence with the position of the object shape (step S39). After this, if there is a next point (Yes in step S40), the process returns to step S32 and repeats the process. If there is no next point (No in step S40), the process ends.

以上説明したように、本発明に係るアノテーション支援装置によれば、対象物の所定の部位にアノテーションを付与する作業を支援するための支援装置であって、対象物の3次元データを取得する3次元データ取得手段と、取得した3次元データに基づいて、対象物の画像を生成する画像生成手段と、生成した画像における所定の部位にユーザの操作によりアノテーションを付与するアノテーション付与手段と、生成した画像を対応する対象物の表面に投射する投射手段とを備え、画像生成手段は、所定の部位にアノテーションが付与されたアノテーション付き画像を生成し、投射手段は、生成したアノテーション付き画像を投射するので、現地で対象物を観察しながらアノテーションを付与することができる。 As explained above, the annotation support device according to the present invention is a support device for supporting the work of annotating a predetermined part of a target object, and is a support device for supporting the work of annotating a predetermined part of a target object. dimensional data acquisition means; image generation means for generating an image of an object based on the acquired three-dimensional data; and a projection means for projecting the image onto the surface of the corresponding object, the image generation means generates an annotated image in which a predetermined part is annotated, and the projection means projects the generated annotated image. Therefore, annotations can be added while observing the object on-site.

また、本発明に係る他のアノテーション支援装置によれば、ユーザの操作により対象物における所定の部位をポインティングするポインティング手段をさらに備え、3次元データ取得手段は、ポインティングした部位の3次元データを取得するので、現地でポインティングした部位を目視確認しながらアノテーション作業を実施することができる。 Further, according to another annotation support device according to the present invention, the device further includes pointing means for pointing to a predetermined part of the target object by a user's operation, and the three-dimensional data acquisition means acquires three-dimensional data of the pointed part. Therefore, annotation work can be carried out while visually checking the pointed area on site.

また、本発明に係るアノテーション支援方法によれば、対象物の所定の部位にアノテーションを付与する作業を支援するための支援方法であって、対象物の3次元データを取得するステップと、取得した3次元データに基づいて、対象物の画像を生成するステップと、生成した画像における所定の部位にユーザの操作によりアノテーションを付与するステップと、所定の部位にアノテーションが付与されたアノテーション付き画像を生成し、生成したアノテーション付き画像を対応する対象物の表面に投射するので、現地で対象物を観察しながらアノテーションを付与することができる。 Further, according to the annotation support method according to the present invention, there is provided a support method for supporting the work of annotating a predetermined part of a target object, which includes a step of acquiring three-dimensional data of the target object, and a step of acquiring three-dimensional data of the target object; A step of generating an image of the object based on the three-dimensional data, a step of annotating a predetermined part in the generated image by a user's operation, and generating an annotated image in which the predetermined part is annotated. Since the generated annotated image is then projected onto the surface of the corresponding object, it is possible to add annotations while observing the object on-site.

また、本発明に係る他のアノテーション支援方法によれば、ユーザの操作により対象物における所定の部位をポインティングし、ポインティングした部位の3次元データを取得するので、現地でポインティングした部位を目視確認しながらアノテーション作業を実施することができる。 Furthermore, according to another annotation support method according to the present invention, a predetermined part of a target object is pointed by a user's operation, and three-dimensional data of the pointed part is obtained, so that the pointed part can be visually confirmed on site. You can perform annotation work while

以上のように、本発明に係るアノテーション支援装置および方法は、歴史建造物の保存・修復計画などに有用であり、特に、現地で対象物を観察しながらアノテーションを付与するのに適している。 As described above, the annotation support device and method according to the present invention are useful for preservation and restoration planning of historical buildings, and are particularly suitable for annotating objects while observing them on-site.

10 アノテーション支援装置
12 入出力部(3次元データ取得手段、投射手段)
14 ポインティングデバイス(ポインティング手段)
16 PC(アノテーション付与手段)
18 処理部(画像生成手段)
20 記憶部
S 対象物
10 Annotation support device 12 Input/output unit (three-dimensional data acquisition means, projection means)
14 Pointing device (pointing means)
16 PC (annotation adding means)
18 Processing unit (image generation means)
20 Storage part S Object

Claims (4)

対象物の所定の部位にアノテーションを付与する作業を支援するための支援装置であって、
対象物の3次元データを取得する3次元データ取得手段と、取得した3次元データに基づいて、対象物の画像を生成する画像生成手段と、生成した画像における所定の部位にユーザの操作によりアノテーションを付与するアノテーション付与手段と、生成した画像を対応する対象物の表面に投射する投射手段とを備え、
画像生成手段は、所定の部位にアノテーションが付与されたアノテーション付き画像を生成し、投射手段は、生成したアノテーション付き画像を投射することを特徴とするアノテーション支援装置。
A support device for supporting the task of annotating a predetermined part of a target object, the support device comprising:
3D data acquisition means for acquiring 3D data of the object; image generation means for generating an image of the object based on the acquired 3D data; and annotation at a predetermined part of the generated image by user operation. an annotation adding means for adding an annotation, and a projection means for projecting the generated image onto the surface of the corresponding object,
An annotation support device characterized in that the image generation means generates an annotated image in which a predetermined part is annotated, and the projection means projects the generated annotated image.
ユーザの操作により対象物における所定の部位をポインティングするポインティング手段をさらに備え、
3次元データ取得手段は、ポインティングした部位の3次元データを取得することを特徴とする請求項1に記載のアノテーション支援装置。
further comprising pointing means for pointing at a predetermined part of the object according to a user's operation,
2. The annotation support device according to claim 1, wherein the three-dimensional data acquisition means acquires three-dimensional data of the pointed part.
対象物の所定の部位にアノテーションを付与する作業を支援するための支援方法であって、
対象物の3次元データを取得するステップと、取得した3次元データに基づいて、対象物の画像を生成するステップと、生成した画像における所定の部位にユーザの操作によりアノテーションを付与するステップと、所定の部位にアノテーションが付与されたアノテーション付き画像を生成し、生成したアノテーション付き画像を対応する対象物の表面に投射することを特徴とするアノテーション支援方法。
A support method for supporting the task of annotating a predetermined part of a target object, the method comprising:
a step of acquiring three-dimensional data of the target object; a step of generating an image of the target object based on the acquired three-dimensional data; and a step of annotating a predetermined part of the generated image by a user's operation; An annotation support method comprising: generating an annotated image in which a predetermined part is annotated; and projecting the generated annotated image onto the surface of a corresponding object.
ユーザの操作により対象物における所定の部位をポインティングし、ポインティングした部位の3次元データを取得することを特徴とする請求項3に記載のアノテーション支援方法。 4. The annotation support method according to claim 3, further comprising pointing at a predetermined part of the object by a user's operation, and acquiring three-dimensional data of the pointed part.
JP2020092697A 2020-05-27 2020-05-27 Annotation support device and method Active JP7390978B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020092697A JP7390978B2 (en) 2020-05-27 2020-05-27 Annotation support device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020092697A JP7390978B2 (en) 2020-05-27 2020-05-27 Annotation support device and method

Publications (2)

Publication Number Publication Date
JP2021188971A JP2021188971A (en) 2021-12-13
JP7390978B2 true JP7390978B2 (en) 2023-12-04

Family

ID=78849279

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020092697A Active JP7390978B2 (en) 2020-05-27 2020-05-27 Annotation support device and method

Country Status (1)

Country Link
JP (1) JP7390978B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4814700B2 (en) 2006-06-15 2011-11-16 大成建設株式会社 Pointing position detection system
JP2014006917A (en) 2008-01-15 2014-01-16 Google Inc Three-dimensional annotations for street view data
WO2014162825A1 (en) 2013-04-04 2014-10-09 ソニー株式会社 Display control device, display control method and program
JP2018017640A (en) 2016-07-29 2018-02-01 株式会社大林組 Working face monitoring system
JP2018150720A (en) 2017-03-13 2018-09-27 大成建設株式会社 Method and system for displaying information of working face, and tunnel construction method by using these

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4814700B2 (en) 2006-06-15 2011-11-16 大成建設株式会社 Pointing position detection system
JP2014006917A (en) 2008-01-15 2014-01-16 Google Inc Three-dimensional annotations for street view data
WO2014162825A1 (en) 2013-04-04 2014-10-09 ソニー株式会社 Display control device, display control method and program
JP2018017640A (en) 2016-07-29 2018-02-01 株式会社大林組 Working face monitoring system
JP2018150720A (en) 2017-03-13 2018-09-27 大成建設株式会社 Method and system for displaying information of working face, and tunnel construction method by using these

Also Published As

Publication number Publication date
JP2021188971A (en) 2021-12-13

Similar Documents

Publication Publication Date Title
US10699481B2 (en) Augmentation of captured 3D scenes with contextual information
US7061485B2 (en) Method and system for producing a model from optical images
US20070168153A1 (en) Method and apparatus for photographic measurement
US20080267454A1 (en) Measurement apparatus and control method
US8094242B2 (en) Object management apparatus, mobile terminal, and object management method
JP6692154B2 (en) Image display system and image display program
JP7391317B2 (en) Information management device, information management system, information management method, and information management program
JP2005215917A (en) Working drawing creation support method and replacement model creation method
JP4038726B2 (en) Image matching method
JP2019094620A (en) Bridge inspection support device, bridge inspection support method, program, and mobile terminal device
JP6537134B2 (en) Equipment loss investigation support device and program
JP7390978B2 (en) Annotation support device and method
JP5642735B2 (en) Construction work support system and operation method thereof
Goedert et al. Integrating laser scanning and rapid prototyping to enhance construction modeling
JPH10246628A (en) Photographing control method
JP2004348577A (en) Information display system and pointing device control method in it
JP7044331B2 (en) Image processing systems, image processing methods and programs for efficiently inspecting structures such as bridges
JP2023018180A (en) Measurement system and measurement method
JP2020095749A (en) Image display system and image display program
US11915356B2 (en) Semi-automatic 3D scene optimization with user-provided constraints
JP2015026226A (en) Pickup data processing system
KR102563138B1 (en) Augmented reality support system for construction and supervision of construction site
JP6937282B2 (en) Annotation support system, annotation support device and annotation support method
JP2018092300A (en) Three-dimensional model generation device, program thereof, and method thereof
TWM653153U (en) an information processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230309

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231025

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231121

R150 Certificate of patent or registration of utility model

Ref document number: 7390978

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150