JP7390978B2 - Annotation support device and method - Google Patents
Annotation support device and method Download PDFInfo
- Publication number
- JP7390978B2 JP7390978B2 JP2020092697A JP2020092697A JP7390978B2 JP 7390978 B2 JP7390978 B2 JP 7390978B2 JP 2020092697 A JP2020092697 A JP 2020092697A JP 2020092697 A JP2020092697 A JP 2020092697A JP 7390978 B2 JP7390978 B2 JP 7390978B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- data
- annotation
- pointing
- predetermined part
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 54
- 238000012545 processing Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 238000010276 construction Methods 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 238000004321 preservation Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012937 correction Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Processing Or Creating Images (AREA)
Description
本発明は、例えば建造物の保存にかかる部位にアノテーションを付与するのに好適なアノテーション支援装置および方法に関するものである。 TECHNICAL FIELD The present invention relates to an annotation support device and method suitable for annotating, for example, parts of a building that need to be preserved.
従来、歴史建造物の保存・修復計画などにおいて、3Dスキャナで立体データを取得する作業が行われている。これは、作業前の建物・部材の状態を立体的な3次元形状データとして保存しておき、修復後に比較のため参照可能にすることや、曲面の天井や梁などの立体構造を3次元形状データとして取得し、保存・修復計画に活かすことなどに利用されている。 BACKGROUND ART Conventionally, 3D scanners have been used to acquire three-dimensional data in projects such as preservation and restoration plans for historical buildings. This saves the state of buildings and components before work as three-dimensional three-dimensional shape data, which can be referenced for comparison after restoration, and also allows three-dimensional structures such as curved ceilings and beams to be saved in three-dimensional shape data. It is acquired as data and used for conservation and restoration plans.
例えば、歴史的礼拝堂のデータ取得作業では、空間全体を大型3Dスキャナで数回に分けてスキャンし、ハンディ3Dスキャナでレリーフなどの細かいオブジェクトをスキャンすることが行われている。 For example, when acquiring data on a historical chapel, the entire space is scanned in several batches using a large 3D scanner, and small objects such as reliefs are scanned using a handheld 3D scanner.
また、文化財建造物の保存活用計画においては、建造物の保存にかかる部分の設定をし、それぞれの部位に対して、5段階の基準によって保護の方針を設定する作業が行われている。 In addition, in the preservation and utilization plan for cultural property buildings, work is being done to determine the parts of the building that need to be preserved and to set protection policies for each part based on five-stage criteria.
一方、工事作業者が鏡吹きされたコンクリート表面上でその地山状況を視認しながら施工作業を行うことができる技術として、例えば特許文献1に記載のものが知られている。この特許文献1は、切羽面を含む領域をデジタルカメラにて撮影して、切羽情報画像を生成する一方、切羽面をコンクリートで鏡吹きし、この鏡吹きしたコンクリート表面に切羽情報画像を投影した後、投影した画像に基づき装薬孔位置等の施工情報を決定し、決定した施工情報の表示情報を切羽情報画像に追加して切羽情報更新画像を生成し、切羽情報更新画像を切羽面に投影するものである。
On the other hand, a technique described in
また、ポインティング位置の検出技術として、例えば特許文献2に記載のものが知られている。この特許文献2は、2次元画像表示スクリーンと、2次元画像表示スクリーンの裏面に画像光を照射する2次元画像光照射装置と、2次元画像表示スクリーンの表面に光を照射するポインタと、2次元画像表示スクリーンの裏面を撮影する撮影装置と、撮影装置による撮像結果が入力される制御装置とを備えており、制御装置が、撮影結果から照射された光をポインティング位置として検出するようになっている。
Further, as a pointing position detection technique, for example, the technique described in
ところで、上記の文化財建造物の保存にかかる部分の設定では、現地で調査従事者が部位の評価をし野帳に記録した内容を、写真や図面などの資料と対応させ、報告書などにまとめる作業を要しており、大変な労力がかかっていた。一方、3Dスキャナによる形状データの取得では、部材の位置やテクスチャなどのデータを取得できるが、建造物の部位にアノテーションをしていくことはできない。すなわち、データに対して関連する情報(メタデータ)を注釈として付与することができない。このため、アノテーション作業を、現地で対象物を観察しながら行うことのできる技術が求められていた。 By the way, when determining the preservation of the above-mentioned cultural heritage buildings, the survey staff evaluate the parts on site and record them in field notebooks, which are then matched with materials such as photographs and drawings, and compiled into reports. It required a lot of work to put together, and it took a lot of effort. On the other hand, when obtaining shape data using a 3D scanner, data such as the position and texture of members can be obtained, but it is not possible to annotate parts of a building. That is, it is not possible to add related information (metadata) to data as annotations. For this reason, there is a need for technology that allows annotation work to be performed while observing objects on site.
本発明は、上記に鑑みてなされたものであって、現地で対象物を観察しながらアノテーションを付与することができるアノテーション支援装置および方法を提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide an annotation support device and method that can annotate an object while observing it on-site.
上記した課題を解決し、目的を達成するために、本発明に係るアノテーション支援装置は、対象物の所定の部位にアノテーションを付与する作業を支援するための支援装置であって、対象物の3次元データを取得する3次元データ取得手段と、取得した3次元データに基づいて、対象物の画像を生成する画像生成手段と、生成した画像における所定の部位にユーザの操作によりアノテーションを付与するアノテーション付与手段と、生成した画像を対応する対象物の表面に投射する投射手段とを備え、画像生成手段は、所定の部位にアノテーションが付与されたアノテーション付き画像を生成し、投射手段は、生成したアノテーション付き画像を投射することを特徴とする。 In order to solve the above-mentioned problems and achieve the purpose, an annotation support device according to the present invention is a support device for supporting the work of annotating a predetermined part of an object, and includes three parts of the object. A three-dimensional data acquisition means for acquiring dimensional data, an image generation means for generating an image of an object based on the acquired three-dimensional data, and an annotation for annotating a predetermined part of the generated image by a user's operation. and a projection means for projecting the generated image onto the surface of the corresponding object, the image generation means generates an annotated image in which a predetermined part is annotated, and the projection means It is characterized by projecting images with annotations.
また、本発明に係る他のアノテーション支援装置は、上述した発明において、ユーザの操作により対象物における所定の部位をポインティングするポインティング手段をさらに備え、3次元データ取得手段は、ポインティングした部位の3次元データを取得することを特徴とする。 In addition, another annotation support device according to the present invention, in the above-described invention, further includes pointing means for pointing to a predetermined part of the object by a user's operation, and the three-dimensional data acquisition means includes a three-dimensional It is characterized by acquiring data.
また、本発明に係るアノテーション支援方法は、対象物の所定の部位にアノテーションを付与する作業を支援するための支援方法であって、対象物の3次元データを取得するステップと、取得した3次元データに基づいて、対象物の画像を生成するステップと、生成した画像における所定の部位にユーザの操作によりアノテーションを付与するステップと、所定の部位にアノテーションが付与されたアノテーション付き画像を生成し、生成したアノテーション付き画像を対応する対象物の表面に投射することを特徴とする。 Further, the annotation support method according to the present invention is a support method for supporting the task of annotating a predetermined part of a target object, and includes a step of acquiring three-dimensional data of the target object, and a step of acquiring three-dimensional data of the target object; a step of generating an image of the object based on the data; a step of annotating a predetermined part in the generated image by a user's operation; generating an annotated image in which the predetermined part is annotated; It is characterized by projecting the generated annotated image onto the surface of the corresponding object.
また、本発明に係る他のアノテーション支援方法は、上述した発明において、ユーザの操作により対象物における所定の部位をポインティングし、ポインティングした部位の3次元データを取得することを特徴とする。 Further, another annotation support method according to the present invention is characterized in that, in the above-described invention, a predetermined part of the object is pointed by a user's operation, and three-dimensional data of the pointed part is acquired.
本発明に係るアノテーション支援装置によれば、対象物の所定の部位にアノテーションを付与する作業を支援するための支援装置であって、対象物の3次元データを取得する3次元データ取得手段と、取得した3次元データに基づいて、対象物の画像を生成する画像生成手段と、生成した画像における所定の部位にユーザの操作によりアノテーションを付与するアノテーション付与手段と、生成した画像を対応する対象物の表面に投射する投射手段とを備え、画像生成手段は、所定の部位にアノテーションが付与されたアノテーション付き画像を生成し、投射手段は、生成したアノテーション付き画像を投射するので、現地で対象物を観察しながらアノテーションを付与することができるという効果を奏する。 According to the annotation support device according to the present invention, it is a support device for supporting the work of annotating a predetermined part of an object, and includes a three-dimensional data acquisition means for acquiring three-dimensional data of the object; An image generating means that generates an image of a target object based on the acquired three-dimensional data; an annotation adding means that annotates a predetermined part of the generated image according to a user's operation; and an object to which the generated image corresponds. The image generating means generates an annotated image in which a predetermined part is annotated, and the projecting means projects the generated annotated image, so that the image can be projected onto the surface of the target object on-site. This has the effect that annotations can be added while observing.
また、本発明に係る他のアノテーション支援装置によれば、ユーザの操作により対象物における所定の部位をポインティングするポインティング手段をさらに備え、3次元データ取得手段は、ポインティングした部位の3次元データを取得するので、現地でポインティングした部位を目視確認しながらアノテーション作業を実施することができるという効果を奏する。 Further, according to another annotation support device according to the present invention, the device further includes pointing means for pointing to a predetermined part of the target object by a user's operation, and the three-dimensional data acquisition means acquires three-dimensional data of the pointed part. Therefore, the annotation work can be carried out while visually checking the pointed part on-site.
また、本発明に係るアノテーション支援方法によれば、対象物の所定の部位にアノテーションを付与する作業を支援するための支援方法であって、対象物の3次元データを取得するステップと、取得した3次元データに基づいて、対象物の画像を生成するステップと、生成した画像における所定の部位にユーザの操作によりアノテーションを付与するステップと、所定の部位にアノテーションが付与されたアノテーション付き画像を生成し、生成したアノテーション付き画像を対応する対象物の表面に投射するので、現地で対象物を観察しながらアノテーションを付与することができるという効果を奏する。 Further, according to the annotation support method according to the present invention, there is provided a support method for supporting the work of annotating a predetermined part of a target object, which includes a step of acquiring three-dimensional data of the target object, and a step of acquiring three-dimensional data of the target object; A step of generating an image of the object based on the three-dimensional data, a step of annotating a predetermined part in the generated image by a user's operation, and generating an annotated image in which the predetermined part is annotated. However, since the generated annotated image is projected onto the surface of the corresponding object, it is possible to add annotations while observing the object on-site.
また、本発明に係る他のアノテーション支援方法によれば、ユーザの操作により対象物における所定の部位をポインティングし、ポインティングした部位の3次元データを取得するので、現地でポインティングした部位を目視確認しながらアノテーション作業を実施することができるという効果を奏する。 Furthermore, according to another annotation support method according to the present invention, a predetermined part of a target object is pointed by a user's operation, and three-dimensional data of the pointed part is obtained, so that the pointed part can be visually confirmed on site. This has the effect that annotation work can be performed while
以下に、本発明に係るアノテーション支援装置および方法の実施の形態を図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of an annotation support apparatus and method according to the present invention will be described in detail below with reference to the drawings. Note that the present invention is not limited to this embodiment.
(アノテーション支援装置)
まず、本発明に係るアノテーション支援装置の実施の形態について説明する。
図1に示すように、本実施の形態に係るアノテーション支援装置10は、対象物の所定の部位にアノテーション(例えばレーティング・備考など)を付与する作業を支援するための支援装置である。このアノテーション支援装置10は、入出力部12と、ポインティングデバイス14と、PC16(パーソナルコンピュータ)と、処理部18と、記憶部20とを備える。
(Annotation support device)
First, an embodiment of an annotation support device according to the present invention will be described.
As shown in FIG. 1, an
入出力部12は、3Dスキャナとプロジェクタが一体化した可搬性のものである。3Dスキャナは、周囲をスキャンして対象物の位置形状に関する3Dデータ(3次元データ)を取得する3次元データ取得手段である。この3Dスキャナは、ポインティングデバイス14でポインティングした部位(ポインティング位置)を示す3Dデータを取得可能である。プロジェクタは、所定の画像(アノテーション付き画像を含む)を対象物の表面に投射する投射手段である。
The input/
ポインティングデバイス14は、作業者が対象物Sにおける部位を指定するためのポインティング手段である。このポインティングデバイス14には、図示しない登録ボタンや指示ボタンなどの操作ボタンが備わっており、例えば部位を指定した状態で登録ボタンをクリックすると、部位を登録指定した旨の信号を処理部18に発信する。また、登録が完了されると、その旨の信号を処理部18から受信する。
The
このポインティングデバイス14は、対象物Sにおける部位を現地で指定することが可能であればいかなるデバイスを用いることができる。例えば、図2(1)に示すような指し棒やペンシル型のデバイスの先端で部位を指定してもよいし、スマートフォンやタブレット端末と一体化したものを用いてもよい。また、図2(2)に示すように、現地で天井など届かない箇所をポインティングするために、指定したい位置にレーザー光を照射するものでもよい。また、ポインティングデバイス14によるポインティングは、一点を指定する方式に限るものではない。例えば、図2(3)に示すように、ボタンのドラッグ操作などにより囲われた領域Rを指定できるようにしてもよい。
Any device can be used as the
PC16は、ディスプレイ等の表示装置と、キーボード、マウス等の操作インターフェースを持つパーソナルコンピュータであり、アノテーション付与手段として機能する。PC16は例えばタブレット端末で構成してもよい。このPC16は、記憶部20から画像データを取得して、取得した画像を表示装置上に表示する。ユーザは、表示装置上に表示された画像を参照して、この画像における所定の部位に、操作インターフェースを使用してアノテーションを付与することができる。ただし、どの部分にどのようなアノテーションを付与するかについては、現場で部位の状態を見ないと判断できないものがあるため、このアノテーション付与作業は現場で行うことが望ましい。例えば、どこまでを一つの部材とみなすかの判断、一つの部材の中で塗装が浮いている範囲の判断、劣化度合で一つの部材を2つの部位に分けてナンバリングする場合の判断は、現場で部位の状態を見なければ難しい。 The PC 16 is a personal computer having a display device such as a display and an operation interface such as a keyboard and a mouse, and functions as an annotation adding means. The PC 16 may be configured with a tablet terminal, for example. This PC 16 acquires image data from the storage unit 20 and displays the acquired image on a display device. The user can refer to the image displayed on the display device and add an annotation to a predetermined portion of the image using the operation interface. However, it is preferable to carry out this annotation work on-site, as it is impossible to determine which annotation should be added to which part without seeing the condition of the part on-site. For example, judgments are made on-site, such as how far to consider one part, the extent to which paint is floating within one part, and the numbering of parts when dividing one part into two parts based on the degree of deterioration. It's difficult to tell without looking at the condition of the parts.
付与されたアノテーションは、画像内の部位の位置を示す3Dデータと紐付されたアノテーションデータとして記憶部20に記憶される。なお、このPC16を用いて、アノテーションを追加・編集できるようにしてもよい。
The added annotation is stored in the storage unit 20 as annotation data associated with 3D data indicating the position of the region within the image. Note that the
処理部18は、入出力部12、ポインティングデバイス14、PC16とそれぞれ接続しており、これらとの間でデータを送受信して各種処理を行うものであり、画像生成手段として機能する。具体的には、処理部18は、入出力部12の3Dスキャナから送信される3Dデータに基づいて、対象物Sの画像を生成する処理を行う一方で、生成した画像データを入出力部12のプロジェクタと、PC16とに送信する処理を行う。また、この処理部18は、PC16から送信されるアノテーションデータに基づいて、所定の部位(例えば、ポインティング位置に対応する位置)にアノテーションが付与されたアノテーション付き画像を生成する処理を行う。
The processing section 18 is connected to the input/
また、この処理部18は、ポインティングデバイス14から部位を登録指定した旨の信号を受信すると、入出力部12の3Dスキャナに3Dスキャン指令を送信する。こうして、ポインティング位置を示す3Dデータを取得するためのスキャンを3Dスキャナに実行させる。そして、入出力部12の3Dスキャナから送信されたポインティング位置を示す3Dデータを用いて、ポインティング位置を検出する処理を行う。ポインティング位置は、ポインティングデバイス14から部位を登録指定した旨の信号を受信する前の3Dデータとの差分を利用して検出することができる。なお、処理部18と、入出力部12、ポインティングデバイス14、PC16との接続は直接接続方式でもよいし、ネットワーク等を経由した接続方式でもよい。
Further, upon receiving a signal from the
記憶部20は、処理部18に送受信される各種データを記憶するものである。例えば、入出力部12の3Dスキャナから送信される3Dデータ、処理部18が生成した画像データ、PC16から送信されるアノテーションデータなどを記憶する。
The storage unit 20 stores various data sent to and received from the processing unit 18. For example, 3D data transmitted from the 3D scanner of the input/
上記構成の動作および作用について、対象物における各部材(部位)に部材番号(アノテーション)を付与する作業を例にとり説明する。
まず、図2(1)に示すように、対象物Sのある空間内に入出力部12を設置する。続いて、入出力部12に備わる3Dスキャナで周囲の3Dデータを取得する。処理部18は、3Dデータに基づいて画像を生成する。
The operation and effect of the above configuration will be explained by taking as an example the work of assigning a member number (annotation) to each member (part) of a target object.
First, as shown in FIG. 2(1), the input/
次に、ユーザがポインティングデバイス14で対象部位を差しながら登録ボタンをクリックすると、処理部18は、3Dスキャナを通じてポインティング位置(対象部位)を検出する。処理部18は、記憶部20のアノテーションデータを参照して、ポインティング位置にアノテーションが付与されたアノテーション付き画像を生成する。入出力部12に備わるプロジェクタは、対象部位にむけてアノテーション付き画像を投射してプロジェクションマッピングを行う。こうすることで、対象部位の上に番号(図の例では5)が投影表示される。
Next, when the user clicks the registration button while pointing at the target region with the
なお、この投影された画像の3Dデータを3Dスキャナで再取得してもよい。こうすることで、ポインティング位置が3Dデータ上のどの位置かを特定し、データとして保持することができる。この作業を繰り返し行うことで、3Dデータ上の各箇所に順次番号が付与されていく。また、現場でリアルタイムに番号が投影されるので作業進捗も容易に確認することができる。この一連の作業によって、全体として、例えば図3に示すようなアノテーション付き画像データを取得することができる。 Note that the 3D data of this projected image may be reacquired using a 3D scanner. By doing so, it is possible to specify which position on the 3D data the pointing position is and hold it as data. By repeating this process, numbers are sequentially assigned to each location on the 3D data. Additionally, since the numbers are projected in real time on-site, you can easily check the work progress. Through this series of operations, annotated image data as shown in FIG. 3, for example, can be obtained as a whole.
また、後の工程で、もしくは上記の作業と平行して、登録した各ポインティング位置に対して、PC16などを用いてアノテーションを追加・編集できるようにしてもよい。また、PC16の表示装置上で、例えば投げ縄ツールなどにより複数のポイントを領域Rで指定して(図2(3)を参照)、一括編集できるようにしてもよい。
Further, in a later step or in parallel with the above operation, it may be possible to add and edit annotations to each registered pointing position using the
また、ユーザがポインティングデバイス14で対象部位を差しながら登録ボタンをクリックする前に、ユーザはPC16に表示させた画像を見ながら、画像内の所定の部材に番号を付与する作業を行っていてもよい。この場合、付与された番号は部材と紐付されてアノテーションデータとして記憶部20に記憶される。
Furthermore, before the user clicks the registration button while pointing at the target region with the
また、全体のアノテーション付き画像データが得られた後に、3Dデータ上で番号を表示したものを画像として出力し、各部材を指示する位置に、部材の名称と基準とを紐付けたアノテーションを表示した説明図を簡単に取得することもできる。 In addition, after obtaining the entire annotated image data, the number displayed on the 3D data is output as an image, and an annotation linking the name of the member and the reference is displayed at the position indicating each member. You can also easily obtain explanatory diagrams.
上記の実施の形態においては、PC16上でアノテーションを追加・編集する場合を例にとり説明したが、本発明はこれに限るものではなく、処理部18がアノテーションを追加・編集するための編集用入出力インターフェース機能を有してもよい。このようにしても上記と同様の作用効果を奏することができる。
In the above embodiment, the case where annotations are added/edited on the
本実施の形態によれば、3Dデータによる画像の生成とその部位の指定を、現地でポインティング箇所を確認しながら行うことができ、各部位にアノテーションが付与された建物のデータ生成を容易にすることができる。また、アノテーション作業の進捗をリアルタイムにプロジェクションマッピングによってフィードバックすることができる。このため、作業員がアノテーション作業の漏れを現場で目視確認しながらポインティングの作業を進めることができる。また、複数の作業員でポインティングの作業をすることもできる。このため、現場でのポインティングの作業効率を向上することができる。 According to the present embodiment, it is possible to generate an image using 3D data and specify its part while checking the pointing location on-site, making it easy to generate data for a building with annotations added to each part. be able to. Additionally, the progress of annotation work can be fed back in real time through projection mapping. Therefore, the worker can proceed with the pointing work while visually checking for omissions in the annotation work on site. In addition, pointing work can be performed by multiple workers. Therefore, the efficiency of pointing work on site can be improved.
(アノテーション支援方法)
次に、本発明に係るアノテーション支援方法の実施の形態について説明する。
図4に示すように、本実施の形態のアノテーション支援方法は、現地の空間に入出力部12を設定する(ステップS11)。次に、周囲を3Dスキャンし、3Dデータを保持する(ステップS12、13)。記憶部20において、既に前の3Dデータが有る場合には(ステップS14でYes)、前のデータと現在の3Dデータを統合して(ステップS22)、ステップS15に進める。一方、既に前の3Dデータがない場合には(ステップS14でNo)、そのままステップS15に進める。
(Annotation support method)
Next, an embodiment of the annotation support method according to the present invention will be described.
As shown in FIG. 4, the annotation support method of this embodiment sets the input/
次に、ユーザがポインティングデバイス14の登録ボタンで部位を登録する(ステップS15)。処理部18は、3Dデータ上の部位の位置に番号(アノテーション)を付与したアノテーション付き画像を生成し(ステップS16)、プロジェクタは、この画像をプロジェクションマッピングする(ステップS17)。ポインティングデバイス14で次の部位が登録されれば(ステップS18でYes)、ステップS15に戻り処理を繰り返す。登録されなければ(ステップS18でNo)、そのままステップS19に進める。 Next, the user registers the body part using the registration button of the pointing device 14 (step S15). The processing unit 18 generates an annotated image in which numbers (annotations) are assigned to the positions of parts on the 3D data (step S16), and the projector performs projection mapping on this image (step S17). If the next part is registered with the pointing device 14 (Yes in step S18), the process returns to step S15 and repeats the process. If it is not registered (No in step S18), the process directly advances to step S19.
次に、次のスキャン位置にするか否かを判断する(ステップS19)。スキャン位置を変える場合は(ステップS19でYes)、入出力部12を移動して(ステップS23)、ステップS11に戻り処理を繰り返す。スキャン位置を変えない場合は(ステップS19でNo)、追加で登録・修正するか否かを判断する(ステップS20)。追加で登録・修正する場合は(ステップS20でYes)、PC16上に3Dデータを描画し(ステップS24)、画面上で部位に番号を登録・修正し(ステップS25)、ステップS21に進める。追加で登録・修正しない場合は(ステップS20でNo)、そのままステップS21に進める。
Next, it is determined whether to move to the next scanning position (step S19). If the scanning position is to be changed (Yes in step S19), the input/
通し番号を付与しなおす場合は(ステップS21でYes)、付与した番号をソーティングし(ステップS26)、処理を終了する。通し番号を付与しなおさない場合は(ステップS21でNo)、そのまま処理を終了する。 If serial numbers are to be assigned again (Yes in step S21), the assigned numbers are sorted (step S26), and the process ends. If the serial number is not to be re-assigned (No in step S21), the process ends.
このように、一回のスキャンで建物内全体の3Dデータを取得できないために複数回に分けてスキャンする場合や、詳細部分を別途ハンディ3Dスキャナでスキャンする場合は、先に3Dデータを統合して建物内全体をカバーしてから、ポインティング作業に入ることが望ましい。 In this way, if you are unable to obtain 3D data for the entire building in a single scan and have to scan it multiple times, or if you want to scan detailed areas separately using a handy 3D scanner, you can integrate the 3D data first. It is recommended that you cover the entire building before starting the pointing operation.
次に、上記のステップS15~S17のポインティング作業における処理フローについて説明する。
図5に示すように、まず、ポインティングデバイス14の登録ボタンをクリックすると(ステップS1)、処理部18によって、3Dデータにより生成した画像におけるポイント位置が認識される(ステップS2)。認識したポイント位置に向けてプロジェクタが画像を投射する(ステップS3)。その後、対象物に画像が投射されている状態を3Dスキャナで再スキャンする(ステップS4)。こうすることで、3Dデータ上でポイント位置を保持することができる(ステップS5)。
Next, the processing flow in the pointing work in steps S15 to S17 will be described.
As shown in FIG. 5, first, when the registration button of the
本実施の形態によれば、3Dデータによる画像の生成とその部位の指定を、現地でポインティング箇所を確認しながら行うことができ、各部位にアノテーションが付与された建物のデータ生成を容易にすることができる。また、アノテーション作業の進捗をリアルタイムにプロジェクションマッピングによってフィードバックすることができる。このため、作業員がアノテーション作業の漏れを現場で目視確認しながらポインティングの作業を進めることができる。また、複数の作業員でポインティングの作業をすることもできる。このため、現場でのポインティングの作業効率を向上することができる。 According to the present embodiment, it is possible to generate an image using 3D data and specify its part while checking the pointing location on-site, making it easy to generate data for a building with annotations added to each part. be able to. Additionally, the progress of annotation work can be fed back in real time through projection mapping. Therefore, the worker can proceed with the pointing work while visually checking for omissions in the annotation work on site. In addition, pointing work can be performed by multiple workers. Therefore, the efficiency of pointing work on site can be improved.
(変形例)
次に、本実施の形態に係るアノテーション支援方法の変形例について説明する。この変形例のようにしても、上記と同様の作用効果を奏することができる。
(Modified example)
Next, a modification of the annotation support method according to this embodiment will be described. Even with this modification, the same effects as described above can be achieved.
図6に示すように、まず、現地の空間に入出力部12を設置し、周囲を3Dスキャンする(ステップS31)。続いて、ポインティングデバイス14の指示ボタンをクリックして(ステップS32)、ポインティングデバイス14の位置を3Dスキャナで再スキャンし、3Dデータを取得(撮像)する(ステップS33)。
As shown in FIG. 6, first, the input/
次に、ポインティングデバイス14の指示位置に向けてプロジェクタが画像を投射する(ステップS34)。ポインティングデバイス14を移動した場合は(ステップS35でYes)、ステップS33に戻り処理を繰り返す。ポインティングデバイス14を移動しない場合は(ステップS35でNo)、ポインティングデバイス14で登録ボタンをクリックして(ステップS36)、画像がプロジェクションマッピングされている状態を再スキャンし、3Dデータを取得(撮像)する(ステップS37)。次に、ステップS31のデータと、ステップS37のデータの差分により投射画像の位置を3Dデータ上で特定し(ステップS38)、投射画像の位置を対象物形状の位置と対応付けて保持する(ステップS39)。この後、次のポイントが有る場合は(ステップS40でYes)、ステップS32に戻り処理を繰り返す。次のポイントがない場合は(ステップS40でNo)、処理を終了する。
Next, the projector projects an image toward the position indicated by the pointing device 14 (step S34). If the
以上説明したように、本発明に係るアノテーション支援装置によれば、対象物の所定の部位にアノテーションを付与する作業を支援するための支援装置であって、対象物の3次元データを取得する3次元データ取得手段と、取得した3次元データに基づいて、対象物の画像を生成する画像生成手段と、生成した画像における所定の部位にユーザの操作によりアノテーションを付与するアノテーション付与手段と、生成した画像を対応する対象物の表面に投射する投射手段とを備え、画像生成手段は、所定の部位にアノテーションが付与されたアノテーション付き画像を生成し、投射手段は、生成したアノテーション付き画像を投射するので、現地で対象物を観察しながらアノテーションを付与することができる。 As explained above, the annotation support device according to the present invention is a support device for supporting the work of annotating a predetermined part of a target object, and is a support device for supporting the work of annotating a predetermined part of a target object. dimensional data acquisition means; image generation means for generating an image of an object based on the acquired three-dimensional data; and a projection means for projecting the image onto the surface of the corresponding object, the image generation means generates an annotated image in which a predetermined part is annotated, and the projection means projects the generated annotated image. Therefore, annotations can be added while observing the object on-site.
また、本発明に係る他のアノテーション支援装置によれば、ユーザの操作により対象物における所定の部位をポインティングするポインティング手段をさらに備え、3次元データ取得手段は、ポインティングした部位の3次元データを取得するので、現地でポインティングした部位を目視確認しながらアノテーション作業を実施することができる。 Further, according to another annotation support device according to the present invention, the device further includes pointing means for pointing to a predetermined part of the target object by a user's operation, and the three-dimensional data acquisition means acquires three-dimensional data of the pointed part. Therefore, annotation work can be carried out while visually checking the pointed area on site.
また、本発明に係るアノテーション支援方法によれば、対象物の所定の部位にアノテーションを付与する作業を支援するための支援方法であって、対象物の3次元データを取得するステップと、取得した3次元データに基づいて、対象物の画像を生成するステップと、生成した画像における所定の部位にユーザの操作によりアノテーションを付与するステップと、所定の部位にアノテーションが付与されたアノテーション付き画像を生成し、生成したアノテーション付き画像を対応する対象物の表面に投射するので、現地で対象物を観察しながらアノテーションを付与することができる。 Further, according to the annotation support method according to the present invention, there is provided a support method for supporting the work of annotating a predetermined part of a target object, which includes a step of acquiring three-dimensional data of the target object, and a step of acquiring three-dimensional data of the target object; A step of generating an image of the object based on the three-dimensional data, a step of annotating a predetermined part in the generated image by a user's operation, and generating an annotated image in which the predetermined part is annotated. Since the generated annotated image is then projected onto the surface of the corresponding object, it is possible to add annotations while observing the object on-site.
また、本発明に係る他のアノテーション支援方法によれば、ユーザの操作により対象物における所定の部位をポインティングし、ポインティングした部位の3次元データを取得するので、現地でポインティングした部位を目視確認しながらアノテーション作業を実施することができる。 Furthermore, according to another annotation support method according to the present invention, a predetermined part of a target object is pointed by a user's operation, and three-dimensional data of the pointed part is obtained, so that the pointed part can be visually confirmed on site. You can perform annotation work while
以上のように、本発明に係るアノテーション支援装置および方法は、歴史建造物の保存・修復計画などに有用であり、特に、現地で対象物を観察しながらアノテーションを付与するのに適している。 As described above, the annotation support device and method according to the present invention are useful for preservation and restoration planning of historical buildings, and are particularly suitable for annotating objects while observing them on-site.
10 アノテーション支援装置
12 入出力部(3次元データ取得手段、投射手段)
14 ポインティングデバイス(ポインティング手段)
16 PC(アノテーション付与手段)
18 処理部(画像生成手段)
20 記憶部
S 対象物
10
14 Pointing device (pointing means)
16 PC (annotation adding means)
18 Processing unit (image generation means)
20 Storage part S Object
Claims (4)
対象物の3次元データを取得する3次元データ取得手段と、取得した3次元データに基づいて、対象物の画像を生成する画像生成手段と、生成した画像における所定の部位にユーザの操作によりアノテーションを付与するアノテーション付与手段と、生成した画像を対応する対象物の表面に投射する投射手段とを備え、
画像生成手段は、所定の部位にアノテーションが付与されたアノテーション付き画像を生成し、投射手段は、生成したアノテーション付き画像を投射することを特徴とするアノテーション支援装置。 A support device for supporting the task of annotating a predetermined part of a target object, the support device comprising:
3D data acquisition means for acquiring 3D data of the object; image generation means for generating an image of the object based on the acquired 3D data; and annotation at a predetermined part of the generated image by user operation. an annotation adding means for adding an annotation, and a projection means for projecting the generated image onto the surface of the corresponding object,
An annotation support device characterized in that the image generation means generates an annotated image in which a predetermined part is annotated, and the projection means projects the generated annotated image.
3次元データ取得手段は、ポインティングした部位の3次元データを取得することを特徴とする請求項1に記載のアノテーション支援装置。 further comprising pointing means for pointing at a predetermined part of the object according to a user's operation,
2. The annotation support device according to claim 1, wherein the three-dimensional data acquisition means acquires three-dimensional data of the pointed part.
対象物の3次元データを取得するステップと、取得した3次元データに基づいて、対象物の画像を生成するステップと、生成した画像における所定の部位にユーザの操作によりアノテーションを付与するステップと、所定の部位にアノテーションが付与されたアノテーション付き画像を生成し、生成したアノテーション付き画像を対応する対象物の表面に投射することを特徴とするアノテーション支援方法。 A support method for supporting the task of annotating a predetermined part of a target object, the method comprising:
a step of acquiring three-dimensional data of the target object; a step of generating an image of the target object based on the acquired three-dimensional data; and a step of annotating a predetermined part of the generated image by a user's operation; An annotation support method comprising: generating an annotated image in which a predetermined part is annotated; and projecting the generated annotated image onto the surface of a corresponding object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020092697A JP7390978B2 (en) | 2020-05-27 | 2020-05-27 | Annotation support device and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020092697A JP7390978B2 (en) | 2020-05-27 | 2020-05-27 | Annotation support device and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021188971A JP2021188971A (en) | 2021-12-13 |
JP7390978B2 true JP7390978B2 (en) | 2023-12-04 |
Family
ID=78849279
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020092697A Active JP7390978B2 (en) | 2020-05-27 | 2020-05-27 | Annotation support device and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7390978B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4814700B2 (en) | 2006-06-15 | 2011-11-16 | 大成建設株式会社 | Pointing position detection system |
JP2014006917A (en) | 2008-01-15 | 2014-01-16 | Google Inc | Three-dimensional annotations for street view data |
WO2014162825A1 (en) | 2013-04-04 | 2014-10-09 | ソニー株式会社 | Display control device, display control method and program |
JP2018017640A (en) | 2016-07-29 | 2018-02-01 | 株式会社大林組 | Working face monitoring system |
JP2018150720A (en) | 2017-03-13 | 2018-09-27 | 大成建設株式会社 | Method and system for displaying information of working face, and tunnel construction method by using these |
-
2020
- 2020-05-27 JP JP2020092697A patent/JP7390978B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4814700B2 (en) | 2006-06-15 | 2011-11-16 | 大成建設株式会社 | Pointing position detection system |
JP2014006917A (en) | 2008-01-15 | 2014-01-16 | Google Inc | Three-dimensional annotations for street view data |
WO2014162825A1 (en) | 2013-04-04 | 2014-10-09 | ソニー株式会社 | Display control device, display control method and program |
JP2018017640A (en) | 2016-07-29 | 2018-02-01 | 株式会社大林組 | Working face monitoring system |
JP2018150720A (en) | 2017-03-13 | 2018-09-27 | 大成建設株式会社 | Method and system for displaying information of working face, and tunnel construction method by using these |
Also Published As
Publication number | Publication date |
---|---|
JP2021188971A (en) | 2021-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10699481B2 (en) | Augmentation of captured 3D scenes with contextual information | |
US7061485B2 (en) | Method and system for producing a model from optical images | |
US20070168153A1 (en) | Method and apparatus for photographic measurement | |
US20080267454A1 (en) | Measurement apparatus and control method | |
US8094242B2 (en) | Object management apparatus, mobile terminal, and object management method | |
JP6692154B2 (en) | Image display system and image display program | |
JP7391317B2 (en) | Information management device, information management system, information management method, and information management program | |
JP2005215917A (en) | Working drawing creation support method and replacement model creation method | |
JP4038726B2 (en) | Image matching method | |
JP2019094620A (en) | Bridge inspection support device, bridge inspection support method, program, and mobile terminal device | |
JP6537134B2 (en) | Equipment loss investigation support device and program | |
JP7390978B2 (en) | Annotation support device and method | |
JP5642735B2 (en) | Construction work support system and operation method thereof | |
Goedert et al. | Integrating laser scanning and rapid prototyping to enhance construction modeling | |
JPH10246628A (en) | Photographing control method | |
JP2004348577A (en) | Information display system and pointing device control method in it | |
JP7044331B2 (en) | Image processing systems, image processing methods and programs for efficiently inspecting structures such as bridges | |
JP2023018180A (en) | Measurement system and measurement method | |
JP2020095749A (en) | Image display system and image display program | |
US11915356B2 (en) | Semi-automatic 3D scene optimization with user-provided constraints | |
JP2015026226A (en) | Pickup data processing system | |
KR102563138B1 (en) | Augmented reality support system for construction and supervision of construction site | |
JP6937282B2 (en) | Annotation support system, annotation support device and annotation support method | |
JP2018092300A (en) | Three-dimensional model generation device, program thereof, and method thereof | |
TWM653153U (en) | an information processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230309 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231025 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231031 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231121 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7390978 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |