JP6890156B2 - Image generator, image generator and image generator - Google Patents

Image generator, image generator and image generator Download PDF

Info

Publication number
JP6890156B2
JP6890156B2 JP2019114923A JP2019114923A JP6890156B2 JP 6890156 B2 JP6890156 B2 JP 6890156B2 JP 2019114923 A JP2019114923 A JP 2019114923A JP 2019114923 A JP2019114923 A JP 2019114923A JP 6890156 B2 JP6890156 B2 JP 6890156B2
Authority
JP
Japan
Prior art keywords
image
unit
images
color
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019114923A
Other languages
Japanese (ja)
Other versions
JP2021002167A (en
Inventor
一輝 平林
一輝 平林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SoftBank Corp
Original Assignee
SoftBank Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SoftBank Corp filed Critical SoftBank Corp
Priority to JP2019114923A priority Critical patent/JP6890156B2/en
Publication of JP2021002167A publication Critical patent/JP2021002167A/en
Application granted granted Critical
Publication of JP6890156B2 publication Critical patent/JP6890156B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

この発明は、画像生成装置、画像生成方法および画像生成プログラムに関する。 The present invention relates to an image generator, an image generation method and an image generation program.

従来、無線基地局の鉄塔などの高所設備に劣化等の不具合が発生していないかを確認すべく定期的な点検作業が実施されている。例えば、高所設備の劣化としては、金属表面のサビやボルトの緩み、筐体のゆがみなどの症状があり、現状は人の目視によりこれらの有無が点検されるのが通常となっている。 Conventionally, regular inspection work has been carried out to confirm whether or not defects such as deterioration have occurred in high-altitude equipment such as steel towers of wireless base stations. For example, deterioration of equipment in high places includes symptoms such as rust on the metal surface, loosening of bolts, and distortion of the housing, and at present, it is usual to visually inspect the presence or absence of these.

高所設備の点検作業を人手により行うと、作業員の安全性や人件費、点検作業に要する時間や手間などの面で効率的ではないことから、近年、カメラが搭載されたドローンを用いて高所設備の画像を撮影することで省人化が図られている(例えば、特許文献1参照。)。特許文献1では、点検対象となる構造物において不具合が生じた箇所をカメラで撮影し、不具合の状態や箇所を確認する方法が開示されている。 Manual inspection of equipment in high places is not efficient in terms of worker safety, labor costs, time and effort required for inspection work, etc. Therefore, in recent years, drones equipped with cameras have been used. Labor saving is achieved by taking an image of equipment at a high place (see, for example, Patent Document 1). Patent Document 1 discloses a method of confirming the state and location of a defect by photographing a portion of the structure to be inspected where a defect has occurred with a camera.

また、カメラが搭載されたドローンを用いて対象物を撮像し、対象物の点検結果が報告される際、一つの対象物に対して、一部がラップした写真を複数枚撮影し、撮像された全ての写真がレポートに出力されて報告されるケースが多い。 In addition, when an object is imaged using a drone equipped with a camera and the inspection result of the object is reported, a plurality of partially wrapped photographs are taken and imaged for one object. In many cases, all the photos are output to the report and reported.

特開2017−166241号公報JP-A-2017-166241

しかしながら、任意の一つの錆が複数の写真に写っていた場合、レポート出力の際に別々の錆として出力されてしまい、レポート閲覧者にとってある錆が他の写真と同一の錆であるか否かが把握しづらく混乱を与える恐れがある。 However, if any one rust appears in multiple photos, it will be output as separate rust when the report is output, and whether or not one rust for the report viewer is the same rust as the other photos. Is difficult to grasp and may cause confusion.

そこで、本発明は、鉄塔等の高所設備の外観を撮影した画像から、効率的かつ一目瞭然に劣化症状が発生した位置および状態を目視できる三次元画像を生成可能な画像生成装置、画像生成方法および画像生成プログラムを提供することを目的とする。 Therefore, the present invention is an image generation device and an image generation method capable of generating a three-dimensional image capable of efficiently and clearly visually recognizing the position and state in which deterioration symptoms have occurred from an image obtained by photographing the appearance of high-altitude equipment such as a steel tower. And to provide an image generation program.

上記課題を解決するため、本発明に係る画像生成装置は、飛翔体に搭載されたカメラにより撮像された二次元画像から三次元画像を生成する画像生成装置であって、被写体の撮像位置を示す位置情報を含み、所定の前記撮影位置ごとに一部が相互に重複する複数の画像を取得する取得部と、画像に含まれる色彩のうち被写体の劣化症状と認定する色彩を定義する色彩定義部と、取得部により取得された複数の画像から所定の撮影位置ごとに一の画像を選定する選定部と、前記取得部により取得された画像の中で前記色彩定義部により定義された色彩が含まれる箇所を抽出する抽出部と、前記選定部により選定された画像を用いて被写体の三次元画像を生成する生成部と、前記抽出部により抽出された前記色彩が含まれる箇所を前記生成部により生成された三次元画像において識別可能に表示する表示部と、を備えることを特徴とする。 In order to solve the above problems, the image generator according to the present invention is an image generator that generates a three-dimensional image from a two-dimensional image captured by a camera mounted on a flying object, and indicates an imaging position of a subject. An acquisition unit that includes position information and acquires a plurality of images that partially overlap each other for each predetermined shooting position, and a color definition unit that defines the colors included in the images that are recognized as deterioration symptoms of the subject. A selection unit that selects one image for each predetermined shooting position from a plurality of images acquired by the acquisition unit, and a color defined by the color definition unit among the images acquired by the acquisition unit are included. An extraction unit that extracts a part to be used, a generation unit that generates a three-dimensional image of a subject using an image selected by the selection unit, and a generation unit that includes the color extracted by the extraction unit. It is characterized by including a display unit for identifiable display in the generated three-dimensional image.

本発明によれば、劣化症状と認定する色彩を定義した上で、一部が重複する複数画像を、撮影位置をもとに三次元画像と関連付け、定義された色彩に該当する箇所を三次元画像において表示するので、効率的かつ一目瞭然に劣化症状が発生した位置を目視することができる。 According to the present invention, after defining a color to be recognized as a deterioration symptom, a plurality of partially overlapping images are associated with a three-dimensional image based on a shooting position, and a portion corresponding to the defined color is three-dimensional. Since it is displayed as an image, it is possible to visually check the position where the deterioration symptom occurs efficiently and clearly at a glance.

本発明の実施形態に係る画像生成システムの構成を示すシステム図である。It is a system diagram which shows the structure of the image generation system which concerns on embodiment of this invention. 本発明の実施態様における画像生成装置の機能構成例を示すブロック図である。It is a block diagram which shows the functional structure example of the image generation apparatus in embodiment of this invention. 図3(a)〜図3(c)は、所定の撮影位置ごとに一部が重複する画像を示す図である。3 (a) to 3 (c) are diagrams showing images in which a part of the image overlaps at a predetermined shooting position. 本発明の実施形態における色彩定義部により所定の領域ごとに分割された画像の一例を示す図である。It is a figure which shows an example of the image which was divided into predetermined regions by the color definition part in embodiment of this invention. 本発明の実施形態における被写体を構成する全ての構成物を一画像に示した図である。It is a figure which showed all the components constituting the subject in embodiment of this invention in one image. 本発明の実施形態における生成部により二次元画像をもとに生成された被写体である鉄塔の三次元画像の一例を示す図である。It is a figure which shows an example of the 3D image of the steel tower which is the subject generated based on the 2D image by the generation part in embodiment of this invention. 本発明の実施形態における画像生成装置による被写体の三次元画像の生成処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the 3D image generation processing of a subject by the image generation apparatus in embodiment of this invention. 本実施形態における画像生成装置を実現可能なコンピュータの一例を示すハードウェア構成図である。It is a hardware block diagram which shows an example of the computer which can realize the image generation apparatus in this embodiment.

図1は、本発明の実施の形態に係る画像生成システムの全体構成を示すシステム図である。図1に示すように、画像生成システム1は、画像生成装置100と、飛翔体200とを含み、これらがネットワーク10を介して相互に通信可能となっている。ネットワーク10は、画像生成装置100と、飛翔体200aと、飛翔体200bと、飛翔体200cの各々を相互に接続する役割を担う。例えば、ネットワーク10は、有線ネットワークや無線ネットワークであってもよい。なお、図1では、飛翔体200aおよび飛翔体200bの2台を図示するが、さらに複数台あってもよい(以下、特に明示する場合を除き、飛翔体200と総称する。)。 FIG. 1 is a system diagram showing an overall configuration of an image generation system according to an embodiment of the present invention. As shown in FIG. 1, the image generation system 1 includes an image generation device 100 and a projectile 200, which can communicate with each other via a network 10. The network 10 plays a role of connecting each of the image generator 100, the flying object 200a, the flying object 200b, and the flying object 200c to each other. For example, the network 10 may be a wired network or a wireless network. In FIG. 1, two units, a flying object 200a and a flying object 200b, are shown, but there may be a plurality of units (hereinafter, unless otherwise specified, they are collectively referred to as the flying object 200).

画像生成装置100は、飛翔体200により撮像される撮像対象物である鉄塔300aまたは鉄塔300b(以下、鉄塔300a、鉄塔300bは特に明示する場合を除き、鉄塔300と総称する。)の画像を取得し、取得した鉄塔300の二次元画像を解析して鉄塔300の劣化症状を含む三次元画像を生成する装置である。なお、鉄塔300は、撮像対象物の一例であり、劣化症状を確認するための点検が必要となる構造物であればいずれであってもよい。他の例としては、例えば、鉄橋、文化建造物、銅像、橋梁などがある。 The image generation device 100 acquires an image of a steel tower 300a or a steel tower 300b (hereinafter, the steel tower 300a and the steel tower 300b are collectively referred to as a steel tower 300 unless otherwise specified), which is an image-imaging object imaged by the flying object 200. It is a device that analyzes the acquired two-dimensional image of the steel tower 300 and generates a three-dimensional image including the deterioration symptom of the steel tower 300. The steel tower 300 is an example of an object to be imaged, and may be any structure that requires inspection to confirm deterioration symptoms. Other examples include, for example, iron bridges, cultural buildings, statues, and bridges.

飛翔体200は、少なくとも自律飛行機能と撮像機能とを備えた装置であって、例えば、ドローンである。具体的には、飛翔体200は、設定された飛行航路に従って飛行制御する飛行制御部や、撮像機能としてのカメラや、現在位置を取得するGPS機能などを備え、バッテリーに充電された電池により駆動する。 The projectile 200 is a device having at least an autonomous flight function and an imaging function, and is, for example, a drone. Specifically, the flying object 200 is provided with a flight control unit that controls flight according to a set flight route, a camera as an imaging function, a GPS function for acquiring the current position, and the like, and is driven by a battery charged in the battery. To do.

図2は、本発明における画像生成装置100の機能構成例を示すブロック図である。図2に示すように、画像生成装置100は、制御部110と、通信制御部120と、入出力部130と、記憶部140とを備える。 FIG. 2 is a block diagram showing a functional configuration example of the image generation device 100 in the present invention. As shown in FIG. 2, the image generation device 100 includes a control unit 110, a communication control unit 120, an input / output unit 130, and a storage unit 140.

通信制御部120は、通信回線や電話回線等に接続されるアンテナやルータ等の通信装置(図示せず)に接続されるインターフェースである。すなわち、通信制御部120は、飛翔体200や、出力先となる情報処理装置(不図示)等のような外部装置と通信回線を介してデータを通信する機能を有している。 The communication control unit 120 is an interface connected to a communication device (not shown) such as an antenna or a router connected to a communication line, a telephone line, or the like. That is, the communication control unit 120 has a function of communicating data with an external device such as a flying object 200 or an information processing device (not shown) as an output destination via a communication line.

入出力部130は、情報を入力または出力するための液晶モニター等の画面である。なお、図2においては、入出力部130として、入力機能と出力機能が一体型となっている画面を例示するが、これに限定されず、キーボードなどの入力部を別に備えることで、入力機能と出力機能を別個の機能部としてもよい。 The input / output unit 130 is a screen such as a liquid crystal monitor for inputting or outputting information. In FIG. 2, the input / output unit 130 exemplifies a screen in which an input function and an output function are integrated, but the present invention is not limited to this, and an input function can be provided by separately providing an input unit such as a keyboard. And the output function may be separate functional parts.

記憶部140は、画像情報データベース141を記憶する。画像情報データベース141には、画像情報と、色彩サンプル情報とが格納されている。ここで、画像情報とは、被写体の画像データのことである。また、色彩サンプル情報とは、被写体の劣化症状の一例となる錆や亀裂(クラック)の色彩を示すサンプルデータのことであり、サンプルデータとして、撮像された画像全体のRGBや輝度に応じて複数のデータが保存されている。 The storage unit 140 stores the image information database 141. The image information database 141 stores image information and color sample information. Here, the image information is the image data of the subject. Further, the color sample information is sample data showing the colors of rust and cracks, which are examples of deterioration symptoms of the subject, and as sample data, a plurality of sample data are used according to the RGB and brightness of the entire captured image. Data is saved.

制御部110は、取得部111と、色彩定義部112と、画像分類部113と、抽出部114と、生成部115と、関連部116と、表示制御部117と、送受信部118とを備える。 The control unit 110 includes an acquisition unit 111, a color definition unit 112, an image classification unit 113, an extraction unit 114, a generation unit 115, a related unit 116, a display control unit 117, and a transmission / reception unit 118.

送受信部118は、飛翔体200などの外部端末または外部装置との間で各種情報を送受信する。例えば、送受信部118は、飛翔体200から被写体の画像を受信したり、外部サーバから地図情報を受信したりする。被写体の画像には、被写体の位置情報およびカメラ座標が含まれる。ここで、被写体の位置情報とは、被写体の撮影位置を示す情報であって、例えば、被写体が撮像された箇所の位置を示す緯度経度情報などである。 The transmission / reception unit 118 transmits / receives various information to / from an external terminal such as the flying object 200 or an external device. For example, the transmission / reception unit 118 receives an image of a subject from the projectile 200 and receives map information from an external server. The image of the subject includes the position information of the subject and the camera coordinates. Here, the position information of the subject is information indicating the shooting position of the subject, for example, latitude / longitude information indicating the position of the position where the subject is imaged.

取得部111は、送受信部118を介して、飛翔体200から被写体の画像を取得する。具体的には、取得部111は、所定の撮影位置ごとに一部が相互に重複する複数の画像(例えば、一つの撮影位置において8枚の画像など)を取得する。また、所定の撮影位置とは、被写体の撮影箇所として被写体の部分ごとに定められた撮影位置のことであり、例えば、被写体である鉄塔300を構成する部材ごとの撮影位置であってもよいし、上面、側面、背面、下面、内側面などのように三次元画像の展開図を構成する各面として一律に定められた撮影位置であってもよい。 The acquisition unit 111 acquires an image of the subject from the projectile 200 via the transmission / reception unit 118. Specifically, the acquisition unit 111 acquires a plurality of images (for example, eight images at one shooting position) in which some of the images overlap each other at a predetermined shooting position. Further, the predetermined shooting position is a shooting position determined for each part of the subject as a shooting position of the subject, and may be, for example, a shooting position for each member constituting the steel tower 300 which is the subject. , Upper surface, side surface, back surface, lower surface, inner side surface, etc., may be a shooting position uniformly defined as each surface constituting the developed view of the three-dimensional image.

例えば、図3(a)〜図3(b)は、所定の撮影位置ごとに一部が重複する画像を示す図である。図3(a)〜図3(c)は、所定の撮影位置として、鉄塔300に含まれる部材301の撮影位置が定められている場合において、相互に重複して撮像された3枚の画像である。図3(a)では、部材301の下部が画像フレームから切れており、下部以外は図3(b)と重複する。また、図3(b)において部材301は全景が画像フレームに含まれており、図3(a)および図3(c)の一部と重複する。また、図3(c)では、部材301の上部が画像フレームから切れており、上部以外は図3(b)と重複する。 For example, FIGS. 3 (a) to 3 (b) are diagrams showing images in which a part of the image overlaps at a predetermined shooting position. 3 (a) to 3 (c) show three images taken in an overlapping manner when the shooting position of the member 301 included in the steel tower 300 is defined as a predetermined shooting position. is there. In FIG. 3A, the lower part of the member 301 is cut off from the image frame, and the parts other than the lower part overlap with FIG. 3B. Further, in FIG. 3B, the entire view of the member 301 is included in the image frame, which overlaps with a part of FIGS. 3A and 3C. Further, in FIG. 3C, the upper part of the member 301 is cut off from the image frame, and the parts other than the upper part overlap with FIG. 3B.

色彩定義部112は、取得部111により取得された画像に含まれる色彩のうち被写体の劣化症状と認定する色彩を定義する。具体的には、色彩定義部112は、画像を所定の画素数からなる領域に分割し、分割した領域に含まれる色彩のうち被写体の劣化症状と認定する色彩を領域ごとに定義する。図4は、色彩定義部112により所定の領域ごとに分割された画像の一例を示す図である。図4に示す画像では、縦方向および横方向ともにそれぞれ4分割されており、全部で16領域に分割されている。また、各領域には、画像における座標が付与されている。例えば、画像における最下段の左端列に位置する領域に座標(x1、y1)が付与されており、当該領域を基準に右列に位置する領域に対して順に1座標ずつ大きい数値のx座標が付与されており、当該領域を基準に上段に位置する領域に対して順に1座標ずつ大きい数値のy座標が付与されている。 The color definition unit 112 defines the colors to be recognized as deterioration symptoms of the subject among the colors included in the image acquired by the acquisition unit 111. Specifically, the color definition unit 112 divides the image into regions having a predetermined number of pixels, and defines for each region the colors to be recognized as deterioration symptoms of the subject among the colors included in the divided regions. FIG. 4 is a diagram showing an example of an image divided into predetermined regions by the color definition unit 112. In the image shown in FIG. 4, each of the vertical direction and the horizontal direction is divided into four, and the image is divided into 16 regions in total. In addition, coordinates in the image are given to each area. For example, coordinates (x1, y1) are assigned to the area located in the leftmost column at the bottom of the image, and the x-coordinate of a numerical value that is one coordinate larger than the area located in the right column with respect to the area is assigned. It is assigned, and a numerical y-coordinate that is larger by one coordinate in order with respect to the region located in the upper row with respect to the region is assigned.

また、色彩定義部112は、分割した領域に含まれる色彩のうち被写体の劣化症状として錆や亀裂を認定する色彩を定義する。具体的には、色彩定義部112は、画像情報データベース141から色彩サンプル情報を参照し、分割した領域(以下、分割領域という。)ごとに当該領域に含まれる色彩のうち劣化症状として認定する色彩を定義する。また、色彩定義部112は、劣化症状として認定する色彩を複数のレベル分けして定義してもよい。例えば、色彩定義部112は、劣化症状として認定する色彩を、軽度の劣化症状を示すレベルから高度の劣化症状を示すレベルまで5段階のランクに分けて定義する。 Further, the color definition unit 112 defines a color that recognizes rust or crack as a deterioration symptomatism of the subject among the colors included in the divided region. Specifically, the color definition unit 112 refers to the color sample information from the image information database 141, and recognizes each divided region (hereinafter, referred to as a divided region) as a deterioration symptom of the colors included in the region. To define. Further, the color definition unit 112 may define the colors to be recognized as deterioration symptoms by dividing them into a plurality of levels. For example, the color definition unit 112 defines the colors to be recognized as deterioration symptoms in five ranks from a level showing mild deterioration symptoms to a level showing severe deterioration symptoms.

画像分類部113は、取得部111により取得された複数の画像を所定の撮影位置ごとに対応付けてグルーピングする。例えば、画像分類部113は、図3(a)〜図3(c)に示す3枚の画像をグルーピングして、部材301の撮影位置に対応付ける。なお、グルーピングされる画像の数は、一つの撮影位置に対して複数あればよい。 The image classification unit 113 groups a plurality of images acquired by the acquisition unit 111 in association with each predetermined shooting position. For example, the image classification unit 113 groups the three images shown in FIGS. 3A to 3C and associates them with the imaging position of the member 301. The number of images to be grouped may be a plurality for one shooting position.

関連部116は、取得部111により取得された画像と、詳細を後述する生成部115により生成された三次元画像とを位置情報で関連付ける。例えば、関連部116は、グルーピングされた画像群と、生成部115により生成された三次元画像とを所定の撮像位置が示す位置情報で関連付けてもよい。また、関連部116は、抽出部114により抽出された画像に画像IDを付与し、画像IDを付与した画像を生成部115により生成された三次元画像の展開画像の位置情報と関連付ける。 The related unit 116 associates the image acquired by the acquisition unit 111 with the three-dimensional image generated by the generation unit 115, which will be described in detail later, by position information. For example, the related unit 116 may associate the grouped image group with the three-dimensional image generated by the generation unit 115 with the position information indicated by the predetermined imaging position. Further, the related unit 116 assigns an image ID to the image extracted by the extraction unit 114, and associates the image with the image ID with the position information of the developed image of the three-dimensional image generated by the generation unit 115.

生成部115は、画像に含まれる位置情報を用いて被写体の三次元画像を生成する。生成部115は、撮影位置ごとに一部が重複する複数の画像の中から一画像を選定し、選定した画像に含まれる各構成物を画像から切り取って三次元画像の展開図を生成し、生成した展開図に含まれる位置情報をもとに三次元画像を生成する。図5は、被写体を構成する全ての構成物を一画像に示した図である。図5では、各構成物の画像が便宜上一画像上に展開されており、各構成物を示す画像部分には位置情報が含まれている。また、図6は、生成部115により二次元画像をもとに生成された被写体である鉄塔300の三次元画像の一例を示す図である。図6に示す鉄塔300の三次元画像のうち符号が付された構成物である部材302、部材303、部材304は、図5における同一符号が付された部材302、部材303、部材304とそれぞれ同一である。より詳細には、例えば、生成部115は、取得部111により取得された画像を空中三角測量の処理により三次元化し、三次元モデルのフレームを生成する。次に、生成部115は、各画像に含まれる相対的なカメラ座標((位置:xyz座標)、(回転:opk座標))を取得し、各画像のラップ率およびラップ領域を特定する。さらに、生成部115は、特定したラップ率と、ラップ領域と対応する箇所の画像の色とから、各三次元画像に含まれる部品の各場所の色としてのテクスチャを生成する。そして、生成部115は、生成したテクスチャを三次元モデルのフレームに貼付し、三次元画像を生成する。 The generation unit 115 generates a three-dimensional image of the subject by using the position information included in the image. The generation unit 115 selects one image from a plurality of images that partially overlap each shooting position, cuts out each component included in the selected image from the image, and generates a developed view of a three-dimensional image. A three-dimensional image is generated based on the position information included in the generated development view. FIG. 5 is a diagram showing all the components constituting the subject in one image. In FIG. 5, the image of each component is developed on one image for convenience, and the image portion showing each component includes position information. Further, FIG. 6 is a diagram showing an example of a three-dimensional image of the steel tower 300, which is a subject generated based on the two-dimensional image by the generation unit 115. Of the three-dimensional images of the steel tower 300 shown in FIG. 6, the members 302, 303, and 304, which are the members with the same reference numerals, are the same as the members 302, 303, and 304 in FIG. 5, respectively. It is the same. More specifically, for example, the generation unit 115 makes the image acquired by the acquisition unit 111 three-dimensional by the processing of aerial triangulation, and generates a frame of the three-dimensional model. Next, the generation unit 115 acquires the relative camera coordinates ((position: xyz coordinates), (rotation: opk coordinates)) included in each image, and specifies the lap ratio and the lap area of each image. Further, the generation unit 115 generates a texture as a color of each place of the component included in each three-dimensional image from the specified lap ratio and the color of the image of the place corresponding to the wrap area. Then, the generation unit 115 attaches the generated texture to the frame of the three-dimensional model to generate a three-dimensional image.

抽出部114は、複数の画像の中で色彩定義部112により定義された色彩が含まれる画像を分割領域ごとに抽出する。具体的には、抽出部114は、図5に示した展開図に対して、色彩定義部112により定義された色彩の箇所を抽出する。図5では、鉄塔300の部材302、部材303、部材304において各黒塗りで表示されている箇所が、抽出部114により抽出された色彩の箇所を示す。そして、当該色彩の箇所は、図6における鉄塔300の三次元画像においても同様に、図5における黒塗りされた箇所に対応する部材302、部材303、部材304において各黒塗りで表示されている。また、抽出部114は、画像分類部113によりグルーピングされた画像の中から、色彩定義部112により定義された色彩の特徴量が最も多い画像を抽出する。さらに、抽出部114は、画像分類部113によりグルーピングされた画像の中から、画像に含まれる色彩の特徴量が画像の中心により近い位置に含まれる画像を抽出してもよい。なお、例えば、抽出部1134により劣化部位が抽出される被写体となる設備としては、鉄塔、鋼管柱、コンクリート柱、建物又は橋梁などがある。 The extraction unit 114 extracts an image including the color defined by the color definition unit 112 from among the plurality of images for each divided region. Specifically, the extraction unit 114 extracts the color portion defined by the color definition unit 112 from the developed view shown in FIG. In FIG. 5, the black-painted portions of the members 302, 303, and 304 of the steel tower 300 indicate the colored portions extracted by the extraction unit 114. Similarly, in the three-dimensional image of the steel tower 300 in FIG. 6, the colored portion is displayed in black on the member 302, the member 303, and the member 304 corresponding to the black-painted portion in FIG. .. Further, the extraction unit 114 extracts the image having the largest amount of color features defined by the color definition unit 112 from the images grouped by the image classification unit 113. Further, the extraction unit 114 may extract an image in which the color feature amount included in the image is included at a position closer to the center of the image from the images grouped by the image classification unit 113. In addition, for example, as equipment for which a deteriorated portion is extracted by the extraction unit 1134, there are a steel tower, a steel pipe column, a concrete column, a building, a bridge, and the like.

表示制御部117は、三次元画像において、関連部116により関連付けられた画像のうち抽出部114により抽出された画像に含まれる色彩を識別可能に表示する。例えば、表示制御部117は、三次元画像のうち抽出部114により抽出された画像に含まれる色彩をハイライト表示する。 The display control unit 117 identifiablely displays the colors included in the image extracted by the extraction unit 114 among the images associated with the related unit 116 in the three-dimensional image. For example, the display control unit 117 highlights and displays the colors included in the image extracted by the extraction unit 114 among the three-dimensional images.

また、表示制御部117は、生成部115により生成された三次元画像を画像の中のいずれか一部の指定を受け付け可能な表示情報を入出力部130に出力し、指定を受け付けた箇所に対応する二次元画像を出力する。例えば、表示制御部117は、三次元画像に含まれる構成物(部材)、または、部位の中からいずれかの指定を受け付けた場合に、指定を受け付けた箇所の位置情報に関連付けられたグルーピングされた画像群を入出力部130に表示する。なお、表示の方法は、グルーピングされた画像群の画像が一つずつ順次表示されてもよいし、グルーピングされた画像群の全ての画像、または複数の画像のプレビュー画像が同時に表示され、その中からユーザによる選択により全画像が表示されてもよい。 Further, the display control unit 117 outputs the display information capable of accepting the designation of any part of the three-dimensional image generated by the generation unit 115 to the input / output unit 130, and at the place where the designation is accepted. Output the corresponding 2D image. For example, when the display control unit 117 receives the designation of any of the components (members) included in the three-dimensional image or the part, the display control unit 117 is grouped in association with the position information of the place where the designation is received. The image group is displayed on the input / output unit 130. As for the display method, the images of the grouped image group may be displayed one by one, or all the images of the grouped image group or the preview images of a plurality of images are displayed at the same time. All images may be displayed by selection by the user.

次に、画像生成装置100による被写体の三次元画像の生成処理について説明する。図7は、画像生成装置100による被写体の三次元画像の生成処理の流れを示すフローチャートである。 Next, the process of generating a three-dimensional image of the subject by the image generation device 100 will be described. FIG. 7 is a flowchart showing a flow of a three-dimensional image generation process of a subject by the image generation device 100.

取得部111は、飛翔体200から画像を取得する(ステップS1)。色彩定義部112は、ステップS1において取得された画像を所定領域に分割する(ステップS2)。色彩定義部112は、色彩を定義する(ステップS3)。 The acquisition unit 111 acquires an image from the projectile 200 (step S1). The color definition unit 112 divides the image acquired in step S1 into a predetermined area (step S2). The color definition unit 112 defines the color (step S3).

画像分類部113は、撮影位置ごとに画像をグルーピングする(ステップS4)。生成部115は、撮影位置ごとに一画像を選定する(ステップS5)。生成部115は、ステップS5において選定した画像から三次元画像の展開図を生成する(ステップS6)。 The image classification unit 113 groups images for each shooting position (step S4). The generation unit 115 selects one image for each shooting position (step S5). The generation unit 115 generates a developed view of a three-dimensional image from the image selected in step S5 (step S6).

抽出部114は、ステップS3において定義された色彩を含む画像を抽出する(ステップS7)。例えば、抽出部114は、複数の画像の中から定義された色彩を最も多く含む画像を抽出する。関連部116は、ステップS7において抽出された画像に対して画像IDを付与する(ステップS8)。関連部116は、ステップS8において画像IDを付与した画像を展開図と関連付ける(ステップS9)。 The extraction unit 114 extracts an image containing the colors defined in step S3 (step S7). For example, the extraction unit 114 extracts an image containing the most defined colors from a plurality of images. The related unit 116 assigns an image ID to the image extracted in step S7 (step S8). The related unit 116 associates the image to which the image ID is given in step S8 with the developed view (step S9).

表示制御部117は、ステップS7において抽出された画像のうち定義された色彩の箇所を他の箇所と識別可能に表示する(ステップS10)。例えば、表示制御部117は、三次元画像において定義された色彩の箇所をハイライト表示する。生成部115は、ステップS6において生成した三次元画像の展開図、および、ステップS10においてハイライト表示された画像を用いて被写体の三次元画像を生成する(ステップS11)。 The display control unit 117 displays the defined color portion of the image extracted in step S7 so as to be distinguishable from other portions (step S10). For example, the display control unit 117 highlights a color portion defined in the three-dimensional image. The generation unit 115 generates a three-dimensional image of the subject using the developed view of the three-dimensional image generated in step S6 and the image highlighted in step S10 (step S11).

このように、本実施形態における画像生成装置100によれば、飛翔体200から取得した複数の画像を用いて三次元画像を生成し、同一箇所の劣化症状を示す画像が複数ある場合であっても、生成した三次元画像における該当箇所に当該複数画像を関連付けるので、効率的かつ一目瞭然に劣化症状が発生した位置を特定し得る三次元画像を生成することができる。 As described above, according to the image generation device 100 in the present embodiment, a three-dimensional image is generated using a plurality of images acquired from the flying object 200, and there are a plurality of images showing deterioration symptoms at the same location. In addition, since the plurality of images are associated with the corresponding parts in the generated three-dimensional image, it is possible to generate a three-dimensional image capable of efficiently and clearly identifying the position where the deterioration symptom occurs.

図8は、本実施形態における画像生成装置100を実現可能なコンピュータ20の一例を示すハードウェア構成図である。図8に示すように、コンピュータ20は、CPU(Central Processing Unit)21、RAM(Random Access Memory)22、ROM(Read Only Memory)23、HDD(Hard Disk Drive)24、通信インターフェース(I/F)25、入出力インターフェース(I/F)26、およびメディアインターフェース(I/F)27を備える。 FIG. 8 is a hardware configuration diagram showing an example of a computer 20 capable of realizing the image generator 100 according to the present embodiment. As shown in FIG. 8, the computer 20 includes a CPU (Central Processing Unit) 21, a RAM (Random Access Memory) 22, a ROM (Read Only Memory) 23, an HDD (Hard Disk Drive) 24, and a communication interface (I / F). 25, an input / output interface (I / F) 26, and a media interface (I / F) 27 are provided.

CPU21は、ROM23またはHDD24に格納されたプログラムにより動作し、各部の制御を行う。ROM23は、コンピュータ20の起動時にCPU21によって実行されるブートプログラムや、コンピュータ20のハードウェアに依存するプログラム等を格納する。 The CPU 21 operates by a program stored in the ROM 23 or the HDD 24, and controls each part. The ROM 23 stores a boot program executed by the CPU 21 when the computer 20 is started, a program that depends on the hardware of the computer 20, and the like.

HDD24は、CPU21によって実行されるプログラムおよび当該プログラムによって使用されるデータ等を格納する。通信インターフェース25は、通信回線を介して外部機器から受信したデータをCPU21に送り、CPU21が生成したデータを、通信回線を介して外部機器に送信する。 The HDD 24 stores a program executed by the CPU 21 and data used by the program. The communication interface 25 sends the data received from the external device via the communication line to the CPU 21, and transmits the data generated by the CPU 21 to the external device via the communication line.

CPU21は、入出力インターフェース26を介して、ディスプレイやプリンタ等の出力装置、および、キーボードやマウス等の入力装置を制御する。CPU21は、入出力インターフェース26を介して、入力装置からデータを取得する。また、CPU21は、生成したデータを、入出力インターフェース26を介して出力装置へ出力する。 The CPU 21 controls an output device such as a display or a printer and an input device such as a keyboard or a mouse via the input / output interface 26. The CPU 21 acquires data from the input device via the input / output interface 26. Further, the CPU 21 outputs the generated data to the output device via the input / output interface 26.

メディアインターフェース27は、記憶媒体28に格納されたプログラムまたはデータを読み取り、RAM22を介してCPU21に提供する。CPU21は、当該プログラムを、メディアインターフェース27を介して記憶媒体28からRAM22上にロードし、ロードしたプログラムを実行する。記憶媒体28は、例えばDVD(Digital Versatile Disc)等の光学記憶媒体、磁気記憶媒体、または半導体メモリ等である。 The media interface 27 reads the program or data stored in the storage medium 28 and provides it to the CPU 21 via the RAM 22. The CPU 21 loads the program from the storage medium 28 onto the RAM 22 via the media interface 27, and executes the loaded program. The storage medium 28 is, for example, an optical storage medium such as a DVD (Digital Versatile Disc), a magnetic storage medium, a semiconductor memory, or the like.

コンピュータ20が本実施形態における画像生成装置100として機能する場合、コンピュータ20のCPU21は、RAM22上にロードされたプログラムを実行することにより、取得部111、色彩定義部112、画像分類部113、抽出部114、生成部115、関連部116、表示制御部117、送受信部118の各機能を実現する。また、HDD24には、画像情報データベース141内のデータが格納される。 When the computer 20 functions as the image generation device 100 in the present embodiment, the CPU 21 of the computer 20 executes the program loaded on the RAM 22 to execute the acquisition unit 111, the color definition unit 112, the image classification unit 113, and the extraction unit. Each function of the unit 114, the generation unit 115, the related unit 116, the display control unit 117, and the transmission / reception unit 118 is realized. Further, the data in the image information database 141 is stored in the HDD 24.

画像生成システムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、CD−R、メモリカード、DVD(Digital Versatile Disk)、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記憶媒体に記憶されて提供される。コンピュータ20のCPU21は、これらのプログラムを、メディアインターフェース27を介して上記の記憶媒体から読み取って実行するが、他の例として、外部装置から、通信回線を介してこれらのプログラムを取得してもよい。 The image generation system is a computer-readable storage medium such as a CD-ROM, CD-R, memory card, DVD (Digital Versatile Disk), or flexible disk (FD) in an installable or executable format. Memorized and provided. The CPU 21 of the computer 20 reads and executes these programs from the above storage medium via the media interface 27, but as another example, even if these programs are acquired from an external device via a communication line. Good.

なお、画像生成システムは、例えば、ActionScript、JavaScript(登録商標)、Python、Rubyなどのスクリプト言語、C言語、C++、C#、Objective-C、Swift、Java(登録商標)などのコンパイラ言語などを用いて実装できる。 The image generation system uses, for example, script languages such as ActionScript, JavaScript (registered trademark), Python, and Ruby, and compiler languages such as C language, C ++, C #, Objective-C, Swift, and Java (registered trademark). Can be implemented using.

1 画像生成システム
100 画像生成装置
110 制御部
111 取得部
112 色彩定義部
113 画像分類部
114 抽出部
115 生成部
116 関連部
117 表示制御部
118 送受信部
120 通信制御部
130 入出力部
140 記憶部
141 画像情報データベース
200 飛翔体
300 鉄塔
1 Image generation system 100 Image generation device 110 Control unit 111 Acquisition unit 112 Color definition unit 113 Image classification unit 114 Extraction unit 115 Generation unit 116 Related unit 117 Display control unit 118 Transmission / reception unit 120 Communication control unit 130 Input / output unit 140 Storage unit 141 Image information database 200 Flying object 300 Iron tower

Claims (13)

飛翔体に搭載されたカメラにより撮像された二次元画像から三次元画像を生成する画像生成装置であって、
被写体の撮像位置を示す位置情報を含み、所定の撮影位置ごとに一部が相互に重複する複数の画像を取得する取得部と、
前記画像に含まれる色彩のうち被写体の劣化症状と認定する色彩を定義する色彩定義部と、
前記取得部により取得された複数の画像の中で前記色彩定義部により定義された色彩が含まれる画像を抽出する抽出部と、
前記複数の画像を用いて被写体の三次元画像を生成する生成部と、
前記取得部により取得された画像と、前記生成部により生成された三次元画像とを前記位置情報で関連付ける関連部と、
前記三次元画像において、前記関連部により関連付けられた画像のうち前記抽出部により抽出された画像に含まれる前記色彩を識別可能に表示する表示制御部と、
前記取得部により取得された複数の画像を所定の撮影位置ごとに対応付けてグルーピングする画像分類部と、
を備え
前記抽出部は、前記画像分類部によりグルーピングされた画像の中から、前記色彩の特徴量が最も多い画像を抽出すること、
を特徴とする画像生成装置。
An image generator that generates a three-dimensional image from a two-dimensional image captured by a camera mounted on a flying object.
An acquisition unit that includes position information indicating the imaging position of the subject and acquires a plurality of images that partially overlap each other at a predetermined shooting position.
A color definition unit that defines the colors that are recognized as deterioration symptoms of the subject among the colors included in the image, and
An extraction unit that extracts an image containing the color defined by the color definition unit from a plurality of images acquired by the acquisition unit, and an extraction unit.
A generator that generates a three-dimensional image of the subject using the plurality of images,
A related part that associates the image acquired by the acquisition unit with the three-dimensional image generated by the generation unit by the position information, and
In the three-dimensional image, a display control unit that identifiablely displays the colors included in the image extracted by the extraction unit among the images associated with the related unit.
An image classification unit that groups a plurality of images acquired by the acquisition unit in association with each predetermined shooting position, and an image classification unit.
Equipped with a,
The extraction unit extracts the image having the largest amount of color features from the images grouped by the image classification unit.
An image generator characterized by.
前記色彩定義部は、前記画像を所定の画素数からなる領域に分割し、分割した領域に含まれる色彩のうち被写体の劣化症状と認定する色彩を前記領域ごとに定義し、
前記抽出部は、前記領域ごとに前記色彩が含まれる領域を含む画像を抽出すること、
を特徴とする請求項1に記載の画像生成装置。
The color definition unit divides the image into regions having a predetermined number of pixels, and defines the colors included in the divided regions that are recognized as deterioration symptoms of the subject for each region.
The extraction unit extracts an image including a region containing the color for each region.
The image generator according to claim 1.
前記抽出部は、前記画像に含まれる前記色彩の特徴量が、前記画像の中心により近い位置に含まれる画像を抽出すること、
を特徴とする請求項1または2に記載の画像生成装置。
The extraction unit extracts an image in which the feature amount of the color contained in the image is contained at a position closer to the center of the image.
The image generator according to claim 1 or 2.
前記取得部は、前記位置情報およびカメラ座標を含み、所定の前記撮影位置ごとに一部が相互に重複する複数の画像を取得し、
前記生成部は、前記取得部により取得された画像に含まれるカメラ座標から複数の画像の重複率および重複領域を導出し、導出した重複率および重複領域に基づいて重複箇所を特定し、特定した重複率と、導出した重複箇所に対応する箇所の画像の色とに基づいて被写体の三次元画像を生成すること、
を特徴とする請求項1〜のいずれか1つに記載の画像生成装置。
The acquisition unit acquires a plurality of images that include the position information and camera coordinates and partially overlap each other at each predetermined shooting position.
The generation unit derives the overlap rate and the overlap area of a plurality of images from the camera coordinates included in the image acquired by the acquisition unit, and identifies and identifies the overlap portion based on the derived overlap rate and the overlap area. Generating a three-dimensional image of the subject based on the duplication rate and the color of the image of the part corresponding to the derived overlapping part,
The image generator according to any one of claims 1 to 3.
前記色彩定義部は、前記劣化症状の度合いに応じて複数のランクを定義し、
前記抽出部は、前記生成部により生成された三次元画像の中でいずれかの前記ランクに該当する色彩が含まれる画像を抽出し、
前記表示制御部は、前記色彩が含まれる箇所を前記ランク別に識別可能に表示すること、
を特徴とする請求項1〜のいずれか1つに記載の画像生成装置。
The color definition unit defines a plurality of ranks according to the degree of the deterioration symptomatology.
The extraction unit extracts an image containing a color corresponding to any of the ranks from the three-dimensional images generated by the generation unit.
The display control unit displays the portion including the color so as to be identifiable by the rank.
The image generator according to any one of claims 1 to 4.
前記色彩定義部は、劣化症状の度合いに応じて複数のランクを定義し、
前記抽出部は、前記取得部により取得された画像の中で前記ランクが最も高い色彩を含む画像を抽出すること、
を特徴とする請求項1〜のいずれか1つに記載の画像生成装置。
The color definition unit defines a plurality of ranks according to the degree of deterioration symptomatology.
The extraction unit extracts an image containing the color having the highest rank among the images acquired by the acquisition unit.
The image generator according to any one of claims 1 to 5.
前記表示制御部は、前記生成部により生成された三次元画像において、前記関連部により関連付けられた画像に含まれる前記色彩をハイライト表示すること、
を特徴とする請求項1〜のいずれか1つに記載の画像生成装置。
The display control unit highlights the colors included in the image associated with the related unit in the three-dimensional image generated by the generation unit.
The image generator according to any one of claims 1 to 6.
前記表示制御部は、前記生成部により生成された三次元画像のうちいずれか一部の指定を受け付け、指定を受け付けた箇所に対応する二次元画像を出力すること、
を特徴とする請求項1〜のいずれか1つに記載の画像生成装置。
The display control unit accepts the designation of any part of the three-dimensional images generated by the generation unit, and outputs the two-dimensional image corresponding to the designated portion.
The image generator according to any one of claims 1 to 7.
前記取得部により取得された複数の画像を所定の撮影位置ごとに対応付けてグルーピングする画像分類部、
をさらに備え、
前記色彩定義部は、前記画像を所定の画素数からなる領域に分割し、
前記表示制御部は、前記生成部により生成された三次元画像のうちいずれか一部の指定を受け付け、指定を受け付けた箇所に該当する前記領域に対応するグルーピングされた画像群の画像を一つ以上出力すること、
を特徴とする請求項1〜のいずれか1つに記載の画像生成装置。
An image classification unit that groups a plurality of images acquired by the acquisition unit in association with each predetermined shooting position.
With more
The color definition unit divides the image into a region having a predetermined number of pixels.
The display control unit accepts the designation of any part of the three-dimensional images generated by the generation unit, and one image of the grouped image group corresponding to the area corresponding to the designated portion. To output the above,
The image generator according to any one of claims 1 to 8.
前記色彩定義部は、前記画像に含まれる色彩のうち被写体の錆または亀裂を示す劣化症状と認定する色彩を定義すること、
を特徴とする請求項1〜のいずれか1つに記載の画像生成装置。
The color definition unit defines the colors included in the image that are recognized as deterioration symptoms indicating rust or cracks in the subject.
The image generator according to any one of claims 1 to 9.
飛翔体に搭載されたカメラにより撮像された二次元画像から三次元画像を生成する画像生成方法であって、
被写体の撮像位置を示す位置情報を含み、所定の撮影位置ごとに一部が相互に重複する複数の画像を取得する取得ステップと、
前記画像に含まれる色彩のうち被写体の劣化症状と認定する色彩を定義する色彩定義ステップと、
前記取得ステップにより取得された複数の画像の中で前記色彩定義ステップにより定義された色彩が含まれる画像を抽出する抽出ステップと、
前記複数の画像を用いて被写体の三次元画像を生成する生成ステップと、
前記取得ステップにより取得された画像と、前記生成ステップにより生成された三次元画像とを前記位置情報で関連付ける関連ステップと、
前記三次元画像において、前記関連ステップにより関連付けられた画像のうち前記抽出ステップにより抽出された画像に含まれる前記色彩を識別可能に表示する表示制御ステップと、
前記取得ステップにより取得された複数の画像を所定の撮影位置ごとに対応付けてグルーピングする画像分類ステップと、
を備え、
前記抽出ステップは、前記画像分類ステップによりグルーピングされた画像の中から、前記色彩の特徴量が最も多い画像を抽出すること、
を特徴とする画像生成方法。
It is an image generation method that generates a three-dimensional image from a two-dimensional image captured by a camera mounted on a flying object.
An acquisition step of acquiring a plurality of images that partially overlap each other for each predetermined shooting position, including position information indicating the imaging position of the subject.
A color definition step that defines a color that is recognized as a deterioration symptomatology of the subject among the colors included in the image, and
An extraction step of extracting an image containing the color defined by the color definition step from a plurality of images acquired by the acquisition step, and an extraction step.
A generation step of generating a three-dimensional image of a subject using the plurality of images, and
A related step of associating the image acquired by the acquisition step with the three-dimensional image generated by the generation step by the position information.
In the three-dimensional image, a display control step for identifiablely displaying the colors included in the image extracted by the extraction step among the images associated with the related step, and
An image classification step of associating and grouping a plurality of images acquired by the acquisition step for each predetermined shooting position, and an image classification step.
With
The extraction step is to extract the image having the largest amount of color features from the images grouped by the image classification step.
An image generation method characterized by.
コンピュータを、
被写体の撮像位置を示す位置情報を含み、所定の撮影位置ごとに一部が相互に重複する複数の画像を取得する取得機能と、
前記画像に含まれる色彩のうち被写体の劣化症状と認定する色彩を定義する色彩定義機能と、
前記取得機能により取得された複数の画像の中で前記色彩定義機能により定義された色彩が含まれる画像を抽出する抽出機能と、
前記複数の画像を用いて被写体の三次元画像を生成する生成機能と、
前記取得機能により取得された画像と、前記生成機能により生成された三次元画像とを前記位置情報で関連付ける関連機能と、
前記三次元画像において、前記関連機能により関連付けられた画像のうち前記抽出機能により抽出された画像に含まれる前記色彩を識別可能に表示する表示制御機能
前記取得機能により取得された複数の画像を所定の撮影位置ごとに対応付けてグルーピングする画像分類機能
として実現し、
前記抽出機能は、前記画像分類機能によりグルーピングされた画像の中から、前記色彩の特徴量が最も多い画像を抽出すること、
を特徴とする画像生成プログラム。
Computer,
An acquisition function that includes position information indicating the imaging position of the subject and acquires multiple images that partially overlap each other at each predetermined shooting position.
A color definition function that defines the colors that are recognized as deterioration symptoms of the subject among the colors included in the image, and
An extraction function that extracts an image containing the color defined by the color definition function from a plurality of images acquired by the acquisition function, and an extraction function.
A generation function that generates a three-dimensional image of the subject using the plurality of images, and
A related function that associates the image acquired by the acquisition function with the three-dimensional image generated by the generation function by the position information, and
In the three-dimensional image, and a display control function for identifiably displaying the color included in the extracted image by the extraction function of the image associated with the related functions,
It is realized as an image classification function that groups a plurality of images acquired by the acquisition function in association with each predetermined shooting position.
The extraction function extracts an image having the largest amount of color features from the images grouped by the image classification function.
An image generation program characterized by.
飛翔体に搭載されたカメラにより撮像された画像に基づいて三次元画像を生成する画像生成装置であって、An image generator that generates a three-dimensional image based on an image captured by a camera mounted on a flying object.
画像に含まれる色彩のうち被写体の不具合を示す色彩を定義する色彩定義部と、A color definition unit that defines the colors that indicate a defect in the subject among the colors included in the image,
複数の画像がグルーピングされた画像に基づいて、前記被写体の不具合を示す色彩が最も多く含まれる画像を抽出する抽出部と、Based on an image in which a plurality of images are grouped, an extraction unit that extracts an image containing the largest amount of colors indicating a defect of the subject, and an extraction unit.
前記複数の画像を用いて生成された前記被写体の三次元画像であって、前記被写体の撮像位置に関する位置情報が関連付けられた前記三次元画像において、前記被写体の不具合を示す色彩を識別可能に表示する表示制御部と、In the three-dimensional image of the subject generated by using the plurality of images and in which the position information regarding the imaging position of the subject is associated with the three-dimensional image, the color indicating the defect of the subject is identifiablely displayed. Display control unit and
を備えることを特徴とする画像生成装置。An image generator characterized by comprising.
JP2019114923A 2019-06-20 2019-06-20 Image generator, image generator and image generator Active JP6890156B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019114923A JP6890156B2 (en) 2019-06-20 2019-06-20 Image generator, image generator and image generator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019114923A JP6890156B2 (en) 2019-06-20 2019-06-20 Image generator, image generator and image generator

Publications (2)

Publication Number Publication Date
JP2021002167A JP2021002167A (en) 2021-01-07
JP6890156B2 true JP6890156B2 (en) 2021-06-18

Family

ID=73995127

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019114923A Active JP6890156B2 (en) 2019-06-20 2019-06-20 Image generator, image generator and image generator

Country Status (1)

Country Link
JP (1) JP6890156B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3568892B2 (en) * 1999-12-21 2004-09-22 株式会社巴コーポレーション Method for detecting and judging corrosion of a member having a curved surface
JP6868487B2 (en) * 2016-06-30 2021-05-12 株式会社日立システムズ Subject abnormality investigation system
JP6515367B1 (en) * 2018-10-31 2019-05-22 株式会社センシンロボティクス Imaging system and imaging method

Also Published As

Publication number Publication date
JP2021002167A (en) 2021-01-07

Similar Documents

Publication Publication Date Title
CN112396686A (en) Three-dimensional scene engineering simulation and live-action fusion system and method
EP3693931A1 (en) Method for the automatic material classification and texture simulation for 3d models
JP7046873B2 (en) Inspection management system, inspection management server, inspection management method and inspection management program
JP2019070631A (en) Deterioration diagnosis system using flight vehicle
US9208555B1 (en) Method for inspection of electrical equipment
WO2006040775A3 (en) Computational solution of and building of three dimensional virtual models from aerial photographs
JP6180647B2 (en) Indoor map construction apparatus and method using cloud points
US6970174B2 (en) Texture mapping method and apparatus
JP2012137933A (en) Position specifying method of planimetric features to be photographed, program thereof, display map, photographic position acquiring method, program thereof and photographic position acquiring device
JP2018205264A (en) Image processor, method for processing image, and image processing program
CN111104473A (en) Visual information management system, method and server
US10788434B2 (en) Method for inspecting an object optically
JP6425511B2 (en) Method of determining feature change and feature change determination apparatus and feature change determination program
JP2019211257A (en) Inspection system
JP5862865B2 (en) Composite image display device and composite image display program
JP5707238B2 (en) Image search apparatus and image search system
JP6890156B2 (en) Image generator, image generator and image generator
JP7166225B2 (en) Abnormality inspection system, abnormality inspection device, abnormality inspection method and abnormality inspection program
JP6998918B2 (en) Flight route determination device, flight route determination system, flight route determination method and flight route determination program
JP2020016663A (en) Inspection system
JP2019211486A (en) Inspection system
JP2020095553A (en) Drawing inspection system, drawing inspection device, drawing inspection method, and program
US20230094918A1 (en) Aircraft control apparatus, aircraft control method, and non-transitory computer-readable medium
US11922659B2 (en) Coordinate calculation apparatus, coordinate calculation method, and computer-readable recording medium
KR101954711B1 (en) Modification Method Of Building Image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210511

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210524

R150 Certificate of patent or registration of utility model

Ref document number: 6890156

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250